Команда часто воспринимается как набор сильных людей, которые должны «как‑то сработаться». Но в реальности она устроена ближе к сложной системе: движение начинается только тогда, когда понятны параметры, сильные зоны, дефициты и роли каждого элемента. Разбираю, почему инженерная логика иногда точнее управленческой интуиции и что даёт такой подход в работе с командами.
Читать далееВ 2025 году DOGE под руководством Илона Маска активно использовала ИИ. Как показали последующие расследования, система неправильно интерпретировала контрактные данные Министерства по делам ветеранов, не разобралась в правилах Министерства жилищного строительства и совершила множество других серьёзных ошибок. И, разумеется, галлюцинировала на каждом шагу. Последствия оказались весьма ощутимыми.
И всё же, как ни парадоксально, мы должны быть благодарны за этот случай — он открыл нам глаза на то будущее, к которому нас настойчиво ведут техно-энтузиасты и бенефициары ИИ-бума.
А если вам кажется, что всё это вас не касается — у меня не самые приятные новости. DOGE — лишь один эпизод. Но ИИ уже повсюду. И это надолго.
Он проник в нашу питьевую воду. И теперь от него не избавиться.
Читать далееКошмар с автозавершением
Наше префиксное дерево было в 8 раз медленнее хэш-таблицы. И оно потребляло 128 МБ памяти, в отличие от хэш-таблицы с 24 МБ.
Такого не должно было произойти. Префиксные деревья — стандартное решение для автозавершения: поиск за O(k), где k — длина строки вне зависимости от размера датасета. Идеально подходит для сопоставления префиксов. Обычно всегда используется для автозавершения, проверки правописания и таблиц IP-маршрутизации.
Мой коллега предложил использовать префиксное дерево для функции автозавершения в нашем инструменте командной строки. Поиск в нём должен был выполняться по 50 тысячам команд и опций. Учебники говорили, что это правильный выбор.
Поэтому мы реализовали префиксное дерево. Результаты бенчмарка оказались ужасными:
Префиксное дерево было в 8 раз медленнее простой хэш-таблицы. И оно использовало 128 МБ памяти, в то время как хэш-таблица — всего 24 МБ.
Где мы ошиблись?
Читать далееСтатья предназначена для заказчиков — руководителей, владельцев бизнеса, которые принимают решение о внедрении 1С и участвуют в предпроектном обследовании.
Когда компания решает автоматизировать учёт на 1С, подрядчики предлагают обследование. Многие заказчики считают это лишней бюрократией. Но именно на этом этапе закладываются сроки, бюджет и будущее системы. Рассказываю, какие 11 ошибок совершают заказчики по собственной инициативе и к чему они приводят.
Читать далееС помощью Python провел исследование космических адресов Алисы Селезневой. Вокруг нее было так много планет, неплохо исследованных, а посетила она только малую часть из них.
Читать далееИз новостей: Epic games увольняет 1000 человек, у Crimson Desert 3 миллиона продаж за неделю, Sony поднимет цены на PS5, Xbox планирует удешевить стоимость подписки Game Pass.
Из интересностей: запускаем эмуляцию «Ну, погоди!» в Linux на слабом железе, какой Кодхима режиссёр, DOOM на чистом CSS, от LittleBigPlanet к Dreams.
Читать далееИметь свой мессенджер — больше не роскошь, а страховка от блокировок. В условиях, когда привычные инструменты могут исчезнуть в любой момент, полный контроль над перепиской становится вопросом выживания бизнеса. Рассказываем, как поднять Rocket.Chat “в облаке”: от простого Docker Compose до отказоустойчивого Kubernetes-кластера
Читать далееВсем привет! Меня зовут Наталья, я ведущий системный аналитик в MWS. В ИТ полно примеров того, как попытки решить задачу приводят к появлению совершенно непригодных инструментов. Формально они работают, но пользоваться ими либо крайне неудобно, либо невозможно. Кнопку вроде сделали, но кривую и не там. Сайт работает, но падает под нагрузкой. Парковку предусмотрели, но только для 10% клиентов.
Проблема в том, что в центре внимания чаще оказывается то, что именно должна делать система. А вот тому, как она это делает, уделяют гораздо меньше времени. В этой статье разберём, что такое нефункциональные требования, как их грамотно формулировать и какие подходы помогают выявлять их на практике.
Читать далееМногие вещи существуют в природе достаточно давно, однако открывая их для себя человек частенько придумывает весьма любопытные новые применение для них — не является исключением и ультразвук, который, несмотря на достаточную изученность к нынешнему моменту (учёными), для обычных людей содержит ряд скрытых возможностей, малоизвестных широкой публике…
Читать далееМеня зовут Семён Ремезов, я Senior QA в компании «Гринатом» (мы пишем софт для «Росатома»).
Про такие вещи обычно говорят шёпотом в курилках либо громко обсуждают, только когда уже «прилетело».
Можно, конечно, наклепать синтетических моков, но в сложных системах это мало что даст. У нас в «Гринатоме» крутятся огромные системы. Это не просто «магазин с корзиной». Это продукты с чудовищным уровнем вложенности, тоннами информации и зависимостями, которые переплетаются между собой, как корни столетнего дуба. Данные пересекаются везде и всюду.
Синтетика — это стерильная лаборатория. Моковые данные — это то, как разработчик представляет себе данные. А их реальный массив — это то, как пользователи на самом деле кошмарят систему.
Мы внедрили у себя security-лейблы в Postgres Pro Enterprise для анонимизации, и этот путь был, мягко говоря, тернистым. Если вы думаете, что анонимизация — это просто скрипт UPDATE users SET name = 'Ivan', то у меня для вас плохие новости.
Давайте разберём, как мы построили процесс, почему отказались от дорогих «коробочных» решений и как заставили Postgres 15-й версии работать нормально.
Читать далееБенчмарков сейчас – как нейросетей: каждую неделю новый. GPQA Diamond тестирует PhD-знания. Lexometrica проверяет фактическую точность. LLM Persuasion Benchmark – способность убеждать в дебатах. Chatbot Arena – предпочтения живых людей. Резонный вопрос: зачем ещё один?
Два ответа. Первый: ценность бенчмарков – в перекрёстном подтверждении. GPT-5.4 – первое место у нас, в GPQA Diamond, в Lexometrica и в Persuasion Benchmark. Kimi K2.5 – шестое и у нас, и у Lexometrica. YandexGPT и GigaChat – внизу везде, где они вообще есть (в GPQA Diamond из 154 моделей – не попали). Четыре независимых бенчмарка – один и тот же вердикт.
Второй – важнее. Мы не нашли ни одного систематического бенчмарка, который тестирует российские модели бок о бок с глобальными на практических задачах. Если знаете такой – напишите в комментариях.
Наше исследование: 54 модели, 32 сценария на русском языке, промпты как пишет живой менеджер, два LLM-судьи с калибровкой. Обновление предыдущей статьи. Интерактивные результаты – на сайте.
Детали по исследованиюТак как типичная LLM обучена работать с текстом, первые попытки были просто давать модели чистый HTML. И как не странно, это даже работало, причём надёжнее, чем ожидалось скептиками.
Одновременно в параллельной вселенной существовали E2E тесты, которые имитировали живых юзеров, нажимали на кнопки и заполняли поля. И этим тестам тоже как-то надо было отслеживать изменения на экране. Сравнение скиншотов оказалось крайне не надёжным методом. Тут разработчики Playwright – это известный open source фреймворк для E2E тестов, под крылом Microsoft - вспомнили про ARIA и экранные читалки.
Читать далееВ этой статье продолжаем борьбу с фильтрами по дате в Apache Superset. Сегодня разберем, как реализовать подобие логики remove_filter в старых версиях (до 5), чтобы виртуальный датасет не оборачивался фильтрами.
Читать далееТри недели с момента запуска MENO. В первой части было 120 пользователей и баги в парсинге. Во второй - 149 пользователей и новый онбординг. Сейчас - третья.
Коротко: пользователей стало больше, бот стал чище, а с dev.to прилетел комментарий, который заставил задуматься.
Это третья часть серии.
Читать далее«Нам нужен сотрудник с горящими глазами» — звучит красиво. Но часто за этой фразой скрывается ожидание постоянного героизма, размытые границы ответственности и системные переработки. Где заканчивается вовлечённость и начинается эксплуатация — разбираемся без эмоций и иллюзий.
Читать далееПредставьте: в миллиардах световых лет от нас сталкиваются две черные дыры. Каждая из них — область пространства в пару десятков км, в которой заключена масса десятка Солнц. Они вращаются друг вокруг друга со скоростью в половину скорости света, пока наконец не сталкиваются, излучая огромную энергию в виде гравитационных волн — колебаний пространства-времени. Мощность этого излучения на пике выше, чем мощность всего остального излучения в видимой Вселенной! Гравитационные волны от этого события бегут миллиарды лет со скоростью света, пока наконец не достигают Земли, где мы их ловим огромными детекторами гравитационных волн.
Читать далееВ этом эссе родителя-экспериментатора без педагогической теории (я не педагог и не психолог), без идеализации родительства, но с некоторым багажом практики, я описываю, как занимался развитием сына и что делал, чтобы он вырос думающим, любознательным, любопытным и эрудированным.
Читать далееВ этой статье мы не просто посмотрим синтаксис — мы поймём зачем это нужно и как работает под капотом. Мы пройдём путь от указателей на функции в C/C++ до современных лямбда-выражений в C#, разберёмся с делегатами и научимся использовать всю мощь функциональных возможностей языка.
Читать далееНа конференции PgConf 2026, которая прошла в Москве 23-24 марта 2026 года было много докладов.
В статье дан обзор одного из докладов конференции, - Андрея Билле, главного инженера компании Postgres Professional.Название доклада: "Если ваш админ самурай или история о восстановлении очень нужных данных". Доклад рекомендовали организаторы конференции, поэтому я решил его посетить и не пожалел. Этот доклад оказался наиболее зажигательным.
Читать далееЧуть более двух лет назад я опубликовал здесь статью про восприятие IT-специалистами феномена нейросетей. Тогда моё «исследование» (не стоит убирать кавычки, это именно «исследование») базировалось на опыте психологического консультирования 30 представителей сферы, с которыми поднималась эта тема. Если мы вернемся немного назад во времени, то картина будет следующей.
Конец 2022 года. Open AI презентовала продукт ChatGPT на основе своей модели GPT-3.5. Данное событие ознаменовало не только какое-то сюрреалистичное количество статей и скриншотов, а-ля «а вот как мне ответил чатжэпэтэ», но и повышение уровня стресса среди представителей многих профессий. Но так как вы читаете это на Хабре, то и говорить я буду преимущественно про целевую аудиторию, то есть, работников IT-сферы.
Так вот, на протяжении 2023 года я наблюдал за тем, как профессиональное сообщество воспринимает появление нового явления, которое некоторые приравнивают к созданию паровой машины, повлекшей за собой техническую революцию. Накопил 30 человек, которые делились со мной своими переживаниями и страхами. На основании этого вывел определенную статистику. На момент второй половины 2023 года респонденты разделились на три категории: 10% отнеслись к появлению подобного рода ИИ позитивно, 50% умеренно переживали, 40% демонстрировали панические нотки.
Но вот прошло уже более трёх лет как мы живем в «новом мире». Мы начали к этому адаптироваться. Какие-то ожидания и страхи оправдались, какие-то – нет (ещё нет?). Следовательно, картинка должна была как-то измениться. И про актуальное восприятие (именно восприятие, а не реальное положение дел) эта статья.
А был ли мальчик?