Habr.com

Syndicate content Хабр
Все публикации подряд на Хабре
Updated: 16 min 39 sec ago

Почему технологии не сделали нас счастливее: ищем ответ в антиутопиях Стругацких

Sat, 05/16/2026 - 12:10

Каждое утро начинается одинаково. Лайк, бесконечный скролл, покупка «по рекомендации». Кажется, что это приметы исключительно нашей современности, но эти механизмы были описаны еще десятки лет назад. Через час вы уже не помните, на что смотрели, но фоновая тревога никуда не исчезает. Перед нами те самые «хищные вещи века» — термин, который братья Стругацкие ввели еще в 1964 году, задолго до появления таргета и дофаминовых петель соцсетей. 

Но поначалу мечта была другой. В мире «Полдня, XXII век» Земля — цветущий сад. Реакторы и звездолеты здесь лишь фон для главного — человека-творца. Формула счастья тогда казалась простой: «Главное — это то, что мы работаем, и то, что нам интересно жить». Технический прогресс виделся прямой магистралью к всеобщему благу.

Однако утопия разбилась о реальность. Стругацкие пришли к пугающему выводу: изобилие ресурсов само по себе не гарантирует счастья. Техника победила голод — но тем самым открыла дорогу другим проблемам: скуке, внутренней пустоте, бегству в искусственные стимулы. Почему при сверхмощных компьютерах мы рискуем превратиться в «сытых животных»?

Попробуем найти ответы в их антиутопиях.

Читать далее

[Перевод] Шаттлы, бомбардировщики, космические лаборатории: история аэрокосмических компьютеров IBM 4 Pi, часть вторая

Sat, 05/16/2026 - 12:00

Первая часть

AP-102 и VHSIC

В середине 1980-х IBM выпустила компьютер AP-102. К 1992 году он стал самым популярным из процессоров авионики IBM: компания продала тысячу таких устройств. AP-102 стал технологическим шагом вперёд по сравнению с AP-101, потому что в нём использовались два чипа VLSI (Very Large Scale Integration) по 12 тысяч вентилей каждый: один чип реализовывал Instruction Processing Unit, а второй — Extended Arithmetic Unit (умножение и деление с фиксированной и плавающей запятой). Эти чипы были изготовлены по двухмикрометровой технологии N-МОП. Для хранения данных в AP-102 применялась статическое КМОП-ОЗУ , которое было гораздо плотнее, чем память на сердечниках, потребляя при этом в десять раз меньшую мощность. Так как КМОП-ОЗУ теряет своё содержимое при отключении питания, AP-102 имел резервный аккумулятор — литий-тионилхлоридные элементы, способные обеспечивать питание памяти в течение семи лет.

AP-102 был компактным, в половину ширины AP-1011. Он весил 9,4 кг и потреблял 95 Вт. В нём использовался стандартный военный набор команд 1750A; он исполнял более одного миллиона команд в секунду. В 1980-х AP-102 применялся во многих летательных аппаратах, в том числе в истребителях F-117A Nighthawk, вертолётах для специальных операций MH-53J, в системе навигации и доставки боеприпасов к цели (AN/ASQ-203), «неуказанном боевом вертолёте» и в засекреченном проекте.

Читать далее

Как я работаю с психологом — идея стартапа

Sat, 05/16/2026 - 12:00

1️⃣ Записываю разговоры в Zoom. Встреча обрывается через 40 минут, обычно это 2 аудиофайла по 40 минут. Плюс еще аудиосообщения в Телеграме вдогонку.

2️⃣ Для расшифровки аудио я использую сервис TurboScribe, он дает в сутки 3 аудио по 30 минут. Поэтому мне надо сделать так, чтобы все наши аудио уместились в 3 файла меньше 30 минут. Все аудиоматериалы встречи закидываю в программу Audacity и там сплошной аудиопоток разделяю на 3 кусочка (30 + 30 + 20).

3️⃣ Закидываю все эти 3 файла в TurboScribe. Выставляю там галочку «Определять говорящих». После распознавания речи удостоверяюсь, что в каждом тексте Speaker 1 — это я (иногда это бывает психолог, тогда приходится переименовывать, думаю, это зависит от объема разговора).

4️⃣ Создаю текстовый файл с датировкой встречи, типа 20260515.txt, и копирую туда все 3 части разговора из TurboScribe.

5️⃣ Загружаю получившуюся расшифровку в NotebookLM, прошу сделать презентацию. Внимательно читаю презентацию, разглядываю рисунки и схемы, которые создала нейросеть, восхищаюсь, как она превращает с трудом рожденные в разговоре образы в красочные иллюстрации.

6️⃣ Прошу сделать аудиообзор — перед сном слушаю подобие подкаста о том, что мы обсудили на встрече. Иногда там мелькает новая информация, о которой я даже не задумывался.

7️⃣ Когда накопился большой объем встреч (16 на данный момент), захожу через Codex в папку со всеми расшифровками разговоров и прошу проанализировать их и подсветить самое важное. ИИ прочитывает этот объем (небольшая книга разговоров за 4 месяца) и делает наблюдения общего характера. Советует что-то. Например, говорит, что идея жить в доме в деревне может быть не самой удачной, потому что я в одном из разговоров рассказывал, как я счастлив жить в центре города со всеми удобствами (всё рядом: спортзал, аптека, поликлиника, офис, английский клуб). Советует тему для следующего разговора: «Эта проблема мелькала много раз, но вы её ни разу нормально не обсудили, возможно, в этой проблеме точка роста».

Читать далее

manage.py migrate в пятницу в 17:30 на проде с 3K RPS и таблицей 200М строк

Sat, 05/16/2026 - 11:44

Всем привет! Меня зовут Макс, я Lead Backend и автор YouTube-канала PyLounge

Это третья часть мини-серии о Django-миграциях. В первой части мы готовились к миграциям и разбирались с конфликтами, во второй чинили типичные подводные камни. Если их не читали, то рекомендую начать именно с них, а затем вернуться сюда.

В этом же материале поговорим о самом интересном: что происходит, когда python manage.py migrate запускается в 17:30 в пятницу на проде, под 3k RPS и таблицей в 200 миллионов строк. 

Расскажу какие блокировки в PostgreSQL берёт каждая операция Django, что внутри atomic = False, как пишется правильный паттерн expand-migrate-contract, зачемнужны AddIndexConcurrently, AddConstraintNotValid, SeparateDatabaseAndState и как обновлять данные на больших таблицах.

P.S. примеры намеренно упрощены, чтобы влезли в статью и не задушили. В реальной жизни всё ещё хуже - но шаги те же.

P.S.S. При подготовки этого материала ни одна продовая база данных не пострадала. 

Читать далее

PLC-Tracer — новый взгляд на Ladder логику

Sat, 05/16/2026 - 11:19

PLC-Tracer новый взгляд на Ladder логику. Это бесплатный браузерный инструмент диагностики для ПЛК Allen-Bradley (ControlLogix, CompactLogix, MicroLogix и PLC-5). Он разбирает и визуализирует лестничную логику как в офлайн-режиме, так и по данным из живого контроллера. Инструмент умеет записывать состояния переменных в реальном времени через прямое подключение к ПЛК и воспроизводить сессии в режиме офлайн.

Читать далее

Безопасное внедрение ИИ в корпорации: 3 архитектурных подхода и опыт Alpina Digital

Sat, 05/16/2026 - 11:00

88% компаний используют ИИ, но только 1% достиг зрелости. Главный барьер — не технология, а безопасность данных. Что мы делали два года и почему пришли к гибридной архитектуре.

Жемал Хамидун, Head of AI Alpina Digital, CPO AlpinaGPT, автор тг-канала «Готовим ИИшницу».

Читать далее

Менеджеры тратили 500 часов в год на бесполезные задачи. Вот как мы это исправили

Sat, 05/16/2026 - 11:00

Топ-менеджеры ГК «Первый Трест» теперь уходят с работы на два часа раньше, компания экономит до 5–7 % оборота в год, а 50 000 задач по девяти жилым комплексам больше не теряются. Застройщик из Уфы рассказал, как добился этого.

Читать далее

Ловушка экспертности: почему мозг деградирует именно тогда, когда вы наконец всего достигли

Sat, 05/16/2026 - 10:44

Дэвид Иглмен — нейробиолог, автор книги «Мозг. Ваша личная история», которая издана на русском, однажды устроил соревнование с десятилетним мальчиком Остином Набером — чемпионом мира по капстекингу среди детей (соревнование, кто быстрее соберёт и разберёт пирамидки из специальных пластиковых стаканчиков). Остин управился за пять секунд. Иглмен — за сорок три.

Сразу после этого Иглмен замерил активность мозга обоих — с помощью ЭЭГ, электродов на коже головы. Логично было бы предположить, что мозг чемпиона работает на повышенных оборотах — ведь такая скорость, такая точность. Но всё оказалось наоборот! Активность мозга Иглмена была высокой — мозг новичка бросал на незнакомую задачу все имеющиеся ресурсы. У Остина картина была ближе к состоянию покоя.

Для ученого это стало наглядным примером того, что происходит с мозгом, когда он перестаёт сталкиваться с незнакомым.

Победа, которая останавливает рост

Когда мы осваиваем что-то новое, мозг работает на износ: задействует префронтальную кору, теменную кору, мозжечок — все ресурсы брошены на решение незнакомой задачи. Но чем больше мы практикуемся, тем глубже навык уходит в структуру мозга — буквально прожигается в нейронных связях. И однажды он перестаёт требовать сознательного участия. Остин не думает о том, как складывать стаканчики. Его мозг просто делает это — тихо, экономно, на автопилоте.

Иглмен называет это встраиванием навыка в микроструктуру мозга. Мозг превращает когнитивную программу общего назначения в специализированное аппаратное обеспечение. Это и есть мастерство.

Читать далее

Фишинг с подменой URI: или как один хитрый редирект может угнать ваши пароли

Sat, 05/16/2026 - 10:18

Всем привет! Хочу поделиться, возможно, не новым, но, на мой взгляд, довольно изощренным видом фишинга. Кто-то уже наверняка сталкивался с таким методом, а для кого-то он окажется в новинку.

Читать далее

Harness вокруг LLM: что я понял за год ежедневной работы

Sat, 05/16/2026 - 10:13

Полтора года в Claude Code, несколько релизов моделей, десятки экспериментов с командой в Kaiten. Всё это время я ждал, что главным рычагом качества будет очередной релиз модели. Оказалось, ровно наоборот: смена модели даёт заметный, но ограниченный прирост, а каждый новый слой обвязки вокруг неё — кратный.

Англоязычные инженеры называют эту обвязку harness. Это контур, в котором живёт модель: системный промпт, инструменты, контекст, скиллы, хуки, разрешения и память. Без него даже флагманский Claude или Codex работает как экскаватор без рычагов — мощность есть, использовать нечем. У русского аналога одного короткого слова пока нет, поэтому ниже — harness и обвязка вперемешку.

Читать далее

Как запихнуть килограмм LLM в телеграм-бота и не сойти с ума

Sat, 05/16/2026 - 09:21

Все началось с прикола, я сидел с друзьями и подумал, а вот было бы прикольно запихать разные модели нейросетей в один чат и заставить их думать, что они реальные люди и работают в корпорации. Весь смысл был в том, чтобы это были действительно разные модели и пользователь мог просто между ними переключаться по запросу. Для начала мне нужно было найти зоопарк апи ключей с бесплатными лимитами. Я прошерстил весь интернет и в итоге нашел относительно норм варианты: Groq для LLama, Google AI Studio для Gemma и Gemini. В целом в это время код был простой, правда все время происходил забавный баг, когда пользователь переключался между моделями, одна модель не хотела отдавать очередь другой и просто притворялась ею, но я в целом без трудностей поправил это через системный промт. Однако до конца у меня исправить это так и не получилось, видимо, мои модели слишком тупые.

Читать далее

AI API ключ для нейросетей: единый доступ к ИИ-моделям через один интерфейс

Sat, 05/16/2026 - 04:54

Бизнесу, разработчикам и продуктовым командам уже недостаточно подключить одну нейросеть и считать задачу закрытой. Для текста лучше подходит одна модель, для кода — другая, для изображений — третья, для видео, аудио, 3D и эмбеддингов — отдельные классы решений. Поэтому на первый план выходит не просто API нейросеть, а единый слой доступа, где можно управлять разными моделями через один понятный интерфейс, один баланс и один набор правил интеграции.

AI API ключ нужен, чтобы приложение, сайт, CRM, бот, внутренний сервис или аналитическая система могли обращаться к моделям искусственного интеллекта без ручной работы. Вместо того чтобы каждый раз открывать веб-интерфейс нейросети, пользователь отправляет запрос программно: текст, изображение, аудио, видео, задачу на генерацию кода, поиск смысла в документах или создание 3D-объекта.

Главная ценность такого подхода — скорость внедрения. Команда получает API ИИ, подключает его к своему продукту и начинает строить сценарии: автоматические ответы клиентам, генерацию карточек товаров, проверку кода, создание изображений для витрин, обработку голосовых сообщений, подготовку видео, анализ документов, поиск похожих текстов и многое другое. При этом AI API доступ можно организовать так, чтобы не зависеть от одной модели и быстро переключаться между провайдерами.

Агрегатор ИИ API в России: https://api.ranvik.ru/

Читать далее

Возвращение блудного программиста (ч. 4)

Sat, 05/16/2026 - 04:43

Эта часть про то, как я пилю бэкенд, учусь на этом и получаю эмоциональные качели.

Для начала, напомню о себе: после 12 лет отсутствия в сфере я решил вернуться к своему базовому образованию – инженер-программист. Что-то приходится «вспоминать с нуля», но я не люблю начинать изучение полностью с теории, я больше экспериментатор.

Читать далее

Детектор WiFi излучения

Sat, 05/16/2026 - 03:02

Мне приходится периодически кататься на велике. В какой-то момент я решил, что просто кататься - это слишком скучно. Захотелось не просто ездить, но и как-то исследовать окружающий мир.

Я попробовал исследовать окрестности своего квартала на наличие источников WiFi излучения.

Читать далее

Я заставил LLM писать Rust полгода. Вот что они стабильно ломают

Sat, 05/16/2026 - 02:13

Полгода использовал Claude, GPT и Cursor как полноценного второго разработчика на Rust в проде. Собрал семь категорий ошибок, которые модели стабильно делают и которые проходят cargo build, cargo test, иногда cargo clippy и при этом являются UB или скрытыми архитектурными ловушками. Lifetime laundering, std::sync::Mutex через .await, Drop у транзакций, unaligned read, async cancellation, orphan rule и массивы на стеке. Разбираю, почему именно Rust ломает LLM и что с этим делать.

Читать далее

Инженерный подход к MLOps: как принципы расчётной механики ложатся в архитектуру AutoML

Sat, 05/16/2026 - 01:09

«Если что-то может пойти не так, это обязательно случится». Мы не пытаемся предотвратить отказ, мы проектируем систему так, чтобы отказ одного элемента не валил конструкцию целиком.

В предыдущих статьях мы разобрали AutoML на задаче о Титанике и показали систему мониторинга моделей. Это были туториалы по компонентам OutBoxML. Сегодня я хочу подняться на уровень выше и поговорить о принципах, на которых эти компоненты и вся система держатся. И поговорить про это через мой опыт в судостроении и страховании.

Читать далее

Очереди в микросервисах: 5 ошибок, которые приводят к дублям и потерям

Sat, 05/16/2026 - 00:40

Почему добавление второго consumer«а в очередь может привести к двойным списаниям? Разбираем на реальном кейсе: как один Topic стоил компании 312 дублей за час. »

Сравниваем поведение JMS, Kafka и RabbitMQ, показываем, почему ни одна очередь не даёт exactly‑once из коробки, и как идемпотентность, Dead Letter Queue и правильный выбор канала (команды vs события) делают интеграции надёжными.“

Готовые схемы, продакшен‑код на Java и чек‑лист, который стоит применить прямо сейчас!

Читать разбор

Почему программисты не сходят с ума(и почему иногда всё же сходят)

Sat, 05/16/2026 - 00:22

Программирование — это редко про «написать кнопку». Чаще это попытка перевести хаос бизнес-процессов, привычек пользователей и странных требований в систему, которая должна работать стабильно. В статье — реальные истории из легаси, enterprise и автоматизации: DOS-мышление в вебе, Excel как основа бизнеса, реверс-инжиниринг без документации и почему иногда лучший аналитик — оператор с цифровым блоком клавиатуры.

Читать далее

FlakyDetector 2.0: Как я превратил сырое исследование в продакшен-инструмент с AST, ML и красивым дашбордом…

Sat, 05/16/2026 - 00:05

Представь: пятница, вечер. Ты запускаешь CI для последнего пулл-реквеста, идёшь наливать кофе, возвращаешься… а билд упал. Один тест. Ты перезапускаешь проходит. «Флаки», — вздыхаешь ты и ставишь лейбл flaky. На следующей неделе история повторяется. Потом ещё раз.

Мы привыкли, что нестабильные тесты — это неизбежное зло. Их ловят повторными прогонами, а если повезёт вырезают. Но знаешь, что реально бесит? В 80% случаев корень проблемы можно найти, просто посмотрев на код теста.

Я написал инструмент, который это делает автоматически. Без логов CI, без истории прогонов — только AST и машинное обучение.

Назвал его FlakyDetector. Первая версия была исследовательским прототипом (про него у меня выходила статья на Хабре). А теперь — это полноценный продукт: CLI, веб-дашборд, CI-интеграция и даже React-фронтенд. И да, он open source.

Давай разберёмся, как это устроено.

Читать далее

Axera AX650N: архитектура Edge ML SoC под CNN, LLM и VLM

Fri, 05/15/2026 - 23:40

Большинство задач современной робототехники так или иначе завязаны на нейронных сетях: детекция объектов, оценка глубины, локализация, планирование. Всё это ресурсоёмко, и вопрос выбора компактного вычислителя (достаточно часто алгоритмы должны работать локально) встает довольно остро. На практике выбор сводится к трём классам устройств: NVIDIA Jetson, внешний ускоритель (один из самых популярных — Hailo) и китайский (не всегда, конечно, но в современных реалиях обычно китайский) SoC с интегрированным NPU. В этой статье я рассмотрю представителя третьего класса — Axera AX650N, а NVIDIA Jetson будет использоваться для сравнения, так как это единственное массовое edge-решение с универсальными вычислительными ядрами (CUDA).

Это первая часть цикла. Здесь я разберу аппаратную архитектуру самого AX650N — CPU, NPU, DSP, ISP, память — и поделюсь результатами первых тестов: YOLO, Depth Anything, SuperPoint и мультимодальный Qwen3. Подробные бенчмарки и сравнения — во второй части.

Я тестировал AX650N в рамках готового устройства от Sipeed — Maix4 Hat. Он состоит из двух частей: SoM, на котором расположены SoC и 8 GB RAM (2x4 GB, так как у AX650N два отдельных DDR-контроллера), и baseboard от Sipeed с минимальным количеством интерфейсов. Скромность интерфейсов объясняется просто: baseboard — это HAT для Raspberry Pi 5, подключающийся по PCIe 2.0. В такой конфигурации AX650N работает как внешний ML-ускоритель, аналогично Hailo. В рамках этой и последующих статей я буду использовать Maix4 Hat как самостоятельный микрокомпьютер.

Читать далее

Who's online

There are currently 0 users and 10 guests online.