Habr.com

Syndicate content Хабр
Все публикации подряд на Хабре
Updated: 43 min 36 sec ago

Четыре тактики перехода для уровня 9+ млн/год. Тактика третья: “Растем с руководителем”

Wed, 04/08/2026 - 11:55

Как переход вслед за руководителем работает на топ-уровне

Обычно я выделяю четыре основных стратегии, которые работают на таком уровне.

Первый путь — это, конечно, сеть контактов. Я четко это прочувствовал, когда работал топ-менеджером в энергетике: там переходы решались исключительно через связи. Второй вариант — жестко целевое трудоустройство, с этим я столкнулся на госслужбе, когда все было максимально таргетировано. Третий — рост совместно с руководителем: в мебельном холдинге я заходил через консультанта, именно за счет узнаваемости и опыта. И четвертый — это экспертная видимость. Именно так я оказался исполнительным директором в сети заводов по изоляции.

Читать далее

Создание и тестирование пенсионных инвестиционных стратегий с помощью Okama

Wed, 04/08/2026 - 11:50

Если вы когда-нибудь задумывались о том, на сколько лет хватит ваших накоплений после выхода на пенсию — эта статья для вас. Мы разберём, как с помощью open-source библиотеки okama для Python можно моделировать и тестировать различные стратегии снятия денег с инвестиционного портфеля. От классического «правила 4%» до продвинутых адаптивных стратегий — всё с примерами кода.

Читать далее

Как мы перестроили тестирование релизов 1С и сократили цикл выпуска вдвое

Wed, 04/08/2026 - 11:42

Когда проект небольшой, а релизы выходят редко, тестирование чаще всего строится интуитивно. Что-то проверили, что-то упустили — в худшем случае исправили по факту. Такой подход может работать годами, пока система не начинает расти.

Этот материал вырос из нашего доклада на Infostart Tech Event в прошлом году. Здесь я подробно разберу, как мы перестраивали процесс тестирования релизов в крупном проекте 1С:ЗУП: с чего начали, какие проблемы выявили, почему не стали автоматизировать всё подряд и к какому результату в итоге пришли.

Читать далее

Как учиться? (большая статья, основанная на личном опыте)

Wed, 04/08/2026 - 11:16

Недавно пришло осознание, что до текущего момента большую часть своей жизни я посвятил учебе. Школа, бакалавриат, магистратура, адаптация в 2-х компаниях, курсы, книги, лекции на ютубчике. Говоря в цифрах, это заняло почти 20 лет, а если еще добавить период от рождения до школы, ведь там мы тоже учимся — говорить, ходить, взаимодействовать с окружающим миром, то вообще получается, все 26 лет своей жизни я учился.

И-и-и, знаешь, я ничего не помню :-) Ладно, что-то всё-таки помню, недаром говорят, что образование — это то, что остается после того, когда забываешь всё, но, в школьные годы я закончил музыкалку, а сейчас не могу сыграть ни одного произведения. Каждый год я берусь за изучение английского, но для понимания английской речи этих порывов не хватает. Подобных примеров я могу много привести.

Для меня эта тема очень важна, я очень много размышлял, читал и смотрел на эту тему, и вот сейчас хочу поделиться тем, к чему пришел.

Читать далее

Tokenmaxxing: Новый тренд в бигтехах в 2026 году

Wed, 04/08/2026 - 11:10

Пока вы работаете, ваш коллега уже сжёг 210 миллиардов токенов за неделю. Это 33 Википедии. Он не написал ни строчки в продакшн — но возглавил корпоративный лидерборд и получил звание «Token Legend».

Токенмаксинг (tokenmaxxing) — это практика, при которой сотрудники компаний соревнуются за максимальное потребление токенов, превращая сам факт использования ИИ-инструментов в показатель производительности.

Рассмотрим откуда пошел термин, почему люди соревнуются и причем тут Performance Review в FAANG.

Читать дальше

[Перевод] 60% падение трафика, коллапс моделей и однообразие: что ИИ делает с интернетом

Wed, 04/08/2026 - 11:09

Информационная экономика ИИ оказалась в ловушке собственного производства.

ИИ-бум с самого начала был полон внутренних противоречий. Вопросы финансовой устойчивости, экологические последствия, стремительность внедрения без оглядки на последствия — каждый аспект заслуживает отдельного разговора. Но есть один, который, пожалуй, важнее остальных и при этом обсуждается реже: ИИ методично подтачивает ту самую информационную экосистему, без которой он не может существовать.

И делает это сразу с двух сторон.

Читать далее

Как я сделал скилл для AI-ревью плана и кода — и зачем мне две модели

Wed, 04/08/2026 - 11:00

Когда одна и та же модель пишет код и проверяет его, она пропускает свои ошибки. Она «помнит», почему приняла именно это решение, и не ставит его под сомнение. Знакомо? Как вычитывать собственный текст: глаз замыливается, мозг подставляет правильный смысл туда, где его нет.

В нормальной команде эта проблема решена давно: автор кода ≠ ревьюер. Два человека с разным контекстом и разными слепыми пятнами. С LLM можно сделать то же самое, взяв две модели от разных вендоров. Другая архитектура, другой pretrain - другие слепые пятна. Одна пишет, другая проверяет.

В англоязычной среде этот подход называют adversarial review, «состязательное ревью». Суть: ревьюер не подтверждает, что все хорошо, а пытается сломать уверенность в решении. Я называю это проще: перекрестное ревью.

У меня Claude (Opus) планирует и пишет код, а Codex (GPT-5.4) ревьюит. Автоматически, в цикле, пока не одобрит. Все это - один файл-скилл для Claude Code. О нем и расскажу.

Читать далее

Антипаттерны вайбкодинга для начинающих: 10 способов сломать себе карьерный старт

Wed, 04/08/2026 - 11:00

Хабр, привет! Меня зовут Сергей Куриленко, я ML-разработчик, соавтор курса «Нейросети для работы» и ревьюер на курсе «Нейросети для бизнеса» в Яндекс Практикуме.

За последний год я не раз сталкивался с ситуацией: человек осваивает вайбкодинг и создаёт проекты с невероятной скоростью — а потом обнаруживает, что всё это время строил не карьеру, а карточный домик. Сценарий настолько типовой, что я решил оформить его в жанре вредных советов — чтобы было весело читать и неловко узнавать.

Читать далее

Как найти работу с помощью нейросети в 2026: 7 промптов, которые реально помогают пройти собеседование

Wed, 04/08/2026 - 10:54

75% резюме отсеиваются ATS-фильтрами до того, как их увидит рекрутер. Собрал 7 промптов для нейросети, которые покрывают весь цикл поиска работы: от переписывания резюме под конкретную вакансию до подготовки к собеседованию и follow-up. Проверял на себе — работает с Claude, ChatGPT, Gemini.

Читать далее

Графическая утилита для очистки кэша 1С (с возможностью выбора базы) для ОС Linux

Wed, 04/08/2026 - 10:51

 

Практически все из вас правильно знают, где его искать. Но практически никто не знает, что же правильно с ним делать, то ли теребить, то ли гладить, то ли...©

 

 

Стоп. Это уже тема другой статьи, а мы с вами говорим об очистке кэша 1С.


Читать далее

Как проектировать бизнес‑логику в микросервисах: 3 правила агрегатов, которые работают

Wed, 04/08/2026 - 10:46

Когда бизнес-логика становится сложной, микросервисы из удобного инструмента превращаются в источник боли. Классические «сценарии транзакций» приводят к монструозным классам и распределённым транзакциям, которые невозможно поддерживать.

В этой статье разберу, как DDD и агрегаты помогают проектировать бизнес-логику так, чтобы она не разваливалась под нагрузкой. Покажу на реальном примере HR-сервиса:

▫️ почему объектные ссылки между сервисами — зло;
▫️ как одно правило «транзакция = один агрегат» меняет архитектуру.

Читать далее

Как проектируют приложения и системы, которые не падают под нагрузкой на примере бега, медитации и чая

Wed, 04/08/2026 - 10:16

Хабровчане, приветствую! Меня зовут Михаил Казанцев, я ведущий системный аналитик в мобильном приложении Вайлдберриз. Работал и писал требования как в стартапах с монолитами, так и в банковском секторе с сотнями сервисов в одном контуре, рассказать есть что.

Я хочу рассказать о своём восприятии основной идеи книги Мартина Клепмана — Высоконагруженные приложения через призму своего ультрамарафонского опыта тренировок и соревнований и практики проведения чайных церемоний. Книга технически сложная, поэтому

Читать далее

Телефонный звонок → структурированный JSON: строим STT + LLM пайплайн на Python

Wed, 04/08/2026 - 10:16

Каждый день в российском бизнесе происходят миллионы телефонных звонков. Колл-центры, клиники, юридические конторы, отделы продаж - везде, где есть телефон, есть поток неструктурированных данных, который никто не обрабатывает. Менеджер повесил трубку, записал в CRM “клиент интересовался” - и 80% информации из разговора потерялось.

Читать далее

Не все RPS одинаково полезны: уроки нагрузочного тестирования core-системы

Wed, 04/08/2026 - 10:07

Когда мне пришла идея написать эту статью, я предполагала, что это будет хроника ошибок, от которых мы бы хотели предостеречь техническое сообщество: как мы наивно полагались на «синтетику», а «видовое многообразие» сервисов раскрыло нам глаза.

Но по мере подготовки материала пришло осознание, что проблема не в том, что мы ошиблись в методике, а в том, что для core-системы, пропускающей сотни тысяч разнородных запросов в секунду, достичь точного воспроизведения боевой нагрузки практически невозможно.

Под катом рассказ о том, как мы двигались от упрощенных моделей к глубокому изучению специфики поведения системы, а по пути осознали, что нужно не выбирать между крайностями, а комбинировать подходы и учитывать риски.

Читать далее

Укрощаем рыночный хаос: Пишем Liquid Neural Network (LNN) на PyTorch для алготрейдинга

Wed, 04/08/2026 - 10:03

Если вы когда-нибудь пытались натравить классическую LSTM на минутные свечи волатильных активов, вы знаете эту боль. Сначала Loss красиво падает на трейне, вы предвкушаете покупку острова, а на тесте модель превращается в тыкву. Она либо предсказывает скользящую среднюю со сдвигом на один шаг, либо упирается в «стену» Loss = 0.693 (то есть −ln(0.5)), сводя всё к подбрасыванию монетки.

Проблема не в вас. Проблема в том, что рекуррентные сети (RNN, LSTM, GRU) живут в дискретном времени. Для них шаг между 10:00 и 10:01 абсолютно идентичен шагу между пятницей и утром понедельника. Они не умеют сжимать и растягивать восприятие времени, когда волатильность взрывается.

В этой статье мы отойдем от мейнстримных архитектур и напишем с нуля Liquid Neural Network (Жидкую Нейронную Сеть). Мы заставим время течь непрерывно, используя численные методы дифференциальных уравнений прямо внутри PyTorch-графа, и посмотрим, как она вытаскивает скрытый макро-тренд из абсолютного рыночного хаоса.

Теория без воды: Что делает сеть «жидкой»?

Концепция Liquid Time-Constant Networks была представлена исследователями из Лаборатории искусственного интеллекта MIT (CSAIL). Их изначальная цель — управление дронами и автопилотами в непредсказуемой среде. Но финансовые рынки — это та же турбулентность, только выраженная в долларах , рублях и других валютах.

В классической RNN скрытое состояние $h_t$ обновляется по дискретным шагам:

$$h_t = \tanh(W_{in} x_t + W_h h_{t-1} + b)$$

В Liquid Network мы отказываемся от дискретности. Состояние нейрона $h(t)$ — это непрерывная переменная, описываемая обыкновенным дифференциальным уравнением (ОДУ):

Читать далее

Краткий справочник про внимания (self-attention, cross-attention, multi-head attention)

Wed, 04/08/2026 - 09:15

Механизм внимания (Attention) - это метод в искусственном интеллекте, который позволяет нейросети динамически определять, какие части входных данных наиболее важны для текущей задачи. Он работает через вычисление весов важности для разных элементов входа: более важные элементы получают больший вес, а менее важные - меньший. Затем модель формирует взвешенную сумму представлений, создавая новый контекстный вектор.

Self-attention, в свою очередь, помогает модели понимать, как разные элементы входных данных связаны между собой. Например, как разные части информации взаимодействуют и влияют друг на друга в общем контексте. Этот механизм обеспечивает логическую связность и целостное понимание всей структуры данных

Читать далее

Почему чужой бизнес эффективнее моей жизни?

Wed, 04/08/2026 - 09:05

У любого ООО в ИТ есть командные процессы:
- планирование на две недели вперёд,
- ретроспективы,
- журнал задач.

У автора почему-то нет ничего из этого. Хотя автор для себя самого является главным проектом в жизни!

Почему так?

Читать далее

Game Boy вместо модуляра: секвенции и синтез

Wed, 04/08/2026 - 09:00

Это первая статья из серии, про программы для Game Boy (DMG/CGB), эксплуатирующие идеи модульного синтеза и секвенсинга.

Я рассказываю в ней про попытку написать реализацию Rungler Circuit для Nintendo Game Boy.

Читать далее

[Перевод] Аугментация ограничивающих боксов в детекции: форматы, `BboxParams` и типичные ошибки

Wed, 04/08/2026 - 07:56

Когда аугментации в детекции «не работают», проблема часто не в модели, а в bbox после преобразований.

Неверный coord_format, перепутанные нормализованные и абсолютные координаты, агрессивные кропы, пустые боксы после фильтрации — всё это не ломает код, но quietly ломает обучение.

В статье разбираю:

— какие форматы bbox поддерживает Albumentations — как правильно настраивать A.BboxParams — когда использовать min_area и min_visibility — почему обычный RandomCrop часто плохая идея для detection — и где пайплайн чаще всего ломается на практике

Если вы работаете с COCO, YOLO, pascal_voc или просто хотите перестать обучать модель на испорченной разметке — этот материал для вас.

Читать далее

Предварительная фильтрация KNN в Manticore Search

Wed, 04/08/2026 - 07:52

Векторный поиск редко используется сам по себе. Почти всегда есть фильтры — диапазон цен, категория, временное окно, географическая граница. Вопрос в том, когда именно эти фильтры применяются.

Ответ оказывает неожиданно большое влияние на качество результатов.

Предварительная фильтрация KNN доступна в Manticore Search начиная с версии 19.0.1.

Читать далее

Who's online

There are currently 0 users and 2 guests online.