Как переход вслед за руководителем работает на топ-уровне
Обычно я выделяю четыре основных стратегии, которые работают на таком уровне.
Первый путь — это, конечно, сеть контактов. Я четко это прочувствовал, когда работал топ-менеджером в энергетике: там переходы решались исключительно через связи. Второй вариант — жестко целевое трудоустройство, с этим я столкнулся на госслужбе, когда все было максимально таргетировано. Третий — рост совместно с руководителем: в мебельном холдинге я заходил через консультанта, именно за счет узнаваемости и опыта. И четвертый — это экспертная видимость. Именно так я оказался исполнительным директором в сети заводов по изоляции.
Читать далееЕсли вы когда-нибудь задумывались о том, на сколько лет хватит ваших накоплений после выхода на пенсию — эта статья для вас. Мы разберём, как с помощью open-source библиотеки okama для Python можно моделировать и тестировать различные стратегии снятия денег с инвестиционного портфеля. От классического «правила 4%» до продвинутых адаптивных стратегий — всё с примерами кода.
Читать далееКогда проект небольшой, а релизы выходят редко, тестирование чаще всего строится интуитивно. Что-то проверили, что-то упустили — в худшем случае исправили по факту. Такой подход может работать годами, пока система не начинает расти.
Этот материал вырос из нашего доклада на Infostart Tech Event в прошлом году. Здесь я подробно разберу, как мы перестраивали процесс тестирования релизов в крупном проекте 1С:ЗУП: с чего начали, какие проблемы выявили, почему не стали автоматизировать всё подряд и к какому результату в итоге пришли.
Читать далееНедавно пришло осознание, что до текущего момента большую часть своей жизни я посвятил учебе. Школа, бакалавриат, магистратура, адаптация в 2-х компаниях, курсы, книги, лекции на ютубчике. Говоря в цифрах, это заняло почти 20 лет, а если еще добавить период от рождения до школы, ведь там мы тоже учимся — говорить, ходить, взаимодействовать с окружающим миром, то вообще получается, все 26 лет своей жизни я учился.
И-и-и, знаешь, я ничего не помню :-) Ладно, что-то всё-таки помню, недаром говорят, что образование — это то, что остается после того, когда забываешь всё, но, в школьные годы я закончил музыкалку, а сейчас не могу сыграть ни одного произведения. Каждый год я берусь за изучение английского, но для понимания английской речи этих порывов не хватает. Подобных примеров я могу много привести.
Для меня эта тема очень важна, я очень много размышлял, читал и смотрел на эту тему, и вот сейчас хочу поделиться тем, к чему пришел.
Читать далееПока вы работаете, ваш коллега уже сжёг 210 миллиардов токенов за неделю. Это 33 Википедии. Он не написал ни строчки в продакшн — но возглавил корпоративный лидерборд и получил звание «Token Legend».
Токенмаксинг (tokenmaxxing) — это практика, при которой сотрудники компаний соревнуются за максимальное потребление токенов, превращая сам факт использования ИИ-инструментов в показатель производительности.
Рассмотрим откуда пошел термин, почему люди соревнуются и причем тут Performance Review в FAANG.
Читать дальшеИнформационная экономика ИИ оказалась в ловушке собственного производства.
ИИ-бум с самого начала был полон внутренних противоречий. Вопросы финансовой устойчивости, экологические последствия, стремительность внедрения без оглядки на последствия — каждый аспект заслуживает отдельного разговора. Но есть один, который, пожалуй, важнее остальных и при этом обсуждается реже: ИИ методично подтачивает ту самую информационную экосистему, без которой он не может существовать.
И делает это сразу с двух сторон.
Читать далееКогда одна и та же модель пишет код и проверяет его, она пропускает свои ошибки. Она «помнит», почему приняла именно это решение, и не ставит его под сомнение. Знакомо? Как вычитывать собственный текст: глаз замыливается, мозг подставляет правильный смысл туда, где его нет.
В нормальной команде эта проблема решена давно: автор кода ≠ ревьюер. Два человека с разным контекстом и разными слепыми пятнами. С LLM можно сделать то же самое, взяв две модели от разных вендоров. Другая архитектура, другой pretrain - другие слепые пятна. Одна пишет, другая проверяет.
В англоязычной среде этот подход называют adversarial review, «состязательное ревью». Суть: ревьюер не подтверждает, что все хорошо, а пытается сломать уверенность в решении. Я называю это проще: перекрестное ревью.
У меня Claude (Opus) планирует и пишет код, а Codex (GPT-5.4) ревьюит. Автоматически, в цикле, пока не одобрит. Все это - один файл-скилл для Claude Code. О нем и расскажу.
Читать далееХабр, привет! Меня зовут Сергей Куриленко, я ML-разработчик, соавтор курса «Нейросети для работы» и ревьюер на курсе «Нейросети для бизнеса» в Яндекс Практикуме.
За последний год я не раз сталкивался с ситуацией: человек осваивает вайбкодинг и создаёт проекты с невероятной скоростью — а потом обнаруживает, что всё это время строил не карьеру, а карточный домик. Сценарий настолько типовой, что я решил оформить его в жанре вредных советов — чтобы было весело читать и неловко узнавать.
Читать далее75% резюме отсеиваются ATS-фильтрами до того, как их увидит рекрутер. Собрал 7 промптов для нейросети, которые покрывают весь цикл поиска работы: от переписывания резюме под конкретную вакансию до подготовки к собеседованию и follow-up. Проверял на себе — работает с Claude, ChatGPT, Gemini.
Читать далее
Практически все из вас правильно знают, где его искать. Но практически никто не знает, что же правильно с ним делать, то ли теребить, то ли гладить, то ли...©
Стоп. Это уже тема другой статьи, а мы с вами говорим об очистке кэша 1С.
Когда бизнес-логика становится сложной, микросервисы из удобного инструмента превращаются в источник боли. Классические «сценарии транзакций» приводят к монструозным классам и распределённым транзакциям, которые невозможно поддерживать.
В этой статье разберу, как DDD и агрегаты помогают проектировать бизнес-логику так, чтобы она не разваливалась под нагрузкой. Покажу на реальном примере HR-сервиса:
▫️ почему объектные ссылки между сервисами — зло;
▫️ как одно правило «транзакция = один агрегат» меняет архитектуру.
Хабровчане, приветствую! Меня зовут Михаил Казанцев, я ведущий системный аналитик в мобильном приложении Вайлдберриз. Работал и писал требования как в стартапах с монолитами, так и в банковском секторе с сотнями сервисов в одном контуре, рассказать есть что.
Я хочу рассказать о своём восприятии основной идеи книги Мартина Клепмана — Высоконагруженные приложения через призму своего ультрамарафонского опыта тренировок и соревнований и практики проведения чайных церемоний. Книга технически сложная, поэтому
Читать далееКаждый день в российском бизнесе происходят миллионы телефонных звонков. Колл-центры, клиники, юридические конторы, отделы продаж - везде, где есть телефон, есть поток неструктурированных данных, который никто не обрабатывает. Менеджер повесил трубку, записал в CRM “клиент интересовался” - и 80% информации из разговора потерялось.
Читать далееКогда мне пришла идея написать эту статью, я предполагала, что это будет хроника ошибок, от которых мы бы хотели предостеречь техническое сообщество: как мы наивно полагались на «синтетику», а «видовое многообразие» сервисов раскрыло нам глаза.
Но по мере подготовки материала пришло осознание, что проблема не в том, что мы ошиблись в методике, а в том, что для core-системы, пропускающей сотни тысяч разнородных запросов в секунду, достичь точного воспроизведения боевой нагрузки практически невозможно.
Под катом рассказ о том, как мы двигались от упрощенных моделей к глубокому изучению специфики поведения системы, а по пути осознали, что нужно не выбирать между крайностями, а комбинировать подходы и учитывать риски.
Читать далееЕсли вы когда-нибудь пытались натравить классическую LSTM на минутные свечи волатильных активов, вы знаете эту боль. Сначала Loss красиво падает на трейне, вы предвкушаете покупку острова, а на тесте модель превращается в тыкву. Она либо предсказывает скользящую среднюю со сдвигом на один шаг, либо упирается в «стену» Loss = 0.693 (то есть −ln(0.5)), сводя всё к подбрасыванию монетки.
Проблема не в вас. Проблема в том, что рекуррентные сети (RNN, LSTM, GRU) живут в дискретном времени. Для них шаг между 10:00 и 10:01 абсолютно идентичен шагу между пятницей и утром понедельника. Они не умеют сжимать и растягивать восприятие времени, когда волатильность взрывается.
В этой статье мы отойдем от мейнстримных архитектур и напишем с нуля Liquid Neural Network (Жидкую Нейронную Сеть). Мы заставим время течь непрерывно, используя численные методы дифференциальных уравнений прямо внутри PyTorch-графа, и посмотрим, как она вытаскивает скрытый макро-тренд из абсолютного рыночного хаоса.
Теория без воды: Что делает сеть «жидкой»?
Концепция Liquid Time-Constant Networks была представлена исследователями из Лаборатории искусственного интеллекта MIT (CSAIL). Их изначальная цель — управление дронами и автопилотами в непредсказуемой среде. Но финансовые рынки — это та же турбулентность, только выраженная в долларах , рублях и других валютах.
В классической RNN скрытое состояние $h_t$ обновляется по дискретным шагам:
$$h_t = \tanh(W_{in} x_t + W_h h_{t-1} + b)$$
В Liquid Network мы отказываемся от дискретности. Состояние нейрона $h(t)$ — это непрерывная переменная, описываемая обыкновенным дифференциальным уравнением (ОДУ):
Читать далееМеханизм внимания (Attention) - это метод в искусственном интеллекте, который позволяет нейросети динамически определять, какие части входных данных наиболее важны для текущей задачи. Он работает через вычисление весов важности для разных элементов входа: более важные элементы получают больший вес, а менее важные - меньший. Затем модель формирует взвешенную сумму представлений, создавая новый контекстный вектор.
Self-attention, в свою очередь, помогает модели понимать, как разные элементы входных данных связаны между собой. Например, как разные части информации взаимодействуют и влияют друг на друга в общем контексте. Этот механизм обеспечивает логическую связность и целостное понимание всей структуры данных
Читать далееУ любого ООО в ИТ есть командные процессы:
- планирование на две недели вперёд,
- ретроспективы,
- журнал задач.
У автора почему-то нет ничего из этого. Хотя автор для себя самого является главным проектом в жизни!
Почему так?
Читать далееЭто первая статья из серии, про программы для Game Boy (DMG/CGB), эксплуатирующие идеи модульного синтеза и секвенсинга.
Я рассказываю в ней про попытку написать реализацию Rungler Circuit для Nintendo Game Boy.
Читать далееКогда аугментации в детекции «не работают», проблема часто не в модели, а в bbox после преобразований.
Неверный coord_format, перепутанные нормализованные и абсолютные координаты, агрессивные кропы, пустые боксы после фильтрации — всё это не ломает код, но quietly ломает обучение.
В статье разбираю:
— какие форматы bbox поддерживает Albumentations — как правильно настраивать A.BboxParams — когда использовать min_area и min_visibility — почему обычный RandomCrop часто плохая идея для detection — и где пайплайн чаще всего ломается на практике
Если вы работаете с COCO, YOLO, pascal_voc или просто хотите перестать обучать модель на испорченной разметке — этот материал для вас.
Читать далееВекторный поиск редко используется сам по себе. Почти всегда есть фильтры — диапазон цен, категория, временное окно, географическая граница. Вопрос в том, когда именно эти фильтры применяются.
Ответ оказывает неожиданно большое влияние на качество результатов.
Предварительная фильтрация KNN доступна в Manticore Search начиная с версии 19.0.1.
Читать далее