«Запад тоже следит!» - главный аргумент сторонников установки отечественных сертификатов
Сегодня я на пальцах докажу, почему это сравнение некорректно. Сравним два вектора MITM-атаки:
Глобальный (АНБ): Требует взлома математики или сговора с публичным CA, который тут же спалится через логи CT
Локальный (Минцифры): Требует... просто вашего согласия на установку сертификата.
Как браузеры (Chromium-based) молча отключают строгие проверки для «ручных» сертификатов и почему Саша из Минска не нужен Трампу, но очень интересен товарищу майору.
Читать далееПривет, Хабр!
Зарегистрировался, чтобы поделиться статьёй о восстановлении работоспособности механической клавиатуры Royal Kludge R87 Pro. Быть может, она кому-то поможет в восстановлении своей клавиатуры, используя МК (STM32F103R8T6) или просто я опишу здесь некоторые моменты того, чего не было описано в других статьях на различных ресурсах, в т.ч. и вот здесь - https://habr.com/ru/articles/857914/. т.к. было потрачено очень много, благо, свободного времени на её восстановление, хочу поделиться опытом. Не буду использовать ссылки и то, как установить qmk на windows и какие команды все это компилировать.
Читать далееИногда в разработке случается баг, который не просто не даёт спать, а заставляет пересмотреть свои жизненные ценности.
У меня это произошло со скромным всплывающим окном внутри WebView.
Задача была максимально скучной: на экране с WebView пользователь нажимает кнопку “Exit”, а веб-страница показывает попап подтверждения. На старом коде — всё идеально. На браузере — идеально. На новом инфраструктурном слое WebView — попап появляется на миг и тут же закрывается сам, как будто кто-то тайно играет в “крестики” за пользователя.
Никаких ошибок. Никаких исключений.
Просто “блип”… и пустота.
То самое чувство, когда ты нажимаешь кнопку, а мир делает вид, что “ничего не было”.
И это — пролог к истории о том, как два дня моей жизни сгорели на алтаре WebView.
Читать далееПродолжаю погружаться в Reinforcement Learning. Здесь продолжение статьи Intro Reinforcement Learning.
Если предыдущая часть помогла вам понять, что такое среда, агент, награды и функции ценности, то здесь мы сделаем шаг дальше: мы переходим к model-free алгоритмам и Deep Reinforcement Learning, где агент учится оптимальной стратегии, не имея прямого доступа к модели среды.
Читать далее