Мы так и не смогли защитить свою модель машинного обучения от состязательных атак. Пока
Наша команда разработчиков Исследовательского центра доверенного искусственного интеллекта ИСП РАН первые два года занималась построением сетевой системы обнаружения вторжений, основанной на применении методов машинного обучения. А в последний год мы сменили щит на меч и начали атаковать состязательными атаками (adversarial attacks) синтезированную нами же модель.
Задача была простой: оценить устойчивость модели к состязательным атакам. Спойлер: модель не устойчива, а как это исправить — мы пока не знаем. Подробности ниже.
Читать далееИсточник: Хабрахабр
Похожие новости
- Тайные битвы на фронтах ИБ: DLP против стеганографии
- Яндекс запускает биржу телеграм-каналов
- Андрей Терехов и Рейтинг Рунета выпустили чек-лист хорошей рекламной кампании
- Угнать «телегу» за 60 секунд: лайфхаки по противодействию мошенникам от социального инженера
- Giftery: Почему сотрудники саботируют автоматизацию — и как внедрить её без конфликтов
- Безопасная разработка как игра в Dungeons & Dragons
- DOT Digital Agency: Новый облик Очёрского машиностроительного завода
- HackTheBox Labs (Starting Point) — Exploison
- Пилюля против фишинга
- Почему все ломается, или Зачем менеджеру в ИТ софт-скилы