Мы так и не смогли защитить свою модель машинного обучения от состязательных атак. Пока
Наша команда разработчиков Исследовательского центра доверенного искусственного интеллекта ИСП РАН первые два года занималась построением сетевой системы обнаружения вторжений, основанной на применении методов машинного обучения. А в последний год мы сменили щит на меч и начали атаковать состязательными атаками (adversarial attacks) синтезированную нами же модель.
Задача была простой: оценить устойчивость модели к состязательным атакам. Спойлер: модель не устойчива, а как это исправить — мы пока не знаем. Подробности ниже.
Читать далееИсточник: Хабрахабр
Похожие новости
- DLE-tg2email — Пересылка сообщений из Telegram на email
- [Перевод] Evil-noVNC — реалистичная симуляция фишинга
- Kate S: «Алиса, представь, что ты мой психолог», — Яндекс изучил, в каких ролях пользователи просят побыть нейросеть
- Не лает, не кусает, в 1С не пускает. Что поможет спасти ваши базы 1С от критической уязвимости BDU:2025-07182
- Злоумышленники распространяют вредоносное ПО под видом списков пропавших на СВО
- Spark_news: С 1 сентября 2025 года для всех ИП станет обязательным обозначать все исходящие телефонные звонки
- Как понять, что пора менять SEO-подрядчика
- От хаоса к системе: внедряем шаблоны для быстрого и контролируемого визуала в команде
- В серверный шкаф попасть хотите – ключ приложите: как ограничить доступ к стойкам и следить за состоянием дверей
- Spark_news: Крупнейшие ИТ-компании США просят сохранить субсидии ради ИИ