Безопасность машинного обучения: эффективные методы защиты или новые угрозы?
Одними из самых популярных и обсуждаемых новостей последние несколько лет являются — кто куда добавил искусственный интеллект и какие хакеры что и где сломали. Соединив эти темы, появляются очень интересные исследования, и на хабре уже было несколько статей посвященных тому, что есть возможность обманывать модели машинного обучения, к примеру: статья про ограничения глубокого обучения, про то как омбанывать нейронные сети. Далее хотелось бы рассмотреть подробней эту тему с точки зрения компьютерной безопасности:
Источник: Хабрахабр
Похожие новости
- Будущее архитектуры безопасности: Проблемы, связанные с существующими системами безопасности
- Фишинг живее всех живых, кейс из личной почты
- Сбор ПДн через Яндекс.Формы: как соблюсти 152-ФЗ
- Обход Cloudflare. Часть I
- DHCP: настройка серверов, Relay и анализ трафика в Wireshark
- Безопасная аутентификация с Indeed AM
- bit kogan: Одна из наиболее обсуждаемых тем сегодня — по какому пути пойдет дальнейшее развитие интернета в России
- Как работает машина Enigma M3 (для флота)
- Из туризма в стеганографию: история создания ChameleonLab и наш новый взгляд на контент
- Невидимые чернила в цифровом мире: технология сокрытия данных в DOCX/XLSX