Безопасность машинного обучения: эффективные методы защиты или новые угрозы?
Одними из самых популярных и обсуждаемых новостей последние несколько лет являются — кто куда добавил искусственный интеллект и какие хакеры что и где сломали. Соединив эти темы, появляются очень интересные исследования, и на хабре уже было несколько статей посвященных тому, что есть возможность обманывать модели машинного обучения, к примеру: статья про ограничения глубокого обучения, про то как омбанывать нейронные сети. Далее хотелось бы рассмотреть подробней эту тему с точки зрения компьютерной безопасности:
Источник: Хабрахабр
Похожие новости
- Каким будет фишинг в ближайшем будущем
- 82% зумеров хотят, чтобы бренды обращались к ним на «вы»
- Топ самых интересных CVE за май 2025 года
- Spark_news: Мобильный коллапс: отключение интернета в некоторых регионах ударило по маркетплейсам
- Spark_news: Samsung находится на финальной стадии переговоров с Perplexity AI о заключении стратегического альянса
- Как сделать безопасным код сайта на Битрикс: шпаргалка по основным уязвимостям, часть 3
- Как обманывают ИТ-соискателей: три мошеннические схемы
- Spark_news: Уфимцы — в первых рядах: мечта о Марсе объединяет 27% россиян
- Почему «99.9% аптайма» – это не то, что вы думаете
- Spark_news: Ozon запустил автолизинг для бизнеса