Безопасность машинного обучения: эффективные методы защиты или новые угрозы?
Одними из самых популярных и обсуждаемых новостей последние несколько лет являются — кто куда добавил искусственный интеллект и какие хакеры что и где сломали. Соединив эти темы, появляются очень интересные исследования, и на хабре уже было несколько статей посвященных тому, что есть возможность обманывать модели машинного обучения, к примеру: статья про ограничения глубокого обучения, про то как омбанывать нейронные сети. Далее хотелось бы рассмотреть подробней эту тему с точки зрения компьютерной безопасности:
Источник: Хабрахабр
Похожие новости
- Пошаговое руководство по внесению ПО и ПАК в Минцифры в 2025 году
- Взлом уязвимой операционной системы Vulnix. Уязвимая служба/протокол smtp
- НКО научат создавать качественный контент
- Скрытые языки: как инженеры передают информацию внутри команды, избегая документации
- [Перевод] Пишем на C самоизменяющуюся программу x86_64
- Riverstart: Рэд-флаги в аутстаффинге — как не нарваться на «кота в мешке»? Riverstart Подкаст #3
- Zenlink: KPI в SERM: как измерить успех кампании по работе над репутацией бренда
- Креативное бюро Пинк: Брендинг в «Дефиците». Как мы сделали и согласовали концепцию, но решили «забрить» и сделать брендинг бара заново
- Четыре взлома ИТ-инфраструктуры, один из которых выдуман. Какой?
- Red Digital и хлебцы Kruazett: KRRустящий кейс