Безопасность ИИ на практике: разбор заданий AI CTF на Positive Hack Days Fest 2
Чем больше систем работают на основе машинного обучения, тем критичнее становится вопрос их безопасности. Умные технологии всё больше окружают нас, и сложно отрицать важность этой темы. С 2019 года на конференции PHDays мы проводим соревнование по спортивному хакингу AI CTF, нацеленное на атаки систем, построенных на машинном обучении. Соревнование проходит в рамках AI Track — направления с докладами на Positive Hack Days, где эксперты в области информационной безопасности делятся опытом применения машинного обучения как для offensive, так и для defensive задач. В 2023 году мы поэкспериментировали с форматом, создав квест-рум, где участникам нужно было обойти три фактора защиты, чтобы выбраться. Однако, прислушавшись к многочисленным просьбам сообщества, мы решили вернуться к нашему традиционному формату CTF.
Читать далееИсточник: Хабрахабр
Похожие новости
- Pragmata взломали за два дня до релиза. Шесть слоёв защиты Denuvo и как их обходят через гипервизор
- Страшно, когда не видно: взгляд внутрь домена
- Безопасность умных устройств изнутри: от Secure Boot и TrustZone до отчётов внешних исследователей
- Реклама в Max уже работает: установки приложения в 7 раз дешевле, чем в Telegram
- bitkogan: Может ли экономика выжить без малых и средних компаний?
- Неизменяемая архитектура. Практическая проверка кодом. Аутентификация
- Spark_news: Рейтинг компаний, которые закрывали магазины в России к 2026 году
- Охота на CVE в Cursor IDE: полный технический разбор безопасности AI-редактора
- GooD_News: Huawei выходит на рынок AI-очков
- Руководство по геопространственной разведке (GEOINT)