Безопасность ИИ на практике: разбор заданий AI CTF на Positive Hack Days Fest 2
Чем больше систем работают на основе машинного обучения, тем критичнее становится вопрос их безопасности. Умные технологии всё больше окружают нас, и сложно отрицать важность этой темы. С 2019 года на конференции PHDays мы проводим соревнование по спортивному хакингу AI CTF, нацеленное на атаки систем, построенных на машинном обучении. Соревнование проходит в рамках AI Track — направления с докладами на Positive Hack Days, где эксперты в области информационной безопасности делятся опытом применения машинного обучения как для offensive, так и для defensive задач. В 2023 году мы поэкспериментировали с форматом, создав квест-рум, где участникам нужно было обойти три фактора защиты, чтобы выбраться. Однако, прислушавшись к многочисленным просьбам сообщества, мы решили вернуться к нашему традиционному формату CTF.
Читать далееИсточник: Хабрахабр
Похожие новости
- Безопасность приложений: инструменты и практики для Java-разработчиков
- Как технологические гиганты переосмысливают кибербезопасность в эпоху ИИ-агентов
- Агентство мобильной разработки InstaDev: «Быстро, дёшево, качественно»: Почему заказчики не могут получить всё сразу - и чем это оборачивается
- Spark_news: «Авито» направит свыше 1 млрд. рублей на финансирование собственного научно-исследовательского подразделения
- Карты, деньги, два клика: как превратить Яндекс Карты в главный источник клиентов в 2025 году
- Внедрение шеллкода в Microsoft Office, или как злоумышленники эксплуатируют старую уязвимость в новых атаках
- Шухрат Мамасыдыков: Как попасть в рекомендации ChatGPT и продвигать бренд без рекламы
- МТС Твой бизнес: Аналитика МТС AdTech и МТС Банка: альфа впервые обошли зумеров по количеству покупок на маркетплейсах
- SMM 4.0: как работать в новых правилах игры
- Как мы повышали доверие к YandexGPT, или Сертификация по ISO 42001