Почему «утекают» данные в больших языковых моделях. Часть 2
Добрый день, уважаемые читатели Хабра. Продолжаем разбираться в теме «утечки» конфиденциальных данных на примере больших языковых моделей и совершаемых для этого атак. В первой статье мы затронули такие механизмы атаки как Special Characters Attack (SCA), Leakage of Test Data in Training Data (LTDAT), Leakage in Prompt Atack (PLeak). Они несут угрозу для генеративных моделей. И мы показали, как можно маскировать данные для минимизации ущерба.
В этот раз мы затронем такую обширную проблему, как «отравление» обучающих данных (Data Poisoning) и возможность реализации «утечек». Уже известны многочисленные статьи, в которых разбирают атаки, когда входными данными являются изображения. Базовое объяснение существующим подходам даётся здесь и здесь, и говорится что они, как правило, служат бэкдорами и предназначены для повышения привилегий в системе.
Читать далееИсточник: Хабрахабр
Похожие новости
- [Перевод] Анализ активности пользователей Windows
- ВПО DarkWatchman: SFX-архивы, XOR-шифрование и алгоритм генерации доменов
- Гранулярное погружение в атаки на кэш в ARMv8. Разбираем типы атак и митигации
- [Перевод] Метаданные под защитой: как обеспечить кибербезопасность
- Образ классической пиарщицы в российском агентстве. Транзакционный взгляд с щедрой порцией юмора
- Интеграция платформ через Keycloak: SSO и JWT в действии
- CROP media: Бренд-айдентика в SMM: как выделиться в соцсетях + чек-лист от CROP media
- Q2.team: Исповедь SEO-специалиста: 5 заблуждений клиентов, которые тормозят продвижение
- Тринадцатый: Как мы создали брендинг, вдохновленный литературой
- Андрей Громоватый: #Онижедети