Когда языковые модели обращаются против вас: исследование бэкдоров в LLM
Представьте, что вы управляете колл-центром и решили внедрить открытое LLM (большую языковую модель) для автоматизации общения. Всё работает отлично — до того момента, когда мошенник шепчет странную фразу, и внезапно модель начинает отправлять данные ваших клиентов на вредоносный сервер. Звучит как фантастика? Не совсем.
Добро пожаловать в мир нейронных бэкдоров.
Читать далееИсточник: Хабрахабр
Похожие новости
- Spark_news: Ozon будет бесконтактно измерять вес и габариты
- Как это было: соревнования по спортивному программированию на Кубке России
- Мобильные приложения в 2025 году: как меняются стратегии роста
- Опыт участия в проекте «Киберустойчивый регион»
- Аттестация распределенной системы Гохрана: от Москвы до самых до окраин
- click.ru: Передача персональных данных за рубеж: разрешен ли Google Analytics и как работать по правилам
- ИИ, Purple Team и архитектура SOC: из чего собрана магистратура по кибербезопасности от ИТМО и Positive Technologies
- Vault8s: доставляем секреты из HashiCorp Vault в Kubernetes
- AI Security с французским привкусом или разбор Securing Artificial Intelligence от ETSI. Часть 2
- Вам сообщение от начальника. Или от мошенника? Как защититься, когда фейковые сотрудники крадут у бизнеса миллионы