Когда языковые модели обращаются против вас: исследование бэкдоров в LLM
Представьте, что вы управляете колл-центром и решили внедрить открытое LLM (большую языковую модель) для автоматизации общения. Всё работает отлично — до того момента, когда мошенник шепчет странную фразу, и внезапно модель начинает отправлять данные ваших клиентов на вредоносный сервер. Звучит как фантастика? Не совсем.
Добро пожаловать в мир нейронных бэкдоров.
Читать далееИсточник: Хабрахабр
Похожие новости
- Spark_news: Рейтинг компаний, которые закрывали магазины в России к 2026 году
- Охота на CVE в Cursor IDE: полный технический разбор безопасности AI-редактора
- GooD_News: Huawei выходит на рынок AI-очков
- Руководство по геопространственной разведке (GEOINT)
- Cроки факторизации приватных ключей RSA и Bitcoin немного приблизились
- [Перевод] Знакомство с одним прогоном Mythos применительно к Firefox: а разговоров-то было?
- Victor Koch: «Эффект Бони»
- DDoS снова «переобулся»: как изменился ландшафт угроз в I квартале 2026 года
- AlinaTen: DeepRoute.ai заявила о более чем 300 тысячах автомобилей с её системой автопилота
- AlinaTen: Суд в США отклонил обвинения Илона Маска в мошенничестве против OpenAI перед началом разбирательства