Когда языковые модели обращаются против вас: исследование бэкдоров в LLM
Представьте, что вы управляете колл-центром и решили внедрить открытое LLM (большую языковую модель) для автоматизации общения. Всё работает отлично — до того момента, когда мошенник шепчет странную фразу, и внезапно модель начинает отправлять данные ваших клиентов на вредоносный сервер. Звучит как фантастика? Не совсем.
Добро пожаловать в мир нейронных бэкдоров.
Читать далееИсточник: Хабрахабр
Похожие новости
- Как провести инвентаризацию информационных систем с персональными данными (ПДн)
- Что за зверь такой — Pinokio? Досконально разбираем его подкапотную
- CORS для собеседований и работы
- Твой чат-бот знает о тебе больше, чем твои друзья и терапевт. И готов продавать это рекламодателям
- bit kogan: Сигналы рецессии
- [Перевод] Stealth Mode: 10 Bash-трюков для скрытого хакинга
- Дайджест мероприятий: Клуб продюсеров АСИ и Лаборатория креативных индустрий Школы управления СКОЛКОВО обсудят перспективы креативной экономики
- DRP и ASM: две стороны проактивной защиты от цифровых угроз
- Shade BIOS: полная маскировка вредоносного ПО UEFI
- Тайны социальных сетей: как узнать, чего на самом деле хотят ваши клиенты?