Безопасность AI-агентов в Web3. Часть 3: Скажи мне что-нибудь, и я скажу, кто ты
AI‑агенты все чаще используются для принятия важных решений и даже управления активами на десятки миллионов долларов, встает вопрос возможности определения LLM модели по ее ответам — fingerprinting. Это нужно для анализа безопасности использования агента, о котором не известно технических деталей «черного ящика» и учета особенностей конкретных моделей, о чем мы писали в прошлых статьях (часть 1, часть 2). Также можно отслеживать изменения используемых моделей в конкретном AI‑агенте и вовремя распознать попытку подмены.
Читать далееИсточник: Хабрахабр
Похожие новости
- Как провести инвентаризацию информационных систем с персональными данными (ПДн)
- Что за зверь такой — Pinokio? Досконально разбираем его подкапотную
- CORS для собеседований и работы
- Твой чат-бот знает о тебе больше, чем твои друзья и терапевт. И готов продавать это рекламодателям
- bit kogan: Сигналы рецессии
- [Перевод] Stealth Mode: 10 Bash-трюков для скрытого хакинга
- Дайджест мероприятий: Клуб продюсеров АСИ и Лаборатория креативных индустрий Школы управления СКОЛКОВО обсудят перспективы креативной экономики
- DRP и ASM: две стороны проактивной защиты от цифровых угроз
- Shade BIOS: полная маскировка вредоносного ПО UEFI
- Тайны социальных сетей: как узнать, чего на самом деле хотят ваши клиенты?