[Перевод] Обнаружение уязвимостей ИИ агентов. Часть II: Исполнение кода

Крупные языковые модели (LLM) меняют представление автоматизации, вычислений и AI-управляемого анализа. Хотя их способности выполнять код, обрабатывать документы и выходить в интернет представляют собой важные достижения, они же открывают новый класс уязвимостей. Это вторая часть серии о критических уязвимостях AI-агентов.

В этой части мы исследуем системные риски, связанные с уязвимостями исполнения кода в агентах на базе LLM, выделяем ключевые векторы атак, риски безопасности и возможные меры смягчения.

Читать далее