Гонка ИИ-вооружений — как LLM вносят уязвимости в код и как другие LLM их находят
Ваш ИИ-агент только что выдал строчку. И она выглядит… подозрительно? Указатель без проверки на NULL, сериализация через pickle без валидации и логика базы данных, никак не защищённая от SQL-инъекций. Заметить одну-две таких подстав легко, но если строк больше 5 тысяч? А сколько коллег нажали Approved без должной внимательности?
Проблема даже не в том, что ИИ может ошибаться, а в том, что он делает это уверенно и в промышленных масштабах. И вот здесь начинается настоящая гонка. С одной стороны — LLM, которые штампуют уязвимости. С другой — LLM, которые эти уязвимости ищут, подсвечивают и помогают закрывать.
На повестке дня: дырявый код, новая парадигма в безопасности, автодетекция уязвимостей и кибер-оружие.
Читать далееИсточник: Хабрахабр
Похожие новости
- Сегрегация в веб-разработке: Почему DLE — это «3,5 мм джек», а React — «USB-C с переходником за 200$»
- Голосуй, или проиграешь! разбор фишинга, который пытается угнать Telegram
- «Алгоритмы на языке Go». Книга, которую ждали
- Как Runtime Radar помогает обнаруживать атаки на цепочку поставок: кейс LiteLLM
- Топ новостей инфобеза за апрель 2026 года
- GenAI и кибербезопасность в e-commerce: как защитить бизнес и не создать новые уязвимости
- Identity-First Security: почему периметр умер окончательно и что приходит ему на смену
- Методика ФСТЭК к приказу № 117: Обзор требований к безопасности ИИ
- Как бизнес реагирует на рост цен на SMS и блокировки мессенджеров
- Анализируем heap‑дампы с прода, не привлекая внимания безопасников