Читаем вместе. ИИ в AppSec: могут ли LLM работать с уязвимым кодом
Привет, Хабр!
На связи Максим Митрофанов, ML-лид команды Application Security в Positive Technologies. Мы занимаемся прикладными вопросами машинного обучения по направлению безопасной разработки, регулярно изучаем новые технические репорты и доменные статьи, разбором одной из которых я и хотел бы поделиться с вами.
Исследуя подходы к оценке больших языковых моделей в разрезе безопасной разработки, мы наткнулись на статью "LLMs Cannot Reliably Identify and Reason About Security Vulnerabilities (Yet?): A Comprehensive Evaluation, Framework, and Benchmarks", которая посвящена анализу применения LLM в задаче обнаружения уязвимостей в исходном коде.
Перевод фрагментов статьи, представленных в обзоре, не является дословным. Разбор содержит личные комментарии и размышления, возникшие в процессе чтения, и, на мой взгляд, будет особенно интересен специалистам по информационной безопасности и ML-инженерам, внедряющим ИИ в R&D-процессы компаний.
Читать далееИсточник: Хабрахабр
Похожие новости
- Спираль эволюции веб-дизайна: от десктопной версии к адаптиву и обратно к многоликости
- PhantomRShell: бэкдор, который маскируется с помощью дизассемблера
- Пентест веба на пальцах: для новичков и слегка отбитых
- Spark_news: Продавцы одежды и техники сокращают площади и переходят на мини форматы магазинов
- Империя наносит ответный удар: kad.arbitr.ru снова поддается парсингу (часть 1)
- Поговорим о планировании внедрения DevSecOps
- Реверс — это сканворд. Как я впервые нормально понял Ghidra
- Хайстекс Акура 4.5: Свобода миграции без API, нативный бэкап PostgreSQL и защита от шифровальщиков на уровне S3
- Разработка под Kubernetes: локально всё работает, в проде — нет. Кейс с Tetragon и eBPF
- Налоги, Telegram и абсурд происходящего