OWASP Top 10 для LLM: разбор угроз
LLM встраивают в продакшн-системы, но подходят к ним как к обычным библиотекам — подключил API и забыл. Проблема в том, что языковая модель выполняет инструкции из пользовательского ввода, генерирует код, обращается к базам данных. Если не учитывать специфику этих систем, можно получить утечку...
Вайбуем в закрытом корпконтуре с Android Studio, Continue и Ollama в локальном режиме
Привет! Меня зовут Александр Карташов, и я Android-lead в IT-подразделении компании Спортмастер. Сегодня я расскажу вам о том, как настроить Android Studio для работы с LLM в режиме агента, получить максимум эффекта даже от небольших моделей на компьютерах, не обладающих мощной видеокартой, о...
От экспериментов с ИИ до AI-Native: уровни зрелости и архитектура. Часть 2
Всем привет! Это продолжение статьи о трансформации подхода к использованию ИИ — от базового применения к AI-Native. В первой части мы разобрали уровни зрелости искусственного интеллекта, ключевые этапы ИИ-трансформации и классификацию приложений и модальностей LLM. Читать первую часть Во второй...
Вайб-кодинг уязвимостей или как AI роняет безопасность
Писать код с LLM — очень легко, просто и весело. Не нужно мучаться с документацией, не нужно фиксить баги. Вообще ничего не нужно. Только инструкцию в чат написать. Раз-два — и всё готово. Заманчиво? Да. Но у всего есть цена — и про неё важно помнить. Сейчас разберём, как именно AI-агенты могут...
Как я автоматизировал анализ логов из Kibana с помощью LLM и AI-агентов
Инструменты вроде OpenSearch, Elastic или Kibana давно стали стандартом для поиска и визуализации логов благодаря удобству и мощной поисковой системе. Однако, когда речь заходит о сложном анализе — агрегациях, парсинге, выявлении сложных закономерностей — их встроенные средства быстро достигают...
Читаем вместе. ИИ в AppSec: могут ли LLM работать с уязвимым кодом
Привет, Хабр! На связи Максим Митрофанов, ML-лид команды Application Security в Positive Technologies. Мы занимаемся прикладными вопросами машинного обучения по направлению безопасной разработки, регулярно изучаем новые технические репорты и доменные статьи, разбором одной из которых я и хотел бы...
Как LLM CTF решал и коннектор писал (а я призы забирал)
Привет! Расскажу, как не-хакеру удалось решить CTF таски и залутать призы на сцене главной хакерской конференции OFFZONE. Меня зовут Пётр Покаместов, я руковожу проектами по пентесту в Singleton Security — общаюсь с клиентами, распределяю загруз коллег, провожу презентации отчётов, а также...
Фантазии LLM воплощаются в реальности — фальшивые опенсорсные библиотеки
LLM придумывает названия несуществующих библиотек и предлагает разработчикам-вайбкодерам пользоваться ими. Если есть спрос — возникнет и предложение. Вскоре эти библиотеки действительно появляются в реальности, но уже с вредоносным кодом. Читать далее...
Нейросети без вреда для психики, разума и безопасности
Ни для кого не секрет, что многие важные изобретения в истории часто сопровождались спорами и критикой. Например, лампочку Эдисона и электричество поначалу называли «глобальным провалом», а автомобили — «мимолетным увлечением», которое никогда не станет массовым. Про компьютер даже сами...
Как ИИ помогает мошенникам
Тема безопасности в эпоху LLM всплывает всё чаще. И речь идёт не о самой модели — а о пользователях, которые доверяют ей без оглядки. Сегодня многие разработчики и админы спрашивают у GPT не только совета, но и готовые команды. Результат выглядит правдоподобно — и команда уходит в терминал. Иногда...
Как VK выстроил отслеживание уязвимостей в собственных приложениях, и при чем здесь новый сервис VK Cloud
Количество ИБ-инцидентов непрерывно растет с каждым годом. Это предъявляет дополнительные требования к защищенности используемых сервисов и стало драйвером для развития методологии DevSecOps (Development, Security, Operations), согласно которой проверки кода на уязвимости — неотъемлемый этап...
«Переиграл и уничтожил»: свежие исследования промпт-атак
Недавно в блоге Beeline Cloud мы рассказывали про open source-проекты, которые могут помочь с разработкой ИИ-агентов. Посмотрим на тему ИИ-агентов с другой стороны и разберем исследования, посвященные промпт-атакам — их авторы рассматривают новые способы обхода фильтров, ищут слабые места в...
Scamlexity — невидимый скам, в который попадут миллионы людей из-за ИИ агентов
Мошеннические схемы уже готовы к ИИ агентам. Обсуждаем неизбежную волну скама, чтобы быть к ней готовыми. Читать далее...
Пишем отчет о пентесте за 1 час на локальной LLM. Часть 1
В этой статье мы рассмотрим как на оборудовании стоимостью от 1000$, с полностью локальными LLM и VLM на основе скриншотов и коротких пояснений генерировать грамотно написанные отчеты об уязвимостях самого широкого спектра, начиная от Web/мобилок, заканчивая инфрастурктурными уязвимостями Active...
Новости кибербезопасности за неделю с 11 по 17 августа 2025
Всё самое интересное из мира кибербезопасности /** с моими комментариями. На этой неделе много новостей в моей любимой связке - AI + кибербез: Альман дал интервью и рассказал про риски, Googдe продолжает развивать свои кибербез-инструменты, GPT5 - новая звезда в AI-пентесте и другие только самые...
Новый приказ ФСТЭК: что нужно знать разработчикам Al-сервисов для госсектора
Привет! Меня зовут Андрей, я руковожу отделом продуктов клиентской безопасности в Selectel. С 1 марта 2026 года в России начнут действовать новые требования к безопасности AI-систем в госсекторе. ФСТЭК утвердила Приказ №117 — первый документ, который официально регулирует создание и внедрение...
Безопасность AI-агентов в Web3. Часть 3: Скажи мне что-нибудь, и я скажу, кто ты
AI‑агенты все чаще используются для принятия важных решений и даже управления активами на десятки миллионов долларов, встает вопрос возможности определения LLM модели по ее ответам — fingerprinting. Это нужно для анализа безопасности использования агента, о котором не известно технических деталей...
За неделю от ночных кошмаров до спокойного сна: как я автоматизировал защиту от AI-хакеров
Никто не любит быть тем парнем, который говорит "а давайте еще и защиту поставим". Особенно когда речь идет о блестящем новом AI-продукте, который должен был запуститься "еще вчера". Но когда твой корпоративный чат-бот начинает выдавать системные промпты направо и налево, а в 2 ночи тебе в Telegram...
Назад