Кибербезопасность ИИ. Часть 2. Трансформеры, LLM, ИИ

Все блоги / Про интернет 26 февраля 2026 25   

В предыдущей статье мы описали основные способы машинного обучения и архитектуры нейросетей, включая трансформеры - эта архитектура используется для обработки естественного языка в популярных ИИ-чат-ботах, включая ChatGPT. Сегодня ИИ-ассистенты обрабатывают не только текст, но и изображения, и речь, а ИИ-агенты умеют самостоятельно взаимодействовать с цифровыми сервисами и выполнять ряд последовательных действий для достижения поставленной пользователем задачи. Разумеется, в популярных ИИ-инструментах злоумышленники сразу же начали искать уязвимости и применять новые методы кибератак: например, ИИ-агент Deep Research от ChatGPT можно использовать для незаметного получения доступа к электронной почте пользователя, а ИИ-браузеры подвержены уязвимостям, которые позволяют выполнять произвольные действия на веб-страницах от имени пользователя, включая переход по фишинговым ссылкам и оплату товаров в фейковых интернет-магазинах.

Проследив в этой статье историю развития ИИ от первых языковых моделей до мультимодальных агентов, мы сможем понять, какими особенностями ИИ пользуются злоумышленники.

Читать далее
  • Оцените публикацию
  • 0

💬 Комментарии

В связи с новыми требованиями законодательства РФ (ФЗ-152, ФЗ «О рекламе») и ужесточением контроля со стороны РКН, мы отключили систему комментариев на сайте.

🔒 Важно Теперь мы не собираем и не храним ваши персональные данные — даже если очень захотим.

💡 Хотите обсудить материал?

Присоединяйтесь к нашему Telegram-каналу:

https://t.me/blogssmartz

Нажмите кнопку ниже — и вы сразу попадёте в чат с комментариями

Похожие публикации

Архив публикаций