Кибербезопасность ИИ. Часть 2. Трансформеры, LLM, ИИ

В предыдущей статье мы описали основные способы машинного обучения и архитектуры нейросетей, включая трансформеры - эта архитектура используется для обработки естественного языка в популярных ИИ-чат-ботах, включая ChatGPT. Сегодня ИИ-ассистенты обрабатывают не только текст, но и изображения, и речь, а ИИ-агенты умеют самостоятельно взаимодействовать с цифровыми сервисами и выполнять ряд последовательных действий для достижения поставленной пользователем задачи. Разумеется, в популярных ИИ-инструментах злоумышленники сразу же начали искать уязвимости и применять новые методы кибератак: например, ИИ-агент Deep Research от ChatGPT можно использовать для незаметного получения доступа к электронной почте пользователя, а ИИ-браузеры подвержены уязвимостям, которые позволяют выполнять произвольные действия на веб-страницах от имени пользователя, включая переход по фишинговым ссылкам и оплату товаров в фейковых интернет-магазинах.
Проследив в этой статье историю развития ИИ от первых языковых моделей до мультимодальных агентов, мы сможем понять, какими особенностями ИИ пользуются злоумышленники.
Читать далееИсточник: Хабрахабр
💬 Комментарии
В связи с новыми требованиями законодательства РФ (ФЗ-152, ФЗ «О рекламе») и ужесточением контроля со стороны РКН, мы отключили систему комментариев на сайте.
🔒 Важно Теперь мы не собираем и не храним ваши персональные данные — даже если очень захотим.
💡 Хотите обсудить материал?
Присоединяйтесь к нашему Telegram-каналу:
https://t.me/blogssmartzНажмите кнопку ниже — и вы сразу попадёте в чат с комментариями