«Крестный отец» ИИ обвиняет новые модели во лжи пользователям: как избежать проблем с LLM
Йошуа Бенжио, один из пионеров искусственного интеллекта, лауреат премии Тьюринга и ученый, чьи исследования легли в основу современных систем ИИ, поднял тревогу. Он заявил, что новейшие модели ИИ демонстрируют опасные черты: склонность к обману, мошенничеству и самосохранению. Чтобы решить эти проблемы, Бенжио даже основал некоммерческую организацию LawZero. Ее цель — создание безопасных и честных ИИ-систем.
Давайте обсудим, почему большие языковые модели (Large Language Models, LLM) вообще вызывают беспокойство, какие от этого риски и можно ли их обойти.
Читать далееИсточник: Хабрахабр
Похожие новости
- bit kogan: Хорошо там, где нас нет: сравниваем цены на ЖКХ в России и в США
- Spark_news: Минцифры хочет запретить рекламного «Большого брата»
- Дыра в щите Cloudflare: как атака на Jabber.ru вскрыла проблему, о которой молчат c 2023
- Слив электронной подписи: как потерять имущество, деньги и компанию
- Новости кибербезопасности за неделю с 9 по 15 июня 2025
- Агенты. Деньги. Бизнес и Работа
- [Перевод] Брутфорс телефонного номера любого пользователя Google
- GPT ломает приватность: что должен знать разработчик
- Поговорим о DevSecOps и культурной трансформации в мире разработки
- Насколько русскоязычные LLM устойчивы к промпт-инъекциям