Я должен знать, о чём ты думаешь: прозрачность мышления ИИ как необходимое условие
Как многие из вас знают, в 2015 году Стивен Хокинг, Элон Маск и сотни учёных, разработчиков искусственного интеллекта и крупных бизнесменов подписали открытое письмо, в котором подчеркнули опасность ИИ для существования человечества и призвали сообщество инженеров и учёных не создавать искусственные интеллекты, которые не могут полностью контролироваться человеком. В 2016-м на конференции Code Conference основателю Space X и Tesla задали вопрос: какие компании, разрабатывающие сегодня ИИ, вызывают у него опасения? На это ответил, что сейчас его пугает лишь одна из них. Какая — не сказал. И несмотря на все уверения техноадептов в том, что ИИ — исключительно благо, цена пренебрежения механизмами безопасности может оказаться непомерной высока. Читать дальше →
Источник: Хабрахабр
Похожие новости
- О преподавательских работах в Азербайджане, с фотографиями
- Особенности архитектуры сетевой системы защиты информации с применением Keycloak
- Не ради сертификата: мой опыт HTB CWES
- Коммерческая тайна и промышленный шпионаж: вспоминаем кражу кода у Google и другие знаковые американские кейсы
- Топ техник атак на веб-приложения — 2025 и как разработчику защищаться от нетривиальных уязвимостей
- АКАР подвела итоги Диджитал Нон-Медиа Рейтинга 2025
- Компьютерная криминалистика: дополнительный поиск ВПО при помощи событий Windows Defender
- Как врачи используют мобильные приложения
- ML IPS в Ideco NGFW: бессигнатурная защита от атак нулевого дня
- ULBT: как искать и сортировать зашифрованные строки без полного сканирования