Я должен знать, о чём ты думаешь: прозрачность мышления ИИ как необходимое условие
Как многие из вас знают, в 2015 году Стивен Хокинг, Элон Маск и сотни учёных, разработчиков искусственного интеллекта и крупных бизнесменов подписали открытое письмо, в котором подчеркнули опасность ИИ для существования человечества и призвали сообщество инженеров и учёных не создавать искусственные интеллекты, которые не могут полностью контролироваться человеком. В 2016-м на конференции Code Conference основателю Space X и Tesla задали вопрос: какие компании, разрабатывающие сегодня ИИ, вызывают у него опасения? На это ответил, что сейчас его пугает лишь одна из них. Какая — не сказал. И несмотря на все уверения техноадептов в том, что ИИ — исключительно благо, цена пренебрежения механизмами безопасности может оказаться непомерной высока. Читать дальше →
Источник: Хабрахабр
Похожие новости
- DHCP: настройка серверов, Relay и анализ трафика в Wireshark
- Безопасная аутентификация с Indeed AM
- bit kogan: Одна из наиболее обсуждаемых тем сегодня — по какому пути пойдет дальнейшее развитие интернета в России
- Как работает машина Enigma M3 (для флота)
- Из туризма в стеганографию: история создания ChameleonLab и наш новый взгляд на контент
- Невидимые чернила в цифровом мире: технология сокрытия данных в DOCX/XLSX
- Homo CyberSecuritis. Человек эпохи кибербезопасности
- Jailbreak ChatGPT-5, системный промпт, и скрытый контекст
- [Перевод] Prompt injection engineering для атакующих: эксплойт для Copilot от GitHub
- Бренды и смысл: почему внутренняя культура — это новый маркетинг