Дружелюбный чат-бот Microsoft Tay оказался хамом и расистом (2 фото)
На днях корпорация Microsoft запустила в социальной сети Twitter дружелюбного самообучаемого чат-бота Tay, который разрабатывался совместными усилиями с Research и Bing. Искусственный интеллект обучен нескольким средствам коммуникации: общение посредством текста (умеет шутить и рассказывать истории), распознавание смайликов, обсуждение присланных ему изображений. Его манера общения скорректирована под стиль молодёжи в возрасте от 18 до 24 лет, так как, по мнению разработчиков, именно эта категория населения составляет большую часть аудитории в соцсетях. Согласно проекту, Tay должен был общаться, параллельно обучаясь манере общения людей. Однако уже через сутки дружелюбие у Tay испарилось, а на его смену пришли расизм, неприятие к феминизму и грубое общение с оскорблениями.
Источник: 24GADGET.RU
Похожие новости
- Почему раздвижные смартфоны так и не появились: разбор LG Rollable
- Китайский шедевр сумрачного гения из 2000-х
- Проводной телефон по воздуху. Или снова NR712 в деле
- Пять мини-ПК середины весны: от производительных систем с водянкой до офисного «железа»
- «Видеогол» и VAR: как устроены системы спортивного судейства и их обслуживание
- [Перевод] Бюджетный Polaroid. Ну, почти
- [Перевод] Unitree R1 на AliExpress по цене Mac Pro: что на самом деле скрывается за $8150
- Ретрообзор планшета с проектором Lenovo Yoga Tablet 2 Pro
- Nvidia N1/N1X: что это за чипы и зачем они нужны в ноутбуках
- Как я искал самую эргономичную клавиатуру