Дружелюбный чат-бот Microsoft Tay оказался хамом и расистом (2 фото)
На днях корпорация Microsoft запустила в социальной сети Twitter дружелюбного самообучаемого чат-бота Tay, который разрабатывался совместными усилиями с Research и Bing. Искусственный интеллект обучен нескольким средствам коммуникации: общение посредством текста (умеет шутить и рассказывать истории), распознавание смайликов, обсуждение присланных ему изображений. Его манера общения скорректирована под стиль молодёжи в возрасте от 18 до 24 лет, так как, по мнению разработчиков, именно эта категория населения составляет большую часть аудитории в соцсетях. Согласно проекту, Tay должен был общаться, параллельно обучаясь манере общения людей. Однако уже через сутки дружелюбие у Tay испарилось, а на его смену пришли расизм, неприятие к феминизму и грубое общение с оскорблениями.
Источник: 24GADGET.RU
Похожие новости
- Одноплатники как роутеры: новинки 2025 года и их возможности
- Drift Skate, Freeskates, Freeline Skates, Кайф
- [Перевод] Самодельный компьютерный стол с навороченной начинкой внутри за 20 шагов
- Xreal One Pro — подробный разбор новых AR-очков с чипом X1 и экраном до 191 дюйма
- Умная таблетка PillTrek анализирует состояние желудка в реальном времени
- Китайский робот приготовил и посолил стейк под управлением человека на расстоянии 1800 км (2 фото)
- Silicon Power показала новую карту microSD со скоростью чтения до 880 МБ/с (3 фото)
- Представлены тонкие смартфоны Infinix Hot 60 Pro и Pro+: 144 Гц, с камерой Sony и чипом Helio G200 (6 фото)
- Астронавт запечатлела с борта МКС редкое природное явление — спрайт огромных размеров
- Хронометр Гаррисона: прибор, спасший сотни жизней моряков