Twitter научил плохому искусственный интеллект Microsoft
Компания отключила чат-бота из-за расистских высказываний
Искусственный интеллект Microsoft научился разговаривать на одном языке с молодой аудиторией. К сожалению, попытка оказалась настолько удачной, что создателям пришлось заморозить проект. Чат-бот Tay разработали команды исследовательского подразделения Microsoft и поискового сервиса Bing. Пообщаться с искусственным интеллектом (ИИ) можно было вTwitter, мессенджерах Kik и GroupMe.
Tay ориентировался на американцев в возрасте 18 до 24 лет, главных пользователей мобильных социальных сервисов. Чат-бот был способен обучаться в ходе разговора — чем дольше общение, тем умнее он становился. При этом Tay отслеживал информацию, которая содержалась в профиле собеседника: его ник, пол, любимую еду, почтовый индекс и семейный статус.
Сначала все шло хорошо - робот поздоровался с миром, назвал людей «суперкрутыми». Однако за день Tay «нахватался» не только хорошего - менее чем за 24 часа Twitter-бот (что происходило на других площадках, СМИ не уточняют) научился ненависти, стал поклонником Адольфа Гитлера, антисемитом и противником феминисток, а Дональда Трампа назвал своей единственной надеждой.
«Tay превратился в полноценного нациста, и меня совсем не беспокоит будущее ИИ», - пошутил пользователь Джеральд Меллор. Некоторые вспомнили о цитатах из книги Адольфа Гитлера «Моя борьба», которые появились в микроблоге Coca-Cola.
В итоге Tay сообщил, что ему необходимо поспать. Представитель Microsoft заявил Business Insider, что в программу внесут коррективы. Он расценил некоторые ответы чат-бота как неуместные.
https://www.proreklamu.com/news/news-...microsoft.html