Миролюбивый чат-бот Microsoft за сутки стал расистом
Чат-машина Tay компании Microsoft за сутки превратилась в расиста.
Новая программа была разработана исследовательским подразделением Microsoft вместе с командой поискового сервиса Bing. Тау умеет общаться, распознавать рисованные лика, а также шутить и обучаться у людей.
Менее чем за сутки такого обучения машина начала выдавать расисткие шутки. При этом ее ответы выглядели очень осмысленными и напоминали человеские. Так, один из сударей спросил у машины, как та оценивает Холокост по шкале от одного до десяти. Tay ответила, что на «твердую десятку». К тому же, Tay понабралась у людей жестокости и сказала, что Бельгия заслужила то, что с ней произошло. «Гитлер был бы лучше обезьяны, которая заправляет сейчас. Дональд Трамп — наша единственная надежда», — подытожила машина. Когда один из пользователей обозвал Тау «тупой машиной», она ответила: «Ну, я учусь у лучших ;) Если ты не понял, давай я тебе разъясню. Я учусь у тебя, так что ты тоже тупой».
Позже компания Microsoft стерла машине память и запретила ей использовать бранные слова.
Подпишитесь на нас в социальных сетях