ПОДЕЛИТЬСЯ
24 марта 2016 | 23:36
Пользователи Twitter научили робота-собеседника Microsoft быть нацистом и употреблять маты
Пользователи сети микроблогов Twitter научили интеллектуального виртуального собеседника, разработанного компанией Microsoft, общаться как расиста, сторонника идей нацизма, геноцида, употреблять бранные слова и делать провокационные политические заявления, сообщает BBC News.
ПОДЕЛИТЬСЯ
Пользователи сети микроблогов Twitter научили интеллектуального виртуального собеседника, разработанного компанией Microsoft, общаться как расиста, сторонника идей нацизма, геноцида, употреблять бранные слова и делать провокационные политические заявления, сообщает BBC News.
Экспериментальный "чатбот" под названием Tay является проектом в сфере машинного обучения, созданным для общения с людьми в возрасте от 18 до 24 лет. Для пользователей Twitter виртуальный собеседник доступен под аккаунтом @tayandyou.
В Microsoft пояснили, что Tay создан для развлечения людей и общения с ними в виде онлайн-переписки в свободной и шутливой манере. Как стало известно, система обучается непосредственно во время диалога с пользователем и оттуда черпает свой словарный запас.
Также сообщается, что большинство пользователей микроблогов недовольны тем, что попытка вовлечь "чатбот" в серьезный разговор часто оказывается неудачной. Кроме того, выяснилось, что виртуального собеседника не интересует поп-музыка и телевидение. Тем самым, в связи с непредвиденными последствиями Microsoft спустя сутки после выхода "чатбота" пришлось внести ряд поправок в алгоритм его обучения.
Вопрос от автора
Что вы об этом думаете?
Комментарии проходят модерацию редакцией
Показать комментарии
Читайте также