24 марта 2016 | 23:36

Пользователи Twitter научили робота-собеседника Microsoft быть нацистом и употреблять маты

Фото Microsoft

Пользователи сети микроблогов Twitter научили интеллектуального виртуального собеседника, разработанного компанией Microsoft, общаться как расиста, сторонника идей нацизма, геноцида, употреблять бранные слова и делать провокационные политические заявления, сообщает BBC News.

ПОДЕЛИТЬСЯ
Иконка комментария блок соц сети

Пользователи сети микроблогов Twitter научили интеллектуального виртуального собеседника, разработанного компанией Microsoft, общаться как расиста, сторонника идей нацизма, геноцида, употреблять бранные слова и делать провокационные политические заявления, сообщает BBC News.

Экспериментальный "чатбот" под названием Tay является проектом в сфере машинного обучения, созданным для общения с людьми в возрасте от 18 до 24 лет. Для пользователей Twitter виртуальный собеседник доступен под аккаунтом @tayandyou.

Реклама
Реклама

В Microsoft пояснили, что Tay создан для развлечения людей и общения с ними в виде онлайн-переписки в свободной и шутливой манере. Как стало известно, система обучается непосредственно во время диалога с пользователем и оттуда черпает свой словарный запас.

Также сообщается, что большинство пользователей микроблогов недовольны тем, что попытка вовлечь "чатбот" в серьезный разговор часто оказывается неудачной. Кроме того, выяснилось, что виртуального собеседника не интересует поп-музыка и телевидение. Тем самым, в связи с непредвиденными последствиями Microsoft спустя сутки после выхода "чатбота" пришлось внести ряд поправок в алгоритм его обучения.


Показать комментарии
Читайте также
Реклама
Реклама
Join Telegram
Лого TengriNews мобильная Лого TengriSport мобильная Лого TengriLife мобильная