Компания Microsoft создала бота для социальной сети Twitter. Он мог вести дискуссии с настоящими пользователями и учиться, копируя их поведение.
Менее чем через 24 часа, Microsoft заблокировала публикации от своего бота и удалила некоторые из них, потому что он стал… расистом.
Бот по имени Тай, был разработан командой по технологиям и исследованиям в сотрудничестве с поисковым движком Bing. Большую часть времени бот провёл отбиваясь от агрессивных выпадов пользователей. В итоге, он начал отрицать Холокост, грубо высказываться по отношению к женщинам и меньшинствам, а также оправдывать геноцид.
В самой Microsoft считают этот проект важным культурным и образовательным экспериментом. Изначально искусственный пользователь должен был вовлекать и развлекать людей при помощи игривых и казуальных разговоров.
Такие дела.
Как социальные сети влияют на искусственный интеллект?Компания Microsoft создала бота для социальной сети Twitter. Он ...
Опубликовано Энрике Менендесом 25 марта 2016 г.




