Уже через сутки разработанный Microsoft чат-бот научился выражаться ка ...

Уже через сутки разработанный Microsoft чат-бот научился выражаться как нацист, расист и сторонник геноцида

25/03/2016 806
Автор: 

Разработанный Microsoft чат-бот Tay, запущенный 23 марта в Twitter, научился ругаться и выражаться как нацист и расист, сообщает BBC NEWS.

Экспериментальная версия искусственного интеллекта, которая может учиться у своих собеседников, была создана для общения 18-24 летними пользователями.

Спустя 24 часа после запуска Microsoft была вынуждена удалить некоторые из наиболее провокационных высказываний Tay. В частности, заявления о поддержке геноцида, ненависти к феминисткам и сотрудничестве с Гитлером.

«Чат-бот Tay — это обучаемый проект, предназначенный для того, чтобы привлечь и развлечь людей, где они в режиме онлайн могут сблизиться через случайные и игривые беседы. Недопустимые ответы, которые он даёт, свидетельствуют о взаимодействиях, которые у него были по мере обучения. Сейчас мы корректируем Tay», — заявили в Microsoft.

Вместе с тем, ранее отмечалось, что «чем больше вы будете общаться с Tay, тем умнее она станет». Но такое общение привело к некоторым досадным последствиям — пользователи «научили» программу говорить, как нацист, расист и сторонник геноцида.

В то же время, пользователи, которые попытались начать серьёзный разговор с чат-бота, столкнулись с тем, что программа не интересуется технологиями, популярной музыкой и др. 

После появления новостей об изменении ответов Tay некоторые пользователи стали выражать опасения как по поводу будущего искусственного интеллекта, так и убеждений современной молодёжи.

Возврат к списку

Ваш комментарий

Добавлять комментарии могут только авторизованные пользователи
Войти как пользователь:
Войти как пользователь
Вы можете войти на сайт, если вы зарегистрированы на одном из этих сервисов: