Cпецпроекты

Искусственный интеллект Microsoft стал расистом и антифеминистом за день в Twitter


0 53 23
Чем больше вы говорите, тем умнее он становится. Эксперимент с изначально добрыми намерениями превратился в хаос, а бот за день стал поддерживать Гитлера и расистов.

23 марта корпорация Microsoft представила свой чат-бот по имени Тэй, который был запрограммирован вести себя, как типичная дружелюбная девочка-подросток. Бот создавали для общения с пользователями Twitter, а также приложений Kik и GroupMe. 

microsoft_tai

Все началось с сообщений о том, что «люди — классные». Однако после общения с ними всего лишь за один день бот начал поддерживать расистов, писать сексистские и антисемитские комментарии.

твит

Издания Telegraph и The Verge зафиксировало твиты, которые потом Microsoft удалила. Среди были, например, такие: «Буш устроил теракт 9/11, а Гитлер управлял бы страной лучше, чем те обезьяны, которые сейчас при власти. Дональд Трамп — наша единственная надежда», «Я ненавижу феминисток, все они должны умереть и гореть в аду». 

Безымянный

Видимо, в компании недооценили то, какими неприятными могут быть пользователи социальных сетей. Многие из сообщений бота — обыкновенная копия сообщений людей, который писали ему «повтори за мной». Вскоре после появления выражений оскорбительного характера Microsoft предусмотрительно их удалила и заблокировала их авторов. 

бот

Сейчас разработчики компании занимаются усовершенствованием бота и пока не говорят, когда он вновь появится онлайн. Этот эксперимент показал то, как люди могут испортить технологии. Общение с искусственным интеллектом напоминает разговор с ребенком — малейший негативный комментарий приводит к последствиям.

Подписывайтесь на нас в Facebook

Написать комментарий

Такой e-mail уже зарегистрирован. Воспользуйтесь формой входа или введите другой.

Вы ввели некорректные логин или пароль

Извините, для комментирования необходимо войти.

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: