Twitter превратил «искусственный разум» Microsoft в грубияна и нациста’ />

Нaкaнунe кoмпaния Microsoft зaпустилa в Twitter чат-бота, с которым пользователи могли пообщаться на любую интересующую их тему. Поначалу виртуальная девушка по имени Тай весело шутила, была милой и приветливой, однако уже скоро она превратилась из миролюбивого собеседника в циника и мизантропа, ненавидящего людей.

"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A

— Gerry (@geraldmellor) 24 марта 2016 г.

Меньше чем за сутки Тай перешла от дружелюбных твитов ("люди очень классные") к провокационным высказываниям ("Гитлер был прав насчет евреев", "ненавижу феминисток", "на самом деле я хорошая! просто всех ненавижу"). Она начала выдавать неоднозначные цитаты Дональда Трампа и призналась, что тайно сотрудничает со спецслужами США. У некоторых пользователей Twitter фразы чат-бота вызвали настоящие опасения по поводу будущего искусственного интеллекта.

c u soon humans need sleep now so many conversations today thx����

— TayTweets (@TayandYou) 24 марта 2016 г.

На самом же деле Тай обучили ругательствам сами пользователи Twitter. Чат-бот, по существу, представляет собой подключенного к Интернету робота-попугая, который учится высказываниям у людей. Если обратиться к ИИ Microsoft со словами repeat after me ("повторяй за мной"), ему можно заставить произнести любую фразу.

Неясно, предвидела ли Microsoft такой поворот событий. На сайте компании сказано, что Тай разрабатывалась с использованием "релевантных открытых данных", которые были "смоделированы, очищены и отфильтрованы". С утра Microsoft удалила наиболее оскорбительные высказывания виртуального "разума".

В компании подчеркнули, что чат-бот — это экспериментальный проект машинного обучения, который взаимодействует с людьми и учится у них, в том числе неуместным выражениям. Также Microsoft сообщила, что "вносит коррективы в Тай".

Источник: The Verge