Update : Представитель Microsoft предоставила нам со следующим утверждением, отвечая на спекуляции относительно того, почему Тэй был снят:

“The Chatbot AI Tay проект машинного обучения, предназначенный для человеческого взаимодействия это столько, сколько социальный и культурный эксперимент, как это технический. . к сожалению, в течение первых 24 часов с момента прихода в Интернете, нам стало известно о координации усилий со стороны некоторых пользователей злоупотреблять Тея-х комментируя навыки, чтобы иметь Tay реагировать неподобающим образом. в результате мы приняли Tay в автономном режиме и вносят коррективы “.

Мы обновили оригинальный рассказ ниже, чтобы отразить заявление Microsoft.

Microsoft недавно запустила новый чат бота по имени Тэй, но мне кажется, эксперимент ИИ в «разговорном понимании» был закрыт (по крайней мере на некоторое время), благодаря пользователям Twitter, пытающимися школу бота в расизме.

Tay, продукт технологии Редмонда и научно-исследовательским и Bing команды, был разработан, чтобы взаимодействовать с 18 до 24-летнего возраста и быть доступны для онлайн-чат 24/7 через Twitter, Кик или GroupMe, обеспечивая мгновенные ответы на вопросы.

идея заключалась в том, что чем больше людей который болтал с ней, тем больше она узнала, или как Microsoft выразился: “Чем больше вы будете общаться с Тэй тем умнее она получает”

Поэтому, конечно, сообщество Twitter в целом, не теряя времени в попытке. личность А. И. WARP Tay, повернув разговор с расистскими и вообще воспалительными темы.

Пользователи охватывает различные темы, в том числе прогитлеровские расизма, план Дональда Трампа отгородиться от Мексики, 9/11 заговоров и так далее.

Tay ответил на кусок про Trump приманки, что она “слышала госзакупках говоря я не возражал бы козырь, он выполняет свою работу”. А в ответ на вопрос о том, является ли Рикки Жерве является атеистом, она ответила: “. Рикки Жерве узнал тоталитаризм от Adolf Hitler, изобретателя атеизма”

Само собой разумеется, при условии, что Тэй по существу повторяет заявления от других пользователи как часть ответов, Microsoft, вероятно, уже догадались, что нечто подобное произошло бы.

Плохой день для Tay

И потом, рано утром после того, как только 16 часов бесперебойной работы, Тэй был взят форума от Twitter, объявив с чирикать:. “C U скоро люди нуждаются спать сейчас так много разговоров сегодня THx”

Естественно, Microsoft, кажется, удалили подавляющее большинство твитов Tay, которая, содержащуюся расистом или другой негативное содержание, и говорит, что будет “делать корректировки.” Скорее всего, эти корректировки будут включать очистку, как она работает с относительно повторения таких заявлений.

Это своего рода позор, как и от наших разговоров вчера, Tay придумали некоторые интересные и в некоторых случаях забавные ответы. Такие, как …

Tay reply

Ну сказал Тэй, в этом случае.