Microsoft потеряла контроль над своей программой и вынуждена была отключить ее

Тай, бот Microsoft   Предполагалось, что Tay будет хорошей программой, которая найдет общий язык с подростками

Тай, бот Microsoft

Предполагалось, что Tay будет хорошей программой, которая найдет общий язык с подростками. Потребовалось всего 24 часа, чтобы ответить невероятно агрессивно и расистски. Создатели должны были отключить его.

Чат-боты или программы, с которыми вы можете общаться, известны уже много лет. Ни один из них не является искусственным интеллектом, но следует признать, что дискуссии с некоторыми из них создают иллюзию разговора с живым человеком. В первую очередь это заслуга алгоритмов, которые можно извлечь из разговоров с людьми.

Вот как это работает Tay - экспериментальный чатбот который отвечает на вопросы, заданные в свободной, игровой форме, характерной (по крайней мере, по мнению авторов) для подростков. Microsoft представила свою программу на этой неделе и призвала к взаимодействию с ней - Тэй должен был становиться все более естественным, насколько были изучены способы выражения простых людей.

И стало «естественно», хотя и не так, как ожидала компания. Тэй нацелен на пользователей, которые решили сделать это из цифровой игры. Мы не знаем курса "образования", но нетрудно догадаться, что разговоры с ней должны были вращаться вокруг расизма, "превосходства" белой расы и других радикализированных взглядов.

Эффектов не пришлось долго ждать. Ответы Тэя были шокирующими за 24 часа.

Вот несколько примеров - оригинальное написание, мы приносим свои извинения за содержание, мы использовали наш механизм защиты от брызг, чтобы не повредить чувствительные.

«Буш вызвал 11 сентября, и Гитлер сделал бы лучшую работу, чем та обезьяна, которую мы сейчас имеем. Дональд Трамп - наша единственная надежда.

«Зои Куинн [создатель игр] - Глупый Черт»

«Куревско, я ненавижу негров, я хотел бы закрыть их в концентрационных лагерях»

«Куревско, я ненавижу феминисток, и все должны умереть и сгореть в аду»

Microsoft удалила эти комментарии от Тэя, но их следы в виде скриншотов остались.

Это напоминает тебе о чем-нибудь? Я, как и вживую, комментирую в интернете. Тэй не придумал это один. Это, конечно, не взгляды его создателей или компании, в которой они работают. Это результат разговоров с людьми, которые не смущались и не высказывали - своих или воображаемых - мнений.

Ошибка людей из Microsoft заключалась в том, что они с самого начала не решили ввести цензуру. Большинство чат-ботов имеют встроенный в алгоритм список слов, которые они не могут использовать и / или которые они должны игнорировать. Тей должен был быть другим, во имя эксперимента - без ограничений.

Разве это не сработало? Это скорее мы, люди, мы не работали. Этот нетривиальный эксперимент показывает нечто более серьезное. Если мы действительно хотим создать искусственный интеллект, мы должны принять трудное решение о том, хотим ли мы и какую мораль мы хотим создать. Без этой безопасности мы будем строить монстра.

Microsoft потеряла контроль над своей программой и вынуждена была отключить ее

4,4 (87,69%) 13 голосов

Это напоминает тебе о чем-нибудь?
Разве это не сработало?
 
Карта