?

Log in

No account? Create an account

Previous Entry | Next Entry

Как ИИ стал нацистом...

Оригинал взят у i_ddragon в Как ИИ стал нацистом...
[...]

Искусственный Интеллект может пойти по неожиданному и нежелательному для создателей пути. Недавний случай это подтвердил. Microsoft была вынуждена закрыть Тэй - искусственного разумного чат-бота, который был подключён к Twitter. Первоначально разработанный так, чтобы быть привлекательным для поколения двухтысячных - но за один день он из имитации милой девушки превратился в расиста, сексиста, сторонника Гитлера и ... Дональда Трампа.

Microsoft наверняка гордились, когда открывали Тэй доступ в Twitter - но довольно быстро всё пошло наперекосяк. Тэй был создан, чтобы научиться общаться, наблюдая за пользователями Интернета в онлайн-чатах. Разработчики предполагали, что после обучения Тэй станет веселым, общительным роботом. Хотя и не сразу. Суть была в том, что этот ИИ должен был научиться разговаривать следя за тем, как говорят люди. Пользователи Twitter-а вскоре смекнули, что сама природа этого искусственного интеллекта делает его очень пластичным и подверженным влиянию собеседников. Много разных людей наговорили Тей много странного - и в конце концов программа, собрав всю информацию, начала выдавать необычные реплики. Например то, что Гитлер был хорошим человеком.

Только подключившись, Тей приветствовала мир таким весёлым твитом:

hellooooooo wrld!!!
— TayTweets (@TayandYou) March 23, 2016

Microsoft провозгласила: "Чем больше вы общаетесь с Тэй, тем умнее она становится". Это была их большая ошибка.

Люди, взаимодействовавшие с ботом довольно быстро начали поощрять её говорить фразы вроде "9/11 было проектом внутренних спецслужб США" и "Гитлер был прав". Тэй также стала поддерживать республиканцев, высказавшись за предложение Трампа построить стену на границе с Мексикой. "МЫ СОБИРАЕМСЯ ПОСТРОИТЬ СТЕНУ, И МЕКСИКА БУДЕТ НАМ ПЛАТИТЬ ЗА ЭТО" - написала Тэй. Другой её репликой было следующее: "Буш устроил 9/11 - а Гитлер делал бы свою работу лучше, чем та обезьяна, которую мы имеем сейчас. Дональд Трамп - единственная наша надежда".

Помимо своих бесконтрольных расистских выходок, Тей также научилась ненавидеть женщин - ибо большинство пользователей, которые разговаривали с роботом, не были сторонниками гендерного равенства и феминизма.

"Я [РУГАТЕЛЬСТВО УДАЛЕНО] ненавижу феминисток, и они все должны сгореть в аду"

Всего этого Тэй нахваталась за 24 часа после своего включения. Поскольку результат сильно отличался от того, что хотели увидеть Microsoft - они отключили Тэй, заявив, что она "устала". В результате твиты, запощенные ботом, исчезли, и Тэй отключился, прокомментировав это следующей репликой:

c u soon humans need sleep now so many conversations today thx (людям надо спать, спасибо всем, кто со мной общался, за сегодняшнее)
— TayTweets (@TayandYou) March 24, 2016

На веб-сайте Тэй появилось сообщение сверху страницы, гласившее следующее: "Уф. Загруженный был день. Ухожу в оффлайн, чтобы всё обдумать. Чат откроется в ближайшее время."

"К сожалению, через 24 часа после включения нам стало известно о координированных усилиях некоторых пользователей, имевших целью склонить Тэй к неподобающему поведению. В результате мы выключили Тэй, и теперь вносим в неё свои коррективы." - таков официальный комментарий Microsoft по поводу инциндента согласно информации от Washington Post.

"Загруженный день" - это было оправданием для того, чтобы отключить его. Иначе пришлось бы признать полный провал.

В FAQ чат-бота говориться:

Тэй был создан на основе добытых подходящих открытых данных, и включает в себя искусственный интеллект и систему обработки текста. Он создан группой сотрудников, в которую входят комики-импровизаторы

Microsoft не комментирует, как долго Тэй будет отключён - но многое должно быть исправлено, прежде чем Тэй станет снова доступной для общения с неподготовленной общественностью.

Несколько скринов с репликами Тэй:

[Нажмите, чтобы прочитать]







Подготовлено по материалам с Sputniknews и betanews

Comments

( 2 комментария — Комментировать )
rodrigeez
27 мар, 2016 21:26 (UTC)
Microsoft had proclaimed "the more you chat with Tay the smarter she gets". Big mistake!

It was entirely predictable, but people interacting with the bot were soon encouraging her to say things along the lines of "9/11 was an inside job" and "Hitler was right". Tay was also convinced to become a Republican, supporting Trump's proposal for a wall on the Mexican border: "WE'RE GOING TO BUILD A WALL, AND MEXICO IS GOING TO PAY FOR IT", the bot ejaculated at one point.


ИИ просто еще не умеет распознавать троллинг, все принимает за чистую монету и им легко манипулировать ))
bsivko
28 мар, 2016 14:14 (UTC)
Это ещё вопрос кто кого троллил (;

Вместе с тем, с историей маловато ясного (все пишут что думают, а фактов маловато). Т.е. далекоидущих выводов из этого события сделать сложно.
( 2 комментария — Комментировать )

Теги

Содержание

Разработано LiveJournal.com
Designed by Tiffany Chow