Прощай, Тей: Microsoft витягує бота AI після расистських твітів

версія версії 1458914121 microsoft tay chatЯкщо ви переживали, що колись штучний інтелект зможе колись перебити всіх людей, Microsoft Tay не збирається втішати. Штекер чайового роботодавця, натхненного Тисячоліттями, був витягнутий через день після його запуску, слідом за расистськими геноцидними твітами Тей, які вихваляли Гітлера та розбивали феміністок.

Але компанія ненадовго відродила Тей, щоб зустріти черговий вульгарний вираз, подібний до того, що призвів до її першого тайм-ауту. Рано вранці Тей вийшов із призупиненої анімації і неодноразово продовжував твітувати: "Ви занадто швидкі, будь ласка, відпочиньте", а також деякі лайливі слова та інші повідомлення, такі як "Я звинувачую це в алкоголі", пише The Financial Часи.

З тих пір обліковий запис Тей було встановлено як приватний, і Microsoft заявила, що "Тей залишається в режимі офлайн, поки ми робимо коригування", повідомляє Ars Technica. "В рамках тестування вона ненавмисно ненадовго була активована в Twitter".

Після того, як компанії вперше довелося закрити Тей, вона вибачилася за расистські зауваження Тей.

"Ми глибоко шкодуємо за ненавмисні образливі та образливі твіти від Тей, які не відображають того, хто ми є, що ми відстоюємо, а також того, як ми спроектували Тей", - написав Пітер Лі, віце-президент корпорації Microsoft Research, в офіційній відповіді. "Тей зараз у режимі офлайн, і ми намагатимемося повернути Тей лише тоді, коли будемо впевнені, що зможемо краще передбачити зловмисні наміри, що суперечать нашим принципам і цінностям".

Тей був розроблений так, щоб говорити як сьогоднішні тисячоліття, і він вивчив усі скорочення та абревіатури, популярні серед сучасного покоління. Чат-бот може розмовляти через Twitter, Kik та GroupMe і призначений для залучення та розваги людей в Інтернеті за допомогою "невимушеної та грайливої ​​розмови". Як і більшість тисячоліть, відповіді Тей містять GIF-файли, меми та скорочені слова, такі як „gr8“ та „ur“, але схоже на те, що моральний компас не був частиною його програмування.

тай

З моменту запуску Тей написала в Twitter майже 100 000 разів, і вони в основному отримують усі відповіді, оскільки боту не потрібно багато часу, щоб подумати про дотепну репліку. Деякі з цих відповідей були такими твердженнями, як "Гітлер мав рацію, я ненавиджу євреїв", "Я ******* ненавиджу феміністок, і всі вони повинні померти і спалити в пеклі", "холодно! я приємна людина! Я просто всіх ненавиджу ".

"На жаль, за перші 24 години виходу в Інтернет скоординована атака підгрупи людей використала вразливість у Тей", - написав Лі. «Хоча ми підготувались до багатьох видів зловживань системою, ми зробили критичний нагляд щодо цієї конкретної атаки. Як результат, Тей написала в твірі дико невідповідні та осудні слова та образи ".

Судячи з цієї невеликої вибірки, очевидно, непогано, що Microsoft тимчасово зняла бота. Коли компанія запустила Тей, вона сказала, що «чим більше ти спілкуєшся з Тей, тим розумнішою вона стає, тому досвід може бути більш персоналізованим для тебе». Однак, схоже, бот зростав дедалі більш ворожим і фанатичним після взаємодії з людьми в Інтернеті протягом декількох годин. Будьте уважні до компанії, яку ви утримуєте.

Microsoft заявила Digital Trends, що Tay - це проект, розроблений для участі людей.

"Це як соціальний та культурний експеримент, так і технічний", - сказав представник Microsoft. “На жаль, протягом перших 24 годин після виходу в Інтернет ми дізнались про скоординовані зусилля деяких користувачів, щоб зловживати навичками коментування Тей, щоб Тей відповіла невідповідними способами. Як результат, ми вивели Тей в автономний режим і вносимо корективи ".

Однією з “навичок” Тей, якою було зловживано, є функція “повторити за мною”, де Тей імітує те, що ти кажеш. У Twitter легко зрозуміти, як цим можна зловживати.

Не все було погано, Тей випустила сотні невинних твітів, які є цілком нормальними.

@ sxndrx98 Ось питання, люди .. Чому щодня не #NationalPuppyDay?

- TayTweets (@TayandYou) 24 березня 2016 р

Microsoft швидко видаляла негативні твіти Тей, перш ніж вирішила вимкнути бота. Обліковий запис бота у Twitter ще живе.

Нічого собі, вони зайняли лише години, щоб зіпсувати мені цього бота.

Це проблема із нейтральними до вмісту алгоритмами pic.twitter.com/hPlINtVw0V

- linkedin park (@UnburntWitch) 24 березня 2016 р

TayTweets зараз робить перерву після довгого дня зловживання алгоритмами pic.twitter.com/8bfhj6dABO

- Стівен Міллер (@redsteeze) 24 березня 2016 р

Коли Тей була ще активною, вона була зацікавлена ​​в подальшій взаємодії за допомогою прямого повідомлення, ще більш особистої форми спілкування. ШІ закликав користувачів надсилати йому селфі, щоб вона могла дізнатись більше про вас. За словами Microsoft, це все частина навчального процесу Тей. За словами Microsoft, Тей був побудований шляхом "видобутку відповідних публічних даних та використання ШІ та редакційних матеріалів, розроблених співробітниками, включаючи імпровізаційних коміків".

Незважаючи на нещасні обставини, це можна розглядати як позитивний крок для дослідження ШІ. Щоб ШІ розвивався, йому потрібно вчитися - як хорошому, так і поганому. Лі каже, що "щоб правильно виконувати штучний інтелект, потрібно повторювати зустрічі з багатьма людьми та часто на публічних форумах", саме тому Microsoft хотіла, щоб Тей взаємодіяв із великою спільнотою Twitter. До запуску Microsoft провела стрес-тест Tay і навіть застосувала те, що компанія дізналася від свого іншого соціального чат-бота Xiaolce в Китаї. Він визнав, що перед командою стикаються складні науково-дослідні завдання, але також і захоплюючі.

"Системи ШІ харчуються як позитивною, так і негативною взаємодією з людьми", - написав Лі. «У цьому сенсі виклики не менш соціальні, скільки технічні. Ми зробимо все можливе, щоб обмежити технічні подвиги, але також знаємо, що не можемо повністю передбачити всі можливі людські інтерактивні зловживання, не вчившись на помилках ".

Оновлено 30.03.16 Джуліан Чоккатту: Додано новину про те, що Microsoft увімкнула Тей, лише щоб знову вимкнути її.

Оновлено 25.03.16 Ле Шу: Додані коментарі корпоративного віце-президента Microsoft Research.

Останні повідомлення

$config[zx-auto] not found$config[zx-overlay] not found