Як зробити роботів етичними, навчаючи їх говорити ні

навчання ай роботів, як сказати ні матіаса шутца Matthias Scheutz Kelvin Ma / Tufts University Незалежно від того, чи ваш смартфон відстежує ваші улюблені ресторани на винос, чи веб-браузер, який веде вкладки, які веб-сайти ви відвідуєте найчастіше, у вашому домі, ймовірно, є технологія, яка дізнається про вас.

По мірі перетворення комп’ютерів з інструментів на помічників у найближчі роки потреби у навчанні технології, яку ми використовуємо щодня, будуть зростати в геометричній прогресії. Ці послуги будуть більш досконалими і будуть набагато дальшими, ніж сьогодні, але їм доведеться стати набагато розумнішими, перш ніж це зробити.

Комп’ютерні системи, штучний інтелект та допоміжні роботи потребуватимуть публікацій із цілого ряду тем - людської розмови, культурних норм, соціального етикету тощо. Сучасні вчені викладають ШІ тим урокам, які їм знадобляться, щоб допомогти завтрашнім користувачам, і розклад курсів не такий, як Ви очікували.

Перші кроки до розумнішого ШІ

Торік у межах Лабораторії взаємодії людина-робот Бостонського університету Тафтса маленький робот підійшов до краю столу. Досягнувши цієї обриви, робот зазначив, що поверхня, по якій він йшов, закінчився, і сказав своєму оператору: "Вибачте, я не можу цього зробити".

Роблячи це, машина підтвердила, що робота, проведена Маттіасом Шотцем та Гордоном Бриггсом, була успішною. Пара хотіла надати своєму роботові можливість відхилити запит, висунутий оператором-людиною, а настільний акт самозбереження суб'єкта тестування був демонстрацією роботи системи.

Проект Шотца та Бріггса є частиною вирішальної галузі досліджень штучного інтелекту. Взаємодія людини і робота - іноді її називають HRI - є важливим елементом нашої подальшої роботи щодо практичного застосування ШІ. Легко забути, оскільки роботи для більшості все ще є гіпотетичним занепокоєнням, що одного разу ці машини повинні інтегруватися з людьми, яким вони призначені допомогти.

Навчити робота ходити - це одне. Навчати того самого робота, коли безпечно переходити дорогу, зовсім інше. Це ядро ​​проекту, здійсненого Шотцем та Бріггсом. Вони хотіли дати роботові можливість відхиляти отримані замовлення, якщо здається, що виконання завдання завдасть йому шкоди.

Для людини це може здатися неявним елементом дії переміщення. Але у роботів немає «здорового глузду».

Важливість слова «ні»

Навчити робота відмовлятись від замовлення, яке призводить до його загибелі, є очевидною вигодою для робота, а також для того, хто ним належить. Але його значення сягає набагато глибше. Допомога роботові сказати «ні» означає допомогти йому навчитися судити про наслідки своїх дій.

"Так само, як ми не хочемо, щоб люди сліпо виконували вказівки інших людей, ми не хочемо, щоб навчаються роботи виконували людські замовлення, не перевіряючи, які наслідки мають", - сказав Шотц у розмові з Digital Trends.

Ми повинні навчити роботів не виконувати команди, які не є етично обґрунтованими.

«Інструкції можуть бути невідповідними в тій чи іншій ситуації з багатьох причин, - продовжував він, - але найголовніше тому, що вони можуть завдати шкоди людям або пошкодити майно, включаючи самого робота. Міркуючи про можливі результати вказівки, робот міг би виявити потенційні порушення норм та потенційну шкоду в результаті дії, і спробувати пом'якшити їх ".

По суті, коли робот отримує вказівку йти вперед, він перевіряє цей запит щодо інформації, яка у нього є під рукою. Якщо щось здається рибним, робот може потім висловити свої занепокоєння людині-оператору, врешті-решт відхилити команду, якщо інструктор не має зайвих даних, щоб заспокоїти свої страхи.

Науковий процес робить не такий привабливий заголовок, як загроза повстання роботів для нас, людей. Таблоїдні газети, такі як Daily Mail, повідомляли про роботу Шотца з мультиплікаційним заголовком, в якому роздумували про майбутнє підпорядкування нашого виду руками роботів. Ми, представники DT, теж жартуємо над апокаліпсисом робота. Зазвичай це приносить задоволення, але у подібних випадках це може зашкодити здатності дослідників дістати своє повідомлення.

"Завжди будуть відповіді, які виводять дослідження з контексту і зосереджують увагу на тому, що здається незручним для нас, наприклад, на ідеї, що роботи не підкоряються нашим командам", - сказав Шотц у відповіді на звіт Daily Mail. “Однак ключовим аспектом нашого дослідження, який такі іграшкові заголовки ігнорують, є навчити робота відхиляти команди, які не етично виправданий - і лише ті. Не бути неслухняними взагалі ».

Що, якщо, наприклад, маленький хлопчик сказав домашньому роботові кинути гарячу каву на свого маленького брата як витівку? Забезпечення того, що цього не могло відбутися, є життєво важливим для успіху будь-якої компанії, що виробляє подібні технології для споживчого ринку, і це можливо лише за умови, що робот має широку базу даних соціальних та етичних норм, а також здатність сказати „ні. "

Додавання шарів складності

Люди знають, як припинити ходьбу, коли наближається до крутої краплі, або чому недоречно обливати немовля в гарячій каві. Наш досвід підказав нам, що є небезпечним і що саме означає. Незалежно від того, чи робили ми щось про це в минулому, ми можемо спиратися на інформацію, яку ми зберігали, щоб повідомити про свою поведінку в новій ситуації.

Роботи можуть вирішувати проблеми, спираючись на той самий принцип. Але ми ще не створили комп’ютер, який би міг вчитися, як людина - і навіть тоді вивчення етики - це процес, який триває роками. Роботи повинні мати доступну інформацію протягом усього життя, перш ніж їх випустять у світ.

Масштаби цієї роботи вражають, набагато більше, ніж можна було б очікувати. Окрім того, що вони навчать робота виконувати будь-яке завдання, яке їм надсилають, є ще й складний рівень, що пропонується багатьма тонкощами взаємодії людини і робота.

Ендрю Мур - декан Школи комп’ютерних наук Університету Карнегі Меллона. У цій ролі він надає підтримку групі 2000 студентів та викладачів, багато з яких працюють у галузях, пов'язаних з робототехнікою, машинним навчанням та ШІ.

"Ми несемо відповідальність за те, щоб допомогти зрозуміти, яким буде 2040 рік, в якому ми будемо жити", - сказав він мені. "Отже, ми несемо відповідальність за те, щоб 2040 рік був дуже вдалим для життя". Враховуючи, що, ймовірно, допоміжні роботи відіграватимуть певну роль у такому баченні майбутнього, Мур має багато досвіду у стосунках між машиною та користувачем. Щоб дати уявлення про те, як цей зв'язок буде розвиватися в найближчі роки, він використовує знайомий приклад помічника смартфона.

Сьогодні багато хто з нас має смартфон, який здатний відповісти на запитання на кшталт "хто є нинішнім президентом США?" та більш складні запитання на кшталт "наскільки високі дочки президента США?" Незабаром ми побачимо, що дії на основі цих питань стають звичними. Наприклад, ви можете попросити телефон замовити новий пакет памперсів.

Щоб продемонструвати наступний етап розвитку, Мур висунув, здавалося б, нешкідливий приклад питання. "Чи встигаю я взяти каву до моєї наступної зустрічі?"

Більше про ШІ: Алгоритм машинного навчання кладе слова Джорджа Буша в уста Барака Обами

"Під капотом є багато знань, які потрібно дістати до комп'ютера, щоб комп'ютер відповів на питання", - сказав Мур. Хоча сучасні технології можуть зрозуміти питання, система потребує багато даних для відповіді. Яка черга в кав’ярні? Як трафік? Який напій зазвичай замовляє користувач? Надання комп’ютеру доступу до цих даних представляє власні проблеми.

Системам ШІ буде потрібен доступ до величезного обсягу інформації - частина з яких вилита в камінь, частина з яких постійно змінюється - просто для виконання складних завдань, яких ми очікуємо від них всього за кілька років.

Мур ілюструє цю думку, порівнюючи тембр голосу, який може взяти людина, розмовляючи з начальником свого начальника або старим другом. Десь у ваших банках даних є ядро ​​інформації, яка говорить вам, що до першого слід ставитись із певними соціальними підказками, які не є настільки необхідними при розмові з останніми.

Якщо ви попросите Google показати червоні сукні, і один з результатів - тостер, все це розпадається.

Це прості речі для людини, але те, що потрібно прищеплювати у ШІ. І чим важливіше завдання, тим важливішою стає точність. Запитати помічника, чи є у вас кава - це одне. Але що, якби ви постраждали і вам потрібно було знати, до якої лікарні можна дістатися найшвидше - і, можливо, вам потрібна допомога роботів для її отримання? Помилка раптом стає небезпечною для життя.

"Насправді досить просто написати програму машинного навчання, де ви навчите її на безлічі прикладів", - сказав Мур. "Коли ви зробили цю роботу, у вас виходить модель. Це працює досить добре, і коли ми будуємо таку систему, ми говоримо про „точність” і використовуємо такі фрази, як „точність” та „відкликання”. Цікаво те, що досить просто отримувати з 19 разів правильні речі 20. "

«Для багатьох додатків це досить добре. Але у багатьох інших додатках - особливо коли йдеться про безпеку або коли ви задаєте дуже складні запитання - вам дійсно потрібна ваша система з точністю до 99,9% ".

Довіра користувачів також є проблемою. "[Якщо] ви попросите Google" показати мені 15 найпопулярніших червоних суконь ", і це підкаже результати, і лише одне з них насправді є тостером, тоді все це розвалюється. Користувачі перестають йому довіряти ". Користувач, який втрачає довіру до робота, швидше за все, повністю перестане його використовувати.

Викладання загальних знань

Навіть не враховуючи конкретних завдань, для досягнення яких призначена будь-яка окрема реалізація, для роботи в дикій природі роботам та ШІ знадобиться величезна кількість базових знань. Все, від соціальних підказок до правил безпеки, має бути відбито на мозку машини, щоб забезпечити їх успіх.

На щастя, інші сфери допомагають деяким елементам цієї обчислювальної програми. "З такими речами, як навігація та аналіз виразу обличчя людини, існує існуюча наукова дисципліна, яка насправді має багато реальних даних", - сказав Мур. Індивідуальні дослідницькі проекти також часто можуть бути перепрофільовані.

"Алгоритми, над якими ми працюємо, є загальними", - сказав мені Маттіас Шотц, маючи на увазі дослідження, проведене ним та Гордоном Бриггсом в університеті Тафтса. "Вони можуть застосовуватися в будь-якому домені, якщо робот має необхідні уявлення про дії та норми для цього домену".

Модулі, які можуть дати роботові здатність розпізнавати вираз людини чи не падати зі столу, безумовно, мають своє використання. Однак кожна з них відповідала б дуже незначній частині основних вимог машини до роботи без нагляду. Узагальнена ОС може представляти базовий рівень загальних знань, яким можна легко ділитися між різними реалізаціями.

"Одним з основних спонсорів такого роду робіт є група, яка фінансує багато інших речей, які виявились важливими", - сказав Мур. "Це DARPA. У них є низка великих проектів, які виконуються, як їх називають, "загальними знаннями про робототехніку".

Якщо ШІ та допоміжні роботи стануть реальністю у не надто далекому майбутньому, деяка версія цієї платформи «загальновідомих для робототехніки», ймовірно, буде вирішальним компонентом. Це може бути навіть ключем до широкого загального прийняття.

Перед створенням бази знань, яка може підтримати першу хвилю споживчих роботів, потрібно зробити ще багато роботи. До кінцевого продукту може йти рік, але основи, необхідні для сприяння його створенню, не є науковою фантастикою.

Останні повідомлення

$config[zx-auto] not found$config[zx-overlay] not found