Як ми навчимо роботів правильно, а не правильно?

алгоритм виявляє підробки на роботах соціальних мереж неправильно неправильну етикуПримітка редактора: Digital Trends співпрацює з WebVisions, міжнародно визнаною конференцією з дизайну, технологій та досвіду користування, щоб допомогти висвітлити Дугласа Рушкоффа на цьогорічну подію в Портленді, штат Орегон. В рамках нашого партнерства ми також раді представити вибраний вміст із проникливого блогу WebVisions Word. Цього тижня співавтор Марк Вайнер задається питанням, як ми працюємо над викладанням штучного інтелекту правильно, а не неправильно. Насолоджуйтесь!

Twitter визнав, що 23 мільйони (8,5 відсотка) його облікових записів користувачів є автономними Twitter-ботами. Багато з них є для підвищення продуктивності, проведення досліджень або навіть розваг. Проте багато хто був створений зі шкідливими намірами. В обох випадках, як відомо, боти поводяться з сумнівною етикою - можливо, тому, що вони є лише незначними зразками штучного інтелекту (ШІ).

В даний час люди будують набагато складніші машини, які стикатимуться з етичними питаннями у монументальних масштабах. Навіть у смертності людей. То як ми можемо переконатися, що вони роблять правильний вибір, коли прийде час?

Вбудуй це або навчи його

Ключовим фактором успішного побудови автономних машин, які симбіотично збігаються з людьми, є етика. І в основному є два способи програмування етики в машинах:

По-перше, ви можете жорстко їх закодувати в їх операційні системи. Тут стурбованість тим, що етика суб’єктивна. Етика в машині залежить від етики її творця. Але ми, люди, не завжди дотримуємося своєї моралі. Ми ведемо війни через етичні розбіжності. Отож, коли ми будуємо автономні машини, щоб бути етичними, ми будуємо в рамках наших існуючих диспропорцій.

роботи-право-неправильно-етика-2

По-друге, ви можете надати деякі рекомендації, а потім дозволити машині засвоїти власну етику на основі власного досвіду. Цей пасивний підхід залишає багато місця для неправильних інтерпретацій моралі, залежно від того, як спостерігається поведінка. Розглянемо нещодавній крах Інтернету AI від Тей, Майкрософт, Тей, якого обдурили твітувати расистські наклепки та пропагувати геноцид на основі хибного висновку про прийняту етичну нормальність.

Над останньою працює команда з Georgia Tech, яка викладає когнітивні системи, щоб навчитися поводитися соціально прийнятно, читаючи історії. Система винагород під назвою Кіхот повинна допомогти когнітивним системам визначити дійових осіб у історіях, які машини використовують для узгодження власних цінностей із цінностями людей. Незрозуміло, якими методами Microsoft користувалася з Tay. Але якщо їхні методи були переважними, як і в системі навчання Georgia Tech, ми ще далеко від зміцнення етики у штучному інтелекті.

Етичний параліч

Тепер все це ґрунтується на ідеї, що комп’ютер може навіть зрозуміти етику. Як показує Алан Уінфілд у своєму дослідженні До етичного робота, коли комп’ютер стикається з етичним парадоксом, результат непередбачуваний, часто паралізуючий. У своєму дослідженні когнітивного робота (А-робота) попросили врятувати “людського” робота (Н-робота) від небезпеки. Коли A-робот міг врятувати лише одного з двох H-роботів, він злякався і поступився у власній плутанині, не врятувавши жодного.

Існує давня філософська дискусія про те, чи є етика питанням розуму чи емоцій. Серед сучасних психологів існує консенсус щодо того, що для прийняття етичних рішень потрібні як раціональні, так і емоційні судження. Як зазначає професор Пол Тагард у своєму творі на цю тему, «етичні судження часто дуже емоційні, коли люди висловлюють своє рішуче схвалення чи несхвалення різних вчинків. Чи будуть вони також раціональними, залежить від того, добре чи погано виконана когнітивна оцінка, яка є частиною емоцій ".

Рішення з наслідками

Отже, якщо когнітивні машини не здатні до етики, хто несе відповідальність за порушення закону? В даний час, здається, ніхто не знає. Райан Кало з юридичного факультету Університету Вашингтона зазначає: „Робототехніка вперше поєднує в собі безладність даних із здатністю завдати фізичної шкоди; роботизовані системи виконують завдання такими способами, які не можна передбачити заздалегідь; а роботи все більше стирають межу між людиною та інструментом ".

Процес прийняття законодавства є надто повільним, тоді як технології, навпаки, поспішають експоненціально.

Злочини теж можуть бути досить серйозними. Нідерландському розробнику Джеффрі ван дер Готу довелося захищати себе - і свого Twitterbot - коли міліція постукала у його двері, запитуючи про загрозу смерті, надіслану з його акаунта в Twitter. Потім є Random Darknet Shopper; торговий бот із щотижневою надбавкою в біткойнах у розмірі 100 доларів для здійснення покупок на Darknet для художньої виставки. Шведські чиновники не були розважені, коли придбали екстаз, який художник виставив на показ. (Хоча на підтримку художньої виразності вони не конфіскували наркотики до закінчення виставки.)

В обох цих випадках влада робила все, що могла, згідно із законом, але врешті-решт помилувала власників людей, оскільки вони не вчиняли явно чи безпосередньо злочинів. Але як це означає, коли людина розв’язує ШІ з наміром зловмисництва?

Іронічно, що ми досліджуємо способи управління своїми автономними машинами. І поза сумнівною здатністю прищеплювати їм етику, нас часто бентежить лише їх загальна поведінка. Обговорюючи методи, що лежать в основі їх нейронних мереж, інженер програмного забезпечення Google Олександр Мордвінцев виявив: "... хоча це дуже корисні інструменти, засновані на добре відомих математичних методах, ми насправді напрочуд мало розуміємо, чому деякі моделі працюють, а інші ні."

Чи можемо ми встигати?

З огляду на все, процес прийняття законодавства є надзвичайно повільним, тоді як технології, навпаки, роблять експоненціальну поспіх. Як пояснює Вівек Вадхва з Університету сингулярності, „закони не можуть встигати, оскільки… закони є по суті кодифікованою етикою. Що ми розробимо консенсус як суспільство щодо того, що добре, а що погано, і тоді воно стає тим, що правильно, а що неправильно, а потім стає тим, що є законним, а що незаконним. Це шлях прогресу. У більшості з цих технологій ми не вирішили, що добре чи погано ".

Якщо закон все-таки наздожене, можливо, ми пишемо власну приреченість. Всі ці розмови про роботів, які заволодіють світом? Можливо, вони просто масово крокують, поки ми не ув'язнемо стільки своєї раси, що станемо меншістю в автономних істотах. Мат.

Останні повідомлення

$config[zx-auto] not found$config[zx-overlay] not found