Єдиний закон робототехніки: поліпшити добробут людини

Робот на ім'я Пеппер Копирайт изображения Getty Images
Image caption Чи може робот заподіяти шкоду людині?

Письменник-фантаст Айзек Азімов сформулював три закони робототехніки для контролю над "розумними" машинами:

  • Робот не може заподіяти шкоду людині, або своєю бездіяльністю дозволити, щоб людині було заподіяно шкоду;
  • Робот повинен підкорятися наказам людини, за винятком тих, які суперечать першому закону;
  • Робот повинен захищати самого себе, якщо тільки його дії не суперечать першому і другому законам.

Проте, як це часто буває в житті, наукова фантастика стала науковим фактом. Королівське товариство та Британська академія опублікували спільну доповідь, у якій пропонують три закони скоротити до одного. Системи штучного інтелекту (ШІ), з якими вже зовсім скоро ми співіснуватимемо, повинні керуватися одним-єдиним принципом: "Поліпшувати добробут людини".

Леді Оттолін Лейзер (професор і один з керівників консультативного підрозділу Королівського товариства з наукової політики) вважає, що добробут людини повинен бути ключовою засадою для керування системами ШІ.

Image caption Айзек Азімов вивів кілька законів для роботів

"Поліпшення добробуту як поняття охоплює все, що ми хотіли висловити", — повідомила леді Лейзер в інтерв'ю BBC News.

"Процвітання людей і суспільства має бути прерогативою. А принципи Азімова, на нашу думку, в ньому також закладені".

У доповіді також ідеться про потребу створити нову організацію, яка пильнуватиме за тим, щоб інтелектуальні машини служили людям, а не прагнули підпорядкувати їх собі.

Система демократичного нагляду, яка регулюватиме розвиток інтелектуальних систем із самонавчанням, є життєвою необхідністю.

Без неї роботи здатні заподіяти велике лихо, стверджують автори доповіді.

Це не застереження, що машини поневолять людей. Принаймні на цьому етапі.

Та коли системи, що самі навчаються й ухвалюють рішення, почнуть працювати в домівках людей і в численних комерційних та державних установах, може статися чимало неприємностей.

Image caption У романі Айзека Азімова "Сталеві печери" люди співіснують з роботами

Автори доповіді закликають убезпечитися. На першому місці повинні бути інтереси людей, а не машин.

Винятково за технічними стандартами розробляти такі системи не можна. Роботам також слід прищеплювати етико-демократичні цінності, стверджує Ентоні Вокер, заступник генерального директора лобістської групи TechUK і один з авторів даної доповіді.

"Ці технології багато в чому полегшать нам життя. Однак громадськість повинна відчувати довіру до цих систем і впевненість у тому, що вони продумані й добре керовані", — повідомив він.

Епоха Азімова

Автори доповіді закликають змінити підхід повністю. Вони рекомендують створити "наглядову раду", до якої увійдуть експерти та зацікавлені сторони. Разом вони створять етичні засади розвитку технологій штучного інтелекту.

Рекомендується втілити чотири високорівневі принципи захисту добробуту людини:

  • Захищати індивідуальні та колективні права й інтереси
  • Забезпечувати прозорість, відповідальність та інклюзивність
  • Знайти найкращі практики, навчатися на успіхах та помилках
  • Покращити наявні методи демократичного керування

І шукати новий спосіб керування роботами потрібно якомога швидше. Адже епоха Азімова вже настала.

Зокрема, розвиток автономних транспортних засобів ставить перед нами питання — якими будуть їхні пріоритети щодо безпеки людей?

Що станеться в ситуації, коли машина змушена буде вибирати між безпекою пасажирів та пішоходів?

Є також проблема пошуку винних у випадку ДТП. Хто має за нього відповідати — власник транспортного засобу чи машина?

Інший приклад — розвиток інтелектуальних викладацьких систем персоналізованого навчання.

Вони визначають слабкі та сильні сторони учня і відповідно до них подають матеріал.

Копирайт изображения Getty Images
Image caption Декілька компаній тестують автомобілі, що пересуваються без водія

Чи повинні такі системи із самонавчанням викладати різний матеріал людям, не маючи при цьому належних керівних засад?

Як нам забезпечити собі комфорт при думці про те, чого ця машина навчить дитину? (Адже ми переймаємося тим, як репетитор навчатиме нашу дитину.)

І розв'язувати ці задачі мають не технологічні компанії-розробники систем. Їх повинні розв'язувати всі ми колективно.

У доповіді вказано, що це вагома підстава для розсекречення подробиць розробки систем штучного інтелекту.

Вони не можуть бути комерційною таємницею — громадськість повинна мати до них доступ, щоб у разі, коли щось піде не так, можна було виявити проблему і все виправити.

Наявні нормативні вимоги зараз переважно стосуються захисту особистих даних.

Але в них нічого не сказано про інформацію, яку ми надаємо щодня: дозволяючи відстежувати свої мобільні телефони, купівельні преференції, електричні вимірювальні смарт-прилади та "лайки" в соцмережах.

Існують системи, які зі шматочків цих публічних даних складають профіль особи. А його, своєю чергою, можуть використати страхові компанії, щоб встановити розмір страхового внеску, чи працедавці для оцінки здатності людини виконувати ту чи іншу роботу.

Такі системи можуть мати величезні переваги. Та якщо дати їм повну свободу, то зрештою може виявитися, що наші шанси в житті залежать від рішення машини.

Професорка Лейзер стверджує: відповіддю тут має бути регулювання в індивідуальному порядку.

"Алгоритм для прогнозування того, які книжки слід рекомендувати вам на Amazon, дуже відрізняється від алгоритму діагностування хвороби в лікарні", — повідомила вона BBC.

"Тож розважливіше регулювати алгоритми поодинці, а не як одне ціле, нехтуючи їхнім призначенням".

Консервативна партія у своєму програмному документі обіцяла ухвалити цифрову хартію, а також створити комісію, яка регулюватиме питання етики та використання даних.

Поки що риторика міністрів більше пов'язана із тим, щоб запобігти використанню інтернету як знаряддя тероризму та насильства. Але дехто вважає, що хартія та комісія можуть також запозичити деякі ідеї, викладені в доповіді про керування даними.

Між тим, Метт Генкок, міністр цифрової економіки Великої Британії, повідомив BBC, що "критично важливо" встановити правила щодо того, яким чином суспільство використовує дані.

"Належне керування даними, ефективне та етичне їх використання життєво необхідні для майбутнього нашої економіки й суспільства.

"Ми й надалі тісно співпрацюватимемо з представниками галузі для реалізації всіх необхідних напрацювань", — зазначив він.

По суті, значного поширення системи штучного інтелекту почнуть набувати тільки тоді, коли люди довірятимуть їм, знатимуть, що вони надійно керовані.

Без цього весь велетенський потенціал поліпшення добробуту людини, який несуть у собі ці системи, неможливо буде реалізувати в повному обсязі.

Стежте за дописами Паллаба в Twitter

Новини на цю ж тему

Асоційовані інтернет-сайти

ВВС не несе відповідальність за зміст зовнішніх інтернет-сайтів