Штучний інтелект поклав край додатку від Amazon

Алгоритм Копирайт изображения Getty Images

Алгоритм штучного інтелекту для пошуку співробітників, який тестувала компанія Amazon, виявився сексистським.

Схоже, аналітики втрапили в халепу під час відбору даних: вони "згодували" штучному інтелекту масив інформації за десятирічний період, до якого більшість надісланих в корпорацію резюме надходили від чоловіків.

Вони не перші, хто мимоволі помилився під час вибору інформації для системи: наприклад, після того як у 2016 році Microsoft запустила в Twitter свій чатбот Tay, він відразу ж став популярним серед тролів, які навчили його підтримувати расистські ідеї, закликати до геноциду і захоплюватися Гітлером.

В Amazon не відповіли на запит BBC.

Журналістам Reuters вдалося на умовах анонімності поспілкуватися з п'ятьма членами команди розробників, які брали участь у створенні алгоритму з 2014 року.

За їхніми словами, спершу система мала б самотужки розглянути резюме та мотиваційні листи, а потім присвоїти їм від однієї до п'яти зірочок у рейтингу.

"Керівництво буквально хотіло, щоб ви давали алгоритму 100 резюме, з яких він би склав топ-5, і компанія згодом могла б найняти цих людей", - заявив Reuters один з програмістів.

"Відсіювання жінок"

До 2015 року, проте, вже стало зрозуміло, що створена система не дотримується принципу гендерної нейтральності, оскільки більшість резюме за попередні роки в Amazon надсилали чоловіки.

Алгоритм почав відсіювати заявки зі словом "жінки". Програму відредагували так, щоб штучний інтелект не маркував це слово і його похідні як щось негативне, але це не дуже допомогло.

Amazon визнав програму ненадійною, і проект закрили, однак, за інформацією Reuters, ще якийсь час відділ кадрів брав до уваги рекомендації алгоритму, хоча і не ухвалював остаточне рішення.

Реакція користувачок в соцмережах на новину спричинила бурю емоцій.

"Неймовірно",- пише британська журналістка Холлі Брокуелл.

"За кожним пристроєм ІІ стоять упередження тих, хто їх створював",- впевнена наукова есеїстка Рейчел Фербенк.

"Запрограмувати на провал"

Початкову необ'єктивність подібних механізмів вже неодноразово обговорювали в професійній спільноті.

Копирайт изображения MIT
Image caption "Норман" - алгоритм, який навчений розпізнавати і інтерпретувати фотографії та інші зображення з точки зору психопата

У червні команда дослідників Массачусетського технологічного інституту (MIT) повідомила про створення психопатичного алгоритму "Норман".

Його навчили розпізнавати й інтерпретувати фотографії та інші зображення з точки зору людини.

Вони намагалися зрозуміти, як вплинуть на сприйняття світу штучним інтелектом фотографії та зображення з темних куточків інтернету.

У травні 2017 року з'ясувалося, що подібна програма, яку тестували в судах США, негативно ставилася до темношкірих обвинувачених, бо вважала, що вони здатніші на кримінальний рецидив, аніж білі вдвічі.

Як з'ясували програмісти, проблема була в тому, що алгоритм навчався за статистикою поліцейських затримань і вуличних вибіркових перевірок, а більшість затриманих у США - темношкірі.

Новини на цю ж тему