Технологија и свакодневица: Живот у раљама алгоритма

  • Џејмс Клејтон и Зои Клајнман
  • Новинари за технологију, ББЦ Њуз
woman looks at mammogram

Аутор фотографије, Getty Images

Хиљаде ученика у Енглеској љуто је због контроверзне употребе алгоритма да би се утврдили овогодишњи резултати за Општи сертификат секундарног образовања и А-ниво.

Ђаци нису могли да полажу испите због изолације, па је алгоритам искористио податке о школским резултатима из претходних година да би одредио њихове оцене.

То је значило да је око 40 одсто овогодишњих оцена за А-ниво испало ниже него што је предвиђено, што има огромног утицаја на оно што ђаци могу да раде надаље током школовања.

Постоје многи примери кад алгоритми доносе крупне одлуке о нашим животима, а да ми нужно не знамо како или када то раде.

Ево прегледа неких од њих.

Друштвене мреже

На многе начине, друштвене мреже су напросто џиновски алгоритми.

Аутор фотографије, Getty Images

У суштини, оне израчунавају шта вас занима и потом вам дају још тога - користећи онолико података о вама колико могу да се дочепају.

Сваки „лајк", преглед, клик се похрањује. Већина апликација такође узима више података на основу ваших навика приликом претраживања или на основу ваших географских података. Идеја је да се предвиди садржај који ви желите и да се натерате да наставите да скролујете - и то функционише.

А ти исти алгоритми који знају да волите видео снимке са слатким мачкама користе се и да вам продају разне ствари.

На основу свих података које друштвене мреже сакупе о вама могу да се кроје огласи само за вас на невероватно прецизан начин.

Погледајте видео о видео о лажним профилима на друштвеним мрежама

Потпис испод видеа,

Лажне вести: Шта су лажни профили

Али ови алгоритми могу да праве и озбиљне грешке. Показало се да умеју да наводе људе ка мрзитељском и екстремистичком садржају.

Екстремни садржај просто пролази боље на друштвеним мрежама од суптилности. А алгоритми то знају.

Ревизија Фејсбука у вези са грађанским правима позвала је ову компанију да уради све што је у њеној моћи да спречи да њен алгоритам „наводи људе ка самооснажујућим ехо коморама екстремизма".

А прошлог месеца смо писали о томе како алгоритми на онлајн малопродајним сајтовима - дизајнирани тако да прокљуве шта желите да купите - промовишу расистичке и мрзитељске производе.

Осигурање

Аутор фотографије, Getty Images

Било да се ради о осигурању куће, кола, здравља или било ком другом облику осигурања, ваше осигуравајуће друштво мора некако да процени шансе да ће нешто стварно поћи по злу.

На много начина, индустрија осигурања била је пионир у коришћењу података из прошлости да одреди будуће исходе - то је основ читавог сектора, према Тимандри Харкнес, ауторки књиге Велики подаци: Величине јесте важна.

Задуживање компјутера да то ради одувек је био логичан следећи корак.

„Алгоритми могу веома да утичу на ваш живот а да се ви као појединац ту ништа не питате", каже она.

„Сви знамо да ако промените поштански број, ваше осигурање скаче или опада."

„То није због вас, то је зато што су други људи били склонији или мање склони да постану жртве злочина, или незгоде, или чега год већ."

Иновације као што су „црна кутија" које могу да се инсталирају у аутомобил да би надгледале како појединац вози помогле су да се смање трошкови осигурања кола за пажљиве возаче који су се налазили у групи високог ризика.

Да ли ћемо виђати више лично скројених квота осигурања како алгоритми буду сазнавали више о нашим властитим околностима?

„Кад се све сабере и одузме, поента осигурања је да се подели ризик - и тако онда сви баце новац на гомилу а људи којима је потребан га извуку са те гомиле", каже Тимандра.

„Живимо у нефер свету, тако да ће сваки модел који направите бити нефер на овај или онај начин."

Здравство

Вештачка интелигенција прави огромне кораке у постављању дијагноза за различита стања, па чак и сугерише смерове лечења.

Аутор фотографије, Getty Images

Студија објављена у јануару 2020. године показала је да је алгоритам имао бољи учинак од правих лекара кад је у питању откривање рака дојке на основу мамограма.

Други успеси су укључивали:

  • алатку која може да предвиди стопе преживљавања од рака јајника и помогне у одређивању правца лечења
  • вештачку интелигенцију са Универзитетског колеџа у Лондону која је откривала пацијенте најсклоније пропуштању заказаних прегледа и којима су стога најпотребнији подсетници

Међутим, све ово захтева огромну количину података да би се обучили програми - а то је, искрено говорећи, једна прилично велика Пандорина кутија.

Британска Информативна комисија је 2017. године пресудила да Краљевска фондација НХС-а није урадила довољно да заштити податке о пацијентима кад је поделила 1,6 милиона досијеа пацијената са Гугловом дивизијом за вештачку интелигенцију ДипМајнд.

„Врло је танка линија између проналажења узбудљивих нових начина да се унапреди здравствена нега и кретања испред очекивања пацијената", изјавио је у оно време суоснивач ДипМајнда Мустафа Сулејман.

Полиција

Аутор фотографије, Getty Images

Масовни подаци и машинско учење имају потенцијал да изврше револуцију у обављању полицијског посла.

У теорији, алгоритми имају моћ да испуне научнофантастично обећање „предиктивног полицијског рада" - уз помоћ података као што су где су се злочини одигравали у прошлости, и када и ко их је чинио, да би предвидели где да издвоје полицијске ресурсе.

Али тај метод може да створи алгоритамске предрасуде - па чак и алгоритамски расизам.

„Иста је ситуација као ова што сте је имали са оценама са испита", каже Арик Чаудури из технолошке експертске групе ВебРутс Демокраси.

„Зашто оцењујете појединца на основу онога што су други људи радили у прошлости? Исте заједнице су увек презаступљене."

Почетком ове године, експертска група за одбрану и безбедност РУСИ објавила је извештај о алгоритамском полицијском раду.

Она је изразила забринутост поводом одсуства националних смерница или процене утицаја. Позвала је и на више истраживања о томе како би ови алгоритми могли још више да распире расизам.

Критиковано је и препознавање лица - што је техника коју користе полицијске службе у Великој Британији, укључујући и Мет.

На пример, изражена је забринутост да ли подаци који улазе у технологију препознавања лица могу да начине да алгоритам постане расистички.

Оптужба је да су камере за препознавање лица прецизније у препознавању белачких лица - просто зато што имају више података о белачким лицима.

„Питање је да ли га тестирате на довољно разноликом демографском узорку људи?", каже Арик.

„Не желите ситуацију у којој се неке групе погрешно идентификују као криминалне због алгоритма."

Пратите нас на Фејсбуку и Твитеру. Ако имате предлог теме за нас, јавите се на bbcnasrpskom@bbc.co.uk