Британским шпијунима ће бити преко потребна вештачка интелигенција

  • Гордон Корера
  • Дописник из области безбедности
An aerial shot of GCHQ in Cheltenham, with its distinctive donut shape

Аутор фотографије, Getty Images

Потпис испод фотографије,

The report was commissioned by GCHQ and had access to much of the intelligence community

Британски шпијуни ће морати да користе вештачку интелигенцију да би се изборили са широким дијапазоном претњи, тврди извештај из обавештајног света.

Врло је вероватно да ће непријатељи користити технологију за нападе у сајбер-свету и на политички систем, а вештачка интелигенција ће бити неопходна да их открије и спречи.

Али вештачка интелигенција не може да предвиди ко би могао да учествује у тешком криминалу као што је тероризам - и неће моћи да замени људски суд, додаје се.

Извештај је заснован на до сада невиђеном приступу британској обавештајној заједници.

Институт краљевских уједињених служби (РУСИ) такође тврди да би употреба вештачке интелигенције могла да доведе до нове потребе за заштитом приватности и људских права, што ће захтевати нове прописе.

Непријатељи Велике Британије „несумњиво ће желети да користе вештачку интелигенцију како би напали Велику Британију", каже РУСИ у извештају - а то би могло да важи не само за државе, већ и за криминалце.

Клин се клином избија

Будуће претње могле би да укључују употребу вештачке интелигенције за прављење дип фејкова - када компјутер може да научи да генерише уверљиве лажне видео снимке стварних особа - како би се манипулисало јавним мњењем и изборима.

Могла би да се користи и за мутирање малвера за сајбер-нападе, што би отежало нормалним системима да их открију - или чак за преусмеравање дронова и њихово употребљавање за нападе.

У овим случајевима, вештачка интелигенција ће морати да се користи у сврху контрашпијунаже против саме вештачке интелигенције, каже се у извештају.

„Увођење вештачке интелигенције није важно само као помоћ обавештајним агенцијама да изађу на крај са технолошким изазовима претрпаности информацијама.

Врло је вероватно да ће злонамерни актери користити вештачку интелигенцију за напад на Велику Британију на бројне начине и обавештајна заједница ће морати да развије нове одбрамбене мере засноване на вештачкој интелигенцији", тврди Александер Бабута, један од аутора.

Независни извештај који је наручила британска безбедносна служба GCHQ имао је приступ већем делу обавештајне заједнице у земљи.

Све три британске обавештајне агенције су за будућност дале приоритет употреби технологије и података - а нови шеф МИ5, Кен Макалум, који преузима дужност ове недеље, изјавио је да ће један од његових приоритета бити већа употреба технологије, укључујући машинско учење.

Аутор фотографије, Getty Images

Потпис испод фотографије,

The 2002 Tom Cruise film predicts a world in which crime can be predicted

Често цитирана фикционална референца је филм Мањински извештај у ком се технологија користи да се предвиде они на путу да почине злочин пре него што то учине.

Али у извештају се тврди да је у стварности мало вероватно да ће ово бити одрживо у ситуацијама националне безбедности из стварног живота.

Чинови као што је тероризам сувише су ретки да би пружили довољно велике историјске сетове података у којима би се тражили обрасци. Oни се дешавају много ређе од других криминалних чинова, као што је, на пример, провала.

Чак и у оквиру тог сета података, позадине и идеологије починилаца толико су различите да је тешко изградити модел профила терористе. Има превише променљивих да би се направило директно предвиђање, кад су нови догађаји потенцијално радикално другачији од претходних, тврди се у извештају.

Било какво профилисање може бити и дискриминаторско и да доведе до бриге за кршење људских права.

У пракси, у областима као што је контра-тероризам, у извештају се тврди да ће „проширена" - уместо вештачке - интелигенција постати норма - када технологија помаже анализаторима од крви и меса да просеју и издвоје битно из све веће количине података, омогућивши људима да доносе властите судове.

Постаће од кључне важности омогућити људским актерима да остану одговорни за одлуке а да вештачка интелигенција не служи као „црна кутија" у којој људи не разумеју на основу чега се доносе одлуке, каже се у извештају.

Аутор фотографије, Getty Images

Мало по мало

Аутори такође с подозрењем гледају на халабуку подигнуту око вештачке интелигенције и на тврдње да ће она ускоро постати трансформативна.

Уместо тога, они сматрају да ћемо доживети постепено проширење постојећих процеса уместо нагли долазак нових футуристичких могућности.

Они верују да је Велика Британија у снажној позицији да преузме вођство на глобалном плану, са концентрацијом способности у GCHQ - и још и шире у приватном сектору и у телима као што је Институт Алана Тјуринга и Центру за етику и иновацију података.

То поседује потенцијал да омогући Великој Британији да се позиционира на водећем месту по употреби вештачке интелигенције, али у оквиру јасних етичких оквира, кажу они.

Примена вештачке интелигенције у обавештајним круговима можда ће захтевати нове прописе како би се осигурало да постоје безбедносне кочнице и да је било какво задирање у приватност неопходно и пропорционално, стоји у извештају.

Једно од трновитих правних и етичких питања за шпијунске агенције, нарочито после открића Едварда Сноудена, јесте колико је оправдано сакупљати велике количине података од обичних људи да би се они просејавали и анализирали у потрази за особама које би могле да учествују у тероризму или некој другој криминалној активности.

А ту је и сродно питање колико далеко приватност сме да се наруши кад се машински сакупљају и анализирају подаци за разлику од тога кад то ради човек.

Заговорници приватности плаше се да ће вештачка интелигенција захтевати сакупљање и анализирање много већих количина података од обичних људи, како би разумели и тражили обрасце, а који стварају нови степен интрузије.

Аутори извештаја верују да ће бити потребно увођење нових правила.

Али свеукупно гледано, они кажу да ће бити важно да се не постане опседнут потенцијалним негативним странама употребе технологије.

„Постоји ризик од гушења иновација уколико дође до превелике опседнутости хипотетички најгорим исходима и спекулацијама о некаквој дистопијској будућој мрежи надзора заснованој на вештачкој интелигенцији", тврди Бабута.

„Легитимне етичке дилеме биће скрајнуте уколико се не усредсредимо на вероватну и реалистичну употребу вештачке интелигенције на кратке и средње стазе."

Међутим, аутори сматрају да ће вештачка интелигенција бити само од „ограничене вредности" у „предиктивној обавештајној активности" у областима као што је контра-тероризам.

Пратите нас на Фејсбуку и Твитеру. Ако имате предлог теме за нас, јавите се на bbcnasrpskom@bbc.co.uk