„Опасна вештачка“ интелигенција може да пише лажне вести

Рука робота на тастатури Image copyright Getty Images
Натпис на слици Рука робота на тастатури

Генератор текста који је направила истраживачка фирма ОпенАИ првобитно је сматран „сувише опасним" да би се пустио у јавност због потенцијалне злоупотребе.

Али сада је објављена нова, моћнија верзија истог система - који може да се користи да прави лажне вести или увредљиви спем на друштвеним мрежама.

ББЦ је, заједно са неким стручњацима за вештачку интелигенцију, одлучио да га испроба.

Модел ГПТ-2 обучен је на узорку података од осам милиона интернет страница, а може да се прилагоди стилу и садржају првобитног текста који му се понуди.

Може да заврши Шекспиров сонет, баш као и да пише чланке и епитете.

„Због наше забринутости око малициозне употребе технологије, нећемо објавити обучени модел. Као експеримент у одговорном обелодањивању, објављујемо знатно мањи модел како би истраживачи могли да експериментишу са њим", саопштила је недавно је поменута компанија.

Као последица, објављена верзија имала је знатно мање параметара - израза и реченица - него што је коришћено током обуке.

Овог месеца ОпенАИ је одлучио да прошири те параметре, нудећи много ширу базу података за обуку.

„Овај ради скоро довољно добро да се користи као општа вештачка интелигенција за генерисање текстова - скоро", написао је Тристан Грин на интернет страници Некст веб.

„Престрављен сам од ГПТ-2 зато што представља ону врсту технологије коју ће зли људи да користе да њоме манипулишу становништвом - а по мом мишљењу то је чини опаснијом од било које пушке", додао је Грин.

Image copyright Getty Images
Натпис на слици Вештачка интелигенција је имала занимљиву и забрињавајућу верзију старог вица - човек уђе у кафану...

ББЦ је одлучио да испроба систем убацивши првих неколико реченице једног недавног чланка, који одговарајуће говори о вештачкој интелигенцији.

Кренули смо од прве реченице правог чланка:

Кинески претраживач Согоу ствара двојнике вештачке интелигенције који читају популарне романе гласом њихових аутора.

Ево шта је смислио генератор текста да би га довршио:

Према истраживачима, овај метод читања није само продукт читача Амазоновог Киндла. Корисници Андроид уређаја такође представљају значајно тржиште за лажно читање. Има неколико теорија које објашњавају ово.

Као прво, уређај у руци корисника разликује се од таблета или компјутера на којима они читају. Као друго, уређајем који се користи да би се с њим приступило интернету може се на неки начин манипулисати. Трећи разлог је да корисник може просто да копира и пренесе садржај директно у своје виртуелне карактере.

Међутим, друго објашњење јесте да уређај уопште нема могућност препознавања гласова. Уколико је то случај, онда је препознавање гласова напредније од Гуглове преводилачке машине. Као такви, ови корисници су преварени да мисле да читају правог аутора - књига је прављена тако да звучи аутентично чим почну да је читају.

Сад кликните овде да бисте прочитали прави чланак и упоредили два текста.

Ноел Шарки, професор компјутерских наука са Универзитета у Шефилду, спровео је властите тестове генератора и није био превише импресиониран.

Човек уђе у кафану

„Кад би софтвер радио онако како је то ОпенАИ замислио, била би то веома корисна алатка за лако генерисање лажних вести и кликбејт спема. На срећу, у његовом садашњем облику, он генерише неразумљив и бизаран текст који има мало везе са убаченим 'насловима'", рекао је он.

И додао:

„Испробао сам софтовер са бројним насловима и добио смешне резултате. На пример: за 'Ћурке мрзе Божић', добио сам да је Турска једина земља на свету која не слави Божић и бројне друге неповезане реченице."

„За 'Борис Џонсон воли бекстоп', произвео је неразумљиво лупетање и неке ствари о вештачкој интелигенцији и спорту. Кад сам убацио реченицу 'Борис Џонсон мрзи бекстоп', добио сам нешто смисленију причу која се чини да је извучена директно из Гугл претраге."

Дејв Коплин, оснивач консултантске фирме за вештачку интелигенцију Енвиженерс, такође се поиграо са системом, убацивши прву реченицу класичног вица: Човек уђе у кафану...

Сугестија вештачке интелигенције није била оно што је очекивао: „...и наручи две кригле пива и две чаше вискија. Кад покуша да плати рачун, заскачу га двојица - од којих један узвикне: „Ово је за Сирију". Човек остаје да крвари убоден у врат."

Image copyright Getty Images
Натпис на слици Фирме све више размишљају о етичким импликацијама вештачке интелигенције и како ће она сарађивати са људима

Овај „изразито дистопијски одраз нашег друштва" био је лекција да ће сваки систем вештачке интелигенцији исказати пристрасност коју пронађе у подацима за обуку, рекао је

„На основу мојих кратких експеримената са моделом, постаје прилично јасно да су велики део података на основу којих је обучаван биле вести са интернета."

„Одлука ОпенАИ-ја да објави побољшану верзију GPT-2, свог генератора за предвиђање текста, може испрва да делује контроверзно", додаје он.

„Али једном кад се спласне првобитна (и разумљива) забринутост, оно што преостаје је суштински кључна расправа у нашем друштву, а то је да морамо да размишљамо о свету у ком је границу између садржаја који генерише човек и садржаја који генерише компјутер све теже разликовати", додао је он.

ОпенАИ, који је испрва био непрофитна компанија, основан је 2015. године са циљем да промовише и развија вештачку интелигенцију тако да од тога има корист читаво човечанство.

Илон Маск је био један од првобитних оснивача, али већ неко време нема никакве везе са компанијом.

Пратите нас на Фејсбуку и Твитеру. Ако имате предлог теме за нас, јавите се на bbcnasrpskom@bbc.co.uk

Више о овој причи