текст: Вања Суботић

Након неслућеног напретка и профита у области конверзационе вештачке интелигенције, нову технолошку посластицу представљају вештачки агенси (према енгл. AI agents, или Artigicial Intelligence agents). Већ при самом избору терминологије, као и при превођењу, наизглед смо се обавезали да вештачку неуронску мрежу унутар самог модела вештачке интелигенције гледамо као на делатника, чиниоца дејства, носиоца промене, активног и равноправног учесника неке радње, или иницијатора низа догађаја. Када у неким областима филозофије, као што је нормативна етика, која се, између осталог, бави и тиме како треба да поступамо ако хоћемо да будемо морално исправни, људе називамо агенсима, под тим подразумевамо да неретко имају слободу да бирају како ће да поступе, и у односу на то потом процењујемо њихову моралну одговорност за поступке. Током већег дела своје дуге историје, етичари су само људе сматрали агенсима, док су остали, когнитивно другачији ентитети, пасивни реципијенти који зависе од агенаса. У те ентитете су се најпре сврстале животиње, а потом, и машине, то јест модели вештачке интелигенције.

У изузетно кратком временском року, барем из перспективе филозофије, са стажом дужим од два миленијума, перцепција машине се променила. Сада су то неке озбиљне и моћне машине, вештачки агенси, ма Терминатори, који одлучују сами, раде брже од нас, а, богами, и боље, нарочито кад смо неиспавани, под мигреном или ко зна којим сезонским грипом по реду. Потпомогнути холивудским филмовима из жанра научне фантастике, публицитетом који прати сваки производ из Силицијумске долине у Сједињеним Америчким Државама, као и људском потребом да малтене свему приписујемо наше особине, поготово ако може с нама некако да комуницира, вештачки агенси су већ чланови радних колектива, део нашег свакодневног живота, као и предмет наших страхова и усхићења. С једне стране, ујармили смо их да нам одговарају на имејлове, сређују табеле у Екселу, праве листе за набавку. С друге стране, расправљамо о томе да ли они имају неки вид личности, или осећај личног идентитета, и да ли и како можемо да им припишемо кривицу кад не ураде како нека врста асистента, који доноси одлуке без комплексних инструкција, односно уместо вас, док обавља задатак који сте му задали. Такође, овај вид вештачке интелигенције може самостално да користи алате да би обавио задатак, а то су приступање интернету, куцање кода, и пребацивање докумената у одређене формате. Амбиција која води велике компаније, било на америчком, било на азијском тлу, јесте да овакав вид вештачких асистената може да парира људским асистентима. То значи да би они требало да буду и мултимодални, да визуелно, аудитивно, и текстуално обрађују податке и дају излазне резултате у виду слика, видео и аудио снимака, и текстова, али и уроњени у некакву тродимензионалну средину из које црпе податке, која може бити симулирана, то јест виртуелна, или реална. Такав вид вештачких агенаса би се називао утеловљени вештачки агенси, док су тренутне верзије на тржишту софтверски вештачки агенси, јер је за њих потребно да имамо апликацију било на компјутеру било на мобилном телефону. Astra је за сад најближа утеловљености од свих софтверских агенаса, јер може да на основу повезивања са камером вашег мобилног „прогледа“. Назив за њих је изабран врло тендециозно, управо да се стави акценат на самостално одлучивање и учење без надгледања људи. Алтернативни тендециозни наслов је могао да буде и аутономни вештачки делатници. Када говоримо о људима, природно је називати их делатницима, јер њихови поступци не само што су део узрочно-последичног ланца догађаја у свету, већ су одликовани и разлозима због којих су почињени. Разлози, пак, подразумевају да људи имају интенционалност, то јест да су њихова веровања, жеље, надања, страхови, и слична ментална стања увек усмерена ка нечему, неком објекту или, још боље, имају садржај. Имам слободну вољу да купим шест киндер јаја уместо једног, и разлог за мој поступак је жеља да се поново осетим као дете. Вештачки агенси немају, засад, и према овој грубој дефиницији, интенционалност, и називати их делатницима не би било баш филозофски и језички прецизно. С друге стране, термин агенс, баш услед неодомаћености, пружа прилику за дистанцу од мегаломанске визије вештачке интелигенције као аутономног делатника. Чак и то што звучи помало смешно је здраво за обуздавање претераних реакција на вештачку интелигенцију. Напослетку, не треба себе и ствари у свету схватати увек превише озбиљно, зар не?

Шта све вештачки агенси могу да раде уместо мене? Надам се доста тога, мрзи ме да размишљам. Мада опет, не би требало ни да могу превише тога да ураде, јер онда нећу бити потребан ја послодавцу, нити моја професија.

Вештачки агенси за сада могу да раде репетитивне задатке чије је обављање инкрементално, то јест одвија се корак по корак. Игром случаја, то су баш задаци које нас често мрзи да обављамо, јер смо ментално лењи, физички лењи, уморни, није нам до живота, а и игра Србија на Европском првенству у кошарци. Од проналажења јефтиних авионских карата и смештаја, планирања пута у односу на временску прогнозу, прављења режима дневног уноса калорија и кардио тренинга, преко вођења кореспонденције и бележака са онлајн састанака до организације венчања и прављења распореда седења (чак ће и запамтити да ташта никако не би требало да седи у близини свекрве). Па ипак, рецентна истраживања у когнитивној и неуронауци сугерисала су да претерано ослањање на помоћ класичних чет-ботова доводи до пада наших когнитивних способности и пажње коју поклањамо обављању задатака. То не значи нужно да смо глупљи док користимо вештачку интелигенцију, али значи да „искључујемо“ мозак јер смо напросто делегирали задатак. Претпоставка је да ће такав тренд бити још приметнији у случају коришћења вештачких агенаса.

Вештачки агенси немају, засад, и према овој грубој дефиницији, интенционалност, и називати их делатницима не би било баш филозофски и језички прецизно. С друге стране, термин агенс, баш услед неодомаћености, пружа прилику за дистанцу од мегаломанске визије вештачке интелигенције као аутономног делатника.

 

Њихова ефикасност и профитабилност се узимају као рукавица за дуел бачена у лице професијама у услужној и административној делатности. Ово подразумева, рецимо, корисничку подршку, шалтерске раднике, хотелске рецепционаре, секретаре на пројектима и у институцијама, туристичке агенте (не агенсе! Али, вероватно вештачког агенса који обавља посао туристичког агента треба звати туристички агенс.). Многе компаније и институције су већ уложиле новац у имплементирање вештачких агенаса у манастиру Тумане можете да разговарате са Туманком у вези са детаљима ваше посете манастиру, а у неким приватним клиникама заказивање врши Здравко. За сада, ипак, и једног и другог контролишу људи, прегледају њихове интеракције са корисницима и поправљају модел у односу на реалне комуникационе ситуације. Већа је вероватноћа, дакле, да ће послодавац купити такав софтвер, и да ћете морати да учите како да радите помоћу њега, а не да будете њиме замењени. Међутим, можда би нам свима живот био једноставнији да имамо по једног батлера у виду утеловљеног вештачког агенса који ће да спрема и сређује кућу, залива цвеће, пегла кошуље, и чисти за кућним љубимцима? Још боље да сам одлучује је ли данас дан за прање прозора или веша, док се на послу мучите са неким тамо најновијим Claude-ом, који никако да схвати кад му се вика да се вика не вика, јер није оптимизован за српски језик услед недостатка већих и разноврснијих скупова података, а кошта на годишњем нивоу ко Светог Петра кајгана.

Да ли ће ме вештачки агенси познавати боље него што ја познајем себе? Бизарно је колико ми сад већ ChatGPT предлажe добру музику и добре филмове, и како тачно зна шта ми се једе за вечеру, баш погоди мој укус. Од партнера сам то чекала годинама, па ништа и даље.

Вештачки агенси, као модели препоручивања, имаће по свој прилици још више података о вама него што је то случај са неким ранијим верзијама ChatGPT-ја, напросто јер ћете му их сами давати како би што боље обавио задатак. Велике компаније ће вам их продавати као „персонализоване“ асистенте, као да је у питању торбица коју можете да добијете са ушивеним иницијалима и розе марамом уместо жутом. Као и постојећи чет-ботови, и овај модел вештачке интелигенције треба да каже оно што ви желите да чујете сваки пут кад се одушевите његовим одговором, унутар модела се шаље сигнал за наградицу, а модел учи нешто ново о томе како да вас задовољи и шта да вам препоручи да урадите или купите.

Ма колико то не бисмо желели, ипак смо доста предвидљиви, као што смо могли да се уверимо са платформама попут Јутјуба или Нетфликса. На основу два или три одслушана албума или погледана филма, алгоритам нас увлачи у зечју рупу довољно сличног садржаја за који смо убеђени да смо баш то желели да конзумирамо и да смо само ми те посебне пахуље које гледају румунске експе рименталне филмове (иако пише у дну видеа 13 прегледа). За разлику од вештачких агенаса, ваш партнер је делатник са слободном вољом, па можда просто није љубитељ тих филмова. Уосталом, можда је и добро изаћи из зоне комфора, и уживати у нечему новом, неперсонализованом?

Да ли ће вештачки агенси заиста бити нешто као Терминатор или C-3PO? Бојим се да је то пут ка роботима који говоре и понашају се као ми, а одатле бог те пита шта ће да се деси.

Стручњаци из компаније OpenAI су у представљању јавности најновијег ChatGPT5 нагласили да им је циљ да корисници његову употребу као вештачког агенса треба да виде као ћаскање са много паметним другом који можда чак има и докторат. За разлику од претходне „четворке“, која је превише повлађивала корисницима, овај чет-бот, унапређен у вештачког агенса, обучен је да има једну од четири „личности“ (њихов избор термина је, наравно, енглеска реч personality са много онтолошког и психолошког багажа), а то су „штребер“, „циник“, „робот“, и „слушалац“.

Ове „личности“ треба да се прилагођавају вашем начину комуникације са ChatGPT-јем, прави асистент треба некад и да вам се супротстави и сугерише да је захтев за извршавањем задатка можда лош. Па ипак, овде је још увек главни кривац за приписивање „реалистичности“ тим „личностима“ као и за проналажење сличности са нама људима сам човек. Ако је пут до пакла поплочан добрим намерама, пут до робота који говоре и понашају се као ми је поплочан антропоморфизацијом која доводи до тога да их посматрамо, у ма којој форми развоја да су, као сапутнике, другове, асистенте. Антропоморфизација вештачких агенаса може да буде изузетно опасна, јер доводи до формирања парасоцијалних и параафективних односа са нечим што је заправо алат обучен на великим количинама етички и правно гледано дубиозно прикупљених података.

Па ипак, ова опасност није спречила радозналост научника и инжењера који верују да вештачки агенси могу да буду чак искоришћени за фигурирање у психолошким тестовима уместо људи. Истраживачки тим састављен од експерата са Станфорда и из Гуглове лабораторије DeepMind је у мају ове године представио пројекат симулирања око хиљаду реалних људи помоћу вештачких агенаса. Ставови ових људи, изражени у оквиру групе разних психолошких тестова, представљали су материјал за обучавање вештачких агенаса, који су, на крају, репликовали одговоре ових појединаца са око 85% тачности на претходно необрађеном психолошком тесту. Потом је овај тим направио „трезор“ вештачких агенаса као симулатора ставова хиљаду појединаца. Да ли овај „трезор“ може да послужи да се психолошка истраживања врше мимо људских испитаника или у недостатку људских испитаника? Да ли је ово корак ка стварању Терминатора и C-3PO? Прво питање је вредно даљег размишљања, јер носи са собом последице по концепцију истраживања, улоге, и циља друштвених наука. Друго питање је ту да нам одврати пажњу од првог.

Илустрација: Сергеј Туцаков

Не свиђа ми се што нема неке јасне регулативе ко је крив за грешку вештачког агенса, јер, колико видим, све је по принципу мож’ да буде, ал не мора да значи. Зашто вештачки агенси да не сносе последице за своје понашање кад их сносим ја за своје? Нећу да морам да одговарам за њих.

Амбициозни план великих компанија је прилично налик „трезору“ вештачких агенаса који је створио истраживачки тим састављен од експерата са Станфорда и из Гуглове лабораторије DeepMind. Ланчана комуникација и координација процеса одлучивања вештачких агенаса би омогућили неометан ток рада у одређеним секторима. Један од правника који су напустили Гугл како би радили за адвокатске фирме које се против таквих компанија боре, Бенџамин Софтнес, сугерисао је да је одговорност за једног или више увезаних вештачких агенаса увек на ономе ко финансира њихов развој, јер је најсмисленије „увек прво тужити оне са најдубљим џеповима“. Уз то, америчке осигуравајуће куће су се досетиле да већ сад нуде услуге заштите корисника и наплате одштете за грешке вештачких агенаса. Тако, врхушка компаније Anthropic је пре који месец морала званично да се извини адвокатској фирми Лејтам и Воткинс, која је умало изгубила случај на суду због тога што је њихово чедо, чет6-бот Claude, генерисао једну лажну референцу. За Лејтам и Воткинс би било веома исплативо да су имали осигурање у случају грешке вештачких агенаса, јер би поред извињења добили и доста „бенџамина“.

Стручњаци из компаније OpenAI су у представљању јавности најновијег ChatGPT5 нагласили да им је циљ да корисници његову употребу као вештачког агенса треба да виде као ћаскање са много паметним другом који можда чак има и докторат. За разлику од претходне „четворке“, која је превише повлађивала корисницима, овај чет-бот, унапређен у вештачког агенса, обучен је да има једну од четири „личности“ (њихов избор термина је, наравно, енглеска реч personality са много онтолошког и психолошког багажа), а то су „штребер“, „циник“, „робот“, и „слушалац“.

 

Међутим, на микронивоу, у вашој канцеларији ствари стоје другачије. Да ли има сврхе да тужите вештачког агенса колегиници из људских ресурса? Шта ако сте се одлучили за ћаскање са оном „циник“ личношћу Chat GPT-ја, па вас је он „навукао“ на превише груб и ироничан имејл шефу, који се увредио? Наредног дана на послу, ваша колегиница је добила пројекат који сте ви жарко желели, а све то због тог глупог вештачког агенса који све може, осим да објасни вашем шефу да је он крив за имејл, а не ви. Авај, пошто смо већ утврдили да вештачки агенси немају интенционалност, те ни разлоге за своје поступке, то значи да немају ни намере да ли ће да поступе на одређени начин. Самим тим немају за шта да буду морално одговорни, ако моралну одговорност повезујемо са намером да се (слободно!) чине одређена дела. Ко је, дакле, крив? Па онај који је обдарен намерама. Јесмо ли то, на несрећу, заиста само ми? И хоћемо ли заувек то бити само ми? Скупа је ова слобода да се дела, скупља од оних силних „бенџамина“ које би Лејтам и Воткинс вероватно добили.

Јесу ли вештачки агенси најбитније откриће у вештачкој интелигенцији досад? Звучи као да јесу, свуда пишу да живимо у добу без преседана. С друге стране, свако мало се рекламирају нека најбитнија открића, тако да више ни сам немам појма.

У свету у ком је све најбитније откриће, ништа заправо није најбитније откриће. Напредак у науци и технологији је ретко када „преко ноћи“, јер су у питању генерације посвећених и талентованих истраживача и инжењера који исправљају грешке „у ходу“ и полако приближавају човечанство ка истинитијем опису света с једне стране, и импресивнијим алатима за интервенције у том свету с друге стране. Међутим, извештавање јавности о њиховом послу није нимало лако, те се из тог разлога спори напредак генерација често своди на тај један, наводно револуционарни тренутак, замрзнут у времену и простору, када треба да изађе нечији чланак на интернет порталу или у дневним новинама. Чињенице и потрага за изворима су, међутим, увек добар начин за проверавање како тврдњи чет-ботова и вештачких агенаса тако и медијских. У часопису за популаризацију науке и технике „Вајерд“, пре тачно тридесет година, изашао је интервју са професорком медија са Масачусетског института за технологију, Пети Маес, која је рекла следеће: „Главни проблем који примећујем је да ће људи бити збуњени у погледу одговорности за поступке вештачких агенаса. Поготово, на пример, за то што им је потребно много времена да се учитају на машини, или јер купују нешто преко интернета без вашег одобрења или знања.“ Професорка Маес потом наводи пример њој врло корисног вештачког агенса, који може да јој сакупи све новинске чланке на одређену тему без обзира на годину издања. Те 1995. године, Валериј Пољаков је пробио рекорд у дужини боравка у свемиру, оставши 438 дана у Свемирској станици Мир, у Јапану је био страшан земљотрес, Нобелова награда за физику се додељује за област физике елементарних честица, а Windows 95 је пуштен у оптицај. Између осталог. Да ли ће опис открића вештачких агенаса бити у будућности уписан баш у ретроспективи 2025. године, или ће то бити неко откриће тренутно слабо видљиво неувежбаном оку и, самим тим, непопуларизовано?

 

Текст је првобитно објављен у 42. броју часописа Елементи.

Вања Суботић ради на Институту за филозофију Филозофског факултета Универзитета у Београду. Поље њеног истраживања обухвата филозофију когнитивне науке, филозофију лингвистике, експерименталну филозофију и општу методологију науке. Докторирала је на филозофским аспектима модела заснованих на вештачким неуронским мрежама – као што су, рецимо, модели процесирања природног језика и велики језички модели имплементирани у конверзациону вештачку интелигенцију.

 

подели