Rastući broj milenijalaca i predstavnika generacije Z okreće se četbotovima u potrazi za emotivnom podrškom, utehom i savetom. Međunarodna studija koju je 2025. objavio Kantar, sprovedena na 10.000 korisnika u 10 zemalja, pokazala je da više od polovine korisnika traži emotivnu podršku od četbotova, i to 30 odsto milenijalaca i 35 odsto predstavnika generacije Z. Međutim, veštačka inteligencija ponekad daje opasne savete.
Međutim, postoje ključne razlike između ljudskog razmišljanja i načina na koji veštačka inteligencija donosi odluke, kaže za Bloomberg Adria TV David Glass, profesor na Univerzitetu u Ulsteru i istraživačem Centra za istraživanje veštačke inteligencije pri tom univerzitetu.
- Koja je ključna razlika između načina na koji veštačka inteligencija i čovek donose odluke?
Veliki jezički modeli, poput ChatGPT-ja, obrađuju informacije tako što predviđaju najverovatniji odgovor na određeni upit. To je pitanje statistike, funkcioniše slično kao i automatsko dopunjavanje teksta. Ako kažemo "nebo je", najverovatniji odgovor je "plavo". Jezički modeli koriste ogromne količine teksta preuzetog sa interneta, iz knjiga i sa društvenih mreža, kako bi procenili šta je najverovatniji odgovor.
To je, po mom mišljenju, suštinski drugačije od načina na koji razmišljaju ljudi. Kada govorimo o sposobnostima rezonovanja, vidimo da su ovi sistemi izuzetno efikasni u pisanju eseja ili poezije, često i bolje nego mnogi ljudi. Međutim, mogu da pogreše kada rade vrlo jednostavne logičke zadatke, naročito ukoliko ti zadaci zahtevaju oslanjanje na zdrav razum i iskustvo svakodnevnog života.
Ranije ove godine istraživači iz kompanije Apple sproveli su studiju koristeći modele posebno razvijene za logičko razmišljanje i naišli su na brojne probleme. U nekim slučajevima, čak i kada su četbotovi dobili jasna uputstva kako da reše zadatak, nisu bili u stanju da ih dosledno prate. Važno je pomenuti i fenomen takozvanih halucinacija, gde modeli proizvode netačne ili izmišljene informacije, jer pružaju statistički najverovatniji odgovor. Zbog toga je njihov pristup informacijama fundamentalno različit od ljudskog načina razmišljanja.
- Univerzitet Stanford je ranije ove godine objavio studiju koja je pokazala da u situacijama, kada su ljudi sa četbotovima delili suicidne misli, jezički model bi pružio reči utehe, ali i spisak najviših zgrada u okolini.
Zašto AI ne uspeva da prepozna signale koji ukazuju na ozbiljan psihološki stres?
To je izuzetno važno pitanje i direktno je povezano sa načinom na koji AI obrađuje informacije. Veštačka inteligencija ne prepoznaje kontekst, koji je ljudima više nego jasan. Mi sagledavamo celokupnu situaciju u kojoj se osoba nalazi i povezujemo teme poput visokih zgrada sa rizikom od samoubistva. To je tipičan primer zdravorazumskog zaključivanja u kojem su ljudi veoma uspešni, dok AI često greši.
Iako se radi na unapređenju ove tehnologije, brojna istraživanja i dalje ukazuju na ozbiljna ograničenja veštačke inteligencije. Zabrinjavajuće je što se tehnologija sve više koristi kao izvor saveta, posebno među mladima. Nedavno je objavljeno da mladi ljudi traže savete od ChatGPT-ja, a Sam Altman, izvršni direktor OpenAI-ja, izjavio je da mnogi od njih ne donose važne životne odluke pre nego što se konsultuju sa četbotom.
Smatram da je to veoma problematično - ne treba donositi velike životne odluke na osnovu saveta jezičkog modela. Neophodno je da razumemo ograničenja ove tehnologije, a ovaj primer ih vrlo jasno ilustruje.
- Kako možemo da koristimo AI u procesu odlučivanja, a da mu ne prepustimo donošenje odluka umesto nas? Gde je granica?
AI je koristan izvor informacija i veoma je efikasan u sažimanju tih informacija. U tom smislu, može biti dragocena pomoć u procesu odlučivanja. Međutim, moramo biti veoma oprezni da ne dozvolimo mašinama da donose odluke umesto nas.
Posebno bih želeo da naglasim značaj ljudske uloge, naročito kada je reč o odlukama sa moralnom komponentom. Ne smatram da bi tu odgovornost trebalo prepustiti veštačkoj inteligenciji. AI treba posmatrati kao alat za informisanje, a ne kao zamenu za ljudsko rasuđivanje. Ovo je ključno pitanje za društvo u celini, a naročito za mlade ljude, koji moraju da znaju u koje svrhe je ova tehnologija korisna, ali i gde su njena ograničenja.
Depositphotos
- Naveli ste da AI nema zdrav razum, zbog čega ponekad donosi odluke koje ljudi u sličnoj situaciji ne bi doneli. Da li postoji mogućnost da AI u budućnosti, daljim razvojem tehnologije, razvije neku vrstu superinteligencije i sposobnost donošenja odluka zasnovanih na zdravom razumu?
Tehnologija će se nesumnjivo unapređivati, i to već vidimo. Postoje scenariji zdravorazumskog rezonovanja u kojima je AI danas znatno bolja nego pre nekoliko godina. Ipak, u većini slučajeva to unapređenje je rezultat ljudskog uticaja. Ljudi prepoznaju ograničenja i zatim pokušavaju da razviju tehnologiju koja će ih ublažiti.
Veoma sam skeptičan prema tvrdnjama o razvoju superinteligencije. Iako će tehnologija napredovati, ona je i dalje ograničena podacima na kojima se zasniva. AI je dobra onoliko koliko su dobri podaci koje joj pružamo. Ona je sposobna da izvršava izuzetno složene statističke operacije nad ljudskim jezikom i znanjem koje joj je dostupno, ali da bi prešla te granice, bilo bi potrebno mnogo dublje razumevanje i oblik inteligencije koji, po mom mišljenju, AI jednostavno nema. Postoji suštinska razlika između načina na koji AI obrađuje informacije i načina na koji razmišljaju ljudi.
- Kako vidite budućnost primene AI u terapeutske svrhe, kako u psihoterapiji, tako i u medicini?
Veštačka inteligencija ima ogroman potencijal u nauci, medicini i zdravstvenoj zaštiti, ali način njene primene zahteva pažljivo promišljanje. Posebno bih naglasio značaj terapeuta, koji se, po mom mišljenju, ne mogu zameniti AI-jem.
Umesto da pokušavamo da razvijamo veštačku inteligenciju koja će biti što sličnija čoveku, smatram da je važnije da negujemo jasnu razliku. Ljudi koji koriste četbotove u psihoterapeutske svrhe moraju biti svesni da komuniciraju sa veštačkom inteligencijom, a ne sa čovekom. Ta distinkcija mora ostati jasna. Kada je reč o važnim odlukama i savetima, ljudski doprinos ostaje nezamenljiv.
- Jedna od tema kojima ste se bavili jeste pitanje da li veštačka inteligencija može da razvije svest, a ne samo da simulira ljudsku inteligenciju. Šta su zaključci?
Izuzetno me je interesovalo pitanje da li AI može da razvije svest i došao sam do zaključka da ne može. Način na koji AI obrađuje informacije je suštinski drugačiji nego način na koji to rade ljudi.
Čovek ima emocije. Kada se naljuti, oseća ljutnju. Postoji unutrašnje iskustvo koje prati ponašanje. AI možda može da prepozna emocije i da oponaša ljudsku reakciju. Može da simulira ponašanje, pa čak i izraze lica, ali mu nedostaje stvarno emocionalno iskustvo. AI jednostavno obrađuje podatke.
Zbog toga je važno imati na umu da je reč o simulaciji, a ne o stvarnosti. Jedna od mojih glavnih briga jeste da će međuljudski odnosi biti pod dodatnim pritiskom, jer pojedinci izjednačavaju AI sa čovekom. U širem smislu, razmišljanje o etici AI zahteva da jasno razumemo šta znači biti čovek. Smatram da je to jedno od ključnih pitanja našeg vremena, posebno u eri ubrzanog razvoja veštačke inteligencije.