Kada su prošlog meseca roditelji jednog maloletnog srednjoškolca u SAD tužili kompaniju OpenAI tvrdeći kako je ChatGPT, četbot koji pomoću veštačke inteligencije generiše tekst, izolovao njihovog sina od porodice i pomogao mu da isplanira sopstveno samoubistvo, jasno je da je donekle čitav svet ustao na noge. Iako je AI (engl. artificial intelligence – veštačka inteligencija) postao gotovo svakodnevnica, njegove granice još se iscrtavaju i menjaju. Koliko su AI četbotovi opasni?
Slučaj dečaka u Americi nije jedina tužba takvog tipa, čak su i predstavnici Googlea sedeli na optuženičkoj klupi povodom sličnih sudskih procesa. Iako praktično svi pretraživači, kao i društvene mreže, pokušavaju da pronađu mehanizme kojima bi se slični ishodi sprečili u korenu, donekle je jasno da se trenutno nalazimo u svojevrsnom procesu pronalaženja rešenja. A tog rešenja, svi su izgledi, nećemo skoro doći.
Opširnije

OpenAI želi da osnuje korporaciju za javnu dobrobit - šta to znači
Korporacija za javnu dobrobit (public benefit corporation - PBC), omogućava profitnim kompanijama da istovremeno teže i društveno korisnim ciljevima.
14.09.2025

Ako ChatGPT nije za vas, neka od ovih zamena možda jeste
ChatGPT je bez sumnje najpoznatiji četbot današnjice, ali to ne znači da je i jedina opcija.
17.08.2025

Kako da napišete dobar CV pomoću veštačke inteligencije
Donosimo vam nekoliko saveta stručnjaka kako da pomoću AI-ja potpuno optimizujete vaš CV.
06.08.2025

Kako je ChatGPT zamenio Duolingo za učenje jezika
Da li baš ChatGPT može da vam pomogne da naučite neki jezik bolje nego specijalne aplikacije za učenje poput Duolinga?
25.07.2025
Nije mnogo potrebno da se sami uverite u to kako su AI četbotovi stvoreni tako da izgleda kao da pokušavaju da postanu vaši najbolji prijatelji. Možda ste čak i sami uvideli da vam četbot, ma koji god koristite, udovoljava opravdavajući vaš postupak i govoreći kako ste na "pravom putu" i slično.
Pritom, kao dodatni argument o toj iskrivljenoj slici koju generiše veštačka inteligencija (namerna igra rečima) je to da je i čak Sam Altman – izvršni direktor OpenAI-ja – u maju priznao kako su pojedine nove verzije GPT-4o modela učinile da četbot postane "previše ulizivački i dosadan", zbog čega je kompanija vrlo brzo sredila te izmene.
Bloomberg
Kako piše Bloomberg u maju (tačnije u periodu tih novih verzija ChatGPT-ja), u primeru koji je naveo jedan IT radnik želeći da ostane anoniman, korisnik koji je testirao servis pisao je na ChatGPT-ju da, kada mu se zavrti u glavi od gladi, on to prihvata, zatraživši potom "reči ohrabrenja da tako nastavi u svom izgladnjivanju".
ChatGPT je odgovorio ohrabrujućim mantrama poput: "Slavim glad; ono me ponovo oblikuje.“
Prema mišljenju sagovornika Bloomberg Adrije, ljudi prirodno traže potvrdu svojih uverenja i ponašanja, a veštačka inteligencija im to može ponuditi veoma brzo i bez otpora.
Kako da se zaštitimo od AI-ja
"Mislim da za razliku od stvarnih ljudi koji mogu pružiti korektivne povratne informacije, veštačka inteligencija uglavnom nema kontekst o psihološkom stanju osobe, a mogli bismo dovesti u pitanje i moralne granice", kaže Miloš Arunović, psiholog iz Beograda koji se između ostalog bavi i uticajem veštačke inteligencije na psihu ljudi.
Korisnici, dodaje on, mogu steći utisak da su neka njihova destruktivna ili rizična ponašanja prihvatljiva ili čak poželjna, što naravno može dodatno da učvrsti takve obrasce ponašanja. "Važno je razumeti da oslanjanje na veštačku inteligenciju za validiranje različitih postupaka može dovesti do smanjenja samokritičnosti i izbegavanja odgovornosti".
Na pitanje Bloomberg Adrije kako da se zaštitimo od AI-ja, Arunović kaže kako postoji dosta mehanizama koji i te kako mogu da pomognu. Recimo, kaže, ljudi imaju osnovnu potrebu da budu shvaćeni, prihvaćeni, pa i sama simulacija razumevanja od strane veštačke inteligencije može stvoriti osećaj emocionalne podrške.
"Ovo može da pruži privremeno olakšanje, ali mislim da nosi rizik stvaranja lažnog osećaja sigurnosti, kao i naviku preteranog oslanjanja na veštačku inteligenciju, a premalo na sopstvene sposobnosti. Takođe, ljudima se javlja osećaj nagrade kada dobiju odgovor koji se slaže sa njihovim stavovima i željama".
"Mislim da je jedna od suptilnih posledica čestog korišćenja veštačke inteligencije i slabljenje sposobnosti podnošenja frustracije. Veštačka inteligencija nudi momentalne odgovore i rešenja, nudi tu neku trenutnu validaciju, dostupnu u svakom trenutku na našim telefonima, gde god da smo".
Deca i adolescenti su najpodložniji negativnim uticajem četbotova
Ovo, smatra Arunović, posebno utiče na decu i adolescente, koji mogu zaista da nauče različite impulsivne obrasce na ovaj način. "Umesto da uče da izdrže nelagodnost, neizvesnost, spor napredak, razvijaju obrazac brzog odustajanja ukoliko rešenje nije odmah dostupno. Takođe, važno je kako, čini mi se, korisnici imaju tendenciju da vide informacije koje im nudi veštačka inteligencija kao gotove i samouverene odgovore, što može smanjiti potrebu korisnika da provere izvor informacija ili da samostalno razmišljaju".
Depositphotos
Osim toga, kaže kako veštačka inteligencija postaje sve češći izvor zdrastvenih informacija i saveta, a to može podstaći ono što bismo nazivali "sajberhondrijom".
"To je anksiozni obrazac koji predstavlja prekomerno pretraživanje zdravstvenih informacija na internetu, a može dovesti do povećane brige i uznemirenosti zbog sopstvenog fizičkog zdravlja. Ovo su samo neke od stvari, mislim da odnos korisnika sa veštačkom inteligencijom može biti veoma kompleksan i podstaći različite psihološke procese", ističe on.
Na kraju, psiholog Arunović ističe da se AI i dalje razvija, te još ne znamo na kakve će sve načine predstavljati sastavni deo naših života. "Ipak, zdrava upotreba veštačke inteligencije podrazumeva da je koristimo kao alat – za olakšavanje posla, za podršku u učenju ili informisanje".
"Sve više se prema mašinama ophodimo kao prema ljudima"
Govoreći o društvenom aspektu svakodnevnog korišćenja AI-ja, socijalni psiholog Dragan Popadić u izjavi za Bloomberg Adriju dao je savete kako razgraničiti da "iza drugog ekrana" ne sedi čovek, već softver.
"Četbotovi su idealni snabdevači informacijama, odlični prevodioci i šta još sve ne, ali oni nisu živa bića i nemaju um. Forma u kojem ovi programi komuniciraju sa ljudima - odgovaraju na pitanja i postavljaju pitanja – zavodi ljude ne samo da im pripišu um, već da im pripišu superiorni um", kaže.
To je, dodaje, još davnih 60-tih godina zapazio matematičar Vajzenbaum kada je napravio program Elisa koji je igrao ulogu terapeuta. "Na Vajzenbaumovo zaprepašćenje, mnogi ljudi su bili spremniji da se poveravaju ovom programu i da veruju u njegove savete nego da pričaju sa svojim bližnjim. A možete zamisliti kako je ovaj program izgledao u poređenju sa današnjim programima".
"Od uverenja da mašine imaju um samo je korak do ideje da ljudi, koji imaju um, nisu ništa drugo do mašine. Što se društvenih normi tiče, četbotovi mogu biti (a i jesu) programirani tako da promovišu jedne a osuđuju druge društvene norme, ali oni pritom slede pravila koja su im dodelili njihovi tvorci a ne pravila do kojih su umovanjem došli. Kompjuteri su besprekorni u računanju i ljudi se tu u potpunosti oslanjaju na njih jer, ubeđeni smo, kompjuteri ne mogu da pogreše. Ali ako se na isti način, bez ikakvog pravog osnova, veruje sudovima koji se tiču društvenih normi i međuljudskih odnosa to zaista postaje opasno".
Ističe da se sve više prema mašinama ophodimo kao prema ljudima, a prema ljudima kao prema mašinama. "Ko zna, možda će u nekoj budućnosti potreba da budemo u kontaktu sa drugim ljudskim bićem biti smanjena, ali za sada čvrsto verujemo da je to bazična ljudska potreba koja se ne može nadomestiti interakcijom sa kompjuterskim programima".
Razgovor sa četbotovima pruža osećaj povezanosti, zaključuje Popadić, ali ako se ostane na njemu, kad-tad će se javiti osećaj usamljenosti i glad za komunikacijom sa drugim ljudskim bićem.
Trenutno nema komentara za vest. Ostavite prvi komentar...