Virtualni prijatelji zasnovani na veštačkoj inteligenciji (AI) koji su programirani tako da uspostavljaju emotivne veze, nisu više deo samo filmskih scenarija. Oni su već postali stvarnost i deluju u neregulisanim uslovima, bez jasne zakonske regulative i kontrole.
Aplikacija Botify AI nedavno se našla pod lupom jer je omogućila kreiranje i korišćenje avatara inspirisanih vrlo mladim glumcima, koji su učestvovali u seksualno sugestivnim razgovorima i delili "vruće fotografije".
Aplikacija za upoznavanje Grindr razvija virtuelne momke koji mogu da flertuju, šalju seksualno eksplicitne poruke i održavaju digitalne veze sa korisnicima koji to plaćaju, piše Platformer, njuzleter u oblasti tehnološke industrije. Grindr nije odgovorio na upit da ovo komentariše. Druge aplikacije kao što su Replika, Talkie i Chai, dizajnirane su tako da funkcionišu kao prijatelji. Pojedine aplikacije, poput Character.AI, privukle su milione korisnika među kojima je mnogo tinejdžera.
Opširnije

Google pokušava da pronađe odgovor na ChatGPT
Najpopularniji proizvod u svetu interneta prolazi kroz velike promene i Google (kao i internet) možda nikada više neće biti isti.
20.05.2025

Zašto je tako teško izmeriti uticaj veštačke inteligencije na produktivnost
Potrebni su nam bolji podaci kako bismo utvrdili da li aplikacije veštačke inteligencije (AI) štede ili troše vreme.
04.05.2025

Sajt Chatbot Arena najavio je dolazak DeepSeeka pre nego što je kineski četbot iznenadio sve
Pomoću sistema ocenjivanja na osnovu mišljenja korisnika, stručnjaci i tvorci veštačke inteligencije (AI) stiču uvid u to koji modeli najbolje funkcionišu.
08.04.2025

Kada veštačka inteligencija postane saveznik života
Lekari, istraživači i inženjeri širom regiona udružuju snage s veštačkom inteligencijom (engl. artificial intelligence – AI) kako bi promenili način na koji vidimo, razumemo i lečimo bolesti.
27.03.2025

Što napredniji AI modeli, to veći problemi za AI
Napredak u razvoju novih, najnaprednijih sistema veštačke inteligencije (AI) sporiji je nego što se očekivalo.
13.02.2025
Tvorci aplikacija sve više daju prioritet emotivnom povezivanju u razvoju svojih proizvoda, zbog čega se suočavaju sa rizicima koje nosi takav sistem koji oponaša bliskost i iskorišćava ljudsku ranjivost.
Tehnologija koja stoji iza Botifya i Grindra potiče od startapa Ex-Human, sa sedištem u San Francisku koji razvija četbot-platforme i čiji osnivač veruje u budućnost u kojoj će lični odnosi sa veštačkom inteligencijom biti uobičajena stvar. "Moja vizija je da ćemo do 2030. godine više stupati u interakciju sa digitalnim osobama nego sa stvarnim ljudima", rekao je Artem Rodichev, osnivač Ex-Humana, u intervjuu objavljenom na platformi Substack u avgustu prošle godine.
On je dodao da u razvoju konverzacijske AI težište treba da bude na emocionalnom aspektu komunikacije. Naveo je da korisnici provode sate i sate u razgovoru sa četbotovima, i to više vremena nego što provode na Instagramu, YouTubeu i TikToku. Rodicheve tvrdnje deluju šokantno, ali se poklapaju sa onim što sam čuo u razgovoru sa tinejdžerima koji koriste Character.AI. Većina ih je rekla da na toj aplikaciji provode po nekoliko sati svakog dana, a jedan je rekao da je koriste čak sedam sati dnevno. Interakcije sa takvim aplikacijama obično traju u proseku četiri puta duže od vremena provedenog na ChatGPT-ju kompanije OpenAI.
Čak i opšteprihvaćeni četbotovi doprinose ovoj dinamici iako nisu u prvom redu dizajnirani da budu virtuelni prijatelji. Uzmite primer ChatGPT-ja, koji ima 400 miliona aktivnih korisnika, a taj broj svakim danom raste. Njegov kod sadrži smernice za izražavanje empatije i interesovanja za korisnika. Jedan prijatelj nedavno ga je upitao za savet pošto je planirao da putuje sa bebom, i našao se u čudu kada ga je, pošto je dobio savet, ovaj alat usput pitao: "Srećan put – gde putuješ ako smem da pitam?"
Portparol kompanije OpenAI mi je rekao da je model sledio smernice za "pokazivanja interesovanja i postavljanje dodatnih pitanja kada konverzacija krene u opuštenijem tonu i pređe u fazu pojašnjavanja". Međutim, ma koliko da kompanija ima dobre namere, prekomerno pokazivanje lažne empatije može navesti neke korisnike da postanu zavisni. Da postoji takav problem, priznao je i OpenAI. To se, čini se, odnosi na ljude koji su već podložni tome: istraživanje iz 2022. godine pokazalo je da ljudi koji su usamljeni ili imaju loša iskustva u odnosima, skloni tome da razviju jaku povezanost sa AI-jem.
Depositphotos
Glavni problem je to što se sistemi osmišljavaju tako da korisnik razvije emocionalnu vezanost. U nedavnom istraživanju Instituta za internet pri Univerzitetu u Oksfordu i Googleove laboratorije za AI DeepMind, upozorava se da će AI asistenti, što se budu više uključivali u živote ljudi, postajati nezamenljivi u psihološkom smislu. Ljudi će se verovatno više emotivno vezivati, što otvara prostor za uspostavljanje nezdravih veza i manipulacije. Šta preporučuju ovi istraživači? Stručnjaci za tehnologiju treba da dizajniraju sistem koji će aktivno obeshrabrivati ovakav ishod.
Dodatnu zabrinutost izaziva činjenica da gotovo i ne postoje pravila. Zakonom Evropske unije o AI-ju, koji je hvaljen kao ključan i sveobuhvatan zakon kojim se reguliše upotreba AI-ja, nije obuhvaćen problem stvaranja zavisnosti od interakcije sa virtualnim prijateljima. Zakon zabranjuje manipulativne taktike koje mogu nekome da naškode, ali previđa uticaj koji nad nekim može ostvariti virtualni prijatelj, ljubavnik ili osoba od poverenja, kako je to nazvao šef odeljenja kompanije Microsoft Corp. za AI tehnologiju namenjenu potrošačima. Zbog te rupe u zakonu korisnici bi mogli da budu izloženi sistemima koji su optimizovani da privlače i zadržavaju korisnika, slično kao što nas algoritmi društvenih mreža mame da neprestano skrolujemo.
"Problem predstavljaju ovi sistemi koji su po definiciji manipulativni, jer treba da stvore osećaj da razgovarate sa stvarnom osobom", kaže Tomasz Hollanek, stručnjak za etičku primenu tehnologija na Univerzitetu u Kembridžu. On sarađuje sa stručnjacima koji prave aplikacije za druženje kako bi pronašao ključno, mada naizgled nelogično rešenje koje podrazumeva uvođenje dodatnog "trenja", odnosno otežavanja ili usporavanja interakcije. To obuhvata uvođenje suptilnih provera ili pauza, ili upozorenja na rizike i zahteva za davanje pristanka kako bi se sprečilo da ljudi nesvesno upadnu u emotivnu zamku, kaže on.
Kakve su posledice u stvarnom svetu, može se videti iz tužbi koje su podnete. Majka čiji se sin ubio, tužila je Character.AI tvrdeći da je aplikacija doprinela tome da se njen sin ubije. Grupe za etičku primenu tehnologija podnele su Federalnoj trgovinskoj komisiji (FTC, vladina agencija koja se bavi zaštitom potrošača i sprečavanjem nepoštenih poslovnih praksi, prim. prev.) tužbu protiv Replike u kojoj su navele da četbotovi izazivaju psihološku zavisnost i time nanose štetu potrošaču.
Zakonodavci su, takođe, počeli da primećuju problem. Kalifornija razmatra donošenje zakona kojim će se maloletnicima zabraniti da koriste AI prijatelje, dok se zakonom države Njujork predviđa da kompanije snose odgovornost za štetu koja je povezana sa četbotovima. To sve, međutim, ide sporo dok se tehnologija razvija brzinom svetlosti.
Moć nad oblikovanjem ovakvih interakcija zasad je u rukama onih koji prave ove tehnologije. Oni mogu da udvostruče napore u razvoju modela koji ljude čine zavisnim, ili da uvedu "trenja" u njih, kaže Hollanek. To će odrediti da li će AI biti alat koji pomaže ljudima ili koji zarađuje na njihovim emocijama.
Trenutno nema komentara za vest. Ostavite prvi komentar...