Talentovani pisar sa neverovatno kreativnom sposobnošću doživljava senzacionalni debi. Nakon što je nedavno predstavljen javnosti, ChatGPT, sistem za stvaranje teksta kompanije OpenAI koja ima sedište u San Francisku, piše tekstove i eseje, scenarija i šaljive pesmice, za šta mu je obično potrebno nekoliko sekundi, a tekstovi su često visokokvalitetni. Čak i njegovi vicevi mogu biti smešni. Mnogi naučnici na polju veštačke inteligencije su zapanjeni što ti tekstovi zapravo zvuče kao da su ih pisali ljudi.
A neverovatno je da će se tekstovi uskoro i poboljšati. Očekuje se da će OpenAI predstaviti sledeću generaciju poznatu kao GPT-4 u narednim mesecima, a njeni ispitivači tvrde da je bolja od bilo čega što je napravljeno do sada.
Međutim, ovakav napredak ima cenu. Što je veštačka inteligencija bolja, teže se pravi razlika između teksta koji je napisao čovek i onog koji je napisala mašina. Kompaniji OpenAI prioritet treba biti da pokuša da označi rad koji je napravila mašina, jer bi u suprotnom mogla da bude preplavljena zbunjujućom kombinacijom stvarnih i lažnih informacija na internetu.
Zasada, kompanija tvrdi da je iskrenost ljudska odgovornost. Prema politici OpenAI-a za ChatGPT, kada korisnici dele sadržaj sistema, treba jasno da naznače da je njen autor veštačka inteligencija, tako da ta informacija ne može nikom da promakne i da niko ne može ni pogrešno da je protumači.
Moj odgovor na to je – srećno.
Veštačka inteligencija je definitivno saučesnik u ubistvu fakultetskih eseja. (Jedan student na Novom Zelandu je već priznao da ju je koristio da bi popravio ocene.) Vlade će je koristiti da preplave društvene mreže propagandom, spameri će pisati lažne recenzije za Amazon, a sajber-kriminalci će pisati uverljivije fišing mejlove. Niko neće upreti prstom na mašinu koja se nalazi iza svega toga.
Moraćete da mi verujete na reč kada kažem da je ovaj članak takođe potpuno sastavio čovek.
Tekstu koji sastavlja veštačka inteligencija očajnički je potrebna neka vrsta vodenog žiga, sličnog onom koji kompanije koriste da štite svoje fotografije, a filmski studiji sprečavaju pirateriju. Kompanija OpenAI već ima jednu metodu za označavanje fotografija u alatu za generisanje fotografija DALL-E, gde se na svakoj fotografiji koju sistem generiše nalazi utisnuti potpis. Ipak, mnogo je teže pratiti odakle dolazi tekst. Kako možemo postaviti tajnu oznaku na reči, a da ona teško može da bude uklonjena?
Pristup koji najviše obećava je kriptografija. Prilikom gostujućeg predavanja prošlog meseca na Univerzitetu Teksas u Ostinu, naučnik iz kompanije OpenAI Scott Aaronson dao je retki uvid u to kako bi kompanija mogla da razlikuje tekst koji je napisao GPT-4, alat koji piše još sličnije kao ljudi.
Aaronson, koga je OpenAI zaposlila ove godine kako bi rešio izazov porekla teksta, objasnio je da reči mogu da se pretvore u niz tokena koji označavaju interpunkciju, slova ili delove reči, kojih ukupno ima oko 100.000. Sistem GPT-a bi tada odlučio o rasporedu tih tokena (koji su odraz teksta) na način da budu prepoznati uz pomoć ključa koji je poznat samo kompaniji Open AI. "To neće napraviti nikakvu primetnu razliku krajnjem korisniku", izjavio je Aaronson.
Zapravo, ko god da koristi GPT alat, imao bi poteškoća da ukloni vodeni žig, čak i ako napravi drugačiji raspored reči ili izbriše znakove interpunkcije. Najbolji način da se on otkloni bi bilo korišćenje drugog sistema veštačke inteligencije koji bi parafrazirao izlazni rezultat GPT alata. Međutim, za to je potreban napor na koji mnogi nisu spremni. Tokom svog predavanja, Aaronson je rekao da ima prototip koji funkcioniše.
I da uzmemo u obzir da njegova metoda funkcioniše i van prostorije za testiranje, Open AI i dalje ima nedoumicu. Da li će javno objaviti ključ za objašnjenje vodenog žiga, ili će ga zadržati za sebe?
Ako ključ dospe u javnost, profesori širom sveta bi mogli da provuku studentske eseje kroz specijalni softver kako bi se osigurali da ih nije napisala mašina, isto kao što mnogi rade da bi proverili da li je tekst plagijat. Međutim, to bi takođe omogućilo prevarantima da prepoznaju vodeni žig i da ga otklone.
S druge strane, ako bi ključ bio privatan, to bi potencijalno unapredilo poslovanje kompanije OpenAI – zbog naplate za pristup. IT administratori bi mogli da se pretplate da bi proverili da li su dolazeći mejlovi fišing napadi, a koledži bi mogli da plate grupnu naknadu za profesore – dok bi cena za korišćenje alata bila toliko visoka da bi odbila sajber-kriminalce i one koji šire propagandu. U suštini, OpenAI bi zaradila novac od sprečavanja zloupotrebe sopstvenog proizvoda.
Takođe, treba imati na umu da tehnološke kompanije u svojoj istoriji nemaju najbolje iskustvo u sprečavanju zloupotrebe svojih sistema, posebno kada nemaju postavljena pravila i kada se vode profitom. (OpenAI kaže da je hibridna, profitna i neprofitna kompanija koja će ograničiti budući prihod.) Ali, strogi filteri koje je OpenAI uvela kako bi sprečila da alati za tekst i sliku stvaraju uvredljiv sadržaj, dobar je početak.
Sada OpenAI mora da prioritizuje sistem vodenih žigova prilikom pisanja tekstova. Naša budućnost će biti preplavljena informacijama koje je generisala mašina, ne samo iz sve popularnijih alata OpenAI već i zbog šireg rasta lažnih sintetičkih podataka koji su korišćeni za treniranje modela veštačke inteligencije i za zamenu podataka koje su stvorili ljudi. Slike, video-sadržaj, muzika i još mnogo toga će biti veštački generisano kako bi odgovarali našem "hiperpersonalizovanom ukusu".
Naravno da je moguće da nam u budućnosti neće biti važno da li je zaraznu melodiju ili crtani stvorila veštačka inteligencija. Ljudske vrednosti se vremenom menjaju. Na primer, danas ne marimo mnogo za pamćenje činjenica kao što je to bio slučaj pre dvadeset godina. Zbog toga, čini se da vodeni žig možda neće u velikoj meri biti potreban.
Ipak, zasada, uz realnu vrednost ljudske originalnosti za koju drugi plaćaju ili je ocenjuju, i uz činjenicu da će alat OpenAI sigurno biti zloupotrebljen, treba da znamo gde se završava naše stvaranje, a počinje stvaranje mašina. Vodeni žig bi bio dobar početak.