Bivši britanski premijer Rishi Sunak nekada je smatrao veštačku inteligenciju toliko rizičnom da je 2023. organizovao prvi svetski "Samit o bezbednosti veštačke inteligencije", pozivajući kreatore politika i dugogodišnjeg protivnika veštačke inteligencije Elona Muska da razgovaraju o zaštitnim merama usled procvata koji je izazvao ChatGPT. Dve godine kasnije, njegov stav se znatno ublažio.
"U ovom slučaju ispravno je ne regulisati", izjavio je prošlog meseca na Bloomberg New Economy Forumu i istakao da kompanije poput OpenAI "jako dobro sarađuju" s istraživačima bezbednosti u Londonu koji su testirali njihove modele na potencijalne štete. Te kompanije su se dobrovoljno prijavile za reviziju. Kad sam istakla da bi u budućnosti mogle promeniti mišljenje, Sunak je odgovorio: "Do sada nismo došli do te tačke, što je pozitivno." Ali šta će biti kada dođemo?
Sunakov zaokret od nekadašnje izjave da bi trebalo da Britanija bude "dom regulacije bezbednosti veštačke inteligencije" do želje da uopšte ne želi zakone o AI-ju – odražava širu promenu koja se događa vladama širom sveta. Iza toga stoji želja za iskorišćavanjem tehnologije koja bi mogla revitalizuje stagnirajuća privreda i osećaj da stroga pravila nisu potrebna bez jasnih dokaza o široko rasprostranjenoj šteti.
Ipak, čekati katastrofu pre nego što se uvede regulativa rizično je kada se nova tehnologija širi tako brzo. ChatGPT bi mogao biti softver koji se najbrže širi u istoriji – redovno ga koristi 10 odsto svetske populacije samo tri godine nakon pojavljivanja. Takođe bi mogao da preoblikuje naše mozgove. Vlasnika, OpenAI, tužile su porodice više ljudi koji su imali deluzije ili postali suicidalni nakon što su proveli mnogo sati na ChatGPT-ju. Jedna kampanja prikupila je priče više od 160 ljudi koji kažu da je narušio njihovo mentalno zdravlje. U međuvremenu, veštačka inteligencija uništava školske zadatke, učvršćuje stereotipe, podstiče novu vrstu zavisnosti i plagira od umetnika.
Sve je to palo u drugi plan usred talasa tehnološke pompe koji je zahvatio čak i bivše zagovornike bezbednosnih mera. Sunak je, na primer, preuzeo savetodavne uloge u kompanijama za veštačku inteligenciju Anthropic PBC i Microsoft Corp., i iako je svoju platu obećao dobrotvornim organizacijama, ti odnosi će imati vrednost ako napusti politiku. Elon Musk, koji je nekada bio zabrinut zbog egzistencijalnih rizika veštačke inteligencije, ćuti o toj temi otkako je osnovao svoju kompaniju xAI Corp., koja stoji iza četbota Grok.
Ali odbacivanje opreza u potrazi za neizvesnim ekonomskim koristima moglo bi se obiti o glavu vladama.
Čini se da su i Zapad i Azija ušli u eru regulatorne popustljivosti. Sjedinjene Države su prešle dug put od izdavanja izvršne uredbe o izgradnji sigurnije veštačke inteligencije pod predsednikom Joeom Bidenom 2023. godine, do njenog ukidanja pod Donaldom Trumpom. Sadašnja administracija ubrzava izvoz data centara i čipova kako bi pobedila Kinu i pokušava da blokira zakone o veštačkoj inteligenciji na nivou saveznih država kako bi tehnološke kompanije mogle da napreduju. Milijarderi iz Silicijumske doline, poput Marca Andreessena, istovremeno su uložili desetine miliona dolara u lobiranje protiv bilo kakvih budućih ograničenja veštačke inteligencije.
Ujedinjeno Kraljevstvo ima iskustva u donošenju brze i razumne tehnološke regulative, ali izgleda malo verovatno da će se ozbiljno suočiti sa generativnom veštačkom inteligencijom. Evropska unija je odložila neke od najstrožih odredbi svoje Uredbe o veštačkoj inteligenciji (AI Act) do 2027. godine, kao i kodeks prakse iz te uredbe. Evropska pravila o digitalnoj privatnosti nekada su bila model za druge vlade, ali čini se da tzv. briselski efekat verovatno neće predstavljati prepreku za veštačku inteligenciju.
Kina nije izuzetak od ovog trenda "laissez-faire" pristupa. Komunistička partija te zemlje uvela je politike s ciljem pomoći domaćim kompanijama za veštačku inteligenciju da napreduju. Uprkos strogim pravilima koja zahtevaju od kompanija u sektoru društvenih mreža da registruju svoje algoritme kako bi sprečile društvene nemire, slični standardi se primenjuju samo na četbotove ili AI alate koji generišu slike ili video-zapise. Ta preduzeća moraju označavati dipfejk sadržaj i testirati svoje alate kako bi se uverila da ne generišu ilegalan ili politički osetljiv materijal.
Međutim, četbotovi za masovno tržište samo su deo kineskog tržišta veštačke inteligencije. Najveći sektori veštačke inteligencije u zemlji nalaze se u oblastima kao što su industrijska automatizacija, logistika, e-trgovina i AI infrastruktura. Kompanije koje rade u tim oblastima dobijaju velikodušne poreske olakšice za istraživanje i razvoj, povraćaj PDV-a i niži porez na dobit, prema istraživačkom radu Angele Zhang, profesorke prava na University of Southern California i vodećeg stručnjaka za kinesku tehnološku regulaciju iz 2025. godine. Blaži kineski pristup kompanijama koje razvijaju veštačku inteligenciju posledica je i toga što je Komunistička partija glavni kupac njihovih alata, posebno kada je reč o nadzornim tehnologijama poput prepoznavanja lica. Peking je previše uložio u veštačku inteligenciju da bi ugušio njen razvoj, a američka ograničenja izvoza čipova i domaći ekonomski pad samo su dodatno gurnuli Kinu prema rastu, a ne prema regulaciji.
"To nudi malo zaštite kineskoj javnosti", tvrdi Zhang. Ona i drugi istraživači bezbednosti upozorili su na moguće katastrofe koje bi veštačka inteligencija mogla izazvati, a koje proizlaze iz istorijski labavog kineskog pristupa rizicima, od patogena koje bi AI mogla da dizajnira, do poremećaja u elektroenergetskoj mreži i naftovodima.
Preovlađujuće mišljenje među vladama jeste da bi kompanije koje razvijaju veštačku inteligenciju trebalo same da se regulišu. "Gledajte, ne mislim da iko želi da na svet donese nešto za šta veruje da bi moglo izazvati značajnu štetu", rekao je Sunak. Ipak, nenamerne posledice često nastaju čak i kada tehnolozi kreću s najboljim namerama za čovečanstvo. Samoregulacija funkcioniše – sve dok ne prestane.