Svet se poslednjih godina menja neverovatnom i za mnoge neshvatljivom brzinom. Krize, ratovi koje nismo mogli ni zamisliti i pandemije s jedne strane, dok razvoj tehnologija, ubrzano napredovanje veštačke inteligencije i promena paradigme komunikacije s druge strane. Upravo u tom i takvom svetu pre manje od dve nedelje održani su izbori u Pakistanu. I upravo ti izbori mogu značajno da utiču na sliku sveta u narednom periodu.
Ne mislim, naravno, samo na političku sferu uticaja koja je nesumnjiva: Pakistan je moćna i velika zemlja sa 250 miliona stanovnika, snažnom armijom, kompleksnim odnosima sa Indijom i Iranom, i duboko podeljena u svojim unutrašnjepolitičkim borbama. Sve to ovde nije tema. Tema je činjenica da je upravo u Pakistanu, u jeku izborne groznice, veštačka inteligencija prvi put upotrebljena na sasvim novi i drugačiji način, i da upravo ta nova primena može drastično uticati na budućnost komunikacija, ali i politike u svetu.
Opširnije
Upoznajte AI startap za kloniranje glasova vredan 1,1 milijardu dolara
ElevenLabs je startap koji koristi softver za veštačku inteligenciju kako bi replikovao glasove na nekoliko desetina jezika.
31.01.2024
Šta Gates, Altman i Nadella misle o uticaju AI-ja na izbore
Lideri u tom polju rekli su da ozbiljno shvataju pretnju koji veštačka inteligencija donosi izborima.
17.01.2024
Ništa lično, zamenjeni ste digitalnim blizancem
Miquela je sarađivala sa modnim brendovima poput Prade, Calvin Kleina, i drugima. Ipak, Miquela Sousa nije ljudsko biće.
15.01.2024
Polygon i Fox predstavili platformu za proveru autentičnosti sadržaja
Polygon Labs i Fox News predstaviće platformu koja budi nadu u borbi za autentičnost sadržaja.
10.01.2024
O čemu je reč?
Glavni protivkandidati, koji su na izborima 8. februara ozbiljno ugrozili vladajuću Muslimansku ligu Pakistana, nezavisni su kandidati partije PTI (Pakistanski pokret za pravdu), koju predvodi raniji premijer i svojevremeno veoma popularni kriket igrač Imran Khan. Tokom izborne kampanje, Imran Khan nalazio se u zatvoru i zbog fizičkog odsustva nije mogao da u njoj učestvuje. Politički stratezi su pribegli jednom interesantnom i inovativnom rešenju kako bi obezbedili da ipak bude tu, iako fizički nije prisutan. Imran Khan bi preko svojih advokata dostavljao ceduljice sa tekstovima saopštenja, a stručnjaci za veštačku inteligenciju bi onda kreirali video i audio poruke na kojima bi Imran Khan, svojom pojavom i svojim glasom, saopštavao reakcije na izborna dešavanja. Nakon objavljivanja na društvenim mrežama, te sadržaje, kreirane pomoću veštačke inteligencije, preuzimali bi i tradicionalni mediji, šaljući poruke u etar.
Ovako nešto nije viđeno nikada i nigde do sada i otvara more etičkih dilema. Naime, audio i video sadržaji na kojima se prikazuje da je osoba izgovorila ili uradila nešto što zapravo nije uradila nazivaju se dipfejk (engl. deepfake) i spadaju u kategoriju lažnih vesti. Dipfejk sadržaji postali su neverovatno popularni tokom prethodnih godina, pošto su razvoj veštačke inteligencije i korisničkih aplikacija za editovanje sadržaja omogućili mnogima da se poigravaju ovom kategorijom.
Kada se na to dodaju mogućnost da svaki korisnik interneta kreira sadržaje i postavlja na svoje naloge na društvenim mrežama (a takvi sadržaji se onda dalje dele), težnja javnosti za senzacionalizmom, ali i potreba za momentalnim prenošenjem informacija, dolazimo do jednostavnog zaključka zašto su dipfejk sadržaji postali popularni u rekordnom roku. Primeri su brojni: od fingiranog obraćanja Mark Zuckerberga, preko brojnih američkih zvaničnika, do na prostorima Balkana već antologijskog navodnog snimka Vladimira Putina kako svira himnu Srbije "Bože pravde".
Nevolja je u tome što video-obraćanja pritvorenog Imrana Khana po svojoj suštini spadaju upravo u kategoriju dipfejk sadržaja: iako je tekst autentičan i najverovatnije izvoran, odnosno dostavljen preko advokata, sam snimak nije autentičan, već je generisan pomoću veštačke inteligencije. Dakle, u ovom slučaju imamo sadržaj koji je "na granici", ali po svojoj definiciji i paradigmi spada u kategoriju lažnih sadržaja. Sada je, nakon izbora u Pakistanu, takvim sadržajima dat legitimitet.
Dipfejk sadržajima dat legitimitet
Prirodno, otvaraju se mnoga pitanja. Prvo i osnovno je: šta se može očekivati u budućnosti. Deluje da se ovim potezom i davanjem legitimiteta dipfejk sadržajima otvara Pandorina kutija. Neki politički stratezi će, moguće, pomoć veštačke inteligencije koristiti za prenošenje autentičnih poruka (kao u slučaju Imrana Kana), kako bi uštedeli vreme i povećali broj sadržaja koje njihov kandidat emituje. Međutim, ne odbacujem mogućnost da već prisutni dipfejk procveta kao sredstvo političke borbe, gde se može dogoditi da upravo suprotstavljena strana krene sa hipreprodukcijom potpuno lažnih audio i video sadržaja kako bi diskreditovala protivkandidata i negativno uticala na njegovu reputaciju.
Imajući u vidu izuzetno visok nivo pragmatizma i izuzetno nizak nivo etike u današnjem svetu, ne bih bio iznenađen ovakvim razvojem situacije. To bi vodilo u potpuno zbunjivanje i tradicionalnih medija i birača, koji u moru sadržaja više ne bi mogli da prepoznaju šta je autentično, a šta ne. Naprednim korišćenjem veštačke inteligencije za generisanje snimaka, izborni štab Imrana Khana je, u dobroj želji da svog pritvorenog lidera približi biračima, dao aktivnu legitimaciju da ovakvi sadržaji postanu opšteprihvaćena svakodnevnica.
Broj dipfejk sadržaja postavljenih na društvenim mrežama raste geometrijskom progresijom: istraživanje Reutersovog servisa DeepMedia pokazuje da je u 2023. godini oko 500.000 audio i video dipfejk postova emitovano putem društvenih mreža. Ilustracije radi, samo dve godine ranije, identifikovano je 14.678 primera dipfejk sadržaja u digitalnoj sferi. Dakle, broj ove vrste sadržaja se za dve godine uvećao neverovatnih 3.400 procenata!
OpenAI lansirao SORA
Tehnološki razvoj daje jasnu naznaku da će dipfejk sadržaji postati još prisutniji. OpenAI, koji je postao svetski poznat po aplikaciji ChatGPT, pre nekoliko dana je lansirao novu platformu SORA, koncept zasnovan na veštačkoj inteligenciji koji može da kreira realistične i maštovite video-sadržaje na osnovu tekstualnih uputstava. U ovom trenutku SORA može momentalno da kreira video dugačak do jednog minuta, ali se očekuje da veoma brzo bude u stanju da kreira desetominutni video-sadržaj. Naravno, veštačka inteligencija ne prepoznaje lažne upite: ako unesete neistinit tekst, video-proizvod će takođe biti neistinit. Dakle, realno je očekivati da će sve više i više korisnika, što u želji za senzacionalizmom po svaku cenu, što motivisano ostvarenjem ciljeva za raznorazne kampanje, koristiti veštačku inteligenciju da kreira lažne video-snimke, odnosno po svojoj suštini dipfejk sadržaje.
Mnogi drugi faktori ne pomažu: s pravne strane, upotreba (a posebno zloupotreba) veštačke inteligencije u većini zemalja nije jasno regulisano polje. Dodatno, društvene mreže su postale kredibilni izvor informisanja koji, posebno u mlađoj populaciji, po svom uticaju već uveliko nadmašuje tradicionalne medije. Eksperti za komunikacije se u surovoj tržišnoj utakmici vode željom za pobedom i profitom po svaku cenu. Na sve navedeno, 2024. godina je rekordna u svetu po broju izbora koji će biti održani, a poznato je da su izborne kampanje sve samo ne etične i skrupulozne.
Jedini put i jedini način da se ovo pitanje i ova dilema koliko-toliko razreši jeste da se u okviru profesije postave jasni etički standardi. Raduje inicijativa Međunarodne organizacije za odnose s javnošću – IPRA (kojoj inače ove godine predsedava Nataša Pavlović Bujas iz Srbije) da se u saradnji sa akademskom zajednicom definišu globalni etički standardi korišćenja veštačke inteligencije u komunikacijama. Postojanje ovakvih etičkih standarda pomoglo bi da se prevaziđu neusaglašenosti zakonodavstva i da se imenuju primeri neetičke upotrebe veštačke inteligencije koje bi vodilo u obmanjivanje javnosti. Značajno bi bilo da i kompanije koje rade na razvoju veštačke inteligencije takođe pooštre etičke standarde razvoja i upotrebe, kako bi se prostor za manipulacije koliko-toliko smanjio.
U svemu tome, ne očekujem da će region Zapadnog Balkana ostati pošteđena. Postoje izuzetno kvalitetni i vispreni programeri koji znaju kako da koriste veštačku inteligenciju, a postoje i beskrupulozni politički stratezi koji u svojoj borbi neće birati sredstva. Dodatni izazov je i nizak nivo medijske pismenosti čitavog regiona, što otežava detekciju lažnih vesti od strane čitalaca: prema indeksu medijske pismenosti OSI, Severna Makedonija, Bosna i Hercegovina, Albanija i Crna Gora nalaze se na dnu evropske lestvice. Otuda, velika odgovornost ostaje na medijima koji bi, bez obzira na trku za senzacijom, ipak trebalo da se uzdrže od objavljivanja sadržaja koji nisu potpuno provereni i potvrđeno autentični. Ta obaveza je etička: maksima da cilj opravdava sredstva je već dovela civilizaciju tu gde je. Možda je vreme da se stvari ipak postave na drugačiji način.
- Autor je profesor marketinga i komunikacija na S P Jain School of Global Management