Svet je preplavljen dipfejkovima - video i audio zapisima ili slikama zbog kojih se čini da ljudi rade ili govore stvari koje nikada nisu uradili ili izgovorili, ili se nalaze na mestima na kojima nikada nisu bili. Mnogi dipfejkovi su osmišljeni da daju kredibilitet lažima i da nanesu štetu ugledu političara i drugih javnih ličnosti. Ipak, većina dipfejkova su eksplicitni video-snimci i slike gde su lica poznatih ličnosti zalepljene na telo nekog drugog. To je ono što se dogodilo krajem januara, kada su se lažne eksplicitne slike pop zvezde Taylor Swift našle na društvenim mrežama. Sada kada veštačka inteligencija omogućava skoro svakome da napravi realistične slike i zvuk za samo nekoliko klikova na ekranu, sve je teže proceniti da li je ono što vidite i čujete na mrežama stvarno.
1. Šta se dogodilo Taylor Swift
Lažne slike Taylor Swift osvanule su na društvenim mrežama, što je izazvalo gnev hordi njenih obožavalaca. Mnoge od njih su se pojavile na X, mreži ranije poznatoj kao Twitter, koja je saopštila da radi na uklanjanju "svih identifikovanih slika" i da će preduzeti "odgovarajuće mere" protiv onih koji su ih postavili. Jedan post je ostao na mreži oko 17 sati i imao je više od 45 miliona pregleda, prenosi Verge, što pokazuje da slike mogu postati viralne mnogo pre nego što se preduzmu mere da se njihovo širenje zaustavi. Kasnije je X blokirao sadržaj o Swift, prikazujući poruku: “Nešto je pošlo naopako. Pokušajte ponovo da učitate stranicu” kada se pretraži njeno ime. Ovaj događaj vezan za pop zvezdu zabrinuo je Belu kuću, koja je saopštila da bi Kongres trebalo da razmotri zakone koji bi se pozabavili lažnim, uvredljivim slikama koje se šire po internetu.
2. Gde su još dipfejkovi bili u vestima
Ranije u januaru, Xochitl Gomez, 17-godišnja glumica iz Marvelovih filmova, rekla je da je pronašla seksualno eksplicitne dipfejkove sa svojim licem na društvenim mrežama i da nije uspela da ukloni materijal, izvestio je NBC News. Dipfejkovi su se takođe pojavljivali u toku američke predsedničke kampanje za izbore 2024. godine. Stanovnici Nju Hempšira primili su automatizovani poziv pre unutarstanačkih predsedničkih izbora u toj državi, a glas je zvučao kao predsednik Joe Biden koji ih poziva da ostanu kod kuće i „sačuvaju svoj glas za novembarske izbore“. Glas je čak izgovorio jednu od Bidenovih uzrečica: „Kakva gomila gluposti”.
Opširnije
Kako su izbori u Pakistanu otvorili Pandorinu kutiju dipfejka?
Način na koji je AI upotrebljena na poslednjim izborima u Pakistanu otvaraju Pandorinu kutiju problema i dilema.
19.02.2024
Sve više aplikacija koje uz pomoć AI-ja razgolićuju žene
Aplikacije koje koriste veštačku inteligenciju za skidanje žena na fotografijama beleže veliki rast popularnosti, tvrde istraživači.
08.12.2023
3. Kako se prave dipfejk video-snimci
Često se prave korišćenjem AI algoritma koji je obučen da prepozna obrasce u stvarnim video-snimcima određene osobe, što je proces poznat kao duboko učenje. Tada je moguće zameniti element jednog videa, kao što je nečije lice, drugim delom sadržaja, a da to ne izgleda kao gruba montaža. Manipulacije najviše obmanjuju kada se na to doda kloniranje glasa, koje razbija audio- snimak govora u delove od pola sloga koji se mogu ponovo sastaviti u nove reči, te deluje kao da ih je izgovorila osoba na originalnom snimku.
4. Kako je dipfejk tehnologija uzela maha
Tehnologija je u početku bila domen akademika i istraživača. Međutim, Motherboard, magazin Vicea, izvestila je 2017. da je korisnik Reddita pod nazivom “deepfakes“ osmislio algoritam za pravljenje lažnih video-snimaka korišćenjem otvorenog koda. Reddit je banovao korisnika, ali se praksa proširila. U početku, dipfejk je zahtevao već postojeći video i pravi glas, zajedno sa veštinama montaže. Današnji generativni sistemi veštačke inteligencije omogućavaju korisnicima da proizvedu ubedljive slike i video-zapise iz jednostavnih pisanih uputstava. Zamolite računar da napravi video koji stavlja reči u nečija usta i on će to uraditi. Digitalne krivotvorine postalo je teže uočiti jer kompanije koje se bave veštačkom inteligencijom primenjuju nove alate na ogromnom broju materijala koji je dostupan na vebu, od YouTubea do stok fotografija slika i galerija videa.
5. Koji još primeri dipfejkova postoje
Kineski “trolovi” su širili izmenjene slike šumskih požara u avgustu na havajskom ostrvu Maui kako bi podržali tvrdnju da ih je napalo tajno oružje za upravljanje vremenom koje testiraju SAD. U maju 2023. američke akcije su nakratko pale nakon što se na internetu proširila slika na kojoj se činilo da Pentagon gori. Stručnjaci su rekli da lažna slika ima obeležja da ju je generisala veštačka inteligencija. Tog februara pojavio se audio-snimak gde se činilo da nigerijski predsednički kandidat Atiku Abubakar planira da namesti glasanje tog meseca. Godine 2021. na društvenim mrežama se pojavio video koji traje minut i na kom se vidi kako ukrajinski predsednik Volodimir Zelenski govori svojim vojnicima da polože oružje i predaju se Rusiji.
6. Šta je ovde opasno
Postoji opasnost da će dipfejkovi na kraju postati toliko ubedljivi da će biti nemoguće razlikovati šta je stvarno od onoga što je izmišljeno. Zamislite prevarante koji manipulišu cenama akcija tako što prave falsifikovane video-snimke izvršnih direktora koji objavljuju vesti o kompanijama, ili falsifikovane video-snimke vojnika koji čine ratne zločine. Političari, biznis lideri i poznate ličnosti su posebno ugroženi, s obzirom na to koliko je njihovih snimaka dostupno. Tehnologija omogućava takozvanu osvetničku pornografiju čak i ako ne postoji stvarna fotografija ili video na kojoj je osoba gola, a žene su najčešća meta. Jednom kada video postane viralan na internetu, gotovo ga je nemoguće skloniti. Postoji i zabrinutost da će širenje svesti o dipfejkovima olakšati ljudima koji su zaista snimljeni kako rade ili govore nepoželjne ili nezakonite stvari da tvrde da su dokazi protiv njih lažni. Neki ljudi već koriste to da se brane na sudu.
7. Da li se nešto radi povodom toga
Vrstu mašinskog učenja koja proizvodi dipfejk teško je otkriti. Ipak, nekoliko startapa kao što su Sensity AI sa sedištem u Holandiji i Sentinel sa sedištem u Estoniji, razvijaju tehnologiju detekcije, kao i mnoge velike američke tehnološke kompanije. Intel Corp. lansirala je proizvod FakeCatcher u novembru 2022. godine, za koji kaže da može da otkrije lažni video sa 96 odsto tačnosti posmatranjem suptilnih promena boje na koži subjekta uzrokovanih protokom krvi. Kompanije kao što je Microsoft Corp. obavezale su se da će ugraditi digitalne vodene žigove u slike napravljene pomoću njihovih AI alata kako bi bile prepoznate kao lažne. Američka državna zakonodavna tela krenula su brže od Kongresa da se bave neposrednom štetom koju stvara veštačka inteligencija. Nekoliko država je donelo zakone koji regulišu dipfejkove, uglavnom u kontekstu pornografije i izbora. Predloženi zakon Evropske unije o veštačkoj inteligenciji zahtevao bi da platforme označavaju dipfejkove kao takve.
Prevela Hana Stevović – Bloomberg Adria