Banke sve brže uvode veštačku inteligenciju u svoje procese, od personalizacije usluga do borbe protiv prevara. Istovremeno rastu i regulatorni zahtevi: dok tehnologija napreduje, Evropska unija kroz Uredbu o veštačkoj inteligenciji (engl. AI Act) uvodi stroga pravila kako bi se obezbedilo da automatizovane odluke budu transparentne, pravične i u skladu sa temeljnim pravima građana.
Za Bloomberg Adriju Ivana Jolić iz Hrvatske narodne banke objašnjava kako se tom uredbom postavljaju jasna pravila o transparentnosti, sprečavanju diskriminacije i zabranjenim praksama poput "social scoringa", te ukazuje gde su najveće prilike, a gde granice primene veštačke inteligencije u proceni kreditne sposobnosti građana.
Opširnije
Veštačka inteligencija i budućnost upravljanja rizicima u bankarstvu
Predsednik Udruženja profesionalnih menadžera rizika u BiH (UPRMBiH) i član Upravnog odbora Sparkasse Bank BiH Igor Jokić govori o uticaju veštačke inteligencije na bankarski sektor
29.10.2025
Beograd domaćin Visa SEE Cashless Foruma - AI pokreće novu eru e-trgovine
Neke ključne teme ovog foruma bile su trgovina pomoću veštačke inteligencije (artificial intelligence - AI) i AI agenti, digitalni identitet, zatim hiperpersonalizovana korisnička iskustva, bezbednost i jednostavnost plaćanja, kao i uloga prekograničnih transfera novca u podsticanju finansijske inkluzije kako u regionu, tako i širom sveta.
13.09.2025
Forum ECB: Da li će biti novog smanjenja kamatnih stopa
Ovo leto moglo bi da bude prekretnica za status dolara, a smanjenje kamatnih stopa u Americi moglo bi da se dogodi već u julu, samo su neke od poruka sa Foruma Evropske centralne banke
02.07.2025
Može li Srbija da uhvati korak sa trendovima klimatskog bankarstva
Zelene i održive obveznice tek počinju da se pojavljuju u Adria regionu, a banke su suočene sa sve većim zahtevima klijenata.
12.06.2025
Digitalna transformacija bankarskog sektora
Da je bankarstvo posebno pogodno za primenu veštačke inteligencije, smatra i Jolić. Banke raspolažu mnoštvom pouzdanih istorijskih podataka, a priroda problema s kojima se susreću uglavnom je kvantitativna, poput procene verovatnoće neispunjavanja kreditnih obaveza ili izračunavanja potencijalnog gubitka.
Ivana Jolić
Ove ocene potvrđuju i nalazi Evropskog nadzornog tela za bankarstvo (EBA), prema kojima je evropski bankarski sektor poslednjih godina prošao kroz značajnu digitalnu transformaciju. Banke sve intenzivnije koriste napredne tehnologije, uključujući veštačku inteligenciju. Najčešće se primenjuje radi unapređenja korisničkog iskustva kroz profilisanje i segmentaciju klijenata i transakcija, prvenstveno u komercijalne svrhe, poput marketinga i prodaje.
Veštačka inteligencija se široko koristi i u otkrivanju finansijskih prevara, sprečavanju pranja novca i finansiranja terorizma (AML/CFT), korisničkoj podršci putem četbotova, kao i u optimizaciji internih procesa. Reč je o slučajevima upotrebe koji, prema AI Actu, uglavnom ne spadaju u kategoriju visokorizičnih sistema i zato podležu blažoj regulativi.
"Ovi slučajevi primene veštačke inteligencije u skladu su s trendovima koje EBA u svojim istraživanjima uočava i prethodnih godina, pa je realno očekivati da će se rast primene veštačke inteligencije u tim oblastima nastaviti", zaključuje Jolić.
Kada je reč o primeni veštačke inteligencije za procenu kreditne sposobnosti fizičkih lica ili utvrđivanje njihovog kreditnog rejtinga, Jolić smatra da će njena uloga tu ipak biti manje izražena nego u drugim oblastima. Kao najveću prepreku navodi objašnjivost rezultata koje generiše veštačka inteligencija. Banke moraju biti u stanju da te rezultate objasne ne samo internim korisnicima, prodaji, menadžmentu i supervizoru, već i samim klijentima, naročito u slučajevima kada kredit nije odobren.
Regulatorni izazovi i AI Act
U regulatornom smislu situacija je dodatno složena. U preambuli AI Acta navodi se da se AI sistemi koji se koriste u bonitetne svrhe, na primer za izračun kapitalnih zahteva kreditnih institucija, ne bi trebalo smatrati visokorizičnim. Međutim, isto nije navedeno u Prilogu III, gde je definisana lista visokorizičnih sistema. Istovremeno, veštačka inteligencija za otkrivanje finansijskih prevara izričito je navedena kao izuzetak i u preambuli i u Prilogu III AI Acta.
Jolić objašnjava da je reč o internim modelima koji se primenjuju u okviru IRB pristupa za proračun kapitalnih zahteva za kreditni rizik i koji na prvi pogled ne narušavaju ničija osnovna prava. Ipak, da bi supervizor odobrio primenu IRB modela, oni moraju ispuniti niz zahteva, a jedan od ključnih je takozvani "use test". IRB modeli moraju imati značajnu ulogu u upravljanju rizicima i donošenju odluka, uključujući i procese odobravanja kredita.
Ako su ti modeli zasnovani na veštačkoj inteligenciji i koriste se za procenu kreditne sposobnosti fizičkih lica ili utvrđivanje njihovog kreditnog rejtinga, na njih se, bez obzira na bonitetnu svrhu, primenjuje i AI Act.
despositphotos
Jolić naglašava da je bankarstvo visoko regulisana industrija i da je poverenje deponenata ključno. Uz već obiman okvir prudencijalne regulative, AI Act se nadovezuje kao komplementarna uredba postojećim propisima koji uređuju bankarsko poslovanje. Reč je o prvom primeru horizontalne regulative te vrste u svetu: ona se ne odnosi samo na finansijsku industriju, već reguliše čitav niz primena veštačke inteligencije.
Primene veštačke inteligencije u AI Actu podeljene su u četiri nivoa rizika. Prvi obuhvata zabranjene prakse, među kojima su subliminalne tehnike, predviđanje verovatnoće da će pojedinac počiniti krivično delo i različiti oblici socijalnog ocenjivanja. Druga kategorija odnosi se na visokorizične sisteme, na koje se fokusira najveći deo regulative. Za bankarstvo je to posebno važno, jer tu spadaju AI rešenja za procenu kreditne sposobnosti i određivanje kreditnog rejtinga građana, osim sistema za otkrivanje prevara. Treća kategorija obuhvata primene ograničenog rizika, poput četbotova ili dipfejk tehnologije, za koje važe zahtevi transparentnosti. Četvrta grupa odnosi se na minimalan rizik, poput veštačke inteligencije u video-igrama ili spam filtera, i ne podleže regulaciji.
Svrha AI Acta je, navodi Jolić, unapređenje funkcionisanja unutrašnjeg tržišta i podsticanje uvođenja antropocentrične i pouzdane veštačke inteligencije, uz istovremeno obezbeđivanje visokog nivoa zaštite zdravlja, bezbednosti i temeljnih prava.
"Pristup finansijskim resursima ili osnovnim uslugama, poput stanovanja, posmatra se kao temeljno pravo građana Evropske unije i zato se posebno štiti ovom uredbom – cilj je da se spreči da neka automatska odluka koju donese veštačka inteligencija građanima neopravdano uskrati pravo na kredit", kaže Jolić.
Kao jedan od najvećih izazova za evropske regulatore navodi precizno definisanje šta se sve smatra veštačkom inteligencijom, s obzirom na to da je reč o tehnologiji koja se brzo menja i razvija.
Izazovi u sprečavanju diskriminacije AI modela
Sprečavanje diskriminacije u AI modelima biće jedan od najvećih izazova u njihovoj primeni. „I mi supervizori, kao i kolege u bankama koji razvijaju, validiraju i implementiraju modele, želimo da model ima dobru diskriminatornu snagu, da jasno razdvaja dobre od loših dužnika“, objašnjava Jolić. Međutim, ako model ima slabiju diskriminatornu snagu zato što ne sme da sadrži određene varijable koje jesu prediktivne, postavlja se ključno pitanje da li to može dovesti do viših parametara rizika i, posledično, skupljih kredita.
Dodatnu složenost donosi činjenica da AI Act nije holistička regulativa. On se primenjuje zajedno s ostalim propisima koji se odnose na bankarsko poslovanje, ali i sa regulativom o zaštiti podataka (GDPR), nediskriminacionim pravom, propisima o zaštiti potrošača i slično.
U tom kontekstu, objašnjava Jolić, ne radi se o "diskriminaciji" u smislu razdvajanja dobrih i loših dužnika, već o tome da se AI sistemi ne dovedu u situaciju da diskriminišu pojedince ili grupe i da perpetuiraju istorijske obrasce diskriminacije. To obuhvata diskriminaciju po osnovu rasnog ili etničkog porekla, pola, invaliditeta, starosti ili seksualne orijentacije, ali i stvaranje novih diskriminatornih efekata.
"Izazov će biti osmisliti metrike kojima će se utvrđivati da li je veštačka inteligencija eventualno diskriminisala klijente banke po nekoj od varijabli koje nisu dozvoljene", smatra Jolić.
Može li banka da koristi podatke sa Facebooka
Iako veštačka inteligencija tehnološki omogućava obradu i korišćenje nestrukturiranih podataka, uključujući i one sa društvenih mreža, regulatorni okvir postavlja jasna ograničenja. Na primer, Direktiva EU 2023/2025 o ugovorima o potrošačkim kreditima izričito zabranjuje korišćenje podataka sa društvenih mreža. Zanimljivo je da takva zabrana (još) ne postoji u direktivi koja se odnosi na stambene kredite, što otvara pitanje da li bi u tom segmentu takva praksa bila dozvoljena.
Depositphotos
Jolić navodi da se odgovor ne može posmatrati isključivo kroz jednu direktivu. AI Act dodatno uvodi ograničenja u oblasti zabranjenih praksi, među kojima se posebno izdvaja socijalno ocenjivanje. U Smernicama o zabranjenim praksama, Evropska komisija navodi da pojedini sistemi za procenu kreditne sposobnosti mogu predstavljati oblik profilisanja i dovesti do evaluacije ili klasifikacije fizičkih lica na osnovu njihovog društvenog ponašanja, ličnih obeležja ili osobina ličnosti, što je u određenim oblicima prema AI Actu nedozvoljeno.
Na primer, otplata duga smatra se elementom društvenog ponašanja, dok lične karakteristike obuhvataju podatke poput prihoda, broja članova domaćinstva ili zaduženosti, ali potencijalno i informacije dostupne na društvenim mrežama. Iako su prihodi i zaduženost relevantni za odlučivanje o kreditu, podaci sa platformi poput Facebooka uglavnom ne potiču iz povezanog društvenog konteksta.
"Ako bi se u proceni kreditne sposobnosti fizičkih lica ili određivanju njihovog kreditnog rejtinga koristile informacije koje nisu iz povezanog društvenog konteksta, poput podataka sa Facebooka, i ako bi takva upotreba dovela do nepovoljnog postupanja prema pojedincu, to bi predstavljalo 'social scoring', što prema AI Actu spada u kategorički zabranjene prakse", zaključuje naša sagovornica.
- Radi se o ličnim stavovima autorke, koji nisu nužno stavovi institucije u kojoj je zaposlena.