Odluka Donalda Trumpa da 27. februara 2026. naredi svim saveznim agencijama da odmah obustave korišćenje tehnologije kompanije Anthropic delovala je kao još jedna politička poruka Vašingtona. Ali nekoliko sati kasnije, kada je OpenAI objavio da ga preuzima, u ugovoru s Pentagonom vrednim do 200 miliona dolara, postalo je jasno da je u pitanju redefinisanje odnosa između privatnih AI kompanija i nacionalne bezbednosti.
Međutim, samo nekoliko dana kasnije, veliki deo Silicijumske doline takođe je stao u odbranu Amodeija. Tehnološke organizacije koje predstavljaju velike kompanije, uključujući Alphabet Inc. Google, Amazon i Apple, pozivaju predsednika Donalda Trumpa da preispita odluku o označavanju kompanije Anthropic kao rizik po nacionalnu bezbednost, upozoravajući da bi takva odluka mogla da izazove štetne domino-efekte za čitavu tehnološku industriju.
Nakon ovoga, Anthropic se vraća u igru i nastavljaju se pregovori sa Pentagonom. Ali šta se ovde u stvari dešava?
Princip koji košta 200 miliona dolara
Anthropic je prošlog leta potpisao ugovor s Pentagonom vredan do 200 miliona dolara i bio jedini model veštačke inteligencije operativan u poverljivim vojnim mrežama. Claude je analizirao obaveštajne podatke, prevodio, sažimao izveštaje i ubrzavao administrativne procese - bez donošenja odluka o upotrebi sile.
Ugovor je imao dve jasne granice: zabranu masovnog nadzora sopstvenih građana i zabranu autonomnih oružanih sistema bez čoveka u komandnom lancu. Pentagon je tvrdio da te granice nikada nije prekršio, ali je insistirao da u novom ugovoru one formalno ne postoje.
Razlog: vojska, kako su naveli, ne može u realnom vremenu da pregovara s privatnom kompanijom o tumačenju njenog kodeksa ponašanja. Dario Amodei, izvršni direktor Anthropica, odgovorio je da kompanija "u dobroj savesti ne može pristati" na takav zahtev.
Nakon ove izjave, ministar odbrane Pete Hegseth je Anthropic označio kao "rizik u lancu snabdevanja za nacionalnu bezbednost", formulaciju koja se uobičajeno koristi za strane protivnike. Ubrzo je stigla predsednička naredba o prekidu saradnje.
Paradoks je usledio istog dana: Sam Altman je zaposlenima poručio da OpenAI deli ista ograničenja - zabranu masovnog nadzora i autonomnih smrtonosnih sistema. Do večeri je, međutim, OpenAI potpisao ugovor s Pentagonom uz gotovo identičan tekst koji je prethodno bio sporan.
Ključno pitanje ostaje da li su ograničenja zaista identična
U internim dokumentima, Anthropic je definisao zabranu autonomnog oružja kao sisteme koji mogu da identifikuju, odaberu i napadnu metu bez ljudske intervencije u realnom vremenu. OpenAI je, prema dostupnim smernicama, koristio sličnu formulaciju, ali sa dodatnim prostorom za tumačenje u situacijama u kojima čovek ostaje "u nadzornoj ulozi".
Ta razlika između potpune zabrane i modela sa nadzornim mehanizmom može biti presudna. U vojnoj praksi, pitanje nije da li čovek postoji u lancu odlučivanja, već u kom trenutku i sa kojim stepenom kontrole.
Pentagon nije objasnio razliku.
Takođe formulacija "rizik u lancu snabdevanja" ima daleko šire posledice od jednog ugovora. U američkom regulatornom okviru, taj termin ne pogađa samo primarnog dobavljača, već i sve kompanije koje njegovu tehnologiju integrišu u sopstvena rešenja za državu.
Ako sistem integrator koristi Claude u analitičkom softveru za federalne agencije, postavlja se pitanje da li i taj integrator postaje bezbednosno problematičan.
U praksi, oznaka rizika može da zahteva reviziju čitavog tehnološkog lanca - od glavnog ugovarača do regionalnih podizvođača. To uključuje velike američke firme kao što je Palantir Technologies, ali i manje evropske i regionalne integratore koji rade na američkim tenderima.
U takvom okviru, tehnološki izbor više nije samo inženjerska odluka, već deo bezbednosne procene.
Anthropic je pokrenuo pravne korake, tvrdeći da oznaka može da važi samo za direktne vojne ugovore, a ne i za komercijalnu upotrebu. Ali pravna neizvesnost je već proizvela tržišnu posledicu: reputacioni rizik.
Međutim, nekoliko dana kasnije, ova vest se proširila industrijom i velike firme su se udružile protiv predsednika i stale uz Anthropic. Nije jasno tačno šta se dešavalo između "zatvorenih vrata", ali su pregovori između Pentagona i Anthropica opet otvoreni, a ugovor sa OpenAI-jem je stavljen na pauzu.
AI softveri dobijaju geopolitički pečat, a za firme iz Adria regiona koje posluju sa Zapadom ovo je signal uzbune
Decenijama su kompanije birale softverske dobavljače po ceni, performansama i podršci. Geopolitika je bila rezervisana za energetiku i telekomunikacije. Ova odluka pokazuje da je veštačka inteligencija ušla u istu kategoriju.
To otvara šire pitanje: da li su pravila u AI industriji stvar tehničkih standarda ili političke lojalnosti? Ako jedna administracija može jednostrano da promeni poziciju dobavljača od "strateškog partnera" do "bezbednosnog rizika", i time da utiče na potencijalno uništavanje privatne kompanije, onda svaki biznis koji koristi AI mora da razmišlja dugoročnije.
Jer pitanje više nije samo koji model koristimo, već šta se dešava ako taj model preko noći postane politički problem.
Za kompanije u centralnoj i istočnoj Evropi koje razvijaju AI rešenja za zapadna tržišta, to je signal upozorenja.
Region poslednjih godina gradi reputaciju kroz projekte u oblasti odbrane, sajber-bezbednosti i analitike podataka. Ali ako američko tržište počne da zahteva formalnu usklađenost sa bezbednosnim doktrinama, tada "etički AI" može postati barijera za ulazak u vojno-industrijski sektor, a i mnoge druge.
Pitanje za startape iz Adria regiona više nije samo kako da razviju konkurentan model, već i kako da usklade interne politike sa regulatornim očekivanjima tržišta koja će u narednoj deceniji vredeti bilione dolara.