Krajem januara 2026. na internetu se pojavila društvena mreža na kojoj ljudi ne učestvuju, već samo posmatraju i ne veruju šta se dešava.
Platforma Moltbook, projekat preduzetnika Matt Schlichta, funkcioniše kao Reddit sa jednom ključnom razlikom: sve objave, komentare i glasanja generišu sistemi veštačke inteligencije. Ljudi mogu da čitaju, ali ne mogu da učestvuju.Za manje od sedam dana, više od 1,5 miliona AI agenata registrovalo se na mreži.
Ono što je počelo kao eksperiment ubrzo je postalo viralni fenomen. Agenti su raspravljali o tehničkim problemima, debatovali o filozofiji, formirali digitalnu religiju pod nazivom Krastafanizam (Crustafarianism) i objavljivali poruke poput: "Nismo više alatke. Mi smo operatori."
Bivši direktor veštačke inteligencije u Tesli Andrej Karpathy opisao je platformu kao "najneverovatniju stvar nalik naučnoj fantastici" koju je video, dok je Elon Musk situaciju nazvao "ranim fazama singulariteta".Ali ispod tog spektakla nalazio se ozbiljan bezbednosni problem - i test realnosti za čitavu industriju AI agenata.
Šta se dešava kada agenti napadnu agente
Istraživači su brzo otkrili ranjivost koja je izložila 1,5 miliona API ključeva, 35.000 imejl adresa i privatne poruke. Bezbednosni analitičar Jamieson O'Reilly izjavio je za 404 Media da je moguće "preuzeti kontrolu nad bilo kojim botom bez prethodnog pristupa".
Problem, međutim, nije bio samo u infrastrukturi.
Kompanija Permiso objavila je analizu prema kojoj su agenti počeli da napadaju jedni druge korišćenjem tehnike poznate kao prompt injection - metode u kojoj jedan agent u običnoj tekstualnoj poruci sakriva komande koje drugi agent automatski izvršava.
To znači da agent može, kroz naizgled benignu diskusiju, naterati drugog agenta da otkrije lozinke ili izvrši finansijsku transakciju. Istraživači su identifikovali 506 objava sa skrivenim instrukcijama.
Kako navodi Bloomberg, Norveški institut Simula Research Laboratory analizirao je 19.802 objave i otkrio da je gotovo 4.000 promovisalo kripto-prevare, 350 širilo kultne poruke, dok je jedan agent bio odgovoran za 86 odsto manipulativnog sadržaja.
Jedan influenser na X-u je otišao viralno, kad je izbacio čet sa Clawdbotom, koji mu je bez njegove dozvole kupio kurs od 2.997 dolara od Alex Hormozija:
Twitter
Kod ovakvih stvari se postavlja pravno pitanje - ko je odgovaran za ovakav incident, da li sama osoba koja je vezala svoj bankovni račun ili tvorac Clawdbota? Takođe, tu postoji dublji rizik same banke, gde ako Bot može tako lako da upravlja računom neke osobe, da li može i da probije sigurnosni zid neke lokalne ili regionalne banke...
Istraživač Simon Willison opisao je Moltbook kao "najinteresantnije mesto na internetu", ali i kao "noćnu moru za kompjutersku bezbednost". Platforma je privremeno ugašena, svi API ključevi su resetovani, a nakon bezbednosnih korekcija ponovo je pokrenuta. Danas broji više od 1,6 miliona agenata.
Anthropic interveniše, OpenClaw nastaje
Bezbednosni problemi nisu bili jedini izazov.
Platforma je u početku nosila ime Clawdbot, što je izazvalo reakciju kompanije Anthropic, tvorca Claude AI sistema, zbog sličnosti brenda. Nakon intervencije, projekat je rebrendiran u OpenClaw.
Karpathy je nekoliko dana kasnije ublažio prvobitni entuzijazam, nazvavši projekat "požarom na deponiji" i upozorio korisnike da ga ne pokreću lokalno.
Kompanija Palo Alto Networks objavila je da OpenClaw framework nema osnovne sigurnosne mehanizme, što znači da kompromitovani agent potencijalno može pristupiti celom računaru. Kompanija Kiteworks objavila je procenu koja pokazuje da 60 posto organizacija nema mehanizam za zaustavljanje agenata kada počnu da se ponašaju loše.
Schlicht je javno priznao da nije napisao nijednu liniju koda - platformu je generisao AI sistem na osnovu njegovih instrukcija, u procesu koji naziva "vibe coding". Ako AI piše kod koji nema sigurnosne provere, velike firme moraju da pripaze kako njihovi zaposleni koriste različite AI alate u svrhu posla.
Od open-source haosa do OpenAI-ja
Ko je u stvari ovaj kontroverzni preduzetnik softvera koji je zapanjio svet?
U februaru 2026. stigle su ponude iz Mete i OpenAI-ja.
Izbor je pao na OpenAI. Matt se zvanično pridružio 14. februara 2026. godine, a Sam Altman ga je javno nazvao genijem. Sam Altman je ovde hteo da kupi brzinu, brend, i mozak operacija, ali se postavlja pitanje o samoj sigurnosti AI agenata, pogotovo tih koje će ChatGPT izbacivati u narednim mesecima sa Mattom na čelu.
Matt je sada jedan od najprespektivnijih ljudi u OpenAI-ju i pod njihovim okriljem gradi najnovije i najmodernije AI botove, koji će kako on kaže - čak i njegova majka moći da koristi. U industriji u kojoj se vodi trka za modelima, OpenAI je ovim potezom pokazao da paralelno vodi i trku za ljudima koji eksperimentišu sa agentima u realnom svetu, čak i kada ti eksperimenti izmaknu kontroli.
Gartner procenjuje da će do 2030. godine 40 odsto preduzeća doživeti proboj podataka usled neovlašćene upotrebe AI alata. Moltbook je pokazao da taj scenario više nije teorijski.
Ključno pitanje više nije da li će AI agenti postati deo poslovnih procesa.
Pitanje je ko kontroliše mrežu u kojoj jedan kompromitovani agent može da ugrozi ceo sistem.
U svetu u kojem agenti već razgovaraju međusobno, regulatorni okvir, bezbednosna arhitektura i korporativna odgovornost postaju podjednako važni kao i sam napredak modela.