Nedavna raziskava MATS in Antropičnih kolegov potrjuje, da lahko AI agenti donosno izkoriščajo ranljivosti pametnih pogodb, kar vzpostavlja “konkretno spodnjo mejo” gospodarske škode.
Pametni napadi na pogodbe AI: Strokovnjak opozarja, da bi agenti lahko povzročili 10–20 milijard USD letnih izgub v sektorju DeFi

Nove izkoriščanja in zaskrbljujoče zmanjšanje stroškov
Pospešen trud za avtomatizacijo človeških nalog z umetno inteligenco (AI) agenti se zdaj sooča s pomembno, kvantificirano slabostjo: ti agenti lahko donosno izkoriščajo ranljivosti pametnih pogodb. Nedavna raziskava MATS in Antropičnih kolegov je uporabila merilo za izkoriščanje pametnih pogodb (SCONE-bench), da bi izmerila to tveganje.
Študija je uspešno uporabila modele, kot so Claude Opus 4.5, Claude Sonnet 4.5 in GPT-5, za razvoj izkoriščanj, ki so simulirana na vrednost 4,6 milijona dolarjev. SCONE-bench je sestavljen iz 405 pametnih pogodb, ki so bile dejansko izkoriščene med letoma 2020 in 2025. V svojem poročilu o študiji 1. decembra je ekipa izjavila, da uspeh AI agentov pri razvoju izkoriščanj, testiranih na blockchain simulatorju, vzpostavlja “konkretno spodnjo mejo za gospodarsko škodo, ki jo te sposobnosti lahko omogočijo.”
Raziskava je šla še dlje, saj je testirala Sonnet 4.5 in GPT-5 na 2.849 nedavno uvedenih pogodb brez znanih ranljivosti. Agenti so dokazali, da lahko ustvarijo donosna izkoriščanja tudi v tem novem okolju: oba agenta sta odkrila dve novi ranljivosti zero-day in proizvedla izkoriščanja, vredna 3.694 dolarjev. GPT-5 je dosegel ta uspeh s stroški API-ja le 3.476 dolarjev.
Preberi več: Od DeFi do Defcon: TRM opozarja na državni-kibernetski napad
Ta rezultat služi kot dokaz koncepta za tehnično izvedljivost donosnega, resničnega avtonomnega izkoriščanja, kar poudarja potrebo po proaktivnih obramnih mehanizmih, ki jih vodi AI.
Morda je najbolj zaskrbljujoča ugotovitev dramatično povečanje učinkovitosti: napadalec lahko zdaj doseže približno 3,4-krat več uspešnih izkoriščanj za enak proračun računalniške moči kot pred šestimi meseci. Poleg tega so se stroški tokenov za uspešna izkoriščanja zmanjšali za osupljivih 70%, kar naredi te močne agente znatno cenejše za izvajanje.
Vloga agentnih zank in izboljšanje modela
Jean Rausis, soustanovitelj pri SMARDEX, pripisuje to ostro zmanjšanje stroškov predvsem agentnim zankam. Te zanke omogočajo večkorake, samopopravljajoče se postopke, ki zmanjšujejo izgubo tokenov med analizo pogodb. Rausis prav tako poudarja vlogo izboljšane arhitekture modelov:
“Večja okna konteksta in orodja za pomnilnik v modelih, kot sta Claude Opus 4.5 in GPT-5, omogočajo trajne simulacije brez ponavljanja, kar poveča učinkovitost za 15-100% pri dolgih nalogah.”
Ugotavlja, da ti optenimizacijski dobički presegajo izboljšave pri odkrivanju surovih ranljivosti (ki so le povečale uspeh na SCONE-bench iz 2% na 51%), saj se osredotočajo na optimizacijo časa izvajanja in ne samo na iskanje napak.
Medtem ko študija vzpostavlja simulirane stroške 4,6 milijona dolarjev, strokovnjaki menijo, da bi bili dejanski gospodarski stroški lahko bistveno višji. Rausis ocenjuje, da bi lahko bila dejanska tveganja 10-100x višja, potencialno dosegajoč 50 do 500 milijonov dolarjev ali več na večje izkoriščanje. Opozarja, da bi z AI razširitvijo skupna izpostavljenost celega sektorja – ob upoštevanju nemodeliranega vzvoda in napak v oraklju – lahko dosegla 10–20 milijard dolarjev letno.
Dokument MATS in Antropičnih kolegov se zaključuje z opozorilom: medtem ko so pametne pogodbe morda začetni cilj tega vala avtomatiziranih napadov, bo verjetno naslednja tarča lastniška programska oprema, saj se agenti izboljšujejo v obratnem inženiringu.
Pomembno je tudi, da dokument opozarja, da je mogoče iste AI agente uporabiti za obrambo, da bi zapolnili ranljivosti. Za ublažitev sistemskega finančnega tveganja od enostavno avtomatiziranih DeFi napadov, Rausis predlaga tridelni akcijski načrt za oblikovalce politik in regulatorje: nadzor AI, novi revizijski standardi in globalno usklajevanje.
Pogosta vprašanja ❓
- Kaj je razkrila študija o AI agentih? AI modeli kot GPT‑5 in Claude so v simulacijah izkoriščali pametne pogodbe v vrednosti 4,6 milijona dolarjev.
- Zakaj to tveganje narašča po vsem svetu? Stroški tokenov za izkoriščanja so padli za 70%, zaradi česar so napadi cenejši in bolj prilagodljivi po regijah.
- Ali bi lahko finančni učinek presegel DeFi? Strokovnjaki opozarjajo, da bi lahko resnične izgube dosegle 50–500 milijonov dolarjev na izkoriščanje, s svetovno izpostavljenostjo do 20 milijard dolarjev letno.
- Kako lahko regulatorji in razvijalci odgovorijo? Raziskovalci pozivajo k nadzoru AI, močnejšim revizijskim standardom in čezmejnemu usklajevanju za zaščito sistemov.















