Egy nemrégiben készült tanulmány a MATS és az Anthropic Fellows által megerősíti, hogy az AI ügynökök nyereségesen kihasználhatják az okosszerződések sebezhetőségeit, ezáltal létrehozva egy “konkrét alsó határt” a gazdasági károkra.
AI intelligens szerződés kihasználások: Szakértő figyelmeztet, hogy az ügynökök évi $10–20 milliárdos veszteségeket okozhatnak a DeFi szektorban

Új kihasználások és riasztó költségcsökkentés
Az emberi feladatok mesterséges intelligencia (AI) ügynökökkel való automatizálásának gyorsuló törekvése mostantól jelentős, számszerűsíthető árnyoldallal szembesül: ezek az ügynökök nyereségesen kihasználhatják az okosszerződések sebezhetőségeit. Egy nemrégiben készült kutatási tanulmány a MATS és az Anthropic Fellows által a Smart CONtracts Exploitation benchmark (SCONE-bench) nevű mércét használta ennek a kockázatnak a mérésére.
A tanulmány sikeresen alkalmazott olyan modelleket, mint a Claude Opus 4.5, Claude Sonnet 4.5 és a GPT-5, hogy olyan kihasználásokat dolgozzon ki, amelyek értéke szimulációk szerint 4,6 millió dollárra rúgott. A SCONE-bench 405 okosszerződésből áll, amelyeket valójában kihasználtak 2020 és 2025 között. A december 1-i tanulmányi jelentésükben a csapat azt állította, hogy az AI ügynökök sikeressége a blokklánc szimulátoron tesztelt kihasználások kidolgozásában „egy konkrét alsó határt teremt a gazdasági károk számára, amelyeket ezek a képességek lehetővé tehetnek.”
A kutatás továbbment azzal, hogy a Sonnet 4.5 és a GPT-5 ellen tesztelt 2 849 nemrégiben telepített szerződés mellett, amelyeknek nem voltak ismert sebezhetőségei. Az ügynökök bizonyították, hogy nyereséges kihasználásokat generálhatnak még ebben az új környezetben is: mindkét ügynök két új zéró nap sebezhetőséget fedezett fel, és olyan kihasználásokat produkáltak, értékük 3 694 dollár volt. A GPT-5 ezt a sikert mindössze 3 476 dolláros API költséggel érte el.
További információ: From DeFi to Defcon: TRM figyelmeztet az állam által támogatott kiber támadásokra
Ez az eredmény bizonyítja a nyereséges, valós világban önállóan végzett kihasználás technikai megvalósíthatóságát, kiemelve a proaktív AI-meghajtású védekezési mechanizmusok azonnali szükségességét.
Talán a legriasztóbb megállapítás a hatékonyság drámai növekedése: egy támadó most körülbelül 3,4-szer több sikeres kihasználást érhet el azonos számítási költségvetés mellett, mint hat hónapja. Továbbá a sikeres kihasználások token költségei döbbenetes módon 70%-kal csökkentek, így ezek az erőteljes ügynökök jelentősen olcsóbbá váltak futtatásra.
Az agentikus ciklusok és a modell javulásának szerepe
Jean Rausis, a SMARDEX társalapítója ezt az éles költségcsökkenést elsősorban az agentikus ciklusoknak tulajdonítja. Ezek a ciklusok lehetővé teszik a több lépésből álló, önkorrekciós munkafolyamatokat, amelyek csökkentik a token pazarlást a szerződés elemzés során. Rausis szintén kiemeli a fejlettebb modell architektúra szerepét:
„A nagyobb kontextus ablakok és a memória eszközök olyan modellekben, mint a Claude Opus 4.5 és a GPT-5, lehetővé teszik a fennálló szimulációkat ismétlés nélkül, növelve a hatékonyságot 15-100%-kal a hosszú feladatok során.”
Megjegyzi, hogy ezek az optimalizációs eredmények meghaladják a nyers sebezhetőség-detektálási javulásokat (amelyek csak 2%-ról 51%-ra növelték a sikerességet a SCONE-bench-en), mivel a futási idő optimalizálására összpontosítanak anélkül, hogy csak hibákat találnának.
Miközben a tanulmány egy szimulált 4,6 millió dolláros költséget állapít meg, a szakértők attól tartanak, hogy a valós gazdasági költség lényegesen magasabb lehet. Rausis úgy becsüli, hogy a valódi kockázatok 10-100-szor magasabbak is lehetnek, potenciálisan elérve az 50 milliótól 500 millióig vagy még többet egy nagyobb kihasználás esetén. Arra figyelmeztet, hogy az AI méretezése mellett az egész szektor kitettsége – figyelembe véve a nem modellezett tőkeáttételeket és az oracle hibákat – elérheti az 10–20 milliárdot évente.
A MATS és az Anthropic Fellows tanulmánya egy figyelmeztetéssel zárul: miközben az okosszerződések lehetnek az első célpontja ennek az automatizált támadások hullámának, a tulajdonosi szoftverek valószínűleg a következő célpontok, ahogy az ügynökök javulnak a visszafejtésben.
Lényeges, hogy a tanulmány emlékezteti az olvasókat, hogy ugyanazokat az AI ügynököket védelemre is alkalmazhatják a sebezhetőségek javítására. Annak érdekében, hogy enyhítsék az automatizált DeFi támadásokból származó rendszerszintű pénzügyi fenyegetést, Rausis javasol egy háromlépéses cselekvési tervet döntéshozók és szabályozók számára: AI felügyelet, új auditiszabványok és globális koordináció.
GYIK ❓
- Mit fedett fel a tanulmány az AI ügynökökről? Az AI modellek, mint a GPT-5 és a Claude okosszerződéseket használtak ki, amelyek értéke szimulációk szerint 4,6M dollár volt.
- Miért növekszik világszerte ez a kockázat? A kihasználások token költségei 70%-kal csökkentek, így a támadások olcsóbbá és méretezhetőbbé váltak a régiókban.
- Kiterjedhet-e a pénzügyi hatás a DeFi-n túl? A szakértők arra figyelmeztetnek, hogy a valós veszteségek akár 50M–500M dollárt is elérhetnek kihasználásonként, a globális kitettség pedig akár 20 milliárd dollár évente.
- Hogyan reagálhatnak a szabályozók és a fejlesztők? A kutatók AI felügyeletet, erősebb auditiszabványokat és határokon átnyúló koordinációt sürgetnek a rendszerek védelmére.















