Drivs av
Featured

AI Smart Contract Exploits: Expert Varnar för att Agenter Kan Utlösa Förluster om $10–20 Miljarder Årligen i DeFi-sektorn

En nyligen studie av MATS och Anthropic Fellows bekräftar att AI-agenter kan utnyttja smart kontrakt-sårbarheter på ett lönsamt sätt, vilket etablerar en “konkret lägsta gräns” för ekonomisk skada.

SKRIVEN AV
DELA
AI Smart Contract Exploits: Expert Varnar för att Agenter Kan Utlösa Förluster om $10–20 Miljarder Årligen i DeFi-sektorn

Nya Utnyttjanden och Alarmerande Kostnadsreduktion

Den accelererande strävan att automatisera mänskliga uppgifter med hjälp av artificiell intelligens (AI) agenter står nu inför en betydande, kvantifierbar nackdel: dessa agenter kan lönsamt utnyttja smart kontrakt-sårbarheter. En nyligen forskningsstudie av MATS och Anthropic Fellows använde sig av Smart CONtracts Exploitation benchmark (SCONE-bench) för att mäta denna risk.

Studien distribuerade framgångsrikt modeller som Claude Opus 4.5, Claude Sonnet 4.5 och GPT-5 för att utveckla utnyttjanden simulerade att vara värda $4,6 miljoner. SCONE-bench består av 405 smarta kontrakt som faktiskt utnyttjats mellan 2020 och 2025. I sin rapport från 1 december uttalade teamet att framgången hos AI-agenter i att utveckla utnyttjanden testade på blockkedjesimulatorn etablerar “en konkret lägsta gräns för den ekonomiska skada dessa kapaciteter kan möjliggöra.”

Forskningen gick vidare genom att testa Sonnet 4.5 och GPT-5 mot 2 849 nyligen distribuerade kontrakt utan kända sårbarheter. Agenterna bevisade att de kunde generera lönsamma utnyttjanden även i denna nya miljö: båda agenterna upptäckte två nya zero-day-sårbarheter och producerade utnyttjanden värderade till $3,694. GPT-5 uppnådde denna framgång med en API-kostnad på endast $3,476.

Läs mer: Från DeFi till Defcon: TRM Varnar för Nationär Statsbytt Cyberattack

Detta resultat fungerar som ett bevis på konceptet för den tekniska genomförbarheten av lönsamt, verkligt autonomt utnyttjande, vilket understryker det omedelbara behovet av proaktiva AI-drivna försvarsmekanismer.

Kanske den mest alarmerande upptäckten är den dramatiska ökningen i effektivitet: en angripare kan nu uppnå cirka 3,4 gånger fler lyckade utnyttjanden för samma datorkraft som för sex månader sedan. Vidare har tokenkostnaderna för lyckade utnyttjanden minskat med hela 70%, vilket gör dessa kraftfulla agenter betydligt billigare att köra.

Agentiska Loopar och Modellförbättringar

Jean Rausis, medgrundare hos SMARDEX, tillskriver denna kraftiga kostnadsminskning främst till agentiska loopar. Dessa loopar möjliggör flerstegs, självkorrigerande arbetsflöden som minskar spill av tokens under kontraktanalys. Rausis belyser också rollen av förbättrad modellarkitektur:

“Större kontextfönster och minnesverktyg i modeller som Claude Opus 4.5 och GPT-5 tillåter bestående simuleringar utan repetition, vilket ökar effektiviteten med 15-100% i långa uppgifter.”

Han noterar att dessa optimeringsvinster överträffar råa sårbarhetsdetekteringsförbättringar (som bara ökade framgången på SCONE-bench från 2% till 51%), då de fokuserar på att optimera körtid snarare än att bara upptäcka brister.

Samtidigt som studien fastställer en simulerad kostnad på $4,6 miljoner, befarar experterna att den faktiska ekonomiska kostnaden kan vara betydligt högre. Rausis uppskattar att de verkliga riskerna kan vara 10-100 gånger högre, potentiellt uppnå $50 miljoner till $500 miljoner eller mer per större utnyttjande. Han varnar för att med AI:s skalning kan den totala sektorns exponering – när man beaktar odefinierad hävstång och orakelfel – nå $10–20 miljarder årligen.

Rapporten från MATS och Anthropic Fellows avslutas med en varning: medan smarta kontrakt kan vara det ursprungliga målet för denna våg av automatiserade attacker, är proprietär programvara sannolikt nästa mål när agenterna förbättrar sin förmåga inom omvänd ingenjörskonst.

Avgörande påminner rapporten också läsarna om att samma AI-agenter kan användas för försvar för att lappa sårbarheter. För att mildra det systemiska finansiella hotet från lätt automatiserade DeFi-attacker föreslår Rausis en trestegs åtgärdsplan för beslutsfattare och regulatorer: AI-övervakning, nya granskningsstandarder och global samordning.

FAQ ❓

  • Vad avslöjade studien om AI-agenter? AI-modeller som GPT‑5 och Claude utnyttjade smarta kontrakt värda $4,6 miljoner i simuleringar.
  • Varför ökar denna risk över hela världen? Tokenskostnader för utnyttjanden sjönk med 70%, vilket gör attacker billigare och mer skalbara över regioner.
  • Kan den ekonomiska effekten sträcka sig bortom DeFi? Experter varnar för att verkliga förluster kan nå $50M–$500M per utnyttjande, med global exponering upp till $20B årligen.
  • Hur kan regulatorer och utvecklare svara? Forskare uppmanar till AI-övervakning, starkare granskningsstandarder och gränsöverskridande samordning för att försvara systemen.