Drevet af
Featured

AI Smart Contract Exploits: Ekspert Advarer om Agenter, der Kan Medføre $10-20 Milliarder Årlige Tab i DeFi Sektoren

En nylig undersøgelse fra MATS og Anthropic Fellows bekræfter, at AI-agenter kan udnytte smartkontrakt-sårbarheder profitabelt, og etablerer en “konkret lavere grænse” for økonomisk skade.

SKREVET AF
DEL
AI Smart Contract Exploits: Ekspert Advarer om Agenter, der Kan Medføre $10-20 Milliarder Årlige Tab i DeFi Sektoren

Nye udnytninger og alarmerende omkostningsreduktion

Den accelererende indsats for at automatisere menneskelige opgaver med Artificiel Intelligens (AI)-agenter står nu over for en betydelig, kvantificerbar ulempe: disse agenter kan profitabelt udnytte smartkontrakt-sårbarheder. En nylig forskningsundersøgelse fra MATS og Anthropic Fellows brugte Smart CONtracts Exploitation benchmark (SCONE-bench) til at måle denne risiko.

Undersøgelsen brugte succesfuldt modeller som Claude Opus 4.5, Claude Sonnet 4.5 og GPT-5 til at udvikle udnyttelser simuleret til at være værd $4,6 millioner. SCONE-bench består af 405 smartkontrakter, der faktisk blev udnyttet mellem 2020 og 2025. I deres studie rapport fra 1. december fastslog teamet, at succesraten for AI-agenter i at udvikle udnyttelser testet på blockchain-simulatoren etablerer “en konkret lavere grænse for den økonomiske skade, disse evner kunne muliggøre.”

Forskningen gik videre ved at teste Sonnet 4.5 og GPT-5 mod 2.849 nyligt deployerede kontrakter uden kendte sårbarheder. Agenterne beviste, at de kunne generere profitable udnyttelser selv i dette nye miljø: Begge agenter fandt to nye zero-day sårbarheder og producerede udnyttelser værdiansat til $3.694. GPT-5 opnåede denne succes med en API omkostning på kun $3.476.

Læs mere: Fra DeFi til Defcon: TRM advarer om statslige cyberangreb

Dette resultat tjener som en proof-of-concept for den tekniske gennemførlighed af profitable, virkelige autonome udnyttelser, hvilket understreger det akutte behov for proaktive AI-drevne forsvarsmekanismer.

Måske er den mest alarmerende opdagelse den dramatiske stigning i effektivitet: en angriber kan nu opnå omkring 3,4 gange flere succesfulde udnyttelser for det samme beregningsbudget som for seks måneder siden. Desuden er token-omkostningerne for succesfulde udnyttelser faldet med hele 70%, hvilket gør disse kraftfulde agenter betydeligt billigere at køre.

Rollen af agentiske loops og model-forbedringer

Jean Rausis, medstifter hos SMARDEX, tilskriver dette skarpe omkostningsfald primært til agentiske loops. Disse loops gør det muligt med flerstegs, selvkorrigerende arbejdsforløb, der reducerer token-spild under kontraktanalyse. Rausis fremhæver også rollen af forbedret modelarkitektur:

“Større kontekstvinduer og hukommelsesværktøjer i modeller som Claude Opus 4.5 og GPT-5 tillader opretholdte simulationer uden gentagelse, hvilket øger effektiviteten med 15-100% i lange opgaver.”

Han bemærker, at disse optimeringsgevinster overgår de rå forbedringer i sårbarhedsfund (som kun øgede succesraten på SCONE-bench fra 2% til 51%), da de fokuserer på at optimere køretiden snarere end blot at opdage fejl.

Mens undersøgelsen fastslår en simuleret omkostning på $4,6 millioner, frygter eksperter, at de faktiske økonomiske omkostninger kan være betydeligt højere. Rausis anslår, at de reelle risici kunne være 10-100 gange højere, potentielt nående $50 millioner til $500 millioner eller mere pr. større udnyttelse. Han advarer om, at med AI-eskalering kunne den samlede eksponering i sektoren—medregnet ukontrolleret gearing og oracle-nedbrud—ramme $10-20 milliarder årligt.

MATS og Anthropic Fellows-papiret konkluderer med en advarsel: mens smartkontrakter måske er det initiale mål for denne bølge af automatiserede angreb, er proprietær software sandsynligvis det næste mål, i takt med at agenter forbedrer sig i reverse engineering.

Vigtigt mindes papiret også læserne om, at de samme AI-agenter kan implementeres til forsvar for at lappe sårbarheder. For at afbøde den systemiske finansielle trussel fra let automatiserede DeFi-angreb, foreslår Rausis en tre-trins handlingsplan for politikere og regulatorer: AI-tilsyn, nye revisionsstandarder og global koordinering.

FAQ ❓

  • Hvad afslørede undersøgelsen om AI-agenter? AI-modeller som GPT‑5 og Claude udnyttede smartkontrakter til en værdi af $4,6M i simulationer.
  • Hvorfor eskalerer denne risiko globalt? Token-omkostningerne for udnyttelse faldt med 70%, hvilket gør angreb billigere og mere skalerbare på tværs af regioner.
  • Kan den finansielle indvirkning strække sig ud over DeFi? Eksperter advarer om, at reelle tab kunne nå $50M–$500M pr. udnyttelse, med global eksponering op til $20B årligt.
  • Hvordan kan regulatorer og udviklere reagere? Forskere opfordrer til AI-tilsyn, stærkere revisionsstandarder og tværnational koordinering for at forsvare systemerne.