Aangedreven door
Featured

AI Smart Contract Exploits: Expert waarschuwt dat agenten een jaarlijkse verlies van $10-20 miljard in de DeFi-sector kunnen veroorzaken

Een recente studie van MATS en Anthropic Fellows bevestigt dat AI-agents winstgevend kwetsbaarheden in smart contracts kunnen uitbuiten, wat een “concrete ondergrens” voor economische schade vaststelt.

GESCHREVEN DOOR
DELEN
AI Smart Contract Exploits: Expert waarschuwt dat agenten een jaarlijkse verlies van $10-20 miljard in de DeFi-sector kunnen veroorzaken

Nieuwe Exploits en Alarmerende Kostenreductie

De versnellende drang om menselijke taken te automatiseren met Kunstmatige Intelligentie (AI)-agenten staat nu voor een aanzienlijke, kwantificeerbare keerzijde: deze agenten kunnen winstgevend kwetsbaarheden in smart contracts uitbuiten. Een recente onderzoeksstudie door MATS en Anthropic Fellows gebruikte de Smart CONtracts Exploitation benchmark (SCONE-bench) om dit risico te meten.

De studie heeft met succes modellen zoals Claude Opus 4.5, Claude Sonnet 4.5, en GPT-5 ingezet om exploits te ontwikkelen die in simulaties $4,6 miljoen waard zijn. De SCONE-bench bestaat uit 405 smart contracts die daadwerkelijk werden uitgebuit tussen 2020 en 2025. In hun studieverslag van 1 dec. stelde het team vast dat het succes van AI-agents in het ontwikkelen van exploits getest op de blockchain-simulator een “concrete ondergrens voor de economische schade die deze capaciteiten kunnen veroorzaken” vaststelt.

Het onderzoek ging verder door Sonnet 4.5 en GPT-5 te testen tegen 2.849 recent geïmplementeerde contracts zonder bekende kwetsbaarheden. De agents bewezen dat ze winstgevende exploits konden genereren, zelfs in deze nieuwe omgeving: beide agents ontdekten twee nieuwe zero-day kwetsbaarheden en produceerden exploits ter waarde van $3.694. GPT-5 behaalde dit succes met een API-kost van slechts $3.476.

Lees meer: Van DeFi naar Defcon: TRM waarschuwt voor cyberaanval door natiestaten

Deze uitkomst dient als een proof-of-concept voor de technische haalbaarheid van winstgevende, autonome exploitatie in de echte wereld, wat de dringende noodzaak voor proactieve AI-gedreven verdedigingsmechanismen onderstreept.

Misschien wel de meest alarmerende bevinding is de dramatische toename in efficiëntie: een aanvaller kan nu ongeveer 3,4 keer meer succesvolle exploits bereiken voor hetzelfde computerbudget als zes maanden geleden. Bovendien zijn de tokenkosten voor succesvolle exploits met een verbluffende 70% gedaald, waardoor deze krachtige agents aanzienlijk goedkoper te exploiteren zijn.

De Rol van Agentic Loops en Modelverbetering

Jean Rausis, medeoprichter bij SMARDEX, schrijft deze scherpe kostendaling voornamelijk toe aan agentic loops. Deze loops maken multi-staps, zelfcorrigerende werkprocessen mogelijk die tokenverspilling tijdens contractanalyse verminderen. Rausis wijst ook op de rol van verbeterde modelarchitectuur:

“Grotere contextvensters en geheugenhulpmiddelen in modellen zoals Claude Opus 4.5 en GPT-5 maken langdurige simulaties zonder herhaling mogelijk, wat de efficiëntie met 15-100% verhoogt bij lange taken.”

Hij merkt op dat deze optimalisatiewinsten de rauwe verbeteringen in kwetsbaarheidsdetectie overtreffen (die alleen het succes op SCONE-bench van 2% naar 51% verhoogden), aangezien ze zich richten op het optimaliseren van runtime in plaats van alleen gebreken op te sporen.

Hoewel de studie een gesimuleerde kostenpost van $4,6 miljoen bepaalt, vrezen experts dat de werkelijke economische kosten aanzienlijk hoger kunnen zijn. Rausis schat dat de daadwerkelijke risico’s 10-100x hoger kunnen zijn, mogelijk oplopend tot $50 miljoen tot $500 miljoen of meer per grote exploit. Hij waarschuwt dat bij het schalen van AI de totale blootstelling in de sector—rekening houdend met niet-gemodellenende hefboomwerking en orakelfouten—$10–20 miljard per jaar kan bereiken.

Het artikel van MATS en Anthropic Fellows besluit met een waarschuwing: hoewel smart contracts mogelijk het eerste doelwit zijn van deze golf aan geautomatiseerde aanvallen, is eigen software waarschijnlijk het volgende doelwit naarmate agents beter worden in reverse engineering.

Cruciaal is dat het artikel ook de lezers eraan herinnert dat dezelfde AI-agents kunnen worden ingezet voor verdediging om kwetsbaarheden te verhelpen. Om de systemische financiële dreiging van gemakkelijk geautomatiseerde DeFi-aanvallen te mitigeren, stelt Rausis voor een drie-stappen actieplan voor beleidsmakers en toezichthouders op: AI-toezicht, nieuwe auditstandaarden, en wereldwijde coördinatie.

FAQ ❓

  • Wat onthulde de studie over AI-agents? AI-modellen zoals GPT‑5 en Claude exploiteerden smart contracts ter waarde van $4,6M in simulaties.
  • Waarom escaleert dit risico wereldwijd? Tokenkosten voor exploits daalden met 70%, waardoor aanvallen goedkoper en schaalbaarder zijn over regio’s heen.
  • Kan de financiële impact verder reiken dan DeFi? Experts waarschuwen dat echte verliezen $50M–$500M per exploit kunnen bereiken, met wereldwijde blootstelling tot $20 miljard per jaar.
  • Hoe kunnen regelgevers en ontwikkelaars reageren? Onderzoekers dringen aan op AI-toezicht, sterkere auditstandaarden, en grensoverschrijdende coördinatie ter verdediging van systemen.