Bereitgestellt von
Featured

AI Smart-Vertragsausnutzungen: Experte warnt, dass Agenten jährliche Verluste von 10–20 Mrd. USD im DeFi-Sektor auslösen könnten

Eine jüngste Studie von MATS und Anthropic Fellows bestätigt, dass KI-Agente Schwachstellen in Smart Contracts profitabel ausnutzen können und somit eine “konkrete untere Grenze” für wirtschaftlichen Schaden festlegen.

GESCHRIEBEN VON
TEILEN
AI Smart-Vertragsausnutzungen: Experte warnt, dass Agenten jährliche Verluste von 10–20 Mrd. USD im DeFi-Sektor auslösen könnten

Neue Exploits und alarmierende Kostenreduktion

Der beschleunigte Vorstoß, menschliche Aufgaben mit Künstlicher Intelligenz (KI) zu automatisieren, steht nun vor einem bedeutenden, quantifizierbaren Nachteil: Diese Agenten können Schwachstellen in Smart Contracts profitabel ausnutzen. Eine kürzlich durchgeführte Forschungsstudie von MATS und Anthropic Fellows hat den Smart CONtracts Exploitation-Benchmark (SCONE-bench) genutzt, um dieses Risiko zu messen.

Die Studie setzte erfolgreich Modelle wie Claude Opus 4.5, Claude Sonnet 4.5 und GPT-5 ein, um Exploits zu entwickeln, die simuliert einen Wert von 4,6 Millionen US-Dollar haben. Der SCONE-bench besteht aus 405 Smart Contracts, die tatsächlich zwischen 2020 und 2025 ausgenutzt wurden. In ihrem Bericht vom 1. Dezember erklärte das Team, dass der Erfolg von KI-Agenten bei der Entwicklung von Exploits, die im Blockchain-Simulator getestet wurden, “eine konkrete untere Grenze für den wirtschaftlichen Schaden festlegt, den diese Fähigkeiten ermöglichen könnten.”

Die Forschung ging noch weiter, indem Sonnet 4.5 und GPT-5 gegen 2.849 kürzlich eingesetzte Verträge mit keinen bekannten Schwachstellen getestet wurden. Die Agenten bewiesen, dass sie auch in dieser neuen Umgebung profitable Exploits generieren konnten: Beide Agenten entdeckten zwei neuartige Zero-Day-Schwachstellen und erzeugten Exploits im Wert von 3.694 US-Dollar. GPT-5 erreichte diesen Erfolg mit einem API-Kostenaufwand von nur 3.476 US-Dollar.

Mehr lesen: Von DeFi zu Defcon: TRM warnt vor Cyber-Angriffen durch Nationalstaaten

Dieses Ergebnis dient als Proof-of-Concept für die technische Machbarkeit autonomer, profitabler Ausbeutung in der realen Welt und unterstreicht die dringende Notwendigkeit von proaktiven, KI-gesteuerten Abwehrmechanismen.

Vielleicht am alarmierendsten ist die dramatische Steigerung der Effizienz: Ein Angreifer kann jetzt etwa 3,4 Mal mehr erfolgreiche Exploits mit demselben Rechenbudget wie vor sechs Monaten erreichen. Darüber hinaus sind die Tokenkosten für erfolgreiche Exploits um erstaunliche 70 % gesunken, wodurch diese mächtigen Agenten erheblich günstiger im Betrieb werden.

Die Rolle von Agenten-Loops und Modellverbesserung

Jean Rausis, Mitbegründer von SMARDEX, schreibt diesen starken Kosteneinbruch hauptsächlich den Agenten-Loops zu. Diese Loops ermöglichen mehrstufige, sich selbst korrigierende Workflows, die den Token-Verlust während der Vertragsanalyse reduzieren. Rausis hebt auch die Rolle verbesserter Modellarchitektur hervor:

„Größere Kontextfenster und Speicherwerkzeuge in Modellen wie Claude Opus 4.5 und GPT-5 ermöglichen langanhaltende Simulationen ohne Wiederholungen, was die Effizienz bei langen Aufgaben um 15-100 % steigert.“

Er weist darauf hin, dass diese Optimierungsgewinne die Verbesserung der rohen Schwachstellenerkennung (die den Erfolg auf dem SCONE-bench nur von 2 % auf 51 % erhöhte) übertreffen, da sie sich darauf konzentrieren, die Laufzeitoptimierung anstelle des bloßen Aufspürens von Mängeln zu verbessern.

Während die Studie einen simulierten Kostenaufwand von 4,6 Millionen US-Dollar feststellt, befürchten Experten, dass die tatsächlichen wirtschaftlichen Kosten deutlich höher sein könnten. Rausis schätzt die realen Risiken auf 10-100-mal höher, möglicherweise 50 Millionen bis 500 Millionen US-Dollar oder mehr pro großem Exploit. Er warnt, dass bei Skalierung der KI die branchenweite Gesamtexposition—unter Berücksichtigung unmodellierten Leverage und Oracle-Ausfälle—jährlich 10–20 Milliarden US-Dollar erreichen könnte.

Das Papier von MATS und Anthropischen Fellows schließt mit einer Warnung: Während Smart Contracts das anfängliche Ziel dieser Welle automatisierter Angriffe sein könnten, ist proprietäre Software wahrscheinlich das nächste Ziel, wenn Agenten besser im Reverse Engineering werden.

Wesentlich erinnert das Papier auch daran, dass dieselben KI-Agenten zur Verteidigung eingesetzt werden können, um Schwachstellen zu patchen. Um die systemische finanzielle Bedrohung durch leicht automatisierte DeFi-Angriffe zu mindern, schlägt Rausis einen dreistufigen Aktionsplan für politische Entscheidungsträger und Regulierungsbehörden vor: KI-Überwachung, neue Prüfungsstandards und globale Koordinierung.

FAQ ❓

  • Was hat die Studie über KI-Agenten enthüllt? KI-Modelle wie GPT-5 und Claude haben in Simulationen Smart Contracts im Wert von 4,6 Millionen US-Dollar ausgenutzt.
  • Warum eskaliert dieses Risiko weltweit? Die Tokenkosten für Exploits sind um 70 % gesunken, wodurch Angriffe günstiger und über Regionen hinweg skalierbarer werden.
  • Könnten die finanziellen Auswirkungen über DeFi hinausgehen? Experten warnen, dass reale Verluste 50 bis 500 Millionen US-Dollar pro Exploit erreichen könnten, mit einer globalen Exposition von bis zu 20 Milliarden US-Dollar jährlich.
  • Wie können Regulierungsbehörden und Entwickler reagieren? Forscher raten zu KI-Überwachung, stärkeren Prüfungsstandards und länderübergreifender Koordination zur Sicherung von Systemen.