Offerto da
Featured

Sfruttamento dei Contratti Intelligenti con AI: Un Esperto Avverte che gli Agenti Potrebbero Causare Perdite Annuali di 10–20 Miliardi di Dollari nel Settore DeFi

Uno studio recente di MATS e Anthropic Fellows conferma che gli agenti AI possono sfruttare in modo redditizio vulnerabilità nei contratti intelligenti, stabilendo una “soglia minima concreta” per i danni economici.

SCRITTO DA
CONDIVIDI
Sfruttamento dei Contratti Intelligenti con AI: Un Esperto Avverte che gli Agenti Potrebbero Causare Perdite Annuali di 10–20 Miliardi di Dollari nel Settore DeFi

Nuovi Sfruttamenti e Riduzione Allarmante dei Costi

La spinta accelerata per automatizzare i compiti umani con agenti di Intelligenza Artificiale (AI) ora si confronta con un significativo svantaggio quantificabile: questi agenti possono sfruttare in modo redditizio le vulnerabilità nei contratti intelligenti. Un recente studio di ricerca di MATS e Anthropic Fellows ha utilizzato il benchmark di sfruttamento dei contratti intelligenti (SCONE-bench) per misurare questo rischio.

Lo studio ha dispiegato con successo modelli come Claude Opus 4.5, Claude Sonnet 4.5 e GPT-5 per sviluppare exploit simulati del valore di 4,6 milioni di dollari. Il SCONE-bench è composto da 405 contratti intelligenti effettivamente sfruttati tra il 2020 e il 2025. Nel loro rapporto di studio del 1° dicembre, il team ha affermato che il successo degli agenti AI nello sviluppo di exploit testati sul simulatore blockchain stabilisce “una soglia minima concreta per i danni economici che queste capacità potrebbero abilitare.”

La ricerca è andata oltre testando Sonnet 4.5 e GPT-5 contro 2.849 contratti recentemente implementati senza vulnerabilità conosciute. Gli agenti hanno dimostrato di poter generare exploit redditizi anche in questo nuovo ambiente: entrambi gli agenti hanno scoperto due nuove vulnerabilità zero-day e prodotto exploit valutati a 3.694 dollari. GPT-5 ha raggiunto questo successo con un costo API di soli 3.476 dollari.

Leggi di più: Da DeFi a Defcon: TRM Avverte di Attacchi Cibernetici degli Stati Nazionali

Questo risultato serve come una prova di concetto per la fattibilità tecnica di uno sfruttamento autonomo, redditizio e nel mondo reale, evidenziando la necessità immediata di meccanismi di difesa proattivi guidati dall’AI.

Forse la scoperta più allarmante è l’aumento drammatico dell’efficienza: un attaccante può ora ottenere circa 3,4 volte più exploit di successo per lo stesso budget di calcolo di sei mesi fa. Inoltre, i costi in token per exploit di successo sono diminuiti di un vertiginoso 70%, rendendo questi potenti agenti significativamente più economici da gestire.

Il Ruolo dei Cicli Agenti e il Miglioramento dei Modelli

Jean Rausis, cofondatore di SMARDEX, attribuisce questo forte calo dei costi principalmente ai cicli agenti. Questi cicli consentono flussi di lavoro multi-step, autocorrettivi che riducono lo spreco di token durante l’analisi dei contratti. Rausis evidenzia anche il ruolo del miglioramento dell’architettura del modello:

“Finestre di contesto più grandi e strumenti di memoria in modelli come Claude Opus 4.5 e GPT-5 permettono simulazioni sostenute senza ripetizioni, aumentando l’efficienza del 15-100% in compiti lunghi.”

Nota che questi guadagni di ottimizzazione superano i miglioramenti della rilevazione delle vulnerabilità grezze (che hanno aumentato il successo su SCONE-bench solo dal 2% al 51%), poiché si concentrano sull’ottimizzazione del tempo di esecuzione piuttosto che solo sull’individuazione dei difetti.

Mentre lo studio stabilisce un costo simulato di 4,6 milioni di dollari, gli esperti temono che il costo economico reale potrebbe essere sostanzialmente più alto. Rausis stima che i rischi reali potrebbero essere da 10 a 100 volte più alti, potenzialmente raggiungendo i 50 milioni a 500 milioni di dollari o più per ogni grande sfruttamento. Avverte che con la scalabilità dell’AI, l’esposizione totale del settore — includendo leva non modellata e fallimenti degli oracoli — potrebbe raggiungere i 10-20 miliardi di dollari all’anno.

Il documento dei MATS e Anthropic Fellows conclude con un avvertimento: mentre i contratti intelligenti possono essere il bersaglio iniziale di questa ondata di attacchi automatizzati, il software proprietario è probabilmente il prossimo bersaglio mentre gli agenti migliorano nell’ingegneria inversa.

Fondamentale, il documento ricorda anche ai lettori che gli stessi agenti AI possono essere utilizzati per la difesa per correggere le vulnerabilità. Per mitigare la minaccia finanziaria sistemica derivante da attacchi DeFi facilmente automatizzati, Rausis propone un piano d’azione in tre fasi per i responsabili delle politiche e i regolatori: supervisione dell’AI, nuovi standard di auditing e coordinamento globale.

FAQ ❓

  • Cosa ha rivelato lo studio sugli agenti AI? Modelli AI come GPT‑5 e Claude hanno sfruttato contratti intelligenti del valore di 4,6 milioni di dollari in simulazioni.
  • Perché questo rischio sta aumentando a livello mondiale? I costi in token per gli exploit sono diminuiti del 70%, rendendo gli attacchi più economici e scalabili in tutte le regioni.
  • Il danno finanziario potrebbe estendersi oltre DeFi? Gli esperti avvertono che le perdite reali potrebbero raggiungere i 50-500 milioni di dollari per ogni exploit, con un’esposizione globale fino a 20 miliardi di dollari all’anno.
  • Come possono rispondere regolatori e sviluppatori? I ricercatori esortano a una supervisione dell’AI, a standard di auditing più forti e a una coordinazione transfrontaliera per difendere i sistemi.