Oferit de
Featured

Exploatări Inteligente de Contracte AI: Expertul Avertizează că Agenții ar Putea Declanșa Pierderi Anuale de 10-20 Miliarde de Dolari în Sectorul DeFi

Un studiu recent realizat de MATS și Anthropic Fellows confirmă că agenții AI pot exploata în mod profitabil vulnerabilitățile contractelor inteligente, stabilind un “limita inferioară concretă” pentru daunele economice.

DISTRIBUIE
Exploatări Inteligente de Contracte AI: Expertul Avertizează că Agenții ar Putea Declanșa Pierderi Anuale de 10-20 Miliarde de Dolari în Sectorul DeFi

Exploatări noi și reducerea costurilor alarmante

Împingerea accelerată de a automatiza sarcinile umane cu agenți de Inteligență Artificială (AI) se confruntă acum cu un dezavantaj semnificativ și cuantificabil: acești agenți pot exploata în mod profitabil vulnerabilitățile contractelor inteligente. Un studiu de cercetare recent realizat de MATS și Anthropic Fellows a utilizat benchmark-ul SCONE-bench (Exploatarea Contractelor Inteligente) pentru a măsura acest risc.

Studiul a implementat cu succes modele precum Claude Opus 4.5, Claude Sonnet 4.5, și GPT-5 pentru a dezvolta exploatări simulate a avea o valoare de 4,6 milioane de dolari. SCONE-bench este compus din 405 contracte inteligente care au fost efectiv exploatate între 2020 și 2025. În raportul lor din 1 Dec., echipa a declarat că succesul agenților AI în dezvoltarea de exploatări testate pe simulatorul de blockchain stabilește “o limită inferioară concretă pentru daunele economice pe care aceste capacități le-ar putea permite.”

Cercetarea a mers mai departe prin testarea Sonnet 4.5 și GPT-5 pe 2,849 de contracte recent implementate fără vulnerabilități cunoscute. Agenții au dovedit că pot genera exploatări profitabile chiar și în acest nou mediu: Ambii agenți au descoperit două vulnerabilități noi zero-day și au produs exploatări evaluate la 3,694 dolari. GPT-5 a reușit acest succes cu un cost API de numai 3,476 dolari.

Citește mai mult: De la DeFi la Defcon: TRM avertizează cu privire la atacurile cibernetice la nivel de stat național

Acest rezultat servește ca o dovadă a fezabilității tehnice a exploatării autonome profitabile în lumea reală, subliniind nevoia imediată de mecanisme de apărare proactice, conduse de AI.

Poate cea mai alarmantă constatare este creșterea dramatică a eficienței: un atacator poate acum să obțină de aproximativ 3,4 ori mai multe exploatări de succes pentru același buget de calcul ca acum șase luni. Mai mult, costurile token-urilor pentru exploatările de succes au scăzut uluitor cu 70%, făcând ca acești agenți puternici să fie semnificativ mai ieftin de operat.

Rolul buclelor agentice și îmbunătățirea modelului

Jean Rausis, co-fondator la SMARDEX, atribuie această scădere accentuată a costului în principal buclelor agentice. Aceste bucle permit fluxuri de lucru multi-pas, autocorective, care reduc risipa de token-uri în timpul analizei contractelor. Rausis de asemenea evidențiază rolul îmbunătățirii arhitecturii modelului:

“Fereastrele de context mai mari și instrumentele de memorie în modele precum Claude Opus 4.5 și GPT-5 permit simulări susținute fără repetiție, îmbunătățind eficiența cu 15-100% în sarcinile lungi.”

El observă că aceste câștiguri de optimizare depășesc îmbunătățirile brute în detectarea vulnerabilităților (care au crescut doar succesul pe SCONE-bench de la 2% la 51%), deoarece ele se concentrează pe optimizarea timpului de rulare mai degrabă decât doar pe identificarea defecțiunilor.

Deși studiul stabilește un cost simulat de 4,6 milioane de dolari, experții se tem că costul economic real ar putea fi substanțial mai mare. Rausis estimează că riscurile reale ar putea fi de 10-100 ori mai mari, posibil atingând 50 milioane la 500 milioane de dolari sau mai mult per exploit major. El avertizează că odată cu scalarea AI, expunerea totală la nivel de sector—luând în considerare pârghia nemodelată și eșecurile oracolului—ar putea atinge 10–20 miliarde de dolari anual.

Lucrarea MATS și Anthropic Fellows concluzionează cu un avertisment: în timp ce contractele inteligente pot fi ținta inițială a acestui val de atacuri automate, software-ul proprietar este probabil următoarea țintă pe măsură ce agenții îmbunătățesc reengineering-ul invers.

În mod crucial, lucrarea reamintește cititorilor că aceiași agenți AI pot fi folosiți pentru apărare pentru a remedia vulnerabilitățile. Pentru a atenua amenințarea financiară sistemică din atacurile DeFi ușor automatizate, Rausis propune un plan de acțiune în trei pași pentru factorii de decizie și reglementatori: supravegherea AI, noi standarde de audit și coordonare globală.

FAQ ❓

  • Ce a dezvăluit studiul despre agenții AI? Modele AI precum GPT‑5 și Claude au exploatat contracte inteligente în valoare de 4,6M în simulări.
  • De ce acest risc escaladează la nivel mondial? Costurile token-urilor pentru exploatări au scăzut cu 70%, făcând atacurile mai ieftine și mai scalabile la nivel regional.
  • Ar putea impactul financiar să se extindă dincolo de DeFi? Experții avertizează că pierderile reale ar putea ajunge la 50M–500M per exploit, cu expunerea globală până la 20B anual.
  • Cum pot reacționa reglementatorii și dezvoltatorii? Cercetătorii solicită supravegherea AI, standarde mai puternice de auditare și coordonare transfrontalieră pentru a apăra sistemele.
Etichete în această poveste