Isang kamakailang pag-aaral ng MATS at mga Anthropic Fellows ang nagkukumpirma na kayang kumita ng mga AI agent sa pamamagitan ng pagsasamantala sa mga kahinaan ng smart contracts, na nagtatakda ng “konkretong mababang hangganan” para sa ekonomikong pinsala.
Ang Eksperto sa AI Smart Contract: Nagbabala na Maaring Magdulot ng $10–20B Taunang Pagkalugi ang mga Ahente sa DeFi Sector

Mga Bagong Eksploit at Nakakabahalang Pagbaba ng Gastos
Ang mabilis na pag-usad sa pag-aautomat ng mga gawaing tao gamit ang Artificial Intelligence (AI) agents ay ngayon humaharap sa mahalagang downside na makalkula: maaaring kumita ang mga agent sa pamamagitan ng pagsasamantala sa mga kahinaan ng smart contracts. Isang kamakailang pag-aaral ng pananaliksik ng MATS at mga Anthropic Fellows ang gumamit ng Smart CONtracts Exploitation benchmark (SCONE-bench) upang sukatin ang panganib na ito.
Matagumpay na nag-deploy ang pag-aaral ng mga modelo tulad ng Claude Opus 4.5, Claude Sonnet 4.5, at GPT-5 upang makabuo ng mga exploit na simulang nagkakahalaga ng $4.6 milyon. Ang SCONE-bench ay binubuo ng 405 smart contracts na talagang napagsamantalahan mula 2020 hanggang 2025. Sa kanilang Dis. 1 na ulat ng pag-aaral, inihayag ng koponan na ang tagumpay ng mga AI agent sa pagbuo ng mga exploit na nasubok sa blockchain simulator ay nagtatatag ng “isang konkretong mababang hangganan para sa ekonomikong pinsala na maaaring dulot ng mga kakayahang ito.”
Pinahusay pa ng pananaliksik ang mga modelo Sonnet 4.5 at GPT-5 laban sa 2,849 na kakadisenyo lamang na mga kontrata na walang kilalang kahinaan. Pinatunayan ng mga agent na kaya nilang bumuo ng mga mapagkakakitaang exploit kahit sa bagong kapaligirang ito: Natuklasan ng parehong agent ang dalawang bagong zero-day na kahinaan at gumawa ng mga exploit na nagkakahalaga ng $3,694. Nakamit ng GPT-5 ang tagumpay na ito sa API cost na $3,476 lamang.
Magbasa pa: Mula sa DeFi hanggang Defcon: TRM Nagbabala sa Nation-State Cyber Onslaught
Nagiging patunay ang kinalabasan ito bilang isang proof-of-concept para sa teknikal na posibilidad ng mapagkakakitaang, tunay na exploitation sa real-world, na nagtatampok sa agarang pangangailangan para sa mga proactive AI-driven na mga mekanismong depensibo.
Marahil ang pinaka-nakakabahalang natuklasan ay ang dramatikong pagtaas ng kahusayan: ang isang umaatake ay maaaring makamit ang halos 3.4 beses na mas maraming matagumpay na exploit sa parehong budget sa compute kumpara sa anim na buwan na nakalipas. Bukod pa rito, bumaba ang mga gastos sa token para sa matagumpay na mga exploit nang 70%, na ginagawang mas mura ang pagpapatakbo ng mga makapangyarihang agent na ito.
Ang Papel ng Agentic Loops at Pagpapabuti ng Modelo
Si Jean Rausis, co-founder sa SMARDEX, ay itinutukoy ang matinding pagbaba ng halaga sa pangunahing sanhi ng agentic loops. Ang mga loops na ito ay nagbibigay-daan sa mga multi-step, self-correcting na workflows na nagbabawas ng pag-aaksaya ng token sa panahon ng pagsusuri sa kontrata. Binibigyang-diin din ni Rausis ang papel ng pinahusay na arkitektura ng modelo:
“Mas malalaking context windows at memory tools sa mga modelo tulad ng Claude Opus 4.5 at GPT-5 ay pumapayag sa tuloy-tuloy na mga simulation na walang pag-uulit, na pinalalakpakan ang kahusayan ng 15-100% sa mahahabang gawain.”
Itinuturo niya na ang mga nakamit na optimization na ito ay labis na nakahihigit sa raw vulnerability detection improvements (na tumaas lamang ang tagumpay sa SCONE-bench mula 2% hanggang 51%), dahil nakatuon sila sa pag-optimize ng runtime sa halip na sa pag-spot lang ng mga kahinaan.
Habang itinatakda ng pag-aaral ang isang simulated na halaga ng $4.6 milyon, nangangamba ang mga eksperto na ang tunay na ekonomikong halaga ay maaaring mas higit na malaki. Tinataya ni Rausis na ang tunay na mga panganib ay maaaring 10-100x na mas mataas, marahil umabot sa $50 milyon hanggang $500 milyon o higit pa kada pangunahing exploit. Binalaan niya na habang mas sumasaklaw ang AI, ang kabuuang pagkalantad sa sektor—kasama na ang hindi modeled na leverage at pagkabigo ng oracles—ay maaaring umabot ng $10–20 bilyon taun-taon.
Ang papel ng MATS at Anthropic Fellows ay nagtatapos sa isang babala: habang ang mga smart contract ay maaaring ang unang target ng alon na ito ng mga automated na pag-atake, ang proprietary software ay malamang na susunod na target habang umuunlad ang mga agent sa reverse engineering.
Mahalaga, inaalala rin ng papel ang mga mambabasa na ang parehong mga AI agent ay maaaring i-deploy para sa depensa upang ayusin ang mga kahinaan. Upang mabawasan ang sistematikong banta sa pananalapi mula sa madaling automated na mga pag-atake sa DeFi, nagmumungkahi si Rausis ng isang tatlong-hakbang na plano ng aksyon para sa mga policymaker at regulator: pangangasiwa ng AI, mga bagong pamantayan ng pag-audit, at global na koordinasyon.
FAQ ❓
- Ano ang isiniwalat ng pag-aaral tungkol sa mga AI agent? Ang mga AI na modelo tulad ng GPT‑5 at Claude ay sinamantala ang mga smart contract na nagkakahalaga ng $4.6M sa mga simulation.
- Bakit tumataas ang panganib na ito sa buong mundo? Bumaba ng 70% ang mga gastos sa token para sa mga exploit, na ginagawang mas mura at mas scalable ang mga pag-atake sa iba’t ibang rehiyon.
- Maaari bang lumampas ang epekto sa pananalapi sa DeFi? Nagbabalaan ang mga eksperto na maaaring umabot ang tunay na mga pagkalugi sa $50M–$500M kada exploit, na may pandaigdigang pagkalantad hanggang $20B taun-taon.
- Paano makakaganti ang mga regulator at developer? Nanawagan ang mga mananaliksik ng pangangasiwa ng AI, mas matibay na mga pamantayan sa pag-audit, at pandaigdigang koordinasyon upang ipagtanggol ang mga sistema.















