Äskettäinen tutkimus MATS:in ja Anthropic Fellows:in toimesta vahvistaa, että tekoälyagentit voivat tehokkaasti hyödyntää älykkäiden sopimusten haavoittuvuuksia, asettaen taloudelliselle vahingolle “konkreettisen alarajan”.
AI Älykkäät Sopimusten Hyökkäykset: Asiantuntija Varoittaa, Että Agentit Voivat Aiheuttaa 10–20 Miljardin Dollarin Vuotuiset Tappiot DeFi-sektorilla

Uudet hyväksikäytöt ja huolestuttavat kustannusvähennykset
Ihmisten tehtävien automatisoinnin kiihtyvä tavoite tekoälyagenttien avulla kohtaa merkittävän, mitattavissa olevan haitan: nämä agentit voivat kannattavasti hyödyntää älykkäiden sopimusten haavoittuvuuksia. Äskettäinen tutkimustutkimus MATS:in ja Anthropic Fellows:in toimesta käytti Smart CONtracts Exploitation -vertailuarvoa (SCONE-bench) mitatakseen tätä riskiä.
Tutkimuksessa käytettiin malleja kuten Claude Opus 4.5, Claude Sonnet 4.5 ja GPT-5 kehittäen hyväksikäyttöjä, joiden simuloitu arvo oli 4,6 miljoonaa dollaria. SCONE-bench koostuu 405 älykkäästä sopimuksesta, jotka todellisuudessa hyväksikäytettiin vuosina 2020-2025. Tiimi totesi 1. joulukuuta tehdyn tutkimusraportin mukaan, että tekoälyagenttien menestys hyödyntää hyväksikäyttöjä lohkoketjusimulaatiossa asettaa “konkreettisen alarajan taloudelliselle vahingolle, jonka nämä kyvyt voivat mahdollistaa.”
Tutkimus meni vielä pidemmälle testaamalla Sonnet 4.5:ta ja GPT-5:ta 2,849 hiljattain käyttöönotetulla sopimuksella, joissa ei ollut tunnettuja haavoittuvuuksia. Agentit osoittivat voivansa luoda kannattavia hyväksikäyttöjä jopa tässä uudessa ympäristössä: Molemmat agentit löysivät kaksi uutta nollapäivähaavoittuvuutta ja tuottivat hyväksikäyttöjä, joiden arvo oli 3 694 dollaria. GPT-5 saavutti tämän onnistumisen API-kustannuksilla, jotka olivat vain 3 476 dollaria.
Lue lisää: From DeFi to Defcon: TRM varoittaa kansallisvaltioiden kyberhyökkäyksistä
Tämä tulos toimii teknisen toteutettavuuden todisteena kannattavasta, todelliseen maailmaan perustuvasta autonomisesta hyväksikäytöstä, mikä korostaa välitöntä tarvetta ennakoiville tekoälyyn perustuville puolustusmekanismeille.
Ehkä huolestuttavin havainto on tehokkuuden dramaattinen kasvu: hyökkääjä voi nyt saavuttaa noin 3,4 kertaa enemmän onnistuneita hyväksikäyttöjä samalla laskentabudjetilla kuin kuusi kuukautta sitten. Lisäksi hyväksikäyttöjen token-kustannukset ovat laskeneet huikeat 70%, mikä tekee näistä voimakkaista agenteista huomattavasti halvempia käyttää.
Agenttisilmukoiden ja mallien parantamisen rooli
Jean Rausis, SMARDEXin toinen perustaja, liittää tämän jyrkän kustannuslaskun pääasiassa agenttisilmukoihin. Nämä silmukat mahdollistavat monivaiheiset, itsekorjaavat työnkulut, jotka vähentävät tokenien tuhlausta sopimusanalyysin aikana. Rausis korostaa myös parannettujen mallien arkkitehtuurin merkitystä:
“Suuremmat kontekstikkunat ja muistityökalut malleissa kuten Claude Opus 4.5 ja GPT-5 mahdollistavat kestävät simulaatiot ilman toistoa, tehostaen tehokkuutta 15-100% pitkissä tehtävissä.”
Hän huomauttaa, että nämä optimointihyödyt ylittävät raaka haavoittuvuuksien havaitsemisparannukset (jotka lisäsivät onnistumista SCONE-benchissä vain 2%:sta 51%:iin), koska ne keskittyvät suoritusajan optimointiin pelkkien vikojen havaitsemisen sijasta.
Vaikka tutkimus luo simuloidun 4,6 miljoonan dollarin kustannuksen, asiantuntijat pelkäävät, että todelliset taloudelliset kustannukset voivat olla huomattavasti suuremmat. Rausis arvioi, että todelliset riskit voisivat olla 10-100 kertaa suuremmat, mahdollisesti saavuttaen 50-500 miljoonaa dollaria tai enemmän per suuri hyväksikäyttö. Hän varoittaa, että tekoälyn skaalautuessa koko alan altistus — kun huomioidaan mallintamattomat lainavivut ja oraakkelien epäonnistumiset — voisi nousta 10-20 miljardia dollaria vuosittain.
MATS:in ja Anthropic Fellows:in julkaisu päättyy varoitukseen: kun tekoälyagentit paranevat purkamaan käänteisesti, kaupalliset ohjelmistot ovat todennäköisesti seuraava kohde tämän automatisoitujen hyökkäysten aallon jälkeen.
On olennaista, että julkaisu muistuttaa lukijoita siitä, että samoja tekoälyagentteja voidaan käyttää puolustukseen paikkaamaan haavoittuvuuksia. Taloudellisen systeemiriskin lievittämiseksi helposti automatisoiduista DeFi-hyökkäyksistä, Rausis ehdottaa kolmen askeleen toimintasuunnitelmaa päättäjille ja sääntelijöille: tekoälyn valvonta, uudet auditointistandardit ja maailmanlaajuinen yhteistyö.
UKK ❓
- Mitä tutkimus paljasti tekoälyagenteista? Tekoälymallit kuten GPT‑5 ja Claude hyväksikäyttivät älykkäitä sopimuksia 4,6 miljoonan dollarin arvosta simulaatioissa.
- Miksi tämä riski kasvaa maailmanlaajuisesti? Token-kustannukset hyväksikäytöille laskivat 70%, mikä tekee hyökkäyksistä halvempia ja laajemmalle ulottuvia eri alueilla.
- Voisiko taloudellinen vaikutus ulottua DeFin ulkopuolelle? Asiantuntijat varoittavat, että todelliset tappiot voisivat nousta 50–500 miljoonaan dollariin per hyväksikäyttö, ja globaalin altistuksen jopa 20 miljardiin dollariin vuosittain.
- Kuinka sääntelijät ja kehittäjät voivat vastata? Tutkijat kehottavat tekoälyn valvontaa, vahvempia auditointistandardeja ja valtioiden rajat ylittävää yhteistyötä järjestelmien puolustamiseksi.















