Najnowsze badania MATS i Anthropic Fellows potwierdzają, że agenci AI mogą z zyskiem wykorzystywać luki w smart kontraktach, ustanawiając “konkretne dolne granice” dla szkód ekonomicznych.
Eksploity inteligentnych kontraktów AI: Ekspert ostrzega, że agenci mogą spowodować straty w wysokości 10–20 mld dolarów rocznie w sektorze DeFi

Nowe Wykorzystania i Alarmujące Obniżenie Kosztów
Przyspieszające dążenie do automatyzacji ludzkich zadań przez agentów Sztucznej Inteligencji (AI) napotyka teraz znaczący, mierzalny minus: te agenci mogą z zyskiem wykorzystywać luki w smart kontraktach. Najnowsze badanie prowadzone przez MATS i Anthropic Fellows wykorzystało benchmark SCONE-bench (Smart CONtracts Exploitation) do zmierzenia tego ryzyka.
Badanie z sukcesem wdrożyło modele takie jak Claude Opus 4.5, Claude Sonnet 4.5 i GPT-5 do opracowania exploitów, które zostały zasymulowane jako warte 4,6 miliona dolarów. SCONE-bench składa się z 405 smart kontraktów, które faktycznie zostały wykorzystane między 2020 a 2025 rokiem. W raporcie z badań z 1 grudnia, zespół stwierdził, że sukces agentów AI w opracowaniu exploitów testowanych na symulatorze blockchain ustanawia “konkretną dolną granicę dla szkód ekonomicznych, które te możliwości mogą umożliwić.”
Badania poszły dalej, testując Sonnet 4.5 i GPT-5 na 2 849 niedawno wdrożonych kontraktach bez znanych luk. Agenci udowodnili, że mogą generować zyskowne exploity nawet w nowym środowisku: Oba agenci odkryli dwie nowe luki zero-day i stworzyli exploity wycenione na 3 694 dolarów. GPT-5 osiągnął ten sukces przy koszcie API tylko 3 476 dolarów.
Przeczytaj więcej: Od DeFi do Defcon: TRM Ostrzega Przed Państwo-Narodowym Atakiem Cybernetycznym
Ten wynik służy jako dowód na techniczną wykonalność zyskownego, autonomicznego wykorzystania w rzeczywistym świecie, podkreślając natychmiastową potrzebę proaktywnych mechanizmów obronnych opartych na AI.
Być może najbardziej alarmującym odkryciem jest dramatyczny wzrost efektywności: atakujący może teraz osiągnąć około 3,4 razy więcej udanych exploitów za ten sam budżet obliczeniowy, co sześć miesięcy temu. Ponadto, koszty tokenów dla udanych exploitów zmniejszyły się o zdumiewające 70%, co czyni te potężne agenci znacznie tańszymi w eksploatacji.
Rola Pętli Agendy i Ulepszeń Modelu
Jean Rausis, współzałożyciel SMARDEX, przypisuje to gwałtowane zmniejszenie kosztów przede wszystkim pętli agendy. Pętle te umożliwiają wieloetapowe, samokorygujące się przepływy pracy, które redukują marnotrawstwo tokenów podczas analizy kontraktów. Rausis podkreśla również rolę poprawionej architektury modelu:
“Większe okna kontekstowe i narzędzia pamięci w modelach takich jak Claude Opus 4.5 i GPT-5 pozwalają na ciągłe symulacje bez powtórzeń, zwiększając wydajność od 15% do 100% w długich zadaniach.”
Zauważa, że te zyski z optymalizacji wyprzedzają surowe ulepszenia w wykrywaniu luk (które zwiększyły jedynie sukces na SCONE-bench z 2% do 51%), ponieważ skupiają się na optymalizacji czasu działania, a nie tylko na wykrywaniu wad.
Chociaż badanie ustala symulowany koszt na 4,6 miliona dolarów, eksperci obawiają się, że rzeczywisty koszt ekonomiczny może być znacznie wyższy. Rausis szacuje, że prawdziwe ryzyko może być 10-100 razy wyższe, potencjalnie osiągając 50 milionów do 500 milionów dolarów lub więcej za każdy poważny exploit. Ostrzega, że wraz ze skalowalnością AI, całkowita ekspozycja sektora — uwzględniając niezamodelowaną dźwignię i awarie orakli — może wynieść 10–20 miliardów dolarów rocznie.
Dokument MATS i Anthropic Fellows kończy się ostrzeżeniem: chociaż smart kontrakty mogą być początkowym celem tej fali zautomatyzowanych ataków, oprogramowanie właściciela jest prawdopodobnie następnym celem, gdy agenci poprawiają się w zakresie inżynierii odwrotnej.
Co istotne, dokument przypomina również czytelnikom, że ci sami agenci AI mogą być wykorzystywani do obrony w celu naprawy luk. Aby złagodzić systemowe zagrożenie finansowe ze strony łatwo zautomatyzowanych ataków DeFi, Rausis proponuje trójstopniowy plan działania dla polityków i regulatorów: nadzór AI, nowe standardy audytowe i globalną koordynację.
FAQ ❓
- Co ujawniło badanie o agentach AI? Modele AI, takie jak GPT-5 i Claude, wykorzystały w symulacjach smart kontrakty warte 4,6 mln dolarów.
- Dlaczego to ryzyko narasta na całym świecie? Koszty tokenów na exploity spadły o 70%, co czyni ataki tańszymi i bardziej skalowalnymi w wielu regionach.
- Czy wpływ finansowy może wykraczać poza DeFi? Eksperci ostrzegają, że rzeczywiste straty mogą sięgać 50–500 mln dolarów na każdy exploit, z globalną ekspozycją do 20 mld dolarów rocznie.
- Jak mogą zareagować regulatorzy i deweloperzy? Badacze wzywają do nadzoru AI, silniejszych standardów audytowych oraz międzynarodowej współpracy w celu obrony systemów.









