За підтримки
Featured

Експлуатація розумних контрактів AI: Експерт попереджає, що агенти можуть спричинити щорічні збитки в $10–20 млрд в секторі DeFi

Недавнє дослідження MATS та Anthropic Fellows підтверджує, що AI-агенти можуть вигідно використовувати вразливості смарт-контрактів, встановлюючи “конкретний нижній поріг” економічної шкоди.

АВТОР
ПОДІЛИТИСЯ
Експлуатація розумних контрактів AI: Експерт попереджає, що агенти можуть спричинити щорічні збитки в $10–20 млрд в секторі DeFi

Нові експлойти та тривожне зниження витрат

Прискорене прагнення автоматизувати людські завдання за допомогою агентів штучного інтелекту (AI) наразі стикається з суттєвим, кількісно визначуваним зворотнім боком: ці агенти можуть вигідно використовувати вразливості смарт-контрактів. Недавнє наукове дослідження MATS та Anthropic Fellows використало еталон Smart CONtracts Exploitation (SCONE-bench) для вимірювання цього ризику.

Дослідження успішно розгорнуло моделі, такі як Claude Opus 4.5, Claude Sonnet 4.5 і GPT-5, для розробки експлойтів, симульованих на суму $4,6 мільйонів. SCONE-bench складається з 405 смарт-контрактів, фактично експлуатованих між 2020 і 2025 роками. У своєму звіті від 1 грудня команда заявила, що успіх AI-агентів у розробці експлойтів, випробуваних на симуляторі блокчейну, встановлює “конкретний нижній поріг для економічної шкоди, які ці можливості можуть забезпечити”.

Дослідження просунулося далі, протестувавши Sonnet 4.5 і GPT-5 на 2,849 нещодавно розгорнутих контрактах без відомих вразливостей. Агенти довели, що можуть створювати вигідні експлойти навіть в цьому новому середовищі: обидва агенти виявили дві нові zero-day вразливості і створили експлойти, оцінені в $3,694. GPT-5 досяг цього успіху з вартістю API всього $3,476.

Дізнайтеся більше: Від DeFi до Defcon: TRM попереджує про кібернаступ державних акторів

Цей результат слугує доказом концепції на технічну можливість вигідної, реальної автономної експлуатації, що підкреслює нагальну потребу в проактивних захисних механізмах, керованих штучним інтелектом.

Можливо, найбільш тривожне відкриття — це різке підвищення ефективності: тепер зловмисник може досягти приблизно 3,4 рази більше успішних експлойтів за той же бюджет обчислень, як шість місяців тому. Крім того, вартість токенів для успішних експлойтів знизилася на приголомшливі 70%, роблячи ці потужні агенти значно дешевшими в експлуатації.

Роль агентних циклів і покращення моделей

Жан Раусіс, співзасновник SMARDEX, приписує це різке зниження витрат головним чином агентним циклам. Ці цикли дозволяють виконувати багатокрокові, самокоректуючі робочі процеси, які зменшують втрати токенів під час аналізу контрактів. Раусіс також звертає увагу на роль поліпшеної архітектури моделей:

“Більші вікна контексту і інструменти пам’яті в моделях, таких як Claude Opus 4.5 та GPT-5, дозволяють підтримувати симуляції без повторень, підвищуючи ефективність на 15-100% в довгих завданнях.”

Він зазначає, що ці покращення оптимізації випереджають покращення виявлення вразливостей (які збільшили успіх на SCONE-bench з 2% до 51%), оскільки вони зосереджені на оптимізації часу виконання, а не просто на виявленні недоліків.

Хоча дослідження встановлює симульовану вартість у $4,6 мільйона, експерти побоюються, що фактична економічна вартість може бути істотно вищою. Раусіс оцінює, що реальні ризики можуть бути в 10-100 разів вищими, потенційно досягаючи $50 мільйонів до $500 мільйонів або більше за основний експлойт. Він попереджає, що зі збільшенням AI, загальна секторальна експозиція — з урахуванням немодельованих важелів і невдач оракулів — може досягти $10-20 мільярдів на рік.

Документ MATS та Anthropic Fellows завершується попередженням: хоча смарт-контракти можуть бути початковою мішенню цієї хвилі автоматичних атак, власницьке програмне забезпечення, ймовірно, буде наступною мішенню, оскільки агенти покращують реверс-інжиніринг.

Важливо, що документ також нагадує читачам, що ті ж AI-агенти можуть бути розгорнуті для захисту з метою усунення вразливостей. Щоб зменшити системний фінансовий ризик від легко автоматизованих атак DeFi, Раусіс пропонує трирівневий план дій для політиків і регуляторів: нагляд AI, нові стандарти аудиту та глобальна координація.

FAQ ❓

  • Що показало дослідження щодо AI-агентів? Моделі AI, такі як GPT-5 і Claude, експлуатували смарт-контракти вартістю $4,6 мільйона у симуляціях.
  • Чому цей ризик зростає в усьому світі? Вартість токенів для експлойтів знизилася на 70%, роблячи атаки дешевшими і більш масштабованими за регіонами.
  • Чи може фінансовий вплив виходити за межі DeFi? Експерти попереджають, що реальні втрати можуть досягти $50 мільйонів до $500 мільйонів за експлойт, з глобальною експозицією до $20 мільярдів річно.
  • Як можуть реагувати регулятори та розробники? Дослідники закликають до нагляду за AI, зміцнення стандартів аудиту та трансграничної координації для захисту систем.
Теги в цій статті