제공
Featured

AI 스마트 계약 취약점: 전문가, 에이전트가 DeFi 부문에서 연간 100억~200억 달러 손실을 초래할 수 있다고 경고

MATS 및 Anthropic Fellows의 최근 연구는 AI 에이전트가 스마트 계약의 취약점을 수익성 있게 악용할 수 있음을 확인하여 경제적인 피해에 대한 “구체적인 하한선”을 수립했습니다.

공유
AI 스마트 계약 취약점: 전문가, 에이전트가 DeFi 부문에서 연간 100억~200억 달러 손실을 초래할 수 있다고 경고

새로운 악용 사례와 놀라운 비용 절감

인공지능(AI) 에이전트를 이용한 인간의 작업 자동화 추진이 가속화됨에 따라 심각하고 계량 가능한 단점에 직면하게 되었습니다. AI 에이전트는 스마트 계약의 취약점을 수익성 있게 악용할 수 있습니다. MATS와 Anthropic Fellows의 최근 연구는 Smart Contracts Exploitation benchmark (SCONE-bench)을 사용하여 이 위험을 측정했습니다.

연구는 Claude Opus 4.5, Claude Sonnet 4.5 및 GPT-5와 같은 모델을 사용하여 460만 달러 가치의 악용 사례를 시뮬레이션으로 개발하는 데 성공했습니다. SCONE-bench는 2020년에서 2025년 사이에 실제로 악용된 405개의 스마트 계약으로 구성되어 있습니다. 12월 1일 연구 보고서에서 팀은 블록체인 시뮬레이터에서 테스트된 악용 사례의 성공이 “이들 역량으로 초래될 수 있는 경제적 피해의 구체적인 하한선을 설정한다”고 밝혔습니다.

연구는 Sonnet 4.5와 GPT-5를 최근 배포된 2,849개의 알려진 취약점이 없는 계약에 대해 추가로 테스트했습니다. 에이전트들은 새로운 환경에서도 수익성 있는 악용 사례를 생성할 수 있음을 입증했습니다: 두 에이전트는 두 개의 새로운 제로 데이 취약점을 발견하고 3,694달러 가치의 악용 사례를 생산했습니다. GPT-5는 API 비용이 단 3,476달러로 이 성공을 달성했습니다.

더 읽기: DeFi에서 Defcon까지: TRM은 국가 주도의 사이버 공격에 대해 경고합니다

이 결과는 수익성 있는 실세계 자율 악용의 기술적 실현 가능성을 입증하여, 즉각적인 AI 기반 방어 메커니즘의 필요성을 강조합니다.

아마도 가장 놀라운 발견은 효율성의 극적인 증가일 것입니다: 공격자는 이제 6개월 전과 동일한 컴퓨팅 예산으로 약 3.4배 더 많은 성공적인 악용 사례를 달성할 수 있습니다. 더욱이, 성공적인 악용 사례의 토큰 비용은 놀랍게도 70% 하락하여 이러한 강력한 에이전트를 훨씬 더 저렴하게 실행할 수 있게 했습니다.

에이전트 루프와 모델 개선의 역할

SMARDEX의 공동 창립자인 Jean Rausis는 이러한 급격한 비용 감소의 주요 원인을 에이전트 루프에 두고 있습니다. 이러한 루프는 스마트 계약 분석 중 토큰 낭비를 줄이는 다단계, 자기 수정 워크플로를 가능하게 합니다. Rausis는 또한 개선된 모델 아키텍처의 역할을 강조합니다:

“Claude Opus 4.5 및 GPT-5와 같은 모델의 더 큰 컨텍스트 윈도우와 메모리 도구는 반복 없이 시뮬레이션을 유지할 수 있게 하여 긴 작업에서 효율성을 15-100% 증가시킵니다.”

그는 이러한 최적화 이득이 비용 효율성 개선을 초과하여 SCONE-bench의 성공률이 2%에서 51%로 늘었으며, 결함을 발견하는 것에만 집중하는 것이 아니라 실행 시간을 최적화한다고 언급합니다.

연구는 460만 달러의 시뮬레이트 비용을 설정했지만, 전문가들은 실제 경제적 비용이 크게 높을 수 있다고 우려합니다. Rausis는 실제 위험이 10-100배 높아질 수 있으며, 주요 공격당 5천만 달러에서 5억 달러 이상에 이를 수 있다고 추정합니다. 그는 AI 확장과 함께, 모델화되지 않은 레버리지 및 오라클 실패를 감안한 전체 부문 노출이 연간 100억에서 200억 달러에 이를 수 있다고 경고합니다.

MATS와 Anthropic Fellows의 종이에는 경고가 포함되어 있습니다: 스마트 계약이 이러한 자동화된 공격의 초기 대상이 될 수 있지만, 에이전트가 역공학을 개선함에 따라 독점 소프트웨어가 다음 목표가 될 가능성이 높습니다.

무엇보다도, 이 논문은 동일한 AI 에이전트가 취약점을 패치하기 위해 방어에 사용할 수 있음을 독자에게 상기시킵니다. 쉽게 자동화된 DeFi 공격으로 인한 시스템 경제적 위협을 완화하기 위해, Rausis는 정책 입안자와 규제 기관을 위한 세 단계의 행동 계획을 제안합니다: AI 감독, 새로운 감사 기준, 및 글로벌 협력.

FAQ ❓

  • 연구에서 AI 에이전트에 대해 무엇을 밝혔습니까? GPT‑5 및 Claude와 같은 AI 모델은 시뮬레이션에서 460만 달러 가치의 스마트 계약을 악용했습니다.
  • 왜 이 위험이 전 세계적으로 높아지고 있습니까? 악용을 위한 토큰 비용이 70% 감소하여 공격이 더 저렴하고 더욱 확장 가능하게 되었습니다.
  • 금융 영향이 DeFi를 넘어 확장될 수 있습니까? 전문가들은 실제 손실이 공격당 5천만 달러에서 5억 달러에 이를 수 있으며, 연간 최대 200억 달러에 이를 수 있다고 경고합니다.
  • 규제자와 개발자는 어떻게 반응할 수 있습니까? 연구자들은 AI 감독, 강화된 감사 기준, 그리고 시스템 방어를 위한 국경 간 협력을 촉구합니다.