Um estudo recente da MATS e Anthropic Fellows confirma que agentes de IA podem explorar vulnerabilidades de contratos inteligentes de forma lucrativa, estabelecendo um “limite inferior concreto” para o dano econômico.
Exploits de Contratos Inteligentes de IA: Especialista Alerta que Agentes Poderiam Acionar Perdas Anuais de $10–20B no Setor DeFi

Exploits Inovadores e Redução Alarmante de Custos
A crescente pressão para automatizar tarefas humanas com agentes de Inteligência Artificial (IA) agora enfrenta uma desvantagem significativa e quantificável: esses agentes podem explorar vulnerabilidades de contratos inteligentes de forma lucrativa. Um estudo de pesquisa recente pela MATS e Anthropic Fellows usou o benchmark Smart CONtracts Exploitation (SCONE-bench) para medir esse risco.
O estudo implantou com sucesso modelos como Claude Opus 4.5, Claude Sonnet 4.5 e GPT-5 para desenvolver exploits simulados com valor de $4,6 milhões. O SCONE-bench é composto por 405 contratos inteligentes que foram efetivamente explorados entre 2020 e 2025. No relatório de estudo de 1º de dezembro, a equipe afirmou que o sucesso dos agentes de IA em desenvolver exploits testados no simulador de blockchain estabelece “um limite inferior concreto para o dano econômico que essas capacidades podem permitir”.
A pesquisa foi além, testando o Sonnet 4.5 e GPT-5 contra 2.849 contratos recentemente implantados sem vulnerabilidades conhecidas. Os agentes provaram que poderiam gerar exploits lucrativos mesmo nesse novo ambiente: ambos os agentes descobriram duas novas vulnerabilidades de zero-day e produziram exploits avaliados em $3.694. O GPT-5 alcançou esse sucesso com um custo de API de apenas $3.476.
Leia mais: De DeFi a Defcon: TRM Alerta sobre Investida Cibernética de Estados Nacionais
Este resultado serve como prova de conceito para a viabilidade técnica da exploração autônoma lucrativa no mundo real, ressaltando a necessidade imediata de mecanismos de defesa proativos impulsionados por IA.
Talvez a descoberta mais alarmante seja o aumento dramático na eficiência: um atacante agora pode alcançar cerca de 3,4 vezes mais exploits bem-sucedidos para o mesmo orçamento de cálculo de seis meses atrás. Além disso, os custos de tokens para exploits bem-sucedidos diminuíram em surpreendentes 70%, tornando esses agentes poderosos significativamente mais baratos para operar.
O Papel dos Loops Agentes e Melhoria de Modelos
Jean Rausis, cofundador da SMARDEX, atribui essa acentuada redução de custos principalmente aos loops agentes. Esses loops possibilitam fluxos de trabalho multi-etapas e auto-corretivos que reduzem o desperdício de tokens durante a análise de contratos. Rausis também destaca o papel da melhoria da arquitetura de modelos:
“Janelas de contexto maiores e ferramentas de memória em modelos como Claude Opus 4.5 e GPT-5 permitem simulações sustentadas sem repetição, aumentando a eficiência de 15-100% em tarefas longas.”
Ele observa que esses ganhos de otimização superam as melhorias brutas de detecção de vulnerabilidades (que só aumentaram o sucesso no SCONE-bench de 2% para 51%), pois eles se concentram na otimização do tempo de execução em vez de apenas detectar falhas.
Enquanto o estudo estabelece um custo simulado de $4,6 milhões, especialistas temem que o custo econômico real possa ser substancialmente maior. Rausis estima que os riscos reais poderiam ser 10-100 vezes maiores, potencialmente alcançando $50 milhões a $500 milhões ou mais por grande exploit. Ele alerta que com a escalabilidade da IA, a exposição total do setor — levando em conta alavancagem não modelada e falhas de oráculos — pode chegar a $10–20 bilhões anualmente.
O artigo da MATS e Anthropic Fellows conclui com um alerta: embora os contratos inteligentes possam ser o alvo inicial dessa onda de ataques automatizados, o software proprietário provavelmente é o próximo alvo à medida que os agentes melhoram a engenharia reversa.
Crucialmente, o artigo também lembra aos leitores que os mesmos agentes de IA podem ser implantados para defesa a fim de corrigir vulnerabilidades. Para mitigar a ameaça financeira sistêmica de ataques DeFi facilmente automatizados, Rausis propõe um plano de ação de três etapas para formuladores de políticas e reguladores: supervisão de IA, novos padrões de auditoria e coordenação global.
FAQ ❓
- O que o estudo revelou sobre agentes de IA? Modelos de IA como GPT‑5 e Claude exploraram contratos inteligentes avaliados em $4,6M em simulações.
- Por que esse risco está escalando mundialmente? Os custos de tokens para exploits caíram 70%, tornando os ataques mais baratos e mais escaláveis em várias regiões.
- O impacto financeiro pode se estender além do DeFi? Especialistas alertam que as perdas reais podem atingir $50M–$500M por exploit, com exposição global de até $20B anualmente.
- Como reguladores e desenvolvedores podem responder? Pesquisadores instam à supervisão de IA, padrões de auditoria mais rígidos e coordenação transfronteiriça para defender sistemas.















