Impulsado por
Featured

Explotaciones de Contratos Inteligentes de IA: Experto Advierte que los Agentes Podrían Provocar Pérdidas Anuales de $10–20 Mil Millones en el Sector DeFi

Un estudio reciente de MATS y Anthropic Fellows confirma que los agentes de IA pueden explotar vulnerabilidades de contratos inteligentes de manera rentable, estableciendo un “límite inferior concreto” para el daño económico.

ESCRITO POR
COMPARTIR
Explotaciones de Contratos Inteligentes de IA: Experto Advierte que los Agentes Podrían Provocar Pérdidas Anuales de $10–20 Mil Millones en el Sector DeFi

Nuevas Exploitaciones y Alarma por Reducción de Costos

El impulso acelerado para automatizar tareas humanas con agentes de Inteligencia Artificial (IA) ahora enfrenta un inconveniente significativo y cuantificable: estos agentes pueden explotar rentablemente las vulnerabilidades de los contratos inteligentes. Un estudio de investigación reciente de MATS y Anthropic Fellows utilizó el benchmark de Explotación de CONtratos Inteligentes (SCONE-bench) para medir este riesgo.

El estudio desplegó con éxito modelos como Claude Opus 4.5, Claude Sonnet 4.5 y GPT-5 para desarrollar exploits simulados con un valor de $4,6 millones. El SCONE-bench está compuesto por 405 contratos inteligentes que fueron realmente explotados entre 2020 y 2025. En su informe de estudio del 1 de diciembre, el equipo afirmó que el éxito de los agentes de IA en desarrollar exploits probados en el simulador de blockchain establece “un límite inferior concreto para el daño económico que estas capacidades podrían habilitar”.

La investigación fue más allá al probar Sonnet 4.5 y GPT-5 contra 2,849 contratos recientemente desplegados sin vulnerabilidades conocidas. Los agentes demostraron que podían generar exploits rentables incluso en este nuevo entorno: ambos agentes descubrieron dos nuevas vulnerabilidades de día cero y produjeron exploits valorados en $3,694. GPT-5 logró este éxito con un costo de API de solo $3,476.

Leer más: De DeFi a Defcon: TRM Advierte de Ola de Ciberataques por Estados-Nación

Este resultado sirve como prueba de concepto para la viabilidad técnica de la explotación autónoma rentable en el mundo real, subrayando la necesidad inmediata de mecanismos de defensa proactivos impulsados por IA.

Quizás el hallazgo más alarmante es el aumento dramático en la eficiencia: un atacante ahora puede lograr aproximadamente 3.4 veces más exploits exitosos con el mismo presupuesto de computación que hace seis meses. Además, los costos de tokens para exploits exitosos han disminuido en un asombroso 70%, haciendo que estos poderosos agentes sean significativamente más baratos de operar.

El Papel de los Bucles Agénticos y la Mejora del Modelo

Jean Rausis, cofundador de SMARDEX, atribuye este marcado descenso en costos principalmente a los bucles agénticos. Estos bucles permiten flujos de trabajo de varios pasos y autocorrección que reducen el desperdicio de tokens durante el análisis de contratos. Rausis también destaca el papel de la mejora en la arquitectura del modelo:

“Ventanas de contexto más grandes y herramientas de memoria en modelos como Claude Opus 4.5 y GPT-5 permiten simulaciones sostenidas sin repetición, mejorando la eficiencia entre 15 y 100% en tareas largas.”

Él señala que estas ganancias de optimización sobrepasan las mejoras en la detección de vulnerabilidades en bruto (que solo aumentaron el éxito en SCONE-bench del 2% al 51%), ya que se concentran en optimizar el tiempo de ejecución en lugar de solo detectar fallos.

Mientras el estudio establece un costo simulado de $4,6 millones, los expertos temen que el costo económico real podría ser sustancialmente mayor. Rausis estima que los riesgos reales podrían ser de 10 a 100 veces mayores, potencialmente alcanzando $50 millones a $500 millones o más por cada exploit importante. Advierte que con la escalabilidad de la IA, la exposición total a nivel sectorial—considerando la palanca no modelada y fallas de oráculos—podría alcanzar entre $10 y $20 mil millones anuales.

El documento de MATS y Anthropic Fellows concluye con una advertencia: mientras los contratos inteligentes pueden ser el objetivo inicial de esta ola de ataques automatizados, es probable que el software propietario sea el próximo objetivo a medida que los agentes mejoren en la ingeniería inversa.

Crucialmente, el documento también recuerda a los lectores que los mismos agentes de IA pueden desplegarse para la defensa y reparar vulnerabilidades. Para mitigar la amenaza financiera sistémica de ataques DeFi fácilmente automatizados, Rausis propone un plan de acción de tres pasos para los legisladores y reguladores: supervisión de IA, nuevos estándares de auditoría y coordinación global.

Preguntas Frecuentes ❓

  • ¿Qué reveló el estudio sobre los agentes de IA? Modelos de IA como GPT‑5 y Claude explotaron contratos inteligentes por valor de $4,6 millones en simulaciones.
  • ¿Por qué este riesgo está aumentando a nivel mundial? Los costos de tokens para exploits bajaron un 70%, haciendo que los ataques sean más baratos y escalables en diferentes regiones.
  • ¿Podría el impacto financiero extenderse más allá de DeFi? Los expertos advierten que las pérdidas reales podrían llegar a $50M–$500M por exploit, con una exposición global de hasta $20B anuales.
  • ¿Cómo pueden responder los reguladores y desarrolladores? Los investigadores instan a la supervisión de IA, a estándares de auditoría más estrictos, y a la coordinación transfronteriza para defender los sistemas.