Dado que se prevé que el comercio entre IA aumente la velocidad del dinero, los bancos centrales podrían verse incapaces de reaccionar ante una inflación a velocidad de máquina o ante caídas repentinas de los mercados. Los expertos sugieren que la regulación debe integrarse directamente en el código para evitar fallos en cadena.
Sydney Huang advierte de que la colusión entre bots de IA podría extenderse antes de que los reguladores actúen

Key Takeaways
- El FMI prevé que el paso a la IA con capacidad de agencia provocará un aumento radical de la velocidad del dinero.
- Sydney Huang advierte de que el mercado de IA agentiva, que se prevé que alcance los 236 000 millones de dólares en 2034, requiere una supervisión regulatoria a la velocidad de las máquinas.
- La estabilidad futura de Human API y de los bancos globales depende de la incorporación de mandatos normativos en el código.
El fin del «retraso» de las políticas
Según un informe del Fondo Monetario Internacional (FMI) de abril de 2026, el mundo está saliendo rápidamente de la era del «clic para pagar» y entrando en la era del «decidir para pagar». Pero a medida que los humanos quedan fuera del circuito, surge una pregunta importante: ¿Podrán nuestras barreras de seguridad financieras sobrevivir a una economía a la velocidad de las máquinas?
El informe del FMI señala que la inteligencia artificial (IA) agentiva está llamada a aumentar radicalmente la velocidad del dinero. Al eliminar la «fricción» humana, el capital circulará por la economía global a velocidades sin precedentes. Sydney Huang, director ejecutivo de Human API, sugiere que podríamos asistir a un aumento de diez veces en la velocidad del dinero. Aunque esto suena como un milagro de la productividad, supone una pesadilla para los bancos centrales. La política monetaria tradicional se basa en el «retraso». Cuando un banco central sube los tipos de interés, pasan meses hasta que esa decisión se filtra a través de las instituciones humanas. En una economía de IA a IA, ese retraso desaparece.
«Un aumento de diez veces en la velocidad del dinero impulsado por el comercio de IA a IA obligaría a los reguladores a adoptar herramientas que funcionen a la velocidad de las máquinas», advierte Huang. Sin estas capacidades, podría producirse un pico de inflación a velocidad de máquina o un colapso repentino a escala global antes incluso de que un regulador humano reciba una alerta en su panel de control. Para evitar fallos en cadena, Huang sostiene que los reguladores deben dejar de ser meros espectadores y pasar a formar parte del propio código. «Esto incluye sistemas de supervisión en tiempo real, cumplimiento programable integrado directamente en la infraestructura financiera y cortacircuitos automatizados para evitar fallos en cadena», afirmó. Esta visión se alinea con el Marco de Tres Capas propuesto por el FMI, que sugiere que la capa de autorización de cada transacción debe tener mandatos integrados y definidos por humanos. Huang sugiere que «los reguladores también podrían necesitar expresar las políticas en formatos legibles por máquinas que puedan aplicarse a nivel de transacción». El comercio agencial también requiere interruptores automáticos a nivel de transacción, de modo que cuando los agentes comiencen a mostrar un comportamiento altamente correlacionado, se activen «fusibles» autónomos para detener la reacción en cadena. El informe del FMI destaca que «los sistemas agenciales pueden interpretar objetivos y supervisar la actividad en tiempo real». Esto significa que los controles de «conozca a su cliente» y contra el blanqueo de capitales están programados directamente en el ADN del agente de IA.
Demostrar el origen de las decisiones
Quizás uno de los retos más complejos para los reguladores en esta nueva era sea el mercado «invisible». En un mundo en el que los agentes no utilizan el lenguaje humano para coordinarse, surge la pregunta: ¿cómo distinguimos entre un bot que simplemente optimiza y una flota de bots que se confabulan para fijar precios? Huang señala que esto requiere pasar del análisis de la comunicación al análisis del comportamiento.
«Los reguladores tendrán que examinar patrones como las acciones sincronizadas, las dependencias de datos compartidos y las anomalías estadísticas», afirmó. La solución puede residir en la «procedencia de las decisiones». Huang sugiere un futuro en el que se exija a los agentes que proporcionen pruebas verificables de que las decisiones se tomaron de forma independiente y de acuerdo con una política declarada. Al demostrar cómo se llegó a una decisión, los agentes pueden demostrar que no se estaban coordinando en secreto con la competencia.
Más allá de la regulación, está la cuestión de cómo se comunican realmente estos agentes entre sí. Huang señala que una negociación segura entre agentes requiere estándares universales de identidad, comunicación y cumplimiento. «Los agentes deben poder verificar la identidad y la autorización de los demás, operar dentro de marcos de negociación compartidos y adjuntar garantías verificables a sus acciones», afirmó Huang. Este cambio aleja la confianza de las contrapartes individuales y la deposita en las garantías del sistema. Mediante el uso de estándares emergentes como el protocolo de pagos de agentes (AP2) y el protocolo de contexto modelo (MCP), las empresas pueden garantizar que un agente de la empresa A pueda negociar de forma segura con un agente de la empresa B sin necesidad de un intermediario propietario. A medida que se delega más gobernanza a estos representantes digitales, surge un nuevo riesgo humano: la atrofia. Si un agente gestiona la tesorería de una empresa durante cinco años sin intervención humana, ¿sabrá el tesorero humano cómo manejar una crisis si el sistema deja de funcionar? Huang advierte de que, a medida que se delega cada vez más la gobernanza, existe un grave riesgo de que los operadores humanos pierdan la capacidad de intervenir de forma eficaz. «Mantener la preparación operativa es tan importante como crear mecanismos de respaldo», afirmó.
Lucha contra la atrofia de las habilidades humanas
Para mitigar esto, sostiene que los sistemas deben realizar simulacros periódicos en los que los humanos tomen el control e incorporen modos en los que los humanos simulen las acciones de los agentes para comparar la lógica. También es necesario garantizar que el «interruptor de emergencia» sea una vía ensayada. «El objetivo», dijo Huang, «es garantizar que la supervisión humana siga siendo funcional y se practique, en lugar de ser teórica».
A medida que el mundo avanza hacia un mercado de agentes que se prevé alcance los 236 000 millones de dólares en 2034, la definición de «participante en el mercado» está cambiando. Ya no se trata solo de regular a las personas, sino a los denominados «superindividuos» impulsados por miles de bots autónomos.
La revolución del «decide-to-pay» ofrece un mundo de eficiencia sin fricciones, pero exige un rediseño total de la arquitectura financiera global. Como dice Huang, para gobernar una economía a velocidad de máquina, la propia ley debe alcanzar esa velocidad. Si no logramos integrar el factor humano en el bucle a nivel arquitectónico, corremos el riesgo de construir una economía que avance demasiado rápido para que sus creadores puedan controlarla.

Nansen prevé que los agentes de IA dominarán el mercado en 2028
La empresa de análisis Nansen ha pronosticado que los agentes de IA se convertirán en el principal medio para invertir en criptomonedas de aquí a 2028. read more.
Leer ahora
Nansen prevé que los agentes de IA dominarán el mercado en 2028
La empresa de análisis Nansen ha pronosticado que los agentes de IA se convertirán en el principal medio para invertir en criptomonedas de aquí a 2028. read more.
Leer ahora
Nansen prevé que los agentes de IA dominarán el mercado en 2028
Leer ahoraLa empresa de análisis Nansen ha pronosticado que los agentes de IA se convertirán en el principal medio para invertir en criptomonedas de aquí a 2028. read more.




















