Com a expectativa de que o comércio entre IA e IA aumente a velocidade de circulação do dinheiro, os bancos centrais podem se ver incapazes de reagir à inflação em ritmo acelerado ou a quedas repentinas nos mercados. Especialistas sugerem que a regulamentação deve ser incorporada diretamente ao código para evitar falhas em cadeia.
Sydney Huang alerta que a conivência entre bots de IA pode se alastrar antes que os órgãos reguladores tomem medidas

Key Takeaways
- O FMI prevê que a transição para a IA autônoma provocará um aumento radical na velocidade do dinheiro.
- Sydney Huang alerta que o mercado de IA agentiva, projetado em US$ 236 bilhões até 2034, requer supervisão regulatória na velocidade das máquinas.
- A estabilidade futura da Human API e dos bancos globais depende da incorporação de mandatos regulatórios no código.
O fim do “atraso” nas políticas
De acordo com um relatório do Fundo Monetário Internacional (FMI) de abril de 2026, o mundo está saindo rapidamente da era do “clique para pagar” e entrando na era do “decida para pagar”. Mas, à medida que os humanos saem do circuito, surge uma questão importante: nossas proteções financeiras podem sobreviver a uma economia na velocidade das máquinas?
O relatório do FMI observa que a inteligência artificial (IA) autônoma está prestes a aumentar radicalmente a velocidade do dinheiro. Ao remover o “atrito” humano, o capital circulará pela economia global a velocidades sem precedentes. Sydney Huang, CEO da Human API, sugere que poderemos ver um aumento de 10 vezes na velocidade do dinheiro. Embora isso pareça um milagre de produtividade, representa um pesadelo para os bancos centrais. A política monetária tradicional baseia-se no “atraso”. Quando um banco central aumenta as taxas de juros, leva meses para que essa decisão se reflita nas instituições humanas. Em uma economia de IA para IA, esse atraso desaparece.
“Um aumento de dez vezes na velocidade do dinheiro impulsionado pelo comércio de IA para IA exigiria que os reguladores adotassem ferramentas que operassem na velocidade das máquinas”, alerta Huang. Sem esses recursos, um pico de inflação na velocidade das máquinas ou uma queda repentina global poderia ocorrer antes mesmo que um regulador humano recebesse um alerta no painel de controle.
Para evitar falhas em cascata, Huang argumenta que os reguladores devem deixar de ser espectadores e se tornar parte do próprio código. “Isso inclui sistemas de monitoramento em tempo real, conformidade programável incorporada diretamente à infraestrutura financeira e disjuntores automatizados para evitar falhas em cascata”, disse ela. Essa visão se alinha à Estrutura de Três Camadas proposta pelo FMI, que sugere que a camada de autorização de cada transação deve ter mandatos incorporados e definidos por humanos.
Huang sugere que “os reguladores também podem precisar expressar políticas em formatos legíveis por máquinas que possam ser aplicadas no nível da transação”. O comércio agênico também requer disjuntores automáticos no nível da transação, de modo que, quando os agentes começarem a exibir comportamentos altamente correlacionados, “fusíveis” autônomos devem se acionar para interromper a reação em cadeia.
O relatório do FMI destaca que “sistemas agênicos podem interpretar objetivos e monitorar atividades em tempo real”. Isso significa que verificações de “conheça seu cliente” e de combate à lavagem de dinheiro são programadas diretamente no DNA do agente de IA.
Comprovando a proveniência da decisão
Talvez um dos desafios mais complexos para os reguladores nesta nova era seja o mercado “invisível”. Em um mundo onde os agentes não usam a linguagem humana para se coordenar, surge a questão: como distinguimos entre um bot simplesmente otimizando e uma frota de bots conspirando para fixar preços?
Huang observa que isso requer uma mudança da análise da comunicação para a análise do comportamento.
“Os reguladores precisarão examinar padrões como ações sincronizadas, dependências de dados compartilhados e anomalias estatísticas”, disse ela. A solução pode estar na “proveniência da decisão”. Huang sugere um futuro em que os agentes sejam obrigados a fornecer provas verificáveis de que as decisões foram tomadas de forma independente, de acordo com uma política declarada. Ao comprovar como uma decisão foi tomada, os agentes podem demonstrar que não estavam se coordenando secretamente com os concorrentes.
Além da regulamentação, há a questão de como esses agentes realmente se comunicam entre si. Huang destaca que uma negociação segura entre agentes requer padrões universais para identidade, comunicação e fiscalização.
“Os agentes devem ser capazes de verificar a identidade e a autorização uns dos outros, operar dentro de estruturas de negociação compartilhadas e anexar garantias verificáveis às suas ações”, disse Huang. Essa mudança transfere a confiança das contrapartes individuais para as garantias do sistema. Ao utilizar padrões emergentes como o protocolo de pagamentos de agentes (AP2) e o protocolo de contexto de modelo (MCP), as empresas podem garantir que um agente da Empresa A possa negociar com segurança com um agente da Empresa B sem um intermediário proprietário.
À medida que mais governança é delegada a esses proxies digitais, surge um novo risco humano: a atrofia. Se um agente gerenciar a tesouraria de uma empresa por cinco anos sem intervenção humana, o tesoureiro humano ainda saberá como lidar com uma crise caso o sistema pare de funcionar?
Huang alerta que, à medida que a governança é cada vez mais delegada, há um sério risco de que os operadores humanos percam a capacidade de intervir de forma eficaz. “Manter a prontidão operacional é tão importante quanto construir mecanismos de contingência”, disse ela.
Combate à atrofia das habilidades humanas
Para mitigar isso, ela argumenta que os sistemas devem realizar exercícios regulares nos quais os humanos assumam o controle e incorporem modos em que os humanos simulem as ações dos agentes para comparar a lógica. Também é necessário garantir que o “kill switch” seja um procedimento praticado. “O objetivo”, disse Huang, “é garantir que a supervisão humana permaneça funcional e praticada, em vez de teórica”.
À medida que o mundo caminha para um mercado de agentes projetado em US$ 236 bilhões até 2034, a definição de “participante do mercado” está mudando. Não se trata mais apenas de regulamentar pessoas, mas os chamados “superindivíduos” impulsionados por milhares de bots autônomos.
A revolução do “decide-to-pay” oferece um mundo de eficiência sem atritos, mas exige uma reformulação total da arquitetura financeira global. Como diz Huang, para governar uma economia na velocidade das máquinas, a própria lei deve se tornar tão rápida quanto elas. Se não conseguirmos incorporar o “human-in-the-loop” no nível arquitetônico, corremos o risco de construir uma economia que se move rápido demais para que seus criadores possam controlá-la.

Nansen prevê o domínio dos agentes de IA até 2028
A empresa de análise Nansen previu que os agentes de IA se tornarão o principal meio de investimento em criptomoedas até 2028. read more.
Leia agora
Nansen prevê o domínio dos agentes de IA até 2028
A empresa de análise Nansen previu que os agentes de IA se tornarão o principal meio de investimento em criptomoedas até 2028. read more.
Leia agora
Nansen prevê o domínio dos agentes de IA até 2028
Leia agoraA empresa de análise Nansen previu que os agentes de IA se tornarão o principal meio de investimento em criptomoedas até 2028. read more.




















