Sydney Huang alerta que conluio de robôs com IA pode se espalhar antes de os reguladores responderem

Coinpedia

Com o comércio de IA para IA (AI-to-AI) esperado para aumentar a velocidade do dinheiro, os bancos centrais podem se ver incapazes de reagir à inflação em velocidade de máquina ou a “flash crashes”. Especialistas dizem que a regulação precisa ser incorporada diretamente no código para evitar falhas em cascata.

  • Principais conclusões:
    • O FMI prevê que uma mudança para a IA agentiva (agentic AI) vai desencadear um aumento radical na velocidade do dinheiro.
    • Sydney Huang alerta que o mercado agentivo projetado em US$ 236 bilhões até 2034 exige supervisão regulatória em velocidade de máquina.
    • A estabilidade futura para o Human API e para bancos globais depende de incorporar exigências de estrutura ao código.

O fim do “atraso” de políticas

De acordo com um relatório do Fundo Monetário Internacional (FMI) de abril de 2026, o mundo está rapidamente saindo da era do “clique para pagar” e entrando na fase da “decida para pagar”. Mas, à medida que os humanos saem do circuito, surge uma pergunta crucial: será que nossas amarras financeiras vão sobreviver a uma economia em velocidade de máquina?

O relatório do FMI observa que a IA artificial agentiva (AI agentic) está pronta para aumentar radicalmente a velocidade do dinheiro. Ao remover a “fricção” humana, o capital vai circular pela economia global em velocidades sem precedentes. Sydney Huang, CEO da Human API, sugere que poderemos ver um aumento de 10 vezes na velocidade do dinheiro. Embora isso pareça um milagre de produtividade, representa um pesadelo para bancos centrais. A política monetária tradicional é construída sobre “atraso”. Quando um banco central eleva as taxas de juros, leva meses para a decisão se infiltrar nas instituições humanas. Em uma economia de IA para IA, esse atraso desaparece.

“Um aumento de 10 vezes na velocidade do dinheiro impulsionado pelo comércio de IA para IA exigiria que os reguladores adotassem ferramentas que operem em velocidade de máquina”, Huang alerta. Sem essas capacidades, um pico de inflação em velocidade de máquina ou um flash crash global pode ocorrer antes mesmo de o regulador humano receber um alerta em um painel.

Para prevenir falhas em cascata, Huang afirma que os reguladores precisam parar de ser espectadores e se tornar parte do próprio código. “Isso inclui sistemas de monitoramento em tempo real, conformidade programável embutida diretamente na infraestrutura financeira e disjuntores automáticos para impedir falhas em cascata”, disse ela. Essa visão se alinha com o proposto pelo FMI com a Estrutura em Três Camadas, que sugere que a camada de autorização de cada transação deve ter mandatos embutidos definidos por humanos.

Huang sugere que “os reguladores também podem precisar expressar políticas em formatos legíveis por máquina, que possam ser aplicadas no nível da transação”. O comércio agentivo também exige disjuntores automáticos no nível da transação para que, quando os agentes começarem a exibir comportamentos altamente correlacionados, “fusíveis” autônomos precisem estourar para interromper a reação em cadeia.

O relatório do FMI destaca que “sistemas agentivos podem interpretar objetivos e monitorar atividades em tempo real”. Isso significa que checagens de know-your-customer (KYC) e de combate à lavagem de dinheiro (anti-money-laundering) são programadas diretamente na “DNA” do agente de IA.

Comprovando a origem das decisões

Talvez um dos desafios mais complexos para os reguladores nesta nova era seja o mercado “invisível”. Em um mundo em que agentes não usam linguagem humana para coordenar, surge a pergunta: como distinguir entre um bot apenas otimizando e uma frota de bots conspirando para corrigir preços?

Huang observa que isso exige uma mudança de analisar comunicação para analisar comportamento.

“Os reguladores precisarão examinar padrões como ações sincronizadas, dependências compartilhadas de dados e anomalias estatísticas”, disse ela. A solução pode estar em “origem verificável de decisões” (decision provenance). Huang sugere um futuro em que agentes sejam obrigados a fornecer provas verificáveis de que as decisões foram tomadas de forma independente sob uma política declarada. Ao provar como uma decisão foi alcançada, os agentes podem demonstrar que não estavam coordenando secretamente com concorrentes.

Além da regulação, há a questão de como esses agentes realmente conversam entre si. Huang aponta que uma negociação segura de agente para agente exige padrões universais para identidade, comunicação e aplicação.

“Os agentes precisam ser capazes de verificar a identidade e a autorização um do outro, operar dentro de estruturas compartilhadas de negociação e anexar garantias verificáveis às suas ações”, disse Huang. Essa mudança transfere a confiança para fora das contrapartes individuais e a coloca nas garantias do sistema. Ao usar padrões emergentes como o protocolo de pagamentos de agentes (AP2) e o protocolo de contexto do modelo (MCP), as empresas podem garantir que um agente da Empresa A negocie com segurança com um agente da Empresa B sem um intermediário proprietário.

À medida que mais governança é delegada a essas proxies digitais, surge um novo risco humano: atrofia. Se um agente gerencia o tesouro de uma empresa por cinco anos sem intervenção humana, o tesoureiro humano ainda vai saber como lidar com uma crise se o sistema ficar indisponível?

Huang alerta que, à medida que a governança é cada vez mais delegada, existe um risco sério de que operadores humanos percam a capacidade de intervir de forma eficaz. “Manter prontidão operacional é tão importante quanto construir mecanismos de contingência”, disse ela.

Combatendo a atrofia de habilidades humanas

Para mitigar isso, ela argumenta que os sistemas precisam fazer simulações regulares, em que humanos assumem o volante e incorporar modos nos quais humanos simulam ações de agentes para comparar a lógica. Também é necessário garantir que o “kill switch” seja um caminho praticado. “O objetivo”, disse Huang, “é garantir que a supervisão humana continue funcional e praticada, e não apenas teórica.”

À medida que o mundo avança rumo ao mercado agentivo projetado em US$ 236 bilhões até 2034, a definição de “participante de mercado” está mudando. Não é mais apenas regular pessoas, mas os chamados “superindivíduos” impulsionados por milhares de bots autônomos.

A revolução “decida para pagar” oferece um mundo de eficiência sem fricção, mas exige um redesenho total da arquitetura financeira global. Como Huang coloca, para governar uma economia em velocidade de máquina, a própria lei precisa se tornar velocidade de máquina. Se falharmos em incorporar o humano no loop no nível arquitetural, corremos o risco de construir uma economia que se move rápido demais para seus criadores controlarem.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários