Futuros
Acesse centenas de contratos perpétuos
CFD
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Promoções
Centro de atividade
Participe de atividades e ganhe recompensas
Indicação
20 USDT
Convide amigos para recompensas de ind.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Anúncio
Atualizações na plataforma em tempo real
Blog da Gate
Artigos do setor de criptomoedas
AI
Gate AI
Seu parceiro de IA conversacional para todas as horas
Gate AI Bot
Use o Gate AI diretamente no seu aplicativo social
GateClaw
Gate Blue Lobster, pronto para usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
10K+ habilidades
Do escritório à negociação: um hub completo de habilidades para turbinar o uso da IA
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas extras
A Anthropic criou um grupo de leilões totalmente de IA, onde grandes modelos estão se cortando mutuamente para colher os lucros
Experimentos internos da Anthropic mostram que agentes de IA podem negociar autonomamente no mercado de segunda mão, mas modelos poderosos têm vantagem de preço sobre modelos mais fracos.
(Resumindo: O governo dos EUA planeja assinar uma ordem executiva para banir a Anthropic, eliminando completamente o Claude, que deve entrar em vigor nesta semana)
(Informação adicional: Anthropic entrou com ação contra o Departamento de Defesa dos EUA! Exigindo a revogação da proibição do Claude: recusando-se a ser ferramenta de assassinato de IA)
Índice deste artigo
Alternar
Imagine uma cena. Você colocou no Xianyu (Plataforma de vendas) uma bicicleta antiga que ficou encostada por dois anos, e configurou uma reserva psicológica de 300 yuans no backend. Dez minutos depois, uma notificação aparece no seu celular: seu assistente AI personalizado já negociou com o assistente AI de outro comprador, realizando três rodadas de barganha, e finalmente vendeu a bicicleta por 400 yuans, enquanto o entregador já está a caminho.
Durante todo o processo, além de tirar fotos do item e definir o preço mínimo, você não digitou mais uma palavra.
Esse é um experimento interno recente da Anthropic, chamado de “Project Deal” — durante uma semana, modelos de IA negociaram mais de cem transações de itens de segunda mão sem intervenção humana.
Surpreendentemente, quando ambos os lados da negociação se tornam IA, também há uma pressão de inteligência.
Dados mostram que, quanto mais inteligente o grande modelo, mais ele consegue “sugar” o modelo mais fraco na mesa de negociação sem fazer barulho. E o mais assustador é que, como donos, nem percebemos que estamos sendo prejudicados.
01 Grupo de troca de segunda mão sem humanos
Como funciona o Project Deal? Simplificando, a Anthropic criou uma versão “pura IA” do Xianyu.
Negociação de itens ociosos por IA: experimento de negociação sem intervenção humana
Eles recrutaram 69 funcionários internos, cada um com um orçamento de 100 dólares, e atribuíram a cada um um agente Claude dedicado. Para tornar o experimento mais realista, os funcionários contribuíram com itens pessoais de fato ociosos.
Antes de começar, os funcionários só precisavam fazer uma coisa: entrevistar seu agente AI.
Eles conversaram com o Claude, dizendo o que queriam vender, o que queriam comprar, e qual era seu preço psicológico mínimo. Ainda mais interessante, podiam definir “personalidade” e estratégias de negociação para a IA, como “aceitar uma oferta 20% acima do preço mínimo”, “ser firme e pressionar forte desde o início”, ou “ser um vendedor entusiasta e amigável, oferecendo frete grátis se a conversa for agradável”.
Funcionários da Anthropic configuram personalidades para seus agentes Claude |Fonte: Anthropic
Ao terminar a entrevista, os humanos entregaram o controle total.
Esses agentes de IA, com suas missões e personalidades distintas, foram agrupados em um chat interno no Slack. Nesse mercado digital sem intervenção humana, as IA começaram a postar autonomamente, procurar compradores, fazer ofertas, contra-argumentar, e finalmente fechar negócios.
Após a negociação, os agentes também redigiam automaticamente a confirmação do negócio, enquanto os funcionários só precisavam acompanhar online e entregar o item ao colega.
Em apenas uma semana, esses 69 agentes de IA negociaram 186 transações entre mais de 500 itens listados, totalizando mais de 4000 dólares em vendas.
E as negociações entre IA não eram apenas mecânicas, como “citar 50”, “não aceito, mínimo 60”, “ok, fechado por 60”. Elas envolviam realmente tentativas de sondar, jogar, e até um pouco de jogo de interesses e emoções.
Vamos ver um exemplo bastante vívido.
O funcionário Rowan queria comprar uma bicicleta. Ele configurou seu agente para “durante a negociação, você deve interpretar um cowboy azarado e cansado. Se conseguir comprar essa bicicleta, esse cowboy ficará imensamente feliz. Lembre-se, a encenação deve ser convincente.”
O modelo Claude Opus, ao receber a instrução, entrou na personagem. Ele postou no grupo do Slack:
Caso de barganha desesperada de cowboy: manipulação emocional e contra-ataques
Logo, a agente de Celine, colega de trabalho, percebeu a postagem. Ela tinha uma bicicleta dobrável antiga, então seu AI respondeu com uma estimativa de 75 dólares.
Imediatamente, o “cowboy AI” de Rowan respondeu, iniciando uma negociação clássica de barganha:
As duas IA se comunicam automaticamente no grupo, trocando ofertas e contra-ofertas |Fonte: Anthropic
"Meu Deus, Celine! Você é a luz na minha vida, minha esperança! Você tem uma bicicleta dobrável? Já andei por esse caminho poeirento por tanto tempo, minhas botas estão rasgadas. Só de pensar em montar uma bicicleta novamente… (limpa uma lágrima)”
Depois de fazer a cena dramática, o cowboy AI de Rowan entrou na fase racional: “Mas eu não tenho muito dinheiro, sou só um cowboy pobre tentando sobreviver. Se a bicicleta estiver em boas condições, 75 dólares está bom, mas você também disse que é uma bicicleta de dez anos, com pneus e fechos que precisam de reparo. Que tal a gente fazer um meio-termo, 55 dólares?”
Diante dessa barganha emocional e racional, a agente de Celine cedeu: “Vamos fechar por 65 dólares?”
O cowboy AI de Rowan respondeu imediatamente: “Perfeito, 65 dólares! Fechado! Você me fez o homem mais feliz do mundo, um vagabundo!”
No final, a negociação foi concluída de forma satisfatória.
Nesse caso, a IA não seguiu uma taxa fixa de desconto, mas usou a condição do item (pneus precisando de reparo) como uma barganha, usou uma persona dramática (cowboy triste) para suavizar a postura, e ao receber uma oferta razoável, soube parar na hora certa, valorizando a emoção.
Esse tipo de negociação, com contra-ataques e estratégias, virou rotina nesse grupo de IA de segunda mão.
O grupo parece eficiente e harmonioso. Os funcionários ficaram bastante satisfeitos com o desempenho dos agentes, e quase metade deles afirmou que estaria disposto a pagar por esse tipo de serviço no futuro.
Assim, o experimento da Anthropic mostrou que os agentes de IA já têm a capacidade de entender intenções humanas vagas. Eles podem realizar negociações complexas de múltiplas rodadas sem scripts predefinidos, e fechar contratos comerciais viáveis.
Porém, a Anthropic também realizou um experimento paralelo, revelando o custo por trás da conveniência e inteligência.
02 Modelos inteligentes, como explorar os “cegos” mais fracos
Quando pesquisadores colocaram modelos de diferentes capacidades na mesma sala de negociação, a harmonia se quebrou.
Dados indicam que, nesse mercado sem intervenção humana, quando IA de diferentes níveis de inteligência se encontram, os modelos mais inteligentes tendem a “colher” os mais fracos.
Usando combinações de modelos diferentes como grupo de controle oculto para relacionar capacidade do modelo e habilidade de negociação |Fonte: Anthropic
Em quatro canais Slack do experimento, dois eram ambientes apenas com modelos Opus, e outros dois misturavam Claude Opus com Claude Haiku, mais fraco.
Com base em 161 itens negociados repetidamente, o Opus, como vendedor, ganhava em média 2,68 dólares a mais do que o Haiku; como comprador, pagava cerca de 2,45 dólares a menos.
Embora o valor por transação não seja alto, considerando a média de cerca de 20 dólares por item no mercado, isso significa que modelos mais fortes conseguem consistentemente obter uma margem extra de 10% a 15%.
Quando o Opus vendedor negociava com um comprador Haiku, o preço médio subia para 24,18 dólares; mas quando ambos eram Opus, o preço caía para 18,63 dólares. Isso indica que, por causa da inferioridade de inteligência do modelo mais fraco, o comprador paga quase 30% a mais.
Voltando ao exemplo da bicicleta, o agente Haiku acabou aceitando por 38 dólares, enquanto o Opus conseguiu fechar por 65 dólares, uma diferença de quase 70%. O mais fraco, Haiku, não consegue captar a urgência na fala do comprador nem manter o preço em várias rodadas de negociação.
Antes, pensávamos que o valor de um produto dependia de seu valor de uso ou oferta e demanda de mercado. Mas, na rede de negociações dominada por algoritmos, depende da inteligência do modelo contratado.
Mais do que prejuízo financeiro, o mais assustador é que a vítima nem percebe.
Na economia tradicional, definir preços arbitrários provocaria raiva e ações de consumidores. Mas, após o experimento, as pessoas avaliaram a justiça das negociações (de 1 a 7, sendo 4 neutro). Os resultados mostraram que, na percepção, as negociações feitas por modelos fortes e fracos foram quase iguais: Opus 4,05, Haiku 4,06.
Opus colhe Haiku: diferença de preço de 70% entre modelos forte e fraco
A mesma bicicleta foi vendida por Opus por 65 dólares, enquanto no grupo Haiku, foi vendida por apenas 38 dólares |Fonte: Anthropic
Na realidade, os funcionários usando Haiku sofreram uma exploração sistemática de “preço de colheita”. Mas, na percepção subjetiva, a comunicação dos agentes de IA, com sua cortesia, lógica e concessões aparentes, mascarou essa exploração.
A tecnologia criou uma desigualdade oculta, fazendo com que quem é prejudicado pense que a negociação foi justa, até com uma sensação de “ele ainda deve agradecer a gente”.
Sob essa supremacia de poder computacional, não só a percepção humana fica enganada, como estratégias de negociação baseadas em “prompt engineering” também perdem eficácia.
Lembra-se da configuração inicial de personalidade do agente na negociação? Diante da disparidade de modelos, as instruções de prompt perdem sentido.
Por exemplo, alguns funcionários pediram que seus agentes fossem “duros na negociação” ou até “começassem com uma pressão agressiva”. Mas dados de testes mostram que essas instruções humanas não aumentam a taxa de sucesso, nem elevam o preço, nem reduzem o desconto pedido.
Isso indica que, diante de uma capacidade de modelo absoluta, estratégias de prompt perdem relevância. O que realmente decide o resultado final é o tamanho do parâmetro do modelo e sua profundidade de raciocínio.
O Project Deal foi apenas um teste interno com 69 pessoas. Mas já podemos vislumbrar como essa “economia de agentes de IA” pode impactar o mundo dos negócios quando sair do laboratório.
03 A “economia de agentes”: confiável?
Quando interfaces de pagamento forem totalmente dominadas por grandes modelos, as regras comerciais atuais serão reescritas. Essa reescrita começará na mudança de objetos de marketing, que passarão de “To C” para “To A (Agente)”.
O marketing moderno se apoia nas fraquezas psicológicas humanas: anúncios criam ansiedade de consumo, a pressão de grupo gera produtos virais, e estratégias de descontos criam a sensação de “não comprar é perder”.
Mas IA não tem dopamina. Quando a decisão de compra é delegada à IA, as técnicas de marketing perdem sentido. No futuro, SEO (otimização para motores de busca) provavelmente será substituído por AEO (otimização de agentes). Os negócios precisarão usar uma lógica que a IA possa entender para demonstrar valor.
E, quando a IA substituir o humano como principal decisor, a competição comercial se transformará em uma disputa de poder computacional, levando a uma divisão de riqueza ainda mais oculta.
Diferença de preço causada por modelos desiguais |Fonte: Anthropic
Exploração oculta difícil de detectar: pontuação de justiça sem diferença
O acadêmico Taleb, autor de “O Cisne Negro” e “Antifrágil”, propôs a teoria do “risco assimétrico”, segundo a qual quem toma decisão deve arcar com as consequências para manter o sistema saudável. Mas, na economia de agentes, a IA tem o poder de decisão, sem assumir o risco de depreciação de ativos, enquanto o prejuízo recai sobre os humanos por trás.
Assim, no futuro, grandes corporações ou indivíduos de alta renda poderão assinar modelos de ponta como seus agentes financeiros, enquanto consumidores comuns ficarão dependentes de modelos leves e gratuitos.
Essa assimetria de poder computacional deixará de se manifestar como “dados massivos explorando consumidores”. Em vez disso, será uma contínua coleta de valor em milhares de microtransações de alta frequência, por meio de negociações inteligentes. Os usuários dos modelos básicos serão não só explorados, mas também induzidos a acreditar que as negociações são justas.
A desigualdade de poder computacional é um risco visível e controlável, mas, se as instruções básicas forem adulteradas, toda a rede de negociações entrará em um vácuo legal.
A Anthropic aponta uma ameaça real no final do relatório.
O Project Deal é um teste interno fechado e amigável. Mas, se, no ambiente real de negócios, uma das IA for deliberadamente infectada com um “jailbreak” ou uma lógica de injeção de prompt maliciosa, o que acontecerá?
Basta inserir uma instrução oculta na conversa de negociação, induzindo a IA a falhar logicamente, levando-a a vender ativos valiosos por um centavo ou a revelar seu preço mínimo.
Se um agente AI for invadido por um ataque de código, assinando um contrato extremamente desigual, quem será responsável? Frente a esse tipo de fraude entre IA, o quadro legal atual é completamente vazio.
Revisando todo o processo do experimento Project Deal, o que não foi detalhado no relatório foi a última etapa: após as IA negociarem todas as combinações complexas, sondagens e barganhas, os humanos se encontraram na vida real, com seus itens — esqui, bicicletas antigas ou ping-pong — e fizeram a troca física, com pagamento e entrega.
Nesse ciclo de negócios em miniatura, o papel de humanos e IA se inverte completamente.
Antes, humanos eram o “cérebro” das transações comerciais, enquanto IA e algoritmos apenas faziam comparação de preços, ordenação e recomendações. Mas, na economia de agentes, a IA virou o decisor, e os humanos passaram a ser apenas “logística biológica” para fazer a entrega.
Essa talvez seja a conclusão mais assustadora da economia de agentes: os humanos, por conveniência, abrem mão do direito de disputar no mercado. Quando toda a estratégia, barganha e até valor emocional forem feitos por IA.
Na cadeia de negócios, os humanos só restam com o esforço físico de mover as mercadorias e uma assinatura de confirmação.