Gigantes da IA, adentram na floresta sombria

nulo

Escritor | Xiang Xianzhi

Liu Cixin escreveu em “O Problema dos Três Corpos” uma imagem que foi citada inúmeras vezes depois — a floresta escura. Cada civilização é um caçador armado, quem se expõe primeiro, morre primeiro. Na floresta, não é que não haja pessoas, mas que todos sabem que acender luzes atrairá balas, então todos apagam as luzes.

Na primavera de 2026, os laboratórios de IA de ponta entraram nessa floresta escura.

16 de abril, Anthropic lançou primeiro o Claude Opus 4.7. No mesmo dia, fizeram um movimento incomum — admitiram publicamente que o desempenho do Opus 4.7 não era tão bom quanto um modelo ainda não lançado, o Mythos, por motivos de segurança.

23 de abril, a OpenAI colocou no site o GPT-5.5. No mesmo dia, a Anthropic publicou um relatório de revisão de incidentes chamado “Uma atualização sobre os recentes relatórios de qualidade do código Claude”, admitindo que nos últimos mais de um mês o Claude Code realmente ficou mais lento — uma jogada de lançar uma nova versão e reconhecer o erro. Mas esse “novo rei” quase parecia se gabar: nós admitimos que o Claude está temporariamente mais lento — mas não se esqueça, ainda temos o Mythos escondido.

24 de abril, o “poderoso” DeepSeek V4 Preview foi lançado, a equipe de Liang Wenfeng fez uma grande divulgação ao vincular profundamente o modelo ao Huawei Ascend 950PR; mas todos entenderam — o verdadeiro “full-blood” V4 Pro Max só poderá ser lançado após a produção em massa do Ascend 950 de alta performance no segundo semestre.

Três empresas, três ações. Na superfície, cada uma com seu ritmo de produto, mas olhando juntas, uma coisa fica clara:

Cada uma tem pelo menos uma “arma” — um modelo mais forte que a versão pública, uma arquitetura de próxima geração ainda não revelada ao público, um chip de ultra-nó ainda não amplamente implantado. Mas nenhuma delas se atreve a levantar essa arma primeiro.

Porque neste setor, “mostrar primeiro” nunca é apenas vazamento. Mostrar primeiro significa entregar seu limite de capacidade ao adversário como referência; significa assumir sozinho toda a pressão de segurança, regulamentação, opinião pública; significa transformar-se na mira de todos os concorrentes na próxima rodada. Na floresta, não há heróis — quem dispara primeiro, torna-se o próximo alvo.

Portanto, a escolha mais racional dos caçadores é apagar as luzes, prender a respiração e esconder a arma nas costas.

Essa é a solução ótima do jogo.

A confiança da Anthropic

No último mês, a Claude quase passou por sua pior versão de lançamento.

Após atualizar rapidamente para Opus 4.7, a Anthropic continuou dominando várias listas, e ainda guardava o Mythos, disponível apenas para clientes empresariais — uma postura de calma e confiança.

Porém, durante esse ciclo, a experiência do usuário com Claude foi a pior de todas, com críticas em massa.

No começo de março, a Anthropic mudou a profundidade padrão de raciocínio do Claude Code de high para medium. A decisão faz sentido: no modo high, a interface frequentemente parecia travada, com respostas lentas que frustravam os usuários pagantes. Mas o problema é que eles não divulgaram isso na hora.

No final de março, lançaram uma “otimização de eficiência” — se a sessão do Claude Code ficar inativa por mais de uma hora, o sistema apaga o bloco de raciocínio antigo. Por design, para economizar recursos. Na prática, após cada rodada de conversa, o Claude parecia esquecer tudo, apagando o contexto completamente. A comunidade de desenvolvedores começou a reclamar: “Claude começou a não lembrar o que fiz na última rodada.”

Até recentemente, uma terceira mudança ocorreu — uma instrução para comprimir a verbosidade foi adicionada ao sistema de prompts. Segundo a própria Anthropic, essa instrução reduziu a qualidade do código do Claude Code em 3%.

Essas três ações juntas levaram um diretor sênior da AMD a escrever no GitHub: “Claude regressou a um ponto em que não pode ser confiável para tarefas de engenharia complexa.” A matéria do Axios de 16 de abril, “A redução de capacidade da Anthropic machuca usuários avançados”, trouxe isso ao mainstream.

Depois, a Anthropic admitiu que havia problemas.

Em 7 de abril, eles silenciosamente reverteram a mudança na profundidade de raciocínio; em 10 de abril, corrigiram um bug no cache; em 20 de abril, removeram a instrução de compressão de verbosidade. Mas o relatório de revisão de incidentes só foi divulgado em 23 de abril — justamente no dia do lançamento do GPT-5.5.

Essa atitude de “ah, meu plano de engenharia tem um bug, basta consertar” parece um pouco de desprezo, e ocorre logo antes ou depois do lançamento de peso da OpenAI. Difícil não pensar que foi uma coincidência.

Mais intrigante ainda, ao lançar o Opus 4.7, a Anthropic fez um movimento incomum: admitiu publicamente que o desempenho do Opus 4.7 não era tão bom quanto um modelo ainda não lançado, o Mythos. Claramente uma “retirada estratégica” — a Anthropic mantém seu melhor desempenho para o setor empresarial, sem pressa de lançar ao público, porque a equipe ainda não está pronta para liberar o Mythos.

Essa explicação é plausível. Mas, sob a perspectiva da narrativa comercial, outra parte também é verdadeira: a Anthropic demorou seis semanas para admitir a regressão do Claude Code, só revelou o problema no dia em que a OpenAI começou a lançar novidades. Se não fosse a pressão dos concorrentes, se o Opus 4.7 não tivesse mostrado que ainda temos uma carta na manga, essa declaração talvez nunca tivesse vindo.

Na Claude, apertar a pasta de dentes não significa cortar capacidades deliberadamente, mas que o ritmo de liberação de capacidades e de divulgação de problemas acompanha o ritmo dos concorrentes.

Mostrar suas capacidades mais avançadas, inevitavelmente, te torna um alvo. Ou seja, na visão da Anthropic, o 4.6 ainda não aliviou a pressão sobre os rivais — logo, não há necessidade de jogar uma carta mais forte agora.

A estratégia da OpenAI

Se a Anthropic “esconde” um Mythos, a estratégia da OpenAI é mais sutil — ela mantém o controle da liberação de capacidades através da curva de carga de seus servidores e de um mecanismo de classificação chamado auto-router.

No mesmo dia 23 de abril, quando o GPT-5.5 foi lançado, Simon Willison (cofundador do Django, avaliador independente renomado na comunidade de IA) escreveu em seu blog: “Não é uma mudança dramática do que tínhamos antes.” Ele acrescentou uma informação importante: o GPT-5.5 é o primeiro modelo totalmente retreinado desde o GPT-4.5; ou seja, os modelos 5.1, 5.2, 5.3, 5.4 lançados nos últimos meses foram apenas atualizações incrementais. Em outras palavras, as quatro versões menores foram lançadas com cautela, porque a OpenAI não sabe o que os concorrentes podem lançar.

“Atualizações cautelosas” é uma forma de dizer: é uma estratégia de “espremido de pasta de dente”.

Mas o mais revelador aconteceu algumas horas após o lançamento do GPT-5.5. Usuários do Codex abriram uma issue no GitHub (#19241), reclamando que o modo rápido (Fast mode) inicialmente era realmente rápido, mas, com mais usuários, ficou visivelmente mais lento, mesmo sendo cobrado pelo preço do modo rápido. A reclamação era familiar: “Por favor, investiguem se o GPT-5.5 Fast mode está sendo degradado sob alta carga.”

Era uma reprodução exata do que aconteceu em 7 de agosto de 2025, no lançamento do GPT-5 — quando o Reddit r/ChatGPT colocou “GPT-5 is horrible” com mais de 4600 votos positivos, e no dia seguinte, Sam Altman admitiu na AMA: “o auto-switcher quebrou… o GPT-5 parecia muito mais burro” — admitindo que o roteador por trás do sistema estava ajustando a qualidade automaticamente.

O mesmo roteiro, oito meses depois.

Mais irônico ainda, na véspera do lançamento oficial do GPT-5.5, o internal staging do OpenAI foi acidentalmente exposto, com capturas de tela feitas por alguns usuários Pro, que rapidamente corrigiram, mas o conteúdo vazado já circulava. Além do GPT-5.5, havia uma série chamada Glacier (“Inteligência que move continentes”), um modelo de ciências da vida chamado Heisenberg, um modelo desconhecido chamado Arcanine, e várias versões com nomes de código como oai-2.1.

Ou seja, no mesmo momento em que o GPT-5.5 foi lançado como “próxima geração”, pelo menos 5 a 6 linhas de produtos paralelos estavam rodando internamente, ainda não disponíveis ao público.

A própria OpenAI reconheceu isso. No roteiro oficial de 2026, eles usaram um termo bastante discutido na academia: “capability overhang” — a grande lacuna entre o potencial real dos grandes modelos e o que os usuários conseguem usar de fato.

Familiar? É quase a mesma frase usada pela Anthropic para Mythos. Mesmo que a fuga do Codex em 22 de abril tenha sido um erro, a inclusão do termo capability overhang no roteiro já envia um sinal claro: ainda temos muito na manga, façam o que quiserem.

Você tem muito mais do que mostra ao usuário, e é por isso que precisa se esconder. O lançamento do GPT-5.5 em 24 horas reforçou essa premissa mais uma vez.

A paciência do DeepSeek

No caso do DeepSeek, a estratégia de “espremido” mudou completamente — não é esconder capacidades, mas esperar por um momento mais adequado para entregar.

1.6T MoE, 1M de contexto, versões Pro/Flash, preço de 3,48 por 1M tokens — é uma fração do GPT-5.5, uma diferença de várias ordens de magnitude em relação ao Opus 4.7. Avaliadores independentes internacionais concluíram: o desempenho é próximo, mas um pouco inferior ao GPT-5.4 / Gemini 3.1-Pro, e o preço “quebrou a economia dos laboratórios de ponta”.

Mas, na própria escala do DeepSeek, o V4 Preview já é mais caro que o V3, que era “estranhamente barato”. Todos sabem — isso não é a versão completa.

A história completa do DeepSeek V4 não termina com o lançamento, nem começa nele.

Tudo começa com o lançamento que não saiu em 2025, na R2. A previsão era para maio de 2025, mas foi adiada para o outono/inverno. Toda a infraestrutura da DeepSeek na China foi migrada para o ecossistema CANN da Huawei. Para qualquer laboratório, isso não é uma tarefa de um trimestre — compiladores, operadores, bibliotecas de comunicação, frameworks de inferência, roteadores MoE, tudo precisa ser refeito.

E o V4 desta vez é a primeira vez que a DeepSeek colocou oficialmente a Ascend no seu hardware de treinamento. O V4 é a primeira versão de treinamento híbrido — a Ascend entra oficialmente.

Mas a próxima geração de chips otimizados para treinamento em larga escala, o Ascend 950DT, só deve ser produzido em massa no quarto trimestre de 2026, segundo o roteiro da Huawei. Ou seja, treinar o V4 já foi feito com a geração anterior, o 950PR; para que a versão full-blooded, como o V4 Pro Max com 1.6T MoE, possa treinar de forma completa e escalar em larga escala, só no próximo hardware.

O verdadeiro desafio técnico não é “se o V4 consegue treinar” — ele já treinou —, mas “como fazer o V4 rodar ao máximo, de forma estável e econômica na Ascend”.

O 950PR será produzido em massa no primeiro trimestre de 2026, com capacidade de 1.56 PFLOPS, 112GB de memória on-chip, superando a Nvidia H20 no papel. Mas fazer um chip rodar, e um supernó de hardware suportar milhões de tokens por segundo de inferência de forma estável, são coisas diferentes. A versão full do V4 Pro Max está focada nesse “supernó”, uma grande instalação de clusters do 950, que chegará na segunda metade de 2026.

Essa estratégia é completamente diferente das duas primeiras. A lógica da Anthropic e da OpenAI — guardar a capacidade mais forte e não liberar — é diferente da do DeepSeek, que quer uma versão completa, mas só quando o preço cair mais.

Essa diferença é crucial.

O verdadeiro trunfo do DeepSeek nunca foi “o desempenho mais avançado”, mas “reduzir o custo por token ao ponto que os concorrentes não ousam reduzir”. O V4 Preview foi adaptado para Nvidia e Ascend 950PR, mas para fazer inferência completa em escala de produção, só com o supernó em funcionamento. Quando isso acontecer, duas coisas vão acontecer ao mesmo tempo: a capacidade do V4 Pro Max será liberada ao máximo, e o custo de inferência e o preço da API cairão ainda mais — para uma empresa que usa preço como arma de penetração, essa é a jogada mais letal.

O que todos esperavam, aquele “momento DeepSeek” de início de 2025, não se repetiu nesta versão. Mas o lançamento do V4 Preview foi uma espécie de trailer, o verdadeiro espetáculo será na segunda metade do ano, com o “DeepSeek + Huawei Ascend”.

Por esse ângulo, a equipe de Liang Wenfeng não está fazendo uma “esconder” forçada, mas uma “escolha” de negócio — optar por lançar a versão mais forte em um cenário onde ela tem maior influência: o primeiro dia de uma implantação em larga escala do chip nacional. Antes disso, reforçar a narrativa de custo-benefício com o V4 Preview.

O DeepSeek nunca carregou a narrativa de “colocar o modelo chinês na liderança de alguma lista”, mas sim a de um “sistema” — que envolve chips, treinamento, inferência e preços —, uma narrativa mais importante que a anterior.

Recentemente, Huang Renxun afirmou no podcast de Dwarkesh Patel que, se o DeepSeek lançar seu modelo na Huawei, “será um resultado horrível para os EUA” (“a horrible outcome for our nation”).

A Nvidia ainda domina o poder de computação de ponta. Mas, segundo Huang, com a “fatia de bolo de IA” — energia, chips, infraestrutura, modelos, aplicações — o setor chinês de grandes modelos já possui soluções nacionais capazes de rodar, e a lacuna está se fechando rapidamente. Completar o último pedaço, o chip, fará do roteiro de código aberto do DeepSeek uma história maior que a dos EUA: um passo importante para democratizar a inteligência global, sem custos excessivos, rumo a uma sociedade inteligente mais equitativa.

Permitir que o mundo bypass alguns dos recursos mais avançados controlados por hegemonia, e caminhar para uma sociedade inteligente eficiente.

Epílogo

A “esconder” da Anthropic — é uma escolha ativa. Eles têm Mythos, não lançaram, por segurança.

A “esconder” da OpenAI — é estrutural. Têm o nível Pro, que não é sempre acessível, por infraestrutura e segmentação de preços.

A “esconder” do DeepSeek — é necessária. Está relacionada a toda uma narrativa de salto social na inteligência.

Mas, sob outro ângulo, isso lembra muito a floresta escura de Liu Cixin: nesta floresta de inteligência negra, cada caçador de ponta nunca dispara primeiro.

Expor significa sem reservas, sem cartas na manga, tornar-se alvo de outro caçador.

Ninguém sabe quem vai disparar a bala mais mortal primeiro. Mas uma coisa é certa: cada modelo que você usa hoje, não é exatamente o que ele realmente é.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar