A Anthropic revela que o Claude Code tem três bugs em cascata: degradação do raciocínio, esquecimento de cache e instruções de 25 caracteres com efeito colateral adverso

ChainNewsAbmedia

A Anthropic em 4/23 publicou uma revisão de incidente de qualidade do Claude Code, admitindo publicamente que três erros de engenharia em camadas, sobrepostos nos últimos quase dois meses, causaram uma queda na qualidade de uso do Claude Code, e sincronamente que os impactos se estenderam ao Claude Agent SDK e ao Claude Cowork. A empresa disse: “Levamos muito a sério os retornos sobre a degradação do modelo, e nunca reduzimos deliberadamente a capacidade do modelo”, e em 4/23 redefiniu o limite de uso para todos os assinantes como compensação.

Linha do tempo dos três bugs e causas técnicas

Problema Intervalo de vigência Causa raiz Versão de correção Degradação de orçamento de raciocínio 3/4–4/7 effort de reasoning padrão caiu de high para medium, fazendo com que os usuários sentissem o modelo “mais burro” 4/7 Reversão Limpeza de cache bug 3/26–4/10 thinking cache de uma sessão ociosa por mais de 1 hora é limpo a cada rodada, e não apenas uma vez v2.1.101 prompt conciso反噬 (efeito colateral) 4/16–4/20 instrução de sistema recém-adicionada “texto entre chamadas de ferramentas ≤25 palavras”, ablation mostrou queda de inteligência geral de 3% v2.1.116

Degradação de raciocínio: o custo de reduzir latência

3/4 A Anthropic ajustou o effort de raciocínio (reasoning effort) do Claude Code, de high para medium, por padrão. A intenção era encurtar a latência de resposta. Mas essa mudança fez com que o modelo, em tarefas de raciocínio e depuração de código, parecesse “mais burro”. Depois da reversão em 4/7, agora o Opus 4.7 tem xhigh por padrão, e os outros modelos mantêm high. A empresa admitiu: a avaliação interna antes da mudança não conseguiu detectar essa degradação.

Bug de limpeza de cache: erro implícito na fronteira entre sistemas

3/26 A Anthropic introduziu uma otimização de prompt caching para sessões ociosas por mais de uma hora. O projeto original era “limpar o cache de thinking depois de ficar ocioso por uma hora”, mas, na implementação, passou a ser “limpar a cada rodada após o acionamento da ociosidade”, fazendo com que o Claude demonstrasse “amnésia, repetição” em longas sessões; além disso, a cada cache miss em cada rodada, o uso do usuário foi consumido rapidamente. A Anthropic apontou que esse bug “existe na interseção entre gerenciamento de contexto do Claude Code, Anthropic API e extended thinking”, envolvendo múltiplas fronteiras de sistema e sendo um erro implícito difícil de capturar com testes de unidade. A correção foi lançada em 4/10 na v2.1.101.

Instrução concisa de 25 palavras: ablation só então descobriu a queda de inteligência de 3%

4/16 A Anthropic adicionou uma instrução de sistema: “a saída de texto entre chamadas de ferramentas deve manter-se em até 25 palavras”, com o objetivo de reduzir explicações longas do modelo e deixar a experiência mais limpa. Na época, os testes internos não encontraram degradação, mas após uma ablation mais rigorosa e um experimento comparativo, a empresa descobriu que essa instrução causou uma queda geral de inteligência de cerca de 3% nos dois modelos Opus 4.6 e 4.7. Em 4/20, ela foi revertida na v2.1.116. Esse incidente destacou: até a pequena redação de um system prompt pode gerar impactos estruturais não previstos no comportamento do modelo.

Escopo de impacto

Camada de produto: Claude Code (todos os três problemas afetam), Claude Agent SDK (①②), Claude Cowork (tudo)

Camada de modelo: Sonnet 4.6, Opus 4.6, Opus 4.7

Infraestrutura básica da API: não afetada

Em termos de percepção do usuário, os efeitos se manifestaram como: queda na qualidade das respostas e na “inteligência”, aumento de latência, perda no meio do conversation context e consumo de uso mais rápido do que o esperado.

Compensação e melhorias de processo

A Anthropic, em 4/23, redefiniu o limite de uso para todos os assinantes como compensação direta. As melhorias de processo prometidas em paralelo incluem:

Aplicar um conjunto de avaliações (evaluation suite) mais amplo às mudanças de system prompt

Melhorar as ferramentas de Code Review para detectar regressões mais cedo

Padronizar critérios de testes internos para um build público, evitando divergências de comportamento entre “versão interna” e “versão para o público”

Adicionar um período de soak e um rollout progressivo para mudanças que possam afetar a inteligência do modelo

Lições para os usuários

Para usuários que dependem do Claude Code para desenvolvimento e pesquisa cotidianos, este postmortem tem três pontos principais para levar: primeiro, se você sentiu que o modelo Claude “ficou mais burro” entre meados de março e 20 de abril, ou se o Claude Code apresentou um esquecimento anormal em longas sessões, isso não foi uma impressão sua nem uso inadequado de prompt; segundo, para usuários cujo limite de uso foi consumido rapidamente durante esse período, eles podem, após 4/23, verificar se a Anthropic já redefiniu automaticamente; terceiro, mesmo um ajuste fino de prompt de “até 25 palavras” pode gerar impacto sistêmico no comportamento global do modelo — esse é um risco comum a engenharia de produtos de LLM.

Em comparação com o fato de outras empresas terem usado mais silêncio ou “isso é erro do usuário” como resposta às críticas sobre degradação do modelo, a divulgação proativa e a transparência técnica da Anthropic, desta vez, estabelecem um exemplo de referência para revisões de incidentes de produtos de IA.

Este artigo sobre como a Anthropic revelou por conta própria a sobreposição de três bugs no Claude Code: degradação de raciocínio, esquecimento de cache e efeitos colaterais da instrução de 25 palavras, foi publicado pela primeira vez em 鏈新聞 ABMedia.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Hoskinson discute o papel do Midnight no ecossistema da Cardano no The Breakdown

Charles Hoskinson, fundador da Cardano e cofundador da Ethereum, apareceu como convidado no episódio 701 do podcast "The Breakdown", apresentado por David Gokhshtein, para discutir o projeto Midnight, os desafios de experiência do usuário no cripto e sua visão para o futuro da blockchain. Durante a entrevista, Hoskinson

CryptoFrontier4h atrás

A Berkshire Energy vê oportunidade de crescimento na demanda por energia impulsionada por IA

De acordo com Beating, na assembleia de acionistas da Berkshire, o CEO Abel destacou que a demanda de eletricidade impulsionada por IA está criando novas oportunidades de crescimento para o negócio de energia da empresa, com metade das suas concessionárias de energia já atendendo requisitos de energia relacionados a IA. Em Iowa, data centers agora contabilizam

GateNews7h atrás

Depoimentos na 1ª semana do processo de Musk vs. Altman: ele admite que a XAI está “destilando” a OpenAI, e alerta que a IA é como um Exterminador

馬斯克, na primeira semana de depoimento em um tribunal federal de Oakland, acusou Altman e Brockman de fraudar recursos iniciais de uma organização sem fins lucrativos, alertou sobre riscos catastróficos de fim do mundo com a IA e admitiu que parte do xAI foi “destilada” de modelos da OpenAI; ele declarou ter investido US$ 38 milhões e ter visto a OpenAI se transformar de uma entidade sem fins lucrativos em uma empresa avaliada em US$ 800 bilhões. O investimento da Microsoft em 2022 é visto como um ponto de virada na quebra de confiança. A OpenAI argumenta que Musk tentou aliciar pessoas e contesta com a alegação de motivações competitivas. Na segunda semana, novos depoentes incluem Russell e Brockman.

ChainNewsAbmedia9h atrás

A AI Finance ligada a Trump adquire a Block Street por US$ 43 milhões

De acordo com a Fortune, a AI Financial, uma empresa de criptomoedas ligada à família Trump e que antes se chamava Alt5 Sigma, adquiriu a Block Street, uma empresa de infraestrutura cripto, por US$ 43 milhões na semana passada. Matthew Morgan, assessor da AI Financial e CEO da Block Street, afirmou que a aquisição não foi um

GateNews9h atrás

Ações da Riot Disparam 8% Após Expandir A Acordo com a AMD para Data Center

As ações da mineradora de Bitcoin Riot subiram 8% após a expansão de seu acordo com a AMD para data centers. A parceria ampliada inclui melhores condições de financiamento, destacando a mudança estratégica da Riot, saindo da mineração de bitcoin em direção à operação de data centers de inteligência artificial. A medida sinaliza confiança crescente

GateNews12h atrás

Minnesota proíbe ferramentas de IA para imagens íntimas não consensuais e impõe multas de até $500K

De acordo com a Decrypt, a legislatura de Minnesota aprovou, em 2 de maio, um projeto de lei que proíbe sites e aplicativos de fornecerem ferramentas de IA que gerem imagens íntimas não consensuais de indivíduos identificáveis. A lei impede as plataformas de permitirem que usuários acessem ou usem essas ferramentas de “deepfake” e proíbe

GateNews13h atrás
Comentário
0/400
Sem comentários