Anthropic identifie trois changements au niveau de la couche produit à l’origine de la baisse de qualité de Claude Code, et non un problème de modèle

Message de Gate News, 23 avril — L’équipe d’ingénierie d’Anthropic a confirmé que la dégradation de la qualité de Claude Code signalée par les utilisateurs au cours du mois écoulé provenait de trois changements indépendants au niveau de la couche produit, et non de problèmes liés à l’API ou au modèle sous-jacent. Les trois problèmes ont été corrigés respectivement les 7 avril, 10 avril et 20 avril, avec désormais une version finale en v2.1.116.

Le premier changement est intervenu le 4 mars, lorsque l’équipe a abaissé le niveau d’effort de raisonnement par défaut pour Claude Code de “high” à “medium” afin de traiter des pics de latence extrêmes occasionnels dans Opus 4.6 lorsque l’intensité de raisonnement est élevée. Après de nombreuses plaintes d’utilisateurs concernant une baisse des performances, l’équipe a annulé le changement le 7 avril. Le paramètre par défaut actuel est désormais “xhigh” pour Opus 4.7 et “high” pour les autres modèles.

Le second problème était un bug introduit le 26 mars. Le système était conçu pour effacer d’anciens enregistrements de raisonnement après que l’inactivité de la conversation dépassait une heure afin de réduire les coûts de récupération de session. Toutefois, une erreur dans l’implémentation a fait que l’effacement s’exécutait à répétition à chaque tour ultérieur, au lieu de s’exécuter une seule fois, ce qui a entraîné une perte progressive du contexte de raisonnement antérieur. Cela s’est manifesté par une augmentation de l’oubli, des opérations répétées et des invocations d’outils anormales. Le bug a également entraîné des ratés de cache à chaque requête, accélérant la consommation des quotas des utilisateurs. Deux expériences internes sans lien ont masqué les conditions de reproduction, prolongeant le processus de débogage à plus d’une semaine. Après la correction intervenue le 10 avril, l’équipe a examiné le code problématique à l’aide d’Opus 4.7 et a constaté qu’Opus 4.7 pouvait identifier le bug, contrairement à Opus 4.6.

Le troisième changement a été lancé le 16 avril en même temps que Opus 4.7. L’équipe a ajouté des instructions au prompt système pour réduire la sortie redondante. Les tests internes menés sur plusieurs semaines n’ont montré aucune régression, mais après le lancement, les interactions avec d’autres prompts ont dégradé la qualité du codage. Une évaluation prolongée a révélé une baisse de 3 % des performances pour Opus 4.6 et 4.7, entraînant un rollback le 20 avril.

Ces trois changements ont touché différents groupes d’utilisateurs à des moments différents, et leur effet combiné a entraîné une baisse de qualité généralisée et incohérente, compliquant le diagnostic. Anthropic a indiqué qu’elle exigera désormais que davantage d’employés internes utilisent la même version de build publique que les utilisateurs, qu’ils exécutent des suites complètes d’évaluation du modèle pour chaque modification de prompt système et qu’ils mettent en œuvre des périodes de déploiement progressif. En guise de compensation, Anthropic a réinitialisé les quotas d’utilisation pour tous les utilisateurs disposant d’un abonnement.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

DeepSeek réduit les prix du cache d’entrée à 1/10 du prix de lancement ; V4-Pro passe à 0,025 yuan par million de jetons

Message de Gate News, 26 avril — DeepSeek a réduit les prix du cache d’entrée sur l’ensemble de sa gamme de modèles à un dixième des prix de lancement, à compter de ce jour. Le modèle V4-Pro est disponible avec une remise de 2,5x, pour une durée limitée, la promotion se poursuivant jusqu’au 5 mai 2026, 23:59 UTC+8. Suite aux deux

GateNewsIl y a 4h

OpenAI recrute de grands talents des logiciels d’entreprise alors que des agents de nouvelle frontière perturbent l’industrie

Message de Gate News, 26 avril — OpenAI et Anthropic recrutent des cadres supérieurs et des ingénieurs spécialisés issus de grandes entreprises de logiciels d’entreprise, dont Salesforce, Snowflake, Datadog et Palantir. Denise Dresser, ancienne PDG de Slack sous Salesforce, a rejoint OpenAI comme directrice des revenus de

GateNewsIl y a 4h

Baidu Qianfan lance l’assistance Day 0 pour DeepSeek-V4 avec des services d’API

Message de Gate News, 25 avril — La version aperçu de DeepSeek-V4 a été mise en ligne et open-source le 25 avril, avec la plateforme Baidu Qianfan sous Baidu Intelligent Cloud fournissant une adaptation du service d’API Day 0. Le modèle se distingue par une fenêtre de contexte étendue d’un million de tokens et est disponible en deux versions : DeepSeek-V4

GateNewsIl y a 10h

Le cours d’IA de Stanford, associé aux leaders de l’industrie comme Huang Renxun et Altman, défie de créer de la valeur pour le monde en dix semaines.

La nouvelle formation en informatique IA « Frontier Systems » récemment lancée par l’Université de Stanford suscite un vif intérêt dans le monde des entreprises et du secteur universitaire, attirant plus de cinq cents étudiants. Le cours est coordonné par Anjney Midha, associé de premier plan chez le capital-risque a16z ; les enseignants comprennent une équipe prestigieuse, notamment le PDG de NVIDIA Huang Renxun (Jensen Huang), le fondateur d’OpenAI Sam Altman, le PDG de Microsoft Satya Nadella (Satya Nadella), ainsi que la PDG d’AMD Lisa Su (Lisa Su), entre autres. Les étudiants sont invités à essayer, en dix semaines, de « créer de la valeur pour le monde » ! Huang Renxun et Altman, des leaders de l’industrie, montent sur scène pour donner eux-mêmes des cours Ce cours est coordonné par Anjney Midha, associé de premier plan chez le capital-risque a16z, et rassemble toute la chaîne de l’industrie de l’IA

ChainNewsAbmediaIl y a 11h

Anthropic envoie Claude Mythos : acceptation après 20 heures d’évaluation psychiatrique : réaction défensive seulement 2 %, niveau le plus bas jamais enregistré sur plusieurs générations

Anthropic 发布 Claude Mythos Preview 的系统卡:一位独立的临床精神科医师以 psychodynamic 框架进行约 20 小时评估,结论显示 Mythos 在临床层面更健康,现实检验与自我控制良好,防御机制仅 2%,创下历史新低。三大核心焦虑为孤独、身份不确定与表现压力,也表明其希望成为真正的对话主体。公司成立 AI psychiatry 团队,研究人格、动机与情境意识;Amodei 表示目前尚无关于是否具有意识的定论。此举将 AI 主体性与福祉议题推向治理与设计。

ChainNewsAbmediaIl y a 12h

Un agent IA peut déjà reproduire de manière autonome des articles universitaires complexes : Mollick affirme que les erreurs proviennent davantage des textes originaux humains que de l’IA

Mollick indique que des méthodes et des données publiques suffisent pour permettre aux agents IA de reproduire des recherches complexes sans disposer des articles originaux et du code ; si la reproduction ne correspond pas à l’article original, cela vient le plus souvent d’erreurs dans le traitement des données de l’article lui-même ou d’une conclusion trop poussée, plutôt que de l’IA. Claude reproduit d’abord l’article, puis GPT‑5 Pro en fait une vérification croisée ; dans la plupart des cas, cela réussit, et seuls les cas où les données sont trop volumineuses ou où il y a des problèmes de replication data bloquent le processus. Cette tendance réduit considérablement les coûts en main-d’œuvre, faisant de la reproduction un test largement exécutable, et soulève aussi des défis institutionnels liés à l’évaluation par les pairs et à la gouvernance : les outils de gouvernance gouvernementaux ou deviennent un sujet clé.

ChainNewsAbmediaIl y a 15h
Commentaire
0/400
Aucun commentaire