Claude Haiku 3 est officiellement mis hors service le 19/4 : Anthropic force la migration vers Haiku 4.5, les développeurs doivent modifier l’ID du modèle et les paramètres

Selon la documentation officielle d’Anthropic concernant la mise à la retraite des modèles, Claude Haiku 3 (ID de modèle : claude-3-haiku-20240307) a officiellement cessé d’être disponible le 19 avril 2026. À partir de cette date, toutes les requêtes API vers ce modèle renverront directement une erreur ; Anthropic ne redirigera pas automatiquement le trafic vers une nouvelle version, et les développeurs doivent mettre à jour de manière proactive l’ID de modèle dans leur code vers Haiku 4.5. Il s’agit du premier événement de fin de cycle (lifecycle) d’un grand modèle Claude de l’année.

L’impact concernera principalement les applications légères

Lancé en mars 2024, Claude Haiku 3 était alors le modèle le moins cher et le plus rapide d’Anthropic, largement utilisé pour des tâches fréquentes et légères telles que les chatbots de service client, les résumés, la classification, la modération de contenu, etc. Deux ans plus tard, aujourd’hui, de nombreuses PME et des outils internes utilisent encore ce modèle, notamment parce que les prompts et les coûts ont été profondément optimisés, et que le remplacement nécessite de relancer les tests QA. La période d’avis de cette mise à la retraite a commencé dès le mois de février ; Anthropic a informé tous les clients entreprises ayant des contrats, via des notifications officielles, des emails et des avertissements dans le dashboard, avec au moins 60 jours de préavis.

Deux changements destructeurs lors de la migration vers Haiku 4.5

La solution de remplacement recommandée par l’éditeur est Claude Haiku 4.5, mais la migration ne consiste pas uniquement à modifier une chaîne. Les développeurs doivent tenir compte de deux changements destructeurs : d’abord, les paramètres de sampling temperature et top_p ne permettent désormais qu’un seul des deux à la fois ; si du code existant contient des valeurs explicites pour les deux, l’API d’Anthropic renverra une erreur ; ensuite, Haiku 4.5 ajoute un refusal stop reason : lorsque le modèle refuse de répondre, il renverra ce marqueur, et non pas, comme avec Haiku 3, une erreur directe ou un retour de placeholder. Le code produit doit traiter le refusal comme un chemin normal.

Par ailleurs, la controverse liée aux augmentations “cachées” de facturation causées par le changement de tokenizer d’Opus 4.7 la semaine dernière pourrait également s’appliquer à Haiku 4.5 : même si la carte de tarification indique un prix par token plus bas, la consommation réelle en tokens pour des tâches métiers peut varier en raison des différences de tokenizer. Il est recommandé de tester et comparer les coûts le jour même du passage dans tous les plans de migration.

La gestion du cycle de vie des modèles IA devient une obligation pour les entreprises

Cet avertissement de mise à la retraite révèle un changement structurel dans les infrastructures IA des entreprises : les LLM sont passés d’une “acquisition ponctuelle” à une phase de “gestion continue des versions”, similaire aux services cloud et aux systèmes d’exploitation. La page officielle de dépréciation d’Anthropic annonce en parallèle que Claude Opus 4 et Sonnet 4 seront également mis à la retraite le 15 juin 2026, avec un calendrier très rapproché. Les clauses d’achat d’IA des entreprises devraient inclure des éléments contractuels tels que une “période de support minimale”, “des modèles de remplacement automatiquement disponibles”, “des subventions pour les tests de migration”, etc. Sinon, des services en production risquent d’être interrompus à cause du retrait des modèles.

Recommandations d’actions pour les développeurs à Taïwan et les équipes SaaS

Trois actions immédiates : premièrement, recherchez dans tous les dépôts de code et les fichiers de configuration, et remplacez claude-3-haiku-20240307 par claude-haiku-4-5 ; deuxièmement, vérifiez si les appels API configurent simultanément temperature et top_p, et conservez-en un seul ; troisièmement, ajoutez dans le handler une branche de traitement pour refusal stop reason afin d’éviter une erreur inattendue côté utilisateur. Pour les organisations qui ont des contrats d’entreprise avec facturation à l’usage, surveiller aussi les variations de consommation de tokens la semaine du basculement est une action nécessaire, afin d’éviter des dépassements imprévus dus aux différences de tokenizer.

Cet article : la retraite officielle de Claude Haiku 3 le 19/4 ; Anthropic impose la migration vers Haiku 4.5 ; les développeurs doivent modifier l’ID de modèle et les paramètres — apparaît au plus tôt sur Chaîne d’actualités ABMedia.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

xAI s’associe à Anthropic pour fournir un accès à l’informatique Colossus

D’après des déclarations officielles de xAI et d’Anthropic, les deux entreprises ont établi un nouveau partenariat de calcul. Le xAI de SpaceX a signé un accord visant à fournir à Anthropic un accès aux ressources de calcul de Colossus. Anthropic prévoit d’exploiter cette capacité de calcul supplémentaire pour

GateNewsIl y a 17m

OpenAI dévoile le protocole de réseau supercalculateur MRC ! En partenariat avec Nvidia, AMD et Microsoft pour créer l’infrastructure de Stargate

OpenAI publie le protocole MRC d’« AI supercomputer networking », en collaboration avec AMD, Microsoft, NVIDIA et d’autres, et en open source sur OCP. MRC découpe les données et les fait circuler par plusieurs chemins, évite les obstacles au niveau de la microseconde, réduit la congestion et maintient la synchronisation des GPU, afin de résoudre le goulot d’étranglement de transfert des grands clusters d’entraînement. Des bases comme Stargate à Abilene (Texas) ont déjà déployé des interfaces de 800 Gb/s et les ont mises en place pour des entraînements réels.

ChainNewsAbmediaIl y a 42m

La plateforme de recrutement par l’IA Ethos clôture un tour de financement de série A de 22,75 millions de dollars, mené par a16z, le 6 mai

D’après BlockBeats, la plateforme britannique de recrutement par IA Ethos a finalisé un tour de financement de série A de 22,75 millions de dollars le 6 mai, avec Andreessen Horowitz (a16z) à la tête du tour et General Catalyst participant. La plateforme utilise l’IA pour interviewer les candidats et analyse

GateNewsIl y a 1h

OpenAI lance le protocole de réseau MRC avec AMD, Intel, NVIDIA ; prend en charge 100 000+ GPU

D’après l’annonce d’OpenAI du 6 mai, la société s’est associée à AMD, Broadcom, Intel, Microsoft et NVIDIA pour lancer Multipath Reliable Connection (MRC), un protocole réseau ouvert destiné à l’interconnexion de GPU pour l’entraînement à grande échelle de clusters d’IA. Le protocole répartit une seule transmission de données entre plusieurs

GateNewsIl y a 2h

Les actions de Hut 8 bondissent de 34% sur un accord de location de data center d'IA d'une valeur de 9,8 milliards de dollars

Selon The Block, les actions de Hut 8 Corp. ont bondi de 34% à 107,87 dollars en préouverture aujourd'hui après que la société a signé un bail de 9,8 milliards de dollars pour un campus de centres de données destinés à l'intelligence artificielle dans le comté de Nueces, au Texas, conçu pour l'architecture de calcul de NVIDIA. L'accord représente la première phase de Hu

GateNewsIl y a 3h

Le directeur technique de CleanSpark : l’infrastructure IA/HPC nécessite davantage de ressources réseau que l’extraction minière de Bitcoin

D'après un entretien de CoinDesk, le directeur technologique de CleanSpark, Taylor Monnig, a déclaré que la transition de l'exploitation minière de Bitcoin vers une infrastructure IA/HPC nécessite davantage de redondance et moins d'improvisation. « Le réseau par fibre d'un seul rack dépasse celui d'une installation minière de Bitcoin entière », Monnig

GateNewsIl y a 3h
Commentaire
0/400
Aucun commentaire