Selon un reportage exclusif d’Axios relayé par Reuters, la National Security Agency (NSA) utilise le modèle le plus puissant de Anthropic, Mythos Preview, bien que son autorité de tutelle, le ministère de la Défense (Department of Defense, DoD), ait classé Anthropic comme « risque pour la chaîne d’approvisionnement » et l’ait désactivé à partir du mois de février. C’est la première fois dans l’histoire de la gouvernance de l’IA aux États-Unis qu’apparaît une contradiction publique du type « un département d’un même gouvernement fédéral bloque l’autre département qui l’utilise effectivement ».
Mythos n’est accessible qu’à 40 acteurs officiels, et seulement 12 dans la liste publiée
Après qu’Anthropic ait rendu publique, en février, l’existence de Claude Mythos, l’accès en preview n’a été ouvert qu’à environ 40 organisations dans le monde ; la liste officiellement publiée ne compte que 12 noms, et le reste est volontairement dissimulé au motif que « les capacités de cyberattaque sont trop sensibles ». En tant qu’unité centrale du système de renseignement américain chargée du traitement des informations de signalement et de la cryptographie (SIGINT), la NSA ne figure pas parmi les 12 noms rendus publics par Anthropic, mais a pourtant obtenu et utilise Mythos — ce qui suscite une double remise en cause, à la fois sur la transparence de la liste d’Anthropic et sur l’autorisation d’accès du gouvernement américain.
Interdiction du Pentagone vs conflit interne d’une utilisation élargie par l’armée
La relation entre le Pentagone et Anthropic s’est rompue au début de cette année. La version officielle est qu’Anthropic, lors du renouvellement du contrat, a insisté pour « exclure des usages tels que la surveillance à grande échelle du territoire national et le développement d’armes autonomes ». De son côté, le ministère de la Défense exige que Mythos « soit ouvert à toutes les utilisations légitimes ». Après l’échec des négociations, en février, le DoD a inscrit Anthropic sur la liste d’interdiction en invoquant « un risque pour la chaîne d’approvisionnement », et a demandé que les fournisseurs de la défense coupent aussi leurs relations.
C’est ironique : deux mois après la désactivation officielle par le DoD, non seulement la NSA continue d’utiliser Mythos, mais plusieurs unités de l’armée américaine ont même élargi l’adoption de la série de modèles Anthropic Claude. Des organes gouvernementaux affirment publiquement, dans des documents judiciaires, que « l’utilisation des outils d’Anthropic menacera la sécurité nationale », tandis que les mêmes unités continuent en interne d’utiliser Claude pour des missions de cybersécurité et de renseignement. Plus tôt ce mois-ci, le ministre des Finances Bessent et le président de la Fed Powell ont tenu une réunion d’urgence au sommet pour discuter des inquiétudes réglementaires autour de Mythos ; désormais, les contradictions internes remontent à la surface, et le risque administratif lié à Mythos augmente nettement.
Dario Amodei se rend à la Maison-Blanche pour négocier un apaisement
Le PDG d’Anthropic, Dario Amodei, s’est rendu à la Maison-Blanche le 17 avril, où il a rencontré Susie Wiles, cheffe de cabinet, et le secrétaire au Trésor Scott Bessent. D’après Axios, la discussion s’est concentrée sur trois sujets : les limites d’utilisation de Mythos au sein du système gouvernemental ; les opérations et procédures de sécurité et de validation globales d’Anthropic ; et la manière de permettre que « les agences autres que le Pentagone » continuent d’obtenir l’accès. Les étapes suivantes pourraient inclure la mise en place de canaux d’autorisation séparés pour les organismes fédéraux non-DoD, ou l’exigence qu’Anthropic divulgue une liste plus complète de ses clients afin de répondre aux préoccupations réglementaires du Pentagone.
Un nouveau modèle pour l’accès échelonné et les frontières des marchés publics
L’affaire Mythos et, la même semaine, le lancement par OpenAI de GPT-5.4-Cyber forment un écho : en 2026, les modèles d’IA les plus avancés entrent dans une phase de délivrance échelonnée, où « plus les capacités sont fortes, moins il y a de clients ». Ce type de système de contrôle semble strict, mais lorsque le gouvernement fédéral américain lui-même applique des règles internes incohérentes, cela revient en pratique à laisser au fournisseur (Anthropic) le soin de décider quelles unités gouvernementales méritent d’être considérées comme dignes de confiance. Pour les gouvernements et entreprises d’autres pays, la pression politique à venir est la suivante : faut-il exiger que les fournisseurs d’IA, lorsqu’ils traitent des données concernant des citoyens de leur pays, publient la liste d’autorisations des clients. Les prochaines actions d’Anthropic, au cours des semaines à venir, deviendront un modèle de gouvernance pour toute l’industrie de l’IA de pointe.
Cet article d’Axios en exclusivité : la NSA américaine contourne la liste noire du Pentagone pour utiliser Anthropic Mythos, Dario Amodei se rend en urgence à la Maison-Blanche. Le plus tôt : apparu sur 鏈新聞 ABMedia.
Articles similaires
xAI d’Elon Musk va se renommer SpaceXAI alors que son statut de société indépendante prend fin
IBM élargit sa suite d’IA d’entreprise avec de nouveaux outils basés sur des agents à Think 2026
Les actions de Hut 8 bondissent de 30 % sur un bail de centre de données d’IA de 9,8 milliards de dollars
Anthropic dévoile Claude Dreams : l’agent s’organise et gère sa mémoire entre les tâches, élimine les doublons et les contradictions
Anthropic contre SpaceX en puissance de calcul : acquisition de l’ensemble du cluster Colossus 1 avec 220 000 GPU, et Claude lève ses limites de débit