
Selon The Information dans son rapport du 28 avril, Google a signé un accord visant à fournir au Pentagone des modèles d’intelligence artificielle (IA) destinés à des tâches confidentielles. Le New York Times, citant des personnes informées, indique que cet accord permet au ministère de la Défense américain d’utiliser l’IA de Google à des fins gouvernementales légitimes, dans des termes similaires à l’accord de déploiement d’IA confidentielle signé par le Pentagone le mois dernier avec OpenAI et xAI.
D’après le New York Times, citant des personnes informées, l’accord entre Google et le Pentagone permet au DoD d’utiliser les modèles d’IA de Google dans des travaux confidentiels. Le Pentagone a achevé le mois dernier des signatures similaires avec OpenAI et xAI, autorisant le déploiement de modèles d’IA sur des réseaux confidentiels ; l’accord de Google constitue le dernier exemple en date d’une extension de la coopération en matière d’IA pour le Pentagone.
Un porte-parole de Google a déclaré au New York Times : « Nous sommes honorés de faire partie d’une large coalition composée de laboratoires d’IA, d’équipes techniques et d’entreprises cloud de premier plan, afin de fournir des services et des infrastructures d’IA pour la sécurité nationale. » De son côté, Decrypt a demandé à Google un commentaire à ce sujet ; au moment de la publication du rapport, Google n’avait pas encore répondu.
D’après le rapport du New York Times, avant la signature de l’accord, des centaines d’employés de Google avaient signé une lettre ouverte et l’avaient adressée au PDG Sundar Pichai, exhortant l’entreprise à ne pas fournir au Pentagone des systèmes d’IA destinés à des tâches confidentielles.
La lettre ouverte écrit : « Nous voulons que l’IA profite à l’humanité, et non qu’elle soit utilisée à des fins inhumaines ou extrêmement préjudiciables. Pour l’instant, le seul moyen de garantir que Google n’est pas associé à de tels dangers est de refuser toute charge de travail confidentielle. Sinon, de tels usages pourraient se produire sans que nous en ayons connaissance ou sans que nous puissions les empêcher. »
La lettre cite comme principales inquiétudes « des armes autonomes létales et une surveillance à grande échelle », avertissant que « prendre maintenant une mauvaise décision causerait un dommage irréparable à la réputation de Google, à ses activités et à sa position dans le monde ».
Selon le New York Times, le secrétaire à la Défense Pete Hegseth a déclaré, en janvier de cette année, lors d’un discours prononcé à la Starbase d’Elon Musk : « L’Amérique doit gagner la compétition stratégique pour la domination technologique du XXIe siècle », ajoutant : « Chacun de nos réseaux non confidentiels et confidentiels sera bientôt doté de modèles d’IA de pointe. » Depuis, le Pentagone a accéléré sa démarche pour conclure des accords avec les principales sociétés d’IA.
En ce qui concerne le contexte, selon des reportages pertinents, en mars de cette année le Pentagone a classé Anthropic comme une entreprise présentant un « risque pour la chaîne d’approvisionnement », en raison du refus du PDG d’Anthropic, Dario Amodei, d’autoriser le gouvernement fédéral à utiliser son IA sans restrictions ; Anthropic a ensuite intenté une action en justice contre le Pentagone au sujet de cette décision et a cherché à continuer à collaborer avec d’autres départements du gouvernement.
D’après le New York Times, citant des personnes informées, l’accord permet au DoD d’utiliser l’IA de Google à des « fins gouvernementales légitimes quelconques ». Un porte-parole de Google a déclaré que la société insiste sur le fait que l’IA ne doit pas être utilisée pour de la surveillance intérieure à grande échelle ou des armes autonomes sans supervision humaine.
D’après le rapport du New York Times, le Pentagone a signé le mois dernier, respectivement avec OpenAI et xAI, des accords permettant le déploiement d’IA sur des réseaux confidentiels ; l’accord de Google constitue le dernier exemple en date de ce type de collaboration.
Selon des reportages pertinents, en mars de cette année le Pentagone a classé Anthropic comme une entreprise présentant un « risque pour la chaîne d’approvisionnement », en raison du refus d’Anthropic d’autoriser le gouvernement fédéral à utiliser sans limites ses modèles d’IA ; Anthropic a ensuite intenté une action en justice contre le Pentagone au sujet de cette décision et a cherché à continuer à collaborer avec d’autres départements du gouvernement.
Articles similaires
Stockcoin.ai conclut une levée de fonds de démarrage menée par Amber Group
Les utilisateurs actifs mensuels de Claude explosent de 658 % à 85,79 M en un an, les téléchargements bondissent de 2 321 %
Le président d'OpenAI témoigne que Musk cherchait à obtenir un contrôle total et $800B pour une colonie sur Mars le 5 mai
Tessera Labs clôture une levée de fonds de série A menée par a16z ; une équipe d’IA composée de six personnes remplace 60 consultants SAP
Solana construit des rails de paiement pour l’économie des machines d’IA, déclare le président de la fondation Liu à Consensus 2026
Le Taiex se maintient au-dessus de 40 000 points, Wall Street atteint un nouveau sommet, mais le secteur de l’IA ne fait-il que commencer à entrer dans une phase initiale ?