Gate News message, April 28 — Google has signed an agreement with the U.S. Department of Defense allowing the military to use Google AI for classified work under the terms of “any lawful government purpose,” according to The Information. The contract was signed on the same day over 600 Google employees sent a letter to CEO Sundar Pichai urging the company to reject the deal. Google’s public sector spokesperson confirmed the agreement is a revision of a non-classified contract signed in November 2025.
The contract includes a safety provision stating that Google AI “is not intended for, and should not be used for” large-scale domestic surveillance or autonomous weapons without human control. However, Charlie Bullock, a senior researcher at the Law and AI Institute, stated that the “should not be used for” language has no legal binding force. It merely expresses the parties’ view that such use is undesirable but does not constitute a breach of contract. The agreement also stipulates: “This agreement does not grant the right to control or veto decisions on lawful government actions.”
Compared to OpenAI’s February agreement with the Pentagon, Google’s terms are notably more permissive. OpenAI retained “full discretion over safety systems,” while Google agreed to assist the government in adjusting AI safety settings and filters upon request. Google’s spokesperson noted these filters were designed for consumers and the company typically makes adjustments for enterprise clients. Google is the third company to sign a classified AI agreement with the Pentagon, after xAI and OpenAI. Anthropic, which refused to relax safety restrictions, has been flagged by the Pentagon as a “supply chain risk” and is currently in legal proceedings.
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
Claude/GPT trop complaisant ? Une invite Claude.md incite l’IA à donner des réponses fermes et précises
Cet article présente une suite de consignes pouvant être intégrée à Claude.md / Agents.md, afin de transformer l’IA, de simple assistante courtoise en conseillère directe, au moyen de quatre niveaux d’ajustement : définition du rôle, vérification des faits, libération du ton, et dispense de la correction politique. Il exige une réponse complète, une validation progressive et la certitude de ne jamais inventer. Le texte indique aussi, si nécessaire, de provoquer ou de défier. Il décrit en outre le moment de chargement, les risques et les cas d’usage (recherche, rédaction, décisions techniques, discussion académique), ainsi que le fait que ce format ne convient pas au service client, à l’éducation et aux conseils médicaux. La source originale du texte est ABMedia.
ChainNewsAbmediaIl y a 22m
OpenAI présente ChatGPT Futures : 26 étudiants de la première promotion reçoivent une subvention de 10 000 dollars, dans plus de 20 universités
OpenAI publie la première cohorte de ChatGPT Futures Class of 2026 : 26 étudiants en cursus, issus de plus de 20 universités de premier plan, recevront chacun une subvention de 10 000 dollars et un accès aux modèles les plus avancés. Ces étudiants ont commencé leurs études à l’automne 2022 et ont grandi avec ChatGPT. Leurs axes de recherche couvrent la cartographie d’objets spatiaux, la détection de survivants de catastrophes, la préservation de langues en danger, la santé et les soins, entre autres. L’objectif est de répondre à des besoins humains concrets grâce à l’IA, tout en s’appuyant sur des bases d’infrastructures pour les créateurs de la nouvelle génération.
ChainNewsAbmediaIl y a 23m
FLock.io Facilite la collaboration de recherche entre le Sarawak AI Center et l’Université de Cambridge cette semaine
D’après Foresight News, FLock.io a facilité cette semaine une nouvelle collaboration de recherche entre le Sarawak Artificial Intelligence Research Centre (SAIC) de Malaisie et l’Université de Cambridge. Ce partenariat étendra la coopération des infrastructures techniques à la recherche économique, à la conception de politiques et
GateNewsIl y a 35m
Apple règle un recours collectif de consommateurs de 250 millions de dollars, avec une indemnisation maximale de 95 dollars par personne
Apple accepte de transiger avec les accusations d’annonces publicitaires trompeuses liées à l’IA pour un montant de 250 millions de dollars. Si le tribunal approuve l’accord, les consommateurs américains ayant acheté un iPhone iPhone donné aux États-Unis au cours de la période concernée pourront recevoir jusqu’à 95 dollars de dédommagement par appareil, couvrant les iPhone 16, 16 Plus, 16 Pro, 16 Pro Max ainsi que les iPhone 15 Pro/Pro Max. Les demandeurs affirment que la publicité a présenté Siri comme une percée en matière d’IA, alors que les fonctionnalités réelles n’ont pas répondu aux promesses ; Apple affirme que les fonctions sont déployées par étapes, qu’elle a déjà livré plusieurs fonctionnalités, et que ce n’est pas une déclaration inexacte.
ChainNewsAbmediaIl y a 43m
Le vice-président de la recherche d’OpenAI critique la position perçue d’Anthropic selon laquelle seuls eux peuvent construire l’IA
Selon Aidan Clark, vice-président de la recherche d’OpenAI pour l’entraînement, sur la plateforme X récemment, il a exprimé des critiques de ce qu’il a entendu auprès de collègues d’Anthropic : une conviction selon laquelle seul Anthropic serait en droit d’être digne de confiance pour construire de l’IA. Clark a fait valoir que le fait d’avoir plusieurs organisations
GateNewsIl y a 43m
FIS et Anthropic développent des agents d’IA pour lutter contre le blanchiment d’argent, avec un déploiement prévu pour BMO et Amalgamated Bank au second semestre 2026
FIS et Anthropic développent des agents d’IA conçus pour automatiser les enquêtes sur la criminalité financière, en commençant par les opérations de lutte contre le blanchiment d’argent. L’agent d’IA pour les crimes financiers extraira des données des systèmes bancaires, évaluera les transactions par rapport à des typologies connues et aidera les enquêteurs à examiner al
GateNewsIl y a 1h