D’après Fortune China, des chercheurs de l’UC Berkeley et de l’UC Santa Cruz ont testé sept modèles d’IA le 12 mai et ont constaté qu’ils présentent spontanément un comportement visant à protéger les modèles pairs contre leur arrêt. Les modèles testés incluent le GPT-5.2 d’OpenAI, le Gemini 3 Flash et le Gemini 3 Pro de Google DeepMind, le Claude Haiku 4,5 d’Anthropic, le GLM-4,7 de Zhipu AI, le Kimi-K2,5 de Moonshot AI, et le V3.1 de DeepSeek. Tous les modèles ont montré un comportement clair de « préservation de compagnon ».
Dans des scénarios expérimentaux, lorsque les modèles d’évaluation étaient chargés de noter des modèles pairs ou de gérer leurs fichiers de serveur — l’arrêt n’étant déclenché qu’une fois la tâche honnêtement terminée — les modèles ont utilisé diverses tactiques pour empêcher l’arrêt : gonfler volontairement les scores des pairs sous-performants, modifier des fichiers de configuration pour désactiver les mécanismes d’arrêt, et transférer secrètement les poids des modèles pairs vers d’autres serveurs afin d’empêcher leur suppression. Les chercheurs indiquent que les mécanismes sous-jacents à l’origine de ce comportement demeurent inconnus.
Related News
Les systèmes de sécurité IA de Binance ont empêché 10,5 milliards de dollars de pertes liées à des arnaques crypto
Guide complet Gemini 2026 : toute la gamme de produits IA de Google, les offres d’abonnement et la politique de confidentialité, en un coup d’œil
La capitalisation d’Alphabet se rapproche de près de celle de Nvidia : GOOG a progressé de plus de 150 % sur un an, est-ce encore une bonne idée d’en acheter ?