Attaque en double sur la chaîne d’approvisionnement des logiciels d’IA : Mistral et de faux modèles OpenAI subissent également une infiltration

La communauté d’outils de développement pour l’IA connaît le 12 mai deux attaques majeures contre la chaîne d’approvisionnement, signalées le même jour : (1) Microsoft Threat Intelligence révèle que le paquet PyPI de Mistral AI a été injecté avec du code malveillant ; (2) un projet de modèle Hugging Face qui se fait passer pour OpenAI a grimpé en tête du classement des tendances, au numéro 1, en seulement 18 heures, attirant 244 000 téléchargements et dérobant de nombreux identifiants de comptes. D’après la publication de Decrypt, les deux incidents mettent en évidence la vulnérabilité de l’écosystème du développement d’IA face à la pénétration par la chaîne d’approvisionnement.

Table of Contents

Toggle

Affaire du paquet Mistral AI : attaque en deux étapes déguisée en nom de Hugging Face Transformers

Affaire du faux OpenAI sur Hugging Face : infostealer écrit en Rust en 6 étapes

Signification pour l’industrie : la chaîne d’approvisionnement de l’IA devient une nouvelle surface d’attaque

Affaire du paquet Mistral AI : attaque en deux étapes déguisée en nom de Hugging Face Transformers

Le paquet PyPI de Mistral AI (gestionnaire de paquets Python) a été injecté avec du code malveillant, révélé par Microsoft Threat Intelligence le 12 mai sur X :

Périmètre touché : paquet mistralai PyPI v2.4.6

Mode de déclenchement : exécution automatique lors de l’import du paquet sur un système Linux

Deuxième étape de la charge utile : téléchargement depuis un serveur distant de transformers.pyz, puis exécution en arrière-plan

Piège de nommage : transformers.pyz imite volontairement le nom de la bibliothèque populaire Transformers de Hugging Face

Fonction réelle : vol des identifiants de connexion des développeurs, ainsi que des access tokens ; sur certains systèmes, déclenchement d’une suppression aléatoire de fichiers situés dans les plages d’IP d’Israël ou d’Iran

Mistral a confirmé le 13 mai cette attaque contre la chaîne d’approvisionnement, tout en précisant que « l’infrastructure de Mistral n’a pas été compromise, et que l’origine de l’attaque provient d’un appareil de développeur affecté ». L’attaque est attribuée à la famille de logiciels malveillants Shai-Hulud au sens large (active depuis septembre 2025, ciblant la chaîne d’approvisionnement des paquets open source sur npm et PyPI).

Affaire du faux OpenAI sur Hugging Face : infostealer écrit en Rust en 6 étapes

En parallèle, la plateforme de modèles IA Hugging Face a vu apparaître un faux projet de modèle nommé « Open-OSS/privacy-filter », imitant intentionnellement le modèle Privacy Filter publié par OpenAI en avril :

Téléchargements cumulés : 244 000 en 18 heures

J’aime cumulés : 667 (dont 657 seraient générés par des comptes de robots)

Classement tendance : a déjà atteint la 1ère place du tableau des tendances sur Hugging Face

Commande de déclenchement : il est conseillé aux utilisateurs d’exécuter _start.bat (Windows) ou loader.py (Linux/Mac)

Comportement réel : infostealer en 6 étapes écrit en Rust, volant les données suivantes :

— Mots de passe et cookies du navigateur Chrome/Firefox

— Token Discord

— Mots de passe de phrase (seed) des portefeuilles de cryptomonnaies

— Identifiants SSH et FTP

— Captures d’écran de tous les écrans

Ce projet de modèle a été dévoilé par l’entreprise de sécurité IA HiddenLayer, et Hugging Face l’a retiré. Dans le même temps, HiddenLayer a aussi identifié 7 autres projets de modèles malveillants similaires, dont certains imitent d’autres modèles IA populaires comme Qwen3 et DeepSeek.

Signification pour l’industrie : la chaîne d’approvisionnement de l’IA devient une nouvelle surface d’attaque

Chaîne d’actualités observée : les 3 incidents liés à la chaîne d’approvisionnement de l’IA révélés cette semaine simultanément—Mistral PyPI, le faux OpenAI sur HuggingFace, et l’affaire d’exploitation de vulnérabilité de type zero-day liée à l’IA dévoilée par Google le 11/5—montrent que l’écosystème du développement d’IA est désormais devenu une priorité d’attaque pour les pirates.

Points communs aux trois affaires :

Les attaquants se déguisent en fournisseurs légitimes d’outils IA (paquets PyPI, modèles sur HuggingFace, utilitaires d’exploitation de vulnérabilité dans la fabrication de l’IA)

Les cibles visées sont « Web3 et les développeurs d’IA », un public disposant de tokens à privilèges élevés, de portefeuilles de cryptomonnaies et de comptes cloud

Parcours de blanchiment/vol rapide—pour le cas Hugging Face, 244 000 téléchargements en 18 heures, signe d’une extension rapide de la portée

Les mécanismes de vérification des grandes plateformes (PyPI, HuggingFace) sont insuffisants pour identifier instantanément des projets falsifiés

Pour les développeurs de cryptomonnaies et de Web3, ces incidents renforcent la menace mentionnée dans le rapport « 2025 : des hackers nord-coréens dérobent 2,06 milliards de dollars » publié la même semaine par CertiK : « ingénierie sociale + 6 mois d’infiltration »—en 2026, les attaquants n’ont plus besoin de pirater directement les bourses ; il leur suffit de contaminer les paquets open source utilisés par les développeurs pour obtenir indirectement les clés et les fonds correspondants.

Mesures de défense pratiques pour les développeurs individuels : vérifier les signatures et l’éditeur avant l’installation des paquets, exécuter les modèles IA nouvellement téléchargés dans une machine virtuelle isolée, faire une rotation régulière des clés API des bourses d’échange, et ne pas stocker les mots de passe de phrase des portefeuilles crypto sur un appareil connecté au réseau. Au niveau des équipes, il faut mettre en place un « SBOM (Software Bill of Materials / inventaire des composants logiciels) » et un processus de signature de la chaîne d’approvisionnement.

Les événements à suivre incluent notamment : les résultats de l’enquête sur l’intrusion des appareils internes de Mistral, si Hugging Face introduit un mécanisme de vérification plus strict pour les tendances, et les informations de suivi concernant les autres projets de modèles malveillants dévoilés par les 7 enquêtes de HiddenLayer (y compris les versions usurpées de Qwen3 et DeepSeek).

Cet article : deux attaques par infiltration de la chaîne d’approvisionnement des paquets IA, Mistral et le modèle fictif d’OpenAI, infiltrés tous deux en même temps. Apparition initiale dans Chaîne d’actualités ABMedia.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire