D’après Decrypt, des attaquants ont intégré du code malveillant dans le paquet logiciel de Mistral AI distribué via PyPI. Lorsque les développeurs utilisent ce paquet sur des systèmes Linux, le code malveillant s’exécute automatiquement, téléchargeant un fichier nommé transformers.pyz depuis un serveur distant et le lançant en arrière-plan. Le nom du fichier imite la bibliothèque très utilisée Hugging Face Transformers. L’équipe de threat intelligence de Microsoft a déclaré que le logiciel malveillant vole principalement des identifiants de connexion de développeurs et des jetons d’accès. Mistral a confirmé qu’une machine d’un développeur a été compromise, mais que l’infrastructure de l’entreprise n’a pas été affectée.
Related News
Attaque en double sur la chaîne d’approvisionnement des logiciels d’IA : Mistral et de faux modèles OpenAI subissent également une infiltration
Google : de grands modèles de langage sont utilisés pour des attaques réelles, l'IA peut contourner les mécanismes de sécurité de double authentification
Google dévoile le premier cas de faille zero-day générée par l’IA : des pirates cherchent à contourner la 2FA pour une exploitation à grande échelle