Segundo a Decrypt, os atacantes colocaram código malicioso no pacote de software da Mistral AI distribuído via PyPI. Quando os programadores utilizam o pacote em sistemas Linux, o código malicioso executa automaticamente, descarregando um ficheiro chamado transformers.pyz a partir de um servidor remoto e executando-o em segundo plano. O nome do ficheiro imita a amplamente utilizada biblioteca Hugging Face Transformers. A equipa de threat intelligence da Microsoft afirmou que o malware rouba principalmente credenciais de início de sessão de programadores e tokens de acesso. A Mistral confirmou que a máquina de um programador foi comprometida, mas a infraestrutura da empresa não foi afetada.
Related News
Ataques de dupla via à cadeia de abastecimento de pacotes de IA: Mistral e falsos modelos OpenAI também comprometidos
Google: grandes modelos de linguagem estão a ser usados para ataques reais, a IA pode contornar mecanismos de segurança de autenticação em duas etapas
O Google revela o primeiro caso de vulnerabilidade zero-day criada por IA: os hackers procuram contornar a 2FA para exploração em larga escala