
Selon CoinEdition, le 12 mai, le groupe de renseignement sur les menaces de Google a publié un rapport avertissant que des attaquants utilisaient des modèles de langage à grande échelle dans des attaques informatiques réelles affectant des systèmes à l’échelle mondiale, et a confirmé que des pirates avaient développé une vulnérabilité zero-day basée sur Python permettant de contourner les mécanismes de sécurité de double authentification (2FA) ; Google indique que l’abus d’outils d’IA dans des activités liées à des attaques cybernétiques de niveau étatique et dans des réseaux de pirates clandestins est en corrélation.
D’après le rapport du groupe de renseignement sur les menaces de Google, des outils d’IA aident les attaquants à renforcer leurs capacités à presque chaque étape d’une cyberattaque, notamment : détecter plus rapidement des failles logicielles, automatiser certaines étapes des attaques, et améliorer des techniques comme le phishing (hameçonnage) ainsi que la création de logiciels malveillants.
Le rapport consigne un cas précis : des hackers ont utilisé une vulnérabilité zero-day basée sur Python pour contourner avec succès la double authentification (2FA) ; Google précise que l’attaque nécessite toujours des informations d’identification de connexion valides, montrant que la faille provient du design même du système, et non d’un défaut technique du logiciel.
Le rapport ajoute que les attaquants entraînent leurs méthodes d’attaque en utilisant des bases de données sur les vulnérabilités de sécurité contenant des milliers de failles connues et d’exemples d’exploitation afin d’identifier des schémas permettant de découvrir de nouvelles faiblesses ; les pirates exploitent aussi l’IA pour créer de faux codes, altérer des charges utiles et écrire des scripts dynamiques afin d’échapper à la détection, et, dans certains cas, un système d’IA peut envoyer des commandes en temps réel à des appareils infectés.
Selon le rapport du groupe de renseignement sur les menaces de Google, les organisations liées à la Chine et à la Corée du Nord sont en avance dans l’adoption des méthodes d’attaque assistées par l’IA susmentionnées ; parmi les techniques, on retrouve des messages-guides soigneusement conçus pour voler des informations de sécurité, ainsi que le fait de se faire passer pour des experts en cybersécurité afin d’effectuer, potentiellement, des analyses de vulnérabilités sur des micrologiciels et des équipements embarqués.
Selon le rapport de CoinEdition, Google indique qu’il renforce ses mesures de défense basées sur l’IA : le système Big Sleep sert à identifier automatiquement les vulnérabilités ; le système CodeMender sert à corriger automatiquement les vulnérabilités ; Gemini intègre des mesures de sécurité visant à empêcher des activités suspectes sur les comptes utilisateurs.
Selon le rapport de CoinEdition du 12 mai 2026, le rapport du groupe de renseignement sur les menaces de Google confirme que des hackers ont réussi à contourner la sécurité 2FA en exploitant une vulnérabilité zero-day basée sur Python ; Google explique que la vulnérabilité provient du design même du système, et que l’attaque nécessite des informations d’identification de connexion valides pour être exécutée.
Selon le rapport du groupe de renseignement sur les menaces de Google, les organisations liées à la Chine et à la Corée du Nord sont les premières à adopter des outils d’IA pour mener des cyberattaques ; les méthodes incluent des messages-guides soigneusement conçus pour voler des informations de sécurité, ainsi que le fait de se faire passer pour des experts en cybersécurité afin d’analyser des vulnérabilités de micrologiciels.
Selon le rapport de CoinEdition, Google a déployé des systèmes de défense par IA tels que Big Sleep (identification automatique des vulnérabilités), CodeMender (correction automatique des vulnérabilités) et Gemini avec des mesures de sécurité intégrées (blocage des activités suspectes sur les comptes).
Articles similaires
Des attaquants détournent les pipelines officiels de TanStack, OpenSearch et Mistral, et poussent 84 versions malveillantes le 12 mai
Ixirpad s’associe à Cware Labs pour soutenir les startups IA et Web3
Vue de l’agent Claude Code : gestion d’une session parallèle dans un seul écran
Karpathy soutient la sortie HTML pour les grands modèles de langage, et prédit que la vidéo neuronale interactive sera la forme ultime
Austrac met en garde contre les risques de blanchiment d'argent alimentés par l'IA alors que l'Australie étend ses règles de lutte contre le blanchiment d'argent à partir du 1er juillet
Le président de la Chambre des représentants des États-Unis adresse une lettre à OpenAI pour enquêter sur les conflits d’intérêts liés aux investissements personnels de Sam Altman