Google : de grands modèles de langage sont utilisés pour des attaques réelles, l'IA peut contourner les mécanismes de sécurité de double authentification

大型語言模型攻擊

Selon CoinEdition, le 12 mai, le groupe de renseignement sur les menaces de Google a publié un rapport avertissant que des attaquants utilisaient des modèles de langage à grande échelle dans des attaques informatiques réelles affectant des systèmes à l’échelle mondiale, et a confirmé que des pirates avaient développé une vulnérabilité zero-day basée sur Python permettant de contourner les mécanismes de sécurité de double authentification (2FA) ; Google indique que l’abus d’outils d’IA dans des activités liées à des attaques cybernétiques de niveau étatique et dans des réseaux de pirates clandestins est en corrélation.

Applications concrètes d’outils d’IA dans les cyberattaques

D’après le rapport du groupe de renseignement sur les menaces de Google, des outils d’IA aident les attaquants à renforcer leurs capacités à presque chaque étape d’une cyberattaque, notamment : détecter plus rapidement des failles logicielles, automatiser certaines étapes des attaques, et améliorer des techniques comme le phishing (hameçonnage) ainsi que la création de logiciels malveillants.

Le rapport consigne un cas précis : des hackers ont utilisé une vulnérabilité zero-day basée sur Python pour contourner avec succès la double authentification (2FA) ; Google précise que l’attaque nécessite toujours des informations d’identification de connexion valides, montrant que la faille provient du design même du système, et non d’un défaut technique du logiciel.

Le rapport ajoute que les attaquants entraînent leurs méthodes d’attaque en utilisant des bases de données sur les vulnérabilités de sécurité contenant des milliers de failles connues et d’exemples d’exploitation afin d’identifier des schémas permettant de découvrir de nouvelles faiblesses ; les pirates exploitent aussi l’IA pour créer de faux codes, altérer des charges utiles et écrire des scripts dynamiques afin d’échapper à la détection, et, dans certains cas, un système d’IA peut envoyer des commandes en temps réel à des appareils infectés.

Organisations liées à la Chine et à la Corée du Nord : le rapport confirme une adoption précoce des méthodes d’attaque par IA

Selon le rapport du groupe de renseignement sur les menaces de Google, les organisations liées à la Chine et à la Corée du Nord sont en avance dans l’adoption des méthodes d’attaque assistées par l’IA susmentionnées ; parmi les techniques, on retrouve des messages-guides soigneusement conçus pour voler des informations de sécurité, ainsi que le fait de se faire passer pour des experts en cybersécurité afin d’effectuer, potentiellement, des analyses de vulnérabilités sur des micrologiciels et des équipements embarqués.

Google déploie des systèmes de défense par IA pour répondre aux menaces

Selon le rapport de CoinEdition, Google indique qu’il renforce ses mesures de défense basées sur l’IA : le système Big Sleep sert à identifier automatiquement les vulnérabilités ; le système CodeMender sert à corriger automatiquement les vulnérabilités ; Gemini intègre des mesures de sécurité visant à empêcher des activités suspectes sur les comptes utilisateurs.

Questions fréquentes

Pourquoi le cas d’IA contournant la double authentification (2FA) consigné dans le rapport du groupe de renseignement sur les menaces de Google ?

Selon le rapport de CoinEdition du 12 mai 2026, le rapport du groupe de renseignement sur les menaces de Google confirme que des hackers ont réussi à contourner la sécurité 2FA en exploitant une vulnérabilité zero-day basée sur Python ; Google explique que la vulnérabilité provient du design même du système, et que l’attaque nécessite des informations d’identification de connexion valides pour être exécutée.

Quelles organisations liées à des pays Google a-t-il nommées comme ayant d’abord recours à des méthodes d’attaque par IA ?

Selon le rapport du groupe de renseignement sur les menaces de Google, les organisations liées à la Chine et à la Corée du Nord sont les premières à adopter des outils d’IA pour mener des cyberattaques ; les méthodes incluent des messages-guides soigneusement conçus pour voler des informations de sécurité, ainsi que le fait de se faire passer pour des experts en cybersécurité afin d’analyser des vulnérabilités de micrologiciels.

Quels systèmes de défense par IA nommés Google a-t-il déployés pour faire face aux menaces concernées ?

Selon le rapport de CoinEdition, Google a déployé des systèmes de défense par IA tels que Big Sleep (identification automatique des vulnérabilités), CodeMender (correction automatique des vulnérabilités) et Gemini avec des mesures de sécurité intégrées (blocage des activités suspectes sur les comptes).

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Des attaquants détournent les pipelines officiels de TanStack, OpenSearch et Mistral, et poussent 84 versions malveillantes le 12 mai

D’après la surveillance de Beating, le 12 mai à 3:20–3:26 (UTC+8), des attaquants affiliés à TeamPCP ont détourné les pipelines de publication officiels de TanStack, d’Amazon OpenSearch et de Mistral, en poussant 84 versions de paquets malveillants sur npm et PyPI. Les paquets concernés incluent @tanstack/react-router (10M+ téléchargements hebdomadaires), @opensearch-project/opensearch (1,3M téléchargements hebdomadaires) et le client mistralai de Mistral. Les paquets malveillants ont contourné

GateNewsIl y a 4m

Ixirpad s’associe à Cware Labs pour soutenir les startups IA et Web3

D’après une annonce du 11 mai, Ixirpad a conclu un partenariat stratégique avec Cware Labs afin d’accélérer le développement d’une infrastructure durable dans l’industrie Web3. Cware Labs, qui opère comme un studio de capital-risque, identifiera et soutiendra des projets blockchain et IA à fort potentiel. La collaboration vise à aider les entreprises émergentes à passer de concepts en phase initiale à des activités évolutives, prêtes à être financées, en leur fournissant un accompagnement opérat

GateNewsIl y a 19m

Vue de l’agent Claude Code : gestion d’une session parallèle dans un seul écran

Anthropic le 11 mai a lancé pour Claude Code une nouvelle fonctionnalité « Agent View » : elle regroupe sur un seul écran la gestion de plusieurs sessions de travail Claude Code exécutées en même temps, sans avoir besoin de basculer entre plusieurs onglets de terminaux. D’après le blog officiel d’Anthropic, cette fonctionnalité est mise en ligne sous forme de Research Preview et s’applique aux offres Pro, Max, Team, Enterprise ainsi qu’à la formule Claude API. Le compte X officiel d’Anthropic a

ChainNewsAbmediaIl y a 27m

Karpathy soutient la sortie HTML pour les grands modèles de langage, et prédit que la vidéo neuronale interactive sera la forme ultime

Selon Andrej Karpathy, membre fondateur d’OpenAI et créateur du concept de « vibe coding », il a aujourd’hui approuvé l’approche de l’équipe de Claude Code consistant à utiliser le HTML plutôt que le Markdown pour les sorties des grands modèles de langage. Karpathy a détaillé une feuille de route d’évolution des interfaces d’interaction avec l’IA : du texte brut au Markdown, puis au HTML, suivie de plusieurs formes intermédiaires, jusqu’à l’étape finale, la vidéo neuronale interactive générée di

GateNewsIl y a 53m

Austrac met en garde contre les risques de blanchiment d'argent alimentés par l'IA alors que l'Australie étend ses règles de lutte contre le blanchiment d'argent à partir du 1er juillet

D’après l’Austrac, le 12 mai, l’agence australienne de renseignement financier a averti que l’intelligence artificielle accroît les risques de blanchiment d’argent en permettant aux criminels de fabriquer des identités, de falsifier des documents et de dissimuler des produits plus rapidement et à plus grande échelle. À partir du 1er juillet 2026, les agents immobiliers, les négociants en métaux précieux et en pierres, ainsi que les prestataires de services de fiducie et d’entreprises seront soum

GateNewsIl y a 59m

Le président de la Chambre des représentants des États-Unis adresse une lettre à OpenAI pour enquêter sur les conflits d’intérêts liés aux investissements personnels de Sam Altman

Selon un article du « Los Angeles Times » daté du 12 mai, le président de la commission de supervision et de responsabilité de la Chambre des représentants des États-Unis, James Comer, a adressé une lettre officielle au PDG d’OpenAI, Sam Altman, afin d’ouvrir une enquête sur d’éventuels conflits d’intérêts entre les investissements personnels d’Altman et l’exploitation de la société OpenAI ; la lettre demande aux responsables d’OpenAI de fournir une présentation avant le 22 mai. Principales allé

MarketWhisperIl y a 1h
Commentaire
0/400
Aucun commentaire