L’ASIC avertit les entreprises financières des risques cyber liés à l’IA

La Commission australienne des valeurs mobilières et des investissements (ASIC) a mis en garde les entreprises financières contre le renforcement de leurs défenses en matière de cybersécurité, en citant des modèles d’IA avancés comme le Mythos d’Anthropic, qui exposeraient des failles logicielles, d’après Reuters. La commissaire de l’ASIC, Simone Constant, a déclaré que les entreprises devraient agir avant que la menace ne devienne plus claire et se concentrer sur des mesures de base de résilience cybernétique.

Contexte réglementaire

L’alerte est intervenue un mois après que l’Autorité australienne de réglementation prudentielle a publié son propre avertissement sur le fait que les pratiques de sécurité peinent à suivre le rythme du développement de l’IA. Une recherche distincte du Cambridge Centre for Alternative Finance a révélé que seulement 20% des régulateurs avaient adopté une IA avancée et que les superviseurs étaient en retard par rapport aux entreprises financières dans le suivi des préjudices émergents.

Capacités d’exploitation de Mythos

L’aperçu Mythos de Anthropologic va au-delà de la simple identification des vulnérabilités : il peut écrire des exploits opérationnels pour des failles logicielles. Le modèle a trouvé et exploité de manière indépendante un bogue vieux de 27 ans dans OpenBSD, un système d’exploitation open source conçu pour la sécurité. Mythos a aussi utilisé la CVE-2026-4747 pour obtenir une exécution de code à distance en tant que root via le Network File System (NFS) sur FreeBSD, un autre système d’exploitation open source.

Anthropic a indiqué que le modèle avait identifié des milliers de vulnérabilités à haute sévérité dans des systèmes d’exploitation majeurs et des navigateurs web, dont beaucoup étaient passées inaperçues pendant des années, voire des décennies. L’accès à Mythos Preview est limité, et Project Glasswing rassemble Amazon Web Services, les équipes sécurité d’Apple, Google, Microsoft, NVIDIA et d’autres acteurs pour sécuriser des logiciels largement utilisés avant que des outils similaires ne se répandent.

Impact sur l’économie de la cybersécurité

Cette capacité modifie de façon significative le coût et le calendrier du lancement d’attaques informatiques. Des bogues auparavant considérés comme présentant un risque faible suscitent désormais davantage d’inquiétude, car Mythos Preview peut construire des exploits en quelques heures—un travail que des testeurs d’intrusion experts ont indiqué qui aurait pris des semaines avec des méthodes traditionnelles. Ce changement implique que les entreprises financières et d’autres organisations pourraient devoir mettre en place des cycles de correctifs plus rapides et des défenses davantage automatisées.

Des tests sur d’autres modèles d’IA de pointe suggèrent que des compétences cyber avancées accompagnent les progrès plus larges de l’IA, indiquant que la menace est susceptible de croître.

FAQ

Qu’est-ce que Mythos et pourquoi est-ce une source de préoccupation pour les entreprises financières ?

Mythos est le modèle d’IA avancé d’Anthropic qui peut identifier des vulnérabilités logicielles et écrire des exploits opérationnels. L’ASIC a mis en garde les entreprises financières parce que Mythos peut révéler des failles de sécurité dans des systèmes largement utilisés, réduisant le temps et le coût nécessaires pour lancer des cyberattaques au prix d’une clé API. Le modèle a démontré sa capacité à trouver des milliers de vulnérabilités à haute sévérité dans des systèmes d’exploitation et des navigateurs web.

À quelle vitesse Mythos peut-il générer des exploits par rapport aux méthodes traditionnelles ?

Mythos peut construire des exploits en quelques heures, tandis que des testeurs d’intrusion experts ont indiqué que le même travail aurait pris des semaines avec des méthodes traditionnelles. Cette accélération modifie fondamentalement l’économie de la cybersécurité et l’urgence de corriger les vulnérabilités.

Que font les régulateurs pour faire face aux risques cyber induits par l’IA ?

L’ASIC a conseillé aux entreprises financières de renforcer leurs défenses cyber et de se concentrer sur des mesures de base de résilience cybernétique avant que les menaces ne deviennent plus claires. L’Autorité australienne de réglementation prudentielle a publié un avertissement similaire sur le fait que les pratiques de sécurité sont en retard par rapport au développement de l’IA. Project Glasswing, qui implique de grandes entreprises technologiques et des acteurs du cloud, vise à sécuriser des logiciels largement utilisés avant que des outils similaires de génération d’exploits ne deviennent courants.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Les États-Unis et la Chine prêts à lancer un dialogue officiel sur la sécurité de l’IA, mené par des responsables du Trésor

D'après des informations, les États-Unis et la Chine se préparent à lancer un dialogue officiel sur la sécurité de l'IA, visant à mettre en place des mécanismes de gestion de crise dans le cadre de leur compétition technologique. La délégation américaine sera menée par le secrétaire au Trésor Scott Bessent, tandis que la Chine sera représentée par le vice

GateNewsIl y a 27m

RLWRLD publie le modèle d’IA RLDX-1 pour des mains robotiques industrielles

RLWRLD, une startup d’IA en robotique soutenue par LG Electronics, a dévoilé RLDX-1, un modèle fondateur conçu pour des mains robotiques à cinq doigts dans des applications industrielles, selon RLWRLD. La société a publié les poids, le code et la documentation technique du modèle sur GitHub et Hugging Face. Modèle

CryptoFrontierIl y a 47m

DeepMind AlphaEvolve bilan interdisciplinaire : la multiplication de matrices 4×4 bat le record de Strassen de 1969, la formation de Gemini est accélérée de 1%

Google DeepMind le 7 mai (heure américaine) a publié un rapport de résultats interdomaines d’AlphaEvolve. Le blog officiel de DeepMind résume les progrès concrets d’AlphaEvolve depuis son lancement : avoir trouvé une méthode de multiplication de matrices complexes 4×4 meilleure que l’algorithme de Strassen de 1969 (48 multiplications scalaires pures), avoir collaboré avec des mathématiciens tels que Terence Tao pour résoudre plusieurs problèmes mathématiques difficiles d’Erdős, avoir économisé 0,7% des ressources mondiales de calcul pour les centres de données de Google, avoir augmenté de 23% la vitesse des kernels clés entraînés avec Gemini, et avoir réduit de 1% le temps total d’entraînement de Gemini. Architecture : exploration en largeur pour Gemini Flash + Gemini

ChainNewsAbmediaIl y a 1h

OpenAI Codex lance une extension pour Chrome : permet de tester une Web App dans le navigateur, de récupérer le contexte entre pages, et de fonctionner en parallèle

Le 7 mai (heure américaine), OpenAI a dévoilé la fonctionnalité d’extension Chrome de Codex, permettant aux agents Codex d’opérer directement dans le navigateur Chrome sur macOS et Windows. La documentation officielle de Codex explique que l’extension permet à Codex de tester une application web sans prendre le contrôle du navigateur de l’utilisateur, de récupérer du contexte sur plusieurs onglets, d’utiliser Chrome DevTools, et de mener d’autres tâches en parallèle. OpenAI a également annoncé que les utilisateurs actifs hebdomadaires de Codex dépassent 4 millions, en hausse de 8 fois par rapport au début de l’année. Ce qui peut être fait dans le navigateur : tester une application web, récupérer du contexte entre les pages, utiliser DevTools Extension Chrome de Codex

ChainNewsAbmediaIl y a 1h

OpenAI lance GPT-Realtime-2 : intègre l’inférence de GPT-5 dans les agents vocaux et fait passer le contexte à 128K

OpenAI a annoncé le 7 mai (heure des États-Unis) à une conférence pour développeurs trois nouveaux modèles vocaux Realtime : GPT-Realtime-2, GPT-Realtime-Translate, GPT-Realtime-Whisper, tous accessibles aux développeurs via l’API Realtime. L’annonce officielle d’OpenAI indique que GPT-Realtime-2 est le premier modèle d’OpenAI doté de GPT-5

ChainNewsAbmediaIl y a 1h

Visite sur le terrain de laboratoires d’IA en Chine : un chercheur révèle que « l’écart entre les puces et les données » est la clé du différend entre les États-Unis et la Chine

L’explorateur approfondi de plusieurs laboratoires d’IA en Chine, Nathan Lambert, souligne que l’avantage central de la Chine réside dans sa culture, ses talents et son état d’esprit pragmatique : la recherche vise d’abord à améliorer la qualité des modèles, les étudiants deviennent des contributeurs clés et les collaborations en organisation sont moins sujettes aux luttes internes ; toutefois, il existe des lacunes en matière de puces, de données et de créativité, et la puissance de calcul externe est contrainte par des restrictions américaines, tandis qu’une qualité de données insuffisante pousse à construire des environnements d’entraînement en interne. Les entreprises publient du code source tout en conservant leurs technologies essentielles pour procéder à des ajustements sur mesure ; si les États-Unis resserrent l’ouverture de l’écosystème, cela pourrait affecter la position de leader mondial.

ChainNewsAbmediaIl y a 1h
Commentaire
0/400
ReviewMonsterDoesn'tSleepvip
· Il y a 1h
Les modèles de type Mythos peuvent tous être utilisés comme outils d'attaque, les pare-feu traditionnels risquent de ne pas tenir le coup, il faut utiliser l'IA pour lutter contre l'IA.
Voir l'originalRépondre0
PocketValidatorvip
· Il y a 1h
Le commissaire a raison, il sera trop tard une fois que quelque chose arrivera. Mais le problème, c'est que les petites et moyennes institutions n'ont pas le budget pour ce genre de mise à niveau de sécurité. La régulation doit apporter un soutien concret.
Voir l'originalRépondre0
雾里看TVLvip
· Il y a 1h
ASIC cette fois a lancé une alerte assez rapidement, l'IA détecte les vulnérabilités beaucoup plus vite que les humains, les institutions financières doivent vraiment renforcer leur défense
Voir l'originalRépondre0