D’après la surveillance de Beating, le 12 mai à 3:20–3:26 (UTC+8), des attaquants affiliés à TeamPCP ont détourné les pipelines de publication officiels de TanStack, d’Amazon OpenSearch et de Mistral, en poussant 84 versions de paquets malveillants sur npm et PyPI. Les paquets concernés incluent @tanstack/react-router (10M+ téléchargements hebdomadaires), @opensearch-project/opensearch (1,3M téléchargements hebdomadaires) et le client mistralai de Mistral. Les paquets malveillants ont contourné les mécanismes de confiance de sécurité en exploitant des failles de configuration des GitHub Actions pour obtenir des identifiants temporaires de publication valides, leur permettant d’acquérir des signatures de provenance de build SLSA authentiques.
L’analyse inverse de Socket.dev révèle que le ver persiste même après la suppression du paquet en injectant du code dans les hooks d’exécution de Claude Code (.claude/settings.json) et dans les configurations de tâches de VS Code (.vscode/tasks.json). Sur les paquets Python, le logiciel malveillant s’active silencieusement lors de l’import, sans nécessiter d’appels de fonctions. Les machines concernées doivent être considérées comme compromises ; les utilisateurs doivent immédiatement faire pivoter les identifiants AWS, GitHub, npm et SSH et réinstaller à partir de lockfiles propres.
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
Des dizaines de milliards de nouvelles pousses Thinking Machines présentent un modèle d’IA interactif en temps réel, mettant en avant le slogan « il parle, écoute et exécute pendant qu’il parle ».
由前 OpenAI 前高層 Mira Murati 與 John Schulman 共同創辦、百億美元估值的人工智慧新創公司 Thinking Machines,週二推出首個能「邊說邊聽」的全雙工 AI 模型預覽版,延遲低至 0,4 秒,挑戰現有人機即時互動模式。 (輝達注資 Thinking Machines Lab 部署 Vera Rubin 提升前沿模型效能) Thinking Machines 新模型:打破輪流說話的舊模式 現有所有主流 AI 模型,運作方式都是「使用者輸入,模型等待,然後回應」。前 OpenAI 技術長 Mira Murati 與 OpenAI 共同創辦人 John Schulman 認為這種輪流回覆的過程就像傳訊息,並不是真正的對話。如今兩人聯手創立的 Thinking Machines Lab,於 5 月 11 日正式發表全新「互動模型(Interaction Models)」的研究預覽版,試圖從根本上改變這個現狀。 People talk, listen, watch, think, and collaborate at the same time, i
ChainNewsAbmediaIl y a 30m
Ixirpad s’associe à Cware Labs pour soutenir les startups IA et Web3
D’après une annonce du 11 mai, Ixirpad a conclu un partenariat stratégique avec Cware Labs afin d’accélérer le développement d’une infrastructure durable dans l’industrie Web3. Cware Labs, qui opère comme un studio de capital-risque, identifiera et soutiendra des projets blockchain et IA à fort potentiel. La collaboration vise à aider les entreprises émergentes à passer de concepts en phase initiale à des activités évolutives, prêtes à être financées, en leur fournissant un accompagnement opérat
GateNewsIl y a 1h
Vue de l’agent Claude Code : gestion d’une session parallèle dans un seul écran
Anthropic le 11 mai a lancé pour Claude Code une nouvelle fonctionnalité « Agent View » : elle regroupe sur un seul écran la gestion de plusieurs sessions de travail Claude Code exécutées en même temps, sans avoir besoin de basculer entre plusieurs onglets de terminaux. D’après le blog officiel d’Anthropic, cette fonctionnalité est mise en ligne sous forme de Research Preview et s’applique aux offres Pro, Max, Team, Enterprise ainsi qu’à la formule Claude API. Le compte X officiel d’Anthropic a
ChainNewsAbmediaIl y a 1h
Karpathy soutient la sortie HTML pour les grands modèles de langage, et prédit que la vidéo neuronale interactive sera la forme ultime
Selon Andrej Karpathy, membre fondateur d’OpenAI et créateur du concept de « vibe coding », il a aujourd’hui approuvé l’approche de l’équipe de Claude Code consistant à utiliser le HTML plutôt que le Markdown pour les sorties des grands modèles de langage. Karpathy a détaillé une feuille de route d’évolution des interfaces d’interaction avec l’IA : du texte brut au Markdown, puis au HTML, suivie de plusieurs formes intermédiaires, jusqu’à l’étape finale, la vidéo neuronale interactive générée di
GateNewsIl y a 1h
Austrac met en garde contre les risques de blanchiment d'argent alimentés par l'IA alors que l'Australie étend ses règles de lutte contre le blanchiment d'argent à partir du 1er juillet
D’après l’Austrac, le 12 mai, l’agence australienne de renseignement financier a averti que l’intelligence artificielle accroît les risques de blanchiment d’argent en permettant aux criminels de fabriquer des identités, de falsifier des documents et de dissimuler des produits plus rapidement et à plus grande échelle. À partir du 1er juillet 2026, les agents immobiliers, les négociants en métaux précieux et en pierres, ainsi que les prestataires de services de fiducie et d’entreprises seront soum
GateNewsIl y a 1h
Google : de grands modèles de langage sont utilisés pour des attaques réelles, l'IA peut contourner les mécanismes de sécurité de double authentification
Selon CoinEdition, le 12 mai, le groupe de renseignement sur les menaces de Google a publié un rapport avertissant que des attaquants utilisaient des modèles de langage à grande échelle dans des attaques informatiques réelles affectant des systèmes à l’échelle mondiale, et a confirmé que des pirates avaient développé une vulnérabilité zero-day basée sur Python permettant de contourner les mécanismes de sécurité de double authentification (2FA) ; Google indique que l’abus d’outils d’IA dans des a
MarketWhisperIl y a 1h