Google discute avec Marvell pour développer des puces IA personnalisées ; une unité de traitement de la mémoire prévue pour 2027

Message de Gate News, 20 avril — Google est en pourparlers avec le fabricant américain de puces Marvell Technology pour développer deux puces personnalisées conçues pour exécuter des charges de travail IA plus efficacement et réduire la dépendance aux GPU de Nvidia.

L’une des puces sera une unité de traitement de la mémoire (MPU) conçue pour fonctionner aux côtés de l’unité de traitement des tenseurs de Google (TPU), tandis que l’autre sera un nouveau TPU construit spécifiquement pour l’inférence des modèles d’IA. Les entreprises visent à finaliser la conception du MPU dès 2027 avant de passer à la phase de production de test.

Ce partenariat reflète la volonté plus large de Google de développer des composants en silicium propriétaires pour son infrastructure cloud IA, permettant à l’entreprise d’optimiser les performances tout en construisant des alternatives aux solutions existantes basées sur des GPU.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Zhipu AI met fin à l’abonnement au GLM Coding Plan avec quotas hebdomadaires illimités le 30 avril

Message d’actualité de Gate, 22 avril — Zhipu AI a annoncé qu’elle mettra fin au renouvellement automatique de l’abonnement au forfait illimité de quotas hebdomadaires du GLM Coding Plan à partir de 10 h 00 (heure de Pékin) le 30 avril 2026. L’arrêt concerne les utilisateurs actuellement abonnés à l’ancien forfait avec le renouvellement automatique

GateNewsIl y a 20m

Le retrait de Claude Code par Anthropic déclenche une levée de boucliers des développeurs ; OpenAI gagne du soutien au sein de la communauté

Anthropic supprime Claude Code de l’offre Pro, suscitant des critiques alors que les développeurs migrent vers OpenAI ; Codex reste gratuit/de base, tandis que GPT-5.4 et Image 2.0 améliorent les performances, entraînant une large migration des utilisateurs. Résumé : L’article examine la suppression de Claude Code par Anthropic depuis le plan Pro $20 , ce qui déclenche un tollé chez les développeurs qui y voient une hausse de prix cachée et un risque pour la fiabilité. Il met en contraste cette décision avec la politique d’OpenAI consistant à conserver Codex dans les offres gratuites et de base, tout en soulignant de solides performances du modèle avec GPT-5.4 et ChatGPT Images 2.0, et note une migration rapide des utilisateurs vers OpenAI, Codex dépassant apparemment 4 millions d’utilisateurs actifs hebdomadaires.

GateNewsIl y a 28m

Meta prévoit de suivre les clics de souris et les frappes au clavier des employés américains pour entraîner des modèles d’IA

Meta prévoit de déployer un logiciel de surveillance des employés qui capture les mouvements de la souris, les clics, les frappes au clavier et des captures d’écran périodiques afin d’entraîner des modèles d’IA ; les données ne sont pas utilisées pour les évaluations de performance, avec des garde-fous. Résumé : Meta entend installer un logiciel de surveillance sur les ordinateurs d’employés américains afin de capturer les mouvements de la souris, les clics, les frappes au clavier et des captures d’écran occasionnelles pour entraîner ses modèles d’IA. La société affirme que ces données ne seront pas utilisées pour des évaluations de performance et que des mesures de sécurité protègent le contenu sensible, dans le but d’améliorer les modèles pour des tâches comme les menus déroulants et les raccourcis clavier.

GateNewsIl y a 32m

Le système embarqué de Tesla en Chine pour intégrer le modèle de langage Doubao

Résumé : Tesla prévoit d'intégrer le Doubao et DeepSeek de ByteDance dans sa Model Y L via Volcano Engine, le Doubao prenant en charge les commandes vocales et les manuels, et DeepSeek permettant des interactions avec l’IA. Résumé : L’article indique que le système d’IA vocale embarquée de Tesla a terminé un dépôt réglementaire le 20 avril et intégrera le Doubao et DeepSeek de ByteDance via Volcano Engine, en attribuant le Doubao au contrôle vocal et aux requêtes manuelles, et DeepSeek aux fonctionnalités d’interaction avec l’IA dans la Model Y L.

GateNewsIl y a 36m

Le fondateur d’OpenClaw aborde les allégations de « déblocage » du CLI Claude : une permission orale existe, mais les blocages côté serveur demeurent

OpenClaw a réactivé le CLI Claude après des affirmations de permissions, mais Anthropic continue de bloquer via l’empreinte du system-prompt ; Steinberger note une éventuelle approche de contournement et suit la mise à jour du 2026.4.5 au 2026.4.7. Résumé : Cet article rapporte qu’OpenClaw a réactivé le CLI Claude à la suite de demandes de permissions, tandis que le fingerprinting côté serveur d’Anthropic continue de bloquer les requêtes. Il détaille les changements de déploiement du 2026.4.5 au 2026.4.7, incluant le nettoyage de l’environnement et des contrôles de permissions plus stricts, et discute la tension entre l’accès revendiqué et l’application effective, en mentionnant des idées de contournement potentielles sans les approuver.

GateNewsIl y a 48m

0G Labs s’associe à Alibaba Cloud pour permettre l’accès aux agents IA en chaîne au modèle Qwen

Message de Gate News, 22 avril — 0G Labs a annoncé un partenariat avec Alibaba Cloud afin de permettre aux agents IA d’invoquer directement le modèle de langage à grande échelle Qwen d’Alibaba en chaîne via l’infrastructure blockchain de 0G. La collaboration marque un changement des paradigmes d’accès à l’IA, passant d’approches basées sur des API à une infrastructure d’IA programmable et tokenisée, dans laquelle les agents IA peuvent appeler Qwen pour réaliser l’inférence directement sur le réseau 0G, avec une vérification assurée par 0G.

GateNewsIl y a 52m
Commentaire
0/400
Aucun commentaire