Sakana AI et Nvidia ont open-sourcé TwELL, un format de données clairsemées qui permet aux GPU H100 d’ignorer 80% des calculs invalides dans les grands modèles de langage sans perte de précision. La solution offre jusqu’à 30% d’inférence plus rapide et 24% d’entraînement plus rapide sur des H100, tout en réduisant l’usage maximal de mémoire. Lors de tests sur un modèle de 1,5 milliard de paramètres, l’approche a ramené les neurones actifs à moins de 2% grâce à une régularisation légère pendant l’entraînement, sans dégradation des performances sur sept tâches en aval.
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
OpenAI met fin à l’API de fine-tuning, de manière effective immédiatement. Les utilisateurs existants peuvent encore y accéder jusqu’au 6 janvier 2027
D’après l’annonce officielle d’OpenAI surveillée par Beating, la société cesse son API de Fine-tuning en libre-service pour les développeurs, à compter de maintenant. Les nouveaux utilisateurs ne peuvent plus créer de tâches de fine-tuning, tandis que les utilisateurs actifs existants peuvent accéder au service jusqu’au 6 janvier 2027. Les modèles fine-tunés déployés verront leurs services d’inférence liés au cycle de vie de leurs modèles de base, et ils cesseront lorsque le modèle de base sera
GateNewsIl y a 6m
Microsoft met en open-source le modèle Phi-Ground 4B, surpassant OpenAI Operator et Claude en précision de clic à l’écran
D’après Beating, Microsoft a récemment open-sourcé la famille de modèles Phi-Ground, conçue pour résoudre le problème de l’endroit où l’IA doit cliquer sur un écran d’ordinateur. La version à 4 milliards de paramètres, associée à de grands modèles de langage pour la planification des instructions, a dépassé la précision de clic d’OpenAI Operator et de Claude Computer Use lors du benchmark Showdown et s’est classée première parmi tous les modèles de moins de 100 milliards de paramètres sur cinq é
GateNewsIl y a 1h
Tilde Research découvre que l’optimiseur Muon détruit 25% des neurones ; l’alternative Aurora atteint un gain d’efficacité des données de 100x
D'après Tilde Research, l’optimiseur Muon adopté par les principaux modèles d’IA, dont DeepSeek V4 et Kimi K2.5, présente une faille cachée : il fait mourir de façon permanente plus de 25% des neurones des couches MLP pendant l’entraînement initial. L’équipe a conçu Aurora, un optimiseur alternatif, et l’a open-source. Un modèle de 1,1 milliard de paramètres entraîné avec seulement 100 milliards de tokens a atteint les performances de Qwen3-1,7B entraîné sur 36 T tokens sur des bancs d’essai de
GateNewsIl y a 1h
Nvidia engage plus de 40 milliards de dollars dans des investissements liés à l’IA au début de 2026, dont 30 milliards de dollars pour OpenAI
Selon TechCrunch, Nvidia a engagé plus de 40 milliards de dollars en investissements en actions dans des entreprises d’IA au cours des premiers mois de 2026, avec un investissement de 30 milliards de dollars dans OpenAI comme plus grand engagement unique. Le fabricant de puces a également promis jusqu’à 3,2 milliards de dollars au verrier Corning et jusqu’à 2,1 milliards de dollars à l’opérateur de centres de données IREN, ce qui inclut un warrant sur cinq ans et un contrat distinct de 3,4 milli
GateNewsIl y a 5h
Nvidia ouvre un partenariat de long terme en matière d’IA avec Deepinfra, qui obtient un financement de série B de 107 millions de dollars afin de créer une « usine de jetons »
La startup d’intelligence artificielle DeepInfra annonce avoir finalisé un financement de série B de 107 millions de dollars, mené par 500 Global et Georges Harik, ingénieur chez Google en début de carrière, avec la participation d’investisseurs stratégiques tels que NVIDIA, Samsung Next et Supermicro. D’après les informations officielles, cette nouvelle injection de fonds servira à étendre la capacité de centres de données à l’échelle mondiale, afin de résoudre les coûts de calcul et les goulot
ChainNewsAbmediaIl y a 5h
Membre du Conseil des gouverneurs de la BCE, Escrivá, signale les risques liés à l’IA pour l’infrastructure financière le 9 mai
Le membre du Conseil des gouverneurs de la BCE, Escrivá, a déclaré le 9 mai que les banques centrales doivent réévaluer la résilience des infrastructures financières et la robustesse en matière de cybersécurité à la lumière des avancées de l’intelligence artificielle. D’après ses propos lors d’un événement, les progrès récents de l’IA obligent à repenser la capacité des systèmes financiers à faire face aux risques émergents.
GateNewsIl y a 6h