DeepSeek lance les modèles V4-Pro et V4-Flash à un coût inférieur de 98 % à celui du GPT-5.5 Pro d’OpenAI

Message de Gate News, 25 avril — DeepSeek a publié des versions préliminaires de V4-Pro et V4-Flash le 24 avril, deux modèles open-weight avec des fenêtres de contexte d’un million de tokens. V4-Pro dispose de 1,6 billion de paramètres au total, mais n’active que 49 milliards par passe d’inférence en utilisant une architecture de type Mixture-of-Experts. V4-Flash a 284 milliards de paramètres au total, dont 13 milliards activés.

La tarification est nettement plus basse que celle des concurrents : V4-Pro coûte 1,74 $ par million de tokens d’entrée et 3,48 $ par million de tokens de sortie — environ 98 % de moins que le GPT-5.5 Pro d’OpenAI ($30 input, $180 output) et environ un vingtième du coût de Claude Opus 4.7. V4-Flash est facturé 0,14 $ en entrée et 0,28 $ en sortie par million de tokens. Les deux modèles sont open source sous licence MIT et peuvent être exécutés localement gratuitement.

DeepSeek a réalisé des gains d’efficacité grâce à deux nouveaux mécanismes d’attention : Compressed Sparse Attention et Heavily Compressed Attention, qui réduisent les coûts de calcul à 27 % de ceux du prédécesseur V4-Pro (V3.2) et à 10 % pour V4-Flash. La société a partiellement entraîné V4 sur des puces Huawei Ascend, en contournant les restrictions d’exportation américaines sur les processeurs Nvidia avancés. DeepSeek a déclaré qu’une fois que 950 nouveaux supernœuds seront mis en ligne plus tard en 2026, la tarification baissera davantage.

Sur des benchmarks de performance, V4-Pro-Max arrive en première position sur Codeforces compétitif (3,206, se classant autour de la 23e place parmi les candidats humains) et obtenant 90,2 % sur les problèmes de mathématiques d’Apex Shortlist contre 85,9 % pour Claude Opus 4.6. Cependant, il est en retrait sur les benchmarks de multitâche : MMLU-Pro (87,5 % contre 91,0 % de Gemini-3.1-Pro) et Humanity’s Last Exam (37,7 % contre 44,4 %). Sur les tâches à long contexte, V4-Pro mène les modèles open source mais perd face à Claude Opus 4.6 sur les tests de récupération MRCR.

V4-Pro introduit le « interleaved thinking », permettant aux workflows d’agents de conserver le contexte de raisonnement sur plusieurs appels d’outils sans vider entre les étapes. Les deux modèles prennent en charge des intégrations de codage avec Claude Code et OpenCode. D’après une enquête auprès des développeurs de DeepSeek portant sur 85 utilisateurs, 52 % ont déclaré que V4-Pro était prêt comme agent de codage par défaut, et 39 % penchaient pour son adoption. Les anciens endpoints deepseek-chat et deepseek-reasoner seront mis à la retraite le 24 juillet 2026.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Musk a envisagé d’intégrer OpenAI à Tesla à la fin de 2017, selon le tribunal

Lors d’un témoignage lors d’un procès fédéral à Oakland, en Californie, Elon Musk a envisagé de fusionner OpenAI avec Tesla à la fin de 2017 et au début de 2018, selon Shivon Zilis, une dirigeante de Neuralink et ancienne membre du conseil d’administration d’OpenAI. Zilis a déclaré que Musk avait étudié la possibilité d’offrir à Sam Altman un siège au conseil d’administration de Tesla.

GateNewsIl y a 1m

La croissance de l’utilisation de Gemini et Claude s’accélère en avril, tandis que la croissance de ChatGPT ralentit à 30 % en glissement annuel

D’après le dernier rapport de Bank of America, Gemini et Claude ont enregistré une croissance solide des utilisateurs en avril, tandis que l’expansion de ChatGPT a ralenti. Sur le web aux États-Unis, ChatGPT a progressé de 30% d’une année sur l’autre pour atteindre 34 millions de visites (soit l’équivalent de 6% du trafic de Google), tandis que Claude a bondi de 715% d’une année sur l’autre pour atteindre 7,1 milli

GateNewsIl y a 9m

OpenAI lance le protocole MRC avec AMD, Broadcom, Intel, Microsoft et Nvidia

OpenAI a annoncé qu’elle a collaboré avec AMD, Broadcom, Intel, Microsoft et Nvidia pour lancer Multipath Reliable Connection (MRC), un protocole réseau open source. Conçu pour accélérer les clusters d’entraînement à grande échelle pour l’IA, améliorer la fiabilité et réduire de manière significative l’inactivité des GPU

GateNewsIl y a 11m

Le chiffre d’affaires du centre de données IA de SK Telecom bondit de 89 % au T1 2026

D’après SK Telecom, l’activité de centre de données alimentée par l’intelligence artificielle du groupe, a généré 131,4 milliards de won (89,4 millions de dollars) de revenus au premier trimestre 2026, soit une hausse de 89,3% d’une année sur l’autre. La société a attribué cette hausse à une meilleure utilisation des centres de données et

GateNewsIl y a 21m

L’Arm met en garde contre une faiblesse des smartphones et prévoit la croissance des puces d’IA pour compenser

Arm Holdings a averti que la faiblesse du marché des smartphones comprime une source de revenus clé pour la société de conception de puces, bien que la croissance de l’activité de puces pour l’IA devrait compenser l’impact, a déclaré le PDG Rene Haas lors d’un appel aux résultats. Au trimestre précédent, les expéditions de téléphones ont reculé, avec des pertes concentrées dans

CryptoFrontierIl y a 31m

DeepSeek lève des fonds à $45B valorisation dans un contexte de concurrence en IA

Le laboratoire d'IA chinois DeepSeek serait en discussions pour lever son premier tour de financement à une valorisation annoncée de 45 milliards de dollars, selon TechCrunch. Cette valorisation représente une hausse significative par rapport à une valorisation estimée à 20 milliards de dollars seulement quelques semaines plus tôt, après l’attention portée aux modèles d’IA de l’entreprise pour

CryptoFrontierIl y a 50m
Commentaire
0/400
Aucun commentaire