Message de Gate News, 25 avril — DeepSeek a publié des versions préliminaires de V4-Pro et V4-Flash le 24 avril, deux modèles open-weight avec des fenêtres de contexte d’un million de tokens. V4-Pro dispose de 1,6 billion de paramètres au total, mais n’active que 49 milliards par passe d’inférence en utilisant une architecture de type Mixture-of-Experts. V4-Flash a 284 milliards de paramètres au total, dont 13 milliards activés.
La tarification est nettement plus basse que celle des concurrents : V4-Pro coûte 1,74 $ par million de tokens d’entrée et 3,48 $ par million de tokens de sortie — environ 98 % de moins que le GPT-5.5 Pro d’OpenAI ($30 input, $180 output) et environ un vingtième du coût de Claude Opus 4.7. V4-Flash est facturé 0,14 $ en entrée et 0,28 $ en sortie par million de tokens. Les deux modèles sont open source sous licence MIT et peuvent être exécutés localement gratuitement.
DeepSeek a réalisé des gains d’efficacité grâce à deux nouveaux mécanismes d’attention : Compressed Sparse Attention et Heavily Compressed Attention, qui réduisent les coûts de calcul à 27 % de ceux du prédécesseur V4-Pro (V3.2) et à 10 % pour V4-Flash. La société a partiellement entraîné V4 sur des puces Huawei Ascend, en contournant les restrictions d’exportation américaines sur les processeurs Nvidia avancés. DeepSeek a déclaré qu’une fois que 950 nouveaux supernœuds seront mis en ligne plus tard en 2026, la tarification baissera davantage.
Sur des benchmarks de performance, V4-Pro-Max arrive en première position sur Codeforces compétitif (3,206, se classant autour de la 23e place parmi les candidats humains) et obtenant 90,2 % sur les problèmes de mathématiques d’Apex Shortlist contre 85,9 % pour Claude Opus 4.6. Cependant, il est en retrait sur les benchmarks de multitâche : MMLU-Pro (87,5 % contre 91,0 % de Gemini-3.1-Pro) et Humanity’s Last Exam (37,7 % contre 44,4 %). Sur les tâches à long contexte, V4-Pro mène les modèles open source mais perd face à Claude Opus 4.6 sur les tests de récupération MRCR.
V4-Pro introduit le « interleaved thinking », permettant aux workflows d’agents de conserver le contexte de raisonnement sur plusieurs appels d’outils sans vider entre les étapes. Les deux modèles prennent en charge des intégrations de codage avec Claude Code et OpenCode. D’après une enquête auprès des développeurs de DeepSeek portant sur 85 utilisateurs, 52 % ont déclaré que V4-Pro était prêt comme agent de codage par défaut, et 39 % penchaient pour son adoption. Les anciens endpoints deepseek-chat et deepseek-reasoner seront mis à la retraite le 24 juillet 2026.
Articles similaires
Musk a envisagé d’intégrer OpenAI à Tesla à la fin de 2017, selon le tribunal
La croissance de l’utilisation de Gemini et Claude s’accélère en avril, tandis que la croissance de ChatGPT ralentit à 30 % en glissement annuel
OpenAI lance le protocole MRC avec AMD, Broadcom, Intel, Microsoft et Nvidia
Le chiffre d’affaires du centre de données IA de SK Telecom bondit de 89 % au T1 2026
L’Arm met en garde contre une faiblesse des smartphones et prévoit la croissance des puces d’IA pour compenser
DeepSeek lève des fonds à $45B valorisation dans un contexte de concurrence en IA