Notícias Gate, 25 de abril — A DeepSeek lançou versões de pré-visualização de V4-Pro e V4-Flash a 24 de abril, ambos modelos open-weight com janelas de contexto de um milhão de tokens. O V4-Pro tem 1,6 triliões de parâmetros no total, mas activa apenas 49 mil milhões por passagem de inferência utilizando uma arquitectura Mixture-of-Experts. O V4-Flash tem 284 mil milhões de parâmetros no total, com 13 mil milhões activos.
Os preços são significativamente mais baixos do que os dos concorrentes: o V4-Pro custa $1,74 por um milhão de tokens de entrada e $3,48 por um milhão de tokens de saída — aproximadamente 98% menos do que o GPT-5.5 Pro da OpenAI ($30 input, $180 output) e cerca de um-vigésimo do custo do Claude Opus 4.7. O V4-Flash é tarifado em $0,14 para entrada e $0,28 para saída por um milhão de tokens. Ambos os modelos são open-source sob licença MIT e podem ser executados localmente de forma gratuita.
A DeepSeek alcançou ganhos de eficiência através de dois novos mecanismos de atenção: Compressed Sparse Attention e Heavily Compressed Attention, que reduzem os custos de computação para 27% do predecessor V4-Pro (V3.2) e para 10% no caso do V4-Flash. A empresa treinou parcialmente o V4 com chips Huawei Ascend, contornando as restrições de exportação dos EUA sobre processadores Nvidia avançados. A DeepSeek afirmou que, quando 950 novos supernós entrarem em funcionamento mais tarde em 2026, os preços cairão ainda mais.
Em benchmarks de desempenho, o V4-Pro-Max ocupa o primeiro lugar no Codeforces competitive programming (3.206, ficando em torno do 23.º lugar entre os concorrentes humanos) e com uma pontuação de 90,2% em problemas de matemática do Apex Shortlist, face aos 85,9% do Claude Opus 4.6. No entanto, fica atrás em benchmarks de multitarefa: MMLU-Pro (87,5% vs 91,0% do Gemini-3.1-Pro) e 37,7% do Humanity’s Last Exam ( vs 44,4%). Em tarefas de longo contexto, o V4-Pro lidera modelos open-source, mas perde para o Claude Opus 4.6 em testes de recuperação MRCR.
O V4-Pro introduz o “interleaved thinking”, permitindo que fluxos de trabalho de agentes retenham o contexto de raciocínio através de múltiplas chamadas de ferramentas, sem descarregar entre passos. Ambos os modelos suportam integrações de codificação com Claude Code e OpenCode. De acordo com o inquérito aos programadores da DeepSeek com 85 utilizadores, 52% disseram que o V4-Pro estava pronto como o seu agente de codificação por defeito, e 39% inclinavam-se para a adopção. Os endpoints antigos deepseek-chat e deepseek-reasoner serão descontinuados a 24 de julho de 2026.
Related Articles
O laboratório finlandês de IA QuTwo conclui a $29M ronda de Seed em $380M avaliação; a empresa anterior do fundador, Silo AI, foi vendida à AMD por 665 milhões de dólares
DeepSeek avaliada em $45B enquanto o Fundo Estatal de Semicondutores da China procura um investimento de referência
Pesquisa da Microsoft: apenas 13% dos colaboradores dizem ter falhado iniciativas de inovação no local de trabalho impulsionadas por IA devido a incentivos às empresas
A Meta está a desenvolver um assistente de IA chamado Hatch, em concorrência com a OpenClaw, com conclusão do teste interno até ao final de junho
A audiência do tribunal da OpenAI: Brockman depõe: Musk já disse que não ia fazer segurança e que as participações seriam de risco e com violência