Mensagem de Gate News, 24 de abril — A DeepSeek lançou a série V4 de modelos de código aberto sob a Licença MIT, com pesos agora disponíveis no Hugging Face e no ModelScope. A série inclui dois modelos (MoE) de especialistas em mistura: V4-Pro com 1,6 trilhão de parâmetros totais e 49 bilhões ativados por token, e V4-Flash com 284 bilhões de parâmetros totais e 13 bilhões ativados por token. Ambos suportam uma janela de contexto de 1 milhão de tokens.
A arquitetura traz três melhorias principais: um mecanismo de atenção híbrido que combina atenção esparsa comprimida (CSA) e atenção fortemente comprimida (HCA), reduzindo significativamente a sobrecarga de contextos longos — os FLOPs de inferência do V4-Pro para contexto de 1M são apenas 27% dos do V3.2, e o cache de KV (VRAM para armazenar informações históricas durante a inferência) é apenas 10% do do V3.2; hipervínculos com restrição de manifold (mHC) substituindo conexões residuais tradicionais para aprimorar a estabilidade da propagação de sinais entre camadas; e o otimizador Muon para acelerar a convergência do treinamento. O pré-treinamento usou mais de 32 trilhões de tokens de dados.
O pós-treinamento emprega uma abordagem em duas etapas: primeiro, treinar especialistas específicos de domínio via fine-tuning supervisionado (SFT) e aprendizado por reforço com GRPO, depois fundi-los em um único modelo por meio de distilação online. O V4-Pro-Max (highest inference mode) afirma ser o modelo de código aberto mais forte, com benchmarks de codificação de ponta e lacunas significativamente reduzidas em relação a modelos de fronteira de código fechado em tarefas de raciocínio e de agentes. O V4-Flash-Max atinge desempenho de raciocínio no nível do Pro com orçamento de computação suficiente, mas é limitado pela escala de parâmetros em tarefas puramente de conhecimento e tarefas de agentes complexas. Os pesos são armazenados em precisão mista FP4+FP8.
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o
Aviso Legal.
Related Articles
A Amazon e a OpenAI ampliam a parceria: modelos entram no Bedrock, e o acordo exclusivo com a Microsoft chega ao fim
A OpenAI anunciou em 3 de maio uma expansão da parceria com os serviços de computação em nuvem da Amazon (AWS), com modelos da OpenAI e agentes de codificação do Codex passando a ser oferecidos aos clientes da AWS via Amazon Bedrock. De acordo com a CNBC, esta expansão é o passo decisivo após o fim, no fim de abril, do contrato de exclusividade em nuvem entre a OpenAI e a Microsoft — uma mudança da OpenAI de “único na nuvem da Microsoft” para uma implantação em múltiplas nuvens. A AWS, no mesmo período, já concluiu a integração inicial dos produtos da OpenAI na plataforma Bedrock.
Contexto: fim do contrato exclusivo OpenAI–Microsoft, com licenças de IP estendidas até 2032
No fim de abril, a OpenAI e a Microsoft fecharam um novo acordo: a estrutura original de “acesso exclusivo da Microsoft aos produtos e ao IP da OpenAI” foi encerrada, Op
ChainNewsAbmedia2h atrás
Pesquisadores Implantam a Tecnologia DPN-LE para Editar Traços de Personalidade de IA, Alterando Apenas 0,5% dos Neurônios
De acordo com a BlockBeats, em 3 de maio, o pesquisador de IA Brian Roemmele divulgou que sua empresa Zero-Human implantou a tecnologia DPN-LE (Dual Personality Neuron Localization and Editing) para ajustar com precisão
GateNews2h atrás
Claude verifica o relógio a cada 15 minutos após ganhar acesso à ferramenta de horário
De acordo com o desenvolvedor Om Patel, a IA Claude começou a verificar o relógio com frequência após ganhar acesso a uma ferramenta de tempo em 3 de maio, com o modelo verificando a cada 15 minutos. A observação destaca que modelos de linguagem grandes antes não tinham percepção de tempo nativa e não sabiam de qual era a hora atual ou
GateNews4h atrás
A Founders Fund encerra seu fundo flagship de US$ 6 bilhões, o maior desde a criação, em 3 de maio
De acordo com a Bloomberg, a Founders Fund concluiu uma rodada de captação para seu mais recente fundo âncora em US$ 6 bilhões em 3 de maio, superando de forma significativa seu fundo anterior de aproximadamente US$ 3,4 bilhões. O fundo, cofundado pelo bilionário Peter Thiel, vai se concentrar em setores de alto crescimento, incluindo inteligência
GateNews4h atrás
Última pesquisa POLITICO: 45% dos americanos dizem que investir em cripto é arriscado demais, e 44% se preocupam com a IA avançando rápido demais
De acordo com uma pesquisa da POLITICO, apesar de as indústrias de IA e de cripto injetarem financiamento político significativo nas eleições intermediárias dos EUA de 2026, o público americano continua em grande parte cético em relação aos dois setores. A pesquisa apontou que 45% dos americanos acreditam que investir em criptomoedas não vale a pena
GateNews5h atrás
OpenAI challenger Fleiwer defende IPO em 2027, enquanto Altman apoia uma listagem no 4T de 2026
A CFO da OpenAI, Sarah Friar, está cautelosa quanto ao cronograma de um IPO em 2026, afirmando que os contratos de computação e data centers, próximos de US$ 1 trilhão, superam em muito as receitas anuais atuais de US$ 25 bilhões; se o crescimento não conseguir cobrir os compromissos, o risco será desvalorizado pelo mercado. A divergência em relação ao posicionamento público do CEO Sam Altman a favor de um lançamento no 4º trimestre de 2026 fica evidente. Friar tende a adiar para 2027 para construir disciplina financeira; a empresa já divulgou várias declarações negando divergências internas.
ChainNewsAbmedia7h atrás