Mensagem do Gate News, 24 de abril — DeepSeek V4-Pro e DeepSeek V4-Flash foram oficialmente lançados e tiveram seu código aberto em 24 de abril, com o comprimento de processamento de contexto sendo expandido significativamente de 128K para 1M, representando um aumento de capacidade de quase 10 vezes. A Huawei Computing anunciou que seus produtos de supernó Ascend suportam totalmente os modelos da série DeepSeek V4 por meio de estreita colaboração entre tecnologias de chip e de modelo.
O Ascend 950 da Huawei atinge implantação de inferência do modelo DeepSeek V4 com alta taxa de transferência e baixa latência por meio de técnicas de kernel fundido e paralelismo de múltiplos streams para reduzir a sobrecarga de computação de Attention e de acesso à memória. Para o DeepSeek V4-Pro com entrada de 8K, o Ascend 950 atinge aproximadamente 20ms de TPOT com 4.700 TPS de throughput de Decode de cartão único; para o DeepSeek V4-Flash com entrada abaixo de 8K, ele alcança aproximadamente 10ms de TPOT com throughput de 1.600 TPS. A série de supernós Ascend A3 também alcança compatibilidade total, com implementações de referência de treinamento fornecidas para ajuste fino rápido. Com base no supernó Ascend A3 de 64 cartões com modo EP grande, o DeepSeek V4-Flash atinge mais de 2.000 TPS de throughput de Decode de cartão único em cenários de entrada/saída de 8K/1K usando o mecanismo de inferência vLLM. As linhas completas de produtos Ascend A2, A3 e 950 da Huawei suportam tanto o DeepSeek V4-Flash quanto o V4-Pro.
A Huawei Cloud anunciou compatibilidade de primeira-mover com o DeepSeek V4, fornecendo aos desenvolvedores serviços de token de API com um clique por meio de sua plataforma MaaS. A Huawei Cloud otimizou as capacidades de camada do sistema, camada de operadores e camada de cluster para garantir adaptação rápida do modelo e implantação com alto desempenho. Empresas incluindo Kingsoft WPS e 360 já integraram o novo modelo da DeepSeek via a Huawei Cloud.
A Cambricon também anunciou compatibilidade Day 0 com o DeepSeek V4-Flash e V4-Pro com base na estrutura de inferência vLLM, com código de adaptação em código aberto para a comunidade do GitHub. A Cambricon anteriormente alcançou adaptação de primeira-mover quando o DeepSeek V3.2 foi lançado no ano passado, tendo realizado profunda otimização de desempenho colaborativa software-hardware nos modelos da série DeepSeek.
Related Articles
xAI faz parceria com a Anthropic para oferecer acesso a computação Colossus
A OpenAI divulga o protocolo de rede do supercomputador MRC! Em parceria com a Nvidia, AMD e a Microsoft para criar a infraestrutura do Stargate
Plataforma de recrutamento com IA, Ethos, conclui captação de US$ 22,75 milhões em Série A liderada pela a16z em 6 de maio
A OpenAI Lança Protocolo de Rede MRC com AMD, Intel e NVIDIA; Suporta 100.000+ GPUs
As ações da Hut 8 disparam 34% em acordo de locação de data center de IA de US$ 9,8 bilhões
CleanSpark CTO: A infraestrutura de IA/HPC exige mais recursos de rede do que a mineração de Bitcoin