Mac Studio executa testes de modelos em grande escala: M3 Ultra, soluções de cluster e expectativas para o M5 Ultra

Em abril de 2026, modelos de nível “trilião de parâmetros”, como o DeepSeek V4 Pro, o Kimi K2.6, entre outros, foram lançados um após o outro, tornando “correr um LLM de código aberto de ponta na própria máquina” uma opção viável. Para engenheiros e equipas pequenas que não querem montar uma estação de trabalho H100 por conta própria, mas querem ter capacidade completa de inferência local, o** Mac Studio M3 Ultra 256GB** é, neste momento, a solução de máquina única com melhor custo-benefício, e, em conjunto com clusters via Thunderbolt 5, dá para explorar cenários de até 1T de parâmetros. Este artigo reúne dados de testes reais do M3 Ultra a correr modelos de grande dimensão, soluções de cluster, as vantagens da framework MLX e o calendário esperado do M5 Ultra.

Estado das especificações do M3 Ultra: memória unificada de 256GB, largura de banda de 819 GB/s

Até abril de 2026, o SKU topo de gama do Mac Studio continua a ser o M3 Ultra, com um limite de configuração de CPU com 32 núcleos, GPU com 80 núcleos, memória unificada de 256GB e largura de banda de memória de 819 GB/s. A Apple saltou a geração M4 Ultra — não existem Mac Studio com M4 Ultra no mercado — e este é um mal-entendido comum. O M5 Ultra deverá ser apresentado na WWDC de 2026 (8–12 de junho), mas, segundo a reportagem de 4/19 da Bloomberg Mark Gurman, devido a estrangulamentos na cadeia de fornecimento, poderá ser adiado para outubro.

Para inferência de LLM, “memória unificada” é a maior vantagem diferenciadora do Mac Studio. A GPU e a CPU partilham o mesmo DRAM; os pesos do modelo não precisam de ser transportados para trás e para a frente via PCIe. Em comparação com a arquitetura de duas camadas da NVIDIA H100 (80GB HBM3 + DDR5 na motherboard), a pool unificada de 256GB do Mac Studio consegue alojar um modelo quantizado completo de 405B Q4, eliminando a complexidade de coordenação de múltiplos cartões.

Llama 3.1 405B: quantização Q4 em 256GB consegue correr num único equipamento

O Meta Llama 3.1 405B, após quantização em 4-bit, fica com cerca de 235GB, cabendo exatamente no orçamento de memória de 256GB do Mac Studio M3 Ultra, permitindo** carregar totalmente** e executar inferência em máquina única. A velocidade real de geração de tokens ficou na faixa de 5–10 tokens por segundo (varia conforme o comprimento do prompt e o tamanho do batch); embora esteja muito longe das centenas tok/s de um cluster com H100, para cenários de “investigação offline” e “uso individual” já é suficiente.

Em comparação com requisitos: se quiser fazer um serviço de produção e precisar de throughput concorrente (por exemplo, servir simultaneamente 10+ utilizadores), o Mac Studio não é adequado; ainda é necessário recorrer a uma solução na cloud com H100/H200.

DeepSeek V3 671B: não corre numa máquina única, é obrigatório passar para cluster

O DeepSeek V3 (671B de parâmetros totais, 37B ativos) quantizado fica com cerca de 350–400GB, ultrapassando o limite de 256GB de um único Mac Studio. Uma solução possível é um “cluster de 8 unidades de M4 Pro Mac Mini” — em testes da comunidade, com ligação via Thunderbolt 5, atingiu 5.37 tok/s. Embora a velocidade seja baixa, prova que clusters baseados em Apple Silicon conseguem suportar modelos de nível 600B+.

Para o DeepSeek V4 Pro (1.6T de parâmetros totais, 49B ativos), após quantização ainda fica acima do total de memória de clusters Mac Studio mainstream; é necessária uma infraestrutura local de maior escala ou regressar à inferência em cloud via Ollama Cloud/à API própria do DeepSeek.

Kimi K2 Thinking 1T de parâmetros: cluster de 40 mil dólares consegue 25 tok/s

O experimento de cluster de Mac Studio mais representativo de 2026 é o Kimi K2 Thinking (1T de parâmetros totais): 4 unidades de Mac Studio M3 Ultra topo de gama (256GB em cada unidade), interligadas com Thunderbolt 5, com recurso ao protocolo RDMA over Thunderbolt. O investimento total ronda 40 mil dólares (aprox. NT$130 mil), e, nesta configuração, foram obtidos 25 tokens/s de inferência de pedido único.

O significado deste número: o “cluster Mac Studio topo de gama” de 40 mil dólares, comparado com uma única NVIDIA H100 (aprox. 30 mil dólares, 80GB HBM3), consegue executar inferência completa de 1T de parâmetros, enquanto a H100 não consegue; mas o cluster de H100 (4 placas = 120 mil dólares) tem um throughput muito superior ao do cluster Mac Studio.** Lógica de escolha: pedido individual em nível de pesquisa → Mac Studio; produção com múltiplas pessoas e múltiplos pedidos concorrentes → H100.**

Framework MLX: < 14B de modelos é 20-87% mais rápido do que llama.cpp

A framework MLX (Machine Learning eXchange) da Apple, desenhada pela própria, é optimizada para memória unificada em Apple Silicon e para Neural Accelerators embutidos por GPU por núcleo. Testes da comunidade mostram que, em modelos com menos de 14B de parâmetros, o MLX é 20–87% mais rápido do que llama.cpp. Para modelos comuns de “assistente pessoal” como Llama 3 8B, Phi-4 e Qwen 2.5 7B, o MLX é a escolha predefinida.

Para modelos maiores (30B+), a vantagem do MLX diminui relativamente; Ollama e llama.cpp continuam a ter casos de uso próprios (ecossistema completo, comunidade ativa). Recomendação prática: modelos pequenos com MLX, modelos grandes com Ollama/llama.cpp, modelos extra-grandes com clusters ou cloud.

Previsão do M5 Ultra: largura de banda de 1,100 GB/s, apresentação em junho ou em outubro

As mais recentes fugas de abril de 2026 indicam que as especificações do M5 Ultra são: CPU com 32–36 núcleos, GPU com 80 núcleos, memória unificada de 256GB (igual), e cerca de 1,100 GB/s de largura de banda de memória (aumento de 34%). Para inferência de LLM, a largura de banda de memória é o gargalo-chave para definir tok/s — prevê-se que o M5 Ultra aumente a velocidade de inferência em máquina única de 405B Q4 em mais de 30%, mantendo a mesma capacidade de 256GB.

Observações de calendário:

WWDC 2026 (8–12 de junho): o cenário mais optimista para lançamento inicial

Outubro: o momento “plano B de atraso na cadeia de fornecimento” citado por Bloomberg Mark Gurman em 4/19

Neste momento, a disponibilidade do modelo Mac Studio M3 Ultra 256GB está apertada: prazo de entrega de 10–12 semanas, algumas configurações em rutura

Para compradores que pretendem adquirir entre maio e junho: recomenda-se esperar pela confirmação do M5 Ultra; a taxa de preservação de valor no mercado de usados do atual M3 Ultra 256GB deverá ser muito afetada pelo lançamento de novos modelos.

Comprar Mac Studio vs montar uma estação de trabalho GPU: decisões em duas vias

Com o mesmo orçamento (NT$30-130 mil), o balanço entre as duas vias é:

Para montar uma estação de trabalho GPU com Mac Studio M3 Ultra 256GB (RTX 5090×2 ou H100×1), preço de entrada ~ NT$30 mil; RTX 5090×2 ~ NT$25 mil; H100 ~ NT$80 mil+ com o modelo máximo a correr 405B Q4 (em máquina única) RTX 5090×2: 70B-120B Q4; H100: 405B Q8 velocidade de inferência (70B Q4) 15-25 tok/s RTX 5090×2: 30-60 tok/s consumo de energia (inferência típica) ~ 200W 800-1200W ruído quase silencioso ruído de ventoinhas tipo servidor

Melhores cenários de uso: investigadores, programadores individuais, utilização offline prolongada; pequenas equipas produção, necessidade de fine-tuning

Conclusão: **Mac Studio para uso individual a uma pessoa, estação de trabalho GPU para equipas com várias pessoas**。 A vantagem do Mac Studio está em conseguir alojar modelos grandes com memória unificada, ser silencioso e consumir pouca energia; a vantagem da estação de trabalho GPU está no ecossistema CUDA nativo, em throughput para múltiplas pessoas e pedidos concorrentes, e em poder fazer treino/afinação. Para a maioria dos leitores da abmedia (programadores individuais, investigadores, entusiastas de IA), o Mac Studio M3 Ultra 256GB continua a ser a melhor configuração de arranque no 2.º trimestre de 2026 — a menos que estejas disposto a esperar pelo M5 Ultra.

Este artigo com testes reais do Mac Studio a correr modelos de grande dimensão: M3 Ultra, soluções de cluster e previsão do M5 Ultra aparece, pela primeira vez, em Cadeia News ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário