A Alphabet Inc.'s Google, supostamente, está em conversas com a Marvell Technology para desenvolver dois novos chips projetados para melhorar a forma como modelos de inteligência artificial são executados.
Resumo
De acordo com uma reportagem do The Information, citando pessoas familiarizadas com o assunto, um dos chips propostos poderia ser uma unidade de processamento de memória construída para funcionar em conjunto com as unidades de processamento tensorial do Google, ou TPUs. O segundo chip é esperado como um novo TPU, adaptado especificamente para executar cargas de trabalho de IA com mais eficiência.
A medida faz parte do esforço do Google para posicionar seus chips desenvolvidos internamente como uma alternativa às GPUs da Nvidia. A adoção de TPU tem contribuído para o crescimento da receita do Google Cloud, à medida que a empresa busca mostrar retornos com seus gastos em infraestrutura de IA.
A reportagem acrescentou que o Google planeja concluir o design do chip voltado à memória até o próximo ano antes de avançar para testes de produção. Ao mesmo tempo, ele expandiu parcerias com fabricantes de chips como a Intel e a Broadcom para apoiar a crescente demanda por infraestrutura de IA.
À medida que o Google intensifica o desenvolvimento de seus aceleradores de IA, ele pode começar a desafiar a liderança de longa data da Nvidia em computação de alto desempenho.
A NVIDIA, por exemplo, está avançando sua própria linha de chips de inferência de IA, incluindo designs que incorporam tecnologia da Groq. A entrada de mais um grande concorrente pode intensificar a corrida em hardware de IA e remodelar a forma como as empresas obtêm poder computacional para modelos.
Os investidores provavelmente vão buscar mais clareza quando o Google divulgar seus resultados do primeiro trimestre em 29 de abril. O comunicado de resultados deve trazer sinais sobre desempenho na nuvem, tendências em publicidade e o quanto a empresa pretende investir em IA e semicondutores nos próximos trimestres.
As discussões mais recentes do chip do Google chegam enquanto ele continua expandindo suas capacidades de modelo de IA. No início deste mês, a empresa apresentou o Gemma 4, uma nova família de modelos abertos construída para raciocínio avançado e fluxos de trabalho no estilo de agentes.
O Gemma 4 está disponível em quatro tamanhos e foi projetado para lidar com lógica de múltiplos passos e resolução estruturada de problemas com mais eficiência. Ele também entregou resultados aprimorados em benchmarks ligados a matemática e tarefas de seguir instruções.
Os modelos incluem recursos como chamada nativa de funções, saídas JSON estruturadas e instruções em nível de sistema, permitindo que desenvolvedores criem sistemas autônomos que possam se conectar a APIs e ferramentas externas. Eles também conseguem gerar código offline, transformando máquinas locais em assistentes de codificação por IA capazes.
Juntos, as atualizações do modelo e os planos de desenvolvimento de chips mostram como o Google está alinhando seu software e sua pilha de hardware enquanto a concorrência no setor de IA continua a se intensificar.
Related News
A Amazon aumenta o valor para a Anthropic em 25 bilhões de dólares: 5 GW de capacidade computacional, vinculamento de 100 bilhões de dólares da AWS
A Marvell e a Google colaboram no desenvolvimento de um chip de IA MPU, e as ações disparam 6,3% ao ouvir a notícia
Realidade dos Agentes de IA do Vale do Silício: desperdício massivo de tokens, integração de sistemas “extremamente caótica”; a previsão de Huang Renxun sobre o “próximo ChatGPT” ainda precisa ser verificada
A Tesla está contratando em massa para o Terafab! Focando em talentos de 2 nm e de avançado empacotamento na Taiwan
Google discute sistema de IA classificada com o Departamento de Defesa dos EUA