A NVIDIA e a MediaTek unem-se para criar em conjunto o futuro de um assistente nativo de IA para automóveis

A NVIDIA (NVIDIA) e a MediaTek (MediaTek) iniciaram uma colaboração aprofundada, com as duas gigantes a construírem em conjunto uma arquitectura central de computação mais eficiente. A plataforma de computação NVIDIA DRIVE AGX transforma a inteligência artificial de um simples recetor de instruções num agente de IA com capacidade de raciocínio, integrando os chips de cabina Dimensity AX da MediaTek. Ao aliar a computação de ponta (edge) e recursos em nuvem, os veículos conseguem proporcionar uma experiência de agentes de IA personalizada, com baixa latência e elevada privacidade.

Arquitetura híbrida para agentes de IA em automóveis responde a requisitos de computação complexos

Os agentes de IA para veículos adotam uma arquitetura híbrida (Hybrid Architecture) para lidar com necessidades de tarefas diversas. Na ponta (edge), a plataforma NVIDIA DRIVE AGX executa as operações, tratando especificamente de tarefas locais que são extremamente sensíveis à latência (tempo de resposta inferior a 500 milissegundos) e que envolvem privacidade, como controlo por voz, reconhecimento de imagens e análise de dados telemétricos do veículo. Mesmo em condições de receção de rede instável ou interrupção, o sistema local continua capaz de correr modelos de linguagem de grande dimensão e modelos de linguagem-visual (VLM) com parâmetros acima de 7B, garantindo que a função base permanece ativa. Em contrapartida, o ambiente em nuvem assume o papel de “fábrica de IA”, responsável por executar tarefas de elevada carga computacional, como pesquisa na web e planeamento de itinerários complexos, mantendo continuamente o treino, afinação (fine-tuning) e validação de modelos. Posteriormente, os resultados otimizados são reimplementados no veículo, permitindo alcançar um equilíbrio dinâmico de desempenho.

Como é que a orquestração de agentes optimiza a experiência do utilizador?

Para assegurar que o utilizador obtém uma experiência sem falhas entre a transição da ponta (edge) e da nuvem, o sistema incorpora um mecanismo de orquestração de agentes (Agent Orchestration). Quando o condutor apresenta requisitos complexos, o sistema identifica automaticamente a intenção com base no contexto atual e encaminha as tarefas para os agentes locais ou em nuvem corretos para colaboração. Por exemplo, ao discutir itinerários, o sistema mobiliza em conjunto agentes de navegação locais e agentes de pesquisa em nuvem. O ponto-chave é a tecnologia de partilha de contexto (Context Sharing): o sistema sincroniza entre plataformas as informações de fundo relevantes, evitando que o utilizador tenha de repetir comandos e garantindo que os dados da nuvem são devolvidos corretamente ao sistema local. Esta lógica de interação transparente (UX Transparency) consegue acompanhar o estado de tarefas assíncronas, assegurando que o sistema mantém um serviço estável e coerente mesmo quando a rede muda ou é interrompida, reduzindo as interferências para o condutor.

Qual é o ganho de desempenho da pilha de software para implementação multi-plataforma?

A NVIDIA, através da NeMo e do TensorRT, fornece uma arquitetura de software unificada, encurtando eficazmente a distância técnica entre o desenvolvimento e a implementação real. Os programadores podem utilizar o TensorRT-LLM no ambiente de nuvem para fazer inferência em grande escala, com migração sem falhas para a implementação do modelo na ponta do veículo, no TensorRT Edge-LLM. Esta cadeia de ferramentas consistente não só assegura o desempenho e a fiabilidade do modelo em diferentes ambientes, como também cria um “ciclo de feedback híbrido entre edge e nuvem”. Ao acumular dados reais de utilização do veículo, o assistente consegue continuar a iterar e evoluir, tornando a sua capacidade de compreensão e a sua capacidade de resposta cada vez mais precisas. Para os fabricantes automóveis, isto permite atualizar com mais flexibilidade as funcionalidades do veículo, conferindo ao automóvel a capacidade de se auto-otimizar ao longo do tempo de utilização, alargando significativamente o ciclo de vida tecnológico dos sistemas embarcados.

NVIDIA em parceria com a MediaTek para concretizar o futuro carro nativo em IA

A arquitetura central de computador da colaboração entre a NVIDIA e a MediaTek combina os chips (SoC) da plataforma de cabina MediaTek Dimensity AX com a plataforma NVIDIA DRIVE AGX, usando Orin ou Thor. Nesta arquitetura, o Dimensity AX assume a carga de trabalho de jogos avançados no habitáculo, multimédia e sistemas tradicionais de entretenimento de informação (IVI); já o NVIDIA DRIVE AGX dedica-se a processar computação de inteligência artificial, suportando aplicações multimodais e funcionalidades de condução autónoma.

A arquitetura de chips da colaboração entre a NVIDIA e a MediaTek assenta principalmente na combinação do sistema em chip (SoC) do ecossistema de cabina MediaTek Dimensity AX com a plataforma NVIDIA DRIVE AGX, criando uma arquitetura de computador central (Central Car Computer).

A seguir, os detalhes-chave desta arquitetura de colaboração:

Os componentes principais utilizam o SoC de cabina MediaTek Dimensity AX C-X1 (ou série C) em pareamento com a DRIVE AGX da NVIDIA (como Orin ou Thor).

O MediaTek Dimensity AX fica responsável por processar cargas de trabalho de jogos avançados no habitáculo, multimédia e sistemas tradicionais de entretenimento de informação (IVI).

A NVIDIA DRIVE AGX descarrega as cargas de trabalho de IA, suporta múltiplos modelos de IA e viabiliza aplicações multimodais ricas e condução autónoma.

A plataforma Dimensity da MediaTek e a DRIVE AGX da NVIDIA partilham o ambiente de software DriveOS.

As duas componentes ligam-se via PCIE, utilizando a API DriveOS NvStreams para partilhar de forma sem falhas dados de alta largura de banda como vídeo e áudio 2.

A parceria entre a NVIDIA e a MediaTek dá aos fabricantes automóveis opções altamente escaláveis: os construtores podem manter a experiência de cabina existente enquanto evoluem para futuros modelos “nativos em IA”.

Este artigo “A NVIDIA e a MediaTek, duas gigantes em conjunto, criam o futuro carro com assistente nativo em IA” apareceu pela primeira vez em Cadeia de Notícias ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A subida das Bolsas na Coreia do Sul supera os mercados globais com o boom da IA

O mercado de ações da Coreia do Sul está a registar ganhos sem precedentes impulsionados por ações de semicondutores relacionadas com inteligência artificial, com o índice KOSPI em alta 78% este ano, superando todos os outros mercados importantes a nível mundial, segundo dados da Financial Modeling Prep citados numa análise da Axios. AI

CryptoFrontier4m atrás

A DeepL corta 25% da sua força de trabalho (cerca de 250 funcionários) para reestruturar o negócio de IA

De acordo com a Bloomberg, a empresa de ferramentas de tradução DeepL anunciou hoje, 7 de maio, que vai despedir cerca de 25% da sua força de trabalho, aproximadamente 250 funcionários, para se adaptar a mudanças estruturais impulsionadas pela inteligência artificial. O CEO Jarek Kutylowski disse no LinkedIn que a empresa vai reduzir a gestão

GateNews34m atrás

A NVIDIA lançou o Nemotron 3 Nano Omni, uma solução de multimodalidade de código aberto

A NVIDIA divulga o Nemotron 3 Nano Omni, um modelo multimodal aberto, integrando visão, voz e linguagem num único modelo, como camada de perceção para agentes de IA. O núcleo é um MoE 30B-A3B, com context 256K e capacidade de processamento 9x, suportando entradas como texto, imagens, áudio e vídeos, com saídas em texto. Em colaboração com os Nemotron 3 Super/Ultra, é aplicável a cenários como operação de computadores, inteligência documental e compreensão de áudio e vídeo, e também disponibiliza pesos e dados de treino, com uma implementação que abrange o local, NIM e plataformas de terceiros.

ChainNewsAbmedia1h atrás

O Cursor revela um método de treino de autoinstalação e melhora o desempenho do Composer 2 em 14 pontos percentuais

De acordo com a divulgação recente da Cursor, a empresa revelou uma técnica de treino chamada autoinstall para a sua série de modelos Composer: usar um modelo da geração anterior para configurar automaticamente ambientes executáveis para o treino de aprendizagem por reforço da geração seguinte. Ao treinar o Composer 2, a Cursor

GateNews1h atrás

A OpenAI DevDay 2026 terá lugar a 29/9, em São Francisco

OpenAI anuncia que o DevDay 2026 se realizará em formato presencial em 29/9 em São Francisco, com um concurso de submissões criadas com GPT-5.5 e Image Gen. O Codex seleciona automaticamente 2–3 trabalhos por semana, e os vencedores poderão receber bilhetes gratuitos e passagens aéreas e estadias de hotel entre cidades. O evento centra-se na avaliação do ecossistema do GPT-5.5 e na colaboração entre humanos e máquinas; para participar é necessário ter mais de 18 anos e não ser parente direto de funcionários da OpenAI. Os pontos de observação incluem o novo modelo, a integração de agentes e estratégias multi-nuvem.

ChainNewsAbmedia1h atrás

Nvidia investe na Legora, uma nova startup sueca de legal tech em IA, com Jude Law como embaixador global da marca

A Nvidia faz um investimento de expansão na Legora na Série D no valor de 50 milhões de dólares, elevando a angariação total da Legora para 600 milhões de dólares e a avaliação para 5,6 mil milhões de dólares. A Atlassian, Adams Street Partners e Insight Partners participam. A Legora concentra-se em tecnologia jurídica de IA, disponibilizando ferramentas como revisão automatizada, análise de contratos e pesquisa jurídica. O ARR ultrapassa 100 milhões de dólares, e o número de colaboradores aumenta de 40 para 400. Jude Law torna-se embaixador global da marca, com o slogan publicitário “Law just got more attractive.”

ChainNewsAbmedia1h atrás
Comentar
0/400
Nenhum comentário