Fundada em conjunto pela antiga cúpula da OpenAI Mira Murati e por John Schulman, cofundador da OpenAI, a nova empresa de IA Thinking Machines, avaliada em cem mil milhões de dólares, lançou na terça-feira uma pré-visualização do seu primeiro modelo de IA “falar e ouvir” em simultâneo, em modo full duplex, com uma latência de apenas 0,4 segundos, desafiando os actuais modelos de interacção em tempo real homem-máquina.
(Investimento da Nvidia na Thinking Machines Lab com o Vera Rubin para melhorar o desempenho de modelos de ponta)
Modelo da Thinking Machines: romper com o velho padrão de “turnos”
Em todos os modelos de IA dominantes actuais, o funcionamento é sempre “o utilizador introduz, o modelo espera e, depois, responde”. Mira Murati, antiga directora técnica da OpenAI, e John Schulman, cofundador da OpenAI, acreditam que o processo de respostas alternadas se assemelha a troca de mensagens e não a uma conversa verdadeira. Agora, a Thinking Machines Lab, que os dois fundaram em conjunto, anunciou formalmente a 11 de Maio uma nova pré-visualização de investigação dos chamados “Interaction Models” (modelos de interacção), tentando mudar de raiz este estado de coisas.
People talk, listen, watch, think, and collaborate at the same time, in real time. We’ve designed an AI that works with people the same way.
We share our approach, early results, and a quick look at our model in action. pic.twitter.com/uxl1InS6Ay
— Thinking Machines (@thinkymachines) May 11, 2026
A Thinking Machines salienta que, nos modelos actuais, a percepção do mundo acontece num único fio de execução: quando o utilizador ainda não terminou de falar, o modelo só pode esperar; quando o modelo ainda não gerou tudo, a percepção congela. Esta concepção torna-se um gargalo na colaboração homem-máquina, impedindo uma interacção tão natural e fluida com a IA como a que se tem com humanos.
Os dois acreditam que a solução não passa por remendar uma arquitectura antiga com componentes externos, mas sim por treinar de raiz um modelo nativo que suporte interacção em tempo real.
Arquitectura full duplex: uma IA capaz de “fazer duas coisas ao mesmo tempo”
O modelo lançado pela Thinking Machines chama-se TML-Interaction-Small: trata-se de um modelo com arquitectura de mistura de especialistas (MoE) com 276 mil milhões de parâmetros, mas com funcionamento prático activando 12 mil milhões de parâmetros. O sistema processa de forma contínua e alternada a entrada e a geração de saídas em unidades de 200 milissegundos, sem definir limites artificiais de “turno”, alcançando verdadeiramente a interacção full duplex — como numa chamada telefónica, e não como troca de mensagens.
O sistema usa um desenho com dois modelos: o “modelo de interacção” é responsável por conversa imediata, tomar a palavra e responder; o “modelo de fundo” trata de forma assíncrona, em segundo plano, raciocínios complexos, pesquisas na rede e chamadas de ferramentas, e depois integra os resultados de forma contínua na conversa em curso. Assim, a IA consegue, enquanto fala ou escuta, também cumprir discretamente tarefas atribuídas de pesquisa ou geração de gráficos.
Testes de referência: superar de forma abrangente a OpenAI e a Google
O anúncio indica que, no benchmark FD-bench, que mede a qualidade da interacção de IA, a latência de troca de turno do TML-Interaction-Small é de 0,40 segundos, aproximando-se da velocidade de reacção de uma conversa natural humana, superando claramente os 0,57 segundos do Google Gemini-3.1-flash-live e os 1,18 segundos do GPT-realtime-2.0.
深色代表每列表現最佳者,淺色代表即時模型中表現最佳者
Com a chegada dos seus próprios testes desenhados especificamente para esta nova capacidade de interacção, na tarefa “TimeSpeak” a taxa de correcção do TML-Interaction-Small atinge 64,7%, enquanto a do GPT-realtime-2.0 é apenas 4,3%; na tarefa “CueSpeak” (gatilho por voz), o primeiro vai para 81,7% e o segundo fica nos 2,9%; na tarefa “RepCount-A” (contagem visual), o primeiro chega a 35,4%, enquanto o segundo fica quase nulo (1,3%).
A Thinking Machines aponta que nenhum modelo comercial existente consegue, de forma significativa, cumprir estas tarefas, incluindo os modelos avançados de pensamento (thinking) da OpenAI e da Google.
Potencial para aplicações empresariais: da assistência ao cliente à vigilância de segurança
Além de uma experiência de conversa do dia-a-dia mais natural, o potencial desta tecnologia em cenários empresariais também merece destaque.
Por exemplo, na indústria transformadora ou em laboratórios, uma IA capaz de monitorizar imagens em tempo real pode emitir um alerta proactivamente no instante em que detecta uma violação de segurança, sem esperar que os trabalhadores abram a boca para perguntar. No domínio do atendimento ao cliente por voz, os sistemas actuais têm, em geral, uma latência de processamento de 1 a 2 segundos, que é muitas vezes o problema mais directo para o utilizador — e uma velocidade de resposta de 0,4 segundos tem o potencial de resolver esse problema de raiz.
Neste momento, o TML-Interaction-Small e o seu modelo de fundo associado estão apenas disponíveis para um número limitado de parceiros, para investigação em pré-visualização; a versão pública está prevista para ser lançada mais tarde este ano. A Thinking Machines anunciou também que vai iniciar um programa de bolsas de investigação, incentivando a comunidade académica a desenvolver mais novos enquadramentos para avaliar a qualidade de interacção.
Da mobilidade de talento para um crescimento estável: o próximo passo da Thinking Machines Lab
A Thinking Machines Lab, criada em 2025, chamou recentemente a atenção do público no início deste ano, depois de vários membros fundadores terem saído para a Meta e de a empresa ter recrutado Soumith Chintala, fundador da PyTorch e engenheiro sénior da Meta, para assumir o cargo de director técnico; neste momento, a dimensão da equipa já cresceu para cerca de 130 pessoas.
(Quem é Andrew Tulloch, o alvo da abordagem da Meta que vinha de uma derrota: recusou a oferta de 1,5 mil milhões de dólares da Meta para um compromisso de 6 anos?)
Em Março deste ano, a empresa também anunciou uma parceria com a Nvidia para implementar pelo menos 1 gigawatt de um novo sistema Vera Rubin e expandir a cooperação com a Google Cloud para avançar com investigação de treino de modelos de ponta e reforço de aprendizagem.
Este artigo, sobre a Thinking Machines, startup avaliada em cem mil milhões, a publicar um modelo de IA com interacção em tempo real e focado em “dizer, ouvir e executar”, apareceu pela primeira vez no site 链新闻 ABMedia.
Related News
Google: grandes modelos de linguagem estão a ser usados para ataques reais, a IA pode contornar mecanismos de segurança de autenticação em duas etapas
Cerebras IPO impulsiona cadeia de fornecimento em benefício: a narrativa de alimentação da Vicor e o tema de licenciamento de IP de alimentação para IA
Anúncio oficial da OpenAI: a DeployCo foi formalmente constituída, com uma primeira injecção de mais de 4 mil milhões de dólares
A OpenAI segue um modelo de consultoria à Palantir? Investe 4 mil milhões para criar uma empresa independente, enviando a FDE para uma integração profunda dos fluxos de trabalho de IA nas empresas
A OpenAI anuncia um investimento de 4 mil milhões de dólares na empresa de implementação: adquire a Tomoro