Responsável pelo grande modelo da Xiaomi: a competição em IA está a mudar para a era dos agentes, e a autoevolução é um evento-chave para a AGI

AI自進化

A responsável da equipa de modelos de IA da Xiaomi, Luo Fuli, concedeu uma entrevista em profundidade na plataforma Bilibili em 24 de abril (número do vídeo: BV1iVoVBgERD). A duração da entrevista foi de 3,5 horas, sendo a primeira vez que ela expõe de forma sistemática as suas perspectivas técnicas publicamente enquanto responsável técnica. Luo Fuli afirmou que a corrida dos grandes modelos já passou da era do Chat para a era dos Agents e indicou que a “auto-evolução” será o acontecimento-chave para a AGI no próximo ano.

Da era do Chat à era dos Agents: juízo técnico central

小米大模型團隊負責人羅福莉訪談

(Fonte: Bilibili)

Com base no que Luo Fuli disse na entrevista do Bilibili, ela afirmou que o foco da competição de grandes modelos em 2026 passará de métricas de qualidade de conversação genérica para a capacidade de execução autónoma e contínua em tarefas complexas. Na entrevista, ela afirmou que, atualmente, os modelos de topo já conseguem otimizar-se autonomamente em tarefas específicas e manter uma execução estável durante 2 a 3 dias, sem necessidade de intervenção humana para ajustes. Na entrevista, ela sublinhou que o avanço da capacidade de “auto-evolução” significa que os sistemas de IA começam a ter capacidade de autocorreção, e nomeou também as variáveis do percurso tecnológico da Anthropic e de tecnologias como o Claude Opus 4.6, bem como o impacto destas no ecossistema global de IA.

Ajustes na afetação de capacidade de computação da Xiaomi e avaliação do desfasamento de Pre-train

De acordo com as revelações de Luo Fuli durante a entrevista, a Xiaomi já realizou ajustes significativos na sua estratégia de alocação de capacidade de computação. Ela explicou que a proporção de capacidade de computação usada habitualmente na indústria é Pre-train:Post-train:Inference = 3:5:1, enquanto a estratégia atual da Xiaomi foi ajustada para 3:1:1, comprimindo de forma acentuada a proporção de treino pós-treino e, em simultâneo, aumentando o investimento de recursos na fase de inferência.

Na entrevista, ela explicou que esta mudança se deve à maturidade da estratégia de Agent RL Scaling, pelo que o pós-treino já não necessita de empilhar grandes quantidades de capacidade de computação, e o aumento de recursos na ponta de inferência reflete a necessidade de capacidades de resposta imediata nos cenários em que os Agents são implementados.

Relativamente ao problema do desfasamento de gerações (de Pre-train) nos grandes modelos no mercado doméstico, Luo Fuli afirmou que este desfasamento passou de 3 anos no passado para alguns meses, e que o foco estratégico atual está a deslocar-se para Agent RL Scaling. O percurso profissional de Luo Fuli inclui o Alibaba DAMO Academy, a empresa de quantificação Huanfang Quant e a DeepSeek (desenvolvedora principal do DeepSeek-V2), e em novembro de 2025 juntou-se à Xiaomi.

Especificações técnicas da série MiMo-V2 e rankings de open source

De acordo com o comunicado da Xiaomi publicado oficialmente em 19 de março de 2026 sobre a série MiMo-V2, desta vez foram publicados três modelos de uma só vez:

MiMo-V2-Pro:total de parâmetros, ativa parâmetros 42B, arquitetura de atenção mista, suporta contexto de milhões, taxa de conclusão de tarefas 81%

MiMo-V2-Omni:cenários de Agent de modalidade total

MiMo-V2-TTS:cenários de síntese de voz

De acordo com o comunicado, o MiMo-V2-Flash que já foi disponibilizado em open source ficou em segundo lugar no ranking global de modelos open source, e a velocidade de inferência atinge 3 vezes a do DeepSeek-V3.2.

Perguntas frequentes

Como é que Luo Fuli define “auto-evolução” e por que razão considera que é o evento mais crucial para a AGI?

Com base no que Luo Fuli afirmou numa entrevista na Bilibili em 24 de abril de 2026 (BV1iVoVBgERD), ela indicou que, atualmente, os modelos de topo já conseguem otimizar-se autonomamente em tarefas específicas e executar de forma estável durante 2 a 3 dias sem necessidade de intervenção humana, e classificou a “auto-evolução” como o evento mais crucial para o desenvolvimento da AGI no próximo ano.

Que ajustes concretos fez a Xiaomi na afetação de capacidade de computação e qual é a lógica por trás?

Com base nas revelações de Luo Fuli na entrevista, a afetação de capacidade de computação da Xiaomi foi ajustada de Pre-train:Post-train:Inference = 3:5:1, utilizada habitualmente na indústria, para 3:1:1, comprimindo de forma acentuada a proporção do treino pós-treino; ela explicou que esta mudança se deve ao facto de, após a maturidade da estratégia de Agent RL Scaling, a eficiência do pós-treino ter aumentado e às necessidades de capacidades de resposta imediata no lado da inferência para os cenários de implementação de Agents.

Qual é o ranking open source e o desempenho de velocidade do MiMo-V2-Flash?

De acordo com o comunicado oficial publicado pela Xiaomi em 19 de março de 2026, o MiMo-V2-Flash disponibilizado em open source ficou em segundo lugar no ranking global de modelos open source, e a velocidade de inferência é 3 vezes a do DeepSeek-V3.2; a taxa de conclusão de tarefas da versão flagship MiMo-V2-Pro é de 81%.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário