小米的 MiMo-V2.5 系列开源:1T 参数,相较 GPT-5.4 令牌效率更优

Gate News message, April 27 — Xiaomi’s MiMo team has open-sourced the MiMo-V2.5 series of large language models under MIT license, supporting commercial deployment, continued training, and fine-tuning. Both models feature a 1 million token context window. MiMo-V2.5-Pro is a pure-text mixture-of-experts (MoE) model with 1.02 trillion total parameters and 42 billion active parameters, while MiMo-V2.5 is a native multimodal model with 310 billion total parameters and 15 billion active parameters, supporting text, image, video, and audio understanding.

MiMo-V2.5-Pro targets complex agent and programming tasks. In ClawEval benchmarks, it achieved 64% Pass@3 while consuming approximately 70,000 tokens per task trajectory—40% to 60% fewer tokens than Claude Opus, Gemini 3.1 Pro, and GPT-5.4. The model scored 78.9 on SWE-bench Verified. In a demonstration, V2.5-Pro independently implemented a complete SysY-to-RISC-V compiler for a Peking University compiler course project in 4.3 hours with 672 tool calls, achieving a perfect score of 233/233 on hidden test sets.

MiMo-V2.5 is designed for multimodal agent scenarios, equipped with a dedicated vision encoder (729 million parameters) and audio encoder (261 million parameters), scoring 62.3 on the Claw-Eval general subset. Both models employ a hybrid architecture combining sliding window attention (SWA) and global attention (GA), paired with a 3-layer multi-token prediction (MTP) module for accelerated inference. Model weights are available on Hugging Face.

Alongside the open-source release, the MiMo team launched the “Orbit Quadrillion Token Creator Incentive Program,” offering 100 quadrillion tokens free over 30 days to global users. Individual developers, teams, and enterprises can apply via the program page with an evaluation cycle of approximately 3 business days; approved benefits are distributed as Token Plans or direct credits, compatible with tools like Claude Code and Cursor.

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明

相关文章

Cerebras 计划在 IPO 中筹集 $4 十亿美元,目标估值为 400 亿美元

据 Bloomberg 报道,AI 芯片制造商 Cerebras Systems 正寻求在其首次公开募股中筹集最高 400 亿美元,目标估值约为 400 亿美元。该总部位于加利福尼亚的公司计划最早于周一(5 月 5 日)启动 IPO 路演。承销商将

GateNews53 分钟前

学院董事会在第 99 届奥斯卡禁用 AI 内容,强制只允许人类获奖

美国电影艺术与科学学院(The Academy of Motion Picture Arts and Sciences)已为第 99 届奥斯卡制定了严格的新规章,正式禁止在最高奖项类别中使用由 AI 生成的内容,以保护人的创造力。 要点: 学院董事会在第 99 届奥斯卡中禁止使用 AI,要求表演等环节采用仅限真人署名的规定,requiring human-only billing for acting an

Coinpedia1小时前

英伟达的 NVentures 投资 $50M 于法律 AI 平台 Legora 的 D 轮延展(Series D Extension)

据 ChainCatcher 称,英伟达的风险投资部门 NVentures 已参与 Legora 的 5000 万美元 D 轮增发融资,标志着其首次投资法律 AI。瑞典法律科技初创公司 Legora 与 Harvey 竞争,其年度经常性收入(ARR)超过了 1 亿美元,

GateNews1小时前

OpenAI 首席财务官建议推迟至 2027 年上市,因增长放缓,总裁倾向于 2026 年第四季度

据 Odaily 报道,OpenAI 首席财务官 Sarah Friar 私下建议将公司的 IPO 推迟至 2027 年,理由是未能达到上市公司财务报告标准,而首席执行官 Sam Altman 计划在 2026 年第四季度加速上市。ChatGPT 的每周活跃用户在某一阶段达到 9 亿人

GateNews2小时前

Bakkt 完成 DTR 收购,伴随营收增长与战略重塑

Bakkt 已完成对 Distributed Technologies Research 的收购,此举旨在将人工智能(AI)原生的稳定币基础设施整合到其核心金融服务中。 现代化全球结算 Bakkt Inc. 已完成对 Distributed Technologies 的收购

Coinpedia3小时前
评论
0/400
暂无评论