根据智东西12月17日的报道,小米公司今日正式推出并开源了其最新的混合专家大模型MiMo-V2-Flash,该模型总参数量达到3090亿,其中激活参数量为150亿。在今天上午举办的小米2025人车家全生态合作伙伴大会上,Xiaomi MiMO大模型负责人罗福莉首次登台并发表了主题演讲。
这款模型专门为推理、编码和智能体场景设计,支持混合思维模式,用户可以根据需求切换模型是“深度思考”还是即时响应。它能够一键生成功能完整的HTML网页,并与Claude Code、Cursor和Cline等主流编码框架协同工作。该模型提供256k上下文窗口,可以完成数百轮智能体交互和工具调用的复杂任务。
基准测试结果显示出,MiMo-V2-Flash的性能基本与DeepSeek-V3.2持平,仅在不借助任何工具辅助的“人类最后一场考试”和创意文本生成评估ARENA-HARD中稍落后于DeepSeek-V3.2,但响应时延更低。
在多个智能体测评基准上,MiMo-V2-Flash位列全球开源模型第二名;代码能力测评超越所有开源模型,与标杆闭源模型Claude 4.5 Sonnet实力相当,但推理成本仅为后者的2.5%且生成速度提升至两倍。
MiMo-V2-Flash能够以每秒150个token的速度进行快速推理,在价格方面,每百万输入token成本为0.7元、每百万输出token成本为2.1元。
小米已经全面开源了MiMo-V2-Flash的所有内容,并向开发者社区SGLang贡献了全部推理代码,API目前限时免费。现在,用户可以通过网页端免费体验MiMo-V2-Flash。
开源地址:
https://t.co/4Etm0yZKTL
体验地址:
https://aistudio.xiaomimimo.com
技术报告:
https://github.com/XiaomiMiMo/MiMo-V2-Flash/blob/main/paper.pdf
智东西首先实测了MiMo的网页开发能力。
初始测试中,我们要求其生成一个电商页面,需要包含商品主图轮播、规格选择、价格、库存等核心要素。代码生成后,MiMo在右侧展示预览界面,除了查看商品大图功能需在完整版使用外,其他元素几乎与真实在线购物体验无异。
随后增加难度,我们让其生成一个网页版迷宫闯关小游戏,要求包含四个难度级别,并能通过鼠标和键盘控制。在生成的网页中,MiMo还额外添加了提示、积分、计时等功能,使得整个交互体验更为完整。
我们还尝试让其生成“圣诞树装饰”交互网页。网页左侧提供彩灯、铃铛、星星、礼物盒、蝴蝶结等装饰物,用户可以拖动这些物品到右侧的圣诞树上进行装饰,也可以一键清空或直接生成随机装饰。整个画面会不断飘落雪花,并支持播放背景音乐。
在聊天能力方面,我们先让MiMo“用程序员的语气安慰一只失恋的猫”,MiMo建议小猫“清理缓存”以忘记不开心,还鼓励小猫“升级硬件”,顺便为小米做了一波宣传。
最后,我们让MiMo生成一部科幻悬疑题材的AI短剧剧本。一开始,MiMo就提出了深潜记忆提取头盔、真理之环AI伦理防火墙两个关键要素,通过检索发现,这些要素在后续剧情中被巧妙融合,直接成为推动故事发展的核心。
此外,小米在官方博客中也展示了多个案例。
在网页生成能力上,其第一个官方案例是“用HTML生成一个漂亮、可用的macOS模拟操作系统”。在最终生成的界面中,包含了基本的macOS风格桌面图标,还可以切换背景、打开Finder。
其次是打造“豪华互动圣诞树”高保真3D网页应用,并要求视觉效果奢华,MiMo的生成结果能切换圣诞树和混沌状态,支持手势交互等。
第三个演示是用HTML创建交互式太阳系探测器。当用户点击每个球体就会出现行星的简介。
智东西也尝试让MiMo“用HTML创建一个教育性的交互式太阳系探索器”,但最终结果不如官方演示。第一次生成时行星无法选择,重新生成后行星下方的选项直接消失了。
聊天能力方面,MiMo既能回答“大语言模型拥有知识吗”这类硬核科普问题。
MiMo还可以回答“要不要吃长生不老药丸”,并会从人类视角分析是否应该服用、可能有哪些条件。
此外,该模型还具备长文本撰写能力,例如“写一个关于误送信件的忧郁爱情故事”。
MiMo还能创作深刻的非虚构作品,如以一位独居老人为中心,以他一周内收到的邮件为主线,探讨现代社会中的孤独现象。
在数学竞赛AIME 2025和科学知识基准GPQA-Diamond中,MiMo-V2-Flash的表现位列开源模型前两名。在软件工程能力的SWE验证与多语言基准测试中,MiMo-V2-Flash在所有开源模型中排名第一,与全球顶尖闭源模型并驾齐驱。
从总体基准测试结果来看,MiMo-V2-Flash在大多数推理基准测试中的性能可与K2 Thinking和DeepSeek V3.2 Thinking相媲美,同时保持在高质量开放式回答方面的竞争力。
在长上下文评估中,MiMo的模型表现超过了K2 Thinking。
在智能体任务中,MiMo-V2-Flash在SWE-Bench Verified中超越所有开源竞争对手,性能接近 GPT-5-High。在SWE-Bench多语版本中,MiMo-V2-Flash解决了71.7%的问题。
在搜索智能体评估方面,MiMo-V2-Flash在BrowseComp上得分为45.4,配合上下文管理后进一步提升至58.3。
小米已经将所有推理代码共享至SGLang并开源,社区实测单机结果如下:
在Prefill单机吞吐约50000 toks/s的条件下,不同Context Length都取得了优越的TTFT性能。
得益于3层MTP,在16K的Context Length情况下,Decode可以做到单机吞吐5000 ~ 15000 toks/s的同时达到151~115 toks/s的单请求吞吐。
MiMo-V2-Flash的效率提升源于其为高通量推理设计的创新架构进步。
该模型采用全局注意力(GA)和滑动窗口注意力(SWA)的1:5混合结构。小米MiMo研究团队大量的实证结果表明,SWA简单、高效且易于使用,在通用任务、长上下文负载和推理方面整体表现优于线性注意力。
它还提供固定大小的KV缓存,便于与现有的训练和推理基础设施集成。
研究人员重新定义了并行解码,以实现极高的输出token吞吐量:通过引入多词元预测(MTP)训练,提升了基础模型的能力,并在推理过程中并行验证了MTP。
MiMo-V2-Flash利用MTP作为原生草稿模型进行自我推测解码,实现了实际部署加速。
大语言模型的解码过程本质上受限于内存,这是由其低运算密度特性决定的。业界通常采用批量级并行技术提升前馈网络(FFN)的运算密度,但该方法对注意力计算环节并无增益,原因在于每个推理请求都需维护独立的KV cache。
相比之下,MTP技术通过一次性生成多个草稿token,同步提升了前馈网络(FFN)与注意力机制的运算密度,后续主模型可对这些草稿token进行并行验证。这种方案能够实现token级并行计算,且不会增加KV cache的输入输出开销。
在MiMo-V2-Flash模型中,MTP模块采用稠密前馈网络来控制参数量,同时使用滑动窗口注意力机制,从而降低KV cache与注意力计算的成本。
实测数据显示,3层结构的MTP模块可达到2.8-3.6个token的有效接受长度,并实现2.0-2.6倍的推理速度提升。
MiMo-V2-Flash预训练使用FP8混合精度和原生32k序列长度,使用27T token进行训练。
在后训练阶段,为高效拓展强化学习的计算规模,同时增强模型的推理能力与智能体自主决策能力,研究人员提出了多教师在线策略蒸馏(MOPD)。
该范式先通过监督微调(SFT)或强化学习(RL)技术得到各领域的专家教师模型,再让学生模型基于自身的策略分布进行采样,并利用多个教师模型提供的稠密型token级奖励信号完成优化。
MOPD训练只需不到传统SFT+RL流程的1/50计算资源,即可匹配教师模型的峰值表现。
此外,MOPD采用解耦设计,支持新教师与ORM(教学与学习)的灵活整合,自然实现“教学与学习”闭环迭代,精炼学生模式可演变为更强的教师,实现持续自我提升的能力。
小米凭借混合注意力机制与MOPD等技术创新,大幅优化了大模型的研发成本与运行效率;同时开源全部相关成果,有效降低行业研发门槛。此外,近几个月以来,Xiaomi MiMo大模型团队加速推进,发布数篇论文并开源多个模型。
12月5日,小米集团合伙人、总裁卢伟冰透露,公司AI大模型业务过去四个季度投入环比增速超50%,目前进展“已超出董事会预期”,并宣布将AI与“现实世界深度结合”列为未来十年核心战略。同时,小米正式启动全球人才招募计划,单岗位薪酬上限开至千万元级别,目标“在最短时间内补齐大模型尖端人才缺口”。
本文由主机测评网于2026-02-10发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260224375.html