一套模型参数,两大智能领域,29项基准测试全面领先,小米的MiMo-Embodied正在重新定义通用具身智能的未来图景。
11月21日,小米正式发布并全面开源业界首个打通自动驾驶与具身智能的跨域基座模型——MiMo-Embodied。这一突破性技术实现了室内智能交互与室外驾驶决策的统一建模,为通用具身智能从“垂直领域专用”向“跨域能力协同”迈出了关键一步。
该模型采用“一套参数”同步支持具身智能与自动驾驶两大领域的核心任务,在涵盖感知、决策与规划的29项基准测试中全面领先现有开源、闭源及专用模型。这一技术突破意味着智能设备在家庭环境中的认知能力可与道路决策效率相互促进,打破传统垂直领域间的技术壁垒。
01 跨域融合:智能系统实现协同突破
随着智能技术在家居场景中的深入应用以及自动驾驶迈向规模化落地,行业面临一个共性挑战:如何让机器人与车辆在认知与能力之间实现高效互通?
MiMo-Embodied模型正是针对这一核心问题提出的解决方案。
作为业内首个成功连接自动驾驶与具身智能的跨域基座模型,它实现了室内交互与道路决策能力的统一建模。
该模型具备三大核心技术优势:
- 跨域能力覆盖:同步支持具身智能三大核心任务(可供性推理、任务规划与空间理解)与自动驾驶三大关键功能(环境感知、状态预测与驾驶规划),构建起贯通室内外场景的全链路智能支撑体系。
- 双向协同赋能:验证了室内交互能力与道路行驶决策之间的知识迁移与协同效应,为不同场景下的智能融合提供了新的技术路径。
- 全链优化可靠:采用“具身与驾驶能力预训练—思维链推理增强—强化学习精细调优”的多阶段训练架构,显著提高了模型在复杂真实环境中的稳定性与部署可靠性。
02 性能标杆:29项基准测试全面领先
在性能表现方面,MiMo-Embodied在涵盖感知、决策与规划的29项核心基准测试中展现出领先性能,整体表现优于现有各类开源、闭源及专用模型。
根据评测结果:
- 在具身智能相关的17项基准中,模型取得当前最优结果,刷新了任务规划、可供性预测和空间理解等方面的能力上限;
- 在自动驾驶相关的12项基准评估中,模型实现了从环境感知到行为预测再到驾驶策略生成的全链条性能突破;
- 在通用视觉与语言理解任务中,模型同样表现出强大的基础感知与泛化能力,在多个关键指标上实现显著提升。
这一全面的性能优势使MiMo-Embodied确立了开源基座模型的性能新标杆,为后续行业应用奠定了坚实的技术基础。
03 应用前景:从智能家居到自动驾驶的全面覆盖
小米计划自2026年Q1起,通过OTA方式将MiMo-Embodied模型应用于自研扫地机器人、工厂AGV及SU7高阶智驾系统,并同步开放API,为家居、出行与制造业开发者提供跨域智能底座。
这一部署计划显示了小米在打通智能家居与自动驾驶生态方面的战略布局。
在实际应用中,该模型使自动驾驶系统能够精准感知交通场景、预测动态目标行为,并生成安全高效的驾驶规划。
同时,在具身智能领域,它能理解自然语言指令,完成复杂的任务规划和空间推理,为智能设备提供更强大的人工智能支持。
04 开源共享:推动产业协同发展
小米此次宣布全面开源MiMo-Embodied模型与代码,这一决定将极大促进全球范围内具身智能与自动驾驶技术的融合发展。
通过开源协作,开发者可以基于这一跨域基座模型,探索更多跨场景应用可能性,加速通用人工智能的技术突破与产业落地。
开源地址已通过Hugging Face等平台发布,为全球开发者提供了直接访问这一先进技术的机会。
从智能家居到自动驾驶,从工厂AGV到扫地机器人,小米MiMo-Embodied模型正在重塑我们对智能系统边界的认知。
随着2026年Q1应用部署的临近,一场由统一大模型驱动的跨域智能协同革命正悄然到来。
通用具身智能的未来,不再是各个垂直领域孤立发展的技术路线,而是跨域能力协同进化的新范式。