驱动之家 12小时前
小米具身大模型MiMo-Embodied正式发布:全面开源
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 11 月 21 日消息,小米今天正式发布具身大模型 MiMo-Embodied,并宣布全面开源。

小米介绍,随着具身智能逐步落地家居场景、自动驾驶技术迈向规模化应用,行业内一个关键问题日益凸显:机器人与车辆如何更好地实现认知与能力互通?室内作业智能与室外驾驶智能能否实现相互促进?

小米具身大模型 MiMo-Embodied 就是为此而生,这是业界首个成功打通自动驾驶与具身智能的跨域具身基座模型,它实现了两大领域任务的统一建模,标志着通用具身智能研究从 " 垂直领域专用 " 向 " 跨域能力协同 " 迈出关键一步。

它有三大核心技术亮点:

1. 跨域能力覆盖:同步支持具身智能三大核心任务(可供性推理、任务规划、空间理解)与自动驾驶三大关键任务(环境感知、状态预测、驾驶规划),形成全场景智能支撑;

2. 双向协同赋能:验证了室内交互能力与道路决策能力的知识转移协同效应,为跨场景智能融合提供了新的思路;

3. 全链优化可靠:采用 " 具身 / 自驾能力学习→ CoT 推理增强→ RL 精细强化 " 多阶段训练策略,有效提升模型在真实环境中的部署可靠性。

在涵盖感知、决策与规划的 29 项核心基准测试(Benchmarks)中,MiMo-Embodied 确立了开源基座模型的性能新标杆,全面优于现有的开源、闭源及专用模型:

- 具身智能领域:在 17 个 Benchmarks 上取得 SOTA 成绩,重新定义了任务规划、可供性预测及空间理解的能力边界;

- 自动驾驶领域:在 12 个 Benchmarks 上表现卓越,实现了环境感知、状态预测与驾驶规划的全链路性能突破。

- 通用视觉语言领域:在夯实通用感知与理解能力的同时,进一步在多项关键基准上实现了显著的性能跃升,展现了卓越的泛化性。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

小米 自动驾驶 机器人 开源 自动驾驶技术
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论