小米 YU7 已经发布,雷军在微博上预热 YU7 的辅助驾驶时,重点提到:小米 YU7 出厂即搭载 1000 万 Clips 版本的辅助驾驶。
在小米之前,理想、小鹏、吉利等车企纷纷宣称数据量达到 1000 万 Clips,仿佛预示着辅助驾驶的竞争已进入了一个全新阶段。
那么,Clips 到底是什么,它对辅助驾驶来说又意味着什么?
什么是 Clips?
简单地说,Clips 是车辆在真实道路中采集的驾驶数据片段,通常约 30 秒,它包含车辆摄像头等各种传感器采集到的驾驶数据,记录了车面对不同场景做出不同反应的全过程。
如果把自动驾驶比作一位新手司机,Clips 就是教科书、题库和错题集的结合体。数量越多、覆盖场景越丰富,模型就越有 " 活人感 "。
我们都说,在智能化时代,数据是基础,也是最重要的。那么,学习素材的质量和数量,就决定了它的能力上限。
主流玩家实力一览:
越来越多的车企会将 "1000 万 Clips" 作为其宣传辅助驾驶数据训练量的标准。
千万级的 Clips,意味着覆盖了海量、多样化的驾驶片段,各类复杂的道路场景,为模型提供了更全面的学习教材,从而实现更精准的判断。
可以看出,辅助驾驶正从 " 感知能力的比拼 " 迈向 " 认知水平的较量 ",比的就是谁让 AI" 看得多、学得全 "。
数据越多,辅助驾驶越聪明?
数据规模越大,辅助驾驶的表现就会越好吗?
其实这不是绝对的,Clips 可以类比为芯片的计算单元,数量越多,算力越强,但算力只是基础,真正决定体验的,还是算法和数据。
数据训练的关键在于覆盖维度与数据质量。简单来说,不是把数据全丢进去就行,而是要 " 喂 " 给算法高质量、多场景的数据,才能训练出聪明好用的系统。
理想汽车从超百万用户的驾驶数据中,按照顺畅度、操作规范性等标准筛选,最终只保留 5% 的高质量片段用于模型训练。因为这样筛出来的数据更 " 干净 ",更贴近真实场景,对算法提升也更有帮助。
Clips 数量决定了系统能跑多复杂的算法,但能不能跑得好,还得看算法有没有设计到位、数据有没有训练到位。比的不应该是 " 谁芯片多 ",而是 " 谁算法强、数据准 "。
特斯拉打造了 Dojo 超级计算机,用于处理全球车主上传的视频数据,规模已达到 100EFLOPS;小鹏汽车也自建了扶摇超算中心,配备超 2 万张 GPU 卡,每天可处理 200 万 Clips,其目标是 2025 年算力达到 10EFLOPS 以上。
Clips 量越大,就说明车企的训练数据规模越大,而超算中心的算力越大,就说明车企的处理数据能力越强。
这就是为什么大家都在卷 " 超算 " 和 " 训练数据量 "。
写在最后
马斯克曾说:" 只有训练到 1000 万个 clips,系统才会有难以置信的表现提升。"
可以见得,训练数据量达 1000 万 Clips 可以认作是辅助驾驶变得更强、更拟人的 " 拐点 "。
这也是为什么今天的辅助驾驶,不再是简单 " 堆芯片 ",而是围绕数据质量、算力平台展开全面竞争。
当然,1000 万 Clips 只是辅助驾驶征途中的一个节点,并不能将它和最终表现直接挂钩。数据的质量,车企能否用好,都会直接影响辅助驾驶最终表现。
END
登录后才可以发布评论哦
打开小程序可以发布评论哦