中国 · 杭州,2025 年 10 月 21 日,在国际智能机器人与系统大会 IROS 2025 期间,RoboSense 速腾聚创在杭州举办 " 机器人之眼 " 主题沙龙,正式发布 Active Camera 全新力作—— " 机器人操作之眼 "AC2。

RoboSense 创新事业部总裁王鹏分享了机器人之眼的行业趋势与领先技术突破,激光雷达事业部副总裁杨先声博士全面介绍了 AC2 的性能优势与亮点特性。圆桌论坛环节,孙富春、朱延河、李清都、李淼四位学者聚焦 " 机器人的认知突围与产业前景 " 主题展开前沿探讨。
行业唯一大面阵dToF能力打造毫米级融合感知
王鹏表示眼睛是机器人感知的核心,3D 视觉深度信息获取,一度是机器人眼睛的技术瓶颈。双目视觉、单目视觉以及基于主动发光的结构光和 ToF,都是行业主流的深度感知方案。其中,dToF 具有测距能力最强、抗干扰最强、算力要求最低的优势,而面阵 dToF,进一步弥补了传统 dToF 在成本、近距离精度方面的短板,成为机器视觉深度测量最优的解决方案。

此次发布的 AC2,正是 RoboSense 基于面阵 dToF 技术突破的集大成之作。AC2 定位于机器人操作之眼,是业内首款 dToF+RGB 双目 +IMU 一体化超级传感器系统,可灵活输出融合或独立的深度、图像与运动姿态精准数据,感知效果全域整齐清晰。RoboSense 行业领先的芯片级硬件同步控制技术,能保证 AC2 在大部分场景下深度与图像信息的高度时空对齐,同步精度达 1ms,从根源上确保融合感知的质量和应用效果。

毫米级感知高精度
受困于感知精度的不足,目前大部分机器人的可操作性仍停留在初级阶段,全场景全工况下的高精度感知成为扩展机器人操作范围的必备前提。RoboSense 基于硬件底层的数据融合和同步,从多个层面保证 AC2 的极致精度:
重新设计全固态面阵 dToF 深度感知方案,突破 3D 视觉传感器精度随距离变化的行业痛点,使 AC2 可实现 8m 内全域 ±5mm 的毫米级感知精度;
集成的双目视觉系统,进一步增强 AC2 在 1m 内超近距离下的深度精度表现;
提供 1600x1400 的高分辨率 RGB 相机,在深度信息的基础上补充超清色彩图像信息,加强 AC2 融合感知信息的精细度。
超大FoV与小型化的极致设计
为确保机器人操作的效率,AC2 也将 FOV 做到目前 3D 视觉传感器领域中的最大范围,无论是融合感知还是单一传感器视角,均能提供 120°×90° 超大视野,让机器人一次 " 看 " 到更多操作物,避免因调整视角而频繁进行扭头、俯仰等动作带来的额外误差。

尺寸上,100mmx30mmx45mm(L×H×D)的小巧设计,让 AC2 可以灵活装载在人形机器人脸部、机器狗头部、机械臂末端等狭小空间内,让各类机器人的操作安全又高效。

高稳定可靠性,抗环境光干扰
高可靠性也是确保机器人操作应用的关键。基于 dToF 深度感知方案,AC2 拥有优秀的抗环境光干扰能力,在弱光、强光、明暗交替等复杂光照场景下表现稳定,即便面对 100klux 的强光环境,依然保证精度不变。同时,AC2 基于车规级设计,满足 IP65 防尘防水等级,工作温度范围 -10°~55°。AC2 采用 GMSL2 接口和 FAKRA 连接器,可提供比 USB 接口更稳定的连接,在有效防止连接中断的同时,提供更高的传输带宽,确保机器人感知链路稳定顺畅运行。

搭载 AC2 的机器人可实现全场景全工况下的高精度大范围感知。不仅能轻松执行对牙刷、衣架等细小物体,以及玻璃、金属等高反射率物体的感知和操作,也能在机器人进行大幅度动作时,保证融合感知图像不畸变,助力机器人解锁更多操作应用。
AI-Ready 生态,开箱即用的开发者服务
为更好服务机器人的开发需求,RoboSense 在推出 AC2 硬件之外,同步更新 AI-Ready 生态,新增姿态估计、人体骨架识别等适配 AC2 使用场景的开源算法。AI-Ready 生态是 Active Camera 的重要组成部分,包含 AC Studio 工具套件、Wiki 文档和多场景数据集等全套开源资源,为开发者省去琐碎工作,提升开发速度。

AC2 协同 AI-Ready 生态,将解决目前机器人传感器堆叠及重复开发问题,成为机器人操作应用的最佳感知方案。在工业、物流、家庭服务机器人等成熟领域,AC2 可加速其商业化发展节奏,提升操作效率,解锁更多应用场景;在具身智能机器人、数字孪生等高潜发展领域,AC2 将推动其功能验证及应用落地,释放更多想象。
IROS专家共识 感知变革是机器人突破关键
圆桌论坛环节,学术专家围绕机器人视觉感知的技术演进、当前技术瓶颈、投入资源抉择、泛化能力提升等方面展开研讨。多位学者对 RoboSense 机器人之眼、AC2 发布及其应用潜力表示赞许与期待。

在清华大学计算机科学与技术系教授、智能技术与系统国家重点实验室副主任孙富春教授看来,让机器人在与物理世界产生沉浸感的环境中去学习,RoboSense 机器人之眼显得格外重要。当前,机器人视觉感知面临诸多挑战,包括如何适应动态环境变化、如何准确采集完整数据、多传感器协同建模、校准误差、计算效率等。RoboSense 机器人之眼,通过一体化集成多传感器,形成硬件与软件的综合技术体,可以有效解决这些问题,尤其在人形机器人、工业物流等领域,将有很大的应用潜力。

哈尔滨工业大学机电工程学院教授、博导、机器人技术与系统全国重点实验室副主任朱延河教授认为,回归到自然科学的本源,实际上,人类的眼睛从性能或功能层面可能还不如动物的眼睛。其认为,具身智能机器人不应受制于我们对人类眼睛的理解,而应该打造超越人类眼睛的感知能力。某种意义上,Active Camera 也是一种 "Super Eye",融合了摄像头、激光雷达等多个传感器。在人工智能时代背景下,RoboSense 这种多传感器融合的产品能力,已经超越了海外同行,走在了创新的前端。

上海理工大学机器智能研究院执行院长、中豫具身智能实验室执行主任李清都教授结合其团队研发的 " 行者二号 "、" 行者三号 " 人形机器人的最新进展,展开洞见分享。其认为,AC2 的多传感器一体化集合设计非常不错,只需要一台 AC2,就能解决机器人感知、算力消耗和通用适配等问题。"AC2 的融合 FOV 达到了 120°,这个大视场角高度适配大场景,非常契合我们的需求,同时它还具有室内外的强适应、高运行能力,无惧环境光干扰。"

武汉大学机器人学院教授、博导李淼教授则套用行业常用的一句话来表达对机器人眼睛技术沿革和 AC2 应用潜力的思考。" ‘一代硬件,一代算法,一代机器人’,当 RoboSense 定义的机器人之眼问世后,一定会有新的算法生态出现,以支持机器人的复杂应用。我相信 AC2 将有可能迭代成长为‘超级物种’——一个超越人类眼睛的感知系统。融合 RoboSense 构建的 AI-Ready 生态及其开放的算法 SDK,如果与中国机器人硬件公司合力,将能切实解决具身智能多场景应用的难点。"

凭借芯片断代式领先技术优势及丰富激光雷达产业化落地积累,RoboSense 重磅推出机器人视觉新品类 Active Camera 系列产品。AC2 的面世,让 Active Camera 形成完整的机器人感知产品组合,覆盖机器人移动及操作两大核心任务需求。
RoboSense 将持续为机器人产业规模化商业落地打造最佳感知技术基座,与全球用户一起,共同探索智能机器人的无限可能。


登录后才可以发布评论哦
打开小程序可以发布评论哦