量子位 19小时前
混元3D开源端到端全景深度估计器,代码+精选全景数据已上线,在线可玩
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

全景图具有完整的视场 (360 °× 180 °),比透视图提供更完整的视觉描述。得益于此特性,全景深度估计在 3D 视觉领域正日益受到关注。

然而,由于全景数据的稀缺,以往的方法通常局限于域内设置,导致零样本泛化能力较差。此外,由于全景图固有的球面畸变,许多方法依赖于透视分割(例如,cubemaps,立方体贴图),这导致效率不理想。

为了应对这些挑战,腾讯混元 3D 团队提出了DA2,一个准确的、零样本泛化能力强且完全端到端的全景深度估计器。

背景与挑战

图 1:Teaser 图片

与常用的透视图像不同,全景图提供沉浸式的 360 °× 180 ° 视角,可从 " 任何方向 "(Any Direction)捕捉视觉内容。

这种宽阔的视场使全景图成为计算机视觉领域中必不可少的视觉表示,并赋能了各种激动人心的应用,例如 AR/VR 和沉浸式图像生成。

然而,仅有沉浸式视觉(二维)体验是不够的。全景图中的高质量深度 (3D) 信息对 3D 场景重建 / 生成、物理模拟、世界模型等更高级的应用至关重要。

受此启发,腾讯混元 3D 团队专注于以端到端的方式估计从每个全景像素到球体中心(即 360 ° 相机)的 scale-invariant [ 1 ] 和 distance [ 2 ] ,并实现高保真度和强大的零样本泛化。

[ 1 ] Distance(距离)和 depth(深度)具有三种类别,分别是 metric,scale-invariant (biased), 和 affine-invariant (relative)。Metric 是指具有绝对 scale(尺度)的绝对深度,是最严格的定义。scale-invariant 是指不具备绝对尺度的深度,但是具有全局的 shift(or bias,偏差),也是很严格的定义,metric 和 scale-invariant 都可以完整保存具体的 3D 结构。affine-invariant 是最松的定义,它不能保存完好的 3D 结构,主要表达的是不同像素的前后深度顺序。

[ 2 ] 严格来讲,distance(距离)为:

,depth(深度)为 z。这里使用 depth 是为了更好的可读性和连贯性。

挑战在于:

拍摄或渲染全景图比透视图更具挑战性,因为全景深度数据的数量和多样性都非常有限。因此,早期的方法大多是在领域内进行训练和测试,零样本泛化能力非常有限。

由于全景图固有的球面畸变,许多方法融合了 ERP(1 个全景图)和立方体贴图(6 个透视视角)投影的特征。这些策略虽然有效,但仍然需要额外的模块,因此不够精简,效率也不够高。

核心贡献

这项工作的首要目标是扩展全景数据,并为 DA2 构建坚实的数据基础。

腾讯混元 3D 团队首先想到的,是基于大量高质量的透视深度数据,转换得到全景数据。为此,他们提出了一个数据管理引擎,将透视样本转换为高质量的全景数据。

全景数据扩充引擎

具体来说,给定一个已知水平和垂直视场角的透视 RGB 图像,首先应用透视到等距矩形(Perspective-to-Equirectangular,P2E)投影将图像映射到球面空间。

然而,由于透视图像的视场角有限(水平范围通常为 70 ° -90 °),因此只能覆盖球面空间的一小部分(如图 2 左侧球体所示)。因此,这样的 P2E 投影图像可以被视为 " 不完整 " 的全景图。这种不完整性会导致性能不佳:1)该模型缺乏全局背景,因为它从未观察到全景图像的全貌,尤其是在两极附近;2)球面畸变在赤道和两极之间差异很大,高纬度地区会出现严重的拉伸。

为此,研究团队将使用全景图的外推引擎进行全景外推,以生成与模型输入匹配的 " 完整 " 全景图。对于相关的 GT 深度,研究团队仅应用 P2E 投影,而未进行外推,因为外推深度的绝对精度很难得的保证。总体而言,该数据扩充引擎显著提升了全景数据的数量和多样性,并显著增强了 DA2 的零样本性能,如图 3 所示。

图 3:模型性能与数据规模的曲线

该数据扩充引擎创建了约 543K 个全景样本,将样本总数从约 63K 扩展到约 607K(约 10 倍),显著解决了数据稀缺导致泛化能力差的问题。

接下来,研究团队重点关注 DA2 的模型结构和训练,以便有效地从大幅扩展的数据中进行学习。

图 4:SphereViT 架构及其训练损失

为了减轻球面畸变的影响,受 Vision Transformers (ViT) 中位置嵌入的启发,研究团队提出了 SphereViT —— DA2 的主要模型架构。

具体来说,从球体布局出发,研究团队首先计算以相机为中心的球面坐标系中每个像素的球面角(方位角和极角)。

然后,使用正弦 - 余弦基函数将这个双通道角度场扩展至图像特征维度,从而形成球面嵌入(Spherical Embedding)。由于所有全景图都具有相同的完整视场,因此该球面嵌入可以固定且可重复使用。为了注入球面感知,只需让图像特征去 " 关注 " 球面嵌入,而不必反过来。也就是说,SphereViT 并非像标准 ViT 那样在自注意力机制之前将位置嵌入添加到图像特征上,而是采用交叉注意力机制:将图像特征视为查询,将球面嵌入视为键和值。这种设计使图像特征能够明确地关注全景图的球面几何形状,从而产生可感知畸变的表示并提升性能,如图 5(a)所示。

图 5:消融研究

在训练过程中,模型的监督机制结合了两个方面:距离损失约束全局精确的距离值;法线损失促进局部平滑、锐利的几何表面,尤其是在距离值相似但表面法线差异较大的区域,如图 5(b)所示。

实验结果

为了验证 DA2,研究团队结合多个公认的评估数据集,对尺度不变距离进行了全面的基准测试。

表 1:定量比较

然而,由于全景数据的稀缺,现有的全景深度估计零样本方法有限,而在透视深度估计方面,存在许多强大的零样本方法。因此,为了确保更公平、更全面的比较,研究团队遵循 MoGe (https://github.com/microsoft/moge)提出的全景深度估计流程,并将 DA2 与先前的零样本透视深度估计器(Metric3D v1v2、VGGT、UniDepth v1v2、ZoeDepth、DepthAnuthing v1v2、Lotus、MoGe v1v2)也引入了基准测试。

如表 1 所示,DA2 展现出了 SOTA 性能,其 AbsRel 性能比最强的 zero-shot 方法平均提升了 38%。

值得注意的是,它甚至超越了之前的 in-domain 方法,进一步凸显了其卓越的泛化能力。

图 6:定性比较

研究团队还进行了定性比较,如图 6 所示。得益于本文提出的数据管理引擎,DA2 训练所用的全景数据比 UniK3D 多出约 21 倍,展现出更精确的几何预测。DA2 也优于 MoGev2,因为后者的全景性能受到融合过程中多视角不一致性(例如不规则墙壁、破碎的建筑物等)的限制。

应用场景

DA2 凭借其卓越的零样本泛化全景深度估计能力,有效地实现了广泛的 3D 重建相关应用,例如全景多视图重建。

如图 7 所示,DA2 能够根据房屋 / 公寓不同房间的全景图像,重建全局对齐的 3D 点云,确保不同房间的多个全景视图之间的空间一致性。

图 7:Pano3R,全景多视图重建项目主页:

https://depth-any-in-any-dir.github.io/

文章链接:

https://arxiv.org/abs/2509.26618

Github 仓库 (已开源):

https://github.com/EnVision-Research/DA-2

Huggingface demo (欢迎试玩):

https://huggingface.co/spaces/haodongli/DA-2

Huggingface model:

https://huggingface.co/haodongli/DA-2

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—    —

点亮星标

科技前沿进展每日见

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论