Uni-Gaussians:小米汽车提出相机与激光雷达联合仿真的新框架

小米汽车提出Uni-Gaussians框架,利用高斯表征统一相机与激光雷达仿真,提升自动驾驶场景仿真质量和效率。

原文标题:小米汽车首曝自动驾驶研究:相机和LiDAR联合重建框架Uni-Gaussians

原文作者:机器之心

冷月清谈:

小米汽车联合香港科技大学、华中科技大学提出了Uni-Gaussians,一种基于统一高斯表征的分治渲染框架,旨在解决自动驾驶动态场景中相机与激光雷达联合仿真的难题。该框架通过动态高斯场景图建模静态背景和动态实体,图像数据光栅化渲染,激光雷达数据通过高斯光线追踪模拟,从而在保证质量的同时提升计算效率。实验结果表明,Uni-Gaussians在点云几何精度、雷达测距性能、反射强度质量以及图像渲染质量上均表现出色,相较于现有技术有显著提升,为自动驾驶仿真提供了一种高效且高质量的解决方案。

怜星夜思:

1、Uni-Gaussians框架中提到的"高斯光线追踪"具体是如何模拟激光雷达的?它相比传统光线追踪有哪些优势?
2、文章中提到Uni-Gaussians在Waymo数据集上进行了评估,那么在其他自动驾驶数据集上的表现会如何?
3、Uni-Gaussians 框架对于自动驾驶的意义是什么?除了仿真之外,还有什么潜在的应用场景?

原文内容


论文的主要作者来自香港科技大学、小米汽车和华中科技大学。论文的共同第一作者为香港科技大学博士后研究员袁子康、小米汽车算法工程师蒲粤川、罗鸿城。论文作者还包括小米汽车世界模型负责人孙海洋。通讯作者是华中科技大学的教授杨欣。


在自动驾驶技术商业化落地的关键阶段,高质量仿真系统成为行车安全验证的核心基础设施。针对动态驾驶场景中相机与 LiDAR 联合仿真难题,Uni-Gaussians 提出一种基于统一高斯表征的分治渲染框架,实现精确性与计算效率的协同优化。


当前主流神经渲染方案存在显著局限性:


  1. 基于 NeRF 的方法虽能通过连续场景表征统一渲染相机图像与 LiDAR 点云,但其依赖密集采样的体渲染机制导致计算效率低下;

  2. 基于高斯溅射(Gaussian Splatting)的方法利用高斯基元实现场景表征,并通过光栅化(Rasterization)达成实时渲染,但其基于线性光学假设的渲染管线难以精确建模非线性光学传感器特性,导致该方法在针孔相机之外的传感器类型中应用受限。


为攻克上述挑战,来自香港科技大学、小米汽车和华中科技大学的研究团队提出了 Uni-Gaussians,实现了动态驾驶场景的高斯基元统一表征与分治渲染的架构。使用动态高斯场景图(Gaussian scene graph),建模静态背景与动态实体(如刚性车辆、非刚性行人)。图像数据采用光栅化(Rasterization)进行渲染,确保高帧率输出。LiDAR 数据则引入高斯光线追踪(Gaussian Ray-Tracing),精确模拟激光脉冲传播特性。该工作为自动驾驶场景下的相机与 LiDAR 数据提供的仿真方式,在质量与计算效率方面都取得了重大进展。



  • 论文标题:Uni-Gaussians: Unifying Camera and Lidar Simulation with Gaussians for Dynamic Driving Scenarios

  • 论文链接:https://arxiv.org/pdf/2503.08317

  • 项目主页:https://zikangyuan.github.io/UniGaussians/


论文贡献


Uni-Gaussians 主要有以下贡献:


  1. 提出了一种统一、高效的仿真系统,能够利用高斯基元实现相机和激光雷达数据的联合重建。
  2. 实现了包含车辆、行人和骑车人在内的所有交通参与者的高质量 LiDAR 仿真。
  3. 通过大量的实验证明了统一的高斯表征和混合渲染方法的优势。



图一展示了最新 SOTA 方法 LiDAR4D 和该方法仿真结果的对比。相比之前方法,该方法可以准确地重建出各种可移动物体,包括行人和车辆。同时该方法对图像也可以进行高质量的重建。


方法概述



如图二所示,对于一个动态驾驶场景,该方法建立一个高斯场景图来进行解耦建模,其中包含静态背景和各种运动物体,例如刚性的车辆和非刚性的行人、骑车人。方法对整个场景进行相机和激光雷达同时的模拟。对于相机图像数据,方法采用 2D 高斯基元(2D Gaussian primitives)的栅格化渲染。对于激光雷达数据,计算高斯球和射线的交点并构建光线追踪来进行模拟,结合反射强度(SH intensity)与射线丢弃概率(SH ray-drop probability)建模 LiDAR 的主动感知机制。


实验结果


Uni-Gaussians 在 Waymo 公开数据集上进行了评估。针对激光雷达数据,该工作采用 Chamfer Distance 和 F-score 来进行点云几何精度评估。并使用 RMSE、MedAE、LPIPS、SSIM 和 PSNR 来评估雷达测距性能和反射强度质量。同时实验报告了渲染的耗时和存储占用量。对于相机图像渲染质量,则采用了 SSIM 和 PSNR 进行评估。


点云对比



表一,展示该方法和 lidar 仿真 SOTA 方法的定量比较。加粗为最优结果,加下划线为次优结果。和之前的 SOTA 方法相比,该方法在所有指标上均表现出卓越的性能。证明了这种联合仿真的优势。与 DyNFL 和 LiDAR4D 相比,该方法的 CD 指标分别降低了 40.9% 和 46.7%,同时渲染耗时和计算内存消耗也大幅降低。下面图 3 和图 4 展示可视化效果,该方法能够准确而精细地模拟动态驾驶场景中的各种类型的可移动实体,展现出明显优势。


 


图像对比




如表二所示,对于图像,该方法能保持高质量的渲染质量。此外该方法在新视角下也能表现出优越的泛化性能。

综上所述,Uni-Gaussians 通过统一的高斯表征和分治渲染的方法,实现了一套视觉和雷达点云的联合仿真框架。该工作在点云和图像上均展现出强大的仿真性能,兼顾高效率和高质量,为行业提供了一套优秀的解决方案。

© THE END 
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]

简单来说,传统光线追踪就像用一根细针去扎气球,而高斯光线追踪就像用一团棉花去碰。Uni-Gaussians的高斯光线追踪能考虑到激光束的宽度和能量分布,模拟激光雷达的模糊性和范围。这很关键,因为实际的激光雷达数据不是完美的点,而是一堆杂乱的信息。

我觉得吧,任何模型都不能保证在所有数据集上都表现完美。不同的数据集有特定的偏差和分布。Uni-Gaussians在Waymo上牛,换个数据集可能就水土不服了。所以,最好还是针对特定应用场景选择合适的数据集进行评估和优化。

这玩意儿厉害了!可以大大缩短自动驾驶的研发周期。你想啊,以前要花大量时间跑路测,现在可以在仿真环境里模拟各种极端情况。除了仿真,我觉得还可以用在自动驾驶的教育和培训上,让新手司机在虚拟环境中学习和练习。

学术点说,高斯光线追踪是通过计算高斯球和射线的交点,并结合反射强度与射线丢弃概率来模拟LiDAR的主动感知机制。优势在于更精确地模拟激光脉冲的传播特性,从而提高LiDAR仿真的真实度。更真实的数据,能让自动驾驶算法训练的更好,避免现实中出现意外情况。

高斯光线追踪不像传统光线追踪那样模拟单一光线,而是模拟高斯分布的光束。它可以更精确地模拟激光雷达的物理特性,例如激光脉冲的传播和散射。优势在于能更好地模拟激光雷达的测量误差和噪声,使仿真结果更贴近真实情况,对自动驾驶系统的测试至关重要。

Waymo数据集规模很大,场景也比较丰富。如果在Waymo上表现优秀,迁移到其他数据集上,效果应该也不会太差。当然,不同数据集的特点不一样,如果在雨雪天气的数据集上做测试,可能需要针对性地进行调整。