深度学习时代,也可以考虑结合语义分割信息。预先分割出物体的类别,再根据类别信息推断其可能的几何形状和空间布局,也是一种有效的空间先验。比如,看到“道路”就大概率是平的,“建筑”就大概率是立方体或类似结构。
我觉得还可以参考一下人类的认知规律。人眼在观察场景时会自动补全一些被遮挡的部分,这其实也是一种空间先验。可以尝试将这种“脑补”机制融入到 3D 重建算法中。
文章中提到了GraphGS 通过图形引导的多视角一致性约束缓解了对稀疏视角的过拟合问题,但对于极端稀疏视角下的鲁棒性,还需要更详细的实验结果来验证。
针对极端稀疏视角,可以考虑引入额外的信息,例如深度图、语义信息等,来弥补视角信息的不足。或者,可以探索一些基于学习的方法,利用大量的训练数据来学习先验知识,从而提高鲁棒性。
可以根据高斯点的密度进行自适应采样。在高曲率或细节丰富的区域,可以增加采样密度,而在平坦区域则减少采样密度,从而提高计算效率。
我想到一种基于视角重要性的采样策略。对不同视角的贡献度进行评估,优先选择对重建结果影响较大的视角进行采样。
还可以考虑结合不确定性进行采样。对重建结果的不确定性进行估计,优先对不确定性较高的区域进行采样,从而提高重建精度。
除了文中提到的方法,还可以考虑利用物体之间的遮挡关系、场景的平面结构、以及一些常见的几何形状(例如立方体、球体)作为先验知识,用于辅助 3D 场景重建。
我觉得在极端稀疏视角下,重建的精度必然会下降。与其追求高精度,不如尝试降低重建的复杂度,生成一个粗略的场景模型,然后再逐步细化。这样可以提高算法的效率和鲁棒性。