论文笔记:Depth-supervised NeRF: Fewer Views and Faster Training for Free

Posted BlueagleAI

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了论文笔记:Depth-supervised NeRF: Fewer Views and Faster Training for Free相关的知识,希望对你有一定的参考价值。

中文标题:深度信息监督的神经辐射场:需要更少的视角并且更快的训练

解决的问题:

  • 在缺少视野的情况下,神经辐射场不能拟合正确的几何结构。

创新点

  • NeRF的第一步需要对场景图像做SFM(structure from motions),这个过程不光会获得场景间的位姿变换信息,同时会获得一部分特征点的“免费”深度。
  • 使用这些深度信息引导NeRF学习场景几何信息。
  • 设计了一个损失函数鼓励射线终止位置的分布符合3D关键点。

解决方案

由深度监督的射线终止位置

终止位置分布分析

  • 根据NeRF的积分公式,近表面深度为D的图像点的理想射线分布为 δ ( t − D ) \\delta (t - D) δ(tD)
    #### 深度建模及监督
  • (a) 即便绘制出的体密度在穿过多个物体后可能是多峰的,但终止分布仍会是单峰的。
  • (b) 如果在缺乏场景数量的情况下,NeRF有可能学习出多峰(3D结构不清晰)。
  • (c ) NeRF 会随着训练视场数增加而更多呈现出单峰趋势(学习了准确的3D结构)。

深度建模及监督

  • 将射线遇到的第一个表面位置建模为随机变量 D i j \\mathbb D_ij Dij, 该变量正态分布在COLMAP估计的深度 D i j D_ij Dij周围,方差为 σ ^ i \\hat\\sigma_i σ^i: D i j ∼ N ( D i j , σ ^ i ) \\mathbb D_ij \\thicksim \\mathbb N(D_ij,\\hat\\sigma_i) DijN(Dij,σ^i)
  • 最终目标是减少渲染权重和加噪深度分布的KL散度

    ![在这里插入图片描述](https://img-blog.csdnimg.cn/8cfdd877ae9141ce884a493d9b4ee7b1.png#pic_center

KL散度(Kullback-Leibler divergence):又称为相对熵,衡量两个概率分布的相似性,用 D K L ( P ∣ ∣ Q ) 表示 D_KL(P||Q)表示 DKL(P∣∣Q)表示,参考机器学习:KL散度详解

  • 射线分布损失

  • List item

参考文献

Deng K, Liu A, Zhu J Y, et al. Depth-supervised nerf: Fewer views and faster training for free[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 12882-12891.

以上是关于论文笔记:Depth-supervised NeRF: Fewer Views and Faster Training for Free的主要内容,如果未能解决你的问题,请参考以下文章

论文解读系列NER方向:W2NER (AAAI 2022)

论文解读系列NER方向:W2NER (AAAI 2022)

论文解读系列NER方向:FGN (2020)

论文解读系列NER方向:FGN (2020)

论文解读:ACL2021 NER | 基于模板的BART命名实体识别

论文解读系列NER方向:FLAT (ACL 2020)