论文阅读《Point NeRF:Point-based Neural Radiance Fileds》

Posted CV科研随想录

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了论文阅读《Point NeRF:Point-based Neural Radiance Fileds》相关的知识,希望对你有一定的参考价值。

论文地址:https://arxiv.org/abs/2201.08845
源码地址:https://xharlie.github.io/projects/project_sites/pointnerf


概述

  体素神经渲染的方法生成高质量的结果非常耗时,且对不同场景需要重新训练(模型不具备泛化能力),而基于MVS的方法可以快速重建场景。Point NeRF结合了两种方法的优点,通过在基于光线进行的渲染管道中聚合场景表面附近的神经点特征来有效渲染。Point NeRF与可以与其他 3D 重建方法结合,并使用一种新的剪枝与生长机制来处理此类方法中的错误与异常值,其重建方法比NeRF提升了30倍。


Point-NeRF 场景表示

体渲染与辐射场

  经典的体渲染模型可以通过沿着可微的光线来计算预测的结果,如式1所示:
c = ∑ M τ j ( 1 − exp ⁡ ( − σ j Δ j ) ) r j , τ j = exp ⁡ ( − ∑ t = 1 j − 1 σ t Δ t ) . (1) \\beginaligned c & =\\sum_M \\tau_j\\left(1-\\exp \\left(-\\sigma_j \\Delta_j\\right)\\right) r_j, \\\\ \\tau_j & =\\exp \\left(-\\sum_t=1^j-1 \\sigma_t \\Delta_t\\right) . \\endaligned\\tag1 cτj=Mτj(1exp(σjΔj))rj,=exp(t=1j1σtΔt).(1)
其中 τ \\tau τ 表示透过率, σ j \\sigma_j σj 表示每个点的体密度, r j r_j rj 表示点的颜色 , Δ \\Delta Δ 表示相邻采样点之间的距离。
辐射场是使用每个点的3D坐标与方向信息来表示空间中点的颜色与不透明度的一种方式。NeRF使用空间点的坐标与方向信息来回归辐射场。

基于点云的辐射场

  神经点云表示为 P = ( p i , f i , γ i ) ∣ i = 1 , . . . , N P=\\(p_i, f_i, \\gamma_i)|i=1, ...,N\\ P=(pi,fi,γi)i=1,...,N ,其中 p i p_i pi 表示空间点的位置, f i f_i fi 表示的局部场景信息的特征向量, γ i ∈ [ 0 , 1 ] \\gamma_i\\in[0,1] γi[0,1] 表示点的置信度(点在物体表明的概率),Point NeRF使用神经点云来回归辐射场。

  给定任意 3D 点的位置 x x x ,得到半径为 R R R 的范围内的 K K K 个邻域神经点。Point-NeRF可以被抽象为一个神经模块——任意点沿着任意方向从邻域点K回归出对应的 σ \\sigma σ (不透明度)与 r r r (RGB值):
( σ , r ) =  Point - NeRF ⁡ ( x , d , p 1 , f 1 , γ 1 , … , p K , f K , γ K ) (2) (\\sigma, r)=\\text Point - \\operatornameNeRF\\left(x, d, p_1, f_1, \\gamma_1, \\ldots, p_K, f_K, \\gamma_K\\right)\\tag2 (σ,r)= Point -NeRF(x,d,p1,f1,γ1,,pK,fK,γK)(2)
PointNeRF使用类似PointNet的多层MLP结构来回归辐射场。

Per-Point processing:使用基于MLP的F来对 x x x 的邻域神经点处理,得到表示 x x x 位置的特征向量:
f i , x = F ( f i , x − p i ) (3) f_i, x=F(f_i, x-p_i)\\tag3 fi,x=F(fi,xpi)(3)
使用了相对位置信息 x − p i x-p_i xpi 有利于提高模型的泛化能力。
View-dependent radiance regression: 对邻域内神经点的特征向量进行加权得到表示位置 x x x 的特征向量:
f x = ∑ i γ i w i ∑ w i f i , x , where  w i = 1 ∥ p i − x ∥ .  (4) f_x=\\sum_i \\gamma_i \\fracw_i\\sum w_i f_i, x \\text , where w_i=\\frac1\\left\\|p_i-x\\right\\| \\text . \\tag4 fx=iγiwiwifi,x, where wi=pix1(4)
其中 γ i \\gamma_i γi i i i 点的置信度。
  使用基于MLP的 R R R 来回归得到 x x x 位置关于 d d d 方向的RGB值:
r = R ( f x , d ) (5) r = R(f_x, d)\\tag5 r=R(fx,d)(5)
Density regression:使用基于MLP的 T T T 来回归不透明度,并使用邻域点的不透明度进行加权,如式6所示:
σ i = T ( f i , x ) σ = ∑ i σ i γ i w i ∑ w i , w i = 1 ∥ p i − x ∥ (6) \\beginaligned \\sigma_i & =T\\left(f_i, x\\right) \\\\ \\sigma & =\\sum_i \\sigma_i \\gamma_i \\fracw_i\\sum w_i, w_i=\\frac1\\left\\|p_i-x\\right\\| \\endaligned\\tag6 σiσ=T(fi,x)=i论文阅读CVPR 2019| PointPillars: 基于点云的快速编码目标检测框架(Fast Encoders for Object Detection from Point Clouds)(代

CSP:Object as Point同会议论文,相似思想用于人脸和行人检测 | CVPR 2019

AirVO: An Illumination-Robust Point-Line Visual Odometry 论文笔记

论文解读:SuperPoint: Self-Supervised Interest Point Detection and Description

论文笔记Leveraging Line-point Consistence to Preserve Structures for Wide Parallax Image Stitching

论文笔记Leveraging Line-point Consistence to Preserve Structures for Wide Parallax Image Stitching