论文泛读NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
Posted 风信子的猫Redamancy
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了论文泛读NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis相关的知识,希望对你有一定的参考价值。
NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis | NeRF: 用于视图合成的神经辐射场的场景表示 | 2020年
出自文献:Mildenhall B, Srinivasan P P, Tancik M, et al. Nerf: Representing scenes as neural radiance fields for view synthesis[C]//European Conference on Computer Vision. Springer, Cham, 2020: 405-421.
摘要
- 我们提出一种方法,使用较少的视图(view)作为输入,对一个连续、隐含的体积场景函数(volumetric scene function)进行优化,从而实现了关于复杂场景的新视图合成的最先进的结果。
- 我们的算法用全连接深度网络来表示场景,其输入是 5D 坐标:空间位置 ( x , y , z ) (x,y,z) (x,y,z) 和视角方向(viewing direction)$ (θ,ϕ)$;其输出是体积密度(volume density)和该空间位置上发射出来的辐射亮度(radiance,与视角相关)。
- 通过沿着相机光线(camera rays)获取 5D 坐标,使用经典的立体渲染(volume rendering)技术,我们将输出的颜色和密度投影到图像上,从而实现视图合成。
- 由于立体渲染是可导的,神经网络的优化,只需要提供一系列确定相机位姿的图像。
1 介绍
-
我们的工作,用新的方法解决了在
视图合成(view synthesis)
中长期以来的问题。
- 我们直接优化一个连续的 5D 场景表示(scene representation)的参数(网络权重),根据捕获到图像,最小化渲染误差。
- 我们把静态场景表示为连续的 5D 函数(指输入是 5D ),输出在各个空间点 ( x , y , z ) (x,y,z) (x,y,z) 和各个方向 ( θ , ϕ ) (θ,ϕ) (θ,ϕ) 发射出来的辐射亮度和密度(就像可导的透明度,控制穿过 ( x , y , z ) (x,y,z) (x,y,z) 的射线,可以累加多少辐射亮度)。
- 我们的方法是优化一个深度全连接的神经网络,没有用到卷积层,全连接神经网络又称多层感知器(MLP);我们用这个 MLP 来表示这样的函数:根据一个 5D 坐标 ( x , y , z , θ , ϕ ) (x,y,z,θ,ϕ) (x,y,z,θ,ϕ),回归输出一个体积密度和视角相关的 RGB 颜色。
-
整个流水线如下图所示:
- 为了根据某一视角(viewpoint),渲染出这个神经辐射场(Neural Radiance Field, NeRF),我们:
-
- 使相机光线穿过场景,生成一组 3D 采样点;
- 让这些 3D 点和对应的 3D 视角方向作为神经网络的输入,生成一组颜色和密度;
- 使用经典的立体渲染技术,累加这些颜色和密度,得到 2D 图像。
- 由于以上过程是可导的,我们可以使用梯度下降来优化模型,最小化
观测图像
与模型回归计算的图像
之间的误差。- 这可以鼓励神经网络学习的场景模型具有一致性(coherent),即在包含场景内容的位置,可以得到较大的体积密度,和准确的颜色。
- 我们发现对于复杂的场景,用简单的方法优化 NeRF 效果不理想:
- 很难得到高分辨率的收敛结果;
- 也不能高效利用相机光线所需的采样点。
- 于是,我们这样解决以上问题:
- 用一个位置编码(positional encoding)对输入 5D 坐标进行变换,使得 MLP 可以表示高频函数;
- 提出层次化的采样流程(hierarchical sampling procedure),减少所需的采样点。
- 我们的方法保留了体积表示的优点:
- 可以表示复杂的几何和外观;
- 可以通过投影图像进行梯度下降的优化。
- 重要的是,我们的方法克服了体积表示的一个关键问题:在表示高分辨率的复杂场景时,离散的体素网格的存储空间成本非常高。
- 总结下来,本文的贡献如下:
- 包含复杂几何和材质的连续场景的表示方法:使用参数化为 MLP 的 5D 神经辐射场;
- 基于立体渲染技术的可导的渲染流程,用于网络的优化。其中还包括层次化的采样策略,专注于可见的场景内容(visible scene content),充分利用了 MLP 的容量。
- 使用位置编码,将输入 5D 坐标映射到更高维的空间,让 NeRF 可以学习表示高频的场景内容。
2 相关工作
3 神经辐射场的场景表示
我们把一个连续的场景表示为一个 5D 向量值函数(vector-valued function):
- 输入是 3D 位置 x = ( x , y , z ) x=(x,y,z) x=(x,y,z) 和 2D 视角方向 ( θ , ϕ ) (θ,ϕ) (θ,ϕ)
- 输出是发射颜色 c = ( r , g , b ) c=(r,g,b) c=(r,g,b) 和体积密度 σ σ σ。
在实际中,我们把视角方向表示为 3D 笛卡尔单位向量
d
d
d。我们用一个 MLP 网络来近似这个连续的 5D 场景表示:
F
Θ
:
(
x
,
d
)
→
(
c
,
σ
)
F_\\Theta:(\\mathbfx, \\mathbfd) \\rightarrow(\\mathbfc, \\sigma)
FΘ:(x,d)→(c,σ)
我们优化该网络的权重,使之对于每个输入 5D 坐标,都会得到对应的密度和有方向的发射颜色。
我们约束了预测体积密度 σ 的网络的输入仅仅是位置 X,而预测 RGB 颜色 C 的网络的输入是位置和视角方向,通过这种方式可以鼓励网络学习到多视角连续的表示。
- 在具体实现上,MLP F Θ F_\\Theta FΘ 首先用 8 层的全连接层(使用 ReLU 激活函数,每层有 256 个通道),处理 3D 坐标 x x x,得到 σ σ σ 和一个 256 维的特征向量。
- 这个 256 维的特征向量,与视角方向一起拼接起来,喂给另一个全连接层(使用 ReLU 激活函数,每层有 128 个通道),输出方向相关的 RGB 颜色。
图 3 可以观察到,我们的方法可以表示出非朗伯体效应(non-Lambertian effects)。从图 4 可以观察到,如果训练模型时没有视角的依赖(只有 X 一个输入),那么模型会很难表示出高光(specularity)。
4 辐射场的立体渲染
我们的 5D 神经辐射场把场景表示为:任意空间点上的体积密度和有方向的辐射亮度。使用经典的立体渲染的原理,我们可以渲染出任意射线穿过场景的颜色。体积密度
σ
(
x
)
σ(x)
σ(x) 可以解释为:光线停留在位置 X� 处的无穷小粒子的可导概率。在最近和最远边界为
t
n
t_n
tn 和
t
f
t_f
tf 的条件下,相机光线
r
(
t
)
=
o
+
t
d
r(t)=o+td
r(t)=o+td 的颜色
C
(
r
)
C(r)
C(r)为:
C
(
r
)
=
∫
t
n
t
f
T
(
t
)
σ
(
r
(
t
)
)
c
(
r
(
t
)
,
d
)
d
t
,
where
T
(
t
)
=
exp
(
−
∫
t
n
t
σ
(
r
(
s
)
)
d
s
)
\\beginequation C(\\mathbfr)=\\int_t_n^t_f T(t) \\sigma(\\mathbfr(t)) \\mathbfc(\\mathbfr(t), \\mathbfd) d t, \\text where T(t)=\\exp \\left(-\\int_t_n^t \\sigma(\\mathbfr(s)) d s\\right) \\endequation
C(r)=∫tntfT(t)σ(r(t))c(r(t),d)dt, where T(t)=exp(−∫tntσ(r(s))ds)
函数 $T(t) $表示沿着光线从 t n t_n tn 到 t t t 所累积的透明度(accumulated transmittance) ,即 光线从 t n t_n tn 出发到 t t t,穿过该路径的概率。视图的渲染需要求这个积分 C ( r ) C(r) C(r),它是就是虚拟相机穿过每个像素的相机光线,所得到的颜色。
我们使用求积法(quadrature)进行积分的数值求解。确定性的求积分不太适合 MLP,我们采用的是**分层抽样(stratified sampling)**的方法。我们把
[
t
n
,
t
f
]
[t_n,t_f]
[tn,tf]分成均匀分布的小区段,接着对每个小区段进行均匀采样:
t
i
∼
U
[
t
n
+
i
−
1
N
(
t
f
−
t
n
)
,
t
n
+
i
N
(
t
f
−
t
n
)
]
\\beginequation t_i \\sim \\mathcalU\\left[t_n+\\fraci-1N\\left(t_f-t_n\\right), t_n+\\fraciN\\left(t_f-t_n\\right)\\right] \\endequation
ti∼U[tn+Ni−1(tf−tn),tn+Ni(tf−tn)]
我们使用采样的样本,用积分法则来计算
C
(
r
)
C(r)
C(r):
C
^
(
r
)
=
∑
i
=
1
N
T
i
(
1
−
exp
(
−
σ
i
δ
i
)
)
c
i
,
where
T
i
=
exp
(
−
∑
j
=
1
i
−
1
σ
j
δ
j
)
\\beginequation \\hatC(\\mathbfr)=\\sum_i=1^N T_i\\left(1-\\exp \\left(-\\sigma_i \\delta_i\\right)\\right) \\mathbfc_i, \\text where T_i=\\exp \\left(-\\sum_j=1^i-1 \\sigma_j \\delta_j\\right) \\endequation
C^(r)=i=1∑NTi(1−exp(−σiδi))ci, where Ti=论文阅读:NeRF Representing Scenes as Neural Radiance Fields for View Synthesis
文献翻译阅读-NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
论文阅读《Block-NeRF: Scalable Large Scene Neural View Synthesis》