论文解读: Learning to AutoFocus

Posted Matrix_11

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了论文解读: Learning to AutoFocus相关的知识,希望对你有一定的参考价值。

论文解读: Learning to AutoFocus (二)

前面介绍了 Learning to AutoFocus 这篇文章,这篇文章主要是基于深度学习的方式来实现自动对焦算法的,不过这篇文章的补充材料里面,也介绍了很多传统算法的自动对焦算法,总得来说,是基于反差的对焦技术和基于相位检测的对焦技术。

Contrast-Based Baseline Algorithms

基于反差的对焦算法,就是给定一组 n n n 张不同对焦距离下的图, I k , k ∈ 1 , 2 , . . . n I_k, k \\in \\ 1,2,...n \\ Ik,k1,2,...n,这样一组图像称为 focal stack,比较这组图像中,每幅图像的 contrast score ϕ \\phi ϕ,选择其中值最大的那个 focal slice 作为我们的目标,从而得到最佳的对焦距离,这篇文章列举了很多的评估 contrast score 的方法,刚好可以学习学习基于反差的对焦算法都有哪些评价方式:

Intensity Variance

最常用的一个指标是方差信息,很明显,如果对焦不清晰的话,图像会比较模糊,这个时候的方差会比较小,反之,如果图像比较清晰,那么方差会比较大:

ϕ = V a r ( I ) \\phi = Var(I) ϕ=Var(I)

Intensity Coefficient of Variation

这个指标,也是考虑对焦区域的变化程度,用标准差除以图像的均值:

ϕ = V a r ( I ) μ ( I ) \\phi = \\frac\\sqrtVar(I)\\mu(I) ϕ=μ(I)Var(I)

Total Variation (L1)

这个 TV 项简单来说,就是看图像的梯度的绝对值,梯度越大,对焦越清晰:

ϕ = ∑ x , y ∥ I [ x + 1 , y ] − I [ x , y ] ∥ + ∥ I [ x , y + 1 ] − I [ x , y ] ∥ \\phi = \\sum_x, y \\| I[x+1,y] - I[x, y] \\| + \\| I[x,y+1] - I[x, y] \\| ϕ=x,yI[x+1,y]I[x,y]+I[x,y+1]I[x,y]

Total Variation (L2)

这个是 TV 项的 L2 范数,就是梯度的平方和:

ϕ = ∑ x , y ( I [ x + 1 , y ] − I [ x , y ] ) 2 + ( I [ x , y + 1 ] − I [ x , y ] ) 2 \\phi = \\sum_x,y (I[x+1,y] - I[x, y])^2 + (I[x,y+1] - I[x, y])^2 ϕ=x,y(I[x+1,y]I[x,y])2+(I[x,y+1]I[x,y])2

Energy of Laplacian

这个评价方法就是利用拉普拉斯算子对图像做卷积,然后再求平方和。

ϕ = ∑ x , y Δ [ x , y ] 2 , Δ = I ∗ [ 0 1 0 1 − 4 1 0 1 0 ] \\phi = \\sum_x, y \\Delta[x,y]^2, \\quad \\Delta = I * \\beginbmatrix 0 & 1 & 0 \\\\ 1 & -4 & 1 \\\\ 0 & 1 & 0 \\endbmatrix ϕ=x,yΔ[x,y]2,Δ=I010141010

Laplacian Variance

这个评价方法是对拉普拉斯卷积后的图像求方差:

ϕ = V a r ( Δ [ x , y ] ) , Δ = I ∗ [ 0 1 0 1 − 4 1 0 1 0 ] \\phi = Var(\\Delta[x, y]),\\quad \\Delta = I * \\beginbmatrix 0 & 1 & 0 \\\\ 1 & -4 & 1 \\\\ 0 & 1 & 0 \\endbmatrix ϕ=Var(Δ[x,y]),Δ=I010141010

Sum of Modified Laplacian

这个也是基于拉普拉斯算子的:

ϕ = ∑ x , y Δ [ x , y ] , Δ = ∣ I ∗ L x ∣ + ∣ I ∗ L y ∣ \\phi = \\sum_x,y \\Delta[x, y], \\quad \\Delta = |I * L_x| + | I * L_y| ϕ=x,yΔ[x,y],Δ=ILx+ILy

L x = [ 0 0 0 1 − 2 1 0 0 0 ] , L y = L x T L_x = \\beginbmatrix 0 & 0 & 0 \\\\ 1 & -2 & 1 \\\\ 0 & 0 & 0 \\endbmatrix,\\quad L_y = L_x^T Lx=010020010Ly=LxT

Diagonal Laplacian

ϕ = ∑ x , y Δ [ x , y ] \\phi = \\sum_x, y \\Delta[x, y] ϕ=x,yΔ[x,y]

Δ = ∣ I ∗ L x ∣ + ∣ I ∗ L y ∣ + ∣ I ∗ L x y ∣ + ∣ I ∗ L y x ∣ \\Delta = |I * L_x| + | I * L_y| + | I * L_xy| + | I * L_yx| Δ=ILx+ILy+ILxy+ILyx

L x y = 1 2 [ 0 0 1 0 − 2 0 1 0 0 ] , L y x = L x y T L_xy = \\frac1\\sqrt2 \\beginbmatrix 0 & 0 & 1 \\\\ 0 & -2 & 0 \\\\ 1 & 0 & 0 \\endbmatrix , \\quad L_yx = L_xy^T Lxy=2以上是关于论文解读: Learning to AutoFocus的主要内容,如果未能解决你的问题,请参考以下文章

论文学习-《Learning to Compose with Professional Photographs on the Web》

Meta learning paper:Learning to learn by gradient descent by gradient descent (Nips2016)

论文解读(node2vec)《node2vec Scalable Feature Learning for Networks》

论文代码解读 Hierarchical Reinforcement Learning for Scarce Medical Resource Allocation

A Unified Deep Model of Learning from both Data and Queries for Cardinality Estimation 论文解读(SIGMOD 2

Adaptive Personalized Federated Learning 论文解读+代码解析