论文解读: Learning to AutoFocus
Posted Matrix_11
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了论文解读: Learning to AutoFocus相关的知识,希望对你有一定的参考价值。
论文解读: Learning to AutoFocus (二)
前面介绍了 Learning to AutoFocus 这篇文章,这篇文章主要是基于深度学习的方式来实现自动对焦算法的,不过这篇文章的补充材料里面,也介绍了很多传统算法的自动对焦算法,总得来说,是基于反差的对焦技术和基于相位检测的对焦技术。
Contrast-Based Baseline Algorithms
基于反差的对焦算法,就是给定一组 n n n 张不同对焦距离下的图, I k , k ∈ 1 , 2 , . . . n I_k, k \\in \\ 1,2,...n \\ Ik,k∈1,2,...n,这样一组图像称为 focal stack,比较这组图像中,每幅图像的 contrast score ϕ \\phi ϕ,选择其中值最大的那个 focal slice 作为我们的目标,从而得到最佳的对焦距离,这篇文章列举了很多的评估 contrast score 的方法,刚好可以学习学习基于反差的对焦算法都有哪些评价方式:
Intensity Variance
最常用的一个指标是方差信息,很明显,如果对焦不清晰的话,图像会比较模糊,这个时候的方差会比较小,反之,如果图像比较清晰,那么方差会比较大:
ϕ = V a r ( I ) \\phi = Var(I) ϕ=Var(I)
Intensity Coefficient of Variation
这个指标,也是考虑对焦区域的变化程度,用标准差除以图像的均值:
ϕ = V a r ( I ) μ ( I ) \\phi = \\frac\\sqrtVar(I)\\mu(I) ϕ=μ(I)Var(I)
Total Variation (L1)
这个 TV 项简单来说,就是看图像的梯度的绝对值,梯度越大,对焦越清晰:
ϕ = ∑ x , y ∥ I [ x + 1 , y ] − I [ x , y ] ∥ + ∥ I [ x , y + 1 ] − I [ x , y ] ∥ \\phi = \\sum_x, y \\| I[x+1,y] - I[x, y] \\| + \\| I[x,y+1] - I[x, y] \\| ϕ=x,y∑∥I[x+1,y]−I[x,y]∥+∥I[x,y+1]−I[x,y]∥
Total Variation (L2)
这个是 TV 项的 L2 范数,就是梯度的平方和:
ϕ = ∑ x , y ( I [ x + 1 , y ] − I [ x , y ] ) 2 + ( I [ x , y + 1 ] − I [ x , y ] ) 2 \\phi = \\sum_x,y (I[x+1,y] - I[x, y])^2 + (I[x,y+1] - I[x, y])^2 ϕ=x,y∑(I[x+1,y]−I[x,y])2+(I[x,y+1]−I[x,y])2
Energy of Laplacian
这个评价方法就是利用拉普拉斯算子对图像做卷积,然后再求平方和。
ϕ = ∑ x , y Δ [ x , y ] 2 , Δ = I ∗ [ 0 1 0 1 − 4 1 0 1 0 ] \\phi = \\sum_x, y \\Delta[x,y]^2, \\quad \\Delta = I * \\beginbmatrix 0 & 1 & 0 \\\\ 1 & -4 & 1 \\\\ 0 & 1 & 0 \\endbmatrix ϕ=x,y∑Δ[x,y]2,Δ=I∗⎣⎡0101−41010⎦⎤
Laplacian Variance
这个评价方法是对拉普拉斯卷积后的图像求方差:
ϕ = V a r ( Δ [ x , y ] ) , Δ = I ∗ [ 0 1 0 1 − 4 1 0 1 0 ] \\phi = Var(\\Delta[x, y]),\\quad \\Delta = I * \\beginbmatrix 0 & 1 & 0 \\\\ 1 & -4 & 1 \\\\ 0 & 1 & 0 \\endbmatrix ϕ=Var(Δ[x,y]),Δ=I∗⎣⎡0101−41010⎦⎤
Sum of Modified Laplacian
这个也是基于拉普拉斯算子的:
ϕ = ∑ x , y Δ [ x , y ] , Δ = ∣ I ∗ L x ∣ + ∣ I ∗ L y ∣ \\phi = \\sum_x,y \\Delta[x, y], \\quad \\Delta = |I * L_x| + | I * L_y| ϕ=x,y∑Δ[x,y],Δ=∣I∗Lx∣+∣I∗Ly∣
L x = [ 0 0 0 1 − 2 1 0 0 0 ] , L y = L x T L_x = \\beginbmatrix 0 & 0 & 0 \\\\ 1 & -2 & 1 \\\\ 0 & 0 & 0 \\endbmatrix,\\quad L_y = L_x^T Lx=⎣⎡0100−20010⎦⎤,Ly=LxT
Diagonal Laplacian
ϕ = ∑ x , y Δ [ x , y ] \\phi = \\sum_x, y \\Delta[x, y] ϕ=x,y∑Δ[x,y]
Δ = ∣ I ∗ L x ∣ + ∣ I ∗ L y ∣ + ∣ I ∗ L x y ∣ + ∣ I ∗ L y x ∣ \\Delta = |I * L_x| + | I * L_y| + | I * L_xy| + | I * L_yx| Δ=∣I∗Lx∣+∣I∗Ly∣+∣I∗Lxy∣+∣I∗Lyx∣
L x y = 1 2 [ 0 0 1 0 − 2 0 1 0 0 ] , L y x = L x y T L_xy = \\frac1\\sqrt2 \\beginbmatrix 0 & 0 & 1 \\\\ 0 & -2 & 0 \\\\ 1 & 0 & 0 \\endbmatrix , \\quad L_yx = L_xy^T Lxy=2以上是关于论文解读: Learning to AutoFocus的主要内容,如果未能解决你的问题,请参考以下文章
论文学习-《Learning to Compose with Professional Photographs on the Web》
Meta learning paper:Learning to learn by gradient descent by gradient descent (Nips2016)
论文解读(node2vec)《node2vec Scalable Feature Learning for Networks》
论文代码解读 Hierarchical Reinforcement Learning for Scarce Medical Resource Allocation
A Unified Deep Model of Learning from both Data and Queries for Cardinality Estimation 论文解读(SIGMOD 2