关于深度学习中卷积核操作

Posted 一年一度

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了关于深度学习中卷积核操作相关的知识,希望对你有一定的参考价值。

直接举例进行说明输出图片的长和宽。

输入照片为:32*32*3,

这是用一个Filter得到的结果,即使一个activation map。(filter 总会自动扩充到和输入照片一样的depth)。

当我们用6个5*5的Filter时,我们将会得到6个分开的activation maps,如图所示:

得到的“新照片”的大小为:28*28*6.

其实,每个卷积层之后都会跟一个相应的激活函数(activation functions):

微观上,假设现在input为7*7,Filter尺寸为3*3,output过程如下所示:

最终得到一个5*5的output。

假设,input为7*7,Filter尺寸为3*3,stride(步长)为2,则output过程如下所示:

最终得到一个3*3的output。

注:在这个例子中stride不能为3,因为那样就越界了。

总的来说

Output size=(N-F)/stride +1

当有填充(pad)时,例如对一个input为7*7进行pad=1填充,Filter为3*3,stride=1,会得到一个7*7的output。

Output size=(N-F+2*pad)/stride +1

注:0填充(pad)的主要目的是因为我们在前面的图中所示的那样,一直用5*5的Filter进行卷积,会导致体积收缩的太快,不利于特征的提取。

举例说明:

在这里要注意一下1*1的卷积核,为什么呢?

举例:一个56*56*64的input,用32个1*1的卷积核进行卷积(每一个卷积核的尺寸为1*1*64,执行64维的点乘操作),将得到一个56*56*32的output,看到输出的depth减少了,也就是降维,那么parameters也会相应的减少。

下面介绍一下Pooling(池化)操作:

将represention变小,易于操作和控制,对每一个activation map单独进行操作。

用的最多的是最大池化(MAX POOLING):

Output size=(N-F)/S +1

以上是关于关于深度学习中卷积核操作的主要内容,如果未能解决你的问题,请参考以下文章

深度学习面试题15:卷积核需要旋转180度

深度学习——1×1卷积核理解

opencv学习-深度卷积神经网络

深度学习聊一聊什么是卷积神经网络,卷积是什么意思?

深度学习面试题16:小卷积核级联卷积VS大卷积核卷积

深度学习面试题16:小卷积核级联卷积VS大卷积核卷积