关于深度学习中卷积核操作
Posted 一年一度
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了关于深度学习中卷积核操作相关的知识,希望对你有一定的参考价值。
直接举例进行说明输出图片的长和宽。
输入照片为:32*32*3,
这是用一个Filter得到的结果,即使一个activation map。(filter 总会自动扩充到和输入照片一样的depth)。
当我们用6个5*5的Filter时,我们将会得到6个分开的activation maps,如图所示:
得到的“新照片”的大小为:28*28*6.
其实,每个卷积层之后都会跟一个相应的激活函数(activation functions):
微观上,假设现在input为7*7,Filter尺寸为3*3,output过程如下所示:
最终得到一个5*5的output。
假设,input为7*7,Filter尺寸为3*3,stride(步长)为2,则output过程如下所示:
最终得到一个3*3的output。
注:在这个例子中stride不能为3,因为那样就越界了。
总的来说
Output size=(N-F)/stride +1
当有填充(pad)时,例如对一个input为7*7进行pad=1填充,Filter为3*3,stride=1,会得到一个7*7的output。
Output size=(N-F+2*pad)/stride +1
注:0填充(pad)的主要目的是因为我们在前面的图中所示的那样,一直用5*5的Filter进行卷积,会导致体积收缩的太快,不利于特征的提取。
举例说明:
在这里要注意一下1*1的卷积核,为什么呢?
举例:一个56*56*64的input,用32个1*1的卷积核进行卷积(每一个卷积核的尺寸为1*1*64,执行64维的点乘操作),将得到一个56*56*32的output,看到输出的depth减少了,也就是降维,那么parameters也会相应的减少。
下面介绍一下Pooling(池化)操作:
将represention变小,易于操作和控制,对每一个activation map单独进行操作。
用的最多的是最大池化(MAX POOLING):
Output size=(N-F)/S +1
以上是关于关于深度学习中卷积核操作的主要内容,如果未能解决你的问题,请参考以下文章