对于卷积层得新的理解

Posted lllcccddd

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了对于卷积层得新的理解相关的知识,希望对你有一定的参考价值。

卷积层得参数:

in * kernelw * kernel *c:

可以理解为全连接,我们可以把一个饼状图当做一个节点,

如果把一个饼,也就是一个kernel*kernel(例:2*2)当做一个节点,那么这个参数层也就是  in * 1 * out

那么这个所谓的in * 1 *out 不就是全连接里面的w吗!w的参数刚好就是前面的节点乘后面的节点的个数!

 

继续理解,那么每个

总共20个channel

img1(w*h*1(此处的1可以表示为channel为1)),img2(w*h*1),img3(w*h*1)...img20

这是输入层

参数就是

kernel(k*k)        

kernel(k*k)

.

.

.

总共20层

 

此时如果输出是30个channel

那么这个参数量就是20*k*k*30,所以,其实就是全连接,只不过每个点变成了每个feature,每个w从一个值变成了一个kernel*kernel

这样做的目的和好处:以前一个featutemap可能是10*10的点,那么对应的可能就是100个参数,现在一个2*2就能行,大大节省了参数,但是说实话,表达效果肯定不如全连接,只是参数变少了很多

然后这么做的可行性,

其实滑动就是对比:怎么理解

还有就是一个channel就是一个特征,可以类似全连接,即上一层所有特征都只生产新的一个特征,这就是新的一个通道,怎么加工?

 

以上是关于对于卷积层得新的理解的主要内容,如果未能解决你的问题,请参考以下文章

对于CNN中卷积的一些理解

四层与七层得区别(转)

关于卷积的一些理解

对于卷积的粗浅理解

通俗易懂理解卷积

卷积神经网络CNNs的理解与体会