卷积神经网络深度卷积网络:实例探究

Posted orangecyh

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了卷积神经网络深度卷积网络:实例探究相关的知识,希望对你有一定的参考价值。

1、经典网络:

(1)LeNet-5:识别手写数字

技术图片

 

(2)AlexNet:

技术图片

 

(3)VGG-16:

技术图片

技术图片

 

2、Residual networks(ResNets 残差网络):

(1)Residual block(残差块):

技术图片

技术图片

 多个残差块构成一个残差网络:

技术图片

 

(2)残差网络的优势:

理论上,随着神经网络的深入,训练误差会越来越小,但实际上,层数越多训练的难度越大,因此层数过多误差也会增大. 但残差网络适用于深层的神经网络,误差随着层数的增多而减小.

技术图片

 

(3)为什么残差网络性能更好?

技术图片

 

3、网络中的网络和1*1卷积:

(1)作用:

对于二维效果不佳,仅仅是矩阵乘数字:

技术图片

 对于三维,实现了多个通道乘积再求和的功能:

技术图片

 

(2)应用:压缩 nC

使用32个1*1卷积,将192通道压缩为32通道.

技术图片

 

4、Inception网络:

(1)作用:决定过滤器的大小.

 

(2)Inception块:

将各个可能使用的过滤器合并,让系统自行学习并选择合适的过滤器.

技术图片

以28*28*32块为例,说明 computational cost 问题:

技术图片

乘法计算次数:28*28*32*5*5*192 ≈ 120 Million

而使用了1*1卷积压缩后:中间的层成为“bottleneck layer”,即瓶颈层.

技术图片

乘法计算次数:2*28*16*192 + 28*28*32*5*5*16 ≈ 2.4 Million + 10.0 Million = 12.4 Million

 

(3)Inception模块:

技术图片

组成Inception网络:

技术图片

以上是关于卷积神经网络深度卷积网络:实例探究的主要内容,如果未能解决你的问题,请参考以下文章

吴恩达《深度学习》第四门课卷积神经网络:实例探究

深度学习——深卷积网络:实例探究

深度学习——1×1卷积核理解

1×1卷积核理解

深度神经网络中的卷积

卷积神经网络(第二周:深度神经网络)