第二节:什么是卷积神经网络
Posted 快乐江湖
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了第二节:什么是卷积神经网络相关的知识,希望对你有一定的参考价值。
文章目录
一:为什么DNN不适合图像处理
(1)图像的空间信息被丢失(不具备空间不变性)
图像数据本身就有十分丰富的结构,但无奈的是DNN输入的是向量,并不能考虑到图像的结构信息,比如两张相互镜像的图像,他们本质并无区别,但其输入向量却有很大差距。所以DNN不具备空间不变形,具体来说它体现在
-
平移不变性(translation invariance):不管检测对象出现在图像中的哪个位置,神经网络的前面几层应该对相同的图像区域具有相似的反应,即为“平移不变性”
- 如下图,全连接层需要检测图像中物体各种可能的平移,所以会涉及太大参数,而且由于不具有这种性质,所以在给出一种新的位置时很难进行泛化
- 如下图,全连接层需要检测图像中物体各种可能的平移,所以会涉及太大参数,而且由于不具有这种性质,所以在给出一种新的位置时很难进行泛化
-
局部性(locality):神经网络的前面几层应该只探索输⼊图像中的局部区域,而不过度在意图像中相隔较远区域的关系,这就是“局部性”原则。最终,可以聚合这些局部特征,以在整个图像级别进行预测
(2)参数爆炸
例如有一张32×32的RGB图片,如果使用全连接层,那么一张图片就会有32×32×3=3072个特征,使用下面的由全连接层和激活函数所组成的网络作为模型
但是我们可以看到,最后的参数数目竟然有370万个,如果这个图片大小为1024×1024的话,那么就会有将近30亿个参数,这是很恐怖的,而且这只是参数,更不用说计算和存储梯度了
参数太多会导致难以训练,效率态度,并且也会很快发生过拟合,使泛化能力降低
二:什么是卷积神经网络
卷积神经网络CNN:CNN是一种以卷积层为主的深度神经网络
层次结构 | 作用 |
---|---|
输入层 | CNN的原始输入,可以是原始或预处理后的像素矩阵 |
卷积层 | 参数共享、局部连接、利用平移不变性从全局特征图中提取局部特征 |
激活层 | 将卷积层的输出结构进行非线性映射 |
池化层 | 进一步筛选特征,可以有效减少后续网络层次所需要的参数数量 |
全连接层 | 将多维特征展开成二维特征,此时通常会对应类别或回归值 |
三:CNN应用
图像分类和检索:图像分类是比较基础的应用,他可以节省大量的人工成本,将图像进行有效的分类。对于一些特定领域的图片,分类的准确率可以达到 95%+
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-LOgwzddM-1675127704329)(image/第四章第二节:什么是卷积神经网络/image-20230131091336600.png)]
目标检测:可以在图像中定位目标,并确定目标的位置及大小
图像分割:可以对前景和背景进行像素级的区分、再高级一点还可以识别出目标并且对目标进行分类,例如抠图
图像描述
以上是关于第二节:什么是卷积神经网络的主要内容,如果未能解决你的问题,请参考以下文章