卷积神经网络——缘起
Posted 攀言
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了卷积神经网络——缘起相关的知识,希望对你有一定的参考价值。
在图像识别领域,卷积神经网络(CNN)可谓“甚嚣尘上”,我准备通过一系列文章把卷积神经网络的谜团完全揭开。就从最基础的开始吧!
任何一个概念的提出必然有它的缘由,那么就先从最基本的多层神经网络谈起吧。请仔细看分析(本图是个略图,只包含一个隐层):
假设有一个MNIST手写数字识别的数据集的一个图像,它的大小为28x28,其输入层的节点个数为28x28=784个,假设第二层的隐层的节点个数为1000个,那么,输入层到隐层的权重W为784x1000的矩阵,输入层到隐层的偏置b为1x1000的向量,对于手写识别的MNIST数据集,其输出层的节点个数为10,因此,从隐层到输出层的权重W为1000x10,隐层到输出层的偏置b为1x10的向量。也就是说,上图所示的只包含1个隐层的神经网络结构,其参数的个数为:784x1000+1x1000+1000x10+1x10=795010,看到了吧!仅仅一张非常小的图像,在仅包含一个隐层的神经网络结构中就需要学习将近80万个参数!!!更不用提更大的图片和更复杂的神经网络结构了!!!
那么,是否存在一种深层的神经网络模型,在该神经网络模型中,其参数个数能够得到削减,但是不影响其模型的精度?这时,卷积神经网路(Convolutional Neural Networks,CNN)就出现了!
这就是CNN出现的原因,CNN的原理是啥?核心概念有哪些?明日再写。
加油
以上是关于卷积神经网络——缘起的主要内容,如果未能解决你的问题,请参考以下文章