小知识:深度学习的5大常用模型解读

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了小知识:深度学习的5大常用模型解读相关的知识,希望对你有一定的参考价值。

自动编码器 AutoEncoder


Deep Learning最简单的一种方法是利用人工神经网络的特点,人工神经网络(ANN)本身就是具有层次结构的系统,如果给定一个神经网络,我们假设其输出与输入是相同的,然后训练调整其参数,得到每一层中的权重。


自然地,我们就得到了输入I的几种不同表示(每一层代表一种表示),这些表示就是特征。自动编码器就是一种尽可能复现输入信号的神经网络。


为了实现这种复现,自动编码器AutoEncoder就必须捕捉可以代表输入数据的最重要的因素,就像PCA那样,找到可以代表原信息的主要成分。

技术分享


稀疏编码 Sparse Coding


如果我们把输出必须和输入相等的限制放松,同时利用线性代数中基的概念,即O = a1*Φ1 + a2*Φ2+….+ an*Φn, Φi是基,ai是系数,我们可以得到这样一个优化问题:


Min |I – O|,其中I表示输入,O表示输出。


通过求解这个最优化式子,我们可以求得系数ai和基Φi,这些系数和基就是输入的另外一种近似表达。



限制波尔兹曼机 Restricted Boltzmann Machine (RBM)


小块的图形可以由基本edge构成,那更结构化,更复杂的,具有概念性的图形如何表示呢?


这就需要更高层次的特征表示,比如V2,V4。因此V1看像素级是像素级。V2看V1是像素级,这个是层次递进的,高层表达由底层表达的组合而成,就是基basis。


深信度网络 Deep Belief Networks


DBNs是一个概率生成模型,与传统的判别模型的神经网络相对,生成模型是建立一个观察数据和标签之间的联合分布,对P(Observation|Label)和 P(Label|Observation)都做了评估,而判别模型仅仅而已评估了后者,也就是P(Label|Observation)。对于在深度神经网络应用传统的BP算法的时候,DBNs遇到了以下问题:


(1)需要为训练提供一个有标签的样本集;


(2)学习过程较慢;


(3)不适当的参数选择会导致学习收敛于局部最优解。


卷积神经网络 Convolutional Neural Networks


卷积神经网络是人工神经网络的一种,已成为当前语音分析和图像识别领域的研究热点。它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。该优点在网络的输入是多维图像时表现的更为明显,使图像可以直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程。卷积网络是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对平移、比例缩放、倾斜或者共他形式的变形具有高度不变性。


CNNs是受早期的延时神经网络(TDNN)的影响。延时神经网络通过在时间维度上共享权值降低学习复杂度,适用于语音和时间序列信号的处理。


本文出自 “中科院计算所培训” 博客,谢绝转载!

以上是关于小知识:深度学习的5大常用模型解读的主要内容,如果未能解决你的问题,请参考以下文章

深度学习的开胃菜——常用的机器学习知识梳理

「深度学习一遍过」必修2:解读简化版模型代码

知识蒸馏轻量化模型架构剪枝…几种深度学习模型压缩方法

深度学习与图神经网络核心技术实践应用高级研修班-Day1小样本学习与元学习

【模型解读】历数GAN的5大基本结构

深度强化学习的“丛林”大冒险