MLP(multi-layer perceptron)

Posted ceciliaxu

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了MLP(multi-layer perceptron)相关的知识,希望对你有一定的参考价值。

  • 神经元neuron(基本计算单元)

 技术图片

技术图片

xi为输入,wi为各项输入的权重,b为偏差,f为激活函数,h为输出。输入的加权和,经过激活函数映射为输出。

    • 参数的物理意义:权重(各输入的重要程度)偏差(该神经元被激活的难易程度≈阈值)
    • 激活函数:常见有sigmoid函数,tanh(双曲正切)函数,线性整流函数ReLu

sigmoid函数   技术图片 将加权和缩放到[0,1],微分形式为  技术图片

tanh函数  技术图片 将加权和缩放到[-1,1] ,微分形式为技术图片

线性整流函数  技术图片 分段函数,实际神经网络中更好用。梯度=0(z<0),t梯度=1(z>0)

注:分类问题:使用sigmoid函数,label y=0 or 1, 使用tanh函数, label y = -1 or 1.

回归问题:[0,1];[-1,1]

 技术图片

  • 神经网络模型

技术图片

神经网络本质是多个神经元连接组成的层级结构,上一层的输出为下一层的输入。

基本概念:输入层,输出层,隐藏层略。

基本表示符号略。

前向传播:上一层的输出作为本层的输入,依次逐层向后传播。

技术图片

  • 代价函数(cost function)
某个样本的代价:技术图片
所有样本的代价:
技术图片
第一项为所有样本代价的平均值,第二项为权重正则化项regularization(权重衰减项weight decay),避免权重太大引起过拟合.
λ为权重衰减参数。
  • 梯度下降法最小化代价函数
    • 初始化参数:正态分布初始化参数(如果全部初始化为0,会导致每层的神经元学到相同的函数。)
    • 梯度下降法:用优化算法(eg:梯度下降法)最小化代价函数,其中最重要的步骤计算梯度。
技术图片      技术图片
    • 反向传播算法计算梯度




以上是关于MLP(multi-layer perceptron)的主要内容,如果未能解决你的问题,请参考以下文章

R语言使用caret包构建多层感知机MLP(Multi-Layer Perceptron )构建回归模型通过method参数指定算法名称通过trainControl函数控制训练过程

AD遇到warnings:zero hole size multi-layer pad(s) detected

论文阅读|Info2vec: An aggregative representation method in multi-layer and heterogeneous networks

论文阅读笔记:AS-MLP AN AXIAL SHIFTED MLP ARCHITECTUREFOR VISION

论文阅读笔记 | MLP系列——AS-MLP

Vision MLP 之 S2-MLP V1&V2 : Spatial-Shift MLP Architecture for Vision