深度学习基础--激活函数

Posted 小小城序员

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了深度学习基础--激活函数相关的知识,希望对你有一定的参考价值。

深度学习基础–激活函数

最近在阅读一本书籍–Dive-into-DL-Pytorch(动手学深度学习),链接:https://github.com/newmonkey/Dive-into-DL-PyTorch,自身觉得受益匪浅,在此记录下自己的学习历程。

本篇主要记录关于三种常见的激活函数的知识。

常见的激活函数

ReLU函数

ReLU(rectified linear unit)函数提供了一个很简单的非线性变化。ReLU函数只保留正数,并将负数元素清零。其表达式为:


绘制ReLU函数图像,可以得到:

不难得出,当输入为负数时,ReLU函数值为0,则ReLU函数的导数为0。但输入为正数时,ReLU函数只为输入值x,则ReLU函数的导数为1。故ReLU函数的导数表达式为:

绘制ReLU函数的导数图像,可以得到:

sigmoid函数

sigmoid函数可以将元素的值变换到0~1之间,其表达式为:


绘制sigmoid函数图像,可以得到:

sigmoid函数的导数表达式为:


当输入为0时,sigmoid函数值为0.5,此时sigmoid函数的导数达到最大值0.25。当输入值越偏离0时,sigmoid函数的导数就越接近0。

绘制sigmoid函数的导数图像,可以得到:

tanh函数

tanh(双曲正切)函数可以将元素的值表环岛-1~1之间,其表达式为:

可见tanh函数是一个奇函数,于坐标系原点对称。绘制tanh函数图像,可以得到:

tanh函数的导数表达式为:


当输入为0时,tanh函数值为0,此时sigmoid函数的导数达到最大值1。当输入值越偏离0时,sigmoid函数的导数就越接近0。


END!

以上是关于深度学习基础--激活函数的主要内容,如果未能解决你的问题,请参考以下文章

三深度学习基础3(激活函数1)

深度学习基础

深度学习基础知识 | 上

Pytorch学习笔记3.深度学习基础

深度学习深度学习基础学习笔记

Keras深度学习实战——深度学习中常用激活函数和损失函数详解