深入神经网络中数学原理计算 - 反向传播

Posted SiKi

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了深入神经网络中数学原理计算 - 反向传播相关的知识,希望对你有一定的参考价值。

本课程属于 Python人工智能 A 计划,不单独售卖,加入 A 计划可免费观看本课程及所有 Python人工智能 收费课程~


Python人工智能 A 计划永久有效期购买链接:

http://www.sikiedu.com/classroom/14/introduction

> 课程简介与内容

  • 本次课程将会给大家从数学的层面讲解神经网络算法的工作原理以及反向传播

  • 手动计算损失函数的导函数,再去使用梯度下降的方法更新神经网络的参数,找到损失函数的极小值

  • 最后会用程序去验证我们手动计算的结果。


  • 注意:课程中涉及到大量的数学计算,希望同学具有高中函数求导的知识


  • > 所需前置知识

  • LOL胜负案例让你秒懂神经网络算法


  • 人工智能 - 机器学习进阶 - 逻辑回归


  • > 适宜人群

  • 对神经网络原理感兴趣的同学


课程目录

000 - 课程演示

100 - 反向传播案例

101 - 计算得到H1

102 - 计算得到H2

103 - 完成前向传播

104 - 神经网络的参数

105 - 计算模型的损失

106 - 书写代码验证参数

107 - 拿到输入

108 - 第一层隐藏层的参数

109 - 查看第一层的Out值

110 - 查看第二层的参数

111 - 查看损失值

112 - 完成前向传播的整个流程

200 - 反向传播

201 - 找到函数的解析式

202 - Out1与Out2的函数

203 - H1与H2的函数

204 - 神经网络的函数表达式

205 - 完成神经网络的函数表达式

206 - 1 - 推展如何求解函数的极值问题

206 - 2 - 推展如何求解函数的极值问题

206 - 3 - 复合函数求导

206 - 4 - 复合函数求导

207 - 更新第一个神经网络参数

208 - 链式求导法则

209 - SoftMax函数求导

210 - 完成Wc1的更新

211 - 完成Wc2的更新

212 - Wd1的更新

213 - SoftMax函数求导

214 - 完成Wd1的更新

215 - 写代码查看神经网络更新之后的参数

216 - 写代码查看神经网络更新之后的参数

217 - 更新Wd2

218 - Bb1与Bb2的更新

219 - 更新Wa1

220 - 对Wa1进行求导

221 - Sigmoid函数求导

222 - 完成Wa1的更新

223 - 梯度消失与梯度爆炸的问题

224 - 神经网络的学习损失下降

225 - 快速过一遍神经网络正反向的整个流程

226 - 一定要自己手动求导推到一次蛤


http://www.sikiedu.com/course/747

点击阅读原文进入SiKi学院观看          


以上是关于深入神经网络中数学原理计算 - 反向传播的主要内容,如果未能解决你的问题,请参考以下文章

神经网络和深度学习笔记 - 第二章 反向传播算法

深度学习梯度下降和反向传播原理

CNN计算原理

:卷积神经网络

读懂反向传播算法(bp算法)

神经网络反向传播算法卡在 XOR 训练模式上