深入神经网络中数学原理计算 - 反向传播
Posted SiKi
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了深入神经网络中数学原理计算 - 反向传播相关的知识,希望对你有一定的参考价值。
本课程属于 Python人工智能 A 计划,不单独售卖,加入 A 计划可免费观看本课程及所有 Python人工智能 收费课程~
Python人工智能 A 计划永久有效期购买链接:
http://www.sikiedu.com/classroom/14/introduction
> 课程简介与内容
本次课程将会给大家从数学的层面讲解神经网络算法的工作原理以及反向传播
手动计算损失函数的导函数,再去使用梯度下降的方法更新神经网络的参数,找到损失函数的极小值
最后会用程序去验证我们手动计算的结果。
注意:课程中涉及到大量的数学计算,希望同学具有高中函数求导的知识
> 所需前置知识
LOL胜负案例让你秒懂神经网络算法
人工智能 - 机器学习进阶 - 逻辑回归
> 适宜人群
对神经网络原理感兴趣的同学
课程目录
000 - 课程演示
100 - 反向传播案例
101 - 计算得到H1
102 - 计算得到H2
103 - 完成前向传播
104 - 神经网络的参数
105 - 计算模型的损失
106 - 书写代码验证参数
107 - 拿到输入
108 - 第一层隐藏层的参数
109 - 查看第一层的Out值
110 - 查看第二层的参数
111 - 查看损失值
112 - 完成前向传播的整个流程
200 - 反向传播
201 - 找到函数的解析式
202 - Out1与Out2的函数
203 - H1与H2的函数
204 - 神经网络的函数表达式
205 - 完成神经网络的函数表达式
206 - 1 - 推展如何求解函数的极值问题
206 - 2 - 推展如何求解函数的极值问题
206 - 3 - 复合函数求导
206 - 4 - 复合函数求导
207 - 更新第一个神经网络参数
208 - 链式求导法则
209 - SoftMax函数求导
210 - 完成Wc1的更新
211 - 完成Wc2的更新
212 - Wd1的更新
213 - SoftMax函数求导
214 - 完成Wd1的更新
215 - 写代码查看神经网络更新之后的参数
216 - 写代码查看神经网络更新之后的参数
217 - 更新Wd2
218 - Bb1与Bb2的更新
219 - 更新Wa1
220 - 对Wa1进行求导
221 - Sigmoid函数求导
222 - 完成Wa1的更新
223 - 梯度消失与梯度爆炸的问题
224 - 神经网络的学习损失下降
225 - 快速过一遍神经网络正反向的整个流程
226 - 一定要自己手动求导推到一次蛤
http://www.sikiedu.com/course/747
点击阅读原文进入SiKi学院观看
以上是关于深入神经网络中数学原理计算 - 反向传播的主要内容,如果未能解决你的问题,请参考以下文章