我用过了TensorFlowPyTorch等好几种框架,为什么还是吃不透深度学习算法?
Posted 博文视点Broadview
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了我用过了TensorFlowPyTorch等好几种框架,为什么还是吃不透深度学习算法?相关的知识,希望对你有一定的参考价值。
-
理解深度学习主要的核心模型
-
灵活复现重要论文、验证新方法 -
自由替换模型中的底层算法,取得一手实验结果 针对自己工作的特定场景,对算法做定制和优化,实现工程应用
第 1章 基础分类模型
感知机函数
损失函数
感知机学习算法
环境搭建
数据准备
实现感知机算法
参考文献
数据集
图像数据和图向量
信息熵
交叉熵
数据准备
实现第一个神经网络
实现 MINIST手写数字识别
参考文献 38
第 3章 多层全连接神经网络
欠拟合与过拟合
正则化
正则化的效果
数据准备
实现多层全连接神经网络
在数据集上验证模型
参考文献 54
第 4章 卷积神经网络(CNN)
卷积层
池化层
全连接层和 Softmax处理
全连接层
池化层反向传播
卷积层反向传播
数据准备
卷积神经网络模型的原始实现
第 5章 卷积神经网络——算法提速和优化
边缘填充提速
池化层提速
卷积层处理
池化层反向传播
卷积层反向传播
动量方法
NAG方法
Adagrad方法
RMSprop方法
AdaDelta方法
Adam方法
各种优化方法的比较
参考文献 103
第 6章 批量规范化(Batch Normalization)
数据集偏移
输入分布偏移
内部偏移
训练时的前向计算
规范化与标准化变量
推理预测时的前向计算
全连接层和卷积层的批量规范化处理
梯度传递问题
饱和非线性激活问题
正则化效果
训练时的前向传播
反向传播
推理预测
模型结构
卷积层批量规范化的实现
引入批量规范化后的递减学习率
参考文献 123
第 7章 循环神经网络(Vanilla RNN)
单层 RNN
双向 RNN
多层 RNN
误差的反向传播
激活函数的导函数和参数梯度
数据准备
模型搭建
验证结果
参考文献 147
第 8章 长短时记忆网络(LSTM)——指数分析
误差反向传播
激活函数的导函数和参数梯度
实现 LSTM单时间步的前向计算
实现 LSTM多层多时间步的前向计算
实现 LSTM单时间步的反向传播
实现 LSTM多层多时间步的反向传播
数据准备
模型构建
分析结果
参考文献 169
第 9章 双向门控循环单元(BiGRU)——情感分析
单时间步的前向计算
实现单时间步的反向传播
数据预处理
构建情感分析模型
Dropout前向传播算法
Dropout反向传播算法
Dropout Rate的选择
参考文献 189
附录 A向量和矩阵运算
附录 B导数和微分
附录 C向量和矩阵导数
附录 D概率论和数理统计
索引
你与算法相处的“融洽”吗?
快在留言中告诉博文菌
截止9月20日晚八点
获赞最高的三位同学各赠一本
《实战深度学习算法》
大家都在看
▼ 点击阅读原文,了解本书详情!
以上是关于我用过了TensorFlowPyTorch等好几种框架,为什么还是吃不透深度学习算法?的主要内容,如果未能解决你的问题,请参考以下文章
机器学习算法部署平台Cortex更新,支持TensorFlowPytorch等主流框架
系统梳理 TensorflowPyTorch 等深度学习框架,洞悉 AI 底层原理和算法
阿里深度学习框架开源了!无缝对接TensorFlowPyTorch