翻译: 3.线性神经网络 概览 深入神经网络 pytorch

Posted AI架构师易筋

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了翻译: 3.线性神经网络 概览 深入神经网络 pytorch相关的知识,希望对你有一定的参考价值。

在深入了解深度神经网络的细节之前,我们需要了解神经网络训练的基础知识。在本章中,我们将介绍整个训练过程,包括定义简单的神经网络架构、处理数据、指定损失函数和训练模型。为了让事情更容易掌握,我们从最简单的概念开始。幸运的是,线性和 softmax 回归等经典统计学习技术可以转换为线性神经网络。从这些经典算法开始,我们将向您介绍基础知识,为本书其余部分中更复杂的技术提供基础。

3.1。线性回归

3.1.1。线性回归的基本要素
3.1.2。速度矢量化
3.1.3. 正态分布和平方损失
3.1.4。从线性回归到深度网络
3.1.5。概括
3.1.6。练习

3.2. 从零开始实现线性回归

3.2.1。生成数据集
3.2.2. 读取数据集
3.2.3。初始化模型参数
3.2.4。定义模型
3.2.5。定义损失函数
3.2.6。定义优化算法
3.2.7。训练
3.2.8。概括
3.2.9。练习

3.3. 线性回归的简明实现

3.3.1。生成数据集
3.3.2. 读取数据集
3.3.3. 定义模型
3.3.4。初始化模型参数
3.3.5。定义损失函数
3.3.6。定义优化算法
3.3.7。训练
3.3.8. 概括
3.3.9。练习

3.4. Softmax 回归

3.4.1。分类问题
3.4.2. 网络架构
3.4.3. 全连接层的参数化成本
3.4.4。Softmax 操作
3.4.5。小批量矢量化
3.4.6。损失函数
3.4.7。信息论基础
3.4.8。模型预测与评估
3.4.9。概括
3.4.10。练习

3.5. 图像分类数据集

3.5.1。读取数据集
3.5.2. 读取小批量
3.5.3. 把所有东西放在一起
3.5.4。概括
3.5.5。练习

3.6. 从零开始实现 Softmax 回归

3.6.1. 初始化模型参数
3.6.2. 定义 Softmax 操作
3.6.3. 定义模型
3.6.4. 定义损失函数
3.6.5。分类精度
3.6.6。训练
3.6.7. 预言
3.6.8。概括
3.6.9。练习

3.7. Softmax 回归的简明实现

3.7.1. 初始化模型参数
3.7.2. 重新审视 Softmax 实现
3.7.3. 优化算法
3.7.4. 训练
3.7.5。概括
3.7.6。练习

参考

https://d2l.ai/chapter_linear-networks/index.html

以上是关于翻译: 3.线性神经网络 概览 深入神经网络 pytorch的主要内容,如果未能解决你的问题,请参考以下文章

翻译: 3.2. 从零开始实现线性回归 深入神经网络 pytorch

翻译: 深入神经网络概览Dive into Deep Learning

翻译: 2深度学习的基础技能 概览

翻译: 3.3. 线性回归的简明实现 pytorch

翻译: 深入深度学习 2.3. 线性代数 pytorch

翻译: 2.7. 如何利用帮助文档 深入神经网络 pytorch