[Pytorch系列-54]:循环神经网络 - torch.nn.GRU()参数详解
Posted 文火冰糖的硅基工坊
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了[Pytorch系列-54]:循环神经网络 - torch.nn.GRU()参数详解相关的知识,希望对你有一定的参考价值。
作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客
本文网址:https://blog.csdn.net/HiWangWenBing/article/details/121645435
目录
第1章 GRU基本理论
GRU与LSTM的参数类似,如下以LSTM为基准,删除掉多余的部分就是GRU。
第2章 torch.nn.GRU类的参数详解
2.1 类的原型
LSTM => GRU
2.2 类的参数:用于构建RGU神经网络实例
input_size: 输入序列的一维向量的长度。
hidden_size: 隐层的输出特征的长度。
num_layers:隐藏层堆叠的高度,用于增加隐层的深度。
bias:是否需要偏置b
batch_first:用于确定batch size是否需要放到输入输出数据形状的最前面。
若为真,则输入、输出的tensor的格式为(batch , seq , feature)
若为假,则输入、输出的tensor的格式为(seq, batch , feature)
为什么需要该参数呢?
在CNN网络和全连接网络,batch通常位于输入数据形状的最前面 。
而对于具有时间信息的序列化数据,通常需要把seq放在最前面,需要把序列数据串行地输入网络中。
dropout: 默认0 若非0,则为dropout率。
bidirectional:是否为双向LSTM, 默认为否
第3章 前向传播输入详解
3.1 前向传播的格式
lstm (input, (h_0, c_0))
- input:输入序列样本
- h_0:先前的短期状态记忆
c_0:先期的长期状态记忆
3.2 input的格式
(1)当batch_first=false(默认)
input的形状为(seq_len, batch, input_size)
(2)当batch_first=true
input的形状为(batch, seq_len, input_size)
(3)参数解读
- batch:batch的长度
- input_size:输入样本的向量长度。
- seq_len:输入序列的长度,一次可以串行输入多个输入样本
3.3 h_0的格式
若h_0和c_0不提供,则默认为全0 .
h_0是格式为: (num_layers * num_directions, batch, hidden_size) 的tensor
- num_directions:由隐层的层数决定
- batch:batch
- hidden_size:隐层输出特征的长度
3.4 c_0的格式
若c_0不提供时,则默认为全0 .
c_0是格式为: (num_layers * num_directions, batch, hidden_size) 的tensor
num_directions:由隐层的层数决定batch:batchhidden_size:隐层输出特征的长度
第4章 前向传播输出详解
4.1 输出返回值的格式
output, (h_n, c_n) = lstm (input, (h_0, c_0))
4.2 output的格式
(1)当batch_first=false(默认)
input的形状为(seq_len, batch, num_layers * num_directions,)
(2)当batch_first=true
input的形状为(batch, seq_len, num_layers * num_directions,)
(3)参数解读
- batch:batch的长度
- num_directions:取决于堆叠的长度
- seq_len:输入序列的长度,输出的长度与输入序列的长度一致。
4.3 h_n的格式
h_0是格式为: (num_layers * num_directions, batch, hidden_size) 的tensor
- num_directions:由隐层的层数决定
- batch:batch
- hidden_size:隐层输出特征的长度
4.4 c_n的格式
c_0是格式为: (num_layers * num_directions, batch, hidden_size) 的tensor
num_directions:由隐层的层数决定batch:batchhidden_size:隐层输出特征的长度
作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客
本文网址:https://blog.csdn.net/HiWangWenBing/article/details/121645435
以上是关于[Pytorch系列-54]:循环神经网络 - torch.nn.GRU()参数详解的主要内容,如果未能解决你的问题,请参考以下文章
[Pytorch系列-58]:循环神经网络 - 词向量的自动构建与模型训练代码示例
[Pytorch系列-55]:循环神经网络 - 使用LSTM网络对股票走势进行预测
[Pytorch系列-53]:循环神经网络 - torch.nn.LSTM()参数详解