pytorch epoch, batch, iteration

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了pytorch epoch, batch, iteration相关的知识,希望对你有一定的参考价值。

参考技术A

训练整个数据集的次数。
当一个 完整的 数据集通过了神经网络一次并且返回了一次,这个过程称为一次epoch。(也就是说,所有训练样本在神经网络中都进行了一次正向传播 和一次反向传播 )

然而,当一个Epoch的样本(也就是所有的训练样本)数量可能太过庞大(对于计算机而言),就需要把它分成多个小块,也就是就是分成多个Batch 来进行训练。

将整个训练样本分成若干个Batch。

每批样本的大小。

训练一个Batch就是一次Iteration(这个概念跟程序语言中的迭代器相似)。

mnist 数据集有60000张图片作为训练数据,10000张图片作为测试数据。假设现在选择 Batch_Size = 100对模型进行训练。迭代30000次。

参考: https://www.jianshu.com/p/22c50ded4cf7

以上是关于pytorch epoch, batch, iteration的主要内容,如果未能解决你的问题,请参考以下文章

PyTorch-lightning 模型在第一个 epoch 后内存不足

pytorch学习笔记:加载数据集

pytorch实现优化optimize

pytorch入门3.0构建分类模型再体验(批处理)

Pytorch两种构建网络的方法

EPOCH, BATCH, INTERATION