pytorch epoch, batch, iteration
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了pytorch epoch, batch, iteration相关的知识,希望对你有一定的参考价值。
参考技术A 训练整个数据集的次数。
当一个 完整的 数据集通过了神经网络一次并且返回了一次,这个过程称为一次epoch。(也就是说,所有训练样本在神经网络中都进行了一次正向传播 和一次反向传播 )
然而,当一个Epoch的样本(也就是所有的训练样本)数量可能太过庞大(对于计算机而言),就需要把它分成多个小块,也就是就是分成多个Batch 来进行训练。
将整个训练样本分成若干个Batch。
每批样本的大小。
训练一个Batch就是一次Iteration(这个概念跟程序语言中的迭代器相似)。
mnist 数据集有60000张图片作为训练数据,10000张图片作为测试数据。假设现在选择 Batch_Size = 100对模型进行训练。迭代30000次。
参考: https://www.jianshu.com/p/22c50ded4cf7
以上是关于pytorch epoch, batch, iteration的主要内容,如果未能解决你的问题,请参考以下文章