epoch和iteration的区别

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了epoch和iteration的区别相关的知识,希望对你有一定的参考价值。

epoch和iteration区别在于数量的问题。

iteration:1个iteration等于使用batchsize个样本训练一次;
epoch:1个epoch等于使用训练集中的全部样本训练一次;

比如要做100次iteration才等于做1次epoch训练。

epoch和iteration都是指的深度学习中的。

epoch

英 [ˈi:pɒk]   美 [ˈepək]  

n.时期;纪元;世;新时代

复数: epochs

例句:

1 The birth of Christ was the beginning of a major epoch of world history. 

基督诞生是世界历史上一个重要纪元的开端。

2 Two main glacial epochs affected both areas during the last 100 million years of Precambrian times. 

在前寒武纪的最后1亿年中,两个主要的冰川时期对两个地区都产生了影响。

3 The Renaissance was an epoch of unparalleled cultural achievement. 

iteration

英 [ˌɪtəˈreɪʃn]   美 [ˌɪtəˈreʃən]  

n.反复;重述;重述的事;[计算机]循环

文艺复兴是一个文化上取得空前成就的时代。

例句:

1、 This paper improves the inversion accuracy by means of iteration inversion of the sea-watervelocity and bottom velocity. 

同时迭代反演海水速度和海底速度,提高了反演的精度。

2、And gives the formulae of iteration direction and step length. 

并给出了迭代方向和步长的计算公式。

3、We define an iteration as a phase, a milestone, or a period of time. 

我们将一次迭代定义为一个阶段,一个里程碑,或者一个时间段。

参考技术A 深度学习中经常看到epoch、 iteration和batchsize,下面按自己的理解说说这三个的区别:

(1)batchsize:批大小。在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练;
(2)iteration:1个iteration等于使用batchsize个样本训练一次;
(3)epoch:1个epoch等于使用训练集中的全部样本训练一次;

举个例子,训练集有1000个样本,batchsize=10,那么:
训练完整个样本集需要:
100次iteration,1次epoch。

关于batchsize可以看看这里。
参考技术B 补充一下:一般采用的是mini-batch GD训练,但是有些框架(比如caffe)中的SGD就是mini-batch GD,batch_size就是这么来的。严格的SGD拿单个样本来决定梯度下降方向,收敛速度太慢,实际中不会用,只存在于理论中。

以上是关于epoch和iteration的区别的主要内容,如果未能解决你的问题,请参考以下文章

深度学习基础Epoch, Batch, Iteration这三个概念的区别与联系

关于 epoch iteration和batchsize

pytorch epoch, batch, iteration

深度学习概念之Epoch,Batch Size和Iterations

episode和epoch区别

深度学习中的Epoch,Batchsize,Iterations