Deep Learning: Epoch, Batch, Iteration

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Deep Learning: Epoch, Batch, Iteration相关的知识,希望对你有一定的参考价值。

参考技术A 顾名思义就是批次大小,也就是一次训练选取的样本个数

1个Epoch指用训练集中的全部样本训练一次

1个Iteration即迭代一次,也就是用Batch Size个样本训练一次

梯度下降的几种方式根本区别就在于上面公式中的Batch Size不同

Training Set Size = N

传统GD:Batch Size = N

SGD: Batch Size = 1

Mini-Batch: Batch Size = K

以上是关于Deep Learning: Epoch, Batch, Iteration的主要内容,如果未能解决你的问题,请参考以下文章

16 On Large-Batch Training for Deep Learning: Generalization Gap and Sharp Minima 1609.04836v1(示例代码

reinforcement learning和deep learning的区别

Deep Learning(深度学习)之Deep Learning学习资源

Deep Learning(深度学习)之Deep Learning的基本思想

Deep Learning(深度学习)之Deep Learning的常用模型或者方法

Halcon deep learning之目标检测笔记(二)