Deep Learning: Epoch, Batch, Iteration
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Deep Learning: Epoch, Batch, Iteration相关的知识,希望对你有一定的参考价值。
参考技术A 顾名思义就是批次大小,也就是一次训练选取的样本个数1个Epoch指用训练集中的全部样本训练一次
1个Iteration即迭代一次,也就是用Batch Size个样本训练一次
梯度下降的几种方式根本区别就在于上面公式中的Batch Size不同
Training Set Size = N
传统GD:Batch Size = N
SGD: Batch Size = 1
Mini-Batch: Batch Size = K
以上是关于Deep Learning: Epoch, Batch, Iteration的主要内容,如果未能解决你的问题,请参考以下文章
16 On Large-Batch Training for Deep Learning: Generalization Gap and Sharp Minima 1609.04836v1(示例代码
reinforcement learning和deep learning的区别
Deep Learning(深度学习)之Deep Learning学习资源
Deep Learning(深度学习)之Deep Learning的基本思想