BatchIteration and Epoch
Posted 流浪若相惜
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了BatchIteration and Epoch相关的知识,希望对你有一定的参考价值。
转自:神经网络训练的三个基本概念Epoch, Batch, Iteration
Batch
每次迭代时使用的一批样本就叫做一个Batch,样本的数量称为Batch Size。Batch大小是一个超参数,用于定义在更新内部模型参数之前要处理的样本数。深度学习每一次参数的更新的Loss Function并不是由一个样本得到的,而是由一个Batch的数据加权得到。
Iteration
使用Batch Size个样本训练一次的过程叫做一个Iteration。
Epoch
一个epoch就是使用训练集中的全部样本训练一次。通俗的讲,Epoch的值就是整个训练数据集被反复使用几次。Epoch数是一个超参数,它定义了学习算法在整个训练数据集中的工作次数。一个Epoch意味着训练数据集中的每个样本都有机会更新内部模型参数。Epoch由一个或多个Batch组成。
以上是关于BatchIteration and Epoch的主要内容,如果未能解决你的问题,请参考以下文章