如何设置batchsize

Posted happytaiyang

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了如何设置batchsize相关的知识,希望对你有一定的参考价值。

batchsize过小:每次计算的梯度不稳定,引起训练的震荡比较大,很难收敛。

batchsize过大:

(1)提高了内存利用率,大矩阵乘法并行计算效率提高。

(2)计算的梯度方向比较准,引起的训练的震荡比较小。

(3)跑完一次epoch所需要的迭代次数变小,相同数据量的数据处理速度加快。

缺点:容易内容溢出,想要达到相同精度,epoch会越来越大,容易陷入局部最优,泛化性能差。

 

batchsize设置:通常10到100,一般设置为2的n次方。

原因:计算机的gpu和cpu的memory都是2进制方式存储的,设置2的n次方可以加快计算速度。

以上是关于如何设置batchsize的主要内容,如果未能解决你的问题,请参考以下文章

JdbcTemplate的几个batchUpdate方法,怎样设置 batchSize的大小?

AI不惑境学习率和batchsize如何影响模型的性能?

Batchsize的大小怎样设置?Batchsize过大和过小有什么影响

sqlserver sqlbulkcopy.batchsize设置多少合适

pytorch中GroupNorm的使用(笔记)

如何在 Batch、PyTorch 上填充零