BatchNormalization批量归一化

Posted wzdly

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了BatchNormalization批量归一化相关的知识,希望对你有一定的参考价值。

动机:

防止隐层分布多次改变,BN让每个隐层节点的激活输入分布缩小到-1和1之间.

好处:

缩小输入空间,从而降低调参难度;防止梯度爆炸/消失,从而加速网络收敛.

BN计算公式: 

 

以上是关于BatchNormalization批量归一化的主要内容,如果未能解决你的问题,请参考以下文章

我可以将层归一化与 CNN 一起使用吗?

批量归一化Batch Normalization 动手学深度学习v2

深度学习面试题21:批量归一化(Batch Normalization,BN)

Hulu机器学习问题与解答系列 | 二十三:神经网络训练中的批量归一化

深度学习面试题21:批量归一化(Batch Normalization,BN)

CNN基础一文读懂批归一化(Batch Normalization)