BN--批规则化

Posted durui0558

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了BN--批规则化相关的知识,希望对你有一定的参考价值。

BN的作用。

 

 可以看到,如果不使用gamma和beta,激活值基本上会在[0.1 0.9]这个近似线性的区域中,这与深度神经网络所要求的“多层非线性函数逼近任意函数”的要求不符,所以引入gamma和beta还是有必要的,深度网络会自动决定使用哪一段函数(这是我自己想的,其具体作用欢迎讨论)。

  对于ReLU来说,gamma的作用可能不是很明显,因为relu是分段”线性“的,对数值进行伸缩并不能影响relu取x还是取0。但beta的作用就很大了,试想一下如果没有beta,经过batch normalization层的特征,都具有0均值的期望,这样岂不是强制令ReLU的输出有一半是0一半非0么?这与我们的初衷不太相符,我们希望神经网络自行决定在什么位置去设定这个阈值,而不是增加一个如此强的限制。

 

Batch Normalization的加速作用体现在两个方面:一是归一化了每层和每维度的scale,所以可以整体使用一个较高的学习率,而不必像以前那样迁就小scale的维度;二是归一化后使得更多的权重分界面落在了数据中,降低了overfit的可能性,因此一些防止overfit但会降低速度的方法,例如dropout和权重衰减就可以不使用或者降低其权重。

 

精品好文:

 

https://blog.csdn.net/TeFuirnever/article/details/88845299

以上是关于BN--批规则化的主要内容,如果未能解决你的问题,请参考以下文章

UGUI合批规则图解

UGUI合批规则图解

UGUI合批规则图解

UGUI合批规则图解

批标准化—BN

BN(batch Normalization)笔记