Batch Normalization层

Posted U_C

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Batch Normalization层相关的知识,希望对你有一定的参考价值。

  Batch Normalization的加速作用体现在两个方面:一是归一化了每层和每维度的scale,所以可以整体使用一个较高的学习率,而不必像以前那样迁就小scale的维度;二是归一化后使得更多的权重分界面落在了数据中,降低了overfit的可能性,因此一些防止overfit但会降低速度的方法,例如dropout和权重衰减就可以不使用或者降低其权重。截止到目前,还没有哪个机构宣布重现了论文中的结果,不过归一化的用处在理论层面就已经有了保证,以后也许归一化的形式会有所改变,但逐层的归一化应该会成为一种标准。

以上是关于Batch Normalization层的主要内容,如果未能解决你的问题,请参考以下文章

深度学习之Batch Normalization

为什么会出现Batch Normalization层

Batch Normalization:批量归一化

Layer Normalization和Batch Normalization

BN(Batch Normalization)和TF2的BN层

(Batch Normalization)批标准化算法理解