Batch Normalization层
Posted U_C
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Batch Normalization层相关的知识,希望对你有一定的参考价值。
Batch Normalization的加速作用体现在两个方面:一是归一化了每层和每维度的scale,所以可以整体使用一个较高的学习率,而不必像以前那样迁就小scale的维度;二是归一化后使得更多的权重分界面落在了数据中,降低了overfit的可能性,因此一些防止overfit但会降低速度的方法,例如dropout和权重衰减就可以不使用或者降低其权重。截止到目前,还没有哪个机构宣布重现了论文中的结果,不过归一化的用处在理论层面就已经有了保证,以后也许归一化的形式会有所改变,但逐层的归一化应该会成为一种标准。
以上是关于Batch Normalization层的主要内容,如果未能解决你的问题,请参考以下文章
Layer Normalization和Batch Normalization