batch normalization 和激活函数的顺序问题

Posted lzida9223

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了batch normalization 和激活函数的顺序问题相关的知识,希望对你有一定的参考价值。

batch normalization 和激活函数的顺序问题

在初始论文中batch normalization 是放在了激活函数前面,但是在实践中是放在后面更有效一点.
Batch-normalized 应该放在非线性激活层的前面还是后面? - 知乎
https://www.zhihu.com/question/283715823

Batch Normalization before or after ReLU?

以上是关于batch normalization 和激活函数的顺序问题的主要内容,如果未能解决你的问题,请参考以下文章

Batch Normalization:批量归一化

Batch Normalization

论文笔记:Batch Normalization

batch normalization

在tensorflow中使用batch normalization

为什么会出现Batch Normalization层