李子达(DA-South)

李子达(DA-South):

博客地址:https://www.cnblogs.com/lzida9223/

最新文章

batch-normalization为什么效果好

一个batch的数据如何做反向传播

batch normalization 和激活函数的顺序问题

relu函数为分段线性函数,为什么会增加非线性元素

归一化和标准化的使用场景以及归一化和标准化有没有改变数据分布

为什么需要做归一化或者标准化

请问batch_normalization做了normalization后为什么要变回来?

怎么选取训练神经网络时的Batch size?

Batch normalization

卷积层池化和激活函数的顺序

机器学习算法基础+实战系列决策树算法