为啥这些模型的某个时期的准确性突然提高

Posted

技术标签:

【中文标题】为啥这些模型的某个时期的准确性突然提高【英文标题】:Why does a sudden increase in accuracy at an epoch in these model为什么这些模型的某个时期的准确性突然提高 【发布时间】:2022-01-21 12:23:36 【问题描述】:

我现在正在学习卷积神经网络,并在 Pytorch 上进行练习。最近在看SGD,Adam,Radam等优化器相关的论文。

在查看论文的视觉结果时,我发现他们的图像在第 80 个 epoch 时显示出准确率突然提高(论文“ON THE Variance OF THE ADAPTIVE LEARNING”中的图6 率和超越”)

或第150个epoch(论文“ADAPTIVE GRADIENT METHODS WITH DYNAMICBOUND OF LEARNING RATE”中的图3)

无论哪种算法。

谁能告诉我为什么会这样?谢谢。

【问题讨论】:

可能他们在报纸上做了一些特别的事情。看看他们有没有提到什么……? 【参考方案1】:

如果你的实现是正确的,这可能意味着你的模型此时学到了一些非常有用的东西(所以你的梯度下降找到了一个新的证据)。例如,模型必须自己学习输入的正确归一化。看到 loss 有这种“阶梯式”损失图并不罕见,我以前见过(但不记得具体在哪里)。

这也可能意味着您使用的权重初始化效率低下,因此您的优化算法必须手动找到最佳的正确算法。

【讨论】:

【参考方案2】:

它们大大降低了学习率。可能他们从太大的学习率开始以快速获得一些“平均”模型,然后降低学习率以调整该模型以提高准确性。有许多降低学习率的训练方法。他们选择了这样的。

在论文“具有动态学习率的自适应梯度方法”中,他们说他们降低了学习率:

我们采用 200 个 epoch 的固定预算并减少学习 在 150 个 epochs 后速率增加 10

可能在另一篇论文中他们也这样做了,但他们没有写过。

【讨论】:

感谢您的回复!很有帮助 @TonRi 没问题!如果您发现这个(或其他)答案足够,请考虑接受它。干杯

以上是关于为啥这些模型的某个时期的准确性突然提高的主要内容,如果未能解决你的问题,请参考以下文章

训练准确性增加,然后偶尔突然下降。使固定? [Keras] [TensorFlow 后端]

如何提高 CNN 模型的验证准确度

验证准确率提高,但验证损失也在增加

深度学习注意力机制真能提高吗

新手:如何评估模型以提高分类模型的准确性

提高模型精确率的两种方法