神经网络已经收敛的证据? [关闭]

Posted

技术标签:

【中文标题】神经网络已经收敛的证据? [关闭]【英文标题】:Evidence that neural network has converged? [closed] 【发布时间】:2018-05-21 00:44:22 【问题描述】:

我已经用 7 个可学习层训练了一个卷积网络大约 20 个小时。有哪些通用方法可以判断网络是否已收敛或仍需要训练?

这是第一个卷积层参数的直方图:

这是训练和测试集的损失和准确率图表:

【问题讨论】:

您可以通过绘制训练和验证/测试损失来获得一个想法。训练你的模型,直到两个图之间的距离减小或保持不变,但当它开始增加时,你应该停止它。 【参考方案1】:

显然,当您的分数不断提高(训练和测试)时,这意味着您走在正确的道路上,并且您将达到本地/全球最低水平。当你看到改变方向的分数在移动(训练仍然在下降,测试在上升)或者两个分数都停滞不前,那么是时候停下来了。

但是

当您使用准确性作为评估指标时,您只能得到模型的异常行为。例如:网络输出的所有结果都是最有价值的类的数量。 Explanation。这个问题可以通过使用 f1、logloss 等其他评估指标来解决,您会在学习期间看到任何问题。

对于不平衡的数据,您可以使用任何策略来避免不平衡的负面影响。就像softmax_cross_entropy in tensorflow 中的权重一样。实现你可以找到there。

【讨论】:

以上是关于神经网络已经收敛的证据? [关闭]的主要内容,如果未能解决你的问题,请参考以下文章

简单神经网络中的奇异收敛性

区分人工神经网络中的学习和记忆

用网络爬虫还是其他手段抓取数据?证据会说话

为啥要将神经网络的权重初始化为随机数? [关闭]

信息融合基于matlab BP神经网络和DS证据理论不确定性信息融合问题含Matlab源码 2112期

信息融合基于matlab BP神经网络和DS证据理论不确定性信息融合问题含Matlab源码 2112期