Torch.no_grad()影响MSE损失

Posted elliottzheng

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Torch.no_grad()影响MSE损失相关的知识,希望对你有一定的参考价值。

相关描述

https://discuss.pytorch.org/t/torch-no-grad-affecting-outputs-loss/28595/3

今天在训练网络的时候,发现mseloss在train和test时相差了好几个量级,后来发现是因为mseloss(input,target),并不是对称的,input的应该是网络的输出,而targte是目标,如果颠倒过来,计算就是错的。

以上是关于Torch.no_grad()影响MSE损失的主要内容,如果未能解决你的问题,请参考以下文章

与torch.no_grad:AttributeError:__enter__

pytorch 笔记:validation ,model.eval V.S torch.no_grad

pytorch中的train.eval() 与 with torch.no_grad()的使用

pytorch中model.eval()和torch.no_grad()的区别

pytorch中model.eval()和torch.no_grad()的区别

pytorch torch.no_grad()函数(禁用梯度计算)(当确保下文不用backward()函数计算梯度时可以用,用于禁用梯度计算功能,以加快计算速度)