Torch.no_grad()影响MSE损失
Posted elliottzheng
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Torch.no_grad()影响MSE损失相关的知识,希望对你有一定的参考价值。
相关描述
https://discuss.pytorch.org/t/torch-no-grad-affecting-outputs-loss/28595/3
今天在训练网络的时候,发现mseloss在train和test时相差了好几个量级,后来发现是因为mseloss(input,target)
,并不是对称的,input的应该是网络的输出,而targte是目标,如果颠倒过来,计算就是错的。
以上是关于Torch.no_grad()影响MSE损失的主要内容,如果未能解决你的问题,请参考以下文章
与torch.no_grad:AttributeError:__enter__
pytorch 笔记:validation ,model.eval V.S torch.no_grad
pytorch中的train.eval() 与 with torch.no_grad()的使用
pytorch中model.eval()和torch.no_grad()的区别
pytorch中model.eval()和torch.no_grad()的区别
pytorch torch.no_grad()函数(禁用梯度计算)(当确保下文不用backward()函数计算梯度时可以用,用于禁用梯度计算功能,以加快计算速度)