Pytorch_torch.nn.MSELoss
Posted cobby-baby
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Pytorch_torch.nn.MSELoss相关的知识,希望对你有一定的参考价值。
Pytorch_torch.nn.MSELoss
均方损失函数作用主要是求预测实例与真实实例之间的loss
loss(xi,yi)=(xi?yi)2
- 函数需要输入两个tensor,类型统一设置为float,否则会报错,也可以在全局设置torch.set_default_tensor_type(torch.FloatTensor),也可以在计算时转换
loss=torch.nn.MSELoss()
c=torch.tensor([[1,2],[3,4]])
d=torch.tensor([[5,6],[7,8]])
loss(c.float(),d.float())
- 单个tensor正常求即可,多个求其平均loss。
item()方法
如果tensor只有一个元素,调用item会将tensor转为python中scalars;如果不是一个元素,则会报错。
Pytorch_with torch.no_grad()
requires_grad默认为False,如果某个节点被设置为True,那依赖它的节点的改参数都为True。例如y=xw,y依赖w,w的改参数设置为True时,y的该参数也变为True。 Pytorch较早版本中,有volatile该参数的设定比requires_grad的级别要高,主要是为了使某节点不求导,但现在已经被弃用。现在功能已经被with torch.no_grad代替:
x=torch.tensor([1],requires_grad=True)
with torch.no_grad():
y = x * 10
y.requires_grad ###False
#也可以使用 @torch.no_grad()
@torch.no_grad()
def ten_folder(x):
return x * 10
z= ten_folder(x)
z.requires_grad #结果为False
以上是关于Pytorch_torch.nn.MSELoss的主要内容,如果未能解决你的问题,请参考以下文章