Pytorch_torch.nn.MSELoss

Posted cobby-baby

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Pytorch_torch.nn.MSELoss相关的知识,希望对你有一定的参考价值。

Pytorch_torch.nn.MSELoss

均方损失函数作用主要是求预测实例与真实实例之间的loss

loss(xi,yi)=(xi?yi)2

  • 函数需要输入两个tensor,类型统一设置为float,否则会报错,也可以在全局设置torch.set_default_tensor_type(torch.FloatTensor),也可以在计算时转换
loss=torch.nn.MSELoss()
c=torch.tensor([[1,2],[3,4]])
d=torch.tensor([[5,6],[7,8]])
loss(c.float(),d.float())
  • 单个tensor正常求即可,多个求其平均loss。

item()方法

如果tensor只有一个元素,调用item会将tensor转为python中scalars;如果不是一个元素,则会报错。

Pytorch_with torch.no_grad()

requires_grad默认为False,如果某个节点被设置为True,那依赖它的节点的改参数都为True。例如y=xw,y依赖w,w的改参数设置为True时,y的该参数也变为True。 Pytorch较早版本中,有volatile该参数的设定比requires_grad的级别要高,主要是为了使某节点不求导,但现在已经被弃用。现在功能已经被with torch.no_grad代替:

x=torch.tensor([1],requires_grad=True)
with torch.no_grad():
    y = x * 10
y.requires_grad ###False
#也可以使用 @torch.no_grad()
@torch.no_grad()
def ten_folder(x):
    return x * 10
z= ten_folder(x)
z.requires_grad #结果为False 

以上是关于Pytorch_torch.nn.MSELoss的主要内容,如果未能解决你的问题,请参考以下文章

R留学生作业代码代写代编程代编程代编程

IPEX-1代/3代/4代/5代,PCB天线底座,公头,样式及封装尺寸图

JVM 年轻代 老年代 持久代 gc

深圳本地网店代运营公司

C线程代业代写代调试POSIX Threads代编码

jvm中的年轻代 老年代 持久代 gc