第一章基本操作-自动求导

Posted my-love-is-python

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了第一章基本操作-自动求导相关的知识,希望对你有一定的参考价值。

使用目标对象的.backward()进行反向梯度求导 

import torch


x = torch.randn(3, 4, requires_grad=True)
print(x)

b = torch.randn(3, 4, requires_grad=True)

t = x + b
y = t.sum()

y.backward()

print(b.grad)

x = torch.rand(1)
b = torch.rand(1, requires_grad=True)
w = torch.rand(1, requires_grad=True)
y = x * w
z = y + b

z.backward(retain_graph=True)


print(w.grad)
print(b.grad)

 

以上是关于第一章基本操作-自动求导的主要内容,如果未能解决你的问题,请参考以下文章

PyTorch学习Aurograd自动求导机制总结

运维自动化 第一章 git

第一章 Git 一览

第一章 出事WINDOWS 窗口

hibernate-第一章-基础

OO_2019_第一单元总结——表达式求导