Pytorch用自动微分求sin(x)的导数

Posted SinHao22

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Pytorch用自动微分求sin(x)的导数相关的知识,希望对你有一定的参考价值。

目录

1. 问题分析

1.1 问题描述

其实这个问题很简单,本篇博客全当备忘录了。我们的需求是:

图片来源:李沐:《动手学深度学习 PyTorch版》

1.2 解决思路

我们使用pytorch的自动微分机制来实现,我第一次是这么写的:

import torch

x = torch.arange(-5, 5, 0.01, requires_grad=True)
y = torch.sin(x)
y.backward()
print("f(x)=sin(x)的导数为:".format(x.grad))

结果报错了:


原因是这里的y是一个向量,而在使用y.backward()这个方法时,若backward中没有传入gradient这个参数时,只允许y是标量。事实上当xy都是向量时,yx求导得到的是一个矩阵(雅各比矩阵),我在这篇博客中有一些介绍:向量对向量求导,得到雅各比矩阵

解决方法其实相当简单,本质思路是:将向量y转换为标量,然后使用标量的y进行y.backward()。

那么如何转换呢?其实只需对向量y的每一项进行求和即可,标量对向量的求导还是向量,设向量x=[x1, x1, …, xn],向量y=[sin(x1), sin(x2), …, sin(xn)],我们将向量y的每一项求和,得到标量y1=sin(x1)+sin(x2)+…+sin(xn),最后用标量y1对向量x求导,即可得到向量d(y1)=[cos(x1), cos(x2), …, cos(xn)],代码如下:

import torch

x = torch.arange(-5, 5, 0.1, requires_grad=True)
y = torch.sin(x)
y1 = y.sum()
y1.backward()
print("f(x)=sin(x)的导数为:\\n".format(x.grad))

2. 代码实现

def get_derivative_tensor(x):
    x = torch.tensor(x, requires_grad=True)
    y1 = torch.sin(x)
    y1.sum().backward()
    return x.grad

x = np.arange(-5, 5, 0.01)
y = np.sin(x)

plt.plot(x, y, label='sin(x)')
dx = get_derivative_tensor(x)
plt.plot(x, dx.numpy(), label='dx')
plt.xlabel('x')
plt.ylabel('f(x)')
plt.legend()
plt.show()


END :)

其实一直在想这么简单的东西要不要写个总结,后来觉得还是不应该轻视自己原本不会的问题。“吾师道也,夫庸知其年之先后生于吾乎?”同理,我是在追求进步,哪还用在乎问题本身是否困难呢,如果因为问题简单就不屑于总结,一直得过且过,长期看来怕是很难进步。

以上是关于Pytorch用自动微分求sin(x)的导数的主要内容,如果未能解决你的问题,请参考以下文章

微积分学习笔记一:极限 导数 微分

Autograd:自动微分

什么是微分?什么是导数?如何利用微分-导数方程求导数?

深度学习框架中的自动微分及高阶导数

matlab数值微分函数是啥?

单变量微分导数与链式法则