PyTorch学习之自动求导机制-Volatile标志

Posted cola-1998

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了PyTorch学习之自动求导机制-Volatile标志相关的知识,希望对你有一定的参考价值。

修改官方文档的错误

技术图片

 

运行官方文档中的代码可能会报错(维度不一致):

Traceback (most recent call last):
File "<stdin>", line 1, in <module>
File "e:\\Anaconda3\\lib\\site-packages\\torch\\nn\\modules\\module.py", line 489, in __call__
result = self.forward(*input, **kwargs)
File "e:\\Anaconda3\\lib\\site-packages\\torchvision\\models\\resnet.py", line 150, in forward
x = self.conv1(x)
File "e:\\Anaconda3\\lib\\site-packages\\torch\\nn\\modules\\module.py", line 489, in __call__
result = self.forward(*input, **kwargs)
File "e:\\Anaconda3\\lib\\site-packages\\torch\\nn\\modules\\conv.py", line 320, in forward
self.padding, self.dilation, self.groups)
RuntimeError: Expected 4-dimensional input for 4-dimensional weight [64, 3, 7, 7], but got 2-dimensional input of size [5, 5] instead

因为model需要四维变量,而官方文档中的是二维变量,所以会报错

修改方法:去掉Variable函数,这是0.4版本的函数,我们现在使用的大多数是1.0版本

regular_input=torch.randn(1,3,224,224)#默认是True   
volatile_input=torch.randn(1,3,224,224)
Model=torchvision.models.resnet18(pretrained=True)
Model(regular_input).requires_grad
with torch.no_grad():
Model(volatile_input).requires_grad

总结:(1)requires_grad=Fasle时不需要更新梯度, 适用于冻结某些层的梯度;
volatile=True相当于requires_grad=False,适用于推断阶段,不需要反向传播。这个现在已经取消了,使用with torch.no_grad()来替代

 

以上是关于PyTorch学习之自动求导机制-Volatile标志的主要内容,如果未能解决你的问题,请参考以下文章

PyTorch学习Aurograd自动求导机制总结

自动求导 动手学深度学习 pytorch

自动求导 动手学深度学习 pytorch

PyTorch 1.0 中文文档:自动求导机制

[Pytorch系列-22]:Pytorch基础 - Autograd库 Autograd.Function与反向自动求导机制

参考《深度学习之PyTorch实战计算机视觉》PDF