pytorch显存越来越多的一个自己没注意的原因

Posted HRI-文狸大人

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了pytorch显存越来越多的一个自己没注意的原因相关的知识,希望对你有一定的参考价值。

optimizer.zero_grad()
loss.backward()
optimizer.step()
train_loss += loss

参考:https://blog.csdn.net/qq_27292549/article/details/80250031

我和博主犯了一毛一样的低级错误。。。。

 

下面是原博解释:

运行着就发现显存炸了

观察了一下发现随着每个batch显存消耗在不断增大..

参考了别人的代码发现那句loss一般是这样写 

loss_sum += loss.data[0]

这是因为输出的loss的数据类型是Variable。

而PyTorch的动态图机制就是通过Variable来构建图。主要是使用Variable计算的时候,会记录下新产生的Variable的运算符号,在反向传播求导的时候进行使用。

如果这里直接将loss加起来,系统会认为这里也是计算图的一部分,也就是说网络会一直延伸变大~那么消耗的显存也就越来越大~~

总之使用Variable的数据时候要非常小心。不是必要的话尽量使用Tensor来进行计算...

 

补充:

用Tensor计算也是有坑的,要写成:

 train_loss += loss.item()

不然显存还是会炸。。。。。

 

以上是关于pytorch显存越来越多的一个自己没注意的原因的主要内容,如果未能解决你的问题,请参考以下文章

[Pytorch]深度模型的显存计算以及优化

把显存用在刀刃上!17 种 pytorch 节约显存技巧

Pytorch中多GPU训练指北

PyTorch显存机制分析

《南溪的目标检测学习笔记》——训练PyTorch模型遇到显存不足的情况怎么办

Pytorch中多GPU训练指南