gpu温度监测

Posted 毛台

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了gpu温度监测相关的知识,希望对你有一定的参考价值。

在使用TensorFlow跑深度学习的时候,经常出现显存不足的情况,所以我们希望能够随时查看GPU时使用率。如果你是Nvidia的GPU,那么在命令行下,只需要一行命令就可以实现。

1. 显示当前GPU使用情况

Nvidia自带了一个nvidia-smi的命令行工具,会显示显存使用情况:

$ nvidia-smi

2. 周期性输出GPU使用情况

但是有时我们希望不仅知道那一固定时刻的GPU使用情况,我们希望一直掌握其动向,此时我们就希望周期性地输出,比如每 10s 就更新显示。这时候就需要用到 watch命令,来周期性地执行nvidia-smi命令了。

了解一下watch的功能:

$ whatis watch

watch(1) - execute a program periodically, showing output fullscreen

作用:周期性执行某一命令,并将输出显示。

watch的基本用法是:

$ watch [options] command

最常用的参数是 -n,后面指定是每多少秒来执行一次命令。

监视显存:我们设置为每 10s 显示一次显存的情况:

$ watch -n 10 nvidia-smi

这样,只要开着这个命令行窗口,就可以每十秒刷新一次,是不是很方便呢?
如果我们希望来周期性地执行其他命令行操作,那么就可以简单地更换后面的nvidia-smi即可,So Cool !

 

以上是关于gpu温度监测的主要内容,如果未能解决你的问题,请参考以下文章

gpu温度和热点温度

GPU正常工作温度

收藏六款电脑温度监测软件推荐

gpu待机温度多少正常

GPU温度多少算正常?

GPU温度多少正常 GPU温度过高怎么办