把张量计算放到GPU上进行计算

Posted baitian963

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了把张量计算放到GPU上进行计算相关的知识,希望对你有一定的参考价值。

先设置环境

parser = argparse.ArgumentParser()
parser.add_argument(‘--gpu‘,type=str,default=‘7‘)
opt=parser.parse_args()
print(opt)
os.environ["CUDA_VISIBLE_DEVICES"]=opt.gpu



然后把要放到GPU中的变量变成cuda变量
image_torch = image_torch.cuda()
其中变量要为tensor才行

计算过程中自然产生的变量不用再.cuda()放到GPU上,已经自动放上去了

但是新声明的变量要放上去,比如中间过程中:
S_out = torch.zeros(S_max.size())
就需要S_out = S_out.cuda()放到GPU上



最后把计算结果放回到CPU上
S_mean = S_mean.cpu()
S_mean = S_mean.numpy().tolist()

以上是关于把张量计算放到GPU上进行计算的主要内容,如果未能解决你的问题,请参考以下文章

使用张量流矩阵乘法测试 GPU

对 nvidia GPU 上的计算单元和预期内核的混淆

什么是pytorch?

英伟达gpu需要ai训练参数平面吗

Win10 TensorFlow(gpu)安装详解

Cuda中的多个GPU - 之前的工作代码,但不再是