Pytorch用GPU到底能比CPU快多少?

Posted 雷课

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Pytorch用GPU到底能比CPU快多少?相关的知识,希望对你有一定的参考价值。

雷课

关注













Pytorch用GPU到底能比CPU快多少?

给踌躇于要不要买GPU的朋友们做一点微小的贡献:

Pytorch用GPU到底能比CPU快多少?

同一段脚本,同样的数据量,同样的神经网络配置,用cpu和gpu分别计算,看看分别用了多长时间。用事实说话,用结果证明。相信看完了你就会明白自己想要的是什么!


结论

同样的钱,买GPU得到的计算能力,是CPU的15倍。

Pytorch用GPU到底能比CPU快多少?
是不是非常震惊,
接下来咱们仔细分析下!

神经网络配置:

Pytorch用GPU到底能比CPU快多少?

5层hidden layer,每层500个nodes,一共500个epochs,做一次实验;

5层hidden layer,每层1000个nodes,一共1000个epochs,再做一次实验;

CPU信息:

4 Intel(R) Core(TM) i5-6600K CPU @ 3.50GHz

4核的inteli5-6600K处理器,主频3.50GHz。目前市场价大约250刀。


如图所示,确实4个cpu核心都用上了,都在干活儿。


GPU信息:

NVIDIA GeForce GTX 1070 8GB

一块1070的GPU。我用的是的1070,550刀; 假如是业界挖矿明星1080Ti,应该会更快,1080Ti目前大约950刀。我买1070的原因是便宜。根据下图userbenchmark网站的统计结果,1080Ti的速度比1070高56%,但价格高了近一倍,所以我觉得1080Ti不太划算,最终买的1070。(不要被下图的价格误导了,那个价格是三个月内的全网最低价,实际上是买不到的,我说的价格才是市场平均价。)

Pytorch用GPU到底能比CPU快多少?



结果:

对于500nodes,500epoches的case:

CPU用时2分30秒;

GPU用时4秒;

GPU速度是CPU的37倍;

考虑到GPU速度太快,作为样本不太好,里面不确定因素多,所以我们再做一次实验。

对于1000nodes,1000epoches的case:


CPU用时11分18秒;

GPU用时21秒;

GPU速度是CPU的32倍;

可以算出大致时间相差32-37倍。

价格比较

CPU250刀;

GPU550刀;

Pytorch用GPU到底能比CPU快多少?

计算性价比:

CPU:32×250/550=14.5

GPU:37×250/550=16.8

Pytorch用GPU到底能比CPU快多少?

结    论


      对于3.50GHz的CPU和8G的GPU,两者的速度差大约在32-37倍;

性价比上,同样的钱买GPU和买CPU,在做神经网络的时候,速度上大约有14.5~16.8倍的差距。


对比其他人的研究:


“GPUS ARE ONLY UP TO 14 TIMES FASTER THAN CPUS” SAYS INTEL | The Official NVIDIA Blogblogs.nvidia.com

nvidia官网引用interl的研究,表示有14倍的差距; 我们的计算结果相差不大。


附件

脚本:

import torchimport torch.nn as nnimport torch.nn.functional as Fimport numpy as npimport matplotlib.pyplot as pltfrom torch.autograd import Variableimport time

# print start timeprint "Start time = "+time.ctime()

# read datainp = np.loadtxt("input" , dtype=np.float32)

oup = np.loadtxt("output", dtype=np.float32)#inp = inp*[4,100,1,4,0.04,1]oup = oup*500inp = inp.astype(np.float32)oup = oup.astype(np.float32)# Hyper Parametersinput_size = inp.shape[1]hidden_size = 1000output_size = 1num_epochs = 1000learning_rate = 0.001

# Toy Datasetx_train = inpy_train = oup

# Linear Regression Modelclass Net(nn.Module):

    def __init__(self, input_size, hidden_size, output_size):

        super(Net, self).__init__()

        #self.fc1 = nn.Linear(input_size, hidden_size)

        self.fc1 = nn.Linear(input_size, hidden_size)

        self.l1 = nn.ReLU()

        self.l2 = nn.Sigmoid()

        self.l3 = nn.Tanh()

        self.l4 = nn.ELU()

        self.l5 = nn.Hardshrink()

        self.ln = nn.Linear(hidden_size, hidden_size)

        self.fc2 = nn.Linear(hidden_size, output_size)

 

    def forward(self, x):

        out = self.fc1(x)

        out = self.l3(out)

        out = self.ln(out)

        out = self.l1(out)

        out = self.fc2(out)

        return out

model = Net(input_size, hidden_size, output_size)

# Loss and Optimizercriterion = nn.MSELoss()optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)  

###### GPUif torch.cuda.is_available():

    print "We are using GPU now!!!"

    model = model.cuda()

# Train the Model for epoch in range(num_epochs):

    # Convert numpy array to torch Variable

    if torch.cuda.is_available():

        inputs  = Variable(torch.from_numpy(x_train).cuda())

        targets = Variable(torch.from_numpy(y_train).cuda())

    else:

        inputs  = Variable(torch.from_numpy(x_train))

        targets = Variable(torch.from_numpy(y_train))

 

    # Forward + Backward + Optimize

    optimizer.zero_grad()  

    outputs = model(inputs)

    loss = criterion(outputs, targets)

    loss.backward()

    optimizer.step()

    

    if (epoch+1) % 5 == 0:

        print ('Epoch [%d/%d], Loss: %.4f' 

               %(epoch+1, num_epochs, loss.data[0]))

# print end timeprint "End time = "+time.ctime()

# Plot the graphif torch.cuda.is_available():

    predicted = model(Variable(torch.from_numpy(x_train).cuda())).data.cpu().numpy()else:

    predicted = model(Variable(torch.from_numpy(x_train))).data.numpy()plt.plot( y_train/500, 'r-', label='Original data')plt.plot( predicted/500,'-', label='Fitted line')#plt.plot(y_train/500, predicted/500,'.', label='Fitted line')plt.legend()plt.show()

# Save the Modeltorch.save(model.state_dict(), 'model.pkl')


阅读原文”,查看最新培训安排

以上是关于Pytorch用GPU到底能比CPU快多少?的主要内容,如果未能解决你的问题,请参考以下文章

Linux/Windows GPU/CPU版 pytorch安装

PyTorch:用 GPU 训练比用 CPU 训练同样的东西错误更严重

Linux服务器配置GPU版本的pytorch Torchvision TensorFlow

安装pytorch-gpu时会默认安装cpu版本

清华源conda 安装gpu版本的pytorch总是推送cpu版本解决办法

在 Pytorch 中,当传输到 GPU 时,我收到一个错误“在 CPU 上,但应该在 GPU 上”