服务器cpu是否在文件传输上比普通cpu好很多?

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了服务器cpu是否在文件传输上比普通cpu好很多?相关的知识,希望对你有一定的参考价值。

我的i7-8750下载东西24m,那个程序就用了30多%,现在家庭网络有的下载速度可以达到100多m每秒,那我的电脑就传输速度会卡到死。还是一对一的传输。
服务器是一对多传输,而且还要处理大量数据。
服务器是不是在数据传输和数据处理上比普通cpu好

网络传输速度基本只依赖网卡芯片,对CPU的占用是非常小的。服务器的CPU性能上是要好过普通的家用CPU,但是基本上性能差距并非数量级差异。 参考技术A 数据服务器主要负责数据的读取、传输、接收和存储,这些进程往往都是后台运行的,在进行数据的传输和读写时,很少同时运行其他太多的大型程序。
而家用电脑通常是为了办公、娱乐、通信、游戏等日常应用而设计的,高带宽下载和读写时,自然会和其他应用争夺系统资源而发生冲突,卡顿是自然的。
还有,服务器采用的系统和家用PC的系统也是不一样的。本回答被提问者采纳
参考技术B 并不是这样的,服务器CPU是在多线程上占优势,可以同时处理多个线程,可是在处理单一线程上,对家用cpu上并没有什么优势,反而因为频率较低而稍有劣势。

Torch 线性模型前向传递在 GPU 上比 CPU 慢 4 倍

【中文标题】Torch 线性模型前向传递在 GPU 上比 CPU 慢 4 倍【英文标题】:Torch linear model forward pass 4 times slower on GPU then CPU 【发布时间】:2016-10-13 00:05:32 【问题描述】:

我正在使用 Torch 7 开发 AWS GPU 实例之一。 以下代码对线性模型的简单前向传递进行了基准测试。 gpu 执行似乎慢了大约 4 倍。我做错了什么?

require 'torch';
require 'nn';

cmd = torch.CmdLine()
cmd:option("-gpu", 0) -- gpu/cpu
cmd:option("-n_in", 100)
cmd:option("-n_out", 100)
cmd:option("-n_iter", 1000)

params = cmd:parse(arg)
A = torch.Tensor():randn(params.n_in);
model = nn.Sequential():add(nn.Linear(params.n_in, params.n_out))

if params.gpu>0 then
    require 'cutorch';
    require 'cudnn';
    A = A:cuda()
    model = model:cuda()
end

timer = torch.Timer()

for i=1,params.n_iter do
    A2 = model:forward(A)
end
print("Average time:" .. timer:time().real/params.n_iter)

【问题讨论】:

尝试更大的维度 谢谢,好像是这样!使用 -n_in 10000 -n_out 500 运行可以在 gpu 上提供大约 30 倍的加速。 【参考方案1】:

您需要足够大的网络才能充分利用 GPU。对于小型网络(

【讨论】:

以上是关于服务器cpu是否在文件传输上比普通cpu好很多?的主要内容,如果未能解决你的问题,请参考以下文章

Torch 线性模型前向传递在 GPU 上比 CPU 慢 4 倍

服务器的cpu选哪种好?

nexus 消耗大量cpu资源,启动一堆僵尸进程

求php-cgi.exe使用率过高导致CPU100%的解决办法

性能测试之如何分析CPU异常曲线

TensorFlow 中 CPU 到 GPU 的数据传输是不是缓慢?