服务器cpu是否在文件传输上比普通cpu好很多?
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了服务器cpu是否在文件传输上比普通cpu好很多?相关的知识,希望对你有一定的参考价值。
我的i7-8750下载东西24m,那个程序就用了30多%,现在家庭网络有的下载速度可以达到100多m每秒,那我的电脑就传输速度会卡到死。还是一对一的传输。
服务器是一对多传输,而且还要处理大量数据。
服务器是不是在数据传输和数据处理上比普通cpu好
而家用电脑通常是为了办公、娱乐、通信、游戏等日常应用而设计的,高带宽下载和读写时,自然会和其他应用争夺系统资源而发生冲突,卡顿是自然的。
还有,服务器采用的系统和家用PC的系统也是不一样的。本回答被提问者采纳 参考技术B 并不是这样的,服务器CPU是在多线程上占优势,可以同时处理多个线程,可是在处理单一线程上,对家用cpu上并没有什么优势,反而因为频率较低而稍有劣势。
Torch 线性模型前向传递在 GPU 上比 CPU 慢 4 倍
【中文标题】Torch 线性模型前向传递在 GPU 上比 CPU 慢 4 倍【英文标题】:Torch linear model forward pass 4 times slower on GPU then CPU 【发布时间】:2016-10-13 00:05:32 【问题描述】:我正在使用 Torch 7 开发 AWS GPU 实例之一。 以下代码对线性模型的简单前向传递进行了基准测试。 gpu 执行似乎慢了大约 4 倍。我做错了什么?
require 'torch';
require 'nn';
cmd = torch.CmdLine()
cmd:option("-gpu", 0) -- gpu/cpu
cmd:option("-n_in", 100)
cmd:option("-n_out", 100)
cmd:option("-n_iter", 1000)
params = cmd:parse(arg)
A = torch.Tensor():randn(params.n_in);
model = nn.Sequential():add(nn.Linear(params.n_in, params.n_out))
if params.gpu>0 then
require 'cutorch';
require 'cudnn';
A = A:cuda()
model = model:cuda()
end
timer = torch.Timer()
for i=1,params.n_iter do
A2 = model:forward(A)
end
print("Average time:" .. timer:time().real/params.n_iter)
【问题讨论】:
尝试更大的维度 谢谢,好像是这样!使用 -n_in 10000 -n_out 500 运行可以在 gpu 上提供大约 30 倍的加速。 【参考方案1】:您需要足够大的网络才能充分利用 GPU。对于小型网络(
【讨论】:
以上是关于服务器cpu是否在文件传输上比普通cpu好很多?的主要内容,如果未能解决你的问题,请参考以下文章
Torch 线性模型前向传递在 GPU 上比 CPU 慢 4 倍