PyTorch多卡训练

Posted 流水不争先_争的是滔滔不绝

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了PyTorch多卡训练相关的知识,希望对你有一定的参考价值。

下面代码实现torch多卡同时训练

import pytorch as torch
from torch.utils.data.distributed import DistributedSample
torch.distributed.init_process_group(backend='nccl')#初始化并行训练
n_gpu = torch.cuda.device_count()#统计gpu数量
model = torch.nn.DataParallel(model)#多卡部署模型
data  = TensorDataset(data)
data = DistributedSample(data)#分布训练
loss = model(data)
loss = loss.mean()#多卡取平均loss

以上是关于PyTorch多卡训练的主要内容,如果未能解决你的问题,请参考以下文章

pytorch单机多卡训练

Pytorch多卡训练

Pytorch使用分布式训练,单机多卡

Pytorch使用分布式训练,单机多卡

pytorch 多卡训练,模型保存的一些问题

pytorch 多卡训练,模型保存的一些问题