pytorch单机多卡训练

Posted huanxifan

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了pytorch单机多卡训练相关的知识,希望对你有一定的参考价值。

pytorch单机多卡训练

训练

只需要在model定义处增加下面一行:

model = model.to(device)  # device为0号
model = torch.nn.DataParallel(model)

载入模型

  • 如果是多GPU载入,没有问题
  • 如果训练时是多GPU,但是测试时是单GPU,会出现报错 解决办法

以上是关于pytorch单机多卡训练的主要内容,如果未能解决你的问题,请参考以下文章

Pytorch使用分布式训练,单机多卡

当代研究生应当掌握的5种Pytorch并行训练方法(单机多卡)

Pytorch Multi-GPU原理与实现(单机多卡)

PyTorch多卡训练

PyTorch多卡分布式训练DistributedDataParallel 使用方法

ResNet实战:单机多卡DDP方式混合精度训练