Pytorch加载和保存模型
Posted yqpy
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Pytorch加载和保存模型相关的知识,希望对你有一定的参考价值。
首先注明,参考了这篇博客https://www.jianshu.com/p/4905bf8e06e5
- 方法1、
先序列化,格式可以是mdl,pt等
torch.save(model.state_dict(), MODEL_PATH)
然后反序列化,再加载
model.load_state_dict(torch.load(MODEL_PATH))
- 方法2、
保存整个模型,格式可以是pth.tar
torch.save(model, PATH)
然后加载
model = torch.load(PATH)
还有一些在GPU和CPU之间的传输方法,具体见博客或者官方文档
以上是关于Pytorch加载和保存模型的主要内容,如果未能解决你的问题,请参考以下文章
pytorch - 如何从 DistributedDataParallel 学习中保存和加载模型