「深度学习一遍过」必修10:pytorch 框架的使用

Posted 荣仔!最靓的仔!

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了「深度学习一遍过」必修10:pytorch 框架的使用相关的知识,希望对你有一定的参考价值。

本专栏用于记录关于深度学习的笔记,不光方便自己复习与查阅,同时也希望能给您解决一些关于深度学习的相关问题,并提供一些微不足道的人工神经网络模型设计思路。
专栏地址:「深度学习一遍过」必修篇

目录

1 Tensor生成

2 Tensor基本操作

形状查看

形状更改

增加维度

压缩维度

3 Tensor其他操作

4 Pytorch网络定义与优化

4.1 基础网络定义接口

4.2 网络结构定义与前向传播

4.3 优化器定义

4.4 优化器使用流程

         4.5 Tensor 的自动微分 autograd

5 pytorch数据与模型接口

5.1 数据接口

5.2 计算机视觉数据集与模型读取

5.3 数据增强接口

5.4 模型保存


1 Tensor生成

 类似于  的  ,可以使用  进行计算。

import torch

构造一个默认  型的  张量

torch.Tensor(5, 3)

构造一个  矩阵,不初始 

torch.empty(5, 3)

 构造一个随机初始化的矩阵

torch.rand(5, 3)

构造一个矩阵全为 ,而且数据类型是 

torch.zeros(5, 3, dtype=torch.long)

torch.long

基于已经存在的  创建一个 

x = torch.zeros(5, 3, dtype=torch.long)
x.new_ones(5, 3, dtype=torch.double)

构造一个张量,为 ,从数据中推断数据类型

torch.tensor([5.5, 3])

2 Tensor基本操作

在张量做加减乘除等运算时,需要保证张量的形状一致,往往需要对某些张量进行更改

import torch

构造一个默认  型的  张量 

x = torch.Tensor(5, 3)
x

形状查看

x.size()

x.shape

x.dim()   # dim维度

形状更改

展为  矩阵,共享内存

x.view(3,5)

展为  维向量

x.view(-1)

 增加维度

torch.unsqueeze(x,1)

压缩维度

torch.squeeze(x,1)

3 Tensor其他操作

拼接与拆分,基本数学操作:对多个分支的张量加以融合或拆分

torch.cat()   #拼接 
torch.stack() #堆叠 
torch.chunk() #分块 
torch.split() #切分
z = x + y     # torch加法
z = torch.add(x, y)     # torch加法 
y.add_(x)     # 下划线版本,in-place加法,原地运算,结果存在y中

4 Pytorch网络定义与优化

4.1 基础网络定义接口

通过 包来构建网络, 包含 

  • :纯函数,不包含可学习参数,如激活函数,池化层
  •  的核心数据结构,可以是一个  或者一个网络,其中  自动提取可学习参数,适用于卷积层,全连接层等

4.2 网络结构定义与前向传播

通过  包来构建网络

import torch 
import torch.nn as nn 
import torch.nn.functional as F 

class Net(nn.Module): 
    def __init__(self): 
        super(Net, self).__init__() #继承Net类,并进行初始化 
        self.conv1 = nn.Conv2d(1, 6, 5) #继承nn.Module的需要实例化 
        self.conv2 = nn.Conv2d(6, 16, 5) 
        self.fc1 = nn.Linear(16 * 5 * 5, 120) 
        self.fc2 = nn.Linear(120, 84) 
        self.fc3 = nn.Linear(84, 10) 
        
    def forward(self, x): #前向传播函数 
        x = F.max_pool2d(F.relu(self.conv1(x)), (2, 2)) #relu,max_pool2d,不需要实例化 
        x = F.max_pool2d(F.relu(self.conv2(x)), 2) 
        x = x.view(-1, self.num_flat_features(x)) 
        x = F.relu(self.fc1(x)) 
        x = F.relu(self.fc2(x)) 
        x = self.fc3(x) 
        return x
  1.  需要实例化,可以与  配合使用, 不行, 不需要实例化。
  2. 不需要传入 不行。
  3.  层状态自动切换,可以实现, 不行。
import torch.nn as nn

# 创建一个Model类, 这个模型的功能就是给输入的数加上1
class Model(nn.Module):
    def __init__(self):
        super().__init__()

    def forward(self, input):
        output = input + 1
        print(output)

model = Model()         # 实例化
input = torch.tensor(1) # 输入为1
model(input)            # 输出为0

 和  都是和输入共享内存的, 的好处是不用输入形状参数,直接指定维度,在这之后的都被拉平。则是更加灵活.

4.3 优化器定义

通过  包来构建(优化目标与方法定义)

import torch.optim as 

optim criterion = nn.CrossEntropyLoss() #交叉熵损失 
optimizer_ft = optim.SGD(modelclc.parameters(), lr=0.1, momentum=0.9) #SGD优化方法 
exp_lr_scheduler = lr_scheduler.StepLR(optimizer_ft, step_size=100, gamma=0.1) #学习率

4.4 优化器使用流程

三个步骤:清空梯度、反向传播、更新参数

for input, target in dataset: 
    optimizer.zero_grad() #清空梯度 
    
    output = model(input) #自动执行forward函数 
    loss = loss_fn(output, target) #计算损失 
    
    loss.backward() #反向传播 
    optimizer.step() #更新参数

前向计算

out = net(img) #自动执行forward函数 
loss = criterion(out,label) #计算损失

反向传播

loss.backward()   #反向传播 
optimizer.step() #更新参数

4.5 Tensor 的自动微分 autograd

 和  互相连接并构建一个非循环图,它保存完整计算过程。

完成自动求导的步骤:

  1.  的属性  设置为 ,开始跟踪针对  的所有操作。
  2. 完成计算后调用 自动计算所有梯度。
  3. 将该张量的梯度将累积到  属性中。

 是输入叶子结点, 和  需要进行参数更新。

import torch 
import numpy as np 

x=torch.Tensor([2]) #定义输入张量x 
#初始化权重参数W,偏移量b、并设置require_grad为True, 为自动求导 
w=torch.randn(1,requires_grad=True) 
b=torch.randn(1,requires_grad=True) 
y=torch.mul(w,x) 
z=torch.add(y,b) #等价于y+b 
z.backward() #标量进行反向传播,向量则需要构建梯度矩阵 

print("x,w,b,y,z的require_grad属性分别为:{},{},{},{},{}".format(x.requires_grad, w.requires_grad,b.requires_grad,y.requires_grad,z.requires_grad)) 

如何取消求导?

  1. 调用  修改  为 ,它将其与计算历史记录分离
  2. 调用  停止  模块的工作
# 推理案例 
torch.no_grad() #停止autograd模块的工作,加速和节省显存 
image = Image.open(imagepath) 
imgblob = data_transforms(img).unsqueeze(0) #填充数据维度 
imgblob = Variable(imgblob) 
predict = F.softmax(net(imgblob)) 
index = np.argmax(predict.detach().numpy())

5 pytorch数据与模型接口

5.1 数据接口

通过  包来构建数据集

读取数据的  个必须实现的函数:

  1. __init__:相关参数定义
  2. __len __:获取数据集样本总数
  3.  __getitem __:读取每个样本及标签
class TestDataset(torch.utils.data.Dataset):
    #继承Dataset 
    def __init__(self): 
        self.Data=np.asarray([[1,2],[3,4],[2,1],[3,4],[4,5]])#数据 
        self.Label=np.asarray([0,1,0,1,2])#标签 
        
    def __getitem__(self, index): 
        data=torch.from_numpy(self.Data[index]) #把numpy转换为Tensor 
        label=torch.tensor(self.Label[index]) 
        return data,label 
    
    def __len__(self): 
        return len(self.Data)
# 使用index取数据 
Test=TestDataset() 
print(Test[2]) #结果是(tensor([2, 1]), tensor(0)) 
print(Test.__len__()) #结果是5

使用  迭代器提取数据(实现批量读取,打乱数据等)

# 获得数据指针 
test_loader = data.DataLoader(Test, batch_size=2,shuffle=False, num_workers=2)  
  • batch_size:batch大小
  • shuffle=False:是否打乱
  • num_workers=2:加载数据线程数

 参数:

  • 当加载  的时间 数据训练的时间, 每次训练完都可以直接从  中取到  的数据 无需额外的等待,不需要多余的 ,即使增加  也不会影响训练速度
  • 当加载  的时间 数据训练的时间, 每次训练完都需要等待  完成数据的载入,若增加 , 即使  个  还未就绪, 也可以取其他  的数据来训练

5.2 计算机视觉数据集与模型读取

通过  包来读取已有的数据集和模型

 等, )

# 数据集读取
import torchvision.dataset as dataset 
data_dir = './data/'
data = datasets.ImageFolder('./data',data_transform) 
dataloader = data.DataLoader(data)

5.3 数据增强接口

每一次训练时,需要输入同样大小的图片进行训练,一般使用裁剪  缩放操作。

torchvision 数据增强接口

通过  包的  进行数据预处理和增强:包括缩放,裁剪等数据增强函数,标准化等预处理函数

data_transforms = {
    'train': transforms.Compose([ 
        transforms.Scale(64),         # 缩放的图像大小:64*64
        transforms.RandomSizedCrop(48),      # 实际用于训练的图像大小:48*48,采用随机裁剪与缩放操作(此时Scale为冗余操作)
        transforms.RandomHorizontalFlip(), 
        transforms.ToTensor(), 
        transforms.Normalize([0.5,0.5,0.5], [0.5,0.5,0.5]) ]), 
    'val': transforms.Compose([ 
        transforms.Scale(64), 
        transforms.CenterCrop(48),       # 实际用于测试的图像大小:48*48,采用中心裁剪操作
        transforms.ToTensor(), 
        transforms.Normalize([0.5,0.5,0.5], [0.5,0.5,0.5]) ]), }

常见的数据预处理与增强相关的操作

CenterCrop,ColorJitter,FiveCrop,Grayscale,Pad,RandomAffine,RandomApply, RandomCrop,RandomGrayscale, RandomHorizontalFlip,RandomPerspective,RandomResizedCrop,RandomRotation, RandomSizedCrop, RandomVerticalFlip, Resize,Scale,TenCrop,GaussianBlur,RandomChoice,RandomOrder, LinearTransformation,Normalize,RandomErasing,ConvertImageDtype, ToPILImage,ToTensor,Lambda

通过  包的  接口,自定义数据增强函数

import torchvision.transforms.functional as TF 
import random 

def my_segmentation_transforms(image, segmentation): 
    if random.random() > 0.5: 
        angle = random.randint(-30, 30) 
        image = TF.rotate(image, angle) 
        segmentation = TF.rotate(segmentation, angle) 
        # more transforms ... 
        return image, segmentation

torchvision 模型接口

通过  包来读取已有的模型,等)

# 模型读取、导出
import torchvision.models as models 
model = models.alexnet(pretrained=True).cuda() 
torch.save(model.state_dict(),'models/model.ckpt') 
dummy_input = torch.randn(10, 3, 224, 224).cuda() 
torch.onnx.export(model, dummy_input, "alexnet.proto", verbose=True)

5.4 模型保存

保存或加载整个模型

#保存 
torch.save(model, '\\model.pkl’) 

#加载 
model = torch.load('\\model.pkl’)

保存或加载模型参数

# 保存 
torch.save(model.state_dict(), '\\parameter.pkl') 

# 加载 
model = TheModelClass(...) 
model.load_state_dict(torch.load('\\parameter.pkl’))

 是一个  字典对象,将每个图层映射到其参数

只有具有可学习参数的层(卷积层,线性层等)和已注册的缓冲区( 的 )才存在。

欢迎大家交流评论,一起学习

希望本文能帮助您解决您在这方面遇到的问题

感谢阅读
END

以上是关于「深度学习一遍过」必修10:pytorch 框架的使用的主要内容,如果未能解决你的问题,请参考以下文章

「深度学习一遍过」必修15:PyTorch模型分析

「深度学习一遍过」必修18:基于pytorch的语义分割模型实现

「深度学习一遍过」必修17:基于Pytorch细粒度分类实战

「深度学习一遍过」必修3:Pytorch数据读取——使用Dataloader读取Dataset

「深度学习一遍过」必修13:使用pytorch对Inception结构模型进行设计

「深度学习一遍过」必修14:基于pytorch研究深度可分离卷积与正常卷积的性能差异