Pytorch深度学习实战3-7:详解数据加载DataLoader与模型处理

Posted Mr.Winter`

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Pytorch深度学习实战3-7:详解数据加载DataLoader与模型处理相关的知识,希望对你有一定的参考价值。

目录

1 数据集Dataset

Dataset类是Pytorch中图像数据集操作的核心类,Pytorch中所有数据集加载类都继承自Dataset父类。当我们自定义数据集处理时,必须实现Dataset类中的三个接口:

  • 初始化
    def __init__(self)
    
    构造函数,定义一些数据集的公有属性,如数据集下载地址、名称等
  • 数据集大小
    def __len__(self)
    
    返回数据集大小,不同的数据集有不同的衡量数据量的方式
  • 数据集索引
    def __getitem__(self, index):
    
    支持数据集索引功能,以实现形如dataset[i]得到数据集中的第i + 1个数据的功能。__getitem__是后期迭代数据时执行的具体函数,其返回值决定了循环变量,例如
    class data(Dataset)
    	...
        def __getitem__(self, idx: int):
            if self.transforms:
                img = self.transforms(img)
            return img, label			# 返回的值即为后续迭代的循环变量
    
    for images, labels in dataLoader:
    	...
    

2 数据加载DataLoader

为什么有了数据集Dataset还需要数据加载器DataLoader呢?原因在于神经网络需要进一步借助DataLoader对数据进行划分,也就是我们常说的batch,此外DataLoader还实现了打乱数据集、多线程等操作。

DataLoader本质是一个可迭代对象,可以使用形如

for inputs, labels in dataloaders

进行可迭代对象的访问。

我们一般不需要去实现DataLoader的接口,只需要在构造函数中指定相应的参数即可,比如常见的batch_sizeshuffle等参数。

下面这张图非常好地说明了DatasetDataLoader的关系

接下来总结数据构造的三步法

  1. 继承Dataset对象,并实现__len__()__getitem__()魔法方法,该步骤的主要目的在于将文件形式的数据集处理为模型可用的标准数据格式,并加载到内存中;
  2. DataLoader对象封装Dataset,使其成为可迭代对象;
  3. 遍历DataLoader对象以将数据加载到模型中进行训练。

3 常用预处理方法

在数据集Dataset__getitem__()中利用torchvision.transforms进行数据预处理与变换

常见的数据预处理变换方法总结如下表

序号变换含义
1RandomCrop(size, ...)对输入图像依据给定size随机裁剪
2CenterCrop(size, ...)对输入图像依据给定size从中心裁剪
3RandomResizedCrop(size, ...)对输入图像随机长宽比裁剪,再放缩到给定size
4FiveCrop(size, ...)对输入图像进行上下左右及中心裁剪,返回五张图像(size)组成的四维张量
5TenCrop(size, vertical_flip=False)对输入图像进行上下左右及中心裁剪,再全部翻转(水平或垂直),返回十张图像(size)组成的四维张量
6RandomHorizontalFlip(p=0.5)对输入图像按概率p随机进行水平翻转
7RandomVerticalFlip(p=0.5)对输入图像按概率p随机进行垂直翻转
8RandomRotation(degree, ...)对输入图像在degree内随机旋转某角度
9Resize(size, ...)对输入图像重置分辨率
10Normalize(mean, std)对输入图像各通道进行标准化
11ToTensor()将输入图像或ndarray 转换为tensor并归一化
12Pad(padding, fill=0, padding_mode=‘constant’)对输入图像进行填充
13ColorJitter(brightness=0, contrast=0, saturation=0, hue=0)对输入图像修改亮度、对比度、饱和度、色度等
14Grayscale(num_output_channels=1)对输入图像转灰度
15LinearTransformation(matrix)对输入图像进行线性变换
16RandomAffine(...)对输入图像进行仿射变换
17RandomGrayscale(p=0.1)对输入图像按概率p随机转灰度
18ToPILImage(mode=None)对输入图像转PIL格式图像
19RandomOrder()随机打乱transforms操作顺序

4 模型处理

考虑以下场景:

网络的部分层级结构已经收敛、无需调整;大型复杂网络需要微调(Fine-tune)某些结构或参数;希望基于已训练好的模型进行改善或其他研究工作。

这些场景下重新通过数据集训练整个神经网络并无必要,甚至会使模型不稳定,因此引入预训练(pretrained)。Pytorch允许用户保存已训练好的模型,或加载其他模型,避免往复的无谓重训练,其中模型参数文件以.pth为后缀

# 保存已训练模型
torch.save(model.state_dict(), path)
# 加载预训练模型
model.load_state_dict(torch.load(path), device)

通过设置模型某些层可学习参数的requires_grad属性为False即可固定这部分参数不被后续学习过程影响。深度学习框架应用优势之一在于预设了对GPU的支持,大大提高模型处理与训练的效率。Pytorch中通过mode.to(device)方法将模型部署到指定设备上(CPU/GPU),范式如下:

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
model.to(device)

工程上也常使用torch.nn.DataParallel(model, devices)来处理多GPU并行运算,其原理是:首先将模型加载到主GPU上,再将模型从主GPU产生若干副本到其余GPU,随后将一个batch中的数据按维度划分为不同的子任务给各GPU进行前向传播,得到的损失会被累积到主GPU上并由主GPU反向传播更新参数,最后将更新参数拷贝到其余GPU以开始下一轮训练。

5 实例:MNIST数据集处理

下面给出了处理MNIST手写数据集的完整代码,可以用于加深对数据处理流程的理解

from abc import abstractmethod
import numpy as np
from torchvision.datasets import mnist
from torch.utils.data import Dataset
from PIL import Image

class mnistData(Dataset):
    '''
    * @breif: MNIST数据集抽象接口
    * @param[in]: dataPath -> 数据集存放路径
    * @param[in]: transforms -> 数据集变换
    '''    
    def __init__(self, dataPath: str, transforms=None) -> None:
        super().__init__()
        self.dataPath = dataPath
        self.transforms = transforms
        self.data, self.label = [], []

    def __len__(self) -> int:
        return len(self.label)

    def __getitem__(self, idx: int):
        img = self.data[idx]
        if self.transforms:
            img = self.transforms(img)
        return img, self.label[idx]

    @abstractmethod
    def plot(self, index: int) -> None:
        pass

    @abstractmethod
    def load(self) -> list:
        pass

    def plotData(self, index: int, info: str=None) -> None:
        '''
        * @breif: 可视化训练数据
        * @param[in]: index -> 数据集索引
        * @param[in]: info -> 备注信息
        * @retval: None
        '''
        print(info, " --index:", index, "--label:", self.label[index])  if info else \\
        print(" --index:", index, "--label:", self.label[index])          
        img = Image.fromarray(np.uint8(self.data[index]))
        img.show()

    def loadData(self, train: bool) -> list:
        '''
        * @breif: 下载与加载数据集
        * @param[in]: train -> 是否为训练集
        * @retval: 数据与标签列表
        '''    
        # 如果指定目录下不存在数据集则下载
        dataSet   = mnist.MNIST(self.dataPath, train=train, download=True)
        # 初始化数据与标签
        data  = [ i[0] for i in dataSet ]
        label = [ i[1] for i in dataSet ]
        return data, label

class mnistTrainData(mnistData):
    '''
    * @breif: MNIST训练集
    * @param[in]: dataPath -> 数据集存放路径
    * @param[in]: transforms -> 数据集变换
    '''    
    def __init__(self, dataPath: str, transforms=None) -> None:
        super().__init__(dataPath, transforms=transforms)
        self.data, self.label = self.load()

    def plot(self, index: int) -> None:
        self.plotData(index, "trainSet data")

    def load(self) -> list:
        return self.loadData(train=True)


class mnistTestData(mnistData):
    '''
    * @breif: MNIST测试集
    * @param[in]: dataPath -> 数据集存放路径
    * @param[in]: transforms -> 数据集变换
    '''    
    def __init__(self, dataPath: str, transforms=None) -> None:
        super().__init__(dataPath, transforms=transforms)
        self.data, self.label = self.load()

    def plot(self, index: int) -> None:
        self.plotData(index, "testSet data")

    def load(self) -> list:
        return self.loadData(train=False)

Pytorch深度学习实战3-5:详解计算图与自动微分机(附实例)

目录

1 计算图原理

计算图(Computational Graph)是机器学习领域中推导神经网络和其他模型算法,以及软件编程实现的有效工具。

计算图的核心是将模型表示成一张拓扑有序(Topologically Ordered)有向无环图(Directed Acyclic Graph),其中每个节点 u i u_i ui包含数值信息(可以是标量、向量、矩阵或张量)和算子信息 f i f_i fi。拓扑有序指当前节点仅在全体指向它的节点被计算后才进行计算。


计算图的优点在于:

  • 可以通过基本初等映射 的拓扑联结,形成复合的复杂模型,大多数神经网络模型都可以被计算图表示;
  • 便于实现自动微分机(Automatic Differentiation Machine),对给定计算图可基于链式法则由节点局部梯度进行反向传播。

计算图的基本概念如表所示,基于计算图的基本前向传播和反向传播算法如表

符号含义
n n n计算图的节点数
l l l计算图的叶节点数
L L L计算图的叶节点索引集
C C C计算图的非叶节点索引集
E E E计算图的有向边集合
u i u_i ui计算图中的第 i i i节点或其值
d i d_i di u i u_i ui 的维度
f i f_i fi u i u_i ui的算子
α i \\alpha _i αi u i u_i ui的全体关联输入
J j → i \\boldsymbolJ_j\\rightarrow i Jji节点 u i u_i ui关于节点 u j u_j uj的雅克比矩阵
P i \\boldsymbolP_i Pi输出节点关于输入节点的雅克比矩阵

2 基于计算图的传播

基于计算图的前向传播算法如下


基于计算图的反向传播算法如下

以第一节的图为例,可知 E = ( 1 , 3 ) , ( 2 , 3 ) , ( 2 , 4 ) , ( 3 , 4 ) E=\\left\\ \\left( 1,3 \\right) ,\\left( 2,3 \\right) ,\\left( 2,4 \\right) ,\\left( 3,4 \\right) \\right\\ E=(1,3),(2,3),(2,4),(3,4)。首先进行前向传播:

u 3 = u 1 + u 2 = 5 u 4 = u 2 u 3 = 15 \\begincases u_3=u_1+u_2=5\\\\ u_4=u_2u_3=15\\\\\\endcases u3=u1+u2=5u4=u2u3=15

J 1 → 3 = ∂ u 3 / ∂ u 1 = 1 J 2 → 3 = ∂ u 3 / ∂ u 2 = 1 J 2 → 4 = ∂ u 4 / ∂ u 2 = u 3 = 5 J 3 → 4 = ∂ u 4 / ∂ u 3 = u 2 = 3 \\begincases \\boldsymbolJ_1\\rightarrow 3=\\partial u_3/\\partial u_1=1\\\\ \\boldsymbolJ_2\\rightarrow 3=\\partial u_3/\\partial u_2=1\\\\ \\boldsymbolJ_2\\rightarrow 4=\\partial u_4/\\partial u_2=u_3=5\\\\ \\boldsymbolJ_3\\rightarrow 4=\\partial u_4/\\partial u_3=u_2=3\\\\\\endcases J13=u3/u1=1J23=u3/u2=1J24=u4/u2=u3=5J34=u4/u3=u2=3

接着进行反向传播:

P 4 = 1 P 3 = P 4 J 3 → 4 = 3 P 2 = P 4 J 2 → 4 + P 3 J 2 → 3 = 8 P 1 = P 3 J 1 → 3 = 3 \\begincases \\boldsymbolP_4=1\\\\ \\boldsymbolP_3=\\boldsymbolP_4\\boldsymbolJ_3\\rightarrow 4=3\\\\ \\boldsymbolP_2=\\boldsymbolP_4\\boldsymbolJ_2\\rightarrow 4+\\boldsymbolP_3\\boldsymbolJ_2\\rightarrow 3=8\\\\ \\boldsymbolP_1=\\boldsymbolP_3\\boldsymbolJ_1\\rightarrow 3=3\\\\\\endcases P4=1P3=P4J34=3P2=P4J24+P3J23=8P1=P3J13=3

3 神经网络计算图

一个神经网络的计算图实例如下,所有参数都可以用之前的模型表示

L u 1 = W 1 ∈ R n 1 × n 0 u 2 = b 1 ∈ R n 1

以上是关于Pytorch深度学习实战3-7:详解数据加载DataLoader与模型处理的主要内容,如果未能解决你的问题,请参考以下文章

Pytorch深度学习实战3-5:详解计算图与自动微分机(附实例)

PyTorch深度学习实战-1-Python3环境与PyTorch安装

Pytorch深度学习实战3-6:详解网络骨架模块nn.Module(附实例)

《深度学习与计算机视觉算法原理框架应用》PDF+《深度学习之PyTorch实战计算机视觉》PDF

(机器学习深度学习常用库框架|Pytorch篇)第二节:Pytorch中数据加载方法(DataLoaderDataSet和Sampler)

(机器学习深度学习常用库框架|Pytorch篇)第二节:Pytorch中数据加载方法(DataLoaderDataSet和Sampler)