PyTorch构造数据集(深度学习计算机视觉)

Posted SnoopyBUG

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了PyTorch构造数据集(深度学习计算机视觉)相关的知识,希望对你有一定的参考价值。

构造数据集

在之前的学习过程中,训练模型用的数据集是pytorch自带的MNIST等,对导入数据集不求甚解。但当上手手势识别项目的时候,我对数据的导入一头雾水,查找到的资料让人“从入门到放弃”。自闭之后,重新研究了构造pytorch数据集的步骤,弄懂了其中一种相对简单的方法。

储存图片路径与标签的文件

以txt文件为例,train.txt和test.txt文件中每行都只有一张图片的路径、对应的标签。test.txt文件某片段如下,每行最后的数字是图片的标签。

test/2/hand1_2_top_seg_4_cropped.png 2
test/2/hand1_2_top_seg_3_cropped_0_9961.png 2
test/2/hand1_2_top_seg_3_cropped_0_7789.png 2
test/2/hand2_2_bot_seg_1_cropped.png 2
test/3/hand2_3_right_seg_1_cropped.png 3
test/3/hand5_3_bot_seg_2_cropped.png 3

可以先将图片根据标签储存在不同文件夹,在此基础上,使用python脚本创建这类txt文件。
(csv等文件亦可,本文以txt为例)

导入所需的库

import torch
import torchvision
from PIL import Image
import sys

自定义datasets类

自定义Dataset的子类——datasets类。
要之后要用Dataloader所定义的datasets类的话,这个类得拥有三个必要的函数:init、getitem、len。
注意:这里image_path在txt文件中path前加了’hand_gesture_data/’,保证image_path是正确的相对路径。

class gesture_datasets(torch.utils.data.Dataset):
    def __init__(self, txt_path, transform=None):
        lines = open(txt_path, 'r')
        imgs = []
        for line in lines:
            line = line.rstrip()
            words = line.split()
            imgs.append((words[0], int(words[1])))
        self.imgs = imgs
        self.transform = transform
    def __getitem__(self, index):
        image_path = 'hand_gesture_data/' + self.imgs[index][0]
        label = self.imgs[index][1]
        img = Image.open(image_path).convert('RGB')
        img = self.transform(img)
        return img, label
    def __len__(self):
        return len(self.imgs)

定义load_data函数

这里定义了一个函数用于load data,其中将datasets类实例化后,关键在于torch.utils.data.DataLoader的使用。
txt_path同样是相对路径。使用Dataloader时可以考虑多线程(暂不支持Windows)。

def load_data_gesture(batch_size, resize=None):
    transform = []
    if resize:
        transform.append(torchvision.transforms.Resize(size=resize))
    transform.append(torchvision.transforms.ToTensor())
    transform = torchvision.transforms.Compose(transform)
    gesture_train = gesture_datasets(txt_path='hand_gesture_data/train/train.txt', transform=transform)
    gesture_test = gesture_datasets(txt_path='hand_gesture_data/test/test.txt', transform=transform)
    num_workers = 0 if sys.platform.startswith('win') else 4
    train_iter = torch.utils.data.DataLoader(gesture_train, batch_size=batch_size, shuffle=True, num_workers=num_workers)
    test_iter = torch.utils.data.DataLoader(gesture_test, batch_size=batch_size, shuffle=False, num_workers=num_workers)
    return train_iter, test_iter

调用函数即可构造

train_iter, test_iter = load_data_gesture(batch_size=60, resize=(224, 224))

以上是关于PyTorch构造数据集(深度学习计算机视觉)的主要内容,如果未能解决你的问题,请参考以下文章

EasyCV DataHub 提供多领域视觉数据集下载,助力模型生产

参考《深度学习之PyTorch实战计算机视觉》PDF

分享《深度学习与计算机视觉算法原理框架应用》《大数据架构详解从数据获取到深度学习》PDF数据集

分享《深度学习与计算机视觉算法原理框架应用》PDF《大数据架构详解从数据获取到深度学习》PDF +数据集

对比学习:《深度学习之Pytorch》《PyTorch深度学习实战》+代码

PyTorch迁移学习教程(计算机视觉应用实例)