使用CycleGAN训练自己制作的数据集,通俗教程,快速上手

Posted 佐咖

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了使用CycleGAN训练自己制作的数据集,通俗教程,快速上手相关的知识,希望对你有一定的参考价值。

总结了使用CycleGAN训练自己制作的数据集,这里的教程例子主要就是官网给出的斑马变马,马变斑马,两个不同域之间的相互转换。教程中提供了官网给的源码包和我自己调试优化好的源码包,大家根据自己的情况下载使用,推荐学习者下载我提供的源码包,可以少走一些弯路,按照我的教程,能较快上手训练使用。

目录

一、源码包的下载

官方给出的源码包下载链接:添加链接描述

配套教程源码包下载链接:添加链接描述 提取码:96as

下载好配套教程的源码包解压后的样纸见下:


:如果是下载官网提供源码包的童鞋,在下载后的根目录中创建两个文件,分别是:checkpoints文件(用于存放训练好的模型权重文件)和results文件(用于存放测试后结果)。

二、安装训练必要的库文件

Python的版本选用3.7或者3.8都可以。

三、准备数据集

准备数据集
数据集可以是自己准备的,也可以下载官网提供的,下载官网提供的数据集链接为:添加链接描述,如下面的样纸,打开链接后直接点击即可下载数据集,在我提供的源码包中,我已经下载了horse2zebra.zip,后面的教程也都是基于此数据集讲解的。


下载解压后将文件复制到根目录datasets文件中,如下:


训练集里面的样纸见下,如果是用自己数据集的童鞋,将两个不同域的图像,分别复制到对应的测试集里面和训练集里面。

下面是补充解释上面对应的A域,B域各对应着的类别:

四、训练数据集

1、配置训练文件

在正式训练前,需要在编译软件中配置训练文件,我这里提供的配置方法是在Pycharm编译软件中,其它编译软件的配置方法也类似,具体配置方法见下:

(1)先运行一下train.py文件,这时候会报错提示,提示需要配置训练文件,如下:

报错的提示如下:error: the following arguments are required: --dataroot

(2)打开Run的下拉菜单,点击Edit Configurations,如下:


如上图所示,在打开的编辑框中输入如下命令后点击OK即可添加好训练配置文件:

2、训练参数的修改

下面的参数童鞋根据自己的电脑配置自行修改

(1)训练轮数epoch,修改位置见下:

(2) 一次喂入图片数量,即batch_size的修改,由于CycleGAN网络特别复杂,训练占用的显存特别大,电脑配置一般的话建议改为1就可以,如果你的电脑显存为8G,参数改为2,见下:

下图是我自己电脑显存的使用情况,我电脑显存为8G,batch_size参数为2,大家参考我的电脑配置自行修改训练参数:

3、开始训练

上面步骤都准备好后在Terminal控制台中输入下面命令回车就开始训练了,如下:

python train.py --dataroot ./datasets/horse2zebra --name horse2zebra_cyclegan --model cycle_gan

回车后下面这种样纸的情况,就说明在正常训练了:

4、可视化训练过程

使用visdom可视化训练过程。安装好visdom这个库后,进入到库所在的文件夹中,打开文件server.py文件,注释一行里面的代码,防止每次打开visdom时都自动连外网更新,见下:


4.1 启动visdom

先进入虚拟环境中,输入下面命令后,复制输出的网址到浏览器中就可以实时观看CycleGAN网络的预测结果了,也可以实时看到loss值的变换情况,见下:

python -m visdom.server

五、测试训练好的模型

1、配置测试文件

上面的训练很漫长,等待全部训练完后就可以开始测试训练好的模型了,上面训练好的模型,存放在根目录文件夹checkpoints中,如下:

同样类似上面的方法,配置测试文件,先运行以下test.py文件,同样也会报错提示,如下:


开始配置测试文件:



复制权重文件到新建的文件夹horse2zebra_pretrained中,并将复制过来的权重文件名字改为latest_net_G.pth,如下:

2、开始测试

Terminal控制台中输入以下命令,并回车就开始测试了,如下:

python test.py --dataroot datasets/horse2zebra/testA --name horse2zebra_pretrained --model test --no_dropout


出现下面的样纸时就说明测试完成了,测试的最后结果会保存到根目录下的results这个文件夹中,见下:


以上就是使用CycleGAN网络训练自己数据集,并测试最终模型的过程。

六、测试官方给出的模型权重

当然有的童鞋懒得训练也可以使用官方已经训练好的模型权重文件,下载官方给的模型权重文件链接为:添加链接描述,如下:

直接点击下载好后复制到根目录下的checkpoints文件下,新建一个文件夹,再将权重文件复制进去新建的文件夹中,如下:

最后测试之前先修改test.py的配置文件,具体操作同上,如下:

最后在Terminal控制台中输入以下命令回车后,即可测试模型权重的训练结果,最后测试的图像结果保存位置也是在根目录下的results文件夹中,见下:

python test.py --dataroot datasets/horse2zebra/testA --name horse2zebra.pth_pretrained --model test --no_dropout


七、总结

以上就是使用CycleGAN训练自己制作的数据集,快速上手的通俗教程,也提供了直接下载官方提供模型权重文件的使用方法,希望我总结的教程能帮到你快速上手使用,谢谢!

风格迁移CycleGAN开源项目代码运行步骤详细教程

目录

   最近在学习Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks这篇论文,论文下载地址,想要复现一下文中的代码,过程中遇到了很多问题,因此记录下来。遇到其他问题欢迎在评论区留言,相互解答。


前言

如果没有安装Anaconda或者MIniconda的可以先安装,并学一下简单的环境以及包的管理。基本的语法有:

conda remove -n=your_env_name --all
删除虚拟环境

conda create -n=your_env_name python=3.6
创建虚拟环境

conda info --env 
显示所有环境的列表

conda activate env_name 
切换至env_name环境



一、下载项目,搭配环境

  1. 下载源码并解压。PyTorch版CycleGAN源码下载地址:CycleGAN源码

   项目结构如下,一般的项目都会包含requirements.txt, environment.yml, setup.py三者之中某些或者全部。

  • requirements.txt, environment.yml是同一类的东西,它们提供的是当前软件包安装运行所需要的环境或者依赖信息,即这些东西的安装是当前软件包安装和运行的前提条件。这些信息相当于是开发者给使用者提供的用于恢复自己开发时的环境的信息。environment.yml = python + requirements.txt。
  • setup.py跟以上两者是完全不一样的,它就是用于安装当前软件包自身的安装脚本。

  1. 打开Anaconda prompt,先切换路径到代码包解压的路径中。然后通过使用作者的环境包来搭建设定好的环境,输入:
conda env create -f environment.yml


再通过pip来安装visdom,输入:

pip install -r requirements.txt

   如果使用conda env create -f environment.yml命令时,报错CondaHTTPError,可以参考这篇文章:关于anaconda创建环境时出现CondaHTTPError问题的终极解决办法。如果还是不行,由于environment.yml中的包并不多,可以用pip手动安装。

首先创建一个环境:

conda create -n=MyProject python=3.8

进入环境:

conda activate MyProject 

用pip依次安装environment.yml文件中的包(除了torch):

pip install --index-url https://pypi.tuna.tsinghua.edu.cn/simple/ dominate=2.4.0

安装torch:安装教程下载库网址
这里最好下gpu版本的,因为下载gpu版本的,训练时可以选择gpu或者cpu进行训练。但是下载cpu版本,只能选择cpu进行训练。



二、下载数据集

  1. 找到项目中datasets文件夹下的 download_cyclegan_dataset.sh 文件,使用记事本打开,也可以点击数据集链接http://efrosgans.eecs.berkeley.edu/cyclegan/datasets/
  2. 下载horse2zebra这个压缩包,也可以下其他的,把这个数据集解压并保存在解压后的代码包的dataset文件中。


    如果下载压缩包时提示:“无法下载,网络原因”,可以下载idm,
    idm使用教程
    idm下载链接



三、训练

3.1调用Visdom可视化库

   首先把项目配置在刚才创建的环境中,参考Pycharm中如何配置已有的环境_MrRoose1的博客-CSDN博客。然后在终端输入python -m visdom.server,如果启动成功显示如下:

   如果没有反应,或者在Anaconda prompt中输入python -m visdom.server,显示Downloading scripts, this may take a little while,则可以参考博客visdom服务启动时提示Downloading scripts, this may take a little while解决办法亲测有效,可以解决。


3.2 训练

   如图添加train文件中的参数,把python train.py后面的部分,也就是--dataroot ./datasets/horse2zebra --name horse2zebra --model cycle_gan复制到Parameter中,然后运行train.py。

python train.py --dataroot ./datasets/horse2zebra --name horse2zebra --model cycle_gan

1)datasets 这个最简单,就是数据集的路径
2)name 这里指的是保存训练权重的文件夹的名字
3)model:训练的模型

如果报错module ‘torch._C’ has no attribute ‘_cuda_setDevice’,可能是因为环境里pytorch下载的CPU版本导致的。查看pytorch版本的方法:

import torch
# 若返回为True,则使用的是GPU版本的torch,若为False,则为CPU版本
print(torch.cuda.is_available())
# 返回的GPU型号为你使用的GPU型号
print(torch.cuda.get_device_name(0))
  1. 如果下载的是cpu版本,要么下载GPU版本,要么在你执行代码时加上将GPU设置成-1。

① 如果时Python文件中调用了GPU,那么设置:

torch.cuda.set_device(-1)

②如果你用命令行执行python文件,那么在最后加上

python train.py --你的GPU的设置对应形参 -1

你的GPU设置对应形参,是你的Python文件中应该会有一个arg是用来设置要使用GPU的编号的,与1同理。

  1. 如果环境里明明是GPU版本,这里有可能是因为CMD命令行识别环境错了,所以我们换在anaconda里面运行。

报错信息:UserWarning: Detected call of ‘lr_scheduler.step()’ before ‘optimizer.step()’. In PyTorch 1.1.0 and later, you should call them in the opposite order: ‘optimizer.step()’ before ‘lr_scheduler.step()’. Failure to do this will result in PyTorch skipping the first value of the learning rate schedule. See more details at https://pytorch.org/docs/stable/optim.html#how-to-adjust-learning-rate
warnings.warn("Detected call of ‘lr_scheduler.step()’ before ‘optimizer.step()’. "
把train.py文件中的第43行注释,放到第78行。

model.update_learning_rate()  # update learning rates in the beginning of every epoch.

运行成功以后,在Visdom可以看到训练过程。

   当运行train.py文件时,在文件夹下保存模型里会生成一个web文件,打开里面的html就能看到八种图片:

  • real_A:表示输入的真实的A图片
  • real_B:表示输入的真实的B图片
  • fake_B:表示真实图片A生成的假冒B风格图片
  • fake_A:表示真实图片B生成的假冒A风格图片
  • rec_A:表示fake_B再生成回A风格图片
  • rec_B:表示fake_A再生成回B风格图片
  • idt_B:表示真实图片A生成的A风格图片
  • idt_A:表示真实图片B生成的B风格图片

其中fake_B一般就是想要生成的图片

  • netG_A:生成器A,用于生成B风格的图片
  • netG_B:生成器B,用于生成A风格的图片

如果想要继续训练,运行命令如下:

python train.py --dataroot ./datasets/horse2zebra --name horse2zebra --model cycle_gan --continue_train




四、预测

4.1 用自己训练完的权重文件进行预测

用同样的方法运行test.py文件:

python test.py --dataroot ./datasets/horse2zebra --name horse2zebra --model cycle_gan

会生成一个results文件夹,打开html可以看到训练的效果。可以看到训练5轮的效果并不好。




4.2 用作者预训练文件进行预测

  1. 首先要下载预训练文件:预训练文件下载地址
  2. 在check_points文件夹里新建文件夹:horse2zebra.pth_pretrained
  3. 将下载的预训练权重文件重新命名为:latest_net_G.pth,并放在horse2zebra.pth_pretrained文件夹下。
  4. 添加新的参数运行test.py文件,参数为--dataroot datasets/horse2zebra/testA --name horse2zebra.pth_pretrained --model test --no_dropout
    也可以在anconda中激活环境运行:
python test.py --dataroot datasets/horse2zebra/testA --name horse2zebra.pth_pretrained --model test --no_dropout

打开results文件夹下horse2zebra.pth_pretrained文件夹中的html,可以看到训练的效果图。



参考:
【毕设】基于CycleGAN的风格迁移【一】环境搭建及运行代码
【深度学习】CycleGAN开源项目学习笔记 | 完整流程 | 报错总结 | pytorch

以上是关于使用CycleGAN训练自己制作的数据集,通俗教程,快速上手的主要内容,如果未能解决你的问题,请参考以下文章

深度学习:使用UNet做图像语义分割,训练自己制作的数据集,详细教程

YOLOv5全面解析教程②:如何制作训练效果更好的数据集

读取自己的数据集

读取自己的数据集

学会CycleGAN进行风格迁移,实现自定义滤镜

还没有女朋友的朋友们,你们有福了,学会CycleGAN把男朋友变成女朋友