探索VGG网络与LeNet网络对精度的影响

Posted 算法与编程之美

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了探索VGG网络与LeNet网络对精度的影响相关的知识,希望对你有一定的参考价值。

1 问题

在学习不同网络模型对实验精度的影响过程中,对我们的实验结果,各种参数数值的改变有何变化,有何不同。

VGG-11网络与LeNet-5网络对精度和损失的影响研究。
训练周期=20
其他参数都相同的方式来探索最终的精度。

2 方法

对于VGG-11网络,使用了八层卷积,五层池化,三层全连接,而LeNet网络,使用了两层卷积,两层池化,三层全连接。

新增的代码(网络模型,画图):

### VGG-11
class MyNet(nn.Module):
def __init__(self) -> None:
super().__init__() # 继承用法

self.conv1 = nn.Conv2d(
in_channels=1,
out_channels=6,
stride=1,
kernel_size=5,
padding=0

)

self.avg_pool_1 = nn.AvgPool2d(
stride=2,
kernel_size=2
)

self.conv2 = nn.Conv2d(
in_channels=6,
out_channels=16,
kernel_size=5,
stride=1,
padding=0

)

self.avg_pool_2 = nn.AvgPool2d(
kernel_size=2,
stride=2
)

self.fc1 = nn.Linear(in_features=16*4*4,out_features=120)
self.fc2 = nn.Linear(in_features=120,out_features=84)
self.fc3 = nn.Linear(in_features=84,out_features=10)
def forward(self,x):

x = self.conv1(x)
x = self.avg_pool_1(x)
x = self.conv2(x)
x = self.avg_pool_2(x)
# 此时格式为 [-,5,5,16]
# 卷积后必须flatten 才能全连接,经过flatten
x = torch.flatten(x,1) # [B,C,H,W] --> [-,C,H,W]

x = self.fc1(x)
x = self.fc2(x)
out = self.fc3(x)
return out
### LeNet-5
class MyNet(nn.Module):
def __init__(self) -> None:
super().__init__() # 继承用法

self.conv1 = nn.Conv2d(
in_channels=1,
out_channels=6,
stride=1,
kernel_size=5,
padding=0

)

self.avg_pool_1 = nn.AvgPool2d(
stride=2,
kernel_size=2
)

self.conv2 = nn.Conv2d(
in_channels=6,
out_channels=16,
kernel_size=5,
stride=1,
padding=0

)

self.avg_pool_2 = nn.AvgPool2d(
kernel_size=2,
stride=2
)

self.fc1 = nn.Linear(in_features=16*4*4,out_features=120)
self.fc2 = nn.Linear(in_features=120,out_features=84)
self.fc3 = nn.Linear(in_features=84,out_features=10)
def forward(self,x):

x = self.conv1(x)
x = self.avg_pool_1(x)
x = self.conv2(x)
x = self.avg_pool_2(x)
# 此时格式为 [-,5,5,16]
# 卷积后必须flatten 才能全连接,经过flatten
x = torch.flatten(x,1) # [B,C,H,W] --> [-,C,H,W]

x = self.fc1(x)
x = self.fc2(x)
out = self.fc3(x)
return out

VGG-11网络:

LeNet-5网络:

3 结语

根据最后的可视化展示图可以清晰地看到:

  1. VGG-11网络在十次周期的训练下,训练精度和验证精度虽第二次较第一次精度还下降了,但从第二次周期起到第六周期精度的提升较大,精度差不多在95%左右,后面的几次周期虽然也在提升精度,但提升的幅度不是很大.
    LeNet-5网络在十次周期的训练下,训练精度和验证精度,训练周期次数与精度成正比,且在前七次的周期下,精度提升较快,后面三次的训练,提升幅度较小
  2. 根据最终的实验结果可以看到,两个网络模型都是在训练十次的时候精度最高,LeNet-5测试精度为89.04% ; VGG-11测试精度为98.15%,可见VGG-11网络的效果较好
  3. 虽然二者的精度相差有点大,但是LeNet-5的训练时间较VGG-11的训练时间较少,但除了时间问题上,VGG-11网络比LeNet网络要好。

最后不足:1、本次实验的训练次数只有十次,精度最高的Epoch都为10,所以不知道再训练100、1000次后的精度是怎么改变,精度最高的epoch也不知。

2、在实验最初开始前,没统计网络模型的训练时间,后面也无法根据训练时间这一指标来比较这两模型的好坏。

以上是关于探索VGG网络与LeNet网络对精度的影响的主要内容,如果未能解决你的问题,请参考以下文章

经典分类CNN模型系列其二:VGG

VGG网络与LeNet5网络的对比分析

VGG网络与LeNet5网络的对比分析

resnet18和vgg16哪个好

CNN LeNet-5 AlexNet VGG简介

VGG卷积神经网络模型解析