VGG梳理

Posted liuboblog

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了VGG梳理相关的知识,希望对你有一定的参考价值。

创新点(小卷积核、小池化核、层数更深、全连接变卷积)

  • 对AlexNet改进,在第一个卷积层中使用了更小的卷积核和卷积stride
  • 多尺度(训练和测试时,采用图片的不同尺度(当然是按各向同性缩放的最小边划定标准))
  • 层数深
  • 测试阶段,将三个全连接变为三个卷积层,以适应任何大小的图片输入(最后那里是score map求平均)

不同层次的网络结构

技术图片
从上图可以看出,依旧延续了AlexNet的5-3结构(5个卷积快,3个全连接,其中最后一个是输出)

实验结果

技术图片
技术图片

  • LRN无用
  • 加深网络,可以提高精度
  • 多尺度输入(训练)可以提高精度
  • 多尺度测试也可以提高精度(多尺度训练、多尺度测试合称尺度抖动)
  • 融合dense evaluation和multi-scale evaluation效果好
    dense evaluation表示不进行224×224的裁剪,直接放入网络,全连接改为卷积

感受野的大小

卷积神经网络特征图上的像素点映射回原图上的大小

两个问题

Q1:为什么使用3×3的卷积核
(1)减小参数量,若生成相同大小的特征图,三个3×3的卷积相当于一个7×7的卷积:
3×(C×3×3×C)=27C2

C×7×7×C = 49C2
(2)激活层增加,增加非线性

Q2:1×1卷积核的作用
(1)一种为决策增加非线性因素的方式
(2)调整网络的维度扩维或者缩小维度

以上是关于VGG梳理的主要内容,如果未能解决你的问题,请参考以下文章

test

为啥resnet34 比vgg16 还慢

动手学习VGG16

VGG卷积神经网络模型解析

VGG卷积神经网络模型解析

VGG 系列的探索与pytorch实现 (CIFAR10 分类问题) - Acc: 92.58 % (一文可通VGG + pytorch)