CIFAR和SVHN在各CNN论文中的结果
Posted liaohuiqiang
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了CIFAR和SVHN在各CNN论文中的结果相关的知识,希望对你有一定的参考价值。
CIFAR和SVHN结果
- 加粗表示原论文中该网络的最优结果。
- 可以看出DenseNet-BC优于ResNeXt优于DenseNet优于WRN优于FractalNet优于ResNetv2优于ResNet。
- ResNeXt-29,8x64d表示29层,ResNeXt分支数为8,每个分支的bottleneck宽度为64。
- 这里记录的结果是使用了标准数据增强的test error。
- 因为有些论文会拿前人工作的次优结果对比,所以这些结果可能会和一些论文的实验数据有所出入。
网络 | 网络参数 | CIFAR10 | CIFAR100 | SVHN | 备注 |
---|---|---|---|---|---|
ResNet-110 | 1.7M | 6.61 | |||
ResNet-110 | 1.7M | 6.41 | 27.22 | 2.01 | 黄高复现 |
ResNet-164 | 1.7M | 25.16 | resNetv2提中提到的 | ||
ResNetv2-164 | 1.7M | 5.46 | 24.33 | ||
ResNetv2-1001 | 10.2M | 4.69 | 22.68 | ||
FractalNet-20 with drop | 38.6M | 4.60 | 1.87 | ||
FractalNet-40 | 22.9M | 22.49 | |||
WRN-40-4 | 8.9M | 4.53 | 21.18 | ||
WRN-16-8 | 11.0M | 4.27 | 20.43 | ||
WRN-28-10 | 36.5M | 4.00 | 19.25 | ||
WRN-28-10 dropout | 36.5M | 3.89 | 18.85 | ||
WRN-16-4 dropout | 1.64 | ||||
ResNeXt-29,8x64d | 34.4M | 3.65 | 17.77 | ||
ResNeXt-29,16x64d | 68.1M | 3.58 | 17.31 | ||
DenseNet-40(k=12) | 1.0M | 5.24 | 24.42 | 1.79 | |
DenseNet-100(k=12) | 7.0M | 4.10 | 20.20 | 1.67 | |
DenseNet-100(k=24) | 27.2M | 3.74 | 19.25 | 1.59 | |
DenseNet-BC-100(k=12) | 0.8M | 4.51 | 22.27 | 1.76 | |
DenseNet-BC-250(k=24) | 15.3M | 3.62 | 17.60 | 1.74 | |
DenseNet-BC-190(k=40) | 25.6M | 3.46 | 17.18 |
以上是关于CIFAR和SVHN在各CNN论文中的结果的主要内容,如果未能解决你的问题,请参考以下文章
深度学习实战Keras构建CNN神经网络完成CIFAR100类别分类
Keras CIFAR-10分类 自定义simple CNN篇