关于caffe的一些笔记

Posted mmい

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了关于caffe的一些笔记相关的知识,希望对你有一定的参考价值。

画caffenet模型图

  • my.prototxt是你要生成的模型图的网络架构文件,my.jpg是你存放图像的位置以及图像名称;
# cd python
# python draw_net.py /my.prototxt /my.jpg --rankdir=BT

卷积和反卷积后特征计算公式

  • I是input输入的大小,K是kernel卷积核的大小,P是pad边缘填充的大小,S是stride卷积操作的步伐大小;
Conv——>  Output size: (I-K+2*P)/S+1
Decov——>   Output size: S* (I - 1)+ K- 2*P

断点恢复训练

  • snapshot是你在原训练中保存下来某一时刻的网络所有参数的状态,然后从这个状态开始继续训练,而不用从头开始,因此保存网络快照很有必要;
# cd caffe
# ./build/tools/caffe train --solver=models/bvlc_reference_caffenet/solver.prototxt --snapshot=models/bvlc_reference_caffenet/caffenet_train_iter_10000.solverstate

Caffe版AlexNet网络简述

简述每层的大小变化过程

data    (64, 3, 227, 227)
conv1   (64, 96, 55, 55)
pool1   (64, 96, 27, 27)
norm1   (64, 96, 27, 27)
conv2   (64, 256, 27, 27)
pool2   (64, 256, 13, 13)
norm2   (64, 256, 13, 13)
conv3   (64, 384, 13, 13)
conv4   (64, 384, 13, 13)
conv5   (64, 256, 13, 13)
pool5   (64, 256, 6, 6)
fc6 (64, 4096)
fc7 (64, 4096)
fc8 (64, 1000)
prob    (64, 1000)

imagnet(ILSVRC 2012)数据集介绍

测试集有:100000个图像
验证集有:50000个图像
训练集有:1.2 million图像
(验证集和测试集与训练集均无交集,且训练集中无重复的图像)

Caffe中bvlc_alexnet和bvlc_reference_caffenet是有区别的

  • 右边是alex提出的模型,左边是caffe修改后的版本,区别在于它们将norm和pool层的顺序调换了,所以在使用caffemodel时要注意咯;

关于loss一直是87.3365并保持不变的原因

  1. batch_size太小
  2. 确认ImagNet的类标签是从0开始的,一直到999(ImagNet数据集有1000类)

以上是关于关于caffe的一些笔记的主要内容,如果未能解决你的问题,请参考以下文章

关于convert caffe model to torch的一些问题

CAFFE学习笔记Caffe_Example之训练mnist

关于Kubernetes中kubelet的一些笔记

关于Kubernetes中kubelet的一些笔记

Ubuntu 16.04 调试caffe深度学习框架

caffe源码学习之Proto数据格式1