(Caffe,LeNet)初始化测试网络(四)

本文从CSDN上转移过来:
http://blog.csdn.net/mounty_fsc/article/details/51090698

在 (Caffe,Lenet5)初始化训练网络(三)中介绍了训练网络的初始化,本文介绍测试网络的初始化。

1 测试网络结构

No. Layer layer Type Bottom Blob Top Blob Top Blob Shape
1 minst Data data&&label 100 1 28 28 (78400)&&100 (100)
2 label_mnist_1_split Split label label_mnist_1_split_0&&label_mnist_1_split_1 100 (100)&&100 (100)
3 conv1 Convolution data conv1 100 20 24 24 (1152000)
4 pool1 Pooling conv1 pool1 100 20 12 12 (288000)
5 conv2 Convolution pool1 conv2 100 50 8 8 (320000)
6 pool2 Pooling conv2 pool2 100 50 4 4 (80000)
7 ip1 InnerProduct pool2 ip1 100 500 (50000)
8 relu1 ReLU ip1 ip1(in-place) 100 500 (50000)
9 ip2 InnerProduct ip1 ip2 100 10 (1000)
10 ip2_ip2_0_split Split ip2 ip2_ip2_0_split_0&&ip2_ip2_0_split_1 100 10 (1000)&&100 10 (1000)
11 accuracy Accuracy ip2_ip2_0_split_0&&label_mnist_1_split_0 accuracy (1)
12 loss SoftmaxWithLoss ip2_ip2_0_split_1&&label_mnist_1_split_1 loss (1)

注:Top Blob Shape格式为:BatchSize,ChannelSize,Height,Width(Total Count)

2 与训练网络对比

  1. 训练网络9层,测试网络12层
  2. 训练网络没有的是:多了label_mnist_1_split、layer ip2_ip2_0_split、accuracy,类型为Split LayerAccuracy Layer

3 Split Layer

其功能主要是复制blob,将一个bottom blob复制成多个top blob

4 Accuracy Layer

Accuracy完成的任务是统计预测正确样本的个数信息。如总样本N个,正确分类n个,正确率为n/N。

主要变量:

  • label_axis_为标签对应的轴(对应的blob中的那个维度)
  • outer_num_总的来说是样本数量,详细解释见后面
  • inner_num_同上,总的来说是样本数量,详细解释见后面
  • top_k为取前k个最高评分(的预测标签)
message AccuracyParameter {
...
  // The "label" axis of the prediction blob, whose argmax corresponds to the
  // predicted label -- may be negative to index from the end (e.g., -1 for the
  // last axis).  For example, if axis == 1 and the predictions are
  // (N x C x H x W), the label blob is expected to contain N*H*W ground truth
  // labels with integer values in {0, 1, ..., C-1}.
  optional int32 axis = 2 [default = 1];
}

定义中关于axis的说明:

  1. axis指出在预测blob中,哪一维是label轴,如(N x C x H x W)的blob,axis=0,则N为label对应的维度。axis=1,则C为label对应的维度,而剩下的N为outer样本数量, H x W为inner样本数量。
  2. 由代码可知,当axis=kouter_num_=blob.shape[0,..,k),inner_num_=blob.shape[k+1,..,shape.size)
  3. 一般的,label blob的维度为(N x C),N为样本数量,C为标签数量(即类别个数)。axis=1,outer_num_=N,inner_num_=shape[2,2)=1(即没有inner)
  outer_num_ = bottom[0]->count(0, label_axis_);
  inner_num_ = bottom[0]->count(label_axis_ + 1);
  
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,509评论 6 504
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,806评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 163,875评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,441评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,488评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,365评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,190评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,062评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,500评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,706评论 3 335
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,834评论 1 347
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,559评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,167评论 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,779评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,912评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,958评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,779评论 2 354

推荐阅读更多精彩内容