cs231n notes#1: linear-classify

agenda

  • 摘要
  • 直觉解释
  • Loss function
    • 简单说
    • Multiclass Support Vector Machine loss
    • Softmax classifier
    • SVM vs Softmax

abstract

去年看完了cs231n 的视频,一直没有抽出时间总结和弄下作业, 这里总结一下笔记注解,原笔记, 线性分类是基础,中间包括的好多概念后续在CNN,RNN复用,相对比较简单.
线性分类模型:给定N个图片x的byte array长度为D, 固定分类K, 通过被训练过的参数矩阵W([KxD])和b(Kx1), 把一个输入图片经过线性运算 fW(x) + b 映射出对应K个分类的置信度的过程.
已CIFAR-10为例,N = 50,000, 每张的大小D=32x32x3,输出分类K=10,用线性运算做分类, W = 10x3072, b = 10x1, 把输入3072 byte的图像数据map成得分的过程
具有这几个特点:

  • 10个分类并行计算,不存在先后的依赖关系
  • label和输入图片是固定的, 可变的/训练的是参数W, b
  • 比之前单纯对比图像相似度,训练重&识别轻
  • 矩阵乘/加运算快于内存比对

直觉解释

线性函数具有对某种颜色在特定位置的敏感, 这里不是形状或者更高级的特征(the function has the capacity to like or dislike certain colors at certain positions in the image).比如船的分类器在图片边缘蓝色通过激励,使符合的图片得分高

另外一种直观的理解方式:把图像理解成二位空间的一个点, 通过线性分类划分各自的zone,github原图如下:

还有一种直观的解释:把它理解成模板匹配, 图像的一行数据和W的一列match贡献正得分.额外有一点注意因为线性分类的特点,大海蓝色内积得分应高于船的分类,线性分类器对双头马也是高分的,因为训练数据中既有头在左边的也有头在右边的.线性分类对车的识别效果就差很多了,因为激活敏感是基于颜色+位置,车可以有各种各样的颜色.

Loss function

  • 简单说
    线性运算是拟合一个分类, 真实分类和线性运算的结构的间隙大小就用loss函数来表示.
  • Multiclass Support Vector Machine loss(SVM)
    这个loss的主旨是让正确的分类能够比其他分类得分倾向高出一个delta(The SVM loss is set up so that the SVM "wants" the correct class for each image to a have a score higher than the incorrect classes by some fixed margin (\Delta).). 具体的第i个图像x_i,经过线性运算f, 得到score s_i = f(x_i, W), y_i是正确标记的分类
    SVM = Σj !=y_i max(0, s_j - s_{y_i} + delta), 假如忽略delta其他错误分类小于争取分类的得分就是SVM的倾向,loss的倾向就是W改变的方向.

    当delta = 0时, 也叫hinge loss, squared hinge loss SVM (L2-SVM)在计算max做平方操作, 让违规的loss震荡的更加突出.

    SVM loss'希望/倾向'正确分类的得分比其他分类得分高出一个delta,至于其他错误分类的分高分低,它并不care.
    正规化: 但是这样的loss倾向的函数矩阵不知一个W是,2xW也是,3xW也是...,这样W都会产生同样的loss, 为了避免歧义, 在loss上加一个regularization penalty(R(W)), 以W作为参数,R(W)随W类似单调递减.最常见的是L2: R(W) = ΣiΣjWij^2
    SVM loss = Σj !=y_i max(0, s_j - s_{y_i} + delta) + ΣiΣjWij^2

    setting delta: It turns out that this hyperparameter can safely be set to (\Delta = 1.0) in all cases.对于给定delta,在计算中不可变,只会绝对大小不会影响loss的相对大小(As we shrink all values inside (W) the score differences will become lower, and as we scale up the weights the score differences will all become higher. Therefore, the exact value of the margin between the scores (e.g. (\Delta = 1), or (\Delta = 100)) is in some sense meaningless because the weights can shrink or stretch the differences arbitrarily.)

  • Softmax classifier
    softmax = e^s_i / Σj e^s_j, 最大的好处是按照给定的输入值大小给出总和为1,大小相关的数值,天然的反应了score'大'概率就大.简单实例如下:

    通常接入softmax的损失函数是cross-entropy loss(交叉熵损失函数), 这里是一篇比较好的介绍交叉熵
    熵体现了可变性,对于很确定的事情熵值低, 对于不确定的事情熵值高.

    对于一个随机变量X而言,它的所有可能取值的信息量的期望(E[I(x)])就称为熵。
    X的熵定义为: H(X)=Eplog1p(x)=−∑x∈Xp(x)logp(x),如果p(x)是连续型随机变量H(X)=−∫x∈Xp(x)logp(x)dx.把熵作为两个分布差异的度量就是相对熵(relative entropy)又称为KL散度(Kullback-Leibler divergence).DKL(p||q) = Hp(q)−H(p), H(p)作为真是分布可以理解为一个常量, Hp(q) = DKL(p||q) + H(p)变向的描述p q分布的差异,也就是交叉熵.CEH(p,q) = Ep[−logq]=−∑x∈p(x)logq(x)

SVM vs Softmax


两个loss的倾向是不同的,大小不具有可比性.
In practice, SVM and Softmax are usually comparable. The performance difference between the SVM and Softmax are usually very small, and different people will have different opinions on which classifier works better.
SVM不care 错误的差异, softmax care.
作者做了一个online的小玩具直观可以diff两者感官上的不同.http://vision.stanford.edu/teaching/cs231n-demos/linear-classify/

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,233评论 6 495
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,357评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,831评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,313评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,417评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,470评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,482评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,265评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,708评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,997评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,176评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,827评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,503评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,150评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,391评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,034评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,063评论 2 352

推荐阅读更多精彩内容