Image Classification

Nearest Neighbor Classifier

L1 vs. L2. It is interesting to consider differences between the two metrics. In particular, the L2 distance is much more unforgiving than the L1 distance when it comes to differences between two vectors. That is, the L2 distance prefers many medium disagreements to one big one. L1 and L2 distances (or equivalently the L1/L2 norms of the differences between a pair of images) are the most commonly used special cases of a p-norm.
L1和L2的比较:L2对差异的容忍度更低。也就是说,相对于一个巨大的差异,L2更倾向于接受多个中等程度的差异。L1和L2都是最常见的p-norm的一种特殊形式。


K-Nearest Neighbor Classifier

we cannot use the test set for the purpose of tweaking hyperparameters.
Hyperparameters的选择:在实际中,我们不能用测试集(test set)作为参数的调整。

Evaluate on the test set only a single time, at the very end.

Validation sets for Hyperparameter tuning

可以使用验证集(validation set)的方法来调整hyperparameters
Using CIFAR-10 as an example, we could for example use 49,000 of the training images for training, and leave 1,000 aside for validation. This validation set is essentially used as a fake test set to tune the hyper-parameters.

Split your training set into training set and a validation set. Use validation set to tune all hyperparameters. At the end run a single time on the test set and report performance.

Cross-validation

实际中,人们避免使用交叉验证,因为交叉验证计算量很大。人们一般把50%-90%的数据作为训练数据,其余的作为验证数据。然而,这还取决于其他因素,例如:如果超参数量很大,你希望使用更大的验证集。如果验证集的数量很少(只有几百),那么你就应该使用交叉验证的方法。在实践中,你一般看到的是3-fold,5-fold或者10-fold交叉验证。


Pros and Cons of Nearest Neighbor classifier

优点

  • 易实现、易理解
  • 分类器的训练不需要花费时间

缺点:

  • 测试时间很长
  • 分类器必须记住所有的训练数据,为了以后和测试数据进行比较

The Nearest Neighbor Classifier在某些特定情况下是一个不错的选择(特别当数据是低维的),但是在实际的图像分类工作中,很少被使用。

在实际中使用kNN

  1. 预处理你的数据。对你数据中的特征进行归一化,即零平均值(zero mean)和单位方差(unit variance)。
  2. 如果你的数据维度很高,考虑使用一种降维的方法。例:PCA (wiki ref, CS229ref, blog ref) or even Random Projections.
  3. 将你的数据随机分为train/val集。一般规律是:70-90%的数据为训练集。这个比例由超参数的数量和这些超参数对于算法的预期影响来决定。如果超参数的数量很多,那么应该使用更大的验证集来估计。如果担心验证集的数量不够多,那么最好使用交叉验证的方法。如果计算资源足够多,那么最好使用交叉验证(fold的个数越多越好,但是计算量也就大)。
  4. 在验证集(Validation data)上调优。选择k、和距离类型(L1 和L2)
  5. 如果kNN分类器所需的计算时间过长,考虑使用 Approximate Nearest Neighbor library (e.g. FLANN)缺点是准确率降低。
  6. 记录最优的超参数。记录最优参数后,是否应该让使用最优参数的算法在完整的训练集上运行并再次训练呢?因为如果把验证集重新放回到训练集中(自然训练集的数据量就又变大了),有可能最优参数又会有所变化。在实践中,不要这样做。不要在最终的分类器中使用验证集数据,这样做会破坏对于最优参数的估计。直接使用测试集来测试用最优参数设置好的最优模型,得到测试集数据的分类准确率,并以此作为你的kNN分类器在该数据上的性能表现。

来源:cs231n-classification

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,658评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,482评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,213评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,395评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,487评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,523评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,525评论 3 414
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,300评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,753评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,048评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,223评论 1 343
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,905评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,541评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,168评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,417评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,094评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,088评论 2 352

推荐阅读更多精彩内容