【深度学习-6】Normalization and Evaluation

在上一篇文章中,我们学会了如何计算一个人工神经元的输出。人工神经网络的计算实际上就是从input层开始,按照同样的方法依次计算网络各层中的神经元,直到得到最终的output。神经网络的权重值(weights)决定了网络最终的输出值。训练(training)神经网络的过程实际上就是不断地调整权重,从而使网络输出的结果更优的过程。

在学习具体的神经网络训练算法之前,我们先来学习如何对input数据进行标准化(normalization),以及如何对神经网络的output进行评估(evaluation)。这一部分内容并不仅仅针对神经网络,对其他类型的模型也适用。

Normalization

我们拿到的原始数据往往不能直接使用,一般需要经过数据清洗和标准化之后才能用来训练。下面我们学习一些常用的标准化方法。

One-of-N Encoding
对于无序分类(各个类别不能排序)数据,我们使用的标准化方法是One-of-N encoding,有时也称之为one-hot encoding。在神经网络中,每个输出神经元对应一个类别(class)。比如在识别手写数字的问题中,一共有10个class(0-9),我们的神经网络就有10个输出神经元,每个输出神经元的softmax激活函数给出input属于该class(具体数字)的概率。这十个数字的编码结果如下:

0 -> [1,0,0,0,0,0,0,0,0,0]
1 -> [0,1,0,0,0,0,0,0,0,0]
2 -> [0,0,1,0,0,0,0,0,0,0]
3 -> [0,0,0,1,0,0,0,0,0,0]
4 -> [0,0,0,0,1,0,0,0,0,0]
5 -> [0,0,0,0,0,1,0,0,0,0]
6 -> [0,0,0,0,0,0,1,0,0,0]
7 -> [0,0,0,0,0,0,0,1,0,0]
8 -> [0,0,0,0,0,0,0,0,1,0]
9 -> [0,0,0,0,0,0,0,0,0,1]

如果我们使用tanh激活函数,需要把0替换成-1。

Range Normalization
对于实数数据或者有序分类(类别可以排序)的数据,我们可以使用range标准化,也就是将input数据的range映射到激活函数的range。比如,Sigmoid的range是0到1,tanh的range是-1到1。
range标准化的公式:

range_normalization.png

dH and dL:high and low values of the data to be normalized
nH and nL: high and low values to normalize into (usually 0 and 1)
有时候我们需要normalization的逆运算(denormalization),公式如下:
range_denormalization.png

Z-Score Normalization
Z-score是针对实数数据或者有序分类数据最常用的normalization方法。Z-score的计算公式如下:

mean.png

sd.png

z-score.png

Evaluation

训练神经网络的目标是让网络的output更加接近我们的期望值,下面我们来学习如何评价神经网络的output。

二元分类(Binary Classification)问题
二元分类实际上就是二选一的问题,比如 true or false, yes or no, correct or incorrect。处理此类问题的神经网络一般只有一个输出神经元,输出的是input属于某一类(比如true)的概率p。由于只有2个类别,且概率之和为1,所以属于另一类(false)的概率就是1-p。概率p是一个从0到1的值,当p大于某个cutoff(比如0.5)的时候,我们就认为input属于true类,小于cutoff就认为input属于false类。这个世界上没有完美的事物,所以我们在做判断的时候总会出现错误。如果真实情况是false,而我们预测结果是true,就犯了假阳性(False Positive,type-1)错误;如果真实情况是true,而我们的预测结果是false,就犯了假阴性(False Negative,type-2)错误。

在二元分类问题中还有2个重要指标:

  1. 敏感性(Sensitivity)或者称为真阳性率(True Positive Rate),TPR=TP/(TP+FN)
  2. 特异性(Specificity)或者称为真阴性率(True Negative Rate),TNR=TN/(TN+FP)

敏感性和特异性就像鱼肉和熊掌一样不可兼得,提高特异性的时候,敏感性降低;提高敏感性的时候,特异性降低。


sensitivity_vs_specificity.png

我们在评价模型的时候不能片面地追求某一个指标,比如我们在检测某种疾病的时候,如果把所有人都诊断为阴性(就不会有假阳性,FP=0),特异性就会达到100%,;如果把所有人都诊断为阳性(就不会有假阴性,FN=0),敏感性也会达到100%,而这些都是毫无意义的。

我们可以使用总体预测率(Total Prediction Rate)来综合考虑敏感性和特异性:


total_prediction_rate.png

也可以使用ROC(Receiver Operator Characteristic)曲线来可视化敏感性和特异性的关系:


ROC.png

ROC曲线的y轴是模型的真阳性率(敏感性),我们训练模型的目的就是为了尽可能找出我们需要找到的case,所以真阳性率越高越好,但是这样努力是有代价的,通过ROC曲线我们可以看到,随着敏感性的提高,假阳性率也在不断提高(特异性下降)。我们在ROC曲线上找到自己想要的敏感性(y),就可以知道它所对应的假阳性率(x)。通过ROC曲线下的面积(Area Under the Curve, AUC),我们还可以比较不同分类器的性能。

多元分类(Multi-Class Classification)问题
我们可以使用log loss来评估多元分类器的性能。二元分类可以看成是多元分类的一个特例,所以我们先看如何用log loss来处理二元分类问题,然后扩展到多元分类。

Log Loss的公式:


log_loss.png

N表示训练集中元素的个数
y-hat表示模型的预测(概率值)
y表示已知的正确答案(1或0,不是概率)
假设我有A和B两个类,训练集中第一个元素的类别是A(y=1),分类器预测是A的概率为80%(y-hat=0.8),我们可以这样计算:1×log(0.8) + (1-1)×log(1-0.8) = log(0.8)。按照同样的方法依次计算训练集中所有的元素,然后求平均值。由于对概率值取log得到的是负数,所以我们还要给平均值乘以-1,这样我们的log loss就是一个正数。假设我们预测的准确率为100%,log loss就等于0(-log(1)=0),因此,我们在训练的时候就需要最小化log loss值。

只要理解了上面的公式,再看多元分类的log loss就易如反掌了:


multi-class_log_loss.png

M表示的是类别的数目,其他的和前面的公式一样。
假设我有A,B,C三个类,训练集中第一个元素的类别是A,分类器预测是A的概率为60%(y-hat1=0.6),B的概率为30%(y-hat2=0.3),C的概率为10%(y-hat3=0.1),我们可以这样计算:1×log(0.6) + 0×log(0.3) + 0×log(0.1) = log(0.6)。按照同样的方法依次计算训练集中所有的元素,然后求平均值,再乘以-1。

回归(Regression)问题
均方误差(Mean Squared Error, MSE) 是评估回归模型的最常用的方法。

MSE.png

y是期望值,y-hat是预测值,两者的差值取平方后再计算所有数据的均值。

参考文献

  1. Jeff Heaton. AIFH, Volume 3: Deep Learning and Neural Networks, 2015
qrcode.jpg
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,590评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 86,808评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,151评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,779评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,773评论 5 367
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,656评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,022评论 3 398
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,678评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,038评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,659评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,756评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,411评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,005评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,973评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,203评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,053评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,495评论 2 343

推荐阅读更多精彩内容