一些零碎的知识

1、MLE和MAP

MLE: 模型已定,参数未知

极大似然估计,是一种参数估计的方法。即假设样本满足某种分布,利用已知的样本结果信息去反推最有可能导致这些样本出现的模型参数值。
极大似然估计中的采样必须满足独立同分布原则。
极大似然估计的核心关键就是对于一些情况,样本太多,无法得出分布的参数值,可以采样小样本后,利用极大似然估计获取假设中分布的参数值。

https://zhuanlan.zhihu.com/p/32480810
https://zhuanlan.zhihu.com/p/37215276

2、交叉熵损失函数和softmax损失函数

为什么不用MSE,是因为分类问题必须是one-hot形式算出各label的概率,然后通过softmax选出最终的分类,而MSE计算的loss曲线是波动的,存在很多局部极值点,而cross entropy计算loss是凸优化问题,有更好的收敛性。

MSE的loss曲线

那么问题来了,为什么cross entropy的曲线必定是凸的呢?
****************************************************=****************************************************************

分类问题,都用 onehot + cross entropy
training 过程中,分类问题用 cross entropy,回归问题用 mean squared error。
training 之后,validation / testing 时,使用 classification error,更直观,而且是我们最关注的指标。

3、信息论

信息量:时间x0的信息量,p(x0)表示事件x0发生的概率

信息量

熵(信息熵):随机变量或者一个系统的不确定性,是对所有可能发生的事件产生的信息量的期望,熵越大,随机变量或系统的不确定性就越大

信息熵

交叉熵:衡量在给定真实分布下,使用非真实分布所指定的策略消除系统的不确定性所需要付出代价

交叉熵(公式加负号)

相对熵(K-L散度):用来衡量两个取值为正的函数或概率分布之间的差异

相对熵

在机器学习中,常使用KL散度来评估预测分布和真实分布之间的差别,由于K-L散度的前部分是一个常量,因此常把后半部分的交叉熵作为损失函数,本质是一样的,是衡量两个分布的距离。

4、Batch Normalization

https://zhuanlan.zhihu.com/p/33173246
https://zhuanlan.zhihu.com/p/69659844
https://zhuanlan.zhihu.com/p/52749286
https://zhuanlan.zhihu.com/p/34879333
https://zhuanlan.zhihu.com/p/43200897
https://www.zhihu.com/question/38102762/answer/85238569
https://zhuanlan.zhihu.com/p/54530247

5、样本不均衡问题

  • 降采样
  • 重采样

实际的效果,降采样要优于重采样。

  • 对大类数据先聚类得到n个簇,从每个簇中选择一个代表性的样本,再与小类样本进行训练。
  • 数据合成,即随机插值得到新样本

6、归一化

归一化的好处:

  • 加快了梯度下降求解最优解的速度
  • 有可能提高精度
    归一化类型:
  • 线性归一化
    x' = x - min(x)/ max(x) - min(x)
  • 标准差归一化
    x' = x - u / \sigma
  • 非线性归一化

7、beam_search和viterbi

8、激活函数

(1)线性函数
(2)sigmoid函数 (严格递增,值域0-1)
(3)tach函数 (值域-1~1)
(4)ReLU=max(0,x) (稀疏)


逻辑回归是神经网络的一个特例

9、

11、损失函数

交叉熵损失:衡量两个概率分布之间的距离,若p代表正确的label,q代表预测值,则H(p, q) = -\sum p(x) logq(x)。而神经网络的输出大多是实数,可用softmax转换。
例如:一个三分类问题,某个样例的正确答案是(1, 0, 0),某模型经过softmax变换后的预测答案是(0.5, 0.4, 0.1),那预测和正确答案的交叉熵是:H((1, 0, 0), (0.5, 0.4, 0.1)) = -(1*log0.5 + 0*log0.4 + 0*log0.1)=0.3

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,172评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,346评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,788评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,299评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,409评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,467评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,476评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,262评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,699评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,994评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,167评论 1 343
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,827评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,499评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,149评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,387评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,028评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,055评论 2 352

推荐阅读更多精彩内容