深度学习笔记

1. 线性分类

线性分类有两个主要部分:评分函数损失函数。评分函数将输入的训练采样数据映射为分类标签的评估得分,损失函数量化评估得分与实际分类标签的差异。线性分类的学习过程即更新评分函数的参数来最小化损失函数的输出。

1.1. 评分函数

令训练集为 X,采样的数量为 N,单个采样为 (x, y),采用数据 x 为一个长度为 D 的列向量,分类标签 y 为一个长度为 L 的列向量:
(x_i,\ y_i)\in X,\quad i=1,\ \cdots,\ N x=[x_1,\ x_2,\ \cdots,\ x_D]^T y=[y_1,\ y_2,\ \cdots,\ y_L]^T评分函数为:
s=f(x)=Wx+b其中,评估得分 s 为为一个长度为 L 的向量,权重 W 为一个 L * D 的矩阵,偏移向量 b 为一个长度为 L 的向量。
y 中的每一个分量对应一个分类标签,当然这是事前已知的输入值。在学习的过程中,通过对 sy 之间差异的处理,评分函数的参数 Wb 会不断的优化更新。

1.2. 损失函数

多类支持向量机损失 (Multiclass Support Vector Machine Loss)

l=[\frac{1}{N}\sum_i\sum_{j=1,\ j\ne r}^{L}max(0,\ s_j-s_r+\Delta)]+\lambda\sum_{w,\ w\in W}w^2其中,j 为每个采样中 y 的每个下标,ry 中最大(最正确)分量的下标,Δλ 为常数。公式后半部分为权重矩阵中每个分量的平方和,称为正则化损失 (Regularization Loss)

Softmax / 交叉熵损失 (Cross-entropy Loss)

l=[\frac{1}{N}\sum_i-log(\frac{e^{s_r-s_m}}{\sum_j e^{s_j-s_m}})]+\lambda\sum_{w,\ w\in W}w^2其中,ms 中最大分量的下标。加号右边为 L2正则化,抑制过拟合。

1.3. 梯度下降

梯度是多维函数的各维度偏导数组成的矢量:
\nabla f(x,\ y)=[\frac{\partial{f}}{\partial{x}},\ \frac{\partial{f}}{\partial{y}}]梯度的矢量方向的反方向为取值下降最快(最陡峭)的方向,因此其迭代的方向应该为梯度的反方向,不过,并未指明前进的步长(学习率)。

1.4. 反向传播

偏微分的链式法则
\frac{\partial{f}}{\partial{x}}=\frac{\partial{f}}{\partial{y}}\frac{\partial{y}}{\partial{x}}将一个函数视为多个操作(门)的连接。当函数的输入流过每个门,即正向传播完成时,每个门的输入和输出确定。从最后输出的门开始,只要每个门均可偏导,则每个门均能求出自己的输出对于自己的输入的所有偏导数。再使用链式法则,则每一级均能求出最终的输出对于自己的输入的所有偏导数,只要下一级将偏导数传给自己,这就是所谓的反向传播。
将评分函数与损失函数合成为一个损失标量 l 关于参数 W, b 中各个分量的函数,将此函数分解为多个操作,通过反向传播得到 l 关于 W, b 中各个分量的偏导数,再通过梯度下降来更新所有参数。

2. 神经元仿生学

大脑的基本计算单位是神经元,从树突获取输入信号,由唯一的轴突产生输出信号,轴突在末端分叉,连接其他神经元的树突。

2.1. 神经元的仿生学建模

y=f_a(w^{T}x+b)其中,x 为单个神经元从多个上游神经元收到的标量信号组成的列向量,w 为连接多个上游神经元的树突的接收增益组成的列向量,+ b 为信号在神经元中的处理,激活函数 fa 代表轴突输出信号时的处理。当然,这只是一个粗糙的模型,不接受生物专业同学之反驳。

2.2. 激活函数

Sigmoid

\sigma(x)=\frac{1}{1+e^{-x}}Sigmoid 将输出限制在 0 到 1 之内,对于神经元的激活频率有良好的解释,但大部分范围内梯度几乎为 0,会“杀死”反向传播。

ReLu

ReLu(x)=max(0,\ x)ReLu 的梯度下降收敛速度明显更快,但当一个很大的梯度流过神经元时,神经元可能“死掉”,无法被再次激活。

2.3. 神经网络

x_{k+1}=f_{a_k}(W_{k}x_k+b_k),\quad k=1,\ \cdots,\ M f_{a_M}(x)=x多个神经元模型组成神经网络中的一层,类似线性分类评分函数的矩阵表达,其中,多个神经元的向量 w 组成矩阵 W,标量 b 组成向量 b。第 k 层的输出向量为第 k + 1 层的输入向量。第 1 至第 M - 1 为隐藏层,第 M 层为输出层,通常输出层没有激活函数,或者说输出层的激活函数为线性函数。
现代神经网络能容纳很高的层数,这就是深度学习中所谓的深度。
沿用线性分类的表述,输入向量的长度为 D,输出向量的长度为 L,显然,需要学习的参数个数为:
DL_1+\sum_{k=1}^{M-1}L_{k}L_{k+1}+\sum_{k=1}^{M}L_k过深的层数能表达更复杂的函数,但对数据中的噪声会产生过拟合(overfitting)。不过,防止过拟合的方式并不是减少层数,过浅的层数产生的局部最优解会更差。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,826评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,968评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,234评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,562评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,611评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,482评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,271评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,166评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,608评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,814评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,926评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,644评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,249评论 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,866评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,991评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,063评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,871评论 2 354

推荐阅读更多精彩内容