吴恩达DL课程学习笔记——NN & DL(第三周)

第三周——浅层神经网络

1、神经网络概述

比较简单,没有什么需要笔记记录的。

2、神经网络表示

(1)只有一个隐藏层的神经网络,三层NN:输入层、隐藏层、输出层;两层NN:隐藏层、输出层。
(2)由于输入层没有任何参数需要去学习,所以并不把输入层视做标准的一层,所以感知器亦称为单层NN,即它只有输出层。
(3)输入层亦称之为第零层,隐藏层为第一层,每一层会将激活值馈送给下一层,变量a表示这是激活值向量。

3、计算NN的输出

(1)带有非线性激活函数的神经元堆叠形成层,层堆叠形成网络。
(2)权重矩阵的某一行,行向量,对应于该层某个神经单元的权重向量,偏置向量的某一个元素则对应于该层某个神经单元的偏置值。
(3)向量化,沿着竖方向进行堆叠,于是就得到了W、b、z和a。
(4)隐藏层得到输入样本新的表示形式,即特征向量,输出层就是一个线性分类器(线性模型+将输出归一化使得具有概率意义),例如用于二分类的logistic回归和用于多分类的softmax回归,通过计算输入样本属于各个类别的概率来预测输入样本的类别。

4、多样本向量化

(1)向量化的好处,可以避免写显示的for循环,这样就不用写一堆的角标用于指定这是哪一个样本或是那一层,使得代码足够简洁,不容易出错。
(2)另外通过向量化,可以使用numpy内置的相关函数,做element wise的操作和向量矩阵计算等,numpy基于经典的线性代数库BLAS(C/C++写的),使用CPU/GPU(GPU不确定?)支持的SIMD指令,数据并行,加快代码的运行速度,所以看DL框架的源代码,是看不到多线程相关的代码的。

5、向量化实现的解释

没什么好解释的,就是:Z=WX+b; A=sigmoid(Z)。

6、激活函数

(1)tanh函数的效果几乎总是比sigmoid好,所以隐藏层几乎不会使用sigmoid来引入非线性。
(2)当构建二分类模型的时候,输出层使用sigmoid使得输出归一化为输入样本属于正类的概率。
(3)由于S型函数存在导数趋近于零的区域,故在反向传播链式求导的时候,会导致梯度趋近于零,使得训练速度变慢。
(4)ReLU函数在z=0处不可微(可微必可导,可导必可微;可导必连续,连续不一定可导),导数没有定义(编程的时候,z=0处的导数可以为0也可以为1,喜欢就好),事实上z=0的概率极低;它的另外一个缺点,当z<0时,导数为零。
(5)Leaky ReLU,a=max(0.01z, z);不过由于有足够多的隐藏单元使得z往往都大于零,故实际应用中还是常用ReLU。

7、为什么需要非线性激活函数

(1)如果隐藏层神经单元都使用线性激活函数,则任意多层的MLP都可以约简为感知机,即依然只是一个线性模型,即模型的输出依然只是输入特征的线性组合,无法解决非线性问题,更多详见 多层感知机/器-MLP
(2)如果是回归问题,即输入输入对的输出(样本的标签)为连续值,则输出层可以使用线性激活函数。

8、计算激活函数的导数

(1)a=sigmoid(z), da/dz=a(1-a)。
(2)a=tanh(z), da/dz=1-a的平方。
(3)ReLU和Leaky ReLU在z=0处不可导。

9、使用梯度下降训练NN

向量化,没什么需要记录的内容

10、直观理解反向传播

(1)向量化,单样本训练logistic回归模型。
(2)向量化,单样本训练NN。
(3)向量化,多样本训练NN,如下面两图所示:


向量化,多样本训练NN

多样本训练NN——续前一页
11、随机初始化(关于权重初始化,理解得还不是特别到位,需要看些论文)

(1)logistic回归的权重向量可以被初始化成全零,softmax回归的权重矩阵亦可。
(2)MLP每一层的权重矩阵不可以被初始化成全零,否则网络会不work,不过偏置向量可以初始化成全零。
(3)如果MLP的权重矩阵被初始化成全零,则每一个神经元都在做一样的计算,则输出的激活值矩阵所有元素均相等;反向传播时梯度矩阵dW=dZ*Ai-1,两个所有item皆相等的矩阵相乘得到的新的矩阵所有item亦相等;参数更新之后,权重矩阵所有item依然相等,即某一层每个神经元依然在做一样的计算,则最后softmax输出层计算得到的该样本属于各个类别的概率将会是一样的,则模型完全不work。
(4)需要将权重随机初始化成一些很小的数,因为输出层可能会使用sigmoid函数,则dZ=dA*dA/dZ,若权重很大,则Z的元素会很大或很小(负数),则dZ的元素会趋近于零,导致梯度下降优化参数很慢。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,362评论 5 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,330评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,247评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,560评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,580评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,569评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,929评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,587评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,840评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,596评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,678评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,366评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,945评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,929评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,165评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,271评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,403评论 2 342

推荐阅读更多精彩内容