深度学习简介

机器学习中的一种特殊方法,使用神经网络这种结构来描述计算过程,通过输入海量数据,计算神经网络中的各级参数。一般有如下原则:

1,交替使用线性和非线性单元,即层

2,使用链式法则(误差反向传播)来更新网络中的参数

深度学习对于机器学习的特点:

1,简单的函数通过各级神经网络变换成复杂函数,具有更强表达力

2,多级学习的表征学习方法,可以逐级表示越来越抽象的概念或模式

3,端到端,而普通机器学习的特征抽取和训练可能是分开的

4,包容非最优解,非凸非线性的优化的使用

softmax 函数的作用:

1,把结果归一化,给出概率型的结果表示

2,可微,便于使用误差反向传播方法

激活函数,为什么需要激活函数?

需要引入非线性表达,不然单纯的多层感知机的叠加,本质也是单层的;即全连接层只是对数据做仿射变换(affine transformation),而多个仿射变换的叠加仍然是一个仿射变换。解决问题的一个方法是引入非线性变换。

常用激活函数:relu,sigmoid,tanh

过拟合的处理方法:

1,添加惩罚项,来减小权重,降低模型复杂性

正向传播和反向传播

正向传播基于当前参数计算预测值,反向传播基于预测值和真实值,以及各层的梯度,计算参数修正值。

以上总结自《动手学深度学习》

下面总结《白话深度学习与tensorflow》

机器学习与深度学习比较大的区别,在于传统机器学习通常是需要人来提前做特征提取,把提取的特征向量化后再丢给模型训练,这是前置工作。而深度学习是end-to-end,端到端的学习方式,输入的内容做少量处理或不做处理,就可以丢给模型去训练,通常不需要人来做特征提取的工作,有深度学习的网络模型自动完成。

神经网络分为 输入层,隐含层,输出层

输入层不做任何处理,通常不计入层数,隐含层有一层或多层,输出层输出网络处理的值,可能是一个分类向量值,也可能是一个连续的值,也可能是别的形式。

TensorFlow,深度学习比较流行的库,谷歌发布,轻量级,社区完善,容易上手,有如下优点:

1,多环境,pc的cpu,gpu,安卓环境,支持多个cpu或者gpu并行计算

2,仪表盘和可视化

3, TensorFlow Serving,可以部署成restful接口服务,高性能开源服务系统。

前馈神经网络,最简单最朴素的神经网络,包括bp网络,和rbf网络

牛顿法,求方程的根,即与x轴的交点的横坐标

损失函数特点:恒非负,误差越小函数值越小,收敛快

本质上训练过程,就是通过不断调整各个神经元中的待定系数,使得损失函数向不断降低的方向移动。

正常可以通过凸优化的方式,求出损失函数的极值。但是在生产环境中,神经网络可能包含着非常多的线性和非线性分类器函数组合,那么损失函数极有可能,甚至可以说几乎一定不是凸函数,而tensorflow 会用很多技巧来寻找在整个向量空间拥有极小值点的参数向量,封装到框架里面了。

神经网络,具有丰富的vc维,即强大的空间划分能力。分类能力强大,可以学习到丰富的内容。

但是也不是越深越好,要防止过拟合,而且如果特征没有使得信息熵下降,是无效的。

卷积神经网络:同样是一种前馈神经网络,神经元可以响应一部分覆盖范围内的周围单元,对大规模图形图像处理效率极高,降低了复杂性。

卷积神经网络的特点:

1,至少有一个卷积层,用来提取特征

2,卷积层通过权值共享的方式进行工作,大大减少权值w 的数量,收敛速度较快

卷积的含义:固定函数和滑动函数相乘,移动中用x进行采样,或者说特征提取。

卷积核:用来特征提取和压缩。卷积核输出后,可能会跟着一个激励函数,一般都有,常用relu。

度量的是对于上一层输入的采纳或者关注程度

padding(填充):使用多个像素单位填充输入图像(变量)的边界,通常填充0值,

目的是,1,保持边界信息,使得中间的像素点信息和边界都被同等对待,扫描多遍

2,补齐尺寸

stride就是步幅,卷积扫描的时候每次滑动的单位。一般为1。提高可以提高扫描的速度。

池化层:对于卷积feature map 的处理加了一层池化的处理,分为max pooling,mean pooling。或者其他方式。取最大值或者平均值,功能如下:1,又进行了一次特征提取,减少下一层数据的处理量。2,提高泛化性。3,提高输入的微小变化容忍度。池化层非必须。

经典卷积网络:vgg-16,vgg-19,googleNet

训练的过程,同样是把损失函数loss 描述成各个卷积核中权重 w 的函数,然后通过凸优化找到极值点。和bp网络一样。

卷积核对输入变量进行特征提取的过程,是一个把高维向量映射为低维向量的过程,也是一种有损压缩,通过量化方法取度量对于上一层输入的敏感度。可以对噪声有更好的容错能力,泛化性更好。

工作原理更像是在记忆一个大概的印象,而不是思考或者推理。

softmax,用在输出层的激励函数。使用交叉熵损失函数。

交叉熵的理解:

one-hot,为何使用,避免在一个维度上有大小关系,强加给了关系,其实是没有的。

常用计算方法:

1,并行计算

2,随机梯度下降

3,梯度消失问题,初始化合适的w初值,选择合适的激励函数

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,132评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,802评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,566评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,858评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,867评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,695评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,064评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,705评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,915评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,677评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,796评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,432评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,041评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,992评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,223评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,185评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,535评论 2 343

推荐阅读更多精彩内容