机器学习 新手学习记录(一)

简易介绍机器学习的方法和人工神经网络(CNN(卷积) RNN(循环) LSTM-RNN)

(一)机器学习方法

机器学习就是模仿人类学习过程

“虽然还没人提及,但我认为人工智能更像是一门人文学科。其本质,在于尝试理解人类的智能与认知。”——塞巴斯蒂安·特伦(Sebastian Thrun), 2013

监督学习 supervised learning;  告诉数据和结果(人脸识别)

非监督学习 unsupervised learning;

半监督学习 semi-supervised learning;

强化学习 reinforcement learning;机器练习投篮

遗传算法 genetic algorithm.

(二)生物神经网络与人工神经网络的区别

生物神经网络:在不断刺激下会自我形成反射弧,最终达到在一定的刺激下就会做出相应反应

人工神经网络:有固定的神经网络系统,不会产生新的神经连接。如何完成学习呢?就应该把数据一次次放入这套人工神经网络系统中,当信号传递后,判断机器是否做出正确的动作,来不断修改人工神经网络当中的神经元强度。这种修改方式在专业术语中叫做“误差反向传递”。就是看作是再一次将传过来的信号传回去, 看看这个负责传递信号神经元对机器产生相应动作到底有没有贡献, 让它好好反思与改正, 争取下次做出更好的贡献. 

(三)卷积神经网络

卷积神经网络(CNN):卷积神经网络在图像和语音识别

方面进行运用(人脸识别)

卷积: 褶积(又名卷积)是一种积分变换的数学方法

卷积在神经网络应用:卷积也就是说神经网络不再是对每个像素的输入信息做处理了,而是图片上每一小块像素区域进行处理。也就是通过对一小块像素区域分析处理,得到相应数字信息。


例如:卷积神经网络在人脸识别中的应用:

第一层:卷积神经网络有一个批量filter, 持续不断的在图片上滚动收集图片里的信息,每一次收集的时候都只是收集一小块像素区域, 获得的边缘信息。

filter(过滤器): 过滤器就是影像中不断移动的东西, 他不断在图片收集小批小批的像素块, 收集完所有信息后, 输出的值, 我们可以理解成是一个高度更高,长和宽更小的”图片”. 这个图片里就能包含一些边缘信息.

第二层:通过对边缘信息的第二层卷积处理,获得了眼睛,鼻子,耳朵…的信息

第三层:再通过对五官的卷积处理,获得对整个人脸的信息

 最后我们再把这些信息套入几层普通的全连接神经层进行分类, 这样就能得到输入的图片能被分为哪一类的结果了.

池化(pooling):在每一次卷积的时候, 神经层可能会无意地丢失一些信息. 这时, 池化 (pooling) 就可以很好地解决这一问题. 而且池化是一个筛选过滤的过程, 能将 layer 中有用的信息筛选出来, 给下一个层分析. 同时也减轻了神经网络的计算负担

(四)循环神经网络(RNN):

在人脑中也产生其实也有循环神经网络

例如:我们在识别名字,我们只有当按照一定的顺序和字符,而且每一次对一个字的识别,都要把上次的上个字的识别的结果放到一起分析,才能识别名字和人相比配。

 每次新数据的分析要把上一次数据分析结果调用在一起,一起分析。 如果继续分析更多的有序数据 , RNN就会把之前的记忆都累积起来, 一起分析.

用数学语言来说就是 每次 RNN 运算完之后都会产生一个对于当前状态的描述 , state. 我们用简写 S( t) 代替, 然后这个 RNN开始分析 x(t+1) , 他会根据 x(t+1)产生s(t+1), 不过此时 y(t+1) 是由 s(t) 和 s(t+1) 共同创造的. 

LSTM-RNN:

LSTM:  long-short term memory 中文叫做 长短期记忆

LSTM-RNN是对RNN的一种改良,因为RNN比较容易遗忘信息。

为什么RNN容易遗忘信息?

因为RNN要对上一次分析的信息进行记忆,到最后分析结果时势必会产生误差,而且在 反向传递 得到的误差的时候, 他在每一步都会 乘以一个自己的参数 W. 如果这个 W 是一个小于1 的数, 比如0.9. 这个0.9 不断乘以误差, 误差传到初始时间点也会是一个接近于零的数, 所以对于初始时刻, 误差相当于就消失了. 我们把这个问题叫做梯度消失或者梯度弥散 Gradient vanishing. 反之如果 W 是一个大于1 的数, 比如1.1 不断累乘, 则到最后变成了无穷大的数, RNN被这无穷大的数撑死了, 这种情况我们叫做剃度爆炸, Gradient exploding. 

LSTM-RNN比RNN相比多出了三个控制器(输入控制, 输出控制, 忘记控制),在内部还多出了控制全局记忆。我们把粗线想象成电影或游戏当中的 主线剧情. 而原本的 RNN 体系就是 分线剧情. 三个控制器都是在原始的 RNN 体系上, 我们先看 输入方面 , 如果此时的分线剧情对于剧终结果十分重要, 输入控制就会将这个分线剧情按重要程度 写入主线剧情 进行分析. 再看 忘记方面, 如果此时的分线剧情更改了我们对之前剧情的想法, 那么忘记控制就会将之前的某些主线剧情忘记, 按比例替换成现在的新剧情. 所以 主线剧情的更新就取决于输入 和忘记 控制. 最后的输出方面, 输出控制会基于目前的主线剧情和分线剧情判断要输出的到底是什么.基于这些控制机制。

其实人工神经网络就是把人脑的思维程序化

【参考文献】1.https://www.zhihu.com/question/22298352

                      2.https://mofanpy.com/tutorials/machine-learning/ML-intro/RNN/

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 221,576评论 6 515
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,515评论 3 399
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 168,017评论 0 360
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,626评论 1 296
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,625评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,255评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,825评论 3 421
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,729评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,271评论 1 320
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,363评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,498评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,183评论 5 350
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,867评论 3 333
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,338评论 0 24
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,458评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,906评论 3 376
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,507评论 2 359

推荐阅读更多精彩内容