Neural Network

前面所说到监督学习涉及到的是一些线性模型,当特征量增加及特征之间的相关性增加时,多项式的表达计算形式会十分复杂,尤其当对图片进行处理时,其特征空间将会变得很大,故其所能解决的问题有限。由此引出神经网络这样的结构,其灵感来源于模仿人类大脑中的神经元结构,其组织而形成非线性的假设模型,一个最简单的神经网络结构能够模拟任何一个函数。

下面将首先说明神经网络的结构,然后对其中的相关细节进行拓展说明。
注:神经网络的基本组成结构为:输入层-隐含层[1/n]-输出层;输入层是最原始的特征向量,隐含层相当于是对原始特征量的逐层加工以自适应提取想要的特征量作为最后输出层的输入特征量来完成所需任务。

我们还是以“三要素”为理解思路来进行展开:)

【假设模型】

1、最简单的神经网络结构<单一神经元>如图1

1

注:单层的神经网络可用来实现简单的逻辑与、或、非功能,但不能表示逻辑中的异或问题。

2、含有一个中间层的神经网络,如图2

2

上图中说明的是单个神经元的输出,其相当于之前二分类问题中的逻辑回归,但在神经网络中,其相当于对于最原始的特征输入(输入层)进行加工以得到想要的特征表示,即在隐含层中神经元的输出值,最后输入至输出层得到分类结果。

多层的网络结构(如含有一层隐含层)的结构便可以表示异或问题。即隐含层中的两个神经元一个表示(x1ANDx2),另一个表示(NOTx1 AND NOTx2)最后输出层表示或即可。


由此可以看出,这样的神经网络结构远比之前的基于输入原始特征的多项式提取特征要好,其能基于原始输入特征提取更多的所需特征,以此来表示更复杂的模型。

通过增加神经网络的深度及每层的单元数(神经元个数)可构造出更复杂的函数即提取出更丰富的特征值。

3、多类分类
上面说到的神经网络我们假设是单个神经元输出,现在当有多个神经元输出时,可以用作多分类问题。如下图3所示。

3

每个输出层的神经单元表示一个类别,在所属类别处输出值为1,其他单元输出值为0。由此便可直接实现多种类别的分类任务,相比于采用N个逻辑回归模型来进行N 分类任务,此种方法更高效。

【目标函数】

4


【迭代优化】
在神经网络中利用反向传播的方式来得到各个参数的梯度值,来最优化目标函数(损失函数)

5
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 五、Deep Learning的基本思想 假设我们有一个系统S,它有n层(S1,…Sn),它的输入是I,输出是O,...
    dma_master阅读 5,679评论 1 2
  • 多少人在生命中与自己越走越远。 也许会有人觉得我的题目很奇怪,想说我们 自己不就是自己么?怎么能自己跟自己越走越远...
    昵称都被占了阅读 2,669评论 0 1
  • 喜欢一句话:“如果凡人不纵情,那么必与死者无异。”很多人难以想象自己死后的模样,我也一样。如果非要想象一下,我想...
    刘宇儿阅读 2,622评论 0 4
  • 君子当如一壶水 火烧身子哨轻吹 激情澎湃胸中锁 俯首掏心吐四杯 在这寒冷的冬天,为您奉上一杯热开水。请 慢慢品尝,...
    yangxian_阿泱阅读 1,852评论 17 45