神经网络(二)

1.几个标记方法:

m组训练数据

神经网络总的层数L;

第l层的单元数Sl(不包括偏差单元);
输出层的单元数K。
①对于两类分类问题
y=0或1,只有一个输出单元,hΘ(x)∈R,故SL=1,即K=1。
②对于多类分类问题
y是一个向量,y∈RK,hΘ(x)∈RK,SL=K(K⩾3)。
2.逻辑回归的代价函数



3.神经网络的代价函数(多类分类问题)

该式子的含义(个人现阶段理解),共有k个分类,所以对于每一行数据,h(x(i))是一个k维的向量(有个输出结果),Σk 即将每一个结果的代价求和,再将m行数据的代价求和,得出总的代价。正则化的式子:每一层有l个单元,对应每层的theta是一个S(l+1)*S(L)的矩阵
4.反向传播算法

先通过一个例子来看:



即前向传播是通过ai求得zi+1,反向传播是通过δi+1求得δi,系数都是Θij,其中j是前一层对应的单元,i是后一层对应的单元
代价函数:
image.png

误差计算方法:


而代价函数的偏导数为

算法:
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 继续发公式。有兴趣阅读能正常显示公式的版本请移步 http://blog.kamidox.com/neural-n...
    kamidox阅读 860评论 1 2
  • 引言 机器学习栏目记录我在学习Machine Learning过程的一些心得笔记,涵盖线性回归、逻辑回归、Soft...
    hfk阅读 4,399评论 4 18
  • 代价函数(Cost Function) 在神经网络模型中,我们引入一些新的标记: L:表示神经网络模型的层数; S...
    SmallRookie阅读 502评论 0 0
  • 1. 今天很开心的一件事,我明白到我一直都是太在乎别人的想法,不管是好是坏,只要可能涉及到我,我总是会因之扰神。 ...
    鲍鱼不吃辣阅读 224评论 0 0
  • 上周日在简书中,看到一篇凄美的文章《我和首航空少不得不说的过往》,讲述了一个可爱女孩子,如何让首航空少爱上她而不自...
    小归ing阅读 593评论 0 2