神经网络是一种模拟人脑的神经网络,以期能够实现人工智能的机器学习技术,在学习中主要参考西瓜书、python神经网络编程和吴恩达讲课中的内容整理,可能有些不正确的地方,还需要持续探索。
假设 hθ(x)h θ(x) 是logistic函数,则这个神经元也可以被称为一个带有logistic激活函数的人工神经元。在神经网络术语中,激活函数是指非线性函数 g(z)g(z) 的另一个术语。在神经网络的文献中, θ 参数有时也被称为权重。
一、吴恩达讲课中的内容
在下文中有很多参数,在这里经过查看别人的笔记,在这里统一进行说明
表示第j层第i个神经元的激活项,激活项是一个具体神经元计算并输出的值
表示权重矩阵,控制着从某一层到下一层的映射。
一、前向传播误差
吴老师讲课中采用的还是逻辑回归中的cost function
在上式中,y是一个向量,前半部分, 是第i个预期值中的第k的元素值(多分类)
后半部分是所有参数的加和
二、反向传播误差
以上计算运用了导数的链式法则,推导过程https://blog.csdn.net/xuan_liu123/article/details/83660316
以上计算出梯度,用于J更新
推导过程