第0章 导言
0.1 什么是神经网络
0.2 人类大脑
0.3 神经元模型
0.4 被看作有向图的神经网络
0.5 反馈
0.6 网络结构
0.7 知识表示
0.8 学习过程
0.9 学习任务
0.10 结束语
注释和参考文献
第1章 Rosenblatt感知器
1.1 引言
1.2 感知器
1.3 感知器收敛定理
1.4 高斯环境下感知器与贝叶斯分类器的关系
1.5 计算机实验:模式分类
1.6 批量感知器算法
小结和讨论 注释和参考文献 习题
第2章 通过回归建立模型
2.1 引言
2.2 线性回归模型:初步考虑
2.3 参数向量的最大后验估计
2.4 正则最小二乘估计和MAP估计之间的关系
2.5 计算机实验:模式分类
2.7 固定样本大小考虑
2.8 工具变量方法
小结和讨论 注释和参考文献 习题
第3章 最小均方算法
3.1 引言
3.2 LMS算法的滤波结构
3.3 无约束最优化:回顾
3.4 维纳滤波器
3.5 最小均方算法
3.6 用马尔可夫模型来描画LMS算法和维纳滤波器的偏差
3.7 朗之万方程:布朗运动的特点
3.8 Kushner直接平均法
3.9 小学习率参数下统计LMS学习理论
3.10 计算机实验I:线性预测
3.11 计算机实验II:模式分类
3.12 LMS算法的优点和局限
3.13 学习率退火方案
小结和讨论 注释和参考文献 习题
第4章 多层感知器
4.1 引言
4.2 一些预备知识
4.3 批量学习和在线学习
4.4 反向传播算法
4.5 异或问题
4.6 改善反向传播算法性能的试探法
4.7 计算机实验:模式分类
4.8 反向传播和微分
4.9 Hessian矩阵及其在在线学习中的规则
4.10 学习率的最优退火和自适应控制
4.11 泛化
4.12 函数逼近
4.13 交叉验证
4.14 复杂度正则化和网络修剪
4.15 反向传播学习的优点和局限
4.16 作为最优化问题看待的监督学习
4.17 卷积网络
4.18 非线性滤波
4.19 小规模和大规模学习问题
小结和讨论 注释和参考文献 习题
第5章 核方法核径向基函数网络
5.1 引言
5.2 模式可分性的Cover定理
5.3 插值问题
5.4 径向基函数网络
5.5 K-均值聚类
5.6 权向量的递归最小二乘估计
5.7 RBF网络的混合学习过程
5.8 计算机实验:模式分类
5.9 高斯隐藏单元的解释
5.10 核回归及其与RBF网络的关系
小结和讨论 注释和参考文献 习题
第6章 支持向量机
6.1 引言
6.2 线性可分模式的最优超平面
6.3 不可分模式的最优超平面
6.4 使用核方法的支持向量机
6.5 支持向量机的设计
6.6 XOR问题
6.7 计算机实验:模式分类
6.8 回归:鲁棒性考虑
6.9 线性回归问题的最优化解
6.10 表示定理和相关问题
小结和讨论 注释和参考文献 习题
第7章 正则化理论
7.1 引言
7.2 良态问题的Hadamard条件
7.3 Tikhonov正则化理论
7.4 正则化网络
7.5 广义径向基函数网络
7.6 再论正则化最小二乘估计
7.7 对正则化的附加要点
7.8 正则化参数估计
7.9 半监督学习
7.10 流形正则化:初步的考虑
7.11 可微流形
7.12 广义正则化理论
7.13 光谱图理论
7.14 广义表示定理
7.15 拉普拉斯正则化最小二乘算法
7.16 用半监督学习对模式分类的实验
小结和讨论 注释和参考文献 习题
第8章 主分量分析
8.1 引言
8.2 自组织原则
8.3 自组织的特征分析
8.4 主分量分析:扰动理论
8.5 基于Hebb的最大特征滤波器
8.6 基于Hebb的主分量分析
8.7 计算机实验:图像编码
8.8 核主分量分析
8.9 自然图像编码中的基本问题
8.10 核Hebb算法
小结和讨论 注释和参考文献 习题
第9章 自组织映射
9.1 引言
9.2 两个基本的特征映射模型
9.3 自组织映射
9.4 特征映射的性质
9.5 计算机实验I:利用SOM解网格动力学问题
9.6 上下文映射
9.7 分层向量量化
9.8 核自组织映射
9.9 计算机实验II:利用核SOM解点阵动力学问题
9.10 核SOM和相对熵之间的关系
小结和讨论 注释和参考文献 习题
第10章 信息论学习模型
10.1 引言
10.2 熵
10.3 最大熵原则
10.4 互信息
10.5 相对熵
10.6 系词
10.7 互信息作为最优化的目标函数
10.8 最大互信息原则
10.9 最大互信息和冗余减少
10.10 空间相干特征
10.11 空间非相干特征
10.12 独立分量分析
10.13 自然图像的稀疏编码以及与ICA编码的比较
10.14 独立分量分析的自然梯度学习
10.15 独立分量分析的最大似然估计
10.16 盲源分离的最大熵学习
10.17 独立分量分析的负熵最大化
10.18 相关独立分量分析
10.19 速率失真理论和信息瓶颈
10.20 数据的最优流形表达
10.21 计算机实验:模式分类
小结和讨论 注释和参考文献 习题
第11章 植根于统计力学的随机方法
11.1 引言
11.2 统计力学
11.3 马尔可夫链
11.4 Metropolis算法
11.5 模拟退火
11.6 Gibbs抽样
11.7 Boltzmann机
11.8 logistic信度网络
11.9 深度信度网络
11.10 确定性退火
11.11 和EM算法的类比
小结和讨论 注释和参考文献 习题
第12章 动态规划
12.1 引言
12.2 马尔可夫决策过程
12.3 Bellman最优准则
12.4 策略迭代
12.5 值迭代
12.6 逼近动态规划:直接法
12.7 时序差分学习
12.8 Q-学习
12.9 逼近动态规划:非直接法
12.10 最小二乘策略评估
12.11 逼近策略迭代
小结和讨论 注释和参考文献 习题
第13章 神经动力学
13.1 引言
13.2 动态系统
13.3 平衡状态的稳定性
13.4 吸引子
13.5 神经动态模型
13.6 作为递归网络范例的吸引子操作
13.7 Hopfield模型
13.8 Cohen-Grossberg定理
13.9 盒中脑状态模型
13.10 奇异吸引子和混沌
13.11 混沌过程的动态重构
小结和讨论 注释和参考文献 习题
第14章 动态系统状态估计的贝叶斯滤波
14.1 引言
14.2 状态空间模型
14.3 卡尔曼滤波器
14.4 发散现象及平方根滤波
14.5 扩展的卡尔曼滤波器
14.6 贝叶斯滤波器
14.7 数值积分卡尔曼滤波器:基于卡尔曼滤波器
14.8 粒子滤波器
14.9 计算机实验:扩展的卡尔曼滤波器和粒子滤波器对比评价
14.10 大脑功能建模中的卡尔曼滤波
小结和讨论 注释和参考文献 习题
第15章 动态驱动递归网络
15.1 引言
15.2 递归网络体系结构
15.3 通用逼近定理
15.4 可控性和可观测性
15.5 递归网络的计算能力
15.6 学习算法
15.7 通过时间的反向传播
15.8 实时递归学习
15.9 递归网络的消失梯度
15.10 利用非线性逐次状态估计的递归网络监督学习框架
15.11 计算机实验:Mackay-Glass吸引子的动态重构
15.12 自适应考虑
15.13 实例学习:应用于神经控制的模型参考
小结和讨论 注释和参考文献 习题
参考文献