神经网络与机器学习

  • 出版时间: 2011年03月01日
  • 作者: (加)海金
  • 浏览: 55
  • 发表评论

 本书是关于神经网络的全面的、彻底的、可读性很强的、最新的论述。全书共15章,主要内容包括rosenblatt感知器、通过回归建立模型、最小均方算法、多层感知器、核方法和径向基函数网络、支持向量机、正则化理论、主分量分析、自组织映射、信息论学习模型、动态规划、神经动力学、动态系统状态估计的贝叶斯滤波等。

1第0章 导言

0.1 什么是神经网络

0.2 人类大脑

0.3 神经元模型

0.4 被看作有向图神经网络

0.5 反馈

0.6 网络结构

0.7 知识表示

0.8 学习过程

0.9 学习任务

0.10 结束语

注释和参考文献

2第1章 Rosenblatt感知器

1.1 引言

1.2 感知器

1.3 感知器收敛定理

1.4 高斯环境下感知器贝叶斯分类器的关系

1.5 计算机实验:模式分类

1.6 批量感知器算法

1.7 小结和讨论

注释和参考文献

习题

3第2章 通过回归建立模型

2.1 引言

2.2 线性回归模型:初步考虑

2.3 参数向量的最大后验估计

2.4 正则最小二乘估计和MAP估计之间的关系

2.5 计算机实验:模式分类

2.6 最小描述长度原则

2.7 固定样本大小考虑

2.8 工具变量方法

2.9 小结和讨论

注释和参考文献

习题

4第3章 最小均方算法

3.1 引言

3.2 LMS算法的滤波结构

3.3 无约束最优化:回顾

3.4 维纳滤波器

3.5 最小均方算法

3.6 用马尔可夫模型来描画LMS算法和维纳滤波器的偏差

3.7 朗之万方程:布朗运动的特点

3.8 Kushner直接平均法

3.9 小学习率参数下统计LMS学习理论

3.10 计算机实验ⅰ:线性预测

3.11 计算机实验ⅱ:模式分类

3.12 LMS算法的优点和局限

3.13 学习率退火方案

3.14 小结和讨论

注释和参考文献

习题

5第4章 多层感知器

4.1 引言

4.2 一些预备知识

4.3 批量学习和在线学习

4.4 反向传播算法

4.5 异或问题

4.6 改善反向传播算法性能的试探法

4.7 计算机实验:模式分类

4.8 反向传播和微分

4.9 Hessian矩阵及其在在线学习中的规则

4.10 学习率的最优退火和自适应控制

4.11 泛化

4.12 函数逼近

4.13 交叉验证

4.14 复杂度正则化和网络修剪

4.15 反向传播学习的优点和局限

4.16 作为最优化问题看待的监督学习

4.17 卷积网络

4.18 非线性滤波

4.19 小规模和大规模学习问题

4.20 小结和讨论

注释和参考文献

习题

6第5章 核方法和径向基函数网络

5.1 引言

5.2 模式可分性的Cover定理

5.3 插值问题

5.4 径向基函数网络

5.5 K-均值聚类

5.6 权向量的递归最小二乘估计

5.7 RBF网络的混合学习过程

5.8 计算机实验:模式分类

5.9 高斯隐藏单元的解释

5.10 核回归及其与RBF网络的关系

5.11 小结和讨论

注释和参考文献

习题

7第6章 支持向量机

6.1 引言

6.2 线性可分模式的最优超平面

6.3 不可分模式的最优超平面

6.4 使用核方法的支持向量机

6.5 支持向量机的设计

6.6 XOR问题

6.7 计算机实验:模式分类

6.8 回归:鲁棒性考虑

6.9 线性回归问题的最优化解

6.10表示定理和相关问题

6.11 小结和讨论

注释和参考文献

习题

8第7章 正则化理论

7.1 引言

7.2 良态问题的Hadamard条件

7.3 Tikhonov正则化理论

7.4 正则化网络

7.5 广义径向基函数网络

7.6 再论正则化最小二乘估计

7.7 对正则化的附加要点

7.8 正则化参数估计

7.9 半监督学习

7.1 0流形正则化:初步的考虑

7.1 1可微流形

7.1 2广义正则化理论

7.1 3光谱图理论

7.1 4广义表示定理

7.1 5拉普拉斯正则化最小二乘算法

7.1 6用半监督学习对模式分类的实验

7.1 7小结和讨论

9第8章 主分量分析

8.1 引言

8.2 自组织原则

8.3 自组织的特征分析

8.4 主分量分析:扰动理论

8.5 基于Hebb的最大特征滤波器

8.6 基于Hehb的主分量分析

8.7 计算机实验:图像编码

8.8 核主分量分析

8.9 自然图像编码中的基本问题

8.10 核 Hebb 算法

10第9章 自组织映射

9.1 引言

9.2 两个基本的特征映射模型

9.3 自组织映射

9.4 特征映射的性质

9.5 计算机实验 I : 利用 SOM 解网络动力学问题

9.6 上下文映射

9.7 分层向量量化

9.8 核自组织映射

9.9 计算机实验 II : 利用核 SOM 解点阵动力学问题

9.10 核SOM和相对熵之间的关系

11第10章 信息论学习模型

10.1 引言

10.2 熵

10.3 最大熵原则

10.4 互信息

10.5 相对熵

10.6 系词

10.7 互信息作为最优化的目标函数

10.8 最大互信息原则

10.9 最大互信息和冗余减少

10.10 空间相干特征

10.11 空间非相干特征

10.12 独立分量分析

10.13 自然图像的稀疏编码以及与ICA编码的比较

10.14 独立分量分析的自然梯度学习

10.15 独立分量分析的最大似然估计

10.16 盲源分离的最大熵学习

10.17 独立分量分析的负熵最大化

10.18 相关独立分量分析

10.19 速率失真理论和信息瓶颈

10.20 数据的最优流形表达

10.21 计算机实验:模式分类

12第11章 植根于统计力学的随机方法

11.1 引言

11.2 统计力学

11.3 马尔可夫链

11.4 Metropolis 算法

11.5 模拟退火

11.6 Gibbs 抽样

11.7 Boltzmann 机

11.8 logistic 信度网络

11.9 深度信度网络

11.10 确定性退火

11.11 和 EM 算法的类比

13第12章 动态规划

12.1 引言

12.2 马尔可夫决策过程

12.3 Bellman 最优准则

12.4 策略迭代

12.5 值迭代

12.6 逼近动态规划:直接法

12.7 时序差分学习

12.8 Q-学习

12.9 逼近动态规划:非直接法

12.10 最小二乘策略评估

12.11 逼近策略迭代

14第13章 神经动力学

13.1引言

13.2 动态系统

13.3 平衡状态的稳定性

13.4 吸引子

13.5 神经动态模型

13.6 作为递归网络范例的吸引子操作

13.7 Hopfield 模型

13.8 Cohen-Grossberg 定理

13.9 盒中脑状态模型

13.10 奇异吸引子和混沌

13.11 混沌过程的动态重构

15第14章 动态系统状态估计的贝叶斯滤波

14.1 引言

14.2 状态空间模型

14.3 卡尔曼滤波器

14.4 发散现象及平方根滤波

14.5 扩展的卡尔曼滤波器

14.6 贝叶斯滤波器

14.7 数值积分卡尔曼滤波器:基于卡尔曼滤波器

14.8 粒子滤波器

14.9 计算机实验:扩展的卡尔曼滤波器和粒子滤波器对比评价

14.10 大脑功能建模中的卡尔曼滤波

16第15章 动态驱动递归网络

15.1 引言

15.2 递归网络体系结构

15.3 通用逼近定理

15.4 可控性和可观测性

15.5 递归网络的计算能力

15.6 学习算法

15.7 通过时间的反向传播

15.8 实时递归学习

15.9 递归网络的消失梯度

15.10 利用非线性逐次状态估计的递归网络监督学习框架

15.11 计算机实验: Mackay-Glass 吸引子的动态重构

15.12 自适应考虑

15.13 实例学习:应用于神经控制的模型参考

我来评分 :6
0

转载注明:转自5lulu技术库

本站遵循:署名-非商业性使用-禁止演绎 3.0 共享协议