文摘
英文文摘
声明
第1章引言
1.1经典的统计学习理论
1.2监督学习的数学框架
1.3经验风险最小化
1.4正则化
1.5再生核Hi1bert空间
1.6积分算子和特征映射
1.7指数型概率不等式
1.8覆盖数
1.9论文概述
第2章学习理论的相关研究课题
2.1回归分析
2.2分类问题
2.2.1利用支持向量机进行分类
2.2.2 RKHS中的正则化分类算法
2.3聚类问题
2.4变量和特征选择
2.5流形学习
第3章基于梯度数据的埃尔米特学习
3.1 埃尔米特学习的数学框架和主要结果
3.1.1表示定理
3.1.2关于完美测度的收敛阶
3.1.3与经典的最小二乘正则化算法的比较
3.2表示定理和采样算子
3.3关于埃尔米特学习的误差分析
3.3.1逼近误差
3.3.2一个新的Mercer定理
3.3.3样本误差
3.3.4推导总的误差界
第4章基于梯度学习的流形上的法向量估计
4.1关于法向量估计的主要结果
4.2利用线性代数求解算法
4.3 由泛化误差来衡量法向量估计算法的性能
4.3.1指数映射和法坐标
4.3.2主要分析
4.4误差分解和假设误差
4.5估计样本误差与假设误差
第5章e1正则化学习算法的收敛估计
5.1关于e1正则化学习算法的介绍
5.2e2经验覆盖数的上界
5.3收敛估计的关键分析
5.3.1 回顾误差分解技巧
5.3.2 已知的关于逼近误差和假设误差的结果
5.3.3关键误差分析结果的阐述
5.4对样本误差的估计
5.5利用迭代来改进估计上界
5.6主要收敛结果的证明
第6章基于e2正则化子的核回归算法的收敛性分析
6.1基于样本依赖假设空间的e2正则化算法
6.2关于e2正则化子学习算法的关键分析
6.2.1误差分解
6.2.2假设空间的容量和主要结果
6.3估计逼近误差
6.4估计正则项误差及假设误差
6.5估计样本误差
6.6估计总误差界
6.6.1推导关于总误差的估计量
6.6.2利用迭代的方法改进估计量
6.6.3导出收敛阶
第7章讨论及进一步的工作
7.1算子LK和L的值域
7.2基于ep正则化子的核回归算法
参考文献
致谢
攻读博士学位期间发表的学术论文