声明
摘要
1 绪论
1.1 选题背景与意义
1.2在线学习
1.2.1 监督学习与正则化
1.2.2在线凸规划
1.3国内外研究现状
1.4本文研究内容
1.4.1课题来源
1.4.2研究内容安排
2 基于耦合线性化的在线学习算法
2.1 引言
2.2 批处理ADMM框架,最优性条件及残差
2.2.1 框架
2.2.2 最优性条件及残差
2.3在线耦合线性化交替迭代算法
2.3.1 CLAIM
2.3.2 Regret和收敛性分析
2.4实验分析
2.4.1 实验一
2.4.2 实验二
2.5 CLAIM算法的扩展
2.5.1 伸缩CLAIM
2.5.2 带重启动机制的伸缩CLAIM
2.5.3 扩展CLAIM的性能比较
2.6本章小结
3 基于随机谱梯度的在线学习算法
3.1 引言
3.2 随机谱梯度下降方法
3.2.1 相关知识
3.2.2算法
3.3 实验分析
3.3.1 问题、数据集描述及算法参数设置
3.3.2 实验方法与结果
3.4本章小结
4面向在线学习的加权多任务学习算法
4.1 引言
4.2 准备知识
4.3加权多任务学习
4.3.1 多任务学习问题设置
4.3.2加权多任务学习模型
4.3.3 加权多任务学习模型的在线优化
4.3.4 Regret和收敛性分析
4.3.5 实验分析
4.4 面向特征与任务共选择的加权多任务学习
4.4.1 加权特征与任务共选择模型
4.4.2 加权特征与任务共选择模型的在线优化
4.4.3 Regret和收敛性分析
4.4.4 实验分析
4.5 多任务学习模型的进一步探讨
4.6本章小结
5 面向在线学习的K-sparse字典学习算法
5.1 引言
5.1.1 稀疏表示的数学模型
5.1.2稀疏编码
5.1.3 字典学习
5.1.4 在线字典学习
5.2 基于分块的K-sparse字典学习算法
5.2.1 算法概述
5.2.2 编码更新
5.2.3 字典更新
5.3 实验分析
5.3.1数据集与实验设置
5.3.2 算法性能评估
5.4本章小结
6总结与展望
6.1本文工作总结
6.2未来工作展望
致谢
参考文献
附录