1 绪 论
1.1 视觉物体跟踪的研究背景与意义
1.1.1 问题的提出
1.1.2 研究意义及应用领域
1.2 影响视觉物体跟踪性能的关键因素
1.3 视觉物体跟踪的难点分析
1.4 视觉物体跟踪的研究现状及分析
1.5 本文的研究内容及组织结构
1.5.1 本文的研究内容
1.5.2 本文的组织结构
1.6 本章小结
2 视觉物体跟踪研究综述
2.1 视觉物体跟踪的基本框架
2.2 深度学习在视觉物体跟踪中的应用
2.2.1 基于深度学习的视觉物体跟踪
2.2.2 深度残差网络结构
2.3 现有研究工作的局限性及本文的解决方案
2.4 视觉物体跟踪算法的基准测试数据集及性能度量
2.4.1 OTB基准测试集
2.4.2 VOT基准测试集
2.5 本章小结
3 基于深度时空残差学习和相关滤波的视觉物体跟踪算法
3.1 引言
3.2 研究动机
3.3 相关工作
3.3.1 时空特征在视觉物体跟踪中的应用
3.3.2 相关滤波在视觉物体跟踪中的应用
3.4 STResNet_CF视觉物体跟踪算法概述
3.5 基于时空残差网络结构的目标物体表观建模
3.6 基于深度时空特征和相关滤波的视觉物体跟踪框架
3.6.1 目标物体的视觉特征表示
3.6.2 深度时空特征与相关滤波的集成
3.6.3 相关滤波器的更新
3.7 实验及性能分析
3.7.1 实验设置
3.7.2 基于不同表观模型的视觉物体跟踪算法的对比实验
3.7.3 不同残差单元输出特征对跟踪性能影响的比较分析实验
3.7.4 在OTB-2015上对总体跟踪性能的评估
3.7.5 在OTB-2015上基于属性的比较
3.7.6 基于Temple-Color的实验分析
3.7.7 基于VOT-2015的实验分析
3.7.8 定性评估
3.8 本章小结
4 基于深度多尺度时空残差学习的鲁棒性视觉物体跟踪算法
4.1 引言
4.2 研究动机
4.3 MSST-ResNet视觉物体跟踪算法概述
4.4 建立基于深度多尺度时空特征的表观模型
4.4.1 改进的残差网络结构
4.4.2 多个残差单元的融合
4.4.3 多尺度特征和深度残差网络的融合
4.4.4 时空特征与深度残差网络的融合
4.4.5 深度多尺度时空特征与核相关滤波器的集成
4.5 基于深度多尺度时空特征的在线跟踪
4.5.1 模型初始化
4.5.2 平移估计和尺度估计
4.5.3 模型更新
4.5.4 在线跟踪过程
4.6实现细节
4.7 实验及性能分析
4.7.1 各个分量在OTB-2015上的实验分析
4.7.2 在OTB-2015上对总体跟踪性能的评估
4.7.3 在OTB-2015上基于视觉属性的评估
4.7.4 在VOT-2015上的评估
4.7.5 定性评估
4.7.6 速度分析
4.8 本章小结
5 基于深度多尺度时空残差学习和“跟踪-学习-检测”框架
5.1 引言
5.2 研究动机
5.3 基于“跟踪-学习-检测”框架的视觉物体跟踪算法概述
5.4 MSSTResNet-TLD视觉物体跟踪算法概述
5.5 深度多尺度残差网络的在线学习
5.5.1 深度多尺度残差网络的输入
5.5.2 分类器的在线学习
5.5.3 多尺度多任务训练
5.6 在线“跟踪-学习-检测”过程
5.6.1 在线检测过程
5.6.2 检测器阈值的动态更新
5.6.3 在线跟踪过程
5.7实现细节
5.8 实验验证
5.8.1 在VOT-2016上对跟踪算法MSSTResNet-TLD的评估
5.8.2 在OTB-2015上对MSSTResNet-TLD进行评估
5.8.3 定性比较
5.9 本章小结
6 总结与展望
6.1 论文工作总结
6.2 研究展望
参考文献
附录
A. 作者在攻读学位期间发表或在审的论文目录
B. 作者在攻读学位期间已申请专利
C. 作者在攻读学位期间的其它科研成果目录
D. 学位论文数据集
致谢
重庆大学;