声明
摘要
图目录
表目录
第1章 绪论
1.1 研究背景与意义
1.2 国内外研究现状
1.2.1 虚拟现实技术
1.2.2 增强虚拟环境
1.2.3 视频融合
1.2.4 相机标定
1.2.5 研究现状小结
1.3 研究目标
1.4 主要研究内容
1.5 技术路线
1.6 论文组织结构
第2章 视频相机在三维场景中的初始注册
2.1 引言
2.2 相机成像模型
2.2.1 坐标系定义
2.2.2 线性针孔模型
2.2.3 非线性畸变
2.3 三维渲染引擎中的虚拟相机成像模型
2.4 真实相机与虚拟三维相机的转换
2.4.1 相机的内参数与视锥体参数的关系
2.4.2 相机的外参数与观察变换函数的关系
2.5 虚拟场景坐标尺度对相机参数的影响分析
2.6 基于虚拟场景模型顶点的相机初始注册
2.6.1 三维控制点坐标获取
2.6.2 相机参数线性求解
2.6.3 相机参数非线性优化
2.7 本章小结
第3章 PTZ相机在三维场景中的实时注册
3.3 基于局部特征的特征点提取与匹配
3.3.1 SURF算法
3.3.2 去除误匹配特征点
3.4 PTZ相机视频图像的实时注册
3.4.1 PTZ相机标定概述
3.4.2 单应性矩阵快速判断参数变化类型
3.4.3 外参数变化
3.4.4 内参数变化
3.5 本章小结
第4章 相机视频与三维场景的融合方法
4.1 引言
4.2 视频图像与三维场景的融合原理
4.2.1 确定视频图像映射区域
4.2.2 ShadowMap算法
4.2.3 Shadowmap算法的优点
4.3 GPU Shader编程
4.4 相机视频与三维场景融合的算法实现
4.5 本章小结
第5章 PTZ相机视频增强虚拟三维场景实验与分析
5.2 实验与分析
5.2.1 视频相机初始注册
5.2.2 特征匹配实验
5.2.3 PTZ相机实时注册
5.2.4 视频图像与虚拟三维场景融合算法的效果分析
5.3 实验小结
第6章 总结与展望
6.1 本文主要工作
6.2 未来工作展望
参考文献
致谢