声明
摘要
1 绪论
1.1 研究的背景和意义
1.2 发展动态及国内外相关研究
1.3 论文结构和主要工作内容
2 相关技术
2.1 视频数据的采集
2.2 图像配准技术
2.2.1 基于灰度的配准算法
2.2.2 基于变换域的配准算法
2.2.3 基于特征的配准算法
2.3 视频图像融合技术
3 实时视频宽场景合成相关算法的选择
3.1 视频帧特征提取
3.1.1 Harris算法
3.1.2 SIFT算法
3.1.3 基于SIFT算法的变形算法
3.2 SIFT特征匹配
3.2.1 k-d树算法
3.2.2 RANSAC算法提纯
3.3 视频帧融合
3.3.1 直接平均法
3.3.2 加权平均法
3.3.3 多分辨率融合法
4 实时视频宽场景合成系统的设计
4.1 系统的运用场景
4.2 系统的整体架构
4.3 流程与算法设计
4.3.1 摄像机标定与图像校正
4.3.2 高斯模糊
4.3.3 尺度空间极值检测
4.3.4 关键点定位
4.3.5 关键点方向分配
4.3.6 关键点特征描述
4.3.7 图像融合
5 实时视频宽场景合成系统的实现
5.1 开发环境
5.2 程序函数架构
5.2.1 SIFT算法的c++实现
5.2.2 调用OpenCV中的几个函数
5.2.3 自定义的几个函数
5.3 系统的应用
5.3.1 旋转关系下的两图像合成
5.3.2 平移关系下的两图像合成
5.4 视频实时合成结果
5.5 程序代码具体实现中的几个问题
6 总结和展望
6.1 总结
6.2 展望
参考文献
致谢
个人简历
发表的学术论文
中国海洋大学;