1 绪论
1.1 研究背景及意义
1.2 国内外研究现状
1.3 相机阵列异构大视场图像融合研究难点
1.4 论文主要研究内容及结构安排
1.5 本章小结
2 相机阵列图像融合的基础理论
2.1 图像采集
①变换相机角度拍摄
②平移相机拍摄
2.2 图像预处理
2.2.1 相机标定
2.2.2 相机畸变校正
2.3 相机阵列图像融合基本流程
2.3.1 图像配准
2.3.2 图像融合
2.3.3 投影变换
2.3.4 图像插值
2.4 本章小结
3 相机阵列异构大视场图像融合算法
3.1 相机阵列异构大视场成像原理
3.2 特征点检测算法
3.2.1 Forstner角点检测算法
3.2.2 SIFT特征点检测算法
3.2.3 SURF特征点检测算法
3.3 特征点匹配算法
3.3.1 NCC匹配算法
3.3.2 FLANN匹配算法
3.3.3 RANSAC 匹配点提纯
3.4 图像融合
3.4.1 直接平均法
3.4.2 渐入渐出加权平均法
3.5 超分辨率算法
3.6 实验结果与分析
①图像采集系统及预处理
② Forstner+NCC 实现相机阵列异构大视场图像融合
③多尺度检测算子+RANSAC+超分辨率实现相机阵列异构大视场图像融合
3.7 本章总结
4 改进的消除拼接缝的相机阵列图像融合算法
4.1 光照不均匀校正算法
4.1.1 同态滤波图像增强算法
4.1.2 基于Retinex的图像增强算法
4.1.3 基于二维伽马函数的多尺度Retinex 校正算法
4.2 结合最佳缝合线和多分辨率融合的相机阵列图像融合算法
4.2.1 最佳缝合线算法
4.2.2 多分辨率融合算法
4.2.3 结合最佳缝合线和多分辨率融合的相机阵列图像融合算法
4.3 图像质量评价指标
①均方误差
②峰值信噪比
③结构相似度
④清晰度
4.4 实验结果与分析
①光照不均匀校正算法实验结果与分析
②结合最佳缝合线和多分辨率融合算法
4.5 本章小结
5 总结与展望
5.1 全文总结
5.2 下一步研究展望
参考文献
附录
A. 作者在攻读学位期间发表的论文目录
B. 作者在攻读学位期间参加的科研项目
C. 学位论文数据集
致谢
重庆大学;