首页> 中文学位 >高精度实时视觉定位的关键技术研究
【6h】

高精度实时视觉定位的关键技术研究

代理获取

目录

声明

致谢

摘要

图目录

表目录

1 绪论

1.1 研究背景和意义

1.2 传统定位与视觉定位

1.2.1 传统定位方法

1.2.2 基于视觉的定位方法

1.2.3 视觉定位算法性能比较

1.3 视觉里程计算法的发展

1.4 基于特征点匹配的双目视觉里程计基本原理

1.4.1 特征点的检测与描述

1.4.2 特征匹配

1.4.3 特征点三维重建

1.4.4 运动估计

1.4.5 双目VO的关键问题

1.5 论文内容和结构

2 视觉里程计的高精度优化

2.1 引言

2.2 相关工作

2.2.1 二维特征点的不确定度

2.2.2 三维点的不确定度计算

2.2.3 最大似然估计

2.3 两阶段局部双目光束法平差

2.3.1 BA与LBA

2.3.2 TLBBA

2.4 实验结果与分析

2.4.1 实验设备与测试环境

2.4.2 性能指标

2.4.3 校园环境实验结果与分析

2.4.4 KITTI数据集实验结果

2.5 本章小结

3 实时双目视觉里程计的实现

3.1 引言

3.2 GPGPU概述

3.2.1 GPU与CPU性能比较

3.2.2 基于GLSL的GPGPU编程

3.3 基于GPGPU的SIFT特征提取

3.3.1 尺度空间极值检测

3.3.2 关键点定位

3.3.3 关键点主方向计算

3.3.4 关键点特征描述

3.3.5 基于GPGPU加速的SIFT算法

3.4 基于GPGPU加速的运动估计

3.4.1 基于三对三维点的HORN运动估计方法

3.4.2 基于RanSaC的外点滤除

3.4.3 基于GPGPU加速的运动估计算法

3.5 基于网格筛选的特征控制

3.6 基于多线程的并行处理

3.7 实验结果与分析

3.7.1 基于GPGPU的SIFT特征提取实验结果

3.7.2 基于GPGPU的运动估计实验结果

3.7.3 实时双目VO系统实验结果

3.8 本章小结

4 基于自适应多特征图像片压缩跟踪的局部航向角计算

4.1 引言

4.2 基于压缩感知的自适应多特征图像片表观模型

4.2.1 压缩亮度特征

4.2.2 压缩SURF特征

4.2.3 基于特征区分度的自适应统计模型

4.3 基于图像片压缩跟踪的局部航向角计算

4.4 实验结果分析

4.4.1 自适应多特征表观模型的性能分析

4.4.2 基于图像片压缩跟踪的航向角计算精度测试

4.4.3 基于图像片跟踪的航向角计算对定位结果的改善

4.5 本章小结

5 基于在线全景图像路标的全局位姿校正

5.1 引言

5.2 基于自适应压缩特征的全景图像描述

5.3 在线建立全景路标

5.3.1 路标检测

5.3.2 路标描述

5.4 全局位姿校正

5.4.1 基于多级特征的任意方向路标匹配

5.4.2 位姿校正

5.5 实验结果与分析

5.5.1 全景图像中自适应压缩特征的匹配特性

5.5.2 全局位姿校正算法的性能分析

5.5.3 “增强型”视觉定位系统

5.6 本章小结

6 总结与展望

6.1 本文工作总结

6.2 研究工作展望

参考文献

攻读博士期间学术成果

展开▼

摘要

基于机器视觉的定位算法是智能移动机器人领域内的热点问题,通过分析包含在图像序列中的静态场景一致性信息,视觉定位可以帮助移动机器人更准确地获得当前位置与姿态信息,保证移动机器人安全、高效地完成指定任务。
  本文以大范围复杂环境中移动机器人的高精度实时定位为目标,围绕精度、实时性、鲁棒性三个关键问题进行研究。为了准确估计机器人6个自由度的位姿信息,首先构建了基于特征点匹配的双目立体视觉里程计(Visual Odometry,VO)。为了提高定位精度,第二章提出了两阶段局部双目光束法平差(Two-stagelocal binocular bundle adjustment,TLBBA),充分利用双目图像序列中的信息和约束,对运动估计结果进行优化。第三章通过合理设计系统中的算法模块,充分利用计算资源和算法的可并行性,实现了可以实时工作的双目立体VO。为了提高复杂环境中局部运动估计的鲁棒性,第四章提出了一种基于自适应多特征表观模型的压缩特征,通过跟踪移动机器人前进方向的图像片(图像中的子窗口区域),获得航向角增量的鲁棒估计值,防止不可靠的运动估计结果对定位结果造成影响。为了抑制移动机器人在大范围环境中漫游时定位误差的累积,提出了基于在线全景图像路标的全局位姿校正算法,有效解决了路径漂移问题。本文的主要工作和创新性研究成果如下:
  1)提出了一种两阶段局部双目光束法平差优化算法,充分利用图像序列中的一致性信息,提高了基于特征点匹配的双目立体VO的定位精度。在该算法的第一阶段,对单步运动估计结果进行优化,相比基于三维点不确定度的最大似然估计优化,该算法使用误差分布更加均匀的二维特征点不确定度,而且引入了约束更加丰富合理的双目模型;在该算法的第二阶段,同样基于双目模型和特征点不确定度权重,同时优化滑动窗口内的运动参数与三维结构。与传统单目模型LBA相比,TLBBA优化时的参数初始值更加准确,目标函数的构成更加科学,优化精度高。
  2)提出并实现了一种实时双目VO系统,为了在保证定位精度的前提下尽量提高处理速度,该VO系统基于GPGPU提取SIFT特征点,基于网格匹配法进行特征控制,在运动估计时基于GPGPU实现RanSaC结合HORN最小二乘方法。最后,把整个系统划分为两个线程,进行流水线处理:特征匹配线程负责特征点提取、匹配和三维点对重建;运动估计线程负责运动估计、两阶段局部双目光束法平差(TLBBA)优化、累积单步运动参数得到机器人全局位姿。
  3)提出了一种基于自适应多特征图像片压缩跟踪的局部航向角计算方法,可以在双目图像序列缺少一致性特征时,更鲁棒地计算出移动机器人的航向角变化。为了提高图像片跟踪的精度和实时性,提出了一种压缩空间中的自适应多特征表观建模方法:构造了稀疏的二级随机测量矩阵对SURF特征进行压缩,使原来单纯基于亮度特征的视觉表达更加丰富准确,描述能力更强;通过分析特征对目标和背景的区分能力,自适应地调整统计模型内特征之间的权重,抑制冗余、无用的特征,提高了统计模型的效率和准确性。
  4)提出了一种基于在线全景图像路标的全局位姿校正方法。该方法使用两种尺度的自适应压缩特征对全景图像进行建模,可以快速准确地从路标库中找到当前图像的最佳匹配;该方法通过检测路口,有效提高了路标图像的利用率和匹配准确率,进一步降低了匹配代价。移动机器人在重新访问路标场景时,通过求解当前图像与路标图像间的运动差异,对位姿进行校正,消除回路中的累积误差,提高了定位系统在大范围复杂环境中的精度和鲁棒性。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号