首页> 中文学位 >基于四旋翼飞行器平台多传感器融合的位姿估计方法研究
【6h】

基于四旋翼飞行器平台多传感器融合的位姿估计方法研究

代理获取

目录

声明

摘要

插图

表格

第一章 引言

1.1 研究背景

1.2 研究现状

1.2.1 被动位姿测量

1.2.2 自主位姿估计

1.3 研究内容与创新点

1.4 论文结构

第二章 IARC场景中的目标识别与位姿估计

2.1 IARC介绍

2.2 系统介绍

2.3 地面机器人检测

2.4 基于优化的四旋翼位姿估计

2.4.1 初始位姿估计

2.4.2 位姿优化

2.4.3 目标方向

2.4.4 IMU融合

2.5 四旋翼控制

2.6 实验验证

2.6.1 检测实验

2.6.2 跟踪实验

第三章 面向四旋翼平台基于多标签融合的位姿估计

3.1 四旋翼平台搭建

3.2 标签选择分析

3.2.1 条码系统

3.2.2 非条码系统

3.3 基于单个标签的位姿估计

3.3.1 ARTag介绍

3.3.2 标签检测

3.3.3 边框验证

3.3.4 内部验证与ID获取

3.3.5 角点获取

3.4 基于多个标签的位姿估计

3.4.1 算法原理与场景搭建

3.4.2 实验结果分析

第四章 基于多传感器融合的四旋翼室内位姿估计

4.1 坐标系说明

4.2 基于IMU的运动状态分析

4.2.1 IMU模型

4.2.2 状态表示

4.2.3 误差状态表示

4.2.4 状态转移方程

4.2.5 预测部分归纳

4.3.1 观测方程

4.3.2 更新部分流程

4.4 时间同步机制与计算优化

4.5 视觉结果异常情况下的位姿估计

4.6 实验验证与分析

4.6.1 多传感器融合的算法验证

4.6.2 视觉结果异常的处理机制

第五章 总结与展望

5.1 总结

5.2 展望

参考文献

致谢

作者简历

攻读硕士学位期间主要的研究成果

展开▼

摘要

随着相关技术的成熟,近些年来四旋翼飞行器(以下简称四旋翼)的发展极为迅速。在消费级应用被满足的基础上,人们的视线逐渐聚焦在四旋翼行业级应用。为了实现行业级应用,四旋翼的位姿估计问题也威了当前研究热点。本文关注融合了视觉和IMU信息的里程计方法,旨在实现其在四旋翼板载处理器上的实时运算,同时具有强鲁棒性和高精度的特点,硬件成本也在一个较低的范围内。
  首先,本文的研究场景之一为国际空中机器人大赛(the International Aerial Robotics Competition,IARC)第七代任务,其中任务要求四旋翼在无GPS环境中利用自带传感器实现自身和目标的位姿估计。笔者利用颜色和形状特征实现了目标与背景的分离,并较好地保存了目标的物理尺寸。利用已知目标实际尺寸这一先验知识,结合PNP(Perspective-n-Point)方法,利用LM(Levenberg-Marquardt)算法求出四旋翼在目标坐标系下的位姿。之后融合IMU信息,解算出四旋翼和目标在场地坐标系下的位姿,利用位姿信息最终实现对目标的识别与跟踪,跟踪误差满足比赛要求。
  其次,针对一般场景下的四旋翼位姿估计问题,提出了一种基于ARTag标签的位姿估计算法。该算法能够识别出每一个标签的ID,不仅能针对单个标签进行鲁棒地识别,还能将同一帧所观测到的标签的所有特征点进行联合解算,在四旋翼以0.5m/s速度飞行的情况下依然可以稳定工作,是一种改进的基于特征点法的视觉里程计,实时性和位姿估计精度都能完全满足四旋翼飞行要求。最终,定位精度达到厘米级。由于标签尺寸已知,可以使用单目视觉来实现,对四旋翼来说极大地减轻了计算和载荷负担。最终,定位精度达到厘米级。
  最后,针对由于图像畸变和观测到标签较少等产生误差的问题,提出了一种基于多传感器融合的位姿估计算法。笔者利用四旋翼飞控自带的IMU数据与提出的基于ARTag标签的位姿估计算法进行融合,设计了一个模块化的卡尔曼滤波框架,视觉部分不再是一个黑盒模型,而是将观测到的特征点加入状态向量中进行状态迭代;同时设计了新的时间同步算法,使帧率不同的数据能合理地进行匹配。最终,定位精度达到毫米级。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号