首页> 中文学位 >无人车基于三维点云场景理解的语义地图构建
【6h】

无人车基于三维点云场景理解的语义地图构建

代理获取

目录

声明

摘要

1 绪论

1.1 研究背景与意义

1.2 研究现状与发展趋势

1.3 本文的主要工作及创新点

2 基于激光测距的三维点云数据获取

2.1 无人驾驶车Smart-Cruiser

2.1.1 无人车硬件系统

2.1.1 无人车软件系统

2.2 面向大范围室外环境的点云数据获取

2.2.1 点云数据获取原理

2.2.2 点云数据集介绍

3 基于三维点云的自主场景理解

3.1 ODVL图

3.1.1 ODVL图模型原理

3.1.2 基于ODVL图模型的超像素分割

3.2 基于ODVL图的点云分类

3.2.1 分类器选取

3.2.2 特征提取

3.2.3 基于Gentle-AdaBoost算法的分类

3.3 三维点云再分类及基于语义信息的校正

3.3.1 点云聚类

3.3.2 点云再分类及语义校正

3.4 实验结果及分析

4 室外大范围语义地图构建

4.1 语义地图表述方法

4.1.1 环境节点

4.1.2 道路节点

4.2 面向大范围室外环境的拓扑地图构建

4.2.1 拓扑地图构建

4.2.2 语义地图的动态更新与维护

4.3 实验结果及分析

4.3.1 语义地图构建结果

4.3.2 整体耗时分析

结论

参考文献

攻读硕士学位期间发表学术论文情况

课题资助情况

致谢

展开▼

摘要

无人驾驶车对于周围环境的感知和理解是其实现自主驾驶和地图构建的基础。本文的目的是使用安装在无人驾驶车上的激光传感器获得描述无人车周围环境的三维激光点云数据,然后通过对场景点云数据的理解提取场景的语义描述,最后运用语义描述构建适用于大范围室外环境的拓扑语义地图。为了能实现语义地图的在线构建,需要在场景理解环节有着足够短的耗时。本文提出了三维点云数据的最优深度及向量长度(Optimal Depth& Vector Length,ODVL)图模型。该模型能够将场景的三维点云数据映射为二维灰度图像,适用于多种激光扫描方式,比起传统的灰度图模型有着更好的景物边界区分度以及纹理质量。基于ODVL图模型的场景理解在保证了所需分类准确率的同时,较传统三维点云分类方法在实时性上有明显的提升,为后续的语义地图在线构建提供了保证。
  本文对ODVL图进行超像素分割,把分割后得到的超像素块作为分类的最小单元,提取其20维纹理特征。由于ODVL图中的像素点与点云激光点一一对应,每个超像素块都有着对应的局部点云。本文在提取局部点云高程特征的基础上增加了形状估计与方向特征,与纹理特征一起组成分类单元的23维特征向量。针对特征的特点并且考虑到室外场景理解是一个多分类问题,选用Gentle-AdaBoost算法对超像素块进行分类。将分类结果中置信度较低的区域还原为三维点云,并用层次聚类法对点云聚类。分析聚类后点云的轮廓以及点云分布特征,完成对低置信度区域的再次分类。对于分类结果中由于分割和聚类不准确导致的错分点,本文提出了一种基于语义约束的点云校正方法。提取分类置信度较高景物的面性区域,并对区域中的错分点进行校正。
  通过场景理解,能够获得无人车周围环境的语义描述。构建语义地图前,需根据语义信息对场景中的景物聚类,以提取每一个独立景物的类别、大小、位置等信息。本文将无人车左侧与右侧激光的三维点云数据按规则划分为环境节点,将无人车行驶过的轨迹与附近地面按规则划分为道路节点。并为环境节点与道路节点生成拓扑关系,得到室外环境的拓扑地图。随着无人车的运动,不断有新的环境被感知和理解,现有的语义地图中的节点信息需根据情况实时地更新,拓扑结构根据信息变化实时地调整,从而生成面向大范围室外环境的拓扑语义地图。通过实验分析,本文的场景理解算法在整体准确率达到0.868的前提下,对包含约9万个点的场景,理解耗时小于0.7秒。与栅格地图等相比,本文的语义地图在保留大量语义信息的情况下占用的存储空间大为减少,且构建过程快捷高效。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号