首页> 中文期刊>测绘地理信息 >基于全卷积编解码网络的视觉定位方法

基于全卷积编解码网络的视觉定位方法

     

摘要

针对目前视觉定位方法中使用人工特征的限制,提出了一种基于全卷积编解码网络的视觉定位方法。该方法将场景点3D坐标映射到图像的BGR(blue-green-red)通道,建立了图像到场景的直接联系,并通过全卷积编解码网络学习图像与场景结构的关系。给出一张图像,网络可以预测其每个像素点对应的3D点在当前场景世界坐标系的坐标;然后结合RANSAC(random sample consensus)和PnP(perspective-n-point)算法求解位姿并优化,得到最终的相对位姿。在7-Scenes数据集上的实验结果表明本文方法可实现厘米级的高精度定位,并且相比其他基于深度学习的方法,该方法在保证精度的同时,模型尺寸更小。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号