首页> 外文会议>Conference on Computer and Robot Vision >Towards Direct Localization for Visual Teach and Repeat
【24h】

Towards Direct Localization for Visual Teach and Repeat

机译:进行视觉教学和重复的直接本地化

获取原文

摘要

Vision-based path following allows robots to autonomously repeat manually taught paths. Stereo Visual Teach and Repeat (VT&R) [1] accomplishes robust long-range path following in unstructured outdoor environments. VT&R uses sparse features to match images for visual odometry (VO) and localization. This paper describes our first implementation of direct localization for VT&R. Instead of using sparse visual features for image matching, we minimize a photometric residual cost over the whole image. We compare the performance of feature-based and direct localization using challenging offroad driving datasets. The results show that direct localization consistently achieves more accurate pose estimation under nominal conditions, but further work is required to increase robustness to large lighting change between the teach and repeat images.
机译:基于视觉的路径跟踪功能使机器人可以自主重复人工授课的路径。立体视觉示教和重复(VT&R)[1]在非结构化室外环境中实现了强大的远程跟踪能力。 VT&R使用稀疏特征来匹配图像以进行视觉里程(VO)和定位。本文介绍了我们对VT&R进行直接本地化的第一个实现。我们没有使用稀疏的视觉特征进行图像匹配,而是将整个图像上的光度残留成本降至最低。我们使用具有挑战性的越野驾驶数据集来比较基于特征的定位和直接定位的性能。结果表明,直接定位始终可以在标称条件下实现更准确的姿态估计,但是还需要进一步的工作来提高对示教图像和重复图像之间较大的光照变化的鲁棒性。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号