首页> 外文OA文献 >Real-Time 6DOF Pose Relocalization for Event Cameras With Stacked Spatial LSTM Networks
【2h】

Real-Time 6DOF Pose Relocalization for Event Cameras With Stacked Spatial LSTM Networks

机译:具有堆叠空间LSTM网络的事件摄像机的实时6dof姿势剖视

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。
获取外文期刊封面目录资料

摘要

We present a new method to estimate the 6DOF pose of the event camera solelybased on the event stream. Our method first creates the event image from a listof events that occurs in a very short time interval, then a Stacked SpatialLSTM Network (SP-LSTM) is used to learn and estimate the camera pose. OurSP-LSTM comprises a CNN to learn deep features from the event images and astack of LSTM to learn spatial dependencies in the image features space. Weshow that the spatial dependency plays an important role in the pose estimationtask and the SP-LSTM can effectively learn that information. The experimentalresults on the public dataset show that our approach outperforms recent methodsby a substantial margin. Overall, our proposed method reduces about 6 times theposition error and 3 times the orientation error over the state of the art. Thesource code and trained models will be released.
机译:我们提出了一种新方法来估计SOLECHECALLECLES在事件流上的活动摄像机的6DOF姿势。我们的方法首先从非常短的时间间隔发生的事件中创建事件图像,然后堆叠的SpatialLSTM网络(SP-LSTM)用于学习和估计相机姿势。 OUSSP-LSTM包括CNN,用于从LSTM的事件图像和SSTM中学习深度功能,以学习图像中的空间依赖性。 Wealow中空间依赖性在姿势估计中发挥着重要作用,SP-LSTM可以有效地了解该信息。公共数据集的实验结果表明,我们的方法优于最近的方法,最近是一个大幅保证金。总的来说,我们的提出方法减少了大约6倍的误差和最先进的方向误差的3倍。将发布Thesource代码和培训的型号。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号