首页> 外文会议>International conference on simulation of adaptive behavior >Multimodal Integration of Visual Place Cells and Grid Cells for Navigation Tasks of a Real Robot
【24h】

Multimodal Integration of Visual Place Cells and Grid Cells for Navigation Tasks of a Real Robot

机译:视觉位置单元格和网格单元格的多峰集成,用于真实机器人的导航任务

获取原文

摘要

In the present study, we propose a model of multimodal place cells merging visual and proprioceptive primitives. First we will briefly present our previous sensory-motor architecture, highlighting limitations of a visual-only based system. Then we will introduce a new model of proprioceptive localization, giving rise to the so-called grid cells, wich are congruent with neurobiological studies made on rodent. Finally we will show how a simple conditionning rule between both modalities can outperform visual-only driven models by producing robust multimodal place cells. Experiments show that ibis model enhances robot localization and also allows to solve some benchmark problems for real life robotics applications.
机译:在本研究中,我们提出了一个合并视觉和本体感受原语的多模态位置细胞模型。首先,我们将简要介绍我们以前的感觉运动架构,重点介绍基于视觉的系统的局限性。然后,我们将介绍一种新的本体感受定位模型,产生所谓的网格细胞,该模型细胞与啮齿动物的神经生物学研究相吻合。最后,我们将展示两种模态之间的简单条件规则如何通过生成健壮的多模态放置单元来胜过仅视觉驱动的模型。实验表明,宜必思模型增强了机器人的定位能力,还可以解决现实生活中的机器人应用程序中的一些基准问题。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号