首页> 美国卫生研究院文献>Springer Open Choice >Mobile robots exploration through cnn-based reinforcement learning
【2h】

Mobile robots exploration through cnn-based reinforcement learning

机译:通过基于CNN的强化学习探索移动机器人

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Exploration in an unknown environment is an elemental application for mobile robots. In this paper, we outlined a reinforcement learning method aiming for solving the exploration problem in a corridor environment. The learning model took the depth image from an RGB-D sensor as the only input. The feature representation of the depth image was extracted through a pre-trained convolutional-neural-networks model. Based on the recent success of deep Q-network on artificial intelligence, the robot controller achieved the exploration and obstacle avoidance abilities in several different simulated environments. It is the first time that the reinforcement learning is used to build an exploration strategy for mobile robots through raw sensor information.
机译:在未知环境中进行探索是移动机器人的基本应用程序。在本文中,我们概述了旨在解决走廊环境中的勘探问题的强化学习方法。学习模型将来自RGB-D传感器的深度图像作为唯一输入。通过预先训练的卷积神经网络模型提取深度图像的特征表示。基于人工智能深层Q网络的最新成功,该机器人控制器在几种不同的模拟环境中实现了探索和避障能力。这是第一次通过强化学习通过原始传感器信息为移动机器人建立探索策略。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号