首页> 外文会议>European conference on applications of evolutionary computation >HyperNEAT Versus RL PoWER for Online Gait Learning in Modular Robots
【24h】

HyperNEAT Versus RL PoWER for Online Gait Learning in Modular Robots

机译:HyperNEAT与RL PoWER在模块化机器人中的在线步态学习

获取原文

摘要

This paper addresses a principal problem of in vivo evolution of modular multi-cellular robots, where robot 'babies' can be produced with arbitrary shapes and sizes. In such a system we need a generic learning mechanism that enables newborn morphologies to obtain a suitable gait quickly after 'birth'. In this study we investigate and compare the reinforcement learning method RL PoWeR with HyperNEAT. We conduct simulation experiments using robot morphologies with different size and complexity. The experiments give insights into the differences in solution quality and algorithm efficiency, suggesting that reinforcement learning is the preferred option for this online learning problem.
机译:本文解决了模块化多细胞机器人体内进化的主要问题,其中可以以任意形状和大小生产机器人“婴儿”。在这样的系统中,我们需要一种通用的学习机制,使新生的形态在“出生”后迅速获得合适的步态。在这项研究中,我们调查并比较了强化学习方法RL PoWeR和HyperNEAT。我们使用具有不同大小和复杂度的机器人形态进行仿真实验。实验提供了解决方案质量和算法效率差异的见解,表明强化学习是此在线学习问题的首选选项。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号