首页> 外文会议>IEEE Conference on Computational Intelligence and Games >Deep Q-learning using redundant outputs in visual doom
【24h】

Deep Q-learning using redundant outputs in visual doom

机译:在视觉末日中使用冗余输出进行深度Q学习

获取原文

摘要

Recently, there is a growing interest in applying deep learning in game AI domain. Among them, deep reinforcement learning is the most famous in game AI communities. In this paper, we propose to use redundant outputs in order to adapt training progress in deep reinforcement learning. We compare our method with general ε-greedy in ViZDoom platform. Since AI player should select an action only based on visual input in the platform, it is suitable for deep reinforcement learning research. Experimental results show that our proposed method archives competitive performance to ε-greedy without parameter tuning.
机译:最近,人们越来越有兴趣在游戏AI领域中应用深度学习。其中,深度强化学习是游戏AI社区中最著名的。在本文中,我们建议使用冗余输出,以适应深度强化学习中的训练进度。我们将我们的方法与ViZDoom平台中的一般ε贪婪进行了比较。由于AI播放器仅应基于平台中的视觉输入来选择动作,因此适合进行深度强化学习研究。实验结果表明,本文提出的方法无需参数调整即可将竞争性能存档到ε贪心中。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号