首页> 外文期刊>Neural computation >Reinforcement Learning in Continuous Time and Space
【24h】

Reinforcement Learning in Continuous Time and Space

机译:连续时间和空间中的强化学习

获取原文
获取原文并翻译 | 示例

摘要

This article presents a reinforcement learning framework for continuous- time dynamical systems without a priori discretization of time, state, and action. Based on the Hamilton-Jacobi-Bellman (HJB) equation for infinite- horizon, discounted reward problems, we derive algorithms for estimat- ing value functions and improving policies with the use of function ap- proximators.
机译:本文提出了一种用于连续时间动力系统的强化学习框架,而没有时间,状态和动作的先验离散。基于Hamilton-Jacobi-Bellman(HJB)方程,该方程解决了无限期折扣折扣问题,我们推导了用于估计价值函数并使用函数近似值改进策略的算法。

著录项

  • 来源
    《Neural computation》 |2000年第1期|p.219-245|共27页
  • 作者

    Kenji Doya;

  • 作者单位
  • 收录信息 美国《科学引文索引》(SCI);美国《化学文摘》(CA);
  • 原文格式 PDF
  • 正文语种 eng
  • 中图分类 人工智能理论;
  • 关键词

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号