首页> 美国卫生研究院文献>other >Online Planning Algorithms for POMDPs
【2h】

Online Planning Algorithms for POMDPs

机译:POMDP的在线计划算法

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Partially Observable Markov Decision Processes (POMDPs) provide a rich framework for sequential decision-making under uncertainty in stochastic domains. However, solving a POMDP is often intractable except for small problems due to their complexity. Here, we focus on online approaches that alleviate the computational complexity by computing good local policies at each decision step during the execution. Online algorithms generally consist of a lookahead search to find the best action to execute at each time step in an environment. Our objectives here are to survey the various existing online POMDP methods, analyze their properties and discuss their advantages and disadvantages; and to thoroughly evaluate these online approaches in different environments under various metrics (return, error bound reduction, lower bound improvement). Our experimental results indicate that state-of-the-art online heuristic search methods can handle large POMDP domains efficiently.
机译:部分可观察的马尔可夫决策过程(POMDP)为随机领域中不确定性下的顺序决策提供了一个丰富的框架。但是,解决POMDP通常很困难,除了一些小问题(由于其复杂性)。在这里,我们专注于通过在执行过程中的每个决策步骤计算良好的本地策略来减轻计算复杂性的在线方法。在线算法通常由先行搜索组成,以查找在环境中的每个时间步执行的最佳操作。我们的目标是调查各种现有的在线POMDP方法,分析其特性并讨论其优缺点;并全面评估这些在线方法在不同环境下的各种指标(收益,减少错误界限,改善下限)。我们的实验结果表明,最新的在线启发式搜索方法可以有效处理大型POMDP域。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号