首页> 美国卫生研究院文献>other >MDPs with Non-Deterministic Policies
【2h】

MDPs with Non-Deterministic Policies

机译:具有不确定性策略的MDP

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Markov Decision Processes (MDPs) have been extensively studied and used in the context of planning and decision-making, and many methods exist to find the optimal policy for problems modelled as MDPs. Although finding the optimal policy is sufficient in many domains, in certain applications such as decision support systems where the policy is executed by a human (rather than a machine), finding all possible near-optimal policies might be useful as it provides more flexibility to the person executing the policy. In this paper we introduce the new concept of non-deterministic MDP policies, and address the question of finding near-optimal non-deterministic policies. We propose two solutions to this problem, one based on a Mixed Integer Program and the other one based on a search algorithm. We include experimental results obtained from applying this framework to optimize treatment choices in the context of a medical decision support system.
机译:马尔可夫决策过程(MDP)已在计划和决策环境中进行了广泛的研究和使用,并且存在许多方法来找到以MDP为模型的问题的最优策略。尽管在许多领域中找到最佳策略就足够了,但是在某些应用程序中,例如由人(而不是机器)执行策略的决策支持系统,找到所有可能的近乎最优的策略可能会很有用,因为它为用户提供了更大的灵活性。执行政策的人。在本文中,我们介绍了非确定性MDP策略的新概念,并解决了寻找接近最优的非确定性策略的问题。针对此问题,我们提出了两种解决方案,一种基于混合整数程序,另一种基于搜索算法。我们包括通过应用此框架在医疗决策支持系统中优化治疗选择而获得的实验结果。

著录项

  • 期刊名称 other
  • 作者单位
  • 年(卷),期 -1(21),-1
  • 年度 -1
  • 页码 1065–1073
  • 总页数 16
  • 原文格式 PDF
  • 正文语种
  • 中图分类
  • 关键词

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号