【24h】

Hilbert Space Embeddings of POMDPs

机译:POMDP的希尔伯特空间嵌入

获取原文

摘要

A nonparametric approach for policy learning for POMDPs is proposed. The approach represents distributions over the states, observations, and actions as embeddings in feature spaces, which are reproducing kernel Hilbert spaces. Distributions over states given the observations are obtained by applying the kernel Bayes' rule to these distribution embeddings. Policies and value functions are defined on the feature space over states, which leads to a feature space expression for the Bellman equation. Value iteration may then be used to estimate the optimal value function and associated policy. Experimental results confirm that the correct policy is learned using the feature space representation.
机译:提出了一种用于POMDP策略学习的非参数方法。该方法将状态,观察值和动作的分布表示为特征空间中的嵌入,这些特征在再现内核希尔伯特空间。给定观测值的状态分布是通过将内核贝叶斯规则应用于这些分布嵌入而获得的。在状态上的特征空间上定义了策略和值函数,这导致了Bellman方程的特征空间表达式。然后,可以使用值迭代来估计最佳值函数和关联的策略。实验结果证实,使用特征空间表示可以学习正确的策略。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号