首页> 外文会议>Conference on Neural Information Processing Systems >A Geometric Perspective on Optimal Representations for Reinforcement Learning
【24h】

A Geometric Perspective on Optimal Representations for Reinforcement Learning

机译:关于加固学习最优表示的几何视角

获取原文

摘要

We propose a new perspective on representation learning in reinforcement learning based on geometric properties of the space of value functions. We leverage this perspective to provide formal evidence regarding the usefulness of value functions as auxiliary tasks. Our formulation considers adapting the representation to minimize the (linear) approximation of the value function of all stationary policies for a given environment. We show that this optimization reduces to making accurate predictions regarding a special class of value functions which we call adversarial value functions (AVFs). We demonstrate that using value functions as auxiliary tasks corresponds to an expected-error relaxation of our formulation, with AVFs a natural candidate, and identify a close relationship with proto-value functions (Mahadevan, 2005). We highlight characteristics of AVFs and their usefulness as auxiliary tasks in a series of experiments on the four-room domain.
机译:我们提出了一种基于价值函数空间的几何特性的加固学习的代表学习的新视角。 我们利用此视角来为有关辅助任务的有用函数的有用性提供正式的证据。 我们的配方考虑适应表示,以最小化给定环境所有静止策略的值函数的(线性)近似。 我们表明,这种优化减少了关于我们调用逆势价值函数(AVFS)的特殊价值函数的准确预测。 我们证明,使用价值函数作为辅助任务对应于我们的配方的预期误差放松,以及AVFS一种自然候选,并识别与原型函数的密切关系(MahadeVan,2005)。 我们在四室域的一系列实验中突出了AVFS及其用途作为辅助任务的特点。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号