【24h】

Inferring Human Values for Safe AGI Design

机译:推断出安全AGI设计的人类价值观

获取原文

摘要

Aligning goals of superintelligent machines with human values is one of the ways to pursue safety in AGI systems. To achieve this, it is first necessary to learn what human values are. However, human values are incredibly complex and cannot easily be formalized by hand. In this work, we propose a general framework to estimate the values of a human given its behavior.
机译:与人类价值观的超级智能机器的目标是在AGI系统中追求安全的方法之一。为实现这一目标,首先是必要了解人类价值观。然而,人类价值观令人难以置信的复杂,并且不能轻易用手形式化。在这项工作中,我们提出了一般框架来估计人类的行为。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号