...
首页> 外文期刊>Theoretical computer science >Sample size lower bounds in PAC learning by Algorithmic Complexity Theory
【24h】

Sample size lower bounds in PAC learning by Algorithmic Complexity Theory

机译:算法复杂度理论在PAC学习中的样本量下限

获取原文
获取原文并翻译 | 示例

摘要

This paper focuses on a general setup for obtaining sample size lower bounds for learning concept classes under fixed distribution laws in an extended PAC learning framework. These bounds do not depend on the running time of learning procedures and are information-theoretic in nature, They are based on incompressibility methods drawn from Kolmogorov Complexity and Algorithmic Probability theories. (C) 1998-Elsevier Science B.V. All rights reserved. [References: 23]
机译:本文着重介绍了在扩展的PAC学习框架中,在固定分布律下获得学习概念类的样本量下限的一般设置。这些界限不依赖于学习过程的运行时间,并且本质上是信息论的,它们基于从Kolmogorov复杂度和算法概率理论中得出的不可压缩方法。 (C)1998-Elsevier Science B.V.保留所有权利。 [参考:23]

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号