首页> 外文期刊>IEEE Transactions on Information Theory >A metric entropy bound is not sufficient for learnability
【24h】

A metric entropy bound is not sufficient for learnability

机译:度量熵界线不足以促进学习

获取原文
获取原文并翻译 | 示例

摘要

The authors prove by means of a counterexample that it is not sufficient, for probably approximately correct (PAC) learning under a class of distributions, to have a uniform bound on the metric entropy of the class of concepts to be learned. This settles a conjecture of Benedek and Itai (1991).
机译:作者通过一个反例证明,对于要在一类分布中的近似正确(PAC)学习而言,要学习的概念类别的度量熵具有统一的界限是不够的。这解决了Benedek和Itai(1991)的一个猜想。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号