【24h】

Compressed Learning with Regular Concept

机译:压缩学习与常规概念

获取原文

摘要

We revisit compressed learning in the PAC learning framework. Specifically, we derive error bounds for learning half-space concepts with compressed data. We propose the regularity assumption over a pair of concept and data distribution to greatly generalize former assumptions. For a regular concept we define a robust factor to characterize the margin distribution and show that such a factor tightly controls the generalization error of a learned classifier. Moreover, we extend our analysis to the more general linearly non-separable case. Empirical results on both toy and real world data validate our analysis.
机译:我们在PAC学习框架中重新审视压缩学习。具体而言,我们推导出误差范围用于使用压缩数据学习半空间概念。我们提出了一对概念和数据分布的规律假设,以极大地概括前的假设。对于常规概念,我们定义了一种强大的因素来表征边缘分布,并显示这种因素严格控制学习分类器的泛化误差。此外,我们将我们的分析扩展到更一般的线性不可分居的情况。玩具和现实世界数据的经验结果验证了我们的分析。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号