首页> 外文会议>Annual Conference on Learning Theory >Boosting with Diverse Base Classifiers
【24h】

Boosting with Diverse Base Classifiers

机译:促进各种基础分类器

获取原文

摘要

We establish a new bound on the generalization error rate of the Boost-by-Majority algorithm. The bound holds when the algorithm is applied to a collection of base classifiers that contains a "diverse" subset of "good" classifiers, in a precisely defined sense. We describe cross-validation experiments that suggest that Boost-by-Majority can be the basis of a practically useful learning method, often improving on the generalization of AdaBoost on large datasets.
机译:我们在逐致算法的泛化误差率上建立了一个新的界限。当算法应用于包含“好”分类器的“良好”分类器的“良好”子集的基本分类器的集合时,绑定的绑定保持在精确定义的意义上。我们描述了交叉验证实验,表明逐少数可以是实际上有用的学习方法的基础,通常会改善大型数据集上Adaboost的泛化。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号