首页> 外文期刊>電子情報通信学会技術研究報告 >Support Vector Machine を用いたAdaBoost の重み最適化
【24h】

Support Vector Machine を用いたAdaBoost の重み最適化

机译:使用支持向量机的AdaBoost权重优化

获取原文
获取原文并翻译 | 示例
       

摘要

AdaBoost のアルゴリズムでは、弱識別器を各ラウンドに1つずつ順に学習する。弱識別器の重みもラウンド順に決まるが、一度決定された重みは変化しない。これらの重みは全ての弱識別器が学習された後に全弱識別器の結果を用いて最適化出来る。本稿では、ソフトマージン線形SVM を用いてAdaBoost の重みを最適化する2つの手法を提案する。1つは全弱敵別器が構築された後に1回最適化を行う手法であり、もう1つは、AdaBoost の全学習ラウンドで最適化を行う手法である。7つのベンチマークデータセットに対して評価実験を行い、提案手法がAdaBoost と同等以上の識別性能を持つことを示した。%The AdaBoost algorithm trains weak classifiers sequentially and the weights of each classifier are also determined sequentially. But once the weight of weak classifier is calculated, it is not changed. These weights can be further optimized using classification results of all weak classifiers after all the weak classifiers were constructed. This paper proposes the weight optimization method of the AdaBoost algorithm using soft-margin linear SVM. There are two possibilities to apply the weight optimization. One is to apply the optimization once after all weak classifiers are constructed. The other is to apply the optimization at every step of boosting. Experiments on 7 commonly used benchmark datasets show that the proposed optimization methods can give better or comparable error rates compared to the original AdaBoost.
机译:AdaBoost的算法学习弱分类器,每轮学习一个。弱鉴别符的权重也以舍入顺序确定,但是一旦确定,权重就不会改变。在学习了所有弱分类器之后,可以使用所有弱分类器的结果来优化这些权重。在本文中,我们提出了两种使用软边距线性SVM优化AdaBoost权重的方法。一种是在构造完所有弱敌人分类器后立即执行优化的方法,另一种是在所有AdaBoost学习回合中执行优化的方法。我们对七个基准数据集进行了评估实验,结果表明,该方法具有与AdaBoost相同或更好的判别性能。 %AdaBoost算法按顺序训练弱分类器,并依次确定每个分类器的权重,但是一旦计算了弱分类器的权重,它就不会改变,可以使用所有弱分类器的分类结果进一步优化这些权重。构造了弱分类器,本文提出了使用软裕量线性SVM的AdaBoost算法的权重优化方法,有两种方法可以应用权重优化方法,一种是在构造所有弱分类器后再进行一次优化,另一种是在7个常用基准数据集上进行的实验表明,与原始AdaBoost相比,所提出的优化方法可以提供更好或相当的错误率。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号