首页> 外文会议>Neural Networks, The 2007 IEEE International Joint Conference on >Mixing Aveboost and Conserboost to Improve Boosting Methods
【24h】

Mixing Aveboost and Conserboost to Improve Boosting Methods

机译:混合Aveboost和Conserboost以改进增强方法

获取原文

摘要

Adaptive boosting (Adaboost) is one of the most known methods to build an ensemble of neural networks. Adaboost has been studied and successfully improved by some authors like Breiman, Kuncheva or Oza. In this paper we briefly analyze and mix two of the m
机译:自适应增强(Adaboost)是构建神经网络集成的最著名方法之一。 Breaboman,Kuncheva或Oza等一些作者已经研究并成功改进了Adaboost。在本文中,我们简要分析并混合了两个

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号