首页> 外文期刊>Neural computation >Boosted Mixture of Experts: An Ensemble Learning Scheme
【24h】

Boosted Mixture of Experts: An Ensemble Learning Scheme

机译:增强专家混合:整体学习方案

获取原文
获取原文并翻译 | 示例
       

摘要

We present a new supervised learning procedure for ensemble machines, in which outputs of predictors, trained on different distributions, are combined by a dynamic classifier combination model. This procedure may be viewed as either a version of mixture of experts (Jacobs, Jordan, Nowlan, & Hinton, 1991), applied to classification, or a variant of the boosting algorithm (Schapire, 1990). As a variant of the mixture of experts, it can be made appropriate for general classification and regression problems by initializing the partition of the data set to different experts in a boostlike manner. If viewed as a variant of the boosting algorithm, its main gain is the use of a dynamic combination model for the outputs of the networks. Results are demonstrated on a synthetic example and a digit recognition task from the NIST database and compared with classical ensemble approaches.
机译:我们提出了一种新的集成机监督学习程序,其中通过动态分类器组合模型组合了在不同分布上训练的预测变量的输出。可以将此程序视为专家分类的一个版本(Jacobs,Jordan,Nowlan和Hinton,1991),或者将其应用于升压算法(Schapire,1990)。作为专家混合的一种变体,可以通过以boostlike的方式将数据集分配给不同专家的方法,使其适合于一般分类和回归问题。如果将其视为升压算法的变体,则其主要收益是对网络输出使用动态组合模型。结果通过NIST数据库中的一个综合示例和一个数字识别任务进行了演示,并与经典的集成方法进行了比较。

著录项

  • 来源
    《Neural computation》 |1999年第2期|483-497|共15页
  • 作者

    Avnimelech R; Intrator N;

  • 作者单位

    Department of Computer Science, Sackler Faculty of Exact Sciences, Tel-Aviv University, Tel-Aviv, Israel;

  • 收录信息 美国《科学引文索引》(SCI);美国《化学文摘》(CA);
  • 原文格式 PDF
  • 正文语种 eng
  • 中图分类
  • 关键词

  • 入库时间 2022-08-18 02:12:16

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号