首页> 外文会议> >Evaluation of cluster combination functions for mixture of experts
【24h】

Evaluation of cluster combination functions for mixture of experts

机译:评估专家组合的集群组合功能

获取原文
获取外文期刊封面目录资料

摘要

The mixtures of experts (MoE) model provides the basis for building modular neural network solutions. In this work we are interested in methods for decomposing the input before forwarding to the MoE architecture. By doing so we are able to define the number of experts from the data itself. Specific schemes are shown to be appropriate for regression and classification problems, where each appear to have different preferences.
机译:专家的混合物(MOE)模型为建设模块化神经网络解决方案提供了基础。在这项工作中,我们对用于在转发到MoE架构之前分解输入的方法感兴趣。通过这样做,我们能够从数据本身定义专家数量。特定方案被证明适合回归和分类问题,其中每个似乎具有不同的偏好。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号