首页> 外文期刊>Neural computation >On the Approximation Rate of Hierarchical Mixtures-of Experts for Generalized Linear Models
【24h】

On the Approximation Rate of Hierarchical Mixtures-of Experts for Generalized Linear Models

机译:广义线性模型的专家混合层次逼近率

获取原文
获取原文并翻译 | 示例
       

摘要

We investigate a class of hierarchical mixtures-of-experts (HMEO models where generalized linear models with nonlinear mean functions of the form ψ(α+x~Tβ) are mixed. Here ψ(·) is the inverse link function. It is shown that mixtures of such mean functions can approximate a class of smooth functions of the form ψ(h(x)), where h(·)∈W~∞_2;K (a Sobolev class over [0,1]~s), as the number of experts m in the network increases. An upper bound of the approximation rate is given as O (m~-2/s) in L_p norm. This rate can be achieved within the family of HME structures with no More than s-layers, where s is the dimension of the prdictor x.
机译:我们研究了一类专家级混合模型(HMEO模型,其中混合了非线性平均函数形式为ψ(α+ x〜Tβ)的广义线性模型,其中ψ(·)是逆链接函数。这样的均值函数的混合可以近似表示形式为ψ(h(x))的一类平滑函数,其中h(·)∈W〜∞_2; K([0,1]〜s上的Sobolev类),随着网络中专家m的增加,在L_p范数中,近似率的上限为O(m〜-2 / s),该比率可以在不超过s的HME结构族中实现-层,其中s是定理子x的尺寸。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号