首页> 外文OA文献 >Asymptotic Optimality of Competitive Associative Nets and Its Application to Incremental Learning of Nonlinear Functions
【2h】

Asymptotic Optimality of Competitive Associative Nets and Its Application to Incremental Learning of Nonlinear Functions

机译:竞争联想网络的渐近最优性及其在非线性函数增量学习中的应用

摘要

競合連想ネットCAN2は競合ネットと連想ネットの機能を用いて非線形関数を遂次的に学習し区分的に線形近似するニューラルネットである.このネットの有効性は関数近似,制御,降水量推定などへの応用において示されているが,その学習法は基本的にこう配法に基づく競合学習を含んでおり,局所解問題をもつ.この問題を回避するために,本論文ではまずネットを構成するユニット数が非常に多い場合を考え,近似すべき関数の平均2乗誤差を最小化するための最適性の条件,すなわち漸近最適条件を導く.この条件は各時刻の荷重配置が最適解に近いかどうかを判断するために用いることができると同時に,最適解により近い荷重配置を示唆することができる.そこでこの条件をこう配法による学習に組み入れる.すなわちこう配法により得られた荷重配置が最適解に近くないと判断されるときはあるユニットの荷重を最適解に近い荷重配置になるように再初期化する学習法を構成する.最後にこの学習法をいくつかのベンチマーク関数に適用する数値実験を通して本手法の有効性を確認するとともに,BPN (Back-Propagation Net), RBFN (Radial Basis Function Net)及びSVR (Support Vector Regression)の実験結果と比較し,本手法を用いるCAN2の関数近似性能の高さを示す.
机译:竞争性关联网络CAN2是一种神经网络,它利用竞争性和关联网络的功能顺序学习非线性函数,并进行分段线性逼近,该网络的有效性是函数逼近,控制,降水估计等。为了避免这个问题,我们首先构建一个网络来避免这个问题,如在学习方法中的应用所示,该方法主要包括基于梯度法的竞争性学习。考虑到单元数非常多的情况,我们推导出了用于使要逼近的函数的均方误差最小的最优条件,即渐近最优条件,其中每次的负载分配都接近最优解。可以用来判断是否可以建议更接近最优解的权重分布,因此该条件被并入了通过梯度法的学习中,即,通过梯度法获得的权重分布是最优解。我们构造了一种学习方法,该方法可以重新初始化单位的权重,以便在判断学习方法不接近权重时,权重分布接近最优解;最后,将学习方法应用于某些基准函数。通过与BPN(反向传播网络),RBFN(径向基函数网络)和SVR(支持向量回归)的实验结果进行比较,证实了该方法的有效性。指示高度。

著录项

  • 作者

    黒木 秀一;

  • 作者单位
  • 年度 2003
  • 总页数
  • 原文格式 PDF
  • 正文语种 ja
  • 中图分类

相似文献

  • 外文文献
  • 中文文献
  • 专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号