首页> 外文期刊>Neural computation >Complexity Issues in Natural Gradient Descent Method for Training Multilayer Perceptrons
【24h】

Complexity Issues in Natural Gradient Descent Method for Training Multilayer Perceptrons

机译:训练多层感知器的自然梯度下降方法中的复杂性问题

获取原文
获取原文并翻译 | 示例

摘要

The natural gradient descent method is applied to train an n-m-1 multilayer perceptron. Based on an efficient scheme to represent the Fisher information matrix for an n-m-1 stochastic multilayer perceptron, a new algorithm is proposed to calculate the natural gradient without inverting the Fisher information matrix explicitly. When the input dimension n is much larger than the number of hidden neurons m, the time complexity of computing the natural gradient is O(n).
机译:应用自然梯度下降法训练n-m-1多层感知器。基于一种表示n-m-1随机多层感知器的Fisher信息矩阵的有效方案,提出了一种计算自然梯度而无需将Fisher信息矩阵进行明确求逆的新算法。当输入维数n大于隐藏神经元数m时,计算自然梯度的时间复杂度为O(n)。

著录项

  • 来源
    《Neural computation》 |1998年第8期|2137-2157|共21页
  • 作者

    Yang H; Amari S;

  • 作者单位

    Department of Computer Science, Oregon Graduate Institute, Portland, OR 97291, U.S.A.;

  • 收录信息 美国《科学引文索引》(SCI);美国《化学文摘》(CA);
  • 原文格式 PDF
  • 正文语种 eng
  • 中图分类
  • 关键词

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号