首页> 外文会议>SICE Annual Conference >Complexity control methods for recurrent neural networks
【24h】

Complexity control methods for recurrent neural networks

机译:复杂性神经网络的复杂性控制方法

获取原文

摘要

We demonstrate that a dynamical complexity of neural networks can be controlled by our gradient-based method. An essential core of our method is calculation of the complexity and its partial derivative of the network parameters. Simulation results show that our method can make the exponent converge to desired values. In addition, the networks can learn not only the target time series, but also the complexity of the target by a combination of proposed method and conventional learning algorithm.
机译:我们证明了神经网络的动态复杂性可以通过我们的梯度的方法来控制。我们的方法的基本核心是计算网络参数的复杂性及其部分导数。仿真结果表明,我们的方法可以使指数收敛到所需的值。此外,网络不仅可以通过所提出的方法和传统学习算法的组合来学习目标时间序列,还可以通过组合来学习目标的复杂性。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号