【24h】

Research the conditions of convergence of back-propagation learning algorithm

机译:研究反向传播学习算法的收敛条件

获取原文
获取原文并翻译 | 示例

摘要

In this work properties of various parameters of sigma-function mathematically are described, because of which the influence of these parameters on the speed of convergence of the back-propagation learning algorithm for feedforward neurla networks is shown. Because of it, installing optimum conditions and entering some restrictions on parameters the new modified algorithm is received which converges to the necessary solution much faster.
机译:在这项工作中,数学描述了σ函数的各种参数的属性,因此,这些参数对前馈神经网络的反向传播学习算法收敛速度的影响得到了显示。因此,通过安装最佳条件并在参数上输入一些限制,可以收到新的改进算法,该算法可以更快地收敛到必要的解决方案。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号