首页> 外文期刊>IEEE Transactions on Neural Networks >Deterministic convergence of an online gradient method for BP neural networks
【24h】

Deterministic convergence of an online gradient method for BP neural networks

机译:BP神经网络在线梯度方法的确定性收敛

获取原文
获取原文并翻译 | 示例

摘要

Online gradient methods are widely used for training feedforward neural networks. We prove in this paper a convergence theorem for an online gradient method with variable step size for backward propagation (BP) neural networks with a hidden layer. Unlike most of the convergence results that are of probabilistic and nonmonotone nature, the convergence result that we establish here has a deterministic and monotone nature.
机译:在线梯度方法被广泛用于训练前馈神经网络。我们在本文中证明了具有隐藏层的反向传播(BP)神经网络的具有可变步长的在线梯度方法的收敛定理。与大多数具有概率和非单调性质的收敛结果不同,我们在此处建立的收敛结果具有确定性和单调性质。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号