...
首页> 外文期刊>Journal of Computational and Applied Mathematics >Convergence of an online gradient method for feedforward neural networks with stochastic inputs
【24h】

Convergence of an online gradient method for feedforward neural networks with stochastic inputs

机译:具有随机输入的前馈神经网络在线梯度方法的收敛性

获取原文
获取原文并翻译 | 示例
   

获取外文期刊封面封底 >>

       

摘要

In this paper, we study the convergence of an online gradient method for feed-forward neural networks. The input training examples are permuted stochastically in each cycle of iteration. A monotonicity and a weak convergence of deterministic nature are proved.
机译:在本文中,我们研究了用于前馈神经网络的在线梯度方法的收敛性。输入的训练示例在每个迭代周期中随机排列。证明了确定性的单调性和弱收敛性。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号