首页> 外文期刊>Neural computation >Parameter Convergence and Learning Curves for Neural Networks
【24h】

Parameter Convergence and Learning Curves for Neural Networks

机译:神经网络的参数收敛和学习曲线

获取原文
获取原文并翻译 | 示例
       

摘要

We revisit the oft-studied asymptotic (in sample size) behavior of the parameter or weight estimate returned by any member of a large fam- ily of neural network training algorithms. By properly accounting for the characteristic property of neural networks that their empirical and generalization errors possess multiple minima, we rigorously establish conditions under which the parameter estimate converges strongly into the set of minima of the generalization error.
机译:我们将重新研究由大型神经网络训练算法的任何成员返回的参数或权重估计值的经常研究的渐进(样本量)行为。通过适当考虑神经网络的经验和泛化误差具有多个极小值的特征,我们严格建立了条件,在这些条件下,参数估计会强烈地收敛到泛化误差的极小集合中。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号