首页> 外文期刊>Neural computation >Improving the Convergence of the Backpropagation Algorithm Using Learning Rate Adaptation Methods
【24h】

Improving the Convergence of the Backpropagation Algorithm Using Learning Rate Adaptation Methods

机译:使用学习速率自适应方法提高反向传播算法的收敛性

获取原文
获取原文并翻译 | 示例
       

摘要

This article focuses on gradient-based backpropagation algorithms that use either a common adaptive learning rate for all weights or an individual adaptive learning rate for each weight and apply the Goldstein/Armijo line search. The learning-rate adaptation is based on descent techniques and estimates of the local Lipschitz constant that are obtained without additional error function and gradient evaluations.
机译:本文重点介绍基于梯度的反向传播算法,该算法对所有权重使用共同的自适应学习率,或者对每个权重使用单独的自适应学习率,并应用Goldstein / Armijo线搜索。学习速率适应基于下降技术和对局部Lipschitz常数的估计,这些估计是在没有附加误差函数和梯度评估的情况下获得的。

著录项

  • 来源
    《Neural computation》 |1999年第7期|p.1769-1796|共28页
  • 作者

    G.D. Magoulas;

  • 作者单位
  • 收录信息 美国《科学引文索引》(SCI);美国《化学文摘》(CA);
  • 原文格式 PDF
  • 正文语种 eng
  • 中图分类 人工智能理论;
  • 关键词

  • 入库时间 2022-08-18 00:32:05

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号