首页> 外文期刊>Applied mathematics and computation >Strong global convergence of an adaptive nonmonotone memory gradient method
【24h】

Strong global convergence of an adaptive nonmonotone memory gradient method

机译:自适应非单调记忆梯度方法的强全局收敛性

获取原文
获取原文并翻译 | 示例
获取外文期刊封面目录资料

摘要

In this paper, we develop an adaptive nonmonotone memory gradient method for unconstrained optimization. The novelty of this method is that the stepsize can be adjusted according to the characteristics of the objective function. We show the strong global convergence of the proposed method without requiring Lipschitz continuous of the gradient. Our numerical experiments indicate the method is very encouraging. (c) 2006 Elsevier Inc. All rights reserved.
机译:在本文中,我们开发了一种用于非约束优化的自适应非单调记忆梯度方法。该方法的新颖之处在于,可以根据目标函数的特征来调整步长。我们展示了所提出方法的强全局收敛性,而无需Lipschitz连续的梯度。我们的数值实验表明该方法非常令人鼓舞。 (c)2006 Elsevier Inc.保留所有权利。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号