首页> 外文期刊>Journal of industrial and management optimization >Guaranteed Descent Conjugate Gradient Methods With Modified Secant Condition
【24h】

Guaranteed Descent Conjugate Gradient Methods With Modified Secant Condition

机译:修正割线条件的有保证的下降共轭梯度法

获取原文
获取原文并翻译 | 示例
获取外文期刊封面目录资料

摘要

Conjugate gradient methods are typically used to solve large scale unconstrained optimization problems. Recently, Hager and Zhang (2006) proposed two guaranteed descent conjugate gradient methods. In this paper, following Hager and Zhang (2006), we will use the modified secant condition given by Zhang et al.(1999) to present two new descent conjugate gradient methods. An interesting feature of these new methods is that they take both the gradient and function value information. Under some suitable assumptions, global convergence properties for these methods are established. Numerical comparisons with the Hager-Zhang methods are given.
机译:共轭梯度法通常用于解决大规模无约束优化问题。最近,Hager和Zhang(2006)提出了两种保证下降的共轭梯度方法。在本文中,根据Hager和Zhang(2006),我们将使用Zhang等人(1999)给出的修正割线条件来提出两种新的下降共轭梯度法。这些新方法的一个有趣特征是它们同时获取了梯度和函数值信息。在一些适当的假设下,建立了这些方法的全局收敛性。给出了与Hager-Zhang方法的数值比较。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号