...
首页> 外文期刊>Journal of Computational and Applied Mathematics >Two descent hybrid conjugate gradient methods for optimization
【24h】

Two descent hybrid conjugate gradient methods for optimization

机译:两种下降混合共轭梯度优化方法

获取原文
获取原文并翻译 | 示例

摘要

In this paper, we propose two new hybrid nonlinear conjugate gradient methods, which produce sufficient descent search direction at every iteration. This property depends neither on the line search used nor on the convexity of the objective function. Under suitable conditions, we prove that the proposed methods converge globally for general nonconvex functions. The numerical results show that both hybrid methods are efficient for the given test problems from the CUTE library. (C) 2007 Elsevier B.V. All rights reserved.
机译:在本文中,我们提出了两种新的混合非线性共轭梯度方法,它们在每次迭代中都产生足够的下降搜索方向。此属性既不取决于所使用的线搜索,也不取决于目标函数的凸度。在适当的条件下,我们证明了所提出的方法对于一般的非凸函数全局收敛。数值结果表明,两种混合方法对于CUTE库中给定的测试问题都是有效的。 (C)2007 Elsevier B.V.保留所有权利。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号