首页> 外文会议>Fourth International Joint Conference on Computational Sciences and Optimization >Two Classes of Conjugate Gradient Methods for Large-Scale Unconstrained Optimization
【24h】

Two Classes of Conjugate Gradient Methods for Large-Scale Unconstrained Optimization

机译:大规模无约束优化的两类共轭梯度方法

获取原文

摘要

Two classes of new nonlinear conjugate gradient methods are proposed in order to avoid the drawbacks of FR and CD. By induction and contradiction, we prove the sufficient descent properties without any line search and the global convergence with the Wolfe line search. The numerical results for 10 classical unconstrained optimization problems respectively indicate that the proposed methods outperform other methods in terms of the iteration, function and gradient calls, etc. The new methods are effective.
机译:为了避免FR和CD的缺点,提出了两类新的非线性共轭梯度方法。通过归纳和矛盾,我们证明了没有任何线搜索和沃尔夫线搜索的全局收敛性的足够的下降特性。 10个经典无约束优化问题的数值结果分别表明,所提出的方法在迭代,函数和梯度调用等方面均优于其他方法。这些新方法是有效的。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号