首页> 外文期刊>Computational optimization and applications >Global convergence of a memory gradient method for unconstrained optimization
【24h】

Global convergence of a memory gradient method for unconstrained optimization

机译:无约束优化的内存梯度方法的全局收敛

获取原文
获取原文并翻译 | 示例
获取外文期刊封面目录资料

摘要

Memory gradient methods are used for unconstrained optimization, especially large scale problems. The first idea of memory gradient methods was proposed by Miele and Cantrell (1969) and Cragg and Levy (1969). In this paper, we present a new memory gradient method which generates a descent search direction for the objective function at every iteration. We show that our method converges globally to the solution if the Wolfe conditions are satisfied within the framework of the line search strategy. Our numerical results show that the proposed method is efficient for given standard test problems if we choose a good parameter included in the method.
机译:内存梯度方法用于无约束优化,尤其是大规模问题。内存梯度方法的第一个想法是由Miele和Cantrell(1969)以及Cragg和Levy(1969)提出的。在本文中,我们提出了一种新的内存梯度方法,该方法在每次迭代时都会为目标函数生成下降的搜索方向。我们证明,如果在行搜索策略的框架内满足Wolfe条件,我们的方法将全局收敛于解。我们的数值结果表明,如果我们选择方法中包含的良好参数,则该方法对于给定的标准测试问题是有效的。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号