首页> 外文会议>International Symposium on Operations Research with Applications >On M-step Memory Gradient Method with Wolfe's Line Search
【24h】

On M-step Memory Gradient Method with Wolfe's Line Search

机译:在M-Step内存梯度法与Wolfe线路搜索

获取原文

摘要

The paper presents an m-step memory gradient method for unconstrained optimization problem, and proves its global convergence under Wolfe's line searches. The linear convergence rate is investigated when the objective function is uniformly convex. Numerical experiments show that the new algorithm is very effective in practice.
机译:本文介绍了一个用于无约束优化问题的M-Step内存梯度方法,并在Wolfe的线路搜索下证明其全球融合。当目标函数均匀凸起时,研究了线性收敛速率。数值实验表明,新算法在实践中非常有效。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号