...
首页> 外文期刊>Applied mathematics and computation >A new class of supermemory gradient methods
【24h】

A new class of supermemory gradient methods

机译:一类新的超记忆梯度方法

获取原文
获取原文并翻译 | 示例
   

获取外文期刊封面封底 >>

       

摘要

In this paper we propose a new class of supermemory gradient methods for unconstrained optimization problems. Trust region approach is used in the new algorithms to guarantee the global convergence. In each iteration, the new algorithms generate a suitable trust region radius automatically and obtain the next iterate by solving a simple subproblem. These algorithms converge stably and averagely due to using more iterative information at each iteration, and can be reduced to quasi-Newton methods when the iterate is close to the optimal solution. Numerical results show that this new class of supermemory gradient methods is effective in practical computation. (c) 2006 Elsevier Inc. All rights reserved.
机译:在本文中,我们针对无约束优化问题提出了一类新的超记忆梯度方法。在新算法中使用信任区域方法来保证全局收敛。在每次迭代中,新算法都会自动生成合适的信任区域半径,并通过解决一个简单的子问题来获得下一个迭代。这些算法由于在每次迭代中使用更多的迭代信息而稳定且平均地收敛,并且当迭代接近最佳解时可以简化为准牛顿法。数值结果表明,这种新型的超记忆梯度方法在实际计算中是有效的。 (c)2006 Elsevier Inc.保留所有权利。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号