首页> 外文期刊>Numerical algorithms >Convergence rates of accelerated proximal gradient algorithms under independent noise
【24h】

Convergence rates of accelerated proximal gradient algorithms under independent noise

机译:独立噪声下加速近端梯度算法的收敛速度

获取原文
获取原文并翻译 | 示例
           

摘要

We consider an accelerated proximal gradient algorithm for the composite optimization with independent errors (errors little related with historical information) for solving linear inverse problems. We present a new inexact version of FISTA algorithm considering deterministic and stochastic noises. We prove some convergence rates of the algorithm and we connect it with the current existing catalyst framework for many algorithms in machine learning. We show that a catalyst can be regarded as a special case of the FISTA algorithm where the smooth part of the function vanishes. Our framework gives a more generic formulation that provides convergence results for the deterministic and stochastic noise cases and also to the catalyst framework. Some of our results provide simpler alternative analysis of some existing results in literature, but they also extend the results to more generic situations.
机译:我们考虑了一种加速近端梯度算法,用于求解与独立误差的复合优化(与历史信息很少有关),以解决线性逆问题。 考虑确定性和随机噪声,我们提出了一种新的母版算法的不精确版本。 我们证明了算法的一些收敛速率,我们将其与当前现有的催化剂框架连接到机器学习中的许多算法。 我们表明,催化剂可以被视为常规算法的特殊情况,其中功能的平滑部分消失。 我们的框架提供了一种更通用的配方,可为确定性和随机噪声盒和催化剂框架提供收敛结果。 我们的一些结果提供了更简单的替代分析文献中的一些现有结果,但它们也将结果扩展到更通用的情况。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号