...
首页> 外文期刊>Journal of machine learning research >Convergence Rates for the Stochastic Gradient Descent Method for Non-Convex Objective Functions
【24h】

Convergence Rates for the Stochastic Gradient Descent Method for Non-Convex Objective Functions

机译:用于非凸面目标函数的随机梯度下降方法的收敛速率

获取原文
           

摘要

We prove the convergence to minima and estimates on the rate of convergence for the stochastic gradient descent method in the case of not necessarily locally convex nor contracting objective functions. In particular, the analysis relies on a quantitative use of mini-batches to control the loss of iterates to non-attracted regions. The applicability of the results to simple objective functions arising in machine learning is shown.
机译:在不一定局部凸起的情况下,我们证明了对Linea的收敛性和对随机梯度下降方法的收敛速度的估计。 特别地,分析依赖于迷你批次的定量使用,以控制对非吸引区域的迭代丧失。 显示了结果对机器学习中出现的简单目标功能的适用性。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号