首页> 美国卫生研究院文献>other >Variance Reduction in Stochastic Gradient Langevin Dynamics
【2h】

Variance Reduction in Stochastic Gradient Langevin Dynamics

机译:随机梯度Langevin动力学的方差减小

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Stochastic gradient-based Monte Carlo methods such as stochastic gradient Langevin dynamics are useful tools for posterior inference on large scale datasets in many machine learning applications. These methods scale to large datasets by using noisy gradients calculated using a mini-batch or subset of the dataset. However, the high variance inherent in these noisy gradients degrades performance and leads to slower mixing. In this paper, we present techniques for reducing variance in stochastic gradient Langevin dynamics, yielding novel stochastic Monte Carlo methods that improve performance by reducing the variance in the stochastic gradient. We show that our proposed method has better theoretical guarantees on convergence rate than stochastic Langevin dynamics. This is complemented by impressive empirical results obtained on a variety of real world datasets, and on four different machine learning tasks (regression, classification, independent component analysis and mixture modeling). These theoretical and empirical contributions combine to make a compelling case for using variance reduction in stochastic Monte Carlo methods.
机译:基于随机梯度的蒙特卡洛方法(例如随机梯度Langevin动力学)是在许多机器学习应用中对大型数据集进行后验推断的有用工具。这些方法通过使用使用小批量或数据集子集计算出的嘈杂梯度来扩展到大型数据集。但是,这些噪声梯度中固有的高方差会降低性能,并导致混合变慢。在本文中,我们提出了减少随机梯度Langevin动力学方差的技术,产生了新颖的随机蒙特卡洛方法,该方法通过减小随机梯度的方差来提高性能。我们表明,与随机兰格文动力学相比,我们提出的方法对收敛速度具有更好的理论保证。在各种现实世界的数据集上,以及在四个不同的机器学习任务(回归,分类,独立成分分析和混合物建模)上获得的令人印象深刻的经验结果,可以补充上述内容。这些理论和经验的贡献相结合,为在随机蒙特卡洛方法中使用方差减少提供了令人信服的理由。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号