首页> 外文期刊>JMLR: Workshop and Conference Proceedings >Stochastic Gradient MCMC Methods for Hidden Markov Models
【24h】

Stochastic Gradient MCMC Methods for Hidden Markov Models

机译:隐马尔可夫模型的随机梯度MCMC方法

获取原文
获取外文期刊封面目录资料

摘要

Stochastic gradient MCMC (SG-MCMC) algorithms have proven useful in scaling Bayesian inference to large datasets under an assumption of i.i.d data. We instead develop an SG-MCMC algorithm to learn the parameters of hidden Markov models (HMMs) for time-dependent data. There are two challenges to applying SG-MCMC in this setting: The latent discrete states, and needing to break dependencies when considering minibatches. We consider a marginal likelihood representation of the HMM and propose an algorithm that harnesses the inherent memory decay of the process. We demonstrate the effectiveness of our algorithm on synthetic experiments and an ion channel recording data, with runtimes significantly outperforming batch MCMC.
机译:事实证明,随机梯度MCMC(SG-MCMC)算法在将i.i.d数据假设下将贝叶斯推理扩展到大型数据集时很有用。相反,我们开发了SG-MCMC算法来学习与时间相关的数据的隐马尔可夫模型(HMM)的参数。在这种情况下应用SG-MCMC面临两个挑战:潜在的离散状态,以及在考虑迷你批处理时需要打破依赖关系。我们考虑了HMM的边际似然表示,并提出了一种利用过程固有的内存衰减的算法。我们证明了我们的算法在合成实验和离子通道记录数据上的有效性,运行时间明显优于批处理MCMC。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号