首页> 外文期刊>Neural computation >Structure Learning in Conditional probability Models via an Entropic Prior and Parameter Extinction
【24h】

Structure Learning in Conditional probability Models via an Entropic Prior and Parameter Extinction

机译:通过熵先验和参数消灭的条件概率模型中的结构学习

获取原文
获取原文并翻译 | 示例
       

摘要

We introduce an entropic prior for multinomial parameter estimation problems and solve for its maximum a posteriori (MAP) estimator. The prior is a bias for maximally structured and minimally ambiguous mod- els. In conditional probability models with hidden state, iterative MAP estimation drives weakly supported parameters toward extinction, effec- tively turning them off. Thus, structure discovery is folded into parame- ter estimation.
机译:我们针对多项式参数估计问题引入熵先验,并求解其最大后验(MAP)估计器。先验是对最大结构和最小歧义模型的偏见。在具有隐藏状态的条件概率模型中,迭代MAP估计会将弱支持的参数推向灭绝,从而有效地将其关闭。因此,将结构发现折叠为参数估计。

著录项

  • 来源
    《Neural computation》 |1999年第5期|p.1155-1182|共28页
  • 作者

    Matthew Brand;

  • 作者单位
  • 收录信息 美国《科学引文索引》(SCI);美国《化学文摘》(CA);
  • 原文格式 PDF
  • 正文语种 eng
  • 中图分类 人工智能理论;
  • 关键词

  • 入库时间 2022-08-18 00:32:04

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号