首页> 外文会议>Statistical Learning and Data Sciences >Additive Regularization of Topic Models for Topic Selection and Sparse Factorization
【24h】

Additive Regularization of Topic Models for Topic Selection and Sparse Factorization

机译:用于主题选择和稀疏因子分解的主题模型的加性正则化

获取原文
获取原文并翻译 | 示例

摘要

Probabilistic topic modeling of text collections is a powerful tool for statistical text analysis. Determining the optimal number of topics remains a challenging problem in topic modeling. We propose a simple entropy regularization for topic selection in terms of Additive Regularization of Topic Models (ARTM), a multicriteria approach for combining regularizers. The entropy regularization gradually eliminates insignificant and linearly dependent topics. This process converges to the correct value on semi-real data. On real text collections it can be combined with sparsing, smoothing and decorrelation regularizers to produce a sequence of models with different numbers of well interpretable topics.
机译:文本集合的概率主题建模是用于统计文本分析的强大工具。在主题建模中,确定最佳主题数仍然是一个具有挑战性的问题。我们根据主题模型的加性正则化(ARTM)提出了一种用于主题选择的简单熵正则化,这是一种组合正则化器的多准则方法。熵正则化逐渐消除了无关紧要和线性相关的主题。此过程收敛到半实数据上的正确值。在真实文本集合中,可以将其与稀疏,平滑和去相关正则化程序结合使用,以生成具有不同数量且可很好解释的主题的一系列模型。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号