首页> 外文期刊>Neural computation >A Generalized Divergence Measure for Nonnegative Matrix Factorization
【24h】

A Generalized Divergence Measure for Nonnegative Matrix Factorization

机译:非负矩阵分解的广义发散测度

获取原文
获取原文并翻译 | 示例

摘要

This letter presents a general parametric divergence measure. The metric includes as special cases quadratic error and Kullback-Leibler divergence. A parametric generalization of the two different multiplicative update rules for nonnegative matrix factorization by Lee and Seung (2001) is shown to lead to locally optimal solutions of the nonnegative matrix factorization problem with this new cost function. Numeric simulations demonstrate that the new update rule may improve the quadratic distance convergence speed. A proof of convergence is given that, as in Lee and Seung, uses an auxiliary function known from the expectation-maximization theoretical framework.
机译:这封信提出了一般的参数差异度量。度量标准包括二次误差和Kullback-Leibler散度。 Lee和Seung(2001)对非负矩阵分解的两个不同的乘性更新规则的参数化概括表明,使用该新的成本函数可以导致非负矩阵分解问题的局部最优解。数值模拟表明,新的更新规则可以提高二次距离收敛速度。给出了收敛性的证明,就像在Lee和Seung中一样,使用了期望最大化理论框架中已知的辅助函数。

著录项

  • 来源
    《Neural computation》 |2007年第3期|p.780-791|共12页
  • 作者

    Raul Kompass;

  • 作者单位

    FU Berlin, Institut fuer Mathematik und Informatik, 14152 Berlin, Germany;

  • 收录信息 美国《科学引文索引》(SCI);美国《化学文摘》(CA);
  • 原文格式 PDF
  • 正文语种 eng
  • 中图分类 人工智能理论;
  • 关键词

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号