【24h】

Sequential Conditional Generalized Iterative Scaling

机译:顺序条件广义迭代缩放

获取原文
获取原文并翻译 | 示例

摘要

We describe a speedup for training conditional maximum entropy models. The algorithm is a simple variation on Generalized Iterative Scaling, but converges roughly an order of magnitude faster, depending on the number of constraints, and the way speed is measured. Rather than attempting to train all model parameters simultaneously, the algorithm trains them sequentially. The algorithm is easy to implement, typically uses only slightly more memory, and will lead to improvements for most maximum entropy problems.
机译:我们描述了训练条件最大熵模型的加速。该算法是广义迭代缩放的一种简单变体,但是根据约束的数量和测量速度的方式,收敛速度大致快一个数量级。该算法不是尝试同时训练所有模型参数,而是顺序训练它们。该算法易于实现,通常仅使用稍多的内存,并且将导致针对大多数最大熵问题的改进。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号