首页> 美国卫生研究院文献>Entropy >Cross Entropy of Neural Language Models at Infinity—A New Bound of the Entropy Rate
【2h】

Cross Entropy of Neural Language Models at Infinity—A New Bound of the Entropy Rate

机译:无限内的神经语言模型的交叉熵 - 熵率的新界限

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Neural language models have drawn a lot of attention for their strong ability to predict natural language text. In this paper, we estimate the entropy rate of natural language with state-of-the-art neural language models. To obtain the estimate, we consider the cross entropy, a measure of the prediction accuracy of neural language models, under the theoretically ideal conditions that they are trained with an infinitely large dataset and receive an infinitely long context for prediction. We empirically verify that the effects of the two parameters, the training data size and context length, on the cross entropy consistently obey a power-law decay with a positive constant for two different state-of-the-art neural language models with different language datasets. Based on the verification, we obtained 1.12 bits per character for English by extrapolating the two parameters to infinity. This result suggests that the upper bound of the entropy rate of natural language is potentially smaller than the previously reported values.
机译:神经语言模型引起了很多关注他们的强烈预测自然语言文本。在本文中,我们估计了具有最先进的神经语言模型的自然语言的熵率。要获取估计,我们认为交叉熵,神经语言模型的预测准确度的衡量,理论上理想的条件下,他们用一个无限大的数据集训练和接收预测的无限长的环境下。我们经验验证了两个参数,训练数据大小和上下文长度的效果,在交叉熵上始终如一地遵守具有不同语言的两种不同的最先进的神经语言模型的正常常数数据集。根据验证,通过将两个参数推断到无穷大,我们为英语获得了1.12位。该结果表明,自然语言熵率的上限可能小于先前报告的值。

著录项

  • 期刊名称 Entropy
  • 作者单位
  • 年(卷),期 2018(20),11
  • 年度 2018
  • 页码 839
  • 总页数 15
  • 原文格式 PDF
  • 正文语种
  • 中图分类
  • 关键词

    机译:熵率;自然语言;语言模型;神经语言模型;
  • 入库时间 2022-08-21 12:20:30

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号