【24h】

Slim Embedding Layers for Recurrent Neural Language Models

机译:用于复发性神经语言模型的纤薄嵌入层

获取原文

摘要

Recurrent neural language models are the state-of-the-art models for language modeling. When the vocabulary size is large, the space taken to store the model parameters becomes the bottleneck for the use of recurrent neural language models. In this paper, we introduce a simple space compression method that randomly shares the structured parameters at both the input and output embedding layers of the recurrent neural language models to significantly reduce the size of model parameters, but still compactly represent the original input and output embedding layers. The method is easy to implement and tune. Experiments on several data sets show that the new method can get similar perplexity and BLEU score results while only using a very tiny fraction of parameters.
机译:经常性的神经语言模型是语言建模的最先进模型。 当词汇大小很大时,存储模型参数所采取的空间成为使用经常性神经语言模型的瓶颈。 在本文中,我们介绍了一个简单的空间压缩方法,随机分享了经常性神经语言模型的输入和输出嵌入层的结构化参数,以显着降低模型参数的大小,但仍然是最初的输入和输出嵌入 层。 该方法易于实现和调整。 几个数据集的实验表明,新方法可以获得类似的困惑和BLEU得分结果,同时仅使用非常小的参数分数。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号