首页> 外国专利> Slim embedding layers for recurrent neural language models

Slim embedding layers for recurrent neural language models

机译:用于经常性神经语言模型的纤薄嵌入层

摘要

Described herein are systems and methods for compressing or otherwise reducing the memory requirements for storing and computing the model parameters in recurrent neural language models. Embodiments include space compression methodologies that share the structured parameters at the input embedding layer, the output embedding layers, or both of a recurrent neural language model to significantly reduce the size of model parameters, but still compactly represent the original input and output embedding layers. Embodiments of the methodology are easy to implement and tune. Experiments on several data sets show that embodiments achieved similar perplexity and BLEU score results while only using a fraction of the parameters.
机译:这里描述的是用于压缩或以其他方式降低用于存储和计算经常性神经语言模型中的模型参数的存储器要求的系统和方法。实施例包括空间压缩方法,其在输入嵌入层,输出嵌入层或经常性神经语言模型中共享结构化参数,以显着降低模型参数的大小,但仍然紧凑地表示原始输入和输出嵌入层。方法的实施例易于实施和调谐。在若干数据集上的实验表明,实施例实现了类似的困惑和BLEU得分结果,同时仅使用参数的一部分。

著录项

  • 公开/公告号US11030997B2

    专利类型

  • 公开/公告日2021-06-08

    原文格式PDF

  • 申请/专利权人 BAIDU USA LLC;

    申请/专利号US201816197945

  • 发明设计人 ZHONGLIANG LI;SHAOJUN WANG;

    申请日2018-11-21

  • 分类号G10L15/06;G06N3/08;G10L15/16;G06N3/04;G06F40/123;G06F17/16;

  • 国家 US

  • 入库时间 2022-08-24 19:05:16

相似文献

  • 专利
  • 外文文献
  • 中文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号