首页> 外国专利> COMPRESSED RECURRENTS NEURONAL NETWORK MODELS

COMPRESSED RECURRENTS NEURONAL NETWORK MODELS

机译:压缩神经元神经网络模型

摘要

A method, systems, and apparatus containing computer programs encoded on computer storage media for implementing long-term memory layers having compressed gating functions. One of the systems includes a first LSTM layer having gates configured to generate, for each of a plurality of time steps, a respective inter-gate output vector by multiplying a gate input vector and a gate parameter matrix. The gate parameter matrix for at least one of the gates is a structured matrix or is defined by a compressed parameter matrix and a projection matrix. By including the compressed LSTM layer in the recurrent neural network, the recurrent neural network is configured to be able to process data more efficiently and use less data memory. A recurrent neural network with a compressed LSTM layer can be effectively trained to achieve word error rates that can be achieved with non-subsized, e.g. B. uncompressed, recurrent neural networks are comparable.
机译:一种包含在计算机存储介质上编码的计算机程序的方法,系统和装置,用于实现具有压缩门控功能的长期存储层。该系统中的一个包括具有门的第一LSTM层,该第一LSTM层被配置为通过将门输入向量和门参数矩阵相乘来针对多个时间步长中的每个时间步生成各自的门间输出向量。用于至少一个门的门参数矩阵是结构化矩阵或由压缩参数矩阵和投影矩阵定义。通过将压缩的LSTM层包括在递归神经网络中,递归神经网络被配置为能够更有效地处理数据并使用较少的数据存储器。可以有效地训练具有压缩LSTM层的递归神经网络,以实现可以用非小尺寸(例如, B.未压缩的循环神经网络具有可比性。

著录项

  • 公开/公告号DE102016125838A1

    专利类型

  • 公开/公告日2017-09-07

    原文格式PDF

  • 申请/专利权人 GOOGLE INC.;

    申请/专利号DE201610125838

  • 发明设计人 TARA N. SAINATH;VIKAS SINDHWANI;

    申请日2016-12-29

  • 分类号G06N3/02;

  • 国家 DE

  • 入库时间 2022-08-21 13:22:14

相似文献

  • 专利
  • 外文文献
  • 中文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号