首页> 外国专利> ATTENTION NEURAL NETWORKS WITH SPARSE ATTENTION MECHANISMS

ATTENTION NEURAL NETWORKS WITH SPARSE ATTENTION MECHANISMS

机译:注意神经网络具有稀疏关注机制

摘要

Methods, systems, and apparatus, including computer programs encoded on computer storage media, for processing network inputs using an attention neural network that has one or more sparse attention sub-layers. Each sparse attention sub-layer is configured to apply a sparse attention mechanism that attends differently for input positions that are in a first proper subset of the input positions in the input to the sub-layer than for positions that are not in the first proper subset.
机译:方法,系统和设备,包括在计算机存储介质上编码的计算机程序,用于使用具有一个或多个稀疏关注子层的关注神经网络来处理网络输入。 每个稀疏的注意子层被配置为应用稀疏注意力机制,用于输入不同的输入位置,该输入位置在输入到子层中的输入位置的第一适当子集中而不是对于不在第一适当子集中的位置 。

著录项

相似文献

  • 专利
  • 外文文献
  • 中文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号