首页> 外文学位 >Attention to Deep Structure in Recurrent Neural Networks
【24h】

Attention to Deep Structure in Recurrent Neural Networks

机译:注意循环神经网络中的深层结构

获取原文
获取原文并翻译 | 示例

摘要

Deep recurrent networks can build complex representations of sequential data, enabling them to do things such as translate text from one language into another. These networks often utilize an attention mechanism that allows them to focus on important input representations. Network attention can be used to provide insight into network strategies for identifying structure in the input sequence. This study investigates attention in a deep recurrent network, trained to annotate text, to determine how the distribution of information in the text affects learning and network performance. Results suggest that reversing the input text makes it difficult for the network to discover higher-order linguistic structure. This study contributes to an understanding of how our brains might process sequential data.
机译:深度循环网络可以构建顺序数据的复杂表示形式,使它们能够执行诸如将文本从一种语言翻译成另一种语言的工作。这些网络通常利用注意力机制,使他们能够专注于重要的输入表示。网络注意力可用于提供网络策略的见解,以识别输入序列中的结构。这项研究调查了深度循环网络中的注意力,训练该网络以注释文本,以确定文本中信息的分布如何影响学习和网络性能。结果表明,反转输入文本会使网络难以发现高阶语言结构。这项研究有助于了解我们的大脑如何处理顺序数据。

著录项

  • 作者

    Sharpe, Spencer S.;

  • 作者单位

    University of Wyoming.;

  • 授予单位 University of Wyoming.;
  • 学科 Artificial intelligence.;Information science.;Computer science.
  • 学位 M.S.
  • 年度 2017
  • 页码 62 p.
  • 总页数 62
  • 原文格式 PDF
  • 正文语种 eng
  • 中图分类
  • 关键词

  • 入库时间 2022-08-17 11:54:25

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号