【24h】

Language Production Dynamics with Recurrent Neural Networks

机译:递归神经网络的语言产生动力学

获取原文
获取原文并翻译 | 示例

摘要

We present an analysis of the internal mechanism of the recurrent neural model of sentence production presented by Calvillo et al. (2016). The results show clear patterns of computation related to each layer in the network allowing to infer an algorithmic account, where the semantics activates the semantically related words, then each word generated at each time step activates syntactic and semantic constraints on possible continuations, while the recurrence preserves information through time. We propose that such insights could generalize to other models with similar architecture, including some used in computational linguistics for language modeling, machine translation and image caption generation.
机译:我们对Calvillo等人提出的句子产生循环神经模型的内部机制进行分析。 (2016)。结果表明,与网络中各层相关的计算模式清晰明了,从而可以推断出一个算法帐户,其中语义激活了语义相关的单词,然后在每个时间步生成的每个单词都激活了可能继续的句法和语义约束,而递归通过时间保留信息。我们建议,这些见解可以推广到具有类似架构的其他模型,包括一些用于语言建模,机器翻译和图像标题生成的计算语言学中的模型。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号