...
首页> 外文期刊>Journal of Computational Methods in Sciences and Engineering >Multiway dynamic mask attention networks for natural language inference
【24h】

Multiway dynamic mask attention networks for natural language inference

机译:多通动态掩模注意网络用于自然语言推断

获取原文
获取原文并翻译 | 示例

摘要

Attention mechanisms are widely used on NLP tasks and show strong performance in modeling local/global dependencies. Directional self-attention network shows the competitive performance on various datasets, but it not considers the reverse information of a sentence. In this paper, we propose the Multiway Dynamic Mask attention Network (MDMAN). The model has two modules: a dynamic mask selector and a multi-attention encoder. The dynamic mask selector chooses high-quality reverse information with reinforcement learning and feeds reverse information to multi-attention encoder, the multi-attention encoder uses four attention functions to match the word in the same sentence at different token level, then combine the information from all functions to obtain the final representation. Our experiments performed on two publicly available NLI datasets show that MDMAN achieves significant improvement over DSAN.
机译:注意机制广泛用于NLP任务,并在建模本地/全球依赖项方面表现出强烈性能。 定向自我关注网络显示各种数据集上的竞争性能,但它不会考虑句子的反向信息。 在本文中,我们提出了多道动态掩模注意网络(MDMAN)。 该模型具有两个模块:动态掩模选择器和多关注编码器。 动态掩模选择器选择具有钢筋学习的高质量反向信息,并将反向信息馈送到多关注编码器,多关注编码器使用四个注意功能来匹配不同令牌级别的同一个句子中的单词,然后将信息组合在一起 所有功能都可以获得最终的代表。 我们的实验在两个公共可用的NLI数据集上表明,MDMAN实现了对DSAN的显着改善。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号