【24h】

Neural Machine Translation with Monolingual Translation Memory

机译:用单晶翻译记忆来翻译神经机翻译

获取原文
获取外文期刊封面目录资料

摘要

Prior work has proved that Translation memory (TM) can boost the performance of Neural Machine Translation (NMT). In contrast to existing work that uses bilingual corpus as TM and employs source-side similarity search for memory retrieval, we propose a new framework that uses monolingual memory and performs learnable memory retrieval in a cross-lingual manner. Our framework has unique advantages. First, the cross-lingual memory retriever allows abundant monolingual data to be TM. Second, the memory retriever and NMT model can be jointly optimized for the ultimate translation goal. Experiments show that the proposed method obtains substantial improvements. Remarkably, it even outperforms strong TM-augmented NMT baselines using bilingual TM. Owning to the ability to leverage monolingual data, our model also demonstrates effectiveness in low-resource and domain adaptation scenarios.
机译:事先工作证明,翻译记忆库(TM)可以提高神经机翻译(NMT)的性能。 与使用双语语料库作为TM的现有工作相比,使用源侧相似性搜索内存检索,我们提出了一个新的框架,它使用单晶体存储器并以交叉方式执行可读的内存检索。 我们的框架具有独特的优势。 首先,交叉舌内存检索允许丰富的单声道数据成为TM。 其次,可以联合优化内存猎犬和NMT模型,以实现最终的转换目标。 实验表明,所提出的方法获得了大量的改进。 值得注意的是,它甚至可以使用双语TM来优于强大的TM增强的NMT基线。 拥有利用单晶体数据的能力,我们的模型也在展示低资源和域适应方案中的有效性。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号