您现在的位置: 首页> 研究主题> 神经机器翻译

神经机器翻译

神经机器翻译的相关文献在2016年到2022年内共计358篇,主要集中在自动化技术、计算机技术、语言学、常用外国语 等领域,其中期刊论文120篇、会议论文7篇、专利文献364008篇;相关期刊55种,包括厦门大学学报(自然科学版)、江西师范大学学报(自然科学版)、信息工程大学学报等; 相关会议3种,包括第十六届全国计算语言学学术会议暨第五届基于自然标注大数据的自然语言处理国际学术研讨会、香山科学会议第S42次学术会议、第十七届全国计算语言学学术会议暨第六届基于自然标注大数据的自然语言处理国际学术研讨会(CCL 2018)等;神经机器翻译的相关文献由629位作者贡献,包括余正涛、熊德意、高盛祥等。

神经机器翻译—发文量

期刊论文>

论文:120 占比:0.03%

会议论文>

论文:7 占比:0.00%

专利文献>

论文:364008 占比:99.97%

总计:364135篇

神经机器翻译—发文趋势图

神经机器翻译

-研究学者

  • 余正涛
  • 熊德意
  • 高盛祥
  • 文永华
  • 朱靖波
  • 杜权
  • 肖桐
  • 苏依拉
  • 王振晗
  • 郭军军
  • 期刊论文
  • 会议论文
  • 专利文献

搜索

排序:

年份

    • 薛擎天; 李军辉; 贡正仙; 徐东钦
    • 摘要: 依赖于大规模的平行语料库,神经机器翻译在某些语言对上已经取得了巨大的成功。无监督神经机器翻译UNMT又在一定程度上解决了高质量平行语料库难以获取的问题。最近的研究表明,跨语言模型预训练能够显著提高UNMT的翻译性能,其使用大规模的单语语料库在跨语言场景中对深层次上下文信息进行建模,获得了显著的效果。进一步探究基于跨语言预训练的UNMT,提出了几种改进模型训练的方法,针对在预训练之后UNMT模型参数初始化质量不平衡的问题,提出二次预训练语言模型和利用预训练模型的自注意力机制层优化UNMT模型的上下文注意力机制层2种方法。同时,针对UNMT中反向翻译方法缺乏指导的问题,尝试将Teacher-Student框架融入到UNMT的任务中。实验结果表明,在不同语言对上与基准系统相比,本文的方法最高取得了0.8~2.08个百分点的双语互译评估(BLEU)值的提升。
    • 刘俊鹏; 黄锴宇; 李玖一; 宋鼎新; 黄德根
    • 摘要: 覆盖模型可以缓解神经机器翻译中的过度翻译和漏翻译问题.现有方法通常依靠覆盖向量或覆盖分数等单一方式存储覆盖信息,而未考虑不同覆盖信息之间的关联性,因此对信息的利用并不完善.针对该问题,基于翻译历史信息的一致性和模型之间的互补性,提出了多覆盖融合模型.首先定义词级覆盖分数概念;然后利用覆盖向量和覆盖分数存储的信息同时指导注意力机制,降低信息存储损失对注意力权重计算的影响.根据两种覆盖信息融合方式的不同,提出了两种多覆盖融合方法.利用序列到序列模型在中英翻译任务上进行了实验,结果表明,所提方法能够显著提升翻译性能,并改善源语言和目标语言的对齐质量.与只使用覆盖向量的模型相比,过度翻译和漏翻译问题的数量得到进一步减少.
    • 吴迪
    • 摘要: 为了解决非英语母语学习者在语音识别中出现的语法错误问题,提出了基于神经机器翻译的语法错误检测语音识别中的语言模型。将构建的语言模型与传统的语言模型进行了比较,分析了该语言模型算法在语法错误检测中的性能。结果显示,由于神经机器翻译具有特定的内部结构,可以结合上下文信息进行语音识别,神经机器翻译模型可以更好地进行语法错误检测。通过比较不同语言模型结果,该方法比基于规则的方法有显著优势,神经机器翻译语言模型的精度、召回率、F值分别为0.54、0.52、0.53,证明了该模型具有较好的性能。
    • 吴婧; 杨百龙; 田罗庚
    • 摘要: 针对互联网上日渐丰富的多语言文本和匮乏大规模标注平行语料库的问题,为了从多语言的信息源挖掘语言间的关联性与扩展知识图谱,提出了基于注意力迁移的跨语言关系提取方法。首先针对语言间的实际平行语料情况,分类进行跨语言平行语料映射,并针对缺乏种子词典的低资源语言对,提出神经网络翻译模型获取目标语言数据集并保存多语言间的对应注意力权重关系,然后利用BERT端对端的联合抽取模型抽取训练数据实体关系特征,反向迁移语言间注意力权重关系,最后利用反向迁移的注意力进行增强的关系抽取。实验表明,该模型的关系提取效果相比其他模型在准确率和回归上都有所提升,在缺乏双语词典情况下也表现出较好的性能。
    • 王倩; 李茂西; 吴水秀; 王明文
    • 摘要: 探索将XLM-R跨语种预训练语言模型应用在神经机器翻译的源语言端、目标语言端和两端,提高机器翻译的质量。提出3种网络模型,分别在Transformer神经网络模型的编码器、解码器以及两端同时引入预训练的XLM-R多语种词语表示。在WMT英语-德语、IWSLT英语-葡萄牙语以及英语-越南语等翻译中的实验结果表明,对双语平行语料资源丰富的翻译任务,引入XLM-R可以很好地对源语言句子进行编码,从而提高翻译质量;对双语平行语料资源匮乏的翻译任务,引入XLM-R不仅可以很好地对源语言句子进行编码,还可以对源语言端和目标语言端的知识同时进行补充,提高翻译质量。
    • 安波; 龙从军
    • 摘要: 医疗机器翻译对于跨境医疗、医疗文献翻译等应用具有重要价值。汉英神经机器翻译依靠深度学习强大的建模能力和大规模双语平行数据取得了长足的进步。神经机器翻译通常依赖于大规模的平行句对训练翻译模型。目前,汉英翻译数据主要以新闻、政策等领域数据为主,缺少医疗领域的数据,导致医疗领域的汉英机器翻译效果不佳。针对医疗垂直领域机器翻译训练数据不足的问题,该文提出利用复述生成技术对汉英医疗机器翻译数据进行增广,扩大汉英机器翻译的规模。通过多种主流的神经机器翻译模型的实验结果表明,通过复述生成对数据进行增广可以有效地提升机器翻译的性能,在RNNSearch,Transformer等多个主流模型上均取得了6个点以上的BLEU值提升,验证了复述增广方法对领域机器翻译的有效性。同时,基于MT5等大规模预训练语言模型可以进一步地提升机器翻译的性能。
    • 苗国义; 刘明童; 陈钰枫; 徐金安; 张玉洁; 冯文贺
    • 摘要: 针对当前神经机器翻译在捕捉复杂句内小句间的语义和结构关系方面存在不足,导致复杂句长文本翻译的篇章连贯性不佳的问题,提出一种融合小句对齐知识的汉英神经机器翻译方法。首先提出手工和自动相结合的标注方案,构建大规模小句对齐的汉英平行语料库,为模型训练提供丰富的小句级别的汉英双语对齐知识;然后设计一种基于小句对齐学习的神经机器翻译模型,通过融合小句对齐知识,增强模型学习复杂句内小句间语义结构关系的能力。在WMT17,WMT18和WMT19汉英翻译任务中的实验表明,所提出的方法可以有效地提升神经机器翻译的性能。进一步的评测分析显示,所提方法能有效地提高汉英神经机器翻译在复杂句翻译上的篇章连贯性。
    • 朱俊国; 杨福岸; 余正涛; 邹翔; 张泽锋
    • 摘要: 在神经机器翻译过程中,低频词是影响翻译模型性能的一个关键因素。由于低频词在数据集中出现次数较少,训练经常难以获得准确的低频词表示,该问题在低资源翻译中的影响更为突出。该文提出了一种低频词表示增强的低资源神经机器翻译方法。该方法的核心思想是利用单语数据上下文信息来学习低频词的概率分布,并根据该分布重新计算低频词的词嵌入,然后在所得词嵌入的基础上重新训练Transformer模型,从而有效缓解低频词表示不准确问题。该文分别在汉越和汉蒙两个语言对四个方向上分别进行实验,实验结果表明,该文提出的方法相对于基线模型均有显著的性能提升。
    • 刘欢; 刘俊鹏; 黄锴宇; 黄德根
    • 摘要: 基于Transformer的神经机器翻译在高资源语言对上取得了巨大的成功,但是在资源稀缺的情况下模型翻译效果较差.针对旅游口语领域的俄汉低资源机器翻译,本文通过扩充领域内数据和多种微调方法改善目标领域翻译质量.首先利用多种语料过滤方法得到通用领域俄汉语料,然后在不同参数配置的Transformer模型上进行预训练,探索多种领域适应性微调方法,得到最优模型,最后在译码阶段采用模型平均和后处理生成翻译结果.实验结果表明,该方法可以有效提升低资源场景下的俄汉机器翻译效果.
    • 王涛; 熊德意
    • 摘要: 将预先定义的双语对融入神经机器翻译(NMT)中一直是一项有较大应用场景,但具有挑战性的任务。受限于NMT的非离散特性以及逐词解码策略,想要在NMT中显式地融入外部双语对往往需要在解码期间修改集束搜索算法,或者对模型进行复杂修改。该文提出并探索了一种简单的将预先指定双语对融入NMT的方法,包括:(1)对训练数据进行适当的预处理,以添加有关预定义的双语信息;(2)使用部分共享的词向量以及额外向量增强信号,帮助模型区分预先指定的双语对和其他翻译文本。在多个语种上的实验和分析表明,该方法可以极大提高预定义短语被成功翻译的概率,达到接近99%(中英的基准是73.8%)的效果。
  • 查看更多

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号