首页> 中国专利> 基于零代词补齐的汉越数据增强方法

基于零代词补齐的汉越数据增强方法

摘要

本发明涉及基于零代词补齐的汉越数据增强方法,属于自然语言处理技术领域。本发明包括步骤:构建带零代词标签的汉语、越南语单语篇章数据集;使用Transformer共享编码端融合正文和上下文,再将隐状态输入CRF模型中得到代词缺失位置标记;利用代词缺失位置收集词汇、句法、上下文特征集,再将零代词特征集作为外部知识辅助零代词预测分类任务。最后得到补齐代词的汉语、越南语单语数据。本发明所提汉越数据增强方法,通过补齐省略的代词,补齐句法成分,有效提升汉越平行数据集的质量。此外,借助增强的语料,汉越机器翻译性能得到了一定的改善。

著录项

  • 公开/公告号CN114676709A

    专利类型发明专利

  • 公开/公告日2022-06-28

    原文格式PDF

  • 申请/专利权人 昆明理工大学;

    申请/专利号CN202210374347.7

  • 发明设计人 余正涛;王麒鼎;

    申请日2022-04-11

  • 分类号G06F40/58;G06F40/284;G06F40/268;G06F40/253;G06N3/04;G06N3/08;

  • 代理机构昆明隆合知识产权代理事务所(普通合伙);

  • 代理人何娇

  • 地址 650500 云南省昆明市呈贡区景明南路727号

  • 入库时间 2023-06-19 15:47:50

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2022-06-28

    公开

    发明专利申请公布

说明书

技术领域

本发明涉及基于零代词补齐的汉越数据增强方法,属于自然语言处理技术领域。

背景技术

神经机器翻译是典型的数据驱动模型,平行语料库的规模和质量对机器翻译的性能会产生重要的影响。然而现阶段汉语-越南语公开数据集极少,往往只能通过网络爬取的方式获取,并且还需要专业人士的专业知识对其进行筛选、标注等预处理工作。其规模提升所需要的成本很高。因此研究针对汉越平行语料库的汉越数据增强方法具有很高的价值。

汉语和越南语都属于代词脱落语言,这种语言的特性就是当代词的身份可以从上下文中推断出来时,它会省略这些代词,以使句子紧凑而易于理解。我们把这些省略的代词称为零代词。这些省略对人类而言不是问题,因为我们可以很容易的从全局的角度来推测省略的主语。但是对于机器翻译而言,这种代词的缺失,会使得句法成分不完整,给NMT机器翻译带来很大的问题,甚至会造成一些错误的学习训练。

针对训练数据含有非正式用语的汉越平行语料,常出现省略代词的现象。因此可以通过对低质量语句的缺失代词进行补齐操作,得到一些高质量的汉越双语平行语料。前人在零代词补齐问题上已经做了一些相关的研究。或是通过手动标注,将缺失代词补齐,又或是尝试使用规则的方法恢复省略的代词。还有利用平行语料库的对齐信息自动标注出省略代词。虽然Transformer可以利用多头注意力机制来捕获更多的语义信息,然后对于省略了的代词,也往往只能翻译出简单的部分内容。对于复杂句子中的省略代词翻译往往不如人意。

发明内容

本发明提供了基于零代词补齐的汉越数据增强方法,将零代词的补齐工作主要分为零代词位置预测和零代词预测。第一步先确实零代词位置信息,第二步再预测缺失的是哪个代词。零代词位置预测任务使用Transformer+CRF的模型结构来标注出缺失位置。零代词预测任务使用Transformer的编码端来表征输入,同时融合语法、句法和上下文信息来提升代词信息表征,增强零代词预测准确率。

本发明的技术方案是:基于零代词补齐的汉越数据增强方法,所述方法的具体步骤如下:

Step1、数据收集处理:通过网络爬虫技术爬取收集并构建英汉、英越双语平行数据,利用矩阵对齐方法找出汉语、越南语中缺失的代词,并利用英语平行语料中的对应代词,将汉语、越南语中缺失的代词标注补齐,得到零代词信息标注的汉语、越南语单语数据集;缺失的代词即为零代词;

Step2、进行零代词补齐,零代词补齐包括零代词位置预测、零代词特征集生成和零代词预测,把预测出的零代词放入源句子进行零代词补齐从而对汉越数据进行增强:

零代词位置预测通过词嵌入和位置嵌入分别对正文和上下文进行特征编码,利用Transformer编码器提取特征,其中正文和上下文共享编码端以减少参数;利用上下文注意力机制对正文表征约束,将Transformer编码器得到隐状态输入CRF模型中进行标注,得到零代词位置信息;

零代词特征集生成是利用零代词位置信息生成与零代词相关的词汇、句法、上下文特征集合;

零代词预测是重新利用Transformer编码端对正文进行编码,同时与零代词特征集做注意力计算,以提升零代词信息表征,最后将注意力计算后的输入表征通过一个多分类器模块,经过线性变换和归一个处理得到分类结果,即零代词预测结果。

作为本发明的进一步方案,所述Step1的具体步骤为:

Step1.1、通过网络爬虫技术爬取英汉、英越双语字幕文件,解析字幕文件,对语料初步预处理,构建英汉、英越双语平行数据;

Step1.2、利用英语不省略代词的特性,采用有监督的代词补齐方法;通过词矩阵对齐找出汉语、越南语中缺失的代词,并利用英语平行语料中的对应代词,将汉语、越南语中缺失的代词补齐;

Step1.3、采用人工标注的方法,对补齐了代词的汉语、越南语打上标签;单词的标签一共只有两种L={D,N},分别表示缺失代词和没有缺失代词,将代词缺失的后一个单词位置标注为D,其他单词都标注为N。

作为本发明的进一步方案,所述Step2中,零代词位置预测包括:

Step2.1、零代词位置预测的任务是找到句子中是否缺失代词,并将代词缺失位置标注出来;

设X=x

E=E(x

E=Q=K=V (2)

其中,E为正文中当前句的词嵌入表征,d表示正文中当前句的词向量维度,Q,K,V∈R

多头注意力通过不同的线性投影将Q、K、V进行h次线性投影,然后h次投影并行执行缩放点积注意,最后将这些注意结果串联起来再次获得新的表示;

head

H=MultiHead(Q,K,V)=Concat(head

其中,H∈R

利用上下文编码模块进行上下文特征编码:

与标准的Transformer编码器不同的是,上下文编码模块多了一个多头上下文注意力子层来融合上下文信息;为了减少计算成本,采用共享编码器的结构;编码器先编码当前句上下文,上下文注意力子层不参与此过程,第二步编码当前句时,当前句自注意力子层和上下文注意力子层同时参与计算利用上下文信息约束正文中当前句的表征,上下文注意力子层的输入K

H

其中H

作为本发明的进一步方案,所述Step2中,零代词特征集生成包括:

Step2.2、检测到零代词的位置信息后,根据这个位置信息,挖掘对零代词预测有用的特征:根据零代词的位置信息,从词汇、句法、上下文方面来提取零代词特征集,零代词特征集包括词汇特征:标签词p、p前后各一个词、p前后各一个代词;句法特征:当前句s的主语、谓语、宾语;上下文特征:上一句s-1的主语和宾语、下一句s+1的主语和宾语。

作为本发明的进一步方案,所述Step2中,零代词预测包括:

Step2.3、进行零代词预测,确定在代词缺失位置具体该补齐哪个代词,把预测出的零代词放入源句子进行零代词补齐从而对汉越数据进行增强:

训练一个多分类器,其中每一个类代表着一个可能缺失的代词;使用transformer编码端来对当前句进行表征,与传统transformer编码端不一样的是,增加了一个代词注意力模块,通过挖掘对零代词分类有用的特征,来使输入隐状态更好的表示出零代词信息;零代词注意力模块的K

H

其中H

在多分类模块,将编码模块的输入隐状态通过一个线性变化,再进行归一化计算,得到最后的分类结果,即零代词预测结果,把预测出的零代词放入源句子进行零代词补齐从而对汉越数据进行增强;

y=soft max(σ(HW

其中H表示编码端输入隐状态,W

最终将预测的结果和真实的标签计算损失;损失函数为:

其中N表示训练样例数,C表示类别标签数,

本发明的有益效果是:

1、针对于汉语、越南语在非正式场合下使用会出现代词省略的语法特性,提出一种基于零代词补齐的汉越数据增强方法。通过补齐缺失的代词,提升了汉越双语平行数据库的数量和质量。

2、针对零代词位置预测这个序列标注任务,提出了一种全新的Transformer+CRF的模型方法,同时利用共享编码器的方法进一步融入更多上下文信息。实验结果表明,零代词位置预测准确率有了一定的提升。

3、在零代词预测任务中,本发明根据零代词特性,分析并提出了与零代词息息相关的包含词信息、语法信息和上下文信息的特征集合。并通过注意力机制融入零代词预测模型中。提升了零代词预测准确率。

附图说明

图1是本发明提出的基于零代词补齐的汉越数据增强方法流程示意图;

图2是代词位置预测模型的具体结构示意图;

图3是代词预测模型的具体结构示意图。

具体实施方式

实施例1:如图1-图3所示,基于零代词补齐的汉越数据增强方法,所述方法的具体步骤如下:

Step1、数据收集处理:通过网络爬虫技术爬取收集并构建英汉、英越双语平行数据,利用矩阵对齐方法找出汉语、越南语中缺失的代词,并利用英语平行语料中的对应代词,将汉语、越南语中缺失的代词标注补齐,得到零代词信息标注的汉语、越南语单语数据集;缺失的代词即为零代词;

所述Step1的具体步骤为:

Step1.1、通过网络爬虫技术爬取英汉、英越双语字幕文件,解析字幕文件,对语料初步预处理,构建英汉、英越双语平行数据;

Step1.2、利用英语不省略代词的特性,采用有监督的代词补齐方法;通过词矩阵对齐找出汉语、越南语中缺失的代词,并利用英语平行语料中的对应代词,将汉语、越南语中缺失的代词补齐;

Step1.3、采用人工标注的方法,对补齐了代词的汉语、越南语打上标签;单词的标签一共只有两种L={D,N},分别表示缺失代词和没有缺失代词,将代词缺失的后一个单词位置标注为D,其他单词都标注为N。

表1零代词标签结构

实验语料规模如表2所示:

表2实验数据规模统计

Step2、进行零代词补齐,零代词补齐包括零代词位置预测、零代词特征集生成和零代词预测,把预测出的零代词放入源句子进行零代词补齐从而对汉越数据进行增强:

零代词位置预测通过词嵌入和位置嵌入分别对正文和上下文进行特征编码,利用Transformer编码器提取特征,其中正文和上下文共享编码端以减少参数;利用上下文注意力机制对正文表征约束,将Transformer编码器得到隐状态输入CRF模型中进行标注,得到零代词位置信息;

零代词特征集生成是利用零代词位置信息生成与零代词相关的词汇、句法、上下文特征集合;

零代词预测是重新利用Transformer编码端对正文进行编码,同时与零代词特征集做注意力计算,以提升零代词信息表征,最后将注意力计算后的输入表征通过一个多分类器模块,经过线性变换和归一个处理得到分类结果,即零代词预测结果。

作为本发明的进一步方案,所述Step2的具体步骤如下:

Step2.1、零代词位置预测的任务是找到句子中是否缺失代词,并将代词缺失位置标注出来;

设X=x

E=E(x

E=Q=K=V (2)

其中,E为正文中当前句的词嵌入表征,d表示正文中当前句的词向量维度,Q,K,V∈R

多头注意力通过不同的线性投影将Q、K、V进行h次线性投影,然后h次投影并行执行缩放点积注意,最后将这些注意结果串联起来再次获得新的表示;

head

H=MultiHead(Q,K,V)=Concat(head

其中,H∈R

利用上下文编码模块进行上下文特征编码:

与标准的Transformer编码器不同的是,上下文编码模块多了一个多头上下文注意力子层来融合上下文信息;为了减少计算成本,采用共享编码器的结构;编码器先编码当前句上下文,上下文注意力子层不参与此过程,第二步编码当前句时,当前句自注意力子层和上下文注意力子层同时参与计算利用上下文信息约束正文中当前句的表征,上下文注意力子层的输入K

H

其中H

Step2.2、检测到零代词的位置信息后,根据这个位置信息,挖掘对零代词预测有用的特征:代词在句子中往往会充当重要的句法成分,用作主语、宾语等,而且代词的使用会与句子的其他句法成分息息相关,根据零代词的位置信息,从词汇、句法、上下文方面来提取零代词特征集,零代词特征集包括词汇特征:标签词p、p前后各一个词、p前后各一个代词;句法特征:当前句s的主语、谓语、宾语;上下文特征:上一句s-1的主语和宾语、下一句s+1的主语和宾语;

Step2.3、进行零代词预测,确定在代词缺失位置具体该补齐哪个代词,把预测出的零代词放入源句子进行零代词补齐从而对汉越数据进行增强:

训练一个多分类器,其中每一个类代表着一个可能缺失的代词;使用transformer编码端来对当前句进行表征,与传统transformer编码端不一样的是,增加了一个代词注意力模块,通过挖掘对零代词分类有用的特征,来使输入隐状态更好的表示出零代词信息;零代词注意力模块的K

H

其中H

在多分类模块,将编码模块的输入隐状态通过一个线性变化,再进行归一化计算,得到最后的分类结果,即零代词预测结果,把预测出的零代词放入源句子进行零代词补齐从而对汉越数据进行增强;

y=soft max(σ(HW

其中H表示编码端输入隐状态,W

最终将预测的结果和真实的标签计算损失;损失函数为:

其中N表示训练样例数,C表示类别标签数,

Step2.4、最后选择Adam优化器,它收敛速度较快且收敛过程较稳定,能基于训练数据迭代地更新神经网络权重。学习率(步长)设置为5e-5,决定了在梯度下降迭代的过程中,每一步沿梯度负方向前进的长度。步长太小,收敛慢,步长太大,会远离最优解。所以从小到大,分别测试,选出一个最优解5e-5。

为了说明本发明的效果,设置了3组对比实验。第一组实验验证代词位置预测模型的有效性,第二组实验验证代词预测模型的有效性,第三组实验验证本发明处理的语料对后期机器翻译任务性能的影响。

(1)零代词位置预测对应的零代词位置预测模型的有效性验证

本发明针对表2中的训练数据和测试数据,本发明零代词位置预测模型CMT-G&A-1和已有其它模型性能进行测试,测试结果如表3所示:

表3零代词位置预测实验对比

从表3上可以看出,比较四组常用的序列标注模型实验,在汉语以及越南语的实验中,Transformer+CRF模型分别取得了90.78%和89.15%的F1值。这说明在序列标注任务上,Transforme+CRF模型的效果最好。Transformer模型的编码端利用注意力机制可以更好的表征输入序列。本发明模型CMT-G&A-1相对于Transformer+CRF模型,在汉语和越南语任务上分别取得了1.63%和1.65%的提升。这表明融合上下文信息,对标注零代词缺失位置的准确率有一定的提升。表明本发明的有效性。

(2)零代词补齐对应的零代词补齐模型有效性验证

针对表1中的训练数据和测试数据,本发明零代词补齐模型CMT-G&A结果如表4所示,与前人模型性能对比实验如表5所示:

表4零代词补齐质量评估

表4显示出,代词位置预测的F1分数在汉语数据集和越南语数据集上分别达到了92.42%和88.21%。然而,在代词预测任务上,F1分数在汉语数据集和越南语数据集上分别只取得69.08%和63.81%。这表明准确预测零代词是一项相当困难的任务。

表5汉语零代词补齐与前人实验对比

如表5所示,与前人工作相比,CMT-G&A模型在汉语的代词位置预测任务上获得了4%的提升,在代词预测任务上,CMT-G&A模型针对汉语代词预测获得了3%的提升。这说明使用最新的Transformer编码端可以更好的表征输入语句。充分证明了本发明方法对应模型的有效性。

(3)数据增强语料机器翻译性能有效性验证

即使零代词预测不是非常准确,本发明仍然假设零代词生成模型足够可靠,可以用于端到端机器翻译。为了验证零代词补齐模型与下游任务的适配能力,本发明在30万句对的汉越对话数据集上进行实验。首先将利用上文的零代词补齐模型,将汉越双语的零代词进行补齐,然后分别搭配传统的RNN,LSTM,CNN和Transformer模型用于机器翻译任务。各模型的性能实验结果对比如表6所示。

表6汉越、越汉翻译实验结果对比

从表6可以看出,DP模型在于各序列模型组合搭配后,各种方法的性能都有了一定的提升。这说明,补全缺失代词,可以有效提升神经机器翻译性能。比较各种方法的提升,可以发现DP+Transformer模型相对而言提升更大,分别在汉越翻译任务和越汉翻译任务上达到了0.51和0.37的BLEU值。这说明,Transformer模型在机器翻译任务上的性能最好。

通过以上实验数据证明了本发明基于零代词补齐的汉越数据增强方法的有效性。本发明包括零代词位置预测和零代词预测两个部分。零代词预测模型利用transformer+CRF模型进行序列标注的工作。同时,利用上下文注意力机制来融合上下文信息。零代词预测模型使用transformer编码端,并融合零代词特征集。再进行多分类任务。本发明提出的零代词补齐模型效果优于已有模型。补全零代词后的汉越平行语料在下游机器翻译模型中取得了更好的效果。这说明,针对于非正式文体的汉越平行语料,补全零代词信息,可以恢复语料中缺失的句法成分,提高汉越平行数据的质量,用于后续改善低资源下汉越神经机器翻译的性能。

上面结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号