首页> 中国专利> 一种可控情感对话生成的方法

一种可控情感对话生成的方法

摘要

本发明公开了一种可控情感对话生成的方法,所述方法基于增写方式的可控情感对话生成方法;基于两阶段模型,使用多种方法选择器的方式生成可控情感的对话;采用本发明是围绕对话中原有情感回复的内容展开,以期待情感为指导,增写句子使其回复的情感最终偏向于所述期待情感;本发明采用基于两阶段模型使得生成的最终回复既内容相关又饱含情感,相较于现有技术,有效地提升了情感对话的效果,缓解了大规模情感对话语料缺乏的困境。

著录项

  • 公开/公告号CN113868386A

    专利类型发明专利

  • 公开/公告日2021-12-31

    原文格式PDF

  • 申请/专利权人 天津大学;

    申请/专利号CN202111101185.1

  • 发明设计人 钱宇珊;王博;马尚朝;吴斌;张烁;

    申请日2021-09-18

  • 分类号G06F16/332(20190101);

  • 代理机构12201 天津市北洋有限责任专利代理事务所;

  • 代理人韩帅

  • 地址 300072 天津市南开区卫津路92号

  • 入库时间 2023-06-19 13:29:16

说明书

技术领域

本发明应用于自然语言处理的开放域对话系统领域,尤其涉及一种可控情感对话生成的方法。

背景技术

当前,对话系统在各个领域越来越引起人们的重视,深度学习技术的不断进步极大地推动了对话系统的发展。智能对话系统的应用领域广泛,其背后的商业价值巨大,可以应用在AI社交、推销商品和服务、企业日常经营、心理健康服务等方面。

在开放域对话场景中,融入一些特定因素(如个性、情感、知识等),可以有效提升对话质量。情感对话旨在生成富含情感且具有针对性的回复。大量研究表明包含情感的对话在人机对话系统中可以显著提升用户的满意程度。另外,构建具有人类情感的智能体是人工智能的一个终极目标。除了早期专业人士手动编写规则语料的方法外,现有的工作主要是基于神经网络模型,采用端到端的神经网络模型,在基础对话模型中融入情感信息,情感一般以词向量形式在输入端加入,模型采用标注了情感的对话语料训练模型。这类情感对话方法面临许多挑战。首先,高质量的大规模情感对话语料很难获得,人工标注的成本很高,并且日常对话中大部分语句都为中性。其次,端到端的系统,在学习过程中由于情感向量的约束,会影响回复生成的语义和范围,加剧了安全回复问题。最后,不少模型生成的回复存在相应情感表达不明显或者实际情感不符合预期的问题,概括地说,是对情感的可控性和解释性不强。

发明内容

本发明的目的是为了克服现有技术的不足或者至少部分解决上述问题,提出了一种可控情感对话生成的方法。

其中,一种可控情感对生成的方法,该方法包括:基于增写方式的可控情感对话生成方法;基于两阶段模型,使用多种方法选择器的方式生成可控情感的对话。

在该技术方案中,所述增写方式的可控情感对话生成方法,围绕对话中原有情感回复的内容展开,以期待情感为指导,增写句子使其回复的情感最终偏向于所述期待情感。

在一种实现方式中,所述增写方式的可控情感对话生成方法是一种两阶段的,增写方式的可控情感对话生成方法,所述两阶段,包含原型话语生成部分和可控情感增写部分;所述原型话语生成部分采用微调好的预训练模型,将所述历史对话拼接成一句话作为输入,生成符合上文语境的原型回复;所述可控情感增写部分围绕所述原型回复的内容展开,以所述期待情感为指导,增写句子作为符合期待情感的最终回复。

在该技术方案中,所述基于两阶段模型,使用多种方法选择器的方式生成可控情感的对话,所述的两阶段模型包含原型话语生成模型和可控情感重写模型,所述的原型话语生成模型以历史对话作为输入,生成符合上文语境的原型回复,所述的可控情感重写模型包含多种方法,各方法分别将所述原型回复重写为符合期待情感的回复,所述多种方法选择器在各方法生成的回复中选择最好的回复作为最终回复。

在一种实现方式中,所述基于两阶段模型,使用多种方法选择器的方式生成可控情感的对话是一种基于两阶段模型,使用改写和增写两种方法选择器的方式生成可控情感的对话,所述两阶段模型包含原型话语生成模型和可控情感重写模型;所述原型话语生成模型以历史对话作为输入,生成符合上文语境的原型回复;所述可控情感重写模型包含改写方法和增写方法;所述改写方法,基于情感词替换的方式,根据先删除,后生成的两段式方法做将所述原型回复改写为符合期待情感的最终回复;所述增写方法,围绕所述原型回复的内容展开,以所述期待情感为指导,增写句子作为符合期待情感的最终回复;所述方法选择器,从改写方法和增写方法生成的回复中选择效果更好的回复作为最终回复。

在一种实现方式中,所述的期待情感可以指定情感或根据上文语境自动学习情感。

在一种实现方式中,该方法还可以包括:获取不带有情感标注的普通对话语料和带有情感标注的文本语料;基于所述不带有情感标注的普通对话预料训练所述原型话语生成部分的模型,基于所述带有情感标注的文本语料训练所述可控情感重写部分模型。

有益效果

与现有技术相比,本发明的技术方案所带来的有益效果是:

(1)本发明提出的方法,通过增写的方式进行可控情感对话生成,无论是情感的显示表达或是隐式表达都可以胜任,优于传统方法对于情感表达的限制。

(2)本发明提出的方法,基于两阶段模型,使用多种方法选择器的方式生成可控情感的对话。原型话语生成模型首先生成符合上文语境的原型回复,可控情感重写模型包含多种方法,各方法分别将原型回复重写为符合期待情感的回复,多种方法选择器在各方法生成的回复中选择最好的回复作为最终回复,相比端到端的系统,有效缓解了情感信息在复杂学习过程中的弱化和限制语义生成的问题,提升了情感对话生成的效果。

(3)本发明提出的方法,原型话语生成模块使用语料为通用对话语料,可控情感重写模块使用语料为非对话语料,减少了对情感标记的对话语料的需求,缓解了大规模情感对话语料缺乏的问题,人工成本低,可选择性强。

(4)本发明提出的方法,可以转移到其他现有的对话生成模型作为情感化的后处理,弥补提升其回复生成的效果,无需重新训练模型,使用范围广泛,辅助性强。

(5)本发明提出的方法,包含多阶段模块,各个模块都可以分别进行改进,任何一个模块的提升都将促进整体效果的提升,灵活度高,可扩展性强。

(6)本发明融入情感因素的对话在人机对话系统中可以显著提升用户的满意程度,但是高质量的大规模情感对话语料稀缺,以及现有的端到端系统学习过程中由于情感向量的约束,会影响回复生成的语义和范围,同时生成的回复存在相应情感表达不明显或者实际情感不符合预期的问题,对情感的可控性和解释性不强。采用本发明,围绕对话中原有情感回复的内容展开,以期待情感为指导,增写句子使其回复的情感最终偏向于所述期待情感。基于两阶段模型,使用多种方法选择器的方式生成可控情感的对话。使得生成的最终回复既内容相关又饱含情感,相较于现有技术,有效地提升了情感对话的效果,缓解了大规模情感对话语料缺乏的困境。

附图说明

图1是本发明根据实施例提供的一种可控情感对话生成的方法的场景示意图;

图2是本发明根据实施例提供的一种基于增写方式的可控情感对话生成方法的流程示意图;

图3是本发明根据实施例提供的一种基于两阶段模型,使用多种方法选择器的方式生成可控情感对话的流程示意图;

图4是本发明根据实施例提供的一种可控情感对话生成模型的结构示意图。

图5是本发明根据实施例提供的一种可控情感对话生成的实施方法流程图;

具体实施方式

为使本发明的目的、技术方案和优点更加清楚,下面将结合附图与实例对本发明做详细的论述,以下实施例只是描述性的,不是限定性的,不能以此限定本发明的保护范围。

在现实生活场景,当与人交流时,往往脑海里第一反应的回复不是合适的,经过短暂琢磨后的回复会更加得体,特别是在严肃认真的场合,如心理咨询、政治会议等。具体来说,比如“闭嘴!节目正开始呢!”是原始句子,经过琢磨后可以变成“请保持安静,节目正开始呢!”又或是生活中常见的例子“嗯。”改成“哈哈,好的!”。

直觉上,人类的反应是在两个阶段产生的,在第一阶段,头脑中产生的初始回复可能在情绪上不合适。经过短暂的考虑,最初的回复会调整到合适的情绪。

图1示出了根据实施例给出的生活中的示例性应用场景。

如图1所示,女人喊正在看视频的男人吃饭,男人直觉上想给出的回复是“闭嘴!节目正开始呢!”,他很生气,想让女人闭嘴,因为视频正在精彩的部分,所表达的情绪是非常消极的,经过短暂思考后,他知道这样的回复是不对的,女人并没有恶意,于是可以通过两种方式修改之前的话语的情绪。第一种是通过改写的方式,将原话语变为“请保持安静,节目正开始呢!”,通过更换部分词语,表达出了积极的情绪,以较为温和的方式达到让女人安静的目的。第二种方式是增写,在原有话语的基础上增加具有良好情绪的词句,表达为“闭嘴!节目正开始呢!抱歉,我只是太紧张了。”,以使整体表达的情绪偏向积极。

图2示出了本发明根据实施例提供的一种基于增写方式的可控情感对话生成方法的流程示意图,围绕对话中原有情感回复的内容展开,以期待情感为指导,增写句子使其回复的情感最终偏向于所述期待情感。

在一种可选的实施例中,所述增写方式的可控情感对话生成方法是一种两阶段的,增写方式的可控情感对话生成方法,所述两阶段,包含原型话语生成部分和可控情感增写部分;所述原型话语生成部分采用微调好的预训练模型,将所述历史对话拼接成一句话作为输入,生成符合上文语境的原型回复;所述可控情感增写部分围绕所述原型回复的内容展开,以所述期待情感为指导,增写句子作为符合期待情感的最终回复。

图3示出了本发明根据实施例提供的一种基于两阶段模型,使用多种方法选择器的方式生成可控情感的对话的流程示意图,所述的两阶段模型包含原型话语生成模型和可控情感重写模型,所述的原型话语生成模型以历史对话作为输入,生成符合上文语境的原型回复,所述的可控情感重写模型包含多种方法,各方法分别将所述原型回复重写为符合期待情感的回复,所述多种方法选择器在各模块生成的回复中选择最好的回复作为最终回复。

在一种可选的实施例中,所述基于两阶段模型,使用多种方法选择器的方式生成可控情感的对话是一种基于两阶段模型,使用改写和增写两种方法选择器的方式生成可控情感的对话,所述两阶段模型包含原型话语生成模型和可控情感重写模型;所述原型话语生成模型以历史对话作为输入,生成符合上文语境的原型回复;所述可控情感重写模型包含改写方法和增写方法;所述改写方法,基于情感词替换的方式,根据先删除,后生成的两段式方法做将所述原型回复改写为符合期待情感的最终回复;所述增写方法,围绕所述原型回复的内容展开,以所述期待情感为指导,增写句子作为符合期待情感的最终回复;所述方法选择器,从改写方法和增写方法生成的回复中选择效果更好的回复作为最终回复。

在一种可选的实施例中,所述历史对话是两个说话者交替的话语,定义为C={U

在一种可选的实施例中,所述的历史对话可以是用户当前会话。

在一种可选的实施例中,所述原型话语生成模型采用大型可调的预训练模型,以此来生成内容更相关,更丰富,上下文更一致的回复。具体的,采用DIALOGPT作为原型话语生成器,其是在大规模类对话数据集Reddit上训练得到的,由多层Transformer架构构建,是自回归语言模型,提升了RNN类模型的长期依赖信息的利用效果,同时具有深层次的结构和更大的模型容量。采用最大互信息评分函数(MMI),结合top-K采样来减少生成没有意义的回复。

在一种可选的实施例中,所述的原型话语生成模型可以是一般神经网络模型,所述神经网络模型可以是由以下至少一种神经网络层组成的:

循环神经网络层、长短时记忆神经网络层、门控循环单元神经网络层、卷积神经网络层、线性神经网络层等。

在一种可选的实施例中,所述期待情感,可以是提前指定的,如积极或消极,或粒度更细的情绪,如开心、生气、惊讶、悲伤等。所述期待情感的分类取决于训练语料。

在一种可选的实施例中,所述期待情感是根据上文的情感决定的。在日常对话中,听者往往会呼应说话者的情感,因此可以根据上文的情感分布作为期待情感传给可控情感重写模块。具体的,采用对话情感分析器DialogueGCN,将上文对话中每个话语作为图网络的节点,话语节点与话语节点之间有向边连接,边的方向根据话语的先后而定。以此来建模说话者以前说过的话和他人说过的话对其的情感影响。利用Glove embedding和CNN抽取话语的特征,得到每个话语U

αij=softmax(UiT·Wu[Ui-b,…,Ui+a]),for j=i-b,…,i+a

最后,来自序列编码器s

H=[h

hi=softmax([sqi,spi]

ei=argmax(FFN(hi)),for i∈1,2,…,7

损失函数采用L2正则化的分类交叉熵损失,优化器采用Adam。

上文每句话语的情感定义为e

将上文的情感状态集E中的情绪进行分类,分成消极情绪和积极情绪的两组。

因此,最终传给可控情感重写模块的期待情感e

e

Se=positive if Numpos(E)>Numneg(E),otherwise negative

E={e

在一种可选的实施例中,所述的可控情感重写模型的改写方法具体实现起来包含两个部分:删除部分,学习输入中非情感部分和情感部分。利用Transformer的注意力机制提取注意力得分作为每个token的权重判断是否为情感属性词:

α(t)=softmax(QKT),t∈Um

生成部分,生成具有目标情感属性的句子。这部分采用transformer结构,基于huggingface,输入是原型回复和期待情感,输出符合期待情感的句子。以最小化重建损失为目标,

L(θ)=∑logp(x|C,ssrc;θ)x,ssrc∈D

在一种可选的实施例中,所述的可控情感重写模型的增写方法采用PPLM模型,通过指定情感的文本增写来改变所述原型话语的情感极性。

可控情感重写模块包括改写方法和增写方法,是因为情感的表达可能是通过强烈的情感词组合的显性的表达,也可能存在一些中性词组合起来的隐式表达。

在一种可选的实施例中,所述方法选择器,对所述改写方法和所述增写方法生成的回复进行选择,具体的,所述方法选择器使用GLEU度量作为生成回复整体效果的评价指标,选择GLEU得分较高的方法生成的句子作为最终回复。

图4示出了本发明根据实施例提供的一种可控情感对话生成模型的结构示意图。模型包含两个阶段:原型回复生成和可控情感重写。原型回复生成阶段包含原型话语生成器和对话情感分析器,原型回复生成器将上文语境作为输入,生成一个原型回复Um,对话情感分析器对上文语境进行情感分析,得到上文情感状态集,根据上文情感状态集整体的情感倾向性,生成期待情感e

图5示出了本发明根据实施例提供的一种可控情感对话生成的实施方法流程图,其过程如下:

1.获取历史对话,将历史对话以“<|endoftext|>”拼接成一个长句子作为输入。

2.在普通对话语料上对预训练模型DIALOGPT进行微调,微调好的预训练模型根据输入生成符合上文语境的回复,作为原型回复。

3.利用对话情感分析器DialogueGCN分析历史对话中每段话语的情感,选择占比最高的情感作为期待情感,呼应上文语境,或者直接人工指定情感作为期待情感。

4.在非对话形式的情感文本语料上训练可控情感重写模型。

5.可控情感重写模型的改写模块,基于情感词替换的方式,根据先删除,后生成的两段式方法做将原型回复改写为符合期待情感的回复。可控情感重写模型的增写模块,围绕所述原型回复的内容展开,以期待情感为指导,增写句子作为符合期待情感的回复。

6.模块选择器分别计算改写模块和增写模块生成的回复的GLUE得分,选择得分更高的回复作为最终回复。

为了展示本发明根据实施例提供的模型的有效性,将其与通用模型、情感对话模型和共情对话模型进行比较。自动评测中,采用BLEU来评估模型的整体性能。计算回复中不同unigrams和bigrams的比例来衡量多样性,即distinct-1和distinct-2。采用情感准确性(Emo-acc),即所述期待情感与生成回复的情感之间的一致性,作为在情感层面模型的评估。在人工评测中,随机抽取100个对话,并要求6名注释者根据情感和内容评估每个模型生成的回复。内容层面评分定义为回复反应是否恰当、自然,评分为1~5。情感层面评分是在[-1,1]的范围内回复的情感情绪程度。在统计中,只有当回复的情感极性与期待情感的情感极性一致时,才计算其评价分数,最后统计正确分数的绝对值的平均值。最终评测结果如表1所示。

表1自动评测和人工评测结果

如表1所示,在自动评测中,本发明根据实施例提供的模型在Bleu1/2和Emo-acc中都达到了最高分。这些结果证实了本发明提供的模型在语义和情感方面都是有效的。MoEL的BLEU分数较低,而Emo-acc分数较高,这也表明一般模型在追求情感时会丢失很多语义。Mojitalk和MoEL的多样性得分都较低,这可能是由于安全的回复造成的。这是情感嵌入在学习过程中对语义产生负面影响的证据。相比之下,本发明根据实施例提供的模型得分适中,表明原型话语模块的语义有效性得到了很好的保留。在人类评估结果中,本发明根据实施例提供的模型在Con(DialogGPT除外)和Emo的得分最高,表明其改善了情感表达并保留了大部分语义。MoEL和Mojitalk由于语义和情感的相互制约,性能较差。

表2提供了本发明根据实施例提供的模型和其他baseline模型的一些结果样例。Mojitalk和MoEL生成的回复表达了情感,但内容不合适。Transformer生成的回复虽然流畅且包含相当多的情感,但它们通常不符合上文语境的事实基础。DialogGPT生成的回复可以跟随上文语境,但表达方式非常生硬。相比之下,本发明根据实施例提供的模型呼应了上文语境并包含了所述期待情感。例如,本发明根据实施例提供的模型连贯地将“Dad.I can'tdo that.I'm so busy right now.I have to go.”重写为“Sorry dad.I can't do thatagain.I'm so busy.”。

表2一些生成回复的样例

本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。

专有名词说明

本发明并不限于上文描述的实施方式。以上对具体实施方式的描述旨在描述和说明本发明的技术方案,上述的具体实施方式仅仅是示意性的,并不是限制性的。在不脱离本发明宗旨和权利要求所保护的范围情况下,本领域的普通技术人员在本发明的启示下还可做出很多形式的具体变换,这些均属于本发明的保护范围之内。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号