首页> 中国专利> 用于提升深度模型推荐方案可解释性的方法

用于提升深度模型推荐方案可解释性的方法

摘要

本发明提供了用于提升深度模型推荐方案可解释性的方法。该方法可以包括:对用户回访数据进行预处理;训练摘要分类器;对回访数据进行特征提取;使用摘要生成器来生成摘要并计算摘要生成损失;基于摘要分类器来计算摘要分类损失;计算回访文本分类损失;以摘要生成损失、摘要分类损失和回访文本分类损失的总和最小化为目标来进行模型参数训练更新;基于模型参数训练更新来得到业务推荐模型。此外,本发明还提供了用于基于用户回访文本来生成业务推荐方案和用户回访摘要的方法,其中所生成的用户回访摘要可以通过使用序列拷贝机制来进行修正。通过本发明,能够显著提高用户业务需求预测的准确性和可解释性。

著录项

  • 公开/公告号CN113849634A

    专利类型发明专利

  • 公开/公告日2021-12-28

    原文格式PDF

  • 申请/专利权人 天翼智慧家庭科技有限公司;

    申请/专利号CN202110225889.3

  • 申请日2021-03-01

  • 分类号G06F16/35(20190101);G06F16/33(20190101);G06F16/34(20190101);G06K9/62(20060101);G06N3/04(20060101);G06N3/08(20060101);

  • 代理机构31100 上海专利商标事务所有限公司;

  • 代理人唐杰敏;蔡悦

  • 地址 201702 上海市青浦区双联路158号3层

  • 入库时间 2023-06-19 13:26:15

说明书

技术领域

本发明涉及自然语言处理,更具体地,涉及用于提升深度模型推荐方案可解释性的方法。

背景技术

用户业务需求预测的任务可以抽象为自然语言处理中的文本分类任务,可以使用相关算法实现自动意图识别代替人工识别操作。文本分类是指对给定的非结构化文本,根据相应的分类算法或模型,得到文本对应的类别,用于相关判断。传统的机器学习算法基于人工特征工程提取文本特征,在文本分类上的准确率和鲁棒性上都存在一定局限。基于传统循环神经网络和卷积神经网络的深度学习算法对于训练数据的质量要求较高,需要研究选择一种更加准确有效的分类算法用于实现用户意图分类识别。

另外,基于深度学习的可解释问题是工业界现在一直在讨论和研究的工作之一,在自然语言处理领域亦是。目前,现有的研究尝试让模型具有可解释时,通常对模型输出或输出与输入间的联系进行解释。但是,传统的用户业务推荐方法往往忽略了用户对于此次推荐业务的回访摘要信息,但是这种方式忽略了很多细粒度信息(例如标签的文本解释),而且系统在对业务推荐后,也无法产生人类可以阅读的解释。这些评价信息往往是客服人员对于客户业务需求经过提炼过后生成的文本信息。如果能够准确的预测生成用户的评价内容,那么就能同时提升分类器分类效果,并以评价内容作为分类结果的解释提升分类器的可解释性和鲁棒性。

发明内容

提供本发明内容以便以简化形式介绍将在以下具体实施方式中进一步的描述一些概念。本发明内容并非旨在标识所要求保护的主题的关键特征或必要特征,也不旨在用于帮助确定所要求保护的主题的范围。

鉴于以上描述的现有技术中的缺陷,本发明的目的在于,提升用户业务需求预测的准确性和可解释性,提升推荐业务质量。

根据本发明的第一方面,提供了一种用于训练业务推荐模型的方法,该业务推荐模型包括分别使用人工神经网络来实现的摘要分类器、特征编码器、摘要解码器和回访文本分类器,该方法可以包括:步骤(1):获得用户回访文本以及与用户回访文本相对应的用户回访摘要和业务推荐方案,并且对用户回访文本和用户回访摘要进行数据预处理以得到用户回访数据集;步骤(2):使用用户回访数据集中的用户回访摘要并且将与该用户回访摘要相对应的业务推荐方案作为标签来训练摘要分类器;步骤(3):使用特征编码器来对用户回访数据集中的用户回访文本进行特征提取,以得到回访文本隐状态向量;步骤(4):将回访文本隐状态向量输入摘要解码器以获得生成摘要并且计算摘要生成损失;步骤(5):基于经训练的摘要分类器来计算摘要分类损失;步骤(6):基于回访文本分类器来计算回访文本分类损失;步骤(7):以摘要生成损失、摘要分类损失和回访文本分类损失的总和最小化为目标来对特征编码器、摘要解码器和回访文本分类器的参数进行训练更新;以及重复执行步骤(3)-步骤(7),直至参数收敛,从而完成业务推荐模型的训练。

可选地,用户回访数据集可以包括训练集、验证集和测试集,该训练集、该验证集和该测试集的比例可以为6:2:2。

可选地,摘要分类器可以使用文本卷积神经网络(TextCNN)模型来训练。

可选地,步骤(3)可以进一步包括:使用基于注意力(Attention)机制的双向长短时记忆(Bi-LSTM)特征编码器对用户回访数据集中的用户回访文本进行特征提取;以及基于所提取的特征、使用基于注意力(Attention)机制的双向长短时记忆(Bi-LSTM)模型来得到用户回访文本经过编码后的回访文本隐状态向量。

可选地,步骤(4)可以进一步包括:将用户回访文本经过编码后的回访文本隐状态向量输入采用长短时记忆(LSTM)网络的摘要解码器以获得生成摘要;基于生成摘要和标签摘要来计算双语评估替补(BLEU)得分,其中标签摘要是用户回访文本在用户回访数据集中对应的用户回访摘要;以及基于双语评估替补(BLEU)得分来确定摘要生成损失。

可选地,步骤(5)可以进一步包括:将标签摘要和生成摘要输入步骤(2)中训练完成的摘要分类器中,以分别得到利用标签摘要和生成摘要进行业务推荐方案预测的概率分布;从关联于标签摘要的概率分布中取出与真实业务推荐方案相对应的概率作为第一概率;从关联于生成摘要的概率分布中取出与真实业务推荐方案相对应的概率作为第二概率;以及计算第一概率和第二概率的差的绝对值作为摘要分类损失。

可选地,步骤(6)可以进一步包括:将用户回访文本经过编码后的回访文本隐状态向量输入采用文本卷积神经网络(TextCNN)模型的回访文本分类器,以得到业务推荐方案预测的概率分布;从该概率分布中取出与真实业务推荐方案相对应的概率作为第三概率;计算第二概率与第三概率的差的绝对值作为回访文本分类损失。

可选地,当回访文本分类损失低于阈值时,停止特征编码器、摘要解码器和回访文本分类器的参数的更新。

根据本发明的第二方面,提供了一种用于基于用户回访文本来生成用户回访摘要和业务推荐方案的方法,该方法可以包括:获得通过本发明的方法来训练的业务推荐模型;获得用户回访文本并且对该用户回访文本进行数据预处理;以及将经数据预处理的用户回访文本输入该业务推荐模型,以生成对应的用户回访摘要和业务推荐方案。

可选地,该方法可以进一步包括:对所生成的用户回访摘要进行修正;以及输出经修正的用户回访摘要。

通过采用本发明提供的技术方案,能够显著提高用户业务需求预测的准确性和可解释性。

通过阅读下面的详细描述并参考相关联的附图,这些及其他特点和优点将变得显而易见。应该理解,前面的概括说明和下面的详细描述只是说明性的,不会对所要求保护的各方面形成限制。

附图说明

为了能详细地理解本发明的上述特征所用的方式,可以参照各实施例来对以上简要概述的内容进行更具体的描述,其中一些方面在附图中示出。然而应该注意,附图仅示出了本发明的某些典型方面,故不应被认为限定其范围,因为该描述可以允许有其它等同有效的方面。

图1解说了根据本发明的一个实施例的业务推荐模型的示意图。

图2解说了根据本发明的一个实施例的用于训练业务推荐模型的方法的流程图。

图3解说了根据本发明的一个实施例的用于采用经训练的业务推荐模型、基于用户回访文本来获得用户回访摘要和业务推荐方案的方法的流程图。

图4解说了根据本发明的一个实施例的用于实现根据本发明的方法的装置的框图。

具体实施方式

为了更清楚地说明本发明的实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本发明的一些示例或实施例,对于本领域的普通技术人员来说,在不付出创造性劳动的前提下,还可以根据这些附图将本发明应用于其他类似情景。除非从语言环境中显而易见或另做说明,图中相同标号代表相同结构或操作。

如本发明和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可以包括复数。一般来说,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排他性的罗列,方法或者设备也可能包含其他的步骤或元素。

本发明中使用了流程图来说明根据本发明的实施例的方法所执行的操作。应当理解的是,前面或下面操作不一定按照顺序来精确地执行。相反,可以按照倒序或同时处理各种步骤。同时,或将其他操作添加到这些过程中,或从这些过程中移除某一步或数步操作。

在自然语言处理技术中,传统文本分类任务以及文本生成任务是两个相对独立的子任务。本发明将两个子任务模型同时进行训练,以达到生成摘要内容和业务推荐方案两者能够统一的目的。此外,传统深度学习网络一般采用端到端的方式,直接预测文本类型,属于黑盒模型,不具有可解释性。本发明使用文本生成技术,生成经过提炼的回访摘要内容,使模型生成的推荐方案能够根据回访摘要进行人工理解,提高模型推荐准确性。

图1解说了根据本发明的一个实施例的业务推荐模型100的示意图。在本发明中,业务推荐模型100指的是使用人工神经网络所训练出的一种模型,该模型能够基于用户回访文本来生成对应的用户回访摘要(文本生成任务)和业务推荐方案(文本分类任务)。用户回访文本指的是在客服人员与用户的通话过程中由用户诉说的内容,该内容可以通过语音识别并转换成文本来得到。用户回访摘要指的是对用户回访文本的概括性描述,其可以是客服人员对于用户业务需求经过提炼过后生成的文本信息。业务推荐方案指的是基于用户需求(例如,基于用户回访文本和/或用户回访摘要的内容)来向用户推荐相应类型的业务。因此,用户回访文本、用户回访摘要和业务推荐方案三者是相关联的或相对应的。举例而言,在一个示例中,用户回访文本可以包括“每个月手机套餐内流量总是不够用,要多花很多超额费用”,相应的用户回访摘要可以包括“手机套餐内流量不够用”,并且相关联的业务推荐方案可以包括“升级手机套餐”。在另一个示例中,用户回访文本可以包括“家里上网速度慢,看电影、玩游戏经常出现卡顿现象”,相应的用户回访摘要可以包括“上网速度不能满足需求”,并且相关联的业务推荐方案可以包括“升级带宽”。在本发明中,通过采用业务推荐模型100,使得能够基于用户回访文本来自动地生成用户回访摘要和业务推荐方案,既为用户提供了业务推荐方案,也为工作人员提供了直接的可阅读摘要文本以帮助进行业务分析。

在本发明的一个实施例中,业务推荐模型100可以包括多个组件,该多个组件可以包括但不限于分别采用人工神经网络来实现的摘要分类器、特征编码器、摘要解码器和回访文本分类器。摘要分类器可被用于基于用户回访摘要来生成相应的业务推荐方案(即,实现基于回访摘要的文本分类任务)。特征编码器可被用于对输入的用户回访文本进行特征提取,以得到回访文本隐状态向量。本领域技术人员知道,对于文本生成任务(例如,序列到序列Seq2Seq任务),编码器-解码器结构是常用的一种结构,其中编码器接收输入序列,产生隐状态向量作为输入序列的编码信息,而解码器基于该隐状态向量来生成输出序列。因此,本发明中的回访文本隐状态向量指的是用户回访文本经过特征编码器特征提取之后所产生的隐状态向量。摘要解码器可被用于基于特征编码器输出的回访文本隐状态向量来生成用户回访摘要(即,实现基于用户回访文本的文本生成任务)。回访文本分类器可被用于基于用户回访文本(例如,基于回访文本隐状态向量)来生成相应的业务推荐方案(即,实现基于用户回访文本的文本分类任务)。

图2解说了根据本发明的一个实施例的用于训练业务推荐模型的方法200的流程图。在一些示例中,方法200可由图4中解说的装置400来执行。在一些示例中,方法200可由用于执行下述功能或算法的任何合适的设备或装置来执行。如上所述,业务推荐模型可以包括分别采用人工神经网络来实现的摘要分类器、特征编码器、摘要解码器、回访文本分类器。训练业务推荐模型也就是训练实现摘要分类器、特征编码器、摘要解码器、回访文本分类器的人工神经网络的参数,以获得能够基于用户回访文本来准确地生成用户回访摘要和业务推荐方案的业务推荐模型。

方法200可以始于框210(即,步骤(1)),其中获得用户回访文本以及与用户回访文本相对应的用户回访摘要和业务推荐方案,并且对用户回访文本和用户回访摘要进行数据预处理以得到用户回访数据集。如上所述,用户回访文本、用户回访摘要和业务推荐方案三者是相关联的或相对应的,并且历史的或已有的用户回访文本、用户回访摘要和业务推荐方案可以被存储在数据库中。因此,在一个实施例中,可以从数据库中获得这些数据,以使用这些数据来训练业务推荐模型。在另一个实施例中,还可以从计算机、存储设备、服务器等获得这些数据。

在一个实施例中,数据预处理可以包括建立常用虚词、语气词词表,利用正则表达式对用户回访文本和用户回访摘要中的虚词、语气词进行文本替换、抽取,以得到用户回访信息的有效数据。该有效数据可以按比例划分为训练集、验证集和测试集并且以文件的格式进行存储以得到用户回访数据集,其中训练集、验证集和测试集的比例可以为6:2:2。验证集和测试集可被用于验证模型训练情况和泛化性。

在框220(即,步骤(2)),方法200可以包括使用用户回访数据集中的用户回访摘要并且将与该用户回访摘要相对应的业务推荐方案作为标签来训练摘要分类器。在训练之后,该摘要分类器可用于基于摘要来得到业务推荐方案预测的概率分布(即,实现文本分类任务)。在一个实施例中,框220的操作可以进一步包括:使用词向量(例如,使用词表示的全局向量(GloVe)模型预训练的词向量、使用word2vec模型预训练的词向量等)对用户回访数据集中的用户回访摘要进行替换,得到用户回访摘要的基础嵌入表示,然后以相应的业务推荐方案作为标签,使用文本卷积神经网络(TextCNN)模型来训练一个文本分类器作为摘要分类器。由于使用短文本摘要进行分类,该TextCNN模型性能应相对较高,实际操作中能达到95%以上的分类正确率,因此该摘要分类器不会参与后续的模型参数更新。

在框230(即,步骤(3)),方法200可以包括使用特征编码器来对用户回访数据集中的用户回访文本进行特征提取,以得到回访文本隐状态向量。在一个实施例中,框230的操作可以进一步包括:使用词向量(例如,使用GloVe模型预训练的词向量、使用word2vec模型预训练的词向量等)对用户回访数据集中的用户回访文本进行替换,得到用户回访文本的基础嵌入表示;然后使用基于注意力(Attention)机制的双向长短时记忆(Bi-LSTM)特征编码器对用户回访数据集中的用户回访文本进行特征提取;以及基于所提取的特征、使用基于Attention机制的双向长短时记忆(Bi-LSTM)模型来得到用户回访文本经过编码后的回访文本隐状态向量。

在框240(即,步骤(4)),方法200可以包括将回访文本隐状态向量输入摘要解码器以获得生成摘要并且计算摘要生成损失。在本发明中,摘要生成损失可用于评估摘要的生成效果,即,由摘要解码器生成的生成摘要与标签摘要之间的差异程度。在一个实施例中,框240的操作可以进一步包括:将用户回访文本经过编码后的回访文本隐状态向量输入采用长短时记忆(LSTM)网络的摘要解码器以获得生成摘要;基于生成摘要和标签摘要来计算双语评估替补(BLEU)得分,其中标签摘要是用户回访文本在用户回访数据集中对应的用户回访摘要;以及基于双语评估替补(BLEU)得分来确定摘要生成损失。BLEU得分可以用于评估一组自然语言处理任务生成的文本。它是用于评估候选句子和参考句子之间的差异的指标。它的取值范围在0.0到1.0之间。如果两个句子完美匹配,那么BLEU是1.0;反之,如果两个句子完美不匹配,那么BLEU为0.0。在一个示例中,可以用Bi-gram的方式或者用任何其他已知的方式来计算BLEU得分。在另一个示例中,摘要生成损失可以与BLEU得分成反比,即,BLEU得分越高,则摘要生成损失越小;反之,BLEU得分越低,则摘要生成损失越大。

在框250(即,步骤(5)),方法200可以包括基于经训练的摘要分类器来计算摘要分类损失。在本发明中,摘要分类损失可用于评估将生成摘要输入摘要分类器来获得业务推荐方案的效果。在一个实施例中,框250的操作可以进一步包括:将标签摘要和生成摘要输入框220处训练完成的摘要分类器中,以分别得到利用标签摘要和生成摘要进行业务推荐方案预测的概率分布;从关联于标签摘要的概率分布中取出与真实业务推荐方案相对应的概率作为第一概率;从关联于生成摘要的概率分布中取出与真实业务推荐方案相对应的概率作为第二概率;以及计算第一概率和第二概率的差值作为摘要分类损失。这里,真实业务推荐方案指的是在框210处获得的与标签摘要相对应的业务推荐方案。

在框260(即,步骤(6)),方法200可以包括基于回访文本分类器来计算回访文本分类损失。在本发明中,回访文本分类损失可用于评估使用回访文本分类器来获得业务推荐方案的效果。在一个实施例中,框260的操作可以进一步包括:将用户回访文本经过编码后的回访文本隐状态向量输入采用文本卷积神经网络模型的回访文本分类器,以得到业务推荐方案预测的概率分布;从该概率分布中取出与真实业务推荐方案相对应的概率作为第三概率;计算第二概率与第三概率的差的绝对值作为回访文本分类损失。这里,真实业务推荐方案指的是在框210处获得的与用户回访文本相对应的业务推荐方案。

在框270(即,步骤(7)),方法200可以包括以摘要生成损失、摘要分类损失和回访文本分类损失的总和最小化为目标来对特征编码器、摘要解码器和回访文本分类器的参数进行训练更新。在一个实施例中,摘要分类损失和回访文本分类损失的总和可被称为EF因子。可以使用模型参数优化器以EF因子同摘要生成损失的总和最小化为目标,对特征编码器、摘要解码器和回访文本分类器进行参数训练更新。在一个实施例中,模型参数优化器可以是自适应矩估计(Adam)优化器。在另一个实施例中,模型参数优化器可以是任何其他适用的优化器,诸如自适应梯度(AdaGrad)优化器、RMSProp优化器、等等。

在框280,方法100可以包括判断模型参数是否收敛。如果收敛(例如,摘要生成损失、摘要分类损失和回访文本分类损失的总和无法进一步减小或者进一步减小的幅度非常小),则方法200结束,完成业务推荐模型的训练;否则,重复框230-270的操作以继续业务推荐模型的训练。在一个实施例中,当回访文本分类损失低于阈值时,停止特征编码器、摘要解码器和回访文本分类器的参数的更新,以防止生成摘要文本变短、过拟合等现象的发生。

图3解说了根据本发明的一个实施例的用于采用经训练的业务推荐模型、基于用户回访文本来获得用户回访摘要和业务推荐方案的方法300的流程图。

在一些示例中,方法300可由图4中解说的装置400来执行。在一些示例中,方法300可由用于执行下述功能或算法的任何合适的设备或装置来执行。

在框310,方法300可以包括获得通过方法200来训练的业务推荐模型。

在框320,方法300可以包括获得用户回访文本并且对该用户回访文本进行数据预处理。在一个实施例中,用户回访文本可以通过在与用户的通话过程中将用户讲话的内容进行语音识别并转换成文字来获得。在一个实施例中,数据预处理可以包括建立常用虚词、语气词词表,利用正则表达式对用户回访文本中的虚词、语气词进行文本替换、抽取,以得到用户回访文本的有效数据。

在框330,方法300可以包括将经数据预处理的用户回访文本输入该业务推荐模型,以生成对应的用户回访摘要和业务推荐方案。

可任选地,方法300可以进一步包括:对所生成的用户回访摘要进行修正;以及输出经修正的用户回访摘要。传统文本生成模型通常会抛弃低频、专业领域词汇,以此来获取更高的文本生成得分。例如,通常将输入序列中不在词汇表中的词用标签来替代,并且输出序列中也可能会出现标签。在一个实施例中,对于生成摘要的输出,可以使用基于Soft-Attention机制的摘要修正器对生成摘要内容进行修正,该摘要修正器使用序列拷贝机制将生成摘要中的标签进行替换,以解决低频词汇会在摘要生成器中被忽略的问题。

通过对比本发明的方法与传统的业务推荐模型算法,本发明的方法通过引入基于EF因子和序列拷贝机制的用户回访摘要,增强了模型的特征表示能力,同时提炼产生了业务人员可以阅读的文本信息,增加了模型的可解释性,对于业务人员的业务推荐有着重要意义,同时也在多项指标上出现明显增长。模型评测采用准确率、召回率、AUC值和log损失,其中采用模型预测正确推荐次数/总推荐次数作为准确率指标,采用模型预测正确并成功推荐/推荐营销次数作为召回率指标,使用AUC值计算模型对正负样本的排序能力(AUC越大则预测为正的样本成功率更高),使用log损失评价模型拟合能力(越小则表示拟合程度越好)。

具体指标见下表1:

表1本发明的方法与传统的业务推荐模型算法的比较

图4解说了根据本发明的一个实施例的用于实现根据本发明的方法的装置400的硬件实现的示例的框图。装置400可使用包括一个或多个处理器404的处理系统414来实现。处理器404的示例包括微处理器、微控制器、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、可编程逻辑器件(PLD)、状态机、选通逻辑、分立的硬件电路、以及配置成执行本公开通篇描述的各种功能性的其他合适硬件。在各个示例中,装置400可被配置成执行本文中所描述的功能中的任一者或多者。即,如在装置400中利用的处理器404可被用于实现以上参照图2描述的方法200和/或参照图3描述的方法300。

在该示例中,处理系统414可被实现成具有由总线402一般化地表示的总线架构。取决于处理系统414的具体应用和总体设计约束,总线402可包括任何数目的互连总线和桥接器。总线402将包括一个或多个处理器(由处理器404一般化地表示)、存储器405和计算机可读介质(由计算机可读介质406一般化地表示)的各种电路通信地耦合在一起。总线402还可链接各种其他电路,诸如定时源、外围设备、稳压器和功率管理电路,这些电路在本领域中是众所周知的,且因此将不再进一步描述。总线接口408提供总线402与收发机410之间的接口。收发机310提供用于在传输介质上与各种其他设备进行通信的通信接口或装置。取决于该设备的特性,还可提供用户接口412(例如,按键板、显示器、扬声器、话筒、操纵杆)。当然,此类用户接口412是可任选的,且可在一些示例中被省略。

在一些方面,处理器404可被配置成:获得用户回访文本以及与用户回访文本相对应的用户回访摘要和业务推荐方案,并且对用户回访文本和用户回访摘要进行数据预处理以得到用户回访数据集;使用用户回访数据集中的用户回访摘要并且将与该用户回访摘要相对应的业务推荐方案作为标签来训练摘要分类器;使用特征编码器来对用户回访数据集中的用户回访文本进行特征提取,以得到回访文本隐状态向量;将回访文本隐状态向量输入摘要解码器以获得生成摘要并且计算摘要生成损失;基于经训练的摘要分类器来计算摘要分类损失;基于回访文本分类器来计算回访文本分类损失;以及以摘要生成损失、摘要分类损失和回访文本分类损失的总和最小化为目标来对特征编码器、摘要解码器和回访文本分类器的参数进行训练更新,直至参数收敛,从而完成业务推荐模型的训练。

在另一些方面,处理器404可被配置成:获得通过本发明的方法来训练的业务推荐模型;获得用户回访文本并且对该用户回访文本进行数据预处理;以及将经数据预处理的用户回访文本输入该业务推荐模型,以生成对应的用户回访摘要和业务推荐方案。

处理器404负责管理总线402和通用处理,包括对存储在计算机可读介质406上的软件的执行。软件在由处理器404执行时使处理系统414执行针对任何特定设备描述的各种功能。计算机可读介质406和存储器405还可被用于存储由处理器404在执行软件时操纵的数据。

处理系统中的一个或多个处理器404可以执行软件。软件应当被宽泛地解释成意为指令、指令集、代码、代码段、程序代码、程序、子程序、软件模块、应用、软件应用、软件包、例程、子例程、对象、可执行件、执行的线程、规程、函数等,无论其是用软件、固件、中间件、微代码、硬件描述语言、还是其他术语来述及皆是如此。软件可驻留在计算机可读介质406上。计算机可读介质306可以是非瞬态计算机可读介质。作为示例,非瞬态计算机可读介质包括磁存储设备(例如,硬盘、软盘、磁带)、光盘(例如,压缩碟(CD)或数字多用碟(DVD))、智能卡、闪存设备(例如,卡、棒或钥匙型驱动器)、随机存取存储器(RAM)、只读存储器(ROM)、可编程ROM(PROM)、可擦除PROM(EPROM)、电可擦除PROM(EEPROM)、寄存器、可移除盘、以及用于存储可由计算机访问和读取的软件和/或指令的其他任何合适介质。计算机可读介质406可驻留在处理系统414中、在处理系统414外部、或跨包括处理系统414的多个实体分布。计算机可读介质406可被实施在计算机程序产品中。作为示例,计算机程序产品可包括封装材料中的计算机可读介质。本领域技术人员将认识到如何取决于具体应用和加诸于整体系统的总体设计约束来最佳地实现本公开通篇给出的所描述的功能性。

在一个或多个示例中,计算机可读存储介质406可包括被配置成用于各种功能(包括例如用于训练业务推荐模型的功能和/或用于采用经训练的业务推荐模型、基于用户回访文本来生成用户回访摘要和业务推荐方案的功能)的软件。该软件可包括指令,这些指令可将处理系统414配置成执行参照图2和/或图3所描述的一个或多个功能。

在本发明的描述中,需要理解的是,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。

本领域普通技术人员应领会,本发明的各个实施例可提供为方法、装置、系统或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用一个或多个其中存储有计算机可执行程序代码的计算机可读存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。

本发明是参照根据本发明实施例的方法、装置、系统和计算机程序产品的流程图和/或框图来描述的。应理解,可由计算机程序指令实现流程图和/或框图中的每一个流程和/或方框、以及流程图和/或框图中的流程和/或方框的组合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图中的一个或多个流程和/或框图中的一个或多个方框中指定的功能的装置。

尽管目前为止已经参考附图描述了本发明的各方面,但是上述方法、系统和设备仅是示例,并且本发明的范围不限于这些方面,而是仅由所附权利要求及其等同物来限定。各种组件可被省略或者也可被等同组件替代。另外,也可以在与本发明中描述的顺序不同的顺序实现所述步骤。此外,可以按各种方式组合各种组件。也重要的是,随着技术的发展,所描述的组件中的许多组件可被之后出现的等同组件所替代。对本公开的各种修改对于本领域技术人员将是显而易见的,并且本文中所定义的普适原理可被应用于其他变形而不会脱离本公开的范围。由此,本公开并非被限定于本文中所描述的示例和设计,而是应被授予与本文所公开的原理和新颖特征相一致的最广范围。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号