首页> 中国专利> 语音情绪识别方法、语音情绪识别模型的训练方法及装置

语音情绪识别方法、语音情绪识别模型的训练方法及装置

摘要

本公开提供了一种语音情绪识别方法、语音情绪识别模型的训练方法及装置,可以应用于语音识别技术领域和金融领域。该语音情绪识别方法包括:对待识别语音数据进行特征提取,得到语音情绪特征向量序列,其中,语音情绪特征向量序列包括至少一个语音情绪特征向量,语音情绪特征向量用于表征语音强度特征和时间增量特征;以及将语音情绪特征向量序列输入至语音情绪识别模型,输出语音情绪识别结果,其中,语音情绪识别模型包括极限学习机神经网络。

著录项

  • 公开/公告号CN114842879A

    专利类型发明专利

  • 公开/公告日2022-08-02

    原文格式PDF

  • 申请/专利权人 中国工商银行股份有限公司;

    申请/专利号CN202210291767.9

  • 发明设计人 赵玉迪;陈永录;王静;仇国龙;

    申请日2022-03-22

  • 分类号G10L25/63(2013.01);G10L15/02(2006.01);G10L15/04(2013.01);G10L15/06(2013.01);G10L25/03(2013.01);G10L25/24(2013.01);G10L25/30(2013.01);

  • 代理机构中科专利商标代理有限责任公司 11021;

  • 代理人吴梦圆

  • 地址 100140 北京市西城区复兴门内大街55号

  • 入库时间 2023-06-19 16:12:48

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2022-08-19

    实质审查的生效 IPC(主分类):G10L25/63 专利申请号:2022102917679 申请日:20220322

    实质审查的生效

  • 2022-08-02

    公开

    发明专利申请公布

说明书

技术领域

本公开涉及语音识别技术领域和金融领域,更具体地,涉及一种语音情绪识别方法、语音情绪识别模型的训练方法及装置、电子设备、计算机可读存储介质和一种计算机程序产品。

背景技术

语音是语言外部形式,而语言则是日常生活中人们自我表达的主要方式以及交流媒介,因此,能够正确识别语音并做出合理应对是社会交往的基础。目前通常采用将语音转化成文本,再通过文本分析技术来识别语音。

在实现本公开构思的过程中,发明人发现相关技术中至少存在如下问题:无法保证语音的及时识别且识别效率较低。

发明内容

有鉴于此,本公开提供了一种语音情绪识别方法、语音情绪识别模型的训练方法及装置、电子设备、计算机可读存储介质和计算机程序产品。

根据本公开的一个方面,提供了一种语音情绪识别方法,包括:

对待识别语音数据进行特征提取,得到语音情绪特征向量序列,其中,语音情绪特征向量序列包括至少一个语音情绪特征向量,语音情绪特征向量用于表征语音强度特征和时间增量特征;以及

将语音情绪特征向量序列输入至语音情绪识别模型,输出语音情绪识别结果,其中,语音情绪识别模型包括极限学习机神经网络。

根据本公开的实施例,语音强度特征包括音高周期特征和谐波噪声比特征,时间增量特征包括梅尔频率倒谱系数特征;

对待识别语音数据进行特征提取,得到语音情绪特征向量序列包括:

对待识别语音数据进行特征提取,得到语音强度特征序列;以及

对语音强度特征序列进行特征提取,得到语音情绪特征向量序列。

根据本公开的实施例,上述方法还包括,在对待识别样本语音数据进行特征提取,得到样本语音情绪特征向量序列之前:

获取待识别语音数据;

对待识别语音数据进行分段处理,得到与待识别语音数据对应的多个原始语音片段数据;以及

对多个原始语音片段数据中的每个原始语音片段数据进行筛选处理,得到经筛选的多个语音片段数据。

根据本公开的实施例,对待识别语音数据进行特征提取,得到语音情绪特征向量序列包括:

对与待识别语音数据对应的多个语音片段数据进行处理,得到多个语音片段数据各自的语音情绪特征向量;以及

根据语音情绪特征向量和位置编码,确定语音情绪特征向量序列,其中,位置编码用于表征语音片段数据在待识别语音数据中的位置信息;

其中,将语音情绪特征向量序列输入至语音情绪识别模型,输出语音情绪识别结果包括:

对多个语音片段数据各自的语音情绪特征向量进行处理,得到多个语音片段数据各自的语音情绪信息;以及

根据多个语音片段数据各自的语音情绪信息,确定语音情绪识别结果。

根据本公开的实施例,语音情绪信息包括至少一个语音情绪类别和与至少一个语音情绪类别中的每个语音情绪类别对应的概率值;

根据多个语音片段数据各自的语音情绪信息,确定语音情绪识别结果包括:

根据概率值,确定多个语音片段数据中每个语音片段数据的目标语音情绪类别和目标概率值;以及

根据语音片段数据的目标语音情绪类别、目标概率值和位置编码,确定语音情绪识别结果。

根据本公开的另一个方面,提供了一种语音情绪识别模型的训练方法,包括:

对样本语音数据进行特征提取,得到样本语音情绪特征向量序列,其中,样本语音情绪特征向量序列包括至少一个样本语音情绪特征向量,样本语音情绪特征向量用于表征样本语音强度特征和样本时间增量特征;

将样本语音情绪特征向量序列输入至待训练的语音情绪识别模型,输出样本语音情绪识别结果,其中,待训练的语音情绪识别模型包括极限学习机神经网络;以及

根据样本语音情绪识别结果和真实样本语音情绪结果,训练语音情绪识别模型。

根据本公开的实施例,语音情绪识别模型包括输入层、隐藏层和输出层,隐藏层包括预设数量的节点;

将样本语音情绪特征向量序列输入至待训练的语音情绪识别模型,输出样本语音情绪识别结果包括:

根据预设数量,设置第一权重值和隐藏层的偏置值,其中,第一权重值用于表征输入层与隐藏层之间的权重。

根据本公开的实施例,根据样本语音情绪识别结果和真实样本语音情绪结果,训练语音情绪识别模型包括:

根据样本语音情绪识别结果、第一权重值和隐藏层的偏置值,确定隐藏层的输出矩阵;

对隐藏层的输出矩阵进行广义逆运算,得到隐藏层的输出结果;

根据隐藏层的输出结果和真实样本语音情绪结果,确定第二权重值,其中,第二权重值用于表征隐藏层与输出层之间的权重;以及根据预设数量、第一权重值、偏置值和第二权重值,训练语音情绪识别模型。

根据本公开的另一个方面,提供了一种语音情绪识别装置,包括:

第一处理模块,用于对待识别语音数据进行特征提取,得到语音情绪特征向量序列,其中,语音情绪特征向量序列包括至少一个语音情绪特征向量,语音情绪特征向量用于表征语音强度特征和时间增量特征;以及

第一识别模块,用于将语音情绪特征向量序列输入至语音情绪识别模型,输出语音情绪识别结果,其中,语音情绪识别模型包括极限学习机神经网络。

根据本公开的另一个方面,提供了一种语音情绪识别模型的训练装置,包括:

第二处理模块,用于对样本语音数据进行特征提取,得到样本语音情绪特征向量序列,其中,样本语音情绪特征向量序列包括至少一个样本语音情绪特征向量,样本语音情绪特征向量用于表征样本语音强度特征和样本时间增量特征;

第二识别模块,用于将样本语音情绪特征向量序列输入至待训练的语音情绪识别模型,输出样本语音情绪识别结果,其中,待训练的语音情绪识别模型包括极限学习机神经网络;以及

训练模块,用于根据样本语音情绪识别结果和真实样本语音情绪结果,训练语音情绪识别模型。

根据本公开的另一个方面,提供了一种电子设备,包括:

一个或多个处理器;

存储器,用于存储一个或多个指令,

其中,当上述一个或多个指令被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如上所述的方法。

根据本公开的另一个方面,提供了一种计算机可读存储介质,其上存储有可执行指令,上述可执行指令被处理器执行时使处理器实现如上所述的方法。

根据本公开的另一个方面,提供了一种计算机程序产品,上述计算机程序产品包括计算机可执行指令,上述计算机可执行指令在被执行时用于实现如上所述的方法。

根据本公开的实施例,通过将对待识别语音数据进行特征提取得到的语音情绪特征向量序列,输入至包括极限学习机神经网络的语音情绪识别模型,可以根据待识别语音数据的语音强度特征和时间增量特征,输出语音情绪识别结果。通过上述技术手段,至少部分地克服了相关技术中无法保证语音的及时识别且识别效率较低的技术问题,实现了利用语音情绪识别模型对待识别语音数据的及时处理,提高了语音情绪识别的效率和准确性。

附图说明

通过以下参照附图对本公开实施例的描述,本公开的上述以及其他目的、特征和优点将更为清楚,在附图中:

图1示意性示出了根据本公开实施例的可以应用语音情绪识别方法、语音情绪识别模型的训练方法的系统架构图;

图2示意性示出了根据本公开实施例的语音情绪识别方法的流程图;

图3示意性示出了根据本公开实施例的语音情绪识别过程的示例示意图;

图4示意性示出了根据本公开实施例的语音情绪识别模型的训练方法的流程图;

图5示意性示出了根据本公开实施例的语音情绪识别模型的训练过程的示例示意图;

图6示意性示出了根据本公开实施例的语音情绪识别装置的结构框图;

图7示意性示出了根据本公开实施例的语音情绪识别模型的训练装置的结构框图;以及

图8示意性示出了根据本公开实施例的适于实现语音情绪识别方法、语音情绪识别模型的训练方法的电子设备的框图。

具体实施方式

以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。

在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。

在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。

在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。

在本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。

在本公开的技术方案中,在获取或采集用户个人信息之前,均获取了用户的授权或同意。

语音是语言外部形式,而语言则是日常生活中人们自我表达的主要方式以及交流媒介,因此,能够正确识别语音并做出合理应对是社会交往的基础。

随着人工智能技术的发展,已广泛应用于人脸识别、光学字符识别等简单场景,以及智能家居、安全防控、无人驾驶等融合产品。目前的语音识别方法通常是采用人工智能技术,将语音转化成文本,再通过文本分析技术来识别语音。

但是,除了对语音进行语义识别得到的信息,语音情绪也是语音中包含的重要信息。相较于语义信息,语音情绪具有一定的前瞻性且可以根据较少的语音量得到情绪信息。

在实现本公开构思的过程中,发明人发现相关技术中至少存在如下问题:无法保证语音的及时识别且识别效率较低。

为了至少部分地解决相关技术中存在的技术问题,本公开提供了一种语音情绪识别方法、语音情绪识别模型的训练方法及装置,可以应用于语音识别技术领域和金融领域。该语音情绪识别方法包括:对待识别语音数据进行特征提取,得到语音情绪特征向量序列,其中,语音情绪特征向量序列包括至少一个语音情绪特征向量,语音情绪特征向量用于表征语音强度特征和时间增量特征;以及将语音情绪特征向量序列输入至语音情绪识别模型,输出语音情绪识别结果,其中,语音情绪识别模型包括极限学习机神经网络。

需要说明的是,本公开实施例提供的语音情绪识别方法、语音情绪识别模型的训练方法和装置可用于语音识别技术领域和金融领域,例如可以应用于银行网点对用户进行语音情绪识别。本公开实施例提供的语音情绪识别方法、语音情绪识别模型的训练方法和装置也可用于除语音识别技术领域和金融领域之外的任意领域,例如可以应用于语音数据处理。本公开实施例提供的语音情绪识别方法、语音情绪识别模型的训练方法和装置的应用领域不做限定。

图1示意性示出了根据本公开实施例的可以应用语音情绪识别方法、语音情绪识别模型的训练方法的系统架构。需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。

如图1所示,根据该实施例的系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线和/或无线通信链路等等。

用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端和/或社交平台软件等(仅为示例)。

终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。

服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。

需要说明的是,本公开实施例所提供的语音情绪识别方法、语音情绪识别模型的训练方法一般可以由服务器105执行。相应地,本公开实施例所提供的语音情绪识别方法、语音情绪识别模型的训练方法一般可以设置于服务器105中。本公开实施例所提供的语音情绪识别方法、语音情绪识别模型的训练方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的语音情绪识别方法、语音情绪识别模型的训练方法也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。或者,本公开实施例所提供的语音情绪识别方法、语音情绪识别模型的训练方法也可以由终端设备101、102、或103执行,或者也可以由不同于终端设备101、102、或103的其他终端设备执行。相应地,本公开实施例所提供的语音情绪识别方法、语音情绪识别模型的训练方法也可以设置于终端设备101、102、或103中,或设置于不同于终端设备101、102、或103的其他终端设备中。

例如,待识别语音数据和样本语音数据可以原本存储在终端设备101、102、或103中的任意一个(例如,终端设备101,但不限于此)之中,或者存储在外部存储设备上并可以导入到终端设备101中。然后,终端设备101可以在本地执行本公开实施例所提供的语音情绪识别方法、语音情绪识别模型的训练方法,或者将待识别语音数据和样本语音数据发送到其他终端设备、服务器、或服务器集群,并由接收该待识别语音数据和样本语音数据的其他终端设备、服务器、或服务器集群来执行本公开实施例所提供的语音情绪识别方法、语音情绪识别模型的训练方法。

应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。

图2示意性示出了根据本公开实施例的语音情绪识别方法的流程图。

如图2所示,该语音情绪识别的方法包括操作S201~S202。

在操作S201,对待识别语音数据进行特征提取,得到语音情绪特征向量序列。语音情绪特征向量序列包括至少一个语音情绪特征向量,语音情绪特征向量用于表征语音强度特征和时间增量特征。

在操作S202,将语音情绪特征向量序列输入至语音情绪识别模型,输出语音情绪识别结果。语音情绪识别模型包括极限学习机神经网络。

根据本公开的实施例,待识别语音数据可以包括通过语音进行记录的数据以及通过语音进行传输的数据。待识别语音数据可以为预先录制的语音数据,也可以为实时输入的语音数据。

根据本公开的实施例,可以获取待识别语音数据,对待识别语音数据进行特征提取,得到与待识别语音数据对应的语音情绪特征向量序列。语音情绪特征向量序列可以包括至少一个语音情绪特征向量。语音情绪特征向量可以用于表征以下至少一项:声强特征、响度特征、音高周期特征、基音周期特征、基音频率特征、信噪比特征、谐波噪声比特征、梅尔频率倒谱系数特征(Mel-Frequency Cepstral Coefficients,MFCC)、短时能量特征和短时平均幅度特征。

根据本公开的实施例,语音情绪识别模型可以包括支持向量机模型(ExtremeLearning Machine,ELM)、高斯混合模型(Gaussian Mixture Model,GMM)、隐马尔科夫模型(Hidden Markov Model,HMM)、词袋模型(Bag-of-words model,BOW)、卷积神经网络模型(Convolutional Neural Networks,CNN)、决策树模型(Decision Tree)等。

根据本公开的实施例,可以基于极限学习机神经网络构建语音情绪识别模型。极限学习机属于单隐层神经网络,输入层和隐藏层之间的权重、隐藏层的偏置值可以根据实际需求设定,设定后无需调整,隐藏层和输出层之间的权重无需迭代调整,可以通过解方程组确定。

根据本公开的实施例,通过将对待识别语音数据进行特征提取得到的语音情绪特征向量序列,输入至包括极限学习机神经网络的语音情绪识别模型,可以根据待识别语音数据的语音强度特征和时间增量特征,输出语音情绪识别结果。通过上述技术手段,至少部分地克服了相关技术中无法保证语音的及时识别且识别效率较低的技术问题,实现了利用语音情绪识别模型对待识别语音数据的及时处理,提高了语音情绪识别的效率和准确性。

根据本公开的实施例,在操作S201之前,语音情绪识别的方法还可以包括如下操作。

获取待识别语音数据。对待识别语音数据进行分段处理,得到与待识别语音数据对应的多个原始语音片段数据。对多个原始语音片段数据中的每个原始语音片段数据进行筛选处理,得到经筛选的多个语音片段数据。

根据本公开的实施例,可以对获取到的待识别语音数据进行语音活动检测(VoiceActivity Detection,VAD),以切除首尾端的静音部分,降低对后续步骤造成的干扰。

根据本公开的实施例,可以对获取到的待识别语音数据进行预处理。预处理可以包括以下至少一项:分帧处理、加窗处理和特征提取。可以使用移动窗函数对声音分帧处理,即把声音分割为不同段,每一段称为一帧,帧与帧之间可以存在交叠部分。例如,可以设置帧长为25ms、帧移为10ms,即可得到每帧的长度为25ms,每两帧之间有15ms的交叠。本公开实施例不对帧长和帧移的具体数值进行限定,本领域技术人员可以根据实际需求进行设置。

根据本公开的实施例,可以对多个原始语音片段数据中的每个原始语音片段数据进行筛选处理,过滤掉例如断句、停顿的无用部分,得到经筛选的多个语音片段数据。

根据本公开的实施例,语音强度特征包括音高周期特征和谐波噪声比特征,时间增量特征包括梅尔频率倒谱系数特征。

根据本公开的实施例,操作S201可以包括如下操作。

对待识别语音数据进行特征提取,得到语音强度特征序列。对语音强度特征序列进行特征提取,得到语音情绪特征向量序列。

根据本公开的实施例,可以对待识别语音数据进行特征提取,得到用于表征音高周期特征、谐波噪声比特征和梅尔频率倒谱系数特征的语音情绪特征向量序列。

根据本公开的实施例,可以在一个连续窗口中获取语音情绪信息,语音情绪特征向量序列X(m)可以使用如下式(1)表示:

X(m)=[z(m-k),...,z(k),...,z(m+k)] (1)

其中,k表示移动窗的窗口大小,特征向量z(m)表示每帧提取m的梅尔频率倒谱系数。

根据本公开的实施例,谐波噪声比特征(HNR)可以使用如下式(2)表示:

其中,τ表示时间,ACF(τ)表示时间的自相关函数,τ

根据本公开的实施例,通过分别对与待识别语音数据对应的多个原始语音片段数据进行了筛选处理,由此可以过滤掉待识别语音数据中的无用信息,提高了语音情绪识别的效率。另外,通过对待识别语音数据进行特征提取,得到包括语音强度特征和时间增量特征的语音情绪特征向量序列,由此可以提高语音情绪识别的准确率。

根据本公开的实施例,操作S201还可以包括如下操作。

对与待识别语音数据对应的多个语音片段数据进行处理,得到多个语音片段数据各自的语音情绪特征向量。根据语音情绪特征向量和位置编码,确定语音情绪特征向量序列。位置编码用于表征语音片段数据在待识别语音数据中的位置信息。

根据本公开的实施例,操作S202可以包括如下操作。

对多个语音片段数据各自的语音情绪特征向量进行处理,得到多个语音片段数据各自的语音情绪信息。根据多个语音片段数据各自的语音情绪信息,确定语音情绪识别结果。

根据本公开的实施例,语音情绪识别结果可以包括以下至少一项:高兴、惊奇、生气、厌恶、害怕、悲伤和轻蔑。

根据本公开的实施例,位置编码可以用于表征语音片段数据在待识别语音数据中的位置信息。可以利用位置编码方法对待识别语音数据包括的多个语音片段数据的位置进行编码,得到与多个语音片段数据分别对应的位置编码。位置编码方法可以包括正余弦位置编码方法或学习位置向量方法。

根据本公开的实施例,在获得多个语音片段数据各自的语音情绪特征向量和位置编码之后,可以对个语音片段数据各自的语音情绪特征向量和位置编码分别进行融合处理,得到融合结果,再对融合结果进行特征提取,得到语音情绪特征向量序列。

根据本公开的实施例,语音情绪信息可以用于表征语音片段数据的片段水平的情绪,语音情绪识别结果可以用于表征待识别语音数据的话语水平的情绪。

根据本公开的实施例,语音情绪信息包括至少一个语音情绪类别和与至少一个语音情绪类别中的每个语音情绪类别对应的概率值。

根据本公开的实施例,根据多个语音片段数据各自的语音情绪信息,确定语音情绪识别结果可以包括如下操作。

根据概率值,确定多个语音片段数据中每个语音片段数据的目标语音情绪类别和目标概率值。根据语音片段数据的目标语音情绪类别、目标概率值和位置编码,确定语音情绪识别结果。

根据本公开的实施例,可以根据多个语音片段数据各自的语音情绪信息所表征的情绪状态的概率值,确定语音情绪识别结果。例如,可以将最高概率值对应的情绪状态确定为语音情绪识别结果。

根据本公开的实施例,通过对多个语音片段数据各自的语音情绪特征向量进行处理,并根据得到的多个语音片段数据各自的语音情绪信息,可以将目标概率值对应的目标语音情绪类别确定为语音情绪识别结果,可以提高语音情绪识别的效率和准确性。

下面参考图3,结合具体实施例对图2所示的方法做进一步说明。

图3示意性示出了根据本公开实施例的语音情绪识别过程的示例示意图。

如图3所示,可以获取待识别语音数据301。对待识别语音数据301进行分段处理,得到与待识别语音数据301对应的多个原始语音片段数据302。对多个原始语音片段数据302中的每个原始语音片段数据302进行筛选处理,得到经筛选的多个语音片段数据303。对与待识别语音数据301对应的多个语音片段数据303进行处理,得到多个语音片段数据303各自的语音情绪特征向量304。将多个语音片段数据303各自的语音情绪特征向量304和位置编码305输入至语音情绪识别模型306,得到语音情绪识别结果307。

图4示意性示出了根据本公开实施例的语音情绪识别模型的训练方法的流程图。

如图4所示,该语音情绪识别模型的训练方法包括操作S401~S403。

在操作S401,对样本语音数据进行特征提取,得到样本语音情绪特征向量序列。样本语音情绪特征向量序列包括至少一个样本语音情绪特征向量,样本语音情绪特征向量用于表征样本语音强度特征和样本时间增量特征。

在操作S402,将样本语音情绪特征向量序列输入至待训练的语音情绪识别模型,输出样本语音情绪识别结果。待训练的语音情绪识别模型包括极限学习机神经网络。

在操作S403,根据样本语音情绪识别结果和真实样本语音情绪结果,训练语音情绪识别模型。

根据本公开的实施例,样本语音数据可以包括预先录制的语音数据,也可以包括实时输入的语音数据。

根据本公开的实施例,可以训练语音情绪识别模型预测每种情绪状态的概率值。通过输入语音情绪特征向量和对应的位置编码,设置情绪状态的数量为k,使用softmax函数作为输出层,语音情绪识别模型的输出可以为一个用于表征每种情绪状态的概率分布t,如下式(3)所示:

t=[P(E

其中,P(E

根据本公开的实施例,可以将语音情绪识别问题转换为序列分类问题,即根据多个语音片段数据各自的语音情绪信息,确定待识别语音数据的语音情绪识别结果,可以使用如下式(4)~(7)计算:

其中,U表示包括与待识别语音数据对应的多个语音片段数据的集,f

根据本公开的实施例,在得到样本语音情绪识别结果之后,可以利用样本语音情绪识别结果和真实样本语音情绪结果对语音情绪识别模型进行训练,得到训练完成的语音情绪识别模型。

根据本公开的实施例,通过样本语音情绪识别结果和真实样本语音情绪结果作为训练样本,训练得到语音情绪识别模型。当利用语音情绪识别模型对待识别语音数据进行处理时,能够准确地识别待处理语音数据的语音情绪类别,从而实现了提高语音情绪类别预测的效率和准确率,以及降低人工识别成本的技术效果。

根据本公开的实施例,语音情绪识别模型包括输入层、隐藏层和输出层,隐藏层包括预设数量的节点。

根据本公开的实施例,操作S402可以包括如下操作。

根据预设数量,设置第一权重值和隐藏层的偏置值。第一权重值用于表征输入层与隐藏层之间的权重。

根据本公开的实施例,操作S403可以包括如下操作。

根据样本语音情绪识别结果、第一权重值和隐藏层的偏置值,确定隐藏层的输出矩阵。对隐藏层的输出矩阵进行广义逆运算,得到隐藏层的输出结果。根据隐藏层的输出结果和真实样本语音情绪结果,确定第二权重值。第二权重值用于表征隐藏层与输出层之间的权重。根据预设数量、第一权重值、偏置值和第二权重值,训练语音情绪识别模型。

根据本公开的实施例,可以将样本语音情绪特征向量序列作为输入语音情绪识别模型的训练数据。根据待识别语音数据确定隐藏层节点的预设数量。本公开实施例不对预设数量的具体数值进行限定,可以根据实际需求进行设置。

根据本公开的实施例,通过设置极限学习机的第一权重值和偏置值,并根据隐藏层的输出结果和真实样本语音情绪结果,得到第二权重值,由此可以确定语音情绪识别模型的模型参数。

下面参考图5,结合具体实施例对图4所示的方法做进一步说明。

图5示意性示出了根据本公开实施例的语音情绪识别模型的训练过程的示例示意图。

如图5所示,可以获取样本语音数据501。对样本语音数据501进行分段处理,得到与样本语音数据501对应的多个原始样本语音片段数据502。对多个原始样本语音片段数据502中的每个原始样本语音片段数据502进行筛选处理,得到经筛选的多个样本语音片段数据503。对与样本语音数据501对应的多个样本语音片段数据503进行处理,得到多个样本语音片段数据503各自的样本语音情绪特征向量504。

将多个样本语音片段数据503各自的样本语音情绪特征向量504和样本位置编码505输入至语音情绪识别模型506的输入层5061。根据隐藏层5062的节点数量,设置输入层5061与所述隐藏层5062之间的第一权重值w

图6示意性示出了根据本公开实施例的语音情绪识别装置的结构框图。

如图6所示,语音情绪识别装置600包括第一处理模块601和第一识别模块602。

第一处理模块601,用于对待识别语音数据进行特征提取,得到语音情绪特征向量序列,其中,语音情绪特征向量序列包括至少一个语音情绪特征向量,语音情绪特征向量用于表征语音强度特征和时间增量特征。

第一识别模块602,用于将语音情绪特征向量序列输入至语音情绪识别模型,输出语音情绪识别结果,其中,语音情绪识别模型包括极限学习机神经网络。

根据本公开的实施例,语音强度特征包括音高周期特征和谐波噪声比特征,时间增量特征包括梅尔频率倒谱系数特征。

根据本公开的实施例,第一处理模块601包括第一提取单元和第二提取单元。

第一提取单元,用于对待识别语音数据进行特征提取,得到语音强度特征序列。

第二提取单元,用于对语音强度特征序列进行特征提取,得到语音情绪特征向量序列。

根据本公开的实施例,语音情绪识别装置600还包括获取模块、第三处理模块和第四处理模块。

获取模块,用于获取待识别语音数据。

第三处理模块,用于对待识别语音数据进行分段处理,得到与待识别语音数据对应的多个原始语音片段数据。

第四处理模块,用于对多个原始语音片段数据中的每个原始语音片段数据进行筛选处理,得到经筛选的多个语音片段数据。

根据本公开的实施例,第一处理模块601包括第一处理单元和第一确定单元。

第一处理单元,用于对与待识别语音数据对应的多个语音片段数据进行处理,得到多个语音片段数据各自的语音情绪特征向量。

第一确定单元,用于根据语音情绪特征向量和位置编码,确定语音情绪特征向量序列,其中,位置编码用于表征语音片段数据在待识别语音数据中的位置信息。

根据本公开的实施例,第一识别模块602包括第二处理单元和第二确定单元。

第二处理单元,用于对多个语音片段数据各自的语音情绪特征向量进行处理,得到多个语音片段数据各自的语音情绪信息。

第二确定单元,用于根据多个语音片段数据各自的语音情绪信息,确定语音情绪识别结果。

根据本公开的实施例,语音情绪信息包括至少一个语音情绪类别和与至少一个语音情绪类别中的每个语音情绪类别对应的概率值。

根据本公开的实施例,第二确定单元包括第一确定子单元和第二确定子单元。

第一确定子单元,用于根据概率值,确定多个语音片段数据中每个语音片段数据的目标语音情绪类别和目标概率值。

第二确定子单元,用于根据语音片段数据的目标语音情绪类别、目标概率值和位置编码,确定语音情绪识别结果。

图7示意性示出了根据本公开实施例的语音情绪识别模型的训练装置的结构框图。

如图7所示,语音情绪识别模型的训练装置700包括第二处理模块701、第二识别模块702和训练模块703。

第二处理模块701,用于对样本语音数据进行特征提取,得到样本语音情绪特征向量序列,其中,样本语音情绪特征向量序列包括至少一个样本语音情绪特征向量,样本语音情绪特征向量用于表征样本语音强度特征和样本时间增量特征。

第二识别模块702,用于将样本语音情绪特征向量序列输入至待训练的语音情绪识别模型,输出样本语音情绪识别结果,其中,待训练的语音情绪识别模型包括极限学习机神经网络。

训练模块703,用于根据样本语音情绪识别结果和真实样本语音情绪结果,训练语音情绪识别模型。

根据本公开的实施例,语音情绪识别模型包括输入层、隐藏层和输出层,隐藏层包括预设数量的节点。

根据本公开的实施例,第二识别模块702包括设置单元。

设置单元,用于根据预设数量,设置第一权重值和隐藏层的偏置值,其中,第一权重值用于表征输入层与隐藏层之间的权重。

根据本公开的实施例,训练模块703包括第三确定单元、运算单元、第四确定单元和训练单元。

第三确定单元,用于根据样本语音情绪识别结果、第一权重值和隐藏层的偏置值,确定隐藏层的输出矩阵。

运算单元,用于对隐藏层的输出矩阵进行广义逆运算,得到隐藏层的输出结果。

第四确定单元,用于根据隐藏层的输出结果和真实样本语音情绪结果,确定第二权重值,其中,第二权重值用于表征隐藏层与输出层之间的权重。

训练单元,用于根据预设数量、第一权重值、偏置值和第二权重值,训练语音情绪识别模型。

根据本公开的实施例的模块、子模块、单元、子单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、子模块、单元、子单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。

例如,第一处理模块601和第一识别模块602、第二处理模块701、第二识别模块702和训练模块703中的任意多个可以合并在一个模块/单元/子单元中实现,或者其中的任意一个模块/单元/子单元可以被拆分成多个模块/单元/子单元。或者,这些模块/单元/子单元中的一个或多个模块/单元/子单元的至少部分功能可以与其他模块/单元/子单元的至少部分功能相结合,并在一个模块/单元/子单元中实现。根据本公开的实施例,第一处理模块601和第一识别模块602、第二处理模块701、第二识别模块702和训练模块703中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,第一处理模块601和第一识别模块602、第二处理模块701、第二识别模块702和训练模块703中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。

需要说明的是,本公开的实施例中语音情绪识别装置部分与本公开的实施例中语音情绪识别方法部分是相对应的,语音情绪识别装置部分的描述具体参考语音情绪识别方法部分,在此不再赘述。本公开的实施例中语音情绪识别模型的训练装置部分与本公开的实施例中语音情绪识别模型的训练方法部分是相对应的,语音情绪识别模型的训练装置部分的描述具体参考语音情绪识别模型的训练方法部分,在此不再赘述。

图8示意性示出了根据本公开实施例的适于实现语音情绪识别方法、语音情绪识别模型的训练方法的电子设备的框图。图8示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。

如图8所示,根据本公开实施例的计算机电子设备800包括处理器801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储部分808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。处理器801例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器801还可以包括用于缓存用途的板载存储器。处理器801可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。

在RAM 803中,存储有电子设备800操作所需的各种程序和数据。处理器801、ROM802以及RAM 803通过总线804彼此相连。处理器801通过执行ROM 802和/或RAM 803中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 802和RAM 803以外的一个或多个存储器中。处理器801也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。

根据本公开的实施例,电子设备800还可以包括输入/输出(I/O)接口805,输入/输出(I/O)接口805也连接至总线804。电子设备800还可以包括连接至I/O接口805的以下部件中的一项或多项:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至I/O接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。

根据本公开的实施例,根据本公开实施例的方法流程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读存储介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被处理器801执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。

本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。

根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质。例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。

例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 802和/或RAM 803和/或ROM 802和RAM 803以外的一个或多个存储器。

本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行本公开实施例所提供的方法的程序代码,当计算机程序产品在电子设备上运行时,该程序代码用于使电子设备实现本公开实施例所提供的语音情绪识别方法、语音情绪识别模型的训练方法。

在该计算机程序被处理器801执行时,执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。

在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分809被下载和安装,和/或从可拆卸介质811被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。

根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。

附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。

以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号