首页> 中国专利> 用户的交易风险识别方法、装置和服务器

用户的交易风险识别方法、装置和服务器

摘要

本说明书提供了用户的交易风险识别方法、装置和服务器。基于该方法,可以先获取待检测的目标用户的脸部视频数据,并基于该脸部视频数据提取出包含有按时间顺序排列的多个脸部图片的目标图片组;接着,可以调用预设的情绪识别模型处理该目标图片组,基于按时间顺序排列的多个脸部图片所表征出的情绪状态变化来计算出该目标用户的情绪状态参数;再调用预设的交易风险识别模型根据上述情绪状态参数,确定出该目标用户所参与的交易行为是否存在预设的交易风险。从而可以较为准确、高效地识别出当前参与的交易行为存在预设的交易风险的用户,以便能及时地对该类用户进行相应提醒,保护用户的交易安全。

著录项

  • 公开/公告号CN113139812A

    专利类型发明专利

  • 公开/公告日2021-07-20

    原文格式PDF

  • 申请/专利权人 中国工商银行股份有限公司;

    申请/专利号CN202110458053.8

  • 发明设计人 曾光;周新衡;罗伟;何彩英;

    申请日2021-04-27

  • 分类号G06Q20/40(20120101);G06Q40/04(20120101);

  • 代理机构11127 北京三友知识产权代理有限公司;

  • 代理人任默闻;王涛

  • 地址 100140 北京市西城区复兴门内大街55号

  • 入库时间 2023-06-19 11:54:11

说明书

技术领域

本说明书属于人工智能技术领域,尤其涉及用户的交易风险识别方法、装置和服务器。

背景技术

在银行的业务办理场景中,通常需要依赖银行的工作人员基于个人经验和知识储备,人工观察来办理业务的用户的神态表情,以判断该用户在办理涉及诸如转账、汇款等交易业务时,是否存在被欺诈等交易风险。如果确定该用户存在上述交易风险,工作人员会及时进行提醒和劝阻,以避免该用户的财产遭受损失。

但是,上述过程大多依赖工作人员个人经验和知识储备,容易受到工作人员个人主观因素的干扰和影响,导致可靠度往往较低,往往无法准确、高效地识别出存在交易风险的用户。

针对上述问题,目前尚未提出有效的解决方案。

发明内容

本说明书提供了一种用户的交易风险识别方法、装置和服务器,能够较为准确、高效地识别出所参与的交易行为存在预设的交易风险的用户,以便能及时地对该用户进行相应提醒,保护用户的交易安全。

本说明书提供了一种用户的交易风险识别方法,包括:

获取目标用户的脸部视频数据;

根据所述脸部视频数据,提取出目标图片组;其中,所述目标图片组包含有按时间顺序排列的多个脸部图片;

调用预设的情绪识别模型处理所述目标图片组,得到目标用户的情绪状态参数;其中,所述预设的情绪识别模型用于确定并基于按时间顺序排列的多个脸部图片所表征出的情绪状态变化来确定目标用户的情绪状态参数;

调用预设的交易风险识别模型处理所述目标用户的情绪状态参数,得到对应的目标处理结果;

根据所述目标处理结果,确定目标用户所参与的交易行为是否存在预设的交易风险。

在一个实施例中,所述预设的情绪识别模型至少包括:人脸面部动作单元识别模块、情绪状态参数计算模块,所述人脸面部动作单元识别与所述情绪状态参数计算模块相连;其中,所述人脸面部动作单元识别模块用于对目标图片组所包含的多个脸部图片中的各个脸部图片分别进行识别处理,以确定出各个脸部图片中各个人脸面部动作单元的动作特征;并根据所述各个脸部图片中各个人脸面部动作单元的动作特征,确定出各个脸部图片的情绪特征;所述情绪状态参数计算模块用于根据预设的处理规则,和各个脸部图片的情绪特征,计算出目标用户的情绪状态参数。

在一个实施例中,所述人脸面部动作单元包括以下至少之一:眼睛、嘴、眉毛。

在一个实施例中,所述情绪状态参数计算模块具体用于根据预设的处理规则,将多个脸部图片的情绪特征按时间顺序排列,得到对应的情绪特征列;基于时间参数,对所述情绪特征列进行积分处理,得到所述目标用户的情绪状态参数。

在一个实施例中,所述预设的情绪识别模型还包括:人脸定位模块;其中,所述人脸定位模块用于在脸部图片中定位并标注出包含有目标用户的人脸面部的目标图像区域;相应的,所述人脸面部动作单元识别模块用于对所述目标图像区域进行识别处理。

在一个实施例中,所述预设的交易风险包括:受欺诈风险。

在一个实施例中,在根据所述目标处理结果,确定目标用户所参与的交易行为存在预设的交易风险之后,所述方法还包括:

向目标用户展示相关的风险提示信息;并获取目标用户提供的关于所述交易行为的描述数据;

根据所述描述数据,确定是否中断目标用户所参与的交易行为。

在一个实施例中,在根据所述目标处理结果,确定目标用户所参与的交易行为不存在预设的交易风险的情况下,所述方法还包括:

间隔预设的时间段,重新获取目标用户的脸部视频数据。

在一个实施例中,所述预设的情绪识别模型按照以下方式获取:

获取样本图片组;其中,所述样本图片组包含有按时间顺序排列的多个样本人脸的面部图片;

根据预设的标注规则,对所述样本图片组中的样本人脸的面部图片进行相应标注,得到标注后的样本图片组;

利用标注后的样本图片组进行模型训练,以得到所述预设的情绪识别模型。

在一个实施例中,根据预设的标注规则,对所述样本图片组中的样本人脸的面部图片进行相应标注,得到标注后的样本图片组,包括:

根据预设的标注规则,在样本人脸的面部图片中确定并标注出人脸面部动作单元,以及人脸面部动作单元的动作特征;

根据预设的映射关系,基于人脸面部动作单元的动作特征,标注出人脸面部动作单元的情绪特征标签、样本人脸的面部图片的情绪状态标签、样本图片组的情绪状态标签,得到标注后的样本图片组。

在一个实施例中,所述预设的交易风险识别模型按照以下方式获取:

确定样本图片组的风险标签;

调用预设的情绪识别模型,处理所述样本图片组,以得到样本图片组的情绪状态参数;

将同一个样本图片组的风险标签和情绪状态参数组合,得到对应该样本图片组的风险训练数据组;

利用所述风险训练数据组进行模型训练,以得到预设的交易风险识别模型。

本说明还提供了一种用户的交易风险识别装置,包括:

获取模块,用于获取目标用户的脸部视频数据;

提取模块,用于根据所述脸部视频数据,提取出目标图片组;其中,所述目标图片组包含有按时间顺序排列的多个脸部图片;

第一调用模块,用于调用预设的情绪识别模型处理所述目标图片组,得到目标用户的情绪状态参数;其中,所述预设的情绪识别模型用于确定并基于按时间顺序排列的多个脸部图片所表征出的情绪状态变化来确定目标用户的情绪状态参数;

第二调用模块,用于调用预设的交易风险识别模型处理所述目标用户的情绪状态参数,得到对应的目标处理结果;

确定模块,用于根据所述目标处理结果,确定目标用户所参与的交易行为是否存在预设的交易风险。

本说明书还提供了一种服务器,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现用户的交易风险识别方法的相关步骤。

本说明书还提供了一种计算机可读存储介质,其上存储有计算机指令,所述指令被执行时实现用户的交易风险识别方法的相关步骤。

本说明书提供的一种用户的交易风险识别方法、装置和服务器,具体实施前,可以预先训练得到能够根据按时间顺序排列的多个脸部图片所表征出的情绪变化来计算用户的情绪状态参数的预设的情绪识别模型;同时还可以预先训练得到能够基于用户的情绪状态参数,预测用户所参与的交易行为是否存在交易风险的预设的交易风险识别模型;具体实施时,可以先获取待检测的目标用户的脸部视频数据,并基于该脸部视频数据提取出包含有按时间顺序排列的多个脸部图片的目标图片组;接着,可以调用预设的情绪识别模型处理目标图片组,计算出该目标用户的情绪状态参数;再调用预设的交易风险识别模型根据上述情绪状态参数,确定出该目标用户所参与的交易行为是否存在预设的交易风险。从而可以较为准确、高效地识别并发现当前所参与的交易行为存在预设的交易风险的用户,以便能及时地对该用户进行相应提醒,保护用户的交易安全。

附图说明

为了更清楚地说明本说明书实施例,下面将对实施例中所需要使用的附图作简单地介绍,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1是应用本说明书实施例提供的用户的交易风险识别方法的系统结构组成的一个实施例的示意图;

图2是本说明书的一个实施例提供的用户的交易风险识别方法的流程示意图;

图3是本说明书的一个实施例提供的服务器的结构组成示意图;

图4是本说明书的一个实施例提供的用户的交易风险识别装置的结构组成示意图图;

图5是在一个场景示例中,应用本说明书实施例提供的用户的交易风险识别方法的一种实施例的示意图;

图6是在一个场景示例中,应用本说明书实施例提供的用户的交易风险识别方法的一种实施例的示意图。

具体实施方式

为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书保护的范围。

本说明书实施例提供一种用户的交易风险识别方法,所述用户的交易风险识别方法具体可以应用于包含有服务器和终端设备的系统中。具体可以参阅图1所示,终端设备和服务器可以通过有线或无线的方式相连,以进行具体的数据交互。

在本实施例中,所述服务器具体可以包括一种应用于数据处理平台一侧,能够实现数据传输、数据处理等功能的后台服务器。具体的,所述服务器例如可以为一个具有数据运算、存储功能以及网络交互功能的电子设备。或者,所述服务器也可以为运行于该电子设备中,为数据处理、存储和网络交互提供支持的软件程序。在本实施例中,并不具体限定所述服务器所包含的服务器的数量。所述服务器具体可以为一个服务器,也可以为几个服务器,或者,由若干服务器形成的服务器集群。

在本实施例中,所述终端设备具体可以包括一种布设于交易业务办理区域(例如,银行的业务大厅等),且内置或外接有摄像头的,能够实现视频(或图像)数据采集、数据传输等功能的前端设备。具体的,所述终端设备例如可以为布设于银行等业务大厅中的监控器;也可以为负责为用户办理相关业务的工作人员所使用的设置有摄像头的智能手机、平板电脑等;还可以为设置有摄像头的自动业务办理设备(例如,ATM机)等等。

在本实施例中,当目标用户前往交易业务办理区域使用ATM机办理相关的交易业务(例如,转账业务)时,终端设备可以每隔预设的时间段(例如,3秒),定时采集该目标用户在办理业务时的脸部视频数据;并将该脸部视频数据通过有线或无线的方式发送至服务器。

相应的,服务器接收并获取目标用户的脸部视频数据。

首先,服务器可以对上述脸部视频数据进行解帧处理,以提取得到相应的目标图片组(或者称图片流)。其中,上述目标图片组中包含有按照时间顺序排列的多个脸部图片,每一个脸部图片具体又包含有目标用户在不同时间点的人脸面部图像。

接着,服务器可以将上述目标图片组输入至预设的情绪识别模型中,并运行该预设的情绪识别模型,以输出得到目标用户的情绪状态参数。其中,上述预设的情绪识别模型至少包含有脸面部动作单元识别模块、情绪状态参数计算模块等模型结构。并且,基于上述预设的情绪识别模型可以根据输入的目标图片组,基于按时间顺序排列的多个脸部图片所表征出的情绪状态变化,来计算出针对该目标用户的情绪状态参数。

进一步,服务器可以将上述目标用户的情绪状态参数输入至预设的交易风险识别模型中,并运行该预设的交易风险识别模型,以输出得到关于该目标用户当前所参与的交易行为是否存在预设的交易风险的概率值,作为目标处理结果。

进而,服务器可以根据上述目标处理结果,确定当前目标用户正在参与的交易行为是否存在预设的交易风险。例如,判断正在办理的转账业务的目标用户存在遭到欺诈的嫌疑。

在确定当前目标用户不存在预设的交易风险的情况下,服务器可以继续获取该目标用户的下一个预设的时间段的脸部视频数据,并重复上述过程继续对该目标用户所参与的交易行为是否存在预设的交易风险进行识别、判断。

在确定当前目标用户存在预设的交易风险的情况下,可以向交易业务办理区域中的工作人员发送提示信息,以便工作人员可以根据上述提示信息,提醒目标用户相关的交易风险。同时,工作人员也可以对该目标用户进行人工询问,获取更多信息,以进一步更加精准地判断该目标用户是否真的存在相关的交易风险。在确定该目标用户真的存在(或者有较大概率存在)相关的交易风险的情况下,工作人员可以针对该目标用户进行及时的劝阻,从而可以保护该目标用户的交易财产安全,避免目标用户遭受损失。

基于上述系统,服务器通过组合利用预设的情绪识别模型和预设的交易风险识别模型,可以较为准确、高效地识别出所参与的交易行为存在预设的交易风险的用户,进而能够及时地对该用户进行相应提醒,以保护用户的交易安全。

参阅图2所示,本说明书实施例提供了一种用户的交易风险识别方法。其中,该方法具体应用于服务器一侧。具体实施时,该方法可以包括以下内容。

S201:获取目标用户的脸部视频数据;

S202:根据所述脸部视频数据,提取出目标图片组;其中,所述目标图片组包含有按时间顺序排列的多个脸部图片;

S203:调用预设的情绪识别模型处理所述目标图片组,得到目标用户的情绪状态参数;其中,所述预设的情绪识别模型用于确定并基于按时间顺序排列的多个脸部图片所表征出的情绪状态变化来确定目标用户的情绪状态参数;

S204:调用预设的交易风险识别模型处理所述目标用户的情绪状态参数,得到对应的目标处理结果;

S205:根据所述目标处理结果,确定目标用户所参与的交易行为是否存在预设的交易风险。

通过上述实施例,服务器可以先利用预设的情绪识别模型基于按时间顺序排列的多个脸部图片所表征出的情绪状态变化,准确地计算出该目标用户的情绪状态参数;再利用预设的交易风险识别模型根据上述情绪状态参数,准确地判断出该目标用户所参与的交易行为是否存在预设的交易风险。从而可以较为准确、高效地识别出所参与的交易行为存在预设的交易风险的用户,以便能及时地对该类用户进行相应提醒。

在一些实施例中,上述目标用户具体可以是当前正在参与交易行为的用户,例如,当前正在银行的营业厅办理诸如转账、汇款等交易业务的用户。

在一些实施例中,可以通过终端设备每间隔预设的时间段(例如,5秒),采集该预设的时间段内目标用户的脸部视频数据,并将该目标用户的脸部视频数据通过网络发送至服务器。相应的,服务器可以接收并获取目标用户的脸部视频数据。

具体实施时,服务器也可以从终端设备所提供的一整段视频数据截取一段包含有目标用户的人脸面部图像的时频数据,作为上述目标用户的脸部视频数据。

在一些实施例中,服务器具体实施时,可以通过对目标用户的脸部视频数据进行解帧处理,以提取得到目标图片组。其中,上述目标图片组中具体可以包含有按时间顺序(例如,每个脸部图片所对应的时间点的先后顺序)排列的多个脸部图片。其中,所述多个脸部图片中的每一个脸部图片与采集时的时间点对应,每一个脸部图片可以包含有在所对应的时间点采集到的目标用户的人脸面部图像。

在一些实施例中,上述预设的情绪识别模型具体可以理解为一种预先训练好的,用于根据输入模型的多个脸部图片,确定并基于相应的情绪变化,输出用于描述用户的情绪状态情况的情绪状态参数。

在一些实施例中,上述预设的交易风险识别模型具体可以理解为一种预先训练好的,用于根据输入模型的情绪状态参数,输出表征该用户在进行当前交易行为时可能存在预设的交易风险的概率值。

在一些实施例中,所述预设的情绪识别模型至少包括:人脸面部动作单元识别模块、情绪状态参数计算模块等模型结构,所述人脸面部动作单元识别与所述情绪状态参数计算模块相连。其中,所述人脸面部动作单元识别模块可以用于对目标图片组所包含的多个脸部图片中的各个脸部图片分别进行识别处理,以确定出各个脸部图片中各个人脸面部动作单元的动作特征;并根据所述各个脸部图片中各个人脸面部动作单元的动作特征,确定出各个脸部图片的情绪特征。所述情绪状态参数计算模块可以用于根据预设的处理规则,和各个脸部图片的情绪特征,计算出目标用户的情绪状态参数。

通过上述实施例,通过预设的情绪识别模型可以组合利用人脸面部动作单元识别模块、情绪状态参数计算模块,先通过对各个脸部图片中的各个人脸面部动作单元进行动作特征的识别和提取,以得到针对单个脸部图片的情绪特征;再通过根据预设的处理规则,综合利用多个脸部图片的情绪特征,计算得到参考价值较高、效果较好的情绪状态参数。

在一些实施例中,上述人脸面部动作识别模块具体可以理解为一种基于微表情技术,预先训练好的卷积神经网络结构。

具体运行预设的情绪识别模型时,人脸面部动作单元识别模块会分别处理多个脸部图片中的各个脸部图片。

以人脸面部动作单元识别模块处理多个脸部图片中的当前脸部图片为例,首先,可以在当前脸部图片中确定出各个人脸面部动作单元;进而,可以提取当前脸部图片中各个人脸面部动作单元的动作特征;接着,可以基于预设的映射关系,根据各个人脸面部动作单元的动作特征,确定出各个人脸面部动作单元的情绪特征;然后,可以综合当前脸部图片中多个人脸面部动作单元的情绪特征,通过加权运算,来计算输出当前脸部图片的情绪状态参数。

在一些实施例中,所述人脸面部动作单元具体可以包括以下至少之一:眼睛、嘴、眉毛等。当然,上述所列举的人脸面部动作单元只是一种示意性说明。具体实施时,根据具体情况和处理需求,还可以引入诸如面颊、前额等其他的人脸面部动作单元。

上述人脸面部动作单元具体可以理解为基于微表情理论,在人脸面部上,所产生的动作与用户的情绪变化关联度较高的位置区域。

通过上述实施例,可以有针对性采集部分人脸面部动作单元的动作特征,来较为准确、高效地确定出用户的情绪状态参数。

在一些实施例中,对应不同的人脸面部动作单元,所采集得到的动作特征可以是不同的。具体的,对应眼睛,所采集得到的动作特征可以包括:闭合、半睁开、完全睁开等。对应眉毛,所采集得到动作特征可以包括:皱眉、舒展等。对于嘴,所采集得到的动作特征可以包括:嘴角上扬、嘴角下拉等。

具体实施时,可以根据预设的动作特征编码规则,对上述动作特征进行相应的编码处理,以得到与上述动作特征分别一一对应的数据值。例如,嘴角上扬对应的数据值为1001,皱眉对应的数据值为2002等等。这样,后续可以利用上述数据值来代替动作特征,进行具体的模型训练和模型运算。

在一些实施例中,上述情绪特征具体可以包括:愤怒、哀伤、平静、高兴等等。

具体实施时,也可以根据预设的情绪编码规则,对上述情绪特征进行相应的编码处理,以得到与上述情绪特征分别一一对应的数据值。例如,愤怒对应的数据值为0,哀伤对应的数据值为0.3,平静对应的数据值为0.5,高兴对应的数据值为0.7等。这样,后续可以利用上述数据值来代替情绪特征,进行具体的模型训练和模型运算。

需要补充的是,基于上述预设的情绪编码规则对情绪特征进行编码所得到的数据值为大于或等于0的数值,这样可以有效地减少后续训练得到模型在运行时出现误差。

在一些实施例中,需要补充的是,基于预设的映射关系,对于不同的人脸面部动作单元而言,动作特征与情绪特征的映射规则可以是不同的。

在进行加权运算来计算脸部图片的情绪状态参数时,对应不同人脸面部动作单元的权重值的设置也可以是不同的。例如,由于眉毛的情绪特征相对于嘴的情绪特征,可以更明显地反映出用户情绪状态,因此,在加权运算时,可以将眉毛的权重值设置为一个大于嘴的权重值的数值。从而可以得到相对较为精准的针对该脸部图片的情绪状态参数。

进一步的,还可以根据不同人脸面部动作单元的情绪特征,来为各个人脸面部动作单元配置相应的权重值。例如,基于解剖学,考虑到嘴部肌肉对表达喜悦等情绪时比眼睛部位部肌肉重要。因此,当某个脸部图片中嘴的情绪特征和眼睛的情绪特征接近于为高兴时,在加权运算时,可以将嘴的权重值设置得比眼睛的权重更大一些。从而可以得到相对更加精准的针对该脸部图片的情绪状态参数。

在一些实施例中,上述预设的处理规则具体可以是一种基于积分的计算规则。

在一些实施例中,所述情绪状态参数计算模块具体可以用于根据预设的处理规则,将多个脸部图片的情绪特征按时间顺序排列,得到对应的情绪特征列;再基于时间参数,对所述情绪特征列进行积分处理,得到所述目标用户的情绪状态参数。

基于上述实施例,根据预设的处理规则,沿时间轴,通过对按时间顺序排列的多个脸部图片的情绪特征进行基于时间点的积分处理,可以得到能够有效地反映出用户在该时间段内情绪变化的情绪状态参数。

在一些实施例中,上述基于时间参数,对所述情绪特征列进行积分处理,得到所述目标用户的情绪状态参数,具体实施时,可以包括以下内容:

X=∫xidt

其中,X为目标用户的情绪状态参数,xi为多个脸部图片中编号为i的脸部图片的情绪特征,t为时间。

在一些实施例中,上述预设的情绪识别模型进一步还可以包括:人脸定位模块;其中,所述人脸定位模块用于在脸部图片中定位并标注出包含有目标用户的人脸面部的目标图像区域;相应的,所述人脸面部动作单元识别模块用于对所述目标图像区域进行识别处理。

通过上述实施例,预设的情绪识别模型在具体运行时,可以先通过人脸定位模块在脸部图片中找出范围相对较小的只包含有目标用户的人脸面部的目标图像区域;进而通过人脸面部动作单元识别模块可以只对上述目标图像区域进行针对性的识别处理,而不需要对脸部图片所有的图像区域进行识别处理,从而可以在一定程度上降低模型的数据处理量,提高整体的数据处理效率。

在一些实施例中,所述预设的交易风险具体可以包括:受欺诈风险等。当然,具体实施时,根据具体的应用场景和处理需求,上述预设的交易风险还可以包括其他类型的风险。例如,目标用户当前参与的交易行为涉嫌洗钱或赌博等违规行为的风险。又例如,目标用户当前参与的交易行为存在被泄露个人隐私的风险等等。

通过上述实施例,可以将本说明书所提供的用户的交易风险识别方法拓展应用到多种应用场景中,以对多种不同类型的交易风险进行实时检测和识别。

在一些实施例中,在预设的交易风险包括受欺诈风险的情况下,在根据所述目标处理结果,确定目标用户所参与的交易行为存在预设的交易风险之后,所述方法具体实施时,还可以包括以下内容:向目标用户展示相关的风险提示信息;并获取目标用户提供的关于所述交易行为的描述数据;根据所述描述数据,确定是否中断目标用户所参与的交易行为。

通过上述实施例,在检测识别到目标用户当前参与的交易行为存在受欺诈风险的情况下,可以及时地对目标用户进行风险提示,从而可以有效地避免用户遭受欺诈,保护用户的交易安全,避免用户的财产遭受损失。

在一些实施例中,具体实施时,服务器在确定存在预设的交易风险之后,可以生成并向用户展示出第一交互界面。其中,所述第一交互界面展示有与预设的交易风险相关的风险提示信息,以提醒目标用户当前参与的交易行为可能存在风险。同时,服务器还可以生成并向目标用户展示出第二交互界面。其中,所述第二交互界面包含有描述数据输入框,并且在所述描述数据输入框的附近还展示引导用户使用文本语言在上述描述数据库内输入文字符合来描述当前所参与的交易行为(包括行为内容、行为原因等)。相应的,服务器可以通过第二交互界面采集获取目标用户提供的关于交易行为的描述数据。

进一步,服务器可以调用预选训练好的语义识别模型处理所述描述数据,得到对应的语义识别结果。并根据语义识别结果,进一步确认该目标用户当前参与的交易行为是否真的存在预设的交易风险。如果确认该目标用户当前参与的交易行为真的存在预设的交易风险,这时服务器可以通过通知附近的工作人员对目标用户进行相应的劝阻,或者通过中断用户当前进行交易行为时所依赖的终端设备的网络连接,中断目标用户当前所参与的交易行为,从而可以保护用户的交易安全。

在一些实施例中,在根据所述目标处理结果,确定目标用户所参与的交易行为不存在预设的交易风险的情况下,所述方法具体实施时,还可以包括:间隔预设的时间段,重新获取目标用户的脸部视频数据。

这样服务器可以触发采集下一个预设的时间段的目标用户的脸部视频数据,并根据下一个预设的时间段的目标用户的脸部视频数据,重复上述检测识别过程,以对目标用户所参与的交易行为是否存在预设的交易风险持续进行检测和识别。

在一些实施例中,在根据当前预设的时间段的目标处理结果,确定目标用户所参与的交易行为不存在预设的交易风险的情况下,所述方法还可以包括:获取基于当前预设的时间段的目标用户的脸部视频数据所得到的当前预设的时间段的情绪状态参数;同时,查询历史记录,获取上一个预设的时间段的情绪状态参数;根据当前预设的时间段的情绪状态参数和上一个预设的时间段的情绪状态参数,计算两个相邻的预设的时间段的情绪状态变化值;进而可以根据上述情绪状态变化值,确定目标用户所参与的交易行为是否存在预设的交易风险。从而可以更加精准地识别出预设的交易风险。

在一些实施例中,所述预设的情绪识别模型具体可以按照以下方式获取:

S1:获取样本图片组;其中,所述样本图片组包含有按时间顺序排列的多个样本人脸的面部图片;

S2:根据预设的标注规则,对所述样本图片组中的样本人脸的面部图片进行相应标注,得到标注后的样本图片组;

S3:利用标注后的样本图片组进行模型训练,以得到所述预设的情绪识别模型。

通过上述实施例,可以预先构建并训练得到效果较好、精度较高的预设的情绪识别模型。

在一些实施例中,可以先构建基于神经网络的第一初始模型;再利用上述标注后的样本图片组对上述第一初始模型进行监督学习,以得到预设的情绪识别模型。

在一些实施例中,在获取样本图片租后,可以将上述样本图片组划分为两个数据集,并对其中一个数据集进行标注,作为训练集;将另一个数据集作为测试集;进而可以利用上述训练集和测试集进行模型训练,以得到预设的情绪识别模型。

在一些实施例中,上述根据预设的标注规则,对所述样本图片组中的样本人脸的面部图片进行相应标注,得到标注后的样本图片组,具体实施时,可以包括以下内容:

S1:根据预设的标注规则,在样本人脸的面部图片中确定并标注出人脸面部动作单元,以及人脸面部动作单元的动作特征;

S2:根据预设的映射关系,基于人脸面部动作单元的动作特征,标注出人脸面部动作单元的情绪特征标签、样本人脸的面部图片的情绪状态标签、样本图片组的情绪状态标签,得到标注后的样本图片组。

通过上述实施例,可以根据预设的标注规则,标注得到训练效果相对较好的标注后的样本图片组,进而后续可以利用上述标注后的样本图片组训练得到精度较高的预设的情绪识别模型。

在一些实施例中,所述预设的交易风险识别模型具体可以按照以下方式获取:

S1:确定样本图片组的风险标签;

S2:调用预设的情绪识别模型,处理所述样本图片组,以得到样本图片组的情绪状态参数;

S3:将同一个样本图片组的风险标签和情绪状态参数组合,得到对应该样本图片组的风险训练数据组;

S4:利用所述风险训练数据组进行模型训练,以得到预设的交易风险识别模型。

通过上述实施例,可以预先构建并训练得到效果较好、精度较高的预设的交易风险识别模型。

在一些实施例中,具体实施时,可以先构建基于卷积神经网络的第二初始模型。在得到风险训练数据组后,可以将上述风险训练数据组划分两个数据组,分别记为训练组合验证组。具体训练时,可以先利用训练组,训练第二初始模型,得到训练后的第三模型。接着,可以将验证组输入至第三模型,以得到对应的验证结果数据;再利用ROC曲线对上述验证结果数据进行性能测试;根据性能测试结果,同时结合AUC值作为辅助,对第三模型的模型参数进行调整,得到符合要求的预设的交易风险识别模型。

由上可见,基于本说明书实施例提供的用户的交易风险识别方法,具体实施前,可以预先训练得到能够根据按时间顺序排列的多个脸部图片所表征出的情绪变化,来计算出用户的情绪状态参数的预设的情绪识别模型;同时还可以预先训练得到能够基于用户的情绪状态参数,预测用户所参与的交易行为是否存在交易风险的预设的交易风险识别模型;具体实施时,可以先获取待检测的目标用户的脸部视频数据,并基于该脸部视频数据提取出包含有按时间顺序排列的多个脸部图片的目标图片组;接着,可以调用预设的情绪识别模型处理目标图片组,计算出该目标用户的情绪状态参数;再调用预设的交易风险识别模型根据上述情绪状态参数,确定出该目标用户所参与的交易行为是否存在预设的交易风险。从而可以较为准确、高效地发现所参与的交易行为存在预设的交易风险的用户,以便能及时地对该用户进行相应提醒,以保护用户的交易安全。

本说明书实施例还提供一种服务器,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器具体实施时可以根据指令执行以下步骤:获取目标用户的脸部视频数据;根据所述脸部视频数据,提取出目标图片组;其中,所述目标图片组包含有按时间顺序排列的多个脸部图片;调用预设的情绪识别模型处理所述目标图片组,得到目标用户的情绪状态参数;其中,所述预设的情绪识别模型用于确定并基于按时间顺序排列的多个脸部图片所表征出的情绪状态变化来确定目标用户的情绪状态参数;调用预设的交易风险识别模型处理所述目标用户的情绪状态参数,得到对应的目标处理结果;根据所述目标处理结果,确定目标用户所参与的交易行为是否存在预设的交易风险。

为了能够更加准确地完成上述指令,参阅图3所示,本说明书实施例还提供了另一种具体的服务器,其中,所述服务器包括网络通信端口301、处理器302以及存储器303,上述结构通过内部线缆相连,以便各个结构可以进行具体的数据交互。

其中,所述网络通信端口301,具体可以用于获取目标用户的脸部视频数据。

所述处理器302,具体可以用于根据所述脸部视频数据,提取出目标图片组;其中,所述目标图片组包含有按时间顺序排列的多个脸部图片;调用预设的情绪识别模型处理所述目标图片组,得到目标用户的情绪状态参数;其中,所述预设的情绪识别模型用于确定并基于按时间顺序排列的多个脸部图片所表征出的情绪状态变化来确定目标用户的情绪状态参数;调用预设的交易风险识别模型处理所述目标用户的情绪状态参数,得到对应的目标处理结果;根据所述目标处理结果,确定目标用户所参与的交易行为是否存在预设的交易风险。

所述存储器303,具体可以用于存储相应的指令程序。

在本实施例中,所述网络通信端口301可以是与不同的通信协议进行绑定,从而可以发送或接收不同数据的虚拟端口。例如,所述网络通信端口可以是负责进行web数据通信的端口,也可以是负责进行FTP数据通信的端口,还可以是负责进行邮件数据通信的端口。此外,所述网络通信端口还可以是实体的通信接口或者通信芯片。例如,其可以为无线移动网络通信芯片,如GSM、CDMA等;其还可以为Wifi芯片;其还可以为蓝牙芯片。

在本实施例中,所述处理器302可以按任何适当的方式实现。例如,处理器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式等等。本说明书并不作限定。

在本实施例中,所述存储器303可以包括多个层次,在数字系统中,只要能保存二进制数据的都可以是存储器;在集成电路中,一个没有实物形式的具有存储功能的电路也叫存储器,如RAM、FIFO等;在系统中,具有实物形式的存储设备也叫存储器,如内存条、TF卡等。

本说明书实施例还提供了一种基于上述用户的交易风险识别方法的计算机存储介质,所述计算机存储介质存储有计算机程序指令,在所述计算机程序指令被执行时实现:获取目标用户的脸部视频数据;根据所述脸部视频数据,提取出目标图片组;其中,所述目标图片组包含有按时间顺序排列的多个脸部图片;调用预设的情绪识别模型处理所述目标图片组,得到目标用户的情绪状态参数;其中,所述预设的情绪识别模型用于确定并基于按时间顺序排列的多个脸部图片所表征出的情绪状态变化来确定目标用户的情绪状态参数;调用预设的交易风险识别模型处理所述目标用户的情绪状态参数,得到对应的目标处理结果;根据所述目标处理结果,确定目标用户所参与的交易行为是否存在预设的交易风险。

在本实施例中,上述存储介质包括但不限于随机存取存储器(Random AccessMemory,RAM)、只读存储器(Read-Only Memory,ROM)、缓存(Cache)、硬盘(Hard DiskDrive,HDD)或者存储卡(Memory Card)。所述存储器可以用于存储计算机程序指令。网络通信单元可以是依照通信协议规定的标准设置的,用于进行网络连接通信的接口。

在本实施例中,该计算机存储介质存储的程序指令具体实现的功能和效果,可以与其它实施方式对照解释,在此不再赘述。

参阅图4所示,在软件层面上,本说明书实施例还提供了一种用户的交易风险识别装置,该装置具体可以包括以下的结构模块:

获取模块401,具体可以用于获取目标用户的脸部视频数据;

提取模块402,具体可以用于根据所述脸部视频数据,提取出目标图片组;其中,所述目标图片组包含有按时间顺序排列的多个脸部图片;

第一调用模块403,具体可以用于调用预设的情绪识别模型处理所述目标图片组,得到目标用户的情绪状态参数;其中,所述预设的情绪识别模型用于确定并基于按时间顺序排列的多个脸部图片所表征出的情绪状态变化来确定目标用户的情绪状态参数;

第二调用模块404,具体可以用于调用预设的交易风险识别模型处理所述目标用户的情绪状态参数,得到对应的目标处理结果;

确定模块405,具体可以用于根据所述目标处理结果,确定目标用户所参与的交易行为是否存在预设的交易风险。

需要说明的是,上述实施例阐明的单元、装置或模块等,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本说明书时可以把各模块的功能在同一个或多个软件和/或硬件中实现,也可以将实现同一功能的模块由多个子模块或子单元的组合实现等。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。

由上可见,基于本说明书实施例提供的用户的交易风险识别装置,可以较为准确、高效地发现所参与的交易行为存在预设的交易风险的用户,以便能及时地对该用户进行相应提醒,以保护用户的交易安全。

在一个具体场景示例中,可以应用本说明书提供的用户的交易风险识别方法构建一种基于情绪识别的防欺诈柜面系统,以在线检测判断在银行柜台办理业务的客户是否存在被欺诈的嫌疑。具体实施过程,可以参阅以下内容。

具体的,可以参阅图5所示,柜面利用摄像头获取客户实时面部视频(例如,脸部视频数据),按照一定的时间间隔(例如,间隔预设的时间段)将视频发送到服务器。例如,可以设置为每过3s就将录制好的视频发送到服务器进行后续的情绪分析。

服务器接受到发送的视频后,对视频进行解帧操作,再将每一帧的图片输入到客户受欺诈风险指数模型(相当于预设的情绪识别模型和预设的交易风险识别模型的组合)中先进行情绪识别;然后基于情绪识别结果,计算出该客户被欺诈风险指数(例如,存在预设的交易风险的概率值)。

柜员界面可以将计算好客户被欺诈风险指数实时显示,如果指数超过一定阀值(例如,70%)时,则要求柜员暂停交易,与客户进行沟通,了解客户进行交易的原因以及是否类似原因发起的历史交易。

如果确认客户的交易是正常的,则柜员可以协助客户继续完成交易。否则,需要终止本次交易,并将本次交易情况进行登记。

所使用的客户受欺诈风险指数模型中包括:视频解压处理模块、情绪动态识别模块(例如,预设的情绪识别模型)、客户受欺诈风险指数计算模块(例如,预设的交易风险识别模型)。

运行模型,模型可以将视频进行解帧,得到视频对应的照片流(例如,包含有按顺序排列的多个脸部图片的目标图片组)。再使用情绪动态识别模块中的人脸识别定位模型,定位出图片中的人脸位置。接着可以具体使用情绪动态识别模块中的面部动作单元识别模型,识别得到人脸的面部单元动作序列,得出人脸的情绪状态值。最后再使用情绪动态识别模块中的积分公式计算出该视频的情绪状态值(例如,情绪状态参数)。

所述人脸识别定位模型具体可以为使用OpenCV(一个封装好的计算机视觉的函数库)对获取到的面部表情视频的每一帧图片进行人脸区域锁定,具体可以采取包括诸如人脸截取、标定以及缩放图片等操作。

所述人脸面部动作单元识别模块具体可以为利用基于微表情识别技术通过预训练的卷积神经网络提取出图片序列中每张图片的特征,得到一系列的特征序列;然后将这些特征序列输入到循环神经网络中,则可以分析出图片序列中的特征变化,从而识别出每一时刻人脸的面部动作单元组合。通过利用微表情识别技术训练的面部动作单元识别模型,可检测连续的人脸表情,识别其中存在的情绪转变(得到人脸图片的情绪特征)。

上述情绪动态识别模块的训练,具体可以分为数据准备、模型训练两个阶段。

其中,上述数据准备,包括:根据人体解剖学原理,将人脸划分为不同的面部动作单元所组成对应的面部动作单元组合,作为该图像的标签,将人脸图片和对应的面部动作单元组合作为数据输入到模型中进行训练。

训练模型,包括:将获取的带标签的面部动作单元数据集分为训练集和验证集;然后将训练集的面部图片和对应的面部动作单元集合输入到初始模型中,对初始模型的数据进行训练,不断调整参数,获得准确率和效率都比较高的识别模型;再将验证集的数据输入到已训练好的识别模型中,对识别出的面部单元集合与验证集的标签数据进行对比和验证,如果识别模型准确率满足要求,那么该识别模型可以作为面部动作单元识别模型使用,如果准确率不满足要求,那么则继续调整参数训练。

所述计算人脸的情绪状态值为根据不同面部动作单元状态设置不同的情绪值。根据实验表明,人脸的不同部位具有不同的表情作用。其中,眼睛对表达忧伤最重要,嘴对表达快乐和厌恶最重要,而前额能提供惊奇的信号,眼睛、嘴和前额对表达愤怒情绪很重要。此外,还有实验表明,嘴部肌肉对表达喜悦、怨恨等情绪比眼睛部位的肌肉重要,而眼睛部位肌肉对表达忧愁、惊骇等情绪则比嘴部肌肉重要。当人们表达真正的微笑时,面颊上升,堆起眼周围的肌肉;当人们假笑时,仅是嘴唇的肌肉活动,下颚下垂。

对面部单元动作数据进行训练得到不同面部的具体情绪值,得到具体情绪后按照一定的规则进行加权值计算,将计算出的受欺诈风险数值与该面部情绪对应的标签进行对比,不断调整参数,获得准确率比较高的情绪识别模型。

其中,面部的单元的表现状态(动作特征)和标签数值(情绪特征)具体可以参阅表1所示。

表1

具体计算该视频的情绪状态值时,可以将视频的每一帧面部情绪值使用如下公式进行积分计算,计算出该视频情绪状态值计算模块:

X=∫xidt

其中,X为客户的情绪状态(例如,客户的情绪状态值),xi为第i帧图片对应的待计算情绪值(情绪特征),t为时间。

将客户的情绪状态输入到客户受欺诈风险指数计算模块,得出该客户疑似被欺诈的可能性(0-100%)。具体训练客户受欺诈风险指数计算模块的过程可以包括:数据准备和模型训练,模型验证三个阶段。

数据准备:使用历史保存的客户视频作为数据源进行训练,将视频对应的客户人脸情绪状态值和该客户是否被欺诈标签作为带标签的训练数据,可以参阅表2所示。将数据集按照划分为训练集、验证集、测试集。

表2

模型训练:将本次模型采用卷积神经网络模型进行训练,用客户人脸情绪状态值作为输入到模型进行训练,使用监督机器学习的方法进行训练,本次模型采用卷积神经网络模型进行训练,在此过程中不断调整参数,获得准确率比较高的情绪识别模型。

模型验证:将验证集的数据输入训练得到的情绪识别模型,使用ROC曲线将得到的结果进行性能测试,由于ROC曲线本身不易于量化模型效果,因此加入AUC值辅助量化。AUC值表示ROC曲线下面积,一般在0.5至1间,0.5为随机分类,1为完全分类。当AUC值接近1时,模型效果最好。即ROC曲线下面积最靠近1时,模型效果最优。

基于上述思路,所构建并应用的基于情绪识别的防欺诈柜面系统,参阅图6所示,包括:柜面摄像头,服务器,柜面系统。

柜面摄像头为视频录制的实现模块,在柜面窗口使用摄像头录制客户在接受柜员服务时的视频,并将视频传输给服务器。服务器包括两个情绪识别模块,客户受欺诈风险指数计算模块。柜面系统为当客户的受诈骗风险指数超过与设定的阀值时,在银行柜面系统界面上弹出提示框,要求柜员需对客户的操作目的进行了解,并提供客户的历史操作记录,判断该客户是否为疑受骗客户。

通过上述场景示例,利用上述基于情绪识别的防欺诈柜面系统,可以自动检测客户在接受服务过程中的异常行为,实时监测客户的脸部表情变化,对动态监测客户的情绪转变,使用智能识别替代人工进行识别,能够有效识别疑似受骗客户,有效减少诈骗事件的发生。具体的,通过基于情绪识别获取客户的被欺诈风险指数,统一识别疑似受欺诈客户的标准,能够提高银行工作人员对受骗客户的识别正确率,减少客户的经济损失,提高银行的服务质量,获取客户的信任。通过基于情绪识别的防欺诈柜面系统,可以实时监测客户的异常行为,不会出现遗漏监测客户异常行为的情况,使用一段时间内客户的情绪动态监测,能够更加全面科学的监测客户的情绪。通过基于人工智能技术,将减少银行的人力培训成本,即使是刚开始工作的工作人员也可以根据提示与客户进行有效的沟通,提高识别受骗客户的识别准确率。

虽然本说明书提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的手段可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或客户端产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境,甚至为分布式数据处理环境)。术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、产品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、产品或者设备所固有的要素。在没有更多限制的情况下,并不排除在包括所述要素的过程、方法、产品或者设备中还存在另外的相同或等同要素。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。

本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内部包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。

本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构、类等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。

通过以上的实施例的描述可知,本领域的技术人员可以清楚地了解到本说明书可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本说明书的技术方案本质上可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,移动终端,服务器,或者网络设备等)执行本说明书各个实施例或者实施例的某些部分所述的方法。

本说明书中的各个实施例采用递进的方式描述,各个实施例之间相同或相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。本说明书可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。

虽然通过实施例描绘了本说明书,本领域普通技术人员知道,本说明书有许多变形和变化而不脱离本说明书的精神,希望所附的权利要求包括这些变形和变化而不脱离本说明书的精神。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号