首页> 中国专利> 基于知识联邦的数据安全交换方法、装置及存储介质

基于知识联邦的数据安全交换方法、装置及存储介质

摘要

本发明提供一种基于知识联邦的数据安全交换方法、装置及存储介质,包括循环执行如下步骤直至达到预设的停止条件:参与端利用预先处理后的训练数据训练参与端模型得到模型数据;参与端获取模型数据中各个参数的贡献值,针对贡献值排在K位后的参数生成掩码进行掩盖;获取贡献值排在K位以前的参数的索引,对索引和相对应的梯度数据组合形成参与端聚合数据;联邦服务端接收各个参与端聚合数据,通过索引对所有参与端聚合数据中的梯度进行聚合处理得到服务端聚合数据,将服务端聚合数据发送至各个参与端;各个参与端根据服务端聚合数据以及参与端聚合数据进行本地聚合,得到最终聚合数据;各个参与端利用得到的最终聚合数据更新相应的参与端模型。

著录项

  • 公开/公告号CN112560088A

    专利类型发明专利

  • 公开/公告日2021-03-26

    原文格式PDF

  • 申请/专利权人 同盾控股有限公司;

    申请/专利号CN202011443118.3

  • 发明设计人 韦达;孟丹;李宏宇;李晓林;

    申请日2020-12-11

  • 分类号G06F21/62(20130101);

  • 代理机构11541 北京知果之信知识产权代理有限公司;

  • 代理人卜荣丽;李志刚

  • 地址 311121 浙江省杭州市余杭区五常街道文一西路998号18幢704室

  • 入库时间 2023-06-19 10:24:22

说明书

技术领域

本发明涉及数据处理技术,尤其涉及一种基于知识联邦的数据安全交换方法、装置及存储介质。

背景技术

随着中华人民共和国个人信息保护发草案的开始公开征求意见,企业对于信息安全的保护越来越严格。以往各个企业之间直接进行数据交换;获取数据并进行大数据应用的方法越来越受到限制,数据在法规的限制下形成了一个个″孤岛″。

在这样的情况下,企业之间越来越多地通过MPC、联邦学习等方法展开数据交流,在保证安全的前提下,合法地获取更多的数据来提升模型的性能。然而将各种加密方案添加到在数据交换的过程中,虽然保护了个人信息的安全的同时,却也大大增加了通信和计算的压力。往往加密后的数据量是源数据的百倍以上。训练一个相同的模型,加密计算的模型往往需要之前十几倍的时间和硬件资源。其对于算力、内存、带宽和电量的巨大需求,为企业带来了沉重的负担。

当前,为了保证模型效果稳定和信息交流的安全,使得各个参与端之间需要交换的数据量较大,数据处理效率较低且各种成本增高。

发明内容

本发明实施例提供一种基于知识联邦的数据安全交换方法、装置及存储介质,降低了各个参与端数据交换时传输的数据量,使得数据处理效率提高且降低了各项成本。

本发明实施例的第一方面,提供一种基于知识联邦的数据安全交换方法,包括循环执行如下步骤直至达到预设的停止条件:

参与端利用预先处理后的训练数据训练参与端模型得到模型数据;

参与端获取模型数据中各个参数的贡献值,针对贡献值排在K位后的参数生成掩码进行掩盖;获取贡献值排在K位以前的参数的索引,对所述索引和相对应的梯度数据组合形成参与端聚合数据;

联邦服务端接收各个参与端聚合数据,并利用索引对所有参与端聚合数据中的梯度进行聚合处理得到服务端聚合数据,将所述服务端聚合数据发送至各个参与端;

各个参与端根据所述服务端聚合数据以及参与端聚合数据进行本地聚合,得到最终聚合数据;

各个参与端利用得到的最终聚合数据更新相应的参与端模型。

可选地,在第一方面的一种可能实现方式中,将贡献值排在K以后的参数生成掩码包括根据如下公式计算K的取值:

K=Sm%

其中S为参数总个数,m%为模型超参数需要传输的百分比。

可选地,在第一方面的一种可能实现方式中,所述联邦服务端接收各个参与端聚合数据后包括:

联邦服务端接收各个参与端聚合数据后对所有参与端的索引进行聚合得到聚合索引,再将所有参与端的梯度根据聚合索引进行聚合处理得到服务端聚合数据。

可选地,在第一方面的一种可能实现方式中,所述对所有参与端的索引聚合每隔至少两个循环执行一次。

可选地,在第一方面的一种可能实现方式中,所述将所有参与端的梯度根据聚合索引进行聚合处理包括:将所有参与端的梯度根据聚合索引进行平均聚合处理。

可选地,在第一方面的一种可能实现方式中,各个参与端根据所述服务端聚合数据以及参与端聚合数据进行本地聚合包括:

查询该参与端的参与端聚合数据和所述服务端聚合数据的索引,并根据查询结果进行如下操作:

针对在参与端聚合数据和服务端聚合数据中均查询到的索引,将服务端聚合数据中该索引对应的梯度值作为新的梯度值;

针对仅在服务端聚合数据中查询到的索引,对服务端聚合数据中该索引对应的梯度值进行非线性处理得到新的梯度值;

针对在参与端聚合数据和服务端聚合数据中均未查询到的索引,维持梯度值不变。

可选地,在第一方面的一种可能实现方式中,所述对服务端聚合数据中该索引对应的梯度值进行非线性处理得到新的梯度值基于如下公式计算:

其中,G为该索引对应的新的梯度值,G

可选地,在第一方面的一种可能实现方式中,在参与端利用预先处理后的训练数据训练参与端模型得到模型数据前,包括:联邦服务端初始化模型将模型分别发送至一个或多个参与端;参与端对训练数据进行对齐处理,初始化模型基于对齐处理后的训练数据进行本地训练得到模型数据。

本发明实施例的第二装置,提供一种基于知识联邦的数据安全交换装置,包括以下模块循环执行直至达到预设的停止条件:

参与端训练模块,用于参与端利用预先处理后的训练数据训练参与端模型得到模型数据,或用于利用最终聚合数据中更新参与端模型;

参与端聚合模块,用于参与端获取模型数据中各个参数的贡献值,针对贡献值排在K位后的参数生成掩码进行掩盖;获取贡献值排在K位以前的参数的索引,对所述索引和相对应的梯度数据组合形成参与端聚合数据;

联邦聚合模块,用于联邦服务端接收各个参与端聚合数据,并利用索引对所有参与端聚合数据中的梯度进行聚合处理得到服务端聚合数据,将所述服务端聚合数据发送至各个参与端;

最终聚合模块,各个参与端根据所述服务端聚合数据以及参与端聚合数据进行本地聚合,得到最终聚合数据。

本发明实施例的第三方面,提供一种可读存储介质,所述可读存储介质中存储有计算机程序,所述计算机程序被处理器执行时用于实现本发明第一方面及第一方面各种可能设计的所述方法。

本发明提供的一种基于知识联邦的数据安全交换方法、装置及存储介质,具有以下优点:

(1)基于知识联邦的数据安全交换,在各个参与端进行数据传输前首先动态生成最佳增益梯度的掩码,从而形成一套只传输最佳增益梯度数据的方法,既保证了数据传输的有效性、质量,又降低了数据的传输量,使得数据处理效率提高且降低了各项成本。

(2)联邦服务端对不同参与端提供的交换数据,使用非线性的聚合方案,使得在保护任意一个参与端模型稳定性的情况下,又能够使该参与端模型学习其他参与端的模型增益信息。

(3)本方法使得各个参与端模型在训练过程中,既能够降低带宽和内存开销,又能够保持模型性能的稳定。

附图说明

图1为基于知识联邦的数据安全交换方法的第一种实施方式的流程图;

图2为基于知识联邦的数据安全交换方法的第二种实施方式的流程图;

图3为基于知识联邦的数据安全交换装置的第一种实施方式的结构图。

具体实施方式

为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

本发明的说明书和权利要求书及上述附图中的术语″第一″、″第二″、″第三″″第四″等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。

应当理解,在本发明的各种实施例中,各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。

应当理解,在本发明中,″包括″和″具有″以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。

应当理解,在本发明中,″多个″是指两个或两个以上。″和/或″仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符″/″一般表示前后关联对象是一种″或″的关系。″包含A、B和C″、″包含A、B、C″是指A、B、C三者都包含,″包含A、B或C″是指包含A、B、C三者之一,″包含A、B和/或C″是指包含A、B、C三者中任1个或任2个或3个。

应当理解,在本发明中,″与A对应的B″、″与A相对应的B″、″A与B相对应″或者″B与A相对应″,表示B与A相关联,根据A可以确定B。根据A确定B并不意味着仅仅根据A确定B,还可以根据A和/或其他信息确定B。A与B的匹配,是A与B的相似度大于或等于预设的阈值。

取决于语境,如在此所使用的″若″可以被解释成为″在......时″或″当......时″或″响应于确定″或″响应于检测″。

下面以具体地实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。

本发明的实施例一提供一种基于知识联邦的数据安全交换方法,适用于包括多个需要进行数据交互的端之间,如图1所示,例如说假定存在两个参与端,即参与端A和参与端B通过联邦数据部分交换方法进行联邦训练,Coordinator(C)端可以是第三方(本发明中的联邦服务端)或者是参加的任意一方。在这三方当中,C端仅提供非线性聚合的功能。在参与端A、参与端B以及联邦服务端C三方之间传输的均为脱敏数据,参与端A、参与端B当中存在其各自所有的敏感数据。

本发明提出一种基于掩码的基于知识联邦的数据安全交换方法。在训练多方模型的情况下,根据不同的模型的特性,本方法中动态的会生成不同的掩码,即各个参与端每次传输以及不传输的数据不同。具体地,该掩码与模型的各部分的重要性相关联,模型各部分重要性的变化而变化。因此,该方法能够对需要交换的数据进行动态调整,保证每次多方模型之间的数据交换能够得到最大的增益。同时,针对不同参与端(即参与端)所交换的数据的重要性和模型组成部分不同的问题,该方法提出了相对应的数据聚合方案,能够对来自多方的不同部分的数据进行聚合,在保证本方数据的对于本方模型增益较大的前提下,使得来自其他方的数据对本方数据产生有效增益。

本发明主要分为四个阶段:1.数据准备阶段 2.模型本地训练阶段 3.模型增益计算阶段 4.模型聚合阶段

第一个阶段是数据准备阶段。该阶段将数据根据联邦的需求进行数据预处理。

数据预处理包括:数据清洗、特征处理,在特征处理过程中包括相似特征的合并,以及去除不重要或者贡献值较低的特征。

对于横向基于知识联邦的数据安全交换:不同的参与端将模型的特征维度加密后进行对齐。为了得到更好的训练效果,对齐后还去掉一部分对模型贡献较小甚至没有贡献的特征维度。

对于纵向基于知识联邦的数据安全交换:不同的参与端将数据的id进行加密后做比较,将相同的id记录下来后,对于那些数据进行对齐,得到了相同数量更多特征维度的对齐数据。进一步,还对对齐好的特征维度进行删减,去掉一部分对模型贡献较小甚至没有贡献的特征维度以达到更好的训练效果。

第二阶段是模型的本地训练阶段,该阶段如正常的模型训练阶段相同。该阶段将使用Coordinator初始化好的模型针对各个参与端的数据进行本地训练。对于深度学习模型来说,就是模型进行一次前向传播和后向传播。

第三阶段是模型的数据传输阶段。该阶段根据第二阶段的模型训练结果,进行模型增益的计算。设该模型的贡献度计算方法为梯度G和权重W的乘积,那么通过该方法对模型的所有参数(或节点)计算贡献度。之后通过模型超参数m%,得到相对应的K值。从而针对不需要被传输的参数(或节点)生成掩码(M),并针对需要传输的数据生成参与端聚合数据。

第四阶段是模型聚合阶段。该阶段又分为三个步骤:a)索引聚合;b)C端聚合;c)各参与端本地聚合。

a)索引聚合的主要目的是将各个参与端所传输的不同的内容的索引进行聚合,保证后续聚合的有序和高效。

b)C端聚合是在C端根据索引聚合的结果,将各参与端传输过来的内容进行平均聚合(即模型的同个参数或节点的梯度传输到C端时,对齐根据上传的个数进行平均操作)。

c)各参与端本地聚合是将C端聚合后的梯度,根据本地信息再次进行聚合,避免了其他参与端对于某些参数(或节点)的过高增益导致本地节点对某些参数或节点产生过度形变的问题。

G

对以上的第二阶段和第四阶段b)c)进行重复,对模型进行部分传输的数据安全交换。同时在一定的时间间隔时,进行第三阶段和第四阶段a),动态更新模型的掩码。使得整体模型的训练能够高效且低损耗。

在一实施例中,如图2所示,本发明的基于知识联邦的数据安全交换方法包括如下步骤:

S10、参与端利用预先处理后的训练数据训练参与端模型得到模型数据。

在一个实施方式中,初始模型可以由联邦服务端基于种子和随机数的方式初始化得到,然后发送给各个参与端,此时,训练的过程从联邦服务端开始初始化模型。

在另一个实施例中,初始模型还可以由参与端在本地基于种子(随机数)和随机表的形式生成。在跨样本基于知识联邦的数据安全交换中,为保证各个参与端的模型初始模型一致,各个参与端的种子和随机表应该相同。

参与端基于接收到的对齐信息对训练数据对齐处理,将处理后的训练数据进行模型训练得到模型数据,包括:

本实施例中由联邦服务端生成初始模型,联邦服务端初始化模型和维度信息将模型分别发送至一个或多个参与端。联邦服务端将初始化模型发送给参与端A和参与端B。

参与端接收所述维度信息对训练数据进行对齐处理,初始化模型基于所述训练数据进行本地训练。参与端A和参与端B基于维度信息对训练数据进行对齐处理,降低交互时的数据量,然后基于训练数据进行模型训练。

重复参与端获取模型数据中各个参数的贡献值步骤至参与端接收服务端聚合数据后再次对参与端的模型进行训练预设轮次。经过上述预设轮次的重复计算、训练的,将各参与端新的拥有最佳贡献的参数(或节点)与其他参与端进行聚合并吸收其他参与端高增益的参数(或节点)的信息。经过多轮的训练、聚合后,最终得到了完全学习本地模型,并且吸收了其他参与端增益的基于知识联邦的数据安全交换模型。

在一个可能的实施方式中,在步骤S10前,还包括对训练数据预先处理的以下步骤:

S01、参与端对本地训练数据加密,然后对加密后的数据进行横向对齐,横向数据对齐时,对于各个参与端的特征维度都是相对应的。例如:参与端A当中特征维度是:″甲,乙,丙,丁″。那么参与端B当中的特征维度也要是:″甲,乙,丙,丁″。对于特征维度来说,参与端A,B当中必须完全相同,且顺序一模一样。如果A当中特征维度是:″甲,乙,丙,丁,戊″。B当中特征维度是:″甲,乙,丙,丁″,则此时在A和B中在对训练数据进行对齐处理后的训练数据分别为″甲,乙,丙,丁″,删除了戊,戊为模型贡献较小甚至没有贡献的特征维度。

通过进行横向对齐,能够去掉一部分对模型贡献较小甚至没有贡献的特征维度,一方面能够达到更好的训练效果,另一方面,能够降低了数据交互的大小,进而提高数据的传输效率。

在一个可能的实施方式中,在步骤S10中,还包括以下步骤:

S02、参与端对数据加密,然后对加密后的数据进行纵向对齐。纵向数据对齐时,各个参与端的数据id都是相对应的。通过加密的方式将A和B的数据样本id进行相互匹配。例如:参与端A的数据样本id为a,b,c,d,参与端B的数据样本id为c,d,e,f。将双方的数据样本id进行加密后得到a1,b1,c1,d1和c1,d1,e1,f1。那么我们就能够得到匹配的数据样本c1和d1。最终将对齐后的数据入模训练,其中参与端A中的a1,b1、参与端B中的e1,f1则认为是贡献较小甚至没有贡献的特征维度。

不同的参与端将数据的id进行加密后做比较,将相同的id记录下来后,对于那些数据进行对齐,得到了相同数量更多特征维度的对齐数据。然后对对齐好的特征维度进行删减,去掉一部分对模型贡献较小甚至没有贡献的特征维度以达到更好的训练效果,降低了数据交互的大小,进而提高数据的传输效率。

S20、参与端获取模型数据中各个参数的贡献值,针对贡献值排在K位后的参数生成掩码进行掩盖;获取贡献值排在K位以前的参数的索引,对所述索引和相对应的梯度数据组合形成参与端聚合数据。在本步骤中,参与端计算各个参数的贡献值,并且基于贡献值对参数进行排序,将献值排在K位后的参数生成掩码,得到贡献值排在K位以前的参数的索引,通过以上方式完成数据的分离、数据的分流,在数据传输时只传输贡献值排在K位以前的参数的索引至联邦服务端。

本实施了中K可以根据需求设定也可以计算得到。在一个可能的实施方式中,K基于如下公式计算:

K=Sm%

其中S为参数总个数,m%为模型超参数。

在一个可能的实施方式中,获取模型数据中各个参数的贡献值包括:

获取模型中各个参数的梯度G和权重W,基于如下公式分别计算各个参数的贡献值,

B=|GW|

其中B为贡献值。

基于参数的贡献值将全部参数由高至低依次排序,将贡献值排在K以后的参数生成掩码M。

在一个实施例中,假设初始化的模型是(x

S30、联邦服务端接收各个参与端聚合数据,并利用索引对所有参与端聚合数据中的梯度进行聚合处理得到服务端聚合数据,将所述服务端聚合数据发送至各个参与端。

在步骤S30中,首先将所有参与端的索引进行聚合得到聚合索引,然后将所有参与端的梯度根据聚合索引平均聚合处理得到服务端聚合数据。

在步骤S30中,将所有参与端的梯度根据聚合索引平均聚合处理得到服务端聚合数据包括:

根据如下公式计算各个参数的服务端聚合数据:

其中,t为参数,n为所有参与端(方)相对于参数t的梯度值的总个数,G

需要说明的是,本实施根据聚合索引平均聚合处理得到服务端聚合数据时可以权重聚合、平均聚合等,可以根据应用场景进行调整,在此不进行一一列举。

在本步骤的实施例中,首先将参与端A和参与端B需要进行索引聚合得到的聚合索引为「0:2,1:0,2:1,3:1」,根据聚合索引对模型梯度进行聚合得到服务端聚合数据「0:1.5,2:1,3:-2」。再将聚合后的服务端聚合数据、梯度反传给参与端A和参与端B。

S40、各个参与端根据所述服务端聚合数据以及参与端聚合数据进行本地聚合,得到最终聚合数据。

在本步骤的实施例中,在参与端A和参与端B当中对联邦服务器聚合后的服务端聚合数据进行非线性处理,参与端A得到本地聚合后的最终聚合数据为(1.5,-1,0.366,-2),参与端B得到本地聚合后的最终聚合数据为(1.5,-2,1,-0.119)。

所述各个参与端根据所述服务端聚合数据以及参与端聚合数据进行本地聚合包括:

查询该参与端的参与端聚合数据和所述服务端聚合数据的索引,并根据查询结果进行如下操作:

针对在参与端聚合数据和服务端聚合数据中均查询到的索引,将服务端聚合数据中该索引对应的梯度值作为新的梯度值。例如,模型数据中具有参数(W,X,Y,Z),参与端聚合数据中索引对应的参数为(X,Y,Z),参与端聚合数据中各个参数的梯度为(X

针对仅在服务端聚合数据中查询到的索引,对服务端聚合数据中该索引对应的梯度值进行非线性处理得到新的梯度值。

在对服务端聚合数据中该索引对应的梯度值进行非线性处理得到新的梯度值基于如下公式计算:

其中,G为该索引对应的新的梯度值,G

例如,模型数据中具有参数(W,X,Y,Z),参与端聚合数据中索引对的参数为(X,Y,Z),参与端聚合数据中各个参数的梯度为(X

针对在参与端聚合数据和服务端聚合数据中均未查询到的索引,维持梯度值不变。此时例如,模型数据中具有参数(W,X,Y,Z),参与端聚合数据中索引对的参数为(X,Y,Z),参与端聚合数据中各个参数的梯度为(X

本实施例中在联邦服务端对多个参与端参数的梯度平均聚合,本地对未参与平均聚合的参数进行非线性处理更新梯度,然后在本地将平均聚合的梯度更新结果与本地未参与平均聚合的参数进行非线性处理更新梯度进行非线性聚合,两次聚合相互配合能够最大限度的均衡每次交换数据对各个参与端的增益影响。

步骤S50、各个参与端利用得到的最终聚合数据更新相应的参与端模型,参与端更新模型后再次对参与端的模型进行训练,直至达到预设的停止条件。

所述停止条件为达到设定的迭代次数或者模型收敛。

本实施例经过上述预设轮次的重复计算、训练的,将各参与端新的拥有最佳贡献的参数(或节点)与其他参与端进行聚合并吸收其他参与端高增益的参数(或节点)的信息。经过多轮的训练、聚合后,最终得到了完全学习本地模型,并且吸收了其他参与端增益的基于知识联邦的数据安全交换模型。

在一个实施例中,在所有参与端的索引进行索引聚合的过程中,每个参与端的索引聚合每隔至少两个循环执行一次。索引聚合的频次取决于本发明步骤S10至步骤S40整体的循环次数,但索引聚合的频次并不与循环次数相同步。例如说,本发明的预设停止条件为步骤S10至步骤S40循环100次,那么优选的,索引聚合为步骤S10至步骤S40循环达到5~10次时每个参与端做一次索引聚合,采用此种方式,在保障在每次循环中联邦服务端能够生成服务端聚合数据,又能够降低各个参与端聚合的频次,降低了参与端处的计算量,提高参与端的处理效率。

本发明的实施例二提供一种基于知识联邦的数据安全交换装置,如图3所示,包括以下模块循环执行直至达到预设的停止条件:

参与端训练模块,用于参与端利用预先处理后的训练数据训练参与端模型得到模型数据,或最终聚合数据更新参与端模型;

参与端聚合模块,用于参与端获取模型数据中各个参数的贡献值,针对贡献值排在K位后的参数生成掩码进行掩盖;获取贡献值排在K位以前的参数的索引,对所述索引和相对应的梯度数据组合形成参与端聚合数据;

联邦聚合模块,用于联邦服务端接收各个参与端聚合数据,并利用索引对所有参与端聚合数据中的梯度进行聚合处理得到服务端聚合数据,将所述服务端聚合数据发送至各个参与端;

最终聚合模块,用于各个参与端根据所述服务端聚合数据以及参与端聚合数据进行本地聚合,得到最终聚合数据。

本发明的实施例三提供一种可读存储介质,所述可读存储介质中存储有计算机程序,所述计算机程序被处理器执行时用于实现所述基于知识联邦的数据安全交换的方法。

其中,可读存储介质可以是计算机存储介质,也可以是通信介质。通信介质包括便于从一个地方向另一个地方传送计算机程序的任何介质。计算机存储介质可以是通用或专用计算机能够存取的任何可用介质。例如,可读存储介质耦合至处理器,从而使处理器能够从该可读存储介质读取信息,且可向该可读存储介质写入信息。当然,可读存储介质也可以是处理器的组成部分。处理器和可读存储介质可以位于专用集成电路(ApplicationSpecific Integrated Circuits,简称:ASIC)中。另外,该ASIC可以位于用户设备中。当然,处理器和可读存储介质也可以作为分立组件存在于通信设备中。可读存储介质可以是只读存储器(ROM)、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。

本发明还提供一种程序产品,该程序产品包括执行指令,该执行指令存储在可读存储介质中。设备的至少一个处理器可以从可读存储介质读取该执行指令,至少一个处理器执行该执行指令使得设备实施上述的各种实施方式提供的方法。

在上述终端或者服务器的实施例中,应理解,处理器可以是中央处理单元(英文:Central Processing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:Digital Signal Processor,简称:DSP)、专用集成电路(英文:Application SpecificIntegrated Circuit,简称:ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。

最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号