首页> 中国专利> 基于联邦学习的客户端贡献计算方法和装置

基于联邦学习的客户端贡献计算方法和装置

摘要

本申请适用于区块链、激励机制技术领域,提供一种基于联邦学习的客户端贡献计算方法和装置,方法包括:获取联邦学习模型训练过程中若干客户端执行模型训练后回传的迭代模型,迭代模型为客户端使用本地数据进行一轮模型训练后获得的模型;根据若干客户端执行模型训练后回传的迭代模型,分别计算出各客户端当前训练轮次对应的贡献值并记录于训练记录表中,训练记录表中包含有联邦学习模型训练过程中各客户端每一训练轮次对应的贡献值;从训练记录表中获取所有属于目标客户端的贡献值并进行求和处理,以生成目标客户端在此次联邦学习模型训练过程中的总贡献值。通过上述方法可以减少计算开销和通信开销。

著录项

  • 公开/公告号CN112926897A

    专利类型发明专利

  • 公开/公告日2021-06-08

    原文格式PDF

  • 申请/专利权人 平安科技(深圳)有限公司;

    申请/专利号CN202110387863.9

  • 发明设计人 李泽远;王健宗;

    申请日2021-04-12

  • 分类号G06Q10/06(20120101);G06N20/20(20190101);

  • 代理机构44414 深圳中一联合知识产权代理有限公司;

  • 代理人姚泽鑫

  • 地址 518000 广东省深圳市福田区福田街道福安社区益田路5033号平安金融中心23楼

  • 入库时间 2023-06-19 11:19:16

说明书

技术领域

本申请涉及区块链、激励机制技术领域,尤其涉及一种基于联邦学习的客户端贡献计算方法和装置,还涉及用于执行该基于联邦学习的客户端贡献计算方法的电子设备及存储介质。

背景技术

联邦学习是一种全新的分布式人工智能网络架构体系,是指通过联合多个不同的参与者进行机器学习的方法,主要用于解决当节点之间原始数据不可共享时,如何在保证安全性的条件下高性能地利用各节点独立的数据训练出高性能人工智能模型的问题,具有广阔的应用前景。然而,在利用联邦学习架构进行模型训练时,模型的训练精度与训练数据量之间的关系为非线性的,需要考量模型的复杂性和数据质量,难以预测,因而使得各参与者的贡献难以准确地评估。而且,由于每个参与者所使用的训练数据是由参与者自身根据其本地环境和使用模式收集的,即数据时不平衡的和非独立同分布的,不同的参与者之间,本地数据集的大小和分布存在较大的差异。现有的联邦学习方法通常采用Shapley值(SV)来公平地评估各参与者的贡献,发明人发现,采用该方法计算各参与者的贡献时,尤其在使用深层神经网络,以及参与用户增多的时候,需要较大的计算开销和通信开销,资源耗费大,耗时长。

发明内容

有鉴于此,本申请实施例提供了一种基于联邦学习的客户端贡献计算方法和装置,以及用于执行该基于联邦学习的客户端贡献计算方法的电子设备及存储介质,可以有效节省计算开销和通信开销。

本申请实施例的第一方面提供了一种基于联邦学习的客户端贡献计算方法,包括:

获取联邦学习模型训练过程中若干客户端执行模型训练后回传的迭代模型,所述迭代模型为客户端使用本地数据进行一轮模型训练后获得的模型;

根据所述若干客户端执行模型训练后回传的迭代模型,分别计算出各客户端当前训练轮次对应的贡献值并记录于训练记录表中,所述训练记录表中包含有联邦学习模型训练过程中各客户端每一训练轮次对应的贡献值;

从所述训练记录表中提取所有属于目标客户端的贡献值并进行求和处理,以生成所述目标客户端在此次联邦学习模型训练过程中的总贡献值。

结合第一方面,在第一方面的第一种可能实现方式中,根据所述若干客户端执行模型训练后回传的迭代模型,分别计算出各客户端当前训练轮次对应的贡献值的步骤,包括:

将所述若干客户端执行模型训练后回传的迭代模型聚合更新到联邦学习模型中获得第一全局模型,计算出所述第一全局模型的性能分值;

通过排除目标客户端的迭代模型,将其余各客户端的迭代模型聚合更新到联邦学习模型中获得第二全局模型,计算出所述第二全局模型的性能分值;

将所述第一全局模型的性能分值与所述第二全局模型的性能分值进行比较,获得所述客户端当前训练轮次对应的贡献值,所述目标客户端为所述若干客户端中的任一客户端。

结合第一方面的第一种可能实现方式,在第一方面的第二种可能实现方式中,将所述第一全局模型的性能分值与所述第二全局模型的性能分值进行比较,获得所述客户端当前训练轮次对应的贡献值的步骤中,客户端当前训练轮次对应的贡献值由以下关系式进行推算获得:

其中,

结合第一方面的第二种可能实现方式,在第一方面的第三种可能实现方式中,从所述训练记录表中提取所有属于目标客户端的贡献值并进行求和处理,以生成所述目标客户端在此次联邦学习模型训练过程中的总贡献值的步骤中,目标客户端在此次联邦学习模型训练过程中的总贡献值由以下关系式进行推算获得:

其中,

结合第一方面,在第一方面的第四种可能实现方式中,获取联邦学习模型训练过程中若干客户端执行模型训练后回传的迭代模型的步骤,包括:

获取联邦学习模型训练任务,所述训练任务中包含有初始化训练模型以及任务配置参数;

将所述初始化训练模型下发至若干客户端中分别进行训练,使所述若干客户端执行模型训练后回传迭代模型,其中,所述若干客户端的选择和数量根据所述任务配置参数设定。

结合第一方面的第四种可能实现方式,在第一方面的第五种可能实现方式中,将所述初始化训练模型下发至若干客户端中分别进行训练,使所述若干客户端执行模型训练后回传迭代模型的步骤,还包括:

触发所述若干客户端各自识别自身在当前训练轮次执行模型训练时所使用的计算数据量信息以及基站分配信道的带宽和传输功率信息;

在使所述若干客户端执行模型训练后回传迭代模型时,将识别到的客户端自身在当前训练轮次执行模型训练时所使用的计算数据量信息以及基站分配信道的带宽和传输功率信息一并进行回传。

结合第一方面的第五种可能实现方式,在第一方面的第六种可能实现方式中,在使所述若干客户端执行模型训练后回传迭代模型时,将识别到的客户端自身在当前训练轮次执行模型训练时所使用的计算数据量信息以及基站分配信道的带宽和传输功率信息一并进行回传的步骤之后,包括:

根据各客户端回传的计算数据量信息以及基站分配信道的带宽和传输功率信息计算所述各客户端当前训练轮次的计算开销。

本申请实施例的第二方面提供了一种基于联邦学习的客户端贡献计算装置,所述基于联邦学习的客户端贡献计算装置包括:

获取模块,用于获取联邦学习模型训练过程中若干客户端执行模型训练后回传的迭代模型,所述迭代模型为客户端使用本地数据进行一轮模型训练后获得的模型;

计算模块,用于根据所述若干客户端执行模型训练后回传的迭代模型,分别计算出各客户端当前训练轮次对应的贡献值并记录于训练记录表中,所述训练记录表中包含有联邦学习模型训练过程中各客户端每一训练轮次对应的贡献值;

生成模块,用于从所述训练记录表中提取所有属于目标客户端的贡献值并进行求和处理,以生成所述目标客户端在此次联邦学习模型训练过程中的总贡献值。

本申请实施例的第三方面提供了一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在电子设备上运行的计算机程序,所述处理器执行所述计算机程序时实现第一方面提供的基于联邦学习的客户端贡献计算方法的各步骤。

本申请实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现第一方面提供的基于联邦学习的客户端贡献计算方法的各步骤。

本申请实施例提供的一种基于联邦学习的客户端贡献计算方法、装置、电子设备及存储介质,具有以下有益效果:

本申请所述方法通过获取联邦学习模型训练过程中若干客户端执行模型训练后回传的迭代模型,迭代模型为客户端使用本地数据进行一轮模型训练后获得的模型;根据若干客户端执行模型训练后回传的迭代模型,分别计算出各客户端当前训练轮次对应的贡献值并记录于训练记录表中,训练记录表中包含有联邦学习模型训练过程中各客户端每一训练轮次对应的贡献值;从训练记录表中获取所有属于目标客户端的贡献值并进行求和处理,以生成目标客户端在此次联邦学习模型训练过程中的总贡献值。该方法通过在服务器端、在每一轮训练结束后评估每一个客户端的逐步贡献并记录,使得计算在服务器端完成,无需通信开销。而且,根据若干客户端执行模型训练后回传的迭代模型利用不同的参数聚合得到不同的全局模型评分,从而分别计算出各客户端当前训练轮次对应的贡献值,此过程无需额外进行多轮“下发模型,排除特定客户端,其余各客户端进行训练”的过程,只要求服务器端进行多轮不同的聚合评分操作,节省了额外训练部分的通信与计算开销。

附图说明

为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1为本申请第一实施例提供的一种基于联邦学习的客户端贡献计算方法的实现流程图;

图2为本申请实施例提供的基于联邦学习的客户端贡献计算方法中计算客户端每一训练轮次对应的贡献值时的一种方法流程示意图;

图3为本申请实施例提供的基于联邦学习的客户端贡献计算方法中获取客户端回传的迭代模型时的一种方法流程示意图;

图4为本申请实施例提供的基于联邦学习的客户端贡献计算方法中获取客户端回传的迭代模型时的另一种方法流程示意图;

图5为本申请实施例提供的一种基于联邦学习的客户端贡献计算装置的基本结构框图;

图6为本申请实施例提供的一种电子设备的基本结构框图。

具体实施方式

为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。

本申请应用在基于联邦学习的模型训练中,联邦学习包含有一个服务器端和多个客户端。在本申请实施例中,客户端通过传感器生成用于进行机器学习模型训练的数据,通过接收器从服务器端接收机器学习模型并对该接收到的机器学习模型进行存储,通过学习器执行模型训练,如使用从传感器获得的数据更新机器学习模型,然后将更新后的机器学习模型上传到服务器端。服务器端则通过从所有客户端获取到更新的机器学习模型后,通过其内置的聚合器将从各个客户端获取到的更新的机器学习模型进行模型聚合来获得全局模型,以及通过其内置的评估器比较采用客户端更新后的机器学习模型之前和之后的全局模型来评估该客户端对应的贡献。

请参阅图1,图1为本申请第一实施例提供的一种基于联邦学习的客户端贡献计算方法的实现流程图。详述如下:

步骤S11:获取联邦学习模型训练过程中若干客户端执行模型训练后回传的迭代模型,所述迭代模型为客户端使用本地数据进行一轮模型训练后获得的模型。

本实施例中,服务器端通过发布训练任务的方式向预定数量个(即若干个)客户端下发初始化模型。接收到初始化模型的各个客户端则使用自己本地的数据对该初始化模型进行一轮模型训练,得到各自在训练后的迭代模型。进而各客户端将其对初始化模型进行模型训练后得到的迭代模型回传至服务器端。由此,服务器端每下发一次初始化模型到各客户端,各客户端都会执行一轮模型训练并将训练得到的迭代模型回传至服务器端,从而使服务器端实现获取联邦学习模型训练过程中若干客户端执行模型训练后回传的迭代模型。迭代模型即为客户端使用本地数据进行一轮模型训练后获得的模型。

步骤S12:根据所述若干客户端执行模型训练后回传的迭代模型,分别计算出各客户端当前训练轮次对应的贡献值并记录于训练记录表中,所述训练记录表中包含有联邦学习模型训练过程中各客户端每一训练轮次对应的贡献值。

本实施例中,当每一轮训练结束,服务器端获取到各客户端回传的迭代模型后,通过排除一个目标客户端,聚合其余客户端回传的迭代模型进行模型更新,得到全局模型,然后通过将排除目标客户端之前和之后分别得到的两个全局模型的性能评分进行比较,从而计算出该目标客户端当前训练轮次对应的贡献值。在本实施例中,服务器端对各客户端回传的迭代模型进行聚合来得到全局模型时,采用Fedavg算法,即计算各客户端训练后的模型数据

具体地,在本实施例中,根据服务器端获取到各客户端回传的迭代模型,可以通过依次排除一个客户端回传的迭代模型,采用其余客户端的迭代模型进行模型聚合与更新,得到多种不同参数聚合的全局模型,基于不同参数聚合的全局模型的模型评分计算出该训练轮次中各客户端的贡献值。联邦学习模型训练过程通常包含有多轮训练,在本实施例中,每一轮次训练结束后,服务器端计算获得的各客户端当前训练轮次对应的贡献值都会记录在一训练记录表,以便于后续计算客户端贡献时提取记录数据。训练记录表中包含有联邦学习模型训练过程中各客户端每一训练轮次对应的贡献值。

步骤S13:从所述训练记录表中提取所有属于目标客户端的贡献值并进行求和处理,以生成所述目标客户端在此次联邦学习模型训练过程中的总贡献值。

本实施例中,当计算一个客户端在整个联邦学习模型训练过程中所作出的贡献时,以该客户端为目标客户端,从训练记录表中提取出属于该目标客户端的每一训练轮次对应的贡献值,然后将该目标客户端每一训练轮次对应的贡献值进行求和处理,生成一个总贡献值,该总贡献值即为该目标客户端在此次联邦学习模型训练过程中的总贡献值。

以上可以看出,本实施例提供的基于联邦学习的客户端贡献计算方法通过在服务器端、在每一轮训练结束后评估每一个客户端的逐步贡献并记录,使得计算在服务器端完成,无需通信开销。而且,根据若干客户端执行模型训练后回传的迭代模型利用不同的参数聚合得到不同的全局模型,然后基于不同参数聚合的全局模型的模型评分,分别计算出各客户端当前训练轮次对应的贡献值,此过程无需额外进行多轮“下发模型,排除特定客户端,其余各客户端进行训练”的过程,只要求服务器端进行多轮不同的聚合评分操作,节省了额外训练部分的通信与计算开销。

本申请的一些实施例中,请参阅图2,图2为本申请实施例提供的基于联邦学习的客户端贡献计算方法中计算客户端每一训练轮次对应的贡献值时的一种方法流程示意图。详细如下:

步骤S21:将所述若干客户端执行模型训练后回传的迭代模型聚合更新到联邦学习模型中获得第一全局模型,并计算出所述第一全局模型的性能分值;

步骤S22:通过排除目标客户端的迭代模型,将其余各客户端的迭代模型聚合更新到联邦学习模型中获得第二全局模型,并计算出所述第二全局模型的性能分值;

步骤S23:将所述第一全局模型的性能分值与所述第二全局模型的性能分值进行比较,获得所述客户端当前训练轮次对应的贡献值,所述目标客户端为所述若干客户端中的任一客户端。

本实施例中,第一全局模型为采用了当前训练轮次中所有客户端回传的迭代模型进行聚合更新得到的全局模型,然后,通过验证全局模型的准确性或损失来计算得出该第一全局模型的性能分值。第二全局模型为采用了除目标客户端以外的其余客户端的迭代模型进行聚合更新得到的全局模型,同样,通过验证全局模型的准确性或损失来计算得出该第二全局模型的性能分值。当获得第一全局模型的性能分值和第二全局模型的性能分值后,通过将第一全局模型的性能分值与第二全局模型的性能分值进行比较,从而获得目标客户端当前训练轮次对应的贡献值,其中,目标客户端为当前训练轮次中使用的若干客户端中的任一客户端。

示例性的,各客户端当前训练轮次对应的贡献值由以下关系式进行推算获得:

其中,

在本实施例中,C是一组描述客户端的索引,令C=1,2,…c。

本申请的一些实施例中,由于本地计算资源性能、通信代价等因素存在差异,用于执行模型训练的客户端可以划分为以下两种:高消耗客户端和低消耗客户端,其中,高消耗客户端的本地计算资源性能较差、通信代价较高。在本实施例中,通过上述将客户端每一个训练轮次对应计算得到的贡献值进行相加汇总的方式获得客户端总贡献值的方式适用于高消耗客户端的贡献计算。针对于低消耗客户端,可以不需要计算每一个训练轮次的贡献值来获得总贡献值,可以进行轻量级的贡献计算,其计算总贡献值时可以由以下关系式进行推算获得:

其中,

在上述关系式中,使用的度量定义为包括目标客户端i每轮的增益之和,其中,关系式中分母用于归一化,评估目标客户端i训练的模型在每一轮中改进全局模型的程度,并将逐步贡献的总和视为该目标客户端i的总贡献。上述关系式表征为:聚合排除目标客户端i与否对模型训练产生的影响/总体排除特定客户端对模型训练产生的影响。

在本申请的一些实施例中,请参阅图3,图3为本申请实施例提供的基于联邦学习的客户端贡献计算方法中获取客户端回传的迭代模型时的一种方法流程示意图。详细如下:

步骤S31:获取联邦学习模型训练任务,所述训练任务中包含有初始化训练模型以及任务配置参数;

步骤S32:将所述初始化训练模型下发至若干客户端中分别进行训练,使所述若干客户端执行模型训练后回传迭代模型,其中,所述若干客户端的选择和数量根据所述任务配置参数设定。

在本实施例中,由服务器端发起用户需求的联邦学习模型训练任务,在发起训练任务时,训练任务中包含有初始化训练模型以及任务配置参数。其中,初始化训练模型中配置有基础参数信息,如数据格式,层数,单元数,损失函数,学习率和激活函数等。任务配置参数包括此次训练任务的申请期限,开始时间以及训练时将会选择的客户端数量等参数。由此,在开始时间之后,服务器端可以根据根据规定好的训练时将会选择的客户端数量将初始化训练模型下发至固定数量的客户端中分别进行训练。在本实施例中,客户端的选择可以遵循多种选择方案,例如,在愿意参与的客户端集合内随机选择,或者,依据一定的规则如排除多次训练贡献都低于阈值的客户端等,而且,可以实现每一训练轮次选择的客户端不相同。进而,使得接收到初始化训练模型客户端使用自己本地的数据对该初始化训练模型进行训练,获得训练后的迭代模型并将该迭代模型回传给服务器端。由此实现服务器端可以获取到联邦学习模型训练过程中若干客户端执行模型训练后回传的迭代模型。

本申请的一些实施例中,请参阅图4,图4为本申请实施例提供的基于联邦学习的客户端贡献计算方法中获取客户端回传的迭代模型时的另一种方法流程示意图。详细如下:

步骤S41:触发所述若干客户端各自识别自身在当前训练轮次执行模型训练时所使用的计算数据量信息以及基站分配信道的带宽和传输功率信息;

步骤S42:在使所述若干客户端执行模型训练后回传迭代模型时,将识别到的客户端自身在当前训练轮次执行模型训练时所使用的计算数据量信息以及基站分配信道的带宽和传输功率信息一并进行回传。

在本实施例中,在使若干客户端执行模型训练后回传迭代模型时,还可以触发客户端识别自身在当前训练轮次执行模型训练时所使用的计算数据量信息以及基站分配信道的带宽和传输功率信息,进而,在使所述若干客户端执行模型训练后回传迭代模型时,将识别到的客户端自身在当前训练轮次执行模型训练时所使用的计算数据量信息以及基站分配信道的带宽和传输功率信息一并进行回传。在本实施例中,回传的计算数据量信息以及基站分配信道的带宽和传输功率信息用于实现服务器端对每一训练轮次各客户端消耗资源的计算。

本申请的一些实施例中,当服务器端获得各客户端回传的计算数据量信息以及基站分配信道的带宽和传输功率信息后,可以在服务器端,根据各客户端回传的计算数据量信息以及基站分配信道的带宽和传输功率信息核算客户端贡献计算过程的计算开销。在本实施例中,示例性的,假设r

本申请的一些实施例中,请参阅图5,图5为本申请实施例提供的一种基于联邦学习的客户端贡献计算装置的基本结构框图。本实施例中该装置包括的各单元用于执行上述方法实施例中的各步骤。具体请参阅上述方法实施例中的相关描述。为了便于说明,仅示出了与本实施例相关的部分。如图5所示,基于联邦学习的客户端贡献计算装置包括:获取模块51、计算模块52以及生成模块53。其中:所述获取模块51用于获取联邦学习模型训练过程中若干客户端执行模型训练后回传的迭代模型,所述迭代模型为客户端使用本地数据进行一轮模型训练后获得的模型。所述计算模块52用于根据所述若干客户端执行模型训练后回传的迭代模型,分别计算出各客户端当前训练轮次对应的贡献值并记录于训练记录表中,所述训练记录表中包含有联邦学习模型训练过程中各客户端每一训练轮次对应的贡献值。所述生成模块53用于从所述训练记录表中提取所有属于目标客户端的贡献值并进行求和处理,以生成所述目标客户端在此次联邦学习模型训练过程中的总贡献值。

应当理解的是,上述基于联邦学习的客户端贡献计算装置,与上述的基于联邦学习的客户端贡献计算方法一一对应,此处不再赘述。

本申请的一些实施例中,请参阅图6,图6为本申请实施例提供的一种电子设备的基本结构框图。如图6所示,该实施例的电子设备6包括:处理器61、存储器62以及存储在所述存储器62中并可在所述处理器61上运行的计算机程序63,例如基于联邦学习的客户端贡献计算方法的程序。处理器61执行所述计算机程序63时实现上述各个基于联邦学习的客户端贡献计算方法各实施例中的步骤。或者,所述处理器61执行所述计算机程序63时实现上述基于联邦学习的客户端贡献计算装置对应的实施例中各模块的功能。具体请参阅实施例中的相关描述,此处不赘述。

示例性的,所述计算机程序63可以被分割成一个或多个模块(单元),所述一个或者多个模块被存储在所述存储器62中,并由所述处理器61执行,以完成本申请。所述一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序63在所述电子设备6中的执行过程。例如,所述计算机程序63可以被分割成获取模块、处理模块和执行模块,各模块具体功能如上所述。

所述转台设备可包括,但不仅限于,处理器61、存储器62。本领域技术人员可以理解,图6仅仅是电子设备6的示例,并不构成对电子设备6的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述转台设备还可以包括输入输出设备、网络接入设备、总线等。

所称处理器61可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。

所述存储器62可以是所述电子设备6的内部存储单元,例如电子设备6的硬盘或内存。所述存储器62也可以是所述电子设备6的外部存储设备,例如所述电子设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器62还可以既包括所述电子设备6的内部存储单元也包括外部存储设备。所述存储器62用于存储所述计算机程序以及所述转台设备所需的其他程序和数据。所述存储器62还可以用于暂时地存储已经输出或者将要输出的数据。

需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。

本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。在本实施例中,所述计算机可读存储介质可以是非易失性,也可以是易失性。

本申请实施例提供了一种计算机程序产品,当计算机程序产品在移动终端上运行时,使得移动终端执行时实现可实现上述各个方法实施例中的步骤。

所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。

所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。

在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。

以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号