首页> 中国专利> 基于夏普利值的联邦学习移动设备分布数据处理方法

基于夏普利值的联邦学习移动设备分布数据处理方法

摘要

一种基于夏普利值的联邦学习移动设备分布数据处理方法,将多个移动设备构建联邦学习集群,在联邦学习的每一轮中,中心节点应用Monte‑Carlo采样方法估计各个联邦学习移动设备当前的联邦夏普利值,并将其在全局模型参数相对于初始参数的变化方向上的投影作为其对模型的重要性与贡献度,并基于联邦夏普利值选择联邦学习移动设备参与本轮的模型训练能够有效加快模型收敛速度,提升模型最终的精度。本发明能够衡量各个移动终端的数据集对模型训练过程的影响,从而在每轮选择高贡献度的设备参与训练,减少数据通信开销,加快收敛速度,提升模型表现。

著录项

  • 公开/公告号CN114912626A

    专利类型发明专利

  • 公开/公告日2022-08-16

    原文格式PDF

  • 申请/专利权人 上海交通大学;

    申请/专利号CN202210436896.2

  • 发明设计人 郑臻哲;公辰;吴帆;陈贵海;

    申请日2022-04-15

  • 分类号G06N20/00(2019.01);G06K9/62(2022.01);

  • 代理机构上海交达专利事务所 31201;上海交达专利事务所 31201;

  • 代理人王毓理;王锡麟

  • 地址 200240 上海市闵行区东川路800号

  • 入库时间 2023-06-19 16:23:50

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2022-09-02

    实质审查的生效 IPC(主分类):G06N20/00 专利申请号:2022104368962 申请日:20220415

    实质审查的生效

说明书

技术领域

本发明涉及的是一种分布式数据处理领域的技术,具体是一种基于联邦学习(Federated Learning)和夏普利值(Shapley Value)的移动设备分布数据处理方法。

背景技术

随着移动网络的不断发展,不同网络层的设备实时产生的数据量越来越大,格式越来越复杂,需要人工智能模型来自动地管理整个网络。传统的模型训练方法要求一个中心服务器从各个移动设备采集数据,然后集中式地训练模型。但是,传输大量数据会带来高昂的通信开销,并且上传用户数据会侵犯移动设备的隐私。

联邦学习框架作为一种分布式的机器学习方法被提出来解决上述问题,在每轮训练中,移动设备上传模型更新而非用户数据,在减小通信开销的同时避免了客户私密数据的泄露。受到中心服务器通信带宽和计算资源的限制,在每一轮的联邦学习过程中,仅有部分移动设备能够被中心服务器选中参与到模型的训练过程,极大地限制了每次模型更新所涉及的训练数据量,从而降低了模型的收敛速度和最终性能。

许多工作证明了不同训练数据样本对于模型训练的重要程度也是不同的,仅挑选部分重要的样本参与训练能够在减少训练时长的同时保证模型的最终精度。已有一些工作提出了集中式学习场景下的训练数据选择方法,包括基于LOO(Leave-one-out)的方法,基于影响函数 (Influence Function)的方法和基于数据夏普利值(Data Shapley)的方法。相比于前两种方法,以夏普利值作为选择的标准具有三条令人满意的性质:有效性(Efficiency)、对称性(Symmetry) 和可加性(Additivity),所以被广泛地认为是最公平合理的选择方法。

发明内容

本发明针对现有移动设备的算力资源和模型表现无直接关联、没有考虑移动设备的数据特点和当前中心节点的模型,仅凭借算力选择移动设备,无法从理论上加快模型收敛、提升模型精度的缺陷,提出一种基于夏普利值的联邦学习移动设备分布数据处理方法,将夏普利值更为合理地应用于联邦学习来解决移动设备的选择问题;提出联邦夏普利值的估计方法来避免指数次的模型重复训练,并结合传统的Monte-Carlo采样方法进一步度简化夏普利值的计算复杂度,从而能够衡量各个移动终端的数据集对模型训练过程的影响,从而在每轮选择高贡献度的设备参与训练,减少数据通信开销,加快收敛速度,提升模型表现。

本发明是通过以下技术方案实现的:

本发明涉及一种基于夏普利值的联邦学习移动设备分布数据处理方法,将多个移动设备构建联邦学习集群,在联邦学习的每一轮中,中心节点应用Monte-Carlo采样方法估计各个联邦学习移动设备当前的联邦夏普利值(Fed-Shapley),并将其在全局模型参数相对于初始参数的变化方向上的投影作为其对模型的重要性与贡献度,并基于联邦夏普利值选择联邦学习移动设备参与本轮的模型训练能够有效加快模型收敛速度,提升模型最终的精度。

所述的夏普利值为:

所述的联邦夏普利值(Fed-Shapley),通过以下方式估计得到:

其中:C

所述的Monte-Carlo采样是指:随机选取包含所有联邦学习移动的多个排列,按照顺序计算每一个排列当中每个联邦学习移动对排列中位于其之前的移动设备集合的边际贡献。最后对每个联邦学习移动设备的边际贡献求取平均值即为每个设备的重要性,即移动设备选择的标准。

所述的边际贡献是指:将此联邦学习移动设备加入训练后全局模型参数的变化。

所述的联邦学习移动设备选择算法,基于博弈论的经典概念夏普利值(ShapleyValue),具有与之类似的三条公平性定理:当设备k的数据集对于模型性能没有影响,则其价值为0;当对于两个设备k

所述的模型训练,具体包括:1)中心节点下发全局模型给被选中的联邦学习移动设备; 2)联邦学习移动设备根据本地数据样本更新模型,并将更新后的模型参数上传给中心节点;3) 中心节点聚合各个联邦学习移动设备上传的模型参数为新一轮的全局模型。

所述方法,具体包括:

步骤1、在联邦学习过程的开始阶段,中心节点应用Monte-Carlo采样方法选取p个包含所有联邦学习移动设备的排列A

步骤2、在训练过程中的每一轮,参与训练的联邦学习移动设备k不仅上传经过本地更新后的模型,而且上传本地多次迭代对应的参数修正项,具体为:

步骤3、中心节点依据各个设备上传的修正项更新本地的设备子集对模型影响的估计,更新公式为

步骤4、对于每个移动设备k,中心估计其联邦夏普利值,并将其投影到全局模型的变化方向作为标准选择下一轮参与训练的客户端。所述估计方法为,求取p个排列中该设备对于其之前的设备子集Q的边际贡献,其均值为该设备联邦夏普利值的估计值。所述边际贡献为

本发明涉及一种实现上述方法的系统,包括:采样单元、夏普利值计算单元、移动设备选择单元、下发单元、移动设备计算单元、收集单元和中心节点计算单元,其中:采样单元在联邦学习的开始阶段根据采样得到的多个包含所有设备的全排列,对于每个排列里的每个设备,中心初始化该设备与排列中其之前设备所组成的设备子集对模型影响,得到各个设备子集对模型影响的初始估计结果;夏普利值计算单元在每一轮训练中,根据上一轮采样单元计算得到的各个排列中设备子集的模型影响,计算各个移动设备的边际贡献均值,得到各个移动设备联邦夏普利值的估计值结果;移动设备选择单元根据各个设备的联邦夏普利值,计算其在全局模型参数变化方向上的投影值作为选择标准,得到本轮参与模型训练的移动设备集合;下发单元根据选择的移动设备集合,下发当前中心节点的模型;移动设备计算单元根据接收到的模型信息,进行本地模型更新和本地修正项的计算,得到更新后的模型参数和本轮对应的修正项;收集单元回传各个参与设备的模型参数和修正项给中心节点;中心节点计算单元根据接收到的更新后的模型参数,进行参数聚合处理,得到新一轮的模型参数;采样单元根据接收到的各个参与设备的修正项,进行各个排列中多个移动设备子集对模型影响的更新。

技术效果

本发明通过在联邦学习每一轮训练中基于夏普利值进行移动设备选择的同时,通过低复杂度估计单个移动设备夏普利值,与现有技术相比显著提升联邦学习中全局模型的最终精度、减少模型训练时间。

附图说明

图1为本发明流程图;

图2为本发明系统示意图;

图3为实施例中当移除不同数目的设备后,本方法对全局模型参数变化的估计误差随训练轮数的变化;

图4为实施例中当模型损失函数为实施例中凸函数时,且当设备数据集分布相同且方差都较小、分布不同但方差都较小、分布不同且方差较大时,联邦夏普利值的估计误差随训练轮数变化的关系;

图5为实施例中应用本发明针对方差较大的改进方法后,联邦夏普利值的估计误差随训练轮数变化的关系;

图6为实施例中应用Monte-Carlo采样方法后,本发明对联邦夏普利值估计的误差随训练轮数的变化关系以及应用改进方法后误差的变化;

图7a为实施例中当模型损失函数为实施例中非凸函数时联邦夏普利值的估计误差随训练轮数的变化关系(设备数据集独立同分布时的情况);

图7b为实施例中当模型损失函数为实施例中非凸函数时联邦夏普利值的估计误差随训练轮数的变化关系(设备数据集不独立同分布时的情况);

图8为实施例中依据联邦夏普利值选择不同的移动设备参与模型训练时的训练曲线。

具体实施方式

本实施例包括8个联邦学习移动设备,其数据的相关信息如图7所示,实施步骤如下所示:

步骤1、在联邦学习过程的开始阶段,中心节点应用Monte-Carlo采样方法选取p个包含所有联邦学习移动设备的排列A

步骤2、在联邦学习训练过程中的每一轮,每个参与训练的设备k不仅上传在本地数据上更新m次后的模型

步骤3、中心依据各个移动设备上传的修正项,更新存储的各个设备子集对模型影响的估计,即

步骤4、中心根据存储的移动设备子集对模型的影响,估计每个移动设备k的联邦夏普利值,并将其投影到全局模型的变化方向作为标准选择下一轮参与训练的客户端。所述估计方法为,求取p个排列中该设备对于其之前的设备子集Q的边际贡献,其均值为该移动设备联邦夏普利值的估计值,即

如图7所示,实验部分所涉及数据集和训练模型的相关信息。

如图3所示,在场景一中,当模型为逻辑斯蒂回归,损失函数为凸函数时,本方法对移除不同设备子集Q后模型参数变化

如图4所示,在场景一中,当模型损失函数为凸函数且当设备数据集分布相同且方差都较小、分布不同但方差都较小、分布不同且方差较大时,联邦夏普利值的估计误差随训练轮数变化的关系。它与图3一起证明了设备数据集的分布差异性越大,模型的参数变化越大,进一步使得联邦夏普利值的平均估计误差从0.004上升到0.15。当本实施例将小部分设备数据集替换为方差更大的数据集时,联邦夏普利值的平均估计误差上升到4.0。这个异常大的误差来源于当移除的设备数量过多时,对于联邦移动设备自己对模型的影响,即

为了解决上述问题,本实施例在通过式子

为了找到仅仅由本方法估计方法导致的误差,本实施例首先在计算每个设备的联邦夏普利值时考虑所有可能的边际贡献。由图6可以看到有着较大数据方差的设备也有着较大的估计误差。然后,本实施例将估计方法与Monte-Carlo采样相结合来降低时间复杂度。本方法尝试了不同的采样数量,例如|C|

如图7中的a和b所示,在场景二中,当模型为卷积神经网络,损失函数是非凸的且设备数据集时独立同分布或者非独立同分布时,本方法对设备联邦夏普利值的估计误差随训练轮数的变化。它验证了本实施例的理论分析:损失函数为非凸时,估计误差与训练轮数t有指数关系。

如图8所示,将联邦夏普利值应用于参与设备选择后的实验效果,本实施例选取有较大、较小联邦夏普利值在模型更新方向上投影值的设备进行联邦学习模型,比较模型性能和表现的变化。实验结果证明选取具有较大夏普利值的设备参与训练能够加快模型收敛、提升最终精度,选取具有较小夏普利值的设备参与训练会损害模型的性能,延长其训练时间。

经过具体实际实验,当有8个移动设备参与联邦学习,各个移动设备的数据为FEMNIST(手写数字识别)数据集且非独立同分布,每一轮各个参与模型训练的设备更新2次模型,模型的学习率为0.02时,能够得到的实验数据是:相比于随机选取移动设备参与模型的训练,选取有较大联邦夏普利值在模型更新方向投影值的设备参与每轮的联邦学习,能够将模型的最终精度从0.95提升至0.99,模型达到目标精度(0.95)所需要的训练轮数从30轮降低至13轮。

与现有技术相比,本方法通过选取有较大联邦夏普利值在模型更新方向投影值的设备参与每轮的联邦学习,能够提升模型最终精度,实施例中从0.95提升至0.99,降低模型训练至目标精度所需要的训练轮数,实施例中模型训练至目标精度(0.95)所需要的训练轮数从 30轮降低至13轮。

上述具体实施可由本领域技术人员在不背离本发明原理和宗旨的前提下以不同的方式对其进行局部调整,本发明的保护范围以权利要求书为准且不由上述具体实施所限,在其范围内的各个实现方案均受本发明之约束。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号