首页> 中国专利> 一种基于狼群优化算法的面向长尾分布数据的联邦学习方法

一种基于狼群优化算法的面向长尾分布数据的联邦学习方法

摘要

本发明涉及一种基于狼群优化算法的面向长尾分布数据的联邦学习方法,属于联邦学习技术领域。本发明首先由服务器向客户端分发随机初始化的模型参数;其次客户端独立使用本地数据进行训练后将模型参数上传至服务器;然后服务器利用狼群优化算法定义各客户端等级,依据客户端等级更新客户端模型参数并返回至客户端,进行下一轮本地训练;完成所有训练轮次后,服务器利用马尔可夫链式转移法则聚合出全局参数。本发明基于狼群优化算法动态寻找适应各客户端数据的最优全局模型参数,避免客户端陷入局部最优解,同时利用马尔可夫链式转移法则使聚合后的全局模型参数较客户端中的最优者有所提升,在联邦学习技术领域具有实践价值和应用前景。

著录项

  • 公开/公告号CN116527513A

    专利类型发明专利

  • 公开/公告日2023-08-01

    原文格式PDF

  • 申请/专利权人 昆明理工大学;

    申请/专利号CN202310293089.4

  • 申请日2023-03-23

  • 分类号H04L41/14(2022.01);H04L41/147(2022.01);H04L41/16(2022.01);G06N20/00(2019.01);G06N3/006(2023.01);

  • 代理机构昆明明润知识产权代理事务所(普通合伙) 53215;

  • 代理人王鹏飞

  • 地址 650093 云南省昆明市五华区学府路253号

  • 入库时间 2024-01-17 01:18:42

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2023-08-18

    实质审查的生效 IPC(主分类):H04L41/14 专利申请号:2023102930894 申请日:20230323

    实质审查的生效

  • 2023-08-01

    公开

    发明专利申请公布

说明书

技术领域

本发明涉及一种基于狼群优化算法的面向长尾分布数据的联邦学习方法,属于联邦学习技术领域。

背景技术

Google公司于2016年首次提出联邦学习这一新型的分布式机器学习框架,其目的是解决传统深度学习架构在保护数据隐私场景下的数据孤岛问题。联邦学习使多个客户端能够协作地学习一个适应性强的全局模型,而无需将本地私有数据传输给服务器,这是一种高效通信和隐私保护的新型学习框架。在联邦学习中一个主要的挑战是数据的不平衡性问题,由于数据来源不同从而导致客户端数据之间的长尾分布差异明显,使得联邦学习性能下降。在这种情况下,客户端局部模型易陷入局部最优解,即在多样本类别数据上表现良好,而在稀缺样本数据上表现较差。

在非联邦学习场景下,研究者们提出了多种技术方法来消除长尾分布数据对模型性能的影响。这些技术方法可分为三大类:(1)重采样,通过对稀缺样本进行密集采样提高模型精度;(2)重加权,增加稀缺样本对模型的影响权重提高模型精度;(3)解耦训练,将编码器与分类器解耦,通过重训练分类器提高对稀缺样本的敏感性。但在数据隐私被严格保护的联邦学习场景下,服务器无法获取客户端的本地数据,从而使应对长尾分布数据的(1)重采样,(2)重加权,2种解决方案失效。

专利“一种基于二阶导数解决联邦学习中数据不平衡问题的方法”(专利申请号:202110917450.7,公布号:CN113691594A)公开了一种基于二阶导数解决联邦学习中数据不平衡问题的方法。该方法通过计算全局模型参数的二阶导数获得全局模型参数重要性权重用于构造正则项。客户端本地训练时将正则项作为优化目标,从而到达以下3个目标:(1)防止本地模型与全局模型差异过大;(2)降低多样本类别数据对全局模型的贡献;(3)尽可能地将各客户端数据包含的知识集成到全局模型中。该方法保持本地模型与全局模型差异较小,未考虑在长尾分布数据下本地模型陷入局部最优解的隐患。

Xinyi Shang等(Federated Learning on Heterogeneous and Long-TailedData via Classifier Re-Training with Federated Features,2022,Proceedings inIJCAI:2218-2224)发现全局长尾分布数据会导致联邦学习性能下降,同时提出使用不侵犯数据隐私的联邦特征重新训练分类器得到与真实数据一致的性能解决这一问题。但该方法仅考虑了全局数据的长尾分布而忽视了客户端本地数据的长尾分布。

综上,联邦学习要求数据被严格保护导致非联邦场景下针对长尾分布数据的解决方案失效,现有联邦学习方法未考虑长尾分布数据下本地模型陷入局部最优解的隐患,或仅考虑全局数据的长尾分布而未充分考虑客户端本地长尾分布数据对全局模型性能的影响。因此需要一种新的联邦学习算法避免因本地长尾分布数据导致的模型陷入局部最优解,从而提高全局模型性能。

发明内容

本发明要解决的技术问题是针对现有技术的上述不足,提供了一种基于狼群优化算法的面向长尾分布数据的联邦学习方法。用以解决现有的联邦学习方法由于客户端本地长尾分布数据导致的模型陷入最优解,引发联邦学习性能下降问题。

本发明的技术方案是:一种基于狼群优化算法的面向长尾分布数据的联邦学习方法,具体步骤为:

Step1:服务器向客户端分发随机初始化的模型参数;

Step2:客户端进行独立训练并将训练后的模型参数上传至服务器;

Step3:服务器基于狼群优化算法定义客户端等级,依据客户端等级更新模型参数后返回至客户端本地,开始下一轮训练;

Step4:完成全部训练轮次后,服务器基于马尔可夫链式法则计算状态转移矩阵,进一步预测客户端在后续轮次成为等级为1的概率作为贡献权重,采用加权平均方式聚合全局模型参数。

所述Step1向各客户端分发不同的初始参数,不同于现有方法向各客户端分发统一的初始参数,其具体步骤为:

Step1.1:服务器随机初始化一组与客户端Client

Step1.2:服务器将初始化的模型参数θ

所述Step3具体步骤为:

Step3.1:服务器定义客户端等级l为1,2,3级,其中1级客户端占1个,2级客户端占20%,剩余为3级客户端。

Step3.2:服务器计算各客户端上传模型参数在测试集的预测精度,按精度从高到低对客户端进行排序,根据Step3.1所述比例划分各客户端等级,精度最高的客户端等级为1,以此类推。服务器使用矩阵M记录当前训练轮次t中客户端等级为M=[l

Step3.3:服务器更新各客户端模型参数。定义

Step3.4:将新模型参数返回至客户端本地,开始下一轮训练。

所述Step 4具体步骤为:

Step4.1:根据Client

Step4.2:对于Client

Step4.3:将贡献值λ

本发明的有益效果是:

1、本发明以一组随机初始化的参数而非一个统一的参数开始训练,更好地搜索求解空间,提高全局模型的收敛速度,同时能够有效避免因客户端局部长尾分布数据导致的局部模型陷入局部最优解问题。

2、本发明在每一轮的训练过程中,引入狼群优化算法的思想,通过测试精度定义客户端等级,对不同客户端等级的模型参数进行更新而非聚合。在保留原参数学习到知识的基础上,性能较差的参数向性能较好的参数进行靠拢。既能保留各客户端从多样本类别中学习到的有用参数,提高整体精度,又能避免因客户端局部长尾分布数据导致的局部模型陷入局部最优解问题。

3、本发明在完成所有训练轮次后,基于每一轮的客户端等级计算其马尔可夫状态转移矩阵,以此为依据推测各客户端在后续轮次中的表现。将其成为等级1的概率作为贡献权重对模型参数进行加权平均聚合,得到最终的全局参数。充分考虑了客户端在前期和后续的性能表现,获得测试精度优于现有方法的全局模型。

附图说明

图1是本发明整体架构图;

图2是本发明步骤流程图。

具体实施方式

下面结合附图和具体实施方式,对本发明作进一步说明。

实施例1:如图1所示,首先构建客户端和服务器。

客户端:每个客户端拥有独立的训练数据,客户端仅与服务器通信,各客户端之间无数据交互。客户端负责对服务器分发的模型参数进行训练,并将训练后的模型参数上传至服务器。

服务器:训练开始前,服务器负责随机初始化模型参数,并将模型参数分发至客户端。训练过程中,服务器负责在每轮次训练结束后,接收客户端上传的模型参数,计算测试精度并以此为依据定义客户端等级,根据客户端等级更新模型参数并分发至客户端。训练结束后,服务器负责根据各客户端等级序列计算马尔可夫转移矩阵,以此推断客户端后续成为等级1的概率作为其贡献权重,进行加权平均参数聚合,得到最终的全局参数。

如图2所示,结合构建的客户端和服务器对本发明提出的一种基于狼群优化算法的面向长尾分布数据的联邦学习方法做进一步详细描述。本实施例定义共有10个客户端,每轮次训练选择10个客户端参加。定义客户端等级l为1,2,3级,其中1级客户端占1个,2级客户端2个,3级客户端7个。

具体步骤如下:

Step1:服务器向客户端分发随机初始化的模型参数;

Step1.1:服务器随机初始化一组数量为10的模型参数θ

Step1.2:服务器将初始化的模型参数θ

Step2:客户端进行独立训练并将训练后的模型参数上传至服务器;

Step3:服务器基于狼群优化算法定义客户端等级,依据客户端等级更新模型参数后返回至客户端本地,开始下一轮训练;

Step3.1:服务器计算各客户端上传模型参数在测试集的预测精度,按精度从高到低对客户端进行排序,划分各客户端等级,精度最高的客户端等级为1,以此类推,精度最低的客户端等级为3。服务器使用矩阵M记录当前训练轮次t中客户端等级为M=[l

Step3.2:服务器更新各客户端模型参数。定义

Step3.3:将新模型参数返回至客户端本地,开始下一轮训练。

Step4:完成全部训练轮次后,服务器基于马尔可夫链式法则计算状态转移矩阵,进一步预测客户端在后续轮次成为等级为1的概率作为贡献权重,采用加权平均方式聚合全局模型参数。

Step4.1:根据Client

Step4.2:对于Client

Step4.3:将贡献权重值λ

综上所述,本发明提出的一种基于狼群优化算法的面向长尾分布数据的联邦学习方法,训练前随机初始化模型参数。训练过程中通过计算每一轮次的测试精度评估客户端等级,根据不同等级更新模型参数。训练结束后根据各客户端等级序列计算马尔可夫转移矩阵,以此推断客户端后续成为等级为1的概率作为其贡献权重,进行加权平均参数聚合,得到最终的全局参数。本发明充分保留客户端数据中多样本类别所含知识,且避免陷入局部最优解,同时充分考虑客户端在前期和后续的性能表现,获得了测试精度优于现有方法的全局模型。

以上结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号