首页> 中文期刊> 《计算机科学》 >一种提高联邦学习模型鲁棒性的训练方法

一种提高联邦学习模型鲁棒性的训练方法

         

摘要

联邦学习方法打破了数据壁垒的瓶颈,已被应用到金融、医疗辅助诊断等领域。但基于对抗样本发起的对抗攻击,给联邦学习模型的安全带来了极大的威胁。基于对抗训练提高模型鲁棒性是保证模型安全性的一个较好解决办法,但目前对抗训练方法主要针对集中式机器学习,并通常只能防御特定的对抗攻击。为此,提出了一种联邦学习场景下,增强模型鲁棒性的对抗训练方法。该方法通过分别加入单强度对抗样本、迭代对抗样本以及正常样本进行训练,并通过调整各训练样本下损失函数的权重,完成了本地训练以及全局模型的更新。在Mnist以及Fashion_Mnist数据集上开展实验,实验结果表明该对抗训练方式极大地增强了联邦模型在不同攻击场景下的鲁棒性,该对抗训练基于FGSM以及PGD展开,且对FFGSM,PGDDLR和BIM等其他攻击方法同样有效。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号