首页> 外国专利> METHODS AND APPARATUSES FOR DEFENSE AGAINST ADVERSARIAL ATTACKS ON FEDERATED LEARNING SYSTEMS

METHODS AND APPARATUSES FOR DEFENSE AGAINST ADVERSARIAL ATTACKS ON FEDERATED LEARNING SYSTEMS

机译:用于防御联邦学习系统的对抗攻击的方法和设备

摘要

Methods and computing apparatuses for defending against model poisoning attacks in federated learning are described. One or more updates are obtained, where each update represents a respective difference between parameters (e.g. weights) of the global model and parameters (e.g. weights) of a respective local model. Random noise perturbation and normalization are applied to each update, to obtain one or more perturbed and normalized updates. The parameters (e.g. weights) of the global model are updated by adding an aggregation of the one or more perturbed and normalized updates to the parameters (e.g. weights) of the global model. In some examples, one or more learned parameters (e.g. weights) of the previous global model are also perturbed using random noise.
机译:描述了用于抵御联合学习中的模型中毒攻击的方法和计算装置。 获得一个或多个更新,其中每个更新表示相应局部模型的全局模型的参数(例如,例如权重)之间的相应差异。 每个更新都会应用随机噪声扰动和归一化,以获得一个或多个扰动和归一化的更新。 通过将一个或多个扰动和标准化更新的聚合添加到全局模型的参数(例如权重)来更新全局模型的参数(例如权重)。 在一些示例中,先前全局模型的一个或多个学习参数(例如重量)也使用随机噪声扰乱。

著录项

  • 公开/公告号US2021383280A1

    专利类型

  • 公开/公告日2021-12-09

    原文格式PDF

  • 申请/专利权人 KIARASH SHALOUDEGI;

    申请/专利号US202016891752

  • 发明设计人 KIARASH SHALOUDEGI;

    申请日2020-06-03

  • 分类号G06N20/20;G06F17/16;

  • 国家 US

  • 入库时间 2022-08-24 22:42:46

相似文献

  • 专利
  • 外文文献
  • 中文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号