首页> 外国专利> METHODS AND APPARATUSES FOR DEFENSE AGAINST ADVERSARIAL ATTACKS ON FEDERATED LEARNING SYSTEMS

METHODS AND APPARATUSES FOR DEFENSE AGAINST ADVERSARIAL ATTACKS ON FEDERATED LEARNING SYSTEMS

机译:用于防御联邦学习系统的对抗攻击的方法和设备

摘要

Methods and computing apparatuses for defending against model poisoning attacks in federated learning are described. One or more updates are obtained, where each update represents a respective difference between parameters (e.g. weights) of the global model and parameters (e.g. weights) of a respective local model. Random noise perturbation and normalization are applied to each update, to obtain one or more perturbed and normalized updates. The parameters (e.g. weights) of the global model are updated by adding an aggregation of the one or more perturbed and normalized updates to the parameters (e.g. weights) of the global model. And, one or more learned parameters (e.g. weights) of the previous global model are also perturbed using random noise.
机译:描述了用于抵御联合学习中的模型中毒攻击的方法和计算装置。 获得一个或多个更新,其中每个更新表示相应局部模型的全局模型的参数(例如,例如权重)之间的相应差异。 每个更新都会应用随机噪声扰动和归一化,以获得一个或多个扰动和归一化的更新。 通过将一个或多个扰动和标准化更新的聚合添加到全局模型的参数(例如权重)来更新全局模型的参数(例如权重)。 并且,先前全局模型的一个或多个学习参数(例如权重)也使用随机噪声扰乱。

著录项

  • 公开/公告号WO2021244035A1

    专利类型

  • 公开/公告日2021-12-09

    原文格式PDF

  • 申请/专利权人 HUAWEI TECHNOLOGIES CO. LTD.;

    申请/专利号WO2021CN72348

  • 发明设计人 SHALOUDEGI KIARASH;

    申请日2021-01-16

  • 分类号G06F21/60;

  • 国家 CN

  • 入库时间 2022-08-24 22:45:36

相似文献

  • 专利
  • 外文文献
  • 中文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号