首页> 外国专利> Defending Against Model Inversion Attacks on Neural Networks

Defending Against Model Inversion Attacks on Neural Networks

机译:防御神经网络的模型反转攻击

摘要

Mechanisms are provided for protecting a neural network model against model inversion attacks. The mechanisms generate a decoy dataset comprising decoy data for each class recognized by a neural network model. The mechanisms further configure the neural network model to generate a modified output based on the decoy dataset that directs a gradient of the modified output to the decoy dataset. The neural network model receives and process input data to generate an actual output. The neural network model modifies one or more actual elements of the actual output to be one or more corresponding modified elements of the modified output, and returns the one or more corresponding modified elements, instead of the one or more actual elements, to the source computing device.
机译:提供了用于保护神经网络模型免受模型反转攻击的机制。该机制生成诱饵数据集,该数据包包含神经网络模型识别的每个类别的诱饵数据。所述机制还配置神经网络模型以基于诱饵数据集生成修改后的输出,该修改后的输出将修改后的输出的梯度引导至诱饵数据集。神经网络模型接收并处理输入数据以生成实际输出。神经网络模型将实际输出的一个或多个实际元素修改为修改后的输出的一个或多个相应修改元素,并将一个或多个相应修改元素而不是一个或多个实际元素返回给源计算。设备。

著录项

相似文献

  • 专利
  • 外文文献
  • 中文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号