您现在的位置: 首页> 研究主题> 差分隐私

差分隐私

差分隐私的相关文献在2012年到2023年内共计1029篇,主要集中在自动化技术、计算机技术、无线电电子学、电信技术、预防医学、卫生学 等领域,其中期刊论文453篇、会议论文8篇、专利文献20557篇;相关期刊157种,包括电子学报、通信学报、计算机科学等; 相关会议6种,包括第33届中国数据库学术会议(NDBC2016 )、2016年全国通信软件学术会议、第32届中国数据库学术会议等;差分隐私的相关文献由2161位作者贡献,包括李先贤、张顺、陈志立等。

差分隐私—发文量

期刊论文>

论文:453 占比:2.16%

会议论文>

论文:8 占比:0.04%

专利文献>

论文:20557 占比:97.81%

总计:21018篇

差分隐私—发文趋势图

差分隐私

-研究学者

  • 李先贤
  • 张顺
  • 陈志立
  • 王金艳
  • 仲红
  • 张啸剑
  • 杨庚
  • 张兴
  • 王豪
  • 郑啸
  • 期刊论文
  • 会议论文
  • 专利文献

搜索

排序:

年份

作者

    • 郑剑; 杨立聪
    • 摘要: 针对基于随机投影的差分隐私算法中存在直接对降维数据直接添加噪声导致基于欧氏距离数据挖掘中数据可用性较差的问题,提出了一种基于奇异值分解的差分隐私算法。该算法首先对高维社交网络的数据利用随机投影进行降维,然后对降维后的数据进行奇异值分解并对奇异值加入高斯噪声,最后通过奇异值分解逆运算生成待发布矩阵。该算法利用的奇异值矩阵是一个仅有主对角线上有值的矩阵,值的个数为矩阵的秩,与直接对降维后的数据直接添加高斯噪声相比,对奇异值矩阵中的值添加高斯噪声能有效地降低噪声的加入量。理论证明该算法满足差分隐私,并设计了欧氏距离差实验和谱聚类实验用于分析算法的数据可用性,实验结果表明该算法的数据可用性高于基于奇异值分解的差分隐私算法。
    • 石聪聪; 高先周; 黄秀丽; 毛云龙
    • 摘要: 联邦学习这一类分布式机器学习技术旨在保证使用大数据进行机器学习训练时保护本地数据不泄露.然而一系列机器学习隐私攻击表明,即使不直接暴露本地数据,仅仅通过获取机器学习模型的参数就可以进行数据隐私的窃取.从训练时参与者和聚合端之间传递的中间模型到最后发布的聚合模型,联邦学习的模型发布过程存在诸多隐私威胁.由此出现了大量相关的保护技术,包括基于差分隐私以及基于密码学的联邦学习隐私保护技术.本文针对联邦学习本地模型和聚合模型发布过程中可能出现的各种隐私威胁和敌手模型进行了简要介绍,并且对相关的防御技术和研究成果进行系统性综述.同时也对相关技术在联邦学习隐私保护中的发展趋势进行了展望.
    • 刘宇涵; 陈红; 刘艺璇; 赵丹; 李翠平
    • 摘要: 如今,图数据已经被广泛地应用于现实生活与科学研究当中,有巨大的使用和研究价值.但与此同时,针对图数据的收集与发布中也存在巨大的隐私风险.如何在保护图隐私的同时,发布与收集可用图数据,是目前个人、企业、政府等面临的重大挑战.本文首先从隐私信息所包含的内容、不同的隐私泄露场景,以及敌手模型三个方面深入地剖析了图数据在使用中存在的隐私风险,然后重点从攻击和防御两个角度展开介绍.针对攻击而言,本文分析了当前可行的图数据隐私攻击与攻击量化算法及其算法原理.针对防御而言,本文总结了简单匿名、图修改、聚类,以及差分隐私四种图数据隐私防御技术;分析了集中与分布两种数据存储场景下,不同类型图数据使用的各类隐私防御算法,以及数据隐私性与可用性度量方法.最后本文综合已有的研究成果,指出了图数据上隐私保护研究当前存在的问题、面临的挑战,及未来的研究方向.
    • 王美珊; 姚兰; 高福祥; 徐军灿
    • 摘要: 信息技术和医疗健康信息化的不断发展使医疗数据大规模涌现,为数据分析、数据挖掘、智能诊断等更深层次的应用提供了条件。医疗数据集庞大且涉及大量病人隐私,如何在使用医疗数据的同时保护病人隐私极具挑战性。目前应用于医疗领域的隐私保护技术主要以匿名化技术为主,但当攻击者具有强大的背景知识时,此类方法无法兼顾数据集的隐私性和可用性。因此提出了一种优化分类树算法,并改进了Diffpart分区算法,以数据间关联性为前提,挑选出医疗集值数据集中的适当数据,利用差分隐私保护技术进行加噪处理,满足差分隐私干扰并支持统计查询。最后在24万余条真实医疗数据集上进行测试。实验结果表明,所提算法满足差分隐私分布,并且相比Diffpart算法具备更高的隐私性和效用。
    • 梁晨; 王利斌; 李卓群; 薛源
    • 摘要: 近年来,生成对抗网络(generative adversarial networks, GANs)技术研究成果呈指数级增长,生成对抗网络使用零和博弈论将2个相互竞争的神经网络结合起来,使其能够产生更加清晰、离散的输出.在计算机视觉、医疗、金融等领域的图像和视频处理及生成、数据集增强、时间序列预测等方面已取得重大进展.主要介绍了生成对抗网络的基本框架、理论以及实现过程,分析了近年来主流研究现状,通过回顾生成对抗网络变体及其应用场景列举了亟待改进的问题.此外,还着重讨论了如何采用生成对抗网络隐私措施与处理敏感数据,以及生成对抗网络技术在相关领域的未来发展趋势.
    • 李晓会; 陈潮阳; 张兴; 伊华伟
    • 摘要: 推荐系统存在用户隐私安全性低、推荐服务质量差的问题。为此,文中提出一种基于差分隐私的个性化服务推荐算法DPk⁃median。该算法针对推荐系统服务器中生成的推荐列表,首先利用k⁃median聚类算法将推荐数据中具有相同属性的数据进行聚类;然后根据不同簇的风险级别,添加相应的拉普拉斯噪声机制,同一簇中的隐私预算参数是相同的,在保证隐私的前提下,可合理控制噪声的加入并提高噪声的利用率,保证推荐的质量损失减小,同时增加算法的执行效率。相关实验结果表明,与以往的基于差分隐私的个性化服务推荐系统相比,文中所提出的算法在保证系统安全性的同时,提高了服务推荐的质量和算法的执行效率。
    • 胡韵; 刘嘉驹; 李春国
    • 摘要: 随着深度学习在各个领域的广泛应用,数据收集和训练过程中产生的隐私泄露问题已成为阻碍人工智能进一步发展的原因之一.目前已有很多研究将深度学习与同态加密或者差分隐私等技术结合以实现对深度学习中的隐私保护.从另一个角度尝试解决这个问题,即在一定程度上保证训练数据集隐私性的基础上,实现对训练数据计算节点的可追踪性.提出了一种基于差分隐私的可追踪深度学习分类器,结合差分隐私和数字指纹技术,在为训练数据集提供隐私保护的同时保证在出现非法传播的训练模型或者数据集时,能根据其中的指纹信息定位到问题训练节点.该分类器既能保证安全判定分类功能,又能保证指纹的不可感知性、鲁棒性、可信度和可行性等基本特征.从后续的公式推导、理论分析和在真实数据的仿真结果表明,该方案能够满足深度学习中对隐私信息的安全可追踪性的需求.
    • 袁泉; 晏飞扬; 文志云; 张振康
    • 摘要: 针对权重社交网络差分隐私保护算法中噪声添加量过大以及隐私保护不均衡问题,提出了一种结合谱聚类算法与差分隐私保护模型的隐私保护算法SCDP。首先针对传统差分隐私保护算法直接向社交网络边权重添加噪声方式带来的噪声添加量过大的问题,结合谱聚类算法,将权重社交网络聚类成为不同的簇,对不同的簇采取随机添加噪声的方式,降低噪声的添加量,提高数据的可用性;其次设计新的隐私预算参数,根据社交网络边权重的大小决定噪声的添加量,实现更均衡的隐私保护;最后通过理论推导和实验证明了SCDP算法处理后的数据可用性更高。
    • 粟勇; 刘文龙; 刘圣龙; 江伊雯
    • 摘要: 联邦学习可以在保证数据隐私安全及合法合规的基础上实现共同建模,但保证联邦学习模型发布的隐私性以及保证用户对模型的效用仍是亟待解决的问题.提出一种基于安全洗牌和差分隐私的联邦学习模型安全防护方法SFLSDP.联邦模型拥有者利用差分隐私技术对联邦学习的模型参数进行加噪声,生成带噪声的模型参数,之后利用用户授权密钥和安全洗牌算法加密模型参数,并将加密的联邦学习模型参数发送给用户;用户在本地使用联邦学习模型时,利用用户授权密钥和安全洗牌算法解密模型参数密文,得到带噪声的联邦学习模型,将自己的数据作为该模型的输入就能得到期望的输出结果.实验证明该方法可以保护原始学习模型的隐私性,同时获得较高的效用.
    • 张学典; 周圣英
    • 摘要: 差分隐私是能够提供严谨数学证明的隐私保护模型,针对传统差分隐私保护方法在混合型数据集中应用效果差、处理后破坏数据可用性等问题,提出一种面向混合型数据集自适应聚类的差分隐私保护算法。结合快速聚类及k-prototype聚类算法的特点,首先根据混合数据集的不同数据类型属性,采用不同的相异度计算方式实现对不同数据类型属性的距离计算;然后针对聚类后簇中心分别采用Laplace机制及指数机制进行分类处理,最后结合差分隐私的组合性质实现对混合型数据集的差分隐私保护。实验结果表明,该方法相较于传统方法处理混合型数据集时,在相同隐私预算下数据误差率下降15%,证明处理结果的可用性。在固定隐私预算下,改变初始聚类簇数,该方法的隐私保护程度能够达到96%,证明了该算法处理混合型数据集的有效性。
  • 查看更多

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号