您现在的位置: 首页> 研究主题> 隐私保护

隐私保护

隐私保护的相关文献在1999年到2023年内共计9946篇,主要集中在自动化技术、计算机技术、信息与知识传播、法律 等领域,其中期刊论文5053篇、会议论文307篇、专利文献375585篇;相关期刊1425种,包括通信学报、信息网络安全、计算机工程等; 相关会议230种,包括第10届全国计算机支持的协同工作学术会议暨中国计算机学会协同计算专委年度工作会议、2014年中国互联网安全大会、2014湖北省计算机学会学术年会等;隐私保护的相关文献由15834位作者贡献,包括李先贤、马建峰、张明武等。

隐私保护—发文量

期刊论文>

论文:5053 占比:1.33%

会议论文>

论文:307 占比:0.08%

专利文献>

论文:375585 占比:98.59%

总计:380945篇

隐私保护—发文趋势图

隐私保护

-研究学者

  • 李先贤
  • 马建峰
  • 张明武
  • 仲红
  • 罗永龙
  • 李晖
  • 杨庚
  • 周俊
  • 祝烈煌
  • 王汝传
  • 期刊论文
  • 会议论文
  • 专利文献

搜索

排序:

年份

作者

    • 郑剑; 杨立聪
    • 摘要: 针对基于随机投影的差分隐私算法中存在直接对降维数据直接添加噪声导致基于欧氏距离数据挖掘中数据可用性较差的问题,提出了一种基于奇异值分解的差分隐私算法。该算法首先对高维社交网络的数据利用随机投影进行降维,然后对降维后的数据进行奇异值分解并对奇异值加入高斯噪声,最后通过奇异值分解逆运算生成待发布矩阵。该算法利用的奇异值矩阵是一个仅有主对角线上有值的矩阵,值的个数为矩阵的秩,与直接对降维后的数据直接添加高斯噪声相比,对奇异值矩阵中的值添加高斯噪声能有效地降低噪声的加入量。理论证明该算法满足差分隐私,并设计了欧氏距离差实验和谱聚类实验用于分析算法的数据可用性,实验结果表明该算法的数据可用性高于基于奇异值分解的差分隐私算法。
    • 石聪聪; 高先周; 黄秀丽; 毛云龙
    • 摘要: 联邦学习这一类分布式机器学习技术旨在保证使用大数据进行机器学习训练时保护本地数据不泄露.然而一系列机器学习隐私攻击表明,即使不直接暴露本地数据,仅仅通过获取机器学习模型的参数就可以进行数据隐私的窃取.从训练时参与者和聚合端之间传递的中间模型到最后发布的聚合模型,联邦学习的模型发布过程存在诸多隐私威胁.由此出现了大量相关的保护技术,包括基于差分隐私以及基于密码学的联邦学习隐私保护技术.本文针对联邦学习本地模型和聚合模型发布过程中可能出现的各种隐私威胁和敌手模型进行了简要介绍,并且对相关的防御技术和研究成果进行系统性综述.同时也对相关技术在联邦学习隐私保护中的发展趋势进行了展望.
    • 余文清
    • 摘要: 大数据发展产生数据自由这一新兴诉求,数据自由与重在管制的隐私保护的冲突日渐显现并逐步加剧。从法律角度看,化解冲突的关键在于理顺数据自由与隐私保护的内在机理。通过比较研究和规范解释发现,美国联邦最高法院和下级法院将数据纳入联邦宪法第一修正案的保护范围,即赋予数据以言论保护,同时发展出具有普遍适用性的规则或者标准,框定数据自由的范围和管制的限度,这一系列举措证实了数据自由与隐私保护的可调和性。总体上,研究美国法上数据自由与隐私保护的相关判例和规则,可为我国相关问题的解决提供研究参考。
    • 王继锋; 王国峰
    • 摘要: 针对边缘计算数据安全问题,提出一种密文搜索与共享方案,在不改变边缘计算架构的和云计算架构的情况下,借助上述边缘计算诸多优势实现用户隐私数据保护,利用边缘节点构建加密倒排索引,在边缘节点和云计算平台之间安全地分享索引和密钥,实现密文搜索、数据安全共享及索引动态更新等功能。最后,与现有方案相比,对性能和安全性进行分析讨论,表明所提方案在密文搜索攻击模型下具有可证明的高安全强度,基于加密倒排索引兼顾了密文搜索效率和文档动态更新功能。
    • 张爱; 李晓会; 李波
    • 摘要: 传统位置隐私脱敏技术容易遭受背景知识攻击和单点攻击,造成用户位置隐私泄露,危及其生命财产安全。针对此问题,提出了一种基于假位置选择的位置隐私脱敏算法DLPD(dummy location privacy desensitization)。首先,通过衡量位置敏感程度、实行偏移优化、过滤位置查询概率来构造假位置候选集;其次,改善位置分布筛选假位置;最终,构造安全匿名集实现位置隐私脱敏。实验证明,该算法增强了隐私保护强度,提高了隐私保护的有效性,同时,降低了开销,具有实用性。
    • 李利; 何欣; 韩志杰
    • 摘要: 近年来,智能终端的快速普及极大地推动了集数据采集、分析、处理于一体的群智感知服务的发展。隐私保护作为保障服务安全运行和鼓励感知用户参与的必要手段,成为需要解决的首要科学问题。文中首先从群智感知的全生命周期出发,在描述其主要组成部分和业务流程之后,再从群智感知场景对隐私保护的特有需求出发,对隐私保护的定义和衡量指标进行讨论,并对现有文献设计的隐私保护机制所侧重的不同阶段进行分类,从隐私保护范围、保护强度、感知用户身份可追溯、感知数据损失和感知终端能耗的角度对文献使用的隐私保护机制进行讨论。在此基础上对文献使用的实验数据集进行梳理,最后结合群智感知应用的发展需求和全球对隐私保护的监管要求提出未来研究面临的挑战。
    • 梁亚楠
    • 摘要: 联邦学习是一种新兴的隐私保护的分布式机器学习模型。机器学习训练过程中,模型的梯度可能会泄露用户数据集,同态加密技术可以解决隐私泄露问题。文章研究基于Paillier同态加密的联邦学习方案,在训练过程中,通过CKKS同态加密算法优化计算损失函数过程,利用其乘法特性,减少原有方案中的计算量,提高联邦学习系统的计算效率。
    • 丁知平; 林昆
    • 摘要: 大数据背景下,数据量规模化的增长,数据的采集、传输、存储等环节都会存在数据泄露的安全隐患。从大数据的基本原理、现状出发,对数据信息的隐私安全做了相关应研究,并在此基础上,提出了一种改进的差分隐私直方图发布算法来对数据信息进行隐私保护
    • 侯坤池; 王楠; 张可佳; 宋蕾; 袁琪; 苗凤娟
    • 摘要: 联邦学习是一种新型的分布式机器学习方法,可以使得各客户端在不分享隐私数据的前提下共同建立共享模型。然而现有的联邦学习框架仅适用于监督学习,即默认所有客户端数据均带有标签。由于现实中标记数据难以获取,联邦学习模型训练的前提假设通常很难成立。为解决此问题,对原有联邦学习进行扩展,提出了一种基于自编码神经网络的半监督联邦学习模型ANN-SSFL,该模型允许无标记的客户端参与联邦学习。无标记数据利用自编码神经网络学习得到可被分类的潜在特征,从而在联邦学习中提供无标记数据的特征信息来作出自身贡献。在MNIST数据集上进行实验,实验结果表明,提出的ANN-SSFL模型实际可行,在监督客户端数量不变的情况下,增加无监督客户端可以提高原有联邦学习精度。
    • 巨云涛; 张紫枫; 刘文武; 陈希
    • 摘要: 多区域互联电网中有大量限幅非光滑约束,增加了潮流模型的非凸性。针对传统基于启发式规则处理限幅的分布式潮流算法在计算过程中容易出现收敛性问题,提出了一种能鲁棒性处理非光滑约束的互联电网全分布式潮流计算方法。首先根据分层分区调度模式对电网进行分区,并将模型中非光滑约束进行光滑处理,然后基于具有二阶收敛速度的双层交替方向非精确牛顿法,将潮流问题转化为求解最优步长增量的问题。基于零空间法(Null-Space)对状态变量的系数矩阵进行降维处理,采用共轭梯度(Conjugate Gradient, CG)算法更新每个分区的对偶乘子,乘子更新过程中利用二阶信息提高了算法的收敛性。多区域间进行分布式计算时无需协调层参与,仅需通信少量边界信息,因此通信负担轻。最后,以30节点和182节点系统为测试算例,验证了所提方法在设置恶劣初值和处理非光滑约束时具有较高的精确性和较好的收敛性。
  • 查看更多

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号