版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
机器学习中的隐私保护导读:近年来,随着GDPR通用数据保护条例出台以及一些互联网公司数据隐私泄漏等事件的发生,数据隐私的保护问题在行业应用中备受关注。与数据密切相关的机器学习算法的安全性成为一个巨大挑战。本文将介绍在机器学习领域中数据隐私安全的相关工作,并介绍第四范式在差分隐私算法效果提升上所做的工作。主要和大家分享数据隐私的3方面:隐私保护的问题与案例基于数据的隐私保护技术:数据匿名化机器学习模型训练中的隐私保护技术:差分隐私▌机器学习中的隐私保护问题信息隐私信息隐私(Privacy):指的是当一个组织内敏感数据被拥有权限的人员所使用于某些技术、过程(如数据分析、训练模型)时,对数据敏感信息进行保护的过程与规则。数据的隐私(Privacy)与安全(Security)并不等价:有的时候很多人提到数据隐私时,会与数据安全混为一谈,但其实两者并不等价。数据安全通常指防止数据被非法访问;而数据隐私则一般指在数据被合法访问时,防止其中的敏感信息被访问者以某些方式"逆向"获取,避免因数据被"逆向"推导出而造成的敏感信息泄露和滥用。当然,对于企业来说,数据隐私和数据安全都非常重要。信息隐私问题如今,在很多需要用到私人敏感数据的领域中,都存在数据隐私的问题。特别地,当机器学习技术应用在一些个人隐私数据上时,可能会暴露敏感数据,对个人造成很多负面影响。虽然现实生活中有很多数据隐私的问题,但严格意义上,个人隐私不可能被绝对保护。1977年,统计学家ToreDalenius给出关于数据隐私的严格定义:攻击者不能从隐私数据里获取任何在没有拿到数据之前他们所不知道的个人信息。2006年,计算机学者CynthiaDwork证明上述定义的隐私保护是不存在的。有一个直观例子可以帮助理解:假设攻击者知道Alice的身高比Lithuanian女性平均身高高2英寸,这样攻击者只需要从一个数据集里获得Lithuanian女性身高平均值(在接触数据前攻击者并不知道),就能准确获得Alice的精确身高,甚至Alice都不需要在这个数据集里。因此,对于一份有信息量的数据,不可能完全不暴露隐私信息。隐私泄露的危害隐私泄露的危害,主要有:隐私信息被应用于欺诈与骚扰:如盗刷信用卡、电话诈骗、冒用身份等用户安全受到威胁:用户信息受到泄露,引起更多有目的犯罪非法机构利用用户隐私信息操控用户用户信任危机违背相关法律不过一般来说,对于不特别极端的情况,我们仍可以从很大程度上来保证数据在机器学习过程中不被泄露。这里再分享一个隐私泄露的案例:1997年,马萨诸塞州GIC对外公布了一组医疗数据,其中包括病人的5位邮编、性别、生日。州长Weld对公众保证这份数据是匿名的,因为标识特征(如名字地址)已经被移除。结果一位MIT毕业生通过结合这份数据与她花了20美元购买的选民登记数据,找到了Weld的医疗记录。同时,她还宣布87%的美国公民可以通过5位邮编、性别、生日进行唯一标识。这个真实案例印证了:任何有一定信息量的数据都有可能产生隐私泄露;单纯的数据匿名方法是很难保护隐私的。接下来,我们来看一下,针对潜在的隐私泄露问题我们有哪些技术可以在很大程度上杜绝隐私的泄露。▌数据匿名化技术(DataAnonymization)数据匿名化是一个从数据层面上进行隐私保护的技术。匿名化很多时候是通过hash掉"姓名"等关键标识符来实现的。而在只简单hash掉姓名的情况下,数据访问者有很多方法通过利用其它特征的信息来反推出某人在数据表中对应的那一条数据。这时候,就需要一种技术来防止访问者能够通过结合多个特征的数据来确定人与数据间的对应关系。数据表中数据列的类别(按所含隐私量分类)标识列(KeyAttribute,简称KA):单凭其一列便能直接锁定某人的数据列,如:身份证号、姓名(大多数情况下);半标识列(Quasi-identifier,简称QID无法单凭其一列确定对象,但通过结合多列数据或查其它信息(缩小范围)可以对应到个人的数据列,如:生日、邮编等;敏感信息列(SensitiveAttribute,简称SA):如疾病、收入等。虽然只有标识列的数据能够直接缩小范围到单个样本,但如前文所述,仅匿名化标识列数据对于隐私保护是完全不够的。攻击方法与防护方法①链接攻击链接攻击(LinkageAttack):通过获取其它渠道的信息(如右表)来锁定(见左表)当前数据表中数据所对应的个人。②K-AnonymityK-匿名(K-Anonymity):针对链接攻击的防护方法。对于每一份数据的各版本内的每一条记录,规定至少有K-1条其它记录的半标识属性与其一致。上方右表就是对上方左表做"3-匿名"之后的结果:我们可以发现,在统一对"zipcode"、"age"、"sex"三列的数据的末尾作模糊(相当于匿名化)处理后,含有"zipcode:47677**age2*,sex:*"的信息的数据共有3条(这3条记录中的任一条,均满足至少有3-1=2条其它记录的半标识属性与其一致);左表原数据中的另外3条经变换后也满足3-匿名的条件。左表在K-Anonymity之后,虽然数据会有所损失,但保证了每条数据中的敏感信息无法与个人一一对应,降低了隐私泄露的风险。如何在尽可能小的数据损失的情况下做K-Anonymity也是一个数据隐私的研究方向。③Homogeneityattack同质化攻击(HomogeneityAttack):可克制K-Anonymity防护的攻击。某些情况下,可通过直接对比其它列信息或查找其它外部资料发现,K-Anonymity中半标识列均相同的(至多)K条数据的其他列的信息其实是同质的,因而确定下来某人的隐私数据。上方右表说明:经对比可发现Bob必然患有HeartDisease;而假如能够另通过查资料发现Carl所在地人们普遍患有HeartDisease,就还可以推断出Carl大概率是患HeartDisease的那例样本。④L-DiversityL-散度(L-Diversity):对K-Anonymity的改进。在满足K-Anonymity的基础上,要求所有等价类(即各半标识列信息均相同的一些样本)中的敏感信息(如:病史中的HeartDisease、Flu)的种类/取值至少有L种。上表就是一个满足3-散度的数据。⑤相似性攻击相似性攻击(SimilarityAttack):可对满足L-Diversity的数据进行攻击。从外界获取个人多方面的背景信息,缩小范围以锁定目标。⑥T-ClosenessT-保密(T-Closeness):对L-Diversity的拓展。对于满足K-Anonymity的数据,规定每一个等价类中的敏感信息的分布与数据集整体的敏感信息分布的距离(可自行定义,常见的有:K-L散度)小于T。▌差分隐私(DifferentialPrivacy)技术除了数据匿名化不当以外,由数据和特定建模方法得到的模型同样有隐私泄露的风险(被攻击获取到原数据中的隐私信息甚至原数据本身)。差分隐私在机器学习模型的建模过程中应用较广。模型的隐私保护风险未经过隐私保护处理的机器学习模型理论上可能暴露训练数据里的敏感信息。Membershipinferenceattack:成员推断攻击(MembershipInferenceAttack):探测一个给定样本是否属于训练某"待破解"模型(targetmodel)的原数据集。步骤(参考论文见上图):①模拟生成和训练targetmodel的原数据集分布类似的一系列数据集(即shadowdatasets),用与训练targetmodel相同的训练算法(训练算法是什么很容易得知)去训练出对应的一系列的模型,这些模型称为"shadowmodels",这些shadowmodels和targetmodel的特征分布是很像的;②AttackModel的训练。数据集构成:对于每一个shadowdatasets中每一条数据可以构建此条数据在某个shadowmodel上的预测结果、该数据真实 label作为训练样本,将此条数据是否属于之该shadowmodel作为标签。通过构建的数据集再即可训练AttackModel,能够判断任意一条给定的数据是否属于原数据集;③对于一条数据,对于该数据targetmodel的预测结果和真实label作为输入,通过判断模型就可以判断出该数据是否属于targetdataset的。右图为上述思路的一例实际应用,可以看出如果对训练模型的方法不加处理的话,原数据集被成员推断攻击法破解的程度还是很高的。ModelInversionAttack:模型逆向攻击(modelinversionattack):是指攻击者通过模型与某个样本的其他特征,直接推断某个敏感特征值。差分隐私技术(DifferentialPrivacy)如果对于任两个只相差1个样本的数据集D1、D2,在通过过程M建模后,产生的模型与给定模型t完全相同的概率之比不大于eε(其中ε为某非负数,为隐私预算),那么我们说建模过程M是ε-差分隐私的。理解:如果建模过程M是ε-差分隐私的,且ε很小,那么数据集和其训练出来的模型关系很小,即两个相差有固定上限的数据集训练出来的模型是几乎一样的,所以拿到模型的访问者即便知道大致的数据分布也并不能推断出原数据集;反之,如果ε很大,那么两个相差有固定上限的数据集训练出来的模型可能天差地别的,那么这种情况下,原数据集与得出的模型间一一对应的比例很高,知道训练出来的模型就很有可能能够通过模型的分布倒推出原数据集。也就是说,如果改变一条的数据对最终得到的模型影响很小,那么数据集隐私暴露的风险就很小,反之则很大。①差分隐私下的模型训练对目标函数添加一定的噪声:训练出来的模型会带有一定的随机性,可证明这样的随机性可满足差分隐私。在梯度上加噪声:深度学习比较常用,因为对于深度学习模型,如果把噪声加在目标函数或输出上,差分隐私的分析会很复杂。在模型输出上加噪声:使得不一样的原数据集输出的模型差异变小。不过,作为代价,数据隐私保护得越好,算法的性能下降得越多。在训练样本复杂度相同的情况下,隐私保护越好(ε越小),泛化误差越大。②基于特征切分的差分隐私算法按特征来切分做差分隐私,而非做基于样本切分的差分隐私:数据先按样本切分
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2026年福建省福州市街道办人员招聘笔试参考试题及答案解析
- 2026年珠海市斗门区卫生健康系统人员招聘笔试参考题库及答案解析
- 2026年农村环卫工人适应力题
- 2026年领导干部配偶子女及其配偶经商办企业管理规定执行问答
- 2026江苏宿迁市泗洪县教育系统面向普通高校毕业生招聘17人考试备考试题及答案解析
- 招聘编外人员!按工龄增加工资 2026年久治县医共体紧缺岗位笔试参考试题及答案详解
- 2026年交通基础设施及铁路公路项目规划练习题
- 2026滨州滨城区市立医院医养中心定向招聘养老护理员(8名)考试参考题库及答案解析
- 2026年电信网络维护技术操作与安全规范题目
- 2026年自动变速器维修技术面试题
- 2026年北京市西城区初三一模英语试卷(含答案)
- 2026年38期入团考试题及答案
- GB/T 16271-2025钢丝绳吊索插编索扣
- T/CBMCA 039-2023陶瓷大板岩板装修镶贴应用规范
- 新概念英语 青少版入A U1-U9测试
- 烹饪工艺学原理课件
- 公司各部门工作流程图(通用)
- 骨质疏松量表
- (高职)电子商务英语电子课件教学PPT(完整版)
- 航海模型的学习教学设计及计划.doc
- 跨境电商物流PPT课件
评论
0/150
提交评论