谈谈联邦学习安全综述
将机器学习应用于多个区域或节点之间的协同工作,这种方法被称为联机式分布式学习,本质上也就是机器学习,但是他是将多方数据放在一起进行学习,考虑到数据的安全性和隐私性,多个合作方的数据通常不能互通,这也就造成了数据孤岛,联邦学习能够在保证数据安全与隐私的前提下实现多方共同建模,学习流程如下:各个合作方将自己的本地数据进行训练得到子模型,将采集到的训练过程中得到的参数再上传到数据库服务器。 隐私推理攻击一般不会改变目标模型,而是使他产生错误的预测,收集有关模型的特征来导致隐私和鲁棒性问题,推理攻击一般分为四种,第一种是会员推理攻击,第二种是属性推理攻击,攻击者试图诱导其他客户的私有数据的属性,第三种是训练输入和标签推断攻击,这种攻击方式因其可以确定FL模型类的标签和客户机的训练输入往往更具有破坏性,第四种是基于GANs的推理攻击,这种情况下,可以生成对抗网络来执行强大的攻击。 后门攻击是指攻击者在模型训练过程中通过某种方式对模型植入后门,当后门没有被激发的时候,被攻击的模型与正常模型无异,但是当后门被激活时,模型的输出变成攻击者事先指定好的标签来达到恶意攻击的目的。 由于联邦学习框架的中心性和客户端的不可靠,联邦学习容易受到恶意客户端和服务器的攻击,Yinbin Miao等人设计了一种基于区块链的隐私保护拜占庭鲁棒联邦学习(PBFL)方案[3],他们使用余弦相似度来判断恶意客户端上传的恶意梯度,提供一个安全的全局模型来抵御中毒攻击,再采用全动态加密技术提供了一种隐私保护训练机制来实现安全聚合,这种方式可以有效阻止攻击者窥探客户端的本地数据,最后使用区块链技术,服务器执行链下计算并将结果上传到区块链。在这种情况下,用户可以通过浏览器访问网站,而不必担心被窃取隐私。 (编辑:银川站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |