论文阅读:Differential privacy federated learning a client level perspective
作者:互联网
论文名字 | Differential privacy federated learning a client level perspective | |||
来源 | NIPS 2017 顶会 | |||
年份 | 2017 | |||
作者 | Robin C. Geyer, T assilo Klein, Moin Nabi | |||
核心点 | ||||
阅读日期 | 2021.1.21 和 2020.12.19 | |||
影响因子 |
| |||
页数 | 7 | |||
引用数 |
| |||
引用 |
| |||
内容总结 | ||||
文章主要解决的问题及解决方案: 问题:在联邦学习框架下,容易受到差分攻击,这种攻击可能来自联邦学习期间的任意一方。在这种攻击中,通过分析分布式模型来揭示客户端在训练期间的贡献和关于他们的数据集的信息。 解决方案:提出一种客户端差分隐私保护的联邦优化算法,目的是在训练期间隐藏客户的贡献,平衡隐私损失和模型性能之间的权衡,当参与者数量足够多的时候,所提方法可以维护客户端级的差分隐私,而模型性能的损失很低。
文章的主要工作: ①文章的主要贡献:①展示了当模型性能在联邦学习中保持较高时,客户的参与是可以隐藏的。证明了所提算法可以在模型性能损失较小的情况下实现客户端级的差分隐私;②提出在分布式训练期间动态地调整dp等级(dp-level)。经实验表明,模型性能会以这种方式提高。 ②在联合优化的框架中(即联邦学习框架),服务器端的中央管理这在每轮通信后对客户端模型(即权重矩阵)进行平均。而在文中所提算法中,将使用随机机制来改变和近似这种平均。这样做是为了隐藏单个客户端在集合中的贡献,从而隐藏在整个分布式联邦学习过程中的贡献。其中,用来近似平均值的随机化机制包括两个步骤:
新的中心模型wt+1是通过将近似值添加到当前的中心模型得到的: 平均值的失真由噪声方差S2σ2m控制。然而,该失真不应超过某个限制。否则,来自二次采样平均值的太多信息会被添加的噪声破坏,并且不会有任何训练进展。 ③为跟踪隐私损失(privacy loss),文中使用了论文[1]中提出的方法来计算privacy loss。每次中心管理者会根据给定的ϵ,σ,m来计算δ,其中δ主要是用来判断单个用户的贡献值是不是过高,过高时会存在隐私泄露问题。需要保证δ≪1k,在[4]书中2.3章有细节。比率r=σ2m决定失真和privacy loss,更高σ和更低m,隐私损失会更高 ④K个客户端梯度变化值△wi,j的方差: VAR△wi,j=1kk=0K△wi,jk-μi,j2 其中,μi,j=1Kk=1K△wi,jk 将更新矩阵中所有参数方差的和定义为 Vc=1q×pi=0qj=0pVAR△wi,j 更新标尺定义Us为: Us=1q×pi=0qj=0pμi,j2 ⑤实验部分: 与论文[5]一样,将MNIST数据集拆分,每个客户端得到两块碎片。 单个客户端无法在他们的数据集中训练一个模型,以使其达到十位数的精度。 客户端数量分别设置为100,1000,10000个,ϵ设置为8,当δ分别在100,1000,1000个客户端时达到e-3,e-5,e-6时停止训练。 ⑥算法流程:
⑦代码:https://github.com/SAP-samples/machine-learning-diff-private-federated-learning
文章内容: 实验结果: ACC:accuracy CR:number of communication CC:communication costs
附录: 存在的疑问: 疑问:δ怎么确定? |
标签:loss,privacy,模型,Differential,federated,更新,隐私,客户端 来源: https://blog.csdn.net/qq_39715243/article/details/113138060