加入收藏 | 设为首页 | 会员中心 | 我要投稿 应用网_阳江站长网 (https://www.0662zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 运营中心 > 建站资源 > 优化 > 正文

当传统联邦学习面临异构性挑战,不妨尝试这些个性化联邦学习算法

发布时间:2020-09-24 20:27:05 所属栏目:优化 来源:51cto
导读:本文选择了三篇关于个性化联邦学习的文章进行深入分析。 经典的机器学习方法基于样本数据(库)训练得到适用于不同任务和场景的机器学习模型。这些样本数据(库)一般通过从不同用户、终端、系统中收集并集中存储而得到。在实际应用场景中,这种收集样本数

作者在文章中通过理论分析和实验验证的方式证明了 FedAsync 的收敛性。对于强凸问题和非强凸问题,以及一类受限制的非凸问题,FedAsync 具有近似线性收敛到全局最优解的能力。在未来的工作中,作者计划进一步研究如何设计策略来更好的调整混合超参数。

二、Personalized Federated Learning with Moreau Envelopes

当传统联邦学习面临异构性挑战,不妨尝试这些个性化联邦学习算法

随着手持设备、移动终端的快速发展和推广应用,这些手持设备 / 移动终端产生的大量数据推动了联邦学习的发展。联邦学习以一种保护隐私和高效通信的方式通过分散在客户端(客户机设备)中的数据构建一个精确的全局模型。在实际应用中,经典联邦学习面临了这样一个问题:* 如何利用联邦学习中的全局模型来找到一个针对每个客户端数据进行个性化适配处理的“个性化模型”*?

参考个性化模型在医疗保健、金融和人工智能服务等领域中应用的模式,本文提出了一种个性化联邦学习方案,该方案引入了基于客户端损失函数的 Moreau envelopes 优化。通过该方案,客户端不仅可以像经典联邦学习一样构建全局模型,而且可以利用全局模型来优化其个性化模型。从几何的角度分析,该方案中的全局模型可以看作是所有客户端一致同意的“中心点”,而个性化模型是客户端根据其异构数据分布来构建的遵循不同方向的点。

2.1 方法介绍

首先,作者回顾了经典联邦学习:

当传统联邦学习面临异构性挑战,不妨尝试这些个性化联邦学习算法

(1)

其中,ω 表示全局模型,函数 f_i 表示客户端 i 中数据分布的预期损失。

当传统联邦学习面临异构性挑战,不妨尝试这些个性化联邦学习算法

其中,ξ_i 为根据客户端 i 的分布随机抽取数据样本,f_i(ω;ξ _i)表示对应于该样本和ω的损失函数。在联邦学习中,由于客户端的数据可能来自不同的环境、上下文和应用程序,因此客户端具有 Non-IID 数据分布,不同客户端的ξ_i 不同。

不同于经典联邦学习,本文对每个客户端使用 L_2 范数的正则化损失函数,如下所示:

当传统联邦学习面临异构性挑战,不妨尝试这些个性化联邦学习算法

(2)

其中,θ_i 表示客户端 i 的个性化模型,λ表示控制个性化模型的ω强度的正则化参数。虽然较大的λ可以从丰富的数据聚合中受益于不可靠的数据,但是较小的λ可以帮助拥有足够多有用数据的客户端优先进行个性化设置。总之,本文方法的目的是 * 允许客户端沿不同的方向更新本地模型,同时不会偏离每个客户端都贡献所得到的“参考点”ω*。个性化联邦学习可以表述为一个双层问题:

当传统联邦学习面临异构性挑战,不妨尝试这些个性化联邦学习算法

通过在外部层(outer level)利用来自多个客户端的数据聚合来确定ω,在内部层(inner level)针对客户端 i 的数据分布优化θ_i,并使其与ω保持一定距离。F_i(ω)定义为 Moreau envelope。最优个性化模型是解决 pFedMe 内部层问题的唯一解决方案,在文献中也被称为邻近算子(proximal operator),其定义如下:

当传统联邦学习面临异构性挑战,不妨尝试这些个性化联邦学习算法

(3)

为了进行比较,作者讨论了 Per-FedAvg[13],它可以说是最接近 pFedMe 的公式:

当传统联邦学习面临异构性挑战,不妨尝试这些个性化联邦学习算法

(4)

Per-FedAvg 是一个元学习方法,基于经典元学习的与模型无关的元学习(MAML)框架,Per-FedAvg 的目标是找到一个全局模型ω,可以用它作为初始化全局模型,进一步对损失函数执行梯度更新(步长为 α)来得到它的个性化模型θ_i(ω)。

与 Per-FedAvg 相比,本文的问题具有类似于 “元模型” 的考虑,但是没有使用ω作为初始化,而是通过解决一个双层问题来并行地求得个性化和全局模型,这种方式有几个好处:首先,虽然 Per-FedAvg 针对其个性化模型进行了一步梯度更新的优化,但 pFedMe 对内部优化器是不可知的,这意味着公式(3)可以使用任何具有多步更新的迭代方法来求解。其次,可以将 Per-FedAvg 的个性化模型更新重写为:

当传统联邦学习面临异构性挑战,不妨尝试这些个性化联邦学习算法

(5)

使用 < x,y > 作为两个向量 x 和 y 的内积,可以看到除了相似的正则化项外,Per-FedAvg 只优化了 f_i 的一阶近似,而 pFedMe 直接最小化了公式(3)中的 f_i。第三,Per-FedAvg(或通常基于 MAML 的方法)需要计算或估计 Hessian 矩阵,而 pFedMe 只需要使用一阶方法计算梯度。

此外,作者还给出了 Moreau envelope 的一些数学特性证明,这些数学特性能够保证引入 Moreau envelope 的联邦学习方法的收敛性。

假设 1(强凸性和光滑性):f_i 分别是(a)μ- 强凸或(b)非凸和 L - 光滑的(即 L-Lipschitz 梯度),如下所示:

当传统联邦学习面临异构性挑战,不妨尝试这些个性化联邦学习算法

假设 2(有界方差):每个客户端的随机梯度方差是有界的:

当传统联邦学习面临异构性挑战,不妨尝试这些个性化联邦学习算法

假设 3(有界多样性):局部梯度对全局梯度的方差是有界的

当传统联邦学习面临异构性挑战,不妨尝试这些个性化联邦学习算法

最后,作者回顾了 Moreau envelope 的一些有用的性质,例如平滑和保持凸性。

 

当传统联邦学习面临异构性挑战,不妨尝试这些个性化联邦学习算法

此外,如果 f_i 是μ强凸的,那么 f_i 是 F_i - 强凸的μ_F=λ_μ/(λ+μ)。

最后,作者介绍本文提出的 pFedMe 完整流程如下:

当传统联邦学习面临异构性挑战,不妨尝试这些个性化联邦学习算法

(编辑:应用网_阳江站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!