一种扩展的分布式非精确多更新单组合算法
An Extended Distributed Inexact Method with Multi-Update and Single-Combination Strategy
摘要: 在这项工作中,我们提出了一种基于扩展梯度的分布式非精确单更新多组合算法(简称ExtendMUSIC)。该方法利用前两次迭代的梯度和来构造搜索方向,再利用多次局部更新然后定期组合的策略来求解光滑强凸的分布式优化问题。此外,我们证明了所提出的算法能够实现线性收敛。数值实验结果表明,与不使用扩展梯度的分布式多更新单组合算法相比,扩展的分布式多更新单组合算法可以实现加速收敛。
Abstract: In this work, we propose a distributed inexact multi-update and single-combination algorithm based on extended gradients (ExtendMUSIC). This method utilizes the gradient sum of the first two iterations to construct the search direction, and then uses the strategy of multiple local updates and periodic combinations to solve smooth and strongly convex distributed optimization problems. In addition, we prove that the proposed algorithm can achieve linear convergence. The numerical experimental results show that compared with the distributed multi-update and single-combination algorithm without using extended gradients, the extended distributed multi-update and single-combination algorithm can achieve accelerated convergence.
文章引用:郝晓惠, 肖艳阳. 一种扩展的分布式非精确多更新单组合算法[J]. 应用数学进展, 2025, 14(1): 410-422. https://doi.org/10.12677/aam.2025.141040

1. 引言

随着多智能体系统协调技术的快速发展,布式优化在分布式机器学习[1] [2]、传感器网络[3]、多智能体系统[4] [5]、电力系统控制[6]等诸多领域显示出巨大的潜力。考虑一个由n个节点组成的无向连接网络,每个节点都有私有的局部目标函数。分布式优化的全局目标函数是对所有局部目标函数的平均值求最小。分布式优化算法的挑战在于如何通过局部计算和通信使整个系统协同工作以找到全局最优解或近似最优解。局部计算是指每个节点仅根据局部目标函数更新自己的变量,局部通信是指每个节点只与相邻节点交换信息。

许多分布式优化算法已经被开发出来。由于计算成本低、易于实现,分布式梯度型方法已经成为最受欢迎的算法之一。早期的分布式梯度下降(DGD)方法[7] [8]可以使用衰减步长,缓慢地收敛到最优解。当使用固定步长时,DGD可以实现线性收敛,但是只能收敛到最优解的邻域。因此,当不需要高精度时,固定步长的DGD方法是不错的选择。文献[9]-[11]等结合了更多的技术,可以线性收敛到最优解,这些技术包括两次连续迭代的差值[9]、梯度跟踪技术[10]和多步一致性[11]等,但是这些技术会带来更多的计算和通信负担。当前,有一类加速方案是利用前几次迭代的梯度来更新变量,比如乐观梯度下降–上升(OGDA)方法[12]和Hessian采样的惯性梯度算法(IGAHD) [13]通过前两次迭代的梯度差来更新变量。此外,文献[14]中的Anderson加速梯度下降法(AA-PGA)通过使用前几次迭代的梯度的凸组合来更新变量。在文献[15]中,Tang等人采用了改进的分布式Anderson加速法(ELLADA)来减少迭代次数,加速收敛。近期,Zhang等[16]人引入了一种扩展的分布式梯度下降方法,即沿着前两次迭代的梯度和的方向更新变量。对于分布式强凸优化,当步长小于给定上界时,扩展的分布式梯度下降方法可以实现线性收敛性。数值实验也表明,使用扩展梯度的梯度下降方法比传统的梯度下降方法具有更好的搜索方向。在文献[17]中,Wu等人提出了一种非精确的多更新单组合(MUSIC)策略的分布式优化方法并证明了其线性收敛性,然后基于非精确的MUSIC框架,结合局部梯度矫正技术,设计了一种精确的MUSIC加速算法,该方法可以实现快速的精确收敛以及高效通信。多更新的思想来源于集中式局部更新随机梯度下降方法(局部更新SGD) [18],它允许节点执行多个局部更新,然后定期进行组合。众所周知的联邦平均(FedAvg)算法[19]就是局部更新SGD的衍生物,专门为不平衡的参与设备设计。

受扩展梯度法具有更好的搜索方向的启发,结合多更新单组合策略(MUSIC),针对无向网络上的分布式优化问题,我们提出了一种扩展的分布式多更新单组合算法(ExtendMUSIC)。具体来说,该方法沿着前两次迭代的梯度和的方向下降,允许每个节点执行多个局部更新,然后定期进行组合。对于光滑强凸函数,我们证明了ExtendMUSIC能够线性收敛到最优解的邻域。最后,数值实验验证了ExtendMUSIC的有效性。

本文剩余部分组织如下:第二章主要介绍了分布式优化问题以及我们所提出的方法。第三章提供了ExtendMUSIC的收敛性分析。第四章进行数值实验验证算法的有性。最后,我们对全文进行总结并提出展望。

本文主要符号如下:为了更好地理解这项工作,在整个论文中,所涉及的矩阵和向量分别用大写字母和小写字母表示,标量用标准字体表示,其中, x T 表示向量x的转置,算子 表示克罗内克积。 表示向量的欧氏范数和矩阵的谱范数, x 表示不超过x的最大整数,其在欧几里得空间中的内积用 表示。

2. 问题描述及扩展的先适应再结合分布式梯度下降方法

本章首先介绍分布式优化问题的数学模型,并给出了主要假设。然后,简要回顾了扩展的分布式梯度下降方法和带有多更新单组合策略(MUSIC)的非精确分布式优化算法。最后,提出了扩展的分布式多更新单组合算法。

2.1. 问题描述

我们关注一个由n个节点组成的无向网络,这个网络可以用无向图 G = ( V , E ) 来表示,其中V表示节点的集合,E表示边 ( i , j ) 的集合,其中 i , j V 。如果 i , j E ,则ij之间的信息可以相互传递。定义权重矩阵 W = [ w i j ] n × n ,其中 w i j 表示智能体i传递给其邻居j的信息权重。分布式优化问题可以表述为:

min x N f ( x ) = 1 n i = 1 n f i ( x ) (2.1)

其中 f i : N 是一个连续可微函数。接下来,我们给出以下几个基本假设。

假设1:(光滑性)局部目标函数 f i L-光滑的,也就是说,对任意的 x ˜ , y ˜ N ,有

f i ( x ˜ ) f i ( y ˜ ) L x ˜ y ˜ . (2.2)

假设2:(强凸性)局部目标函数 f i μ 强凸的,也就是说,对任意的 x ˜ , y ˜ N ,有

f i ( y ˜ ) f i ( x ˜ ) f i ( x ˜ ) , y ˜ x ˜ + μ 2 y ˜ x ˜ 2 . (2.3)

假设1和2中的常数L μ 满足 0 < μ L 。假设1和2表明全局目标函数f也是L-光滑和 μ -强凸的,因此,f有唯一最优解,记为 x * . 本文中设 f * = f ( x * )

假设3:权重矩阵W具有下列性质:

  • 如果 ( i , j ) E ,那么 w i j > 0 。对任意的 i V w i i > 0 。否则, w i j = 0

  • 权重矩阵W是双随机的,也就是说对任意的 i , j V i = 1 n w i j = j = 1 n w i j = 1

W的第二大奇异值为 σ ( 0 , 1 ) σ 可以用来表示图参数[10]。对任意的 ω n W ω 1 ω ¯ σ ω 1 ω ¯ ,其中 ω ¯ = 1 n 1 T ω

假设4:(梯度有界) 假设 f i x ˜ N 处的梯度是有界的,即对于所有 i = 1 , , n ,有

0 G min f i ( x i k ) G max .

2.2. 扩展的分布式梯度下降方法

具体来说,扩展的非精确MUSIC算法由两个循环迭代组成,即节点内的计算循环和节点之间通信循环。下面,我们将算法过程中的总迭代次数表示为K,每K个局部更新步骤进行一次组合,由于通信只发生在组合步骤中,因此每个节点的通信轮数等于 K / E ,其中一轮意味着节点i向其相邻节点发送当前估计值 x k i ,并接收 x k j ,其中 j N i 。设 E 是组合步骤的集合,即 E = { t E | t = 0 , 1 , 2 , , K / E } 。因此,存在 k 0 = t E k ,对于任意 k > 0 ,满足 k k 0 E 。我们可以用下面的迭代来描述扩展的非精确MUSIC算法:

x k + 1 i = { x k i η ( f i ( x k i ) + f i ( x k 1 i ) ) , k + 1 E . j N i w i j ( x k j η ( f j ( x k j ) + f i ( x k 1 j ) ) ) , k + 1 E . (2.4)

如果我们引入中间变量 v k i ,那么(2.4)可以重写为:

v k + 1 i = x k i η ( f i ( x k i ) + f i ( x k 1 i ) ) , x k + 1 i = { v k + 1 i , k + 1 E . j N i w i j v k + 1 j , k + 1 E . (2.5)

这对后续的收敛分析很有用。其中, v k + 1 i 是扩展的梯度下降在 x k i 处的结果。值得注意的是,当 E = 1 时,扩展的非精确MUSIC方法可以被简化为使用扩展梯度的先适应再结合(ATC)方法,即

x k + 1 i = j N i w i j ( x k i η ( f i ( x k i ) + f i ( x k 1 i ) ) ) .

3. 收敛性分析

为方便记述,我们引入以下在分析中使用的变量: v ¯ k i = j = 1 N w i j v k j x ¯ k i = j = 1 N w i j x k j 以及 g ¯ i k = j = 1 N w i j f j ( x k j )

3.1. 关键引理

下面,给出几个关键引理,以建立与网络最优性间隙 v ¯ k i x * 2 相关的一般动力系统。

首先,求出一步扩展的梯度下降((2.4)中第一个等式)的有界结果,这为后面的应用提供了一个重要的关系式。

引理1:在光滑性和强凸性的假设下,对于一步扩展的梯度下降((2.4)中第一个等式),如果步长 η

η 1 2 L ,有

v ¯ i t + 1 x * 2 ( 1 μ η ) x ¯ k i x * 2 + j = 1 N w i j x k j x ¯ k i 2 + j = 1 N w i j x k 1 j x ¯ k i 2 + γ j = 1 N w i j x k j x ¯ k j 2 + γ j = 1 N w i j x k 1 j x ¯ k j 2 + 4 η τ , (3.1)

其中,对任意节点i γ = η ( 1 3 L η ) π 以及 0 < π < 1 L f i ( x * ) f i * τ

证明:基于(2.4)中第一个等式以及 v ¯ k i , x ¯ k i g ¯ k i 的定义,有

v ¯ k + 1 i x * 2 = x ¯ k i η ( g ¯ k i + g ¯ k 1 i ) x * 2 = x ¯ k i x * 2 2 η x ¯ k i x * , g ¯ k i + g ¯ k i A 1 + η 2 g ¯ k i + g ¯ k 1 i 2 A 2 . (3.2)

首先求 A 2 的界。

A 2 = η 2 g ¯ k i + g ¯ k i 2 2 η 2 g ¯ k i 2 + 2 η 2 g ¯ k 1 i 2 = 2 η 2 j = 1 N w i j f j ( x k j ) 2 + 2 η 2 j = 1 N w i j f j ( x k 1 j ) 2 2 η 2 j = 1 N w i j f j ( x k j ) 2 + 2 η 2 j = 1 N w i j f j ( x k 1 j ) 2 4 L η 2 j = 1 N w i j ( f j ( x k j ) f j * ) + 4 L η 2 j = 1 N w i j ( f j ( x k 1 j ) f j * ) , (3.3)

其中第一个不等式是根据 a , b N , ( a + b ) 2 2 a 2 + 2 b 2 这一事实得到,第二个不等式是根据 f j 的凸性得到的,最后一个不等式基于 f j L-光滑性得到的。

接下来,求出 A 1 的界。

A 1 = 2 η x ¯ k i x * , g ¯ k i + g ¯ k 1 i = 2 η x ¯ k i x * , j = 1 N w i j g k j 2 η x ¯ k i x * , j = 1 N w i j g k 1 j = 2 η j = 1 N w i j x ¯ k i x * , g k j 2 η j = 1 N w i j x ¯ k i x * , g k 1 j = 2 η j = 1 N w i j x ¯ k i x k j + x k j x * , g k j 2 η j = 1 N w i j x ¯ k i x k 1 j + x k 1 j x * , g k 1 j = 2 η j = 1 N w i j x ¯ k i x k j , g k j 2 η j = 1 N w i j x k j x * , g k j   2 η j = 1 N w i j x ¯ k i x k 1 j , g k 1 j 2 η j = 1 N w i j x k 1 j x * , g k 1 j , (3.4)

其中在第二个等式中我们用到了 g k j f j ( x k j ) 。根据 μ -强凸性,有

x k j x * , g k j ( f j ( x k j ) f j ( x * ) ) μ 2 x k j x * 2 , (3.5)

x k 1 j x * , g k 1 j ( f j ( x k 1 j ) f j ( x * ) ) μ 2 x k 1 j x * 2 . (3.6)

根据AM-GM不等式,有对任意向量a以及b ± 2 a , b η a 2 + η 1 b 2 。因此,下式成立,

2 x ¯ k i x k j , g k j η 1 x ¯ k i x k j 2 + η g k j 2 , (3.7)

2 x ¯ k i x k 1 j , g k 1 j η 1 x ¯ k i x k 1 j 2 + η g k 1 j 2 . (3.8)

将(3.5)~(3.8)代入到(3.4),有

A 1 2 η j = 1 N w i j x ¯ k i x k j , g k j 2 η j = 1 N w i j x k j x * , g k j 2 η j = 1 N w i j x ¯ k i x k 1 j , g k 1 j 2 η j = 1 N w i j x k 1 j x * , g k 1 j j = 1 N w i j ( x ¯ k i x k j 2 + η 2 g k j 2 ) 2 η j = 1 N w i j ( f j ( x k j ) f j ( x * ) + μ 2 x k j x * 2 ) + j = 1 N w i j ( x ¯ k i x k 1 j 2 + η 2 g k 1 j 2 ) 2 η j = 1 N w i j ( f j ( x k 1 j ) f j ( x * ) + μ 2 x k 1 j x * 2 ) . (3.9)

结合 x ¯ k i x * 2 = j = 1 N w i j ( x k j x * ) 2 j = 1 N w i j x k j x * 2 以及 A 2 的界(3.3),可以求出 A 1 + A 2 的界。

A 1 + A 2 μ η x ¯ k i x * 2 + j = 1 N w i j x ¯ k i x k j 2 + 2 η j = 1 N w i j [ 3 L η ( f j ( x k j ) f j * ) ( f j ( x k j ) f j ( x * ) ) ] B 1 μ η x ¯ k 1 i x * 2 + j = 1 N w i j x ¯ k i x k 1 j 2 + 2 η j = 1 N w i j [ 3 L η ( f j ( x k 1 j ) f j * ) ( f j ( x k 1 j ) f j ( x * ) ) ] B 2 . (3.10)

根据 τ 的定义,将 B 1 重写为

B 1 = 2 η j = 1 N w i j [ ( 3 L η 1 ) ( f j ( x k j ) f j * ) + ( f j ( x * ) f j * ) ] 2 η ( 3 L η 1 ) j = 1 N w i j ( f j ( x k j ) f j * ) C 1 + 2 η τ . (3.11)

下面,求出 C 1 的界,有

C = j = 1 N w i j ( f j ( x k j ) f j * ) = j = 1 N w i j [ ( f j ( x k j ) f j ( x ¯ k j ) ) + ( f j ( x ¯ k j ) f j * ) ] j = 1 N w i j [ f j ( x ¯ k j ) , x k j x ¯ k j + ( f j ( x ¯ k j ) f j * ) ] 1 2 j = 1 N w i j [ π f j ( x ¯ k j ) 2 + 1 π x k j x ¯ k j 2 ] + j = 1 N w i j ( f j ( x ¯ k j ) f j * ) j = 1 N w i j [ L π ( f j ( x ¯ k j ) f j * ) + 1 2 π x k j x ¯ k j 2 ] + j = 1 N w i j ( f j ( x ¯ k j ) f j * ) j = 1 N w i j [ ( L π 1 ) ( f j ( x ¯ k j ) f j * ) + 1 2 π x k j x ¯ k j 2 ] , (3.12)

其中,第一个不等式是基于 f j 的凸性,第二个不等式是基于下面这一事实得到的,对任意向量 a , b N 以及 π > 0 ,有 2 a , b π a 2 + π 1 b 2 。在第三个不等式中,使用了 f j L-光滑性。如果 L π 1 < 0 (i.e.,

π < 1 L )成立,那么根据 f j ( x ¯ k j ) f j * 0 这一事实,C可以被进一步限定为:

C 1 1 2 π j = 1 N w i j x k j x ¯ k j 2 . (3.13)

基于 η 1 3 L ,将(3.13)代入到(3.11),有

B 1 γ j = 1 N w i j x k j x ¯ k j 2 + 2 η τ , (3.14)

同理, B 2 可以化简如下

B 2 = 2 η j = 1 N w i j [ ( 3 L η 1 ) ( f j ( x k 1 j ) f j * ) + ( f j ( x * ) f j * ) ] 2 η ( 3 L η 1 ) j = 1 N w i j ( f j ( x k 1 j ) f j * ) C 2 + 2 η τ (3.15)

其中,

C 2 1 2 π j = 1 N w i j x k 1 j x ¯ k 1 j 2 . (3.16)

将(3.10)以及(3.14)~(3.16)代入(3.2)可以得到(3.1)结果。证毕。

接下来,约束不等式右边的第二项和第三项。

引理2:在有界梯度的假设下,对于扩展的非精确MUSIC方法的 x k j x ¯ k j ,有

x k j x ¯ k j 4 η ( k k 0 ) G max (3.17)

其中, k 0 E 表示一次组合时间,对任意的k,满足 0 k k 0 E 1

证明:首先,在 k = k 0 的情况下,由于 x j k 0 = x ¯ j k 0 。基于组合策略((2.5)中的第二个等式),不等式(3.17)恒成立。其次,可以将 x k j x ¯ k j 写为

x k j x ¯ k j = x k j x k 0 j + x k 0 j x ¯ k j x k j x k 0 j + x ¯ k j x k 0 j . (3.18)

对于从 k 0 k k 0 + E 1 的内循环迭代,有

x k 0 + 1 j = x k 0 j η f j ( x k 0 j ) η f j ( x k 0 1 j ) , x k 0 + 2 j = x k 0 + 1 j η f j ( x k 0 + 1 j ) η f j ( x k 0 j ) , x k j = x k 1 j η f j ( x k 1 j ) η f j ( x k 2 j ) . (3.19)

对(3.19)求和得出

x k j x k 0 j = η s = k 0 k f j ( x s j ) η s = k 0 1 k 1 f j ( x s j ) . (3.20)

根据梯度有界假设,我们可以得出

x k j x k 0 j = η s = k 0 k f j ( x s j ) + η s = k 0 1 k 1 f j ( x s j ) η s = k 0 k f j ( x s j ) + η s = k 0 1 k 1 f j ( x s j ) 2 η ( k k 0 ) G max . (3.21)

通过对(3.19)进行加权求和,可以得到

x ¯ k 0 + 1 j = x ¯ k 0 j η l = 1 N w j l f l ( x k 0 l ) η l = 1 N w j l f l ( x k 0 1 l ) , x ¯ k 0 + 2 j = x ¯ k 0 + 1 j η l = 1 N w j l f l ( x k 0 + 1 l ) η l = 1 N w j l f l ( x k 0 l ) , x ¯ k j = x ¯ j k 1 η l = 1 N w j l f l ( x k 1 l ) η l = 1 N w j l f l ( x k 2 l ) . (3.22)

用同样的求和以及二次正则的方法,我们同样可以得到

x ¯ k j x ¯ k 0 j = η s = k 0 k l = 1 N w j l f l ( x s l ) + η s = k 0 1 k 1 l = 1 N w j l f l ( x s l ) η s = k 0 k l = 1 N w j l f l ( x s l ) + η s = k 0 1 k 1 l = 1 N w j l f l ( x s l ) 2 η ( k k 0 ) G max . (3.23)

由于 x ¯ k 0 j = x k 0 j ,将(3.23)重写为

x ¯ k j x k 0 j 2 η ( k k 0 ) G max (3.24)

把(3.21)和(3.24)代入(3.18),证明完成。

在确定 x j k x ¯ i k 的界之前,我们还要引入一个有界的假设。

假设5:对于扩展的非精确MUSIC (2.5)中的任意迭代 k 0 E ,任意两个代理ij之间的偏差都是有界的,即 x k 0 j x k 0 i ε ,其中 ε 是一个很小的非负常数。

先前的许多研究都清楚地表明,由组合(共识)步骤((2.5)中的第二个等式)生成的所有迭代点的估计值之间的差值几乎肯定为零,也就是说:当网络连通性,双随机权重 w i j 和有界梯度假设成立时,

lim k x k j x k i = 0 的概率为1。因此,有限的 x j t 0 x i t 0 是一个合理的假设。从而,我们可以得到下面的引理。

引理3:在有界假设条件下,对于扩展的非精确MUSIC算法(2.5),对任意 k 0 E 以及 0 k k 0 E 1 x k j x ¯ k i 是有界的,可以表述为下式:

x k j x ¯ k i 8 η ( k k 0 ) G max + ε , (3.25)

x k 1 j x ¯ k i 8 η ( k k 0 ) G max + ε . (3.26)

证明:注意到,对于网络上的任意两个代理ij

x k j x ¯ k i = x k j x ¯ k j + x ¯ k j x ¯ k i x k j x ¯ k j + x ¯ k j x ¯ k i . (3.27)

对于(3.27)右边的第二项,有

x ¯ k j x ¯ k i = ( x ¯ k j x k 0 j ) + ( x k 0 i x ¯ k i ) + ( x k 0 j x k 0 i ) x ¯ k j x k 0 j + x k 0 i x ¯ k i + x k 0 j x k 0 i 4 η ( k k 0 ) G max + ε , (3.28)

其中我们使用了不等式(3.24)和有界假设。将(3.17)和(3.28)代入(3.27)即可得到,

x k j x ¯ k i 8 η ( k k 0 ) G max + ε .

下面,求出 x ¯ k 1 j x ¯ k i 的界。

x ¯ k 1 j x ¯ k i x k 1 j x ¯ k 1 j + x ¯ k 1 j x ¯ k i 4 η ( k k 0 ) G max + x ¯ k 1 j x k 0 j + x k 0 j x ¯ k i + x k 0 j x k 0 i 8 η ( k k 0 ) G max + ε , (3.29)

证毕。

3.2. 收敛性结果

最后,可以得到扩展的不精确MUSIC的收敛结果如下。

定理1:当假设1~5均成立且步长满足 η 1 3 L 时,扩展的非精确MUSIC方法(2.5)在均方意义上线性收敛到最优解的邻域,即对任意的 t = 1 , 2 , , K / E ,有

x ¯ t E i x * 2 ( 1 μ η ) t E x ¯ 0 i x * 2 + D 1 , (3.30)

其中

D 1 = 1 ( 1 μ η ) k E 1 ( 1 μ η ) E s = 0 E 1 ξ E 1 s ( 1 μ η ) s k O ( ( E 1 ) 2 ( 128 + 32 γ ) η 2 G max 2 + 4 η τ μ η ) , (3.31)

以及 ξ s = 4 γ η 2 s 2 G max 2 + [ 4 η s G max + ε ] 2 + 2 η τ

证明:众所周知,不管是 k E 还是 k E x ¯ k i = v ¯ k i 总是成立的。因此,结合引理1~3,我们有

x ¯ k + 1 i x * 2 ( 1 μ η ) x ¯ k i x * 2 + ξ k k 0 . (3.32)

为方便起见,定义 Δ k = x ¯ k i x * 2 ,还可以将(3.32)写成

Δ k + 1 ( 1 μ η ) Δ k + ξ k k 0 . (3.33)

k 0 + 1 k 0 + E 通过递归应用(3.33),有

Δ k 0 + E ( 1 μ η ) E Δ k 0 + s = 0 E 1 ξ E 1 s ( 1 μ η ) s , (3.34)

或者

x ¯ t E i x * 2 ( 1 μ η ) E x ¯ ( t 1 ) E i x * 2 + D 2 , (3.35)

其中 D 2 = s = 0 E 1 ξ E 1 s ( 1 μ η ) s t = 1 , 2 , , K / E 。通过递归使用(3.35) t次,我们得到

x ¯ t E i x * 2 ( 1 μ η ) t E x ¯ 0 i x * 2 + D 1 , (3.36)

其中

D 1 = D 2 ( 1 ( 1 μ η ) t E ) 1 ( 1 μ η ) E . (3.37)

t 时,我们可以得出结论:在标准共识策略下,局部估计值之间渐近地达成了共识(即 lim t ε = 0 )。此外,为了简化计算,我们还在(3.33)中使用了 ξ k k 0 = ξ E 1 ,从而得到

lim sup t ξ E 1 = ( E 1 ) 2 ( 128 + 32 γ ) η 2 G max 2 + 4 η τ , (3.38)

lim sup k D 2 = 1 ( 1 μ η ) E μ η lim sup k ξ E 1 . (3.39)

以及

lim sup k D 1 = ( E 1 ) 2 ( 128 + 32 γ ) η G max 2 + 4 τ μ , (3.40)

证毕。

定理1表明,扩展的非精确MUSIC方法以 O ( ( 1 μ η ) k E ) 的速率线性收敛,收敛速度分别随E η 的增大单调递增和单调递减,直到达到误差邻域,且误差邻域大小为

O ( ( E 1 ) 2 ( 128 + 32 γ ) η G max 2 μ + 4 τ μ ) . (3.41)

E = 1 时,扩展的非精确MUSIC会退化为使用扩展梯度的ATC版本,收敛速率为 O ( ( 1 μ η ) t ) ,渐近误差大小为 O ( 4 τ μ )

注:( η E的选择) 一方面,根据定理1,局部更新的频率E没有限制,这意味着E可以取一个大的值来加速收敛。另一方面,过大的E值会显著扩大误差邻域的大小。因此,参数E在平衡收敛速度和精度之间的权衡方面起着类似于步长 η 的作用。因此,通过选择一个略大于1的E(例如2,3,4)和较小的步长,就可以实现收敛速度和精度的双赢。这有效地解决了传统优化技术(例如DGD方法)长期存在的挑战。

4. 数值实验

在本节中,我们通过解决二进制的逻辑回归学习分类问题来测试扩展的非精确MUSIC的性能。每个节点有一个如下局部目标函数

f i ( x ) = 1 m j = 1 m ln ( 1 + exp ( γ i , j h i , j T x ) ) + μ 2 x 2 . (3.42)

其中 { h i , j N } 为特征向量, γ i , j { 1 , 1 } 为对应的标签。利用“letter”数据集和平均度为4的Erdos-Renyi模型来生成连接网络,使用第二个和第四个标签将“letter”数据子集划分为 n = 50 个节点,其中每个节点接收 m = 30 个维度为 N = 16 的训练样本。在这个问题中,由于最优解 x * 是未知的,我们用一个非常小的步长运行集中式梯度下降迭代2 × 105次近似求出 x *

图1中可以看出,当迭代过程中步长固定( η = 0.4 )时,参数E的作用与步长 η 类似,即E η 越大(越小)收敛速度越快(越慢),精度越低(越高)。这样验证了ExtendMUSIC框架可以在速度和精度之间实现平衡,例如,既可以实现快速的速度,又可以实现良好的精度。

Figure 1. Effect of step size and E on the performance of the algorithm ExtendMUSIC. (a) The effect of different E on algorithm performance with a constant step size; (b) The effect of different step sizes on algorithm performance with a fixed E

1. 步长和E对算法ExtendMUSIC的性能影响。(a) 固定步长下,不同的E对算法性能的影响;(b) 固定E下,不同的步长对算法性能的影响

图2中可以看出,在相同步长下( η = 0.2 ),使用扩展梯度的ExtendMUSIC方法比不使用扩展梯度的MUSIC方法可以更快找到非精确解,同理,ATC方法也是。此外,在相同步长下( η = 0.2 ),基于多更新单组合策略的方法比不使用多更新单组合策略的方法可以实现更快收敛。

Figure 2. The performance comparison of different methods with the same step size

2. 相同步长下,不同方法的性能比较

5. 总结与展望

本文首先介绍了一种基于多更新单组合策略的分布式扩展梯度方法ExtendMUSIC。然后,建立了该方法的线性收敛性。最后,通过数值算例验证了该方法的收敛性以及不同的组合次数E对算法的影响,并与现有的经典梯度方法进行了比较。在未来,这项工作中使用的加速技术可以应用于更多的优化问题。

参考文献

[1] Nedic, A. (2020) Distributed Gradient Methods for Convex Machine Learning Problems in Networks: Distributed Optimization. IEEE Signal Processing Magazine, 37, 92-101.
https://doi.org/10.1109/msp.2020.2975210
[2] Duan, Y. and Wu, J. (2023) Accelerating Distributed Machine Learning with Model Compression and Graph Partition. Journal of Parallel and Distributed Computing, 179, Article 104705.
https://doi.org/10.1016/j.jpdc.2023.04.006
[3] Yan, J., Jiao, H., Pu, W., Shi, C., Dai, J. and Liu, H. (2022) Radar Sensor Network Resource Allocation for Fused Target Tracking: A Brief Review. Information Fusion, 86, 104-115.
https://doi.org/10.1016/j.inffus.2022.06.009
[4] Guo, S., Zhao, X., Wang, H. and Xu, N. (2023) Distributed Consensus of Heterogeneous Switched Nonlinear Multiagent Systems with Input Quantization and Dos Attacks. Applied Mathematics and Computation, 456, Article 128127.
https://doi.org/10.1016/j.amc.2023.128127
[5] Li, Y., He, X. and Xia, D. (2022) Distributed Fixed-Time Optimization for Multi-Agent Systems with Time-Varying Objective Function. International Journal of Robust and Nonlinear Control, 32, 6523-6538.
https://doi.org/10.1002/rnc.6157
[6] Mbungu, N.T., Ismail, A.A., AlShabi, M., Bansal, R.C., Elnady, A. and Hamid, A.K. (2023) Control and Estimation Techniques Applied to Smart Microgrids: A Review. Renewable and Sustainable Energy Reviews, 179, Article 113251.
https://doi.org/10.1016/j.rser.2023.113251
[7] Nedic, A. and Ozdaglar, A. (2009) Distributed Subgradient Methods for Multi-Agent Optimization. IEEE Transactions on Automatic Control, 54, 48-61.
https://doi.org/10.1109/tac.2008.2009515
[8] Yuan, K., Ling, Q. and Yin, W. (2016) On the Convergence of Decentralized Gradient Descent. SIAM Journal on Optimization, 26, 1835-1854.
https://doi.org/10.1137/130943170
[9] Shi, W., Ling, Q., Wu, G. and Yin, W. (2015) EXTRA: An Exact First-Order Algorithm for Decentralized Consensus Optimization. SIAM Journal on Optimization, 25, 944-966.
https://doi.org/10.1137/14096668x
[10] Qu, G. and Li, N. (2018) Harnessing Smoothness to Accelerate Distributed Optimization. IEEE Transactions on Control of Network Systems, 5, 1245-1260.
https://doi.org/10.1109/tcns.2017.2698261
[11] Gao, J., Liu, X., Dai, Y., Huang, Y. and Yang, P. (2021) Achieving Geometric Convergence for Distributed Optimization with Barzilai-Borwein Step Sizes. Science China Information Sciences, 65, Article No. 149204.
https://doi.org/10.1007/s11432-020-3256-x
[12] Popov, L.D. (1980) A Modification of the Arrow-Hurwicz Method for Search of Saddle Points. Mathematical Notes of the Academy of Sciences of the USSR, 28, 845-848.
https://doi.org/10.1007/bf01141092
[13] Attouch, H., Chbani, Z., Fadili, J. and Riahi, H. (2020) First-Order Optimization Algorithms via Inertial Systems with Hessian Driven Damping. Mathematical Programming, 193, 113-155.
https://doi.org/10.1007/s10107-020-01591-1
[14] Mai, V. and Johansson, M. (2020) Anderson Acceleration of Proximal Gradient Methods. In International Conference on Machine Learning, Online, 13-18 July 2020, 6620-6629.
[15] Tang, W. and Daoutidis, P. (2021) Fast and Stable Nonconvex Constrained Distributed Optimization: The ELLADA Algorithm. Optimization and Engineering, 23, 259-301.
https://doi.org/10.1007/s11081-020-09585-w
[16] Zhang, X., Liu, S. and Zhao, N. (2023) An Extended Gradient Method for Smooth and Strongly Convex Functions. Mathematics, 11, Article 4771.
https://doi.org/10.3390/math11234771
[17] Wu, M., Liao, H., Ding, Z. and Xiao, Y. (2024) MUSIC: Accelerated Convergence for Distributed Optimization with Inexact and Exact Methods. IEEE Transactions on Neural Networks and Learning Systems, 1-15.
https://doi.org/10.1109/tnnls.2024.3376421
[18] Mangasarian, L.O. (1995) Parallel Gradient Distribution in Unconstrained Optimization. SIAM Journal on Control and Optimization, 33, 1916-1925.
https://doi.org/10.1137/s0363012993250220
[19] Kairouz, P., McMahan, H.B., Avent, B., Bellet, A., Bennis, M., Nitin Bhagoji, A., et al. (2021) Advances and Open Problems in Federated Learning. Now Publishers.
https://doi.org/10.1561/9781680837896

Baidu
map