非光滑非凸–强拟凹鞍点问题的Bregman近端梯度算法
Bregman Proximal Gradient Algorithm for Nonsmooth Nonconvex-Strongly Quasi-Concave Saddle Point Problems
摘要: 针对非光滑非凸–强拟凹鞍点问题,本文利用Bregman距离建立了Bregman近端梯度上升下降算法。对Bregman近端梯度上升迭代算法中,得到内部最大化问题函数差值不等式,从而得到近端梯度上升迭代点之间的不等式关系。对于非凸非光滑问题,引入扰动类梯度下降序列,得到算法的次收敛性,当目标函数为半代数时,得到算法的全局收敛性。
Abstract: For the nonsmooth nonconvex-strongly quasi-concave saddle point problems, this paper establishes the Bregman proximal gradient ascent-descent algorithm by using the Bregman distance. In the Bregman proximal gradient ascent iterative algorithm, the difference inequality of the internal maximization problem function is obtained, and thus the inequality relationship between the proxi-mal gradient ascent iterative points is derived. For nonconvex and nonsmooth problems, a perturbed gradient-like descent sequence is introduced to obtain the sub-convergence of the algorithm. When the objective function is semi-algebraic, the global convergence of the algorithm is obtained.
文章引用:张艳, 李小兵. 非光滑非凸–强拟凹鞍点问题的Bregman近端梯度算法[J]. 应用数学进展, 2025, 14(1): 442-452. https://doi.org/10.12677/aam.2025.141043

1. 引言

在现代科学与工程的众多领域里,优化问题无处不在。无论是经济系统中的资源分配,还是机器学习中的模型训练;不管是工程控制中的参数调节,亦或是博弈论中的策略选择,优化理念贯穿于其中。传统的凸优化问题因其良好性质已得到广泛且深入的研究。但现实世界复杂多样,很多实际问题无法简单归为凸优化问题。例如,在机器学习领域,生成对抗网络(GANs) [1]里生成器和判别器之间的博弈就呈现出非凸非光滑的极大极小问题特征;在经济学中,企业间竞争策略的制定也存在类似情况。并且在鲁棒优化[2]、图像处理[3]、信号处理[4]等更多领域,非凸非光滑的极大极小问题正亟待深入探索与有效解决。近几年对于非凸非光滑的极大极小问题备受学者们的关注[5]-[7]

本文将考虑下面的鞍点问题:

min x n max y m { F ( x , y ) = f ( x ) + c ( x , y ) g ( y ) } (1)

其中 f : n ( , + ) 是真下半连续函数, c : n × m 是一个连续可微函数( C 1 ), g : m ( , + ) 是一个真凸下半连续函数, n , m 分别表示为n维,m维实向量空间。

x n , c ( x , y ) g ( y ) 关于y σ 1 -强凹函数( σ 1 > 0 )时,Cohen和Teboulle [6]提出近端梯度上升下降法(PGDA)求解问题(1),即

y k + 1 = prox β g ( y k + β y c ( x k , y k ) ) x k + 1 = prox α f ( x k α x c ( x k , w k ) ) (2)

w k = y k 时,为平行近端梯度上升下降法(PPGDA);当 w k = y k + 1 时,为交替近端梯度上升下降法(APGDA)。Cohen和Teboulle [6]还提出了Bregman近端梯度下降上升法(BGDA):

y k + 1 = arg max y m { y c ( x k , y k ) , y g ( y ) 1 2 β y y k 2 } x k + 1 arg min x n { f ( x ) + x c ( x k , w k ) , x + 1 α D h ( x , x k ) } (3)

w k = y k 时,是平行Bregman近端梯度下降上升法(PBGDA);当 w k = y k + 1 时,为交替近端梯度下降上升法(ABGDA)。

本文对函数 c ( x , y ) g ( y ) 的凹性条件做了改变,将其凹性条件减弱,变为强拟凹,即 x n , c ( x , y ) g ( y ) 关于y σ 1 -强拟凹函数( σ 1 > 0 )。

在实际的各类现实问题情境中,非光滑非凸–强拟凸极小极大问题的出现频率相对更高。例如,经济学领域中的生产与成本优化问题、资源分配与福利经济学问题;博弈论领域中的非合作博弈的均衡求解;机器学习领域中的深度学习模型的训练优化、强化学习中的策略优化等等。

受算法(3)的启发,对于y-步迭代过程,我们将y-步中的 y y k 2 部分同样用Bregman距离代替,即

y k + 1 = arg max y m { y c ( x k , y k ) , y g ( y ) 1 2 β D h 1 ( y , y k ) } x k + 1 arg min x n { f ( x ) + x c ( x k , w k ) , x + 1 α D h 2 ( x , x k ) } (4)

在我们的算法中,y-步迭代的正则部分( y y k 2 )也为Bregman距离,当Bregman距离为欧式空间的距离时,即为算法(3)。算法(3)是算法(4)的特殊情况,故算法(4)更有意义。对于算法的收敛性分析本文借鉴Cohen和Teboulle [6]的方法引入扰动类梯度下降序列,得到算法的次收敛性,对于目标函数是半代数函数时,得到算法的全局的收敛性。

2. 将鞍点问题复合最小化问题

先给出关于问题(1)中的假设和Moreau 近端映射的定义。

假设1 (a) inf x n max y m F ( x , y ) >

(b) c : n × m 是一个连续可微函数( C 1 ),并且 c ( x , y ) 关于y是凹函数。另外, L x x , L x y , L y y , L y x > 0 ,使得 x ¯ , x n , y ¯ , y m ,有

x c ( x , y ) x c ( x , y ¯ ) L x y y y ¯

x c ( x , y ) x c ( x ¯ , y ) L x x x x ¯

y c ( x , y ) y c ( x ¯ , y ) L y x x x ¯

y c ( x , y ) y c ( x , y ¯ ) L y y y y ¯

(c) x n , c ( x , y ) g ( y ) 关于y σ 1 -强拟凹连续可微函数,且关于y的梯度是 L 1 -Lipschitz连续的,即存在一个常数 L 1 > 0 ,使得对于 y , y ¯ m c ( x , y ) g ( y ) ( c ( x , y ¯ ) g ( y ¯ ) ) L 1 y y ¯ , ( σ 1 ( L 1 , 2 L 1 ] )。

定义1 [8] 设函数 φ : d ( , ] 是真下半连续函数,对 t > 0 ,则关于函数 φ 的Moreau近端映射为

prox t φ ( z ) : = arg min x d { φ ( x ) 1 2 t x z 2 } .

由于 x n , c ( x , y ) g ( y ) 关于y σ 1 ( σ 1 > 0 )-强拟凹函数,则 g ( y ) c ( x , y ) 关于y σ 1 -强拟凸函

数。根据文献[9]中的定理1可以得到 y * ( x ) : = arg max y m { c ( x , y ) g ( y ) } = arg min y m { g ( y ) c ( x , y ) } 是单值的,

y * ( x ) : n m 是有意义的。现在定义 ϕ : n

ϕ ( x ) : = max { c ( x , y ) g ( y ) } = c ( x , y * ( x ) ) g ( y * ( x ) ) .

则问题(1)变为

min x n { Θ ( x ) : = f ( x ) + ϕ ( x ) } . (5)

我们继续分析函数 y * ϕ 的性质。下面的引理是关于强拟凸函数的一个性质,将会用来证明函数 y * 的连续性。

引理1 设 ψ : d σ -强拟凸函数( σ > 0 ),并且是连续可微的。若 x 1 , x 2 d ,且 ψ ( x 1 ) ψ ( x 2 ) ,则有

ψ ( x 2 ) , x 2 x 1 σ 2 x 2 x 1 .

证明:由于 ψ C上的 σ -强拟凸函数,根据强拟凸函数的定义有:

ψ ( λ x 1 + ( 1 λ ) x 2 ) max { ψ ( x 1 ) , ψ ( x 2 ) } λ ( 1 λ ) σ 2 x 1 x 2 2 , λ ( 0 , 1 ) .

因为 x 1 , x 2 C ,且 ψ ( x 1 ) ψ ( x 2 ) ,则有

ψ ( λ x 1 + ( 1 λ ) x 2 ) ψ ( x 2 ) λ ( 1 λ ) σ 2 x 1 x 2 2 ,

ψ ( λ x 1 + ( 1 λ ) x 2 ) ψ ( x 2 ) λ ( 1 λ ) σ 2 x 1 x 2 2 ,

ψ ( λ x 1 + ( 1 λ ) x 2 ) ψ ( x 2 ) λ ( 1 λ ) σ 2 x 1 x 2 2 ,

ψ ( x 2 + λ ( x 1 x 2 ) ) ψ ( x 2 ) λ ( 1 λ ) σ 2 x 1 x 2 2 .

由于 ψ 是连续可微函数,让上面不等式的两边的 λ 0 ,则有

ψ ( x 2 ) , x 1 x 2 σ 2 x 1 x 2

σ 2 x 2 x 1 ψ ( x 2 ) , x 2 x 1 .

引理2 映射 y * : n m 2 L y x σ 1 -Lipschitz连续的,即

y * ( x ) y * ( x ¯ ) 2 L y x σ 1 x x ¯ , x , x ¯ n .

证明:因为 x n y * ( x ) : = arg max y m { c ( x , y ) g ( y ) } ,则

x ¯ n , c ( x , y * ( x ) ) g ( y * ( x ) ) c ( x , y * ( x ¯ ) ) g ( y * ( x ¯ ) )

x ¯ n , g ( y * ( x ) ) c ( x , y * ( x ) ) g ( y * ( x ¯ ) ) c ( x , y * ( x ¯ ) ) 。由于 g ( y ) c ( x , y ) 关于y σ 1 -强拟凸的,根据引理1有

σ 1 2 y * ( x ¯ ) y * ( x ) 2 g ( y * ( x ¯ ) ) y c ( x , y * ( x ¯ ) ) , y * ( x ¯ ) y * ( x ) . (6)

由于 y * ( x ) : = arg max y m { c ( x , y ) g ( y ) } ,根据一阶最优性条件有

0 y c ( x , y * ( x ) ) g ( y * ( x ) ) y c ( x , y * ( x ) ) g ( y * ( x ) ) .

根据上式可以得到 y c ( x ¯ , y * ( x ¯ ) ) g ( y * ( x ¯ ) ) ,再结合(6)式有

σ 1 2 y * ( x ¯ ) y * ( x ) 2 y c ( x ¯ , y * ( x ¯ ) ) y c ( x , y * ( x ¯ ) ) , y * ( x ¯ ) y * ( x ) y c ( x ¯ , y * ( x ¯ ) ) y c ( x , y * ( x ¯ ) ) y * ( x ¯ ) y * ( x ) L y x x ¯ x y * ( x ¯ ) y * ( x )

y * ( x ¯ ) y * ( x ) 2 L y x σ 1 x ¯ x , x ¯ , x n .

我们可以得到文献[6]命题1相同的结论: ϕ : n 是连续函数( C 1 )函数,且梯度 ϕ ( x ) = x c ( x , y * ( x ) ) L ϕ = L x x + 2 L x y L y x σ 1 -Lipschitz连续的,其中 y * ( x ) = arg min y m { g ( y ) c ( x , y ) }

根据上面得到的结论,复合最小化问题(5)可以用Bregman近端梯度法求解,即

x k + 1 = arg min x n { f ( x ) + x c ( x k , y * ( x k ) ) , x + 1 α D h ( x , x k ) } .

但是该算法困难在于寻找 y * ( x k ) ,并且在迭代时,必须要使用内循环计算,从而导致算法变得非常复杂,故在这种情况下将我们提出算法(4)看成近似Bregman近端梯度法,不用求解

y * ( x ) = arg max y m { c ( x , y ) g ( y ) } ,直接用算法(4)中的y-步中的 y k 或者 y k + 1 代替 y * ( x k ) ,而x-步就是上述算法。其中,算法(4)中的y-步的步长设为 β = 1 L y y ,对于x-步的步长 α 的选择将在下面的定理1中体现。

3. 收敛性分析

将鞍点问题(1)表述为复合最小化问题(5),分析Bregman近端梯度上升下降法(4)的收敛性,设 { x k , y k } k 是由算法(4)产生的序列,本节我们得到 { x k } k 收敛到函数 Θ 的临界点:即 { x k } k x ¯ crit  Θ : = { x : 0 Θ ( x ) } 。另外得到 { y k } k y * ( x ¯ ) ,其中 y * ( x ) 是鞍点问题(1)的内部极大化问题的解。由于复合最小化问题(5)的目标函数是非凸非光滑的,缺少下降性质,借鉴文献[6]的方法引入扰动类梯度下降序列,得到算法的次收敛性。

定义2 [6] Θ : n ( , ] 是真下半连续函数,若序列 { ( x k , ν k ) } k 0 dom Θ × + 满足下面的三个条件:

(a) 扰动充分下降性质:存在一个常数 c 1 > 0 使得对于任意的 k

c 1 ( x k + 1 x k 2 + ν k 2 ) ( Θ ( x k ) + 1 2 ν k 2 ) ( Θ ( x k + 1 ) + 1 2 ν k + 1 2 ) .

(b) 迭代间隙上的扰动次梯度下界:存在一个常数 c 2 > 0 使得对于任意的 k ,这里存在 ξ k + 1 Θ ( x k + 1 ) ,且 ξ k + 1 满足 ξ k + 1 c 2 ( x k + 1 x k ν k )

(c) 设 { x k } k k 是一个子序列且收敛到 x ¯ ,则 lim sup k k Θ ( x k ) Θ ( x ¯ )

{ ( x k , ν k ) } k 0 是关于 Θ 的扰动类梯度下降序列。

下面给出在分析算法收敛性时的一些假设。

假设2 (a) Bregman函数 h 1 : m σ h 1 -强凸函数并且是连续可微函数,即 h 1 L h 1 -光滑函数( σ h 1 = L h 1 );

(b) Bregman函数 h 2 : n 是1-强凸函数,并且是连续可微函数,即 h 2 L h 2 -光滑函数;

(c) x n , ( c ( x , y ) , h 1 ( y ) ) 关于y L y y 2 -光滑自适应的,即 y , y ¯ m ,存在 L y y 2 > 0 ,有 c ( x , y ) c ( x , y ¯ ) + y c ( x , y ¯ ) , y y ¯ + L y y 2 D h 1 ( y , y ¯ )

(d) 算法x-步迭代过程是有意义的,即

x k + 1 arg min x n { f ( x ) + x c ( x k , w k ) , x + 1 α D h 2 ( x , x k ) } .

在分析收敛性之前我们先给出一个与文献[10]中的引理2.6类似的结论,即内部最大化问题函数差值不等式。

引理3 设 y dom ( g ) ( c ( x k , y ) , h 1 ( y ) ) 关于y L y y 2 -光滑自适应的,则

Γ k ( y k + 1 ) Γ k ( y ) L y y 2 ( D h 1 ( y , y k ) D h 1 ( y , y k + 1 ) ) . (7)

证明:近端梯度上升下降算法中的y-步迭代过程

y k + 1 = prox 1 L y y g ( y k + 1 L y y y c ( x k , y k ) ) . (8)

是解决问题(1)的内部最大问题的步骤,该最大化问题可以表述为极小化问题

min y m { Γ k ( y ) : = g ( y ) c ( x k , y ) } .

根据Moreau近端映射的定义,(8)式变为

y k + 1 = arg min y m { g ( y ) + L y y 2 y ( y k + 1 L y y y c ( x k , y k ) ) 2 } = arg min y m { g ( y ) y c ( x k , y k ) , y y k + L y y 2 y y k 2 + 1 2 L y y ( y c ( x k , y k ) ) 2 }

由于 1 2 L y y ( y c ( x k , y k ) ) 2 关于y是常数,则有

y k + 1 = arg min y m { g ( y ) y c ( x k , y k ) , y y k + L y y 2 y y k 2 } .

将上面等式中的 y y k 2 变为Bregman距离就是本文提出的算法的y-步迭代过程,即

y k + 1 = arg min y m { g ( y ) y c ( x k , y k ) , y y k + L y y 2 D h 1 ( y , y k ) } .

由于 c ( x k , y k ) 关于y是常数,则有

y k + 1 = arg min y m { g ( y ) c ( x k , y k ) y c ( x k , y k ) , y y k + L y y 2 D h 1 ( y , y k ) } . (9)

Q ( y , y k ) = g ( y ) c ( x k , y k ) y c ( x k , y k ) , y y k + L y y 2 D h 1 ( y , y k ) ,

l c ( y , y k ) = c ( x k , y ) + c ( x k , y k ) + y c ( x k , y k ) , y y k .

对于(9)式,根据一阶最优性条件有

0 g ( y k + 1 ) y c ( x k , y k ) + L y y 2 ( h 1 ( y k + 1 ) h 1 ( y k ) ) + N dom ( g ) ( y k + 1 ) .

γ g ( y k + 1 ) ,则有

( γ y c ( x k , y k ) + L y y 2 ( h 1 ( y k + 1 ) h 1 ( y k ) ) ) N dom ( g ) ( y k + 1 ) .

y dom ( g ) ,根据法锥的定义有

y k + 1 y , ( γ y c ( x k , y k ) + L y y 2 ( h 1 ( y k + 1 ) h 1 ( y k ) ) ) 0 ,

γ y c ( x k , y k ) + L y y 2 ( h 1 ( y k + 1 ) h 1 ( y k ) ) , y y k + 1 0 ,

γ , y y k + 1 y c ( x k , y k ) L y y 2 ( h 1 ( y k + 1 ) h 1 ( y k ) ) , y y k + 1 . (10)

因为 g 是凸函数,且 γ g ( y k + 1 ) ,则有

g ( y ) g ( y k + 1 ) γ , y y k + 1 , (11)

结合(10)和(11)两个不等式则有

g ( y ) g ( y k + 1 ) y c ( x k , y k ) L y y 2 ( h 1 ( y k + 1 ) h 1 ( y k ) ) , y y k + 1 .

Γ k ( y k + 1 ) Q ( y k + 1 , y k ) = g ( y k + 1 ) c ( x k , y k + 1 ) g ( y k + 1 ) + c ( x k , y k ) + y c ( x k , y k ) , y k + 1 y k L y y 2 D h 1 ( y k + 1 , y k ) = c ( x k , y k + 1 ) + c ( x k , y k ) + y c ( x k , y k ) , y k + 1 y k L y y 2 D h 1 ( y k + 1 , y k ) (12)

由于 ( c ( x k , y ) , h 1 ( y ) ) 关于y L y y 2 -光滑自适应的,则有

c ( x k , y k + 1 ) ( c ( x k , y k ) ) y c ( x k , y k ) , y k + 1 y k L y y 2 D h 1 ( y k + 1 , y k ) ,

c ( x k , y k + 1 ) + c ( x k , y k ) + y c ( x k , y k ) , y k + 1 y k L y y 2 D h 1 ( y k + 1 , y k ) , (13)

结合(12)和(13)不等式就有 Γ k ( y k + 1 ) Q ( y k + 1 , y k ) 0 ,那么

Γ k ( y ) Γ k ( y k + 1 ) Γ k ( y ) Q ( y k + 1 , y k ) = g ( y ) c ( x k , y ) g ( y k + 1 ) + c ( x k , y k ) + y c ( x k , y k ) , y k + 1 y k L y y 2 D h 1 ( y k + 1 , y k ) = c ( x k , y ) + c ( x k , y k ) + y c ( x k , y k ) , y y k y c ( x k , y k ) , y y k + y c ( x k , y k ) , y k + 1 y k L y y 2 D h 1 ( y k + 1 , y k ) + g ( y ) g ( y k + 1 ) = l c ( y , y k ) y c ( x k , y k ) , y y k + 1 L y y 2 D h 1 ( y k + 1 , y k ) + g ( y ) g ( y k + 1 )

Γ k ( y ) Γ k ( y k + 1 ) l c ( y , y k ) y c ( x k , y k ) , y y k + 1 L y y 2 D h 1 ( y k + 1 , y k ) + y c ( x k , y k ) L y y 2 ( h 1 ( y k + 1 ) h 1 ( y k ) ) , y y k + 1 = l c ( y , y k ) L y y 2 D h 1 ( y k + 1 , y k ) + L y y 2 h 1 ( y k ) h 1 ( y k + 1 ) , y y k + 1

再利用Bregman距离三点恒等式则有

Γ k ( y ) Γ k ( y k + 1 ) l c ( y , y k ) L y y 2 D h 1 ( y k + 1 , y k ) + L y y 2 ( D h 1 ( y , y k + 1 ) + D h 1 ( y k + 1 , y k ) D h 1 ( y , y k ) ) = l c ( y , y k ) + L y y 2 ( D h 1 ( y , y k + 1 ) D h 1 ( y , y k ) )

Γ k ( y k + 1 ) Γ k ( y ) l c ( y , y k ) + L y y 2 ( D h 1 ( y , y k ) D h 1 ( y , y k + 1 ) ) ,

因为 c ( x , y ) 关于y是凹函数,则

l c ( y , y k ) = c ( x k , y ) c ( x k , y k ) y c ( x k , y k ) , y y k 0 ,

Γ k ( y k + 1 ) Γ k ( y ) L y y 2 ( D h 1 ( y , y k ) D h 1 ( y , y k + 1 ) ) .

通过上面引理3的结论,得到近端梯度上升迭代点之间的不等式关系,即下面的引理4。

引理4 ( y k y k + 1 之间的关系)假设Bregman函数 h 1 : m 满足假设2(a),令 κ = L y y L h 1 2 ( σ 1 L 1 ) ,则对任意的 k

y k + 1 y * ( x k + 1 ) κ κ + 1 y * ( x k ) y k + 2 L y x σ 1 x k x k + 1 (14)

y k + 1 y * ( x k ) κ κ + 1 ( 2 L y x σ 1 x k x k 1 + y k y * ( x k 1 ) ) (15)

y k + 1 y * ( x k + 1 ) 2 κ ( 1 + 1 / 2 κ ) κ + 1 y * ( x k ) y k 2 + ( 1 + 2 κ ) 4 L y x 2 σ 1 2 x k x k + 1 2 (16)

y k + 1 y * ( x k ) 2 κ ( 1 + 1 / 2 κ ) κ + 1 ( y * ( x k 1 ) y k 2 + 4 κ L y x 2 σ 1 2 x k 1 x k 2 ) (17)

证明: y k + 1 = prox 1 L y y g ( y k + 1 L y y y c ( x k , y k ) ) 是解决问题(1)内部最大化的近端梯度上升步骤,将其表述为下列最小化问题:

min y m { Γ k ( y ) : = g ( y ) c ( x k , y ) } ,则根据假设1(d)可知 Γ k ( y ) σ 1 -强拟凸函数,其唯一极小元为 y * ( x k ) : = arg min Γ k ( y ) ,根据引理1有:

σ 1 2 y k + 1 y * ( x k ) 2 Γ k ( y k + 1 ) , y k + 1 y * ( x k ) . (18)

另外,根据假设1(d)和下降引理[11]

Γ k ( y * ( x k ) ) Γ k ( y k + 1 ) Γ k ( y k + 1 ) , y * ( x k ) y k + 1 + L 1 2 y k + 1 y * ( x k ) 2 . (19)

结合(18)和(19)两个不等式,则有

σ 1 2 y k + 1 y * ( x k ) 2 Γ k ( y k + 1 ) Γ k ( y * ( x k ) ) + L 1 2 y k + 1 y * ( x k ) 2 ,

( σ 1 2 L 1 2 ) y k + 1 y * ( x k ) 2 Γ k ( y k + 1 ) Γ k ( y * ( x k ) ) .

因为Bregman函数 h 1 σ h 1 -强凸函数并且是连续可微函数 L h 1 -光滑的,则会有以下结论:

D h 1 ( y * ( x k ) , y k ) L h 1 2 y * ( x k ) y k 2 D h 1 ( y * ( x k ) , y k + 1 ) σ h 1 2 y * ( x k ) y k + 1 2

则引理3中的不等式(7)放缩为

Γ k ( y k + 1 ) Γ k ( y * ( x k ) ) L y y 2 ( L h 1 2 y * ( x k ) y k 2 σ h 1 2 y * ( x k ) y k + 1 2 )

( σ 1 2 L 1 2 ) y k + 1 y * ( x k ) 2 Γ k ( y k + 1 ) Γ k ( y * ( x k ) ) L y y 2 ( L h 1 2 y * ( x k ) y k 2 σ h 1 2 y * ( x k ) y k + 1 2 )

( 2 ( σ 1 L 1 ) + σ h 1 L y y ) y k + 1 y * ( x k ) 2 L y y L h 1 y * ( x k ) y k 2 y k + 1 y * ( x k ) L y y L h 1 2 ( σ 1 L 1 ) + σ h 1 L y y y * ( x k ) y k

由于 σ h 1 = L h 1 ,令 κ = L y y L h 1 2 ( σ 1 L 1 ) ,则有

y k + 1 y * ( x k ) κ κ + 1 y * ( x k ) y k

y k + 1 y * ( x k + 1 ) = y k + 1 y * ( x k ) + y * ( x k ) y * ( x k + 1 ) y k + 1 y * ( x k ) + y * ( x k ) y * ( x k + 1 ) κ κ + 1 y * ( x k ) y k + 2 L y x σ 1 x k x k + 1

y k + 1 y * ( x k ) κ κ + 1 y * ( x k ) y k = κ κ + 1 y * ( x k ) y * ( x k 1 ) + y * ( x k 1 ) y k κ κ + 1 ( y * ( x k ) y * ( x k 1 ) + y * ( x k 1 ) y k ) κ κ + 1 ( 2 L y x σ 1 x k x k 1 + y * ( x k 1 ) y k )

故(14)和(15)得证。在不等式 ( a + b ) 2 ( 1 + μ ) a 2 + ( 1 + μ 1 ) b 2 , ( μ > 0 ) 中,令 μ 1 2 κ 将其应用到(14)和(15)两个不等式,就会得到(16)和(17)两个不等式。

这是对于算法的y-步的分析,我们选取满足假设2(a)的Bregman函数 h 1 得到文献[6]中引理6同样的结论。关于x步的次梯度有界性和利用x步得到函数值差距的结论也会得到与文献[6]类似的结论。

引理5 [6] (给出函数 ϕ 的光滑自适应性质)设 φ : n ,且 x n , φ ( x ) : = M x x h 2 ( x ) + ( 2 L x y L y x / σ 1 ) x 2 ,则 ( ϕ , φ ) 是1-光滑自适应的,即

ϕ ( x ¯ ) ϕ ( x ) ϕ ( x ) , x ¯ x D φ ( x ¯ , x ) .

引理6 [6] (x步函数值差值)设 ( x k , w k ) k 是由近端梯度算法产生的序列,则 k 0 ,有

Θ ( x k + 1 ) Θ ( x k ) 1 2 ( L x y 2 M ϕ 1 α ) x k + 1 x k 2 + 1 2 w k y * ( x k ) 2 ,

其中 M ϕ = M x x + 4 L x y L y x σ 1

引理7 [6] (x步的次梯度有界性)设 ( x k , w k ) k 是由近端梯度算法产生的序列,则存在M大于0使得 k 0 ξ k + 1 Θ ( x k + 1 ) ,且满足不等式 ξ k + 1 M ( x k + 1 x k + w k y * ( x k ) ) ,其中

M = max { L h 1 α + L x x + 2 L x y L y x σ 1 , L x y }

令扰动序列 ν k ν k = s y k y * ( x k ) ( w k = y k 时), ν k = t x k x k 1 2 + s y k y * ( x k 1 ) 2 ( w k = y k + 1 时),其中 s , t 为大于0的实数。引入的扰动序列 ν k 满足扰动类梯度下降序列的3个条件,其证明方法与文献[6]相同。故可以得到算法的次收敛性。若问题(1)的目标函数是半代数函数,则得到算法的全局收敛性。下面先给出定理1,定理1给出算法(4) x-步的步长 α 的选择。并且在恰当的步长选择下,得到算法的收敛性,即定理2。

定理1 设由算法(4)产生的序列 { x , k y k } k 0 有界,并且设 α < 1 L ,其中 α 为算法(4)中x-步的算法步长。 L : = L x y 2 + M ϕ + 2 ( 2 κ 2 + 3 κ + 1 ) L y x 2 σ 1 2 ( w k = y k + 1 时), L : = L x y 2 + M ϕ + 2 ( 2 κ 2 + κ ) L y x 2 σ 1 2 ( w k = y k + 1 时),则 ε > 0 k = Ο ( ε 2 ) 使得

x k + 1 x k ε , dist ( 0 , Θ ( x k ) ) ε , y k y * ( x k ) ε .

定理2 设由算法产生的序列 { x k , y k } k 0 有界,假设 α < 1 L ,则下面两个结论成立:

(1) 设 Ω 是序列 { x k } k 0 的聚点集合,则 Ω 是一个非空紧集;且 Ω crit Θ lim x dist ( x k , Ω ) = 0 Θ

Ω 上是有限的常数;设 { x k } k k { x k } k 0 的子序列,并且 { x k } k k 收敛到 x ¯ Ω ,则 { y k } k 0 的子序列 { y k } k k 收敛到 y * ( x ¯ )

(2) 另外再假设函数 f , g , c 是半代数函数,则有 k = 1 x k + 1 x k < ,并且 { x k } k 0 收敛到点 x ¯ crit Θ { y k } k 0 收敛到 y * ( x ¯ )

定理1,定理2的证明过程参考文献[6]的引理4和定理1。

基金项目

这项研究部分由重庆市研究生联合培养基地建设项目(JDLHYJD2021016)、重庆市高校科技创新团队建设项目(CXQT21021)资助。

参考文献

[1] Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., et al. (2014) Generative Adversarial Nets. Communications of the ACM, 63, 139-144.
[2] Nemirovskiĭ, A.S., El Ghaoui, L. and Ben-Tal, A. (2009) Robust Optimization (Princeton Series in Applied Mathematics). Princeton University Press.
[3] Phillips, D. (1994) Image Processing in C: Analyzing and Enhancing Digital Images. R & D Publications.
[4] Orfanidis, S.J. (1995) Introduction to Signal Processing. Prentice-Hall, Inc.
[5] Jiang, J. and Chen, X. (2023) Optimality Conditions for Nonsmooth Nonconvex-Nonconcave Min-Max Problems and Generative Adversarial Networks. SIAM Journal on Mathematics of Data Science, 5, 693-722.
https://doi.org/10.1137/22m1482238
[6] Cohen, E. and Teboulle, M. (2024) Alternating and Parallel Proximal Gradient Methods for Nonsmooth, Nonconvex Minimax: A Unified Convergence Analysis. Mathematics of Operations Research.
https://doi.org/10.1287/moor.2022.0294
[7] Lin, T., Jin, C. and Jordan, M. (2020) On Gradient Descent Ascent for Nonconvex-Concave Minimax Problems. International Conference on Machine Learning, 13-18 July 2020, 6083-6093.
[8] Rockafellar, R. and Wets, J. (2004) Variational Analysis. Springer.
[9] Lara, F. (2022) On Strongly Quasiconvex Functions: Existence Results and Proximal Point Algorithms. Journal of Optimization Theory and Applications, 192, 891-911.
https://doi.org/10.1007/s10957-021-01996-8
[10] Beck, A. and Teboulle, M. (2009) Gradient-Based Algorithms with Applications to Signal-Recovery Problems. In: Palomar, D.P. and Eldar, Y.C., Eds., Convex Optimization in Signal Processing and Communications, Cambridge University Press, 42-88.
https://doi.org/10.1017/cbo9780511804458.003
[11] Beck, A. (2017) First-Order Methods in Optimization. Society for Industrial and Applied Mathematics.
https://doi.org/10.1137/1.9781611974997

Baidu
map