基于加权张量Schatten-p范数的鲁棒张量补全
Robust Tensor Completion Based on Weighted Tensor Schatten-p Norm
摘要: 本文提出一种加权张量Schatten-p范数(0 < p < 1)正则化器用于鲁棒张量补全。建立了与增广拉格朗日乘子相关的相应算法。尽管所提加权张量Schatten-p拟范数是非凸的,但它不仅对奇异值的惩罚较小,而且能有效捕捉低秩特性。
Abstract: In this paper, we present a weighted tensor Schatten-p norm (0 < p <1) regularizer for robust tensor completion. Corresponding algorithms associated with augmented Lagrangian multipliers are established. Although the proposed weighted tensor Schatten-p quasi-norm is non-convex, it appears not only to less penalize the singular values but also to be effective in capturing the low-rank property.
文章引用:陈梦炜. 基于加权张量Schatten-p范数的鲁棒张量补全[J]. 应用数学进展, 2025, 14(1): 211-216. https://doi.org/10.12677/aam.2025.141024

1. 引言

张量(多维数组)是向量和矩阵的推广,在计算机视觉、数据挖掘、信号处理和机器学习等众多领域日益普及。基于其多线性代数性质,张量能够充分利用自身结构,为理解多维数据提供更优视角并提升精度。然而,实际观测到的张量数据可能存在信息缺失与损坏的情况,这促使我们深入研究鲁棒张量补全(Robust Tensor Completion)问题,即少量可用元素受噪声污染的情形。

与矩阵不同,张量的秩存在多种定义。常用的有CANDECOMP/PARAFAC(CP)秩和Tucker秩[1]。然而,计算给定张量的CP秩是NP-hard问题。Liu等人提出用张量展开矩阵的核范数之和(SNN)近似Tucker秩来解决低秩张量补全问题。尽管SNN计算简便,但Romera-Paredes等人证明其并非Tucker秩元素之和的最紧凸包络。张量的矩阵化可能破坏张量数据的内在结构与相关性。基于张量奇异值分解(tSVD)框架,Kilmer等人[2]提出了管秩和张量多秩定义,Semerci等人发展了新的管核范数(TNN)。本文主要探讨tSVD这种新的张量分解范式,因其在张量扁平化时可避免信息丢失。近年来,管秩和TNN广泛应用于张量恢复问题,因其是张量多秩 l 1 范数的最紧凸松弛。也有诸多研究采用张量多秩函数的下凸包络逼近来处理张量秩问题。

受文献[3]中非凸矩阵秩逼近成果启发,在张量框架下,我们通过t-SVD提出加权张量Schatten-p范数(t-Schatten-p),以寻求更佳逼近、减少张量核范数的局限性。我们构建基于t-SVD的通用非凸优化框架,有效处理张量秩逼近,涵盖张量鲁棒补全问题,并具备可行的收敛算法。主要挑战之一是基于增广拉格朗日乘子设置确保优化过程收敛。Lin等人证明了增广拉格朗日乘子算法对凸目标函数的收敛性。

本文的主要贡献总结如下:

1) 在张量框架下,针对多维数据集在变换域开发了新的加权t-Schatten-p范数正则化器,对于三维数据分解中低秩和稀疏部分的恢复似乎是可行的。

2) 在群稀疏张量字典学习的框架下,我们在定理2中证明了加权t-Schatten-p范数正则化算子在寻找低秩分量方面是可处理的。更具体地说,变换域中张量奇异值的稀疏性意味着原始张量的管秩较低。

3) 在非凸框架下,提出了一种基于对称Gauss-Seidel的多块交替方向乘法器(sGS-admm)来解决鲁棒张量补全问题[4]

4)实验结果表明,我们提出的方法在人脸恢复中有较好的性能。

2. 预备知识

定义1:给定张量 A n 1 × n 2 × n 3 和张量 n 2 × n 4 × n 3 A Φ 定义[5]

C = A Φ = Φ H [ f o l d ( b l o c k d i a g ( A ^ Φ ) × b l o c k d i a g ( ^ Φ ) ) ] , (1)

其中 C n 1 × n 4 × n 3 ,“ × ”是标准的矩阵乘积。

基于 A Φ 的定义,我们给出了变换张量SVD的如下定义。

定理1:给定张量 A n 1 × n 2 × n 3 ,其变换张量SVD定义如下:

A = U Φ S Φ V H , (2)

其中 U n 1 × n 1 × n 3 , V n 2 × n 2 × n 3 是酉张量,即 U Φ V H = ,其中 的对角线元素皆为1, S n 1 × n 2 × n 3 是对角张量[1]。对于矩阵 L m × n ,设 σ 1 , , σ min { m , n } 为其依次递减的奇异值,则矩阵 L 的核范数定义为 L * = σ 1 + + σ min { m , n } 。若把奇异值看成一个向量 σ = [ σ 1 σ 2 σ min { m , n } ] T ,然后 L * = σ 1 ,即矩阵的核范数为其奇异值向量的 l 1 范数。一般的,设 p > 0 ,我们考虑 σ p = ( σ 1 p + + σ min { m , n } p ) 1 p ,当 p 0 ,我们得到 σ 0 : = lim p 0 σ p p = # { i : σ i 0 } = rank ( L ) ,可以看出当 p 0 σ p 可以更好地逼近矩阵的秩函数,由此我们引出下述变换t-Schatten-p范数。

定义2:张量 A n 1 × n 2 × n 3 的变换t-Schatten-p范数定义为:

A Φ S w , p = ( 1 n 3 i = 1 n 3 A ^ Φ ( i ) S w , p p ) 1 / p , (3)

其中 A ^ Φ ( i ) S w , p p = j = 1 min { n 1 , n 2 } w j , i S ^ ( i ) ( j , j ) S ^ ( i ) ( j , j ) 是matlab符号。

定理2:对于一个三阶张量 X n 1 × n 2 × n 3 ,其变换张量SVD为: X = U Φ S Φ V H 。对于正则化问题: f ( Y ) = 1 2 X Y F 2 + Y Φ S W , p ,其最优解为 Y * = U Φ Ω Φ V H 。对于 Ω ^ Φ = Φ [ Ω ] S ^ Φ = Φ [ S ] ,其前向切片分别是对角矩阵 Ω ^ Φ ( i ) S ^ Φ ( i ) ( 1 i n 3 ),设 w j , i , p = 2 p 2 ( 1 p ) ( 2 w j , i ( 1 p ) ) 1 2 p 1 j min { n 1 , n 2 } 1 i n 3 ,则可以通过下式得到 Ω ^ Φ

Ω ^ Φ ( i ) ( j , j ) = { 0 S ^ Φ ( i ) ( j , j ) w j , i , p η S ^ Φ ( i ) ( j , j ) w j , i p η p 1 S ^ Φ ( i ) ( j , j ) > w j , i , p (4)

3. 鲁棒张量补全的模型建立

假设存在一个观测到噪声数据张量 X n 1 × n 2 × n 3 ,噪声数据张量 X n 1 × n 2 × n 3 是由一个未知的稀疏噪声张量 n 1 × n 2 × n 3 破坏一个未知的低秩张量 n 1 × n 2 × n 3 得到的。则鲁棒张量补全模型可表示为:

(5)

式中 λ > 0 为正则化参数, 0 为非零项个数, rank a ( ) 为张量平均秩。是一个线性算子, Ω 是一个索引集,则

(6)

然而秩和零范数的优化问题一般是NP-hard的。我们通常用 l 1 范数来得到稀疏解。对于低秩解,我们使用它的等效替代物:变换t-Schatten-p范数来求解它。

+ = Y ,则问题(5)可改写为:

(7)

其增广拉格朗日函数可定义为:

L ( , , Y , Z ) : = Φ S w , p + λ 1 Z , + Y + β 2 + Y F 2 , (8)

Z 是拉格朗日乘子, β 是惩罚参数。设。因此上述优化问题的sGS-admm迭代如下:

Y k + 1 2 = arg min Y D { L ( k , k , Y , Z k ) } , (9)

k + 1 = arg min { L ( , k , Y k + 1 2 , Z k ) } , (10)

Y k + 1 = arg min Y D { L ( k + 1 , k , Y , Z k ) } , (11)

k + 1 = arg min { L ( k + 1 , , Y k + 1 , Z k ) } , (12)

Z k + 1 = Z k τ β ( k + 1 + k + 1 Y k + 1 ) , (13)

其中 τ ( 0 , ( 1 + 5 ) / 2 ) 为步长。接下来我们依次求解各迭代优化问题。 Y 的迭代求解式为:

Y = { X i j k , if ( i , j , k ) Ω , ( + 1 β Z ) i j k , otherwise . (14)

子问题(10)可以表述为:

min Φ S w , p + β 2 ( Y k + 1 2 + 1 β Z k k ) F 2 . (15)

k + 1 的最小值由 k + 1 = U Φ Ω β Φ V H 给出。 Ω β 有定理2给出。 的求解公式为:

k + 1 = sgn ( ) max { | | λ β , 0 } , (16)

其中 : = N k + 1 + 1 β Z k k + 1 是矩阵点积运算。 sgn ( · ) 的表达式如下:

sgn ( y ) : = { 1 , if y > 0 , 0 , if y = 0 , 1 , if y < 0. (17)

4. 数值实验

4.1. 参数设置

将我们的方法记为WSNRTC,我们选取的对比方法为RTC-TNN,RTC-TNN(F)和RTC-TNN(D)分别表示为选取了傅里叶变换矩阵[6]和基于数据的酉变换矩阵为变换矩阵。

对于一个大小为 n 1 × n 2 × n 3 的张量数据,我们定义观测值的采样率为 SR = | Ω | n 1 n 2 n 3 ,峰值信噪比[7] (PSNR)用来衡量估计张量的质量,定义为:

PSNR : = 10 log 10 n 1 n 2 n 3 ( max min ) 2 0 F 2 , (18)

max min 分别是原始张量 0 的最大元素和最小元素, 是恢复之后的张量。稀疏噪声强度记为 γ 。我们将参数 λ 设置为 λ = a n 1 n 3 ,在下面的实验,当选择傅里叶变换矩阵时,参数a从{1.1, 1.3, 1.7, 1.8, 2}中选择,选取酉变换矩阵时,参数a从{10, 15, 18, 20, 23, 25, 28, 30}中选择,并且我们设置 p = 0.8 β = 0.02 ,权重 w j , i 通过 w j , i = 1 c + e y N j + 1 , N j + 1 , i 计算得到,其中 c = 0.8 N = min { n 1 , n 2 } y i , i , n 3 = σ ( y ^ ) i , i , n 3 × N m n 3 σ ( Y ^ ) i , i , n 3 Y ^ 的第 ( i , i , n 3 ) 个奇异值, Y = + 1 β Z m n 3 = max { σ ( Y ^ ) i , i , n 3 , i = 1 , 2 , , N }

4.2. 人脸数据恢复

YaleB人脸数据集包含28个受试者在9种姿势和64种光照条件下的16,128张图像。我们选择第1和第2个受试者的前64帧作为本小节的数据集,则测试张量的大小为192 × 168 × 64。

图1中,我们展示了两名受试者在采样率 SR = 0.3 ,稀疏噪声强度 γ = 0.3 条件下的实验结果的第10帧。其中Original为原始图像,Sampled为采样后的图像,从中可以看出我们的方法在选取酉变换时,恢复的结果在眼部细节和面部阴影比其他方法恢复的结果更好。

Figure 1. Comparison of the recovery effects of the 10th frame under different methods under the condition of SR = 0.3, γ = 0.3

1. 在SR = 0.3, γ = 0.3 条件下第10帧在不同方法下的恢复效果对比

表1中我们展示了YaleB人脸数据在不同方法在采样率0.3时,不同噪声强度( γ = 0.3 , 0.2 , 0.1 )下的恢复结果,我们用PSNR值来评估恢复效果。从表中可以看出,我们的方法比RTC-TNN恢复的结果更好,两种方法都在选取酉变换矩阵时得到的更好的结果,并且WSNRTC在选取傅里叶变换时得到的结果比RTC-TNN选取酉变换矩阵时得到的结果更好,进一步说明我们的方法是有显著优势的。

Table 1. Comparison of PSNR values of the recovery results of two subjects (Subject 1, Subject 2) under different conditions

1. 两名受试者(Subject 1, Subject 2)在不同条件下的恢复结果的PSNR值对比

SR

γ

RTC-TNN(F)

RTC-TNN(D)

WSNRTC(F)

WSNRTC(D)

Subject 1

0.3

0.1

26.6958

28.6409

28.3630

29.7715

0.2

24.3502

26.1680

27.5982

28.6926

0.3

22.3206

24.5449

25.8110

27.2261

Subject 2

0.3

0.1

25.9255

28.1704

28.2868

29.6994

0.2

22.5431

25.3941

27.4091

28.9150

0.3

21.7234

23.7045

25.8917

27.2264

5. 结束语

针对鲁棒张量补全问题,结合Schatten-p范数,提出了加权的张量Schatten-p范数,结合sGS-admm优化器求解该非凸问题,在人脸数据恢复上取得优越效果。在后续工作中如何构建基于数据的自适应权重选择成为另一个有趣的话题。

参考文献

[1] Kolda, T.G. and Bader, B.W. (2009) Tensor Decompositions and Applications. SIAM Review, 51, 455-500.
https://doi.org/10.1137/07070111x
[2] Kilmer, M.E. and Martin, C.D. (2011) Factorization Strategies for Third-Order Tensors. Linear Algebra and Its Applications, 435, 641-658.
https://doi.org/10.1016/j.laa.2010.09.020
[3] Kernfeld, E., Kilmer, M. and Aeron, S. (2015) Tensor-Tensor Products with Invertible Linear Transforms. Linear Algebra and Its Applications, 485, 545-570.
https://doi.org/10.1016/j.laa.2015.07.021
[4] Song, G., Ng, M.K. and Zhang, X. (2019) Robust Tensor Completion Using Transformed Tensor SVD.
[5] Candès, E.J., Wakin, M.B. and Boyd, S.P. (2008) Enhancing Sparsity by Reweighted ℓ1 Minimization. Journal of Fourier Analysis and Applications, 14, 877-905.
https://doi.org/10.1007/s00041-008-9045-x
[6] Liu, J., Musialski, P., Wonka, P. and Ye, J. (2013) Tensor Completion for Estimating Missing Values in Visual Data. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35, 208-220.
https://doi.org/10.1109/tpami.2012.39
[7] Xie, Y., Gu, S., Liu, Y., Zuo, W., Zhang, W. and Zhang, L. (2016) Weighted Schatten p-Norm Minimization for Image Denoising and Background Subtraction. IEEE Transactions on Image Processing, 25, 4842-4857.
https://doi.org/10.1109/tip.2016.2599290

Baidu
map