aam Advances in Applied Mathematics 2324-7991 2324-8009 beplay体育官网网页版等您来挑战! 10.12677/aam.2024.139423 aam-97229 Articles 数学与物理 梯度神经网络方法求解含有绝对值形式 张量特征值
Gradient Neural Network Method for Solving Tensor Eigenvalues with Absolute Value Form
蔡泽福 云南师范大学数学学院,云南 昆明 09 09 2024 13 09 4442 4448 24 8 :2024 18 8 :2024 18 9 :2024 Copyright © 2024 beplay安卓登录 All rights reserved. 2024 This work is licensed under the Creative Commons Attribution International License (CC BY). http://creativecommons.org/licenses/by/4.0/ 目前,关于特征值的研究主要集中在特征值互补、特征值估计和运用算法计算特征值等方向。受张量绝对值方程 A x m 1 | x | = b 启示,本文考虑一类新形式的特征值问题,并提出梯度神经网络方法求解新形式张量特征值和特征向量。数值实验表明了梯度神经网络方法求解该问题的可行性和有效性。
At present, research on eigenvalues mainly focuses on complementary eigenvalues, eigenvalue estimation, and the application of algorithms to calculate eigenvalues. Inspired by the tensor absolute value equation A x m 1 | x | = b , this paper considers a new form of eigenvalue problem and proposes a gradient neural network method to solve the eigenvalues and eigenvectors of the new form tensor. Numerical experiments have shown the feasibility and effectiveness of using gradient neural network methods to solve this problem.
张量,特征值,梯度神经网络
Tensor
Eigenvalue Gradient Neural Network
1. 介绍

2005年,Qi在 [1] 中提出了张量特征值的概念,即,令 A = ( a i 1 i 2 i m ) 是一个m阶n维张量,若存在一个数 λ C 和非零向量 x C n 满足

A x m 1 = λ x [ m 1 ]

λ 叫做张量 A 的特征值,x叫做 λ 所对应的特征向量,其中 A x m 1 x [ m 1 ] 都表示一个n维向量,且

( A x m 1 ) i = i 2 i m n a i i 2 i m x i 2 x i m , i = { i = 1 , 2 , , n } ,

( x [ m 1 ] ) i = x i m 1 .

λ 和x都属于实数域,则 ( λ , x ) 叫做张量 A 的H-特征对。此外,Qi也在 [1] 中定义了Z-特征值,即,若存在数 λ R 和向量 x R n 满足

{ A x m 1 = λ x , x T x = 1 , (1.1)

则称特征对 ( λ , x ) 是Z-特征对。值得注意的是, λ 和x属于复数域时,称特征对 ( λ , x ) 为E-特征对。

张量Z-特征值在许多实际问题中都被运用,如自动控制 [2] ,人脑科学 [3] ,统计数据分析中的最佳秩一逼近 [4] 等领域。为此,很多学者对张量Z-特征值的求解展开了研究。

目前,已经有许多计算对称或非负张量Z-特征对的算法,但是结合 [5] 中的张量绝对值方程

A x m 1 | x | = b , (1.2)

以及张量Z-特征值的一般形式(1.1), 考虑形式为

{ A x m 1 = λ | x | , x T x = 1 , (1.3)

的特征值问题。其中 A 是非奇异张量, | x | = ( | x 1 | , | x 2 | , , | x n | ) T ,受 [6] 启示,(1.3)可改写成

{ A x m 1 = λ D x , x T x = 1 ,

其中 D = ( d i j ) R n × n ,是一个对角矩阵,其主对角线元素 d i i 满足

d i i = { 1 , x i > 0 , 0 , x i = 0 , 1 , x i < 0.

该问题涉及到绝对值,其在原点处是不可微的。据我们所知该问题还未研究,这便是本文的研究意义。

求解(1.3)中 λ 和x的过程实际上是求解约束化非线性方程组的问题。非线性方程组的求解方法有许多,比如说梯度投影法、罚函数法等。在本文,我们用梯度神经网络方法求解含有绝对值形式的张量特征值和特征向量。

2. 构造梯度神经网络模型

梯度神经网络现在已经被认为是数值计算中的一个强大的算法 [4] ,在矩阵求逆和Drazin逆 [5] ,线性和非线性方程组 [6] 的求解等领域有着十分重要的作用。鉴于其高速处理特性和在实际应用中硬件实现的方便性,更多梯度神经网络求解线性方程组与非线性方程组问题见 [7] - [10]

为了监测和控制(1.3)的求解过程,根据梯度神经网络方法设计思路 [11] ,首先定义一个误差函数

E ( x ( t ) , λ ( t ) ) : = A x ( t ) m 0 λ ( t ) D x ( t ) R n . (2.1)

为了迫使 E ( x ( t ) , λ ( t ) ) 收敛于零。类似于 [12] 的工作,接着定义一个监测误差函数

e ( x ( t ) , λ ( t ) ) : = 1 2 A x ( t ) m 1 λ ( t ) D x ( t ) 2 2 R .

显然,当监测误差函数 e ( x ( t ) , λ ( t ) ) 收敛于零时, E ( x ( t ) , λ ( t ) ) 也收敛于零。

为了实现 E ( x ( t ) , λ ( t ) ) 收敛到零的目的,根据梯度神经网络设计方法,监测误差函数的负梯度方向作为下降方向,即

{ d x d t = γ 1 e ( x ( t ) , λ ( t ) ) x , d λ d t = γ 2 e ( x ( t ) , λ ( t ) ) λ . (2.2)

把(2.2)展开,有

{ d x d t = γ 1 ( ( m 1 ) A x m 2 λ D I ) T ( A x m 1 λ D x ) , d λ d t = γ 2 ( D x ) T ( A x m 1 λ D x ) , (2.3)

其中 γ 1 > 0 γ 2 > 0

采用欧拉差分对(2.3)进行离散,得

{ x k + 1 = x k α 1 ( ( m 1 ) A x k m 2 λ k D k I ) T ( A x k m 1 λ k D k x k ) = x k f ( x k , λ k ) , λ k + 1 = λ k + α 2 ( D k x k ) T ( A x k m 1 λ k D k x k ) = λ k + g ( x k + 1 , λ k ) , (2.4)

其中 τ i 是步长, α i = τ i γ i ( i = 1 , 2 ) τ i 应足够小。

故获得了一个计算(1.3)中 λ 和x的算法步骤,如下

步骤一:给定一个张量 A S [ m , n ] ,误差参数 ε > 0 ,最大代步数 k max 和初始向量 x 0 Σ = { x | x T x = 1 }

步骤二:令 α 1 , α 2 > 0 λ 0 R k = 0

步骤三:当 k < k max 时,计算

x k + 1 x k f ( x k , λ k )

x k + 1 x k + 1 x k + 1 2 ;

步骤四:计算

λ k + 1 λ k + g ( x k + 1 , λ k ) ;

步骤五:当 A x k + 1 m 1 λ k + 1 D k + 1 x k + 1 2 < ε 时,输出 ( x k + 1 , λ k + 1 ) ;否则返回第三步;

步骤六:结束。

为了证明算法的有效性,在下一小节,将分析算法的稳定性和收敛性。

3. 收敛性分析

本小节,我们讨论所提出的梯度神经网络模型(2.3)的一些收敛性质,首先我们给出定理3.1。

定理3.1 方程(2.1)的每一个解 x * 都是系统(2.3)的平衡点。反过来,若 ( ( m 1 ) A x ( t ) m 2 λ ( t ) D ) 是非奇异,那么系统(2.3)的平衡点是方程(2.1)的解。

证明:前一部分,显然成立。现证明第二部分。

假定 x * 是系统(2.3)的平衡点,即

d x d t | x = x * = γ 1 ( ( m 1 ) A x * m 2 λ * D ) ( A x m 1 λ D x ) .

由于 ( ( m 1 ) A x m 2 λ D ) 是非奇异矩阵, γ 1 > 0 ,进而有 A x * m 1 λ * D x * = 0 。因此 A x * m 1 = λ * D x * 。证毕。

假定 ( λ * , x * ) 满足 A x * m 1 = λ * D x * 。由 [13] 可知,平衡点 x * 附近找到邻域 δ > 0

B ( x * , δ ) : = { x R n | x x * 2 < δ } .

使得 ( ( m 1 ) A x m 2 λ D ) 是非奇异矩阵。

定理3.2 若张量 A S [ m , n ] 满足 A x * m 1 = λ * D x * 。初始向量 x 0 B ( x * , δ ) ,则从初始向量 x 0 出发的x都会收敛到 x *

证明:构造一个Lyapunov函数

L ( t ) = 1 2 E ( x ( t ) , λ ( t ) ) 2 2 = 1 2 E ( x ( t ) , λ ( t ) ) T E ( x ( t ) , λ ( t ) ) 0.

L ( t ) 关于时间t的导数得

L ˙ ( t ) = d L ( t ) d t = E ( x ( t ) , λ ( t ) ) T E ( x ( t ) , λ ( t ) ) d t = ( A x ( t ) m 0 λ ( t ) D x ( t ) ) T ( ( m 1 ) A x ( t ) m 2 λ ( t ) D ) d x d t = γ 1 T r [ H ϕ ( ( A x ( t ) m 0 λ ( t ) D x ( t ) ) T ( A x ( t ) m 0 λ ( t ) D x ( t ) ) ) ] , (3.1)

其中矩阵 H = ( ( m 1 ) A x ( t ) m 2 λ ( t ) D ) T ( ( m 1 ) A x ( t ) m 2 λ ( t ) D ) 是对称正定。则对任意 x B ( x * , δ ) ( ( m 1 ) A x ( t ) m 2 λ ( t ) D ) 是非奇异的,我们有

λ min T r ( ϕ ( ( A x ( t ) m 1 λ ( t ) D x ( t ) ) ( A x ( t ) m 1 λ ( t ) D x ( t ) T ) ) ) T r ( H ϕ ( ( A x ( t ) m 1 λ ( t ) D x ( t ) ) ( A x ( t ) m 1 λ ( t ) D x ( t ) T ) ) ) λ max T r ( ϕ ( ( A x ( t ) m 1 λ ( t ) D x ( t ) ) ( A x ( t ) m 1 λ ( t ) D x ( t ) T ) ) ) ,

其中 λ min λ max 是矩阵H的最小和最大特征值。函数 ϕ ( x ) = x 是单调递增的奇函数,所以 ϕ ( x ) = ϕ ( x ) ,再加上

ϕ ( x ) { > 0 , x > 0 , = 0 , x = 0 , < 0 , x < 0 ,

我们可以得到

x ϕ ( x ) { > 0 , x 0 , = 0 , x = 0.

那么

T r ( ϕ ( ( A x ( t ) m 1 λ ( t ) D x ( t ) ) ( A x ( t ) m 1 λ ( t ) D x ( t ) T ) ) ) { = 0 , A x ( t ) m 1 λ ( t ) D x ( t ) = 0 , > 0 , A x ( t ) m 1 λ ( t ) D x ( t ) 0.

参数 γ 1 > 0 ,故 L ( t ) 关于时间t的导数满足

d L ( t ) d t { = 0 , A x ( t ) m 1 λ ( t ) D x ( t ) = 0 , < 0 , A x ( t ) m 1 λ ( t ) D x ( t ) 0.

L ( t ) 是正定函数, L ˙ ( t ) 是负定函数,满足Lyapunov稳定性条件,故误差函数 E ( x ( t ) , λ ( t ) ) 会收敛于零。换句话说,状态向量 x ( t ) x ( t ) * 处是渐近稳定的。证毕。

定理3.3 模型(2.3)的收敛速率为 γ 1 β ,其中 λ min ( H )

证明:根据(3.1),有

d L ( t ) d t = γ 1 T r ( ϕ ( ( A x ( t ) m 1 λ ( t ) D x ( t ) ) ( A x ( t ) m 1 λ ( t ) D x ( t ) T ) ) ) γ 1 β T r ( ( A x ( t ) m 1 λ ( t ) D x ( t ) ) ( A x ( t ) m 1 λ ( t ) D x ( t ) T ) ) 2 γ 1 β L ( t ) . (3.2)

求解(3.2)得

L ( t ) L ( 0 ) e 2 γ 1 β .

因此

E ( x ( t ) , λ ( t ) ) 2 E ( x ( t 0 ) , λ ( t 0 ) ) 2 e γ 1 β t .

显然,模型的收敛速率为 γ 1 β 。证毕。

4. 数值实验

本小节,我们用一些数值例子来表明提出的梯度神经网络求解该问题的有效性和可行性。例4.1和例4.2均在Python上实验。

例4.1 [14] 令张量 A S [ 4 , 2 ] ,其具体值如下

a 1111 = a 2222 = 4 3 , a 1112 = a 1211 = a 1121 = 1 , a = 2122 a 1222 = a 2212 = a 2221 .

用梯度神经网络来求解例4.1时,选择误差 ε = 10 6 和最大迭代步数 k max = 1000 。同时,为了方便,取 α = α 1 = α 2 ,初始特征值 λ 0 = 0 和特征向量 x 0 = ( 1 , 0 ) T ,获得了部分数值结果见 表1

Table 1. Partial results calculated by layered neural networks (1)

表1. 梯度神经网络计算出的部分结果(1)

λ

x

CPU(s)

IT

α 1

error

−3.1547

( 0.7071 , 0.7071 ) T

0.0117

19

1

6.72 × 108

−3.2525

( 0.8919 , 0.4520 ) T

0.0053

17

1.1

4.62 × 108

−3.2525

( 0.8919 , 0.4520 ) T

0.0076

18

1.08

4.01 × 108

例4.2 [15] 令张量 A ( t ) S [ 3 , 3 ] ,其具体值如下

a 111 = ( t 20 ) 2 + 2 , a 211 = a 121 = a 112 = cos ( t 20 ) , a 311 = a 131 = a 113 = t + 21.

其他 a i j k = 0 ,其中 t [ 0 , 20 ]

用梯度神经方法求解张量 A ( t ) t = 20 时的特征值和特征向量,选择初始特征值 λ 0 = 1 ,初始特征向量 x 0 = ( 1 , 1 , 1 ) T 且误差 ε = 10 7 。为了简便,取 α = α 1 = α 2 。获得了部分数值结果见 表2

Table 2. Partial results calculated by layered neural networks (2)

表2. 梯度神经网络计算出的部分结果(2)

λ

x

CPU(s)

IT

α 1

error

2

( 1, 0, 0 ) T

0.0024

10

0.9

1.02 × 107

2

( 1, 0, 0 ) T

0.0003

1

1

0

2

( 1, 0, 0 ) T

0.0024

11

1.08

1.02 × 107

5. 总结

在本文中,利用梯度神经网络方法求解含有绝对值形式的张量特征值和特征向量,数值实验表明了该方法的有效性,不足之处有两点:第一,梯度神经网络方法中的参数 α 是影响收敛时间和误差的,选择最佳的参数 α 是目前急需解决的问题;第二,新形式的张量特征值问题涉及到绝对值函数 | x | ,由于 | x | 是非光滑函数,根据已有研究张量绝对值方程的工作,绝对值函数可以用光滑函数逼近。能否用光滑函数逼近 | x | ,然后再用神经网络方法求解,这也是一个值得思考的问题。

References Qi, L. (2005) Eigenvalues of a Real Supersymmetric Tensor. Journal of Symbolic Computation, 40, 1302-1324. >https://doi.org/10.1016/j.jsc.2005.05.007 Li, H., Du, S. and Wang, Y. (2020) An Inexact Levenberg-Marquardt Method for Tensor Eigenvalue Complementarity Problem. Pacific Journal of Optimization, 16, 87-99. Du, S., Zhang, L., Chen, C. and Qi, L. (2018) Tensor Absolute Value Equations. Science China Mathematics, 61, 1695-1710. >https://doi.org/10.1007/s11425-017-9238-6 Zhang, Y. (2006) A Set of Nonlinear Equations and Inequalities Arising in Robotics and Its Online Solution via a Primal Neural Network. Neurocomputing, 70, 513-524. >https://doi.org/10.1016/j.neucom.2005.11.006 Stanimirovic, P.S., Zivkovic, I.S. and Wei, Y. (2015) Recurrent Neural Network for Computing the Drazin Inverse. IEEE Transactions on Neural Networks and Learning Systems, 26, 2830-2843. >https://doi.org/10.1109/tnnls.2015.2397551 Zhang, Y., Chen, Z. and Chen, K. (2009) Convergence Properties Analysis of Gradient Neural Network for Solving Online Linear Equations. Acta Automatica Sinica, 35, 1136-1139. >https://doi.org/10.3724/sp.j.1004.2009.01136 Xiao, L. and Zhang, Y. (2014) Solving Time-Varying Inverse Kinematics Problem of Wheeled Mobile Manipulators Using Zhang Neural Network with Exponential Convergence. Nonlinear Dynamics, 76, 1543-1559. >https://doi.org/10.1007/s11071-013-1227-7 Chen, K. (2013) Implicit Dynamic System for Online Simultaneous Linear Equations Solving. Electronics Letters, 49, 101-102. >https://doi.org/10.1049/el.2012.3501 Yi, C. and Zhang, Y. (2008) Analogue Recurrent Neural Network for Linear Algebraic Equation Solving. Electronics Letters, 44, 1078-1080. >https://doi.org/10.1049/el:20081390 Zhang, Y. and Chen, K. (2008) Global Exponential Convergence and Stability of Wang Neural Network for Solving Online Linear Equations. Electronics Letters, 44, 145-146. >https://doi.org/10.1049/el:20081928 Ding, F. and Chen, T.W. (2005) Gradient Based Iterative Algorithms for Solving a Class of Matrix Equations. IEEE Transactions on Automatic Control, 50, 1216-1221. >https://doi.org/10.1109/tac.2005.852558 Wang, X., Che, M. and Wei, Y. (2020) Neural Network Approach for Solving Nonsingular Multi-Linear Tensor Systems. Journal of Computational and Applied Mathematics, 368, Article ID: 112569. >https://doi.org/10.1016/j.cam.2019.112569 Wilkinson, J.H. (1965) The Algebraic Eigenvalue Problem. Clarendon. Chang, K.C., Pearson, K.J. and Zhang, T. (2013) Some Variational Principles for Z-Eigenvalues of Nonnegative Tensors. Linear Algebra and Its Applications, 438, 4166-4182. >https://doi.org/10.1016/j.laa.2013.02.013 Mo, C., Wang, X. and Wei, Y. (2020) Time-Varying Generalized Tensor Eigenanalysis via Zhang Neural Networks. Neurocomputing, 407, 465-479. >https://doi.org/10.1016/j.neucom.2020.04.115
Baidu
map