sa Statistics and Application 2325-2251 2325-226X beplay体育官网网页版等您来挑战! 10.12677/sa.2025.143076 sa-110463 Articles 数学与物理 基于物理信息神经网络求解偏微分方程
Solving Partial Differential Equations Based on Physics-Informed Neural Networks
贾兴卓 兰州交通大学数理学院,甘肃 兰州 12 03 2025 14 03 249 256 24 2 :2025 16 2 :2025 16 3 :2025 Copyright © 2024 beplay安卓登录 All rights reserved. 2024 This work is licensed under the Creative Commons Attribution International License (CC BY). http://creativecommons.org/licenses/by/4.0/ 本文聚焦偏微分方程的求解问题。应用物理信息神经网络(Physics-Infor-med Neural Networks, PINN-s),将传统偏微分方程求解问题转化为神经网络的优化训练过程。通过将物理定律以软约束形式嵌入神经网络架构,构建了一种偏微分方程快速求解器。数值实验表明,该方法在有限数据条件下即可实现方程未知参数的高精度反演,并能构建出具有较高精度的预测解。
This study focuses on the efficient solution of partial differential equations by applying Physics-Informed Neural Networks (PINNs). The method transforms the traditional PDE solving problem into an optimization training process of neural networks. By embedding physical laws as soft constraints into the neural network architecture, a novel fast solver for PDEs is constructed. Numerical experiments demonstrate that this approach can achieve high-precision inversion of unknown parameters in equations and construct predictive solutions with high accuracy, even under limited data conditions.
神经网络,偏微分方程,数值解,参数反演
Neural Networks
Partial Differential Equations Numerical Solutions Parameter Inversion
1. 引言

偏微分方程对于生物药学模型、地球物理模型、化学模型、力学以及材料模型等复杂模型的学习有着极其重要的作用。学习这些复杂模型的过程即为高效求解偏微分方程的过程。对于微分方程的求解,分为求解微分方程正问题和反问题。从求解数学模型的角度来看,由因推果即为正问题的求解,求解正问题即是指已知偏微分方程、初边值条件以及方程中各项系数求方程的解;求解反问题则是由果推因,在具体的实验中,通常是已知方程的形式,但是系数未知,类似扩散系数、粘度系数等,这些参数的准确性直接影响方程的预测精度和可靠性,因此参数识别显得尤为重要。传统数值方法(如有限差分法、有限元法)面临高维问题中的维度灾难和反问题求解中的不适定性。近年来,物理信息神经网络(PINNs)通过将微分算子嵌入神经网络架构,实现了“无网格求解”和“正反问题统一建模”的突破。Pinkus [1] 讨论了神经网络的逼近理论,Lagaris [2] 采用人工神经网络通过构造两部分解求解随机微分方程以及偏微分方程。文献 [3] 从宽度和深度两个维度对RELU网络的逼近误差进行了深入研究,Harsha [4] 使用ANN-GA的方法估计固体物体表面的未知热流。Weinan [5] 在深度学习中的随机梯度下降框架下求解偏微分方程。Goodfellow [6] 采用GAN生成模型训练两个网络进行方程正问题的求解以及通过采样确定未知参数的后验样本。深度学习在低维以及高维方程的求解上都展现了高精度效果,还有很多学者做了网络架构的优化 [7] - [9] 损失函数的优化 [10] - [13] 来提高模型预测的精度。

本文通过优化PINNs来提高预测精度并求解偏微分方程并反演方程中的未知系数,采用Adam-LBFGS两阶段优化,前期快速下降,后期精细调优,设计自适应损失权重机制,动态平衡PDE残差、边界条件和初始条件的优化过程,并提出混合采样策略,结合拉丁超立方采样与残差驱动的自适应采样来提高神经网络的效率并通过数值实验展示优化后PINNs方法的高效性。

2. 偏微分方程的求解

近年来,由于深度学习技术在微分问题求解中展现出巨大潜力,因此深度学习方法被用在各类微分方程正反问题的求解中。有学者已经利用深度学习进行微分方程的求解,例如,Yuwei Fan [14] 中采用一个紧凑的神经网络来求解二维和三维的微分方程,用于求解电阻断层扫描的问题。文献 [15] 采用B-PINNs在贝叶斯推断的框架下,将神经网络的参数视为随机变量,从先验分布中采样训练神经网络并通过优化不断更新参数直至后验分布,这种方法可以量化由于误差所引起的不确定性。文献 [16] 通过PINNs解决了非线性偏微分方程的正问题和方程未知系数的反演。文献 [17] 使用两种PINNs网络架构来解决含有复数部位的声学Helmholtz方程。

2.1. 物理信息神经网络

随着机器学习的发展,深度学习方法已被应用于偏微分方程未知系数的反演、复杂域和高维复杂微分方程的求解。深度学习通过构建包含输入和输出的网络,利用自动微分和无网格技术,通过优化损失函数来更新网络的权重,来高效求解偏微分方程。PINNs是一种具有代表性的方法,它能够利用稀疏测量数据高效地求解常微分方程和偏微分方程,与传统方法相比展现出独特的优势,损失函数的设计遵循能量守恒定律,增强了模型的学习能力和鲁棒性。

PINNs通过构建网络来逼近真实值,在偏微分方程的正反问题求解中展现了高效和快速的特点。PINNs在构造损失函数时引入了数据损失和作为正则项的物理损失,这样的物理损失使得神经网络在训练过程中充分考虑物理规律,从而提高预测精度。

通过非线性的偏微分方程来阐述PINNs的原理,考虑非线性偏微分方程的一般形式如下:

{ u t + N [ u , λ ] = 0 , x Ω , t [ 0 , t T ] u ( x , 0 ) = h ( x ) , x Ω u ( x , t ) = g ( x , t ) , t [ 0 , t T ] , x Ω (1)

其中, u 是上述方程未知的解析解, Ω 为可行域, Ω 表示可行域的边界, N [ u , λ ] 为含有未知系数 λ 的偏微分方程的解关于自变量各阶偏导项的非线性算子, t T 为终端时刻, h ( x ) 为方程的初始条件, g ( x , t ) 为方程的边界条件。

构造一个神经网络 u θ ^ ( t , X ) 作为精确解 u 的近似,其中 θ ^ 是包含神经网络权重和偏置的参数集合,方程的残差定义为PINNs的输出,即:

f ( t ; X , k ) = t u θ ^ ( t , X ) + N [ u θ ^ ( t , X ) , λ ] (2)

在训练的过程中,损失函数被定义为方程及其初边值条件上残值的加权和:

( θ ; Σ ) = ω s s ( θ ; τ s ) + ω r r ( θ ; τ r ) + ω b b ( θ ; τ b ) , s ( θ ; τ s ) = 1 N s i = 1 N s | u θ ^ ( x i , 0 ) h ( x i ) | 2 , r ( θ ; τ r ) = 1 N r i = 1 N r | u θ ^ ( x i , t i ) g ( x i , t i ) | 2 , b ( θ ; τ b ) = 1 N b i = 1 N b | u t ( x i , t i ) + N [ u θ ^ ( x i , t i ) ; λ ] | 2 , (3)

其中 = { τ s , τ r , τ b } 表示训练数据 τ s = { X i | i = 1 N s , X i Ω } 集,为初始条件的采样数据 τ r = { X i | i = 1 N r , X i Ω , [ 0 , t T ] } 集,为边界条件的采样数据 τ b = { X i | i = 1 N b , X i Ω } 集,为残差数据的采样点集, ω i 表示各部分残值的权重, N i 表示各部分的采样数,PINNs的网络结构如 图1 所示。

Figure 1. The neural network architecture for solving differential equations--图1. 求解微分方程的神经网络结构--
2.2. 物理信息神经网络的优化

使用PINNs训练输入数据和预测数据之间的映射模型时,需要用到大量的数据点,包含函数的内部点以及初边值点,因此对于PINNs的优化是非常有必要的,在优化器的选择上本文考虑使用两种优化器即Adam优化器和L-BFGS优化器,从 图2 中可以看出随着迭代次数的增加组合使用两种优化器的效果最佳。

关于损失函数的优化本文采用自适应损失权重机制引入可学习的对数方差参数,通过动态调整各项损失的权重。采样点的选择方法可分为均匀型、自适应型以及基于选择准则的方法。例如,自适应均匀采样方法、Sobol序列以及拉丁超立方抽样(LHS)都是常见的采样策略,它们在不同的应用场景下具备各自的优势和特点。此外还有其他根据残差的大小选择自适应采样方法,在残差或者损失函数值大的地方多添加一些训练数据,对该区域的点进行更精细地学习,见 图3

Figure 2. The trend of loss decrease when using only L-BFGS (left), using two optimizers (middle), and using only adam optimizer (right)--图2. 仅使用L-BFGS(左)、使用两种优化器(中)、仅使用Adam优化器(右)时损失下降趋势-- Figure 3. Sobol sampling method (left), LHS sampling method (middle), and adaptive sampling method (right)--图3. Sobol采样方式(左)、LHS采样法(中)、自适应采样法(右)--

本文对三种采样方法的测试均在参数设置相同的两种优化器下进行,其中Adam优化器的学习率设置为0.01,L-BFGS优化器的学习率设置为1,如 图4 可知,采用LHS法训练模型在2000次迭代后的损失函数值下降到0.00583,采用Sobol序列的模型损失值为0.00565,而采用混合采样法,初始时刻采用LHS方法,后面的迭代过程中随着残差的大小自适应选择采样点,该方法的模型损失函数值下降到0.00631,因此在本文中考虑使用自适应采样法进行PINNs的训练。

Figure 4. The loss decline trend of three sampling methods--图4. 三种采样方式的损失下降趋势--

使用训练好的神经网络求解偏微分方程时,输入的数据点与预测值之间建立起近似关系,使用该模型可以很快地找到某一样本点的函数值。

3. 数值算例

考虑如下扩散方程,具体形式为:

{ u t = 0.1 x ( v ( x ) u t ) + f ( t , x ) , t [ 0 , 1 ] , x [ 1 , 1 ] u ( t , 1 ) = 0 , t [ 0 , 1 ] u ( t , 1 ) = 0 , t [ 0 , 1 ] u ( 0 , x ) = sin ( π x ) x [ 1 , 1 ] (4)

在上述扩散方程中,给定 v ( x ) = exp ( 2 x 1 ) 2 且u的精确解为 u = sin ( π x ) exp ( t ) 。在本算例中,求解该方程并对扩散系数进行反演计算。该方程中的源项可通过 f ( t , x ) 已知参数和精确解推导得出。网络和算法里的其他参数如下:PINNs的输入维度是2,包含一个空间坐标,一个时间坐标,7个隐藏层、每层40个神经元,输出维度为1,每层使用Tanh激活函数,在训练的初始采用Adam优化器,之后使用L-BFGS,采用自适应采样的方式,由解析解采样得到观测数据。实验中边界点数选取初始点选取残差点 N r = 500 实验中,采用 N b = 200 内部点 N f = 10000

实验中各项损失函数权值采用自适应方法动态调整,将各项损失的权重视为可训练的参数,在反向传播时优化这些参数。自适应权值方法量化各项损失的重要性程度,在实验的过程中动态调整各项损失的贡献程度。整个实验在PyTorch 2.2.1版本的深度学习框架下实现。

图5 展示了利用PINNs方法作为正向模型的替代模型的结果。 图6 展示了该方法对未知系数的反演

Figure 5. Prediction of u using the PINNs method--图5. PINNs方法对u的预测-- Figure 6. Prediction of parameters using the PINNs method--图6. PINNs方法对参数的预测-- Figure 7. Prediction errors of various methods Sobol sampling method (left), LHS (middle), adaptive sampling and weights (right)--图7. 各种方法的预测误差Sobol采样方式(左)、LHS(中)、自适应采样和权重(右)--

结果,从误差图中可以发现扩散方程的未知系数的真实值与预测值之间的差异较小,这意味着反演结果在很大程度上逼近了真实值。 图7 说明了在训练中其他两种采样方式与本文所采用的自适应权重和自适应采样方式关于误差的对比图,从 图7 可知本文所采用的方法对于该扩散方程的预测精度更高。

图8 显示了在不同时刻(t = 0.25 s、0.50 s和0.75 s)下,各种方法的解(蓝色实线)与精确解(红色虚线)的对比。在固定各项损失函数权值下只使用LHS采样方法以及只使用Sobol采样方法,在自适应权值下采用残差采样方法,结果表明,本文所采用的方法在不同时刻都能够较准确地预测系统的动态行为,与理论解保持一致性。

Figure 8. Predictive and real solutions of model responses at different times Sobol sampling methods (top), LHS (middle), adaptive sampling and weights (bottom)--图8. 在不同时刻模型响应的预测解以及真实解Sobol采样方式(上)、LHS(中)、自适应采样和权重(下)--
4. 结论

本研究基于PINNs的方法研究在求解偏微分方程中的应用。优化了PINNs方法的预测精度,通过对比多种采样方法、优化器的设置方式以及自适应权值的设置减少训练时长提高精度。自适应权重方法通过动态调整各项损失的权重,解决了传统固定权重方法在训练后期难以平衡不同约束条件的问题。基于残差采样强化了高残差区域的采样密度。实验结果表明,所提出的方法能够有效预测扩散方程的解,并对未知参数提供预测,可视化结果进一步表明,PINNs预测的解与精确解有较好的一致性,体现了该方法在处理具有不确定性物理参数的偏微分方程求解中的潜力。

References Pinkus, A. (1999) Approximation Theory of the MLP Model in Neural Networks. Acta Numerica, 8, 143-195. >https://doi.org/10.1017/s0962492900002919 Lagaris, I.E., Likas, A. and Fotiadis, D.I. (1998) Artificial Neural Networks for Solving Ordinary and Partial Differential Equations. IEEE Transactions on Neural Networks, 9, 987-1000. >https://doi.org/10.1109/72.712178 Lu, J., Shen, Z., Yang, H. and Zhang, S. (2021) Deep Network Approximation for Smooth Functions. SIAM Journal on Mathematical Analysis, 53, 5465-5506. >https://doi.org/10.1137/20m134695x Harsha Kumar, M.K., Vishweshwara, P.S., Gnanasekaran, N. and Balaji, C. (2018) A Combined ANN-GA and Experimental Based Technique for the Estimation of the Unknown Heat Flux for a Conjugate Heat Transfer Problem. Heat and Mass Transfer, 54, 3185-3197. >https://doi.org/10.1007/s00231-018-2341-3 Weinan, E. and Yu, B. (2018) The Deep Ritz Method: A Deep Learning-Based Numerical Algorithm for Solving Variational Problems. Communications in Mathematics and Statistics, 6, 1-12. >https://doi.org/10.1007/s40304-018-0127-z Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., et al. (2020) Generative Adversarial Networks. Communications of the ACM, 63, 139-144. >https://doi.org/10.1145/3422622 Jagtap, A.D., Mitsotakis, D. and Karniadakis, G.E. (2022) Deep Learning of Inverse Water Waves Problems Using Multi-Fidelity Data: Application to Serre-Green-Naghdi Equations. Ocean Engineering, 248, Article ID: 110775. >https://doi.org/10.1016/j.oceaneng.2022.110775 Jagtap, A.D., Kawaguchi, K. and Karniadakis, G.E. (2020) Adaptive Activation Functions Accelerate Convergence in Deep and Physics-Informed Neural Networks. Journal of Computational Physics, 404, Article ID: 109136. >https://doi.org/10.1016/j.jcp.2019.109136 Salimans, T. and Kingma, D.P. (2016) Weight Normalization: A Simple Reparameterization to Accelerate Training of Deep Neural Networks. arXiv: 1602.07868. Jin, X., Cai, S., Li, H. and Karniadakis, G.E. (2021) Nsfnets (Navier-Stokes Flow Nets): Physics-Informed Neural Networks for the Incompressible Navier-Stokes Equations. Journal of Computational Physics, 426, Article ID: 109951. >https://doi.org/10.1016/j.jcp.2020.109951 Cai, S., Li, H., Zheng, F., Kong, F., Dao, M., Karniadakis, G.E., et al. (2021) Artificial Intelligence Velocimetry and Microaneurysm-on-a-Chip for Three-Dimensional Analysis of Blood Flow in Physiology and Disease. Proceedings of the National Academy of Sciences of the United States of America, 118, e2100697118. >https://doi.org/10.1073/pnas.2100697118 Xiang, Z., Peng, W., Liu, X. and Yao, W. (2022) Self-adaptive Loss Balanced Physics-Informed Neural Networks. Neurocomputing, 496, 11-34. >https://doi.org/10.1016/j.neucom.2022.05.015 Urban, J.F., Stefanou, P. and Pons, J.A. (2024) Unveiling the Optimization Process of Physics Informed Neural Networks: How Accurate and Competitive Can PINNs Be? arXiv: 2405.04230. Fan, Y. and Ying, L. (2020) Solving Electrical Impedance Tomography with Deep Learning. Journal of Computational Physics, 404, Article ID: 109119. >https://doi.org/10.1016/j.jcp.2019.109119 Yang, L., Meng, X. and Karniadakis, G.E. (2021) B-PINNs: Bayesian Physics-Informed Neural Networks for Forward and Inverse PDE Problems with Noisy Data. Journal of Computational Physics, 425, Article ID: 109913. >https://doi.org/10.1016/j.jcp.2020.109913 Yang, L. and Wang, Z. (2018) Artificial Neural Network (ANN) Modeling of Thermal Conductivity of Supercritical Ethane. Energy Sources, Part A: Recovery, Utilization, and Environmental Effects, 41, 396-404. >https://doi.org/10.1080/15567036.2018.1518358 Raissi, M., Perdikaris, P. and Karniadakis, G.E. (2019) Physics-Informed Neural Networks: A Deep Learning Framework for Solving forward and Inverse Problems Involving Nonlinear Partial Differential Equations. Journal of Computational Physics, 378, 686-707. >https://doi.org/10.1016/j.jcp.2018.10.045
Baidu
map