基于物理启发式深度神经网络的大气湍流退化图像复原
Restoration of Atmospheric Turbulence Degraded Images Based on Physics-Inspired Deep Neural Networks
摘要: 大气湍流会导致大气光传输数据模糊和扭曲,影响成像质量和后续分析处理。为了更好地恢复由大气湍流所影响的失真图像,本研究基于物理启发式深度神经网络提出了一种大气湍流退化图像复原算法。通过结合金字塔结构和注意力机制,提高特征提取的精度,从而改善复原图像质量。通过湍流模拟器模拟退化图像,提取大气湍流退化图像的先验信息,提升复原效果。实验结果表明,本研究在处理处理弱和中湍流环境下的大气光传输数据时复原能有效提高成像的视觉质量,降低成像的模糊和几何畸变程度。
Abstract: Atmospheric turbulence causes blurring and distortion in atmospheric optical transmission data, affecting imaging quality and subsequent analysis and processing. To better restore distorted images influenced by atmospheric turbulence, this study proposes an atmospheric turbulence degradation image restoration algorithm based on a physics-inspired deep neural network. By combining a pyramid structure and attention mechanisms, the accuracy of feature extraction is enhanced, thereby improving the quality of the restored images. Degraded images are simulated using a turbulence simulator, and prior information about atmospheric turbulence degradation is extracted to improve the restoration effect. Experimental results show that this study effectively enhances the visual quality of imaging and reduces blur and geometric distortion in atmospheric optical transmission data under weak and moderate turbulence environments.
文章引用:原泽, 周林华. 基于物理启发式深度神经网络的大气湍流退化图像复原[J]. 应用数学进展, 2025, 14(4): 205-217. https://doi.org/10.12677/aam.2025.144154

1. 引言

深度学习技术自提出以来,凭借其在多个领域中的卓越性能,已经成为当今人工智能研究的核心技术之一。深度学习通过构建层级化的神经网络架构,可以实现对数据的深度特征提取与复杂模式的建模,尤其在图像处理和计算机视觉领域取得了显著成效。在传统的图像处理方法中,许多任务依赖于手工设计特征和复杂的算法,然而深度学习的出现极大地提高了图像分类、目标检测、图像生成、图像复原等任务的处理效率和精度。特别是在图像复原领域,深度学习模型的应用表现出超越传统方法的强大能力,成为解决各种图像退化问题的关键技术。

在诸多应用领域中,图像退化是一个广泛存在的问题,尤其是在大气湍流影响下的图像退化。大气湍流是一种由气流扰动引起的复杂物理现象,它对图像采集过程产生了显著的影响。湍流的存在使得图像出现模糊、畸变和随机噪声等问题,极大地降低了图像的质量[1] [2]。大气湍流通过不规则的气流扰动引起光波传播路径的变化,从而导致光学波前的严重扭曲,进而影响到成像设备对目标的观测和几何结构的还原[3]。这种退化现象在多个领域中都带来了挑战,包括天文学、遥感、国防安全监控、天文观测、工业检测等。湍流退化图像在这些领域中的出现,严重影响了目标物的观测精度和后续的图像分析处理,尤其是在高分辨率成像需求不断增加的背景下,解决湍流退化问题显得尤为重要。

在早期的工作中,去湍流光学成像技术通常涉及到维纳滤波方法(Wiener Filter)、盲去卷积(Blind Deconvolution)、幸运帧成像等传统的去干扰算法。然而,这些方法主要依赖图像的先验信息,未充分考虑大气湍流的物理特性。尽管图像质量有所改善,但复原后的图像仍可能受到极限衍射和成像系统固有模糊的影响。随着深度学习的快速发展,数据驱动的图像处理技术取得了显著进展,例如卷积神经网络(CNN)在图像去噪、去模糊和超分辨率等任务中的表现均超过了传统方法[4]-[7]。Dong等[8]提出了SRCNN模型,通过端到端映射关系生成高分辨率图像。He等[9]提出的ResNet模型通过引入残差学习机制,极大提升了深度学习模型的图像处理能力。Hirsch等[10]提出“Efficient Filter Flow”方法,采用多帧盲反卷积算法减小湍流畸变影响。Anantrasirichai N [11]通过构建深度卷积神经网络模型,利用复值卷积提取被大气湍流改变的相位信息。深度学习技术在去湍流光学成像领域展现了巨大的潜力,但由于湍流的高度复杂性,各种方法往往也存在各自的局限性。

注意力机制的发展标志着图像处理领域的一次重大突破,通过增强模型对图像关键区域的关注,能够有效地提升模型的性能。Vaswani等[12]提出注意力机制在自然语言处理和计算机视觉领域均取得了显著的成功。Hu等[13]提出SENet,通过引入通道级注意力机制,提升了图像分类任务的性能,进一步证明了注意力机制在增强特征表示方面的有效性。Zhang等[14]在图像去噪任务中引入了非局部注意力机制,通过捕捉长距离依赖关系提升图像复原质量。金字塔结构能够有效地捕捉图像的多尺度信息。在图像超分辨率和图像去噪等任务中,金字塔结构的引入显著地提升了模型的性能。金字塔注意力机制整合了金字塔结构和注意力机制的优点,通过多尺度特征的融合和选择性关注,进一步增强了模型对图像多尺度特征[15]-[18]的捕获能力。Fu等人[16]提出的特征融合架构,结合了自上而下和自下而上的路径,增强了浅层特征并优化了多尺度对象的表示。Wang等[18]提出了一种金字塔注意力网络(PAN),该网络通过利用金字塔结构和注意力机制,在去噪和超分辨率重建等图像处理任务中取得了显著的提升。在去湍流图像复原中,金字塔注意力机制能够帮助模型捕捉不同尺度的湍流干扰,进而提高复原效果。Zhang等[19]提出了多尺度金字塔注意力机制(MSPAN),该机制通过强化模型对不同尺度湍流干扰的适应能力,从而提高了图像复原的效果。MSPAN通过加权融合不同尺度的特征信息,有效地减少了湍流对图像细节的影响,取得了优于传统方法的性能。

本文提出了一种基于物理启发式深度神经网络的大气湍流退化图像复原算法。该方法结合了大气湍流的物理建模与深度学习网络的强大学习能力,通过物理启发式机制模拟湍流退化过程,并利用深度神经网络进行图像复原。具体来说,本文构建了一种金字塔注意力复原网络,该网络通过多尺度特征提取和注意力机制聚焦于图像的关键区域,从而有效地恢复图像的清晰度和结构信息。同时,我们提出了基于物理启发式机制的湍流模拟器,该模拟器结合了大气湍流的物理特性,为网络提供了具有物理一致性的训练样本。此外,本文还设计了一种基于湍流模拟的复原网络反馈调节机制,通过与模拟器的交互调整网络权重,以提升复原效果。

本文的结构安排如下:在第二部分详细描述了大气湍流图像数据的数学表达。在第三部分介绍了基于物理启发式深度学习网络算法,包括金字塔注意力复原网络、基于物理启发式的湍流模拟器模块以及两者的结合策略;在第四部分介绍实验设计与结果,展示了本研究算法在不同数据集上的实验结果,通过与其他成像方法对比分析验证所提算法的有效性和优越性;在第五部分总结了本文的主要贡献,并简要展望了本研究在未来的改进方向。

2. 大气湍流图像数据

大气湍流成像是涉及到光传播、随机扰动等多种因素的复杂物理过程。为了更好理解大气湍流的影响,通常采用数值方法对湍流进行仿真研究。通过计算光波在大气传播过程中的物理效应,如湍流起的随机相位扰动、光学路径的变化等,可以近似描述湍流影响。受湍流扰动的图像数据表达如下

Ι blur = H Ι clear + η

其中 Ι blur R h × w 表示受湍流扰动的成像数据, Ι clear R h × w 表示未受湍流扰动的原始清晰图像数据, H 刻画湍流对光传输影响的扩展函数(PSF), 为卷积操作, η R h × w 表示高斯随机噪声。原始清晰图像数据 Ι clear 和扩展函数 H 分别记为:

Ι clear = ( I i r , I i g , I i b ) = ( ( I 11 r I 1 w r I h 1 r I h w r ) , ( I 11 g I 1 w g I h 1 g I h w g ) , ( I 11 b I 1 w b I h 1 b I h w b ) ) H = ( H 11 H 1 q H p 1 H p q )

其中 I i r , I i g , I i b 分别为 Ι clear 的红、绿、蓝三通道的灰度矩阵;受湍流扰动的成像数据 Ι blur 记为:

Ι blur = ( I i r , I i g , I i b ) = ( ( I 11 r I 1 w r I h 1 r I h w r ) , ( I 11 g I 1 w g I h 1 g I h w g ) , ( I 11 b I 1 w b I h 1 b I h w b ) )

3. 基于物理启发式深度学习网络构建

大气湍流导致的图像退化是一个复杂的多维问题,主要表现为几何扭曲、局部模糊和随机噪声等退化效应。针对这一问题,提出一种基于物理启发式机制的金字塔注意力网络方法(如图1所示),通过结合湍流物理特性与深度学习框架,针对性地解决湍流退化的多尺度和非均匀性特性。该方法的核心思想是利用金字塔注意力网络对湍流引发的多尺度退化特征进行精准提取,同时通过物理启发机制加强网络的复原能力。

Figure 1. Pyramid attention network based on physics-inspired mechanism

1. 基于物理启发式机制的金字塔注意力网络

3.1. 金字塔注意力复原网络

金字塔注意力复原网络是一种能够提取多尺度特征并实现高精度复原的网络结构。在大气湍流退化场景中,湍流效应会导致图像局部模糊和几何失真。PANet通过金字塔注意力模块与残差模块相结合,实现了特征的高效提取与复原。在本研究中,金字塔注意力模块如图2所示,模块的网络结构通过多个卷积层、注意力加权融合以及重建步骤组成,能够有效处理不同尺度的特征,并通过转置卷积进行图像重建。

Figure 2. PA-block structure

2. PA-block结构

为了捕获多尺度特征,金字塔注意力模块对特征进行下采样和特征融合。具体而言,金字塔注意力模块首先对输入特征 Ι blur 进行通过多尺度因子对输入图像进行缩放得到不同尺度的图像 S = { S 1 , S 2 , , S n } ,通过卷积核对每个尺度图像进行特征提取,得到每个尺度的基础特征图;然后使用提取图像块的函数,从每个尺度的图像中提取局部图像块,形成原始图像块 T 和匹配图像块 T ,通过注意力机制对每个尺度的特征图进行加权和归一化。通过Softmax操作对特征进行融合,得到加权后的特征图。将加权后的特征图归一化后,使用转置卷积重建图像进行输出,恢复图像的细节信息。

3.2. 基于物理启发式机制的湍流模拟器

在本研究中,湍流模拟器通过结合物理启发式机制和深度学习方法,生成模拟的湍流退化图像。尽管图像处理领域在湍流模拟方面已有一定进展,但现有研究往往忽视了现实世界湍流的复杂性,尤其是成像系统的孔径、焦距、物体与摄像机之间的距离、视场、波长以及环境条件(如温度、湿度、风速等)对湍流轮廓的影响。这种忽略限制了现有方法在处理真实世界未知退化的泛化能力。本研究中的湍流模拟器操作流程如图所示,该模拟器主要基于以下两个物理机制:模糊效应建模和几何畸变建模,以确保模拟图像的真实感和多样性。

湍流的模糊效应通过点扩散函数(Point Spread Function, PSF)来模拟。湍流模拟器利用一个预定义的PSF字典,通过卷积操作生成模糊图像。为了适应不同湍流强度,PSF的尺度和形状会根据输入图像的特点进行插值调整。这一过程的数学表示如下:

Ι ˜ blur = i = 1 n ψ i Ι ˜ Recons

其中, ψ i 表示第i个PSF基函数, Ι imput 是输入图像,*表示卷积操作。通过这一过程,模拟器生成带有湍流模糊效应的图像。

在模拟器中,通过PSF基底卷积提取图像特征,得到模糊图像。通过以下公式,特征图 Ι 通过卷积操作生成模糊图像B:

B = i = 1 100 Ι ψ i + μ

特征图 Ι 为输入图像, μ 为常数,表示图像的偏置项。这个过程通过卷积操作生成与湍流相关的图像特征,为后续的湍流模拟提供输入。

在几何畸变建模中,生成随机Zernike系数Z,并通过相关矩阵 R z 进行线性变换,得到湍流扰动系数C

C = R z Z

这些系数用于描述湍流引起的图像几何扭曲。 R z 表示不同Zernike系数之间的物理相关性,特别是它们在湍流条件下的相互影响。具体的数学表达式为:

R z = 0.0072 π 8 / 3 ( D n 0 ) 5 / 3 ( n i + 1 ) ( n j + 1 ) Γ ( 14 3 ) Γ ( n i + n j 5 / 3 2 )

其中D是望远镜的孔径,影响图像的空间分辨率。 r 0 是Fried参数,表示湍流的强度。 n i n j 是Zernike多项式的阶数,代表不同的畸变模式。 Γ ( · ) 是伽玛函数,用于调整系数的尺度。通过对Zernike系数C进行傅里叶变换,乘以平方根功率谱(PSD),然后进行逆傅里叶变换,生成位移场D

D = 1 ( P S D ( C ) )

位移场D代表湍流引起的几何畸变,即图像中每个像素的位移。

通过P2S (Position to Space)模块用于将位移场D映射为权重W,用于后续的加权操作。

weight = P 2 S ( D )

最后使用权重W对PSF基底卷积后的模糊图像进行加权求和,生成最终的模糊图像 B 。使用位移场D生成偏移后的网格G',通过插值操作对模糊图像进行畸变,得到畸变后的图像 Ι ˜ blur

B = i W i ( ψ i Ι ) G = 2 pixel_pos + D ( W , H ) 1 1 Ι ˜ b l u r = grid_sample ( B , G )

其中, pixel_pos 表示对应的网格像素位置。 grid_sample 表示插值操作。湍流模拟器能够生成大量具有物理一致性的退化图像,为复原网络提供了丰富的训练样本。与传统数据增强方法相比,该模拟器通过嵌入物理机制显著提升了训练样本的多样性与真实性。

3.3. 基于湍流模拟的复原网络反馈调节

为了实现复原网络与湍流模拟器的有效融合,本章节基于湍流模拟对复原网络进行反馈调节。具体实现包括:模糊核提取与反卷积。通过比较模拟模糊图像与原始退化图像,提取模糊核,并利用反卷积操作逆转模糊效应,从而提升复原精度。

在湍流模拟过程中,模糊效应和几何畸变通常是同时作用的。因此,提取模糊核时需要能够有效分离这两者,以确保提取出的模糊核只包含模糊效应,而不受几何畸变的影响。为了实现这一目标,通过对比生成模糊图像 I ˜ blur 和原始退化图像 I blur ,能够更精确地分离这两种效应。下面将详细介绍如何通过这种对比方法进行分离。

首先将通过湍流模拟器生成的模糊图像 Ι ˜ blur 和原始模糊图像 Ι blur 转换为灰度图像

I ˜ blur = 1 c i = 1 c I ˜ blur ( i ) I blur = 1 c i = 1 c I blur ( i ) .

其中,分别表示第i个通道的图像。

其次计算傅里叶变换并在频域中估计模糊核的频谱比值

( I ˜ blur ) ( f ) = x = 0 h 1 y = 0 w 1 I ˜ blur ( x , y ) e 2 π i ( f x + f y ) ( I blur ) ( f ) = x = 0 h 1 y = 0 w 1 I blur ( x , y ) e 2 π i ( f x + f y )

R ( f ) = ( I ˜ blur ) ( f ) ( I blur ) ( f )

然后通过逆傅里叶变换获得空间域的模糊核,并进行中心裁剪与归一化

1 ( ( f ) ) = x = 0 h 1 y = 0 w 1 ( f ) e 2 π i ( f x + f y )

得到的结果是模糊核的频域表示。然后,通过中心裁剪和归一化处理,得到空间域中的模糊核 h ( x , y ) ,可以用以下表达式表示:

h ( x , y ) = 1 ( ( f ) )

对得到的模糊核进行中心裁剪,将模糊核中的边缘部分去除,以减少因采样造成的边缘效应。并根据图像进行归一化处理,确保模糊核的能量保持一致,使得反卷积操作更加稳定。

最后将通过动态提取的模糊核进行反卷积处理。反卷积操作利用转置卷积实现,目标是去除图像中的模糊效应。

Ι ˜ ( x , y ) = Ι blur ( x , y ) h ( x , y ) 1

其中, h ( x , y ) 1 是模糊核的逆变换, Ι ˜ ( x , y ) 是反卷积操作后图像。

3.4. 损失函数

在图像生成与恢复任务中,损失函数的设计至关重要,它直接影响生成图像的质量和训练的稳定性。本章网络优化需要对原始退化图像 I blur ,及生成模糊图像 I ˜ blur 和原始清晰图像 I clear 与生成清晰图像 I ˜ Recons 之间的一致性损失进行联合优化,以提高生成图像的质量。通过引入感知损失和一致性损失来共同优化图像生成过程,从而达到图像恢复和细节还原的最佳效果。本损失函数包含三个主要组成部分:清晰图像恢复损失、模糊图像恢复损失和正则化项。具体形式为:

L = α I clear , I ˜ Recons 1 + ( 1 α ) I blur , I ˜ blur 1 + β L p r e c

其中, I clear , I ˜ Recons 1 表示生成的清晰图像 I ˜ Recons 与原始清晰图像 I clear 之间的L1损失.该项损失用于度量生成图像与目标图像之间的像素级差异,旨在最小化生成的清晰图像与真实图像之间的误差,从而恢复清晰图像的细节和结构; I blur , I ˜ blur 1 表示生成的模糊图像 I ˜ blur 与原始模糊图像 I blur 之间的L1损失.通过这一项损失,网络优化生成的模糊图像,使其更接近真实模糊图像,从而保留图像的模糊效果并提高生成图像的真实感. α ( 1 α ) 是加权系数,控制清晰图像恢复损失和模糊图像恢复损失之间的平衡.系数 α 可以根据任务的要求调整,以便平衡清晰图像和模糊图像的生成质量。

β L p r e c 是感知损失(Perceptual Loss),而 β 是感知损失权重系数,用于平衡生成图像的质量和特征保持。通过感知损失,生成器能够在保留图像大体结构的同时,更好地复原图像中的高层次特征。感知损失的数学表达式为:

L p e r c = v = 1 L 1 H v W v ϕ v ( Ι clear ) ϕ v ( Ι ˜ Recons ) 2 2

ϕ v ( ) 代表预训练的VGG19网络。

4. 实验设计与结果

4.1. 数据集构成

实验数据集来自北航白相志教授团队实验室[16]的公开数据。为了训练和测 试,该团队建立了一个大气湍流退化视频数据集,包含算法和高温气候下拍摄的物理模拟大气湍流退化数据。本章实验的数据集是公开数据的子集,数据集中的场景具有丰富性和多样性,主要由自然场景、街景、人物组成,经选取,共8000组数据,其中6000组作为训练集,2000组作为测试集,包含各种湍流强度退化图像数据。同时,为了便于验证本章节所提方法的通用性,采用现实环境中拍摄或者远程摄像机采集的真实大气湍流数据集。

4.2. 实验设置

本研究实验图像评价指标选用峰值信噪比(PSNR)和结构相似性指数(SSIM)来计算去湍流成像定量性能测量值。PSNR和SSIM为:

PSNR ( G ( x i ) , u i ) = 10 × log 10 255 2 v = 1 L 1 H v W v ϕ v ( u i , t ) ϕ v ( G ( x i ) ) 2

SSIM ( G ( x i ) , u i ) = ( 2 μ G ( x i ) μ u i + c 1 ) ( 2 σ G ( x i ) u i + c 2 ) ( μ G ( x i ) 2 + μ u i 2 + c 1 ) ( σ G ( x i ) 2 + σ u i 2 + c 2 )

式中的 G ( x i ) 为生成的去湍流光学图像, u i 是原始清晰图像,HW是图像的高度和宽度。 μ G ( x i ) G ( x i ) 的平均值, μ u i u i 的平均值, σ G ( x i ) 2 G ( x i ) 的方差, σ u i 2 u i 的方差, σ G ( x i ) u i G ( x i ) u i 的协方差,常数值 c 1 c 2 用于保持稳定性。在图像质量评价时,PSNR反映2幅图像对应像素点间的误差,PSNR越大,表明重建图像失真越少,效果越好。SSIM表示2幅图像的相似度,其值越接近1,说明重建图像越接近原始图像。

4.3. 对比实验

本节将进行基于物理启发式深度神经网络的大气湍流退化图像复原算法的试验对比。为了全面评估所提出算法的有效性,本研究选择Wiener滤波,逆滤波和Turn-Net模型进行对比分析改进模型的图像复原算法。在相同的实验环境下使用湍流扰动数据集对模型进行训练与测试。

图3展示了使用不同模型在数值模拟弱湍流环境下的湍流退化图像复原的视觉效果。其中图3(a)是真实清晰图像;图3(b)为湍流扰动图像复原,其作为网络模型的输入;图3(c)是基于Wiener滤波的湍流退化图像复原;图3(d)是基于Turn-Net的湍流退化图像复原;图3(e)是基于逆滤波的湍流退化图像复原;图3(f)是基于本文的湍流退化图像复原。

Figure 3. Restoration results of turbulence-degraded images in numerically simulated weak turbulence environment by different models

3. 不同模型对数值模拟弱湍流环境的湍流退化图像复原结果

对中湍流环境的湍流退化图像复原的对比结果如表1所示。本研究方法对比Wiener滤波、逆滤波方法及Turn-Net方法等方法,能够观察到PSNR和SSIM有所提升。

Table 1. PSNR and SSIM results of different models for turbulence-degraded image restoration in numerically simulated weak turbulence environment

1. 不同模型对数值模拟弱湍流环境湍流退化图像复原的PSNR和SSIM结果

模型

PSNR

SSIM

Wiener滤波

12.361

0.551

逆滤波

14.010

0.677

Turn-Net

25.384

0.738

Ours

25.943

0.891

图4展示了使用不同模型在中湍流环境下的湍流退化图像复原的视觉效果。其中图4(a)是真实清晰图像;图4(b)为湍流扰动图像复原,其作为网络模型的输入;图4(c)是基于Wiener滤波的湍流退化图像复原;图4(d)是基于Turn-Net的湍流退化图像复原;图4(e)是基于逆滤波的湍流退化图像复原;图4(f)是基于本文的湍流退化图像复原。

Figure 4. Restoration results of turbulence-degraded images in numerically simulated moderate turbulence environment by different models

4. 不同模型对数值模拟中湍流环境的湍流退化图像复原结果

对中湍流环境的湍流退化图像复原的对比结果如表2所示。本研究方法对比Wiener滤波、逆滤波方法及Turn-Net方法等方法,能够观察到PSNR和SSIM有所提升。

Table 2. PSNR and SSIM results of different models for turbulence-degraded image restoration in numerically simulated moderate turbulence environment

2. 不同模型对数值模拟中湍流环境湍流退化图像复原的PSNR和SSIM结果

模型

PSNR

SSIM

Wiener滤波

13.594

0.634

逆滤波

14.810

0.668

Turn-Net

26.034

0.864

Ours

26.512

0.935

4.4. 消融实验

为了进一步证明本章方法的有效性,继续进行了消融实验。实验参数设置保持不变,数据选择高温气候下拍摄的物理模拟大气湍流退化数据,对比了以下2种组合模型的结果:(1) 物理驱动的注意力复原网络;(2) 去除物理驱动的注意力复原网络。

表3中的PSNR和SSIM结果来看,去除物理驱动的注意力复原网络的PSNR为18.973,SSIM为0.704,而本文方法(包含物理启发式调节模块)的PSNR为22.658,SSIM为0.823。可以明显看出,加入物理驱动的注意力模块后,复原效果有了显著提升,PSNR提高了3.658 dB,SSIM也有所增加,表明图像的细节、清晰度和结构恢复得更好。

图5展示了两种模型在物理模拟大气湍流退化图像复原中的视觉效果。通过观察结果可以明显看出,去除物理驱动的注意力复原网络的图像复原效果在清晰度和细节恢复方面逊色于包含物理启发式调节模块的复原结果。

Table 3. PSNR and SSIM comparison results of ablation experiments

3. 消融实验的PSNR和SSIM对比结果

模型

PSNR

SSIM

去除物理驱动的注意力复原网络

18.973

0.704

Ours

22.658

0.823

(a) 原始清晰图像 (b) 湍流退化图像

(c) 去除物理驱动的注意力复原网络 (d) 基于本文的湍流退化图像复原

Figure 5. Comparison of ablation experiment results

5. 消融实验结果对比

5. 结论与展望

本研究提出了一种基于物理启发式深度神经网络的大气湍流退化图像复原方法,结合了大气湍流的物理建模与深度学习技术,实现了大气湍流退化图像复原。通过设计金字塔注意力复原网络、基于物理启发式机制的湍流模拟器以及复原网络反馈调节机制,本文的方法在大气湍流退化图像复原中展现了优异的性能。

尽管本研究取得了较好的结果,但仍有一些改进的空间。未来的工作可以从以下几个方面进行进一步探索:

1. 模型优化:可以进一步优化网络结构,探索更高效的注意力机制和多尺度特征提取方法,以进一步提高图像复原效果。

2. 适应极端条件:研究如何在极端湍流环境下提升模型的复原能力,尤其是在低光照、强湍流干扰等复杂条件下,提升复原效果的稳定性。

3. 实时复原:考虑到实时性需求,未来可将所提方法应用于在线图像处理,探索模型加速和硬件优化技术,以实现实时大气湍流图像复原。

总之,本文提出的基于物理启发式深度神经网络的大气湍流退化图像复原方法在处理湍流退化图像的复原问题中取得了显著的成果,为图像复原技术在实际应用中的进一步发展提供了重要的参考和支持。

参考文献

[1] Yitzhaky, Y., Dror, I. and Kopeika, N.S. (1997) Restoration of Atmospherically Blurred Images According to Weather-Predicted Atmospheric Modulation Transfer Functions. Optical Engineering, 36, 30643-3072.
https://doi.org/10.1117/1.601526
[2] Shacham, O., Haik, O. and Yitzhaky, Y. (2007) Blind Restoration of Atmospherically Degraded Images by Automatic Best Step-Edge Detection. Pattern Recognition Letters, 28, 2094-2103.
https://doi.org/10.1016/j.patrec.2007.06.006
[3] Yasarla, R. and Patel, V.M. (2021) Learning to Restore Images Degraded by Atmospheric Turbulence Using Uncertainty. 2021 IEEE International Conference on Image Processing (ICIP), Anchorage, 19-22 September 2021, 1694-1698.
https://doi.org/10.1109/icip42928.2021.9506614
[4] Li, D., Mersereau, R.M. and Simske, S. (2007) Atmospheric Turbulence-Degraded Image Restoration Using Principal Components Analysis. IEEE Geoscience and Remote Sensing Letters, 4, 340-344.
https://doi.org/10.1109/lgrs.2007.895691
[5] Tian, C., Fei, L., Zheng, W., Xu, Y., Zuo, W. and Lin, C. (2020) Deep Learning on Image Denoising: An Overview. Neural Networks, 131, 251-275.
https://doi.org/10.1016/j.neunet.2020.07.025
[6] Gampala, V., Sunil Kumar, M., Sushama, C. and Fantin Irudaya Raj, E. (2020) WITHDRAWN: Deep Learning Based Image Processing Approaches for Image Deblurring. Materials Today: Proceedings. (In Press)
https://doi.org/10.1016/j.matpr.2020.11.076
[7] Gao, Z., Shen, C. and Xie, C. (2018) Stacked Convolutional Auto-Encoders for Single Space Target Image Blind Deconvolution. Neurocomputing, 313, 295-305.
https://doi.org/10.1016/j.neucom.2018.06.009
[8] Zhu, X. and Milanfar, P. (2013) Removing Atmospheric Turbulence via Space-Invariant Deconvolution. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35, 157-170.
https://doi.org/10.1109/tpami.2012.82
[9] Dong, C., Loy, C.C., He, K. and Tang, X. (2014) Learning a Deep Convolutional Network for Image Super-Resolution. Computer VisionECCV 2014, Zurich, 6-12 September 2014, 184-199.
https://doi.org/10.1007/978-3-319-10593-2_13
[10] He, K., Zhang, X., Ren, S. and Sun, J. (2016) Deep Residual Learning for Image Recognition. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, 27-30 June 2016, 770-778.
https://doi.org/10.1109/cvpr.2016.90
[11] Jin, D., Chen, Y., Lu, Y., Chen, J., Wang, P., Liu, Z., et al. (2021) Neutralizing the Impact of Atmospheric Turbulence on Complex Scene Imaging via Deep Learning. Nature Machine Intelligence, 3, 876-884.
https://doi.org/10.1038/s42256-021-00392-1
[12] Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A.N., et al. (2017) Attention Is All You Need. Proceedings of the 31st International Conference on Neural Information Processing Systems, Long Beach, 4-9 December 2017, 6000-6010.
[13] Hu, J., Shen, L. and Sun, G. (2018) Squeeze-and-Excitation Networks. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, 18-23 June 2018, 7132-7141.
https://doi.org/10.1109/cvpr.2018.00745
[14] Zhang, K., Zuo, W., Chen, Y., Meng, D. and Zhang, L. (2017) Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising. IEEE Transactions on Image Processing, 26, 3142-3155.
https://doi.org/10.1109/tip.2017.2662206
[15] Fu, K., Chang, Z., Zhang, Y., Xu, G., Zhang, K. and Sun, X. (2020) Rotation-Aware and Multi-Scale Convolutional Neural Network for Object Detection in Remote Sensing Images. ISPRS Journal of Photogrammetry and Remote Sensing, 161, 294-308.
https://doi.org/10.1016/j.isprsjprs.2020.01.025
[16] Du, C. and Gao, S. (2017) Image Segmentation-Based Multi-Focus Image Fusion through Multi-Scale Convolutional Neural Network. IEEE Access, 5, 15750-15761.
https://doi.org/10.1109/access.2017.2735019
[17] Zhang, T., Fang, B., Yuan, Y., Yan Tang, Y., Shang, Z., Li, D., et al. (2009) Multiscale Facial Structure Representation for Face Recognition under Varying Illumination. Pattern Recognition, 42, 251-258.
https://doi.org/10.1016/j.patcog.2008.03.017
[18] Mei, Y., Fan, Y., Zhang, Y., Yu, J., Zhou, Y., Liu, D., et al. (2023) Pyramid Attention Network for Image Restoration. International Journal of Computer Vision, 131, 3207-3225.
https://doi.org/10.1007/s11263-023-01843-5
[19] Yu, Y., Zhang, Y., Cheng, Z., Song, Z. and Tang, C. (2024) Multi-Scale Spatial Pyramid Attention Mechanism for Image Recognition: An Effective Approach. Engineering Applications of Artificial Intelligence, 133, Article 108261.
https://doi.org/10.1016/j.engappai.2024.108261

Baidu
map