sea Software Engineering and Applications 2325-2286 2325-2278 beplay体育官网网页版等您来挑战! 10.12677/sea.2025.142015 sea-110957 Articles 工程技术 低剂量CT图像去噪方法研究
Research of Denoising Methods for Low-Dose CT Images
上海理工大学光电信息与计算机工程学院,上海 17 03 2025 14 02 155 164 16 2 :2025 26 2 :2025 26 3 :2025 Copyright © 2024 beplay安卓登录 All rights reserved. 2024 This work is licensed under the Creative Commons Attribution International License (CC BY). http://creativecommons.org/licenses/by/4.0/ 低剂量CT技术在显著降低患者辐射剂量的同时,不可避免地引入多样化的噪声与伪影,其强度与分布特性因成像条件而异,对图像质量及临床诊断准确性构成严峻挑战。传统图像去噪方法通常基于先验知识构建数学模型,虽能有效抑制部分噪声,但其优化过程依赖人工参数调谐,存在计算复杂度高、图像细节保留不足等固有缺陷。近年来,基于深度学习的去噪方法凭借其强大的非线性特征提取与端到端优化能力,在处理复杂噪声场景时展现出显著优势。本文系统性地介绍了低剂量CT图像去噪领域的研究进展:首先剖析了传统方法的理论框架及其局限性;随后重点探讨深度学习方法的技术原理、代表性模型架构及其在医学影像中的创新应用;最后,总结当前技术面临的核心挑战,并展望未来研究方向,旨在为低剂量CT成像技术的优化与临床转化提供理论依据与技术参考。
While significantly reducing patient radiation exposure, low-dose CT technology inevitably introduces diverse noise and artifacts, whose intensity and distribution characteristics vary with imaging conditions, posing a serious challenge to image quality and clinical diagnostic accuracy. Traditional image denoising methods, typically based on prior knowledge to construct mathematical models, can effectively suppress some noise. However, their optimization process relies on manual parameter tuning, exhibiting inherent limitations such as high computational complexity and insufficient preservation of image details. In recent years, deep learning-based denoising methods have demonstrated significant advantages in handling complex noise scenarios, leveraging their powerful nonlinear feature extraction and end-to-end optimization capabilities. This paper systematically introduces the research progress in the field of low-dose CT image denoising: first, it analyzes the theoretical frameworks and limitations of traditional methods; then, it focuses on the technical principles of deep learning methods, representative model architectures, and their innovative applications in medical imaging; finally, it summarizes the core challenges currently faced by the technology and outlines future research directions, aiming to provide theoretical foundations and technical references for the optimization and clinical translation of low-dose CT imaging technology.
医学图像,低剂量CT,图像去噪,深度学习
Medical Imaging
Low-Dose CT Image Denoising Deep Learning
1. 引言

计算机断层扫描(Computed Tomography, CT)技术自20世纪70年代问世以来,凭借其高分辨率及三维成像能力,迅速成为医学影像诊断的核心工具之一。其广泛应用于肿瘤检测、心血管疾病评估、骨科手术规划及急重症诊断等领域,显著提升了临床诊疗的精准性与效率。然而,CT成像依赖于X射线辐射的特性使其在广泛应用的同时,也引发公众对于辐射风险的担忧。世界卫生组织(WHO)及国际辐射防护委员会(ICRP)均强调,医疗辐射暴露需遵循“合理可行最低”(ALARA)原则 [1] ,以平衡诊断需求与患者安全。在此背景下,低剂量CT (Low-Dose CT, LDCT)技术应运而生,通过降低X射线管电流 [2] [3] 、缩短曝光时间或优化扫描协议等手段,显著减少患者所受辐射剂量。然而,辐射剂量的降低不可避免地导致投影数据信噪比下降,使得重建图像中噪声与伪影显著增加 [4] 。这些噪声通常呈现出复杂的空间分布特性,在图像上表现为不规则的斑点或条纹,严重干扰解剖结构的可视性,在肺部CT图像中,噪声可能掩盖早期肺癌的微小结节 [5] ,让医生难以清晰辨别正常组织与病变部位,进而影响病变检测的敏感性与特异性,增加误诊和漏诊的风险。因此,如何在降低辐射剂量的同时维持甚至提升图像质量,成为LDCT技术临床转化的核心挑战。

目前低剂量CT图像去噪技术分为传统降噪方法以及深度学习降噪方法。传统低剂量CT降噪方法按照图像重建前后主要分为以下三类:(1) 重建前正弦域滤波,通过对投影数据在正弦域进行滤波处理,去除部分噪声。(2) 迭代重建,利用多次迭代的方式逐步优化图像重建,从而达到降噪的目的。(3) 重建后图像后处理,采用各种算法对图像进行进一步处理以降低噪声。近年来,随着深度学习技术的快速发展,基于深度学习的LDCT图像去噪方法因能够从大量数据中自动学习噪声与信号之间的复杂映射关系而展现出显著的优势。通过深度神经网络挖掘图像中隐藏的特征信息,从而更有效地去除噪声。

本文系统讨论了传统LDCT去噪方法与当前主流的深度学习低剂量CT去噪模型。针对深度学习快速发展现状,深入研究了基于卷积神经网络(Convolution Neural Network, CNN)、生成对抗网络(Generative Adversarial Network, GAN)以及VIT (Vision Transformer, VIT)等低剂量CT降噪模型,并展望了LDCT图像去噪的未来发展方向。

2. 低剂量CT图像去噪的传统方法 2.1. 重建前正弦域滤波

在CT扫描过程中,受硬件设备的固有特性以及复杂多变的外部环境等客观因素影响,CT扫描系统所采集到的投影数据极易遭受大量光子噪声与电子噪声的污染。这些噪声的存在,使得重建后的CT图像不可避免地出现斑点噪声以及束状伪影,严重影响图像质量与临床诊断的准确性。

正弦域滤波作为一种在CT投影数据重建前对探测器接收的原始投影数据进行预处理的关键方法,其核心原理在于运用特定的滤波算法,有针对性地去除投影数据中的噪声成分,进而有效提高后续重建图像的质量。如滤波后的反向投影(Filtered Back Projection, FBP) [6] 、自适应滤波 [7] 以及双边滤波 [8] 等。FBP算法首先对投影数据实施滤波操作,如采用Ram-Lak滤波、Shepp-Logan滤波等方式去除高频噪声,留存重建图像所需的关键信息,随后借助反投影运算将滤波后的投影数据重新组合成图像。自适应滤波算法依据投影数据的局部特征,通过持续且实时地监测数据的关键统计特性,诸如均值、方差等,动态调整滤波器的系数,以此达成对不同区域噪声特性的自适应处置,展现出较强的自适应能力。双边滤波则从空间域与灰度域两个维度进行综合考量,在对每个像素执行滤波操作时,充分兼顾该像素与邻域像素之间的空间距离以及灰度差异,进而在有效去除噪声的同时,能够较好地保留图像的边缘和细节信息,在图像细节保持方面具备显著优势。

然而,当面临复杂多变的噪声分布状况时,上述方法暴露出显著的局限性。鉴于实际噪声特性具有高度的复杂性与不确定性,这些方法难以精准捕捉噪声的动态变化规律,致使去噪效果难以契合临床应用的理想需求。为切实解决这一问题,惩罚加权最小二乘 [9] [10] 和全变分滤波 [11] 等方法应运而生。乘法加权最小二乘方法通过对不同的投影数据赋予差异化的权重,突出数据中的可靠部分,抑制受噪声干扰严重的数据,进而实现对投影数据的优化处理。全变分滤波基于图像的全变分模型,通过最小化图像的全变分来实现去除噪声的目标,同时能够有效维持图像的边缘和细节。这些新型方法通过深入剖析投影数据的分布特性,进行科学合理的统计建模,构建出更贴合投影数据统计特征的滤波模型,在实现高效降噪的同时,最大程度地保留数据中的有用信息。尽管目前正弦域滤波技术已取得长足发展,在噪声处理方面展现出显著成效,但去噪后图像分辨率下降以及边缘模糊的问题却并没有得到有效解决。

2.2. 迭代重建算法

在计算机断层扫描(CT)成像领域,图像重建算法是决定成像质量的关键要素。典型的重建算法主要包括解析法以及迭代法。解析法以FBP [12] [13] 和FDK (Feldkamp-Daivs-Kress) [14] - [16] 为代表,通过对投影数据进行特定的数学变换,快速重建出图像,然而,解析法在处理复杂成像条件或低剂量数据时,图像噪声和伪影问题较为突出,图像质量会受到一定影响。迭代重建算法将待重建对象视为未知量,在图像域构建目标函数,通过不断迭代求解的方式来获取高质量的重建图像。根据目标函数建立方式的差异,迭代重建算法主要分为代数迭代法和统计迭代法 [17]

代数迭代法以线性代数方程组为基础,将投影数据与图像体素关系转化为矩阵运算。典型的代数重建技术(ART) [18] [19] ,通过逐次更新图像体素值,使其符合投影数据约束条件,每次迭代依据当前投影数据与重建图像投影的差异修正体素。其优势是内存需求低、重建速度快,但因仅基于投影数据线性关系迭代,抑制噪声和伪影能力有限,重建图像质量欠佳。

统计迭代法充分考量投影数据的统计特性,借助统计模型构建目标函数。在实际重建过程中,为提高重建图像质量,通常在目标函数中引入反映待重建图像先验信息的正则项。因此,统计迭代重建算法中正则项的设计一直是该领域的研究热点。如全变分及其变体正则化 [20] - [23] 算法通过最小化图像的全变分作为正则项,有效抑制噪声的同时保留图像边缘,利用图像中相邻像素变化相对平滑的先验知识,在去除噪声时不会过度模糊边缘;基于稀疏表示 [24] [25] 的正则化算法利用图像在特定字典下具有稀疏表示的特性作为正则项,通过学习字典将图像表示为字典原子的线性组合,基于稀疏性约束去除噪声和伪影。基于正则项约束的统计迭代重建算法能够在一定程度上提升图像质量,但算法复杂度高,计算过程涉及大量矩阵运算和迭代求解,计算时间长,对计算资源要求高。此外,参数选择缺乏统一标准且公开性不足,不同图像和成像条件下参数确定困难,限制了此类算法的实际应用。

2.3. 重建后的图像后处理

图像后处理技术是在CT图像重建完成后对其进行进一步处理以去除噪声和伪影。常用图像后处理方法包括非局部均值滤波(Non-Local Means, NLM) [26] [27] 、小波变换 [28] 、三维块匹配(Block-Matching 3D, BM3D) [29] [30] 、基于字典学习的K-SVD [31] 等,NLM基于图像中广泛存在的非局部自相似性原理,通过在整幅图像范围内搜索与当前像素具有相似特征的像素集合,并利用这些相似像素的加权平均来估计当前像素的真实值,从而实现对高斯噪声的有效抑制;小波变换将图像分解为不同频率和尺度的小波系数,通过对这些小波系数进行阈值处理,有效地去除噪声成分;BM3D利用了图像在空间维度上的相关性,将图像划分为多个三维图像块,通过在三维空间中搜索相似的图像块,并对这些相似块进行协同滤波处理,不仅能够有效地去除噪声,还能较好地保留图像的高频细节信息;K-SVD从稀疏表示的角度出发,通过对大量图像样本的学习,自适应地构建一个能够最佳表示图像特征的字典。在去噪过程中,将含噪图像在该字典上进行稀疏表示,然后通过对稀疏系数的调整和重构,实现对噪声的去除。

通过上述图像后处理方法,图像质量得到明显改善,但在处理后的图像中经常出现图像过度平滑等问题。由于CT图像噪声的不均匀分布,这些问题很难解决。

3. 深度学习实现低剂量CT图像去噪

近年来,深度学习在医学图像处理领域崭露头角,从图像去噪、去模糊到分割、检测等任务,深度学习无处不在。它模拟人类的信息处理过程,通过分层网络框架从复杂的像素数据中有效学习高级特征。针对低剂量CT去噪问题,深度学习技术同样展现出强大的潜力。

在深度学习中,LDCT图像去噪任务可以简化为以下问题,对于一个LDCT图像,可将其定义为 X m × n ,定义 Y m × n 是一个与之对应的正常剂量CT (Normal-Dose CT, NDCT)图像,它们之间的关系可以表述为:

X = σ ( Y ) (1)

其中 σ m × n m × n 表示LDCT由NDCT图像噪声的映射,涉及量子噪声和其他因素的退化过程,因此去噪问题可以转化为寻求一个函数 f ,使得:

f = argmin f f ( X ) Y 2 2 (2)

f 可以被视为 σ 的最优近似。从LDCT到NDCT之间的映射关系很难用数学公式来表示,导致噪声模型很难确定,而使用深度学习的方法不需要对噪声图像的统计分布有先验知识,可以直接学习映射关系。

目前,深度学习低剂量CT图像去噪方法通过最小化高低剂量CT图像间的误差,学习其映射关系以实现LDCT去噪,实现流程如 图1 所示。其在深度学习领域按照基线网络模型不同可以分为以下三类:(1) 基于卷积神经网络CNN的去噪模型;(2) 基于生成对抗网络GAN的去噪模型;(3) 基于VIT的去噪模型。本文对以上三种方法进行了展开讨论。

Figure 1. Flow chart of low-dose CT denoising--图1. 低剂量CT去噪流程图-- 3.1. 基于CNN的LDCT图像去噪

CNN因其局部感知和权值共享的特性,在图像去噪领域表现出色。CNN通过卷积层、池化层和全连接层等结构,能够自动提取图像中的特征。在低剂量CT图像去噪任务中,CNN能够有效学习噪声图像与干净图像之间的特征差异,从而实现噪声的去除。

典型代表以U-Net [32] 架构为例,其独特的编码器–解码器对称结构可以同时处理全局和局部信息,显著提升去噪图像质量,基于U-Net的LDCT [33] [34] 去噪网络通过这一特点,在实际应用中取得良好的效果。同样采用编码器–解码器网络结构的RED-CNN [35] 网络通过添加残差连接有效地提取图像特征,重构出高质量图像。EDCNN [36] 则通过边缘增强模块,在去噪的同时,保留图像的边缘信息。此外,CNN_OCT [37] 将输入特征图分为高频和低频两部分,有效地分离噪声和处理图像细节。而UNAD [38] 通过引入分布回归层和预测性预训练框架,进一步优化去噪效果。

3.2. 基于GAN的LDCT图像去噪

基于GAN [39] [40] 的低剂量CT去噪网络采用生成对抗的方式进行去噪。其核心架构主要由两个部分组成:一个生成器网络和一个判别器网络。生成器网络专注于生成去噪后的图像,而判别器网络则评估这些图像与NDCT图像之间的差异。在训练过程中,生成器不断学习如何生成更加逼真的去噪图像,而判别器则不断提高其鉴别能力,二者通过对抗训练协同进化,最终实现LDCT图像的有效去噪。

在生成对抗网络的研究与应用中,传统GAN在训练阶段暴露出诸多局限性。其核心问题在于生成器与判别器在训练过程中难以实现动态平衡。从优化理论角度剖析,生成器的目标是最小化生成图像分布与真实图像分布之间的差异,而判别器旨在最大化区分真实图像与生成图像的能力。当二者优化速度不一致时,就会导致训练过程的不稳定。为突破传统GAN的这些瓶颈,WGAN [41] 提出了创新性的解决方案。WGAN将Wassertein距离引入到生成对抗的损失函数中。Wasserstein 距离能够更有效地度量两个分布之间的差异,相比传统的基于概率分布的度量方式,具有更强的理论优越性和数值稳定性。通过最小化Wassertein距离,WGAN使得生成器和判别器的训练过程更加稳定,有效避免了梯度消失和梯度爆炸等常见问题。

在医学图像处理领域,获取大量配对的LDCT与NDCT图像数据面临诸多挑战。这些挑战包括高昂的数据采集成本、患者个体间的显著差异以及临床数据隐私保护等问题。CycleGAN [42] [43] 的提出为解决这一难题提供了新的思路。CycleGAN通过引入循环一致性损失,构建了一个无监督的图像到图像转换框架。该框架要求生成器不仅能够将LDCT图像转换为看似正常剂量的CT图像,还能将转换后的图像通过反向转换尽可能还原为原始的LDCT图像。这种双向约束机制使得CycleGAN能够在无需配对数据的情况下,学习到LDCT图像域与NDCT图像域之间的复杂映射关系。

3.3. 基于VIT的LDCT图像去噪

Transformer最早被用于自然语言处理(NLP)领域,其核心的自注意力机制允许模型在处理序列数据时捕捉长距离依赖关系。随着对Transformer架构理解的不断加深,其设计理念和技术优势被创新性地应用于计算机视觉领域,VIT技术应运而生。

不同于CNN以及GAN的局部特征提取,VIT将图像分割成多个块,通过自注意力层来捕捉块与块之间的关系,从而实现对图像全局信息的理解。在低剂量CT去噪中,VIT可以更全面地考虑图像中的噪声和结构信息,从而生成精确的去噪结果。Ted-Net [44] 和CTformer [45] 作为不包含任何卷积层的纯Transformer架构,在LDCT去噪任务中充分彰显了VIT的优越性能。它们摒弃了传统卷积操作,完全依赖Transformer的自注意力机制来处理图像,能够有效捕捉图像中的长距离依赖关系,精准识别并去除噪声,同时保留图像的关键结构信息。DnST [46] 同样基于VIT架构,在网络中巧妙引入感知损失函数及残差映射。感知损失函数从图像的特征层面出发,衡量去噪图像与真实图像在高层语义特征上的相似性,进一步提升了去噪图像的质量;残差映射则有助于模型更好地学习噪声与图像之间的差异,有效抑制噪声以及伪影的产生,显著提升了低剂量 CT 图像的视觉质量和诊断准确性。

4. LDCT深度学习去噪方法的不足与展望 4.1. 不足

深度学习模型的性能在很大程度上依赖于训练数据的质量和数量,特别是基于GAN以及VIT的去噪网络,在训练过程中通常需要大量的图像数据集作为支撑,以深入捕捉数据的分布规律与复杂的噪声模式,从而确保模型的泛化能力和避免过拟合现象。然而,在低剂量CT图像去噪任务中,获取大量配对的LDCT和NDCT图像数据面临诸多挑战。首先,医学图像的采集成本较高,且涉及患者隐私保护问题,导致公开数据集有限。其次,不同设备、扫描协议和患者个体差异会导致数据分布的不一致性,影响模型的泛化能力。

深度学习模型本质上是一种黑盒模型,其决策过程和输出结果难以直观解释。在医疗领域,医生需要对诊断结果有清晰的理解和把握,以确保诊断的准确性和可靠性。然而,对于深度学习端到端去噪模型生成的去噪图像,很难解释模型是如何识别和去除噪声的,以及模型对图像中不同特征的学习和处理方式。这种不可解释性使得医生在临床应用中对深度学习模型的信任度降低,担心模型可能会产生不可预测的错误结果,从而影响患者的诊断和治疗。

将深度学习去噪技术从实验室研究阶段过渡到临床大规模应用,仍面临诸多挑战。临床验证环节需要严格的实验设计和大量的病例数据,以全面评估模型的安全性、有效性和稳定性。目前,许多深度学习去噪模型的研究仅在小规模数据集上进行了验证,缺乏大规模、多中心的临床研究支持。不同医疗机构的CT设备、扫描参数和成像协议存在显著差异,这要求深度学习模型具备较强的适应性,以确保在多样化的临床环境中均能实现理想的去噪效果。此外,医疗法规和伦理问题也需要充分考虑,例如模型的质量控制体系构建和数据隐私保护机制的完善等。

4.2. 展望

针对目前LDCT深度学习去噪方法的不足,未来研究可以从以下方向展开。在数据方面,建立数据共享平台和标准化数据集是解决数据不足问题的关键,通过多方合作,整合来自不同医疗机构的CT图像,构建大规模、多样化的训练数据集。同时,在深度学习模型训练过程中对数据集采用数据增强技术,提升模型的泛化能力。此外,引入多模态数据也是一个极具潜力的解决方法,可融合其他模态数据,如磁共振成像(MRI)数据、正电子发射断层扫描(PET)数据等。不同模态的数据能够从不同角度提供关于人体组织和病变的信息,为深度学习模型提供更丰富的特征,有助于模型更好地理解图像内容,从而提高去噪效果和泛化能力。

在模型可解释性方面,应着重于开发可解释的深度学习框架和可视化工具来增强医生以及病人对模型输出结果的信任。还可以将可解释的传统图像处理技术与深度学习技术相结合,在去噪的同时保留图像的解剖结构信息,并为医生提供可解释的中间结果。

在临床验证与大规模应用方面,可以使用模型剪枝以及知识蒸馏方法等开发轻量化的模型结构以及优化算法,使其更适合在临床环境中使用。同时通过高校与医疗企业合作,加快深度学习去噪技术的临床转化与应用。

5. 总结

本文从传统LDCT去噪以及深度学习方法实现LDCT去噪两个角度介绍了目前LDCT去噪技术的发展现状。传统的LDCT去噪方法,在一定程度上能够改善图像质量,但存在各自的局限性。随着深度学习技术的发展,基于CNN、GAN和VIT的LDCT去噪模型展现出显著的优势,能够更有效地学习噪声与图像之间的复杂映射关系,实现更精准的去噪。然而,深度学习去噪技术也面临数据依赖性强、可解释性差以及临床验证与应用挑战等问题。未来,通过多模态数据融合、模型优化、提高可解释性以及加强临床研究等措施,有望进一步提升LDCT图像去噪技术的性能和临床应用价值,为医学影像诊断带来新的突破。

基金项目

国家自然科学基金81101116。

NOTES

*第一作者。

#通讯作者。

References Brenner, D.J. and Hall, E.J. (2007) Computed Tomography—An Increasing Source of Radiation Exposure. New England Journal of Medicine, 357, 2277-2284. >https://doi.org/10.1056/nejmra072149 Hsieh, J. (1998) Adaptive Streak Artifact Reduction in Computed Tomography Resulting from Excessive X-Ray Photon Noise. Medical Physics, 25, 2139-2147. >https://doi.org/10.1118/1.598410 Ben Yedder, H., Cardoen, B. and Hamarneh, G. (2020) Deep Learning for Biomedical Image Reconstruction: A Survey. Artificial Intelligence Review, 54, 215-251. >https://doi.org/10.1007/s10462-020-09861-2 Sigal-Cinqualbre, A.B., Hennequin, R., Abada, H.T., Chen, X. and Paul, J. (2004) Low-Kilovoltage Multi-Detector Row Chest CT in Adults: Feasibility and Effect on Image Quality and Iodine Dose. Radiology, 231, 169-174. >https://doi.org/10.1148/radiol.2311030191 江一峰, 叶剑定, 丁晓毅, 等. 胸部低剂量CT图像噪声和伪影分析[J]. 中华放射学杂志, 2010, 44(1): 37-40. Pan, X., Sidky, E.Y. and Vannier, M. (2009) Why Do Commercial CT Scanners Still Employ Traditional, Filtered Back-Projection for Image Reconstruction? Inverse Problems, 25, Article 123009. >https://doi.org/10.1088/0266-5611/25/12/123009 Balda, M., Hornegger, J. and Heismann, B. (2012) Ray Contribution Masks for Structure Adaptive Sinogram Filtering. IEEE Transactions on Medical Imaging, 31, 1228-1239. >https://doi.org/10.1109/tmi.2012.2187213 Manduca, A., Yu, L., Trzasko, J.D., Khaylova, N., Kofler, J.M., McCollough, C.M., et al. (2009) Projection Space Denoising with Bilateral Filtering and CT Noise Modeling for Dose Reduction in CT. Medical Physics, 36, 4911-4919. >https://doi.org/10.1118/1.3232004 Wang, J., Li, T., Lu, H., et al. (2006) Penalized Weighted Least-Squares Approach to Sinogram Noise Reduction and Image Reconstruction for Low-Dose X-Ray Computed Tomography. IEEE Transactions on Medical Imaging, 25, 1272-1283. Wang, J., Lu, H., Wen, J., et al. (2008) Multiscale Penalized Weighted Least-Squares Sinogram Restoration for Low-Dose X-Ray Computed Tomography. IEEE Transactions on Biomedical Engineering, 55, 1022-1031. Rudin, L.I., Osher, S. and Fatemi, E. (1992) Nonlinear Total Variation Based Noise Removal Algorithms. Physica D: Nonlinear Phenomena, 60, 259-268. >https://doi.org/10.1016/0167-2789(92)90242-f Tang, X., Hsieh, J., Hagiwara, A., Nilsen, R.A., Thibault, J. and Drapkin, E. (2005) A Three-Dimensional Weighted Cone Beam Filtered Backprojection (CB-FBP) Algorithm for Image Reconstruction in Volumetric CT under a Circular Source Trajectory. Physics in Medicine and Biology, 50, 3889-3905. >https://doi.org/10.1088/0031-9155/50/16/016 Defrise, M., Noo, F. and Kudo, H. (2000) Quasi-Exact Filtered Backprojection Algorithm for Long-Object Problem in Helical Cone-Beam Tomography. IEEE Transactions on Medical Imaging, 19, 902-921. >https://doi.org/10.1109/42.887838 Feldkamp, L.A., Davis, L.C. and Kress, J.W. (1984) Practical Cone-Beam Algorithm. Journal of the Optical Society of America A, 1, 612-619. >https://doi.org/10.1364/josaa.1.000612 Rodet, T., Noo, F. and Defrise, M. (2004) The Cone-Beam Algorithm of Feldkamp, Davis, and Kress Preserves Oblique Line Integrals. Medical Physics, 31, 1972-1975. >https://doi.org/10.1118/1.1759828 Miao, H., Zhao, H., Gao, F. and Gong, S. (2009) Implementation of FDK Reconstruction Algorithm in Cone-Beam CT Based on the 3D Shepp-Logan Model. 2009 2nd International Conference on Biomedical Engineering and Informatics, Tianjin, 17-19 October 2009, 1-5. >https://doi.org/10.1109/bmei.2009.5304987 韩泽芳, 上官宏, 张雄, 等. 基于深度学习的低剂量CT成像算法研究进展[J]. CT理论与应用研究, 2022, 31(1): 117-134. Bender, R., Bellman, S.H. and Gordon, R. (1970) ART and the Ribosome: A Preliminary Report on the Three-Dimensional Structure of Individual Ribosomes Determined by an Algebraic Reconstruction Technique. Journal of Theoretical Biology, 29, 483-487. >https://doi.org/10.1016/0022-5193(70)90110-4 Donato, S., Brombal, L., Arfelli, F., Fanti, V., Longo, R., Oliva, P., et al. (2019) Optimization of a Customized Simultaneous Algebraic Reconstruction Technique Algorithm for Breast CT. 2019 IEEE Nuclear Science Symposium and Medical Imaging Conference (NSS/MIC), Manchester, 26 October-2 November 2019, 1-2. >https://doi.org/10.1109/nss/mic42101.2019.9060011 Sidky, E.Y. and Pan, X. (2008) Image Reconstruction in Circular Cone-Beam Computed Tomography by Constrained, Total-Variation Minimization. Physics in Medicine and Biology, 53, 4777-4807. >https://doi.org/10.1088/0031-9155/53/17/021 Zhang, Y., Zhang, W., Lei, Y. and Zhou, J. (2014) Few-View Image Reconstruction with Fractional-Order Total Variation. Journal of the Optical Society of America A, 31, 981-995. >https://doi.org/10.1364/josaa.31.000981 Zhang, Y., Wang, Y., Zhang, W., Lin, F., Pu, Y. and Zhou, J. (2016) Statistical Iterative Reconstruction Using Adaptive Fractional Order Regularization. Biomedical Optics Express, 7, 1015-1029. >https://doi.org/10.1364/boe.7.001015 Zhang, Y., Zhang, W., Chen, H., Yang, M., Li, T. and Zhou, J. (2013) Few-View Image Reconstruction Combining Total Variation and a High-Order Norm. International Journal of Imaging Systems and Technology, 23, 249-255. >https://doi.org/10.1002/ima.22058 Lu, Y., Zhao, J. and Wang, G. (2011) Few-View Image Reconstruction with Dual Dictionaries. Physics in Medicine and Biology, 57, 173-189. >https://doi.org/10.1088/0031-9155/57/1/173 Liu, Q., Zhang, M. and Zhao, J. (2014) Adaptive Dictionary Learning in Sparse Gradient Domain for CT Reconstruction. 2014 IEEE 11th International Symposium on Biomedical Imaging (ISBI), Beijing, 29 April-2 May 2014, 169-172. >https://doi.org/10.1109/isbi.2014.6867836 Ma, J., Huang, J., Feng, Q., Zhang, H., Lu, H., Liang, Z., et al. (2011) Low-Dose Computed Tomography Image Restoration Using Previous Normal-Dose Scan. Medical Physics, 38, 5713-5731. >https://doi.org/10.1118/1.3638125 Chen, Y., Yang, Z., Hu, Y., Yang, G., Zhu, Y., Li, Y., et al. (2012) Thoracic Low-Dose CT Image Processing Using an Artifact Suppressed Large-Scale Nonlocal Means. Physics in Medicine and Biology, 57, 2667-2688. >https://doi.org/10.1088/0031-9155/57/9/2667 Zhong, J., Ning, R. and Conover, D. (2004) Image Denoising Based on Multiscale Singularity Detection for Cone Beam CT Breast Imaging. IEEE Transactions on Medical Imaging, 23, 696-703. >https://doi.org/10.1109/tmi.2004.826944 Fumene Feruglio, P., Vinegoni, C., Gros, J., Sbarbati, A. and Weissleder, R. (2010) Block Matching 3D Random Noise Filtering for Absorption Optical Projection Tomography. Physics in Medicine and Biology, 55, 5401-5415. >https://doi.org/10.1088/0031-9155/55/18/009 Chen, L.L., Gou, S.P., Yao, Y., Bai, J., Jiao, L. and Sheng, K. (2016) Denoising of Low Dose CT Image with Context-Based BM3D. 2016 IEEE Region 10 Conference (TENCON), Singapore, 22-25 November 2016, 682-685. >https://doi.org/10.1109/tencon.2016.7848089 Chen, Y., Yin, X., Shi, L., Shu, H., Luo, L., Coatrieux, J., et al. (2013) Improving Abdomen Tumor Low-Dose CT Images Using a Fast Dictionary Learning Based Processing. Physics in Medicine and Biology, 58, 5803-5820. >https://doi.org/10.1088/0031-9155/58/16/5803 Ronneberger, O., Fischer, P. and Brox, T. (2015) U-Net: Convolutional Networks for Biomedical Image Segmentation. In: Lecture Notes in Computer Science, Springer, 234-241. >https://doi.org/10.1007/978-3-319-24574-4_28 Mazandarani, F.N., Babyn, P. and Alirezaie, J. (2023) UNeXt: A Low-Dose CT Denoising UNet Model with the Modified Convnext Block. ICASSP 2023-2023 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Rhodes Island, 4-10 June 2023, 1-5. >https://doi.org/10.1109/icassp49357.2023.10095645 Nasrin, S., Alom, M.Z., Burada, R., Taha, T.M. and Asari, V.K. (2019) Medical Image Denoising with Recurrent Residual U-Net (R2U-Net) Base Auto-Encoder. 2019 IEEE National Aerospace and Electronics Conference (NAECON), Dayton, 15-19 July 2019, 345-350. >https://doi.org/10.1109/naecon46414.2019.9057834 Chen, H., Zhang, Y., Kalra, M.K., Lin, F., Chen, Y., Liao, P., et al. (2017) Low-Dose CT with a Residual Encoder-Decoder Convolutional Neural Network. IEEE Transactions on Medical Imaging, 36, 2524-2535. >https://doi.org/10.1109/tmi.2017.2715284 Liang, T., Jin, Y., Li, Y. and Wang, T. (2020) EDCNN: Edge Enhancement-Based Densely Connected Network with Compound Loss for Low-Dose CT Denoising. 2020 15th IEEE International Conference on Signal Processing (ICSP), Beijing, 6-9 December 2020, 193-198. >https://doi.org/10.1109/icsp48669.2020.9320928 Won, D.K., An, S., Park, S.H. and Ye, D.H. (2020) Low-Dose CT Denoising Using Octave Convolution with High and Low Frequency Bands. In: Lecture Notes in Computer Science, Springer, 68-78. >https://doi.org/10.1007/978-3-030-59354-4_7 Gu, L., Deng, W. and Wang, G. (2024) UNAD: Universal Anatomy-Initialized Noise Distribution Learning Framework towards Low-Dose CT Denoising. ICASSP 2024-2024 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Seoul, 14-19 April 2024, 1671-1675. >https://doi.org/10.1109/icassp48485.2024.10446919 Su, W., Qu, Y., Deng, C., Wang, Y., Zheng, F. and Chen, Z. (2020) Enhance Generative Adversarial Networks by Wavelet Transform to Denoise Low-Dose CT Images. 2020 IEEE International Conference on Image Processing (ICIP), Abu Dhabi, 25-28 October 2020, 350-354. >https://doi.org/10.1109/icip40778.2020.9190766 Tong, G., Hu, F. and Liu, H. (2024) DAGAN: A GAN Network for Image Denoising of Medical Images Using Deep Learning of Residual Attention Structures. International Journal of Pattern Recognition and Artificial Intelligence, 38, Article 2452003. >https://doi.org/10.1142/s0218001424520037 Yang, Q., Yan, P., Zhang, Y., Yu, H., Shi, Y., Mou, X., et al. (2018) Low-Dose CT Image Denoising Using a Generative Adversarial Network with Wasserstein Distance and Perceptual Loss. IEEE Transactions on Medical Imaging, 37, 1348-1357. >https://doi.org/10.1109/tmi.2018.2827462 Zhu, J., Park, T., Isola, P. and Efros, A.A. (2017) Unpaired Image-to-Image Translation Using Cycle-Consistent Adversarial Networks. 2017 IEEE International Conference on Computer Vision (ICCV), Venice, 22-29 October 2017, 2242-2251. >https://doi.org/10.1109/iccv.2017.244 Sowjanya, M., Laxmi, M., Sreelatha, B., et al. (2023) Unsupervised Medical Image Denoising Using Cyclegan: Improving Low-Dose CT Image Quality. 2023 International Conference on System, Computation, Automation and Networking (ICSCAN), Puducherry, 17-18 November 2023, 1-6. >https://doi.org/10.1109/icscan58655.2023.10395736 Wang, D., Wu, Z. and Yu, H. (2021) Ted-Net: Convolution-Free T2T Vision Transformer-Based Encoder-Decoder Dilation Network for Low-Dose CT Denoising. In: Lecture Notes in Computer Science, Springer, 416-425. >https://doi.org/10.1007/978-3-030-87589-3_43 Wang, D., Fan, F., Wu, Z., Liu, R., Wang, F. and Yu, H. (2023) CTformer: Convolution-Free Token2Token Dilated Vision Transformer for Low-Dose CT Denoising. Physics in Medicine&Biology, 68, Article 065012. >https://doi.org/10.1088/1361-6560/acc000 Zhang, B., Zhang, Y., Wang, B., He, X., Zhang, F. and Zhang, X. (2024) Denoising Swin Transformer and Perceptual Peak Signal-to-Noise Ratio for Low-Dose CT Image Denoising. Measurement, 227, Article 114303. >https://doi.org/10.1016/j.measurement.2024.114303
Baidu
map