Research of Denoising Methods for Low-Dose CT Images
While significantly reducing patient radiation exposure, low-dose CT technology inevitably introduces diverse noise and artifacts, whose intensity and distribution characteristics vary with imaging conditions, posing a serious challenge to image quality and clinical diagnostic accuracy. Traditional image denoising methods, typically based on prior knowledge to construct mathematical models, can effectively suppress some noise. However, their optimization process relies on manual parameter tuning, exhibiting inherent limitations such as high computational complexity and insufficient preservation of image details. In recent years, deep learning-based denoising methods have demonstrated significant advantages in handling complex noise scenarios, leveraging their powerful nonlinear feature extraction and end-to-end optimization capabilities. This paper systematically introduces the research progress in the field of low-dose CT image denoising: first, it analyzes the theoretical frameworks and limitations of traditional methods; then, it focuses on the technical principles of deep learning methods, representative model architectures, and their innovative applications in medical imaging; finally, it summarizes the core challenges currently faced by the technology and outlines future research directions, aiming to provide theoretical foundations and technical references for the optimization and clinical translation of low-dose CT imaging technology.
Medical Imaging
计算机断层扫描(Computed Tomography, CT)技术自20世纪70年代问世以来,凭借其高分辨率及三维成像能力,迅速成为医学影像诊断的核心工具之一。其广泛应用于肿瘤检测、心血管疾病评估、骨科手术规划及急重症诊断等领域,显著提升了临床诊疗的精准性与效率。然而,CT成像依赖于X射线辐射的特性使其在广泛应用的同时,也引发公众对于辐射风险的担忧。世界卫生组织(WHO)及国际辐射防护委员会(ICRP)均强调,医疗辐射暴露需遵循“合理可行最低”(ALARA)原则
目前低剂量CT图像去噪技术分为传统降噪方法以及深度学习降噪方法。传统低剂量CT降噪方法按照图像重建前后主要分为以下三类:(1) 重建前正弦域滤波,通过对投影数据在正弦域进行滤波处理,去除部分噪声。(2) 迭代重建,利用多次迭代的方式逐步优化图像重建,从而达到降噪的目的。(3) 重建后图像后处理,采用各种算法对图像进行进一步处理以降低噪声。近年来,随着深度学习技术的快速发展,基于深度学习的LDCT图像去噪方法因能够从大量数据中自动学习噪声与信号之间的复杂映射关系而展现出显著的优势。通过深度神经网络挖掘图像中隐藏的特征信息,从而更有效地去除噪声。
本文系统讨论了传统LDCT去噪方法与当前主流的深度学习低剂量CT去噪模型。针对深度学习快速发展现状,深入研究了基于卷积神经网络(Convolution Neural Network, CNN)、生成对抗网络(Generative Adversarial Network, GAN)以及VIT (Vision Transformer, VIT)等低剂量CT降噪模型,并展望了LDCT图像去噪的未来发展方向。
在CT扫描过程中,受硬件设备的固有特性以及复杂多变的外部环境等客观因素影响,CT扫描系统所采集到的投影数据极易遭受大量光子噪声与电子噪声的污染。这些噪声的存在,使得重建后的CT图像不可避免地出现斑点噪声以及束状伪影,严重影响图像质量与临床诊断的准确性。
正弦域滤波作为一种在CT投影数据重建前对探测器接收的原始投影数据进行预处理的关键方法,其核心原理在于运用特定的滤波算法,有针对性地去除投影数据中的噪声成分,进而有效提高后续重建图像的质量。如滤波后的反向投影(Filtered Back Projection, FBP)
然而,当面临复杂多变的噪声分布状况时,上述方法暴露出显著的局限性。鉴于实际噪声特性具有高度的复杂性与不确定性,这些方法难以精准捕捉噪声的动态变化规律,致使去噪效果难以契合临床应用的理想需求。为切实解决这一问题,惩罚加权最小二乘
在计算机断层扫描(CT)成像领域,图像重建算法是决定成像质量的关键要素。典型的重建算法主要包括解析法以及迭代法。解析法以FBP
代数迭代法以线性代数方程组为基础,将投影数据与图像体素关系转化为矩阵运算。典型的代数重建技术(ART)
统计迭代法充分考量投影数据的统计特性,借助统计模型构建目标函数。在实际重建过程中,为提高重建图像质量,通常在目标函数中引入反映待重建图像先验信息的正则项。因此,统计迭代重建算法中正则项的设计一直是该领域的研究热点。如全变分及其变体正则化
图像后处理技术是在CT图像重建完成后对其进行进一步处理以去除噪声和伪影。常用图像后处理方法包括非局部均值滤波(Non-Local Means, NLM)
通过上述图像后处理方法,图像质量得到明显改善,但在处理后的图像中经常出现图像过度平滑等问题。由于CT图像噪声的不均匀分布,这些问题很难解决。
近年来,深度学习在医学图像处理领域崭露头角,从图像去噪、去模糊到分割、检测等任务,深度学习无处不在。它模拟人类的信息处理过程,通过分层网络框架从复杂的像素数据中有效学习高级特征。针对低剂量CT去噪问题,深度学习技术同样展现出强大的潜力。
在深度学习中,LDCT图像去噪任务可以简化为以下问题,对于一个LDCT图像,可将其定义为 ,定义 是一个与之对应的正常剂量CT (Normal-Dose CT, NDCT)图像,它们之间的关系可以表述为:
(1)
其中 : 表示LDCT由NDCT图像噪声的映射,涉及量子噪声和其他因素的退化过程,因此去噪问题可以转化为寻求一个函数 ,使得:
(2)
可以被视为 的最优近似。从LDCT到NDCT之间的映射关系很难用数学公式来表示,导致噪声模型很难确定,而使用深度学习的方法不需要对噪声图像的统计分布有先验知识,可以直接学习映射关系。
目前,深度学习低剂量CT图像去噪方法通过最小化高低剂量CT图像间的误差,学习其映射关系以实现LDCT去噪,实现流程如
CNN因其局部感知和权值共享的特性,在图像去噪领域表现出色。CNN通过卷积层、池化层和全连接层等结构,能够自动提取图像中的特征。在低剂量CT图像去噪任务中,CNN能够有效学习噪声图像与干净图像之间的特征差异,从而实现噪声的去除。
典型代表以U-Net
基于GAN
在生成对抗网络的研究与应用中,传统GAN在训练阶段暴露出诸多局限性。其核心问题在于生成器与判别器在训练过程中难以实现动态平衡。从优化理论角度剖析,生成器的目标是最小化生成图像分布与真实图像分布之间的差异,而判别器旨在最大化区分真实图像与生成图像的能力。当二者优化速度不一致时,就会导致训练过程的不稳定。为突破传统GAN的这些瓶颈,WGAN
在医学图像处理领域,获取大量配对的LDCT与NDCT图像数据面临诸多挑战。这些挑战包括高昂的数据采集成本、患者个体间的显著差异以及临床数据隐私保护等问题。CycleGAN
Transformer最早被用于自然语言处理(NLP)领域,其核心的自注意力机制允许模型在处理序列数据时捕捉长距离依赖关系。随着对Transformer架构理解的不断加深,其设计理念和技术优势被创新性地应用于计算机视觉领域,VIT技术应运而生。
不同于CNN以及GAN的局部特征提取,VIT将图像分割成多个块,通过自注意力层来捕捉块与块之间的关系,从而实现对图像全局信息的理解。在低剂量CT去噪中,VIT可以更全面地考虑图像中的噪声和结构信息,从而生成精确的去噪结果。Ted-Net
深度学习模型的性能在很大程度上依赖于训练数据的质量和数量,特别是基于GAN以及VIT的去噪网络,在训练过程中通常需要大量的图像数据集作为支撑,以深入捕捉数据的分布规律与复杂的噪声模式,从而确保模型的泛化能力和避免过拟合现象。然而,在低剂量CT图像去噪任务中,获取大量配对的LDCT和NDCT图像数据面临诸多挑战。首先,医学图像的采集成本较高,且涉及患者隐私保护问题,导致公开数据集有限。其次,不同设备、扫描协议和患者个体差异会导致数据分布的不一致性,影响模型的泛化能力。
深度学习模型本质上是一种黑盒模型,其决策过程和输出结果难以直观解释。在医疗领域,医生需要对诊断结果有清晰的理解和把握,以确保诊断的准确性和可靠性。然而,对于深度学习端到端去噪模型生成的去噪图像,很难解释模型是如何识别和去除噪声的,以及模型对图像中不同特征的学习和处理方式。这种不可解释性使得医生在临床应用中对深度学习模型的信任度降低,担心模型可能会产生不可预测的错误结果,从而影响患者的诊断和治疗。
将深度学习去噪技术从实验室研究阶段过渡到临床大规模应用,仍面临诸多挑战。临床验证环节需要严格的实验设计和大量的病例数据,以全面评估模型的安全性、有效性和稳定性。目前,许多深度学习去噪模型的研究仅在小规模数据集上进行了验证,缺乏大规模、多中心的临床研究支持。不同医疗机构的CT设备、扫描参数和成像协议存在显著差异,这要求深度学习模型具备较强的适应性,以确保在多样化的临床环境中均能实现理想的去噪效果。此外,医疗法规和伦理问题也需要充分考虑,例如模型的质量控制体系构建和数据隐私保护机制的完善等。
针对目前LDCT深度学习去噪方法的不足,未来研究可以从以下方向展开。在数据方面,建立数据共享平台和标准化数据集是解决数据不足问题的关键,通过多方合作,整合来自不同医疗机构的CT图像,构建大规模、多样化的训练数据集。同时,在深度学习模型训练过程中对数据集采用数据增强技术,提升模型的泛化能力。此外,引入多模态数据也是一个极具潜力的解决方法,可融合其他模态数据,如磁共振成像(MRI)数据、正电子发射断层扫描(PET)数据等。不同模态的数据能够从不同角度提供关于人体组织和病变的信息,为深度学习模型提供更丰富的特征,有助于模型更好地理解图像内容,从而提高去噪效果和泛化能力。
在模型可解释性方面,应着重于开发可解释的深度学习框架和可视化工具来增强医生以及病人对模型输出结果的信任。还可以将可解释的传统图像处理技术与深度学习技术相结合,在去噪的同时保留图像的解剖结构信息,并为医生提供可解释的中间结果。
在临床验证与大规模应用方面,可以使用模型剪枝以及知识蒸馏方法等开发轻量化的模型结构以及优化算法,使其更适合在临床环境中使用。同时通过高校与医疗企业合作,加快深度学习去噪技术的临床转化与应用。
本文从传统LDCT去噪以及深度学习方法实现LDCT去噪两个角度介绍了目前LDCT去噪技术的发展现状。传统的LDCT去噪方法,在一定程度上能够改善图像质量,但存在各自的局限性。随着深度学习技术的发展,基于CNN、GAN和VIT的LDCT去噪模型展现出显著的优势,能够更有效地学习噪声与图像之间的复杂映射关系,实现更精准的去噪。然而,深度学习去噪技术也面临数据依赖性强、可解释性差以及临床验证与应用挑战等问题。未来,通过多模态数据融合、模型优化、提高可解释性以及加强临床研究等措施,有望进一步提升LDCT图像去噪技术的性能和临床应用价值,为医学影像诊断带来新的突破。
国家自然科学基金81101116。
*第一作者。
#通讯作者。