基于迁移学习的军事少样本集成分类研究
Few-Shot Ensemble Classification of Military Images Based on Transfer Learning
DOI:10.12677/csa.2024.148180,PDF,HTML,XML,下载: 6浏览: 45
作者:鲁磊纪,余红霞,肖红菊,鲍 蕾*:陆军炮兵防空兵学院计算机教研室,安徽 合肥
关键词:少样本图像分类迁移学习卷积神经网络集成Few-Shot ClassificationTransfer LearningConvNetsEnsemble
摘要:深度神经网络是一种需要大量的数据来进行有效训练的模型。军事装备类数据普遍存在数据量较少,无法满足深度神经网络的训练需求,容易出现过拟合的问题。针对该问题,本文引入迁移学习技术,通过构建多类型样本训练集,微调预训练模型,构建军事装备类集成分类器。实践证明迁移学习在少样本分类任务中的应用节省了模型训练时间,解决了模型过拟合及对数据标签依赖性强的问题,能有效提高基于深度学习的军事装备类小样本图像分类的准确性。
Abstract:A large amount of data is indispensable for effective training of deep neural networks. Military equipment data generally suffers from insufficient quantities, which fails to meet the training requirements of deep neural networks and easily leads to over fitting. To address this issue, this paper introduces transfer learning technology by constructing a multi-type sample training set and fine-tuning pre-trained models, and an ensemble classifier for military equipment is built. Experimental results have confirmed that transfer learning saves training time on small samples tasks, resolves issues of model over fitting and strong dependence on data labels simultaneously, and can effectively improve the accuracy of small sample image classification of military equipment based on deep learning.
文章引用:鲁磊纪, 余红霞, 肖红菊, 鲍蕾. 基于迁移学习的军事少样本集成分类研究[J]. 计算机科学与应用, 2024, 14(8): 230-235. https://doi.org/10.12677/csa.2024.148180

1. 引言

近年来,深度学习技术在各种任务中取得了突破性进展[1][2],因其强大的特征表示和学习能力,成为军事智能化发展的研究热点[3][4]。众所周知,深度学习模型的有效性离不开大数据的支撑。但是军事领域的特殊性构筑了获得大批量多类型样本的壁垒,如何开展对少样本相关任务的学习研究,成为学者们一致的关注点[5]。目前少样本学习方法主要分为三类,分别是基于元学习的方法、基于度量学习的方法、基于非情景的方法[6][7]。元学习的主要目标是在接触到新任务时,利用一些常见的算法和技术如深度神经网络、强化学习等快速适应和学习新的任务。度量学习方法通过学习数据间的相似性关系来进行学习,其主要目标是学习对输入数据的相似性进行准确衡量的度量空间。非情景学习主要利用聚类、主成分分析等方法从大量未标记的数据中提取信息,进而完成对新的样本进行分类或回归等任务。尽管少样本学习在图像分类、语音识别和自然语言理解等领域显示出应用潜力,但在实际应用中的局限性是一个不可忽视的问题。例如,在军事目标分类中,区分同一大类不同型号需要高度精确的模型,而少样本学习模型在这些高要求的应用场景中仍需进一步验证其有效性和可靠性。本文研究重点为基于迁移学习的军事目标少样本分类任务学习。首先介绍了迁移学习技术的基本概念和操作原理,其次详细阐述了本文构建的基于迁移学习的少样本集成分类方法,并实现了军事目标的自动分类,最后给出相关结论及问题与挑战。

2. 迁移学习

2.1. 迁移学习概念

研究表明,深度学习技术的广泛应用离不开大数据的支撑,即构建大规模的训练样本集是深度学习技术能够获得较高正确率的前提。由于战场环境是复杂多样的,其任务的特殊性更是对数据需求的实时性要求非常高,加上保密条例等现实因素的限制,使得军事装备类的有效数据获取难度较大,因此军事装备类目标的分类问题同时也变成了小样本数据集分类问题。目前,解决该类问题的主要途径是采用数据增强的方法对少量样本进行预处理以扩大样本规模,存在的问题是样本缺乏多样性,导致模型应用效果不理想[8]。针对上述问题,本文拟将直推式迁移学习技术引入解决军事目标的小样本问题。推式迁移学习的源域和目标域虽然不同,但是二者具有共同的底层特征。由于源域的数据来源广泛,构建的大规模数据集可以有效完成深度神经网络的鲁棒训练。采用直推式迁移学习,能够将在大规模公开数据集上训练的深度神经网络分类模型的参数迁移到军事目标的分类任务上,解决目标域小样本造成的过拟合问题。应用迁移学习的主要因素包括:一是缺乏有效的样本数据。训练集样本大小有限,无法满足深度神经网络的训练需求,容易过拟合。二是节省训练时间和计算资源。从头至尾完整训练一个CNN网络模型往往需要占用大量资源、耗费大量时间,使用迁移学习可以提前达到要求的准确度。

2.2. 迁移学习操作原理

根据预训练机制的不同,深度迁移学习可以简单分为两类,即有监督预训练的迁移学习和无监督预训练的迁移学习[9]。本文使用基于有监督预训练的深度迁移学习,操作步骤主要分2步:一是应用预训练的ConvNet作为特征提取器。前半部分是多个卷积加池化层构成的特征提取模块,后半部分是全连接层构成的分类器,通常我们冻结特征提取模块,固定住网络层中的各种参数,然后再替换后面的分类器为自己的分类器,因为开始的全连接层输出的类别或数量可能不是我们想要的,最后再在网络上训练我们自己数据即可。二是微调预训练的ConvNet。微调(Fine-Tuning)选择部分网络层解冻,通常选择后半段较深的网络层将其解冻出来,因为浅层网络通常提取图像的一般特征,如边缘、颜色等,适用于多种任务,而深层网络特征提取对应原始图像类别数据集中的更具体特征,使用微调可以使这样深层网络由原来的原始数据集学到的具体特征变成我们新数据集特征[10]

3. 本文主要工作

3.1. 构建训练样本集

在军事领域,由于保密性、对抗性等特殊原因,小样本学习研究进展缓慢。本文针对军事装备类小样本数据集的分类任务,需要收集和整理相关图像数据,受保密条例的限制,采集大量、真实装备的可能性不大,如何构建数据集是顺利完成训练的前提,团队成员主要通过网络下载、视频截取、仿真模型拍摄等方式获取少批量多类别的军事装备类数据集。在数据筛选过程中,综合考虑了多场景、多方位以及目标清晰度和遮挡程度等因素,最终构建了覆盖了10个类别的数据集。该数据集共包含4000多个训练样本,300个测试样本,每个样本图像中含有1~3个军事目标。

3.2. 网络模型搭建及训练

Figure 1.Flowchart of training and testing process

1.训练和测试流程示意图

本文选择经典的卷积神经网络作为主干网络,如AlexNet、Vgg、ResNet等。为了适应我们的分类任务,对每个卷积神经网络的最后一层进行修改,使其输出类别数量为10。修改过程中,为了获取更好地分类结果,尝试不同的修改策略,例如单层变成双层或者三层。前一层的数据在传递给后一层之前,除了进行激活以外,我们引入了Dropout机制通过随机丢弃连接来进一步削弱军事目标少样本带来的过拟合情况。模型搭建好之后,对每个卷积神经网络首先加载ImageNet预训练参数,并且使用Xavier方法[11]初始化其他层。ImageNet数据集是一个大规模的用于计算机视觉任务的图像数据库,超过1000个类别的1,400,000多张图像组成,该数据集是许多计算机视觉任务的基础,如目标检测、图像分类和物体识别。以AlexNet模型为例,通过设置“Pretrained = True”自动加载使用ImageNet预训练的AlexNet模型参数。由于军事目标数据量有限,以及我们构建的数据集与ImageNet大规模数据的一致性不清楚等原因,模型的训练过程中采用了不同的参数冻结机制,例如使用训练数据对模型整体微调和部分微调。

表1所示,方案1仅将ResNet50的最后一层的输出神经元数量由原先的1000替换为10 (num_classes = 10)。通过设置“if ‘fc’ not in name and ‘layer’ not in name: param. requires_grad = False”实现对最后一层和倒数第二层layer4的参数进行微调。方案2将ResNet50的最后一层替换为两个全连接层,神经元的数量均为32,并以0.3的概率随机丢弃。方案3则是将最后一层替换为三个全连接层,神经元数量为16,以0.5的概率随机丢弃率神经元的连接,以此来弥补层数增加带来的过拟合问题。训练过程中方案3没有限制梯度反传的机制,因而对整个模型进行微调。测试过程中,测试数据依此输入每个训练好的卷积神经网络模型,我们采用投票机制对不同模型的预测结果进行集成,得到没有测试样本最终的预测标签(如图1所示)。简单起见,我们对不同模型采用等价的投票权重。需要注意的是表1中给出的三个方案是部分示例,具体实现时,我们对层数变更方案、神经元数量及其随机丢弃率,以及参数冻结方案等进行了一定数量的组合,以求构建能够较好拟合军事目标分类数据集的网络模型。

Table1.Diagram of network model modification strategy

1.网络模型搭建方案示例

方案1

方案2

方案3

self.res.fc = nn.Sequential(

nn.Dropout(0.3),

nn.Linear(num_features, num_classes))

for name in self. res.named_parameters():

if ‘fc’ not in name and ‘layer4’ not in name:

param.requires_grad = False

self.res.fc = nn.Sequential(

nn.Dropout(0.3),

nn.Linear(num_features, 32),

nn.ReLU(),

nn.Dropout(0.3),

nn.Linear(32, num_classes))

for name in self. res.named_parameters():

if ‘fc’ not in name:

param.requires_grad = False

self.res.fc = nn.Sequential(

nn.Dropout(0.5),

nn.Linear(num_features, 16),

nn.ReLU(),

nn.Dropout(0.5),

nn.Linear(16, 16),

nn.ReLU(),

nn.Dropout(0.5),

nn.Linear(16, num_classes))

3.3. 性能评估

在本研究中,我们精选了几种常规的训练模型,包括ResNet50、Alex、Vgg和GoogLeNet,以及一种集成模型,该模型集成了以上四种模型。实验分为两组:模型架构部分微调(表2所示)的和整体微调(表3所示)。在实验过程中,我们分别记录了Precision、Recall、F1 Score评估指标,以便对各迁移学习模型性能进行准确评估。训练构成的迭代次数epoch = 300。根据实验结果,我们可以得出以下结论:1. 整体微调模型的Precision、Recall和F1 Score得分普遍高于部分微调模型。这表明整体微调可以更好地适应数据集,并提高模型性能;2. 集成模型在整体微调下表现最佳,其Precision、Recall和F1 Score得分均高于其他单一模型。这可能是因为集成模型结合了多种模型的优点,能够更好地捕捉数据集中的特征;3. ResNet和GoogLeNet在整体微调下的表现相当接近,但GoogLeNet略低于ResNet。这可能是在不同数据上不同模型表现出现差异。

综上所述,整体微调模型在实验中表现出色,而集成模型则具有更高的性能。这些结果验证了我们的假设,即整体微调和集成模型可以提高模型的性能。

Table2.Partial fine-tuning evaluation metrics (%)

2.部分微调的评估指标(%)

模型

ResNet50

Alex

Vgg16

GoogLeNet

Ensemble

训练

Precision

90.84

100.00

100.00

85.93

Recall

91.05

100.00

100.00

86.17

F1 Score

91.00

100.00

100.00

86.11

测试

Precision

72.00

70.38

76.95

64.93

76.95

Recall

71.95

70.03

76.93

64.87

76.95

F1 Score

71.14

69.91

76.75

64.15

76.11

Table3.Overall fine-tuning evaluation metrics (%)

3.整体微调的评估指标(%)

模型

ResNet50

Alex

Vgg16

GoogLeNet

Ensemble

训练

Precision

100.00

100.00

100.00

100.00

Recall

100.00

100.00

100.00

100.00

F1 Score

100.00

100.00

100.00

100.00

测试

Precision

81.54

72.12

77.94

79.06

81.78

Recall

81.49

72.02

77.89

79.03

81.76

F1 Score

81.01

71.72

77.67

78.52

80.96

4. 小结与展望

在深入研究少样本学习和迁移学习后,对比实验表明,样本数据集对预训练模型的选择产生了显著影响。同时,整体微调的策略相较于部分微调,能带来更加优异的效果。尽管集成模型在各方面表现均优于单一模型,但在需要快速响应的实际分类任务中,采用单一模型的整体微调方法能够实现更高的效率和质量。特别是在我军地面典型军事装备的分类任务中,真实样本的数量常常是有限的。在此背景下,本文所提出的实验模型参数,如果被应用到军事装备分类任务中,可以显著提升装备的分类准确率。此外,根据实际需求,可对上述方法进行适当的调整,以适应外军主要军事目标(例如美军的海马斯火箭炮、M777A2榴弹炮等)的分类任务。通过这样的泛化,可进一步验证方法的适用性和有效性。

NOTES

*通讯作者。

参考文献

[1] Youk, G., Oh, J. and Kim, M. (2024) FMA-Net: Flow-Guided Dynamic Filtering and Iterative Feature Refinement with Multi-Attention for Joint Video Super-Resolution and Deblurring.Proceedings ofIEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle WA, USA, 2024.
https://arxiv.org/abs/2401.03707
[2] Lu, Y.X., Ai, Y., Sheng, Z.Y.,et al. (2024) Multi-Stage Speech Bandwidth Extension with Flexible Sampling Rates Control.
https://arxiv.org/abs/2406.02250
[3] 张焕. 基于图像处理与深度学习的典型军事目标识别[D]: [硕士学位论文]. 南京: 南京理工大学, 2021.
[4] 陶志文. 基于深度学习的多战场环境军事人员图像语义分割技术研究[D]: [硕士学位论文]. 北京: 军事科学院, 2021.
[5] Eustratiadis, P., Dudziak, Ł., Li, D. and Hospedales, T. (2024) Neural Fine-Tuning Search for Few-Shot Learning.Proceedings ofConference on Learning Representations, Vienna Austria, 2024.
https://openreview.net/forum?id=T7YV5UZKBc
[6] Wen, H.F., Xing, H. and Simeone, O. (2024) Pre-Training and Personalized Fine-Tuning via Over-the-Air Federated Meta-Learning: Convergence-Generalization Trade-Offs.
https://arxiv.org/abs/2406.11569
[7] Lee, H., Guntara, T.W., Lee, J.,et al. (2024) Kernel Metric Learning for In-Sample Off-Policy Evaluation of Deterministic RL Policies.Proceedings ofInternational Conference on Learning Representations, Vienna Austria, 2024.
https://arxiv.org/pdf/2405.18792
[8] Hu, J.S., Jiang, Y.P. and Weng. P. (2024) Revisiting Data Augmentation in Deep Reinforcement Learning.Proceedings ofInternational Conference on Learning Representations, Vienna, Austria, 2024.
https://arxiv.org/pdf/2402.12181v1
[9] Jiang, J.G., Shu, Y., Wang, J.M.,et al. (2022) Transferability in Deep Learning: A Survey.
https://arxiv.org/abs/2201.05867
[10] Liu, X., Liu, Z., Wang, G., Cai, Z. and Zhang, H. (2018) Ensemble Transfer Learning Algorithm.IEEE Access, 6, 2389-2396.
https://doi.org/10.1109/access.2017.2782884
[11] Glorot, X. and Bengio, Y. (2010) Understanding the Difficulty of Training Deep Feedforward Neural Networks.Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics, 13-15 May 2010, Sardinia, Italy, 249-256.

为你推荐





Baidu
map