为了解决传统火焰烟雾检测算法在光照条件恶劣和山林云雾影响的条件下存在漏检误检、准确性下降的缺陷,提出了一种基于YOLOv5s目标检测框架的森林烟火检测算法。首先,针对火焰烟雾目标特征复杂的问题,在C3模块中融合Res2Net,增强了网络在不同尺度下的特征表示能力。然后,在主干检测网络加入SE注意力模块,达到抑制干扰信息,提升模型表征能力的效果。最后,通过集成GIOU优化损失函数,进一步提高了检测精度。改进后的的算法相比于传统算法,mAP50值提高了1.8%,P值提高了0.9%,R值提高了0.6%。 In order to solve the defects of traditional flame smoke detection algorithms in terms of leakage and misdetection and accuracy degradation under the conditions of poor lighting conditions and the influence of clouds and fog in mountain forests, a forest smoke and fire detection algorithm based on the YOLOv5 target detection framework is proposed. Firstly, to address the problem of complex features of flame smoke targets, Res2Net is fused in the C3 module, which enhances the feature representation ability of the network at different scales. Then, the SE attention module is added to the backbone detection network to achieve the effect of suppressing the interference information and enhancing the model representation ability. Finally, the detection accuracy is further improved by integrating GIOU to optimize the loss function. The improved algorithm continues to improve the mAP50 value by 1.8%, the P value by 0.9%, and the R value by 0.6% compared with the traditional algorithm.
为了解决传统火焰烟雾检测算法在光照条件恶劣和山林云雾影响的条件下存在漏检误检、准确性下降的缺陷,提出了一种基于YOLOv5s目标检测框架的森林烟火检测算法。首先,针对火焰烟雾目标特征复杂的问题,在C3模块中融合Res2Net,增强了网络在不同尺度下的特征表示能力。然后,在主干检测网络加入SE注意力模块,达到抑制干扰信息,提升模型表征能力的效果。最后,通过集成GIOU优化损失函数,进一步提高了检测精度。改进后的的算法相比于传统算法,mAP50值提高了1.8%,P值提高了0.9%,R值提高了0.6%。
目标检测,火焰烟雾检测,Res2Net,SE注意力机制
Yanling Feng, Yuying Han, Zhimei Yu, Minhui Zhu, Yuhe Zhu, Qinghua Sun
School of Information Science & Engineering, Yunnan University, Kunming Yunnan
Received: Mar. 21st, 2024; accepted: Apr. 21st, 2024; published: Apr. 29th, 2024
In order to solve the defects of traditional flame smoke detection algorithms in terms of leakage and misdetection and accuracy degradation under the conditions of poor lighting conditions and the influence of clouds and fog in mountain forests, a forest smoke and fire detection algorithm based on the YOLOv5 target detection framework is proposed. Firstly, to address the problem of complex features of flame smoke targets, Res2Net is fused in the C3 module, which enhances the feature representation ability of the network at different scales. Then, the SE attention module is added to the backbone detection network to achieve the effect of suppressing the interference information and enhancing the model representation ability. Finally, the detection accuracy is further improved by integrating GIOU to optimize the loss function. The improved algorithm continues to improve the mAP50 value by 1.8%, the P value by 0.9%, and the R value by 0.6% compared with the traditional algorithm.
Keywords:Target Detection, Flame Smoke Detection, Res2Net, SE Attention Mechanism
Copyright © 2024 by author(s) and beplay安卓登录
This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).
http://creativecommons.org/licenses/by/4.0/
森林火灾是一种破坏性极强的森林灾害,具有突发性强、破坏性大、难以控制等特点,是全球发生最频繁、处置最困难、危害最严重的自然灾害之一 [
对以上及相关森林火灾事故分析,了解到火焰和烟雾是森林火灾发生前的重要特征。随着深度学习的发展,可以利用无人机搭载深度学习平台,代替人工巡检森林,如果在火焰烟雾检测方面提高准确率,并降低检测的误报率,就可以在森林火灾发生的初始阶段及时报警。
现有的基于目标检测算法的森林火灾特征提取方法大都是针对可见光,通过多种特征增强方法和模型训练策略,使模型学习到烟雾和火焰细粒度特征,进而提升模型性能。Zheng Xin等 [
此外,由于森林防火的巡检面积大、巡检困难,采用固定摄像头和人工巡检效率极低,因此Treneska等人 [
综上所述,现有基于目标检测算法的森林火灾特征提取方法的研究在光照条件恶劣和山林云雾影响的条件下存在漏检误检、准确性下降的劣势,加之缺乏大量可用的初始森林火灾图像。为解决此问题,提出改进基于改进YOLOv5s的森林烟火检测算法,通过融合Res2Net并嵌入SE注意力机制优化YOLOv5s在森林火灾特征提取上的准确性。实验采用遥感森林火灾探测的多面合成数据集(https://github.com/Philharmy-Wang/M4SFWD)作为训练集,提高模型泛化能力。改进后的算法相比于传统算法,在保证实时性的基础上提升了准确率,使森林火焰烟雾的实时检测更加准确、有效。
相比于传统yolov5s网络结构,提出了一个新的模块——C3_Res2Block。C3_Res2Block由主干检测网络的C3模块融合Res2Net得到的,能够在不增加网络深度和参数量的情况下,更好地捕捉图像中的细节和感兴趣的目标。为了进一步提升模型的重要特征表示能力,在主干检测网络中嵌入了SE注意力机制抑制无关特征的响应,并通过优化损失函数进一步提高了算法的准确性。经过改进的yolov5s算法模型解决了检测精度低、目标漏检的问题,具体网络如图1所示。
图1. 改进后的yolov5网络模型结构图
原YOLOv5网络中,基础核心模块C3使用了以ResNet为核心算法的残差网络模块,可以使网络的学习能力大大提高。但是传统的ResNet块只使用单一的残差连接来传递信息,这意味着网络可能无法有效地捕获不同层次的特征。然而在森林火灾发生初期,火焰目标比较小而烟雾一般范围更大,实际情况还因不同地形和天气又不同,目标的尺度大小不规律,原YOLOv5网络在森林火灾特征提取场景下存在精度不高。
图2. Res2Net网络结构图
2020年Gao等人 [
根据Res2Net网络设计思想,将残差网络Res2Net与C3模块融合,创建了C3_Res2Block网络结构。C3_Res2Block网络结构设计可以使得神经网络融合不同尺度下的特征信息,更好地捕捉不同尺度的特征信息,提高网络性能。
注意力机制模仿了人类的视觉系统,融合局部视觉结构,获取场景特征,并将注意力集中于特征较为显著的区域。在处理大量的输入信息时,注意力机制会选择一些关键的输入信息进行处理,忽略与目标无关的噪声数据,从而提高神经网络模型的效果。
SENet作为轻量级的注意力机制,具有即插即用、结构简单的特点 [
Squeeze阶段涉及通过全局平均池化操作将输入特征图压缩成单个向量,然后将这个向量映射到一个较小的向量。具体是通过每个通道的信息(W × H)转化成1个像素(1 × 1),于是每一个数值都具有该通道的全局感受野。Squeeze操作的计算公式:
Z C = F sq ( u c ) = 1 H × W ∑ i = 1 W ∑ j = 1 W u c ( i , j ) (1)
其中,H、W、C是图片的长、宽和维度,uC是给定的输入H × W × C,ZC是挤压后得到1 × 1 × C的输出。
Excitation阶段则是利用Sigmoid函数将上述小向量中的每个元素压缩到0到1之间,并与原始输入特征图相乘,从而为每个特征通道配置一个注意力权重。Excitation阶段的计算公式:
s = F e x ( z , W ) = σ ( W 2 δ ( W 1 z ) ) (2)
其中W1为降维矩阵,W2为升维矩阵,δ、σ分别为ReLU激活函数、Sigmoid激活函数。
因此,SeNet相对于其他注意力机制,参数数量增加相对较少,使神经网络负担较轻,在训练时,对神经网络特征图加权,使模型注意力更加有效聚焦在目标个体上,抑制周围环境对目标个体检测的干扰 [
改进后的YOLOv5s在主干检测网络的第10层加入SE注意力模块,使网络模型在识别检测时进行通道级别的识别和权重分配,达到抑制干扰信息,提升模型表征能力的效果 [
图3. SE注意力机制
损失函数的作用是计算模型预测值和实际值之间的差距,是模型训练优化时需要重点关注。YOLOv5的损失函数由定位损失函数、目标置信度损失函数、分类损失函数三部分组成,总体的损失为以上三者的加权相加,通过改变权值可以调整对三者损失的关注度。
原YOLOv5使用CIOU作为损失函数,CIOU通过引入边界框之间的中心距离以及宽度和高度之间的比率来考虑形状偏移,使得CIOU在一定程度上能够更准确地反映物体之间的相似性。当检测宽高比有一定规律的目标时,能获取目标真实框的宽高比,从而可提高目标检测的AP值。
CIOU计算公式:
L C I O U = 1 − I O U ( A , B ) + ρ 2 ( A c t r + B c t r ) c 2 + α υ (3)
υ = 4 π 2 ( arctan ω 2 h 2 − arctan ω h ) 2 (4)
α = υ ( 1 − I O U ) + υ (5)
其中,A是预测框,B是真实框,Actr和Bctr代表A和B的中心点,ρ为预测框和真实框中心点的欧氏距离,υ可度量预测框和真实框的长款比相似性,ωB、hB分别为真实框的宽度、高度,ω、h分别为预测框的宽度与高度。
但是在森林火灾特征提取场景下,火焰烟雾特征比较复杂,且目标的宽高比例不固定。在此场景下,网络只需要关注边界框之间的一般重叠度量,而不需要考虑中心点距离等额外因素,因此使用GIOU作为损失函数。
GIOU计算公式:
L G I O U = 1 − I O U + A ∩ B C (6)
其中,C是最小外接矩形, A ∩ B 是预测框和真实框的交集。
本实验的环境配置见表1,对比实验的硬件配置与该环境的配置相同。
CPU | RAM | GPU | 操作系统 | Cuda | CudNN | Pytorch | python |
---|---|---|---|---|---|---|---|
I3-12100F | 16.0G | GTXTITANX12G | Windows11 | 10.2 | 8.5.0 | 1.9.1 | 3.9.18 |
表1. 运行环境
数据集来自于GitHub平台 [
与传统YOLOv5s进行比较,采用平均精度均值(mAP)、准确率(P)、召回率(R)来评价训练结果。
P = N T P N T P + N F P (7)
R = N T P N T P + N F N (8)
A P = ∫ 0 1 P ( R ) d R (9)
m A P = 1 c ∑ i = 1 c A P i (10)
其中,NTP为模型正确检测目标个数;NFP为模型错误检测目标个数;NFN是漏检的目标个数。P是目标检测的准确率,R为目标检测的召回率,可评估模型是否有漏检。AP为P-R曲线面积,mAP则表示多个列别的AP平均值,对检测目标的平均准确度进行综合评价。
为了验证使用SE注意力机制的有效性,采用CBAM [
Models | P | R | mAP50 | mAP50-95 |
---|---|---|---|---|
Yolov5s | 84.8 | 82.5 | 86.4 | 47.3 |
+CBAM | 83.8 | 82.6 | 86.7 | 47.4 |
+CA | 84.6 | 81.6 | 86.8 | 47.2 |
+EMA | 85.1 | 82.4 | 87.3 | 47.1 |
+SE (ours) | 85.3 | 83.4 | 87.3 | 47.5 |
表2. 不同注意力机制的对比实验
Models | P | R | mAP50 | mAP50-95 |
---|---|---|---|---|
Yolov5s+C3_Res2Block (baseline) | 85.7 | 82.9 | 87.6 | 47.7 |
+DIOU | 84.8 | 82.7 | 86.9 | 47.4 |
+EIOU | 85.5 | 82.9 | 87.3 | 47.5 |
+SIOU | 85.0 | 82.2 | 86.8 | 47.5 |
+WIOU | 85.0 | 82.2 | 86.9 | 47.3 |
+GIOU (ours) | 86.2 | 82.9 | 87.9 | 47.7 |
表3. 不同损失函数对模型性能的影响(加入C3_Res2Block后)
为了寻找最佳准确率的损失函数,在融合Res2Net的基础上,对的CIOU (传统YOLOv5使用的损失函数)、DIOU、GIOU、EIOU、SIOU、WIOU进行对比实验。表3是不同损失函数的客观指标对比,原始网络结构的P值为85.7%,R值为82.9%,mAP50为87.6%,mAP50-95为47.7。使用GIOU作为损失函数后,P值和mAP50的提升最为明显,相比于传统算法,P值提高了0.5%,mAP50提高了0.3%。
为了验证改进后算法的有效性以及检测性能提升程度,设计了5组消融对比实验,每次实验训练次数都设置为200。
experiments | C3_Res2Block | GIOU | SE | P | R | mAP50 | mAP50-95 |
---|---|---|---|---|---|---|---|
0 | 84.8 | 82.5 | 86.4 | 47.3 | |||
1 | √ | 85.7 | 82.9 | 87.6 | 47.7 | ||
2 | √ | 84.9 | 83.4 | 87.1 | 47.3 | ||
3 | √ | 85.3 | 83.4 | 87.3 | 47.5 | ||
4 | √ | √ | 86.2 | 82.9 | 87.9 | 47.7 | |
5 | √ | √ | √ | 85.7 | 83.1 | 88.2 | 48.6 |
表4. 消融实验
表4为消融实验的客观指标对比,融合Res2Net模块后,mAP50值提高了1.2%,P和R值均有所提高,修改损失函数为GIOU后,mAP50值继续提高0.3%,P值有所提高,R值保持不变。添加SE注意力后,mAP50值继续提高了0.3%,P值下降了0.5%,R值提高了0.2%。改进后的yolov5相比于传统yolov5在检测森林火焰烟雾的场景下,准确性由所提升。
选取YOLOv5s与改进后的算法检测进行对比,检测效果如图4所示。原始的YOLOv5在光照条件恶劣和存在山林云雾情况下存在漏检和准确率低的问题,比如(f)、(g)中,漏检了烟雾目标,(e)和(h)中漏检了火焰目标而且精度比较低,而经过改进的模型则能够准确地检测出图像中所有的烟雾目标,与传统算法相比,准确率也有所提升,成功地解决了漏检的问题。
图4. 检测结果对比
为有效解决传统火焰烟雾检测算法在光照条件恶劣和山林云雾影响的条件下存在漏检误检、准确性下降的缺陷,提出了基于改进YOLOv5s的森林烟火检测算法。所提算法的使用的C3_Res2Block增强了网络在不同尺度下的特征表示能力。嵌入注意力机制后达到了抑制干扰信息,提升模型表征能力的效果。使用公开数据集对所提算法进行定性分析和定量比较。实验结果表明,所提出的算法在火焰烟雾检测任务中表现出优越的性能,提高了平均精度并解决了漏检的问题,可为森林火灾的预防和控制提供更加可靠和高效的技术支持。
冯艳玲,韩毓莹,余智美,朱珉慧,朱雨荷,孙庆华. 基于改进YOLOv5s的森林烟火检测算法Forest Smoke and Fire Detection Algorithm Based on Improved YOLOv5s[J]. 计算机科学与应用, 2024, 14(04): 290-297. https://doi.org/10.12677/csa.2024.144098
https://doi.org/10.3390/rs14030536
https://doi.org/10.1109/CVPR42600.2020.01079
https://doi.org/10.1007/978-3-319-46448-0_2
https://doi.org/10.1109/ICIAI.2019.8850815
http://kns.cnki.net/kcms/detail/13.1097.TN.20240111.1703.006.html, 2024-03-20.
https://github.com/Philharmy-Wang/M4SFWD/
https://doi.org/10.1007/978-3-030-01234-2_1