基于高斯建模的电力场景明火检测

黄均才,刘鉴栋,闫云凤,齐冬莲

(1.广东电网有限责任公司广州供电局,广州 510050;
2.浙江大学 电气工程学院,杭州 310027)

随着我国电力行业的快速发展,全国输配电线路规模变得越来越庞大,发电站、变电站等电力设施也越来越多。由于电力的能量属性,电力场景下的缺陷问题往往会演化为失控的能量释放,电力场景下的火灾成为了不可忽视的多发性问题,火灾的预防和检测是电力安全保障过程中受到关注的焦点之一,因此对电力场景下的明火进行准确及时的检测具有重要意义。

近些年来,随着数字通信、计算机技术的发展,数字图像处理技术获得了广泛的应用。较之传统的火灾监控设备,基于图像处理的明火检测技术具有识别速度快、适应能力强、误报率低、使用方便等优点。同时,如何精确地将火焰从复杂的背景及各种干扰光源中识别出来是其中的关键环节。

根据方法的不同,相关研究可以分为传统算法和基于深度学习的算法。传统算法主要通过火焰的颜色特征和运动特征建立统计学模型。在一般的火灾中,火焰像素点的颜色主要分布在橙黄色到白色之间,为了描述火焰像素点的颜色分布情况,可以建立一个统计学的模型。文献[1]在HSV 颜色空间利用固定阈值来分割火焰区域,可以比较粗略地分割岀火焰的区域。文献[2]采用YCbCr 颜色空间,提出一种用于火焰像素分类的通用颜色模型。文献[3]将明火检测问题分解为两个步骤,首先在OHTA 颜色空间分割出疑似火焰区域,然后提取对应区域的特征并通过SVM(支持向量机)进行分类,该方法可以比较准确地检测出火焰。文献[4]提出一种利用YCbCr颜色空间火焰图像的统计参数(如均值、标准差等)进行森林火灾检测的方法,该方法可分离出高温火灾中心像素。

由于火焰的颜色特征经常会与其他干扰光源非常相似,部分研究开始利用其他特征进行辅助检测。明火燃烧过程中会在连续图像视频中呈现出变化明显的运动特征:火焰燃烧初期,面积具有明显的增长趋势;
随着火焰燃烧过程的持续,空气气流的流动导致火焰呈现一定程度的无序闪动[5]。因此,可以运用一些基于运动物体的算法来实现火焰检测。文献[6]首先利用帧间差分对运动区域进行分割,接着再提取HSI 颜色空间中的火焰特征。文献[7]提出一种火灾早期预警监测系统,使用背景减法来提取候选的运动区域,在此基础上利用颜色、纹理等特征对火灾火焰建模,具有鲁棒性和高效性。文献[8]利用火焰的颜色和动性特征,将图像中颜色与火焰相似的区域提取出来。

近些年来,随着人工智能技术尤其是深度学习的快速发展,不少研究也开始利用深度学习技术来进行火焰检测。文献[9]通过YOLOv3目标检测网络进行火焰检测,取得了很好的效果。文献[10]在Faster R-CNN 的基础上引入多尺度信息,能较好地完成火焰检测任务。文献[11]针对森林火灾图像识别问题,在深入研究林火图像特点的基础上,采用PCNN(脉冲耦合神经网络)在保证识别率的前提下缩短识别时间、提升识别效率。

目前,基于深度学习的火焰检测研究尚存在以下两个问题:

1)现有研究都是将火焰检测任务当成普通物体检测任务,采用的是通用物体检测框架,例如YOLOv3和Faster R-CNN。但是,火焰本身与通用物体有很大区别,火焰边界具有很强的模糊性,如图1所示。为了准确描述这种边界不确定性,本文提出一种基于高斯建模的目标检测模型Guassian-YOLOv5用于火焰检测。

图1 通用物体与明火包围框

2)已有研究忽略了缺乏大规模数据的问题。基于深度学习的方法需要大量的有标签数据进行训练,但是目前并没有大规模的公开明火检测数据集。本文提出一种基于迁移学习的电力场景明火检测训练方法,可利用少量样本训练出高精度的电力场景明火检测器。

本文首先介绍YOLOv5 的网络结构,提出一种基于高斯建模的Guassian-YOLOv5;
然后介绍改进的Guassian-YOLOv5损失函数,以及迁移学习训练方法;
最后通过相关实验,对所提出的电力场景明火检测方法的有效性进行验证。

YOLOv5的网络结构大致可以分为骨干网络、颈部网络和头部网络3个模块。骨干网络用于提取输入图像的特征信息,生成特征图;
颈部网络一般用于扩大模型的感受野,对不同大小的特征图进行特征融合;
头部网络基于前述两个模块提取的最终特征进行分类和包围框(即矩形框)的回归,得到最终的预测结果。

1.1 骨干网络

Darknet-53 网络结构如图2 所示,共有53 个卷积层,最后得到的特征图下采样倍数为32。

图2 Darknet-53网络结构

Darknet-53 借鉴了ResNet 的残差设计思路,引入BottleneckCSP 模块作为基础网络的基础模块,其结构如图3 所示,其中:H和W分别为输入特征图的高和宽;
C1和C2分别为该模块输入特征图和最终输出特征图的通道数;
r为通道扩张系数,默认设置为0.5;
n为模块中Bottleneck子模块的堆叠次数;
“k×k,C”代表C个k×k大小的卷积核,步长默认为1;
“⊕”代表逐元素相加,“⊕,concat”代表两个特征图的拼接;
BN 为批归一化(batch normalization);
Hardswish 和LeakyReLU为两种常见的激活函数,分别表示为:

图3 BottleneckCSP网络结构

式中:系数α默认为0.1。BottleneckCSP残差模块分为两个分支,一个分支通过一个1×1 卷积改变输出特征图的通道数,另一个分支通过n个Bottleneck 子模块操作进行下采样,最后两个分支通道维度进行叠加。

目标检测模型的输入图像一般是固定的单一尺寸(如640×640),但是图像中的目标物体大小和比例却是多变的,这种现象在电力场景下的明火检测任务中尤为突出。因此,提升骨干网络对于大小物体的检测能力,并兼顾全局和局部感受野,对提升明火检测模型性能具有重要意义。

在Darknet-53的基础上引入SPP(空间金字塔池化)[12]模块,通过不同尺度的池化操作,提升多尺度物体检测的性能,具体结构如图4所示,其中“Maxpool,k”代表k×k大小的池化操作。输入特征图首先通过1×1 卷积降低通道维数,减少计算量;
接着,通过3个不同大小的最大池化操作得到3个不同感受野的特征图,并和原始输入的特征图拼接,在保留原始输入特征信息的基础上增强模型多尺度检测的能力;
最后,经过1×1 卷积、BN、Hardswish 操作,进一步组合不同感受野的特征,得到融合了丰富感受野的特征图,并可根据需要输出通道数为C2的特征图。

图4 SPP网络结构

1.2 颈部和头部网络

针对电力场景明火检测多视角、多场景、多姿态、多尺度等特点,本文在骨干网络之后引入了PANet(路径聚合网络)[13]结构作为颈部网络,在特征金字塔网络(图5 中P3—P5)基础上,连接了一个自底而上的特征增强路径网络(图5中N3—N5),进行高低层特征图的巧妙融合。此外,本文中的YOLOv5 采用了YOLOv3[14]的稀疏预测方式作为头部网络,最终得到YOLOv5 的变电站电力场景明火检测模型,整体网络结构如图5所示。

图5 YOLOv5网络结构

YOLOv5的损失函数由分类损失Lcls、置信度损失Lobj和坐标回归损失Lbox组成。本文中分类损失和置信度损失均采用交叉熵损失函数,并采用Sigmoid 函数将预测值归一化在[0,1]区间,实现多标签分类。

式中:CE(·)为交叉熵损失函数;
p为样本真实标签;
x为网络预测;
σ(x)为Sigmoid函数。

传统的YOLOv5 采用Smooth-L1 作为坐标回归损失函数,坐标回归的目标如下:

式中:x和y为候选框的中心坐标;
w和h为候选框的宽和高,其中含下标a的变量为候选框数值,含上标*的变量为真值框数值;
ti为网络预测坐标值;
为坐标真实值;
λi为缩放参数;
i∈{x,y,w,h}。

这种建模方式简单直接,对于普通物体检测非常有效。但是相比通用物体,火焰边界具有很强的不确定性,为了准确描述这种边界不确定性,本文提出一种基于高斯建模的目标检测模型Guassian-YOLOv5 用于火焰检测。普通建模方式和高斯建模的对比如图6所示。

图6 普通建模和高斯建模的对比

对于边框的每个坐标t(t∈{x,y,w,h}),本文建模其为高斯分布,即:

检测框的每个坐标t都可以由均值μ和方差σ2表示,即回归框的每个坐标都可以用高斯分布表示,这种建模方式使得方差可以表示边框的不确定性。基于此,Guassian-YOLOv5 的坐标回归损失Lbox可以表示为高斯分布和真实分布之间的距离。本文采用交叉熵衡量两个分布之间的距离:

式中:GT为坐标回归目标;
N(GT|μ,σ2)为高斯分布在GT处的概率密度值。在本文中,方差σ2被归一化到[0,1]区间,推理阶段的检测框分数设计为类别分数和方差均值的乘积。

最终的损失函数L为:

式中:λobj、λcls、λbox为可调节的损失函数超参数,本文中三者均设置为1。

基于深度学习的方法需要大量的有标签数据进行训练,但是目前并没有大规模的公开明火检测数据集,尤其在电力场景下难以收集大规模明火数据。为了在少量电力场景明火数据的条件下提升模型性能,本文提出一种基于迁移学习的电力场景明火检测训练方法,如图7所示。

图7 基于迁移学习的训练方法

具体而言,基于迁移学习的电力场景明火检测训练方法分为两个阶段。

阶段一,首先利用互联网搜索引擎通过关键词收集常见的火灾图片,人工利用Labelme开源软件生成YOLO格式的标注文件,得到数据集A。基于数据集A训练得到一个明火检测初级模型,该模型已经能比较好地进行明火检测。但是搜索引擎收集到的图片非常杂乱,大部分为森林火灾图片,与实际电力场景差距较大,因此当泛化到电力场景的明火检测时,检测器的性能会大幅下降。

阶段二,利用初级模型给收集到的少量电力场景明火图片打标签,人工微调后构成数据集B,利用数据集B 对初级模型进行微调,得到最终的电力场景明火检测模型。

4.1 实验环境及设置

为了验证所提出的电力场景明火检测方法的有效性,本文进行了相关实验。在公开互联网收集到15 000 张明火图片进行实验;
另外收集到变电站明火模拟图片1 000 张,其中500 张作为测试样本,其他为训练样本。本文模型训练与预测的实验环境为NVIDIA V100 GPU,硬件为Ubuntu 16.04,编程语言为Python3.6。

在互联网收集到的明火图片数据集上进行预训练,模型训练优化器采用随机梯度下降,批次大小为32,初始学习率为0.001。在前1 000 次迭代时使用初始学习率,并在第1 000 次与第2 000次迭代时将学习率分别降低为当前学习率的0.1倍。模型训练迭代次数为5 000。在使用变电站明火图片进行微调训练时,学习率固定为0.000 1,微调迭代次数为1 000。本文使用mAP(全类别平均正确率)作为评价指标,阈值设置为0.5。

训练的损失函数曲线、精确率-召回率曲线、F1曲线(F1值可以看作精确率与召回率的加权)、精确率曲线、召回率曲线如图8 所示。可以发现,第一阶段的损失函数较大,第二阶段微调之后损失函数较小,证明了本文提出的两阶段训练方法的有效性。

图8 训练的损失函数曲线、精确率-召回率曲线、F1曲线、精确率曲线、召回率曲线

模型的ROC(受试者工作特征)曲线和混淆矩阵如图9所示,可以看出本文所提方法能较好地识别出明火。

图9 ROC曲线和混淆矩阵

4.2 算法精度

图10为普通场景的明火识别结果,图11为电力场景的明火识别结果,定量指标见表1。由于电力场景数据较少,基于少量数据进行训练得到的模型性能较差,验证了本文提出的迁移学习的必要性。从互联网收集到的明火图片大部分为森林山火,因此原始YOLOv5模型的mAP仅为78.6%;
采用高斯建模后,Guassian-YOLOv5模型的mAP上升至81.2%;
经过用电力场景图片微调后,Guassian-YOLOv5模型的mAP上升至86.4%。由实验结果可知,本文提出的算法相比传统的Faster R-CNN和YOLOv5有较大提升,可以实现电力场景明火的准确定位与识别。

图10 普通场景的明火识别结果

图11 电力场景的明火识别结果

4.3 算法速度

对模型推理速度(帧率)进行了对比,如表1所示。可以看出,相比于Faster R-CNN,YOLOv5的推理速度更快。本文提出的方法是基于YOLOv5 的改进,推理速度和原始的YOLOv5 相当,但模型精度有较大提升,能满足实际工程需求。

表1 电力场景明火检测速度对比

明火检测对于安全预警、保障电力设施安全具有重要意义。传统算法通过颜色、运动等特征建立匹配模型,在复杂场景下极容易出现误检、漏检情况。针对已有研究对火焰边界模糊性考虑不足的问题,本文改进了传统的YOLOv5检测器,通过高斯建模捕获边框的不确定性;
针对电力场景缺乏大规模明火数据的问题,本文提出了一种基于迁移学习的两阶段训练方法,只需要少量电力场景明火图片即可实现高精度的电力场景明火检测器训练。实验结果表明本文提出的方法能较大程度地提高模型准确率,具有很强的应用性。

猜你喜欢 火焰损失建模 最亮的火焰音乐天地(音乐创作版)(2022年1期)2022-04-26基于FLUENT的下击暴流三维风场建模成都信息工程大学学报(2021年5期)2021-12-30缤纷的火焰学苑创造·A版(2021年2期)2021-03-11联想等效,拓展建模——以“带电小球在等效场中做圆周运动”为例中学生数理化(高中版.高考理化)(2020年11期)2020-12-14求距求值方程建模初中生世界·九年级(2020年2期)2020-04-10两败俱伤小天使·二年级语数英综合(2019年10期)2019-11-08漂在水上的火焰动漫星空(兴趣百科)(2019年5期)2019-05-11基于PSS/E的风电场建模与动态分析电子制作(2018年17期)2018-09-28火焰文学港(2016年12期)2017-01-06菜烧好了应该尽量马上吃共产党员(辽宁)(2015年2期)2015-12-06

推荐访问:明火 建模 高斯