基于改进卷积神经网络的变电站异物入侵识别

2022-02-28 06:28肖曾翔徐启峰
科学技术与工程 2022年4期
关键词:异物聚类损失

肖曾翔, 徐启峰

(福州大学电气工程与自动化学院,福州 350106)

鸟巢与风飘物入侵是危及变电站运行安全的重大问题,需要及时地加以识别与排除。异物识别的核心是图像特征提取,目前深度学习是提取图像特征的主要方法。通过神经网络对原始图像信息浓缩精炼,最终获得异物的特征图像作为识别的依据。卷积神经网络(convolutional neural network,CNN)通过多卷积层结合多池化层使得网络的特征表达更加丰富[1],可自动学习目标特征,因此被广泛应用于各种识别算法中。这些算法可以分为两类[2]:一类是基于识别候选区域的R-CNN系列算法,精度高但速度慢;另一类是基于回归的SSD(single shot detection)算法与YOLO(you only look once)系列算法,精度稍低但检测速度快。

针对飞机跑道异物识别,文献[3]基于Faster R-CNN(faster regions with convolutional neural network features)算法,将VGG16Net作为特征提取网络,同时改进损失函数,并自行建立数据集进行验证。文献[4]采用了小波变换与数学形态学的方法,对小波分解后图像的高频与低频部分边缘检测,能达到90%以上的检测率。文献[5]采用了R-CNN算法对3类小型电力部件进行识别,对网络进行预训练后,平均准确率(mean average precision,mAP)可达80%及以上。文献[6-7]采用改进YOLOv3算法对街道行人进行识别,通过改良检测框与修改网络,以减少特征信息损失,与YOLOv3相比,能够将平均准确率提高4.85%。文献[8]在SSD算法的基础上,利用迁移学习对变电站设备部件进行识别,同时改良预选框比例以适配识别对象,其mAP达到91%。文献[9]结合了Dense-SIFT(dense scale invariant feature transform)、DCNN(diffusion-convolutional neural networks)以及Faster R-CNN对铁轨状态进行检测,可快速有效地识别出轨道的各种缺陷。文献[10]在卷积神经网络DenseNet的基础上添加残差注意力模块,以灾难场景为识别对象,验证了这一方法的适用性。

目前,图像识别主要应用于道路交通、人员识别等场合,在电力系统异物识别领域研究较少,仅有的研究集中在线路异物以及设备元件。文献[11]在tensorflow的框架下构建神经网络,对高压线路上的异物进行识别,识别准确率达到96.67%。文献[12]提出了隔离开关状态角概念,将隔离开关开合角度的梯度方向直方图(histogram of oriented gradients,HOG)作为特征描述因子,结合支持向量机(support vector machine,SVM)识别高压隔离开关的状态,达到了90%以上的识别率。文献[13]研究了输电线路的异物识别,通过精简关键帧、改进帧差法、提出ORB(oriented brief)算子等方法提取异物特征,能够提升识别速度,且识别率达到93.6%。

现提出一种基于改进卷积神经网络的鸟巢与风飘物识别方法。在变电站无人或少人值守的背景下,基于站内的监控图像,采用聚类算法重新设定锚框尺寸,并糅合深浅层图像特征,修改损失函数计算方法以提升识别率,修改卷积方式以提升模型的训练速度,利用改进的神经网络方法对图像中的异物进行识别。

1 YOLO算法

YOLO算法最早由Redmon等[14]提出,经过不断地改良发展出YOLOv4与YOLOv5[15-17],使其具有了更深的网络结构、更快的识别速度以及更高的识别精度。其中YOLOv5在保留YOLOv4识别效果的同时,结构上更加灵活,体积更小,因此将YOLOv5作为基础算法。初代YOLO算法的网络结构与GoogLeNet类似,原始图像经由24个卷积池化层以及2个全连接层后输出特征图像。

YOLOv5在结构上与初代相比已经有了明显的改变,网络结构更深,并糅合深浅层特征,加强特征提取能力,最终提供多个检测层以应对不同规格的识别对象。YOLOv5识别异物基本流程如下:①将变电站中监控图像按等比缩放至416*416后送入识别网络;②按不同尺度分别对异物边界框进行预测,得到尺寸19*19、38*38、76*76的3种特征图像,并分割得到361、1 444、5 776个网格。每个网格预测3个边框(即锚框),每个边框包含3类信息(分别为位置尺寸信息,置信度,异物类别);③采用GIoU(generalized intersection over union)作为损失函数计算方法,计算每个边框的置信度,通过设定阈值,过滤低置信度边界框,得到预测目标框。

2 改进YOLOv5算法

2.1 变电站异物入侵

变电站的异物入侵主要是风飘物搭载到设备上,或是鸟类筑巢,容易造成线路故障甚至事故[18-19]。一般鸟巢的体积较小,出现时机难以确定,需要时刻监视,目前没有好的解决方法。本文从入侵异物本身的特性出发,提出基于改进卷积神经网络的识别方法。

2.2 针对变电站入侵异物的改进算法

YOLOv5算法尽管在识别速率与精度方面有所提升,但对于具体的应用场景并没有专门的应对方案。针对模型在训练过程中输入、计算、输出的3个环节进行优化,提出的方法包括:①采用聚类方法对标注图像的锚框尺寸进行重新设定,以适配异物图像;②针对变电站异物较小的特点,增添上采样模块,并与底层特征进行融合,以加强特征表达;③在上采样模块中,采用深度可分离卷积网络作为卷积层,降低计算量,以提升训练速度;④采用CIoU(complete IoU)作为损失函数,以提升损失计算收敛速度与识别精度。修改后的网络结构如图1所示。

Focus为注意力模块,是3*3的卷积层;SepConv为深度可分离卷积层;CSP为跨阶段局部网络;SPP为空间金字塔池化网络;Upsample为上采样模块;Concat为连接层

2.2.1 聚类优化锚框尺寸

YOLO算法按照对象大小,对其特征图设定了3种规格,每种规格下另设有3种尺寸锚框对应识别对象。然而其尺寸不一定适配于所有识别对象,为了更为契合实际异物的大小特点,采用聚类方法重新确定锚框尺寸。

K-means聚类算法被广泛应用于各种分类情景[20],其基本原理为根据距离来判断类别归属:预先将数据分为K组,随机选取K个对象作为初始的聚类中心,计算其余数据与聚类中心的距离,将其分配给最近的聚类中心。每完成一次分配,聚类中心便重新计算,不断重复上述过程直到满足终止条件。

针对鸟巢与风飘物,实地拍摄获取了3 148张图像。经过标注,得到1 992张有效图片,部分标注效果如图2所示。

图2 图片标注效果预览

由于每个标注框的中心点已经确定,遂抽取标注框的尺度信息(包括宽与高)作为待处理参数,设置9个聚类中心,3种规格的特征图分别配以3种锚框尺寸,经过5 000次迭代计算,聚类前后锚框尺寸结果如表1所示。

表1 优化前后的锚框尺寸

经过聚类处理,锚框尺度能够更精确地框选异物个体。

2.2.2 特征加强

在特征提取过程中,通过卷积将特征逐步浓缩,但同时也抛弃了部分特征。考虑到变电站入侵异物体型较小,表面纹路细腻,为加强特征表达,在模型中添加上采样模块,并融合底层特征以提高图像的识别率。

在对图像进行像素级别处理时,为匹配图像规格,通常会利用上采样与下采样以增大或缩小图像。常用的方法除插值法外,还有反卷积与反池化。

以插值法中的最邻近元法(nearest neighbor interpolation,NNI)为例,通过将距离待求像素最近的邻像素灰度值赋予待求像素,以达到增加图形尺寸的目的,如图3所示。

数字为示例像素值

在调整特征图像尺寸后,通过连接最浅层特征图像以融合底层特征,加强了图像的特征提取。

2.2.3 改进卷积方式

进一步地融合底层特征,虽然加强了图像的特征提取,但也为模型带来了额外的计算量。为轻量化模型,降低计算量,提升训练速度,本文通过修改卷积方式,大幅缩减了训练用时,降低了硬件的计算压力。

深度可分离卷积(depthwise separable convolution,DSC)作为Xception与MobileNet的重要组成部分[20-22],被广泛应用于图像识别领域,其原理是将标准卷积过程分解为深度卷积(depthwise convolution)与逐点卷积(pointwise convolution)两步分别进行,如图4所示。

图4 深度可分离卷积计算示意

图像在输入时一般被分为三彩色通道,将其泛化为M个通道,在经过深度可分离卷积层时,首先经过尺度为Dk*Dk,且卷积核为M个(与图像通道数相同)的逐通道卷积计算,形成M个特征图,接下来通过N个1*1*M的点卷积运算形成N个特征图像输出。

通常情况下,输入图像会被规范为正方形,假设输入图像尺度为Di*Di,以常规卷积作为参照对象,在进行一次普通卷积过程中产生的计算量为

(1)

式(1)中:Dk为卷积核尺寸;Di为输入图像尺寸。

在深度可分离卷积的计算中,两部分的计算量分别为

(2)

(3)

因此,通过修改卷积方式带来的计算量优化比例K′为

(4)

通常情况下K′都会小于1。因此,通过修改卷积方式,可以明显减轻模型的计算压力。

2.2.4 损失函数修正

在完成模型输入端与结构的优化后,损失函数在模型的训练过程中起着调整输出的作用。原始YOLOv5模型采用的GIoU损失函数仍存在不足,如部分情况下的退化问题。因此,通过修正损失函数,对模型的输出端进行优化提升。

交并比(intersection over union,IoU)损失函数旨在表现预测个体位置与实际个体位置的差别(图5)可表示为[23]

图5 IoU计算方式

(5)

式(5)中:A为预测框;B为目标框。

但IoU存在两个问题:①预测框A与目标框B不相交时,IoU(A,B)=0,损失函数不可导;②若预测框与目标框尺度确定,在相交值相同的情况下,IoU(A,B)也是相同的,因此无法反映其实际的相交情况。文献[24]提出了GIoU(generalized IoU)以改进IoU算法,同时也应用在YOLOv5算法中(图6)。

(6)

式(6)中:C为图6中的最小外接矩形。

图6 GIoU计算方式

但是GIoU也存在不足,如当目标框包含预测框时,GIoU算法退化为IoU,无法确认预测框的位置,为进一步改良IoU系列损失函数,文献[25]提出了DIoU(distance-IoU)与CIoU。

通常IoU系列的损失函数L定义为

L=1-IoU+R(B,Bgt)

(7)

式(7)中:R(B,Bgt)为预测框与目标框的惩罚项;B为预测框;Bgt为目标框。

(8)

式(8)中:ρ(B,Bgt)为预测框与目标框的欧几里得距离;c为预测框与目标框最小外接矩形的对角线距离,包括重叠面积与两个框的中心点距离,但没有计及预测框与目标框的高宽比的关系,因此需要引入CIoU。

CIoU损失值在结构上比DIoU损失值多了影响因子α、γ,CIoU的损失值LCIoU可表示为

LCIoU=LDIoU+αγ

(9)

(10)

(11)

式中:α为权重系数;γ用来衡量高宽比的一致性;ω、h分别为预测框的宽与高;ωgt与hgt分别为目标框的宽与高。

因此,CIoU解决了目标框与预测框高宽比拟合的问题,更优于DIoU,用来修正GIoU作为本文模型的损失函数。

3 实例分析

3.1 数据准备

从福建电网某变电站实地拍摄获取了3 148张图像,图像规格为5 472*3 648、2 048*3 648。其中入侵异物图像为1 992张,采用LabelImg对图像进行标注,获得相对应的标注文件。

3.2 训练

对所有包含异物的图像按照训练集∶测试集=1∶9的比例进行随机选取,分别获得训练图像1 800张,测试图像192张,并依据图像标注框重新计算锚框尺度。在训练过程中,计算每代的用时、查全率(Recall)、查准率(Precision)、各类别平均准确率(mAP)、损失值(Loss),并作为评判依据。

(12)

(13)

式中:TP(ture positives)为正样本被预测为真的数目;FP(false positives)为负样本被预测为真的数目;FN(false negatives)为正样本被预测为假的数目。

之后依据Precision-Recall曲线计算曲线与坐标轴所围面积,得到平均准(average precision,AP)与各类别平均准确率(mean average precision,mAP)值作为判定指标。

3.3 识别效果

实验环境为64位Windows7操作系统,CPU为Intel Core i5-6500 @3.20 GHz×4,内存大小为8 GB。统一训练迭代数设定为100,识别效果如图7所示。

nest为鸟巢;plastic bag为风飘物

图8反映出改进前后评级参数随训练时长的变化情况。可以看出,改进后的模型在保持精度的同时,训练用时缩短约33%。尤其在训练鸟巢等表面纹理复杂的异物图像时,得益于融合底层特征以及深度可分离卷积网络的应用,能够更快地提取特征图像、提升识别精度。

图8 改进前后的对比

表2反映了在模型改进前后不同异物的识别结果。为了说明修改后模型的优势,选取常见的Faster R-CNN与SSD模型对相同的数据进行训练,4种算法在识别两种异物时,识别效果对比如表3所示。

表2 模型改进前后的最佳识别结果

表3 4种模型的最佳识别结果

可以看出,所提出的方法在对典型的入侵异物进行识别时,与其他常用识别算法相比有着明显的优势,尤其在数据量不充足的情况下,可以得到更高的精度与更快的训练速度,在保证mAP的基础上,改进后的模型更轻量化,更适于计算能力有限但又有图像识别需求的应用场景。

4 结论

(1)提出了一种基于改进卷积神经网络的变电站鸟巢与风飘物识别方法。这一方法通过聚类重新设定图像的锚框尺寸、增添上采样模块以糅合深浅层特征并修改损失函数与卷积方法,从而提高了识别率并减少了计算时间。

(2)将本文方法应用于福建电网某变电站,对鸟巢的识别率达到97.2%,对风飘物的识别率达到86.6%,高于YOLOv5算法的94.98%与85.44%,训练时间缩短了33%以上。

(3)方法可以同时识别两种异物,平均识别率为91.9%,远远高于Faster R-CNN的55.81%和SSD的59.63%,同时表明本文方法在小样本条件下也具备较高的识别率。下一步将研究图像的预处理方法,以提高模型的泛化能力。

猜你喜欢
异物聚类损失
食管异物不可掉以轻心
如何处理异物进入眼睛
胖胖损失了多少元
自制异物抓捕器与传统异物抓捕器在模拟人血管内异物抓取的试验对比
KEY G6型异物剔除机轴承损坏频次过高的分析及改进
基于K-means聚类的车-地无线通信场强研究
玉米抽穗前倒伏怎么办?怎么减少损失?
基于高斯混合聚类的阵列干涉SAR三维成像
基于Spark平台的K-means聚类算法改进及并行化实现
基于改进的遗传算法的模糊聚类算法