融入CBAM 的Res-UNet 高分辨率遥感影像语义分割模型

2024-03-04 07:48孙凌辉赵丽科成子怡
地理空间信息 2024年2期
关键词:残差注意力语义

孙凌辉,赵丽科,李 琛,成子怡

(1.河南工业大学 信息科学与工程学院,河南 郑州 450001)

遥感图像具有的数据量大、空间相关性强、分辨率高的特点,适合采用卷积神经网络的方法开展语义分割的方法提取地物信息。本文根据其特点,采用融入残差模块的U-Net网络作为主干,避免模型发生退化,同时融入通道和空间注意力模块,增强地物的细节特征,改善高分辨率遥感影像语义分割的精度[1-3]。

1 融入CBAM的Res-UNet遥感影像语义分割模型

1.1 整体结构框架

鉴于采用编解码结构的UNet在语义分割中表现出来的优势,本文模型主干选用UNet网络结构,同时在编码器部分融入残差连接模块与通道空间注意力模块[4]。网络的主干由三部分组成,分别为获取地物特征的编码器、对影像进行分类的解码器、连接底层信息与高层信息的跳跃连接,在此基础上还加入了抑制网络退化的残差结构和提高网络聚焦特征的CBAM注意力模块,改善细节信息的特征抽取能力。

1.2 Res-UNet结构

编码器-解码器结构是研究语义分割方面普遍使用的一种结构,由编码器、过渡层和解码器共同组成。编码器负责通过下采样降低图像维度;过渡层存在于编码器和解码器之间,提取并传递高维特征信息;解码器负责通过上采样将特征图还原为原始维度。U-Net 网络是基于编解码结构的经典模型,由编码结构、解码结构和跳跃连接构成,跳跃连接的本质就是将下采样过程中获得的特征图像融合到上采样中,所用的融合方式就是将特征图像通道叠加。

由于在网络层数增加的过程中,预测效果越来越差,梯度消失和梯度爆炸产生了网络退化问题,“残差结构”跳过一些神经元节点,跨层相连,减弱各个网络层之间的强联系,提高网络训练效率。鉴于残差结构的优点,将残差结构融入到U-Net网络中,以达到提高精度的目的。

1.3 CBAM注意力模块

由于遥感影像的复杂性,语义分割经常会受到模糊或者是杂糅等区域的影响且影像本身的时相可能不同,以及数据来源、阴影等变化导致使用传统方法不能很好地进行各类地物的分割。因此在嵌入残差结构的U-Net 模型中添加CBAM 注意力模块以强化地物的细节特征,提高遥感影像语义分割的精度,如图1 为CBAM模块的示意图[5]。

图1 CBAM示意图

CBAM 凭借自身是一个轻量级通用注意力模块的特点,可以无缝集成到各种神经网络架构中。首先对于语义分割来说,有多个通道的特征输出,有些通道的特征对最终的分类结果影响很大,有必要使注意力聚集在这些通道中,具体做法是通过全局池化,在通道注意力模块中使用最大池化和均值池化,得到2 个1×1×C的特征图,然后通过MLP进行非线性的特征变化,进行像素级相加后经激活函数激活得到对应的注意力权重,表达式为:

对于空间注意力,它是使网络模型更集中于具有空间形状的特征上,它将通道注意力特征图作为输入,分别进行最大池化和均值池化,生成2个2D特征图,之后对其进行级联,经卷积层降维至单通道,最后由激活函数激活得到注意力权重,表达式为:

CBAM 按照通道、空间域2 个独立的维度对遥感影像进行注意力“注入”,然后将已获得“注意力”的图像乘以读取的特征图像进行图像特征细化。CBAM对特征图F∈RC×H×W分别进行通道、空间注意力计算,会分别得到一维的和二维的通道和注意力权重Mc∈RC×1×1和Ms∈R1×H×W,之后对特征图进行加权计算,表达式为(3)。

在公式(3)中,⊗为矩阵与所对应的元素依次相乘,在这个过程中,按照对应的维度,注意力的值会进行复制,通道和空间注意力权重分别以通道、空间维度进行复制。最后的F''为输出的特征图。CBAM注意力模块的嵌入,可以有效提升地物的细节特征,改善语义分割的精度。

2 实验结果与分析

为了验证本文方法的可靠性,选用ISPRS Potsdam[6]数据集开展实验分析,Potsdam遥感数据集一共包含38幅高分辨率遥感影像,影像的大小为6 000×6 000像素,其空间分辨率为5 cm,将每张影像划分为6类,分别是建筑物(蓝色)、非渗透表面(白色)、灌木植被(青色)、车辆(黄色)、树木(绿色)以及杂波层(红色)。本实验选取17幅图像用作训练、5幅图像用作验证、其余图像用作测试。

为了客观且全面地评估网络模型进行遥感影像语义分割的效果,采用了遥感影像语义分割比较常用的评价指标客观地评估语义分割效果[7],使用的精度评价指标为精确度(Precision)、像素准确率(PA)、召回率(Recall)、特异度(Specificity)、均交并比(MIoU)频权交互比(FWIoU)以及F1 分数(F1),各评价指标的数学表达为:

式中,TP为正样本预测正确;TN为负样本预测正确;FP为将负样本预测错误;FN为将正样本预测错误。将2 种模型的预测结果与原始的标签图像对比后分别计算。

Res-UNet网络模型与融入了CBAM注意力机制的Res-UNet 神经网络模型在精确度、像素准确率、F1、MIoU以及FWIoU 5个方面的整体平均值如表1所示。

表1 整体预测结果评估指标

Res-UNet 网络模型与融入了注意力机制的Res-UNet 神经网络模型在精确度、MIoU、特异度以及召回率4个方面的整类别平均值如表2所示。

表2 类别预测结果评估指标

从表1 和表2 中可以看出,通道与空间注意力的融入可以明显改善遥感影像语义分割的精度,Precision、PA、Precision、Recall、F1、MIoU 及FWIoU 各项指标均有所提升,通道与空间注意力模块能够强化遥感影像中的细节信息,提高语义分割的精度,表明本文方法的有效性。

为了定性观察融入CBAM模块后遥感影像语义分割的效果,如图2 展示了典型的遥感图像分割结果,图中a 为原始遥感影像,b 为真值标签,c 为未融入CBAM 的分割结果,d 融入CBAM 的分割结果。比较第一行c 与d 的分割结果,影像中孤立的噪声被去除;第二行展示了遥感影像中细窄地物的分割结果,加入注意力模块后,对细节的识别能力有所提升,分割结果更为连续;第三行的图像则表明了未融入CBAM 时,结果多呈“锯齿状”,融入注意力模块后会有明显改善;第四行展示了对面积较小地物的分割结果,融入注意力模块后,细节信息补全,提高影像语义分割的精度。

图2 实验结果展示

3 结 论

本文提出一种融入通道和空间注意力模块的Res-UNet 模型,模型主干采用编解码结构的UNet 模型,将残差结构嵌入到编码部分,有效避免模型退化问题,将CBAM模块连接到网络中,挖掘地物间不同特征信息,增强地物的细节,提升遥感影像语义分割精度。在ISPRS Potsdam 数据集上进行分析验证,该模型能够强化地物的细节特征,有效去除噪声、改善地物边缘的分割结果,提升语义分割的精度,验证了本文提出方法的鲁棒性和科学性。但本文对地物边界提取仍有待进一步优化,后续考虑增加边缘感知模块,改善地物边缘特征。

猜你喜欢
残差注意力语义
基于双向GRU与残差拟合的车辆跟驰建模
让注意力“飞”回来
基于残差学习的自适应无人机目标跟踪算法
语言与语义
基于递归残差网络的图像超分辨率重建
“扬眼”APP:让注意力“变现”
A Beautiful Way Of Looking At Things
“上”与“下”语义的不对称性及其认知阐释
平稳自相关过程的残差累积和控制图
认知范畴模糊与语义模糊