基于U-net卷积神经网络的大转角ISAR成像方法

2022-11-03 11:56李文哲李开明
空军工程大学学报 2022年5期
关键词:转角方位分辨率

李文哲,李开明,康 乐,罗 迎

(空军工程大学信息与导航学院,西安,710077)

逆合成孔径雷达(inverse synthetic aperture radar, ISAR)成像技术能够全天候、全天时获取目标高分辨雷达图像,因此广泛应用于对航天器、弹道导弹、太空碎片等空天目标的监视探测任务中。

在ISAR成像中,通过宽带信号的脉冲压缩获得距离分辨率、目标相对雷达转动形成合成孔径获得方位向分辨率,因此其距离分辨率取决于信号的带宽、方位分辨率取决于多普勒频率的分辨率。距离-多普勒(range Doppler, RD)算法ISAR成像中最常用的算法,它适用于成像转角较小的情形,但大转角成像问题在ISAR实际应用中不可避免。一方面,精细化识别对空天目标成像的分辨率提出了更高的要求,这需要雷达具有更大的带宽以提高距离分辨率,更大的成像转角以提高方位分辨率。另一方面,目标运动状态突变时也面临着大转角成像问题,比如机动飞行的飞机[1],横摇、纵摇等运动中的船舶[2]等具有较大的切向速度分量,此时在固定的相干时间内,旋转角度可能突然大幅增加,不再满足小转角成像条件。

ISAR成像转角的增大虽然可以提高方位分辨率,但同时会造成越距离单元徙动(migration through range cells, MTRC)[3],使得ISAR图像在距离向和方位向上散焦[4]。针对ISAR成像中的MTRC问题,Keystone变换[5-6]通过将慢时间变量转换为虚拟慢时间变量,实现距离向和方位向解耦;MTRCCA算法[7]将二维补偿问题转化为两个一维补偿,从而消除方位变化引起的距离偏移。这两种算法可以在转角未知的情况下校正ISAR中目标旋转运动引起的线性距离偏移,对于转角不太大的目标非常有效,但因为时变多普勒偏移没有得到补偿,在大转角情况下,校正后的图像仍然模糊。极坐标格式算法(polar formation algorithm, PFA)[8-9]和后向投影(back-projection, BP)算法[10-11]可以在大转角条件下得到聚焦良好的ISAR图像,其中PFA算法用极坐标格式存储数据,在远场条件下可以有效消除MTRC;BP算法则将回波数据网格化,是一种精确成像方法,没有远场条件的限制。但这两种算法的成像质量建立在对目标成像转角的准确估计上,且计算复杂度较高,难以满足成像的实时性要求。

近年来,随着深度学习方法的迅速发展,将深度学习应用到雷达成像领域中,也受到了国内外学者的广泛关注。文献[12]提出了一种基于深度学习辅助时频分析的超分辨率ISAR成像方法,实现了ISAR图像的超分辨率聚焦和去噪;文献[13]通过级联不同的复数网络层,构建了一个具有多级分解能力的复数深度神经网络用于ISAR成像;文献[14]提出了一种用于非交叉项和高分辨率时频分析的深度学习方法,可以实现对机动目标的高分辨ISAR成像。文献[15]利用Keystone变换对目标的旋转运动和平移运动进行粗补偿,再利用深度学习算法获得超分辨率图像。

本文提出了一种基于U-net卷积神经网络(u-net convolutional neural network, U-net CNN) 的大转角ISAR成像方法。首先利用快速傅里叶变换对回波数据进行预处理,得到距离向和方位向散焦的ISAR图像,然后输入到训练良好的U-net网络中,输出聚焦良好的ISAR图像。本文方法不需要估计成像转角,与PFA和BP算法等传统算法相比,在成像先验约束、成像质量、成像效率上都具有明显的优势。此外,仿真实验表明,所提方法在低信噪比条件下,仍可以实现ISAR图像的快速、准确重建。

1 ISAR成像信号模型

对位于雷达远场的目标进行成像,假设平动补偿[16-17]已完成,ISAR成像模型可以等效为图1所示的转台模型。

图1 ISAR成像转台模型

转台模型的轴心Oc到雷达Q的距离为R0,以Oc为坐标系的原点建立直角坐标平面。目标上一个到轴心Oc的距离为rP的散射点,初始时刻位于P点,坐标(xP,yP),随着目标以角速度ω经过时间Δt运动到P′点,此时该散射点到雷达的距离RP,由转动引起的散射点距离移动为:

ΔRP=RP-R0=yPcos(ωΔt)+xPsin(ωΔt)

(1)

雷达发射载频为fc、调频斜率为μ的线性调频信号(linear frequency modulation, LFM)信号,即:

(2)

其中:

(3)

式中:Tp为脉冲宽度;t表示“快时间”,为每个脉冲发射到接收经过的时间;tm表示“慢时间”,为每个脉冲发射时刻的时间,则雷达接收的回波信号为:

(4)

式中:c为电磁波的传播速度;σP为散射点的散射系数。

将轴心Oc的回波信号作为参考信号,进行解线性调频处理[18]后在快时间域做傅里叶变换,得到目标的一维距离像:

(5)

在小转角条件下,ωΔt很小,则有近似关系:

sin(ωΔt)≈ωΔt,cos(ωΔt)≈1

(6)

式(1)可近似为:

ΔRP=yP+xPωΔt

(7)

将式(7)代入式(5)中,并对慢时间作傅里叶变换得到:

(8)

即得到目标的ISAR像表达式,这就是RD算法的成像过程,它将二维ISAR成像处理转化为两个一维FFT运算,从而极大地简化了成像处理过程。但这种简化只有在目标与雷达在相干处理时间内的相对转角满足小转角条件[19]时才有效,当不满足小转角条件时,式(6)不再成立,将式(1)代入式(5)中:

SdP(fk,tm)=

(9)

式(9)反映出信号包络和相位在距离向和方位向存在严重的距离耦合,直接对慢时间作傅里叶变换将产生严重的MTRC,引起距离向和方位向上的散焦,并且可以看出距离向和方位向散焦的程度和散射点的位置有关,距离目标旋转中心越远,散焦越明显。

2 基于U-net网络的大转角ISAR成像方法

U-net网络是由Olaf Ronneberger[20]等人于2015 年提出的一种卷积神经网络,由具有对称特征的收缩路径和扩展路径构成一种“U”型结构,在图像分割中取得了很好的效果。Kyong Hwan Jin[21-22]等人把这个网络用于医学成像中的逆问题中,网络将稀疏信号产生的模糊图像输入到训练好的网络中,可以快速得到清晰的医学图像,证明了U-net 网络可以实现图像的超分辨重建。本文将U-net网络结构用于大转角条件下的ISAR成像问题,首先使用二维FFT对回波数据进行预处理,得到散焦的ISAR复图像,然后输入网络得到聚焦良好的ISAR图像。

2.1 U-net网络结构

U-net网络主要由收缩路径和扩展路径两部分组成。收缩路径用于捕获图像中的信息,扩展路径用于区域的精确定位。收缩路径每一层包括2个3×3大小的卷积层、一个ReLU激活函数和一个2×2大小的最大池化层(max pooling),扩展路径的每一层包含一步2×2大小的上采样、两个3×3大小的卷积层和一个ReLU激活函数。最后利用1×1的卷积核进行卷积运算,将维度映射为单通道的图像进行输出。

针对本文ISAR成像处理的任务需求,对U-net网络作了以下修改:

1) ISAR回波数据是复数,为使网络匹配ISAR回波数据特征,将网络的输入改为双通道,将复图像的实部和虚部分别输入2个通道中处理。

2) 原U-net网络使用了“valid”卷积方式,每次卷积后都会使得图像尺寸减小,为保持输入和输出图像的大小不变,本文采用“same”卷积方式。

3) 本文将U-net网络应用在成像中,使用大的卷积核会导致模型复杂度过高。因此本文减小了每层卷积的卷积核数量,以加快网络的训练速度。原U-net网络每一层卷积所用卷积核的数量为:

(10)

本文将每一层卷积所用卷积核的数量改为:

(11)

式中:L表示网络层数;1~5层为扩展路径,6~9层为收缩路径;n表示每层的卷积核数量。

4) 在输出层增加一个Sigmoid激活函数。Sigmoid函数的作用是对每个神经元的输出进行标准化,将绝对值较大的输出值缓慢推向极值,可以使网络的预测结果更加稳定[23]。另外,Sigmoid函数采用最大熵模型[24],受噪声数据影响较小,因此可以增强网络的抗噪性能。修改后的U-net网络结构如图2所示。

图2 修改后的U-net网络结构示意图

2.2 网络训练方法

首先在给定场景中产生散射点数量、位置和散射系数都服从高斯随机分布的仿真目标,然后生成仿真目标在不同成像转角下的回波数据,对回波数据进行二维FFT处理,得到散焦的ISAR复图像,以此作为网络的输入,依据仿真目标的散射点位置和散射系数生成其理想电磁分布模型作为标签。

网络训练方式采用监督训练,训练使用的损失函数为均方误差函数(mean square error, MSE),表达式为:

(12)

3 仿真实验

3.1 实验参数

给定场景大小20 m×20 m,场景中心为坐标原点,在表1给出的雷达参数条件下,生成400个散射点坐标在该区域中随机分布的仿真目标,每个仿真目标的散射点数量在[1,100]区间内随机分布,每个点的散射系数在(0,1)区间内随机分布。在对单个成像角度训练后,测试发现在该角度上下2°左右的范围内,网络都能得到良好的预测结果,本文设置3°为步长。由于实际应用中成像转角超过20°的情况非常少,因此训练样本的成像转角设置在3°~21°范围内,将仿真目标在不同成像转角下得到的回波数据进行二维FFT处理,得到散焦的ISAR复图像。

表1 ISAR成像仿真参数

图3为其中一个训练样本,图3(a)为仿真目标上的散射点位置分布图,图3(b)为仿真目标的理想电磁分布模型,图3(c)、图3(d)分别为15°和21°成像转角下FFT处理后得到的散焦图像。

(a)目标上散射点位置分布

网络训练的系统环境参数和网络参数见表2。

表2 系统参数和网络参数

本文分别在无噪声和有随机噪声的环境下进行了仿真实验,并与RD算法、BP算法、PFA算法在成像质量和成像效率上做了比较。

3.2 实验1:无噪声环境

依据表2所示的网络参数在无噪声环境下对样本进行训练,网络参数每迭代更新4次,保存一次损失函数,网络进行50 400次迭代,得到12 600个损失函数的值,绘制出损失函数曲线图如图4所示,最终收敛至0.0 003附近,网络训练良好。

图4 实验1损失函数曲线图

用该网络对仿真飞机目标模型进行成像处理,并与RD算法、BP算法和PFA算法在成像质量和成像效率上进行比较。图5给出了飞机目标上各散射点位置分布及其理想电磁分布模型,分别用RD算法、BP算法、PFA算法和本文所提方法在不同转角条件下的成像结果如图6所示。图7给出了距离向和方位向剖面图。

(a)散射点位置分布

从图像可以直观看出,随着成像转角的增大,RD算法的成像结果散焦越来越严重,BP算法和PFA算法虽然可以在成像转角已知的条件下克服散焦问题,并且随着成像转角的增大,方位分辨率逐渐提升,但无法准确还原出目标上各散射点散射强度的差异。而本文所提方法不需已知成像转角即可得到聚焦良好的ISAR图像,可以很好地还原目标上各散射点的散射强度。

图7给出了图6(a)中所圈出的散射点附近的距离向和方位向剖面图。可以看出本文所提方法主瓣宽度最窄、旁瓣衰减最快、聚焦效果最好。

(a)距离向剖面图

进一步计算不同方法成像结果的峰值旁瓣比(peak side lobe ratio, PSLR)、图像熵(entropy)、归一化均方误差(normalized mean square error, NMSE)和成像时间,在表3中给出。其中RPSLR表示距离向PSLR,APSLR表示方位向PSLR。由于RD算法的成像结果已经严重散焦,PSLR已经没有意义,所以不再计算。

表3 成像质量评价指标和成像时间对比结果

由表3可见,RD算法虽然成像时间很快,但随着成像转角的增大,图像熵和NMSE都增大,成像性能严重恶化;BP算法和PFA算法虽然图像熵和NMSE比RD算法小,但时间成本巨大,无法满足实时成像的要求;本文所提方法不仅将PSLR降低至-18 dB以下,具有更小的图像熵和NMSE,而且在成像时间上可以和RD算法比拟,可以同时满足成像性能和成像效率的要求。

3.3 实验2:有噪声环境

在每个样本的回波数据中加入信噪比(signal to noise ratio, SNR)在-5~15 dB之间随机取值的加性高斯白噪声(additive white Gaussian noise, AWGN)。回波数据经过FFT处理作为网络输入,理想电磁分布模型作为标签。图8给出了18°转角下加入了SNR=3 dB噪声的一组训练样本。图9给出了网络损失函数变化曲线,最终收敛于0.000 5附近。

(a)FFT处理结果

图9 实验2损失函数曲线图

图10给出了回波加入SNR=0 dB、-5 dB、-7 dB的随机噪声时,RD算法、BP算法、PFA算法以及本文所提方法的成像结果,表4给出了成像质量评价指标的对比结果。

由图10的成像结果以及表4给出的评价指标对比可以看出,加入噪声后,BP算法和PFA算法的PSLR、图像熵和NMSE明显增大,成像结果恶化严重,而本文所提方法的PSLR仍然保持在-18 dB以下,图像熵和NMSE也远小于其他方法,仍然可以在不同转角下实现对目标的高质量成像。说明在低信噪比条件下,本文所提方法的成像质量优势更加明显。

图10(c)以及表4的最后一栏给出了加入SNR=-7 dB噪声时的成像结果和评价指标,本文所提方法较好地重建出了目标上各散射点的位置和强度,说明对于略微超出网络训练条件的噪声功率,网络仍然具有较好的成像效果。

表4 噪声环境下成像质量评价指标对比结果

4 结语

大转角条件下ISAR成像产生严重的MTRC,采用传统RD算法成像在距离向和方位向上都产生严重的散焦,PFA算法、BP算法可以在大转角条件下实现目标场景的聚焦,但计算量大,且难以准确重建出目标上各散射点的散射强度差异。本文对原有U-net网络结构进行了改进,提出一种基于U-net卷积神经网络的ISAR成像方法,将回波进行FFT处理后输入网络进行训练,重建出目标的理想电磁分布模型。仿真实验表明,本文所提方法在成像时间上可以和RD算法比拟,且不需要对成像转角进行估计,成像效果优于BP算法和PFA算法,且对噪声具有较好的鲁棒性。

猜你喜欢
转角方位分辨率
玩转角的平分线
认方位
侧围外板转角深拉伸起皱缺陷研究
EM算法的参数分辨率
原生VS最大那些混淆视听的“分辨率”概念
三次“转角”遇到爱
基于深度特征学习的图像超分辨率重建
一种改进的基于边缘加强超分辨率算法
借助方位法的拆字
基于TMS320C6678的SAR方位向预滤波器的并行实现