基于贝叶斯方法的高分辨率遥感影像变化检测刘巨峰

2019-06-27 00:07刘立何江
科技创新与应用 2019年11期

刘立 何江

摘  要:應用遥感数据进行土地覆被分类后变化检测时,土地覆被分类误差会造成严重的误差累积效应。尤其是针对高分辨率遥感影像的土地覆被变化检测,由于空间分辨率的提高,高分辨率影像的变化检测难度增大,一般的分类后变化检测精度较低。文章采用基于对象的影像分析方法,提出了利用贝叶斯软融合方法降低了土地覆被变化分类误差的累积效应,并选取了两个研究区的高分辨遥感影像数据验证了其有效性,分别得到了78%与76%的总精度。

关键词:高分辨率影像;变化检测;基于对象;贝叶斯方法

中图分类号:TP75 文献标志码:A 文章编号:2095-2945(2019)11-0001-05

Abstract: When remote sensing data are used to detect the change of land cover classification, the error of land cover classification will cause serious error accumulation effect. Especially for the llllllllllllland cover change detection of high-resolution remote sensing images, due to the improvement of spatial resolution, the change detection of high-resolution images is more difficult, and the accuracy of general change detection after classification is low. In this paper, an object-based image analysis method is proposed to reduce the cumulative effect of classification errors of land cover change by using Bayesian soft fusion method, and two high-resolution remote sensing image data are selected to verify its effectiveness. The total accuracy vales of 78% and 76% are obtained respectively.

Keywords: high resolution image; change detection; object-based; Bayesian method

1 概述

土地利用/土地覆被(LULC)变化是生态环境变化的重要组成部分之一,其在森林开采、城市扩张、灾害检测与评估以及土地管理和规划等方面均有重要作用[1]。而遥感数据以其周期性、范围广、易于获取等特点在LULC研究中越来越被重视。尤其是更多的高分辨率数据的出现,为LULC变化研究带来了更多的便利[2]。

在遥感中,变化检测是通过联合处理不同时间在同一地理区域获取的两幅(或更多)影像来识别地球表面变化的过程[3]。高分辨率影像提供的丰富的纹理、形状等特征信息可以更好的反映真实的地表形态[4],从而得到更加精确的LULC变化。然而随着影像分辨率的提高,引起了一系列的问题:(1)影像配准的难度增加[5];(2)影像中每一类的光谱特征更加离散;(3)由于传感器角度、阴影效应等造成的数据获取条件的不同。以往基于像元的变化检测方法难以解决这些问题,且更容易出现“椒盐现象”,不利于后续的制图表达。而基于对象的影像分析技术已被证明可以减少地理配准,更复杂的光谱变化以及不同的数据获取条件的影响[6]。基于对象的变化检测属于基于对象的影像分析的一部分,其可以通过影像分割技术获取影像对象以更好的反映真实地表的地理对象,并且可以通过特征提取的方法得到影像对象的光谱、纹理、形状以及空间关系等特征。因此,基于对象的变化检测方法成为了高分辨率影像变化检测的主流方法之一[7]。

基于对象的变化检测方法主要分为分类后比较法和直接检测法。直接检测法具有比较好的稳定性和精确性,可以较方便的利用在基于像元的变化检测中表现较好的方法,但是它并不能提供详细的“从-到”类别变化信息,不适用于LULC变化检测[8]。分类后比较的方法可以提供详细的类别变化信息,在LULC变化检测中更为常用,Blaschke为基于对象的分类后变化检测提供了一个较完整的框架[9],并被广泛应用。但是分类后比较的方法过分依赖于分类结果,在变化检测的过程中丢失了影像对象的特征信息,使变化检测的结果与精度受到分类误差累积的影响。为了获得更好检测的结果,将从特征相似性得到的直接变化检测结果与独立分类结果相结合是改进后分类方法的可行且有效的方法[10]。Yu等人将分类与变化检测相结合,利用回溯的方法完成了北京地区的LULC变化检测,并且证明了该方法可以有效地减小误报[11]。然而,其变化阈值的选择依然是靠经验,并且无论是分类结果还是变化检测结果都属于硬分类结果,丢失了其连续变化的强度信息,在两者融合时易产生误差。

因此,本文提出了一种在影像对象的基础上利用贝叶斯方法融合独立分类与变化检测结果的方法。利用贝叶斯融合方法来寻找类概率和变化概率的最优组合,确定类别变化方式。该方法可以充分利用独立分类与变化检测的连续概率信息,并且避免了在连续概率上阈值的选取。

2 基于对象的贝叶斯方法的变化检测

集成基于对象与贝叶斯融合的变化检测方法首先需要对两幅影像进行分割得到影像对象;然后分别进行独立的影像分类与直接变化检测,得到影像对象的类别概率与变化概率;最后利用贝叶斯方法求得每一个影像对象对的最大后验概率,继而得到变化检测结果,具体流程如图1。

2.1 影像分割

商业软件 eCognition推动了基于对象影像分析方法的快速发展和广泛应用,其提供的分型网络演化算法(Fractal Net Evolution Approach, FNEA)是典型的基于区域合并增长的方法。eCognition在其多尺度分割过程中实现了该方法。该方法中决定最优分割数据集的参数涉及尺度因子、形状因子和紧凑度因子。为了获得理想的影像对象,仅仅目视判断不足以得到准确结果,这就需要分割参数优选的方法。

PSE-NSR-ED2不一致性法[12]综合利用了PSE、NSR 和ED2三个分割质量评价指数以定量化评价分割质量,其兼顾了“过分割”与“欠分割”的影响,可以更准确的评估影像对象的分割精度。

2.2 影像分类与变化检测

贝叶斯软融合方法需要得到两个时刻每个对象属于每个类别的概率以及两个时刻之间的时间段该对象发生变化的概率。

支持向量机(SVM)算法是近年来机器学习的主流方法之一,它可以在较少的训练样本的情况下获得较好的分类结果,并且具有较好的鲁棒性。因此,本文使用SVM作为分类的方法来获得影像对象类别概率。

慢特征分析(SFA)是一种新的学习算法,可以从输入信号中提取不变和缓慢变化的特征[13]。在遥感影像变化检测问题中,未改变的对象对应于缓慢变化的分量,同时改变的对象是快速变化的。通过特征空间变换在不变特征空间中,未改变的对象被抑制,从而可以更好的分离改变的对象。通过求解特征值问题,SFA可以求得这种不变特征空间的全局最优解[14]。为了适应双时刻遥感影像的变化检测以及使其更加自动化, Zhang等人重新拟定了SFA公式使其在迭代中,将大权重分配给未更改的对象,将小权重分配给改变的对象,从而反映对象的变化概率。其基本流程如下:(1)对数据进行标准化;(2)求取数据的协方差矩阵,按照公式(1)求解矩阵方程的特征值问题;(3)按照公式(2)计算每个对象的SFA值,并根据卡方分布求得每个对象权重;(4)根据权重求取数据协方差矩阵,重复2,3步,直至当前迭代与前一次迭代的最大特征值差值小于某一特定值。其中A为影像对象对应特征差值的协方差矩阵,B为两幅影像特征各自的协方差矩阵的平均值。

其中w为解方程得到的特征向量,x,y分别为对应对象的特征值向量。

最终求得的每个对象的权重反映的是每个对象没有发生变化的概率,从而得到每个对象的变化概率。

2.3 贝叶斯融合

一般的后分类变化检测是通过影像分类得到类别标签,然后比较类别标签来获得“从-到”的变化信息。然而,由于后分类方法忽略了影像特征之间的时间相关性,从而造成分类错误的累积。假设多时相影像对应的类别标签在时间上是相关的,那么贝叶斯理论可以给出最佳的多时间分类,找到在两个时刻特征空间分别为x,y时提供最大后验概率的多时相类别wi,vj的组合[15]。

由此可以根据分类概率和变化概率得出影像两时刻的各种类别标签组合以判断是否发生变化以及怎么变化。一般情况下我们优先选择具有最大概率的类别标签组合作为结果。但是在一些特殊情况下,最大概率可能是根据影像区域或常识信息不可能发生的类别变化,如建成区变成林地,建成区变成水体等,这时我们将选择次大的概率组合,直至结果合理。本文中贝叶斯融合方法由IDL程序实现。

3 实验数据

3.1 实验区1

实验区1为Quickbird多光谱数据,Quickbird卫星是较早发射的商业高分辨率卫星之一,目前依然被广泛应用于地理科学、农业、林业、城市规划、土地利用、环境监测、考古、野生动物保护、环境评价、牧场管理等各个领域。其多光谱数据包括蓝光波段、绿光波段、红光波段、近红外波段等4波段。空间分辨率为2.4米。大小为250*250个像元。

由于两期影像均为Quick Bird多光谱数据,其成像条件基本相同。仅用DN值获取地物类别与变化信息可以接受。故本文对Quick Bird多光谱数据只进行了影像配准,裁剪等相应的预处理过程。

从图2中可以看出实验区1的主要变化为道路拓宽,根据研究目的可以将影像土地覆被分为草地、林地、裸地、水体、道路和建筑物等6种类型。

3.2 实验区2

实验区2为WorldView2和WorldView3两个传感器的多光谱数据,WorldView卫星以其采集能力高、机动灵活性增强、高效大面积采集、重访周期短等特点成为最广泛被使用的商业卫星之一。多光谱波段均包括海岸波段、蓝光波段、绿光波段、黄光波段、红光波段、红边波段、2个近红外波段等8个波段。其空间分辨率均为2米,大小为600*400个像元。

由于WorldView2与WorldView3来自于不同的传感器,其成像条件不完全相同,会造成影像DN值存在差异。故对于两期WorldView数据除了进行配准、裁剪外还进行了影像的辐射定标与大气校正将影像DN值定标为表观反射率。其中辐射定标与大气校正均采用ENVI软件完成。

从图3中可以看出实验区2的主要变化为农村居民区改造和城市建设,可以将影像土地覆被分为草地、农田、裸地、水体、农村居民地、道路和建筑物等7种类型。

4 结果分析

4.1 实验1结果

使用eCognition软件的多尺度分割算法建立分割数据集并以实验区1的矢量数据作为参考多边形进行分割参数优选。优选结果如图4,可以得出实验区1的最优分割参数为分割尺度因子25,形状因子0.1,紧致度因子0.5。按照优选参数对影像进行分割得到883个影像分割对象。

利用SVM分类得到对象属于每个类别的概率结果,并且得到以最大概率的类别标签作为结果的分类图。经过试验确定SVM的主要参数设置为核函数为径向基核函数,惩罚系数为1,gamma系数为0.1。

如图5可以看到影像基本变化区域为右侧道路部分,如果直接利用分类结果可以将道路的变化检测出来。但是图中左侧建筑物与建筑物周围的林地、草地相互交、结构较为复杂,很容易出现混分。

从图6中可以看到利用ISFA的贝叶斯软融合方法得到了最好的变化检测结果,利用FCM、CVA的贝叶斯软融合方法和直接分类后比较均有较多的“误检”现象。

4.2 实验2结果

使用eCognition软件的多尺度分割算法建立分割数据集并以实验区2的矢量数据作为参考多边形进行分割参数优选。优选结果如图7,可以得出实验区2的最优分割参数为分割尺度因子35,形状因子0.2,紧致度因子0.5。按照优选参数对影像进行分割得到680个影像分割对象。

利用分类特征进行SVM分类得到对象属于每个类别的概率结果,并且得到以最大概率的类别标签作为结果的分类图。经过试验确定SVM的主要参数设置为核函数为径向基核函数,惩罚系数为1,gamma系数为0.1。

如图8可以看到影像基本变化区域为左侧和右侧的农村地区的城市建设,直接利用分类结果可以将变化检测出来。但是图中中间部分的农田会出现较多误检(图9)。

4.3 结论

为了验证本文方法的有效性,文章通过目视解译对两个小区域数据进行了全部的矢量化,得到了全部影像区域的矢量数据。并且利用矢量化数据作为评价数据集。对分类后比较与贝叶斯方法的土地覆被转移结果进行精度评价,得到每个转移类型的精度以及所有转移类型的总精度。同时得到是否为变化结果的准确率与召回率(表1)。

通过综合分析两个实验数据的区别。可以发现第一组数据中每个类别之间区分较为明显,不同类别之间差异较大。在这种情况下分类精度一般相对较高。其误差来源更多是累积效应的影响。运用ISFA等可以较大分离变化与未变化的概率表示方法,可以有效消除误差累积效应。第二组数据中每个类别之间区分并不十分明显,而且同一类别之中可能会存在多种特征形式的表现状态,例如农田可能表现为有较高植被覆盖、较低植被覆盖甚至没有植被覆盖的形态。这样变化检测的误差既来源于分类误差同时有误差累积效应的影响, ISFA过度的拉大变化与非变化就可能造成“漏检”现象。但是ISFA虽然造成了一定的漏检,但是总体上各个转移类别的总体精度更高,相对于分类后比较依然具有明显的改善效果。

高分辨率影像对于LULC变化检测具有重要作用。本文根据高分辨率影像的特点选择了基于对象的影像分析方式,并且利用贝叶斯融合的方法通过将直接变化检测的结果与分类后比较的结果相结合,改进了只应用分类后比较造成的误差累积问题。该方法通过采用概率信息的贝叶斯融合方式,利用最大的后验概率组合,有效避免了变化检测中的阈值选取问题,并且由于基于对象影像分析的优势,减弱了“椒盐现象”,可以得到更好的制图结果。

由于在变化检测中没有比较好的不同特征融合的方法,本文中直接变化检测使用的方法均仅使用了光谱特征,没有充分将基于对象的优势应用在直接变化检测的方法中,后续会继续寻找在变化检测中利用纹理、几何等特征的方法,通过不同的特征之间的有效融合改善变化检测的结果。

参考文献:

[1]赵敏,赵银娣.面向对象的多特征分级CVA遥感影像变化检测[J].遥感学报,2018,22(01):119-131.

[2]王成军,毛政元,徐伟铭,等.超像素与主动学习相结合的遥感影像变化检测方法[J].地球信息科学学报,2018,20(02):235-245.

[3]BRUZZONE L, BOVOLO F. A Novel Framework for the Design of Change-Detection Systems for Very-High-Resolution Remote Sensing Images[J]. Proceedings of the IEEE, 2013, 101(3): 609-630.

[4]BLASCHKE T. Object based image analysis for remote sensing[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2010, 65(1): 2-16.

[5]张良培,武辰.多时相遥感影像变化检测的现状与展望[J].测绘学报,2017,46(10):1447-1459.

[6]HUSSAIN M, CHEN D, CHENG A, et al. Change detection from remotely sensed images: From pixel-based to object-based approaches[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2013, 80: 91-106.

[7]CHEN G, HAY G J, CARVALHO L M T, et al. Object-based change detection[J]. International Journal of Remote Sensing, 2012, 33(14): 4434-4457.

[8]吴炜,沈占锋,吴田军,等.联合概率密度空间的遥感自适应变化检测方法[J].测绘学报,2016,45(01):73-79.

[9]BLASCHKE T. A framework for change detection based on image objects[M]. 2005.

[10]CARDILLE J A, FORTIN J A. Bayesian updating of land-cover estimates in a data-rich environment[J]. Remote Sensing of Environment, 2016, 186: 234-249.

[11]YU W, ZHOU W, QIAN Y, et al. A new approach for land cover classification and change analysis: Integrating backdating and an object-based method[J]. Remote Sensing of Environment, 2016, 177: 37-47.

[12]LIU Y, BIAN L, MENG Y, et al. Discrepancy measures for selecting optimal combination of parameter values in object-based image analysis[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2012, 68: 144-156.

[13]FRANZIUS M, WILBERT N, WISKOTT L. Invariant Object Recognition with Slow Feature Analysis[M]. 2008: 961-970.

[14]ZHANG Z, TAO D. Slow feature analysis for human action recognition[J]. IEEE Trans Pattern Anal Mach Intell, 2012, 34(3): 436-450.

[15]WU C, DU B, CUI X, et al. A post-classification change detection method based on iterative slow feature analysis and Bayesian soft fusion[J]. Remote Sensing of Environment, 2017, 199: 241-255.