《第8章遥感图像分类.ppt》由会员分享,可在线阅读,更多相关《第8章遥感图像分类.ppt(75页珍藏版)》请在课桌文档上搜索。
1、1,遥感数字图像处理,2,第8章 遥感图像分类,3,第8章 遥感图像分类,8.1 概述8.2 相似性度量8.3 工作流程8.4 非监督分类8.5 监督分类8.6 其他分类方法8.7 分类后处理8.8 分类精度分析,4,8.1 概述,8.1.1 基本原理8.1.2 分类方法,5,8.1 概述,8.1.1 基本原理同类地物在相同的条件下(光照、地形等)应该具有相同或相似的光谱信息和空间信息特征。不同类的地物之间具有差异根据这种差异,将图像中的所有像素按其性质分为若干个类别(Class)的过程,称为图像的分类。遥感图像分类以每个像素的光谱数据为基础进行。假设遥感图像有K个波段,则(i,j)位置的像素
2、在每个波段上的灰度值可以构成表示为X=(x1,x2,xk)T,包含X的K维空间称为特征空间,这样K个波段的多光谱图像便可以用K维特征空间中的一系列点来表示。在遥感图像分类问题中,常把图像中的某一类地物称为模式,而把属于该类中的像素称为样本,X=(x1,x2,xk)T 可以称为样本的观测值。,6,8.1 概述,8.1.2 分类方法根据是否需要分类人员事先提供已知类别及其训练样本,对分类器进行训练和监督,可将遥感图像分类方法划分为监督分类和非监督分类。事先己经知道类别的部分信息(即类别的先验知识),对未知类别的样本进行分类的方法称之为监督分类(Supervised Classification)。
3、事先没有类别的先验知识,对未知类别的样本进行分类的方法称之为非监督分类(Unsupervised Classification)根据分类使用的统计数学方法可以分为随机统计方法和模糊数学方法分类。前者以随机数学理论为基础,包括K-均值分类、最大相似性分类等。后者以模糊数学理论为基础,主要是模糊分类。,7,8.1 概述,8.1.2 分类方法根据一个像素被分到一个类还是多个类,可将遥感图像分类方法分为硬分类和软分类。图像上的一个像素只能被分到一个类的分类方法称为硬分类(hard classification)。传统的统计分类方法都是硬分类。硬分类有时可能不合理。因为有些像素可能同时具有两个类或多个类
4、的性质。图像上的每一个像素可以同时被分到两个或两个以上类的分类方法,称为软分类(soft classification),这时每个像素除了被分类外,还同时允许它在不同的两个或多个类中具有隶属概率(class membership probability)或部分隶属值(partial Membership value)。这是对硬分类不合理一面的一种较合理的解决方式。,8,8.2 相似性度量,距离是常用的相似性度量的概念。分类是确定像素距离哪个点群中心较近,或落入哪个点群范围可能性大的问题。像素与点群的距离越近,那么,属于该点群的可能性越高。按照一定的准则,当距离小于一定值时,像素被划分给最近的点
5、群。每个点群为一个类。同一类别中点间的距离一般来说比不同类别点间距离要小。也可以认为,一个点属于某一类,一定与这个类别中心的距离比与其他类别中心的距离小。因此,在点群(团)中心已知的情况下,以每个点与点群中心的距离作为判定的准则,就可以完成分类工作。运用距离判别函数时,要求各个类别点群的中心位置己知。对于光谱特征空间中的任一点k,计算它到各类中心点的距离d。若didj,则k像素属于i类而不属于j类,此处,判别准则为didj,9,8.2 相似性度量,dik为当前像素i到类k的距离,P为波段数,xij为像素i在j波段的像素值,Mjk为类k在波段j的均值。,2.欧氏(Euclidean)距离,1.绝
6、对距离,该距离是平面上两点之间的直线距离,应用最多。,10,8.2 相似性度量,3.马氏(Mahalanobis)距离,马氏距离是一种加权的欧氏距离,它通过协方差矩阵来考虑变量的相关性。这是由于在实际中,各点群的形状是大小和方向各不相同的椭球体,如图所示,尽管K点距MA的距离DA比距MB的距离DB小,即DADB,但由于B点群比A点群离散得多,因而把K点划入B类更合理。加权可以这样理解,计算的距离与各点群的方差有关。方差愈大,计算的距离就愈短。如果各个点群具有相同的方差,则马氏距离是欧氏距离的平方。,11,8.2 相似性度量,3.马氏(Mahalanobis)距离,12,8.2 相似性度量,4.
7、相似系数,又称为余弦距离,其数学表达式为:,为图像像素光谱与参照光谱之间的夹角(光谱角)X为图像像素光谱曲线向量Y为参照光谱曲线向量。当cos的值接近1的时候有最好的估计光谱值和类别分类结果。光谱角值以很小的弧度角来表示,它代表了光谱曲线之间的相似性,其变化范围是0,/2,13,8.3 工作流程,图像的预处理,选择分类方法,特征选择和提取,选择合适的分类参数进行分类,分类后处理,成果输出,1.确定工作范围,2.多源图像的几何配准,3.噪声处理,4.辐射校正,5.几何精纠正,6.多图像融合,特征选择是从众多特征中挑选出可以参加分类运算的若干个特征。,特征提取是在特征选择以后,利用特征提取算法(如
8、主成分分析算法)从原始特征中求出最能反映地物类别性质的一组新特征。,特征选取的原则:尽可能选取数量适当有助于增加同类地物的类聚性(即类内个体间离散性小)、能扩大地物类别之间差异性的特征变量。,14,8.4 非监督分类,根据事先指定的某一准则,让计算机自动进行判别归类,无需人为干预,分类后需确定地面类别。在非监督分类中,先确定光谱可分的类别(光谱类)然后定义它们的信息类。,15,8.4 非监督分类,非监督分类,是指人们事先对分类过程不施加任何的先验知识,仅凭据遥感影像地物的光谱特征的分布规律,随其自然地进行盲目的分类。其分类的结果,只是对不同类别进行了区分,并不确定类别的属性,其属性是通过事后对
9、各类的光谱响应曲线进行分析,以及与实地调查相比较后确定的。非监督分类的理论依据:遥感图像上的同类地物在相同的表面结构特征、植被覆盖、光照等条件下,一般具有相同或相近的光谱特征,从而表现出某种内在的相似性,归属于同一个光谱空间区域;不同的地物,光谱信息特征不同,归属于不同的光谱空间区域。由于在一幅复杂的图像中,训练区有时不能包括所有地物的光谱样式,这就造成了一部分像元找不到归属。在实际工作中为了进行监督分类而确定类别和训练区的选取也是不易的,因而在开始分析图像时,用非监督分类方法来研究数据的本来结构及其自然点群的分布情况是很有价值的。,16,8.4 非监督分类,非监督分类主要采用聚类分析的方法,
10、聚类是把一组像素按照相似性归成若干类别。它的目的是使得属于同一类别的像素之间的距离尽可能小,而不同类别上像素间的距离尽可能大。在进行聚类分析时,首先要确定基准类别的参量。在非监督分类的情况下,并无基准类别的先验知识可以利用,因而,只能先假定初始的参量,并通过预分类处理来形成集群,再由集群的统计参数来调整预制的参量,接着再聚类,再调整。如此不断地迭代,直到有关参数达到允许的范围为止。所以说,非监督算法的核心问题是初始类别参数的选定,以及它的迭代调整问题。,17,8.4 非监督分类,主要过程如下:(1)确定初始类别参数,即确定最初类别数和类别中心(集群中心)(2)计算每一个像元所对应的特征矢量与各
11、集群中心的距离。(3)选与中心距离最短的类别作为这一矢量的所属类别。(4)计算新的类别均值向量。(5)比较新的类别均值与原中心位置上的变化,若位置发生了改变,则以新的类别均值作为聚类中心,再从第2步开始重复,进行反复迭代操作。(6)如果聚类中心不再变化,计算停止。,18,8.4 非监督分类,8.4.1 初始类别参数的选定8.4.2 常用非监督分类算法,19,8.4 非监督分类,8.4.1 初始类别参数的选定初始类别参数是指基准类别集群中心(数学期望Mi),以及集群分布的协方差矩阵i。因为无论采用何种判别函数,都要预先确定其初始类别的参量。以下为几种常用的方法。1.像素光谱特征的比较法2.总体直
12、方图均匀选心法3.最大最小距离选心法4.局部直方图峰值定心法,20,8.4 非监督分类,8.4.1 初始类别参数的选定1.像素光谱特征的比较法首先,在遥感图像中定义一个抽样集,它可以是整幅图像的所有像素,但通常是按一定间隔抽样的像素。然后,选定抽样集中任一像素作为第一个类别;给定一个光谱相似性比较阈值;依次把抽样集中每个像素的光谱特征与已建起的初始类别比较,若该像素与其中一个初始类别相似,则作为该类集群中的一个成员,若不与任何一个相似,则以该像素建立一个新的初始类别。当以上聚类过程完成后,每个已经建立起来的初始类别都包含了一定成员,依据此可统计其集群中心(数学期望Mi)和协方差矩阵i。,21,
13、8.4 非监督分类,8.4.1 初始类别参数的选定2.总体直方图均匀选心法该方法是在整幅遥感影像的总体直方图的基础上进行类别中心的选定的。设总体直方图的均值和方差分别为:,式中,i为波段号;j为像素点号;为像素i在第j波段的亮度值;n为波段数;N为像素总数。,22,8.4 非监督分类,8.4.1 初始类别参数的选定2.总体直方图均匀选心法,用作图法不难证明,该法所选定的初始类别中心通过整体集群中心的一条直线均匀散布的,并基本上包括在整体集群的范围之内,现假设我们需要Q个初始类别,每个初始类别集群中心可按下式确定:,例如,Q=4时,23,8.4 非监督分类,8.4.1 初始类别参数的选定3.最大
14、最小距离选心法,该法的选心原则是使各初始类别之间,尽可能地保持远距离,为做到这一点,首先在整幅图像中按一定方式(如等间隔方式)获取一个抽样点像素集合,式中n为抽样个数,24,8.4 非监督分类,8.4.1 初始类别参数的选定3.最大最小距离选心法,按以下步骤进行选心处理:1)取抽样集中任一像素之特征点作为第一个初始类别中心 2)计算与其他各抽样点之间的距离D。取与之距离最远的那个抽样点(例如)作为第二个初始类别中心,即若,则,25,8.4 非监督分类,8.4.1 初始类别参数的选定3.最大最小距离选心法,3)对于剩余的每个抽样点,计算它到已有各初始类别中心的距离 m为已有初始类别数,并取其中的
15、最小距离 作为该点的代表距离,式中:m为已形成的初始类别数。4)在此基础上,再对所有各剩余点的最小距离进行相互比较,取其中最大者,并选择与该最大的最小距离相应的抽样点(例如)作为一个新的初始类别中心点(例如)。重复以上步骤,直到初始类别的个数达到需要的个数为止。,26,8.4 非监督分类,8.4.1 初始类别参数的选定4.局部直方图峰值定心法,由于整幅遥感图像总体直方图的分布是由各类别直方图叠加而形成的。同时,每个类别的集群中心一般位于本类别直方图的峰值位置,而在该位置处的总体直方图往往会出现局部峰值。因而,该法便以搜索总体直方图局部峰值为原理来选定初始类别的中心。其基本过程包括:图像数据抽样
16、集的获取,建立总体直方图以及搜索直方图局部峰值3个步骤。,27,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法2、ISODATA分类算法,28,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法K-均值(K-Mean)算法的聚类准则是使每一分类中,像素点到该类别中心的距离的平方和最小。K-均值算法基本思想是:通过迭代,移动各个基准类别的中心,直至得到最好的聚类结果为止。,29,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法收敛条件:对于图像中互不相交的任意一个类,计算该类中的像素值与该类均值差的平方和。将图像中所有类的差的平方
17、和相加,并使相加后的值达到最小。设图像中总类数为m,各类的均值为C,类内的像素数为N、像素值为f,那么,收敛条件是使得下式达到最小:,30,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法,31,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法K-均值算法步骤,任选k个初始聚类中心:(上角标记载为寻找聚类中的迭代运算次数)。一般可选定样本集的前k个样本作为初始聚类中心,也可用前面所述的方法进行初始聚类中心的选择,如最大最小距离选心法。,A)Cluster centres are arbitrarily assigned,32,8.4 非监督分类,8.
18、4.2 常用非监督分类算法1、K-均值分类算法K-均值算法步骤,设已进行到第 t 步迭代。若对某一样本X有 则X,其中 是以 为聚类中心的样本集。以此种方法将全部样本分配到k个类中。,B)Each pixel is assigned to the nearest cluster centre in data space,33,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法K-均值算法步骤,计算各聚类中心的新向量值,式中 为 中所包含的样本数。因为在这一步要计算k个聚类中心的样本均值,故称为K-均值算法。,C)The cluster means are then calc
19、ulated and the pixels are reassigned to the new cluster centres,34,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法K-均值算法步骤,若,j=1,2,k,则回到第二步,将全部样本n重新分类,重复迭代计算。若,j=1,2,k,则结束。,D)The process is repeated until when the cluster centres move by less than a preset distance,35,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法,36,8.4
20、非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法,37,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法,38,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法,可以看到,现在的每个像素都己经被分给距离最近的类,总的离差平方和最小,因此分类过程到此结束。最终得到K=2个类为(A)和(BCD)。,39,8.4 非监督分类,8.4.2 常用非监督分类算法2、ISODATA分类算法迭代自组织的数据分析算法(Iterative Selforganizing Data Analysis Techniques Algorithm)亦称ISODATA
21、算法。此种算法与K-均值算法有相似之处,即聚类中心也是通过样本均值的迭代运算来决定的,但ISODATA算法加入了一些试探性步骤和人机交互功能,能吸取中间结果所得到的经验,主要是在迭代过程中可将一类一分为二,亦可能将二类合二为一,亦即“自组织”,故这种算法已具有启发式的特点。,40,8.4 非监督分类,8.4.2 常用非监督分类算法2、ISODATA分类算法,N所要求的类别数(实际的类别数目为Nt);I允许迭代的次数(实际已迭代的次数为L);Tm每类集群中样本的最小数目;Ts 集群分类标准,每个类的分散程度的参数(如最大标准差);Tc 集群合并标准,即两个类中间的最小距离。,第一步:指定算法控制
22、参数,41,8.4 非监督分类,8.4.2 常用非监督分类算法2、ISODATA分类算法,第二步:聚类处理 在已选定的初始类别参数的基础上,按任一种距离判别函数进行分类判别,从而获得每个初始类别的集群成员。同时,对每一类集群(i)累计其成员总数(ni)、总亮度(xij)及总亮度平方(xij2),并按下式计算各类的均值M和方差2:,然后将有关数值填入类别参数搜索表,j为波段序号,42,8.4 非监督分类,8.4.2 常用非监督分类算法2、ISODATA分类算法,第三步:类别的取消处理 对上次趋近后的各类成员总数 ni 进行检查,若 niTm 表示该类(i)不可靠,应将其从搜索表中删除。同时修改类
23、别数 Ni 为 Ni-1,返回第二步。第四步:判断迭代是否结束 若当前迭代次数(L)已经达到指定的次数,即L=I,或者该次迭代所算得的各类中心Mi与上次迭代的结果差别很小(可预先给定一个阈值),则趋近结束。此时搜索表中的有关参数将作为基准类别参数,并用于构建最终的判别函数。否则,继续进行以下步骤。,43,8.4 非监督分类,8.4.2 常用非监督分类算法2、ISODATA分类算法,第五步:类别的分裂处理对搜索表中的每一类进行考核。判断其最大的标准差分量,是否超过限值Ts,即若imaxTs,并满足下列条件之一者,则第I类需要进行分类处理:,(条件一)Ni 即第i类标准差大于总平均标准差,其中,4
24、4,8.4 非监督分类,8.4.2 常用非监督分类算法2、ISODATA分类算法,第五步:类别的分裂处理,分裂处理过程如下:定义两个新类别 i 和 i 取代被分裂的类别,它们的均值和方差分别定义如下:,同时,修改类别总数 Ni 为 Ni+1,并修改搜索表。注意每次允许分裂的类别数一般不应超过已有类别数的一半。分裂处理结束后返回第二步作下一次迭代。若本次迭代没有一个类别需要分裂,则转入下一步进行合并处理。,45,8.4 非监督分类,8.4.2 常用非监督分类算法2、ISODATA分类算法,第六步:类别的合并处理 首先对已有的类别计算每两类(i与k)中心间的距离Dik,可以选用距离判别函数中的任一
25、个,这里我们以绝对值距离为例:,然后将所有Dik与限值Tc相互比较,若DikTc,则把这两类(i,k)的合并为一类。合并后新类别的均值和方差为:,同时修改总数Ni 为 Ni-1,并把搜索表中的相应内容进行更新。在迭代过程中,每次合并后的类别总数不应小于指定的类别数N的半数,并类处理结束后返回第二步进行下一次迭代。,46,8.4 非监督分类,8.4.2 常用非监督分类算法2、ISODATA分类算法,ISODATA法实质上是以初始类别为“种子”进行自动迭代聚类的过程,它可以自动地进行类别的“合并”和“分裂”,其各个参数也在不断地聚类调整中逐渐确定,并最终构建所需要的判别函数。因此,可以说基准类别参
26、数的确定过程,也正是利用光谱特征本身的统计性质对判别函数的不断调整和“训练”的过程。,47,8.5 监督分类,通过对工作地区图像的目视判读、实地勘查或结合GIS,我们可以获得部分地物的分类信息。利用己知地物的信息对未知地物进行分类的方法称为监督分类。监督分类的前提是己知遥感图像上样本区内地物的类别,该样本区又称为训练区。监督分类的基本过程是:首先根据已知的样本类别和类别的先验知识确定判别准则,计算判别函数,然后将未知类别的样本值代入判别函数,依据判别准则对该样本所属的类别进行判定。在这个过程中,利用己知类别样本的特征值求解判别函数的过程称之为学习或训练。,48,8.5 监督分类,训练区,训练区
27、用来确定图像中己知类别像素的特征。这些特征对于监督分类来说是必不可少的。训练区在遥感处理系统中被称为“感兴趣区”。在ENVI系统中,该区域称为ROI,在ERDAS系统中称为AOI。本文使用ROI表示训练区。在建立训练区之前,首先要根据工作要求,收集地区资料,包括地形图、土地利用现状图、土壤图、植被图、行政图等,根据这些资料,确定分类对象及其分类系统。,49,8.5 监督分类,训练区,1.训练区的类型ROI有如下三种:.点:单个像素。.线:直线或折线主要是线性地物,较窄的河流、道路.面:连续的分布区。例如大面积的水体、绿地、城镇等。一类地物的训练区可以是一个或多个ROI,可以是点、线或面。在遥感
28、系统中确定ROI时,需要同时确定如下参数:1)ROI名称可以直接使用地物类的名称作为ROI名称,例如,“道路”。2)颜色。使用的颜色应该与分类系统的要求保持一致。具体工作时要参照本行业的特定分类要求来定。3)样本数目。ROI中包括的像素数即为统计分析中使用的样本数。样本数应该足够多。确定ROI后,需要进一步分析ROI的可分性。即计算ROI之间的分离指数。如果选用的特征的分离性较差,那么应该考虑分类中不要使用该特征。,50,8.5 监督分类,训练区,2.训练区的选择 根据分类系统的要求,结合实地调查,在遥感图像上勾绘各类典型地物的分布范围,即训练区。选取训练样区必须根据先验知识,并尽可能参考现势
29、性强的图件和文字资料,以便能够选出最有代表性和波谱特征比较均一的地段。有条件的话,应该进行实地调查。选择训练区时应注意以下问题:(1)训练区必须具有典型性和代表性,即所含类型应与研究地域所要区分的类别一致。(2)使用的图件时间和空间上要保持一致性,以便于确定数字图像与地形图(或土地利用图、地质图、航片等)的对应关系。(3)训练区的选取方式有按坐标输入式和人机对话式两类。(4)训练样本的数目。训练样本数据用来计算类均值和协方差矩阵。,51,8.5 监督分类,训练区,3.训练区的调整 在监督分类中,选好训练样区并进行不断的调整与优化具有十分重要的作用。选取的样区不同,分类结果就会有差异,甚至差异很
30、大。训练区选定后,便可以利用训练区中的样本得到相应地物类的光谱特征,进行监督分类。,52,8.5 监督分类,8.5.1 平行管道分类8.5.2 最小距离分类8.5.3 最大似然分类,53,8.5 监督分类,8.5.1 平行管道分类考虑到每一类别训练集内数值变差范围,引入类别变差灵敏度的概念。这个变差范围可由每波段内的最高与最低数字来确定,并且变差范围在二通道散点图上表现为一个矩形窗口。依据这个类别变差范围或判定区来对未知像元分类,若像元是在类别变差范围之内,则可将其归入所在的类别。如果像元是在所有类别变差范围之外,则规定它为“未知”像元。这些矩形窗口的多维类似体称为“平行六面体”。,54,8.
31、5 监督分类,8.5.1 平行管道分类,该法判决的原理是对图像中每个像素的光谱响应曲线进行相似性比较,凡其光谱响应曲线接近并且近乎平行的像素都归为同一类。否则属于另一类。现假设我们对图像地物的类属没有任何先验知识,因而每类的初始参数要在分类过程中逐步建立。其分类判决过程如下:(1)在计算机中开辟一个分类图像数组。(2)在原始遥感图像上,选取c个类别的训练区域第i个类别训练区域Ti的样本个数为Ni,计算每个类别的均值(mi或i):具体地说,若样本y由K个波段组成,则均值mi 是K维向量,每个分量是训练区域相应波段的像素均值。(3)选择一个光谱响应相似性量度阈值T。由基准光谱响应曲线为中心,以T为
32、半径形成的平行管道代表了同类地物光谱响应曲线随机变动的容忍范围,落入一个平行管道的各响应地物将被认为属于同一类别。,55,8.5 监督分类,8.5.1 平行管道分类,(4)以行、列的顺序依次对图像中所有的像素进行如下处理:1)读其各波段的灰度值xi1、xi2、xi3和xi4。2)按以下分类判决规则(即分类器)逐个与前面步骤求得的类别中心进行比较判别:若|xi1-m1|T且|xi2-m2|T且|xi3-m3|T且|xi4-m4|T同时成立,则像素i属于该类。否则,不属于该类,转入与下一类比较。式中:T是预置的门限(即上述平行管道的半径),可以在分类过程中作相应的调整。3)通过上述判决,如果该像素
33、属于任何一类,则把其类别编码号填入分类图像中与该像素相应的位置上去。4)通过上述判决,如果该像素不属于任伺类,则把该像素各波段的灰度值作为新的一类基准光谱响应曲线,按顺序充实到搜索表中去。(5)当完成第(4)步后,分类图像已经形成。与此同时,所有各类的基准响应曲线也都逐步形成,它实际上代表了各类集群统计中心的随机矢量灰度分量的近似值。,56,8.5 监督分类,8.5.2 最小距离分类,最小距离法是利用训练样本中各类别在各波段的均值,根据各像元与训练样本平均值距离的大小来决定其类别。首先应确定每一类别光谱的平均值,这些值称为平均矢量。图中,用“+”表示各类别的平均值。将这两个通道的像元值作为位置
34、坐标(如散点图上所描绘的一样),便可以计算未知像元值与每一类别光谱平均值之间的距离,从而确定未知类别的像元应该属于哪一类。如图中点I,算出这些距离后,即可确定这些未知像元应该属于离它“最近”的一类,假如像元离分析者所确定的任何一个类别平均值的距离都很远,则把这种像元归为“朱知”类。,57,8.5 监督分类,8.5.2 最小距离分类,同一类别的特征矢量在特征空间内完全聚集成团状(集群),每个团(集群)都有一个中心。这些团内点的数目越多,也即密度越大或点与中心的距离越近,就越可以肯定,它们是属于一个类别,所以点间的距离成为重要的判断参量。同一类别中点间的距离一般来说比不同类别间的距离要小。也可以认
35、为,一个点属于某一类,一定与这个类别中心的距离比与其他类别中心的距离小。因此,在集群(团)中心已知的情况下,以每个点与集群中心的距离作为类别判定的准则,就可以完成分类工作。运用距离判别函数时,要求各个类别集群的中心位置Mi(均值)是已知点,对于光谱特征空间中的任一点k,计算它到各类中心点的距离di(xk)(i=1,2,n),若di(xk)dj(xk),则k像元属于i类,否则k不属于i类。此处d(x)就成为距离判别函数,上式则视为相应的判别准则。,58,8.5 监督分类,8.5.3 最大似然分类maximum likelihood classification定义:在两类或多类判决中,用统计方法
36、根据最大似然比贝叶斯判决准则法建立非线性判别函数集而进行分类的一种图像分类方法。最大似然法是经典的分类方法,已在宽波段遥感图像分类中普遍采用。它主要根据相似的光谱性质和属于某类的概率最大的假设来指定每个像元的类别。,59,8.5 监督分类,8.5.3 最大似然分类,其基本思想是:1)地物类数据在空间中构成特定的点群;2)每一类的每一维数据都在自己的数轴上为正态分布,该类的多维数据就构成了一个多维正态分布(各类的多维正态分布模型各有其分布特征,例如,所在位置、形状、密集或分散的程度等。对于具有三个特征的正态分布来说,每一类的数据就是一个近似钟形的立方体。不同类形成的“钟”在高低、粗细、尖阔等方面
37、都不相同);3)根据各类的已知数据,可以构造出各类的多维正态分布模型(实际为各类中各数据向量的频率,即概率密度函数或概率分布函数);4)在此基础上,对于任何一个像素,可反过来求它属于各类的概率,取最大概率对应的类为分类结果。,基本原理 最大似然法假设遥感图像的每个波段数据都为正态分布。,60,8.6 其他分类方法,决策树法,基本思想:首先计算所有类别之间的距离,合并距离最近的两类形成一个新类,然后计算新类与其它类别之间的距离,重复前面的工作,直到最终所有类别都合并为一大类,形成整个树结构的根部。每次合并产生树结构中的一个结点,分类树有多个结点和分枝组成,最下面一层的结点称为根结点,最上面一层的
38、结点为终端结点,每个终端结点包含为原始一类。,61,8.7 分类后处理,8.7.1 碎斑处理8.7.2 类别合并8.7.3 分类结果统计8.7.4 类间可分离性分析,62,8.7 分类后处理,8.7.1 碎斑处理指去掉分类图中过于孤立的那些类的像素,或把它们归并到包围相邻的较连续分布的那些类。基本思想大体上是给每个类规定一个应保留的最小连片像素数,然后将小于此数的孤立像素合并到与其相邻的或包围它的较大的连片像素类中。调整的原理服从“多数”原则。例如,在分类图像中可对每个像素进行如下处理:若某像素的8个邻接像素中至少有6个像素同属于某一类C,则该像素的类别属性也调整为C;否则,保持该像素己分的类
39、别属性不变。该过程也需要有若干次迭代后才能结束。,63,8.7 分类后处理,8.7.2 类别合并非监督分类前不知道实际有多少地物类,在策略上总是先分出较多的类,然后对照实地情况或根据己有知识,确定最后需要的类别,因此,需要将某些光谱上不同的类(光谱类)合并为一个地物类。监督分类虽然知道实际有哪些地物类,但同物异谱现象会产生错误的分类结果。分类后处理中的类合并处理,在ENVI中是对类进行合并的一部分,在ERDAS中叫做重编码。其基本思想是将要合并的两个或两个以上类的编码和颜色改为相同的编码和颜色。例如将第5类(黄色)并入第1类(红色),只要将第5类的编码改为1,颜色由黄改为红就可以了。,64,8
40、.7 分类后处理,8.7.3 分类结果统计分类结果统计是图像分类报告中必须包含的内容,包括各类在各波段的平均值、标准差、最低值、最高值、协方差矩阵、相关系数矩阵、特征值、各类的像素数和占总像素数的百分比、精度检验等。根据这些统计参数可以绘制各类的光谱曲线,计算相应的植被指数等。,65,8.7 分类后处理,8.7.4 类间可分离性分析可分离性可用各类之间的距离矩阵来表示。由于距离是类间相似性的一个重要量度,因而通过该矩阵可确定最为相似的类。,66,8.8 分类精度分析,遥感图像分类精度分析通常把分类图与标准数据(图件或地面实测调查)进行比较,然后用正确分类的百分比来表示分类精度。实际工作中,多采
41、用抽样方式以部分像素或部分类别代替整幅图像来进行精度分析。遥感图像分类精度分为非位置精度和位置精度。非位置精度以一个简单的数值,如面积、像素数目等表示分类精度,由于未考虑位置因素,类别之间的错分结果彼此平衡,在一定程度上抵消了分类误差,使分类精度偏高。我国早期分类工作中的精度评价多是非位置精度评价。位置精度分析将分类的类别与其所在的空间位置进行统一检查。目前普遍采用混淆矩阵的方法,即以Kappa系数评价整个分类图的精度,以条件Kappa系数评价单一类别的精度。,67,8.8 分类精度分析,1.混淆矩阵2.Kappa系数,68,8.8 分类精度分析,1.混淆矩阵混淆矩阵(Confusion Ma
42、trix)是由n行n列组成的矩阵,用来表示分类结果的精度。这里,n代表类别数。有时,该矩阵称为误差矩阵。混淆矩阵中,检验用的实际类别来源有三种,一种是分类前选择的训练区和训练样本时确定的各个类别及其空间分布图,另一种是类别己知的局部地段的专业类型图,第三种是实地调查的结果。,69,8.8 分类精度分析,1.混淆矩阵,混淆矩阵的列方向(左右)依次排列着实际类别(检验数据)的第1类,第2类,第m类的代码或名称;矩阵的行方向(上下)依次排列着分类结果各类别的第1类,第2类,第m类的代码或名称。矩阵中的元素是分属各类的像素数或其占总像素数的百分比。显然,矩阵主对角线(从左上到右下的对角线)上的数字就是
43、分类正确的像素数或其百分比。主对角线上的像素数越大或百分比越高,分类精度就越高。主对角线以外的数字就是错分的像素数或其百分比。这些数字或百分比越小,错分率就越小,精度就越高。主对角线上像素数的和除以参与计算混淆矩阵的像素总数,就是分类精度的初步估计。,70,8.8 分类精度分析,1.混淆矩阵,对于类别X,1)运行误差(Commit Error):又称错分误差,是图像的某一类的地物被错分到其他类别的百分比。运行误差=(E+F)/G 2)用户精度(Users Accuracy):表示从分类结果图中任取一个随机样本,其所具有的类型与地面实际类型相同的条件概率,表示分类结果中各类别的可信度,即这幅图的
44、可靠性。用户精度=A/G=100%-运行误差,71,8.8 分类精度分析,1.混淆矩阵,对于类别X,3)结果误差(Omission Error):又称漏分误差,是实际的某一类地物被错误地分到其它类别的百分比。结果误差=(B+C)/D 4)生产者精度(Producers Accuracy):又称制图精度。表示实际的任意一个随机样本与分类图上同一地点的分类结果相一致的条件概率,用于比较各分类方法的好坏。生产者精度=A/D=100%-结果误差,72,8.8 分类精度分析,1.混淆矩阵,73,8.8 分类精度分析,2.Kappa系数,Kappa系数是一个测定两幅图之间吻合度或精度的指标。Kappa统计
45、可以表示为:,m 是误差矩阵中总列数(即总的类别数);xii 是混淆矩阵中第i行第i列上像素数量(即正确分类的数目);xi+和x+i,分别是第i行和第i列的总像素数量;N 是用于精度评估的总像素数量。,分类总体精度与Kappa的区别在于总体精度只用到了位于对角线上的像素数量,Kappa则考虑了对角线上被正确分类的像素,又考虑了不在对角线上的各种漏分和错分错误。,74,8.8 分类精度分析,2.Kappa系数,研究认为,Kappa系数与分类精度有如下表所示的关系。,在统计学中,一般把Kappa系数列为非参数统计(检验)方法,用来衡量两个人对同一物体进行评价时,其评定结论的一致性。1表示有很好的一致性,0表示一致性不比可能性(偶然性)更好。大于0.75表示评价人之间有很好的一致性,而小于0.40则表示一致性不好。,75,8.8 分类精度分析,2.Kappa系数,Kappa系数值的意义,