四大机器学习降维算法PCALDALLELaplacian-Eigenmaps.docx

上传人:夺命阿水 文档编号:15002 上传时间:2022-06-29 格式:DOCX 页数:12 大小:443.96KB
返回 下载 相关 举报
四大机器学习降维算法PCALDALLELaplacian-Eigenmaps.docx_第1页
第1页 / 共12页
四大机器学习降维算法PCALDALLELaplacian-Eigenmaps.docx_第2页
第2页 / 共12页
四大机器学习降维算法PCALDALLELaplacian-Eigenmaps.docx_第3页
第3页 / 共12页
四大机器学习降维算法PCALDALLELaplacian-Eigenmaps.docx_第4页
第4页 / 共12页
四大机器学习降维算法PCALDALLELaplacian-Eigenmaps.docx_第5页
第5页 / 共12页
点击查看更多>>
资源描述

《四大机器学习降维算法PCALDALLELaplacian-Eigenmaps.docx》由会员分享,可在线阅读,更多相关《四大机器学习降维算法PCALDALLELaplacian-Eigenmaps.docx(12页珍藏版)》请在课桌文档上搜索。

1、机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数 f : x-y,其中x是原始数据点的表达,目前最多使用向量表达形式。 y是数据点映射后的低维向量表达,通常y的维度小于x的维度当然提高维度也是可以的。f可能是显式的或隐式的、线性的或非线性的。目前大局部降维算法处理向量表达的数据,也有一些降维算法处理高阶量表达的数据。之所以使用降维后的数据表示是因为在原始的高维空间中,包含有冗余信息以与噪音信息,在实际应用例如图像识别中造成了误差,降低了准确率;而通过降维,我们希望减少冗余信息所造成的误差,提高识别或其他应用的精度。又或者希

2、望通过降维算法来寻找数据部的本质结构特征。在很多算法中,降维算法成为了数据预处理的一局部,如PCA。事实上,有一些算法如果没有降维预处理,其实是很难得到很好的效果的。主成分分析算法PCAPrincipal Component Analysis(PCA)是最常用的线性降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中表示,并期望在所投影的维度上数据的方差最大,以此使用较少的数据维度,同时保存住较多的原数据点的特性。通俗的理解,如果把所有的点都映射到一起,那么几乎所有的信息如点和点之间的距离关系都丢失了,而如果映射后方差尽可能的大,那么数据点那么会分散开来,以此来保存更多的信息。

3、可以证明,PCA是丢失原始数据信息最少的一种线性降维方式。实际上就是最接近原始数据,但是PCA并不试图去探索数据在结构设n维向量w为目标子空间的一个坐标轴方向称为映射向量,最大化数据映射后的方差,有:其中m是数据实例的个数, xi是数据实例i的向量表达, x拔是所有数据实例的平均向量。定义W为包含所有映射向量为列向量的矩阵,经过线性代数变换,可以得到如下优化目标函数:其中tr表示矩阵的迹,A是数据协方差矩阵。容易得到最优的W是由数据协方差矩阵前k个最大的特征值对应的特征向量作为列向量构成的。这些特征向量形成一组正交基并且最好地保存了数据中的信息。PCA的输出就是Y = WX,由X的原始维度降低

4、到了k维。PCA追求的是在降维之后能够最大化保持数据的在信息,并通过衡量在投影方向上的数据方差的大小来衡量该方向的重要性。但是这样投影以后对数据的区分作用并不大,反而可能使得数据点揉杂在一起无法区分。这也是PCA存在的最大一个问题,这导致使用PCA在很多情况下的分类效果并不好。具体可以看下列图所示,假设使用PCA将数据点投影至一维空间上时,PCA会选择2轴,这使得原本很容易区分的两簇点被揉杂在一起变得无法区分;而这时假设选择1轴将会得到很好的区分结果。Discriminant Analysis所追求的目标与PCA不同,不是希望保持数据最多的信息,而是希望数据在降维后能够很容易地被区分开来。后面

5、会介绍LDA的方法,是另一种常见的线性降维方法。另外一些非线性的降维方法利用数据点的局部性质,也可以做到比拟好地区分结果,例如LLE,Laplacian Eigenmap等。以后会介绍。LDALinear Discriminant Analysis (也有叫做Fisher Linear Discriminant)是一种有监视的supervised线性降维算法。与PCA保持数据信息不同,LDA是为了使得降维后的数据点尽可能地容易被区分!假设原始数据表示为X,m*n矩阵,m是维度,n是sample的数量既然是线性的,那么就是希望找到映射向量a,使得 aX后的数据点能够保持以下两种性质:1、同类的数

6、据点尽可能的接近within class2、不同类的数据点尽可能的分开between class所以呢还是上次PCA用的这图,如果图中两堆点是两类的话,那么我们就希望他们能够投影到轴1去PCA结果为轴2,这样在一维空间中也是很容易区分的。接下来是推导,因为这里写公式很不方便,我就引用Deng Cai教师的一个ppt中的一小段图片了:思路还是非常清楚的,目标函数就是最后一行Ja),一飘就是映射后的中心用来评估类间距,s一瓢就是映射后的点与中心的距离之和用来评估类距。J(a)正好就是从上述两个性质演化出来的。因此两类情况下:加上aa=1的条件类似于PCA可以拓展成多类:以上公式推导可以具体参考pa

7、ttern classification书中的相应章节,讲fisher discirminant的OK,计算映射向量a就是求最大特征向量,也可以是前几个最大特征向量组成矩阵A=a1,a2,.ak之后,就可以对新来的点进展降维了:y = AX线性的一个好处就是计算方便!可以发现,LDA最后也是转化成为一个求矩阵特征向量的问题,和PCA很像,事实上很多其他的算法也是归结于这一类,一般称之为谱spectral方法。线性降维算法我想最重要的就是PCA和LDA了,后面还会介绍一些非线性的方法。局部线性嵌入LLELocally linear embeddingLLE是一种非线性降维算法,它能够使降维后的数

8、据较好地保持原有流形结构。LLE可以说是流形学习方法最经典的工作之一。很多后续的流形学习、降维方法都与LLE有密切联系。见图1,使用LLE将三维数据b映射到二维c之后,映射后的数据仍能保持原有的数据流形红色的点互相接近,蓝色的也互相接近,说明LLE有效地保持了数据原有的流行结构。但是LLE在有些情况下也并不适用,如果数据分布在整个封闭的球面上,LLE那么不能将它映射到二维空间,且不能保持原有的数据流形。那么我们在处理数据中,首先假设数据不是分布在闭合的球面或者椭球面上。图1 LLE降维算法使用实例LLE算法认为每一个数据点都可以由其近邻点的线性加权组合构造得到。算法的主要步骤分为三步:(1)寻

9、找每个样本点的k个近邻点;2由每个样本点的近邻点计算出该样本点的局部重建权值矩阵;3由该样本点的局部重建权值矩阵和其近邻点计算出该样本点的输出值。具体的算法流程如图2所示:图 2 LLE算法步骤Laplacian Eigenmaps 拉普拉斯特征映射继续写一点经典的降维算法,前面介绍了PCA,LDA,LLE,这里讲一讲Laplacian Eigenmaps。其实不是说每一个算法都比前面的好,而是每一个算法都是从不同角度去看问题,因此解决问题的思路是不一样的。这些降维算法的思想都很简单,却在有些方面很有效。这些方法事实上是后面一些新的算法的思路来源。Laplacian Eigenmaps1 看问

10、题的角度和LLE有些相似,也是用局部的角度去构建数据之间的关系。它的直观思想是希望相互间有关系的点在图中相连的点在降维后的空间中尽可能的靠近。Laplacian Eigenmaps可以反映出数据在的流形结构。使用时算法具体步骤为:步骤1:构建图使用某一种方法来将所有的点构建成一个图,例如使用KNN算法,将每个点最近的K个点连上边。K是一个预先设定的值。步骤2:确定权重确定点与点之间的权重大小,例如选用热核函数来确定,如果点i和点j相连,那么它们关系的权重设定为:使用最小的m个非零特征值对应的特征向量作为降维后的结果输出。前面提到过,Laplacian Eigenmap具有区分数据点的特性,可以

11、从下面的例子看出:见图1所示,左边的图表示有两类数据点数据是图片,中间图表示采用Laplacian Eigenmap降维后每个数据点在二维空间中的位置,右边的图表示采用PCA并取前两个主要方向投影后的结果,可以清楚地看到,在此分类问题上,Laplacian Eigenmap的结果明显优于PCA。图2 roll数据的降维图2说明的是,高维数据图中3D也有可能是具有低维的在属性的图中roll实际上是2D的,但是这个低维不是原来坐标表示,例如如果要保持局部关系,蓝色和下面黄色是完全不相关的,但是如果只用任何2D或者3D的距离来描述都是不准确的。下面三个图是Laplacian Eigenmap在不同参数下的展开结果降维到2D,可以看到,似乎是要把整个带子拉平了。于是蓝色和黄色差的比拟远。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 在线阅读 > 生活休闲


备案号:宁ICP备20000045号-1

经营许可证:宁B2-20210002

宁公网安备 64010402000986号