1. 问题之前我们讨论的PCA、ICA也好,对样本数据来言,可以是没有类别标签y的。回想我们做回归时,如果特征太多,那么会产生不相关特征引入、过度拟合等问题。我们可以使用PCA来降维,但PCA没有将类别标签考虑进去,属于无监督的。 比如回到上次提出的文档中含有“learn”和“study”的问题,使用PCA后,也许可以将这两个特征合并为一个,降了维度。但假设我们的类别标签y是判断这篇文章的topic是不是有关学习方面的。那么这两个特征对y几乎没什么影响,完全可以去除。 再举一个例子,假设我们对一张100*100像素的图片做人脸识别,每个像素是一个特征,那么会有10000个特征,而对应的类别标签y仅仅是0/1值,1代表是人脸。这么多特征不仅训练复杂,而且不必要特征对结果会带来不可预知的影响,但我们想得到降维后的一些最佳特征(与y关系最密切的),怎么办呢? 2. 线性判别分析(二类情况)回顾我们之前的logistic回归方法,给定m个n维特征的训练样例(i从1到m),每个对应一个类标签。我们就是要学习出参数,使得(g是sigmoid函数)。 现在只考虑二值分类情况,也就是y=1或者y=0。 为了方便表示,我们先换符号重新定义问题,给定特征为d维的N个样例,,其中有个样例属于类别,另外个样例属于类别。 现在我们觉得原始特征数太多,想将d维特征降到只有一维,而又要保证类别能够“清晰”地反映在低维数据上,也就是这一维就能决定每个样例的类别。 我们将这个最佳的向量称为w(d维),那么样例x(d维)到w上的投影可以用下式来计算 这里得到的y值不是0/1值,而是x投影到直线上的点到原点的距离。 当x是二维的,我们就是要找一条直线(方向为w)来做投影,然后寻找最能使样本点分离的直线。如下图: 从直观上来看,右图比较好,可以很好地将不同类别的样本点分离。 接下来我们从定量的角度来找到这个最佳的w。 首先我们寻找每类样例的均值(中心点),这里i只有两个 由于x到w投影后的样本点均值为 由此可知,投影后的的均值也就是样本中心点的投影。 什么是最佳的直线(w)呢?我们首先发现,能够使投影后的两类样本中心点尽量分离的直线是好的直线,定量表示就是: J(w)越大越好。 但是只考虑J(w)行不行呢?不行,看下图 样本点均匀分布在椭圆里,投影到横轴x1上时能够获得更大的中心点间距J(w),但是由于有重叠,x1不能分离样本点。投影到纵轴x2上,虽然J(w)较小,但是能够分离样本点。因此我们还需要考虑样本点之间的方差,方差越大,样本点越难以分离。 我们使用另外一个度量值,称作散列值(scatter),对投影后的类求散列值,如下 从公式中可以看出,只是少除以样本数量的方差值,散列值的几何意义是样本点的密集程度,值越大,越分散,反之,越集中。 而我们想要的投影后的样本点的样子是:不同类别的样本点越分开越好,同类的越聚集越好,也就是均值差越大越好,散列值越小越好。正好,我们可以使用J(w)和S来度量,最终的度量公式是 接下来的事就比较明显了,我们只需寻找使J(w)最大的w即可。 先把散列值公式展开 我们定义上式中中间那部分 这个公式的样子不就是少除以样例数的协方差矩阵么,称为散列矩阵(scatter matrices) 我们继续定义 称为Within-class scatter matrix。 然后,我们展开分子 称为Between-class scatter,是两个向量的外积,虽然是个矩阵,但秩为1。 那么J(w)最终可以表示为 在我们求导之前,需要对分母进行归一化,因为不做归一的话,w扩大任何倍,都成立,我们就无法确定w。因此我们打算令,那么加入拉格朗日乘子后,求导 这个公式称为Fisher linear discrimination。 那么 代入最后的特征值公式得 由于对w扩大缩小任何倍不影响结果,因此可以约去两边的未知常数和,得到 至此,我们只需要求出原始样本的均值和方差就可以求出最佳的方向w,这就是Fisher于1936年提出的线性判别分析。 看上面二维样本的投影结果图: 3. 线性判别分析(多类情况)前面是针对只有两个类的情况,假设类别变成多个了,那么要怎么改变,才能保证投影后类别能够分离呢? 我们之前讨论的是如何将d维降到一维,现在类别多了,一维可能已经不能满足要求。假设我们有C个类别,需要K维向量(或者叫做基向量)来做投影。 为了像上节一样度量J(w),我们打算仍然从类间散列度和类内散列度来考虑。 当样本是二维时,我们从几何意义上考虑: 其中和与上节的意义一样,是类别1里的样本点相对于该类中心点的散列程度。变成类别1中心点相对于样本中心点的协方差矩阵,即类1相对于的散列程度。 需要变,原来度量的是两个均值点的散列情况,现在度量的是每类均值点相对于样本中心的散列情况。类似于将看作样本点,是均值的协方差矩阵,如果某类里面的样本点较多,那么其权重稍大,权重用Ni/N表示,但由于J(w)对倍数不敏感,因此使用Ni。 其中 上面讨论的都是在投影前的公式变化,但真正的J(w)的分子分母都是在投影后计算的。下面我们看样本点投影后的公式改变: 这两个是第i类样本点在某基向量上投影后的均值计算公式。 W是基向量矩阵,是投影后的各个类内部的散列矩阵之和,是投影后各个类中心相对于全样本中心投影的散列矩阵之和。 回想我们上节的公式J(w),分子是两类中心距,分母是每个类自己的散列度。现在投影方向是多维了(好几条直线),分子需要做一些改变,我们不是求两两样本中心距之和(这个对描述类别间的分散程度没有用),而是求每类中心相对于全样本中心的散列度之和。 然而,最后的J(w)的形式是 由于我们得到的分子分母都是散列矩阵,要将矩阵变成实数,需要取行列式。又因为行列式的值实际上是矩阵特征值的积,一个特征值可以表示在该特征向量上的发散程度。因此我们使用行列式来计算(此处我感觉有点牵强,道理不是那么有说服力)。 整个问题又回归为求J(w)的最大值了,我们固定分母为1,然后求导,得出最后结果(我翻查了很多讲义和文章,没有找到求导的过程) 与上节得出的结论一样 最后还归结到了求矩阵的特征值上来了。首先求出的特征值,然后取前K个特征向量组成W矩阵即可。 注意:由于中的 秩为1,因此的秩至多为C(矩阵的秩小于等于各个相加矩阵的秩的和)。由于知道了前C-1个后,最后一个可以有前面的来线性表示,因此的秩至多为C-1。那么K最大为C-1,即特征向量最多有C-1个。特征值大的对应的特征向量分割性能最好。 由于不一定是对称阵,因此得到的K个特征向量不一定正交,这也是与PCA不同的地方。
关于进行多类分类的问题:一种方法是“one against the rest “方法构造C个分类器(每个分类器的作用都是二分的),然后把这些结果综合起来;另一种方法是成对分类,每一个分类器把两个类别进行分开(产生(C(C-1)/2)个类.... (参考维基百科)
构造变换矩阵时为避免出现SW为奇异矩阵,样本数量要大于样本的维数。
向量投影给定一个向量u和v,求u在v上的投影向量,如下图。 假设u在v上的投影向量是u’,且向量u和v的夹角为theta。一个向量有两个属性,大小和方向,我们先确定u’的大小(即长度,或者模),从u的末端做v的垂线,那么d就是u’的长度。而u’和v的方向是相同的,v的方向v/|v|也就是u’的方向。所以有 (1) 再求d的长度。 (2) 最后求cos(theta) (3) 联合求解方程(1)(2)(3)得到 这就是最终的投影向量。 而这个向量的长度d是 ============================ 以下是旧的推导,也保留。
|
- 浏览: 49560 次
- 性别:
- 来自: 重庆
最新评论
-
nail2008:
我在用jBPM的时候,jBPM生成的按钮默认id为id=&qu ...
关于Extjs中(uncaught exception: No center region defined in BorderLayout) -
liang8113:
对jdom的认识和用法小解 -
xjnine:
同学,我讲的东东不是说extjs中那三个文件是最关键的。而是说 ...
extjs中断网后,图片显示不正常问题 -
cainwise:
一般extjs我们需要配置三个文件也就是说他最核心的文件
分别 ...
extjs中断网后,图片显示不正常问题
相关推荐
例如,BHLDA_test.m可能包含一个改进的LDA版本,HPCA_test.m可能涉及PCA的一种变体,而LDA_test.m和PCA_test.m则直接与基本的LDA和PCA算法的实现相关。SUBLDA.m可能涉及到子空间学习的LDA算法,用于进一步优化分类...
标题中的"LDA,PCA算法"指的是两种在机器学习和数据降维领域广泛应用的算法:线性判别分析(Linear Discriminant Analysis, LDA)和主成分分析(Principal Component Analysis, PCA)。这两种方法常用于特征提取和...
标题中的“9-LDA与PCA算法.7z”指的是一个包含有关线性判别分析(LDA)和主成分分析(PCA)算法的压缩文件。这些是两种在数据分析和机器学习领域广泛使用的降维技术。 **线性判别分析(LDA)** 线性判别分析是一种...
线性判别分析(LDA)与主成分分析(PCA)是两种常用的降维算法。尽管它们都旨在简化数据,但它们的原理和应用场景有着明显的不同。 首先,线性判别分析(LDA)是一种监督学习方法,由统计学家罗纳德·费舍尔...
本程序集是针对人脸识别任务,利用Matlab编程实现的LDA和PCA算法。下面我们将详细介绍这两种方法以及它们在人脸识别中的应用。 1. 主成分分析(PCA) PCA是一种无监督学习方法,它通过线性变换将原始数据转换到一个...
PCA算法是模式识别中常用的线性变换方式,它通过少数具有代表性的特征来表示原始数据,从而实现特征提取。文献[5]使用Radon变换结合PCA与LDA提取人脸图像特征,分类器采用K近邻KNN与支持向量机SVM。 LDA算法是模式...
基于PCA的人脸识别算法是本文的核心内容,PCA算法可以对图像信号进行降维,保留关键的特征值。通过保留一定百分比的特征值,可以保证算法的准确性。 同时,本文还提出了人脸检测算法,基于肤色特征的方法可以快速...
3.用处:用于PCA和LDA降维特征提取算法编程学习 4.指向人群:本硕博等教研学习使用 5.运行注意事项: 使用matlab2021a或者更高版本测试,运行里面的Runme_.m文件,不要直接运行子函数文件。运行时注意matlab左侧...
PCA算法的理论基础是K-L 变换,它可以把图像信号投影到信号子空间中,得到的协方差矩阵是对角矩阵,最大限度地除去信号分量之间的相关性。在保留关键值的基础上进行降维,以保证准确性。 本文按信息量的百分比保留...
### LDA与PCA算法详解 #### 一、线性判别分析(LDA) **1.1 定义与背景** 线性判别分析(Linear Discriminant Analysis, LDA)是一种经典的统计技术,用于数据预处理中的降维,并且特别适用于分类任务。LDA由...
在MATLAB中的`PCA_face.m`文件很可能是实现PCA算法的脚本。它可能包含了以下步骤: 1. 数据预处理:减去均值或归一化数据。 2. 计算数据的协方差矩阵。 3. 求解协方差矩阵的特征值和特征向量。 4. 选择具有最大特征...
在预处理后,PCA算法被用来提取图像的关键特征。通过将人脸图像转化为高维向量,PCA能够找到数据的主要变异方向,提取出最具代表性的特征,形成主元子空间。这一步骤极大地降低了数据的维度,同时也保留了数据的主要...
本压缩包包含的资源是关于PCA、LDA以及基于这两种方法的人脸检测算法的Matlab实现。 **PCA(主成分分析)**: PCA是一种无监督学习方法,其主要目标是通过旋转数据,找到数据方差最大的方向,即主成分,从而降低...
在MATLAB中,可以使用内置函数`pca()`进行PCA,使用自定义的LDA算法或内置的`fisherdiscrim()`进行LDA。 总的来说,这个资源对于理解PCA和LDA的结合使用以及在MATLAB中的实现非常有价值。通过学习和实践这个代码,...
标题中的"PCAPLDA.rar_lda_lda pca_pca whitening_pca+lda_whitening"提到了几个关键概念,包括PCA(主成分分析)和LDA(线性判别分析),以及“whitening”(白化)。这些是机器学习和数据预处理中的重要方法,主要...
课程设计大作业,机器学习实战案例,采用PCA算法对yale人脸数据集进行建模分析(PCA建模源码+YaleFaces人脸数据集) 课程设计大作业,机器学习实战案例,采用PCA算法对yale人脸数据集进行建模分析(PCA建模源码+...
通过PCA算法求得训练样本的特征子空间,并在此基础上计算出LDA算法的特征子空间。将PCA算法与LDA算法的特征子空间进行融合,获得PCA-LDA算法的融合特征空间。训练样本与测试样本分别朝融合特征空间投影,从而得到...
PCA算法在人脸识别中的优点包括减少计算复杂度、抵抗噪声和提高识别速度。然而,它也有局限性,比如对表情变化、姿态变化和遮挡的鲁棒性较弱。为解决这些问题,后续的研究引入了如LDA(线性判别分析)、PCA-LDA、...
PCA算法用于降维和特征提取,而LDA算法用于寻找最优投影向量,以实现人脸数据的进一步压缩和分类信息的提取。最后,使用K近邻分类器来实现人脸分类。 1.PCA算法 PCA算法是人脸识别技术中的一种常用特征抽取方法。...