`
zhouqiang128
  • 浏览: 93957 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

SVM概述(转载)

阅读更多

SVM-1

(1) SVMSupport Vector Machine)是从瓦普尼克(Vapnik)的统计学习理论发展而来的,主要针对小样本数据进行学习、分类和预测(有时也叫回归)的一种方法,能解决神经网络不能解决的过学习问题。作者以为,类似的根据样本进行学习的方法还有基于案例的推理(Case-Based Reasoning),决策树归纳算法C4.5等,以后将详细阐述这两种方法。

(2)过学习问题:训练误差过小导致推广能力下降,即真实风险的增加。

(3)推广能力:generalization ability,也可以说是泛化能力,就是对未知样本进行预测时的精确度。

原文:A practical guide to support vector classification.

libsvm中的样本预处理的原则有2个:

1 非数值属性(Categorical Feature)

由于SVM要求被处理的数据都是实数,因此对于属性值为类别的属性要进行转换。

例如{red, green, blue},可以转换成3个属性

red   (1, 0, 0)

green (0, 1, 0)

blue  (0, 0, 1)

来表示。经验表明当这样的非数值属性的取值不是太多(这个具体数字不明确)的时候,这种编码比用一个数字来表示属性的类别要稳定的多,比如用1, 2, 3来分别表示red, green, blue就不太合适了。目前,这个过程没有实现自动处理,需要使用者根据属性取值的多少自己动手去修改。

2 缩放(scaling)

    进行缩放的原因和使用神经网络时的考虑是一样的,由于RBF网络中采用样本数据的欧式距离来计算。主要优点就是避免数值范围较大的属性控制数值范围较小的属性。另一个优点就是避免计算时的numerical difficulties. 因为核值通常依赖特征向量的内积(inner product),而较大的属性值可能导致numerical问题。因此推荐把每个属性缩放到[-1, 1]或者[0, 1]之间,而且前一个范围要比后一个好,即对列向量进行规范化,其详细解释和计算公式见http://www.faqs.org/faqs/ai-faq/neural-nets/part2/中的“Should I standardize the input variables (column vectors)?”。libsvm中没有考虑属性的类型(效益、成本、固定、偏离、区间、偏离区间 6 种不同的属性类型的规范化计算公式是不一样的,详见:徐泽水,《不确定多属性决策方法及应用》,清华大学出版社,2004。)而采用了统一的线性缩放,作者以为此处可以改进一下。???

    需要注意的是,在进行测试之前,要对测试数据进行同样的缩放操作。其实在libsvm中有程序(svmscale.exe)来进行缩放操作,也可以不用手工缩放,只要用easy.py来对(经过非数值的归一化处理之后的)原始数据直接操作即可。

   上面这两种方法基本上可以完成所有的样本的预处理了。其实只有原则 1 是需要自己手工改动的,其他工作在libsvm中的tool文件夹下都由现成的python程序处理。

 

“推广能力”是分类问题(classification,也称为模式识别问题,在概率统计中则称为判别分析问题)的一个指标。所谓推广就是在求得决策函数f(x)后,对一个新的输入x,按照y=f(x)推断出x相应的输出y。“推广能力”就是描述推广优劣的一种度量。

 

那么,决策函数f(x)是怎么回事?这要从分类问题的(数学语言描述的)定义说起,参见(邓乃扬等人的《数据挖掘中的新方法——支持向量机》,科学出版社,2005)。通俗的讲。就是一个表示x,y之间关系的函数,而x,y就是样本中的一对数据。其中x代表输入,y代表类别。分类问题就是找到这个决策函数f(x),而对于新的输入x,能够判断其所属类别y则是个预测(回归)问题。

 

统计学习理论(Vapnik V N, 许建华 张学工译, 电子工业出版社, 2004)是SVM的坚实的理论基础,其作者指出,在可以只用几个变量描述的简单世界中,传统的科学哲学的目标是“发现普遍的自然规律”。但是,这一目标在需要用很多变量描述的复杂世界中不一定可行。因此,在一个复杂世界中,我们需要放弃寻找一般规律的目标,而考虑其他目标。

//////////////////////厉害////////////////////////////////

 

VapnikThe nature of statistical learning theory(1995)一书中,作者对复杂世界的推理提出了如下法则:“在解决一个感兴趣的问题时,不要把解决一个更一般的问题作为一个中间步骤。要试图得到所需要的答案,而不是更一般的答案。很可能你拥有足够的信息来很好地解决一个感兴趣的特定问题,但却没有足够的信息来解决一个一般性的问题。

 

东亚人就是这种理论的坚决执行者,“他们注重在其所处环境中的对象,很少关心类别和普适规则,基于在特定时刻施加于对象个体上的各种作用来解释其行为。没有太多地采用形式逻辑,而常常采用各种辩证推理规则,包括综合、超越和归一。”而西方人则注重对象及其特性(即一般性规律),并且用这种假定的基于分类的规则来预测和解释对象的行为(这样经常是错误的)。形式逻辑就是西方人的“法宝”,在推理、分类和规则验证中发挥了作用。

 

SVM-2

20090324 17:26机器学习(Machine Learning, ML)的目的是根据给定的训练样本,求对某系统输入输出之间依赖关系的估计,使它(这种关系)能够对未知输出做出尽可能准确地预测。机器学习至今没有一个精确的公认的定义。作为人工智能(Artificial Intelligence, AI)的一个重要研究领域,ML的研究工作主要围绕学习机理、学习方法和面向任务这三个基本方面进行研究。模式识别、函数逼近和概率密度估计是三类基本的ML问题。

 

从数学的角度来考虑,机器学习问题就是已知n个独立同分布的观测样本,在同一组预测函数{f(x)}中求一个最优的函数对依赖关系进行估计,使期望风险R[f]最小。损失函数是评价预测准确程度的一种度量,它与预测函数f(x)密切相关。而f(x)的期望风险依赖于概率分布和损失函数,前者是客观存在的,后者是根据具体问题选定的,带有(主观的)人为的或偏好色彩。期望风险的大小直观上可以理解为,当我们用f(x)进行预测时,“平均”的损失程度,或“平均”犯错误的程度。

 

但是,只有样本却无法计算期望风险,因此,传统的学习方法用样本定义经验风险Remp[f]作为对期望风险的估计,并设计学习算法使之最小化。即所谓的经验风险最小化(Empirical Risk Minimization, ERM)归纳原则。经验风险是用损失函数来计算的。对于模式识别问题的损失函数来说,经验风险就是训练样本错误率;对于函数逼近问题的损失函数来说,就是平方训练误差;而对于概率密度估计问题的损失函数来说,ERM准则就等价于最大似然法。事实上,用ERM准则代替期望风险最小化并没有经过充分的理论论证,只是直观上合理的想当然做法。也就是说,经验风险最小不一定意味着期望风险最小。其实,只有样本数目趋近于无穷大时,经验风险才有可能趋近于期望风险。但是很多问题中样本数目离无穷大很远,那么在有限样本下ERM准则就不一定能使真实风险较小啦。ERM准则不成功的一个例子就是神经网络的过学习问题(某些情况下,训练误差过小反而导致推广能力下降,或者说是训练误差过小导致了预测错误率的增加,即真实风险的增加)。

 

统计学习理论(Statistical Learning Theory, SLT)和支持向量机(Support Vector Machine, SVM)建立了一套较好的有限训练样本下机器学习的理论框架和通用方法,既有严格的理论基础,又能较好地解决小样本、非线性、高维数和局部极小点等实际问题,其核心思想就是学习机器(又叫预测函数,或学习函数,或学习模型)F要与有限的训练样本相适应。在学习算法中需要选择恰当的F,这里的关键因素是F的大小,或者F的丰富程度,或者说F的“表达能力”,VC(Vapnik-Chervonenkis Dimension)就是对这种“表达能力”的一种描述。

 

VC维的定义如下:对于一个指示函数集,如果存在h个样本能够被函数集中的函数按所有可能的2h次幂种形式分开,则称函数集能够把h个样本都打散,h的最大值就是函数集的VC维。VC维是SLT中的一个重要概念,它是函数集学习性能的重要指标。目前尚没有通用的关于任意函数集VC维计算的理论,只知道一些特殊的函数集的VC维。比如,在n维空间中线性分类器和线性实函数的VC维是 n+1,而 f(x,a) = sin(ax) VC维则为无穷大。对于给定的学习函数集,如何(用理论或实验的方法)计算其VC维是当前统计学习理论中有待研究的一个问题。

 

由上文可知,在有限样本情况下,仅仅用ERM来近似期望风险是行不通的。统计学习理论给出了期望风险 R[f] 与经验风险 Remp[f] 之间关系:R[f] <= ( Remp[f] + e )。其中 e = g(h/n) 为置信区间,e VC h 的增函数,也是样本数n的减函数。右端称为结构风险,它是期望风险 R[f] 的一个上界。经验风险的最小依赖较大的 F (样本数较多的函数集)中某个 f 的选择,但是 F 较大,则VC维较大,就导致置信区间 e 变大,所以要想使期望风险 R[f] 最小,必须选择合适的 h n 来使不等式右边的结构风险最小,这就是结构风险最小化(Structural Risk Minimization, SRM)归纳原则。实现SRM的思路之一就是设计函数集的某种结构使每个子集中都能取得最小的经验风险(如使训练误差为0),然后只需选择适当的子集使置信范围最小,则这个子集中使经验风险最小的函数就是最优函数。SVM方法实际上就是这种思想的具体实现。

 

SVM是一种基于统计的学习方法,它是对SRM的近似。概括地说,SVM就是首先通过用内积函数定义的非线性变换将输入空间变换到一个高维空间,然后再在这个空间中求(广义)最优分类面的分类方法。

 

SVM-3svm原理)20090324 19:42

名词解释1——支持向量机:“机(machine,机器)”实际上是一个算法。在机器学习领域,常把一些算法看作是一个机器(又叫学习机器,或预测函数,或学习函数)。“支持向量”则是指训练集中的某些训练点的输入 xi 。它是一种有监督(有导师)学习方法,即已知训练点的类别,求训练点和类别之间的对应关系,以便将训练集按照类别分开,或者是预测新的训练点所对应的类别。

 

名词解释2——符号函数:sgn(a) = 1, a >= 0;sgn(a) = -1, a < 0.

 

一般地,考虑 n 维空间上的分类问题,它包含 n 个指标和 l 个样本点。记这 l 个样本点的集合为 T = {(x1,y1),...,(xl,yl)},其中 xi 是输入指标向量,或称输入,或称模式,其分量称为特征,或属性,或输入指标;yi 是输出指标向量,或称输出,i = 1,...,l l 个样本点组成的集合称为训练集,所以我们也称样本点位训练点。

 

对于训练集来说,有线性可分、近似线性可分和线性不可分等三种情况,这就是分类问题的三种类型。其实,无论是哪类问题,都有对应的分类机,这将在以下的内容中进行详细阐述。那么,有人可能会问,什么叫线性可分?通俗地讲,就是可以用一条或几条直线把属于不同类别的样本点分开。实际上,求解分类问题,就是要求出这条或这几条直线!那么,问题是:怎么求?这里先以二维两类线性可分的分类问题为例,做个详细的说明,然后再过渡到多类分类问题。

 

首先,回忆一下平面(二维)坐标系中某条直线的方程。还记得直线的一般方程

 

Ax + By + C = 0 (公式一)

 

吧,我们引入向量的概念,则该方程可以写成{x,y}{A,B}的内积加上C等于0,即

 

{A,B}·{x,y} + C = 0

 

你还记得法向量和方向向量的概念吗?其实{A,B}就是法向量,而{B-A}就是方向向量了。那么我们可以把直线的一般方程简化成为

 

w·x + b = 0 (公式二)

 

的形式(因为这个式子是大家最常用的嘛)。注意:(公式二)中的 x 和(公式一)中的 x 不同,前者一个二维向量,后者是一个实数。

 

对于两类问题,如果将某一直线两侧的样本点分为正类和负类,则用符号函数的方式推断点 x 所对应的类别 y 的决策函数如下:

 

y = f(x) = sgn((w·x) + b) (公式三)

 

根据符号函数的定义,很明显 y 的取值要么是 1 ,要么是 -1,也就是说样本点的类别只有 1 -1 两类。此时的分类问题是:对于任意给定的一个新的模式 x ,根据训练集推断它所对应的输出 y 1 还是 -1。这就是线性可分的分类问题,也是一个模式识别问题,我们要做的工作就是要求出 w b

 

直接求这两个参数基本上不太可能,除了训练集我们又没有别的信息可以利用,这可如何是好?前辈们给出了一个绝妙的方法——就是所求得的预测函数 f(x) 对原有样本的分类错误率最小。那么,问题又出来了,这个错误率咋算?损失函数就是专门用来评价预测准确程度的一种度量,而且模式识别问题使用的正是“0-1损失函数”。根据我的上一篇学习体会——《从机器学习到支持向量机》http://axywestwind.bokee.com/viewdiary.14525093.html中的阐述,使(公式三)中的 f(x) 的预测误差最小的问题转化成期望误差最小、经验风险最小,最后在统计学习理论中又转化为结构风险最小(Structural Risk Minimization, SRM)。而实现SRM的思路之一就是设计预测函数集的某种结构使每个子集中都能取得最小的经验风险(如使训练误差为0),然后只需选择适当的子集使置信范围最小,则这个子集中使经验风险最小的函数就是最优函数。SVM方法实际上就是这种思想的具体实现,它是对SRM的近似。说了半天,终于和上次的内容连接上了。但是,为了求解SRM这个最小化问题,还得将它转化成数学形式。

 

SVM方法是从线性可分情况下的最优分类面提出的,它是实现统计学习理论思想的方法。什么是最优分类面呢?这要从最优分类线说起。所谓最优分类线就是要求分类线不但能将两类无错误地分开,而且要使两类的分类间隔最大。前者是保证经验风险最小(如使训练误差为0),而使分类间隔最大实际上就是使推广性的界中的置信范围最小,从而使真实风险最小。推广到高维空间,最优分类线就成为最优分类面。

 

那么如何构造这个最优分类面呢?方法有 2 个:平分最近点法和最大间隔法。有趣的是,这两个方法殊途同归,它们求解得到的是同一个超平面(由三个定理联合起来证明了这个结论)。由这三个定理可知,这两个方法与一个最优化问题求解方法等价,这个方法就称为“线性可分支持向量分类机”。其实,这个分类机是将最大间隔法求解最优分类面的最优化问题转化为其对偶问题,从而通过求解相对简单的对偶问题来求解原分类问题的算法。随后引入松弛变量和惩罚因子来解决非线性分类问题,并且允许一定的分类错误(软间隔),最终得到非线性软间隔的标准的 C-支持向量机(C-SVC)。其中的巧妙之处就在于把一个复杂的最优化问题的求解简化为对原有样本数据的内积运算。我们要做的就是选择适当的核函数及其参数、惩罚因子就可以了。

 

概括地说,SVM就是首先通过用内积函数定义的非线性变换将输入空间变换到一个高维空间,然后再在这个空间中求(广义)最优分类面的分类方法。

 

那么,如何通过计算机来求解这个内积运算呢?且听下回分解!下次会介绍选块算法、分解算法,并重点介绍由分解算法改进得到的最经典的 SMO 算法。

 

参考文献:

 

1、邓乃扬,数据挖掘中的新方法——支持向量机[M],北京:科学出版社,2004

 

2、边肇祺,张学工,模式识别(第二版)[M],清华大学出版社,2000

 

 

分享到:
评论

相关推荐

    SVM与LS-SVM的区别

    SVM与LS-SVM的区别 SVM(Support Vector Machine,支持向量机)是一种常用的机器学习算法,LS-SVM(Least Squares Support Vector Machines,最小二乘支持向量机)是SVM的变种。两者都是监督学习算法,用于分类和...

    matlab_GA-SVM预测_GA_SVM_GA-SVM_matlab_SVM_

    标题中的"matlab_GA-SVM预测_GA_SVM_GA-SVM_matlab_SVM_"表明这是一个关于使用MATLAB实现遗传算法(GA)优化的支持向量机(SVM)预测模型的项目。在这个项目中,GA被用来寻找SVM的最佳参数,以提高模型的预测性能。 ...

    psosvm_psosvm_PSOSVM预测_;预测_

    标题“psosvm_psosvm_PSOSVM预测_;预测_”指的是使用粒子群优化算法(PSO)优化支持向量机(SVM)进行预测的一种方法。在这个程序中,PSO被用来寻找SVM模型的最佳参数,以提高分类或回归任务的性能。 **PSO(粒子...

    CNN-SVM_SVMCNN_SVM特征提取_SVM_python_SVM分类_源码.zip

    标题中的"CNN-SVM"指的是卷积神经网络(Convolutional Neural Network)与支持向量机(Support Vector Machine)的结合应用。SVM是一种监督学习模型,尤其在小样本、非线性及高维模式识别中表现优秀。而CNN则是深度...

    SVM_SVM_svm注释_svm步骤_svm实现方式_SVM步骤.zip

    这个压缩包文件“SVM_SVM_svm注释_svm步骤_svm实现方式_SVM步骤.zip”包含了关于SVM的注释、步骤以及可能的实现方式,特别是源码实现,对于理解SVM的工作原理和实际应用非常有帮助。 1. **SVM的基本概念**: - SVM...

    SVM_SVM_svm注释_svm步骤_svm实现方式_SVM步骤

    支持向量机(Support Vector Machine,简称SVM)是一种广泛应用于分类和回归分析的机器学习算法。SVM的核心思想是找到一个最优超平面,将不同类别的数据尽可能地分开,同时保证分类间隔最大。在本文件中,我们将深入...

    SVM-OSU_3.00.rar_SVM_SVM._SVM工具箱_svm matlab_svm 图像

    支持向量机(Support Vector Machine,简称SVM)是一种广泛应用于分类和回归分析的机器学习算法。SVM的核心思想是找到一个最优超平面,将不同类别的数据最大程度地分开。在二维空间中,这个超平面可能是一条直线;在...

    SVM程序代码_SVM分类_matlabsvm_特征svm_SVM_

    支持向量机(Support Vector Machine, SVM)是一种监督学习模型,尤其在二分类问题和多分类问题中表现出色。SVM的核心思想是找到一个最优超平面,使得不同类别的样本点距离这个超平面的距离最大化,以此来达到最佳的...

    SVM_iris_SVMIris_svmmatlab_matlab_SVM_

    支持向量机(Support Vector Machine,SVM)是一种在机器学习领域广泛应用的监督学习模型,尤其在分类和回归分析中表现出色。SVM的核心思想是找到一个最优的超平面,使得不同类别的样本尽可能地被分隔开来,同时保持...

    SVM_SVM;分类_SVM分类_SVM_

    支持向量机(Support Vector Machine,简称SVM)是一种强大的监督学习模型,广泛应用于分类和回归任务。在机器学习领域,SVM以其高效性和泛化能力而受到关注。标题中的"SVM_SVM;分类_SVM分类_SVM_"强调了SVM在分类...

    SVM_svmmatlab_svm参数寻优_SVM参数_交叉验证SVM_交叉验证,SVM

    支持向量机(SVM,Support Vector Machine)是一种广泛应用的监督学习模型,尤其在分类和回归问题中表现出色。在SVM中,参数的选择对于模型的性能至关重要,其中包括核函数类型、惩罚参数C和核函数参数γ等。本文将...

    svm.zip_SVM算法代码_python实现svm_svm python实现_svm python

    支持向量机(Support Vector Machine,简称SVM)是一种广泛应用于分类和回归分析的机器学习算法。SVM的核心思想是找到一个最优超平面,将不同类别的数据最大程度地分开。在二维空间中,这个超平面可能是一条直线;在...

    SVM(matlab源程序)_svmmatlab_SVMmatlab_SVM_

    支持向量机(Support Vector Machine,简称SVM)是一种广泛应用的监督学习模型,主要用于分类和回归分析。在机器学习领域,SVM以其优秀的泛化能力、处理非线性问题的能力和对小样本数据的高效处理而备受青睐。在这个...

    pso_svm_svm优化_psosvm_PSO-SVM_pso_svm_multiagent_

    在机器学习领域,支持向量机(Support Vector Machine, SVM)是一种广泛应用的监督学习模型,尤其在分类和回归任务中表现出色。SVM的核心思想是找到一个最优的超平面,使得不同类别的样本尽可能地被分隔开来,同时...

    SVM分类器代码_SVM分类_matlab_支持向量机_SVM_

    支持向量机(Support Vector Machine,SVM)是一种在机器学习领域广泛应用的监督学习模型,尤其在二分类问题上表现出色。它通过构建一个最大边距超平面来将数据分隔到两个类别,同时最大化两类样本的距离。SVM的核心...

    SVM实例 - 副本_svm应用_SVM_

    支持向量机(Support Vector Machine,简称SVM)是一种广泛应用的监督学习模型,它在分类和回归问题上表现优秀。SVM的核心思想是找到一个最优的超平面,将不同类别的数据最大程度地分开。在这个实例中,我们将深入...

    PSO-SVM-master_svmpsopython_svmpython_svm优化_PSO优化_psosvm_

    在机器学习领域,支持向量机(Support Vector Machine, SVM)是一种广泛应用的监督学习模型,尤其在分类和回归任务上表现出色。SVM通过构造一个最大边距超平面来分割数据,以达到最好的泛化能力。然而,在面对复杂的...

    SVM算法_svm算法代码_SVM算法代码_python_SVM_

    支持向量机(Support Vector Machine,SVM)是一种广泛应用的监督学习模型,尤其在分类和回归问题中表现出色。SVM的基本思想是找到一个超平面,使得两类样本在这个超平面两侧的距离最大,以此来实现最优分类。在实际...

Global site tag (gtag.js) - Google Analytics