全文转载:http://www.blogjava.net/zhenandaci/archive/2008/08/31/225966.html
作者:Jasper
大家应该还记得,开方检验(χ2,又称Chi-square)
其实是数理统计中一种常用的检验两个变量独立性的方法。
开方检验最基本的思想就是通过观察实际值与理论值的偏差来确定理论的正确与否。具体做的时候常常先假设两个变量确实是独立的(行话就叫做“原假设”),然后观察实际值(也可以叫做观察值)与理论值(这个理论值是指“如果两者确实独立”的情况下应该有的值)的偏差程度,如果偏差足够小,我们就认为误差是很自然的样本误差,是测量手段不够精确导致或者偶然发生的,两者确确实实是独立的,此时就接受原假设;如果偏差大到一定程度,使得这样的误差不太可能是偶然产生或者测量不精确所致,我们就认为两者实际上是相关的,即否定原假设,而接受备择假设。
那么用什么来衡量偏差程度呢?假设理论值为E,实际值为x,如果仅仅使用所有样本的观察值与理论值的差值x-E之和
来衡量,单个的观察值还好说,当有多个观察值x1,x2,x3的时候,很可能x1-E,x2-E,x3-E的值有正有负,因而互相抵消,使得最终的结果看上好像偏差为0,但实际上每个都有偏差,而且都还不小!此时很直接的想法便是使用方差代替均值,这样就解决了正负抵消的问题,即使用
这时又引来了新的问题,对于500的均值来说,相差5其实是很小的(相差1%),而对20的均值来说,5相当于25%的差异,这是使用方差也无法体现的。因此应该考虑改进上面的式子,让均值的大小不影响我们对差异程度的判断
(1)
上面这个式子已经相当好了。实际上这个式子就是开方检验使用的差值衡量公式。当提供了数个样本的观察值x1,x2,……xi ,……xn之后,代入到式(1)中就可以求得开方值,用这个值与事先设定的阈值比较,如果大于阈值(即偏差很大),就认为原假设不成立,反之则认为原假设成立。
在文本分类问题的特征选择阶段,我们主要关心一个词t(一个随机变量)与一个类别c(另一个随机变量)之间是否相互独立?如果独立,就可以说词t对类别c完全没有表征作用,即我们根本无法根据t出现与否来判断一篇文档是否属于c这个分类。但与最普通的开方检验不同,我们不需要设定阈值,因为很难说词t和类别c关联到什么程度才算是有表征作用,我们只想借用这个方法来选出一些最最相关的即可。
此时我们仍然需要明白对特征选择来说原假设是什么,因为计算出的开方值越大,说明对原假设的偏离越大,我们越倾向于认为原假设的反面情况是正确的。我们能不能把原假设定为“词t与类别c相关“?原则上说当然可以,这也是一个健全的民主主义社会赋予每个公民的权利,但此时你会发现根本不知道此时的理论值该是多少!你会把自己绕进死胡同。所以我们一般都使用”词t与类别c不相关“来做原假设。选择的过程也变成了为每个词计算它与类别c的开方值,从大到小排个序(此时开方值越大越相关),取前k个就可以。
好,原理有了,该来个例子说说到底怎么算了。
比如说现在有N篇文档,其中有M篇是关于体育的,我们想考察一个词“篮球”与类别“体育”之间的相关性(任谁都看得出来两者很相关,但很遗憾,我们是智慧生物,计算机不是,它一点也看不出来,想让它认识到这一点,只能让它算算看)。我们有四个观察值可以使用:
1. 包含“篮球”且属于“体育”类别的文档数,命名为A
2. 包含“篮球”但不属于“体育”类别的文档数,命名为B
3. 不包含“篮球”但却属于“体育”类别的文档数,命名为C
4. 既不包含“篮球”也不属于“体育”类别的文档数,命名为D
用下面的表格更清晰:
如果有些特点你没看出来,那我说一说,首先,A+B+C+D=N。其次,A+C的意思其实就是说“属于体育类的文章数量”,因此,它就等于M,同时,B+D就等于N-M。
好,那么理论值是什么呢?以包含“篮球”且属于“体育”类别的文档数为例。如果原假设是成立的,即“篮球”和体育类文章没什么关联性,那么在所有的文章中, “篮球”这个词都应该是等概率出现,而不管文章是不是体育类的。这个概率具体是多少,我们并不知道,但他应该体现在观察结果中(就好比抛硬币的概率是二分之一,可以通过观察多次抛的结果来大致确定),因此我们可以说这个概率接近
(A+B)/N
。
(因为A+B是包含“篮球”的文章数,除以总文档数就是“篮球”出现的概率,当然,这里认为在一篇文章中出现即可,而不管出现了几次)而属于体育类的文章数为A+C,在这些个文档中,应该有
En=(A+C)(A+B)/N
篇包含“篮球”这个词(数量乘以概率嘛)。
此时对这种情况下实际值与理论值的偏差程度就可以使用最开始的公式(1),即开方检验使用的差值衡量公式。
同样,我们还可以计算剩下三种情况的差值D12,D21,D22。有了所有观察值的差值,就可以计算“篮球”与“体育”类文章的开方值
χ2(篮球,体育)=D11+D12+D21+D22
。把D11,D12,D21,D22的值分别代入并化简,可以得到
词t与类别c的开方值更一般的形式可以写成
(2)
接下来我们就可以计算其他词如“排球”,“产品”,“银行”等等与体育类别的开方值,然后根据大小来排序,选择我们需要的最大的数个词汇作为特征项就可以了。
实际上式(2)还可以进一步化简,注意如果给定了一个文档集合(例如我们的训练集)和一个类别,则N,M,N-M(即A+C和B+D)对同一类别文档中的所有词来说都是一样的,而我们只关心一堆词对某个类别的开方值的大小顺序,而并不关心具体的值,因此把它们从式(2)中去掉是完全可以的,故实际计算的时候我们都使用
(3)
好啦,并不高深对不对?
针对英文纯文本的实验结果表明:作为特征选择方法时,开方检验和信息增益的效果最佳(相同的分类算法,使用不同的特征选择算法来得到比较结果);文档频率方法的性能同前两者大体相当,术语强度方法性能一般;互信息方法的性能最差。
但开方检验也并非就十全十美了。回头想想A和B的值是怎么得出来的,它统计文档中是否出现词t,却不管t在该文档中出现了几次,这会使得他对低频词有所偏袒(因为它夸大了低频词的作用)。甚至会出现有些情况,一个词在一类文章的每篇文档中都只出现了一次,其开方值却大过了在该类文章99%的文档中出现了10次的词,其实后面的词才是更具代表性的,但只因为它出现的文档数比前面的词少了“1”,特征选择的时候就可能筛掉后面的词而保留了前者。这就是开方检验著名的“低频词缺陷“。因此开方检验也经常同其他因素如词频综合考虑来扬长避短。
好啦,关于开方检验先说这么多,有机会还将介绍其他的特征选择算法。
附:给精通统计学的同学多说几句,式(1)实际上是对连续型的随机变量的差值计算公式,而我们这里统计的“文档数量“显然是离散的数值(全是整数),因此真正在统计学中计算的时候,是有修正过程的,但这种修正仍然是只影响具体的开方值,而不影响大小的顺序,故文本分类中不做这种修正。
分享到:
相关推荐
4. **χ²检验**:通过计算特征与类别的χ²统计量来衡量特征的重要程度。χ²检验特别适用于离散型特征,能够较好地揭示特征与类别的关联性。 #### 实验设计与结果分析 实验选择了SVM和支持向量机两种常见的分类...
综上所述,虽然信息增益、互信息和χ² 分布等特征抽取方法在英文文本分类中表现出色,但在中文文本分类中未经调整直接使用则效果不佳。通过采用超大规模训练语料和组合特征抽取方法,可以显著改善分类效果,从而为...
本文将详细介绍几种常见的特征选择方法及其原理,包括文档频率(DF)、信息增益(IG)、互信息(MI)以及χ²统计量(CHI),并探讨如何度量特征的重要性。 #### 二、特征选择的目的与原则 特征选择的目的是选出...
在文本分类中,我们可以计算每个特征词与类别的联合概率与独立概率的差异,通过χ²统计量来评估特征的重要性。大χ²值表明特征与类别间存在显著关联,因此可能是有效的分类特征。 4. TF-MI(TF- Mutual ...
研究者们基于传统的特征提取方法,对χ²(卡方)统计量公式进行了改进,并将其与K近邻(KNN)算法相结合进行了分类性能的测试比较。实验结果证明,这种改进后的特征词提取方式在一定程度上提高了分类准确率。 #### ...
天创χ2卡方检验计算器是为χ2检验量身打造的一款软件,想必从事计算统计工作的朋友应该知道χ2检验应用非常的广泛,但是步骤非常的繁琐,而这款软件能够大大减少繁琐的步骤。功能包括: 1.配对设计的四格表或行X...
文本分类的特征选择是指从大量的特征中选择有用的特征,以便提高文本分类的准确性。常用的特征选择方法有卡方检验、互信息法等。 卡方特征选择 ---------------- 卡方特征选择是一种常用的特征选择方法。该方法...
实现的功能 ...开方(χ2) 方法:衡量特征与类别的独立性 信息增益IG方法:衡量特征能够为分类系统带来多少信息,跟具体类别无关。 三、文本分类。 分类快速。 能对单个文件、目录、文件列表进行分类。
χ2 分布具有可加性,即 χ2 统计量的平方和等于每个组的 χ2 统计量的平方和。χ2 分布的分布函数和 χ2 分位数可以通过查表或计算机程序来获取。 在实际应用中,χ2 检验可以用来比较两个或多个组的分布是否相同...
基于信息增益与CHI卡方统计的情感文本特征选择是文本挖掘中的一种重要技术,用于选择有价值的情感文本特征,以提高文本分类的准确性。本文中,我们将讨论基于信息增益和CHI卡方统计的文本特征选择算法,并对其在情感...
统计量是指从样本中抽取的数据,经过一定的计算和处理,得到的结果。它是统计学的基础,用于描述总体的某些特征。统计量可以分为两类:常用统计量和次序统计量。 常用统计量包括样本均值、样本方差、样本变异系数等...
此外,论文还探讨了几种常用的文本特征表示方法,如TF-IDF、互信息量、信息增益和χ2统计量,这些都是特征选择过程中常用的评估指标。潜在狄利克雷分布(LDA)则是一种主题建模方法,可以用于找出文本的潜在主题结构...
在文本分类中,卡方统计量可以衡量特征项在不同类别间的分布差异,差异越大,特征的区分能力越强。计算公式为:χ²(f) = ∑[(Oij - Eij)²/Eij],其中Oij是实际观察到的频数,Eij是期望的频数,如果特征与类别之间...
重点研究了文本的特征提取,通过对互信息和χ2统计的研究,根据其各自的缺陷,提出了一种新的特征提取算法——联合特征提取算法(CEFA)。通过CEFA可以提取出更具代表性的特征项,利用粗糙集优越的约减性构造文本...
这些统计量是统计推断的基础,用于概括和分析数据的特征。 在统计学中,次序统计量是指将样本数据按升序排列后得到的值,如最小值、最大值、中位数、分位数等,它们反映了数据的排序信息。充分统计量则是能够包含...
抽样分布是统计学中的另一个关键概念,指的是在重复抽取同样大小的样本时,某个统计量所有可能取值的概率分布。例如,当样本容量足够大时,样本均值的抽样分布接近正态分布,这是中心极限定理的结果。抽样分布提供了...