潜在语义索引(Latent Semantic Indexing)是一个严重依赖于SVD的算法,本文转载自之前吴军老师《数学之美》和参考文献《机器学习中的数学》汇总。
————————————
在自然语言处理中,最常见的两类的分类问题分别是,将文本按主题归类(比如将所有介绍亚运会的新闻归到体育类)和将词汇表中的字词按意思归类(比如将各种体育运动的名称个归成一类)。这两种分类问题都可用通过矩阵运算来圆满地、同时解决。为了说明如何用矩阵这个工具类解决这两个问题的,让我们先来来回顾一下我们在余弦定理和新闻分类中介绍的方法。
分类的关键是计算相关性。我们首先对两个文本计算出它们的内容词,或者说实词的向量,然后求这两个向量的夹角。当这两个向量夹角为零时,新闻就相关;当它们垂直或者说正交时,新闻则无关。当然,夹角的余弦等同于向量的内积。从理论上讲,这种算法非常好。但是计算时间特别长。通常,我们要处理的文章的数量都很大,至少在百万篇以上,二次回标有非常长,比如说有五十万个词(包括人名地名产品名称等等)。如果想通过对一百万篇文章两篇两篇地成对比较,来找出所有共同主题的文章,就要比较五千亿对文章。现在的计算机一秒钟最多可以比较一千对文章,完成这一百万篇文章相关性比较就需要十五年时间。注意,要真正完成文章的分类还要反复重复上述计算。
在文本分类中,另一种办法是利用矩阵运算中的奇异值分解(Singular Value Decomposition,简称 SVD)。现在让我们来看看奇异值分解是怎么回事。首先,我们可以用一个大矩阵A来描述这一百万篇文章和五十万词的关联性。这个矩阵中,每一行对应一篇文章,每一列对应一个词。
在上面的图中,M=1,000,000,N=500,000。第 i 行,第 j 列的元素,是字典中第 j 个词在第 i 篇文章中出现的加权词频(比如,TF/IDF)。读者可能已经注意到了,这个矩阵非常大,有一百万乘以五十万,即五千亿个元素。
奇异值分解就是把上面这样一个大矩阵,分解成三个小矩阵相乘,如下图所示。比如把上面的例子中的矩阵分解成一个一百万乘以一百的矩阵X,一个一百乘以一百的矩阵B,和一个一百乘以五十万的矩阵Y。这三个矩阵的元素总数加起来也不过1.5亿,仅仅是原来的三千分之一。相应的存储量和计算量都会小三个数量级以上。
三个矩阵有非常清楚的物理含义。第一个矩阵X中的每一列表示一类主题,其中的每个非零元素表示一个主题与一篇文章的相关性,数值越大越相关。最后一个矩阵Y中的每一列表示100个关键词,每个key word与500,000个词的相关性。中间的矩阵则表示文章主题和keyword之间的相关性。因此,我们只要对关联矩阵A进行一次奇异值分解,w 我们就可以同时完成了近义词分类和文章的分类。(同时得到每类文章和每类词的相关性)。
比如降至2维(rank=2),则document-term的关系可以在下面二维图中展现:
在图上,每一个红色的点,都表示一个词,每一个蓝色的点,都表示一篇文档,这样我们可以对这些词和文档进行聚类,比如说stock 和 market可以放在一类,因为他们老是出现在一起,real和estate可以放在一类,dads,guide这种词就看起来有点孤立了,我们就不对他们进行合并了。按这样聚类出现的效果,可以提取文档集合中的近义词,这样当用户检索文档的时候,是用语义级别(近义词集合)去检索了,而不是之前的词的级别。这样一减少我们的检索、存储量,因为这样压缩的文档集合和PCA是异曲同工的,二可以提高我们的用户体验,用户输入一个词,我们可以在这个词的近义词的集合中去找,这是传统的索引无法做到的。
现在剩下的唯一问题,就是如何用计算机进行奇异值分解。这时,线性代数中的许多概念,比如矩阵的特征值等等,以及数值分析的各种算法就统统用上了。在很长时间内,奇异值分解都无法并行处理。(虽然 Google 早就有了MapReduce 等并行计算的工具,但是由于奇异值分解很难拆成不相关子运算,即使在 Google 内部以前也无法利用并行计算的优势来分解矩阵。)最近,Google 中国的张智威博士和几个中国的工程师及实习生已经实现了奇异值分解的并行算法,我认为这是 Google 中国对世界的一个贡献。
最后说说个人拙见,这里我们可以把document和term(word)中间加上一层latent semantics项,那么上图中的X和Y矩阵就可以分别表示同一个latent semantics对不同document之间的相关性和同一latent semantics在不同terms之间的相关性联系。X和Y的大小分别是m*r与r*n,r为A矩阵的rank(秩),最后,B是A的r个奇异值组成的对角方阵(r*r),在谱分解中也就是A的r个特征值。
http://blog.csdn.net/abcjennifer/article/details/8131087
相关推荐
奇异值分解(Singular Value Decomposition,简称SVD)是一种在数学、计算机科学以及信号处理等领域广泛应用的线性代数技术。它将一个矩阵分解为三个矩阵的乘积,即A = UΣV^T,其中A是原始矩阵,U和V是正交矩阵,Σ...
奇异值分解(Singular Value Decomposition,简称SVD)是线性代数中的一种重要矩阵分解方法,具有广泛的应用价值。在数据处理、信号处理、机器学习等领域,SVD被视为一种强大的工具。以下将详细解释SVD的原理,并...
奇异值分解(Singular Value Decomposition,简称SVD)是一种强大的数学工具,广泛应用于数据分析、机器学习和信号处理等领域。SVD将一个矩阵分解为三个矩阵的乘积,即\( A = U \Sigma V^T \),其中\( U \)是包含左...
奇异值分解(Singular Value Decomposition,简称SVD)是一种强大的矩阵分解技术,它在机器学习、数据分析和信号处理等领域有着广泛的应用。SVD能够将一个矩阵分解为三个矩阵的乘积,即A=UΣVT,其中A是原始矩阵,U...
这时候奇异值分解(Singular Value Decomposition, SVD)就显得尤为重要。 奇异值分解是线性代数中的一个重要工具,它能够将任意一个矩阵A分解为三个矩阵的乘积:A = UΣV^T,其中U和V是正交矩阵,Σ是对角矩阵,对角...
奇异值分解(Singular Value Decomposition,简称SVD)是一种强大的数学工具,广泛应用于数据分析、机器学习和信号处理等领域。SVD将一个矩阵分解为三个矩阵的乘积,即\( A = U \Sigma V^T \),其中\( A \)是原始...
#### 三、奇异值分解(SVD) ##### 1. 定义 对于任意\( m \times n \)矩阵\( A \),其奇异值分解可表示为 \[ A = U\Sigma V^T \] 其中\( U \)和\( V \)分别是\( m \times m \)和\( n \times n \)的单位矩阵,\( \...
奇异值分解(Singular Value Decomposition,简称SVD)是线性代数中一个非常重要的概念,它在信号处理、图像分析、机器学习、数据压缩等多个领域有着广泛的应用。SVD将任何给定的矩阵分解为三个正交矩阵的乘积,即一...
奇异值分解还在其他领域有广泛应用,如推荐系统中的协同过滤,其中矩阵的稀疏性使得SVD成为有效的工具。此外,潜在语义索引(LSI)利用SVD来理解和解析文本语料库中的潜在语义结构,提高信息检索的准确性和效率。 ...
【奇异值分解(SVD)】是线性代数中的一种重要矩阵分解方法,具有广泛的应用价值。在机器学习和数据分析领域,SVD 可用于特征提取、降维、数据压缩以及文本处理等多个方面。 【特征值与特征向量】是矩阵理论的基础...
奇异值分解(Singular Value Decomposition,简称SVD)是线性代数中一个非常重要的概念,尤其在机器学习和数据分析领域中具有广泛的应用。它能够揭示矩阵的主要结构,并简化复杂的矩阵运算。以下是对奇异值分解及其...
在情报处理领域,Latent Semantic Indexing(LSI,潜在语义索引)与Singular Value Decomposition(SVD,奇异值分解)是两个至关重要的概念,它们在文档检索、信息组织与分析中发挥着核心作用。下面将深入探讨这两个...
总结起来,奇异值分解SVD是机器学习中一种强大的工具,它可以用于数据的降维、特征提取、图像处理等多种任务,尤其是在处理高维和大矩阵时,能有效揭示数据的内在结构,并简化问题的复杂性。通过SVD,我们可以更好地...
SVD(奇异值分解)是一种非常重要的矩阵分解方法,广泛应用于机器学习、数据压缩、信息检索等领域。通过SVD,我们可以将一个复杂的矩阵分解成三个小矩阵的乘积,每个小矩阵描述矩阵的重要特性。 SVD的物理意义在于...
"SVD and LSI Tutorial 4: Latent Semantic Indexing (LSI) How-to Calculations" 指的是该文档是一篇教程,涵盖了如何进行奇异值分解(SVD)和潜在语义索引(LSI)的计算。 【描述】 在描述中提到,这篇教程会指导...
4. **奇异值分解(SVD)**:LSI的核心在于奇异值分解。对词袋模型进行SVD,得到三个矩阵U、Σ和V^T,其中Σ矩阵是对角线元素为奇异值的矩阵。选择若干个最大的奇异值,可以得到降维后的词-文档矩阵,这有助于发现隐藏...
该分享的焦点在于一种特定的算法——奇异值分解(SVD),以及如何将这种算法应用于不同领域,包括基因组学和自然语言处理(NLP)。 在讲座的介绍部分,首先提到了SVD算法的重要性及其在各种数据科学领域中的广泛...
LSI采用了奇异值分解(Singular Value Decomposition, SVD)这一线性代数技术,将原始的词频矩阵转换为一系列主成分,这些主成分能够捕获数据的主要特征。在“lsa标准模式”下,LSI通常包括以下步骤: 1. **构建...