`
strayly
  • 浏览: 97453 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

TF-IDF计算方法

 
阅读更多
例1
有很多不同的数学公式可以用来计算TF-IDF。这边的例子以上述的数学公式来计算。词频 (TF) 是一词语出现的次数除以该文件的总词语数。假如一篇文件的总词语数是100个,而词语“母牛”出现了3次,那么“母牛”一词在该文件中的词频就是3/100=0.03。一个计算文件频率 (IDF) 的方法是测定有多少份文件出现过“母牛”一词,然后除以文件集里包含的文件总数。所以,如果“母牛”一词在1,000份文件出现过,而文件总数是10,000,000份的话,其逆向文件频率就是 log(10,000,000 / 1,000)=4。最后的TF-IDF的分数为0.03 * 4=0.12。
例2
在某个一共有一千词的网页中“原子能”、“的”和“应用”分别出现了 2 次、35 次 和 5 次,那么它们的词频就分别是 0.002、0.035 和 0.005。 我们将这三个数相加,其和 0.042 就是相应网页和查询“原子能的应用” 相关性的一个简单的度量。概括地讲,如果一个查询包含关键词 w1,w2,...,wN, 它们在一篇特定网页中的词频分别是: TF1, TF2, ..., TFN。 (TF: term frequency)。 那么,这个查询和该网页的相关性就是:TF1 + TF2 + ... + TFN。
读者可能已经发现了又一个漏洞。在上面的例子中,词“的”占了总词频的 80% 以上,而它对确定网页的主题几乎没有用。我们称这种词叫“应删除词”(Stopwords),也就是说在度量相关性是不应考虑它们的频率。在汉语中,应删除词还有“是”、“和”、“中”、“地”、“得”等等几十个。忽略这些应删除词后,上述网页的相似度就变成了0.007,其中“原子能”贡献了 0.002,“应用”贡献了 0.005。细心的读者可能还会发现另一个小的漏洞。在汉语中,“应用”是个很通用的词,而“原子能”是个很专业的词,后者在相关性排名中比前者重要。因此我们需要给汉语中的每一个词给一个权重,这个权重的设定必须满足下面两个条件:
1. 一个词预测主题能力越强,权重就越大,反之,权重就越小。我们在网页中看到“原子能”这个词,或多或少地能了解网页的主题。我们看到“应用”一次,对主题基本上还是一无所知。因此,“原子能“的权重就应该比应用大。
2. 应删除词的权重应该是零。
我们很容易发现,如果一个关键词只在很少的网页中出现,我们通过它就容易锁定搜索目标,它的权重也就应该大。反之如果一个词在大量网页中出现,我们看到它仍然不是很清楚要找什么内容,因此它应该小。概括地讲,假定一个关键词 w 在 Dw 个网页中出现过,那么 Dw 越大,w的权重越小,反之亦然。在信息检索中,使用最多的权重是“逆文本频率指数” (Inverse document frequency 缩写为IDF),它的公式为log(D/Dw)其中D是全部网页数。比如,我们假定中文网页数是D=10亿,应删除词“的”在所有的网页中都出现,即Dw=10亿,那么它的IDF=log(10亿/10亿)= log (1) = 0。假如专用词“原子能”在两百万个网页中出现,即Dw=200万,则它的权重IDF=log(500) =2.7。又假定通用词“应用”,出现在五亿个网页中,它的权重IDF = log(2)则只有 0.3。也就是说,在网页中找到一个“原子能”的匹配相当于找到九个“应用”的匹配。利用 IDF,上述相关性计算的公式就由词频的简单求和变成了加权求和,即 TF1*IDF1 + TF2*IDF2 +... + TFN*IDFN。在上面的例子中,该网页和“原子能的应用”的相关性为 0.0069,其中“原子能”贡献了 0.0054,而“应用”只贡献了0.0015。这个比例和我们的直觉比较一致了。
分享到:
评论

相关推荐

    TF-IDF与余弦相似性的应用

    余弦相似性(cosine similarity)是一种常用的文本相似度计算方法,应用于文本分类、文本聚类等领域。该方法的核心思想是将两个文档的词频向量进行点积运算,得到两个文档的相似度。余弦相似性的优点是可以捕捉到...

    LDA和TF-IDF算法的相关论文

    TF-IDF,是一种统计方法,用于评估一个词在文档中的重要性。TF(词频)表示词在文档中出现的次数,IDF(逆文档频率)则反映了词在整个文档集合中的稀有程度。TF-IDF值越高,表示该词对于区分文档的重要性越大。TF-...

    tf-idf_tf-idf_

    TF-IDF(Term Frequency-Inverse Document Frequency)是一种在信息检索和文本挖掘领域广泛使用的权重计算方法,用于评估一个词在文档中的重要性。这个概念基于两个主要因素:词频(Term Frequency, TF)和逆文档...

    NLP:基于TF-IDF的中文关键词提取.zip

    TF-IDF是一种经典的文本特征权重计算方法,广泛应用于信息检索、文档分类和关键词提取等领域。 首先,让我们了解TF-IDF的基本原理。TF(Term Frequency)表示一个词在文档中出现的频率,IDF(Inverse Document ...

    Using_TF-IDF_to_Determine_Word_Relevance_in_Document_Queries

    TF-IDF的计算公式为:\[TF-IDF(w, d) = TF(w, d) \times IDF(w)\] 其中: - \(TF(w, d)\) 是词 \(w\) 在文档 \(d\) 中的词频。 - \(IDF(w)\) 是词 \(w\) 的逆文档频率,计算公式为 \(\log\left(\frac{N}{df(w)}\...

    TF-IDF计算程序

    在Java中实现TF-IDF计算程序,通常会涉及以下步骤: 1. **预处理**:包括去除停用词、标点符号、转换为小写、词干提取等,以减少无关特征的影响。 2. **创建词袋模型**(Bag of Words, BoW):将文本转换成词频矩阵...

    tf-idf.zip_Information Retrival_python IR_python TF-IDF_tf-idf

    在Python中,我们可以使用`sklearn`库中的`TfidfVectorizer`类来实现TF-IDF计算。`sklearn`是一个强大的机器学习库,包含许多文本处理和数据预处理工具。以下是一段简单的示例代码: ```python from sklearn....

    TF-IDF.py.zip_TF-IDF WEIGHT_tf-idf_tf_idf_特征提取

    TF-IDF(Term Frequency-Inverse Document Frequency)是一种在信息检索和自然语言处理中广泛使用的文本特征表示方法。...通过Python实现TF-IDF计算,可以方便地集成到各种NLP项目中,从而提升数据预处理和模型性能。

    TF-IDF.zip_TF-IDF java_java tf idf_tf idf_tf-idf

    TF-IDF(Term Frequency-Inverse Document Frequency)是一种在信息检索和自然语言处理中广泛使用的统计方法,用于评估一个词在文档集合中的重要性。在Java编程环境下,TF-IDF可以帮助我们提取文本的关键信息,理解...

    C语言、Python实现TF-IDF算法

    - 使用`sklearn`库,可以使用`TfidfVectorizer`类直接计算TF-IDF矩阵,它包含了文本预处理、TF-IDF计算等功能。 - `gensim`库提供了`TfidfModel`,它也支持TF-IDF计算,并且在处理大量文本时表现更优。 在给定的...

    基于TF-IDF算法抽取

    TF-IDF(Term Frequency-Inverse Document Frequency)是一种广泛应用于信息检索与文本挖掘领域的统计方法,用于评估单词对于一个文档集或者语料库中单个文档的重要程度。在实际应用场景中,它被用来识别文档的主要...

    基于Python实现TF-IDF矩阵表示(人工智能实验)【100011921】

    TF-IDF(Term Frequency-Inverse Document Frequency)是一种在信息检索和文本挖掘领域广泛使用的权重计算方法,用于评估一个词在文档中的重要性。这个概念基于两个原则:词频(Term Frequency, TF)和逆文档频率...

    案例TF-IDF.pdf

    TF-IDF计算公式可以表示为:TF-IDF(t, d, D) = TF(t, d) × IDF(t, D),其中,TF(t, d)是词t在文档d中出现的次数,IDF(t, D)是文档集D中包含词t的文档数量的对数倒数。 ### 知识点三:MapReduce实现TF-IDF 在...

    基于特定语料库的TF-IDF的中文关键词提取

    TF-IDF(Term Frequency-Inverse...总之,基于TF-IDF的中文关键词提取是自然语言处理中的一个重要技术,通过合理地运用这个方法,我们可以从大量文本数据中抽取出关键信息,为信息检索、文本分类和摘要等任务提供支持。

    使用Python和TF-IDF算法进行关键词提取

    在这个例子中,`TfidfVectorizer`首先创建了一个TF-IDF向量化器,然后使用`fit_transform`方法对语料库中的文本进行向量化处理,最后输出每个文档的关键词及其对应的TF-IDF值。 TF-IDF算法在文本挖掘、信息检索、...

    基于TF-IDF文本向量化的SQL注入攻击检测.pdf

    TF-IDF(Term Frequency-Inverse Document Frequency)是一种常用的文本表示方法,通过对文本的词频率和文档频率进行计算,可以将文本转换为数字向量。TF-IDF 的优点是可以将高维度的文本数据降维到低维度的向量,...

    TF-IDF.zip_tf-idf_tfidf

    **TF-IDF计算公式:** TF-IDF值等于词频TF乘以逆文档频率IDF。TF表示一个词在文档中出现的次数除以文档中所有词的总数;IDF则是一个词在整个文档集合中出现的文档数的负对数。具体公式如下: TF(t, d) = (词t在文档...

    基于改进TF-IDF算法的牛疾病智能诊断系统.pdf

    TF-IDF算法是文本挖掘和信息检索领域中常用的方法,但是传统的TF-IDF算法存在一些缺陷,例如无法合理地代表某疾病的症状,降低智能诊断系统的性能。改进的TF-IDF算法解决了这些问题,提高了疾病诊断的准确率和可信度...

    使用python进行朴素贝叶斯的数据分析,使用TF-IDF方法整理数据

    在Python中,我们可以使用`sklearn.feature_extraction.text`模块的`TfidfVectorizer`类来计算TF-IDF值。这个类会将文本转换为TF-IDF向量,从而可以输入到机器学习模型中,如朴素贝叶斯分类器。 **使用TF-IDF和朴素...

    关键词提取TF-IDF算法综述

    其后,TF-IDF算法的提出进一步完善了特征项的权重计算方法,使得算法在文本分类任务中更加高效和准确。 在后续内容中,文章还可能深入探讨TF-IDF算法在实际应用中的表现,比如在信息检索、文本聚类、话题检测等领域...

Global site tag (gtag.js) - Google Analytics