`

数据挖掘:如何寻找相关项

阅读更多
导读:随着大数据时代浪潮的到来数据科学家这一新兴职业也越来越受到人们的关注。本文作者Alexandru Nedelcu就将数学挖掘算法与大数据有机的结合起来,并无缝的应用在面临大数据浪潮的网站之中。

数据科学家需要具备专业领域知识并研究相应的算法以分析对应的问题,而数据挖掘是其必须掌握的重要技术。以帮助创建推动业务发展的相应大数据产品和大数据解决方案。EMC最近的一项调查也证实了这点。调查结果显示83%的人认为大数据浪潮所催生的新技术增加了数据科学家的需求。本文将为您展示如何基于一个简单的公式查找相关的项目。请注意,此项技术适用于所有的网站(如亚马逊),以个性化用户体验、提高转换效率。

查找相关项问题

要想为一个特定的项目查找相关项,就必须首先为这两个项目定义相关之处。而这些也正是你要解决的问题:

    在博客上,你可能想以标签的形式分享文章,或者对比查看同一个人阅读过的文章
    亚马逊站点被称为“购买此商品的客户还购买了”的部分
    一个类似于IMDB(Internet Movie Database)的服务,可以根据用户的评级,给出观影指南建议

不论是标签、购买的商品还是观看的电影,我们都要对其进行分门别类。这里我们将采用标签的形式,因为它很简单,而且其公式也适用于更复杂的情形。

以几何关系重定义问题

现在以我的博客为例,来列举一些标签:

["API", "Algorithms", "Amazon", "Android", "Books", "Browser"]

好,我们来看看在欧式空间几何学中如何表示这些标签。

我们要排序或比较的每个项目在空间中以点表示,坐标值(代表一个标签)为1(标记)或者0(未标记)。

因此,如果我们已经获取了一篇标签为“API”和“Browser”的文章,那么其关联点是:

[ 1, 0, 0, 0, 0, 1 ]

现在这些坐标可以表示其它含义。例如,他们可以代表用户。如果在你的系统中有6个用户,其中2个用户对一篇文章分别评了3星和5星,那么你就可以针对此文章查看相关联的点(请注意顺序):

[ 0, 3, 0, 0, 5, 0 ]

现在我们可以计算出相关矢量之间的夹角,以及这些点之间的距离。下面是它们在二维空间中的图像:

欧式几何空间距离

计算欧式几何空间两点之间距离的数学公式非常简单。考虑相关两点A、B之间的距离:

两点之间的距离越近,它们的相关性越大。下面是Ruby代码:


# Returns the Euclidean distance between 2 points 

# Params: 
#  - a, b: list of coordinates (float or integer) 

def euclidean_distance(a, b) 
   sq = a.zip(b).map{|a,b| (a - b) ** 2} 
   Math.sqrt(sq.inject(0) {|s,c| s + c}) 
end
# Returns the associated point of our tags_set, relative to our 
# tags_space. 

# Params: 
#  - tags_set: list of tags 
#  - tags_space: _ordered_ list of tags 
def tags_to_point(tags_set, tags_space) 
   tags_space.map{|c| tags_set.member?(c) ? 1 : 0} 
end
# Returns other_items sorted by similarity to this_item  
# (most relevant are first in the returned list) 

# Params: 
#  - items: list of hashes that have [:tags] 
#  - by_these_tags: list of tags to compare with 
def sort_by_similarity(items, by_these_tags) 
   tags_space = by_these_tags + items.map{|x| x[:tags]}   
   tags_space.flatten!.sort!.uniq! 
   this_point = tags_to_point(by_these_tags, tags_space)
   other_points = items.map{|i|  
   [i, tags_to_point(i[:tags], tags_space)] 
   } 
   similarities = other_points.map{|item, that_point| 
     [item, euclidean_distance(this_point, that_point)] 
   } 
   sorted = similarities.sort {|a,b| a[1] <=> b[1]} 
   return sorted.map{|point,s| point} 
End

这是一些示例代码,你可以直接复制运行:


# SAMPLE DATA
all_articles = [ 
  {
   :article => "Data Mining: Finding Similar Items", 
   :tags => ["Algorithms", "Programming", "Mining",  
     "Python", "Ruby"] 
  }, 
  {
   :article => "Blogging Platform for Hackers",  
   :tags => ["Publishing", "Server", "Cloud", "Heroku",  
     "Jekyll", "GAE"] 
  },  
  { 
   :article => "UX Tip: Don't Hurt Me On Sign-Up",  
   :tags => ["Web", "Design", "UX"] 
  },  
  {
   :article => "Crawling the Android Marketplace", 
   :tags => ["Python", "Android", "Mining", 
     "Web", "API"]
  } 

# SORTING these articles by similarity with an article 
# tagged with Publishing + Web + API 


# The list is returned in this order: 

# 1. article: Crawling the Android Marketplace 
#    similarity: 2.0 

# 2. article: "UX Tip: Don't Hurt Me On Sign-Up" 
#    similarity: 2.0

# 3. article: Blogging Platform for Hackers
#    similarity: 2.645751

# 4. article: "Data Mining: Finding Similar Items" 
#    similarity: 2.828427 

sorted = sort_by_similarity( 
    all_articles, ['Publishing', 'Web', 'API']) 
require 'yaml'
puts YAML.dump(sorted)

你是否留意到我们之前选择的数据存在一个缺陷?前两篇文章对于标签“["Publishing", "Web", "API"]”有着相同的欧氏几何空间距离。

为了更加形象化,我们来看看计算第一篇文章所用到的点:

[1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 1]

[1, 0, 1, 0, 0, 0, 0, 0, 1, 0, 0, 1, 0, 0, 0, 1]

只有四个坐标值不同,我们再来看看第二篇文章所用到的点:

[1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 1]

[0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1]

与第一篇文章相同,也只有4个坐标值不同。欧氏空间距离的度量取决于点之间的差异。这也许不太好,因为相对平均值而言,有更多或更少标签的文章会处于不利地位。

余弦相似度

这种方法与之前的方法类似,但更关注相似性。下面是公式:

下面是Ruby代码:


def dot_product(a, b) 
  products = a.zip(b).map{|a, b| a * b} 
  products.inject(0) {|s,p| s + p} 
end
def magnitude(point) 
  squares = point.map{|x| x ** 2}
  Math.sqrt(squares.inject(0) {|s, c| s + c}) 
end
# Returns the cosine of the angle between the vectors  
#associated with 2 points 

# Params:
#  - a, b: list of coordinates (float or integer) 
#
def cosine_similarity(a, b) 
  dot_product(a, b) / (magnitude(a) * magnitude(b))
end

对于以上示例,我们对文章进行分类得到:


- article: Crawling the Android Marketplace 
  similarity: 0.5163977794943222 
- article: "UX Tip: Don't Hurt Me On Sign-Up"
  similarity: 0.33333333333333337 
- article: Blogging Platform for Hackers 
  similarity: 0.23570226039551587
- article: "Data Mining: Finding Similar Items"
   similarity: 0.0

这种方法有了很大改善,我们的代码可以很好地运行,但它依然存在问题。

示例中的问题:Tf-ldf权重

我们的数据很简单,可以轻松地计算并作为衡量的依据。如果不采用余弦相似度,很可能会出现相同的结果。

Tf-ldf权重是一种解决方案。Tf-ldf是一个静态统计量,用于权衡文本集合中的一个词在一个文档中的重要性。

根据Tf-ldff,我们可以为坐标值赋予独特的值,而并非局限于0和1.

对于我们刚才示例中的简单数据集,也许更简单的度量方法更适合,比如Jaccard index也许会更好。

皮尔逊相关系数(Pearson Correlation Coefficient)

使用皮尔逊相关系数(Pearson Correlation Coefficient)寻找两个项目之间的相似性略显复杂,也并不是非常适用于我们的数据集合。

例如,我们在IMDB中有2个用户。其中一个用户名为John,对五部电影做了评级:[1,2,3,4,5]。另一个用户名为Mary,对这五部电影也给出了评级:[4, 5, 6, 7, 8]。这两个用户非常相似,他们之间有一个完美的线性关系,Mary的评级都是在John的基础上加3。

计算公式如下:

代码如下:


def pearson_score(a, b) 
  n = a.length 
  return 0 unless n > 0 
  # summing the preferences 
  sum1 = a.inject(0) {|sum, c| sum + c} 
  sum2 = b.inject(0) {|sum, c| sum + c} 
  # summing up the squares 
  sum1_sq = a.inject(0) {|sum, c| sum + c ** 2} 
  sum2_sq = b.inject(0) {|sum, c| sum + c ** 2} 
  # summing up the product 
  prod_sum = a.zip(b).inject(0) {|sum, ab| sum + ab[0] * ab[1]} 
  # calculating the Pearson score 
  num = prod_sum - (sum1 *sum2 / n)   
  den = Math.sqrt((sum1_sq - (sum1 ** 2) / n) * (sum2_sq - (sum2 ** 2) / n)) 
  return 0 if den == 0 
  return num / den   
end
puts pearson_score([1,2,3,4,5], [4,5,6,7,8]) 
# => 1.0 
puts pearson_score([1,2,3,4,5], [4,5,0,7,8]) 
# => 0.5063696835418333 
puts pearson_score([1,2,3,4,5], [4,5,0,7,7]) 
# => 0.4338609156373132 
puts pearson_score([1,2,3,4,5], [8,7,6,5,4]) 
# => -1

曼哈顿距离算法

没有放之四海而皆准的真理,我们所使用的公式取决于要处理的数据。下面我们简要介绍一下曼哈顿距离算法。

曼哈顿距离算法计算两点之间的网格距离,维基百科中的图形完美诠释了它与欧氏几何距离的不同:

红线、黄线和蓝线是具有相同长度的曼哈顿距离,绿线代表欧氏几何空间距离。
分享到:
评论

相关推荐

    数据挖掘:概念与技术2E,参考文献

    数据挖掘是一种从海量数据中发现有价值知识的过程,它结合了计算机科学、统计学和机器学习等多个领域的理论与方法。在《数据挖掘:概念与技术2E》这本书中,作者深入探讨了这一领域的核心概念和技术,旨在帮助读者...

    《数据挖掘:概念与技术(第三版)》 - 中文版

    10. **数据挖掘工具和系统**:书中可能涵盖了像WEKA这样的开源数据挖掘工具,以及R和Python编程语言中的相关库,如scikit-learn、pandas和numpy。 11. **评估和验证**:包括交叉验证、准确率、召回率、F1分数等度量...

    数据挖掘:概念与技术(韩家炜等)中文版

    数据挖掘原语定义了数据挖掘任务的各个组成部分,包括任务相关数据的描述、要挖掘的知识类型、背景知识的定义、兴趣度度量的选择以及模式的可视化展示等。 #### 4.2 一种数据挖掘查询语言 数据挖掘查询语言是用于...

    数据挖掘:概念与技术(中文版)

    ### 数据挖掘:概念与技术(中文版) #### 一、数据挖掘概述 **1.1 什么激发数据挖掘?为什么它是重要的?** 随着信息技术的发展,企业和组织积累了大量的数据。然而,这些海量数据的价值并未得到充分利用。数据...

    数据挖掘(概念与技术)_第三版课后习题答案 (2).pdf

    数据挖掘中频繁模式的发现是寻找数据集中频繁出现的项集或模式。关联规则挖掘旨在从大量数据中发现项目之间有趣的关联或相关性规则,如在顾客购物篮分析中寻找商品之间的购买关系。 7. 分类和预测 分类是数据挖掘的...

    数据挖掘 数据集

    在这个特定的上下文中,我们关注的是与数据挖掘相关的一系列数据集。 数据挖掘数据集通常是精心挑选和准备的,它们可能来自各种来源,如公开的数据库、研究项目、商业交易或社交媒体。这些数据集可以帮助研究人员和...

    数据挖掘 -一篇数据挖掘的论文

    这篇论文可能是对这一领域的深入探讨,旨在提供有关数据挖掘的理论基础、方法论以及实际应用的洞见。 一、数据挖掘的概念 数据挖掘是从大量、不完全、有噪声、模糊、随机的数据中提取出有用信息,转化为可理解的...

    数据挖掘原理与算法

    数据挖掘原理与算法这本书涵盖了数据挖掘的基本概念、技术方法、体系结构、运行过程和与其他相关技术的关系。其中,数据挖掘的基本概念包括分类分析、聚类分析、关联分析、序列分析和孤立点分析等。分类分析是指建立...

    数据仓库与数据挖掘

    1. 数据挖掘的定义:数据挖掘是从大量数据中通过算法寻找隐藏模式的过程,这些模式可以用于预测、分类、聚类等任务,帮助用户理解数据的内在结构和规律。 2. 数据挖掘的主要任务: - 分类:建立模型预测目标变量的...

    数据挖掘技术及其应用

    4. 数据挖掘:使用特定的算法寻找模式和规律。 5. 模式评估:对发现的模式进行评价,判断其价值和意义。 6. 知识表示:将挖掘出的知识转化为可理解的形式,如报告、图表等。 数据挖掘的功能和分类主要包括: 1. ...

    南安普顿大学数据挖掘课程材料

    在这个课程中,学生将有机会学习到一系列与数据挖掘相关的理论、方法和技术。 在人工智能的范畴内,数据挖掘扮演着至关重要的角色。它利用统计学、机器学习和模式识别等工具,从原始数据中提炼出潜在的模式、关联、...

    alibaba数据挖掘150道试题

    根据提供的信息,我们可以总结出以下相关的数据挖掘知识点: ### 数据挖掘概述 - **数据挖掘**是一种从大量数据中提取有用信息的过程。它涉及到利用统计学、机器学习和人工智能的技术来发现隐藏在数据中的模式和...

    数据挖掘试卷.rar

    在这个“数据挖掘试卷.rar”压缩包中,包含了一系列与数据挖掘相关的考试资料,非常适合准备数据挖掘考试的学生或者专业人士进行复习。 首先,我们要理解数据挖掘的基本概念。数据挖掘的目标是从原始数据中发现潜在...

    数据挖掘期末题 选择填空简答

    ### 数据挖掘期末题知识点解析 #### 一、选择题知识点解析 **1. 数据预处理的任务** - **知识点**: 数据预处理是数据挖掘过程中的重要步骤之一,它涉及多种技术来清洗、转换和规范化原始数据,使其更适合进一步的...

Global site tag (gtag.js) - Google Analytics