`
wbj0110
  • 浏览: 1603381 次
  • 性别: Icon_minigender_1
  • 来自: 上海
文章分类
社区版块
存档分类
最新评论

决策树分类算法

阅读更多

介绍分类问题,主要介绍决策树算法、朴素贝叶斯、支持向量机、BP神经网络、懒惰学习算法、随机森林与自适应增强算法、分类模型选择和结果评价。总共7篇,欢迎关注和交流。

  这篇先介绍分类问题的一些基本知识,然后主要讲述决策树算法的原理、实现,最后利用决策树算法做一个泰坦尼克号船员生存预测应用。

一、分类基本介绍

  物以类聚,人以群分,分类问题只古以来就出现我们的生活中。分类是数据挖掘中一个重要的分支,在各方面都有着广泛的应用,如医学疾病判别、垃圾邮件过滤、垃圾短信拦截、客户分析等等。分类问题可以分为两类:

  •   归类:归类是指对离散数据的分类,比如对根据一个人的笔迹判别这个是男还是女,这里的类别只有两个,类别是离散的集合空间{男,女}的。

  •   预测:预测是指对连续数据的分类,比如预测明天8点天气的湿度情况,天气的湿度在随时变化,8点时的天气是一个具体值,它不属于某个有限集合空间。预测也叫回归分析,在金融领域有着广泛应用。

  虽然对离散数据和连续数据的处理方式有所不同,但其实他们之间相互转化,比如我们可以根据比较的某个特征值判断,如果值大于0.5就认定为男性,小于等于0.5就认为是女性,这样就转化为连续处理方式;将天气湿度值分段处理也就转化为离散数据。

  数据分类分两个步骤:

  1. 构造模型,利用训练数据集训练分类器;

  2. 利用建好的分类器模型对测试数据进行分类。

  好的分类器具有很好的泛化能力,即它不仅在训练数据集上能达到很高的正确率,而且能在未见过得测试数据集也能达到较高的正确率。如果一个分类器只是在训练数据上表现优秀,但在测试数据上表现稀烂,这个分类器就已经过拟合了,它只是把训练数据记下来了,并没有抓到整个数据空间的特征。

二、决策树分类

 

  决策树算法借助于树的分支结构实现分类。下图是一个决策树的示例,树的内部结点表示对某个属性的判断,该结点的分支是对应的判断结果;叶子结点代表一个类标。

  上表是一个预测一个人是否会购买购买电脑的决策树,利用这棵树,我们可以对新记录进行分类,从根节点(年龄)开始,如果某个人的年龄为中年,我们就直接判断这个人会买电脑,如果是青少年,则需要进一步判断是否是学生;如果是老年则需要进一步判断其信用等级,直到叶子结点可以判定记录的类别。

  决策树算法有一个好处,那就是它可以产生人能直接理解的规则,这是贝叶斯、神经网络等算法没有的特性;决策树的准确率也比较高,而且不需要了解背景知识就可以进行分类,是一个非常有效的算法。决策树算法有很多变种,包括ID3、C4.5、C5.0、CART等,但其基础都是类似的。下面来看看决策树算法的基本思想:

  • 算法:GenerateDecisionTree(D,attributeList)根据训练数据记录D生成一棵决策树.

  • 输入:

    • 数据记录D,包含类标的训练数据集;

    • 属性列表attributeList,候选属性集,用于在内部结点中作判断的属性.

    • 属性选择方法AttributeSelectionMethod(),选择最佳分类属性的方法.

     

     

     

  • 输出:一棵决策树.

  • 过程:

    1. 构造一个节点N;

    2. 如果数据记录D中的所有记录的类标都相同(记为C类):

      • 则将节点N作为叶子节点标记为C,并返回结点N;

       

       

       

    3. 如果属性列表为空:

      • 则将节点N作为叶子结点标记为D中类标最多的类,并返回结点N;

       

       

       

    4. 调用AttributeSelectionMethod(D,attributeList)选择最佳的分裂准则splitCriterion;

    5. 将节点N标记为最佳分裂准则splitCriterion;

    6. 如果分裂属性取值是离散的,并且允许决策树进行多叉分裂:

      • 从属性列表中减去分裂属性,attributeLsit -= splitAttribute;

       

       

       

    7. 对分裂属性的每一个取值j:

      • 记D中满足j的记录集合为Dj;

      • 如果Dj为空:

        • 则新建一个叶子结点F,标记为D中类标最多的类,并且把结点F挂在N下;

         

         

         

      • 否则:

        • 递归调用GenerateDecisionTree(Dj,attributeList)得到子树结点Nj,将Nj挂在N下;

         

         

         

       

       

       

    8. 返回结点N;

     

     

     

  算法的1、2、3步骤都

  其中的m表示数据集D中类别C的个数,Pi表示D中任意一个记录属于Ci的概率,计算时Pi=(D中属于Ci类的集合的记录个数/|D|)。Info(D)表示将数据集D不同的类分开需要的信息量。

  如果了解信息论,就会知道上面的信息Info实际上就是信息论中的熵Entropy,熵表示的是不确定度的度量,如果某个数据集的类别的不确定程度越高,则其熵就越大。比如我们将一个立方体A抛向空中,记落地时着地的面为f1,f1的取值为{1,2,3,4,5,6},f1的熵entropy(f1)=-(1/6*log(1/6)+...+1/6*log(1/6))=-1*log(1/6)=2.58;现在我们把立方体A换为正四面体B,记落地时着地的面为f2,f2的取值为{1,2,3,4},f2的熵entropy(1)=-(1/4*log(1/4)+1/4*log(1/4)+1/4*log(1/4)+1/4*log(1/4)) =-log(1/4)=2;如果我们再换成一个球C,记落地时着地的面为f3,显然不管怎么扔着地都是同一个面,即f3的取值为{1},故其熵entropy(f3)=-1*log(1)=0。可以看到面数越多,熵值也越大,而当只有一个面的球时,熵值为0,此时表示不确定程度为0,也就是着地时向下的面是确定的。

  有了上面关于熵的简单理解,我们接着讲信息增益。假设我们选择属性R作为分裂属性,数据集D中,R有k个不同的取值{V1,V2,...,Vk},于是可将D根据R的值分成k组{D1,D2,...,Dk},按R进行分裂后,将数据集D不同的类分开还需要的信息量为:

  信息增益的定义为分裂前后,两个信息量只差:

  信息增益Gain(R)表示属性R给分类带来的信息量,我们寻找Gain最大的属性,就能使分类尽可能的纯,即最可能的把不同的类分开。不过我们发现对所以的属性Info(D)都是一样的,所以求最大的Gain可以转化为求最小的InfoR(D)。这里引入Info(D)只是为了说明背后的原理,方便理解,实现时我们不需要计算Info(D)。举一个例子,数据集D如下:

 

这个数据集是根据一个人的年龄、收入、是否学生以及信用等级来确定他是否会购买电脑,即最后一列“是否购买电脑”是类标。现在我们用信息增益选出最最佳的分类属性,计算按年龄分裂后的信息量:

  整个式子由三项累加而成,第一项为青少年,14条记录中有5条为青少年,其中2(占2/5)条购买电脑,3(占3/5)条不购买电脑。第二项为中年,第三项为老年。类似的,有:

  可以得出Info年龄(D)最小,即以年龄分裂后,分得的结果中类标最纯,此时已年龄作为根结点的测试属性,根据青少年、中年、老年分为三个分支:

  注意,年龄这个属性用过后,之后的操作就不需要年龄了,即把年龄从attributeList中删掉。往后就按照同样的方法,构建D1,D2,D3对应的决策子树。ID3算法使用的就是基于信息增益的选择属性方法。

  • 增益比率(gain ratio)

  信息增益选择方法有一个很大的缺陷,它总是会倾向于选择属性值多的属性,如果我们在上面的数据记录中加一个姓名属性,假设14条记录中的每个人姓名不同,那么信息增益就会选择姓名作为最佳属性,因为按姓名分裂后,每个组只包含一条记录,而每个记录只属于一类(要么购买电脑要么不购买),因此纯度最高,以姓名作为测试分裂的结点下面有14个分支。但是这样的分类没有意义,它没有任何泛化能力。增益比率对此进行了改进,它引入一个分裂信息:

  增益比率定义为信息增益与分裂信息的比率:

  我们找GainRatio最大的属性作为最佳分裂属性。如果一个属性的取值很多,那么SplitInfoR(D)会大,从而使GainRatio(R)变小。不过增益比率也有缺点,SplitInfo(D)可能取0,此时没有计算意义;且当SplitInfo(D)趋向于0时,GainRatio(R)的值变得不可信,改进的措施就是在分母加一个平滑,这里加一个所有分裂信息的平均值:

  • 基尼指数(Gini index)

  基尼指数是另外一种数据的不纯度的度量方法,其定义如下:

  其中的m仍然表示数据集D中类别C的个数,Pi表示D中任意一个记录属于Ci的概率,计算时Pi=(D中属于Ci类的集合的记录个数/|D|)。如果所有的记录都属于同一个类中,则P1=1,Gini(D)=0,此时不纯度最低。在CART(Classification and Regression Tree)算法中利用基尼指数构造二叉决策树,对每个属性都会枚举其属性的非空真子集,以属性R分裂后的基尼系数为:

 

  D1为D的一个非空真子集,D2为D1在D的补集,即D1+D2=D,对于属性R来说,有多个真子集,即GiniR(D)有多个值,但我们选取最小的那么值作为R的基尼指数。最后:

  我们转Gini(R)增量最大的属性作为最佳分裂属性。

http://tech.ddvip.com/2013-11/1384964157206280_2.html

 

分享到:
评论

相关推荐

    【python代码实现】决策树分类算法、朴素贝叶斯分类算法以及人工神经网络分类算法的代码及数据

    资源中包括决策树分类算法、朴素贝叶斯分类算法、人工神经网络分类算法的代码(.ipynb,.py)和案例股票价格波动分析的数据(.csv),建议使用jupyter notebook打开.ipynb文件,体验更佳 1、资源配合博文《【python...

    python实现决策树分类算法

    在Python中,我们通常使用`scikit-learn`库来实现决策树分类算法。这个库提供了丰富的功能,包括训练、评估和优化决策树模型。 1. **决策树的基本概念** - **树结构**:决策树由节点和边组成,其中根节点代表所有...

    决策树分类算法原理

    ### 决策树分类算法原理 #### 一、引言 决策树是一种广泛应用于机器学习领域的分类算法,它采用了一种“分而治之”的策略来进行数据分类或预测。决策树不仅直观易懂,而且在处理高维数据时非常有效。本文将详细...

    基于贝叶斯方法的决策树分类算法

    基于贝叶斯方法的决策树分类算法 基于贝叶斯方法的决策树分类算法

    数据挖掘技术决策树分类算法(ID3算法)研究.pdf

    决策树分类算法是数据挖掘中的一个重要分支,它以树状图或模型的方式展示决策和决策规则,能够将数据集进行分类、聚类和预测建模。ID3算法是决策树分类算法的一种,其特点在于使用信息增益作为标准选择特征进行分裂...

    数据挖掘技术决策树分类算法分析、比较与实验.pdf

    一、数据挖掘与决策树分类算法概述 随着互联网的迅猛发展,数据量呈爆炸式增长,人们开始探索如何从海量数据中提取有价值的信息和知识。数据挖掘技术应运而生,它指的是从大量数据中通过算法搜索隐藏信息的过程。...

    决策树分类算法与应用.docx

    ### 决策树分类算法与应用 #### 一、决策树分类算法原理 **1.1 概述** 决策树是一种被广泛应用的分类算法。它主要用于处理分类问题,特别是当数据集具有多个分类属性时尤为有效。相比于其他算法,如贝叶斯算法,...

    代码及数据集:决策树分类算法--隐形眼镜材质分类

    在压缩包中提供的“代码及数据集:决策树分类算法--隐形眼镜材质分类”文件中,应该包含了实现这些步骤的Python代码和相应的数据集文件。通常,代码会使用如`scikit-learn`这样的机器学习库,其中`fit`函数用于训练...

    决策树分类算法在个性化图书推荐中的应用.pdf

    决策树分类算法在个性化图书推荐中的应用.pdf 该论文主要介绍了决策树分类算法在个性化图书推荐中的应用。该模型基于读者的阅读兴趣,使用数据挖掘技术中决策树方法对图书馆的图书借阅数据进行研究和分析,提出了...

    机器学习决策树分类算法实验报告-机器学习高分大作业

    【决策树分类算法】 决策树是一种广泛应用于机器学习领域的非线性分类算法,它通过构建树状模型来做出预测。在本实验中,决策树被用来解决毒蘑菇的分类问题,目的是通过分析蘑菇的多种特征来区分其是否可食用,以...

    c++实现决策树分类算法(内附测试数据)

    在本项目中,我们将探讨如何使用C++语言实现一个决策树分类算法。 首先,决策树的基本构建过程包括特征选择、树节点分裂以及停止条件设定。特征选择通常使用信息增益或信息增益比等标准,以确定最优特征。树节点...

    英文论文--决策树分类算法

    ### 决策树分类算法与数据库技术的融合 #### 一、引言 随着大数据时代的到来,数据挖掘已经成为处理和分析海量数据的关键技术之一。在众多的数据挖掘算法中,决策树分类算法因其易于理解和实现而备受青睐。本文将...

    不确定数据的决策树分类算法(数据挖掘、决策树)

    达的证据理论与决策树分类算法相结合 , 把决策树分类技术扩展到含有不确定数据的环境中。为避免在决策树构建 过程中出现组合爆炸问题 , 引入新的测量算子和聚集算子 , 提出了 D 2 S 证据理论决策树分类算法。实验...

    基于C5.0决策树分类算法的ETM 影像信息提取.pdf

    基于C5.0决策树分类算法的ETM+影像信息提取 在遥感影像信息提取中,分类算法是一个关键步骤。传统的分类方法有监督分类和非监督分类两种,监督分类法需要从研究区域选取有代表性的训练场地作为样本,而非监督分类...

    决策树分类算法研究综述.docx

    ### 决策树分类算法研究综述 #### 引言 随着信息技术的飞速发展,数据挖掘成为一种重要的工具,用于从海量数据中提取有价值的信息和知识。数据挖掘中的分类算法,尤其是决策树分类算法,因其高效性和易理解性而在...

    决策树分类算法的时间和性能测试

    在本文中,我们将深入探讨决策树分类算法的时间和性能测试。 一、项目要求 1. 设计与实现决策树分类算法:在实际应用中,决策树的实现通常基于C4.5、ID3或CART算法。这些算法的核心是选择最优的特征进行分割,以...

    数据挖掘中决策树分类算法的研究.pptx

    决策树分类算法的研究 随着大数据时代的到来,数据挖掘技术在众多领域得到了广泛应用。其中,决策树分类算法因其实用性和可解释性在数据挖掘中占据了重要地位。本次演示对决策树分类算法的基本原理、研究现状及未来...

    隐私保护的分布式决策树分类算法的研究.pdf

    隐私保护的分布式决策树分类算法研究 分布式决策树分类算法是数据挖掘领域中的一个重要方向,而隐私保护在数据挖掘中是一个关键问题。本文研究的隐私保护的分布式决策树分类算法旨在解决分布式决策树构造过程中的...

Global site tag (gtag.js) - Google Analytics