`
kavy
  • 浏览: 888616 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

机器学习之——机器学习中的数学(2)-线性回归,偏差、方差权衡

 
阅读更多

http://www.cnblogs.com/LeftNotEasy/archive/2010/12/19/mathmatic_in_machine_learning_2_regression_and_bias_variance_trade_off.html

 

 

   本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com。如果转载,请注明出处,在未经作者同意下将本文用于商业用途,将追究其法律责任。如果有问题,请联系作者 wheeleast@gmail.com

前言:

    距离上次发文章,也快有半个月的时间了,这半个月的时间里又在学习机器学习的道路上摸索着前进,积累了一点心得,以后会慢慢的写写这些心得。写文章是促进自己对知识认识的一个好方法,看书的时候往往不是非常细,所以有些公式、知识点什么的就一带而过,里面的一些具体意义就不容易理解了。而写文章,特别是写科普性的文章,需要对里面的具体意义弄明白,甚至还要能举出更生动的例子,这是一个挑战。为了写文章,往往需要把之前自己认为看明白的内容重新理解一下。

    机器学习可不是一个完全的技术性的东西,之前和部门老大在outing的时候一直在聊这个问题,机器学习绝对不是一个一个孤立的算法堆砌起来的,想要像看《算法导论》这样看机器学习是个不可取的方法,机器学习里面有几个东西一直贯穿全书,比如说数据的分布、最大似然(以及求极值的几个方法,不过这个比较数学了),偏差、方差的权衡,还有特征选择,模型选择,混合模型等等知识,这些知识像砖头、水泥一样构成了机器学习里面的一个个的算法。想要真正学好这些算法,一定要静下心来将这些基础知识弄清楚,才能够真正理解、实现好各种机器学习算法。

    今天的主题是线性回归,也会提一下偏差、方差的均衡这个主题。

线性回归定义:

    在上一个主题中,也是一个与回归相关的,不过上一节更侧重于梯度这个概念,这一节更侧重于回归本身与偏差和方差的概念。

    回归最简单的定义是,给出一个点集D,用一个函数去拟合这个点集,并且使得点集与拟合函数间的误差最小。

   image    上图所示,给出一个点集(x,y), 需要用一个函数去拟合这个点集,蓝色的点是点集中的点,而红色的曲线是函数的曲线,第一张图是一个最简单的模型,对应的函数为y = f(x) = ax + b,这个就是一个线性函数,

    第二张图是二次曲线,对应的函数是y = f(x) = ax^2 + b。

    第三张图我也不知道是什么函数,瞎画的。

    第四张图可以认为是一个N次曲线,N = M - 1,M是点集中点的个数,有一个定理是,对于给定的M个点,我们可以用一个M - 1次的函数去完美的经过这个点集。

    真正的线性回归,不仅会考虑使得曲线与给定点集的拟合程度最好,还会考虑模型最简单,这个话题我们将在本章后面的偏差、方差的权衡中深入的说,另外这个话题还可以参考我之前的一篇文章:贝叶斯、概率分布与机器学习,里面对模型复杂度的问题也进行了一些讨论。

    线性回归(linear regression),并非是指的线性函数,也就是

image (为了方便起见,以后向量我就不在上面加箭头了)

    x0,x1…表示一个点不同的维度,比如说上一节中提到的,房子的价钱是由包括面积、房间的个数、房屋的朝向等等因素去决定的。而是用广义的线性函数:

 image    wj是系数,w就是这个系数组成的向量,它影响着不同维度的Φj(x)在回归函数中的影响度,比如说对于房屋的售价来说,房间朝向的w一定比房间面积的w更小。Φ(x)是可以换成不同的函数,不一定要求Φ(x)=x,这样的模型我们认为是广义线性模型。

 

最小二乘法与最大似然:

    这个话题在此处有一个很详细的讨论,我这里主要谈谈这个问题的理解。最小二乘法是线性回归中一个最简单的方法,它的推导有一个假设,就是回归函数的估计值与真实值间的误差假设是一个高斯分布。这个用公式来表示是下面的样子:image ,y(x,w)就是给定了w系数向量下的回归函数的估计值,而t就是真实值了,ε表示误差。我们可以接下来推出下面的式子:

image     这是一个简单的条件概率表达式,表示在给定了x,w,β的情况下,得到真实值t的概率,由于ε服从高斯分布,则从估计值到真实值间的概率也是高斯分布的,看起来像下面的样子:

    image     贝叶斯、概率分布与机器学习这篇文章中对分布影响结果这个话题讨论比较多,可以回过头去看看,由于最小二乘法有这样一个假设,则会导致,如果我们给出的估计函数y(x,w)与真实值t不是高斯分布的,甚至是一个差距很大的分布,那么算出来的模型一定是不正确的,当给定一个新的点x’想要求出一个估计值y’,与真实值t’可能就非常的远了。

     概率分布是一个可爱又可恨的东西,当我们能够准确的预知某些数据的分布时,那我们可以做出一个非常精确的模型去预测它,但是在大多数真实的应用场景中,数据的分布是不可知的,我们也很难去用一个分布、甚至多个分布的混合去表示数据的真实分布,比如说给定了1亿篇网页,希望用一个现有的分布(比如说混合高斯分布)去匹配里面词频的分布,是不可能的。在这种情况下,我们只能得到词的出现概率,比如p(的)的概率是0.5,也就是一个网页有1/2的概率出现“的”。如果一个算法,是对里面的分布进行了某些假设,那么可能这个算法在真实的应用中就会表现欠佳。最小二乘法对于类似的一个复杂问题,就很无力了

 

偏差、方差的权衡(trade-off):

    偏差(bias)和方差(variance)是统计学的概念,刚进公司的时候,看到每个人的嘴里随时蹦出这两个词,觉得很可怕。首先得明确的,方差是多个模型间的比较,而非对一个模型而言的,对于单独的一个模型,比如说:

image

    这样的一个给定了具体系数的估计函数,是不能说f(x)的方差是多少。而偏差可以是单个数据集中的,也可以是多个数据集中的,这个得看具体的定义。

    方差和偏差一般来说,是从同一个数据集中,用科学的采样方法得到几个不同的子数据集,用这些子数据集得到的模型,就可以谈他们的方差和偏差的情况了。方差和偏差的变化一般是和模型的复杂程度成正比的,就像本文一开始那四张小图片一样,当我们一味的追求模型精确匹配,则可能会导致同一组数据训练出不同的模型,它们之间的差异非常大。这就叫做方差,不过他们的偏差就很小了,如下图所示:

image     上图的蓝色和绿色的点是表示一个数据集中采样得到的不同的子数据集,我们有两个N次的曲线去拟合这些点集,则可以得到两条曲线(蓝色和深绿色),它们的差异就很大,但是他们本是由同一个数据集生成的,这个就是模型复杂造成的方差大。模型越复杂,偏差就越小,而模型越简单,偏差就越大,方差和偏差是按下面的方式进行变化的:

image     当方差和偏差加起来最优的点,就是我们最佳的模型复杂度。

     用一个很通俗的例子来说,现在咱们国家一味的追求GDP,GDP就像是模型的偏差,国家希望现有的GDP和目标的GDP差异尽量的小,但是其中使用了很多复杂的手段,比如说倒卖土地、强拆等等,这个增加了模型的复杂度,也会使得偏差(居民的收入分配)变大,穷的人越穷(被赶出城市的人与进入城市买不起房的人),富的人越富(倒卖土地的人与卖房子的人)。其实本来模型不需要这么复杂,能够让居民的收入分配与国家的发展取得一个平衡的模型是最好的模型。

    最后还是用数学的语言来描述一下偏差和方差:

image    E(L)是损失函数,h(x)表示真实值的平均,第一部分是与y(模型的估计函数)有关的,这个部分是由于我们选择不同的估计函数(模型)带来的差异,而第二部分是与y无关的,这个部分可以认为是模型的固有噪声。

    对于上面公式的第一部分,我们可以化成下面的形式:

image    这个部分在PRML的1.5.5推导,前一半是表示偏差,而后一半表示方差,我们可以得出:损失函数=偏差^2+方差+固有噪音。

    下图也来自PRML:

image

    这是一个曲线拟合的问题,对同分布的不同的数据集进行了多次的曲线拟合,左边表示方差,右边表示偏差,绿色是真实值函数。ln lambda表示模型的复杂程度,这个值越小,表示模型的复杂程度越高,在第一行,大家的复杂度都很低(每个人都很穷)的时候,方差是很小的,但是偏差同样很小(国家也很穷),但是到了最后一幅图,我们可以得到,每个人的复杂程度都很高的情况下,不同的函数就有着天壤之别了(贫富差异大),但是偏差就很小了(国家很富有)。

预告:

    接下来准备谈谈线性分类的一些问题,敬请关注:)

分享到:
评论

相关推荐

    机器学习个人笔记完整版v5.4-A4打印版(2019.3.19更新)

    偏差-方差权衡是理解学习器泛化性能的一个关键概念。 4. 机器学习在不同领域的应用:包括构建智能机器人、文本理解和Web搜索、计算机视觉、医疗信息处理、音频处理、数据挖掘等。 黄海广提供的笔记包含了课程的...

    机器学习基石ppt

    2. **三种学习原则**(Lecture 16 Three Learning Principles.pdf):这部分可能阐述了机器学习中的核心原则,比如归纳偏好、偏差-方差权衡以及经验风险最小化等,这些都是保证模型泛化能力的关键因素。 3. **学习...

    UCB CS189:机器学习完全指南

    - **偏差-方差权衡**:模型复杂度与预测准确性之间的平衡。偏差衡量了模型的平均预测与真实值之间的差距;方差反映了模型对数据变化的敏感程度。 - **加权最小二乘法**:当观测值的误差不是同方差时使用的回归方法,...

    机器学习教程

    线性代数、概率论与信息论、数值计算是机器学习中不可或缺的数学工具。 1. 线性代数:线性代数在机器学习中扮演着重要角色,用于描述数据在多维空间中的线性关系。包括标量、向量、矩阵和张量的基本概念;矩阵和...

    吴恩达机器学习课程参考笔记及作业

    吴恩达机器学习课程是一门由著名人工智能教授吴恩达在斯坦福大学开设的课程,该课程的讲义和作业被广泛用作学习机器学习的重要资料。从给出的文件信息中,我们可以提取以下知识点: 1. 课程安排和大纲:课程被分为...

    机器学习个人笔记完整版v4.21(黄海广)

    机器学习的核心问题之一是偏差/方差权衡。偏差和方差描述了模型预测准确性和泛化能力之间的关系。高偏差通常意味着模型过于简单,导致欠拟合;而高方差则意味着模型对训练数据太敏感,容易过拟合。了解和管理这两者...

    吴恩达机器学习 python代码

    【吴恩达机器学习 Python 代码】是一套深入学习与人工智能领域的实践教程,它涵盖了从基础的线性回归到复杂的神经网络模型的多种算法。这个资料包中的代码以 Python 编程语言实现,旨在帮助学习者理解并掌握机器学习...

    机器学习算法优化.zip

    3. **模型假设**:在机器学习中,模型通常是通过假设函数来建立的,如线性回归、逻辑回归或神经网络等。这些假设函数的参数就是我们要优化的目标。 4. **李普希兹连续**:在讨论梯度下降算法时,李普希兹连续是一个...

    andrew_ml_ex5.zip

    在机器学习中,线性回归是一种基本的预测模型,它通过找到最佳拟合直线来预测连续数值型目标变量。在"ex5Regularized Linear Regression and Bias v.s. Variance"这个描述中,"Regularized Linear Regression"指的是...

    机器学习 第十二讲:Regularization and model selection

    在本次讲授中,我们探讨了机器学习中的两个核心概念:正则化(Regularization)与模型选择(Model Selection)。本讲的内容主要分为两个部分,首先是特征选择(Feature Selection)的方法,其次是评估学习模型(Learning ...

    简单易懂的机器学习笔记

    支持向量机(Support Vector Machine)是另一种强大的机器学习算法,它通过选择合适的核函数(Kernels)来处理非线性问题,并在逻辑回归的基础上进行了优化。 非监督学习的目的是从数据中发现隐藏的结构,例如通过...

    AndrewNg 吴恩达机器学习笔记

    上述知识点覆盖了吴恩达机器学习课程中的核心概念和算法,包括监督学习、无监督学习、线性回归、逻辑回归、正则化、神经网络、支持向量机、聚类、降维、异常检测、推荐系统以及大规模机器学习问题的解决策略等。...

    林轩田《机器学习基石》课程笔记16(完结) -- Three Learning Principles1

    【机器学习中的三个基本原则】 在机器学习中,有三个重要的原则可以帮助我们构建更有效的模型,它们被称为“三个学习原则”。本文将重点讨论其中的一个——奥卡姆剃刀定律(Occam's Razor)以及与其相关的概念。 ...

    20届国科大模式识别与机器学习随堂测1+2_参考答案.pdf

    根据提供的文件内容,以下是有关国科大模式识别与机器学习随堂测1和2的参考答案中涉及的知识点: 1. 朴素贝叶斯模型:朴素贝叶斯是一种生成式模型,意味着它根据贝叶斯定理和特征条件独立假设来计算给定观测数据的...

    机器学习资料.zip

    "Regularized Linear Regression and Bias Variance"涉及正则化线性回归,通过引入正则化项来防止过拟合,同时讨论了偏差-方差权衡,这是理解模型性能的关键概念。 最后,"neural network learning"是关于神经网络...

    machine learning linear regression

    线性回归是机器学习领域中最基础且重要的算法之一,它在数据分析、预测建模和机器学习任务中扮演着核心角色。吴恩达是一位知名的计算机科学家和教育家,他在Coursera上开设的“机器学习”课程深受全球学习者喜爱。在...

    CS229吴恩达机器学习完整版(打印版本)

    1. **偏差/方差权衡(Bias/Variance Tradeoff)**:描述了模型复杂度对模型性能的影响,是避免过拟合和欠拟合的关键概念。 2. **学习理论预备知识(Preliminaries)**:在深入学习理论之前需要掌握的基础概念。 3. *...

Global site tag (gtag.js) - Google Analytics