目前为止我们已经学习了两种机器学习的方法了。如果你去实践,会发现很多问题,其中一项很可能就是过拟合(overfit)的问题。
什么是过拟合呢?
过拟合就是我们在学习中,对样本的拟合非常好,但是一旦对新的样本就完全失效。
这类问题以后还会有分析,究其原因,我们使用模型中某些特征的影响被放大了(多项式高指数),这是我们需要“惩罚”这些特征,是的参数减少。来看下面的例子:
Andrew老师还是用房价预测的模型来举例,这里明显看到右边的过拟合了,我们看模型,θ3和θ4的特征明显被放大,3次方和4次方。为了减小θ3和θ4对应的特征的影响,我们需要是的θ3和θ4足够小,于是在cost方法中加入红框中所示的项,这样,用θ3和θ4乘以一个非常巨大的数字,达到“惩罚”的目的,如果这个巨大的数字非常大,那么θ3和θ4就趋向于0,也就是没有,那么就等同于没有θ3和θ4这两项。
为什么不直接去掉 这两项呢?
这里Andrew老师并没有直接说明,而是对比了两种做法。当然,直接去掉,会使得一部分信息丢失,甚至严重的可能造成underfit(bias)问题。关于 bias和variance的问题我们还会有专门的章节说明。
好了,这里还没有说到Regularation(正则化),但是其思想和主要解决的问题已经浮出水面。我们要惩罚那些使得造成过拟合的特征参数,所以用我们的cost函数增加“一个”项,并且乘以一个数,这里不是巨大的数字,这样会使得θ趋向于零,所以,我们选择一个合适的参数,可以叫做λ。接下来,哪一个特征项我们要“惩罚”呢?
上面的例子中,我们对θ3和θ4进行了“惩罚”,但是实际 中,我们可能不知道该惩罚哪一个,所以我们就只能全部加在一起。
这里还要注意,对θ0不进行正则化,因为θ0对应的特征也是一个常数1
对于这里的θ最后变成θ^2,是因为还有梯度下降算法,在梯度下降算法中,我们要对θ求偏导数,θ^2的导数就是θ
而这里把所有的θ都加起来,那么我们又如何知道是要“惩罚”谁,或者那一项需要加大惩罚力度呢?
实际上这还是梯度下降算法中导数的神奇,对于那些高阶函数,导数变化自然也就快,惩罚力度也就自然大。请看梯度下降算法的正则化
到此,正则化讲完。可是,线性回归和逻辑回归是一样的吗?
这里只有一幅图,看似一样,实则不然,因为hθ不一样!!
逻辑回归的hθ(x)=1/(1+e^-θT(x))
如果你遇到过拟合的问题,请试试正则化。
相关推荐
人工智能-机器学习-正则化机器学习算法及其财务预警应用研究 机器学习算法在财务危机预警建模中的应用已经非常普遍。然而,在机器学习算法的构建模型时存在过拟合和模型系数非稀疏问题。为了解决这些问题,文章引入...
"数据回归-基于1-正则化的分位数回归及Wasserstein距离下分布的Bernstein逼近" 本文研究了统计学习框架下的两个问题。一个是关于分位数回归的问题,不同于应用最为广泛的最小二乘回归,本文在再生核Hilbert空间下...
在机器学习和深度学习中,正则化是一种有效的策略,用来防止模型过拟合,提高其泛化能力。过拟合通常发生在模型过于复杂,对训练数据过度学习,导致在新数据上的表现不佳。以下是对标题和描述中提到的几种正则化方法...
在探讨机器学习中的正则化技术时,我们首先需要理解正则化解决的核心问题:过拟合。过拟合是指模型在训练数据上表现得过于完美,以至于它捕捉到了数据中的噪声和异常值,而非数据的真实分布。这导致模型在新的、未见...
在机器学习领域,正则化是一种非常重要的技术,它用于防止模型过拟合,提高模型的泛化能力。本主题将深入探讨正则化的概念、应用以及在MATLAB中的实现,特别是针对线性回归和逻辑回归的情况。 首先,我们要理解什么...
Tikhonov正则化,又称为岭回归(Ridge Regression),是统计学和机器学习领域中用于解决过拟合问题的一种重要技术。这个压缩包“tikhonov.zip”包含的内容显然与这一主题相关,可能包括理论介绍、实现代码、示例分析...
在机器学习和统计建模中,正则化是一种非常重要的技术,它可以帮助我们避免过拟合,提升模型的泛化能力。在这个名为“gcv.rar”的压缩包中,包含了一个名为“gcv.m”的MATLAB文件,这实际上是MATLAB中的GCV...
L1正则化机器学习问题求解分析 L1正则化机器学习问题求解分析是机器学习领域中一个重要的研究方向。该领域的研究主要集中在如何解决大规模数据下的机器学习问题,特别是稀疏学习和正则化问题。当前,L1正则化机器...
正则化是机器学习和统计学习中的一种重要技术,它广泛应用于数据预处理、特征选择和模型正则化等领域。下面我们将详细介绍正则化的概念、类型、优点和应用场景等。 一、什么是正则化? 正则化(Regularization)是...
在IT领域,正则化是一种重要的数学方法,用于防止机器学习模型过拟合,提高模型的泛化能力。本文将详细讲解正则化的概念、应用以及在MATLAB环境中的实现,包括离散病态问题、正则化工具教程以及正规化工具的参考。 ...
在这篇名为“分布式变量选择-MCP正则化”的论文中,作者们探讨了如何在分布式系统环境下进行变量选择,并采用了一种名为最小绝对收缩和选择算子(MCP)的非凸正则化方法。为了解释清楚本文的知识点,我们需要从几个...
正则化算法是机器学习和统计学中一种重要的方法,用于防止模型过拟合,提高模型的泛化能力。在MATLAB中,有许多内置的工具和函数支持正则化的实现,比如“Regularization Tools Version 4.1”这个库就提供了丰富的...
在计算机科学和信号处理领域,L1正则化(L1 Regularization)是一种常见的方法,用于解决线性回归、逻辑回归以及其他机器学习模型中的过拟合问题。标题"l1_ls_matlab_L1正则化问题_正则化_"表明我们将讨论如何在...
在机器学习领域,正则化是一种非常重要的技术,它用于防止过拟合,提升模型的泛化能力。本文将深入探讨L2正则化的概念、原理,并通过Python代码实例进行详细解析。 首先,我们理解一下L2正则化。L2正则化,也称为...
线性回归是一种基础且重要的统计学与机器学习方法,它用于预测一个连续数值型的输出变量,基于一个或多个输入变量。线性回归的核心思想是寻找一条直线(在一维情况下)或超平面(在多维情况下)来最好地拟合数据,这...
综上所述,这篇文献深入研究了p正则化问题的理论基础和数值算法,为大数据环境下的优化问题提供了解决思路和实用工具,对于推动大数据分析和机器学习领域的算法发展具有重要意义。关键词:p正则化问题、压缩传感、非...
正则化是机器学习中一个至关重要的概念,它主要用于防止模型过拟合,即模型在训练数据上表现极好,但在新数据上的表现较差的情况。过拟合往往是因为模型过于复杂,试图捕捉训练数据中的噪声和随机性,而不是真正的...
在机器学习和统计学中,正则化是一种用来控制模型复杂度的方法,通过添加一个惩罚项到损失函数中,使得模型在拟合数据的同时不会过于复杂。常见的正则化技术有L1和L2正则化,其中L1正则化倾向于产生稀疏解,而L2正则...