`

损失函数总结

阅读更多
1.什么是损失函数
损失函数(loss function)是用来估量模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型认为性能就越好。


2.损失函数,代价函数和目标函数的区别
损失函数:计算的是一个样本的误差

代价函数:是整个训练集上所有样本误差的平均

目标函数:代价函数 + 正则化项

目标函数公式:



3.损失函数种类及适用场景
3.1 0-1损失函数
0-1损失是指,预测值和目标值不相等为1,否则为0:



感知机就是用的这种损失函数。但是由于相等这个条件太过严格,因此我们可以放宽条件,即满足 |Y−f(X)|<T|Y−f(X)|<T 时认为相等。





3.2 log损失
在逻辑回归的推导中,它假设样本服从伯努利分布(0-1)分布,然后求得满足该分布的似然函数,接着用对数求极值。逻辑斯特回归并没有求对数似然函数的最大值,而是把极大化当做一个思想,进而推导它的风险函数为最小化的负的似然函数。从损失函数的角度上,它就成为了log损失函数。
log损失函数的标准形式:



损失函数L(Y, P(Y|X))表达的是样本X在分类Y的情况下,使概率P(Y|X)达到最大值(换言之,就是利用已知的样本分布,找到最有可能(即最大概率)导致这种分布的参数值;或者说什么样的参数才能使我们观测到目前这组数据的概率最大)。因为log函数是单调递增的,所以logP(Y|X)也会达到最大值,因此在前面加上负号之后,最大化P(Y|X)就等价于最小化L了。

逻辑回归的P(Y=y|x)表达式如下(为了将类别标签y统一为1和0,下面将表达式分开表示):



将它带入到上式,通过推导可以得到logistic的损失函数表达式,如下:



逻辑回归最后得到的目标式子如下:



3.3 平方损失函数(最小二乘法, Ordinary Least Squares )
在线性回归中,它假设样本和噪声都服从高斯分布(为什么假设成高斯分布呢?其实这里隐藏了一个小知识点,就是中心极限定理。最小二乘的基本原则是:最优拟合直线应该是使各点到回归直线的距离和最小的直线,即平方和最小。换言之,OLS是基于距离的,而这个距离就是我们用的最多的欧几里得距离。为什么它会选择使用欧式距离作为误差度量呢(即Mean squared error, MSE),主要有以下几个原因:

简单,计算方便;
欧氏距离是一种很好的相似性度量标准;
在不同的表示域变换后特征性质不变。



当样本个数为n时,此时的代价函数变为:



Y-f(X)表示的是残差,整个式子表示的是残差的平方和,而我们的目的就是最小化这个目标函数值(注:该式子未加入正则项),也就是最小化残差的平方和(residual sum of squares,RSS)。

而在实际应用中,通常会使用均方差(MSE)作为一项衡量指标,公式如下:




3.4 指数损失函数(Adaboost)
学过Adaboost算法的人都知道,它是前向分步加法算法的特例,是一个加和模型,损失函数就是指数函数。指数损失函数(exp-loss)的标准形式如下





可以看出,Adaboost的目标式子就是指数损失,在给定n个样本的情况下,Adaboost的损失函数为:





3.5 Hinge损失函数
在机器学习算法中,hinge损失函数和SVM是息息相关的。在线性支持向量机中,最优化问题可以等价于下列



Hinge 损失函数的标准形式





3.6 绝对值损失函数





4.总结

不同的算法使用的损失函数不一样,要根据相应模型来选择损失函数。




参考资料:
http://www.csuldw.com/2016/03/26/2016-03-26-loss-function/
https://blog.csdn.net/weixin_37933986/article/details/68488339
  • 大小: 5.3 KB
  • 大小: 3.1 KB
  • 大小: 3.9 KB
  • 大小: 2.7 KB
  • 大小: 9.9 KB
  • 大小: 7.7 KB
  • 大小: 5.4 KB
  • 大小: 2.2 KB
  • 大小: 2.2 KB
  • 大小: 3.2 KB
  • 大小: 2.8 KB
  • 大小: 2.6 KB
  • 大小: 3.8 KB
  • 大小: 2.6 KB
  • 大小: 2.2 KB
  • 大小: 6.5 KB
分享到:
评论

相关推荐

    损失函数学习笔记

    总结,损失函数的学习不仅仅是理解和计算,更重要的是如何根据实际任务需求选择合适的损失函数,以及如何利用损失函数来评估和改进模型的性能。通过对不同损失函数的深入理解,我们可以更好地优化模型,避免过拟合或...

    20180509_深度学习损失函数的创新设计(稀疏与正交)1

    总结来说,深度学习损失函数的创新设计主要关注如何利用稀疏性和正交性来优化模型的学习过程。通过引入这两个概念,损失函数能够引导模型学习更有结构性、更易于解释的特征,从而提高模型在未见数据上的泛化能力。...

    监督学习中的损失函数及应用研究.docx

    总结来说,理解并选择合适的损失函数对于监督学习模型的构建至关重要。损失函数的选择需要综合考虑问题的特性、数据的分布以及优化算法的要求。深入研究各种损失函数的性质、应用场景及其优化策略,不仅可以提高模型...

    PyTorch中标准交叉熵误差损失函数的实现(one-hot形式和标签形式)

    在深度学习领域,损失函数是衡量模型预测与真实值之间差异的重要工具,它为优化过程提供了指导。PyTorch是一个广泛使用的开源深度学习框架,它提供了丰富的损失函数库供用户选择。本文将深入探讨PyTorch中实现的两种...

    入门机器学习必备!五种回归损失函数.pdf

    五种回归损失函数详解 #### 损失函数的重要性及其基本概念 在机器学习领域,损失函数(Loss Function)扮演着至关重要的角色。它不仅帮助我们评估模型预测与真实结果之间的差距,还指导模型如何通过优化参数来减少...

    『计算机视觉』Mask-RCNN-训练网络其二:train网络结构损失函数.pdf

    下面是关于 Mask-RCNN 训练网络结构损失函数的知识点总结: 1. 训练网络结构:Mask-RCNN 的训练网络结构主要包括Feature Extractor、Region Proposal Network (RPN)、RoI Align、Classifier、Mask Generator 等模块...

    RetinaNet深入理解(损失函数详解)

    - **标准交叉熵损失**:标准交叉熵损失函数通常用于分类任务,其形式为:\[L(p, y) = -y \log(p) - (1 - y) \log(1 - p)\],其中\(p\)为预测概率,\(y\)为实际标签。 - **Focal Loss定义**:为了克服样本不均衡问题...

    Python-基于自选算法的特征选择算法损失函数和验证方法

    总结来说,基于自选算法的特征选择涉及到特征子集的构建、损失函数的选取以及验证方法的应用。理解这些概念并能灵活运用到实际项目中,对于提升机器学习模型的性能至关重要。在Python环境下,scikit-learn等库提供了...

    交叉熵损失函数python实现源码

    总结,交叉熵损失函数是评估模型性能的关键指标,而Focal Loss是其一种改进形式,适用于处理不平衡数据集。通过理解并实现这些函数,我们能够更好地优化分类模型,尤其是面对具有挑战性的任务时。在实际工程项目中,...

    Pytorch中torch.nn的损失函数

    在PyTorch中,`torch.nn`模块包含了各种损失函数,这些函数对于训练神经网络模型至关重要,因为它们衡量了模型预测与实际数据之间的差异。在本文中,我们将深入探讨三个常用的二元分类和多标签分类损失函数:`BCE...

    梯度下降算法是一种优化算法,通常用于最小化某个损失函数 它被广泛应用于机器学习和深度学习领域,用于更新模型参数以使损失函数最小化

    它的主要目标是最小化损失函数,通过不断地调整模型参数来逼近最优解。本文将深入探讨梯度下降算法的工作原理、变种以及在实际应用中需要注意的关键点。 #### 二、基础知识 **1. 损失函数定义** 损失函数是衡量...

    第三章品质损失函数.pptx

    ### 第三章品质损失函数知识点概述 #### 一、品质损失函数的概念与意义 - **品质损失函数**是一种数学模型,用于定量分析产品质量与经济损失之间的关系。它通过数学表达式来描述产品特性偏离目标值时所带来的损失。...

    机器学习中的目标函数总结.pdf

    目标函数,又称损失函数或代价函数,在有监督学习中用来衡量模型预测值与真实值之间的差异。在无监督学习中,目标函数则是用来指导算法学习数据的内在结构或模式。强化学习中,目标函数与奖励函数紧密关联,用以评价...

    交叉熵损失函数(cross-entropylossfunction)原理及Pytorch代码简介.pdf

    总结来说,交叉熵损失函数是评估模型预测概率与真实标签匹配程度的关键指标,它在各种分类任务中被广泛使用,特别是在深度学习中。在PyTorch中,`nn.CrossEntropyLoss`提供了一种简便的方式来计算和最小化交叉熵损失...

    交叉熵损失函数原理详解

    对于其内部的原理总是模模糊糊,而且一般使用交叉熵作为损失函数时,在模型的输出层总会接一个softmax函数,至于为什么要怎么做也是不懂,所以专门花了一些时间打算从原理入手,搞懂它,故在此写一篇博客进行总结,...

    Loss Functions of Generative Adversarial Networks (GANs): Opportunities and Chal

    其次,文中总结了在GANs中使用的损失函数类型,包括基础的GAN目标函数以及面向特定应用的损失函数。基础的目标函数如原始GAN的最小-最大损失函数,它通过最大化判别器对真实数据的概率和最小化其对生成数据的概率来...

    MobileNet-SSD-master.zip_SSD-master_mobilenet_ssd介绍_损失函数_深度 特征提取

    在这个项目中,我们主要探讨MobileNet-SSD的实现、损失函数以及深度特征提取。 MobileNet是Google提出的轻量级卷积神经网络,它通过深度可分离卷积(Depthwise Separable Convolution)大大减少了计算量,适合在...

Global site tag (gtag.js) - Google Analytics