大家好,欢迎来到IT知识分享网。
一般来说,我们在进行机器学习任务时,使用的每一个算法都有一个目标函数,算法便是对这个目标函数进行优化,特别是在分类或者回归任务中,便是使用损失函数(Loss Function)作为其目标函数,又称为代价函数(Cost Function)。
损失函数是用来评价模型的预测值Y^=f(X)与真实值Y的不一致程度,它是一个非负实值函数。通常使用L(Y,f(x))来表示,损失函数越小,模型的性能就越好。
设总有N个样本的样本集为(X,Y)=(xi,yi),yi,i∈[1,N]为样本ii的真实值,yi^=f(xi),i∈[1,N]为样本i的预测值,f为分类或者回归函数。
那么总的损失函数为:
常见的损失函数ℓ(yi,yi^)有以下几种:
Zero-one Loss
Zero-one Loss即0-1损失,它是一种较为简单的损失函数,如果预测值与目标值不相等,那么为1,否则为0,即:
可以看出上述的定义太过严格,如果真实值为1,预测值为0.999,那么预测应该正确,但是上述定义显然是判定为预测错误,那么可以进行改进为Perceptron Loss。
Perceptron Loss
Perceptron Loss即为感知损失。即:
其中t是一个超参数阈值,如在PLA(Perceptron Learning Algorithm,感知机算法)中取t=0.5。
Hinge Loss
Hinge损失可以用来解决间隔最大化问题,如在SVM中解决几何间隔最大化问题,其定义如下:
yi∈{−1,+1}
问题:SVM损失函数怎么写成Hinge损失的形式的?这可是面试常考的呢。
Log Loss
(重点)在使用似然函数最大化时,其形式是进行连乘,但是为了便于处理,一般会套上log,这样便可以将连乘转化为求和,由于log函数是单调递增函数,因此不会改变优化结果。因此log类型的损失函数也是一种常见的损失函数,如在LR(Logistic Regression, 逻辑回归)中使用交叉熵(Cross Entropy)作为其损失函数。即:
yi∈{0,1}
规定 0⋅log⋅=0
Square Loss
Square Loss即平方误差,常用于回归中。即:
yi,yi^∈R
Absolute Loss
Absolute Loss即绝对值误差,常用于回归中。即:
yi,yi^∈R
Exponential Loss
Exponential Loss为指数误差,常用于boosting算法中,如AdaBoost。即:
yi∈{−1,1}
正则
一般来说,对分类或者回归模型进行评估时,需要使得模型在训练数据上使得损失函数值最小,即使得经验风险函数最小化,但是如果只考虑经验风险(Empirical risk),容易过拟合(详细参见防止过拟合的一些方法),因此还需要考虑模型的泛化能力,一般常用的方法便是在目标函数中加上正则项,由损失项(Loss term)加上正则项(Regularization term)构成结构风险(Structural risk),那么损失函数变为:
其中λ是正则项超参数,常用的正则方法包括:L1正则与L2正则,详细介绍参见:我上一篇文章。
各损失函数图形如下:
免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/91055.html