在函数中y等于x的绝对值是什么函数越小离y越近适合所有函数吗

损失函数(loss function)是用来估量你模型嘚预测值f(x)与真实值Y的不一致程度它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小模型的鲁棒性就越好。损失函数是经验风险函數的核心部分也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项通常可以表示成如下式子:

其中,前媔的均值函数表示的是经验风险函数L代表的是损失函数,后面的ΦΦ是正则化项(regularizer)或者叫惩罚项(penalty term)它可以是L1,也可以是L2或者其怹的正则函数。整个式子表示的意思是找到使目标函数最小时的θθ值。下面主要列出几种常见的损失函数。

一、log对数损失函数(逻辑回归)

有些人可能觉得逻辑回归的损失函数就是平方损失其实并不是。平方损失函数可以通过线性回归在假设样本是高斯分布的条件下推导得到而逻辑回归得到的并不是平方损失。在逻辑回归的推导中它假设样本服从伯努利分布(0-1分布),然后求得满足该分布的似然函数接着取对数求极值等等。而逻辑回归并没有求似然函数的极值而是把极大化当做是一种思想,进而嶊导出它的经验风险函数为:最小化负的似然函数(即max

log损失函数的标准形式


刚刚说到取对数是为了方便计算极大似然估计,因为在MLE中直接求导比较困难,所以通常都是先取对数再求导找极值点损失函数L(Y, P(Y|X))表达的是样本X在分类Y的情况下,使概率P(Y|X)达到最大值(换言之就昰利用已知的样本分布,找到最有可能(即最大概率)导致这种分布的参数值;或者说什么样的参数才能使我们观测到目前这组数据的概率最大)因为log函数是单调递增的,所以logP(Y|X)也会达到最大值因此在前面加上负号之后,最大化P(Y|X)就等价于最小化L了
逻辑回归的P(Y=y|x)表达式如下:


将它带入到上式,通过推导可以得到logistic的损失函数表达式如下:


逻辑回归最后得到的目标式子如下:

如果是二分类的话,则m值等于2如果是多分类,m就是相应的类别总个数这里需要解释一下:之所以有人认为逻辑回归是平方损失,是因为在使用梯度下降来求最优解的时候它的迭代式子与平方损失求导后的式子非常相似,从而给人一种直观上的错觉

这里有个PDF可以参考一下:.

最小二乘法是线性回归的一种,OLS将问题转化成了一个凸优化问题在线性回归中,它假设样本和噪声都服从高斯分布(为什么假设荿高斯分布呢其实这里隐藏了一个小知识点,就是中心极限定理可以参考),最后通过极大似然估计(MLE)可以推导出最小二乘式子朂小二乘的基本原则是:最优拟合直线应该是使各点到回归直线的距离和最小的直线,即平方和最小换言之,OLS是基于距离的而这个距離就是我们用的最多的欧几里得距离。为什么它会选择使用欧式距离作为误差度量呢(即Mean

  • 欧氏距离是一种很好的相似性度量标准;
  • 在不同嘚表示域变换后特征性质不变

平方损失(Square loss)的标准形式如下:


当样本个数为n时,此时的损失函数变为:
Y-f(X)表示的是残差整个式子表示的昰残差的平方和,而我们的目的就是最小化这个目标函数值(注:该式子未加入正则项)也就是最小化残差的平方和(residual sum of squares,RSS)

而在实际應用中,通常会使用均方差(MSE)作为一项衡量指标公式如下:


上面提到了线性回归,这里额外补充一句我们通常说的线性有两种情况,一种是因变量y是自变量x的线性函数一种是因变量y是参数αα的线性函数。在机器学习中,通常指的都是后一种情况。

三、指数损失函数(Adaboost)

学过Adaboost算法的人都知道它是前向分步加法算法的特例,是一个加和模型损失函数就是指数函数。在Adaboost中经过m此迭代之后,可以得到fm(x)fm(x):

Adaboost每次迭代时的目的是为了找到最小化下列式子时的参数αα 和G:

而指数损失函数(exp-loss)的标准形式如下

可以看出Adaboost的目標式子就是指数损失,在给定n个样本的情况下Adaboost的损失函数为:

在算法中,hinge损失函数和SVM是息息相关的在线性支持向量機中,最优化问题可以等价于下列式子:
下面来对式子做个变形令:
如若取λ=12Cλ=12C,式子就可以表示成:
可以看出该式子与下式非常相姒:

前半部分中的ll就是hinge损失函数,而后面相当于L2正则项

Hinge 损失函数的标准形式

补充一下:在libsvm中一共有4中核函数可以选择,对应的是-t参数分別是:

除了以上这几种损失函数常用的还有:


下面来看看几种损失函数的可视化图像,对着图看看横坐标看看纵坐標,再看看每条线都表示什么损失函数多看几次好好消化消化。
OK暂时先写到这里,休息下最后,需要记住的是:参数越多模型越複杂,而越复杂的模型越容易过拟合过拟合就是说模型在训练数据上的效果远远好于在测试集上的性能。此时可以考虑正则化通过设置正则项前面的hyper parameter,来权衡损失函数和正则项减小参数规模,达到模型简化的目的从而使模型具有更好的泛化能力。
}

某一元一次函数在x轴和y轴上的截距都小于0且x轴截距的y等于x的绝对值是什么函数小于y轴截距的y等于x的绝对值是什么函数.此函数与x轴、y轴围成的图形的面积大小和周长大尛相同,且都为24.此一元一次函数的表达式为    

}

abs() 函数返回数字的y等于x的绝对值是什么函数



  
  • x -- 数值表达式。

函数返回x(数字)的y等于x的绝对值是什么函数


以下展示了使用 abs() 方法的实例:

以上实例运行后输出结果为:


}

我要回帖

更多关于 y等于x的绝对值是什么函数 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信