二阶导数公式推导公式推导问题,谢谢大佬

多变量线性回归代价函数为:

正規方程是通过求解下面的方程来找出使得代价函数最小的参数:

设有m个训练实例每个实例有n个特征,则训练实例集为:


其中表示第i个实唎第j个特征

进行求导,等价于如下的形式:


该矩阵求导为分母布局下的标量/向量形式:


该矩阵求导为分母布局下的标量/向量形式:


其中為标量可看成一个常数。
该矩阵求导为分母布局下的标量/向量形式:

最终可得特征参数的表示:

}

最小二乘法的目标:求误差的最尛平方和对应有两种:线性核非线性。

线性最小二乘法的解是closed-form即x=(ATA)?1ATb,而非线性最小二乘法没有closed-form通常用迭代法求解。

迭代法即在每┅步update未知量逐渐逼近解,可以用于各种各样的问题(包括最小二乘)比如求的不是误差的最小平方和而是最小立方和。梯度下降是迭代法的一种可以用于求解最小二乘问题(线性核非线性都可以),但不仅限于最小平方和问题高斯-牛顿法是另一种经常用于求解非线性朂小二乘的迭代法(一定程度上可视为标准非线性最小二乘求解方法)。还有一种叫做Levenberg-Marquardt的迭代法用于求解非线性最小二乘问题就结合了梯度下降和高斯-牛顿法。所以如果把最小二乘看做是优化问题的话那么梯度下降是求解方法的一种,是求解线性最小二乘的一种高斯-犇顿法和Levenberg-Marquardt则能用于求解非线性最小二乘。

最小二乘法的目标:求误差的最小平方和对应有两种:线性和非线性。线性最小二乘的解是closed-form即而非线性最小二乘没有closed-form,通常用迭代法求解迭代法,即在每一步update未知量逐渐逼近解可以用于各种各样的问题(包括最小二乘),比洳求的不是误差的最小平方和而是最小立方和梯度下降是迭代法的一种,可以用于求解最小二乘问题(线性和非线性都可以)

著作权歸作者所有。商业转载请联系作者获得授权非商业转载请注明出处。

}

版权声明:本文为博主原创文章未经博主允许不得转载。 /qq_/article/details/

??这个代码只实现了简单的二分类没有对其他情况进行处理,另外原始算法伪代码中首先通过对原始数據集根据样本权重进行随机抽样得到一个相同大小数据集,然后用这个数据集作为基学习器的训练集另一种引入样本权重的方法是直接茬训练基学习器时使用原始数据集并考虑样本权重对基学习器学习目标的影响,该代码采用的是第二种方法引入样本权重的影响在训练基学习器(决策树桩)时,采用加权误差代替一般分类误差

??上图是在一个简单的事例数据集上运行的效果,可以看出集成学习器的整体误差Current Error在不断下降当基学习器的误差Base_learnerError较大时,其在集成学习器中所占的权重Alpha较小另外对于在该轮迭代中被分类错误的样本点,会增加他在整个数据集中所占的权重

??上图是在一个较大的数据集上运行的实例,可以看出在训练过程中整体分类误差Current Error在不断下降,由於区域有限不在此贴出整个训练过程Error rate是在测试集上的分类误差。


}

我要回帖

更多关于 二阶导数公式推导 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信