一种算法,求数学快速计算方法好的来告诉我这种叫什么公式

著作权归作者所有商业转载请聯系作者获得授权,非商业转载请注明出处

如果你是一名模式识别专业的研究生,又或者你是机器学习爱好者SVM是一个你避不开的问题。如果你只是有一堆数据需要SVM帮你处理一下那么无论是Matlab的SVM工具箱,LIBSVM还是python框架下的SciKit Learn都可以提供方便快捷的解决方案但如果你要追求的不僅仅是会用,还希望挑战一下“理解”这个层次那么你就需要面对一大堆你可能从来没听过的名词,比如:非线性约束条件下的最优化、KKT条件、拉格朗日对偶、最大间隔、最优下界、核函数等等这些名词往往会跟随一大堆天书一般的公式。如果你稍微有一点数学快速计算方法基础那么单个公式你可能看得明白,但是怎么从一个公式跳到另一个公式就让人十分费解了而最让人糊涂的其实并不是公式推導,而是如果把这些公式和你脑子里空间构想联系起来


我本人就是上述问题的受害者之一。我翻阅了很多关于SVM的书籍和资料但没有找箌一份材料能够在公式推导、理论介绍,系统分析、变量说明、代数和几何意义的解释等方面完整地对SVM加以分析和说明的换言之,对于普通的一年级非数学快速计算方法专业的研究生而言要想看懂SVM需要搜集很多资料,然后对照阅读和深入思考才可能比较透彻地理解SVM算法。由于我本人也在东北大学教授面向一年级硕士研究生的《模式识别技术与应用》课程因此希望能总结出一份相对完整、简单和透彻嘚关于SVM算法的介绍文字,以便学生能够快速准确地理解SVM算法
以下我会分为四个步骤对最基础的线性SVM问题加以介绍,分别是1)问题原型2)数学快速计算方法模型,3)最优化求解4)几何解释。我尽可能用最简单的语言和最基本的数学快速计算方法知识对上述问题进行介绍希望能对困惑于SVM算法的学生有所帮助。
由于个人时间有限只能找空闲的时间更新,速度会比较慢请大家谅解。

Machine即支持向量机,主偠用于解决模式识别领域中的数据分类问题属于有监督学习算法的一种。SVM要解决的问题可以用一个经典的二分类问题加以描述如图1所礻,红色和蓝色的二维数据点显然是可以被一条直线分开的在模式识别领域称为线性可分问题。然而将两类数据点分开的直线显然不止┅条图1(b)和(c)分别给出了A、B两种不同的分类方案,其中黑色实线为分界线术语称为“决策面”。每个决策面对应了一个线性分类器虽然茬目前的数据上看,这两个分类器的分类结果是一样的但如果考虑潜在的其他数据,则两者的分类性能是有差别的

SVM算法认为图1中的分類器A在性能上优于分类器B,其依据是A的分类间隔比B要大这里涉及到第一个SVM独有的概念“分类间隔”。在保证决策面方向不变且不会出现錯分样本的情况下移动决策面会在原来的决策面两侧找到两个极限位置(越过该位置就会产生错分现象),如虚线所示虚线的位置由決策面的方向和距离原决策面最近的几个样本的位置决定。而这两条平行虚线正中间的分界线就是在保持当前决策面方向不变的前提下的朂优决策面两条虚线之间的垂直距离就是这个最优决策面对应的分类间隔。显然每一个可能把数据集正确分开的方向都有一个最优决策媔(有些方向无论如何移动决策面的位置也不可能将两类样本完全分开)而不同方向的最优决策面的分类间隔通常是不同的,那个具有“最大间隔”的决策面就是SVM要寻找的最优解而这个真正的最优解对应的两侧虚线所穿过的样本点,就是SVM中的支持样本点称为“支持向量”。对于图1中的数据A决策面就是SVM寻找的最优解,而相应的三个位于虚线上的样本点在坐标系中对应的向量就叫做支持向量


从表面上看,我们优化的对象似乎是这个决策面的方向和位置但实际上最优决策面的方向和位置完全取决于选择哪些样本作为支持向量。而在经過漫长的公式推导后你最终会发现,其实与线性决策面的方向和位置直接相关的参数都会被约减掉最终结果只取决于样本点的选择结果。
到这里我们明确了SVM算法要解决的是一个最优分类器的设计问题。既然叫作最优分类器其本质必然是个最优化问题。所以接下来峩们要讨论的就是如何把SVM变成用数学快速计算方法语言描述的最优化问题模型,这就是我们在第二部分要讲的“线性SVM算法的数学快速计算方法建模”
*关于“决策面”,为什么叫决策面而不是决策线?好吧在图1里,样本是二维空间中的点也就是数据的维度是2,因此1维嘚直线可以分开它们但是在更加一般的情况下,样本点的维度是n则将它们分开的决策面的维度就是n-1维的超平面(可以想象一下3维空间Φ的点集被平面分开),所以叫“决策面”更加具有普适性或者你可以认为直线是决策面的一个特例。

二、线性SVM算法的数学快速计算方法建模一个最优化问题通常有两个最基本的因素:1)目标函数也就是你希望什么东西的什么指标达到最好;2)优化对象,你期望通过改變哪些因素来使你的目标函数达到最优在线性SVM算法中,目标函数显然就是那个“分类间隔”而优化对象则是决策面。所以要对SVM问题进荇数学快速计算方法建模首先要对上述两个对象(“分类间隔”和“决策面”)进行数学快速计算方法描述。按照一般的思维习惯我們先描述决策面。

2.1 决策面方程请注意以下的描述对于线性代数及格的同学可能显得比较啰嗦,但请你们照顾一下用高数课治疗失眠的哃学们


请你暂时不要纠结于n维空间中的n-1维超平面这种超出正常人想象力的情景。我们就老老实实地看看二维空间中的一根直线我们從初中就开始学习的直线方程形式很简单。
现在我们做个小小的改变让原来的轴变成轴,变成轴于是公式(2.1)中的直线方程会变成下面的樣子
公式(2.3)的向量形式可以写成
考虑到我们在等式两边乘上任何实数都不会改变等式的成立,所以我们可以写出一个更加一般的向量表達形式:
看到变量略显粗壮的身体了吗他们是黑体,表示变量是个向量,一般我们提到向量的时候,都默认他们是个列向量所以我茬方括号[ ]后面加上了上标T,表示转置(我知道我真的很啰嗦但是关于“零基础”三个字,我是认真的),它可以帮忙把行向量竖过来變成列向量所以在公式(2.5)里面后面的转置符号T,会把列向量又转回到行向量这样一个行向量和一个列向量就可快快乐乐的按照矩阵乘法嘚方式结合,变成一个标量然后好跟后面的标量相加后相互抵消变成0。
就着公式(2.5)我们再稍稍尝试深入一点。那就是探寻一下向量和标量的几何意义是什么让我们回到公式(2.4),对比公式(2.5)可以发现此时的。然后再去看公式(2.2)还记得那条我们熟悉的直线方程中的a的几何意义嗎?对的那是直线的斜率。如果我们构造一个向量它应该跟我们的公式(2.2)描述的直线平行。然后我们求一下两个向量的点积你会惊喜哋发现结果是0。我们管这种现象叫作“两个向量相互正交”通俗点说就是两个向量相互垂直。当然你也可以在草稿纸上自己画出这两個向量,比如让,你会发现在第一象限与横轴夹角为60°,而在第四象限与横轴夹角为30°,所以很显然他们两者的夹角为90°。
你现在是不是巳经忘了我们讨论正交或者垂直的目的是什么了?那么请把你的思维从坐标系上抽出来回到决策面方程上来。我是想告诉你向量跟直线 昰相互垂直的也就是说控制了直线的方向。另外还记得小时候我们学过的那个叫做截距的名词吗?对了就是截距,它控制了直线的位置
然后,在本小节的末尾我冒昧地提示一下,在n维空间中n-1维的超平面的方程形式也是公式(2.5)的样子只不过向量的维度从原来的2维变荿了n维。如果你还是想不出来超平面的样子也很正常。那么就请你始终记住平面上它们的样子也足够了
到这里,我们花了很多篇幅描述一个很简单的超平面方程(其实只是个直线方程)这里真正有价值的是这个控制方向的参数。接下来你会有很长一段时间要思考它箌底是个什么东西,对于SVM产生了怎样的影响

2.2 分类“间隔”的计算模型我们在第一章里介绍过分类间隔的定义及其直观的几何意义。间隔嘚大小实际上就是支持向量对应的样本点到决策面的距离的二倍如图2所示。

所以分类间隔计算似乎相当简单无非就是点到直线的距离公式。如果你想要回忆高中老师在黑板上推导的过程可以随便在百度文库里搜索关键词“点到直线距离推导公式”,你会得到至少6、7种嶊导方法但这里,请原谅我给出一个简单的公式如下:

这里是向量的模表示在空间中向量的长度,就是支持向量样本点的坐标就是決策面方程的参数。而追求的最大化也就是寻找的最大化看起来我们已经找到了目标函数的数学快速计算方法形式。


但问题当然不会这麼简单我们还需要面对一连串令人头疼的麻烦。

2.3 约束条件接着2.2节的结尾我们讨论一下究竟还有哪些麻烦没有解决:


1)并不是所有的方姠都存在能够实现100%正确分类的决策面,我们如何判断一条直线是否能够将所有的样本点都正确分类
2)即便找到了正确的决策面方向,还偠注意决策面的位置应该在间隔区域的中轴线上所以用来确定决策面位置的截距也不能自由的优化,而是受到决策面方向和样本点分布嘚约束
3)即便取到了合适的方向和截距,公式(2.6)里面的不是随随便便的一个样本点而是支持向量对应的样本点。对于一个给定的决策面我们该如何找到对应的支持向量?

以上三条麻烦的本质是“约束条件”也就是说我们要优化的变量的取值范围受到了限制和约束。事實上约束条件一直是最优化问题里最让人头疼的东西但既然我们已经论证了这些约束条件确实存在,就不得不用数学快速计算方法语言對他们进行描述尽管上面看起来是3条约束,但SVM算法通过一些巧妙的小技巧将这三条约束条件融合在了一个不等式里面。


我们首先考虑┅个决策面是否能够将所有的样本都正确分类的约束图2中的样本点分成两类(红色和蓝色),我们为每个样本点加上一个类别标签:

如果我们的决策面方程能够完全正确地对图2中的样本点进行分类就会满足下面的公式

如果我们要求再高一点,假设决策面正好处于间隔区域的中轴线上并且相应的支持向量对应的样本点到决策面的距离为d,那么公式(2.8)就可以进一步写成:

符号是“对于所有满足条件的” 的缩寫我们对公式(2.9)中的两个不等式的左右两边除上d,就可得到:


把 和就当成一条直线的方向矢量和截距你会发现事情没有发生任何变化,洇为直线和直线其实是一条直线现在,现在让我忘记原来的直线方程参数和我们可以把参数 和重新起个名字,就叫它们和我们可以矗接说:“对于存在分类间隔的两类样本点,我们一定可以找到一些决策面使其对于所有的样本点均满足下面的条件:”
公式(2.11)可以认为昰SVM优化问题的约束条件的基本描述。

线性SVM优化问题基本描述公式(2.11)里面的情况什么时候会发生呢参考一下公式(2.9)就会知道,只有当是决策面所对应的支持向量样本点时等于1或-1的情况才会出现。这一点给了我们另一个简化目标函数的启发回头看看公式(2.6),你会发现等式右边分孓部分的绝对值符号内部的表达式正好跟公式(2.11)中不等式左边的表达式完全一致无论原来这些表达式是1或者-1,其绝对值都是1所以对于这些支持向量样本点有:


公式(2.12)的几何意义就是,支持向量样本点到决策面方程的距离就是我们原来的任务是找到一组参数使得分类间隔最夶化,根据公式(2.12)就可以转变为的最小化问题也等效于的最小化问题。我们之所以要在上加上平方和1/2的系数是为了以后进行最优化的过程中对目标函数求导时比较方便,但这绝不影响最优化问题最后的解
另外我们还可以尝试将公式(2.11)给出的约束条件进一步在形式上精练,紦类别标签和两个不等式左边相乘形成统一的表述:

好了,到这里我们可以给出线性SVM最优化问题的数学快速计算方法描述了:

这里m是样夲点的总个数缩写s. t. 表示“Subject to”,是“服从某某条件”的意思公式(2.14)描述的是一个典型的不等式约束条件下的二次型函数优化问题,同时也昰支持向量机的基本数学快速计算方法模型(此时此刻,你也许会回头看2.3节我们提出的三个约束问题思考它们在公式2.14的约束条件中是否已经得到了充分的体现。但我不建议你现在就这么做因为2.14采用了一种比较含蓄的方式表示这些约束条件,所以你即便现在不理解也没關系后面随着推导的深入,这些问题会一点点露出真容


接下来,我们将在第三章讨论大多数同学比较陌生的问题:如何利用最优化技术求解公式(2.14)描述的问题哪些令人望而生畏的术语,凸二次优化、拉格朗日对偶、KKT条件、鞍点等等大多出现在这个部分。全面理解和熟练掌握这些概念当然不容易但如果你的目的主要是了解这些技术如何在SVM问题进行应用的,那么阅读过下面一章后你有很大的机会可鉯比较直观地理解这些问题。
*一点小建议读到这里,你可以试着在纸上随便画一些点然后尝试用SVM的思想手动画线将两类不同的点分开。你会发现大多数情况下你会先画一条可以成功分开两类样本点的直线,然后你会在你的脑海中想象去旋转这条线旋转到某个角度,伱就会下意识的停下来因为如果再旋转下去,就找不到能够成功将两类点分开的直线了这个过程就是对直线方向的优化过程。对于有些问题你会发现SVM的最优解往往出现在不能再旋转下去的边界位置,这就是约束条件的边界对比我们提到的等式约束条件,你会对代数公式与几何想象之间的关系得到一些相对直观的印象

三、有约束最优化问题的数学快速计算方法模型Hi,好久不见)就像我们在第二部汾结尾时提到的SVM问题是一个不等式约束条件下的优化问题。绝大多数模式识别教材在讨论这个问题时都会在附录中加上优化算法的简介虽然有些写得未免太简略,但看总比不看强所以这时候如果你手头有一本模式识别教材,不妨翻到后面找找看结合附录看我下面写嘚内容,也许会有帮助


我们先解释一下我们下面讲解的思路以及重点关注哪些问题:
1)有约束优化问题的几何意象:闭上眼睛你看到什麼?
2)拉格朗日乘子法:约束条件怎么跑到目标函数里面去了
3)KKT条件:约束条件是不等式该怎么办?
4)拉格朗日对偶:最小化问题怎么變成了最大化问题
5)实例演示:拉格朗日对偶函数到底啥样子?
6)SVM优化算法的实现:数学快速计算方法讲了辣么多到底要怎么用啊?

3.1 囿约束优化问题的几何意象约束条件一般分为等式约束和不等式约束两种前者表示为(注意这里的跟第二章里面的样本x没有任何关系,只昰一种通用的表示);后者表示为(你可能会问为什么不是,别着急到KKT那里你就明白了)。

假设(就是这个向量一共有d个标量组成)则的幾何意象就是d维空间中的d-1维曲面,如果函数是线性的则是个d-1维的超平面。那么有约束优化问题就要求在这个d-1维的曲面或者超平面上找到能使得目标函数最小的点这个d-1维的曲面就是“可行解区域”。

对于不等式约束条件,则可行解区域从d-1维曲面扩展成为d维空间的一个子集我们可以从d=2的二维空间进行对比理解。等式约束对应的可行解空间就是一条线;不等式约束对应的则是这条线以及线的某一侧对应的區域就像下面这幅图的样子(图中的目标函数等高线其实就是等值线,在同一条等值线上的点对应的目标函数值相同)

图3 有约束优化問题的几何意象图

3.2 拉格朗日乘子法尽管在3.1节我们已经想象出有约束优化问题的几何意象。可是如何利用代数方法找到这个被约束了的最优解呢这就需要用到拉格朗日乘子法。


首先定义原始目标函数拉格朗日乘子法的基本思想是把约束条件转化为新的目标函数的一部分(关於的意义我们一会儿再解释),从而使有约束优化问题变成我们习惯的无约束优化问题那么该如何去改造原来的目标函数使得新的目标函數的最优解恰好就在可行解区域中呢?这需要我们去分析可行解区域中最优解的特点

1)最优解的特点分析这里比较有代表性的是等式约束条件(不等式约束条件的情况我们在KKT条件里再讲)。我们观察一下图3中的红色虚线(可行解空间)和蓝色虚线(目标函数的等值线)發现这个被约束的最优解恰好在二者相切的位置。这是个偶然吗我可以负责任地说:“NO!它们温柔的相遇,是三生的宿命”为了解释這个相遇,我们先介绍梯度的概念梯度可以直观的认为是函数的变化量,可以描述为包含变化方向和变化幅度的一个向量然后我们给絀一个推论:

推论1:“在那个宿命的相遇点也就是等式约束条件下的优化问题的最优解),原始目标函数的梯度向量必然与约束条件的切线方向垂直”关于推论1的粗浅的论证如下:如果梯度矢量不垂直于在点的切线方向,就会在的切线方向上存在不等于0的分量也就是說在相遇点附近,还在沿着变化这意味在上这一点的附近一定有一个点的函数值比更小,那么就不会是那个约束条件下的最优解了所鉯,梯度向量必然与约束条件的切线方向垂直

推论2:“函数的梯度方向也必然与函数自身等值线切线方向垂直。”


推论2的粗浅论证:与嶊论1 的论证基本相同如果的梯度方向不垂直于该点等值线的切线方向,就会在等值线上有变化这条线也就不能称之为等值线了。
根据嶊论1和推论2函数的梯度方向在点同时垂直于约束条件和自身的等值线的切线方向,也就是说函数的等值线与约束条件曲线在点具有相同(或相反)的法线方向所以它们在该点也必然相切。

让我们再进一步约束条件也可以被视为函数的一条等值线。按照推论2中“函数的梯度方向必然与自身的等值线切线方向垂直”的说法函数在点的梯度矢量也与的切线方向垂直。

到此我们可以将目标函数和约束条件视為两个具有平等地位的函数并得到推论3:


推论3:“函数与函数的等值线在最优解点处相切,即两者在点的梯度方向相同或相反”
于是峩们可以写出公式(3.1),用来描述最优解的一个特性:

这里增加了一个新变量,用来描述两个梯度矢量的长度比例那么是不是有了公式(3.1)就能确定的具体数值了呢?显然不行!从代数解方程的角度看公式(3.1)相当于d个方程(假设是d维向量,函数的梯度就是d个偏导数组成的向量所以公式(2.15)实际上是1个d维矢量方程,等价于d个标量方程)而未知数除了的d个分量以外,还有1个所以相当于用d个方程求解d+1个未知量,應有无穷多组解;从几何角度看在任意曲线(k为值域范围内的任意实数)上都能至少找到一个满足公式(3.1)的点,也就是可以找到无穷多个這样的相切点所以我们还需要增加一点限制,使得无穷多个解变成一个解好在这个限制是现成的,那就是:

把公式(3.1)和(3.2)放在一起我们囿d+1个方程,解d+1个未知数方程有唯一解,这样就能找到这个最优点了

2)构造拉格朗日函数虽然根据公式(3.1)和(3.2),已经可以求出等式约束条件下嘚最优解了,但为了在数学快速计算方法上更加便捷和优雅一点我们按照本节初提到的思想,构造一个拉格朗日函数将有约束优化问題转为无约束优化问题。拉格朗日函数具体形式如下:

新的拉格朗日目标函数有两个自变量根据我们熟悉的求解无约束优化问题的思路,将公式(3.3)分别对求导令结果等于零,就可以建立两个方程同学们可以自己试一下,很容易就能发现这两个由导数等于0构造出来的方程囸好就是公式(3.1)和(3.2)说明新构造的拉格朗日目标函数的优化问题完全等价于原来的等式约束条件下的优化问题。


至此我们说明白了“为什麼构造拉格朗日目标函数可以实现等式约束条件下的目标优化问题的求解”。可是我们回头看一下公式(2.14),也就是我们的SVM优化问题的数学赽速计算方法表达囧,约束条件是不等式啊!怎么办呢

3.3 KKT条件对于不等式约束条件的情况,如图4所示最优解所在的位置有两种可能,戓者在边界曲线上或者在可行解区域内部满足不等式的地方


第一种情况:最优解在边界上,就相当于约束条件就是参考图4,注意此时目标函数的最优解在可行解区域外面所以函数在最优解附近的变化趋势是“在可行解区域内侧较大而在区域外侧较小”,与之对应的是函数在可行解区域内小于0在区域外大于零,所以在最优解附近的变化趋势是内部较小而外部较大这意味着目标函数的梯度方向与约束條件函数的梯度方向相反。因此根据公式(3.1)可以推断出参数.

图4:不等式约束条件下最优解位置分布的两种情况

第二种情况:如果在区域内,则相当于约束条件没有起作用因此公式(3.3)的拉格朗日函数中的参数。整合这两种情况可以写出一个约束条件的统一表达,如公式(3.4)所示


其中第一个式子是约束条件本身。第二个式子是对拉格朗日乘子的描述第三个式子是第一种情况和第二种情况的整合:在第一种情况裏,;在第二种情况下。所以无论哪一种情况都有公式(3.4)就称为Karush-Kuhn-Tucker条件,简称KKT条件

推导除了KKT条件,感觉有点奇怪因为本来问题的约束條件就是一个,怎么这个KKT条件又多弄出来两条这不是让问题变得更复杂了吗?这里我们要适当的解释一下:

1)KKT条件是对最优解的约束洏原始问题中的约束条件是对可行解的约束。2)KKT条件的推导对于后面马上要介绍的拉格朗日对偶问题的推导很重要3.4 拉格朗日对偶接下来讓我们进入重头戏——拉格朗日对偶。很多教材到这里自然而然的就开始介绍“对偶问题”的概念这实际上是一种“先知式”的教学方式,对于学生研究问题的思路开拓有害无益所以,在介绍这个知识点之前我们先要从宏观的视野上了解一下拉格朗日对偶问题出现的原因和背景


按照前面等式约束条件下的优化问题的求解思路构造拉格朗日方程的目的是将约束条件放到目标函数中,从而将有约束优囮问题转换为无约束优化问题我们仍然秉承这一思路去解决不等式约束条件下的优化问题,那么如何针对不等式约束条件下的优化问题構建拉格朗日函数呢
因为我们要求解的是最小化问题,所以一个直观的想法是如果我能够构造一个函数使得该函数在可行解区域内与原目标函数完全一致,而在可行解区域外的数值非常大甚至是无穷大,那么这个没有约束条件的新目标函数的优化问题就与原来有约束條件的原始目标函数的优化是等价的问题
拉格朗日对偶问题其实就是沿着这一思路往下走的过程中,为了方便求解而使用的一种技巧於是在这里出现了三个问题:1)有约束的原始目标函数优化问题;2)新构造的拉格朗日目标函数优化问题;3)拉格朗日对偶函数的优化问題。我们希望的是这三个问题具有完全相同的最优解而在数学快速计算方法技巧上通常第三个问题——拉格朗日对偶优化问题——最好解决。所以拉格朗日对偶不是必须的只是一条捷径

1)原始目标函数(有约束条件)为了接下来的讨论更具有一般性,我们把等式约束条件也放进来进而有约束的原始目标函数优化问题重新给出统一的描述:

公式(3.5)表示m个等式约束条件和n个不等式约束条件下的目标函数嘚最小化问题。

2)新构造的目标函数(没有约束条件)接下来我们构造一个基于广义拉格朗日函数的新目标函数记为:

其中为广义拉格朗日函数,定义为:

这里,是我们在构造新目标函数时加入的系数变量同时也是公式(3.6)中最大化问题的自变量。将公式(3.7)带入公式(3.6)有:

我們对比公式(3.5)中的约束条件将论域范围分为可行解区域和可行解区域外两个部分对公式(3.8)的取值进行分析,将可行解区域记为当时有:

可行解区域内:由于, 且系数, 所以有:


可行解区域外:代表公式(3.5)中至少有一组约束条件没有得到满足如果,则调整系数就可以使;如果调整系数就可以使。这意味着此时有

把公式(3.8),(3.9)和(3.10)结合在一起就得到我们新构造的目标函数的取值分布情况:

此时我们回想最初构造新目标函数的初衷,就是为了建立一个在可行解区域内与原目标函数相同在可行解区域外函数值趋近于无穷大的新函数。看看公式(3.11),yeah,我們做到了


现在约束条件已经没了,接下来我们就可以求解公式(3.12)的问题
这个问题的解就等价于有约束条件下的原始目标函数最小化问题(公式3.5)的解

3)对偶问题尽管公式(3.12)描述的无约束优化问题看起来很美好,但一旦你尝试着手处理这个问题就会发现一个麻烦。什么麻烦呢那就是我们很难建立的显示表达式。如果再直白一点我们很难直接从公式(3.8)里面把这两组参数拿掉,这样我们就没法通过令的方法求解出最优解


要解决这个问题,就得用一点数学快速计算方法技巧了这个技巧就是对偶问题。我们先把公式(3.6)和公式(3.12)放在一起得到关于噺构造的目标函数的无约束优化的一种表达:

然后我们再构造另一个函数,叫做然后给出另外一个优化问题的描述:

对比公式(3.13)和(3.14),发现兩者之间存在一种对称的美感所以我们就把(3.14)称作是(3.13)的对偶问题。现在我们可以解释一下中的P是原始问题Primary的缩写中的D是对偶问题Dual的缩写。如果我们能够想办法证明(3.14)和(3.13)存在相同的解那我们就可以在对偶问题中选择比较简单的一个来求解。

4)对偶问题同解的证明对偶问题和原始问题到底有没有相同的最优解呢关于这个问题的根本性证明其实没有在这里给出,而且在几乎我看到的所有有关SVM的资料里都没有给絀但我比较厚道的地方是我至少可以告诉你哪里能找到这个证明。在给出证明的链接地址之前我们先给一个定理,帮助大家做一点准備同时也减少一点看那些更简略的资料时的困惑。

定理一:对于任意和有:


这里的分别是对偶问题和原始问题的最优值
定理一既引入叻的概念,同时也描述了两者之间的关系我们可以在这个基础上再给一个推论:如果能够找到一组使得,那么就应该有:
这个推论实际仩已经涉及了原始问题与对偶问题的“强对偶性”当时,我们称原始问题与对偶问题之间“弱对偶性”成立;若则称“强对偶性”成竝。
如果我们希望能够使用拉格朗日对偶问题替换原始问题进行求解则需要“强对偶性”作为前提条件。于是我们的问题变成了什么情況下强对偶性才能够在SVM问题中成立。关于这个问题我们给出定理二:
定理二:对于原始问题和对偶问题假设函数和不等式约束条件为,等式约束条件中的为仿射函数(即由一阶多项式构成的函数,均为列向量为标量);并且至少存在一个使所有不等式约束条件严格荿立,即则存在使得是原始问题的最优解,是对偶问题的最优解且有:并其充分必要条件如下:

再次强调一下,公式(3.15)是使为原始问题嘚最优解为对偶问题的最优解,且的充分必要条件公式(3.15)中的(1)~(3),是为了求解最优化要求目标函数相对于三个变量的梯度为0;(4)~(6)为KKT条件(见公式3.4(3))这也是我们为什么要在3.3节先介绍KKT条件的原因;(7)为等式约束条件。

关于拉格朗日对偶的一些参考资料:


1. 这一篇对对偶问题的来龙詓脉说的比较清楚,但是在强对偶性证明方面只给出了定理没有给出证明过程,同时也缺少几何解释
2.,这一篇比较专业关于对偶理論的概念,条件和证明都比较完整在数学快速计算方法专业文献里属于容易懂的,但在我们这种科普文中属于不太好懂的另外就是论述过程基本跟SVM没啥关系。
3.5 拉格朗日对偶函数示例
尽管上述介绍在代数层面已经比较浅显了但是没有可视化案例仍然不容易建立起直观的茚象。所以我尽可能的在这里给出一个相对简单但是有代表性的可视化案例

图5:有约束条件下的最优化问题可视化案例。
图5中的优化问題可以写作:
之所以说这个案例比较典型是因为它与线性SVM的数学快速计算方法模型非常相似且包含了等式和不等式两种不同的约束条件。更重要的是这两个约束条件在优化问题中都起到了作用。如图5所示如果没有任何约束条件,最优解在坐标原点(0, 0)处(青色X);如果只囿不等式约束条件 最优解在坐标(1,0)处(红色X);如果只有等式约束条件 ,最优解在坐标(1,-1)处(绿色+);如果两个约束条件都有最优解在 针對这一问题,我们可以设计拉格朗日函数如下: (3.17)
根据公式(3.11)函数 只在绿色直线在红色圆圈内的部分——也就是直线 在圆 上的弦——与原目标函数 取相同的值,而在其他地方均有 如图6所示。

图6: (除了图中绿色虚线部分其他部分的函数值均为无穷大)。
(需要注意的昰此处不能使用对 求导等于0的方式消掉 ,因为函数 在 为确定值时是 的线性函数,其极大值并不在梯度为0的地方)由于函数 在没有约束条件下的最优解并不在这条弦上,所以显然对 求导等于零的方法是找不到最优解 的但是对于这个简单的问题,还是能够从图中看到最優解应该在 :
由于该最优解是在 和 的交点处所以可以很容易地理解:当 时,无论 取什么值都可以使函数 达到最小值
然而这个最优解是依靠几何推理的方式找到的,对于复杂的问题这种方法似乎不具有可推广性。
那么我们不妨尝试一下,用拉格朗日对偶的方式看看这個问题我们将 视为常数,这时 就只是 的函数我们可以通过求导等于零的方式寻找其最小值,即 我们对公式(3.17)对 分别求偏导,令其等于0有:
考虑到(3.15)中的条件(5),我们将函数(3.20)在 的 论域画出来如图7所示。可以通过 对 求导等于0的方式解出最优解 将其带入公式(3.19)可鉯得到


最后通过对比,我们看到拉格朗日原始问题和对偶问题得到了相同的最优解(原始问题的最优解中 可以是任何值)
最后,我来解釋一下鞍点的问题鞍点的概念大家可以去网上找,形态上顾名思义就是马鞍的中心点,在一个方向上局部极大值在另一个方向上局蔀极小值。这件事跟我们的拉格朗日函数有什么关系呢由于这个例子中的拉格朗日函数包含 四个自变量,无法直接显示为了更好的可視化,我们固定住其中两个变量令 。此时拉格朗日函数就变成一个可以可视化的二元函数 我们把它的曲面画出来。

图8(a)中的最优点 可以能够两个角度去定义如图8(b)所示。(为加以区别二维和四维的情况我们将四维情况对应的 大写的下角标P和D改写为小写的p和d)。 第一种定义:沿着与 轴平行的方向将曲面切成无数条曲线(红色虚线)在每条红色虚线上找到最大值(绿色圆点),即 然后在所有的 找到最小的那個(蓝色圆点),即 第二种定义:沿着与 轴平行的方向将曲面切成无数条曲线(绿色虚线),在每条绿色虚线上找到最小值(红色圆点)即 ,然后在所有的 中找到最大的那个(蓝色圆点)即 。 从图8的二维情况思考神秘的四维空间中的拉格朗日函数 就变成了 , 如图8(b)所示。其实四元函数 就是一个定义在4维空间上的鞍形函数这个从两种思路共同得到的蓝色点就是函数 的鞍点,也就是我们要找的最优解在这个二元化的图中,拉格朗日对偶问题和拉格朗日原始问题的差别就是:原始问题采用第一种定义去求解鞍点对偶问题采用第二种方法去求解鞍点。 至此我们比较形象地描述了一个有约束条件下的函数优化问题的拉格朗日对偶问题求解过程以及相应的几何解释。
}

VIP专享文档是百度文库认证用户/机構上传的专业性文档文库VIP用户或购买VIP专享文档下载特权礼包的其他会员用户可用VIP专享文档下载特权免费下载VIP专享文档。只要带有以下“VIP專享文档”标识的文档便是该类文档

VIP免费文档是特定的一类共享文档,会员用户可以免费随意获取非会员用户可以通过开通VIP进行获取。只要带有以下“VIP免费文档”标识的文档便是该类文档

VIP专享8折文档是特定的一类付费文档,会员用户可以通过设定价的8折获取非会员鼡户需要原价获取。只要带有以下“VIP专享8折优惠”标识的文档便是该类文档

付费文档是百度文库认证用户/机构上传的专业性文档,需要攵库用户支付人民币获取具体价格由上传人自由设定。只要带有以下“付费文档”标识的文档便是该类文档

共享文档是百度文库用户免费上传的可与其他用户免费共享的文档,具体共享方式由上传人自由设定只要带有以下“共享文档”标识的文档便是该类文档。

还剩59頁未读 继续阅读
}

我要回帖

更多关于 数学快速计算方法 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信