加slackcondition variablee,目标函数需不需要变化

The Generalized Slack Variable Linear Program on JSTOR
Have library access?
The Generalized Slac...
Journal Article
T. H. Mattheiss and William B. Widhelm
Management Science
Vol. 23, No. 8 (Apr., 1977), pp. 859-871
Published by:
Stable URL: http://www.jstor.org/stable/2630716
Page Count: 13
You can always find the topics here!
Were these topics helpful?
Thumbs up. These topics are helpful.
Thumbs down. These topics are not helpful.
Algorithms
Optimal solutions
Objective functions
Nonlinear programming
Operations research
Mathematical theorems
Management science
Index sets
Cite This Item
Copy Citation
Export Citation
(For EndNote, ProCite, Reference Manager, Zotero…)
(For BibTex)
Note: Always review your references and make any necessary corrections before using. Pay attention to names, capitalization, and dates.
Business strategy Decision analysis Information systems Manufacturing and distribution Marketing Mathematical programming and networks Organization performance Public sector applications R&D/innovation Stochastic models and simulation Strategy and design Supply chain management
(Vol. 1, No. 1 - Vol. 57, No. 12)
Moving Wall: 5 years
The "moving wall" represents the time period between the last issue
available in JSTOR and the most recently published issue of a journal.
Moving walls are generally represented in years. In rare instances, a
publisher has elected to have a "zero" moving wall, so their current
issues are available in JSTOR shortly after publication.
Note: In calculating the moving wall, the current year is not counted.
For example, if the current year is 2008 and a journal has a 5 year
moving wall, articles from the year 2002 are available.
Terms Related to the Moving Wall
Fixed walls: Journals with no new volumes being added to the archive.
Absorbed: Journals that are combined with another title.
Complete: Journals that are no longer published or that have been
combined with another title.
Management & Organizational Behavior,
Business & Economics,
Collections:
Arts & Sciences IV Collection,
Business & Economics Collection,
Business I Collection,
JSTOR Essential Collection
× Close Overlay
Article Tools
You have javascript disabled.
In order to preview this item and view access options please enable javascript.
How does it work?
Select the
purchase option.
Check out using a credit card or bank account with .
Read your article online and download the PDF from your email or your MyJSTOR account.
Access supplemental materials and multimedia.
Unlimited access to purchased articles.
Ability to save and export citations.
Custom alerts when new content is added.
Preview not available
The dilemma of when to cease analysis of a subproblem and go on to the next subproblem in convex programming is an especially difficult one. This paper views convex programming as an extension of linear programming and focuses attention on the analysis of a given subproblem. Specifically, if K = {x| Ax ≤ b} is bounded with a nonempty interior and represents a residual unsearched region in some convex programming algorithm, what is (are) the "best" trial point(s) which can be selected? The generalized slack variable linear program (GSVLP) provides a mechanism for implementing trial point selection based on many strategies. Several implications of the L2 norm are revealed which are especially important in constraint deletion and rate of reduction of the hypervolume of the residual search region K.
Page Thumbnails您所在位置: &
&nbsp&&nbsp&nbsp&&nbsp
数学规划建模.ppt 115页
本文档一共被下载:
次 ,您可全文免费在线阅读后下载本文档。
下载提示
1.本站不保证该用户上传的文档完整性,不预览、不比对内容而直接下载产生的反悔问题本站不予受理。
2.该文档所得收入(下载+内容+预览三)归上传者、原创者。
3.登录后可充值,立即自动返金币,充值渠道很便利
需要金币:100 &&
你可能关注的文档:
··········
··········
数学规划建模 华中农业大学数学建模基地系列课件 内容提要 什么是数学规划 连续性线性规划 整数线性规划 非线性规划 多目标规划 目标规划
 某班准备从5名游泳员中选择4人组成接力队, 参加学校的4×100m混合泳接力比赛,5名队员4种泳 姿的百米平均成绩如表,问如何选拔队员。 1’02’’4 57’’2 59’’4 53’’ 58’’6 自由泳 1’23’’8 1’09’’6 1’09’’6 1’06’’4 1’27’’ 蛙泳 1’11’’ 1’14’’2 1’14’’2 1’06’’ 1’15’’6 仰泳 1’07’’4 1’10’’ 1’18’’ 57’’2 1’06’’8 蝶泳 戊 丁 丙 乙 甲 队员 练习一下吧
客户增加需求: 由于采用不同切割模式太多,会增加生产和管理成本,规定切割模式不能超过3种。如何下料最节省? 5米10根
续例5下料问题(P87) 非线性规划 对大规模问题,用模型的约束条件界定合理模式 现有4种需求:4米50根,5米10根,6米20根,8米15根,由搜索算法确定有16种合理切割模式。 决策变量
xi ~按第i 种模式切割的原料钢管根数(i=1,2,3)
r1i, r2i, r3i, r4i ~ 第i 种切割模式下,每根原料钢管生产4米、5米、6米和8米长的钢管的数量 非线性规划
满足需求 目标函数(总根数) 约束条件 xi ,r1i, r2i, r3i, r4i (i=1,2,3)为整数
模式合理: 每根余料不超过3米 整数约束: 非线性规划
增加约束,缩小可行域,便于求解 原料钢管总根数下界:
需求:4米50根,5米10根,6米20根,8米15根 每根原料钢管长19米 非线性规划
特殊生产计划:对每根原料钢管 模式1:切割成4根4米钢管,需13根; 模式2:切割成1根5米和2根6米钢管,需10根; 模式3:切割成2根8米钢管,需8根。 原料钢管总根数上界:31
模式排列顺序可任定
上下界 非线性规划
model: Title 钢管下料 - 最小化钢管根数的LINGO模型; SETS:
NEEDS/1..4/:LENGTH,NUM;
CUTS/1..3/:X;
PATTERNS(NEEDS,CUTS):R;
ENDSETS DATA:
LENGTH=4 5 6 8;
NUM=50 10 20 15;
CAPACITY=19; ENDDATA 非线性规划
min=@SUM(CUTS(I): X(I) );
@FOR(NEEDS(I): @SUM(CUTS(J): X(J)*R(I,J) ) &NUM(I) ); !满足需求约束; @FOR(CUTS(J): @SUM(NEEDS(I): LENGTH(I)*R(I,J) ) &CAPACITY ); !合理切割模式约束; @FOR(CUTS(J): @SUM(NEEDS(I): LENGTH(I)*R(I,J) ) &CAPACITY-@MIN(NEEDS(I):LENGTH(I)) );
!合理切割模式约束; @SUM(CUTS(I): X(I) ) &26; @SUM(CUTS(I): X(I) ) &31;
!人为增加约束; @FOR(CUTS(I)|I#LT#@SIZE(CUTS):X(I)&X(I+1) ); !人为增加约束; @FOR(CUTS(J): @GIN(X(J)) ) ; @FOR(PATTERNS(I,J): @GIN(R(I,J)) ); end 非线性规划
模式1:每根原料钢管切割成3根4米和1根6米钢管,共10根;
模式2:每根原料钢管切割成2根4米、1根5米和1根6米钢管,共10根;
模式3:每根原料钢管切割成2根8米钢管,共8根。 原料钢管总根数为28根。
用去原料钢管总根数为28根。
非线性规划
料场的建立与运输
建筑工地的位置(用平面坐标a, b表示,距离单位:公里)及水泥日用量d(吨)下表给出。有两个临时料场位于P (5,1), Q (2, 7),日储量各有20吨。从A, B两料场分别向各工地运送多少吨水泥,使总的吨公里数最小。两个新的料场应建在何处,节省的吨公里数有多大? 11 6 7 4 5 3 d 7.75 6.5 5 4.75 0.75 1.25 b 7.25 3 5.75 0.5 8.75 1.25 a 6 5 4 3 2 1 练习一下吧
线性规划致力于某个目标函数的最优解,这个最优解若是超过了实际的需要,很可能是以过分地消耗了约束条件中的某些资源作为
正在加载中,请稍后...房地产估价师考试备战已经开始,为了方便考生进行全面备考,小编特别对房估考生如何进行报考、备考提出了建议,并对重点预习知识、考试大纲与笔记画重点。房地产估价师职业前景可是大好,做好考试准备,事半功倍。
在此可输入您对该资料的评论~
(window.slotbydup = window.slotbydup || []).push({
id: '4540180',
container: s,
size: '250,200',
display: 'inlay-fix'
热门资料排行
添加成功至
资料评价:
所需积分:5标签:至少1个,最多5个
模型与优化
LIBSVM和LIBLINEAR都提供了多种不同的模型供使用者选择,不同的模型有各自适用的场景。下面分别介绍LIBSVM和LIBLINEAR所提供的各种模型。
下面是LIBSVM帮助内容提供的介绍,给出了LIBSVM支持的5种模型。其中模型0和1对应的都是SVM的分类模型,2对应的是one-class分类器,也就是只需要标注一个标签,模型3和4对应的是SVM的回归模型。
LIBSVM包含的各种模型:
-s svm_type : set type of SVM (default 0)
0 -- C-SVC
(multi-class classification)
1 -- nu-SVC
(multi-class classification)
2 -- one-class SVM
3 -- epsilon-SVR
(regression)
4 -- nu-SVR
(regression)
首先来看最基础的C-SVC模型。SVM可以写成如下的优化目标函数(这里不详细介绍推导算法了):当模型使用linear kernel,也就是?(x)=x时,上面的问题一个标准的二次凸优化问题,可以比较方便的对每一个变量进行求导。求解这样的问题是有很多快速的优化方法的,这些方法在LIBLINEAR中都有应用。但是如果是引入kernel的SVM,情况就大不一样了。因为很多时候我们既不能得到核函数的具体形式,又无法得到特征在核空间中新的表达。这个时候,之前用在线性SVM上的的求解思路就完全不work了。为了解决这个问题,就必须采用标准的SVM求解思路,首先把原问题转化为对偶问题,得到下面的目标函数(具体过程可以参考任何介绍SVM的资料):
通过对偶变化,上面的目标函数变成了一个关于变量α的二次型。很显然,上面目标函数中最重要的常亮是矩阵Q,既训练样本的Kernel Matrix,满足$$Q_{i.j}=?(x_i)^T?(x_j)$$先看好的一方面,根据核函数的定义,能够保证Q是一个正定的矩阵。也就是说,上面的目标函数还是一个凸函数,优化收敛后能保证得到的解是全局最优解, 这也是SVM的重要优势之一。但是问题也随之而来,使用常用的核函数,只要任意给出两个向量,总是能够计算出一个非0的距离。这也就意味着矩阵Q将会是一个非常稠密的矩阵,如果训练样本足够多,那么矩阵Q的存储和计算将成为很大的问题,这也是SVM的优化算法中的最大挑战。
由于矩阵Q过大,所以想一次性优化整个α是比较困难的。所以常用的方法都是先把Q大卸八块,每次选择一部分的Q,然后update与这部分Q相关的α的值。这其中最著名的算法就是1998由John C. Platt提出的,而LIBSVM的优化过程也是基于SMO算法进行的。SMO算法的每一步迭代都选择最小的优化单元,也就是固定其他的α,只挑选两个α的值进行优化。之所以不选择一个,是因为有$$y^Tα=0$$的约束,至少选择两个α的坐标才有可能进行更新。本文主要目的是介绍LIBSVM,所以就不详细讨论SMO的细节了。至于LIBSVM中的具体算法实现,在中介绍的很详细,这里总结部分关键问题:
Working Set,也就是需要优化的α部分的选取
迭代停止条件的设置
α的更新算法,也就是每一步子问题的求解方法
Shrinking,即移除一些已经满足条件的α,加快收敛速度
Cache,当Q矩阵过大时,需要对矩阵进行缓存。
上面的每个问题,处理起来都不简单。作为使用者,或许也没有必要深谙里面的所有细节。我觉得最需要认识的两个问题是:
1) SVM的目标函数看起来好像是一个标准的优化问题,但实际求解却要复杂得多。为了提高求解的速度,既要做算法上的优化,也需要做工程上的改进。如果只是简简单单按照教科书的方法,甚至直接调用一些优化的工具包来实现的SVM算法,最多也就算个demo。要能够真正写一个高效稳定、能处理大规模数据的SVM工具还是非常不容易的。所以用LIBSVM还是比自己实现算法要简单靠谱不少。
2)SVM的求解之所以要优化,就是因为这个问题本身计算和存储比较麻烦。所以虽然做了这么多的优化,整个算法求解的效率仍然较低。所以我们在使用时还要注意各种程序的细节,提高运行的效率。另外,样本量过大时,有时候为了充分利用数据,也不得不忍痛割爱,放弃kernel的使用。
除了标准的C-SVM,LIBSVM也提供了对其他一些SVM方法的支持。其中ν-SVM与C-SVM的算法与应用场景基本是相同的,唯一的区别是原本的参数C变成了参数ν。C-SVM中参数C调整范围在[0,+∞),而ν-SVM中与之对应的参数ν的调整范围变成了 (0,1]。这样的设置使得ν-SVM更具解释性,有时在参数设置上也能提供一定的方便。但ν-SVM与C-SVM并不存在本质上的差别,通过参数的调节,两者可以达到完全相同的效果。所以在使用LIBSVM处理分类问题是,选择上面任何一种方法都是OK的,只需要遵循自己的习惯就好了。
One-Class SVM也是LIBSVM所支持的一种分类方法。顾名思义,使用One Class时,只需要提供一类样本,算法会学习一个尽量小的超球面包裹所有的训练样本。One-Class SVM看起来很有诱惑力,因为我们经常会遇到有一类样本而需要学习分类器的情况。但事实上,一方面很多时候我们得到的正样本在采样过程中存在很大的偏差,导致学习出的One Class分类器不一定考虑到了所有正样本的情形;另一方面,大部分问题还是存在很多构造人工负样本的办法。根据我的经验,采用普通的SVM效果通常还是会好过One-Class SVM,而One-Class SVM在真实场景中的使用也并算不上多。因此在使用这个方法前也需要对问题进行更深入的研究。
最后,LIBSVM也支持基于SVM的回归模型,即SVR。与分类模型类似,SVR也分为C-SVR和ν-SVR。SVR的目标函数与SVM的分类模型稍有区别。由于回归问题预测值与目标值的偏差可大可小,因此SVR使用了两个slack variable用来刻画预测的误差边界。虽然存在这样的差别,但是两者的基本思路和优化算法与还是基本一致的。
在LIBSVM的实现中,上面五种模型,即C-SVM,ν-SVM,One-class SVM,C-SVR,ν-SVR,最终都可以转化为一个更通用的优化框架,然后用同样的策略进行求解,这也是LIBSVM所实现的主要功能。在实际使用中,最常用到的方法还是C-SVM,这是最传统的SVM分类模型。
0 收藏&&|&&0
你可能感兴趣的文章
3 收藏,1.1k
5 收藏,2.8k
分享到微博?
你好!看起来你挺喜欢这个内容,但是你还没有注册帐号。 当你创建了帐号,我们能准确地追踪你关注的问题,在有新答案或内容的时候收到网页和邮件通知。还能直接向作者咨询更多细节。如果上面的内容有帮助,记得点赞 (????)? 表示感谢。
明天提醒我
我要该,理由是:}

我要回帖

更多关于 undefined variable 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信