必采纳,如图画红线处,这个:约为–0.6和1.6是怎样推导推论出来的?怎样推导

必采纳,后面这是怎样推导出的?请列式解释一下,谢谢啊_百度知道
必采纳,后面这是怎样推导出的?请列式解释一下,谢谢啊
答题抽奖
首次认真答题后
即可获得3次抽奖机会,100%中奖。
绝壁苍穹知道合伙人
数学类认证行家
知道合伙人
数学类行家
采纳数:24697
获赞数:12637
2006年,师范学院毕业 2006年,进入教育行业,从事教育8年多
你参考参考!
小草头309129知道合伙人
来自科学教育类芝麻团
小草头309129
采纳数:1422
获赞数:771
参与团队:
本回答被提问者和网友采纳
罗罗77457知道合伙人
来自科学教育类芝麻团
采纳数:21817
获赞数:16622
参与团队:
comatrix知道合伙人
擅长:暂未定制
是不是印错了,那个3应该是6吧?
1条折叠回答
为你推荐:
其他类似问题
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。必采纳,如图,双排偶数座是什么意思?请画图推导演示一下_百度知道
必采纳,如图,双排偶数座是什么意思?请画图推导演示一下
答题抽奖
首次认真答题后
即可获得3次抽奖机会,100%中奖。
timehhxx008知道合伙人
来自科学教育类芝麻团
timehhxx008
采纳数:5611
获赞数:9545
参与团队:
买到双排座与单排座的概率各为0.5,买到奇数座与偶数座的概率也各为0.5。0.5x0.5=0.25=1/4。此题没有必要画图。
什么叫双排偶数座
为你推荐:
其他类似问题
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。深度学习笔记——理论与推导之Structured Learning【Learning with Hidden Information】(九)
Different Kinds of Learning:
1. Supervised Learning:
2. Semi-supervised Learning
3. Unsupervised Learning
4. Hidden variable Learning
Example Applications for Hidden Variable Learning(Hidden Variable Learning用在哪?)
Sentiment Analysis(情感分析):
自动识别一个电影观点是积极的还是消极的。
它的Hidden Information是那些和电影观点有关的document。
Summarization(演讲总结):
在一个总结中,我们想通过摘取几个重要的段落进行总结,然而在一个演讲中,我们通常分不清段落的界限,因此段落的界限就成了hidden information
Speech Recognition(语音识别):
在语音识别的时候,音素/状态和声学特征之间的排列是隐藏的。
Machine Translation(机器翻译):
在机器翻译的时候,句子对的词对齐是隐藏的。
General Framework
Step1、Training:
Find function F:
F:X × Y × H –& R
F(x,y,h) 用来评估x,y和h的匹配度。
Step2、Inference(Testing):
Given object x
拿出一个能让F(x,y,h)最大的h
拿出所有的h
Three Problems
Problem 1:Evaluation:
F(x,y,h)长什么样呢?
Eg. F(x,y,h)
= w · ψ(x,y,h)
Problem 2:Inference:
Problem 3:Training:
EM-like algorithm
Three Problems - Training
我们假定我们知道(x,h,y),这个Training对于我们来说不是一个问题,因为我们可以把h想成x的一部分或y的一部分,这时我们只要定义一个feature,那么我们就可以用structure svm的方法来解这个问题。
假设我们知道F(x,y,h),也知道了x和y,那么我们把h都带进去,能够使F(x,y,h)最大的值就是我们要的h。
上面的解法,我们发现第一个是从h –& F,第二个是从F –& h,那么我们应该要initialize random F(x,y,h)。
Motivation(动机)
下面两个都是Haruhi,但一个是短发,一个是长发:
两个Case的介绍:
有用的信息在training data中是可见的,而在testing data中是被hidden的(知h求F)。
即假设我们的training data上是有label的,加入type之后,structured svm就可以处理了。
有用信息在training data和testing data中都是hidden的。(知F求h)
Case1:Two kinds of Objects?
每一张图片,我们不仅知道框框在哪(y),也知道了Haruhi是短发还是长发(label),所以我们可以将这个问题看成我们就是要detect两种不同type(短发,长发)的Haruhi。
如果图片是Haruhi_1时,我们就要用w1来处理,用w1和图片的feature来做乘法,得到的F1(x,y)来做所有的事情。
那么在Training的时候,我们就要让正确y形成的F1(x,y)大于其他的y形成的F1(x,y),对于Haruhi_2也是一样的,这里用的是w2。
Case1:Problematic Inference
这里有一个潜在问题:对于Haruhi_1我们有w1,对于Haruhi_2,我们有w2,只需要把每一个y带进去,得到最大的F(x,y,h)的值就是最有可能的y值。然而在图片输入之初,我们不知道Haruhi是短发还是长发
解决方法:
那么,我们假设图片有可能是type1也有可能是type2,这里将图片带入到w1和w2中:
但是,由于w1和w2可能是分开学习的,所以值可能差异很大,所以w1和w2应该联合学习:
Case 1:Evaluation
我们可以把w1和w2放在一起训练,隐藏信息是Haruhi是短发还是长发,ψ(x,y,h)表示的是x,y和h的feature vector,它的长度是Φ(x,y)的两倍,w是w1和w2的两倍:
F(x,y,h) = w · ψ(x,y,h)是以下模式,type1和type2(也就是0,决定Φ(x,y)是放在vector的上半部还是下半部)
Case 1:Inference
所以今天我们不仅要遍历y,还要遍历h:
Case 1:Training
一般的Structured SVM中,我们的Cost function是这么做的:
同时我们也可以把margin(Δ)加进去
现在,当我们改变我们的evaluate function,我们便可以做以下变换:
举个例子:
15. 我们计算Structured SVM的cost function是可以画成这样的:
16. 我们计算Structured SVM with Hidden Information,我们要遍历所有的y和所有的h:
那么,我们应该如何Training这个Cost Function呢?
17. 我们可以将绿框框里的公式,转成QP问题,也就是对任意一个y和任意一个h,我们都存在constraint,因此我们就可以用Cutting Plane Method方法。
Case 2:Training with Hidden Information:
The useful information are usually hidden
解决方法:
如果我们今天已经知道了F,那么我们直接把h带入方程,看看谁的分数最高,就知道了什么样的h和(x,y)最匹配。
然而我们不知道w,这里,我们可以random initialize一个w。
那么我们这里就带入w0对4组training data做运算,找到type1和type2能让以下式子最大。那么这样我们能得到好的值吗?答案是不会的,因为w0是random的:
现在我们相当于给定了h,这样就相当于解一个QP问题:
当你求解QP后,你就会得到一个w1,当然w1不一定是一个很准确的值,接下来,我们用w1重新计算h = argmax这个公式,然后得到一个新的h,接着我们就可以继续我们的Training,新的w一定会比旧的w更好。
随机初始w后,根据w和training data给我们的x和y head,我们可以找出最有可能的h值,根据h值我们可以解一个QP问题,这样我们就可以获取一个新的w,这样我们就可以一直循环下去。
为什么新的w会比旧的w更好呢:
复习一下Structured SVM:
我们之前说过,我们最小化的cost function会是margin的upper bound,如果你的error是用margin衡量的话,那么就是minimize cost function的upper bound
那我们接下来看看C^n长什么样:
我们先看看max部分长什么样,我们先把max拿掉,我们发现这是一条斜线,因为Δ项是一个常数项。
那么今天我们要求的max就是这样的,我们发现不管我们的w怎么变,我们得到的都是一个convex的形状:
cost function的第一项是一个convex,第二项对于w而言就是一条斜线,所以两项相减后又是一个convex:
所以cost function整体来说就是一个convex function
我们真正要minimize的是一个
我们知道每一个c^n都是convex,而w也是一个convex,那么好多个convex加起来,就可以得到一个convex function,所以今天我们在做structure SVM时,我们就是在找一个convex function的最小值,这个对Structured SVM是比较容易的,和之前的DNN不一样,在做DNN的时候,我们不知道function长什么样,但在做Structured SVM时,我们是找到function长什么样的,所以就算我们用的Gradient Descent的方法,我们还是可以找到global的minima,而不是local minima。Structured SVM很不同的一点就是他找到的minima就是global minima
现在我们要说的Structured SVM with Hidden Information:
每一次迭代中,我们也会让cost function变小,这个cost function长这样:
我们每走一步都会让这个cost function变小,所以我们说新的w比旧的w更小。
这个cost function和我们之前在做SVM时有同样好的性质,即如果今天inference是用穷举所有的h和穷举所有的y,那么这个cost function依旧是error function的upper bound。
那么这个cost function长什么样呢?
红线部分:穷举所有的h,(x^n,y^n head)给定的,我们找出红线公式上配对出的结果最大。
黑色部分:穷举所有的y和h的pair带入公式。
绿色部分:穷举所有的y带入公式
那么我们接下来可以得到:
(后面那项因为加上了减号,所以是一个concave)
所以我们今天,如果在svm中加入了hidden information,那么像之前DNN那样,可能找到local minima。
那我们如何找到minima呢?
Method 1. Gradient Descent
Method 2. Auxiliary Function:
给定一个weight w0,在w0这点找一个辅助函数(Auxiliary function)
这个A(w)要有以下特性:
A(w0) = C^n(w0)
Upper bound of C^n(w)
Easy to be minimized
找到A(w)的最小值:w1
即:A(w1) & A(w0)
根据第二条A(w)特性,所以C^n(w1) & A(w1)
最后我们得到C^n(w1) & C^n(w0)
接下来,从w1开始,再找一个A(w),这样,我们的w就可以让C^n越来越小:
和Gradient Descent不同的就是,它不用调整learning rate,步伐多大,是由A(w)自动决定,最麻烦的是找A(w)。
在Structured SVM with Hidden Information中,如何找到A(w)呢?
我们可以找到concave function的upper bound,即在w0的切线,再将切线和convex相加,这条线就会使我们的A(w)。
为什么呢?这条Function可以满足A(w)的三个特征
那么这些和我们的迭代过程有什么关系呢?
右边其实就是左边的一个过程:
所以在每次迭代后,我们得到的w值都能使cost function减小,只是有可能卡在local minima中
我们来举个例子:
我们现在有两个hidden information(h只有两个可能),所以我们对这两条线求切线,如果h = 1时得到最大值,那么切线其实就是h=1的时候,h=2时同理。
所以我们在求argmax时,就是再求切线,我们的A(w)就是如下形式,接下来就是要minimizing A(w):
求A(w)可以用Gradient Descent,也可以用QP
所以我们今天在做QP时,就是在minimize这个A(w)。
To Learn More
李宏毅机器学习课程笔记8:Structured Learning - Linear Model、Structured SVM、Sequence Labeling
【深度学习入门—2015MLDS】1. What is Machine Learning, Deep Learning and Structured Learning?
深度学习笔记——理论与推导之Structured Learning【Structured SVM】(七)
深度学习笔记——理论与推导之Structured Learning【Structured Linear Model】(六)
深度学习笔记——理论与推导之Structured Learning【Sequence Labeling Problem】(八)
Learning Structured Sparsity in Deep Neural Networks
深度学习笔记——理论与推导之Structured Learning【Markov Logic Network】(十一)
Learning Structured Embeddings of Knowledge Bases-笔记
论文阅读:Structured Feature Learning for Pose Estimation
[机器学习入门] 李宏毅机器学习笔记-24(introduction of Structured Learning;结构化学习介绍)
没有更多推荐了,正在初始化报价器如何防止床单缩水6个回答zhidy154一个质量差一个质量好查看更多5个回答huubbhfv其实没啥区别的,你别听这些商家吹牛5个回答xafakas床品种类丰富,功能不同,是生活中不可或缺的家纺用品,
纯棉床单是天然植物纤维,吸湿透气舒适。
澳棉床单使人感受到温暖。
床单布的吸湿性:
棉纤维具有较好的吸湿性,在正常的情况下,纤维可向周围的大气中吸收水分,其含水率为8-10%,所以它触摸人的肌肤,使人感到柔软而不生硬。假如床布布湿度增大,周围温度较高,纤维中含的水重量会悉数蒸腾散去,使床布布坚持水平衡状况,使人感受舒服。
床单布的保湿性:
因为棉纤维是热和电的不良导体,热传导系数极低,又因棉纤维自身具有多孔性,弹性高长处,纤维之间能积存很多空气,空气又是热和电的不良导体,所以,纯棉纤维纺织品具有杰出的保湿性,穿戴纯棉织品服装使人感受到温暖。
床单布的耐热性:
纯棉床布布耐热能杰出,在摄氏110℃以下时,只会导致床布布上水分蒸腾,不会损伤纤维,所以纯棉床布布在常温下运用,洗刷印染等对织品都无影响,由此对进步纯棉床布的寿数。
其实都差不多。1个回答大神334809用尺子量啊。3个回答都督港1、直角床单,是最简略的一种,一块四四方方的面料,边上都缝好的。这个好了解,曾经用的旧式的床单都是这样的,只不过现在的尺寸比曾经大了,边上会垂下来。
2、圆角床单,床尾的两个角是圆角。
3、欧式圆角床单,床尾的两个角是圆角,三条边上贴有一圈荷叶边。
6个回答鹿斑驳粗布是未细加工的棉线织的,帆布是棉线尼龙线精加工混织的。2个回答c9xvo760  老粗布的原料也是纯棉的,但老粗布和通常的棉布的差异在于技术上不一样,老粗布所选用的纱线通常都是21支纱的纯棉纱线,而通常棉布通常纱线号都对比高,也就是说对比细!且通常床布是由2股纯棉21支纱手艺织成,加厚的粗布(又名凉席,或者四季毯)是由5股21支纱织成。
  老粗布是梭织布,棉布是针织布,做出来的制品,老粗布要比通常的棉布要厚实,纹路也更清晰,透气叹汗功能非常好,并且还能起到必定的按摩保健作用!分量上老粗布要比通常的棉布要厚要重,所以更耐用,更不简略搓起!通常一床2*2.2尺度的粗布床布重约1公斤摆布,相同尺度的通常棉布床布分量约为0.6公斤摆布,而同种尺度的加厚老粗布凉席重约2.5公斤摆布。
  粗布通常分为提花粗布、平布粗布两种。提花粗布颜色丰富,绚丽多彩,漂亮美观,比平布粗布厚,但技术杂乱,出产功率低,本钱大,报价相对较高;平布粗布颜色大方,简略朴素,技术相对较简略,本钱低,报价较低。1个回答vd纯棉的更好,因为丝绸虽然舒服,但是丝绸不好打理,太娇气,纯棉的也很舒适
采纳哦谢谢2个回答givemade开心苹个人认为棉布的好些吧,竹纤维也没有不好,也是种很好的材料,但是作为床单的话还是纯棉吧2个回答生死相依conten  老粗布的原料也是纯棉的,但老粗布和通常的棉布的差异在于技术上不一样,老粗布所选用的纱线通常都是21支纱的纯棉纱线,而通常棉布通常纱线号都对比高,也就是说对比细!且通常床布是由2股纯棉21支纱手艺织成,加厚的粗布(又名凉席,或者四季毯)是由5股21支纱织成。
  老粗布是梭织布,棉布是针织布,做出来的制品,老粗布要比通常的棉布要厚实,纹路也更清晰,透气叹汗功能非常好,并且还能起到必定的按摩保健作用!分量上老粗布要比通常的棉布要厚要重,所以更耐用,更不简略搓起!通常一床2*2.2尺度的粗布床布重约1公斤摆布,相同尺度的通常棉布床布分量约为0.6公斤摆布,而同种尺度的加厚老粗布凉席重约2.5公斤摆布。
  粗布通常分为提花粗布、平布粗布两种。提花粗布颜色丰富,绚丽多彩,漂亮美观,比平布粗布厚,但技术杂乱,出产功率低,本钱大,报价相对较高;平布粗布颜色大方,简略朴素,技术相对较简略,本钱低,报价较低。热门问答1234567891011121314151617181920查看更多21222324252627282930必采纳,画横线处,为什么必须减去0.2s?为什么要–0.2s?这个0.2指的是哪里所消耗掉的时间_百度知道
必采纳,画横线处,为什么必须减去0.2s?为什么要–0.2s?这个0.2指的是哪里所消耗掉的时间
必采纳,画横线处,为什么必须减去0.2s?为什么要–0.2s?这个0.2指的是哪里所消耗掉的时间凭什么要减去它?...
必采纳,画横线处,为什么必须减去0.2s?为什么要–0.2s?这个0.2指的是哪里所消耗掉的时间凭什么要减去它?
答题抽奖
首次认真答题后
即可获得3次抽奖机会,100%中奖。
穿越冰线爱斯斯知道合伙人
穿越冰线爱斯斯
采纳数:54
获赞数:180
因为第一次测速来回0.2秒,题目中明说了两次测速间隔为1秒,也就是说发出信号后开始计时,1秒后发第二次信号,在发第一次信号,花费0.2秒信号到达汽车,此时距离为0.2x340=68米,同理第二次信号时距离为51米,我们计算两次信号距离差为17米,请注意这17米中,第一次信号从汽车返回接收器的0.2秒是算在时间间隔1秒内的,所以要减去0.2
噢 高人高人佩服啊
哈啦呵哧知道合伙人
采纳数:572
获赞数:1784
0.4÷2往返0.4秒,往0.2秒
为你推荐:
其他类似问题
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。}

我要回帖

更多关于 在凸起max粘合处有红线 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信