单变量和单个单因素方差分析举例回归分析中都呈现显著相关,两个变量一起做回归分析中一个变量又不显著相关,是怎么回事

当前位置: &
求翻译:VAR模型把系统中每一个内生变量作为系统中所有内生变量的滞后值的函数来构造模型,从而将单变量自回归模型推广到由多元时间序列变量组成的“向量”自回归模型。是什么意思?
VAR模型把系统中每一个内生变量作为系统中所有内生变量的滞后值的函数来构造模型,从而将单变量自回归模型推广到由多元时间序列变量组成的“向量”自回归模型。
问题补充:
the var model each endogenous variable in the system as a function of the value of all the endogenous variables in the system lag to construct a model univariate autoregressive model extended to the multivariate time series variables "vector autoregressive model.
VAR model in the system to each one of the variables in the system as all the variables in the hysteresis of the function to construct models that will be single-variable regression models by marketing to more than $variable time series consisting of "vector" regression models.
The VAR model in each causes trouble the quantity the system in to take in the system all in causes trouble the quantity lag value function to come the structure model, thus promotes the single variable from the return model to is composed by the multi-dimensional time series variable “the vector” f
VAR models each endogenous variable in the system as a system of all endogenous variables in function to construct model of hysteresis value, so as to extend the univariate Autoregressive model to consist of multivariate time series variable of "vector" autoregressive model.
正在翻译,请等待...
我来回答:
参考资料:
* 验证码:
登录后回答可以获得积分奖励,并可以查看和管理所有的回答。 |
我要翻译和提问
请输入您需要翻译的文本!如何用交叉项表示多因素共同作用
文:Quantplus
线性关系是我们日常生活中最常见的一种相关性。同时,在满足一定条件下(例如变化幅度很小的时候),线性关系也可以用来模拟其他非线性关系。线性关系的本质,就是1+1=2。
根据日常经验,如果一个独立变量对依赖变量的影响是A,另一个变量对依赖变量的影响是B, 那么两个变量对同一个依赖变量的影响应该是A+B。但是,这种基于日常经验的判断并非完全合理。因为我们可以举出很多“1+1&2”或者“1+1&2”的例子。
比如我们认为股价不仅仅分别与公司领导人能力和宏观经济环境相关,也和这两个因素的共同作用相关。具体来说,领导人能力超群加具体的经营环境,就可以让公司具有更高的股价增长预期。
但是反过来的话,一个失败的领导者加上不利的经营环境也会让公司股票遇上灭顶之灾。
于是,我们如何用线性方程来表示这种“1+1不等于2”的变量影响呢?一种办法是在线性方程中加入交叉项,通过交叉项来反映两个独立变量之间对于解释变量的相互影响。
未来已来,你必须掌握先机
量化投资理论与实战:以MATLAB为工具(北京)
本课程致力于打造顶级操盘手培育体系,大佬面对面点拨思路,开启智慧,完善策略,帮您构建成熟稳健的交易盈利模式,助你成为理念全面,心态成熟,实战经验丰富的复合型投资交易者。。学额有限,请速致电宽客黄师傅索取详细资料,开启金融金领进阶之路...
我们用一个传统的多变量方程来说明这个问题。不妨设公司的股票回报为依赖变量Y,公司领导人能力为独立变量A,经济环境为独立变量B。按照一般的线性关系思维建立线性模型,可得:
Y=α+β*A+γ*B
但是,我们还需要考察公司领导人能力与经济环境相结合对于公司股票回报的影响。因此,我们必须加上一个新的交叉项A*B,使得模型变为:
Y=α+β*A+γ*B+δ*A*B
此时交叉项的系数δ即反映了领导人能力和经济环境的共同影响。如果线性回归后的系数δ可以通过t测试,那么我们就可以认为领导人能力和经济环境因子对公司股价具有一个共同作用的影响
使用交叉项表示多个因素的共同作用,可以有助于我们发现一些隐含的相关因子,特别是一些单独不显著、而需要共同作用才会显著的因子。实际操作中,可能共同作用并不限于A*B,也可能是B*C或者A*B*C。
总之,识别出来的共同作用因素越多,越有助于提高我们线性方程的解释和预测能力。从而可以让我们通过历史数据来解释和预测公司股价的变化
在使用交叉项进行线性模型回归时,值得注意的有几点。
一是交叉项的系数显著性和单项变量的显著性相互间不相关。简单来说,也许两个独立变量单独呈现时都不会对依赖变量产生显著影响,但是他们相结合的时候却有可能显著影响。
又或者两个独立变量单独都对依赖变量产生显著影响,但是结合一起时的影响却不显著。这显然符合我们的日常经验,即公司的成功因素也许是领导人,也许是环境,又或者是兼而有之。
二是交叉项的系数与单项变量的系数之和也不存在相关,这反映了多因素之间的综合作用可能是1+1&2,也可能是1+1&2。
三是当我们在线性方程引入独立变量的交叉项的时候,有很大机会造成严重的多重共线性问题(multicollinearity issue)。特别是当其中一个变量的变化幅度很小(例如只能取0或者1 的虚拟变量)的时候。多重共线性会导致各个独立变量和交叉项的线性回归系数的估计值出现偏差。
为了解决多重共线性问题,一种思路是将独立变量进行均值中心化处理,然后再用经过均值中心化的独立变量生成新的交叉项进行回归。这样就可以减少交叉项和独立变量之间的相关性,从而减少多重共线性影响。
以上观点、结论和建议仅供参考,不构成对任何人的投资建议,建议投资者谨慎判断。投资有风险,选择需谨慎。(Quantplus / 量化投资俱乐部 )
版权声明:「宽客江湖」除发布原创市场投研报告以外,亦致力于优秀财经章的交流分享。部分文章推送时未能及时与原作者取得联系。若涉及版权问题,敬请原作者添加DGGKF2微信联系删除。
这里,就是量化对冲江湖的水泊梁山
量化投资理论与实战:以MATLAB为工具(北京)
本课程致力于打造顶级操盘手培育体系,大佬面对面点拨思路,开启智慧,完善策略,帮您构建成熟稳健的交易盈利模式,助你成为理念全面,心态成熟,实战经验丰富的复合型投资交易者。。学额有限,请速致电宽客黄师傅索取详细资料,开启金融金领进阶之路...
责任编辑:
声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
今日搜狐热点其他回答(1)&&&&
相关已解决
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
为做大做强论坛,本站接受风险投资商咨询,请联系(010-)
邮箱:service@pinggu.org
合作咨询电话:(010)
广告合作电话:(刘老师)
投诉电话:(010)
不良信息处理电话:(010)
京ICP证090565号
京公网安备号
论坛法律顾问:王进律师
&加载中...我的机器学习笔记(二) - 单变量线性回归 - 简书
我的机器学习笔记(二) - 单变量线性回归
简书无法显示MathJax数学公式,请到这里阅读:
课程地址:
课程Wiki:
扩展阅读:
什么是训练集(Training Set)?有训练样例(training example)组成的集合就是训练集。如下图所示,右边的两列数据就是本例子中的训练集, 其中\((x, y)\)是一个训练样例,\((x^{(i)}, y^{(i)})\)是第\(i\)个训练样例。
通过训练集和学习算法我们就可以得到假设函数(Hypothesis Function),假设函数记为h。在房屋的例子中,我们的假设函数就相当于一个由房屋面积到房屋价格的近似函数,通过这个假设就可以得出相应面积房屋的估价了。如下图所示:
那么我们该如何表示假设函数呢?在本例中,只有一个变量x(房屋的面积),我们可以将假设函数h以如下的形式表示:&font size='4'&$${h_\theta(x)=\theta_0+\theta_1x}$$&/font&为了方便$h_\theta(x)$也可以记作$h(x)$。这个就叫做单变量的线性回归(Linear Regression with One Variable)。(Linear regression with one variable = Univariate linear regression,univariate是one variable的装逼写法。) 如下图所示。
在刚才的假设函数中有两个未知的参数$\theta_0$和$\theta_1$,当选择不同的$\theta_0$和$\theta_1$时,我们模型的效果肯定是不一样的。如下图所示,列举了三种情况下的假设函数。
那么我们该如何选择这两个参数呢?我们的想法是选择$\theta_0$和$\theta_1$,使得对于训练样例$(x,y)$,$h_\theta(x)$最接近$y$。即,使每个样例的估计值与真实值之间的差的平方的均值最小。用公式表达为:
&font size='4'&$${\mathop{minimize}\limits_{\theta_0,\theta_1} \frac{1}{2m}\sum_{i=0}m\left(h_\theta(x{(i)})-y{(i)}\right)2}$$&/font&
将上面的公式minimize右边部分记为$J(\theta_0,\theta_1)$:
&font size='4'&$${J(\theta_0,\theta_1)=\frac{1}{2m}\sum_{i=0}m\left(h_\theta(x{(i)})-y{(i)}\right)2}$$&/font&
这样就得到了我们的代价函数(Cost Function)$J(\theta_0,\theta_1)$,我们的目标就是&font size='4'&$$\mathop{minimize}\limits_{\theta_0,\theta_1}J(\theta_0,\theta_1)$$&/font&
代价函数II
现在为了更方便地探究$h_\theta(x)$与$J(\theta_0,\theta_1)$的关系,我们先令$\theta_0$等于0。这样我们就得到了简化后的假设函数,相应地也可以得到简化的代价函数。如图所示:
简化之后,我们再令$\theta_1=1$,就得到$h_\theta(x)=x$如下图左所示。图中三个红叉表示训练样例,通过代价函数的定义我们计算得出$J(1)=0$,对应下图右中的$(1,0)$坐标。
重复上面的步骤,再令$\theta_1=0.5$,得到$h_\theta(x)$如下图左所示。通过计算得出$J(0.5)=0.58$,对应下图右中的$(0.5,0.58)$坐标。
对于不同的$\theta_1$,可以得到不同的假设函数$h_\theta(x)$,于是就有了不同的$J(\theta_1)$的值。将这些点连接起来就可以得到$J(\theta_1)$的曲线,如下图所示:
代价函数III
在上一节中,我们令$\theta_0$等于0,得到$J(\theta_1)$的曲线。如果$\theta_0$不等于0,例如$\theta_0=50$, $\theta_0=0.06$,此时就有两个变量,很容易想到$J(\theta_1)$应该是一个曲面。
这个图是教授用matlab绘制的,由于3D图形不太方便我们研究,我们就使用二维的等高线(上图右上角教授写的contour plots/figures),这样看上去比较清楚一些。如下图右,越往里表示$J(\theta_0,\theta_1)$的值越小(对应3D图中越靠近最低点的位置)。下图左表示当$\theta_0=800$, $\theta_1=0.15$的时候对应的$h_\theta(x)$,通过$\theta_0$, $\theta_1$的值可以找到下图右中$J(\theta_0,\theta_1)$的值。
我们不断尝试直到找到一个最佳的$h_\theta(x)$,使得$J(\theta_0,\theta_1)$最小。当然我们不可能随机猜测或者手工尝试不同参数的值。我们能想到的应该就是通过设计程序,找到最佳的$h_\theta(x)$,也就是最合适的$\theta_0$和$\theta_1$。
我们先直观的感受一下什么是梯度下降(Gradient Descent)。想要找到最合适的$\theta_0$和$\theta_1$,我们可以先以某一$\theta_0$和$\theta_1$开始,然后不断改变$\theta_0$和$\theta_1$的值使得$J(\theta_0,\theta_1)$值不断减小,直到找到一个最小值。
如下图所示,从某一点开始,每次沿着一定的梯度下降直到到达一个极小值为止。
当从不同的点开始时(即不同的$\theta_0$和$\theta_1$),可能到达不同的最小值(极小值),如下图:
现在我们大概知道什么是梯度下降了,就好比下山一样,不同的山路有不同的坡度,有的山路走得快有的走得慢。一直往地处走有可能走到不同的最低点。那么我们每次该如何应该如何改变$\theta_0$和$\theta_1$的值呢?如下图所示,这里提到了梯度下降算法(Gradient Descent Algorithm),其中$:=$表示赋值,$\alpha$叫做学习率,$\frac{\partial}{\partial\theta_j}J(\theta_0, \theta_1)$叫做梯度。这里一定要注意的是,算法每次是同时(simultaneous)改变$\theta_0$和$\theta_1$的值,如图下图所示。
梯度下降II
现令$\theta_0$等于0,假设一开始选取的$\theta_1$在最低点的右侧,此时的梯度是一个正数。根据上面的算法更新$\theta_1$的时候,它的值会减小,即靠近最低点。
类似地假设一开始选取的$\theta_1$在最低点的左侧,此时的梯度是一个负数,根据上面的算法更新$\theta_1$的时候,它的值会增大,也会靠近最低点。
如果一开始选取的$\theta_1$恰好在最适位置,那么更新$\theta_1$时,它的值不会发生变化。
学习率$\alpha$会影响梯度下降的程度。如果$\alpha$太小,根据算法,$\theta$的值每次会变化的很小,那么梯度下降就会非常慢;相反地,如果$\alpha$过大,$\theta$的值每次会变化会很大,有可能直接越过最低点,可能导致永远没法到达最低点。
随着越来越接近最低点斜率(绝对值)会逐渐减小,每次下降程度就会越来越小。所以并不需要减小$\alpha$的值来减小下降程度。
梯度下降III
现在我们所要做的就是将梯度下降算法应用到线性回归模型中去,而其中最关键的就是计算其中的偏导数项,如下图所示。
我们将$h_\theta(x{(i)})=\theta_0+\theta_1x{(i)}$带入到$J(\theta_0,\theta_1)$中,并且分别对$\theta_0$和$\theta_1$求导得:
由此可得到我们的第一个机器学习算法,梯度下降算法:
在我们之前讲到梯度下降的时候,我们用到的是这个图:
起始点不同,会得到不同的局部最优解。但事实上,用于线性回归的代价函数总是一个凸函数(Convex Function)。这样的函数没有局部最优解,只有一个全局最优解。所以我们在使用梯度下降的时候,总会得到一个全局最优解。
下面我们来看一下梯度下降的运行过程:
迭代多次后,我们得到了最优解。现在我们可以用最优解对应的假设函数来对房价进行预测了。例如一个1,250平方英尺的房子大概能卖到250k$,如下图所示:
最后我们在介绍几个相关的概念。刚才我们用到的梯度下降也叫作批梯度下降(Batch Gradient Descent)。这里的‘批’的意思是说,我们每次更新$\theta$的时候,都是用了所有的训练样例(training example)。当然也有一些其他的梯度下降,在后面的课程中会介绍到。
在后面的课程中我们还会学习到另一种不需要像梯度下降一样多次迭代也能求出最优解的方法,那就是正规方程(Normal Equation)。但是在数据量很大的情况下,梯度下降比较适用。
博客地址:http://daniellaah.github.io
二、单变量线性回归(Linear Regression with One Variable) 2.1 模型表示 notation(符号): m = Number of trainging examples x's = &input& variable / features ...
转载-刘建平Pinard-www.cnblogs.com/pinard/p/5970503.html 在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法。这里就对梯度下降法做一个完...
作者按:简书的文艺气息还是比较浓的。我们来捣捣乱,搞一篇全部数学公式的文章,用实际行动推动简书加入 MathJax 支持。不过这种文章这年头估计没人会看了吧......如果万一有人感兴趣,可以移步这里得到完整的阅读体验。 本文总结了线性回归算法里用到的一些微积分知识,接着根...
AI人工智能时代,机器学习,深度学习作为其核心,本文主要介绍机器学习的基础算法,以详细线介绍 线性回归算法 及其 数学原理 探究,做到知其然知其所以然,打好理论基础。 目录 机器学习及人工智能 机器学习分类 有监督学习 无监督学习 线性回归算法 线性回归 代价函数 数学模型...
我们的第一个学习算法是线性回归算法。在这段视频中,你会看到这个算法的概况,更重要的是你将会了解监督学习过程完整的流程。 模型表示(Model Representation) 让我们通过一个例子来开始:这个例子是预测住房价格的,我们要使用一个数据集,数据集包含俄勒冈州波特兰市...
经常在网上看到一些“韩语怎么学”、“快速学习韩语”、“韩语快速入门”这样的攻略,作为一名资深的韩语老师,我非常负责任的告诉你们,韩语怎么学乃至任何一门语言都没有捷径可以走,像那种说让你快速学习的攻略其实一点用都没有,今天我来分享一些真正的良心干货。 如果你想学好一门语言,只...
将来有个像小笨周一样乖巧活泼的女儿。 挺好的。 我想。
来到了美式大乡村 后,对周边环境不太熟悉,每天一大早就是去公园散步一圈回来后做早餐,白天最高气温时就居家休息,下午三四点钟准备晚餐,年轻人回来后饭后也就是6点左右,此时窗外还是艳阳高照的样子,抓紧时间开车就近游玩,几天来除了去超市购物,年轻人在地图上寻得一处风景秀丽的山水风...
打扫卫生的时候,发现洗碗池下漏水,随手就拿了不个不用的不锈钢锅来接在下面。现在用电压力锅电饭煲,煮饭煲汤的都有了,我就认为:物尽其用。挺好。 同事王玉一看,眉头皱了一下说:&用这个,太可惜了。& 我心想:盖都没有,锅耳也缺了一边,闲在那里很久了。所以不以为然地说:&能拿来做...
赵公专祠的变迁 一、赵公专祠 赵公专祠位于青岩古镇南街。系赵氏(国澍)专祠,清代同治年间,朝廷降旨所建。以大山门、通道、过厅、两厢及大殿组成一大建筑群,坐南向北,占地1600多平方米,建筑面积为923平方米。专祠东与文昌阁一墙之隔,南与青岩书院连为一体,西抵南街,北靠青岩朝...}

我要回帖

更多关于 因素变量 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信