第3章多元回归分析:估计_第1页
第3章多元回归分析:估计_第2页
第3章多元回归分析:估计_第3页
第3章多元回归分析:估计_第4页
第3章多元回归分析:估计_第5页
已阅读5页,还剩80页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、第第3章章 多元回归分析:估计多元回归分析:估计 简单回归分析的有个缺陷,就是它很难得到在其他条件不变情况下x对y的影响 多元回归分析能让我们明确地控制其他影响因素 多元回归分析可以建立更好的因变量预测模型 多元回归分析可以引入相当一般化的函数关系第第3章章 多元回归分析:估计多元回归分析:估计3.1 使用多元回归分析的动因使用多元回归分析的动因3.2 普通最小二乘法的操作和解释普通最小二乘法的操作和解释3.3 OLS估计量的期望值估计量的期望值3.4 OLS估计量的方差估计量的方差3.5 OLS的有效性:高斯的有效性:高斯-马尔科夫定理马尔科夫定理3.1 使用多元回归模型的动因使用多元回归模

2、型的动因实际研究中更多时候对因变量有影响的自实际研究中更多时候对因变量有影响的自变量个数将不只一个,需要进行多元回归变量个数将不只一个,需要进行多元回归 例1: 在对小时工资的研究中,除了教育水平之外,工作经历也是一个显著的影响因素,因此需要增加自变量个数,建立多元回归模型。012expwageeduceru1. 为获得其它因素不变的效应,控制更多的因素为获得其它因素不变的效应,控制更多的因素 在实证工作中使用简单回归模型,首要的困难在于:要得到在其它因素不变的情况下, x1对y的影响(ceteris paribus effect),非常困难。 在简单线性回归中,是否能够获得在其它条件不变情况

3、下,x1对y的影响,完全取决于零值条件期望假设是否符合现实。 如果影响y的其它因素,与x1不相关,则改变x1,可以确保u(均值)不变,从而识别出在其它条件不变情况下x对y的影响。 不幸的是,影响y的其它因素(包含在u中),往往与x1相关:改变x1,u(均值)也往往发生变化,从而使得仅仅利用简单回归模型,无法识别出在其它条件不变情况下x1对y的影响。1. 控制更多的因素控制更多的因素 一个策略就是,将与x1相关的其他因素从误差项u中取出来,放在方程里,作为新的解释变量,这就构成多元回归模型。 多元回归分析可以明确地控制许多其它同时影响因变量的因素,而不是放在不可观测的误差项中,故多元回归分析更适

4、合于其它条件不变情况下(ceteris paribus)的特定因素x对y的影响。 多元回归模型能容许很多解释变量,而这些变量可以是相关的。 在使用非实验数据时,多元回归模型对推断y与解释变量x间的因果关系很重要。2. 更好地预测更好地预测 一个变量y的变化,不仅与一种因素有关,可能决定于许多因素。 预测一个变量的变化,往往需要尽可能多地知道影响该变量变化的因素。 简单回归模型,只包含一个解释变量,有时只能解释y的变动的很小部分。(如,拟合优度很低) 多元回归模型由于可以控制更多地揭示变量,因此,可以解释更多的因变量变动。3. 表达更多的函数关系表达更多的函数关系 多元回归模型,可以包含多个解释

5、变量,因此,可以利用变量的函数变换,在模型中表达多种函数关系。 因此,多元线性回归模型,是实证分析中应用最广泛的分析工具。多元线性回归模型的一般形式多元线性回归模型的一般形式01 122.kkyxxxu12(,.,)k 12( |,.,)0kE u x xx多元回归的术语3.2 普通最小二乘法的操作和解释普通最小二乘法的操作和解释如何得到如何得到OLS估计值估计值 首先考虑两个自变量的模型: 建模的原理依旧是使得达到最小。 要理解OLS在做什么,重要的是理解自变量角标的含义。下标i表示观测序号,这里假设有n个观测变量。第二个下标只是区别不同自变量的方法。在之前的例子中, 分别表示样本中第i个人

6、的教育程度和工作经历。01 122 yxx2011221()niiiiyxx12,expiiiixeduc xer如何得到如何得到OLS估计值估计值 在含有k个自变量的情形中。在选择估计值时,我们最小化了残差平方和 这个最小化问题可以使用多元微积分求解。 OLS的一阶条件:2011221min(.)niiikikiyxxx2011221210112212011221min(.)0min(.)0.min(.)0niiikikiniiiikikinikiiikikiyxxxxyxxxxyxxx如何得到如何得到OLS估计值估计值 如同简单回归里那样 称为OLS回归线, 为截距估计值, 为斜率估计值。

7、为了表明已经进行了一个OLS回归分析,我们将方程中的y,x1,x2.xk用其变量名称取代(如wage,educ,exper等) 01 122.kkyxxx012(,.)k 对对OLS回归方程的解释回归方程的解释 估计值具有偏效应偏效应或其他情况不变其他情况不变得解释。从方程中我们可以得到 所以我们能在给定x1,x2的变化时预测y 值得变化。 特别的,当 =0时,有 关键是通过把x2包含在模型中,我们所得到的x1的系数可解释为在其他条件不变的情况下的影响。这正是多元回归分析如此有用的原因所在。1122 yxx 2x11 yx 例例3.2:小时工资方程:小时工资方程 我们在log(wage)的方程

8、中包括educ(教育水平),exper(工作经历), 和tenure(任现职的任期),估计的方程:系数0.092意味着,在保持tenure和exper不变的情况下,多受一年教育者的log(wage)提高0.092即9.2%。log0.2840.0920.0041exp0.022educertenure(wage)“保持其他因素不变保持其他因素不变”的含义的含义 多元回归中,所得到的“其他因素不变的效应”,并非是通过在实际抽样中,固定其他因素不变。 在教育-经验-工资一例中,在获得教育对的工资其他条件不变影响时,在实际抽样中,也并非是固定工作经验,收集不同教育年限的样本,来分析教育年限变化,对于

9、工资的影响。 对个体进行随机抽样,就可通过多元回归分析得到“其他因素不变的效应”。 多元回归分析的优势,在于它使我们能在非实验环境中去做自然科学家在受控实验中所能做的事情:保持其它因素不变。同时改变不止一个变量同时改变不止一个变量 有时我们想改变一个以上的变量,同时看看由此对因变量的影响,通过回归方程很容易做到。在例2中,当一人在同一企业工作过1年,保持educ不变,exper和tenure都增加一年时,对工资的总影响为:log0.0041 exp0.0220.0041*1+0.022*1=0.0261ertenure(wage)OLS的拟合值和残差的拟合值和残差 对观测i,其拟合值为 它只是

10、将第i个自变量值代入回归方程所得的预测值。 OLS最小化了预测误差平方的平均值。第i个观测的残差被定义为: 若 ,意味着yi被预测的过低;反之说明yi被预测的过高。01122k+.+iiiikyxxxiiiuyy0iiiuyyOLS的拟合值和残差的拟合值和残差 直接从单变量模型推广,可得OLS拟合值和残差的某些重要性质。1. 残差的样本平均值为零2. 每个自变量和OLS残差之间的样本协方差为零,于是OLS拟合值和OLS残差之间的样本协方差也为零3. 点 总位于样本OLS回归线上。12(,., )kx xxy对多元回归对多元回归“排除其他变量排除其他变量 影响影响”的解释的解释111211nii

11、iniir yr对多元回归对多元回归“排除其他变量排除其他变量 影响影响”的解释的解释A “Partialling Out” Interpretation 对于估计的样本回归线 可以表示为: ?122110 xxy1ir211111()/nniiiiir yr22对多元回归对多元回归“排除其他变量排除其他变量 影响影响”的解释的解释 首先, 将第一个自变量x1对第二个自变量x2进行回归,得到样本回归函数 , 根据xi和拟合值 ,得到残差 。残差表示剔除了x2的影响之后,x1的其他部分。它与x2不相关,样本均值为0。 然后,将y对 进行简单回归得到 。 衡量的是,剔除了其他自变量的影响之后,x1

12、对于y的净影响。11r2101xx11ix111iiixxr23对多元回归对多元回归“排除其他变量排除其他变量 影响影响”的解释的解释 上述过程表明:将y同时对x1和x2回归得出的x1的影响,与先将x1对x2回归得到残差,再将y对此残差回归得到的x1的影响相同。 同时说明,在多元回归模型中, x1的系数衡量的是,x1中与其他自变量不相关的部分,与y的相关关系。 即,在多元回归模型中,所估计的是,在其他自变量对于x1的影响“被剔除(partialled out)”后,x1对y的影响。24“剔除其它变量影响”“Partialling Out” 在一个含有k个解释变量的一般模型中, 仍然可以写成(3

13、.22)式(证明见本章附录3A.2): 残差 是来自x1对x2 , xk的回归。 因此, 度量的是,在排除x2 , xk等变量的影响之后, x1对y的影响。1r1211111()/nniiiiir yr25证明(3.22)式:2111211111111111111221101111111111111220122110221100)6(0)()()5(0)()()4(0)() 3()2() 1 (iiiiiiiiiiiiiiiiikkiiiiiiiiiiiiiiiiiiiiiikkiiikkiiiiiiikkiiiryrryrryrrxyrxyrxxxyrururuxurxuxrxxxxrxax

14、aaxxxxyyyuxxxy211111()/nniiiiir yr26简单回归与多元回归估计值的比较简单回归与多元回归估计值的比较 用同一个样本: 估计一个最简单的线性回归模型,得到: 估计一个最简单的多元线性回归模型,得到: 存在一个简单关系: 是x2对x1进行简单回归所得到的斜率系数估计值。 证明上式110 xy22110 xxy21211211221211221121211222111112111112221112211022110)()()()()()()()()4()()()3()2( )1(xxxxxxxxuxxxxxxxxyyxxuxxxxyyxxyuxxyiiiiiiiiii

15、iiiiiiiii28 一般而言, 两种特殊情况下,两者相等: 在第(1)种情况下,x2对于y没有局部效应(partial effect) 在(2)种情况下,x2与x1在样本中不相关。110)2(0)1(21229 用同一个样本: 估计一个最简单的线性回归模型,得到: 估计一个最简单的多元线性回归模型,得到: 存在一个关系: 是x2,xk分别对x1进行简单回归所得到的斜率系数估计值。110 xykkxxxy22110121211kk121,k30 一般而言, 两种特殊情况下,两者相等: 在第(1)种情况下,x2,xk对于y均没有偏效应(partial effect) 在(2)种情况下, x2,

16、xk中每一个均与x1不相关110,0)2(0,0)1(1212kk例例3:401(k)养老金计划)养老金计划 匹配率mrate是指对于一个员工所投入的每一美元的养老金,企业为员工匹配的数量。参与率prate是指有资格拥有一个401(k)账户的员工中参与此计划的百分比。变量age是401(k)养老金计划的实施年数。 将prate对mrate和age进行回归: prate=80.12+5.52mrate+0.243age例例3:401(k)养老金计划)养老金计划 如果我们不控制age,将prate对mrate进行简单归可以得到: 可见两种回归式子相差不大。 prate=83.08+5.86mrat

17、e拟合优度拟合优度 与简单回归中一样,我们定义与简单回归中一样,我们定义 总平方和总平方和SST 解释平方和解释平方和SSE 残差平方和残差平方和SSR 2yyi 2yyi 2iu拟合优度拟合优度 判定系数判定系数 我们定义我们定义R2 = SSE/SST = 1 SSR/SST为判定系数,为判定系数,总是介于总是介于0到到1之间之间 一个接近于一个接近于1的判定系数表明的判定系数表明OLS给出了一个良给出了一个良好的拟合,一个于好的拟合,一个于0的判定系数表明的判定系数表明OLS给出了给出了一个糟糕的拟合一个糟糕的拟合拟合优度拟合优度 还可以证明还可以证明R2 等于等于yi的实际值与拟合值相

18、关的实际值与拟合值相关系数的平方,即:系数的平方,即:2212211()()() () niiiinniiiiiyyyyRyyyy过原点的回归过原点的回归1 122.kkyxxx3.3 OLS估计量的期望值估计量的期望值OLS估计值的期望值估计值的期望值 我们现在转而讨论,在估计一个产生样本的总体模型的参数时,OLS所具有的统计性质。 特别的,我们讨论四个假定,这些假定都是对简单回归模型假定的直接推广,而且在这些假定下,OLS估计量是总体参数的无偏估计值OLS估计值的期望值估计值的期望值01 122.kkyxxxuOLS估计值的期望值估计值的期望值 假定假定MLR.2(随机抽样随机抽样) 我们

19、有一个包含我们有一个包含n次观测的随机样本次观测的随机样本它来自它来自MLR.1中的总体模型。中的总体模型。 12(,.,):1,2. iiikixxxyinOLS估计值的期望值估计值的期望值 假定假定MLR.3(不存在完全共线性)(不存在完全共线性) 在样本(因而在总体中),没有一个自在样本(因而在总体中),没有一个自变量是常数,自变量之间不存在变量是常数,自变量之间不存在严格(完严格(完全)全)的线性关系。的线性关系。 我们现在必须关注所有自变量之间的关我们现在必须关注所有自变量之间的关系,如果方程中有一个自变量是其他自系,如果方程中有一个自变量是其他自变量的额线性组合,那么我们说这个模变

20、量的额线性组合,那么我们说这个模型遇到了完全共线性问题。型遇到了完全共线性问题。OLS估计值的期望值估计值的期望值 重要的是我们要注意到,重要的是我们要注意到,MLR.3 允许变量之间有相允许变量之间有相关关系,只是不能是完全相关。关关系,只是不能是完全相关。 例例4:将考试分数与教育支出(:将考试分数与教育支出(expend)和家庭收)和家庭收入(入(avginc)的模型中:)的模型中:我们我们充分预料充分预料expend 与与avginc之间可能相关,学生家之间可能相关,学生家庭收入高的学校,倾向于对每个学生在教育上支出更庭收入高的学校,倾向于对每个学生在教育上支出更多。多。MLR.3只是

21、排除了只是排除了expend与与avginc之间完全相关之间完全相关的情形。的情形。 012expavgscoreendavgincuOLS估计值的期望值估计值的期望值 两个变量完全相关,最简单的情形就是两个变量完全相关,最简单的情形就是一个变量是另一个变量的常数倍。当研一个变量是另一个变量的常数倍。当研究者把同一个变量在不同的单位下两次究者把同一个变量在不同的单位下两次进入同一个回归方程,就会出现完全线进入同一个回归方程,就会出现完全线性相关的额情形。例如在估计消费与收性相关的额情形。例如在估计消费与收入的模型中,将收入以美元和千美元为入的模型中,将收入以美元和千美元为单位分别最为自变量是毫

22、无意义的。也单位分别最为自变量是毫无意义的。也是违背了是违背了MLR.3的的OLS估计值的期望值估计值的期望值 同一变量的不同非线性函数也都可以出同一变量的不同非线性函数也都可以出现在回归元中。比如模型现在回归元中。比如模型 就不违背假定就不违背假定MLR.3,因为因为x2=inc*inc虽然虽然是是x1=inc的一个函数,但是并不是一个线的一个函数,但是并不是一个线性函数。在模型中引入性函数。在模型中引入inc*inc是推广函数是推广函数形式的一种形式的一种 有用方法。有用方法。 2012consincincuOLS估计值的期望值估计值的期望值 自变量可能完全线性相关的另一种方式自变量可能完

23、全线性相关的另一种方式是,一个自变量恰好是其他自变量的线是,一个自变量恰好是其他自变量的线性函数。性函数。 例例5:考虑竞选支出和得票率的关系,有:考虑竞选支出和得票率的关系,有两位竞选者两位竞选者A和和B,为了使每个候选人支,为了使每个候选人支出与总支出隔离开来,设定模型:出与总支出隔离开来,设定模型:显然有显然有x3=x1+x2,因而违背了假定,因而违背了假定MLR.30123voteexpendAexpendtotexpend+uABOLS估计值的期望值估计值的期望值 假定假定MLR.4(条件均值为零条件均值为零) 给定给定自变量的任何值,误差自变量的任何值,误差u的期望值为的期望值为零

24、。换句话说,零。换句话说,E(u|x1,x2xk)=0 通常情况下,漏掉一个与通常情况下,漏掉一个与x1,x2xk中任中任何一个自变量相关的因素,都有可能导何一个自变量相关的因素,都有可能导致致MLR.4不成立。不成立。 使用多元回归分析,使用多元回归分析,我们能包含解释变量中的许多因素,与我们能包含解释变量中的许多因素,与简单回归相比,多元回归分析出现漏掉简单回归相比,多元回归分析出现漏掉一些变量的可能性要小很多。一些变量的可能性要小很多。OLS估计值的期望值估计值的期望值 当假定当假定MLR.4成立时,我们常说我们具有成立时,我们常说我们具有外生解释变量外生解释变量。如果处于某种原因。如果

25、处于某种原因xj仍与仍与u有关,那么我就成有关,那么我就成xj是是内生解释变量。内生解释变量。虽然虽然“外生外生”和和“内生内生”的术语源于联立的术语源于联立方程分析,但内生解释变量一词涵盖了一方程分析,但内生解释变量一词涵盖了一个解释变量可能与误差项相关的一切情况。个解释变量可能与误差项相关的一切情况。OLS的无偏性的无偏性jj()E对对“无偏无偏”的理解的理解 如我们所知,估计值不可能是无偏的,如我们所知,估计值不可能是无偏的,因为一个估计值就是从一个特定的样本因为一个估计值就是从一个特定的样本得到的固定值,它通常都不等于总体参得到的固定值,它通常都不等于总体参数。数。 我们说我们说OLS

26、在四个假定下是无偏的是指当在四个假定下是无偏的是指当我们将用来得到我们将用来得到OLS估计值的程序用到各估计值的程序用到各种可能的随机样本时,种可能的随机样本时,这个程序是无偏这个程序是无偏的。的。回归模型中包含了无关变量回归模型中包含了无关变量01 12233yxxxu01 122xx回归模型中包含了无关变量回归模型中包含了无关变量11223()()()0EEE,遗漏变量的偏误:简单情形遗漏变量的偏误:简单情形 现在假设我们是遗漏了一个实际应该包现在假设我们是遗漏了一个实际应该包括在模型中的变量,通常称为排出一个括在模型中的变量,通常称为排出一个有关变量或者对模型设定不足。有关变量或者对模型

27、设定不足。 推导遗漏一个重要变量所导致的偏误,推导遗漏一个重要变量所导致的偏误,是误设分析的一个例子,我们从含有两是误设分析的一个例子,我们从含有两个变量的模型入手:个变量的模型入手: 并假设模型满足并假设模型满足MLR.1-MLR.4 01 122yxxu遗漏变量的偏误:简单情形遗漏变量的偏误:简单情形 由于疏忽或者数据不足,我们在排除由于疏忽或者数据不足,我们在排除X2的情况下估计这个模型得到:的情况下估计这个模型得到: 例例6:假设薪资与教育程度、天赋有关即:假设薪资与教育程度、天赋有关即 由于能力不可观测,我们转而用模型由于能力不可观测,我们转而用模型其中其中 01 1yx012wag

28、eeducabilu01wageeducv2vabilu遗漏变量的偏误:简单情形遗漏变量的偏误:简单情形1121=+ 1121121121()=E(+)E()+E()+E 111121ias()=E()-B 的偏误为遗漏变量的偏误:简单情形遗漏变量的偏误:简单情形遗漏变量的偏误:简单情形遗漏变量的偏误:简单情形遗漏变量的偏误:简单情形遗漏变量的偏误:简单情形01wageeducv遗漏变量的误差遗漏变量的误差11E()11E()遗漏变量的偏误:一般情形遗漏变量的偏误:一般情形01 12233yxxxu01 122yxx遗漏变量的偏误:一般情形遗漏变量的偏误:一般情形11311132111()()

29、=+()niiiniixx xExx遗漏变量的偏误:一般情形遗漏变量的偏误:一般情形0123experabil+uwageeduc遗漏变量的偏误:一般情形遗漏变量的偏误:一般情形spring 2012邢恩泉62OLS估计量的方差估计量的方差 除了知道估计量的趋势之外,我们还想除了知道估计量的趋势之外,我们还想度量其在样本分布中的分散情况。度量其在样本分布中的分散情况。 在求出方差之前,我们增加一个同方差在求出方差之前,我们增加一个同方差假定,其次我们在下面可以看到,如果假定,其次我们在下面可以看到,如果增加了同方差的假定,增加了同方差的假定,OLS具有一个重要具有一个重要的性质,即有效性。的性

30、质,即有效性。 假定假定MLR.5(同方差性同方差性) 给定给定 任意解释变量值,误差任意解释变量值,误差u都具有相都具有相同的方差,换言之:同的方差,换言之: Var(u|x1,.xk)=2OLS估计量的方差估计量的方差 在方程在方程 中,同方差性要求不可观测的误差项不依赖中,同方差性要求不可观测的误差项不依赖于教育水平,工作经历和现有任期水平。于教育水平,工作经历和现有任期水平。 即即Var(u|educ,exper,tenure)=否则就会出现异方差性。否则就会出现异方差性。 假定假定MLR.1-MLR.5一起被称为(横截面回归一起被称为(横截面回归的)的)高斯高斯-马尔科夫假定。马尔科

31、夫假定。迄今为止,我们迄今为止,我们对假定的表述都只使用于随机抽样的横截对假定的表述都只使用于随机抽样的横截面分析。对于时间序列或面板数据,该假面分析。对于时间序列或面板数据,该假定将更加困难。定将更加困难。0123expertenure+uwageeduc2OLS估计量的方差估计量的方差 接下来的讨论中,我们将用接下来的讨论中,我们将用x表示表示(x1,xk)的集合,于是在工资例子中)的集合,于是在工资例子中x=(educ, exper, tenure)。)。 我们可以将我们可以将MLR.1和和MLR.4写成写成 E(y|x)= 假定假定MLR.5表示为:表示为: Var(y|x)=01 1

32、22.kkxxx2OLS估计量的方差估计量的方差22j()(1)jjVarSSTR21=()njijjiSSTxx2jROLS估计量的方差估计量的方差 在我们详尽的研究估计值方差之前,我在我们详尽的研究估计值方差之前,我们要注意,在得到这个公式的过程中,们要注意,在得到这个公式的过程中,用到了所有用到了所有 高斯高斯-马尔科夫假定。虽然马尔科夫假定。虽然OLS的无偏性不需要同方差假定,但是要的无偏性不需要同方差假定,但是要让上述式子成立,则必然要求同方差。让上述式子成立,则必然要求同方差。 的大小在实践中也很重要。方差的大小在实践中也很重要。方差越大,则意味着估计量越不精确,也就越大,则意味着

33、估计量越不精确,也就是置信区间越大和假设检验越不准确。是置信区间越大和假设检验越不准确。()jVarOLS方差的成分:多重共线性方差的成分:多重共线性2jROLS方差成分:多重共线性方差成分:多重共线性 xj的总样本变异,的总样本变异,SSTj。 由定理由定理3.2的表的表达式,达式,xj的样本变异越大,则估计值的方的样本变异越大,则估计值的方差越小。因此我们希望差越小。因此我们希望xj的取值越分散越的取值越分散越好。好。 扩大样本容量可以提高每一个先变量的扩大样本容量可以提高每一个先变量的变异。当我们从总体中抽样时,随着样变异。当我们从总体中抽样时,随着样本量的越来越大,本量的越来越大,SS

34、Tj将无限递增。将无限递增。 若若SSTj很小,那么估计值的方差将很大,很小,那么估计值的方差将很大,但是只要但是只要SSTj不为零,都是不违背假定不为零,都是不违背假定MLR.3的的OLS方差成分:多重共线性方差成分:多重共线性 自变量之间的线性关系,自变量之间的线性关系, . 的回归只的回归只是涉及到是涉及到 原模型的自变量,其中原模型的自变量,其中xj是作是作为因变量而出现的。为因变量而出现的。 考虑考虑k=2的情形:的情形: 于是于是其中其中 是是x1对对x2进行简单回归得到的拟合进行简单回归得到的拟合优度。优度。 越接近越接近1,表明,表明x1与与x2高度相关,高度相关,且此时且此时

35、 越大。越大。2jR2jR01 122yxxu21211()(1)VarSSTR21R21R1()VarOLS方差成分:多重共线性方差成分:多重共线性2jR1()Var2jR2jROLS方差成分:多重共线性方差成分:多重共线性 若若 1,则,则 ,两个或者多个,两个或者多个自变量之间高度(但不完全)相关被称自变量之间高度(但不完全)相关被称为多重共线性。为多重共线性。 多重共线性不违背假定多重共线性不违背假定MLR.3,但是我们,但是我们也不能确定一个临界值来说明是否存在也不能确定一个临界值来说明是否存在多重共线性。例如多重共线性。例如 =0.9意味着在意味着在xj的的样本变异中,样本变异中,

36、90%都可以都可以由回归模型中的由回归模型中的其他自变量来解释。即其他自变量来解释。即xj与其他的自变量与其他的自变量有很强的相关关系。有很强的相关关系。2jR1()Var 2jROLS方差成分:多重共线性方差成分:多重共线性OLS方差成分:多重共线性方差成分:多重共线性01 12233yxxxu23()()VarVar和1()Var21R211()VarSST误设模型中的方差误设模型中的方差01 122yxxu误设模型中的方差误设模型中的方差01 122yxx01 1yx误设模型中的方差误设模型中的方差我们考虑两个估计量的方差。我们考虑两个估计量的方差。 可以看出来,除非可以看出来,除非x1与与x2不相关,那么总有不相关,那么总有我们假设我们假设x1与与x2不相关,可以得到如下结论:不相关,可以得到如下结论: 22111()=/(1)VarSSTR211()=/VarSST11()()VarVar21111211110()()2.=0()()VarVarVarVar1.当, 是有偏的, 是无偏的,且当, 是无偏的, 是无偏的,且误设模型中的方差误设模型中的方差11()()VarVar和OLS估计量的标准

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论