Eviews数据统计与分析教程.ppt_第1页
Eviews数据统计与分析教程.ppt_第2页
Eviews数据统计与分析教程.ppt_第3页
Eviews数据统计与分析教程.ppt_第4页
Eviews数据统计与分析教程.ppt_第5页
已阅读5页,还剩36页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、a,1,第5章 基本回归模型的OLS估计 重点内容: 普通最小二乘法 线性回归模型的估计 线性回归模型的检验,a,2,一、普通最小二乘法(OLS) 1.最小二乘原理,设(x1,y1),(x2,y2),(xn,yn)是平面直角坐标系下的一组数据,且x1 x2 xn,如果这组图像接近于一条直线,我们可以确定一条直线y = a + bx ,使得这条直线能反映出该组数据的变化。 如果用不同精度多次观测一个或多个未知量,为了确定各未知量的可靠值,各观测量必须加改正数,使其各改正数的平方乘以观测值的权数的总和为最小。因而称最小二乘法。,a,3,一、普通最小二乘法(OLS) 1.最小二乘原理,设双变量的总体

2、回归方程为 yt= B1 + B2xt +t 样本回归函数为 yt= b1 + b2xt + et 其中,et为残差项, 5-3式为估计方程,b1 和b2分别为B1和B2的估计量, 因而 e = 实际的yt 估计的yt,a,4,一、普通最小二乘法(OLS) 1.最小二乘原理,估计总体回归函数的最优方法是选择B1和B2的估计量b1 ,b2,使得残差et尽可能达到最小。 用公式表达即为 总之,最小二乘原理就是选择样本回归函数使得y的估计值与真实值之差的平方和最小。,a,5,一、普通最小二乘法(OLS) 2.方程对象,选择工作文件窗口工具栏中的“Object”| “New Object”| “Equ

3、ation”选项,在下图所示的对话框中输入方程变量。,a,6,一、普通最小二乘法(OLS) 2.方程对象,EViews5.1提供了8种估计方法: “LS”为最小二乘法; “TSLS”为两阶段最小二乘法; “GMM”为广义矩法; “ARCH”为自回归条件异方差; “BINARY”为二元选择模型,其中包括Logit模型、Probit模型和极端值模型; “ORDERED”为有序选择模型; “CENSORED”截取回归模型; “COUNT”为计数模型。,a,7,二、一元线性回归模型 1.模型设定,一元线性回归模型的形式为 yi = 0 + 1 xi + ui (i=1,2,n) 其中,y为被解释变量,

4、也被称为因变量;x为解释变量或自变量;u是随机误差项(random error term),也被称为误差项或扰动项,它表示除了x之外影响y的因素,即y的变化中未被x所解释的部分;n为样本个数。,a,8,二、一元线性回归模型 2.实际值、拟合值和残差,估计方程为 表示的是yt的拟合值, 和 分别是 0 和1的估计量。实际值指的是回归模型中被解释变量(因变量)y的原始观测数据。拟合值就是通过回归模型计算出来的yt的预测值。,a,9,二、一元线性回归模型 2.实际值、拟合值和残差,三条曲线分别是实际值(Actual),拟合值(Fitted)和残差(Residual)。实际值和拟合值越接近,方程拟合效

5、果越好。,a,10,三、多元线性回归模型,通常情况下,将含有多个解释变量的线性回归模型(多元线性回归模型)写成如下形式, yi = 0 + 1 x1i +2 x2i+3 x3i+k xki + ui (i=1,2,n) 其中,y为被解释变量,也被称为因变量;x为解释变量或自变量;u是随机误差项(random error term),也被称为误差项或扰动项; n为样本个数。,a,11,三、 多元线性回归模型,在多元线性回归模型中,要求解释变量x1,x2,xk之间互不相关,即该模型不存在多重共线性问题。如果有两个变量完全相关,就出现了完全多重共线性,这时参数是不可识别的,模型无法估计。,a,12,

6、三、 多元线性回归模型,通常情况下,把多元线性回归方程中的常数项看作虚拟变量的系数,在参数估计过程中该常数项始终取值为1。因而模型的解释变量个数为k+1.多元回归模型的矩阵形式为 Y = X + u 其中,Y是因变量观测值的T维列向量;X是所有自变量(包括虚拟变量)的T个样本点观测值组成的T(k+1)的矩阵;是k+1维系数向量;u是T维扰动项向量。,a,13,四、 线性回归模型的基本假定,线性回归模型必须满足以下几个基本假定: 假定1:随机误差项u具有0均值和同方差,即 E ( ui ) = 0 i=1,2,n Var ( ui ) = 2 i=1,2,n 其中,E表示均值,也称为期望,在这里

7、随机误差项u的均值为0。Var表示随机误差项u的方差,对于每一个样本点i,即在i=1,2,n的每一个数值上,解释变量y对被解释变量x的条件分布具有相同的方差。当这一假定条件不成立是,称该回归模型存在异方差问题。,a,14,四、 线性回归模型的基本假定,假定2:不同样本点下的随机误差项u之间是不相关的,即 Cov(ui,uj)=0,ij,i,j=1,2,n 其中,cov表示协方差。当此假定条件不成立时,则称该回归模型存在序列相关问题,也称为自相关问题。,a,15,四、 线性回归模型的基本假定,假定3:同一个样本点下的随机误差项u与解释变量x之间不相关,即 Cov(xi,ui)=0 i=1,2,n

8、,a,16,四、 线性回归模型的基本假定,假定4:随机误差项u服从均值为0、同方差的正态分布,即 u N(0,2) 如果回归模型中没有被列出的各因素是独立的随机变量,则随着这些随机变量个数的增加,随机误差项u服从正态分布。,a,17,四、 线性回归模型的基本假定,假定5:解释变量x1,x2,xi是非随机的确定性变量,并且解释变量间互不相关。则这说明yi的概率分布具有均值,即 E(yi|xi)= E(0 +1xi +ui)=0 +1xi 该式被称为总体回归函数。 如果两个或多个解释变量间出现了相关性,则说明该模型存在多重共线性问题。,a,18,五、 线性回归模型的检验 1.拟合优度检验,拟合优度

9、检验用来验证回归模型对样本观测值(实际值)的拟合程度,可通过R2统计量来检验。,a,19,五、 线性回归模型的检验 1.拟合优度检验,公式 三者的关系为 TSS = RSS +ESS TSS为总体平方和, RSS为残差平方和, ESS为回归平方和。,a,20,五、 线性回归模型的检验 1.拟合优度检验,总体平方和(TSS)反映了样本观测值总体离差的大小,也被称为离差平方和;残差平方(RSS)说明的是样本观测值与估计值偏离的程度,反映了因变量总的波动中未被回归模型所解释的部分;回归平方和(ESS)反映了拟合值总体离差大小,这个拟合值是根据模型解释变量算出来的。,a,21,五、 线性回归模型的检验

10、 1.拟合优度检验,拟合优度R2的计算公式为 R2 = ESS / TSS = 1RSS / TSS 当回归平方(ESS)和与总体平方和(TSS)较为接近时,模型的拟合程度较好;反之,则模型的拟合程度较差。因此,模型的拟合程度可通过这两个指标来表示。,a,22,五、 线性回归模型的检验 2.显著性检验,变量显著性检验(t检验) 检验中的原假设为: H0:i= 0, 备择假设为: H1:i 0, 如果原假设成立,表明解释变量x对被解释变量y没有显著的影响;当原假设不成立时,表明解释变量x对被解释变量y有显著的影响,此时接受备择假设。,a,23,五、 线性回归模型的检验 2.显著性检验,方程显著性

11、检验(F 检验) 原假设为: H0:1= 0,2= 0,k= 0, 备择假设为: H1:i 中至少有一个不为 0, 如果原假设成立,表明解释变量x对被解释变量y没有显著的影响;当原假设不成立时,表明解释变量x对被解释变量y有显著的影响,此时接受备择假设。,a,24,五、 线性回归模型的检验 2.显著性检验,方程显著性检验(F 检验) F 统计量为 该统计量服从自由度为(k,nk1)的F分布。给定一个显著性水平,当F统计量的数值大于该显著性水平下的临界值F(k,nk1)时,则在(1)的水平下拒绝原假设H0,即模型通过了方程的显著性检验,模型的线性关系显著成立。,a,25,五、 线性回归模型的检验

12、 3.异方差性检验,(1)图示检验法 图示检验法通过散点图来判断用OLS方法估计的模型异方差性,这种方法较为直观。通常是先将回归模型的残差序列和因变量一起绘制一个散点图,进而判断是否存在相关性,如果两个序列的相关性存在,则该模型存在异方差性。,a,26,五、 线性回归模型的检验 3.异方差性检验,(1)图示检验法 检验步骤: 建立方程对象进行模型的OLS(最小二乘)估计,此时产生的残差保存在主窗口界面的序列对象resid中。 建立一个新的序列对象,并将残差序列中的数据复制到新建立的对象中。 然后选择主窗口中的“Quick” | “Graph” | “Scatter”选项,生成散点图,进而可判断

13、随机项是否存在异方差性。,a,27,五、 线性回归模型的检验 3.异方差性检验,(2)怀特(White)检验法 检验步骤: 用OLS(最小二乘法)估计回归方程,得到残差e。 作辅助回归模型: 求辅助回归模型的拟合优度R2的值。 White检验的统计量服从2分布,即 N R 2 2 (k) 其中,N为样本容量,k为自由度,k等于辅助回归模型()中解释变量的个数。如果2值大于给点显著性水平下对应的临界值,则可以拒绝原假设,即存在异方差;反之,接受原假设,即不存在异方差。,a,28,五、 线性回归模型的检验 3.异方差性检验,(2)怀特(White)检验法 White检验的统计量服从2分布,即 N

14、R 2 2 (k) 其中,N为样本容量,k为自由度,k等于辅助回归模型()中解释变量的个数。如果2值大于给点显著性水平下对应的临界值,则可以拒绝原假设,即存在异方差;反之,接受原假设,即不存在异方差。,a,29,五、 线性回归模型的检验 3.异方差性检验,(2)怀特(White)检验法 在EViews5.1软件中选择方程对象工具栏中的“View” | “Residual Tests” | “White Heteroskedasticity”选项即可完成操作。,a,30,五、 线性回归模型的检验 3.异方差性检验,异方差性的后果 : 当模型出现异方差性时,用OLS(最小二乘估计法)得到的估计参数

15、将不再有效;变量的显著性检验(t检验)失去意义;模型不再具有良好的统计性质,并且模型失去了预测功能。,a,31,五、 线性回归模型的检验 4.序列相关检验,方法: (1)杜宾(D .W .Durbin-Watson)检验法 (2)LM(拉格朗日乘数Lagrange Multiplier)检验法,a,32,五、 线性回归模型的检验 4.序列相关检验,(1)杜宾(D .W .Durbin-Watson)检验法 J. Durbin, G. S. Watson于1950年提出了D .W .检验法。它是通过对残差构成的统计量来判断误差项ut 是否存在自相关。D .W .检验法用来判定一阶序列相关性的存在

16、。 D .W .的统计量为,a,33,五、 线性回归模型的检验 4.序列相关检验,(1)杜宾(D .W .Durbin-Watson)检验法 如果, 0 D .W . dt ,存在一阶正自相关 dt D .W . du ,不能确定是否存在自相关 du D .W . 4du ,不存在自相关 4du D .W . 4dt 不能确定是否存在自相关 4dt D .W . 4 ,存在一阶负自相关,a,34,五、 线性回归模型的检验 4.序列相关检验,(1)杜宾(D .W .Durbin-Watson)检验法 使用D .W .检验时应注意,因变量的滞后项yt-1不能作为回归模型的解释变量,否则D .W .

17、检验失效。另外,样本容量应足够大,一般情况下,样本数量应在15个以上。,a,35,五、 线性回归模型的检验 4.序列相关检验,(2)LM(拉格朗日乘数Lagrange Multiplier)检验法 LM 检验原假设和备择假设分别为: H0:直到p阶滞后不存在序列相关 H1:存在p阶序列相关 LM的统计量为 LM = nR2 2( p) 其中,n为样本容量,R2为辅助回归模型的拟合优度。LM统计量服从渐进的2(p)。在给定显著性水平的情况下,如果LM统计量小于设定在该显著性水平下的临近值,则接受原假设,即直到p阶滞后不存在序列相关。,a,36,五、 线性回归模型的检验 4.序列相关检验,序列相关性的后果: 用OLS(最小二乘估计法)得到的估计参数将不再有效; 变量的显著性检验(t检验)失去意义; 模型不再具有良好的统计性质,并且模型失去了预测功能。,a,37,五、 线性回归模型的检验 5.多重共线性,方法: (1)相关系数检验法 (2)逐步回归法,a,38,五、 线性回归模型的检验 5.多重共线性,(1)相关系数检验法 在群对象窗口的工具栏中选择“View” | “Correlations” | “Common Sample”选项,即可得到变量间的相关系数。 如果相关系数较高,则变量间可能存在线性关系,即模型有多重共线性的可能。,a,39

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论