计量经济学考试大纲及知识点.doc_第1页
计量经济学考试大纲及知识点.doc_第2页
计量经济学考试大纲及知识点.doc_第3页
计量经济学考试大纲及知识点.doc_第4页
计量经济学考试大纲及知识点.doc_第5页
已阅读5页,还剩17页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2008计量经济学补考材料整理一、 概念及题型(林清泉版王璐山寨整理,仅作复习参考)1. 中心极限定理2. 大数定理3. 正态分布4. 契比雪夫不等式5. 方差,期望6. 协方差及其相关系数7. 计算中经常使用到的排列组合公式(样题中用到组合C)8. 其它几个计算题型参见后面的样题二、 简答文字版(07.06考题)1. 经典回归的主要假设答:,存在一个干扰项u。对总体回归函数(PRF),需要估计参数。为了进行估计,需要对干扰项做出严格的假设:1、误差分布的均值为0,即对于所有i,;2、误差项的方差相同,;3、误差项相互独立,即;4、所有的都是可观察的并且独立于,;5、误差服从于正态分布,均值是0,方差是;6、X是非随机的。7、还有几个潜在的假设:线性回归模型;观测次数必须大于待沽参数个数;X值要有变异性;正确设定了回归模型(没有设定偏误)。第二种答案:(应该也是正确的,可能因授课老师不同,答案不同)答:经典回归的主要假设有:1、回归模型对参数而言是线性的;2、各自变量 X的值在重复抽样中是固定的;3、对给定的 X,随机干扰项 ui的均值为零;4、对给定的 X,随机干扰项 ui的方差不变;5、对给定的 X,随机干扰项 ui无自相关;6、如果 X是随机的,则干扰项与各 X是独立的或不相关;7、观测次数必定大于自变量的个数;8、自变量的取值必须有足够的变异性;9、回归模型是正确设定的;10 、自变量之间无准确的线性关系,即无多重共线性;11 、随机干扰项 ui是正态分布的。只有符合了这些假定,通过普通最小二乘法进行估计所获得的结果才是最佳的,即最小方差无偏估计BLUE(Best linear unbiased estimator)。2. 为什么假定残差项服从正态分布?答:1、u代表回归模型中没有引进的许多自变量的总影代表回归模型中没有引进的许多自变量的总影响。期望这些影响微小而且是随机。根据中心极限定理,如果存在大量独立且同分布的随机变量,那么,除了少数例外情形,随着这些变量的个数无限增大,它们的总和将趋向正态分布。2、中心极限定理的另一解释,即使变量个数并不很大或这些变量还不是严格独立的,它们的总和仍可视同正态分布。3、正态分布的一个性质是,正态分布变量的任何线性函数都是正态分布的。在正态性假定下,容易推导出OLS估计量的概率分布。4、正态分布是一个比较简单、仅涉及两个参数(均值和方差)的分布,为人们所熟知,其理论性质在数理统计中得到广泛研究。3. 两个正态随机变量的线性组合服从什么分布?如何确定两个正态分布随机变量的线性组合服从什么分布?答:两个正态随机变量的线性组合仍然服从正态分布。令,,且X与Y相互独立,则它们的线性组合也服从正态分布。令a=b=1,则:=,即,符合正态分布。4. 举例说明,违背经典回归的基本假设条件会产生什么后果,如何弥补?答:违背经典回归的基本假设条件会产生多重共线性,影响1、如果多重共线性是完全的,各X变量的回归系数将是不确定的,并且其标准误为无重大。2、如果多重共线性是欠完全的,那么,回归系数虽然可以确定,但标准误较大,回归系数的估计精确度下降。3、出现多重共线性时,估计值稳定性差,有时回归方程整体高度显著,有些回归系数则通不过显著性检验,回归系数的符号也可能出现倒置,使得无法对回归方程得到合理的经济解释直接影响到最小二乘法的应用效果,降低回归方程的应用价值。多重共线性的理论后果:(1)对于近似多重共线性而言,OLS估计量仍然是无偏的。但无偏性是重复抽样的性质。即固定X变量反复抽取样本,并对每一个样本计算OLS估计量,随着样本个数的增加,估计量的样本值的均值收敛于真实总体值。(2)虽然说共线性并不破坏最小方差性质,但并不意味着在任一给定的样本中,一个OLS估计量的方差一定是最小的。(3)虽然多重共线性是一种样本现象,即总体中各X变量没有线性关系,但具体获得的样本有可能存在线性关系。此时,利用样本回归估计总体回归时难以区分各X变量对Y的影响。多重共线性的实际后果:1、OLS估计是BLUE,但有大的方差和协方差,故难以作出精确的估计。2、置信区间扩大,易接受“零虚拟假设”。3、系数的t统计上不显著。4、虽然t统计量不显著,但其拟合优度高。5、OLS估计量及标准误差对数据的小变化敏感。多重共线性的补救措施:1.先验信息。2.横截面与时间序列数据并用。3.剔除变量与设定偏误。4.变量代换。,做差分:。5.补充新数据,样本增大会使偏相关系数和回归系数减少,从而降低标准误差,准确估计回归系数。5. 描述戴维森麦金农J检验的过程,并举例。(ch3.2 P62)答:过程:1、估计模型D并得到Y的估计值。2、将1中的估计值作为增补回归元代入模型C中,并估计一下模型:。3、用t检验对假设进行检验。4、如果不拒绝原假设,则认为模型C为真模型,反之则不认为模型C是真模型。代表不被模型C所含有的变量的影响,而这种影响并没有增加模型C原有的解释能力。换言之,D模型不含有足以改进模型C的任何额外信息。故模型C兼容了模型D。5、用同样的方法把模型C和D颠倒,重复步骤4以决定是否认为模型D胜过模型C。假设假设不拒绝拒绝不拒绝兼接受C和D接受D而拒绝C拒绝接受C而拒绝D兼拒绝C和D戴维森麦金农J检验虽然理论上更完备,但同样存在“两难”抉择,即出现同时拒绝和同时接受。另外用t统计量检验增补变量的系数时,t统计量只是渐近地在大样本中服从标准分布。因此J检验在小样本中不是很有功效。J检验的一个例子:19701991年间的美国的私人人均消费支出(PPCE)和私人人均可支配收入(PDPI)的计量模型。(数据见CASE的ame表)两个相争持模型:模型A:,模型B:估计结果如下:模型A:t= (-4.0378) (6.0178) (0.6308)R2=0.9888 d = 0.8092模型B:t= (-2.4137) (5.4634) (2.3681)R2=0.9912 d = 1.0144应用J检验,假设模型A是维持模型,模型B是备择假设。把模型B中PPCE的估计值作为模型A中的一个变量,重新估计得到下面结果:t= (1.5970) (-1.4052) (-2.1950) (3.3073)R2=0.9932 d = 1.6961注意到的系数在统计上是显著的,因此我们必须拒绝模型A而接受模型B在假设模型B是维持假设而模型A是备择假设,按照前面一样的程序得到下面的结果:t= (-2.4973) (2.5433) (3.3073) (-2.19503)R2=0.9932 d = 1.6961的系数仍然是统计上显著的,这一结果又表明我们应该拒绝模型B而接受模型A6. 什么是随机过程?什么是白噪声及其特点?答:一般称依赖于参数时间t的随机变量集合为随机过程。随机过程中有一特殊情况叫白噪音,其定义如下:如果随机过程服从的分布不随时间改变,且(对所有t),常数(对所有t),那么,这一随机过程称为白噪声。白噪声的特点:零均值、等方差,无自相关性。7. 固定效应模型和随机效应模型的区别答:一般为了分析每个个体的特殊效应,对随机误差项的设定是,其中代表个体的特殊效应,它反映了不同个体之间的差别。最常见的两种面板数据模型是建立在的不同假设基础之上。一种假设假定是固定的常数,这种模型被称为固定效应模型(fixed effect model),另一种假设假定不是固定的,而是随机的,这种模型被称为随机效应模型(random effect model)。固定效应模型的优点:能够确定地反映个体之间的差距及其简单的估计方法;固定效应模型的缺点:存在模型自由度比较小(因为有N个截距系数)和存在对个体差异的限制性假设(即个体间差异为固定的)。随机效应模型的优点:能够反映个体之间差距的随机性;与固定效应模型相比,需要估计的模型系数也比较少,因而模型的自由度比较高;缺点:面板数据模型中含有横截面数据,在模型的误差项中很可能出现异方差,与基本假设产生矛盾;随机效应模型有可能因没有包括某些必要的解释变量而导致模型设定出现错误。8. 平稳随机过程的性质,如何利用自相关函数和偏自相关函数来识别ARIMA模型?答:平稳随机过程的性质:1、均值(对所有t)。2、方差(对所有t)。3、协方差(对所有t)。4、其中即滞后k的协方差或自(身)协方差,是和,也就是相隔k期的两值之间的协方差。5、平衡性检验:DF检验、ADF检验。所谓ARIMA模型,是指将非平稳时间序列转化为平稳时间序列,然后将因变量仅对它的滞后值以及随机误差项的现值和滞后值进行回归所建立的模型。对ARIMA(p,d,q)过程进行识别,我们首先要确定的是该过程是否是平稳的,如果不是,通过几次差分可以得到平稳序列,即首先我们需要确定d的值。对此,我们可以用ADF检验,也可以通过自相关函数来判断。如果d次差分后的序列其自相关函数很快下降为0,则说明差分后的序列是平稳的,反之则不平稳。9. 什么是多重共线性?多重共线性会带来什么后果?如何识别多重共线性?如何弥补多重共线性带来的问题?答:(1)多重共线性是指解释变量Xi(i=1,2,3k)之间存在完全的或近似的线性关系。多重共线性仅仅对X变量之间的线性关系而言。对于非线性关系并不违反“无多重共线性假定”。多重共线性分为两种:1. 完全共线性: 即变量存在下列线性关系:(其中不全为0)2. 欠完全线性关系:是指解释变量与误差项存在下列线性关系: (其中不全为0. 为随机误差项)(2)多重共线性的后果:理论后果:对于近似多重共线性而言,OLS 估计量仍然是无偏的。但无偏性是重复抽样的性质。即固定X变量反复抽取样本,并对每一个样本计算 OLS 估计量,随着样本个数的增加,估计量的样本值的均值收敛于真实总体值。虽然说共线性并不破坏最小方差性质,但并不意味着在任一给定的样本中,一个 OLS 估计量的方差一定是最小的。虽然多重共线性是一种样本现象,即总体中各 X变量没有线性关系,但具体获得的样本有可能存在线性关系。此时,利用样本回归估计总体回归时,难以区分各 X变量对Y的影响。实际后果:. OLS 估计是BLUE, 但有大的方差和协方差,故难以作出精确的估计,. 置信区间扩大,易接受 “零虚拟假设”. 系数的t统计上不显著. 虽然t统计量不显著,但其拟合优度高. OLS 估计量及标准误差对数据的小变化敏感 .(3)如何识别?. R2值高而显著的t比率少. .自变量之间有高度的两两相关。如果自变量之间的简单相关系数都很高,表明有可能存在多重共线性,但是高的简单相关系数是多重共线性存在的充分条件,而不是必要条件。即使简单相关系数不显著,也可能存在多重共线性。. 检查偏相关:如果根据零阶相关或简单相关系数不能确定是否存在共线性时,可以考查偏相关系数。如果Y变量对所有X变量的判定系数很高,而对各个X变量的偏相关系数都比较低时,表明各X变量之间可能存在高度相关。但是,偏相关系数也并不完全可靠。.辅助回归:即做每一个Xi对其余X变量的回归,并计算Ri2.然后再计算Fi值。如果计算的Fi超过选定显著性水平的临界F值,则认为Xi与其余的X变量有共线性,否则,就没有共线性关系。.特征值与病态指数(特征根与条件指数CI):SPSS可以计算CI,据此,如果CI在10和30之间有中强多重共线性;如果在30以上则认为存在严重多重共线性,也有其他教材采用其他规定;.容许度与方差膨胀因子:经验表明,当方差膨胀因子VIFj 10 时,说明自变量 X与其余自变量之间有严重多重共线性。多重共线性的直观判断法如果出现下列情况时,认为可能存在多重共线性当增加或剔除一个自变量或者改变一个观察值时,回归系数的估计值发生较大变化从定性分析认为,一些重要的自变量在回归方程中没有通过显著性检验有些自变量的回归系数符号与定性分析结果违背时自变量相关矩阵中,自变量之间的相关系数较大一些重要的自变量的回归系数的标准误差较大(4)如何弥补多重共线性带来的问题?. 先验信息. 横截面与时间序列数据并用. 剔除变量与设定偏误;. 变量代换. 补充新数据。样本增大会使偏相关系数和回归系数减少,从而降低标准误差,准确估计回归系数. .在统计上,则采用逐步回归的方法解决多重共线性的问题。案例考题举例:STEP 1X1X2STEP 2X2答案:采用逐步回归的办法解决多重共线性问题10. 什么是自相关?自相关会带来什么实际后果?如何识别?如何弥补?答:(1)自相关的定义:在回归模型中我们总假定不同时点的随机误差项之间是不相关的,即或者 ,如果一个回归模型不满足上述假设,即或者 ,则我们称随机误差项之间存在自相关现象。如果仅存在,称为一阶自相关,这是最常见的一种自相关问题。自相关不是指两个或两个以上的变量之间的相关关系,而是指一个变量前后期数值之间存在的相关关系。(2)自相关的后果:如果存在自相关时,的OLS估计量仍然是线性和无偏估计量,但不是有效估计量(方差最小),即不是BLUE,因此要建立置信区间并假设检验,要用GLS而不是OLS。如果我们不顾自相关的问题,即我们错误的认为通常关于经典模型的假设成立,那么忽略自相关的OLS估计的后果:1、 残差方差= 很可能低估真实的2、 结果,有可能高估判定系数R2.3、 即使没有低估,Var(),也可能低估Var()AR14、 因此,通常的t和F显著性检验可能无效了。如果仍然使用这些检验,就很可能会对所估计的回归系数做出有严重错误的统计显著性结论。(3)如何识别常用的自相关检验法有三种:(一)图示检验法:图示法是一种直观的诊断方法,它是把给定的回归模型直接用普通最小二乘法估计参数,求出残差项,再描绘残差的散点图,根据残差的相关性来判断随机误差项的自相关性。(二)回归检验法:首先以普通最小二乘法估计模型的参数,计算随机误差项的近似估计量 残差估计量;以残差估计量为被解释变量,以各种可能相关量,如滞后一阶残差、滞后二阶残差、残差平方等为解释变量,建立各种回归方程:对方程进行估计并进行显著性检验,如果存在某一种函数关系,使得方程显著成立,则说明原模型存在自相关性。(三)自相关系数法:用误差的估计值残差计算其自相关系数的估计值。由于自相关系数的估计值与样本量有关,需要进行统计显著性检验才能确定自相关性的存在,通常采用DW检验来代替对自相关系数估计值的检验。(4)如何弥补?广义一阶差分法一阶差分法柯 -奥迭代法杜宾两步法广义最小二乘法案例题举例:DW检验,根据DW的值,判断是否有相关关系,是正相关或者是负相关。它是 J.Durbin 和G.S.Watson 于1951 年提出的一种适用于小样本的一种检验方法。DW 检验只能用于检验随机误差项具有一阶自回归形式的自相关问题。11. 异方差会带来回归方程什么问题?如何解决?答:经典线性回归模型的一个重要假定,是随机干扰项的同方差性,即它们有相同的方差。但是如果给定Xi为条件的Yi的方差(等于的方差)随着X的变化而变化,从而就具有了异方差性。(1)异方差能带来什么问题?.考虑异方差的OLS估计:如果考虑到了异方差的问题,但是仍然坚持使用OLS估计,结果就能使估计量标准差减少,预测区间变窄,即;.忽视异方差性的OLS估计:1) 异方差并不破坏OLS估计的无偏性和一致性,但是这些估计量不再是最小方差或者有效的,即不再是BLUE;2) t、F 检验失效,预测区间增大;3)回归方程的应用效果极不理想,预测误差比较大。(2)出现异方差问题,如何补救?异方差虽然不损坏OLS估计量的无偏性和一致性,但却使它们变得无效,甚至不是渐进(即在大样本中)有效的。效率的缺乏使得通常的假设检验程序变得可疑,因此补救措施是必要的。补救方法可分两种:当为已知和当为未知。.当为已知:加权最小二乘法。如果为已知,那么纠正异方差的最好办法是采用加权最小二乘法WLS,这样得到的估计量就是BLUE。.当为未知:怀特的“异方差性相一致”的方差与标准误。怀特曾证明,可以做出这样一种估计,从而可以对真实的参数值做出渐进(即大样本)有效的统计推断的。经怀特异方差性校正的标准误比OLS的标准误大的多,因而所估计的t值比OLS要小的多12. 平稳随机过程的性质,白噪音过程的定义。答:首先随机过程的定义是,一般称依赖于参数时间t的随机变量的集合 为随机过程。如果一个随机过程的均值和方差在时间过程上都是常数,并且在任何两时期的协方差值仅依赖于这两个时期间的距离或者滞后,而不依赖于计算这个协方差的实际时间,就称它是平稳的。如果一个时间序列是平稳的,那么不管在什么时间测量,它的均值、方差和各种滞后的自协方差都保持不变。用公式表示就是:均值: (对所有的t)方差: (对所有的t)协方差: (对所有的t)其中即滞后k的协方差或者自协方差,是与,即相隔k期的两值之间的协方差。白噪音:随机过程中有一类特殊的情况叫白噪音,如果随机过程服从的分布不随时间改变,且均值为0,方差为常数,协方差为0,那么这一随机过程为白噪音。用公式表示是:均值: (对所有的t)方差:=常数 (对所有的t)协方差: (对所有的t)答:(1)建立回归模型时,应遵循节俭性(parsimony)的原则。博克斯和詹金斯(Box and Jenkins)提出了在节俭性原则下建立ARIMA模型的系统方法论,即Box-Jenkins 方法论。此方法有四个步骤:步骤1:识别。就是找出适当的p,d和q值。步骤2:估计。一旦辨识出适当的p和q值,下一步便是估计模型中所含自回归和移动平均项的参数。有时候可以用简单的最小二乘法完成计算,有时候则有必要寻求非线性估计方法。步骤3:诊断。选定ARIMA模型并估计其参数后,下一步就是要看所选的模型对数据拟合的是否足够好,因为有可能,另一个ARIMA模型也做的同样好。一个简单的检验就是看该模型估计出来的残差是不是白噪音,如果是,就接受这个拟合,如果不是,必须重新再做。步骤4:预测。ARIMA模型之所以得到普及,理由之一,是它在预测方面的成功。(2)在步骤1识别中,主要的工具是自相关系数ACF,偏自相关系数PACF,以及由此得到的相关图。后者只不过是将ACF与PACF相对于滞后长度描图而已。自相关函数。对于一个序列来说,它的第j阶自相关系数(记作)定义为它的j阶自协方差除以它的方差,即, 的取值范围是-1,1。可以看到, (j=0,1,2.)可看作是关于j的函数,因此我们也称之为自相关函数,通常记ACF(j)。偏自相关函数。偏自相关系数度量了消除中间滞后项影响后两滞后变量之间的相关关系。偏自相关函数记为PACF(j)。对ARIMA(p,d,q)过程进行识别,我们首先要确定的是该过程是否是平稳的,如果不是,通过几次差分可以得到平稳序列,即首先我们需要确定d的值。对此,我们可以用前面一章提到的ADF检验,也可以通过自相关函数来判断。如果d次差分后的序列其自相关函数很快下降为0,则说明,差分后的序列是平稳的,反之则不平稳。在确定 d的值后,接下来我们利用自相关函数、偏自相关函数以及它们的图形来确定p, q的值。三、 林清泉版样题(周班.秦怀平等整理)1. 说明用事件发生的频率代替事件发生概率的合理性。(15分)答:在相同的条件下进行了n次试验,在这n次事件中,事件A发生的次数记为,称为事件A发生的频数。称为事件A发生的频率,并记为。由于事件A发生的频率是它发生的次数与实验次数之比,其大小表示A发生的频率程度。频率越大,表示事件A发生得越频繁,这意味着A在一次试验中发生的可能性越大。因而,人们直观的想法是用频率来表示A在一次实验中发生的可能性的大小。历史上有人做过抛硬币的实验,通过实验表明,当抛币次数n逐渐增大时,出现正面的频率逐渐稳定于一个常数。对于每一个事件A都有这样一个客观存在的常数与之相对应。这种“频率稳定性”就是通常所说的统计规律性,它揭示了隐藏在随机现象中的规律性。因此,用频率稳定值来表示事件发生的可能性大小(即事件的概率)是合适的。【注】以上答案不是很贴切,该问题应该是考量的大数定理。在概率论中,一切关于大量随机现象之平均结果稳定性的定理统称为大数定理。它在理论上证明了,当试验次数n很大时,独立事件出现的频率接近于其概率。可以用频率代替概率。2. 从16双不同的鞋中任意抽取6只,求所取这6只鞋中正好有一双的概率。(15分)解:16双中取6只,共有种取法首先,从16双中选取一双,有种取法;从剩下的15双中取出4双,有种取法;从这4双鞋中的每双任取1只,共有种取法。于是所取6只鞋中正好有一双的概率为:3. 试解释随机变量的变异系数的意义。(10分)答:如果E(X)0,定义函数V(X)=D(X)/E(X)为随机变量X的变异系数。变异系数V(X)可用来描述随机变量的相对离散程度。方差和标准差可用来反映随机变量的绝对离散程度,但只依靠绝对偏离程度并不能客观地反映随机变量的偏离程度。例如,标准差为10的数学期望为10000的随机变量并不算很大的偏差,但对数学期望为10的随机变量而言就是一个较大的偏差。因此,变异系数能更加客观地反映随机变量的偏离程度。变异系数V(X)的另一个意义是:如果期望表示平均收益、方差表示风险,则V(X)表示单位收益所承担的风险。另外,变异系数还表示数学期望代表随机变量的代表性的好坏;变异系数小则表示数学期望代表随机变量的代表性好。4. 假设日本、美国、韩国、中国台湾的出口增长率如下表所示,用几何平均法,求出各自的出口平均增长率(20分)年度日本美国韩国中国台湾20015.46.311.812.820024.96.611.05.320031.32.911.37.220044.68.216.25.520055.08.919.012.9解: (1) 日本的出口平均增长率为: = 1.042 1 = 0.042 = 4.2%(2) 美国的出口平均增长率为: = 1.066 1 = 6.6%(3) 韩国的出口平均增长率为: = 1.138 1 = 13.8%(4) 中国台湾的出口平均增长率为: = 1.087 1 = 8.7%5. 设啤酒消费量(Y每天每人消费的杯数)与平均真实零售价格(X)的关系:年份1980198119821983198419851986198719881989Y2.602.502.302.302.252.202.112.002.072.06X0.750.700.790.730.760.751.081.811.391.20(1)求啤酒消费y关于平均真实零售价格x的线性回归方程,并做出解释;(2)在显著水平=0.05下对所求方程作显著性检验,F0.05(1.8)=5.32;解:(1)假设y=+x,代入实际数据,得到10个方程的方程组之后用最小二乘估计,得到参数和的值。求得=2.6364,=-0.399因此线性回归方程为y=2.6364-0.399x(2)t假设检验,零假设为a1=0当a1=0时有计算t得t=-3.7013r0.05(8)=0.632,因此拒绝零假设。所得的线性回归方程依然具有显著性。6. 试叙述假设检验的基本思想(林清泉版本)。(20分)答:假设检验是统计推断的一类重要问题,也是计量经济学中数据分析的重要工具之一。假设检验有参数假设检验和非参数假设检验之分。在总体的分布函数形式未知或只知其形式,但不知其参数的情况下,为了推断总体的分布及这些参数,提出了关于总体的分布或总体分布中某一参数的假设。例如,当总体分布未知时,对总体分布提出服从泊松分布、正态分布等假设,并对该假设进行检验,此类问题称为非参数假设检验;另一种情况是已知总体服从某一分布,只是其中的某些参数未知。例如,总体的数学期望未知,提出总体数学期望等于、方差等于的假设,并对其进行检验,此类问题属于参数假设检验。假设检验是通过样本获取数据,并对所提出的假设做出判断接受或拒绝所提出的假设。以切割机切割钢丝为例,切得钢丝长度是一随机变量,它服从正态分布,机器正常时情况均值为0.5,标准差为0.015。某日开工抽取9个样本,测得长度分别为:0.4790.5060.5180.4980.5110.5200.5150.512,该机器是否正常?以、分别表示当天切割钢丝的长度的总体X的均值和标准差。由于长期实践表明标准差比较稳定,我们假设=0.015,于是X,这里未知。问题是判断=0.5还是0.5。为此,我们提出假设和这是两个对立的假设。然后,我们给出一个合理的判断法则。根据这一法则,利用已知样本值做出判断接受假设(即拒绝假设)或相反。如果做出的判断是接受,则认为,即认为机器工作正常;否则,认为机器不正常。由于要检验的假设涉及总体均值,故首先想到是否可借助样本均值这一统计量来进行判断。我们知道,是的无偏估计,的观测值大小在一定程度上反映了的大小。因此,如果假设为真,则观测值与的偏差一般不应太大。若过大,我们就怀疑假设的正确性,从而拒绝。考虑到为真时,而衡量的大小归结为衡量的大小。基于上面的想法,我们可适当选定一正数k,当观测值满足时就拒绝假设;反之,若,就接受假设。由于我们只用一个样本观测值作为判断的依据,因此将产生以下两个问题:当为真时仍可能做出拒绝的判断,这种可能性是无法消除的;当为真时,仍有可能接受。前者称为拒真错误,或犯第一类错误;后者称为受伪错误,或第二类错误。它们的概率分别为:P拒绝|为真或拒绝P接受|不真或接受在确定检验法则时,我们应尽可能使犯这两类错误的概率都比较小。但是,进一步讨论表明,当样本容量固定时,若减少犯一类错误的概率,则犯另一类错误的概率往往增大。若要犯两类错误的概率都减少,就必须增加样本容量。一般来说,在给定样本容量的条件下,我们应控制犯第一类错误的概率,使它小于或等于。的大小应视具体情况而定,通常取0.1,0.05,0.01等值。这种只犯第一类错误的概率加以控制而不考虑犯第二类错误的检验问题,称为显著性检验问题。在显著性水平下,假设检验也常说成“在显著性水平下,针对检验” 称为原假设或零假设,称为备用假设。我们要做的工作是,根据样本观测值,按显著性检测方法做出的接受还是。如果接受,这时,可能大于,也可能小于。这种假设检验称之为双边假设检验。另外,若考虑备择假设是不等式形式的假设检验,则称之为单边假设检验。7. 试叙述假设检验的基本思想(备选一)。(20分)答:假设检验是数理统计学中根据一定假设条件由样本推断总体的一种方法。具体作法是:根据问题的需要对所研究的总体作某种假设,记作;选取合适的统计量,这个统计量的选取要使得在假设成立时,其分布为已知;由实测的样本,计算出统计量的值,并根据预先给定的显著性水平进行检验,作出拒绝或接受假设的判断。常用的假设检验方法有u检验法、t检验法、X2检验法、F检验法等。假设检验的意义:假设检验是抽样推断中的一项重要内容。它是根据原资料作出一个总体指标是否等于某一个数值,某一随机变量是否服从某种概率分布的假设,然后利用样本资料采用一定的统计方法计算出有关检验的统计量,依据一定的概率原则,以较小的风险来判断估计数值与总体数值(或者估计分布与实际分布)是否存在显著差异,是否应当接受原假设选择的一种检验方法。 用样本指标估计总体指标,其结论有的完全可靠,有的只有不同程度的可靠性,需要进一步加以检验和证实。通过检验,对样本指标与假设的总体指标之间是否存在差别作出判断,是否接受原假设。这里必须明确,进行检验的目的不是怀疑样本指标本身是否计算正确,而是为了分析样本指标和总体指标之间是否存在显著差异。从这个意义上,假设检验又称为显著性检验。 进行假设检验,先要对假设进行陈述。通过下例加以说明。 例如,设某工厂制造某种产品的某种精度服从平均数为方差为的正态分布,据过去的数据,已知平均数为75,方差为100。现在经过技术革新,改进了制造方法,出现了平均数大于75,方差没有变更,但仍存在平均数不超过75的可能性。试陈述为统计假设。 根据上述情况,可有两种假设,一个是假想平均数不超过75,即假设另一个假想是平均数大于75,即假设如果我们把作为原假设,即被检验的假设,称作零假设,记作于是,假设相对于假设来说,是约定的、补充的假设,记作它和有两者选择其一的意思,即作为被检验的假设,则就是备择的,故称为备择假设或对立假设。 还须指出,哪个是零假设,哪个是备择假设,是无关紧要的。我们关心的问题,是要探索哪一个假设被接受的问题。被接受的假设是要作为推理的基础。在实际问题中,一般要考虑事情发生的逻辑顺序和关心的事件,来设立零假设和备择假设。 在作出了统计假设之后,就要采用适当的方法来决定是否应该接受零假设。由于运用统计方法所遇到的问题不同,因而解决问题的方法也不尽相同。但其解决方法的基本思想却是一致的,即都是“概率反证法”思想,即: (1)为了检验一个零假设(即虚拟假设)是否成立, 先假定它是成立的,然后看接受这个假设之后,是否会导致不合理结果。如果结果是合理的,就接受它;如不合理,则否定原假设。 (2)所谓导致不合理结果,就是看是否在一次观察中, 出现小概率事件。通常把出现小概率事件的概率记为0,即显著性水平。 它在次数函数图形中是曲线两端或一端的面积。因此,从统计检验来说,就涉及到双侧检验和单侧检验问题。在实践中采用何类检验是由实际问题的性质来决定的。一般可以这样考虑: 双侧检验。如果检验的目的是检验抽样的样本统计量与假设参数的差数是否过大(无论是正方向还是负方向),就把风险平分在右侧和左侧。比如显著性水平为0.05,即概率曲线左右两侧各占,即0.025。 单侧检验。这种检验只注意估计值是否偏高或偏低。如只注意偏低,则临界值在左侧,称左侧检验;如只注意偏高,则临界值在右侧,称右侧检验。对总体的参数的检量,是通过由样本计算的统计量来实现的。所以检验统计量起着决策者的作用。8. 试叙述假设检验的基本思想(备选二)。(20分)假设检验是除参数估计之外的另一类重要的统计推断问题。它的基本思想可以用小概率原理来解释。所谓小概率原理,就是认为小概率事件在一次试验中是几乎不可能发生的。也就是说,对总体的某个假设是真实的,那么不利于或不能支持这一假设的事件A在一次试验中是几乎不可能发一的;要是在一次试验中事件A竟然发生了,我们就有理由怀疑这一假设的真实性,拒绝这一假设。 例7:某公司想从国外引进一种自动加工装置。这种装置的工作温度X服从正态分布(,52),厂方说它的平均工作温度是80度。从该装置试运转中随机测试16次,得到的平均工作温度是83度。该公司考虑,样本结果与厂方所说的是否有显著差异?厂方的说法是否可以接受? 类似这种根据样本观测值来判断一个有关总体的假设是否成立的问题,就是假设检验的问题。我们把任一关于单体分布的假设,统称为统计假设,简称假设。上例中,可以提出两个假设:一个称为原假设或零假设,记为H0:=80(度);另一个称为备择假设或对立假设,记为H1 :80(度)这样,上述假设检验问题可以表示为: H0:=80 H1:80 原假设与备择假设相互对立,两者有且只有一个正确,备择假设的含义是,一旦否定原假设H0,备择假设H1备你选择。所谓假设检验问题就是要判断原假设H0是否正确,决定接受还是拒绝原假设,若拒绝原假设,就接受备择假设。应该如何作出判断呢?如果样本测定的结果是100度甚至更高(或很低),我们从直观上能感到原假设可疑而否定它,因为原假设是真实时,在一次试验中出现了与80度相距甚远的小概率事件几乎是不可能的,而现在竟然出现了,当然要拒绝原假设H0。现在的问题是样本平均工作温度为83度,结果虽然与厂方说的80度有差异,但样本具有随机性,80度与83度之间的差异很可能是样本的随机性造成的。在这种情况

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论