使用sas进行变量筛选模型诊断多元线性回归分析_第1页
使用sas进行变量筛选模型诊断多元线性回归分析_第2页
使用sas进行变量筛选模型诊断多元线性回归分析_第3页
使用sas进行变量筛选模型诊断多元线性回归分析_第4页
使用sas进行变量筛选模型诊断多元线性回归分析_第5页
已阅读5页,还剩51页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

使用SAS进行变量筛选、模型诊断、多元线性回归分析在其他地方看到的帖子,自己动手做了实验并结合自己的理解做了修订第一节多元线性回归分析的概述回归分析中所涉及的变量常分为自变量与因变量。当因变量是非时间的连续性变量(自变量可包括连续性的和离散性的)时,欲研究变量之间的依存关系,多元线性回归分析是一个有力的研究工具。多元回归分析的任务就是用数理统计方法估计出各回归参数的值及其标准误差;对各回归参数和整个回归方程作假设检验;对各回归变量(即自变量)的作用大小作出评价;并利用已求得的回归方程对因变量进行预测、对自变量进行控制等等。值得注意的是:一般认为标准化回归系数的绝对值越大,所对应的自变量对因变量的影响也就越大。但是,当自变量彼此相关时,回归系数受模型中其他自变量的影响,若遇到这种情况,解释标准化回归系数时必须采取谨慎的态度。当然,更为妥善的办法是通过回归诊断仃heDiagnosisofRegression),了解哪些自变量之间有严重的多重共线性(Multicoll-inearity),从而,舍去其中作用较小的变量,使保留下来的所有自变量之间尽可能互相独立。此时,利用标准化回归系数作出解释,就更为合适了。关于自变量为定性变量的数量化方法设某定性变量有k个水平(如ABO血型系统有4个水平),若分别用1、2、…、k代表k个水平的取值,是不够合理的。因为这隐含着承认各等级之间的间隔是相等的,其实质是假定该因素的各水平对因变量的影响作用几乎是相同的。比较妥当的做法是引入k-1个哑变量(DummyVariables),每个哑变量取值为0或1。现以ABO血型系统为例,说明产生哑变量的具体方法。当某人为A型血时,令X1=1、X2=X3=0;当某人为B型血时令X2=1、X仁X3=0当某人为AB型血时令X3=1、X1=X2=0;当某人为0型血时,令X1=X2=X3=0。这样,当其他自变量取特定值时,X1的回归系数b1度量了E(Y/A型血厂E(Y/O型血)的效应;X2的回归系数b2度量了E(Y/B型血厂E(Y/O型血)的效应;X3的回归系数b3度量了E(Y/AB型血厂E(Y/O型血)的效应。相对于O型血来说,b1、b2、b3之间的差别就较客观地反映了A、B、AB型血之间的差别。[说明]E(Y/*)代表在“*”所规定的条件下求岀因变量丫的期望值(即理论均值)。5•变量筛选研究者根据专业知识和经验所选定的全部自变量并非对因变量都是有显著性影响的,故筛选变量是回归分析中不可回避的问题。然而,筛选变量的方法很多,详见本章第3节,这里先介绍最常用的一种变量筛选法一逐步筛选法。模型中的变量从无到有,根据F统计量按SLENTRY的值(选变量进入方程的显著性水平)决定该变量是否入选;当模型选入变量后,再根据F统计量按SLSTAY的值(将方程中的变量剔除出去的显著性水平)剔除各不显著的变量,依次类推。这样直到没有变量可入选,也没有变量可剔除或入选变量就是刚剔除的变量,则停止逐步筛选过程。在SAS软件中运用此法的关键语句的写法是:MODELY=一系列的自变量/SELECTION=STEPWISESLE=p1SLS=p2;具体应用时,pl、p2应分别取0~1之间的某个数值。6•回归诊断自变量之间如果有较强的相关关系,就很难求得较为理想的回归方程;若个别观测点与多数观测点偏离很远或因过失误差(如抄写或输入错误所致),它们也会对回归方程的质量产生极坏的影响。对这两面的问题进行监测和分析的方法,称为回归诊断。前者属于共线性诊断仃heDiagnosisofCollinearity)问题;后者属于异常点诊断(TheDiagnosisofOutlier)问题。下面结合SAS输岀结果作些对应的解释,详细讨论参见第4节。第二节应用举例[例1]某精神病学医生想知道精神病患者经过6个月治疗后疾病恢复的情况丫是否能通过精神错乱的程度X1、猜疑的程度X2两项指标来较为准确地预测。资料如下,试作分析。丫X1X2283.366.9243.236.5142.586.22.816.02.806.4102.748.4282.905.682.636.93.156.5162.606.3132.706.9223.086.3203.046.8213.568.8132.747.1182.787.2先建立数据文件pdh.txt,输成16行3列的形式。这是二元线性回归分析问题。由于自变量个数很少,先尝试用不筛选自变量的方法建立回归方程,视结果的具体情况再确定后续方案。dm'log;clear;output;clear;';DATAabc1;INFILE'd:\zerocv\pdh.txt';INPUTyx1x2;PROCREG;MODELy=x1x2;RUN;程序1很简单它拟合丫关于X1、X2的二元线性回归方程;从运算结果得知:方程的截距项与0之间无显著性差别(红色框),表明可将截距项去掉(加上选择项NOINT),于是,产生了如下:(程序2)DATAabc2;INFILE'd:\zerocv\pdh.txt';INPUTyx1x2;PROCREG;MODELy=x1x2/NOINTPR;RUN;这是程序2的方差分析和参数估计结果,方程与各参数的检验结果都有显著性意义,所求得的二元线性回归方程为:丫八=17.806056X14873584X2,SY.X=2.53714。SY.X是回归模型误差的均方根,此值越小,表明所求得的回归方程的精度越高(下同)。这是对程序2中的二元回归模型作残差分析的结果,从第④、⑤两列发现第8个观测点所对应的学生化残差的绝对值大于2(因STUDENT=-2.170),故认为该点可能是异常点,需认真检查核对原始数据。第①~③列分别为因变量的观测值、预测值及其标准误差;其后的普通残差及其标准误差被省略了;第⑥列为Cook'sD统计量及预测平方和Press的定义参见本章第6节。程序2的运算结果表明:第8个观测点为可疑的异常点,试着将此点剔除后看看结果有什样的变化,产生了程序3。(程序3)DATAabc3;INFILE'd:\zerocv\pdh.txt';INPUTyx1x2;IF_N_=8THENDELETE;PROCREG;MODELy=x1x2/NOINTPR;RUN;这是程序3的方差分析和参数估计结果,方程与各参数的检验结果都有显著性意义(p值均小于0.0001),所求得的二元线性回归方程为:丫八=16.972158X14465611X2,SY.X=2.14515。这是对程序3中的二元回归模型作残差分析的结果,没有发现异常点(第四列没有绝对值大于2的记录)。比较第8个观测点去掉前后预测平和Press的值从122.8819降为79.9550对整个方程检验的F值从474.661上升为660.326,表明该点对因变量预测值的影响是比较大的,值得注意程序2与程序3MODEL语句中的选择项P、R分别要求计算各点上因变量的预测值和进行残差分析。欲求标准化回归105.013.7513.5779.800.14105.013.7513.5779.800.14140.016.1516.1084.090.19140.016.1516.1084.090.19系数,可在MODEL语句的“/”之后加上“STB”。[结论]可用二元线性回归方程丫八=16.972158X1・4.465611X2较好地预测因变量Y的的值,回归方程误差均方根为=2.14515。[例2]有人在某地抽样调查了29例儿童的血红蛋白与4种微量元素的含量,资料如下,试问:可否用4种微量元素(单位都是pmol/L)钙(XI)、镁(X2)、铁(X3)、铜(X4)来较好地预测血红蛋白(Y,g/L)的含量?为回答所提的问题,选用多元线性回归分析较合适。先将数据按29行5列的形式输入,建立数据文件BLOOD.txtYX1X2X3X4135.013.7012.6880.320.16130.018.0917.5183.650.2613.4321.7376.180.1914.6715.4881.720.1610.9010.7670.840.09125.013.7012.6880.320.1621.4918.0078.780.28120.015.0615.7070.600.1813.4814.0772.600.20115.015.2815.3579.830.2215.0113.8468.590.14110.017.3916.4474.590.2118.0316.4977.110.1978.014.0712.0450.660.2178.014.0712.0450.660.2117.4815.1373.350.19100.015.7314.4168.750.1312.1612.5561.380.1595.013.0411.1558.410.1313.0314.8769.550.1690.012.4010.4559.270.1415.2212.0346.350.1985.013.3911.8352.410.2112.5311.9952.380.1680.016.3012.3355.990.1675.016.5013.1261.610.1118.4413.5455.940.1870.011.8011.7352.750.13[程序修改指导]由于自变量不太多,为便于对全部变量都参入计算的结果有一个全面的了解,先用程序1作试探性分析,并用了共线性诊断的技术。值得注意的是:用来实现共线性诊断的选择项有COLLIN、②COLLINOINT两个,①对截距未进行校正,对截距进行了校正。若MODEL语句中加了选择项/NOINT(即方程中不包含截距项),此时,①、②的输岀结果完全相同,故只需写其中一个即可;若MODEL语句中未加选择项/NOINT(即方程中包含截距项),此时,①、②的输岀结果之间差别大小视截距项的检验结果有无显著性而有所不同。当截距项无显著性意义时,①、②的输岀结果差别很小,用其中任何一个结果都是可以的,参见本例程序1的输岀结果;当截距项有显著性意义时,①、②的输岀结果差别较大,应该用由②输岀的结果,参见在本例结尾所给的[样例]。若希望对异常点进行诊断,可在MODEL语句的“/”号之后加上选择项INFLUNENCE。由于程序1运行的结果表明“截距项无显著性意义”,提示应将截距项从模型中去掉,于是,产生了程序2。MODEL语句中各选择项的含义是:NOINT不要截距项、STEPWISE用逐步回归法筛选自变量、SLE=0.3规定选变量进入方程的显著性水平为0.3、SLS=0.1规定从方程中剔除变量的显著性水平为0.1、STB要求求出标准化回归参数的估计值。(程序1)DATAabc1;INFILE'd:\zerocv\blood.txt';INPUTyx1-x4;PROCreg;MODELy=x1-x4/COLLINCOLLINOINT;RUN;程序1的参数估计结果:截距项Intercept、X2、X4都无显著性意义(p值较大)但不应过早将X2、X4从模型中去掉。最好等截距项从模型中去掉之后,重新拟合,视最后的结果再作决定。这是共线性诊断的第1部分,即未对截距项校正的回归诊断结果:从最后一行的条件数25.5585>10(概念参见本章第4节)可知,自变量之间有较强的共线性;从该行方差分量(对大的条件数(Conditionindex),通常大于10认为条件数大,会有共线性变量,而contitionindex>30认为条件数非常大,严重的共线性变量,考察大的条件数所在行,同时有2个以上变量的方差分量超过50%,就意味这些变量间有一定程度的相关,也即该图中ProportionofVariation中有某行同时有2各或以上的值超过50%,则可认为有共线性)的数值可看岀:自变量之间的共线性主要表现在X2、X3两变量上。这是共线性诊断的第2部分,即对截距项校正之后的回归诊断结果:因本例的截距项无显著性意义,故用第1部分诊断结果就可以了。(程序2)DATAabc2;INFILE'd:\zerocv\blood.txt';INPUTyx1-x4;PROCreg;MODELy=x1-x4/NOINTSELECTION=STEPWISESLE=0.30SLS=0.10STB;RUN;这是程序2中逐步回归分析的结果。筛选的最后结果表明:只有X1和X3进入筛选;X3是有非常显著性影响的变量;而X1仅在P=0.0865水平上有显著性意义,若规定SLS=0.05,则回归方程中只有X3一个自变量。逐步回归分析的最后结果,回归方程为:丫八=-1.242806X1+1.813880X3两个标准化回归系数分别为-0.174394、1.166184,结合前面共线性诊断的结果可知,X1与X3之间无密切的相关关系,故可认为X3对Y的影响大于X1。[专业结论]微量元素中铁(X3)的含量对血红蛋白(Y)的影响有非常显著性意义。铁的吸收量提高后,有助于血红蛋白含量的提高(因B3=1.16618>0);而钙的吸收量提高后,反而会使血红蛋白含量有减少的趋势(因B1=-0.17439<0)[例3]某项试验研究中,有5个自变量X1~X5和1个因变量丫(资料见下面的SAS程序)。试拟合丫关于5个自变量的回归方程,并用COLLIN和COLLINOINT两个选择项进行回归诊断。DATADEF;INPUTX1-X5Y@@;CARDS;64142022410024.0870141823610025.6764162424210028.5972162221210025.316618282188527.887218262308531.536620182428527.997420302068528.036822222188527.777422202308531.316824262367031.217624242067029.167026302127030.837626282247036.39PROCREG;MODELY=X1-X5/COLLINCOLLINOINT;RUN;总回归模型有非常显著性意义(Pr>F的p值较小,且r-square接近1),截距项有显著性意义(Intercept项的p值较小)。这是选择项COLLIN输出的结果,由于截距项有显著性意义,故在未对截距项进行校正的共线性诊断结果中几乎看不出哪些自变量之间有共线性关系。所以需要先对截距项进行校正后进行共线性诊断,看下面的输出。这是选择项COLLINOINT输出的结果,由于截距项有显著性意义,故从对截距项进行校正后的共线性诊断结果,从该行方差分量(对大的条件数(Conditionindex),通常大于10认为条件数大,会有共线性变量,而contitionindex>30认为条件数非常大,严重的共线性变量,考察大的条件数所在行,同时有2个以上变量的方差分量超过50%,就意味这些变量间有一定程度的相关,也即该图中ProportionofVariation中有某行同时有2各或以上的值超过50%,则可认为有共线性)的数值可看岀:第5列中X2与X5的值均超过90%,且条件数为7.6,故认为X2与X5之间存在一定的共线性关系。第三节变量筛选方法当所研究的问题涉及较多的自变量时,我们很难想象事先选定的全部自变量对因变量的影响都有显著性意义,也不敢保证全部自变量之间是相互独立的。换句话说,在建立多元线性回归方程时,需要根据各自变量对因变量的贡献大小进行变量筛选,剔除那些贡献小、与其他自变量有密切关系的自变量,发现那些对回归方程有很坏影响的观测点(这些都是回归诊断的重要内容,参见第4节),从而求岀精练的、稳定的回归方程。在运用SAS中REG或STEPWISE等过程进行回归分析时,是通过MODEL语句对模型作岀初步假设,然后就要根据实验数据和统计规则,选择模型中的变量和估计回归参数对于线性模型而言,在REG中可以同时采用以下8种选择变量的方法,现逐一加以介绍。•向前选择法(FORWARD)模型中变量从无到有依次选一变量进入模型,并根据该变量在模型中的II型离差平和(SS2)计算F统计量及P值。当P小于SLENTRY(程序中规定的选变量进入方程的显著性水平)则该变量入选,否则不能入选;当模型中变量少时某变量不符合入选标准,但随着模型中变量逐次增多时,该变量就可能符合入选标准;这样直到没有变量可入选为止。SLENTRY缺省值定为0.5,亦可定为0.2到0.4,如果自变量很多,此值还应取得更小一些,如让SLENTRY=0.05。向前选择法的局限性:SLENTR丫取值小时,可能任一个变量都不能入选;SLENTRY大时,开始选入的变量后来在新条件下不再进行检验,因而不能剔除后来变得无显著性的变量。•向后消去法(BACKWARD)从模型语句中所包含的全部变量开始,计算留在模型中的各个变量所产生的F统计量和P值当P小于SLSTAY(程序中规定的从方程中剔除变量的显著性水平)则将此变量保留在方程中,否则,从最大的P值所对应的自变量开始逐一剔除,直到模型中没有变量可以剔除时为止。SLSTAY缺省值为0.10,欲使保留在方程中的变量都在a=0.05水平上显著时,应让SLSTAY=0.05。程序能运行时,因要求所选自变量的子集矩阵满秩,所以当观测点少、且变量过多时程序会自动从中选择岀观测点数减1个变量。向后消去法的局限性:SLSTAY大时,任一个变量都不能剔除;SLSTAY小时,开始剔除的变量后来在新条件下即使有了显著性,也不能再次被入选回归模型并参入检验。•逐步筛选法(STEPWISE)此法是向前选择法和向后消去法的结合。模型中的变量从无到有像向前选择法那样,根据F统计量按SLENTRY水平决定该变量是否入选;当模型选入变量后,又像向后消去法那样根据F统计量按SLSTAY水平剔除各不显著的变量,依次类推。这样直到没有变量可入选,也没有变量可剔除或入选变量就是刚剔除的变量,则停止逐步筛选过程。逐步筛选法比向前选择法和向后消去法都能更好地在模型中选岀变量,但也有它的局限性:其一,当有m个变量入选后,选第m+1个变量时,对它来说,前m个变量不一定是最佳组合;其二,选入或剔除变量仅以F值作标准,完全没考虑其他标准。•最大R2增量法(MAXR)首先找到具有最大决定系数R2的单变量回归模型,其次引入产生最大R2增量的另一变量。然后对于该两变量的回归模型,用其他变量逐次替换,并计算其R2,如果换后的模型能产生最大R2增量,即为两变量最优回归模型,如此再找下去,直到入选变量数太多,使设计矩阵不再满秩时为止。它也是一种逐步筛选法,只是筛选变量所用的准则不同,不是用F值,而是用决定系数R2判定变量是否入选。因它不受SLENTRY和SLSTAY的限制,总能从变量中找到相对最大者;胀克服了用本节筛选法1-3法时的一种局限性:找不到任何变量可进入模型的情况。本法与本节第3种方法都是逐步筛选变量方法,每一步选进或剔除变量都是只限于一个,因而二者局限性也相似:第一,当有m个变量入选后,选第m+1个变量时,对它来说,前m个变量不一定是最佳组合;第二,选入或剔除变量仅以R2值作标准,完全没考虑其他标准。•最小R2增量法(MINR)首先找到具有最小决定系数R2的单变量回归模型,然后从其余变量中选出一个变量,使它构成的模腥其他变量所产生的R2增量最小,不断用新变量进行替换老变量,依次类推,这样就会顺次列出全部单变量回归模型,最后一个为单变量最佳模型;两变量最小R2增量的筛选类似本节第4种方法,但引入的是产生最小R2增量的另一变量。对该两变量的回归模型,再用其他变量替换,换成产生最小R2增量者,直至R2不能再增加,即为两变量最优回归模型。依次类推,继续找含3个或更多变量的最优回归模型等等,变量有进有出。它与本节第4种方法选的结果不一定相同,但它在寻找最优模型过程中所考虑的中间模型要比本节第4种方法多。本法的局限性与本节第3、4种方法相似:第一,当有m个变量入选后,选第m+1个变量时,每次只有1个变量进或出,各变量间有复杂关系时,就有可能找不到最佳组合;第二,选入变量或替换变量仅以R2值作标准,完全没考虑其他标准。6.R2选择法(RSQUARE)从模型语句中的各自变量所有可能子集中选出规定数目的子集,使该子集所构成的模型的决定系数R2最大。要注意:当观测点少、且模型语句中变量数目过多时,程序不能运行,因为过多变量使误差项无自由度,设计矩阵不满秩,所以最多只能从所有可能的变量中选择观测点数减1个变量放入模型。本法和后面的本节第7、8种方法分别是按不同标准选出回归模型自变量的最优子集,这类选变量法不是从所有可能形成的变量中,而仅仅从模袖量中穷举。本法的局限性在于:其一,当样本含量小于等于自变量(含交互作用项)个数时,只能在一定数目的变量中穷举,为找到含各种变量数目的最优子集,要么增加观测,要么反复给岀不同模型;其二,选最优子集的标准是R2,完全没考虑其他标准。7•修正R2选择法(ADJRSQ)根据修正的决定系数R2取最大的原则,从模型的所有变量子集中选岀规定数目的子集。程序能运行的条件是设计矩阵X满秩。本法的局限性与本节第6种方相似:其一,与本节第6种方中“其一”相同;其二,选最优子集的标准只是用修正的R2取代未修正的R2而已,完全没考虑其他标准。8.Mallow'sCp选择法(CP)根据Mallow'sCp统计量(定义见本章第6节),从模袖量子集中选岀最优子集。Cp统计量的数值比本节第6、7种方法更大地依赖于MODEL语句所给岀的模型,它比前二者多考虑的方面是:用模型语句决定的全回归模型估计岀误差平和。程序能运行的条件是设计矩阵满秩。本法的局限性与本节第6种方相似,只是用Cp统计量取代R2而已。[说明门全回归模型选择(NONE):不舍弃任何变量,将全部变量都放入模型之中去。当各回归模型中的各回归变量的设计矩阵不满秩时,与本节第6~8种方法选择方法同样道理,回归分析是不能正常进行下去的。[说明2]用本节第6~8种方法只能达到筛选变量的目的,但结果中并没有具体给出回归方程各参数的估计值及其检验结果,需从所给出的变量组合中结合专业知识选择某些变量子集,用不筛选变量的方法建立含所指定变量子集的回归方程。[说明3]用本节第1~5种方法虽然给岀了筛选变量后的回归方程,但一般也只用于变量筛选,当确定了最后的回归方程之后,此时,再在模型语句的“/”号之后多加一些选择项,重新运行修改后的程序,以便给岀各种检验、诊断和描述性的结果。第四节回归诊断方法回归诊断的两项主要任务(1)检验所选模型中的各变量之间共线性(即某些自变量之间有线性关系)情况;(2)根据模型推算出与自变量取各样本值时对应的因变量的估计值yA,反过来检验所测得的丫是否可靠。下面就SAS系统的REG过程运行后不同输岀结果,仅从回归诊断方面理解和分析说明1•用条件数和方差分量来进行共线性诊断各入选变量的共线性诊断借助SAS的MODEL语句的选择项COLLIN或COLLINOINT来完成。二者都给岀信息矩阵的特征根和条件数(ConditionNumber),还给岀各变量的方差在各主成分上的分解(Decomposition),以百分数的形式给岀,每个入选变量上的方差分量之和为1OCOLLIN和COLLINOINT的区别在于后者对模型中截距项作了校正。当截距项无显著性时,看由COLLIN输岀的结果;反之,应看由COLLINOINT输岀的结果。(1)条件数先求岀信息矩阵X'X的各特征根,条件指数(conditionindices)定义为:最大特征根与每个特征根比值的平根,其中最大条件指数k称为矩阵X'X的条件数。条件数大,说明设计矩阵有较强的共线性,使结果不稳定,甚至使离开试验点的各估计值或预测值毫无意义。直观上,条件数(conditionindex)度量了信息矩阵X'X的特征根散布程度,可用来判断多重共线性是否存在以及多重共线性严重程度。在应用经验中,若0vkvio,则认为没有多重共线性;10WkW30,则认为存在中等程度或较强的多重共线性;k>30,则认为存在严重的多重共线性。(2)方差分量强的多重共线性同时还会表现在变量的方差分量上:同一行中同时有2个以上变量的方差分量超过50%,就意味这些变量间有一定程度的相关。2.用方差膨胀因子来进行共线性诊断(1)容许度(Tolerance,在Model语句中的选择项为TOL)对一个入选变量而言,该统计量等于1-R2,这里R2是把该自变量当作因变量对模型中所有其余回归变量的决定系数,R2大(趋于1),则1-R2二TOL小(趋于0),容许度差,该变量不由其他变量说明的部分相对很小。(2)方差膨胀因子(VIF)VIF=1/TOL,该统计量有人译为“方差膨胀因子”(VarianceInflationFactor)对于不好的试验设计VIF的取值可能趋于无限大。VIF达到什么数值就可认为自变量间存在共线性?尚无正规的临界值。[陈希孺、王松桂,1987]根据经验得岀:VIF>5或10时,就有严重的多重共线性存在。3.用学生化残差对观测点中的强影响点进行诊断对因变量的预测值影响特别大,甚至容易导致相反结论的观测点,被称为强影响点(InfluenceCase)或称为异常点(Outlier)。有若干个统计量(如:Cook'D统计量、hi统计量、STUDENT统计量、RSTUDENT统计量等,这些统计量的定义参见第6节)可用于诊断哪些点对因变量的预测值影响大,其中最便于判断的是学生化残差STUDENT统计量,当该统计量的值大于2时,所对应的观测点可能是异常点,此时,需认真核对原始数据。若属抄写或输入数据时人为造成的错误,应当予以纠正;若属非过失误差所致,可将异常点剔除后再作回归分析。如果有可能,最好在此点上补做试验,以便进一步确认可疑的“异常点”是否确属异常点。第五节用各种筛选变量方法编程的技巧从第3节可知,有多种筛选变量的方法,这些方法中究竟哪一种最好?没有肯定的答复。最为可行的做法是对同一批资料多用几种筛选变量的方法,并结合专业知识从中选出相对优化的回归模型。判断一个回归模型是否较优,可从以下两个方面考虑:其一,整个回归模型及模型中各回归参数在统计学上有显著性意义、在专业上(特别是因变量的预测值及回归方程的精度)有实际意义;其二,在包含相同或相近信息的前提下,回归方程中所包含的变量越少越好。下面利用一个小样本资料,通过一个较复杂的SAS程序,展示如何用各种筛选变量的方法实现回归分析、如何用已求得的回归方程对资料作进一步的分析的技巧。[例4]a-甲酰门冬酰苯丙氨酸甲酯(FAPM)是合成APM的关键中间体之一。试验表明,影响FAPM收率的主要因素有:原料配比(r)、溶剂用量(pl)、催化剂用量(p2)及反应时间(t)等4个因素,现将各因素及其具体水平的取值列在下面。影响FAPM合成收率的因素和水平:因素各水平的代码1234567r原料配比0.800.870.941.011.081.151.22p1溶剂用量(ml)10152025303540p2TOC\o"1-5"\h\z催化剂用量(g)1.01.52.02.53.04.0t反应时间(h)1234567研究者按某种试验设计方法选定的因素各水平的组合及其试验结果如下,试用回归分析方法分析此资料(注:权重仅为相同试验条件下重复实验运行的次数)。编号p1p2tY(收率,%)权重10.80152.0671.5320.87253.5571.230.94351.5472.8341.01103.0369.7251.08201.0267.561.15302.5167.3371.22404.0771.83[SAS程序]dm'log;clear;output;clear;';OPTIONSPS=70;DATAex3;INPUTrp1p2tyw;rp1=r*p1;rt=r*t;p1t=p1*t;r2=r*r;t2=t*t;p12=p1*p1;p22=p2*p2;*这里产生的7个新变量代表因素之间的交互作用;CARDS;0.80152.0671.530.87253.5571.220.94351.5472.831.01103.0369.721.08201.0267.531.15302.5167.331.22404.0771.83■;RUN;PROCREG■;MODELy=rr2p1p12p2p22tt2rp1rtp1t/SELECTION=FORWARD;MODELy=rr2p1p12p2p22tt2rp1rtp1t/SELECTION=BACKWARD;MODELy=rr2p1p12p2p22tt2rp1rtp1t/SELECTION=STEPWISE;MODELy=rrp1rp1/r2p1p12p2p22tt2rp1rtp1t/SELECTION=MAXRSTART=1STOP=5;MODELy=rr2p1p12p2p22tt2rp1rtp1t/SELECTION=MINRSTART=1STOP=5;MODELy=tt2p12rSELECTION=RSQUAREBEST=30STOP=5;MODELy=tt2p12rrp1/SELECTION=ADJRSQBEST=30STOP=5;MODELy=tt2p12rrp1p12t2rp1p12t2/SELECTION=CPBEST=40STOP=5;RUN;*用选好的模型分析数据,并给出关于模型的各种统计量(计权重);PROCREG;WEIGHTw;MODELy=rSELECTION=NONEPCLIINFLUENCESTBCOLLINCOLLINOINT;RUN;DATAb;*先将原始数据放入数据集b■SETex3END=EOF;OUTPUT;.7;.7;再按照r,pl,t的合理范围形成y为缺失的数据也放入数据集b;IFEOFTHENDO;y=.;DOr=0.8TO1.22BYdop1=10to40BY5;DOt=1TO7;rp1=r*p1;rt=r*t;p1t=p1*t;r2=r*r;t2=t*t;p12=p1*p1;OUTPUT;END;END;END;END;RUN;按原始数据回归,却可得到r、p1、t的新组合所对应的估计值yA;PROCREGDATA=b■;WEIGHTw;MODELy=rrp1p12t2/PCLICLMCOLLINOINTSTBRVIF;OUTPUT

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论