




已阅读5页,还剩10页未读, 继续免费阅读
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
I|JBETHELOSSINCURREDFORTAKINGACTIONIWHENTHESTATEOFNATUREISJACTIONIASSIGNTHESAMPLEINTOANYCLASSCONDITIONALRISKFORI1,ACJJIIXPXR1|SELECTTHEACTIONIFORWHICHRI|XISMINIMUMRISMINIMUMANDRINTHISCASEISCALLEDTHEBAYESRISKBESTREASONABLERESULTTHATCANBEACHIEVEDIJLOSSINCURREDFORDECIDINGIWHENTHETRUESTATEOFNATUREISJGIXRI|XMAXDISCRIMINANTCORRESPONDSTOMINRISKGIXPI|XMAXDISCRIMINATIONCORRESPONDSTOMAXPOSTERIORGIXPX|IPIGIXLNPX|ILNPI问题由估计似然概率变为估计正态分布的参数问题极大似然估计和贝叶斯估计结果接近相同,但方法概念不同PLEASEPRESENTTHEBASICIDEASOFTHEMAXIMUMLIKELIHOODESTIMATIONMETHODANDBAYESIANESTIMATIONMETHODWHENDOTHESETWOMETHODSHAVESIMILARRESULTS请描述最大似然估计方法和贝叶斯估计方法的基本概念。什么情况下两个方法有类似的结果IMAXIMUMLIKELIHOODVIEWTHEPARAMETERSASQUANTITIESWHOSEVALUESAREFIXEDBUTUNKNOWNTHEBESTESTIMATEOFTHEIRVALUEISDEFINEDTOBETHEONETHATMAXIMIZESTHEPROBABILITYOFOBTAININGTHESAMPLESACTUALLYOBSERVEDIIBAYESIANMETHODSVIEWTHEPARAMETERSASRANDOMVARIABLESHAVINGSOMEKNOWNPRIORDISTRIBUTIONOBSERVATIONOFTHESAMPLESCONVERTSTHISTOAPOSTERIORDENSITY,THEREBYREVISINGOUROPINIONABOUTTHETRUEVALUESOFTHEPARAMETERSIIIUNDERTHECONDITIONTHATTHENUMBEROFTHETRAININGSAMPLESAPPROACHESTOTHEINFINITY,THEESTIMATIONOFTHEMEANOBTAINEDUSINGBAYESIANESTIMATIONMETHODISALMOSTIDENTICALTOTHATOBTAINEDUSINGTHEMAXIMUMLIKELIHOODESTIMATIONMETHOD最小风险决策通常有一个更低的分类准确度相比于最小错误率贝叶斯决策。然而,最小风险决策能够避免可能的高风险和损失。贝叶斯参数估计方法。VECTORIZETHESAMPLESCALCULATIONOFTHEMEANOFALLTRAININGSAMPLESCALCULATIONOFTHECOVARIANCEMATRIXCALCULATIONOFEIGENVECTORSANDEIGENVALUEOFTHECOVARIANCEMATRIXBUILDTHEFEATURESPACEFEATUREEXTRACTIONOFALLSAMPLESCALCULATIONTHEFEATUREVALUEOFEVERYSAMPLECALCULATIONOFTHETESTSAMPLEFEATUREVALUECALCULATIONOFTHESAMPLESOFTRAININGSAMPLESLIKETHEABOVESTEPFINDTHENEARESTTRAININGSAMPLEASTHERESULTEXERCISES1HOWTOUSETHEPRIORANDLIKEHOODTOCALCULATETHEPOSTERIORWHATISTHEFORMULA怎么用先验概率和似然函数计算后验概率公式是什么PJ|XPX|JPJ/PX,1JP1|XJ2WHATSTHEDIFFERENCEINTHEIDEASOFTHEMINIMUMERRORBAYESIANDECISIONANDMINIMUMRISKBAYESIANDECISIONWHATSTHECONDITIONTHATMAKESTHEMINIMUMERRORBAYESIANDECISIONIDENTICALTOTHEMINIMUMRISKBAYESIANDECISION最小误差贝叶斯决策和最小风险贝叶斯决策的概念的差别是什么什么情况下最小误差贝叶斯决策和最小风险贝叶斯决策是一致的(相同的)答在两类问题中,若有,即所谓对称损失函数的情况,则这时最小1221风险的贝叶斯决策和最小误差的贝叶斯决策方法显然是一致的。THEMINIMUMERRORBAYESIANDECISIONTOMINIMIZETHECLASSIFICATIONERROROFTHEBAYESIANDECISIONTHEMINIMUMRISKBAYESIANDECISIONTOMINIMIZETHERISKOFTHEBAYESIANDECISIONIFR1|XR2|XACTION1“DECIDE1”ISTAKENR1|X11P1|X12P2|XR2|X21P1|X22P2|X3APERSONTAKESALABTESTOFNUCLEARRADIATIONANDTHERESULTISPOSITIVETHETESTRETURNSACORRECTPOSITIVERESULTIN99OFTHECASESINWHICHTHENUCLEARRADIATIONISACTUALLYPRESENT,ANDACORRECTNEGATIVERESULTIN95OFTHECASESINWHICHTHENUCLEARRADIATIONISNOTPRESENTFURTHERMORE,3OFTHEENTIREPOPULATIONARERADIOAETIVELYEONTAMINATEDISTHISPERSONEONTAMINATED一人在某实验室做了一次核辐射检测,结果是阳性的。当核辐射真正存在时,检测结2|JJJJXP果返回正确的阳性概率是99;当核辐射不存在时,结果返回正确的阴性的概率是95。而且,所有被测人群中有3的人确实被辐射污染了。那么这个人被辐射污染了吗答被辐射污染概率103P未被辐射污染概率297X表示阳性,表示阴性,则有如下结论,1|09P。2|5则112|093|0381597IIIXP21|062P根据贝叶斯决策规则有21|X所以这个人未被辐射污染。4PLEASEPRESENTTHEBASICIDEASOFTHEMAXIMUMLIKEHOODESTIMATIONMETHODANDBAYESIANESTIMATIONMETHODWHENDOTHESETWOMETHODSHAVESIMILARRESULTS请描述最大似然估计方法和贝叶斯估计方法的基本概念。什么情况下两个方法有类似的结果答I设有一个样本集,要求我们找出估计量,用来估计所属总体分布的某个真实参数使得带来的贝叶斯风险最小,这就是贝叶斯估计的概念。另一种说法把待估计的参数看成是符合某种先验概率分布的随机变量;对样本进行观测的过程,就是把先验概率密度转化为后验概率密度,这样就利用样本的信息修正了对参数的初始估计值II最大似然估计法的思想很简单在已经得到试验结果的情况下,我们应该寻找使这个结果出现的可能性最大的那个作为真的估计。III在训练样本数目接近无穷时,使用贝叶斯估计方法获得的平均值估计几乎和使用最大似然估计的方法获得的平均值一样题外话PRIORSAMPLESIMAXIMUMLIKELIHOODVIEWTHEPARAMETERSASQUANTITIESWHOSEVALESAREFIXEDBUTUNKNOWNTHEBESTESTIMATEOFTHEIRVALUEISDEFINEDTOBETHEONETHATMAXIMIZESTHEPROBABILITYOFOBTAININGTHESAMPLESACTUALLYOBSERVEDIIBAYESIANMETHODSVIEWTHEPARAMETERSASRANDOMVARIABLESHAVINGSOMEKNOWNPRIORDISTRIBUTIONOBSERVATIONOFTHESAMPLESCONVERTSTHISTOAPOSTERIORDENSITY,THEREBYREVISINGOUROPINIONABOUTTHETRUEVALUESOFTHEPARAMETERSIIIUNDERTHECONDITIONTHATTHENUMBEROFTHETRAININGSAMPLESAPPROACHESTOTHEINFINITY,THEESTIMATIONOFTHEMEANOBTAINEDUSINGBAYESIANESTIMATIONMETHODISALMOSTIDENTICALTOTHATOBTAINEDUSINGTHEMAXIMUMLIKEHOODESTIMATIONMETHOD5PLEASEPRESENTTHENATUREOFPRINCIPALCOMPONENTANALYSIS请描述主成分分析法的本质答主成分分析也称主分量分析,旨在利用降维的思想,把多指标转化为少数几个综合指标。CAPTURETHECOMPONENTTHATVARIESTHEMOST变化最大THECOMPONENTTHATVARIESTHEMOSTCONTAINSMAININFORMATIONOFTHESAMPLES(信息量最大)WEALSOSAYTHATPCAISTHEOPTIMALREPRESENTATIONMETHOD,WHICHALLOWSUSTOOBTAINTHEMINIMUMRECONSTRUCTIONERROR(最小重构误差)ASTHETRANSFORMAXESOFPCAAREORTHOGONAL,ITISALSOREFERREDTOASANORTHOGONALTRANSFORMMETHOD(正交变换)PCAISALSOADECORRELATIONMETHOD(不相关法)PCACANBEALSOUSEDASACOMPRESSIONMETHODANDISABLETOOBTAINAHIGHCOMPRESSIONRATIO(高压缩比)6DESCRIBETHEBASICIDEAANDPOSSIBLEADVANTAGEOFFISHERDISCRIMINANTANALYSIS描述FISHER判别分析的基本概念和可能的优势答FISHER准则是典型的模式识别方法,它强调将线性方法中的法向量与样本的乘积看做样本向量在单位法向量上的投影。所获得的结果与正态分布协方差矩阵等的贝叶斯决策结果类似,这说明如果两类分布围绕各自均值的确相近,FISHER准则可使错误率较小。SUPERVISEDMAXIMIZETHEBETWEENCLASSDISTANCEANDMINIMIZETHEWITHINCLASSDISTANCEEXPLOITTHETRAININGSAMPLETOPRODUCETRANSFORMAXESNUMBEROFEFFECTIVEFISHERTRANSFORMAXES,C1HOWTOAVOIDSINGULARWITHINCLASSSCATTERMATRIXPCAFDA7WHATISTHEKNEARESTNEIGHBORCLASSIFIERISITREASONABLE什么是K近邻分类器,它合理吗答近邻法的基本思想是在测试样本X的K个近邻中,按出现最多的样本类别来作为X的类别,即先对X的K个近邻一一找出它们的类别,然后最X类进行判别。在K近邻算法中,若样本相对较稀疏,只按照前K个近邻样本的顺序而不考虑其距离差别以决策测试样本X的类别是不适当的,尤其是当K取值较大时。KNEARESTNEIGHBORCLASSIFIERVIEWSATISFYTHEKNEARESTNEIGHBORRULE,THERULECLASSIFIESXBYASSIGNINGITTHELABELMOSTFEQUENTLYREPRESENTEDAMONGTHEKNEARESTSAMPLESINOTHERWORDS,ADECISIONISMADEBEXAMININGTHELABELSONTHEKNEARESTNEIGHBORSANDTAKINGAVOTE8ISITPOSSIBLETHATACLASSIFIERCANOBTAINAHIGHERACCURACYFORANYDATASETTHANANYOTHERCLASSIFIER一个分类器比其他分类器在任何数据集上都能获得更高的精度,可能吗答显然不可能的。这个理由很多。NO,9PLEASEDESCRIBETHEOVERFITTINGPROBLEM请描述过度拟合的问题答过拟合为了得到一致假设而使假设变得过度复杂称为过拟合。想像某种学习算法产生了一个过拟合的分类器,这个分类器能够百分之百的正确分类样本数据(即再拿样本中的文档来给它,它绝对不会分错),但也就为了能够对样本完全正确的分类,使得它的构造如此精细复杂,规则如此严格,以至于任何与样本数据稍有不同的文档它全都认为不属于这个类别过拟合问题就是分类器分的太细了,太具体,OVERFITTINGGENERALLYOCCURSWHENAMODELISEXCESSIVELYCOMPLEX,SUCHASHAVINGTOOMANYPARAMETERSRELATIVETOTHENUMBEROFOBSERVATIONSAMODELWHICHHASBEENOVERFITWILLGENERALLYHAVEPOORPREDICTIVEPERFORMANCE,ASITCANEXAGGERATEMINORFLUCTUATIONSINTHEDATA10USUALLYAMORECOMPLEXLEARNINGALGORITHMCANOBTAINAHIGHERACCURACYINTHETRAININGSTAGESO,SHOULDAMORECOMPLEXLEARNINGALGORITHMBEFAVORED通常一个更复杂的学习算法在训练阶段能获得更高的精度。那么我就该选择更复杂的学习算法吗答不NOCONTEXTINDEPENDENTORUSAGEINDEPENDENTREASONSTOFAVORONELEARNINGORCLASSIFICATIONMETHODOVERANOTHERTOOBTAINGOODGENERALIZATIONPERFORMANCEWHENCONFRONTINGANEWPATTERNRECOGNITIONPROBLEM,WENEEDFOCUSONTHEASPECTSPRIORINFORMATION,DATADISTRIBUTION,AMOUNTOFTRAININGDATAANDCOSTORREWARDFUNCTIONSUGLYDUCKLINGTHEOREMANANALOGOUSTHEOREM,ADDRESSESFEATURESANDPATTERNSSHOWSTHATINTHEABSENCEOFASSUMPTIONSWESHOULDNOTPREFERANYLEARNINGORCLASSIFICATIONALGORITHMOVERANOTHER11UNDERTHECONDITIONTHATTHENUMBEROFTHETRAININGSAMPLESAPPROACHESTOTHEINFINITY,THEESTIMATIONOFTHEMEANOBTAINEDUSINGBAYESIANESTIMATIONMETHODISALMOSTIDENTICALTOTHATOBTAINEDUSINGTHEMAXIMUMLIKEHOODESTIMATIONMETHODISTHISSTATEMENTCORRECT在训练样本数目接近无穷时,使用贝叶斯估计方法获得的平均值估计几乎和使用最大似然估计的方法获得的平均值一样。这种情况正确吗答理由同第4题,没找到。YES12CANTHEMINIMUMSQUAREDERRORPROCEDUREBEUSEDFORBINARYCLASSIFICATION最小平方误差方法能用于2维数据的分类吗答略YES,THEMINIMUMSQUAREDERRORPROCEDURECANBEUSEDFORBINARYCLASSIFICATION,BYAIDITINYYY,01ASIMPLEWAYTOSETIFISFROMTHEFIRSTCLASS,THENISSETTO1IFISFROMTHEBIYIBIYSECONDCLASS,THENISSETTO1IANOTHERSIMPLEWAYTOSETIFISFROMTHEFIRSTCLASS,THENISSETTOIFISFROMBIIB1NITHESECONDCLASS,THENISSETTOI2N13CANYOUDEVISEAMINIMUMSQUAREDERRORPROCEDURETOPERFORMMULTICLASSCLASSIFICATION你能设计出一个能多级别识别的最小平方误差方法吗14WHICHKINDOFAPPLICATIONSISTHEMARKOVMODELSUITABLEFORMARKOV模型适合哪类应用答MARKOVMODELHASFOUNDGREATESTUSEINSUCHPROBLEMS,FORINSTANCESPEECHRECOGNITIONORGESTURERECOGNITION(语音、手势识别)THEEVALUATIONPROBLEMTHEDECODINGPROBLEMTHELEARNINGPROBLEMNDNNDBAY210102211015FORMINIMUMSQUAREDERRORPROCEDUREBASEDONYABYISTHEMATRIXCONSISTINGOFALLTHETRAININGSAMPLES,IFWEHAVEPROPERBANDCRITERIONFUNCTION,THENTHISMINIMUMSQUAREDERRORPROCEDUREMIGHTBEEQUIVALENTTOFISHERDISCRIMINANTANALYSISISTHISPRESENTATIONCORRECT对于基于YAB的最小平方误差方法,如果我们有合适的B和判别函数,那么最小平方误差方法就会和FISHER判别方法等价。这么说对吗答中文书198页,英文书PDF的289页,章节582。豆丁上的课件16SUPPOSETHATTHENUMBEROFTHETRAININGSAMPLESAPPROACHESTOTHEINFINITY,THENTHEMINIMUMERRORBAYESIANDECISIONWILLPERFORMBETTERTHANANYOTHERCLASSIFIERACHIEVINGALOWERCLASSIFICATIONERRORRATEDOYOUAGREEONTHIS假设训练样本的数目接近无穷,那么最小误差贝叶斯决策会比其他分类器的分类误差率更小。你同意这种观点吗答待定17WHATARETHEUPPERANDLOWERBOUNDOFTHECLASSIFICATIONERRORRATEOFTHEKNEARESTNEIGHBORCLASSIFIERK近邻方法的分类误差上界与下界是什么答不同K值的K近邻法错误率不同,K1时为最近邻法的情况(上、下界分别为贝叶斯错误率P和)。当K增加时,上限逐渐靠近下限贝叶斯错误率P。当K21C趋于无穷时,上下限重合,PP,此时K近邻法已趋于贝叶斯决策方法达到最优。THEBAYESRATEISP,THELOWERBOUNDONPISPITSELFTHEUPPERBOUNDISABOUTTWICETHEBAYESRATES18CANYOUDEMONSTRATETHATASTATISTICSBASEDCLASSIFIERUSUALLYCANNOTLEADTOACLASSIFICATIONACCURACYOF100你能演示下基于统计的分类器不能导致100的准确度吗19WHATISREPRESENTATIONBASEDCLASSIFICATIONPLEASEPRESENTTHECHARACTERISTICSOFREPRESENTATIONBASEDCLASSIFICATION基于表征的分类是什么请给出基于表征分类的特点20ASIMPLEREPRESENTATIONBASEDCLASSIFICATIONMETHODISPRESENTEDASFOLLOWS一个简单的基于表征的分类方法如下THISMETHODSEEKSTOREPRESENTTHETESTSAMPLEASALINEARCOMBINATIONOFALLTRAININGSAMPLESANDUSESTHEREPRESENTATIONRESULTTOCLASSIFYTHETESTSAMPLE这个方法寻求使用训练样本线性组合方法来表达测试样本,而且使用表征结果来分类测试样本,1MXBY1WHEREDENOTEALLTHETRAININGSAMPLESANDARETHEIX2,IBM,21COEFFICIENTSWEREWRITEEQ1INTO,2BXYWHERE,IFISNOTSINGULAR,WECANSOLVEUSINGTMB11MXXBOTHERWISE,WECANSOLVEITUSINGYT,3XIBT1WHEREISAPOSITIVECONSTANTANDISTHEIDENTITYMATRIXAFTERWEOBTAIN,WEREFERTOASIBXTHEREPRESENTATIONRESULTOFOURMETHODWECANCONVERTTHEREPRESENTATIONRESULTINTOATWODIMENSIONALIMAGEHAVINGTHESAMESIZEOFTHEORIGINALSAMPLEIMAGEWEEXPLOITTHESUMOFTHECONTRIBUTION,TOREPRESENTINGTHETESTSAMPLE,OFTHETRAININGSAMPLESFROMACLASS,TOCLASSIFYTHETESTSAMPLEFOREXAMPLE,IFALLTHETRAININGSAMPLESFROMTHETHCLASSARE,THENTHESUMOFTHECONTRIBUTION,TOREPRESENTINGTHETESTRCTSXSAMPLE,OFTHETHCLASSWILLBER4TSRAXGWECALCULATETHEDEVIATIONOFFROMUSINGRGY5CYDRR,|2WECANALSOCONVERTINTOATWODIMENSIONALMATRIXHAVINGTHESAMESIZEOFTHEORIGINALSAMPLERGIMAGEIFWEDOSO,WEREFERTOTHEMATRIXASTHETWODIMENSIONALIMAGECORRESPONDINGTOTHECONTRIBUTIONOFTHETHCLASSTHESMALLERTHEDEVIATION,THEGREATERTHECONTRIBUTIONTORDREPRESENTINGTHETESTSAMPLEOFTHETHCLASSINOTHERWORDS,IF,THETESTRRQMINC,SAMPLEWILLBECLASSIFIEDINTOTHETHCLASSQFROMTHEABOVEPRESENTATION,WEKNOWTHATREPRESENTATIONBASEDCLASSIFICATIONMETHODISANOVELMETHODANDTOTALLYDIFFERENTFROMPREVIOUSCLASSIFIERSITPERFORMSVERYWELLINIMAGEBASEDCLASSIFICATION,SUCHASFACERECOGNITIONANDPALMPRINTRECOGNITIONWESHOULDUNDERSTANDITSNATUREANDADVANTAGES21PLEASEDESCRIBETHEDIFFERENCEBETWEENLINEARANDNONLINEARDISCRIMINANTFUNCTIONSWHATPOTENTIALADVANTAGEDOESNONLINEARDISCRIMINANTFUNCTIONHAVEINCOMPARISONWITHLINEARDISCRIMINANTFUNCTION请描述线性非线性判别函数的差别非线性判别函数和线性判别函数比较有什么潜在的优势答I简单的说线性判别函数就是其函数图形是直线、平面,非线性判别函数则相反,函数图形是曲线、曲面,不是直线、平面。II在实
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 新能源汽车名义股东合伙人股权融资协议
- 跨国公司海外职员背景调查与聘用合同
- 艺人音乐专辑发行经纪合同
- 登记离婚共同财产分割及债务承担补充协议
- 大学生社会实践研学旅行项目合作协议
- 智能停车设备生产与区域市场拓展合作加盟协议
- 建筑工程项目油漆工派遣服务及施工变更通知协议
- 医学影像护士进修汇报
- 酒店客房卫生间清洁流程
- 田径规则培训纲要
- 发货管理规范
- DL-T5554-2019电力系统无功补偿及调压设计技术导则
- 女生穿搭技巧智慧树知到期末考试答案章节答案2024年南昌大学
- 大熊猫的介绍
- 正常肝脏CT解剖
- 英语国家商务国情 知到智慧树网课答案
- 2024年广西来宾高投发展集团有限公司招聘笔试冲刺题(带答案解析)
- 卫生部妇产科诊疗规范及指南
- 正畸病例汇报模板
- 科学小实验手摇发电机原理
- 中华民族共同体概论课件专家版10第十讲 中外会通与中华民族巩固壮大(明朝时期)
评论
0/150
提交评论