新定义4以概率知识为背景的新定义解答题_第1页
新定义4以概率知识为背景的新定义解答题_第2页
新定义4以概率知识为背景的新定义解答题_第3页
新定义4以概率知识为背景的新定义解答题_第4页
新定义4以概率知识为背景的新定义解答题_第5页
已阅读5页,还剩6页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

新定义4以概率知识为背景的新定义解答题【题型解读】与概率、统计有关的新定义问题主要有两个类型:(1)以高等数学知识为背景的问题;(2)概率、统计方法的新定义问题.解概率与统计下的新定义问题,就是要细读定义关键词,理解本质特征,适时转化为“熟悉”问题.类型一概率、统计方法的新定义问题【例1】条件概率与条件期望是现代概率体系中的重要概念.近年来,随着人们对随机现象的不断观察和研究,条件概率和条件期望已经被广泛地运用到日常生产生活中.定义:设X,Y是离散型随机变量,则X在给定事件Y=y条件下的期望为E(X|Y=y)=∑i=1nxi·P(X=xi|Y=y)=∑i=1nxi·P(X=xi,Y=y)P(Y=y),其中{x1,x2,…,xn}为X的所有可能取值集合,P(X=x,Y=y)表示事件“X=x”与事件“(1)求P(ξ=2,η=5),P(η=5);(2)求E(ξ|η=5),E(ξ|η=n)(n≥2).【解析】(1)由题设,P(ξ=2,η=5)=(1-p)·p·(1-p)·(1-p)·p=(1-p)3p2,P(η=5)=C41(1-p)3p2=4(1-p)3p(2)由题设,E(ξ|η=5)=∑i=14[xi×P(ξ=xi,η=5)P(η=5)]同(1),P(η=n)=Cn-11(1-p)n-2p2=(n-1)(1-p)n-2p2,P(ξ,η=n)=(1-p)n所以E(ξ|η=n)=∑i=1n-1[xi×P(ξ,η=n)思维升华1.解决本题的关键:(1)应用独立事件的乘法公式求P(ξ=2,η=5),由ξ∈{1,2,3,4}有四种情况求P(η=5).(2)根据题目中给出的新公式及(1)中求P(ξ|η=5)的结论,进而求出P(η=n),P(ξ,η=n),即可求E(ξ|η=n).2.解决此类问题,可以类比我们学习过的条件概率和数学期望加以理解,要有目标意识,紧扣题目条件中所给的公式进行计算.对点训练设(X,Y)是二维离散型随机变量,它们的一切可能取值为(xi,yj),其中i=1,2,3,…,n,j=1,2,3,…,m,则称P(X=xi,Y=yj)=pij(pij≥0)为二维随机变量(X,Y)的联合分布列.定义:P(X=xi)=pi·=∑j=1mpij,称(p1·,p2·,…)为(X,Y)关于X的边际分布列,P(Y=yj)=p·j=∑i=1npij,称(p·1,p·2,…)为(X,Y)关于Y的边际分布列;对于固定的j,称p(i|j)=P(X=xi|Y=yj)=pijp·j(i=1,2,3,…,n)为给定Y=yj条件下的离散型随机变量X的条件分布列,(X,Y)y1y2…ymPi·x1p11p12…p1mp1·x2p21p22…p2mp2·………………xnpn1pn2…pnmpn·P·jp·1p·2…p·m1(1)求证:对于∀j,∑i=1np(i|(2)若(X,Y)的联合分布列与边际分布列如表:(X,Y)123Pi·10.30.10.10.520.050.10.150.330.050.10.050.2P·j0.40.30.31求给定X=2条件下Y的条件分布列;(3)把三个相同的小球等可能地放入编号为1,2,3的三个盒子中.记放入1号盒子的球的个数为X,放入2号盒子的球的个数为Y,则(X,Y)是一个二维离散型随机变量.列出(X,Y)的联合分布列与边际分布列.【解析】(1)∑i=1np(i|j)=p1jp·j+p(2)因为P(X=2)=p2·=0.3,所以用第二行Y=1,2,3的值分别除以0.3,可得给定X=2条件下Y的条件分布列:Y|(X=2)123P111(3)由题意可知X的可能取值为0,1,2,3,Y的可能取值为0,1,2,3,设x1=y1=0,x2=y2=1,x3=y3=2,x4=y4=3,由概率的乘法公式知,pij=P(X=xi,Y=yj)=P(X=xi|Y=yj)·p·j,2≤i+j≤5,p·j=C3j-1(13)j-1(23)4-j,1≤j≤4,P(X=xi|Y=yj)=C4-ji-1(1所以pij=C3j-1(13)j-1(23)4-jC当i+j>5时,显然pij=0,所以(X,Y)的联合分布列与边际分布列如表:(X,Y)0123Pi·011118112104211002310001P·j84211【点睛】本题以二维离散型随机变量为背景,给出相关定义,考查了条件概率、概率的乘法公式等,将新定义翻译成熟悉的知识是解答本题的关键,属于难题.类型二极大似然估计问题【例2】(2024·杭州模拟)在概率统计中,常常用频率估计概率.已知袋中有若干个红球和白球,有放回地随机摸球n次,红球出现m次.假设每次摸出红球的概率为p,根据频率估计概率的思想,则每次摸出红球的概率p的估计值为=mn.(1)若袋中这两种颜色球的个数之比为1∶3,不知道哪种颜色的球多.有放回地随机摸取3个球,设摸出的球为红球的次数为Y,则Y~B(3,p).(注Pp(Y=k)表示当每次摸出红球的概率为p时,摸出红球次数为k的概率)①完成表格:k0123P14(Y=271P34(Y=927②在统计理论中,把使得Pp(Y=k)的取值达到最大时的p,作为p的估计值,记为,请写出的值.(2)把(1)中“使得Pp(Y=k)的取值达到最大时的p作为p的估计值”的思想称为最大似然原理.基于最大似然原理的最大似然参数估计方法称为最大似然估计.具体步骤:先对参数θ构建对数似然函数l(θ),再对其关于参数θ求导,得到似然方程l'(θ)=0,最后求解参数θ的估计值.已知Y~B(n,p)的参数p的对数似然函数为l(p)=∑i=1nXilnp+∑i=1n(1-Xi)ln(1-p),其中Xi=0【解析】(1)因为Y~B(3,p),所以p的值为14或3①表格如下:k0123P14(Y=272791P34(Y=192727②由题意知,Pp(Y=k)=C3kpk(1-p)3-当Y=0或1时,参数p=14的概率最大;当Y=2或3时,参数p=34所以=14(2)对对数似然函数进行求导,l'(p)=1p∑i=1nXi-11-p∑i=1n(1-Xi),因此似然方程为1p∑i=1n因此,用最大似然估计的参数与用频率估计概率的是一致的,故用频率估计概率是合理的.思维升华1.本题的解题路径:(1)①根据二项分布的定义→求出相应的概率,完成表格;②已知条件→Pp(Y=k)=C3kpk(1-p)3-k→p→(2)l'(p)→与用频率估计概率作比较→作出判断.2.最大似然估计是一种基于概率理论的方法.用于估计一个概率模型的参数,使得观测到的数据在该模型下出现的概率最大.换句话说,它寻找的是使我们观察到的数据最有可能发生的参数值,解决此类问题一般要利用导数与函数的性质.【加练备选】(2024·长沙模拟)某制药公司研制了一款针对某种病毒的新疫苗.该病毒一般通过病鼠与白鼠之间的接触传染,现有n只白鼠,每只白鼠在接触病鼠后被感染的概率为12,被感染的白鼠数用随机变量X表示,假设每只白鼠是否被感染之间相互独立(1)若P(X=5)=P(X=95),求数学期望E(X);(2)接种疫苗后的白鼠被病鼠感染的概率为p,现有两个不同的研究团队理论研究发现概率p与参数θ(0<θ<1)的取值有关.团队A提出函数模型为p=ln(1+θ)-23θ2,团队B提出函数模型为p=12(1-e-θ).现将100只接种疫苗后的白鼠分成10组,每组10只,进行实验,随机变量Xi(i=1,2,…,10)表示第i组被感染的白鼠数,将随机变量Xi(i=1,2,…,10)的实验结果xi(i=1,2,…,10)绘制成频率分布图,①试写出事件“X1=x1,X2=x2,…,X10=x10”发生的概率表达式(用p表示,组合数不必计算);②在统计学中,若参数θ=θ0时使得概率p(X1=x1,X2=x2,…,X10=x10)最大,称θ0是θ的最大似然估计.根据这一原理和团队A,B提出的函数模型,判断哪个团队的函数模型可以求出θ的最大似然估计,并求出最大似然估计.参考数据:ln32≈0.4055【解析】(1)由题意知,随机变量X服从二项分布,即X~B(n,12由p(X=5)=p(X=95),Cn5(12)5(1-12)n-5=Cn=Cn95(12)95(1-得n=100,所以E(X)=np=50.(2)①记事件T=“X1=x1,X2=x2,…,X10=x10”,则P(T)=[C101p(1-p)9]3[C102p2(1-p)8]3·[所以P(T)=(C101)3(C102)3(C103)2(C104)②记g(p)=ln[(C101)3(C102)3(C103)2(C10则g'(p)=25p-751-当0<p<14时,g'(p)>0,g(p)单调递增当14<p<1时,g'(p)<0,g(p)单调递减故当p=14时,g(p)取得最大值在团队A提出的函数模型p=ln(1+θ)-23θ2(0<θ<1)中记函数f1(x)=ln(1+x)-23x2(0<x则f1'(x)=11+x-43x当0<x<12时,f1'(x)>0,f1(x)单调递増当12<x<1时,f1'(x)<0,f1(x)单调递减当x=12时,f1(x)取得最大值ln32-16<14,在团队B提出的函数模型p=12(1-e-θ)中,记函数f2(x)=12(1-e-x),可知f(x)令f2(x)=14,解得x=ln2,则团队B可以求出θ的最大似然估计,且θ0=ln2是θ的最大似然估计类型三信息熵问题【例3】(2024·锦州模拟)信息论之父香农在1948年发表的论文“通信的数学理论”中指出,任何信息都存在冗余,冗余大小与信息中每个符号(数字、字母或单词)的出现概率或者说不确定性有关,香农借鉴了热力学的概念,把信息中排除了冗余后的平均信息量称为“信息熵”,并给出了计算信息熵的数学表达式.设随机变量X所有取值为1,2,…,n,且P(X=i)=pi>0(i=1,2,…,n),p1+p2+…+pn=1,定义X的信息熵H(X)=-∑i=1npilog2(1)当n=1时,求H(X)的值;(2)当n=2时,若p1∈(0,12),探究H(X)与p1的关系,并说明理由(3)若p1=p2=12n-1,pk+1=2pk(k=2,3,…,n),求此时的信息熵H【解析】(1)若n=1,则p1=1,因此H(X)=-(1×log21)=0.(2)H(X)与p1正相关,理由如下:当n=2时,p1∈(0,12),则p1+p2=1,H(X)=-p1log2p1-(1-p1)log2(1-p1令t=p1,则f(t)=-tlog2t-(1-t)log2(1-t),其中t∈(0,12),所以1t>2,则f'(t)=-log2t+log2(1-t)=log2(1t所以函数f(t)在(0,12)上单调递增所以H(X)与p1正相关.(3)因为p1=p2=12n-1,pk+1=2pk(k=2,3,…,n),所以pk=p2·2k-2=2k-2故pklog2pk=12n-k+1log212n-k+1=-n-k+12n-于是H(X)=n-12n-1+∑i=2npklog2pk=n整理得H(X)=n-12n-1-n2n+n2令Sn=12+222+…+n-12n-1+n2n,则1两式相减得12Sn=12+122+…+12因此,Sn=2-n+22n,所以H(X)=n-12n-1-n2n+思维升华1.解决本题的关键:(1)利用新定义,直接求解;(2)判断函数的单调性,利用单调性求解;(3)将问题转化为数列问题,利用错位相减法求和.2.信息熵可以理解为某种特定信息出现的概率,解题的关键是紧扣定义,恰当地利用相关概率公式计算.对点训练在信息论中,熵是接收的每条消息中包含的信息的平均量,又被称为信息熵、信源熵.若把信息熵定义为概率分布的对数的相反数,设随机变量X的所有取值为1,2,3,…,n(n∈N*),P(X=i)=pi,定义信息熵:H(X)=Hn(p1,p2,…,pn)=-∑i=1npilog2pi,∑i=1n(1)若n=2,且p1=p2,求随机变量X的信息熵;(2)若p1=12n+12,p2=12n,pk+1=2pk,k=2,3,…,n(3)设X和Y是两个独立的随机变量,求证:H(XY)=H(X)+H(Y).【解析】(1)若n=2,则随机变量X的取值为1或2,又p1+p2=1,故p1=p2=12H(X)=-∑i=12pilog2pi=-(p1log2p1+p2log2p2)=-(12log212+所以随机变量X的信息熵为1.(2)由题意,当k≥2时,pk=2k-2p2=2k-2pklog2pk=12n-k+2log而p1log2p1=(12n+12)log2(1H(X)=-∑i=1npilog2pi=-(12n+12)log2(12n+12)-∑i=2npilog2pi=-(12n+令Sn=222+…+n-12n-1+n2n,则12Sn=223+…+n-12n+n2n+1,两式相减得12Sn=222所以Sn=32-n则H(X)=-(12n+12)log2(12n+1(3)由题意,H(X)=Hn(p1,p

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论