不确定性处理_第1页
不确定性处理_第2页
不确定性处理_第3页
不确定性处理_第4页
不确定性处理_第5页
已阅读5页,还剩143页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、 不确定性处理2022/8/141第七章 不确定性处理不确定性及其类型不确定性知识表示不确定性推理的一般模式确定性理论证据理论主观Bayes方法模糊推理2022/8/142不确定性及其类型不确定性知识和信息中含有的不肯定、不准确、不完全甚至不一致的成分。按性质分类随机性模糊性不完全性不一致性2022/8/1431.随机性不确定性随机性就是一个命题(亦即所表示的事件)的真实性不能完全肯定,而只能对其为真的可能性给出某种估计。例如: 如果乌云密布并且电闪雷鸣,则很可能要下暴雨。 如果头痛发烧,则大概是患了感冒。 就是两个含有随机不确定性的命题。当然,它们描述的是人们的经验性知识。 2022/8/1

2、442.模糊性不确定性模糊性就是一个命题中所出现的某些言词,从概念上讲,无明确的内涵和外延,即是模糊不清的。例如: 小王是个高个子。 张三和李四是好朋友。 如果向左转,则身体就向左稍倾。 这几个命题中就含有模糊不确定性,因为其中的“高”、“好朋友”、“稍倾”等都是模糊概念。2022/8/1453.不完全性不完全性就是对某事物来说,关于它的信息或知识还不全面、不完整、不充分。例如,在破案的过程中,警方所掌握的关于罪犯的有关信息,往往就是不完全的。但就是在这种情况下,办案人员仍能通过分析、推理等手段而最终破案。2022/8/1464.不一致性不一致性就是在推理过程中发生了前后不相容的结论;或者随着

3、时间的推移或者范围的扩大,原来一些成立的命题变得不成立、不适合了。例如,牛顿定律对于宏观世界是正确的,但对于微观世界和宇观世界却是不适合的。2022/8/147第七章 不确定性处理不确定性及其类型不确定性知识表示不确定性推理的一般模式确定性理论证据理论主观Bayes方法模糊推理2022/8/148不确定性知识的表示随机知识的表示模糊性知识的表示模糊集合与模糊逻辑多值逻辑非单调逻辑时序逻辑2022/8/149随机性知识的表示(一)随机不确定性一般采用信度来刻划。一个命题的信度指该命题为真的可信程度。随机性产生式表示的一般形式 (71) 其中 表示规则为真的信度。 (72) 其中 表示规则的结论B

4、在前提A为真的情况下为真的信度。2022/8/1410随机性知识的表示(二)信度的表示以概率作为信度 如果乌云密布并且电闪雷鸣,则天要下暴雨;(0.95)。 如果头疼发烧,则患了感冒;(0.8)。 如果乌云密布并且电闪雷鸣,则天要下暴雨 (0.95) 。 如果头疼发烧,则患了感冒 (0.8)。2022/8/1411随机性知识的表示(三)CF模型是知识表示的基本模型,其他的方法都在此基础上发展而来的。知识不确定性的表示 在C-F模型中,知识是用产生式规则表示的,其一般形式是: if E then H (CF(H, E) CF(H,E):是该条知识的可信度,称为可信度因子或规则强度,它指出当前提条

5、件 E 所对应的证据为真时,它对结论为真的支持程度。2022/8/1412随机性知识的表示(四)在CF模型中,CF的定义为 CF(H,E)=MB(H,E) MD(H,E) MB:称为信任增长度,它表示因与前提条件 E 匹 配的证据的出现,使结论H为真的信任增长度。 MB定义为: 2022/8/1413随机性知识的表示(五)MD:称为不信任增长度,它表示因与前提条件E匹配的证据的出现,使结论H为真的不信任增长度。 MD定义为: P(H) 表示H的先验概率; P(H/E) 表示在前提条件E对应的证据出现的情况下,结论H的条件概率。2022/8/1414随机性知识的表示(六)CF(H,E)的计算公式

6、 2022/8/1415随机性知识的表示(七)CF公式的意义当MB(H,E)0时, MD(H,E)0 表示由于证据E的出现增加了对H的信任程度。 当MD(H,E)0时, MB(H,E)0 表示由于证据E的出现增加对H的不信任程度。对于同一个E,不可能既增加对H的信任程度又增加对H的不信任程度。 即:不可能有: MB(H,E)0 和MD(H,E)0 同时成立。2022/8/1416随机性知识的表示(八)当已知P(H), P(H/E),运用上述公式求CF(H/E)。但是,在实际应用中, P(H)和P(H/E) 的值难以获得。因此,CF(H,E) 的值要求领域专家直接给出。其原则是:若由于相应证据的

7、出现增加结论 H 为真的可信度,则使CF(H,E)0,证据的出现越是支持 H 为真,就使CF(H,E)的值越大;反之,使CF(H,E)0,证据的出现越是支持 H 为假,就使CF(H,E)的值越小;若证据的出现与否与 H 无关,则使 CF(H,E)=0。 2022/8/1417不确定性知识的表示随机知识的表示模糊性知识的表示模糊集合与模糊逻辑多值逻辑非单调逻辑时序逻辑2022/8/1418模糊性知识的表示(一)模糊不确定性,一般用程度或集合来刻划。程度就是一个命题中所描述的事物的属性、状态和关系等的强度。针对对象的程度表示一般形式 (,(,)2022/8/1419模糊性知识的表示(二)模糊规则

8、例: (患者,症状,(头疼,0.95) (患者,头疼,(发烧,1.1) (患者,疾病,(感冒,1.2) 解释为:如果患者有些头疼并且发高烧,则他患了重感冒。模糊谓词 例: (1)1.0白(雪)或白1.0(雪)。 表示:雪是白的。 (2)朋友1.15(张三,李四)或1.15朋友(张三,李四) 表示:张三和李四是好朋友。 (3) x (计算机系学生(x) 努力1.2(x) 表示:计算机系的同学学习都恨努力。2022/8/1420模糊性知识的表示(三)模糊框架 框架名: 属:(,0.8) 形:(圆,0.7) 色:(红,1.0) 味:(甘,1.1) 用途:食用 药用:用量:约五枚 用法:水煎服 注意:

9、室温下半天内服完2022/8/1421模糊性知识的表示(四)模糊语义网 理解人意(can,0.3)狗食肉动物(AKO,0.7)(灵敏,1.5)嗅觉2022/8/1422不确定性知识的表示随机知识的表示模糊性知识的表示模糊集合与模糊逻辑多值逻辑非单调逻辑时序逻辑2022/8/1423模糊集合与模糊逻辑(一)模糊集合(针对模糊概念的表示) 定义:设U是论域,A是把任意uU映射为0,1上某个值的函数,即 A : U0,1; u A(u) 则称A为定义在U上的一个隶属函数,由A(u) (uU)所构成的集合A称为U上的一个模糊集, A(u)称为对A的隶属度。2022/8/1424模糊集合与模糊逻辑(二)

10、论域上的模糊集合A,一般可以记为 A= A(u1)/u1, A(u2)/u2, A(u3)/u3 或 A= A(u1)/u1+ A(u2)/u2+ A(u3)/u3 + 一般形式为有限论域,可以表示为: A= A(u1), A(u2), A(u3) , , A(un) 2022/8/1425模糊集合与模糊逻辑(三)例 设有论域 U=1,2,3,4,5 分别用模糊集把模糊概念“大”与“小”表示出来。 解:可把“大”和“小”的模糊集写出来。 大数的集合 A=0/1,0/2,0.1/3,0.6/4,1/5 小数的集合 B=1/1,0.5/2,0.01/3,0/4,0/52022/8/1426模糊集合

11、与模糊逻辑(四)例 设有论域 U=1, 200,表示人的年龄区间,则模糊概念“年轻”和“年老”可分别定义如下: 2022/8/1427模糊集合与模糊逻辑(四)例 设有论域 U=1, 200,表示人的年龄区间,则模糊概念“年轻”和“年老”可分别定义如下:2022/8/1428模糊集合与模糊逻辑(四)普通集合的关系 设U与V是两个集合,则称 UV=(u,)| uU, V 为U与V的笛卡尔乘积。 所谓从U到V的关系R,是指UV上的一个子集,即 RUV。2022/8/1429模糊集合与模糊逻辑(五)模糊集的笛卡儿乘积 定义 设Ai是Ui(i=1,2,n)上的模糊集,则称 为A1,A2,An的笛卡尔乘积

12、,它是 U1 U2 Un上的一个模糊集。A1 A2 An = (A1(u1)A2(u2)An(un)/(u1,u2,un) U1U2 Un 2022/8/1430模糊集合与模糊逻辑(六)模糊关系 定义 在 U1U2Un上的一个n元模糊关系R是指以 U1U2Un为论域的一个模糊集,记为Ai(ui)(i=1,2,n)是模糊集Ai的隶属函数; R(ui,u2,un)是模糊关系R的隶属函数,它把 U1U2Un上的每一 个元素(u1,u2,un)映射为0,1上的一个实数,该实数反映出u1,u2,un 具有关系R的程度。R = R(ui,u2,un) /(u1,u2,un)U1U2 Un 2022/8/1

13、431模糊集合与模糊逻辑(七)例:设有一组学生U: U=张三,李四,王五 他们对球类运动V:V=篮球,足球,排球,乒乓球 有不同的爱好,把他们对各种球类运动的爱好程度列成一张表,就构成了UV上的一个模糊关系R:R(u,)篮球足球排球乒乓球张三0.70.50.40.1李四00.60.50.5王五0.50.30.802022/8/1432模糊集合与模糊逻辑(八)模糊关系的矩阵表示 若U、V为有限论域,则模糊关系可用一个矩阵表示。 U=u1,u2,um V=1,2,n 则U和V的模糊关系为R(u1,1) R(u1,2) R(u1,n)R(u2,1) R(u2,2) R(u2,n) R(um,1) R

14、(um,2) R(um,n)R = 2022/8/1433模糊集合与模糊逻辑(九)上例的模糊矩阵是0.7 0.5 0.4 0.10 0.6 0 0.50.5 0.3 0.8 0 R = 2022/8/1434模糊集合与模糊逻辑(十)模糊集合的运算定义 设A,BF(u),分别称AB, AB为A与B的并集,交集, 称A为A的补集或余集,他们的隶属函数分别为:AB: AB(u) = max A(u), B(u)uUAB: AB(u) = mim A(u), B(u)uU A: A(u) = 1- A(u)2022/8/1435模糊集合与模糊逻辑(十一)例 设U=u1,u2,u3 A=0.3/u1+0

15、.8/u2+0.6/u3 B=0.6/u1+0.4/u2+0.7/u3则 AB =(0.30.6)/u1+(0.80.4)/u2+(0.60.7)/u3 =0.3/u1+0.4/u2+0.6/u3 AB =(0.30.6)/u1+(0.80.4)/u2+(0.60.7)/u3 =0.6/u1+0.8/u2+0.7/u3 A =(1-0.3)/u1+(1-0.8)/u2+(1-0.6)/u3 =0.7/u1+0.2/u2+0.4/u32022/8/1436模糊集合与模糊逻辑(十二)模糊逻辑 模糊逻辑是研究模糊命题的逻辑。 n元谓词 P(x1, x2 , xn ) 表示一个模糊命题。那么这个模糊命

16、题的真值为其中对象x1, x2 , xn 对模糊集合P的隶属度。即把模糊命题的真值定义为一个区间0,1中的一个实数。例:F(x,y):x、y是好朋友,则有模糊命题2022/8/1437模糊集合与模糊逻辑(十三)模糊逻辑运算 由这三种模糊逻辑运算所建立的逻辑系统就是所谓的模糊逻辑。2022/8/1438不确定性知识的表示随机知识的表示模糊性知识的表示模糊集合与模糊逻辑多值逻辑非单调逻辑时序逻辑2022/8/1439多值逻辑包括三值逻辑、四值逻辑、多值逻辑乃至无穷值逻辑。Kleene三值逻辑 真值:真、假、不能判定。TFUTTFUFFFFUUFUTFUTTTTFTFUUTUUP PTFFTUU20

17、22/8/1440不确定性知识的表示随机知识的表示模糊性知识的表示模糊集合与模糊逻辑多值逻辑非单调逻辑时序逻辑2022/8/1441非单调逻辑(一)单调逻辑指一个逻辑系统中的定理随着推理的进行而总是递增的。非单调逻辑就是逻辑系统中的定理随着推理的进行而并非总是递增的。非单调逻辑中,若由某假设出发进行的推理中一旦出现不一致,那么允许撤销原来的假设及由它推出的全部结论。这种推理方式称为非单调逻辑推理。2022/8/1442非单调逻辑(二)非单调逻辑的适用场合问题求解前,因信息缺乏先作临时假设,求解过程中根据实际情况对假设修正。非完全知识库。动态变化的知识库。2022/8/1443不确定性知识的表示

18、随机知识的表示模糊性知识的表示模糊集合与模糊逻辑多值逻辑非单调逻辑时序逻辑2022/8/1444时序逻辑也称时态逻辑,将时间词或时间参数引入到逻辑表达式,使其在不同的时间又不同的真值。这样可以描述和解决时变性问题。2022/8/1445第七章 不确定性处理不确定性及其类型不确定性知识表示不确定性推理的一般模式确定性理论证据理论主观Bayes方法模糊推理2022/8/1446不确定性推理的一般模式(一)不确定性推理 从不确定性的出示证据出发,通过运用不确定性的指示,最终推出具有一定程度不确定性但却合理或近乎合理的结论的思维过程。不确定性推理的一般模式 不确定性推理=符号模式匹配+不确定性计算。2

19、022/8/1447不确定性推理的一般模式(二)不确定性推理与确定性推理的区别不确定性的表示与度量不确定性匹配算法及阈值的选择组合证据不确定性的算法不确定性的传递算法结论不确定性的合成2022/8/1448不确定性推理的一般模式(三)不确定性的表示与度量表示知识(规则)的不确定性推理的程度静态强度表示证据的不确定性推理的程度动态强度2022/8/1449不确定性推理的一般模式(四)不确定性匹配算法及阈值的选择问题 不确定性推理,知识和证据都具有不确定性,而且知识的不确定性与证据实际具有的不确定性程度不同,怎样才算匹配成功?解决方法 设计一个算法来匹配双方相似的程度,另外在指定一个相似的限度(阈

20、值),用来衡量匹配双方的相似程度是否落在指定的限度内。2022/8/1450不确定性推理的一般模式(五)组合证据不确定性的算法问题 知识前提条件可以使用AND或OR把多个简单条件连接起来构成复合条件,成为组合证据,推理中如何计算组合证据的不确定性?计算方法常用的有三种方法:最大最小法,概率方法,有界方法。2022/8/1451不确定性推理的一般模式(六)不确定性的传递算法问题 (1)每一步推理中,如何把证据及知识的不确定性传递给结论。 (2)在多步推理中,如何把初始证据的不确定性传递给最终结论。解决方法 对(1)不同的推理方法中处理方法不同。 对(2)从开始推理时将初始知识通过推理传递。202

21、2/8/1452不确定性推理的一般模式(七)结论不确定性的合成问题 用不同的知识进行推理得到了相同的结论,但不确定性程度不同。怎样确定结论的不确定性程度。处理方法 通过一定的算法将得到的结论的两个不确定程度进行合成,作为结论的不确定性程度。2022/8/1453不确定性推理的一般模式(八)不确定性推理方法的分类控制方法模型方法非数值方法数值方法模糊推理基于概率纯概率可信度方法证据理论主观Bayes2022/8/1454第七章 不确定性处理不确定性及其类型不确定性知识表示不确定性推理的一般模式确定性理论证据理论主观Bayes方法模糊推理2022/8/1455确定性理论(一)不确定性度量知识的不确

22、定性表示if E then H (CF(H, E) 证据的不确定性表示初始证据CF(E)由用户给出先前推出的结论作为推理的证据,其可信度由推出该结论时通过不确定性传递算法而来。2022/8/1456确定性理论(二)组合证据不确定性算法(最大最小法)E=E1 E2 EnCF(E)=minCF(E1) ,CF(E2) , CF(En)E=E1 E2 EnCF(E)=maxCF(E1) ,CF(E2) , CF(En)2022/8/1457确定性理论(三)推理结论的CF值计算 C-F 模型中的不确定性推理是从不确定的初始证据出发,通过运用相关的不确定性知识,最终推出结论并求出结论的可信度值。 结论

23、H 的可信度由下式计算: CF(H) = CF(H,E) max 0, CF(E) 当CF(E)0时,CF(H)=0,说明该模型中没有考虑证据为假时对结论H所产生的影响。2022/8/1458确定性理论(四)结论不确定的合成算法 if E1 then H (CF(H, E1) if E2 then H (CF(H, E2) (1)计算CF1(H) CF2(H); (2)计算CF (H):CF1(H) + CF2(H) CF1(H) CF2(H) 若 CF1(H) 0, CF2(H) 0CF1(H) + CF2(H) + CF1(H) CF2(H) 若 CF1(H) 0, CF2(H) 0 CF

24、1(H) + CF2(H) 1 min | CF1(H) | , | CF2(H) | 若 CF1(H) 与 CF2(H) 异号CF1,2(H) = 2022/8/1459确定性理论(五) 例:有下列一组知识: r1: if E1 then H ( 0.8 ) r2: if E2 then H ( 0.6 ) r3: if E3 then H ( - 0.5 ) r4: if E4 and ( E5 or E6 ) then E1 ( 0.7 ) r5: if E7 and E8 then E3 ( 0.8 ) 已知: CH ( E2 ) = 0.8, CH ( E4 ) = 0.5,CH (

25、 E5 ) = 0.6, CH ( E6 ) = 0.7, CH ( E7 ) = 0.6, CH ( E8 ) = 0.9, 求: CF ( H ) = ? 2022/8/1460确定性理论(六)解:推理网络为HE3E7E8E1E4E5E6E22022/8/1461确定性理论(七)结论不确定性传递算法 由 r4 得到: CF( E1 ) = 0.7 max 0, CF E4 and (E5 or E6 ) = 0.7 max 0, min CF(E4) ,CF (E5 or E6 ) = 0.7 max 0, min CF(E4) , max CF ( E5 ) , CF( E6 ) = 0

26、.7 max 0, min 0.5 , max 0.6 , 0.7 = 0.7 0.5 = 0.35 由 r5 得到: CF( E3 ) = 0.9 max 0, CF ( E7 and E8 ) = 0.9 0.6 = 0.54 2022/8/1462确定性理论(八)由 r1 得到: CF1( H ) = 0.8 max 0, CF ( E1 ) = 0.8 0.35 = 0.28由 r2 得到: CF2( H ) = 0.6 max 0, CF ( E2 ) = 0.6 0.8 = 0.48 由 r3 得到: CF3( H ) = - 0.5 max 0, CF ( E3 ) = - 0.

27、5 0.54 = - 0.272022/8/1463确定性理论(八)结论不确定性的合成算法 CF1,2( H ) = CF1 ( H ) + CF2 ( H ) CF1 ( H ) CF2 ( H ) = 0.28 + 0.48 0.28 0.48 = 0.63 CF1,2,3 ( H ) = = 0.49 即:CF( H ) = 0.49 CF1,2 ( H ) + CF3( H )1 min | CF1,2 ( H ) | , | CF3( H ) |2022/8/1464确定性理论(九)可信度方法的进一步发展(1) 带有阈值限度的不确定性推理 知识表示为: if E then H (CF

28、(H, E), ) 其中 是阈值,它对相应知识的可应用性规定了一个度: 0 0, m2(C)0,若用组合规则导出:2022/8/1480基本概念(十三)Despster组合规则修正如下:2022/8/1481基本概念(十三)例: 设 D=黑,白,且设 M1(黑,白,黑,白, )=(0.3, 0.5, 0.2, 0) M2(黑,白,黑,白, )=(0.6, 0.3, 0.1, 0) 由定义5.4得:=1- M1(黑) M2(白)+ M1(白) M2(黑)=1-0.3 0.3 + 0.5 0.6=0.61K1=1- M1(x) M2(y)xy= 2022/8/1482基本概念(十四)M(黑) =

29、M1(x) M2(y)xy=黑 K=(1/0.61) M1(黑) M2(黑)+ M1(黑) M2(黑,白) + M1(黑,白) M2(黑)=(1/0.61)0.30.6+0.30.1+0.20.6=0.54 同理可得 M(白)=0.43, M(黑,白)=0.03 组合后的概率分配函数为: M1(黑,白,黑,白, )=(0.54,0.43,0.03,0)2022/8/1483证据理论基本概念基于证据理论的不确定性推理2022/8/1484基于证据理论的不确定性推理(一)基于证据理论的不确定性推理步骤建立问题的识别框架 ;给幂集2定义基本概率分配函数;计算所关心的子集的信任函数、似真函数值;由Be

30、l(A)和Pl(A)得结论。2022/8/1485基于证据理论的不确定性推理(二)知识证据表示形式 if E then H=h1,h2,hn CF=C1,C2,Cn组合证据传递算法结论不确定性合成 2022/8/1486基于证据理论的不确定性推理(三)例:有规则(1)如果 流鼻涕 则 感冒但非过敏性鼻炎(0.9) 或 过敏性鼻炎但非感冒(0.1)(2)如果 眼发炎 则 感冒但非过敏性鼻炎(0.8) 或 过敏性鼻炎但非感冒(0.05)又有事实 (1)小王流鼻涕(0.9) (2)小王眼发炎(0.4)问小王患了什么病?2022/8/1487基于证据理论的不确定性推理(四)建立识别框架 h1,h2,h

31、3其中h1表示“感冒但非过敏性鼻炎” h2表示“过敏性鼻炎但非感冒” h3表示“同时得了两种病” 2022/8/1488基于证据理论的不确定性推理(五)取基本分配概率分配函数:m1(h1)规则前提事实可信度规则结论可信度 0.90.9=0.81m1(h2)= 0.90.1=0.09m1(h1 ,h2 ,h3)=0.1m1(A)=0 (A为的其它子集)m2(h1) 0.40.8=0.32m2(h2)= 0.40.05=0.02m2(h1 ,h2 ,h3)=0.66m2(A)=0 (A为的其它子集)2022/8/1489基于证据理论的不确定性推理(六)将两个概率分配函数合并:K=1/1-m1(h1

32、) m2(h2)+ m1(h2) m2(h1)1.05m (h1)Km1(h1) m2(h1) +m1(h1) m1(h1 ,h2 , h3)+ m2(h1) m1(h1 , h2 , h3) =1.050.8258 =0.87m (h2)Km1(h2) m2(h2) +m1(h2) m1(h1 ,h2 , h3)+ m2(h2) m1(h1 , h2 , h3) =1.050.0632 =0.066m1(h1 , h2 , h3)1 m (h1) m (h2)0.0642022/8/1490基于证据理论的不确定性推理(七)由信任函数求信任度Bel(h1) m(h1)=0.87Bel(h2)

33、m(h2)=0.066由似真函数求似真度Pl(h1) 1Bel(h1)=1 Bel(h2 , h3) =1 m(h2) m(h3) 10.066=0.934Pl(h2) 1Bel(h2)=1 Bel(h1 , h3) =1 m(h1) m(h3) 10.87=0.12022/8/1491基于证据理论的不确定性推理(八)最后得结论为: “感冒但非过敏性鼻炎”为真得信任度为0.87,非假的信任度为0.934。 “过敏性鼻炎但非感冒”为真得信任度为0.066,非假的信任度为0.13。 2022/8/1492第七章 不确定性处理不确定性及其类型不确定性知识表示不确定性推理的一般模式确定性理论证据理论主

34、观Bayes方法模糊推理2022/8/1493主观Bayes方法简介 利用新的信息将先验概率P(H)更新为后验概率P(H|E)的一种计算方法. 基本Bayes 公式( Bayes 定理): P(H|E) = P(E | H) P(H) / P(E) 其核心思想是: .根据证据的概率P(E); .利用规则的(LS,LN); LS:E 的出现对 H 的支持程度, LN:E 的出现对 H 的不支持程度。 .把结论 H 的先验概率更新为后验概率 P(H|E); .循环2022/8/1494主观Bayes方法知识不确定性表示证据不确定性表示组合证据不确定性不确定性的传递算法结论不确定性的合成2022/8

35、/1495知识不确定性表示(一) 知识是用产生式规则表示的,具体形式为: if E then (LS, LN)H ( P(H) ) 其中: E 是该条知识的前提条件,它既可以是一个简单条件,也可以是用 and、or 把单个条件连接起来的复合条件。 H 是结论,P(H) 是 H 的先验概率,它指出在没有任何专门证据的情况下,结论为真的概率,其值由领域专家根据以往的实践及经验给出。2022/8/1496知识不确定性表示(二) LS 称为充分性量度,用于指出 E 对H的支持程度,取值范围为 0,),其定义为: LS = 几率函数:O(H|E)=(1-P(H|E)/P(H|E),则 O(H|E)=O(

36、H)*LS LS 的值由领域专家给出,具体情况在下面论述。 LN 称为必要性量度,用于指出 E 对H的支持程度,取值范围为 0, ),其定义为: LN = =类似地, O(H|E) O(H)*LN LN 的值也由领域专家给出,具体情况在下面论述。 LS, LN 相当于知识的静态强度。P(E | H)P(E | H)P( E | H)P( E | zH)1 P(E | H)1 P(E | H)2022/8/1497主观Bayes方法知识不确定性表示证据不确定性表示组合证据不确定性不确定性的传递算法结论不确定性的合成2022/8/1498证据不确定性表示(一) 证据的不确定性也是用概率表示的。 对

37、于初始证据E,由用户根据观察S给出P(E|S),它相当于动态强度。 具体应用中采用变通的方法在 PROSPECTOR 中引进了可信度的概念,让用户在 5 至 5 之间的 11 个整数中选一个数作为初始证据的可信度。 可信度 C(E|S) 与 概率 P(E|S) 的对应关系如下: C(E|S)= 5 ,表示在观察 S 下证据 E 肯定不存在,即 P(E|S)=0; C(E|S)= 0 ,表示 S 与 E 无关,即 P(E|S) =P(E) ; C(E|S)= 5 , 表示在观察 S 下证据 E 肯定存在,即 P(E|S)=1;2022/8/1499证据不确定性表示(二)C(E | S) = 其它

38、数值时与 P(E | S) 的对应关系,可通过对上述三点进行分段线性插值得到,如下图。P(E/S)1P(E)C(E | S)-5 -4 -3 -2 -1 0 1 2 3 4 5由上图可得到 C(E|S) 与 P(E|S) 的关系式:P(E | S) =若 0 C(E | S) 5若 5 C(E | S) 1 时,P(H|E) P(H),这表明由于证据 E 的存在,将增大 结论 H 为真的概率,且 LS 越大,P(H|E) 就越大,即 E 对 H 为真的支持越强。当 LS ,P(H|E) 1, E 的存在对 H 为真是充分的,故称 LS 为充分性量度。 当 LS = 1 时,P(H|E) = P

39、(H) ,这表明 E 与 H 无关。 当 LS 1 时, P(H|E) 1 时,由上式得:P(H|E) P(H) 这表明由于证据 E 的不存在,将增大 结论 H 为真 的概率,且 LN 越大,P(H|E) 就越大,即 E 对 H 为真的支持越强。当 LN ,P(H|E) 1 。 当 LN = 1 时,P(H|E) = P(H) ,这表明 E 与 H 无关。 当 LN 1 时, P(H|E) P(H),表明由于证据 E 的不存在,将导 致 H 为真的可能性下降。 当 LN = 0 时,P(H|E) = 0 ,这表明证据 E 的不存在,导致 H 为 假。 由此也可看出 E 对 H 为真的必要性,故

40、称 LN 为必要性量度。 P(H|E) =LN P(H)(LN 1) P(H) + 12022/8/14110不确定性的传递算法(八)(3) 证据不确定的情况 在现实中,证据肯定存在或肯定不存在的极端情况是不多的, 更多的是介于两者之间的不确定情况。 现在要在 0 P(E|S) 1 的情况下确定 H 的后验概率 P(H|S) 。 在证据不确定的情况下,不能再用上面的公式计算后验概率,而需使用 R.O.Doda 等人1976年证明的如下公式: P(H|S) = P(H|E) P(E|S) + P(H|E) P(E|S) 2022/8/14111不确定性的传递算法(九)下面分四种情况讨论: 1)

41、P(E|S) = 1 当 P(E|S) = 1 时, P(E|S) = 0,此时公式 变为: P(H|S) = P(H|E) = 这是证据肯定存在的情况。 2) P(E|S) = 0 当 P(E|S) = 0 时, P(E|S) = 1,此时公式 变为: P(H|S) = P(H|E) = 这是证据肯定不存在的情况。 LS P(H)(LS 1) P(H) +1 LN P(H)(LN 1) P(H) +12022/8/14112不确定性的传递算法(十)3) P(E|S) = P(E) 当 P(E|S) = P(E) 时,此时公式 变为: P(H|S) = P(H|E) P(E) + P(H|E)

42、 P(E) = P(H) 表示 H 与 S 无关。 4) 当 P(E|S) = 其它值时,通过分段线性插值可得到计算P(H|S) 的公式。全概率公式2022/8/14113不确定性的传递算法(十一)0 P(E) 1 P(E|S) P(H|E) P(H)P(H|E)P(H|S) P(H|E) + P(E|S) 若 0 P(E|S) 01515P(H|S) =2022/8/14115主观Bayes方法知识不确定性表示证据不确定性表示组合证据不确定性不确定性的传递算法结论不确定性的合成2022/8/14116结论不确定性的合成(一) 若有n条知识都支持相同的结论,而且每条知识的前提条件所对应的证据E

43、i(i =1,2,n)都有相应的观察Si 与之对应, 此时只要先求出每条知识的 O(H|Si),然后就可运用下述公式求出 O(H|S1,S2,Sn)。O(H|S1) O(H)O(H|S2) O(H)O(H|Sn) O(H)O(H|S1,S2,Sn) = O(H)2022/8/14117主观Bayes方法(例)例:设有如下知识: r1: if E1 then (2, 0.001) H1 r2: if E2 then (100, 0.001) H1 r3: if H1 then (200, 0.01) H2 已知: P(H1)=0.09 P(H2)=0.01 C(E1 | S1)=2 C(E2 |

44、 S2)=1 求: P(H2 | S1,S2)=? ( 或 O(H2 | S1,S2)=? )H2H1E1E2S2S1(200, 0.01)(100, 0.001)(2, 0.001)C(E1|S1)=2C(E2|S2)=12022/8/14118主观Bayes方法(例) 解:O(H1) = P(H1)1-P(H1)= 0.09/(1-0.09) = 0.1O(H2) = P(H2)1-P(H2)= 0.01/(1-0.01) = 0.01 20.09(2-1)0.09+1P(H1|E1)= LS1P(H1)(LS11)P(H1)+1= 0.17(1) 计算 P(H1|S1) ( O(H1|S

45、1) )2022/8/14119主观Bayes方法(例)对于初始证据, 使用CP公式, C(E1|S1)=2 0 使用CP公式的后半部。P(H1)+P(H1|E1)P(H1) C(E1|S1)15P(H1|S1)= 0.09+0.17-0.0921/5= 0.122O(H1|S1)= P(H1|S1)1-P(H1|S1) 0.1221-0.122= 0.14= 2022/8/14120主观Bayes方法(例) 1000.09(100-1)0.09+1P(H1|E2)= LS2P(H1)(LS21)P(H1)+1= 0.91(2) 计算 P(H1|S2) ( O(H1|S2) )对于初始证据,使

46、用CP公式, C(E2|S2)=1 0 使用CP公式的后半部。P(H1)+P(H1|E2)P(H1) C(E2|S2)15P(H1|S2)= 0.09+0.91-0.0911/5= 0.254O(H1|S2)= P(H1|S2)1-P(H1|S2) 0.2541-0.254= 0.34= 2022/8/14121主观Bayes方法(例)(3) 计算 P(H1|S1,S2) ( O(H1|S1,S2) ) = (0.14/0.1)(0.34/0.1)0.1= 0.476 O(H1|S1) O(H1)O(H1|S1,S2)=O(H1|S2) O(H1) O(H1)P(H1|S1,S2) = O(H

47、1|S1,S2)1+ O(H1|S1,S2)= 0.476/(1+0.476)= 0.3222022/8/14122主观Bayes方法(例)(4) 计算 P(H2|S1,S2) ( O(H2|S1,S2) )使用EH公式 P(H1|S1,S2) P(H1) 使用EH公式的后半部。 2000.01(200-1)0.01+1P(H2|H1)= LS3P(H2)(LS31)P(H2)+1= 0.67P(H1|S1,S2) P(H1) 1 P(H1) P(H2|S1,S2)=P(H2)+P(H2|H1) P(H2)= 0.01+(0.322-0.09)/(1-0.01)(0.67-0.01)= 0.1

48、65O(H2|S1,S2)= P(H2|S1,S2)1-P(H2|S1,S2) 0.1651-0.165= 0.198= H2的先验概率为0.01,而最后算出的后验概率为0.165,增加了近20倍。2022/8/14123主观Bayes方法优缺点主要优点: 其计算公式大多是在概率论的基础上推导出来的,具有较坚实的理论基础; 知识的静态强度LS、LN 由领域专家根据实际经验得到,避免了大量的数据统计工作; 给出了在证据不确定情况下更新先验概率为后验概率的方法且从推理过程中看,确实是实现了不确定性的传递;主要缺点: 它要求领域专家在给出知识时,同时给出 H 的先验概率,这是比较困难的。 Bayes

49、定理中要求事件间相互独立,限制了该方法的应用。2022/8/14124第七章 不确定性处理不确定性及其类型不确定性知识表示不确定性推理的一般模式确定性理论证据理论主观Bayes方法模糊推理2022/8/14125模糊推理模糊关系的合成模糊命题模糊知识的表示模糊匹配与冲突消解模糊推理的基本模式简单模糊推理2022/8/14126语言变量,语言值语言变量就是我们通常所说的属性名,如“年纪”就是一个语言变量。语言值是指语言变量所取的值,如“老”、“中”、“青”就是语言变量年纪的三个语言值。2022/8/14127模糊关系的合成(一) 定义 设R1与R2分别是UV与VW上的两个模糊集,则R1与R2的合

50、成是指从U到W的一个模糊关系,记为 其隶属函数为 R1。R2 (u,w)= R1(u,) R2(,w) R1 R2.。合成方法: 举例说明: 设有如下两个模糊关系:0.4 0.5 0.10.2 0.6 0.2 0.5 0.3 0.2R1 = 0.4 0.50.4 0.6 0.6 0.4 R2 = 2022/8/14128模糊关系的合成(二)R =R1 R2.。=0.4 0.50.4 0.6 0.3 0.5 则R1, R2的合成是:方法: 取R1的第i行元素分别与R2的第j列对应元素比较,两数中取其小者; 然后再在所得的一组最小数中取最大的一个; 此数即为 的第i行、第j列元素。 R1 R2.。

51、2022/8/14129模糊命题(一)在人们的日常生活及科学试验中经常会用到一些模糊概念或模糊数据,例如常欣是个年轻人。李斌的身高约在175m左右。 他考上大学的可能性约在60左右。 明天八成是个好天气。 今年冬季不会太冷的可能性很大。2022/8/14130模糊命题(二)模糊命题: 像上述含有模糊概念、模糊数据或带有确信程度的语句称为模糊命题。 一般形式是: x is A 或: x is A (CF) 其中,x是论域上的变量,用以代表所论对象的属性; A是模糊概念或模糊数,用相应的模糊集及隶属函数刻画; CF是该模糊命题的确信度或相应事件发生的可能性程度,它既可以是一个确定的数也可以是一个模

52、糊数或者模糊语言值。2022/8/14131模糊命题(三)模糊数: 指模糊的数量。 如:“今天到会的人数约有500人左右” “下雨的可能性大约为0.6” 这里的“500左右”,“大约0.6” 即是模糊数。 模糊语言值: 指表示大小、长短、高矮、轻重、快慢、多少等程度的一些词汇。可根据实际情况来约定自己所需要的语言值集合。 例如:可用下述词汇表示程度的大小 v最大,极大,很大,相当大,比较大,有点大,有点小,比较小,相当小,很小,极小,最小2022/8/14132模糊知识的表示(一) 模糊产生式规则的一般形式是 IF E THEN H (CF,) 其中,E 是用模糊命题表示的模糊条件,它既可以是

53、由单个模糊命题表示的简单条件,也可以是用多个模糊命题构成的复合条件; H 是用模糊命题表示的模糊结论; CF是该产生式规则所表示的知识的可信度因子,它既可以是一个确定实数,也可以是一个模糊数或模糊语言值,CF的值由领域专家在给出知识时同时给出。 是阈值,用于指出相应知识在什么情况下可被应用。2022/8/14133模糊知识的表示(二)例如:(1) IF x is A THEN y is B () (2) IF x is A THEN y is B (CF,) (3) IF x1 is A1 AND x2 is A2 THEN y is B () 其中,A, A1, A2 分别是论域U, U1,

54、 U2 上的模糊集,B是论域V上的模糊集。 推理中的证据形式是: x is A 或 x is A (CF) 其中A是论域U上的模糊集,CF是可信度因子。2022/8/14134模糊匹配与冲突消解(一) 在模糊推理中,由于知识的前提条中的A与证据中的A不一定完全相同,因此在决定选用哪条知识进行推理时必须首先考虑哪条知识的A可与A近似匹配的问题,即它们的相似程度是否大于某个预先设定的阔值,或者它们的语义距离是否小于阈值。 例如,设有如下知识及证据: IF x is 小 THEN y is 大 (0.6) x is 较小 此时,为了确定知识的条件部分“x is 小”是否可与证据“x is 较小”模糊

55、匹配,就要计算 “小”与“较小”的相似程度是否落在阂值0.6所指定的范围内。 由于“小”与“较小”都是用相应的模糊集及其隶属函数刻画的,因此对其相似程度的计算就转化为对其相应模糊集的计算。2022/8/14135模糊匹配与冲突消解(二)匹配度:两个模糊集所表示的模糊概念的相似程度称为匹配度。 目前常用的计算匹配度的方法主要有贴近度、语义距离及相似度等。(1) 贴近度 贴近度是指两个模糊概念互相贴近的程度,它可用来作为匹配度。 设A与B分别是论域 U=u1, u2, ,un 上的两个表示相应模糊概念的模糊集,则它们的贴近度定义为:(A,B) = (A B + (1 A B)12其中:A B =(

56、A(ui) B(ui) UA B = (A(ui) B(ui) U2022/8/14136模糊匹配与冲突消解(四)(2) 语义距离 可以通过语义距离确定一个模糊条件是否可与相应的证据匹配,下面给出几种计算方法。 .海明距离。 .欧几里德距离。 .明可夫斯基距离。 .切比雪夫距离。 无论用哪种方法算出的语义距离,都可以通过下式: 1- d(A,B) 将其转换为相应的匹配度。 若直接使用语义距离来确定两者是否可以匹配,只要检查语义距离是 否小于给定的阂值,因为距离越小说明两者越相似。 2022/8/14137模糊匹配与冲突消解(五)(3) 相似度 除了贴近度及语义距离可用来确定模糊条件与相应证据是否可匹配外,还可使用相似度方法。 设A,B分别是论域U上的模糊集,且 A=A(u1)/u1+ A(u2)/u2+ A(un)/un B=B(u1)/u1+ B(u2)/u2+ B(un)/un 则A与B间的相似度r(A,B)可用下列方法计算: .最大最小法 .相关系数法 .算术平均最小法 .指数法 .几何平均最小法 2022/8/1

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论