第3章推理技术2综述课件_第1页
第3章推理技术2综述课件_第2页
第3章推理技术2综述课件_第3页
第3章推理技术2综述课件_第4页
第3章推理技术2综述课件_第5页
已阅读5页,还剩74页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

推理技术2023/7/231《人工智能》3.1消解原理3.2规则演绎系统3.3产生式系统3.4基于概率的推理3.5可信度方法3.6证据理论3.7模糊推理3.8非单调推理本章主要内容:2023/7/232《人工智能》经典推理与非经典推理传统人工智能(即逻辑学派)是建立在逻辑符号推理基础上的。一般所提到的逻辑有形式逻辑和数理逻辑。然而这两种逻辑存在一定的局限性,无法解决一些面临的实际应用问题,从而出现了一些新的逻辑学派。人们把这些新的逻辑学派称为非经典逻辑,其相应的推理方法则叫做非经典推理。与此相应,把传统的逻辑学派及其推理方法称为经典逻辑和经典推理。经典推理与非经典推理的区别:(1)推理方法:经典推理采用演绎逻辑推理。(2)逻辑值:经典逻辑都是二值的。(3)运算法则:经典逻辑的许多运算法则在非经典逻辑中不能成立。(4)逻辑运算符:非经典逻辑具有更多的运算符。(5)推理的单调性:经典逻辑推理是单调的。2023/7/233《人工智能》不确定性推理不确定性推理是建立在非经典逻辑基础上的一种推理,它是对不确定性知识的运用与处理。严格地说,所谓不确定性推理就是从不确定性的初始证据出发,通过运用不确定性的知识,最终推出具有一定程度的不确定性但却是合理或者近乎合理的结论的思维过程。不确定性推理中的基本问题:(1)不确定性的表示与度量(2)不确定性匹配算法及阈值的选择(3)组合证据不确定性的算法(4)不确定性的传递算法(5)结论不确定性的合成2023/7/234《人工智能》3.4基于概率的推理

概率论被广泛地应用于处理随机性以及人类知识不可靠性问题。如随机事件A的概率P(A)可表示A发生的可能性,因而可用概率表示和处理事件A的确定性程度。基于概率推理的本质就是用概率表示和处理推理的不确定性。最简单概率推理如:

设有如下产生式规则:IFETHENH其中,E为前提条件,H为结论。条件概率P(H|E)可以作为在证据E出现时结论H的确定性程度。基于概率论的不确定性推理有很多种,这里我们只介绍几种较实用的几种方法。2023/7/235《人工智能》3.4.1主观Bayes方法

主观Bayes方法是R.O.Duda、P.E.Hart等人1976年在Bayes公式的基础上经适当改进提出了主观Bayes方法,它是最早用于处理不确定性推理的方法之一,已在地矿勘探专家系统PROSPECTOR中得到了成功的应用。下面我们先来介绍Bayes公式。Bayes公式

若A1,A2,…,An是彼此独立的事件,且P(Ai)>0(i=1,2,…,n),P(B)>0,那么Bayes公式可表示为

其中,P(Ai)是事件Ai的先验概率;P(B|Ai)是在事件Ai发生条件下事件B的条件概率。2023/7/236《人工智能》

如果用产生式规则IF E THEN Hi中的前提条件E代替Bayes公式中的B,用Hi代替公式中的Ai

,就可得到:对于多个证据:2023/7/237《人工智能》相关概念

为阐明主观Bayes方法,先引入几个概念:(1)几率函数

几率函数定义为

Θ(x)=P(x)/(1-P(x)),它表示x的出现概率与不出现概率之比,显然随P(x)的加大Θ(x)也加大。

(2)充分性度量

充分性度量定义为:LS=P(E|H)/P(E|¬H)它表示E对H的支持程度,取值于[0,∞],由专家给出。(3)必要性度量

必要性度量定义为

LN=P(¬E|H)/P(¬E|¬H)=(1-P(E|H))/(1-P(E|¬H))它表示¬E对H的支持程度,即E对H为真的必要性程度,取值范围为[0,+∞],也是由专家凭经验给出。

2023/7/238《人工智能》主观Bayes方法中,知识是用产生式规则表示为:IFETHEN(LS,LN)H(P(H))其中,P(H)是结论H的先验概率,由专家根据经验给出。LS称为充分性度量,指出E对H的支持程度。LN称为必要性度量,指出¬E对H的支持程度LS和LN的值由领域专家给出,相当于知识的静态强度。1、知识不确定性的表示2023/7/239《人工智能》2、证据不确定性的表示在主观Bayes方法中,证据的不确定性也用概率表示。对于证据E,由用户根据观察S给出P(E|S),即动态强度。由于主观给定P(E|S)有所困难,所以实际中可以用可信度C(E|S)代替P(E|S)。例如在PROSPECTOR中C(E|S)和P(E|S)遵从如下关系:2023/7/2310《人工智能》3、组合证据不确定性的算法

可以采用最大最小法。当组合证据是多个单一证据的合取时,即E=E1ANDE2AND…ANDEn则:P(E|S)=min{P(E1|S),P(E2|S),…,P(En|S)}当组合证据是多个单一证据的析取时,即E=E1ORE2OR…OREn则:P(E|S)=max{P(E1|S),P(E2|S),…,P(En|S)}对于“¬”运算则:P(¬E|S)=1-P(E|S)2023/7/2311《人工智能》4、不确定性的传递算法

主观Bayes方法推理的任务就是根据证据E的概率P(E)及LS、LN的值,把H的先验概率P(H)更新为后验概率P(H|E)或P(H|¬E)。即确定后验概率的方法随着证据肯定存在,肯定不存在,或者不确定而有所不同。2023/7/2312《人工智能》(1)证据肯定存在在证据肯定存在时P(E)=P(E|S)=1。由Bayes公式得:P(H|E)=P(E|H)×P(H)/P(E) (1)P(¬H|E)=P(E|¬H)×P(¬H)/P(E) (2)(1)式除以(2)式得:P(H|E)/P(¬H|E)=P(E|H)/P(E|¬H)×P(H)/P(¬H)由LS和几率函数的定义得:Θ(H|E)=LS×Θ(H)即P(H|E)=LS×P(H)/[(LS-1)×P(H)+1]2023/7/2313《人工智能》充分性度量LS的意义当LS>1时,Θ(H|E)=LS×Θ(H)>Θ(H),表明由于证据E的存在,增强了H为真的程度。当LS=1时,Θ(H|E)=LS×Θ(H)=Θ(H),表明E与H无关。当LS<1时,Θ(H|E)=LS×Θ(H)<Θ(H),表明由于证据E的存在,减小了H为真的程度。当LS=0时,Θ(H|E)=LS×Θ(H)=0,表明由于证据E的存在,导致H为假。2023/7/2314《人工智能》(2)证据肯定不存在在证据肯定不存在时,P(E)=P(E|S)=0,P(¬E)=1。由Bayes公式得:P(H|¬E)=P(¬E|H)×P(H)/P(¬E) (1)P(¬H|¬E)=P(¬E|¬H)×P(¬H)/P(¬E) (2)(1)式除以(2)式得:P(H|¬E)/P(¬H|¬E)=P(¬E|H)/P(¬E|¬H)×P(H)/P(¬H)由LN和几率函数的定义得:Θ(H|¬E)=LN×Θ(H)即P(H|¬E)=LN×P(H)/[(LN-1)×P(H)+1]2023/7/2315《人工智能》必要性度量LN的意义当LN>1时,Θ(H|¬E)=LN×Θ(H)>Θ(H),表明由于证据E不存在,增强了H为真的程度。当LN=1时,Θ(H|¬E)=LN×Θ(H)=Θ(H),表明¬E与H无关。当LN<1时,Θ(H|¬E)=LN×Θ(H)<Θ(H),表明由于证据E不存在,减小了H为真的程度。当LN=0时,Θ(H|¬E)=LN×Θ(H)=0,表明由于证据E不存在,导致H为假。注意:由于E和¬E不可能同时支持H或同时反对H,所以在一条知识中的LS和LN不应该出现如下情况:LS>1,LN>1LS<1,LN<12023/7/2316《人工智能》(3)证据不确定时当0<P(E|S)<1时,应该用杜达等人1976年证明的下述公式计算后验概率:P(H|S)=P(H|E)×P(E|S)+P(H|¬E)×P(¬E|S)当P(E|S)=1时,证据肯定存在。当P(E|S)=0时,证据肯定不存在。当P(E|S)=P(E)时,证据E与观察S无关。由全概率公式得:P(H|S)=P(H|E)×P(E)+P(H|¬E)×P(¬E)=P(H)当P(E|S)为其它值时,通过分段线性插值计算P(H|S)P(H|S)P(H|E)P(H)P(H|E)0P(E)1P(E|S)2023/7/2317《人工智能》在PROSPECTOR中,由于C(E|S)和P(E|S)遵从如下关系:将P(E|S)代入上式得:即:2023/7/2318《人工智能》5、结论不确定性的合成算法

若有n条知识都支持相同的结论,而且每条知识的前提条件所对应的证据Ei(i=1,2,…,n)都有相应的观察Si与之对应,此时只要先对每条知识分别求出Θ(H|Si),然后运用下述公式求出Θ(H|S1S2…Sn):2023/7/2319《人工智能》主观Bayes方法推理示例(1)例

设有如下知识:R1: IF E1 THEN (2,0.001) H1R2: IF E2 THEN (100,0.001) H1R3: IF H1 THEN (200,0.01) H2已知:Θ(H1)=0.1,Θ(H2)=0.01 C(E1|S1)=2,C(E2|S2)=1求:Θ(H2|S1S2)=?1.计算Θ(H1|S1)P(H1)=Θ(H1)/(1+Θ(H1))=0.09P(H1|E1)=Θ(H1|E1)/(1+Θ(H1|E1))=LS1×Θ(H1)/(1+LS1×Θ(H1))=0.17∵C(E1|S1)=2>0∴P(H1|S1)=P(H1)+[P(H1|E1)-P(H1)]×1/5×C(E1|S1)=0.122Θ(H1|S1)=P(H1|S1)/(1-P(H1|S1))=0.142023/7/2320《人工智能》主观Bayes方法推理示例(2)2.计算Θ(H1|S2)P(H1|E2)=Θ(H1|E2)/(1+Θ(H1|E2))=LS2×Θ(H1)/(1+LS2×Θ(H1))=0.91∵C(E2|S2)=1>0∴P(H1|S2)=P(H1)+[P(H1|E2)-P(H1)]×1/5×C(E2|S2)=0.254Θ(H1|S2)=P(H1|S2)/(1-P(H1|S2))=0.343.计算Θ(H1|S1S2)Θ(H1|S1S2)=Θ(H1|S1)/Θ(H1)×Θ(H1|S2)/Θ(H1)×Θ(H1)=0.4764.计算Θ(H2|S1S2)∵Θ(H1|S1S2)=0.476>Θ(H1)=0.1∴P(H2|S1S2)=P(H2)+[P(H1|S1S2)-P(H1)]/[1-P(H1)]×[P(H2|H1)-P(H2)] =0.175Θ(H2|S1S2)=P(H2|S1S2)/(1-P(H2|S1S2))=0.2122023/7/2321《人工智能》主观Bayes方法的特点优点:主观Bayes方法中的计算公式大多是在概率论的基础上推导出来,具有较坚实的理论基础。知识的静态强度LS及LN是由领域专家给出,避免了大量的数据统计工作。LS和LN比较全面的反映了证据与结论间的因果关系,使推出的结论有较准确的确定性。主观Bayes方法不仅给出了证据肯定存在、肯定不存在时更新后验概率的方法,还给出了证据不确定时的方法,实现了不确定性的逐级传递。缺点:它要求领域专家在给出知识时,同时给出H的先验概率P(H),这比较困难。Bayes定理要求事件间独立,使其应用受限制。2023/7/2322《人工智能》3.4.2贝叶斯网络

贝叶斯网络亦称信念网络(BeliefNetwork),于1985年由JudeaPearl首先提出。它是一种模拟人类推过程中因果关系的不确定性处理模型,其网络拓朴结构是一个有向无环图(DAG)。它的节点用随机变量或命题来标识,认为有直接关系的命题或变量则用弧来连接。例如,假设结点E直接影响到结点H,即E→H,则建立结点E到结点H的有向弧(E,H),权值(即连接强度)用条件概率P(H/E)来表示,如图所示:

有两个结点的贝叶斯网络示意图2023/7/2323《人工智能》

一般来说,有n个命题x1,x2,…,xn之间相互关系的一般知识可用联合概率分布来描述。但是,这样处理使得问题过于复杂。Pearl认为人类在推理过程中,知识并不是以联合概率分布形表现的,而是以变量之间的相关性和条件相关性表现的,即可以用条件概率表示。如例如,对如图所示的贝叶斯网络有:x1x2x3x4x5x62023/7/2324《人工智能》

一旦命题之间的相关性由有向弧表示,条件概率由弧的权值来表示,则命题之间静态结构关系的有关知识就表示出来了。当获取某个新的证据事实时,要对每个命题的可能取值加以综合考查,进而对每个结点定义一个信任度,记作Bel(x)。可规定

Bel(x)=P(x=xi/D)来表示当前所具有的所有事实和证据D条件下,命题x取值为xi的可信任程度,然后再基于Bel计算的证据和事实下各命题的可信任程度。2023/7/2325《人工智能》3.5可信度方法可信度方法是E.H.Shortliffe等人在确定性理论(TheoryofConfirmation)的基础上,结合概率论等提出的一种不确定性推理方法,首先在专家系统MYCIN中得到了成功应用。可信度的概念根据经验对一个事物和现象为真的相信程度称为可信度。可信度带有较大的主观性和经验性,其准确性难以把握。但人工智能面向的多是结构不良的复杂问题,难以给出精确的数学模型,先验概率及条件概率的确定又比较困难。所以可信度方法是一种比较实用的方法。2023/7/2326《人工智能》

可信度方法是基于可信度表示的不确定性推理的基本方法,其它可信度方法都是在此基础上发展起来的。1.知识不确定性的表示在该模型中,知识是用产生式规则表示的,其一般形式为:IFETHENH(CF(H,E))其中,CF(H,E)是该条知识的可信度,称为可信度因子或规则强度,即静态强度。一般CF(H,E)∈[-1,1]。在可信度方法中,把CF(H,E)定义为:CF(H,E)=MB(H,E)-MD(H,E)其中,MB(MeasureBelief)称为信任增长度。它表示由于证据E的出现,使结论为真的信任增长程度。MD(MeasureDisbelief)称为不信任增长度。它表示由于证据E的出现,使结论为真的不信任增长程度。2023/7/2327《人工智能》MB和MD的定义为当MB(H,E)>0时,P(H|E)>P(H);当MD(H,E)>0时,P(H|E)<P(H)。所以MB(H,E)与MD(H,E)是互斥的。即当MB(H,E)>0时,MD(H,E)=0当MD(H,E)>0时,MB(H,E)=02023/7/2328《人工智能》CF(H,E)的计算公式从上式可看出:当CF(H,E)>0时,P(H|E)>P(H);当CF(H,E)<0时,P(H|E)<P(H);当CF(H,E)=0时,P(H|E)=P(H)。根据CF(H,E)的定义即MB(H,E)与MD(H,E)的互斥性可得:2023/7/2329《人工智能》2.证据不确定性的表示证据的不确定性也用可信度因子表示。如CF(E)=0.6注意:CF(H,E)表示知识的强度,即静态强度;CF(E)表示证据的强度,即动态强度。3.组合证据不确定性的算法可采用最大最小法。若E=E1ANDE2AND…ANDEn,则CF(E)=min{CF(E1),CF(E2),…,CF(En)}若E=E1ORE2OR…OREn,则CF(E)=max{CF(E1),CF(E2),…,CF(En)}4.不确定性的传递算法

结论H的可信度由下式计算:CF(H)=CF(H,E)×max{0,CF(E)}2023/7/2330《人工智能》5.结论不确定性的合成算法

若由多条不同知识推出了相同的结论,但可信度不同,则用合成算法求出综合可信度。设有如下知识:IF E1 THEN H (CF(H,E1))IF E2 THEN H (CF(H,E2))则结论H的综合可信度分如下两步算出:首先分别对每一条知识求出CF(H):然后用下述公式求出E1与E2对H的综合可信度CF12(H):2023/7/2331《人工智能》可信度方法推理示例(1)例

设有如下一组知识:R1:IF E1 THEN H (0.8)R2:IF E2 THEN H (0.6)R3:IF E3 THEN H (-0.5)R4:IF E4AND(E5ORE6) THEN E1 (0.7)R5:IF E7ANDE8THEN E3 (0.9)已知:CF(E2)=0.8,CF(E4)=0.5,CF(E5)=0.6 CF(E6)=0.7,CF(E7)=0.6,CF(E8)=0.9求:CF(H)=?解:由R4得到:CF(E1)=0.7×max{0,CF[E4AND(E5ORE6)]} =0.7×max{0,min{CF(E4),CF(E5ORE6)}} =0.35由R5得到:CF(E3)=0.9×max{0,CF[E7ANDE8]} =0.542023/7/2332《人工智能》C-F模型推理示例(2)由R1得到:CF1(H)=0.8×max{0,CF(E1)}=0.28由R2得到:CF2(H)=0.6×max{0,CF(E2)}=0.48由R3得到:CF3(H)=-0.5×max{0,CF(E3)}=-0.27根据结论不确定性的合成算法:CF12(H)=CF1(H)+CF2(H)-CF1(H)×CF2(H)=0.63CF123(H)=[CF12(H)+CF3(H)]/[1-min{|CF12(H)|,|CF3(H)|}] =0.49即最终的综合可信度为CF(H)=0.49。2023/7/2333《人工智能》3.6证据理论由Dempster首先提出,并由他的学生Shafer发展起来,也称D-S理论。在专家系统的不精确推理中已得到广泛的应用(也用在模式识别中)。证据理论中引入了信任函数,它满足概率论弱公理。在概率论中,当先验概率很难获得,但又要被迫给出时,用证据理论能区分不确定性和不知道的差别。所以它比概率论更合适于专家系统推理方法。当概率值已知时,证据理论就成了概率论。因此,概率论是证据理论的一个特例,有时也称证据沦为广义概率论。2023/7/2334《人工智能》3.6.1证据理论的概念D-S理论采用集合来表示命题,为此,首先应该建立命题与集合之间的一一对应关系,把命题的不确定性转化为集合的不确定性。设D为变量x所有取值集合,且D中各元素都是互斥的,在任一时刻x都取且仅取D中的某个员素值,则称D为x的样本空间。D的任何一个子集A都对应一个关于x的命题,称该命题为“x的值在A中”。如:D={红,黄,蓝},则A={红}表示命题“x是红色”;若A={红,蓝},则表示“x是红色或蓝色”。在证据理论中,可分别用概率分配函数、信任函数、似然函数和类概率来描述和处理知识的不确定性。2023/7/2335《人工智能》1、概率分配函数定义:D为样本空间,设函数M:2D[0,1],且满足:

M()=0ADM(A)=1则称M为2D上的概率分配函数,M(A)称为A的基本概率数。(1)M(A)的作用是把D的任意一个子集A都映射为[0,1]上的一个数M(A)。它表示证据对D的子集A成立的一种信任度量,是对D的子集的信任分配。(2)概率分配函数不是概率。如:假设U={红,黄,蓝},M({红})=0.3,M({黄})=0,M({蓝})=0.1,M({红,黄})=0.2,M({红,蓝})=0.2,M({黄,蓝})=0.1,M({红,黄,蓝})=0.1,M({})=0则:A={黄,蓝}时,由于M(A)=0.1,说明“x为黄色或蓝色”的信任程度为0.1,还不知道如何将0.1分配给“黄”或者“蓝”。2023/7/2336《人工智能》2、信任函数定义:命题的信任函数Bel:2D[0,1],对所有的AD有:

Bel(A)=BAM(B)(1)

命题A的信任函数的值,是A的所有子集的基本概率分配函数值的和,用来表示对A的总的信任。(2)Bel函数又称为下限函数。(3)Bel()=M()=0,Bel(D)=BDM(B)=1如:根据上面例子给出的数据,可求得:

Bef({红})=M({红})=0.3

Bef({红,黄})=M({红})+M({黄})+M({红,黄})=0.3+0+0.2=0.52023/7/2337《人工智能》3、似然函数定义:似然函数Pl:2D[0,1],且

Pl(A)=1-Bel(A)对所有的AD(1)Bel(A)表示对A为真的信任度,则Bel(

A)表示对

A为真,即A为假的信任度,所以Pl(A)表示A非假的信任度,它又称为上限函数。(2)

Pl(A)=1-Bel(

A)=ABM(B)(3)0Bel(A)

Pl(A)1(4)Pl(A)-Bel(A):表示既不信任A,也不信任A的一种度量,可表示对不知道的度量如:根据上面例子给出的数据,可求得:

pl({蓝})=1-Bel({蓝})=1-Bel({红,黄})=1-0.5=0.52023/7/2338《人工智能》

4、概率分配函数的正交和

在实际问题中,对于相同的证据,由于来源不同,可能会得到不同的概率分配函数,在这种需要对他们进行合成。

设M1和M2是两个概率分配函数,则其正交和M=M1M2定义为:

M()=0M(A)=K×XY=AM1(X)×M2(Y)

其中x,y是U的子集,并且:

K-1=1-XY=M1(X)×M2(Y)

=XYM1(X)×M2(Y)如:设D={a,b},且

M1({a},{b},{a,b},)=(0.3,0.5,0.2,0)

M2({a},{b},{a,b},)=(0.6,0.3,0.1,0)

求正交和M=M1M22023/7/2339《人工智能》

解:首先求K

然后求M({a},{b},{a,b},),为此,分别求出M({a}),M({b}),M({a,b})即可。同理可求得:M({b))=0.43,M({a,b})=0.03故有:M({a},{b},{a,b},)=(0.54,0.43,0.03,0)2023/7/2340《人工智能》在证据理论中,信任函数Bel(A)和似然函数Pl(A)分别表示对命题A信任度的下界和上界,如可以以区间(Bel(A),Pl(A))作为命题A的不确定性度量:A(0,0):表示A为假A(0,1):表示对A一无所知A(1,1):表示A为真A(0.25,0.85):表示A为真的信任度为0.25,A为假的信任度为1-0.85=0.15信任函数和似然函数都是建立在概率分配函数的基础上的。当概率分配函数定义不同时,将会得到不同的推理模型。下面给出一种特殊的概率分配函数,并在此基础上建立一个具体的不确定推理模型。3.6.2证据理论的不确定性推理模型2023/7/2341《人工智能》1、概率分配函数与类概率函数定义:设D={s1,s2,…sn},M为定义在2D上的概率分配函数,且满足:

(1)M({si})≥0

(2)M({si})≤1

(3)M(D)=1-M({si})

(4)对于任意AD,当|A|>1或|A|=0时,M(A)=0这是一个特殊的概率分配函数,只有单个元素构成的子集及样本空间D的概率分配函数才可能大于0,其它子集的概率分配均为0。2023/7/2342《人工智能》1、概率分配函数与类概率函数(2)类概率函数:命题A的类概率函数定义为:

其中,|A|和|D|分别是A和D中元素个数。

类概率函数具有下列性质:

(1)∑f({si})=1

(2)Bef(A)≤f(A)≤pl(A)

(3)f(A)=1-f(A)

根据上述性质可得如下结论:

(1)f()=0(2)f(D)=1

(3)0≤f(A)≤12023/7/2343《人工智能》2、知识不确定性表示

在证据理论中,不确定性知识用如下产生是规则表示:

IFETHENh={h1,h2,…hn}CF={c1,c2,…,cn}其中:E为前提条件,可以是简单条件,也可以是析取得符合条件。

H是结论,用样本空间的子集{h1,h2,…hn}表示。

CF是可信度因子,ci用来指出hi的可信度,ci满足如下条件:

ci≥0(i=1,2,…n),且∑ci≤13、证据不确定性表示

不确定性证据E的不确定性用CER(E)表示,其取值范围为[0,1]。4、组合证据不确定性表示对于组合证据,采用最大最小法合成。即:若E=E1∧E2…∧En,则CER(E)=min{CER(E1),…CER(En)}若E=E1∨E2…∨En,则CER(E)=max{CER(E1),…CER(En)}2023/7/2344《人工智能》5、不确定性传递算法

设有知识:

IFETHENh={h1,h2,…hn}CF={c1,c2,…,cn}则结论H的确定性可通过下列步骤求出:(1)求出H的概率分配函数若两条知识支持同一结论,即IFE1THENh={h1,h2,…hn}CF={c1,c2,…,cn}IFE2THENh={h1,h2,…hn}CF={c1’,c2’,…,cn’}则首先对每一条知识求出概率分配函数M1和M2,然后再用公式

M=M1M2对M1和M2求正交和,从而得到H的概率分配函数。2023/7/2345《人工智能》5、不确定性传递算法(2)(2)求出Bel(H),Pl(H),f(H)(3)求H的不确定性CER(H)CER(H)=MD(H|E)×f(H)其中,MD(H|E)为证据E与知识前提条件的匹配度,定义为:2023/7/2346《人工智能》3.7模糊推理

模糊推理与前面几节讨论的不确定性推理有着实质性的区别。前面那几种不确定性推理的理论基础是概率论,它所研究的事件本身有明确而确定的含义,只是由于发生的条件不充分,使得在条件与事件之间不能出现确定的因果关系,从而在事件的出现与否上表现出不确定性。模糊推理的理论基础是模糊集理论以及在此基础上发展起来的模糊逻辑,模糊集理论是1956年由扎德提出的,随后他又将模糊集合理论应用于近似推理方面,形成了可能性理论。它所处理的事物自身是模糊的,概念本身没有明确的外延,一个对象是否符合这个概念难以明确地确定。模糊推理是对这种不确定性,即模糊性的表示与处理。

2023/7/2347《人工智能》3.7.1模糊集合及其运算

设U为某些对象的集合,称为论域,可以是连续的或离散的;u表示U的元素,记作U={u}。定义(模糊集合):设U是论域,μA是把任意u∈U映射为[0,1]上某个值的函数,即:

μA:U→[0,1]或者u→μA(u)

则称μA为定义在U上的一个隶属函数,由μA(u)(u∈U)所构成的集合A称为U上的一个模糊集,μA(u)称为μ对A的隶属度。

设论域U={1,2,3,4,5},A、B分别表示“大”与“小”的模糊集。μA,μB分别为相应的隶属函数。其中:μA(1)=0,μA(2)=0,μA(3)=0.1,μA(4)=0.6,μA(5)=1 μB(1)=1,μB(2)=0.5,μB(3)=0.01,μB(4)=0,μB(5)=0则:A={0,0,0.1,0.6,1}B={1,0.5,0.01,0,0}

2023/7/2348《人工智能》

模糊集的表示方法1、若论域离散且有限,则模糊集A可表示为:A={μA(u1),μA(u2),…,μA(un)}也可写为:A=μA(u1)/u1+μA(u2)/u2+…+μA(un)/un或者:A={μA(u1)/u1,μA(u2)/u2,…,μA(un)/un}A={(μA(u1),u1),(μA(u2),u2),…,(μA(un),un)}隶属度为0的元素可以不写。2、若论域是连续的,则模糊集可用实函数表示。无论论域U有限还是无限,离散还是连续,扎德用如下记号作为模糊集A的一般表示形式:2023/7/2349《人工智能》模糊集的运算模糊集上的运算主要有:包含、交、并、补等等。1.包含运算

定义

设A,B为U上的模糊集,若对任意u∈U,都有μB(u)≤μA(u)成立,则称A包含B,记为BA。2.交、并、补运算例

设U={u1,u2,u3},A=0.3/u1+0.8/u2+0.6/u3,B=0.6/u1+0.4/u2+0.7/u3,则:

A∩B=(0.3∧0.6)/u1+(0.8∧0.4)/u2+(0.6∧0.7)/u3=0.3/u1+0.4/u2+0.6/u3A∪B=(0.3∨0.6)/u1+(0.8∨0.4)/u2+(0.6∨0.7)/u3=0.6/u1+0.8/u2+0.7/u3¬A=(1-0.3)/u1+(1-0.8)/u2+(1-0.6)/u3=0.7/u1+0.2/u2+0.4/u32023/7/2350《人工智能》模糊关系及其合成模糊关系

定义

设Ai是Ui(i=1,2,…,n)上的模糊集,则称

为A1,A2,…,An的笛卡儿乘积,它是U1×U2×…×Un上的一个模糊集。定义

在U1×U2×…×Un上一个n元模糊关系R是指以U1×U2×…×Un为论域的一个模糊集,记为一般地说,当U和V都是有限论域时,其模糊关系R可用一个模糊矩阵表示。2023/7/2351《人工智能》模糊关系及其合成(2)2.模糊关系的合成定义

设R1与R2分别是U×V与V×W上的两个模糊关系,则R1与R2的合成是指从U到W的一个模糊关系,记为R1°R2其隶属函数为定义

设A={μA(u1),μA(u2),…,μA(un)}是论域U上的模糊集,R是U×V上的模糊关系,则A°R=B称为模糊变换。例

设A={0.2,0.5,0.3}2023/7/2352《人工智能》3.7.2模糊推理模糊命题含有模糊概念、模糊数据或带有确信程度的语句称为模糊命题。它的一般表示形式为:x

isA或者x isA(CF)

其中,x是论域上的变量,用以代表所论述对象的属性;A是模糊概念或者模糊数,用相应的模糊集及隶属函数刻画;CF是该模糊命题的确信度或相应事件发生的可能性程度,它既可以是一个确定的数,也可以是一个模糊数或者模糊语言值。模糊语言值是指表示大小、长短、高矮、轻重、快慢、多少等程度的一些词汇。使用模糊语言值更符合人们表述问题的习惯。此外很多情况下人们难以给出一个数或者模糊数来具体指出程度的大小。所以用模糊语言值来表示不确定性,对不熟悉模糊理论的人来说容易理解,而其模糊集形式只是内部表示。2023/7/2353《人工智能》模糊推理有很多种,在这里我们仅介绍一种简单而常用的方法。模糊产生式规则的一般形式是:IF E THEN H (CF,λ)其中,E是用模糊命题表示的模糊条件;H是用模糊命题表示的模糊结论;CF是该产生式规则所表示的知识的可信度因子,它既可以是一个确定的数,也可以是一个模糊数或模糊语言值。λ是阈值,用以指出知识什么时候可被应用。CF和λ的值由领域专家在给出知识的时候同时给出。例如:IF x1isA1ANDx2isA2THENyisB(CF,λ)推理中所用的证据也用模糊命题表示,一般形式xisA’或者xisA’(CF) 2023/7/2354《人工智能》模糊推理的基本模式自然演绎有三种基本模式:假言推理、拒取式推理和假言三段论推理。模糊推理也有以上三种基本模式。1.模糊假言推理设A,B分别为U,V上的模糊集,且它们具有如下关系:IFxisATHENyisB若A与A’可以模糊匹配,则可推出yisB’,其中B’为V上的模糊集。这种推理称为模糊假言推理,可用如下图式直观表示出来:知识:IFxisATHENyisB证据:xisA’----------------------------------------------------结论:yisB’对于复合条件有:知识:IFx1isA1ANDx2isA2AND…ANDxnisAnTHENyisB证据: x1isA’1x2isA’2…xnisA’n-------------------------------------------------------------------------------------------结论: yisB’2023/7/2355《人工智能》2.模糊拒取式推理知识:IF xisA THEN yisB证据: yisB’---------------------------------------------------结论: xisA’3.模糊三段论推理IF xisA THEN yisBIF yisB THEN zisC-------------------------------------------IF xisA THEN zisC推理方法有多种,例如扎德等人的合成推理规则,P.Magrez和P.Smets提出的计算模型等。扎德法的基本思想是:首先由知识IF xisA THEN yisB求出A与B之间的模糊关系R,然后在通过R与相应证据的合成求出模糊结论。这种方法又称为基于模糊关系的合成模型。2023/7/2356《人工智能》简单模糊推理知识中只含有简单条件且不带可信度因子的模糊推理称为简单模糊推理。按照扎德等人提出的合成推理规则,对于知识:IF xisA THEN yisB首先构造出A与B之间的模糊关系R,然后通过R与证据的合成求出结论。如果已知证据是xisA’且A与A’可以模糊匹配,则通过下述合成运算求取B’:B’=A’◦R如果已知证据是yisB’且B与B’可以模糊匹配,则通过下述合成运算求出A’:A’=R◦B’2023/7/2357《人工智能》构造模糊关系R的方法用×,∪,∩,¬,分别表示模糊集的笛卡儿乘积、并、交、补及有界和运算,则扎德把Rm和Ra分别定义为:

扎德提出了两种方法:一种称为条件命题的极大极小规则;另一种称为条件命题的算术规则,由它们获得的模糊关系分别记为Rm和Ra。设A为论域U上的模糊集,B为论域V上的模糊集,其表示分别为2023/7/2358《人工智能》对于模糊假言推理,若已知证据为xisA’则:B’m=A’◦RmB’a=A’◦Ra对于模糊拒取式推理,若已知证据为yisB’则:A’m=Rm◦B’A’a=Ra◦B’2023/7/2359《人工智能》举例例

设U=V={1,2,3,4,5},A=1/1+0.5/2,B=0.4/3+0.6/4+1/5并设模糊知识及模糊证据分别为:

IFxisATHENyisB和xisA’其中,A’的模糊集为:A’=1/1+0.4/2+0.2/3则由模糊知识可分别得到Rm与Ra:Rm(i,j)=(μA(ui)∧μB(vj))∨(1-μA(ui))Ra(i,j)=1∧(1-μA(ui)+μB(vj))2023/7/2360《人工智能》

同理可计算出:

B’a=A’◦Ra={0.4,0.4,0.4,0.6,1}注意:一般来说B’m与B’a不一定相同。若已知证据为:yisB’,且B’=0.2/1+0.4/2+0.6/3+0.5/4+0.3/5,则:同理可计算出

A’a=Ra◦B’={0.5,0.6,0.6,0.6,0.6}2023/7/2361《人工智能》3.8非单调推理

基于谓词逻辑的推理系统是单调的,即系统中已知为真的命题数目随推理的进行而严格增加。那是由于新的命题可加入系统,新的定理可被证明,但这种加入和被证明决不会导致前面已知为真或已被证明的命题变成无效。这种系统具有以下优点:

(1)当加入一新命题时,不必检查新命题与原有知识间的不相容性。

(2)对每一个已被证明了的命题,不必保留一个命题表。它的证明以该命题表中的命题为根据,因为不存在那些命题会被取消的危险。可是,这种单调系统不能很好地处理常常出现在现实问题领域中的3类情况,即不完全的信息、不断变化的情况、以及求解复杂问题过程中生成的假设。2023/7/2362《人工智能》3.8非单调推理(2)

人类的思维过程和推理过程在本质上是非单调的。人们对客观事物的认识和信念总是不断调整和变化的,于是就出现了认识上的非单调性。在这种情况下,推导出的结论不随条件的增加而增多。这种推理过程就是非单调推理。非单调推理具有下列特征:推理系统的定理集合不一定随着推理过程的进行而单调增多,新推理出的定理很可能会修改甚至否定原有的一些定理,使得原来能够解释的一些现象变得不能解释了。实现非单调推理的方法有两种,一种是在经典逻辑中增加某些公理,用以导出非单调推理的结果(如限定推理);另一种是定义特定的非经典逻辑(如缺省推理和自认逻辑)。2023/7/2363《人工智能》3.8.1缺省推理

人们对客观事物的认识往往是不完整的。当缺乏信息时,人们总是默认或者假设某些命题成立,并在此基础上进行推理。这样的推理就叫做缺省推理,又称为默认推理。作“默认”或者“假设”的原则是:如果没有足够的证据能证明某个命题不成立,则认为该命题是成立的。如:鸟会飞。地上湿了,天下雨了。缺省推理的核心是在默认或者假定某些命题成立的前提下进行推理。如果知道一些事情中的某件事必为真,在缺乏完全知识条件下,应选最可能的那个。如:大多数人喜欢花;大多数狗有尾巴;对瑞典人而言,最一般的头发颜色为淡黄色。2023/7/2364《人工智能》1、缺省推理的定义一个既精确又可算的缺省推理的描述,必涉及结论Y且缺少某一信息X。所以缺省推理的定义为:缺省推理的定义1:如果X不知道,那么得结论Y。

但在所有的系统中,除最简单的系统外,只有存贮在数据库中的事件的极小部分可看成是已知的。不过,通过各种努力,事件的其余部分可从已知部分推导出来。所以缺省推理的定义更像是:缺省推理的定义2:如果X不能被证明,那么得结论Y。

但是,如果仍然以谓词逻辑工作,那怎么能知道X不能被证明?由于这系统是不可判定的,所以对任一X来说,仍不能担保它能否被证明。于是我们不得不重新考虑定义:缺省推理的定义3:如果X不能在某个给定的时间内被证明,那么得结论Y。

2023/7/2365《人工智能》值得注意,定义推出结论Y的推理过程依赖于逻辑领域外的某些事件,在规定时间内可作多少计算,以及在寻找待求的证明中计算是否有效。因此作出关于系统行为的形式说明就显得特别重要。加之,我们丧失了谓词逻辑所具有的对所提出的证明的正确性进行验证的能力,即使一个证明存在,也不一定能保证找到它。假如现在得到一证明,对证明过程中的某一步来说,由于没有能力证明X,所以得结论Y。但由于X是否可被证明是不可判定的,因而包含这个证明在内的更大的证明也就不可判定。于是,由于缺乏完全的知识,对缺省推理的需要迫使我们使用这样的系统,它的行为不易形式地描述出来。2023/7/2366《人工智能》2、缺省规则的表示根据赖特的缺省理论,缺省规则是如下形式的表达式:

其中,A(x)表示缺省规则的先决条件,Bi(x)表示默认条件,C(x)表示结论。M称为模态算子,表示“假定…是相容的”,即其否定不可证明。

上述缺省规则表示:如果先决条件A(x)成立,而且假定默认条件Bi(x)相容,则可推出结论C(x)成立。例如:

它表示:“如果x是一只鸟,那么在缺乏任何反证据的情况下,就可以得出x会飞的结论”2023/7/2367《人工智能》3、缺省规则的分类

缺省规则虽然可以表示模糊量词“几乎”、“大多数”等,但它却不涉及模糊逻辑。缺省规则按其形式可分为规范缺省、半规范缺省及非规范缺省三类。规范缺省规则如果默认条件为B(x),且B(x)=C(x),则称为规范的缺省规则。可表示为:

其含义是:由先决条件A(x)一般可以推出结论B(X)成立。可表示“一般都…”,“大部分都…”2023/7/2368《人工智能》3、缺省规则的分类(2)半规范缺省规则如果默认条件为B(x),且有B(x)=C(x)∧¬D(x)则称其为半规范缺省规则。可表示为:

其含义是:除D(x)外,由先决条件A(x)一般可以推出结论B(X)成立。可表示“除…以外,一般都…”不规范缺省规则所有不属于前两类的缺省规则都称为不规范缺省规则。

此外,如果缺省规则中不含自由变量责成该缺省为封闭的;如果先决条件为空,则称为重言式;如果默认条件为空,则退化为演绎规则。2023/7/2369《人工智能》3.8.2真值维持系统

维持推理的一致性是实现非单调推理系统的核心技术之一。真值维持系统(TruthMaintenanceSystem-TMS)是一个已经实现了的非单调推理系统。它用以协助其它推理程序维持系统的正确性,所以它的作用不是生成新的推理,而是在其它程序所产生的命题之间保持相容性。一旦发现某个不相容,它就调出自己的推理机制,面向从属关系的回溯,并通过修改最小的信念集来消除不相容。TMS的工作原理如下图所示:推理机真值维持系统知识库论据变化修改信息获取信息2023/7/2370《人工智能》1、真值维持系统的工作原理一个非单调推理系统的信念集(常识集)可以分为两个部分,即:

S=Δ∪A

其中,Δ为基本信念集;A为假设集,可视为对Δ的尝试性扩充。由于推理系统总是认为Δ永真,因而推理中产生的不一致仅由A中的假设引起。在TMS中,每一命题或规则均称为节点,且对任一节点,以下两种状态必居其一:状态含义IN相信为真OUT不相信为真,或无理由相信为真,或当前没有可相信的理由。2023/7/2371《人工智能》

每个节点附有一个证实表,表中可以有多个证实,每个证实表示一种确定节点有效性的方法。对一个节点来说,如果当前至少存在一个有效证实,则称它的状态为IN;如果当前无任何有效证实存在,则称它的状态为OUT。为什么要保留OUT节点呢?在非单调推理系统中,产生一节点是以表示一个假定为真的命题。但新信息的出现可能引起原始节点变成OUT(缺少信息时用缺省推理),那时,一切基于它的节点都相应要变为OUT。不过,保留这些节点和它们的相互依赖性仍有用处。因为一旦有效信息发生了变化,而且引起原始节点再变为IN时,那些在它的基础上用来产生其它节点的推理就不必重作了,这些节点也就变为IN了。

有两种方法用来证实一个节点的有效性依赖于其它节点:(1)支持表:(SL(IN节点)(OUT节点))(2)条件证明(CP(结论)(IN假设)(OUT假设))2023/7/2372《人工智能》2、支持表

支持表表示:在IN节点表中所列的节点当前都是IN,且在OUT节点表中所列的节点当前都是OUT,那么,它们是有效的。例如,下述节点:(1)现在是冬天(SL()())(2)天气是寒冷的(SL(1)())节点(1)

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论