人工智能_一般搜索算法原理.ppt_第1页
人工智能_一般搜索算法原理.ppt_第2页
人工智能_一般搜索算法原理.ppt_第3页
人工智能_一般搜索算法原理.ppt_第4页
人工智能_一般搜索算法原理.ppt_第5页
免费预览已结束,剩余148页可下载查看

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2020/5/18,人工智能讲义,1,第三章一般搜索原理,盲目搜索启发式搜索归结原理,2020/5/18,人工智能讲义,2,盲目搜索,图搜索策略深度优先搜索宽度优先搜索等代价搜索,2020/5/18,人工智能讲义,3,一些基本概念,节点深度:根节点深度=0其它节点深度=父节点深度+1,0,1,2,3,2020/5/18,人工智能讲义,4,一些基本概念(续1),路径设一节点序列为(n0,n1,nk),对于i=1,k,若节点ni-1具有一个后继节点ni,则该序列称为从n0到nk的路径。路径的耗散值一条路径的耗散值等于连接这条路径各节点间所有耗散值的总和。用C(ni,nj)表示从ni到nj的路径的耗散值。,2020/5/18,人工智能讲义,5,一些基本概念(续1),扩展一个节点生成出该节点的所有后继节点,并给出它们之间的耗散值。这一过程称为“扩展一个节点”。,2020/5/18,人工智能讲义,6,一般的图搜索算法(GRAPHSEARCH),1,G=G0(G0=s),OPEN=(s);2,CLOSED=();3,LOOP:IFOPEN=()EXIT(FAIL);4,n=FIRST(OPEN),REMOVE(n,OPEN),ADD(n,CLOSED);5,IFGOAL(n)EXIT(SUCCESS);6,EXPAND(n)mi,G=ADD(mi,G);,2020/5/18,人工智能讲义,7,一般的图搜索算法(续),7,标记和修改指针:ADD(mj,OPEN),并标记mj到n的指针;计算是否要修改mk、ml到n的指针;计算是否要修改ml到其后继节点的指针;8,对OPEN中的节点按某种原则重新排序;9,GOLOOP;,2020/5/18,人工智能讲义,8,深度优先搜索,在深度优先搜索中,首先扩展最新产生的(最深的)节点,深度相等的节点可以任意排列。“最晚产生的节点最先扩展”,2020/5/18,人工智能讲义,9,深度优先搜索算法,1,G=G0(G0=s),OPEN=(s),CLOSED=();2,LOOP:IFOPEN=()EXIT(FAIL);3,n=FIRST(OPEN);4,IFGOAL(n)EXIT(SUCCESS);5,REMOVE(n,OPEN),ADD(n,CLOSED);6,IFDEPTH(n)DmGOLOOP;7,EXPAND(n)mi,G=ADD(mi,G);8,IF目标在mi中THENEXIT(SUCCESS);9,ADD(mj,OPEN),并标记mj到n的指针;10,GOLOOP;,2020/5/18,人工智能讲义,10,23184765,1,2,3,4,5,6,7,8,9,a,b,c,d,目标,2020/5/18,人工智能讲义,11,深度优先搜索的性质,一般不能保证找到最优解当深度限制不合理时,可能找不到解,可以将算法改为可变深度限制最坏情况时,搜索空间等同于穷举与回溯法的差别:图搜索是一个通用的与问题无关的方法,2020/5/18,人工智能讲义,12,宽度优先搜索,如果搜索是以接近起始节点的程度依次扩展节点的,那么这种搜索就叫做宽度优先搜索。这种搜索使逐层进行的,在对下一层的任意节点进行搜索之前,必须搜索完本层的所有节点。“先产生的节点先扩展”,2020/5/18,人工智能讲义,13,宽度优先搜索算法,1,G=G0(G0=s),OPEN=(s),CLOSED=();2,LOOP:IFOPEN=()EXIT(FAIL);3,n=FIRST(OPEN);4,IFGOAL(n)EXIT(SUCCESS);5,REMOVE(n,OPEN),ADD(n,CLOSED);6,EXPAND(n)mi,G=ADD(mi,G);7,IF目标在mi中THENEXIT(SUCCESS);8,ADD(OPEN,mj),并标记mj到n的指针;9,GOLOOP;,2020/5/18,人工智能讲义,14,23184765,1,2,5,6,7,3,目标,8,4,2020/5/18,人工智能讲义,15,宽度优先搜索的性质,当问题有解时,一定能找到解当问题为单位耗散值,且问题有解时,一定能找到最优解方法与问题无关,具有通用性效率较低属于图搜索方法,2020/5/18,人工智能讲义,16,等代价搜索,宽度优先搜索可被推广用来解决寻找从起始节点到目标节点具有最小代价路径问题,这种推广了的宽度优先搜索算法叫做等代价搜索算法。,2020/5/18,人工智能讲义,17,等代价搜索算法,算法1,G=G0(G0=s),OPEN=(s),CLOSED=(),g(s)=0;2,LOOP:IFOPEN=()EXIT(FAIL);3,从OPEN表中选择一个节点i,使其g(i)为最小。如果有几个节点都合格,那么就要选择一个目标节点作为i(要是有目标节点的话);否则,就从中选一个作为节点I;REMOVE(i,OPEN),ADD(i,CLOSED);4,IFGOAL(i)EXIT(SUCCESS);5,EXPAND(i)j,G=ADD(j,G);6,对每个后继节点j,计算g(j)=g(i)+c(i,j)且ADD(OPEN,j),并标记j到i的指针;7,GOLOOP;,2020/5/18,人工智能讲义,18,启发式图搜索,利用知识来引导搜索,达到减少搜索范围,降低问题复杂度的目的。启发信息的强度强:降低搜索工作量,但可能导致找不到最优解弱:一般导致工作量加大,极限情况下变为盲目搜索,但可能可以找到最优解,2020/5/18,人工智能讲义,19,希望:,引入启发知识,在保证找到最佳解的情况下,尽可能减少搜索范围,提高搜索效率。,2020/5/18,人工智能讲义,20,基本思想,定义一个评价函数f,对当前的搜索状态进行评估,找出一个最有希望的节点来扩展。,2020/5/18,人工智能讲义,21,1,启发式搜索算法A(A算法),评价函数的格式:f(n)=g(n)+h(n)f(n):评价函数h(n):启发函数,2020/5/18,人工智能讲义,22,符号的意义,g*(n):从s到n的最短路径的耗散值h*(n):从n到g的最短路径的耗散值f*(n)=g*(n)+h*(n):从s经过n到g的最短路径的耗散值g(n)、h(n)、f(n)分别是g*(n)、h*(n)、f*(n)的估计值,2020/5/18,人工智能讲义,23,A算法,1,OPEN=(s),f(s)=g(s)+h(s);2,LOOP:IFOPEN=()EXIT(FAIL);3,n=FIRST(OPEN);4,IFGOAL(n)EXIT(SUCCESS);5,REMOVE(n,OPEN),ADD(n,CLOSED);6,EXPAND(n)Mi,计算f(n,mi)=g(n,mi)+h(mi);,2020/5/18,人工智能讲义,24,A算法(续),ADD(mj,OPEN),标记mj到n的指针;IFf(n,mk)h1(n),则A1扩展的节点数A2扩展的节点数,2020/5/18,人工智能讲义,38,A*算法的改进,问题的提出:因A算法第6步对ml类节点可能要重新放回到OPEN表中,因此可能会导致多次重复扩展同一个节点,导致搜索效率下降。,2020/5/18,人工智能讲义,39,一个例子:,s(10),s(10),A(7)B(8)C(9),A(7)s(10),B(8)C(9)G(14),A(5)C(9)G(14),C(9)G(12),B(7)G(12),A(4)G(12),G(11),A(7)B(8)s(10),A(5)B(8)s(10),C(9)A(5)B(8)s(10),A(5)B(7)C(9)s(10),A(4)B(7)C(9)s(10),2020/5/18,人工智能讲义,40,出现多次扩展节点的原因,在前面的扩展中,并没有找到从初始节点到当前节点的最短路径,如节点A。,2020/5/18,人工智能讲义,41,解决的途径,对h加以限制能否对h增加适当的限制,使得第一次扩展一个节点时,就找到了从s到该节点的最短路径。对算法加以改进能否对算法加以改进,避免或减少节点的多次扩展。,2020/5/18,人工智能讲义,42,改进的条件,可采纳性不变不多扩展节点不增加算法的复杂性,2020/5/18,人工智能讲义,43,对h加以限制,定义:一个启发函数h,如果对所有节点ni和nj,其中nj是ni的子节点,满足h(ni)-h(nj)c(ni,nj)h(t)=0则称h是单调的。,h(ni),ni,nj,h(nj),c(ni,nj),2020/5/18,人工智能讲义,44,h单调的性质,定理5:若h(n)是单调的,则A*扩展了节点n之后,就已经找到了到达节点n的最佳路径。即:当A*选n扩展时,有g(n)=g*(n)。,2020/5/18,人工智能讲义,45,h单调的性质(续),定理6:若h(n)是单调的,则由A*所扩展的节点序列其f值是非递减的。,2020/5/18,人工智能讲义,46,h单调的例子,8数码问题:h为“不在位”的将牌数1h(ni)-h(nj)=0(nj为ni的后继节点)-1h(t)=0c(ni,nj)=1满足单调的条件。,2020/5/18,人工智能讲义,47,对算法加以改进,一些结论:OPEN表上任一具有f(n)4),2020/5/18,人工智能讲义,63,n0,n1,n2,n3,n4,n5,n6,n7,n8,n4(1),n1(5),n2(4),n3(4),n6(2),n7(0),n8(0),n0(4),n5(1),n5(1-2),2020/5/18,人工智能讲义,64,n0,n1,n2,n3,n4,n5,n6,n7,n8,红色代价:5蓝色代价:6,n0(4),n4(1),n5(1-2),n1(5),n2(4),n3(4),n6(2),n7(0),n8(0),n0(4-5),2020/5/18,人工智能讲义,65,n0,n1,n2,n3,n4,n5,n6,n7,n8,n0(5),n4(1),n5(2),n1(5),n2(4),n3(4),n6(2),n7(0),n8(0),2020/5/18,人工智能讲义,66,目标,目标,初始节点,n0,n1,n2,n3,n4,n5,n6,n7,n8,n0(5),n4(1),n5(2),n1(5),n2(4),n3(4),n6(2),n7(0),n8(0),2020/5/18,人工智能讲义,67,目标,目标,初始节点,n0,n1,n2,n3,n4,n5,n6,n7,n8,初始节点可解,n0(5),n4(1),n5(2),n1(5),n2(4),n3(4),n6(2),n7(0),n8(0),2020/5/18,人工智能讲义,68,归结原理,概述命题逻辑的归结法子句形Herbrand定理归结原理归结过程的策略控制,2020/5/18,人工智能讲义,69,归结原理,概述命题逻辑的归结法子句形Herbrand定理归结原理归结过程的策略控制,2020/5/18,人工智能讲义,70,概述,归结原理由J.A.Robinson由1965年提出。与演绎法完全不同,新的逻辑演算算法。一阶逻辑中,至今为止的最有效的半可判定的算法。即,一阶逻辑中任意恒真公式,使用归结原理,总可以在有限步内给以判定。语义网络、框架表示、产生式规则等等都是以推理方法为前提的。即,有了规则已知条件,顺藤摸瓜找到结果。而归结方法是自动推理、自动推导证明用的。(“数学定理机器证明”)本课程只讨论一阶谓词逻辑描述下的归结推理方法,不涉及高阶谓词逻辑问题。,2020/5/18,人工智能讲义,71,归结原理,概述命题逻辑的归结法子句形Herbrand定理归结原理归结过程的策略控制,2020/5/18,人工智能讲义,72,归结原理,概述命题逻辑的归结法子句形Herbrand定理归结原理归结过程的策略控制,2020/5/18,人工智能讲义,73,命题逻辑的归结法,基本单元:简单命题(陈述句)例:命题:A1、A2、A3和B求证:A1A2A3成立,则B成立,即:A1A2A3B反证法:证明A1A2A3B是矛盾式(永假式),2020/5/18,人工智能讲义,74,命题逻辑的归结法,建立子句集合取范式:命题、命题和的与,如:P(PQ)(PQ)子句集S:合取范式形式下的子命题(元素)的集合例:命题公式:P(PQ)(PQ)子句集S:S=P,PQ,PQ,2020/5/18,人工智能讲义,75,命题逻辑的归结法,归结式消除互补对,求新子句得到归结式。如子句:C1=C1L,C2=C2归结式:R(C1,C2)=C1C2注意:C1C2R(C1,C2),反之不一定成立。,假言推理:由合适公式W1和W1W2产生合适公式W2,如何用归结法证明?,2020/5/18,人工智能讲义,76,命题逻辑的归结法,归结过程对结论作否定,并加入前提中将命题写成合取范式求出子句集对子句集使用归结推理规则归结式作为新子句参加归结归结式为空子句,S是不可满足的(矛盾),原命题成立。(证明完毕)谓词的归结:除了有量词和函数以外,其余和命题归结过程一样。,2020/5/18,人工智能讲义,77,命题逻辑的归结法,例证明先将化为合取范式建立子句集S=对S做归结PNIL,2020/5/18,人工智能讲义,78,归结原理,概述命题逻辑的归结法子句形Herbrand定理归结原理归结过程的策略控制,2020/5/18,人工智能讲义,79,归结原理,概述命题逻辑的归结法子句形Herbrand定理归结原理归结过程的策略控制,2020/5/18,人工智能讲义,80,子句形,引用Herbrand定理,以说明归结原理的意义及一个原理形成的根基与背景SKOLEM标准形前束范式:把所有的量词都提到前面去,然后消掉所有量词。定义:说公式A是一个前束范式,如果A中的一切量词都位于该公式的最左边(不含否定词),且这些量词的辖域都延伸到公式的末端。即(Q1x1)(Qnxn)M(x1,xn),其中Qixi为存在量词或全称量词,M(x1,xn)为合取范式(由一些子句的合取组成)。,2020/5/18,人工智能讲义,81,子句形(Skolem标准形),量词消去原则:消去存在量词“”,略去全程量词“”。注意:左边有全称量词的存在量词,消去时该变量改写成为全称量词的函数(Skloem函数);如没有,改写成为常量。,例子:见人工智能及其应用P75,2020/5/18,人工智能讲义,82,子句形(Skolem标准形),定理:谓词逻辑的任意公式都可以化为与之等价的前束范式,但其前束范式不唯一。SKOLEM标准形定义:消去量词后的谓词公式。注意:谓词公式G的SKOLEM标准形同G并不等值。,2020/5/18,人工智能讲义,83,子句形(Skolem标准形),例:G=(x)(y)(z)(u)P(x,y,z,u)Skolem标准形为:(y)(z)P(a,y,z,f(y,z)其中,x=a(常量),u=f(y.z),2020/5/18,人工智能讲义,84,子句形,子句与子句集文字:不含任何连接词的谓词公式。子句:一些文字的析取(谓词的和)。子句集S的求取:GSKOLEM标准形消去存在变量以“,”取代“”,并表示为集合形式。,2020/5/18,人工智能讲义,85,子句形,G是不可满足的S是不可满足的G与S不等价,但在不可满足的意义下是一致的。定理:若G是给定的公式,而S是相应的子句集,则G是不可满足的S是不可满足的。注意:G真不一定S真,而S真必有G真。即:S=G,2020/5/18,人工智能讲义,86,子句形,G=G1G2G3Gn的子句形G的子句集可以分解成几个单独处理。有SG=S1US2US3UUSn则SG与S1US2US3UUSn在不可满足的意义上是一致的。即SG不可满足S1US2US3UUSn不可满足,2020/5/18,人工智能讲义,87,归结原理,概述命题逻辑的归结法子句形Herbrand定理归结原理归结过程的策略控制,2020/5/18,人工智能讲义,88,归结原理,概述命题逻辑的归结法子句形Herbrand定理归结原理归结过程的策略控制,2020/5/18,人工智能讲义,89,Herbrand定理,问题:一阶逻辑公式的永真性(永假性)的判定是否能在有限步内完成?,2020/5/18,人工智能讲义,90,Herbrand定理,1936年图灵(Turing)和邱吉(Church)互相独立地证明了:,“没有一般的方法使得在有限步内判定一阶逻辑的公式是否是永真(或永假)。但是如果公式本身是永真(或永假)的,那么就能在有限步内判定它是永真(或永假)。对于非永真(或永假)的公式就不一定能在有限步内得到结论。判定的过程将可能是不停止的。”,2020/5/18,人工智能讲义,91,Herbrand定理,Herbrand的思想定义:公式G永真:对于G的所有解释,G都为真。思想:寻找一个已给的公式是真的解释。然而,如果所给定的公式的确是永假的,就没有这样的解释存在,并且算法在有限步内停止。,2020/5/18,人工智能讲义,92,Herbrand定理,H域H解释语义树结论:Herbrand定理,2020/5/18,人工智能讲义,93,Herbrand定理,H域H解释语义树结论:Herbrand定理,2020/5/18,人工智能讲义,94,Herbrand定理(H域),基本方法:因为量词是任意的,所讨论的个体变量域D是任意的,所以解释的个数是无限、不可数的。简化讨论域。建立一个比较简单、特殊的域,使得只要在这个论域上,该公式是不可满足的。此域称为H域:H0为G中所出现的常量的集合,若G中没有常量,就任取常量,H0=a。规定为H域例题请参考教科书P27,2020/5/18,人工智能讲义,95,H域举例,例1S=P(a),P(x)P(f(x)依定义有H0=aH1=aUf(a)=a,f(a)H2=a,f(a)Uf(a),f(f(a)=a,f(a),f(f(a)H=a,f(a),f(f(a),,2020/5/18,人工智能讲义,96,Herbrand定理(H域),几个基本概念f(t1,t2,tn):f为子句集S中的所有函数变量。t1,t2,tn为S的H域的元素。通过它们来讨论永真性。原子集A:谓词套上H域的元素组成的集合。如A=所有形如P(t1,t2,tn)的元素即把H中的东西填到S的谓词里去。S中的谓词是有限的,H是可数的,因此,A也是可数的。一旦原子集内真值确定好(规定好),则S在H上的真值可确定。成为可数问题。,2020/5/18,人工智能讲义,97,原子集举例,例1S=P(a),P(x)P(f(x)H=a,f(a),f(f(a),S的原子集为A=P(a),P(f(a),P(f(f(a),2020/5/18,人工智能讲义,98,Herbrand定理(H域),没有变量出现的原子、文字、子句和子句集,分别称作基原子、基文字、基子句和基子句集。它们在讨论子句集S的不可满足性时占有重要置。,2020/5/18,人工智能讲义,99,Herbrand定理,H域H解释语义树结论:Herbrand定理,2020/5/18,人工智能讲义,100,Herbrand定理,H域H解释语义树结论:Herbrand定理,2020/5/18,人工智能讲义,101,Herbrand定理(H解释),解释I*:取一个值得到一个结论I映射S中到所有常量符号到它们本身。(即原子集)令f是n元函数,I是f下的一个指派,即H中的元素到f的一个映射(函数值)。简单地说(P29),A中的各元素真假组合都是H的解释。(或真或假只取一个)问题:对于所有的解释,全是假才可判定。因为所有解释代表了所有的情况,如可穷举,问题便可解决。,2020/5/18,人工智能讲义,102,H解释-举例,例1S=P(a),P(x)P(f(x)S的H域H=a,f(a),f(f(a),S的原子集为A=P(a),P(f(a),P(f(f(a),S的H解释:I1*=P(a),P(f(a),P(f(f(a),S|I1*=TI2*=P(a),P(f(a),P(f(f(a),S|I2*=FI3*=P(a),P(f(a),P(f(f(a),S|I3*=F,我们关心的是:对论域上的任一解释I,若有S|I=T,如何求得一个相应的H解释I*,使得S|I*=T成立。,2020/5/18,人工智能讲义,103,Herbrand定理(H解释),如下三个定理保证了归结法的正确性:定理1:设I是S的论域D上的解释,存在对应于I的H解释I*,使得若有S|I=T,必有S|I*=T。定理2:子句集S是不可满足的,当且仅当所有的S的H解释下为假。定理3:子句集S是不可满足的,当且仅当对每一个解释I下,至少有S的某个子句的某个基例为假。,2020/5/18,人工智能讲义,104,Herbrand定理(H解释),基例S中某子句中所有变元符号均以S的H域中的元素代入时,所得的基子句C称为C的一个基例。若一个子句为假,则此解释为假。一般来说,D是无穷不可列的,因此,子句集S也是无穷不可列的。但S确定后H是无穷可列的。不过在H上证明S的不可满足性仍然是不可能的。解决问题的方法:语义树,2020/5/18,人工智能讲义,105,Herbrand定理,H域H解释语义树结论:Herbrand定理,2020/5/18,人工智能讲义,106,Herbrand定理,H域H解释语义树结论:Herbrand定理,2020/5/18,人工智能讲义,107,Herbrand定理(语义树),构成方法原子集中所有元素逐层添加的一棵二叉树。将元素的是与非分别标记在两侧的分枝上(可不完全画完)。(P34)特点一般情况H是可数集,S的语义树是无限树。,2020/5/18,人工智能讲义,108,Herbrand定理(语义树),意义SHA语义树可以理解语义树为H域的图形解释。目的:把每个解释都摊开。语义树中包含原子集的全部元素,因此,语义树是完全的。每一个直到叶子节点的分支对应S的一个解释。可以通过对语义树每一个分支来计算S的真值。如果每个基例都为假,则可认为是不可满足的。,2020/5/18,人工智能讲义,109,语义树-举例,例1设子句集S的原子集A=P,Q,R语义树:N0,N11,N12,N21,N22,N23,N24,N31,N32,N33,N34,N35,N36,N37,N38,P,Q,Q,R,R,P,I(N)表示从根节点到节点N分枝上所标记的所有文字的并集。如I(N34)=P,Q,R,2020/5/18,人工智能讲义,110,Herbrand定理(语义树),几个概念失败结点:当(由上)延伸到点N时,I(N)已表明了S的某子句的某基例假。但N以前尚不能判断这事实。就称N为失败结点。完全语义树:如果对语义树的所有叶结点N来说,I(N)包含了S的原子集A=A1,A2,中的所有元素Ai或Ai,I=1n。封闭语义树:如果S的完全语义树的每个分枝上都有一个失败结点,就称它是一棵封闭语义树。,2020/5/18,人工智能讲义,111,封闭语义树-举例,例子句集S=P(x)Q(x),P(f(y),Q(f(y)H=a,f(a),f(f(a),A=P(a),Q(a),P(f(a),Q(f(a),语义树:N0,N11,N12,N21,N22,N23,N24,N31,N32,N33,N34,N35,N36,N37,N38,P(a),Q(a),P(f(a),N41,N42,N43,N44,N45,N46,N47,N48,N49,N410,N411,N413,N415,N412,N414,N416,这是一个无限树,然而它是否是一个封闭树?,Q(f(a),I(N41)=P(a),Q(a),P(f(a),Q(f(a),它使S的子句Q(f(y)的基例Q(f(a)为假,而N41的父辈不能使子句的基例为假,2020/5/18,人工智能讲义,112,封闭语义树-举例,例子句集S=P(x)Q(x),P(f(y),Q(f(y)H=a,f(a),f(f(a),A=P(a),Q(a),P(f(a),Q(f(a),封闭语义树:N0,N11,N12,N21,N22,N23,N24,N31,N32,N36,N37,N38,P(a),Q(a),P(f(a),N41,N42,N49,N410,N413,N414,Q(f(a),2020/5/18,人工智能讲义,113,Herbrand定理,H域H解释语义树结论:Herbrand定理,2020/5/18,人工智能讲义,114,Herbrand定理,H域H解释语义树结论:Herbrand定理,2020/5/18,人工智能讲义,115,Herbrand定理(结论),Herbrand定理:子句集S是不可满足的,当且仅当对应于S的完全语义数是棵有限封闭树。子句集S是不可满足的,当且仅当存在不可满足的S的有限基例集。,2020/5/18,人工智能讲义,116,Herbrand定理(结论),定理的意义Herbrand定理已将证明问题转化成了命题逻辑问题。由此定理保证,可以放心的用机器来实现自动推理了。(归结原理)注意Herbrand定理给出了一阶逻辑的半可判定算法,即仅当被证明定理是成立时,使用该算法可以在有限步得证。而当被证定理并不成立时,使用该算法得不出任何结论。但是,2020/5/18,人工智能讲义,117,例S=P(x,g(x),y,h(x,y),z,k(x,y,z),P(u,v,e(v),w,f(v,w),x)有H0=a,S0=P(a,g(a),a,h(a,a),a,k(a,a,a),P(a,a,e(a),a,f(a,a),a)H1=a,g(a),h(a,a),k(a,a,a),e(a),f(a,a)共6个元素S1:63+64=1512个元素H2:元素个数有63数量级(由于变量最多的函数是k(x,y,z),三个变量都可能取值于H1的六个元素)S2:元素个数有(63)4数量级建立S3,S4,直到S5才是不可满足。然而S5元素个数已达(1064)4=10256,Herbrand定理(结论),仍存在的问题:基例集序列元素的数目随子句基的元素数目成指数地增加。,因此,Herbrand定理是30年代提出的,始终没有显著的成绩。直至1965年Robinson提出了归结原理。,2020/5/18,人工智能讲义,118,归结原理,概述命题逻辑的归结法子句形Herbrand定理归结原理归结过程的策略控制,2020/5/18,人工智能讲义,119,归结原理,概述命题逻辑的归结法子句形Herbrand定理归结原理归结过程的策略控制,2020/5/18,人工智能讲义,120,归结原理,归结原理正确性的根本在于,找到矛盾可以肯定不真。方法:和命题逻辑一样。但由于有函数,所以要考虑合一和置换。(定义与例题参考教科书P41),2020/5/18,人工智能讲义,121,归结原理,置换和合一的注意事项:谓词的一致性,P()与Q(),不可以常量的一致性,P(a,)与P(b,.),不可以常量与变量,P(a,.)与P(x,),可以变量与函数,P(a,x,.)与P(x,f(x),),不可以;但P(a,x,)与P(x,f(y),),可以是不能同时消去两个互补对,PQ与PQ的空,不可以先进行内部简化(置换、合并),2020/5/18,人工智能讲义,122,归结原理,归结的过程(P48)写出谓词关系公式用反演法写出谓词表达试SKOLEM标准形子句集S对S中可归结的子句做归结归结式仍放入S中,反复归结过程得到空子句得证,2020/5/18,人工智能讲义,123,归结原理,归结法的实质:归结法是仅有一条推理规则的推理方法。归结的过程是一个语义树倒塌的过程。(P51)归结法的问题子句中有等号或不等号时,完备性不成立。Herbrand定理的不实用性引出了可实用的归结法。,2020/5/18,人工智能讲义,124,归结原理,概述命题逻辑的归结法子句形Herbrand定理归结原理归结过程的策略控制,2020/5/18,人工智能讲义,125,归结原理,概述命题逻辑的归结法子句形Herbrand定理归结原理归结过程的策略控制,2020/5/18,人工智能讲义,126,归结过程的控制策略,要解决的问题:归结方法的知识爆炸。控制策略的目的归结点尽量少控制策略的原则给出控制策略,以使仅对选择合适的子句间方可做归结。避免多余的、不必要的归结式出现。或者说,少做些归结仍能导出空子句。,2020/5/18,人工智能讲义,127,归结过程的控制策略,盲目归结例S=PQ,PQ,PQ,PQ是不可满足。证明从S0=S开始,依次构造Si=C1,C2的归结式|C1S0S1Si-1,C2Si-1,i=1,2,直至得到空子句。具体过程如下:S0(1)PQ(2)PQ(3)PQ(4)PQS1(5)Q(1)(2)(6)P(1)(3)(7)QQ(1)(4)(8)PP(1)(4)(9)QQ(2)(3)(10)PP(2)(3)(11)P(2)(4)(12)Q(3)(4),2020/5/18,人工智能讲义,128,归结过程的控制策略(盲目归结),S2(13)P(1)(7)(14)PQ(1)(8)(15)PQ(1)(9)(16)PQ(1)(10)(17)Q(1)(11)(18)P(1)(12)(19)Q(2)(6)(20)PQ(3)(4)(21)PQ(2)(8)(22)PQ(2)(9)(23)PQ(2)(10)(24)P(2)(12)(25)P(3)(5)(26)PQ(3)(7)(27)PQ(3)(8)(28)PQ(3)(9)(29)PQ(3)(10)(30)Q(3)(11)(31)P(4)(5)(32)Q(4)(6)(33)PQ(4)(7)(34)PQ(4)(8)(35)PQ(4)(9)(36)PQ(4)(10)(37)Q(5)(7)(38)Q(5)(9)(39)(5)(12)产生过多不必要的归结式。一类是重言式(7)-(10)由它们又产生了(13)-(16),(20)-(23),(26)-(29),(33)-(39)。另一类是重复的,如P,Q,P,Q.,2020/5/18,人工智能讲义,129,归结过程的控制策略,删除策略设有两个子句C和D,若有置换使得CD成立,便说子句C把子句D归类。例C=P(X)D=P(a)Q(a)取=a/x,便有C=P(a)P(a),Q(a)。删除策略:若对s使用归结推理过程中,当归结式Cj是重言式或Cj被S中子句或归结式Ci(iQR解释I=P,Q,R,2020/5/18,人工智能讲义,132,归结过程的控制策略,线性归结策略首先从子句集S中选取一个称为顶子句的子句C0开始做归结,其次是归结过程中所得到的归结式Ci立即同另一个子句Bi进行归结得归结式Ci+1。而Bi属于S或是已出现的归结式Cj(j完备采用支撑集完备语义归结完备线性归结完备单元归结=完备输入归结=完备,2020/5/18,人工智能讲义,136,谓词逻辑的归结方法,对于子句C1L1和C2L2,如果L1与L2可合一,且s是其合一者,则(C1C2)s是其归结式。例:P(x)Q(y),P(f(z)R(z)=Q(y)R(z),2020/5/18,人工智能讲义,137,归结举例,设公理集:(x)(R(x)L(x)(x)(D(x)L(x)(x)(D(x)I(x)求证:(x)(I(x)R(x)化子句集:(x)(R(x)L(x)=(x)(R(x)L(x)=R(x)L(x)(1),2020/5/18,人工智能讲义,138,(x)(D(x)L(x)=(x)(D(x)L(x)=D(x)L(x)(2)(x)(D(x)I(x)=D(A)I(A)=D(A)(3)I(A)(4),2020/5/18,人工智能讲义,139,目标求反:(x)(I(x)R(x)=(x)(I(x)R(x)=(x)(I(x)R(x)=I(x)R(x)(5)换名后得字句集:R(x1)L(x1)D(x2)L(x2)D(A)I(A)I(x5)R(x5),2020/5/18,人工智能讲义,140,例题得归结树,R(x1)L(x1)D(x2)L(x2)D(A)I(A)I(x5)R(x5),I(A),I(x5)R(x5),R(A),A/x5,R(x1)L(x1),L(A),A/x1,D(x2)L(x2),D(A),A/x2,D(A),nil,2020/5/18,人工智能讲义,141,归结反演求解-提取回答的过程,先进行归结,证明结论的正确性;用重言式代替结论求反得到的子句;按照证明过程,进行归结;最后,在原来为空的地方,得到的就是提取的回答。修改后的证明树称为修改证明树,2020/5/18,人工智能讲义,142,归结反演求解-举例,“如果无论John到哪里去,Fido也就去那里,那么如果John在学校,Fido在哪里?”,已知:(x)AT(John,x)AT(Fido,x)AT(John,School)求证:(x)AT(Fido,x),如果我们首先证明公式(x)AT(Fido,x)在逻辑上遵循前提公式集,然后寻求一个存在x的例,那么就能解决“Fido在哪里”的问题。,2020/5/18,人工智能讲义,143,归结反演求解-基于归结的问答系统,已知:(x)AT(John,x)AT(Fido,x)AT(John,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论