人工智能知识点.docx_第1页
人工智能知识点.docx_第2页
人工智能知识点.docx_第3页
全文预览已结束

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工智能知识点1.一个系统如果能根据它所知的信息(知识、时间、资源等)能够做出最好的决策,就是理性的思考。2.理性行为:做正确的事,即已知某些信念,理性智能体通过自己的行动达到某个目标或获得最佳结果,或在不确定的情况下,获得最佳期望结果。3.什么是智能?智能简单说就是适应能力,环境变会进行思考后做出正确行为。人工智能是相对人的自然智能而言,即用人工的方法和技术,模仿、延伸和扩展人的智能,实现某些机器思维“。4.人类智能的主要特点:感知能力、记忆与思维能力、归纳与演绎能力、学习能力以及行为能力。5.归纳能力是通过大量实例,总结出具有一般性规律的知识的能力。演绎能力是根据已有的知识和所感知到的事实,推理求解问题的能力。6.理性智能体:做事正确。 性能度量:评价智能体在环境中的表现 理性智能体应该选择期望能使其性能度量最大化的行动。对环境的约束越多,设计的问题就越容易7.问题求解实质是通过搜索找到行动序列达到目标.首先把目标形式化,和目标无关的去掉(例去机场是目标,当前的其他事或行为不考虑).问题形式化就是决策对于给定的目标需要考虑哪些行动和状态的过程,生成状态空间,搜索获得解8.广度优先搜索: 首先扩展根节点,接着扩展根节点的所有后续,然后在扩展它们的后续,依次类推。在下一层的任何节点扩展之前搜索树上本层深度的所有节点都已经扩展过。9.深度优先搜索: 搜索直接推进到搜索树的最深层,当最深层节点扩展完没达到目标节点则将向上回到下一个还有未扩展后续节点的稍浅的节点。10.迭代深入深度优先搜索: 不断增大深度限制,直到找到目标节点。当搜索空间很大且解的深度未知,迭代深入搜索是首先。11.代价一致搜索的迭代搜索: 不断增加的路径耗散限制12.非启发式搜索:按已经付出的代价决定下一步要搜索的节点。具有较大的盲目性,产生较多的无用节点,搜索空间大,效率不高。 12.启发式搜索:要用到问题自身的某些信息,以指导搜索朝着最有希望的方向前进。由于这种搜索针对性较强,因而原则上只需搜索问题的部份状态空间,搜索效率较高。基本思想:定义一个评价函数f,对当前的搜索状态进行评估,找出一个最有希望的节点来扩展。 从状态n到目标的最短路径的估计耗散值.爬山法搜索: 根据一个目标函数,找寻目前邻居中状态最好的一个(最陡上升)。(贪婪局部搜索)13.随机爬山法:上山移动中随机选择下一步,选择的概率随着上山移动的陡峭程度而变化。14.遗传算法(进化计算)是通过模拟自然界中生物进化机制进行搜索的一种算法基本思想:基于进化过程中的信息遗传机制和优胜劣汰的自然选择原则的搜索算法。适应度函数一般是一个实值函数,该函数就是遗传算法中指导搜索的评价函数15.弧相容:如果对于变量X的每个取值x,变量Y都有某个取值能和x保持相容,则连接X-Y的弧是相容的。16.极大节点(或节点)的下界为 极小节点(与节点)的上界为 剪枝的条件:后辈节点的值=祖先节点的值时,剪枝17.归结规则的完备性:任何完备的搜索算法,只使用归结规则,就可以生成命题逻辑中被任何知识库蕴涵的任何结论。18.霍恩子句:至多只有一个正文字的文字析取式19.前向链接是数据驱动的推理,由感知信息自动推理,无意识多用于目标识别,路线决策可能产生和目标无关的中间结果.反向链接是目标指导的推理,20.谓词:刻画对象性质和对象之间关系21.前束范式:一个谓词公式,如果它的所有量词均非否定地出现在公式的最前面,且它的辖域一直延伸到公式之末,同时不出现连接词=和,这种形式的公式称为前束形范式22.置换可以简单的理解为是在一个谓词公式中用置换项去替换变量。 置换与合一的意义:推理过程中要根据知识模式的相似程度进行匹配,为使已知事实与知识库中的知识完全匹配,需要经过一定的变量置换,或做某种变元的置换与合一。合一可以简单地理解为:寻找相对变量的置换,使两个谓词公式一致。23.归结:设C1与C2是子句集中的任意两个子句,如果C1中的文字L1与C2中的文字L2互补,则从C1和C2中可以分别消去L1和L2,并将两个子句中余下的部份做析取构成一个新的子句C12,称这一过程为归结。 24.说明性表示知识给出事物本身的属性和事物间的关系。过程性知识则给出解决问题的具体过程。谓词逻辑方法只适用于确定性、陈述性、静态性知识。产生式规则方法推理单一,若前提条件太多,或规则条数太多,则推理的速度很慢。语义网络方法表达的知识面较窄。框架方法表示的知识纵向从属继承关系很明确,但横向关系不太明确。 对于复杂的、深层次的知识,很难用一种知识表示来解决问题。25语义网络的主要优点是灵活,网络中的节点和有向弧可按规定不加限制的定义。语义网络的缺点是系统难以开发和维护,节点增加、管理复杂。面向对象的方法的封装性克服了这一点。26.不确定推理:从具有不确定性的证据出发,运用知识或规则库中具有的不确定性知识推出具有一定不确定性的,但却是合理的或近乎合理的结论27. 贝叶斯网络是用来表示变量间连接概率的图形模式,它提供了一种自然的表示因果信息的方法,用来发现数据间的潜在关系。在这个网络中,用节点表示变量,有向边表示变量间的依赖关系。28.马尔可夫覆盖,则该节点和网络中的所有其他节点是条件独立的。29.似然加权算法:固定证据变量的值,只对证据以外的变量采样,根据证据得到的事件的可能性作为每个事件的权值,并通过每个证据变量在给定的父节点取值下的条件概率的乘积进行度量。是一致估计。能用于处理较大规模的网络。基于可信度表示的不确定性推理方法(确定因素模型,CF模型),将信度附加给命题和规则,以实现将信度进行组合和传播。滤波(监控):计算信度状态,根据到目前为止的已知证据,计算当前状态的后验概率,P(Xt|e1:t),把握当前状态以便进行理性决策。 预测:根据到目前为止的已知证据,计算未来某个状态的后验概率,以评价可能的行动过程。平滑(回顾):根据到目前为止的已知证据,计算过去某个状态的后验概率,从而为该状态提供一个比当时能得到的结果更好的估计(学习)。 30递归更新:选定一个观察序列,对其中的一个时间片作静态贝叶斯网推理,其结果为下一时间片的更新,进而为再下一个时间片作更新,即在时间片上做递归,对变量作求和消元。31.决策网络将行动和效用的附加节点加入贝叶斯网络。算法:对决策节点的每个可能值,计算该行动结果的效用,返回有最高效用的行动。32.信息价值:获得该信息之前和之后的最佳行动的期望价值间的差别。33.延续式决策问题:智能体的效用值取决于一个决策序列。效用函数不是由单一状态决定,取决于环境历史的一个状态序列。34.有限期决策:决策在有限时间内进行,决策应根据时间、状态来决定,给定状态的最优行动会随时间变化,即最优决策是非稳态的。无限期决策:决策没有固定的时间期限,同一个状态没有必要在不同时间采用不同决策,其最优决策是稳态的。35.累加回报:状态序列的效用值是各状态回报的累加和。折扣回报:状态序列的效用值是各状态回报的加权(折扣因子)累加和。折扣因子用于描述智能体对于当前与未来回报的偏好。36.价值迭代基本思想:计算每个状态的效用,以选出每个状态中的最优行动。价值迭代算法:把每个状态的效用与其邻接状态的效用关联起来价值迭代法总是收敛到贝尔曼方程组的唯一解上。而对应的策略是最优的。37.策略迭代:交替执行用当前策略计算状态的效用和用当前的效用改进当前的策略。38.有监督学习:从已知真假的实例中学习,即从其输入和输出的实例中学习一个函数。无监督学习:在没提供明确输出值的情况下,学习输入的模式。强化学习:从强化物(偶然回报)中学习。39.Boosting方法:根据前一个假设对训练实例的分类结果,对实例加权,增加错误分类实例的权值。并根据每个假设在训练集上的表现对假设进行加权,将多个假设进行加权-多数合成得到集体假设。40.消除候选元素算法: (1)接受示教正例:一般化,从H中去掉较特殊的概念,S集上移。(2)接受示教反例:特殊化,从H中去掉较一般的概念,G集下移。41.强化学习是指从环境状态到行为映射的学习,以使

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论