NAL教材(内部传阅)-翻译_第1页
NAL教材(内部传阅)-翻译_第2页
NAL教材(内部传阅)-翻译_第3页
NAL教材(内部传阅)-翻译_第4页
NAL教材(内部传阅)-翻译_第5页
已阅读5页,还剩233页未读 继续免费阅读

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2012年8月8日16:25 世界科学书籍-9英寸x6英寸 纳尔-王非公理逻辑—智能推理模型王培本稿件为2012年AGI暑期学校教材。未经作者许可,请勿分享,也不要引用,因为它不是最终版本。请将您的意见和更正信息发送至mail.peiwang@。提前致谢!2012年8月8日16:25 世界科学书籍-9英寸x6英寸 纳尔-王 非公理逻辑:智能推理模型2012年8月8日16:25 世界科学书籍-9英寸x6英寸 纳尔-王前言本书提供了对非公理逻辑(Non-AxiomaticLogic,缩写为NAL)的全面、精确和最新的描述。该逻辑旨在通过在一般层面上制定人类思维的基本规律来创建通用人工智能(AI)系统。因此,这项工作也属于认知科学(CogSci),即“心智”与“认知”的跨学科研究。本书直接讨论逻辑、心理学、语言学、哲学和计算机科学中的许多主题。NAL的显着特征是它在指导必须在知识和资源不足的情况下工作的系统的适应过程时表现出的“相对理性”。NAL在所有主要组成部分都与普通逻辑系统不同:它使用主谓(而不是谓词-论证)句子、基于经验(而不是模型理论)的语义以及三段论(而不是真值函数)推理规则。事实上,NAL与其他逻辑如此不同,以至于一些逻辑学家不愿意将其视为“逻辑”。尽管这种反应是可以理解的,而且这个系统确实可以使用其他术语(例如概念图)来描述,但在本书中它仍然被呈现为一个逻辑系统。从技术上讲,选择这种表述是因为NAL可以被准确地指定为由形式语言、一组形式推理规则和语义理论组成;从概念上讲,这是因为NAL显然是试图捕捉人类思维中的“思维法则”或有效推理模式。由于后一个原因,NAL可以说比数理逻辑更接近一般和原始意义上的“逻辑”。NAL是AI系统NARS(Non-AxiomaticRea-声波系统)。由于本书侧重于逻辑,因此其他方面32012年8月8日16:25 世界科学书籍-9英寸x6英寸 纳尔-王 非公理逻辑:智能推理模型仅在必要时才提及系统(例如内存和控制)。由于NARS的目标是通用的“思考机器”,因此该项目几乎与AI和CogSci之前的所有工作相关。然而,由于篇幅和重点的限制,本书无法将我的方法与所有其他方法进行比较,而只能与最相关的方法进行比较。NARS的许多方面已经在我以前的出版物中讨论过,例如Wang(1995,2006b),以及书中引用的许多期刊文章和会议论文。本书是为具有人工智能、计算机科学和数理逻辑大学水平知识的读者编写的。可作为研究生一学期或本科高年级课程的教材。应按给定的顺序阅读各章,并以附录作为NAL技术内容的参考。NARS是一个正在进行的项目。有关其最新开发、文档、演示和源代码,请参阅项目网站1。致谢是应《世界科学》杂志主席兼主编K.K.Phua博士的邀请,发起了本次写作项目。他关于将材料作为讲义呈现的建议​​也非常有价值。感谢天普大学在2011-2012学年奖励我休假,使我有时间完成本书。该书的草稿被北京大学(2012年春季)和雷克雅未克大学(2012年夏季)用作教材,我要感谢我的讲座的参加者提供的宝贵反馈。我近年来的研究得益于与邓朗、埃里克·尼维尔、克里斯·托里森、吴西红、徐迎金和周北海的多次讨论。SelmerBringsjord、BenGoertzel、BillHibbard、O´lafur的评论和英文更正对本书的修订有很大帮助赫林森、布兰登·罗勒、卢卡斯·斯塔菲尼亚克和尤金·苏洛维茨。最后,感谢我亲爱的妻子孙红媛多年来的支持。王培1目前位于/site/narswang/,这主要反映在~王p/2012年8月8日16:25 世界科学书籍-9英寸x6英寸 纳尔-王内容前言 表格列表 介绍 智力 推理系统 NAL概述 IL-1:理想情况 分类语言 基于经验的语义 三段论推理规则 NAL-1:基本语法和语义 证据及其衡量 二维真值 不确定性的表示 经验与信念 NAL-1:基本推理规则 局部推理规则 前向推理规则 后向推理规则 NARS:基本内存和控制 推理任务 v2012年8月8日16:25 世界科学书籍-9英寸x6英寸 纳尔-王 非公理逻辑:智能推理模型袋式存储 作为一个整体的概念 推理循环 NARS的特性 NAL-2:导数联结函数 相似系词 实例系词 属性系词 NAL-3:集合论术语 复合词 交叉口 差异 多组件套装 复合项的推理 NAL-4:关系术语 产品与收购关系 概念关系的类型 图像与结构变换 NAL-5:作为术语的声明 高阶语句 蕴涵与传承 作为条件的含义 否定 推理中的分析真理 NAL-6:可变术语 变量术语定义 变量消除和引入 符号推理 NAL-7:事件作为陈述 时间和事件 颞连接器和联结函数 时间推理 2012年8月8日16:25 世界科学书籍-9英寸x6英寸 纳尔-王内容 NAL-8:作为事件的运营和目标 作为可执行事件的操作 目标作为期望的事件 实用推理 感觉运动接口 NAL-9:自我监控和自我控制 心理运作 感觉和情绪 意识 总结及其他 NAL的性质 与其他逻辑的比较 NAL和人工智能 附录ANarsese语法 附录BNAL推理规则 附录CNAL真值函数 附录D定理证明 参考书目 指数 2012年8月8日16:25 世界科学书籍-9英寸x6英寸 纳尔-王 非公理逻辑:智能推理模型2012年8月8日16:25 世界科学书籍-9英寸x6英寸 纳尔-王表格列表IL-1的语法规则 IL-1的推理规则 IL-1的匹配规则 不确定性测量之间的映射 NAL-1的语法规则 具有真值函数的修正规则 期望函数 选择规则 基本三段论规则 NAL中的演绎-绑架-归纳(1) NAL-1的转换规则 三段论规则的真值函数 NAL-1的后向三段论规则 IL-2的推理规则 相似性相关的三段论规则 相似相关规则的真值函数 NAL-2的新语法规则 Copula映射规则 集合的等价规则 NAL-3的新语法规则 NAL-3的组成规则 组合规则的真值函数 NAL-4的新语法规则 92012年8月8日16:25 世界科学书籍-9英寸x6英寸 纳尔-王非公理逻辑:智能推理模型一阶IL和高阶IL之间的同构....NAL的系动词........................NAL-5的新语法规则...............条件三段论规则.................条件组合规则..............NAL中的演绎-溯因-归纳(2)..........NAL中的演绎-溯因-归纳(3)..........NAL-5中的立即推理规则............NAL-6的新语法规则...............自变量消除规则示例........自变量引入规则示例........因变量引入规则示例.........因变量消除规则示例..........多变量引入规则示例............NAL-7的语法规则..................时间推理规则示例.................NAL-8的语法规则..................纳尔塞斯完整语法................纳尔塞语语法中的符号................一阶三段论规则.................条件三段论规则.................构图规则......................分解规则.....................立即推理规则..................继承定理.....................相似定理.....................蕴涵定理.....................等价定理....................不确定性测量之间的关系........扩展布尔运算符.................NAL的真值函数................第1章介绍本章介绍了本书所描述的逻辑背后的理论考虑。 智力这种逻辑是作为我们通常所说的“智力”、“认知”或“思维”的规范理论的一部分而提出的。其直接目标是作为在计算机系统中实施的正式模型,以实现“人工智能”(AI)。为此,它还必须明确人类应遵循的“思想法则”。与许多基本概念一样,“智能”有许多不同的解释和理解。在人工智能的背景下,大多数人的观点是将其视为解决只有人类才能解决的问题的能力[McCarthyetal.2017]。(1955);拉塞尔和诺维格(2010)]。尽管这种方法对计算机科学技术做出了巨大贡献,但它并没有在实现人工智能的最初和最终目标,即构建具有与人类相当的智力的“思考机器”方面取得多大进展。相反,研究结果集中在智力的特殊方面,很难推广到其他任务,也很难整合在一起[Brachman(2006)]。另一方面,认知科学背景下的智力研究侧重于人类思想和大脑的描述性理论,其中计算机模型的目标是尽可能准确地模拟人类结构、活动和行为[Newell(1990)]。同样,尽管此类研究对神经科学和心理学做出了巨大贡献,但它不一定是人工智能的最佳方法。毕竟,计算机系统在低(硬件/湿软件)水平上与人脑有很大不同,所以它1 非公理逻辑:智能推理模型对于计算机来说,在所有细节上都没有必要也不可能像大脑一样工作。直观地说,人工智能的理念是基于这样的假设:我们所说的“智能”可以在与人脑相比具有不同起源和细节的人工制品中复制。因此,尽管所有的人工智能项目都以构建在某些方面“与人类思维相似”的计算机系统为共同目标,但它们在这种相似性是什么或应该是什么方面却存在很大差异,这对应于不同的工作方式。智力的定义[Wang(2008)]。本书描述的研究项目属于“通用人工智能”(AGI)这一新兴领域,它与主流人工智能不同,强调智能的通用性和整体性[GoertzelandPennachin(2007);Wang和Goertzel(2007)]。该项目采用以下工作定义:智能是系统适应环境并在不足的情况下工作的能力知识和资源[Wang(1994c,2008)]。在此背景下,适应要求系统根据经验决定自己的行动,以便在环境相对稳定的情况下更好地实现其目标。这可以看作是“相对理性”原则。与其他理性理论相比,这种相对理性最显着的特征是知识和资源不足的假设,即AIKR,[Wang(1994c,2011)]。具体来说,AIKR是针对系统要解决的问题而言的,它要求系统具备以下三个特征:有限:系统可以在处理器速度和存储空间方面以恒定的信息处理能力工作。实时:系统必须处理随时可能出现的问题,并且其解决方案的效用可能会随着时间的推移而降低。开放:系统必须面对任何内容的输入数据和问题,只要它们能够以系统可识别的格式表达。根据AIKR的结论,系统的行为并不是绝对最优的——对于给定的问题,如果系统拥有更多的知识和资源,通常可以做得更好。然而,AIKR并不建议任意的行动,而是建议采取适应性行动。未来可能与过去不同,但是当我们需要做出预测时,除了过去的经验之外,我们没有其他可以依赖的东西。当面对一个问题时,我们通常不能考虑所有的可能性,而是只考虑最重要和最相关的可能性,根据我们过去的经验进行判断,并且我们考虑尽可能多的可能性介绍 在当前资源供应允许的情况下。这种对“智能”的理解与一些认知科学家的观点是一致的。例如,皮亚杰(Piaget,1960)将智力视为“心理适应的最高度发展的形式”;Medin和Ross(1992)写道,“许多智能行为可以通过应对信息太少和可能性太多的策略来理解”;而上述的“相对理性”与西蒙的“有限理性”[Simon(1957)]类似。即便如此,在当前的人工智能研究中,很少有项目是针对这样的目标[RussellandNorvig(2010)],或者是在AIKR的限制下设计的。与其他替代方案相比,上述人工智能方法具有以下主要优点[Wang(2008)]:它给了“智能”一个连贯而紧凑的描述,从中隐含了所有具体的结论。无论是在科学还是工程领域,它都是一种首选的理论化形式。它不太以人类为中心。尽管人类智能确实是最著名的智能形式,但“人工智能”的概念假定了一个比“人类智能”更普遍的“智能”概念。因此,计算机系统即使在所有细节上与人类思维不相似,也可以被称为智能系统。它解释了为什么传统的计算机系统还不够智能。也就是说,虽然这样的系统在处理某些实际问题上可能具有显着的能力,但这种能力来自于它的设计,因此通常缺乏创造性和灵活性。它为人工智能领域赋予了适当的身份,而其他方法则存在将人工智能简化为现有科学和工程分支(例如神经科学、认知心理学、计算机科学或计算机技术)的风险。由于这些原因,我的研究目标是设计和构建一个能够在知识和资源不足的情况下适应其环境的计算机系统。该系统可能具有其他属性和应用,但它们是衍生的和次要的。由于上述研究目标与主流人工智能系统的目标不同,因此不应按照人工智能领域的通用标准,即系统解决实际问题的能力来评价本研究。这项研究并不是针对给定的系统 非公理逻辑:智能推理模型(特定领域)解决问题的技能,而是具有给定(元级别和通用)学习能力的系统,允许系统从其经验中获取各种解决问题的技能。 推理系统由于这项研究的目的是确定“思维规律”,因此在推理系统的框架内遵循形式逻辑来设计该系统是很自然的。毕竟,在一般意义上,逻辑是关于有效推理(或推理)的法则(或规则)。1在概念层面,推理系统由以下主要组成部分组成:语法规则:这些规则通过指定如何由单词和短语组成合法句子来定义系统中使用的表示语言的格式。推理规则:这些规则定义了每个推理步骤中有效推理的模式,其中从某些给定句子(作为前提)导出某些句子(作为结论)。语义理论:该理论详细说明了语言的单词和句子如何获得其含义,并解释了推理规则为何有效。内存结构:该结构负责系统推理过程中涉及的句子的存储和检索。控制机制:该机制负责推理过程中每一步的前提和推理规则的选择。通常,前三个组件被称为推理系统中实现的“逻辑”。目前,推理系统的研究以“数理逻辑”传统为主导,主要包括命题演算、谓词演算、模型论、集合论和计算论等。这一传统最初是为了为数学提供逻辑基础[Frege(1999);Whitehead和Russell(1910)],但它已广泛应用于数学以外的许多其他领域,包括认知科学[Allwood等人。(1977);Braine和O’Brien(1998)]和计算机科学[Halpern等人。(2001)]。创建人工智能作为推理系统1在本书中,推理和推理被视为同义词。介绍 tems并不是一个新思想,它在理论上得到了“逻辑主义人工智能”学派的推广[Hayes(1977);麦卡锡(1988);Nilsson(1991)],并通过各种“基于知识的系统”在实践中进行了探索[Lenat和Feigenbaum(1991)]。从一开始,我们就很清楚数理逻辑并不是被设计成人类推理的描述模型。然而,即使被视为规范模型,它仍然相当有限。在“经典”形式(即一阶谓词演算)中,这种类型的逻辑仅涵盖封闭(公理)系统中的二元演绎,尽管已经有许多尝试(在逻辑、人工智能和其他相关领域)来扩展或者修改它以获得具有某些属性的逻辑系统,这些属性由于各种原因被认为是必要的:不确定性:在自然语言中,一个陈述通常既不是绝对正确也不是绝对错误,而是介于两者之间。此外,由于智能系统应该能够比较不同的可能性,因此三值逻辑是不够的,通常需要某种类型的数值测量。针对这个问题提出的解决方案包括各种形式的概率逻辑[Nilsson(1986);Adams(1998)]和模糊逻辑[Zadeh(1983)]。开放性:在现实情况下,系统无法根据一组恒定的公理来评估陈述的真值,而必须依赖于假设,并对新的证据持开放态度。为了在这些情况下发挥作用,有必要按照“默认规则”进行推理,并在出现反证据时修改初步结论。这就是非单调逻辑试图处理的问题[McCarthy(1989);赖特(1987)]。放大:古典逻辑仅涵盖演绎,但还有归纳、溯因、类比和其他类型的推理,在人类思维中发挥着至关重要的作用。这些类型的推理通常被称为“放大的”,因为它们的结论似乎包括前提中不存在的知识。因此,它们并不是传统意义上的“维护真理”。这些类型的推理的有效性一直是一个有争议的话题,并且已经提出了许多不同的解决方案,包括各种形式的归纳逻辑[Kyburg(1970);弗拉赫和卡卡斯(2000)]。相关性:经典逻辑饱受臭名昭著的“实质蕴涵悖论”的困扰——逻辑中定义的“蕴涵”与“如果——那么”的直观含义不符,导致了各种不同的结果。 非公理逻辑:智能推理模型“逻辑上正确”但直觉上有问题的推论,其中前提和结论在内容上不相关。这个问题引发了相关逻辑的发展[AndersonandBelnap(1975)]。这个问题对于人工智能来说也很重要,因为没有系统能够提供资源来生成许多“真实但无用”的结论。在逻辑和人工智能中,上述问题通常是分开解决的,新的逻辑通常是通过扩展或修改经典逻辑的单个方面而构建的,同时保持其他方面不变[Haack(1996);加贝(2007);拉塞尔和诺维格(2010)]。尽管每种非经典逻辑都有其适用的情况,并且可以用来解决一些实际问题,但它们都不足以支持通用的推理系统。此外,将这些非经典逻辑“整合”成一个连贯的逻辑看起来不太可信,因为它们基于完全不同的假设。我的方法与众不同之处在于相信上述问题在更深层次上有共同的根源。在设计或选择推理系统时,可以区分两类情况:理想化,系统对于要解决的问题拥有足够的知识和资源。所有需要的知识从一开始就可供系统使用,并保证正确性和一致性,并且它们隐含了所有需要的结论。系统有足够的处理时间和存储空间来进行推理活动,因此资源消耗可以忽略不计。现实的,系统对于要解决的问题没有足够的知识和资源。知识会不时地进入系统,但无法保证正确性和一致性。新问题随时可能出现,需要响应时间。问题的解决通常需要系统目前无法获得的知识,并且系统不能不经过尝试就简单地拒绝该问题。在解决给定问题时,系统通常无法提供时空资源来考虑所有可能性。不难认识到,经典逻辑是为在这种理想化情况下进行推理而设计的,而人类思维和许多(如果不是全部)人工智能系统需要在这种现实情况下工作。即便如此,传统观点仍然认为必须为理想化的情况设计一个“逻辑”。什么时候介绍 推理活动必须在现实情境中进行,尽可能接近理想化情境。我一直主张这样的观点,这两类情况需要两种逻辑:公理逻辑适用于理想化的情况。初始知识被表示为公理,问题的所有解决方案都是由演绎得出的定理提供的。由于所有推理规则都是保真的,因此定理的真实性由公理的真实性保证。非公理逻辑适用于现实情况。由于所有知识都可能受到新证据的挑战,因此系统中不存在保证真理的公理。由于问题可能超出系统当前的知识范围,因此放大推理变得必要,尽管它不具有传统的有效性。由于计算资源短缺,结论可能不是基于系统中的所有相关知识,而是仅基于其中的一部分。从这个描述中可以看出,这两种逻辑是根本不同的,我们不能用一种逻辑来近似另一种逻辑。正如Wang(2006b)所分析的,基于逻辑的人工智能中的问题不是由“推理”、“逻辑”或“形式化”等概念引起的,而是由人工智能中使用的逻辑和推理系统的类型引起的。特别是,问题的根源在于“公理化”的概念。虽然这样的推理系统在数学中受到青睐,但对于人工智能来说却是不合适的,因为它违反了之前引入的AIKR。对于人工智能来说,需要的是一个能够适应环境、在知识和资源不足的情况下工作的推理系统。这样的系统仍然是一个“推理系统”,因为它由上面列出的相同的五个主要组成部分组成;然而,它不是“公理化的”,因为系统中的任何信念都不能被视为公理或定理。相反,它们只是过去经验的总结,可以通过未来的经验或进一步的审议进行修改。同样,推理规则的“有效”也不是“从真理中推导出真理”,而是“忠实地总结经验”。正是在这个意义上,本书要介绍的推理系统及其逻辑被称为“非公理化”。这样的系统仍然可以具有系统本身无法修改的固定语法和推理规则,但它们不是系统信念中的公理,因为它们处于系统的元级别, 非公理逻辑:智能推理模型而信念是在对象层面上的。 NAL概述现在这本书的目标可以明确地指定为:定义一个名为NAL的逻辑,NAL是Non-AxiomaticLogic的缩写。NAL是一种逻辑,因为它包括一组指定系统表示语言的符号语法规则、一组指定系统推理能力的符号推理规则以及包含“意义”定义的语义理论(以解释表示语言)和“真理”(以证明推理规则的有效性)。NAL是“非公理化的”,因为它是基于AIKR的,因此系统中结论的真值并不表明该句子与世界的“事态”有多一致,或者与一组恒定的假设(公理),但它在多大程度上受到系统过去经验提供的证据的支持。因此,其表示语言中的任何句子都不能被视为具有永远不会受到未来经验挑战的真值的“公理”(或“定理”)。同样,表征语言中的单词含义并不表示世界上的“对象”,而是表示系统经验中的稳定模式。此外,推理规则是有效的,不是因为它们的结论保证与未来的经验一致,而是因为它们正确地总结了过去的经验,因此可以通过自适应系统用来预测未来,即使比较时预测可能是错误的以及未来的经验。对于推理系统使用这样的逻辑,规则需要是编码,系统还需要一个内存控制部分。NARS就是这样一个非公理推理系统,Wang(1995,2006b)和许多其他出版物都对其不同的发展阶段进行了描述。由于本书重点关注NAL,因此仅在必要时简要提及NARS的其他组件和方面。NARS的表征语言称为“Narsese”,它既起到NARS内部表征的作用,又起到对外沟通的作用。也就是说,该语言用于表示系统内的信念和任务,以及与外界的其他(计算机或人类)系统交换知识和问题。将Narsese与NARS项目中使用的其他两种语言区分开来非常重要。据,直到.为止介绍 NARS被认为是一个推理系统,Narsese处于对象级别,用于表示系统关于其环境和自身的知识。当我们在本书中谈论NARS和NAL的设计时,语言(本书的英文)处于元级别,用于表示我们关于系统的知识。最后,当NARS在计算机系统中实现时,它是用编程语言(目前是Java和Prolog)进行编码的。这三种类型的语言具有不同的属性,并且互不包含另一种语言的子集。为了提供对系统更准确的描述,NAL的元级描述还使用了其他形式理论,包括集合论、一阶谓词逻辑、形式语言理论等,但再次强调,这些理论是组成部分我们关于NARS的知识,而不是NARS知识的一部分。下面将在多个“层”中引入NAL,每一层都扩展“下”层的语法和推理规则集,以增加系统的表达和推理能力,从而使系统比较聪明。系统层数越多,语义理论和记忆控制部分也变得越复杂。由于当前设计包括9层,因此在接下来的章节中,相应的逻辑将分别命名为NAL-1至NAL-9。此外,有一章提供简介,另一章提供摘要。鉴于这种安排,各章应按给定的顺序阅读。 非公理逻辑:智能推理模型第2章IL-1:理想情况由于现有的逻辑系统大多是为公理系统设计的,因此在AIKR上建立NAL并不是一件容易的事。我们将在下文中看到,经典逻辑的主要组成部分都不能以其当前形式被NAL接受。为了简化NAL的设计和分析,我们从理想化的情况开始,AIKR可以暂时忽略。在本章中,我们介绍继承逻辑,或IL[Wang(1994b)]。IL是NAL的理想化版本,从某种意义上说,它在语法、语义和推理规则上与NAL相似,尽管它假设有足够的知识和资源。因此IL不是一种“非公理化”逻辑,而是构建这种逻辑的一个步骤。与NAL一样,IL也是分层构建的。对于每一层i(1≤i≤9),首先定义相应的IL-i,然后引入知识和资源不足的影响,将IL-i转化为NAL-i。本章定义了IL-1,最简单的继承逻辑。1在逻辑史上,有两大传统:以亚里士多德(1882)和索默斯(1982)为代表的“术语逻辑”传统,以及以弗雷格(1999)和怀特海和罗素(1910)为代表的“谓词逻辑”传统..虽然目前后者是主导范式,但NAL和IL属于前者。这一重要决定的原因将在后续章节中逐步解释。分类语言谓词逻辑中最简单的句子具有“谓词-参数”格式,例如P(a1,...,an),其中P是谓词符号,而每个ai(1≤i≤n)是谓词的参数。相反,1IL-1在Wang(1994b)中被称为“IL”,在Wang(2006b)中被称为“NAL-0”。 非公理逻辑:智能推理模型术语逻辑中最简单的句子具有“主语-系词-谓语”格式,通常称为“分类句子”,由此类句子组成的语言称为“分类语言”。由于术语逻辑使用这种类型的语言,因此有时称为“分类逻辑”[Smith(2012)]。Narsese是一种分类语言,IL使用它的一个版本。语言的最小组成部分是“术语”,其最简单的形式是:是逻辑中使用的标识符。2定义2.1。术语的基本形式是单词,即有限字母表中的一串字符。对字母表没有额外要求。在本文档中,字母表包括英文字母、数字0到9以及一些特殊符号,例如连字符(“-”)。在本书的例子中,我们经常使用常见的英语名词来表示术语,例如bird和animal,只是为了使例子​​易于理解。用不同的自然语言(例如中文)做同样的事情是没有问题的。另一方面,使用对人类无意义的术语也可以,例如drib和aminal。定义2.2。语句的基本形式是继承语句,“S→P”,其中S是主项,P是谓项,'→'是继承系词,定义为来自一个项的自反和及物关系到另一个术语。从图形上看,继承语句可以表示为由有向边连接的两个顶点。它的方向纯粹是常规的,尽管通常被认为是从主语到谓语。“S→P”的直观含义是“S是P的特例”或“P是S”的一般情况。例如,“鸟是一种动物”可以用Narsese表示为鸟→动物。现在我们开始看到IL(术语逻辑)和谓词逻辑(如FOPL(一阶谓词逻辑))之间的区别。同一示例通常在FOPL中表示为命题(∀x)(鸟(x)=⇒动物(x))其中谓词Bird和Animal都以变量x为参数,‘=⇒’是命题逻辑中定义的蕴涵运算符。32在NARS中,(正常)术语是概念的名称。参见[Wang(2006b)]。3在本书中,我们使用短单箭头“→”表示NAL中的继承关系,使用长双箭头“=⇒”表示FOPL中的蕴涵关系。它们在含义上是相关的,但不应相互混淆。IL-1:理想情况 IL语句和FOPL命题具有相似的含义,它们基于不同的本体论假设。FOPL描述具有属性和关系(由谓词表示)的对象(由参数表示),而IL描述泛化层次结构(由继承建立)内的类别(由术语表示)。这种差异的一个结果是,在FOPL中,“谓词”和“论元”是不相交的集合,而在IL(和NAL)中,“主项”和“谓项项”是相对于某个陈述而言相对定义的,即认为一个陈述的主语项(如“鸟→动物”中的“鸟”)可以是另一个陈述的谓语项(如“鸽子→鸟”),这也是其他术语逻辑的情况也是如此,例如亚里士多德的三段论。因此,FOPL中的“谓词符号”和IL中的“谓词项”虽然直观上相关,但并不相同。我们还可以将IL与集合论进行比较,上面的例子可以表示为“Bird⊆Animal”,其中Bird和Animal是集合。由于子集关系既具有自反性又具有传递性,因此它就像继承关系一样。这里的区别在于继承是在两个术语之间定义的,这两个术语通常不是集合。例如,“水是一种液体”可以类似地表示为“水→液体”,尽管这两个术语不能自然地被视为集合。稍后将介绍term和set之间的更多差异。IL-1中使用的表示语言包含作为句子的继承语句,如表2.1中的语法规则所定义。本书中的所有语法规则均使用附录A中指定的巴科斯诺尔范式(BNF)的变体来表示。表2.1IL-1的语法规则(声明)::=(术语)(系词)(术语)(系词)::=→ (术语)::=(单词) 基于经验的语义IL-1的语义理论定义了语句的真值以及术语的含义。定义2.3。IL中语句的真值要么为真,要么为假。 非公理逻辑:智能推理模型因此,IL是一种二进制逻辑,就像大多数现有的逻辑系统一样。从相关定义可以证明一些定理,如关于IL的结论。4本书定理的证明收集在附录D中。以下定理直接来自于继承系词的自反性和及物性。定理2.1。对于任何项X,陈述“X→X”为真。按照逻辑传统,这样的陈述被称为同义反复。定理2.2。对于任何项X、Y和Z,如果“X→Y”和“Y→Z”都为真,则“X→Z”也为真。将IL语句视为命题,上述定理可以用FOPL表示为(∀x)继承(x,x)(∀x)(∀y)(∀z)((继承(x,y)∧继承(y,z))=⇒继承(x,z))继承关系既不是对称的,也不是反对称的。那也就是说,对于不同的X和Y,单独给出“X→Y”,无法确定“Y→X”的真值。推理过程需要从一些初始知识开始。在IL中,系统的初始知识被定义为其“理想体验”。定义2.4。对于实现IL-1的推理系统,其理想体验K是IL-1中的非空且有限的语句集,其中不包含任何同义反复。例如,K可以是{知更鸟→鸟,鸟→动物,水→液体}。定义2.5。给定理想经验K,系统的知识K∗是K的传递闭包,不包括任何同义反复。因此,K∗也是IL-1中的非空有限句子集,它包括K,以及根据继承关系的及物性从K推导出来的句子。例如,给定上述K,K∗={知更鸟→鸟,鸟→动物,知更鸟→动物,水→液体}。从图形上看,K和K∗都可以表示为有向图,其中术语作为顶点,语句作为边。4由于NAL是非公理化的,因此Narsese句子中没有“定理”,但其理想版本IL仍然是二元和公理化的。我们可以在IL中证明定理,但不能在NAL中证明。IL-1:理想情况 定义2.6。给定理想经验K,如果某个陈述在K∗中,则其真值为真,否则为同义反复,否则为假。因此IL-1可以代表两种类型的真实陈述:分别是经验的和字面的,或者综合的和分析的。前者是“根据经验为真”,后者是“根据定义为真”。文献中经常做出类似的区分[Haack(1978)]。这两个类别中的语句没有重叠,因为K∗不包含同义反复。当X和Y是不同的术语时,“X→Y”是IL-1语言中的一个陈述,但“X→Y为真”和“X→Y为假”则不是——它们是元语言中的句子。IL-1的语言。这些句子可能是要么是积极的(关于什么是正确的),要么是消极的(关于什么是错误的)。在IL-1中,否定句被隐含地表示:它们是未知的陈述。它们不是由IL-1中的语句表示,而是由其元语言中的句子表示。通过这种方式,IL-1通过将“未知”视为“错误”来接受“封闭世界假设”[Russell和Norvig(2010)]。因此,在IL-1中,经验陈述的真值是根据给定的经验决定的,而给定的经验本身就是一组经验陈述。术语的含义也类似地确定,如下所述。定义2.7。给定理想经验K,令K中出现的所有术语的集合为系统的词汇表VK。当K表示为图时,VK是其顶点的集合。对于前面的K,VK={知更鸟,鸟,动物,水,液体}。定义2.8。给定理想经验K,项T的外延是项集TE={x|(x∈VK∧(x→T)}。T的内涵是项集TI={x|(x∈VK∧(T→x)}。显然,TE和TI都是相对于K确定的,因此它们应该写为TE和TI。下面,更简单的概念是月份使用,隐式假定经验K。直观上,VK中一项的外延包含其已知的特化(加上它本身);术语的内涵包含其已知的概括(加上它本身)。当系统的知识被表示为图时,术语的外延由其传入边缘给出,内涵由其传出边缘给出。 非公理逻辑:智能推理模型上述定义与当前大多数逻辑文献中这两个词的常见用法不同,其中术语的“外延”被视为该术语所表示的具体实例的集合,而其“内涵”为该术语所隐含的抽象属性。在逻辑史上,“外延”和“内涵”被赋予了不同的定义,但直观的含义仍然存在,即它们分别代表“实例”和“属性”[Stebbing(1950)]。在IL(和NAL)中,保留了上述直观属性,尽管这些概念不被假定为与语言之外的东西有关,而是与语言之内的东西有关。稍后将解释这种差异的重要性。由于IL中“外延”和“内涵”的定义是对称的,因此对于其中一个的任何结果,另一个都存在对偶结果。系统知识中的每一个陈述都揭示了主项的部分内涵和谓项的部分外延。定理2.3。对于任何项TÎVK,TÎ(TE∩TI)。如果T不在VK中,TE=TI={}.这里的{}是空集,有时写成∅。因此,当且仅当该术语出现在系统的经验中时,该术语的外延和内涵才不是空的。定义2.9。给定经验K,术语T的含义包括TE和TI因此,根据系统的经验,术语的含义是它与其他术语的关系。如果术语T从未进入系统的经验,那么它对系统来说是“无意义的”,否则它是“有意义的”。一个术语的外延和内涵越大,它的含义就越“丰富”。5对于上面的例子,只有五个对系统有意义的术语,其含义如下:学期 扩大 内涵知更鸟 {罗宾} {知更鸟、鸟、动物}鸟 {鸟,知更鸟} {鸟、动物}动物 {动物、知更鸟、鸟} {动物}水 {水} {水、液体} 液体 {水、液体} {液体}5NARS的推理控制机制将考虑术语命名的概念的丰富性。IL-1:理想情况 根据上述定义,一个术语的含义是通过它与其他术语的关系来定义的,而不是简化为其他术语的含义,因此这种做法不应被视为给出循环定义。此外,这些关系来自系统的经验,这是系统与其环境之间唯一可感知的信息交换,因此这种做法不应被视为“字典循环”[Harnad(1990)]。6定理2.4。如果S和P都在VK中,则(S→P)⇐⇒(SE⊆PE)⇐⇒(PI⊆SI)这里“⇐⇒”是命题逻辑中的“等价”(“当且仅当”)连接词。上述定理表明,存在从S到P的继承关系,当且仅当S的外延被P继承,并且等价地,P的内涵被S继承。这就是为什么系词被命名为“继承””。如果“S→P”为假,则意味着继承不完整-(SE−PE)或(PI−SI)不为空。然而,这并不意味着S和P没有外延或内涵。定理2.5。(SE=PE)⇐⇒(SI=PI)。这意味着在IL-1中具有相同扩展名的术语具有相同的内涵,反之亦然。因此,一个术语的外延和内涵是相互决定的,两者之一唯一决定一个术语的含义。这个结果部分解释了为什么在像IL这样的二进制逻辑中,通常单独处理扩展就足够了。然而,在NAL中情况并非如此,我们将在接下来的章节中看到。总之,IL-1具有“基于经验的语义”,即EGS,因为其陈述的真值及其术语的含义均由系统的经验决定,除了一些琐碎的情况(例如分析陈述和无意义的术语)。EGS类似于“证明理论语义”和“推理语义”[Peregrin(2010)]等方法,但与目前大多数逻辑系统使用的“模型理论语义”(MTS)有根本不同。时间。MTS假设存在一个“模型”,由具有元语言描述的属性和关系的实体组成,以及映射术语和陈述(或6在接下来的章节中,我们将看到如何扩展这个定义以包括其他内容,例如感觉运动机制提供的内容。 非公理逻辑:智能推理模型称它们为其他名称)到实体、属性和关系上。然后,术语的含义是它映射到的实体,并且语句的真值指示它是否映射到模型中的现有关系[BarwiseandEtchemendy(1989)]。这两种类型的语义之间的详细比较可以在Wang(2005)中找到,这里只要记住,在IL(和NAL)中,术语要获得意义,语句要获得真值,所需要的是经验,而不是解释。其他相关问题稍后将逐步解决。三段论推理规则IL-1有一个从经验中导出知识的单一推理规则,并由继承系动词的传递性证明是合理的。从概念的常识来看,这是一种特殊类型的“演绎”。该规则如表2.2所示,其中前提分别是从M到P和从S到M的继承语句。可导出的结论是从S到P的继承语句。表2.2IL-1的推理规则前提1 前提2 结论M→ S→ S→ 表2.2中的推理规则也可以写为:{M→P,S→M}f--S→这一规则是“三段论的”,即两个前提共享一个共同术语,并且该规则在其他两个术语之间得出结论。这里的“三段论”一词是广义的,亚里士多德的三段论[Aristotle(1882)]是一个特例。三段论推理规则的使用是区分术语逻辑与谓词逻辑的另一个特征,因此术语逻辑被称为“三段论逻辑”[Smith(2012)]。谓词逻辑中的推理规则不是三段论的,因为它们的前提不是分类句子,并且不要求前提包含公共术语。虽然可以将IL的继承系动词表示为FOPL中的谓词名称,但该谓词并不能被FOPL的推理规则直接识别和处理,FOPL的推理规则是“仅真值函数”,即依赖于该处所、而不是它们概念关系的本质。IL-1:理想情况 在IL(和NAL)中,推理通常被视为一个术语“用作”或“被”另一个术语“替代”的过程。例如,表2.2中的规则规定,对于给定的继承语句,主语术语可以用其外延中的另一个术语来代替,谓语术语可以用其内涵中的另一个术语来代替。这样的术语(概念)替代自然地对应于人类认知中观察到的概念层次结构,并且被一些研究人员认为在智力和认知中发挥着核心作用[Hofstadter(1995)]。IL中的三段论规则还具有所需的属性,即在每个推理步骤中,两个前提在语义上相关,结论和每个前提也是如此,由共享项保证。相反,命题逻辑和谓词逻辑中没有这样的要求,这就是“实质蕴涵悖论”的根源——如果P为假或Q为真,“P=⇒Q”为真,即使当两个在语义上是不相关的。人们提出了各种“相关性逻辑”来解决这个问题[阅读(1989)],尽管它们几乎都在命题和谓词逻辑中框架。很少有人注意到,这样的悖论并没有出现在三段论逻辑中。虽然IL-1中的推理规则与FOPL的推理规则相比非常简单,但是IL(和NAL)中的所有推理规则(将在后续章节中介绍)都要求前提之间存在语义相关性,并保证语义上的相关性。每个结论与产生该结论的承诺之间的相关性。给定理想经验K,可以通过在每个可能的前提对上重复应用上述规则来产生知识K∗。该规则仅直接得出肯定的结论,因为从肯定的知识“S→M是真”,而否定知识“M→P是假”,“S→P”的真值无法确定——它可以是真,也可以是假。反而,消极的结论是隐含地得出的,就像无法证明是真实的陈述一样。除了衍生新知识之外,IL-1还具有匹配规则,可以根据现有知识回答问题。定义2.10。对于不同的项S和P,知识“S→P”是对具有以下三种形式之一的任何问题的答案:(1)“S→P?”,(2)“S→?”,和(3)“?→P”,其中最后两个中的‘?’是要实例化的“查询变量”。如果在K∗中找不到这样的答案,则回答“否”。第一种形式的问题要求对给定的陈述进行评估, 非公理逻辑:智能推理模型而另外两个则要求选择一个术语来表示与另一个术语的给定关系。如果(2)和(3)有多个答案,则它们被认为是同样好的。同义反复“X→X”对于这样的问题来说是一个微不足道的答案,所以它是不允许的。匹配规则如表2.3所示。表2.3IL-1的匹配规则知识 匹配问题 S→ S→P?S→??→ 与否定知识类似,在IL-1中,问题并不表示为目标语言中的句子,而仅表示为元语言。此外,IL-1不接受问题“什么不是T?”,因为VK之外的任意项都可以用来回答这样的问题。很容易证明IL-1保证了推理系统所需的几个属性,包括一致性、健全性、完整性和可判定性。第3章NAL-1:基本语法和语义IL-1包括NAL主要组成部分的最简单形式:分类语言、基于经验的语义和三段论规则。然而,这些成分是在有足够知识和资源的假设下在IL-1中定义的。在IL中假设所有对象级知识都被概括为系统的理想化经验K,该经验K在一开始就赋予系统并保持不变;系统有时间和空间资源生成K∗,即K的传递闭包;系统可以通过在K∗中搜索匹配的语句来回答所有问题。NAL-1是最简单的非公理逻辑。它将IL-1中定义的组件移至新的基础上,即AIKR下。因此,上述三个假设都不再成立,并且需要对组件进行相应修改。NAL-1分两章描述。本章涵盖了它的语言和语义,并将推理规则留给下一章。证据及其衡量IL-1仍然是公理逻辑,以理想经验K为“公理”,导出知识K∗−K为“定理”,忽略资源限制。每一条知识都是从一个术语到另一个术语的继承陈述,它是“完美的”,因为不存在也不会存在任何反证来证明两个术语之间的关系。一旦AIKR被接受,声明和声明之间的关系 非公理逻辑:智能推理模型经验不再能够被二元真值正确地捕获。由于系统必须接受新问题,因此它不能只记住过去经验中的陈述或仅得出演绎结论。相反,它必须概括和总结经验陈述,以便有效地将它们应用于新情况。在这个过程中,它不能简单地拒绝波普尔(1959)提出的有反证据的结论,因为合理的、启发式的和统计的知识都具有巨大的适应价值。毕竟,该系统的最终目标不是“描述世界本来的样子”,而是“尽可能地实现其目标”。在现实世界中,仅仅遵循绝对正确的知识,我们几乎无法做任何事情。如果真值是定性的而不是定量的,那么不仅二元真值还不够,甚至多值逻辑也可能不足以适应。由于系统对意外的未来事件开放,许多预测“可能是正确的”,如果它们的真值仅告诉系统这一点,那么在竞争答案中进行选择就不存在任何通用规则。“适应性”意味着系统应该能够定量比较不同的预测,看看每个预测在多大程度上得到了现有证据的支持。因此,设计NAL-1的首要任务是根据系统的经验来定义和衡量陈述的证据。这里的“证据”直观地指的是有助于陈述真值的信息,尽管它不能一劳永逸地决定真值,但在AIKR下——系统不能立即拥有所有相关信息,也不能一次性获得所有相关信息。它提供了考虑所有可用信息的资源。在IL-1中,语句“S→P”的(二进制)真值是确定的通过该语句是否包含在系统的经验K中或可以从系统的经验K中导出来挖掘。现在我们希望这种继承关系“在某种程度上是真实的”,但这到底意味着什么呢?由定理2.4可知,继承语句“S→P”等价于子集关系“SE⊆PE”和“PI⊆SI”,因此当前者变为程度问题,后者也是如此,反之亦然。将子集关系从二元扩展为分级,区分正证据和反证据并不难:如果A和B是集合,对于子集关系“A⊆B”,集合(A∩B)中的元素是正的证据和要素集合(A−B)是反面证据。这里‘∩’和‘−’是交集和集合的差,分别如集合论中的定义。定义3.1。对于继承语句“S→P”,其证据为NAL-1:基本语法和语义 其证据范围中的术语SE和PI。其中,(SE∩PE)和(PI∩SI)中的项是正证据,(SE−PE)和(P(I−SI)是反面证据。也就是说,就正证中的一项而言,继承陈述是正确的;就反证中的一项用语而言,继承陈述是不正确的。例如,为了确定“鸟→动物”这一说法在多大程度上是正确的,我们可以检查鸟的实例和动物的属性。如果一个(已知的)鸟类实例,比如知更鸟,也已知是一个动物实例,那么它就是“鸟→动物”的正证据,否则就是负证据。类似地,如果动物的(已知)属性,例如有机体,也已知是鸟类的属性,则它是“鸟→动物”的肯定证据,否则它是否定证据。在这个阶段,系统的体验仍然被定义为包含二进制语句(如IL-1中)。从这些结论中得出的结论具有由经验提供的积极和消极的证据。对于每一个陈述,如果我们只需要定性区分“所有证据都是肯定的”、“所有证据都是否定的”、“一些证据是肯定的”、“一些证据是否定的”等情况,并注重外延,我们可以得到IL-1的扩展,它在功能上等同于亚里士多德的逻辑[Aristotle(1882)],如Wang(1994b)所示。然而,如前所述,为了人工智能的目的,需要进行定量测量。由于证据是由集合定义的,因此其“数量”自然可以通过相应集合的大小(即“基数”)来衡量。定义3.2。对于陈述“S→P”,正面证据、负面证据和总证据的数量分别为:w+=|SE∩PE|+|PI∩SI|w−=|SE−PE|+|PI−SI|w=w+=|SE|+|PI|这里做出的一个重要的设计决策是不区分上述测量中的“外延”因素和“内延”因素。正如Wang(2006b)所指出的,通常不可能清楚地区分这两个因素,或者有必要将它们混合在一起。人类通常使用外延信息来做出内涵判断,反之亦然。为了 非公理逻辑:智能推理模型例如,“代表性”(内涵性)经常被用作“概率”(通常用作外延性)[TverskyandKahneman(1974)],这种做法在Wang(1996a,2006b)中得到了辩护。(1NAL在术语逻辑框架内设计的一个主要原因是引入“证据”概念的相对自然性[Wang(2009d)]。对于FOPL中P(a1,.,an)形式的命题,很难说出什么应该被算作它的正证据或反证据。Wang(2009d)详细讨论了NAL中证据的形式化,以及该方法与其他一些方法之间的比较。二维真值原则上,一个陈述的证据支持可以通过上面介绍的三个量中的任意两个来衡量:w+、w−和w,每个量都是非负整数,范围可以是扩展到[0,∞)中的实数以包含部分证据。即便如此,当比较相互竞争的信念并得出新的结论时,在某些情况下,相对测量通常优于绝对测量,因为前提的证据通常不能直接用作结论的证据。此外,对于测量来说,从有限范围内取值通常更方便,而证据的数量没有上限。最后,希望使用传统上表示为0、1的二进制真值作为连续真值的极限。这些考虑导致了NAL中真值的以下定义。定义3.3。语句的真值由[0,1]中的一对实数组成。两者之一称为频率,定义为f=w+/w;另一个称为置信度,定义为c=w/(w+k),其中k是正常数,是“证据范围”的系统参数。在这个定义中,频率是指所有证据中阳性证据的比例(即百分比),这是日常生活中最常用的不确定性衡量标准。它与概率论和统计学中定义的概率密切相关[Dekkingetal.(2007)]。在NAL的上下文中,我们可以将每个语句S与事件ES相关联,该事件ES1必要时,仍然可以在NAL中分别表示和处理外延证据和内涵证据。该方法将在NAL-6中介绍,并在第10章中介绍。NAL-1:基本语法和语义 声明一经核实即被确认。这样,对应的概率P(ES)=limw→∞(w+/w),即某个语句的出现频率会收敛到对应事件的概率,如果后者ex-主义者。然而,在AIKR下,系统不知道给定的频率是否有限制,更不用说限制在哪里。因此,一般来说,NAL中的频率不应被视为概率,甚至也不应被视为其估计或近似值。由于频率是由系统经验中的证据数量定义的,因此它会随着经验的及时展开而变化。因此,频率作为不确定性的度量,本身就是不确定的。频率内的不确定性是由负面证据引起的,而频率的不确定性则是由未来的证据引起的。第二个测量,置信度,是为后者引入的。这里的问题是,如果将有限数量的过去证据与无限数量的未来证据进行比较,则比率将为零。另一方面,通过为系统设定固定的寿命来限制未来听起来很武断。NAL中使用的解决方案是将过去的证据与由恒定证据范围定义的不久的将来的证据进行比较。由于在相互竞争的结论中使用相同的证据范围,因此有更多证据支持的结论将具有更高的置信度值,这与“置信度”一词的日常用法一致,尽管这个定义使得测量结果与统计学中“置信区间”的定义完全不同[Dekkingetal.(2007)]。这个证据范围k是系统的“个性参数”,从某种意义上说,尽管它在系统中是一个常数,但在不同的基于NAL的系统中它可以采用不同的值,并且通常很难(如果不是不可能)找到最佳值。一个自然的选择是k=1,这意味着将现有证据与单位数量的新证据进行比较。该参数值将在本书给出的示例中使用。该参数对系统的影响将在本书后面讨论。NAL需要一个“二维”真值,因为这两个值代表不同类型的不确定性。直观地说,频度表示系统对某个陈述的相信程度,可以是不同程度的“相信”或“不相信”,而置信度则表示这种相信程度有多强或稳定,即系统对某个陈述的容易接受程度。系统改变对此事的看法。置信度值越高,并不意味着出现的频率越接近“客观概率”,而是表明出现的频率越接近“客观概率”。很难被新证据改变。NAL需要考虑未来的证据,正是因为AIKR。 非公理逻辑:智能推理模型尽管在概率论和统计学中也分析了类似的问题,但通常的假设是(1)系统同时可以获得所有相关证据,(2)当出现以下情况时,系统可以有时间考虑所有这些证据:评估陈述的确定性。因此,没有必要指出每个单独陈述背后的证据数量。相反,在NAL中,这两种假设都不能成立,而且每一种说法都有自己的证据基础,所以需要一一衡量。如上定义,一个陈述的频率值和置信度值是相互独立的,在某种意义上,给定一个值,另一个值无法确定,甚至是有界的,除了频率为当且仅当置信度为零时未定义。尽管置信度与频率的稳定性有关,因此比后者处于更高阶,但不应将其视为“高阶概率”。在AIKR下,频率既不是概率,也不是随机变量。当考虑新的证据时,陈述的频率可能会改变它的值,尽管它的可能值不一定遵循固定的概率分布。此外,当置信度接近其最小值时,并不意味着当前频率值不可能,而是系统实际上对此事知之甚少,根本无法发表意见。置信度的定义是NAL最独特的特征之一。有关它的更详细的讨论以及与其他方法的比较,请参阅[Wang(2001b)]。模糊逻辑还将范畴关系和真值视为程度问题[Zadeh(1965,1975)]。尽管它具有与NAL类似的直觉和动机,但模糊逻辑并没有将其“会员等级”定义为可用证据的函数,也没有指定如何更改等级。在NAL中,模糊性通常来自术语内涵的多样性。例如,“企鹅是鸟类”在某种程度上是正确的,因为企鹅并不具有鸟类的所有共同属性,而只是其中的一部分。另一方面,随机性通常来自术语外延的多样性。例如,“鸟儿会飞”在某种程度上是正确的,因为有些鸟会飞,有些则不会。这两类不确定性在NAL中统一表示和处理。有关模糊逻辑和NAL之间更详细的比较,请参见Wang(1996b)。NAL-1:基本语法和语义 不确定性的表示除了大量证据和真值之外,陈述的不确定性还可以通过其他几种方式来表示。在固定的证据范围内(即,直到新证据的数量达到常数k),某个陈述的频率值将被限制在一个区间内。定义3.4。一个陈述的频率区间[l,u]包含了该陈述从当前时刻到新证据数量为k的时刻的频率值。间隔的两个端点分别称为较低频率和较高频率。较低频率l等于w+/(w+k),较高频率u等于(w++k)/(w+k)。之所以如此,是因为当前的证据量为w,其中正证据量为w+。对于数量为k的新证据,如果是纯正的,则新的频率为(w++k)/(w+k);如果是纯负数,则新频率将为w+/(w+k);而所有其他情况都将在这两个极值之间。这个频率区间不是频率的下限/上限,只能在无限的未来才能获得,而该区间只适用于近期。如前所述,频率不一定收敛到极限。即使有,限制也不一定在之前每个时刻的频率间隔内。无论给定时刻的频率值在(0,1)中的哪个位置,只要有适当的未来证据,在未指定的时间段之后它都可以位于该范围内的任何位置。当频率值精度有限时,上述结论也适用于[0,1]范围。用于频率间隔和其他不确定性“间隔”测量之间的详细比较,例如Dempster-Shafer理论[Dempster(1967);Shafer(1976)]和Walley的不精确概率理论[Walley(1991)],参见[Wang(1994a,2001b,2009d)]。定义3.5。陈述的无知程度是通过频率间隔的宽度来衡量的,即i=u−l。这里的“无知”不是关于频率的“真实价值”,而是关于不久的将来“它会在哪里”。对于一个陈述来说,它的置信度和无知度是相辅相成的,即c+i=1。这个结果与这两个词的日常用法是一致的。不确定性的区间表示也提供了上述“连续表示”与某些“离散表示”之间的映射。 非公理逻辑:智能推理模型不确定性的“感觉”,因为“离散”对应于在一定范围内改变值的意愿。如果在某种情况下,只有N个词可以用来指定陈述的不确定性,并且不确定性可以以相同的机会出现在[0,1]中的任何位置,那么最能提供信息的沟通方式就是将[均分0,1]范围分为N个区间:[0,1/N]、(1/N,2/N]、...、((N-1)/N,1],并为每个区间使用标签部分。2例如,如果我们必须使用三个标签(例如“错误”、“不确定”和“正确”)来粗略地表示陈述的正确性,它们可以映射为[0,1/3],(1/分别为(3,2/3]和(2/3,1]。由于区间宽度为1/N,因此N越大,无知度越小(置信度越高)。另一方面,区分N个不同的在这种情况下,证据的数量至少应为w=N−1(因此w+,如果限制为整数,则有从0到N−1的N个可能值),这导致对这些情况的频率间隔分配相同(k=1)。这种方法的一种变体是使用单个数字及其准确性来表示不确定性。例如,如果一个陈述的不确定性由单个数字0.6表示,它将被映射到频率区间[0.55,0.65),而另一个不确定性为0.60的陈述将被映射到[0.595,0.605)。这两种说法的频率相似,但置信度却截然不同。这里,较高的准确度对应于较低的无知(因此较高的置信度)。总之,NAL使用三种功能等效的表示来表示陈述的不确定性(或置信度):证据量:{w+,w},其中0≤w+≤w,或使用w−=w−w+替换两者之一;真值:(f,c),其中f和c均为[0,1]中的实数,且相互独立;频率区间:[l,u],其中0≤l≤u≤1,或用i=u−l代替两者之一。最后一个有变体,其中单个标签(来自给定的标签序列)或数字(准确)被视为间隔。必要时,这些表示可以混合使用。正如Wang(2006b)中所讨论的,允许多种表示2当数值连续时,其左侧区间或右侧区间是否包含边界值并不重要,只要遵循一致的约定即可。例如,我们可以将上述区间分别改为频率区间[0,1/N)、[1/N,2/N)、...、[(N-1)/N,1]。NAL-1:基本语法和语义 不确定性使得设计和使用变得更加容易。这一点在接下来的章节中将会变得更加清晰。在所有可能的测量值中,有NAL中实际发生的正常情况,以及仅出现在NAL元级描述中的两种极端情况:正常证据:这由wε(0,∞)、cε(0,1)或iε(0,1)表示。这意味着该陈述受到有限数量的证据的支持,这对于NAL中实际涉及推理的每个陈述都是如此。空证据:用w=0、c=0或i=1表示。这意味着系统对该语句一无所知,因此该语句不需要在系统中实际存储或处理。充分证据:这由w→∞、c=1或i=0表示。这意味着系统已经知道关于该语句的所有内容,这不可能发生在非公理逻辑中。尽管极端情况不会出现在待处理的句子中,但它们可以作为极限情况在NAL元语言中进行讨论,因此在系统设计中发挥着重要作用。如果输入或导出的句子具有与无效或完整证据相对应的真值,则该句子将被忽略,并且不会被系统接受。这就是为什么IL可以被视为NAL的理想化版本,同时仍然是它的元逻辑。在IL中,理想的体验提供了系统可以拥有的所有证据——系统不对新证据开放,并接受封闭世界假设(任何不能被证明为真的都被认为是假的)。给定证据的定义和定理2.4(定理2.4指出“继承”意味着外延和内涵之间的子集关系),IL中的每一个经验信念都是绝对正确的,因为不存在负面证据,也不会有未来的证据。另一方面,在NAL中,每个信念可能同时具有正面和负面证据,并且也必须考虑未来证据的影响。在这种情况下,“绝对正确”被映射为NAL的真值(1,1),因为既没有负面证据(因此频率为1),也没有未来证据(因此置信度为1)。类似地,如果一个陈述的概率是p,它可以被视为NAL真值的极端情况,(p,1),其中该陈述具有无限量的证据(即w→∞)。换句话说,一个陈述的概率就是其出现频率的极限(如果存在这样的极限)。由于知识不足,NAL中没有假设每个陈述的出现频率都有限制,而且真值也没有限制 非公理逻辑:智能推理模型作为这种限制的近似值来处理。对于正常情况,表3.1总结了三种形式不确定性之间的相互转换公式,该公式可以扩展为包括w−=w−w+和i=u−l。到\从到\从w+(f,[l,u](和我)w+(f,f=w/c=w/(w+w=k×f×c/(1−w=k×c/(1−w=k×l/w=k×(1−i)/f=l/(1−c=1−[l,l=w/(w+u=w+k)/(wl=f×k)u=1−c×(1−f经验与信念NAL-1中使用的Narsese语法规则如表3.2所示,与IL-1相同,只是二进制“陈述”加上真值成为多值“判断”。在系统与其环境之间的通信中,也可以使用其他两种类型的不确定性表示来代替判断的真值,尽管在系统内它们将被转换为(或从)真值。此外,“问题”作为语句(没有真值)包含在语言的对象级别中,并且可能包含要实例化的变量。表3.2NAL-1的语法规则(句子)::=(判断)|(问题)(判断)::=(陈述)(真值)(问题)::=(陈述)|?(系词)(术语)|(术语)(系词)?(声明)::=(术语)(系词)(术语)(系词)::=→ (术语)::=(单词) 在NAL-1中,语句的真值以及其他不确定性测量是根据K定义的,K是由二元继承语句组成的理想体验。然而,使用NAL的系统可能不会NAL-1:基本语法和语义 知道这样一个K,也没有能力产生一个K∗的资源,从而计算所有相关语句的真值——在NAL-1中我们必须接受AIKR。定义3.6。实现NAL-1的系统的实际体验是Narsese句子流,如表3.2中所定义。理想体验与实际体验的区别在于:前者仅包含真实陈述,而后者包含问题和多值判断。前者是一个集合(没有内部顺序或重复元素),而后者是一个流(其中顺序很重要,并且可能存在重复元素)。前者从一开始就可供系统使用,并且保持不变(这就是为什么封闭世界假设可以在IL中做出——任何一时未知的东西在未来都不会成为现实),而后者是一次性的。时间,总有未来的经验。总而言之,所有这些差异都源于一个共同的根源:理想经验用于假设知识和资源充足的公理系统,而实际经验则用于假设相反的非公理系统。然而,由于二进制真值true对应于正常真值(f,c)的极限,因此可以将前者视为后者的理想化版本。在介绍NAL时,我首先建立IL-1,然后用它来定义NAL-1中的不确定性测量,从而打破基于经验的语义中明显的“循环定义”。根据EGS的说法,一个陈述的真值是根据系统的经验来确定的,但如果经验只不过是一个陈述流,每个陈述都有自己的真值,这不是一个循环定义吗?这个问题的NAL解决方案就是“引导”的一个例子:根据理想的经验定义NAL中的语义概念(真值、意义等),然后用这个语义理论来指导系统的设计和使用。例如,如果某一时刻系统内存中有一个判断“企鹅→鸟(0.75,0.80)”,那么根据真值与证据量的关系,我们看到它对应的是w=4,w+=3,这意味着系统相信该陈述的程度就好像它有4个完美的证据,其中3个是正面的,1个是负面的。然而,我们知道真值实际上并不是这样的 非公理逻辑:智能推理模型产生——在AIKR下,系统无法获得如此完美的证据。它可能对该语句进行了4次以上的测试,但在不完美的情况下,因此每个结果不能算作具有单位量;或者系统可能根本没有直接测试该陈述(通过比较两个术语的外延或内涵),而是使用来自其他信念的推理规则得出结论。稍后我们会在NAL中看到“企鹅→鸟(0.75,0.80)”的进入方式有无数种存在,尽管我们总是可以理解真值,就好像它来自理想的体验一样。这样,当我们与基于NAL的系统通信时,我们可以根据“等效理想经验”来确定输入判断的真值并解释输出判断的真值;当我们设计和验证推理规则时,我们可以关注极端情况,其中相关测量值取特殊值(将在下一章讨论)。在人工智能历史上,对多值逻辑的主要反对意见是“数字从哪里来?”[麦卡锡和海斯(1969)]。事实上,在大多数情况下,人类知识被表达为定性判断,没有数字真值。然而,这并不意味着数值测量是不可能或不需要的。NAL方法的立场是对于内部表示,系统每次判断都使用一个数字真值(使用两个数字),从而达到普遍适用的推理、决策等规则。对于外部通信,系统允许多种方法不确定性表示,以及各种语言标签或默认值的使用。例如,在当前的实现中,输入判断的真值是可选的。当没有指定真值时,系统将为其分配(1.0,0.9)。这里默认的置信值0.9是一个系统参数,它反映了系统在沟通方面的“习惯”。与其他此类参数一样,它没有“正确”或“最佳”值,因此不同的系统可以具有不同的值(从而导致不同的“个性”)。然而,在系统中,该值应该保持不变(为了系统具有连贯的语义),并且它应该在一个粗略的范围内(为了系统在通信中表现“正常”)。在这里,数值真值的优点不在于它的准确性,而在于它的通用性。只要提供了正确的语义定义,数值测量对于人类用户来说也是很自然的。NAL-1:基本语法和语义 现在我们在IL中理想体验的基础上定义了NAL-1中的实际体验,将前者中的每个判断等价于后者中的一组陈述。下面,我们将继续将系统的经验称为K,以涵盖这两种情况。在IL中,系统的知识或信念是K∗,即K的传递闭包。换句话说,它是通过穷举应用其单一推理规则从K导出的。在NAL-1中,由于AIKR的限制,不能这样做。因此,系统的置信集K∗从K中给定的判断出发,在可用资源的限制下,通过NAL-1的推理规则(下一章介绍)对该集合进行修改。我们仍然可以将K或K∗表示为有向图,就像在IL-1中一样,只不过在NAL-1中图是加权的,并且权重是通过一对数字来测量的。此外,K∗并不包括从K推导出来的所有结论,而只是其中的一部分。定义3.7。系统中的信念是其记忆中的判断,它要么是经验K的元素,要么源自K的某些元素。在给定时刻,所有信念的集合称为系统的知识K∗。信念的证据基础是K中的信念集合,该信念源自该集合。证据基础记录了该陈述具有当前真值的原因,类似于真值维护系统[Doyle(1979)]。在NARS中,输入判断的证据基础是包含自身的集合,而导出结论的证据基础是导出结论的前提的证据基础的并集。如果同一个判断在经验中出现多次,则每次出现都对应一个单独的证据基础。这个定义揭示了NAL和其他概率逻辑之间的另一个重要区别。在基于概率论的推

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论