




已阅读5页,还剩93页未读, 继续免费阅读
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
第5章 计算智能 n 计算智能涉及神经计算、模糊计算、进化计算和人 工生命等领域,这些研究领域体现出生命科学与信息 科学的紧密结合,也是广义人工智能力图研究和摹仿 人类和动物智能(主要是人类的思维过程和智力行为) 的重要进展。 n 把计算智能理解为智力的低层认知,它主要取决于 数值数据而不依赖于知识。人工智能是在计算智能的 基础上引入知识而产生的智力中层任知。生物智能, 尤其是人类智能,则是最高层的智能。即CIAIBI 。 第5章 计算智能 5.1概述 5.2神经计算 5.3模糊计算 5.4遗传算法 5.5人工生命 5.6粒群优化 5.7蚁群算法 5.1概述 什么是计算智能,它与传统的人工智能的区别? 第一个对计算智能的定义是由贝兹德克(Bezdek)于 1992年提出的。他认为,从严格意义上讲,计算智能 取决于制造者提供的数值数据,而不依赖于知识;另 一方面,人工智能则应用知识精品。 5.1概述 1.ABC及相关符号的表示含义 A-Artificial, 表示人工的(非生物的),即人造的 B-Biological, 表示物理的+化学的+(?)=生物的 C-Computational, 表示数学+计算机 NN-神经网络 PR-模式识别 I-智能 5.1概述 2.ABC及其与神经网络(NN)、模式识别(PR)和智能(I) 之间的关系 输入 复杂性 层次 复 杂 性 人类知识 BNN BPR BI B-生物的 (+)传感输入 知识 ANN APR AI A-符号的 (+)传感数据 计算 CNN CPR CI C-数值的 (+)传感器 注:.9个节点,表示9个研究领域或学科 .节点间的距离衡量领域间的差异,如CNN与CPN的差异比BNN与BPR小 .符号 意味着“适当的子集”,如:ANN APR AI, CI AI BI。 5.1概述 3.ABC及其相关领域的定义 BNN ANN CNN BPR APR CPR BI AI CI 人类智能硬件:大脑 中层模型:CNN + 知识精品 低层,生物激励模型 对人的传感数据结构的搜索 中层模型:CPR+知识精品 对传感数据结构的搜索 人类智能软件:智力 中层模型:CI+知识精品 计算推理的低层算法 人的传感输入的处理 以大脑方式的中层处理 以大脑方式的传感数据处理 对人的感知环境中结构的识别 中层数值和语法处理 所有CNN+模糊、统计和确定性模型 人类的认知、记忆和作用 以大脑方式的中层认知 以大脑方式的低层认知 5.1概述 总结: 计算智能是一种智力方式的低层认知,它与人工智能的区 别只是认知层次从中层下降到低层而已。中层系统含有知识(精 品),低层系统则没有。 若一个系统只涉及数值(低层)数据,含有模式识别部分,不 应用人工智能意义上的知识,而且能够呈现出:计算适应性 ;计算容错性;接近人的速度;误差率与人相近,则该 系统就是计算智能系统。 若一个智能计算系统以非数值方式加上知识(精品)值,即成 为人工智能系统。 5.2神经计算 神经计算就是通过对人脑的基本单元-神经元的建模和联结,来探索 模拟人脑神经系统功能的模型,并研制一种具有学习、联想、记忆和模式 识别等智能信息处理功能的人工系统。 5.2.1人工神经网络研究的进展 5.2.2人工神经网络的结构 5.2.3人工神经网络的典型模型 5.2.4基于神经网络的知识表示与推理 5.2.5前馈神经网络 5.2.6Hopfield神经网络 5.2.7自组织映射神经网络 5.2.1人工神经网络研究的进展 一、发展历程 40年代心理学家麦卡洛克(Mcculloch)和数学家皮茨(Pitts)合作提 出的兴奋与抑制型神经元模型和赫布(Hebb)提出的神经元连接强 度的修改规则,他们的研究结果至今仍是许多神经网络模型研究 的基础。 50年代、60年代的代表性工作是罗森布拉特(Rosenblatt)的感知 机和威得罗(Widrow)的自适应性元件Adaline(adapyive lineear element,即自适应线性元)。 1969年,明斯基(Minsky)和帕伯特(Papert)合作发表了颇有影响 的Perceptron一书,得出了消极悲观的论点,加上数字计算机正 处于全盛时期并在人工智能领域取得显著成就,70年代人工神经 网络的研究处于低潮。 80年代后,传统的Von Neumann数字计算机在模拟视听觉的人 工智能方面遇到了物理上不可逾越的极限。与此同时,鲁姆尔哈 特(Rumelhart)与Mcclelland以及Hopfield等人在神经网络领域取 得了突破性进展,神经网络的热潮再次掀起。 5.2.1人工神经网络研究的进展 二、特点 1)可以充分逼近任意复杂的非线性关系; 2)所有定量或定性的信息都等势分布贮存于网络内的各神经元 ,故有很强的鲁棒性和容错性; 3)采用并行分布处理方法,使得快速进行大量运算成为可能; 4)可学习和自适应不知道或不确定的系统; 5)能够同时处理定量、定性知识; 6)可硬件实现。 结构特征: 并行式处理 分布式存储 容错性 能力特征: 自学习 自组织 自适应性 5.2.1人工神经网络研究的进展 三、基本功能 联 想 记 忆 功 能 5.2.1人工神经网络研究的进展 三、基本功能 非线性映射功能 5.2.1人工神经网络研究的进展 三、基本功能 分类与识别功能 5.2.1人工神经网络研究的进展 三、基本功能 优化计算功能 5.2.1人工神经网络研究的进展 三、基本功能 知识处理功能 5.2.1人工神经网络研究的进展 总之,神经网络具有学习和适应、自组织、 函数逼近和大规模并行处理能力 神经网络在模式识别、信号处理、系统辨识 和优化等方面广泛应用 5.2.2人工神经网络的结构 一、生理神经元的结构与功能 1.生理神经元的结构 大多数神经元由一个细胞体(cell body或soma)和突 (process)两部分组成。突分两类, 即轴突(axon)和 树突(dendrite),。轴突是个突出部分,长度可达 1m,把本神经元的输出发送至其它相连接的神经 元。树突也是突出部分,但一般较短,且分枝很 多,与其它神经元的轴突相连,以接收来自其它 神经元的生物信号。 轴突和树突共同作用,实现了神经元间的信息传递。轴突的末端与树突进行信号传递的界面称为突触(synapse),通过突 触向其它神经元发送信息。对某些突触的刺激促使神经元触发(fire)。只有神经元所有输入的总效应达到阈值电平,它才能 开始工作。无论什么时候达到阈值电平,神经元就产生一个全强度的输出窄脉冲,从细胞体经轴突进入轴突分枝。这时的 神经元就称为被触发。越来越明显的证据表明,学习发生在突触附近,而且突触把经过一个神经元轴突的脉冲转化为下一 个神经元的兴奋或抑制。 5.2.2人工神经网络的结构 2.生理神经元的功能 从生物控制论的观点,神经元作为控制和信息处理的基本单元,具有下列一 些重要的功能与特性: 时空整合功能:神经元对于不同时间通过同一突触传入的神经冲动,具有时 间整合功能。对于同一时间通过不同突触传入的神经冲动,具有空间整合功 能。两种功能相互结合,具有时空整合的输入信息处理功能; 兴奋与抑制状态:即兴奋(细胞膜电位升高)和抑制(细胞膜电位降低)。 脉冲与电位转换:突触界面具有脉冲/电位信号转换功能。 神经纤维传导速度:神经冲动沿神经纤维传导的速度在1-150m/s之间。 突触延时和不应期:突触对神经冲动的传递具有时延和不应期,在相邻的二 次冲动之间需要一个时间间隔,即为不应期。 每个人脑大约含有1011-1012个神经元,每一神经元又约有103-104个突触。神 经元通过突触形成的网络,传递神经元间的兴奋与抑制。大脑的全部神经元 构成极其复杂的拓扑网络群体,用于实现记忆与思维。 5.2.2人工神经网络的结构 二.人工神经元 1.人工神经元的组成 人工神经网络(artificial neural nets,ANN)或模拟神经网络 是由模拟神经元组成的,可把ANN看成是以处理单元 PE(processing element)为节点,用加权有向弧(链)相互 连接而成的有向图。其中,处理单元是对生理神经元的 模拟,而有向弧则是轴突-突触-树突对的模拟。有向弧的 权值表示两处理单元间相互作用的强弱。 来自其它神经元的输入乘以权值,然后相加。把所有总和与阈值电平比较。当总和高于阈值时,其输出为1;否则 ,输出为0。大的正权对应于强的兴奋,小的负权对应于弱的抑制。 在简单的人工神经网模型中,用权和乘法器模拟突触特性,用加法器模拟树突的互联作用,而且与阈值比较 来模拟细胞体内电化学作用产生的开关特性。 5.2.2人工神经网络的结构 2. ANN的数学描述 令来自其它处理单元(神经元)i的信息为Xi,它们与本处理单元的 互相作用强度为Wi,i=0,1,,n-1,处理单元的内部阈值为。 那么本神经元的输入为 xi为第i个元素的输入,wi为第i个元素与本处理单元的互联权重。f称为激发函数(activation function)或作用函数。它 决定节点(神经元)的输出。该输出为1或0取决于其输入之和大于或小于内部阈值。 处理单元的输出为 5.2.2人工神经网络的结构 激发函数一般具有非线性特性,常用的非线性特性如下图所示,分述于下: 阈值型 对于这种模型,神经元没有内部状态,激发函数为一阶跃函数,如图 (a)所示。这时,输出为: 1 ,xi0 f(xi)=U(xi)= 0 ,xi0 分段线性强饱和型 见图 (b)。 Sigmoid型激发函数称为西格莫伊德(Sigmoid)函数,简称S型函数,其输入输出特性常用对数曲线或正切曲线等 表示。这类曲线反映了神经元的饱和特性。S型函数是最常用的激发函数,它便于应用梯度技术进行搜索求解。 5.2.2人工神经网络的结构 三、人工神经网络的基本特性和结构 1.神经网络的基本特性 许多神经元以一定方式连接在一起,即构成神经网络。这种由 许多神经元组成的信息处理网络具有并行分布结构。每个神经元 具有单一输出,并且能够与其他神经元连接;存在许多输出连接 方法,每种连接方法对应一个连接权系数。严格地说,人工神经 网络是一种具有下列特性的有向图: 对于每一个节电i存在一个状态变量xi; 从节点j至节点i,存在一个连接权系统数wji; 对于每个节点i,存在一个阈值i; 对于每个节点i,定义一个变换函数f i(xi,wji, i),ij;对于最一般 的情况,此函数取f i(wij xj -i)形式。 j 5.2.2人工神经网络的结构 2.神经网络的结构 递归网络 有些神经元的输出被反馈至同层或前层神经元,信号能够从正向或反向流通。 又叫反馈网络。 典型例子:Hopfield网络、Elmman网络和Jordan网络 如图:vi表示接点的状态,xi为节点的输入值,xi为收敛后的输出值, i=1,2,n 前馈网络 具有递阶分层结构,由一些同层神经元间不存在互连的层次组成。从输入到输 出的信号通过单向连接流通;神经元从一层连接至下一层,不存在同层神经元 间的连接。如图:实线指明实际信号流通,虚线表示反向传播。 典型例子:多层感知器MLP 5.2.2人工神经网络的结构 2.神经网络的结构 注: 分层形前向网络具有任意精度的模式映射能力,因而可以用作模式分类、 匹配等, 而反馈型神经网络则是一个非线性动力学系统,它具有如下两个重要特征 : 1系统具有多个稳定状态,从某一初始状态开始运动,系统最终可以到 达某一个稳定状态; 2不同的初始连接权值对应的稳定状态也不相同。 如果用系统的稳定状态作为记忆,那么由某一初始状态出发向稳态的演化过 程,实际上就是一个联想过程,所以反馈型神经网络具有联想记忆的功能 。 5.2.2人工神经网络的结构 决定人工神经网络整体性能 l 节点本身的信息处理能力(数学模型) l 节点与节点之间连接(拓扑结构) l 相互连接的强度(通过学习来调整) 5.2.2人工神经网络的结构 3.神经网络的主要学习算法 加拿大心理学家Donald Hebb出版了行为的组织一书,指出 学习导致突触的联系强度和传递效能的提高,即为“赫布律”。 在此基础上,人们提出了各种学习规则和算法,以适应不同 网络模型的需要。有效的学习算法,使得神经网络能够通过连接 权值的调整,构造客观世界的内在表示,形成具有特色的信息处 理方法,信息存储和处理体现在网络的连接中。 神经网络能够通过对样本的学习训练,不断改变网络的连接 权值以及拓扑结构,以使网络的输出不断地接近期望的输出。这 一过程称为神经网络的学习或训练,其本质是可变权值的动态调 整。 5.2.2人工神经网络的结构 3.神经网络的主要学习算法 有师学习 能够根据期望的和实际的网络输出(对应于给定输入)之间的差来调整神经 元间连接的强度或权。因此,有师学习需要有老师或导师来提供期望或目 标输出信号。 典型例子:规则、广义规则或反向传播算法 5.2.2人工神经网络的结构 无师学习 不需要知道期望输出。在训练过程中, 只要向神经网络提供输入模式,神经 网络就能够自动适应连接权,以便按 相似特征把输入模式分组聚集。 典型例子:Kohonen算法、 Carpenter-Grossberg自适应 谐振理论。 强化学习 是有师学习的特例。它不许要老师给出目标输出,而采用一个评论员来评 价与给顶输入相对应的神经网络输出的优度。 典型例子:遗传算法 5.2.3人工神经网络的典型模型 感知器神经网络: 1.感知器(Perceptron)是最“古老”的网络(Rosenblatt,于1975年提出), 是一组可训练的线性分类器,目前已很少使用。 有师学习 误差修正 正向 线形分类、预测 2. MadaLine是AdaLine的发展,是一组具有最小均方差线性网络的组合 ,学习能力较强,但I/O间需满足线性关系。 有师学习 误差修正 正向 分类,噪声抑制 3.反向传递(BP)网是一种反向传递并修正误差的多层映射网,在参数适当 时,能收敛到较小的均方误差,是当前应用最广的一种网络。缺点是训练 时间长,易陷入局部极小。 有师学习 误差修正 反向 分类 5.2.3人工神经网络的典型模型 自组织竞争学习神经网络模型: .自组织映射网(SOM)由Kohonen于1972年提出。能形成簇与簇之间的连续映 射,起向量量化器的作用 无师学习 竞争律 正向 自组织映射 5.CPN(Counter Propagation Network)由R Hecht和Nielsen于1987年提出, 亦称对流网,将Kohonen 特征映射网络与Grossberg 基本竞争型网络相结合, 充分发挥了它们各自的特长:无导师训练解决网络隐含层的理想输出未知问题, 有导师训练解决输出层按系统要求给出指定输出结果的问题。经过反复学习,PN 可以将任意输入模式映射为输出模式 无师学习和有师学习 Hebb律 正向 模式映射 6. 自适应共振(ART)由Grossberg提出,是根据可选参数对输入数据进行粗分类的 网络,ART用于二值输入,ART用于连续值输入。缺点是太敏感,输入有小 的变化,输出变化很大。 无师学习 Hebb律 反向 模式分类 5.2.3人工神经网络的典型模型 7.认知机(Neocognitron)由Fukushima于1972年提出,是迄今 为止结构最复杂的多层网,通过无导师学习,具有选择性注意 的能力,对样品的平移、旋转不敏感。缺点是耗用结点及互连 多,参数多且难选。 5.2.3人工神经网络的典型模型 8. 双向联想存储器(BAM)是一类单状态互联想网,具有 学习功能。缺点是存储密度较低,且易振荡。 9. Hopfield网由Hopfield于1982年提出,是一类不带有学 习功能的单层自联想网,缺点是要对称连接,内存开销较大 10. Boltzmann机由 Hinton等提出。建立在Hopfield网 络基础上,具有学习能力,能够通过一个模拟退火过程寻求 解答。缺点是训练时间较BP网更长。 有师学习 Hebb/模拟退火 反向 组合优化 5.2.4基于神经网络的知识表示与推理 基于神经网络的知识表示 这里采用的是一种隐式的表示方法。某一问题的若干知识在同一网络 中表示。 例如:在有些神经网络系统中,知识用神经网络中所对应的有向权图 的邻接矩阵及阈值向量表示的。 0-1.5 0-2.0 -1.0 x1 x2 y 1.004 1.070 1.135 2.102 -3.121 邻接矩阵为: 0 0 1.004 1.070 0 0 0 1.135 1.100 0 0 0 0 0 2.102 0 0 0 0 -3.121 0 0 0 0 0 该网络代表下列4条规则:IF x1=0 AND x2=0 THEN y=0 IF x1=0 AND x2=1 THEN y=1 IF x1=1 AND x2=0 THEN y=1 IF x1=1 AND x2=1 THEN y=0 5.2.4基于神经网络的知识表示与推理 医疗诊断实例: 假设系统的诊断模型只有六种症状、两种疾病、三种治疗方案。 首先选择一批合适的病人并从病历中采集如下信息: 症状:对每一症状只采集有、无及没有记录这三种信息。 疾病:对每一疾病也只采集有、无及没有记录这三种信息。 治疗方案:对每一治疗方案只采集是否采用这两种信息。 其中,对“有”、“无”、“没有记录”分别用+1、-1、0表示。这样每一个病人 构成一个训练样本。 5.2.4基于神经网络的知识表示与推理 根据症状、疾病及治疗方案间的因果关系,并通过训练样本对网络的训练得 到如下神经网络 。其中,x1, x2 , x6 ,为症状; x7, x8 为疾病名; x9, x10 , x11 为治疗方案; xa, xb , xc ,是附加层,这是由于学习算法的需要而增加的 x1 x7 2 输入层 0 -1 -2 -1 2 0 3 3 x2 x3 x4 x5 x6 x8 xa xb xc x11 x9 x10 -2 3 3 3 3 -4 -4 3 2 4 1 -1 -4 -2 2 -3 1 -1 -3 -3 -3 中间层输出层附加层输出层 5.2.4基于神经网络的知识表示与推理 说明: 这是一个带正负权值wij的前向网络,有wij可构成相应的学习矩阵。当ij时 wij =0;当i0 Xj=wijxi xj= 0, Xj=0 i=1 -1, Xj0 得x7=1 x1 x7 2 输入层 0 -1 -2 -1 2 0 3 3 x2 x3 x4 x5 x6 x8 xa xb xc x11 x9 x10 -2 3 3 3 3 -4 -4 3 2 4 1 -1 -4 -2 2 -3 1 -1 -3 -3 -3 中间层输出层附加层输出层 当证据是x1=x3=1, x2=?由 0+21+3 1=5 +(-2) (?)0 得x7=1 由此可见,在用神经网络进行推理时,即使已知的信息不完全,照样可以进行推理。 5.2.4基于神经网络的知识表示与推理 2.基于神经网络的推理 正向网络推理步骤: 把已知数据输入网络输入层的各个节点。 利用特性函数分别计算网络中各层的输出。计算中,前一层的输出作为后 一层有关节点的输入,逐层进行计算,直到计算出输出层的输出值为止。 用阈值函数对输出层的输出进行判定,从而得到输出结果。 推理具有如下特征: 同一层的处理单元(神经元)是完全并行的,但层间的信息传递是串行的。由 于层中处理单元的数目比网络的层次多得多,因此它是一种并行推理。 在网络推理中不会出现传统人工智能系统中推理的冲突问题。 网络推理只与输入及网络自身的参数有关,而这些参数又是通过多网络进 行训练得到的,因此它是一种自适应推理。 学习资源 中南大学国家精品课程人工智能 /jpkc2003/rengongzhine ng/Index.htm 5.3模糊计算 模糊计算就是以模糊逻辑为基础的计算 .模糊逻辑(Fuzzy Logic)建立在模糊集理论的基础上,是一种处理不精确描述的软 计算。与不确定推理处理随机事件发生的可能性相对照,模糊逻 辑面向事物特性和能力的不精确描述。 例如,描述人的年龄可有三个以术语表示的定性值:轻、中、老。尽管作 为数值变量时其变量值更简单(如“年龄”等于25),但其值域有许多值(如1 100)。定性值是一种形式的数据压缩(年龄只有三个定性值)。定性值往 往无明确的分界线, 30-40岁之间的人属年轻或中年就是很模糊的,且因人的观 念和场合而异。 为表示类似这样的一些模糊概念,扎德于1965年提出 模糊集 合理论,其基本思想就是把传统集合论中由特征函数决定的绝对隶属关系模糊 化,使元素x对子集A的隶属程度不再局限于取0或1,而是可以取0,1上的 任何值,以指示元素X隶属于子集A的模糊程度。 5.3模糊计算 5.3.1模糊逻辑 5.3.2模糊推理 5.3.3模糊控制 5.3.1模糊逻辑 一.模糊集合及其运算 1.模糊集合 (fuzzy sets) 定义:在论域U上定义一个模糊子集(简称模糊集)A ,其对U 的任意元素x均指定一个值A(x)0,1 ,以表示它对A的隶属程度 ,即有A:U0,1 ,A=x/A其中,A称为A的隶属函数。 当A(x)=1时,x确定性隶属于A; 而A(x)=0时,x确定性非隶属于 A ; x取其它值时,隶属程度模糊。 总之,一个模糊集 A是以隶属函数A(x)来描述的,隶属程度的概 念构成模糊集理论的基石. 5.3.1模糊逻辑 一.模糊集合及其运算 1.模糊集合 (fuzzy sets) 在论域U中,可以把模糊子集表示为元素u与其隶属函数A 的 序偶集合,记为 A=(u, A (u)|uU 若为连续,则模糊集A可记作 若U为离散,则模糊集A可记为: 5.3.1模糊逻辑 举例:以人的年龄作为论域例来考察模糊集,设立以定性术语来 描述年龄的语言变量“年龄”,其值域为: 年龄= 轻,中,老 可以为“年龄”的三个定性值分别建立隶属函数Y 、 M和O 。它 们各以梯形或三角形表示。从图中可见,这三个隶属函数是相互 重叠的,即年龄在3065岁之间的人不能确定性地划归某一个子 集。 5.3.1模糊逻辑 2模糊集的运算 设A和B为论域U中的两个模糊集,其隶属函数分别为 A和 B ,则对于所有uU ,存在下列运算: (1)A与B的并(逻辑或)记为AB ,其隶属函数定义为 (2)A与B的交(逻辑与)记为 AB ,其隶属函数定义为: (3)A的补(逻辑非)记为A ,其传递函数定义为 5.3.1模糊逻辑 举例:若论域U=x1,x2,x3,x4上有 则: 可见,模糊集合的逻辑运算实质上就是隶属函数的组 合运算过程。 5.3.1模糊逻辑 二、模糊逻辑 模糊逻辑的基本思想是将常规数值变量模糊化,使变量成为 以定性术语(也称语言值)为值域的语言变量。 当用语言变量 来描述对象时,这些定性术语就构成 模糊命题。可以省略被描 述的对象,则模糊命题可表示为“语言变量定性值” 形 式。例如张三“年龄轻”就是一个模糊命题,其模糊程度用定性 术语“轻”的隶属函数来表示。然后可以对模糊命题作合取、析 取、取反等逻辑操作。 每个模糊命题均由相应的一个模糊集作细化描述,所 以模糊逻辑操作与模糊集操作是一致的。 5.3.1模糊逻辑 二、模糊逻辑 定义:设P1,P2,Pm为论域U1,U2,Un上的一组模糊命 题,相应的隶属函数为 P1 , p2 , p m ,当前观察的论域 元素分别为 x P1 , xp2 , xp m ;令PV和P分别表示这些命 题的析取和合取,则PV和P的隶属程度为 5.3.1模糊逻辑 令析取和合取隐含着max和min操作,则此二式可简写 为 其中,不同的模糊命题可以面向同一论域,即使用相同 的语言变量,但取用的定性值不同,隶属函数也不同。 对于模糊命题的取反,则有 注:让模糊命题的析取和合取隐含max和min,在一定程度上反映了客观规律,但这种平等看待各模糊命题的观念有时 仍不符合实际。在真实世界中,影响问题求解的因素往往具有不相同的相对重要性。这可以通过引入加权模糊逻辑来解 决 5.3.2模糊推理 模糊推理有多种模式,其中最重要的且广泛应用的是基 于模糊规则的推理。模糊规则的前提是模糊命题的逻辑 组合(经由合取、析取和取反操作),作为推理的条件 ;结论是表示推理结果的模糊命题。所有模糊命题成立 的精确程度(或模糊程度)均以相应语言变量定性值的 隶属函数来表示。 模糊规则由应用领域专家凭经验知识来制定,并可在 应用系统的调试和运行过程中,逐步修正和完善。模糊 规则连同各语言变量的隶属函数一起构成了应用系统的 知识库。基于规则的模糊推理实际上是按模糊规则指示 的模糊关系 作模糊合成运算的过程。 5.3.2模糊推理 1. 直接 基于模糊规则的推理 当模糊推理的输人信息是量化的数值时,可以直接基于模糊规 则作推理,然后把推理结论综合起来,典型的推理过程可以分为 两个阶段,其中第一阶段又分为三个步骤,表述如下: (1)计算每条模糊规则的结论:输入量模糊化,即求出输 入量相对于语言变量各定性值的隶属度;计算规则前提部分模 糊命题的逻辑组合(合取、析取和取反的组合);将规则前提 逻辑组合的隶属程度与结论命题的隶属函数作min运算,求得结 论的模糊程度。 (2)对所有规则结论的模糊程度作max运算,得到模糊推理结 果。 5.3.2模糊推理 举例: 观察图所示的模糊控制。设想经验知识库中包括九条 规则。描述温差、温度变化率d和燃料流量修正量y这三个 论域的语言变量具有相同的定性值和隶属函数,且这三个论 域均归化到实数域-1,1上。这些定性值取以下术语: NB(负大)、NS(负小)、ZO(零) 、 PS(正小) 、 PB(正大) 5.3.2模糊推理 相应的隶属函数如图所示。 设模糊控制器当前输入的数 量值为: = 0.8,d = 0, 则有两条规则激活: 输入量的隶属度为 基于max-min原则,可以分别计算这两条规则结论的模糊程度( 分别以1和2指示): 5.3.2模糊推理 1(y)和2(y)实际是将Nsy(y) 和NBy(y) 的0.3和0.7以上部分切去 后的结果,这种min运算也称切头法。最后对1(y)和2(y)作 max操作,得到模糊推理结果(记为模糊集H)H(y) 1(y)2(y)。 5.3.2模糊推理 设燃料流量修正量这个论域为有限离散值的集合,即将实数域 -1,l分成8个等级,级差为0.25,则有 令AH1 和 AH2分别指示相应于这二条规则的推理结果模糊集,则有 5.3.2模糊推理 2. 基于模糊关系的推理 建立在论域 U1,U2,Un上的一个模糊关系R是笛卡尔积 U1U2Un上的模糊集合。若这些论域的元素变量分别为 XU1, XU2, , XU2 , 则R的隶属函数记R( XU1, XU2, , XU2 )。模糊关系 R可形式地定义为 注:尚未建立一致的理论去指导模糊关系的构造。存在着多种 构造模糊关系的方法,相关的模糊合成运算方法也不同,形成了多 种风格的模糊推理方法。不过,基于max-min原则的算法占居了目 前模糊推理方法的主流。 5.3.2模糊推理 当模糊推理的输人信息是定性术语(以相应的模糊集表 示)时,可以基于模糊关系作推理。介绍简单直观的 Mamdani方法。 设模糊规则形如PH ,模糊命题P和H相应的模糊集AP和AH分别建 立在论域UP和UH上(相应的元素变量为xP,xH)。令R(P;H) 指 示从P推出H的模糊关系,则定义 当实际的输人信息是模糊命题P(相应的模糊集为AP )的,则模 糊推理的输出H(相应的模糊集为AH )表示为 5.3.2模糊推理 举例:设UP=UH=1,2,3,4,5,是关于长度的论域,论域中元 素的量度单位是“米”。现有模糊规则为“XP短 XH长”,定义定性 术语“短”和“长”模糊集AP和AH分别为(隶属程度为0的项省略) : 则 R(P;H) , AP,AH可表示 为矩阵 。有 5.3.2模糊推理 若模糊推理的实际输入是模糊命题“xP略短”,其相应模糊 集AP定义为 则有 即 5.3.2模糊推理 设有m条形如PiHi的规则,相应于每条规则的模糊关系 分别为R1 , R2, ,Rm,则综合的模糊关系R定义为 在实际应用中,规则的前提常表示为若干模糊命题的合 取,则 或者 5.3.2模糊推理 3.模糊判决 通过模糊推理得到的结果是一个模糊集合或者隶属函数 ,但在实际使用中,特别是在模糊逻辑控制中,必须用 一个确定的值才能去控制伺服机构。在推理得到的模糊 集合中取一个相对最能代表这个模糊集合的单值的过程 就称为解模糊或 模糊判决(defuzzification)。 下面介绍各种模糊判决方法,并以“水温适中”为例,说明不同的 计算过程。 这里假设“水温适中”的隶属函数为 F(x)=(X:0.0/0+0.0/10+0.33/20+0.67/30+1.0/40+1.0/50 +0.75/60+0.5/70+0.25/80+0.0/90+0.0/100 5.3.2模糊推理 (1).重心法 所谓重心法就是取模糊函数曲线与横坐标轴围成面积的重心 作为代表点。理论上应该计算输出范围内一个连续点的重心,即 但实际上是计算输出范围内整个采样点(即若干离散值)的重心 。这样,在不用 花费太多时间的情况下,用足够小的取样间隔来 提供所需要的精度,这是一种最好的折衷方案。即 5.3.2模糊推理 u=(00.0+100.0+20.033+300.67+401.0+501.0+600.75 +700.5+800.25+900.0+1000.0) /(0.0+0.0+0.33+0.67+1.0+1.0+0.75+0.5+0.25+0.0+0.0) =48. 在隶属函数不对称的情况下,其输出的代表值48.20C 。如果模糊集合中没有 48.20C,那么就选取最靠近的一个温度值500C输出。 (2).最大隶属度法 在推理结论的模糊集合中取隶属度最大的那个元素作为输出量 。不过,要求这种情况下的隶属函数曲线一定是正规凸模糊集合 (即其曲线只能是单峰曲线)。如果该曲线是梯形平顶,那么具 有最大隶属度的元素就可能不只一个,这时就要对所有取最大隶 属度的元素求其平均值。 例如,对于“水温适中”这种情况,按最大隶属度原则,有两 个元素40和50具有最大隶属度 1.0,那就要对所有取最大隶属度的 元素40和50求平均值,执行量应取. 5.3.2模糊推理 (3).系数加权平均法 系数加权平均法的输出执行量由下式决定: 式中,系数Ki的选择要根据实际情况而定,不同的系统决定了系 统有不同的响应特性。当该系统选择ki=UN(xi)时,即取其隶属函 数时,这就是重心法。在模糊逻辑控制中,可以通过选择和调整 系统来改善系统的响应特性。因而这种方法具有一定的灵活性。 5.3.2模糊推理 (4).隶属度限幅元素平均法 用所确定的隶属度值 a隶属度函数曲线进行切割,再对切割 后等于该隶属度的所有元素进行平均,用这个平均值作为输出执 行量,这种方法就称为隶属度限幅元素平均法。 例如,当取a为最大隶属值时,表示“安全隶属”关系,这时 a=1.0。在“水温适中”的情况下,400C和500C的隶属度是非曲直 1.0求其平均值得到输出代表量: u=(40+50)/2=45 这样,当“完全隶属”时,其代表量为450C。 如果当a=0.5时,表示“大概隶属”关系,则切割隶属度函数曲 线后,从300C到700C的隶属度值都包含在其中,所以求其平均值 得到输出代表量: u=(30+40+50+60+70)/5=50 这样,当“大概隶属”时,其代表量为500C。 5.3.3模糊控制 基于模糊逻辑的推理系统已发展为一个重要的学科 领域,成功的实用系统也与日俱增。最成功的应用领 域是对各种物理和化学特征,如温度、电子流、液流 、机械运动等的模糊控制。在日本,模糊控制技术已 得到广泛采用,尤为成功的是家用电器,照相机等消 费产品。 5.3.3模糊控制 1.FIS的系统构成与工作原理 (1)模糊推理系统的基本结构 由四个重要部件组成:知识库、推理机制、模糊化输入接口与去 模糊化输出接口。 5.3.3模糊控制 知识库:包含模糊if-then规则库和数据库。规则库中的模糊规 则定义和体现了与领域问题有关的专家经验或知识,而数据库 则定义模糊规则中用到的隶属函数。模糊规则的形式一般为if A is a then B is b,其中A与B都是语言变量而a和b则是由隶属函数 映射到的语言值。例如“if H 很适应 then 结构 很合理”这样一条 模糊规则中,建筑高度“H”与“结构”都是语言变量,而“很适应” 与“很合理”分别是它们的语言值,在数据库中都有相应的隶属 函数加以定义。 推理机制:按照这些规则和所给的事实(例如针对某一拟定方 案)执行推理过程,求得合理的输出或结论(例如方案的评价 值)。 模糊输入接口:将明确的输入转换为对应隶属函数的模糊语 言值。 去模糊输出接口:则将模糊的计算结果转换为明确的输出。 5.3.3模糊控制 2、FIS的建立步骤 分为三个步: 一是挑选能够反映系统工作机制的控制输入输出变量 ; 二是挑选这些变量的模糊子集; 三是用模糊规则建立输出集与输入集的关系。 3、模糊系统F将输入x映射到输出F(x)的步骤 一将输入x并联地匹配到所有“如果部分”的模糊集合,这一步依据 输入x属于每一个“如果部分”集合A的程度来“激活”或“启动”模糊 规则。 二叠加所有按比例收缩的“则部分”集合,生成最终的输出集合。 三去模糊化,系统计算出最终输出集的形心或重心作为输出F(x )。 5.3.3模糊控制 2、FIS的建立步骤 分为三个步: 一是挑选能够反映系统工作机制的控制输入输出变量 ; 二是挑选这些变量的模糊子集; 三是用模糊规则建立输出集与输入集的关系。 3、模糊系统F将输入x映射到输出F(x)的步骤 一将输入x并联地匹配到所有“如果部分”的模糊集合,这一步依据 输入x属于每一个“如果部分”集合A的程度来“激活”或“启动”模糊 规则。 二叠加所有按比例收缩的“则部分”集合,生成最终的输出集合。 三去模糊化,系统计算出最终输出集的形心或重心作为输出F(x )。 5.3.3模糊控制 4、具体实施技术 模糊控制实际上是周期性执行模糊化、模糊推理和反模糊化的过 程,但周期性执行导致大量重复计算,效率低下。这可以通过引 入查表法来改进。 将输入和输出物理量的值域划分为若干等级(例如 13),并归化 到某一标准区域上(如-6,6,然后以二维模糊化表的方式定义 隶属函数 。如: 5.3.3模糊控制 4、具体实施技术 模糊控制实际上是周期性执行模糊化、模糊推理和反模糊化的过 程,但周期性执行导致大量重复计算,效率低下。这可以通过引 入查表法来改进。 将输入和输出物理量的值域划分为若干等级(例如 13),并归化 到某一标准区域上(如-6,6,然后以二维模糊化表的方式定义 隶属函数 。如: 5.4 遗传算法 遗传算法是源于达尔文生物进化理论的“自然选择” 、“适者生存”法则而提出的一种搜索寻优寻优 算法。基本思 想:将每个可能的问题解表示成“染色体”,从而得到一 个由染色体组成的“群体”,这个群体被限制在问题特定 的环境里,根据预定的目标函数对每个个体进行评价, 给出了一个合适度值。开始时总是随即地产生一些个体 ,即侯选解,利用遗传算法对这些个体按”适者”有更多 的机会生存的原则进行交叉组合产生后代,后代由于继 承了父代的一些优良性状,因而明显优于上一代,这样 “染色体”的群体将逐步朝着更优解的方向进化。 5.4 遗传算法 遗传算法的基本步骤: 第1步 根据由问题确定的编码规则,随即产生初始群体; 第2步.计算群体中每个个体的适应度值; 第3步.如果解满足要求或遗传代数超过指定代数,则结束; 否则继续执行第4步; 第4步.根据适应值进行选择复制产生新一代; 第5步.根据事先确定的交叉和变异概率选择部分个体进行交 叉和变异,转第2步; 5.4 遗传算法 遗传算法的基本过程: begin 1. 选择适当表示,生成初始群体; 2. 评估群体; 3. While 未达到要求的目标 do begin 1. 选择作为下一代群体的各个体; 2. 执行交换和突变操作; 3. 评估群体; end end 5.4 遗传算法 对于一个SGA算法来说主要涉及以下内容: 编码和初始群体生成; 群体的评价; 个体的选择; 交换; 突变; 5.4 遗传算法 在讲解中会结合如下的货郎担问题(Travelling Salesman Problem,简记为TSP):设有n个城市,城市i和城市j之间的 距离为d(i,j) i, j=1,.,nTSP问题是要找遍访每个域市恰好 一次的一条回路,且其路径总长度为最短。 5.4.1 遗传算法的基本机理 一.编码与解码 许多应用问题的结构很复杂,但可以化为简单的位串形式 编码表示。 1.编码:将问题结构变换为位串形式编码表示的过程; 2.解码(或译码):而相反将位串形式编码表示变换为原问题 结构的过程。 把位串形式编码表示叫染色体,有时也叫个体。 5.4.1 遗传算法的基本机理 3.常用的编码方法: .二进制编码 假设某一参数的取值范围是A,B,用长度为l的二进制串来 表示该参数,将A,B等分成2l-1个子部分,记每一等分的长度 为,则它能够产生2l个不同的编码,如下: 00000=0 A 00001=1 A + 其中 11111=2l-1 B 假设某一个体的编码是:X:xlxl-1xl-2x2x1 则二进制编码所对应的解码公式为 缺点:长度较大 B - A = 2l - 1 B A l x=A + .xi.2i-1 2l 1 i=1 5.4.1 遗传算法的基本机理 3.常用的编码方法: .浮点数编码 个体的每个染色体用某一范围内的一个浮点数来表示,个 体的编码长度等于其变量的个数。 对于一些多维、高精度要求的连续函数优化问题采用此法会有益 .格雷码 连续的两个整数所对应的编码值之间只有一个码位是不相 同的,其余码位都完全相同。 例如:十进制数7和8的格雷码分别为0100和1100。 5.4.1 遗传算法的基本机理 3.常用的编码方法: .符号编码 指个体染色体编码串中的基因值取自一个无数值含义而只有 代码含义的符号集。符号集可以是字母表,如:A、B、C、D ;数字序号表1、2、3、4或代码表x1、x2、x3,等等。 举例:对于销售员旅行问题,按一条回路中城市的次序进行编码。从城市w1开 始,依次经过城市w2 ,wn,最后回到城市w1,我们就有如下编码表示: w1 w2 wn 由于是回路,记wn+1=w1。它其实是1,n的一个循环排列。要注意w1 ,w2,wn是互不相同的。 5.4.1 遗传算法的基本机理 二.适应度函数 为了体现染色体的适应能力而引入的对问题中的每一个染色体 都能进行度量的函数。通过适应度函数来决定染色体的优、劣程 度,它体现了自然进化中的优利劣汰原则。 例如: 对优化问题,适应度函数就是目标函数。 TSP的目标是路径总长度为最短,路径总长度的倒数就可以为TSP的适应度函 数: 适应度函数要有效反映每一个染色体与问题的最优解染色体之间的差距,一个染色体与问题的最优解染色体之间的差距 小,则对应的适应度函数值之差就小,否则就大。适应度函数的取值大小与求解问题对象的意义有很大的关系。 5.4.1 遗传算法的基本机理 三.遗传操作 简单遗传算法的遗传操作主要有三种:选择(selection)、交叉(crossover)、 变异(mutation)。改进的遗传算法大量扩充了遗传操作,以达到更高的效率。 1.选择操作 也叫复制操作,对自然界“适者生存”的模拟。根据个体的适应度函数值所度量 的优、劣程度决定它在下一代是被淘汰还是被遗传。 一般地说,选择将使适应度较大(优良)个体有较大的存在机会,而适应度较 小(低劣)的个体继续存在的机会也较小。简单遗传算法采用赌轮选择机制, 令fi表示群体的适应度值之总和,fi表示种群中第i个染色体的适应度值,它产 生后代的能力正好为其适应度值所占份额fifi。 5.4.1 遗传算法的基本机理 2.交叉 是GA中最主要的遗传操作,其工作于选择过程结束后产生的下一代群体。 交叉操作应用于从这一群体中随机选择的一系列个体对(串对)。 SGA采用的是单点交换。设串长为L,交换操作将随机选择一个交换点( 对应于从1到L-1的某个位置序号),紧接着两串交换点右边的子串互换,从而 产生了两个新串。例如,设1,2为要交换的串,交换点被随机选择为7( 串长为10)。 11000011111 21111111011 交换得新串1,2: 11000011011 21111111111 当然,并非所有选中的串对都会发生交换。这些串对发生交换的概率是Pc 。Pc为事先指定的01之间的值,称为交换率。 5.4.1 遗传算法的基本机理 3.变异 一般在交换后进行。突变操作的对象是个体(即串),旨在改 变串中的某些位的值,即由0变为1,或由1变为0。并非所有位都 能发生变化,每一位发生变化的概率是Pm。Pm为事先指定的0 1之间的某个值,称为变异率。串中每一位的突变是独立的,即某 一位是否发生突变并不影响其它位的变化。变异的作用是引进新 的遗传物质或恢复已失去的遗传物质。例如,若群体的各串中每 一位的值均为0,此时无论如何交换都不能产生有1的位,只有通 过突变。 例如:10100110 对从右往左的第5位进行变异操作 10110110 5.4.1 遗传算法的基本机理 四.控制参数 1.交叉概率和变异概率 并不是所有被选择了的染色体都要进行交叉操作和变异操
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025年全国国家版图知识竞赛题库及答案题(中小学组)
- 2025年安全员之A证(企业负责人)题库附解析答案
- 化学实验室安全考试试题及答案
- 职场新人入职培训手册及考核方案
- 托管班管理信息系统建设方案
- 城市轨道交通应急处理预案模板
- 社区关系与利益共享机制构建与实践
- 食品安全管理体系建设指导案例
- 2025年企业级ERP系统产品销售与深度本土化适配支持合同
- 2025年特色农产品直供餐饮企业精准采购合同
- GB/T 9969-2008工业产品使用说明书总则
- GB/T 3618-2006铝及铝合金花纹板
- GB/T 26255-2022燃气用聚乙烯(PE)管道系统的钢塑转换管件
- GB 31645-2018食品安全国家标准胶原蛋白肽
- 防山体滑坡应急预案
- 江苏省社会组织网上办事系统-操作手册
- DB37-T 3079-2017特种设备事故隐患排查治理体系细则
- 2023版江西省乡镇卫生院街道社区卫生服务中心地址医疗机构名单(1744家)
- 模具保养记录表
- 各种隔离标识
- 钢质防火门窗项目商业计划书范文参考
评论
0/150
提交评论