《ANN神经网络》PPT课件.ppt_第1页
《ANN神经网络》PPT课件.ppt_第2页
《ANN神经网络》PPT课件.ppt_第3页
《ANN神经网络》PPT课件.ppt_第4页
《ANN神经网络》PPT课件.ppt_第5页
已阅读5页,还剩121页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

智能算法 及其在数学建模中的应用 l计算智能简介 l人工神经网络及应用 l支持向量机及应用 l模糊集及应用 l遗传算法及应用 单元一 智能算法简介 l智能的层次 生物智能(BI) 符号智能(SI)计算智能(CI) 人工智能(AI) l最高层次的智能是生物智能(Biological Intelligence ,BI),生物智能中又以智慧生物的智能最高。 l人工智能(Artificial Intelligence, AI)是另一 层次的智能,研究如何 制造出人造的智能机器 或智能系统,来模拟人 类的智能活动。 l1956年Dartmouth大学 研讨会上将“人工智能” 定义为“试图用来模仿与 智能有关的人类活动的 计算机过程”。 l传统的人工智能偏重与符号处理与逻辑推理,因此又称为 符号智能(Symbolism Intelligence, SI)。 l早期符号智能对人工智能的发展起到了重要的推动作用, 但随着科技的发展,复杂性问题的大量涌现,这些方法在 处理非线性、不确定等复杂性问题时显得无能为力。 l计算智能(Computation Intelligence, CI)技术就是在这 一背景下发展起来的。 l计算智能的最大特点就是不需要建立问题本身精确的数学模型,侧重从 数据中学习,非常适合于处理那些因为难以建立有效的形式化模型而用 传统人工智能方法难以解决的问题。 l计算智能是以生物进化的观点认识和模拟智能。按照这一观点, 智能是在生物的遗传、变异、生长以及外部环境的自然选择中产 生的。在用进废退、优胜劣汰的过程中,适应度高的(头脑)结 构被保存下来,智能水平也随之提高。因此说计算智能就是基于 结构演化的智能。 l在概念提出初期,狭义的计算智能包括人工神经网络、模糊逻辑和进化 计算。 l计算智能的主要方法有人工神经网络、遗传算法、遗 传程序、演化程序、局部搜索、模拟退火等等。 l这些方法具有以下共同的要素:自适应的结构、随机 产生的或指定的初始状态、适应度的评测函数、修改 结构的操作、系统状态存储器、终止计算的条件、指 示结果的方法、控制过程的参数。 l计算智能的这些方法具有自学习、自组织、自适应的 特征和简单、通用、鲁棒性强、适于并行处理的优点 。在并行搜索、联想记忆、模式识别、知识自动获取 等方面得到了广泛的应用。 l典型的代表如遗传算法、免疫算法、模拟退火 算法、蚁群算法、微粒群算法,都是一种仿生 算法,基于“从大自然中获取智慧”的理念,通 过人们对自然界独特规律的认知,提取出适合 获取知识的一套计算工具。总的来说,通过自 适应学习的特性,这些算法达到了全局优化的 目的。 单元二 人工神经网络及应用 lANN的基本原理 lBP网络及应用 2.1 ANN基本原理 2.1.1 生物神经元 l神经元是大脑处理信息的基本单元 l人脑大约由1011个神经元组成,神经元互相连接成神经网 络 生物神经元简图 l生物神经元传递信息的过程为多输入、单输出 l神经元各组成部分的功能来看,信息的处理与传递主 要发生在突触附近 l当神经元细胞体通过轴突传到突触前膜的脉冲幅度达 到一定强度,即超过其阈值电位后,突触前膜将向突 触间隙释放神经传递的化学物质 l突触有两种类型,兴奋性突触和抑制性突触。前者产 生正突触后电位,后者产生负突触后电位 特点: l时空整合功能 神经元对于不同时间通过同一突触传入的神经冲动, 具有时间整合功能;对于同一时间通过不同突触传入的神 经冲动,具有空间整合功能。两种功能相互结合,具有时 空整合的输入信息处理功能,所谓整合是指抑制或兴奋的 受体电位或突触电位的代数和; l兴奋与抑制状态 神经元具有两种的常规工作状态:当传入冲动的时空整 合结果使细胞膜电位升高,超过动作电位阈值(约为40mV )时,细胞进入兴奋状态,产生神经冲动,由轴突输出; 当传入冲动的时空整合结果使膜电位下降至低于动作电位 阈值时,细胞进入抑制状态,无神经冲动输出,满足“0 1”律,即“兴奋抑制”状态; l脉冲与电位转换 突触界面具有脉冲/电位信号转换功能。沿神经纤维传递 的电脉冲为等幅、恒宽、编码(60100mV)的离散脉冲信 号,而细胞膜电位变化为连续的电位信号。在突触接口处 进行“数/模”转换,是通过神经介质以量子化学方式实 现的变换过程; l神经纤维传导速度 神经冲动沿神经纤维传导的速度在150m/s之间 ,因纤维特性不同而不同,粗纤维的传导速度在 100m/s,细纤维的传导速度可低至每秒数米; l突触延时和不应期 突触对神经冲动的传递具有延时和不应期。在相 邻的两次冲动之间需要一个时间间隔,即为不应 期,在此期间对激励不响应,不能传递神经冲动 ; l学习、遗忘和疲劳 由于结构可塑性,突触的传递作用可增强、减弱 、饱和,所以细胞具有相应的学习功能,遗忘或 疲劳效应。 2.1.2 ANN的结构 l神经网络是一个并行和分布式的信息处理网络 结构 l一般由大量神经元组成 l每个神经元只有一个输出,可以连接到很 多其他的神经元 l每个神经元输入有多个连接通道,每个连 接通道对应于一个连接权系数 人工神经元模型 求和 激励函数 激励函数的基本作用 l控制输入对输出的激活作用 l对输入、输出进行函数转换 l将可能无限域的输入变换成指定的有限范围内 的输出 常见的激励函数 ANN的基本结构 输入层隐层输出层 前向神经网络模型 z-1z-1z-1 反馈形网络模型 v1v2v3vn z-1 ANN的基本训练与学习算法 人工神经网络连接权的确定通常有两种方法 l根据具体要求,直接计算,如Hopfield网络作 优化计算 l通过学习得到的。大多数人工神经网络都采用 这种方法 l学习规则是人工神经网络研究中的核心问题 Hebb学习规则 误差校正(纠错)学习规则 无监督学习规则 lDonall Hebb根据生理学中条件反射机理,于1949 年提出的神经元连接强度变化的规则 l如果两个神经元同时兴奋(即同时被激活),则它们 之间的突触连接加强 la为学习速率,Vi, Vj为神经元i和j的输出 lHebb学习规则是人工神经网络学习的基本规则, 几乎所有神经网络的学习规则都可以看作Hebb学 习规则的变形 Hebb学习规则 l用已知样本作为教师信号对网络进行学习 l学习规则可由二次误差函数的梯度法导出 l误差校正学习规则实际上是一种梯度方法 l不能保证得到全局最优解 l要求大量训练样本,收敛速度慢 l对样本地表示次序变化比较敏感 误差校正规则 无监督的学习规则 l这类学习不在于寻找一个特殊映射的表示,而 是将事件空间分类为输入活动区域,并有选择 地对这些区域响应,从而调整参数一反映观察 事件的分部 l输入可以是连续值,对噪声有较强地抗干扰能 力 l对较少输入样本,结果可能要依赖于输入序列 2.1.3 人工神经网络在数学建模中的应用领域 回归与预测 模式识别(分类) 联想记忆与学习 反向传播网络(Back-Propagation Network,简 称BP网络)是对非线性可微分函数进行权值训练 的多层网络 权值的调整采用反向传播(Back-propagation) 的学习算法 它是一种多层前向反馈神经网络,其神经元的 变换函数是S型函数 输出量为0到1之间的连续量,它可实现从输入 到输出的任意的非线性映射 2.1.4 BP网络 lBP网络主要用于下述方面 函数逼近:用输入矢量和相应的输出矢量训练 一个网络逼近一个函数 模式识别和分类:用一个特定的输出矢量将它 与输入矢量联系起来;把输入矢量以所定义的合 适方式进行分类; 数据压缩:减少输出矢量维数以便于传输或存 储 l具有将强泛化性能:使网络平滑地学习函数,使网络能够 合理地响应被训练以外的输入 l泛化性能只对被训练的输入输出对最大值范围内的数据 有效,即网络具有内插值特性,不具有外插值性。超出最 大训练值的输入必将产生大的输出误差 一个具有r个输入和一个隐含层的神经网络模型结构 网络模型 l感知器和自适应线性元件的主要差别在激活函数上 :前者是二值型的,后者是线性的 lBP网络具有一层或多层隐含层,除了在多层网络上 与前面已介绍过的模型有不同外,其主要差别也表 现在激活函数上。 lBP网络的激活函数必须是处处可微的,因此它不能 采用二值型的阀值函数0,1或符号函数1,1 lBP网络经常使用的是S型的对数或正切激活函数和线 性函数 lBP网络特点 l输入和输出是并行的模拟量 l网络的输入输出关系是各层连接的权因子决定,没 有固定的算法 l权因子通过学习信号调节。学习越多,网络越聪明 l隐含层越多,网络输出精度越高,且个别权因子的 损坏不会对网络输出产生大的影响 l只有当希望对网络的输出进行限制,如限制在0和1 之间,那么在输出层应当包含S型激活函数 l在一般情况下,均是在隐含层采用S型激活函数,而 输出层采用线性激活函数 lS型函数具有非线性放大系数功能,可以把输入从负无穷大到正 无穷大的信号,变换成-1到l之间输出 l对较大的输入信号,放大系数较小;而对较小的输入信号,放 大系数则较大 l采用S型激活函数可以处理和逼近非线性输入/输出关系 学习规则 lBP算法是一种监督式的学习算法 l主要思想 l对于q个输入学习样本:P1,P2,Pq,已知与其 对应的输出样本为:T1,T2,Tq l使网络输出层的误差平方和达到最小 l用网络的实际输出A1,A2,Aq, 与目标矢量 T1,T2,Tq之间的误差修改其权值,使Am与期望 的Tm,(ml,q)尽可能接近 学习规则 lBP算法是由两部分组成,信息的正向传递与误差的反 向传播 l正向传播过程中,输入信息从输入层经隐含层逐层 计算传向输出层,每一层神经元的状态只影响下一层神 经元的状态 l如果在输出层未得到期望的输出,则计算输出层的 误差变化值,然后转向反向传播,通过网络将误差信号 沿原来的连接通路反传回来修改各层神经元的权值直至 达到期望目标 l假设输入为P,输入神经元有r个,隐含层内有s1个神经元,激 活函数为F1,输出层内有s2个神经元,对应的激活函数为F2, 输出为A,目标矢量为T l信息的正向传递 l隐含层中第i个神经元的输出 l输出层第k个神经元的输出 l定义误差函数 l利用梯度下降法求权值变化及误差的反向传播 l输出层的权值变化 l其中 l同理可得 l利用梯度下降法求权值变化及误差的反向传播 l隐含层权值变化 l其中 l同理可得 l对于f1为对数S型激活函数, l对于f2为线性激活函数 网络训练 l训练BP网络,需要计算网络加权输入矢量以及网络 输出和误差矢量,然后求误差平方和 l当所训练矢量的误差平方和小于误差目标,训练停 止;否则在输出层计算误差变化,且采用反向传播 学习规则来调整权值,然后重复此过程 l网络完成训练后,对网络输入一个不是训练集合中 的矢量,网络将以泛化方式给出输出结果 l为了能够较好地掌握BP网络的训练过程,我们用两 层网络为例来叙述BP网络的训练步骤 l初始化:用小的随机数初始化每一层的权值W和偏差 B,保证网络不被大的加权输入饱和 l期望误差最小值error_goal l最大循环次数max_epoch l修正权值的学习速率1r,一般情况下k0.0l,0.7 l变量表达:计算网络各层输出矢量A1和A2以及网络 误差E lA1tansig(W1*P,B1); lA2purelin(W2*A1,B2); lET-A; l权值修正:计算各层反传的误差变化D2和D1并计算 各层权值的修正值以及新权值: lD2deltalin(A2,E); lD1deltatan(A1,D2,W2); ldlWl,dBllearnbp(P,D1,lr); ldW2,dB21earnbp(A1,D2,1r); lW1W1十dW1;B1B1十dBl; lW2W2十dW2;B2B2十dB2 l计算权值修正后误差平方和 lSSEsumsqr(T-purelin(W2*tansig(W1*P,B1), B2) l检查:SSE是否小于err_goal。若是,训练结束; 否则继续 l以上所有的学习规则与训练的全过程,可以用函数 trainbp.m来完成 l它的使用只需定义有关参数:显示间隔次数,最大 循环次数,目标误差,以及学习速率。调用后返回训练 后权值,循环总数和最终误差 lTPdisp_freq max_epoch err_goal 1r lW,B,epochs,errorstrainbp(W,B,F,P, T,TP) n网络的层数 n隐含层神经元数 n初始权值的选取 n学习速率 n期望误差的选取 n应用举例 n局限性 网络的层数 l理论上已经证明:具有偏差和至少一个S型隐含层 加上一个线性输出层的网络,能够逼近任何有理 函数 l增加层数主要可以进一步的降低误差,提高精度 ,但同时也使网络复杂化,从而增加了网络权值 的训练时间。 l一般情况下应优先考虑增加隐含层中神经元数 l仅用具有非线性激活函数的单层网络来解决问题 没有必要或效果不好 l线性问题 l非线性问题 隐含层神经元数 l网络训练精度的提高,可以通过采用一个隐含层,而增加其神 经元数的方法来获得。这在结构实现上,要比增加更多的隐含 层简单得多 l定理: l实现任意N个输入向量构成的任何布尔函数的前向网络 所需权系数数目为 l在具体设计时,比较实际的做法是通过对不同神经元数进行训 练对比,然后适当地加上一点余量 初始权值的选取 l一般取初始权值在(-1,1)之间的随机数 l威得罗等人在分析了两层网络是如何对一个函数 进行训练后,提出一种选定初始权值的策略 l选择权值的量级为 l在MATLAB工具箱中可采用函数nwlog.m或nwtan.m 来初始化隐含层权值W1和B1。 l其方法仅使用在第一隐含层的初始值的选取上, 后面层的初始值仍然采用随机取数 学习速率 l学习速率决定每一次循环训练中所产生的权值变 化量 l大的学习速率可能导致系统的不稳定 l小的学习速率导致较长的训练时间,可能收敛很 慢,不过能保证网络的误差值不跳出误差表面的 低谷而最终趋于最小误差值 l所以在一般情况下,倾向于选取较小的学习速率 以保证系统的稳定性。学习速率的选取范围在 0.01-0.8之间 期望误差值选取 l在设计网络的训练过程中,期望误差值也应当通 过对比训练后确定一个合适的值 l这个所谓的“合适”,是相对于所需要的隐含层的节 点数来确定,因为较小的期望误差值是要靠增加 隐含层的节点,以及训练时间来获得 l一般情况下,作为对比,可以同时对两个不同期 望误差值的网络进行训练,最后通过综合因素的 考虑来确定采用其中一个网络 应用举例 l求解函数逼近问题 l有21组单输入矢量和相对应的目标矢量,试设计神 经网络来实现这对数组的函数关系 P=-1:0.1:1 T=-0.96 0.577 -0.0729 0.377 0.641 0.66 0.461 0.1336 -0.201 -0.434 -0.5 -0.393 -0.1647 0.0988 0.3072 0.396 0.3449 0.1816 -0.0312 -0.2183 -0.3201 测试集 P2=-1:0.025:1 目标矢量相对于输入矢量的图形 初始网络的输出曲线 训练1000次 2000次 训练3000次 5000次 lMatlab 中的ANN演示 语句:nnd 限制与不足 l需要较长的训练时间 l完全不能训练 l选取较小的初始权值 l采用较小的学习速率,但同时又增加了训练时间 l局部极小值 lBP算法可以使网络权值收敛到一个解,但它并不 能保证所求为误差超平面的全局最小解,很可能 是一个局部极小解 BP网络的改进 目标 加快训练速度 避免陷入局部极小值 附加动量法 利用附加动量的作用则有可能滑过局部极小值 修正网络权值时,不仅考虑误差在梯度上的作 用,而且考虑在误差曲面上变化趋势的影响, 其作用如同一个低通滤波器,它允许网络忽略 网络上微小变化特性 该方法是在反向传播法的基础上在每一个权值 的变化上加上一项正比于前次权值变化量的值 ,并根据反向传播法来产生新的权值变化 带有附加动量因子的权值调节公式 其中k为训练次数,mc为动量因子,一般取095左右 附加动量法的实质是将最后一次权值变化的影响,通 过一个动量因子来传递。 当动量因子取值为零时,权值变化仅根据梯度下降法产生 当动量因子取值为1时,新的权值变化则是设置为最后一次权 值的变化,而依梯度法产生的变化部分则被忽略掉了 促使权值的调节向着误差曲面底部的平均方向变化,当网络 权值进入误差曲面底部的平坦区时,i将变得很小,于是, wij(k+1)wij (k),从而防止了wij=0的出现,有助于 使网络从误差曲面的局部极小值中跳出 在MATLAB工具箱中,带有动量因子的权值修正法是用 函数learnbpm.m来实现的 trainbpm.m可以训练一层直至三层的带有附加动量因子 的反向传播网络 下面是对单层网络使用函数trainbpm.m的情形: W,B,epochs,errors trainbpm(W,B,F,P,T,TP) 自适应学习速率 通常调节学习速率的准则是,检查权值的修正值是否 真正降低了误差函数,如果确实如此,则说明所选取 的学习速率值小了,可以对其增加一个量;否则可认 为产生过调,应该减小学习速率的值 一种自适应学习速率的调整公式 lMATLAB工具箱中带有自适应学习速率进行反向传播训练的函数 为 trainbpa.m 可训练直至三层网络。 使用方法 W, B, epochs, TE trainbpa(W,B,F,P,T,TP) l可以将动量法和自适应学习速率结合起来以利用两方面的优点 。这个技术已编入了函数trainbpx.m之中 函数的调用和其他函数一样,只是需要更多的初始参数而已 TPdisp_freq max_epoch error_goal lr 1r_inc 1r_dec mom_const err_ratio; W,B,epochs,error; lrtrainbpx(W,B,F,P,T,TP) l反向传播法可以用来训练具有可微激活函数的多层前向网络, 以进行函数逼近,模式分类等工作 l反向传播网络的结构不完全受所要解决的问题所限制。 l网络的输入神经元数目及输出层神经元的数目是由问题 的要求所决定 l输入和输出层之间的隐含层数以及每层的神经元数是由 设计者来决定的 l已经证明,两层S型线性网络,如果S型层有足够的神经元,则 能够训练出任意输入和输出之间的有理函数关系 l反向传播法沿着误差表面的梯度下降,使网络误差最小,网络 有可能陷入局部极小值 l附加动量法使反向传播减少了网络在误差表面陷入低谷的可能 性并有助于减少训练时间 l太大的学习速率导致学习的不稳定,太小值又导致极长的训练 时间。自适应学习速率通过在保证稳定训练的前提下,达到了 合理的高速率,可以减少训练时间 l80-90的实际应用都是采用反向传播网络的。改进技术可 以用来使反向传播法更加容易实现并需要更少的训练时间 lBP网络在数学建模中的应用 lDHNN网络 单元三 支持向量机(SVM)及应用 lSVM的理论基础 l线性判别函数和判别面 l最优分类面 l支持向量机 SVM的理论基础 l传统的统计模式识别方法只有在样本趋向无穷大时, 其性能才有理论的保证。统计学习理论(STL)研究 有限样本情况下的机器学习问题。SVM的理论基础就 是统计学习理论。 l传统的统计模式识别方法在进行机器学习时,强调经 验风险最小化。而单纯的经验风险最小化会产生“过 学习问题”,其推广能力较差。 l推广能力是指: 将学习机器(即预测函数,或称学习函 数、学习模型)对未来输出进行正确预测的能力。 SVM的理论基础 l“过学习问题”:某些情况下,当训练误差过 小反而会导致推广能力的下降。 例如:对一组训练样本(x,y),x分布在实 数范围内,y取值在0,1之间。无论这些样 本是由什么模型产生的,我们总可以用 y=sin(w*x)去拟合,使得训练误差为0. 二阶模型、ANN、SVM示意 SVM的理论基础 l根据统计学习理论,学习机器的实际风险由经验风险 值和置信范围值两部分组成。而基于经验风险最小化 准则的学习方法只强调了训练样本的经验风险最小误 差,没有最小化置信范围值,因此其推广能力较差。 lVapnik 与1995年提出的支持向量机(Support Vector Machine, SVM)以训练误差作为优化问题的约束条件 ,以置信范围值最小化作为优化目标,即SVM是一种 基于结构风险最小化准则的学习方法,其推广能力明 显优于一些传统的学习方法。 SVM的理论基础 l由于SVM 的求解最后转化成二次规划问题的求 解,因此SVM 的解是全局唯一的最优解 lSVM在解决小样本、非线性及高维模式识别问题 中表现出许多特有的优势,并能够推广应用到 函数拟合等其他机器学习问题中. 线性判别函数和判别面 l一个线性判别函数(discriminant function)是指 由x的各个分量的线性组合而成的函数 l两类情况:对于两类问题的决策规则为 l如果g(x)=0,则判定x属于C1, l如果g(x)=0,则判定x属于C1,如果g(x)0是一个常数,它控制对错分 样本惩罚的程度。 支持向量机 l上节所得到的最优分类函数为: l该式只包含待分类样本与训练样本中的支持向量的内积 运 算,可见,要解决一个特征空间中的最优线性分类问题,我 们只需要知道这个空间中的内积运算即可。 l 对非线性问题, 可以通过非线性变换转化为某个高维空间 中的线性问题, 在变换空间求最优分类面. 这种变换可能比 较复杂, 因此这种思路在一般情况下不易实现. 支持向量机 l核: 支持向量机 核函数的选择 支持向量机 SVM方法的特点 l 非线性映射是SVM方法的理论基础,SVM利用内积核函数代替向高 维空间的非线性映射; l 对特征空间划分的最优超平面是SVM的目标,最大化分类边界的思 想是SVM方法的核心; l 支持向量是SVM的训练结果,在SVM分类决策中起决定作用的是支 持向量。 l SVM 是一种有坚实理论基础的新颖的小样本学习方法。它基本上不 涉及概率测度及大数定律等,因此不同于现有的统计方法。从本质上 看,它避开了从归纳到演绎的传统过程,实现了高效的从训练样本到预 报样本的“转导推理”(transductive inference) ,大大简化了通常的分类 和回归等问题。 支持向量机 SVM方法的特点 lSVM 的最终决策函数只由少数的支持向量所确定,计算的复杂性取 决于支持向量的数目,而不是样本空间的维数,这在某种意义上避免 了“维数灾难”。 l 少数支持向量决定了最终结果,这不但可以帮助我们抓住关键样本 、“剔除”大量冗余样本,而且注定了该方法不但算法简单,而且具有较 好的“鲁棒”性。这种“鲁棒”性主要体现在: l增、删非支持向量样本对模型没有影响; l支持向量样本集具有一定的鲁棒性; l有些成功的应用中,SVM 方法对核的选取不敏感。 lSVM本质上是两类分类器. l常用的SVM多值分类器构造方法有: 回归问题: 就是在训练样本上找到一个函数,它可以从输入域近 似映射到实数值上.输出值不再是二值. 在SVM中,回归问题被转化为分类问题来解. 支持向量机 lSVR存在问题: l核函数及参数难以选择 lSVR与BP的对比 单元四 模糊集及应用 l模糊逻辑 l模糊综合评价 4.1 模糊逻辑 l模糊逻辑的基本思想是任何事情都允许有一定 的程度。温度、高度、速度、距离和美丽所 有这些都可以在某个范围内浮动。 l模糊逻辑并不是说逻辑本身是模糊的,而是指 用来描述模糊的逻辑。模糊逻辑是模糊集的理 论,模糊集能够校正含糊的知识。 l例如:天气很热;昨天的雨很大;他很高 l而布尔逻辑表达的是明显的差别,迫使我们在 集合的成员和非成员之间划出明显的界限。 l例如,如果我们以180cm为界限,那么就说 Tom高,因为其身高为181cm,而David矮, 因为其身高为179cm。但是David真的矮吗? 这种分界可以这么武断吗? l模糊逻辑能反映人类是怎样思考的。它尝试模 拟人类的语感、决策制订和常识,导致了新的 、更加人性化和智慧系统的产生。 l模糊或多值逻辑是波兰的逻辑学家和哲学家 Jan Lukasiewicz在20世纪30年代引入的。 l当时经典的逻辑操作仅使用两个值1(为真)和0( 为假) lLukasiewicz引入了将真值扩展到0和1之间所 有的实数的逻辑。使用该范围内的一个数值来 表示某个命题为真或假的可能性。 l例如,身高为181cm的男人确实是高的可能性 取值为0.86。这个人应该是很高。关于不精确 推理技术的理论通常称为可能性理论。 l1937年,哲学家Max Black发表了论文“Vagueness: an exercise in logical analysis”。在论文中,他讨 论了指示程度的连续变化。 l设想将无数的椅子排成一行。在一端是齐本德尔式的 椅子,挨着它的是类似齐本德尔式的,但看上去和第 一把椅子几乎分不出差别。随后的椅子越来越不像椅 子,最后是一根圆木。 l那么,椅子什么时候变成了圆木? l Max Black也定义如果连续区是离散的,那么可以为 每个元素分配一个数值。他接受模糊的机率。 l1965年,Lotfi Zadeh教授发表了著名的论文 “Fuzzy sets”。 l事实上,Zadeh将可能性理论扩展到数学逻辑 的形式系统中,他引入了新概念以应用自然语 言的术语。 l这种表达和操作模糊术语的新逻辑称为模糊逻 辑,Zadeh也成为“模糊逻辑之父”。 l模糊依赖于模糊集理轮,模糊逻辑只是该理论 的一小部分。 l模糊逻辑是基于归属度而不是经典二值逻辑中 清晰归属关系的知识表达的一组数学原理。 l和二值的布尔逻辑不同,模糊逻辑是多值的。 它处理归属的程度和可信的程度。模糊逻辑使 用介于0(完全为假)和1(完全为真)之间逻辑值 的连续区间。 l与非黑即白不同,它使用颜色的色谱,可以接 受同时部分为真和部分为假的事物。 (a)布尔值 (b)模糊值 布布尔尔和模糊和模糊逻辑逻辑的的逻辑逻辑值值范围范围 模糊集 l集合的概念 l某些指定的对象集在一起就成为一个集合,也 简称集.集合中的每个对象叫做这个集合的元 素。 模糊集(高个子男人) 姓 名身高(cm)隶属度 清晰集模糊集 Chris20811.00 Mark20511.00 John19810.98 Tom18110.82 David17900.78 Mike17200.24 Bob16700.15 Steven15800.06 ill15500.01 Peter15200.00 l水平轴表示论域某一变数所有可能取值的范 围,在本例中变数是身高。按照这种表示方法 ,男性的身高应该包含全体男性的身高。 l垂直轴表示模糊集中的隶属度。在本例中,“ 高个子男人”的模糊集将身高值对应到相对应

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论