第四章智能技术的决策支持和智能决策支持系统_第1页
第四章智能技术的决策支持和智能决策支持系统_第2页
第四章智能技术的决策支持和智能决策支持系统_第3页
第四章智能技术的决策支持和智能决策支持系统_第4页
第四章智能技术的决策支持和智能决策支持系统_第5页
已阅读5页,还剩90页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第一页,共九十五页,编辑于2023年,星期一第四章智能技术的决策支持和智能决策支持系统(3)部分内容4.4神经网络的决策支持4.5遗传算法的决策支持第二页,共九十五页,编辑于2023年,星期一4.4神经网络的决策支持神经元的结构第三页,共九十五页,编辑于2023年,星期一神经元由细胞体、树突和轴突三部分组成;细胞体对接收到的信息进行处理;轴突是较长的神经纤维,是发出信息的;树突的神经纤维较短,是接收信息的;一个神经元的轴突末端,与另一个神经元的树突之间密切接触,传递神经元冲动的地方称为突触。4.4神经网络的决策支持第四页,共九十五页,编辑于2023年,星期一神经元具有如下性质:(1)多输入单输出;(2)突触具有加权的效果;(3)信息进行传递;(4)信息加工是非线性。4.4神经网络的决策支持第五页,共九十五页,编辑于2023年,星期一1、神经元的数学模型

其中:V1、V2、…Vn为输入,Ui为该神经元的输出,Tij为外面神经元与该神经元连接强度(即权值),为阈值,f(X)为该神经元的作用函数。4.4神经网络的决策支持第六页,共九十五页,编辑于2023年,星期一MP(神经元的数学模型)模型方程为:

其中Wij是神经元之间的连接强度,Wii=0,Wij(i≠j)是可调实数,由学习过程来调整。

第七页,共九十五页,编辑于2023年,星期一2、神经元作用函数[0,1]阶梯函数:

[-1,1]阶梯函数:第八页,共九十五页,编辑于2023年,星期一神经元作用函数

(-1,1)S型函数:

(0,1)S型函数:第九页,共九十五页,编辑于2023年,星期一3、学习规则神经元的学习规则是Hebb规则。

Hebb学习规则:若i与j两种神经元之间同时处于兴奋状态,则它们间的连接应加强,即:△Wij=SiSj(>0)

这一规则与“条件反射”学说一致,并得到神经细胞学说的证实。设α=1,当Si=Sj=1时,△Wij=1,在Si,Sj中有一个为0时,△Wij=0。第十页,共九十五页,编辑于2023年,星期一4.4.2反向传播模型(BP模型)BP模型(Backpropagation),需要确定它的网络结构、作用函数和误差函数。1.多层网络结构:有输入层、输出层,一个或多个隐含层第十一页,共九十五页,编辑于2023年,星期一

2.作用函数为(0,1)S型函数

3.误差函数对第p个样本误差计算公式为:

其中tpi,Opi分别是期望输出与计算输出。4.4.2反向传播模型(BP模型)第十二页,共九十五页,编辑于2023年,星期一

公式推导思想是:修正网络权值与阈值,使误差函数沿梯度方向下降。

BP网络表示:输入结点xj,隐结点yi,输出结点Ol,输入结点与隐结点间的网络权值为Wij,隐结点与输出结点间的网络权值为Tli,输出结点的期望输出为tl。4.4.2反向传播模型(BP模型)第十三页,共九十五页,编辑于2023年,星期一2.输出结点计算输出:其中:其中:BP模型的计算公式为:4.4.2反向传播模型(BP模型)1.隐结点的输出:第十四页,共九十五页,编辑于2023年,星期一3.输出结点的误差公式:4.4.2反向传播模型(BP模型)第十五页,共九十五页,编辑于2023年,星期一1.输出结点输出Ol计算公式(1)输入结点的输入xj(2)隐结点的输出:

其中:Wij连接权值,结点阈值。

(3)输出结点输出:其中:Tij连接权值,结点阈值。2输出层(隐结点到输出结点间)的修正公式(1)输出结点的期望输出tl(2)误差控制所有样本误差:BP模型计算公式汇总第十六页,共九十五页,编辑于2023年,星期一其中一个样本误差:

其中,p为样本数,n为输出结点数。(3)误差公式: (4)权值修正:

其中k为迭代次数。

(5)阈值修正:

BP模型计算公式汇总第十七页,共九十五页,编辑于2023年,星期一3、隐结点层(输入结点到隐结点间)的修正公式(1)误差公式:

(2)权值修正:(3)阈值修正:BP模型计算公式汇总第十八页,共九十五页,编辑于2023年,星期一

误差反向传播示意图隐结点误差的含义:第十九页,共九十五页,编辑于2023年,星期一··

l(2)

i(1)Ol=f(-l

)yi=f(-i

)l(k+1)=l(k)+l(2)

修正(Tli,l

),(Wij,i)修正权

l(2)=Ol(1-Ol)(dl-Ol)Til(k+1)=Til(k)+l(2)yi

i(1)=

yi(1-yi)Wij(k+1)=Wij(k)+i(1)xj输出节点lTli

隐节点

i修正权Wij输入节点xji(k+1)=i(k)+i(1)第二十页,共九十五页,编辑于2023年,星期一

按问题要求,设置输入结点为两个(x1,x2),输出结点为1个(z),隐结点定为2个(y1,y2),各结点阈值和网络权值见图说明。异或问题求解实例第二十一页,共九十五页,编辑于2023年,星期一计算机计算结果迭代次数:16745次;总误差:0.05隐层网络权值和阈值:

w11=5.24w12=5.231=8.01w21=6.68w22=6.642=2.98

输出层网络权值和阈值:

T1=-10T2=10=4.79 异或问题求解实例第二十二页,共九十五页,编辑于2023年,星期一一、神经网络专家系统特点1.神经元网络知识库:为神经元之间的连接强度(权值)。这种知识是分布式存储的,适合并行处理。2.推理机:是基于神经元的信息处理过程。它是以MP模型为基础的,采用数值计算方法。4.4.3神经网络专家系统及实例第二十三页,共九十五页,编辑于2023年,星期一3.成熟的学习算法:感知机采用delta规则;BP模型采用误差沿梯度方向下降、以及隐节点的误差由输出结点误差反向传播的思想进行的。4.容错性好:由于信息是分布式存贮,在个别单元上即使出错或丢失,所有单元的总体计算结果,可能并不改变。4.4.3神经网络专家系统及实例第二十四页,共九十五页,编辑于2023年,星期一二、神经网络专家系统结构用户知识工程师

学习样本

确定系统框架

神经元学习

形成学习样本

知识库(分布式)实际问题参数输入模式转换

推理机制输出模式转换实际问题结果开发环境运行环境第二十五页,共九十五页,编辑于2023年,星期一(一)确定系统框架

1.完成对神经元网络的拓朴结构设计:(1)神经元个数(2)神经元网络层次(3)网络单元的连接

2.确定神经元的作用函数和阈值作用函数用得较多的有两种:(1)阶梯函数(2)S型函数阈值的选取可为定值如i=0或i=0.5,或者进行迭代计算。第二十六页,共九十五页,编辑于2023年,星期一(二)学习样本学习(训练)样本:实际问题中已有结果的实例。(三)学习算法不同的网络模型采用不同的学习算法,但都以Hebb规则为基础。

1.Perception(感知机)模型:采用delta规则。2.Back-propagation(反向传播)模型:采用误差反向传播方法。第二十七页,共九十五页,编辑于2023年,星期一(四)推理机

推理机是基于神经元的信息处理过程。

1.神经元j的输入:其中,Wjk为神经元j和下层神经元k之间的连接权值。Ok为k神经元的输出。

2.神经元j的输出:Oj=f(Ij-j)

j为阈值,f为神经元作用函数。第二十八页,共九十五页,编辑于2023年,星期一

(五)知识库知识库主要是存放各个神经元之间连接权值。由于上下两层间各神经元都有关系,用数组表示为(Wij)i行对应上层结点,j列对应下层结点。第二十九页,共九十五页,编辑于2023年,星期一(六)输入模式转换实际问题的输入,一般是以一种概念形式表示,而神经元的输入,要求以(-∞,∞)间的数值形式表示,因此需要将文字概念转换成数值。建立两个向量集:(1)实际输入概念集:各输入节点的具体物理意义。(2)神经元输入数值集:各输入节点的数值。第三十页,共九十五页,编辑于2023年,星期一(七)输出模式转换实际问题的输出,一般也是以一种概念形式表示。而神经元的输出,一般是在[0,1]间的数值形式,这需要将数值向文字概念的转换。第三十一页,共九十五页,编辑于2023年,星期一城市医疗服务能力评价系统。

5个输入:病床数、医生数、医务人员数、门诊数和死亡率;

4个输出:级别v、g、a和b;建立一个三层神经元网络。训练样本(集):10城市的数据,训练后可对其它城市进行评价。输入输出模式转换:文字概念的数值转换。输入节点数据范围范围(-∞,∞),输出数据范围[0,1]。输入节点:五个节点分别表示五个指标,每个指标节点都有v,g,a,b四种可能。三、神经网络专家系统实例第三十二页,共九十五页,编辑于2023年,星期一城市医疗服务能力评价系统神经网络结构图第三十三页,共九十五页,编辑于2023年,星期一

城市医疗服务能力训练集第三十四页,共九十五页,编辑于2023年,星期一

文字概念的数值转换的五方案:方案1:v=3g=1 a=-1b=-3

方案2:v=1.5g=0.5 a=-0.5b=-1.5

方案3:v=6g=2 a=-2b=-6

方案4:v=1g=0.66a=0.33b=0

方案5:v=10g=7 a=4 b=1

计算结果表明,方案2收敛最快Count=360,计算结果也很合理,其次是方案1,Count=451,方案3,4,5均较差。结论:尽量采用(-1,1)附近较合适。第三十五页,共九十五页,编辑于2023年,星期一

4种动物样本:(1)某动物是暗斑点、黄褐色、有毛发、吃肉,它就是豹。(2)某动物是黄褐色、有毛发、吃肉、黑条纹,它就是虎。(3)某动物是不飞、黑白色、会游泳、有羽毛,它就是企鹅。(4)某动物是有羽毛、善飞,它就是信天翁。4.4.4神经元网络的容错性第三十六页,共九十五页,编辑于2023年,星期一第三十七页,共九十五页,编辑于2023年,星期一训练完成后,对样本进行缺省条件输入。(1)缺1个条件的情况(2)缺2个条件的情况(3)介于中间的情况缺省条件推理结果表第三十八页,共九十五页,编辑于2023年,星期一

从计算结果中,可以看出容错效果很好,缺1个条件时:例如对豹缺省黄褐色条件时,输出结果仍然是豹(0.8463);缺2个条件时:对虎缺省黄褐色和多一个不飞的条件时,输出结果仍然是虎(0.9286);输入豹和虎的共同信息(黄褐色、有毛发、吃肉)时,神经网络的输出是既靠近豹(0.3394)又靠近虎(0.4203),输出结论:该动物是一个介于豹和虎的中间新品种。第三十九页,共九十五页,编辑于2023年,星期一4.5、遗传算法的决策支持

遗传算法(GeneticAlgorithm,GA)是模拟生物进化的自然选择和遗传机制的一种寻优算法。(1)模拟生物的繁殖和变异现象;(2)从任意一初始种群出发,产生一群新的更适应环境的后代。(3)不断繁殖、进化,最后收敛到一个最优个体上。

优点:对复杂的优化问题无需建模和复杂运算,只需利用遗传算法的算子,即可求得问题的最优解或满意解。第四十页,共九十五页,编辑于2023年,星期一遗传算法发展的三个阶段(1)70年代的兴起阶段

1975年美国Michigan大学J.Holland首次系统地阐述了遗传算法的基本理论和方法。在这一时期的大部分研究都处于理论研究和建立实验模型阶段。(2)80年代的发展阶段

1980年Smith教授将遗传算法应用于机器学习领域,研制出了一个著名的分类器(Classifier)系统。这期间许多学者对遗传算法进行了大量的改进和发展,提出了许多成功的遗传算法模型,使遗传算法应用于更广泛的领域。(3)90年代的高潮阶段进入90年代后,遗传算法作为一种实用、高效、鲁棒性强的优化技术,得到了极为迅速的发展。第四十一页,共九十五页,编辑于2023年,星期一一、遗传算法的工作过程

遗传算法是一种群体型操作,该操作以群体中的所有个体为对象。选择(selection)、交叉(crossover)和变异(mutation)是遗传算法的三个主要操作算子,它们构成了遗传操作(Geneticoperation),使遗传算法具有了其他传统方法所没有的特性。

遗传算法的工作过程如图所示:4.5遗传算法原理第四十二页,共九十五页,编辑于2023年,星期一遗传算法的工作过程遗传算子编码和初始群体形成输出种群选择

个体适应值满意否?交叉产生新一代群体变异NY第四十三页,共九十五页,编辑于2023年,星期一1.群体中个体的编码如何将问题描述成位串的形式,即问题编码。一般将问题的参数用二进制位(基因)编码构成子串,再将子串拼接起来构成“染色体”位串。2.适应值函数的确定

适应值函数(即评价函数)是根据目标函数确定的。适应值总是非负的,任何情况下总是希望越大越好。如果目标函数不是取最大值时,需要将它映射成适应值函数。第四十四页,共九十五页,编辑于2023年,星期一

遗传算法的执行过程中,每一代有许多不同的染色体(个体)同时存在,这些染色体中哪个保留(生存)、哪个淘汰(死亡)是根据它们对环境的适应能力决定的,适应性强的有更多的机会保留下来。适应性强弱是计算个体适应值函数f(x)的值来判别的,这个值称为适应值(fitness)。适应值函数f(x)的构成与目标函数有密切关系,往往是目标函数的变种。3遗传算法的三个算子第四十五页,共九十五页,编辑于2023年,星期一(一)选择(Selection)算子

它又称复制(reproduction)、繁殖算子。

选择是从种群中选择生命力强的染色体产生新种群的过程。依据每个染色体的适应值大小,适应值越大,被选中的概率就越大,其子孙在下一代产生的个数就越多。

选择操作是建立在群体中个体的适应值估评基础上的,目前常用的选择算子有以下几种:

重组(recombination)、配对(breeding)算子。第四十六页,共九十五页,编辑于2023年,星期一

染色体重组分两步(1)首先在新复制的群体中随机选取两个个体;(2)沿着这两个个体(字符串)随机取一个位置,二者互换从该位置起的末尾部分。如有两个用二进制编码的个体A和B。长度L=5,A=a1a2a3a4a5

,B=b1b2b3b4b5随机选择一整数k∈[1,L-1],设k=4,经交叉后变为:

A=a1a2a3|a4a5A’=a1a2a3b4b5 B=b1b2b3|b4b5B’=b1b2b3a4a5交叉算子在遗传算法中起着核心作用。

第四十七页,共九十五页,编辑于2023年,星期一

选择和交叉算子基本上完成了遗传算法的大部分搜索功能,而变异则增加了遗传算法找到接近最优解的能力。变异就是以很小的概率,随机地改变字符串某个位置上的值。变异操作是按位(bit)进行的,即把某一位的内容进行变异。在二进制编码中,就是将某位0变成1,1变成0。变异发生的概率即变异概率Pm都取得很小(一般在0.001~0.02之间),它保证了遗传算法的有效性。

第四十八页,共九十五页,编辑于2023年,星期一

控制参数的设定

遗传算法中的参数包括:群体中个体的数目、交叉概率、变异概率等。这些参数的设定随具体问题的不同将有所差别,带有经验性,它会影响遗传算法的迭代收敛过程。第四十九页,共九十五页,编辑于2023年,星期一遗传算法的理论基础1.模式定理遗传算法的理论基础是Holland提出的模式定理。一个模式(Schema)就是一个描述种群中在位串的某些确定位置上具有相似性的位串子集的相似性模板(SimilarityTemplate)。模式定理是遗传算法的理论基础,它说明高适应值、长度短、阶数低的模式在后代中至少以指数增长包含该模式H的位串的数目。原因在于遗传使高适应值的模式复制更多的后代。第五十页,共九十五页,编辑于2023年,星期一遗传算法的理论基础2.基因块假设

高适应值、长度短、低阶的模式叫基因块。长度短的、低阶的、高适应值的模式(基因块)通过遗传操作繁殖、交换、变异,再繁殖、再交换、再变异的逐渐进化,形成潜在的适应性较高的位串,这就是基因块假说。

该假设指出,通过遗传算法能寻找到接近全局最优解的能力。第五十一页,共九十五页,编辑于2023年,星期一1.遗传算法的处理对象是问题参数的编码个体(位串)遗传算法要求将问题的参数编码成长度有限的位串。遗传算法是在求解问题的编码串上进行操作,从中找出高适应值的位串,而不是对问题目标函数和它们的参数直接操作。遗传算法不受函数限制条件(如导数存在、连续性、单极值等)的约束。遗传算法的基本特征

第五十二页,共九十五页,编辑于2023年,星期一2.遗传算法的搜索是从问题解位串集开始搜索,而不是从单个解开始在最优化问题中,传统的方法是从一个点开始搜索,如爬山法。一般复杂问题会在“地形”中出现若干“山峰”,传统的方法很容易走入假“山峰”。而遗传算法同时从种群的每个个体开始搜索,象一张网罩在“地形”上,数量极大的个体同时在很多区域中进行搜索,这样就减少了陷入局部解的可能性。第五十三页,共九十五页,编辑于2023年,星期一3.遗传算法只使用目标函数(即适应值)来搜索,而不需要导数等其他辅助信息。传统搜索算法需要一些辅助信息,如梯度算法需要导数,当这些信息不存在时,这些算法就失效了。而遗传算法只需目标函数和编码串,因此,遗传算法几乎可以处理任何问题。第五十四页,共九十五页,编辑于2023年,星期一4.遗传算法使用的三种遗传算子是一种随机操作,而不是确定性规则遗传算法使用随机操作,但并不意味着遗传算法是简单的随机搜索。遗传算法是使用随机工具来指导搜索向着一个最优解前进。第五十五页,共九十五页,编辑于2023年,星期一4.5.2优化模型的遗传算法求解

优化模型的计算是遗传算法最基本的也是最重要的研究和应用领域之一。一般说来,优化计算问题通常带有大量的局部极值点,往往是不可微的、不连续的、多维的、有约束条件的、高度非线性的问题。

精确地求解优化问题的全局最优解一般是不可能的。第五十六页,共九十五页,编辑于2023年,星期一1、适应值函数

遗传算法在进化搜索中用目标函数即适应值函数为依据。遗传算法的目标原函数不受连续可微的约束,且定义域可以为任意集合。对目标函数的唯一要求是,对输入个体可计算出能进行比较的非负适应值。这一特点使得遗传算法应用范围很广。适应值函数评估是选择操作的依据,适应值函数设计直接影响到遗传算法的性能。

第五十七页,共九十五页,编辑于2023年,星期一

遗传算法中,适应值函数要比较排序并在此基础上计算选择概率,所以适应值函数的值要取正值。将目标函数映射成求最大值形式且函数值非负的适应值函数是必要的。第五十八页,共九十五页,编辑于2023年,星期一2、约束条件的处理

遗传算法是由适应值来评估和引导搜索,而对求解问题的约束条件不能明确地表示出来。用遗传算法求解这些带约束的问题,需要进行一些处理。在等式约束方程中,对P个等式方程中抽出P个变量,经过线性组合变换后,用其余变量表示为该P个变量的等式,并将它代入目标函数中,消去该P个变量。这样,在目标函数中,就包含了这些等式约束条件。第五十九页,共九十五页,编辑于2023年,星期一3、遗传算法的迭代终止条件

当适应值函数的最大值已知时,一般以发现满足最大值或准最优解作为遗传算法迭代终止条件。但是,在许多优化计算问题中,适应值函数的最大值并不清楚,迭代终止条件一般定为:群体中个体的进化已趋于稳定状态,即发现占群体中一定比例的个体已完全是同一个体。第六十页,共九十五页,编辑于2023年,星期一旅行商问题(TSP)的遗传算法求解实例

已知n个城市的地理位置(x,y),求经过所有城市,并回到出发城市且每个城市仅经过一次的最短距离。其计算量为城市个数的指数量级。现用遗传算法来解决这个问题。

第六十一页,共九十五页,编辑于2023年,星期一1、编码

每条路径对应一个个体,个体形式地表示为R={City_No|City_No互不重复}n,n为城市数。例如对于n=10的TSP问题,对其中一个个体

它表示一条城市路径:3 1 5 7 8 910 4 2 631578910426第六十二页,共九十五页,编辑于2023年,星期一2、适应值函数

每个个体代表一条可能的路径。个体n的适应值为:其中N为种群数,Dn为

沿个体标示的城市序列的所经过的距离:其中ni表示个体中第i位的城市编号,n11=n1。适应值为非负,且取值越大越好。表示所有个体的路径长度的总和第六十三页,共九十五页,编辑于2023年,星期一3、交叉

随机地从种群中选出要交叉的两个不同个体,随机地选取一个交叉段。交叉段中两个个体的对应部分通过匹配换位实现交叉操作。对个体A和B:

A=984

|567|

13210

B=871

|4103|

2965

交叉段

对个体A,对交叉段中由B换位来的数,如4、10、3,在A中其它位相同的数进行反交换,即4换为5,10换为6,3换为7;对个体B,相似处理,最后得到:

A,=98

5

|4103|

1

7

2

6

B,=8

3

1

|567|

29

104第六十四页,共九十五页,编辑于2023年,星期一4、变异

根据变异概率Pe,随机地从种群中选出要变异的个体,随机地在该个体上选出变异两个位置,然后两个位置上的城市序号进行交换。如:

A=9

8

456

7

13210

下划线部分为要变异的两个位置。变异为:

A`=9

7

456

8

13210计算结果表明:n个城市的最佳路径接近一个外圈无交叉的环路。第六十五页,共九十五页,编辑于2023年,星期一4.5.3获取知识的遗传算法1980年,Smith采用遗传算法研制了一种分类器系统,这是遗传算法在机器学习中的重要应用系统。他使用单个字符串来表示一条规则。分类器系统的规则形式如下:IF<condition>THEN<action>意思是当条件(condition)满足时,就可能采取行动(action)。分类器系统的规则采用固定长度表示。这便于遗传算子的处理。第六十六页,共九十五页,编辑于2023年,星期一一、分类学习系统的结构检测器消息表遗传算法分类器信任分配算法测试表作用器客观环境第六十七页,共九十五页,编辑于2023年,星期一

客观环境信息通过分类器系统的检测器(Detector)被编码成有限长的消息(Messages)然后发往消息表;消息表中的消息触发位串规则(称为分类器),被触发的分类器又向消息表发消息,这些消息又有可能触发其它的分类器或引发一个行动。通过执行机构(作用器Effector)作用于客观环境。第六十八页,共九十五页,编辑于2023年,星期一1.检测器(Detector)一条消息Mi是一个二元组,其形式如下:Mi=[xi,yi]其中:i为消息号;x为条件部分,即训练例子的各特征编码,y为结论部分,即训练例子的类别。例如:[(10001011),(1011)]是一条由一个8位条件和4位结论组成的消息。2.消息表(MessageList)包含当前所有的消息(训练例子集)。第六十九页,共九十五页,编辑于2023年,星期一3.分类器(Classifier)所获得的规则中包含通配符#,如:1##0,1110是一致的。规则集越小,系统的时间性能当然越好。一个规则Ci是一个三元组,形式如下:Ci=[Ui,Vi,fitnessi]

其中,Ui是条件部分,,#表示通配符;Vi是结论部分。fitnessi是规则i的适应值,它又是一个二元组,其形式如下:fitnessi=[fit1,fit2]分别表示在该规则覆盖的范围内,与规则结论一致和不一致的消息个数。第七十页,共九十五页,编辑于2023年,星期一4.测试表(TestList)一个测试例子Ti也是一个同消息形式一样的二元组,只是它的结论部分,yi表示未确定。当执行完精练分类器规则后,其结论部分yi就被赋值成与消息Mi完全一样形式,即,变成一条新的消息。5.作用器(Effector)将测试的判别结果转换成具体问题的真实的输出值,并作用于环境。第七十一页,共九十五页,编辑于2023年,星期一二、分类学习系统的主要算法1.信任分配算法:将规则与消息表中的消息逐个匹配,根据匹配结果修改规则的适应值。步骤如下:(1)初始化规则的适应值,即:fit10,fit20。(2)从消息表[M]中取出一条消息,与工作分类器[WC]

中的规则逐个进行比较。(3)IF 条件和结论均匹配,THEN fit1fit1+1;(4)IF 条件匹配,结论不匹配,THENfit2fit2+1;(5)IF 条件不匹配,THENfitnessfitness。返回步骤(2),直到[M]中的消息全部取完。第七十二页,共九十五页,编辑于2023年,星期一2.遗传算法(GeneticAlgorithms)

对同一结论的规则,只允许其条件部分进化。如规则的条件和结论同时进化,则可能引起种群不收敛。遗传算法的主要步骤如下:(1)根据分类器(规则)的适应值的大小,从中选出几对分类器。分类器实力越大,被选中的概率越大。(2)对选出的分类器利用GA中的遗传算子,产生其“后代”。(3)用产生的“后代”取代分类器中适应值小者。第七十三页,共九十五页,编辑于2023年,星期一三、遗传分类器学习系统GCLS及其应用应用实例:学习识别脑出血和脑血栓两种疾病的诊断规则,此问题实际上是从大量已知患者病例(训练例子集)中找到这两类病的识别规则。实际上只有两种类别:A.脑出血;B.脑血栓为了作出判断,应当考虑如下几个方面的特征(属性);(1)病人的既往史,包括a.高血压(有01,无00);b.动脉硬化(有01,无00);(2)起病方式(快01,慢00);第七十四页,共九十五页,编辑于2023年,星期一(3)局部症状,包括:

a.偏瘫(是01,否00);b.瞳孔不等大(是01,否00);

c.两便失禁(是01,否00);d.语言障碍(是01,否00);

f.意识障碍(无00,深度01,轻度10);(4)病理反射(阳01,阴00);(5)膝腱反射(无00,活跃01,不活跃10);(6)病情发展(快01,慢00);上面是从六个方面12个特征来识别诊断患者到底得的是脑出血还是脑血栓。第七十五页,共九十五页,编辑于2023年,星期一获取知识

从二百多个脑出血和脑血栓病人的病例中,选出30个病例作为训练样本,100个作为测试样本。本实例采用二进制编码方式。每个训练例子是由12个特征和1个类别组成,每个特征和类别都由2位二进制字符表示。那么,将例子编码成二进制字符串的消息就是一个由24位条件和2位结论组成的二元组。例如消息:M=[(0100010101010110100101),(01)]训练集是由15个脑出血和15个脑血栓患者组成30个训练样本。本实验在对30个训练样本进行学习后,得到12个规则,学习终止于第170代。第七十六页,共九十五页,编辑于2023年,星期一获取的主要规则如下:(1)高血压=有瞳孔不等大=是膝腱反射=不活跃 脑出血(11)(2)瞳孔不等大=是语言障碍=是 脑出血(12)(3)高血压=有起病方式=快意识障碍=深度 脑出血(13)(4)高血压=有病情发展=快 脑出血(15)(5)高血压=有动脉硬化=有起病方式=慢 脑血栓(13)(6)动脉硬化=有病情发展=慢 脑血栓(15)(7)动脉硬化=有意识障碍=无 脑血栓(12)以上括号内的数值表示该规则的适应值。第七十七页,共九十五页,编辑于2023年,星期一

经验总结在GCLS系统中,几个主要的控制参数有:(1)环境消息(训练例子)的长度:length

(2)初始化工作分类器时,随机产生的规则数目:n

(3)遗传算法中的交叉概率:Pc

(4)遗传算法中的变异概率:Pm

(5)判断工作种群收敛与否的参数:M第七十八页,共九十五页,编辑于2023年,星期一GCLS的几个控制参数第七十九页,共九十五页,编辑于2023年,星期一在我们所做的脑出血与脑血栓疾病的识别诊断实例中,根据两位脑血管专家的提议,认为:训练集的正确率TR%达到95%以上,测试集的正确率TE%达到70%以上,则可表明GCLS系统对于辅助医生临床诊断是成功的。我们选取了不同的模型,即上表所示。第八十页,共九十五页,编辑于2023年,星期一

样本集的大小(samplesize)。样本集包括训练集和测试集,当样本选取50和25个时系统性能不太好。我们选取样本数为100时,全部模型均能达到要求。第八十一页,共九十五页,编辑于2023年,星期一(2)消息长度(即规则的长度)(length)。消息的长度是由每个特征的取值范围来确定的。计算表明,消息长度越长,其系统性能越好。但随着消息长度的增加,系统的执行时间也随之增加。我们也发现,消息长度等于39bits的系统性能比消息长度等于26bits的仅稍好一些,我们认为消息长度选取26bits就足以保证系统性能达到一个较好的水准。第八十二页,共九十五页,编辑于2023年,星期一(3)初始化工作分类器时随机产生的种群数目(n)。初始工作分类器中种群的数目影响着遗传算法的有效性。n太小,遗传算法会很差或根本找不出问题的解,因为太小的种群数目不能提高足够的采样点;n太大,会增加计算量,使收敛时间增长。一般种群数目在50到300之间比较合适。通过各种方案计算表明,训练集和测试集的识别正确率,都随着分类器数目的增加而有所提高。如:对于Pc=0.8,n=200比n=150的测试识别率提高了20%;当Pc、Pm取不同的值时,也会得到相似的结论。第八十三页,共九十五页,编辑于2023年,星期一

种群数目n的变化情况第八十四页,共九十五页,编辑于2023年,星期一(4)遗传算法的交叉概率(Pc)。交叉概率PC控制着交叉操作的频率。太大,会使高适应值的结构很快被破坏掉;太小,搜索会停止不前。一般取0.25到0.8。通过上表我们可以看到,Pc=0.8时要比Pc=0.5时系统性能要好。这一结论Goldberg(2)一书中也提出过。第八十五页,共九十五页,编辑于2023年,星期一(5)遗传算法的变异概率(Pm)。Pm太小不会产生新的位串,Pm太大,会使遗传算法变成随机搜索,一般Pm取0.00到0.02。变异概率在遗传学习中要比交叉概率小的多。当Pc=0.8,samplesize=100时,系统测试正确率将随着Pm的增大

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论