chapter_第1页
chapter_第2页
chapter_第3页
chapter_第4页
chapter_第5页
已阅读5页,还剩122页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

Intelligent Control Theory and Its Applications,智能控制理论与应用Zhidong DENGDepartment of Computer ScienceTsinghua University邓志东 清华大学计算机系,第三章 神经网络与神经网络控制,建议参考: D. Hammerstrom, Working with Neural Networks. IEEE Spectrum, July 1993. 并重点阅读如下论文: K. J. Hunt, et al., “Neural Networks for Control Systems A Survey”, Automatica, vol. 28, no.6, 1992. P. J., Antsaklis (ed.), Special Issue on Neural Networks in Control Systems Magazine, vol.10, no.3, 1990. more 神经网络参考文献列表(46篇),3.1 概 述,3.1.1 神经元模型,0、人类大脑,脑科学Brain ScienceNeuroscienceNeurobiologyNeuronal molecular biology,3.1.1 神经元模型,0、人类大脑,大脑:大脑皮层(2-6mm厚灰质)额叶(语言、思维、情感、运动等)顶叶(触觉、温度觉、压觉、痛觉等体感)枕叶(视觉)颞叶(声音)小脑:通路、平衡等,3.1.1 神经元模型,0、人类大脑,3.1.1 神经元模型,Brodmann人类大脑分区最早由德国神经科医生K. Brodmann提出。分区系统包括每个半球的52个区域,其中一些区域被细分,例如23区被分为23a和23b区,3.1.1 神经元模型,1. 神经元与突触的神经生理学基础,人脑皮层约有140亿个神经元,功能柱的平均神经元个数约为106107,每个神经元的突触连接高达103104两个巨大的小脑神经细胞,生物神经系统:中枢神经系统和外周神经系统。中枢神经系统主要由神经元(neuron)与神经胶质细胞(neuroglial cell)等两大类细胞组成。神经元也称神经细胞,是进行神经信息产生、接收、传递与处理,并获得认知、思维、情感等复杂高级功能的基石。,3.1.1 神经元模型,1)生物神经元,典型的生物神经元可分为胞体和突起两大部分。 胞体外面为细胞膜,内含细胞质和细胞核;突起包括树突和轴突。 胞体(soma或cell body) 细胞膜 跨膜蛋白质(受体) 选择性蛋白质膜孔离子通道,3.1.1 神经元模型,1)生物神经元,树突 (dendrite) 负责神经信息的传入; 数量较多,形态各异,较为粗短,反复分支,覆盖着许多受体 轴突 (axon) 负责神经信息的传出; 数量上通常仅有一条,形态上细长均匀,可短至1毫米,也可长达1米 末端常有分支,称为轴突侧枝,3.1.1 神经元模型,1)生物神经元,轴突 (axon) 每个侧枝的末梢部位膨大呈球状,称为轴突末梢或突触小体。 始自轴丘,初段裸露没有髓鞘包裹,细胞膜的钠通道密度最大,产生动作电位的阈值最低,是动作电位的产生之地。 轴突离开胞体一段距离后,才获得各段髓鞘包裹和郎飞氏结,成为神经纤维。,3.1.1 神经元模型,1)生物神经元,突触(synapse) 是神经元之间进行信息传递的部位,也是神经信息记忆的主要功能单元。 突触的信息传递是单向的。 可分为化学突触和电突触两类。化学突触占大多数,电突触仅占少数。 位于突触前神经元轴突末梢内的囊泡将释放神经递质或调质。,3.1.1 神经元模型,1)生物神经元,神经元胞体的形态、大小及突起的种类、数量与长度差异很大。胞体在形态上可分为星形、锥体形、球形和梭形等。突起包括假单极、双极和多极。,3.1.1 神经元模型,2)动作电位,神经元通过电信号动作电位(action potential)传递信息或编码外部刺激。动作电位由离子的跨膜运动产生,也称为神经冲动(impulse)或发放(spike)。下面简要介绍产生动作电位的主要过程。,3.1.1 神经元模型,2)动作电位,神经元表面的细胞膜经由磷脂双层分为细胞内和细胞外。细胞内外存在大量的水分子和带电离子,如 钠离子Na+ 钾离子K+ 钙离子Ca2+ 氯离子Cl-带电离子通过细胞膜上的离子通道进出细胞内。离子通道由镶嵌在磷脂双层的蛋白质构成。,3.1.1 神经元模型,2)动作电位,这些蛋白质结构的不同使得离子通道具有不同的选择性。例如,钾离子通道只能通过钾离子,而钠离子通道只能通过钠离子。离子通道还具有门控(gating)这一重要性质,即离子通道将随着细胞膜微环境的变化表现为或者开放或者关闭。跨膜蛋白质还形成一类称为离子泵(ion pump)的通道,该通道可跨膜逆离子浓度梯度转运离子。,3.1.1 神经元模型,2)动作电位,离子经由离子通道产生跨膜运动。产生该运动的驱动力之一是细胞膜内外之离子浓度差。离子顺浓度梯度方向经由离子通道的流动称为扩散(diffusion)。由于离子的带电极性,细胞膜内外的电位差同样可导致离子经由离子通道产生跨膜运动。扩散力电场力,3.1.1 神经元模型,2)动作电位,静息时钾离子浓度胞内高于胞外,而钠离子和钙离子浓度则是胞外高于胞内。动作电位产生中的“纳进钾出”,造成的膜内外离子浓度变化,可借助离子泵进行恢复。钠-钾离子泵通过降解机体内的生物能源腺苷三磷酸(ATP)时产生的化学能,逆浓度梯度分别转运钾离子和钠离子,重新导致钠离子富集于胞外而钾离子富集于胞内。而钙离子泵则将钙离子跨膜转运至胞外,使得其富集于胞外。 生物能!,3.1.1 神经元模型,2)动作电位,由于离子泵的机制使得胞内钾离子的浓度高于胞外,跨膜的钾离子通道使得胞内的钾离子顺着浓度梯度方向由胞内流向胞外。细胞外正电荷的聚集使得细胞内外产生跨膜的电位差。胞内钾离子浓度的减少使得其负电荷越来越多,从而又会吸引钾离子通过钾离子通道返回胞内。当吸引钾离子返回胞内的电场力与驱动它们向胞外运动的扩散力相等,就达到平衡状态。,3.1.1 神经元模型,2)动作电位,神经元在不产生动作电位时具有稳定的膜电位差,称为静息电位。此时称神经元处于静息状态或称极化状态。在静息状态时,细胞膜会有不同的离子通道处于开放状态,如允许钾离子和钠离子通透。静息状态下神经元胞膜对各类离子的通透性不同。静息电位值约为-65mV,即神经元胞内比胞外更负。可以观察到,神经元在静息时的电位值更接近于钾离子的平衡电位,这是因为在静息状态时,钾离子的通透性远高于其他离子的通透性。,3.1.1 神经元模型,当向神经元注入一定大小的电流(去极化/超极化),将会引起神经元产生动作电位。去极化输入电流将使膜电位的值逐渐增大。当膜电位超过某个阈值时,电压门控钠通道打开。由于此时膜内侧存在的负电位,胞外大量的钠离子将迅速涌入胞内,导致细胞膜快速去极化。,3.1.1 神经元模型,当胞内电位逐渐升高而接近钠离子平衡电位时,电压门控钠通道将关闭,以阻止钠离子继续流入胞内。此时电压门控钾通道则会及时打开。由于膜被去极化,因此将产生一个对钾离子的巨大驱动力使得钾离子由离子通道流出胞外,从而导致膜电位重新变负,这一过程称为超极化。,3.1.1 神经元模型,2)动作电位,动作电位的产生过程大约将持续 1 毫秒。之后,离子泵将钠离子泵出胞内,而将钾离子泵入胞内,以使胞内外的离子浓度恢复为动作电位产生前的水平。动作电位可沿着轴突一直传导到轴突末梢,进而引发突触传递。可以将这一传导过程想象成导火线的燃烧。动作电位传导的一个主要特点是不衰减性,也就是说动作电位在轴丘产生时的值与传递至轴突末梢后的值基本相同。,刺激强度与动作电位发放频率之间的关系,生物神经元的信息 处理,3.1.1 神经元模型,3)神经元动力学方程,Hodgkin与Huxley通过实验发现了三种不同类型的离子电流,并建立了产生动作电位的数学模型。他们的这一工作获得了1952年的诺贝尔奖。这是利用数学模型解释神经生理学实验结果的典范。,3.1.1 神经元模型,3)神经元动力学方程,前已指出,胞膜将神经元分为胞内和胞外。一般情况下,胞内壁存有许多的负电荷,而胞外壁则存有相应的正电荷。这样可以将细胞膜看作为用于存储电荷的电容。类似地,由带电离子在胞内外的浓度差值而形成的电位差可视为电池,而膜对离子的选择性通透则可视为电阻。,3.1.1 神经元模型,3)神经元动力学方程,神经元的这些特性可大致等效为如下图所示的电路。,HH模型的等效电路。左图神经元膜内外离子和电荷分布,右图为等效的电路图,3.1.1 神经元模型,3)神经元动力学方程,由Kirchhoff定律可知,通过胞膜的总电流 I 等于膜电容产生的电流 Icap 加上所有离子的电流 Ik,这里k 表示不同离子的索引。因此,我们有式中,对Ik 求和表示所有带电离子产生的电流(包括漏电流)。,3.1.1 神经元模型,3)神经元动力学方程,Hodgkin-Huxley(简称HH)模型仅考虑了钠离子和钾离子的电流,其他离子的电流则合并称为漏电流。将电容中电流和电压之间的关系 Icap = Cdu/dt代入上式,可得这里 C 为电容常数,u 为电容电压(即膜电位)。,3.1.1 神经元模型,前已指出,可将跨膜离子通道对离子的选择性通透等效为电阻的功能,这自然也可由电导来表示。漏通道的电导定义为 gL = 1/R。由于离子通道对离子并非完全通透,HH模型利用另三个变量 m,n 和 h 来描述通道随时间的开放变化。变量 m 和 h 对应于钠离子通道,而变量 n 则对应于钾离子通道。此时,HH模型中的离子电流和漏电流为其中,常数 ENa, EK 和 EL 表示反转电位。这里的反转电位表示当电压施加于某个离子达到平衡电位时,使得电流方向发生变化的电压值。纳、钾离子的电导 gNa 和 gK 同样为经验常数。,3.1.1 神经元模型,3)神经元动力学方程,上述表示通道开放状况的三个变量 m,n 和 h ,被称之为门控变量。其动力学方程可分别描述如下:其中,(u)和 (u) 是膜电压 u 的经验函数。Hodgkin与Huxley给出了它们的具体表达式。,3.1.1 神经元模型,3)神经元动力学方程,HH模型下的动作电位。上图为膜电位和外界刺激随时间的变化,下图为门控变量随时间的变化,3.1.1 神经元模型,当外界刺激不足以引起神经元离子通道发生以上的变化,神经元将处于静息状态。而当给予神经元持续的刺激,则会连续产生动作电位序列,如下图所示。,3.1.1 神经元模型,3)神经元动力学方程,由于在实际应用中HH方程过于复杂,往往使用一类简化的动作电位产生模型,称为漏整合后发放(Leaky integrate-and-fire,简称LIF)模型。LIF模型简化了神经元产生动作电位的许多神经生理学细节,而仅仅通过比较膜电位与一个阈值电位之间的关系来决定是否发放动作电位。膜电位的计算公式如下:,3.1.1 神经元模型,3)神经元动力学方程,其中,u 为神经元膜电位,Er 为静息电位,m 为膜时间常数,Rm 为膜电阻,Ie 为输入电流。当 u 的值达到阈值电位后,神经元将产生一个动作电位,然后将膜电位重置为 ureset。利用LIF模型产生的动作电位序列,如下图所示。,3.1.1 神经元模型,LIF模型产生的动作电位序列。下图为输入电流随时间的变化,上图为动作电位序列。仿真中使用的参数为 Er = -0.07 伏, Rm = 107欧姆, m = 0.01,= -0.054 伏, ureset = -0.080 伏,3.1.1 神经元模型,4)突触及其可塑性,突触是神经元的轴突末梢与另一个神经元的连接部位,它是大脑实现学习和记忆的基石。神经系统主要包含化学突触和电突触。中枢神经系统中的突触类型主要为化学突触,电突触较少。按照连接部位的不同,突触又可分为轴突-树突型、轴突-胞体型、轴突-轴突型和树突-树突型等多种结构形式。,兴奋性和抑制性化学突触,3.1.1 神经元模型,4)突触及其可塑性,突触中传递信息的神经递质则包括 兴奋性神经递质(excitatory neural transmitter) 抑制性神经递质(inhibitory neural transmitter)下面我们将介绍信息是如何通过化学突触在神经元之间进行传递的。,3.1.1 神经元模型,4)突触及其可塑性,突触前膜和突触后膜之间的间隙宽度约为2050 纳米。间隙内的纤维性胞外蛋白基质将突触前后膜相互粘附。突触的前侧通常是轴突末梢,之中有许多直径约为 50 纳米的由膜包围的球体,称为突触囊泡。它们中存储着神经递质或神经调质。这些神经递质即是将信息传递至突触后神经元的活性化学物质。,3.1.1 神经元模型,4)突触及其可塑性,典型的神经递质包括氨基丁酸(GABA)、谷氨酸(包括AMPA和NMDA),以及多巴胺、乙酰胆碱和去甲肾上腺素等。神经递质或调质种类繁多,功能复杂,与许多神经疾病和认知功能密切相关。,3.1.1 神经元模型,当动作电位传递至突触前神经元的轴突末梢时,将会打开末梢膜上的电压门控钙通道,使得胞外的钙离子内流。钙离子的内流导致末梢中的囊泡与末梢膜融合并释放出其中的神经递质至突触间隙。这些释放出的神经递质与镶嵌在突触后神经元膜上的特异性蛋白质分子相结合,从而打开突触后膜上的离子通道,致使相应的离子流入突触后神经元,从而完成信息的传递。,3.1.1 神经元模型,4)突触及其可塑性,突触前轴突末梢中囊泡释放的神经递质将与突触后跨膜蛋白绑定,这些蛋白称为递质门控离子通道,也就是不同神经递质的绑定会引起该通道选择性地允许某类离子通道处于打开状态。例如,若释放的神经递质为兴奋性的谷氨酸递质,则会引起突触后神经元的去极化,产生兴奋性突触后电位(excitatory postsynaptic potential,简称EPSP)。,3.1.1 神经元模型,4)突触及其可塑性,而抑制性神经递质GABA的释放则会导致突触后神经元的超极化,产生抑制性突触后电位(inhibitory postsynaptic potential,简称IPSP)。导致突触后神经元去极化的神经元称为兴奋性神经元,而引起突触后神经元超极化的神经元则称为抑制性神经元。大脑中兴奋性神经元与抑制性神经元数量之比约为 4:1。,3.1.1 神经元模型,4)突触及其可塑性,此外,突触前神经元的动作电位还会引起突触传递效能的变化,这种变化称为突触的可塑性。它是人工神经网络学习算法的神经生理学基础。按照传递效能的增加和减少,可将突触的可塑性分为长时程增强(long-term potentiation,简称LTP)和长时程减弱(long-term depression,简称LTD)。,3.1.1 神经元模型,4)突触及其可塑性,LTP是由于同步地刺激突触前神经元和突触后神经元而导致的突触传递效能的长时间增强,这种增强过程将持续几个小时或者更长。而LTD则是突触传递效能的长时间减弱。引起LTD效应的可以是对突触的强刺激或者是持续的弱刺激,这种刺激将导致突触后受体的密度减少。,3.1.1 神经元模型,4)突触及其可塑性,还有一类重要的突触可塑性是与突触前神经元与突触后神经元动作电位产生的相对时间有关,称为依赖峰电位时间的可塑性(STDP)。当突触前神经元的动作电位发生在突触后神经元动作电位之前,则突触的可塑性表现为LTP。而当突触前神经元的动作电位发生在突触后神经元动作电位之后,突触的可塑性则表现为LTD。产生STDP的时间窗约为50 毫秒,这也就是突触前后神经元发放的时间差。目前有关STDP与神经网络特性的关系及其对行为的影响,是神经生理学和理论神经科学的热点研究之一。,胞体的时空整合作用 化学突触与电突触 兴奋性突触和抑制性突触 神经冲动的传递 突触的连接形式 核团与核层、神经通路 大脑皮层(140亿个神经元/2-6mm) 功能柱(functional column),皮层功能柱(cortex functional column) 神经元在皮层的垂直方向上呈柱状分布; 作为一种基本的结构和功能单元,在认知过程中起着基础性作用; 分为兴奋型的规则发放型细胞(regular-spiking,RS)和抑制型的快速发放型细胞(fast-spiking,FS),皮层功能柱(cortex functional column) RS细胞在组织形态上为锥体细胞,具有较长的轴突; FS细胞通常为非锥体细胞,轴突较短; 两者在功能柱中的比例约为4:1; 兴奋型突触连接的连接强度总和与抑制型突触连接的连接强度总和相等; 功能柱内部的神经元之间具有较强的侧连接; 功能柱之间神经元的连接则非常稀疏且耦合强度较弱,人脑信息处理,人脑信息处理,EEG 脑电波,脑磁图、功能核磁共振成像(fMRI),美国的脑研究计划美国今年4月2日正式公布脑研究计划,全称为“推进创新神经技术脑研究计划”,简称“脑计划”。启动资金1亿多美元,分别由美国NIH、DARPA和NFC提供。联合主席为洛克菲勒大学教授巴格曼、斯坦福大学教授纽瑟姆。意义可媲美人类基因组计划。目的是探索人类大脑工作机制,绘制脑活动全图,推进对人类大脑近千亿神经元的理解,加深对感知、行为和意识的研究,并最终找到神经疾病的新疗法。这一计划也有望推动人工智能领域的进展。,理论神经科学神经生理学神经生物学认知心理学 获得启发。,人工神经网络是利用计算模型来模拟和应用生物神经网络的某些结构和功能。,2、人工神经元模型,MP模型,该神经元模型的输入输出关系为:,在上式中 称为阈值, 称为连接权系数, 称为输出变换函数或激发函数(activation function)。,MP神经元模型的激发函数为符号函数或阶跃函数。,人工神经网络是利用计算模型来模拟和应用生物神经网络的某些结构和功能。,2、人工神经元模型,WSN模型,RBF模型,Spike模型,几种常见的激发函数,(b)符号函数:,(a)比例函数 : y = f (s) = s,(d) 双曲函数(tanh),(c) 饱和函数,(e) 阶跃函数,(f) S形函数(Sigmoid),人工神经网络是一个并行和分布式的信息处理网络结构,该网络结构一般由许多个神经元组成,每个神经元有一个单一的输出,它可以连接到很多其它的神经元,其输入有多个连接通路,每个连接通路对应一个连接权系数。,3.1.2 人工神经网络,神经网络是一个具有如下性质的有向图:,(1) 每个节点有一个状态变量;,(3) 每个节点有一个阈值;,(4) 对每个节点j 定义一个激发函数,最常见的情形为,(2) 节点 到节点 有一个连接权系数;,三个典型的神经网络结构,反馈型网络,前馈型网络,三个典型的神经网络结构,递归型网络 (Recurrent Neural Network,简称RNN),人工神经网络是对生物神经网络的一种模拟和近似,包括如下两个方面:,从内部结构和实现机理方面进行模拟,从外部功能上进行模拟,计算机具有快速计算的能力,这是人所远远不能比拟的,而人的学习、决策和识别等方面的能力则远远超过计算机。,3.1.3 生物神经系统与计算机信息处理的比较,计算机处理单个信息的时间约为ns 级。而脑神经元对外部刺激的响应时间大约在ms 级。可见,计算机处理单个信息的时间要比人脑大约快 倍以上。,1、处理速度,2、处理顺序,计算机处理信息的顺序是串行的,人脑处理信息是并行的。正是由于这一点,才使得人脑具有很强的综合处理信息的能力。,脑神经元的数量十分巨大, 人脑估计约具有 个神经元,每个神经元大约与 个其它神经元相连接。单个脑神经元的构造也是很复杂的。,3、处理单元的数目及复杂程度,目前的人工神经网络无论从数目还是复杂程度均无法与生物神经网络相比拟。,4、知识存贮,知识在人脑中具有适应性,而在计算机中只是严格的替换关系。由此可以解释为什么人脑具有综合概括的能力,而计算机却不具备。,计算机中,知识是静态地存贮在编有地址的存储器中,新的信息破坏老的信息。,人脑中,知识存贮在神经元之间的连接关系中,新的知识用来调整这种连接关系,而不是破坏这种连接关系。,5、容错能力,人脑具备较强的容错能力,个别神经元的损坏并不影响整体的性能。而通常的计算机却不具备容错能力,CPU或存储器的损坏都将导致整体系统的实质性破坏。,6、运行控制,在计算机中有一个中央处理单元来控制所有的活动和对所有的信息进行存取操作,它实质上产生了信息处理的一个瓶颈,同时也使得一旦控制部件产生故障而导致整个系统的失效。而在脑神经系统中,不存在这样的中央控制单元来控制每一个神经元的活动。每个神经元只受与它相连结的一部分神经元的影响,而不受其它部分神经元的控制和影响,是分布式的。,MP模型 1943年心理学家W. McCulloch 和数理逻辑学家W. Pitts 首先提出了一个简单的人工神经元模型, 其神经元的输入输出关系为,其中输入、输出均为二值量, 为固定的权值。利用该简单网络可以实现一些逻辑关系。 虽然该模型较为简单,但扩展激发函数后的MP模型,至今仍是几乎所有人工神经网络模型中的标准人工神经元模型。,3.1.4 神经网络的发展概况,Hebb规则 1949年 D.O. Hebb 首先提出了一种调整神经网络连接权的规则, 通常称为Hebb 学习规则。基本思想是,当两个神经元同时兴奋或同时抑制时,它们之间的连接强度增加。用式子表示即为,或者,该学习规则的意义为,连接权的调整正比于两个神经元活动状态的乘积。连接权是对称的,神经元到自身的连接权为零。,Perceptron感知机 1957年F. Rosenblatt 等人研究了一种特殊类型的人工神经网络,称为“感知机” (Perceptron)。他们认为这是生物系统感知外界信息的简化模型。该模型主要用于模式分类,并一度引起人们的广泛兴趣。 “神经网络之父” Adaline 1962年Widrow提出了自适应线性元件(Adaline),是连续取值的线性网络,用于自适应系统。,Perceptron专著 1969年M. Minsky和 S. Papert 发表了名为“感知机”的专著。指出了简单的线性感知机的功能是有限的,它无法解决线性不可分的两类样本的分类问题。要解决这个问题,必须加入隐层节点。但是对于多层网络,如何找到有效的学习算法,在当时则是一个难于解决的问题。因此它使得整个70年代神经网络的研究处于低潮。,Hopfield网络 美国物理学家J. J. Hopfield 在1982和1984年发表了两篇神经网络的文章,引起了很大的反响。他提出了一种反馈互连网,并定义了一个能量函数,它是神经元的状态和连接权的函数,利用该网络可以求解相联记忆(Associative Memory)和优化计算的问题。该网络后来称为Hopfield网络,最典型的例子是应用该网络成功地求解了TSP。,BP网络 1986年 D.E. Rumelhart 和 J.L. McClelland等人提出了多层前馈网络的误差反向传播算法(Error back-propagation algorithm),以后简称BP网络或BP算法。 该算法解决了感知机所不能解决的问题。,神经网络控制也是从这个背景下发展起来的,自80年代后期以来,神经网络控制已取得很大进展。,Hopfield网络和BP算法的提出使人们重新看到了人工神经网络的发展前景和希望。1987年在美国召开了第一届国际神经网络会议(IJCNN),掀起了神经网络研究的热潮,许多研究人员都企图找到神经网络在各自领域的应用。,3.2 前馈神经网络,Whats Feedforward NN?,它具有分层的结构。最下面一层是输入层,中间是隐层,最上面一层是输出层。其信息从输入层依次向上传递,直至输出层。这样的结构称为前馈网络。,感知器是最简单的前馈神经网络,主要用于模式分类。包括: 1、单层感知器网络 2、多层感知器网络(MLP),3.2.1 感知器,1、单层感知器,图中, 是输入特征向量, 是 的连接权,输出量 (j=1, 2, , m)是针对不同特征的分类结果。,由于按不同特征的分类是互相独立的,因而可以取出其中的一个神经元来讨论,其输入到输出的变换关系为,若有P 个输入样本 ( p = 1, 2, , P ),该感知器的输出将输入模式分成了两类。它们分属于n 维空间的两个不同的部分。 例如:,以二维空间为例。,分界线的方程为,可见,只有那些线性可分模式类才能用感知器来加以区分。,如异或问题,它显然是线性不可分的。,若输入模式是线性可分的,则问题是如何设计感知器网络的连接权 ,以使该网络能实现正确的分类。,也就是说,如何根据样本对连接权和阈值进行学习和调整。这里样本相当于“教师”,所以这是一个有监督的学习问题。,(1)随机地给定一组连接权,(3)按下式调整连接权 其中取 称为学习率。,(4)在样本集中选取另外一组样本,并让 重复上述(2)(4)的过程,直到,可以证明,该学习算法收敛的充分必要条件是输入样本是线性可分的。同时学习率 的选取也是十分关键的。 选取太小,学习太慢; 太大, 学习过程可能出现修正过头从而产生振荡。,2、多层感知器,对于线性不可分的输入模式,只用单层感知器网络不可能对其实现正确的区分,这时可采用多层感知器网络。其中第 0层为输入层,有 个神经元; 第Q 层为输出层,有 个输出,中间层为隐层。输入输出变换关系为,这时每一层相当于一个单层感知器网络,如对于第q 层,它形成一个 维的超平面,它对于该层的输入模式进行线性分类,但是由于多层的组合,最终可实现对输入模式的较复杂的分类。,例如对于异或(XOR)问题,可采用多层感知器网络来实现对它的正确分类。,(a) (b),具体做法:,(1) 利用上述学习算法,设计连接权系数 和 ,以使得其分界线为图(a)中的 。 即 的直线方程为且相应于 的输出为1,相应于 和 和 的输出为-1。,(2) 设计连接权系数 和 ,以使得其分界线为图(a)中的 ,且使得相应于 , 和 的输出为,相应于 的输出为-1。(3) 对第二层,,可见,适当地设计多层感知器网络可以实现任意形状的划分。,感知器网络中神经元的激发函数采用的是符号函数,因此输出的是二值量(0/1)。它主要用于模式分类。 BP网络神经元的激发函数采用S型函数,因此输出量是0到1之间的连续量,它可实现从输入到输出的任意非线性映射。由于连接权的调整采用的是误差反向传播(Back Propagation)的学习算法,因此该网络也称为BP网络。 对多层前馈感知器网络结构,给出了BP学习算法。,3.2.2 BP神经网络,该网络的输入输出变换关系为,设给定P 组输入输出样本,设误差的代价函数为,问题是如何调整连接权以使代价函数E最小?,优化计算采用一阶梯度法,即最速下降法,对于第Q层有,第Q -1层,显然,它是反向递推计算的公式,即首先计算出 ,然后再由上式递推计算出 。,从上式看出,在 的表达式中包含了导数项 由于假定 为S形函数,所以其导数可求得为,依次类推,可继续反向递推计算出 和,最后可归纳出BP网络的学习算法如下:,BP网络的主要优点:,BP网络的学习算法属于全局逼近的方法,因而它具有较好的泛化能力。,BP网络的主要缺点:,难以确定隐层和隐节点的个数。,只要有足够多的隐层和隐节点,BP网络可以通过学习逼近任意的非线性映射关系;,收敛速度慢;,局部极值;,1、引入动量项,为k时刻的负梯度。 为学习率, 0 , 为动量项因子, 。,该方法所加入的动量项实质上相当于阻尼项,它减小了学习过程的振荡趋势,改善了收敛性,这是目前应用比较广泛的一种改进算法。,3.2.3 BP网络学习算法的改进,2. 变尺度法,标准的BP学习算法所采用的是一阶梯度法,因而收敛较慢。若采用二阶梯度法,则可以大大改善收敛性。二阶梯度法的算法为,其中,虽然二阶梯度法具有比较好的收敛性, 但是它需要计算E对w的二阶导数,这个计算量是很大的。所以一般不直接采用二阶梯度法,而常常采用变尺度法或共轭梯度法,它们具有如二阶梯度法收敛较快的优点,而又无需直接计算二阶梯度。下面具体给出变尺度法的算法。,3. 变步长法,当连续两次迭代其梯度方向相同时,表明下降太慢,这时可使步长加倍;当连续两次迭代其梯度方向相反时,表明下降过头,这时可使步长减半。当需要引入动量项时,上述算法的第二项可修改为,(1) 产生数据样本集 (2) 确定网络的类型和结构 (3) 训练和测试,3.2.4 神经网络的训练,(1) 产生数据样本集,这里包括原始数据的收集、数据分析、变量选择以及数据的预处理。 首先要在大量的原始测量数据中确定出最主要的输入模式。这就需要对原始数据进行统计分析,检验它们之间的相关性。找出其中最主要的量作为输入。,在确定了最重要的输入量后,需进行尺度变换和预处理。尺度变换常常将它们变换到 -1, 1或0, 1 的范围。在进行尺度变换前必须先检查是否存在异常点(或称野值点),这些点必须首先剔除。 对于一个复杂问题应该选择多少数据,这也是一个很关键的问题。系统的输入输出关系就包含在这些数据样本中。所以一般说来,取的数据越多,学习和训练的结果便越能正确反映输入输出关系。,但是选太多的数据将增加收集、分析数据以及网络训练所付的代价。选太少的数据则可能得不到正确的结果。事实上数据的多少取决于许多因素,如问题本身的输入输出分布、网络的大小,以及网络测试的需要等。其中问题本身的复杂性最为关键。在没有此限制下,通常较大的网络需要较多的训练数据。 一个经验规则是:训练模式应是连接权总数的5至10倍。,在神经网络训练完成后,需要有另外的测试数据来对网络加以检验,测试数据应是独立的数据集合。最简单的方法是:将收集到的可用数据随机地分成两部分,譬如说其中三分之二用于网络的训练,另外三分之一用于将来的测试,随机选取的目的是为了尽量减小这两部分数据的相关性。,影响数据大小的另一个因素是输入模式和输出结果的分布,对数据预先加以分类可以减少所需的数据量。相反,数据稀薄不匀甚至互相覆盖则势必要增加数据量。,(2) 确定网络的类型和结构,在训练神经网络之前,首先要确定所选用的网络类型。若主要用于模式分类,尤其是线性可分的情况,则可采用较为简单的感知器网络,若主要用于函数逼近,则可应用BP网络。实际上,神经网络的类型很多,需根据问题的性质和任务的要求来合适地选择网络类型。一般

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论