资源目录
压缩包内文档预览:
编号:20722384
类型:共享资源
大小:50.24MB
格式:RAR
上传时间:2019-07-09
上传人:QQ24****1780
认证信息
个人认证
王**(实名认证)
浙江
IP属地:浙江
30
积分
- 关 键 词:
-
AD
机床
设计
- 资源描述:
-
AD机床设计类,AD,机床,设计
- 内容简介:
-
盐城工学院机械工程系毕业论文2 ART-2神经网络的结构及数学推导2.1 ART-2神经网络的特点ART2神经网络模型是针对任意模拟信号设计的神经网络,它模仿了人脑神经系统工作的许多特点,如层次性、双向性、注意力集中和转移、3R功能等等,是一种很有发展潜力的网络模型。 ART理论的出发点是从心理学、生物化学和神经生理学不同角度充分借鉴人脑的工作特点,它学习人脑神经系统的主要特点有: 1人脑的自主学习方式 人脑可以在一个复杂的、非平稳的、有干扰的环境中意识学习目标并且获得大量的知识,通常这种学习是自学,而且是半工半读方式的,即不能把学习过程和使用学习的知识解决问题这两方面截然分开。 2人脑的自组织特点 人脑的工作方式及信息存储和检索方式(即记忆和记忆提取方式)具有明显的自组织的特点,人在与环境交互作用过程中,逐渐建立起大脑的信息存储、检索、加工、传送能,其建立方式是自组织的。 3弹性与可塑性 人脑的学习和记忆能力既有很大的刚性又有很大的弹性和可塑性,这就是说,人脑对所学知识可以记得十分牢固而又可以不断学习新知识,还可以忘掉一些不常用的或无关紧要的老知识。 4集中注意力 人对外界的输入信号做出响应时既通过由底向上的渠道,又通过从上往下的渠道。前者指人脑能够对不同的外界输入矢量正确地区分不同客体 并掌握它们之间相互关系,后者涉及人的集中注意力能力,即人能够专注于某些事物或关系置其它一切于不顾。人脑在一定环境下能估计到可能出现的情况,预期会遇到、听到或看到的各种内容。例如,人们可以在嘈杂的背景下听取自己关心的话语;在与对方谈话时,人们会预先估计出对方会说些什么;在纷乱拥挤的场合里,人的视觉系统也能够容易地摄取最值得注意的图像信息、熟人的面孔、熟悉的或有趣的事物等等。2.2 ART-2神经网络模型的结构及数学描述ART-2神经网络是为任意模拟输入矢量而设计的(二值矢量为一种特例)。它具有十分宽广的应用范围。通过警戒参数的调整,ART-2可以按任何精度对输入的模拟观察矢量进行分类。ART-2模型的基本设计思想仍是采用竞争学习和自稳机制的原理,系统由F1和F2两个STM层及两者之间的LTM层组成F1层的设计是全系统的核心,它要同时满足各方面的要求,由此ART-2的F1层采用了一种三层结构,其中包括正反馈、规格及非线性变换。如图2-1所示。为了避免混淆,下面将分别称F1和F2为特征表示场及类别表示场。需要说明的是,这一结构及其中参数的确定是通过大量的实验筛选而获得的,此外,图2-1给出的只是可供选择的几种结构中的一种。一、F1场第j个处理单元的描述F1的输入观察矢量X是N维模似矢量,在F1中相应有N个处理单元。图2-2中只画出了第j个处理单元的结构,每层里都包含两种功能不同的神经元,一种是空心圆,另一种是实心圆,下面分别介绍其功能。 (1)空心圆:空心圆所代表的神经元有两种输入,一种是兴奋激励,用空心箭头表示,另一种是抑制激励,用实心箭头表示。设神经元的活动电位为V(也就是它的输出),所有兴奋激励的总和为J+,所有抑制激励的总和为J-。那么根据神经生理学的研究结果,可知V满足: (2-1)其中和A是远小于1的正实数,且远小于A,B远小于1,C远小于D且D接近于1。当不存在任何激励时(即J+= J- =0),J将趋向于0,即处于抑制状态。式(2-1)中:、B、C分别较A、1、D小得多,因此可假设B=0,C=0,0,根据这一假设,在我所考虑的时间尺度范围内,可以为V在即能达到其稳定解,这样可得近似解为: (2-2)由于D接近于1,A远小于1,可将(3-2)简化为: (2-3)其中:e表示一个远小于1的正实数 。(2-3)可用来近似计算空心圆神经元的活动电位。(2)实心圆:实心圆神经元的功能是求其输入矢量之模。例如,在图2-2中与标记为Pj的空心圆相连的实心圆,除了Pj以外还与P0,P1,Pn-1等各空心圆相连,即P=P0P1Pn-1,那么此实心圆的输出即等于P的模| P | ,|P|=P02+P12+Pn-1 21/2。 (3)在图2-1中,F1的第一层和第二层构成一个闭便的正反馈回路。其中标记为Zj的神经元接受输入信号Xj , 而标记为Vj的神经元接受上层送来的信号bf(Sj)。这个回路还包括两个规格化运算和一次非线性变换。 底层的输入方程和规格化运算可表示如下: (24) (25)其中e是一个很小的正实数,相对于|Z|可忽略不计.中层方程和规格化运算可表示为: (26) (27)其中:e可忽略不计。(4)由底层至中层以及上层至中层之间,对传送的信号进行了非线性变换,在具体实现时,f(x)可采取如下两种形式: 第一种形式: 0X (28) X 第二种形式: 0X (29) X这两种非线性函数的作用都是对小幅度信号进行抑制,并区别在于前者是连续函数而后者是非连续的,以上诸式中和参数a、b、q是通过大量实验来确定的。 (5)F1的第二层和第三层构成另一个闭合正反馈回路。在上层进行的规则化图2-1 ART2神经网络示意图,其中F1包括上、中、下三层, 本图中只画出了各层的第J个处理单元。 运算为: (210)其中e忽略不计,上中层间的非线性变换已如前述。Pj可用下式表示: (211) 上式右侧第二项表示F2场对Pj神经元的输入,Wji是由顶向下的LTM系数,g(yi)将在下面说明。 二、F2场中所完成运算的描述 根据F1上层给出的矢量P以及由F1至F2的LTM权重系数Wi可计算F2场的输入矢量T, , i=0,1,m-1按照竞争学习机制,F2场的输出矢量Y由下式决定: 若: 则: yI = 1 且 yI = 0, 当 i I若选择式(2-11)中的变换函数为g(yi)= yi,是一个实常数, 那么 (212) 三、LTM方程 当F2F1的由顶向下矢量和输入观察矢量的相似度足够大或开辟了一个新的输出端,则进入LTM系数的学习阶段。学习式是: 由顶向下(F2F1): i=0,1,M1 (213) j=0,1,N 由底向上(F1F2): i=0,1,M1 (214) j=0,1,N 如果F2场中选出的优胜输出端是I,那么g(yi)=d,且g(yi)=0 iI时。将式(2-12)代入(2-13)和(2-14),可得到: j=0,1,,N (2-15) j=0,1,,N1 (2-16)对于参数,它有别于一般学习公式中的步幅参数。 四、调整子系统的工作原理图2-1左侧是ART2调整子系统的示意结构。标志为rj的空心神经元的输出可用下式计算 (2-17)之所以选择P和U来比较相似度,而不直接比较X和Wi,除了因为在启用新端时前者仍保持完全一致而后者差异极大(因而前者不会引起重置而后者会造成重置)以外,P和U比较 的是去除了基底噪声的主要特征,而X和Wi的比较中还含了非主要特征和基底噪声,当警戒参数设置得较高时,这使得一些次要特征和因素也会引起不应有的重置。 式(2-17)中,e远小于1,在下面的计算中可略去。实心圆的输出即等于矢量|R|之模 (2-18)显而易见,U与P的相似度越高,则|R|越接近于1。这样,我们可以选择一个警戒参数,01.无需重置;反之,则需要对F2进行重置. 如果在式(3-17)中含e=0且已知|U|1,那么式(3-17)和(3-18)可以写为如下形式 (2-19)为了确保在LTM系数的学习过程中不能由于这些系数的变化造成优胜者换的现象,参数c、d的选择要满足: cd / (1-d) 1在满足此条件的前提下应选择cd/(1-d)尽可能接近于1,因为1附近|R|对|U|和Wi的失配最敏感。 同时,为了防止对新启用端的重置,Wi初始值的选择需足|W| 1/(1-d)。2.3 ART-2神经网络模型的综合评价 (1)ART-2神经网络模型在记忆的稳定性和记忆的弹性之间得了良好的折衷,例如,某个输出端I(相应于输入矢量的i类)的由顶向下矢量Wi中某个分量之值较大,而有一次划这一类的输入矢量X中相应分量之值较小,那么经过F1场融合,在F1场向F2场送出的矢量U中,该分量之值与Wi中分量大体保持相同,只是略微减小而已,这样调整后的权系数矢量基本保持不变,从而实现了记忆的稳定。但是.划入该类的许多X中该分量都很小,那么Wi的该分量就会渐减小下去,这样就能保持记忆的弹性。 (2)在检索记忆内容时,多次搜索与直接检索之间取得了折中。当对网络赋予一个未输入过的新类别的矢量X时.系统经过反复搜索和重置,直至开辟一个新输出端.而对其赋一个属于已学习过类别的矢量X时,系统能立即直接查到的类别,无需多次反复搜索。 (3)ART-2可以进行“快速学习”,LTM系数的调整速度虽然远低于STM的变化速度,但是在X只呈现一次的时间内即可达到稳定平衡解.ART2的这种快速学习方式使学习效率大的提高。 (4)计算在局部进行,无需进行全局运算。 (5)在F1场采用了独特的具有正反馈和非线性变换的三层结构,从而实现了对比度增强(强化输入矢量中的突出特征),达到了抑制基底噪声的目的,这样就削弱了非本质的失配。 (6)解决了匹配与重置的矛盾.对于已占用的输出端(相应已学过的类别)微小的失配即会引发重置,而对于新启用端使完全失配也不会重置。 (7)系统参数选择适当就能够保证,在LTM系数的调整过程中不会产生错误重置以及优胜者换位现象。 (8)系统的学习是一种无监督的自组织学习,而且系统的学习状态和工作状态不可能截然划分开来。2.4 3R功能 相比于BP网,感知机,ART模型更接近于人脑,但是单一网络结构在功能上远远不够,它需要与其它许多方法的结合,如模糊理论、专家系统、甚至其它神经网络,需要更完整的系统结构来发挥长处。ART的3R功能,即识别(Recognition)、补充(Reinforcement)、撤销(Recall)就是应用系统中必不可少的。 识别功能即分类功能,前面已经详述,下面介绍另外两功能。 补充功能有两方面的含义:第一,使系统“集中注意力”于某些特定的类别。即使分类和学习都受到由顶向下预期模式的制约,这种制约是由系统与环境相互作用后形式的;第二,改变预期模式可以改变或迁移系统的“注意力”集中点。系统对外界做出某种响应后,这种响应造成的结果反馈回来对系统形成奖或惩的作用,从而使系统通过调整学习过程来适应环境要求。 撤销功能的作用与补充功能相反,它是指某些不同的观察矢量在初步分类时被划分成不同的类别,但是通过系统与客体相互作用的结果,又应判定它们属于同一类。图2-2给出了一个将3R功能组合在一起的综合自组织ART系统.其中预处
- 温馨提示:
1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
2: 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
3.本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

人人文库网所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。