人工神经网络_第1页
人工神经网络_第2页
人工神经网络_第3页
人工神经网络_第4页
人工神经网络_第5页
已阅读5页,还剩81页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

关于人工神经网络2人工神经网络的进展初创阶段(二十世纪四十年代至六十年代):1943年,美国心理学家W.S.Mcculloch和数理逻辑学家和数理逻辑学家W.Pitts提出了神经元的数学模型,即MP(

Mcculloch-Pitts)模型以数学逻辑为研究手段,探讨了客观事件在神经网络的形式问题1960年,威德罗和霍夫率先把神经网络用于自动控制研究。过渡阶段(二十世纪六十年代初至七十年代)M.Minsky和S.Papert于1969年出版《PerceptronPerceptron》从理论上证明了以单层感知机为代表的网络系统在某些能力方面的局限性。

60年代末期至80年代中期,神经网络控制与神经网络进入低潮第2页,共86页,2024年2月25日,星期天3人工神经网络的进展(续)高潮阶段(二十世纪八十年代)1982和1984年,美国加州理工学院的生物物理学J.J.Hopfield在美国科学院院刊发表的两篇文章,有力地推动了人工神经网络的研究与应用,并引发了研究神经网络的一次热潮。80年代后期以来,随着人工神经网络研究的复苏和发展,对神经网络控制的研究也十分活跃。研究进展主要在神经网络自适应控制和模糊神经网络控制及其在机器人控制中的应用上。平稳发展阶段(二十世纪九十年代以后)和相关学科交叉融合第3页,共86页,2024年2月25日,星期天4ANN人工神经网络概述基本原理前向型神经网络自组织竞争神经网络神经网络的应用与人工智能原理的结合BP神经网络第4页,共86页,2024年2月25日,星期天5概述什么叫人工神经网络采用物理可实现的系统来模仿人脑神经细胞的结构和功能的系统。为什么要研究神经网络用计算机代替人的脑力劳动。计算机速度为纳秒级,人脑细胞反应时间是毫秒级。而计算机不如人。长期以来人类的梦想,机器既能超越人的计算能力,又有类似于人的识别、分析、联想等能力。第5页,共86页,2024年2月25日,星期天6概述人工智能与神经网络共同之处:研究怎样使用计算机来模仿人脑工作过程,学习——实践——再学习——再实践。不同之处:人工智能研究人脑的推理、学习、思考、规划等思维活动,解决需人类专家才能处理的复杂问题。神经网络企图阐明人脑结构及其功能,以及一些相关学习、联想记忆的基本规则(联想、概括、并行搜索、学习和灵活性)第6页,共86页,2024年2月25日,星期天7例如:人工智能专家系统是制造一个专家,几十年难以培养的专家。 神经网络是制造一个婴儿,一个幼儿,一个可以学习,不断完善,从一些自然知识中汲取智慧的生命成长过程。同样是模仿人脑,但所考虑的角度不同。成年人和婴儿学习过程不一样第7页,共86页,2024年2月25日,星期天8概述第8页,共86页,2024年2月25日,星期天9ANN人工神经网络概述基本原理前向型神经网络自组织竞争神经网络神经网络的应用与人工智能原理的结合BP神经网络第9页,共86页,2024年2月25日,星期天10基本原理第10页,共86页,2024年2月25日,星期天11第11页,共86页,2024年2月25日,星期天12第12页,共86页,2024年2月25日,星期天13生物神经元第13页,共86页,2024年2月25日,星期天14神经元由细胞体、树突和轴突组成。细胞体是神经元的主体,它由细胞核、细胞质和细胞膜三部分构成.从细胞体向外延伸出许多突起,其中大部分突起呈树状,称为树突.树突起感受作用,接受来自其他神经元的传递信号.由细胞体伸出的一条最长的突起,用来传出细胞体产生的输出信号,称之为轴突;轴突末端形成许多细的分枝,叫做神经末梢;每一条神经末梢可以与其他神经元形成功能性接触,该接触部位称为突触。所谓功能性接触是指非永久性接触,它是神经元之间信息传递的奥秘之处。第14页,共86页,2024年2月25日,星期天15一个神经元把来自不同树突的兴奋性或抑制性输入信号(突触后膜电位)累加求和的过程,称为整合。考虑到输入信号的影响要持续一段时间(毫秒级),因此,神经元的整合功能是一种时空整合。当神经元的时空整合产生的膜电位超过阈值电位时,神经元处于兴奋状态,产生兴奋性电脉冲,并经轴突输出;否则,无电脉冲产生,处于抑制状态。第15页,共86页,2024年2月25日,星期天16图2一种简化神经元结构第16页,共86页,2024年2月25日,星期天17人工神经元模型每一个细胞处于两种状态。突触联接有强度。多输入单输出。实质上传播的是脉冲信号,信号的强弱与脉冲频率成正比。图3人工神经元的结构模型第17页,共86页,2024年2月25日,星期天18一般地,人工神经元的结构模型如图3所示。它是一个多输入单输出的非线性阈值器件。其中x1,x2,…xn表示神经元的n个输入信号量;w1,w2,…,wn表示对应输入的权值,它表示各信号源神经元与该神经元的连接强度;

U表示神经元的输入总和,它相应于生物神经细胞的膜电位,称为激活函数;y为神经元的输出;θ表示神经元的阈值。第18页,共86页,2024年2月25日,星期天19于是,人工神经元的输入输出关系可描述为:

函数y=f(U)称为特性函数(亦称作用、传递、激活、活化、转移函数)。特性函数可以看作是神经元的数学模型。第19页,共86页,2024年2月25日,星期天201.阈值型2.

S型

这类函数的输入-输出特性多采用指数、对数或双曲正切等S型函数表示。例如S型特性函数反映了神经元的非线性输出特性。常见的特性函数有以下几种:第20页,共86页,2024年2月25日,星期天213.分段线性型神经元的输入-输出特性满足一定的区间线性关系,其特性函数表达为式中,K、Ak均表示常量。第21页,共86页,2024年2月25日,星期天22人工神经元模型以上三种特性函数的图像依次如下图中的(a)、(b)、(c)所示神经细胞的输出对输入的反映。典型的特性函数是非线性的。第22页,共86页,2024年2月25日,星期天23基本原理-网络结构人脑神经网络:人脑中约有140亿个神经细胞根据Stubbz的估计这些细胞被安排在约1000个主要模块内,每个模块上有上百个神经网络,每个网络约有10万个神经细胞。

如果将多个神经元按某种的拓扑结构连接起来,就构成了神经网络。根据连接的拓扑结构不同,神经网络可分为四大类:分层前向网络、反馈前向网络、互连前向网络、广泛互连网络。第23页,共86页,2024年2月25日,星期天24基本原理-网络模型分层前向网络:每层只与前层相联接

网络由若干层神经元组成,一般有输入层、中间层(又称隐层,可有一层或多层)和输出层,各层顺序连接;且信息严格地按照从输入层进,经过中间层,从输出层出的方向流动。第24页,共86页,2024年2月25日,星期天25基本原理-网络模型反馈前向网络:输出层上存在一个反馈回路,将信号反馈到输入层。而网络本身还是前向型的。

反馈的结果形成封闭环路,具有反馈的单元称为隐单元,其输出称为内部输出。

第25页,共86页,2024年2月25日,星期天26基本原理-网络模型互连前向网络:外部看还是一个前向网络,内部有很多自组织网络在层内互连着。

同一层内单元的相互连接使它们之间有彼此牵制作用。第26页,共86页,2024年2月25日,星期天27基本原理-网络模型广泛互连网络:所有计算单元之间都有连接,即网络中任意两个神经元之间都可以或可能是可达的。如:Hopfield网络、波尔茨曼机模型反馈型局部连接网络:特例,每个神经元的输出只与其周围的神经元相连,形成反馈网络。第27页,共86页,2024年2月25日,星期天28基本原理-网络分类分类前向型(前馈型);反馈型;自组织竞争;随机网络其它第28页,共86页,2024年2月25日,星期天29

具体来讲,神经网络至少可以实现如下功能:数学上的映射逼近。通过一组映射样本(x1,y1)(x2,y2),…,(xn,yn),网络以自组织方式寻找输入与输出之间的映射关系:yi=f(xi)。数据聚类、压缩。通过自组织方式对所选输入模式聚类。联想记忆。实现模式完善、恢复,相关模式的相互回忆等。优化计算和组合优化问题求解。利用神经网络的渐进稳定态,特别是反馈网络的稳定平衡态,进行优化计算或求解组合优化问题的近似最优解。第29页,共86页,2024年2月25日,星期天30模式分类。现有的大多数神经网络模型都有这种分类能力。概率密度函数的估计。根据给定的概率密度函数,通过自组织网络来响应在空间Rn中服从这一概率分布的一组向量样本X1,X2,…,Xk。第30页,共86页,2024年2月25日,星期天31基本原理-基本属性基本属性:非线性:自然界的普遍特性大脑的智慧就是一种非线性现象人工神经元处于激活或抑制两种不同的状态,在数学上表现为一种非线性。非局域性:一个神经网络通常由多个神经元广泛连接而成一个系统的整体行为不仅取决于单个神经元的特征,而且可能主要由单元之间的相互作用、相互连接所决定通过单元之间的大量连接模拟大脑的非局域性联想记忆是非局域性的典型例子。第31页,共86页,2024年2月25日,星期天32基本原理-基本属性非定常性人工神经网络具有自适应、自组织、自学习能力神经网络不但处理的信息有各种各样,而且在处理信息的同时,非线性动力系统本身也在不断变化经常采用迭代过程描写动力系统的演化过程。非凸性:系统演化的多样性一个系统的演化方向,在一定条件下,将取决于某个特定的状态函数,如能量函数,它的极值相应于系统比较稳定的状态非凸性是指这种函数有多个极值,故系统具有多个较稳定的平衡态,这将导致系统演化的多样性。第32页,共86页,2024年2月25日,星期天33基本原理-优缺点评价优点: 并行性;分布存储;容错性;学习能力缺点: 不适合高精度计算;学习问题没有根本解决,慢;目前没有完整的设计方法,经验参数太多。第33页,共86页,2024年2月25日,星期天34神经网络学习学习(亦称训练)是神经网络的最重要特征之一。神经网络能够通过学习,改变其内部状态,使输入—输出呈现出某种规律性。网络学习一般是利用一组称为样本的数据,作为网络的输入(和输出),网络按照一定的训练规则(又称学习规则或学习算法)自动调节神经元之间的连接强度或拓扑结构,当网络的实际输出满足期望的要求,或者趋于稳定时,则认为学习成功。第34页,共86页,2024年2月25日,星期天35神经网络学习1.学习规则

权值修正学派认为:神经网络的学习过程就是不断调整网络的连接权值,以获得期望的输出的过程。所以,学习规则就是权值修正规则。2.学习方法分类

从不同角度考虑,神经网络的学习方法有不同的分类。表9.1列出了常见的几种分类情况。第35页,共86页,2024年2月25日,星期天36神经网络学习表1神经网络学习方法的常见分类第36页,共86页,2024年2月25日,星期天37ANN人工神经网络概述基本原理前向型神经网络BP神经网络自组织竞争神经网络神经网络的应用与人工智能原理的结合第37页,共86页,2024年2月25日,星期天38前向型神经网络概述最初称之为感知器。应用最广泛的一种人工神经网络模型,最要原因是有BP学习方法。前向网络结构是分层的,信息只能从下一层单元传递到相应的上一层单元。上层单元与下层所有单元相联接特性函数可以是线性阈值的。

第38页,共86页,2024年2月25日,星期天39前向型神经网络单层感知器第39页,共86页,2024年2月25日,星期天40前向型神经网络基本原理和结构极其简单在实际应用中很少出现采用阶跃函数作为特性函数2维空间可以明显表现其分类功能,但Minsky等揭示的致命弱点也一目了然。关键是学习算法及网络设计方法输出yi等于:(1)其中第40页,共86页,2024年2月25日,星期天41前向型神经网络-单层感知器分类方法:如果输入x有k个样本,xp,p=1,2,…,k,x

Rn当将这些样本分别输入到单输出的感知器中,在一定的和下,输出有两种可能+1或-1。把样本xp看作为在n维状态空间中的一个矢量,则k个样本为输入空间的k个矢量前向神经网络就是将n维空间分为SA、SB两个子空间,其分界线为n-1维的超平面。即用一个单输出的感知器通过调整参数及来达到k个样本的正确划分。第41页,共86页,2024年2月25日,星期天42前向型神经网-单层感知器则存在一组权值wij使得公式(1)满足:

称样本集为线性可分的,否则为线性不可分的。

第42页,共86页,2024年2月25日,星期天43前向型神经网-单层感知器如:2维空间希望找到一根直线,把A,B两类样本分开,其分界线为:解有无数个。

单层感知器只能解决线性可分类的样本的分类问题。如样本不能用一个超平面分开,就会产生当年Minsky等提出的不可分问题如:异或问题。第43页,共86页,2024年2月25日,星期天44++++++++X1X2二维输入感知器及其在状态空间中的划分第44页,共86页,2024年2月25日,星期天45前向型神经网络-多层感知器多层感知器多层感知器的输入输出关系与单层感知器完全相同。前一层的输出是下一层的输入。也被称为BP网络。第45页,共86页,2024年2月25日,星期天46前向型神经网络-多层感知器多层感知器采用BP算法学习时要求传递函数为有界连续可微函数如sigmoid函数。因此,网络可以用一个连续的超曲面(而不仅仅是一个超平面)来完成划分输入样本空间的功能。先求误差,用梯度下降的方法求误差的传递。从后往前算。第46页,共86页,2024年2月25日,星期天47第47页,共86页,2024年2月25日,星期天48前向型神经网络-多层感知器多层感知器n层网络可以以n-1个超曲面构成一个符合曲面,弥补单层感知器的缺陷。基于BP算法,依据大量样本通过逐步调整神经元之间的联接权重来构造网络。理论上,多层前馈网络在不考虑结果规模的前提下,可以模拟任意的输出函数。第48页,共86页,2024年2月25日,星期天49前向型神经网络-多层感知器特点:用非线性连续可微函数分类,结果为一种模糊概念。当输出f(u)>0时,其输出不一定为1,而是一个>0.5(有时只是>0)的值,表示所得到的概率为多少。

应用最广泛的神经网络模型之一。第49页,共86页,2024年2月25日,星期天50ANN人工神经网络概述基本原理前向型神经网络BP神经网络自组织竞争神经网络神经网络的应用与人工智能原理的结合第50页,共86页,2024年2月25日,星期天51BP神经网络BP(BackPropagation)网络即误差反向传播网络是应用最广泛的一种神经网络模型。

(1)BP网络的拓扑结构为分层前向网络;(2)神经元的特性函数为Sigmoid型(S型)函数,一般取为

(3)输入为连续信号量(实数);(4)学习方式为有导师学习;(5)学习算法为推广的δ学习规则,称为误差反向传播算法,简称BP学习算法。第51页,共86页,2024年2月25日,星期天52BP神经网络BP算法的基本思想:

正向传播过程中,输入信号从输入层经隐单元层传向输出层,每一层的神经元状态只会影响到下一层神经元的输入,如果在输出层得不到期望的输出,则转入反向传播过程。将误差信号沿原来的连接通路返回,通过修改各层神经元的连接权值,使得输出误差信号达到最小。变量定义:XX为输入向量,YY为网络输出向量;WW(1)(1)、WW(2)(2)分别为输入层——隐层、隐层——输出层的权值矩阵每层神经元的个数为:输入层,NN个神经元;隐层,PP个神经元;输出层,MM个神经元。第52页,共86页,2024年2月25日,星期天53第53页,共86页,2024年2月25日,星期天54第54页,共86页,2024年2月25日,星期天55第55页,共86页,2024年2月25日,星期天56第56页,共86页,2024年2月25日,星期天57第57页,共86页,2024年2月25日,星期天58第58页,共86页,2024年2月25日,星期天59第59页,共86页,2024年2月25日,星期天60第60页,共86页,2024年2月25日,星期天61

网络训练函数function[teste,bestep,testouts,wh,wo,errorCurve]=nnTrain(matrices,nrows,ninputs,nhiddens1,nhiddens2,noutputs,hrates,orates,moms,epochs,options)

matrices:训练集合的样式,即输入-期望输出对。

nrows:样本集的列数,即学习样本的数目。

ninputs,nhiddens1,nhiddens2,noutputs:输入层节点数;第一隐层节点数;第二隐层节点数(可以为空);输出层节点数。

hrates,orates:隐层、输出层单元的学习率。

moms:训练过程激励速率。

epochs:最大训练过程的迭代数。

options:函数使用过程的选项。第61页,共86页,2024年2月25日,星期天62BP网络学习举例例:设计一个BP网络,对表2所示的样本数据进行学习,使学成的网络能解决类似的模式分类问题。设网络的输入层有三个节点,隐层四个节点,输出层三个节点,拓扑结构如下图9所示。

表2网络训练样本数据

输入输出X1x2x3Y1y2y30.30.80.10.70.10.30.60.60.6100010001第62页,共86页,2024年2月25日,星期天63BP网络学习举例图BP网络举例第63页,共86页,2024年2月25日,星期天64用样本数据按BP算法对该网络进行训练,训练结束后,网络就可作为一种模式分类器使用。因为网络的输出向量(1,0,0)、(0,1,0)、(0,0,1)可以表示多种模式或状态。如可以分别表示凸、凹和直三种曲线,或者三种笔划,也可以表示某公司的销售情况:高峰、低谷和持平等等。当然,要使网络有很好的模式分类能力,必须给以足够多的范例使其学习,本例仅是一个简单的示例。第64页,共86页,2024年2月25日,星期天65神经网络模型神经网络模型是一个在神经网络研究和应用中经常提到的概念。所谓神经网络模型,它是关于一个神经网络的综合描述和整体概念,包括网络的拓扑结构、输入输出信号类型、信息传递方式、神经元特性函数、学习方式、学习算法等等。截止目前,人们已经提出了上百种神经网络模型,下表简介最著名的几种。第65页,共86页,2024年2月25日,星期天66神经网络模型第66页,共86页,2024年2月25日,星期天67神经网络模型第67页,共86页,2024年2月25日,星期天68神经网络模型第68页,共86页,2024年2月25日,星期天69神经网络模型神经网络模型也可按其功能、结构、学习方式等的不同进行分类。

1.按学习方式分类

神经网络的学习方式包括三种,有导师学习、强化学习和无导师学习。按学习方式进行神经网络模型分类时,可以分为相应的三种,即有导师学习网络、强化学习网络及无导师学习网络。第69页,共86页,2024年2月25日,星期天70神经网络模型

2.按网络结构分类

神经网络的连接结构分为两大类,分层结构与互连结构,分层结构网络有明显的层次,信息的流向由输入层到输出层,因此,构成一大类网络,即前向网络。对于互连型结构网络,没有明显的层次,任意两处理单元之间都是可达的,具有输出单元到隐单元(或输入单元)的反馈连接,这样就形成另一类网络,称之为反馈网络。第70页,共86页,2024年2月25日,星期天71神经网络模型

3.按网络的状态分类

在神经网络模型中,处理单元(即神经元)的状态有两种形式:连续时间变化状态、离散时间变化状态。如果神经网络模型的所有处理单元状态能在某一区间连续取值,这样的网络称为连续型网络;如果神经网络模型的所有处理单元状态只能取离散的二进制值0或1(或-1、+1),那么称这种网络为离散型网络。

典型的Hopfield网络同时具有这两类网络,分别称为连续型Hopfield网络和离散型Hopfield网络。另外,还有输出为二进制值0或1、输入为连续值的神经网络模型,如柯西机模型。第71页,共86页,2024年2月25日,星期天72神经网络模型4.按网络的活动方式分类

确定神经网络处理单元的状态取值有两种活动方式,一种是由确定性输入经确定性作用函数,产生确定性的输出状态;另一种是由随机输入或随机性作用函数,产生遵从一定概率分布的随机输出状态。

具有前一种活动方式的神经网络,称为确定性网络。已有的大部分神经网络模型均属此类。而后一种活动方式的神经网络,称为随机性网络。随机性网络的典型例子有:波尔茨曼机、柯西机和高斯机等。第72页,共86页,2024年2月25日,星期天73ANN人工神经网络概述基本原理前向型神经网络自组织竞争神经网络神经网络的应用与人工智能原理的结合BP神经网络第73页,共86页,2024年2月25日,星期天74自组织竞争神经网络概述在实际的神经网络中,存在一种侧抑制的现象。即一个细胞兴奋后,通过它的分支会对周围其他神经细胞产生抑制。这种侧抑制在脊髓和海马中存在,在人眼的视网膜中也存在。第74页,共86页,2024年2月25日,星期天75自组织竞争神经网络概述这种抑制使神经细胞之间出现竞争,一个兴奋最强的神经细胞对周围神经细胞的抑制也强。虽然一开始各个神经细胞都处于兴奋状态,但最后是那个输出最大的神经细胞“赢”,而其周围的神经细胞“输”了。胜者为王。小猫

第75页,共86页,2024年2月25日,星期天76自组织竞争神经网络概述自组织竞争神经网络是在“无师自通”的现象的基础上生成的。人类等生物的生长过程。第76页,共86页,2024年2月25日,星期天77自组织竞争神经网络结构: 层内细胞之间互联,在各个神经细胞中加入自反馈,相互作用,输出y为:系统稳定时“胜者为王”。此时赢者的权向量与输入向量的欧氏距离最小。此距离为:第77页,共86页,2024年2月25日,星期天78自组织竞争神经网络自组织映射模型自组织映射模型是由Kohonen提出来的。模型是以实际神经细胞中的一种特征敏感的细胞为模型的。各个细胞分别对各种输入敏感,可以代表各种输入,反映各种输入样本的特征。如果在二维空间上描述这些细胞,则,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论