人工神经网络理论基础.ppt_第1页
人工神经网络理论基础.ppt_第2页
人工神经网络理论基础.ppt_第3页
人工神经网络理论基础.ppt_第4页
人工神经网络理论基础.ppt_第5页
已阅读5页,还剩54页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

神经网络理论基础神经网络理论基础 n人工神经网络是近年来得到迅速发展的一个前 沿课题。神经网络由于其大规模并行处理、容错 性、自组织和自适应能力和联想功能强等特点, 已成为解决很多问题的有力工具。本节首先对神 经网络作简单介绍,然后介绍几种常用的神经网 络,包括感知器(前向神经网络)、BPN(反向 传播神经网络)和 Hopfield网络。 1 生物神经元 2 人工神经网络发展简史 3 人工神经网络结构 4 神经网络基本学习算法 内容安排 1 人工神经网络发展简史 n最早的研究可以追溯到20世纪40年代。1943年,心 理学家McCulloch和数学家Pitts合作提出了形式神 经元的数学模型。这一模型一般被简称M-P神经网 络模型,至今仍在应用,可以说,人工神经网络的 研究时代,就由此开始了。 n1949年,心理学家Hebb提出神经系统的学习规则, 为神经网络的学习算法奠定了基础。现在,这个规 则被称为Hebb规则,许多人工神经网络的学习还遵 循这一规则。 n1957年,F.Rosenblatt提出“感知器”(Perceptron) 模型,第一次把神经网络的研究从纯理论的探讨 付诸工程实践,掀起了人工神经网络研究的第一 次高潮。 n20世纪60年代以后,数字计算机的发展达到全 盛时期,人们误以为数字计算机可以解决人工智 能、专家系统、模式识别问题,而放松了对“感 知器”的研究。于是,从20世纪60年代末期起, 人工神经网络的研究进入了低潮。 n1982年,美国加州工学院物理学家Hopfield提 出了离散的神经网络模型,标志着神经网络的研 究又进入了一个新高潮。1984年,Hopfield又提 出连续神经网络模型,开拓了计算机应用神经网 络的新途径。 n1986年,Rumelhart和Meclelland提出多层网 络的误差反传(back propagation)学习算法,简 称BP算法。BP算法是目前最为重要、应用最广的 人工神经网络算法之一。 n自20世纪80年代中期以来,世界上许多国家掀 起了神经网络的研究热潮,可以说神经网络已成 为国际上的一个研究热点。 2 生物神经元 n 生物神经元 n 突触信息处理 n 信息传递功能与特点 一、生物神经元 n神经元是大脑处理信息的基本单元 n人脑约由101l-1012个神经元组成,其中,每个神经 元约与104-105个神经元通过突触联接,形成极为错纵 复杂而且又灵活多变的神经网络 n神经元以细胞体为主体,由许多向周围延伸的不规 则树枝状纤维构成的神经细胞,其形状很像一棵枯树 的枝干 n主要由细胞体、树突、轴突和突触(Synapse,又称 神经键)组成 生物神经元网络结构 树突是树状的神经纤维接收网络,它将电信号传送到细胞体 细胞体对这些输入信号进行整合并进行阈值处理 轴突是单根长纤维,它把细胞体的输出信号导向其他神经元 一个神经细胞的轴突和另一个神经细胞树突的结合点称为突触 神经元的排列和突触的强度(由复杂的化学过程决定)确立了神经网络 的功能。 生物学研究表明一些神经结构是与生俱来的,而 其他部分则是在学习的过程中形成的。 在学习的过程中,可能会产生一些新的连接,也 可能会使以前的一些连接消失。这个过程在生命 早期最为显著。 二、突触的信息处理 n生物神经元传递信息的过程为多输入、单输出; n神经元各组成部分的功能来看,信息的处理与传 递主要发生在突触附近; n当神经元细胞体通过轴突传到突触前膜的脉冲幅 度达到一定强度,即超过其阈值电位后,突触前 膜将向突触间隙释放神经传递的化学物质; n突触有两种类型,兴奋性突触和抑制性突触。前 者产生正突触后电位,后者产生负突触后电位。 三、信息传递功能与特点 具有时空整合能力 不可逆性,脉冲只从突触前传到突触后,不逆向传递 神经纤维传导的速度,即脉冲沿神经纤维传递的速度,在1 150ms之间 信息传递时延和不应期,一般为0.3lms 可塑性,突触传递信息的强度是可变的,即具有学习功能 存在学习、遗忘或疲劳(饱和)效应 q对应突触传递作用增强、减弱和饱和 2、生物神经系统的六个基本特征: 1)神经元及其联接; 2)神经元之间的联接强度决定信号传递的强弱; 3)神经元之间的联接强度是可以随训练改变的; 4)信号可以是起刺激作用的,也可以是起抑制作用的 ; 5)一个神经元接受的信号的累积效果决定该神经元的 状态; 6) 每个神经元可以有一个“阈值”。 3 人工神经网络结构 n人工神经网络 n人工神经元模型 n常见的神经元激发函数 n人工神经网络典型结构 1.人工神经网络(Artificial Neural Network- ANN)常常简称为神经网络(NN),是以计算 机网络系统模拟生物神经网络的智能计算系统, 是对人脑或自然神经网络的若干基本特性的抽象 和模拟。 一、人工神经网络 n直观理解 q神经网络是一个并行和分布式的信息处理网络结构 q它一般由大量神经元组成 n每个神经元只有一个输出,可以连接到很 多其他的神经元 n每个神经元输入有多个连接通道,每个连 接通道对应于一个连接权系数 n2.人工神经网络的基本特征 (1)结构特征并行处理、分步式存储与容错性 (2)能力特征自学习、自组织与自适应性 自适应性是指一个系统能改变自身的性能以适 应环境变化的能力。 神经网络的自学习是指当外界环境发生变化时 ,经过一段时间的训练或感知,神经网络能通过自动 调整网络结构参数,使得对于结定输入能产 生期望的 输出,训练是神经网络学刁的途径,因此经常将学习 与训练两 个词混用。 神经系统能在外部刺激下按一定规则调整神 经元之间的突触连接,逐渐构建起神经网络,这一构 建过程称为网络的自组织(或称重构)。 联想记忆 非线性映射 许多系统的输入与输出之间存在复杂的非线性关系,设计合 理 的神经网络通过对系统输入输出样本对进行自动学习,能够 以 任意精度逼近任意复杂的非线性映射。神经网络的这一优良 性 能使其可以作为多维非线性函数的通用数学模型 分类与识别 对输入样本的分类实际上是在样本空间找出符合分类要求的 分 割区域,每个区域内的样本属于一类。客观世界中许多事物 在 样本空间上的区域分割曲面是十分复杂的,神经网络可以很 好 地解决对非线性曲面的逼近,因此具有很好的分类与识别能 力 优化计算 知识处理 3.神经网络的基本功能 1943,神经生理学家 McCulloch 和数学家 Pitts 基于早期神经元学说,归纳总结了生物神经 元的基本特性,建立了具有逻辑演算功能的神经元 模型以及这些人工神经元互联形成的人工神经网络 ,即所谓的 McCulloch-Pitts 模型。 McCulloch-Pitts 模型(MP模型)是世界上第 一个神经计算模型,即人工神经系统。 二、人工神经元模型 MP模型: 称为作用函数或激发函数 n MP模型 n 作用函数 n 求和操作 MP模型 f(x)是作用函数(Activation Function),也称激发函数。 MP神经元模型中的作用函数为单位阶跃函数: 其表达式为: 激发函数的基本作用 控制输入对输出的激活作用 对输入、输出进行函数转换 将可能无限域的输入变换成指定的有限范围内的输出 可知当神经元i的输入信号加权和超过阈值时,输出为 “1”,即“兴奋”状态;反之输出为“0”,是“抑制 ”状态。 MP模型 例、实现逻辑函数“与门”(AND gate)运算 。 1 真,0假 三、常见的神经元激发函数 MP 神经元模型是人工神经元模型的基础,也是神经 网络理论的基础。在神经元模型中,作用函数除了单位阶 跃函数之外,还有其它形式。不同的作用函数,可构成不 同的神经元模型。 1、对称型Sigmoid函数 或 2、非对称型Sigmoid函数 或 3、对称型阶跃函数函数 采用阶跃作用函数的神经元,称为阈值逻辑单元。 4、线性函数 (1)线性作用函数:输出等于输入,即 (2)饱和线性作用函数 (3)对称饱和线性作用函数 5、高斯函数 反映出高斯函数的宽度 n众所周知,神经网络强大的计算功能是通过神经元的互 连而达到的。根据神经元的拓扑结构形式不同,神经网络 可分成以下两大类: 四、人工神经网络的典型结构 n目前,神经网络模型的种类比较多,已有近40余种神经 网络模型,其中典型的有BP网络、Hopfield网络、CMAC小 脑模型、ART自适应共振理论和Blotzman机网络等 1、层次型神经网络 (1)前向神经网络 神经元分层排列,顺序连接。由输 入层施加输入信息,通过中间各层,加权后传递到输出 层后输出。每层的神经元只接受前一层神经元的输入, 各神经元之间不存在反馈。 感知器(Perceptron)、BP神经网络和径向基函数(RBF- Redial Basis Function)神经网络都属于这种类型。 (2)层内有互联的前向神经网络 在前向神经网络中有 的在同一层中的各神经元相互有连接,通过层内神经元的 相互结合,可以实现同一层内神经元之间的横向抑制或兴 奋机制,这样可以限制每层内能同时动作的神经元数,或 者把每层内的神经元分为若干组,让每组作为一个整体来 动作。 (3)有反馈的前向神经网络 在层次网络结构中,只在 输出层到输入层存在反馈,即每一个输入节点都有可能接 受来自外部的输入和来自输出神经元的反馈。这种模式可 用来存储某种模式序列,如神经认知机即属于此类,也可 以用于动态时间序列过程的神经网络建模。 2、互联型神经网络 在互连网络模型中,任意两个神经元之间都可能有相 互连接的关系。其中,有的神经元之间是双向的,有的是 单向的。 Hopfield网络、Boltzman机网络属于这一类。 在无反馈的前向网络中,信号一旦通过某个神经元,过程就结 束了。而在互连网络中,信号要在神经元之间反复往返传递, 神经网络处在一种不断改变状态的动态之中。从某个初始状态 开始,经过若干次的变化,才会到达某种平衡状态,根据神经 网络的结构和神经元的特性,还有可能进入周期振荡或其它如 浑沌等平衡状态。 二、神经网络的学习规则 n联想式学习 Hebb学习规则 n误差纠正式学习Delta ()学习规则 3 神经网络的 基本学习方式和学习规则 一、神经网络的学习方式 n有监督(误差校正)学习方式 n无监督学习方式 n人工神经网络连接权的确定通常有两种方法 q根据具体要求,直接计算,如Hopfield网络作优 化计算 q通过学习得到的。大多数人工神经网络都采用这 种方法 n学习是改变各神经元连接权值的有效方法,也是体 现人工神经网络智能特性最主要的标志。离开了学 习,神经网络就失去了诱人的自适应、自组织能力 学习方法是人工神经网络研究中的核心问题 1、有监督学习方式 特点: 不能保证得到全局最优解 要求大量训练样本,收敛速度慢 对样本地表示次序变化比较敏感 神经网络根据实际输出与期望输出的偏差,按照一定的 准则调整各神经元连接的权系数,见下图。期望输出又称 为导师信号,是评价学习的标准,故这种学习方式又称为 有导师学习。 一、神经网络的学习方式 无导师信号提供给网络,神经网络仅仅根据其输入 调整连接权系数和阈值,此时,网络的学习评价标准隐 含于内部。其结构见下图。这种学习方式主要完成聚类 操作。 2、无监督学习方式 一、神经网络的学习方式 Donall Hebb根据生理学中的条件反射机理,于1949年提 出的神经元连接强度变化的规则: 如果两个神经元同时兴奋(即同时被激活),则它们之 间的突触连接加强 为学习速率,oi、oj为神经元 i 和 j 的输出 1、联想式学习 Hebb学习规则 Hebb学习规则是人工神经网络学习的基本规则,几乎所 有神经网络的学习规则都可以看作Hebb学习规则的变形 二、神经网络的学习规则 2、纠错式学习 Delta()学习规则 二、神经网络的学习规则 首先我们考虑一个简单的情况:设某神经网络的输 出层中只有一个神经元i,给该神经网络加上输入,这样 就产生了输出yi(n),称该输出为实际输出。 对于所加上的输入,我们期望该神经网络的输出为 d(n),称为期望输出或目标输出(样本对里面包含输入和 期望输出)。实际输出与期望输出之间存在着误差,用 e(n)表示: 现在要调整权值,是误差信号e(n)减小到一个范围。 为此,可设定代价函数或性能指数E(n): 反复调整突触权值使代价函数达到最小或者使系统达 到一个稳定状态(及突触权值稳定不变),就完成了该学 习过程。 该学习过程成为纠错学习,或Delta学习规则。 wij 表示神经元xj到xj学的突触权值,在学习步骤为n时 对突触权值的调整为: 学习速 率参数 则 人工神经网络的仿真 网络的运行一般分为训练和仿真两个阶段。 训练的目的是为了从训练数据中提取隐含的知识和规律,并存储 于网络中供仿真工作阶段使用 神经网络的仿真过程实质上是神经网络根据网络输入数据, 通过数值计算得出相应网络输出的过程 通过仿真,我们可以及时了解当前神经网络的性能从而决定 是否对网络进行进一步的训练 典型的神经网络模型: 感知器、 线性神经网络、 BP网络、 径向基函数网络、 竞争学习网络 反馈神经网络等 感知器模型是美国学者罗森勃拉特(Rosenblatt)为研究大脑的 存储、学习和认知过程而提出的一类具有自学习能力的神经网络 模型,它把神经网络的研究从纯理论探讨引向了从工程上的实现 。 Rosenblatt提出的感知器模型是一个只有单层计算单元的前向神 经网络,称为单层感知器。 感知器特别适合于简单的模式分类问题,也可用于基于模式分类 的学习控制和多模态控制中 感知器神经网络 采用阈值函数作为神经元的传递函数是感知器神经元的典型特征 感知器神经网络的学习规则 函数1earnp是在感知器神经网络学习过程中计算网络权值和阈值 修正量最基本的规则函数 p为输入矢量,学习误差e为目标矢 量t和网络实际输出矢量a之间的差值 感知器神经网络的训练 感知器的训练主要是反复对感知器神经网络进行仿真和学习, 最终得到最优的网络阀值和权值 1) 确定我们所解决的问题的输入向量P、目标向量t,并确定 各向量的维数,以及网络结构大小、神经元数目。 2)初始化:权值向量w和阀值向量b分别赋予1,+1之间的 随机值,并且给出训练的最大次数。 3)根据输入向量P、最新权值向量w和阀值向量b,计算网络 输出向量a。 4)检查感知器输出向量与目标向量是否一致,或者是否达到 了最大的训练次数,如果是则结束训练,否则转入(5)。 5)根据感知器学习规则调查权向量,并返回3)。 感知器神经网络应用举例 两种蠓虫Af和Apf已由生物学家W.L.Grogan与w. w. Wirth(1981) 根据它们触角长度和翼长中以区分。 见下表中9Af蠓和6只Apf蠓的数据。 根据给出的触角长度和翼长可识别出一只标本是Af还是Apf。 1给定一只Af或者Apf族的蒙,你如何正确地区分它属于哪一族? 2将你的方法用于触角长和翼中分别为(1.24,1.80)、 (1.28,1.84)、(1.40,2.04)的三个标本 Af 触重长1.241.361.381.3781.381.401.481.541.56 翼 长1.721.741.641.821.901.701.701.822.08 Apf 触角长1.141.181.201.261.281.30 翼 长1.781.961.862.002.001.96 输入向量为: p=1.24 1.36 1.38 1.378 1.38 1.40 1.48 1.54 1.56 1.14 1.18 1.20 1.26 1.28 1.30;1.72 1.74 1.64 1.82 1.90 1.70 1.70 1.82 2.08 1.78 1.96 1.86 2.00 2.00 1.96 目标向量为:t=1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 图形显示,目标值1 对应的用“+”、目标 值0对应的用“o”来 表示: plotpv(p,t) 为解决该问题,利用函数newp构造输入量在0,2.5之间的 感知器神经网络模型:net=newp(0 2.5;0 2.5,1) 初始化网络:net=init(net) 利用函数adapt调整网络的权值和阀值,直到误差为0时训练结束: net, y, e=adapt(net, p, t) 训练结束后可得 如左图的分类方 式,可见感知器

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论