学习与编码改变和量子化课件_第1页
学习与编码改变和量子化课件_第2页
学习与编码改变和量子化课件_第3页
学习与编码改变和量子化课件_第4页
学习与编码改变和量子化课件_第5页
已阅读5页,还剩31页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、CHAPTER FOUR SYNAPTIC DYNAMICS 1: UNSUPERVISED LEARNINGNEURAL NETWORK & FUZZY SYSTEMWang Jun 2004.108/7/20221什么是学习?学习就是对信息进行编码其目的就是通过向有限个例子(训练样本)的学习来找到隐藏在例子背后(即产生这些例子)的规律(如函数形式)。三种学习方式:8/7/20222什么是学习?三种学习方式:8/7/20223编码是学习?激励响应 ?映射?使用行为(behavioristic)编码准则,如果输入激励为 ,而响应为 ,则该系统对激励响应 进行了学习。 输入输出对 表示函数 的一

2、个样本,函数f将n维矢量X映射到p维矢量Y。 8/7/20224怎么理解学习过程? 如果对所有的输入 都有响应 , 系统对函数进行了学习 若输入 系统就会得到响应 , 则表明系统近似或部分学习, 即系统把相似的输入映射为相似的输出8/7/20225学习就会发生改变?改变1:样本数据改变系统参数,系统进行自适应或自组织的学习。改变2:神经网络中突触(权值)改变,有时神经元改变。改变的效果:当激励改变了记忆介质并使改变维持相当长一段时间后,我们就说系统学会了 。8/7/20226学习时量化必要性系统只能对无穷的样本模式环境中一小部分样本进行学习。 系统的存储量是有限的,系统要有新的样本模式替换旧的

3、样本模式。8/7/20227量化定义 规则 把样本模式空间分成k个区域,某个突触点在其中移动时,系统进行学习。 原型可以扩展以使矢量量子化均方误差最小或规则最优。可以估计样本模式的未知的概率分布(统计代表样本)。8/7/20228无监督和有监督学习 区别?描述样本模式在样本空间的分布概率密度函数未知,通过学习来估计。无监督学习对分布不作任何假设,可利用信息最少。 其学习规则可用一阶差分或一阶微分方程来定义8/7/20229有监督学习特点?假设样本模式分组结构或 性能 还依赖于每个学习样本的分组隶属度信息,即分成: 可以检查出“错误”信息。优点:精确度较高。8/7/202210在神经网络中的区别

4、监督学习可利用突触值联系来估计依赖于未知均方性能的测度梯度,利用分组隶属度信息来确定误差信号以引导梯度下降。无监督学习只能利用神经信号的局部信息来改变参数,只能自适应分样本模式,但依赖于未知概率密度函数。8/7/202211局部信息用处?局部化使突触可以实时、异步地学习,不需要全局的误差信息局部无监督突触把信号和信号联系起来形成共轭或相关学习定律借助联想可进一步缩小函数空间学习定律中只包含神经元、突触和噪声三项。8/7/202212四种无监督学习 信号Hebbian学习 微分Hebbian学习 竞争学习 微分竞争学习 8/7/2022131、确定信号的Hebbian学习局部神经信号: 若 ,第

5、 个突触连接激活若 ,第 个突触连接抑制 :单调非减函数,把激励 转化为有界信号 8/7/2022142、确定性的竞争学习Grossberg用竞争信号调整信号-突触的差分:竞争可以归结为最近邻模式匹配的问题。 度量指示器函数:8/7/202215若 , 输出的第 个神经元赢; 0 则输实际中, 是线性的,即, 输入模式矢量 就代表了神经元场 中的输出。此时,竞争学习准则就成为线性竞争学习准则:8/7/2022163、确定性微分Hebbian学习(Kosko)学习准则 信号速度: 8/7/2022174、确定性的微分竞争学习 学习法则: 微分竞争,只有改变了才学习,速度 使局部奖惩强化。 线性微

6、分竞争学习法则:8/7/202218随机非监督学习定律(噪声)一般的情况 引理: 随机突触在平衡态振动,而且至少和驱动的噪声过程的振动的一样大,突触矢量 在每个t都振动,其平均值为一常数,即围绕常值 作布朗运动。当突触停止运动,确定的Hebbian学习就出现了随机平衡8/7/202219随机竞争学习定律 用随机竞争信号 调制随机矢量差并加上独立高斯白噪声矢量 来模型化那些未模型化的效应线性竞争学习定律以X代替线性信号矢量8/7/202220离散随机差分方程系统 常用竞争学习算法作为离散随机差分方程系统8/7/202221非监督学习NN实例 神经网络基本模型 自组织映射系统SOM Neural

7、Gas network 聚类应用8/7/202222神经元建模 一组突触和联结,联结具有权值 W1, W2, , Wm 通过加法器功能,计算输入的权值 激励函数限制神经元输出的幅度8/7/202223神经元(信息处理单元)InputsignalSynapticweightsSummingfunctionBiasbActivationfunctionLocalFieldvOutputyx1x2xmw2wmw18/7/202224感知机weights nodesI1I2I3W1W2W3OI1I2I3W1W2W3O或1Activation Function8/7/202225单层前向Input la

8、yerofsource nodesOutput layerofneurons8/7/202226多层前向 InputlayerOutputlayerHidden Layer8/7/202227自组织映射系统 Kohonen非监督随机系统 邻近的各个神经元之间通过相互的侧向交互作用,从而产生相竞争的过程,自适应地形成了针对特殊信息的组织结构。8/7/202228Topographic map reflects distribution of input vectors8/7/202229神经元j,它的外部输入信号Ij: 它的输出Yj的活动可用微分方程表示:随外部输入,神经元权系数自适应变化-自学

9、习过程, 和输出外部输入权系数有关系:8/7/202230调整权系数Wij,使神经网络收敛于一种表示形态,一个神经元只对某种输入模式特别匹配或特别敏感。 使神经元的权系数的形态表示可以间接模仿输入的信号模式。 SOM的学习算法由两部分组成: 1最优匹配神经元的选择 2网络中权系数的自组织过程8/7/202231LVQ networkInput nodesOutput Layer ofneuronsstimulusvector vmapped onto neuron:v S=argmin distance(v,ws)Neuron sneuron s is called winner or bes

10、t matching unitws8/7/202232Neural Gas networkInput nodesOutput Layer ofNeurons(Si ,i=1m)V: datavectorsmapped onto neurons s:V S=argmin distance(v,wi)si an v Sr, wr & all wi of Sr neighbors move towards v(wi)8/7/202233Neural Gas networkUpdate rule in each neuron:How wr & all wi of neighbors move towards v ?Wi k+1=Wi k + WiNeibourhood function:8/7/202234实例 聚类应用 8/7/2022

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论