版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
会计学1阿法狗通过神经网络学习所有高水平围棋棋谱,大概是历史上有的20万个左右职业棋谱,从而获得了在盘面上如何落子的直觉。第2页/共75页类似的深度学习是在近几年出现的,目前,这项科技也有了一些应用,最简单的例子就是通过深度学习识别猫。通过这项识别验证,已经引申出了更多具有实际意义的应用,比如识别某一个图片中是否有癌细胞,某一个铁路沿线上的轨道是否存在磨损,甚至军事作战中,对方的视线中是否有坦克,都可以通过深度学习实现。谷歌的自动驾驶,其中很重要的就是识别道路、交通信号灯、路标等,这都是通过深度学习获得。第3页/共75页阿法狗走的是通用学习的道路。它的估值函数,不是专家攻关捣哧出来的。它的作者只是搭了一个基本的框架(一个多层的神经网络),除了围棋最基本的规则外,没有任何先验知识。你可以把它想象成一个新生儿的大脑,一张白纸。然后,直接用人类高手对局的3000万个局面训练它,自动调节它的神经网络参数,让它的行为和人类高手接近。这样,阿法狗就具有了基本的棋感,看到一个局面大致就能知道好还是不好。阿法狗的核心技术还包括策略网络的训练和蒙特卡洛树搜索。第4页/共75页内容提要第七章:机器学习系统机器学习的基本概念机器学习策略与基本结构归纳学习类比学习解释学习神经网络学习知识发现其他第5页/共75页机器学习是人工智能的核心,通过使机器模拟人类学习行为,智能化地从过去的经历中获得经验,从而改善其整体性能,重组内在知识结构,并对未知事件进行准确的推断。机器学习在科学和工程诸多领域都有着非常广泛的应用,例如金融分析、数据挖掘、生物信息学、医学诊断等。生活中常见的一些智能系统也广泛使用机器学习算法,例如电子商务、手写输入、邮件过滤等。第6页/共75页人类的未来生活和工作,还将有机器人参与。机器人的自主学习,更离不开人脸识别技术。22
00
11
55
年33
月11
66
日,马云在德国参加活动时,为嘉宾演示了一项“SS
mm
ii
ll
ee
tt
oo
PP
aa
yy
”的扫脸技术。在网购后的支付认证阶段,通过扫脸取代传统的密码,实现“刷脸支付”。第7页/共75页机器学习的基本概念机器学习的两大学派√
机器学习:人工智能的重要分支构造具有学习能力的智能系统知识、推理、学习手段:统计,逻辑,代数……√
统计机器学习从大量样本出发,运用统计方法,发现统计规律有监督学习、无监督学习、半监督学习问题:分类,聚类,回归第8页/共75页机器学习的基本概念机器学习的定义√
西蒙(Simon,1983):学习就是系统中的适应性变化,这种变化使系统在重复同样工作或类似工作时,能够做得更好。√
明斯基(Minsky,1985):学习是在人们头脑里(心理内部)有用的变化。√学习是一个有特定目的知识获取和能力增长过程,其内在行为是获得知识、积累经验、发现规律等,其外部表现是改进性能、适应环境、实现自我完善等。√机器学习是研究如何使用机器来模拟人类学习活动的一门学科。第9页/共75页机器学习的基本概念机器学习的任务√根据有限样本集Q,推算这个世界W的模型,使得其对这个世界为真。第10页/共75页机器学习的基本概念机器学习的三要素√
一致性假设:假设世界W与样本集Q具有某种相同性质机器学习的条件。√
样本空间划分:将样本集放到一个n维空间,寻找一个决策面(等价关系),使得问题决定的不同对象被划分在不相交的区域。√
泛化能力:从有限样本集合中获得的规律是否对学习集以外的数据仍然有效。泛化能力决定模型对世界的有效性。第11页/共75页内容提要第七章:机器学习系统机器学习的基本概念机器学习策略与基本结构归纳学习类比学习解释学习神经网络学习知识发现其他第12页/共75页机器学习策略与基本结构
机器学习的主要策略:按照学习中使用推理的多少,机器学习所采用的策略大体上可分为4种√
机械学习:记忆学习方法,即把新的知识存储起来,供需要时检索调用,而不需要计算和推理。√
示教学习:外界输入知识与内部知识的表达不完全一致,系统在接受外部知识时需要推理、翻译和转化。√
类比学习:需要发现当前任务与已知知识的相似之处,通过类比给出完成当前任务的方案。√
示例学习:需要从一组正例和反例中分析和总结出一般性的规律,在新的任务中推广、验证、修改规律。第13页/共75页机器学习策略与基本结构学习系统的基本结构环
境 学
习
知识库 执
行影响学习系统设计的要素√
环境:环境向系统提供信息的水平(一般化程度)和质量(正确性)√
知识库:表达能力,易于推理,容易修改,知识表示易于扩展。第14页/共75页内容提要第七章:机器学习系统机器学习的基本概念机器学习策略与基本结构归纳学习类比学习解释学习神经网络学习知识发现其他第15页/共75页归纳学习归纳学习(Induction
Learning)√
归纳学习是应用归纳推理进行学习的一种方法。√
归纳学习的模式:解释过程实例空间规则空间规划过程实拿实拿验到验到规的规的划活划活过跃过跃程实程实通例通例过提过对交对交实给实给例解例解空释空释间过间过的程的程搜。搜。索解索解完释完释成过成过实程实程例对例对选实选实择例择例,加,加并以并以将适将适这当这当些转些转选换选换中,中,把活第16页/共75页跃实例变换为规则空间中的特定概念,以引导规则空间的搜索。归纳学习归纳学习(Induction
Learning)√归纳学习是目前研究得最多的学习方法,其学习目的是为了获得新概念、构造新规则或发现新理论。√根据归纳学习有无教师指导,可把它分为示例学习:给学习者提供某一概念的一组正例和反例,学习者归纳出一个总的概念描述(规则),并使这个描述适合于所有的正例,排除所有的反例。观察发现学习:概念聚类:按照一定的方式和准则分组,归纳概念机器发现:从数据和事例中发现新知识第17页/共75页内容提要第七章:机器学习系统机器学习的基本概念机器学习策略与基本结构归纳学习类比学习解释学习神经网络学习知识发现其他第18页/共75页类比学习类比推理和类比学习方式√类比学习(learning
by
analogy)就是通过类比,即通过对相似事物加以比较所进行的一种学习。√类比学习是利用二个不同领域(源域、目标域)中的知识相似性,可以通过类比,从源域的知识(包括相似的特征和其它性质)推导出目标域的相应知识,从而实现学习。√例如:1.一个从未开过truck的司机,只要他有开car的知识就可完成开truck的任务。2.若把某个人比喻为消防车,则可通过观察消防车的行为,推断出这个人的性格。第19页/共75页类比学习类比推理和类比学习方式√类比学习系统可以使一个已有的计算机应用系统转变为适应于新的领域,来完成原先没有设计的相类似的功能。√类比推理过程:回忆与联想:找出当前情况的相似情况选择:选择最相似的情况及相关知识建立对应关系:建立相似元素之间的映射转换:求解问题或产生新的知识第20页/共75页类比学习类比学习研究类型√问题求解型的类比学习:求解一个新问题时,先回忆以前是否求解过类似问题,若是,则以此为依据求解新问题。√预测推理型的类比学习传统的类比法:用来推断一个不完全确定的事物可能还有的其他属性因果关系型:已知因果关系S1:A->B,如果有A"≌A,则可能有B"满足A"->B"第21页/共75页内容提要第七章:机器学习系统机器学习的基本概念机器学习策略与基本结构归纳学习类比学习解释学习神经网络学习知识发现其他第22页/共75页解释学习解释学习(Explanation-based
learning,EBL)√
解释学习兴起于20世纪80年代中期,根据任务所在领域知识和正在学习的概念知识,对当前实例进行分析和求解,得出一个表征求解过程的因果解释树,以获取新的知识。√例如:学生根据教师提供的目标概念、该概念的一个例子、领域理论及可操作准则,首先构造一个解释来说明为什么该例子满足目标概念,然后将解释推广为目标概念的一个满足可操作准则的充分条件。第23页/共75页解释学习解释学习过程和算法√
米切尔提出了一个解释学习的统一算法EBG,建立了基于解释的概括过程,并用知识的逻辑表示和演绎推理进行问题求解。其一般性描述为:√
给定:领域知识DT目标概念TC训练实例TE操作性准则OC√
找出:满足OC的关于TC的充分条件目标概念第24页/共75页新规则操作准则训练例子知识库解释学习EBG算法可概括为两步:√
1.构造解释:运用领域知识进行演绎,证明提供给系统的训练实例为什么是满足目标概念的一个实例。√
例如:设要学习的目标概念是“一个物体(Obj1)可以安全地放置在另一个物体(Obj2)上”,即:Safe-To-Stack(Obj1,obj2)领域知识是把一个物体放置在另一个物体上面的安全性准则:第25页/共75页解释学习EBG算法可概括为两步:领域知识:
¬Fragile(y)→Safe-To-Stack(x,y):如果y不是易碎的,则x可以安全地放到y的上面
Lighter(x,y)→Safe-To-Stack(x,y):如果x比y轻,则x可以安全地放到y的上面
Volume(p,v)∧Density(p,d)∧*(v,d,w)→Weight(p,w):如果p的体积是v、密度是d、v乘以d的积是w,则p的重量是w
Isa(p,table)→Weight(p,15):若p是桌子,则p的重量是15
Weight(p1,w1)∧Weight(p2,w2)∧Smaller(w1,w2)→
Lighter(p1,p2):如果p1的重量是w1、p2的重量是w2、w1比w2小,则p1比p2轻第26页/共75页解释学习EBG算法可概括为两步:□Safe-To-Stack(Obj1,obj2)解释结构:Safe-To-Stack(Obj1,obj2)Lighter(Obj1,obj2)Weight(Obj1,0.1)
Weight(Obj2,15)Smaller(0.1,15)Isa(Obj2,table)Voume(Obj1,1)Density(Obj1,0.1)*(1,0.1,0.1)第27页/共75页解释学习EBG算法可概括为两步:√
2.获取一般性的知识:任务:对上一步得到的解释结构进行一般化的处理,从而得到关于目标概念的一般性知识。方法:将常量换成变量,并把某些不重要的信息去掉,只保留求解问题必须的关键信息。例如:Volume
(O1,
v1)
∧Density
(O1,
d1)∧*(v1,
d1,
w1)∧Isa(O2,table)∧Smaller(w1,15)
→
Safe-To-Stack(Obj1,obj2)第28页/共75页解释学习EBG算法可概括为两步:□Safe-To-Stack(O1,O2)一般化解释结构Safe-To-Stack(O1,O2)Lighter(O1,O2)Weight(O1,w1)Weight(O2,15)Smaller(w1,15)Isa(O2,table)Voume(O1,v1)Density(O1,d1)*(v1,d1,w1)以后求解类似问题时,就可以直接利用这个知识进行求解,提到了系统求解问题的效率。第29页/共75页内容提要第七章:机器学习系统机器学习的基本概念机器学习策略与基本结构归纳学习类比学习解释学习神经网络学习知识发现其他第30页/共75页神经网络学习
神经生理学研究表明,人脑的神经元既是学习的基本单位,同是也是记忆的基本单位。目前,关于人脑学习和记忆机制的研究有两大学派:√
化学学派:认为人脑经学习所获得的信息是记录在某些生物大分子之上的。例如,蛋白质、核糖核酸、神经递质,就像遗传信息是记录在DNA(脱氧核糖核酸)上一样。√
突触修正学派:认为人脑学习所获得的信息是分布在神经元之间的突触连接上的。第31页/共75页神经网络学习
按照突触修正学派的观点,人脑的学习和记忆过程实际上是一个在训练中完成的突触连接权值的修正和稳定过程。其中,学习表现为突触连接权值的修正,记忆则表现为突触连接权值的稳定。
突触修正假说已成为人工神经网络学习和记忆机制研究的心理学基础,与此对应的权值修正学派也一直是人工神经网络研究的主流学派。突触修正学派认为,人工神经网络的学习第32页/共75页神经网络学习Hebb学习√Hebb学习的基本思想:如果神经网络中某一神经元同另一直接与它连接的神经元同时处于兴奋状态,那么这两个神经元之间的连接强度将得到加强,反之应该减弱。√Hebb学习对连接权值的调整可表示为:wij
(t+1)表示对时刻t
的权值修正一次后所得到的新的权值;η取正值,称为学习因子,它取决于每次权值的修正量;xi
(t)、xj
(t)分别表示t
时刻第i
个和第j
个神经元的状态。第33页/共75页神经网络学习纠错学习√
纠错学习的基本思想:利用神经网络的期望输出与实际输出之间的偏差作为连接权值调整的参考,并最终减少这种偏差。纠错学习是一种有导师的学习过程。√
最基本的误差修正规则为:连接权值的变化与神经元希望输出和实际输出之差成正比。其联结权值的计算公式为:yj
(t)为神经元j
的实际输出;dj
(t)为神经元j
的希望输出;第34页/共75页神经网络学习竞争学习√基本思想:网络中某一组神经元相互竞争对外界刺激模式响应的权力,在竞争中获胜的神经元,其连接权会向着对这一刺激模式竞争更为有利的方向发展。随机学习√基本思想:结合随机过程、概率和能量(函数)等概念来调整网络的变量,从而使网络的目标函数达到最大(或最小)。他不仅可以接受能量函数减少(性能得到改善)的变化,而且还可以以某种概率分布接受使能量函数增大(性能变差)的变化。第35页/共75页感知器学习单层感知器学习算法
单层感知器学习的例子BP网络学习Hopfield网络学习神经网络学习第36页/共75页单层感知器学习实际上是一种基于纠错学习规则,采用迭代的
思想对连接权值和阈值进行不断调整,直到满足结束条件为止的学习算法。假设X(k)和W(k)分别表示学习算法在第k次迭代时输入向量和权值向量,为方便,把阈值θ作为权值向量W(k)中的第一个分量,对应地把“-1”固定地作为输入向量X(k)中的第一个分量。即W(k)和X(k)可分别表示如下:X(k)=[-1,
x1
(k),
x2
(k),
…,
xn(k)]W(k)=[θ(k),w1
(k),w2
(k),…,wn(k)]即x0
(k)=-1,w0
(k)=θ(k)。单层感知器学习是一种有导师学习,它需要给出输入样本的期望输出。假设一个样本空间可以被划分为A、B两类,定义:功能函数:若输入样本属于A类,输出为+1,否则其输出为-1。期望输出:若输入样本属于A类,期望输出为+1,否则为-1。第37页/共75页单层感知器学习算法算法思想单层感知器学习算法可描述如下:设t=0,初始化连接权和阈值。即给wi(0)(i=1,2,…,n)及θ(0)分别赋予一个较小的非零随机数,作为初值。其中,wi(0)是第0次迭代时输入向量中第i个输入的连接权值;θ(0)是第0次迭代时输出节点的阈值;提供新的样本输入xi(t)(i=1,2,…,n)和期望输出d(t);计算网络的实际输出:单层感知器学习算法算法描述第38页/共75页若y(t)=d(t),不需要调整连接权值,转(6)。否则,需要调整权值调整连接权值其中,η是一个增益因子,用于控制修改速度,其值如果太大,会影响wi(t)的收敛性;如果太小,又会使wi(t)的收敛速度太慢;判断是否满足结束条件,若满足,算法结束;否则,将t值加1,转(2)重新执行。这里的结束条件一般是指wi(t)对一切样本均稳定不变。若输入的两类样本是线性可分的,则该算法就一定会收敛。否则,不收敛。单层感知器学习算法算法描述第39页/共75页例用单层感知器实现逻辑“与”运算。解:根据“与”运算的逻辑关系,可将问题转换为:输入向量:X1
=[0,0,1,1]X2
=[0,
1,
0,
1]输出向量:Y=[0,
0,
0,
1]为减少算法的迭代次数,设初始连接权值和阈值取值如下:w1
(0)=0.5,
w2
(0)=0.7,
θ(0)=0.6并取增益因子η=0.4。
算法的学习过程如下:设两个输入为x1
(0)=0和x2
(0)=0,其期望输出为d(0)=0,实际输出为:y(0)=f(w1
(0)x1
(0)+w2
(0)x2
(0)-θ(0))=f(0.5*0+0.7*0-0.6)=f(-0.6)=0实际输出与期望输出相同,不需要调节权值。第40页/共75页单层感知器学习的例子学习例子(1/4)再取下一组输入:x1
(0)=0和x2
(0)=1,期望输出d(0)=0,实际输出:y(0)=f(w1
(0)x1
(0)+w2
(0)x2
(0)-θ(0))=f(0.5*0+0.7*1-0.6)=f(0.1)=1实际输出与期望输出不同,需要调节权值,其调整如下:θ(1)=θ(0)+η(d(0)-
y(0))*(-1)=0.6+0.4*(0-1)*(-1)=1w1
(1)=w1
(0)+η(d(0)-
y(0))x1
(0)=0.5+0.4*(0-1)*0=0.5w2
(1)=w2
(0)+η(d(0)-
y(0))x2
(0)=0.7+0.4*(0-1)*1=0.3取下一组输入:x1
(1)=1和x2
(1)=0,其期望输出为d(1)=0,实际输出为:y(1)=f(w1
(1)x1
(1)+w2
(1)x2
(1)-θ(1))=f(0.5*1+0.3*0-1)=f(-0.51)=0实际输出与期望输出相同,不需要调节权值。第41页/共75页单层感知器学习的例子学习例子(2/4)再取下一组输入:x1
(1)=1和x2
(1)=1,其期望输出为d(1)=1,实际输出为:y(1)=f(w1
(1)x1
(1)+w2
(1)x2
(1)-θ(1))=f(0.5*1+0.3*1-1)=f(-0.2)=0实际输出与期望输出不同,需要调节权值,其调整如下:θ(2)=θ(1)+η(d(1)-
y(1))*(-1)=1+0.4*(1-0)*(-1)=0.6w1
(2)=w1
(1)+η(d(1)-
y(1))x1
(1)=0.5+0.4*(1-0)*1=0.9w2
(2)=w2
(1)+η(d(1)-
y(1))x2
(1)=0.3+0.4*(1-0)*1=0.7取下一组输入:x1
(2)=0和x2
(2)=0,其期望输出为d(2)=0,实际输出为:y(2)=f(0.9*0+0.7*0-0.6)=f(-0.6)=0实际输出与期望输出相同,不需要调节权值.第42页/共75页单层感知器学习的例子学习例子(3/4)再取下一组输入:x1
(2)=0和x2
(2)=1,期望输出为d(2)=0,实际输出为:y(2)=f(0.9*0+0.7*1-0.6)=f(0.1)=1实际输出与期望输出不同,需要调节权值,其调整如下:θ(3)=θ(2)+η(d(2)-
y(2))*(-1)=0.6+0.4*(0-1)*(-1)=1w1
(3)=w1
(2)+η(d(2)-
y(2))x1
(2)=0.9+0.4*(0-1)*0=0.9w2
(3)=w2
(2)+η(d(2)-
y(2))x2
(2)=0.7+0.4*(0-1)*1=0.3实际上,由与运算的阈值条件可知,此时的阈值和连接权值以满足结束条件,算法可以结束。对此,可检验如下:对输入:“0
0”有y=f(0.9*0+0.3*0-1)=f(-1)=0对输入:“01”有y=f(0.9*0+0.3*0.1-1)=f(-0.7)=0对输入:“1
0”有y=f(0.9*1+0.3*0-1)=f(-0.1)=0
对输入:“1
1”有y=f(0.9*1+0.3*1-1)=f(0.2)=1第43页/共75页单层感知器学习的例子学习例子(4/4)多层感知器可以解决非线性可分问题,但其隐层神经元的期望输出却不易给出。而单层感知器学习是一种有导师指导的学习过程,因此其学习算法无法直接用于多层感知器。由于多层感知器和BP网络都属于前向网络,并能较好解决多层前馈网络的学习问题.因此,可用BP学习来解决多层感知器学习问题。第44页/共75页多层感知器学习问题BP网络学习的网络基础是具有多层前馈结构的BP网络。为讨论方便,采用如下图所示的三层BP网络。BP网络学习的基础1.三层BP网络………xx
11xx
nnyy
11yy
ll1122mmww
ii
jjww
jj
kkiijjkk11nnll11三层BB
PP
网络工作信号的正向传播误差的反向传播第45页/共75页BP网络学习的基础2.网络节点的输入/输出关系(1/2)对上述三层BP网络,分别用I,j,k表示输入层、隐含层、输出层节点,且以以下符号表示:Oi,Oj,Ok分别表示输入层节点i、隐含层节点j,输出层节点k的输出;Ii
,Ij
,Ik,分别表示输入层节点i、隐含层节点j,输出层节点k的输入;wij,wjk分别表示从输入层节点i到隐含层节点j,从隐含层节点j输出层节点k的输入节点j的连接权值;θj、θk
分别表示隐含层节点j、输出层节点k的阈值;对输入层节点i有:(7.1)第46页/共75页对输出层节点有:BP网络学习的基础2.网络节点的输入/输出关系(2/2)(7.4)(7.5)第47页/共75页对隐含层节点有:(7.2)(7.3)BP网络学习的方式BP网络学习的基础BP网络的激发函数和学习方式(7.4)(7.5)第48页/共75页(7.3)BP网络的激发函数通常采用连续可微的S函数,包括单极BP算法的传播公式误差BP网络学习过程是一个对给定训练模式,利用传播公式,沿着减小误差的方向不断调整网络联结权值和阈值的过程。设样本集中的第r个样本,其输出层结点k的期望输出用drk表示,实际输出用yrk表示。其中,drk
由训练模式给出,yrk
由7.5式计算得出。即有yrk
=
Ork如果仅针对单个输入样本,其实际输出与期望输出的误差为(7.6)上述误差定义是针对单个训练样本的误差计算公式,它适用于网络的顺序学习方式。若采用批处理学习方式,需要定义其总体误差。假设样本集中有R个样本,则对整个样本集的总体误差定义为(7.7)第49页/共75页BP算法的传播公式权值变化量(1/2)针对顺序学习方式,其联结权值的调整公式为(7.8)式中,wjk
(t)和wjk(t+1)分别是第t次迭代和t+1次迭代时,从结点j到结点k的联结权值;
wjk是联结权值的变化量。为了使联结权值能沿着E的梯度下降的方向逐渐改善,网络逐渐收敛,权值变化量
wjk的计算公式如下:(7.9)式中,
为增益因子,取[0,
1]区间的一个正数,其取值与算法的收敛速度有关;
由下式计算(7.10)第50页/共75页BP算法的传播公式权值变化量(1/2)(7.11)(7.12)令局部梯度根据7.2式,可得到输出层节点k的Ik为对该式求偏导数有将7.10式、7.11式和7.12式代入7.9式有(7.13)对δk
的计算,须区分k是输出层上还是隐含层上的结点。下面分别讨论。第51页/共75页BP算法的传播公式节点k是输出层节点(1/3)(7.15)如果结点k是输出层上的结点,则有Ok
=yk
,因此(7.14)由7.6式,有即而(7.16)第52页/共75页BP算法的传播公式节点k是输出层节点(2/3)将7.15式和7.16式代入7.14式,有(7.17)由于f’(Ik)=f(Ik)[1-f(Ik)],且f(Ik)=yk,因此有(7.18)再将7.18式代入7.13式,有(7.15)根据7.8,对输出层有(7.20)第53页/共75页如果k不是输出层结点.它表示联结权值是作用于隐含层上的结点,此时,有
k
=
j
,
j
按下式计算BP算法的传播公式节点k是隐含层节点(1/3)(7.22)由7.3式,Oj=f(Ij-θj),因此有式中,(7.21)是一个隐函数求导问题,其推导过程为第54页/共75页由7.12式有BP算法的传播公式节点k是隐含层节点(2/3)将7.23式代入7.22式,有它说明,低层结点的值是通过上一层结点的(7.24)值来计算的。这样,我们就(7.23)可以先计算出输出层上的
值,然后把它返回到较低层上,并计算出各较低层上结点的
值。由于f
’(Ij)=f(Ij)[1-f
(Ij)],故由7.24可得(7.25)第55页/共75页7.3.2
BP算法的传播公式节点k是隐含层节点(3/3)(7.28)再将7.25式代入7.13式,并将其转化为隐函数的变化量,有(7.26)再由7.1式和7.3式,有(7.27)根据7.8,对隐含层有第56页/共75页对三层BP网络,设wij是输入层到隐层,wjk是隐层到输出层的联结权值;R是样本个数,其计数器为r;T是训练过程的最大迭代数,其计数器为t。初始化网络及学习参数:将wij、wjk、θj、θk均赋以较小的随机数;设置η为[0,1]区间的数;置训练样本计数器r=0,误差
E=0、误差阈值ε为很小的正数。随机输入一个训练样本,r=r+1,t=0。按7.1--7.5式计算隐层神经元的状态和输出层每个节点的实际输出yk
,按7.6式计算该样本的误差E。第57页/共75页BP网络学习算法算法描述((4)检查E>ε?若是,执行下一步;否则,转(8)。t=t+1。检查t≤T?若是,执行下一步;否则,转(8)。按7.18式计算输出层结点k的δk,按7.25式计算隐层结点j的δj,按7.20式计算wjk
(t+1),按7.28式计算wij(t+1),返回(3)。其中,对阈值按联结权值的学习方式修正,即把阈值设想为神经元的联结权值,并假定其输入信号值总是为1。检查r=R?若是,执行下一步;否则,转(2)。结束。第58页/共75页BP网络学习算法算法描述BP网络学习算法EE
>>
ε?tt
==
tt
++
11tt
≤
TT
?计算输出层结点k的δk修正各层的wjk
(t),wij(t)EE
>>
ε?结束是否是否第59页/共75页算法流程初始化网络及学习参数wij,wjk
,,θj,θk,η,ε,R,T,置E=0,r=0随机输入一个训练样本,置r=r+1,t=0对输入样本,计算该样本的每一个yk
,计算该样本的误差E否是BP网络模型是目前使用较多的一种神经网络,其主要优、缺点如下。优点算法的优点是算法推导清楚,学习精度较高;从理论上说,多层前馈网络可学会任何可学习的东西;经过训练后的BP网络,运行速度极快,可用于实时处理。缺点由于其数学基础是非线性优化问题,因此可能陷入局部最小区域;算法收敛速度很慢,通常需要数千步或更长,甚至还可能不收敛;网络中隐含结点的设置无理论指导。上述缺点的解决办法对于局部最小区域问题,通常需要采用模拟退火算法或遗传算法。对于算法收敛慢的问题,其主要原因在于误差是时间的复杂非线性函数。
为提高算法收敛速度,可采用逐次自动调整增益因子
,或修改激活函数f(x)的方法来解决。第60页/共75页BP网络学习的讨论Hopfield网络学习第61页/共75页Hopfield网络学习的过程实际上是一个从网络初始状态向其稳定状态过渡的过程。而网络的稳定性又是通过能量函数来描述的。这里主要针对离散Hopfield网络讨论其能量函数和学习算法。Hopfield网络的能量函数Hopfield网络学习算法Hopfield的能量函数第62页/共75页能量函数定义及性质能量函数用于描述Hopfield网络的稳定性。其定义为:式中,n是网络中的神经元个数,wij是神经元i和神经元j之间的连接权值,且有wij=wji;vi和vj分别是神经元i和神经元j的输出;θi是神经元i的阈值。可以证明,对Hopfield网络,无论其神经元的状态由“0”变为“1”,还是由“1”变为“0”,始终有其网络能量的变化:ΔE<0对网络能量变化的这一结论,我们可以从网络能量的构成形式进行分析。如果假设某一时刻网络中仅有神经元k的输出发生了变化,而其它神经元的输出没有变化,则可把上述能量函数分作三部分来讨论。其中,第一部分是i=1,…,k-1;第二部分是i=k;第三部分是i=k+1,…,n。Hopfield的能量函数能量函数定义及性质(2/7)即网络能量函数可写成如下形式:i=1,…,k-1,j≠k,这部分能量与k的输出无关i=1,…,k-1,j=k,这部分能量与k的输出有关i=k,j≠k,这部分能量与k的输出有关i=k+1,…,n,j≠k,这部分能量与k的输出无关i=k+1,…,n,j≠k,这部分能量与k的输出有关在这种形式中,可以引起网络能量变化的仅有公式中的如下部分:第63页/共75页Hopfield的能量函数能量函数定义及性质(3/7)又由于即:再根据连接权值的对称性,即wij
=wji
,有:第64页/共75页Hopfield的能量函数能量函数定义及性质(4/7)即可以引起网络能量变化的部分为为了更清晰地描述网络能量的变化,我们引入时间概念。假设t表示当前时刻,t+1表示下一时刻,时刻t和t+1的网络能量分别为E(t)和E(t+1),神经元i和神经元j在时刻t和t+1的输出分别为vi(t)、vj(t)和vj(t+1)、vj(t+1)。由时刻t到t+1网络能量的变化为:ΔE=
E(t+1)
-
E(t)当网络中仅有神经元k的输出发生变化,且变化前后分别为t和t+1,则有第65页/共75页Hopfield的能量函数能量函数定义及性质(5/7)当神经元k的输出vk由1变0时,有此时,由于神经元k的输出为1,即有
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 湘西土家族苗族自治州吉首市2025-2026学年第二学期四年级语文第七单元测试卷(部编版含答案)
- 典当业务员操作规程测试考核试卷含答案
- 殡仪服务员操作规程水平考核试卷含答案
- 糖料作物栽培工安全应急模拟考核试卷含答案
- 室内装修验房师发展趋势强化考核试卷含答案
- 厦门市同安区2025-2026学年第二学期四年级语文第八单元测试卷(部编版含答案)
- 桂林市雁山区2025-2026学年第二学期四年级语文第八单元测试卷(部编版含答案)
- 双鸭山市岭东区2025-2026学年第二学期五年级语文期末考试卷(部编版含答案)
- MBA金融方向就业前景分析
- 绵阳市盐亭县2025-2026学年第二学期五年级语文第八单元测试卷(部编版含答案)
- 2026广东广州大学第二次招聘事业编制人员6人备考题库【含答案详解】
- 2025年新疆能源职业技术学院辅导员招聘笔试真题附答案
- 落实诉访分离工作制度
- 2026南京大数据集团有限公司招聘50人备考题库带答案详解(完整版)
- 2026年安徽省C20教育联盟中考数学一模试卷(含简略答案)
- 2026江苏省国有资本投资运营集团有限公司招聘笔试备考题库及答案解析
- 2026校招:国家电投题库及答案
- 2026年全日制劳动合同(2026标准版·五险一金版)
- 2026年无锡职业技术学院单招职业技能考试备考试题含详细答案解析
- 污水处理工程沟通协调方案
- 2026年交管12123驾照学法减分题库100道含答案(夺分金卷)
评论
0/150
提交评论