CNN算法中BP算法权重调整过程_第1页
CNN算法中BP算法权重调整过程_第2页
CNN算法中BP算法权重调整过程_第3页
CNN算法中BP算法权重调整过程_第4页
CNN算法中BP算法权重调整过程_第5页
已阅读5页,还剩2页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

CNN算法中权重调整过程详细推导卷积神经网络(CNN)训练的过程是:信号由输入层输入,经隐含层(至少一层),最后由输出层输出。为了使得输出的结果与期望值间的误差最小,我们需要对每层的权重参数进行调整,调成的过程是:利用输出值与期望值之间的误差,由输出层经隐含层到输入层,进行每层的误差计算,这个过程其实就是反向传播网络BP(Back Propagation)的计算过程。BP(Back Propagation)网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。BP学习网络能学习和存储大量的输入-输出模式映射关系,而事前无需揭示这种映射关系的数学方程。它的学习规则是使用梯度下降法,通过反向传播不断调整网络的权重和阈值,使网络的误差平方和最小。图1 神经网络示意图(这里没有添加偏置项)为了方便BP算法推导,如图1所示,我们做了如下的定义:(1)我们定义输入是:(2)隐含层的输出是:(3)输出层是:(4)输入层到隐含层的权重,我们定义:线的颜色相同的权重一样,例如绿颜色的线权重是:)。(5)隐含层到输出层的权重,我们定义:下边讲的才是我们这部分的核心和重点,如何利用以上的定义,来描述图1所示的网络的工作过程。在这里插入一个关于激活函数的定义,你肯定会问什么是激活函数,跟神经网络有什么关系?首先,激活函数是把激活的神经元的特征通过该函数把特征保存并映射出来,这里的保存特征,同时去除了数据中的一些冗余的信息,这是神经网络NN解决非线性问题的关键。常见的激活函数有:Sigmoid, tanh,ReLu,softmax等。Sigmoid函数,也叫S曲线函数:,tanh: ,ReLu:, sofamax: 。对图1中的输出层: ,这里的表示输出层的第个输入,且 ,则;则对于隐含层:,这里的表示输出层的第个输入,则:;在这里我们定义输出误差:,这里的表示期望输出值。 = = = = (1)此时式(1)中,E,是已知的(当然激活函数是已知的),只有权重值和是未知的,即是我们要求解的,接下里我们利用梯度下降法求解式(1),则:, (2)在这里,我们对输出层,隐含层各定义个误差信号,则:,那么式(2)可以写成:(1) = = (3)(2) , = = (4)这里的是比例系数,观察式(3)和式(4),只要和已知,那么我们就完成了对权重值的调整,那么我们有:(5) (6)由于=则,那么式(6)可以重写成: = = (7)由式(5)得, (8)将式(8)带入

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论