深学习基础PPT学习教案_第1页
深学习基础PPT学习教案_第2页
深学习基础PPT学习教案_第3页
深学习基础PPT学习教案_第4页
深学习基础PPT学习教案_第5页
已阅读5页,还剩31页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、会计学1深学习基础深学习基础第1页/共36页第2页/共36页第3页/共36页工提取特征。而手工选取特征费时费力,需要专业知识,很大程度上靠经验和运气,那么机器能不能自动的学习特征呢?深度学习的出现就这个问题提出了一种解决方案。第4页/共36页的分布式特征表示。第5页/共36页第6页/共36页第7页/共36页第8页/共36页逼近,表征输入数据分布式表示,并展现了强大的从少数样本中集中学习数据及本质特征的能力。第9页/共36页通过逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而使分类或预测更加容易。与人工规则构造特征的方法相比,利用大数据来学习特征,更能够刻画数据的丰富内在信息。第

2、10页/共36页第11页/共36页第12页/共36页数,直到收敛;n深度学习:BP算法不适合深度神经网络,如果对所有层同时训练,时间复杂度会太高,如果每次训练一层,偏差逐层传递会出现过拟合。因此深度学习整体上是是一个分层训练机制。第13页/共36页第14页/共36页第15页/共36页第16页/共36页第17页/共36页 如图所示,输入图像(Input)通过和三个可训练的卷积核和可加偏置进行卷积,卷积后在C1层产生三个特征映射图(Feature map)然后,C1层的Feature map在经过子采样(Subsampling)后,加权值,加偏置,再通过一个Sigmoid函数得到三个S2层的特征映

3、射图。第18页/共36页如图,原图像是5*5大小,有25个神经元,用一个3*3的卷积核对它进行卷积,得到了如右图所示的卷积后的Feature map。该特征图大小为3*3。 假设一种卷积核只提取出图像的一种特征,所以一般要多个卷积核来提取不同的特征,所以每一层一般都会有多张Feature map。 同一张Feature map上的神经元共用一个卷积核,这大大减少了网络参数的个数。第19页/共36页 如果人们选择图像中的连续范围作为池化区域,并且只是池化相同(重复)的隐藏单元产生的特征,那么,这些池化单元就具有平移不变性 (translation invariant)。这就意味着即使图像经历了一

4、个小的平移之后,依然会产生相同的 (池化的) 特征。图像具有一种“静态性(stationarity)”的属性,可以对图像某一个区域上的特征取平均值(或最大值)。这种聚合的操作就叫做池化(pooling)。第20页/共36页参数参数减少与权值共享减少与权值共享 如下图所示,如果我们有1000 x1000像素的图像,有1百万个隐层神经元,那么他们全连接的话(每个隐层神经元都连接图像的每一个像素点),就有 个连接,也就是1012个权值参数。121000 1000 1000000=10 局部连接网络,每一个节点与上层节点同位置附近10 x10的窗口相连接,则1百万个隐层神经元就只有 ,即108个参数。

5、其权值连接个数比原来减少了四个数量级。861010010第21页/共36页第22页/共36页 1. 输入图像是32x32的大小,卷积核的大小是5x5的,则C1层的大小是28x28。这里设定有6个不同的C1层,每一个C1层内的权值是相同的。 2. S2层是一个下采样层,由4个点下采样为1个点,也就是4个数的加权平均,加权系数也需要通过学习得到。这个过程也叫做Pool。 3.我们很容易得到C3层的大小为10 x10,不过,C3层有16个10 x10网络! 我们只需要按照一定的规则来组合S2的特征图。具体的组合规则在 LeNet-5 系统中给出了下面的表格:第23页/共36页 4. S4 层是在C3

6、层基础上进行下采样,前面已述。在后面的层中每一层节点个数比较少,都是全连接层,这里不再赘述。小结:小结: 经过计算,LeNet-5系统总共需要大约13万个参数,这与前面提到的全连接系统每个隐藏层就需要百万个参数有着天壤之别,极大地减少了计算量。 在以上的识别系统中,每个特征图提取后都紧跟着一个用来求局部平均与二次提取的亚取样层。这种特有的两次特征提取结构使得网络对输入样本有较高的畸变容忍能力。也就是说,卷积神经网络通过局部感受野、共享权值和亚取样来保证图像对位移、缩放、扭曲的鲁棒性。第24页/共36页Convolutional Neural Networks for P300 Detectio

7、n with Application toBrain-Computer Interfaces第25页/共36页第26页/共36页第27页/共36页第28页/共36页第29页/共36页2021-12-12 在卷积神经网络的学习过程当中,主要运用前向传播和反向传播两种学习法则来优化权值,学习到一个最优的滤波器来提取特征。(1) 前向传播 如果用l来表示当前的网络层,那么当前网络层的输出为: 其中, 为网络的输出激活函数。输出激活函数一般选用sigmoid函数或者选用双曲线正切函数。llllllbxWuufx1)(,其中(.)f(2) 反向传播算法 我们假设训练集有N个训练样本,一共分成2类。对于每

8、一个训练样本,我们会给予一个标签,通过调整网络输出与给定标签之间的误差来训练与改变权值。在代价函数方面,我们选择采用平方误差代价函数。因此N个训练样本的代价函数如下:NnknknkNytE1212)(21第30页/共36页2021-12-12 对于N个训练样本中的第n个训练样本,它的代价函数表示为:22212n21)(21nnknknkytytE 接下来需要根据每个样本的输出误差来反向调节每一层当中的权值系数,即计算代价函数对应于卷积神经网络中的每个权值的偏导数:buuEbE1buuEbE 可以看到误差对于bias基b的灵敏度和误差对于一个节点的输入u的导数是相等的。 对于非输出层,第l层灵敏

9、度可以表示为: 而对于输出层L的灵敏度为:)( )(11llTllufW)()( nnLLtyuf第31页/共36页2021-12-12 对于第l层,误差对于每个权值的偏导数如下: 当前层神经元的权值更新值如下:(3)卷积层 当接在卷积层的下一层为池化层时,由于池化层是有下采样的,池化层和卷积层的神经元无法一一对应。因此我们对池化层当中每一个神经元的灵敏度组成的一个灵敏度图进行上采样。这样一来,得到的灵敏度图的大小便和卷积层的特征图的大小相同了。公式如下:TlllxWE)(1llWEW)( )(11llTllufW第32页/共36页2021-12-12(4)池化层 对于池化层来说,输入和输出的特征图数量是相等的,而不同的是每个特征图的大小。池化层对每个特征图进行下采样,所以输出的特征图比起输入的特征图要变小了: 按照卷积神经网络的反向传播算法的思路,我们应该先计算到池化层每个神经元的灵敏度,然后再通过这个灵敏度更新偏置b和偏置参数 。其中偏置basi基b因为只是一个加性基,所以跟上述卷积层当中的计算一样。把灵敏度图当中的所有元素相加便可以得到: 偏置 是一个乘性基,所以会与前向传播当中的池化过程

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论