【《基于迁移学习的典型深度卷积神经网络模型分析》4900字】_第1页
【《基于迁移学习的典型深度卷积神经网络模型分析》4900字】_第2页
【《基于迁移学习的典型深度卷积神经网络模型分析》4900字】_第3页
【《基于迁移学习的典型深度卷积神经网络模型分析》4900字】_第4页
【《基于迁移学习的典型深度卷积神经网络模型分析》4900字】_第5页
已阅读5页,还剩8页未读 继续免费阅读

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

基于迁移学习的典型深度卷积神经网络模型分析目录TOC\o"1-3"\h\u9442基于迁移学习的典型深度卷积神经网络模型分析 1321391.1迁移学习 1125821.2诸多典型深度卷积神经网络模型的相关应用 2190731.2.1基于DenseNet的深度迁移学习模型 2233221.2.2基于VGG网络结构的深度迁移模型 3265601.2.3基于InceptionV3的深度迁移学习模型 5187331.3迁移模型试验对比与分析 917261.1.1数据预处理 91781.1.2实验结果对比与分析 10128801.1.2.1实验环境 10227111.1.2.2实验结果与分析 101.1迁移学习由于本工作的数据量较小,从头训练一个神经网络将花费很长时间,如果数据集种类、数量不稳定的话,也容易造成过拟合,使得模型鲁棒性变差。因此,如何正确选择合适的卷积神经网络也存在着一定难题,结合本文的植物数据集样本量较少这一事实,如何正确选择合适的卷积神经网络的关键就在于选择一种适合于少量数据集,并且最终识别结果较为优秀的神经网络。目前针对数量较少的数据集基本采用迁移学习(transferlearning)的方法对其进行卷积神经网络训练。该方法指在大数据集上经过训练的较好的模型进行训练,使用训练好的参数对小样本数据进行参数微调,这样最终训练出来的模型在保证高精度的同时还能避免因数据集分布不均等情况带来的过拟合问题。因此,我们可以利用转移学习的思想,在图像网络上建立一个预先训练好的模型来优化本文的分类和识别。对本文选用的网络模型进行了微调,以适合我们自己的数据,这可以节省大量的培训时间。由此可见,针对本文数据集来说最理想的解决方法就是将迁移学习方法与参数微调进行相互结合。迁移学习[34]的详细数学定义:给定源域和源任务,以及目标域和目标任务,利用和中已有的先验知识应用到和目标预测函数中的学习任务中,其中要求和。迁移学习按迁移方式分类来说主要分四类:样本迁移(Instance-basedtransfer)、特征迁移(Featured-basedtransfer)、模型迁移(Model-basedtransfer)、关联迁移(Relationaltransfer)。本文引入模型迁移,优化特征提取,作为原多输入卷积神经网络模型的输入。模型迁移也称参数迁移,通过利用已经搭建好的图像识别系统,对其进行迁移并应用于新的领域,与深度学习良好结合,进一步增加其先验知识。迁移学习在本文中具体描述为:先下载InceptionV3在ImageNet上的预训练权重作为InceptionV3网络参数的初始化,然后在用本文数据预处理得到的图像进行训练,下图3-1是本文针对苹果树病叶数据集采用的基于InceptionV3网络进行迁移学习的示意图。图3-1迁移学习举例示意图Fig.3-1Transferlearningexamplesschematicdiagram1.2诸多典型深度卷积神经网络模型的相关应用随着近几年计算机性能的提高、人工智能的不断发展,图像分类的方法更偏向于深度学习。传统机器学习方法,大多使用浅层结构,智能对有限的数据进行处理,一旦遇到较多种类或者复制的图像数据时,该模型提取的浅层特征很难完美地处理较为复杂的分类问题,一般会出现识别率较低或者泛化能力不足等情况。深度学习能从神经网络中自动获得的特征,具有比人工特征具有更强大的描述能力,可以处理大量图像数据并从中直接学习图像的深层特征,进一步对大量图像数据进行分类。具体来说,深度特征学习可以从海量图像中学习数据集的高级特征,比传统机器学习特征提取方法更进一步的表达了数据集的内在信息,该深层结构使用多层的层节点,使用更多的非线性变换,能大幅增强模型的泛化能力。本章主要对DenseNet、VGG16、VGG19、InceptionV3这四种典型的深度学习模型进行迁移学习训练,并提出进一步改进。 1.2.1基于DenseNet的深度迁移学习模型为了解决随着CNN网络层数的不断增加,出现的梯度消失和模型退化问题,DenseNet应运而生。DenseNet是ResNet的一种改进,每一层都与前面所有的层进行连接,实现网络中所有层的互联。这种直接进行连接的方式相较于传统的卷积神经网络来说,可以充分利用feature,一定程度上缓解了梯度消失的问题;在确保网络各层之间最大程度的信息流动的基础上,减少了模型中参数数量,更加充分地利用前面网络提取到的特征,在卷积过程中保证信息不被丢失。具体结构图如下图3-2所示。图3-2DenseNet模型Fig.3-2DenseNetmodelDenseNet[35]还有一个很大的优点是它通过改进网络中的信息流和梯度使得图像数据更易于训练,每一层都可以直接从损失函数和原始输入信号的梯度进行访问,这有助于训练更深层次的网络架构。直接进行访问的具体公式(1.1)如下:(1.1)其中表示将到层所有的输出特征连接。包括BN,Relu的的卷积。由上述可知,在每一层都可以看到之前所有的输入,可以直接获得网络已经学习到的特征及原始输入。随后添加自己的特征到全局变量中,新加入特征可以减少不必要的计算量;而该网络模型为跳跃结构,可以很近地连接到最后的loss,训练起来相对容易,更有利于解决因梯度消失的问题而引起的过拟合现象。该算法的缺点在于由于是稠密直连,各个特征都会被保存下来,因此内存占用极大。并且这种稠密连接也使得反向传播时计算的梯度变得更加复杂,因此,虽然计算量变少了,但训练时间相对来说较长。1.2.2基于VGG网络结构的深度迁移模型VGG卷积神经网络是最初是由牛津大学计算机视觉实验室在参加2014年ILSVRC(ImageNetLargeScaleVisualRecognitionChallenge)比赛中提出来的,目的是解决ImageNet中的1000类图像分类和定位问题。该算法的提出证明了通过增加网络的深度的方式能在一定程度上影响网络最终的性能。VGG有VGG16和VGG19两种结构,这两种结果除了在网络深度上不一样,其他地方并没有实质性的区别,因此,本节以VGG16为例,进行简单的介绍。VGG16采用连续的几个小的3×3的卷积核代替之前提出的网络模型中较大卷积核。对于给定的感受野,采用堆积的小卷积核是优于采用大的卷积核。简单来说,就是在VGG中,使用三个3×3卷积核来代替一个7×7卷积核,使用了两个3×3卷积核来代替一个5×5卷积核,在保证具有相同感知野的条件下,提升了网络的深度和分类的精度。VGG16的具体网络模型见下图3-3。图3-3VGG16网络模型Fig.3-3VGG16networkmodelVGG16优点有:1、因为模型深度与宽度都得到了加深,因此模型的性能更优;2、模型简洁优美,全程只有3×3卷积和2×2池化;3、卷积层可以用来代替全连接层,且测试时,无需考虑图像尺寸大小。因为VGG16的参数量十分巨大,约有1.38亿个参数,导致其模型的复杂度十分大,所以针对本文的植物数据集来说,从头训练一个VGG16模型很不现实。因此,本文选择迁移学习与CNN相结合的方式来进行训练。在使用迁移学习进行训练时可以通过控制网络的训练层数来进行训练,若原数据集所处领域与本文目标数据集所处领域相似的话,可以只训练最后的全连接层,根据自己的数据集进行层数增减;但如果相似度低的话,需要对模型进行更深层的改动以适应数据集。加载VGG16模型,因为本文使用的数据集目标域与原目标域相似程度接近,所以直接导入ImageNet上的预训练权重,并设置epoch、batch大小,将模型前7层设为不可训练。具体算法流程图如下图3-4所示:图3-4VGG迁移学习算法流程图Fig.3-4FlowchartofVGG16transferlearningalgorithm1.2.3基于InceptionV3的深度迁移学习模型传统的卷积神经网络(CNN)主要由卷积层、池化层以及全连接层等组成,卷积神经网络的目的是搭建层数更深、更加复杂的网络模型,可是随着网络模型的加深,模型会出现计算效率降低的问题。为解决这个问题,谷歌团队设计了一系列的Inception模型(InceptionV1、InceptionV2、InceptionV3和InceptionV4)。本文选用InceptionV3[37]作为迁移学习模型的主干网络,该模型的算法步骤如图3-5所示。根据本文所用数据集,修改原InceptionV3模型的最后一层分类层。使用预训练模型来提取目标的特征,因此模型只加载到Inception(5b)。当目标数据集使用基于InceptionV3的迁移学习模型提取相应特征之后,若直接使用softmax分类层来进行分类,会出现因图片的信息不能被完全分析、局部的特征无法经过全连接层进行整合等问题。因此,本文提出在InceptionV3的迁移学习模型的最后一层使用全连接层对提取到的局部特征加以整合。模型的最后依然使用Dropout方法降低过拟合,最后一层是softmax层,主要用来进行分类。图3-5基于InceptionV3的迁移学习模型结构Fig.3-5StructureoflearningmodelbasedonInceptionV3InceptionV3网络有两个优点:第一个是使用卷积运算分解方法降低卷积的计算量;第二个优点是使用标签平滑模块正则化方法避免过拟合情况的发生。卷积运算分解方法主要通过减小卷积核大小来减少参数量从而降低计算量。比如将一个大的5×5卷积进行分解,分解成两个小的3×3卷积(如图3-6所示)。采用5×5卷积时,参数量为5×5=25,而采用两个3×3卷积时,参数量为3×3+3×3=18,参数数量由原本的25减少到了18,参数量减少了28%。改良后的Inception模块A如图3-7所示。图3-6采用两个3×3卷积替换5×5Fig.3-6employtwo3×3convolutiontoreplace5×5图3-7将一个5×5卷积变成两个3×3卷积Fig.3-7transformsone5×5convolutionintotwo3×3convolution此外,对InceptionV3网络中n×n的卷积核尺寸分解为1×n和n×1两个卷积[38]。比如说,一个3×3的卷积等价于先执行一个1×3的卷积,接着执行一个3×1的卷积。采用3×3卷积时,参数量为3×3=9,而采用1×3和3×1两个卷积时,参数量是1×3+3×1=6,该方法的参数量比单个3×3的卷积降低了33%,改良后的模型B如图3-8所示。图3-8将n×n卷积变为1×nFig.3-8turnsthen×nconvolutioninto1×n经过多次实验发现,这种结构并不适用于较早的层,而是适合中间层中等大小的特征(对于m×m大小的特征,m的值在12−20之间)。使用标签平滑模型进行正则化的方法在一定程度上能避免过拟合现象的发生。比如说假设训练样本个数为x,标记每个样本对应标签的概率k∈{1...K}:p(k|x)=exp(Zk)i=1Kexp(Zi),Zi表示对数概率,样本x的实际分布为q(k|x)因为标签u(k)和标签的平滑系数ε与训练样本x相互独立,所以标签y可以使用如下公式(1.2)来代替标签:q'(获得标签k的分布的方法为:首先设置k=y,另外用u(k)的采样和平滑系数ε代替k。假设u(k)属于均匀分布即u(k)=1/K,从而有:q'(k)=(1−ε)δ公式1.3中得到的不同实际标签分布的变化就是标签平滑正则化(简称LSR)。LSR使得最大逻辑单元不会比其他逻辑单元更大,因此q'H(q',p')=−k=1由上式可以看出用一对H(u,p)可以作为度量推测分布p和u不同的程度。1.3迁移模型试验对比与分析1.1.1数据预处理在本章中,为了使得每张图像经过迁移学习后的深度网络模型产生的图像特征的维度一致,不影响softmax的分类结果,就要求输入图像大小要一致,即需要对图像进行大小归一化。本文选用保持横纵比的图像归一化方法,具体方法如下:1.获取输入图像的,高度(单位都为像素),计算相应的输入图像的纵横比:(1.5)2.获得目标图像的宽度,高度,计算相应的目标图像的纵横比:(1.6)1.如果,可以直接运用最近邻插值方法对输入图像直接进行裁剪,使输入图像尺寸直接等同于目标图像的尺寸;若不相同,那么需要进行如下步骤4-6的操作。4.计算输入图像的两边边长,代表短边,代表长边:(1.7)(1.8)5.在长边中以作为度量,步长为step,截取N段长度为length的图像作输入图像:(1.9)此时就将输入图像就转化成N个纵横比与目标图像的纵横比相同的小图像。

6.将上述方法得到的图像进行等比变换,并将输入图像归一化为与目标图像尺寸相同的图像。以上就是常见的图像归一化方法。针对本文数据集来说,设定的输入图像大小为299*299,其归一化后的效果图如下图3-9所示:图3-9图像归一化效果图示例Fig.3-9Exampleimagenormalizationrenderings这种方法能防止图像变形,减少因数据预处理带来的识别影响,更有利于深度卷积神经网络的训练。1.1.2实验结果对比与分析1.1.2.1实验环境本实验的训练环境为Windows10系统,计算机的具体配置如下:Intel(R)Core(TM)i7-9750HCPU@2.60GHz2.59GHz,内存为16GB,显卡为NVIDIAGeForceGTX1660Ti。训练网络选择Keras深度学习框架,便于操作编写。1.1.2.2实验结果与分析本实验主要通过图像分类准确率对算法进行比较和评价,准确率的计算公式如下:Accuracy=T其中,Tcorrect表示每类植物分类正确的样本数量,T本文分别使用DenseNet、VGG16、VGG19和InceptionV3四种网络对两种数据集分别进行实验对比模型的分类准确率,选取识别率最高的网络模型作为下节的迁移网络模型。表3-1不同迁移网络下花卉数据集分类准确率Table3-1Classificationaccuracyofflowerdatasetsunderdifferentmigrationnetworks网络模型Val_lossVal_accDenseNet0.934669.14%VGG160.394590.82%VGG190.238091

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论