第2章 2.4 训练网络_第1页
第2章 2.4 训练网络_第2页
第2章 2.4 训练网络_第3页
第2章 2.4 训练网络_第4页
第2章 2.4 训练网络_第5页
已阅读5页,还剩4页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

训练网络1批训练目录迭代次数2训练基于CNN的猫狗分类网络3网络构建和编译完成后,即可将训练样本传入网络进行训练。在训练网络过程中,可通过调整迭代次数、批训练等参数的值,对网络训练过程进行优化。训练网络时,通过设置epochs参数调整训练中网络的迭代次数,epochs的值为多少就表示所有训练样本被传入网络训练多少轮(如epochs为1,表示所有训练样本被传入网络训练一轮)。当设置的迭代次数的值过小时,训练得到的模型效果较差,可以适当增加迭代次数的大小,从而优化模型的效果。但是,当迭代次数的值太大时(数据特征有限),可能会导致模型过拟合、训练时间过长等问题,因此,用户可以根据自身的情况设置一个合适的迭代次数。迭代次数在迭代训练的过程中,损失值会随着迭代次数的变化而变化,在迭代次数的增加的过程中,损失值可能会呈现波动变化趋势,即有增有减。也存在损失值随迭代次数的增加而减少的情况,如果到达一定的迭代次数后损失值已基本稳定在一个值附近,此时继续训练可能会导致过拟合。用户可以根据训练过程中的损失值和准确率的变化趋势适当调整迭代次数的值,当趋势逐渐平稳时,迭代次数的值较为理想。迭代次数1批训练目录迭代次数2训练基于CNN的猫狗分类网络3理论上,在训练网络时,如果将完整的训练样本一次性输入到网络中,使用梯度下降的机制可以得到理想的参数变换方向。但是,在深度学习的任务中,样本的量往往是极大的,一次性输入网络后,对所有的参数根据梯度进行修正所需的计算量难以估计。为解决计算量过大的问题,批训练应运而生。批训练会在网络训练时从总体中抽取部分数据用于梯度下降,直到总体中的全部样本均完成训练后,则完成了一次完整的训练周期。批训练运用批训练的好处主要有2个。内存利用率提高,大矩阵乘法的并行化效率提高。通常在合理的范围内,训练中使用的批量大小越大,梯度下降方向越趋向于总体样本的梯度下降方向,训练时引起的损失的震荡越小。可以根据当前计算机的硬件指标来设置批量大小参数的大小,一般根据计算机的GPU显存资源或CPU性能功率来设置。若设置的值太大,则可能会因为显存不足导致训练终止;若设置的值太小,没有充分利用GPU或CPU的计算能力,则训练时间会较长。批训练1批训练目录迭代次数2训练基于CNN的猫狗分类网络3将迭代次数设置为200,批量大小batch_size在2.1.3节的函数load_data的设置中

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论