数字图像处理技术及应用 课件 3-卷积神经网络_第1页
数字图像处理技术及应用 课件 3-卷积神经网络_第2页
数字图像处理技术及应用 课件 3-卷积神经网络_第3页
数字图像处理技术及应用 课件 3-卷积神经网络_第4页
数字图像处理技术及应用 课件 3-卷积神经网络_第5页
已阅读5页,还剩11页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

卷积神经网络导读本章从卷积神经网络(CNN)的基本概念出发,系统介绍其结构、训练与优化技术,并通过分析经典模型(如LeNet-5、AlexNet、VGGNet、GoogLeNet、ResNet)阐述CNN在图像分类、目标检测、语义分割等任务中的应用。学习目标:理解CNN如何推动图像处理技术的革新及其在现代图像处理中的核心作用。本章知识点CNN基本原理

CNN发展史

CNN内部机制

CNN应用案例

CNN未来趋势3.1卷积神经网络概述CNN是一种在计算机视觉和自然语言处理中广泛应用的深度学习模型,特别适合处理具有空间结构的数据(如图像、语音)。主要结构包括:卷积层(ConvolutionalLayer)池化层(Pooling

Layer)全连接层(Fully

Connected

Layer)特点:局部连接、权重共享、平移不变性,能自动从数据中学习特征。卷积神经网络结构示意图3.2卷积神经网络发展历史1960s–1980s:早期研究,感知机模型提出,但受限于线性分类能力。1990s:CNN提出,Yann

LeCun等人提出LeNet-5,首次成功应用于手写数字识别。2000s:深度CNN兴起,计算能力提升,AlexNet、VGGNet、GoogLeNet、ResNet等模型相继出现。

2010s至今:拓展与优化,CNN应用于图像生成、分割、检测等任务,引入残差连接、批量归一化等技术。里程碑模型:LeNet-5→AlexNet→VGGNet→GoogLeNet→ResNet典型模型:AlexNet(2012)首个深层CNN,在ImageNet2012比赛中夺冠,推动深度学习在视觉领域的发展。结构特点:8层(5卷积+3全连接)使用ReLU激活函数缓解梯度消失引入Dropout

防止过拟合采用数据增强与LRN层AlexNet结构示意图典型模型:VGGNet(2014)使用小卷积核(3×3)

堆叠构建深层网络,结构规整、泛化能力强。VGG-16结构:13个卷积层+3个全连接层特点:卷积核均为3×3,步长为1池化层均为2×2最大池化总参数量约1.38亿VGG-16卷积层参数示例层名卷积核尺寸卷积核数量输出形状参数量卷积层13×364(None,224,224,64)(3×3×3)×64+64=1792卷积层23×364(None,224,224,64)(3×3×64)×64+64=36928池化层12×22(None,112,112,64)0卷积层33×3128(None,112,112,128)(3×3×64)×128+128=73856卷积层43×3128(None,112,112,128)(3×3×128)×128+128=147584池化层22×22(None,56,56,128)0卷积层53×3256(None,56,56,256)(3×3×128)×256+256=295168卷积层63×3256(None,56,56,256)(3×3×256)×256+256=590080卷积层73×3256(None,56,56,256)(3×3×256)×256+256=590080池化层32×22(None,28,28,256)0卷积层83×3512(None,28,28,512)(3×3×256)×512+512=1180160卷积层93×3512(None,28,28,512)(3×3×512)×512+512=2359808卷积层103×3512(None,28,28,512)(3×3×512)×512+512=2359808池化层42×22(None,14,14,512)0卷积层113×3512(None,14,14,512)(3×3×512)×512+512=2359808卷积层123×3512(None,14,14,512)(3×3×512)×512+512=2359808卷积层133×3512(None,14,14,512)(3×3×512)×512+512=2359808池化层52×22(None,7,7,512)0合计

14714688典型模型:GoogLeNet(2014)提出Inception模块,并行多尺度卷积,提升特征表达能力。版本演进:V1

:原始Inception模块V2

:引入批量归一化(BatchNormalization)V3

:深度可分离卷积,降低计算量V4

:融合残差连接与密集连接核心优势:参数少、计算效率高。典型模型:ResNet(2015)提出残差连接(Residual

Connection)

,解决深度网络梯度消失/爆炸问题。结构变体:18、34、50、101、152层核心思想:恒等映射,让网络学习残差而非直接映射。ResNet计算量对比层名输出

尺寸18-layer34-layer50-layer152-layerConv1112×1127×7,64,stride2Conv2_x56×563×3,maxpool,stride2Conv3_x28×28Conv4_x14×14Conv5_x7×7

1×1Averagepool,1000-dfc,softmax每秒浮点运算次数1.8×1093.6×1093.8×10911.3×1093.3.1卷积层卷积层是CNN的核心,用于提取局部特征。卷积操作公式:关键参数:卷积核尺寸(如3×3、5×5)步长(Stride)填充(Padding)输出尺寸公式:

3.3.2池化层用于降维、减少噪声、增强平移不变性。常见池化方式:最大池化:取窗口内最大值,保留纹理特征平均池化:取窗口内平均值,平滑特征随机池化:按概率采样,介于两者之间最大池化3.3.3全连接层位于网络末端,用于特征整合与分类/回归。结构特点:每个神经元与上一层全部连接通常接Softmax或Sigmoid激活函数参数量大,易导致计算负担全连接网络结构3.4.1训练集增强提升模型泛化能力的关键手段:数据增强:随机裁剪、旋转、翻转、缩放等标签平滑:减轻模型对标签的过拟合数据混合:混合多个数据集提升多样性作用:增加数据多样性、抑制过拟合、提升鲁棒性。3.4.2损失函数用于衡量模型预测与真实值之间的差异,指导参数优化。MSE(均方误差)

:L=(y_pred-y_true)²RMSE(均方根误差)

:√MSE

MAE(平均绝对误差)

:|y_pred-y_true|选择依据:任务类型(回归/分类)、数据分布、噪声情况。3.4.3优化器用于更新模型参数,常见优化算法:梯度下降(GD)

:全局更新,计算量大批量梯度下降(BGD)

:分批次更新,稳定随机梯度下降(SGD)

:单样本更新,速度快但波动大Adam

:自适应学习率,收敛快且稳定学习率是关键超参数,影响收敛速度与稳定性。3.4.4正则化防止过拟合,提升模型泛化能力:L₁/L₂正则化:对权重施加范数约束权重衰减:逐步减小权重值Dropout

:随机丢弃神经元Batch

Normalization

:归一化层输入,加速训练思考题与习题卷积神经网络的基本原理是什么?阐述其结构。CNN的训练过程包括哪些步骤?不同模型训练差异如何?常见的数

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论