版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、机器学习简介与应用,1,卷积神经网络,自编码器,机器学习与深度学习,提纲,2,机器学习与深度学习,PART 01,3,什么是机器学习,4,机器学习:对研究问题进行模型假设,利用计算机从训练数据中学习得到模型参数,并最终对数据进行预测和分类。其基础主要是归纳和统计,机器学习常用算法,5,决策树:将输入空间分成不同的区域,每个区域有独立参数的算法。决策树算法充分利用了树形模型,根节点到一个叶子节点是一条分类的路径规则,每个叶子节点象征一个判断类别。先将样本分成不同的子集,再进行分割递推,直至每个子集得到同类型的样本,从根节点开始测试,到子树再到叶子节点,即可得出预测类别。此方法的特点是结构简单、处
2、理数据效率较高,缺点:决策树往往会产生过拟合问题,机器学习常用算法,6,随机森林:以决策树为基础的一种更高级的算法。工作原理是生成多个分类器/模型,各自独立地学习和作出预测。随机森林中每个决策树都有一个自己的结果,通过统计每个决策树的结果,选择投票数最多的结果作为其最终结果。所以理论上,随机森林的表现一般要优于单一的决策树,优点: 抗过拟合能力:通过平均决策树,降低过拟合的风险性。 只有在半数以上的基分类器出现差错时才会做出错误的预测,非常稳定,机器学习常用算法,7,支持向量机:建立一个最优决策超平面,使得该平面两侧距平面最近的两类样本之间的聚类最大化,从而对分类问题提供良好的泛化能力,红色两
3、条线是两类数据的边界,但容错性较低,如果取绿色线作为分类线,那么对于此类数据,应该是最好的分类线,机器学习常用算法,8,Boost & Bagging:构建多个弱学习算法,形成多个弱分类器,得到多种比较粗糙的分类规则,然后将这些弱分类规则组织成强分类规则,Boost:采用改变训练数据的概率分布,针对不同的训练数据分布调用弱学习算法学习一组弱分类器。在多次迭代的过程中,当前次迭代所用的训练数据的概率分布会依据上一次迭代的结果而调整。也就是说训练数据的各样本是有权重的,这个权重本身也会随着迭代而调整,不同分布的训练数据进入不同学习法则后,得到的各基本分类器通常经过线性组合,形成强分类器。例如,像A
4、daboost和xgboost,最后的强分类器都是弱分类器的加性组合,机器学习常用算法,9,Bagging:训练几个分类器(弱学习器),然后让这几个分类器的输出当做分类投票,选择票数最多的那个输出作为最后的输出。对每个分类器,输入数据都是从原始训练数据中可重复的采样, 每个分类器的输入服从相同的分布,且各输入之间相互独立。而Boost中,各训练数据的分布不独立,每个分类器的输入样本之间也不独立,从简单线性分类器到深度学习,10,深度学习特点:增加中间层、低层特征转化为高层特征 深度学习网络往往包含多个中间层,问题:根据繁华程度(x1)、交通便利度( x2 )、与市中心距离( x3 )、楼层(
5、x4 )预测房价高低,深度学习,11,深度学习(Deep learning)是一种实现机器学习的技术,是机器学习重要的分支。其源于人工神经网络的研究。深度学习模型是一种包含多隐藏层的神经网络,通过组合低层特征形成更加抽象的高层特征,受人脑神经元工作机理的启发,深度学习动机,12,良好的特征表达,对最终算法的准确性起了非常关键的作用 识别系统主要的计算和测试工作耗时主要集中在特征提取部分 特征的样式一般都是人工设计的,靠人工提取特征,传统模式识别方法,深度学习动机,13,自动选取特征,获得好的特征是识别成功的关键 目前存在大量人工设计的特征,不同研究对象特征不同,特征具有多样性,如SIFT(尺度
6、不变特征变换),HOG(方向梯度直方图)等特征 手工选取特征费时费力,需要启发式专业知识,很大程度上靠经验和运气 是否能自动地学习特征,深度学习动机,14,层次网络结构:高层特征或图像,往往是由一些基本结构(浅层特征)组成。高层的特征是低层特征的组合,从低层到高层的特征表示越来越抽象,越来越能表现语义或者意图,2006年,加拿大多伦多大学教授、机器学习领域的泰斗Geoffrey Hinton在科学上发表论文提出深度学习主要观点: 1)多隐层的人工神经网络具有优异的特征学习能力,学习得到的特征对数据有更本质的刻画,从而有利于可视化或分类; 2)深度神经网络在训练上的难度,可以通过“逐层初始化”(
7、layer-wise pre-training)来有效克服,逐层初始化可通过无监督学习实现的,浅层学习局限:有限样本和计算单元情况下对复杂函数的表示能力有限,针对复杂分类问题其泛化能力受限,深度学习,15,本质:通过构建多隐层的模型和海量训练数据(可为无标签数据),来学习更有用的特征,从而最终提升分类或预测的准确性。“深度模型”是手段,“特征学习”是目的。 与浅层学习的区别:明确突出了特征学习的重要性,通过逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而使分类或预测更加容易。与人工规则构造特征的方法相比,利用大数据来学习特征,更能够刻画数据的丰富内在信息。 优势:可通过学习一种
8、深层非线性网络结构,实现复杂函数逼近,表征输入数据分布式表示,深度学习 VS 神经网络,16,神经网络,深度学习,深度学习 VS 神经网络,17,相同点:二者均采用分层结构,系统包括输入层、隐层(多层)、输出层组成的多层网络,只有相邻层节点之间有连接,同一层以及跨层节点之间相互无连接,每一层可以看作是一个logistic 回归模型。 不同点: 神经网络:采用BP算法调整参数,即采用迭代算法来训练整个网络。随机设定初值,计算当前网络的输出,然后根据当前输出和样本真实标签之间的差去改变前面各层的参数,直到收敛; 深度学习:采用逐层训练机制。采用该机制的原因在于如果采用BP机制,对于一个deep n
9、etwork(7层以上),残差传播到最前面的层将变得很小,出现所谓的gradient diffusion(梯度扩散,深度学习训练过程,18,第一步:采用自下而上的无监督学习 逐层构建单层神经元。 每次仅调整一层,逐层调整。这个过程可以看作是一个feature learning的过程,是与传统神经网络区别最大的部分。 第二步:自顶向下的监督学习 在第一步学习获得各层参数进的基础上,在最顶的编码层添加一个分类器(例如Logistic回归、SVM等),而后通过带标签数据的监督学习,利用梯度下降法去微调整个网络参数,深度学习过拟合与正则化,19,过拟合产生原因 观察值与真实值存在偏差 数据太少,无法描
10、述问题的真实分布 特征维度过多、模型假设太复杂,减少过拟合 正则化:L1、L2正则,模型中引入惩罚项 dropout::丢掉一些神经元 Early stopping:模型训练差不多的时候停下 数据集扩增,深度学习常用方法,20,基于多层神经元的自编码神经网络,包括自编码( Auto encoder)以及近年来受到广泛关注的稀疏编码两类( Sparse Coding) 基于卷积运算的神经网络系统,即卷积神经网络(CNN) 以多层自编码神经网络的方式进行预训练,进而结合鉴别信息进一步优化神经网络权值的深度置信网络(DBN,自编码器,PART 2,21,什么是自编码器,22,自编码器:通过网络训练学
11、习得到数据的低维度表示,通过让重构值与输入值相等来获取数据中的重要信息,重构层本身没有实际意义,使用自编码器主要用于特征提取,起到特征提取器的作用。 隐藏层维度低于输入层,起到降维作用,自编码器原理,23,特征提取,24,自编码器的重要意义是特征提取,模型训练完成后,将解码器删除,仅使用编码器得到重构的特征。得到的特征可应用于有监督的模型中,如分类模型,AE + softmax分类器,堆栈自编码器,25,堆栈自编码器:本质上就是增加中间特征层数,稀疏自编码器,26,稀疏自编码器:在自编码器的基础上增加约束条件后得到。隐藏层大部分神经元被抑制,少部分被激活,具有更优的学习数据特征的能力,确保只有
12、少数隐藏层中的神经元处于激活状态,稀疏自编码器,27,不加稀疏约束的隐含层激活状态,可看到很混乱,不含有明显的分工,加入稀疏约束项后明显改善,可看到隐含层较好的提取到各个笔画的特征,输入图片加噪声: 不加约束时,算法对抹去大面积空白处的盐粒噪声很积极,对有数字区域不敏感 稀疏约束让隐含层更有效的捕获有价值信息,而非仅有白噪声区域,能恢复更多些的细节,降噪自编码器,28,降噪自编码器:训练过程中输入的数据有一部分是“损坏”的,核心思想是一个能够从中恢复出原始信号的神经网络表达未必是最好的,能够对“损坏”的原始数据编码、解码,然后还能恢复真正的原始数据,这样的特征才是好的,降噪自编码器,29,降噪
13、自编码器的特征图,原自编码器的特征图,降噪自编码器确实在训练后学习到了有效的特征提取,例如手写体数字的”转角”,这类特征更有代表性,卷积自编码器,30,卷积自编码器:当输入是图像时,使用卷积神经网络是更好的。卷积自编码器和普通自编码器的区别在于其encoder和decoder都是卷积神经网络,相应的,encoder使用的是卷积操作和池化操作,而decoder中使用的反卷积操作和反池化操作,卷积神经网络,PART 3,31,什么是卷积,32,输入图像 卷积核 特征图,边缘信息提取,每个像素的取值用该像素原来数值的八倍减去邻近点像素值的和来替代 平滑部分(如草地)计算结果趋近于0,在输出特征图中表
14、现为黑色 边缘线由于像素值差值较大,在输出特征图中表现为白色,卷积卷积运算的特征: 可以使原始图像中的特征加强,什么是卷积神经网络,33,卷积神经网络(Convolutional Neural Networks , CNN):包含卷积计算且具有深度结构的前馈神经网络,是深度学习的代表算法之一。最先在图像分类中获得成功应用,后在自然语言处理等领域获得较好的应用。 卷积神经网络的特点: 局部卷积 权值共享 多卷积核 池化操作 多层处理,传统全连接神经网络,缺点:参数量大,效率低,一、局部卷积,34,全局感知 局部感知,卷积可看成作用于矩阵的一个滑动窗口函数,滑动窗口即为卷积核 输出特征图中每个像素
15、实际上是出入图像中局部区域像素的加权平均,依据:局部像素联系较为密切,距离较远的像素相关性较弱,每个神经元只要对局部信息进行感知,在更高层将局部信息进行综合,可获得全局的信息,卷积具体实现,35,卷积的步长(stride) 窄卷积(特征图大小小于原图)和宽卷积(填充0再卷积运算,大小不变,二、权值共享,36,三、多卷积核,37,每个卷积核对输入图像进行卷积处理,生成一幅特征图像 不同卷积核生成的不同图像可理解为该输入图像的不同通道,为充分提取特征,使用多个卷积核提取特征,四、池化处理,38,池化处理:也叫作降采样处理(down-pooling),是对不同位置的特征进行聚合统计。常用的有最大池化、平均池化,最大池化过程 平均池化过程,池化优点:降维、克服过拟合等,五、多层处理,39,图像处理中,往往采用多层卷积及池化处理,一
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 外研八下英语Unit 3 Presenting ideas-Reflection《单元知识梳理》课件
- 人教 八年级 语文 下册 第2单元《8.时间的脚印 第2课时》课件
- 2026年水泥材料销售合同(1篇)
- 2025 高中信息技术数据结构在生物信息学中的运用课件
- 2026年委托购房合同规范合同(1篇)
- 心理环境对幼儿发展的意义
- 2026届浙江宁波十校高三下学期二模化学试题+答案
- 四川省宜宾市普通高中2023级第二次诊断性测试数学+答案
- 2026年及未来5年市场数据中国镍矿产业园区行业发展潜力预测及投资战略、数据研究报告
- 春季工厂防火安全培训
- 2026年安徽工商职业学院单招职业技能测试题库带答案详解ab卷
- 2026年安徽工贸职业技术学院单招职业技能测试题库带答案详解(基础题)
- 纳税人员财会制度
- 2026年西安科技大学辅导员招聘(15人)考试参考试题及答案解析
- 医保局联席会议制度
- 2026年南京铁道职业技术学院单招职业适应性测试题库及答案详解(名校卷)
- 食品车间班组长考核制度
- 2026浙江创新动力私募证券基金管理有限公司招聘1人备考题库含答案详解(巩固)
- 纯劳务公司财务制度
- 银行AI在智能营销中的应用策略
- 2026年乡村医生考核试题及答案
评论
0/150
提交评论