《机器学习项目案例开发》课件 13.2集成算法-集成学习比较_第1页
《机器学习项目案例开发》课件 13.2集成算法-集成学习比较_第2页
《机器学习项目案例开发》课件 13.2集成算法-集成学习比较_第3页
《机器学习项目案例开发》课件 13.2集成算法-集成学习比较_第4页
《机器学习项目案例开发》课件 13.2集成算法-集成学习比较_第5页
已阅读5页,还剩8页未读 继续免费阅读

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工智能技术与应用13.集成算法比较课程概况—基本情况PART01集成算法Bagging算法常用的集成算法集成算法的对比Bagging算法Bagging集成算法:随机森林用的最多的随机森林。优势:

它能够处理很高维度的数据,并且不用做特征选择,也可以作为特征选择的工具(特征重要性)。

在训练完后,它能够给出哪些feature比较重要容易做成并行化方法,速度比较快可以进行可视化展示,便于分析,可以解释性强123Bagging算法Bagging集成算法:有些模型不适合使用

KNN最近邻,因为他很难随机让泛化能力变强Bagging算法Bagging集成算法:树模型的个数理论上越多的树效果会越好,但实际上基本超过一定数量就差不多上下浮动了。1-10棵树木的时候,准确率大幅提升

Boosting算法Boosting集成算法(提升算法):典型模型

AdaBoost,XgboostAdaboost:会根据前一次的分类效果调整数据权重。调整权重:如果某一个数据在这次分错了,那么在下一次我就会给它更大的权重最终的结果:每个分类器根据自身的准确性来确定各自的权重,再合体

Boosting算法Boosting集成算法-AdaBoost流程:原始数据D1,“+”和“-”分别表示两种类别,在这个过程中,我们使用水平或者垂直的直线作为分类器,来进行分类。第一步:根据分类的正确率,得到一个新的样本分布D2­,一个子分类器h1。其中划圈的样本表示被分错的。在右边的途中,比较大的“+”表示对该样本做了加权。原始数据D1子分类器h1错误样本加权集D2Boosting算法Boosting集成算法-AdaBoost流程:第二步:开始分类,根据分类的正确率,得到一个新的样本分布D3,一个子分类器h2。子分类器h2错误样本加权集D3Boosting算法Boosting集成算法-AdaBoost流程:第三步:根据分类的正确率,得到一个子分类器h3,整合所有子分类器:子分类器h3整合所有的分类器Boosting算法Boosting集成算法-AdaBoost流程:优点:

adaboost是一种有很高精度的分类器可以使用各种方法构建子分类器,adaboost算法提供的是框架当使用简单分类器时,计算出的结果是可以理解的。而且弱分类器构造极其简单简单,不用做特征筛选不用担心overfittingStacking算法Stacking集成算法:Stacking模型:堆叠:多个模型直接堆叠在一起可以堆叠各种各样的分类器(KNN,SVM,RF等等)分阶段:第一阶段得出各自结果,第二阶段再用前一阶段结果训练Stacking算法Stacking集成算法:Stacking模型实现流程:用数据集D来训练h1,h2,h3...,

用这些训练出来的初级学习器在数据集D上面进行预测得到次级训练集。

用次级训练集来训练次级学习器问题:但是这样的实现是有很大的缺陷的。在原始数据集D上面训练的模型,然后用这些模型再D上面再进行预测得到的次级训练集肯定是非常好的。会出现过拟合的现象

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论