




已阅读5页,还剩26页未读, 继续免费阅读
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
提纲,前期调研 AdaBoost原理 一些问题,前期调研,PAC学习模型2-3 机器学习中,训练样本再大也不能代表某类事物本身,所以从训练样本中学习得到“规则”不能对某类事物完全适用,总有失效的情况出现,所以机器学习的目标是概率逼近正确学习! 1984年 Valiant提出PAC(Probably Approximately Correct)学习模型文中提出强学习和弱学习两个概念。,Valiant的贡献 Valiant指出弱学习转换为强学习的可行性! 实际运用中,人们根据生产经验可以较为容易的找到弱学习方法,但是很多情况下要找到强学习方法是不容易的。有时候人们倾向于通过先找到弱学习然后把它转换为强学习的方式获取强学习方法,而Valiant证明了这种方式的可行性。,怎样实现弱学习转为强学习 核心思想:通过组合使弱学习互补。 学习是不适定问题,在有限的样本上,不同的学习方法得到不同的“规则”,并在不同的情况下失效,没有一种学习算法总是在任何领域产生最好的分类效果。,例如:学习算法A在a情况下失效,学习算法B在b情况下失效,那么在a情况下可以用B算法,在b情况下可以用A算法解决。这说明通过某种合适的方式把各种算法组合起来,可以提高准确率。 为实现弱学习互补,面临两个问题: (1)怎样获得不同的弱分类器? (2)怎样组合弱分类器?,怎样获得不同的弱分类器 使用不同的弱学习算法得到不同基学习器 参数估计、非参数估计 使用相同的弱学习算法,但用不同的超参数 K-Mean不同的K,神经网络不同的隐含层 相同输入对象的不同表示 不同的表示可以凸显事物不同的特征 使用不同的训练集 装袋(bagging) 提升(boosting),怎样组合弱分类器 多专家组合 一种并行结构,所有的弱分类器都给出各自的预测结果,通过“组合器”把这些预测结果转换为最终结果。 eg.投票(voting)及其变种、混合专家模型 多级组合 一种串行结构,其中下一个分类器只在前一个分类器预测不够准(不够自信)的实例上进行训练或检测。 eg. 级联算法(cascading),小结 通过前期调研我比较关注是boosting原理。 bagging在给定样本上随机抽取(有放回)训练子集,在每个训练子集上用不稳定的学习算法训练分类不同弱分类器。boosting在前一个弱分类器错分的实例在后续的弱分类器上得到更大的重视。从训练子集的获取方式上看: bagging靠“运气”,boosting有“依据”! 所谓不稳定学习算法是指训练集很小的变化会引起所产生的分类器变化很大,即学习算法高方差。例如,决策树。,AdaBoost原理,AdaBoost的由来,?,AdaBoost的核心思想 “关注”被错分的样本,“器重”性能好的弱分类器 怎么实现 (1)不同的训练集调整样本权重 (2)“关注”增加错分样本权重 (3)“器重”好的分类器权重大 (4)样本权重间接影响分类器权重,原始AdaBoost,1995年Freund 提出AdaBoost算法,1999年Schapire在一篇会议论文上对Freund的AdaBoost重新表述,基本原理不变但是更易理解,下面以Schapire的版本介绍AdaBoost。,Given: m examples (x1, y1), , (xm, ym) where xiX, yiY=-1, +1,Initialize D1(i) = 1/m,For t = 1 to T,1. Train learner ht with min error,2. Compute the hypothesis weight,3. For each example i = 1 to m,Output,The weight Adapts. The bigger et becomes the smaller at becomes.,Zt is a normalization factor.,Boost example if incorrectly predicted.,Linear combination of models.,Schapire AdaBoost Algorithm,AdaBoost的收敛性证明 整个证明的核心: ,不等 左边是最终强分类器的错误率 证明过程:,至此,看到AdaBoost的错误率上限,接下来的目标就是使这个上限尽可能小!,怎么使 尽量小 看到 是关于 的函数,要使 最小显然需要研 究 ! 在原始的AdaBoost算法中采用贪婪算法,每次的 都是最小的保 证 收敛到满意的结果。 在原始AdaBoost算法中h值域是-1,1,问题是怎么找到最佳的,这时候,前面证明原始AdaBoost算法的收敛性,但是原始 AdaBoost的收敛速度是不是就是最好的,有没有 更快的?有,Schapire提出了Real AdaBoost收 敛更快!,再次明确一下目标: 使尽量小! 对于原始的AdaBoost,前文讨论过其h是“定死” 的,失去了“讨价还价”的余地,进而确定了 的选择方法,所以在Real AdaBoost不在“定死”,Real AdaBoost Algorithm,h 不再“定死”,到这里介绍完AdaBoost原理,接下来就是我学习中的一些困惑。,?,一些问题,AdaBoost泛化能力的证明 Adaboost中对h选择 接下来学习的方向,AdaBoost泛化能力的证明 目前对AdaBoost泛化能力的证明是各家各言,没有定论。 Freund的证明已经被实践推翻; Schapire的证明被人证明是有缺陷的; 我比较关注的是Freund和Schapire的证明,他们都用到一个概念叫VC维度。我查了很多文献,都没能理解这个概念,所以目前我对AdaBoost泛化能力的证明无能为力。,AdaBoost对h的选择 是h和alpha的二元函数,为什么考虑的时候都考虑alpha,没考虑h? 在原始的AdaBoost算法中用错误率最小来确定h至少还有个说法,在Real AdaBoost中直接把h和alpha整合成一个参数h了,那么Real AdaBoost算法中对alpha的讨论又有什么意义呢?,接下来学习的方向 不管是变种AdaBoost其功能都是把弱学习提升为强学习,直观上我的感觉是AdaBoost性能好坏取决于弱学习? 那么我们应该怎么选择弱学习方法?我在文献中看到有决策树、神经网络、svm、k-mean。等,AdaBoost作者用的是C4.5决策树。Viola第一个用AdaBoost做人脸检测,他采用是单层的决策树(stump)做弱
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 陶粒隔热层施工方案
- 建筑金属斗拱销售方案设计
- 工程地质调查员专业技能考核试卷及答案
- 优化咨询流程方案模板
- 企业人力资源管理师岗位操作规程考核试卷及答案
- 成都工厂管理咨询方案
- 城市防洪气象保障体系报告
- 专业互联网营销活动方案
- 复合型风管施工方案
- 四月营销执行方案策划
- 电影刮痧课件教学课件
- 2024新版(外研版三起孙有中)三年级英语上册单词带音标
- 游戏厅转让合同范本样本
- 广东省广州市越秀区2024-2025学年三年级上学期第一次月考语文试卷
- 技能等级考试附有答案
- DL-T-710-2018水轮机运行规程
- (高清版)JTGT 3331-08-2022 盐渍土地区公路路基设计与施工技术细则
- 第5课《用发展的观点看问题》第1框《世界是永恒发展的》-【中职专用】《哲学与人生》同步课堂课件
- 垃圾渗滤液处理调试方案
- 加利福尼亚批判性思维技能测试后测试卷班附有答案
- (2024年)发生输液反应时应急预案及处理流程
评论
0/150
提交评论