AdaBoost算法流程和证明.doc_第1页
AdaBoost算法流程和证明.doc_第2页
AdaBoost算法流程和证明.doc_第3页
AdaBoost算法流程和证明.doc_第4页
免费预览已结束,剩余1页可下载查看

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

Discete-AdaBoost算法1、给定训练集:,其中,表示的正确的类别标签, ,表示第i副图像的第j个特征值2、训练集上样本的初始分布:3、寻找若分类器 ht()(1)对于每个样本中的第j个特征,可以得到一个若分类器hj,即可得到阈值和方向Pj,使得达到最小,而弱分类器hj为:其中Pj决定不等式的方向, 只有两种情况。4、将所有特征(j)中挑选出一个具有最小误差的弱分类器。5、对所有的样本权重进行更新其中是使得归一化因子。6、经过T轮训练得到T个最优的弱分类器,此时组成一个强分类器;在Adaboost算法的弱学习中,将产生错误率为的弱分类器。如果每个错误率,则强分类器的总错误率一切都从强分类器的错误率开始首先 权值更新其中然后 强分类器的错误率使这个错误率快速下降?为归一化因子。转化为求的最小值了!此时我们用贪心算法求出的一个局部最小值对中的求导此时将固定令导数为零解出此时绘制关于的曲线图从这幅图上我们可以看出,当错误率越小或者越大(只要不在中点处徘徊)的时候快速收敛到0。越小:说明错误越小的分类器能快速识别出正例。越大: 说明错误越大的分类器也能快速识别出正例。既然最大,只要我把弱分类器取反,这样错误率就是最小,这样还是收敛到0。从以上的证明,我们知道只要是弱分类器的错误率都取最小,于是我们就能组合得到一个强分类器。接下来我们就找出一个弱分类器错误率很小。找T个联合起来就得到了强分类器!怎么找弱分类器?决策树ID3,C4.5,C5.0ID3 生成树用(CIG类别属性增益法)C4.5 生成树用(Gain Ratio增益比率法)修剪树用(Rule post-pruning规则修剪)C5.0 生成树用(Gini index 基尼指数)修剪树用(CRAT

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论