Adaboost算法自己整理.doc_第1页
Adaboost算法自己整理.doc_第2页
Adaboost算法自己整理.doc_第3页
Adaboost算法自己整理.doc_第4页
免费预览已结束,剩余1页可下载查看

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

Adaboost算法整理Adaboost算法流程图:弱分类器的训练过程:一个弱分类器h(x, f , p, )由一个特征f,阈值 和指示不等号方向的p 组成:一个haar特征对应一个弱分类器。训练一个弱分类器(特征f)就是在当前权重分布的情况下,确定f 的最优阈值以及不等号的方向,使得这个弱分类器(特征f)对所有训练样本的分类误差最低。具体方法如下: 对于每个特征 f,计算所有训练样本的特征值,并将其排序。通过扫描一遍排好序的特征值,可以为这个特征确定一个最优的阈值,从而训练成一个弱分类器。具体来说,对排好序的表中的每个元素,计算下面四个值: 1)全部人脸样本的权重的和T+; 2) 全部非人脸样本的权重的和T-; 3) 在此元素之前的人脸样本的权重的和S+; 4) 在此元素之前的非人脸样本的权重的和S=;这样,当选取当前任意元素的特征值作为阈值时,所得到的弱分类器就在当前元素处把样本分开也就是说这个阈值对应的弱分类器将当前元素前的所有元素分类为人脸(或非人脸),而把当前元素后(含)的所有元素分类为非人脸(或人脸)。可以认为这个阈值所带来的分类误差为:于是,通过把这个排序的表扫描从头到尾扫描一遍就可以为弱分类器选择使分类误差最小的阈值(最优阈值),也就是选取了一个最佳弱分类器。同时,选择最小权重错误率的过程中也决定了弱分类器的不等式方向。具体的弱分类器学习演示表如下:XYFwT(f)T(nf)S(f)S(nf)ABeX(1)010.20.60.400.20.20.80.2X(2)130.10.60.40.10.20.30.70.3X(3)040.20.60.40.10.40.10.90.1X(4)160.30.60.40.40.40.40.60.4X(5)190.10.60.40.50.40.50.50.5X(6)1100.10.60.40.60.40.60.40.4其中:通过演示表我们可以得到这个矩形特征的学习结果,这个弱分类器阈值为4,不等号方向为p=-1,这个弱分类器的权重错误率为0.1。Adaboost算法的具体描述如下:一组训练集: , 其中 为样本描述, 为样本标识, ;其中0,1分别表示正例子和反例。在人脸检测中,可以定义0为非人脸,1为人脸。初始化:初始化训练样本的权重,D(i),其中 或者 (人脸样本和非人脸样本初始化为不同的值,m为非人脸样本总数,l为人脸样本总数)。对t=1,2,.,T,循环执行下面的步骤:1.归一化权重:2.对每个特征f,训练一个弱分器 h(x,f,p,);计算所有特征的弱分类器的加权错误率3. 选取最佳弱分类器 ,按最小错误率。说明:第一步中的表示在训练的第t个弱分类器的第i个样本的权重。第二步中的为分错样本权重之和。表示对f特征的弱分类器的加权错误率 表示的是对第i个样本是人脸还是非人脸。故第二步中的绝对值的值为1时说明分错了,为0时,分对了。第三步中表示第t个特征f。4. 按照这个最佳弱分类器,调整权重:其中 被正确分类,被错误分类。5.最后的强分类器为:其中:在选择最佳的弱分类器的过程中,训练一个最优的弱分类器进行一次权重变化。第二步讲述的是:如何训练一个弱分类器第三步讲述的是:如何选择一个最优的弱分类器第四步:主要是为下一个最优弱分类器服务的,即调整权重。然后从第一步开始循环执行。循环T次,得到T个最优的弱分类器。然后利用第五步,进行级联得到一个强分类器,也就是在训练过程中完成了一个stage。在训练过程中显示的弱分类器都是最优的弱分类器。训练L层级联分类器的步骤如下:(1)训练第i层强分类器 ;(2)保存强分类器 的参数,即各弱分类器的参数、强分类器的阈值以及被 误判为人脸的非人脸样本;(3)补充非人脸样本集,组合前i层强分类

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论