(应用数学专业论文)支持向量机多类分类算法的研究.pdf_第1页
(应用数学专业论文)支持向量机多类分类算法的研究.pdf_第2页
(应用数学专业论文)支持向量机多类分类算法的研究.pdf_第3页
(应用数学专业论文)支持向量机多类分类算法的研究.pdf_第4页
(应用数学专业论文)支持向量机多类分类算法的研究.pdf_第5页
已阅读5页,还剩41页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

摘要 关于支持向量机多类分类问题的模型和算法的研究是当今研究的热点之一无论是最近提出 的“一对一对余”结构的算法,还是通常用的。一对一”结构的算法,对于k 类分类问题,都需 要解决k ( k q ) 2 个二次规划问题,使得支持向量机在求解大规模问题中就会产生速度很慢的缺 陷。因此,研究高效的求解算法是很有意义并且急需解决的问题。本文主要研究多类分类问题, 从最优化理论和算法的角度研究支持向量的最优化问题,并建立了高效的求解算法。 本文所做的主要研究工作如下: 1 构造了基于线性规划的。一对一”三类结构支持向量分类器由c h i h - w e ih 等人将几个常用 的算法,如:。一对多”算法。一对一算法,。有向无环图”算法,“纠错输出编码”算法以 及两种聚集算法进行了数据试验的比较,试验结果表明。一对一”算法更适合于解决多类分类问 题但其也存在一定的缺点,由于在构造子分类器的时候,只有两类数据参与训练,容易造成由 其它数据的信息缺失而带来的错误分类的问题。由c e c i l i o a 等人提出的基于二次规划的“一对一” 三类结构支持向量机。与传统的。一对一”结构相比较。其优势在于在分解的过程中,除了需要 计算被区分的两类训练点外,其它类别中训练点的信息也被充分利用,在一定程度上可以防止由 信息的不完全带来的分类误差。同时,也减少了参数的个数。但由于增加了模型的复杂性。限制 了其应用本文构造了基于线性规划的。一对一”三类结构支持向量分类器,可以直接利用比较 成熟的线性规划算法一预测一校正原对偶内点法,并在此基础上提出了基于预测一校正原对偶内点 法的支持向量机的多类分类学习算法,这种算法可用于比较庞大的多类别识别问题。数值试验表 明,本文提出的算法训练速度快,而且保持良好的分类精度 2 在k - s v c r 算法结构的基础上,构造了新的模型由a n g u l oc 等人提出的k - s v c r 算法,作 者只给出了k s v c r 模型,并没有提供相应的求解算法,在一定程度上限制了k s v c r 算法 的推广使用,并且其对偶目标函数为凸函数,而不是严格凸函数本文构造了新模型,该模型 的特点是它的一阶最优化条件可以转化为一个线性互补问题,通过l a g r a n g i a n 隐函数,可以将其 进一步转化成一个严格凸的无约束优化问题。利用s h e r m a m m o o d b m y - i d e n t i t y 等式减小相应优化 问题的规模并在此基础上利用了快速的a r m i j o 步长的有限牛顿法和解决大型问题的共轭梯度 法来求解无约束优化问题,理论和数值试验都表明有限牛顿法,共轭梯度法速度快、容易实现 另外,支持向量机的模型中含有多个参数,参数的取值直接影响分类的精确度。针对支持向量机 结构参数的选取在没有理论支持的情况下,本文利用基本的遗传算法来解决优化问题,并有效估 计未知参数。将上述算法应用于b e n c h m a r k 数据集的测试实验表明了此算法的有效性 关键词支持向量机,多类分类,原对偶内点法,牛顿法,共轭梯度法 a b s t r a c t t h es h l 衄o fm u l t i = c l a s sc l a s s i f i c a t i o n sm o d e l sa n da l g o r i t h m si ns u p p o r lv e c t o rm a c h i n e ( s v m ) i s a l li m p o r t a n ta n do n - g o i n gr e s e a r c hs u b j c c t w h a t e v e rt h er e c e n t l yp r o p o s e do n e - a g a i n s t - o n e - a g a i n s t - r e s ta n dt h em o s tp o p u l a ro n e - a g a i n s t - o n em e t h o d s ,f o rak - c l a s sc i n s s j f g a f i o np r o b l e m , k ( k - i ) 陀 q u a d r a t i cp r o g r a m sn e e dt ob es o l v e dt oa s s i g nan e wp a t t e r nt oap r o p e rc l a s s s oi ti se x t r e m e l y i m p o r t a n tt od e v e l o pa l la l g o r i t h mt h a tc s o l v et h e s eq u a d r a t i cp r o g r a m se f f i c i e n t l y t h i sp a p e rm a i n l y a i m sa tm u l t i - c l a s sp r o b l e m s ,w ed os o m er e s e a r c h e so nt h es v m b yt h eo p t i m i z a t i o nt h e o r ya n d a l g o r i t h ma n db u i l tu pa l g o r i t h me f f i c i e n t l y t h em a i nw o r k si nt h ep a p e ra ”f o l l o w s : l ,a o n e - v e r s u s - o n e 菌- c l a s s s v m c l a s s i f i e r b a s e d o n l i n e a r p r o g r a m m i n g i s p r o p o s e d c h i h - w e i h c o m p a r e dt h e s ee x p e r i m e n t so nb e n c h m a r kd a m s n t so f t h e s ed i f f e n ta l g o r i t h m s ,s u c ha so n e - v e r s u s - a l l 、 o o - v e i s u s - o b e ,d i r e c t e da c i d i c g r a p h 、e r r o r - c o r r e c t i n g - o u t p u t - c o d e a n dt w o a l l - t o g e t h e r a l g o r i t h m s t h er e s u l tt a m e do u tt h a to n o - v a l g o r i t h ma d a p tt oe v m ms n t t l j n gt h e m u l t i - c l a s sp r o b l e m s c e c i l i oa p r o p o s e dao 峥v e e m 争伽ct r i - c l a 鲳s v mc l a s s i f i e rb a s e do nq u a d r a t i c p r o g r a m m i n 蜃t h ea l g o r i t h m “r n l i st h a td a t a s e 乜a f eu t i l i z e de m m g h h o w e v e r , i t sf o r m u l a t i o ni s m o r ec o m p l i c a t e d , w h i c hc o n f m e si t sa p p l i c a t i o n s w ep r e s e n tas e p a r a t i n gh y p e r p l a n eb a s eo nl i n e a r p r o g r a m m i n ga n daa l g o r i t h mo fm u l f i - c l s c l a s s i f i c a t i o nb a s eo np r c d i c t o r - e c m e c t o rp r i m a ld u a l i n t e r i o rp o i n tm e t h o d t h i sa l g o r i t h mi sa p p l i e dt om a n ym o r eh u g ei d e n t i f yp r o b l e m so fm u l t i - c l a t h i sa r t i c l ei n t r o d u c et h i sa l g o r i t h mi nd e t a i l t h i sa l g o r i t h mi st e s t e d0 1 1b e n c h m a r kd a t a , s e t sa n do b t a i n ab e t t e rr e s u l t 2 、w ep u tf o r w a r da f o r m u l a t i o nw h i c hi sp r o p o s e db a s e do nt h ek - s v c rm e t h o d a n g u l oc p r o p o s e dt h ek - s v c rm e t h o , t t h e yp r e s e n t e dt h em o d e lo n l y , s oc o n f i n e si t sa p p l i c a t i o n s t h e 恤t g d v a l l l l ei sp l d t 硼d i n 参i nt h i 墨p a p e r w cs t a r tw i t h 曩螂f o r m u l a t i o nw h i c hi sp d i ,o s c db a s e do at h e k - s v c rm e t h o d t h e nt r a b s f o r l bi t 鹞o 彻中i c i 啷幢a r i i yp r o b l e ma n df l u t h e f t 出o n g l y n v 珏 u n c o n s t r a i n e do p t i m i z a t i o n p r o b l e mb yu s i n g t h ei m p l i c i t l a g r a n g 诅uf u n c t i o n m a k el eo f s h e n n a n - m o o d b u r y - i d e n t i t ye q u a t i o nt o 啪唧o n de x c e l l e n tt u r nt h es c a l eo f p r o b l e m 1 1 l i 5i n d i c a t e s t h a tt h ea l g o r i t h mc a l lb ei m p l t c de f f i c i e n t l yi np l w t i c c t h e nt h en e w t o na l g o r i t h ma n dt h e c o n j u g a t eg r a d i e n ta l g o r i t h mw i t hg l o b da n df i n i t et e r m i n a t i o np r o p e r t i e si se s t a b l i s h e df o rs o l v i n gt h e r c s u l t i n go p t i m i z a t i o np r o b l e m m a k eu s eo f g e n e t i ca l g o r i t l n ns o l v et h er e s u l t i n go p t i m i z a t i o np r o b l e m a n de s t i m a t et h eu n b e k n o w np a 瑚瓣e tt h e 弘d d i l o ff i t n e s sf i i :t i 咄i se s t a b l i s h e db ym a t l o b l a n g u a g e n - i 摹i n d i c a t e st h a tt h ea l g o r i t h mc 姐b ei m p l e m e n t e de 伍c i e 札l l yi np f :- c t i 。c p r e l i m i n m y n u m e r i c a le x p e r i m e n t so nb e n c h m a r kd a m s d s s h o wt h a tt h ea l g o r i t h mh a sg o o dp e r f o r m a n c e k e yw o r d s :s u p p o r tv e c t o fm a c h i n e m u l t i - c l a s sc l a s s i f i c a t i o n n e w t o nm e t h o d ,c o n j u g a t eg r a d i e n tm e t h o d 独创性声明 本人声明所呈交的论文是我个人在导师指导下进行的研究工作及取得的研究成 果尽我所知,除了文中特别加以标注和致谢的地方外,论文中不包含其它人已经发 表或撰写过的研究成果,也不包含为获得中国农业大学或其它教育机构的学位或证书 而使用过的材料。与我一同工作的同志对本研究所做的任何贡献均已在论文中作了明 确的说明并表示了谢意。 研究生躲囊l 葺 帆川年石刚日 关于论文使用授权的说明 本人完全了解中国农业大学有关保留、使用学位论文的规定,即:学校有权保留 送交论文的复印件和磁盘,允许论文被查阅和借阅,可以采用影印、缩印或扫描等复 制手段保存、汇编学位论文。同意中国农业大学可以用不同方式在不同媒体上发表、 传播学位论文的全部或部分内容 研究生签名:秀三二茸 导师签名: 时问:山柙7 年月,z 日 时间:如1 年5 月,6 日 中国农业大学硕十学位论文第一章绪论 第一章绪论 支持向量机( s u p p o r tv e c t o rm a c h i n e ,s v i v i ) 是数据挖掘中的一项新技术,是基于统计学习理 论”1 的结构风险最小化原理基础上提出来的一种学习算法,是借助于最优化方法解决机器学习问 题的新工具它最初于2 0 世纪9 0 年代由v o p n i k 提出。近年来在其理论研究和算法实现方面都 取得了突破性进展,开始成为克服。维数灾难”和。过学习”等传统困难的有力手段。在解决小 样本,非线性及高维模式识别问题中表现出许多特有的优势,并且能够推广应用到函数拟合等其 它机器学习问题中虽然统计学习理论和支持向量机方法中尚有很多问题需要进一步研究,但很 多学者认为,他们正在成为继模式识别和神经网络研究之后机器学习领域中新的研究热点,并将 推动机器学习理论和技术的发展。 由于支持向量机是基于统计学习理论的,本章首先介绍统计学习理论的基本核心内容,给出 支持向量机算法的理论背景 i i 机器学习的基本问题和方法 传统统计模式识别的方法都是在样本数目足够多的前提下进行研究的,所提出的各种方法只 有在样本数趋向无穷大时其性能才有理论上的保证。而在多数实际应用中,样本数目通常是有限 的,很多方法都难以取得理想的效果。而统计学习理论是一种小样本统计理论,为研究有限样本 情况下的统计模式识别和更广泛的机器学习问题建立了一个较好的理论框架,同时也发展了一种 新的模式识别方法一一支持向量机。能够较好地解决小样本学习问题 统计学习理论就是研究小样本统计和预测的理论。核心内容包括:基于经验风险最小化准则 的统计学习一致性条件:统计学习方法推广性的界;在推广界的基础上建立的小样本归纳推理准 则;实现新的准则的实际方法 i i i 机器学习问题的表示 机器学习问题的基本模型,可以用图( i - i ) 表示其中,系统s 是我们研究的对象,它在 给定输入j 下得到一定的输出y ,l m 是所求的学习机。输出为,机器学习的目的是根据给定 的已知训练样本求出对系统输入输出之阃依赣关系的估计,使它能够对未知输出作出尽可能准确 的预测。 圈i - i机嚣学习的基本模型 中国农业大学硕士学位论文第一章绪论 机器学习问题可以形式化地表示为:已知变量y 与输出? 之间存在一定的未知依赖关系,即 存在一个未知的联合概率r ( x ,y ) ,机器学习就是根据,个独立同分布观测样本 ( 毛,咒j ,( 毛,乃) ,( 而,乃) , ( i - 1 ) 在一组函数厂( 薯l ,) 中求一个最优的函数,( 而w o ) ,使预测的期望风险 。 胄( w ) = j ( 弦,( 薯w ) 妒( 为y ) ( 1 2 ) 最小其中,而w ) 称为预测函数集,w q 为函数的广义参数,故,( 与w ) 可以表示任何 函数集,工( 弘,( 葺w ) ) 为由于用,( 五w ) 对y 进行预测而造成的损失,为损失函数,不同类 型的学习问题有不同的损失函数。 在上面的表述中学习的目标在于使期望风险最小化,但要使( i - 2 ) 式期望风险最小化。必 须依赖手联合概率f 与y ) 的信息,但是,联合概率f ( 而) ) 是未知的,在实际的机器学习问 题中,我们只能利用己知样本( 五,舅) ,( 而,咒) ,( 而,乃) 的信息。无法直接计算和最小化期 望风险。因此传统方法采用经验风险最小化的准则。 1 1 2 经验风险最小化 经验风险最小化的准则即用经验风险 【门= ;上( y ,( 五,”) ( 1 - 3 ) i ,;l 逼近期望风险,由于j k 【,l 是用已知的训练样本定义的,因此称作经验风险最小化经验风险 在多年的学习方法研究中占据了主要地位,但是,仔细研究经验风险最小化原则和机器学习问题 中的期望风险最小化要求可以发现。从经验风险最小化准则代替期望风险最小化准则没有经过 充分的理论论证只是直观上合理的想当然做法经验风险最小并不一定意味着期望风险最小, 而且会出现。过学习”问题,训练误差小,并不能导致好的预测效果另外,学习机器的复杂 性不但与所研究的系统有关,而且要和有限的学习样本相适应 1 1 3 复杂性和推广能力 在早期的研究中,人们总是把注意力集中在如何使悬i ,l 更小,但很快便发现一味追求 训练误差小并不是总能达到好的预测效果人们将学习机器对未来输出进行正确预测的能力称作 推广能力某些情况下,当训练误差过小反而会导致推广能力的下降,这就是所谓的。过学习” 删缸l g ) 问题之所以出现。过学习”现象,一是因为学习样本不充分,二是学习机器设计不 合理,这两个问题是互相关联的只要设想一个简单的例子,假设我们有一组训练样本f 葺) ,1 , 工分布在实数范围内,而y 取值在l o , l l z 问那么不论这些样本是依据什么函数模型产生的,只 要我们用一个函数,( 而口l = s i n l 蕊) 去拟台这些样点,其中a 是待定参数,总能够找到一个a 使训练误差为零,显然得到的这个。最优函数”不能正确代表原来的函数模型出现这种现象的 原因,就是试图用一个复杂的模型去拟合有限的样本。结果导致丧失了推广能力,这就是有限样 本下学习机器的复杂性与推广性之间的矛盾。 2 中国农业大擘硕士学位论文第一章绪论 在有限样本情况下,我们可得出以下基本结论: ( i ) 经验风险最小并不一定意味着期望风险最小; ( 2 ) 学习机器的复杂性不但与所研究的系统有关,而且要和有限的学习样本相适应。在有限 样本情况下学习精度和推广性之间的矛盾似乎是不可调和的,采用复杂的学习机器容易使学习误 差更小。但却往往丧失推广性因此,人们研究了很多弥补办法,比如在训练误差中对学习函数 的复杂性进行惩罚;或者通过交叉验证等方法进行模型选择以控制复杂度等等,使一些原有方法 得到了改进。但是,这些方法多带有经验性质,缺乏完善的理论基础。在模式识别中,人们更趋 向于采用线性或分段线性等较简单的分类器模型。 1 2 统计学习理论的核心内容 统计学习理论被认为是目前针对小样本统计估计和预测学习的最佳理论。它从理论上较系统 地研究了经验风险最小化原则成立的条件、有限样本下经验风险与期望风险的关系以及如何利用 这些理论找到新的学习原则和方法等问题其主要内容包括四个方面: ( 1 ) 经验风险最小化原则下统计学习一致性的条件; ( 2 ) 在这些条件下关于统计学习方法推广性的界的结论; ( 3 ) 在这些界的基础上建立的小样本归纳推理原则i ( 4 ) 实现这些新的原则的实际方法( 算法) 1 2 1 学习过程一致性的条件 所谓学习过程的一致性( i s t c y ) 就是指当训练样本数目趋于无穷大时经验风险的最 优值能够收敛到真实风险的最优值只有满足一致性条件,才能保证在经验风险最小化原则下得 到的最优方法在样本无穷大时趋近于使期望风险最小的最优结果。 学习过程的一致性:记,( 葛矿) 为在式( 1 i ) 的,个独立同分布样本下在函数集中使经验 风险取得最小的预测函数,由它带来的损失函数为工l 乃f 矗 ,i ,l i 。相应的最小经验风险值 为j ( 矿i ,) 。记r ( 1 ,i ,) 为在工( 弦,( 暑矿l ,) ) 幸的式( i - 2 ) 薪最得的真实风险值( 期望风 险值) 当下面两式成立时称这个经验风险最小化学习过程是一致的: r ( w i f ) 且_ r 似) , ( 1 - 4 口) 墨_ ( w l z ) e o r “) 。( 1 - 4 b ) 其中,r ( ) = i n f r ( d 为实际可能的最小风险- 即式( i - 2 ) 的下确界或最小值 定理1 zl ( 学习理论关键定理) 对于有界的损失函数,经验风险最小化学习一致的充分必 要条件是经验风险在如下意义上一致地收敛于真实风险; 熙p l 叩陋( w ) 一( 帅占1 2 o ,v 占 o ( 1 - 5 ) 其中,p 表示概率,j 巳。( w ) 和r ( w ) 分别表示在行个样本下的经验风险和对于同一w 的真实风 , 中国农业大学硕士学位论文第一章绪论 险因为这定理在统计学习理论中的重要性,被叫做学习理论的关键定理( k e yt h e o r e mo f l e a r n i n g ) ,它把学习一致性的问题转化为式( 1 - 5 ) 的一致收敛问题 我们的目的不是用经验风险去逼近期望风险,而是通过求使经验风险最小化的函数来逼近能 使期望风险最小化的函数,因此其一致性条件比传统统计学中的一致条件更严格。虽然学习理论 关键定理给出了经验风险最小化原则成立的充分必要条件,但这一条件并没有给出什么样的学习 方法能够满足这些条件为此,统计学习理论定义7 一些指标来衡量函数集的性能,其中最重要 的是v c 维( v a p n i k - c h e r v o n e n k i sd i m e n s i o n ) 1 2 2 函数集的学习性能与v c 维 为了研究函数集在经验风险最小化原则下的学习一致性和一致性收敛的速度,统计学习理论 定义了一些指标来衡量函数集的性能,其中最重要的是v c 维,它是统计学习理论中的一个核心 概念。是目前为止对函数集学习性能的最好描述指标 v c 维直观定义是:假如存在一个有,个样本的样本集能够被一个函数集中的函数按照所有可 能的2 ,种形式分为两类,则称函数集能够把样本数为,的样本集打散( s h a t e r i n g ) 指示函数集的 v c 维就是用这个函数集中的函数所能够打散的最大样本集的样本数目。若对任意数目的样本都 有函数能将它们打散,则函数集的v c 维是无穷大,有界实函数的v c 维可以通过用一定的阈值 将它转化成指示函数来定义。v c 维反映了函数集的学习能力,v c 维越大,则学习机器越复杂 v c 维是统计学习理论中的一个核心概念,它是目前为止对函数集学习性能的最好描述指标。 但是遗憾的是,目前尚没有通用的关于如何计算任意函数集的v c 维的理论,只有对一些特殊的 函数集的v c 维可以准确知道,而对于一些比较复杂的学习机器,其v c 维除了与函数集选择有 关外。通常也受学习算法等的影响,因此其确定将更加困难。对于给定的学习函数集,如何用理 论或实验的方法计算它的v c 维仍是当前统计学习理论中有待研究的一个问题。 1 2 3 推广性的界 统计学习理论中推广性的界是关于经验风险和期望风险之间的关系的重要结论,它们是分析 学习机器性能和发展新的学习算法的重要基础对于两类分类问题,对指示函数集,( 暑w ) 中 的所有函数( 包括使经验风险最小的函数) 经验风险和期望风险之问至少以概率l 一,7 0 e ( o ,l 】) 满足如下关系: r 【门s 曩一门+ ( 1 - 6 ) 其中h 是函数集的v c 维,是样本数这一结论说明经验风险最小化原则下学习机器的实际风 险是由两部分组成的,其中第一部分为训练样本的经验风险,另一部分称作置信范围置信范围 不但受置信水平l - r 的影响,而且更是函数集的v c 维和训练样本数目的函数,且随着它的增加 而单调减少,可将( 1 - 6 ) 式改写为 4 中国农业大学硕士学位论文 第一章绪论 即) ( w ) + 西( 匐 似, ( 1 - 6 ) 式给出的是关于经验风险和期望风险之间差距的上界,它们反映了根据经验风险最小化原 则得到的学习机器的推广能力,因此称作推广性的界。 1 2 4 结构风险最小化原则 为了最小化期望风险,我们需要同时最小化经验风险和置信范围,根据( 1 - 6 ) 式的理论依据, 可以用另一种策略来解决这个问题,首先把函数集s = ,( 五w ) , w eq 分解为一个函数子集 序列 墨c 曼c c 墨c 墨( i - 8 ) 使各个子集能够按照v c 维的大小捧列,即 s 琏s s 嚏, ( 1 - 9 ) 选择最小经验风险与置信范围之和最小的子集,就可以达到期望风险的最小,这个子集中使经验 风险最小的函数就是要求的最优函数,这种思想称作结构风险最小化( s t r u c t u r a lr i s k m n m i z a t i o n ) 原则,简称s r m 原则。如图l 2 所示 :二劓 义: 围 函数集子集:墨c & c 焉v c 维:_ i j is 如鸟 田l - 2 结构风险小化示意图 在结构风险最小化原则下,一个分类器的设计过程包括以下两方面任务: 一方面选择一个适当的函数子集( 使之对问题来说有最优的分类能力) ;另一方面从这个子集中 选择一个判别函数( 使经验风险最小) 第一步相当于模型选择,而第二步相当于在确定了函数 形式后的参数估计与传统方法不同的是,在这里模型的选择是通过对它的推广性的界的估计进 行的。 结构风险最小化原则为我们提供了一种不同于经验风险最小化的更科学的学习机器设计 原则,但是由于其最终目的在于式( i - 7 ) 的两个求和项之间进行折衷,因此实际上实施这一原则 并不容易。支持向量机就是一种比较好地实现了结构风险最小化思想的方法 5 1 2 s 核函数 在利用支持向量机解决分类问题时,核函数是支持向量机的重要组成部分。对于非线性分类 问题,首先要选择适当的核函数量( ,) 。或者说需要选择一个映射m ( ) ,把训练点所在的输入 空间| :j f 映射到某一个高维的空间中去,然后在这个高维空间中求解优化问题。在映射过程中,并 不需要显式计算样本点的象o ( 薯) ,由于支持向量分类机的最终决策函数仅依赖于变换后的 h i l b 酿空间中的内积( 中( ) 中( _ ) ) ,并不需要知道具体的映射是什么,只要选定核函数j 【( ,) 就够了。由于多种不同的特征空间会导致不同的核函数k ( ,) ,所以核函数应该有较大的选择范 围,但是它必须满足如下定义 定义1 - 2 - 2e f t 函数( 核或正定核) ) 设x 是彤中的一个子集,称定义在x x 上的函数 置( 墨工) 是核函数( 核或正定核) t 如果存在着从x 到某个i - i i l l t 空间h 的映射中( ) ,使得 置( 而工7 ) = ( 中( 工) m ( 工) ) ,其中( ) 表示h 中的内积 常用的几种核函数: ( 1 ) g a u s s 径向基核( 或r b f 核) : m 川一f _ 睁1 m ( 2 ) 多项式核: 置( 而x ) = ( ,工,d = l z , 足( 而x ) = ( ( 工工) + l ,d = l ,2 , ( 3 ) 多层感知器,又称s i g m o i d 核 k ( 薯善) = t a 】曲( 茁( 工一) + d 厂 其中r o , 0 。 ( 4 ) b 样条核 置( 暑工) = 岛p 。( z 一工) 其中岛川( x ) 是2 ,+ 1 阶b 一样条函数 1 3 论文的研究内容 支持向量机由于其特有的准确性和全局解而成为求解分类问题和回归问题的一个非常有效 的工具,能较好地解决了小样本非线性,高维数和局部极小点等问题,但是由于其要求解二次 规划,对于k 类分类问题,都需要解决k ( k - 1 ) 2 个二次规划问题,使得支持向量机在求解大规 模问题中就会产生速度很慢的缺陷目前,建立高效的求解支持向量机中的最优化问题算法,是 6 ) ) ) l 2 3 l l l - 1 l l ( ( ( 中同农业大学硕士学位论文第一章绪论 支持向量机理论研究中一个急需解决且很有意义的一个问题,因此,本文针对以下几个方面对支 持向量机的算法进行了研究和探讨。本文所做的主要研究工作如下: ( 1 ) 构造了基于线性规划的。一对一。三类结构支持向量分类器由c h i h - w e ih 等人将 。一对多”算法,。一对一”算法,。有向无环图”算法,。纠错输出编码”算法,以及两种“聚 集算法进行了数据试验的比较,试验结果表明。一对一算法更适合于解决多类分类问题。但 其也存在一定的缺陷。由于在构造子分类器的时候,只有两类数据参与训练,容易造成由其它数 据的信息缺失而带来的错误分类的问题。由c e c i l i o a 等人提出的基于二次规划的。一对一”三类 结构支持向量机与传统的。一对一”结构相比较,其优势在于在分解的过程中,除了需要计算 被区分的两类训练点外,其它类别中训练点的信息也被充分利用,在一定程度上可以防止由信息 的不完全带来的分类误差。但由于增加了模型的复杂性,限制了其应用本文构造了基于线性规 划的。一对一”三类结构支持向量分类器,可以直接利用比较成熟的线性规划算法一预测一校正 原对偶内点法并在此基础上提出了基于预测一校正原对偶内点法的支持向量机的多类分类学习 算法这种算法可用于比较庞大的多类别识别问题。数值试验表明,本文提出的算法的训练速度 快,而且保持良好的分类精度 ( 2 ) 在k - s v c r 算法结构的基础上。构造了新的模型。由a n g u t o c 等提出的k - s v c r 算法, 作者只给出了k s v c r 模型,并没有提供相应的求解算法,在一定程度上限制了k s v c r 算 法的推广使用,并且其对偶目标函数为凸函数,而不是严格凸的。本文构造了新模型,该模型 的特点是它的一阶最优化条件可以转化为一个线性互补问题,通过l a g r a n g i a n 隐函数,可以将其 进一步转化成一个严格凸的无约束优化问题。利用s h e r m a n - m o o d b u r y - i d e n t i t y 等式减小相应优化 问题的规模。并在此基础上利用了快速的有限牛顿算法,解决大型问题的共轭梯度技术来求解无 约束优化问题,理论和数值试验都表明有限牛顿算法,共轭梯度技术算法快速,容易实现;支持 向量机的模型中含有多个参数,参数的取值直接影响分类的精确度,本文利用基本的遗传算法来 解决优化问题,并有效估计未知参数。将上述算法应用于b e n c h m a r k 数据集的测试,实验袭明了 此算法的有效性 1 4 论文的组织结构 第一章;首先介绍了机器学习的基本问题和方法,给出统计学习理论的核心内容 第二章:给出几种常用的支持向量机模型。本文主要研究多类分类问题,详细介绍了目前对 于多类分类问题国内外研究现状并且总结了每个算法的优缺点 第三章:介绍了目前解决线性规划的有效算法:m e h r o t r a 预测一校正原对偶内点算法理论; 基于一种。一对一”三类结构多类分类问题,本章给出其线性规划支持向量机,并用m e h r o t r a 预测校正原对偶内点算法求解。 第四章:针对多类分类问题,本章提出一个新模型,将支持向量分类机和回归机结合在一起, 增加了b 2 项,保证了最优化问题是严格凸的二次规划问题。 第五章:利用有限牛顿法,共轭梯度技术的有限步终止的性质来求无约束优化问题;利用基 本的遗传算法来解决优化问题,对优化问题中的参数进行有效估计 第六章:结论与展望 7 第二章支持向量分类机模型 支持向量机的理论目标是找到一个最优的超平面,使其能够尽量多的将每类数据点正确分 开,同时要使分开的每类数据点距离分类面最远其解决的方法是构造一个二次规划问题,然后 求解该优化问题,得到分类器支持向量机涉及到两个最优化问题一原始问题和对偶问题,算法 是通过求解对偶问题的解得到原始问题的解,再根据原始问题的解来确定决策函数本章的主要 内容是介绍几种不同支持向量机分类模型【” 2 1 两类分类支持向量机的算法 两类分类问题根据给定的训练集: 丁= ( 五,咒) ,( 西,_ ) ) 叫, ( 2 一1 ) 其中而x c r 。,咒y = + 1 ,一1 ,f = l ,寻找一个从输入空间x 到输出空间r 上的 一个实值函数g ( 曲,以便用决策函数厂o ) = s g n ( g ( 工) ) 推断任一模式工相对应的y 值其中, ,= s g n ( ) 是符号函数 s 嘶) = = :,竺 c 2 - 2 , ,个样本点组成的集合称为训练集,样本点称为训练点。置是输入指标向量,或称输入模式,其 分量称为特征,或输入指标;咒是输出指标,或称输出,弗= + l 表示输入毛属于正类乃= - i 表示输入茏属于负类由此可见,分类问题,实质上就是对任意给定的一个新的模式工,根据 训练集,推断它所对应的输出y 是+ l 还是一1 分类问题可以分成两类分类问题和多类分类问题。上述分类问题是两类分类问题多类分类 问题的定义将在下面内容中介绍,它们的不同之处在于前者的输出只取两个值而后者的输出取 多个值。 2 1 1 支持向量分类机算法 支持向量机最初来自两类模式识别问题,其基本思想是要够遗一个分类超平面作为决策平 面,将两类分开,而且使两类之间的间隔最大o ”j 线性支持向量机可以分成线性可分和线性不可分两种情况。对于解决线性可分问题的基本途 径是在正确分划训练集的超平面中,根据最大间隔原则,找出最终的决策超平面 算法2 1 1 ( 线性可分支持向量分类机) ( i ) 设己知训练集:t = ( 玉,m ) ,( 而,乃) ) x y ) 其中玉x c r h , 只e ,r = - l ,1 ) ,卢1 ,; ( 2 ) 构造并求解最优化问题 8 中国农业大学硕十学位论文第二章支持向量分类机模穗 哑n 三孝骞乃乃q 哆b ) 一妻q s上乃q=o(2-3) 珥o f = l ,i 得最优解口= ( 彳,西) 2 ; , ( 3 ) 计算矿z 咒西粕选择口+ 的一个正分量嘭,并据此计算 n d , b = 乃一只西“一) ; ;l ( 4 ) 构造分划超平面( 1 矿x ) + 矿= o ,由此求得决策函数,( 磅= s g n ( ( 矿j ) + 6 ) ,或 = s 弘陲埔( ) 坩) 有时也称算法2 1 1 为线性硬问隔分类机如图2 - 1 w 工) + 电= 一l o 图2 - 1 线性可分支持向量分类机量优分类面示意田 对于解决线性不可分同题如果仍坚持用超平面进行分划那么必须。软化对同隔的要求, 通过引入松弛变量磊值o ) ,f = l ,可。软化”约束条件: 咒( ( w 薯) + 6 ) l 一毒,i = l , 显然应该设法避免毒取太大的值,因此我们在目标函数中加入了惩罚参数c ( c 0 ) ,用于控制 对错分样本的惩罚程度,c 越大,对错误的惩罚越重。 算法2 1 2 ( 线性支持向量分类机) ( 1 ) 设己知训练集: t = “,咒) ,( 而,* ) ) f x x 乃 9 其中x c r ”,咒r = - 1 ,l ,i = 1 ,i ; ( 2 ) 选择适当的惩罚参数c ( c o ) ,构造并求解最优化问题 呼圭喜妻咒乃q 叼“_ ) 一妻即 j 上乃q = o ,( 2 - 4 ) 0 s a t s c ,i = 1 ,| 得最优解口- - ( a ;,西1 r ; ( 3 ) 计算w - - z 只口 ;选择口的一个正分量o 西 o ) ,构造并求解最优化问题 呼三喜妻月乃q q x ( 弗) 一言即 珐只q = o ,( 2 - 6 ) o q s c ,i f l ,l 得最优解口= ( 彳,西y ( 3 ) 选, i r a 的一个正分量o 0 ,并据此计算阈值 6 = 乃( - 一鲁 一喜咒西足( 而一) ; c ,构造决策函数八磅= s 萨( 喜只a :k b 薯) + a ) 。i 赳 由于c 一支持向量分类机存在一定的缺点。选取c 值比较困难,因此人们提出了一个改进的方 法一v 一支持向量分类机( 简称y s v c ) ,它用另一个参数y 代替参数c ,而参数l ,又有直观 上的意义可以控制支持向量机的数目和误差,选取比较自然,有利于参数选择 算法2 1 6 ( v 一支持向量分类柳? 一v - s v c ) ( 1 ) 设已知训练集: t - - “,咒) ,( 葺,乃) ) x x l 3 其中薯x c r 。,咒e r = - l ,1 ) ,卢1 , - - - i ; ( 2 ) 选择适当的参数,和核函数置( 焉,) ,构造并求解最优化问题 叩三喜骞乃乃q q 足( 勘_ 咄y 隅- - 0 , o s q ;,f 以”,厶 岛y 得最优解口= ( 研,才) 7 ; 【3 ) 选取j 墨- - , 1 - :e ( o 们) ,只= l ,es = 1 1 群( o ,v z ) ,乃= 一l 计算 6 = 一 窆z 乃( 足( 勘) + 置( 和) ) ; i - i 卿构造决策函数厂= s 弘( 窑只n :x b ) + 6 ) 2 2 多类分类问题 多类分类问题根据给定的训练集: r = 氍葺,咒) ,( 再,) ) 1 7 , 其中而e j c f ,弗r = o l ,0 2 ,o k ,( k 2 ) ,i = l ,2 , - - - , ,寻找一个从输入空间z c r 。 上的一个实值函数g ( x ) 以便用决策函数厂( 曲推断任一模式x 相对应的y 值由此可见,求 解多类分类问题,实质上就是找到一个把j r 上的点分成k 部分的规则。 2 2 1 目前解决多类分类问题的国内外研究现状 目前已经提出了一些基于5 v m 的多类分类学习算法从结构上分主要有两大类方法: 。分解一重建( d c c 唧i t i 0 | h s 扛l 烈i 锄) ”法和。聚集法( a l l - t o g e l h c x ) 前者首先是先将多 类分类问题转化为两类分类问题来构造模型,然后再把得到的各个分类器进行重新组合来得到多 类分类问题的分类器,该类方法包括。一对多”算法 6 1 、。一对一算法【7 ”、“有向无环图( d a g ) ” 算法 f l 、。纠错输出编码”算法1 1 0 - 4 2 1 、。一对一对余。算法“”,。层树分类算法【1 “7 1 等。后 者是通过直接构造一个基于支持向量机的模型来解决多类分类问题,通常需要解决大规模的优化 问题,该类方法包括。k 类s v m 。算法l i i r l 、。q p - m c - s v 算法【”、。l p - m c - s v 。算法l 捌、。球 结构分类算法“”等 ( 1 ) 。一对多算法( o 州l 纠kf 嚼m e t h o d ) ,针对不同的k 个类别,构造k 个支持向 量机子分类器,第k 个子分类器是将第k 类与其余的类别分开在构造第七个子分类器的时候, 将属于第1 类别的样本数据标记为正类,将不属于k 类别的样本数据标记为负类测试时,对测 试数据分

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论