




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
第五章神经网络的规划学习方法第一页,共五十七页,编辑于2023年,星期四主要内容支持向量机支持向量机的分类学习算法用于函数拟合的支持向量机支持向量机算法的研究与应用仿真实例第二页,共五十七页,编辑于2023年,星期四传统统计学是一种渐进理论,研究的是样本数目趋于无穷大时的极限特性。现有的学习方法多基于传统统计学理论,但在实际应用中,样本往往是有限的,因此一些理论上很优秀的学习方法在实际中的表现却不尽人意,存在着一些难以克服的问题,比如说如何确定网络结构的问题、过学习问题、局部极小值问题等,从本质上来说就是因为理论上需要无穷样本与实际中样本有限的矛盾造成的。第三页,共五十七页,编辑于2023年,星期四与传统统计学的方向不同,Vapnik等人提出了一个较完善的基于有限样本的理论体系--统计学习理论。统计学习理论是又一种通用的前馈神经网络,同样可用于解决模式分类和非线性映射问题。支持向量机方法是在统计学习理论基础上发展起来的通用学习方法,它具有全局优化、适应性强、理论完备、泛化性能好等优点。第四页,共五十七页,编辑于2023年,星期四支持向量机
(SupportVectorMachine,SVM)90年代中期,在统计学习理论的基础上发展出了一种通用的学习方法--支持向量机。它根据有限的样本信息在模型的复杂性和学习能力之间寻求最佳折衷,以获得最好的泛化能力。支持向量机在很多机器学习问题的应用中已初步表现出很多优于已有方法的性能。第五页,共五十七页,编辑于2023年,星期四支持向量机的理论最初来自于对数据分类问题的处理。对于线性可分数据的二值分类,如果采用多层前向网络来实现,其机理可以简单描述为:系统随机的产生一个超平面并移动它,直到训练集合中属于不同类别的点正好位于该超平面的不同侧面,就完成了对网络的设计要求。但是这种机理决定了不能保证最终所获得的分割平面位于两个类别的中心,这对于分类问题的容错性是不利的。
第六页,共五十七页,编辑于2023年,星期四保证最终所获得的分割平面位于两个类别的中心对于分类问题的实际应用是很重要的。支持向量机方法很巧妙地解决了这一问题。该方法的机理可以简单描述为:寻找一个满足分类要求的最优分类超平面,使得该超平面在保证分类精度的同时,能够使超平面两侧的空白区域最大化;从理论上来说,支持向量机能够实现对线性可分数据的最优分类。为了进一步解决非线性问题,Vapnik等人通过引入核映射方法转化为高维空间的线性可分问题来解决。第七页,共五十七页,编辑于2023年,星期四最优分类超平面
(OptimalHyperplane
)对于两类线性可分的情形,可以直接构造最优超平面,使得样本集中的所有样本满足如下条件:(1)能被某一超平面正确划分;(2)距该超平面最近的异类向量与超平面之间的距离最大,即分类间隔(margin)最大。第八页,共五十七页,编辑于2023年,星期四设训练样本输入为,,对应的期望输出为
如果训练集中的所有向量均能被某超平面正确划分,并且距离平面最近的异类向量之间的距离最大(即边缘margin最大化),则该超平面为最优超平面(OptimalHyperplane
)。第九页,共五十七页,编辑于2023年,星期四最优分类面示意图
支持向量SupportVector第十页,共五十七页,编辑于2023年,星期四其中距离超平面最近的异类向量被称为支持向量(SupportVector),一组支持向量可以唯一确定一个超平面。SVM是从线性可分情况下的最优分类面发展而来,其超平面记为:为使分类面对所有样本正确分类并且具备分类间隔,就要求它满足如下约束:第十一页,共五十七页,编辑于2023年,星期四可以计算出分类间隔为,因此构造最优超平面的问题就转化为在约束式下求:
为了解决这个约束最优化问题,引入下式所示的Lagrange函数:
其中为Lagrange乘数。约束最优化问题的解由Lagrange函数的鞍点决定。
第十二页,共五十七页,编辑于2023年,星期四利用Lagrange优化方法可以将上述二次规划问题转化为其对偶问题,即在约束条件:
下对求解下列函数的最大值:如果为最优解,那么:第十三页,共五十七页,编辑于2023年,星期四以上是在不等式约束下求二次函数极值问题,是一个二次规划问题(QuadraticProgramming,QP),存在唯一解。根据最优性条件--Karush-Kühn-Tucker条件(KKT条件),这个优化问题的解必须满足:对多数样本将为零,取值不为零的所对应的样本即为支持向量,它们通常只是全体样本中很少的一部分。
第十四页,共五十七页,编辑于2023年,星期四求解上述问题后得到的最优分类函数是:在通过训练得到最优超平面后,对于给定的未知样本x,只需计算f(x)即可判断x所属的分类。
第十五页,共五十七页,编辑于2023年,星期四若训练样本集是线性不可分的,或事先不知道它是否线性可分,将允许存在一些误分类的点,此时引入一个非负松弛变量,约束条件变为:目标函数改为在以上约束条件下求:即折衷考虑最小错分样本和最大分类间隔。其中,C>0为惩罚因子,控制对错分样本的惩罚程度。第十六页,共五十七页,编辑于2023年,星期四线性不可分情况和线性可分情况的差别就在于可分模式中的约束条件中的在不可分模式中换为了更严格的条件。除了这一修正,线性不可分情况的约束最优化问题中权值和阈值的最优值的计算都和线性可分情况中的过程是相同的。第十七页,共五十七页,编辑于2023年,星期四支持向量机
(SupportVectorMachine,SVM)在现实世界中,很多分类问题都是线性不可分的,即在原来的样本空间中无法找到一个最优的线性分类函数,这就使得支持向量机的应用具有很大的局限性。但是可以设法通过非线性变换将原样本空间的非线性问题转化为另一个空间中的线性问题。SVM就是基于这一思想的。首先将输入向量通过非线性映射变换到一个高维的特征向量空间,在该特征空间中构造最优分类超平面。
第十八页,共五十七页,编辑于2023年,星期四由于在上面的二次规划(QP)问题中,无论是目标函数还是分类函数都只涉及内积运算,如果采用核函数(KernelFunction)就可以避免在高维空间进行复杂运算,而通过原空间的函数来实现内积运算。因此,选择合适的内积核函数
就可以实现某一非线性变换后的线性分类,而计算复杂度却没有增加多少,从而巧妙地解决了高维空间中计算带来的“维数灾难”问题。
第十九页,共五十七页,编辑于2023年,星期四此时,相应的决策函数化为:支持向量机求得的决策函数形式上类似于一个神经网络,其输出是若干中间层节点的线性组合,而每一个中间层节点对应于输入样本与一个支持向量的内积,因此也被称作是支持向量网络。
第二十页,共五十七页,编辑于2023年,星期四支持向量机示意图
第二十一页,共五十七页,编辑于2023年,星期四选择不同的核函数可以生成不同的支持向量机,常有以下几种:(1)线性核函数:(2)多项式核函数:(3)Gauss核函数:(4)Sigmoid核函数:
第二十二页,共五十七页,编辑于2023年,星期四一个具体核函数的例子假设数据是位于中的向量,选择:
然后寻找满足下述条件的空间H:使映射从映射到H且满足:
可以选择H=R3以及:第二十三页,共五十七页,编辑于2023年,星期四用图来表示该变换:SVM用于二维样本分类第二十四页,共五十七页,编辑于2023年,星期四支持向量机与多层前向网络的比较
与径向基函数网络和多层感知器相比,支持向量机避免了在前者的设计中经常使用的启发式结构,它不依赖于设计者的经验知识;而且支持向量机的理论基础决定了它最终求得的是全局最优值而不是局部极小值,也保证了它对于未知样本的良好泛化能力而不会出现过学习现象。
第二十五页,共五十七页,编辑于2023年,星期四支持向量机的分类学习算法
对于分类问题,用支持向量机方法进行求解的学习算法过程为:第一步
给定一组输入样本,
及其对应的期望输出;第二步选择合适的核函数及相关参数;第三步在约束条件和下求解
得到最优权值;第二十六页,共五十七页,编辑于2023年,星期四第四步计算:;第五步对于待分类向量x
,计算:
为+1或-1,决定x属于哪一类。第二十七页,共五十七页,编辑于2023年,星期四用于函数拟合的支持向量机
假定数据集。首先考虑用线性回归函数拟合数据集X的问题。所有训练数据在精度下无误差地用线性函数拟合,即:考虑到允许拟合误差存在的情况:第二十八页,共五十七页,编辑于2023年,星期四优化目标函数为:对偶问题为:在约束条件下求下式的最大值。回归函数为:
第二十九页,共五十七页,编辑于2023年,星期四用不同的支持向量机对人工数据进行分类(a)线性可分对下面二维待分类人工数据P进行分类:X=[27;36;22;81;64;48;95;99;94;69;74];Y=[+1;+1;+1;+1;+1;-1;-1;-1;-1;-1;-1];第三十页,共五十七页,编辑于2023年,星期四(b)线性不可分对下面二维待分类人工数据P进行分类:X=[27;36;22;81;64;48;95;99;94;69;74;44];Y=[+1;+1;+1;+1;+1;-1;-1;-1;-1;-1;-1;-1];第三十一页,共五十七页,编辑于2023年,星期四(1)、实验环境Matlab7.0(2)、界面设计第三十二页,共五十七页,编辑于2023年,星期四(3)、具体实现a)对于线性可分的人工样本数据P。其中共有11个待分类样本。使用最简单的支持向量机,即以线性核函数K(x,xi)=(x.xi)作为内积函数的支持向量机来训练该数据集合。惩罚因子C取10。第三十三页,共五十七页,编辑于2023年,星期四黑色线为数据集合的两类分类线,可以看出它能将两类准确无误的分开,错误率为0。蓝线和绿线为两类样本的最大间隔边界。5,11,6三点为支持向量。样本点分类结果第三十四页,共五十七页,编辑于2023年,星期四对于线性不可分的人工样本数据P。其中共有12个待分类样本。1)用线性核函数SVM进行训练。仍采用最简单的支持向量机,即以线性核函数K(x,xi)=(x.xi)作为内积函数的支持向量机来训练该数据集合。惩罚因子C取10。第三十五页,共五十七页,编辑于2023年,星期四显然黑色线为数据集合的两类分类线,不能将两类准确无误的分开,点12是错分的样本点,而5和点11落在了分类间隔内。此时正确率为91.67%。样本点分类结果第三十六页,共五十七页,编辑于2023年,星期四2)利用较为复杂的RBF核函数支持向量机进行分类。RBF核函数中的核宽度这个参数是由用户决定的。因此下面采用三个不同的RBF核宽度来对该函数集合进行分类。惩罚因子C取100。①选择RBF核宽度为8,其结果如图所示。第三十七页,共五十七页,编辑于2023年,星期四从图中可以看出,此时SVM以点12作为类别-1的一个聚类中心,在其周围形成了一个类似“小岛”的区域。并且,点2,3,4,5,6,11和12是支持向量,错分样本数为0。第三十八页,共五十七页,编辑于2023年,星期四②使用一个较小的值1作为RBF核宽度,其结果如图所示。第三十九页,共五十七页,编辑于2023年,星期四黑线为分类边界,蓝线和绿线为两类的最大间隔边界。由于较小的核宽度允许了分类边界的分割,因此图中的分类边界有很多条。由此造成了每个样本点都是支持向量,所以错分样本数为0。第四十页,共五十七页,编辑于2023年,星期四③使用一个较大的值36作为RBF核宽度,其结果如图所示。第四十一页,共五十七页,编辑于2023年,星期四黑线为分类边界,蓝线和绿线为两类的最大间隔边界。使用较大的核宽度时分类边界比较简化,但是出现了错分样本,即点5和12,此时的分类正确率为83.33%。第四十二页,共五十七页,编辑于2023年,星期四实验小结:从实验可以看出,针对同一问题,也即同一组数据来说,用不同核函数的支持向量机的分类结果是不同的。而且可以看到针对不同的问题,对同一种核函数支持向量机来说,选择合适的参数也是很关键的,不同的参数的选择就对应着不同的分类结果。第四十三页,共五十七页,编辑于2023年,星期四支持向量机算法的研究与应用
支持向量机算法改进核函数的改进错误惩罚参数的选择不敏感参数的选择支持向量机解决多类划分问题支持向量机的应用第四十四页,共五十七页,编辑于2023年,星期四支持向量机算法改进传统的利用标准二次型优化技术解决对偶问题的方法是训练算法慢的主要原因。(1)SVM方法需要计算和存储核函数矩阵,当样本点数目较大时,需要很大的内存,例如,当样本点数目超过4000时,存储核函数矩阵需要多达128MB内存;(2)SVM在二次型寻优过程中要进行大量的矩阵运算,多数情况下,寻优算法是占用算法时间的主要部分。
第四十五页,共五十七页,编辑于2023年,星期四近年来人们针对方法本身的特点提出了许多算法来解决对偶寻优问题。这些算法的一个共同的思想就是采用分而治之的原则将原始QP问题分解为规模较小的子问题,通过循环解决一系列子问题来求得原问题的解。现有的训练算法分为三类:
“块算法”(chunkingalgorithm)“Osuna分解算法”
“SMO算法”
第四十六页,共五十七页,编辑于2023年,星期四核函数的改进核函数的形式及其参数决定了分类器的类型和复杂程度。在不同的问题领域,核函数应当具有不同的形式和参数,应将领域知识引入进来,从数据依赖的角度选择核函数。初步尝试的方法有:
Amari--利用黎曼几何结构方法来修改核函数;
Barzilay--通过改进邻近核来改进核函数;
Brailovsky--局部核函数方法;
G.F.Smits--多个核函数组合起来使用;第四十七页,共五十七页,编辑于2023年,星期四错误惩罚参数的选择
错分样本惩罚参数C实现在错分样本的比例和算法复杂度之间的折衷。C值的确定一般是用户根据经验给定的,随意性很大,也很难知道所取C值的好坏性。如何消除C值选取的随意性,而采用某种方法自动地选择一个最佳的C值,这个问题目前尚未解决。
第四十八页,共五十七页,编辑于2023年,星期四不敏感参数的选择SVM通过参数控制回归估计的精度,但取多少才能达到所期望的估计精度是不明确的,为此出现了许多新的SVM方法。
Schölkoph和Smola---SVM方法
LinC-F--加权支持向量机,通过对每个样本数据点采用不同的,来获得更准确的回归估计。第四十九页,共五十七页,编辑于2023年,星期四支持向量机解决多类划分问题
“多类支持向量机”(Multi-categorySupportVectorMachines,M-SVMs)。它们可以大致分为两大类:(1)通过某种方式构造一系列的两类分类器并将它们组合在一起来实现多类分类;(2)直接在目标函数上进行改进,建立K分类支持向量机。第五十页,共五十七页,编辑于2023年,星期四一对多方法
(l-against-rest,1-a-r)
此算法是对于K类问题构造K个两类分类器。第i个SVM用第i类中的训练样本作为正的训练样本,而将其它的样本作为负的训练样本,即每个SVM分别将某一类的数据从其他类别中分离出来。测试时将未知样本划分到具有最大分类函数值的那类。缺点:泛化能力较差,且训练样本数目大,训练困难。此外,该方法还有可能存在测试样本同时属于多类或不属于任何一类的情况。
第五十一页,共五十七页,编辑于2023年,星期四一对一方法
(l-against-1,1-a-1)该算法在K类训练样本中构造所有可能的两类分类器,每类仅仅在K类中的两类训练样本之间训练,结果共构造K(K-1)/2个分类器。组合这些两类分类器很自然地用到了投票法,得票最多(MaxWins)的类为新点所属的类。缺点:推广误差无界,分类器的数目K(K-1)/2随类数K的增加急剧增加,导致在决策时速度很慢。此外,还可能存在一个样本同时属于多个类的情况。第五十二页,共五十七页,编辑于2023年,星期四决策导向非循环图SVM方法
(DecisionDirectedAcyclicGraph,DDAG)
在训练阶段,其与1-a-1方法相同,对于K类问题,DDAG含有K(K-1)/2个两类分类器。然而在决策阶段,使用从根节点开始的导向非循环图(DAG),具有K(K-1)/2个内部节点以及K个叶子节点,每个内部节点都是一个两类分类器,叶子节点为最终的类值。缺点:根节点的选择直接影响着分类的结果,不同的分类器作为根节点,其分类结果可能会
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- GB/T 46229-2025喷砂用橡胶软管
- 应急与安全培训演练记录课件
- 难点详解浙江省义乌市中考数学必背100题【轻巧夺冠】附答案详解
- 数字系统设计与VHDL(第3版)教案-第7章VHDL基本语句
- 2024自考公共课自我提分评估含完整答案详解【历年真题】
- 信息素养基础工具与使用规范
- 2025年废弃矿井资源再利用技术政策法规与产业规范报告
- 2025年在线教育平台教学质量评估与教学反馈机制构建报告
- 中小学英语教学模式优化的实践路径与策略
- 江苏省苏州市2025-2026学年高三上学期期初阳光调研政治试题(含答案)
- 2025年结构上岗试题及答案
- 教科版小学五年级上册科学实验报告20篇
- 2025-2026学年人教版(五线谱)(2024)小学音乐三年级上册教学计划及进度表
- 江西省宜春市2025年上半年事业单位公开遴选试题含答案分析
- 代销理财管理办法
- 医院物业管理质量标准及服务流程
- DR培训考试题及答案
- 脑卒中并发吞咽障碍个案护理
- 《中兽药生产技术》课件-14.中药炮制方法-火制
- 人力资源招聘与甄选工作标准化手册
- 民俗学课件山大
评论
0/150
提交评论