支持向量机及其应用_第1页
支持向量机及其应用_第2页
支持向量机及其应用_第3页
支持向量机及其应用_第4页
支持向量机及其应用_第5页
已阅读5页,还剩61页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

,数学与计算机学院彭宏,支持向量机及其应用SupportVectorMachinesanditsApplication,智能算法讲座(一),目录,线性可分的支持向量(分类)机线性支持向量(分类)机支持向量(分类)机最小二乘支持向量(分类)机硬-带支持向量(回归)机软-带支持向量(回归)机-支持向量(回归)机最小二乘支持向量(回归)机支持向量机应用,SVM的描述,SVM是一种基于统计学习理论的模式识别方法,它是由Boser,Guyon,Vapnik在COLT-92上首次提出,从此迅速的发展起来,现在已经在许多领域(生物信息学,文本,图像处理,语言信号处理和手写识别等)都取得了成功的应用COLT(ComputationalLearningTheory),SVM的描述,目标:找到一个超平面,使得它能够尽可能多的将两类数据点正确的分开,同时使分开的两类数据点距离分类面最远。解决方法:构造一个在约束条件下的优化问题,具体的说是一个约束二次规划问题(constrainedquadraticprograming),求解该问题,得到分类器。,模式识别问题的一般描述,已知:n个观测样本,(x1,y1),(x2,y2)(xn,yn)求:最优函数y=f(x,w)满足条件:期望风险最小损失函数,SVM的描述,期望风险R(w)要依赖联合概率F(x,y)的信息,实际问题中无法计算。一般用经验风险Remp(w)代替期望风险R(w),一般模式识别方法的问题,经验风险最小不等于期望风险最小,不能保证分类器的推广能力.经验风险只有在样本数无穷大趋近于期望风险,需要非常多的样本才能保证分类器的性能。需要找到经验风险最小和推广能力最大的平衡点。,一、线性可分的支持向量(分类)机,首先考虑线性可分情况。设有如下两类样本的训练集:,线性可分情况意味着存在超平面使训练点中的正类和负类样本分别位于该超平面的两侧。,如果能确定这样的参数对(w,b)的话,就可以构造决策函数来进行识别新样本。,线性可分的支持向量(分类)机,问题是:这样的参数对(w,b)有许多。解决的方法是采用最大间隔原则。,最大间隔原则:选择使得训练集D对于线性函数(wx)+b的几何间隔取最大值的参数对(w,b),并由此构造决策函数。,在规范化下,超平面的几何间隔为于是,找最大几何间隔的超平面表述成如下的最优化问题:,(1),线性可分的支持向量(分类)机,为求解问题(1),使用Lagrange乘子法将其转化为对偶问题。于是引入Lagrange函数:,其中,称为Lagrange乘子。,首先求Lagrange函数关于w,b的极小值。由极值条件有:,得到:,(2),(3),(4),线性可分的支持向量(分类)机,将(3)式代入Lagrange函数,并利用(4)式,则原始的优化问题转化为如下的对偶问题(使用极小形式):,这是一个凸二次规划问题有唯一的最优解,(5),求解问题(5),得。则参数对(w,b)可由下式计算:,线性可分的支持向量(分类)机,支持向量:称训练集D中的样本xi为支持向量,如果它对应的i*0。,根据原始最优化问题的KKT条件,有,于是,支持向量正好在间隔边界上。,于是,得到如下的决策函数:,目录,线性可分的支持向量(分类)机线性支持向量(分类)机支持向量(分类)机最小二乘支持向量(分类)机硬-带支持向量(回归)机软-带支持向量(回归)机-支持向量(回归)机最小二乘支持向量(回归)机支持向量机应用,二、线性支持向量(分类)机,现在考虑线性不可分情况。对于训练集D,不存在这样的超平面,使训练集关于该超平面的几何间隔取正值。如果要用超平面来划分的话,必然有错分的点。,但我们任希望使用超平面进行分划,这时应“软化”对间隔的要求,即容许不满足约束条件的样本点存在。,为此,引入松弛变量并“软化”约束条件:,线性支持向量(分类)机,为了避免i取太大的值,需要在目标函数中对它们进行惩罚。于是原始优化问题变为:,其中C0称为惩罚因子。,(6),线性支持向量(分类)机,类似前面,通过引入如下的Lagrange函数:,得到如下的对偶问题:,(7),线性支持向量(分类)机,求解对偶问题(7),可得如下决策函数:,支持向量有下列性质:(1)界内支持向量一定位于间隔边界上的正确划分区;(2)支持向量不会出现在间隔以外的正确划分区;(3)非支持向量一定位于带间隔的正确划分区。,目录,线性可分的支持向量(分类)机线性支持向量(分类)机支持向量(分类)机最小二乘支持向量(分类)机硬-带支持向量(回归)机软-带支持向量(回归)机-支持向量(回归)机最小二乘支持向量(回归)机支持向量机应用,三、支持向量(分类)机,对于一般的非线性可分情况。对于训练集D,无法寻找到来如前的超平面来划分。,支持向量(分类)机,下面通过核技术来处理。引入一个非线性映射把输入空间映射到一个(高维的)Hilbert空间H,使数据在H中是线性可分或线性不可分:,线性可分,线性不可分,在核映射下,D对应于Hilbert空间H的训练集为:,支持向量(分类)机,于是在Hilbert空间H中寻找使几何间隔最大的超平面,其原始优化问题为:,(8),问题(8)对应的对偶问题为:,支持向量(分类)机,(9),求解对偶问题(9),可得如下决策函数:,b*问的计算如下:,支持向量(分类)机,选取的一个正分量00来计算b:,硬-带支持向量(回归)机,支持向量:称训练集D中的样本xi为支持向量,如果它对应的i*0或i0。,把w的式子代入函数:于是,得到如下的回归函数:,目录,线性可分的支持向量(分类)机线性支持向量(分类)机支持向量(分类)机最小二乘支持向量(分类)机硬-带支持向量(回归)机软-带支持向量(回归)机-支持向量(回归)机最小二乘支持向量(回归)机支持向量机应用,软-带支持向量(回归)机,考虑软-带支持向量线性回归情况。设有如下两类样本的训练集:,同样希望使用一个线性函数来回归样本点,且这种情况下,除了大量样本点在-带内,还有少量的样本落在-带外。这时需要对落在-带外的样本进行惩罚。于是原始优化问题为:,软-带支持向量(回归)机,为求解上述原始优化问题,使用Lagrange乘子法将其转化为对偶问题。于是引入Lagrange函数:,其中,称为Lagrange乘子。,首先求Lagrange函数关于w,b,(*)的极小值。由极值条件有:,软-带支持向量(回归)机,将上式代入Lagrange函数,则原始的优化问题转化为如下的对偶问题(使用极小形式):,求解上述对偶问题,得(*)。则参数对(w,b)可由下式计算:,b的计算(略)。,软-带支持向量(回归)机,支持向量:称训练集D中的样本xi为支持向量,如果它对应的i*0或i0。,把w的式子代入函数:于是,得到如下的回归函数:,目录,线性可分的支持向量(分类)机线性支持向量(分类)机支持向量(分类)机最小二乘支持向量(分类)机硬-带支持向量(回归)机软-带支持向量(回归)机-支持向量(回归)机最小二乘支持向量(回归)机支持向量机应用,-支持向量(回归)机,下面通过核技术来处理。引入一个非线性映射把输入空间映射到一个(高维的)Hilbert空间H,使在H中进行线性回归(硬-带或软-带):,在核映射下,D对应于Hilbert空间H的训练集为:,-支持向量(回归)机,于是在Hilbert空间H中进行线性回归,其原始优化问题为:,上述问题的对偶问题为:,-支持向量(回归)机,求解对偶问题,可得如下回归函数:,目录,线性可分的支持向量(分类)机线性支持向量(分类)机支持向量(分类)机最小二乘支持向量(分类)机硬-带支持向量(回归)机软-带支持向量(回归)机-支持向量(回归)机最小二乘支持向量(回归)机支持向量机应用,四、最小二乘支持向量(回归)机,假定xXRd表示一个实值随机输入向量,yYR表示一个实值随机输出变量。记RN表示一高维的特征空间,为一非线性映射:X,它映射随机输入向量到高维特征空间。支持向量方法的思想是在该高维特征空间中考虑如下线性函数集:,我们考虑在函数表示式中含噪声情形。给定一个由未知分布FXY产生的、独立同分布(i.i.d.)的训练集:,这里ekR假定为独立同分布的随机误差,且Eek|X=xk=0,Varek=2;m(x)F为一个未知的实值光滑函数,且Eyk|x=xk=f(xk)。,最小二乘支持向量(回归)机,函数估计的目的是在约束|w|a,aR下通过最小化如下经验风险来寻找w和b:,最小二乘支持向量回归机(LS-SVR)定义了与标准支持向量机不同的代价函数,选用损失函数为误差ek的二次项,并将其不等式约束改为等式约束,因此寻找w和b的优化问题可以转化为如下具有岭回归形式的优化问题:,且带有如下等式约束条件:,其中,最小二乘支持向量(回归)机,为了在对偶空间中求解上述优化问题,定义如下的Lagrange泛函:,其中kR为乘子(叫做支持向量)。其优化条件由下式给出:,最小二乘支持向量(回归)机,上式能被直接表示为求解如下如下线性方程组:,其中y=(y1,yn)T,(x)=(x1),(xn)T,1n=(1,.,1)T,e=(e1,en)T,=(1,n)T。在上式中消去w和e后,得到如下线性方程组:,其中kl=(xk)T(xl),k,l=1,.,n。,最小二乘支持向量(回归)机,根据Mercer定理,函数估计的最小二乘支持向量回归模型为:,其中与b通过求解上述方程组得到。,目录,线性可分的支持向量(分类)机线性支持向量(分类)机支持向量(分类)机最小二乘支持向量(分类)机硬-带支持向量(回归)机软-带支持向量(回归)机-支持向量(回归)机最小二乘支持向量(回归)机支持向量机应用,九、支持向量机应用,1、手写体数字识别。SVM的第一个应用是手写字符识别问题。Vapnik、Burges、Cortes、Scholkopf等研究了该问题。使用最大间隔和软间隔SVM。使用高斯核和多项式核。在两个数据集USPS(美国邮政服务局)和NIST(国家标准技术局)。其中USPS数据集包括7291个训练样本,2007个测试样本,用256维的向量(1616矩阵)表示,每个点的灰度值0255。NIST数据集包括60000个训练样本,10000个测试样本,图像为2020矩阵表示。结果表明SVM具有一定的优势。,九、支持向量机应用,2、文本分类。根据文本的内容自动地把它归类。比如邮件过滤、网页搜索、Web挖掘、信息检索等。Joachims,Dumais等人进行SVM对文本分类的研究工作。使用的数据集为路透社(Reuters)第21578号新闻数据库。该数据库共有12902个文本,包括9603个训练的文本和3299个测试样本。每个文本大约包含200个单词,分属于118类,如金融、运输等。主要使用线性核。结果表明SVM比其他的分类算法(如决策树、K-近邻算法等)具有良好的性能。,九、支持向量机应用,3、图像识别。(1)视位无关的分类Pontil、Verri研究了使用SVM于与视位无关的目标识别。,九、支持向量机应用,(2)基于颜色的分类OliverChapelle及其合作者研究了仅使用颜色与光照信息下的SVM目标识别。,九、支持向量机应用,(3)可视场景中的目标检测人脸检测:给定任意图像作为输入,检测其中是否有人脸存在,以及人脸的位置。Osuna等人开发的系统,尽可能扫描像人脸的模式,然后利用SVM作为分类器,检查一幅给定的图像是否有人脸。数据库中包含脸与非脸的模式,图像用1919=361个像素的向量表示,训练一个软间隔分类器,使用二阶多项式核。汽车行进的可视场景中的行人检测:M.Oren等人多项式核的SVM作为分类器,在之前端使用小波作为特征提取的方法。,九、支持向量机应用,4、语音信号处理。(1)说话人识别(2)语音情感识别(3),九、支持向量机应用,5、信息安全领域。(1)入侵检测(2)病毒检测(3)数字水印技术(4),九、支持向量机应用,6、时间序列。(1)经济预警(2)股市预测(3)财务预测(4)电力负荷预测(5)交通流量预测(6),九、支持向量机应用,7、核方法。在SVM中的核技巧得到进一步的扩展。(1)支持向量机(分类机、回归机)(2)核聚类(3)核主成分分析(核PCA)(4),支持向量机的一些资源,http:/www.support-http:/www.kernel-SVMMATLABTOOLBOXfromGrazSVM&KMmatlaSVMMATLABTOOLBOXfromGrazSVM&KMmatlabtoolbox,fromInsadeRouenGPDTparallelsoftwareforSVMsfromUniversityofFerraraandUniversityofModena,ItalyGist:softwareforsupportvectormachineclassificationandforkernelprincipalcomponentsanalysis.MatlabInterface:aMATLABinterfacetoSVMlightwrittenbyAntonSchwaighofer(forSVM

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论