支持向量机及应用简介.ppt_第1页
支持向量机及应用简介.ppt_第2页
支持向量机及应用简介.ppt_第3页
支持向量机及应用简介.ppt_第4页
支持向量机及应用简介.ppt_第5页
已阅读5页,还剩25页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

支持向量机介绍,统计学习理论,统计学习理论,统计学习理论是小样本统计估计和预测学习的最佳理论。 假设输出变量Y与输入变量X之间存在某种对应的依赖关系,即一未知概率分布P(X,Y),P(X,Y)反映了某种知识。学习问题可以概括为:根据l个独立同分布( independently drawn and identically distributed )的观测样本train set, (x1,y1),(x2,y2),(xn,yn),支持向量机(SVM),支持向量机(Support Vector Machine,SVM)是由Boser,Guyon和Vapnik发明,并首次在计算学习理论(COLT)1992年年会论文中提出。它是继人工神经网络后,智能计算领域发展的又一里程碑。支持向量机以严格证明的统计学习理论为基础,使用核函数把数据从样本空间映射到高维特征空间,将非线性问题转化为线性可分问题,获得最优解,是一重大的理论创新。支持向量机有严密的数学基础,训练结果只与支持向量有关,且泛化性强,成为了解决非线性问题的重要工具,因此,受到智能计算领域学者的广泛关注,在模式分类和回归领域得到了广泛的应用。,机器学习的基本问题和方法,从给定的函数集中选择出能够最好地逼近系统响应的函数,有指导机器学习的目的是根据给定的训练样本,求出对某系统输入输出之间依赖关系的估计,使它能够对未知输入作出尽可能准确的预测。可以一般地表示为:变量y与x存在一定的未知依赖关系,即遵循某一未知的联合概率F(x,y)(x 和y 之间的确定性关系可以看作是其特例),有指导机器学习问题就是根据N个独立同分布观测样本 在一组函数f (x,w)中求一个最优的函数 f (x,w0)对依赖关系进行估计,使期望风险 最小,期望风险,而对train set上产生的风险Remp(w)被称为经验风险(学习的训练误差):,首先Remp(w)和R(w)都是w的函数,传统概率论中的定理只说明了(在一定条件下)当样本趋于无穷多时Remp(w)将在概率意义上趋近于R(w),却没有保证使Remp(w)最小的点也能够使R(w) 最小(同步最小)。,经验风险,经验风险最小化准则,因为是由训练样本(即经验数据)定义的,因此称之为经验风险。用求经验风险的最小值代替求期望风险R (a)的最小值,就是所谓的经验风险最小化(ERM)准则 从期望风险最小化到经验风险最小化的理论依据是大数定理,只有当训练样本趋近于无穷大的时候,经验风险才趋近于期望风险。即:,过学习Overfitting and underfitting,Problem: how rich class of classifications q(x;) to use.,underfitting,overfitting,good fit,Problem of generalization: a small emprical risk Remp does not imply small true expected risk R.,存在的问题,由于经验风险最小化代替期望风险最小化的理论依据是大数定理,实际的机器学习不能满足训练样本趋近于无穷大这一苛刻的要求,致使经验风险最小化准则算法复杂性大与泛化能力差。 例如:基于经验风险最小化准则人工神经网络研究中,广大学者总是把注意力集中在如何使更小,但很快便发现,一味追求训练误差小并不是总能达到好的预测效果。,原因,从理论上看,之所以出现过学习现象, 一是因为训练样本不充分, 二是机器学习的风险准则不合理。 出现这种现象的原因,就是试图用一个复杂的模型去拟合有限的样本,结果导致丧失了推广能力。在神经网络中,如果对于有限的训练样本来说网络的学习能力过强,足以记住每一个训练样本,此时经验风险很快就可以收敛到很小甚至零,但学习机器却根本无法保证它对未来新的样本能够得到好的预测。这就是有限样本下学习机器的复杂性与推广性之间的矛盾。因此,关于学习机器复杂性和推广能力,得到以下的结论,结论,经验风险最小并不一定意味着期望风险最小; 学习机器的复杂性不但与所研究的系统有关,而且要和有限的学习样本相适应。,VC维反映了函数集的学习能力,VC维越大则学习机器越复杂(容量越大)。,VC维(Vapnik-Chervonenkis Dimension)。模式识别方法中VC维的直观定义是:对一个指示函数集,如果存在h个样本能够被函数集里的函数按照所有可能的2h种形式分开,则称函数集能够把h个样本打散。函数集的VC维就是它能打散的最大样本数目h。,VC维,经验风险与VC维关系,经验风险Remp(a)和实际风险R(a)之间至少以不下于1-(01)的概率存在这样的关系:,结构风险最小化归纳原则 (SRM),Sn,S*,经验风险Empirical risk,h1,h*,hn,h,S1,S*,Sn,置信范围 Confidence interval,风险界限Bound on the risk,实现方法,设计具有某种结构的函数集,使每个子集中都能取得最小的经验风险(如使训练误差为0),然后只需选择适当的子集使置信范围最小,则这个子集中使经验风险最小的函数就是最优函数。支持向量机就是使用这一思想,实现统计学习理论结构风险最小化准则的典型方法。,支持向量回归(Regression),回归问题,线性回归:给定训练集(xi,yi),找个线性函数f(x)=w.x+b,来拟合数据 最小二乘法(Least Square) 其中 为回归误差. 记 ,则目标函数可写为 解为,最小二乘解的不足:数值稳定性问题,增加新数据

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论