矩阵特征值与特征向量在图像处理中的应用(共5页)_第1页
矩阵特征值与特征向量在图像处理中的应用(共5页)_第2页
矩阵特征值与特征向量在图像处理中的应用(共5页)_第3页
矩阵特征值与特征向量在图像处理中的应用(共5页)_第4页
矩阵特征值与特征向量在图像处理中的应用(共5页)_第5页
全文预览已结束

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、精选优质文档-倾情为你奉上特征值与特征向量在图像处理中的应用姓名:张x 学号: 班级:摘要:正所谓学以致用,在长期以来的学习过程中,我们真正能够将所学到的知识运用到生活中的能有多少,我们对课本上那些枯燥的公式虽牢记于心,却不知道它的实际用途。在学习了矩阵论以来,虽然知道很多问题的求法,就如矩阵特征值和特征向量,它们有何意义我们却一点不知。我想纯粹的理知识已经吸引不了我们了,我们需要去知道它们的用途,下面就让我们一起来看看矩阵特征值与特征向量在图像处理中是如何发挥它们的作用的。关键字:特征值、特征向量、 图像、正文:生活中的我们,每天清晨醒来,随之映入眼帘的就是各种形形色色的图像,我们确实也很难

2、想象,在我们的生活中,图像的处理和矩阵特征值、特征向量有什么关系?首相我们先来了解下,何为特征值、特征向量。定义: 设 是 阶方阵,若有数 和非零向量 ,使得称数 是 的特征值,非零向量 是 对应于特征值 的特征向量。 例如 对 ,有 及向量 ,使得 ,这说明 是 的特征值, 是 对应于 的特征向量。 特征值和特征向量的求法: 1 由 得 ,并且由于 是非零向量,故行列式 ,即 (称之为 的特征方程) 由此可解出 个根 (在复数范围内),这就是 的所有特征值。 2 根据某个特征值 ,由线性方程组 解出非零解 ,这就是 对应于特征值 的特征向量。 特征值和特征向量的性质: 1 , 2 若 是 的

3、特征向量,则对 , 也是 的特征向量。 3 若 是 的特征值,则 是 的特征值,从而 是 的特征值。 4 是 的 个特征值, 为依次对应的特征向量,若 各不相同,则 线性无关。 我想在了解了特征值和特征向量的基本理论之后,你们很难想象,为什么这些知识会和图像有联系吧。说实话,我自己也不是很清楚,我也是看了别人的理论讲解,才略微理解了一二。让我们一起去了解下。 根据特征向量数学公式定义,矩阵乘以一个向量的结果仍是同维数的一个向量,因此,矩阵乘法对应了一个变换,把一个向量变成同维数的另一个向量,那么变换的效果是什么呢?这当然与方阵的构造有密切关系,比如可以取适当的二维方阵,使得这个变换的效果就是将

4、平面上的二维向量逆时针旋转30度,这时我们可以问一个问题,有没有向量在这个变换下不改变方向呢?可以想一下,除了零向量,没有其他向量可以在平面上旋转30度而不改变方向的,所以这个变换对应的矩阵(或者说这个变换自身)没有特征向量(注意:特征向量不能是零向量),所以一个特定的变换特征向量是这样一种向量,它经过这种特定的变换后保持方向不变,只是进行长度上的伸缩而已(再想想特征向量的原始定义Ax=cx, cx是方阵A对向量x进行变换后的结果,但显然cx和x的方向相同)。 这里给出一个特征向量的简单例子,比如平面上的一个变换,把一个向量关于横轴做镜像对称变换,即保持一个向量的横坐标不变,但纵坐标取相反数,

5、把这个变换表示为矩阵就是1 0;0 -1(分号表示换行),显然1 0;0 -1*a b'=a -b'(上标'表示取转置),这正是我们想要的效果,那么现在可以猜一下了,这个矩阵的特征向量是什么?想想什么向量在这个变换下保持方向不变,显然,横轴上的向量在这个变换下保持方向不变(记住这个变换是镜像对称变换,那镜子表面上(横轴上)的向量当然不会变化),所以可以直接猜测其特征向量是a 0'(a不为0),还有其他的吗?有,那就是纵轴上的向量,这时经过变换后,其方向反向,但仍在同一条轴上,所以也被认为是方向没有变化,所以0 b'(b不为0)也是其特征向量。 综上所述,

6、特征值只不过反映了特征向量在变换时的伸缩倍数而已,对一个变换而言,特征向量指明的方向才是很重要的,特征值似乎不是那么重要;但是,当我们引用了Spectral theorem(谱定律)的时候,情况就不一样了。 Spectral theorem的核心内容如下:一个线性变换(用矩阵乘法表示)可表示为它的所有的特征向量的一个线性组合,其中的线性系数就是每一个向量对应的特征值,写成公式就是: 我们知道,一个变换可由一个矩阵乘法表示,那么一个空间坐标系也可视作一个矩阵,而这个坐标系就可由这个矩阵的所有特征向量表示,用图来表示的话,可以想象就是一个空间张开的各个坐标角度,这一组向量可以完全表示一个矩阵表示的

7、空间的“特征”,而他们的特征值就表示了各个角度上的能量(可以想象成从各个角度上伸出的长短,越长的轴就越可以代表这个空间,它的“特征”就越强,或者说显性,而短轴自然就成了隐性特征),因此,通过特征向量/值可以完全描述某一几何空间这一特点,使得特征向量与特征值在几何(特别是空间几何)及其应用中得以发挥。矩阵论在图像中的应用比如有PCA方法,选取特征值最高的k个特征向量来表示一个矩阵,从而达到降维分析+特征显示的方法。一般而言,这一方法的目的是寻找任意统计分布的数据集合之主要分量的子集。相应的基向量组满足正交性且由它定义的子空间最优地考虑了数据的相关性。将原始数据集合变换到主分量空间使单一数据样本的

8、互相关性降低到最低点。一下是其运用的原理:设是N维向量的数据集合,m是其均值向量:有了特征向量集合,任何数据x可以投影到特征空间(以特征向量为基向量)中的表示:相反地,任何数据x可以表示成如下的线性组合形式:如果用A代表以特征向量为列向量构成的矩阵,则AT定义了一个线性变换:上述去相关的主分量分析方法可以用于降低数据的维数。通过略去对应于若干较小特征值的特征向量来给y降维。例如,丢弃底下N-M行得到的矩阵B,并为简单起见假定均值m=0,则有:它只是被舍弃的特征向量所对应的特征值的和。通常,特征值幅度差别很大,忽略一些较小的值不会引起很大的误差。上述方法是图象数据压缩的数学基础之一,通常被称为P

9、rincipal Component Analysis (PCA)或Karhunen-Loeve (K-L)变换。K-L变换的核心过程是计算特征值和特征向量,有很多不同的数值计算方法。一种常采用的方法是根据如下的推导: 由于通常s<<N,这种方法将求高阶矩阵的特征向量转化为求较低阶矩阵的特征向量的过程在图象数据分析中是很实用的。 K-L变换是图象分析与模式识别中的重要工具,用于特征抽取,降低特征数据的维数。例如,MIT-Media Lab基于特征脸的人脸识别方法。 通过上述的理论,我们对特征值与特征向量在图像处理上的运用有了深入的了解,同时也感受到了知识的魅力在不停的渲染着我们的生活。当然,特征值的魅力还不仅在于图像

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论