




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、SIFT(Scale-invariant feature transform)是一种检测局部特征的算法,该算法通过求一幅图中的特征点(interest points, or corner points)及其有关scale 和 orientation 的描述子得到特征并进行图像特征点匹配,获得了良好效果,详细解析如下:算法描述SIFT特征不只具有尺度不变性,即使改变旋转角度,图像亮度或拍摄视角,仍然能够得到好的检测效果。整个算法分为以下几个部分:1. 构建尺度空间这是一个初始化操作,尺度空间理论目的是模拟图像数据的多尺度特征。高斯卷积核是实现尺度变换的唯一线性核,于是一副二维图像的尺度
2、空间定义为:其中 G(x,y,) 是尺度可变高斯函数 (x,y)是空间坐标,是尺度坐标。大小决定图像的平滑程度,大尺度对应图像的概貌特征,小尺度对应图像的细节特征。大的值对应粗糙尺度(低分辨率),反之,对应精细尺度(高分辨率)。为了有效的在尺度空间检测到稳定的关键点,提出了高斯差分尺度空间(DOG scale-space)。利用不同尺度的高斯差分核与图像卷积生成。下图所示不同下图像尺度空间:关于尺度空间的理解说明:2k中的2是必须的,尺度空间是连续的。在 Lowe的论文中 ,将第0层的初始尺度定为1.6(最模糊),图片的初始尺度定为0.5(最清晰). 在检测极值
3、点前对原始图像的高斯平滑以致图像丢失高频信息,所以 Lowe 建议在建立尺度空间前首先对原始图像长宽扩展一倍,以保留原始图像信息,增加特征点数量。尺度越大图像越模糊。 图像金字塔的建立:对于一幅图像I,建立其在不同尺度(scale)的图像,也成为子八度(octave),这是为了scale-invariant,也就是在任何尺度都能够有对应的特征点,第一个子八度的scale为原图大小,后面每个octave为上一个octave降采样的结果,即原图的1/4(长宽分别减半),构成下一个子八度(高一层金字塔)。尺度空间的所有取值,i为octave的塔数(第几个塔),s为每塔层数由图片size决定
4、建几个塔,每塔几层图像(S一般为3-5层)。0塔的第0层是原始图像(或你double后的图像),往上每一层是对其下一层进行Laplacian变换(高斯卷积,其中值渐大,例如可以是, k*, k*k*),直观上看来越往上图片越模糊。塔间的图片是降采样关系,例如1塔的第0层可以由0塔的第3层down sample得到,然后进行与0塔类似的高斯卷积操作。2. LoG近似DoG找到关键点<检测DOG尺度空间极值点>为了寻找尺度空间的极值点,每一个采样点要和它所有的相邻点比较,看其是否比它的图像域和尺度域的相邻点大或者小。如图所示,中间的检测点和它同尺度的8个相邻点和上下相邻尺度对
5、应的9×2个点共26个点比较,以确保在尺度空间和二维图像空间都检测到极值点。 一个点如果在DOG尺度空间本层以及上下两层的26个领域中是最大或最小值时,就认为该点是图像在该尺度下的一个特征点,如图所示。同一组中的相邻尺度(由于k的取值关系,肯定是上下层)之间进行寻找s=3的情况在极值比较的过程中,每一组图像的首末两层是无法进行极值比较的,为了满足尺度变化的连续性(下面有详解),我们在每一组图像的顶层继续用高斯模糊生成了 3 幅图像,高斯金字塔有每组S+3层图像。DOG金字塔每组有S+2层图像.=这里有的童鞋不理解什么叫“为了满足尺度变化的连续性”,现在做仔细阐述:假设s=3
6、,也就是每个塔里有3层,则k=21/s=21/3,那么按照上图可得Gauss Space和DoG space 分别有3个(s个)和2个(s-1个)分量,在DoG space中,1st-octave两项分别是,k; 2nd-octave两项分别是2,2k;由于无法比较极值,我们必须在高斯空间继续添加高斯模糊项,使得形成,k,k2,k3,k4这样就可以选择DoG space中的中间三项k,k2,k3(只有左右都有才能有极值),那么下一octave中(由上一层降采样获得)所得三项即为2k,2k2,2k3,其首项2k=24/3。刚好与上一octave末项k3=23/3尺度变化连续起来,所以每次要在Ga
7、ussian space添加3项,每组(塔)共S+3层图像,相应的DoG金字塔有S+2层图像。=使用Laplacian of Gaussian能够很好地找到找到图像中的兴趣点,但是需要大量的计算量,所以使用Difference of Gaussian图像的极大极小值近似寻找特征点.DOG算子计算简单,是尺度归一化的LoG算子的近似,有关DOG寻找特征点的介绍及方法详见 Suppression。3. 除去不好的特征点这一步本质上要去掉DoG局部曲率非常不对称的像素。通过拟和三维二次函数以精确确定关键点的位置和尺度(达到亚像素精度),同时去除低对比度的关键点和不稳定的边缘响应点(因为Do
8、G算子会产生较强的边缘响应),以增强匹配稳定性、提高抗噪声能力,在这里使用近似Harris Corner检测器。空间尺度函数泰勒展开式如下:,对上式求导,并令其为0,得到精确的位置, 得在已经检测到的特征点中,要去掉低对比度的特征点和不稳定的边缘响应点。去除低对比度的点:把公式(2)代入公式(1),即在DoG Space的极值点处D(x)取值,只取前两项可得:若 ,该特征点就保留下来,否则丢弃。边缘响应的去除一个定义不好的高斯差分算子的极值在横跨边缘的地方有较大的主曲率,而在垂直边缘的方向有较小的主曲率。主曲率通过一个2×2 的Hessian矩阵H求出:导数由
9、采样点相邻差估计得到。D的主曲率和H的特征值成正比,令为较大特征值,为较小的特征值,则令=,则 (r + 1)2/r的值在两个特征值相等的时候最小,随着r的增大而增大,因此,为了检测主曲率是否在某域值r下,只需检测if (+)/ > (r+1)2/r, throw it out. 在Lowe的文章中,取r10。4. 给特征点赋值一个128维方向参数上一步中确定了每幅图中的特征点,为每个特征点计算一个方向,依照这个方向做进一步的计算, 利用关键点邻域像素的梯度方向分布特性为每个关键点指定方向参数,使算子具备旋转不变性
10、。为(x,y)处梯度的模值和方向公式。其中L所用的尺度为每个关键点各自所在的尺度。至此,图像的关键点已经检测完毕,每个关键点有三个信息:位置,所处尺度、方向,由此可以确定一个SIFT特征区域。梯度直方图的范围是0360度,其中每10度一个柱,总共36个柱。随着距中心点越远的领域其对直方图的贡献也响应减小.Lowe论文中还提到要使用高斯函数对直方图进行平滑,减少突变的影响。在实际计算时,我们在以关键点为中心的邻域窗口内采样,并用直方图统计邻域像素的梯度方向。梯度直方图的范围是0360度,其中每45度一个柱,总共8个柱, 或者每10度一个柱,总共36个柱。Lowe论文中还提到要使用高斯函数对直方图
11、进行平滑,减少突变的影响。直方图的峰值则代表了该关键点处邻域梯度的主方向,即作为该关键点的方向。直方图中的峰值就是主方向,其他的达到最大值80%的方向可作为辅助方向由梯度方向直方图确定主梯度方向该步中将建立所有scale中特征点的描述子(128维)Identify peak and assign orientation and sum of magnitude to key point.The user may choose a threshold to exclude key points based on their assigned sum of magnitudes.关键点描
12、述子的生成步骤 通过对关键点周围图像区域分块,计算块内梯度直方图,生成具有独特性的向量,这个向量是该区域图像信息的一种抽象,具有唯一性。5. 关键点描述子的生成首先将坐标轴旋转为关键点的方向,以确保旋转不变性。以关键点为中心取8×8的窗口。Figure.16*16的图中其中1/4的特征点梯度方向及scale,右图为其加权到8个主方向的效果。图左部分的中央为当前关键点的位置,每个小格代表关键点邻域所在尺度空间的一个像素,利用公式求得每个像素的梯度幅值与梯度方向,箭头方向代表该像素的梯度方向,箭头长度代表梯度模值,然后用高斯窗口对其进行加权运算。图中蓝色的圈代表高斯加权的范围(
13、越靠近关键点的像素梯度方向信息贡献越大)。然后在每4×4的小块上计算8个方向的梯度方向直方图,绘制每个梯度方向的累加值,即可形成一个种子点,如图右部分示。此图中一个关键点由2×2共4个种子点组成,每个种子点有8个方向向量信息。这种邻域方向性信息联合的思想增强了算法抗噪声的能力,同时对于含有定位误差的特征匹配也提供了较好的容错性。计算keypoint周围的16*16的window中每一个像素的梯度,而且使用高斯下降函数降低远离中心的权重。在每个4*4的1/16象限中,通过加权梯度值加到直方图8个方向区间中的一个,计算出一个梯度方向直方图。这样就可以对每个feature形成一个
14、4*4*8=128维的描述子,每一维都可以表示4*4个格子中一个的scale/orientation. 将这个向量归一化之后,就进一步去除了光照的影响。5. 根据SIFT进行Match生成了A、B两幅图的描述子,(分别是k1*128维和k2*128维),就将两图中各个scale(所有scale)的描述子进行匹配,匹配上128维即可表示两个特征点match上了。实际计算过程中,为了增强匹配的稳健性,Lowe建议对每个关键点使用4×4共16个种子点来描述,这样对于一个关键点就可以产生128个数据,即最终形成128维的SIFT特征向量。此时SIFT特征向量已经去除了尺度变化、旋转
15、等几何变形因素的影响,再继续将特征向量的长度归一化,则可以进一步去除光照变化的影响。 当两幅图像的SIFT特征向量生成后,下一步我们采用关键点特征向量的欧式距离来作为两幅图像中关键点的相似性判定度量。取图像1中的某个关键点,并找出其与图像2中欧式距离最近的前两个关键点,在这两个关键点中,如果最近的距离除以次近的距离少于某个比例阈值,则接受这一对匹配点。降低这个比例阈值,SIFT匹配点数目会减少,但更加稳定。为了排除因为图像遮挡和背景混乱而产生的无匹配关系的关键点,Lowe提出了比较最近邻距离与次近邻距离的方法,距离比率ratio小于某个阈值的认为是正确匹配。因为对于错误匹配,由于特征
16、空间的高维性,相似的距离可能有大量其他的错误匹配,从而它的ratio值比较高。Lowe推荐ratio的阈值为0.8。但作者对大量任意存在尺度、旋转和亮度变化的两幅图片进行匹配,结果表明ratio取值在0. 40. 6之间最佳,小于0. 4的很少有匹配点,大于0. 6的则存在大量错误匹配点。(如果这个地方你要改进,最好给出一个匹配率和ration之间的关系图,这样才有说服力)作者建议ratio的取值原则如下:ratio=0. 4对于准确度要求高的匹配;ratio=0. 6对于匹配点数目要求比较多的匹配; ratio=0. 5一般情况下。 也可按如下原则:当最近邻距离<200时ra
17、tio=0. 6,反之ratio=0. 4。ratio的取值策略能排分错误匹配点。当两幅图像的SIFT特征向量生成后,下一步我们采用关键点特征向量的欧式距离来作为两幅图像中关键点的相似性判定度量。取图像1中的某个关键点,并找出其与图像2中欧式距离最近的前两个关键点,在这两个关键点中,如果最近的距离除以次近的距离少于某个比例阈值,则接受这一对匹配点。降低这个比例阈值,SIFT匹配点数目会减少,但更加稳定。 实验结果:Python+opencv实现:python view plaincopy1. import cv2 2. import
18、;numpy as np 3. #import pdb 4. #pdb.set_trace()#turn on the pdb prompt 5. 6. #read image 7. img = cv2.imread('D:privacypicturelittle girl.jpg',cv2.IMREAD_COLOR) 8. gray
19、160;= cv2.cvtColor(img,cv2.COLOR_BGR2GRAY) 9. cv2.imshow('origin',img); 10. 11. #SIFT 12. detector = cv2.SIFT() 13. keypoints = detector.detect(gray,None) 14. img = cv2.drawKeypoints(gray,ke
20、ypoints) 15. #img = cv2.drawKeypoints(gray,keypoints,flags = cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS) 16. cv2.imshow('test',img); 17. cv2.waitKey(0) 18. cv2.destroyAllWindows() C实现:cpp view plaincopy1. /
21、FeatureDetector.cpp : Defines the entry point for the console application. 2. / 3. / Created by Rachel on 14-1-12. 4. / Copyright (c) 2013年 Z
22、JU. All rights reserved. 5. / 6. 7. #include "stdafx.h" 8. #include "highgui.h" 9. #include "cv.h" 10. #include "vector" 11
23、. #include "opencvcxcore.hpp" 12. #include "iostream" 13. #include "opencv.hpp" 14. #include "nonfree.hpp" 15. #include "showhelper.h" 16. 17. using name
24、space cv; 18. using namespace std; 19. 20. int _tmain(int argc, _TCHAR* argv) 21. 22. /Load Image 23. Mat c_src1 = im
25、read( ".Images3.jpg"); 24. Mat c_src2 = imread(".Images4.jpg"); 25. Mat src1 = imread( ".Images3.jpg", CV_LOAD_IMAGE_GRAYSCALE); 26.
26、; Mat src2 = imread( ".Images4.jpg", CV_LOAD_IMAGE_GRAYSCALE); 27. if( !src1.data | !src2.data ) 28. std:cout<< " -(!) Error re
27、ading images " << std:endl; return -1; 29. 30. /sift feature detect 31. SiftFeatureDetector detector; 32. std:vector<K
28、eyPoint> kp1, kp2; 33. 34. detector.detect( src1, kp1 ); 35. detector.detect( src2, kp2 ); 36. SiftDescriptorExtractor extractor;
29、 37. Mat des1,des2;/descriptor 38. pute(src1,kp1,des1); 39. pute(src2,kp2,des2); 40. Mat res1,res2; 41.
30、; int drawmode = DrawMatchesFlags:DRAW_RICH_KEYPOINTS; 42. drawKeypoints(c_src1,kp1,res1,Scalar:all(-1),drawmode);/在内存中画出特征点 43. drawKeypoints(c_src2,kp2,res2,Scalar:all(-1),drawmode); 44.
31、0; cout<<"size of description of Img1: "<<kp1.size()<<endl; 45. cout<<"size of description of Img2: "<<kp2.size()<<endl; 46.
32、47. /write the size of features on picture 48. CvFont font; 49. double hScale=1; 50. doub
33、le vScale=1; 51. int lineWidth=2;/ 相当于写字的线条 52. cvInitFont(&font,CV_FONT_HERSHEY_SIMPLEX|CV_FONT_ITALIC, hScale,vScale,0,lineWidth);/初始化字体,准备写到图片上的
34、; 53. / cvPoint 为起笔的x,y坐标 54. IplImage* transimg1 = cvCloneImage(&(IplImage) res1); 55. IplImage* transimg2 = cvCloneImage
35、(&(IplImage) res2); 56. 57. char str120,str220; 58. sprintf(str1,"%d",kp1.size(); 59. sprintf(str2,"%d&quo
36、t;,kp2.size(); 60. 61. 62. const char* str = str1; 63. cvPutText(transimg1,str1,cvPoint(280,230),&font,CV_RGB(255,0,0);/在图片中输出字符 64. 65.
37、0; str = str2; 66. cvPutText(transimg2,str2,cvPoint(280,230),&font,CV_RGB(255,0,0);/在图片中输出字符 67. 68. /imshow("Description 1",res1); 69. cvShowI
38、mage("descriptor1",transimg1); 70. cvShowImage("descriptor2",transimg2); 71. 72. BFMatcher matcher(NORM_L2); 73. vector<DMatch> matches;
39、;74. matcher.match(des1,des2,matches); 75. Mat img_match; 76. drawMatches(src1,kp1,src2,kp2,matches,img_match);/,Scalar:all(-1),Scalar:all(-1),vector<char>(),drawmode); 77.
40、; cout<<"number of matched points: "<<matches.size()<<endl; 78. imshow("matches",img_match); 79. cvWaitKey(); 80. cvDestroyAllWindows(); 81. 82. return 0; 83. =基本概念及一些补充什么是局部特征?局部特征从总体上说是图像或在视觉领域中一些有别于其周围的地方局部特征通常是描述一块区域,使其能具有高可区分度局部特征的好坏直接会决定着后面分类、识别是否会得到一
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 总经理聘书合同协议
- 商场装修管理协议书范本
- 商场接手转让店铺合同协议
- 2025签订合同注意事项范文
- 歌曲合同协议
- 快递进村合同协议书范本
- 正规视频制作合同协议
- 2025煤炭合作开发合同范本
- 商场商铺出售合同协议
- 商业介绍费合同协议
- 电磁炉作业指导书
- JT-T-1180.1-2018交通运输企业安全生产标准化建设基本规范第1部分:总体要求
- 河南省郑州市郑东新区2023-2024学年六年级下学期期末语文试题
- 大学生科研训练与论文写作全套教学课件
- 2024年高考语文阅读之李娟散文专练全国解析版
- 国开2024《人文英语4》边学边练参考答案
- 校本课程建设方案
- 《城市轨道交通信号基础设备》课件-第二章 信号机
- Premiere视频编辑案例教程(微课版)(第2版)(PremierePro2020) 课件 第1、2章 初识 Premiere Pro 2020、视频剪辑
- 口腔平滑肌瘤的手术治疗与预后
- 斯派克直读光谱M10 操作手册
评论
0/150
提交评论