帧差法目标识别.doc_第1页
帧差法目标识别.doc_第2页
帧差法目标识别.doc_第3页
帧差法目标识别.doc_第4页
帧差法目标识别.doc_第5页
免费预览已结束,剩余3页可下载查看

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

本文展示了一种自动识别视频中移动目标的方法。论文中提取移动目标通过帧序列,这种方法不需要先验知识,比如:时间阈值调整。基于相邻帧的连续对称差分,我们能得到全分辨率显著图;然后利用最大熵方法计算阈值决定候选区域和获得兴趣点的种子;最后用修改的模糊生长方法获得最终的结果。本文中提出的算法是有效的、具有鲁棒性的。实验结果也证明它具有很好的效果。移动目标检测在计算机视觉中有广泛应用,但是在研究过程中也有很多挑战。通常目标检测方法被分为三类:(1)基于时间信息。例如:帧差法能很快检测出目标,但很难得到整个物体的轮廓,并且易受背景的影响。(2)基于空间信息的。(3)基于时间和空间信息的。有较好的效果,计算复杂度高。本文提出了一种基于时间信息的方法。(1)通过相邻帧对称差分获得显著图;(2)使用最大熵模型得到一个阈值去二值化时间显著图和获得候选区域。然后选择候选区域最显著的点作为兴趣种子点。(3)对于每一兴趣种子点,在显著图上应用模糊生长方法直到没有点能被聚集和能获得移动物体的轮廓A.移动显著图的产生获得一段连续帧相邻帧做差分得到移动目标。对得到的差分显著图做开运算。作用:消除小的和亮的细节。为了去除噪声和背景运动的影响,对差分得到的显著图做和再平均。B.兴趣种子选择由于图像是连续变化的,一个固定的阈值不能很好的二值化显著图,本文采用最大熵方法得到一个变化的阈值去二值化显著图和提取候选兴趣区域。然后选择兴趣种子点。C.移动目标检测为了提取移动的目标,本论文应用模糊生长方法去使兴趣点的种子生长成一片区域。如果像素值满足下列条件,对兴趣点的种子使用模糊生长算法。a和u表示如下图实验数据集:PETS2000, PETS2001 and Dataset2014设备:The algorithm is implemented with C+ on a personal puter with Core i3 3.3 GHz CPU and 2G RAM.评价标准:假负率(False Negative Rate,FNR):FNR = FN /(TP + FN),即被预测为负的正样本结果数/正样本实际数假正率(False Positive Rate,FPR):FPR = FP /(FP + TN),即被预测为正的负样本结果数/负样本实际数 Specificity (负例的覆盖率,True Negative Rate) =正确预测到的负例个数/实际负例总数 PBC :Percentage of Bad Classifications召回率(Re、recall):预测为真实正例除以所有真实正例样本的个数准确率(Precision) :预测为真实正例除以所有被预测为正例样本的个数F-measure:查准率和查全率的调和平均值,更接近于P, R两个数较小的那个:F=2* P* R/(P + R)实验结果如下图表一表示的是本论文实验得出的结果;Fig7和Fig8本文的实验结果与图中方法的比较,可以看出本文中的方法表现很出色。论文中的检测结果本论文的贡献共以下五点:(1)产生特征图基于时间信息。(2)对于场景不需要任何先验知识。(3)扩展了差分从相邻两帧到相邻n帧。(4)对于复杂的背景和相机的抖动具有很好的鲁棒性。(5)自动的提取移动目标。算法:clc;clear allvideoObj =VideoReader(11.avi);%读视频文件nframes = get(videoObj, NumberOfFrames);%获取视频文件帧个数N=12;start=20;% hang,lie=size(grayFrame);alldiff=zeros(288,512,N);for k = 1+start : N+start currentFrame = read(videoObj, k);%读取第i帧 subplot(2,2,1);%创建图像显示窗口并获取第一个窗口句柄 imshow(currentFrame); % Convert to grayscale. grayFrame = rgb2gray(currentFrame);%灰度化 hang,lie=size(grayFrame);% alldiff=zeros(hang,lie,N); if(k=1+start) grayFrame_1 = grayFrame; end difgrayFrame= grayFrame - grayFrame_1;%邻帧差 alldiff(:,:,k-start)=double(difgrayFrame); grayFrame_1 = grayFrame; subplot(2,2,2) imshow(alldiff(:,:,k-start),);endD=zeros(hang,lie);C=zeros(hang,lie);E=zeros(hang,lie);for j=1:10D(:,:,j)=alldiff(:,:,1+j).*alldiff(:,:,2+j); subplot(2,2,3); imshow(uint8(D(:,:,j),); pause(0.5) se=strel(disk,1);%圆盘型结构元素 fo(:,:,j)=imopen( D(:,:,j),se);%直接开运算subplot(2,2,4);imshow( fo(:,:,j),);C=(C+D(:,:,j);E=(E+ fo(:,:,j);endC=C/10;figure,subplot(2,2,1);imshow( C,);subplot(2,2,2);imshow(E,); imwrite(uint8(C),C:UsersAdministratorDesktop16.jpg) a=imread(C:UsersAdministratorDesktop16.jpg);figure,imshow(a)count=imhist(a);m,n=size(a);N=m*n;L=256;count=count/N;%每一个像素的分布概率 for i=1:L if count(i)=0 st=i-1; break; endend for i=L:-1:1 if count(i)=0 nd=i-1; break; endend f=count(st+1:nd+1); %f是每个灰度出现的概率size(f)E=;for Th=st:nd-1 %设定初始分割阈值为Thav1=0;av2=0;Pth=sum(count(1:Th+1);%第一类的平均相对熵为for i=0:Th av1=av1-count(i+1)/Pth*log(count(i+1)/Pth+0.00001);end%第二类的平均相对熵为for i=Th+1:L-1 av2=av2-count(i+1)/(1-Pth)*log(count(i+1)/(1-Pth)+0.00001);end E(Th-st+1)=av1+av2;% E(Th-st+1)=av1*(1-Pth)15;endposition=find(E=(max(E);th=st+position-1; for i=1:m for j=1:n if a(i,j)th a(i,j)=255; else a(i,j)=0; end endend figure,imshow(a);title(1) se=strel(disk,1);%圆盘型结构元素 fo=imopen(a,se);%直接开运算 figure, imshow(fo);title(kai);% B=1 1% 1 1; B=1 1 1 1 1 1 1 1 1; A2=imdilate(fo,B); figure, imshow(A2);title(fushi); imwrite(A2,C:UsersAdministratorDesktop10.jpg)Ibw=imread(10.jpg);% I=rgb2gray(I);% Ibw=im2bw(I);l,m=bwlabel(Ibw,8);status=regionprops(l,BoundingBox);imshow(Ibw);hold on;for i=1:mrectangle(position,status(i).BoundingBox,edgecolor,r);end hold off;frame = re

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论