【技术实现步骤摘要】
本专利技术涉及计算机视觉
,特指在视频目标跟踪中一种目标位置预测、搜索范围自适应调整及双重匹配融合的方法。
技术介绍
目标跟踪是计算机视觉领域的一个重要研究课题,是进一步分析运动行为的基础,例如,视频监控,智能交通,运动行为分析等。近年来已提出了许多卓有成效的目标跟踪算法,在该领域取得了很大进展。但在面对背景复杂、光照变化和目标运动变化快的视频序列时,经常出现跟踪精度下降、跟踪错误、甚至丢失目标的现象。因此,如何对现有的视频目标跟踪方法进行改进,实现精确可靠的视频目标跟踪仍然是一个富有挑战性和需要深入进行研究的课题。视频目标跟踪主要是监测视频序列中目标的位置变化(主要为目标中心位置的变化)和形状的变化,方法的关键是在新的一帧图像中搜寻到目标的位置与形态的变化。现有文献中的目标跟踪方法,多数是以前一帧目标的匹配位置为中心、以事前预定的常数为方差按高斯分布产生的随机位置在新的一帧中对目标进行搜索(以随机仿射变换的形状进行匹配),这对于目标运动速度变化较大的视频序列,不得不通过选择一个较大的方差来扩大搜索范围以保证所要跟踪的目标不至于落在搜索范围之外,并且始终在这样大的范围内进行搜索。由此会使目标搜索的效率很低,使得跟踪精度受限。针对此问题,Lao等(Lao Y.,Zhu J.and Zheng Y.F.:Sequential particle generation for visual tracking.IEEE Trans.Circuits and Systems for Video Technology,19(9):1365-1378,Sep.20 ...
【技术保护点】
视频目标跟踪中目标位置预测、搜索范围自适应调整及双重匹配融合的方法,其特征在于如下步骤:步骤1:建立目标位置的预测模型,在跟踪过程中以对目标位置的预测值为中心对下一帧目标进行搜索;设在第1帧由人工标定运动目标和已知其目标中心位置的坐标为(x1,y1),并设现已得到了第k帧目标中心位置的坐标为(xk,yk),k≥1,其中xk和yk分别为目标中心位置的横、纵坐标值;下一时刻的目标位置的横坐标xk+1与当前时刻xk的关系表示为:xk+1=xk+vx,k+12ax,k+nx,k---(1)]]>其中vx,k,ax,k分别为k时刻目标在x方向上的运动速度和加速度,nx,k为k时刻运动状态在x方向上的随机变化量,通常假设nx,k满足均值为0方差为的高斯分布;下一时刻的目标位置的纵坐标yk+1与当前时刻yk的关系表示为:yk+1=yk+vy,k+12ay,k+ny,k---(2)]]>其中vy,k,ay,k分别为k时刻目标在y方向上的运动速度和加速度,ny,k为k时刻运动状态在y方向上的随机变化量,并且假设ny,k满足均值为0方差为的高斯分布;对于目标在k时刻的速度和加速度vx,k,ax,k,根据跟 ...
【技术特征摘要】
1.视频目标跟踪中目标位置预测、搜索范围自适应调整及双重匹配融合的方法,其特征在于如下步骤:步骤1:建立目标位置的预测模型,在跟踪过程中以对目标位置的预测值为中心对下一帧目标进行搜索;设在第1帧由人工标定运动目标和已知其目标中心位置的坐标为(x1,y1),并设现已得到了第k帧目标中心位置的坐标为(xk,yk),k≥1,其中xk和yk分别为目标中心位置的横、纵坐标值;下一时刻的目标位置的横坐标xk+1与当前时刻xk的关系表示为: x k + 1 = x k + v x , k + 1 2 a x , k + n x , k - - - ( 1 ) ]]>其中vx,k,ax,k分别为k时刻目标在x方向上的运动速度和加速度,nx,k为k时刻运动状态在x方向上的随机变化量,通常假设nx,k满足均值为0方差为的高斯分布;下一时刻的目标位置的纵坐标yk+1与当前时刻yk的关系表示为: y k + 1 = y k + v y , k + 1 2 a y , k + n y , k - - - ( 2 ) ]]>其中vy,k,ay,k分别为k时刻目标在y方向上的运动速度和加速度,ny,k为k时刻运动状态在y方向上的随机变化量,并且假设ny,k满足均值为0方差为的高斯分布;对于目标在k时刻的速度和加速度vx,k,ax,k,根据跟踪过程所获取的目标运动状态来求取:vx,k=Δxk/Δtk=xk-xk-1, (3)ax,k=Δvx,k/Δtk=(vx,k-vx,k-1)=xk-2xk-1+xk-2 (4)得到对下一时刻目标中心位置横坐标xk+1的预测模型为: x ‾ k + 1 | k = 5 2 x k - 2 x k - 1 + 1 2 x k - 2 - - - ( 5 ) ]]>对下一时刻目标中心位置纵坐标yk+1的预测模型为: y ‾ k + 1 | k = 5 2 y k - 2 y k - 1 + 1 2 y k - 2 - - - ( 6 ) ]]>根据上面推导出来的预测模型(5)和(6)求出下一帧目标中心位置的预测值将预测值作为对下一帧目标的搜索中心;步骤2:求取模型(1)和(2)中随机噪声nx,k和ny,k的方差(和)的估值,据此自适应地调整目标的搜索范围;步骤2.1:估计模型(1)和(2)中随机噪声nx,k和ny,k的方差(和): σ ^ x , k 2 = 1 L Σ l = k + 1 - L k ( x ‾ l | l - 1 - x l ) 2 , σ ^ y , k 2 = 1 L Σ l = k + 1 - L k ( y ‾ l | l - 1 - y l ) 2 - - - ( 7 ) ]]>其中L为估计这两个方差参数时所取的帧数;和为在目标跟踪过程中分别利用式(5)和(6)求出的在l-1时刻对l时刻的目标中心点位置的预测值,xl和yl分别为l时刻目标中心点的真实位置;步骤2.2:确定目标的搜索范围步骤2.2.1:以第一步中求得的预测值作为随机粒子分布的中心点位置;步骤2.2.2:以步骤2.1中求得的方差作为随机粒子分布的方差即: σ p , x = σ ^ x , k , σ p , y = σ ^ y , k - - - ( 8 ) ]]>以(σp,x,σp,y)作为度量参数来确定目标的搜索范围:分别以正态分布N和产生一对随机数(x′k+1,i,y′k+1,i)作为下帧目标的一个候选搜索位置(i=1,2,...,M);目标搜索范围即是以(3σp,x,3σp,y)为长短轴的椭圆范围内;当σp,x≥σp,y,σp,x为长轴;反之,σp,x为短轴;步骤2.2.3:将目标位置预测和自适应调整搜索范围的方法与仿射变换相结合,应用到仿射变换中,确定出下一帧的候选目标的形状和所处区间;采用下式描述的仿射变换来确定该候选目标的形状和各点的坐标值: x ^ k + 1 , i y ^ k + 1 , i = c o s ( θ ) - s i n ( θ ) s i n ( θ ) cos ( θ ) 1 s x y 0 1 1 + a x 0 0 1 + a y Δx k Δy k + x k +...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。