一种计算机视觉技术领域的基于SURF特征点图匹配和运动生成模型的视频目标跟踪方法,包括以下步骤:使用局部特征点集描述目标物体;通过将新帧图像中检测得到的特征点集与目标特征点集进行图匹配得到目标局部特征点的运动信息;使用生成模型来刻画局部特征点的运动与目标整体的运动之间的关系;利用最大似然估计在局部特征点运动信息上计算出目标整体运动参数;利用在线最大期望方法更新目标特征点的混合概率系数;通过监视背景特征点是否进入目标区域内来判断。本发明专利技术能有效地适用于一般目标的实时跟踪,并且克服现有跟踪方法在光照变化、形态变化、背景纷杂和目标遮挡等情况下的失效。有效地跟踪视频目标,给出正确和实际有效的运动信息。
【技术实现步骤摘要】
本专利技术涉及的是一种计算机视觉
的目标跟踪方法,特别是一种基于SURF 特征点图匹配和运动生成模型的视频目标跟踪方法。
技术介绍
计算机视觉的研究是为了让计算机具有如同人类一样强大的视觉能力,其中目标 跟踪是该领域中一个极具吸引力又极富挑战性的课题。目标跟踪技术在民用和军事上都有 着巨大应用前景,如对银行、停车场、重要公共场合等进行实时监控,在交通系统中对车牌 自动识别,智能汽车自动驾驶等,战争环境中对敌方快速移动目标进行准确定位和跟踪;其 在人机交互、虚拟现实中也有重要的应用价值,如视觉焦点追踪、头部追踪等。目标跟踪技 术在研究工作者们的推动下有着长足进步,产生了一些经典的跟踪方法,如Mean-Shift跟 踪、Particle filter跟踪、Ensemble跟踪等,但离实际应用还有较大差距,特别是光照变 化、形态变化、背景纷杂和遮挡等情况发生时。SURF特征作为一种新兴的特征提取技术,在图像匹配、目标识别、视频数据挖掘等 问题中已经获得了广泛应用,并取得了巨大的成功。它具有对图像的旋转、缩放、三维观测 视角变化等的不变性,在实际应用中表现出很好的鲁棒性和高重复性,同时其描述子具有 高维特征分布的独特性。区别于通常的局部特征技术,SURF特征通过对特征点位置检测过 程使用的DOG算子进行近似优化处理,同时利用经典的积分图技术等,在特征检测和计算 速度上有很大突破,使实时的图像特征提取成为现实。
技术实现思路
本专利技术的目的是克服现有目标跟踪方法的不足,提供一种基于SURF特征点图匹 配和运动生成模型的视频目标跟踪方法。本专利技术从运动估计的角度出发,结合SURF特征提 取技术,有效地跟踪视频目标,给出正确和实际有效的运动信息。本专利技术能够有效地适用于 现实环境下一般目标的实时跟踪,并且克服现有跟踪方法在光照变化、形态变化、背景纷杂 和目标遮挡等情况下的失效。本专利技术通过以下技术方案实现本专利技术包括以下步骤①使用局部特征点集描述目标物体;②通过将新帧图像中检测得到的特征点集与目标特征点集进行图匹配得到目标 局部特征点的运动信息;③使用生成模型来刻画局部特征点的运动与目标整体的运动之间的关系;④利用最大似然估计在局部特征点运动信息上计算出目标整体运动参数;⑤利用在线最大期望(Expectation-Maximization,简称EM)方法更新目标特征 点的混合概率系数;⑥通过监视背景特征点是否进入目标区域内来判断。所述的局部特征点,其运动与目标整体的运动之间的关系则是通过一个生成模型 来刻画的。所述的生成模型包含两部分一致模态和游走模态。某特征点的运动若由一致模 态生成,则暗示着此特征点的运动与目标整体保持一致,反之,则表明此特征点的运动与目 标整体无关。而生成模型的参数则是利用在线最大期望方法实时有效地学习得到的。所述的目标是通过一个SURF特征点集来进行描述的。这样一种描述方式的优点 在于它能够允许目标的不同部分进行不同的运动,因此能够更加灵活地处理目标的形态变 化。而这些特征点的运动信息则通过一个特征点图匹配的过程获得。目标的结构信息在匹 配过程中被考虑进来,以加强匹配的可靠性。所述的在线最大期望方法,通过最大化特征点的运动信息的似然估计出目标整体 的运动参数,然后目标整体的运动信息用于更新和调整对目标的描述。与目标运动保持一 致的特征点将赋以更高的权重,同时,新检测到的目标上的特征点也被吸收进入对目标的 表达中,以此来学习目标的形态变化。本专利技术的方法能够有效地跟踪视频目标,给出正确性和实际有效性的运动信息。 本专利技术不依赖于对目标物体进行刚体运动的假设,因此在处理目标形态变化等情景更加稳 定有效。特征点运动生成模型精确刻画了局部特征点的运动与目标整体的运动的关系,大 量的试验结果证明了模型的理论正确性和实际有效性。附图说明图1本专利技术对跟踪对象所取得的跟踪结果示意图。 具体实施例方式以下结合附图对本专利技术的实施例作详细说明以下实施例在以本专利技术技术方案为 前提下进行实施,给出了详细的实施方式和过程,但本专利技术的保护范围不限于下述的实施 例。实施例本实施例详细的实施方式和过程如下①使用局部特征点集描述目标物体;②通过将新帧图像中检测得到的特征点集与目标特征点集进行图匹配得到目标 局部特征点的运动信息;所述的图匹配,在连续的几帧图像中观察特征点的运动可以视为在两个特征点集 中进行匹配,本实施例使用生成SURF特征点描述子的欧氏距离形成初始匹配候选,然后利 用特征点的空间结构信息通过图匹配的方法寻找最优匹配,得到特征点的运动信息。③使用生成模型来刻画局部特征点的运动与目标整体的运动之间的关系;所述的生成模型,模型包含两部分,第一部分是一致性模型,它用来捕捉局部特征 点的运动和目标整体的运动之间的一致性关联。若某特征点运动观测量\是从一致模态中 生成所得,本实施例将它的概率密度函数视为高斯分布=Pe(Vt) =JV(vt|ct,Ee)。这里Ct表 示时间节点t时刻目标整体的运动参数,Σ。是一个固定的经验性的协方差矩阵。生成模型的第二部分是为了描述部分特征点运动观察量与目标整体运动的不相关性。将这一部分视 为随机游走模态,若某特征点运动观测量Vt是从该模态中生成,则其概率密度函数K(Vt) 定义为在观测空间上的均勻分布。这两种模态通过概率混合模型结合起来组成了对观测量 Vt 生成模型:p(vt|ct,mt) = mcjtpc(vt|ct)+mrjtpr(vt);这里 mt= (mc,t,mr,t)是此特征在时间 节点t时刻的模态混合系数。④利用最大似然估计在局部特征点运动信息上计算出目标整体运动参数;⑤利用在线最大期望方法更新目标特征点的混合概率系数;模型参数是通过在线最大期望方法计算得到,其中E步计算每个特征点运动观测量Vk对于混合的各模态的归属程度,M 步更新模态混合系数,Hii, t = α Oi, t (Vt) + (I-Q)Hii, η ;其中 i G {c,r},α 为 学习率。目标整体的运动参数是在局部特征点的运动信息上进行最大似然估计得到的。本 实施例将目标整体的运动建模为一个二维平面上的仿射变化,C = (Ux,Uy,φ, P),这里Ux,Uy 是空间上的平移参数,φ和P则表示方向和尺度上的变化。给定仿射变化c,位置Pf处特 征点f的运动期望则为向量vfEt = w(ct,pf) - pf,其方向是从原来的位置指向现在的新位 置。这里,w是一个变形函数。在一致模态中观察到此特征运动vf, t的概率密度为一高斯 函数,其均值为vfEt,方差为Σ。。为找到最优的变化ct,需最大化特征运动观测量的对数似然 度之和L ({vf, J (f, e) eM) = Σ (f, e) eM log ρ (vf, 11 ct, mf, ^1);求解通过迭代地计算Δ Ct 得到:Σ(Γ,β).Μ Oct(Vf t)UxZc 1CUAct — C)=0这'|! L 记 w(ct, ρ)对 Ct 的偏导,C 等vf,t — vfEt。所述的更新目标特征点,描述目标的特征点的更新分四步进行1.如果新帧中特 征点被观测到,则用新观测到的特征点描述子替代原来的,同时更新混合模态参数;2.如 果新帧中特征点未被观测到,则本文档来自技高网...
【技术保护点】
一种基于SURF特征点图匹配和运动生成模型的视频目标跟踪方法,其特征在于,包括以下步骤:①使用局部特征点集描述目标物体;②通过将新帧图像中检测得到的特征点集与目标特征点集进行图匹配得到目标局部特征点的运动信息;③使用生成模型来刻画局部特征点的运动与目标整体的运动之间的关系;④利用最大似然估计在局部特征点运动信息上计算出目标整体运动参数;⑤利用在线最大期望方法更新目标特征点的混合概率系数;⑥通过监视背景特征点是否进入目标区域内来判断。
【技术特征摘要】
【专利技术属性】
技术研发人员:何巍,卢宏涛,张卿,
申请(专利权)人:上海交通大学,
类型:发明
国别省市:31[中国|上海]
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。