The invention relates to a local sparse representation based on joint target tracking method and system, compared with the existing technology to solve the video tracking technology in the face of the target image occlusion and appearance characteristics change and no successful defect tracking. The present invention includes the following steps: initializing a target appearance feature template; tracking a target image; updating a joint target tracking template; and checking whether the video is read or not. The invention improves the precision and efficiency of target tracking in complex scenes, and improves the application degree of the target tracking technique in various scenes. By using the classifier model in the contrast process, the self-learning technique is applied to the tracking technique, so that the target image can be tracked accurately when occlusion occurs.
【技术实现步骤摘要】
一种基于局部稀疏表示的联合目标追踪方法及其系统
本专利技术涉及智能视频
,具体来说是一种基于局部稀疏表示的联合目标追踪方法及其系统。
技术介绍
视频中的目标追踪是计算机视觉领域中一个重要的研究的方向,并且在许多实际的应用中,如视频监控、视频场景的理解、交互视频处理等,都起着至关重要的作用。现阶段研究人员已经提出了不同的追踪算法,并在不同的应用场景下,取得了一定的成功。但是由于所追踪目标在经历过较长视频序列时,遮挡、目标外观的形状、环境的光照等都会发生变化,而导致目标跟踪无法顺利完成。同时目标图像在经过长视频序列后,外观特征发生大的变化后追踪失败,主要原因在于没有一个通用的目标图像外观表示模型。如何设计出一种当目标图像出现遮挡、外观特征变化等情况后仍然可以跟踪成功的方法及其系统已经成为急需解决的技术问题。
技术实现思路
本专利技术的目的是为了解决现有技术中视频追踪技术在遇到目标图像遮挡、外观特征变化而无法追踪成功的缺陷,提供一种基于局部稀疏表示的联合目标追踪方法及其系统来解决上述问题。为了实现上述目的,本专利技术的技术方案如下:一种基于局部稀疏表示的联合目标追踪方法,包括以下步骤:初始化目标外观特征模板,通过视频第一帧图像对视频目标位置初始化,构造由稀疏编码直方图得到的特征模板,构造由局部稀疏系数得到的分类器模型,由特征模板和分类器模型组成联合目标追踪模板;追踪目标图像,通过读取视频下一帧图像,构造候选图像稀疏编码直方图,构造候选图像分类器值,由候选图像稀疏编码直方图和候选图像分类器值组成的候选联合目标追踪模型,并与联合目标追踪模板之间进行 ...
【技术保护点】
一种基于局部稀疏表示的联合目标追踪方法,其特征在于,包括以下步骤:11)初始化目标外观特征模板,通过视频第一帧图像对视频目标位置初始化,构造由稀疏编码直方图得到的特征模板,构造由局部稀疏系数得到的分类器模型,由特征模板和分类器模型组成联合目标追踪模板;12)追踪目标图像,通过读取视频下一帧图像,构造候选图像稀疏编码直方图,构造候选图像分类器值,由候选图像稀疏编码直方图和候选图像分类器值组成的候选联合目标追踪模型,并与联合目标追踪模板之间进行相似度比较,最大相似度的为视频目标在下一帧的位置;13)更新联合目标追踪模板,将上一步中相似度最大的候选联合目标追踪模型更新为联合目标追踪模板,以供下一帧图像的候选联合目标追踪模型进行相似度比较;14)检查视频是否读取完毕,若读取完毕,则完成联合目标追踪,若未读取完毕,则继续进行追踪目标图像的操作。
【技术特征摘要】
1.一种基于局部稀疏表示的联合目标追踪方法,其特征在于,包括以下步骤: 11)初始化目标外观特征模板,通过视频第一帧图像对视频目标位置初始化,构造由稀疏编码直方图得到的特征模板,构造由局部稀疏系数得到的分类器模型,由特征模板和分类器模型组成联合目标追踪模板; 12)追踪目标图像,通过读取视频下一帧图像,构造候选图像稀疏编码直方图,构造候选图像分类器值,由候选图像稀疏编码直方图和候选图像分类器值组成的候选联合目标追踪模型,并与联合目标追踪模板之间进行相似度比较,最大相似度的为视频目标在下一帧的位置; 13)更新联合目标追踪模板,将上一步中相似度最大的候选联合目标追踪模型更新为联合目标追踪模板,以供下一帧图像的候选联合目标追踪模型进行相似度比较; 14)检查视频是否读取完毕,若读取完毕,则完成联合目标追踪,若未读取完毕,则继续进行追踪目标图像的操作。2.一种基于局部稀疏表示的联合目标追踪方法,其特征在于,所述的初始化目标特征模板包括以下步骤: 21)初始化视频第一帧目标图像位置,寻找到视频第一帧图像中目标图像的位置; 22)依据视频第一帧目标图像进行多尺度块处理,构建目标图像数据字典; 23)通过所构建的目标图像数据字典计算目标图像在多尺度下的稀疏系数,并通过稀疏系数计算出稀疏编码直方 图,将稀疏编码直方图作为特征模板; 24)在第一帧目标图像位置周围,选定一定数量的正负目标图像样本,通过计算得到相应的稀疏系数,并经过支持向量机训练出分类器模型,并将特征模板和分类器模型作为联合目标追踪模板。3.一种基于局部稀疏表示的联合目标追踪方法,其特征在于,所述的追踪目标图像包括以下步骤: 31)读取视频下一帧图像,通过粒子滤波方式在下一帧视频图像中选择一定数量的候选目标位置; 32)依次对候选目标图像进行多尺度块处理,构建图像数据字典,通过所构建的图像数据字典计算图像在多尺度下的稀疏系数,并通过稀疏系数计算出稀疏编码直方图; 33)在下一帧图像位置周围,选定一定数量的正负目标图像样本,通过计算得到相应的稀疏系数,并通过支持向量机训练出分类器值; 34)计算候选目标图像的稀疏编码直方图与第一帧特征模板之间的相似度,计算目标图像稀疏系数的分类器值与第一帧图像分类器模型的相似度,最大相似度的候选目标图像为视频目标在下一帧的位置。4.根据权利要求1所述的一种基于局部稀疏表示的联合目标追踪方法,其特征在于,所述的更新联合目标追踪模板包括以下步骤: 41)更新特征模板的公式如下: Hnew= wHfirst+(1-ω) Htemp 这里ω为更新权值,设定为0.8。Hmw表示新的特征模板; 42)更新分类器模型的方法为通过在目标图像周围采集正样本数I'={x|r>||/(x...
【专利技术属性】
技术研发人员:檀结庆,谢成军,何蕾,阿里,霍星,刘奎,白天,姚焱刚,
申请(专利权)人:合肥工业大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。