本发明专利技术公开了一种基于场景全局特征的模板匹配方法,用于根据目标模板检测图像中同类目标。该方法对场景图像逐像素点遍历提取与模板图像相同区域范围的搜索子图,计算每个搜索子图与模板图像的相关性,依据搜索子图与模板图像的相关性越大,该搜索子图对应的遍历像素点成为目标点可能性越大的准则选取候选目标像素点,在候选目标像素点中确定最终目标点。本发明专利技术关键之处在于利用全局特征来度量搜索子图与模板图像的相关性,全局特征是通过把模板和子图的相关性放到场景后计算整个场景的特征得到的,全局特征是整个场景的特征,带有一定的语义信息,使得目标检测的准确性提高。
【技术实现步骤摘要】
本专利技术属于图像处理方法,具体涉及,运用于根据目标模板检测图像中同类目标。
技术介绍
模板匹配是图像处理中经典的方法,其中模板就是一幅已知的小图像,在目标检测任务中模板是一个目标的实例;模板匹配就是在一幅大图像中搜索目标,确定其坐标位置,在目标检测任务中就是要找到所有的该类目标的实例,这个大图像称为场景图像。比如,我们在执行汽车检测的任务,模板就是一幅汽车的图像,模板匹配就是根据这个模板的信息在场景图像中找到所有的汽车,并确定其位置。 模板匹配的搜索过程就是将模板叠放在大图像上平移,模板覆盖被搜索图的那个区域叫做子图。传统的模板匹配方法是基于灰度值的,即通过度量模板与子图之间的灰度相关性来确定目标的位置,这种方法有很大的局限性,比如光照变化等情况对于图像灰度值的影响是很大的。因此有很多基于特征的模板匹配方法,利用模板与子图的特征之间的相关性来确定目标位置,因为特征的鲁棒性,在一定程度上提高了匹配的性能。基于特征的模板匹配方法已经在目标检测任务中得到广泛的应用。 模板匹配的方法非常简单,同时又非常的有效,但是模板匹配在目标检测时还有很多地方可以改进。模板匹配的性能很大程度上依赖于特征的性能,特征的分类性能越好模板匹配的效果也越好。以上所提及的方法都是基于局部特征的,而局部特征在目标检测时也有一定的局限性,比如目标被遮挡、目标姿态变化、同类目标的不同外观,目标视点变化和成像条件很差等情况。
技术实现思路
本专利技术的目的是提出一种基于全局特征的模板匹配方法,把模板与子图放到场景上下文中来度量模板与子图的相关性,提高目标检测的准确性。 一种基于全局特征的模板匹配方法,具体步骤为 (1)计算场景图像的特征H(k),1≤k≤K0,K0为特征维度; (2)对场景图像逐像素点遍历提取与模板图像相同区域范围的搜索子图,计算每个搜索子图与模板图像的相关性; 相关性计算方法具体为在遍历像素点(i,j),将其对应搜索子图S(i,j)的内容替换为模板图像中的内容,并计算替换后对应场景图像的全局特征Gi,j(k),计算搜索子图S(i,j)与模板图像的相关性 (3)在场景图像中,依据搜索子图与模板图像的相关性越大,该搜索子图对应的遍历像素点成为目标点可能性越大的准则选取候选目标像素点; (4)对于每一个候选目标像素点,在场景图像中以其为中心选取局部感兴趣区,若局部感兴趣区内该候选目标像素点对应的相关性大于该区内其它像素点对应的相关性,则确认该候选目标点为最终目标点。 本专利技术采用的搜索过程中,利用全局特征来度量模板和子图的相关性,其中全局特征是通过把模板和子图的相关性放到场景后计算整个场景的特征得到的,基于全局特征的模板匹配方法比传统的使用局部特征(模板和子图范围内的特征)的模板匹配方法可以更准确的检测到目标,本专利技术中使用的全局特征是整个场景的特征,带有一定的语义信息,使得目标检测的准确性提高;本专利技术采用的确定位置的过程充分利用了周围的相关性的信息,得到了更精确的目标位置信息。 附图说明 图1是本专利技术流程图; 图2是模板图像; 图3是场景图像; 图4搜索过程中,位置为(20,30)时的示意图; 图5是位置为(20,30)时替换后的场景图像; 图6是将相关性结果显示为位图; 图7是对相关性结果阈值分割后结果; 图8是检测结果图像; 图9是梯度方向角量化示意图; 图10是图像分为两层的示意图。 具体实施例方式 本专利技术步骤流程如图1所示,现举例说明 给出实际的模板图像T(m,n)和场景图像F(x,y),分别如图2和图3所示,其中1≤m≤M,1≤n≤N,1≤x≤W,1≤y≤H,模板图像的宽度M=138和高度N=69,场景图像的宽度W=256和高度H=256。 (1)计算场景图像的特征 计算整个场景的特征,一般采用统计低级特征的方法,这里的的低级特征包括灰度值,边缘,梯度幅值,梯度方向,滤波器(Gabor滤波器,DoG滤波器等)等。本专利技术中使用梯度方向的统计,其统计结果表示为直方图H(k),其中1≤k≤K0,特征的维度K0=80; (2)对场景图像逐像素点遍历提取搜索子图,计算各搜索子图与模板图像的相关性。 在每个搜索像素点位置(i,j),计算模板图像与搜索子图Si,j(m,n)的相关性D(i,j),其中(i,j)为搜索子图左上角像素点在场景图像F(x,y)上的坐标,搜索范围为1≤i≤W-M=118,1≤j≤H-N=187,搜索子图大小与模板大小相同,即为138×69,图4给出了在256×256的场景中搜索的示意图,此时搜索的像素点位置(i,j)=(20,30)。 (2.1)把子图Si,j(m,n)的内容替换为模板T(m,n),称为替换后场景图像,记为Ci,j(x,y),i=20,j=30时的替换后场景图像如图5所示; (2.2)计算替换后场景图像Ci,j(x,y)的全局特征,这里我们同样计算场景图像的梯度方向直方图Gi,j(k); (2.3)通过计算替换前场景图像和替换后场景图像的全局特征的相关性来度量子图Si,j(m,n)与模板T(m,n)的相关性,计算公式为 搜索完成后得到的D(i,j)是一个118×187的矩阵。将D(i,j)归一化到0~255,显示为位图,如图6所示。 (3)选取候选目标点。 依据相关性结果对场景图像的像素点进行阈值分割,以突出目标存在可能性大的像素点,将其作为候选目标点。实例中具体操作方法为若D(i,j)大于等于相关性阈值r,则场景图像中像素(i,j)的值置为1,反之(i,j)的值置为零。相关性阈值r的选择依据为r=0.95×(Vmax-Vmin)+Vmin,其中Vmax和Vmin分别为D(i,j)的最大值和最小值。实例中Vmax=0.9579和Vmin=0.7962,所以r=0.95×(Vmax-Vmin)+Vmin=0.9498。将D(i,j)大于等于0.9498的位置对应场景图像中的位置的像素值置为1,小于0.9498的位置的像素值置为零,分割结果显示如图7所示,右下方的缺口白色区域内的像素点即为候选目标点。 (4)确认最终目标点。 为了精确的确定目标的位置,确认最终的目标点需要考虑到候选目标邻域的信息,该邻域称为感兴趣区。感兴趣区的宽度和高度的范围分别为和,本实例中使用的感兴趣区的宽度和高度分别为M/2=69和N/2=34。对于每一个候选目标点逐像素搜索,以其为中心选取局部感兴趣区,如果该候选目标点对应的相关性是该感兴趣区内的最大值点,说明这个候选目标点有更大的可能成为最终目标点。 为了排除孤立的噪声点的干扰,在极大值判断的基础上进一步计算该极值点的邻域支持度,即该局部感兴趣内候选目标点的个数。实例中,在上述的69×34的窗口中只有一个最大值点,位置为(118,153),其邻域支持度为148;对于该实例中得到的唯一的最大值点,其邻域支持度大于支持度阈值q=(M/2)×(N/2)/100=23,因此该位置即是最后的目标位置,图8标出了最后的检测结果。 本专利技术所依据的全局特征梯度方向直方图的计算原理如下图像采用灰度值F(x,y)表征,(x,y)表示图像内像素点坐标 1本文档来自技高网...
【技术保护点】
一种基于全局特征的模板匹配方法,具体步骤为:(1)计算场景图像的特征H(k),1≤k≤K↓[0],K↓[0]为特征维度;(2)对场景图像逐像素点遍历提取与模板图像相同区域范围的搜索子图,计算每个搜索子图与模板图像的相关性;相关性计算方法具体为:在遍历像素点(i,j),将其对应搜索子图S(i,j)的内容替换为模板图像中的内容,并计算替换后对应场景图像的全局特征G↓[i,j](k),计算搜索子图S(i,j)与模板图像的相关性:D(i,j)=*H(k)×G↓[i,j](k)/***;(3)在场景图像中,依据搜索子图与模板图像的相关性越大,该搜索子图对应的遍历像素点成为目标点可能性越大的准则选取候选目标像素点;(4)对于每一个候选目标像素点,在场景图像中以其为中心选取局部感兴趣区,若局部感兴趣区内该候选目标像素点对应的相关性大于该区内其它像素点对应的相关性,则确认该候选目标点为最终目标点。
【技术特征摘要】
【专利技术属性】
技术研发人员:高常鑫,桑农,唐奇伶,孙彬,高峻,笪邦友,黄锐,蒋良卫,
申请(专利权)人:华中科技大学,
类型:发明
国别省市:83
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。