基于缩小及局部的多时相图像快速自动排序拼合方法技术

技术编号:8934723 阅读:286 留言:0更新日期:2013-07-18 03:20
本发明专利技术设计多时相图像的拼合领域,特别是基于缩小及局部的多时相图像快速自动排序拼合方法。本发明专利技术针对多时相图像的局部特征点提取,仅对图像的局部提取SURF特征点,并参与匹配。在图像定位排序的过程中,已经获得相邻图像的变换矩阵,故而,在图像排序定位的过程中,同时进行图像的拼接融合。即完成一个边排序边拼接融合的算法过程。将图像的排序和拼接融合糅合到一起,有助于减少多时相图像的全景拼合时间,提高多时相图像拼合的实时性。

【技术实现步骤摘要】

本专利技术设计多时相图像的拼合领域,特别是。
技术介绍
多时相图像排序拼合的基础,是图像间的配准问题。目前,应用较为广泛的基于特征匹配的图像配准方法,主要是SIFT (Scale InvariantFeatureTransform)和SURF(SpeededUpRobust Features)匹配方法。SIFT算法通过提取待配准图像的特征点极其特征描述子,并对其进行两两比较,找到合适的特征点对,建立图像间的对应关系。而SURF算法是SIFT算法的加速版,在opencv中封装的SURF算法,可以在适中的条件下完成两幅图像中物体的匹配基本实现了实时处理,是目前应用较为广泛的特征配准算法。但是两幅图像的匹配,已经不能满足人们生活工作的需要。在视景合成、对地观测、虚拟现实、遥感、医学等越来越多的领域,我们需要将更多的图像拼接融合到一起,形成一幅更能全面描述场景内容信息的全景图。这个过程即被称为多时相图像的自动拼合。为了正确拼合出全景图像,要求相邻两幅图像间要有一定的重叠区域,即待拼合的多时相图像在拼合之前,需要是按照实际场景内容的顺序排列的。但是在实际应用中,由于拍摄、存储和处理等过程的影响,图像的排列顺序可能会变得混乱,致使对多时相图像不能直接进行全景图像的拼接。因而,多时相图像的排序问题便成为全景图拼接过程中至关重要的问题。而现有的图像拼接算法和商用全景图拼接软件,除了对次序混乱的图像多时相根据实际场景内容的顺序来进行手动排序外,主要有两种排序算法:即相位相关法和特征匹配关系排序法。基于相位相关的多时相排序方法,用来对多时相图像进行自动排序和计算平移量。该方法即利用归一化的互功率谱,计算出图像间的相位相关度,作为图像两两之间是否重叠的判断准则,通过最大相关度求交自动确定头尾图像,再利用平移量确定整个图像链中各图像的位置关系。该方法具有较高的实时性和稳健性。但是针对相似性较大的待排序多时相图像,如草地、森林等,由于其图像间的互功率谱峰值较多,无法准确地确定图像间的顺序关系,所以相位相关法并不能准确的对图像进行排序。利用图像间SURF特征点匹配关系的排序方法,需要首先完成对每幅图像的SURF特征点的提取,以获取两两图像间特征点对的对应关系,并以此判断图像间是否有顺序关系及相应的位移。虽然SURF相对于SIFT,对图像提取的特征点数已经有所减少,但是在大图中,SURF特征点的数量仍相当可观,故而速度也相对较慢实时性比较差。EdwardY.Chang等人提出对图像的特征点较为密集的地方进行筛选,只留下部分特征点参与特征点的匹配。这在一定程度上可以缓解大图排序拼接的耗时,但是会造成一定的不稳定性。并且,对特征点的剔除,也是一个相对复杂的过程,实时性提高不大。并且,可用于匹配拼接的特征点相对集中于图像的边缘,相对重叠率高达50%的多时相图像,可用于匹配的特征点也仅仅集中于图像的一半区域内,对整幅图像提取特征点再进行特征点对的匹配,耗时就会增长。基于此,现有的多时相图像拼接算法,速度都相对较慢,尤其对于图像较大的图像。由于图像越大特征点就越大,多时相大图的排序拼合就面临着速度和精度方面的问题。
技术实现思路
本专利技术的目的是提供一种,以便通过图像缩小和局部区域提取特征点的方式,来提高单多行多时相图像排序拼合的鲁棒性、稳定性和实时性。本专利技术的技术方案是,,其特征是:包括如下步骤:步骤101:开始基于SURF的缩小局部单多行多时相图像快速排序及拼接融合过程;步骤102:导入N幅顺序混乱的多时相图像;步骤103:判断导入的N幅图像的尺寸大小,若图像尺寸过大,则进行步骤104,否则直接进行步骤105 ;步骤104:对过大的导入图像进行缩小,按照同一个缩小比率scale,缩小后的图像尺寸不小于200*200即可,缩小的过小,会造成缩小图像的分辨率过小,从而影响匹配精度;步骤105:对缩小图像或较小的原图,进行左右关系的SURF特征提取和匹配,通过特征点的匹配数目和大小关系,确定多时相图像的行数和列数; 步骤106:基于步骤105的操作,依据图像SURF特征点对的关系,辨别出属于第一列的图像,并对其进行记录;步骤107:对步骤106中记录的第一列图像,进行上下关系的SURF特征提取和匹配,通过两两图像间的匹配关系,确定出首幅图;步骤108:通过与首幅图的上下关系,可判断出首列图像间的排序关系、匹配关系及相邻图像间用于拼合的变换矩阵,并记录上下图像间的纵向位移量;以首列图像与其他图像间的左右关系,可同时确定行图像间的多时相关系及相应变换矩阵,同时记录左右图像间的横向位移量;步骤109:依据步骤108得到的图像多时相及两两图像间的变换矩阵,对多行图像进行拼接融合;步骤110:依据步骤108获取的图像间的横向和纵向位移量,得到结果图像的实际大小,以此得到大小及分辨率都合适的结果图;步骤111:基于SURF的缩小局部单多行多时相图像快速排序及拼接融合过程结束。所述的步骤105,包括如下步骤:步骤201:开始行数列数的确定过程;步骤202:定义序数K=0,行数h=0,以便开始循环过程;步骤203:对第K幅图像提取左半部分图像中的局部SURF特征点,并标记为P1 ;步骤204:对第K幅以外的图像依次提取局部特征点,并标记为P2、P3……这里用到的局部,需和步骤203中第K幅图像的局部不同,应为右半部分图像的局部;步骤205:使用图像特征点匹配方法,将特征点P1与P2、P3……依次进行匹配;步骤206:判断特征点P1与P2、P3……是否有匹配的,若有,进行步骤207,若都不匹配,则进行步骤208;步骤207:序号K进位加I ;步骤208:确定第K幅图像为某一行的首副图,即为首列图中的一幅,对其做出标记,行数h确定进一位,序数K进一位;步骤209:判断序数K是否满足条件,即判断第K幅图是否存在,若是进行步骤203,否则进行步骤210 ;步骤210:轮询结束,可以得知多行多时相图像的行数为h,则列数即为多时相图像总数η与h的比值;步骤211:行列数的判断过程结束。所述步骤107,包括如下步骤:步骤301:开始首幅图的定位过程;步骤302:定义序号K,并赋值为零;步骤303:对第K幅图,提取局部特征点,标记为P1 ;`步骤304:依次提取其他图像的局部特征点,并顺序标记为P2、P3……Ph,其中h为多时相图像的行数,由步骤210获取;步骤305:将特征点P1依次与P2、P3……Ph进行匹配,匹配算法可选择经典的SURF特征点二次匹配算法,以得到较高精度;步骤306:判断P1在步骤305中依次进行的匹配过程是否有成功匹配,若有,进行步骤308,否则进行步骤307 ;步骤307:在?1与匕、?3……Ph都不匹配的情况下,可以确定第K幅图即为首幅 步骤308:将K进位加I ;步骤309:判断K所代表的图像是否仍在第一列图像当中,若是,进行步骤303,否则进行步骤310 ;步骤310:首幅图的定位失败,即证明多时相图像的行数判断是错误的,需要重新进行步骤105判断;步骤311:结束首幅图的定位过程。所述步骤108,具有如下步骤:步骤401:开始本流程图的定位过程;步骤402:提取首幅图的局部特征点P,依次提取非首列图像的局部特征点并与P匹配,记录和定位本文档来自技高网
...

【技术保护点】
基于缩小及局部的多时相图像快速自动排序拼合方法,其特征是:包括如下步骤:步骤101:开始基于SURF的缩小局部单多行多时相图像快速排序及拼接融合过程;步骤102:导入N幅顺序混乱的多时相图像;步骤103:判断导入的N幅图像的尺寸大小,若图像尺寸过大,则进行步骤104,否则直接进行步骤105;步骤104:对过大的导入图像进行缩小,按照同一个缩小比率scale,缩小后的图像尺寸不小于200*200即可,缩小的过小,会造成缩小图像的分辨率过小,从而影响匹配精度;步骤105:对缩小图像或较小的原图,进行左右关系的SURF特征提取和匹配,通过特征点的匹配数目和大小关系,确定多时相图像的行数和列数;步骤106:基于步骤105的操作,依据图像SURF特征点对的关系,辨别出属于第一列的图像,并对其进行记录;步骤107:对步骤106中记录的第一列图像,进行上下关系的SURF特征提取和匹配,通过两两图像间的匹配关系,确定出首幅图;步骤108:通过与首幅图的上下关系,可判断出首列图像间的排序关系、匹配关系及相邻图像间用于拼合的变换矩阵,并记录上下图像间的纵向位移量;以首列图像与其他图像间的左右关系,可同时确 定行图像间的多时相关系及相应变换矩阵,同时记录左右图像间的横向位移量;步骤109:依据步骤108得到的图像多时相及两两图像间的变换矩阵,对多行图像进行拼接融合;步骤110:依据步骤108获取的图像间的横向和纵向位移量,得到结果图像的实际大小,以此得到大小及分辨率都合适的结果图;步骤111:基于SURF的缩小局部单多行多时相图像快速排序及拼接融合过程结束。...

【技术特征摘要】

【专利技术属性】
技术研发人员:刘贵喜王小娜常露聂婷王明卢海鹏
申请(专利权)人:西安电子科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1