本发明专利技术公开了一种基于多尺度语义模型的高分辨率遥感目标提取方法,涉及遥感图像技术,包括以下步骤:建立高分辨率遥感地物目标图像数据集;对训练集中的图像进行多尺度分割,得到目标的候选图像区域块;构建目标的语义模型,计算目标的隐含类别语义特征;对所有层次的候选图像块,进行语义特征分析;最后计算候选区域与目标模型的语义相关系数,并通过最大化语义相关系数提取目标。本发明专利技术方法综合利用图像的多尺度分割和目标类别语义信息进行高分辨率遥感图像中的目标提取,提取结果准确、鲁棒性好、适用性高,减少了人工参与程度,在地理信息系统和数字地球系统建设中具有一定的实用价值。
【技术实现步骤摘要】
本专利技术涉及遥感图像信息处理领域中关于目标提取的方法,尤其是一种通过构建目标的语义模型来实现对高分辨率遥感图像中地物目标进行提取的方法,是一种综合利用图像多尺度信息和目标类别语义模型来进行高分辨率遥感图像中地物目标提取的方法。
技术介绍
高分辨率遥感图像中的分辨率是指空间分辨率,其度量方法是单位像元对应的地面面积的大小。20世纪80-90年代的主要卫星遥感数据源是Landsat和Spot的卫星数据,分辨率为10-30m,现在只能称为中等分辨率图像。1999年Ikonos和2001年QuickBird的发射成功,提高了遥感图像的空间分辨率。Ikonos的全波段分辨率为lm,QuickBird的全波段分辨率达到O. 61m。目前对于卫星遥感数据分辨率的划分,还没有一个统一明确的观点。一般认为2米左右或者分辨率高于2米的图像为高分辨率图像。高分辨率卫星影像能及时、 准确地提供大量多时相、多波段的地物目标观测数据。传统遥感信息提取的实现方式依赖对遥感图像的人工目视解译,这种方法耗时多、周期长,影响了遥感技术作用的发挥。现代计算机性能的上升以及模式识别技术的进步使得遥感信息的自动提取成为可能。目前,目标提取和人工智能、机器学习等方面紧密相关,成为计算机研究与应用领域的一个热点。一般的目标提取方法往往采用人工识别、手动标绘,耗费大量的时间,效率非常低。一些半自动的人工交互式图像分割技术在自然场景的目标提取取得了较好的效果,如Graph Cut, Grab Cut等。但是这种半自动的交互式图像分割技术效率较低,并且需要用户输入来确定一些像素的类别。为了提高效率,人们开始研究如何有效地自动提取目标Fergus和Peixma等提出了星座模型,将目标模型视为包括一系列片段的组合,每个部分具有各自的特性,通过最大化模型似然函数以实现对目标类型的学习与识别。(见R. Fergus,P. Perona,A. Zisserman. A Visual Category Filter for Google Images. Proceedings ofEuropean Conference on Computer Vision,2004,3021 :242-256.)但是为了保证识别精度,这类模型一般复杂度较高,而且方法中还需要在样本图像中详细标注出目标的类别和具体位置,增加了训练的工作量。为此,很多研究者借鉴文本分析中的Bag-of-words方法,弓丨入主题模型,直接从图像中学习图像的内容将图像比作文本,将图像中存在的目标比作文本主题,不同的目标对应不同的主题。图像看作是多主题的混合,从而主题的信息决定了图像中的目标信息。Li Fei-Fei等釆用LDA(Latent Dirichlet Analysis)模型,(见L.Fei-Fei, P.Perona. A bayesian hierarchical model for learning natural scenecategories. Proc. of IEEE Computer Vision and Pattern Recognition,2005,524-531.)Zisserman 等米用 PLSA(Probabilistic Latent Semantic Analysis)模型,(见 A. Bosch,A.Zisserman, X. Munoz. Scene classification via PLSA. In !Proceedings of EuropeanConference on Computer Vision. Graz, Austria Springer, 2006, 517-530.) 二者将图片分成固定大小的网格,每个网格使用归一化的灰度值和统一的描述子组成特征向量,通过学习生成不同场景的词汇表,提取图像的主题分布信息,对图像场景具有较高的识别率。然而,这些方法从全局信息出发通过主题分布提取图像类别信息和图像中的目标信息,却不能够获取这些目标的准确位置,更加不能准确提取出目标。同时,对于复杂图像来说,由于图像的复杂性、存在目标结构的多样性,以及目标自身的类内方差的存在,图像中的不同目标的最佳分割尺度并不相同,单一尺度的分割会造成图像中目标的过分割。
技术实现思路
本专利技术的目的是提供一种基于多尺度语义模型的遥感目标提取方法,首先通过多尺度分割,获取目标的候选图像区域;然后采用主题模型建模,以概率直方图的形式表达目标内包含的隐含特征和语义规律;最终由这些隐含语义特征构成目标的语义模型,通过最大化语义相关系数,实现目标的自动提取。本专利技术克服了现有高分辨率遥感图像中人造地物目标提取方法中存在的误检问题,提高了提取的准确性和智能性,减少了人工参与的程度,能够满足复杂结构目标的自动提取和图像解译需求。本专利技术解决了如何综合利用图像的多尺度分割和目标类别语义模型来进行高分辨率遥感图像中地物目标的自动提取问题。为达到上述目的,本专利技术的技术解决方案如下 ,其包括以下步骤第一步,对分辨率为I米的高分辨率遥感图像进行多尺度分割,建立感兴趣目标候选区域集;第二步,采用LDA(Latent Dirichlet Allocation)方法对目标进行语义建模,计算目标包含的隐含类别语义特征;第三步,获取目标候选区域所有图像块的词的分布直方图集合,对每一个候选区域进行语义系数计算,判定图像块的语义属性;第四步,采用多尺度分割与语义分析相结合的多尺度语义模型对目标进行自动提取按照第一步所述获得待识别图像的多尺度结构,从该多尺度结构中选取候选区域块b1;b2,. . . K,提交给目标对象的语义模型,获得各个区域块的匹配相似度Sl,S2, . . . \,选取最优相似Sbest = arg maxs S1对应的尺度即为目标的最优结构,还原对应的区域块,即得到目标的所在区域。所述的遥感目标提取方法,其所述第一步,具体方法是a)对于特定的遥感目标类别,选取200幅图像作为该类目标图像集b)对高分辨率遥感目标图像集中的图像,采用多尺度方法进行分割明确尺度I下各个层次的分割对象块数K1 ;将给定的第I层图像视为四向连接图,把Normalized-CUt分割算法与每层分割对象块数K1相关联,获取图像分割结果;c)在目标各个候选区域、尺度I和分割对象块数K1之间构建对应关系。所述的遥感目标提取方法,其所述第二步,具体方法是a)把分割获得的每个图像块区域作为处理对象,提取各个图像块中的Harris-Affine特征和宽基线特征MSER,并对获得的每一个特征采用SIFT描述子,得到一个128维的特征向量;b)使用K-Means聚类方法对代表集中所有图像各个层次上的特征进行量化,每个聚类中心的取值对应一个视觉单词,构成通用视觉词汇表,可通过改变聚类中心个数调整单词个数N;C)、对分割获得的图像区域块中的每一个特征进行视觉单词映射描述,应用LDA分析方法构建出目标的语义模型,求解模型参数后计算得到目标对应的隐含主题语义分布规律,包括以下步骤Cl、约定映射关系,即令特征描述子对应视觉单词W,为N个单词集合中的一项,图像区域块对应文档D,由M个单词序列D= {w1; w2, , wM}组成;c2、随机本文档来自技高网...
【技术保护点】
一种基于多尺度语义模型的高分辨率遥感目标提取方法,其特征在于,包括以下步骤:第一步,对分辨率为1米的高分辨率遥感图像进行多尺度分割,建立感兴趣目标候选区域集;第二步,采用LDA方法对目标进行语义建模,计算目标包含的隐含类别语义特征;第三步,获取目标候选区域所有图像块的词的分布直方图集合,对每一个候选区域进行语义系数计算,判定图像块的语义属性;第四步,采用多尺度分割与语义分析相结合的多尺度语义模型对目标进行自动提取:按照第一步所述获得待识别图像的多尺度结构,从该多尺度结构中选取候选区域块b1,b2,...bL,提交给目标对象的语义模型,获得各个区域块的匹配相似度s1,s2,...sL,选取最优相似sbest=arg?maxs?sl对应的尺度即为目标的最优结构,还原对应的区域块,即得到目标的所在区域。
【技术特征摘要】
【专利技术属性】
技术研发人员:李宇,孙显,王宏琦,
申请(专利权)人:中国科学院电子学研究所,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。