一种视觉闭环检测方法技术

技术编号:21399755 阅读:32 留言:0更新日期:2019-06-19 07:12
本发明专利技术公开了一种视觉闭环检测方法,所述方法包括:S1,使用激光传感器采集场景图像并进行预处理;S2,提取场景的几何结构特征;S3,提取场景的视觉特征;S4,用数据降维方法融合几何结构特征和视觉特征;S5,使用融合特征进行闭环检测。本发明专利技术的基于多特征融合的闭环检测系统及方法通过场景外观的视觉特征与几何结构特征融合,获得了健壮的场景特征表示,并利用特征匹配的几何空间约束减少场景匹配中的“感知混淆”,减少误检率,因此本发明专利技术方案具有良好的可拓展性和健壮性。

【技术实现步骤摘要】
一种视觉闭环检测方法
本专利技术涉及闭环检测技术,具体涉及视觉闭环检测方法。
技术介绍
随着各项性能的提高,服务机器人可以在人们日常生活中完成越来越多的任务,比如打扫卫生、移动物体等等。为了使任务完成得更加流畅,机器人必须对周围的环境进行更详细和准确的感知和认识。地图表示是机器人定位与建图的基础,即采用场景中的某些特殊的点、线、面或场景图像里的一些视觉特征表征机器人的位姿,通过对该类特征进行匹配比较,即可推测机器人当前的位姿。闭环检测对于提高机器人地图表示算法的稳定性有着极其重要的作用,闭环检测的基本定义是机器人在探索过程中不停的检测是否回到了一个过去已经访问过的位置。这种检测方法可以提高机器人实际的位置估计精度,确认之前是否通过这一区域同样也涉及到全局定位问题,甚至对解决机器人绑架问题都十分有益。主流的闭环检测方法依赖于视觉特征,即通过摄像头采集室内环境中物体和背景的视觉特征,通过视觉特征匹配,进行闭环检测。然而室内环境中大量重复出现的视觉场景如门窗等会导致视觉特征匹配的“感知混淆”现象。此外,基于视觉特征的方法并不能充分利用室内环境中几何场景的结构化、半结构化特征。
技术实现思路
本专利技术目的在于克服现有技术的不足,尤其解决室内环境中大量重复出现的视觉场景如门窗会导致视觉特征匹配的“感知混淆”现象的问题,以及基于视觉特征的方法并不能充分利用室内环境中几何场景的结构化、半结构化特征的问题。为解决上述技术问题,本专利技术提供一种视觉闭环检测方法,所述方法包括:S1,使用激光传感器采集场景图像并进行预处理;S2,提取场景的几何结构特征;S3,提取场景的视觉特征;S4,用数据降维方法融合几何结构特征和视觉特征;S5,使用融合特征进行闭环检测。该专利技术方案的有益效果在于,通过场景外观的视觉特征与几何结构特征融合,获得了健壮的场景特征表示,并利用特征匹配的几何空间约束减少场景匹配中的“感知混淆”,减少误检率,因此本专利技术方案具有良好的可拓展性和健壮性。附图说明图1是本专利技术的实施例的视觉闭环检测方法的流程图。具体实施方式下面结合附图及具体实施例对本专利技术进行更加详细与完整的说明。可以理解的是,此处所描述的具体实施例仅用于解释本专利技术,而非对本专利技术的限定。图1是本专利技术的实施例的视觉闭环检测方法包括:S1、使用激光传感器采集场景图像并进行预处理;S2、提取场景的几何结构特征;S3、提取场景的视觉特征;S4、用数据降维方法融合几何结构特征和视觉特征;S5、使用融合特征进行闭环检测。此外,所述S2提取场景的几何特征操作可使用方向梯度直方图(HOG特征)、不变矩特征或其他合适的几何结构特征表示方法。HOG特征是通过计算和统计图像局部区域的梯度方向直方图来构成特征,用于描述物体的边缘;不变矩特征使用对变换不敏感的基于区域的几个矩作为形状特征,表达了图像区域的几何特征,具有旋转、平移、尺度等特性的不变特征。下面采用不变矩特征对本实施例进行说明。所述S3提取场景的视觉特征操作可使用尺度不变特征变换(SIFT)特征、加速鲁棒(SUFR)特征或其他合适的视觉特征表示方法。SIFT特征是一种常用的图像局部表示特征方法,使用高斯差分金字塔,在多尺度空间下计算稳定的特征点,并采用特征点及邻近区域构建局部特征描述。SUFR特征是对SIFT特征的一种加速实现,也具有尺度不变性和旋转不变性。下面采用SIFT特征对本实施例进行说明。所述S5使用融合特征进行闭环检测操作中的相似度计算操作可使用kmeans聚类、模糊C均值聚类或其他适合的聚类方法。kmeans聚类是一种常见的基于距离的聚类方法,认为两个对象距离越小,其相似度越大。模糊C均值聚类使用模糊理论对样本类别进行不确定描述,客观反映现实世界。下面采用kmeans聚类对本实施例进行说明。具体而言,本实施例描述如下:步骤S1:使用激光传感器采集场景图像并进行预处理。经过激光传感器对周围场景进行扫描后,得到多个离散的激光扫描点返回的点状数据,由于原始激光扫描数据携带噪声,扫描所得的场景并不完全符合场景表示,因而需要对激光扫描进行的预处理。采用自适应邻近点簇分割方法进行邻近点分簇,如公式(1)所示:Δl=mρk-1Δφ(1)其中,ρk-1为前一点的观测值,Δl为相邻点的距离,Δφ为两相邻扫描点对应的偏转角度,m为经验系数。若实际两点距离小于Δl则认为是邻近点簇。步骤S2:提取场景的几何结构特征。将图像表示为灰度分布函数f(x,y),零阶矩M00表示灰度级的质量,一阶矩(M01,M10)表示,(xc,yc)圆心坐标为原点,图像中心矩表示为:Mpq=∫∫[(x-xc)p]×[(y-yc)q]f(x,y)dxdy(2)其中,p和q表示矩的阶数,则不变矩特征{I1,I2,I3,I4,I5}由多个高阶不变矩组合而成,每个高阶矩均由中心矩计算得来,计算公式如下:I1=M20+M02(3)I2=(M20-M02)2+(2M11)2(4)I3=(M30-3M12)2+(3M21-M03)2(5)I4=(M30+M12)2+(M21+M03)2(6)步骤S3:提取场景的视觉特征。具体包括以下操作:S31:计算图像水平梯度和垂直梯度。利用水平、垂直差分算子对图像每个像素点(x,y)进行滤波以求取水平梯度lx和垂直梯度ly,如公式(8)所示。S32:计算图像Harris角点。每个像素点(x,y)的Harris角点值c(x,y)如公式(9)所示。当c(x,y)的值大于给定的阈值时,则认为该像素点是一个Harris角点。S33:构建多尺度图像空间。对于一副图像,通过下采样得到不同尺寸的子图像,将子图像与高斯卷积核相乘进行卷积计算,从而得到多尺度图像空间。S34:寻找尺度空间的极值点。每一个Harris角点要和它所有的相邻点比较,看其是否比它的图像域和尺度域的相邻点大或者小。采样点和它同尺度的8个相邻点和上下相邻尺度对应的9×2个点共26个点比较,以确保在尺度空间和图像空间都检测到极值点。一个Harris角点如果在多尺度图像空间本层以及上下两层的26个领域中是最大或最小值时,就认为该点是图像在该尺度下的一个极值点。S35:计算SIFT特征。利用特征点邻域像素的梯度方向分布特性为每个关键点指定方向参数,计算该特征点梯度的模值和方向。在特征点邻域4×4的小块上计算8个方向的梯度方向直方图,绘制每个梯度方向的累加值,形成一个4×4×8=128维的直方图,即SIFT特征。步骤S4:用数据降维方法融合几何结构特征和视觉特征。对不同维的几何特征与视觉特征进行规一化连接得到特征向量,计算特征向量自相关矩阵R,对R进行特征分解,分别得到特征值矩阵U和对应的特征向量矩阵Λ分解,矩阵的每一列向量均包含了X的信息,可视为X的融合特征,前m个较大的特征值对应的特征向量构造变换矩阵T,通过对原始归一化特征进行K-L变换:Y=T×X,即得到降维后的场景外观融合特征Y。步骤S5:使用融合特征进行闭环检测操作包含词汇表训练、相似度计算操作。S51:词汇表训练。使用kmeans聚类方法构建特征单词表,随机选择多个特征向量作为中心向量,将特征集合中的其他特征分配给距离最近的中心向量,通过公式(10)计算并更新中心向量的平均值,并通过公式(11)计算准则函数E。当E满足阈本文档来自技高网...

【技术保护点】
1.一种视觉闭环检测方法,其特征在于,包括如下步骤:S1、使用激光传感器采集场景图像并进行预处理;S2、提取场景的几何结构特征;S3、提取场景的视觉特征;S4、用数据降维方法融合几何结构特征和视觉特征;S5、使用融合特征进行闭环检测。

【技术特征摘要】
1.一种视觉闭环检测方法,其特征在于,包括如下步骤:S1、使用激光传感器采集场景图像并进行预处理;S2、提取场景的几...

【专利技术属性】
技术研发人员:覃争鸣周健李康
申请(专利权)人:广州映博智能科技有限公司
类型:发明
国别省市:广东,44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1