当前位置: 首页 > 专利查询>江苏大学专利>正文

一种基于视觉的移动机器人定位方法技术

技术编号:27241091 阅读:18 留言:0更新日期:2021-02-04 12:12
本发明专利技术提供了一种基于视觉的移动机器人定位方法,包括以下步骤:S1)采集移动机器人周围环境的图像信息;S2)获取基于光流法的移动机器人的运动轨迹,同时进行关键帧的筛选;S3)基于运动轨迹构建局部地图;S4)通过局部地图获取实时环境的下一个关键帧,提取该关键帧的特征;S5)将局部地图的三维地图点投影到当前关键帧中,计算重投影误差;S6)判断重投影误差是否大于阈值,若是,则对当前关键帧进行捆集优化,对关键帧的位姿进行修正,根据该关键帧更新局部地图,进入步骤S7,若否,则进入步骤S7;S7)判断是否继续进行定位,若是,则返回步骤S2,否则结束定位。本发明专利技术既提高计算速度以及又具有一定鲁棒性。及又具有一定鲁棒性。及又具有一定鲁棒性。

【技术实现步骤摘要】
一种基于视觉的移动机器人定位方法


[0001]本专利技术涉及移动机器人定位领域,尤其涉及一种基于视觉的移动机器人定位方法。

技术介绍

[0002]随着移动机器人的不断发展,各行各业对于移动机器人的需求不断提高,诸如防疫机器人、清扫机器人以及巡检机器人等。其中,移动机器人的自主定位研究受到广泛关注,精确的定位也进一步满足后续的任务需求,比如路径规划、局部避障等。目前,移动机器人的定位有两大主流方法,即基于视觉的定位方法和基于激光雷达的定位方法。由于激光雷达的价格高昂而相机具有成本低廉、易于安装等优势,基于视觉的定位方法成为研究热点。
[0003]基于视觉的定位方法又可分为基于特征点法和光流法,其中光流法利用灰度不变的假设,采用光流跟踪的方法来进行定位,这种定位方法快速,在低纹理区域效果好,但是灰度不变是一个强假设,易受曝光和模糊影响。特征点法通过对图像帧提取特征、匹配来估计位姿,这种方法虽然不需要考虑灰度变化,但在特征点提取和匹配上消耗了大量时间。

技术实现思路

[0004]针对现有技术中存在不足,本专利技术提供了一种基于视觉的移动机器人定位方法,既提高计算速度以及又具有一定鲁棒性。
[0005]本专利技术是通过以下技术手段实现上述技术目的的。
[0006]一种基于视觉的移动机器人定位方法,包括以下步骤:
[0007]S1)采集移动机器人周围环境的图像信息;
[0008]S2)对输入的图像帧进行光流跟踪,得到基于光流法的移动机器人的运动轨迹,在图像帧进行输入的同时,进行关键帧的筛选;
[0009]S3)基于步骤S2得到的移动机器人运动轨迹构建局部地图;
[0010]S4)通过局部地图获取实时环境的下一个关键帧,并提取该关键帧的特征;
[0011]S5)将局部地图的三维地图点投影到当前关键帧中,计算重投影误差;
[0012]S6)判断重投影误差是否大于阈值,若是,则对当前关键帧进行捆集优化,对关键帧的位姿进行修正,根据该关键帧更新局部地图,进入步骤S7,若否,则直接进入步骤S7;
[0013]S7)判断是否继续进行定位,若是,则返回步骤S 2,若否,则结束定位。
[0014]优选地,所述步骤S2中在图像帧进行输入的同时,进行关键帧的筛选,具体包括以下步骤:
[0015]A1)距离上次插入关键帧至少30帧;
[0016]A2)当前帧至少跟踪到了60个点;
[0017]A3)当前帧观测到的点与上一关键帧所观测到的点重复比例小于85%。
[0018]优选地,所述步骤S4中提取关键帧的特征,具体包括以下步骤:
[0019]B1)对该关键帧进行图像网格的划分;
[0020]B2)对当前关键帧提取ORB特征;
[0021]B3)判断特征点数量,若少于1000个,则降低阈值进行提取,若多于2000个,则进行四叉树均匀化。
[0022]优选地,所述步骤B2具体包括以下步骤:
[0023]B2.1)使用9*9的高斯核对图像进行平滑处理;
[0024]B2.2)采用FAST算法检测特征点,检测候选特征点周围一圈灰度值,若该候选点周围至少有12个像素点与候选点的灰度值差大于阈值,则该候选点为一个特征点,其中计算灰度值差数学表达式为:
[0025][0026]式中:N表示特征点的个数,i表示当前候选特征点,I(i)为圆周上任一点的灰度值,I(p)为圆心处特征点的灰度值,d为阈值。
[0027]B2.3)以步骤4.2.2的特征点为圆心,以d为半径做圆;
[0028]B2.4)在步骤S4.2.3得到的圆内随机取132对点,在同一对点中,若前一个点的灰度值大于后一个点的灰度值,则取1,反之为0,形成一个132位的二进制描述子。
[0029]优选地,所述步骤S5中计算重投影误差的计算公式为:
[0030]e
i,j=
x
i,j

ρ(T
i,w
,P
w,j
)
[0031]式中:e
i,j
表示第i个关键帧中的第j个特征点对应的重投影误差,x
i,j
表示第i帧中的第j个特征点,ρ表示投影函数,T
i,w
表示第i帧的相机外参矩阵,其中w表示世界坐标系,P
w,j
表示第j个特征点对应的地图点的在世界坐标系下的坐标。
[0032]优选地,所述步骤S6中根据该关键帧更新局部地图,包括以下步骤:
[0033]C1)将当前关键帧中未出现在局部地图中的特征点加入到局部地图中;
[0034]C2)地图点在被创建后,若少于三个关键帧观测到该地图点,则在局部地图中删除该地图点;
[0035]C3)将新的特征点和地图点通过正深度检验或视差检验或重投影误差检验,剔除不合格的点。
[0036]本专利技术的有益效果:
[0037]本专利技术中基于视觉的移动机器人定位方法:采用了光流法进行移动机器人的位姿估计,通过对关键帧进行特征提取,通过地图点投影到当前关键帧的点与特征点的重投影误差约束,来进一步地优化移动机器人的位姿估计,既保留了光流法的速度,又使用特征点法来对光流法估计的初始位姿进行优化,从而提高了移动机器人的定位精度。
附图说明
[0038]图1为本专利技术实施例的一种基于视觉的移动机器人定位方法的流程图。
[0039]图2为本专利技术实施例的特征提取流程图。
具体实施方式
[0040]为了使本专利技术的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发
明的具体实施方式做详细的说明。在下面的描述中阐述了很多具体细节以便于充分理解本专利技术。但是本专利技术能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本专利技术内涵的情况下做类似改进,因此本专利技术不受于下面公开的具体实施的限制。
[0041]请参阅图1,根据本专利技术实施例的一种基于视觉的移动机器人定位方法,具体包括以下步骤:
[0042]步骤S1)通过相机设备采集移动机器人周围环境的图像信息并通过传输接口传到工控机上;
[0043]步骤S2)对输入的图像帧进行光流跟踪,得到基于光流法的移动机器人的运动轨迹,在图像帧进行输入的同时,进行关键帧的筛选;
[0044]其中,在图像帧进行输入的同时,进行关键帧的筛选,具体包括以下步骤:
[0045]A1)距离上次插入关键帧至少30帧;
[0046]A2)当前帧至少跟踪到了60个点;
[0047]A3)当前帧观测到的点与上一关键帧所观测到的点重复比例小于85%。
[0048]步骤S3)基于光流法得到的移动机器人运动轨迹构建局部地图;
[0049]步骤S4)通过局部地图获取实时环境的下一个关键帧,并提取该关键帧的特征;
[0050]其中,如图2所示,提取该关键帧的特征,具体步骤如下:
本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于视觉的移动机器人定位方法,其特征在于,包括以下步骤:S1)采集移动机器人周围环境的图像信息;S2)对输入的图像帧进行光流跟踪,得到基于光流法的移动机器人的运动轨迹,在图像帧进行输入的同时,进行关键帧的筛选;S3)基于步骤S2得到的移动机器人运动轨迹构建局部地图;S4)通过局部地图获取实时环境的下一个关键帧,并提取该关键帧的特征;S5)将局部地图的三维地图点投影到当前关键帧中,计算重投影误差;S6)判断重投影误差是否大于阈值,若是,则对当前关键帧进行捆集优化,对关键帧的位姿进行修正,根据该关键帧更新局部地图,进入步骤S7,若否,则进入步骤S7;S7)判断是否继续进行定位,若是,则返回步骤S2,若否,则结束定位。2.根据权利要求1所述的基于视觉的移动机器人定位方法,其特征在于,所述步骤S2中在图像帧进行输入的同时,进行关键帧的筛选,具体包括以下步骤:A1)距离上次插入关键帧至少30帧;A2)当前帧至少跟踪到了60个点;A3)当前帧观测到的点与上一关键帧所观测到的点重复比例小于85%。3.根据权利要求1所述的基于视觉的移动机器人定位方法,其特征在于,所述步骤S4中提取关键帧的特征,具体包括以下步骤:B1)对该关键帧进行图像网格的划分;B2)对当前关键帧提取ORB特征;B3)判断特征点数量,若少于1000个,则降低阈值进行提取,若多于2000个,则进行四叉树均匀化。4.根据权利要求1所述的基于视觉的移动机器人定位方法,其特征在于,所述步骤B2具体包括以下步骤:B2.1)使用9*9的高斯核对图像进行平滑处理;B2.2)采用FAST算法检测特征点,检测候选特征点周围一圈灰度值,若该候选点周围至少有12个...

【专利技术属性】
技术研发人员:顾寄南许昊董瑞霞
申请(专利权)人:江苏大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1