本发明专利技术提供了一种机器人、行驶路径的确定方法、装置、存储介质及电子装置,其中,该机器人包括:目标深度相机,所述目标深度相机安装于机器人的距离地面预定高度h位置处,所述目标深度相机的第一检测接地点与所述机器人的本体重合;其中,所述目标深度相机是通过如下方式选取的:根据r和h确定目标视场角a,其中,r为预设的所述机器人能够检测到的区域的最远接地点与所述第一检测接地点之间的距离;选取视场角大于或等于a的深度相机作为所述目标深度相机。通过本发明专利技术,有效解决相关技术中存在的常规的深度相机的安装方式会导致深度相机存在检测盲区等限制问题。存在检测盲区等限制问题。存在检测盲区等限制问题。
【技术实现步骤摘要】
机器人、行驶路径的确定方法、装置及存储介质
[0001]本专利技术涉及通信领域,具体而言,涉及一种机器人、行驶路径的确定方法、装置、存储介质及电子装置。
技术介绍
[0002]避障是机器人自主导航中不可或缺的模块。虽然机器人会在其活动范围内提前通过一种或几种传感器建立地图并标记障碍物,但由于建图本身的精度、场景随时间变化而变化以及动态障碍物的存在,避障问题,尤其是障碍物的感知问题并没有得到很好的解决。
[0003]此外,在相关技术中,会利用深度相机进行障碍物的检测,但是常规的深度相机的安装方式会导致深度相机存在检测盲区等限制问题。
[0004]针对相关技术中的上述问题目前尚未提出有效的解决方案。
技术实现思路
[0005]本专利技术实施例提供了一种机器人、行驶路径的确定方法、装置、存储介质及电子装置,以至少解决相关技术中存在的常规的深度相机的安装方式会导致深度相机存在检测盲区等限制问题。
[0006]根据本专利技术的一个实施例,提供了一种机器人,包括:目标深度相机,所述目标深度相机安装于机器人的距离地面预定高度h位置处,所述目标深度相机的第一检测接地点与所述机器人的本体重合;其中,所述目标深度相机是通过如下方式选取的:根据r和h确定目标视场角a,其中,r为预设的所述机器人能够检测到的区域的最远接地点与所述第一检测接地点之间的距离;选取视场角大于或等于a的深度相机作为所述目标深度相机。
[0007]根据本专利技术的另一个实施例,提供了一种行驶路径的确定方法,应用于上述所述的机器人中,包括:获取所述目标深度相机拍摄的目标场景的深度图;将所述深度图划分为预定数量的子区域;确定各个所述子区域的类型,其中,所述类型包括以下之一:平面区域、存在障碍物的障碍区域、除所述平面区域和所述障碍区域之外的其他区域;基于各个所述子区域的类型确定所述机器人的行驶路径。
[0008]根据本专利技术的另一个实施例,还挺了一种行驶路径的确定装置,应用于上述所述的机器人中,包括:获取模块,用于获取所述目标深度相机拍摄的目标场景的深度图;划分模块,用于将所述深度图划分为预定数量的子区域;第一确定模块,用于确定各个所述子区域的类型,其中,所述类型包括以下之一:平面区域、存在障碍物的障碍区域、除所述平面区域和所述障碍区域之外的其他区域;第二确定模块,用于基于各个所述子区域的类型确定所述机器人的行驶路径。
[0009]根据本专利技术的又一个实施例,还提供了一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述方法实施例中的步骤。
[0010]根据本专利技术的又一个实施例,还提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述方法实
施例中的步骤。
[0011]通过本专利技术,在机器人上安装的目标深度相机是具有特定视场角的深度相机,且在安装该目标深度相机时采用了特定的安装方式,使得目标深度相机能够检测到的最近区域与机器人重合且能够检测到的最远区域能够达到预设的区域,避免了检测盲区,有效解决相关技术中存在的常规的深度相机的安装方式会导致深度相机存在检测盲区等限制问题。
附图说明
[0012]此处所说明的附图用来提供对本专利技术的进一步理解,构成本申请的一部分,本专利技术的示意性实施例及其说明用于解释本专利技术,并不构成对本专利技术的不当限定。在附图中:
[0013]图1是根据本专利技术实施例的机器人的结构框图;
[0014]图2是根据本专利技术实施例的行驶路径的确定方法;
[0015]图3是根据本专利技术实施例的行驶路径的确定装置的结构框图;
[0016]图4是根据本专利技术实施例的电子装置的结构框图。
具体实施方式
[0017]下文中将参考附图并结合实施例来详细说明本专利技术。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
[0018]需要说明的是,本专利技术的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
[0019]在实际应用中,本专利技术针对的场景并不仅限于传统工业机器人的工厂场景,还可以应用于更复杂的环境中。其中,更复杂的环境中会包括较难处理的目标障碍物,该较难处理的目标障碍物包括但不限于诸如:场景中散落在地上的小物体,凸起或凹陷的台阶,桌子和椅子腿以及人的脚背等。常用的传感器包括激光雷达、超声波传感器、普通摄像头和深度相机等,机器人则多会配置一种或多种传感器配合使用。
[0020]其中,超声波传感器主要用于检测特殊的玻璃、镜面等,但检测距离近,精度和分辨率低,对小物体无法识别,且不同超声波传感器之间容易相互干扰。
[0021]普通摄像头理论上可以通过图像帧间进行structure-from-motion的三维场景重建,但复杂度高且不稳定;同时也有越来越多使用深度学习方法的方案,直接从图像中估计障碍物,但这类工作在实际应用中会有诸多难以解决的问题。
[0022]深度相机和激光雷达等则可以直接测量出场景中物体的距离,通过对三维世界的观测,直接得到障碍物,从而有效的建立障碍物地图。
[0023]本方法主要解决了障碍物检测中的盲区问题。目前机器人的应用中,最常见的传感器即激光雷达,其在360度水平视场角内使用发射激光进行测距,在工作范围内,绝大多数的障碍物对激光的反射被激光雷达观测到,并能计算出mm到cm级别的距离测量值。但由于成本问题,多数用于障碍物检测的激光雷达为单线激光雷达,其水平视场角有360度,但垂直视场角为0,扫面范围仅为一个平面。
[0024]硬件属性决定了基于激光雷达的检测障碍物时严重依赖于其安装高度。例如,当其安装高度为10cm时,10cm以下的障碍物无法感知。当安装高度过低时,则可能因为地面是
否平整造成障碍物的误检。
[0025]此外,对于桌子、椅子等障碍物的桌腿、椅腿,由于其细长的特性,会造成漏检。而地面上的凹陷,例如下楼的台阶,也同样无法感知,会造成机器人的跌落。除了激光雷达外,深度相机也常用于障碍物的检测,它也存在视场角FOV(field of view)和盲区等限制问题,需要结合具体的应用场景,来设计安装方案来确定有效检测范围。
[0026]针对上述问题,在本专利技术实施例中所采用的深度相机俯视安装的方式能够有效避免障碍物检测中的盲区,提升了检测效率。其中,深度相机的垂直方向的视觉决定了检测点与机器人的距离。可以通过调整相机的俯视角,使得最近检测接地点与机器人的本体重合,从而彻底避免了盲区。下面结合实施例对本专利技术进行说明:
[0027]在本专利技术实施例中,提供了一种机器人,如图1所示,该机器人包括:目标深度相机12,所述目标深度相机12安装于机器人的距离地面预定高度h位置处,所述目标深度相机12的第一检测接地点与所述机器人的本体重合;其中,所述目标深度相机12是通过如下方式选取的:根据r和h确定目标视场角a,其本文档来自技高网...
【技术保护点】
【技术特征摘要】
1.一种机器人,其特征在于,包括:目标深度相机,所述目标深度相机安装于机器人的距离地面预定高度h位置处,所述目标深度相机的第一检测接地点与所述机器人的本体重合;其中,所述目标深度相机是通过如下方式选取的:根据r和h确定目标视场角a,其中,r为预设的所述机器人能够检测到的区域的最远接地点与所述第一检测接地点之间的距离;选取视场角大于或等于a的深度相机作为所述目标深度相机。2.根据权利要求1所述的机器人,其特征在于,a是通过如下公式确定的:a=arctan(r/h)。3.根据权利要求1所述的机器人,其特征在于,r是通过如下公式确定的:r=t
×
v+m,其中,t为所述机器人的响应时间,v为所述机器人的运行速度,m为所述机器人的刹车距离。4.根据权利要求1所述的机器人,其特征在于,所述目标深度相机的数量为两个或三个以上,其中,两个或三个以上所述目标深度相机安装于所述机器人前方和后方,以使所述机器人获取位于前进方向上的第一预定区域内的图像,以及位于后退方向上的第二预定区域内的图像;或者,两个或三个以上所述目标深度相机环绕安装于所述机器人的四周,以使所述机器人至少获取以所述机器人的中心为圆心,r为半径的圆形区域内的图像。5.一种行驶路径的确定方法,其特征在于,应用于权利要求1至4中任一项所述的机器人中,包括:获取所述目标深度相机拍摄的目标场景的深度图;将所述深度图划分为预定数量的子区域;确定各个所述子区域的类型,其中,所述类型包括以下之一:平面区域、存在障碍物的障碍区域、除所述平面区域和所述障碍区域之外的其他区域;基于各个所述子区域的类型确定所述机器人的行驶路径。6.根据权利要求5所述的方法,其特征在于,在预定数量的所述子区域中,一个或多个所述子区域和与其相邻的子区域部分重叠。7.根据权利要求5或6所述的方法,其特征...
【专利技术属性】
技术研发人员:ꢀ七四专利代理机构,
申请(专利权)人:纳恩博北京科技有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。