一种基于手势识别的机器人控制方法技术

技术编号:24582926 阅读:28 留言:0更新日期:2020-06-21 01:22
本发明专利技术公开了一种基于手势识别的机器人控制方法和机器人控制系统,包括:获取控制者的深度图像;基于所述的深度图像确定控制者手势并确定控制指令开始;基于所述的深度图像确定控制者实时手心位置;基于所述手心位置确定控制者手势运动趋势并确定控制者控制指令;基于所述控制指令控制机器人运动,解决了机器人控制方式中语音交互易受噪音干扰、触屏交互限制近距离交互的问题,实现方式简单。

A robot control method based on gesture recognition

【技术实现步骤摘要】
一种基于手势识别的机器人控制方法
本申请涉及机器人控制领域,且更为具体地,涉及一种基于手势识别的机器人控制方法。
技术介绍
机器人越来越广泛应用于生产和生活的多种环境,机器人传统的控制方式通常是通过机器人语音识别装置语音交互或者在机器人近端的触摸屏交互。但是,存在如下情况,当机器人所处的环境特别嘈杂时,语音控制装置通常无法达到较好的控制效果,或者,特殊环境,无法到达机器人的近端实行控制。基于控制者手部识别的方式进行机器人控制可以克服上述缺点。但是,通过控制手套识别控制者手势进行机器人控制成本高,使用复杂。因此,期望提供一种改进的基于手部识别的机器人控制方法。
技术实现思路
本专利技术的目的在于针对上述现有技术中的缺陷和不足,提供一种基于手势识别的机器人控制方法和机器人控制系统,解决机器人控制方式中语音交互易受噪音干扰、触屏交互限制近距离交互的问题,实现方式简单。根据本专利技术的一方面,提供了一种基于手势识别的机器人控制方法,包括:获取控制者的深度图像;基于所述的深度图像确定控制者手势并确定控制指令开始;基于所述的深度图像确定控制者实时手心位置;基于所述手心位置确定控制者手势运动趋势并确定控制者控制指令;基于所述控制指令控制机器人运动。基于手势识别的机器人控制方法中,所述的深度图像是基于奥比中光AstraPro深度摄像机获取的。基于手势识别的机器人控制方法中,确定控制者手势是基于奥比中光手势识别SDK模块实现的。基于手势识别的机器人控制方法中,所述确定控制者实时手心位置是基于奥比中光手势识别SDK模块实现的。基于手势识别的机器人控制方法中,所述确定控制者手势运动趋势方法:判断第二图像帧手心位置相对第一图像帧手心位置的三维坐标,所述的第一图像帧和第二图像帧的时间戳相邻,而且第二图像帧的时间戳晚于第一图像帧的时间戳。根据本专利技术的另一方面,提供了一种机器人控制系统,包括:深度图像获取模块、控制者手势和实时手心位置确定模块、控制者控制指令开始和手势运动趋势确定模块、和机器人。深度图像获取模块,用于获取控制者的深度图像,和将图像传送给控制者手势和手心位置确定模块。控制者手势和手心位置确定模块,用于基于所述的深度图像确定控制者手势、图像帧实时手心位置和时间戳,和将所述的控制者手势、图像帧实时手心位置和时间戳发送给控制者控制指令开始和手势运动趋势确定模块。控制者控制指令开始和手势运动趋势确定模块,用于标记控制状态为控制者指令开始和确定控制者手势运动趋势,确定控制指令,和将控制指令发送给机器人。机器人,响应于所述控制指令并移动。在机器人控制系统中,所述的深度图像基于奥比中光AstraPro深度摄像机获取。本专利技术基于手势识别,建立机器人控制系统,提供机器人控制方法,解决机器人控制方式中语音交互易受噪音干扰、触屏交互限制近距离交互的问题,实现方式简单。附图说明通过阅读下文优选的具体实施方式中的详细描述,本申请各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。说明书附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。显而易见地,下面描述的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。而且在整个附图中,用相同的附图标记表示相同的部件。图1是根据本专利技术一个实施例的基于手势识别的机器人控制方法流程图;图2是根据本专利技术一个实施例的机器人控制系统组成框图。具体实施方式下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。示例性方法图1图示了根据本专利技术一个实施例的基于手势识别的机器人控制方法流程图。如图1所示,根据本专利技术一个实施例的基于手势识别的机器人控制方法流程图,包括:S11:获取控制者的深度图像;所述的控制者深度图像可以由深度摄像机获取,例如,通过奥比中光的AstraPro深度摄像机获取深度图像。而且,AstraPro深度摄像机对控制者所处背景的光线、控制者与摄像机的相对角度等均不敏感。S12:基于所述的深度图像确定控制者手势并确定控制指令开始;所述的确定控制者手势,基于与上文所述的AstraPro配套的奥比中光手势识别SDK模块实现。所述的手势识别SDK获取深度图像后,输出控制者手势,例如握拳。所述确定控制者的手势之后,标记控制状态为控制者指令开始,并进一步标记开始控制指令,例如握拳开始指令。S13:基于所述的深度图像确定控制者实时手心位置;所述的确定控制者实时手心位置,基于与上文所述的AstraPro配套的手势识别SDK模块实现。手势识别SDK模块获取深度图像帧后,实时输出所述图像帧的时间戳和控制者手心位置,所述的位置是以三维坐标表示的。S14:基于所述手心位置确定控制者手部运动趋势并确定控制者控制指令;判断第二图像帧相对第一图像帧手心的位置即比较手心位置相应的三维坐标,确定手势运动趋势为向前或向后、向左或向右、向上或向下。所述的第一图像帧和第二图像帧的时间戳相邻,而且第二图像帧的时间戳晚于第一图像帧的时间戳。当第二图像帧相较于第二图像帧的运动趋势发生变化,即确定控制者手势运动趋势。基于所述的开始控制指令和所述的手势运动趋势确定控制者控制指令。例如,所述的开始控制指令为握拳指令、所述的手部运动趋势为向左时,则定义控制者控制为向左,即控制机器人向左运动。S15:基于控制指令控制机器人运动。基于所述的控制指令控制机器人运动,所述的机器人具有移动能力,接收到所述的控制指令后,按照预先定义的运动方式运动。例如,所述的控制指令向左时,机器人向左移动。示例性系统图2图示了根据本专利技术一个实施例的机器人控制系统组成框图。如图2所示,根据本专利技术一个实施例的机器人控制系统组成框图200,包括:深度图像获取模块210、控制者手势和实时手心位置确定模块220、控制者控制指令开始和手势运动趋势确定模块230、和机器人240。深度图像获取模块210,用于获取控制者的深度图像,和将图像传送给控制者手势和手心位置确定模块220。所述的获取控制者深度图像由深度摄像机获取,例如可以通过奥比中光AstraPro深度摄像机获取。所述的深度摄像机可以通过数据总线将深度图像传送给控制者手势和手心位置确定模块220。例如AstraPro深度摄像机通过USB接口输出深度图像,并传送给控制者手势和手心位置确定模块220。控制者手势和手心位置确定模块220,用于基于所述的深度图像确定控制者手势、图像帧实时手心位置和时间戳,和将所述的控制者手势、图像帧实时手心位置和时间戳发送给控制者控制指令开始和手势运动趋势确定模块230。例如,所述的确定控制者手势和实时手心位置模本文档来自技高网...

【技术保护点】
1.一种基于手势识别的机器人控制方法,其特征在于,包括:/n获取控制者的深度图像;/n基于所述的深度图像确定控制者手势并确定控制指令开始;/n基于所述的深度图像确定控制者实时手心位置;/n基于所述手心位置确定控制者手势运动趋势并确定控制者控制指令;/n基于所述控制指令控制机器人运动。/n

【技术特征摘要】
1.一种基于手势识别的机器人控制方法,其特征在于,包括:
获取控制者的深度图像;
基于所述的深度图像确定控制者手势并确定控制指令开始;
基于所述的深度图像确定控制者实时手心位置;
基于所述手心位置确定控制者手势运动趋势并确定控制者控制指令;
基于所述控制指令控制机器人运动。


2.根据权利要求1所述的机器人控制方法,其特征在于,所述的深度图像是基于奥比中光AstraPro深度摄像机获取的。


3.根据权利要求2所述的机器人控制方法,其特征在于,确定控制者手势是基于奥比中光手势识别SDK模块实现的。


4.根据权利要求2所述的机器人控制方法,其特征在于,所述确定控制者实时手心位置是基于奥比中光手势识别SDK模块实现的。


5.根据权利要求2所述的机器人控制方法,其特征在于,所述确定控制者手势运动趋势方法:判...

【专利技术属性】
技术研发人员:胡佳文
申请(专利权)人:爱菲力斯深圳科技有限公司
类型:发明
国别省市:广东;44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1