当前位置: 首页 > 专利查询>清华大学专利>正文

一种抬起手势的识别方法、系统、电子设备及存储介质技术方案

技术编号:25395269 阅读:31 留言:0更新日期:2020-08-25 23:00
本申请公开了一种抬起手势的识别方法,应用于与智能穿戴设备连接的电子设备,包括:在检测到所述智能穿戴设备产生点击事件后,记录所述目标时间段内所述智能穿戴设备采集的角速度数据和重力加速度数据;根据所述角速度数据和所述重力加速度数据生成所述智能穿戴设备佩戴部位的手势特征数据;其中,所述手势特征数据包括三轴加速度数据、三轴角速度数据和三轴重力数据;判断所述手势特征数据是否包括抬起手势特征数据;若是,则判定所述智能穿戴设备产生抬起事件。本申请能够识别智能穿戴设备的抬起事件,实现对于电子设备的高效控制。本申请还公开了一种抬起手势的识别系统、一种电子设备及一种存储介质,具有以上有益效果。

【技术实现步骤摘要】
一种抬起手势的识别方法、系统、电子设备及存储介质
本申请涉及计算机
,特别涉及一种抬起手势的识别方法、一种抬起手势的识别系统、一种电子设备及一种存储介质。
技术介绍
随着科技的发展,电子设备已经成为人们生活的必需品。人机交互功能是电子设备“友善性”的一个重要因素。当视力有障碍的人或不便于观察图形用户界面的人使用电子设备时,可以通过智能指环或智能手套等智能穿戴设备进行人机交互,进而实现对于设备的控制。但是,目前相关技术中基于智能穿戴设备控制其他电子设备的方案中仅能够识别点击事件的发生,无法实现对于电子设备进行高效的控制。因此,如何识别智能穿戴设备的抬起事件,实现对于电子设备的高效控制是本领域技术人员目前需要解决的技术问题。
技术实现思路
本申请的目的是提供一种抬起手势的识别方法、一种电子设备、一种抬起手势的识别系统及一种存储介质,能够智能穿戴设备的抬起事件,实现对于电子设备的高效控制。为解决上述技术问题,本申请提供一种抬起手势的识别方法,应用于与智能穿戴设备连接的电子设备,该抬起手势的识别方法包括:在检测到所述智能穿戴设备产生点击事件后,记录所述目标时间段内所述智能穿戴设备采集的角速度数据和重力加速度数据;根据所述角速度数据和所述重力加速度数据生成所述智能穿戴设备佩戴部位的手势特征数据;其中,所述手势特征数据包括三轴加速度数据、三轴角速度数据和三轴重力数据;判断所述手势特征数据是否包括抬起手势特征数据;若是,则判定所述智能穿戴设备产生抬起事件。<br>可选的,判断所述手势特征数据是否包括抬起手势特征数据,包括:根据所述手势特征数据确定抬起手势评价数据;其中,所述抬起手势特征数据包括所述智能穿戴设备的加速度在重力方向上的加速度分量、所述重力方向与加速度方向的夹角参数,以及角速度绕竖直方向的角速度分量中任一项或任几项的组合;所述夹角参数为所述重力方向与所述加速度方向夹角的夹角值,或所述重力方向与所述加速度方向夹角的三角函数值;判断所述抬起手势评价数据是否为所述抬起事件对应的抬起手势评价数据;若是,则判定所述手势特征数据包括所述抬起事件特征数据;若否,则判定所述手势特征数据不包括所述抬起事件特征数据。可选的,判断所述抬起手势评价数据是否为所述抬起事件对应的抬起手势评价数据,包括:将每一帧所述抬起手势评价数据和时间参考值输入第一机器学习模型,得到每一帧所述抬起手势评价数据的分类结果;所述时间参考值包括每一帧所述抬起手势评价数据对应的时间点与所述点击事件的时间差;当连续N帧所述抬起手势评价数据的分类结果均为抬起事件正例时,判定所述抬起手势评价数据为所述抬起事件对应的抬起手势评价数据。可选的,在将每一帧所述抬起手势评价数据输入第一机器学习模型之前,还包括:获取正样本集合,并计算所述正样本集合中每一预设抬起事件对应的正样本运动特征数据;其中,所述正样本运动特征数据包括加速度在重力方向上的加速度分量、所述重力方向与加速度方向的夹角参数,以及角速度绕竖直方向的角速度分量中任一项或任几项的组合;获取负样本集合,并计算所述负样本集合中每一预设非抬起事件对应的负样本运动特征数据;其中,所述负样本运动特征数据包括加速度在重力方向上的加速度分量、所述重力方向与加速度方向的夹角参数,以及角速度绕竖直方向的角速度分量中任一项或任几项的组合;根据所述正样本集合中每一项正样本运动特征数据的目标特征值生成N维的正样本特征向量,并根据所述正样本特征向量与距离点击事件的发生时长生成N+1维的第一特征向量;其中,所述目标特征值包括最大值、最小值、平均值、峰度和偏度中任一项或任几项的组合;根据所述负样本集合中每一项负样本运动特征数据的所述目标特征值生成N维的负样本特征向量,并根据所述负样本特征向量与距离点击事件的发生时长生成N+1维的第二特征向量;利用所述第一特征向量和所述第二特征向量训练原始模型得到所述第一机器学习模型。可选的,所述正样本集合包括敲击操作中抬起事件的运动数据、长按操作中抬起事件的运动数据和滑动操作中抬起事件的运动数据中任一项或任几项的组合;所述负样本集合包括敲击操作中非抬起事件的运动数据、长按操作中非抬起事件的运动数据和滑动操作中非抬起事件的运动数据中任一项或任几项的组合;其中,所述敲击操作所述智能穿戴设备佩戴部位为在物理平面上敲击并抬起的操作,所述长按操作为所述智能穿戴设备佩戴部位为在物理平面上按压预设时长并抬起的操作,所述滑动操作为所述智能穿戴设备佩戴部位为在物理平面上移动预设距离并抬起的操作。可选的,在判定所述智能穿戴设备产生抬起事件之后,还包括:获取所述智能穿戴设备采集的新角速度数据和新重力加速度数据;根据所述新角速度数据和所述新重力加速度数据生成所述智能穿戴设备佩戴部位的新手势特征数据;根据所述新手势特征数据的点击事件特征值生成点击事件特征向量;其中,所述点击事件特征值包括最大值、最小值、平均值、峰度和偏度;将所述点击事件特征向量输入第二机器学习模型,以便所述第二机器学习模型判断所述新手势特征数据是否为点击事件的手势特征数据;当所述新手势特征数据为点击事件的手势特征数据时,判断所述新手势特征数据的获取时刻与上一次点击事件的产生时刻的时间差是否大于预设时间差;若是,则判定所述智能穿戴设备产生点击事件。可选的,在判定所述智能穿戴设备产生抬起事件之后,还包括:根据所述手势特征数据确定所述待识别时间段对应的运动手势,并执行所述运动手势对应的控制指令;其中,所述待识别时间段的起始时间为产生所述点击事件的时刻,所述待识别时间段的终止时间产生所述抬起事件的时刻。本申请还提供了一种电子设备,包括:数据记录模块,用于在检测到所述智能穿戴设备产生点击事件后,记录所述目标时间段内所述智能穿戴设备采集的角速度数据和重力加速度数据;特征数据生成模块,用于根据所述角速度数据和所述重力加速度数据生成所述智能穿戴设备佩戴部位的手势特征数据;其中,所述手势特征数据包括三轴加速度数据、三轴角速度数据和三轴重力数据;抬起判断模块,用于判断所述手势特征数据是否包括抬起手势特征数据;结果输出模块,用于当所述手势特征数据包括所述抬起手势特征数据时,判定所述智能穿戴设备产生抬起事件。本申请还提供了一种抬起手势的识别系统,包括:智能穿戴设备,用于采集佩戴部位的角速度数据和重力加速度数据,并将所述角速度数据和重力加速度数据传输至电子设备;所述电子设备,用于在检测到所述智能穿戴设备产生点击事件后,记录所述目标时间段内所述智能穿戴设备采集的角速度数据和重力加速度数据;还用于根据所述角速度数据和所述重力加速度数据生成所述智能穿戴设备佩戴部位的手势特征数据;其中,所述手势特征数据包括三轴加速度数据、三轴角速度数据和三轴重力数据;还用于判断所述手势特征数据是否包括抬起手势特征数据;若是,则判定所本文档来自技高网...

【技术保护点】
1.一种抬起手势的识别方法,其特征在于,应用于与智能穿戴设备连接的电子设备,包括:/n在检测到所述智能穿戴设备产生点击事件后,记录所述目标时间段内所述智能穿戴设备采集的角速度数据和重力加速度数据;/n根据所述角速度数据和所述重力加速度数据生成所述智能穿戴设备佩戴部位的手势特征数据;其中,所述手势特征数据包括三轴加速度数据、三轴角速度数据和三轴重力数据;/n判断所述手势特征数据是否包括抬起手势特征数据;/n若是,则判定所述智能穿戴设备产生抬起事件。/n

【技术特征摘要】
1.一种抬起手势的识别方法,其特征在于,应用于与智能穿戴设备连接的电子设备,包括:
在检测到所述智能穿戴设备产生点击事件后,记录所述目标时间段内所述智能穿戴设备采集的角速度数据和重力加速度数据;
根据所述角速度数据和所述重力加速度数据生成所述智能穿戴设备佩戴部位的手势特征数据;其中,所述手势特征数据包括三轴加速度数据、三轴角速度数据和三轴重力数据;
判断所述手势特征数据是否包括抬起手势特征数据;
若是,则判定所述智能穿戴设备产生抬起事件。


2.根据权利要求1所述识别方法,其特征在于,判断所述手势特征数据是否包括抬起手势特征数据,包括:
根据所述手势特征数据确定抬起手势评价数据;其中,所述抬起手势特征数据包括所述智能穿戴设备的加速度在重力方向上的加速度分量、所述重力方向与加速度方向的夹角参数,以及角速度绕竖直方向的角速度分量中任一项或任几项的组合;所述夹角参数为所述重力方向与所述加速度方向夹角的夹角值,或所述重力方向与所述加速度方向夹角的三角函数值;
判断所述抬起手势评价数据是否为所述抬起事件对应的抬起手势评价数据;
若是,则判定所述手势特征数据包括所述抬起事件特征数据;
若否,则判定所述手势特征数据不包括所述抬起事件特征数据。


3.根据权利要求2所述识别方法,其特征在于,其特征在于,判断所述抬起手势评价数据是否为所述抬起事件对应的抬起手势评价数据,包括:
将每一帧所述抬起手势评价数据和时间参考值输入第一机器学习模型,得到每一帧所述抬起手势评价数据的分类结果;其中,所述时间参考值包括每一帧所述抬起手势评价数据对应的时间点与所述点击事件的时间差;
当连续N帧所述抬起手势评价数据的分类结果均为抬起事件正例时,判定所述抬起手势评价数据为所述抬起事件对应的抬起手势评价数据。


4.根据权利要求3所述识别方法,其特征在于,在将每一帧所述抬起手势评价数据输入第一机器学习模型之前,还包括:
获取正样本集合,并计算所述正样本集合中每一预设抬起事件对应的正样本运动特征数据;其中,所述正样本运动特征数据包括加速度在重力方向上的加速度分量、所述重力方向与加速度方向的夹角参数,以及角速度绕竖直方向的角速度分量中任一项或任几项的组合;
获取负样本集合,并计算所述负样本集合中每一预设非抬起事件对应的负样本运动特征数据;其中,所述负样本运动特征数据包括加速度在重力方向上的加速度分量、所述重力方向与加速度方向的夹角参数,以及角速度绕竖直方向的角速度分量中任一项或任几项的组合;
根据所述正样本集合中每一项正样本运动特征数据的目标特征值生成N维的正样本特征向量,并根据所述正样本特征向量与距离点击事件的发生时长生成N+1维的第一特征向量;其中,所述目标特征值包括最大值、最小值、平均值、峰度和偏度中任一项或任几项的组合;
根据所述负样本集合中每一项负样本运动特征数据的所述目标特征值生成N维的负样本特征向量,并根据所述负样本特征向量与距离点击事件的发生时长生成N+1维的第二特征向量;
利用所述第一特征向量和所述第二特征向量训练原始模型得到所述第一机器学习模型。


5.根据权利要求4所述识别方法,其特征在于,所述正样本集合包括敲击操作中抬起事件的运动数据、长按操作中抬...

【专利技术属性】
技术研发人员:喻纯史元春古裔正
申请(专利权)人:清华大学交互未来北京科技有限公司
类型:发明
国别省市:北京;11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1