本发明专利技术公开了一种基于动作识别的目标控制方法及系统,所述方法包括:基于手腕下部佩戴的光学传感器,获取手指相对于手腕的第一运动;基于手腕上佩戴的采集装置,获取手腕相对用户身体上目标位置的第二运动;将手指相对于手腕的第一运动和手腕相对用户身体上目标位置的第二运动进行叠加,根据叠加的运动结果控制目标。本发明专利技术将手指相对于手腕的运动和手腕相对用户身体上目标位置的运动进行叠加后再控制目标,因为用户手部活动范围更大,这样可实现更大幅度和更加精细复杂的操控,避免手指动作过度放大导致过于明显的抖动,改善了操作体验。体验。体验。
【技术实现步骤摘要】
一种基于动作识别的目标控制方法及系统
[0001]本专利技术涉及人机交互
,尤其涉及一种基于动作识别的目标控制方法及系统。
技术介绍
[0002]通过识别手势动作来实现指令的输出,以此来实现人机交互是一个发展趋势,可以给用户操作相关设备带来方便。
[0003]现有技术可以通过获取手指相对于手腕的运动,用于控制目标设备。但是手指相对于手腕的移动范围比较有限,例如食指相对于手腕左右移动的极限范围通常为20公分左右(舒适灵活的移动范围通常不超过10公分),前后移动的极限范围通常为15公分左右(舒适灵活的移动范围通常不超过7公分)。如果要进行大幅度、精细的目标操控,例如操控一个尺寸较大的屏幕中的光标,宽度为2米,那么手指左右移动的幅度要至少放大10倍(如果考虑舒适的移动范围,则需要放大20倍),才能完整覆盖整个目标屏幕。这样会造成两个问题:
[0004](1)、手指移动被过度放大,会导致手指难以在目标屏幕里做精细复杂的操作,当图标排列比较紧密的时候,会容易造成误触;
[0005](2)、光学识别手指移动的方法下,识别到的手指关键点会在小范围内波动,当手指移动被过度放大后,小的波动也会造成目标屏幕中代表手指的光标的剧烈抖动,强烈影响精度和使用体验。
[0006]以上情况,就限制了被控制目标屏幕的尺寸,即当目标屏幕尺寸过大时,即不适用该方案去控制。
[0007]现有技术中还可以在手腕上佩戴定位设备(或者手持定位设备),用于测量手腕的空间运动,定位设备可以是惯性定位设备(如加速度传感器、陀螺仪)、磁力计、光学传感器等,但是这种单独以手腕的运动作为控制目标设备屏幕中元素的方法,因为手腕的运动远远不及手指灵活,所以操作的效率低、灵活性差。
[0008]因此,现有技术还有待于改进和发展。
技术实现思路
[0009]本专利技术的主要目的在于提供一种基于动作识别的目标控制方法及系统,旨在解决现有技术中不方便对目标屏幕进行精细控制操作的问题。
[0010]为实现上述目的,本专利技术提供一种基于动作识别的目标控制方法,所述基于动作识别的目标控制方法包括如下步骤:
[0011]基于手腕下部佩戴的光学传感器,获取手指相对于手腕的第一运动;
[0012]基于手腕上佩戴的采集装置,获取手腕相对用户身体上目标位置的第二运动;
[0013]将手指相对于手腕的第一运动和手腕相对用户身体上目标位置的第二运动进行叠加,根据叠加的运动结果控制目标。
[0014]可选地,所述的基于动作识别的目标控制方法,其中,所述采集装置包括至少一个
佩戴在人体上的配件,所述配件用于辅助穿戴设备本体测量自身相对于所述配件的空间位置和\或空间运动。
[0015]可选地,所述的基于动作识别的目标控制方法,其中,所述配件为悬挂在脖子上的吊坠、粘贴在身上或者衣服上的贴纸、固定在衣服上的部件以及放在口袋里面的部件。
[0016]可选地,所述的基于动作识别的目标控制方法,其中,基于手腕上佩戴的采集装置获取的信息,直接计算手腕相对于身体上目标位置的第二运动,不在人体上设置佩戴的配件。
[0017]可选地,所述的基于动作识别的目标控制方法,其中,增加一个标定动作,使得采集装置准确识别身体上的目标位置;所述标定动作的方法为:将采集装置采集到的部分身体信息设置为目标位置。
[0018]可选地,所述的基于动作识别的目标控制方法,其中,所述将手指相对于手腕的第一运动和手腕相对用户身体上目标位置的第二运动进行叠加,根据叠加的运动结果控制目标,具体包括:
[0019]将手指相对于手腕的第一运动M和手腕相对用户身体上目标位置的第二运动N进行叠加得到运动结果P为:
[0020]运动结果P=手指相对于手腕的第一运动M+手腕相对用户身体上目标位置的第二运动N。
[0021]可选地,所述的基于动作识别的目标控制方法,其中,所述将手指相对于手腕的第一运动M和手腕相对用户身体上目标位置的第二运动N进行叠加得到运动结果P具体包括:
[0022]将第一运动M沿三个互相垂直的方向分解为Mx、My、Mz;
[0023]将第二运动N沿三个互相垂直的方向分解为Nx、Ny、Nz;
[0024]将运动结果P沿三个互相垂直的方向分解为Px、Py、Pz;
[0025]则运动结果P表示为:
[0026]Px=kx1*Mx+kx2*Nx;
[0027]Py=ky1*My+ky2*Ny;
[0028]Pz=kz1*Mz+kz2*Nz;
[0029]其中,kx1、kx2、ky1、ky2、kz1、kz2均为系数;
[0030]根据运动结果P中的Px、Py和Pz控制目标设备;
[0031]其中,第一运动M和第二运动N的分解在同一坐标系或者在不同坐标系。
[0032]可选地,所述的基于动作识别的目标控制方法,其中,获取手腕相对于身体目标位置的第二运动的采集装置和获取手指相对于手腕的第一运动的传感器为同一个传感器。
[0033]可选地,所述的基于动作识别的目标控制方法,其中,所述目标位置为用户身体上胸部或者胸口。
[0034]此外,为实现上述目的,本专利技术还提供一种基于动作识别的目标控制系统,其中,所述基于动作识别的目标控制系统包括:目标、光学传感器和采集装置;
[0035]基于手腕下部佩戴的光学传感器用于获取手指相对于手腕的第一运动;
[0036]基于手腕上佩戴的采集装置用于获取手腕相对用户身体上目标位置的第二运动;
[0037]将手指相对于手腕的第一运动和手腕相对用户身体上目标位置的第二运动进行叠加,根据叠加的运动结果控制目标。
[0038]本专利技术中,基于手腕下部佩戴的光学传感器,获取手指相对于手腕的第一运动;基于手腕上佩戴的采集装置,获取手腕相对用户身体上目标位置的第二运动;将手指相对于手腕的第一运动和手腕相对用户身体上目标位置的第二运动进行叠加,根据叠加的运动结果控制目标。本专利技术将手指相对于手腕的运动和手腕相对用户身体上目标位置的运动进行叠加后再控制目标,因为用户手部活动范围更大,这样可实现更大幅度和更加精细复杂的操控,避免手指动作过度放大导致过于明显的抖动,改善了操作体验。
附图说明
[0039]图1是本专利技术基于动作识别的目标控制方法的较佳实施例的流程图。
具体实施方式
[0040]为使本专利技术的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本专利技术进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本专利技术,并不用于限定本专利技术。
[0041]本专利技术较佳实施例所述的基于动作识别的目标控制方法,如图1所示,所述基于动作识别的目标控制方法包括以下步骤:
[0042]步骤S10、基于手腕下部佩戴的光学传感器,获取手指相对于手腕的第一运动。
[0043]具体地,基于佩戴在用户手腕处的光学传感器(优选为3D光学传感器)感测来源于本文档来自技高网...
【技术保护点】
【技术特征摘要】
1.一种基于动作识别的目标控制方法,其特征在于,所述基于动作识别的目标控制方法包括:基于手腕下部佩戴的光学传感器,获取手指相对于手腕的第一运动;基于手腕上佩戴的采集装置,获取手腕相对用户身体上目标位置的第二运动;将手指相对于手腕的第一运动和手腕相对用户身体上目标位置的第二运动进行叠加,根据叠加的运动结果控制目标。2.根据权利要求1所述的基于动作识别的目标控制方法,其特征在于,所述采集装置包括至少一个佩戴在人体上的配件,所述配件用于辅助穿戴设备本体测量自身相对于所述配件的空间位置和\或空间运动。3.根据权利要求2所述的基于动作识别的目标控制方法,其特征在于,所述配件为悬挂在脖子上的吊坠、粘贴在身上或者衣服上的贴纸、固定在衣服上的部件以及放在口袋里面的部件。4.根据权利要求1所述的基于动作识别的目标控制方法,其特征在于,基于手腕上佩戴的采集装置获取的信息,直接计算手腕相对于身体上目标位置的第二运动,不在人体上设置佩戴的配件。5.根据权利要求4所述的基于动作识别的目标控制方法,其特征在于,增加一个标定动作,使得采集装置准确识别身体上的目标位置;所述标定动作的方法为:将采集装置采集到的部分身体信息设置为目标位置。6.根据权利要求1所述的基于动作识别的目标控制方法,其特征在于,所述将手指相对于手腕的第一运动和手腕相对用户身体上目标位置的第二运动进行叠加,根据叠加的运动结果控制目标,具体包括:将手指相对于手腕的第一运动M和手腕相对用户身体上目标位置的第二运动N进行叠加得到运动结果P为:运动结果P=手指相对于手腕的第一运动M+手腕相对...
【专利技术属性】
技术研发人员:胡团伟,
申请(专利权)人:深圳原宇科技有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。