智能交互方法、智能眼镜、智能交互设备及存储介质技术

技术编号:34093031 阅读:61 留言:0更新日期:2022-07-11 21:39
本申请实施例提供了一种智能交互方法、智能眼镜、智能交互设备及存储介质。方法包括:当智能眼镜的镜片显示预设交互信息时,获取目标对象在预设区域内的深度信息;基于深度信息确定目标对象的位置信息;根据预设区域内的位置信息与预设交互信息的对应关系,确定目标对象的位置信息对应的目标交互信息。根据本申请实施例的智能交互方法,能够获取目标对象在预设区域内的深度信息并进一步确定目标对象的位置信息,通过预设区域内位置信息和预设交互信息的对应关系,确定目标对象的目标交互信息,基于智能眼镜显示的预设交互信息进行交互,扩展了智能眼镜可实现的功能。展了智能眼镜可实现的功能。展了智能眼镜可实现的功能。

【技术实现步骤摘要】
智能交互方法、智能眼镜、智能交互设备及存储介质


[0001]本申请属于智能设备领域,尤其涉及一种智能交互方法。

技术介绍

[0002]随着电子技术的飞速发展,智能眼镜以及虚拟现实(Virtual Reality,VR)终端等近眼显示设备越来越普及,并逐渐成为人们日常生活中不可缺少的一部分。目前,在用户使用近眼显示设备的过程中,通常是通过近眼显示设备上的物理按键或者外接的手柄接收用户的输入,并基于用户的输入实现用户与近眼显示设备的交互。但是,通过物理按键或者外接的手柄接收用户的输入,使得输入内容有限,从而使得近眼显示设备可实现的功能受限。

技术实现思路

[0003]本申请实施例提供一种智能交互方法、装置、设备及计算机存储介质,能够通过智能眼镜的镜片显示预设的交互内容,并基于目标对象的位置信息确定对应的目标交互信息,实现智能交互,其中预设的交互内容可以根据功能进行设置,扩展了智能眼镜可实现的功能。
[0004]第一方面,本申请实施例提供一种智能交互方法,方法包括:
[0005]当智能眼镜的镜片显示预设交互信息时,获取目标对象在预设区域内的深度信息,深度信息为目标对象与智能眼镜之间的距离信息,预设区域为用户佩戴智能眼镜时,感知预设交互信息所在的位置;
[0006]基于深度信息确定目标对象的位置信息;
[0007]根据预设区域内的位置信息与预设交互信息的对应关系,确定目标对象的位置信息对应的目标交互信息。
[0008]第二方面,本申请实施例提供了一种智能眼镜,智能眼镜包括:
[0009]获取模块,用于当智能眼镜的镜片显示预设交互信息时,获取目标对象在预设区域内的深度信息,深度信息为目标对象与智能眼镜之间的距离信息,预设区域为用户佩戴智能眼镜时,感知预设交互信息所在的位置;
[0010]确定模块,用于基于深度信息确定目标对象的位置信息;
[0011]确定模块,还用于根据预设区域内的位置信息与预设交互信息的对应关系,确定目标对象的位置信息对应的目标交互信息。
[0012]第三方面,本申请实施例提供了一种智能交互设备,设备包括:
[0013]处理器,以及存储有计算机程序指令的存储器;
[0014]处理器读取并执行计算机程序指令,以实现第一方面的智能交互方法。
[0015]第四方面,本申请实施例提供了一种存储介质,存储介质上存储有计算机程序指令,计算机程序指令被处理器执行时实现第一方面的智能交互方法。
[0016]第五方面,本申请实施例提供了一种计算机程序产品,计算机程序产品中的指令由电子设备的处理器执行时,使得电子设备执行第一方面的智能交互方法。
[0017]本申请实施例的智能交互方法、智能眼镜、智能交互设备、存储介质及计算机程序产品,能够获取目标对象在预设区域内的深度信息并进一步确定目标对象的位置信息,通过预设区域内位置信息和预设交互信息的对应关系,确定目标对象的目标交互信息,基于智能眼镜显示的预设交互信息进行交互,避免了外界设备进行交互输入时的局限性,扩展了智能眼镜可实现的功能。
附图说明
[0018]为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单的介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0019]图1是本申请实施例提供的一种智能交互方法的流程示意图;
[0020]图2是本申请实施例提供的一种全键盘示意图;
[0021]图3是本申请实施例提供的一种智能眼镜示意图;
[0022]图4是本申请实施例提供的一种智能交互装置的结构示意图;
[0023]图5是本申请实施例提供的一种智能交互设备的结构示意图。
具体实施方式
[0024]下面将详细描述本申请的各个方面的特征和示例性实施例,为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本申请进行进一步详细描述。应理解,此处所描述的具体实施例仅意在解释本申请,而不是限定本申请。对于本领域技术人员来说,本申请可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本申请的示例来提供对本申请更好的理解。
[0025]需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
[0026]目前随着智能眼镜的广泛使用,智能眼镜与用户的信息交互技术也急需发展,传统的智能眼镜交互依赖于智能眼镜上的实体按键或外接设备,仅能实现实体按键和外接设备上的功能,存在一定的局限性。
[0027]为了解决现有技术问题,本申请实施例提供了一种智能交互方法、智能眼镜、智能交互设备及计算机存储介质。下面首先对本申请实施例所提供的智能交互方法进行介绍。
[0028]图1示出了本申请一个实施例提供的智能交互方法的流程示意图。如图1所示,该方法可以包括以下步骤:
[0029]S110、当智能眼镜的镜片显示预设交互信息时,获取目标对象在预设区域内的深度信息,深度信息为目标对象与智能眼镜之间的距离信息,预设区域为用户佩戴智能眼镜时,感知预设交互信息所在的位置。
[0030]当智能眼镜实现目标功能时,通过智能眼镜的镜片显示目标功能对应的预设的交互信息,并获取目标对象在预设区域的深度信息,具体地,获取目标对象与智能眼镜的距离信息。其中,预设区域是用户基于镜片显示的预设交互信息感知的预设交互信息的实际位置;目标对象为用户执行交互操作时的载体,例如,可以为用户的手指等,对此不作限定。
[0031]在一些实施例中,在智能眼镜通过显示光机在镜片上显示预设的交互信息之后,通过深度传感器获取目标对象在预设区域内的深度信息。其中,用户在接收镜片投射的交互信息后,感知到预设的交互信息显示的位置为预设区域。
[0032]S120、基于深度信息确定目标对象的位置信息。
[0033]根据获取的深度信息通过训练好的深度学习模型得到目标对象的位置信息。具体地,根据深度传感器获取的目标对象的多个深度信息确定目标对象的轮廓信息,并基于目标对象的轮廓信息确定目标对象的位置信息。其中,多个深度信息为深度传感器获取的目标对象表面多个不同位置的深度信息。
[0034]在一种示例中,目标对象为用户的手部时,根据获取的手部的多个深度信息确定手部的轮廓信息,并基于轮廓信息确定进行交互功能的用户手指的位本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种智能交互方法,其特征在于,包括:当智能眼镜的镜片显示预设交互信息时,获取目标对象在预设区域内的深度信息,所述深度信息为所述目标对象与所述智能眼镜之间的距离信息,所述预设区域为用户佩戴所述智能眼镜时,感知所述预设交互信息所在的位置;基于所述深度信息确定所述目标对象的位置信息;根据所述预设区域内的位置信息与所述预设交互信息的对应关系,确定所述目标对象的位置信息对应的目标交互信息。2.根据权利要求1所述的方法,其特征在于,所述深度信息包括初始深度信息和目标深度信息;所述基于所述深度信息确定所述目标对象的位置信息,包括:基于所述初始深度信息和所述目标深度信息确定所述目标对象的位置信息。3.根据权利要求2所述的方法,其特征在于,所述目标对象的位置信息包括所述目标对象的初始位置信息和所述目标对象的轨迹信息;所述基于初始深度信息和目标深度信息确定所述目标对象的位置信息,包括:基于所述初始深度信息确定所述目标对象的初始位置信息;基于所述目标深度信息确定所述目标对象的轨迹信息。4.根据权利要求3所述的方法,其特征在于,所述根据所述目标对象的位置信息和所述预设区域内的位置信息与所述预设交互信息的对应关系确定目标交互信息之前,所述方法还包括:按照预设规则,建立所述目标对象的初始位置信息与所述预设交互信息中第一交互信息的对应关系;基于所述目标对象的初始位置信息与所述预设交互信息中第一目标交互信息的对应关系,确定所述预设区域内的位置信息与所述预设交互信息的对应关系。5.根据权利要求4所述的方法,其特征在于,所述根据所述预设区域内的位置信息与所述预设交互信息...

【专利技术属性】
技术研发人员:赵宇鹏
申请(专利权)人:奇点临近技术上海有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1