一种基于注视点的智能眼镜宽视角调节方法技术

技术编号:35701897 阅读:31 留言:0更新日期:2022-11-23 14:56
本发明专利技术公开了一种基于注视点的智能眼镜宽视角调节方法,包括以下步骤:获取用户指令为宽视角指令;根据智能眼镜的第一位姿参数,将当前场景的第一拍摄图像呈现于第一虚拟画面,以及将当前场景的第二拍摄图像呈现于第二虚拟画面后,生成智能眼镜的第一图像,其中,第二虚拟画面置于第一虚拟画面的上层;获取用户指令为视角调节指令,通过采集用户的注视点,获取智能眼镜的第二位姿参数;根据第二位姿参数,生成智能眼镜的第二图像;将第一图像呈现于第一虚拟画面,将第二图像呈现于第二虚拟画面,生成智能眼镜的宽视角图像;本发明专利技术解决了当注视点变化后,当前画面会放大缩小,从而造成显示不稳定的技术问题。成显示不稳定的技术问题。成显示不稳定的技术问题。

【技术实现步骤摘要】
一种基于注视点的智能眼镜宽视角调节方法


[0001]本专利技术涉及智能眼镜成像
,具体而言,涉及一种基于注视点的智能眼镜宽视角调节方法。

技术介绍

[0002]智能眼镜作为近眼显示设备,能够提供更为广阔的视场角,能够向眼睛传达更多的信息,但是受限于眼球的能力,很多信息无法观察的特别仔细;同时为了使得人基于视觉信息的行为更为协调,视觉信息所表现的图像跟裸眼观察到的图像的比例不能区别太大,否则会由于图像失真导致人的行为不协调,造成错误的行为,但是有时人们又希望观察到更为全局的广角图像。现有的智能眼镜在调节图像大小和视角大小时,当注意点发生变化后,图像的大小也会随之发生变化,这样容易导致画面的放大缩小不稳定,用户的佩戴体验感较差,因此,急需一种基于注视点的智能眼镜宽视角调节方法,用于增强用户的体验。

技术实现思路

[0003]为了解决上述问题,本专利技术的目的是提出一种基于注视点的智能眼镜宽视角调节方法,通过以当前注视点为中心,在改变注视点后,该中心并不做变化,从而解决了注视点变化后画面的放大缩小不稳定的技术问题。
[0004]为了实现上述技术目的,本申请提供了一种基于注视点的智能眼镜宽视角调节方法,智能眼镜包括第一虚拟画面和第二虚拟画面,包括以下步骤:
[0005]获取用户指令为宽视角指令;
[0006]根据智能眼镜的第一位姿参数,将当前场景的第一拍摄图像呈现于第一虚拟画面,以及将当前场景的第二拍摄图像呈现于第二虚拟画面后,生成智能眼镜的第一图像,其中,第二虚拟画面置于第一虚拟画面的上层;
[0007]获取用户指令为视角调节指令,通过采集用户的注视点,获取智能眼镜的第二位姿参数;
[0008]根据第二位姿参数,生成智能眼镜的第二图像;
[0009]将第一图像呈现于第一虚拟画面,将第二图像呈现于第二虚拟画面,生成智能眼镜的宽视角图像。
[0010]优选地,在生成智能眼镜的第一图像的过程中,采集用户的注视点,根据注视点,采集第一拍摄图像和第二拍摄图像,其中,第一拍摄图像用于表示基于注视点范围内的图像,第二拍摄图像用于表示基于注视点以外的图像。
[0011]优选地,在采集用户的注视点的过程中,构建注视点映射模型,注视点映射模型用于表示用户的视线中心在屏幕上的映射关系;
[0012]通过采集用户的眼球状态,根据注视点映射模型,得到用户的视线中心在屏幕上的位置,生成注视点。
[0013]优选地,在获取视角调节指令的过程中,视角调节指令包括手势指令、语音指令、
按键控制指令中一种或多种组合;
[0014]根据注视点,通过采集眼球状态,获取用户的当前注视点;
[0015]根据当前注视点,生成第二图像。
[0016]优选地,在获取手势指令的过程中,测量当前时刻手势中拇指和食指之间的第一距离;
[0017]测量当前时刻之后的拇指和食指之间的第二距离;
[0018]根据第一距离和第二距离,以当前注视点为中心,调整第一图像的尺寸,生成第二图像。
[0019]优选地,在获取手势指令的过程中,测量当前时刻手势中相同手指之间的第三距离;
[0020]测量当前时刻之后的相同手指之间的第四距离;
[0021]根据第三距离和第四距离,以当前注视点为中心,调整第一图像的尺寸,生成第二图像。
[0022]优选地,在调整第一图像的尺寸的过程中,获取第一距离与第二距离之间的第一比值,以当前注视点为中心,调整第一图像的尺寸至第一比值,生成第二图像。
[0023]优选地,在调整第一图像的尺寸的过程中,获取第三距离与第四距离之间的第二比值,以当前注视点为中心,调整第一图像的尺寸至第二比值,生成第二图像。
[0024]优选地,在获取第一比值的过程中,当第一距离小于第二距离时,以当前注视点为中心,将第一图像的尺寸放大至第一比值,生成第二图像。
[0025]优选地,在获取第二比值的过程中,当第三距离小于第四距离,以当前注视点为中心,将第一图像的尺寸放大至第二比值,生成第二图像。
[0026]本专利技术公开了以下技术效果:
[0027]与现有的智能眼镜相比,本专利技术解决了当注视点变化后,当前画面会放大缩小,从而造成显示不稳定的技术问题。
附图说明
[0028]为了更清楚地说明本专利技术实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
[0029]图1是本专利技术所述的智能眼镜宽视角调节方法流程图;
[0030]图2是本专利技术所述的智能眼镜图像处理方法流程图。
具体实施方式
[0031]下为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定
实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
[0032]如图1

2所示,本专利技术提供了一种基于注视点的智能眼镜宽视角调节方法,智能眼镜包括第一虚拟画面和第二虚拟画面,包括以下步骤:
[0033]获取用户指令为宽视角指令;
[0034]根据智能眼镜的第一位姿参数,将当前场景的第一拍摄图像呈现于第一虚拟画面,以及将当前场景的第二拍摄图像呈现于第二虚拟画面后,生成智能眼镜的第一图像,其中,第二虚拟画面置于第一虚拟画面的上层;
[0035]获取用户指令为视角调节指令,通过采集用户的注视点,获取智能眼镜的第二位姿参数;
[0036]根据第二位姿参数,生成智能眼镜的第二图像;
[0037]将第一图像呈现于第一虚拟画面,将第二图像呈现于第二虚拟画面,生成智能眼镜的宽视角图像。
[0038]进一步优选地,本专利技术在生成智能眼镜的第一图像的过程中,采集用户的注视点,根据注视点,采集第一拍摄图像和第二拍摄图像,其中,第一拍摄图像用于表示基于注视点范围内的图像,第二拍摄图像用于表示基于注视点以外的图像。
[0039]进一步优选地,本专利技术在采集用户的注视点的过程中,构建注视点映射模型,注视点映射模型用于表示用户的视线中心在屏幕上的映射关系;
[0040]通过采集用户的眼球状态,根据注视点映射模型,得到用户的视线中心在屏幕上的位置,生成注视点。
[0041]进一步优选地,本专利技术在获取视角调节指令的过程中,本专利技术提到的视角调节指令包括手势指令、语音指令、按键控制指令中一种或多种组合;...

【技术保护点】

【技术特征摘要】
1.一种基于注视点的智能眼镜宽视角调节方法,其特征在于,所述智能眼镜包括第一虚拟画面和第二虚拟画面,包括以下步骤:获取用户指令为宽视角指令;根据所述智能眼镜的第一位姿参数,将当前场景的第一拍摄图像呈现于所述第一虚拟画面,以及将所述当前场景的第二拍摄图像呈现于所述第二虚拟画面后,生成所述智能眼镜的第一图像,其中,所述第二虚拟画面置于所述第一虚拟画面的上层;获取所述用户指令为视角调节指令,通过采集所述用户的注视点,获取所述智能眼镜的第二位姿参数;根据所述第二位姿参数,生成所述智能眼镜的第二图像;将所述第一图像呈现于所述第一虚拟画面,将所述第二图像呈现于所述第二虚拟画面,生成所述智能眼镜的宽视角图像。2.根据权利要求1所述的方法,其特征在于,在生成所述智能眼镜的第一图像的过程中,采集用户的注视点,根据所述注视点,采集所述第一拍摄图像和所述第二拍摄图像,其中,所述第一拍摄图像用于表示基于所述注视点范围内的图像,所述第二拍摄图像用于表示基于所述注视点以外的图像。3.根据权利要求2所述的方法,其特征在于,在采集用户的注视点的过程中,构建注视点映射模型,所述注视点映射模型用于表示用户的视线中心在屏幕上的映射关系;通过采集所述用户的眼球状态,根据所述注视点映射模型,得到所述用户的所述视线中心在屏幕上的位置,生成所述注视点。4.根据权利要求3所述的方法,其特征在于,在获取视角调节指令的过程中,所述视角调节指令包括手势指令、语音指令、按键控制指令中一种或多种组合;根据所述注视点,通过采集所述眼球状态,获取所述用户的当前注视点;...

【专利技术属性】
技术研发人员:王洁
申请(专利权)人:深圳市天趣星空科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1