AR眼镜中虚拟目标物的叠加方法技术

技术编号:15692086 阅读:157 留言:0更新日期:2017-06-24 05:49
本发明专利技术涉及一种AR眼镜中虚拟目标物的叠加方法,包括:将AR眼镜固定设置在实际场景中的设定位置,在AR眼镜的前方放置标有多个刻度的实际标记物;对所述实际场景进行全景扫描,得到所述实际场景对应的虚拟场景,将所述虚拟场景导入开发设备,将AR眼镜拍摄得到的视频场景上传至开发设备;在所述开发设备进入调试模式后在同一界面显示所述虚拟场景和视频场景,将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合;将所述虚拟目标物叠加至所述虚拟场景中的目标位置,获取虚拟场景中叠加所述虚拟目标物的叠加范围参数,将所述虚拟目标物和叠加范围参数发送至AR眼镜。其可以实现对视频场景对应的实际场景的高度还原,使AR眼镜所显示的虚拟场景具体较好的显示效果。

Method for superimposing virtual target in AR glasses

Including the superposition method, the present invention relates to a virtual object in AR AR glasses: glasses fixed position in the actual scene, placing the actual marker marked with a plurality of graduation in front of AR glasses; panoramic sweep of the actual scene, get the actual virtual scene corresponding to the scene and the virtual scene into the development of equipment, AR glasses of captured video scenes uploaded to the development of equipment; in the development of the equipment into the debugging mode in the same interface display of the virtual scene and video scene, will each virtual scale of the virtual scene in the regulation to the video scene in the shooting scale coincide; the virtual objects superimposed to the virtual scene in the target location, the range of parameters for superposition superposition of virtual objects in the virtual scene, the The dummy target and the overlay range parameter are transmitted to the AR glasses. It can realize the high recovery of the actual scene corresponding to the video scene, so that the virtual scene displayed by the AR glasses displays better effects.

【技术实现步骤摘要】
AR眼镜中虚拟目标物的叠加方法
本专利技术涉及虚拟显示眼镜
,特别是涉及一种AR眼镜中虚拟目标物的叠加方法。
技术介绍
HoloLens眼镜等AR(增强现实技术)眼镜为用于进行虚拟现实场景显示的智能显示设备。若需要提高HoloLens眼镜等AR眼镜的增强现实功能,必须准确获取真实世界的信息(如虚拟场景所对应的实际场景信息)。AR眼镜在显示相应虚拟场景的过程中,需要依赖相应的SLAM(同步定位与建图)系统。以HoloLens眼镜为例,HoloLens眼镜依靠的是左右两边各两台的摄像头,覆盖的水平视角和垂直视角都达到120度。这些摄像头能够实时获取不同角度的深度图,再对不同的深度图进行累积,从而借助立体视觉等技术计算出场景及其内部目标物体的精确的三维模型。当用户移动时,需要精准的姿态确定和位置确定,HoloLens眼镜的SLAM系统通过景深摄像头和电容式陀螺仪等多种传感器获取环境的各种信息,以此计算出用户的相对或绝对位置,并完成对于现实场景的构建,保证移动中虚拟画面稳定和准确地叠加。然而SLAM技术目前的算法还要依赖高性能的GPU才能达到接近实时的运算,且算法自身存在大量迭代、尝试性运算,无法完全满足现实场景构建的实时性要求。因此在实际应用中,利用AR眼镜实现的虚拟信息叠加后的虚拟场景显示还存在画面延迟、定位精度低(厘米级)等不足,使AR眼镜所显示的虚拟场景效果差。
技术实现思路
基于此,有必要针对传统方案中,AR眼镜所显示的虚拟场景效果差的技术问题,提供一种AR眼镜中虚拟目标物的叠加方法。一种AR眼镜中虚拟目标物的叠加方法,包括如下步骤:将AR眼镜固定设置在实际场景中的设定位置,在所述AR眼镜的前方放置标有多个刻度的实际标记物;对所述实际场景进行全景扫描,得到所述实际场景对应的虚拟场景,将所述虚拟场景导入开发设备,将所述AR眼镜拍摄得到的视频场景上传至开发设备;其中,所述开发设备为生成所述AR眼镜对应的虚拟场景的设备;在所述开发设备进入调试模式后在同一界面显示所述虚拟场景和视频场景,将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合;其中,所述虚拟刻度指虚拟场景中虚拟标记物上的刻度;所述拍摄刻度指拍摄得到的视频场景中拍摄标记物上的刻度;将所述虚拟目标物叠加至所述虚拟场景中的目标位置,获取虚拟场景中叠加所述虚拟目标物的叠加范围参数,将所述虚拟目标物和叠加范围参数发送至AR眼镜。上述AR眼镜中虚拟目标物的叠加方法,在实际场景中增设包括多个刻度的实际标记物,以此构建虚拟场景,使构建后的虚拟场景可以通过上述实际标记物调整与AR眼镜拍摄得到的视频场景之间的重合度,使虚拟场景与相应的视频场景完全重合,实现对视频场景对应的实际场景的高度还原,相应的虚拟目标物可以准确叠加至上述虚拟场景中,获取虚拟目标物实现准确叠加后的叠加范围参数,以便AR眼镜按照上述叠加范围参数将虚拟目标物叠加至AR眼镜的视频场景,使视频场景在AR眼镜中具体较好的显示效果。且在AR眼镜的显示过程中,无需实时、动态地识别相应实际场景中实物的图像,彻底解决了由于使用图像识别技术带来的画面延迟和重合精度低的问题,由于不需要进行相应实时定位和构建场景,可以节省AR眼镜系统的资源开销,降低系统硬件过热带来的风险。附图说明图1为一个实施例的AR眼镜中虚拟目标物的叠加方法流程图;图2为一个实施例的实际标记物示意图。具体实施方式下面结合附图对本专利技术的AR眼镜中虚拟目标物的叠加方法的具体实施方式作详细描述。参考图1,图1所示为一个实施例的AR眼镜中虚拟目标物的叠加方法流程图,包括如下步骤:S10,将AR眼镜固定设置在实际场景中的设定位置,在所述AR眼镜的前方放置标有多个刻度的实际标记物;上述步骤可以通过支架固定在实际场景中设定位置处,上述设定位置可以为实际场景中的某侧或者某个角落的上方;将AR眼镜固定设置在设定位置处,AR眼镜自身携带的摄像头可以对实际场景的大部分空间进行拍摄。上述实际标记物可以为如图2所示的立方体,上述立方体的各个边上可以标记多个刻度,以图2所示的立方体为例,立方体的边长为100mm(毫米),每条边均以0.5mm间隔进行刻度。S20,对所述实际场景进行全景扫描,得到所述实际场景对应的虚拟场景,将所述虚拟场景导入开发设备,将所述AR眼镜拍摄得到的视频场景上传至开发设备;其中,所述开发设备为生成所述AR眼镜对应的虚拟场景的设备;上述步骤可以采用三维激光扫描设备扫描包括AR眼镜和实际标记物在内的实际场景,获取空间位置信息,构建虚拟场景,具体的构建过程可以包括:第一步:通过三维激光扫描场景中各实物的水平方向、天顶距、斜距和反射强度等参数,自动存储并计算,获得点云数据;第二步:对点云数据进行编辑、扫描数据拼接与合并、影像数据点三维空间量测、点云影像可视化、空间数据三维建模、纹理分析处理和数据转换处理,构建虚拟场景。所构建的虚拟场景包括实际场景中的各个实际元素分别对应的虚拟元素,比如虚拟支架,虚拟AR眼镜以及虚拟标记物等等。在构建虚拟场景之后,可以保持AR眼镜和实际标记物相互位置关系不变,启动Hololens眼镜,进入开发程序,向开发设备导入虚拟场景,进入调试模式,在开发设备的同一界面中显示AR眼镜拍摄得到的视频场景和上述虚拟场景。S30,在所述开发设备进入调试模式后在同一界面显示所述虚拟场景和视频场景,将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合;其中,所述虚拟刻度指虚拟场景中虚拟标记物上的刻度;所述拍摄刻度指拍摄得到的视频场景中拍摄标记物上的刻度;上述步骤可以在虚拟场景中设置虚拟摄像机等参考调节图形,通过调节上述参考调节图形实现对相应虚拟场景的调节,比如旋转上述参考调节图形设定角度,虚拟场景便相应旋转设定角度;将参考调节图形向某方向移动距离A,相应的,虚拟场景向该方向移动距离A。可以通过调节设置在虚拟场景中的参考调节图形将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合,使AR眼镜视角下的虚拟场景完全与相应的实际场景重合。在通过调节设置在虚拟场景中的参考调节图形调节相应虚拟场景的过程中,虚拟AR眼镜以及相应的虚拟支架固定不动,虚拟场景中除虚拟AR眼镜和虚拟支架以外的各个虚拟元素(如虚拟标记物、虚拟场景中的各个环境元素等)与参考调节图形运动一致;例如,旋转上述参考调节图形设定角度,虚拟场景中除虚拟AR眼镜和虚拟支架以外的各个虚拟元素分别旋转设定角度;将参考调节图形向某方向移动距离A,相应的,虚拟场景中除虚拟AR眼镜和虚拟支架以外的各个虚拟元素分别向该方向移动距离A。S40,将所述虚拟目标物叠加至所述虚拟场景中的目标位置,获取虚拟场景中叠加所述虚拟目标物的叠加范围参数,将所述虚拟目标物和叠加范围参数发送至AR眼镜。上述步骤可以利用开发设备中的开发程序将虚拟目标物对应的虚拟信息根据相关设计要求放置在虚拟场景中的指定位置(目标位置),或者与虚拟场景中相对固定的目标物叠加,使上述虚拟目标物与相应的虚拟场景完全融合,得到还原度极高的虚拟场景。再从上述还原度极高的虚拟场景中获取叠加相应虚拟目标物的叠加范围参数,将所述虚拟目标物和叠加范围参数发送至AR眼镜,以便AR眼镜可以根据上述叠加范围参数将虚本文档来自技高网...
AR眼镜中虚拟目标物的叠加方法

【技术保护点】
一种AR眼镜中虚拟目标物的叠加方法,其特征在于,包括如下步骤:将AR眼镜固定设置在实际场景中的设定位置,在所述AR眼镜的前方放置标有多个刻度的实际标记物;对所述实际场景进行全景扫描,得到所述实际场景对应的虚拟场景,将所述虚拟场景导入开发设备,将所述AR眼镜拍摄得到的视频场景上传至开发设备;其中,所述开发设备为生成所述AR眼镜对应的虚拟场景的设备;在所述开发设备进入调试模式后在同一界面显示所述虚拟场景和视频场景,将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合;其中,所述虚拟刻度指虚拟场景中虚拟标记物上的刻度;所述拍摄刻度指拍摄得到的视频场景中拍摄标记物上的刻度;将所述虚拟目标物叠加至所述虚拟场景中的目标位置,获取虚拟场景中叠加所述虚拟目标物的叠加范围参数,将所述虚拟目标物和叠加范围参数发送至AR眼镜。

【技术特征摘要】
1.一种AR眼镜中虚拟目标物的叠加方法,其特征在于,包括如下步骤:将AR眼镜固定设置在实际场景中的设定位置,在所述AR眼镜的前方放置标有多个刻度的实际标记物;对所述实际场景进行全景扫描,得到所述实际场景对应的虚拟场景,将所述虚拟场景导入开发设备,将所述AR眼镜拍摄得到的视频场景上传至开发设备;其中,所述开发设备为生成所述AR眼镜对应的虚拟场景的设备;在所述开发设备进入调试模式后在同一界面显示所述虚拟场景和视频场景,将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合;其中,所述虚拟刻度指虚拟场景中虚拟标记物上的刻度;所述拍摄刻度指拍摄得到的视频场景中拍摄标记物上的刻度;将所述虚拟目标物叠加至所述虚拟场景中的目标位置,获取虚拟场景中叠加所述虚拟目标物的叠加范围参数,将所述虚拟目标物和叠加范围参数发送至AR眼镜。2.根据权利要求1所述的AR眼镜中虚拟目标物的叠加方法,其特征在于,将所述AR眼镜通过支架固定设置在实际场景中的设定位置;所述将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合的过程包括:在虚拟场景中的虚拟支架上设置一个虚拟摄像机,通过所述虚拟摄像机调节所述虚拟场景,直至将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合;其中,在调节虚拟摄像机的过程中,所述虚拟场景中的虚拟支架和虚拟AR眼镜保持不动,虚拟场景中除虚拟支架和虚拟AR眼镜外的各个虚拟元素随所述虚拟摄像机运动。3.根据权利要求2所述的AR眼镜中虚拟目标物的叠加方法,其特征在于,所述在虚拟场景中的虚拟支架上设置一个虚拟摄像机,通过所述虚拟摄像机调节所述虚拟场景,直至将所述虚拟场景中的各个虚拟刻度调节至与所述视频场景中的各个拍摄刻度重合的过程之后,还包括:记录所述虚拟摄像机与所述虚拟AR眼镜之间的相对坐标;记录所述虚拟摄像机与所述虚拟AR眼镜之间的相对姿态信息;所述将所述虚拟目标物叠加至所述虚拟场景中的目标位置,获取虚拟场景中叠加所述虚拟目标物的叠加范围参数,将所述虚拟目标物和叠加范围参数发送至AR眼镜的过程之后,还包括:检测所述AR眼镜在实际场景中的眼镜位移信息,根据所述眼镜位移信息调节所述虚拟摄像机的虚拟摄像...

【专利技术属性】
技术研发人员:何双伯李军锋刘晓夏爽熊山薛江冯伟夏
申请(专利权)人:广东电网有限责任公司教育培训评价中心武汉新电电气股份有限公司
类型:发明
国别省市:广东,44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1