一种虚拟立体场景的构建方法、装置及立体显示设备制造方法及图纸

技术编号:14191877 阅读:89 留言:0更新日期:2016-12-15 10:55
本发明专利技术提供了一种虚拟立体场景的构建方法、装置及立体显示设备,涉及显示技术领域,解决现有技术中利用固定的转换参数将虚拟场景线性的转换为虚拟立体场景,无法达到较佳的立体效果的问题。该方法包括:获取虚拟场景的像素的深度数据;根据深度数据,确定虚拟场景中虚拟单摄像机到最近物体的距离与虚拟单摄像机到最远物体的距离,从而确定左右虚拟摄像机的视间距和投影参数;根据左右虚拟摄像机的视间距和虚拟单摄像机,得到左右虚拟摄像机;根据左右虚拟摄像机和各自的投影参数,对虚拟场景进行非对称透视投影变换,从而构建虚拟立体场景。本发明专利技术的方案动态实时获取深度数据构建虚拟场景对应的虚拟立体场景,能够较好的保证立体效果。

Method, device and stereoscopic display device for constructing virtual three-dimensional scene

The invention provides a construction method, device and stereoscopic display device with a virtual three-dimensional scene, relates to the technical field of display, converting the virtual scene for virtual linear stereo scene is solved by using the fixed conversion of existing technology parameters, can achieve better results in the problem of stereo. The method includes: obtaining pixel depth data of virtual scene; according to the depth data, determine the virtual scene virtual camera to the nearest distance of the object and virtual single camera to the farthest distance of the object, so as to determine the visual space and projection parameters about the virtual camera; according to the virtual space and single camera around the virtual camera. Get around the virtual camera; according to the virtual camera and the projection parameters of the virtual scene of asymmetric projection transformation, so as to build a virtual three-dimensional scene. The scheme of the invention can obtain the depth data dynamically and real-time to construct the virtual three-dimensional scene corresponding to the virtual scene.

【技术实现步骤摘要】

本专利技术涉及显示
,特别涉及一种虚拟立体场景的构建方法、装置及立体显示设备
技术介绍
随着立体显示技术和虚拟与现实VR(Virtual Reality)技术的不断完善和成熟,广大民众对于立体显示的兴趣和需求也在不断的增加。实现立体显示的关键在于构建分别被观察者左眼和右眼接收的具有细微差异的不同图像,由于左右眼接收到的视觉图像不同,大脑综合了左右眼两幅图像的信息对图像进行叠加重生,从而使观看者产生立体感。目前,大部分立体应用和VR应用均致力于虚拟场景的立体显示部分的开发上。虚拟场景是利用计算机,通过OpenGL(Open Graphics Library,开放图形库)等图形引擎构建,并通过显示器呈现在真实场景中。所谓真实场景,是指人真实的观察空间,人在真实场景下的固定位置通过人眼接收显示器所显示的虚拟场景。为了实现虚拟场景的立体显示,可以结合计算机图形学系统将虚拟场景转换为虚拟立体场景,从而将虚拟立体场景呈现在真实场景中。但是,现有技术中,通常利用固定的转换参数将虚拟场景线性的转换为虚拟立体场景,这种线性转换的方式,可能导致虚拟立体场景不能与真实观察空间即真实场景较好的适配,从而无法达到较佳的立体效果。
技术实现思路
本专利技术要解决的技术问题是提供一种虚拟立体场景的构建方法、装置及立体显示设备,解决现有技术中利用固定的转换参数将虚拟场景线性的转换为虚拟立体场景,从而无法达到较佳的立体效果的问题。为解决上述技术问题,本专利技术的实施例提供一种虚拟立体场景的构建方法,包括:获取虚拟场景的像素的深度数据;根据所述深度数据,确定所述虚拟场景中虚拟单摄像机到最近物体的距离与虚拟单摄像机到最远物体的距离;根据所述虚拟单摄像机到最近物体的距离和虚拟单摄像机到最远物体的距离,确定左右虚拟摄像机的视间距和投影参数;根据所述左右虚拟摄像机的视间距和所述虚拟单摄像机,得到左右虚拟摄像机;根据所述左右虚拟摄像机和所述左右虚拟摄像机各自的投影参数,对所述虚拟场景进行非对称透视投影变换,从而构建虚拟立体场景。进一步来说,所述获取虚拟场景的像素的深度数据的步骤包括:从所述虚拟场景的深度缓存区中读取所述虚拟场景每个像素的深度数据。进一步来说,所述根据所述深度数据,确定所述虚拟场景中虚拟单摄像机到最近物体的距离与虚拟单摄像机到最远物体的距离的步骤包括:遍历所述深度数据,查找所述深度数据中的深度最大值和深度最小值;将所述深度最小值映射到虚拟场景下虚拟单摄像机到近裁剪平面的距离和虚拟单摄像机到远裁剪平面的距离之间,得到所述虚拟场景中虚拟单摄像机到最近物体的距离,将所述深度最大值映射到虚拟场景下虚拟单摄像机到近裁剪平面的距离和虚拟单摄像机到远裁剪平面的距离之间,得到所述虚拟场景中虚拟单摄像机到最远物体的距离;或者将所述深度数据的数据范围映射到虚拟场景下虚拟单摄像机到近裁剪平面的距离和虚拟单摄像机到远裁剪平面的距离之间,得到映射深度数据;获取所述映射深度数据中的深度最小值和深度最大值,并根据所述深度最小值和所述深度最大值分别确定所述虚拟单摄像机到最近物体的距离和所述虚拟单摄像机到最远物体的距离。进一步来说,通过以下公式将深度数据映射到虚拟场景下虚拟单摄像机到近裁剪平面的距离和虚拟单摄像机到远裁剪平面的距离之间: Z s e n c e = 2 * N _ V * F _ V Z b u f f e r ′ * ( F _ V - N _ V ) - ( N _ V + F _ V ) ; ]]>其中,Zsence为映射后的深度数据,Z'buffer为映射前的深度数据,N_V为虚拟单摄像机到近裁剪平面的距离,F_V为虚拟单摄像机到远裁剪平面的距离。进一步来说,所述获取所述映射深度数据中的深度最小值和深度最大值的步骤包括:根据所述映射深度数据构建深度信息直方图;根据所述深度信息直方图,获取所述映射深度数据中的深度最小值和深度最大值。进一步来说,所述根据所述虚拟单摄像机到最近物体的距离和虚拟单摄像机到最远物体的距离,确定左右虚拟摄像机的视间距和投影参数的步骤包括:根据真实场景中最大凸出距离下的第一视差与最大凹进距离下的第二视差之间的比值与虚拟场景中虚拟单摄像机到最近物体的距离下的第三视差与虚拟单摄像机到最远物体的距离下的第四视差之间的比值相等,从而根据所述虚拟单摄像机到最近物体的距离和所述虚拟单摄像机到最远物体的距离,确定左右虚拟摄像机的视间距和投影参数。进一步来说,所述根据真实场景中最大凸出距离下的第一视差与最大凹进距离下的第二视差之间的比值与虚拟场景中虚拟单摄像机到最近物体的距离下的第三视差与虚拟单摄像机到最远物体的距离下的第四视差之间的比值相等,从而根据所述虚拟单摄像机到最近物体的距离和所述虚拟单摄像机到最远物体的距离,确定左右虚拟摄像机的视间距和投影参数的步骤包括:通过如下公式获取真实场景中最大凸出距离下的第一视差dN_R: d N _ R = N _ R * E _ R Z _ R - N _ R ; ]]>其中,N_R为所述最大凸出距离,E_R为真实场景中的视间距,Z_R为真实场景中双眼到真实屏幕的距离;通过如下公式获取真实场景中最大凹进距离下的第二视差dF_R: d F _ R = F _ R * E _ R Z _ 本文档来自技高网...
一种虚拟立体场景的构建方法、装置及立体显示设备

【技术保护点】
一种虚拟立体场景的构建方法,其特征在于,包括:获取虚拟场景的像素的深度数据;根据所述深度数据,确定所述虚拟场景中虚拟单摄像机到最近物体的距离与虚拟单摄像机到最远物体的距离;根据所述虚拟单摄像机到最近物体的距离和虚拟单摄像机到最远物体的距离,确定左右虚拟摄像机的视间距和投影参数;根据所述左右虚拟摄像机的视间距和所述虚拟单摄像机,得到左右虚拟摄像机;根据所述左右虚拟摄像机和所述左右虚拟摄像机各自的投影参数,对所述虚拟场景进行非对称透视投影变换,从而构建虚拟立体场景。

【技术特征摘要】
1.一种虚拟立体场景的构建方法,其特征在于,包括:获取虚拟场景的像素的深度数据;根据所述深度数据,确定所述虚拟场景中虚拟单摄像机到最近物体的距离与虚拟单摄像机到最远物体的距离;根据所述虚拟单摄像机到最近物体的距离和虚拟单摄像机到最远物体的距离,确定左右虚拟摄像机的视间距和投影参数;根据所述左右虚拟摄像机的视间距和所述虚拟单摄像机,得到左右虚拟摄像机;根据所述左右虚拟摄像机和所述左右虚拟摄像机各自的投影参数,对所述虚拟场景进行非对称透视投影变换,从而构建虚拟立体场景。2.根据权利要求1所述的构建方法,其特征在于,所述获取虚拟场景的像素的深度数据的步骤包括:从所述虚拟场景的深度缓存区中读取所述虚拟场景每个像素的深度数据。3.根据权利要求1所述的构建方法,其特征在于,所述根据所述深度数据,确定所述虚拟场景中虚拟单摄像机到最近物体的距离与虚拟单摄像机到最远物体的距离的步骤包括:遍历所述深度数据,查找所述深度数据中的深度最大值和深度最小值;将所述深度最小值映射到虚拟场景下虚拟单摄像机到近裁剪平面的距离和虚拟单摄像机到远裁剪平面的距离之间,得到所述虚拟场景中虚拟单摄像机到最近物体的距离,将所述深度最大值映射到虚拟场景下虚拟单摄像机到近裁剪平面的距离和虚拟单摄像机到远裁剪平面的距离之间,得到所述虚拟场景中虚拟单摄像机到最远物体的距离;或者将所述深度数据的数据范围映射到虚拟场景下虚拟单摄像机到近裁剪平面的距离和虚拟单摄像机到远裁剪平面的距离之间,得到映射深度数据;获取所述映射深度数据中的深度最小值和深度最大值,并根据所述深度最小值和所述深度最大值分别确定所述虚拟单摄像机到最近物体的距离和所述虚拟单摄像机到最远物体的距离。4.根据权利要求3所述的构建方法,其特征在于,通过以下公式将深度数据映射到虚拟场景下虚拟单摄像机到近裁剪平面的距离和虚拟单摄像机到远裁剪平面的距离之间: Z s e n c e = 2 * N _ V * F _ V Z b u f f e r ′ * ( F _ V - N _ V ) - ( N _ V + F _ V ) ; ]]>其中,Zsence为映射后的深度数据,Z′buffer为映射前的深度数据,N_V为虚拟单摄像机到近裁剪平面的距离,F_V为虚拟单摄像机到远裁剪平面的距离。5.根据权利要求3所述的构建方法,其特征在于,所述获取所述映射深度数据中的深度最小值和深度最大值的步骤包括:根据所述映射深度数据构建深度信息直方图;根据所述深度信息直方图,获取所述映射深度数据中的深度最小值和深度最大值。6.根据权利要求1至5任一项所述的构建方法,其特征在于,所述根据所述虚拟单摄像机到最近物体的距离和虚拟单摄像机到最远物体的距离,确定左右虚拟摄像机的视间距和投影参数的步骤包括:根据真实场景中最大凸出距离下的第一视差与最大凹进距离下的第二视差之间的比值与虚拟场景中虚拟单摄像机到最近物体的距离下的第三视差与虚拟单摄像机到最远物体的距离下的第四视差之间的比值相等,从而根据所述虚拟单摄像机到最近物体的距离和所述虚拟单摄像机到最远物体的距离,确定左右虚拟摄像机的视间距和投影参数。7.根据权利要求6所述的构建方法,其特征在于,所述根据真实场景中最大凸出距离下的第一视差与最大凹进距离下的第二视差之间的比值与虚拟场景中虚拟单摄像机到最近物体的距离下的第三视差与虚拟单摄像机到最远物体的距离下的第四视差之间的比值相等,从而根据所述虚拟单摄像机到最近物体的距离和所述虚拟单摄像机到最远物体的距离,确定左右虚拟摄像机的视间距和投影参数的步骤包括:通过如下公式获取真实场景中最大凸出距离下的第一视差dN_R: d N _ R = N _ R * E _ R Z _ R - N _ R ; ]]>其中,N_R为所述最大凸出距离,E_R为真实场景中的视间距,Z_R为真实场景中双眼到真实屏幕的距离;通过如下公式获取真实场景中最大凹进距离下的第二视差dF_R: d F _ R = F _ R * E _ R Z _ R + F _ R ; ]]>其中,F_R为所述最大凹进距离;根据真实场景中所述第一视差与所述第二视差之间的比值与虚拟场景中虚拟单摄像机到最近物体的距离下的第三视差与虚拟单摄像机到最远物体的距离下的第四视差之间的比值相等所构建的如下关系式,确定虚拟单摄像机到虚拟零视差平面的第一距离Con: C o n = R + 1 1 N _ O + R F _ O ; ]]>其中:N_O为虚拟单摄像机到最近物体的距离,F_O为虚拟单摄像机到最远物体的距离,R为所述第一视差dN_R与所述第二视差dF_R之间的比值,根据所述第一距离,确定所述左右虚拟摄像机的视间距;根据所述第一距离以及所述视间距,确定所述左右虚拟摄像机的投影参数。8.根据权利要求7所述的构建方法,其特征在于,所述根据所述第一距离,确定所述左右虚拟摄像机的视间距的步骤包括:根据所述第一距离,获取虚拟屏幕的宽度;根据所述虚拟屏幕的宽度,获取所述虚拟屏幕和真实屏幕之间的缩放比例;根据所述缩放比例和所述第一距离,确定所述左右虚拟摄像机的视间距。9.根据权利要求8所述的构建方法,其特征在于,所述根据所述第一距离,获取所述虚拟屏幕的宽度的步骤包括:通过如下公式获取所述虚拟屏幕的宽度WCon:WCon=W_V*Con/N_V;其中,Con为所述第一距离,W_V为所述虚拟场景的近裁剪平面的宽度,N_V为虚拟单摄像机到所述近裁剪平面的距离;所述根据所述虚拟屏幕的宽度,获取所述虚拟屏幕和真实屏幕之间的缩放比例的步骤包括:通过如下公式获取所述虚拟屏幕与所述真实屏幕之间的缩放比例其中,W_R为所述真实屏幕的宽度;所述根据所述缩放比例和所述第一距离,确定所述左右虚拟摄像机的视间距的步骤包括:通过如下公式确定左右虚拟摄像机的视间距Sep:其中,为所述缩放比例,Con为所述第一距离,dN_R为所述第一视差,N_O为虚拟单摄像机到最近物体的距离;或者通过如下公式确定左右虚拟摄像机的视间距Sep:其中,为所述缩放比例,Con为所述第一距离,dF_R为所述第二视差,F_O为虚拟单摄像机到最远物体的距离。10.一种虚拟立体场景的构建装置,其特征在于,包括:获取模块,用于获取虚拟场景的像素的深度数据;第一确定模块,用于根据所述深度数据,确定所述虚拟场景中虚拟单摄像机到最近物体的距离与虚拟单摄像机到最远物体的距离;第二确定模块,用于根据所述虚拟单摄像机到最近物体的距离和虚拟单摄像机到最远物体的距离,确定左右虚拟...

【专利技术属性】
技术研发人员:刘江
申请(专利权)人:深圳超多维光电子有限公司
类型:发明
国别省市:广东;44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1