一种基于单光场相机多重聚焦的虚拟现实三维数据采集方法,包含步骤:S101,利用单个光场相机获取微透镜校准图,定位微透镜中心并拍摄物体光场图像;S102,通过多重视角原理获取所有视角图像;S103,设定像距,按多重聚焦原理获取一个焦深的图像;S104,重新设定像距,进行步骤S103,获取另一焦深处的图像。
【技术实现步骤摘要】
本专利技术属于三维重建
,特别涉及一种基于单光场相机多重聚焦的虚拟现实三维数据采集方法。
技术介绍
现有技术中,对于被测物体虚拟现实的三维数据的获取技术分散于各种文献中,但是都各有其缺点。例如有参考文献:[1]GonzalezRC,WoodsRE.Digitalimageprocessing[J].NuevaJersey,2008.[2]LevoyM,HanrahanP.Lightfieldrendering[C]//Proceedingsofthe23rdannualconferenceonComputergraphicsandinteractivetechniques.ACM,1996:31-42.
技术实现思路
本专利技术的目的是提供一种基于单光场相机多重聚焦的虚拟现实三维数据采集方法。本专利技术的技术方案是,一种基于单光场相机多重聚焦的虚拟现实三维数据采集方法,包含以下步骤:S101,利用单个光场相机获取微透镜校准图,定位微透镜中心并拍摄物体光场图像;S102,通过多重视角原理获取所有视角图像;S103,设定像距,按多重聚焦原理获取一个焦深的图像;S104,重新设定像距,进行步骤S103,获取另一焦深处的图像。对于步骤S101,方法为在光场相机远处放置一块白板,将光圈调至最小,调整曝光时间使得图像不至于过曝光或欠曝光,此时拍下的照片可以看作是由微透镜正下方的发光点组成,借此算出微透镜的中心坐标,将获得的光场图像做裁剪,在给定图像左上角第一个像素之后,按照初始设定的微透镜间距(Δx,Δy)去横向搜寻右边最近的微透镜中心,在定位中心的过程中微透镜间距实时更新,以减少累计误差,即:Δx=xi-xi-1(1)Δy=yi-yi-1(2)在计算微透镜中心时,采用质心法来计算中心的坐标,步骤如下:首先用历遍像素的方法找到一个局部最亮点,以局部最亮点为中心外架n×n邻域,再用质心法加权求出亮点的中心坐标(X,Y),其公式可以写成:X=Σi,jxi,j*vi,jΣi,jvi,j---(3)]]>Y=Σi,jyi,j*vi,jΣi,jvi,j---(4)]]>其中xi,j,yi,j分别是邻域内坐标(i,j)处的横坐标值和纵坐标值,vi,j是(xi,j,yi,j)处的像素值,将所需进行多重聚焦处理的物体放置在镜头范围内,使得背景对拍摄物体后处理的影响降至最低,调整镜头的焦距,使得被拍摄的物体前后位置位于透镜对焦平面两侧,调整曝光时间,拍摄一张图像即可。对于步骤S102,按照多重视角原理,每个微透镜自身记录了光线的位置信息,而微透镜下所有像素记录了射向同一位置但角度各不相同的光线,过程包括:取出每个微透镜下代表同一方向的某个像素,并将这些像素拼合成一幅图像,这便是某一个视角的图像,当再次取用微透镜下的另一个像素时,又会形成一个不同视角的图像。对于步骤S103,设定像距,按多重聚焦原理获取一个焦深的图像,设微透镜平面所在的位置距离主透镜平面的距离为F,想要聚焦的平面,即重聚焦平面距离主透镜的距离为αF。画出经过重聚焦平面上坐标为x’的点的所有光线,这些光线可以用其与主透镜和微透镜阵列的交点坐标(u,x)来表示,故每条光线可以在u-x平面中表示为一个点,光线的数量是有限的,等于主透镜被离散的份数。x’与u,x的关系可写成:x′=u·(1-1α)+xα---(5)]]>可以看出,在x’确定后u和x成线性关系,故所有光线在u-x平面中会落在一条直线上,当x’发生变化时,直线会沿x轴方向做相应平移。步骤S102中获取的不同视角的图片,其坐标(s,t)正是(5)式中的u坐标,而x坐标则可由像素的绝对位置来确定,按(5)式的规律找到所有光线进行加和,整个过程可以用下式表示:Σs,tPerspec(s,t,x+(α-1)s,y+(α-1)t)(6)。对于步骤S104,物距通过已知的像距和主透镜焦距计算获得,是随α值不均匀变化的一个量,对应某个α,物距根据几何光学透镜成像公式可写作:本专利技术能通过单个光场相机对景物的一次拍摄,经过算法处理获取物体多个焦深处的图像,对于某个特定的焦深,分布于其上的物体将会得到清晰的像,其余物体将形成模糊的像。获取的多个焦深的图像可以被后续光场单相机算法所使用,亦可以供一些需要不同焦深图像的场所,如为VR技术提供输入内容的景深数据,提高VR输出的立体感、沉浸感等。附图说明图1单光场相机三维成像原理图图2因质量差而应舍去的校准图边缘示意图图3.校准图非边缘示意图图4.单光场相机校准图图5.质心法邻域示意图图6.重聚焦原理图图7u-x平面内表示光线图8.实施例中近场重聚焦效果示意图图9.远场重聚焦效果示意图图10本专利技术的方法流程示意图具体实施方式本专利技术涉及一种基于单个光场相机的重聚焦方法,通过单次拍摄物体加上可预先获取的校准图像,经过算法处理,可以形成不同焦深处的图像。包含以下步骤:1)微透镜校准图获取及微透镜中心定位由于算法需要,在进行一切光场图像后处理的时候都会用到微透镜的坐标信息,而这些坐标会因一些外部因素随时间改变。故在拍摄一组光场照片之前,都需要进行一次校准。方法为在光场相机远处放置一块白板,将光圈调至最小,调整曝光时间使得图像不至于过曝光或欠曝光。此时拍下的照片可以看作是由微透镜正下方的发光点组成。可以借此算出微透镜的中心坐标。在计算微透镜中心位置时,由于图像边缘的质量较差(见图2),需要将原始光场图像做一定的裁剪,裁剪厚度约为100个像素。在给定图像左上角第一个像素之后,就可以按照初始设定的微透镜间距(Δx,Δy)去横向搜寻右边最近的微透镜中心。在定位中心的过程中微透镜间距实时更新,以减少累计误差。即:Δx=xi-xi-1(1)Δy=yi-yi-1(2)在计算微透镜中心时,采用质心法来计算中心的坐标[1],步骤如下:首先用历遍像素的方法找到一个局部最亮点,以局部最亮点为中心外架3*3邻域,(若中心点分布较广,可采用更大的邻域)图5中采用的是3*3邻域。再用质心法加权求出亮点的中心坐标(X,Y),其公式可以写成:X=Σi,jxi,j*vi,jΣi,jvi,j---(3)]]>Y=Σi,jyi,j*vi,jΣi,jvi,j---(4)]]>其中xi,j,yi,j分别是邻域内坐标(i,j)处的横坐标值和纵坐标值,vi,j是(xi,j,yi,j)处的像素值。2)物体光场图像拍摄将所需进行多重聚焦处理的物体放置在镜头范围内,使得背景对拍摄物体后处理的影响降至最低。调整镜头的焦距,使得被拍摄的物体前后位置位于透镜对焦平面两侧,提高对高分辨率区域的利用率。调整曝光时间,以得到最合适的亮度。最后,拍摄一张图像即可。3)获取多重视角图片按照多重视角原理[2],每个微透镜自身记录了光线的位置信息,而微透镜下所有像素记录了射向同一位置但角度各不相同的光线。概括多重视角的原理可以写作:取出每个微透镜下代表同一方向的某个像素,并将这些像素拼合成一幅图像,这便是某一个视角的图像。当再次取用微透镜下的另一个像素时,又会形成一个不同视角的图像。4)设定像距,按多重聚焦原本文档来自技高网...
【技术保护点】
一种基于单光场相机多重聚焦的虚拟现实三维数据采集方法,包含以下步骤:S101,利用单个光场相机获取微透镜校准图,定位微透镜中心并拍摄物体光场图像;S102,通过多重视角原理获取所有视角图像;S103,设定像距,按多重聚焦原理获取一个焦深的图像;S104,重新设定像距,进行步骤S103,获取另一焦深处的图像。
【技术特征摘要】
1.一种基于单光场相机多重聚焦的虚拟现实三维数据采集方法,包含以下步骤:S101,利用单个光场相机获取微透镜校准图,定位微透镜中心并拍摄物体光场图像;S102,通过多重视角原理获取所有视角图像;S103,设定像距,按多重聚焦原理获取一个焦深的图像;S104,重新设定像距,进行步骤S103,获取另一焦深处的图像。2.如权利要求1所述的基于单光场相机多重聚焦的虚拟现实三维数据采集方法,其特征在于,对于步骤S101,方法为在光场相机远处放置一块白板,将光圈调至最小,调整曝光时间使得图像不至于过曝光或欠曝光,此时拍下的照片可以看作是由微透镜正下方的发光点组成,借此算出微透镜的中心坐标,将获得的光场图像做裁剪,在给定图像左上角第一个像素之后,按照初始设定的微透镜间距(Δx,Δy)去横向搜寻右边最近的微透镜中心,在定位中心的过程中微透镜间距实时更新,以减少累计误差,即:Δx=xi-xi-1(1)Δy=yi-yi-1(2)在计算微透镜中心时,采用质心法来计算中心的坐标,步骤如下:首先用历遍像素的方法找到一个局部最亮点,以局部最亮点为中心外架n×n邻域,再用质心法加权求出亮点的中心坐标(X,Y),其公式可以写成:X=Σi,jxi,j*vi,jΣi,jvi,j---(3)]]>Y=Σi,jyi,j*vi,jΣi,jvi,j---(4)]]>其中xi,j,yi,j分别是邻域内坐标(i,j)处的横坐标值和纵坐标值,vi,j是(xi,j,yi,j)处的像素值,将所需进行多重聚焦处理的物体放置在镜头范围内,使得背景对拍摄物体后处理的影响降至最低,调整镜头的焦距,使得被拍摄的物体前后位置位于透镜对焦平面两侧,调整曝光时间,拍摄一张图像即可。3.如权利要求1所述的基于单光...
【专利技术属性】
技术研发人员:李思嘉,
申请(专利权)人:李思嘉,
类型:发明
国别省市:上海;31
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。