当前位置: 首页 > 专利查询>天津大学专利>正文

三维可视化分析方法及系统技术方案

技术编号:21274890 阅读:39 留言:0更新日期:2019-06-06 08:44
本发明专利技术提供了一种三维可视化分析方法及系统,其中,所述方法包括:实时接收眼动捕捉装置发送的每个参测者在虚拟现实环境中的三维的视线点坐标;对全部参测者的视线点三维空间坐标进行可视化分析。本发明专利技术缓解了现有技术中存在的无法对空间认知产生影响的三维空间要素及视线点的三维空间位置进行三维空间定位的技术问题,达到了能够在三维空间中定位并标识出对空间认知产生影响的空间要素及视线点的三维空间位置的技术效果;缓解了现有技术中存在的无法对空间认知实验数据进行视线、视距以及群体性叠加分析,达到了能够在三维基础模型中进行空间认知实验数据的视线、视距以及群体性叠加分析的技术效果。

【技术实现步骤摘要】
三维可视化分析方法及系统
本专利技术涉及空间认知
,尤其是涉及一种三维可视化分析方法及系统。
技术介绍
建筑与城市空间环境质量与价值,是由人的空间认知与使用体验所决定的。如何通过技术手段分析人的认知机制和使用方式是空间认知研究中的主要问题之一。传统研究方法存在三方面困难,首先真实建筑与城市研究样本分布于全世界,且环境复杂,难以实施理想的实验研究;其次不可能针对未建成建筑与城市开展测试评价;此外招募大量被测人群具有一定难度。虚拟现实技术的快速发展,使得大型建筑与城市空间环境可以在虚拟现实环境中进行搭建,并在实验室中进行解析实验。但目前空间认知相关的虚拟现实实验平台存在以下问题:(1)对人的视点捕捉及分析处于二维层面:在虚拟现实实验中利用眼动仪眼动捕捉装置进行眼动及视点捕捉技术已经相对完善,但对于视点坐标的提取及视点的热度分析,仅能提供二维的视点数据及二维的视点热度分析。很难在三维空间中对视点进行捕捉及视点分布进行分析,因此,无法准确的显示出对空间认知产生影响的空间要素及视线点的空间位置。(2)沉浸式虚拟现实环境晕动症明显:现阶段沉浸式虚拟现实实验多采用头戴显示器和操控手柄控制,在实验过程中,参测者虽然在视觉上感受到了运动,但是实际上身体并没有运动,在前庭系统与视觉系统的协同作用下,参测者在虚拟现实环境中移动时,常会伴有眩晕和恶心等反应,会对认知实验产生一定的影响。(3)虚拟现实的认知实验模型真实性差:以往对于空间认知的虚拟现实实验都是搭建简易的三维模型,表面材质采用贴图或无材质。与真实环境相差较大,导致实验的结果可能存在一定的差异性。
技术实现思路
(一)要解决的技术问题鉴于上述技术问题,本专利技术的目的在于提供一种三维可视化分析方法及系统,缓解现有技术中存在的无法准确的在三维环境中显示出对空间认知产生影响的空间要素及视线点的三维空间位置的技术问题。(二)技术方案根据本专利技术的一个方面,提供了一种三维可视化分析方法,包括:实时接收眼动捕捉装置发送的每个参测者在虚拟现实环境中的三维的视线点坐标;以及对全部参测者的所述视线点坐标进行三维可视化分析。在一些实施例中,在对全部参测者的所述视线点坐标进行三维可视化分析之前,还包括:实时接收每个参测者在所述虚拟现实环境中的位置坐标和参测者头部轴线方向信息,以所述位置坐标为原点,向所述头部轴线方向的正前方发出射线,若射线与所述虚拟现实环境中的任意刚体发生碰撞,则获取三维的头部轴线方向射线碰撞点坐标。在一些实施例中,所述对全部参测者的所述视线点坐标进行三维可视化分析,包括:将全部参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到视线点分布密度可视化分析模型;将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到碰撞点分布密度可视化分析模型;对比所述视线点分布密度可视化分析模型和所述碰撞点分布密度可视化分析模型,确定参测者在空间中的视线点与所述碰撞点间的相关性和差异性。在一些实施例中,所述将全部参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到视线点分布密度可视化分析模型,包括:将全部参测者的所述视线点坐标和所述位置坐标输入所述基础模型中,将全部参测者的所述视线点坐标和所述位置坐标还原到所述基础模型上;将所述基础模型根据视线点的分布密度划分为多个分布区域,每个所述分布区域分别设置一个与其对应的视线点分布密度等级;计算每个所述位置坐标的视距,所述视距为所述位置坐标及与所述位置坐标对应的视线点坐标之间的距离;统计与每个所述位置坐标密度等级对应的分布区域内的所述视距,确定与每个所述位置坐标密度等级对应的最远视线点视距、最近视线点视距和所述分布区域内全部视距的数据数量。在一些实施例中,所述将全部参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到视线点分布密度可视化分析模型,包括:将全部参测者的所述视线点坐标和所述位置坐标输入所述基础模型中,将全部参测者的所述视线点坐标和所述位置坐标还原到所述基础模型上;计算每个所述位置坐标的视距,所述视距为所述位置坐标及与所述位置坐标对应的视线点坐标之间的距离;统计所述基础模型中的全部所述视距,确定全视线点最长视距、全视线点最短视距和全视线点视距数量。在一些实施例中,所述将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到碰撞点分布密度可视化分析模型,包括:将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,将全部参测者的所述碰撞点坐标和所述位置坐标还原到所述基础模型上;将所述基础模型根据碰撞点的分布密度划分为多个分布区域,每个所述分布区域分别设置一个与其对应的碰撞点分布密度等级;计算每个所述位置坐标的视距,所述视距为所述位置坐标及与所述位置坐标对应的碰撞点坐标之间的距离;统计与每个所述位置坐标密度等级对应的分布区域内的所述视距,确定与每个所述位置坐标密度等级对应的碰撞点最长视距、碰撞点最短视距和所述分布区域内碰撞点视距数量。在一些实施例中,所述将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到所述碰撞点分布密度可视化分析模型,包括:将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,将全部参测者的所述碰撞点坐标和所述位置坐标还原到所述基础模型上;计算每个所述位置坐标的视距,所述视距为所述位置坐标及与所述位置坐标对应的碰撞点坐标之间的距离;统计所述基础模型中的全部所述视距,确定全碰撞点最长视距、全碰撞点最短视距和全碰撞点视距数量。在一些实施例中,所述对全部参测者的所述视线点坐标进行三维可视化分析,包括:将每个参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到每个参测者在所述虚拟现实环境中的运动轨迹和与所述运动轨迹对应的视线点分布模型;将每个参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到每个参测者在所述虚拟现实环境中的所述运动轨迹和与所述运动轨迹对应的碰撞点分布模型;将每个参测者的所述视线点坐标、所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到每个参测者在所述虚拟现实环境中的所述运动轨迹、与所述运动轨迹对应的视线点分布和碰撞点分布模型;将全部参测者的所述位置坐标输入所述基础模型中,得到全部参测者在所述虚拟现实环境中的运动轨迹密度分布模型。在一些实施例中,在实时接收眼动捕捉装置发送的每个参测者在虚拟现实环境中的三维的视线点坐标之前,还包括:获取待认知空间的基础信息和影像数据;根据所述基础信息生成所述待认知空间的点云模型;根据所述影像数据和所述点云模型生成所述基础模型;将所述基础模型导入Unity3D平台,生成所述虚拟现实环境。根据本专利技术的另一个方面,提供了一种三维可视化分析系统,包括:追踪器、万向移动平台、头戴显示器、空间定位仪、图形工作站和眼动捕捉装置;所述图形工作站和所述头戴显示器连接,用于传输虚拟现实环境的影像给所述头戴显示器,根据接收到的所述万向移动平台和所述追踪器发送的双脚相对位置信息生成参测者在所述虚拟现实环境中的移动方向和移动速度,根据所述移动方向和所述移动速度更新传输给所述头戴显示器的影像,接收所述空间定位仪发送的每个参测者在所述虚本文档来自技高网...

【技术保护点】
1.一种三维可视化分析方法,其特征在于,包括:实时接收眼动捕捉装置发送的每个参测者在虚拟现实环境中的三维的视线点坐标;以及对全部参测者的所述视线点坐标进行三维可视化分析。

【技术特征摘要】
1.一种三维可视化分析方法,其特征在于,包括:实时接收眼动捕捉装置发送的每个参测者在虚拟现实环境中的三维的视线点坐标;以及对全部参测者的所述视线点坐标进行三维可视化分析。2.根据权利要求1所述的方法,其特征在于,在对全部参测者的所述视线点坐标进行三维可视化分析之前,还包括:实时接收每个参测者在所述虚拟现实环境中的位置坐标和参测者头部轴线方向信息,以所述位置坐标为原点,向所述头部轴线方向的正前方发出射线,若射线与所述虚拟现实环境中的任意刚体发生碰撞,则获取三维的头部轴线方向射线碰撞点坐标。3.根据权利要求2所述的方法,其特征在于,所述对全部参测者的所述视线点坐标进行三维可视化分析,包括:将全部参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到视线点分布密度可视化分析模型;将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到碰撞点分布密度可视化分析模型;对比所述视线点分布密度可视化分析模型和所述碰撞点分布密度可视化分析模型,确定参测者在空间中的视线点与所述碰撞点间的相关性和差异性。4.根据权利要求3所述的方法,其特征在于,所述将全部参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到视线点分布密度可视化分析模型,包括:将全部参测者的所述视线点坐标和所述位置坐标输入所述基础模型中,将全部参测者的所述视线点坐标和所述位置坐标还原到所述基础模型上;将所述基础模型根据视线点的分布密度划分为多个分布区域,每个所述分布区域分别设置一个与其对应的视线点分布密度等级;计算每个所述位置坐标的视距,所述视距为所述位置坐标及与所述位置坐标对应的视线点坐标之间的距离;统计与每个所述位置坐标密度等级对应的分布区域内的所述视距,确定与每个所述位置坐标密度等级对应的最远视线点视距、最近视线点视距和所述分布区域内全部视距的数据数量。5.根据权利要求3所述的方法,其特征在于,所述将全部参测者的所述视线点坐标和所述位置坐标输入与所述虚拟现实环境对应的基础模型中,得到视线点分布密度可视化分析模型,包括:将全部参测者的所述视线点坐标和所述位置坐标输入所述基础模型中,将全部参测者的所述视线点坐标和所述位置坐标还原到所述基础模型上;计算每个所述位置坐标的视距,所述视距为所述位置坐标及与所述位置坐标对应的视线点坐标之间的距离;统计所述基础模型中的全部所述视距,确定全视线点最长视距、全视线点最短视距和全视线点视距数量。6.根据权利要求3所述的方法,其特征在于,所述将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,得到碰撞点分布密度可视化分析模型,包括:将全部参测者的所述碰撞点坐标和所述位置坐标输入所述基础模型中,将全部参测者的所述碰撞点坐标和所述位置坐标还原到所述基础模型上;将所述基础模型根据碰撞点的分布密度划分为多个分布区域,每个所述分布区域分别设置一个与其对应的碰撞点分布密度等级;计算每个所述位置坐标的视距,所述视距为所述位置坐标及与所述位置坐标对应的碰撞点坐标之间的距离;统计与每个所述位置坐标密度等级对应的分布区域内的所述视距,确定与每个所述位置坐标密度等级对应的碰撞点最长视距、碰撞点最短视距和所述分布区域...

【专利技术属性】
技术研发人员:苑思楠张寒
申请(专利权)人:天津大学
类型:发明
国别省市:天津,12

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1