首页 / 专利库 / 显示技术 / 立体视觉法 / 一种基于深度感知的虚拟现实系统空间定位方法

一种基于深度感知虚拟现实系统空间定位方法

阅读:733发布:2020-05-12

专利汇可以提供一种基于深度感知虚拟现实系统空间定位方法专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种基于深度 感知 的 虚拟现实 系统空间 定位 方法。所述方法首先通过VR头戴设备集成的视线 跟踪 系统跟踪人类视觉系统感知的注视点,基于注视点构建用户在 虚拟环境 注视目标对象时的 深度感知 模型;其次由注视点建立相对视觉感知的内参矩阵,从而计算3D注视点在图像上的2D投影 位置 ,并在此 基础 上计算人眼注视的目标点位置;然后量化VR系统设定的和视觉系统形成的深度感知差异;最后由深度感知差异对 虚拟摄像机 的位置进行补偿,得到视觉系统感知的自身在虚拟空间的位置。本发明考虑视觉系统在虚拟环境的深度感知差异,直接定位用户自身在虚拟场景中的感知位置,使得用户能够与虚拟物体进行更准确的交互,提高用户的交互体验。,下面是一种基于深度感知虚拟现实系统空间定位方法专利的具体信息内容。

1.一种基于深度感知虚拟现实系统空间定位方法,其特征在于,包括以下步骤:
S1、基于注视点构建人眼视觉系统的深度感知模型:当用户利用头戴式VR设备观看VR空间的目标时,由基于瞳孔膜反射技术的视线跟踪算法估计左右眼视线方向,然后利用空间解析几何知识计算这两条视线在空间中的最近点,该点即为人类的视觉注视点;将注视点与人眼位置结合构建视觉系统在虚拟空间的深度感知模型;
S2、基于注视点信息计算目标点位置:分析双目视觉的注视行为和相机成像的透视投影原理,比较两者关系,利用步骤S1计算出的注视点位置建立相对人眼视觉感知的内参矩阵,并依据该内参矩阵计算虚拟空间中3D注视点在图像上的2D投影点位置;然后根据注视点和VR空间中的目标点在2D图像上的投影位置相同的特点,使用注视点的投影位置和虚拟摄像机的参数计算此时注视的目标点在虚拟空间的3D位置,该点即为人类注视的虚拟空间中3D目标点位置;
S3、量化人类视觉系统在虚拟环境中的深度感知和VR系统设定的深度感知的差异:使用虚拟摄像机位置和步骤S2计算出的3D目标点位置获得VR系统设定的深度感知信息;将VR系统设定的深度感知与由注视点获得的视觉系统的深度感知进行比较,量化两者之间的深度感知差异;
S4、定位感知的自身位置:通过量化的深度感知差异对此时的虚拟摄像机位置进行补偿,得到校正后的空间位置,即为用户感知的自身在虚拟空间的位置。
2.根据权利要求1所述的一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,步骤S1中,实时跟踪视线注视点具体过程如下:
在t时刻,当人眼通过显示在VR头盔左右两个显示屏上的双目视差图像Itl和Itr注视虚拟空间中的目标点 时,由基于瞳孔角膜反射技术的视线跟踪算法获得双目视线方向,然后依据空间解析几何知识求解两条视线在空间中的最近点,该点即为视线注视点;令t时刻人眼在虚拟空间坐标系统下的3D注视点坐标为 其中上标V表示虚拟
空间坐标系统,k表示当前时间。
3.根据权利要求1所述的一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,步骤S1中,建立视觉系统在虚拟环境中的深度感知模型具体过程如下:
由视线注视点与虚拟空间坐标系统下的双眼中点计算视觉系统的深度感知,公式表述如下:
其中 为t时刻左右眼球中心位置, 为双眼中心,Qht为视觉系统在虚拟空间的深度感知。
4.根据权利要求1所述的一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,步骤S2中,基于视线注视点建立相对视觉感知的内参矩阵具体过程如下:
虚拟摄像机依据透视投影获得3D点和2D投影点的关系,在摄影几何中,虚拟摄像机的透视投影模型如下:
其中(x,y,z)表示虚拟空间中目标点的3D坐标,(x,y,z,1)为其齐次坐标形式,(u,v)为图像上的2D投影点,(u,v,1)为其齐次坐标形式,K表示虚拟摄像机内参矩阵,T为虚拟摄像机外参矩阵;内参矩阵中sx和sy表示在图像x轴和y轴上像素的焦距,ox和oy表示摄像机主点;在虚拟现实系统中,设定虚拟相机视差和人眼双目视差相同;同时忽略两者之间的偏移量,则虚拟摄像机位置和人眼球位置保持一致;不考虑头部和头盔之间的相对移动,则外参矩阵T相同,由VR系统直接获得;
对比分析虚拟摄像机的透视投影原理和人眼的成像模型,利用虚拟空间中的注视点信息计算相对视觉感知的内参矩阵,所述相对视觉感知的内参矩阵如下:
shx=Qht(z)·mx;
shy=Qht(z)·my;
ohxl=(wI-de·mx)/2;
ohxr=(wI+de·mx)/2;
oy=hI/2;
mx=wI/wd;
my=hI/hd;
Kh表示相对视觉感知的内参矩阵,shx、shy分别使用像素来描述x轴和y轴方向上焦距的长度,单位是pixel,ohx和ohy表示主点在x轴和y轴上的位置,shx、shy、ohx和ohy与虚拟摄像机参数意义相同;其中参数wI、hI、wd、hd、de分别表示图像的宽和高(pixel),屏幕的宽和高(mm)以及两眼间距,Qht(z)为视觉系统感知的深度距离值。
5.根据权利要求1所述的一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,步骤S2中,计算视线注视的虚拟目标点3D位置具体过程如下:
根据视线注视点位置 以及相对视觉感知的内参矩阵Kh和外参矩阵T,通过透视投影模型获得左右视差图上的投影点ztl和ztr;然后根据注视点 和目标点 在图像上的投影位置相同的特点,利用投影点和虚拟摄像机的位置和方位参数,由三角测量原理计算投影点的空间位置即目标点 由ztl和ztr计算空间点,如下所示:
stlztl=strRztr+t;
R,t表示两个虚拟相机之间的变换,由虚拟现实系统得到;stl和str表示两个投影点的深度距离;由该式求出双目视差图下的投影点深度,从而确定虚拟目标点的空间坐标 和
6.根据权利要求1所述的一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,步骤S3中,获取VR系统设定的深度感知具体过程如下:
由于存在计算误差和设备误差,由左右投影点ztl和ztr得到的空间坐标 和 通常不在同一点上,取其中点为最终的目标点坐标 然后由当前注视的目标点坐标与虚拟空间坐标系统下的虚拟摄像机中点位置计算VR系统设定的深度感知,如下所示:
其中 为虚拟摄像机在t时刻的中点位置;Qvt为VR系统设定的深度感知。
7.根据权利要求1所述的一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,步骤S3中,量化人类视觉系统在虚拟环境中的深度感知和VR系统设定的深度感知的差异具体过程如下:
在t时刻,双眼通过双目视差图Itl和Itr观看目标点 时,由于人类视觉系统的参数和VR系统中的虚拟摄像机参数不同,视觉系统形成的深度感知和VR建立的立体效果不同;通过比较视觉系统深度感知和VR系统设定的深度感知,量化两者差异,差异如下所示:
ΔQt=Qvt-Qht;
不考虑头戴式显示设备和头部(HMD-Head)的相对偏移,双目视线的起点与HMD相对位置固定;设定双目虚拟摄像机位置和人的双眼位置相同,即EV=PV;则两者差异简化形式如下所示:
8.根据权利要求1所述的一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,步骤S4中,定位感知的自身位置具体过程如下:
步骤S3中量化的深度感知差异即为视觉系统在虚拟和物理环境的深度感知差异,由量V
化的差值ΔQt对此时的虚拟摄像机位置P进行补偿,最终得到的空间位置即为用户感知的自身相对虚拟场景的位置 如下所示:

说明书全文

一种基于深度感知虚拟现实系统空间定位方法

技术领域

[0001] 本发明涉及虚拟现实技术领域,具体涉及一种基于深度感知的虚拟现实系统空间定位方法。

背景技术

[0002] 虚拟现实系统中的空间定位技术是连接物理空间和虚拟空间,实现人类与虚拟场景交互的关键技术。
[0003] 虚拟现实中定位是指确定用户自身在虚拟空间所处的位置。现有空间定位方法定位用户在物理空间的绝对空间位姿,并反馈到VR内容中,与VR虚拟摄像机空间位置相对应实现定位。主要分为两类:由外向内(Outside-in)和由内向外(Inside-out)空间定位方法。Outside-in方法通过放置在物理空间的外部设备定位头戴式显示器(HMD)位置,与虚拟空间中虚拟摄像机位置同步实现定位。增加外部传感器数量和降低传输时延可以提高定位准确度,是最主要的定位方式。这种方法只关注用户在物理空间的位置,没有考虑人类视觉感知在物理和虚拟空间不同的问题,认为虚拟摄像机的位置即为人感知的自身在虚拟空间的位置。(《基于Unity3D虚拟摄像系统中摄像机姿态定位》,该文采用外部传感器实时定位HMD在物理空间中的姿态,并与虚拟摄像机的位置同步实现定位。存在的不足是没有考虑人类视觉感知在物理和虚拟空间不同的问题,认为虚拟摄像机的位置即为人感知的自身在虚拟空间的位置。)Inside-out方法在HMD设备上集成传感器,定位HMD设备本身在物理空间的位置,从而定位用户在虚拟环境中的位置,通常采用视觉SLAM技术定位设备本身在物理空间的位置。该方法不需要任何外部传感器实现头盔本身自主定位,增加了VR的应用灵活性,为进一步连接物理空间和虚拟空间提供可能。这种方法同样只关注用户在物理空间的位置,没有考虑人类视觉感知在物理和虚拟空间不同的问题,即使正确定位自身在物理空间的姿态并实时反馈给VR系统,也无法使用户正确感知自身在虚拟空间的位置。(《Real-Time Motion Tracking for Mobile Augmented/Virtual Reality Using AdaptiveVisual-Inertial Fusion》,该文采用视觉-惯性传感器融合的SLAM方法定位HMD在物理空间的姿态,提高HMD在物理空间姿态估计的性能。存在的不足是只关注用户在物理空间的位置,没有考虑人类视觉感知在物理和虚拟空间不同的问题,即使正确定位自身在物理空间的姿态并实时反馈给VR系统,也无法使用户正确感知自身在虚拟空间的位置。)现有定位方法只关注用户在物理空间的位置,不考虑人类视觉感知在物理和虚拟空间不同的问题,认为虚拟摄像机的位置即为人感知的自身在虚拟空间的位置。然而,受渲染技术、计算机图像显示等关键问题的影响,以及不同用户双眼数据的差异,用户通过观看固定视察的双目虚拟摄像机得到的特定立体图像感知的深度信息和VR系统设定的深度信息存在差异,则虚拟摄像机位置不能等同于人类通过双眼视觉感知的自身相对虚拟场景的位置。即使正确定位自身在物理空间的姿态并实时反馈给VR系统,也无法使用户正确感知自身在虚拟空间的位置,无法正确自身与虚拟目标的位置关系,不能正确交互。
[0004] 因此在VR系统中,为了实现虚实正确交互,除了依据现有定位方法定位人在物理空间中的位置以外,还应该研究视觉感知在虚拟和物理空间的感知差异,定位用户感知的自身在虚拟空间所处的位置,将该位置与HMD在物理空间的位置进行同步才能实现真正的虚实同步。本发明提供了一种基于深度感知的虚拟现实系统空间定位方法,目的就是定位用户感知的自身在虚拟空间所处的位置。

发明内容

[0005] 建模类的VR系统通过固定视差为d的双目虚拟摄像机得到具有平视差的左右图像Itl和Itr,并将图像Itl和Itr分别显示在VR头盔的左右两个显示屏上;在头部与VR头盔显示设备相对静止时,人类视觉系统(Human Visual System)通过观看这些双目视差图像产生深度感知,就能判断自身与虚拟场景的相对位置关系;为了计算双目通过视差图感知的自身相对虚拟目标的位置,本发明针对现有虚拟现实定位技术忽视视觉感知在虚拟和物理空间感知差异的问题,公开了一种基于深度感知的虚拟现实系统空间定位方法。该方法以更接近人类视觉感知的注视点信息建模人类的视觉感知,并分析人类视觉感知在虚拟和物理空间中的差异,通过感知差异补偿虚拟摄像机位置获得用户感知的自身在虚拟空间的位置。然后将虚拟空间中感知的自身位置与物理空间中的头盔位置连接就能实现正确的虚实交互。该方法从VR系统设备内部研究视觉系统的深度感知,将人类视觉感知和虚拟客观场景的图像信息两部分内容进行结合,提高自身位置估计的可信度。
[0006] 本发明的目的至少通过如下技术方案实现。
[0007] 一种基于深度感知的虚拟现实系统空间定位方法,包括以下步骤:
[0008] S1、基于注视点构建人眼视觉系统的深度感知模型:当用户利用头戴式VR设备观看VR空间的目标时,由基于瞳孔膜反射技术的视线跟踪估计左右眼视线方向,然后利用空间解析几何知识计算这两条视线在空间中的最近点,该点即为人类的视觉注视点;将注视点与人眼位置结合构建视觉系统在虚拟空间的深度感知模型;
[0009] S2、基于注视点信息计算目标点位置:分析双目视觉的注视行为和相机成像的透视投影原理,比较两者关系,利用步骤S1计算出的注视点位置建立相对人眼视觉感知的内参矩阵,并依据该内参矩阵计算虚拟空间中3D注视点在图像上的2D投影点位置;然后根据注视点和VR空间中的目标点在2D图像上的投影位置相同的特点,使用注视点的投影位置和虚拟摄像机的参数计算此时注视的目标点在虚拟空间的3D位置,该点即为人类注视的虚拟空间中3D目标点位置;
[0010] S3、量化人类视觉系统在虚拟环境中的深度感知和VR系统设定的深度感知的差异:使用虚拟摄像机位置和步骤S2计算出的3D目标点位置获得VR系统设定的深度感知信息;将VR系统设定的深度感知与由注视点获得的视觉系统的深度感知进行比较,量化两者之间的深度感知差异;
[0011] S4、定位感知的自身位置:通过量化的深度感知差异对此时的虚拟摄像机位置进行补偿,得到校正后的空间位置,即为用户感知的自身在虚拟空间的位置。
[0012] 进一步地,步骤S1中,实时跟踪视线注视点具体过程如下:
[0013] 在t时刻,当人眼通过显示在VR头盔左右两个显示屏上的双目视差图像Itl和Itr注视虚拟空间中的目标点 时,由基于瞳孔角膜反射技术的视线跟踪算法获得双目视线方向,然后依据空间解析几何知识求解两条视线在空间中的最近点,该点即为视线注视点;令t时刻人眼在虚拟空间坐标系统下的3D注视点坐标为 其中上标V表示虚拟空间坐标系统,k表示当前时间。
[0014] 进一步地,步骤S1中,建立视觉系统在虚拟环境中的深度感知模型具体过程如下:
[0015] 由视线注视点与虚拟空间坐标系统下的双眼中点计算视觉系统的深度感知,公式表述如下:
[0016]
[0017]
[0018] 其中 为t时刻左右眼球中心位置, 为双眼中心,Qht为视觉系统在虚拟空间的深度感知。
[0019] 进一步地,步骤S2中,基于视线注视点建立相对视觉感知的内参矩阵具体过程如下:
[0020] 虚拟摄像机依据透视投影获得3D点和2D投影点的关系,在摄影几何中,虚拟摄像机的透视投影模型如下:
[0021]
[0022]
[0023] 其中(x,y,z)表示虚拟空间中目标点的3D坐标,(x,y,z,1)为其齐次坐标形式,(u,v)为图像上的2D投影点,(u,v,1)为其齐次坐标形式,K表示虚拟摄像机内参矩阵,T为虚拟摄像机外参矩阵;内参矩阵中sx和sy表示在图像x轴和y轴上像素的焦距,ox和oy表示摄像机主点;在虚拟现实系统中,设定虚拟相机视差和人眼双目视差相同;同时忽略两者之间的偏移量,则虚拟摄像机位置和人眼球位置保持一致;不考虑头部和头盔之间的相对移动,则外参矩阵T相同,由VR系统直接获得;
[0024] 对比分析虚拟摄像机的透视投影原理和人眼的成像模型,利用虚拟空间中的注视点信息计算相对视觉感知的内参矩阵,所述相对视觉感知的内参矩阵如下:
[0025] shx=Qht(z)·mx;
[0026] shy=Qht(z)·my;
[0027] ohxl=(wI-de·mx)/2;
[0028] ohxr=(wI+de·mx)/2;
[0029] oy=hI/2;
[0030] mx=wI/wd;
[0031] my=hI/hd;
[0032]
[0033] Kh表示相对视觉感知的内参矩阵,shx、shy分别使用像素来描述x轴和y轴方向上焦距的长度,单位是pixel,ohx和ohy表示主点在x轴和y轴上的位置,shx、shy、ohx和ohy与虚拟摄像机参数意义相同;其中参数wI、hI、wd、hd、de分别表示图像的宽和高(pixel),屏幕的宽和高(mm)以及两眼间距,Qht(z)为视觉系统感知的深度距离值。
[0034] 进一步地,步骤S2中,计算视线注视的虚拟目标点3D位置具体过程如下:
[0035] 根据视线注视点位置 以及相对视觉感知的内参矩阵Kh和外参矩阵T,通过透视投影模型获得左右视差图上的投影点ztl和ztr;然后根据注视点 和目标点 在图像上的投影位置相同的特点,利用投影点和虚拟摄像机的位置和方位参数,由三角测量原理计算投影点的空间位置即目标点 由ztl和ztr计算空间点,如下所示:
[0036] stlztl=strRztr+t;
[0037] R,t表示两个虚拟相机之间的变换,由虚拟现实系统得到;stl和str表示两个投影点的深度距离;由该式求出双目视差图下的投影点深度,从而确定虚拟目标点的空间坐标和
[0038] 进一步地,步骤S3中,获取VR系统设定的深度感知具体过程如下:
[0039] 由于存在计算误差和设备误差,由左右投影点ztl和ztr得到的空间坐标 和 通常不在同一点上,取其中点为最终的目标点坐标 然后由当前注视的目标点坐标与虚拟空间坐标系统下的虚拟摄像机中点位置计算VR系统设定的深度感知,如下所示:
[0040]
[0041] 其中 为虚拟摄像机在t时刻的中点位置;Qvt为VR系统设定的深度感知。
[0042] 进一步地,步骤S3中,量化人类视觉系统在虚拟环境中的深度感知和VR系统设定的深度感知的差异具体过程如下:
[0043] 在t时刻,双眼通过双目视差图Itl和Itr观看目标点 时,由于人类视觉系统的参数和VR系统中的虚拟摄像机参数不同,视觉系统形成的深度感知和VR建立的立体效果不同;通过比较视觉系统深度感知和VR系统设定的深度感知,量化两者差异,差异如下所示:
[0044] ΔQt=Qvt-Qht;
[0045] 不考虑头戴式显示设备和头部(HMD-Head)的相对偏移,双目视线的起点与HMD相V V对位置固定;设定双目虚拟摄像机位置和人的双眼位置相同,即E =P ;则两者差异简化形式如下所示:
[0046]
[0047] 进一步地,步骤S4中,定位感知的自身位置具体过程如下:
[0048] 步骤S3中量化的深度感知差异即为视觉系统在虚拟和物理环境的深度感知差异,由量化的差值ΔQt对此时的虚拟摄像机位置PV进行补偿,最终得到的空间位置即为用户感知的自身相对虚拟场景的位置 如下所示:
[0049]
[0050] 相比于现有技术,本发明的优点与积极效果在于:
[0051] (1)视线注视点是更接近人类视觉感知的深度线索,本发明通过跟踪用户注视点建模人类在虚拟空间的深度感知,能更有效反映人类在虚拟空间的深度感知。
[0052] (2)本发明依据摄像机投影原理,通过注视点信息建立相对人眼视觉感知的内参矩阵,充分利用了人类视觉系统的感知信息。
[0053] (3)本发明通过利用注视点信息计算目标点的3D位置,不需要在虚拟空间中设置标记点,是一种自动计算方法。
[0054] (4)本发明利用视觉感知的深度差异计算自身在虚拟空间的感知位置,正确表示自身相对感知虚拟场景的位置关系,能够提高虚实交互体验,缓解因视觉感知不一致引起的晕动症。附图说明
[0055] 图1是本发明实施例中的虚拟现实系统结构示意图。
[0056] 图2是本发明实施例中一种基于深度感知的虚拟现实系统空间定位方法的步骤流程图
[0057] 图3是本发明实施例中人眼视觉行为的几何模型图。
[0058] 图4是本发明实施例中虚拟摄像机的投影映射模型图。

具体实施方式

[0059] 下面结合附图和实施例对本发明的具体实施作进一步说明。
[0060] 实施例:
[0061] 一种基于深度感知的虚拟现实系统空间定位方法,如图2所示,包括如下步骤:
[0062] 步骤S1:基于视觉注视点建模人类视觉系统在虚拟空间的深度感知,具体实施步骤如下:
[0063] S1.1.实时跟踪视线注视点:
[0064] 在t时刻,当人眼通过显示在VR头盔左右两个显示屏上的双目视差图像Itl和Itr注视虚拟空间中的目标点 时,由基于瞳孔角膜反射技术的视线跟踪算法获得双目视线方向,然后依据空间解析几何知识求解两条视线在空间中的最近点,该点即为视线注视点;令t时刻人眼在虚拟空间坐标系统下的3D注视点坐标为 其中上标V表示虚拟空间坐标系统,k表示当前时间。
[0065] 如图1所示,本实施例中,所述VR头盔为集成了视线跟踪系统的虚拟现实头戴式显示设备1,所用的头戴式显示设备1集成的视线跟踪系统由显示屏2周围的多个红外光源3和两个显示屏下边缘中点的红外摄像头4组成,其中红外光源和红外摄像头用于在眼睛上产生眼动特征和实时地捕捉具有角膜反射人眼图像;则基于瞳孔角膜反射技术的视线跟踪算法通过人眼图像能够获得双目视线方向。
[0066] S1.2.建立视觉系统在虚拟环境中的深度感知模型:
[0067] 如图3所示,由视线注视点与虚拟空间坐标系统下的双眼中点计算视觉系统的深度感知,公式表述如下:
[0068]
[0069]
[0070] 其中 为t时刻左右眼球中心位置, 为双眼中心,Qht为视觉系统在虚拟空间的深度感知。
[0071] 步骤S2:基于注视点信息计算视线注视的虚拟目标点的3D位置,具体实施步骤如下:
[0072] S2.1.基于视线注视点建立相对视觉感知的内参矩阵:
[0073] 虚拟摄像机依据透视投影获得3D点和2D投影点的关系,在摄影几何中,虚拟摄像机的透视投影模型如下:
[0074]
[0075]
[0076] 其中(x,y,z)表示虚拟空间中目标点的3D坐标,(x,y,z,1)为其齐次坐标形式,(u,v)为图像上的2D投影点,(u,v,1)为其齐次坐标形式,K表示虚拟摄像机内参矩阵,T为虚拟摄像机外参矩阵;内参矩阵中sx和sy表示在图像x轴和y轴上像素的焦距,ox和oy表示摄像机主点;在虚拟现实系统中,设定虚拟相机视差和人眼双目视差相同;同时忽略两者之间的偏移量,则虚拟摄像机位置和人眼球位置保持一致;不考虑头部和头盔之间的相对移动,则外参矩阵T相同,由VR系统直接获得;
[0077] 如图3和图4所示,对比分析虚拟摄像机的透视投影原理和人眼的成像模型,利用虚拟空间中的注视点信息计算相对视觉感知的内参矩阵,所述相对视觉感知的内参矩阵如下:
[0078] shx=Qht(z)·mx;
[0079] shy=Qht(z)·my;
[0080] ohxl=(wI-de·mx)/2;
[0081] ohxr=(wI+de·mx)/2;
[0082] oy=hI/2;
[0083] mx=wI/wd;
[0084] my=hI/hd;
[0085]
[0086] Kh表示相对视觉感知的内参矩阵,shx、shy分别使用像素来描述x轴和y轴方向上焦距的长度,单位是pixel,ohx和ohy表示主点在x轴和y轴上的位置,shx、shy、ohx和ohy与虚拟摄像机参数意义相同;其中参数wI、hI、wd、hd、de分别表示图像的宽和高(pixel),屏幕的宽高(mm)以及两眼间距,Qht(z)为视觉系统感知的深度距离值;
[0087] S2.2.计算视线注视的虚拟目标点3D位置:
[0088] 如图3和图4所示,根据视线注视点位置 以及相对视觉感知的内参矩阵Kh和外参矩阵T,通过透视投影模型获得左右视差图上的投影点ztl和ztr;然后根据注视点 和目标点 在图像上的投影位置相同的特点,利用投影点和虚拟摄像机的位置和方位参数,由三角测量原理计算投影点的空间位置 由ztl和ztr计算空间点,如下所示:
[0089] stlztl=strRztr+t;
[0090] R,t表示两个虚拟相机之间的变换,由虚拟现实系统得到;stl和str表示两个投影点的深度距离;由该式求出双目视差图下的投影点深度,从而确定虚拟目标点的空间坐标和
[0091] 步骤S3:量化人类视觉系统感知的和VR系统设定的深度感知差异,具体实施步骤如下:
[0092] S3.1.获取VR系统设定的深度感知:
[0093] 由于存在计算误差和设备误差,由左右投影点ztl和ztr得到的空间坐标 和 通常不在同一点上,取其中点为最终的目标点坐标 然后由当前注视的目标点坐标与虚拟空间坐标系统下的虚拟摄像机中点位置计算VR系统设定的深度感知,如下所示:
[0094]
[0095] 其中 为虚拟摄像机在t时刻的中点位置。Qvt为VR系统设定的深度感知。 由左右两个虚拟摄像机位置 和 得到。
[0096] S3.2.量化感知的和设定的深度感知差异:
[0097] 在t时刻,双眼通过双目视差图Itl和Itr观看目标点 时,由于人类视觉系统的参数和VR系统中的虚拟摄像机参数不同,以及虚拟现实的深度线索和视觉系统的深度线索不完全相同,导致视觉系统形成的深度感知和VR建立的立体效果不同,通过步骤S1建模的视觉系统深度感知和VR系统设定的深度感知进行比较,量化两者差异,公式如下:
[0098] ΔQt=Qvt-Qht;
[0099] 不考虑头戴式显示设备和头部(HMD-head)的相对偏移,双目视线的起点与HMD相对位置固定,则双目视线的起点在虚拟空间中的位置EV与虚拟摄像机的位置也相对固定,成年人的双目间距大约65mm,依据成年人的双目间距设定虚拟摄像机假设的两个相机间距,则认为虚拟摄像机代替双目EV=PV;同时视觉感知研究结论“人在VR中的视觉感知深度距离更近”,简化后两者差异为
[0100]
[0101] 步骤S4:估计用户感知的自身在虚拟空间的位置,具体实施步骤如下:
[0102] 步骤S3中量化的深度感知差异即为视觉系统在虚拟和物理环境的深度感知差异,由量化的差值ΔQt对此时的虚拟摄像机位置PV进行补偿,最终得到的空间位置即为用户感知的自身相对虚拟场景的位置 如下所示:
[0103]
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈