首页 / 专利库 / 显示技术 / 虚拟现实 / 虚拟环境 / 洞穴自动虚拟环境 / 用于实现沉浸式洞穴状自动虚拟环境的系统和方法

用于实现沉浸式洞穴状自动虚拟环境的系统和方法

阅读:784发布:2020-05-11

专利汇可以提供用于实现沉浸式洞穴状自动虚拟环境的系统和方法专利检索,专利查询,专利分析的服务。并且本公开涉及一种用于实现沉浸式洞穴状自动 虚拟环境 (CAVE)的系统(或称为沉浸式虚拟仿真系統),其中所提出的系统包括:主 服务器 引擎,该主服务器引擎被配置成实现多面 电子 视觉显示装置;还包括实时动作追踪引擎,该实时动作追踪引擎与主服务器引擎可操作地耦接。该动作追踪引擎可以被配置成使用可操作地耦接到所述实时动作追踪引擎的一个或多个动作追踪 传感器 实时地确定至少一个动作追踪对象跨X、Y和Z坐标的信息实体 位置 数据,并实现基于所述信息实体位置数据生成所述至少一个追踪对象的追踪数据,所述追踪数据用于将所述至少一个追踪对象集成在所述CAVE中并进行 可视化 3D。,下面是用于实现沉浸式洞穴状自动虚拟环境的系统和方法专利的具体信息内容。

1.一种用于实现沉浸式洞穴状自动虚拟环境CAVE的系统,所述系统包括:
服务器引擎,所述主服务器引擎被配置为实现多面电子视觉显示;
实时动作追踪引擎,所述实时动作追踪引擎使用所述主服务器引擎实时地:
使用可操作地耦接到所述实时动作追踪引擎的一个或多个动作追踪传感器确定至少一个动作追踪对象跨X、Y和Z坐标的信息实体位置数据;以及
实现基于所述信息实体位置数据生成所述至少一个追踪对象的追踪数据,所述追踪数据被所述主服务器引擎用于将所述至少一个追踪对象集成在所述CAVE中并进行可视化
2.根据权利要求1所述的系统,所述系统包括导入模,所述导入模块使得用户能够将数字视觉内容导入到所述主服务器引擎中进行实时沉浸式内容可视化。
3.根据权利要求2所述的系统,其中,所述数字视觉内容通过三维(3D)应用程序、二维(2D)应用程序或视觉记录/扫描技术中的任何一种或组合来创建。
4.根据权利要求1所述的系统,其中,所述主服务器引擎执行360全方位视的实时计算。
5.根据权利要求1所述的系统,其中,所述多面电子可视显示的范围为1到6面显示。
6.根据权利要求1所述的系统,其中,所述至少一个动作追踪对象是所述系统的用户。
7.根据权利要求1所述的系统,其中,所述至少一个追踪对象被投影到有形介质上。
8.根据权利要求1所述的系统,其中,所述至少一个被追踪对象在立方体形环境、沉浸式VR环境、头戴式显示器启用的环境、桌面计算机启用的环境、显示屏幕启用的环境的任何一种或组合中可视化。
9.根据权利要求1所述的系统,其中,所述至少一个动作追踪对象附接于用户,使得当所述用户处于动作追踪区域中时,所述动作追踪引擎使用所述一个或多个动作追踪传感器检测所述至少一个动作追踪对象的视点和位置,以便生成所述信息实体的位置数据。
10.根据权利要求1所述的系统,其中,所述至少一个动作追踪对象至少包括3个动作追踪标记物的组合可操作地耦接,使得每个动作追踪标记物的位置由其X轴、Y轴和Z轴限定,其中X轴表示相对于动作追踪区域的前部的平位置,其中Y轴表示相对于所述动作追踪区域的左侧和右侧的水平位置,并且其中Z轴表示相对于所述动作追踪区域的顶侧的竖向位置。
11.根据权利要求1所述的系统,其中,所述一个或多个动作追踪传感器可以选自光学动作追踪传感器和配置成实现跨3个自由度(3DOF)、6个自由度(6DOF)、9个自由度(9DOF)、红外、OpenNI进行动作追踪的传感器中的任何一种或组合。
12.根据权利要求1所述的系统,其中,所述一个或多个动作追踪传感器检测红外光,以将所述至少一个追踪对象的位置和旋转数据传送到所述主服务器引擎。
13.根据权利要求1所述的系统,其中,通过控制器控制所述至少一个追踪对象,进行导览、改变视点以及与其他可视对象交互中的任何一种或组合。
14.根据权利要求1所述的系统,其中,通过在一个或多个投影仪处接收来自所述主服务器引擎的所述追踪数据,融合并拼接所述接收的追踪数据以在6面模拟环境中生成所述至少一个动作追踪对象的全方位视图,以此在所述6面模拟环境中可视化所述至少一个追踪对象。
15.根据权利要求1所述的系统,其中,所述追踪数据包括所述至少一个追踪对象的虚拟位置和视角。
16.一种用于实现沉浸式洞穴状自动虚拟环境CAVE的方法,所述方法包括以下步骤:
使用可操作地耦接到实时动作追踪引擎的一个或多个动作追踪传感器,通过与主服务器引擎可操作地耦接的所述实时动作追踪引擎来确定至少一个动作追踪对象的跨X、Y和Z坐标的信息实体位置数据;以及
通过所述主服务器引擎实现基于所述信息实体位置数据生成所述至少一个追踪对象的追踪数据,所述追踪数据用于将所述至少一个追踪对象集成在所述CAVE中并进行可视化,其中所述主服务器引擎被配置为实现多面电子视觉显示。
17.根据权利要求16所述的方法,其中,所述多面电子视觉显示的范围为1到6面显示。
18.根据权利要求16所述的方法,其中,所述至少一个动作追踪对象可操作地耦接或包括至少3个动作追踪标记物,使得每个动作追踪标记物的位置由其X轴、Y轴和Z轴限定,其中X轴表示相对于动作追踪区域的前部和后部的水平位置,其中Y轴表示相对于所述动作追踪区域的左侧和右侧的水平位置,并且其中Z轴表示相对于所述动作追踪区域的顶侧的竖向位置。
19.根据权利要求16所述的方法,其中,通过控制器控制所述至少一个追踪对象,进行导览、视点的改变以及与其他可视对象进行交互的任何一种或组合的控制方式。
20.根据权利要求16所述的方法,其中,所述追踪数据包括所述至少一个追踪对象的虚拟位置和角度。

说明书全文

用于实现沉浸式洞穴状自动虚拟环境的系统和方法

技术领域

[0001] 本公开涉及用于实现虚拟现实(VR)和/或混合现实(MR)环境的系统和方法,并且更具体地涉及沉浸式CAVE(洞穴状自动虚拟环境)实现/架构。

背景技术

[0002] 以下描述包括可以帮助理解本发明的信息。该描述并非承认本文提供的任何信息是现有技术或与要求保护的本发明相关,亦非承认明确或暗示引用的任何出版物是现有技术。
[0003] 沉浸在虚拟现实中是一种在非实体(non-physical)世界中实体地(physical)存在的感知。VR系统提供引人入胜的整体环境的图像、声音或其他刺激,形成感知,并將用户包围在內。沉浸式虚拟现实包括用户沉浸在人造的、计算机生成的环境中,感觉正如他们通常在共识现实中感受到的一样的。
[0004] 沉浸式虚拟现实可以分为两种形式:个人的和共享的。由于个人装置如头戴式显示器的快速发展,个人VR市场在过去的几年中急速扩张。因为个人VR设备是为个人体验而设计的,所以个人VR设备不太可能成功在企业应用中使用。洞穴状自动虚拟环境(通常称为“CAVE”)是支援多用户使用的沉浸式VR形式。通过投影仪(或其他支持3D立体的视觉(visual)设备)产生逼真的视觉模拟并由身处于CAVE内部的用户通过物理(physical)移动进行控制。动作追踪系统会记录用户或动作追踪对象的实时位置。立体LCD快眼镜传送3D图像。计算机根据动作捕捉数据快速生成一对图像,每幅图像分别对应用户的一只眼睛。眼镜与投影仪同步,使得每只眼睛仅看到对应的图像。通常需要一台或多台服务器驱动投影仪。
[0005] CAVE是一个房间大小的立方体(通常是10×10×10英尺),由三面墙和一面地板组成。这四个表面用作计算机生成的立体图像的投影屏幕。投影仪位于CAVE外部,并以快速交替的顺序为左眼和右眼投影计算机生成虚拟环境图像。进入CAVE的用户(受训者)佩戴轻质DLP快门眼镜,该眼镜与投影序列同步地遮挡右眼和左眼,从而确保左眼仅看到为左眼生成的图像,并且右眼仅看到为右眼生成的图像。人类大脑对双眼视差(左眼和右眼视图之间的不同)进行处理并产生立体视觉感知。附接到用户的快门眼镜上的动作追踪器连续测量用户头部的位置和方向(六个自由度)。显像软件使用这些测量结果来正确、实时地计算投影在四个表面上的立体图像。具有按钮、操纵杆并附接有第二动作追踪器的手持式装置允许用户对虚拟环境进行控制以及导航。
[0006] 用户共享的沉浸式CAVE适用于企业应用,因为其允许多个用户将他们自己沉浸在同一逼真的模拟环境中并与该环境进行交互,同时在眼睛不被遮蔽的情况下面对面的自然交流。其增强了交流有效性和提高了生产率,并通过其交互式模拟减少了过程冗余。可以满足广泛的应用,包括但不限于:AEC(建筑、工程、建造)、房地产、技术训练、汽车、医疗、产品开发、行为分析、康复、教育、展览、旅游、运动训练、娱教以及任何可以在计算机生成的环境中回顾和评估的应用。
[0007] 虽然其可能性无限,但沉浸式CAVE是一个相对小众的市场。由于某些原因,其在大众市场中并不常见。通常,沉浸式CAVE包括引擎、附相关SDK的动作追踪系统、用于驱动投影仪的服务器、支持与3D(三维)场景实时交互的游戏引擎、以及将3D模拟内容转换为多维环境中的物理图像的3D应用工具。上述部件通常由不同的开发者提供,并且它们各自具有特定的技术和规格。因此,许多沉浸式CAVE VR方案或产品提供商将重点放在系统集成上,这导致产品的维护困难、每个部件的软件认证和/或硬件成本高。此外,集成沉浸式CAVE系统需要广泛的、深入的技术知识和经验,包括:3D应用工具、全身动作捕捉技术、虚拟和实体视数学计算、3D立体、电子工程、机械工程、数字输出技术,这使沉浸式CAVE的集成成为小众且困难的工作,因为方案提供商必须克服每一个部件的技术问题,并且需要将所有元件渗透到流畅的运行系统中。这需要一组专业人士参与到每个项目中或者需要具备沉浸式CAVE专业技术的专家,这在市场上很少见。所有上述技术问题导致技术支持有限或极高成本的产品。
[0008] 除此之外,由于集成的3D应用工具为专业应用而设计,只有具备实践3D应用技术的专业用户才能为沉浸式CAVE创建虚拟内容。或者,甚至更糟糕的是,非专业用户可能不得不依赖沉浸式CAVE提供商或其授权供应商来协助内容的创建。这缩小了沉浸式CAVE在中低档商业市场中可能的使用,因为其维护成本高、生产时间较长。通常,只有亿万资产的企业诸如汽车制造商、医疗、公用事业、军事集团或资金充裕的机构才能负担得起沉浸式CAVE。
[0009] 在第四次工业革命的演变中,对能够减少实际体工作、资源和损失的信息实体(cyber-physical)系统的需求出现。通过使用AR和/或VR技术可以替代、完成或实践许多传统过程。如果大多数中小企业和/或教育机构都更能负担得起多用户全身沉浸式CAVE,那么多用户全身沉浸式CAVE的技术可以在此工业时代得到推广和使用。
[0010] 因此,我们需要简化部件的集成、允许专业人员和/或终端用户在没有编程或3D应用背景的情况下创建沉浸式模拟内容的增强沉浸式CAVE系统。
[0011] 本文的所有出版物均以引用方式并入本文,达到如同各个出版物或专利申请具体且单独地表明以引用方式并入的相同程度。如果并入的参考文献中术语的定义或使用与本文中提供的该术语的定义不一致或矛盾,则适用本文提供的该术语的定义,而不适用参考文献中该术语的定义。

发明内容

[0012] 本公开涉及用于实现虚拟现实(VR)和/或混合现实(MR)环境的系统和方法,并且更具体地涉及沉浸式CAVE(洞穴状自动虚拟环境)实现/架构。
[0013] 在一方面,本公开涉及用于实现沉浸式洞穴状自动虚拟环境(CAVE)的系统,其中该系统包括被配置为实现多面电子视觉显示的主服务器引擎,并且还包括实时动作追踪引擎。在一方面,使用主服务器引擎,实时动作追踪引擎可以实时地:使用可操作地耦接至实时动作追踪引擎的一个或多个动作追踪传感器,以确定至少一个动作追踪对象跨X、Y和Z坐标的信息实体位置数据;并且实现基于该信息实体位置数据来生成该至少一个追踪对象的追踪数据,其中该追踪数据被该主服务器引擎用于将至少一个追踪对象集成在CAVE中并且进行可视化
[0014] 在一方面,所提出的系统还包括导入模,该导入模块使得用户能够将数字视觉内容导入到主服务器引擎中进行实时沉浸式内容可视化。在另一方面,可以通过三维(3D)应用、二维(2D)应用或视觉记录/扫描技术中的任何一个或其组合来创建数字视觉内容。
[0015] 在一方面,主服务器引擎可以被配置成执行360全方位视角的实时计算。在另一方面,多面电子视觉显示可以被配置为显示1到6面的显示。在又另一方面,该至少一个动作追踪对象可以是系统的用户。在另一方面,可以使用数字光处理(DLP)3D眼镜(通过投影仪)将该至少一个追踪对象投影到有形介质上。
[0016] 在一方面,可以在立方体形环境、沉浸式VR环境、头戴式显示器启用的环境、桌面计算机启用的环境、显示屏幕启用的环境中的任何一种或其组合中可视化至少一个追踪对象。
[0017] 在另一方面,该至少一个动作追踪对象可以附接到用户,使得当用户处于动作追踪区域时,动作追踪引擎使用一个或多个动作追踪传感器检测该至少一个动作追踪对象的视点和位置,以生成信息实体位置数据。
[0018] 在另一方面,该至少一个动作追踪对象可以可操作地耦接或包括至少3个动作追踪标记物,使得每个动作追踪标记物的位置可以由其X轴、Y轴和Z轴限定,其中X轴代表相对于动作追踪区域的前部和后部的平位置,其中Y轴代表相对于动作追踪区域的左侧和右侧的水平位置,并且其中Z轴代表相对于动作追踪区域的顶侧的竖向位置。在一方面,该一个或多个动作追踪传感器可以选自光学动作追踪传感器、或配置为实现跨3个自由度(DOF)、6DOF、9DOF、红外线、OpenNI进行动作追踪的传感器中的任何一种或组合。在另一方面,该一个或多个动作追踪传感器可以检测红外光,以将该至少一个追踪对象的位置和旋转数据传达给主服务器引擎。
[0019] 在一方面,可以通过控制器控制该至少一个追踪对象,进行导航、视点改变以及与其他可视对象进行交互中的任何一种或组合。在一方面,还可以通过在一个或多个投影仪处接收来自主服务器引擎的追踪数据,融合并拼接所接收的追踪数据,以在6面模拟环境中生成该至少一个动作追踪对象的全方位视图,在该模拟环境中可视化该至少一个追踪对象。在一方面,在执行(或待执行)融合/拼接(wrap)操作时,追踪数据可以转换成虚拟场景中的至少一个虚拟对象。在一方面,在融合和拼接操作的情况下,追踪数据也可以称为实时渲染画面(visuals)/图像。在一方面,追踪数据可以包括该至少一个追踪对象的虚拟位置和角度。
[0020] 本公开还涉及一种用于实现沉浸式洞穴状自动虚拟环境(CAVE)的方法,该方法包括下述步骤:使用与实时动作追踪引擎可操作地耦接的一个或多个动作追踪传感器,通过与主服务器引擎可操作地耦接的该实时动作追踪引擎来确定至少一个动作追踪对象跨X、Y和Z坐标的信息实体位置数据;以及通过主服务器引擎,实现基于该信息实体位置数据生成该至少一个追踪对象的追踪数据,该追踪数据用于将该至少一个追踪对象集成在CAVE中并进行可视化,其中该主服务器引擎被配置成实现多面电子视觉显示。
[0021] 根据以下对优选实施方式的详细描述以及随附附图,本发明主题的各种目的、特征、方面和优点将变得更加明白,附图中相同的数字表示相同的部件。

附图说明

[0022] 图1A和图1B展示了根据本公开的实施方式,提供全身沉浸式VR和MR模拟环境的系统示意图。
[0023] 图2A至图2C展示了展示根据本公开的实施方式,与VR和MR模拟环境进行物理交互的实现过程的示例性流程图
[0024] 图3A展示了根据本公开的实施方式,在三维视图中动作追踪传感器覆盖的示例性动作追踪区域。
[0025] 图3B以俯视图展示了动作追踪传感器覆盖的动作追踪区域。
[0026] 图4展示了根据本公开的实施方式,主动式3D眼镜上用于用户视角追踪的动作追踪目标的不同组合的实施例
[0027] 图5A展示了根据本公开的实施方式,不同形式的实体对象上的动作追踪目标的可能组合,以及虚拟世界中的对应存在形式的实施例。
[0028] 图5B展示了根据本公开的实施方式,动作追踪目标如何附接在各种实体对象上的实施例。
[0029] 图6A展示了根据本公开的实施方式,用户的视角由动作追踪目标限定并且在动作追踪区域内被追踪的表示。
[0030] 图6B展示了根据本公开的实施方式,显示虚拟世界中动作追踪目标视角的计算视点的表示。
[0031] 图6C展示了根据本公开的实施方式,用户视角的物理旋转。
[0032] 图7A以侧视图展示了根据本公开的实施方式,现实世界和虚拟世界中的视角角度的相互关系。
[0033] 图7B以俯视图展示了根据本公开的实施方式,现实世界和虚拟世界中的视角角度的相互关系。
[0034] 图8A展示了根据本公开的实施方式,显示实体对象如何由动作追踪目标限定并在动作追踪区域内被追踪的示例性表示。
[0035] 图8B展示了根据本公开的实施方式,动作追踪实体对象在实体世界中的存在。
[0036] 图8C展示了根据本公开的实施方式,动作追踪实体对象在虚拟世界中的对应位置。
[0037] 图9展示了根据本公开的实施方式,实体对象的旋转方法。
[0038] 图10展示了根据本公开的实施方式,动作追踪实体对象与增强现实中的模拟环境的示例性交互。
[0039] 图11展示了根据本公开的实施方式,全方位的实时计算的视角。
[0040] 图12展示了根据本公开的实施方式,主题技术的垂直显示格式的计算。
[0041] 图13展示了根据本公开的实施方式,垂直显示格式的全方位模拟环境的示例性展示。
[0042] 图14展示了本主题技术的实施方式,硬件配置及其连接的示意图。
[0043] 图15展示了说明根据本公开的实施方式,服务器引擎的输入和输出处理的示例性表示。
[0044] 图16展示了显示根据本公开的实施方式,实施系统的输出能力的示例性表示。

具体实施方式

[0045] 本公开涉及用于实现虚拟现实(VR)和/或混合现实(MR)环境的系统和方法,并且更具体地涉及沉浸式CAVE(洞穴状自动虚拟环境)实现/架构。
[0046] 本公开的实施方式包括各种步骤,这些步骤将在下面进行描述。这些步骤可以由硬件的部件来执行或者可以以机器可执行的指令来实施,该机器可执行指令可以用于使用该指令编程的通用或专用处理器执行这些步骤。另外,本公开可以通过硬件、软件、固件的组合和/或人类操作员来执行这些步骤。
[0047] 本公开的实施方式可以成为计算机的程序产品,该计算机程序产品可以包括在其上有形地包含指令的机器可读存储介质,该指令可以用于对计算机(或其他电子设备)进行编程以执行过程。机器可读介质可以包括但不限于:固定(硬盘)驱动器,磁带,软盘,光盘,只读光盘存储器(CD-ROM),和磁光盘,半导体存储器诸如ROM、PROM、随机存取存储器(RAM)、可编程只读存储器(PROM)、可擦PROM(EPROMs)、电可擦PROM(EEPROMs)、闪存、磁卡或光卡,或者适合存储电子指令(例如,计算机程序代码,诸如软件或固件)的其他类型的介质/机器可读介质。
[0048] 通过将包含根据本公开的代码的一个或多个机器可读存储介质与适合的标准计算机硬件进行结合以执行包含在其中的代码,以此可以实践本文描述的各种方法。用于实践本公开的各种实施方式的设备可能需要一个或多个计算机(或单个计算机内的一个或多个处理器)以及包含或具有对按照本文所述的各种方法编码的计算机程序的网络访问的存储系统,并且本公开的方法步骤可以通过计算机程序产品的模块、例程、子例程或子部分来完成。
[0049] 如果说明书阐明一部件或特征“可能(may)”、“能够(can)”、“能够(could)”或“可能(might)”被包括或具有一特性,则该特定部件或特征不必被包括或具有该特性。
[0050] 在一方面,本公开涉及用于实现沉浸式洞穴状自动虚拟环境(CAVE)的系统,其中该系统包括被配置为实现多面电子视觉显示的主服务器引擎,并且还包括实时动作追踪引擎。在一方面,使用主服务器引擎,实时动作追踪引擎可以实时地:使用可操作地耦接至实时动作追踪引擎的一个或多个动作追踪传感器,确定至少一个动作追踪对象跨X、Y和Z坐标的信息实体位置数据;并且实现基于该信息实体位置数据来生成该至少一个追踪对象的追踪数据,其中该追踪数据被该主服务器引擎用于将至少一个追踪对象集成在CAVE中并且进行可视化。
[0051] 在一方面,所提出的系统还包括导入模块,该导入模块使得用户能够将数字视觉内容导入到主服务器引擎中进行实时沉浸式内容可视化。在另一方面,可以通过三维(3D)应用、二维(2D)应用或视觉记录/扫描技术中的任何一个或其组合来创建数字视觉内容。
[0052] 在一方面,主服务器引擎可以被配置成执行360全方位视角的实时计算。在另一方面,多面电子视觉显示可以被配置为显示1到6面的显示。在又另一方面,该至少一个动作追踪对象可以是系统的用户。在另一方面,可以使用数字光处理(DLP)3D眼镜(通过投影仪)将该至少一个追踪对象投影到有形介质上。在一方面,DLP 3D眼镜可以用于同步DLP投影仪的120Hz频率。除了投影仪和DLP 3D眼镜之外,追踪对象可以显示在任何可视设备上,诸如LED、LCD面板、桌面监视器等。
[0053] 在一方面,可以在立方体形环境、沉浸式VR环境、头戴式显示器启用的环境、桌面计算机启用的环境、显示屏幕启用的环境中的任何一种或其组合中可视化至少一个该追踪对象。
[0054] 在另一方面,至少一个该动作追踪对象可以附接到用户,使得当用户处于动作追踪区域时,动作追踪引擎使用一个或多个动作追踪传感器检测该至少一个动作追踪对象的视点和位置,以生成信息实体位置数据。
[0055] 在另一方面,该至少一个动作追踪对象可以可操作地耦接或包括至少3个动作追踪标记物,使得每个动作追踪标记物的位置可以由其X轴、Y轴和Z轴限定,其中X轴代表相对于动作追踪区域的前部的水平位置,其中Y轴代表相对于动作追踪区域的左侧和右侧的水平位置,并且其中Z轴代表相对于动作追踪区域的顶侧的竖向位置。在一方面,该一个或多个动作追踪传感器可以选自光学动作追踪传感器、或配置为实现跨3个自由度(DOF)、6DOF、9DOF、红外线、OpenNI进行动作追踪的传感器中的任何一种或组合。在另一方面,该一个或多个动作追踪传感器可以检测红外光,以将该至少一个追踪对象的位置和旋转数据传达给主服务器引擎。
[0056] 在一方面,可以通过控制器控制该至少一个追踪对象,进行导航、视点改变以及与其他可视对象进行交互中的任何一种或组合。在一方面,还可以通过在一个或多个投影仪处接收来自主服务器引擎的追踪数据,以及融合并封装所接收的追踪数据以在6面模拟环境中生成该至少一个动作追踪对象的全方位视图,在该模拟环境中可视化该至少一个追踪对象。
[0057] 在一方面,追踪数据可以包括该至少一个追踪对象的虚拟位置和角度。
[0058] 本公开还涉及一种用于实现沉浸式洞穴状自动虚拟环境(CAVE)的方法,该方法包括下述步骤:使用与实时动作追踪引擎可操作地耦接的一个或多个动作追踪传感器,通过与主服务器引擎可操作地耦接的该实时动作追踪引擎来确定至少一个动作追踪对象跨X、Y和Z坐标的信息实体位置数据;以及通过主服务器引擎,实现基于该信息实体位置数据生成该至少一个追踪对象的追踪数据,该追踪数据用于将该至少一个追踪对象集成在CAVE中并进行可视化,其中该主服务器引擎被配置成实现多面电子视觉显示。
[0059] 在一方面,CAVE的其他硬件元件可以包括音响系统、动作追踪系统、计算动作追踪的X、Y、Z位置和实体-虚拟模拟的高端图形计算机,CAVE的硬件元件可以配置成在沉浸式观看期间实时生成的立体图像,并执行本发明的各个实施方式所需的所有计算和控制功能。在下文的描述中,这样的计算机也可称为CAVE计算机。
[0060] 参照图1A和图1B,在一方面,本公开涉及在主服务器引擎150上实施的沉浸式CAVE实现/架构的系统和方法,该主服务器引擎被设计和配置为解决和克服上述背景技术部分所提到的缺点。在示例性方面,所提出的系统可以包括:动作追踪(tracking)引擎106(也可称为“动作追踪(track)引擎106”),该动作追踪引擎可以是一个用于光学动作追踪装置的连接“中心(hub)”110(第三方硬件)或第三方软件152;以及主服务器引擎150,其中服务器引擎150可以包含(embody)有信息实体位置限定、实时沉浸式可视化计算和多面电子视觉显示(的输出)。图1A和图1B还示出了所提出的系统的示意图,该系统与实现全身沉浸式VR和MR模拟环境的电子部件和软件应用集成。所提出的实施方式的实施例可以提供最多6面沉浸式CAVE,包括:服务器引擎150,多个动作追踪传感器104,其中多个动作追踪传感器104可以被配置成检测红外(IR)光并通过连接图1B的动作追踪中心110将位置和旋转数据传送至服务器引擎150;控制器102可以被配置为通过连接到服务器引擎150的无线控制器中心112而向服务器引擎150输入命令。动作追踪数据154可以由实施的动作追踪应用程序152按照X轴、Y轴和Z轴的原则来限定,其中所提出的服务器引擎150可以处理X、Y、Z数据以计算同步的视角、对象位置以及与虚拟世界的交互156。这种处理后的数据和计算可以产生覆盖6面模拟环境的实时3D立体画面。6面模拟环境分布可以由内置的显示融合和拼接应用162驱动,该显示融合和拼接应用实现形成混合的全方位视图。可以通过实施的应用驱动器164将这种视图推送到:显卡诸如160-1和160-2,以120Hz的速度输出6屏幕的刷新图像;以及另外的一个或多个监视显示器诸如168。显示装置诸如108-1、108-2...108-N(下文统称为显示装置108)。通过投影仪可以直接接收来自服务器引擎150的输出数据,并以同步的刷新速度对数据进行可视化。当提出的软件实施系统与非主动3D视觉设备诸如HMD协作时,其将以并排3D的模式出现。
[0061] 如上所述,本发明所提出的系统包括可以被配置成启用多面电子视觉显示器108的主服务器引擎150,并且还可以包括实时动作追踪引擎106(该实时动作追踪引擎可以独立于服务器引擎150或耦接到该服务器引擎或配置在该服务器引擎中)。在一方面,实时动作追踪引擎(也可称为动作追踪引擎106)可以使用主服务器引擎150实时地:使用可以可操作地耦接到实时动作追踪引擎106的一个或多个动作追踪传感器104确定至少一个动作追踪对象跨X、Y和Z坐标的信息实体位置数据;并且实现基于信息实体位置数据生成该至少一个追踪对象的追踪数据158,其中追踪数据158可以被主服务器引擎150用于将该至少一个追踪对象集成在CAVE中并进行可视化。
[0062] 在一方面,本公开旨在通过实体用包含的信息实体位置定义和实时沉浸式可视化计算改进计算机架构,替换第三方的游戏引擎、3D应用工具,并省去对用于驱动电子视觉显示的子服务器的使用,以此改善主服务器引擎150的功能。由于要集成在所提出的计算机架构中的电子和信息部件较少,因此电子部件之间的连接点的数量较少,并且至少去掉了从主引擎到子服务器的布线。还减小了部件之间传输数据的延迟或错误的可能性,由此,随着计算机架构的协调性改善,所提出的系统加速并且渲染较为稳定。
[0063] 在一方面,本公开提高了沉浸式CAVE的用户友好性。所提出的系统允许用户将通过3D应用和/或通过新兴的2D和/或通过3D视觉记录/扫描技术(例如,全景视频、无人机拍摄、3D扫描、光度计等)创建并且是为不具备3D应用或编程知识的外行人士制作的数字视觉内容导入主服务器引擎150。由于所提出的系统,专业用户可以坚持工业和专业应用诸如医疗和工程,而占人口大多数的非专业用户可以通过短期学习以另一种方式创建沉浸式内容(包括但不限于360内容和3D内容)。跳过小众的3D应用交互式编程可以极大地增加沉浸式CAVE的内容创建者/用户的数量,并且还可以减少创建新内容和使用的时间和成本,使沉浸式CAVE成为用于各种应用的可持续系统。
[0064] 在一方面,所提出的系统能够在360度全空间中创建并显示计算机生成的环境,其中一个或多个用户可以沉浸到模拟环境和/或场景中并与模拟环境和/或场景交互。所提出的系统的至少一部分可以在主服务器引擎150中实施,以便执行360度全方位视角的实时计算,在这种情况下,系统可以在CAVE环境中以较低的成本提供1-6面融合的显示。
[0065] 在一方面,本公开可以应用于紧密且用户友好的沉浸式CAVE产品的实施方式,例如,1面、2面、3面和4面沉浸式VR和MR工具。在混合现实(MR)方面,所提出的系统可以包括模拟环境中的实体存在,将实体对象可以扩展到虚拟世界,使得我们可以在现实世界和虚拟世界二者中操纵实体对象。
[0066] 在一方面,本公开涉及在1面、2面、3面和4面沉浸式环境中实施的沉浸式CAVE系统和方法。所提出的系统还支持对多个传感器、对象,以及最高达6面的显示(应用166可以将服务器引擎150与显示108连接)进行实时动作追踪。本发明的方面还提供当模拟环境被投影/显示在立方体形房间的周围墙壁天花板和地板上时(可以创建示例性实施方式和任何其他VR环境)的全身沉浸式VR和MR体验。模拟环境可以为用户提供全方位的VR,允许用户沉浸其中。在一方面,所提出的信息实体交互可以与动作追踪系统的集成和实时位置和视角计算的应用和3D配对图像生成相一致。除了实体立方体形环境,所提出的系统还可以通过头戴式装置(HMD)、台式计算机、LED面板或可以连接到服务器引擎150的任何屏幕来支持沉浸式VR。换句话说,本公开的显示格式包括但不限于上述视觉设备,并且还可以被认为/实现为跨平台的系统。
[0067] 在另一方面,当用户与光学动作追踪目标(示例性类型的追踪目标)相关联/附接,并且移动到动作追踪区域时,动作追踪传感器104可以检测到他/她的视点和位置(或与动作追踪目标附接/耦接的任何其他实体对象)。每个光学动作追踪目标可以由至少3个动作追踪标记物形成,动作追踪传感器104可判断其中每个动作追踪标记物的位置,即X轴(相对于动作追踪区域的前侧的水平位置)、Y轴(相对于动作追踪区域的左侧和右侧的水平位置)和Z轴(相对于动作追踪区域的顶侧的竖向位置)。在一方面,通过动作追踪中心110,可以将X、Y、Z数据传输到服务器引擎150,以便实现形成虚拟三维对象。虚拟三维对象可以具有其自己的X、Y、Z数据并且可以体验用户的视角和/或虚拟世界中的动作追踪对象。当用户和/或动作追踪对象移动时,可以相应地追踪他们的移动并反映在虚拟世界中。在一方面,在物理上,X轴和Y轴可以表示2D水平位置,而Z轴可以表示动作追踪区域中的竖向位置。
[0068] 在一方面,本公开的动作追踪传感器包括光学动作追踪传感器,和/或任何其他合适的动作追踪技术协作,这些动作追踪技术包括但不限于3DOF(自由度)、6DOF、9DOF、红外、OpenNI。只要可提供虚拟X、Y、Z位置即可。
[0069] 在另一方面,追踪的视角和/或对象的虚拟存在通常是但不限于:导航的使用,模拟环境与人体和/或实体对象和/或工具的交互。在动作追踪区域内随着身体移动和/或视点的改变的导航通常适用于较小的虚拟环境,例如房间中进行导览,而用无线控制器进行导航可能更适合于大范围的导航,例如,一个地区。无线控制器也可以用于发出命令,控制模拟环境,其中,当动作追踪的虚拟对象出现在虚拟世界中时,其在模拟环境中是具体存在并且可以与模拟物交互,模拟物包括但不限于对象、周围事物或AI角色。
[0070] 在一方面,所提出的系统实现根据在导航和信息实体交互期间追踪的位置和视角在多面显示上输出3D视觉效果。用户在虚拟世界內,是处于无限的三维模拟空间中,然而实体的情境下,用户处于立方体形状的房间中。在示例性实现中,本公开中的视角计算可以允许最高达6面的无缝显示,而所有显示面须以90度角垂直接合彼此,以形成全方位的模拟环境。系统可以根据视点相对于该显示面不断变化的X、Y、Z计算在每个显示面的即时显示,并且因此可以同时计算、融合和拼接画面的所有面,基于此,可以物理地形成全方位的模拟环境。有了这项技术,显示器的存在并不紧要,并且每面计算也是独立的。可以理解的是,需要最少1面显示来展示即时模拟环境,如果其他2到6个面的显示在物理上彼此成垂直角度,即可以支持拼接显示。
[0071] 在一方面,除了即时视觉角度和融合、拼接计算,基于动作追踪数据,本公开的服务器引擎150可以以例如120Hz的刷新速度向一个或多个投影仪快速生成一对图像,用户的每只眼睛每次接收一幅图像(每只眼睛60Hz的刷新速度)。快门3D眼镜可以与一个或多个投影机同步,以使每只眼睛仅看到对应的图像。
[0072] 图2A至图2C展示了根据本公开的实施方式於VR和MR模拟环境进行物理交互的实现过程的示例性流程图。
[0073] 参照图2A,所提出的方法可以包括在步骤202使用与实时动作追踪引擎可操作地耦接到主服务器引擎,一个或多个动作追踪传感器通过与主服务器引擎可操作地耦接的该实时动作追踪引擎确定至少一个动作追踪对象跨X、Y和Z坐标的信息实体位置数据。在步骤204,所提出的方法可以包括通过主服务器引擎基于信息实体位置数据实现生成该至少一个追踪对象的追踪数据的步骤,并且在步骤206,该方法可以包括结合该追踪数据以将该至少一个追踪对象集成在CAVE中并进行可视化的步骤,其中主服务器引擎可以被配置为实现多面电子视觉显示。
[0074] 图2B和图2C是所提出的架构的示例性非限制性实现,其中参照图2B,在步骤232,用户戴上他/她具有动作追踪目标的3D眼镜。如随后将解释的,动作追踪目标可以是有形对象诸如图4中所示的,用户可以佩戴动作追踪目标,以实现基于由一个或多个动作追踪传感器捕获的动作追踪目标的XYZ坐标对用户的移动进行追踪。在戴上3D眼镜之后,在步骤234,用户移动到动作追踪区域中,基于此,在步骤236,利用动作追踪目标,用户的(或耦接/关联由动作追踪目标的对象的)位置和旋转角度可以通过动作追踪传感器确定并且作为输出提供给动作追踪引擎(图1A的106)。在步骤238,动作追踪传感器通过例如动作追踪中心将位置数据发送至服务器引擎(图1A和图1B的150),基于此,在步骤240,服务器引擎对位置数据进行处理并且生成虚拟视角影像,并投影到一个或多个显示装置上。
[0075] 参照图2C,在步骤262,该实施方式的方法需要用户戴上或拿持其中配置或耦接有动作追踪目标的实体对象,在此之后,在步骤264,用户移动到动作追踪区域中,基于此,在步骤266中,利用动作追踪目标,用户的(或耦接/关联有动作追踪目标的对象的)位置和旋转角度可以通过一个或多个动作追踪传感器确定并且作为输出提供给动作追踪引擎(图1A的106)。在步骤268,动作追踪传感器可以通过例如动作追踪中心将位置数据发送至服务器引擎(图1A和图1B的150),基于此,在步骤270,服务器引擎对位置数据进行处理并生成虚拟视角影像,並投影到一个或多个显示装置上。
[0076] 图3A和3B分别以3D视图和俯视图展示了动作追踪传感器可覆盖的动作追踪区域。在一方面,动作追踪区域可以是3D环境,其中具有动作追踪目标的用户的活动应全部追踪和记录。在示例性实施方式中,可以在动作追踪区域的四个角处以及在视觉区域上方配置动作追踪传感器,以便最大化感测覆盖区域但使盲点最小化。应当理解,动作追踪区域的任何其他配置、形状、大小、维数都可以被配置为本公开的一部分,并且这样的实现当然在任何方面都不具限制性。
[0077] 图4展示了主动式3D眼镜上用于用户透视追踪的动作追踪目标的不同组合的实施例。在示例性实现中,每个动作追踪目标(也被称为用于追踪移动的物品)可以包括至少3个动作追踪标记物,其中在每个应用中每个动作追踪目标的布置可以与其他动作追踪目标的布置不同。动作追踪传感器可以捕获每个标记物的位置,并且可以将对应的X、Y、Z数据(也称为位置数据)传输到服务器引擎以便形成独特的三维虚拟对象定义。
[0078] 图5A展示了在不同形式的实体对象上,动作追踪目标可能的组合以及虚拟世界中的对应存在形式的实施例子。在示例性实现中,每个动作追踪目标的组合可能需要至少3个动作追踪标记物。本文关于图5的实施例示出了3-5个动作追踪标记物的组合。在现实世界中,所提出的动作追踪目标可以附接在任何形式的实体对象上,包括但不限于框架、扁平形式、有机形式等。在虚拟世界中,3标记物目标可以包括3组X、Y、Z坐标,来自每个标记物,每个组形成独特的三维对象,其中其自己的X、Y、Z数据从实体空间变换到虚拟空间。以这种方式,任何实体对象都可以成为如图5B所示的动作追踪目标。所有这样的动作追踪目标对象(诸如附接了动作追踪目标的用户或物品)都可以与虚拟模拟环境交互,因为他们全都被识别为虚拟世界中独特的三维对象。
[0079] 图6A展示了由动作追踪目标限定并且在动作追踪区域内被追踪的示例性用户视角。用户视角可以用3标记物动作追踪目标表示。如图5A和5B所示,独特的三维对象可以用其自己的X、Y、Z数据形成。实体上,X轴和Y轴代表2D水平位置,而Z轴代表动作追踪区域中的竖向位置。当用户移动时,对象的X、Y、Z物理数据改变,并且这些物理数据在服务器引擎中被同步处理,以计算如图6B所示的虚拟位置(在该实施例中为相关视点),该图示出了虚拟世界中动作追踪目标视角的计算视点。
[0080] 在图6C中,头部的转动在物理上是自然的;然而,这种自然的移动不应该使模拟环境转向或倒置,因此在示例性实现中,当服务器引擎接收到视角数据时,并不应用虚拟旋转,使得当用户的头部向下时或者当用户向上看时,地板和天花板环境分别仍然在底部和顶部,从而实现与人类经验相呼应的逼真环境。
[0081] 图7A和图7B分别以侧视图和俯视图展示了现实世界和虚拟世界中的视角角度的相互关系。在示例性实现中,实体世界和扩展的虚拟世界的关系可以是1:1的比例,这意味着两个世界中的三维区域可以具有相同的大小、比例和水平位置。当在动作追踪区域中追踪用户视角(已定义的动作追踪目标)位置时,在动作追踪目标位置和计算出视觉区域的每一面之间形成三角形关系。实体世界和虚拟世界中的观看角度可以关联为视锥。以显示的一面为例,可以有角度A、B、C和D,其中,角度A和B可以是由动作追踪目标在实体显示中形成的物理角度,而角度C和D表示要在虚拟世界中的扩展观看角度。截棱锥可以在虚拟世界中无限扩展。因此用户可以在视觉模拟环境中看到无限扩展的虚拟世界。扩展的虚拟角度可以取决于物理观看角度和位置,因为角度A+角度C以及角度B+角度D必须等于180度。用户的移动可能形成物理角度A和B,基于此,角度C和D在虚拟环境中同时变化。如图7B所示,例如,在由垂直视觉显示的4面形成的三维环境中,可以形成4个视锥相互关系,并且可以计算和显示扩展的无限虚拟模拟环境的4面。可以通过4个移动平截头体形成360度全方位。应该理解,理论上如果存在实体显示,则存在6个移动的平截头体。
[0082] 图8A展示了可以由动作追踪目标限定并且可以在动作追踪区域内被追踪的示例性实体对象。独特的3D对象可以用其自己的X、Y、Z数据形成。实体地,X轴和Y轴表示2D水平位置,而Z轴表示动作追踪区域中的竖向位置。另一方面,图8B示出了动作追踪的实体对象存在,其中当对象物理地移动时;对象的X、Y、Z数据变化,并且其在服务器引擎中被同步处理。在图8C中可以看到计算出的虚拟世界中的对应对象位置。
[0083] 图9展示了与3个动作追踪标记物相关联的实体对象的另外的旋转数据处理。在实现中,当X、Y和Z数据被动作追踪传感器探测到并通过动作追踪中心传输到服务器引擎时,本公开的实施方式程序容许实体对象的旋转。这是由于当用户的眼睛在虚拟世界中观看并与增强对象交互时,用户的眼睛充当浮式摄像机,而实体对象是轨道式的存在。服务器引擎可以捕捉和计算旋转数据,以同步实体对象的物理和虚拟移动。
[0084] 图10展示了动作追踪的实体对象与在增强现实中的模拟环境的交互。追踪对象的虚拟位置可以由其动作追踪目标的X、Y和Z来定义。相关数据可以传输到服务器引擎,并且可以通过输入数据创建虚拟存在。由于其在模拟环境中的虚拟存在,由用户物理地控制的任何移动可以同时反映在模拟场景中。由于虚拟对象和模拟环境存在于同一个虚拟世界中,因此当虚拟对象与虚拟场景中的其他存在物交互时,可以触发响应和反应,并且服务器引擎可以输出对应的集成画面。
[0085] 图11全方位展示了实体对象的实时计算视角。在实现中,可以在服务器引擎中实施视角和边缘融合计算,以实现无缝画面输出处理。模拟环境整体可以是虚拟的,然而,模拟环境的无缝画面可以通过一个或多个立体投影仪,由多面显示装置物理地呈现。服务器引擎可以处理位置、交互和视觉数据、观看角度数据,并通过图形处理器即时输出刷新速度图像,不需要任何子服务器。图形处理器分配六面正确图像,并将这些图像分派给连接每面的投影仪,以确保多面显示上的所有图像被融合并拼接在一起以形成无缝模拟环境。
[0086] 图12展示了所提出的技术的垂直显示格式的计算,其中可以将本发明的计算架构制定为呈现具有最多6面显示的全方位环境。因此,实施的程序基于具有6面的立方体形环境来限定动作追踪目标位置并且可视化模拟环境。同样地,在服务器引擎处理了与位置和视觉数据以及虚拟交互和观看角度数据之后,其会在垂直多面显示装置上输出最高达6面的配对图像(即,一次12张图像),这些图像被融合并拼接在一起以形成无缝的模拟环境。
[0087] 可以理解的是,虽然实施程序的系统可以处理最高达6面的沉浸式环境计算,但是由于物理限制,不易设置6面。图13示出了垂直显示格式的全方位模拟环境的表示。在1面、2面、3面、4面、5面和6面显示的所有情况下,所实施的计算和输出的功能可以保持不变。模拟环境的可视化的面数可以与服务器引擎和投影仪(显示装置)之间的电子连接数量相关,其中不需要子服务器来分配工作或驱动显示装置。
[0088] 图14展示了该主题技术的实施方式的硬件配置及其连接的表示。所提出的实施方式的实施例提供了4面沉浸式CAVE,包括:服务器引擎150,该服务器引擎包含有程序,用于进行定位、交互、视角的计算,实时的渲染和立体声输出的分配;多个动作追踪传感器104,其中多个动作追踪传感器104可以被配置成检测来自动作追踪目标1412的红外光,以通过动作追踪中心110的连接将位置和动作数据传送到服务器引擎150;控制器1410,该控制器可以被配置成通过连接到服务器引擎150的无线控制器中心112向服务器引擎150输入命令;显示装置108和声音扬声器1406,用以支持视觉和音频输出;路由器1404,用以通过互联网1402进行非现场监测访问和更新;监测显示装置168,用于现场操作和维护。在一方面,沉浸式CAVE系统可以利用所提出的服务器引擎来执行实时交互式模拟环境。
[0089] 图15展示了服务器引擎150的输入和输出处理。动作追踪传感器104和无线控制器1502分别通过动作追踪中心110和无线控制器中心112向服务器引擎150输入地点、位置、旋转角度和命令数据。实施软件的服务器引擎150可以首先识别动作追踪目标,确定其是用户的视角还是其他对象,然后计算目标地点、位置、旋转角度,视角和交互数据。在计算出模拟环境的数据并生成虚拟环境之后,显示融合和拼接应用可以分配融合在一起以形成全方位视图的六面画面;基于此,可以通过显卡应用将画面分配命令提供给显卡160。显卡可以将视觉数据推送到指派的显示装置108,以刷新速度例如120Hz输出图像以及在如图16所示的监测显示装置上输出操作活动。
[0090] 从以上公开的信息可知,本发明实现实时动作追踪、实体和虚拟位置和视角计算以及实时3D沉浸式可视化功能。所提出的系统即时(无明显延迟)对用户的视角和实体命令做出反应。另外,实体对象可以集成到虚拟环境中。实体世界中的任何变化和移动可以被动作追踪系统检测到,并通过实时沉浸式可视化反映出來。在另一方面,本公开的系统通过与动作追踪系统的集成来实现实时动作追踪。所提出的动作追踪系统可以限定追踪对象和追踪视角的XYZ位置——其中这样的位置数据被服务器引擎解译——并且基于解译的数据(也被称为追踪数据)限定分配的相关虚拟对象和对应模拟环境的XYZ位置。在实现中,可视化的追踪数据可以集成到沉浸式CAVE中的对应环境中,不会有明显的延迟,实现实时沉浸式可视化。使用所提出的系统,可以完成将数据传输到3D可视化的实时计算,同时使用实时渲染引擎以例如每只眼睛60Hz的速度(使其以120Hz/秒的速度生成)输出最高达6面的3D视觉数据。一旦所有的实时动作追踪、传输、渲染、可视化和输出稳定,用户就可以同时与沉浸式CAVE进行交互。还可以支持VR和MR模拟。
[0091] 如本文所使用的,并且除非上下文另有规定,否则术语“耦接到”意在包括直接耦接和间接耦接二者,在直接耦接中两个彼此耦接的元件彼此接触,在间接耦接中两个元件之间设置有至少一个附加元件。因此,术语“耦接到”和“与...耦接”同义使用。在本文档的上下文中,术语“耦接到”和“与...耦接”也委婉地用于指通过网络“通信地耦接”,其中两个或更多个装置能够通过网络彼此交换数据,可能经由一个或多个中间装置进行交换。
[0092] 本领域技术人员明白,在不脱离本文的发明构思的情况下,除了已经描述的那些以外,还可以进行更多的修改。因此,除了所附权利要求的精神之外,本发明的主题不受限制。此外,在理解说明书和权利要求书二者时,应以与上下文一致的最宽泛的可能的方式理解所有术语。尤其,术语“包括(comprises)”和“包括(comprising)”应理解为以非排他性方式指代元件、部件或步骤,表明可以存在、或使用所提到的元件、部件或步骤,或与未明确提到的其他元件、部件或步骤组合。在说明书权利要求提到选自由A、B、C...和N组成的组中的至少一项的情况下,该文本应理解为仅需要该组中的一个元件,而不是A加N,或B加N,等等。前文对具体实施方式的描述将充分揭示本文实施方式的一般性质,其他人通过应用现有知识在不偏离一般概念的情况下可以容易地修改和/或调整这种具体实施方式的各种应用,因此,这些调整和修改应当并且意在被理解为在所公开的实施方式的等同物的含义和范围内。要理解,本文所采用的措辞或术语是为了进行描述而非限制。因此,虽然本文中的实施方式已经根据优选实施方式进行了描述,但是本领域技术人员将认识到,可以在所附权利要求的精神和范围内修改本文的实施方式。
[0093] 虽然本文已经说明和描述了本公开的各种实施方式,但本公开显然不仅限于这些实施方式。在不脱离如权利要求所描述的本公开的精神和范围的情况下,许多修改、改变、变化、替换和等同物对本领域技术人员来说是显而易见的。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈