首页 / 专利库 / 显示技术 / 画中画 / 基于增强现实效果的事件增强

基于增强现实效果的事件增强

阅读:282发布:2020-05-11

专利汇可以提供基于增强现实效果的事件增强专利检索,专利查询,专利分析的服务。并且本 申请 公开了利用 增强现实 (AR)效果实现事件增强的系统和方法。在一个 实施例 中,该系统包括计算平台,所述计算平台具有 硬件 处理器和存储AR效果生成 软件 代码的 存储器 的。硬件处理器被配置为执行AR效果生成 软件代码 以接收与事件场所相对应的场所描述数据,基于所述场所描述数据识别所述事件场所,以及识别预定在所述事件场所发生的事件。硬件处理器还被配置为执行AR效果生成软件代码,以基于事件和事件地点生成一个或多个AR增强效果,并输出在事件期间用于在可穿戴AR设备的显示器上呈现的AR增强效果。,下面是基于增强现实效果的事件增强专利的具体信息内容。

1.一种系统,包括:
计算平台,所述计算平台包括硬件处理器和存储增强现实(AR)效果生成软件代码的存储器
其中,所述硬件处理器被配置为执行AR效果生成软件代码以:
接收与事件场所相对应的场所描述数据;
基于所述场所描述数据识别事件场所;
识别预定在事件场所发生的事件;
基于所述事件和事件场所生成至少一个AR增强效果;以及
在事件期间输出用于在可穿戴AR设备的显示器上呈现的至少一个AR增强效果。
2.根据权利要求1所述的系统,其中所述系统与所述可穿戴AR设备集成,以及其中所述硬件处理器进一步配置为执行AR效果生成软件代码,以便在事件期间在显示器上呈现所述至少一个AR增强效果。
3.根据权利要求1所述的系统,其中所述可穿戴AR装置包括AR眼镜、AR护目镜和AR机中的一个。
4.根据权利要求1所述的系统,其中所述场所描述数据包括在所述事件场所获取的图像数据。
5.根据权利要求1所述的系统,其中所述硬件处理器还被配置为执行AR效果生成软件代码以识别可穿戴AR设备的用户所占据的事件场所中的座位,以及其中所述事件的至少一个AR增强效果包括显示与所述座位的位置相对应的事件视
6.根据权利要求5所述的系统,其中所述硬件处理器还被配置为执行所述AR效果生成软件代码,以检测所述用户离开所述座位的移动并且呈现定到所述事件视角的画中画AR增强效果。
7.根据权利要求5所述的系统,其中所述硬件处理器还被配置为执行AR效果生成软件代码以检测用户重新定位到场所中的另一个座位上,以及其中所述事件的至少一个AR增强效果包括显示与另一个座位的位置相对应的另一个事件视角。
8.根据权利要求1所述的系统,其中所述至少一个AR增强效果包括元数据,所述元数据指定在显示器上用于放置AR增强效果的位置。
9.根据权利要求1所述的系统,其中所述至少一个AR增强效果包括所述事件的字幕。
10.根据权利要求1所述的系统,其中所述至少一个AR增强效果是与在所述事件中表演的演员、角色、音乐艺术家和运动员中的至少一个对应的词气泡、想法框和信息泡之一。
11.一种供系统使用的方法,所述系统包括计算平台,所述计算平台具有硬件处理器和存储增强现实(AR)效果生成软件代码的存储器,所述方法包括:
使用所述硬件处理器接收与事件场所相对应的场所描述数据;
基于所述场所描述数据使用所述硬件处理器识别事件场所;
使用所述硬件处理器识别预定在事件场所发生的事件;
使用所述硬件处理器基于所述事件和事件场所生成至少一个AR增强效果;以及使用所述硬件处理器在事件期间输出用于在可穿戴AR设备的显示器上呈现的至少一个AR增强效果。
12.根据权利要求11所述的方法,其中所述系统与所述可穿戴AR设备集成,以及其中所述方法进一步包括在所述事件期间使用所述硬件处理器在显示器上呈现所述至少一个AR增强效果。
13.根据权利要求11所述的方法,其中所述可穿戴AR装置包括AR眼镜、AR护目镜和AR耳机中的一个。
14.根据权利要求11所述的方法,其中所述场所描述数据包括在所述事件场所获取的图像数据。
15.根据权利要求11所述的方法,还包括识别可穿戴AR设备的用户所占据的事件场所中的座位,其中所述事件的至少一个AR增强效果显示与所述座位的位置相对应的事件视角。
16.根据权利要求15所述的方法,还包括检测所述用户离开所述座位的移动并且呈现锁定到所述事件视角的画中画AR增强效果。
17.根据权利要求15所述的方法,还包括检测用户重新定位到场所中的另一个座位上,以及其中所述事件的至少一个AR增强效果包括显示与另一个座位的位置相对应的另一个事件视角。
18.根据权利要求11所述的方法,其中所述至少一个AR增强效果包括元数据,所述元数据指定在显示器上用于放置AR增强效果的位置。
19.根据权利要求11所述的方法,其中所述至少一个AR增强效果包括所述事件的字幕。
20.根据权利要求11所述的方法,其中所述至少一个AR增强效果是与在所述事件中表演的演员、角色、音乐艺术家和运动员中的至少一个对应的词气泡、想法框和信息泡之一。

说明书全文

基于增强现实效果的事件增强

背景技术

[0001] 在家观看体育节目的优点之一是享受特效和定制的观看视,这些通常是对体育节目内容的补充。例如,体育比赛的网络广播公司可能在其播送节目中提供视觉高亮,例如橄榄球比赛中的“红区”或“首攻”的视觉效果,或显示棒球击球时的击球区界限的视觉特征。然而,尽管这些补充功能给在家的观众提供额外的享受,但他们无法复制亲身体验体育竞赛的沉浸感和即时性。
[0002] 亲自参加一场体育比赛会使人们的体验从主要是被动的媒体消费转变为引人入胜的“事件”。然而,在体育场所上观看可能会对享受该事件造成一定的限制。例如,在体育场的一些座位上的观看角度相比其他座位更有利于观看动作。此外,有些座位的视野一定程度上可能受到竞技场或体育场结构特征阻碍,或者这些作为可能位于离竞技场相对较远的地方。不幸的是,类似的限制会给享受观看电影、舞台演出或音乐会带来限制。发明内容
[0003] 实质上如这些附图中的至少一个所示和/或描述的那样,提供了用于使用增强现实效果来实现事件增强的系统和方法,并且在权利要求中更完整地阐明了这些系统和方法。

附图说明

[0004] 图1示出了根据一种用于使用增强现实(AR)效果实现事件增强的示例性系统的示意图;
[0005] 图2A示出了示例性可穿戴AR设备,适合与根据一个实施例中的图1的系统结合使用;
[0006] 图2B示出了示例性可穿戴AR设备,适合与根据另一个实施例中的图1的系统结合使用;
[0007] 图3示出了利用AR效果提供事件增强的系统的另一个示例性实施例;
[0008] 图4是一流程图,提供了一个被系统使用的示例方法,以利用AR效果实现事件增强;以及
[0009] 图5示出了一AR效果生成软件代码的示例性示意图,该软件代码适合由硬件处理器执行以利用AR效果实现事件增强。

具体实施方式

[0010] 下面的描述包含与本公开中的实施例相关的详细信息。本领域的技术人员应当理解本公开能够以不同于在本文中具体讨论的方式实现。本申请中的附图及其详细描述仅用于示例性实施例。除另有说明外,附图中的相似或相应的元素可用相似或相应的参考数字表示。此外,本申请中的附图和插图通常不按比例绘制,也不旨在与实际的应尺寸相对应。
[0011] 本申请公开了利用增强现实(AR)效果实现事件增强的系统和方法。应当理解,在本文中使用的“增强现实”或“AR”指的是一个或多个真实世界的对象图像和一个或多个虚拟图像的合并,并且可以合并为AR用户体验或虚拟现实(VR)用户体验的一部分。此外,“AR增强效果”是指文本形式的一个或多个虚拟图像,如字幕、环境特征(如事件场所的照明、颜色或结构/建筑特征),或人物、替身、角色的模拟、人、动物、植物以及各种物种或生物和无生命物体的漫画。
[0012] 图1示出了根据一种用于使用AR效果实现事件增强的示例性系统的示意图。如图1所示,系统100可以包括具有硬件处理器104的AR服务器计算平台102、实现为存储AR效果生成软件代码120的非临时存储设备的存储器106和事件场所数据库110,其包括与多个事件场所类型相对应的数据,这些事件场所类型如示例性的影院112、剧院114、体育场/竞技场116和公园118。应当理解,如图1所示,当AR效果生成软件代码120由硬件处理器104执行时,其被配置为生成AR增强效果134(下称“AR增强效果134”)。
[0013] 如图1进一步所示,系统100在包括通信网络130和一个或多个可穿戴AR设备160a、160b和/或160c(下称“可穿戴AR设备160a-160c”)的使用环境中执行。如下图2A、2B和3所示,每个可穿戴AR设备160a-160c至少包括硬件处理器、存储器、收发器、显示器和照相机
此外,如图1所示,在事件场所150,一个或多个参与者156a、156b和/或156c分别使用可穿戴AR设备160a-160c参与事件154。图1还示出了网络通信链路132、示例性电影屏幕152以及各个用户占据的座位158a、158b和/或158c(下称“座位158a、158b和/或158c”),网络通信链路
132通过通信网络130将可穿戴AR设备160a-160c和系统100交互连接,电影屏幕152以电影形式提供事件154。
[0014] 应当理解,虽然本申请为了概念清晰而将AR效果生成软件代码120存储在存储器106中,但更普遍的是,存储器106可以采用任何计算机可读的非临时存储介质的形式。本申请中使用的“计算机可读非临时存储介质”一词是指任何介质,不包括向AR服务器计算平台
102的硬件处理器104或向任何可穿戴AR设备160a-160c的硬件处理器提供指令的载波或其他临时信号。因此,计算机可读的非临时介质可以对应于多种类型的介质,例如易失性介质和非易失性介质。易失性介质可以包括动态存储器,例如动态随机存取存储器(动态RAM),而非易失性存储器可以包括光学的、磁性的或静电的存储装置。计算机可读非临时介质的常见形式包括,例如光盘、RAM、可编程的只读存储器(PROM)、可擦可编只读存储器(EPROM)和闪速存储器。
[0015] 还应当理解的是,虽然图1将AR效果生成软件代码120和事件场所数据库110描述为位于存储器106中,但这种表述也仅仅是为了使概念清晰。更通常地,系统100可以包括一个或多个计算平台102(例如计算机服务器),例如,该系统100可以形成交互连接的分布式系统,如基于的系统。因此,硬件处理器104和存储器106可以对应于系统100中的分布式处理器和存储器资源。
[0016] 根据图1所示的实施例,在事件154期间,用户156a、156b和/或156c可利用各自的可穿戴AR设备160a-160c享受事件154的AR增强效果134。在一个这样的实施例中,例如,系统100可以对应一个或多个web服务器,这些服务器可通过诸如因特网的分组交换网络进行访问。或者,系统100可以对应于一个或多个计算机服务器,这些计算机服务器是支持局域网(LAN)的或者是包括在另一种类型的有限分销网络中。
[0017] 在某些实施例中,事件场所150可以采取室内场所的形式。这类室内场所的例子包括电影院、剧院、音乐厅或封闭的运动场等等。或者,在某些实施例中,事件场所150可以采取室外场所的形式。这些户外场所的例子包括露天运动场或体育场、度假村和公园等等。
[0018] 参照图2A和2B,这些附图示出了适合与图1的系统结合使用的可穿戴AR设备的具体示例性实施例。如图2A和2B所示,各个可穿戴AR设备260A和260B可以采取多种形式。例如,如图2A所示,可穿戴AR设备260A可以实现为AR眼镜。如图2B所示,在某些实施例中,可穿戴AR设备260B可以采用AR护目镜的形式。此外,在其他实施例中,可穿戴AR设备可以采用AR机的形式。
[0019] 每个可穿戴AR设备260A和260B包括在硬件处理器274控制下的收发器262、照相机264和显示器266。此外,每个可穿戴AR设备260A和260B包括作为非临时存储设备的存储器
276,并且还可以包括一个或多个位置/定位传感器268。通常任意一个可穿戴AR设备260A和
260B都可以与图1中的任一个可穿戴AR设备160a-160c相对应。因此,可穿戴AR设备160a-
160c可以具有可穿戴AR设备260A和260B中任意一个的任何特性,反之亦然。也就是说,尽管没有在图1中示出,每个可穿戴AR设备160a-160c包括分别对应于收发器262、照相机264、显示器266、硬件处理器274和存储器276的特征,并且还可以包括与位置/定位传感器268相对应的一个或多个特征。
[0020] 收发器262可以实现为无线通信单元,使可穿戴AR设备160a-160c/260A/260B能够通过通信网络130和网络通信链路132与图1中的系统100交换数据。例如,收发器262可实现为4G无线收发器,或实现为配置成满足国际电信联盟(ITU)创建的IMT-2020要求的5G无线收发器。
[0021] 照相机264可以包括静止图像照相机和/或摄影机。此外,在某些实施例中,照相机264可对应于一组静止图像照相机和/或摄影机,其被配置为生成事件场所(例如事件场所
150)的全景图像。
[0022] 如图2A和2B所示,显示器266可采用单个显示屏的形式,即如图2B所示,或多个显示屏,即图2A中的显示屏266a和266b。包括一个或多个显示屏的显示器266可实现为液晶显示器(LCD)、发光二极管(LED)显示器、有机发光二极管(OLED)显示器或执行信号到光的物理转换的另一合适的显示屏。
[0023] 位置/定位传感器268可以包括一个或多个加速度计和/或陀螺仪以及/或GPS接收机和/或磁强计等。在一些实施例中,位置/定位传感器268可以实现为惯性测量单元(IMU),这在本领域中是已知的。
[0024] 图3示出了利用AR效果实现事件增强的系统的另一个示例性实施例;根据图3所示的示例性实施例,可穿戴AR设备360通过网络通信链路332交互连接到系统300。
[0025] 如图3所示,通常可穿戴式AR设备360包括对应于如图2A和2B所示的收发器262、照相机264、显示器266和位置/定位传感器268的收发器362、照相机364、显示器366和位置/定位传感器368。换句话说,收发器362、照相机364、显示器366和位置/定位传感器368可以也具有本公开的收发器262、照相机264、显示器266和位置/定位传感器268的任意特性,反之亦然。
[0026] 此外,可穿戴AR设备360包括具有硬件处理器374和存储器376的AR设备计算平台372,通常它们分别对应于图2A和2B中的硬件处理器274和存储器276。因此,硬件处理器374和存储器376可以也具有对应于本公开的硬件处理器274和存储器276的任意特性,反之亦然。图3还示出了可选的一个或多个声学传感器336(下称“声学传感器336”)、一个或多个扬声器338(下称“扬声器338”)、射频识别(RFID)读取器378,以及由系统300或可穿戴AR设备
160a-160c/260A/260B/360生成的一个或多个AR增强效果334。
[0027] 通常可穿戴AR设备360都与图1、2A和2B的可穿戴AR设备160a-160c/260A/260B中的任一个相对应。因此,可穿戴AR设备160a-160c/260A/260B可以具有可穿戴AR设备360的任意特性,反之亦然。也就是说,除了上述可穿戴AR设备160a-160c/260A/260B的特征外,每个可穿戴AR设备160a-160c/260A/260B可以包括分别对应于声传感器336、扬声器338和/或RFID读取器378的特征。
[0028] 通常,网络通信链路332和包括具有硬件处理器304和存储器306的AR服务器计算平台302的系统300对应于图1中的网络通信链路122,以及具有硬件处理器104和存储器106的AR服务器计算平台102。此外,图3中的AR效果生成软件代码320a和事件场所数据库310分别对应于图1中AR效果生成软件代码120和事件场所数据库110,事件场所数据库310包括分别对应于影院312、剧院314、体育场/竞技场316和公园318的数据,事件场所数据库110包括对应于电影院112、剧院114、体育场/竞技场116和公园118的数据。因此,通过本公开,事件场所数据库310和AR效果生成软件代码320a可以也具有事件场所数据库110和AR效果生成软件代码120的任意特性,反之亦然。
[0029] 根据图3所示的示例性实施例,通过网络通信链路132/332从系统100/300接收到存储在可穿戴AR设备160a-160c/260A/260B/360的存储器276/376中的AR效果生成软件代码320b。在一个实施例中,例如,网络通信链路132/332对应于在分组网络上的AR效果生成软件代码320b的传输。一旦传输后,例如通过网络通信链路132/332下载,AR效果生成软件代码320b可持续地存储在存储器276/376中,并可由硬件处理器274/374在可穿戴AR设备360上本地执行。
[0030] 硬件处理器274/374可以是可穿戴AR设备160a-160c/260A/260B/360的中央处理单元(CPU),例如其中角色硬件处理器274/374运行可穿戴AR设备160a-160c/260A/260B/360的操作系统,并执行AR效果生成软件代码320b。通常,AR效果生成软件代码320b对应于AR效果生成软件代码120/320a,并且当由硬件处理器274/374执行时,能够执行与本公开中的AR效果生成软件代码120/320a相关的所有操作。因此,在某些实施例中,可穿戴AR设备
160a-160c/260A/260B/360本身可以集成与用于利用AR效果实现事件增强的系统。在图3的示例性实施例中,用户(例如用户156a、156b和/或156c中的任意一个)可以利用可穿戴AR设备160a-160c/260A/260B/360在事件154期间生成事件154的AR增强效果134/334,和/或享受由系统100/300生成的事件154的AR增强效果134/334。
[0031] 参照图4和图1、2A、2B、3以及5结合,将进一步描述AR效果生成软件代码120/320a/320b的功能。图4示出了一个流程图480,提供了一个被系统使用的示例方法,以利用AR效果实现事件增强;以及关于图4中概述的方法,应当理解在流程图480中省略了某些细节和特征,以避免模糊了对本申请中创造性特征的讨论。
[0032] 图5示出了适合于根据一个实施例由图1、2A、2B和3所示的系统的硬件处理器执行的AR效果生成软件代码520的示意图。如图5所示,AR效果生成软件代码520可以包括场所识别模522、事件识别模块524、场所地图绘制模块526和AR效果生成器528。此外,图5示出了场所描述数据590、事件场所550、事件554、场所地图592和AR增强效果534。图5中还示出了事件场所数据库510,其包括与事件场所相对应的数据,如电影院512、剧院514、体育场/竞技场516和公园518。
[0033] AR增强效果534和事件场所数据库510分别与图1和图3中的AR增强效果134/334和事件场所数据库110/310相对应,并且可以具有本公开中的这些相应特征的任意特性。此外,AR效果生成软件代码520通常与图1和图3中的AR效果生成软件代码120/320a/320b相对应。也就是说,与AR效果生成软件代码520一样,AR效果生成软件代码120/320a/320b可以包括与场所识别模块522相对应的模块:事件识别模块524、场所地图绘制模块526和AR效果生成器528。
[0034] 此外,事件场所550和事件554通常分别对应于图1所示的事件场所150和事件154。因此,根据本公开,事件场所550和事件554可以具有本公开中事件场所150和事件154的任何特性,反之亦然。应当理解,在实施例中,AR效果生成软件代码320b/520存储在可穿戴AR设备160a-160c/260A/260B/360的存储器276/376上并由硬件处理器274/374在本地执行,事件场所数据库110/310/510可以通过通信网络130和一个或多个网络通信链路132/332访问AR效果生成软件代码320b/520。
[0035] 参照图4,结合图1、2A、2B、3和5,流程图480开始于接收与事件场所150/550相应的场所描述数据590(步骤481)。如上所述,可穿戴AR设备160a-160c/260A/260B/360可以包括与一个或多个静止图像照相机和/或摄影机相对应的照相机264/364。因此,在一些实施例中,场所描述数据590可以包括在事件场所150/550中使用照相机264/364获取的图像数据。或者,另外在一些实施例中,可穿戴AR设备160a-160c/260A/260B/360可以包括一个或多个声学传感器336和扬声器338。在这些实施例中,场所描述数据590可以包括代替图像数据或与该图像数据结合的声学数据。
[0036] 在一些实施例中,可以使用可穿戴AR设备160a-160c/260A/260B/360获得场所描述数据590,并随后通过通信网络130和网络通信链路132/332将其发送到系统100/300。在这些实施例中,可通过由硬件处理器104/304执行的AR效果生成软件代码120/320a/520从可穿戴AR设备160a-160c/260A/260B/360处接收场所描述数据590。或者,如上所述,在一些实施例中,AR效果生成软件代码320b/520可以本地存储在可穿戴AR设备160a-160c/260A/260B/360的存储器276/376。在这些实施例中,例如可通过由硬件处理器274/374执行的AR效果生成软件代码320b/520从可穿戴AR设备160a-160c/260A/260B/360的照相机264/364处接收场所描述数据590。
[0037] 流程图480接下来是基于场所描述数据590识别事件场所150/550(步骤482)。事件场所150/550的识别能够以几种不同方式中的任意一种或多种方式进行。在一些实施例中,事件场所150/550可以包括一个或多个独特的物理特征,这些物理特征可通过参考事件场所数据库110/310/510来识别。作为一个具体的示例,在事件场所150/550是电影院的情况下,提供事件154/554的电影屏幕152可以具有特定的尺寸和/或其他显示特征,这些特征可以通过参考对应于电影院112/312/512的数据被识别,并可在事件场所数据库110/310/510上访问。
[0038] 或者,事件154/554的票可以包括事件场所识别码,例如字母数字代码,或快速响应码(QR码TM)或其他基于矩阵的事件场所识别码150/550。如果事件154/554的门票包括事件场所识别码,则可以通过使用可穿戴AR设备160a-160c/260A/260B/360的特征来捕获或扫描该码,并且该事件场所识别码可包含在场所描述数据590中。注意,在某些实施例中,可以使用QR码TM或其他基于矩阵的码来激活事件场所150/250中的AR设备160a-160c/260A/260B/360。
[0039] 在一些实施例中,在步骤482中识别事件场所150/550可以包括校准可穿戴AR设备160a-160c/260A/260B/360,以降低可穿戴AR设备的用户所经历的观看失真。例如,可以基于用户视角的视差进行降低。例如,在事件场所150/550为电影院的实施例中,可以在事件
154/554开始之前在电影屏幕152上显示校准屏幕。这样的校准屏幕可以显示主题公园城堡或其他地标,或者可以包括在电影屏幕152的角上的印,这些水印可由照相机264/364捕捉,并包含在场所描述数据590中。
[0040] 在其他实施例中,可穿戴AR设备160a-160c/260A/260B/360的校准可基于由一个或多个声学传感器336收集的声学数据。在这些实施例中,一个或多个扬声器338可用于校准。
[0041] 如上所述,在一些实施例中,可通过系统100/300从可穿戴AR设备160a-160c/260A/260B/360处接收场所描述数据590。在这些实施例中,事件场所150/550可以通过由硬件处理器104/304执行的AR效果生成软件代码120/320a/520以及使用场所识别模块522来识别。或者,如上所述,在一些实施例中,AR效果生成软件代码320b/520可以本地存储在可穿戴AR设备160a-160c/260A/260B/360的存储器276/376。因此,在一些实施例中,事件场所
150/550可以通过由硬件处理器274/374执行的AR效果生成软件代码320b/520以及使用场所识别模块522来识别。
[0042] 虽然没有包含在流程图480提供的示例中,但在一些实施例中,本方法可以包括基于包含在场所描述数据590中的图像数据生成事件场所150/550的场所地图592。可选地,或者另外,也可以使用识别座位的RFID标签或QR代码TM(例如,在事件场所150/550中的座位158a、158b和/或158c中的一个)来执行事件场所150/550的地图绘制。事件场所150/550的地图绘制(例如,结合事件场所数据库110/310上可访问的事件场所150/550的座位表识别事件场所150/550中的特定座位)可进一步对可穿戴AR设备160a-160c/260A/260B/360进行校准,以降低可穿戴设备的用户所经历的观看失真。
[0043] 在某些实施例中,事件场所150/550的地图绘制可通过由硬件处理器104/304执行的AR效果生成软件代码120/320a/520来执行,并使用场所地图绘制模块526根据使用RFID读取器读取的RFID标签生成场所地图592,或基于QR代码TM或其他基于矩阵的码,使用可穿戴AR设备160a-160c/260A/260B/360的特征捕获或扫描。或者,在某些实施例中,事件场所150/550的地图绘制可以通过由硬件处理器274/374执行的AR效果生成软件代码320b/520来执行,以及使用场所地图绘制模块526基于RFID标签数据或QR代码TM或通过通信网络130从可穿戴AR设备160a-160c/260A/260B/360接收的其他矩阵生成场所地图592。
[0044] 流程图480接下来是识别在事件场所150/550预定要发生的事件154/554(步骤483)。事件154/554的识别能够以多个不同方式中的任意一个或多个方式来执行。在一些实施例中,事件场所数据库110/310/510可以包括在不同场所进行的事件的调度信息。作为一个具体的示例,在事件场所150/550是电影院的情况下,对应于电影院112/312/512并在事件场所数据库110/310/510上可访问的数据可以包括在电影屏幕152上显示的电影的日期和时间安排。在这些情况下,可以根据目前的日期和时间来识别事件154/554。
[0045] 或者,事件154/554的门票可以包括事件识别码,例如字母数字码、QR码TM或其他基于矩阵的事件154/554识别码。如果事件154/554的门票包括事件识别码,则该识别码可以通过使用可穿戴AR设备160a-160c/260A/260B/360的特征捕获或扫描来获得。
[0046] 在通过可穿戴AR设备160a-160c/260A/260B/360获得事件识别码并发送到系统100/300的实施例中,事件154/554可以通过由硬件处理器104/304执行的AR效果生成软件代码120/320a/520并使用事件识别模块524来识别。或者,事件154/554可通过由可穿戴AR设备160a-160c/260A/260B/360的硬件处理器274/374执行的AR效果生成软件代码320b/
520并使用事件识别模块524来识别。
[0047] 流程图480接下来是根据事件154/554和事件场所150/550生成AR增强效果134/334/534(步骤484)。根据事件154/554的类型和事件场所150/550的特点,增强效果134/
334/534可采取多种不同的形式。例如,如果事件154/554是电影放映、歌剧表演或戏剧表演,则事件154/554的增强效果为134/334/534。此外,字幕能够以可穿戴AR设备160a-160c/
260A/260B/360的用户的母语或首选语言来生成。
[0048] 当AR增强效果134/334/534采用字幕的形式时,这些字幕可以是与用户156a、156b和/或156c中的每一个对应的不同语言。此外,如果一个或多个用户156a、156b和/或156c患有听损害,则AR增强效果134/334/534可包括手语。在各种实施例中,AR增强效果134/334/534可以针对没有在电影屏幕152上显示字幕的事件154/554生成为字幕,或者以不同语言将在屏幕152上的字幕覆盖起来。
[0049] 如上文所述,在某些实施例中,可穿戴AR设备160a-160c/260A/260B/360的照相机264/364可用于检测电影屏幕152的尺寸,和当可穿戴AR设备160a-160c/260A/260B/360的用户可以移动他/她的头时,可穿戴AR设备160a-160c/260A/260B/360可被配置为使字幕文本与电影屏幕152相对于用户姿势或方向的定位保持一致。此外,在某些实施例中,如果用户将其头部移动到一个位置使得不能观看电影屏幕152或观看受阻时,则可以关闭字幕。
[0050] 在一些实施例中,AR增强效果134/334/534可以包括指定在显示器266/366上用于放置AR增强效果134/334/534的位置的元数据134/334/534。在一些实施例中,可以由用户156a、156b和/或156c中的一个来选择在显示器266/366上用于放置AR增强效果134/334/
534的位置,而在其它实施例中,位置确定可以由事件150/550的制作者或所有者来进行。例如,在一个实施例中,字幕指示器可以编码或嵌入到视频信号中,以识别相对于可穿戴AR设备160a-160c/260A/260B/360的用户,电影屏幕152位于何处。在一些实施例中,字幕的生成和放置也可以是基于作为事件154/554的一部分而显示的场景的颜色对比和/或灯光布置。
[0051] 可选地,或另外,AR增强效果134/334/534可以包括图像和/或识别参与事件154/554的演员、音乐艺术家或其他表演者的文本、那些演员或表演者所扮演的角色或关于事件
154/554的附加信息(例如其历史或批判性评论)。在一实施例中,这些图像和/或文本可以包括一个或多个词气泡(word bubble)、想法框(thought bubble)和信息泡(information bubble),它们对应于在事件154/554中表演的演员、角色或音乐艺术家中的至少一个,就像蝙蝠侠电影中的角色旁边出现的文本气泡一样,或在戏剧表演中当演员表演歌曲时所显示的歌曲的歌词等。在另一个实施例中,AR增强效果134/334/534可能包括在现场表演或体育比赛中叠加在真实元素上的图像,例如通过在橄榄球场上的AR玻璃观看到的真实橄榄球场上的虚拟10码线。
[0052] 另一个例子是,在事件154/554是体育赛事的情况下,AR增强效果134/334/534可以采用图像或文本的形式,提供事件154/554的逐场分析。此外,文本能够以可穿戴AR设备160a-160c/260A/260B/360的用户的母语或首选语言来生成。可选地,或另外,AR增强效果
134/334/534可以包括图像和/或识别运动员或参与事件154/554的其他知名人士的文本,或者关于事件154/554的附加信息(例如游戏统计)。在一个实施例中,这种图像和/或文本可以包括对应于参与事件154/554中的运动员的一个或多个词气泡、想法框和信息泡。
[0053] 作为另一个具体示例,例如,当事件154/554是棒球比赛时,AR增强效果134/334/534可包括投球计数和/或显示击球区或击球轨迹的视觉效果。作为另一个具体示例,例如,当事件154/554是橄榄球比赛时,AR增强效果134/334/534可包括显示首攻线的视觉效果,或向前传球或射门的轨迹。
[0054] 如上所述,在一些实施例中,本方法可包括产生事件场所150/550的场所地图592。如上所述,事件场所150/550的地图绘制可进一步使可穿戴AR设备160a-160c/260A/260B/
360进行校准,以降低可穿戴AR设备的用户所经历的观看失真。例如,如果对事件场所150/
550进行了地图绘制,并且识别了由各个用户156a、156b或156c所占据的座位158a、158b或
158c,则AR增强效果134/334/534可包括显示事件154/554的视角,该视角对应于用户所占据的各个座位的位置。
[0055] 在一些实施例中,系统100/300或可穿戴AR设备160a-160c/260A/260B/360可配置为利用位置/定位传感器268/368、照相机264/364、和/或可穿戴AR设备160a-160c/260A/260B/360的RFID读取器378来识别事件场所150/550中可穿戴AR设备160a-160c/260A/
260B/360的位置。此外,或者可选择地,AR设备160a-160c/260A/260B/360可以配置为利用这些特征中的一个或多个来检测可穿戴AR设备160a-160c/260A/260B/360的用户离开最近所占据的座位的移动。
[0056] 在实施例中,系统100/300或可穿戴AR设备160a-160c/260A/260B/360被配置为检测用户重新定位到事件场所150/550中的另一个座位,AR增强效果134/334/534可包括显示事件154/554的另一个视角,其对应于用户新占据的座位的位置。在一些实施例中,用户的重新定位可以对应于第一用户仅倾侧与占据相邻位置的第二用户说话,该重新定位可以使用用户的头部跟踪来确定。在这些实施方式中,只要第一用户倾侧,则向第一用户显示的视角可以临时改变为与相邻座位相对应的视角。
[0057] 在一些实施例中,AR增强效果134/334/534可以保持从最近占据的座位上获得的事件154/554视角。作为具体示例,如果事件场所150/550是体育场或运动场,且可穿戴AR设备160a-160c/260A/260B/360的用户离开他/她的座位以使用男性/女性洗手间或作出让位,AR增强效果134/334/534可以包括定到用户临时放弃的座位的视角的画中画视觉效果,从而使得用户能够从与在事件场所150/250中他/她原来占据的座位处的相同角度继续观看事件154/554。
[0058] 根据一些实施例,AR增强效果134/334/534可通过由硬件处理器104/304执行的AR效果生成软件代码120/320a/520并利用AR效果生成器528来生成。或者,AR增强效果134/334/534可通过由可穿戴AR设备160a-160c/260A/260B/360的硬件处理器274/374执行的AR效果生成软件代码320b/520并利用事件AR效果生成器528来生成。
[0059] 流程图480接下来是输出AR增强效果134/334/534,以在事件154/554期间在可穿戴AR设备160A-160C/260B/360的显示器266/366上呈现(步骤485)。在一些实施例中,在事件154/554期间输出在显示器266/366上呈现的AR增强效果134/334/534可通过由硬件处理器104/304执行的AR效果生成软件代码120/320a/520来实现。例如,在这些实施例中,在步骤484中由系统100/300生成的AR增强效果134/334/534在事件154/554期间可通过通信网络130和网络通信链路132/332发送到可穿戴AR设备160a-160c/260A/260B/360。或者,在事件154/554期间在显示器266/366上呈现的AR增强效果134/334/534的输出可通过由可穿戴AR设备160a-160c/260A/260B/360的硬件处理器274/374执行的AR效果生成软件代码320b/520来实现。
[0060] 在示例性流程图480的结束处,在事件154/554期间,在可穿戴AR设备160a-160c/260A/260B/360的显示器266/366上呈现一个或多个AR增强效果134/334/534(步骤486)。如上所述,在一些实施例中,AR增强效果134/334/534可以包括指定在显示器266/366上用于放置AR增强效果的位置的元数据134/334/534。例如,如果AR增强效果134/334/534以字幕、信息或统计的形式出现,则AR增强效果134/334/534可以包括元数据,具体为说明字幕、信息或将统计数据有条理地布置在显示器266/366上,以便尽管可穿戴AR设备160a-160c/
260A/260B/360的用户移动了,但用户仍然可以看到。在事件154/554期间,在可穿戴AR设备
160a-160c/260A/260B/360的显示器266/366上呈现AR增强效果134/334/534,可通过由可穿戴AR设备160a-160c/260A/260B/360的硬件处理器274/374执行的AR效果生成软件代码
320b/520来实现。
[0061] 因此,本申请公开了利用AR效果实现事件增强的系统和方法。通过接收与事件场所相对应的场所描述数据并基于该场所描述数据识别事件场所,本事件增强解决方案能够针对该事件场所的以及该事件场所中的事件参与者所占据的特定座位来进行观看角度的确定。此外,通过识别预定在事件场所发生的事件,该事件增强解决方案能够根据事件和事件场所生成AR效果。本方案进一步输出用于在可穿戴AR设备的显示器上呈现的AR增强效果,从而增强参与者在穿戴AR设备时对事件的体验。
[0062] 从上面的描述可以得出,在不偏离本申请中的概念的范围的情况下,能够使用多种技术来实现在本申请中描述的概念。此外,虽然对这些概念进行了具体的描述,但在本领域的技术人员将认识到,在不偏离这些概念的范围的情况下可以在形式和细节上作出改变。因此,从各方面考虑所描述的实施例都应视为是说明性的而不是限制性的。还应理解的是,本申请不限于本文描述的特定实施例,在不偏离本公开的范围的情况下许多重新布置、修改和替换都是可能的。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈