首页 / 专利库 / 电脑图像 / 触觉反馈 / 触觉反馈 / 使用视场的触觉反馈

使用视场的触觉反馈

阅读:353发布:2020-05-13

专利汇可以提供使用视场的触觉反馈专利检索,专利查询,专利分析的服务。并且本公开涉及使用视场的 触觉反馈 。本文公开的一种说明性系统包括计算设备,该计算设备与显示设备和 传感器 进行通信。该显示设备被配置为显示多个内容,并且该传感器被配置为检测计算设备的用户的相对于显示设备的视场。传感器可以将与视场关联的 信号 传输至与传感器进行通信的处理器。该处理器被配置为基于信号确定用户的视场的方向。该处理器还配置为确定由显示设备显示并且与触觉效果关联的内容在用户的视场内。该处理器还配置为确定与内容关联的触觉效果,并且传输与该触觉效果关联的触觉信号。该说明性系统还包括触觉输出设备,该触觉输出设备被配置为接收触觉信号并且输出触觉效果。,下面是使用视场的触觉反馈专利的具体信息内容。

1.一种系统,包括:
计算设备,所述计算设备通信地耦合至显示设备,所述显示设备被配置为显示多个内容;
传感器,所述传感器通信地耦合至所述计算设备,并且被配置为检测所述计算设备的用户的相对于所述显示设备的视场并且传输与所述视场相关联的信号
处理器,所述处理器通信地耦合至所述传感器以便接收所述信号,所述处理器被配置为:
至少部分地基于所述信号确定所述用户的视场的方向;
确定经由所述显示设备显示的并且在所述用户的视场的方向内的内容与触觉效果相关联;
确定与所述内容相关联的所述触觉效果;并且
传输与所述触觉效果相关联的触觉信号;以及
触觉输出设备,所述触觉输出设备被配置为接收所述触觉信号并且输出所述触觉效果。
2.如权利要求1所述的系统,其中,所述传感器还被配置为检测所述用户与所述显示设备之间的距离,并且将与所述距离相关联的距离传感器信号传输至所述处理器,并且所述处理器还被配置为至少部分地基于所述距离确定所述触觉效果的特性。
3.如权利要求2所述的系统,其中,所述触觉效果的特性包括所述触觉效果的幅度、持续时间、位置、类型或频率
4.如权利要求1所述的系统,其中,所述处理器还被配置为:
确定与在所述用户的视场内的第一内容相关联的第一触觉效果;
确定与在所述用户的视场内的第二内容相关联的第二触觉效果;
传输与所述第一触觉效果相关联的第一触觉信号;并且
传输与所述第二触觉效果相关联的第二触觉信号,其中,所述触觉输出设备被配置为接收所述第一触觉信号和所述第二触觉信号并输出所述第一触觉效果和所述第二触觉效果。
5.如权利要求4所述的系统,其中,所述处理器还被配置为:
确定所述用户的视场的朝向所述第一内容或所述第二内容的比例;并且
至少部分地基于所述用户的视场的朝向所述第一内容或所述第二内容的比例来确定所述第一触觉效果或所述第二触觉效果的特性。
6.如权利要求4所述的系统,其中,所述处理器还被配置为:
确定所述用户朝向所述第一内容的眼睛注视的第一方向;
确定所述用户朝向所述第二内容的眼睛注视的第二方向;
基于所述第一方向和所述第二方向来确定所述用户的眼睛注视的变化;并且至少部分地基于所述用户的眼睛注视的变化来确定所述第一触觉效果或所述第二触觉效果的特性。
7.如权利要求1所述的系统,其中,所述处理器还被配置为:
确定与所述显示设备在所述用户的视场内的第一部分相关联的第一触觉效果;
确定与所述显示设备在所述用户的视场内的第二部分相关联的第二触觉效果;
传输与所述第一触觉效果相关联的第一触觉信号;并且
传输与所述第二触觉效果相关联的第二触觉信号,其中,所述触觉输出设备被配置为接收所述第一触觉信号和所述第二触觉信号并且输出所述第一触觉效果和所述第二触觉效果。
8.如权利要求7所述的系统,其中,所述处理器还被配置为:
确定所述用户的视场的朝向所述显示设备的第一部分或所述显示设备的第二部分的比例;并且
至少部分地基于所述用户的视场的朝向所述显示设备的第一部分或所述显示设备的第二部分的所述比例,确定所述第一触觉效果或所述第二触觉效果的特性。
9.如权利要求1所述的系统,其中,所述传感器包括照相机,所述照相机被配置为获取与所述用户的眼睛相关联的图像,并且所述处理器被配置为基于所述图像来确定所述用户的视场的方向。
10.如权利要求1所述的系统,其中,所述传感器被配置为监测所述用户的眼睛中的肌肉的移动,并且所述处理器被配置为基于所述监测到的移动来确定所述用户的视场的方向。
11.如权利要求1所述的系统,其中,所述计算设备包括虚拟现实机,并且所述处理器还被配置为:
生成虚拟现实环境;并且
将包括所述虚拟现实环境和所述多个内容的数据传输至所述显示设备,并且所述显示设备被配置为显示所述多个内容,所述多个内容包括多个虚拟对象。
12.如权利要求1所述的系统,其中,所述处理器还被配置为至少部分地基于所述用户与所述内容之间的虚拟距离来确定所述触觉效果的特性。
13.一种方法,包括:
通过传感器检测计算设备的用户的相对于显示设备的视场,所述显示设备通信地耦合至所述计算设备,并且所述显示设备被配置为显示多个内容;
通过所述传感器将与所述视场相关联的传感器信号传输至处理器;
通过所述处理器至少部分基于所述传感器信号来确定所述视场的方向;
通过所述处理器基于所述视场的方向来确定经由所述显示设备显示的内容在所述用户的视场内;
通过所述处理器确定与所述内容相关联的触觉效果;
通过所述处理器将与所述触觉效果关联的触觉信号传输至触觉输出设备;以及通过所述触觉输出设备输出所述触觉效果。
14.如权利要求13所述的方法,还包括:
通过所述传感器检测所述用户与所述显示设备之间的距离;
通过所述传感器将与所述距离相关联的距离信号传输至所述处理器;以及通过所述处理器至少部分地基于所述距离来确定所述触觉效果的特性。
15.如权利要求14所述的方法,其中,所述触觉效果的特性包括所述触觉效果的幅度、持续时间、位置、类型或频率。
16.如权利要求13所述的方法,还包括:
通过所述处理器确定与在所述用户的视场内的第一内容相关联的第一触觉效果;
通过所述处理器确定与在所述用户的视场内的第二内容相关联的第二触觉效果;
通过所述处理器传输与所述第一触觉效果相关联的第一触觉信号;
通过所述处理器传输与所述第二触觉效果相关联的第二触觉信号;以及
通过所述触觉输出设备输出所述第一触觉效果和所述第二触觉效果,其中,所述第一触觉效果不同于所述第二触觉效果。
17.如权利要求16所述的方法,还包括:
通过所述处理器确定所述用户的视场的朝向所述第一内容或所述第二内容的比例;以及
通过所述处理器至少部分得基于所述用户的视场的朝向所述第一内容或所述第二内容的所述比例来确定所述第一触觉效果或所述第二触觉效果的特性,所述特性包括所述第一触觉效果或所述第二触觉效果的幅度、持续时间、位置、类型或频率。
18.如权利要求16所述的方法,还包括:
通过所述处理器确定所述用户朝向所述第一内容的眼睛注视的第一方向;
通过所述处理器确定所述用户朝向所述第二内容的眼睛注视的第二方向;
通过所述处理器基于所述第一方向和所述第二方向来确定所述用户的眼睛注视的变化;以及
通过所述处理器至少部分地基于所述用户的眼睛注视的变化来确定所述第一触觉效果或所述第二触觉效果的特性,所述特性包括所述第一触觉效果或所述第二触觉效果的幅度、持续时间、位置、类型或频率。
19.如权利要求13所述的方法,还包括:
通过所述处理器确定与所述显示设备在所述用户的视场内的第一部分相关联的第一触觉效果;
通过所述处理器确定与所述显示设备在所述用户的视场内的第二部分相关联的第二触觉效果;
通过所述处理器传输与所述第一触觉效果相关联的第一触觉信号;
通过所述处理器传输与所述第二触觉效果相关联的第二触觉信号;以及
通过所述触觉输出设备输出所述第一触觉效果和所述第二触觉效果,其中,所述第一触觉效果不同于所述第二触觉效果。
20.如权利要求19所述的方法,还包括:
通过所述处理器确定所述用户的视场的朝向所述显示设备的第一部分或所述显示设备的第二部分的比例;以及
通过所述处理器至少部分地基于所述用户的视场的朝向所述显示设备的第一部分或所述显示设备的第二部分的所述比例来确定所述第一触觉效果或所述第二触觉效果的特性,所述特性包括所述第一触觉效果或所述第二触觉效果的幅度、持续时间、位置、类型或频率。
21.如权利要求13所述的方法,其中,所述传感器被配置为监测所述用户的眼睛的移动,并且所述处理器被配置为基于所述监测到的移动来确定所述用户的视场的方向。
22.如权利要求13所述的方法,其中,所述传感器被配置为监测所述用户的眼睛中的肌肉的移动,并且所述处理器被配置为基于所述监测到的移动确定所述用户的视场的方向。
23.如权利要求13所述的方法,还包括:
通过所述处理器生成虚拟现实环境;
通过所述处理器将包括所述虚拟现实环境和所述多个内容的数据传输至所述显示设备;以及
通过所述显示设备显示所述多个内容,所述多个内容包括多个虚拟对象。
24.如权利要求13所述的方法,还包括通过所述处理器至少部分地基于所述用户与所述内容之间的虚拟距离来确定所述触觉效果的特性。

说明书全文

使用视场的触觉反馈

技术领域

[0001] 本公开总体涉及用户接口设备。更具体地,但不作为限制,本公开涉及使用视场的触觉反馈。

背景技术

[0002] 显示设备可以用于向显示设备的用户提供各种内容(例如,图像、视频等)。显示设备还可用于创建虚拟现实环境,该虚拟现实环境可以模拟用户的物理存在和环境,并且允许用户在模拟环境中与虚拟对象交互。用户可查看经由显示设备显示的内容或虚拟对象或与之交互(例如,通过触摸内容或虚拟对象或看向内容或虚拟对象的方向)。然而,一些显示设备可能缺少触觉反馈功能。此外,一些显示设备和虚拟现实设备可能不提供与经由显示设备显示的内容或虚拟对象相关的或与用户同内容或虚拟对象的交互相关的触觉反馈。发明内容
[0003] 本公开的各种实施例提供了用于使用视场的触觉反馈的系统和方法。
[0004] 在一个实施例中,本公开的一种系统可以包括计算设备,所述计算设备通信地耦合至显示设备。所述显示设备可以被配置为显示多个内容。所述系统还包括传感器,所述传感器通信地耦合至所述计算设备,并且被配置为检测所述计算设备的用户相对于所述显示设备的视场并且传输与所述视场相关联的信号。所述系统还包括处理器,所述处理器通信地耦合至所述传感器,以便接收所述信号。所述处理器可以被配置为至少部分基于所述信号确定所述用户的视场的方向。所述处理器还可被配置为确定经由所述显示设备显示的并且在所述用户的视场的方向内的内容与触觉效果相关联。所述处理器还可被配置为确定与所述内容关联的触觉效果并且传输与同所述内容相关联的触觉效果相关联的触觉信号。所述系统还可包括触觉输出设备,所述触觉输出设备被配置为接收所述触觉信号并且输出所述触觉效果。
[0005] 在另一实施例中,本公开的一种方法可以包括:通过传感器检测计算设备的用户的相对于显示设备的视场,所述显示设备通信地耦合至所述计算设备,并且所述显示设备被配置为显示多个内容;通过所述传感器将与所述视场关联的传感器信号传输至处理器;通过所述处理器至少部分基于所述传感器信号确定所述用户的所述视场的方向;通过所述处理器基于所述视场的所述方向确定经由所述显示设备显示的内容在所述用户的视场内;
通过所述处理器确定与所述内容相关联的触觉效果;通过所述处理器将与所述触觉效果相关联的触觉信号传输至触觉输出设备;以及通过所述触觉输出设备输出所述触觉效果。
[0006] 提及这些说明性实施例不是为了限制本主题或定义对本主题的限制,而是为了提供示例以辅助对本主题的理解。在具体实施方式中讨论了说明性实施例,并且在其中提供了进一步的描述。可通过查阅本说明书和/或通过实施所要求保护的主题的一个或多个实施例来进一步地理解各种实施例所提供的优势。附图说明
[0007] 本说明书其余部分中更具体地阐述了完整并且能够实现的公开内容。本说明书参考了以下附图。
[0008] 图1是示出根据一个实施例的用于使用视场的触觉反馈的系统的框图
[0009] 图2示出了根据一个实施例的用于使用视场的触觉反馈的系统的实施例。
[0010] 图3示出了根据另一实施例的用于使用视场的触觉反馈的系统的另一实施例。
[0011] 图4示出了根据另一实施例的用于使用视场的触觉反馈的系统的实施例。
[0012] 图5是根据一个实施例的用于执行用于提供使用视场的触觉反馈的方法的步骤的流程图
[0013] 图6是根据一个实施例的用于执行用于提供使用视场的触觉反馈的另一方法的步骤的流程图。
[0014] 图7是根据一个实施例的用于执行用于提供使用视场的触觉反馈的另一方法的步骤的流程图。

具体实施方式

[0015] 现将详细参考各种以及替代的说明性实施例以及附图。每个示例以解释的方式被提供,并且不作为限制。对本领域技术人员将显而易见的是,可以做出修改和变化。例如,作为一个实施例的一部分被示出或描述的特征可用于另一实施例以产生又一实施例。因此,本公开旨在包括在落入所附权利要求及其等同物的范围内的修改和变化。
[0016] 使用视场的触觉反馈的说明性示例
[0017] 本公开的一个说明性实施例包括显示设备,例如,视频屏幕、计算机或虚拟现实机。显示设备包括传感器、存储器、以及与这些元件中的每一个进行通信的处理器。
[0018] 在说明性实施例中,传感器可以检测显示设备的用户(例如,看着或看向显示设备的用户)的视场或眼睛注视的方向。例如,显示设备可以包括具有用于检测用户相对于内容(例如,文本、图像、声音、视频、色、虚拟对象、虚拟动画等)的视场的嵌入式或接近式传感器的视频屏幕。传感器可以将信号传输至处理器,处理器确定显示在显示设备上并且与触觉效果相关联的内容是否在用户的视场内。
[0019] 在说明性实施例中,处理器可响应于确定与触觉效果关联的内容在用户的视场内,将与触觉效果关联的触觉信号传输至与用户关联的触觉输出设备(例如,由用户穿戴的包括该触觉输出设备的智能手表)。触觉输出设备被配置为从处理器处接收触觉信号,并且输出与在用户的视场中的内容关联的一个或多个触觉效果。在说明性实施例中,触觉输出效果可对应于与用户的视场中的内容相关的一个或多个事件(例如,交互、动作、碰撞或与内容相关联的其他事件)。因此,例如,用户可以感知与用户正在看的特定虚拟角色关联的触觉效果。
[0020] 在说明性实施例中,传感器还可检测显示设备与用户之间的距离,并且将对应于距离的传感器信号传输至处理器,处理器至少部分基于用户与显示设备之间的距离确定触觉效果的特性。例如,处理器可以基于距离确定触觉效果的幅度、持续时间、频率等。在该说明性实施例中,处理器可以基于用户与计算设备之间的距离来修改或调整触觉效果的一个或多个特性,并且将触觉信号传输至触觉输出设备,该触觉输出设备输出触觉效果。因此,例如,当用户靠近显示设备时,用户可感知到较强触觉效果,或者当用户远离显示设备时,用户可感知到较弱触觉效果。
[0021] 在说明性实施例中,处理器还可至少部分基于用户与在用户的视场内的内容之间的虚拟或感知距离确定触觉效果的特性。例如,经由显示设备显示的内容的大小、位置、角度或其他特性可以使得(例如,通过处理器)内容被用户感知为靠近用户或远离用户。举例来说,经由显示设备显示的场景中的小虚拟角色可以被用户感知为远离用户。在说明性实施例中,处理器可以基于虚拟或感知距离来确定触觉效果的幅度、持续时间、频率等。举例来说,处理器确定用于用户的视场内的内容的强触觉效果,用户感知为靠近用户。
[0022] 给出这些说明性示例以向读者介绍本文讨论的一般主题,并且不旨在要限制所公开的概念的范围。以下部分参考附图描述了各种另外的特征和示例,在附图中,相同的标号指示相同的元件,并且使用方向性描述来描述说明性示例,但如同说明性示例,不应该用来限制本公开。
[0023] 用于基于视场的触觉反馈的说明性系统
[0024] 图1是示出根据一个实施例的用于基于视场的触觉反馈的系统100的框图。在图1描绘的实施例中,系统100包括计算设备101,计算设备具有经由总线106与其他硬件进行通信的处理器102。计算设备101可以包括例如移动设备(例如,智能电话)、平板电脑电子书阅读器、智能手表、头戴式显示器、眼镜、可穿戴设备、虚拟现实计算设备等。
[0025] 可包括任意适当的有形(且非暂态)计算机可读介质(例如,RAM、ROM、EEPROM等)的存储器104实现配置计算设备101的操作的程序组件。在所示出的实施例中,计算设备101还包括一个或多个网络接口设备110、输入/输出(I/O)接口组件112和存储设备114。
[0026] 网络接口设备110可以表示辅助网络连接的任意组件中的一个或多个。示例包括但不限于诸如以太网、USB、IEEE 1394之类的有线接口和/或诸如IEEE 802.11、蓝牙或用于接入蜂窝电话网络的无线电接口(例如,用于接入CDMA、GSM、UMTS或其他移动通信网络的收发器/天线)之类的无线接口。
[0027] I/O组件112可以用于辅助与诸如一个或多个显示器134、游戏控制器键盘鼠标、操纵杆、照相机、按钮、扬声器、麦克和/或用于输入或输出数据的其他硬件之类的设备的有线或无线连接。存储设备114表示非易失性存储设备,例如,包括在计算设备101中或耦合至处理器102的磁性、光学或其他存储介质。
[0028] 在一些实施例中,计算设备101包括触敏表面116。触敏表面116表示被配置为感测用户的触觉输入的任意表面。一个或多个触摸传感器108被配置为检测触摸区域中的触摸(例如,当对象接触触敏表面116时),并且将与触摸相关联的信号传输至处理器102。可以使用任意适当数目、类型或布置的触摸传感器108。例如,电阻式传感器和/或电容式传感器可被嵌入在触敏表面116中,并且用于确定触摸位置和诸如压、速度和/或方向之类的其他信息。
[0029] 触摸传感器108可另外地或替代地包括其他类型的传感器。例如,可使用具有触敏表面116的视图的光学传感器来确定触摸位置。作为另一示例,触摸传感器108可以包括安装在显示器侧面上的发光二极管(LED)手指检测器。在一些实施例中,触摸传感器108可以被配置为检测用户交互的多个方面。例如,触摸传感器108可以检测用户交互的速度、压力和方向,并且将此信息并入于传输至处理器102的信号中。因此,例如,计算设备101可以是包括触敏表面116(例如,触敏屏幕)和触摸传感器108的智能电话,该触摸传感器108用于在该智能电话的用户触摸触敏表面116时检测用户输入。
[0030] 在一些实施例中,计算设备101包括组合计算设备101的触敏表面116和显示器134的支持触摸的显示器。触敏表面116可以覆盖在显示器134上,可以作为显示器134外部,或者可以是显示器134的组件之上的一层或多层材料。在其他实施例中,计算设备101可以显示在支持触摸的显示器上包括一个或多个虚拟用户接口组件(例如,按钮)的图形用户界面(“GUI”),并且触敏表面116可以允许与虚拟用户接口组件的交互。
[0031] 在一些实施例中,计算设备101包括照相机130。虽然照相机130在图1中被描绘为在计算设备101的内部,但在一些实施例中,照相机130可以在计算设备101的外部并且与之通信。举例来说,照相机130可以在计算设备101的外部并且经由诸如像以太网、USB、IEEE 1394之类的有线接口和/或诸如IEEE 802.11、蓝牙或无线电接口之类的无线接口与之通信。
[0032] 在一些实施例中,计算设备101包括一个或多个传感器132。在一些实施例中,传感器132可以包括例如陀螺仪加速度计、全球定位系统(GPS)单元、测距传感器、深度传感器、蓝牙设备、照相机、红外传感器、快速响应(QR)代码传感器等。在一些实施例中,传感器132在计算设备101的外部并且与计算设备101进行有线或无线通信。
[0033] 在一些实施例中,计算设备101可以包括可穿戴设备(例如,眼镜、耳机等),并且传感器132可以包括用于检测计算设备101的用户的眼睛注视、视线或视场的任意设备。例如,传感器132可以检测用户的视场的相对于显示在显示器134或另一显示设备(例如,显示设备136)上的内容(例如,文本、图像、声音、视频、角色、虚拟对象、虚拟动画等)的方向。
[0034] 举例来说,传感器132可包括照相机或结合到照相机130中。这样的传感器可以被配置为获取计算设备101的用户的眼睛的图像,并且处理器102可通过使用各种图像处理方法和技术来至少部分地基于图像确定计算设备101的用户的视场的相对于显示器134或显示设备136上的内容的方向。在另一实施例中,传感器132被配置为监测计算设备101的用户的眼睛或用户的眼睛附近的肌肉的移动,并且处理器102被配置为至少部分地基于监测到的移动来确定用户的视场的相对于显示器134或显示设备136上的内容的方向。在又一实施例中,传感器132可以被配置为监测或测量移动计算设备101的用户的眼睛的肌肉的电活动,并且处理器102可以被配置为确定用户的视场的相对于显示器134或显示设备136上的内容的方向。在一些实施例中,传感器132可以包括用于确定用户的意图或意愿的其他传感器,包括例如与功能性磁共振成像(“fMRI”)或脑电图(“EEG”)相关联的传感器。在又一实施例中,传感器132可通过各种方法和技术(包括例如分析用户的身体或头部姿势)来检测用户的眼睛注视、视线或视场。举例来说,传感器132可以包括头戴式显示器或头戴式传感器,以检测用户的头部的运动或检测用户的头部姿势,并且将关于用户的头部运动的数据或关于用户的头部姿势的数据传输至处理器102,该处理器102可以基于数据确定计算设备101的用户的视场的方向。
[0035] 在一些实施例中,传感器132可以检测显示设备136的位置。举例来说,传感器132可以是蓝牙设备,或被配置为通过分析传感器132与另一蓝牙显示设备之间的信号强度来检测该蓝牙显示设备的位置的其他网络设备(例如,显示设备136可以是蓝牙显示设备)。在一些实施例中,传感器132可以检测传感器132、计算设备101或计算设备101的用户与显示设备136之间的距离(例如,基于传感器132与显示设备136之间的蓝牙信号的强度)。在一些实施例中,传感器132可经由任意适当的方法或技术来检测显示设备136的位置或传感器132、计算设备101或计算设备101的用户与显示设备136之间的距离。
[0036] 在一些实施例中,处理器102可与单个传感器132通信,并且在其他实施例中,处理器102可与多个传感器132(例如,照相机、红外传感器和蓝牙设备)通信。传感器132被配置为将传感器信号传输至处理器102。
[0037] 在一些实施例中,系统100还包括与处理器102通信的触觉输出设备118。触觉输出设备118被配置为响应于触觉信号来输出触觉效果。例如,触觉输出设备118可响应于来自处理器102的触觉信号来输出触觉效果。在一些实施例中,触觉输出设备118被配置为输出触觉效果,包括例如振动、挤压、戳刺、感知摩擦系数变化、模拟纹理、抚摸感觉、触点效果、表面变形(例如,与计算设备101相关联的表面的变形)和/或固体、液体或气体的喷出。此外,一些触觉效果可顺序地和/或共同地使用相同或不同类型的多个触觉输出设备118。
[0038] 虽然图1中示出了单个触觉输出设备118,但一些实施例可使用相同或不同类型的多个触觉输出设备118来生成触觉效果。此外,在一些实施例中,触觉输出设备118与处理器102通信并且在计算设备101的内部。在其他实施例中,触觉输出设备118在计算设备101的外部并且与计算设备101通信(例如,经由诸如以太网、USB、IEEE 1394之类的有线接口和/或诸如IEEE 802.11、蓝牙或无线电接口之类的无线接口)。例如,触觉输出设备118可与可穿戴的设备(例如,腕带、手环、帽子、耳机、头带等)相关联(例如,耦合)并且被配置为从处理器102接收触觉信号。
[0039] 在一些实施例中,触觉输出设备118被配置为输出包括振动的触觉效果。触觉输出设备118可以包括例如压电执行器、电机、电磁执行器、音圈、形状记忆合金、电活性聚合物、螺线管、偏心旋转质量电机(ERM)或线性共振执行器(LRA)中的一个或多个。
[0040] 在一些实施例中,触觉输出设备118被配置为输出调制与触觉输出设备118相关联的表面的感知摩擦系数的触觉效果。在一个实施例中,触觉输出设备118包括超声执行器。超声执行器可以以例如20kHz的超声频率振动,从而增加或减少与触觉输出设备118相关联的表面的感知摩擦系数。在一些实施例中,超声执行器可以包括压电材料。
[0041] 在一些实施例中,触觉输出设备118使用静电吸引(例如,通过使用静电执行器)来输出触觉效果。触觉效果可以包括与计算设备101相关联的表面(例如,触敏表面116)上的模拟纹理、模拟振动、抚摸感觉或感知摩擦系数变化。在一些实施例中,静电执行器可以包括导电层和绝缘层。导电层可以是任意半导体或其他导电材料,例如,、金或。绝缘层可以是玻璃、塑料、聚合物或任何其他绝缘材料。此外,处理器102可通过将电信号(例如,AC信号)施加到导电层来操作静电执行器。在一些实施例中,高电压放大器可以生成AC信号。电信号可以在导电层与靠近或触碰触敏表面116的对象(例如,用户的手指或其他身体部位,或者触笔)之间产生电容耦合。改变对象与导电层之间的吸引力的平可以改变由用户感知的触觉效果。
[0042] 在一些实施例中,触觉输出设备118包括变形设备,该变形设备被配置为输出变形触觉效果。变形触觉效果可以包括升高或降低与计算设备101相关联的表面的部分。例如,变形触觉效果可以包括升高触敏表面116的部分。在一些实施例中,变形触觉效果可以包括弯曲、折叠、滚动、扭曲、挤压、挠曲、改变与计算设备101关联的表面的形状或以其他方式使该表面变形。例如,变形触觉效果可以将力施加在计算设备101或与计算设备101相关联的表面(例如,触敏表面116)上,从而使得计算设备或与计算设备关联的表面弯曲、折叠、滚动、扭曲、挤压、挠曲、改变形状或以其他方式变形。
[0043] 在一些实施例中,触觉输出设备118包括被配置用于输出变形触觉效果(例如,用于弯曲与计算设备101相关联的表面或使之变形)的流体。例如,流体可以包括智能凝胶。智能凝胶包括具有响应于一种或多种刺激(例如,电场磁场温度、紫外光、摇动或pH变化)而变化的机械或结构性质的流体。例如,响应于刺激,智能凝胶可以在刚度、体积、透明度和/或颜色上发生变化。在一些实施例中,刚度可以包括与计算设备101相关联的表面(例如,触敏表面116)的抵抗变形的阻力。在一些实施例中,一个或多个电缆可被嵌入或耦合至智能凝胶。在电流经过电缆时,发出热量,从而使得智能凝胶膨胀或收缩,这会使得计算设备101或与计算设备101相关联的表面变形。
[0044] 作为另一示例,流体可以包括流变(例如,磁流变或电流变)流体。流变流体包括悬浮在流体(例如,油或水)中的金属颗粒(例如,颗粒)。响应于电场或磁场,流体中分子的顺序可以重新排布,从而改变该流体的总体阻尼和/或粘度。这会使得计算设备101或与计算设备101关联的表面变形。
[0045] 在一些实施例中,触觉输出设备118包括机械变形设备。例如,在一些实施例中,触觉输出设备118可以包括耦合至使变形组件旋转的臂部的执行器。变形组件可以包括例如椭圆形状、星爆形状或波纹形状。变形组件可以被配置为以一些旋转角度而非其他旋转角度来移动与计算设备101关联的表面。执行器可以包括压电执行器、旋转/线性执行器、螺线管、电活性聚合物执行器、宏纤维复合(MFC)执行器、形状记忆合金(SMA)执行器和/或其他执行器。当执行器旋转变形组件时,变形组件可以移动表面,从而使得表面变形。在这样的实施例中,变形组件可开始于表面为平坦的位置。响应于从处理器102接收信号,执行器可以旋转变形组件。旋转变形组件可以使得表面的一个或多个部分升高或降低。在一些实施例中,变形组件可以保持在该旋转状态,直到处理器102发信号让执行器将变形组件旋转回其原始的位置。
[0046] 此外,可使用其他技术或方法来使得与计算设备101相关联的表面变形。例如,触觉输出设备118可以包括柔性表面层,该柔性表面层被配置为基于与表面可重新配置的触觉基板(包括但不限于例如纤维、纳米管、电活性聚合物、压电元件或形状记忆合金)的接触来使其表面变形或改变其纹理。在一些实施例中,触觉输出设备118例如利用变形机构(例如,耦合至电缆的电机)、空气或流体袋、材料的局部变形、共振机械元件、压电材料、微机电系统(“MEMS”)元件或、热流体袋、孔隙率可变膜或层流调制来进行变形。
[0047] 转向存储器104,模124、126、128和129被描绘以示出在一些实施例中可以如何配置设备来提供使用视场的触觉反馈。在一些实施例中,模块124、126、128和129可以包括可配置处理器102执行一个或多个操作的处理器可执行指令。
[0048] 例如,检测模块124可以将处理器102配置为经由触摸传感器108来监测触敏表面116以确定触摸位置。举例来说,检测模块124可对触摸传感器108进行采样,以便跟踪触摸的存在或消失,并且如果触摸存在,则随时间跟踪触摸的位置、路径、速度、加速度、压力和/或其他特性中的一个或多个。
[0049] 在一些实施例中,内容提供模块129将处理器102配置为将内容(例如,文本、图像、声音、视频、角色、虚拟对象、虚拟动画等)提供给用户(例如,计算设备101的用户或另一用户)。如果内容包括计算机生成的图像,则内容提供模块129被配置为生成图像以供显示在显示设备(例如,计算设备101的显示器134、显示设备136或通信地耦合至处理器102的另一显示器)上。如果内容包括视频和/或静态图像,则内容提供模块129被配置为访问视频和/或静态图像,并且生成视频和/或静态图像视图以供显示在显示设备上。如果内容包括音频内容,则内容提供模块129被配置为生成电子信号,该电子信号将驱动扬声器(其可以是显示器134或显示设备136的部分)来输出相应的声音。在一些实施例中,内容或从中导出内容的信息可由内容提供模块129从存储设备114获得,该存储设备114可以是计算设备101的部分,如图1所示,或者可以与计算设备101分开并且通信地耦合至计算设备101。在一些实施例中,内容提供模块129可以使得处理器102将内容传输至另一设备。举例来说,内容提供模块129可生成或访问内容并且使得处理器将内容传输至显示设备136。
[0050] 举例来说,内容提供模块129可以使得处理器102生成虚拟环境以供显示在显示器134或显示设备136上。虚拟环境可以包括部分虚拟或完全虚拟的环境。例如,虚拟环境可以包括增强现实环境,虚拟现实环境、视频游戏环境等。作为说明性示例,处理器102可以生成与显示器134或显示设备136上的视频游戏相关联的虚拟现实环境。虚拟现实环境可以包括计算设备101的用户可与之交互的虚拟对象(例如,角色、车辆、按钮、滑块、旋钮、图标或其他用户接口组件)。例如,用户可使用可经由I/O组件112通信地耦合至计算设备101的游戏控制器、键盘、鼠标、操纵杆等与虚拟现实环境交互。处理器102可以经由I/O组件112接收信号,并且基于来自I/O组件112的信号确定与虚拟现实环境内的虚拟对象的交互和/或对虚拟现实环境内的虚拟对象的操纵。处理器102可以使得交互和/或操纵在虚拟环境内发生。
因此,用户可能能够与虚拟现实环境中的虚拟对象交互或操纵虚拟现实环境中的虚拟对象。
[0051] 在一些实施例中,触觉效果确定模块126表示分析数据以确定要生成的触觉效果的程序组件。触觉效果确定模块126可以包括使用一种或多种算法或查找表来选择要输出的一个或多个触觉效果的代码。在一些实施例中,触觉效果确定模块126包括可由处理器102用来确定触觉效果的一种或多种算法或查找表。
[0052] 具体地,在一些实施例中,触觉效果确定模块126可以至少部分基于从传感器132接收到的传感器信号确定触觉效果。例如,传感器132可以检测计算设备101的用户的眼睛注视、视线或视场的方向,并且将传感器信号传输至处理器102。处理器102可以接收传感器信号并且确定用户的眼睛注视或视场的方向。触觉效果确定模块126可以至少部分基于用户的眼睛注视或视场的所确定的方向确定触觉效果。
[0053] 例如,在一个实施例中,触觉效果确定模块126可以使得处理器102访问一个或多个查找表或数据库,该一个或多个查找表或数据库包括对应于与可由计算设备101提供(例如,使用内容提供模块129)的各种内容相关联的各种触觉效果的数据。触觉效果确定模块126还可使得处理器102访问一个或多个查找表或数据库,该一个或多个查找表或数据库包括对应于由计算设备101显示的各种内容的位置或定位(例如,可经由显示器134或显示设备136显示的各种内容的位置或定位)的数据。在该实施例中,处理器102可以访问一个或多个查找表或数据库,并且基于用户的眼睛注视或视场的所确定的方向选择与用户正在看的内容关联的一个或多个触觉效果。举例来说,处理器102可以确定用户正在看计算设备101经由显示器134设备提供的特定的虚拟对象或角色、或正在看向该特定的虚拟对象或角色的方向。处理器102可以基于此确定来选择与特定的虚拟对象或角色关联的触觉效果。在一些示例中,触觉效果可以允许用户感知或体验与用户正在看的内容相关的触觉效果。例如,如果用户正在看正在转动其引擎的汽车,则触觉效果可以包括可允许用户感知该引擎的转动的振动或一系列的振动。
[0054] 处理器102还可确定用户正在看与一个或多个触觉效果相关联的内容、或正在看向该内容的方向,并且基于用户与内容之间的虚拟或感知距离确定触觉效果的特性(例如,幅度、持续时间、位置、类型、频率等)。例如,在一个实施例中,触觉效果确定模块126可以使得处理器102访问一个或多个查找表或数据库,该一个或多个查找表或数据库包括对应于用户与内容之间的可感知的或虚拟距离的数据(例如,用户将感知内容是靠近用户还是远离用户)和/或对应于内容的可用于调整或修改用户与内容之间的可感知的或虚拟距离的各种参数(例如,大小、显示设备上的位置、内容显示角度等)的数据。举例来说,虚拟角色可经由显示器134显示为小虚拟角色,从而使得用户将虚拟角色感知为远离用户。在该说明性实施例中,处理器102可以访问一个或多个查找表或数据库,并且确定用户与内容之间的虚拟或可感知的距离并基于感知到的虚拟或感知距离确定触觉效果的特性。举例来说,处理器102可以确定用户正在看虚拟对象、或正在看向该虚拟对象的方向,该虚拟对象经由显示器134被显示为小虚拟对象,以使得用户将虚拟对象感知为远离用户。处理器102可以基于用户将虚拟对象感知为是远离的来确定与虚拟对象相关联的弱触觉效果。因此,例如,如果用户正在看在场景的背景中上下跳动的小角色(例如,用户感知到角色远离于用户),则触觉效果可以是弱振动。
[0055] 在另一实施例中,处理器102可以确定用户正在看与一个或多个触觉效果相关联的多个内容、或正在看向该多个内容的方向。在该实施例中,触觉效果确定模块126可以使得处理器102基于用户正在看的每个内容确定触觉效果。举例来说,处理器102可以确定用户正在看由计算设备101经由显示器134设备提供的第一虚拟角色、或正在看向该第一虚拟角色的方向。处理器102可以基于此确定来选择与第一虚拟角色相关联的第一触觉效果(例如,振动)。处理器102还可确定用于正在看由计算设备101经由显示器134设备提供的第二虚拟角色、或正在看向该第二虚拟角色的方向(例如,如果例如第一虚拟角色被定位在第二虚拟角色附近,则用户可以同时正在看该第一虚拟角色和第二虚拟角色)。处理器可以基于此确定来选择与第二虚拟角色关联的第二触觉效果。在一些实施例中,与第一虚拟角色关联的第一触觉效果可不同于与第二虚拟角色关联的第二触觉效果。在一些实施例中,处理器102可以基于用户正在看该第一虚拟角色和第二虚拟角色、或正在看向第一虚拟角色和第二虚拟角色的方向来选择和确定第三触觉效果,该第三触觉效果包括与第一虚拟角色关联的第一触觉效果的一部分和与第二虚拟角色关联的第二触觉效果的一部分的组合。
[0056] 在一些实施例中,处理器102还可以响应于确定用户正在看与一个或多个触觉效果关联的各种内容、或正在看向该内容的方向来选择或确定第一触觉效果、第二触觉效果或第三触觉效果的特性。例如,处理器102可以基于用户的视场的朝向第一虚拟角色或第二虚拟角色的比例来确定第一触觉效果、第二触觉效果或第三触觉效果的幅度。举例来说,处理器102可以确定用户的视场的一半朝向第一虚拟角色并且用户的视场的一半朝向第二虚拟角色。处理器102可以基于此确定来将与第一虚拟角色关联的第一触觉效果的幅度调整为该幅度的一半,并且将与第二虚拟角色关联的第二触觉效果的幅度调整为该幅度的一半。因此,在一些示例中,由计算设备101的用户感知到的触觉效果的特性可以与用户的注视、视线或用户的视场的朝向由显示器134或显示设备136显示的内容的比例成比例,或根据用户的眼睛注视、视线或用户的视场的朝向由显示器134或显示设备136显示的内容的比例而变化。
[0057] 在另一实施例中,处理器102可以基于传感器信号确定用户正在看显示设备136或显示器134的一部分、或正在看向该部分的方向。例如,传感器132可以检测到用户的眼睛注视的方向或视场的方向朝向显示设备136或显示器134的第一部分,并且将指示用户的眼睛注视的方向或视场的方向的传感器信号传输至处理器102。处理器102可以接收传感器信号并且确定用户的眼睛注视的方向或视场的方向。触觉效果确定模块126可以使得处理器102访问一个或多个查找表或数据库,该一个或多个查找表或数据库包括对应于与显示设备136或显示器134的各个部分或在显示设备136或显示器134上的位置关联的各种触觉效果的数据。处理器102可以访问一个或多个查找表或数据库,并且选择与显示设备136或显示器134的用户正在看或看向的第一部分关联的一个或多个触觉效果。举例来说,处理器102可以确定用户正在看显示器134的左侧部分、或看正在向显示器134的左侧部分的方向。处理器102可以基于此确定来选择与显示器134的左侧部分关联的触觉效果。在一些示例中,触觉效果可以允许计算设备101的用户感知或体验与显示在显示器134或显示设备136的用户正在看的部分上的内容相关的触觉效果。例如,如果用户正在看显示器134的正在显示碰撞或一系列的碰撞的部分,则触觉效果可以包括振动或对应于每个碰撞的一系列的振动,这可允许用户体验与一个或多个碰撞相关联的触觉效果。
[0058] 在一些实施例中,处理器102可以确定用户正在看显示设备器134或显示设备136的多个部分、或正在看向这些部分的方向。在该实施例中,触觉效果确定模块126可以使得处理器102基于用户正在看显示器设备134或显示设备136的多个部分确定触觉效果。处理器102还可以响应于确定用户正在看显示器134或显示设备136的多个部分、或正在看向这些部分的方向来选择或确定触觉效果的特性(例如,幅度、持续时间、位置、类型、频率等)。
[0059] 举例来说,处理器102可以确定用户正在看显示器134的第一部分、或正在看向显示器134的第一部分的方向。处理器102还可确定用户正在看显示器134的第二部分、或正在看向显示器134的第二部分的方向。例如,第一部分可以是显示器134的顶部部分,第二部分可以是显示器134的左侧部分,并且用户可以同时正在看该第一部分和第二部分(例如,正在看显示器134的左上部分)。处理器102可以基于用户正在看显示器134的第一部分和第二部分来确定可包括一个或多个触觉效果的触觉效果(例如,振动)。例如,处理器102可以选择与显示器134的顶部部分、左侧部分或左上部分关联的触觉效果。在一些示例中,处理器102可以选择与顶部部分关联的第一触觉效果和与左侧部分关联的第二触觉效果。在一些示例中,与显示器134的顶部部分关联的触觉效果可不同于与显示器134的左侧部分关联的触觉效果。
[0060] 在一些实施例中,处理器102可以基于用户的视场的朝向显示器134的顶部部分或左侧部分的比例确定触觉效果的幅度。举例来说,处理器102可以确定用户的视场的三分之一朝向显示器134的顶部部分,并且用户的视场的三分之二朝向显示器134的左侧部分。处理器102可以基于此确定来将与顶部部分关联的触觉效果的幅度调整为该幅度的三分之一,并且将与左侧部分关联的触觉效果的幅度调整为该幅度的三分之二。因此,在一些示例中,由计算设备101的用户感知到的触觉效果或该触觉效果的特性可以与用户的注视、视线或视场的朝向显示器134或显示设备136的部分的比例成比例,或根据用户的眼睛注视、视线或视场的朝向显示器134或显示设备136的部分的比例来变化。
[0061] 以这种方式,用于基于视场的触觉反馈的系统100可向用户提供与用户正在看的特定内容相关的、或与显示在显示设备的用户正在看的特定部分上的内容相关的一个或多个触觉效果,从而可以在用户查看显示设备上的内容时向用户提供更身临其境的体验。因此,例如,用户可以感知与用户正在看的内容相关的触觉效果,以使得用户不会因为与用户没有看或看向的内容关联的触觉效果而不知所措。
[0062] 在另一实施例中,传感器102可以从传感器132接收传感器信号,并且确定传感器132、计算设备101或计算设备101的用户与显示器134或显示设备136之间的距离(例如,基于传感器132与显示器134或显示设备136之间的蓝牙信号的强度)。在该实施例中,触觉效果确定模块126可以使得处理器102至少部分基于所确定的距离来确定触觉效果。触觉效果确定模块126还可使得处理器102至少部分基于所确定的距离来选择或确定触觉效果的特性(例如,幅度、持续时间、位置、类型、频率等)。
[0063] 举例来说,处理器102可以确定用户靠近显示设备136或显示在显示设备136上的内容。处理器102可以基于用户正在靠近显示设备136或显示在显示设备136上的内容来确定触觉效果。例如,如果用户靠近显示设备136,则触觉效果可以是较强或较长的触觉效果。作为另一示例,处理器102可以确定用户远离显示设备136或显示在显示设备136上的内容,并且基于此确定来确定较弱或较短的触觉效果。
[0064] 在另一个实施例中,触觉效果确定模块126可以包括基于由内容提供模块129提供的内容来确定触觉效果的代码。例如,内容提供模块129可以提供要输出在显示设备136或显示器134上的视觉内容。在一个实施例中,触觉效果确定模块126可以确定与视觉内容关联的触觉效果。例如,在一个这样的实施例中,触觉效果确定模块126可以确定用于提供与由显示设备136提供的视频关联的触觉轨迹的触觉效果。触觉轨迹可以包括对应于在所提供的视频中发生的事件的触觉效果(例如,振动)或一系列的触觉效果。例如,如果视频包括一系列的爆炸,则触觉轨迹就可以是对应于每次爆炸的一系列的振动。因此,在用户观看视频时,用户可以感知与视频关联的触觉效果。
[0065] 在一些实施例中,触觉效果确定模块126可以包括基于触敏表面116上的触摸位置来确定要输出的触觉效果的代码,以及选择要提供的一个或多个触觉效果以便模拟该效果的代码。例如,可以基于触摸位置选择不同触觉效果,以便模拟在显示器134上的虚拟对象(例如,虚拟家具、汽车、动物、卡通角色、按钮、杠杆、标志或人物)的存在。另外,在一些实施例中,触觉效果确定模块126可以包括基于虚拟对象的大小、颜色、位置、移动和/或其他特性来确定要输出的触觉效果的代码,以及选择要提供的一个或多个触觉效果以便模拟该效果的代码。例如,可以基于虚拟对象的颜色选择触觉效果(例如,如果虚拟对象是红色的,则较强振动,如果虚拟对象是绿色的,则较弱振动)。
[0066] 在一些实施例中,触觉效果确定模块126包括基于事件来确定触觉效果的代码。如本文使用的,事件是在计算设备101的操作期间发生的可潜在地包括相关联的触觉效果的任意交互、动作、碰撞或其他事件。在一些实施例中,事件可以包括用户输入(例如,按钮按下、操纵操纵杆、与触敏表面116的交互、设备的倾斜或定向)、系统状态(例如,低电量、低内存、系统通知,例如,基于系统接收消息、来电、通知或更新而生成的通知)、发送数据、接收数据或程序事件(例如,如果程序是游戏,则程序事件可以包括爆炸、枪声、碰撞、游戏角色之间的交互、升到新的等级或在颠簸地形上行驶)。
[0067] 在一些实施例中,触觉效果确定模块126可以使得处理器102选择要提供的一个或多个触觉效果和/或要执行的一个或多个触觉输出设备118,以便生成或输出触觉效果。
[0068] 在一些实施例中,触觉效果生成模块128表示使得处理器102生成触觉信号并且将其传输至触觉输出设备118、159以生成所选择的触觉效果的编程。在一些示例中,触觉效果生成模块128使得触觉输出设备118生成由触觉效果确定模块126确定的触觉效果。例如,触觉效果生成模块128可以访问所存储的波形或命令以发送至触觉输出设备118,来创建所选择的触觉效果。例如,触觉效果生成模块128可以使得处理器102访问包括指示与一个或多个触觉效果关联的一个或多个触觉信号的数据的查找表,并且确定要传输至触觉输出设备118以生成特定触觉效果的波形。在一些实施例中,触觉效果生成模块128可以包括用于确定触觉信号的算法。触觉效果生成模块128可以包括用于确定触觉效果的目标坐标(例如,在计算设备101上(例如,在触敏表面116上)要输出触觉效果的位置的坐标)的算法。例如,触觉效果生成模块128可以使得处理器102使用指示对象在触敏表面116上的触摸的位置的传感器信号来确定触觉效果的目标坐标,其可对应于触摸位置。在一些实施例中,触觉输出设备118可以包括一个或多个触觉输出设备。在此类实施例中,触觉效果生成模块128可以使得处理器102将触觉信号传输至一个或多个触觉输出设备118,以生成所选择的触觉效果。
[0069] 在一些实施例中,显示设备136包括例如移动设备(例如,智能电话)、平板电脑、电子书阅读器、智能手表、头戴式显示器、可穿戴设备、视频屏幕、耳机、虚拟现实显示设备、或包括用于提供内容的显示器的任意其他设备。
[0070] 显示设备136可以包括处理器138、存储器140、总线142、I/O组件144、存储设备146、网络接口设备148、显示器150、触敏表面152、触摸传感器154、照相机156、传感器158和触觉输出设备159,其中每个可以与计算设备101的处理器102、存储器104、总线106、I/O组件112、存储设备114、网络接口设备110、显示器134、触敏表面116、触摸传感器108、照相机
130、传感器132和触觉输出设备118基本上相同的方式来配置,但它们被这样配置。在一些实施例中,计算设备或显示设备136可以包括图1中描绘的组件中的所有或一些组件。举例来说,计算设备101可以是智能电话并且显示设备136可以是计算设备101的用户正在看或看向的平板电脑。在这样的实施例中,计算设备101或显示设备136可以包括图1中描绘的组件中的所有或一些组件。
[0071] 计算设备101可以通信地耦合至显示设备136。例如,计算设备101和显示设备136可以使用网络接口设备110和148进行通信(例如,传输或接收数据或信号172、174)。举例来说,计算设备101和显示设备136可各自被连接到公共无线网络并且可以经由无线网络进行通信。作为另一示例,计算设备101和显示设备136可以经由蓝牙连接被通信地耦合。
[0072] 在一些实施例中,显示设备136可以是可用于向计算设备101或显示设备136的用户提供内容的显示设备。例如,显示设备136可以用于提供文本、图像、声音、视频、角色、虚拟对象、虚拟动画等。举例来说,显示设备136可用于向用户提供虚拟环境(例如,增强现实环境、虚拟现实环境、视频游戏环境等)。作为说明性示例,显示设备136可以提供虚拟现实环境,其包括用户可与之交互的虚拟对象(例如,角色、车辆、按钮、滑块、旋钮、图标或其他用户接口组件)。例如,用户可使用计算设备101或经由I/O组件112、144通信地耦合至计算设备101或显示设备136的一个或多个游戏控制器来与虚拟现实环境交互。处理器102、138可以经由I/O组件112、144从游戏控制器接收信号,并且基于来自I/O组件112、144的信号确定与虚拟现实环境内的虚拟对象的交互和/或对虚拟现实环境内的虚拟对象的操纵。处理器102、138可以使得交互和/或操纵在虚拟环境内发生。作为说明性示例,计算设备101可以是智能电话,并且显示设备136可以是显示一个或多个虚拟对象的虚拟现实显示设备。智能电话的用户可以正在看或看向由虚拟现实显示设备显示的虚拟对象,并且用户可通过向智能电话提供一个或多个用户输入(其可以由智能电话传送给虚拟现实显示设备)来与用户正在看的虚拟对象交互或控制用户正在看的虚拟对象。因此,用户可能能够与虚拟现实环境中的虚拟对象交互或操纵虚拟现实环境中的虚拟对象。
[0073] 在一些实施例中,显示设备136的传感器158可以检测计算设备101或显示设备136的用户的眼睛注视、视线或视场。例如,传感器158可以以与传感器132基本上相同的方式被配置用于检测计算设备101或显示设备136的用户的眼睛注视、视线或视场。
[0074] 在一些实施例中,存储器140包括模块160、162、164、166。在一些实施例中,存储器140包括模块160、162、164、166中的所有或一些模块。模块160、162、164、166可各自以与计算设备101的相应模块124、126、128和129基本上相同的方式被配置。
[0075] 在一些实施例中,内容提供模块166可以以与内容提供模块129基本上相同的方式被配置,并且可以将处理器138配置为将内容(例如,文本、图像、声音、视频、动画图形、虚拟对象、虚拟动画等)提供给用户(例如,计算设备101的用户或另一用户)。在一些实施例中,内容或从其导出内容的信息可以从另一设备(例如,计算设备101)获取。例如,内容提供模块166可以被配置为使得处理器138接收包括来自计算设备101的内容的数据。内容可由显示设备136(例如,经由显示器150)显示。
[0076] 在一些实施例中,触觉效果确定模块162可以使得处理器138以与如上面关于触觉效果确定模块126和处理器102所描述的基本上相同的方式来至少部分基于从传感器158接收到的传感器信号来确定触觉效果。例如,触觉效果确定模块162可以使得处理器138基于计算设备101的用户的眼睛注视或视场的方向确定一个或多个触觉效果。举例来说,触觉效果确定模块162可以使得处理器138响应于确定用户正在看与触觉效果相关联的并且显示在显示设备136上的内容、或正在看向该内容的方向来确定一个或多个触觉效果。作为另一示例,触觉效果确定模块162可以使得处理器138响应于确定用户正在看显示设备136的部分、或正在看向该部分的方向来确定一个或多个触觉效果。作为另一示例,触觉效果确定模块162可以使得处理器138基于计算设备101或显示设备136的用户的眼睛注视或视场的方向来确定触觉效果的特性。在另一实施例中,触觉效果确定模块162可以使得处理器138基于用户与内容之间的虚拟或感知距离确定触觉效果的特性。在另一实施例中,触觉效果确定模块162可以使得处理器138基于计算设备101或显示设备136的用户与显示设备136或传感器158之间的距离确定触觉效果的特性。此外,在一些实施例中,触觉效果确定模块162可以使得处理器102选择要提供的一个或多个触觉效果和/或要执行的一个或多个触觉输出设备118,以便生成或输出触觉效果。
[0077] 在一些实施例中,触觉效果生成模块164表示使得处理器138生成触觉信号且将其传输至触觉输出设备118或159以生成所选择的触觉效果的编程。在一些示例中,触觉效果生成模块164使得触觉输出设备118、159生成由触觉效果确定模块162确定的触觉效果。
[0078] 作为说明性示例,计算设备101可以是智能手表并且显示设备136可以是穿戴该智能手表的用户正在看的平板电脑。在一个这样的示例中,平板电脑可经由平板电脑的显示器向用户显示内容(例如,使用内容提供模块166经由显示器150提供内容),并且传感器158可以确定用户的眼睛注视的方向。平板电脑的处理器(例如,处理器138)可响应于确定用户正在看由平板电脑显示的并且与触觉效果相关联的内容来确定触觉效果。平板电脑的处理器可以生成触觉信号并且将其传输至智能手表的触觉设备(例如,触觉设备118)或平板电脑的触觉设备(例如,触觉输出设备159)的触觉设备,以生成由用户感知的触觉效果。例如,触觉效果可由该智能手表或平板电脑输出,并且用户可以在用户佩戴智能手表时或在用户接触平板电脑(例如,触摸或持有该平板电脑)时感知触觉效果。
[0079] 图2示出了用于使用视场的触觉反馈的系统200的实施例。系统200包括计算设备101a-b(例如,图1的计算设备101)和显示设备136。
[0080] 在图2所示的示例中,显示设备136可以是被配置为向计算设备101a-b的用户202a-b显示内容的任意显示设备(例如,视频屏幕)。例如,显示设备136的处理器可以生成将由显示设备136显示的内容。在另一示例中,计算设备101的处理器(例如,图1的处理器
102)可以生成内容并且将包括该内容的数据传输至显示设备136,并且显示设备136可以被配置为显示内容。
[0081] 在一些实施例中,显示设备136或计算设备101a-b可以确定与显示在显示设备136上的内容关联的一个或多个触觉效果。例如,内容可以包括视频、或视频游戏,并且计算设备101a-b可以输出对应于显示在显示设备136上的视频游戏或视频内容的一个或多个触觉效果(例如,经由图1的触觉输出设备118)。举例来说,视频内容可以包括一个或多个动作或交互(例如,由显示设备136显示的视频中的角色或对象之间的交互)。计算设备101a-b可以输出与动作或交互关联的一次或多次振动,以使得用户202a-b可以在动作和/或交互显示在显示设备136上时感知动作和/或交互。
[0082] 在一些实施例中,显示设备136包括传感器203,该传感器203可以以与图1的照相机156或传感器158基本上相同的方式被配置。在一些实施例中,传感器203可以在显示设备136的内部或在显示设备136的外部,并且通信地耦合至显示设备136(例如,经由有线或无线通信链路)。传感器203可以被配置为检测用户202a的视线或视场210,或者用户202a的眼睛注视212a-b的方向。传感器158还可检测用户202b的视线或视场214。
[0083] 在一些实施例中,传感器203可以传输指示用户202a的所检测的视线或视场210、用户202a的眼睛注视212a-b的方向、或用户202b的视线或视场214的数据。例如,传感器203可以检测用户202a的视场210或用户202a的眼睛注视212a-b的方向。传感器203可以将指示用户202a的视场210或眼睛注视212a-b的方向的传感器信号传输至显示设备136的处理器(例如,图1的处理器138),处理器可以基于数据确定用户202a的视场210或眼睛注视212a-b的方向。
[0084] 在一些实施例中,显示设备136可以至少部分基于来自传感器203的传感器信号确定一个或多个触觉效果。触觉效果可以各自包括振动或任意其他触觉效果。例如,在一些实施例中,显示设备136可以基于用户202a的视场210或用户202a的眼睛注视212a-b的方向确定触觉效果。在一个这样的实施例中,显示设备136基于来自传感器203的数据确定用户202a正在看经由显示设备136显示的虚拟对象204、206、或正在看向这些虚拟对象的方向,并且可以确定与虚拟对象204关联的第一触觉效果(例如,振动)和与虚拟对象206关联的第二触觉效果(例如,另一振动)。在一些实施例中,第一触觉效果可不同于第二触觉效果。显示设备136可以将对应于第一触觉效果的第一触觉信号和/或对应于第二触觉效果的第二触觉信号传输至与用户202a关联的触觉输出设备。例如,显示设备136可以将第一触觉信号或第二触觉信号传输至与用户关联的计算设备101a,该计算设备101a包括触觉输出设备(例如,图1的触觉输出设备118)。触觉输出设备可以将第一触觉效果和第二触觉效果输出给用户202a(例如,用户202a的腕部、手部、臂部、腿部或手部)。第一触觉效果或第二触觉效果可以允许用户感知或体验与虚拟对象204、206相关的触觉效果。例如,如果虚拟对象204是上下跳动的虚拟角色,则与虚拟对象204关联的第一触觉效果可以包括一次或多次振动,从而允许用户202a感知上下跳动的虚拟对象204的效果。
[0085] 显示设备136还可至少部分基于虚拟对象204、206、208的大小、颜色、位置、移动和/或其他特性确定一个或多个触觉效果的特性(例如,幅度、持续时间、位置、类型、频率等)。例如,在图2中示出的示例中,虚拟对象204、206在用户202a的视场210内。虚拟对象206在显示设备136上可被显示为三维(“3D”)虚拟对象。在该示例中,显示设备136可以基于被显示为3D虚拟对象的虚拟对象206确定与虚拟对象206关联的较强或较长第一触觉效果(例如,较强或较长的振动)。显示设备136可以将与第一触觉效果关联的第一触觉信号传输至计算设备101a,并且计算设备101a的触觉输出设备可以将触觉效果输出给用户202a。因此,在一些示例中,由用户202a感知的触觉效果的特性可以与在用户202a的视场210内的虚拟对象204、206的特性成比例、或根据在用户202a的视场210内的虚拟对象204、206的特性来变化。
[0086] 在一些实施例中,显示设备136可以基于用户202a-b的眼睛注视212a-b确定一个或多个触觉效果的特性。例如,显示设备136可以基于用户202a-b的眼睛注视212a-b的变化确定触觉效果的特性。
[0087] 例如,在图2中描绘的示例中,虚拟对象204、206在用户202a的视场210内,并且用户202a的眼睛注视可以在虚拟对象204、206之间平移或移动。在该示例中,计算设备101a可以包括第一触觉输出设备和第二触觉输出设备。在一些示例中,第一触觉输出设备和第二触觉输出设备可被组合以形成单个触觉输出设备。第一触觉输出设备可以被配置为向用户的第一部分(例如,用户202a的右腕、右手、右臂或头部的右侧)输出触觉效果。而且,第二触觉输出设备可以被配置为向用户的第二部分(例如,用户202a的左腕、左手、左臂或头部的左侧)输出触觉效果。用户202a的眼睛注视212a可以初始地朝向虚拟对象206,该虚拟对象206可显示为在显示设备136上朝向用户202a的右侧。显示设备136可响应于用户202a的眼睛注视212a朝向虚拟对象206,将对应于第一触觉效果的第一触觉信号传输至计算设备
101a的第一触觉输出设备。第一触觉输出设备可以将第一触觉效果输出至用户202a的右侧(例如,用户202a的右臂)。在一些示例中,第一触觉效果可响应于用户202a的眼睛注视212a朝向虚拟对象206而是较强的触觉效果(例如,较强的振动)。
[0088] 随后,用户202a的眼睛注视可以偏移,以使得用户202a的眼睛注视212b可以朝向虚拟对象204,该虚拟对象204可显示为在显示设备136上朝向用户202a的左侧。在用户202a的眼睛注视从虚拟对象206偏移到虚拟对象204(例如,从眼睛注视212a到212b)时,显示设备136可以将对应于第二触觉效果的第二触觉信号传输至计算设备101的第二触觉输出设备。第二触觉输出设备可以将第二触觉效果输出至用户202a的左侧(例如,用户202a的左臂)。
[0089] 在该示例中,在用户202a的眼睛注视从眼睛注视212a偏移到眼睛注视212b时,显示设备136可以调整第一触觉效果的特性。例如,显示设备136可以在用户的眼睛注视从虚拟对象206偏移到虚拟对象204(例如,从眼睛注视212a到212b)时,减小第一触觉效果的幅度和/或增大第二触觉效果的幅度。在一些示例中,第一触觉效果可以包括单个触觉轨迹。例如,触觉轨迹可以是包括第一触觉效果和第二触觉效果的一系列触觉效果(例如,一系列的振动)。在该示例中,如上所述,在用户202a的眼睛注视从眼睛注视212a偏移到眼睛注视
212b时,显示设备136可以调整触觉轨迹的特性(例如,幅度)。
[0090] 因此,在一些示例中,由用户202a-b感知的触觉效果的特性可随着用户的眼睛注视202a-b的变化而变化。在另一实例中,用户202a-b可以感知对应于用户202a-b正在看的内容在显示设备136上的水平和/或垂直位置的各种触觉效果。例如,如上所述,如果用户202a正在看显示在用户202a的左侧的显示设备136上的内容,则用户202a可以感知用户
202a的左侧的触觉效果。
[0091] 在一些实施例中,显示设备136可以基于用户与用户正在看的内容、或在看向的方向上的内容之间的虚拟或感知距离确定一个或多个触觉效果的特性。例如,在图2中示出的示例中,虚拟对象204、206在用户202a的视场210内。虚拟对象206可以在显示设备136上被显示为比虚拟对象204更小的虚拟对象,这会使得用户202a将虚拟对象206感知为是远离的并且将虚拟对象204感知为是靠近的。在该示例中,显示设备136可以确定与虚拟对象204关联的较强或较长第一触觉效果(例如,较强或较长振动)。在另一示例中,显示设备136可以确定与虚拟对象206关联的较弱或较短第二触觉效果(例如,较弱或较短的振动)。显示设备136可以将与第一触觉效果关联的第一触觉信号或与第二触觉效果关联的第二触觉信号传输至计算设备101a,并且计算设备101a的触觉输出设备可以将触觉效果输出给用户202a。
因此,在一些示例中,由用户202a感知的触觉效果的特性可以与用户202a与用户202a的视场210内的虚拟对象204、206之间的虚拟或感知距离成比例、或根据该虚拟或感知距离而变化。
[0092] 在另一实施例中,来自传感器203的传感器信号可以指示用户202a正在看多个虚拟对象204、206、或正在看向这些虚拟对象的方向。例如,在图2中描绘的示例中,来自传感器203的数据可以指示用户202a的眼睛注视212a的方向朝向虚拟对象206、或在虚拟对象206的方向上,并且用户202a的眼睛注视212b的方向朝向虚拟对象204、或在虚拟对象204的方向上。例如,虚拟对象204可以靠近虚拟对象206,并且用户202a可以同时正在看虚拟对象
204、206。在一个这样的实施例中,显示设备136可以确定第三触觉效果。在一些实施例中,第三触觉效果可不同于第一触觉效果和第二触觉效果。在另一实施例中,第三触觉效果可以包括第一触觉效果和第二触觉效果的组合。例如,第三触觉效果可以包括与虚拟对象204关联的第一触觉效果的一部分和与虚拟对象206关联的第二触觉效果的一部分。
[0093] 在一些实施例中,显示设备136可以基于用户202a的眼睛注视212a-b的方向确定与虚拟对象204关联的第一触觉效果的特性和与虚拟对象206关联的第二触觉效果的特性。例如,显示设备136可以确定对应于用户202a的眼睛注视212a的方向的用户的视场210的部分大于对应于用户202a的眼睛注视212b的方向的用户的视场210的部分。例如,显示设备
136可以基于用户202a的眼睛注视212a的方向确定用户的视场210的四分之三朝向虚拟对象206。显示设备136还可基于用户202a的眼睛注视212b的方向确定用户的视场210的四分之一朝向虚拟对象204。显示设备136可以基于此确定来将与虚拟对象204关联的第一触觉效果的幅度调整为该幅度的四分之一。显示设备136还可将与虚拟对象206关联的第二触觉效果的幅度调整为该幅度的四分之三。以这种方式,如果用户202a更集中于虚拟对象206而非虚拟对象204,则用户202a可更多地感知第二触觉效果而非第一触觉效果。因此,在一些示例中,由用户202a感知的触觉效果的特性可以与用户202a的眼睛注视212a-b或用户的视场210的朝向虚拟对象204、206的比例成比例、或根据用户202a的眼睛注视212a-b或用户的视场210的朝向虚拟对象204、206的比例来变化。
[0094] 在一些实施例中,来自传感器203的传感器信号可以指示用户202a与在用户202a的视场210内的显示设备136或虚拟对象204、206之间的距离。在一个这样的实施例中,显示设备136可以基于用户202a与显示设备136或虚拟对象204、206之间的距离确定触觉效果或该触觉效果的特性。举例来说,如果用户202a靠近虚拟对象204,则显示设备136可以确定与虚拟对象204关联的较强或较长的第一触觉效果(例如,较强或较长的振动)。作为另一示例,如果用户202a远离虚拟对象206,则显示设备136可以确定与虚拟对象206关联的较弱或较短的第二触觉效果。显示设备136可以将与触觉效果关联的触觉信号传输至与用户202a关联的触觉输出设备,该触觉输出设备可以将触觉效果输出给用户202a。
[0095] 在图2中描绘的示例中,用户202b的视场214朝向虚拟对象208。传感器203可以传输指示视场214的方向的传感器信号,并且显示设备136可以确定与虚拟对象208关联的触觉效果。显示设备136可以将与触觉效果关联的触觉信号传输至与用户202b关联的触觉输出设备,该触觉输出设备可以将触觉效果输出给用户202b。
[0096] 在一些实施例中,用户202a-b可以不感知与在用户202a-b的视场210、214之外的虚拟对象204、206、208关联的触觉效果。例如,来自传感器203的数据可以指示虚拟对象204、206在用户202b的视场214之外(例如,用户202b没有正在看、没有朝向虚拟对象204、
206、或没有看向这些虚拟对象的方向)。在一个这样的实施例中,与虚拟对象204、206关联的触觉效果可以不被输出给用户202b。以这种方式,来自传感器203的传感器信号可以用于基于用户202a-b的视场210、214将触觉效果提供给用户202a-b,这可以通过允许用户202a-b感知或体验与用户202a-b正在看或朝向的特定内容相关的触觉效果,来向用户202a-b提供对用户202a-b正在看的内容的更身临其境的体验。
[0097] 在一些实施例中,如上所述,显示设备136可以基于来自传感器203的传感器信号确定一个或多个触觉效果。在另一实施例中,传感器203可以将传感器信号传输至计算设备101a-b,计算设备101a-b中的每一个可以以与如上面参考显示设备136所描述的基本上相同的方式来基于传感器信号确定一个或多个触觉效果。例如,传感器203可以将指示用户
202a-b的视场210、214或用户202a的眼睛注视212a-b的方向的传感器信号传输至每个计算设备101a-b的处理器(例如,图1的处理器102),并且计算设备101a-b可以基于传感器信号确定一个或多个触觉效果。在此类实施例中,计算设备101a-b可以基于来自传感器203的传感器信号确定触觉效果,并且将与触觉效果关联的触觉信号传输至与用户202a-b关联的触觉输出设备(例如,图1的触觉输出设备118),该触觉输出设备可以将触觉输出效果输出给用户202a-b。
[0098] 虽然在该示例中,用户202a-b可以不感知与在用户202a-b的视场210、214之外的虚拟对象204、206、208关联的触觉效果,但本公开不限于此类配置。相反,在其他示例中,例如像下文进一步详细地描述的实施例,显示设备136或计算设备101a-b可以基于在用户202a-b的视场210、214外的内容来确定和输出一个或多个触觉效果。
[0099] 图3示出了根据另一实施例的用于使用视场的触觉反馈的系统300的另一实施例。在图3中描绘的示例中,系统300包括计算设备302(例如,智能电话、平板电脑或游戏控制器)和显示设备304。图3中描绘的显示设备304可以是可穿戴设备(例如,虚拟现实耳机)。
[0100] 在该实施例中,显示设备304生成虚拟环境(例如,与视频游戏关联的虚拟现实环境)且将其提供给显示设备304的用户306。虚拟现实环境包括用户306可使用计算设备302与之进行交互的一个或多个虚拟对象(例如,角色、车辆、按钮、滑块、旋钮、图标或其他用户接口组件)。举例来说,虚拟环境302可以包括经由一个或多个I/O组件(例如,图1的I/O组件112)通信地耦合至计算设备302的一个或多个按钮、操纵杆等。计算设备302可以通信地耦合至显示设备304,以便允许用户306经由包括在计算设备302中的I/O组件与虚拟环境交互。
[0101] 在一些实施例中,显示设备304包括可检测用户306的视场、或用户306的眼睛注视的方向的传感器(未示出)(例如,当用户306看着显示设备304的特定部分或由显示设备304显示的特定虚拟对象时)。例如,传感器可以是照相机或以与图1的传感器132或158基本上相同的方式被配置的其他传感器。作为另一个示例,传感器可检测用户306的头部运动或用户306的头部姿势以确定用户306的视场、或用户306的眼睛注视的方向。传感器可以将传感器信号传输至显示设备304的处理器(未示出)或计算设备302的处理器(未示出),这可以确定用户306的视场或眼睛注视的方向对应于经由显示设备304显示的虚拟对象的位置或定位。在一些实施例中,显示设备304或计算设备302可以确定与虚拟对象关联的一个或多个触觉效果(例如,振动、挤压或戳刺),并且将触觉效果输出至用户306的身体部位(例如,用户的头部、手部或其他身体部位)。在一些实施例中,输出与在用户306的视场或眼睛注视的方向内的虚拟对象关联的触觉效果可以允许用户感知与用户306正在看的虚拟对象相关的触觉效果。举例来说,显示设备304显示多个虚拟角色,并且用户306正在看参与战斗的特定虚拟角色。传感器信号可以指示用户正在看着特定虚拟角色,并且显示设备304可以输出与参与战斗的虚拟角色关联的触觉效果(例如,经由图1的触觉输出设备159)。触觉效果可包括振动或一系列的振动以允许用户306感知与用户306正在看的特定虚拟角色关联的触觉效果。
[0102] 在一些实施例中,显示设备304可以确定用户正在看显示在显示设备304上的多个虚拟对象,并且显示设备304可以基于此确定来确定与每个虚拟对象关联的触觉效果或与每个虚拟对象关联的触觉效果的特性。举例来说,用户306同时正在看第一虚拟角色和第二虚拟角色。传感器信号指示用户306的眼睛注视是向着第一虚拟角色,并且第二虚拟角色在用户306的视场内。显示设备304可确定和输出一个或多个触觉效果,其包括与第一虚拟角色关联的第一触觉效果的一部分和与第二虚拟角色关联的第二触觉效果的一部分。以这种方式,用户306可以体验与用户306正在看的第一虚拟角色和第二虚拟角色两者关联的触觉效果。
[0103] 显示设备304还可基于用户306与用户306正在看或看向的特定虚拟对象之间的虚拟或感知距离确定触觉效果的特性。举例来说,显示设备304正在显示战争场景,其包括参与战斗的多个虚拟角色。在该示例中,第一虚拟角色参与战斗并且显示在显示设备304上,以使得用户306将第一虚拟角色感知为是靠近用户306的(例如,第一虚拟角色被显示为较大虚拟角色,以使得用户306将第一虚拟角色感知为是靠近用户306的)。第二虚拟角色在该战争场景的背景下参与战斗并且显示在显示设备304上,以使得用户306将第二虚拟角色感知为远离用户306(例如,第二虚拟角色被显示为较小虚拟角色,以使得用户306将第二虚拟角色感知为是远离用户306的)。显示设备304可以基于用户306将第一虚拟角色感知为是靠近用户306的来确定与第一虚拟角色关联的第一触觉效果(例如,较强的振动)。显示设备304可以基于用户306将第二虚拟角色感知为是远离用户306的来确定与第二虚拟角色关联的第二触觉效果(例如,较弱的振动)。
[0104] 在一些实施例中,显示设备304可以基于传感器数据(例如,来自显示设备304的传感器的数据)确定用户306正在看显示设备304的一部分。显示设备304可以确定与显示设备304上用户306正在看的该部分关联的一个或多个触觉效果。举例来说,显示设备304被分成左侧部分、中间部分和右侧部分(未示出)。传感器数据指示用户306正在看显示设备304的右侧部分,该右侧部分包括涉及一系列的碰撞的场景。显示设备304可输出与显示设备304的右侧部分关联的触觉效果和显示在右侧部分上的一系列的碰撞(例如,一系列的振动),以允许用户306体验与显示在显示设备304的右侧部分上的碰撞关联的触觉效果。在图3中示出的实施例中,显示设备304包括可穿戴的设备(例如,虚拟现实耳机器)并且可以包括一个或多个触觉输出设备。显示设备304可以被配置为响应于确定用户306正在看显示设备
304的右侧部分来将触觉效果输出至显示设备304的右侧或用户306的身体的右侧(例如,用户306的头部的右侧)。
[0105] 在一些实例中,显示设备304可以包括一个或多个传感器或发射器,该一个或多个传感器或发射器各自可以以与图2的传感器203基本上相同的方式被配置。各种传感器或发射器可被定位在显示设备304内或其上的各个位置,并且传感器的位置可对应于显示设备304的各个部分。举例来说,第一传感器可被定位在显示设备304的左侧部分附近,第二传感器可被定位在显示设备304的中间部分附近,并且第三传感器可被定位在显示设备304的右侧部分附近。每个传感器可以检测用户306的头部运动、用户306的头部姿势、用户306的视场、或者用户306的眼睛注视的方向。在一些这样的实施例中,每个传感器可以将传感器信号传输至显示设备304的处理器(未示出)或计算设备302的处理器(未示出),这可以确定用户306的视场或眼睛注视的方向对应于传感器和显示设备304的与传感器关联的部分(例如,显示设备304的靠近传感器的部分)的定位或位置。显示设备304或计算设备302可以确定与显示设备304的与传感器关联的部分相关联的一个或多个触觉效果(例如,振动、挤压或戳刺),并且将触觉效果输出至用户306的身体部位。以这种方式,显示设备304可以基于空间数据(例如,传感器相对于显示设备304的部分的位置、以及用户306的眼睛注视或视场对应于传感器的位置的定向)来确定和输出触觉效果。
[0106] 举例来说,显示设备304被分成左侧部分、中间部分和右侧部分。定位在左侧部分附近的传感器检测用户306的眼睛注视的方向,并且传输指示用户306正在看或看向显示设备304的左侧部分的传感器数据,该左侧部分包括描绘一系列爆炸的场景。显示设备304可输出与显示设备304的左侧部分关联的触觉效果和显示在左侧部分上的一系列的爆炸(例如,一系列的振动),以允许用户306体验与显示在显示设备304的左侧部分上的爆炸关联的触觉效果。以这种方式,显示设备306可以使用传感器来检测用户306的眼睛注视或视场的方向,并且使用关于传感器的空间数据(例如,传感器的位置或传感器相对于显示设备304的部分的位置的坐标)来确定与显示设备上用户306正在看或看向的部分相关的一个或多个触觉效果。
[0107] 在一些实施例中,显示设备304可以确定用户同时正在看显示设备304的多于一个的部分,并且显示设备304可以基于此确定来确定与显示设备304的每个部分关联的触觉效果或每个触觉效果的特性。举例来说,用户306正在看显示设备304的左侧部分,该左侧部分包括涉及参与战斗的虚拟角色的场景。用户306同时正在看显示设备304的中间部分,该中间部分包括涉及转动其引擎的汽车的场景。传感器信号指示用户306的视场朝向左侧部分和中间部分。显示设备304可以基于传感器信号来确定和输出一个或多个触觉效果。例如,显示设备304可以输出与左侧部分关联的第一触觉效果(例如,对应于参与战斗的虚拟角色的振动)。显示设备304可以输出与中间部分关联的第二触觉效果(例如,对应于转动其引擎的汽车的一系列的振动)。在一些实施例中,单个触觉效果可以包括第一触觉效果和第二触觉效果。以这种方式,用户306可以体验与显示设备304上用户306正在看的左侧部分和中间部分两者关联的触觉效果。
[0108] 在图3中描绘的示例中,显示设备304可以如上所述基于传感器数据来确定和输出一个或多个触觉效果。在另一实施例中,显示设备304可以确定一个或多个触觉效果并且将与触觉效果关联的触觉信号传输至计算设备302,该计算设备302可以包括被配置为向用户306输出触觉效果的触觉输出设备。在又一实施例中,显示设备304的传感器可以将传感器信号传输至计算设备302,该计算设备302可以基于传感器信号确定一个或多个触觉效果,并且以与上文关于显示设备304所描述的基本上相同的方式将触觉效果输出至用户306。
[0109] 虽然在图3中描绘的示例中,显示设备304可以基于用户306的视场或用户306的眼睛注视的方向确定一个或多个触觉效果,但是本公开不限于此类配置。相反,在其他实例中,显示设备304可以基于一个或多个事件(例如,与由显示设备304提供的内容关联的交互、动作、碰撞或其他事件)确定一个或多个触觉效果。
[0110] 例如,显示设备304可生成和提供包括用户306可如上所述与之交互的一个或多个虚拟对象的虚拟环境。在一些示例中,虚拟对象中的一个或多个可被显示为在用户306的视场之外(例如,在用户306后方或在用户306前方,但在用户306的视场之外)。在该示例中,显示设备304可以基于显示在用户306的视场之外的内容(例如,虚拟对象)确定一个或多个触觉效果。举例来说,显示设备304正在显示涉及参与战斗的各种虚拟角色的场景,并且用户306正在看参与战斗的特定虚拟角色。显示设备304可以输出与参与战斗的特定虚拟角色关联的第一触觉效果,并且用户306可以感知该第一触觉效果。第一触觉效果可以是较强的振动以允许用户306感知与用户306正在看的特定虚拟角色关联的触觉效果。显示设备304还可确定和输出与在用户306的视场之外参与战斗的其他虚拟角色关联的第二触觉效果(例如,在场景的在用户306后方的部分中参与战斗的虚拟角色、或在场景的在用户306前方并且在用户306的视场之外的部分中参与战斗的虚拟角色)。第二触觉效果可以是较弱的振动以允许用户306感知与在用户306后方的参与战斗的虚拟角色、或在用户前方但在用户306的视场之外参与战斗的虚拟角色关联的触觉效果。以这种方式,用户306可以体验与用户正在看的特定虚拟角色以及在该用户的视场之外的其他虚拟角色关联的触觉效果。
[0111] 图4示出了根据另一实施例的用于使用视场的触觉反馈的系统的实施例。
[0112] 如上所述,在一些示例中,可以至少部分基于指示用户正在看显示设备(例如,图1和图2的显示设备136或图3的显示设备304)的部分的传感器数据来确定一个或多个触觉效果。在图4中描绘的示例中,显示设备400被示出为被划成第一部分402(例如,显示设备400的顶部部分)、第二部分404(例如,显示设备400的左侧部分)、第三部分406(例如,显示设备400的中间部分)和第四部分408(例如,显示设备400的右侧部分)。在该示例中,显示设备
400可以以与图1的显示设备136基本上相同的方式被配置,并且显示设备400的处理器可以基于传感器的数据(例如,来自显示设备400的传感器的数据)确定用户(未示出)正在看第一部分402、第二部分404、第三部分406或第四部分408。显示设备400可以确定与显示设备
304的用户正在看的部分关联的一个或多个触觉效果或触觉轨迹。
[0113] 举例来说,显示设备400可以是头戴式显示设备,其包括用于检测显示设备400的用户的头部运动或用于检测显示设备400的用户的头部姿势的传感器。传感器可以将关于用户的头部运动的数据或关于用户的头部姿势的数据传输至显示设备400的处理器,该处理器可以基于传感器数据确定用户的视场的方向,用户的视场的方向可以用来确定用户是正在看第一部分402、第二部分404、第三部分406还是第四部分408。然后,显示设备400可以确定与显示设备400的用户正在看的部分关联的一个或多个触觉效果或触觉轨迹,并且这些触觉效果或触觉轨迹可由显示设备400的触觉输出设备(例如,图1的触觉输出设备159)或与用户关联的计算设备(例如,图2的计算设备101a)的触觉输出设备来输出。
[0114] 例如,传感器数据指示用户正在看显示设备400的第一部分402,该第一部分402包括涉及一个或多个虚拟角色之间的战斗的场景。显示设备400可以经由触觉输出设备来确定和输出与显示设备400的第一部分402关联的触觉轨迹(例如,一系列的触觉效果,例如像振动),以允许显示设备400的用户体验与显示在显示设备400的第一部分402上的场景关联的触觉效果。作为另一个示例,传感器数据指示用户正在看显示设备400的第二部分404,该第二部分404包括涉及一系列的车辆碰撞的场景,并且显示设备400可确定和输出与一系列的车辆碰撞关联的另一触觉轨迹,以允许用户感知与一系列的车辆碰撞关联的触觉效果。
[0115] 在一些实施例中,显示设备400可以确定用户同时正在看显示设备400的多于一个的部分,并且显示设备400可以基于此确定来确定与显示设备400的每个部分关联的触觉轨迹或触觉效果或每个触觉轨迹或触觉效果的特性。举例来说,用户正在看显示设备400的第三部分406,该第三部分406包括涉及参与战斗的虚拟角色的场景。用户还同时正在看显示设备400的第四部分408,该第四部分408包括涉及转动其引擎的汽车的场景。显示设备400可以基于用户同时正在看显示设备400的第三部分406和第四部分408两者来确定和输出一个或多个触觉轨迹。
[0116] 例如,显示设备400可以确定与第三部分406关联的第一触觉轨迹(例如,对应于参与战斗的虚拟角色的一系列的振动)。显示设备400还可确定与第四部分408关联的第二触觉轨迹(例如,对应于转动其引擎的汽车的一系列的振动)。显示设备400可经由触觉输出设备向用户输出第一触觉轨迹和第二触觉轨迹两者。在一些实施例中,单个触觉轨迹可以包括第一触觉轨迹和第二触觉轨迹。在一些示例中,显示设备400可以基于用户的视场或眼睛注视的方向来调整第一触觉轨迹或第二触觉轨迹的特性。例如,用户的头部姿势可以不改变,但是该用户的视场或眼睛注视的方向可以偏移,使得用户更多地集中于第四部分408而非第三部分406。在此类示例中,显示设备400可以基于用户的视场或眼睛注视的方向调整第一触觉轨迹或第二触觉轨迹的特性。举例来说,显示设备400可响应于确定用户的视场或眼睛注视的方向是更多地朝向第四部分408而非第三部分406,来增大第二触觉轨迹的幅度。在该示例中,显示设备400还可以响应于确定用户的视场或眼睛注视的方向是更多地朝向第四部分而非第三部分406,来减小第一触觉轨迹的幅度。以这种方式,显示设备400的用户可以体验与显示设备400的用户正在看的第三部分406和第四部分408两者关联的触觉效果。
[0117] 在一些实施例中,显示设备400可以被配置为输出与部分402、404、406、408关联的单个触觉轨迹。触觉轨迹可以包括触觉效果(例如,振动)或对应于显示在显示设备400上(例如,经由部分402、404、406、408)的内容(例如,视频)的一系列的触觉效果。举例来说,显示设备400正在显示包括一系列的汽车碰撞和各种爆炸的视频。触觉轨迹可以包括对应于汽车碰撞或爆炸的一次或多次振动。
[0118] 在一些示例中,显示设备400的传感器可以检测用户的头部运动或检测用户的头部姿势,并且显示设备400可以至少部分基于用户的头部运动或用户的头部姿势来确定触觉轨迹的特性(例如,确定触觉轨迹中的一个或多个振动的幅度)。举例来说,该用户的头部姿势可以被定位成使得用户正在看或看向第二部分404。用户的头部姿势可以随后偏移,使得用户是正在看或看向第三部分406。在此类示例中,显示设备400可以基于用户的头部姿势的变化调整触觉轨迹的特性。例如,在该用户的头部姿势从朝向第二部分404改变为朝向第三部分406时,显示设备400可以减小与第二部分404关联的触觉轨迹中的触觉效果(例如,与显示在第二部分404上的爆炸关联的振动)的幅度,并且增大与第三部分406关联的触觉轨迹中的另一触觉效果(例如,与在第三部分406上参与战斗的虚拟角色关联的振动)的幅度。以这种方式,显示设备400可以输出单个触觉轨迹,并且基于用户的头部运动或用户的头部姿势来修改包括在触觉轨迹中的触觉效果,以使得用户可以将触觉轨迹感知为多个触觉轨迹。虽然在该示例中,显示设备400可以至少部分基于用户的头部运动或用户的头部姿势来确定触觉轨迹的特性(例如,幅度),但是本公开不限于此类配置。相反,在其他示例中,显示设备可以与如上所述基本上相同的方式来至少部分基于用户的视场或眼睛注视的方向确定触觉轨迹的特性。在一些示例中,如上所述修改包括在单个触觉轨迹中的触觉效果可以使用单个触觉轨迹模拟空间多触觉轨迹。
[0119] 在一些示例中,显示设备400可包括或通信地耦合至一个或多个音频设备或系统(未示出),该一个或多个音频设备或系统可以被配置为生成将驱动扬声器来输出对应声音的电子信号。音频设备或系统可以被配置为基于用户的头部运动或用户的头部姿势、用户的视场的方向或用户的眼睛注视的方向来输出音频或声音。举例来说,用户的头部姿势可以被定位成使得用户正在看或看向第二部分404,该第二部分404包括描绘转动其引擎的汽车的场景。显示设备400可响应于确定用户正在看或看向第二部分404,将一个或多个信号传输至音频设备,以使得音频设备输出对应于转动其引擎的汽车的声音。显示设备400还可基于用户是正在看或看向第二部分404来使得音频设备放大声音的强度或音量。在一些这样的示例中,显示设备400还可以响应于确定用户正在看或看向第二部分404,来确定与第二部分404上所描绘的场景关联的触觉效果或触觉轨迹的特性。例如,显示设备400可响应于确定用户正在看或看向第二部分404来增大对应于转动其引擎的汽车的振动的幅度。以这种方式,如上所述,显示设备400可以使用单个触觉轨迹来提供空间多触觉轨迹,并且触觉轨迹或触觉轨迹中的触觉效果可对应于由音频设备或系统(例如,空间音频系统)提供的声音。
[0120] 在一些实例中,显示设备400可以被配置为在显示设备400的一个或多个部分上显示内容。举例来说,显示设备400可仅在第一部分402上显示内容,并且可不在第二部分404、第三部分406或第四部分408上显示内容。例如,显示设备400可以是虚拟现实耳机,并且显示设备400可仅在第一部分402上显示场景。在此类示例中,显示设备400可以确定用户正在看显示在显示设备400的第一部分402上的场景,并且显示设备400可向用户输出与第一部分402关联的触觉轨迹或向用户输出与显示在第一部分402上的场景关联的触觉轨迹。用户随后可以查看显示设备400的另一部分、或看向该部分的方向。例如,用户的头部姿势可被调整为使得用户正在看第二部分404而不再看第一部分402。在此类示例中,显示设备400可以确定用户正在看第二部分404,并且可响应于确定用户正在看第二部分而不再看第一部分402,将与第二部分404关联的另一触觉轨迹或与显示在第二部分404上的内容关联的另一触觉轨迹输出给用户。在一些示例中,显示设备400还可以响应于确定用户正在看第二部分404而不再看第一部分402来停止在第一部分402上显示内容。因此,在一些示例中,显示设备400可经由显示设备400的特定部分向用户提供内容,这可以使得用户查看或看向特定部分,并且感知与显示设备400的该特定部分关联的触觉效果。在另一个示例中,显示设备400可经由显示设备400的用户正在看或看向的特定部分向用户提供内容,并且用户可以感知与显示设备400的用户正在看或看向的特定部分关联的触觉效果。
[0121] 虽然在上述实例中,显示设备400可以基于用户的头部姿势是朝向特定部分来在显示设备400的特定部分上显示内容,但是本公开不限于此类配置。相反,在其他示例中,显示设备可以基于显示设备400的用户的视场或眼睛注视的方向经由显示设备400的一个或多个部分来显示内容(例如,以与上文描述的基本上相同的方式)。此外,虽然在上述示例中,显示设备400可仅在显示设备400的一个部分上显示内容,但是本公开不限于此类配置。相反,在其他实例中,显示设备400可单独或同时经由显示设备400的一个或多个部分来显示内容。
[0122] 用于使用视场提供触觉反馈的触觉反馈的说明性方法
[0123] 图5是根据一个实施例的用于执行用于提供使用视场的触觉反馈的方法500的步骤的流程图。
[0124] 在一些实施例中,图5中的步骤可以在处理器(例如,通用计算机、移动设备或服务器中的处理器)可执行的程序代码中实现。在一些实施例中,这些步骤可由一组处理器实现。在一些实施例中,图5中示出的一个或多个步骤可以被省略或可以以不同顺序执行。类似地,在一些实施例中,还可执行图5中没有示出的附加步骤。下面参考上文关于图1和图2中示出的系统所描述的部件来描述这些步骤。
[0125] 方法500在步骤502处开始,此时显示设备136的传感器203检测到计算设备101的用户202a的相对于显示设备136的视场210。在一些实施例中,传感器203包括照相机、用于检测用户202a的头部运动或头部姿势的传感器,或者可检测用户202a的视场210或眼睛注视212a-b的方向或可以提供用于确定用户202a的视场210或眼睛注视212a-b的方向的数据的其他适当的设备。
[0126] 方法500在步骤504处继续,此时关于用户202a的视场210或眼睛注视212a-b的方向的信号被传输至显示设备136的处理器138或计算设备101的处理器102。在一些实施例中,传感器203将关于用户202a的视场210或眼睛注视212a-b的方向的信号传输至处理器138或102。
[0127] 方法500在步骤506处继续,此时处理器102或138确定显示在显示设备136上并且在用户202a的视场210内的内容与触觉效果关联。在一些实施例中,计算设备101的触觉效果确定模块126使得处理器102确定显示在显示设备136上并且在用户202a的视场210内的内容与触觉效果关联。在其他实施例中,显示设备136的触觉效果确定模块162使得处理器138确定显示在显示设备136上并且在用户202a的视场210内的内容与触觉效果关联。
[0128] 例如,处理器102或138可以基于用户202a的视场210或眼睛注视212a-b的方向,确定用户202a正在看经由显示设备136提供的内容(例如,文本、图像、声音、视频、角色、虚拟对象、虚拟动画等)、或看向这些内容的方向。举例来说,传感器203可以包括用于监测用户202a的眼睛或用户202a的眼睛附近的肌肉的移动的照相机,并且处理器102或138可以基于所监测的移动确定视场210或眼睛注视212a-b的方向。作为另一实例,传感器203监测或测量移动用户202a的眼睛的肌肉的电活动,并且处理器102或138可以基于肌肉的电活动确定视场210或眼睛注视212a-b的方向。处理器102或138可以基于用户202a的视场210或眼睛注视212a-b的方向,确定用户202a正在看显示设备136上的内容、或看向这些内容的方向。处理器102或138可以基于此确定来确定显示在显示设备136上并且在用户202a的视场210内的内容与触觉效果关联。
[0129] 举例来说,处理器138可以确定显示在显示设备136上的虚拟对象204、206在用户202a的视场210内。处理器138可以访问包括对应于与可由显示设备136显示的各种内容关联的各种触觉效果的数据的一个或多个查找表或数据库。处理器138可以访问一个或多个查找表或数据库,并且确定在用户202a的视场210内的虚拟对象204、206与一个或多个触觉效果关联。
[0130] 方法500在步骤508处继续,此时处理器102或138确定与内容关联的触觉效果。在一些实施例中,计算设备101的触觉效果确定模块126使得处理器102确定与内容关联的触觉效果。在其他实施例中,显示设备136的触觉效果确定模块162使得处理器138确定与内容关联的触觉效果。
[0131] 例如,处理器138可以确定显示在显示设备136上的内容(例如,虚拟对象204)在用户202a的视场210内并且与触觉效果关联(例如,在步骤506中)。处理器138可以基于此确定来确定或选择与内容关联的触觉效果(例如,与虚拟对象204关联的触觉效果)。举例来说,处理器138可以访问一个或多个查找表或数据库并且选择与内容关联的触觉效果。
[0132] 在一些实施例中,触觉效果可以包括可允许用户202a感知或体验与用户202a正在看的内容相关的触觉效果的一个或多个触觉效果。举例来说,用户202a可正在看虚拟对象204,其可以是参与战斗的虚拟角色。触觉效果可包括一次或多次振动以允许用户202a感知到战斗。
[0133] 在一些实施例中,在步骤508中,处理器102或138可以基于用户202a正在看显示在显示设备136上的各种内容、或看向这些内容的方向来确定一个或多个触觉效果。举例来说,处理器138可以确定用户202a的视场210的方向或眼睛注视212a的方向对应于由显示设备136显示的虚拟对象204的位置或定位。处理器138还可确定用户202a的视场210的方向或眼睛注视212b的方向对应于由显示设备136显示的另一虚拟对象206的位置或定位。处理器138可以基于此确定来访问一个或多个查找表或数据库,并且确定与虚拟对象204关联的第一触觉效果和与虚拟对象206关联的第二触觉效果。
[0134] 方法500在步骤510处继续,此时处理器102或138确定用户202a与显示设备136之间的距离。在一些实施例中,传感器203可以是蓝牙设备、或被配置为通过分析传感器203与另一蓝牙设备之间的信号强度来确定该蓝牙设备的位置的其他网络设备。在一些实施例中,传感器203可以检测传感器203或显示设备136与计算设备101或计算设备101的用户202a之间的距离(例如,基于传感器203与计算设备101之间的蓝牙信号的强度)。传感器203可以将传感器信号传输至处理器102或138,该处理器102或138可以基于传感器信号确定传感器203或显示设备136与计算设备101或计算设备101的用户202a之间的距离。在一些实施例中,传感器203可经由任意适当的的方法或技术来检测计算设备101的位置或传感器203或显示设备136与计算设备101或计算设备101的用户202a之间的距离。
[0135] 方法500在步骤512处继续,此时处理器102或138至少部分基于传感器203或显示设备136与计算设备101或计算设备101的用户202a之间的距离,来确定触觉效果的特性(例如,幅度、持续时间、位置、类型、频率等)。在一些实施例中,计算设备101的触觉效果确定模块126使得处理器102至少部分基于传感器203或显示设备136与计算设备101或计算设备101的用户202a之间的距离,来确定触觉效果的特性。在其他实施例中,显示设备136的触觉效果确定模块162使得处理器138至少部分基于传感器203或显示设备136与计算设备101或计算设备101的用户202a之间的距离,来确定触觉效果的特性。
[0136] 例如,处理器138可以确定用户202a在显示设备136或显示在显示设备136上的虚拟对象204附近。处理器138可以基于用户202a正在靠近显示设备136或虚拟对象204来确定与虚拟对象204关联的触觉效果的幅度。举例来说,如果用户202a在显示设备136附近,则与虚拟对象204关联的触觉效果就可以是较强或较长的触觉效果。作为另一个实例,处理器138可以确定用户远离显示设备136或显示在显示设备136上的虚拟对象204,并且基于此确定来确定与虚拟对象204关联的较弱或较短的触觉效果。
[0137] 方法500在步骤514处继续,此时处理器102或138将与触觉效果关联的触觉信号传输至触觉输出设备118。在一些实施例中,触觉效果生成模块128使得处理器102生成触觉信号并将其传输至触觉输出设备118。在另一实施例中,触觉效果生成模块164使得处理器138生成触觉信号并将其传输至触觉输出设备118。
[0138] 方法500在步骤516处继续,此时触觉输出设备118基于用户202a正在看、看向与触觉效果关联的并且显示在显示设备136上的内容(例如,虚拟对象204、206)、或看向这些内容的方向,来输出触觉效果。在一些实施例中,触觉效果可以允许用户202a感知或体验与用户正在看的内容(例如,虚拟对象204、206)相关的触觉效果。
[0139] 图6是根据一个实施例的用于执行用于提供使用视场的触觉反馈的另一方法600的步骤的流程图。在一些实施例中,图6中的步骤可以在处理器(例如,通用计算机、移动设备或服务器中的处理器)可执行的程序代码中实现。在一些实施例中,这些步骤可由一组处理器实现。在一些实施例中,图6中示出的一个或多个步骤可被省略或以不同顺序被执行。类似地,在一些实施例中,还可执行图6中未示出的附加步骤。下面参考上文关于图1和图2中示出的系统所描述的部件来描述这些步骤。
[0140] 方法600在步骤602处开始,此时显示设备136的传感器203检测到计算设备101的用户202a的相对于显示设备136的视场210。在一些实施例中,传感器203包括照相机、用于检测用户202a的头部运动或头部姿势的传感器,或者可检测用户202a的视场210或眼睛注视212a-b相对于显示设备136的方向或提供用于确定用户202a的视场210或眼睛注视212a-b相对于显示设备136的方向的数据的其他适当的设备。
[0141] 方法600在步骤604处继续,此时关于用户202a的视场210或眼睛注视212a-b的方向的信号被传输至显示设备136的处理器138或计算设备101的处理器102。在一些实施例中,关于用户202a的视场210或眼睛注视212a-b的方向的信号可以以与上文关于图5的步骤504所描述的基本上相同的方式来传输至处理器138或处理器102。
[0142] 方法600在步骤606处继续,此时处理器102或138确定与在用户202a的视场210内的第一内容关联的第一触觉效果。在一些实施例中,计算设备101的触觉效果确定模块126使得处理器102确定与在用户202a的视场210内的第一内容关联的第一触觉效果。在其他实施例中,显示设备136的触觉效果确定模块162使得处理器138确定与在用户202a的视场210内的第一内容关联的第一触觉效果。
[0143] 例如,处理器138可以从传感器203接收传感器信号(例如,在步骤604中),并且基于传感器信号确定用户202a的视场210或眼睛注视212a-b的方向。处理器138可以基于此确定来确定用户202a正在看虚拟对象204、或看向虚拟对象204的方向。处理器138可以访问包括对应于与可由显示设备136显示的各种内容关联的各种触觉效果的数据的一个或多个查找表或数据库。处理器138可以访问一个或多个查找表或数据库,并且确定与在用户202a的视场210内的虚拟对象204关联的第一触觉效果。
[0144] 方法600在步骤608处继续,此时处理器102或138确定与在用户202a的视场210内的第二内容关联的第二触觉效果。在一些实施例中,计算设备101的触觉效果确定模块126使得处理器102确定与在用户202a的视场210内的第二内容关联的第二触觉效果。在其他实施例中,显示设备136的触觉效果确定模块162使得处理器138确定与在用户202a的视场210内的第二内容关联的第二触觉效果。
[0145] 例如,处理器138可以从传感器203接收传感器信号(例如,在步骤604中),并且基于传感器信号确定用户202a的视场210或眼睛注视212a-b的方向。处理器138可以基于此确定来确定用户202a正在看虚拟对象206、或看向虚拟对象206的方向。处理器138可以访问包括对应于与可由显示设备136显示的各种内容关联的各种触觉效果的数据的一个或多个查找表或数据库。处理器138可以访问一个或多个查找表或数据库,并且确定与在用户202a的视场210内的虚拟对象206关联的第二触觉效果。
[0146] 方法600在步骤610处继续,此时处理器102或138确定用户202a的视场210的朝向第一内容或第二内容的比例。在一些实施例中,计算设备101的触觉效果确定模块126使得处理器102确定用户202a的视场210的朝向第一内容或第二内容的比例。在其他实施例中,显示设备136的触觉效果确定模块162使得处理器138确定用户202a的视场210的朝向第一内容或第二内容的比例。
[0147] 举例来说,处理器138可以从传感器203接收传感器信号(例如,在步骤604中),并且基于传感器信号确定用户的视场210的一半朝向虚拟对象204或用户的视场210的一半朝向虚拟对象206。
[0148] 方法600在步骤612处继续,此时处理器102或138至少部分基于用户202a的视场210的朝向第一内容或第二内容的比例,来确定第一触觉效果或第二触觉效果的特性。在一些实施例中,计算设备101的触觉效果确定模块126使得处理器102至少部分基于用户202a的视场210的朝向第一内容或第二内容的比例,来确定第一触觉效果或第二触觉效果的特性。在其他实施例中,显示设备136的触觉效果确定模块162使得处理器138至少部分基于用户202a的视场210的朝向第一内容或第二内容的比例,来确定第一触觉效果或第二触觉效果的特性。
[0149] 举例来说,处理器138可以确定用户的视场210的一半朝向虚拟对象204并且用户的视场210的一半朝向虚拟对象206(例如,在步骤610)。处理器138可以基于此确定来调整与虚拟对象204关联的第一触觉效果的第一幅度,并且将与虚拟对象206关联的第二触觉效果的第二幅度调整为该第二幅度的一半。因此,在一些实例中,由用户202a感知的触觉效果的特性可以与用户的眼睛注视、视线或用户的视场的朝向特定内容的比例成比例、或根据用户的眼睛注视、视线或用户的视场的朝向特定内容的比例来变化。
[0150] 方法600在步骤614处继续,此时处理器102或138将与第一触觉效果关联的第一触觉信号和与第二触觉效果关联的第二触觉信号传输至触觉输出设备118。在一些实施例中,触觉效果生成模块128使得处理器102生成第一触觉信号和第二触觉信号并将它们传输至触觉输出设备118。在另一个实施例中,触觉效果生成模块164使得处理器138生成第一触觉信号和第二触觉信号并将它们传输至触觉输出设备118。
[0151] 方法600在步骤616处继续,此时触觉输出设备118基于用户202a正在看、看向与第一触觉效果关联的第一内容(例如,虚拟对象204)、或看向该第一内容的方向来输出第一触觉效果,并且基于用户202a正在看、看向与第二触觉效果关联的第二内容(例如,虚拟对象206)、或看向该第二内容的方向来输出第二触觉效果。在一些实施例中,第一触觉效果或第二触觉效果包括振动、表面变形、挤压、戳刺和/或固体、液体、气体或等离子体喷出。
[0152] 图7是根据一个实施例的用于执行用于提供使用视场的触觉反馈的另一方法600的步骤的流程图。在一些实施例中,图7中的步骤可以在处理器(例如,通用计算机、移动设备或服务器中的处理器)可执行的程序代码中实现。在一些实施例中,这些步骤可由一组处理器实现。在一些实施例中,图7中示出的一个或多个步骤可被省略或以不同顺序被执行。类似地,在一些实施例中,还可执行图7中未示出的附加步骤。下面参考上文关于图1和图2中示出的系统所描述的部件来描述这些步骤。
[0153] 方法700在步骤702处开始,此时显示设备136的传感器203检测到计算设备101的用户202a的相对于显示设备136的视场210。在一些实施例中,传感器203包括照相机、用于检测用户202a的头部运动或头部姿势的传感器,或者可检测用户202a的视场210或眼睛注视212a-b相对于显示设备136的方向或提供用于确定用户202a的视场210或眼睛注视212a-b相对于显示设备136的方向的数据的其他适当的设备。
[0154] 方法700在步骤704处继续,此时关于用户202a的视场210或眼睛注视212a-b的方向的信号被传输至显示设备136的处理器138或计算设备101的处理器102。在一些实施例中,关于用户202a的视场210或眼睛注视212a-b的方向的信号可以以与上文关于图5的步骤504所描述的基本上相同的方式来传输至处理器138或处理器102。
[0155] 方法700在步骤706处继续,此时处理器102或138确定与显示设备136在用户202a的视场210内的第一部分关联的第一触觉效果。在一些实施例中,计算设备101的触觉效果确定模块126使得处理器102确定与显示设备136在用户202a的视场210内的第一部分关联的第一触觉效果。在其他实施例中,显示设备136的触觉效果确定模块162使得处理器138确定与显示设备136在用户202a的视场210内的第一部分关联的第一触觉效果。
[0156] 例如,处理器138可以从传感器203接收传感器信号(例如,在步骤704中),并且基于传感器信号确定用户202a的视场210或眼睛注视212a-b的方向。处理器138可以基于此确定来确定用户202a正在看显示设备136的左侧部分、或看向该左侧部分的方向。处理器138可以访问包括对应于与显示设备136的各个部分或显示设备136上的位置关联的各种触觉效果的数据的一个或多个查找表或数据库。处理器138可以访问一个或多个查找表或数据库,并且确定与显示设备136上用户202a正在看或看向的左侧部分关联的触觉效果。在一些实施例中,与显示设备136的第一部分关联的第一触觉效果可以允许用户202a感知与显示设备136的第一部分相关的一个或多个触觉效果。例如,显示设备136的左侧部分可以包括描绘一系列的碰撞的场景,并且与左侧部分关联的触觉效果可包括一次或多次振动以允许用户202a感知或体验这些一系列的碰撞。
[0157] 方法700在步骤708处继续,此时处理器102或138确定与显示设备136在用户202a的视场210内的第二部分关联的第二触觉效果。在一些实施例中,计算设备101的触觉效果确定模块126使得处理器102确定与显示设备136在用户202a的视场210内的第二部分关联的第二触觉效果。在其他实施例中,显示设备136的触觉效果确定模块162使得处理器138确定与显示设备136在用户202a的视场210内的第二部分关联的第二触觉效果。
[0158] 例如,处理器138可以从传感器203接收传感器信号(例如,在步骤704中),并且基于传感器信号确定用户202a的视场210或眼睛注视212a-b的方向。处理器138可以基于此确定来确定用户202a正在看显示设备136的顶部部分、或看向该顶部部分的方向。例如,用户202a可以同时正在看显示设备136的左侧部分(例如,在步骤706中)和顶部部分。处理器138可以访问包括对应于与显示设备136的各个部分或显示设备136上的位置关联的各种触觉效果的数据的一个或多个查找表或数据库。处理器138可以访问一个或多个查找表或数据库,并且确定与显示设备136的顶部部分关联的触觉效果。在一些实施例中,与显示设备136的第二部分关联的第二触觉效果可以允许用户202a感知与显示设备136的第二部分相关的一个或多个触觉效果。例如,显示设备136的顶部部分可以包括描绘转动其引擎的汽车的场景,并且与顶部部分关联的触觉效果可包括一次或多次振动以允许用户202a感知或体验该引擎的转动。
[0159] 方法700在步骤710处继续,此时处理器102或138确定用户202a的视场210的朝向显示设备136的第一部分或显示设备136的第二部分的比例。在一些实施例中,计算设备101的触觉效果确定模块126使得处理器102确定用户202a的视场210的朝向显示设备136的第一部分或第二部分的比例。在其他实施例中,显示设备136的触觉效果确定模块162使得处理器138确定用户202a的视场210的朝向显示设备136的第一部分或第二部分的比例。
[0160] 举例来说,处理器138可以从传感器203接收传感器信号(例如,在步骤704中),并且基于传感器信号确定用户的视场210的四分之一朝向显示设备136的左侧部分(例如,第一部分)并确定用户的视场210的四分之三朝向显示设备136的顶部部分(例如,第二部分)。
[0161] 方法700在步骤712处继续,此时处理器102或138至少部分基于用户202a的视场210的朝向显示设备136的第一部分或第二部分的比例,来确定第一触觉效果或第二触觉效果的特性。在一些实施例中,计算设备101的触觉效果确定模块126使得处理器102至少部分基于用户202a的视场210的朝向显示设备136的第一部分或第二部分的比例,来确定第一触觉效果或第二触觉效果的特性。在其他实施例中,显示设备136的触觉效果确定模块162使得处理器138至少部分基于用户202a的视场210的朝向显示设备136的第一部分或第二部分的比例,来确定第一触觉效果或第二触觉效果的特性。
[0162] 举例来说,处理器138可以确定用户的视场210的四分之一朝向显示设备136的左侧部分并且用户的视场210的四分之三朝向显示设备136的顶部部分(例如,在步骤710中)。处理器138可以基于此确定来将与显示设备136的左侧部分关联的第一触觉效果的第一幅度调整为该第一幅度的四分之一,并且将与显示设备136的顶部部分关联的第二触觉效果的第二幅度调整为该第二幅度的四分之三。因此,在一些实例中,由用户202a感知的触觉效果的特性可以与用户的眼睛注视212a-b、视线或用户的视场210的朝向显示设备136与触觉效果关联的特定部分的比例成比例、或根据用户的眼睛注视212a-b、视线或用户的视场210的朝向显示设备136与触觉效果关联的特定部分的比例来变化。
[0163] 方法700在步骤714处继续,此时处理器102或138将与第一触觉效果关联的第一触觉信号和与第二触觉效果关联的第二触觉信号传输至触觉输出设备118。在一些实施例中,触觉效果生成模块128使得处理器102生成第一触觉信号和第二触觉信号并将它们传输至触觉输出设备118。在另一个实施例中,触觉效果生成模块164使得处理器138生成第一触觉信号和第二触觉信号并将它们传输至触觉输出设备118。
[0164] 方法700在步骤716处继续,此时触觉输出设备118基于用户202a正在看、看向显示设备136与第一触觉效果关联的第一部分(例如,显示设备136的左侧部分)、或看向该第一部分的方向,来输出第一触觉效果,并且基于用户202a正在看、看向显示设备136与第二触觉效果关联的第二部分(例如,显示设备136的顶部部分)、或看向该第二部分的方向,来输出第二触觉效果。在一些实施例中,第一触觉效果或第二触觉效果包括振动、表面变形、挤压、戳刺和/或固体、液体、气体或等离子体喷出。
[0165] 以这种方式,在用户设备观看显示设备上的内容时,本文描述的用于基于视场的触觉反馈的系统可以通过提供与用户正在看的特定内容相关的、或与用户正在看的显示设备的特定部分相关的一个或多个触觉效果,来向用户提供更身临其境的体验。因此,例如,用户可以感知与用户正在看的内容相关的触觉效果,以使得用户不会因为与用户没有看或看向的内容关联的触觉效果而不知所措。
[0166] 总体考虑
[0167] 上面讨论的方法、系统和设备是示例。各种配置可以适当地省略、替代、或添加各种程序或组件。例如,在替代配置中,可以以与所描述的顺序不同的顺序来执行方法,和/或可以添加、省略、和/或组合各个阶段。此外,相对于一些配置所描述的特征在各种其他配置中可被组合。可以以类似的方式来组合配置的不同方面和要素。此外,技术在发展,因此许多要素是示例并且不限制本公开或权利要求的范围。
[0168] 在描述中给出具体细节以提供对示例配置(包括实现方式)的透彻理解。然而,可以在没有这些具体细节的情况下实施配置。例如,公知的电路、过程、算法、结构和技术已经在没有不必要的细节的情况下被示出,以便避免模糊配置。该描述仅提供示例配置,并且不限制权利要求的范围、适用性或配置。相反,配置的前述描述将为本领域技术人员提供用于实现所描述的技术的使能描述。在不脱离本公开的精神或范围的情况下,可以对元件的功能和布置进行各种改变。
[0169] 此外,配置可以被描述为被描绘为流程图或框图的过程。尽管各自可以将操作描述为顺序过程,但许多操作可以并行或同时执行。此外,可以重新排列操作的顺序。过程可以具有未包括在附图中的另外的步骤。此外,方法的示例可以通过硬件、软件固件中间件微码、硬件描述语言、或其任意组合来实现。当在软件、固件、中间件或微码实现时,执行必要任务的程序代码或代码段可被存储在诸如存储介质之类的非暂态计算机可读介质中。处理器可以执行所描述的任务。
[0170] 已经描述了若干示例配置,在不脱离本公开的精神的情况下,可以使用各种修改、替代构造和等同物。例如,以上要素可以是更大系统的组件,其中,其他规则可以优先于或以其他方式修改本发明的应用。此外,可以在考虑以上要素之前、期间或之后进行多个步骤。因此,以上描述不限制权利要求的范围。
[0171] 本文对“适用于”或“配置为”的使用表示开放性和包容性的语言,不排除设备适用于或配置为执行另外的任务或步骤。此外,对“基于”的使用旨在是开放性和包容性的,“基于”一个或多个所叙述的条件或值的过程、步骤、计算、或其他动作在实践中可以基于除了所叙述之外的另外的条件或值。本文包括的小标题、列表、以及编号仅是为了便于解释,并且不意味着限制。
[0172] 根据本主题的各方面的实施例可以在数字电子电路中、在计算机硬件、固件、软件、或前述的组合中实现。在一个实施例中,计算机可以包括一个或多个处理器。处理器包括或可以访问计算机可读介质,例如,耦合到处理器的随机存取存储器(RAM)。处理器执行存储在存储器中的计算机可执行程序指令,例如,执行包括传感器采样例程、选择例程和其他例程的一个或多个计算机程序以执行上述方法。
[0173] 这类处理器可以包括微处理器数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程阵列(FPGA)和状态机。这类处理器还可以包括可编程电子设备,例如,PLC、可编程中断控制器(PIC)、可编程逻辑设备(PLD)、可编程只读存储器(PROM)、电子可编程只读存储器(EPROM或EEPROM)、或其他类似设备。
[0174] 这类处理器可以包括介质或可以与介质进行通信,例如,有形计算机可读介质,其可以存储指令,当由处理器执行时,这些指令可以使得处理器执行本文描述的如由处理器执行或辅助的步骤。计算机可读介质的实施例可以包括但不限于能够提供具有计算机可读指令的处理器(例如,网络服务器中的处理器)的电子、光、磁、或其他存储设备。介质的其他示例包括但不限于:软盘、CD-ROM、磁盘、存储器芯片、ROM、RAM、ASIC、配置的处理器、所有光学介质、所有磁带或其他磁介质、或计算机处理器可以从其进行读取的任意其他介质。此外,各种其他设备可以包括计算机可读介质,例如,路由器、专用或公共网络、或其他传输设备。所描述的处理器和处理可以在一个或多个结构中,并且可以通过一个或多个结构来分散。处理器可以包括用于执行本文描述的方法(或方法的部分)中的一个或多个的代码。
[0175] 尽管本主题已经相对于其中的具体实施例进行了详细描述,但将理解的是,本领域技术人员在获得对上述内容的理解之后可以容易地产生对这些实施例的更改、变化和等同物。因此,应理解的是,本公开为了示例而非限制的目的被呈现,并且不排除包括如对于本领域普通技术人员将显而易见的对本主题的这类修改、变化和/或添加。
相关专利内容
标题 发布/更新时间 阅读量
触觉反馈组件和触觉反馈方法 2020-05-12 434
一种触觉反馈触摸屏 2020-05-13 192
触觉反馈显示屏 2020-05-12 807
触觉反馈系统及方法 2020-05-12 566
电刺激触觉反馈接口 2020-05-12 263
提供触觉反馈的连接器 2020-05-13 920
触觉反馈控制系统 2020-05-13 203
局部触觉反馈 2020-05-11 592
触觉反馈复现方法 2020-05-13 177
触觉反馈控制器 2020-05-12 866
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈