首页 / 专利库 / 显示技术 / 双目视觉 / 一种基于虚拟现实与手势识别的远程呈现交互方法和系统

一种基于虚拟现实手势识别的远程呈现交互方法和系统

阅读:254发布:2020-05-14

专利汇可以提供一种基于虚拟现实手势识别的远程呈现交互方法和系统专利检索,专利查询,专利分析的服务。并且本 发明 一种基于 虚拟现实 与 手势识别 的远程呈现交互方法和系统,属于 人机交互 技术领域。系统包括本地空间中的装备双目摄像头的远程呈现 机器人 和远程可交互装置,远程空间中的由VR眼镜、智能手机和双目摄像头组成的交互式VR眼镜,连接本地空间和远程空间的无线网络以及计算 服务器 。远程呈现机器人获取本地空间的两路实时视频图像,通过无线网络传送到远程空间中用户的智能手机上并分屏显示;用户通过VR眼镜和智能手机可以以虚拟现实的方式 感知 本地空间;远程空间中交互式VR眼镜上的双目摄像头获取用户的手势数据,根据用户手的 位置 以及具体手势与本地空间中的远程可交互装置进行交互。可以使用户获得真正的身临其境的感受和交互体验。,下面是一种基于虚拟现实手势识别的远程呈现交互方法和系统专利的具体信息内容。

1.一种基于虚拟现实技术和手势识别技术的远程呈现交互方法,其特征在于:包括如下步骤:
步骤一、现场实时视频图像的获取,具体为:通过远程呈现机器人在本地空间中移动来获取本地空间的现场实时视频图像,即:机器人头部装备的双目摄像头来获取两路本地空间的现场实时视频图像;
其中,两路本地空间的现场实时视频图像分别由双目摄像头的左方摄像头和右方摄像头拍摄得到;
步骤二、用户以虚拟现实的方式感知本地空间,具体为:无线网络将步骤一中远程呈现机器人获取的两路现场实时视频图像传送到远程空间的智能手机上,并进行分屏显示,即智能手机的屏幕左方显示远程呈现机器人上的双目摄像头中左方摄像头拍摄的图像,智能手机的屏幕右方显示远程呈现机器人上的双目摄像头中右方摄像头拍摄的图像;远程空间中的用户通过VR眼镜和智能手机就能够以虚拟现实的方式感知本地空间,获得真正的身临其境的感受;
步骤三、根据用户需求决定通过手势与远程呈现机器人还是远程可交互装置进行交互,具体为:
3.A、若用户需求是与远程呈现机器人交互,具体为:
步骤3.A1通过交互式VR眼镜上的双目摄像头获取用户手势的两路实时视频数据;
步骤3.A2通过无线网络将获取的两路用户手势的实时视频数据发送给计算服务器
步骤3.A3在计算服务器上利用立体视觉的方法恢复用户手势的三维信息,并进行手势识别;
步骤3.A4根据手势识别的结果来控制远程呈现机器人前进、后退、左转以及右转;
3.B、若用户需求是与远程可交互装置交互,具体为:
步骤3.B1通过交互式VR眼镜上的双目摄像头获取用户手势的两路实时视频数据;
步骤3.B2通过无线网络将获取的两路实时视频数据发送给计算服务器;
步骤3.B3在计算服务器上利用立体视觉的方法恢复用户手势的三维信息,并进行手势识别;同时远程呈现机器人获取的两路本地空间的视频数据也发送到计算服务器上,同样利用立体视觉的方法恢复本地空间的三维信息;
步骤3.B4在本地空间的三维信息中融入虚拟手的三维信息,并在对应的本地空间的二维图像中绘制出虚拟手;
具体为:通过恢复用户手势的三维信息,可以得到用户的手相对于用户的空间位置,根据用户的手相对于用户的空间位置可以得到虚拟手相对于远程呈现机器人的位置,从而可以在本地空间的三维信息中融入虚拟手的三维信息,并在对应的本地空间的二维图像中绘制出虚拟手;
步骤3.B5用户通过移动自己的双手来控制虚拟手的移动,根据本地空间的三维信息以及虚拟手的位置,判断虚拟手是否碰到了本地空间的远程可交互装置,并在虚拟手碰到本地空间的远程可交互装置时,使用步骤3.B3手势识别的结果来操作远程可交互装置。
2.如权利要求1所述的一种基于虚拟现实技术和手势识别技术的远程呈现交互方法依托的远程呈现交互系统,其特征在于:包括本地空间、远程空间、连接本地空间与远程空间的无线网络以及计算服务器;
其中,计算服务器可位于本地空间,也可以位于远程空间,还可以是任意联网的地点;
本地空间中又包含远程呈现机器人和远程可交互装置;远程空间中又包含交互式VR眼镜,交互式VR眼镜又包括VR眼镜、智能手机以及双目摄像头;用户位于远程空间;远程可交互装置具有三个属性:标识、驱动器、无线通讯网络;
其中,标识是指独一无二的特征,可用计算机视觉的方法识别;驱动器是指电机、继电器将电能到机械能或其它能量形式的转化;无线通讯网络包括Wifi;
其中,通过计算机视觉的方法识别远程可交互装置通常是通过提取图像特征进行识别,提取的图像特征包括颜色、纹理、表观和形状;如果上述图像特征相同,即识别外观相同的两个远程可交互装置时,需要识别装置所处的位置以区分这两个装置,或用定位技术获取装置的位置参数;
本系统的各组成部分的连接关系如下:
本地空间和远程空间通过无线网络连接;计算服务器与本地空间和远程空间通过无线网络连接;
本系统的各组成部分的功能如下:
计算服务器的功能是恢复用户手势及本地空间的三维信息以及进行手势识别;
本地空间中的远程可交互装置的功能是实现远程交互;其中,标识的功能是用于区分和识别装置;驱动器的功能是实现自动控制;无线通信网络的功能是实现远程可交互装置与互联网连接;
本地空间中的远程呈现机器人的功能是在本地空间移动,获取本地空间的实时视频图像;
远程空间中的交互式VR眼镜的功能是在远程空间提供给用户以虚拟现实的方式感知本地空间,并通过手势与本地空间中的远程可交互装置进行交互。

说明书全文

一种基于虚拟现实手势识别的远程呈现交互方法和系统

技术领域

[0001] 本发明涉及一种基于虚拟现实技术和手势识别技术的远程呈现交互方式的设计,尤其涉及一种基于虚拟现实与手势识别的远程呈现交互方法和系统,属于人机交互技术领域。

背景技术

[0002] 目前,出现了很多远程交互方式和系统,例如视频会议、远程操作机器人以及远程呈现机器人等。这些系统多采用传统的远程交互方式,即用户在远程空间中的用户界面上通过键盘鼠标、操作杆以及图形界面来与本地空间进行交互。这些系统通常是为特定的任务设计并且需要经过训练的操作员进行操作。
[0003] 随着触屏技术的发展,一些远程交互系统也采用平板电脑、智能手机以及其他移动装置作为交互设备,在现场视频图像上叠加图形用户界面,通过点击图形用户界面上的虚拟按钮来进行交互操作。此外还出现了基于可触摸现场实时视频图像的用户界面,通过远程呈现机器人获取本地空间现场实时视频图像,用户在远程空间通过可触摸现场实时视频图像的用户界面,直接触摸本地空间的现场实时视频图像,实现与本地空间中物体和环境的交互。
[0004] 虚拟现实技术的发展,使得更加真实和具有现场感的交互方式成为可能。在一些虚拟现实系统中,用户可以通过自然的手势与虚拟现实场景进行交互,但是还不能与真实的场景进行交互。
[0005] 为实现更加具有沉浸感的远程呈现,我们致于提出一种基于虚拟现实技术和手势识别技术的远程呈现交互方法和系统。

发明内容

[0006] 本发明的目的在于克服目前远程交互技术中存在的缺乏沉浸感,交互方式不直观的问题,提出了一种基于虚拟现实技术和手势识别技术的远程呈现交互方法和系统。
[0007] 本发明的核心思想在于:远程呈现机器人通过双目摄像头获取本地空间的两路实时视频图像,通过无线网络传输到远程空间中的用户的智能手机上并分屏显示;远程空间中的用户通过VR眼镜和智能手机可以以虚拟现实的方式感知本地空间,获得真正的身临其境的感受;用户需要与远程机器人交互时,需要将用户手势的实时视频数据传送给计算服务器,再进行手势识别来控制远程呈现机器人;当用户需要与远程可交互装置交互时,需要先识别该装置,建立视野中远程可交互装置的图像与实际远程可交互装置的对应关系,远程空间中交互式VR眼镜上的双目摄像头获取用户的手势数据并识别用户的手势,根据获取的手势数据,在手机屏幕上分屏显示的两路视频图像中,绘制出用户的虚拟手,用户可以通过移动自己的双手来控制虚拟手的移动,通过改变自己的手势来改变虚拟手的手势,从而可以使用虚拟手与本地空间中的远程可交互装置进行远程呈现交互。
[0008] 一种基于虚拟现实技术和手势识别技术的远程呈现交互方法和系统包括一种基于虚拟现实技术和手势识别技术的远程呈现交互方法和一种基于虚拟现实技术和手势识别技术的远程呈现交互系统;一种基于虚拟现实技术和手势识别技术的远程呈现交互方法,简称本方法,一种基于虚拟现实技术和手势识别技术的远程呈现交互系统,简称本系统;
[0009] 其中,本系统包括本地空间、远程空间、连接本地空间与远程空间的无线网络以及计算服务器;其中,计算服务器可位于本地空间,也可以位于远程空间,还可以是任意联网的地点;本地空间中又包含远程呈现机器人和远程可交互装置;远程空间中又包含交互式VR眼镜,交互式VR眼镜又包括VR眼镜、智能手机以及双目摄像头;用户位于远程空间;
[0010] 远程可交互装置具有三个属性:标识(id)、驱动器(actuator)、无线通讯网络;其中,标识是指独一无二的特征,可用计算机视觉的方法识别;
[0011] 驱动器是指电机、继电器将电能到机械能或其它能量形式的转化;无线通讯网络包括Wifi;
[0012] 其中,通过计算机视觉的方法识别远程可交互装置通常是通过提取图像特征进行识别,提取的图像特征包括颜色、纹理、表观和形状;如果上述图像特征相同,即识别外观相同的两个远程可交互装置时,需要识别装置所处的位置以区分这两个装置,或用定位技术获取装置的位置参数;比如,室内有两个窗帘,可以通过定位技术区分不同位置的窗帘,实现不同窗帘的控制;
[0013] 远程可交互装置是完全独立的,可由用户远程直接控制,该装置的识别主要通过计算机视觉方法实现;
[0014] 远程呈现机器人也是一种远程可交互装置,由移动底座和机器人头部组成,其中机器人头部装备有双目摄像头;
[0015] 本系统的各组成部分的连接关系如下:
[0016] 本地空间和远程空间通过无线网络连接;计算服务器与本地空间和远程空间通过无线网络连接;
[0017] 本系统的各组成部分的功能如下:
[0018] 计算服务器的功能是恢复用户手势及本地空间的三维信息以及进行手势识别;
[0019] 本地空间中的远程可交互装置的功能是实现远程交互;其中,标识的功能是用于区分和识别装置;驱动器的功能是实现自动控制;无线通信网络的功能是实现远程可交互装置与互联网连接;
[0020] 本地空间中的远程呈现机器人的功能是在本地空间移动,获取本地空间的实时视频图像;
[0021] 远程空间中的交互式VR眼镜的功能是在远程空间提供给用户以虚拟现实的方式感知本地空间,并通过手势与本地空间中的远程可交互装置进行交互;
[0022] 一种基于虚拟现实技术和手势识别技术的远程呈现交互方法,包括如下步骤:
[0023] 步骤一、现场实时视频图像的获取;
[0024] 具体为:通过远程呈现机器人在本地空间中移动来获取本地空间的现场实时视频图像,即:机器人头部装备的双目摄像头来获取两路本地空间的现场实时视频图像;
[0025] 其中,两路本地空间的现场实时视频图像分别由双目摄像头的左方摄像头和右方摄像头拍摄得到;
[0026] 步骤二、用户以虚拟现实的方式感知本地空间;
[0027] 具体为:无线网络将步骤一中远程呈现机器人获取的两路现场实时视频图像传送到远程空间的智能手机上,并进行分屏显示,即智能手机的屏幕左方显示远程呈现机器人上的双目摄像头中左方摄像头拍摄的图像,智能手机的屏幕右方显示远程呈现机器人上的双目摄像头中右方摄像头拍摄的图像;远程空间中的用户通过VR眼镜和智能手机就可以以虚拟现实的方式感知本地空间,获得真正的身临其境的感受;
[0028] 步骤三、根据用户需求决定通过手势与远程呈现机器人还是远程可交互装置进行交互,具体为;
[0029] 3.A、若用户需求是与远程呈现机器人交互,则具体步骤为:
[0030] 步骤3.A1通过交互式VR眼镜上的双目摄像头获取用户手势的两路实时视频数据;
[0031] 步骤3.A2通过无线网络将获取的两路用户手势的实时视频数据发送给计算服务器;
[0032] 步骤3.A3在计算服务器上利用立体视觉的方法恢复用户手势的三维信息,并进行手势识别;
[0033] 步骤3.A4根据手势识别的结果来控制远程呈现机器人前进、后退、左转以及右转;
[0034] 3.B、若用户需求是与远程可交互装置交互,则具体步骤为:
[0035] 步骤3.B1通过交互式VR眼镜上的双目摄像头获取用户手势的两路实时视频数据;
[0036] 步骤3.B2通过无线网络将获取的两路实时视频数据发送给计算服务器;
[0037] 步骤3.B3在计算服务器上利用立体视觉的方法恢复用户手势的三维信息,并进行手势识别;同时远程呈现机器人获取的两路本地空间的视频数据也发送到计算服务器上,同样利用立体视觉的方法恢复本地空间的三维信息;
[0038] 步骤3.B4在本地空间的三维信息中融入虚拟手的三维信息,并在对应的本地空间的二维图像中绘制出虚拟手;
[0039] 具体为:通过恢复用户手势的三维信息,可以得到用户的手相对于用户的空间位置,根据用户的手相对于用户的空间位置可以得到虚拟手相对于远程呈现机器人的位置,从而可以在本地空间的三维信息中融入虚拟手的三维信息,并在对应的本地空间的二维图像中绘制出虚拟手;
[0040] 步骤3.B5用户通过移动自己的双手来控制虚拟手的移动,根据本地空间的三维信息以及虚拟手的位置,判断虚拟手是否碰到了本地空间的远程可交互装置,并在虚拟手碰到本地空间的远程可交互装置时,使用步骤3.B3手势识别的结果来操作远程可交互装置;
[0041] 至此,通过步骤一到步骤三,完成了一种基于虚拟现实技术和手势识别技术的远程呈现交互方法。
[0042] 有益效果
[0043] 本发明一种基于虚拟现实技术和手势识别技术的远程呈现交互方法,与现有技术相比,具有如下有益效果:
[0044] (1)本发明通过在远程呈现机器人上装备双目摄像头来获取本地空间的两路现场实时视频图像,通过无线网路传送到远程空间中的用户的手机上并分屏显示,用户可以通过VR眼镜以虚拟现实的方式来感知本地空间,真正给用户身临其境的感受;
[0045] (2)用户在远程空间通过交互式VR眼镜,可以通过移动自己的手来移动本地空间二维图像中绘出的虚拟手,来操作本地空间中的远程可交互装置,与现有技术相比,本发明所述方法就像在现场操作一样,更有现场感。附图说明
[0046] 图1是本发明一种基于虚拟现实与手势识别的远程呈现交互方法和系统中远程呈现交互系统组成;
[0047] 图2是本发明一种基于虚拟现实与手势识别的远程呈现交互方法和系统中的远程呈现机器人架构;
[0048] 图3是本发明一种基于虚拟现实与手势识别的远程呈现交互方法和系统交互式VR眼镜结构;
[0049] 其中,图1远程呈现交互系统组成,101是远程呈现机器人所处的本地空间,102是用户所处的远程空间,103和104是无线网络,105是互联网,106是本地空间中的可交互装置,107是远程呈现机器人,108是由VR眼镜,智能手机以及双目摄像头组成的交互式VR眼镜,109是用户,110是计算服务器,计算服务器可放置在本地空间或远程空间,或任何联网的地点;
[0050] 图2远程呈现机器人架构,201为双目摄像头,202为移动底座;
[0051] 图3交互式VR眼镜结构,301为智能手机,302为双目摄像头,303为VR眼镜。

具体实施方式

[0052] 下面结合附图和实施例对本发明做进一步说明和详细描述。
[0053] 实施例
[0054] 本实施例详细阐述了本发明一种基于虚拟现实与手势识别的远程呈现交互方法和系统在远程陪护情况下具体实施时的情况。
[0055] 图1是一种基于虚拟现实与手势识别的远程呈现交互方法和系统的系统组成示意图,其中101是远程呈现机器人所处的本地空间,102是用户所处的远程空间,103和104是无线网络,105是互联网,无线网络与互联网用于连接本地空间合远程空间,106是本地空间中的可交互装置,107是远程呈现机器人,用于在本地空间中移动,获取本地空间的实时视频图像,108是由VR眼镜,智能手机以及双目摄像头组成的交互式VR眼镜,109是用户,110是计算服务器,计算服务器可放置在本地空间或远程空间,或任何联网的地点。
[0056] 远程呈现机器人由双目摄像头和移动底座组成,如图2所示,其中双目摄像头201用于获取本地空间的两路实时视频图像,移动底座202用于机器人的移动。交互式VR眼镜由VR眼镜、智能手机以及双目摄像头组成,如图3所示,其中智能手机301用于接收双目摄像头201发送的两路视频图像并分屏显示,VR眼镜303与智能手机301一起为用户提供以虚拟现实的方式来感知本地空间,双目摄像头302用于捕获用户的手部数据用于与本地空间中的远程可交互装置进行交互。
[0057] 用户通过双手做出指定的控制手势,控制远程呈现机器人移动至带有密码的房门口;系统自动识别密码锁,并建立密码锁的图像与实际密码锁的对应关系;用户通过VR眼镜看到本地空间中的门禁系统密码键面板,就直接伸手(控制虚拟手)去按密码键,通过计算用户的手指的位置,并映射到重建的本地三维空间中,来判断用户按了哪个键。根据密码健图像和远程可交互装置建立的对应关系,可以通过无线网络向该装置的驱动器发送对应的控制指令,使该装置完成相应动作,实现基于手势的远程呈现交互。具体为:当用户输入正确的密码后,可以打开房门;用户通过指定的控制手势,控制远程呈现机器人进入房间,移动至灯的开关前;用户通过VR眼镜看到本地空间中的灯的开关,就直接伸手(控制虚拟手)去按开关,通过计算用户的手指的位置,并映射到重建的本地三维空间中,来判断用户的手指是否靠近开关,当用户的手指距离灯的开关较近时,根据灯的开关图像和远程可交互装置建立的对应关系,可以通过无线网络向该灯的驱动器发送开灯指令,从而可以打开房间中的灯。
[0058] 以上所述为本发明的较佳实施例而已,本发明不应该局限于该实施例和附图所公开的内容。凡是不脱离本发明所公开的精神下完成的等效或修改,都落入本发明保护的范围。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈