首页 / 专利库 / 物理 / 单电子隧穿 / 一种眼动交互增强现实的相对导航方法

一种眼动交互增强现实的相对导航方法

阅读:482发布:2021-01-29

专利汇可以提供一种眼动交互增强现实的相对导航方法专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种眼动交互 增强现实 的相对导航方法,该方法包括以下步骤:步骤1、提取导航路径下的显著地标及其POI坐标信息;步骤2、根据设定的地标分类及标注模型,标注显著地标并生成虚拟标签;步骤3、利用相对方位计算模型计算显著地标的即时相对方位 属性信息 ,并赋予虚拟标签即时相对方位属性信息;步骤4、实现显著地标虚拟标签在现实场景中相对于用户的相对方位映射;步骤5、通过可穿戴式眼动仪与 导航系统 进行导航过程的视觉交互。本发明能降低导航过程安全 风 险,基于增强现实的相对导航方法充分考虑用户对二维绝对空间的推理和认知能 力 的局限性,能够有效辅助用户在第一视 角 真实场景环境中进行导航任务。,下面是一种眼动交互增强现实的相对导航方法专利的具体信息内容。

1.一种眼动交互增强现实的相对导航方法,其特征在于,该方法基于增强现实技术以显著地标相对关系为引导信号进行动态视觉导航,通过可穿戴式眼动仪与导航系统进行视觉交互;该方法包括以下步骤:
步骤1、提取导航路径下的显著地标及其POI坐标信息,显著地标通过计算各个地标的显著度来判定;
步骤2、根据设定的地标分类及标注模型,标注显著地标并生成虚拟标签,虚拟标签包括显著地标对应的分类图标标签和文字标签;
步骤3、调用用户即时姿态朝向信息、即时位置信息和显著地标的POI坐标信息,利用相对方位计算模型计算显著地标的即时相对方位属性信息,并赋予虚拟标签即时相对方位属性信息;
步骤4、通过增强现实技术将显著地标的虚拟标签实时投影至以真实场景为背景的环境中,实现显著地标虚拟标签在现实场景中相对于用户的相对方位映射;通过增强现实技术将导航路径略缩图、即时位置信息和即时方位信息投影至视觉导航系统的显示环境,其中显著地标的虚拟标签位置与引导要素信息图例为动态显示,随用户的姿态变化而动态更新;
步骤5、通过可穿戴式眼动仪与导航系统进行导航过程的视觉交互,可穿戴式眼动仪能实现眼动轨迹跟踪数据采集,并与导航系统进行数据互联传输指令,实现眼动交互;导航过程的视觉交互包括通过追踪眼球动作指令进行导航过程的路径方案选择确定与返回,全局、局部路段的选择确定与返回,路径的局部放大与缩小,视切换的操作。
2.根据权利要求1所述的眼动交互增强现实的相对导航方法,其特征在于,该方法中的导航系统为支撑视觉导航系统的平台,包括以下三种方案:(1)智能AR眼镜;(2)具备眼动追踪功能的智能AR眼镜;(2)便携式全息投影设备+便携式移动终端。
3.根据权利要求1所述的眼动交互增强现实的相对导航方法,其特征在于,步骤1中显著地标的显著度由该地标的视觉显著度、语义显著度和结构显著度融合计算获得;显著地标POI坐标信息包括经纬度坐标信息。
4.根据权利要求3所述的眼动交互增强现实的相对导航方法,其特征在于,步骤1的具体方法为:
步骤1.1、提取导航路径下的视觉显著地标、语义显著地标和结构显著地标,并提取其对应的POI坐标信息;
步骤1.2、1.2由地标显著度计算模型计算地标的综合显著度,综合显著度由地标的视觉显著度、语义显著度和结构显著度以不同的权值综合计算获得;其计算公式为:
其中,S表示地标综合显著度,sv表示地标的视觉显著度,wv表示视觉显著度的权值;ss表示地标的语义显著度,ws表示视觉显著度的权值;su表示地标的结构显著度,wu表示结构显著度的权值;其中wv+ws+wu=1。
5.根据权利要求1所述的眼动交互增强现实的相对导航方法,其特征在于,步骤2中显著地标的标注和虚拟标签的生成,包括通过地标分类和标注模型生成显著地标的类型分类标签和文字标签;显著地标的地标分类包括:餐馆、行/ATM、商场/超市、学校、宾馆/饭店、娱乐场所、机场、火车站、地站、药店、医院、停车场、卫生间、景点、公交车站、隧道、加油站、办公楼;并对各个地标分类设置对应形状的标注模型。
6.根据权利要求1所述的眼动交互增强现实的相对导航方法,其特征在于,步骤3中显著地标相对方位的计算,包括显著地标相对于用户即时位置的相对方位信息,由相对方位计算模型计算获得;显著地标至现实场景的映射,包括二维电子地图绝对坐标下的显著地标POI坐标信息至现实视觉场景下显著地标相对于用户的相对方位映射;映射标签为即时动态虚拟标签,随用户当前位置实时变化;其计算方法具体为:
步骤3.1、获取当前用户位置信息(Latp,Lonp)和朝向姿态信息Angp,其中以正北朝向为
0°,角度随顺时针递增;显著地标的POI坐标信息为(Latl,Lonl);将当前用户的坐标信息和显著地标的POI坐标信息转换为墨卡托投影坐标,分别为用户位置信息(Bp,Lp)和显著地标的POI坐标信息(Bl,Ll);
步骤3.2、显著地标相对方位的计算模型为:
其中,Ang为即时相对方位,(latl,lonl)、(latp,lonp)分别表示显著地标坐标和用户当前位置的经纬度坐标,(Bp,Lp)、(Bl,Ll)分别表示显著地标坐标和用户当前位置转换后的墨卡托投影坐标, 分别代表(Bp,Lp)与(Bl,Ll)在纬度、经度方
向上的距离差(包含方向信息),Angp表示当前用户朝向。
7.根据权利要求1所述的眼动交互增强现实的相对导航方法,其特征在于,步骤4中利用增强现实技术将显著地标的虚拟标签映射至以真实场景为背景的环境中,虚拟标签包括导航前进方向可视路段内所有显著地标的虚拟标签,虚拟标签的内容包括显著地标的类型分类标签和文字标签;通过增强现实技术将导航路径略缩图或全局路径引导图、即时位置信息和即时方位信息投影至视觉导航系统的显示环境,包括导航路径的缩略图、全局路径全览图和局部路段的投影、用户实时位置信息和姿态朝向信息的图标、符号、标签信息的投影。
8.根据权利要求7所述的眼动交互增强现实的相对导航方法,其特征在于,步骤4的具体方法为:
步骤4.1、建立增强现实设备或全息投影设备与导航系统之间的无线连接;
步骤4.2、获取用户的即时位姿状态,建立所需叠加的虚拟标签和虚拟符号信息在投影环境中的相对位置关系,完成虚拟标签和虚拟符号信息的三维注册,完成虚实场景融合;
步骤4.3、借助增强现实设备或全息投影设备,将显著地标的虚拟标签和引导要素信息映射至投影环境中的对应位置,其中显著地标的虚拟标签位置与引导要素信息图例随用户的姿态变化动态更新。
9.根据权利要求1所述的眼动交互增强现实的相对导航方法,其特征在于,步骤5中眼动交互过程的眼球动作指令包括:
基础眼动指令:
选择,双眼注视,通过双眼注视完成目标选择指令;
确认,连续两次眨眼,通过连续两次眨眼完成确认指令
返回,单眼眨眼,单眼眨眼一次,眨眼时间为1±0.5S,完成返回指令;
眼动交互指令:
路径选择确认,注视目标路径并连续两次眨眼,导航路径方案的选择与确认,通过注视完成方案选择,通过眨眼组合动作完成确认;
返回路径选择,单眼眨眼,方案选择指令完成情况下的界面返回操作;
局部路段放大,注视并连续两次眨眼,在全局路径查看框中,局部路段的放大查看,通过注视小地图中的目标路段完成选择,通过眨眼组合动作完成局部放大操作;
局部路段缩小,注视并连续三次眨眼,局部路段放大查看状态下的界面缩小操作,通过注视完成待缩小目标的选择,通过眨眼组合动作完成缩小操作;
视角切换,注视虚拟按钮并连续两次眨眼,通过注视和眨眼组合操作完成导航视角切换操作。
10.根据权利要求1所述的眼动交互增强现实的相对导航方法,其特征在于,步骤5的具体方法为:
步骤5.1、建立便携式可穿戴眼动仪与导航系统之间的无线连接,并根据信号传输协议建立眼动追踪输出信号与导航系统输入信号之间的信号传输通道;
步骤5.2、定义眼动追踪信号与导航系统之间的数据传输和指令控制规则,设计导航任务相关操作的人机眼动交互动作指令;
步骤5.3、为不同用户进行眼球追踪校准并建立参数档案;
步骤5.4、根据定义的导航眼动指令,以及眼动交互的具体操作,控制导航系统进行操作,具体操作包括导航路径方案的选择确定与返回,全局、局部路段的选择确定与返回,路径的局部放大与缩小,视角切换的操作。

说明书全文

一种眼动交互增强现实的相对导航方法

技术领域

[0001] 本发明涉及导航技术、智能交互技术和增强现实技术领域,尤其涉及一种眼动交互增强现实的相对导航方法。

背景技术

[0002] 导航是GIS理论研究的一个重要应用领域。现有的导航技术现状与发展:有轨迹导航和模糊导航,轨迹导航时接收到GPS信号后通过记录形式的路线,并以此作为参照来指导形式的导航方式,模糊导航时按规划的路线模拟真实情况进行导航,不需要GPS信号,设置了起点和目的地就可以进行模拟导航;三维实景导航将路面上的建筑物以三维立体形式表现,效果更为真实,AR增强现实导航将实际场景的实时录像叠加转向信息。越野导航,将点到点导航,在无图状态下的方向导航,用于没有道路的地方,通过标点、他人航迹、预先规划好的路径等手段来导航。全息导航以位置基础,全面反映位置本身及其与位置相关的各种特征、时间或事物的全信息的数字导航,是适应位置服务应用需求的一种新型导航产品。
[0003] 增强现实是一种将真实世界信息和虚拟世界信息“无缝”集成的新技术,通过将虚拟的信息融合渲染至真实场景,从而达到超越现实的感官体验。用户借助AR眼镜,AR头盔显示器,全息投影等设备把二维或三维对象通过建模和模拟仿真叠加至以现实场景为背景的环境中。增强现实技术包含了多媒体、三维建模与模拟仿真、多传感器融合、虚拟影像投影及控制、虚实场景融合、实时跟踪及注册等技术,在传统广播媒体、工程学、医学、教育学等领域具有巨大应用价值。
[0004] 眼动仪用于捕捉人在处理视觉信息时的眼动轨迹数据,广泛用于心理学、视知觉、智能交互等领域的研究。现有的主要应用有,眼动与视觉信息加工的心理机制研究,视觉搜索和模式识别的眼动研究,动机与态度的研究,游戏智能眼动交互体验等。
[0005] 目前,GIS导航与位置服务领域研究偏重精确定位与基于绝对坐标的路径引导,现有的导航系统未充分考虑用户对绝对空间的推理和认知能的局限性,缺乏在现实场景中,辅助用户在第一视下进行路径引导的导航应用,缺乏易于理解的基于相对语义的导航方法。传统导航软件的导航系统依赖于导航系统的屏幕展示和语音播报,用户需分散注意力,导致行进视线偏离路面,存在安全隐患。现阶段的实景导航系统基于电子地图的绝对坐标,引导过程局限于全局与局部的路径展示与方位朝向判定,未充分利用行人的相对导航寻路能力,缺少较为直观的视觉提示、展示与交互的过程,难以准确且高效引导处于骑行或驾驶状态的用户。

发明内容

[0006] 本发明要解决的技术问题在于针对现有技术中的缺陷:目前的导航系统基于绝对坐标,未充分考虑人对绝对空间到相对空间的认知和转换能力,在导航过程中依赖于导航系统屏幕展示导航路径,需要用户将视线从道路上移开,存在较大不安全因素,在感官交互方式上以手动交互和语音交互为主,缺少更为直观的视觉交互过程;提供一种眼动交互增强现实的相对导航方法。
[0007] 本发明解决其技术问题所采用的技术方案是:
[0008] 本发明提供一种眼动交互增强现实的相对导航方法,该方法基于增强现实技术以显著地标相对关系为引导信号进行动态视觉导航,通过可穿戴式眼动仪与导航系统进行视觉交互;该方法包括以下步骤:
[0009] 步骤1、提取导航路径下的显著地标及其POI坐标信息,显著地标通过计算各个地标的显著度来判定;
[0010] 步骤2、根据设定的地标分类及标注模型,标注显著地标并生成虚拟标签,虚拟标签包括显著地标对应的分类图标标签和文字标签;
[0011] 步骤3、调用用户即时姿态朝向信息、即时位置信息和显著地标的POI坐标信息,利用相对方位计算模型计算显著地标的即时相对方位属性信息,并赋予虚拟标签即时相对方位属性信息;
[0012] 步骤4、通过增强现实技术将显著地标的虚拟标签实时投影至以真实场景为背景的环境中,实现显著地标虚拟标签在现实场景中相对于用户的相对方位映射;通过增强现实技术将导航路径略缩图、即时位置信息和即时方位信息投影至视觉导航系统的显示环境,其中显著地标的虚拟标签位置与引导要素信息图例为动态显示,随用户的姿态变化而动态更新;
[0013] 步骤5、通过可穿戴式眼动仪与导航系统进行导航过程的视觉交互,可穿戴式眼动仪能实现眼动轨迹跟踪与数据采集,并与导航系统进行数据互联传输指令,实现眼动交互;导航过程的视觉交互包括通过追踪眼球动作指令进行导航过程的路径方案选择确定与返回,全局、局部路段的选择确定与返回,路径的局部放大与缩小,视角切换的操作。
[0014] 进一步地,本发明的该方法中的导航系统为支撑视觉导航系统的平台,包括以下三种方案:(1)智能AR眼镜;(2)具备眼动追踪功能的智能AR眼镜;(2)便携式全息投影设备+便携式移动终端。
[0015] 进一步地,本发明的步骤1中显著地标的显著度由该地标的视觉显著度、语义显著度和结构显著度融合计算获得;显著地标POI坐标信息包括经纬度坐标信息。
[0016] 进一步地,本发明的步骤1的具体方法为:
[0017] 步骤1.1、提取导航路径下的视觉显著地标、语义显著地标和结构显著地标,并提取其对应的POI坐标信息;
[0018] 步骤1.2、1.2由地标显著度计算模型计算地标的综合显著度,综合显著度由地标的视觉显著度、语义显著度和结构显著度以不同的权值综合计算获得;其计算公式为:
[0019]
[0020] 其中,S表示地标综合显著度,sv表示地标的视觉显著度,wv表示视觉显著度的权值;ss表示地标的语义显著度,ws表示视觉显著度的权值;su表示地标的结构显著度,wu表示结构显著度的权值;其中wv+ws+wu=1。
[0021] 进一步地,本发明的步骤2中显著地标的标注和虚拟标签的生成,包括通过地标分类和标注模型生成显著地标的类型分类标签和文字标签;显著地标的地标分类包括:餐馆、行/ATM、商场/超市、学校、宾馆/饭店、娱乐场所、机场、火车站、地站、药店、医院、停车场、卫生间、景点、公交车站、隧道、加油站、办公楼;并对各个地标分类设置对应形状的标注模型。
[0022] 进一步地,本发明的步骤3中显著地标相对方位的计算,包括显著地标相对于用户即时位置的相对方位信息,由相对方位计算模型计算获得;显著地标至现实场景的映射,包括二维电子地图绝对坐标下的显著地标POI坐标信息至现实视觉场景下显著地标相对于用户的相对方位映射;映射标签为即时动态虚拟标签,随用户当前位置实时变化;其计算方法具体为:
[0023] 步骤3.1、获取当前用户位置信息(Latp,Lonp)和朝向姿态信息Angp,其中以正北朝向为0°,角度随顺时针递增;显著地标的POI坐标信息为(Latl,Lonl);将当前用户的坐标信息和显著地标的POI坐标信息转换为墨卡托投影坐标,分别为用户位置信息(Bp,Lp)和显著地标的POI坐标信息(Bl,Ll);
[0024] 步骤3.2、显著地标相对方位的计算模型为:
[0025]
[0026] 其中,Ang为即时相对方位,(latl,lonl)、(latp,lonp)分别表示显著地标坐标和用户当前位置的经纬度坐标,(Bp,Lp)、(Bl,Ll)分别表示显著地标坐标和用户当前位置转换后的墨卡托投影坐标, 分别代表(Bp,Lp)与(Bl,Ll)在纬度、经度方向上的距离差(包含方向信息),Angp表示当前用户朝向。
[0027] 进一步地,本发明的步骤4中利用增强现实技术将显著地标的虚拟标签映射至以真实场景为背景的环境中,虚拟标签包括导航前进方向可视路段内所有显著地标的虚拟标签,虚拟标签的内容包括显著地标的类型分类标签和文字标签;通过增强现实技术将导航路径略缩图或全局路径引导图、即时位置信息和即时方位信息投影至视觉导航系统的显示环境,包括导航路径的缩略图、全局路径全览图和局部路段的投影、用户实时位置信息和姿态朝向信息的图标、符号、标签信息的投影。
[0028] 进一步地,本发明的步骤4的具体方法为:
[0029] 步骤4.1、建立增强现实设备或全息投影设备与导航系统之间的无线连接;
[0030] 步骤4.2、获取用户的即时位姿状态,建立所需叠加的虚拟标签和虚拟符号信息在投影环境中的相对位置关系,完成虚拟标签和虚拟符号信息的三维注册,完成虚实场景融合;
[0031] 步骤4.3、借助增强现实设备或全息投影设备,将显著地标的虚拟标签和引导要素信息映射至投影环境中的对应位置,其中显著地标的虚拟标签位置与引导要素信息图例随用户的姿态变化动态更新。
[0032] 进一步地,本发明的步骤5中眼动交互过程的眼球动作指令包括:
[0033] 基础眼动指令:
[0034] 选择,双眼注视,通过双眼注视完成目标选择指令;
[0035] 确认,连续两次眨眼,通过连续两次眨眼完成确认指令
[0036] 返回,单眼眨眼,单眼眨眼一次,眨眼时间为1±0.5S,完成返回指令;
[0037] 眼动交互指令:
[0038] 路径选择确认,注视目标路径并连续两次眨眼,导航路径方案的选择与确认,通过注视完成方案选择,通过眨眼组合动作完成确认;
[0039] 返回路径选择,单眼眨眼,方案选择指令完成情况下的界面返回操作;
[0040] 局部路段放大,注视并连续两次眨眼,在全局路径查看框中,局部路段的放大查看,通过注视小地图中的目标路段完成选择,通过眨眼组合动作完成局部放大操作;
[0041] 局部路段缩小,注视并连续三次眨眼,局部路段放大查看状态下的界面缩小操作,通过注视完成待缩小目标的选择,通过眨眼组合动作完成缩小操作;
[0042] 视角切换,注视虚拟按钮并连续两次眨眼,通过注视和眨眼组合操作完成导航视角切换操作。
[0043] 进一步地,本发明的步骤5的具体方法为:
[0044] 步骤5.1、建立便携式可穿戴眼动仪与导航系统之间的无线连接,并根据信号传输协议建立眼动追踪输出信号与导航系统输入信号之间的信号传输通道;
[0045] 步骤5.2、定义眼动追踪信号与导航系统之间的数据传输和指令控制规则,设计导航任务相关操作的人机眼动交互动作指令;
[0046] 步骤5.3、为不同用户进行眼球追踪校准并建立参数档案;
[0047] 步骤5.4、根据定义的导航眼动指令,以及眼动交互的具体操作,控制导航系统进行操作,具体操作包括导航路径方案的选择确定与返回,全局、局部路段的选择确定与返回,路径的局部放大与缩小,视角切换的操作。
[0048] 本发明产生的有益效果是:本发明的眼动交互增强现实的相对导航方法,通过眼动交互、增强现实和相对导航技术解决上述问题。具体地,通过利用导航路径上的显著地标和即时相对关系属性作为可用于视觉引导的动态引导信号,辅助用户进行空间认知;借助增强现实技术或全息投影设备将显著地标虚拟标签和其他引导要素投影至现实场景环境中,辅助用户进行动态路径引导;并利用可穿戴式眼动追踪设备与导航系统进行人机智能视觉交互,进一步提升导航的安全性和准确性,提升用户导航体验,提高引导成功率,减少用户导航过程中的注意力分散,降低导航过程安全险。附图说明
[0049] 下面将结合附图及实施例对本发明作进一步说明,附图中:
[0050] 图1为本发明实施例的流程图
[0051] 图2为本发明实施例的显著地标虚拟标签映射至实时街景环境中的示意图。

具体实施方式

[0052] 为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
[0053] 本发明主要实现基于增强现实和相对关系模型的显著地标虚拟标签的动态投影和视觉动态相对引导,主要实现可穿戴式眼动仪与导航系统的人机智能视觉交互。具体包括显著地标虚拟标签生成及即时相对关系属性计算,基于增强现实技术的显著地标虚拟标签(包含相对关系属性信息)及辅助引导要素的即时投影,来实现相对导航,并通过眼动追踪设备与导航系统进行导航过程人机智能视觉交互。发明实施例的流程图如图1所示。
[0054] 请见图1,本发明提供的一种眼动交互增强现实的相对导航方法,包括以下步骤:
[0055] 步骤1:提取导航路径下的显著地标及POI坐标信息,所述显著地标的显著性包括视觉显著性、语义显著性和结构显著性,显著地标的显著度由该地标的视觉显著度、语义显著度和结构显著度融合计算获得;
[0056] 其中,步骤1的具体操作方法为:
[0057] 步骤1.1、提取导航路径下的视觉显著地标、语义显著地标和结构显著地标,提取上述地标的POI坐标信息;
[0058] 步骤1.2、由地标显著度计算模型计算地标的综合显著度,综合显著度由地标的视觉显著度、语义显著度和结构显著度以不同的权值综合计算获得:
[0059]
[0060] 其中,S表示地标综合显著度,sv表示地标的视觉显著度,wv表示视觉显著度的权值;ss表示地标的语义显著度,ws表示视觉显著度的权值;su表示地标的结构显著度,wu表示结构显著度的权值;其中wv+ws+wu=1;
[0061] 步骤2:根据地标分类及标注模型,标注显著地标并生成虚拟标签,所述虚拟标签包括显著地标对应的分类图标标签和文字标签;
[0062] 其中,显著地标的虚拟标签,包括显著地标的三维分类标签和文字标签,显著地标不同功能类别的三维标签图示为表1所示;
[0063] 表1显著地标不同功能类别的三维标签图示
[0064]
[0065]
[0066] 步骤3:调用用户即时姿态朝向信息Angp,即时位置信息和显著地标POI坐标信息,利用相对方位计算模型计算显著地标的即时相对方位属性信息,并赋予虚拟标签即时相对方位属性信息;
[0067] 其中,步骤3的具体操作方法为:
[0068] 步骤3.1、获取当前用户位置信息(Latp,Lonp)和朝向姿态信息Angp,其中以正北朝向为0°,角度随顺时针递增;显著地标的POI坐标信息为(Latl,Lonl);将当前用户的坐标信息和显著地标的POI坐标信息转换为墨卡托投影坐标,分别为用户位置信息(Bp,Lp)和显著地标的POI坐标信息(Bl,Ll);(步骤3.1中的用户位置信息,POI坐标信息可通过绝对坐标的形式进行表示,当然并不局限于以绝对坐标形式的表示方法,还包含通过视觉定位的方式获得的相对方位关系;当前用户位置信息的获取方式包含GPS定位方法、视觉定位方法、多源传感器融合定位方法等);
[0069] 步骤3.2、利用相对方位计算模型计算显著地标相对于用户位置的相对方位信息Ang,相对方位计算模型为:
[0070]
[0071] 步骤4:通过增强现实技术将显著地标的虚拟标签实时投影至以真实场景为背景的环境中,实现显著地标虚拟标签在现实场景中相对于用户的相对方位映射;通过增强现实技术将导航路径略缩图(全局路径引导图)、即时位置信息和即时方位信息投影至视觉导航系统的显示环境,其中显著地标的虚拟标签位置与引导要素信息图例为动态显示,随用户的姿态变化而动态更新;
[0072] 其中,步骤4的具体操作方法为:
[0073] 步骤4.1、建立增强现实设备或全息投影设备与导航系统(智能移动设备)之间的无线连接(AR智能眼镜为包含增强现实功能的智能移动设备,无需建立连接);
[0074] 步骤4.2、获取用户的即时位姿状态,建立所需叠加的虚拟标签和虚拟符号信息在投影环境中的相对位置关系,完成虚拟标签和虚拟符号信息的三维注册,完成虚实场景融合;
[0075] 步骤4.3、借助增强现实设备或全息投影设备,将显著地标的虚拟标签和引导要素信息(引导要素信息包含路径引导过程中,引导用户进行导航的辅助信息,包含但不局限于即时导航路径、即时位置和方向信息)映射至投影环境中的对应位置,其中显著地标的虚拟标签位置与引导要素信息图例随用户的姿态变化动态更新;
[0076] 步骤5:借助眼动追踪设备或眼动追踪系统与导航系统进行导航过程的视觉交互,所述眼动追踪设备为可穿戴式眼动仪(眼动追踪系统可以是具备眼动追踪功能的智能AR眼镜),能实现眼动轨迹跟踪与数据采集,并与导航系统进行数据互联传输指令,实现眼动交互;所述导航过程的视觉交互包括通过追踪眼球动作指令进行导航过程的路径方案选择确定与返回,全局、局部路段的选择确定与返回,路径的局部放大与缩小,视角切换等操作;
[0077] 其中,步骤5的具体操作方法为:
[0078] 步骤5.1、建立便携式可穿戴眼动仪与导航系统之间的无线连接,并根据信号传输协议建立眼动追踪输出信号与导航系统输入信号之间的信号传输通道(具备眼动追踪功能的智能AR眼镜无需建立信号连接);
[0079] 步骤5.2、定义眼动追踪信号与导航系统之间的数据传输和指令控制规则,设计导航任务相关操作的人机眼动交互动作指令;
[0080] 步骤5.3、为不同用户进行眼球追踪校准并建立参数档案;
[0081] 步骤5.4、根据本发明定义的导航眼动指令,以及眼动交互的具体操作,控制导航系统进行操作,具体操作包括导航路径方案的选择确定与返回,全局、局部路段的选择确定与返回,路径的局部放大与缩小,视角切换等操作。本发明所设计的眼动交互过程的眼动交互指令表如表2所示。
[0082] 表2眼动交互过程的眼动交互指令表
[0083]
[0084] 根据本发明实施例的一种眼动交互增强现实的相对导航方法,将导航路径下的显著地标信息辅以相对关系属性,以动态虚拟标签形式,借助增强现实技术或全息投影技术进行动态投影。将显著地标虚拟标签、导航路径、用户位置和朝向等信息实时展示,为用户直观地展现导航路径下,用户的实时状态和动态的引导信号。在导航过程中通过眼动交互的指令动作对导航过程进行人机智能视觉交互,实现导航路径方案的选择确定与返回,全局、局部路段的选择确定与返回,路径的局部放大与缩小,视角切换等操作。这种方式不影响用户的正常行进状态,在未分散视觉注意力和视线的情况下,实现导航与交互,增强用户的导航体验。
[0085] 应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈