首页 / 专利库 / 显示技术 / 介导现实 / 增强现实 / 面向无人机的群控交互方法

面向无人机的群控交互方法

阅读:837发布:2020-05-08

专利汇可以提供面向无人机的群控交互方法专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种面向无人机的群控交互方法,该方法包括以下步骤:通过 增强现实 技术显示无人机群系统虚拟场景,用户在 感知 现实环境同时获取虚拟场景辅助信息;用户使用手势交互方式选择虚拟场景中抽象无人机群体中的子群或个体,被选中的无人机高亮显示;使用手势交互的方式对被选中无人机进行任务控制,在虚拟场景中设定投影地图任务航点、区域或者绘制任务航迹;相应的无人机任务指令发送至现实无人机群处执行。本发明提供一种适用于一定数量无人机群场景的交互方法,实现以人为中心的思想,自然直观,降低学习成本,提高了交互效率。,下面是面向无人机的群控交互方法专利的具体信息内容。

1.一种面向无人机的群控交互方法,其特征在于,所述的群控交互方法包括下列步骤:
S1、通过增强现实技术显示无人机群系统虚拟场景,用户在感知现实环境同时获取虚拟场景辅助信息;
其中,所述的无人机群系统虚拟场景的信息显示方法包括:抬头显示,信息对象跟随头部移动;锚定显示,信息对象在锚点位置固定显示;所述的锚定显示方式由三维注册技术实现,实现方法如下:
使用标定板测量增强现实设备摄像机内参数,实时捕捉视觉标记,最后根据锚点设置的位置计算出增强现实三维注册的坐标转换关系;
设定四个不同的坐标系:真实空间坐标系;对所叠加的虚拟物体几何描述的虚拟空间坐标系;摄像机坐标系;在增强现实设备成像的图像平面坐标系;
根据三维注册技术坐标转换关系有:
其中,[u v 1]T为图像平面坐标,[x y z 1]T为真实空间坐标, 为所叠加的虚拟物体的虚拟空间坐标, 为真实空间坐标系与摄像机坐标系之间的欧
几里德变换,R为旋转矩阵,t为平移矩阵, 为摄像机坐标系与
图像平面坐标系之间的变换矩阵,其中ax=f×dpu′,ay=f×dpv′,ax,ay,u0,v0为摄像机的内参数,O4*4为虚拟空间与真实空间坐标系之间的转换关系;
根据张氏标定法,平面标定板与摄像机成像图像之间的单应性映射关系如下:
其中H为单应性矩阵,s为缩放因子, 为真实空间坐标系平面, 为成像平面;
将旋转矩阵约束代入式(2)映射关系可得到:
采用摄像机拍摄三张标定板照片,根据式(3)计算得到所需摄像机内参数,最终得到摄像机坐标系与图像平面坐标系之间的关系P3*4;
根据摄像机透视投影模型的透视投影方程有:
其中x′y′z′为摄像机坐标,u′v′为图像坐标,通过坐标变换C4*4将真实空间坐标系代入式(4),得到:
u′(rzxx+rzyy+rzzz+tz)-f(rxxx+rxyy+rxzz+tx)=0   (5)
u′(rzxx+rzyy+rzzz+tz)-f(ryxx+ryyy+ryzz+ty)=0
根据旋转矩阵的正交性,得到约束式(6):
根据式(5)与式(6),需要摄像机拍摄视觉标志的3个特征向量(x,y,z)T即可计算出所有未知量,最终得到变换C4*4;
又由于虚拟空间坐标系与真实空间坐标系之间的关系O4*4由应用程序定义,为已知参数,P3*4、C4*4、O4*4为已知参数,则能算出式三维注册坐标转换关系;
S2、用户使用手势交互方式选择虚拟场景中抽象无人机群体中的子群或者个体,被选中的抽象无人机高亮显示;
S3、使用手势交互的方式对被选中无人机进行任务控制,在虚拟场景中设定投影地图任务航点、区域或绘制任务航迹;
S4、相应的无人机任务指令将发送至现实无人机群处执行。
2.根据权利要求1所述的面向无人机的群控交互方法,其特征在于,所述的步骤S1中增强现实技术显示的无人机群系统虚拟场景包括:投影地图、抽象无人机、无人机群系统综合状态和无人机个体状态,其中,抽象无人机依附于投影地图,无人机个体状态依附于对应抽象无人机;所述的投影地图包括:二维城市地图、二维地形图和三维地形图。
3.根据权利要求1所述的面向无人机的群控交互方法,其特征在于,所述的步骤S2中用户使用手势交互方式选择虚拟场景中抽象无人机群体中子群或者个体,其手势交互方法为手势画圈选择方式,用户使用手在需要选择的目标抽象无人机周围画手势轨迹,所画手势轨迹在虚拟场景显示,若手势轨迹闭合形成一个闭合圈,则所包围的抽象无人机即为选中状态。
4.根据权利要求1所述的面向无人机的群控交互方法,其特征在于,所述的步骤S3中使用手势交互方式对被选中无人机进行任务控制,其手势交互方式包括:
设定投影地图任务航点,使用手点击投影地图中目标位置,该位置生成坐标标记,待所有坐标标记生成完成后,任务航点传输至无人机群;
设定投影地图任务区域,使用手在投影地图填涂目标任务区域,被填涂区域高亮显示,待所有任务区域指定完成后,任务区域传输至无人机群;
绘制任务航迹,使用手在投影地图绘制各无人机任务航迹,任务航迹渲染至虚拟场景,待所有任务航迹绘制完成后,任务航迹传输至无人机群。
5.根据权利要求3或4所述的面向无人机的群控交互方法,其特征在于,所述的步骤S2与步骤S3中手势交互方式包括:预定义手势识别和手势轨迹控制。
6.根据权利要求5所述的面向无人机的群控交互方法,其特征在于,所述的预定义手势识别采用模板匹配方法,其实现步骤如下:
提取手势数据中的特征值,生成M维特征向量,使用训练手势训练模板得到模板的特征向量T={T(1),T(2),T(3),…T(M)},接着在识别阶段提取待识别手势的特征同样得到M维向量R={R(1),R(2),R(3),…R(M)},比较待识别手势的特征与预定义手势库中各手势的特征,计算两者之间的欧几里德距离:
当两者距离达到所定义阈值范围则识别为该手势。
7.根据权利要求5所述的面向无人机的群控交互方法,其特征在于,所述的手势轨迹控制在利用手势传感器所获取的位置和姿态数据之前需要进行滤波预处理,以去除信号中的噪声,然后采用卡尔曼滤波的方法,其实现步骤如下:
利用前一时刻状态信息与当前时刻的测量值来对当前时间的状态进行估计,记当前时刻为k,前一时刻为k-1,则状态自回归估计方程为:
Xk=Ak·Xk-1+Bk·Uk+Wk
Zk=Hk·Xk+Vk     (8)
其中,Xk为k时刻物体的状态向量,Zk为测量结果,Hk为观测向量,Ak为状态转移矩阵,表示k-1时刻的状态如何影响k时刻的状态,Bk为控制输入矩阵,表示k时刻的输入如何影响k时刻的状态,Uk为k时刻控制过程的向量,Wk为过程噪声,Wk~N(0,Q),协方差Q已知,Vk为测量噪声,Vk~N(0,R),协方差R已知;
预测过程为:
和Pk|k-1分别表示预测状态及其协方差, 为上一状态的最优结果,
Pk-1|k-1为 对应的协方差,Qk为系统过程的协方差;
更新过程为:
Kk表示卡尔曼增益, 和 分别表示k时刻的状态和协方差估计,Rk为测量误差,I为单位矩阵,在单模型单测量的情况下I=1。

说明书全文

面向无人机的群控交互方法

技术领域

[0001] 本发明涉及人机交互技术领域,具体涉及一种面向无人机的群控交互方法。

背景技术

[0002] 自2015年9月18日,美国50架无人机集群飞行开始;2016年11月7日,中国67架无人机集群飞行;2017年1月21日,美国103架无人机集群飞行;2017年1月27日,美国防高级研究计划局(DARPA)公布“进攻性蜂群战术”(OFFSET)项目;2017年6月10日,中国成功完成了119架固定翼无人机集群飞行试验。关于无人机集群系统的研究获得了突飞猛进的发展。相比单架无人机有限的作业能和作业时长,无人机群在性能上体现出群体性的优势。具备了群体智能的无人机机群系统能够在复杂环境下协同作业,共同完成目标任务。
[0003] 与之俱来的是,适用于无人机集群系统的人机交互方式将会变得更加复杂。庞大的无人机数量对无人机系统信息的呈现方式、无人机系统任务控制方式提出了更高的要求。现有的无人机交互方式多为遥控器或者图形化交互界面,无法实现同时展示大规模无人机集群的状态信息;不仅如此,在大量的无人机中准确选择需要执行任务的特定的无人机子群或者个体具有一定难度;而无人机任务指令的下达则需要大量的专业训练,具有较高的学习成本。
[0004] 总而言之,传统的无人机人机交互方式无法很好地满足无人机集群系统的需要,无人机群大量的信息无法很好地组织和展示,人机交互操作不够自然直观,需要大量的训练,而且交互效率较低,具有较高的交互难度。

发明内容

[0005] 本发明的目的是为了解决现有技术中的上述缺陷,提供一种面向无人机的群控交互方法。
[0006] 本发明的目的可以通过采取如下技术方案达到:
[0007] 一种面向无人机群控交互方法,该交互方法包括以下步骤:
[0008] S1、无人机群系统虚拟场景通过增强现实技术显示,用户在感知现实环境同时获取虚拟场景辅助信息。
[0009] 在步骤S1中增强现实技术显示的无人机群系统虚拟场景包括:投影地图、抽象无人机、无人机群系统综合状态和无人机个体状态。抽象无人机依附于投影地图,无人机个体状态依附于对应抽象无人机。其有益效果包括:投影地图实时显示无人机集群的工作区域,是所有抽象无人机依附的父对象,抽象无人机在投影地图中的位置根据现实无人机的经纬度坐标信息确定。投影地图同时也是手势交互的交互基础,用户手势的输入与投影地图之间发生作用,最后得到交互的结果;抽象无人机是现实无人机在虚拟场景中的表现,存在于投影地图之上,现实无人机的位置、姿态和行为等信息的变化体现在抽象无人机上,用户能够通过直接观察抽象无人机的表现形态直观自然地掌握特定无人机的状态信息。同时,抽象无人机也是手势交互的对象,是手势选择交互的基本单位;无人机群系统综合状态显示无人机集群的综合状态信息,如任务完成情况、预计完成时间和任务列表等总体情况;无人机个体状态则实时显示对应无人机的个体状态,如剩余电量、经纬度和下一任务航点等个体情况,其总是依附于对应的抽象无人机。
[0010] 在步骤S1中的无人机群系统虚拟场景信息显示方法包括:抬头显示,信息对象跟随头部移动;锚定显示,信息对象在锚点位置固定显示。其有益效果包括:重要的信息采用抬头显示的方式,与战斗机飞行员头盔的信息显示方式一致,确保信息时刻处于可见状态;场景中不需要移动的信息采用锚定显示的方式,保持信息展示的稳定性
[0011] 在步骤S1中的投影地图包括:二城市维地图、二维地形图、三维地形图。其有益效果包括:可以在不同的地图显示方式中灵活切换,以适应不同的应用场景。二维城市地图适合城市区域的应用场景;二维地形图适合多山地区的应用场景;而三维地形图可以借助增强现实技术在虚拟场景中从不同度观察控制,扩展信息的维度,提供更加直观的交互方式。
[0012] 在步骤S1中的无人机群系统综合状态按照抬头显示方法显示;投影地图按照锚定显示方法显示。抽象无人机、无人机个体状态依附于投影地图,按照锚定显示方法显示。其有益效果包括:基于增强现实技术,可以通过不同角度观察和虚拟场景中的对象,投影地图锚定显示于平面,抽象无人机显示于投影地图之上,按照现实无人机位置等状态信息还原。增强现实虚拟场景将无人机集群工作所在的大规模场景缩放到用户面前,以更加自然直观的方式展示整个无人机集群系统。
[0013] 进一步地,S1中的锚定显示方式由三维注册技术实现,实现方法如下:使用标定板测量增强现实设备摄像机内参数,实时捕捉视觉标记,最后根据锚点设置的位置计算出增强现实三维注册的坐标转换关系。根据三维注册技术坐标转换关系有:
[0014] 其中
[0015] 其中,[u v 1]T为图像平面坐标,[x y z 1]T为真实空间坐标,[ξ η 1]T为所叠加的虚拟物体的虚拟空间坐标。 为真实空间坐标系与观察空间坐标系之间的欧几里德变换,R为旋转矩阵,t为平移矩阵。O4*4为虚拟空间与真实空间坐标系之间的转换关系。 为摄像机坐标系与图像平面坐标系之间的变换矩
阵,其中ax=f×dpu′,ay=f×dpv′,ax,ay,u0,v0为摄像机的内参数。
[0016] 根据张氏标定法,平面标定板与摄像机成像图像之间的单应性映射关系如下:
[0017]
[0018] 其中H为单应性矩阵,s为缩放因子, 为真实空间坐标系平面, 为成像平面。将旋转矩阵约束代入式(2)映射关系可得到:
[0019]
[0020]
[0021] 采用摄像机拍摄三张标定板照片,根据式(3)计算得到所需摄像机内参数,最终得到摄像机坐标系与图像平面坐标系之间的关系P3*4。
[0022] 根据摄像机透视投影模型的透视投影方程有:
[0023]
[0024] 其中x′y′z′为摄像机坐标,u′v′为图像坐标。通过坐标变换C4*4将真实空间坐标系代入式(4),得到:
[0025] u′(rzxx+rzyy+rzzz+tz)-f(rxxx+rxyy+rxzz+tx)=0 (5)
[0026] u′(rzxx+rzyy+rzzz+tz)-f(ryxx+ryyy+ryzz+ty)=0
[0027] 根据旋转矩阵的正交性,得到约束式(6):
[0028]
[0029]
[0030] 根据式(5)与式(6),需要摄像机拍摄视觉标志的3个特征向量(x,y,z)T即可计算出所有未知量,最终得到变换C4*4。
[0031] 又由于虚拟空间坐标系与真实空间坐标系之间的关系O4*4由应用程序定义,为已知参数。P3*4、C4*4、O4*4已知,则能算出式三维注册坐标转换关系。
[0032] S2、用户使用手势交互方式选择虚拟场景中抽象无人机群体中的子群或者个体,被选中的抽象无人机高亮显示。
[0033] 在步骤S2中的使用手势交互方式选择虚拟场景中抽象无人机群体中子群或者个体,其手势交互方法包括:预定义手势识别和手势画圈选择。预定义手势识别,通过与手势库中手势模板相似度比较,识别用户手势,进而执行手势库中该与手势映射的行为。通常将手势画圈选择的起始和结束与特定手势映射,用以控制手势画圈选择的交互起始与终止;手势画圈选择,使用手在需要选择的目标抽象无人机周围画手势轨迹,所画手势轨迹在虚拟场景显示,若手势轨迹闭合形成一个闭合圈,所包围的抽象无人机即为选中状态。其有益效果包括:用户从不同角度获取无人机群的状态信息后,无需借助任何外部工具,直接采用手画一个圈的方式完成选择操作。该方式自然直观、最符合人类基本感官体验,大幅提升交互友好度和交互效率。
[0034] 进一步地,S2与S3中的预定义手势识别采用模板匹配方法,其实现步骤如下:
[0035] 提取手势数据中的特征值,生成M维特征向量。使用训练手势训练模板得到模板的特征向量T={T(1),T(2),T(3),…T(M)},接着在识别阶段提取待识别手势的特征同样得到M维向量R={R(1),R(2),R(3),…R(M)},比较待识别手势的特征与预定义手势库中各手势的特征,计算两者之间的欧几里德距离:
[0036]
[0037] 当两者距离达到所定义阈值范围则识别为该手势。
[0038] S3、使用手势交互的方式对被选中无人机进行任务控制,在虚拟场景中设定投影地图任务航点、区域或绘制任务航迹。
[0039] 在步骤S3中的使用手势交互方式对被选中无人机进行任务控制,其手势交互方法包括:预定义手势识别、设定任务航点、设定任务区域和绘制任务轨迹。预定义手势识别,通过与手势库中手势模板相似度比较,识别用户手势,根据该识别手势确定手势画圈选择操作的起始与结束;设定投影地图任务航点,使用手点击投影地图中目标位置,该位置生成坐标标记,待所有坐标标记生成完成后,传输至无人机群;设定投影地图任务区域,使用手在投影地图填涂目标任务区域,被填涂区域高亮显示,待所有任务区域指定完成后,传输至无人机群;绘制任务航迹,使用手在投影地图绘制各无人机任务航迹,任务航迹渲染至虚拟场景,待所有任务航迹绘制完成后,传输至无人机。其有益效果包括:在用户采用手势交互完成无人机选择操作后,同样采用直观的方式指派被选中无人机的任务。无需借助任何外部工具,直接采用手在投影地图中选择任务航点或者用手在投影地图上涂抹一定范围区域作为任务执行区域。航点或者任务执行区域将发送至无人机集群进行下一步处理,由无人机具体实施;或者采用手在投影地图绘制一条或者多条航迹,交由无人机集群直接执行。该交互方式自然直观,学习成本低,无需任何专业培训即可完成无人机集群任务下达。
[0040] 进一步地,步骤S3中的手势轨迹控制在利用手势传感器所获取的位置和姿态数据之前需要进行滤波预处理,以去除信号中的噪声,采用卡尔曼滤波的方法,其实现步骤如下:
[0041] 利用前一时刻状态信息与当前时刻的测量值来对当前时间的状态进行估计。记当前时刻为k,前一时刻为k-1,则状态自回归估计方程为:
[0042] Xk=Ak·Xk-1+Bk·Uk+Wk
[0043] Zk=Hk·Xk+Vk         (8)
[0044] 其中Xk为k时刻物体的状态向量;Zk为测量结果;Hk为观测向量;Ak为状态转移矩阵,表示k-1时刻的状态如何影响k时刻的状态;Bk为控制输入矩阵,表示k时刻的输入如何影响k时刻的状态;Uk为k时刻控制过程的向量;Wk为过程噪声,Wk~N(0,Q),协方差已知;Vk为测量噪声,Vk~N(0,R),协方差已知。
[0045] 预测过程为:
[0046]
[0047]
[0048] 和Pk|k-1分别表示预测状态及其协方差, 为上一状态的最优结果,Pk-1|k-1为 对应的协方差,Qk为系统过程的协方差。
[0049] 更新过程为:
[0050]
[0051] Kk表示卡尔曼增益, 和 分别表示k时刻的状态和协方差估计,Rk为测量误差,I为单位矩阵,在单模型单测量的情况下I=1。
[0052] S4、相应的任务指令发送至现实无人机群执行。
[0053] 本发明相对于现有技术具有如下的优点及效果:
[0054] 1、本发明提供的一种面向无人机的群控交互方法,使用增强现实技术组织和展示无人机集群系统信息,相比传统二维平面GUI方式,本发明的信息展示方式利用增强现实技术的增强性,将信息映射到三维空间,并根据无人机个体对应关系组织信息,使得信息展示更加直观和高效。
[0055] 2、通过手势交互方式实现无人机的选择,用户通过人日常最基本、自然的手势方式圈选所要指定的无人机,相比传统交互方式存在的需要接受大量的训练和练习的问题,具有自然、低学习成本的特点。
[0056] 3、通过手势交互方式实现无人机任务的指派,用户能够根据实际需要通过指派任务航点、指派任务区域或指派任务航迹等方式下达任务。同样地,该交互方式采用人最基本、无需额外学习的手势交互,具有自然、低学习成本、高效的特点。附图说明
[0057] 图1是本发明实施例中的一种面向无人机的群控交互方法的系统结构示意图;
[0058] 图2是本发明实施例中的一种面向无人机的群控交互方法的流程图
[0059] 图3是增强现实虚拟场景无人机群系统综合状态与个体状态显示方式示意图;
[0060] 图4是增强现实虚拟场景示意图;
[0061] 图5是手势交互选择抽象无人机交互流程示意图;
[0062] 图6是手势交互指派无人机任务交互流程示意图。

具体实施方式

[0063] 为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0064] 实施例
[0065] 本实施例中提供一种面向无人机群控交互方法,应用于无人机集群系统的人机交互上。本实施例中无人机群系统虚拟场景通过增强现实技术显示,用户在感知现实环境同时获取虚拟场景辅助信息;用户使用手势交互方式选择虚拟场景中抽象无人机群体中的子群或者个体,被选中的抽象无人机高亮显示;需要对被选中无人机进行任务控制时,使用手势交互的方式,在虚拟场景中设定投影地图任务航点、区域或绘制任务航迹,相应的任务指令将发送至现实无人机群处执行。
[0066] 如图1所示,图1示出本实施例中一种面向无人机的群控交互方法的系统结构。面向无人机的群控交互方法的系统包括以下部分:头戴式增强现实设备、手势传感器、地面站、无人机群。
[0067] 头戴式增强现实设备:负责渲染虚拟场景和识别交互手势。通过增强现实技术,在真实环境上叠加虚拟场景,提供真实世界无法获取的辅助信息,与用户的真实视觉、听觉等结合,增强用户对真实世界的感知能力和与真实世界的交互能力。
[0068] 手势传感器:负责手势交互数据的获取和进一步的处理。基于双目摄像头深度成像,用于实现以下步骤:收集获取手部图像;对图像进行手势分割,将手势从图像背景中分割出来;建立手势模型,通过一系列的参数描述手势;提取手势特征,根据建立模型从手势中提取相应的特征参数参数,以描述不同的手势。
[0069] 地面站:无人机集群系统的通信枢纽,由任务分解与规划、航迹规划、分发通信等模组成。具有根据航点规划航迹、根据任务区域规划分解任务、分发任务指令等功能。
[0070] 无人机群:由一定数量的无人机组成的集群,执行由地面站发送的指令,同时实时返回自身状态数据。
[0071] 本实施例中基于上述无人机集群系统结构的一种面向无人机的群控交互方法的工作流程如图2所示,其包括以下具体步骤:
[0072] S1、通过增强现实技术显示无人机群系统虚拟场景,用户在感知现实环境同时获取虚拟场景辅助信息。
[0073] 在步骤S1中,首先需要配置增强现实虚拟场景中各虚拟对象。无人机群系统综合状态采用抬头显示的方式,在头戴式增强现实设备中跟随用户视线显示,在用户视野范围内固定不动,效果如战斗机飞行员头盔的参数显示;为虚拟场景中锚定显示的对象设定锚点,投影地图、各抽象无人机以及对应的无人机个体状态将相对于该锚点静止,若锚点不移动,则可认为锚定显示的虚拟对象的显示效果与现实物体对象一致,用户环绕上述虚拟对象可以如观察现实环境物体一般从不同角度观察。
[0074] 锚定显示方式由三维注册技术实现,实现方法如下:
[0075] 使用标定板测量增强现实设备摄像机内参数,实时捕捉视觉标记,最后根据锚点设置的位置计算出增强现实三维注册的坐标转换关系。根据三维注册技术坐标转换关系有:
[0076] 其中
[0077] 其中,[u v 1]T为图像平面坐标,[x y z 1]T为真实空间坐标,[ξ η 1]T为所叠加的虚拟物体的虚拟空间坐标。 为真实空间坐标系与观察空间坐标系之间的欧几里德变换,R为旋转矩阵,t为平移矩阵。O4*4为虚拟空间与真实空间坐标系之间的转换关系。 为摄像机坐标系与图像平面坐标系之间的变换矩
阵,其中ax=f×dpu′,ay=f×dpv′,ax,ay,u0,v0为摄像机的内参数。
[0078] 根据张氏标定法,平面标定板与摄像机成像图像之间的单应性映射关系如下:
[0079]
[0080] 其中H为单应性矩阵,s为缩放因子, 为真实空间坐标系平面, 为成像平面。将旋转矩阵约束代入式(2)映射关系可得到:
[0081]
[0082]
[0083] 采用摄像机拍摄三张标定板照片,根据式(3)计算得到所需摄像机内参数,最终得到摄像机坐标系与图像平面坐标系之间的关系P3*4。
[0084] 根据摄像机透视投影模型的透视投影方程有:
[0085]
[0086] 其中x′y′z′为摄像机坐标,u′v′为图像坐标。通过坐标变换C4*4将真实空间坐标系代入式(4),得到:
[0087] u′(rzxx+rzyy+rzzz+tz)-f(rxxx+rxyy+rxzz+tx)=0    (5)
[0088] u′(rzxx+rzyy+rzzz+tz)-f(ryxx+ryyy+ryzz+ty)=0
[0089] 根据旋转矩阵的正交性,得到约束式(6):
[0090]
[0091] 根据式(5)与式(6),需要摄像机拍摄视觉标志的3个特征向量(x,y,z)T即可计算出所有未知量,最终得到变换C4*4。
[0092] 又由于虚拟空间坐标系与真实空间坐标系之间的关系O4*4由应用程序定义,为已知参数。P3*4、C4*4、O4*4已知,则能算出式三维注册坐标转换关系。
[0093] 参见图3,图3示出增强现实虚拟场景无人机综合信息和个体信息显示方式。其中,环绕抽象无人机的红色文字信息为无人机个体信息,黄色文字为无人机群系统综合状态信息,其在增强现实设备视野中位置固定。
[0094] 同时,在步骤S1中,还要实现增强现实虚拟场景信息的更新。增强现实设备获取从经由地面站转发的无人机集群的状态信息,并更新增强现实虚拟场景对象的状态。根据无人机集群所在经纬度、任务目的航点等信息,投影地图调整坐标显示范围与空间尺度,更新为覆盖任务场景的信息;根据无人机回传数据,无人机系统群综合状态展示无人机集群系统级数据,包括:任务列表、当前任务状态、下一任务、预计完成时间等。个体无人机状态包括:无人机经纬度、高度、姿态、剩余电量等;根据对现实无人机回传的参数,抽象无人机经比例缩放后,按照经纬度、高度、姿态等数据在投影地图显示。
[0095] 参见图4,图4示出所述群控交互方法增强现实虚拟场景。其中,控制背景为投影地图,三台抽象无人机根据经纬度确定位置,红色大头针状物体为航点标记。
[0096] S2、用户使用手势交互方式选择虚拟场景中抽象无人机群体中的子群或者个体,被选中的抽象无人机高亮显示。
[0097] 手势交互选择抽象无人机交互流程如图5所示,包含以下步骤:当识别到用户做出手势选择抽象无人机的起始手势时,开始捕获用户手部的手掌重心的坐标,并通过转换矩阵变换到虚拟场景坐标系下,在虚拟场景中按照时间顺序连接上述手掌重心位置形成一条手势轨迹,当用户认为所画的手势轨迹已经包围了所有目标抽象无人机时,在手势轨迹的结束位置做出结束手势,结束用户的手势输入;根据用户所画手势轨迹,在虚拟场景计算生成一个胶囊状触发器,根据所画手势轨迹坐标计算触发器中心坐标、半径和长度等参数。随后通过碰撞检测算法检测该触发器与抽象无人机的碰撞情况确定是否被选中;改变被选中的抽象无人机渲染材质,在视觉上与未被选中无人机产生区分;多次重复上述步骤,直到用户选择所有目标抽象无人机为止。
[0098] 在步骤S2和S3中的预定义手势识别,必须预先定义手势库,用以确定手势交互的开始、结束、确认、取消等操作。手势库手势为静态手势,识别方式为模板匹配,其实现步骤如下:
[0099] 提取手势数据中的特征值,生成M维特征向量。使用训练手势训练模板得到模板的特征向量T={T(1),T(2),T(3),…T(M)},接着在识别阶段提取待识别手势的特征同样得到M维向量R={R(1),R(2),R(3),…R(M)},比较待识别手势的特征与预定义手势库中各手势的特征,计算两者之间的欧几里德距离:
[0100]
[0101] 当两者距离达到所定义阈值范围则识别为该手势。
[0102] S3、使用手势交互的方式对被选中无人机进行任务控制,在虚拟场景中设定投影地图任务航点、区域或绘制任务航迹。
[0103] 手势交互指派任务交互流程如图6所示,包含三种方式:分别为指派任务航点、指派任务区域和直接绘制任务航迹。
[0104] 指派任务航点方式流程为,识别到指派任务航点起始手势后,捕捉手部食指的指尖位置,通过转换矩阵变换到虚拟空间坐标系下,根据指尖坐标计算生成触发器,检测该碰撞与投影地图的碰撞情况。确定碰撞位置之后,在该位置生成一个航点标记,并将该航点的经纬度存储至航点列表中。重复上述步骤,直到用户指派完所有航点,用户做出指派任务航点结束手势结束指派航点操作。
[0105] 指派任务区域方式流程为:识别到指派任务区域起始手势后,连续捕捉手部食指的指尖位置,通过转换矩阵变换到虚拟空间坐标系下,根据指尖坐标计算生成触发器,检测该触发器与投影地图的碰撞情况。投影地图与指尖触发器发生碰撞的区域为任务区域,高亮显示,并按照一定方式对投影地图被填涂区域的经纬度坐标进行采样,存储至任务区域坐标列表中。重复上述步骤,直到用户指派完所有任务区域,用户做出指派任务区域结束手势结束指派任务区域操作。
[0106] 指派任务航迹方式流程为:识别到指派任务航迹起始手势后,连续捕捉手部食指的指尖位置,通过转换矩阵变换到虚拟空间坐标系下,根据指尖坐标计算生成触发器,检测该触发器与投影地图的碰撞情况,将碰撞坐标存储为任务航迹点。由于人体生理原因,加之传感器数据原本存在的噪声干扰,用户所画出的任务航迹往往不够平滑,存在起伏和波动,需要对任务航迹进行平滑处理,采用均值滤波的方式对所画航迹进行滤波,选择一定大小的滑动窗口,对航迹数据滤波,实现平滑曲线的效果。以指派航迹结束手势结束当前航迹的绘制。
[0107] 在步骤S3中的采用手势轨迹指派无人机任务的交互中,手势传感器获取的手势数据存在噪声的干扰,需要对手势数据预处理,采用卡尔曼滤波的方式减少噪声对识别的影响。卡尔曼滤波算法是一种随机状态自回归估计算法,能够对待检测物体的位置进行有效估计。在一些实施方式中,其中,手势轨迹控制在利用手势传感器所获取的位置和姿态数据之前需要进行滤波预处理,以去除信号中的噪声,采用卡尔曼滤波的方法,其实现步骤如下:
[0108] 利用前一时刻状态信息与当前时刻的测量值来对当前时间的状态进行估计。记当前时刻为k,前一时刻为k-1,则状态自回归估计方程为:
[0109] Xk=Ak·Xk-1+Bk·Uk+Wk
[0110] Zk=Hk·Xk+Vk        (8)
[0111] 其中Xk为k时刻物体的状态向量;Zk为测量结果;Hk为观测向量;Ak为状态转移矩阵,表示k-1时刻的状态如何影响k时刻的状态;Bk为控制输入矩阵,表示k时刻的输入如何影响k时刻的状态;Uk为k时刻控制过程的向量;Wk为过程噪声,Wk~N(0,Q),协方差已知;Vk为测量噪声,Vk~N(0,R),协方差已知。
[0112] 预测过程为:
[0113]
[0114]
[0115] 和Pk|k-1分别表示预测状态及其协方差, 为上一状态的最优结果,Pk-1|k-1为 对应的协方差,Qk为系统过程的协方差。
[0116] 更新过程为:
[0117]
[0118] Kk表示卡尔曼增益, 和 分别表示k时刻的状态和协方差估计,Rk为测量误差,I为单位矩阵,在模型单测量的情况下I=1。
[0119] S4、相应的无人机任务指令将发送至现实无人机群处执行。
[0120] 在步骤S4中,将步骤S3中所确定的无人机任务数据传输至地面站,通过地面站的通信模块分发至步骤S2中所选择的无人机处执行。
[0121] 综上所述,本发明提出一种面向无人机的群控交互方法。方法包括:无人机群系统虚拟场景通过增强现实技术显示,用户在感知现实环境同时获取虚拟场景辅助信息;用户使用手势交互方式选择虚拟场景中抽象无人机群体中的子群或者个体,被选中的无人机高亮显示;使用手势交互的方式对被选中无人机进行任务控制,在虚拟场景中设定投影地图任务航点、区域或者绘制任务航迹;相应的无人机任务指令发送至现实无人机群执行。
[0122] 本申请实施例中的信息显示方式,通过利用增强现实技术的信息增强性,扩展用户获取信息的维度。根据信息的自身属性选取不同的信息组织方式,保证了系统信息的时刻可读性和个体信息的对应性。该信息显示方式能够解决无人机集群系统信息繁多复杂而难以组织的问题。
[0123] 本实施例中的无人机选择与任务指派方式,通过预定义手势识别和手势轨迹控制,提供了一种适合于控制无人机群的自然人机交互方式,自然直观,降低了无人机集群的控制的学习成本,提升了交互效率。
[0124] 上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈