技术领域
本发明为一种无线测距全向图像组合定位系统和方法,属于图像定 位技术和无线通讯定位技术领域。用于星球表面探测机器人、数字化战 场无人作战平台的定位和导航等领域。
背景技术
目前广泛使用的一类
移动机器人定位技术是GPS,它采用若干颗定 位卫星发射定位
信号,用户设备接收卫星发射的
无线电波,并根据传输 时间确定距离,然后计算出
位置。该技术的有效性依赖于在任一时间可 用的GPS卫星的几何构型以及所接收的功率。和美国GPS一样,俄罗 斯的卫星定位
导航系统GLONASS和中国的北斗卫星定位导航系统都 可以用来实现定位。另一类移动机器人定位技术是基于无线通讯基站, 通过三
角测量原理,测量来自不同无线基站(如蜂窝
站点)信号到达的 时间差。三角测量需要来自几个基站的信息,该技术依赖与基站的数目 和基站的几何构型。在许多应用场合,上述两类系统不能提供服务,比 如,在遥远的星球表面执行探测任务的星球机器人、战争时期的军用移 动机器人、GPS非
覆盖区域中的移动机器人等,都无法得到现有卫星定 位导航服务。另外,上述两类定位系统技术也很难满足多移动机器人协 同作业的高
精度定位要求。因此,需要发明不依赖于卫星定位导航系统 和无线通讯基站的高精度定位系统和方法。
美国Stanford大学提出一种不依赖于卫星定位导航系统的定位技 术,称为“准卫星”(pseudo-satellite)定位导航技术。该技术主要用 于星球探测移动机器人定位和导航,基本原理类似地球卫星定位导航系 统的工作原理,将无线收发装置布置在星球表面上,通过三角测量原理 确定移动机器人的位置。这种技术需要复杂的定位
算法,并且至少需要 三个分布在不同位置的收发装置才能确定移动机器人的位置。
基于无线
传感器网络(WSN)建立的定位和导航技术也是一类不依 赖卫星定位导航系统和无线通讯基站的定位系统和方法。这种技术通过 在监控区域布置大量的无线传感器
节点,来确定移动机器人在监控区域 的位置,并实现定位与导航任务。使用
无线传感器网络实现移动机器人 定位的方法有两种,一种是测量无线传感器网络各个节点之间的距离来 定位,另一种是基于RFID(Radio Frequency Identification)标签技 术(即
电子标签技术)来定位。
本发明基于全向成像装置实时获取周围360°场景图像的特性,在 全向图像中准确检测移动节点在场景中相对于固定节点的方位,采用一 对无线收发器组成的无线测距装置,测量移动节点与固定节点之间的距 离,实现移动节点在场景中的完全自主定位。
发明内容
本发明的目的是:第一提供一种无线测距全向图像组合定位系统, 不依赖于GPS、无线蜂窝基站,使用一对无线收发器和一个全向成像装 置,实现移动机器人完全自主的精确定位和导航;第二通过全向图像实 现整个区域的实时视频监控,包括移动机器人的状态、多移动机器人之 间的位置关系、
人机交互操作界面等;第三通过全向图像信息、成像装 置系统参数、移动机器人在场景中的一些位置坐标,计算整个监控区域 的网格化坐标,为移动机器人路径规划和任务规划提供数字化地图。
本发明的目的是通过下述技术方案实现的:
本发明的系统由固定节点和移动节点组成。固定节点包括全向成像 装置和无线收发器,并装在固定
支架上。固定支架的作用是固定全向成 像装置和无线收发器,根据需要适当调整成像装置和无线收发器的高度 和
姿态,以便更好地获取周围场景图像和更好地实现无线通讯与测量, 全向成像装置的摄像机光轴可以与星球表面垂直。移动节点包含移动机 器人、无线收发器和合作
光源。
本发明的一种无线测距全向图像组合定位方法是:
(1)全向成像装置实时获取周围360°的场景全向图像,以全向图 像中心为极点,建立极
坐标系,移动节点在图像中的位置用极坐标(ρ, θ)表示,如图3所示。极径ρ通过固定节点上的无线收发器和移动节 点上的无线收发器组成的无线测距装置来测量,极角θ通过全向图像来 测量。移动节点位于全向图像中,极角θ就是移动机器人在全向图像中 的位置与全向图像中心形成的方位角。
(2)全向成像装置可以实时获取周围场景360°的全向图像,将全 向图像传输到中央控制站,可以实时监视以固定节点为中心的一定距离 范围内的场景状态,监视场景中移动机器人运动状态、移动机器人与场 景的作用状态、多移动机器人之间的位置关系等。
(3)移动机器人在全向成像装置视场中,绕固定节点运动一圈, 同时记录运动轨迹坐标(ρ,θ),通过运动轨迹坐标(ρ,θ)和定位系统 参数,计算整个场景图像各个
像素点对应的极坐标,实现全场景数字化。 将场景全向图像网格化,计算各个网格对应的极坐标,生成网格化场景亮 度图像或彩色图像,如图5所示。
(4)移动机器人在复杂的场景中,因此不容易从全向图像中准确 检测出移动机器人。在移动机器人上安装一种合作光源,合作光源在全 向图像中有着非常明显的
亮度变化;另外,合作光源可以由固定节点进 行远距离无线控制发光,有效提高检测的鲁棒性和可靠性。
(5)在平坦区域中,全向成像装置中
心轴与地表面或星球表面垂 直,则全向图像是均匀线性的。实际上,在安放固定节点时,很难做到 中心轴垂直地表面,此时各个方向的图像
分辨率是不同的。根据移动机 器人的运动轨迹坐标、移动机器人自身的
里程计参数、成像系统参数等 对全向图像实现校正处理,使得全向图像各向分辨率均匀。
(6)对网格化场景图像进行分析,对场景中的各种有价值的目标进 行标注,包括
岩石、
沙坑、河沟等。根据移动机器人或数字化士兵的工 作任务,在标注的网格化场景图像上进行路径规划和任务规划。
(7)在场景中,许多任务需要多个机器人共同完成,比如,跨越 河沟、维修受损机器人、搭建实验平台等。多个机器人集结到某一区域, 进行协同作业、协同操作、接
力传递等,都需要在网格化场景图像上标 明行动路径、合作地点、机器人兵力分布等,如图6所示。
(8)每一个定位系统的控制范围是有限的,如果机器人的活动区 域要扩大,则可以采用多个定位系统级联,即一个定位系统控制区域(或 可视区域)与另一个定位系统控制区域之间有一定重叠,在重叠区域进 行控制交接,使得控制区域得到成倍扩大,扩大了系统
可视化和监控范 围,扩大了移动机器人的工作范围。图7是三个固定节点级联组成一个 大的监控区域。级联系统可以采用睡眠机制,当固定节点控制区域内没 有监控任务时,就处于睡眠状态,可以节约能耗。
本发明的优点在于:
(1)定位系统实现简单。仅采用全向图像传感器和一对无线收发 器就可实现移动机器人的完全自主定位和导航,不依赖
卫星导航系统、 无线基站、多传感器网络等复杂系统。
(2)实时全向视频监控。本发明在实现定位、导航、规划的同时, 能够通过全景视频实时监控场景,监视移动机器人的工作状态、运动状 态及其与场景其他目标之间的关系,建立全场景的态势图,实现合理的 调度。
(3)高精度定位与导航。本发明定位精度可以小于1米,集成移 动机器人上的
立体视觉、惯性导航、里程计等多传感信息,定位精度能 达到厘米级。
(4)定位系统级联灵活、容易。将多个定位系统级联,使得控制 区域得到成倍扩大,扩大了系统可视化和监控范围,扩大了移动机器人 的工作范围。
附图说明
图1-本发明系统组成图;
图2-全向图像实例;
图3-图2所示全向图像展开图;
图4-全向图像示意图;
图5-场景极坐标网络化图;
图6-两个移动机器人在全向图像中的位置关系;
图7-多个系统级联示意图;
图中:1-固定节点,2-移动节点,3-全向成像装置,4-无线发 射/接收装置,5-支架,6-移动机器人,7-合作光源,8-星球表面, 9-全向成像装置垂直视场张角,10-全向成像装置成像盲角。
具体实施方式
下面结合附图和
实施例对本发明作进一步说明。
实施例
本发明的系统是由固定节点1和移动节点2组成。固定节点1由全 向成像装置3和无线收发器4组成,并装在支架5上。支架5的作用是 固定全向成像装置3和无线收发器4。可根据需要适当调整成像装置3 和无线收发器4的高度和姿态,以便更好地获取周围场景图像和更好地 实现无线通讯与测量,如图1所示。通常全向成像装置3的摄像机光轴 与星球表面8垂直。
全向成像装置3实时获取周围场景360°全向图像,全向成像装置3 垂直视场角9一般在90°左右,朝向星球表面的成像盲区10在30°左右, 如果成像支架5高3米,则盲区10为直径不到2米的圆斑,对于工作 在几十米到上百米的区域,是可以接受这一盲区,图2是一个实验室全 向图像,全向成像装置放置在实验室中央,距地面3米高,图像中心黑 色圆斑是盲区;图3是该全向图像的展开图像,是从图像下半部中线展 开的。展开图像类似普通摄像机在实验室中央环绕360°拍摄一系列图 像,并将图像拼接起来后的全景图像。
为了可靠准确的检测全向图像中的移动机器人6的位置,在移动机 器人6上装有合作光源7。合作光源7的发光
频率峰值不同于太阳发光 频率峰值。合作光源7可以和成像装置形成应答控制方式。
以全向图像的中心为极点,建立极坐标系,其中极轴可以预先根据 系配置确定,也可以根据环境标志或星光图确定。图4是一种极坐标设 置图,极坐标中心为全向图像中央的盲圆斑中心。
移动机器人6上的合作光源7在全向图像中表现为十分显著的光 斑,检测出光斑,并计算光斑中心。定义光斑中心为移动机器人6在全 向图像中的位置。光斑中心在极坐标系中的极角为移动机器人的方位 角。
安装在移动机器人6上的无线收发器4和固定节点1上的无线收发 器4组成无线测距装置,测量移动机器人6与固定节点1之间的距离, 这样就得到了移动机器人6在极坐标中的坐标。
本发明的一个重要特征是使用全向成像装置3,该装置由视频摄像 机和曲面镜头组成,全向成像装置已经是商品化的产品。由于有视频摄 像机,因此,全向成像装置3能以视频速度获取整个场景图像或视频图 像(类似图2),将该图像传输到中央站控制站,并进行校正展开处理 和分辨率增强处理(类似图3),实现场景的实时监控。
定位系统具体工作过程如下:
固定节点1和移动节点2可以人工布置在控制区域,如警戒区域、 防御区等人员可以到达的区域,布置的固定节点1的个数和移动节点2 的个数可以根据具体任务确定。对于人员难以到达的地方,通过发射方 式布散,如远距离作战区域、星球探测区域等。
在远距离中央控制站的控制下,固定节点1调整全向成像装置3 和无线收发器4的高度和姿态,并启动全向成像装置3获取场景全向图 像,根据全向图像,微调全向成像装置3,使其工作在最佳状态。在全 向图像上建立极坐标系,极点为全向图像盲区的中心点,极轴是预先设 定的方位或根据星光方向确定。启动移动机器人6和合作光源7开始工 作,全向成像装置3获取合作光源7的图像,确定合作光源7在全向图 像中的位置,也就是移动机器人6在图像中的位置,该位置与极轴的夹 角,即为极角θ。启动固定节点1和移动节点2上的无线收发器4工作, 通过一对无线收发器4测量固定节点1和移动节点2的距离,即为极径 ρ。将全向图像网格化,移动机器人6在场景中遍历运动,得到每一个 网格中心的极坐标,形成网格化场景图像;也可以围绕固定节点1运动 一周,得到运动轨迹上所有点的极坐标(ρ,θ),然后根据极坐标(ρ, θ)和定位系统参数计算出每一个网格中心的极坐标。
在网格化场景全景图像上,中央控制站根据场景的态势和预定任 务,确定移动机器人6行走路径;移动机器人6也可以根据预定任务和 场景的态势进行路径规划和任务规划。全向成像装置3获取场景视频, 并传送到中央控制站;移动机器人6在场景中的任何运动和行为,都可 以通过全向视频图像进行监控。对于星球探测来讲,得到的图像或视频 要延迟几十秒到几十分钟。
当移动机器人6运动范围超出固定节点1的监控范围时,此时启动 相邻的固定节点1开始接应。相邻固定节点1的控制范围和上一个固定 节点1控制范围有一定重叠,交接过程在重叠区进行。交接信息由上一 个固定节点1发出,也可以由移动机器人6发出,类似于航空雷达测控 机制。