首页 / 专利库 / 人工智能 / 机器人视觉 / 机器人分布式表征智能语义地图创建方法

机器人分布式表征智能语义地图创建方法

阅读:100发布:2020-12-08

专利汇可以提供机器人分布式表征智能语义地图创建方法专利检索,专利查询,专利分析的服务。并且机器人 分布式表征智能语义地图创建方法。首先,机器人遍历室内环境,采用基于拓展卡尔曼滤波 算法 的视觉 定位 方法和基于边界虚拟标签算法的 射频识别 系统分别对机器人和带有快速识别码的人工路标进行定位,建立度量层;然后,利用最小二乘法优化 采样 点坐标,并且使用自适应谱聚类方法对定位结果进行分类,建立拓扑层;最后,根据摄像机快速识别的QR code语义信息,更新地图的语义属性,建立语义层。本 发明 在对室内环境中物体状态进行检测时,采用带有QR code的人工路标,大大提高了语义地图创建的效率,降低了创建的难度;同时采用QR code与RFID技术相结合的方法,提高了机器人定位的精确度和地图创建的可靠度。,下面是机器人分布式表征智能语义地图创建方法专利的具体信息内容。

1.室内环境下机器人分布式表征语义地图创建方法,其特征在于:该方法包括以下步骤,
步骤1:采集环境图像,实现机器人视觉定位
步骤1.1,移动机器人通过双目视觉传感器采集环境图像,获取人工路标集合;
步骤1.2,考虑到极几何约束,基于三测量原理,利用视差法获取图像中人工路标的深度信息,并计算该路标的全局坐标;
步骤1.3,通过拓展卡尔曼滤波算法,对机器人位姿及人工路标的位置进行定位;
步骤2:利用RFID系统进行机器人接收信号强度值定位;
步骤2.1,根据实际参考标签的坐标和阅读器读取的RSS值,求取虚拟参考标签的坐标值和RSS值;
选用对数距离路径损耗模型表述虚拟参考标签与实际参考标签上的能量差值随两者距离的变化,获取虚拟标签的RSS值;
步骤2.2,基于边界虚拟标签算法确定目标标签的坐标值;
根据目标标签和参考标签RSS值的差来选取最近邻标签;设定阈值,构建模糊地图;对于目标标签来说,由于每个阅读器都有自己对应的一个模糊地图,将多个模糊地图求取交集可以求得最近邻参考标签,从而确定目标标签的坐标;
步骤3:修正机器人的全局坐标值,并利用自适应谱聚类算法进行地图划分;
步骤3.1:修正机器人及人工路标的坐标值;
根据视觉传感器和RFID系统获得的机器人坐标值,利用最小二乘法(Least Square,LS)对两者进行修正,得到更加准确的机器人全局坐标值;
步骤3.2:利用自适应谱聚类算法,将修正后的机器人坐标集合进行拓扑层划分;
步骤4:语义信息更新;
步骤4.1:机器人判断视界中的红色圆形区域,并利用椭圆拟合方法快速识别和读取QRcode中的语义信息;
步骤4.2:根据QR code中的语义信息,将机器人观测点和相应物品之间进行关联,每个子集的语义拓扑地图可以实时更新;
步骤4.3:根据更新的语义信息实时修正拓扑层子地图分类,直至机器人完成遍历性扫描。
2.根据权利要求1所述的室内环境下机器人分布式表征语义地图创建方法,其特征在于:该方法的具体实施流程如下步骤,
步骤1:采集环境图像,实现机器人视觉定位;
步骤1.1,移动机器人通过双目视觉传感器采集环境图像,获取人工路标集合;
步骤1.2,考虑到极几何约束,基于三角测量原理,利用视差法获取图像中人工路标的深度信息,并计算该路标的全局坐标;
(1)移动机器人具有两个独立的驱动车轮,并在机身上装备双目摄像机;基于几何学,可以获得:


其中,dt表示目标的深度信息,f为焦距,两个摄像头之间的基准宽度是L,目标与光学中心线的距离为D1和D2,目标与投影距离为d1和d2;
(2)在机器人坐标系中,目标的坐标ml-vision’可以描述为:

(3)显然,全局坐标系中,其坐标ml-vision可以表示如下:

其中,mr-vision表示机器人在全球坐标系中的位置,θ为机器人坐标系相对全局坐标系的偏转角度;
步骤1.3,通过EKF算法,对机器人位姿及人工路标的位置进行定位;
(1)初始化机器人的位置状态和误差协方差矩阵,根据当前时间k的位置,可以估计下一时刻k+1的位置:

P(k+1/k)=F(k)P(k/k)F(k)T+Q(k)
其中, 表示机器人位置估计值,f为状态传递函数,P表示误差协方差矩阵,Q为噪声协方差矩阵,F是f的雅可比矩阵;
(2)利用机载双目视觉摄像机观测人工路标的位置信息,并利用机器人位置估计值和地标的观测值ml-vision来预测观测估计;

其中,表示观测估计值,h为观测传递函数;
(3)新息及其协方差矩阵可以表示为:

S(k+1)=H(k)P(k+1/k)H(k)T+R(k)
其中,γ表示新息值,z为实际观测值,S表示新息协方差矩阵,R为噪声协方差矩阵,H是h的雅可比矩阵;
(4)增益矩阵、机器人位置状态和它的协方差矩阵可以更新如下:
W(k+1)=P(k+1/k)HTS-1(k+1)

P(k+1/k+1)=(I-W(k+1)H(k))P(k+1/k)
其中,W表示增益矩阵,w表示各采样点的增益值,I表示单位矩阵;
在全局扫描结束后,基于视觉传感器的机器人同步定位与度量层地图构建即完成;
步骤2:利用RFID系统进行机器人RSS定位;
步骤2.1,根据实际参考标签的坐标和阅读器读取的RSS值,求取虚拟参考标签的坐标值和RSS值;
将每4个参考标签作为顶点形成一个单元网格,对每个网格做N*N的划分,添加网格虚拟参考标签,根据实际参考标签位置坐标可求得网络虚拟参考标签的坐标;
(1)选用对数距离路径损耗模型获取虚拟标签的RSS值:

其中,P(dij)表示虚拟标签的RSS值,P0表示实际参考标签的RSS值,dij、d0分别表示虚拟标签和实际参考标签与阅读器的距离,ξij表示噪声,n为路径损耗指数;室内各特定位置的路径损耗指数n是不同的,需要进行实时的测量,影响室内定位的及时性;
(2)采用参考标签来实现动态测量路径损耗指数n,提高室内定位的准确度;即在得到两条靠近待定位标签路径的路径损耗后,可以根据待定位标签与阅读器构成的直线和参考标签与阅读器构成的直线之间的角度求取权值进行加权:

其中,n1、n2分别为两条靠近待定位标签路径的路径损耗指数,θ1、θ2为两者与带定位路标的夹角;
步骤2.2,基于BVIRE算法确定目标标签的坐标值;
(1)根据目标标签和参考标签RSS值的差来选取最近邻标签;设定阈值,构建模糊地图;
对于目标标签来说,由于每个阅读器都有自己对应的一个模糊地图,将多个模糊地图求取交集可以求得最近邻参考标签,从而确定目标标签的坐标:


其中,mlRFID、mrRFID为通过RFID系统获取的人工路标和机器人坐标值,na为各阅读器获得的坐标信息总数;wi为权值,可通过下式计算:

其中,Sk(Ti)表示第K个阅读器读到的(i,j)位置上的场强值,na为整个区域内选出的最近邻参考标签的数量,nci与邻近参考标签i连接在一起的区域的个数;
通过上述算法,可以实现基于RFID的机器人室内定位和度量层地图创建;
步骤3:修正机器人的全局坐标值,并利用自适应谱聚类算法进行地图划分;
步骤3.1:修正机器人及人工路标的坐标值;
根据视觉传感器和RFID系统获得的机器人坐标值,利用LS方法对两者进行修正,得到更加准确的机器人全局坐标值;
(1)以人工路标为例,视觉定位和RFID定位的的线性校正为:
ml=αmlRFID+(1-α)ml-vision
其中,ml为修正的人工路标坐标值,α为修正参数;
人工路标的定位误差可表示为:

其中,e为定位误差,(x0,y0)为初始坐标值;
(2)基于LS方法,要使得定位误差为极小值,则e'=0;参数α可以计算为:

由上式可以得到纠正后人工路标的坐标;同理可以获得机器人观测点坐标的校正结果;
步骤3.2:利用自适应谱聚类算法,将修正后的机器人坐标集合进行拓扑层划分;
(1)设将无向加权图G分成两个子图A和B,且A∪B=V,A∩B=f;根据谱图理论建立规范割目标函数:

其中,Ncut(A,B)为规范割目标函数,cut(A,B)、cut(B,A)表示图G分成两个子图A和B的代价函数,asso(A,V)、asso(B,V)分别为A、B中各节点与所有节点连接权值总和;
其中:


其中,w(u,v),w(u,t)表示各节点的连接权值;
(2)最小化Ncut值即获得最理想的组划分:

这种分组的本质是使得大集合V下的两个小集合A,B的元素对对方的影响最小化,即实现了基于谱聚类的区分算法;
(3)基于BVIRE算法的RFID信息和QR code识别信息进行不同位姿下的环境特征匹配;
根据传感空间交叠情况设置节点间连线的权值w,两个观测节点i、j对应的匹配程度超过某一阈值K,则认为两节点相似,否则判定两节点无关;
(4)确定所有节点间的权值,形成对称相似矩阵W;将相似矩阵的每行元素相加,即得到该顶点的度di,以所有度值为对角元素构成度矩阵,用D表示;其中Dii=di;

其中,x表示谱聚类样本;
(5)将x松弛到连续域[-1,1],求解minNcut(A,B)的问题转化为:

上式的优化问题等于求解下列等式的第二小特征值问题:(D-W)x=λDx;其中,λ表示其特征值;与第二小特征值对应的特征向量就包含图的划分信息;基于此特征向量对节点进行组划分,最终获得全局拓扑地图;
步骤4:语义信息更新;
步骤4.1:机器人判断视界中的红色圆形区域,并利用椭圆拟合方法快速识别和读取QRcode中的语义信息;
(1)在其外围设定红色圆形识别圈,方便机器人在距离较远时准确找到QR code,进而靠近它并扫描;
(2)机器人到达距离值后,机器人实时检测机载摄像机采集的图像信息中是否存在红色区域;检测到红色区域后利用椭圆拟合确定图像中是否存在椭圆,即可确定视野中存在人工地标;
(3)依据视野中人工地标的外层椭圆轮廓控制机器人运动,调整机器人与人工地标之间的距离,使之到达QR Code的识读距离阈值之内;期间须时刻保证检测到的椭圆轮廓处于摄像机视野的中间区域;调整策略为将机载摄像机视野做3*3分割,从左到右从上到下依次为1到9区;当椭圆的中心处于不同区域时,采取相应的运动控制方式;例如,当椭圆中心在1区即左上方时,机器人应向左转,同时向前行进;当椭圆中心在6区即右侧时,机器人应向右转;
步骤4.2:根据QR code中的语义信息,将机器人观测点和相应物品之间进行关联,每个子集的语义拓扑地图可以实时更新;
步骤4.3:根据更新的语义信息实时修正拓扑层子地图分类,直至机器人完成遍历性扫描;QR code人工路标中写入了编号、名字、功能和所属区域等信息;机器人在观测图像中读取QR code,并立即向数据库添加语义信息;当机器人进行全局扫描时,将机器人观测点和相应物品之间进行关联,从而每个子集的语义拓扑地图可以实时更新;数据库中存储着所有大物体的语义信息,以及根据QR code中的信息实现的拓扑地图的语义分类。

说明书全文

机器人分布式表征智能语义地图创建方法

技术领域

[0001] 本发明属于移动机器人导航技术领域,涉及一种室内环境下面向移动机器人同步定位与地图构建(Simultaneous Localization and Mapping,SLAM)问题的机器人分布式表征智能语义地图创建方法。

背景技术

[0002] 近年来,随着移动机器人在服务、探测、物流等领域的广泛应用,SLAM问题受到了学术界及工程界的密切关注,被视为移动机器人实现完全智能化的关键。
[0003] 然而,大部分的SLAM研究仍停留在机器人自身的定位和物理环境的重建上,没有涉及到机器人与人的交互,这使得机器人无法完成人类语义命令,大大限制了机器人的工作职能,降低了工作效率。事实上,室内办公环境存在多种带有语义信息的大物体,当移动机器人在室内办公环境中工作时,机器人需要获得复杂工作环境的区域信息和全局信息,创建具有语义信息的全局地图,实现与人类的语义交互,协助人类完成多种复杂工作。因此,一个有效的室内环境下移动机器人精确定位和智能语义地图构建方法具有重要的理论意义及应用价值。
[0004] C.Nieto-Granda等人利用高斯区域分析方法,将环境特征按照概率进行划分,从而实现了基于语义的地图划分;而H.Wu等人提出利用快速识别码(Quick Response Code,QR code)存储环境信息,机器人通过视觉传感器来捕获信息,进而确定空间语义关系。然而,前者只考虑了自然路标,在室内工作环境中,一般缺少易于捕获的自然环境特征,故无法解决自然路标稀疏带来的问题;而后者虽然考虑到了自然路标稀疏,辅以QR code来表述环境,但视觉传感器容易受到视和距离的限制,且在大物体阻挡情况下会失效,进而导致定位精度下降,影响语义地图构建的可靠性。

发明内容

[0005] 针对移动机器人在室内办公环境下难以获取语义信息、完成语义命令的问题,提供一种面向移动机器人SLAM问题的分布式表征智能语义地图创建方法,机器人在环境中进行遍历式扫描时,利用视觉传感器和射频识别系统(Radio Frequency Identification,RFID)联合定位,同时获取大物体上的QR code信息,将室内环境按照功能进行划分与语义更新,既提高机器人定位的准确性,又实现了语义地图的构建。
[0006] 室内环境下机器人分布式表征语义地图创建方法,包括以下步骤:
[0007] 步骤1:采集环境图像,实现机器人视觉定位。
[0008] 步骤1.1,移动机器人通过双目视觉传感器采集环境图像,获取人工路标集合。
[0009] 步骤1.2,考虑到极几何约束,基于三角测量原理,利用视差法获取图像中人工路标的深度信息,并计算该路标的全局坐标。
[0010] 步骤1.3,通过拓展卡尔曼滤波(Extended Kalman Filter,EKF)算法,对机器人位姿及人工路标的位置进行定位。
[0011] 步骤2:利用RFID系统进行机器人接收信号强度值(Received Signal Strength,RSS)定位。
[0012] 步骤2.1,根据实际参考标签的坐标和阅读器读取的RSS值,求取虚拟参考标签的坐标值和RSS值。
[0013] 选用对数距离路径损耗模型表述虚拟参考标签与实际参考标签上的能量差值随两者距离的变化,获取虚拟标签的RSS值。
[0014] 步骤2.2,基于边界虚拟标签(Boundary Virtual Labels,BVIRE)算法确定目标标签(机器人和人工路标)的坐标值。
[0015] 根据目标标签和参考标签RSS值的差来选取最近邻标签。设定阈值,构建模糊地图。对于目标标签来说,由于每个阅读器都有自己对应的一个模糊地图,将多个模糊地图求取交集可以求得最近邻参考标签,从而确定目标标签的坐标。
[0016] 步骤3:修正机器人的全局坐标值,并利用自适应谱聚类算法进行地图划分。
[0017] 步骤3.1:修正机器人及人工路标的坐标值。
[0018] 根据视觉传感器和RFID系统获得的机器人坐标值,利用最小二乘法(Least Square,LS)对两者进行修正,得到更加准确的机器人全局坐标值。
[0019] 步骤3.2:利用自适应谱聚类算法,将修正后的机器人坐标集合进行拓扑层划分。
[0020] 步骤4:语义信息更新。
[0021] 步骤4.1:机器人判断视界中的红色圆形区域,并利用椭圆拟合方法快速识别和读取QR code中的语义信息。
[0022] 步骤4.2:根据QR code中的语义信息,将机器人观测点和相应物品之间进行关联,每个子集的语义拓扑地图可以实时更新。
[0023] 步骤4.3:根据更新的语义信息实时修正拓扑层子地图分类,直至机器人完成遍历性扫描。
[0024] 与现有技术相比,本发明具有以下有益效果:
[0025] 一方面,本发明在室内地图进行构建时,采用视觉定位与RFID定位相结合的方法,解决了摄像机视界局限和障碍物阻挡等问题,提高了机器人定位的精度;另一方面,考虑了室内环境下可辨识环境路标缺失带来的语义地图构建困难,采用QR code技术表述环境语义特征,提高了语义地图构建的准确度,为实现人机交互和机器人完成语义命令打下良好的基础附图说明
[0026] 图1是本发明所涉及方法的框架结构图;
[0027] 图2是本发明机载双目视觉传感器机器人模型示意图;
[0028] 图3是本发明RFID系统示意图;
[0029] 图4是基于视觉和RFID联合定位的算法流程图
[0030] 图5是本发明中采用QR code人工路标的示意图;
[0031] 图6是机器人分布式表征智能语义地图创建算法图;
[0032] 图7是机器人定位结果图;(a)为视觉定位结果,(b)为RFID定位结果;
[0033] 图8是LS法修正结果图;
[0034] 图9是本发明中基于语义信息的移动机器人的语义地图划分仿真结果图;(a)为期望结果,(b)为仿真聚类结果。

具体实施方式

[0035] 以下结合附图对本发明作进一步详细说明。
[0036] 如图1-9所示,本发明所涉及方法的框架结构如图1所示,包括以下步骤:
[0037] 步骤1:采集环境图像,实现机器人视觉定位。
[0038] 步骤1.1,移动机器人通过双目视觉传感器采集环境图像,获取人工路标集合。
[0039] 步骤1.2,考虑到极几何约束,基于三角测量原理,利用视差法获取图像中人工路标的深度信息,并计算该路标的全局坐标。
[0040] (1)移动机器人具有两个独立的驱动车轮,并在机身上装备双目摄像机,机器人模型示意图如图2所示。基于几何学,可以获得:
[0041]
[0042]
[0043] 其中,dt表示目标的深度信息,f为焦距,两个摄像头之间的基准宽度是L,目标与光学中心线的距离为D1和D2,目标与投影距离为d1和d2。
[0044] (2)在机器人坐标系中,目标的坐标ml-vision’可以描述为:
[0045]
[0046] (3)显然,全局坐标系中,其坐标ml-vision可以表示如下:
[0047]
[0048] 其中,mr-vision表示机器人在全球坐标系中的位置,θ为机器人坐标系相对全局坐标系的偏转角度。
[0049] 步骤1.3,通过EKF算法,对机器人位姿及人工路标的位置进行定位。
[0050] (1)初始化机器人的位置状态和误差协方差矩阵,根据当前时间k的位置,可以估计下一时刻k+1的位置:
[0051]
[0052] P(k+1/k)=F(k)P(k/k)F(k)T+Q(k)
[0053] 其中, 表示机器人位置估计值,f为状态传递函数,P表示误差协方差矩阵,Q为噪声协方差矩阵,F是f的雅可比矩阵。
[0054] (2)利用机载双目视觉摄像机观测人工路标的位置信息,并利用机器人位置估计值 和地标的观测值ml-vision来预测观测估计。
[0055]
[0056] 其中,表示观测估计值,h为观测传递函数。
[0057] (3)新息及其协方差矩阵可以表示为:
[0058]
[0059] S(k+1)=H(k)P(k+1/k)H(k)T+R(k)
[0060] 其中,γ表示新息值,z为实际观测值,S表示新息协方差矩阵,R为噪声协方差矩阵,H是h的雅可比矩阵。
[0061] (4)增益矩阵、机器人位置状态和它的协方差矩阵可以更新如下:
[0062] W(k+1)=P(k+1/k)HTS-1(k+1)
[0063]
[0064] P(k+1/k+1)=(I-W(k+1)H(k))P(k+1/k)
[0065] 其中,W表示增益矩阵,w表示各采样点的增益值,I表示单位矩阵。
[0066] 在全局扫描结束后,基于视觉传感器的机器人同步定位与度量层地图构建即完成。
[0067] 步骤2:利用RFID系统进行机器人RSS定位。
[0068] 步骤2.1,根据实际参考标签的坐标和阅读器读取的RSS值,求取虚拟参考标签的坐标值和RSS值。
[0069] 将每4个参考标签作为顶点形成一个单元网格,对每个网格做N*N的划分,添加网格虚拟参考标签,根据实际参考标签位置坐标可求得网络虚拟参考标签的坐标。
[0070] (1)选用对数距离路径损耗模型获取虚拟标签的RSS值:
[0071]
[0072] 其中,P(dij)表示虚拟标签的RSS值,P0表示实际参考标签的RSS值,dij、d0分别表示虚拟标签和实际参考标签与阅读器的距离,ξij表示噪声,n为路径损耗指数。室内各特定位置的路径损耗指数n是不同的,需要进行实时的测量,影响室内定位的及时性。
[0073] (2)采用参考标签来实现动态测量路径损耗指数n,提高室内定位的准确度。即在得到两条靠近待定位标签路径的路径损耗后,可以根据待定位标签与阅读器构成的直线和参考标签与阅读器构成的直线之间的角度求取权值进行加权:
[0074]
[0075] 其中,n1、n2分别为两条靠近待定位标签路径的路径损耗指数,θ1、θ2为两者与带定位路标的夹角。
[0076] 步骤2.2,基于BVIRE算法确定目标标签(机器人和人工路标)的坐标值。
[0077] (1)根据目标标签和参考标签RSS值的差来选取最近邻标签。设定阈值,构建模糊地图。对于目标标签来说,由于每个阅读器都有自己对应的一个模糊地图,将多个模糊地图求取交集可以求得最近邻参考标签,从而确定目标标签的坐标:
[0078]
[0079]
[0080] 其中,mlRFID、mrRFID为通过RFID系统获取的人工路标和机器人坐标值,na为各阅读器获得的坐标信息总数。wi为权值,可通过下式计算:
[0081]
[0082] 其中,Sk(Ti)表示第K个阅读器读到的(i,j)位置上的场强值,na为整个区域内选出的最近邻参考标签的数量,nci与邻近参考标签i连接在一起的区域的个数。
[0083] 通过上述算法,可以实现基于RFID的机器人室内定位和度量层地图创建。
[0084] 步骤3:修正机器人的全局坐标值,并利用自适应谱聚类算法进行地图划分。
[0085] 步骤3.1:修正机器人及人工路标的坐标值。
[0086] 根据视觉传感器和RFID系统获得的机器人坐标值,利用LS方法对两者进行修正,得到更加准确的机器人全局坐标值。
[0087] (1)以人工路标为例,视觉定位和RFID定位的的线性校正为:
[0088] ml=αmlRFID+(1-α)ml-vision
[0089] 其中,ml为修正的人工路标坐标值,α为修正参数。
[0090] 人工路标的定位误差可表示为:
[0091]
[0092] 其中,e为定位误差,(x0,y0)为初始坐标值。
[0093] (2)基于LS方法,要使得定位误差为极小值,则e'=0。参数α可以计算为:
[0094]
[0095] 由上式可以得到纠正后人工路标的坐标。同理可以获得机器人观测点坐标的校正结果。
[0096] 步骤3.2:利用自适应谱聚类算法,将修正后的机器人坐标集合进行拓扑层划分。
[0097] (1)设将无向加权图G分成两个子图A和B,且A∪B=V,A∩B=f。根据谱图理论建立规范割目标函数:
[0098]
[0099] 其中,Ncut(A,B)为规范割目标函数,cut(A,B)、cut(B,A)表示图G分成两个子图A和B的代价函数,asso(A,V)、asso(B,V)分别为A、B中各节点与所有节点连接权值总和。
[0100] 其中:
[0101]
[0102]
[0103] 其中,w(u,v)、w(u,t)表示各节点的连接权值。
[0104] (2)最小化Ncut值即获得最理想的组划分:
[0105]
[0106] 这种分组的本质是使得大集合V下的两个小集合A,B的元素对对方的影响最小化,即实现了基于谱聚类的区分算法。
[0107] (3)基于BVIRE算法的RFID信息和QR code识别信息进行不同位姿下的环境特征匹配。根据传感空间交叠情况设置节点间连线的权值w,两个观测节点i、j对应的匹配程度超过某一阈值K,则认为两节点相似,否则判定两节点无关。
[0108] (4)确定所有节点间的权值,形成对称相似矩阵W。将相似矩阵的每行元素相加,即得到该顶点的度di,以所有度值为对角元素构成度矩阵(对角矩阵),用D表示。其中Dii=di。
[0109]
[0110] 其中,x表示谱聚类样本。
[0111] (5)将x松弛到连续域[-1.1],求解minNcut(A,B)的问题转化为:
[0112]
[0113] 上式的优化问题等于求解下列等式的第二小特征值问题:(D-W)x=λDx。其中,λ表示其特征值。与第二小特征值对应的特征向量就包含图的划分信息。基于此特征向量对节点进行组划分,最终获得全局拓扑地图。
[0114] 步骤4:语义信息更新。
[0115] 步骤4.1:机器人判断视界中的红色圆形区域,并利用椭圆拟合方法快速识别和读取QR code中的语义信息。
[0116] (1)在其外围设定红色圆形识别圈,方便机器人在距离较远时准确找到QR code,进而靠近它并扫描。
[0117] (2)机器人到达距离值后,机器人实时检测机载摄像机采集的图像信息中是否存在红色区域。检测到红色区域后利用椭圆拟合确定图像中是否存在椭圆,即可确定视野中存在人工地标。
[0118] (3)依据视野中人工地标的外层椭圆轮廓控制机器人运动,调整机器人与人工地标之间的距离,使之到达QR Code的识读距离阈值之内。期间须时刻保证检测到的椭圆轮廓处于摄像机视野的中间区域。调整策略为将机载摄像机视野做3*3分割,从左到右从上到下依次为1到9区。当椭圆的中心处于不同区域时,采取相应的运动控制方式。例如,当椭圆中心在1区(左上方)时,机器人应向左转,同时向前行进;当椭圆中心在6区(右侧)时,机器人应向右转。
[0119] 步骤4.2:根据QR code中的语义信息,将机器人观测点和相应物品之间进行关联,每个子集的语义拓扑地图可以实时更新。
[0120] 步骤4.3:根据更新的语义信息实时修正拓扑层子地图分类,直至机器人完成遍历性扫描。QR code人工路标中写入了编号、名字、功能和所属区域等信息。机器人在观测图像中读取QR code,并立即向数据库添加语义信息。当机器人进行全局扫描时,将机器人观测点和相应物品之间进行关联,从而每个子集的语义拓扑地图可以实时更新。数据库中存储着所有大物体的语义信息,以及根据QR code中的信息实现的拓扑地图的语义分类。机器人分布式表征智能语义地图创建算法图如图6所示。
[0121] 为了证明本发明的有效性,进行了仿真实验。以某8*8室内办公环境为例,办公室中包含沙发、办公桌等大物体;在办公室天花板上安装RFID定位系统。视觉定位结果与RFID定位结果如图7(a)、(b)所示。将两者定位结果通过LS方法进行修正,其结果如图8所示,可见联合定位准确度明显高于独立定位结果。基于语义信息的谱聚类结果如图9所示,仿真结果显示该方法所构建的语义地图具有很高的准确性和有效性,使得机器人在实现准确定位的同时,完成智能语义地图的构建。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈