首页 / 专利库 / 显示技术 / 双目视觉 / 一种基于视觉与激光slam的机器人室内建图方法及系统

一种基于视觉与激光slam的机器人室内建图方法及系统

阅读:682发布:2020-05-08

专利汇可以提供一种基于视觉与激光slam的机器人室内建图方法及系统专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种基于视觉与激光slam的 机器人 室内建图方法,包括以下步骤:视觉 传感器 获取左视图和右视图,生成特征点点 云 ;计算基于视觉的机器人的 位姿 变换估计;获得激光数据,计算基于激光的机器人位姿变换估计、更新地图栅格的 置信度 ;采用瓦片式的建图方法,利用连续的激光点云数据生成子图;将获得的特征点与每张子图进行匹配;通过图优化更新各个子图中的机器人位姿,即可构成最终的建图结果。本发明采用视觉和激光相结合的建图方法,一方面改善了视觉 算法 受光照影响大的缺点,另一方面利用特征点的描述子属性检测闭环,解决了激光闭环检测成功率过低的问题,提高了闭环检测效率。,下面是一种基于视觉与激光slam的机器人室内建图方法及系统专利的具体信息内容。

1.一种基于视觉与激光slam的机器人室内建图方法,其特征在于,包括以下步骤:
视觉传感器获取左视图和右视图,生成特征点点,具体包括:
提取左视图和右视图的特征点,
对获得的特征点进行匹配,
计算相匹配的特征点的空间坐标;
计算基于视觉的机器人的位姿变换估计,即将本时刻左视图和右视图相匹配的特征点与本时刻的上一时刻的左视图和右视图相匹配的特征点进行二次匹配,根据二次匹配的特征点的坐标变化和特征点的主方向变化获得机器人的位姿变换关系,将特征点的描述子投影到对应的地图栅格上,定义栅格的特征点描述子属性;
获得激光数据,计算基于激光的机器人位姿变换估计、更新地图栅格的置信度
采用瓦片式的建图方法,利用连续的激光点云数据生成子图;
闭环检测,即将获得的特征点的描述子与每张子图的每个栅格对应的栅格的特征点描述子属性进行匹配;
图优化,具体包括:通过图的节点表示机器人的位姿,通过连接节点的边表示机器人位姿间的变换关系,计算各机器人位姿与经变换矩阵变换后的估计位姿之间的误差,计算带有若干条边的图的误差目标函数,通过多次迭代求得使目标函数收敛的机器人位姿,用于更新各个子图中的机器人位姿,即可构成最终的建图结果。
2.根据权利要求1所述的基于视觉与激光slam的机器人室内建图方法,其特征在于,所述提取左视图和右视图的特征点包括:
利用ORB算法对左右视图进行FAST点检测,提取特征点P;
建立以特征点P为原点的坐标系,在领域S内计算质心位置C,以特征点P为起点,质心C为终点构造向量 领域S的矩可表示为:
其中Y(x,y)为图像的灰度值,x,y∈[-r,r],r为邻域S的半径,p、q取0或1,则该邻域的质心位置为:
特征点P的主方向θ为:
θ=arc tan2(m01,m10);
生成特征点描述子:
在特征点P的邻域S内,产生随机n对点集,用2×n的矩阵来表示: 特
征点的主方向θ和对应的旋转矩阵Rθ,计算旋转后的2×n的矩阵:
其中,
则特征点P的邻域S内二进制测试准则可定义为:
其中,iθ=i1θ,…,inθ,jθ=j1θ,…,jnθ,τ表示一种二进制测试准则, 表示点iθ的灰度值, 表示点jθ的灰度值;
此时可得到特征点P旋转的描述子:
k′为128、256或512,对应描述符的大小分别为16字节、32字节或64字节,根据方法的实时性、存储空间以及识别效率进行选择。
3.根据权利要求2所述的基于视觉与激光slam的机器人室内建图方法,其特征在于,所述对获得的特征点进行匹配具体为:
计算左右视图特征点的描述子的汉明距离D进行匹配:
其中,fL,fR分别为左视图和右视图的某个特征点的描述子;当两图像中存在汉明距离小于阈值的两个特征点时,则两个特征点匹配成功。
4.根据权利要求3所述的基于视觉与激光slam的机器人室内建图方法,其特征在于,所述计算相匹配的特征点的空间坐标具体为:
其中,(x,y,z)为特征点P在空间中的坐标,(uL,vL)为特征点P在左侧相机中的图像点坐标,(uR,vR)为右侧相机中的图像点坐标,f焦距为双目相机的焦距,d为两个相机之间的距离。
5.根据权利要求4所述的基于视觉与激光slam的机器人室内建图方法,其特征在于,所述采用瓦片式的建图方法,利用连续的激光点云数据生成子图具体为:
利用连续的激光点云数据生成子图,每连续Ts内数据生成一张子图,第二张子图包含上一张子图的后t(t6.根据权利要求5所述的基于视觉与激光slam的机器人室内建图方法,其特征在于,所述图优化具体为:
机器人的位姿被表示成图中的节点,观测信息经过处理后转变为机器人之间位姿间的约束关系,并通过连接节点间的边来表示;图的每个节点取决于机器人位姿的描述,所有节点的状态方程为 其中 分别为全局坐标系下的机器人
的位姿,
边则描述了机器人位姿之间的变换关系;节点Pi和节点Pj之间观测方程可以表示为:
zj=xiTi,j
其中,xi为节点Pi相应的机器人在全局坐标系下的位姿,xj为节点Pj相应的机器人在全局坐标系下的位姿,zj为节点Pj的观测值,即xi经变换矩阵变换后的估计位姿,Ti,j为节点Pi与节点Pj之间的变换关系;
机器人位姿xi与经变换矩阵变换后的估计位姿zj之间存在误差e(zj,xj),计算公式为:
e(zj,xj)=xiTi,j-xj
带有若干条边的图的误差目标函数E(x)为:
其中,信息矩阵Ωk是协方差矩阵的逆,是一个对称矩阵;它的每个元素Ωi,j用作误差的系数,对e(zi,xi)、e(zj,xj)的误差相关性进行预计;
假设xk增加一个增量Δx,通过多次迭代最终求得满足目标方程E(x)的收敛值,用求得的Δx更新状态变量X,X中的各个节点的位姿即可构成最终的建图结果。
7.一种基于视觉与激光slam的机器人室内建图系统,其特征在于,所述系统分为前端和后端,系统的前端利用双目视觉传感器获取环境的左视图和右视图,通过ORB算法提取左右视图,并对左右视图的特征点进行匹配,进而求取各个特征点在空间内的坐标;对相邻时刻获得的特征点进行匹配,进而求得时刻机器人的位姿变换关系,将特征点投影到地图栅格上,定义有特征点投影的栅格地图具有描述子属性;系统的前端通过激光传感器获得环境的激光点云数据,并对激光点云数据进行去噪处理,通过求取机器人位姿初值、定义扫描窗口、求取置信度获得机器人的位姿变换估计,将激光点云投射到栅格地图上,更新各个地图栅格的置信度;系统后端对得到的地图进行闭环检测和图优化。

说明书全文

一种基于视觉与激光slam的机器人室内建图方法及系统

技术领域

[0001] 本发明涉及巡检机器人领域,具体涉及一种基于视觉与激光slam的机器人室内建图方法及系统。

背景技术

[0002] 室内导航环境的好坏,直接影响机器人的各种巡检任务的完成。要完成地图的创建,首先要获取周围环境的信息,这就要用到传感器来完成。现在机器人的制图研究热点大体上集中在两种传感器上,一种是激光传感器,激光传感器具有解析度高、测距精度高、抗有源干扰能强、探测性能好、不受光线影响,缺点是获得的信息不具备语义信息,配准精度不高,建图过程中常存在闭环检测失败的情况。另一种的视觉传感器,可以获得丰富的纹理信息,具有匹配准确的优点,但是存在受光照变化影响大的缺点。
[0003] 为了克服激光传感器和视觉传感器的缺陷,本发明提出一种基于视觉与激光slam的机器人室内建图方法及系统。

发明内容

[0004] 为了解决上述问题,本发明提出了一种基于视觉与激光slam的机器人室内建图方法,包括以下步骤:
[0005] 视觉传感器获取左视图和右视图,生成特征点点,具体包括:
[0006] 提取左视图和右视图的特征点,
[0007] 对获得的特征点进行匹配,
[0008] 计算相匹配的特征点的空间坐标;
[0009] 计算基于视觉的机器人的位姿变换估计,即将本时刻左视图和右视图相匹配的特征点与本时刻的上一时刻的左视图和右视图相匹配的特征点进行二次匹配,根据二次匹配的特征点的坐标变化和特征点的主方向变化获得机器人的位姿变换关系,将特征点的描述子投影到对应的地图栅格上,定义栅格的特征点描述子属性;
[0010] 获得激光数据,计算基于激光的机器人位姿变换估计、更新地图栅格的置信度
[0011] 采用瓦片式的建图方法,利用连续的激光点云数据生成子图;
[0012] 闭环检测,即将获得的特征点的描述子与每张子图的每个栅格对应的栅格的特征点描述子属性进行匹配;
[0013] 图优化,具体包括:通过图的节点表示机器人的位姿,通过连接节点的边表示机器人位姿间的变换关系,计算各机器人位姿与经变换矩阵变换后的估计位姿之间的误差,计算带有若干条边的图的误差目标函数,通过多次迭代求得使目标函数收敛的机器人位姿,用于更新各个子图中的机器人位姿,即可构成最终的建图结果。
[0014] 进一步地,所述提取左视图和右视图的特征点包括:
[0015] 利用ORB算法对左右视图进行FAST点检测,提取特征点P;
[0016] 建立以特征点P为原点的坐标系,在领域S内计算质心位置C,以特征点P为起点,质心C为终点构造向量 领域S的矩可表示为:
[0017]
[0018] 其中Y(x,y)为图像的灰度值,x,y∈[-r,r],r为邻域S的半径,p、q取0或1,则该邻域的质心位置为:
[0019]
[0020] 特征点P的主方向θ为:
[0021] θ=arctan2(m01,m10);
[0022]
[0023] 生成特征点描述子:
[0024] 在特征点P的邻域S内,产生随机n对点集,用2×n的矩阵来表示:特征点的主方向θ和对应的旋转矩阵Rθ,计算旋转后的2×n的矩阵:
[0025]
[0026] 其中,
[0027] 则特征点P的邻域S内二进制测试准则可定义为:
[0028]
[0029] 其中,iθ=i1θ,…,inθ,jθ=j1θ,…,jnθ,τ表示一种二进制测试准则, 表示点iθ的灰度值, 表示点jθ的灰度值;
[0030] 此时可得到特征点P旋转的描述子:
[0031]
[0032] k′为128、256或512,对应描述符的大小分别为16字节、32字节或64字节,根据方法的实时性、存储空间以及识别效率进行选择。
[0033] 进一步地,所述对获得的特征点进行匹配具体为:
[0034] 计算左右视图特征点的描述子的汉明距离D进行匹配:
[0035]
[0036] 其中,fL,fR分别为左视图和右视图的某个特征点的描述子;当两图像中存在汉明距离小于阈值的两个特征点时,则两个特征点匹配成功。
[0037] 进一步地,所述计算相匹配的特征点的空间坐标具体为:
[0038]
[0039] 其中,(x,y,z)为特征点P在空间中的坐标,(uL,vL)为特征点P在左侧相机中的图像点坐标,(uR,vR)为右侧相机中的图像点坐标,f焦距为双目相机的焦距,d为两个相机之间的距离。
[0040] 进一步地,所述采用瓦片式的建图方法,利用连续的激光点云数据生成子图具体为:
[0041] 利用连续的激光点云数据生成子图,每连续Ts内数据生成一张子图,第二张子图包含上一张子图的后t(t
[0042] 进一步地,所述图优化具体为:
[0043] 机器人的位姿被表示成图中的节点,观测信息经过处理后转变为机器人之间位姿间的约束关系,并通过连接节点间的边来表示;图的每个节点取决于机器人位姿的描述,所有节点的状态方程为 其中 分别为全局坐标系下的机器人的位姿,边则描述了机器人位姿之间的变换关系;节点Pi和节点Pj之间观测方程可以表示为:
[0044] zj=xiTi,j
[0045] 其中,xi为节点Pi相应的机器人在全局坐标系下的位姿,xj为节点Pj相应的机器人在全局坐标系下的位姿,zj为节点Pj的观测值,即xi经变换矩阵变换后的估计位姿,Ti,j为节点Pi与节点Pj之间的变换关系;
[0046] 机器人位姿xi与经变换矩阵变换后的估计位姿zj之间存在误差e(zj,xj),计算公式为:
[0047] e(zj,xj)=xiTi,j-Xj
[0048] 带有若干条边的图的误差目标函数E(x)为:
[0049]
[0050] 其中,信息矩阵Ωk是协方差矩阵的逆,是一个对称矩阵;它的每个元素Ωi,j用作误差的系数,对e(zi,xi)、e(zj,xj)的误差相关性进行预计;
[0051] 假设xk增加一个增量Δx,通过多次迭代最终求得满足目标方程E(x)的收敛值,用求得的Δx更新状态变量X,X中的各个节点的位姿即可构成最终的建图结果。
[0052] 一种基于视觉与激光slam的机器人室内建图系统,包括前端和后端,系统的前端利用双目视觉传感器获取环境的左视图和右视图,通过ORB算法提取左右视图,并对左右视图的特征点进行匹配,进而求取各个特征点在空间内的坐标;对相邻时刻获得的特征点进行匹配,进而求得时刻机器人的位姿变换关系,将特征点投影到地图栅格上,定义有特征点投影的栅格地图具有描述子属性;系统的前端通过激光传感器获得环境的激光点云数据,并对激光点云数据进行去噪处理,通过求取机器人位姿初值、定义扫描窗口、求取置信度获得机器人的位姿变换估计,将激光点云投射到栅格地图上,更新各个地图栅格的置信度;系统后端对得到的地图进行闭环检测和图优化。
[0053] 与现有技术相比,本发明具有以下有益效果:
[0054] 采用视觉和激光相结合的建图方法,一方面改善了视觉算法受光照影响大的缺点,另一方面利用特征点的描述子属性检测闭环,解决了激光闭环检测成功率过低的问题,提高了闭环检测效率。附图说明
[0055] 图1为基于视觉与激光slam的机器人室内定位与建图流程。
[0056] 图2为M16模板示意图。

具体实施方式

[0057] 下面结合附图,对一种基于视觉与激光slam的移动机器人室内定位与建图方法进行详细描述。
[0058] 一种基于视觉与激光slam的移动机器人室内定位与建图方法,其流程如图1所示。具体而言,基于视觉与激光slam的移动机器人室内定位与建图系统分为前端和后端,系统的前端利用双目视觉传感器获取环境的左视图和右视图,通过ORB算法提取左右视图,并对左右视图的特征点进行匹配,进而求取各个特征点在空间内的坐标;之后对相邻时刻获得的特征点进行匹配,进而求得时刻机器人的位姿变换关系,将特征点投影到地图栅格上,定义有特征点投影的栅格具有描述子属性。同时,系统的前端通过二维激光传感器获得环境的激光点云数据,并对激光点云数据进行去噪处理,并通过求取机器人位姿初值、定义扫描窗口、求取置信度等方式获得机器人的位姿变换估计,在此基础上将激光点云投射到栅格地图上,更新各个地图栅格的置信度。最后为了减小传感器的累计误差,系统后端对得到的地图进行闭环检测和图优化。
[0059] 一、系统前端
[0060] 1、基于ORB的特征点点云生成
[0061] (1)特征点提取:双目视传感器可同时获得环境的左视图IL和右视图IR,利用ORB(Oriented FAST and Rotated BRIEF,一种快速特征点提取和描述的算法)算法对左右视图进行FAST(Features from Accelerated Segment Test)角点检测,提取特征点,并计算特征点的主方向,生成oFAST,具体流程如下:
[0062] ①首先对得到的左视图和右视图进行灰度化处理:Y=0.39×R+0.5×G+0.11×B,Y为灰度化后某像素点的灰度值,R、G、B为该像素点红、绿、蓝三个颜色分量。
[0063] ②在左视图中,以像素点P为圆心,在半径向下取整为3的圆周内,有16个像素点(M10模板),如图2所示。若M16中有连续N个(9≤N≤12)点的灰度值均大于YP+t或均小于YP-t(其中YP为点P的灰度值,t为阈值),则判定点P为特征点。(以P为圆心画一个半径为3pixel的圆。圆周上如果有连续n个像素点的灰度值比P点的灰度值大或者小,则认为P为特征点。一般n设置为12。)
[0064] ③建立以特征点P为原点的坐标系,在领域S内计算质心位置C,以特征点P为起点,质心C为终点构造向量 领域S的矩可表示为:
[0065]
[0066] 其中Y(x,y)为图像的灰度值,x,y∈[-r,r],r为邻域S的半径,p、q取0或1,则该邻域的质心位置为:
[0067]
[0068] 特征点P的主方向θ为:
[0069] θ=arc tan2(m01,m10)
[0070] (2)特征点描述子生成:在特征点P的邻域S内,产生随机n对点集,用2×n的矩阵来表示: 根据步骤③求出的特征点的主方向θ和对应的旋转矩阵Rθ,计算旋转后的2×n的矩阵:
[0071]
[0072] 其中,
[0073] 则特征点P的邻域S内二进制测试准则可定义为:
[0074]
[0075] 其中,iθ=i1θ,…,inθ,jθ=j1θ,…,jnθ,τ表示一种二进制测试准则, 表示点iθ的灰度值, 表示点jθ的灰度值;
[0076] 此时可得到特征点P旋转的描述子:
[0077]
[0078] k′可为128,256,或512,对应描述符的大小分别为16字节、32字节和64字节,根据算法的实时性、存储空间以及识别效率进行选择。
[0079] (3)特征点匹配:按照上述方案获得到左右视图两帧图像特征点的描述子以后,计算二者的汉明距离D进行匹配:
[0080]
[0081] 其中,fL,fR分别为左视图和右视图的某个特征点的描述子。当两帧图像中存在汉明距离小于阈值的两个特征点时,则两个特征点匹配成功。
[0082] 特征点空间位置计算:假设特征点P在左侧相机中的图像点坐标为(uL,vL),右侧相机中的图像点坐标为(uR,vR),则特征点P在空间中的坐标(x,y,z)的计算方式如下:
[0083]
[0084] 其中f焦距为双目相机的焦距,d为两个相机之间的距离,求出所有的相匹配的特征点坐标,此时的特征点具有唯一的空间坐标和唯一的描述子。
[0085] 2、机器人位姿变换估计
[0086] 将激光数据进行处理得到激光点云数据,对激光点云数据进行过滤,即去掉激光点云数据中的各激光反射点中相应的噪点(相距较近的点和较远的点),剩余作为有效点。计算有效激光点云在激光传感器坐标系中的位姿。
[0087] (1)观测值为激光时的机器人位姿变换估计、更新地图栅格的置信度
[0088] ①机器人位姿初值估计
[0089] 设定获得各帧激光数据的时间点是计算位姿的时间点。假定机器人在时间点t的位姿是P(t),前一个计算位姿的时间点为t-1,相应的位姿是P(t-1),下一个计算位姿的时间点t+1,相应的的位姿是P(t+1)。通过时间点t和t-1之间的位姿差(包括位移和旋转角度)来计算机器人运动的线速度V(x,y)和角速度W。
[0090] 线速度V(x,y)=(t和t-1之间的位移)/时间差
[0091] 角速度W=(t和t-1之间的旋转角度)/时间差
[0092] 根据最新接收的里程计数据和最新接收的惯性导航数据对预测位姿初值进行校正得到位姿的估计值pose_estimated;
[0093] ②定位扫描窗口
[0094] 机器人的定位扫描用位移扫描参数和角度扫描参数,位移扫描参数用于限定定位扫描窗口的位移范围,以位姿的估计值pose_estimated为中心,上下左右各偏离lcm大小的正方形。角度扫描参数用于限定定位扫描窗口的角度范围,以位姿的估计值为中心角度,上下各偏离w度的角度。
[0095] 定位扫描窗口大小确定定位扫描窗口内各地图栅格上各扫描角度的位姿,作为所有可能的候选位姿possible_candidates。
[0096] ④置信度估计
[0097] 根据每个候选位姿对应的各个地图栅格的置信度(地图栅格的置信度值与地图构建过程相关,在定位过程中,为已经确定的值),计算每个候选位姿的置信度candidate_probability,公式如下:
[0098]
[0099] 其中,m为某个候选位姿对应的扫描角度的离散扫描数据中的地图栅格的总数,设其中第n个栅格的地图坐标为(xn,yn),该栅格置信度是 取值范围为0.1~0.9。
[0100] 根据每个候选位姿possible_candidate与位姿的估计值pose_estimated的位姿差来计算每个候选位姿对应的置信度权重candidate_weight,公式如下:
[0101]
[0102] 其中,x_offset是每个候选位姿与位姿的估计值pose_estimated间沿x轴的位移,y_offset是每个候选位姿与位姿的估计值pose_estimated间沿y轴的位移,transweight是位移权重,candiate.rotation是候选位姿与位姿的估计值pose_estimated间旋转角度,rotweight是旋转角度权重;
[0103] 将每个候选位姿的置信度candidate_probability与置信度权重candidate_weight的乘积作为当前位姿的置信度分值,公式如下,
[0104] score=candidate_probability*candidate_weight
[0105] 选择置信度分值score最高的位姿更新位姿的估计值pose_estimated,作为最优位姿估计P(t+1)。根据获得的最优位姿变换估计P(t+1)和机器人当前的位姿P(t)可求得机器人位姿变换C(包括旋转矩阵和和位移矩阵),机器人根据变换关系T移动到P(t+1)的位姿,且在此基础上将当前的点云数据投影到对应位置地图栅格当中。若其中有重复落在同一地图栅格位置的多个点,仅取其中一个点对应的地图栅格在地图坐标系中的坐标,根据激光点云的投影情况更新栅格的概率。第一帧激光点投影到地图栅格上以后,各个栅格更新后的置信度如下:
[0106]
[0107] 当第二帧激光数据落到二维栅格平面时,根据以下公式更新各个栅格的置信度:
[0108]
[0109] 各个栅格的状态更新系数为:
[0110]
[0111] 当第n帧激光点云数据落入二维平面栅格时,各个栅格的置信度为:
[0112]
[0113] 其中,Pn-1(xi,yi)为第n-1帧激光点云数据落入二维平面栅格时,坐标为(xi,yi)的栅格的置信度;
[0114] (2)观测值为特征点时的机器人位姿变换估计
[0115] 假设t-1时刻根据左右视图获得的相匹配的特征点序列为S=[s1,s2,…,sg],t时刻根据左右视图获得的相匹配的特征点序列为p=[p1,p2,…,ph],将t-1时刻和t时刻的特征点序列S、P进行匹配,此时根据相匹配的特征点的坐标变化和特征点的主方向变化可以获得机器人的位姿变换关系T′,从而在此基础上将特征点的描述子投影到对应的地图栅格上,此时定义栅格的第二属性,即特征点描述子属性。此时栅格地图的置信度具有激光概率和特征点两重属性,第一重属性和第二重属性相互独立。
[0116] 4、生成子图
[0117] 采用瓦片式的建图方法,利用连续的激光点云数据生成子图,每连续Ts内数据生成一张子图,第二张子图包含上一张子图的后t(t
[0118] 二、系统后端
[0119] 1、闭环检测
[0120] 根据当前获得的左视图和右视图,利用ORB算法提取特征点,并计算特征点的描述子。将获得的特征点的描述子存入集合Q,Q={Q1,Q2,…,QN},假设此时已生成M张子图,将Q中每个描述子与每张子图中的每个栅格对应的第二层属性,即栅格特征点描述子进行匹配。当集合Q中的描述子与某张子图的栅格特征点描述子匹配成功率达到90%以上时,闭环检测成功。
[0121] 2、图优化
[0122] 图优化是通过减少轨迹中的漂移减少轨迹扭曲,在图优化的过程中,机器人的位姿被表示成图中的节点,观测信息经过处理后转变为机器人之间位姿间的约束关系,并通过连接节点间的边来表示。图的每个节点取决于机器人位姿的描述,所有节点的状态方程为 其中 分别为全局坐标系下的机器人的位姿,边则描述了机器人位姿之间的变换关系 节点Pi和节点Pj之间观测方程可以表示为zj
=xiTi,j,即机器人经过运动Ti,j由Pi运动到Pj,其中,xi为节点Pi相应的机器人在全局坐标系下的位姿,,xj为节点Pj相应的机器人在全局坐标系下的位姿,zj为节点Pj的观测值,即xi经变换矩阵变换后的估计位姿,Ti,j为节点Pi与节点Pj之间的变换关系。
[0123] 在优化过程中,每个节点都有一个估计值,那么由一条边连接的两个顶点各有一个估计值,它们与这条边的约束之间会有一个误差。也就是说,理想情况下我们有:
[0124] zj=xiTi,j
[0125] 机器人位姿xi与经变换矩阵变换后的估计位姿zj之间存在误差e(zj,xj):
[0126] e(zj,xj)=xiTi,j-xj
[0127] 由于每条边都产生了一点点误差,假设建立的是一个带有K条边的图,其目标函数可以写成:
[0128]
[0129] 其中,信息矩阵Ωk是协方差矩阵的逆,是一个对称矩阵。它的每个元素Ωi,j用作误差的系数,对e(zi,xi)、e(zj,xj)的误差相关性进行预计。最简单的是把Ωk设成对角矩阵,对角矩阵元素的大小表明对各元素相应误差的重视程度。采用其他协方差矩阵也可以。
[0130] xk增加一个增量Δx,误差值则从e(zk,xk)变为e(zk,xk+Δx),对误差项进行一阶展开:
[0131]
[0132] Jk是e(zk,xk)关于xk的导数,矩阵形式下为雅可比阵。对于第k条边的目标函数项,进一步展开有:
[0133] E(xk+Δx)=e(zk,xk+Δx)TΩke(zk,xk+Δx)
[0134] ≈[e(zk,xk)+JkΔx]TΩk[e(zk,xk)+JkΔx]
[0135] =e(zk,xk)TΩke(zk,xk)+2e(zk,xk)TΩkJkΔx+ΔxTJkTΔx
[0136] =Ck+2bkΔx+ΔxTHkΔx
[0137] 将与Δx无关的项整理成常数项Ck,Δx的一次项系数整理成bk,Δx二次项系数写成Hk。
[0138] 重写目标函数:
[0139]
[0140] 其中 xk发生增量后,目标函数E(x)项的改变值为:
[0141] ΔE(x)=2bΔx+ΔxTHΔx
[0142] 为了使ΔE(x)取得最小值,令ΔE(x)对Δx的导数为零,有
[0143]
[0144] 用求得的Δx更新状态变量X,通过多次迭代最终求得满足目标方程的状态变量X的收敛值,对整个运动过程中机器人位姿进行优化,X中的各个节点的位姿即可构成最终的建图结果。
[0145] 本发明采用视觉和激光相结合的建图方法,一方面改善了视觉算法受光照影响大的缺点,另一方面利用特征点的描述子属性检测闭环,解决了激光闭环检测成功率过低的问题,提高了闭环检测效率。
[0146] 以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈