首页 / 专利库 / 电脑图像 / 局部集束调整 / 一种利用视差空间集束调整的高精度实时立体视觉定位方法

一种利用视差空间集束调整的高精度实时立体视觉定位方法

阅读:565发布:2020-06-18

专利汇可以提供一种利用视差空间集束调整的高精度实时立体视觉定位方法专利检索,专利查询,专利分析的服务。并且本 发明 提出了一种利用 视差 空间集束调整的高 精度 实时 立体视觉 定位 方法。本发明仅利用立体相机得到的 视频流 进行移动 机器人 的导航定位,具有完全的自主性;本发明利用U-SURF描述符进行特征匹配,对运动过程中出现的光照变化、 运动模糊 、大的旋转和尺度变换具有较强的鲁棒性;本发明利用视差空间集束调整优化方法使自主导航车在长距离行进下也能够进行精度实时的定位,其具有对优化初始值依赖程度低,收敛速度快,数值 稳定性 高等优点,与利用集束调整的立体视觉定位方法相比,定位精度更高,速度更快。本发明整个立体视觉定位方法计算速度快,可在线实时运行。,下面是一种利用视差空间集束调整的高精度实时立体视觉定位方法专利的具体信息内容。

1.一种利用视差空间集束调整的高精确实时立体视觉定位方法,其特征在于它包括以下步骤:
步骤一、对视频流当前的立体图像对进行极线校正,视频流的第一帧选为起点帧;视频流由立体相机的摄像头拍摄形成;
步骤二、提取第一图像的CenSurE特征和U-SURF描述符,所述第一图像为所述立体图像对中的左图像和右图像之一;
步骤三、采用SAD区域匹配方法沿第二图像平方向极线进行一维搜索得到第一图像CenSurE特征对应的图像坐标,从而得到特征点的3D坐标;所述第二图像为所述立体图像对中的左图像和右图像之另一;所述特征点为摄像头拍摄的同一场景图像关键点,具体反映在立体图像第一图像CenSurE特征和第二图像对应图像坐标;
若当前帧为起点帧,则将当前帧的下一帧作为当前帧,重复步骤一至三的处理步骤;否则,对所述当前帧再进行步骤四和五;
步骤四、对当前帧和前一帧立体图像的特征点集进行一一匹配;
步骤五、采用RANSAC算法和2D-3D位姿估计方法得到匹配内点和拍摄当前帧时的所述摄像头运动参数,包括相对位置、相对姿态;所述相对位置为平移参数t,所述相对姿态为旋转参数R;
步骤六、如步骤五所述的当前帧与起点帧之间的帧数、起点帧和当前帧的总和小于N,将步骤五所述的当前帧的下一帧作为当前帧,对所述当前帧进行步骤一至五的处理,否者,进行步骤七和步骤八的处理;N=2*n+1,n为大于等于1的自然数;
步骤七、利用当前帧前的N帧中的两两相邻帧的匹配内点之间的视差空间投影约束,采用视差空间集束调整对拍摄当前帧的前n帧摄像头的运动参数进行迭代优化;
如步骤七所述的当前帧与起点帧之间的帧数等于N,则所述迭代优化的初值为当前帧前的n帧的摄像头运动参数;否则,所述迭代优化的初值为当前帧前的n-1帧在视差空间集束调整后的摄像头运动参数和当前帧运动参数;
步骤八、利用拍摄所述当前帧前第1帧时摄像头的全局位置姿态参数和拍摄所述当前帧时摄像头运动参数的迭代优化值,得到拍摄当前帧时摄像头的全局位置姿态参数作为拍摄实时帧时摄像头的全局位置姿态参数,以对摄像头实时立体视觉定位。
2.根据权利要求1所述的利用视差空间集束调整的高精度实时立体视觉定位方法,其特征在于在所述步骤一中,采用以下步骤:
利用已标定立体相机的参数,采用极线校正方法对立体图像对进行校正,使立体图像对的左右图像对应的特征点位于同一水平扫描线上,同时得到校正后立体相机基线长度B和焦距f。
3.根据权利要求1所述的利用视差空间集束调整的高精度实时立体视觉定位方法,其特征在于在所述步骤二中,采用以下步骤:
(1)、计算得到第一图像的积分图像;
(2)、利用积分图像在每个像素上计算六个尺度的盒子核近似高斯拉普拉斯滤波器响应;
(3)、采用非极大值抑制检测局部极大值得到CenSurE特征,所述CenSurE特征包括其图像坐标(u,v)、尺度s及极大值;
(4)、利用积分图像和CenSurE特征的图像坐标(u,v)和尺度s计算对应的U-SURF描述符。
4.根据权利要求1或3所述的利用视差空间集束调整的高精度实时立体视觉定位方法,其特征在于在所述步骤三中,采用以下步骤:
对第一图像的每个CenSurE特征在第二图像采用简单的SAD立体匹配方法沿水平方向极线进行一维搜索匹配,从而得到第一图像CenSurE特征在第二图像上的对应位置坐标(u2,v),则得到整数视差d=u2-u;采用如下二次函数对视差值进行拟合,从而达到亚象素级视差:
Cd为求得的SAD匹配代价, 表示视差空间特征点,由u、v、d可以计算得到特征点的3D坐标X。
5.根据权利要求1或3所述的利用视差空间集束调整的高精度实时立体视觉定位方法,其特征在于在所述步骤四中,采用以下步骤进行匹配:
取当前帧第一图像中的某个特征点U-SURF描述符,与前一帧第一图像中在某个视差范围(-L,L)内的特征点U-SURF描述符计算二者之间的欧式距离,如果最近的欧式距离与次近的欧式距离的比值少于某个比例值并且最近邻的距离小于某个阀值时则接受这一对特征点为匹配点,否则拒绝;在匹配过程中只对极大值同为正值或同为负值的CenSurE特征的U-SURF描述符进行匹配;
重复以上步骤,得到至少3对匹配点。
6.根据权利要求5所述的利用视差空间集束调整的高精度实时立体视觉定位方法,其特征在于在所述步骤五中,采用以下步骤:
(1)、在步骤四得到的匹配点集中随机采样3对匹配点;
(2)、利用2D-3D位姿估计算法和3对匹配点计算拍摄当前帧时摄像头的运动参数R和t;
(3)、利用该运动参数R和t计算所有匹配点在立体相机上的再投影误差:
T
|ml-K[RX+t]|<τ,|mr-K[RX+t+(B 0 0)]|<τ (2)
T T
其中ml=(u,v) 和mr=(u+d,v) 为当前帧特征点在第一和第二图像中的坐标,K为为摄像头内部参数矩阵;满足(2)式的匹配点则为匹配内点;其中τ为一固定阀值,X为前一帧特征点3D坐标;
(4)、多次重复步骤(1)、(2)、(3),选取匹配内点数最多的计算结果作为最后的匹配内点和拍摄当前帧时的摄像头初始运动参数R和t。
7.根据权利要求1所述的利用视差空间集束调整的高精度实时立体视觉定位方法,其特征在于在所述步骤七中,采用以下步骤:
(1)、把旋转矩阵R转化为四元数(q1,q2,q3,q4),其中 则q1,q2,q3T
为独立变量,加上平移参数t=[x y z],则相邻二帧之间的运动参数θt=[q1 q2 q3 x y T
z] 为6维向量;
(2)、利用相邻二帧之间的匹配内点得到最近N帧图像任意帧之间的匹配点,利用Pk,j表示帧j到帧k之间的匹配点数;
(3)、通过拍摄相邻两帧的摄像头之间的的运动参数级联表达得到拍摄任意非相邻帧摄像头之间的运动参数;相邻二帧摄像头之间的运动参数即为拍摄各帧时的摄像头的运动参数;
(4)、采用增量式局部参数更新优化方式对运动参数进行优化,本次优化得到的参数作为下一轮优化的初始值;在当前帧t,仅优化其之前的n帧的运动参数,但包含其之前的N帧的视差空间特征点投影约束,设局部视差空间集束调整的目标函数为F(θ),待优化的运动参数为θ={θt-n+1,...θt},则目标函数表达如下:
表示特征点i在摄像机帧k上的视差空间真实测量坐标,fk,j,i(θt)表示特征点i在帧j向帧k运动后的再投影视差空间坐标。∑为视差空间特征点的协方差矩阵;
(5)、采用Levenberg-Marquard算法对目标函数F(θ)中的运动参数θ=
{θt-n+1,...θt}进行非线性迭代优化。
8.根据权利要求7所述的利用视差空间集束调整的高精度实时立体视觉定位方法,其特征在于在所述步骤八中,采用以下步骤:
(1)、利用拍摄当前帧前第n+1帧时摄像头相对于世界坐标系的旋转参数R和平移参数t、拍摄当前帧前第n帧时摄像头的运动参数θt-n+1计算得到拍摄当前帧前第n帧时摄像头相对于世界坐标系的旋转参数和平移参数;
(2)、利用拍摄当前帧前第n+1帧时摄像头相对于世界坐标系的各个旋转参数R和平移参数t、拍摄当前帧前n帧的摄像头运动参数θ={θt-n+1,...θt}计算得到拍摄当前帧时摄像头相对于世界坐标系的旋转参数R和平移参数t;拍摄当前帧时摄像头相对于世界坐标系的旋转参数和平移参数即为立体相机6个自由度的3D定位信息。

说明书全文

一种利用视差空间集束调整的高精度实时立体视觉定位

技术领域

[0001] 本发明属于计算机视觉自主导航技术领域,涉及一种基于视差空间集束调整的高精度实时立体视觉定位方法,可以应用于自主移动机器人、智能车辆等领域。

背景技术

[0002] 在未知环境中自主导航是各种移动机器人或智能车应用的关键任务之一。机器人在其长距离漫游过程中需要实时地获得自身的定位信息。目前,由于视觉传感器的性价比日益提高以及视觉计算的发展,基于视觉的导航定位方法正开始广泛运用于各个相关领域。视觉导航定位方法依赖硬件设备少、对体积、功耗、载荷等要求低,适用于各种复杂未知环境,并能够填补GPS卫星定位的盲区,有效纠正轮式里程计和惯性导航的累计误差。因此,采用视觉定位方法已经成为机器人自主导航的必然趋势。
[0003] 实时立体视觉定位算法一般利用二之间的特征匹配信息进行运动估计,对运动估计参数进行级联计算出摄像机定位信息,这种方法使小的运动估计误差不断积累,从而导致长距离行进下定位精度不高。
[0004] 经对现有技术的文献检索发现,E.Mouragnon等人于2006年《2006 Proceedings of theIEEE Conference on Computer Vision and Pattern Recognition》上发表的论文“Real-TimeLocalization and 3D Reconstruction”以及N.Sunderhauf等人于2006年《2006 Proceedings ofTowards Autonomous Robotic Systems》上发表的论文“Towards Using Bundle Adjustment forRobust Stereo Odometry in Outdoor Terrain”提出了利用集束调整进行实时视觉定位。集束调整采用公共坐标系统同时优化3D点和摄像机位姿参数,由于其可以利用多帧之间的特征匹配信息,所以作为最后一步优化步骤可大大提高立体视觉定位的精度。但集束调整优化方法对初始值依赖太大,由于远距离特征点或长的运动序列引起的弱结构会造成收敛速度慢或收敛发散等数值稳定性低的缺点。

发明内容

[0005] 本发明的目的在于克服现有技术中的不足和缺点,提出一种利用视差空间集束调整的高精度实时立体视觉定位方法。相对于集束调整,由于视差空间集束调整采用视差空间特征点投影约束和相对坐标表达,所以其参数优化的数值稳定性高,收敛速度快,对初始值依赖小,鲁棒性高,从而使自主导航车在长距离行进下也能够进行精度实时的定位。为此,本发明采用以下技术方案,其步骤如下:
[0006] 步骤一、对视频流当前帧的立体图像对进行极线校正,视频流的第一帧选为起点帧;视频流由立体相机的摄像头拍摄形成;
[0007] 步骤二、提取第一图像的CenSurE特征和U-SURF描述符,所述第一图像为所述立体图像对中的左图像和右图像之一;
[0008] 步骤三、采用SAD区域匹配方法沿第二图像平方向极线进行一维搜索得到第一图像CenSurE特征对应的图像坐标,从而得到特征点的3D坐标;所述第二图像为所述立体图像对中的左图像和右图像之另一;所述特征点为摄像头拍摄的同一场景图像关键点,具体反映在立体图像第一图像CenSurE特征和第二图像对应图像坐标;
[0009] 若当前帧为起点帧,则将当前帧的下一帧作为当前帧,重复步骤一至三的处理步骤;否则,对所述当前帧再进行步骤四和五;
[0010] 步骤四、对当前帧和前一帧立体图像的特征点集进行一一匹配;
[0011] 步骤五、采用RANSAC算法和2D-3D位姿估计方法得到匹配内点和拍摄当前帧时的所述摄像头运动参数,包括相对位置、相对姿态;所述相对位置为平移参数t,所述相对姿态为旋转参数R;
[0012] 步骤六、如步骤五所述的当前帧与起点帧之间的帧数、起点帧和当前帧的总和小于N,将步骤五所述的当前帧的下一帧作为当前帧,对所述当前帧进行步骤一至五的处理,否者,进行步骤七和步骤八的处理;N=2*n+1,n为大于等于1的自然数;
[0013] 步骤七、利用当前帧前的N帧中的两两相邻帧的匹配内点之间的视差空间投影约束,采用视差空间集束调整对拍摄当前帧的前n帧摄像头的运动参数进行迭代优化;
[0014] 如步骤七所述的当前帧与起点帧之间的帧数等于N,则所述迭代优化的初值为当前帧前的n帧的摄像头运动参数;否则,所述迭代优化的初值为当前帧前的n-1帧在视差空间集束调整后的摄像头运动参数和当前帧运动参数;
[0015] 步骤八、利用拍摄所述当前帧前第1帧时摄像头的全局位置姿态参数和拍摄所述当前帧时摄像头运动参数的迭代优化值,得到拍摄当前帧时摄像头的全局位置姿态参数作为拍摄实时帧时摄像头的全局位置姿态参数,以对摄像头实时立体视觉定位。
[0016] 在采用上述技术方案的基础上,本发明还可采用以下进一步的技术方案:
[0017] 在所述步骤一中,采用以下步骤:
[0018] 利用已标定立体相机的参数,采用极线校正方法对立体图像对进行校正,使立体图像对的左右图像对应的特征点位于同一水平扫描线上,同时得到校正后立体相机基线长度B和焦距f。
[0019] 在所述步骤二中,采用以下步骤:
[0020] (1)、计算得到第一图像的积分图像;
[0021] (2)、利用积分图像在每个像素上计算六个尺度的盒子核近似高斯拉普拉斯滤波器响应;
[0022] (3)、采用非极大值抑制检测局部极大值得到CenSurE特征,所述CenSurE特征包括其图像坐标(u,v)、尺度s及极大值;
[0023] (4)、利用积分图像和CenSurE特征的图像坐标(u,v)和尺度s计算对应的U-SURF描述符。
[0024] 在所述步骤三中,采用以下步骤:
[0025] 对第一图像的每个CenSurE特征在第二图像采用简单的SAD立体匹配方法沿水平方向极线进行一维搜索匹配,从而得到第一图像CenSurE特征在第二图像上的对应位置坐标(u2,v),则得到整数视差d=u2-u;采用如下二次函数对视差值进行拟合,从而达到亚象素级视差:
[0026]
[0027] Cd为求得的SAD匹配代价, 表示视差空间特征点,由u、v、d可以计算得到特征点的3D坐标X。
[0028] 在所述步骤四中,采用以下步骤进行匹配:
[0029] 取当前帧第一图像中的某个特征点U-SURF描述符,与前一帧第一图像中在某个视差范围(-L,L)内的特征点U-SURF描述符计算二者之间的欧式距离,如果最近的欧式距离与次近的欧式距离的比值少于某个比例值并且最近邻的距离小于某个阀值时则接受这一对特征点为匹配点,否则拒绝;在匹配过程中只对极大值同为正值或同为负值的CenSurE特征的U-SURF描述符进行匹配;
[0030] 重复以上步骤,得到至少3对匹配点。
[0031] 在所述步骤五中,采用以下步骤:
[0032] (1)、在步骤四得到的匹配点集中随机采样3对匹配点;
[0033] (2)、利用2D-3D位姿估计算法和3对匹配点计算拍摄当前帧时摄像头的运动参数R和t;
[0034] (3)、利用该运动参数R和t计算所有匹配点在立体相机上的再投影误差:
[0035] |ml-K[RX+t]|<τ,|mr-K[RX+t+(B 0 0)T]|<τ (2)
[0036] 其中ml=(u,v)T和mr=(u+d,v)T为当前帧特征点在第一和第二图像中的坐标,K为为摄像头内部参数矩阵;满足(2)式的匹配点则为匹配内点;其中τ为一固定阀值,X为前一帧特征点3D坐标;
[0037] (4)、多次重复步骤(1)、(2)、(3),选取匹配内点数最多的计算结果作为最后的匹配内点和拍摄当前帧时的摄像头初始运动参数R和t。
[0038] 在所述步骤七中,采用以下步骤:
[0039] (1)、把旋转矩阵R转化为四元数(q1,q2,q3,q4),其中 则q1,q2,Tq3为独立变量,加上平移参数t=[x y z],则相邻二帧之间的运动参数θt=[q1 q2 q3 x T
y z] 为6维向量;
[0040] (2)、利用相邻二帧之间的匹配内点得到最近N帧图像任意帧之间的匹配点,利用Pk,j表示帧j到帧k之间的匹配点数;
[0041] (3)、通过拍摄相邻两帧的摄像头之间的的运动参数级联表达得到拍摄任意非相邻帧摄像头之间的运动参数;相邻二帧摄像头之间的运动参数即为拍摄各帧时的摄像头的运动参数;
[0042] (4)、采用增量式局部参数更新优化方式对运动参数进行优化,本次优化得到的参数作为下一轮优化的初始值;在当前帧t,仅优化其之前的n帧的运动参数,但包含其之前的N帧的视差空间特征点投影约束,设局部视差空间集束调整的目标函数为F(θ),待优化的运动参数为θ={θt-n+1,...θt},则目标函数表达如下:
[0043]
[0044] 表示特征点i在摄像机帧k上的视差空间真实测量坐标,fk,j,i(θt)表示特征点i在帧j向帧k运动后的再投影视差空间坐标。∑为视差空间特征点的协方差矩阵;
[0045] (5)、采用Levenberg-Marquard算法对目标函数F(θ)中的运动参数θ={θt-n+1,...θt}进行非线性迭代优化。
[0046] 在所述步骤八中,采用以下步骤:
[0047] (1)、利用拍摄当前帧前第n+1帧时摄像头相对于世界坐标系的旋转参数R和平移参数t、拍摄当前帧前第n帧时摄像头的运动参数θt-n+1计算得到拍摄当前帧前第n帧时摄像头相对于世界坐标系的旋转参数和平移参数;
[0048] (2)、利用拍摄当前帧前第n+1帧时摄像头相对于世界坐标系的各个旋转参数R和平移参数t、拍摄当前帧前n帧的摄像头运动参数θ={θt-n+1,...θt}计算得到拍摄当前帧时摄像头相对于世界坐标系的旋转参数R和平移参数t;拍摄当前帧时摄像头相对于世界坐标系的旋转参数和平移参数即为立体相机6个自由度的3D定位信息。
[0049] 由于采用本发明的技术方案,本发明具有的有益效果:(1)、仅利用立体相机得到的视频流进行移动机器人的导航定位,具有完全的自主性。(2)、利用U-SURF描述符进行特征匹配,对运动过程中出现的光照变化、运动模糊、大的旋转和尺度变换具有较强的鲁棒性。(3)、利用视差空间集束调整优化方法使自主导航车在长距离行进下也能够进行精度实时的定位,其具有对优化初始值依赖程度低,收敛速度快,数值稳定性高等优点,与利用集束调整的立体视觉定位方法相比,定位精度更高,速度更快。(4)、整个立体视觉定位方法计算速度快,可在线实时运行。附图说明
[0050] 图1是本发明的总体流程图
[0051] 图2是当前帧的第一和第二图像立体匹配图;
[0052] 图3是当前帧与前一帧的特征匹配图;
[0053] 图4是演示特征点多帧匹配约束的示意图;
[0054] 图5是演示多帧运动约束的示意图;
[0055] 图6是演示图2所示视差空间投影函数的雅克比矩阵转置JT的示意图;
[0056] 图7是增量式调整示意图。
[0057] 图8是立体定位结果对比图。具体实施方式:
[0058] 为了使本发明的技术方案和优点更加清楚,下面结合附图对本发明做进一步的详细描述。本发明的总体流程图如图1所示。按照该流程图所述,步骤如下:
[0059] 1、立体图像校正:
[0060] 视频流的第一帧选为起点帧;视频流由立体相机的摄像头拍摄形成;利用已标定立体相机的参数(内参,外参,畸变参数),采用极线校正方法对立体图像对进行校正,使左右图像对应的特征点位于同一水平扫描线上,同时得到校正后立体相机基线长度B和焦距f。极线校正方法采用Bouguet算法。
[0061] 2、第一图像CenSurE特征和U-SURF描述符提取:
[0062] CenSurE特征计算过程如下:
[0063] (1)、计算得到第一图像的积分图像;
[0064] (2)、利用积分图像在每个像素上计算六个尺度的盒子核近似高斯拉普拉斯滤波器响应;
[0065] (3)、采用非极大值抑制检测局部极大值得到CenSurE特征,所述CenSurE特征包括其位置(u,v)、尺度以及极大值;
[0066] U-SURF描述符计算过程如下:
[0067] (1)、以CenSurE特征点为中心取20s×20s的邻域,将该窗口区域分成4×4的子区域。
[0068] (2)、在每个子区域内,计算5s×5s范围内的x和y方向的哈尔小波响应dx、dy,并赋予响应值以高斯权重系数,采样步长为s。
[0069] (3)、将每个子区域内的响应值和响应绝对值相加,并用四维描述向量V=(∑dx,∑dy,∑|dx|,∑|dy|)表示子区域,所以,每个特征点的描述符就是一个64维向量;
[0070] (4)、将描述符向量归一化,去除光照影响。
[0071] 3、第一和第二图像立体匹配:
[0072] 对第一图像的每个CenSurE特征在第二图像采用简单的SAD立体匹配方法沿水平方向极线进行一维搜索匹配,从而得到第一图像CenSurE特征在第二图像上的对应图像坐标(u2,v),则得到整数视差d=u2-u。采用如下二次函数对视差值进行拟合,从而达到亚象素级视差:
[0073]
[0074] Cd为求得的SAD匹配代价。 表示视差空间特征点。,由u、v、d可以计算得到特征点的3D坐标X。图2给出了当前帧的第一和第二图像立体匹配图。
[0075] 若当前帧为起点帧,则将当前帧的下一帧作为当前帧,重复步骤1至3的处理步骤;否则,对所述当前帧再进行步骤4和5;
[0076] 4、与前一帧的特征匹配:
[0077] 取当前帧第一图像中的某个特征点U-SURF描述符,与前一帧第一图像中在某个视差范围(-L,L)内的特征点U-SURF描述符计算二者之间的欧式距离,如果最近的欧式距离与次近的欧式距离的比值少于某个比例阀值并且最近邻的距离小于某个阀值时则接受这一对特征点为匹配点,否则拒绝;在匹配过程中只对极大值同为正值或同为负值的CenSurE特征的U-SURF描述符进行匹配。图3给出了当前帧与前一帧的特征匹配图。
[0078] 5、计算匹配内点和初始运动参数:
[0079] (1)、在上述步骤得到的匹配点集中随机采样3对匹配点;
[0080] (2)、利用2D-3D位姿估计算法和3对匹配点计算拍摄当前帧时摄像头的运动参数R和t;
[0081] (3)、利用该运动参数R和t计算所有匹配点在立体相机上的再投影误差:T
|ml-K[RX+t]|<τ,|mr-K[RX+t+(B 0 0)]|<τ (2)
[0082] 其中ml=(u,v)T和mr=(u+d,v)T为当前帧特征点在第一和第二图像中的坐标,K为为摄像头内部参数矩阵;满足(2)式的匹配点则为匹配内点;其中τ为一固定阀值,X为前一帧特征点3D坐标;
[0083] (4)、多次重复步骤(1)、(2)、(3),选取匹配内点数最多的计算结果作为最后的匹配内点和拍摄当前帧时的摄像头的初始运动参数R和t。
[0084] 6、如步骤5所述的当前帧与起点帧之间的帧数(包含起点帧和当前帧)小于N,将步骤5所述的当前帧的下一帧作为当前帧,对所述当前帧进行步骤一至五的处理,否则,进行步骤六和步骤七的处理;N=2*n+1,n为大于等于1的自然数;
[0085] 7、视差空间集束调整:
[0086] (1)、建立视差空间投影函数:
[0087] 设 表示视差空间特征点的齐次坐标。设 为运动后视差空间特征点,则存在下列视差空间投影函数:
[0088]
[0089] 其中
[0090] (2)、运动参数转换:
[0091] 把旋转矩阵R转化为四元数(q1,q2,q3,q4),其中 则q1,q2,q3为独立变量,加上平移参数t=[x y z]T,则相邻二帧之间的运动参数θt=[q1 q2 q3 x y z]T为6维向量;
[0092] (3)、采用相对坐标表达任意帧之间的运动参数:
[0093] 在特征点匹配时,有许多特征点会同时被两帧以上的立体相机观测到,产生特征点多帧匹配约束,如图2所示。相邻二帧之间的运动参数级联表达得到任意非相邻帧之间的运动参数;设 为4×4的齐次坐标矩阵,表示时间j相邻帧之间的运动参数矩阵,则摄像机帧k相对于帧j的运动参数矩阵为:
[0094] Gj,k=[Gj,j+1Gj+1,j+2...Gk-1,k]-1 (5)[0095] 则Hj,k(R,t)=ΓGj,kΓ-1 (6)[0096] (6)式中
[0097] 由于非相邻帧之间也存在匹配点,从而产生了多帧运动约束,如图3所示。除了连续相邻二帧之间存在运动约束,非相邻帧之间也存在运动约束。图3中,相邻帧之间的运动约束如实线所示,非相邻之间的运动约束如虚线所示。这种匹配点产生的运动约束,可以通过特征点视差空间投影约束联系。
[0098] (4)、建立增量式视差空间集束调整的参数优化方程:
[0099] 采用增量式局部参数更新优化方式对运动参数进行优化,本次优化得到的参数作为下一轮优化的初始值。在当前帧t,仅优化最后n帧的运动参数,但包含最后N帧(N=2*n+1)的视差空间特征点投影约束,图4给出了增量式调整示意图。设局部视差空间集束调整的目标函数为F(θ),待优化的运动参数为θ={θt-n+1,...θt},则目标函数表达如下:
[0100]
[0101] 表示特征点i在摄像机帧k上的视差空间真实测量坐标。fk,j,i(θ)表示特征点i在帧k向帧j运动后的再投影视差空间坐标,如下式:
[0102] fk,j,i(θ)=SPproj[Hj,kWj,i]=SPproj[Wk,j,i(θ)] (8)[0103] SPproj[]为式(3)的视差空间投影函数。
[0104] ∑为视差空间特征点的协方差矩阵,如下式:
[0105]
[0106] δ为图像坐标u、v的噪声方差。δd为视差d的噪声方差。δ取值为1,δd取值为0.5。
[0107] (5)、基于Levenberg-Marquard算法的运动参数优化:
[0108] 设
[0109]
[0110] 则 式 ( 7 ) 为 :
[0111] 采用Levenberg-Marquard算法对 目标函数F(θ)中 的运动参数 θ={θt-n+1,...θt}进行非线性迭代优化。Levenberg-Marquard算法迭代过程如下:
[0112] 1)、给定初始值θ。如步骤六所述的当前帧与起点帧之间的帧数等于N,则所述迭代优化的初值为当前帧的前n帧运动参数;否则,所述迭代优化的初值为拍摄前一帧视差空间集束调整后的前n-1帧运动参数和当前帧运动参数;
[0113] 2)、计算 则
[0114] J为f(θ)的雅克比矩阵:
[0115]
[0116]
[0117] 为4×4×6的张量。T
[0118] 如图5给出了对应于图2所示视差空间投影函数的雅克比矩阵转置(J)。
[0119] 3)、若f(θnew)<f(θ)则转向5);否则进行4)。
[0120] 4)、若 停止计算,输出结果。否则置λ=βλ,θ=θnew,转2)。
[0121] 5)、若 停止计算,输出结果。否则置λ=λ/β,θ=θnew,转2)。参数λ、β、ε分别取0.01、10和0.000001。
[0122] 8、计算当前帧的3D定位信息:
[0123] (1)、利用拍摄当前帧前第n+1帧时摄像头相对于世界坐标系的旋转参数R和平移参数t、拍摄当前帧前第n帧时摄像头的运动参数θt-n+1计算得到拍摄当前帧前第n帧时摄像头相对于世界坐标系的旋转参数和平移参数;
[0124] (2)、利用拍摄当前帧前第n+1帧时摄像头相对于世界坐标系的各个旋转参数R和平移参数t、拍摄当前帧前n帧的摄像头运动参数θ={θt-n+1,...θt}计算得到拍摄当前帧时摄像头相对于世界坐标系的旋转参数R和平移参数t;拍摄当前帧时摄像头相对于世界坐标系的旋转参数和平移参数即为立体相机6个自由度的3D定位信息。
[0125] 图8给出了立体视觉定位结果对比图,可以看出:利用视差空间集束调整的立体视觉定位方法比利用集束调整的立体视觉定位方法更接近基准路径。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈