首页 / 专利库 / 人工智能 / 人工智能 / 机器人技术 / 机器人 / 非完整机器人 / 一种基于双球幕相机的视觉定位方法及系统

一种基于双球幕相机的视觉定位方法及系统

阅读:632发布:2020-05-22

专利汇可以提供一种基于双球幕相机的视觉定位方法及系统专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种基于双球幕相机的视觉 定位 方法及系统,该方案基于上下两个球幕相机输出的同步全景 视频流 ,可以解决特征点少易 跟踪 失败的问题,从而帮助实现稳定的视觉slam跟踪,另外基于上下两个全景视频流,通过三 角 测量原理,恢复场景深度信息,根据 双目视觉 SLAM原理,计算双球幕相机的相机 位姿 ,最后通过评估关键 帧 的位姿以及 深度图 信息,得到精确的场景地图信息,此方案弥补了现今被动式恢复场景深度不准确不完整的不足,非常适合于车辆和 机器人 定位、障碍物检测和自由空间估计。,下面是一种基于双球幕相机的视觉定位方法及系统专利的具体信息内容。

1.一种基于双球幕相机的视觉定位方法,其特征在于,所述方法包括:
对双球幕相机进行标定,获取上下球幕相机的内外参;
通过双球幕相机采集视频流数据;
基于采集到的所述视频流数据,进行特征点跟踪
基于三测量原理,恢复场景深度信息;
根据双目视觉SLAM的原理,计算双球幕相机的相机位姿
通过评估关键的位姿以及深度图信息,得到精确的场景的地图信息。
2.如权利要求1所述的方法,其特征在于,所述的上下球幕相机的内外参,包括上下球幕相机的内参数矩阵和外参数矩阵,利用这两个矩阵,获得世界坐标系到球幕相机坐标系的转换和球幕相机坐标系到图像坐标系的映射关系。
3.如权利要求1所述的方法,其特征在于,基于采集到的所述视频流数据,进行特征点跟踪,包括:
计算上下相机的特征点和描述子;
将连续跟踪K帧的特征点确定为稳定特征点;
在当前帧的稳定特征点超过阈值时,确定为稳定跟踪。
4.如权利要求1所述的方法,其特征在于,基于三角测量原理,恢复场景深度信息,包括:
恢复场景下的视差图;
基于所述视差图以及三角测量原理恢复场景深度信息。
5.如权利要求1所述的方法,其特征在于,通过评估关键帧的位姿以及深度图信息,得到精确的场景的地图信息,包括:
创建关键帧,并对关键帧的位姿进行初始化,从所有三维点中创建初始化地图;
对跟踪过程进行优化,并进行闭环检测和全局BA;
在跟踪过程中进行关键帧插入,得到精确的场景的地图信息。
6.如权利要求5所述的方法,其特征在于,对跟踪过程进行优化,并进行闭环检测和全局BA,包括:
所述全局BA采用光束优化法,优化在跟踪过程中相机的位姿,优化本地窗口的关键帧和局部地图的特征点,并且在回环检测之后优化所有的关键帧和特征点;
所述闭环检测,即在检测一个回环信息时,根据所述回环信息的回环纠正以及优化位姿图,对双目相机的深度信息以及尺度信息进行观测,基于所述回环信息,再次触发全局BA优化当前地图直至得到该场景精确的地图信息。
7.一种基于双球幕相机的视觉定位系统,其特征在于,所述系统包括:
数据采集,用于对双球幕相机进行标定,获取上下球幕相机的内内外参,通过双球幕相机采集视频流数据;
数据传输模块,搭建一个网络环境,连接双球幕相机和移动端,移动端直接获取双球幕视频流。双球幕相机内芯片处理拼接过程,将拼接后的视频流实时传回移动端。
图像处理模块,用于基于采集到的所述视频流数据,进行特征点跟踪;基于三角测量原理,恢复场景深度信息;
定位与地图特征构建模块,根据双目视觉SLAM的原理,计算双球幕相机的相机位姿;通过评估关键帧的位姿以及深度图信息,得到精确的场景的地图信息。
8.如权利要求7所述的系统,其特征在于,所述数据传输模块,所涉及的移动端,具体用于实际场景计算中,实时计算相机位姿。
9.如权利要求7所述的系统,其特征在于,所述图像处理模块,具体用于计算上下相机的特征点和描述子;在确定为稳定跟踪之后,恢复场景下的视差图,最终恢复场景深度信息。

说明书全文

一种基于双球幕相机的视觉定位方法及系统

技术领域

[0001] 本申请涉及视觉处理技术领域,尤其涉及一种基于双球幕相机的视觉定位方法及系统。

背景技术

[0002] 现有的成熟的单目视觉的SLAM系统,无法直接通过图像获取环境的深度信息。单目视觉SLAM系统由于不能从第一当中进行三测量化,其启动往往需要多个视角或者滤波技术才能产生一个初始化的地图。而且,单目SLAM可能会造成尺度漂移,以及在探索的过程中执行纯旋转的时候可能会失败,所以单目视觉slam很难实现精确的运动估计和精确的恢复场景深度信息,因此双目视觉slam是一个很好的选择,现有的一些双目视觉slam均基于两个同步的普通摄像头或者鱼眼摄像头,由于普通摄像头视场角小,无法帮助提取更多的场景特征点,而鱼眼摄像头输出的图像存在较大的畸变,在对其提取特征点时需要一个畸变矫正的过程,在此过程中部分特征点会丢失,影响特征跟踪发明内容
[0003] 本发明提供了一种基于双球幕相机的视觉定位方法及系统,用以解决现有技术中地图点定位精度较低,影响特征跟踪的问题。
[0004] 其具体的技术方案如下:
[0005] 一种基于双球幕相机的视觉定位方法,所述方法包括:
[0006] 对双球幕相机进行标定,获取上下球幕相机的内外参;
[0007] 通过双球幕相机采集视频流数据;
[0008] 基于采集到的所述视频流数据,进行特征点跟踪;
[0009] 基于三角测量原理,恢复场景深度信息;
[0010] 根据双目视觉的原理,计算双球幕相机的相机位姿
[0011] 通过评估关键帧的位姿以及深度图信息,得到精确的场景的地图信息。
[0012] 可选的,对双球幕相机进行标定,获取上下球幕相机的内外参,其包括上下球幕相机的内参数矩阵和外参数矩阵,利用这两个矩阵,获得世界坐标系到球幕相机坐标系的转换和球幕相机坐标系到图像坐标系的映射关系。反过来,也可以通过图片中的像点推算出世界坐标系当中的物点的坐标。其中,由于相机可安放在环境中的任意位置,在环境中选择一个基准坐标系来描述相机的位置,并用它描述环境中任何物体的位置,该坐标系称为世界坐标系。相机坐标系与世界坐标系之间的关系可以用旋转矩阵与平移向量来描述。
[0013] 可选的,基于采集到的所述视频流数据,进行特征点跟踪,包括:
[0014] 计算上下相机的特征点和描述子;
[0015] 将连续跟踪k帧的特征点确定为稳定特征点;
[0016] 在当前帧的稳定特征点超过阈值时,确定为稳定跟踪。
[0017] 可选的,基于三角测量原理,恢复场景深度信息,包括:
[0018] 恢复场景下的视差图;
[0019] 基于所述视差图以及三角测量原理恢复场景深度信息。
[0020] 可选的,通过评估关键帧的位姿以及深度图信息,得到精确的场景的地图信息,包括:
[0021] 创建关键帧,并对关键帧的位姿进行初始化,从所有三维点中创建初始化地图;
[0022] 对跟踪过程进行优化,并进行闭环检测和全局BA;
[0023] 在跟踪过程中进行关键帧插入,得到精确的场景的地图信息。
[0024] 可选的,对跟踪过程进行优化,并进行闭环检测和全局BA,包括:
[0025] 在检测一个回环信息时,根据所述回环信息的回环纠正以及优化姿态图,对双目相机的深度信息以及尺度信息进行观测;
[0026] 基于所述回环信息,再次触发全局BA优化当前地图直至得到该场景精确的地图信息。
[0027] 一种基于双球幕相机的视觉定位系统,所述系统包括:
[0028] 数据采集,用于对双球幕相机进行标定,获取上下球幕相机的内内外参,通过双球幕相机采集视频流数据;
[0029] 数据传输模块,搭建一个网络环境,可以实时传输环境视频至PC端的双球幕相机,双球幕相机将采集的视频实时的传输给PC端;
[0030] 图像处理模块,用于基于采集到的所述视频流数据,进行特征点跟踪;基于三角测量原理,恢复场景深度信息;
[0031] 定位与地图特征构建模块,根据双目视觉SLAM的原理,计算双球幕相机的相机位姿;通过评估关键帧的位姿以及深度图信息,得到精确的场景的地图信息。
[0032] 可选的,所述数据传输模块,所涉及的移动端,具体用于实际场景计算中,实时计算相机位姿。
[0033] 可选的,所述图像处理模块,具体用于计算上下相机的特征点和描述子;在确定定为稳定跟踪之后,恢复场景下的视差图,最终恢复场景深度信息。
[0034] 通过本发明所提供的方法以及系统,相比以往的方法和拍摄装置,本技术方案利用双球幕相机进行数据采集,减少数据采集量,计算成本小,可以直接通过图像获取环境的深度信息,精确实现运动估计,能够适应较大场景的视觉定位。附图说明
[0035] 图1为本发明实施例中一种基于双球幕相机的视觉定位方法的流程图
[0036] 图2为本发明实施例中一种基于双球幕相机的视觉定位系统的结构示意图。

具体实施方式

[0037] 下面通过附图以及具体实施例对本发明技术方案做详细的说明,应当理解,本发明实施例以及实施例中的具体技术特征只是对本发明技术方案的说明,而不是限定,在不冲突的情况下,本发明实施例以及实施例中的具体技术特征可以相互组合。
[0038] 如图1所示为本发明实施例中一种基于双球幕相机的视觉定位方法的流程图,该方法包括:
[0039] S1,对双球幕相机进行标定,获取上下球幕相机的内外参;
[0040] S2,通过双球幕相机采集视频流数据;
[0041] S3,基于采集到的所述视频流数据,进行特征点跟踪;
[0042] 此处,首先计算上下相机的特征点和描述子,进行特征点跟踪,将连续跟踪5帧的特征点的视为稳定特征点,当前帧的稳定特征点超过10个时即认为稳定跟踪;
[0043] S4,基于三角测量原理,恢复场景深度信息;
[0044] 在此步骤中,首先恢复视差图;基于视差图和三角测量原理恢复场景深度信息;
[0045] S5,根据双目视觉SLAM的原理,计算双球幕相机的相机位姿;
[0046] S6,通过评估关键帧的位姿以及深度图信息,得到精确的场景的地图信息。
[0047] 具体步骤为:
[0048] 1)、地图初始化:
[0049] 基于双目可以直接获取深度信息,在系统初始化的时候就可以创建一个关键帧(也就是第一帧),将其位姿进行初始化,从所有三维点中创建初始化地图;
[0050] 2)、跟踪及优化:
[0051] 系统采用光束优化法(BA),优化在跟踪过程(纯运动BA)中相机的位姿,优化本地窗口的关键帧和局部地图的特征点(局部BA),并且在回环检测之后优化所有的关键帧和特征点(全局BA);
[0052] 3)、闭环检测及全局BA:
[0053] 回环检测有两步:首先,一个回环信息被确定检测到,然后利用这个回环纠正和优化位姿图,对于双目相机,其深度信息会使得尺度信息可观测,并且,几何校验和位姿图优化将不再需要处理尺度漂移,而且是基于刚体变换的,而不是基于相似性。
[0054] 当检测到回环信息,会再次触发全局BA优化与当前地图的合成。如果在优化运行时检测到新的循环,我们将中止优化并继续关闭循环,这将再次启动完整的BA优化。当完整的BA结束时,我们需要将更新的关键帧子集和由完整BA优化的点与未更新的关键帧和在优化运行时插入的点合并。最后通过更新关键帧校正(例如,这个变换从未优化到已优化)到一个未更新关键帧通过生成树当中。根据校正参考帧来改造这些未更新的特征点。
[0055] 4)、关键帧插入:
[0056] 即精确插入关键帧并且剔除上一帧的冗余,这在较大场景中是至关重要的。
[0057] 基于本发明所提供的方法的,该方案基于上下两个球幕相机输出的同步全景视频流,可以解决特征点少易跟踪失败的问题,从而帮助实现稳定的视觉slam跟踪,另外基于上下两个全景视频流,通过三角测量原理,恢复场景深度信息,根据双目视觉SLAM原理,计算双球幕相机的相机位姿,最后通过评估关键帧的位姿以及深度图信息,得到精确的场景地图信息,此方案弥补了现今被动式恢复场景深度不准确不完整的不足,非常适合于车辆和机器人定位、障碍物检测和自由空间估计。
[0058] 基于本发明所提供的方法,本发明中还提供了一种基于双球幕相机的视觉定位系统,如图2所示为本发明实施例中一种基于双球幕相机的视觉定位系统的结构示意图,该系统包括:
[0059] 数据采集模块201,用于对双球幕相机进行标定,获取上下球幕相机的内内外参,通过双球幕相机采集视频流数据;
[0060] 数据传输模块202,搭建一个网络环境,连接双球幕相机和移动端,移动端直接获取双球幕视频流。双球幕相机内芯片处理拼接过程,将拼接后的视频流实时传回移动端;
[0061] 图像处理模块203,用于基于采集到的所述视频流数据,进行特征点跟踪;基于三角测量原理,恢复场景深度信息;
[0062] 定位与地图特征构建模块204,根据双目视觉SLAM的原理,计算双球幕相机的相机位姿;通过评估关键帧的位姿以及深度图信息,得到精确的场景的地图信息。
[0063] 进一步,在本发明实施例中,所述数据传输模块202,所涉及的移动端,具体用于实际场景计算中,实时计算相机位姿。
[0064] 进一步,在本发明实施例中,所述图像处理模块203,具体用于计算上下相机的特征点和描述子;在确定定为稳定跟踪之后,恢复场景下的视差图,最终恢复场景深度信息。
[0065] 尽管已描述了本申请的优选实施例,但本领域内的普通技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改,包括采用特定符号、标记确定顶点等变更方式。
[0066] 显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈