首页 / 专利库 / 人工智能 / 人工智能 / 计算机视觉 / 机器人视觉 / 一种基于位置和图像的机器人混合视觉伺服控制方法

一种基于位置和图像的机器人混合视觉伺服控制方法

阅读:518发布:2020-05-15

专利汇可以提供一种基于位置和图像的机器人混合视觉伺服控制方法专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种基于 位置 和图像的 机器人 混合视觉伺服方法,旨在提高 机器人视觉 伺服的性能。先通过图像误差来建立相机和目标物的位置关系,再使用位置误差来建立相机和目标物的 姿态 关系,并利用混合视觉伺服 控制器 使机器人朝向期望的 位姿 运动。相对于单一的视觉伺服方法,该方法具有良好的轨迹 精度 和可控的轨迹,本发明可以广泛应用基于视觉的机器人控制。,下面是一种基于位置和图像的机器人混合视觉伺服控制方法专利的具体信息内容。

1.一种基于图像和位置机器人的混合视觉伺服控制方法,其特征在于,包括:
S1、建立相机坐标系和目标物坐标系,通过机器人上安装的相机来生成目标物上特征点的坐标值u。
S2、设定控制信号的期望值Sd,由特征点的坐标值U计算控制信号的当前值S,构建控制误差ΔS=Sd-S作为控制输入。
S3、利用相机参数和成像原理来构建图像雅克比矩阵Ls。
S4、根据S3的图像雅克比矩阵Ls来计算相机的速度Vc,通过控制速度Vc来达到期望的目标位姿
2.根据权利要求1所述的方法,其特征在于,在所述步骤S1中,图像的特征点一般选取目标物平面的四个点组成向量u=[u1,u2,u3,u4]T。
3.根据权利要求1所述的方法,其特征在于,在所述步骤S2中,控制信号的期望值Sd=T
[Pd,θd],其中:Pd是图像坐标的期望值,θd是目标物相对于相机的转的期望值。
4.根据权利要求1所述的方法,其特征在于,所述的机器人混合视觉伺服控制方法,根据S3步骤中构建的雅克比矩阵Ls,结合S2步骤的ΔS,通过设计的视觉伺服得到相机的速度其中, 是雅克比矩阵Ls的逆矩阵,λ是控制增益。

说明书全文

一种基于位置和图像的机器人混合视觉伺服控制方法

技术领域

[0001] 本发明涉及机器人视觉伺服控制领域,尤其涉及一种基于位置和图像的机器人混合视觉伺服控制方法。

背景技术

[0002] 机器人在工业的应用不断增加,广泛应用于喷涂焊接、装配和码垛等领域。随着产业的升级,对机器人的自主性与智能性的要求也越来越高。目前,传统的机器人都是按照事先指定的轨迹进行作业,环境适应性较差,这迫使人们通过增加传感器的方式来提高机器人的感知,使其具备一定的环境适应性。其中,视觉传感器提供了有效的解决方案。机器人视觉伺服利用相机的视觉感知能力来建立机器人空间坐标系和图像坐标系的映射关系,进而通过控制机器人速度来接近目标物。
[0003] 目前,常见的视觉控制方法主要分为基于图像的视觉伺服方法和基于位置的视觉伺服方法。基于图像的视觉伺服的误差定义在图像平面,通过构建图像速度和相机速度的雅克比矩阵来控制机器人的运动速度,从而实现视觉伺服控制。该方法的优点鲁棒性强,缺点是机器人轨迹无法控制。基于位置的视觉伺服利用特征点的图像信息来构建相机和目标物的相对位置关系,并根据位置参数的当前值和期望值的差来设计视觉伺服,以控制机器人完成作业任务。该方法的优点是轨迹可控,缺点是对图像误差的鲁棒性差。
[0004] 对现有相关技术进行文献检索后发现,中国专利号:CN107901041A,名称:一种基于图像混合矩的机器人视觉伺服控制方法。该专利利用图像的混合矩特征信息值作为控制误差。该方法对图像噪声具有一定的鲁棒性,但是图像混合矩的选取复杂、计算量大,适用性有一定的限制。中国专利号:CN106041927A,名称:结合eye-to-hand和eys-in-hand结构的混合视觉伺服系统及方法。该专利通过结合相机eye-to-hand和eys-in-hand的两种使用方式来提高目标识别的定位精度,但是该方法对安装环境有一定的要求,此外,由于使用两个相机,会额外增加成本。
[0005] 因此,针对基于图像和基于位置的视觉伺服方法的缺点,提出了一种新的视觉伺服方法以解决上述问题。

发明内容

[0006] 本发明所要解决的技术问题,在于克服现有机器人视觉伺服方法的缺陷。为此,提出了机器人混合视觉伺服控制方法。该方法能够显著改善现有技术存在的技术缺陷,提高视觉伺服的性能。
[0007] 为达到上述目的,本发明采用如下技术方案:
[0008] 一种基于图像和位置的混合视觉伺服控制方法,其特征在于,包括:
[0009] S1、建立相机坐标系和目标物坐标系,通过机器人上安装的相机来生成目标物上特征点的坐标值u。
[0010] S2、设定控制信号的期望值Sd,由特征点的坐标值U计算控制信号的当前值S,构建控制误差ΔS=Sd-S作为控制输入。
[0011] S3、利用相机参数和成像原理来构建图像雅克比矩阵Ls。
[0012] S4、根据S3的图像雅克比矩阵Ls来计算相机的速度Vc,通过控制速度Vc来达到期望的目标位姿
[0013] 进一步,图像的特征点一般选取目标物平面的四个点组成向量u=[u1,u2,u3,u4]T。
[0014] 进一步,控制信号的期望值Sd=[Pd,θd]T,其中:Pd是图像坐标的期望值,θd是目标物相对于相机的转的期望值。
[0015] 进一步,所述的机器人混合视觉伺服控制方法,根据S3步骤中构建的雅克比矩阵Ls,结合S2步骤的ΔS,通过设计的视觉伺服得到相机的速度 其中, 是雅克比矩阵Ls的逆矩阵,λ是控制增益。附图说明
[0016] 为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
[0017] 图1为本发明方法的流程图
[0018] 图2为机器人视觉伺服系统组成示意图。
[0019] 图3为机器人混合视觉伺服控制示意图;
[0020] 图4为相机速度曲线
[0021] 图5为相机空间轨迹;
[0022] 图6为图像坐标轨迹;

具体实施方式

[0023] 下面结合具体实例,对本发明方法做进一步详细说明,流程如图1所示,具体实施包括以下步骤:
[0024] (1)选取目标物的图像特征点用于视觉伺服控制;
[0025] 机器人视觉伺服系统组成如图2所示,以用视觉伺服来引导机器人到达指定目标为例,在目标物坐标系上选取四个点作为特征点,四个点的位于直径为0.1m的圆平面上;
[0026] (2)构建视觉伺服误差;
[0027] 设定图像坐标的期望值为Pd=[-0.05 0.05 0.2]T,目标物相对于相机的转角的期望值为θd=[30° 30° -30°]T。相机实时采集特征点的当前坐标值U,通过深度估计算法来计算控制信号的当前值S,并构建控制误差ΔS=Sd-S作为控制输入。
[0028] (3)计算图像雅克比矩阵Ls;
[0029] 利用相机的成像原理可以得到相机的运动引起目标物在图像中的变化,图像雅克比矩阵表征了相机移动速度与目标在图像中的坐标变化速度的关系,即,Vi=LsVc,[0030]
[0031] 其中,Vi是图像特征点的变化率,x,y是图像坐标值,Z是图像的深度。
[0032] (4)计算相机速度Vc;
[0033] 通过控制误差信号ΔS呈现指数速度衰减,可以得到视觉伺服的相机速度通过控制速度Vc来达到期望的目标位姿。
[0034] 图3为机器人混合视觉伺服控制示意图,图4为相机速度曲线,可以看出相机的速度轨迹是平滑的,图5为相机空间轨迹,空间轨迹接近直线,就有很好的可控性,图6为图像坐标轨迹,轨迹平滑的达到目标位置。
[0035] 本发明的有益效果是:本发明结合了基于图像视觉伺服和基于位置视觉伺服的优点,与现有视觉伺服控制系统相比,具有鲁棒性强和轨迹可控制的优点,可广泛应用于机器人领域。
[0036] 以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈