首页 / 专利库 / 视听技术与设备 / 深度相机 / 基于语义激光交互的机械臂抓取方法

基于语义激光交互的机械臂抓取方法

阅读:1025发布:2020-07-18

专利汇可以提供基于语义激光交互的机械臂抓取方法专利检索,专利查询,专利分析的服务。并且本 发明 涉及一种基于语义激光交互的 机械臂 抓取方法,其解决了现有载臂 轮椅 式助老助残 机器人 靠 手柄 来操作,存在的操作不方便、负担重、 精度 差、效率低; 人机交互 不够友好,用户体验差的技术问题,其包括以下步骤:获取物体的图像;识别出图像中存在的激光光斑;根据激光光斑识别目标物体;确定目标物体的抓取 位姿 ;当图像中的激光光斑消失,根据抓取位姿使机械臂动作进而抓住目标物体;机械臂动作移动目标物体。本发明广泛用于控制机械臂抓取物品或操作载臂轮椅式助老助残机器人。,下面是基于语义激光交互的机械臂抓取方法专利的具体信息内容。

1.一种基于语义激光交互的机械臂抓取方法,其特征在于,包括以下步骤:
步骤1,获取物体的图像;
步骤2,识别出图像中存在的激光光斑;
步骤3,根据激光光斑识别目标物体;
步骤4,确定目标物体的抓取位姿
步骤5,当图像中的激光光斑消失,根据抓取位姿使机械臂动作进而抓住目标物体;
步骤6,机械臂动作移动目标物体。
2.根据权利要求1所述的基于语义激光交互的机械臂抓取方法,其特征在于:
所述步骤1中,图像包括深度图像和彩色图像;
所述步骤2的过程是,识别出彩色图像中存在的激光光斑;
所述步骤3的过程是:
(1)计算激光光斑在彩色图像中的二维像素坐标(u,v),将光斑的二维像素坐标(u,v)转换到相机坐标系下的坐标(X/Z,Y/Z);
(2)首先对深度图像进行滤波处理,其次进行距离分割处理获得每一个物体的点,再其次计算每个物体在相机坐标系下的形心坐标(Xi,Yi,Zi),然后将各个物体的形心坐标(Xi,Yi,Zi)与光斑坐标(X/Z,Y/Z)进行距离比较,如果某物体与光斑之间的距离小于设定阈值,则确定该物体为目标物体。
3.根据权利要求2所述的基于语义激光交互的机械臂抓取方法,其特征在于,通过以下公式(1-1)判断物体与光斑之间的距离小于设定阈值:
公式(1-1)中,T表示阈值。
4.根据权利要求1所述的基于语义激光交互的机械臂抓取方法,其特征在于,所述步骤
4的过程是:
(1)根据目标物体的点云信息和表面曲率,计算生成多种抓取候选位姿;
(2)基于卷积神经网络评估多种抓取候选位姿,将评分最高者作为目标物体的抓取位姿。
5.根据权利要求1所述的基于语义激光交互的机械臂抓取方法,其特征在于:
所述步骤1中,图像包括深度图像和彩色图像;
所述步骤2的过程是:
(1)将获得的彩色图像进行图像预处理;
(2)通过YOLOv3卷积神经网络函数识别出预处理后的彩色图像中的激光光斑,具体过程是:
首先将预处理后的彩色图像输入YOLOv3卷积神经网络函数进行训练,训练的过程能够得出彩色图像的真实框;
YOLOv3卷积神经网络函数对图像数据进行分析判断,在网络的最后一层,会将卷积网络处理后的图像分成等边的单元格,使用锚预测方法对每个单元格进行预测判断;
针对每一个划分的小单元格,如果预测出目标边界框,YOLOv3卷积神经网络函数使用逻辑回归对预测边界框打分;
根据预测框和真实框的重合程度设定置信度,该置信度作为阈值使用,当边界框得分大于置信度,则确定该边界框可能为激光光斑所在图像区域,如果最后剩余一个边界框,则该边界框区域为激光光斑,如果预置判断后还剩余多个边界框,则取得分最大的边界框区域,确定识别出激光光斑。
6.一种基于语义激光交互的机械臂抓取方法,其特征在于,包括以下步骤:
步骤1,获取物体的图像;
步骤2,识别出图像中存在的第一次激光光斑;
步骤3,计算出第一次激光光斑的位置信息;
步骤4,根据第一次激光光斑识别第一目标物体;
步骤5,确定第一目标物体的抓取位姿;
步骤6,当图像中的第一次激光光斑消失后,又识别出图像中存在的第二次激光光斑,计算从第一次激光光斑消失后到出现第二次激光光斑之间的间隔时间tc;
步骤7,计算出第二次激光光斑识的位置信息;
步骤8,根据第二次激光光斑识别第二目标物体;
步骤9,依据第二目标物体本身的信息确定机械臂手爪目标位置;
步骤10,当图像中的第二次激光光斑消失,将第一次激光光斑的位置信息和第二次激光光斑的位置进行比较,如果第二次激光光斑和第一次激光光斑的位置不同,则执行步骤
11;
步骤11,当间隔时间tc小于设定的阈值B,执行步骤12;
步骤12,根据第一目标物体的抓取位姿使机械臂动作进而抓住第一目标物体;
步骤13,机械臂动作将第一目标物体移动到靠近第二目标物体的机械臂手爪目标位置。
7.一种基于语义激光交互的机械臂抓取方法,其特征在于,包括以下步骤:
步骤S201,通过RGB-D摄像头对桌子上的物体所在区域进行摄像,获取视频,并将视频信息发送给主控制器
步骤S202,主控制器按照一定周期对视频信息进行采样处理,获取深度图像和彩色图像;
步骤S203,主控制器中的激光光斑识别模识别出图像中存在的第一次激光光斑;
步骤S204,主控制器中的激光光斑计时模块开始计时;
步骤S205,主控制器中的位置获取模块计算第一次激光光斑在彩色图像中的二维像素坐标(u,v),将光斑的二维像素坐标(u,v)转换到相机坐标系下的坐标(X1/Z,Y1/Z)并进行存储;
步骤S206,主控制器中的目标物体识别模块依据第一次激光光斑位置信息识别第一目标物体;
步骤S207,主控制器中的位姿获取模块计算出第一目标物体的抓取位姿;
步骤S208,主控制器中的激光光斑识别模块确定图像中没有激光光斑,执行步骤S209;
步骤S209,激光光斑计时模块停止计时并得出第一次激光光斑的持续时间t1;
步骤S210,主控制器中的间隔时间计时模块开始计时;
步骤S211,主控制器中的激光光斑识别模块识别出图像中存在的第二次激光光斑;
步骤S212,间隔时间计时模块停止计时并得出间隔时间tc;
步骤S213,控制器中的激光光斑计时模块开始计时;
步骤S214,主控制器中的位置获取模块计算第二次激光光斑在彩色图像中的二维像素坐标(u,v),将光斑的二维像素坐标(u,v)转换到相机坐标系下的坐标(X2/Z,Y2/Z)并进行存储;
步骤S215,目标物体识别模块依据第二次激光光斑位置信息识别第二目标物体;
步骤S216,确定机械臂手爪目标位置坐标;
步骤S217,主控制器中的激光光斑识别模块确定第二次激光光斑消失,执行步骤S218;
步骤S218,激光光斑计时模块停止计时并得出第二次激光光斑的持续时间t2;
步骤S219,将步骤S214计算出的第二次激光光斑的坐标(X2/Z,Y2/Z)和步骤S205计算出的第一次激光光斑的坐标(X1/Z,Y1/Z)比对,计算两个坐标之间的距离L,如果距离L大于设定的阈值S,则认为第二次激光光斑和第一次激光光斑的位置不同,位置不同执行步骤S220;
步骤S220,设定时间阈值A、B、C,当第一次激光光斑的持续时间t1>A,且间隔时间tc<B,且第二次激光光斑的持续时间t2>C,执行步骤S221;
步骤S221,主控制器将步骤s207计算得出第一目标物体的抓取位姿发送给机械臂控制器,则机械臂控制器的内部轨迹规划程序自动进行逆解运算,计算出机械臂各关节的运动位移和速度,发送给机械臂并控制机械臂按照解算的轨迹运动,控制手爪将第一目标物体抓住;
步骤S222,主控制器控制机械臂的手爪移动到第二目标物体上方手爪目标位置坐标所指定的位置;
步骤S223,主控制器控制机械臂的手爪松开,将第一目标物体放到第二目标物体指定位置。
8.一种基于语义激光交互的机械臂抓取方法,其特征在于,包括以下步骤:
步骤S301,通过RGB-D摄像头对桌子上的物体所在区域进行摄像,获取视频,并将视频信息发送给主控制器;
步骤S302,主控制器按照一定周期对视频信息进行采样处理,获取深度图像和彩色图像;
步骤S303,主控制器中的激光光斑识别模块识别出图像中存在的第一次激光光斑;
步骤S304,控制器中的激光光斑计时模块开始计时;
步骤S305,控制器中的位置获取模块计算第一次激光光斑在彩色图像中的二维像素坐标(u,v),将光斑的二维像素坐标(u,v)转换到相机坐标系下的坐标(X1/Z,Y1/Z)并进行存储;
步骤S306,主控制器中的目标物体识别模块依据第一次激光光斑位置信息识别第一目标物体;
步骤S307,主控制器中的位姿获取模块计算出第一目标物体的抓取位姿;
步骤S308,主控制器中的激光光斑识别模块确定图像中没有激光光斑,执行步骤S309;
步骤S309,激光光斑计时模块停止计时并得出第一次激光光斑的持续时间t1;
步骤S310,主控制器中的间隔时间计时模块开始计时;
步骤S311,主控制器中的激光光斑识别模块识别出图像中存在第二次激光光斑;
步骤S312,间隔时间计时模块停止计时并得出间隔时间tc;
步骤S313,主控制器中的激光光斑计时模块开始计时;
步骤S314,主控制器中的位置获取模块计算第二次激光光斑在彩色图像中的二维像素坐标(u,v),将光斑的二维像素坐标(u,v)转换到相机坐标系下的坐标(X2/Z,Y2/Z)并进行存储;
步骤S315,目标物体识别模块依据第二次激光光斑位置信息识别第二目标物体;
步骤S316,确定机械臂手爪目标位置坐标并存储;
步骤S317,主控制器中的激光光斑识别模块确定图像中没有激光光斑,执行步骤S318;
步骤S318,激光光斑计时模块停止计时并得出第二次激光光斑的持续时间t2;
步骤S319,将步骤S314计算出的第二次激光光斑的坐标(X2/Z,Y2/Z)和步骤S305计算出的第一次激光光斑的坐标(X1/Z,Y1/Z)比对,计算两个坐标之间的距离L,如果距离L大于设定的阈值S,则认为第二次激光光斑和第一次激光光斑的位置不同,位置不同执行步骤S320;
步骤S320,设定时间阈值tlast、B,当第一次激光光斑的持续时间t1>tlast,且间隔时间tc<B,且t2<tlast,执行步骤S321;
步骤S321,主控制器将步骤s307计算得出的抓取位姿发送给机械臂控制器,则机械臂控制器的内部轨迹规划程序自动进行逆解运算,计算出机械臂各关节的运动位移和速度,发送给机械臂并控制机械臂按照解算的轨迹运动,控制手爪抓住第一目标物体;
步骤S322,主控制器控制机械臂的手爪移动到靠近第二目标物体的机械臂手爪目标位置坐标所指定的位置。
9.一种基于语义激光交互的机械臂抓取系统,其特征在于,包括:
图像采集模块,用于获取物体的深度图像和彩色图像;
激光光斑识别模块,用于识别出图像中存在的激光光斑;
位置获取模块,用于计算激光光斑在图像中的位置信息;
目标物体识别模块,用于根据位置获取模块输出的位置信息识别目标物体;
位姿获取模块,用于计算目标物体的抓取位姿;
机械臂运动逆解算模块,用于将位姿获取模块输出的抓取位姿进行逆解运算,计算出机械臂各关节的运动位移和速度,并将机械臂各关节的运动位移和速度发送给机械臂。
10.一种基于语义激光交互的机械臂抓取方法,其特征在于,包括以下步骤:
步骤1,获取物体的图像;
步骤2,识别出图像中存在的激光光斑;
步骤3,根据激光光斑识别目标物体;
步骤4,确定目标物体的抓取位姿;
步骤5,当图像中的激光光斑消失,根据抓取位姿使机械臂动作进而抓住目标物体。

说明书全文

基于语义激光交互的机械臂抓取方法

技术领域

[0001] 本发明涉及助老助残机器人技术领域,具体而言,涉及一种基于语义激光交互的机械臂抓取方法。

背景技术

[0002] 众所周知,中国正处在老龄化社会迅速发展的阶段,社会上需要护理的老年人以及残疾人的数量日益增多,这就对助老助残机器人的刚性需求巨增。
[0003] 参考申请公布号为CN109048918A的中国发明专利申请、申请公布号为CN109262632A的中国发明专利申请以及申请公布号为CN107595505A的中国发明专利申请,载臂轮椅式助老助残机器人兼具载运和抓取、移动物体功能,这类机器人的人机交互主要靠手柄来操作,然而手柄操作方式存在操作不方便、负担重、精度差、效率低以及对熟练度要求较高的技术缺陷,无法满足用户的要求;人机交互不够友好,用户体验不理想,不符合目前物联网技术的发展需求。

发明内容

[0004] 本发明就是为了解决现有载臂轮椅式助老助残机器人靠手柄来操作,存在的操作不方便、负担重、精度差、效率低;人机交互不够友好,用户体验差的技术问题,提供了一种操作更加方便、负担轻、精度高、效率高;人机交互更加友好,用户体验更好的基于语义激光交互的机械臂抓取方法。
[0005] 本发明提供一种基于语义激光交互的机械臂抓取方法,包括以下步骤:
[0006] 步骤1,获取物体的图像;
[0007] 步骤2,识别出图像中存在的激光光斑;
[0008] 步骤3,根据激光光斑识别目标物体;
[0009] 步骤4,确定目标物体的抓取位姿
[0010] 步骤5,当图像中的激光光斑消失,根据抓取位姿使机械臂动作进而抓住目标物体;
[0011] 步骤6,机械臂动作移动目标物体。
[0012] 优选地,步骤1中,图像包括深度图像和彩色图像;步骤2的过程是,识别出彩色图像中存在的激光光斑;步骤3的过程是:
[0013] (1)计算激光光斑在彩色图像中的二维像素坐标(u,v),将光斑的二维像素坐标(u,v)转换到相机坐标系下的坐标(X/Z,Y/Z);
[0014] (2)首先对深度图像进行滤波处理,其次进行距离分割处理获得每一个物体的点,再其次计算每个物体在相机坐标系下的形心坐标(Xi,Yi,Zi),然后将各个物体的形心坐标(Xi,Yi,Zi)与光斑坐标(X/Z,Y/Z)进行距离比较,如果某物体与光斑之间的距离小于设定阈值,则确定该物体为目标物体。
[0015] 优选地,通过以下公式(1-1)判断物体与光斑之间的距离小于设定阈值:
[0016]
[0017] 公式(1-1)中,T表示阈值。
[0018] 优选地,步骤4的过程是:
[0019] (1)根据目标物体的点云信息和表面曲率,计算生成多种抓取候选位姿;
[0020] (2)基于卷积神经网络评估多种抓取候选位姿,将评分最高者作为目标物体的抓取位姿。
[0021] 优选地,步骤1中,图像包括深度图像和彩色图像;步骤2的过程是:
[0022] (1)将获得的彩色图像进行图像预处理;
[0023] (2)通过YOLOv3卷积神经网络函数识别出预处理后的彩色图像中的激光光斑,具体过程是:
[0024] 首先将预处理后的彩色图像输入YOLOv3卷积神经网络函数进行训练,训练的过程能够得出彩色图像的真实框;
[0025] YOLOv3卷积神经网络函数对图像数据进行分析判断,在网络的最后一层,会将卷积网络处理后的图像分成等边的单元格,使用锚预测方法对每个单元格进行预测判断;
[0026] 针对每一个划分的小单元格,如果预测出目标边界框,YOLOv3卷积神经网络函数使用逻辑回归对预测边界框打分;
[0027] 根据预测框和真实框的重合程度设定置信度,该置信度作为阈值使用,当边界框得分大于置信度,则确定该边界框可能为激光光斑所在图像区域,如果最后剩余一个边界框,则该边界框区域为激光光斑,如果预置判断后还剩余多个边界框,则取得分最大的边界框区域,确定识别出激光光斑。
[0028] 本发明还提供一种基于语义激光交互的机械臂抓取方法,包括以下步骤:
[0029] 步骤1,获取物体的图像;
[0030] 步骤2,识别出图像中存在的第一次激光光斑;
[0031] 步骤3,计算出第一次激光光斑的位置信息;
[0032] 步骤4,根据第一次激光光斑识别第一目标物体;
[0033] 步骤5,确定第一目标物体的抓取位姿;
[0034] 步骤6,当图像中的第一次激光光斑消失后,又识别出图像中存在的第二次激光光斑,计算从第一次激光光斑消失后到出现第二次激光光斑之间的间隔时间tc;
[0035] 步骤7,计算出第二次激光光斑识的位置信息;
[0036] 步骤8,根据第二次激光光斑识别第二目标物体;
[0037] 步骤9,依据第二目标物体本身的信息确定机械臂手爪目标位置;
[0038] 步骤10,当图像中的第二次激光光斑消失,将第一次激光光斑的位置信息和第二次激光光斑的位置进行比较,如果第二次激光光斑和第一次激光光斑的位置不同,则执行步骤11;
[0039] 步骤11,当间隔时间tc小于设定的阈值B,执行步骤12;
[0040] 步骤12,根据第一目标物体的抓取位姿使机械臂动作进而抓住第一目标物体;
[0041] 步骤13,机械臂动作将第一目标物体移动到靠近第二目标物体的机械臂手爪目标位置。
[0042] 本发明还提供一种基于语义激光交互的机械臂抓取方法,包括以下步骤:
[0043] 步骤S201,通过RGB-D摄像头对桌子上的物体所在区域进行摄像,获取视频,并将视频信息发送给主控制器
[0044] 步骤S202,主控制器按照一定周期对视频信息进行采样处理,获取深度图像和彩色图像;
[0045] 步骤S203,主控制器中的激光光斑识别模识别出图像中存在的第一次激光光斑;
[0046] 步骤S204,主控制器中的激光光斑计时模块开始计时;
[0047] 步骤S205,主控制器中的位置获取模块计算第一次激光光斑在彩色图像中的二维像素坐标(u,v),将光斑的二维像素坐标(u,v)转换到相机坐标系下的坐标(X1/Z,Y1/Z)并进行存储;
[0048] 步骤S206,主控制器中的目标物体识别模块依据第一次激光光斑位置信息识别第一目标物体;
[0049] 步骤S207,主控制器中的位姿获取模块计算出第一目标物体的抓取位姿;
[0050] 步骤S208,主控制器中的激光光斑识别模块确定图像中没有激光光斑,执行步骤S209;
[0051] 步骤S209,激光光斑计时模块停止计时并得出第一次激光光斑的持续时间t1;
[0052] 步骤S210,主控制器中的间隔时间计时模块开始计时;
[0053] 步骤S211,主控制器中的激光光斑识别模块识别出图像中存在的第二次激光光斑;
[0054] 步骤S212,间隔时间计时模块停止计时并得出间隔时间tc;
[0055] 步骤S213,控制器中的激光光斑计时模块开始计时;
[0056] 步骤S214,主控制器中的位置获取模块计算第二次激光光斑在彩色图像中的二维像素坐标(u,v),将光斑的二维像素坐标(u,v)转换到相机坐标系下的坐标(X2/Z,Y2/Z)并进行存储;
[0057] 步骤S215,目标物体识别模块依据第二次激光光斑位置信息识别第二目标物体;
[0058] 步骤S216,确定机械臂手爪目标位置坐标;
[0059] 步骤S217,主控制器中的激光光斑识别模块确定第二次激光光斑消失,执行步骤S218;
[0060] 步骤S218,激光光斑计时模块停止计时并得出第二次激光光斑的持续时间t2;
[0061] 步骤S219,将步骤S214计算出的第二次激光光斑的坐标(X2/Z,Y2/Z)和步骤S205计算出的第一次激光光斑的坐标(X1/Z,Y1/Z)比对,计算两个坐标之间的距离L,如果距离L大于设定的阈值S,则认为第二次激光光斑和第一次激光光斑的位置不同,位置不同执行步骤S220;
[0062] 步骤S220,设定时间阈值A、B、C,当第一次激光光斑的持续时间t1>A,且间隔时间tc<B,且第二次激光光斑的持续时间t2>C,执行步骤S221;
[0063] 步骤S221,主控制器将步骤s207计算得出第一目标物体的抓取位姿发送给机械臂控制器,则机械臂控制器的内部轨迹规划程序自动进行逆解运算,计算出机械臂各关节的运动位移和速度,发送给机械臂并控制机械臂按照解算的轨迹运动,控制手爪将第一目标物体抓住;
[0064] 步骤S222,主控制器控制机械臂的手爪移动到第二目标物体上方手爪目标位置坐标所指定的位置;
[0065] 步骤S223,主控制器控制机械臂的手爪松开,将第一目标物体放到第二目标物体指定位置。
[0066] 本发明还提供一种基于语义激光交互的机械臂抓取方法,包括以下步骤:
[0067] 步骤S301,通过RGB-D摄像头对桌子上的物体所在区域进行摄像,获取视频,并将视频信息发送给主控制器;
[0068] 步骤S302,主控制器按照一定周期对视频信息进行采样处理,获取深度图像和彩色图像;
[0069] 步骤S303,主控制器中的激光光斑识别模块识别出图像中存在的第一次激光光斑;
[0070] 步骤S304,控制器中的激光光斑计时模块开始计时;
[0071] 步骤S305,控制器中的位置获取模块计算第一次激光光斑在彩色图像中的二维像素坐标(u,v),将光斑的二维像素坐标(u,v)转换到相机坐标系下的坐标(X1/Z,Y1/Z)并进行存储;
[0072] 步骤S306,主控制器中的目标物体识别模块依据第一次激光光斑位置信息识别第一目标物体;
[0073] 步骤S307,主控制器中的位姿获取模块计算出第一目标物体的抓取位姿;
[0074] 步骤S308,主控制器中的激光光斑识别模块确定图像中没有激光光斑,执行步骤S309;
[0075] 步骤S309,激光光斑计时模块停止计时并得出第一次激光光斑的持续时间t1;
[0076] 步骤S310,主控制器中的间隔时间计时模块开始计时;
[0077] 步骤S311,主控制器中的激光光斑识别模块识别出图像中存在第二次激光光斑;
[0078] 步骤S312,间隔时间计时模块停止计时并得出间隔时间tc;
[0079] 步骤S313,主控制器中的激光光斑计时模块开始计时;
[0080] 步骤S314,主控制器中的位置获取模块计算第二次激光光斑在彩色图像中的二维像素坐标(u,v),将光斑的二维像素坐标(u,v)转换到相机坐标系下的坐标(X2/Z,Y2/Z)并进行存储;
[0081] 步骤S315,目标物体识别模块依据第二次激光光斑位置信息识别第二目标物体;
[0082] 步骤S316,确定机械臂手爪目标位置坐标并存储;
[0083] 步骤S317,主控制器中的激光光斑识别模块确定图像中没有激光光斑,执行步骤S318;
[0084] 步骤S318,激光光斑计时模块停止计时并得出第二次激光光斑的持续时间t2;
[0085] 步骤S319,将步骤S314计算出的第二次激光光斑的坐标(X2/Z,Y2/Z)和步骤S305计算出的第一次激光光斑的坐标(X1/Z,Y1/Z)比对,计算两个坐标之间的距离L,如果距离L大于设定的阈值S,则认为第二次激光光斑和第一次激光光斑的位置不同,位置不同执行步骤S320;
[0086] 步骤S320,设定时间阈值tlast、B,当第一次激光光斑的持续时间t1>tlast,且间隔时间tc<B,且t2<tlast,执行步骤S321;
[0087] 步骤S321,主控制器将步骤s307计算得出的抓取位姿发送给机械臂控制器,则机械臂控制器的内部轨迹规划程序自动进行逆解运算,计算出机械臂各关节的运动位移和速度,发送给机械臂并控制机械臂按照解算的轨迹运动,控制手爪抓住第一目标物体;
[0088] 步骤S322,主控制器控制机械臂的手爪移动到靠近第二目标物体的机械臂手爪目标位置坐标所指定的位置。
[0089] 本发明还提供一种基于语义激光交互的机械臂抓取系统,包括:
[0090] 图像采集模块,用于获取物体的深度图像和彩色图像;
[0091] 激光光斑识别模块,用于识别出图像中存在的激光光斑;
[0092] 位置获取模块,用于计算激光光斑在图像中的位置信息;
[0093] 目标物体识别模块,用于根据位置获取模块输出的位置信息识别目标物体;
[0094] 位姿获取模块,用于计算目标物体的抓取位姿;
[0095] 机械臂运动逆解算模块,用于将位姿获取模块输出的抓取位姿进行逆解运算,计算出机械臂各关节的运动位移和速度,并将机械臂各关节的运动位移和速度发送给机械臂。
[0096] 本发明还提供一种基于语义激光交互的机械臂抓取方法,包括以下步骤:
[0097] 步骤1,获取物体的图像;
[0098] 步骤2,识别出图像中存在的激光光斑;
[0099] 步骤3,根据激光光斑识别目标物体;
[0100] 步骤4,确定目标物体的抓取位姿;
[0101] 步骤5,当图像中的激光光斑消失,根据抓取位姿使机械臂动作进而抓住目标物体。
[0102] 本发明的有益效果是:
[0103] (1)交互方式新颖,相比通过手柄进行简单的任务动作与关节控制,用户只需考虑目标物不必关注过程控制,操作起来更方便,操作负担小,提高用户的使用易用性,用户感受好。
[0104] (2)本发明适用于老龄及残障人士。对于严重体弱、严重活动不便、视弱的人群,使用激光笔进行操作更加合适。
[0105] (3)基于卷积神经网络进行微小激光点及其点取物品的精准识别,克服了现实家居环境下的光照、距离、背景等多种因素影响,实现现实世界背景下普通激光笔发射激光点的实时精准检测,有利于提高基于激光点的直觉交互的准确性。
[0106] (4)实现基于点云信息的点取物品自主抓取,无需提前存储物体模型,仅依靠RGB-D深度摄像头采集的点云信息,实现未知物品抓取位姿快速生成。实现家居非结构环境下任意照射物品进而准确地自主抓取。
[0107] 本发明进一步的特征和方面,将在以下参考附图的具体实施方式的描述中,得以清楚地记载。

附图说明

[0108] 图1是载臂轮椅式助老助残机器人的结构示意图;
[0109] 图2是控制系统的原理框图
[0110] 图3是主控制器的原理框图;
[0111] 图4是本发明运行过程的示意图;
[0112] 图5是实施例1的控制方法流程图
[0113] 图6是图5所示流程中识别出图片中激光光斑的方法流程图;
[0114] 图7是实施例2的控制方法流程图;
[0115] 图8是实施例3的控制方法流程图。
[0116] 图中符号说明:
[0117] 10.电动轮椅,11.轮椅控制器;20.机械臂,21.机械臂控制器;30.RGB-D摄像头,40.GPU模块,50.主控制器,51.激光光斑识别模块,52.位置获取模块,53.激光光斑计时模块,60.激光笔。

具体实施方式

[0118] 以下参照附图,以具体实施例对本发明作进一步详细说明。
[0119] 如图1所示,本发明的载臂轮椅式助老助残机器人包括电动轮椅10、机械臂20、RGB-D摄像头30,机械臂20安装在电动轮椅10上,RGB-D摄像头30通过支架安装在电动轮椅10的侧面,RGB-D摄像头30用于提供操作视觉辅助。机械臂20采用加拿大Kinova公司的JACO机械臂,JACO机械臂由6个独立驱动旋转关节和3个独立控制的手指组成,每个关节均配有独立的力矩、温度电流加速传感器保证数据信息的实时反馈,整重5.3kg。控制方式除手柄控制外,提供USB接口以及API函数进行控制开发。电动轮椅10采用卫美恒公司(N.V.Vermeiren N.V.)生产的电动轮椅。RGB-D摄像头30可采用华硕Xtion摄像头。
[0120] 如图2和3所示,本发明的控制系统包括主控制器50、GPU模块40、RGB-D摄像头30、激光笔60、机械臂控制器21、轮椅控制器11,电动轮椅10的轮椅控制器11与主控制器50连接,机械臂20的机械臂控制器21与主控制器50连接,GPU模块40与主控制器50连接,RGB-D摄像头30与GPU模块40连接。
[0121] 激光笔60用于发射激光照射在目标物体上,在目标物体上形成激光光斑。激光光斑作为人机交互介质,能够起到注意力吸引与目标指示作用。
[0122] 主控制器50包括激光光斑识别模块51、位置获取模块52、激光光斑计时模块53、间隔时间计时模块54、目标物体识别模块55、位姿获取模块56、图像采集模块57、机械臂运动逆解算模块58,激光光斑识别模块51可以被配置为用于识别出图像中存在的激光光斑,位置获取模块52可以被配置为用于计算激光光斑在图像中的位置信息,间隔时间计时模块54可以被配置为用于计算从第一次激光光斑消失后到出现第二次激光光斑时之间的时间,激光光斑计时模块53可以被配置为用于计算某物体上存在激光光斑的持续时间。目标物体识别模块55可以被配置为用于根据位置获取模块52输出的位置信息识别目标物体。图像采集模块57用于接收GPU模块40发送的视频并按照一定周期对视频信息进行采样处理,获取深度图像和彩色图像。位姿获取模块56用于计算目标物体的抓取位姿。机械臂运动逆解算模块58用于将位姿获取模块56输出的抓取位姿进行逆解运算,计算出机械臂各关节的运动位移和速度,并将机械臂各关节的运动位移和速度发送给机械臂。
[0123] 本发明在Linux系统Ubuntu14.04环境下,基于ROS(Robot Operating System)机器人操作系统对所有模块进行控制与集成。
[0124] 实施例1
[0125] 参考图4,在桌子上放置多个物体(比如:杯子、勺子、瓶等),RGB-D摄像头30实时对桌子上的物体进行拍摄,老年人坐在电动轮椅10上,手握激光笔60,按压激光笔60的开关发射出激光并照射在目标物体(比如杯子)上,在目标物体上就会形成激光光斑。本实施例主要是以激光光斑作为人机交互介质,系统根据物体上的激光光斑,识别目标物体,实现机械臂20自动抓取目标物体(即抓住桌子上的物体并移动到某一固定空间位置),实现激光点取物体的功能,如图5所示,具体控制方法如下:
[0126] 步骤S101,通过RGB-D摄像头30对桌子上的物体所在区域进行摄像,获取视频,并将视频信息发送给主控制器50。
[0127] 步骤S102,主控制器50按照一定周期对视频信息进行采样处理,获取深度图像和彩色图像。
[0128] 步骤S103,激光笔60发射出的激光照射在某一个物体上,主控制器50中的激光光斑识别模块51识别出图像中存在的激光光斑。
[0129] 步骤S104,主控制器50中的位置获取模块52计算激光光斑在彩色图像中的二维像素坐标(u,v),将光斑的二维像素坐标(u,v)转换到相机坐标系下的坐标(X/Z,Y/Z)并进行存储。
[0130] 步骤S105,目标物体识别模块55识别目标物体,首先对深度图像进行滤波处理(具体滤波方法可采用直通滤波、统计滤波或体素滤波),其次进行平面分割处理剔除桌面,进行距离分割处理获得每一个物体的点云,再其次计算每个物体在相机坐标系下的形心坐标(Xi,Yi,Zi),然后将各个物体的形心坐标(Xi,Yi,Zi)与光斑坐标(X/Z,Y/Z)进行距离比较,如果某物体与光斑之间的距离小于设定阈值,则确定该物体为待抓取的目标物体,具体计算通过如下公式(1-1):
[0131]
[0132] 公式(1-1)中,T表示阈值。
[0133] 步骤S106,位姿获取模块56计算目标物体上的多种可能抓取候选位姿(位置和姿态),具体过程是:
[0134] 根据目标物体的点云信息和表面曲率,主控制器50计算生成多种抓取假设。例如,其中一种执行方案为,表面上每个点的位置平移一定距离(一般为手爪虎口到抓握中心的距离),作为该点抓取假设的位置。根据该点的表面曲率,将该点表面处的法线方向作为抓取方向,从而推算出抓取候选位姿。
[0135] 步骤S107,位姿获取模块56基于卷积神经网络评估抓取候选位姿,将评分最高者作为目标物体的抓取位姿,具体过程是:
[0136] 将上述步骤S106计算的这些抓取假设,也就是每一种抓取位姿所对应的抓取向量(x,y,z,tx,ty,tz)输入到训练好的深度卷积神经网络;基于卷积神经网络原理,对这些抓取假设数据进行识别与评估排序;然后,选择评分最高的抓取方式作为目标物体的抓取位置和姿态,输出并存储。
[0137] 步骤S108,当激光笔关闭时,主控制器50中的激光光斑识别模块51确定图像中没有激光光斑,经过一定时间tc后,激光光斑识别模块51依然没有识别出激光光斑,则判断目标物体上的激光光斑消失,执行步骤S109。
[0138] 需要说明的是,可以通过激光光斑计时模块53记录激光光斑从出现到消失之间的持续时间。
[0139] 步骤S109,主控制器50将步骤s107计算得出的物体抓取位置(即手爪在手臂坐标系下的笛卡尔坐标(x,y,z)和抓取姿态(即机械臂末端手爪的旋转坐标(tx,ty,tz)),发送给机械臂控制器21,则机械臂控制器的内部轨迹规划程序自动进行逆解运算,计算出机械臂各关节的运动位移和速度,发送给机械臂20并控制机械臂按照解算的轨迹运动,控制手爪移动到抓取位置并保持抓取姿态(tx,ty,tz)。
[0140] 当手爪移动到抓取位置后,主控制器50发送命令给机械臂控制器21,控制机械臂末端的3指弹性手爪关闭一定行程,将物体抓握在手爪的掌心中。
[0141] 步骤S110,主控制器50控制机械臂动作将目标物体(比如杯子)移动至老年人嘴边附近(相当于某一固定位置,这个固定位置坐标可以事先输入到主控制器的任务库)。
[0142] 如图6所示,上述步骤S103中图像中激光光斑识别的具体过程可以采用基于卷积神经网络的目标识别方法进行,具体方法如下:
[0143] 步骤S301,将获得的彩色图像进行图像预处理。
[0144] 图像预处理的目的是去除彩色图像中的噪声信息,提高物体和背景的对比度,增加目标的检测成功率。预处理的过程是,首先使用中值滤波排除椒盐噪声影响,然后在像素级别对激光点进行处理,从而排除图像中的反射区域对激光点检测的干扰,具体操作为:首先将彩色图像转换到HSV色彩空间,因为在RGB色彩空间中反射区域和激光点难以区分。在HSV色彩空间中,对于那些在HSV色彩空间中S、V值不同时为0的值,当HSV中的S值小于40的区域,对它的S值加上50。经过这种操作后图像的饱和度提高,再次将它转换回RGB色彩空间。
[0145] 步骤S302,通过YOLOv3卷积神经网络函数识别出预处理后的彩色图像中的激光光斑。具体过程是:
[0146] (1)首先将预处理后的彩色图像输入YOLOv3卷积神经网络函数进行训练,训练的过程能够得出彩色图像的真实框;
[0147] (2)YOLOv3卷积神经网络函数对图像数据进行分析判断,在网络的最后一层,会将卷积网络处理后的图像分成等边的单元格(例如会将一幅大图像分成13x13个小单元),使用锚预测方法对每个单元格进行预测判断;
[0148] (3)针对每一个划分的小单元格,如果预测出目标边界框(如果该单元没有预测出目标,也可能没有边界框出现),YOLOv3卷积神经网络函数使用逻辑回归对预测边界框打分(通常会出现多个得分);
[0149] (4)根据预测框和真实框(真实框是训练时获得的,已经标记过的目标物体边界框)的重合程度设定置信度,该置信度作为阈值使用,当边界框得分大于置信度,则确定该边界框可能为激光光斑所在图像区域,如果最后剩余一个边界框,则该边界框区域为激光光斑,如果预置判断后还剩余多个边界框,则取得分最大的边界框区域,确定识别出激光光斑。
[0150] 需要说明的是,在卷积网络训练时,除了针对具有激光光斑的图像进行训练,也可以同时将常用的物品加入训练集进行训练,这样,在识别激光光斑同时,网络也可以识别物品并报告相关图像坐标,可以提前知道该物品的名称和相关信息。进一步在识别出激光光斑之后,计算出激光光斑所在图像区域对应的边界框的中心坐标作为激光光斑本身的二维坐标,将识别出的物体坐标与激光点光斑坐标对比,相近的则为目标物体,并输出目标物体坐标。
[0151] 基于YOLOv3卷积神经网络的激光点检测算法检测成功率高,实时性好,用在激光点交互中可以达到很好的实时检测效果。
[0152] 实施例2
[0153] 参考图4,在桌子上放置多个物体(比如:杯子、勺子、水瓶等),RGB-D摄像头30实时对桌子上的物体进行拍摄,老年人坐在电动轮椅10上,手握激光笔60,按压激光笔60的开关发射出激光并照射在第一目标物体水瓶上,在水瓶上就会形成激光光斑,停留一段时间t1后,操作激光笔60输出的激光照射在第二目标物体桌面上某一点并停留一段时间t2。本实施例主要根据不同目标物体上出现的两次激光光斑,识别两个目标物体,实现机械臂20自动抓取第一目标物体移动到第二目标物体上面某一固定位置(即物体移动到桌面上另一固定空间位置),如图7所示,具体控制方法如下:
[0154] 步骤S201,通过RGB-D摄像头30对桌子上的物体所在区域进行摄像,获取视频,并将视频信息发送给主控制器50。
[0155] 步骤S202,主控制器50按照一定周期对视频信息进行采样处理,获取深度图像和彩色图像。
[0156] 步骤S203,激光笔60发射出的激光照射在第一目标物体水瓶上,主控制器50中的激光光斑识别模块51识别出图像中存在的激光光斑,此时确定的激光光斑为第一次激光光斑。
[0157] 步骤S204,主控制器50中的激光光斑计时模块53开始计时。
[0158] 步骤S205,主控制器50中的位置获取模块52计算第一次激光光斑在彩色图像中的二维像素坐标(u,v),将光斑的二维像素坐标(u,v)转换到相机坐标系下的坐标(X1/Z,Y1/Z)并进行存储。
[0159] 步骤S206,目标物体识别模块55识别第一目标物体,首先对深度图像进行滤波处理(具体滤波方法可采用直通滤波、统计滤波或体素滤波),其次进行平面分割处理剔除桌面,进行距离分割处理获得每一个物体的点云,再其次计算每个物体在相机坐标系下的形心坐标(Xi,Yi,Zi),然后将各个物体的形心坐标(Xi,Yi,Zi)与光斑坐标(X/Z,Y/Z)进行距离比较,如果某物体与光斑之间的距离小于设定阈值,则确定该物体为待抓取的目标物体(此时确定的目标物体是第一目标物体),具体计算通过如下公式(2-1):
[0160]
[0161] 公式(2-1)中,T表示阈值。
[0162] 步骤S207,位姿获取模块56计算第一目标物体上的多种可能抓取候选位姿,具体过程是:
[0163] 根据第一目标物体的点云信息和表面曲率,主控制器50计算生成多种抓取假设。例如,其中一种执行方案为,表面上每个点的位置平移一定距离(一般为手爪虎口到抓握中心的距离),作为该点抓取假设的位置。根据该点的表面曲率,将该点表面处的法线方向作为抓取方向,从而推算出抓取候选位姿。
[0164] 步骤S208,位姿获取模块56基于卷积神经网络评估抓取候选位姿,将评分最高者作为目标物体的抓取位姿,具体过程是:
[0165] 将上述步骤S207计算的这些抓取假设,也就是每一种抓取位姿所对应的抓取向量(x,y,z,tx,ty,tz)输入到训练好的深度卷积神经网络;基于卷积神经网络原理,对这些抓取假设数据进行识别与评估排序;然后,选择评分最高的抓取方式作为目标物体的抓取位置和姿态,输出并存储。
[0166] 步骤S209,当激光笔关闭时或者激光笔输出的激光从第一目标物体上离开时,主控制器50中的激光光斑识别模块51确定图像中没有激光光斑,执行步骤S210。
[0167] 步骤S210,激光光斑计时模块53停止计时并得出第一次激光光斑的持续时间t1。
[0168] 步骤S211,主控制器50中的间隔时间计时模块54开始计时。
[0169] 步骤S212,主控制器50中的激光光斑识别模块51识别出图像中存在的激光光斑,此时确定的激光光斑为第二次激光光斑。
[0170] 步骤S213,间隔时间计时模块54停止计时并得出间隔时间tc(此间隔时间tc是从第一次激光光斑消失后到出现第二次激光光斑之间的时间)。
[0171] 步骤S214,控制器50中的激光光斑计时模块53开始计时。
[0172] 步骤S215,主控制器50中的位置获取模块52计算第二次激光光斑在彩色图像中的二维像素坐标(u,v),将光斑的二维像素坐标(u,v)转换到相机坐标系下的坐标(X2/Z,Y2/Z)并进行存储。
[0173] 步骤S216,目标物体识别模块55识别第二目标物体,首先对深度图像进行滤波处理(具体滤波方法可采用直通滤波、统计滤波或体素滤波),其次进行平面分割处理剔除桌面,进行距离分割处理获得每一个物体的点云,再其次计算每个物体在相机坐标系下的形心坐标(Xi,Yi,Zi),然后将激光光斑坐标与各物体形心坐标比对,当每一个物体离光斑距离均大于设定阈值m,则确定激光没有照射任何物品,再然后将桌面点云中的各点坐标与激光斑点坐标比对,当存在距离小于设定阈值n的桌面点(xti,yti,zti),则确定桌面上有激光光斑(即确定第二目标物体桌子)。
[0174] 步骤S217,步骤S216中那些距离小于设定阈值n的桌面点(xti,yti,zti)为激光照射的范围,将它们的坐标平均值作为桌面放置目标点坐标(xT,yT,zT)并存储在系统中,然后结合机械臂手爪和水瓶的尺寸(或者结合实际需要),将桌面放置目标点坐标的z向上平移一定距离d,从而获得机械臂手爪目标位置坐标(xT,yT,zT+d)并存储。
[0175] 步骤S218,当激光笔关闭时或者激光笔输出的激光从第二目标物体桌子上离开时,主控制器50中的激光光斑识别模块51确定图像中没有激光光斑,第二次激光光斑消失,执行步骤S219。
[0176] 步骤S219,激光光斑计时模块53停止计时并得出第二次激光光斑的持续时间t2。
[0177] 步骤S220,将步骤S215计算出的第二次激光光斑的坐标(X2/Z,Y2/Z)和步骤S205计算出的第一次激光光斑的坐标(X1/Z,Y1/Z)比对,计算两个坐标之间的距离L,如果距离L大于设定的阈值S,则认为第二次激光光斑和第一次激光光斑的位置不同,位置不同执行步骤S221。
[0178] 步骤S221,设定时间阈值A、B、C,当第一次激光光斑的持续时间t1>A,且间隔时间tc<B,且第二次激光光斑的持续时间t2>C,执行步骤S222。
[0179] 步骤S222,主控制器50将步骤s208计算得出的物体抓取位置(即手爪在手臂坐标系下的笛卡尔坐标(x,y,z)和抓取姿态(即机械臂末端手爪的旋转坐标(tx,ty,tz)),发送给机械臂控制器21,则机械臂控制器的内部轨迹规划程序自动进行逆解运算,计算出机械臂各关节的运动位移和速度,发送给机械臂20并控制机械臂按照解算的轨迹运动,控制手爪移动到抓取位置并保持抓取姿态(tx,ty,tz)。
[0180] 当手爪移动到抓取位置后,主控制器50发送命令给机械臂控制器21,控制机械臂末端的3指弹性手爪关闭一定行程,将第一目标物体水瓶抓握在手爪的掌心中。
[0181] 步骤S223,主控制器50控制机械臂的手爪移动到第二目标物体桌子上方的目标位置坐标(xT,yT,zT+d)所指定的位置。
[0182] 步骤S224,主控制器50控制机械臂的手爪松开,将第一目标物体水瓶放到第二目标物体桌面指定位置。
[0183] 上述步骤S203中,图像中激光光斑识别的具体过程可以采用基于卷积神经网络的目标识别方法进行,具体方法如下:
[0184] 步骤S203-1,将获得的彩色图像进行图像预处理。
[0185] 图像预处理的目的是去除彩色图像中的噪声信息,提高物体和背景的对比度,增加目标的检测成功率。预处理的过程是,首先使用中值滤波排除椒盐噪声影响,然后在像素级别对激光点进行处理,从而排除图像中的反射区域对激光点检测的干扰,具体操作为:首先将彩色图像转换到HSV色彩空间,因为在RGB色彩空间中反射区域和激光点难以区分。在HSV色彩空间中,对于那些在HSV色彩空间中S、V值不同时为0的值,当HSV中的S值小于40的区域,对它的S值加上50。经过这种操作后图像的饱和度提高,再次将它转换回RGB色彩空间。
[0186] 步骤S203-2,通过YOLOv3卷积神经网络函数识别出预处理后的彩色图像中的第一次激光光斑。具体过程是:
[0187] (1)首先将预处理后的彩色图像输入YOLOv3卷积神经网络函数进行训练,训练的过程能够得出彩色图像的真实框;
[0188] (2)YOLOv3卷积神经网络函数对图像数据进行分析判断,在网络的最后一层,会将卷积网络处理后的图像分成等边的单元格(例如会将一幅大图像分成13x13个小单元),使用锚预测方法对每个单元格进行预测判断;
[0189] (3)针对每一个划分的小单元格,如果预测出目标边界框(如果该单元没有预测出目标,也可能没有边界框出现),YOLOv3卷积神经网络函数使用逻辑回归对预测边界框打分(通常会出现多个得分);
[0190] (4)根据预测框和真实框(真实框是训练时获得的,已经标记过的目标物体边界框)的重合程度设定置信度,该置信度作为阈值使用,当边界框得分大于置信度,则确定该边界框可能为激光光斑所在图像区域,如果最后剩余一个边界框,则该边界框区域为激光光斑,如果预置判断后还剩余多个边界框,则取得分最大的边界框区域,确定识别出第一次激光光斑。
[0191] 上述步骤S212中,图像中激光光斑识别的具体过程可以采用基于卷积神经网络的目标识别方法进行,具体方法如下:
[0192] 步骤S212-1,将获得的彩色图像进行图像预处理。
[0193] 图像预处理的目的是去除彩色图像中的噪声信息,提高物体和背景的对比度,增加目标的检测成功率。预处理的过程是,首先使用中值滤波排除椒盐噪声影响,然后在像素级别对激光点进行处理,从而排除图像中的反射区域对激光点检测的干扰,具体操作为:首先将彩色图像转换到HSV色彩空间,因为在RGB色彩空间中反射区域和激光点难以区分。在HSV色彩空间中,对于那些在HSV色彩空间中S、V值不同时为0的值,当HSV中的S值小于40的区域,对它的S值加上50。经过这种操作后图像的饱和度提高,再次将它转换回RGB色彩空间。
[0194] 步骤S212-2,通过YOLOv3卷积神经网络函数识别出预处理后的彩色图像中的第二次激光光斑。具体过程是:
[0195] (1)首先将预处理后的彩色图像输入YOLOv3卷积神经网络函数进行训练,训练的过程能够得出彩色图像的真实框;
[0196] (2)YOLOv3卷积神经网络函数对图像数据进行分析判断,在网络的最后一层,会将卷积网络处理后的图像分成等边的单元格(例如会将一幅大图像分成13x13个小单元),使用锚预测方法对每个单元格进行预测判断;
[0197] (3)针对每一个划分的小单元格,如果预测出目标边界框(如果该单元没有预测出目标,也可能没有边界框出现),YOLOv3卷积神经网络函数使用逻辑回归对预测边界框打分(通常会出现多个得分);
[0198] (4)根据预测框和真实框(真实框是训练时获得的,已经标记过的目标物体边界框)的重合程度设定置信度,该置信度作为阈值使用,当边界框得分大于置信度,则确定该边界框可能为激光光斑所在图像区域,如果最后剩余一个边界框,则该边界框区域为激光光斑,如果预置判断后还剩余多个边界框,则取得分最大的边界框区域,确定识别出第二次激光光斑。
[0199] 实施例3
[0200] 参考图4,在桌子上放置多个物体(比如:杯子、勺子、水瓶等),RGB-D摄像头30实时对桌子上的物体进行拍摄,老年人坐在电动轮椅10上,手握激光笔60,按压激光笔60的开关发射出激光并照射在第一目标物体水瓶上,在水瓶上就会形成激光光斑。停留一段时间t1后,操作激光笔60输出的激光照射在第二目标物体杯子上某一点并停留一段时间t2,本实施例主要根据不同目标物体上的激光光斑,识别两个目标物体,实现机械臂20自动抓取第一目标物体水瓶移动到第二目标物体杯子上方某一固定位置并向杯子倒水的任务。如图8所示,具体控制方法如下:
[0201] 步骤S301,通过RGB-D摄像头30对桌子上的物体所在区域进行摄像,获取视频,并将视频信息发送给主控制器50。
[0202] 步骤S302,主控制器50按照一定周期对视频信息进行采样处理,获取深度图像和彩色图像。
[0203] 步骤S303,激光笔60发射出的激光照射在第一目标物体水瓶上,主控制器50中的激光光斑识别模块51识别出图像中存在的激光光斑,此时确定的激光光斑为第一次激光光斑。
[0204] 步骤S304,控制器50中的激光光斑计时模块53开始计时。
[0205] 步骤S305,控制器50中的位置获取模块52计算第一次激光光斑在彩色图像中的二维像素坐标(u,v),将光斑的二维像素坐标(u,v)转换到相机坐标系下的坐标(X1/Z,Y1/Z)并进行存储。
[0206] 步骤S306,目标物体识别模块55识别第一目标物体,首先对深度图像进行滤波处理(具体滤波方法可采用直通滤波、统计滤波或体素滤波),其次进行平面分割处理剔除桌面,进行距离分割处理获得每一个物体的点云,再其次计算每个物体在相机坐标系下的形心坐标(Xi,Yi,Zi),然后将各个物体的形心坐标(Xi,Yi,Zi)与光斑坐标(X/Z,Y/Z)进行距离比较,如果某物体与光斑之间的距离小于设定阈值,则确定该物体为待抓取的目标物体(此时确定的目标物体是第一目标物体),具体计算通过如下公式(3-1):
[0207]
[0208] 公式(3-1)中,T表示阈值。
[0209] 步骤S307,位姿获取模块56计算第一目标物体上的多种可能抓取候选位姿,具体过程是:
[0210] 根据第一目标物体的点云信息和表面曲率,主控制器50计算生成多种抓取假设。例如,其中一种执行方案为,表面上每个点的位置平移一定距离(一般为手爪虎口到抓握中心的距离),作为该点抓取假设的位置。根据该点的表面曲率,将该点表面处的法线方向作为抓取方向,从而推算出抓取候选位姿。
[0211] 步骤S308,位姿获取模块56基于卷积神经网络评估抓取候选位姿,将评分最高者作为目标物体的抓取位姿,具体过程是:
[0212] 将上述步骤S307计算的这些抓取假设,也就是每一种抓取位姿所对应的抓取向量(x,y,z,tx,ty,tz)输入到训练好的深度卷积神经网络;基于卷积神经网络原理,对这些抓取假设数据进行识别与评估排序;然后,选择评分最高的抓取方式作为目标物体的抓取位置和姿态,输出并存储。
[0213] 步骤S309,当激光笔关闭时或者激光笔输出的激光从第一目标物体上离开时,主控制器50中的激光光斑识别模块51确定图像中没有激光光斑,执行步骤S310。
[0214] 步骤S310,激光光斑计时模块53停止计时并得出第一次激光光斑的持续时间t1。
[0215] 步骤S311,主控制器50中的间隔时间计时模54块开始计时。
[0216] 步骤S312,主控制器50中的激光光斑识别模块51识别出图像中存在的激光光斑,此时确定的激光光斑为第二次激光光斑。
[0217] 步骤S313,间隔时间计时模块54停止计时并得出间隔时间tc(此间隔时间tc是从第一次激光光斑消失后到出现第二次激光光斑之间的时间)。
[0218] 步骤S314,主控制器50中的激光光斑计时模块53开始计时。
[0219] 步骤S315,主控制器50中的位置获取模块52计算第二次激光光斑在彩色图像中的二维像素坐标(u,v),将光斑的二维像素坐标(u,v)转换到相机坐标系下的坐标(X2/Z,Y2/Z)并进行存储。
[0220] 步骤S316,识别第二目标物体,首先对深度图像进行滤波处理(具体滤波方法可采用直通滤波、统计滤波或体素滤波),其次进行平面分割处理剔除桌面,进行距离分割处理获得每一个物体的点云,再其次计算每个物体在相机坐标系下的形心坐标(Xi,Yi,Zi),然后将各个物体的形心坐标(Xi,Yi,Zi)与光斑坐标(X/Z,Y/Z)进行距离比较,如果某物体与光斑之间的距离小于设定阈值,则确定该物体为第二目标物体水杯(此时该物体的形心坐标是(xd,yd,zd)),具体计算通过公式(3-2)计算:
[0221]
[0222] 公式(3-2)中,T表示阈值。
[0223] 步骤S317,结合机械臂手爪和水杯尺寸,将步骤S316中被点取物品的形心坐标(xd,yd,zd)的z向上平移一定距离d’,从而获得机械臂手爪目标位置坐标(xd,yd,zd+d’)并存储。
[0224] 步骤S318,当激光笔关闭时或者激光笔输出的激光从第二目标物体杯子上离开时,主控制器50中的激光光斑识别模块51确定图像中没有激光光斑,执行步骤S319。
[0225] 步骤S319,激光光斑计时模块53停止计时并得出第二次激光光斑的持续时间t2。
[0226] 步骤S320,将步骤S315计算出的第二次激光光斑的坐标(X2/Z,Y2/Z)和步骤S305计算出的第一次激光光斑的坐标(X1/Z,Y1/Z)比对,计算两个坐标之间的距离L,如果距离L大于设定的阈值S,则认为第二次激光光斑和第一次激光光斑的位置不同,位置不同执行步骤S321。
[0227] 步骤S321,设定时间阈值tlast、B,当第一次激光光斑的持续时间t1>tlast,且间隔时间tc<B,且t2<tlast,执行步骤S322。t1>tlast代表长按激光笔的开关,t2<tlast代表短按激光笔的开关。
[0228] 步骤S322,主控制器50将步骤s308计算得出的物体抓取位置(即手爪在手臂坐标系下的笛卡尔坐标(x,y,z)和抓取姿态(即机械臂末端手爪的旋转坐标(tx,ty,tz)),发送给机械臂控制器21,则机械臂控制器的内部轨迹规划程序自动进行逆解运算,计算出机械臂各关节的运动位移和速度,发送给机械臂20并控制机械臂按照解算的轨迹运动,控制手爪移动到抓取位置并保持抓取姿态(tx,ty,tz)。
[0229] 当手爪移动到抓取位置后,主控制器50发送命令给机械臂控制器21,控制机械臂末端的3指弹性手爪关闭一定行程,将第一目标物体水瓶抓握在手爪的掌心中。
[0230] 步骤S323,主控制器50控制机械臂的手爪移动到第二目标物体杯子上方的目标位置坐标(xd,yd,zd+d’)所指定的位置。
[0231] 步骤S324,主控制器50按照程序库中事先存储的倒水动作轨迹控制机械臂的手爪倾斜(或机械臂实施其他动作),将第一目标物体水瓶中的水倒入第二目标物体杯子中。
[0232] 需要说明的是,步骤S321的逻辑判断是优选的方案,比较适应操作习惯,但并不限于此,还可以是其他形式,比如以下几种:
[0233] 第一种:t1>tlast,且tc<B,且t2>tlast,t1>tlast代表长按激光笔的开关,t2>tlast代表长按激光笔的开关。
[0234] 第二种:t1<tlast,且tc<B,且t2>tlast,t1<tlast代表短按激光笔的开关,t2>tlast代表长按激光笔的开关。
[0235] 上述步骤S303中,图像中激光光斑识别的具体过程可以采用基于卷积神经网络的目标识别方法进行,具体方法如下:
[0236] 步骤S303-1,将获得的彩色图像进行图像预处理。
[0237] 图像预处理的目的是去除彩色图像中的噪声信息,提高物体和背景的对比度,增加目标的检测成功率。预处理的过程是,首先使用中值滤波排除椒盐噪声影响,然后在像素级别对激光点进行处理,从而排除图像中的反射区域对激光点检测的干扰,具体操作为:首先将彩色图像转换到HSV色彩空间,因为在RGB色彩空间中反射区域和激光点难以区分。在HSV色彩空间中,对于那些在HSV色彩空间中S、V值不同时为0的值,当HSV中的S值小于40的区域,对它的S值加上50。经过这种操作后图像的饱和度提高,再次将它转换回RGB色彩空间。
[0238] 步骤S303-2,通过YOLOv3卷积神经网络函数识别出预处理后的彩色图像中的第一次激光光斑。具体过程是:
[0239] (1)首先将预处理后的彩色图像输入YOLOv3卷积神经网络函数进行训练,训练的过程能够得出彩色图像的真实框;
[0240] (2)YOLOv3卷积神经网络函数对图像数据进行分析判断,在网络的最后一层,会将卷积网络处理后的图像分成等边的单元格(例如会将一幅大图像分成13x13个小单元),使用锚预测方法对每个单元格进行预测判断;
[0241] (3)针对每一个划分的小单元格,如果预测出目标边界框(如果该单元没有预测出目标,也可能没有边界框出现),YOLOv3卷积神经网络函数使用逻辑回归对预测边界框打分(通常会出现多个得分);
[0242] (4)根据预测框和真实框(真实框是训练时获得的,已经标记过的目标物体边界框)的重合程度设定置信度,该置信度作为阈值使用,当边界框得分大于置信度,则确定该边界框可能为激光光斑所在图像区域,如果最后剩余一个边界框,则该边界框区域为激光光斑,如果预置判断后还剩余多个边界框,则取得分最大的边界框区域,确定识别出第一次激光光斑。
[0243] 上述步骤S312中,图像中激光光斑识别的具体过程可以采用基于卷积神经网络的目标识别方法进行,具体方法如下:
[0244] 步骤S312-1,将获得的彩色图像进行图像预处理。
[0245] 图像预处理的目的是去除彩色图像中的噪声信息,提高物体和背景的对比度,增加目标的检测成功率。预处理的过程是,首先使用中值滤波排除椒盐噪声影响,然后在像素级别对激光点进行处理,从而排除图像中的反射区域对激光点检测的干扰,具体操作为:首先将彩色图像转换到HSV色彩空间,因为在RGB色彩空间中反射区域和激光点难以区分。在HSV色彩空间中,对于那些在HSV色彩空间中S、V值不同时为0的值,当HSV中的S值小于40的区域,对它的S值加上50。经过这种操作后图像的饱和度提高,再次将它转换回RGB色彩空间。
[0246] 步骤S312-2,通过YOLOv3卷积神经网络函数识别出预处理后的彩色图像中的第二次激光光斑。具体过程是:
[0247] (1)首先将预处理后的彩色图像输入YOLOv3卷积神经网络函数进行训练,训练的过程能够得出彩色图像的真实框;
[0248] (2)YOLOv3卷积神经网络函数对图像数据进行分析判断,在网络的最后一层,会将卷积网络处理后的图像分成等边的单元格(例如会将一幅大图像分成13x13个小单元),使用锚预测方法对每个单元格进行预测判断;
[0249] (3)针对每一个划分的小单元格,如果预测出目标边界框(如果该单元没有预测出目标,也可能没有边界框出现),YOLOv3卷积神经网络函数使用逻辑回归对预测边界框打分(通常会出现多个得分);
[0250] (4)根据预测框和真实框(真实框是训练时获得的,已经标记过的目标物体边界框)的重合程度设定置信度,该置信度作为阈值使用,当边界框得分大于置信度,则确定该边界框可能为激光光斑所在图像区域,如果最后剩余一个边界框,则该边界框区域为激光光斑,如果预置判断后还剩余多个边界框,则取得分最大的边界框区域,确定识别出第二次激光光斑。
[0251] 以上所述仅对本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈