首页 / 专利库 / 电脑图像 / 边缘检测 / 一种静态图像的多方向车辆粗定位方法

一种静态图像的多方向车辆粗定位方法

阅读:0发布:2020-06-06

专利汇可以提供一种静态图像的多方向车辆粗定位方法专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种静态图像的多方向车辆粗 定位 方法,本发明与目前已有的基于静态图像的车辆定位方法相比,优势在于本发明可以实现多方向的车辆粗定位,且车辆的漏检率较低;同时本文方法将复杂场景下的多方向多车辆的定位问题转化为小区域的单车辆精准定位问题,为进一步车辆精准定位提供了保障。,下面是一种静态图像的多方向车辆粗定位方法专利的具体信息内容。

1.一种静态图像的多方向车辆粗定位方法,包括如下步骤:
步骤1:利用Hog+SVM训练得到4个分类器:车脸判别器、左下窗判别器、右下窗角判别器、联合窗角区域判别器,其中联合窗角区域是指包含左下窗角和右下窗角的最小矩形区域;
步骤2:获取交通监控相机拍摄的车辆正面监控图像,将其缩放到宽度为width,高度为height的图像,记为图像D;
步骤3:利用多尺度滑动窗口结合车脸判别器检测出图像D中车脸区域c;
步骤4:对于车脸区域c,首先根据公式(1)确定车辆左下窗角检测区域DL,根据公式(2)确定车辆右下窗角检测区域DR,然后在区域DL中利用多尺度滑动窗口结合左下窗角判别器检测出区域内所有的候选左下窗角区域,记为EL={eli|i=0,1,…,NEL-1},同理,对于右下窗角检测区域DR,利用右下窗角判别器检测出区域内所有的候选右下窗角区域,记为ER={eri|i=0,1,…,NER-1},其中,NEL表示检测出来的左窗角区域数量,NER表示检测出来的右窗角区域数量;
其中,DL.x0,DL.y0,DL.w,DL.h分别表示区域DL的左上顶点横坐标、纵坐标、区域宽度、区域高度,c.x0,c.y0,c.w,c.h分别表示区域c的左上顶点横坐标、纵坐标、区域宽度、区域高度,DR.x0,DR.y0,DR.w,DR.h分别表示区域DR的左上顶点横坐标、纵坐标、区域宽度、区域高度,min{}表示得到集合中的最小值,max{}表示得到集合中的最大值;
步骤5:根据集合EL和集合ER构建联合窗角区域集合EC={ecij|i=0,1,…,NEL-1,j=0,
1,…,NER-1},其中,区域ecij根据公式(3)确定;
ecij.x0,ecij.y0,ecij.w,ecij.h分别表示区域ecij的左上顶点横坐标、纵坐标、区域宽度、区域高度,eli.x0,eli.y0,eli.w,eli.h分别表示区域EL的左上顶点横坐标、纵坐标、区域宽度、区域高度,eri.x0,eri.y0,eri.w,eri.h分别表示区域ER的左上顶点横坐标、纵坐标、区域宽度、区域高度;
步骤6:利用联合窗角区域判别器对EC中的候选联合窗角区域进行逐个判别,将那些判别为非联合窗角的区域从EC中剔除,然后选出EC中宽度最小的作为最终的联合窗角区域,记为ectk,则elt和erk确定为正确左下窗角区域和右下窗角区域;
步骤7:确定车辆方向角θ;
步骤8:根据公式(4)-(6)确定车辆粗定位区域R:
其中,wl为区域R左边界相对于左窗角角点A1的横坐标偏移值,wr为区域R右边界相对于右窗角角点A2的横坐标偏移值,δ为预先设定的最小横坐标偏移值,α为预先设定的区域R上边界相对于线段A1A2的纵坐标偏移系数,β为预先设定的区域R下边界相对于线段A1A2的纵坐标偏移系数,A1.x,A1.y分别是左窗角角点A1的横坐标、纵坐标,A2.x,A2.y分别是右窗角角点A2的横坐标、纵坐标,R.x0,R.y0,R.w,R.h分别表示区域R的左上顶点横坐标、纵坐标、区域宽度、区域高度。
2.如权利要求1所述的静态图像的多方向车辆粗定位方法,其特征在于:
所述步骤7:确定车辆方向角θ,具体为:
步骤7.1:将窗角区域elt对应的图像记为DE;
步骤7.2:对图像DE进行高斯滤波和Canny边缘检测,得到边缘图DB;
步骤7.3:对图像DB进行Hough直线检测得到直线集L={li|i=0,1,…,NL-1},NL为检测得到的直线数量,找到直线集L中满足0°≤li.θ≤20°的所有直线li,则其中li.length最大的直线为窗角平边所在直线,记为l1,li.θ为直线li与水平线的夹角,且0°≤li.θ≤90°,li.length为直线li上包含边缘点集Zi的最短直线段的长度,边缘点集Zi为边缘图D1上直线li经过的所有边缘点;同理,找到直线集L中满足20°<li.θ≤90°且长度最大的直线即为窗角斜边所在直线,记为l2;
步骤7.4:计算直线l1,l2的交点即为elt对应的窗角角点,记为A1,直线l1,l2构成的右上侧的夹角为窗角角度,记为θ1;
步骤7.5:同理,将窗角区域erk对应的图像记为DE,重复步骤7.2-7.4,可计算得到erk对应的窗角角点A2和窗角角度θ2,则车辆方向角为:θ=(θ1+θ2)/2。

说明书全文

一种静态图像的多方向车辆粗定位方法

技术领域

[0001] 本发明涉及智能交通领域,具体是一种静态图像的多方向车辆粗定位方法。

背景技术

[0002] 车辆检测与定位是车辆多种信息定位、识别、分析的前提,是计算机视觉和智能交通的一个研究热点,目前基于视频的车辆定位方法较为成熟,可以较为精准的定位出车辆位置,但是静态图像的车辆定位方法还很难保证检测率和精准度,特别是对于多方向的车辆定位问题。
[0003] 目前基于静态图像的车辆定位方法主要通过使用分类器的实现,包括基于像素的分类器的方法,如刘怀愚等(一种用于静态图像车辆检测的颜色变换模型[J].计算机系统应用,2010,19(9):191-194)首先将所有像素颜色由RGB三维颜色空间变换到一个二维颜色空间上,然后训练的二维颜色空间上的车辆像素分类器,但是该分类器的分类准确率不高,不能精准定位车辆位置;张等(颜色特征模型在静态车辆检测中的应用[J].武汉工程大学学报,2015,37(1):73-78)利用贝叶斯分类器进行路面和车辆的像素分离,最后通过最小割/最大流算法进行车辆目标分离,该方法同样存在定位精准度不高的问题;以及基于车辆图像的分类器方法,该方法对于单一方向的车辆定位问题,可以达到较好的车辆检测率,但定位精准度不够,如李星等(基于HOG特征和SVM的前向车辆识别方法[J].计算机科学,2013,40(s2):329-332)利用HOG+SVM进行前向车辆检测,实验证明在正常光照下检测率可以达到96.52%;陈阳舟(基于Co—training方法的车辆鲁棒检测算法[J].计算机科学,
2013,39(3):394-401)提出了基于Co-training半监督学习方法的车辆鲁棒检测算法,该方法同样只能实现单向车辆的检测,同时定位精准度较差。但是多方向车辆的检测问题的解决还是比较困难,如果用一个分类器去检测,一方面将多个方向的车辆样本方法一起训练,容易出现过拟合现象,定位精准度不高,另一方面因为检测框大小比例不确定,需要通过多尺度滑动窗口方法检测,检测效率很慢,即使训练多个方向的分类器还是会存在检测效率差和筛选问题。
[0004] 综上所述,对于复杂场景下的多车辆多方向车辆定位问题,直接通过分类器方法实现是比较困难,因此本发明提出一种静态图像的多方向车辆粗定位方法,该方法可以找到车辆的大致所在区域,从而将复杂场景下的多车辆多方向的车辆定位问题转化为较小区域的单车辆定位问题,进一步可以通过其他精确定位方法进行车辆定位。

发明内容

[0005] 为了解决现有技术中存在的上述技术问题,本发明提出了一种静态图像的多方向车辆粗定位方法,该方法利用多个分类器实现车辆左下和右下窗的定位,进而根据计算得到两个窗角角度推算出车辆方向,最后根据窗角位置和车辆方向实现车辆粗定位。
[0006] 本发明具体包括如下步骤:
[0007] 步骤1:利用Hog+SVM训练得到4个分类器:车脸判别器、左下窗角判别器、右下窗角判别器、联合窗角区域判别器,其中联合窗角区域是指包含左下窗角和右下窗角的最小矩形区域;
[0008] 步骤2:获取交通监控相机拍摄的车辆正面监控图像,将其缩放到宽度为width,高度为height的图像,记为图像D;
[0009] 步骤3:利用多尺度滑动窗口结合车脸判别器检测出图像D中车脸区域c;
[0010] 步骤4:对于车脸区域c,首先根据公式(1)确定车辆左下窗角检测区域DL,根据公式(2)确定车辆右下窗角检测区域DR,然后在区域DL中利用多尺度滑动窗口结合左下窗角判别器检测出区域内所有的候选左下窗角区域,记为EL={eli|i=0,1,…,NEL-1},同理,对于右下窗角检测区域DR,利用右下窗角判别器检测出区域内所有的候选右下窗角区域,记为ER={eri|i=0,1,…,NER-1},其中,NEL表示检测出来的左窗角区域数量,NER表示检测出来的右窗角区域数量;
[0011]
[0012]
[0013] 其中,DL.x0,DL.y0,DL.w,DL.h分别表示区域DL的左上顶点横坐标、纵坐标、区域宽度、区域高度,其他区域的表达方式与此相同,min{}表示得到集合中的最小值,max{}表示得到集合中的最大值;
[0014] 步骤5:根据集合EL和集合ER构建联合窗角区域集合EC={ecij|i=0,1,…,NEL-1,j=0,1,…,NER-1},其中,区域ecij根据公式(3)确定;
[0015]
[0016] 步骤6:利用联合窗角区域判别器对EC中的候选联合窗角区域进行逐个判别,将那些判别为非联合窗角的区域从EC中剔除,然后选出EC中宽度最小的作为最终的联合窗角区域,记为ectk,则elt和erk确定为正确左下窗角区域和右下窗角区域;
[0017] 步骤7:确定车辆方向角θ,具体为:
[0018] 步骤7.1:将窗角区域elt对应的图像记为DE;
[0019] 步骤7.2:对图像DE进行高斯滤波和Canny边缘检测,得到边缘图DB;
[0020] 步骤7.3:对图像DB进行Hough直线检测得到直线集L={li|i=0,1,…,NL-1},NL为检测得到的直线数量,找到直线集L中满足0°≤li.θ≤20°的所有直线li,则其中li.length最大的直线为窗角平边所在直线,记为l1,li.θ为直线li与水平线的夹角,且0°≤li.θ≤90°,li.length为直线li上包含边缘点集Zi的最短直线段的长度,边缘点集Zi为边缘图D1上直线li经过的所有边缘点;同理,找到直线集L中满足20°<li.θ≤90°且长度最大的直线即为窗角斜边所在直线,记为l2;
[0021] 步骤7.4:计算直线l1,l2的交点即为elt对应的窗角角点,记为A1,直线l1,l2构成的右上侧的夹角为窗角角度,记为θ1;
[0022] 步骤7.5:同理,将窗角区域erk对应的图像记为DE,重复步骤7.2-7.4,可计算得到erk对应的窗角角点A2和窗角角度θ2,则车辆方向角为:θ=(θ1+θ2)/2;
[0023] 步骤8:根据公式(4)-(6)确定车辆粗定位区域R:
[0024]
[0025]
[0026]
[0027] 其中,wl为区域R左边界相对于左窗角角点A1的横坐标偏移值,wr为区域R右边界相对于右窗角角点A2的横坐标偏移值,δ为预先设定的最小横坐标偏移值,α为预先设定的区域R上边界相对于线段A1A2的纵坐标偏移系数,β为预先设定的区域R下边界相对于线段A1A2的纵坐标偏移系数。
[0028] 本发明的优点是:本发明与目前已有的基于静态图像的车辆定位方法相比,优势在于本发明可以实现多方向的车辆粗定位,且车辆的漏检率较低;同时本文方法将复杂场景下的多方向多车辆的定位问题转化为小区域的单车辆精准定位问题,为进一步车辆精准定位提供了保障。附图说明
[0029] 图1:车辆正面监控图像D;
[0030] 图2:车脸区域检测结果;
[0031] 图3:窗角检测区域定位结果;
[0032] 图4:窗角区域检测结果;
[0033] 图5:窗角联合区域定位结果;
[0034] 图6:窗角直线检测结果;
[0035] 图7:车辆粗定位结果。

具体实施方式

[0036] 下面结合具体实例,对本发明实施的过程进行详细的说明。
[0037] 本发明的静态图像的多方向车辆粗定位方法,包括如下步骤:
[0038] 步骤1:利用Hog+SVM训练得到4个分类器:车脸判别器、左下窗角判别器、右下窗角判别器、联合窗角区域判别器,其中联合窗角区域是指包含左下窗角和右下窗角的最小矩形区域;
[0039] 步骤2:获取交通监控相机拍摄的车辆正面监控图像,将其缩放到宽度为width,高度为height的图像,记为图像D;
[0040] 根据步骤2,得到的车辆正面监控图像D如图1所示;
[0041] 步骤3:利用多尺度滑动窗口结合车脸判别器检测出图像D中车脸区域c;
[0042] 根据步骤3进行车脸区域检测,检测结果如图2所示,得到的车脸区域c在图中用1号矩形框标注;
[0043] 步骤4:对于车脸区域c,首先根据公式(1)确定车辆左下窗角检测区域DL,根据公式(2)确定车辆右下窗角检测区域DR,然后在区域DL中利用多尺度滑动窗口结合左下窗角判别器检测出区域内所有的候选左下窗角区域,记为EL={eli|i=0,1,…,NEL-1},同理,对于右下窗角检测区域DR,利用右下窗角判别器检测出区域内所有的候选右下窗角区域,记为ER={eri|i=0,1,…,NER-1},其中,NEL表示检测出来的左窗角区域数量,NER表示检测出来的右窗角区域数量;
[0044]
[0045]
[0046] 其中,DL.x0,DL.y0,DL.w,DL.h分别表示区域DL的左上顶点横坐标、纵坐标、区域宽度、区域高度,其他区域的表达方式与此相同,min{}表示得到集合中的最小值,max{}表示得到集合中的最大值;
[0047] 根据步骤4确定左下窗角和右下窗角检测区域,区域定位结果如图3所示,确定的窗角检测区域在图中用2号矩形框标注;进一步利用左下、右下窗角检测器进行窗角检测,左下、右下窗角的检测结果如图4所示,得到的左下、右下窗角区域在图中用3号矩形框标注;
[0048] 步骤5:根据集合EL和集合ER构建联合窗角区域集合EC={ecij|i=0,1,…,NEL-1,j=0,1,…,NER-1},其中,区域ecij根据公式(3)确定;
[0049]
[0050] 步骤6:利用联合窗角区域判别器对EC中的候选联合窗角区域进行逐个判别,将那些判别为非联合窗角的区域从EC中剔除,然后选出EC中宽度最小的作为最终的联合窗角区域,记为ectk,则elt和erk确定为正确左下窗角区域和右下窗角区域;
[0051] 根据步骤5-6确定联合窗角区域,结果如图5所示,得到的联合窗角区域在图中用4号矩形框标注,本实例中不存在窗角多检的情况,车辆只有一个联合窗角区域,且该联合窗角区域被判定为正确的,因此不需要对联合窗角区域的宽度再根据宽度进行筛选;
[0052] 步骤7.1:将窗角区域elt对应的图像记为DE;
[0053] 步骤7.2:对图像DE进行高斯滤波和Canny边缘检测,得到边缘图DB;
[0054] 步骤7.3:对图像DB进行Hough直线检测得到直线集L={li|i=0,1,…,NL-1},NL为检测得到的直线数量,找到直线集L中满足0°≤li.θ≤20°的所有直线li,则其中li.length最大的直线为窗角水平边所在直线,记为l1,li.θ为直线li与水平线的夹角,且0°≤li.θ≤90°,li.length为直线li上包含边缘点集Zi的最短直线段的长度,边缘点集Zi为边缘图D1上直线li经过的所有边缘点;同理,找到直线集L中满足20°<li.θ≤90°且长度最大的直线即为窗角斜边所在直线,记为l2;
[0055] 步骤7.4:计算直线l1,l2的交点即为elt对应的窗角角点,记为A1,直线l1,l2构成的右上侧的夹角为窗角角度,记为θ1;
[0056] 步骤7.5:同理,将窗角区域erk对应的图像记为DE,重复步骤7.2-7.4,可计算得到erk对应的窗角角点A2和窗角角度θ2,则车辆方向角为:θ=(θ1+θ2)/2;
[0057] 根据步骤7进行左、右窗角直线检测,直线检测结果如图6所示,在图中用白色线段标注,最后计算得到的车辆方向θ分别85.64度;
[0058] 步骤8:根据公式(4)-(6)确定车辆粗定位区域R;
[0059]
[0060]
[0061]
[0062] 其中,wl为区域R左边界相对于左窗角角点A1的横坐标偏移值,wr为区域R右边界相对于右窗角角点A2的横坐标偏移值,δ为预先设定的最小横坐标偏移值,α为预先设定的区域R上边界相对于线段A1A2的纵坐标偏移系数,β为预先设定的区域R下边界相对于线段A1A2的纵坐标偏移系数;
[0063] 根据步骤8进行车辆粗定位,对于本实例中对于需要定位的小轿车,δ取α取0.8,β取1,车辆的定位结果如图7所示,在图中用5号矩形框标注。
[0064] 本说明书具体实施方法中所列举的处理对象,仅用于说明本发明的实现过程,本发明所能处理的对象情况并非仅限于所举实例。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈