三维物体检测装置

申请号 CN201280063075.3 申请日 2012-07-27 公开(公告)号 CN104012081B 公开(公告)日 2017-04-19
申请人 日产自动车株式会社; 发明人 早川泰久; 深田修;
摘要 具备:摄像单元(10),其拍摄规定区域;图像变换单元(31),其将由上述摄像单元得到的图像视点变换为 鸟 瞰视点图像;明 亮度 检测单元(40),其检测上述规定区域的明亮度;第一三维物体检测单元(33),其根据由上述图像变换单元得到的不同时刻的鸟瞰视点图像的差分图像来生成差分 波形 信息,至少在由上述明亮度检测单元检测出的明亮度为规定值以上的明亮度的情况下,按照上述差分波形信息是否为第一 阈值 (α)以上来检测三维物体;以及第二三维物体检测单元(37),其根据通过上述图像变换单元得到的鸟瞰视点图像来检测边缘信息,至少在由上述明亮度检测单元检测出的明亮度为小于规定值的明亮度的情况下,按照上述边缘信息是否为第二阈值(β)以上来检测三维物体。
权利要求

1.一种三维物体检测装置,其具备:
摄像单元,其拍摄规定区域;
图像变换单元,其将由上述摄像单元得到的图像视点变换为瞰视点图像;
亮度检测单元,其检测上述规定区域的明亮度;
第一三维物体检测单元,其根据由上述图像变换单元得到的不同时刻的鸟瞰视点图像的差分图像来生成差分波形信息,按照上述差分波形信息是否为第一阈值α以上来检测三维物体;以及
第二三维物体检测单元,其根据由上述图像变换单元得到的鸟瞰视点图像来检测边缘信息,按照上述边缘信息是否为第二阈值β以上来检测三维物体,
其中,在由上述明亮度检测单元检测出的明亮度为规定值以上的明亮度的情况下,相对于上述第二三维物体检测单元的检测结果的权重,将上述第一三维物体检测单元的检测结果的权重增大,以及
在由上述明亮度检测单元检测出的明亮度为小于规定值的明亮度的情况下,相对于上述第一三维物体检测单元的检测结果的权重,将上述第二三维物体检测单元的检测结果的权重增大,
其中,上述三维物体检测装置还具备三维物体判断单元,上述三维物体判断单元根据上述第一三维物体检测单元的检测结果和上述第二三维物体检测单元的检测结果,最终判断是否为三维物体。
2.根据权利要求1所述的三维物体检测装置,其特征在于,还具备:
阈值设定单元,其与由上述明亮度检测单元检测出的明亮度相应地设定上述第一阈值α和上述第二阈值β,
其中,上述三维物体判断单元在上述差分波形信息为上述第一阈值α以上且上述边缘信息为上述第二阈值β以上的情况下,判断为是三维物体,
由上述明亮度检测单元检测出的明亮度越暗,则上述阈值设定单元将上述第一阈值α与上述第二阈值β之比α/β设定得越小,上述明亮度越亮,将上述比α/β设定得越大。
3.根据权利要求1或2所述的三维物体检测装置,其特征在于,
上述第一三维物体检测单元将由上述图像变换单元得到的不同时刻的鸟瞰视点图像的位置以鸟瞰视点进行对位,对沿着在视点变换为鸟瞰视点图像时三维物体倾倒的方向进行上述对位后的鸟瞰视点图像的差分图像上示出规定的差分的像素数进行计数,并进行频数分布化,由此生成一维的差分波形信息。
4.根据权利要求1或2所述的三维物体检测装置,其特征在于,
上述第一三维物体检测单元关于由上述图像变换单元得到的不同时刻的各个鸟瞰视点图像,对沿着在视点变换为鸟瞰视点图像时三维物体倾倒的方向的示出规定的差分的像素数进行计数,并进行频数分布化,由此分别生成一维的差分波形信息,将这些差分波形信息进行对位,根据上述对位后的差分波形信息的差分来生成上述差分波形信息。
5.根据权利要求1或2所述的三维物体检测装置,其特征在于,
上述第一三维物体检测单元根据安装有上述摄像单元的移动体的移动速度,计算上述不同时刻的鸟瞰视点图像的在实际空间中的移动距离,使上述不同时刻的鸟瞰视点图像偏移计算出的该移动距离来进行对位,生成上述差分波形信息。
6.根据权利要求1或2所述的三维物体检测装置,其特征在于,
上述第一三维物体检测单元根据安装有上述摄像单元的移动体的移动速度,计算上述不同时刻的鸟瞰视点图像的在实际空间中的移动距离,使上述不同时刻的鸟瞰视点图像偏移所计算出的该移动距离来进行对位,求出对在该对位后的鸟瞰视点图像的差分图像上彼此相邻的图像区域的亮度差为规定阈值以上的像素数进行计数并进行频数分布化所生成的第一差分波形信息的第一累计值,并且
不使上述不同时刻的鸟瞰视点图像的位置偏移而求出它们的差分图像,并求出对在该差分图像上彼此相邻的图像区域的亮度差为规定阈值以上的像素数进行计数并进行频数分布化而生成的第二差分波形信息的第二累计值,
根据与判断为上述第二累计值大于上述第一累计值的次数相应的评价值是否为规定的评价阈值以上来检测上述三维物体。
7.根据权利要求1或2所述的三维物体检测装置,其特征在于,
上述第二三维物体检测单元沿着在视点变换为鸟瞰视点图像时三维物体倾倒的方向,检测上述边缘信息。
8.根据权利要求1或2所述的三维物体检测装置,其特征在于,
上述明亮度检测单元检测上述摄像单元所拍摄的上述规定区域的光量或基于该光量的摄像单元的控制值。
9.根据权利要求1或2所述的三维物体检测装置,其特征在于,
上述明亮度检测单元将太阳的高度设为上述明亮度的检测值。

说明书全文

三维物体检测装置

技术领域

[0001] 本发明涉及一种三维物体检测装置。

背景技术

[0002] 以往,提出了一种进行车辆周边的三维物体的检测以及检测三维物体是处于静止状态还是处于移动状态的车辆周边监视装置。在该车辆周边监视装置中,将在不同时刻拍摄到的两张图像变换为瞰图,进行两张鸟瞰图的对位,关于对位后的两张图像取差分,将不一致部分检测为三维物体(参照专利文献1)。
[0003] 专利文献1:日本特开2008-219063号公报

发明内容

[0004] 发明要解决的问题
[0005] 然而,如上述以往的那样,在基于两张鸟瞰图的差分的三维物体的检测方法中,当如晚上那样路面的照明状况因路灯、车辆的头灯而变化较大时,图像的差分产生于各种对象物中,因此错误检测的可能性高。
[0006] 本发明要解决的课题在于,提供一种无论检测环境的明亮度如何都能够提高三维物体的检测精度的三维物体检测装置。
[0007] 用于解决问题的方案
[0008] 本发明通过在检测环境暗的情况下提高基于边缘信息的检测结果的权重、在检测环境亮的情况下提高基于差分波形信息的检测结果的权重,由此解决上述课题。
[0009] 发明的效果
[0010] 当在检测环境暗的情况下提高基于边缘信息的检测结果的权重时,即使在差分波形信息中产生形成错误检测的原因的路面的亮暗变动,对边缘信息的影响也少,因此能够提高三维物体的检测精度。另外,当在检测环境亮的情况下提高基于差分波形信息的检测结果的权重时,即使在边缘信息中存在形成错误检测的原因的路面的图案等,对差分波形信息的影响也少,因此能够提高三维物体的检测精度。附图说明
[0011] 图1是应用了本发明的三维物体检测装置的一个实施方式所涉及的车辆的概要结构图。
[0012] 图2是表示图1的车辆的行驶状态的顶视图(基于差分波形信息的三维物体检测)。
[0013] 图3是表示图1的计算机的详细内容的框图
[0014] 图4是用于说明图3的对位部的处理概要的图,(a)是表示车辆的移动状态的顶视图,(b)是表示对位的概要的图像。
[0015] 图5是表示图3的第一三维物体检测部生成差分波形的情形的概要图。
[0016] 图6是表示由图3的第一三维物体检测部分割的小区域的图。
[0017] 图7是表示由图3的第一三维物体检测部得到的直方图的一例的图。
[0018] 图8是表示图3的第一三维物体检测部的加权的图。
[0019] 图9是表示图3的拖影检测部的处理以及基于该处理计算差分波形的处理的图。
[0020] 图10是表示由图3的第一三维物体检测部得到的直方图的另一例的图。
[0021] 图11是表示由图3的视点变换部、对位部、拖影检测部以及第一三维物体检测部执行的利用差分波形信息的三维物体检测方法的流程图(之一)。
[0022] 图12是表示由图3的视点变换部、对位部、拖影检测部以及三维物体检测部执行的利用差分波形信息的三维物体检测方法的流程图(之二)。
[0023] 图13是表示图1的车辆的行驶状态的图(基于边缘信息的三维物体检测),(a)是表示检测区域等的位置关系的平面图,(b)是表示实际空间中的检测区域等的位置关系的立体图。
[0024] 图14是用于说明图3的亮度差计算部的动作的图,(a)是表示鸟瞰视点图像中的关注线、参照线、关注点以及参照点的位置关系的图,(b)是表示实际空间中的关注线、参照线、关注点以及参照点的位置关系的图。
[0025] 图15是用于说明图3的亮度差计算部的详细动作的图,(a)是表示鸟瞰视点图像中的检测区域的图,(b)是表示鸟瞰视点图像中的关注线、参照线、关注点以及参照点的位置关系的图。
[0026] 图16是表示边缘线和边缘线上的亮度分布的图,(a)是表示在检测区域存在三维物体(车辆)时的亮度分布的图,(b)是表示在检测区域不存在三维物体时的亮度分布的图。
[0027] 图17是表示由图3的视点变换部、亮度差计算部、边缘线检测部以及第二三维物体检测部执行的利用边缘信息的三维物体检测方法的流程图(之一)。
[0028] 图18是表示由图3的视点变换部、亮度差计算部、边缘线检测部以及第二三维物体检测部执行的利用边缘信息的三维物体检测方法的流程图(之二)。
[0029] 图19是表示用于说明边缘检测动作的图像例的图。
[0030] 图20是表示图3的三维物体判断部的控制过程的流程图。
[0031] 图21是表示第一阈值与第二阈值之比α/β与明亮度的关系的控制对应图的一例。
[0032] 图22是表示第一阈值与第二阈值之比α/β与明亮度的关系的控制对应图的另一例。
[0033] 图23是表示第一阈值与第二阈值之比α/β与明亮度的关系的控制对应图的另一例。
[0034] 图24是表示第一阈值与第二阈值之比α/β与明亮度的关系的控制对应图的另一例。
[0035] 图25是表示第一阈值α和第二阈值β相对于明亮度的设定例的控制对应图。
[0036] 图26是表示第一三维物体检测部的检测结果的权重X和第二三维物体检测部的检测结果的权重Y相对于明亮度的设定例的控制对应图。
[0037] 图27是用于说明图3的对位部的处理的另一例的图(之一)。
[0038] 图28是用于说明图3的对位部的处理的另一例的图(之二)。
[0039] 图29是用于说明图3的对位部的处理的另一例的图(之三)。

具体实施方式

[0040] 图1是应用了本发明的三维物体检测装置1的一个实施方式所涉及的车辆的概要结构图,本例的三维物体检测装置1以如下情形为目的:检测本车辆V在车道变更时有可能接触的其它车辆,计算移动距离。因此,设为下面说明的一例表示将三维物体检测装置1搭载于车辆V并将后车设为检测对象的三维物体的例子。如该图所示,本例的三维物体检测装置1具备摄像头10、车速传感器20、计算机30以及明亮度检测部40。
[0041] 摄像头10如图1所示那样在本车辆V后方的高度h的地方以光轴相对于平方向朝下形成度θ的方式安装于车辆V。摄像头10从该位置拍摄本车辆V的周围环境中的规定区域。车速传感器20用于检测车辆V的行驶速度,并根据例如由检测车轮转速的车轮速度传感器检测出的车轮速度来计算车速。计算机30检测车辆后方的三维物体,并且在本例中计算关于该三维物体的移动距离和移动速度。明亮度检测部40检测由摄像头10拍摄的规定区域的明亮度,稍后记述其详细内容。
[0042] 图2是表示图1的车辆V的行驶状态的顶视图。如该图所示,摄像头10以规定的视角a拍摄车辆后方侧。此时,摄像头10的视角a被设定为除了能够拍摄到本车辆V所行驶的车道以外还能够拍摄到其左右的车道的视角。
[0043] 图3是表示图1的计算机30的详细内容的框图。此外,在图3中,为了明确连接关系,还图示了摄像头10、车速传感器20以及明亮度检测部40。
[0044] 如图3所示,计算机30具备视点变换部31、对位部32、第一三维物体检测部33、拖影检测部34、亮度差计算部35、边缘线检测部36、第二三维物体检测部37、三维物体判断部38以及阈值设定部39。其中,视点变换部31、拖影检测部34、对位部32以及第一三维物体检测部33是与后述的利用差分波形信息的三维物体的检测模有关的结构部,视点变换部31、亮度差计算部35、边缘线检测部36以及第二三维物体检测部37是与后述的利用边缘信息的三维物体的检测模块有关的结构部。下面,首先说明各个结构部。
[0045] <利用差分波形信息检测三维物体>
[0046] 视点变换部31输入由摄像头10拍摄得到的规定区域的摄像图像数据,将所输入的摄像图像数据视点变换为鸟瞰视点状态的鸟瞰图像数据。鸟瞰视点状态是指从上空、例如从铅垂向下俯视的虚拟摄像头的视点观看的状态。能够例如日本特开2008-219063号公报所记载的那样执行该视点变换。将摄像图像数据视点变换为鸟瞰视点图像数据是因为:基于三维物体所特有的铅垂边缘通过视点变换为鸟瞰视点图像数据而被变换为通过特定的定点的直线群这样的原理,利用该原理能够识别平面物体和三维物体。此外,在后述的利用边缘信息检测三维物体中也使用视点变换部31的图像变换处理的结果。
[0047] 对位部32依次输入由视点变换部31的视点变换得到的鸟瞰视点图像数据,并决定所输入的不同时刻的鸟瞰视点图像数据的位置。图4是用于说明对位部32的处理概要的图,(a)是表示车辆V的移动状态的顶视图,(b)是表示对位的概要的图像。
[0048] 如图4的(a)所示,设为当前时刻的本车辆V位于V1,前一时刻的本车辆V位于V2。另外,设为其它车辆V位于本车辆V的后侧方向并与本车辆V处于并列行驶状态,当前时刻的其它车辆V位于V3,前一时刻的其它车辆V位于V4。并且,设为本车辆V在一个时刻移动了距离d。此外,前一时刻可以是从当前时刻起经过预先决定的时间(例如一个控制周期)的过去的时刻,也可以是经过任意的时间的过去的时刻。
[0049] 在这样的状态中,当前时刻的鸟瞰图像PBt如图4的(b)所示那样。在该鸟瞰图像PBt中,描绘在路面上的白线为矩形状,是比较准确地以顶视观察所形成的状态,但是关于其它车辆V3发生了倾倒。另外,前一时刻的鸟瞰图像PBt-1也同样地,描绘在路面上的白线为矩形状,是比较准确地以顶视观察所形成的状态,但是其它车辆V4发生了倾倒。如已经记述的那样,是因为三维物体的铅垂边缘(除了严格意义上的铅垂边缘以外还包含在三维空间中从路面向上延伸的边缘)通过视点变换为鸟瞰视点图像数据的处理而表现为沿着倾倒的方向的直线群,与此相对地路面上的平面图像不包含铅垂边缘,因此即使进行视点变换也不会产生那样的倾倒。
[0050] 对位部32在数据上执行如上所述的鸟瞰图像PBt、PBt-1的对位。此时,对位部32使前一时刻的鸟瞰视点图像PBt-1偏移来使位置与当前时刻的鸟瞰图像PBt相一致。图4的(b)的左侧的图像和中央的图像表示偏移了移动距离d’后的状态。该偏移量d’是与图4的(a)所示的本车辆V的实际的移动距离d对应的鸟瞰视点图像数据上的移动量,根据来自车速传感器20的信号和从前一时刻至当前时刻的时间来决定。
[0051] 另外,在对位之后,对位部32取鸟瞰图像PBt、PBt-1的差分,生成差分图像PDt的数据。在此,差分图像PDt的像素值可以是将鸟瞰图像PBt、PBt-1的像素值之差绝对值化得到的像素值,也可以为了对应照度环境的变化而在该绝对值超过规定的阈值时设为“1”,在不超过规定的阈值时设为“0”。图4的(b)的右侧的图像是差分图像PDt。此外,本例的对位部32将不同时刻的鸟瞰视点图像的位置以鸟瞰视点进行对位,得到对位后的该鸟瞰视点图像,但是该对位处理能够以与检测对象的类别、所要求的检测精度相应的精度进行。可以是以同一时刻和同一位置为基准进行对位之类的严格的对位处理,也可以是掌握各鸟瞰视点图像的坐标这样的程度的不严格的对位处理。
[0052] 返回图3,第一三维物体检测部33根据图4的(b)所示的差分图像PDt的数据来检测三维物体。此时,本例的第一三维物体检测部33还计算在实际空间中的三维物体的移动距离。在三维物体的检测以及移动距离的计算时,第一三维物体检测部33首先生成差分波形。
[0053] 在生成差分波形时,第一三维物体检测部33在差分图像PDt中设定检测区域。本例的三维物体检测装置1用于关于在本车辆V进行车道变更时有可能接触的其它车辆计算移动距离。因此,在本例中,如图2所示那样在本车辆V的后侧方设定矩形状的检测区域A1、A2。此外,这样的检测区域A1、A2可以根据相对于本车辆V的相对位置进行设定,也可以将白线的位置作为基准进行设定。在以白线的位置为基准进行设定的情况下,移动距离检测装置1例如最好利用已有的白线识别技术等。
[0054] 另外,第一三维物体检测部33将所设定的检测区域A1、A2的在本车辆V侧的边(沿着行驶方向的边)识别为触地线L1、L2。一般地说,触地线意味着三维物体接触地面的线,但是在本实施方式中不是接触地面的线而是如上述那样进行设定。此外,在这种情况下,从经验上看本实施方式所涉及的触地线与基于其它车辆V的本来的位置求出的触地线之差也不会过大,从而在实际使用上没有问题。
[0055] 图5是表示图3所示的第一三维物体检测部33生成差分波形的情形的概要图。如图5所示,第一三维物体检测部33根据由对位部32计算出的差分图像PDt(图4的(b)的右图)中的相当于检测区域A1、A2的部分来生成差分波形DWt。此时,第一三维物体检测部33沿着通过视点变换而三维物体倾倒的方向生成差分波形DWt。此外,在图5所示的例子中,为了方便仅使用检测区域A1进行说明,但是关于检测区域A2,也以相同的过程生成差分波形DWt。
[0056] 具体地说,首先,第一三维物体检测部33在差分图像PDt的数据上定义三维物体倾倒的方向上的线La。然后,第一三维物体检测部33对线La上示出规定的差分的差分像素DP的个数进行计数。在此,在差分图像PDt的像素值是将鸟瞰图像PBt、PBt-1的像素值之差绝对值化得到的像素值的情况下,示出规定的差分的差分像素DP是超过规定的阈值的像素,在差分图像PDt的像素值用“0”、“1”表现的情况下,是表示“1”的像素。
[0057] 第一三维物体检测部33在对差分像素DP的个数进行计数之后,求出线La与触地线L1的交点CP。然后,第一三维物体检测部33将交点CP与计数数进行对应关联,根据交点CP的位置来决定横轴位置、即在图5的右图的上下方向轴上的位置,并且根据计数数决定纵轴位置、即图5的右图的左右方向轴上的位置,绘制出交点CP处的计数数。
[0058] 以下同样地,第一三维物体检测部33对三维物体倾倒的方向上的线Lb、Lc···进行定义,来对差分像素DP的个数进行计数,根据各交点CP的位置决定横轴位置、基于计数数(差分像素DP的个数)决定纵轴位置进行绘制。第一三维物体检测部33依次重复上述内容进行频数分布化来如图5右图所示那样生成差分波形DWt。
[0059] 此外,如图5左图所示,三维物体倾倒的方向上的线La和线Lb与检测区域A1相重叠的距离不同。因此,当检测区域A1被差分像素DP填满时,线La上的差分像素DP的个数多于线Lb上的差分像素DP的个数。因此,第一三维物体检测部33在基于差分像素DP的计数数决定纵轴位置的情况下,根据三维物体倾倒的方向上的线La、Lb与检测区域A1相重叠的距离来进行标准化。当列举具体例时,在图5左图中,在线La上有6个差分像素DP,在线Lb上有5个差分像素DP。因此,在图5中基于计数数决定纵轴位置时,第一三维物体检测部33将计数数除以重叠距离等来进行标准化。由此,如差分波形DWt所示那样,与三维物体倾倒的方向上的线La、Lb对应的差分波形DWt的值大致相同。
[0060] 在生成差分波形DWt之后,第一三维物体检测部33通过与前一时刻的差分波形DWt-1的对比来计算移动距离。即,第一三维物体检测部33基于差分波形DWt、DWt-1的时间变化来计算移动距离。
[0061] 详细地说,第一三维物体检测部33如图6所示那样将差分波形DWt分割成多个小区域DWt1~DWtn(n为2以上的任意整数)。图6是表示由第一三维物体检测部33分割出的小区域DWt1~DWtn的图。小区域DWt1~DWtn例如图6所示那样以相互重叠的方式进行分割。例如小区域DWt1与小区域DWt2重叠,小区域DWt2与小区域DWt3重叠。
[0062] 接着,第一三维物体检测部33按各小区域DWt1~DWtn求出偏移量(差分波形的横轴方向(图6的上下方向)的移动量)。在此,根据前一时刻的差分波形DWt-1与当前时刻的差分波形DWt之差(横轴方向的距离)求出偏移量。此时,第一三维物体检测部33按各小区域DWt1~DWtn,在使前一时刻的差分波形DWt-1沿横轴方向移动时,判断出与当前时刻的差分波形DWt的误差最小的位置(横轴方向的位置),求出差分波形DWt-1的原来的位置与误差最小的位置的在横轴方向上的移动量来作为偏移量。然后,第一三维物体检测部33对按各小区域DWt1~DWtn求出的偏移量进行计数来制作直方图。
[0063] 图7是表示由第一三维物体检测部33得到的直方图的一例的图。如图7所示,各小区域DWt1~DWtn与前一时刻的差分波形DWt-1的误差最小的移动量即偏移量稍微产生偏差。因此,第一三维物体检测部33将包含偏差的偏移量制作成直方图,基于直方图计算移动距离。此时,第一三维物体检测部33根据直方图的极大值计算三维物体的移动距离。即,在图7所示的例子中,第一三维物体检测部33将表示直方图的极大值的偏移量计算为移动距离τ*。此外,该移动距离τ*是其它车辆V相对于本车辆V的相对移动距离。因此,第一三维物体检测部33在计算绝对移动距离的情况下,根据所得到的移动距离τ*和来自车速传感器20的信号来计算绝对移动距离。
[0064] 此外,在制作成直方图时,第一三维物体检测部33也可以针对多个小区域DWt1~DWtn中的每一个附加权重,与权重相应地对按各小区域DWt1~DWtn求出的偏移量进行计数来制作直方图。图8是表示第一三维物体检测部33的附加权重的图。
[0065] 如图8所示,小区域DWm(m为1以上、n-1以下的整数)是平坦的。即,小区域DWm的示出规定的差分的像素数的计数的最大值与最小值之差小。第一三维物体检测部33针对这样的小区域DWm将权重减小。这是因为关于平坦的小区域DWm没有特征,从而在计算偏移量时误差变大的可能性高。
[0066] 另一方面,小区域DWm+k(k为n-m以下的整数)有大量的起伏。即,小区域DWm的示出规定的差分的像素数的计数数的最大值与最小值之差大。第一三维物体检测部33针对这样的小区域DWm将权重增大。这是因为关于有很多起伏的小区域DWm+k具有特征,从而能够正确地进行偏移量的计算的可能性高。通过像这样附加权重,能够提高移动距离的计算精度。
[0067] 此外,为了提高移动距离的计算精度,在上述实施方式中,将差分波形DWt分割成了多个小区域DWt1~DWtn,但是在移动距离的计算精度要求不那么高的情况下,也可以不分割成小区域DWt1~DWtn。在这种情况下,第一三维物体检测部33根据差分波形DWt与差分波形DWt-1的误差最小时的差分波形DWt的偏移量来计算移动距离。即,求前一时刻的差分波形DWt-1与当前时刻的差分波形DWt的偏移量的方法不限定于上述内容。
[0068] 返回图3,计算机30具备拖影检测部34。拖影检测部34根据由摄像头10拍摄得到的摄像图像的数据来检测拖影的产生区域。此外,由于拖影是在CCD图像传感器等中产生的过曝光现象,因此如果采用使用了不产生这样的拖影的CMOS图像传感器等的摄像头10,则也可以省略拖影检测部34。
[0069] 图9是用于说明拖影检测部34的处理以及基于该处理的差分波形DWt的计算处理的图像图。首先,设为对拖影检测部34输入了存在拖影S的摄像图像P的数据。此时,拖影检测部34根据摄像图像P检测拖影S。拖影S的检测方法多种多样,例如在一般的CCD(Charge-Coupled Device:电荷耦合器件)摄像头的情况下,从光源仅向图像下方向产生拖影S。因此,在本实施方式中,检索从图像下侧向图像上方具有规定值以上的亮度值且在纵方向上连续的区域,将其确定为拖影S的产生区域。
[0070] 另外,拖影检测部34生成关于拖影S的产生部分将像素值设为“1”、将除此以外的部分设为“0”的拖影图像SP的数据。在生成后,拖影检测部34将拖影图像SP的数据发送到视点变换部31。另外,输入了拖影图像SP的数据的视点变换部31将该数据视点变换为鸟瞰视点的状态。由此,视点变换部31生成拖影鸟瞰图像SBt的数据。在生成后,视点变换部31将拖影鸟瞰图像SBt的数据发送到对位部32。视点变换部31还将前一时刻的拖影鸟瞰视点图像SBt-1的数据发送到对位部32。
[0071] 对位部32在数据上执行拖影鸟瞰图像SBt、SBt-1的对位。关于具体的对位,与在数据上执行鸟瞰图像PBt、PBt-1的对位的情况相同。另外,在对位后,对位部32关于各拖影鸟瞰图像SBt、SBt-1的拖影S的产生区域取逻辑和。由此,对位部32生成掩模图像MP的数据。在生成后,对位部32将掩模图像MP的数据发送到第一三维物体检测部33。
[0072] 第一三维物体检测部33关于掩模图像MP中的相当于拖影S的产生区域的部分,将频数分布的计数数设为零。即,在生成了如图9所示那样的差分波形DWt的情况下,第一三维物体检测部33将拖影S的计数数SC设为零,生成校正后的差分波形DWt’。
[0073] 此外,在本实施方式中,第一三维物体检测部33求出车辆V(摄像头10)的移动速度,根据求出的移动速度求出关于静止物体的偏移量。在求出静止物体的偏移量之后,第一三维物体检测部33忽略直方图的极大值中的相当于静止物体的偏移量之后计算三维物体的移动距离。
[0074] 图10是表示由第一三维物体检测部33得到的直方图的另一例的图。在摄像头10的视角内除了其它车辆V以外还存在静止物体的情况下,在得到的直方图中出现两个极大值τ1、τ2。在这种情况下,两个极大值τ1、τ2中的某一方是静止物体的偏移量。因此,第一三维物体检测部33根据移动速度求出关于静止物体的偏移量,忽略相当于该偏移量的极大值,采用剩下的一方的极大值计算三维物体的移动距离。
[0075] 此外,在即使忽略相当于静止物体的偏移量也存在多个极大值的情况下,设想在摄像头10的视角内存在多辆其它车辆V。但是,在检测区域A1、A2内存在多辆其它车辆V的情形是非常少见的。因此,第一三维物体检测部33中止移动距离的计算。
[0076] 接着,说明基于差分波形信息的三维物体检测过程。图11和图12是表示本实施方式的三维物体检测过程的流程图。如图11所示,首先,计算机30输入由摄像头10得到的摄像图像P的数据,由拖影检测部34生成拖影图像SP(S1)。接着,视点变换部31根据来自摄像头10的摄像图像P的数据生成鸟瞰图像PBt的数据,并且根据拖影图像SP的数据生成拖影鸟瞰图像SBt的数据(S2)。
[0077] 然后,对位部32将鸟瞰图像PBt的数据和前一时刻的鸟瞰图像PBt-1的数据进行对位,并且将拖影鸟瞰图像SBt的数据和前一时刻的拖影鸟瞰图像SBt-1的数据进行对位(S3)。在该对位之后,对位部32生成差分图像PDt的数据,并且生成掩模图像MP的数据(S4)。之后,第一三维物体检测部33根据差分图像PDt的数据和前一时刻的差分图像PDt-1的数据生成差分波形DWt(S5)。在生成差分波形DWt之后,第一三维物体检测部33将差分波形DWt中的相当于拖影S的产生区域的计数数设为零,从而抑制拖影S所产生的影响(S6)。
[0078] 之后,第一三维物体检测部33判断差分波形DWt的峰值是否为第一阈值α以上(S7)。通过图3所示的三维物体判断部38设定该第一阈值α,稍后对其进行详细记述。在此,在差分波形DWt的峰值不为第一阈值α以上的情况下、即几乎不存在差分的情况下,认为在摄像图像P内存在三维物体。因此,在判断为差分波形DWt的峰值不为第一阈值α以上的情况下(S7:“否”),第一三维物体检测部33判断为不存在三维物体,从而不存在其它车辆(图12:S16)。然后,结束图11和图12所示的处理。
[0079] 另一方面,在判断为差分波形DWt的峰值为第一阈值α以上的情况下(S7:“是”),第一三维物体检测部33判断为存在三维物体,将差分波形DWt分割成多个小区域DWt1~DWtn(S8)。接着,第一三维物体检测部33针对各小区域DWt1~DWtn进行加权(S9)。之后,第一三维物体检测部33针对各小区域计算DWt1~DWtn的偏移量(S10),附加权重后生成直方图(S11)。
[0080] 然后,第一三维物体检测部33基于直方图计算三维物体相对于本车辆V的移动距离、即相对移动距离(S12)。接着,第一三维物体检测部33根据相对移动距离计算三维物体的绝对移动速度(S13)。此时,第一三维物体检测部33对相对移动距离进行时间微分来计算相对移动速度,并且加上由车速传感器20检测出的本车速度来计算绝对移动速度。
[0081] 之后,第一三维物体检测部33判断三维物体的绝对移动速度是否为10km/h以上且三维物体相对于本车辆V的相对移动速度是否为+60km/h以下(S14)。在满足双方的情况下(S14:“是”),第一三维物体检测部33判断为三维物体是其它车辆V(S15)。然后,结束图11和图12所示的处理。另一方面,在有任一方不满足的情况下(S14:“否”),第一三维物体检测部33判断为不存在其它车辆(S16)。然后,结束图11和图12所示的处理。
[0082] 此外,在本实施方式中,将本车辆V的后侧方设为检测区域A1、A2,重点在于在本车辆V进行车道变更的情况下是否有接触的可能性。因此,执行了步骤S14的处理。即,当以使本实施方式的系统在高速公路上进行动作的情形为前提时,在三维物体的速度小于10km/h的情况下,即使存在其它车辆V,在进行车道变更时由于位于距本车辆V很远的后方,因此很少会成为问题。同样地,在三维物体相对于本车辆V的相对移动速度超过+60km/h的情况下(即,三维物体相对于本车辆V的速度以大于60km/h的速度移动的情况下),在进行车道变更时,由于移动到了本车辆V的前方,因此很少会成为问题。因此,在步骤S14中,也可以说判断出了在进行车道变更时成为问题的其它车辆V。
[0083] 另外,通过在步骤S14中判断三维物体的绝对移动速度是否为10km/h以上且三维物体相对于本车辆V的相对移动速度是否为+60km/h以下,由此存在以下的效果。例如,根据摄像头10的安装误差,有可能存在将静止物体的绝对移动速度检测出是数km/h的情况。因此,通过判断是否为10km/h以上,能够减少将静止物体判断为是其它车辆V的可能性。另外,有可能由于噪声而导致将三维物体相对于本车辆V的相对速度检测为超过+60km/h的速度。因此,通过判断相对速度是否为+60km/h以下,能够减少因噪声引起的错误检测的可能性。
[0084] 并且,代替步骤S14的处理,也可以判断绝对移动速度不为负或者不为0km/h。另外,在本实施方式中,重点在于本车辆V在进行车道变更的情况下是否有接触的可能性,因此在步骤S15中检测出其它车辆V的情况下,可以向本车辆的驾驶员发出警告音,或者通过规定的显示装置进行相当于警告的显示。
[0085] 这样,根据本例的基于差分波形信息的三维物体的检测过程,沿着通过视点变换而三维物体倾倒的方向,对在差分图像PDt的数据上示出规定的差分的像素数进行计数来进行频数分布化,由此生成差分波形DWt。在此,在差分图像PDt的数据上示出规定的差分的像素是指在不同时刻的图像中存在变化的像素,换言之,可以说是存在三维物体的部分。因此,在存在三维物体的部分,通过沿着三维物体倾倒的方向对像素数进行计数来进行频数分布化,由此生成差分波形DWt。特别地,由于沿着三维物体倾倒的方向对像素数进行计数,因此根据针对三维物体来说在高度方向上的信息来生成差分波形DWt。然后,根据包含高度方向的信息的差分波形DWt的时间变化来计算三维物体的移动距离。因此,与仅着眼于1个点的移动的情况相比,时间变化前的检测部分和时间变化后的检测部分由于包含高度方向的信息进行确定,因此容易得到三维物体中相同的部分,从而根据相同部分的时间变化来计算移动距离,能够提高移动距离的计算精度。
[0086] 另外,关于差分波形DWt中的相当于拖影S的产生区域的部分,将频数分布的计数数设为零。由此,去除差分波形DWt中的由拖影S产生的波形部位,从而能够防止将拖影S错误识别为三维物体的情形。
[0087] 另外,根据在不同的时刻生成的差分波形DWt的误差最小时的差分波形DWt的偏移量来计算三维物体的移动距离。因此,根据波形这样的一维的信息的偏移量来计算移动距离,从而能够在计算移动距离时抑制计算成本。
[0088] 另外,将在不同的时刻生成的差分波形DWt分割成多个小区域DWt1~DWtn。通过像这样分割成多个小区域DWt1~DWtn,由此得到多个表示三维物体的各个部分的波形。另外,针对各小区域DWt1~DWtn求出各个波形的误差最小时的偏移量,对针对各小区域DWt1~DWtn求出的偏移量进行计数来制作直方图,由此计算三维物体的移动距离。因此,针对三维物体的各个部分求出偏移量,并根据多个偏移量求出移动距离,从而能够提高移动距离的计算精度。
[0089] 另外,针对多个小区域DWt1~DWtn中的每一个附加权重,与权重相应地对针对各小区域DWt1~DWtn求出的偏移量进行计数来制作直方图。因此,关于特征性的区域将权重增大,关于非特征性的区域将权重减小,由此能够更适当地计算移动距离。因而,能够进一步提高移动距离的计算精度。
[0090] 另外,关于差分波形DWt的各小区域DWt1~DWtn,示出规定的差分的像素数的计数的最大值与最小值之差越大,使权重越大。因此,越是最大值与最小值之差大的特征性的起伏区域则权重越大,而起伏小的平坦的区域则权重变小。在此,就形状来说,起伏大的区域相比于平坦的区域更容易正确地求出偏移量,因此通过越是最大值与最小值之差大的区域则使权重越大,由此能够进一步提高移动距离的计算精度。
[0091] 另外,根据对针对各小区域DWt1~DWtn求出的偏移量进行计数得到的直方图的极大值,计算三维物体的移动距离。因此,即使偏移量产生偏差,也能够根据其极大值来计算正确性更高的移动距离。
[0092] 另外,求出关于静止物体的偏移量,并忽略该偏移量,因此能够防止由于静止物体而导致三维物体的移动距离的计算精度下降的情形。另外,在忽略了相当于静止物体的偏移量之后,如果存在多个极大值,则中止三维物体的移动距离的计算。因此,能够防止如存在多个极大值那样的错误地计算移动距离的情形。
[0093] 此外,在上述实施方式中,根据来自车速传感器20的信号判断本车辆V的车速,但是不限于此,也可以根据不同时刻的多个图像来估计速度。在这种情况下,不需要车速传感器,能够实现结构的简单化。
[0094] 另外,在上述实施方式中,将拍摄到的当前时刻的图像和前一时刻的图像变换为鸟瞰图,对变换后的鸟瞰图进行对位之后生成差分图像PDt,对所生成的差分图像PDt沿着倾倒的方向(将拍摄到的图像变换为鸟瞰图时的三维物体的倾倒的方向)进行评价来生成差分波形DWt,但是不限定于此。例如也可以仅将前一时刻的图像变换为鸟瞰图,对变换得到的鸟瞰图进行对位之后再次变换为与所拍摄的图像相当的图像,用该图像和当前时刻的图像生成差分图像,对所生成的差分图像沿着相当于倾倒方向的方向(即,将倾倒的方向变换为摄像图像上的方向所得到的方向)进行评价来生成差分波形DWt。即,对当前时刻的图像和前一时刻的图像进行对位,根据进行对位后的两个图像的差分生成差分图像PDt,只要能够沿着将差分图像PDt变换为鸟瞰图时的三维物体的倾倒的方向进行评价,也可以不必明确地生成鸟瞰图。
[0095] 另外,在上述实施方式中,如图4的(b)所示那样在对当前时刻的鸟瞰图像数据PBt和前一时刻(过去)的鸟瞰图像数据PBt-1进行对位之后,生成它们的差分图像PDt,如图5所示那样对差分图像PDt沿着相当于倾倒方向的方向进行评价来生成差分波形DWt,但是也可以如图5所示那样对当前时刻和前一时刻的鸟瞰图像数据PBt、PBt-1沿着相当于倾倒方向的方向分别进行评价来分别生成当前时刻和前一时刻的差分波形DWt,之后如图4的(b)所示那样对这两个差分波形进行对位,根据这两个差分波形的差分生成最终的差分波形信息。
[0096] <基于边缘信息检测三维物体>
[0097] 接着,说明由图3所示的视点变换部31、亮度差计算部35、边缘线检测部36以及第二三维物体检测部37构成的利用边缘信息的三维物体的检测模块。图13是表示图3的摄像头10的摄像范围等的图,图13的(a)是平面图,图13的(b)表示本车辆V后侧方的实际空间中的立体图。如图13的(a)所示,摄像头10被形成为规定的视角a,从本车辆V拍摄包含于该规定的视角a中的后侧方。摄像头10的视角a与图2所示的情况同样地被设定成在摄像头10的摄像范围内除了包含本车辆V1所行驶的车道以外还包含相邻的车道。
[0098] 本例的检测区域A1、A2在平面图(鸟瞰视点的状态)中形成为梯形状,这些检测区域A1、A2的位置、大小以及形状根据距离d1~d4决定。此外,该图所示的例子的检测区域A1、A2不限于梯形状,也可以是如图2所示那样在鸟瞰视点的状态下为矩形等其它的形状。
[0099] 在此,距离d1是从本车辆V1到触地线L1、L2的距离。触地线L1、L2的意思是存在于与本车辆V1所行驶的车道相邻的车道的三维物体接触地面的线。在本实施方式中,目的是检测在本车辆V1的后侧方行驶于与本车辆V1的车道相邻的左右车道的其它车辆V2等(包含二轮车等)。因此,能够事先根据本车辆V1至白线W的距离d11和从白线W至预测为其它车辆V2行驶的位置的距离d12,大致固定地决定作为其它车辆V2的触地线L1、L2的位置的距离d1。
[0100] 另外,关于距离d1,不限于决定为固定的值,也可以设为可变。在这种情况下,计算机30通过白线识别等技术来识别白线W相对于本车辆V1的位置,根据识别出的白线W的位置来决定距离d11。由此,使用所决定的距离d11可变地设定距离d1。在以下的本实施方式中,由于其它车辆V2行驶的位置(距白线W的距离d12)和本车辆V1行驶的位置(距白线W的距离d11)大致固定,因此设为距离d1被决定为固定的值。
[0101] 距离d2是从本车辆V1的后端部沿车辆行进方向延伸的距离。以检测区域A1、A2至少收容在摄像头10的视角a内的方式决定该距离d2。特别地,在本实施方式中,距离d2被设定为与由视角a划分的范围相连。距离d3是表示检测区域A1、A2的在车辆行进方向上的长度的距离。该距离d3根据作为检测对象的三维物体的大小决定。在本实施方式中,由于检测对象是其它车辆V2等,因此距离d3被设定为包含其它车辆V2的长度。
[0102] 距离d4是如图13的(b)所示那样表示被设定成在实际空间中包含其它车辆V2等的轮胎的高度的距离。距离d4在鸟瞰视点图像中设为图13的(a)所示的长度。此外,距离d4也能够设为不包含有在鸟瞰视点图像中与左右的邻近车道相比的下一邻近车道(即,隔一车道的邻近车道)的长度。这是因为如果包含与本车辆V的车道隔一车道的邻近车道,则无法区分是在作为本车辆V1所行使的车道的本车道的左右邻近车道内存在其它车辆V2、还是在隔一车道的邻近车道内存在其它车辆V2。
[0103] 如以上那样决定距离d1~距离d4,由此决定检测区域A1、A2的位置、大小以及形状。具体地说,根据距离d1,决定形成梯形的检测区域A1、A2的上边b1的位置。根据距离d2,决定上边b1的起点位置C1。根据距离d3,决定上边b1的终点位置C2。根据从摄像头10向起点位置C1延伸的直线L3,决定形成梯形的检测区域A1、A2的侧边b2。同样地,根据从摄像头10向终点位置C2延伸的直线L4,决定形成梯形的检测区域A1、A2的侧边b3。根据距离d4,决定形成梯形的检测区域A1、A2的下边b4的位置。这样,由各边b1~b4包围的区域设为检测区域A1、A2。该检测区域A1、A2如图13的(b)所示那样在本车辆V1后侧方的实际空间中形成为正方形(长方形)。
[0104] 返回图3,视点变换部31输入由摄像头10拍摄得到的规定区域的摄像图像数据。视点变换部31针对所输入的摄像图像数据进行视点变换处理形成为鸟瞰视点状态的鸟瞰图像数据。鸟瞰视点状态是指从上空、例如从铅垂向下(或者稍微斜向下)俯视的虚拟摄像头的视点观看的状态。例如能够通过日本特开2008-219063号公报所记载的技术来实现该视点变换处理。
[0105] 亮度差计算部35为了检测鸟瞰视点图像中包含的三维物体的边缘,而针对由视点变换部31进行视点变换得到的鸟瞰视点图像数据进行亮度差的计算。亮度差计算部35针对沿着在实际空间中的铅垂方向上延伸的铅垂虚拟线的多个位置中的每个位置计算该各位置附近的两个像素间的亮度差。亮度差计算部35能够通过仅设定一条在实际空间中的铅垂方向上延伸的铅垂虚拟线的方法以及设定两条铅垂虚拟线的方法中的任一个方法来计算亮度差。
[0106] 针对设定两条铅垂虚拟线的具体方法进行说明。亮度差计算部35针对进行视点变换得到的鸟瞰视点图像设定相当于在实际空间中在铅垂方向上延伸的线段的第一铅垂虚拟线以及相当于与第一铅垂虚拟线不同并在实际空间中在铅垂方向上延伸的线段的第二铅垂虚拟线。亮度差计算部35沿着第一铅垂虚拟线和第二铅垂虚拟线连续地求出第一铅垂虚拟线上的点与第二铅垂虚拟线上的点的亮度差。以下,详细说明该亮度差计算部35的动作。
[0107] 亮度差计算部35如图14的(a)所示那样设定相当于在实际空间中在铅垂方向上延伸的线段且通过检测区域A1的第一铅垂虚拟线La(以下称为关注线La)。另外,亮度差计算部35设定相当于与关注线La不同并在实际空间中在铅垂方向上延伸的线段且通过检测区域A1的第二铅垂虚拟线Lr(以下称为参照线Lr)。在此,参照线Lr被设置于距离关注线La分离实际空间中的规定距离的位置处。此外,与实际空间中在铅垂方向上延伸的线段相当的线是指在鸟瞰视点图像中从摄像头10的位置Ps起呈放射状扩展的线。该呈放射状扩展的线是沿着在变换为鸟瞰视点时三维物体倾倒的方向的线。
[0108] 亮度差计算部35在关注线La上设定关注点Pa(第一铅垂虚拟线上的点)。另外,亮度差计算部35在参照线Lr上设定参照点Pr(第二铅垂虚拟线上的点)。这些关注线La、关注点Pa、参照线Lr、参照点Pr在实际空间中形成图14的(b)所示的关系。根据图14的(b)可知,关注线La和参照线Lr是在实际空间中在铅垂方向上延伸的线,关注点Pa和参照点Pr是被设定为在实际空间中大致相同的高度的点。此外,关注点Pa和参照点Pr并不一定需要是严格的相同的高度,关注点Pa和参照点Pr被视为相同高度的程度的误差是允许的。
[0109] 亮度差计算部35求出关注点Pa与参照点Pr的亮度差。假设关注点Pa与参照点Pr的亮度差大时,认为在关注点Pa与参照点Pr之间存在边缘。因此,图3所示的边缘线检测部36根据关注点Pa与参照点Pr的亮度差来检测边缘线。
[0110] 更详细地说明该点。图15是表示亮度差计算部35的详细动作的图,图15的(a)表示鸟瞰视点状态的鸟瞰视点图像,图15的(b)是将图15的(a)所示的鸟瞰视点图像的一部分B1放大后的图。此外,关于图15,仅图示检测区域A1进行说明,关于检测区域A2,也以相同的过程计算亮度差。
[0111] 在摄像头10拍摄到的摄像图像内拍摄有其它车辆V2的情况下,如图15的(a)所示那样,在鸟瞰视点图像内的检测区域A1出现其它车辆V2。如图15的(b)示出图15的(a)中的区域B1的放大图那样,设为在鸟瞰视点图像上,在其它车辆V2的轮胎的橡胶部分上设定了关注线La。在该状态中,亮度差计算部35首先设定参照线Lr。参照线Lr沿铅垂方向设定在实际空间中距关注线La规定的距离的位置上。具体地说,在本实施方式所涉及的三维物体检测装置1中,参照线Lr被设定在与关注线La在实际空间中相距10cm的位置处。由此,参照线Lr在鸟瞰视点图像上例如被设定在与其它车辆V2的轮胎的橡胶相距相当于10cm的距离的其它车辆V2的轮胎的轮辋(wheel)上。
[0112] 接着,亮度差计算部35在关注线La上设定多个关注点Pa1~PaN。在图15的(b)中,为了便于说明,设定了六个关注点Pa1~Pa6(以下,在表示任意的点的情况下,仅称为关注点Pai)。此外,设定在关注线La上的关注点Pa的个数可以是任意的。在以下的说明中,设为在关注线La上设定了N个关注点Pa进行说明。
[0113] 接着,亮度差计算部35将各参照点Pr1~PrN设定成在实际空间中与各关注点Pa1~PaN相同的高度。而且,亮度差计算部35计算相同高度的关注点Pa与参照点Pr的亮度差。由此,亮度差计算部35针对沿着在实际空间中的铅垂方向上延伸的铅垂虚拟线的多个位置(1~N)中的每个位置计算两个像素间的亮度差。亮度差计算部35例如计算第一关注点Pa1与第一参照点Pr1之间的亮度差,计算第二关注点Pa2与第二参照点Pr2之间的亮度差。由此,亮度差计算部35沿着关注线La和参照线Lr连续地求出亮度差。即,亮度差计算部35依次求出第三~第N关注点Pa3~PaN与第三~第N参照点Pr3~PrN的亮度差。
[0114] 亮度差计算部35在检测区域A1内移动关注线La的同时重复执行上述的参照线Lr的设定、关注点Pa和参照点Pr的设定、亮度差的计算这样的处理。即,亮度差计算部35在实际空间中沿触地线L1的存在方向以相同的距离改变关注线La和参照线Lr各自的位置的同时重复执行上述的处理。亮度差计算部35例如将在前次处理中成为参照线Lr的线设定为关注线La,针对该关注线La设定参照线Lr,依次求出亮度差。
[0115] 返回图3,边缘线检测部36根据由亮度差计算部35计算出的连续的亮度差来检测边缘线。例如在图15的(b)所示的情况下,第一关注点Pa1和第一参照点Pr1位于相同的轮胎部分,因此亮度差小。另一方面,第二~第六关注点Pa2~Pa6位于轮胎的橡胶部分,第二~第六参照点Pr2~Pr6位于轮胎的轮辋部分。因而,第二~第六关注点Pa2~Pa6与第二~第六参照点Pr2~Pr6的亮度差变大。因此,边缘线检测部36能够检测出在亮度差大的第二~第六关注点Pa2~Pa6与第二~第六参照点Pr2~Pr6之间存在边缘线。
[0116] 具体地说,边缘线检测部36在检测边缘线时,首先依照下述的数式1,根据第i个关注点Pai(坐标(xi,yi))与第i个参照点Pri(坐标(xi’,yi’))的亮度差来对第i个关注点Pai赋予属性。
[0117] [数1]
[0118] I(xi,yi)>I(xi',yi')+t时
[0119] s(xi,yi)=1
[0120] I(xi,yi)<I(xi',yi')-t时
[0121] s(xi,yi)=-1
[0122] 在上述以外的情况时
[0123] s(xi,yi)=0
[0124] 在上述数式1中,t表示阈值,I(xi,yi)表示第i个关注点Pai的亮度值,I(xi’,yi’)表示第i个参照点Pri的亮度值。根据上述数式1,在关注点Pai的亮度值高于参照点Pri加上阈值t得到的亮度值的情况下,该关注点Pai的属性s(xi,yi)为‘1’。另一方面,在关注点Pai的亮度值低于从参照点Pri减去阈值t得到的亮度值的情况下,该关注点Pai的属性s(xi,yi)为‘﹣1’。在关注点Pai的亮度值与参照点Pri的亮度值为除此以外的关系的情况下,关注点Pai的属性s(xi,yi)为‘0’。
[0125] 接着,边缘线检测部36基于以下数式2,根据沿着关注线La的属性s的连续性c(xi,yi)来判断关注线La是否为边缘线。
[0126] [数2]
[0127] s(xi,yi)=s(xi+1,yi+1)时(且除了0=0)、
[0128] c(xi,yi)=1
[0129] 在上述以外的情况时,
[0130] c(xi,yi)=0
[0131] 在关注点Pai的属性s(xi,yi)与相邻的关注点Pai+1的属性s(xi+1,yi+1)相同的情况下,连续性c(xi,yi)为‘1’。在关注点Pai的属性s(xi,yi)与相邻的关注点Pai+1的属性s(xi+1,yi+1)不同的情况下,连续性c(xi,yi)为‘0’。
[0132] 接着,边缘线检测部36关于关注线La上的所有关注点Pa的连续性c求出总和。边缘线检测部36通过将求出的连续性c的总和除以关注点Pa的个数N,来对连续性c进行标准化。边缘线检测部36在进行了标准化的值超过阈值θ的情况下,将关注线La判断为边缘线。此外,阈值θ是预先通过实验等设定的值。
[0133] 即,边缘线检测部36基于下述数式3判断关注线La是否为边缘线。而且,边缘线检测部36关于描绘在检测区域A1上的所有关注线La判断是否为边缘线。
[0134] [数3]
[0135] Σc(xi,yi)/N>θ
[0136] 返回图3,第二三维物体检测部37根据由边缘线检测部36检测出的边缘线的量来检测三维物体。如上述那样,本实施方式所涉及的三维物体检测装置1检测在实际空间中在铅垂方向上延伸的边缘线。检测出多个在铅垂方向上延伸的边缘线的情况是在检测区域A1、A2存在三维物体的可能性高的情况。因此,第二三维物体检测部37根据由边缘线检测部36检测出的边缘线的量来检测三维物体。并且,第二三维物体检测部37在检测三维物体之前,判断由边缘线检测部36检测出的边缘线是否为正确的边缘线。第二三维物体检测部37判断沿着边缘线上的鸟瞰视点图像的边缘线的亮度变化是否大于规定的阈值。在边缘线上的鸟瞰视点图像的亮度变化大于阈值的情况下,判断为该边缘线是由于错误判断而检测出的。另一方面,在边缘线上的鸟瞰视点图像的亮度变化不大于阈值的情况下,判断为该边缘线是正确的边缘线。此外,该阈值是通过实验等预先设定的值。
[0137] 图16是表示边缘线的亮度分布的图,图16的(a)表示在检测区域A1内存在作为三维物体的其它车辆V2时的边缘线和亮度分布,图16的(b)表示在检测区域A1内不存在三维物体时的边缘线和亮度分布。
[0138] 如图16的(a)所示,设为判断为在鸟瞰视点图像中设定于其它车辆V2的轮胎橡胶部分的关注线La是边缘线。在这种情况下,关注线La上的鸟瞰视点图像的亮度变化平缓。这是由于由摄像头10拍摄到的图像被视点变换为鸟瞰视点图像,由此其它车辆V2的轮胎在鸟瞰视点图像内被拉长。另一方面,如图16的(b)所示,设为鸟瞰视点图像中被设定在描绘于路面上的“50”这样的白色文字部分上的关注线La被错误判断为是边缘线。在这种情况下,关注线La上的鸟瞰视点图像的亮度变化为起伏大的变化。这是因为在边缘线上混杂有白色文字中的亮度高的部分和路面等的亮度低的部分。
[0139] 根据如以上那样的关注线La上的亮度分布的差异,第二三维物体检测部37判断边缘线是否为由于错误判断而检测出的。第二三维物体检测部37在沿着边缘线的亮度变化大于规定的阈值的情况下,判断为该边缘线是由于错误判断而检测出的。而且,在检测三维物体时不使用该边缘线。由此,抑制路面上的“50”这样的白色文字、路肩的杂草等被判断为边缘线,从而抑制三维物体的检测精度下降。
[0140] 具体地说,第二三维物体检测部37通过下述数式4、数式5中的任一个来计算边缘线的亮度变化。该边缘线的亮度变化相当于实际空间中的铅垂方向的评价值。下述数式4通过关注线La上的第i个亮度值I(xi,yi)与相邻的第i+1个亮度值I(xi+1,yi+1)的差分的平方的合计值来评价亮度分布。下述数式5通过关注线La上的第i个亮度值I(xi,yi)和相邻的第i+1个亮度值I(xi+1,yi+1)的差分的绝对值的合计值来评价亮度分布。
[0141] [数4]
[0142] 铅垂对应方向的评价值=Σ[{I(xi,yi)-I(xi+1,yi+1)}2]
[0143] [数5]
[0144] 铅垂对应方向的评价值=Σ|I(xi,yi)-I(xi+1,yi+1)|
[0145] 此外,不限于数式5,也可以如下述数式6那样,利用阈值t2将相邻的亮度值的属性b进行二值化,来将该二值化得到的属性b关于所有的关注点Pa进行总和。
[0146] [数6]
[0147] 铅垂对应方向的评价值=Σb(xi,yi)
[0148] 其中,|I(xi,yi)-I(xi+1,yi+1)|>t2时,
[0149] b(xi,yi)=1
[0150] 在上述以外的情况时,
[0151] b(xi,yi)=0
[0152] 在关注点Pai的亮度值与参照点Pri的亮度值的亮度差的绝对值大于阈值t2的情况下,该关注点Pa(xi,yi)的属性b(xi,yi)为‘1’。在除此以外的关系的情况下,关注点Pai的属性b(xi,yi)为‘0’。该阈值t2是为了判断关注线La不在相同的三维物体上而通过实验等预先设定的。而且,第二三维物体检测部37将关于关注线La上的所有关注点Pa的属性b进行总和来求出铅垂对应方向的评价值,判断边缘线是否为正确的边缘线。
[0153] 接着,关于本实施方式所涉及的利用边缘信息的三维物体检测方法进行说明。图17和图18是表示本实施方式所涉及的三维物体检测方法的详细内容的流程图。此外,在图
17和图18中,为了方便,说明以检测区域A1为对象的处理,但是关于检测区域A2,也执行相同的处理。
[0154] 如图17所示,首先,在步骤S21中,摄像头10拍摄由视角a和安装位置所确定的规定区域。接着,视点变换部31在步骤S22中输入在步骤S21中由摄像头10拍摄得到的摄像图像数据,进行视点变换来生成鸟瞰视点图像数据。
[0155] 接着,在步骤S23中,亮度差计算部35在检测区域A1上设定关注线La。此时,亮度差计算部35将与在实际空间中在铅垂方向上延伸的线相当的线设定为关注线La。接着,在步骤S24中,亮度差计算部35在检测区域A1上设定参照线Lr。此时,亮度差计算部35将相当于在实际空间中在铅垂方向上延伸的线段且与关注线La在实际空间中相距规定距离的线设定为参照线Lr。
[0156] 接着,在步骤S25中,亮度差计算部35在关注线La上设定多个关注点Pa。此时,亮度差计算部35设定在边缘线检测部36检测边缘时不会成为问题的程度的个数的关注点Pa。另外,在步骤S26中,亮度差计算部35将参照点Pr设定成在实际空间中关注点Pa和参照点Pr处于大致相同的高度。由此,关注点Pa和参照点Pr在大致水平方向上排列,容易检测在实际空间中在铅垂方向上延伸的边缘线。
[0157] 接着,在步骤S27中,亮度差计算部35计算在实际空间中处于相同高度的关注点Pa与参照点Pr的亮度差。接着,边缘线检测部36依照上述的数式1计算各关注点Pa的属性s。接着,在步骤S28中,边缘线检测部36依照上述的数式2计算各关注点Pa的属性s的连续性c。接着,在步骤S29中,边缘线检测部36依照上述数式3,判断将连续性c的总和标准化得到的值是否大于阈值θ。在判断为标准化得到的值大于阈值θ的情况下(S29:“是”),在步骤S30中,边缘线检测部36将该关注线La检测为边缘线。然后,处理转移到步骤S31。在判断为标准化得到的值不大于阈值θ的情况下(S29:“否”),边缘线检测部36不将该关注线La检测为边缘线,处理转移到步骤S31。
[0158] 在步骤S31中,计算机30判断是否关于检测区域A1上可设定的所有关注线La执行了上述的步骤S23~步骤S30的处理。在判断为未关于所有的关注线La进行上述处理的情况下(S31:“否”),将处理返回步骤S23,重新设定关注线La,并重复进行步骤S31为止的处理。另一方面,在判断为关于所有的关注线La进行了上述处理的情况下(S31:“是”),处理转移到图18的步骤S32。
[0159] 在图18的步骤S32中,第二三维物体检测部37关于在图17的步骤S30中检测出的各边缘线计算沿着该边缘线的亮度变化。第二三维物体检测部37依照上述数式4、数式5、数式6中的任一个来计算边缘线的亮度变化。接着,在步骤S33中,第二三维物体检测部37去除边缘线中的亮度变化大于规定的阈值的边缘线。即,判断为亮度变化大的边缘线不是正确的边缘线,在检测三维物体时不使用边缘线。如上述那样这是为了抑制检测区域A1中包含的路面上的文字、路肩的杂草等被检测为边缘线的情形。因而,规定的阈值是指预先通过实验等求出的根据由于路面上的文字、路肩的杂草等而产生的亮度变化设定的值。
[0160] 接着,在步骤S34中,第二三维物体检测部37判断边缘线的量是否为第二阈值β以上。此外,该第二阈值β是预先通过实验等求出并设定的值,由后述的三维物体判断部38设定。例如在设定四轮车作为检测对象的三维物体的情况下,预先通过实验等根据在检测区域A1内出现的四轮车的边缘线的个数来设定该第二阈值β。在判断为边缘线的量为第二阈值β以上的情况下(S34:“是”),在步骤S35中,第二三维物体检测部37检测为在检测区域A1内存在三维物体。另一方面,在判断为边缘线的量不为第二阈值β以上的情况下(S34:“否”),第二三维物体检测部37判断为在检测区域A1内不存在三维物体。之后,结束图17和图18所示的处理。
[0161] 如上所述,根据本实施方式的利用边缘信息的三维物体的检测方法,为了检测存在于检测区域A1、A2的三维物体,而针对鸟瞰视点图像设定了作为在实际空间中在铅垂方向上延伸的线段的铅垂虚拟线。而且,能够针对沿着铅垂虚拟线的多个位置的每个位置计算该各位置附近的两个像素的亮度差,根据该亮度差的连续性来判断有无三维物体。
[0162] 具体地说,针对鸟瞰视点图像中的检测区域A1、A2设定相当于在实际空间中在铅垂方向上延伸的线段的关注线La和与关注线La不同的参照线Lr。然后,沿着关注线La和参照线Lr连续地求出关注线La上的关注点Pa与参照线Lr上的参照点Pr的亮度差。这样,通过连续地求出点之间的亮度差,来求出关注线La与参照线Lr的亮度差。在关注线La与参照线Lr的亮度差高的情况下,在关注线La的设定部分存在三维物体的边缘的可能性高。由此,能够根据连续的亮度差检测三维物体。特别地,为了进行在实际空间中在铅垂方向上延伸的铅垂虚拟线之间的亮度比较,即使通过变换为鸟瞰视点图像而三维物体与距路面的高度相应地被拉长,也不会影响三维物体的检测处理。因而,根据本例的方法,能够提高三维物体的检测精度。
[0163] 另外,在本例中,求出铅垂虚拟线附近的大致相同高度的两个点的亮度差。具体地说,根据在实际空间中处于大致相同高度的关注线La上的关注点Pa和参照线Lr上的参照点Pr来求出亮度差,因此能够明确地检测出存在在铅垂方向上延伸的边缘的情况下的亮度差。
[0164] 并且,在本例中,根据关注线La上的关注点Pa与参照线Lr上的参照点Pr的亮度差来对关注点Pa赋予属性,根据沿着关注线La的属性的连续性c来判断该关注线La是否为边缘线,因此能够将亮度高的区域与亮度低的区域的边界检测为边缘线,从而按照人的自然的感觉进行边缘检测。详细地说明该效果。图19是表示对边缘线检测部36的处理进行说明的图像例的图。该图像例是表示亮度高的区域和亮度低的区域反复的条纹图案的第一条纹图案101与表示亮度低的区域和亮度高的区域反复的条纹图案的第二条纹图案102相邻的图像。另外,该图像例为第一条纹图案101的亮度高的区域与第二条纹图案102的亮度低的区域相邻,并且第一条纹图案101的亮度低的区域与第二条纹图案102的亮度高的区域相邻。位于该第一条纹图案101与第二条纹图案102的边界的部位103根据人的感觉而倾向于不认为是边缘。
[0165] 与此相对地,由于亮度低的区域与亮度高的区域相邻,因此如果仅依据亮度差检测边缘,则导致该部位103被识别为边缘。但是,边缘线检测部36除了部位103处的亮度差以外,仅在该亮度差的属性存在连续性的情况下将部位103判断为边缘线,因此边缘线检测部36能够抑制将以人的感觉不识别为边缘线的部位103识别为边缘线的错误判断,从而能够按照人的感觉进行边缘检测。
[0166] 并且,在本例中,在由边缘线检测部36检测出的边缘线的亮度变化大于规定的阈值的情况下,判断为该边缘线是由于错误判断而检测出的边缘线。在将由摄像头10获取到的摄像图像变换为鸟瞰视点图像的情况下,存在该摄像图像中包含的三维物体以被拉长的状态出现在鸟瞰视点图像中的倾向。例如上述那样在其它车辆V2的轮胎被拉长的情况下,由于轮胎这一个部位被拉长,因此形成被拉长的方向上的鸟瞰视点图像的亮度变化小的倾向。对于此,如果将描绘在路面上的文字等错误判断为边缘线,则在鸟瞰视点图像中混合包含文字部分这样的亮度高的区域和路面部分这样的亮度低的区域。在这种情况下,在鸟瞰视点图像中,被拉长的方向的亮度变化有变大的倾向。因而,通过如本例那样判断沿着边缘线的鸟瞰视点图像的亮度变化,能够识别出由于错误判断而检测出的边缘线,从而能够提高三维物体的检测精度。
[0167] <三维物体的最终判断>
[0168] 返回图3,在利用上述两个三维物体检测部33、37检测三维物体时,本例的三维物体检测装置1具备三维物体判断部38以及阈值设定部39,该三维物体判断部38根据第一三维物体检测部33的检测结果和第二三维物体检测部37的检测结果,最终判断是否为三维物体,该阈值设定部39与由明亮度检测部40检测出的检测区域A1、A2的明亮度相应地设定第一三维物体检测部33的第一阈值α和第二三维物体检测部37的第二阈值β。
[0169] 明亮度检测部40根据由摄像头10检测的检测区域A1、A2的光量或摄像头10所检测出的光量,从摄像头10读入由摄像头10自己控制的速度、光圈孔径值、增益值等摄像头10的控制值,并输出到阈值设定部39。通过检测检测区域A1、A2的光量作为明亮度,能够执行与实际环境的明亮度相应的阈值设定控制。另外,通过基于光量检测摄像头10的控制值,能够根据实际的摄像图像来按照三维物体检测的特性设定阈值。此外,明亮度检测部40也能够代替检测区域A1、A2的光量、控制值等,而根据时刻和当前位置的经度运算太阳的高度,并将其设为明亮度。通过将太阳高度设为明亮度的检测值,能够使路面的检测状况接近实际情况,从而按照三维物体检测的特性设定阈值。
[0170] 由明亮度检测部40检测出的明亮度越暗则阈值设定部39将第二三维物体检测部37的检测结果的权重设定得越大,明亮度越亮则将第一三维物体检测部33的检测结果的权重设定得越小。即,在检测环境暗的情况下提高基于边缘信息得到的检测结果的权重,在检测环境亮的情况下提高基于差分波形信息得到的检测结果的权重。具体地说,由明亮度检测部40检测出的明亮度越暗则将第一阈值α与第二阈值β之比α/β设定得越小,明亮度越亮则将比α/β设定得越大。
[0171] 图21~图24是表示第一阈值α与第二阈值β之比α/β相对于明亮度的设定例的控制对应图。图21是明亮度越变亮而使比α/β呈阶梯状增加的例子,图22同样是明亮度越变亮而使比α/β呈阶梯状增加的例子,但却是为了防止控制波动而设定了滞后的例子。另外,图23是明亮度越变亮而使比α/β成比例地增加的例子,图24同样是明亮度越变亮而使比α/β成比例地增加的例子,但却是为了防止控制波动而设定了滞后的例子。
[0172] 此外,在图21~图24所示的控制对应图中示出了第一阈值α与第二阈值β之比α/β的设定例,但是也可以将第一阈值α和第二阈值β彼此独立地进行设定。图25是将第一阈值α和第二阈值β彼此独立地进行设定的控制对应图,明亮度越亮则使第一阈值α越小但使第二阈值β越大。在这种情况下,也可以仅对第一阈值α和第二阈值β中的某一方进行控制。例如,将第二阈值β设定为固定值,并且明亮度越亮则使第一阈值α越小。另外,当明亮度变大超过规定值时,也可以将第二阈值β的设定值设定成大于检测上限值,仅由第一三维物体检测部33执行三维物体的检测。
[0173] 图26是表示第一三维物体检测部33的检测结果的权重X和第二三维物体检测部37的检测结果的权重Y的设定例的控制对应图,明亮度越暗则使第一三维物体检测部33的检测结果的权重X越小,并且将第二三维物体检测部37的检测结果的权重Y设定得越大。另外,明亮度越亮则将第一三维物体检测部33的检测结果的权重X设定得越大,并且使第二三维物体检测部37的检测结果的权重Y越小,特别是在规定值以上的明亮度时将权重Y设定为零。即,在该范围内,仅由第一三维物体检测部33检测三维物体。
[0174] 在如晚上等那样检测环境暗的情况下,由于路灯、头灯等的影响而路面的照明状况变化很大,因此利用差分波形信息的三维物体检测方法有可能进行错误检测,但是即使由于这样的照明而产生了路面的亮暗变动也不会在路面产生边缘,因此对利用边缘信息的三维物体检测方法的影响小。因而,在检测环境暗的情况下,通过提高基于边缘信息的检测结果的权重,能够提高三维物体的检测精度。相反地,在如白天那样检测环境亮的情况下,由于能够明确地检测路面的图案、路外的物体的边缘,因此利用边缘信息的三维物体的检测方法有可能进行错误检测,但是这样的路面的图案、路外物的边缘对利用差分波形信息的三维物体检测方法的影响小。因而,在检测环境亮的情况下,通过提高基于差分波形信息的检测结果的权重,能够提高三维物体的检测精度。
[0175] 参照图20说明三维物体判断部38和阈值设定部39的动作。首先,在步骤S41中,由明亮度检测部40检测检测区域A1、A2的明亮度,并输出到阈值设定部39。在步骤S42中,阈值设定部39利用检测出的明亮度和预先存储的图21~图24中的某一个控制对应图来运算第一阈值α和第二阈值β,并输出到第一三维物体检测部33和第二三维物体检测部37。例如通过以形成能够基于图21~图24所示的控制对应图求出的比α/β的方式来适当地对初始值α0、β0进行分配,由此能够求出第一阈值α和第二阈值β。
[0176] 在步骤S43中,通过上述的过程来执行基于差分波形信息的三维物体的检测。另外,在步骤S44中,通过上述的过程来执行基于边缘信息的三维物体的检测。在基于差分信息检测三维物体和基于边缘信息检测三维物体时,与明亮度相应的第一阈值α和第二阈值β被分别设定给第一三维物体检测部33和第二三维物体检测部37。
[0177] 在步骤S45中,判断在步骤S43中是否检测为是三维物体且在步骤S44中是否检测为是三维物体,在步骤S43、S44中均检测为是三维物体的情况下,进入步骤S46,最终判断为是三维物体。在任意的步骤S43、S44中检测为不是三维物体的情况下,进入步骤S47,最终判断为不是三维物体。
[0178] 如上所述,根据本例的三维物体检测装置1,在如晚上等那样检测环境暗的情况下,相对于由于路灯、头灯等的影响而有可能错误检测的基于差分波形信息得到的检测结果,而提高基于边缘信息得到的检测结果的权重,因此能够提高三维物体的检测精度。相反地,在如白天那样检测环境亮的情况下,相对于由于路面的图案、路外的物体的边缘而有可能错误检测的基于边缘信息得到的检测结果,而提高基于差分波形信息得到的检测结果的权重,因此能够提高三维物体的检测精度。
[0179] 顺便提及,在由图3的对位部32和第一三维物体检测部33生成差分波形信息时,在上述的实施方式中,如图4所示那样根据本车辆的移动速度,将当前时刻的鸟瞰视点图像与前一时刻的鸟瞰视点图像的位置移动鸟瞰视点图像的在实际空间中的移动距离来进行对位,求出该状态下的差分图像,基于其生成了差分波形信息,但是也能够利用下面的方法。
[0180] 即,在使不同定时的摄像图像偏移而得到的差分图像中,与移动物体的特征点对应的像素量(表示差分的像素数)大量呈现;在不使不同定时的摄像图像偏移的差分图像中,与静止物体的特征点对应的像素量大量呈现。因此,在本例中,通过将偏移后的不同定时的摄像图像的差分图像的像素值(边缘量)与不偏移的不同定时的摄像图像的差分图像的像素值(边缘量)进行比较,来判断三维物体是静止物体还是移动物体。
[0181] 如图27的(a)所示,在过去的定时T0在检测区域A1、A2内检测出三维物体的像Q(T0)并在T0的定时之后的当前定时T1在检测区域A1、A2内检测出三维物体的像Q(T1)的情况下,作为检测主体的本车辆V沿着方向B移动,因此在图像上,在过去的定时T0检测出的三维物体的像Q(T0)向检测区域A1、A2的图中上侧的三维物体的像Q(T1)的位置移动。
[0182] 而且,如图27的(b)所示,能够得到以下像的像素或边缘成分的分布:在当前的定时T1检测出的三维物体的像Q(T1);作为在过去的定时T0检测出的三维物体的像Q(T0)的像、偏移了规定量后的三维物体的像Q(T0A);同样是作为在过去的定时T0检测出的三维物体的像Q(T0)的像、不偏移的三维物体的像Q(T0B)。
[0183] 当如图27的(b)所示那样将图像T1与偏移后的图像T0A进行比较时,图像T1中的三维物体的像Q(T1)与图像T0A中的三维物体的像Q(T0A)的位置(沿着本车辆V的移动方向B的位置)大致相同。另一方面,当如该图所示那样将图像T1与不偏移的图像T0B进行比较时,图像T1中的三维物体的像Q(T1)与图像T0B中的三维物体的像Q(T0B)的位置(沿着本车辆V的移动方向B的位置)不同。也就是说,当求T1与T0A的差分图像时,关于相同的部分相减后没有剩余,因此作为特征抽出的像素的个数少,当求T1与T0B的差分图像时,由于不同的部分残留,因此作为特征抽出的像素的个数相对较多。
[0184] 接着,考虑三维物体是移动物体还是静止物体来说明图27所示的着眼点。根据图28说明三维物体是移动物体的情况,根据图29说明三维物体是静止物体的情况。
[0185] 如图28的(a)所示,在检测出的三维物体是移动的其它车辆VX的情况下,由于本车辆V与其它车辆VX都移动,因此本车辆V与其它车辆VX具有保持规定的位置关系的倾向。也就是说,如果使摄像图像偏移,则其它车辆VX的位置反而存在偏离的倾向,在差分图像PDt中检测出很多的可能成为特征的像素(边缘)。另一方面,如图28的(b)所示那样在摄像图像不偏移的情况下,存在本车辆V与其它车辆VX的位置相接近的倾向,在差分图像PDt中检测出的可能成为特征的像素(边缘)少。如果差分图像PDt中的像素(边缘)多则存在累计值变高的倾向,如果差分图像PDt中的像素(边缘)少则存在差分波形信息中的累计值变低的倾向。
[0186] 另外,如图29的(a)所示那样在检测出的三维物体是处于静止状态的静止物体Q1的情况下,由于本车辆V移动而静止物体Q1处于静止状态,因此本车辆V与静止物体Q1存在分离的倾向。也就是说,如果使摄像图像偏移,则本车辆V与静止物体Q1的位置存在相接近的倾向,在差分图像PDt中检测出的可能成为特征的像素(边缘)少。另一方面,如图29的(b)所示那样,如果摄像图像不偏移,则存在随着本车辆V的移动而静止物体Q1的位置与前次的摄像图像不同的倾向,在差分图像PDt中检测出的可能成为特征的像素(边缘)多。如果差分图像PDt中的像素(边缘)多则存在亮度分布信息中的累计值变高的倾向,如果差分图像PDt中的像素(边缘)少则存在亮度分布信息中的累计值变低的倾向。
[0187] 上述的思考方式也能够同样地应用于利用边缘信息的情况。
[0188] 也就是说,将在检测出三维物体的第一时刻T0得到的第一鸟瞰视点图像的位置与在第一时刻之后的第二时刻T1得到的第二鸟瞰视点图像的位置以鸟瞰视点进行对位,求出对在进行该对位后的鸟瞰视点图像的差分图像上彼此相邻的图像区域的亮度差为规定阈值以上的像素数进行计数并进行频数分布化所生成的第一亮度分布信息的第一累计值。也就是说,考虑本车辆V的移动量来生成偏移后的差分图像。偏移的量d’是与图4的(a)所示的本车辆V的实际的移动距离对应的鸟瞰视点图像数据上的移动量,根据来自车速传感器20的信号和前一时刻至当前时刻的时间来决定。第一累计值是作为第一亮度分布信息绘制出的值的全部或规定区域的合计值。
[0189] 接着,求出第二亮度分布信息的第二累计值,该第二亮度分布信息的第二累计值是对不使在第一时刻T0得到的第一鸟瞰视点图像与在第一时刻T0之后的第二时刻T1得到的第二鸟瞰视点图像的位置偏移而得到的差分图像上彼此相邻的图像区域的亮度差为规定阈值以上的像素数进行计数并进行频数分布化而生成的。也就是说,生成不偏移的差分图像,计算其累计值(第二累计值)。第二累计值是作为第二亮度分布信息绘制出的值的全部或规定区域的合计值。
[0190] 而且,在与判断为第二累计值大于第一累计值的次数相应的评价值为规定的评价阈值以上的情况下,判断为由第一三维物体检测部33检测出的三维物体是“移动物体”。不对评价值的计算方法进行限定,但是在本实施方式中,在以规定周期重复执行的处理中,每次判断为第二累计值大于第一累计值时,将评价点累加,求出其合计值作为“评价值”。
[0191] 这样,根据不同时刻的摄像图像,基于从偏移后的过去的摄像图像与当前的摄像图像的差分图像中抽出的像素量(边缘量)以及从不偏移的过去的摄像图像与当前的摄像图像的差分图像抽出的像素量(边缘量)的大小关系,能够识别移动物体的图像迁移的特征和静止物体的图像迁移的特征,能够以高精度判断三维物体是移动物体还是静止物体。
[0192] 在本例中,在判断为在与不偏移的图像的差分图像中示出规定差分的像素(边缘量)的第二累计值大于在与偏移后的图像的差分图像中示出规定差分的像素(边缘量)的第一累计值的情况下,加上第一计数值来计算评价值。也就是说,随着第二累计值大于第一累计值这样的判断重复进行,来使评价值增加。然后,在评价值为规定的评价阈值以上的情况下,判断为三维物体是静止物体。
[0193] 在该处理中,在第二累计值大于第一累计值这样内容的判断连续的情况下,随着该判断的连续次数增加,对第一计数值进行变高设定。这样,在第二累计值高于第一累计值这样的判断连续的情况下,判断为检测出的三维物体是静止物体可能性变高,将第一计数值变大以使评价值变大,因此根据连续时间的观察结果,能够以高精度判断三维物体是否为移动物体。
[0194] 另外,也可以在判断为第二累计值大于第一累计值的情况下加上第一计数值并且在判断为第二累计值小于第一累计值的情况下减去第二计数值,来计算评价值。在这种情况下,静止物检测部38在得到第二累计值大于第一累计值这样内容的判断之后得到第二累计值小于第一累计值这样内容的判断、再之后得到第二累计值大于第一累计值这样内容的判断的情况下,对第一计数值进行变高设定。
[0195] 这样,在交替产生第二累计值大于第一累计值这样的判断和第一累计值大于第二累计值这样的判断的情况下,判断为检测出的三维物体是静止物体的可能性大,将第一计数值变大使得评价值变大,因此根据连续时间的观察结果,能够以高精度判断静止物体。顺便提及,能够稳定地观察移动物体的特征的检测状态的倾向高。这是因为在离散地检测出检测结果不稳定、三维物体是静止物体这样的判断结果的情况下,能够判断为检测出的三维物体是静止物体的可能性高。
[0196] 另外,在判断为第二累计值小于第一累计值的情况下,减去第二计数值来计算评价值。在这种情况下,在第二累计值小于第一累计值这样内容的判断连续规定次数以上的情况下,对第二计数值进行变高设定。
[0197] 这样,在判断为第二累计值小于第一累计值的情况下,判断为检测出的三维物体是移动物体(其它车辆VX)的可能性高,将与减法有关的第二计数值变大使得用于判断静止物体的评价值变小,因此根据连续时间的观察结果,能够以高精度判断静止物体。
[0198] 上述摄像头10相当于本发明所涉及的摄像单元,上述视点变换部31相当于本发明所涉及的图像变换单元,上述对位部32和第一三维物体检测部33相当于本发明所涉及的第一三维物体检测单元,上述亮度差计算部35、边缘线检测部36以及第二三维物体检测部37相当于本发明所涉及的第二三维物体检测单元,上述三维物体判断部38相当于本发明所涉及的三维物体判断单元,上述明亮度检测部40相当于本发明所涉及的明亮度检测单元,上述阈值设定部39相当于本发明所涉及的阈值设定单元。
[0199] 附图标记说明
[0200] 1:三维物体检测装置;10:摄像头;20:车速传感器;30:计算机;31:视点变换部;32:对位部;33:第一三维物体检测部;34:拖影检测部;35:亮度差计算部;36:边缘检测部;
37:第二三维物体检测部;38:三维物体判断部;39:阈值设定部;40:明亮度检测部;a:视角;
A1、A2:检测区域;CP:交点;DP:差分像素;DWt、DWt’:差分波形;DWt1~DWm、DWm+k~DWtn:小区域;L1、L2:触地线;La、Lb:三维物体倾倒的方向上的线;P:摄像图像;PBt:鸟瞰视点图像;
PDt:差分图像;MP:掩模图像;S:拖影;SP:拖影图像;SBt:拖影鸟瞰视点图像;V:本车辆、其它车辆。
QQ群二维码
意见反馈