CN104508726A - 三维物体检测装置和三维物体检测方法 - Google Patents
三维物体检测装置和三维物体检测方法 Download PDFInfo
- Publication number
- CN104508726A CN104508726A CN201380039932.0A CN201380039932A CN104508726A CN 104508726 A CN104508726 A CN 104508726A CN 201380039932 A CN201380039932 A CN 201380039932A CN 104508726 A CN104508726 A CN 104508726A
- Authority
- CN
- China
- Prior art keywords
- dimensional object
- detection area
- detection
- vehicle
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
具备:检测区域设定部(41),其在车辆后方的右侧和左侧分别设定检测区域;三维物体检测部(33、37),其基于摄像机(10)的车辆后方的图像信息,检测在车辆后方的右侧检测区域(A1)或左侧检测区域(A2)存在的三维物体;以及三维物体判断部(34),其判断所检测出的三维物体是否为存在于右侧检测区域(A1)或左侧检测区域(A2)的其它车辆(VX),其中,在检测出镜头润湿状态的情况下,检测区域设定部(41)将之前设定的第一检测区域设定为不包含与车辆V所行驶的车道相邻的邻近车道的白线中的靠车辆V的行车道侧的白线的显示区域的第二检测区域,来作为新的检测区域(A1、A2)。
Description
技术领域
本发明涉及一种三维物体检测装置和三维物体检测方法。
本申请要求2012年7月27日申请的日本专利申请的特愿2012-166515的优先权,针对文献参照中引用的指定国,上述申请记载的内容作为参照引用入本申请中,并作为本申请的记载的一部分。
背景技术
已知如下一种障碍物检测装置(参照专利文献1):对拍摄车辆周围得到的图像进行俯视变换,使用时间上不同的两个俯视变换图像的差分检测障碍物。
专利文献1:日本特开2008-227646号公报
发明内容
发明要解决的问题
在使用拍摄车辆后方得到的图像将行驶于与本车辆的行车道相邻的邻近车道的其它车辆检测为障碍物时,当镜头上附着有水而润湿时,作为道路的行驶车道标识的白线的像变形,因此存在如下问题:将变形的白线的像错误地误认为是行驶于邻近车道的其它车辆的影像。
本发明要解决的课题在于提供一种防止将在镜头润湿时拍摄到的白线的像错误检测为是行驶于与本车辆的行车道相邻的邻近车道的其它车辆并能够高精度地检测行驶于邻近车道的其它车辆的三维物体检测装置和三维物体检测方法。
用于解决问题的方案
本发明通过以下技术解决上述课题:在判断为镜头是润湿的状态的情况下,将之前被设定为检测区域的第一检测区域以不包含与车辆所行驶的车道相邻的邻近车道的行驶车道标识中的靠车辆的行车道侧的行驶车道标识的显示区域的方式变更位置来设定第二检测区域。
发明的效果
本发明在判断为镜头是润湿的状态的情况下,将已经设定的第一检测区域以不包含邻近车道的行驶车道标识的显示区域的方式变更位置来设定第二检测区域,因此能够防止邻近车道的行驶车道标识包含在检测区域中,并防止将使用润湿的镜头拍摄到的变形的行驶车道标识错误检测为行驶于与本车辆的行车道相邻的邻近车道的其它车辆。其结果,能够提供一种高精度地检测行驶于与本车辆的行车道相邻的邻近车道的其它车辆的三维物体检测装置。
附图说明
图1是应用了本发明的三维物体检测装置的一个实施方式所涉及的车辆的概要结构图。
图2是表示图1的车辆的行驶状态的俯视图(基于差分波形信息的三维物体检测)。
图3是表示图1的计算机的详细内容的框图。
图4是用于说明图3的对位部的处理概要的图,(a)是表示车辆的移动状态的俯视图,(b)是表示对位的概要的图像。
图5是表示图3的三维物体检测部生成差分波形的情形的概要图。
图6是表示通过图3的三维物体检测部分割出的小区域的图。
图7是表示由图3的三维物体检测部得到的直方图的一例的图。
图8是表示图3的三维物体检测部的加权的图。
图9是表示图3的拖影检测部的处理以及基于该处理计算差分波形的处理的图。
图10是表示由图3的三维物体检测部得到的直方图的另一例的图。
图11是表示由图3的视点变换部、对位部、拖影检测部以及三维物体检测部执行的利用差分波形信息的三维物体检测方法的流程图(之一)。
图12是表示由图3的视点变换部、对位部、拖影检测部以及三维物体检测部执行的利用差分波形信息的三维物体检测方法的流程图(之二)。
图13是表示图1的车辆的行驶状态的图(基于边缘信息的三维物体检测),(a)是表示检测区域等的位置关系的俯视图,(b)是表示实际空间中的检测区域等的位置关系的立体图。
图14是用于说明图3的亮度差计算部的动作的图,(a)是表示鸟瞰视点图像中的关注线、参照线、关注点以及参照点的位置关系的图,(b)是表示实际空间中的关注线、参照线、关注点以及参照点的位置关系的图。
图15是用于说明图3的亮度差计算部的详细动作的图,(a)是表示鸟瞰视点图像中的检测区域的图,(b)是表示鸟瞰视点图像中的关注线、参照线、关注点以及参照点的位置关系的图。
图16是表示边缘线和边缘线上的亮度分布的图,(a)是表示在检测区域存在三维物体(车辆)时的亮度分布的图,(b)是表示在检测区域不存在三维物体时的亮度分布的图。
图17是表示由图3的视点变换部、亮度差计算部、边缘线检测部以及三维物体检测部执行的利用边缘信息的三维物体检测方法的流程图(之一)。
图18是表示由图3的视点变换部、亮度差计算部、边缘线检测部以及三维物体检测部执行的利用边缘信息的三维物体检测方法的流程图(之二)。
图19是表示用于说明边缘检测动作的图像例的图。
图20是表示摄像机的摄像图像的一例的图。
图21是用于说明在白线变形的情况下生成的信息的图。
图22是表示默认的第一检测区域的一例的图。
图23是表示第二检测区域的第一例的图。
图24是表示第二检测区域的第二例的图。
图25是表示第二检测区域的第三例的图。
图26是表示第二检测区域的第四例的图。
图27是表示检测区域的偏移量与在三维物体的检测中使用的阈值的关系的一例的图。
图28是表示本实施方式的三维物体检测装置的控制过程的其它例子的流程图。
具体实施方式
图1是应用了本发明的三维物体检测装置1的一个实施方式所涉及的车辆的概要结构图。本例的三维物体检测装置1是将本车辆的驾驶员在驾驶过程中应予以注意的其它车辆、例如本车辆V在车道变更时有可能接触的其它车辆检测为障碍物的装置。特别地,本例的三维物体检测装置1检测行驶于与本车辆所行驶的车道相邻的邻近车道(以下还简称为邻近车道)的其它车辆。另外,本例的三维物体检测装置1能够计算所检测出的其它车辆的移动距离、移动速度。因此,以下说明的一例表示将三维物体检测装置1搭载于本车辆V并检测在本车辆周围检测的三维物体中的行驶于与本车辆V所行驶的车道相邻的邻近车道的其它车辆的例子。如该图所示,本例的三维物体检测装置1具备摄像机10、车速传感器20、计算机30、雨滴传感器50、雨刷60、具备通信装置71和GPS装置72的导航装置70以及镜头清洗装置80。
摄像机10如图1所示那样在本车辆V后方的高度h的地方以光轴相对于水平向下形成角度θ的方式安装于本车辆V。摄像机10从该位置拍摄本车辆V的周围环境中的规定区域。在本实施方式中,为了检测本车辆V后方的三维物体而设置的摄像机1是一个,但是也能够为了其它的用途而设置例如用于获取车辆周围的图像的其它的摄像机。车速传感器20用于检测本车辆V的行驶速度,并根据例如由检测车轮转速的车轮速度传感器检测出的车轮速度来计算车速。计算机30检测车辆后方的三维物体,并且在本例中关于该三维物体计算移动距离和移动速度。雨滴传感器50、雨刷60、导航装置70、镜头清洗装置80检测附着于本车辆V的雨滴的有无、雨滴的量、附着于镜头11的清洗液的有无、清洗液的量,将其检测结果发送至后述的镜头状态判断部38。稍后详细记述各装置。
图2是表示图1的本车辆V的行驶状态的俯视图。如该图所示,摄像机10以规定的视角a拍摄车辆后方侧。此时,摄像机10的视角a被设定为除了能够拍摄到本车辆V所行驶的车道以外还能够拍摄到该车道左右的车道的视角。能够拍摄的区域包含在本车辆V的后方与本车辆V的行驶车道左右相邻的邻近车道上的检测对象区域A1、A2。此外,本实施方式中的车辆后方不只包含车辆的正后方,还包含车辆的正后方侧的侧方。所拍摄的车辆后方的区域与摄像机10的视角相应地设定。虽然是一例,但是设定成在将沿着车长方向的车辆的正后方设为零度的情况下所拍摄的车辆后方的区域包含从正后方向起左右0度~90度、优选0度~70度等的区域。
图3是表示图1的计算机30的详细内容的框图。此外,在图3中,为了明确连接关系,还图示了摄像机10以及车速传感器20、雨滴传感器50、雨刷60、导航装置70、镜头清洗装置80。车速传感器20、雨滴传感器50、雨刷60、导航装置70、镜头清洗装置80搭载于车辆中,能够通过CAN(Controller AreaNetwork:控制器区域网)等车载通信网络与计算机30进行信息的发送和接收。
如图3所示,计算机30具备视点变换部31、对位部32、三维物体检测部33、三维物体判断部34、镜头状态判断部38、检测区域设定部41、控制部39以及拖影检测部40。本实施方式的计算部30是与利用差分波形信息检测三维物体的检测模块有关的结构。本实施方式的计算部30也能够设为与利用边缘信息检测三维物体的检测模块有关的结构。该情况能够将图3所示的结构中的由对位部32以及三维物体检测部33构成的模块结构A替换为用虚线包围的由亮度差计算部35、边缘线检测部36以及三维物体检测部37构成的模块结构B来构成。当然也能够具备模块结构A和模块结构B两方,能够利用差分波形信息进行三维物体的检测并且利用边缘信息进行三维物体的检测。在具备模块结构A和模块结构B的情况下,例如能够与明亮度等环境因素相应地使模块结构A和模块结构B中的某一个进行动作。以下,关于各结构进行说明。
<基于差分波形信息检测三维物体>
本实施方式的三维物体检测装置1基于由拍摄车辆后方的单眼的摄像机1获得的图像信息来检测存在于车辆后方的右侧邻近车道的检测区域A1或左侧邻近车道的检测区域A2的三维物体。检测区域设定部41在拍摄得到的图像信息内在本车辆V后方的右侧和左侧分别设定检测区域A1、A2,并且对其位置进行变更。该检测区域A2、A2的位置不特别地限定,并且能够根据处理条件适当地进行设定。特别地,本实施方式的检测区域设定部41在由后述的镜头状态判断部38判断为镜头11是润湿的状态的情况下,将之前被设定为检测区域A1、A2的第一检测区域A11、A21,在不包含与车辆V所行驶的车道相邻的邻近车道的白线中的车辆V的行车道侧的白线的显示区域的位置设定第二检测区域A12、A22,来作为新的检测区域A1、A2。稍后详细记述新的第二检测区域A12、A22的设定。
接着,说明视点变换部。视点变换部31输入由摄像机10拍摄得到的规定区域的摄像图像数据,将所输入的摄像图像数据视点变换为鸟瞰视点状态的鸟瞰视点图像数据。鸟瞰视点状态是指从上空、例如从铅垂向下俯视的虚拟摄像机的视点观看的状态。能够例如日本特开2008-219063号公报所记载的那样执行该视点变换。将摄像图像数据视点变换为鸟瞰视点图像数据是因为基于如下原理能够识别平面物体和三维物体,该原理为三维物体所特有的铅垂边缘通过视点变换为鸟瞰视点图像数据而被变换为通过特定的定点的直线群。此外,在后述的利用边缘信息检测三维物体过程中也使用视点变换部31的图像变换处理的结果。
对位部32依次输入由视点变换部31的视点变换得到的鸟瞰视点图像数据,并对所输入的不同时刻的鸟瞰视点图像数据的位置进行对位。图4是用于说明对位部32的处理概要的图,(a)是表示本车辆V的移动状态的俯视图,(b)是表示对位的概要的图像。
如图4的(a)所示,设为当前时刻的本车辆V位于V1,前一时刻的本车辆V位于V2。另外,设为其它车辆VX位于本车辆V的后侧方向并与本车辆V处于并列行驶状态,当前时刻的其它车辆VX位于V3,前一时刻的其它车辆VX位于V4。并且,设为本车辆V在一时刻移动了距离d。此外,前一时刻可以是从当前时刻起相隔预先决定时间(例如一个控制周期)的过去时刻,也可以是相隔任意时间的过去时刻。
在这样的状态中,当前时刻的鸟瞰视点图像PBt如图4的(b)所示那样。在该鸟瞰视点图像PBt中,描绘在路面上的白线为矩形状,是比较准确地以俯视观察所形成的状态,但是处于位置V3的其它车辆VX的位置发生倾倒。另外,前一时刻的鸟瞰视点图像PBt-1也同样地,描绘在路面上的白线为矩形状,是比较准确地以俯视观察所形成的状态,但是处于位置V4的其它车辆VX发生倾倒。如已经记述的那样,是因为三维物体的铅垂边缘(除了严格意义上的铅垂边缘以外还包含在三维空间中从路面立起的边缘)通过变换为鸟瞰视点图像数据的视点变换处理而表现为沿着倾倒方向的直线群,与此相对地路面上的平面图像不包含铅垂边缘,因此即使进行视点变换也不会产生那样的倾倒。
对位部32在数据上执行如上所述的鸟瞰视点图像PBt、PBt-1的对位。此时,对位部32使前一时刻的鸟瞰视点图像PBt-1偏移来使位置与当前时刻的鸟瞰视点图像PBt相一致。图4的(b)的左侧的图像和中央的图像表示偏移了移动距离d’后的状态。该偏移量d’是与图4的(a)所示的本车辆V的实际的移动距离d对应的鸟瞰视点图像数据上的移动量,是根据来自车速传感器20的信号和从前一时刻至当前时刻的时间而决定的。
另外,在对位之后,对位部32取鸟瞰视点图像PBt、PBt-1的差分,生成差分图像PDt的数据。在此,差分图像PDt的像素值可以是将鸟瞰视点图像PBt、PBt-1的像素值之差绝对值化得到的像素值,也可以为了对应照度环境的变化而在该绝对值超过规定的阈值p时设为“1”,在不超过规定的阈值p时设为“0”。图4的(b)的右侧的图像是差分图像PDt。
返回图3,三维物体检测部33根据图4的(b)所示的差分图像PDt的数据来检测三维物体。此时,本例的三维物体检测部33还计算在实际空间中的三维物体的移动距离。在三维物体的检测以及移动距离的计算时,三维物体检测部33首先生成差分波形。此外,在三维物体的移动速度的计算中使用三维物体的每单位时间的移动距离。而且,三维物体的移动速度能够在判断三维物体是否为车辆时使用。
在生成差分波形时,本实施方式的三维物体检测部33在差分图像PDt中设定检测区域。本例的三维物体检测装置1将本车辆V的驾驶员予以注意的其它车辆、特别是在本车辆V进行车道变更时有可能接触的行驶于与本车辆V所行驶的车道相邻的车道的其它车辆作为检测对象物进行检测。因此,在根据图像信息检测三维物体的本例中,在由摄像机1得到的图像中的本车辆V的右侧和左侧设定两个检测区域。具体地说,在本实施方式中,如图2所示那样在本车辆V后方的左侧和右侧设定矩形状的检测区域A1、A2。在该检测区域A1、A2中检测出的其它车辆被检测为行驶于与本车辆V所行驶的车道相邻的邻近车道的障碍物。此外,这样的检测区域A1、A2可以根据相对于本车辆V的相对位置进行设定,也可以将白线的位置作为基准进行设定。在以白线的位置为基准进行设定的情况下,移动距离检测装置1例如优选利用已有的白线识别技术等。
另外,三维物体检测部33将所设定的检测区域A1、A2的在本车辆V侧的边(沿着行驶方向的边)识别为触地线L1、L2(图2)。通常,触地线是指三维物体接触地面的线,但是在本实施方式中不是接触地面的线而是如上述那样进行设定。此外,在这种情况下,从经验上看本实施方式所涉及的触地线与本来基于其它车辆VX的位置求出的触地线之差也不会过大,从而在实际使用上没有问题。
图5是表示图3所示的三维物体检测部33生成差分波形的情形的概要图。如图5所示,三维物体检测部33根据由对位部32计算出的差分图像PDt(图4的(b)的右图)中的相当于检测区域A1、A2的部分来生成差分波形DWt。此时,三维物体检测部33沿着通过视点变换而三维物体倾倒的方向生成差分波形DWt。此外,在图5所示的例子中,为了方便仅使用检测区域A1进行说明,但是关于检测区域A2,也以相同的过程生成差分波形DWt。
具体地说,三维物体检测部33在差分图像DWt的数据上定义三维物体倾倒的方向上的线La。然后,三维物体检测部33对线La上示出规定的差分的差分像素DP的个数进行计数。在此,在差分图像DWt的像素值是将鸟瞰视点图像PBt、PBt-1的像素值之差绝对值化得到的像素值的情况下,示出规定的差分的差分像素DP是超过规定的阈值的像素,在差分图像DWt的像素值用“0”、“1”表现的情况下,示出规定的差分的差分像素DP是表示“1”的像素。
三维物体检测部33在对差分像素DP的个数进行计数之后,求出线La与触地线L1的交点CP。然后,三维物体检测部33将交点CP与计数数进行对应,根据交点CP的位置来决定横轴位置、即在图5的右图的上下方向轴的位置,并且根据计数数决定纵轴位置、即在图5的右图的左右方向轴的位置,绘制出交点CP处的计数数。
以下同样地,三维物体检测部33对三维物体倾倒的方向上的线Lb、Lc…进行定义,来对差分像素DP的个数进行计数,根据各交点CP的位置决定横轴位置、基于计数数(差分像素DP的个数)决定纵轴位置进行绘制。三维物体检测部33依次重复上述内容进行频数分布化来如图5右图所示那样生成差分波形DWt。
此外,如图5左图所示,三维物体倾倒的方向上的线La和线Lb与检测区域A1相重叠的距离不同。因此,当假设检测区域A1被差分像素DP填满时,线La上的差分像素DP的个数多于线Lb上的差分像素DP的个数。因此,三维物体检测部33在基于差分像素DP的计数数决定纵轴位置的情况下,根据三维物体倾倒的方向上的线La、Lb与检测区域A1相重叠的距离来进行标准化。当列举具体例时,在图5左图中,在线La上有6个差分像素DP,在线Lb上有5个差分像素DP。因此,在图5中基于计数数决定纵轴位置时,三维物体检测部33将计数数除以重叠距离等来进行标准化。由此,如差分波形DWt所示那样,与三维物体倾倒的方向上的线La、Lb对应的差分波形DWt的值大致相同。
在生成差分波形DWt之后,三维物体检测部33通过与前一时刻的差分波形DWt-1的对比来计算移动距离。即,三维物体检测部33基于差分波形DWt、DWt-1的时间变化来计算移动距离。
详细地说,三维物体检测部33如图6所示那样将差分波形DWt分割成多个小区域DWt1~DWtn(n为2以上的任意整数)。图6是表示由三维物体检测部33分割出的小区域DWt1~DWtn的图。小区域DWt1~DWtn例如图6所示那样以相互重叠的方式进行分割。例如小区域DWt1与小区域DWt2重叠,小区域DWt2与小区域DWt3重叠。
接着,三维物体检测部33按各小区域DWt1~DWtn求出偏移量(差分波形的横轴方向(图6的上下方向)的移动量)。在此,根据前一时刻的差分波形DWt-1与当前时刻的差分波形DWt之差(横轴方向的距离)来求出偏移量。此时,三维物体检测部33按各小区域DWt1~DWtn,在使前一时刻的差分波形DWt-1沿横轴方向移动时,判断出与当前时刻的差分波形DWt的误差最小的位置(横轴方向的位置),求出差分波形DWt-1的原来的位置与误差最小的位置的在横轴方向的移动量来作为偏移量。然后,三维物体检测部33对按各小区域DWt1~DWtn求出的偏移量进行计数来制作直方图。
图7是表示由三维物体检测部33得到的直方图的一例的图。如图7所示,各小区域DWt1~DWtn与前一时刻的差分波形DWt-1的误差最小的移动量即偏移量稍微产生偏差。因此,三维物体检测部33将包含偏差的偏移量制作成直方图,基于直方图计算移动距离。此时,三维物体检测部33根据直方图的极大值计算三维物体的移动距离。即,在图7所示的例子中,三维物体检测部33将表示直方图的极大值的偏移量计算为移动距离τ*。此外,该移动距离τ*是其它车辆VX相对于本车辆V的相对移动距离。因此,三维物体检测部33在计算绝对移动距离的情况下,根据所得到的移动距离τ*和来自车速传感器20的信号来计算绝对移动距离。
此外,在制作成直方图时,三维物体检测部33也可以针对多个小区域DWt1~DWtn中的每一个进行加权,与权重相应地对按各小区域DWt1~DWtn求出的偏移量进行计数来制作直方图。图8是表示三维物体检测部33的加权的图。
如图8所示,小区域DWm(m为1以上、n-1以下的整数)是平坦的。即,小区域DWm的示出规定的差分的像素数的计数的最大值与最小值之差小。三维物体检测部33针对这样的小区域DWm将权重减小。这是因为关于平坦的小区域DWm没有特征,从而在计算偏移量时误差变大的可能性高。
另一方面,小区域DWm+k(k为n-m以下的整数)有大量的起伏。即,小区域DWm的示出规定的差分的像素数的计数数的最大值与最小值之差大。三维物体检测部33针对这样的小区域DWm将权重增大。这是因为关于有很多起伏的小区域DWm+k具有特征,从而能够正确地进行偏移量的计算的可能性高。通过像这样进行加权,能够提高移动距离的计算精度。
此外,为了提高移动距离的计算精度,在上述实施方式中,将差分波形DWt分割成了多个小区域DWt1~DWtn,但是在移动距离的计算精度要求不那么高的情况下,也可以不分割成小区域DWt1~DWtn。在这种情况下,三维物体检测部33根据差分波形DWt与差分波形DWt-1的误差变为最小时的差分波形DWt的偏移量来计算移动距离。即,求前一时刻的差分波形DWt-1与当前时刻的差分波形DWt的偏移量的方法不限定于上述内容。
返回图3,计算机30具备拖影检测部40。拖影检测部40根据由摄像机10拍摄得到的摄像图像的数据来检测拖影的产生区域。此外,由于拖影是在CCD图像传感器等中产生的过曝光现象,因此如果采用使用了不产生这样的拖影的CMOS图像传感器等的摄像机10,则也可以省略拖影检测部40。
图9是用于说明拖影检测部40的处理以及基于该处理的差分波形DWt的计算处理的图像图。首先,设为对拖影检测部40输入了存在拖影S的摄像图像P的数据。此时,拖影检测部40根据摄像图像P检测拖影S。拖影S的检测方法多种多样,例如在一般的CCD(Charge-Coupled Device:电荷耦合器件)摄像机的情况下,从光源仅向图像下方向产生拖影S。因此,在本实施方式中,检索从图像下侧向图像上方具有规定值以上的亮度值且在纵方向上连续的区域,将其确定为拖影S的产生区域。
另外,拖影检测部40生成关于拖影S的产生部分将像素值设为“1”、将除此以外的部分设为“0”的拖影图像SP的数据。在生成后,拖影检测部40将拖影图像SP的数据发送到视点变换部31。另外,输入了拖影图像SP的数据的视点变换部31将该数据视点变换为鸟瞰视点的状态。由此,视点变换部31生成拖影鸟瞰视点图像SBt的数据。在生成后,视点变换部31将拖影鸟瞰视点图像SBt的数据发送到对位部33。另外,视点变换部31还将前一时刻的拖影鸟瞰视点图像SBt-1的数据发送到对位部33。
对位部32在数据上执行拖影鸟瞰视点图像SBt、SBt-1的对位。关于具体的对位,与在数据上执行鸟瞰视点图像PBt、PBt-1的对位的情况相同。另外,在对位后,对位部32关于各拖影鸟瞰视点图像SBt、SBt-1的拖影S的产生区域取逻辑或。由此,对位部32生成掩模图像MP的数据。在生成后,对位部32将掩模图像MP的数据发送到三维物体检测部33。
三维物体检测部33关于掩模图像MP中的相当于拖影S的产生区域的部分,将频数分布的计数数设为零。即,在生成了如图9所示那样的差分波形DWt的情况下,三维物体检测部33将拖影S的计数数SC设为零,生成校正后的差分波形DWt’。
此外,在本实施方式中,三维物体检测部33求出车辆V(摄像机10)的移动速度,根据求出的移动速度求出关于静止物体的偏移量。在求出静止物体的偏移量之后,三维物体检测部33忽略直方图的极大值中的相当于静止物体的偏移量之后计算三维物体的移动距离。
图10是表示由三维物体检测部33得到的直方图的另一例的图。在摄像机10的视角内除了其它车辆VX以外还存在静止物体的情况下,在获得的直方图中出现两个极大值τ1、τ2。在这种情况下,两个极大值τ1、τ2中的某一方是静止物体的偏移量。因此,三维物体检测部33根据移动速度求出关于静止物体的偏移量,忽略相当于该偏移量的极大值,采用剩下的一方的极大值计算三维物体的移动距离。
此外,在即使忽略了相当于静止物体的偏移量也存在多个极大值的情况下,设想在摄像机10的视角内存在多辆其它车辆VX。但是,在检测区域A1、A2内存在多辆其它车辆VX的情形是非常少见的。因此,三维物体检测部33中止移动距离的计算。
接着,说明基于差分波形信息的三维物体检测过程。图11和图12是表示本实施方式的三维物体检测过程的流程图。如图11所示,首先,在步骤S0中,计算机30根据规定的规则设定检测区域。稍后详细记述该检测区域的设定方法。然后,计算机30输入由摄像机10得到的摄像图像P的数据,由拖影检测部40生成拖影图像SP(S1)。接着,视点变换部31根据来自摄像机10的摄像图像P的数据生成鸟瞰视点图像PBt的数据,并且根据拖影图像SP的数据生成拖影鸟瞰视点图像SBt的数据(S2)。
然后,对位部33将鸟瞰视点图像PBt的数据和前一时刻的鸟瞰视点图像PBt-1的数据进行对位,并且将拖影鸟瞰视点图像SBt的数据和前一时刻的拖影鸟瞰视点图像SBt-1的数据进行对位(S3)。在该对位之后,对位部33生成差分图像PDt的数据,并且生成掩模图像MP的数据(S4)。之后,三维物体检测部33根据差分图像PDt的数据和前一时刻的差分图像PDt-1的数据生成差分波形DWt(S5)。在生成差分波形DWt之后,三维物体检测部33将差分波形DWt中的相当于拖影S的产生区域的计数数设为零,从而抑制拖影S所产生的影响(S6)。
之后,三维物体检测部33判断差分波形DWt的峰值是否为第一阈值α以上(S7)。在此,在差分波形DWt的峰值不为第一阈值α以上的情况下、即几乎不存在差分的情况下,认为在摄像图像P内不存在三维物体。因此,在判断为差分波形DWt的峰值不为第一阈值α以上的情况下(S7:“否”),三维物体检测部33判断为不存在三维物体,从而不存在作为障碍物的其它车辆(图12:S16)。然后,结束图11和图12所示的处理。
另一方面,在判断为差分波形DWt的峰值为第一阈值α以上的情况下(S7:“是”),三维物体检测部33判断为存在三维物体,将差分波形DWt分割成多个小区域DWt1~DWtn(S8)。接着,三维物体检测部33针对各小区域DWt1~DWtn进行加权(S9)。之后,三维物体检测部33计算各小区域DWt1~DWtn的偏移量(S10),考虑权重生成直方图(S11)。
然后,三维物体检测部33基于直方图计算三维物体相对于本车辆V的移动距离、即相对移动距离(S12)。接着,三维物体检测部33根据相对移动距离计算三维物体的绝对移动速度(S13)。此时,三维物体检测部33对相对移动距离进行时间微分来计算相对移动速度,并且加上由车速传感器20检测出的本车速度来计算绝对移动速度。
之后,三维物体检测部33判断三维物体的绝对移动速度是否为10km/h以上且三维物体相对于本车辆V的相对移动速度是否为+60km/h以下(S14)。在满足双方的情况下(S14:“是”),三维物体检测部33判断为三维物体是其它车辆VX(S15)。然后,结束图11和图12所示的处理。另一方面,在有任一方不满足的情况下(S14:“否”),三维物体检测部33判断为不存在其它车辆(S16)。然后,结束图11和图12所示的处理。
此外,在本实施方式中,将本车辆V的后侧方设为检测区域A1、A2,检测本车辆V在行驶过程中应予以注意的行驶于与本车辆的行驶车道相邻的邻近车道的其它车辆VX,特别是,重点在于在本车辆V进行车道变更的情况下是否有接触的可能性。这是为了在本车辆V进行车道变更的情况下,判断是否有可能接触到行驶于与本车辆的行驶车道相邻的邻近车道的其它车辆VX。因此,执行了步骤S14的处理。即,当以使本实施方式的系统在高速公路上工作的情形为前提时,在三维物体的速度小于10km/h的情况下,即使存在其它车辆VX,在进行车道变更时由于位于距本车辆V很远的后方,因此很少会成为问题。同样地,在三维物体相对于本车辆V的相对移动速度超过+60km/h的情况下(即,三维物体相对于本车辆V的速度以大于60km/h的速度移动的情况下),在进行车道变更时,由于在本车辆V的前方移动,因此很少会成为问题。因此,在步骤S14中,也可以说判断出了在进行车道变更时成为问题的其它车辆VX。
另外,通过在步骤S14中判断三维物体的绝对移动速度是否为10km/h以上且三维物体相对于本车辆V的相对移动速度是否为+60km/h以下,由此存在以下的效果。例如,根据摄像机10的安装误差,有可能存在将静止物体的绝对移动速度检测出是数km/h的情况。因此,通过判断是否为10km/h以上,能够减少将静止物体判断为是其它车辆VX的可能性。另外,有可能由于噪声而导致将三维物体相对于本车辆V的相对速度检测为超过+60km/h的速度。因此,通过判断相对速度是否为+60km/h以下,能够减少因噪声引起的错误检测的可能性。
并且也可以是,代替步骤S14的处理,而判断绝对移动速度不为负、不为0km/h。另外,在本实施方式中,重点在于本车辆V在进行车道变更的情况下是否有接触的可能性,因此在步骤S15中检测出其它车辆VX的情况下,可以向本车辆的驾驶员发出警告音,或者通过规定的显示装置进行相当于警告的显示。
这样,根据本例的基于差分波形信息的三维物体的检测过程,沿着通过视点变换而三维物体倾倒的方向,对在差分图像PDt的数据上示出规定的差分的像素数进行计数来进行频数分布化,由此生成差分波形DWt。在此,在差分图像PDt的数据上示出规定的差分的像素是指在不同时刻的图像中存在变化的像素,换言之,可以说是存在三维物体的部分。因此,在存在三维物体的部分,通过沿着三维物体倾倒的方向对像素数进行计数并进行频数分布化,由此生成差分波形DWt。特别地,由于沿着三维物体倾倒的方向对像素数进行计数,因此根据针对三维物体来说在高度方向上的信息来生成差分波形DWt。然后,根据包含高度方向的信息的差分波形DWt的时间变化来计算三维物体的移动距离。因此,与仅着眼于1个点的移动的情况相比,时间变化前的检测部分和时间变化后的检测部分由于包含高度方向的信息进行确定,因此容易得到三维物体中相同的部分,从而根据相同部分的时间变化来计算移动距离,能够提高移动距离的计算精度。
另外,关于差分波形DWt中的相当于拖影S的产生区域的部分,将频数分布的计数数设为零。由此,去除差分波形DWt中的由拖影S产生的波形部位,从而能够防止将拖影S错误识别为三维物体的情形。
另外,根据在不同的时刻生成的差分波形DWt的误差最小时的差分波形DWt的偏移量来计算三维物体的移动距离。因此,根据波形这样的一维的信息的偏移量来计算移动距离,从而能够在计算移动距离时抑制计算成本。
另外,将在不同时刻生成的差分波形DWt分割成多个小区域DWt1~DWtn。通过像这样分割成多个小区域DWt1~DWtn,由此获得多个表示三维物体的各个部分的波形。另外,针对各小区域DWt1~DWtn求出各个波形的误差最小时的偏移量,对针对各小区域DWt1~DWtn求出的偏移量进行计数来制作直方图,由此计算三维物体的移动距离。因此,针对三维物体的各个部分求出偏移量,并根据多个偏移量求出移动距离,从而能够提高移动距离的计算精度。
另外,针对多个小区域DWt1~DWtn中的每一个进行加权,与权重相应地对针对各小区域DWt1~DWtn求出的偏移量进行计数来制作直方图。因此,关于特征性的区域将权重增大,关于非特征性的区域将权重减小,由此能够更适当地计算移动距离。因而,能够进一步提高移动距离的计算精度。
另外,关于差分波形DWt的各小区域DWt1~DWtn,示出规定的差分的像素数的计数的最大值与最小值之差越大,则使权重越大。因此,越是最大值与最小值之差大的特征性的起伏区域则权重越大,关于起伏小的平坦的区域,权重变小。在此,就形状来说,与平坦的区域相比,起伏大的区域更容易正确地求出偏移量,因此通过越是最大值与最小值之差大的区域则使权重越大,由此能够进一步提高移动距离的计算精度。
另外,根据对针对各小区域DWt1~DWtn求出的偏移量进行计数得到的直方图的极大值,计算三维物体的移动距离。因此,即使偏移量产生偏差,也能够根据其极大值来计算正确性更高的移动距离。
另外,求出关于静止物体的偏移量,并忽略该偏移量,因此能够防止由于静止物体而导致三维物体的移动距离的计算精度下降的情形。另外,在忽略了相当于静止物体的偏移量之后,如果存在多个极大值,则中止三维物体的移动距离的计算。因此,能够防止如存在多个极大值那样的错误地计算移动距离的情形。
此外,在上述实施方式中,根据来自车速传感器20的信号判断本车辆V的车速,但是不限于此,也可以根据不同时刻的多个图像来估计速度。在这种情况下,不需要车速传感器,能够实现结构的简单化。
另外,在上述实施方式中,将拍摄到的当前时刻的图像和前一时刻的图像变换为鸟瞰图,对变换后的鸟瞰图进行对位之后生成差分图像PDt,对所生成的差分图像PDt沿着倾倒方向(将拍摄到的图像变换为鸟瞰图时的三维物体的倾倒方向)进行评价来生成差分波形DWt,但是不限定于此。例如也可以仅将前一时刻的图像变换为鸟瞰图,对变换得到的鸟瞰图进行对位之后再次变换为与所拍摄的图像相当的图像,用该图像和当前时刻的图像生成差分图像,对所生成的差分图像沿着相当于倾倒方向的方向(即,将倾倒方向变换为摄像图像上的方向所得到的方向)进行评价来生成差分波形DWt。即,对当前时刻的图像和前一时刻的图像进行对位,根据进行对位后的两个图像的差分生成差分图像PDt,只要能够沿着将差分图像PDt变换为鸟瞰图时的三维物体的倾倒方向进行评价,也可以不必明确地生成鸟瞰图。
<基于边缘信息检测三维物体>
接着,说明能够代替图3所示的三维物体的模块A而进行动作的由亮度差计算部35、边缘线检测部36以及三维物体检测部37构成的利用边缘信息的三维物体的检测模块B。图13是表示图3的摄像机10的摄像范围等的图,图13的(a)是俯视图,图13的(b)表示本车辆V后侧方的实际空间中的立体图。如图13的(a)所示,摄像机10被形成为规定的视角a,从本车辆V拍摄包含于该规定的视角a中的后侧方。摄像机10的视角a与图2所示的情况同样地被设定成在摄像机10的摄像范围内、除了包含本车辆V所行驶的车道以外还包含相邻的车道。
本例的检测区域A1、A2在俯视图(鸟瞰视点的状态)中形成为梯形状,这些检测区域A1、A2的位置、大小以及形状根据距离d1~d4决定。此外,该图所示的例子的检测区域A1、A2不限于梯形状,也可以是如图2所示那样在鸟瞰视点的状态下为矩形等其它的形状。此外,本实施方式中的检测区域设定部41也能够通过之前记述过的方法设定检测区域A1、A2。
在此,距离d1是从本车辆V到触地线L1、L2的距离。触地线L1、L2是指存在于与本车辆V所行驶的车道相邻的车道的三维物体接触地面的线。在本实施方式中,目的是检测在本车辆V的后侧方行驶于与本车辆V的车道相邻的左右车道的其它车辆VX等(包含二轮车等)。因此,能够事先根据本车辆V至白线W的距离d11和从白线W至预测为其它车辆VX所行驶的位置的距离d12,大致固定地决定作为其它车辆VX的触地线L1、L2的位置的距离d1。
另外,关于距离d1,不限于决定为固定的值,也可以设为可变。在这种情况下,计算机30通过白线识别等技术来识别白线W相对于本车辆V的位置,根据识别出的白线W的位置来决定距离d11。由此,使用所决定的距离d11以可变的方式设定距离d1。在以下的本实施方式中,由于其它车辆VX行驶的位置(距白线W的距离d12)和本车辆V行驶的位置(距白线W的距离d11)大致固定,因此设为距离d1被决定为固定的值。
距离d2是从本车辆V的后端部沿车辆行进方向延伸的距离。以检测区域A1、A2至少收容在摄像机10的视角a内的方式决定该距离d2。特别地,在本实施方式中,距离d2被设定为与由视角a划分的范围相连。距离d3是表示检测区域A1、A2的在车辆行进方向上的长度的距离。该距离d3根据作为检测对象的三维物体的大小决定。在本实施方式中,由于检测对象是其它车辆VX等,因此距离d3被设定为包含其它车辆VX的长度。
距离d4是如图13的(b)所示那样表示被设定成在实际空间中包含其它车辆VX等的轮胎的高度的距离。距离d4在鸟瞰视点图像中设为图13的(a)所示的长度。此外,距离d4也能够设为不包含鸟瞰视点图像中相比于左右的邻近车道的下一邻近车道(即,隔一车道的邻近车道)的长度。这是因为如果包含与本车辆V的车道隔一车道的邻近车道,则无法区分是在作为本车辆V所行使的车道的本车道的左右邻近车道内存在其它车辆VX、还是在隔一车道的邻近车道内存在其它车辆VX。
如以上那样决定距离d1~距离d4,由此决定检测区域A1、A2的位置、大小以及形状。具体地说,根据距离d1,决定形成梯形的检测区域A1、A2的上边b1的位置。根据距离d2,决定上边b1的起点位置C1。根据距离d3,决定上边b1的终点位置C2。根据从摄像机10向起点位置C1延伸的直线L3,决定形成梯形的检测区域A1、A2的侧边b2。同样地,根据从摄像机10向终点位置C2延伸的直线L4,决定形成梯形的检测区域A1、A2的侧边b3。根据距离d4,决定形成梯形的检测区域A1、A2的下边b4的位置。这样,由各边b1~b4包围的区域设为检测区域A1、A2。该检测区域A1、A2如图13的(b)所示那样在本车辆V后侧方的实际空间中形成为正方形(长方形)。
返回图3,视点变换部31输入由摄像机10拍摄得到的规定区域的摄像图像数据。视点变换部31针对所输入的摄像图像数据进行视点变换处理来形成为鸟瞰视点状态的鸟瞰视点图像数据。鸟瞰视点状态是指从上空、例如从铅垂向下(或者稍微斜向下)俯视的虚拟摄像机的视点观看的状态。例如能够通过日本特开2008-219063号公报所记载的技术来实现该视点变换处理。
亮度差计算部35为了检测鸟瞰视点图像中包含的三维物体的边缘,而针对由视点变换部31进行视点变换得到的鸟瞰视点图像数据进行亮度差的计算。亮度差计算部35针对沿着在实际空间中的铅垂方向上延伸的铅垂虚拟线的多个位置中的每个位置计算该各位置附近的两个像素间的亮度差。亮度差计算部35能够通过仅设定一条在实际空间中的铅垂方向上延伸的铅垂虚拟线的方法以及设定两条铅垂虚拟线的方法中的任一个方法来计算亮度差。
针对设定两条铅垂虚拟线的具体方法进行说明。亮度差计算部35针对进行视点变换得到的鸟瞰视点图像设定与实际空间中在铅垂方向上延伸的线段相当的第一铅垂虚拟线以及与第一铅垂虚拟线不同并与实际空间中在铅垂方向延伸的线段相当的第二铅垂虚拟线。亮度差计算部35沿着第一铅垂虚拟线和第二铅垂虚拟线连续地求出第一铅垂虚拟线上的点与第二铅垂虚拟线上的点的亮度差。以下,详细说明该亮度差计算部35的动作。
亮度差计算部35如图14的(a)所示那样设定与实际空间中在铅垂方向延伸的线段相当且通过检测区域A1的第一铅垂虚拟线La(以下称为关注线La)。另外,亮度差计算部35设定与关注线La不同并与实际空间中在铅垂方向延伸的线段相当且通过检测区域A1的第二铅垂虚拟线Lr(以下称为参照线Lr)。在此,参照线Lr被设置于距离关注线La分离实际空间中的规定距离的位置处。此外,与实际空间中在铅垂方向延伸的线段相当的线是指在鸟瞰视点图像中从摄像机10的位置Ps起呈放射状扩展的线。该呈放射状扩展的线是沿着在变换为鸟瞰视点时三维物体倾倒的方向的线。
亮度差计算部35在关注线La上设定关注点Pa(第一铅垂虚拟线上的点)。另外,亮度差计算部35在参照线Lr上设定参照点Pr(第二铅垂虚拟线上的点)。这些关注线La、关注点Pa、参照线Lr、参照点Pr在实际空间中形成图14的(b)所示的关系。如从图14的(b)显而易见地,关注线La和参照线Lr是在实际空间中在铅垂方向延伸的线,关注点Pa和参照点Pr是在实际空间中被设定为大致相同的高度的点。此外,关注点Pa和参照点Pr并不一定需要是严格上的相同的高度,关注点Pa和参照点Pr被视为相同高度的程度的误差是允许的。
亮度差计算部35求出关注点Pa与参照点Pr的亮度差。假设关注点Pa与参照点Pr的亮度差大时,认为在关注点Pa与参照点Pr之间存在边缘。因此,图3所示的边缘线检测部36根据关注点Pa与参照点Pr的亮度差来检测边缘线。
更详细地说明该点。图15是表示亮度差计算部35的详细动作的图,图15的(a)表示鸟瞰视点状态的鸟瞰视点图像,图15的(b)是将图15的(a)所示的鸟瞰视点图像的一部分B1放大后的图。此外,关于图15,仅图示检测区域A1进行说明,关于检测区域A2,也以相同的过程计算亮度差。
在摄像机10拍摄到的摄像图像内拍摄有其它车辆VX的情况下,如图15的(a)所示那样,在鸟瞰视点图像内的检测区域A1出现其它车辆VX。如图15的(b)示出图15的(a)中的区域B1的放大图那样,设为在鸟瞰视点图像上,在其它车辆VX的轮胎的橡胶部分上设定了关注线La。在该状态中,亮度差计算部35首先设定参照线Lr。参照线Lr被设定在实际空间中沿铅垂方向距关注线La规定的距离的位置处。具体地说,在本实施方式所涉及的三维物体检测装置1中,参照线Lr被设定在实际空间中与关注线La相距10cm的位置处。由此,参照线Lr在鸟瞰视点图像上例如被设定在与其它车辆VX的轮胎的橡胶相距相当于10cm的距离的其它车辆VX的轮胎的轮辋(wheel)上。
接着,亮度差计算部35在关注线La上设定多个关注点Pa1~PaN。在图15的(b)中,为了便于说明,设定了六个关注点Pa1~Pa6(以下,在表示任意的点的情况下,仅称为关注点Pai)。此外,在关注线La上设定的关注点Pa的个数可以是任意的。在以下的说明中,设为在关注线La上设定了N个关注点Pa进行说明。
接着,亮度差计算部35将各参照点Pr1~PrN设定成在实际空间中与各关注点Pa1~PaN相同的高度。而且,亮度差计算部35计算相同高度的关注点Pa与参照点Pr的亮度差。由此,亮度差计算部35针对沿着在实际空间中的铅垂方向上延伸的铅垂虚拟线的多个位置(1~N)中的每个位置计算两个像素间的亮度差。亮度差计算部35例如计算第一关注点Pa1与第一参照点Pr1之间的亮度差,计算第二关注点Pa2与第二参照点Pr2之间的亮度差。由此,亮度差计算部35沿着关注线La和参照线Lr连续地求出亮度差。即,亮度差计算部35依次求出第三~第N关注点Pa3~PaN与第三~第N参照点Pr3~PrN的亮度差。
亮度差计算部35在检测区域A1内移动关注线La的同时重复执行上述的参照线Lr的设定、关注点Pa和参照点Pr的设定、亮度差的计算这样的处理。即,亮度差计算部35在实际空间中沿触地线L1的延伸方向以相同的距离改变关注线La和参照线Lr各自的位置的同时重复执行上述的处理。亮度差计算部35例如将在前次处理中成为参照线Lr的线设定为关注线La,针对该关注线La设定参照线Lr,依次求出亮度差。
返回图3,边缘线检测部36根据由亮度差计算部35计算出的连续的亮度差来检测边缘线。例如在图15的(b)所示的情况下,第一关注点Pa1和第一参照点Pr1位于相同的轮胎部分,因此亮度差小。另一方面,第二关注点~第六关注点Pa2~Pa6位于轮胎的橡胶部分,第二参照点~第六参照点Pr2~Pr6位于轮胎的轮辋部分。因而,第二关注点~第六关注点Pa2~Pa6与第二参照点~第六参照点Pr2~Pr6的亮度差变大。因此,边缘线检测部36能够检测出在亮度差大的第二关注点~第六关注点Pa2~Pa6与第二参照点~第六参照点Pr2~Pr6之间存在边缘线。
具体地说,边缘线检测部36在检测边缘线时,首先依照下述的数式1,根据第i个关注点Pai(坐标(xi,yi))与第i个参照点Pri(坐标(xi’,yi’))的亮度差来对第i个关注点Pai赋予属性。
[数1]
I(xi,yi)>I(xi’,yi’)+t时
s(xi,yi)=1
I(xi,yi)<I(xi’,yi’)-t时
s(xi,yi)=-1
在上述以外的情况时
s(xi,yi)=0
在上述数式1中,t表示阈值,I(xi,yi)表示第i个关注点Pai的亮度值,I(xi’,yi’)表示第i个参照点Pri的亮度值。根据上述数式1,在关注点Pai的亮度值高于参照点Pri加上阈值t得到的亮度值的情况下,该关注点Pai的属性s(xi,yi)为‘1’。另一方面,在关注点Pai的亮度值低于从参照点Pri减去阈值t得到的亮度值的情况下,该关注点Pai的属性s(xi,yi)为‘﹣1’。在关注点Pai的亮度值与参照点Pri的亮度值为除此以外的关系的情况下,关注点Pai的属性s(xi,yi)为‘0’。
接着,边缘线检测部36基于下述数式2,根据沿着关注线La的属性s的连续性c(xi,yi)判断关注线La是否为边缘线。
[数2]
s(xi,yi)=s(xi+1,yi+1)时(且除了0=0),
c(xi,yi)=1
在上述以外的情况时,
c(xi,yi)=0
在关注点Pai的属性s(xi,yi)与相邻的关注点Pai+1的属性s(xi+1,yi+1)相同的情况下,连续性c(xi,yi)为‘1’。在关注点Pai的属性s(xi,yi)与相邻的关注点Pai+1的属性s(xi+1,yi+1)不同的情况下,连续性c(xi,yi)为‘0’。
接着,边缘线检测部36关于关注线La上的全部关注点Pa的连续性c求出总和。边缘线检测部36通过将求出的连续性c的总和除以关注点Pa的个数N,来对连续性c进行标准化。边缘线检测部36在进行了标准化的值超过阈值θ的情况下,将关注线La判断为边缘线。此外,阈值θ是预先通过实验等设定的值。
即,边缘线检测部36基于下述数式3判断关注线La是否为边缘线。而且,边缘线检测部36关于描绘在检测区域A1上的全部关注线La判断是否为边缘线。
[数3]
Σc(xi,yi)/N>θ
返回图3,三维物体检测部37根据由边缘线检测部36检测出的边缘线的量来检测三维物体。如上述那样,本实施方式所涉及的三维物体检测装置1检测在实际空间中在铅垂方向延伸的边缘线。检测出很多的在铅垂方向延伸的边缘线就是在检测区域A1、A2存在三维物体的可能性高。因此,三维物体检测部37根据由边缘线检测部36检测出的边缘线的量来检测三维物体。并且,三维物体检测部37在检测三维物体之前,判断由边缘线检测部36检测出的边缘线是否为正确的边缘线。三维物体检测部37判断沿着边缘线上的鸟瞰视点图像的边缘线的亮度变化是否大于规定的阈值。在边缘线上的鸟瞰视点图像的亮度变化大于阈值的情况下,判断为该边缘线是由于错误判断而检测出的。另一方面,在边缘线上的鸟瞰视点图像的亮度变化不大于阈值的情况下,判断为该边缘线是正确的边缘线。此外,该阈值是通过实验等预先设定的值。
图16是表示边缘线的亮度分布的图,图16的(a)表示在检测区域A1内存在作为三维物体的其它车辆VX时的边缘线和亮度分布,图16的(b)表示在检测区域A1内不存在三维物体时的边缘线和亮度分布。
如图16的(a)所示,设为判断为在鸟瞰视点图像中设定于其它车辆VX的轮胎橡胶部分的关注线La是边缘线。在这种情况下,关注线La上的鸟瞰视点图像的亮度变化平缓。这是由于由摄像机10拍摄到的图像被视点变换为鸟瞰视点图像,由此其它车辆VX的轮胎在鸟瞰视点图像内被拉长。另一方面,如图16的(b)所示,设为鸟瞰视点图像中被设定在描绘于路面上的“50”这样的白色文字部分上的关注线La被错误判断为是边缘线。在这种情况下,关注线La上的鸟瞰视点图像的亮度变化为起伏大的变化。这是因为在边缘线上混杂有白色文字中的亮度高的部分和路面等的亮度低的部分。
根据如以上那样的关注线La上的亮度分布的差异,三维物体检测部37判断边缘线是否为由于错误判断而检测出的。三维物体检测部37在沿着边缘线的亮度变化大于规定的阈值的情况下,判断为该边缘线是由于错误判断而检测出的。而且,在检测三维物体时不使用该边缘线。由此,抑制路面上的“50”这样的白色文字、路肩的杂草等被判断为边缘线,从而抑制三维物体的检测精度下降。
具体地说,三维物体检测部37通过下述数式4、数式5中的任一个来计算边缘线的亮度变化。该边缘线的亮度变化相当于实际空间中的铅垂方向的评价值。下述数式4通过关注线La上的第i个亮度值I(xi,yi)与相邻的第i+1个亮度值I(xi+1,yi+1)的差分的平方的合计值来评价亮度分布。下述数式5通过关注线La上的第i个亮度值I(xi,yi)和相邻的第i+1个亮度值I(xi+1,yi+1)的差分的绝对值的合计值来评价亮度分布。
[数4]
铅垂对应方向的评价值=Σ[{I(xi,yi)-I(xi+1,yi+1)}2]
[数5]
铅垂对应方向的评价值=Σ|I(xi,yi)-I(xi+1,yi+1)|
此外,不限于数式5,也可以如下述数式6那样,利用阈值t2将相邻的亮度值的属性b进行二值化,来将该二值化得到的属性b关于全部的关注点Pa进行总和。
[数6]
铅垂对应方向的评价值=Σb(xi,yi)
其中,|I(xi,yi)-I(xi+1,yi+1)|>t2时,
b(xi,yi)=1
在上述以外的情况时,
b(xi,yi)=0
在关注点Pai的亮度值与参照点Pri的亮度值的亮度差的绝对值大于阈值t2的情况下,该关注点Pa(xi,yi)的属性b(xi,yi)为‘1’。在除此以外的关系的情况下,关注点Pai的属性b(xi,yi)为‘0’。该阈值t2是为了判断关注线La不在相同的三维物体上而通过实验等预先设定的。而且,三维物体检测部37将关于关注线La上的全部关注点Pa的属性b进行总和来求出铅垂对应方向的评价值,判断边缘线是否为正确的边缘线。
接着,关于本实施方式所涉及的利用边缘信息的三维物体检测方法进行说明。图17和图18是表示本实施方式所涉及的三维物体检测方法的详细内容的流程图。此外,在图17和图18中,为了方便,说明以检测区域A1为对象的处理,但是关于检测区域A2,也执行相同的处理。
如图17所示,首先,在步骤S20中,计算机30根据规定的规则设定检测区域。稍后详细记述该检测区域的设定、变更方法。然后,在步骤S21中,摄像机10拍摄由视角a和安装位置所确定的规定区域。接着,视点变换部31在步骤S22中输入在步骤S21中由摄像机10拍摄得到的摄像图像数据,进行视点变换来生成鸟瞰视点图像数据。
接着,在步骤S23中,亮度差计算部35在检测区域A1上设定关注线La。此时,亮度差计算部35将与在实际空间中在铅垂方向延伸的线相当的线设定为关注线La。接着,在步骤S24中,亮度差计算部35在检测区域A1上设定参照线Lr。此时,亮度差计算部35将相当于在实际空间中在铅垂方向延伸的线段且与关注线La在实际空间中相距规定距离的线设定为参照线Lr。
接着,在步骤S25中,亮度差计算部35在关注线La上设定多个关注点Pa。此时,亮度差计算部35设定在边缘线检测部36检测边缘时不会成为问题的程度的个数的关注点Pa。另外,在步骤S26中,亮度差计算部35将参照点Pr设定成在实际空间中关注点Pa和参照点Pr处于大致相同的高度。由此,关注点Pa和参照点Pr在大致水平方向上排列,容易检测在实际空间中在铅垂方向延伸的边缘线。
接着,在步骤S27中,亮度差计算部35计算在实际空间中处于相同高度的关注点Pa与参照点Pr的亮度差。接着,边缘线检测部36依照上述的数式1计算各关注点Pa的属性s。接着,在步骤S28中,边缘线检测部36依照上述的数式2计算各关注点Pa的属性s的连续性c。接着,在步骤S29中,边缘线检测部36依照上述数式3,判断将连续性c的总和标准化得到的值是否大于阈值θ。在判断为标准化得到的值大于阈值θ的情况下(S29:“是”),在步骤S30中,边缘线检测部36将该关注线La检测为边缘线。然后,处理转移到步骤S31。在判断为标准化得到的值不大于阈值θ的情况下(S29:“否”),边缘线检测部36不将该关注线La检测为边缘线,处理转移到步骤S31。
在步骤S31中,计算机30判断是否关于检测区域A1上可设定的全部关注线La执行了上述的步骤S23~步骤S30的处理。在判断为尚未关于全部的关注线La进行上述处理的情况下(S31:“否”),将处理返回步骤S23,重新设定关注线La,并重复进行步骤S31为止的处理。另一方面,在判断为关于全部的关注线La进行了上述处理的情况下(S31:“是”),处理转移到图18的步骤S32。
在图18的步骤S32中,三维物体检测部37关于在图17的步骤S30中检测出的各边缘线计算沿着该边缘线的亮度变化。三维物体检测部37依照上述数式4、数式5、数式6中的任一个来计算边缘线的亮度变化。接着,在步骤S33中,三维物体检测部37去除边缘线中的亮度变化大于规定的阈值的边缘线。即,判断为亮度变化大的边缘线不是正确的边缘线,在检测三维物体时不使用该边缘线。如上述那样这是为了抑制检测区域A1中包含的路面上的文字、路肩的杂草等被检测为边缘线的情形。因而,规定的阈值是指预先通过实验等求出的根据由于路面上的文字、路肩的杂草等而产生的亮度变化设定的值。
接着,在步骤S34中,三维物体检测部37判断边缘线的量是否为第二阈值β以上。例如在设定四轮车作为检测对象的三维物体的情况下,预先通过实验等基于在检测区域A1内出现的四轮车的边缘线的个数来设定该第二阈值β。在判断为边缘线的量为第二阈值β以上的情况下(S34:“是”),在步骤S35中,三维物体检测部37检测为在检测区域A1内存在三维物体。另一方面,在判断为边缘线的量不为第二阈值β以上的情况下(S34:“否”),三维物体检测部37判断为在检测区域A1内不存在三维物体。之后,图17和图18所示的处理结束。也可以判断为被检测出的三维物体是行驶于与本车辆V所行驶的车道相邻的邻近车道的其它车辆VX,也可以考虑检测出的三维物体相对于本车辆V的相对速度来判断是否为行驶于邻近车道的其它车辆VX。
如上所述,根据本实施方式的利用边缘信息的三维物体的检测方法,为了检测存在于检测区域A1、A2的三维物体,而针对鸟瞰视点图像设定作为在实际空间中在铅垂方向延伸的线段的铅垂虚拟线。而且,能够针对沿着铅垂虚拟线的多个位置中的每个位置计算该各位置附近的两个像素的亮度差,根据该亮度差的连续性来判断有无三维物体。
具体地说,针对鸟瞰视点图像中的检测区域A1、A2设定相当于在实际空间中在铅垂方向延伸的线段的关注线La以及与关注线La不同的参照线Lr。然后,沿着关注线La和参照线Lr连续地求出关注线La上的关注点Pa与参照线Lr上的参照点Pr的亮度差。这样,通过连续地求出点之间的亮度差,来求出关注线La与参照线Lr的亮度差。在关注线La与参照线Lr的亮度差高的情况下,在关注线La的设定部分存在三维物体的边缘的可能性高。由此,能够根据连续的亮度差检测三维物体。特别地,为了进行在实际空间中在铅垂方向延伸的铅垂虚拟线之间的亮度比较,即使通过变换为鸟瞰视点图像而三维物体与距路面的高度相应地被拉长,也不会影响三维物体的检测处理。因而,根据本例的方法,能够提高三维物体的检测精度。
另外,在本例中,求出铅垂虚拟线附近的大致相同高度的两个点的亮度差。具体地说,根据在实际空间中处于大致相同高度的关注线La上的关注点Pa和参照线Lr上的参照点Pr求出亮度差,因此能够明确地检测出存在在铅垂方向延伸的边缘的情况下的亮度差。
并且,在本例中,根据关注线La上的关注点Pa与参照线Lr上的参照点Pr的亮度差来对关注点Pa赋予属性,根据沿着关注线La的属性的连续性c来判断该关注线La是否为边缘线,因此能够将亮度高的区域与亮度低的区域的边界检测为边缘线,从而能够按照人的自然的感觉进行边缘检测。详细地说明该效果。图19是表示对边缘线检测部36的处理进行说明的图像例的图。该图像例是表示亮度高的区域和亮度低的区域反复的条纹图案的第一条纹图案101与表示亮度低的区域和亮度高的区域反复的条纹图案的第二条纹图案102相邻的图像。另外,该图像例为第一条纹图案101的亮度高的区域与第二条纹图案102的亮度低的区域相邻,并且第一条纹图案101的亮度低的区域与第二条纹图案102的亮度高的区域相邻。位于该第一条纹图案101与第二条纹图案102的边界的部位103根据人的感觉而倾向于不认为是边缘。
与此相对地,由于亮度低的区域与亮度高的区域相邻,因此如果仅依据亮度差检测边缘,则导致该部位103被识别为边缘。但是,边缘线检测部36除了部位103处的亮度差以外,仅在该亮度差的属性存在连续性的情况下将部位103判断为边缘线,因此边缘线检测部36能够抑制将以人的感觉不识别为边缘线的部位103识别为边缘线的错误判断,从而能够按照人的感觉进行边缘检测。
并且,在本例中,在由边缘线检测部36检测出的边缘线的亮度变化大于规定的阈值的情况下,判断为该边缘线是由于错误判断而检测出的边缘线。在将由摄像机10获取到的摄像图像变换为鸟瞰视点图像的情况下,存在该摄像图像中包含的三维物体以被拉长的状态出现在鸟瞰视点图像中的倾向。例如上述那样在其它车辆VX的轮胎被拉长的情况下,由于轮胎这一个部位被拉长,因此形成被拉长的方向上的鸟瞰视点图像的亮度变化小的倾向。对于此,如果将描绘在路面上的文字等错误判断为边缘线,则在鸟瞰视点图像中混合包含文字部分这样的亮度高的区域和路面部分这样的亮度低的区域。在这种情况下,在鸟瞰视点图像中,被拉长的方向的亮度变化有变大的倾向。因而,通过如本例那样判断沿着边缘线的鸟瞰视点图像的亮度变化,能够识别出由于错误判断而检测出的边缘线,从而能够提高三维物体的检测精度。
<三维物体的最终判断>
返回图3,本例的三维物体检测装置1具备上述的两个三维物体检测部33(或三维物体检测部37)、三维物体判断部34、镜头状态判断部38、检测区域设定部41以及控制部39。三维物体判断部34基于三维物体检测部33(或三维物体检测部37)的检测结果,最终判断所检测出的三维物体是否为在检测区域A1、A2中的其它车辆VX。在由检测区域设定部41设定了变更位置而得到的第二检测区域A12、A22的情况下,判断在变更后的该第二检测区域A12、A22是否有其它车辆VX。另外,本实施方式的三维物体检测装置1的控制部39基于由检测区域设定部41变更位置而得到的第二检测区域A12、A22和原来的第一检测区域A11、A21的检测结果,来控制三维物体检测部33(或三维物体检测部37)和/或三维物体判断部34的处理内容。
在此,具体说明本实施方式的检测区域设定部41的处理。在由镜头状态判断部38判断为镜头11是润湿的状态的情况下,本实施方式的检测区域设定部41在与原来的第一检测区域A11、A21不同的位置设定第二检测区域A12、A22。
首先,说明判断镜头11的状态的镜头状态判断部38。
本实施方式的镜头状态判断部38检测镜头11由于雨滴、清洗液而润湿的状态。具体地说,镜头状态判断部38基于从雨滴传感器50、雨刷60以及导航装置70的装置中的任一个以上的装置获取到的信息,判断降雨状态,检测本车辆V的车身外侧、尤其是摄像机10的镜头11上附着有雨滴的状态,进一步检测附着于镜头11的雨滴的量(降雨量)。另外,镜头状态判断部38具备供给清洗液的泵和向镜头11上喷射所供给的该清洗液的喷嘴,以按照规定的镜头清洗工序的规定的定时向镜头11上喷射清洗液来清洗摄像机10的镜头11的镜头清洗装置80基于在清洗处理工序中向镜头11上喷射清洗液的定时,检测镜头11上附着有清洗液的状态,进一步检测附着于镜头11的清洗液的量。
本实施方式中的雨滴传感器50具备:台,雨滴能够附着在该台上,该台由玻璃等具备透光性的材质构成;发光部,其向该台照射红外光;以及受光部,其接受从发光部照射出的光的反射光。在台的露出面上没有附着雨滴的情况下,发光部所照射的光在台(玻璃)的表面发生全反射,因此受光部接受与照射光大致相同强度的反射光。另一方面,在台的露出面上附着有雨滴的情况下,发光部所照射的光通过附着于台(玻璃)上的雨滴而透射到外部,因此受光部接受与照射光相比强度衰减了的反射光。通过将发光部照射的照射光与受光部接受的反射光进行比较,能够判断在台的露出面(一个主表面)是否附着有雨滴。另外,根据照射光的衰减量判断雨滴量。与雨滴的有无和雨滴的量有关的信息被发送到后述的计算机30的镜头状态判断部38。此外,雨滴传感器50的结构不限定于此,能够适当地利用申请时已知的其它的雨滴传感器50。镜头状态判断部38基于雨滴传感器50的输出结果(雨滴的有无、规定量以上的雨滴的存在),判断镜头11是否为润湿状态。
雨刷60是去除附着于本车辆V的前玻璃、后玻璃的雨滴的装置。与手动、自动的设定无关地,雨滴的附着量越多,雨刷60的雨滴去除动作的频率越高。利用该情形,雨刷60的驱动频率(驱动强度)越高,能够判断为雨滴的量越多(降雨量越多),雨刷60的驱动频率(驱动强度)越低,能够判断为雨滴的量越少(降雨量越少)。镜头状态判断部38根据雨刷60的动作信息(正在进行动作的意思的信息、规定量以上的驱动频率的动作)判断镜头11是否为润湿状态。
导航装置70具备与外部进行信息的传送和接收的通信装置71,与在申请时已知的一般的导航装置同样地,不只是路径搜索,还作为从信息提供服务器提供包括与位置信息对应的含有降雨信息的天气信息的各种信息的提供装置发挥功能。获取的降雨信息包含降雨的有无和降雨量的多少。导航装置70利用GPS装置72检测本车辆V的当前位置,获取当前位置的包含降雨信息的天气信息。由此,关于降雨(雨滴附着)的有无、降雨量的多少,能够从外部获取信息。
镜头清洗装置80具备供给清洗液的泵和向镜头11上喷射所供给的该清洗液的喷嘴,以按照规定的镜头清洗工序的规定的定时向镜头11上喷射清洗液来清洗摄像机10的镜头11。在该镜头清洗工序中,镜头清洗装置80按照镜头清洗工序清洗镜头11的表面,该镜头清洗工序包括以下工序:“镜头润湿工序A”,为了使镜头11的表面润湿而向镜头11滴下清洗液W;“第一空气吹送工序B”,为了使滴下的清洗液遍布于镜头11的整个表面,而以规定间隔多次地向镜头11断续地吹送气体;“清洗工序C”,向镜头11吹送清洗液W来冲洗掉镜头11表面的脏污;以及“第二空气吹送工序D”,使清洗液W蒸发来使镜头11的表面干燥。镜头状态判断部38参照镜头清洗工序,根据镜头清洗工序开始后的经过时间,在执行向镜头11滴下清洗液的“镜头润湿工序A”以及向镜头11吹送清洗液的“清洗工序C”的期间判断为镜头11润湿。
如以上那样,镜头状态判断部38根据从雨滴传感器50、雨刷60、导航装置70、或者镜头清洗装置80获取到的信息,判断镜头11是否润湿,将其结果输出到检知区域设定部41。
在由镜头状态判断部38判断为镜头11是润湿的状态的情况下,检测区域设定部41将之前被设定为检测区域A1、A2的第一检测区域A11、A21以去除与本车辆V所行驶的车道相邻的邻近车道的白线中的靠本车辆V的行车道侧的白线的显示区域的方式来变更位置,将第二检测区域A12、A22设定为检测区域A1、A2。
另外,当水、清洗液等液体附着于镜头11而镜头11处于润湿状态时,通过镜头11成像的像变形。图20示出通过润湿的镜头11获取到的图像信息K的一例。顺便提及,图20的下侧的影像是车牌LP的像,上侧的淡墨的部分是摄像机10的外壳C的像。车牌LP与外壳C之间的区域的图像随着本车辆V的移动而时时刻刻发生变化。如图20所示,车牌LP与外壳C之间的区域的图像信息K包含本车辆V所行驶的道路的路面RD的像和在该路面RD之上扩展的后方的天空SK的像。
当使用如图20所示那样的通过润湿的镜头11拍摄得到的图像信息K进行图像变换处理时,受到覆盖镜头11的水膜的影响,有时平面物体的边缘具备三维物体的边缘的特征。当基于这样的图像信息来通过上述的方法计算差分波形信息或边缘信息并进行三维物体检测处理时,存在将道路的白线(行驶车道标识)那样的平面物体错误识别为其它车辆VX等三维物体的像的情况。
具体地说,如图21的左侧的图所示,利用未润湿的镜头11拍摄描绘有白线Q1的检知区域A1a,当基于该摄像图像求出差分波形信息(边缘信息)时,如G1a那样未抽出作为平面物体的白线Q1的特征。另一方面,如图21的右侧的图所示,当利用润湿的镜头11拍摄描绘有白线Q2的检测区域A1b时,白线Q2变形,因此当基于该摄像图像求出差分波形信息(边缘信息)时,尽管拍摄到的对象物只是平面物体,但是存在如G1b那样三维物体的特征Z被抽出的情况。当根据该抽出结果进行三维物体检测处理时,有时导致根据白线的像导出为其它车辆VX的检测结果。
为了预先防止这样的错误检测,本实施方式的三维物体检测装置1在检测出镜头11润湿的状态的情况下,在与默认的第一检测区域A11、A21不同的位置设定第二检测区域A12、A22。通过变更位置将该第二检测区域A12、A22设定为不包含与车辆V所行驶的车道相邻的邻近车道的白线中的靠本车辆V的行车道侧的白线的显示区域,因此能够排除通过润湿的镜头11拍摄到的变形的白线图像的影响。其结果,能够提供一种防止由于镜头11润湿而检测结果的精度下降从而高精度地检测行驶于检测区域的其它车辆的三维物体检测装置1。
下面,根据图22~图25说明第二检测区域A12、A22的具体的设定方法。
图22表示之前被设定为检测区域A1、A2的第一检测区域A11、A21。第一检测区域A11、A21被设定在包含行驶于作为邻近车道的行驶车道的其它车辆VX和表示作为邻近车道的行驶车道的位置的白线的位置。第一检测区域A11、A21的位置能够定义为进行正常的处理的位置(默认位置)。
如图23所示,在通过镜头状态判断部38判断为镜头11是润湿的状态的情况下,本实施方式的检测区域设定部41将之前被设定为检测区域A1、A2的第一检测区域A11、A21变更到从通过摄像机10的设置位置且沿着本车辆V的车长方向y的基准线P离开第一规定距离W1的位置,在变更后的位置设定第二检测区域A12、A22作为新的检测区域A1、A2。像这样通过使第一检测区域A11、A21从本车辆V的行车道的中央向左右两侧离开距离W1,能够使得在第二检测区域A12、A22内不包含与车辆所行驶的车道相邻的邻近车道的行驶车道标识中的靠车辆V的行车道侧的行驶车道标识(白线)的显示区域,因此能够排除通过润湿的镜头11拍摄到的变形的白线图像的影响。在其它车辆VX存在于检测对象区域A1、A2时,主要只拍摄到行驶车道标识中的靠车辆V的行车道侧的行驶车道标识(白线)。因此,在本实施方式中,通过变更位置将第二检测区域A12、A22设定成不包含(去除)与车辆所行驶的车道相邻的邻近车道的行驶车道标识中的靠车辆V的行车道侧的行驶车道标识(白线)的显示区域。
如图24所示,在由镜头状态判断部38判断为镜头11是润湿的状态的情况下,本实施方式的检测区域设定部41将第二检测区域A12、A22的位置变更到使之前被设定为检测区域A1、A2的第一检测区域A11、A21中的从通过摄像机10的设置位置且沿着本车辆V的车长方向y的基准线P起小于第二规定距离W2的区域A13、A23缺损得到的区域并设定为新的检测区域A1、A2。像这样通过从检测区域除去第一检测区域A11、A21中的从本车辆V的行车道的中央起左右两侧的小于距离W2的区域,能够使得在第二检测区域A12、A22内不包含邻近车道的白线(行驶车道标识),因此能够排除通过润湿的镜头11拍摄到的变形的白线图像的影响。
如图25所示,在由镜头状态判断部38判断为镜头11是润湿的状态的情况下,本实施方式的检测区域设定部41将之前被设定为检测区域A1、A2的第一检测区域A11、A21中的从通过摄像机10的设置位置且沿着本车辆V的车长方向y的基准线P起小于第三规定距离W3的区域A14、A24被遮蔽(去除)而得到的第二检测区域A12、A22设定为新的检测区域A1、A2。通过这样(进行遮蔽)以使第一检测区域A11、A21中的从本车辆V的行车道的中央起左右两侧的小于距离W3的区域不作为检测区域发挥功能,由此能够使得在第二检测区域A12、A22内检测不到邻近车道的白线(行驶车道标识),因此能够排除通过润湿的镜头11拍摄到的变形的白线图像的影响。
可以预先设定规定距离W1~W4并存储到计算机30,也可以与各道路信息(各位置信息)相对应地预先存储到导航装置70所存储的地图信息中,基于由导航装置70的GPS检测出的位置信息,依次读出与该位置信息所属的各道路信息相对应的规定距离W1~W4。各规定距离可以是相同的距离也可以是不同的距离。在白线(行驶车道幅)为15cm左右的情况下,规定距离W1~W4能够设为25cm~300cm左右。
本实施方式的检测区域设定部41基于摄像机10拍摄到的图像来检测在道路上显示有白线(行驶车道标识)的显示区域,在由镜头状态判断部38判断为镜头11是润湿的状态的情况下,通过以之前被设定为检测区域A1、A2的第一检测区域A11、A21中的该显示区域被去除(不包含显示区域)的方式来变更位置,从而将第二检测区域A12、A22设为新的检测区域A1、A2。通过这样去除第一检测区域A11、A21中的白线的显示区域,能够使得在第二检测区域A12、A22内检测不到邻近车道的白线(行驶车道标识),因此能够排除通过润湿的镜头11拍摄到的变形的白线图像的影响。此外,识别路面上所包含的白线并抽出包含所识别出的白线的区域的方法不特别地限定,能够适当地应用在申请时已知的图像处理方法。
另外,在白线(行驶车道标识)的对比度高的摄像环境中,根据作为平面物体的白线的像抽出三维物体的像的特征的倾向变高。在这样的状况中,优选使得邻近车道的白线的标识不被包含在检测区域A1、A2中。因此,本实施方式的检测区域设定部41基于摄像机10拍摄到的图像计算道路上所显示的白线的对比度的高低,在计算出的白线的对比度的高低为规定阈值以上的情况下,将第二检测区域A12、A22设定为新的检测区域A1、A2。这样,在白线(行驶车道标识)的对比度高的情况下,设定成以检测不到邻近车道的白线(行驶车道标识)的方式设定的第二检测区域A12、A22,因此能够排除通过润湿的镜头11拍摄到的变形的白线图像的影响。
另外,在当根据上述的各方法使第一检测区域A11、A21从基准线P向外侧大幅移动时在检测区域A1、A2不存在其它车辆VX的情况下,有时邻近车道的外侧的白线(行驶车道标识)被包含在检测区域A1、A2中。在这种情况下,当镜头11润湿时,有时邻近车道的外侧的白线被拍摄得变形而成为错误检测的原因。因此,如图26所示,在判断为第二检测区域A12、A22与第一检测区域A11、A21的距离ΔW(W1-W0)为规定值以上的情况下,本实施方式的检测区域设定部41将以去除所设定的第二检测区域A12、A22中的从通过摄像机10的设置位置且沿着本车辆V的车长方向y的基准线P离开第四规定距离W4以上的区域A25的方式而使区域A25缺损或进行遮蔽得到的第二检测区域A12、A22设定为新的检测区域A1、A2。这样,在第二检测区域A12、A22与第一检测区域A11、A21的距离ΔW(W1-W0)为规定值以上的情况下,设定成以检测不到邻近车道的外侧的(距本车辆V的行车道较远的)白线(行驶车道标识)的方式设定的第二检测区域A12、A22,因此能够排除通过润湿的镜头11拍摄到的变形的白线图像的影响。
下面,说明本实施方式的三维物体检测装置1的控制部39。本实施方式的控制部39随着由检测区域设定部41设定的第二检测区域A12、A22与第一检测区域A11、A21的距离变大,抑制由三维物体检测部33、37检测出的三维物体被三维物体判断单元34判断为是存在于右侧检测区域A1或左侧检测区域A2的其它车辆VX。
默认的检测区域A1、A2(第一检测区域A11、A21)在通常时适当地设定在能够检测其它车辆VX的位置处,因此当变更检测区域A1、A2而以与通常相同的条件、方法检测三维物体时,有时错误检测出其它车辆VX。因此,在本实施方式中,随着第二检测区域A12、A22与第一检测区域A11、A21的距离变大,将与生成差分波形信息时的像素值的差分有关的阈值变高使得抑制对其它车辆VX的检测(不容易检测出)。
图27示出在其它车辆VX的检测处理中使用的各阈值和第二检测区域A12、A22与第一检测区域A11、A21的距离ΔW之间的关系的一例。如图27所示,ΔW越增加,各阈值被设定得越高。这样,随着第二检测区域A12、A22与第一检测区域A11、A21的距离ΔW(W1-W0)变大,抑制检测出三维物体、抑制所检测出的三维物体被判断为是其它车辆VX,因此能够防止由于使检测区域A1、A2移动而产生的错误检测。
另外,本实施方式的控制部39能够向三维物体检测部33输出如下控制命令:随着第二检测区域A12、A22与第一检测区域A11、A21的距离变大而将在鸟瞰视点图像的差分图像上对示出规定的差分的像素数进行计数并进行频数分布化得到的值输出得低。在鸟瞰视点图像的差分图像上对示出规定的差分的像素数进行计数并进行频数分布化得到的值是指在图11的步骤S5中生成的差分波形DWt的纵轴的值。这样,通过降低输出值,调整检测灵敏度使得不容易检测出行驶于本车辆V的行车道附近的其它车辆VX,因此能够防止错误检测出其它车辆VX。
接着,说明基于边缘信息检测三维物体的情况下的控制命令。本实施方式的控制部39向三维物体检测部37输出如下控制命令:随着第二检测区域A12、A22与第一检测区域A11、A21的距离变大而将与在检测边缘信息时使用的亮度有关的规定阈值提高。与在检测边缘信息时使用的亮度有关的规定阈值是指图17的步骤S29中的用于判断对各关注点Pa的属性的连续性c的总和进行标准化得到的值的阈值θ、或者图18的步骤34中的用于评价边缘线的量的第二阈值β。这样,通过将判断的阈值变高,调整检测灵敏度使得不容易检测出行驶于本车辆V的行车道附近的其它车辆VX,因此能够防止错误检测出其它车辆VX。
另外,本实施方式的控制部39向三维物体检测部37输出如下控制命令:随着第二检测区域A12、A22与第一检测区域A11、A21的距离变大而将所检测出的边缘信息的量输出得低。所检测出的边缘信息的量是指图17的步骤S29中的对各关注点Pa的属性的连续性c的总和进行标准化得到的值、或者图18的步骤34中的边缘线的量。这样,通过降低输出值,通过减小输出值来调整检测灵敏度使得不容易检测出行驶于本车辆V的行车道附近的其它车辆VX,因此能够防止错误检测出其它车辆VX。
另外,在判断为所设定的第二检测区域A12、A22与第一检测区域A11、A21的距离ΔW为规定值以上的情况下,本实施方式的检测区域设定部38变更位置,在所设定的第二检测区域A12、A22中的从通过摄像机10的设置位置且沿着车辆的车长方向y的基准线P离开第五规定距离W5以上的区域设定第三检测区域A25(引用图26)。而且,控制部39抑制根据基于与该第三检测区域A25对应的图像的信息而检测的三维物体被判断为是其它车辆VX。具体地说,在基于与第三检测区域A25对应的图像检测三维物体并判断检测出的三维物体是否为其它车辆VX的处理中,将应用的第一阈值α、第二阈值β、θ变高。
这样,在第二检测区域A12、A22与第一检测区域A11、A21的距离ΔW(W1-W0)大的情况下,抑制根据与从沿着车辆的车长方向y的基准线P离开第五规定距离W5以上的区域对应的图像信息检测出三维物体、抑制判断为所检测出的三维物体是其它车辆VX,因此能够防止由于使检测区域A1、A2移动而产生的错误检测。
图28是本实施方式所涉及的三维物体检测装置1的控制过程。
在步骤S41中,镜头状态判断单元38基于从雨滴传感器50、雨刷60、导航装置70、或镜头清洗装置80获取到的各种信息判断镜头11是否为润湿的状态。如果镜头11不是润湿状态则进入步骤S42,将默认的第一检测区域A11、A21设定为检测区域A1、A2。另一方面,在判断为镜头11是润湿状态的情况下进入步骤S43。
在步骤S43中,检测区域设定部41判断作为白线而检测出的像的边缘内外的亮度差即对比度是否为规定值以上,如果对比度小于规定值则进入步骤S42,将默认的第一检测区域A11、A21设定为检测区域A1、A2。另一方面,如果对比度为规定值以上则进入步骤S44,设定位置变更后的新的第二检测区域A12、A22。检测区域设定部41通过之前记述的多个设定方法中的任一个方法设定新的第二检测区域A12、A22。
在步骤S45中,在新的第二检测区域A12、A22的设定位置相对于默认的第一检测区域A11、A21的设定位置的偏移量ΔW不为规定值以上的情况下,进入步骤S46,随着偏移量ΔW变大,控制部39将在三维物体的检测以及其它车辆判断中应用的第一阈值α、阈值θ、第二阈值β等各阈值中的任一个设定得高以抑制对三维物体的检测。在根据新的第二检测区域A12、A22获取到的图像信息的处理中应用被设定得高的该阈值。
在步骤S45中,在新的第二检测区域A12、A22的设定位置相对于默认的第一检测区域A11、A21的设定位置的偏移量ΔW为规定值以上的情况下,进入步骤S47,检测区域设定部41设定从沿着本车辆V的车长方向y的基准线P离开第五规定距离W5以上的第三检测区域A25(参照图26)。而且,控制部39抑制根据基于与该第三检测区域A25对应的图像的信息而检测出的三维物体被判断为是其它车辆VX。也就是说,将在对与第三检测区域A25对应的图像进行处理时应用的第一阈值α、阈值θ、第二阈值β等各阈值中的任一个设定得高。
为了抑制由三维物体检测部33、37检测出三维物体或由三维物体判断部37判断为三维物体是其它车辆,控制部39将在各处理中使用的各阈值变得高于初始值、标准值及其它设定值(使得不容易检测出),或者将与各阈值进行比较的输出值变得低于初始值、标准值及其它设定值(使得不容易检测出)。
具体的处理内容如下。
在利用差分波形信息检测三维物体的三维物体检测部33在差分波形信息为规定的第一阈值α以上时检测出三维物体的情况下,控制部39生成将第一阈值α变高使得不容易检测出三维物体的控制命令,将该控制命令输出到三维物体检测部33。
同样地,在三维物体检测部33在差分波形信息为规定的第一阈值α以上时检测出三维物体的情况下,控制部39生成将在鸟瞰视点图像的差分图像上对示出规定的差分的像素数进行计数并进行频数分布化得到的值变低并输出的控制命令,将该控制命令输出到三维物体检测部38。
另外,使用差分波形信息检测三维物体的三维物体检测部33在抽出表示阈值p以上的像素值的像素数作为示出规定的差分的像素数的情况下,控制部39生成将阈值p变高使得不容易检测出三维物体的控制命令,将该控制命令输出到三维物体检测手部38。
同样地,三维物体检测部33在抽出表示阈值p以上的像素值的像素数作为示出规定的差分的像素数的情况下,控制部39生成将沿着在视点变换为鸟瞰视点图像时三维物体倾倒的方向在差分图像上抽出的像素数变低并输出的控制命令,将该控制命令输出到三维物体检测部38。
在使用边缘信息检测三维物体的三维物体检测部37在基于表示规定阈值t以上的亮度差的像素抽出边缘线的情况下,控制部39生成将规定阈值t变高使得不容易检测出三维物体的控制命令,将该控制命令输出到三维物体检测部37。
同样地,在使用边缘信息检测三维物体的三维物体检测部37基于表示规定阈值t以上的亮度差的像素抽出边缘线的情况下,控制部39生成将像素的亮度值变低并输出的控制命令,将该控制命令输出到三维物体检测部37。
在使用边缘信息检测三维物体的三维物体检测部37基于边缘信息中包含的具有阈值θ以上的长度的边缘线检测三维物体的情况下,控制部39生成将阈值θ变高使得不容易检测出三维物体的控制命令,将该控制命令输出到三维物体检测部37。
同样地,在使用边缘信息检测三维物体的三维物体检测部37基于边缘信息中包含的具有阈值θ以上的长度的边缘线检测三维物体的情况下,控制部39生成将所检测出的边缘信息的边缘线的长度的值变低并输出的控制命令,将该控制命令输出到三维物体检测部37。
在使用边缘信息检测三维物体的三维物体检测部37基于边缘信息中包含的规定长度以上的边缘线、例如具有阈值θ以上的长度的边缘线的条数是否为第二阈值β以上的判断来检测三维物体的情况下,控制部39生成将第二阈值β变高使得不容易检测三维物体的控制命令,并将该控制命令输出到三维物体检测部37。
在使用边缘信息检测三维物体的三维物体检测部37基于边缘信息中包含的规定长度以上的边缘线、例如具有阈值θ以上的长度的边缘线的条数是否为第二阈值β以上的判断来检测三维物体的情况下,控制部39生成将所检测出的规定长度以上的边缘线条数输出得低的控制命令,并将该控制命令输出到三维物体检测部37。
另外,三维物体判断部34在所检测出的三维物体的移动速度为预先设定的规定速度以上时将该三维物体判断为是其它车辆的情况下,控制部39生成使将三维物体判断为是其它车辆时的作为下限的规定速度变高使得不容易检测出三维物体的控制命令,并将该控制命令输出到三维物体判断部34。
同样地,三维物体判断部34在所检测出的三维物体的移动速度为预先设定的规定速度以上时将该三维物体判断为是其它车辆的情况下,控制部39生成使与将三维物体判断为是其它车辆时的作为下限的规定速度进行比较的三维物体的移动速度变低并输出的控制命令,并将该控制命令输出到三维物体判断部34。
另外,三维物体判断部34在所检测出的三维物体的移动速度小于预先设定的规定速度时将该三维物体判断为是其它车辆的情况下,控制部39生成使将三维物体判断为是其它车辆时的作为上限的规定速度变低的控制命令,并将该控制命令输出到三维物体判断部34。
同样地,三维物体判断部34在所检测出的三维物体的移动速度小于预先设定的规定速度时将该三维物体判断为是其它车辆的情况下,控制部39生成使与将三维物体判断为是其它车辆时的作为上限的规定速度进行比较的三维物体的移动速度变高的控制命令,并将该控制命令输出到三维物体判断部34。
此外,在此,“移动速度”包含三维物体的绝对速度以及三维物体相对于本车辆的相对速度。可以根据三维物体的相对速度计算三维物体的绝对速度,也可以根据三维物体的绝对速度计算三维物体的相对速度。
顺便提及,第一阈值α是在图11的步骤S7中用于判断差分波形DWt的峰值的阈值。阈值p是用于抽出具有规定的像素值的像素的阈值。规定阈值t是用于抽出具有规定的亮度差的像素或边缘成分的阈值。阈值θ是对图17的步骤S29中的将各关注点Pa的属性的连续性c的总和标准化得到的值(边缘的长度)进行判断的阈值,第二阈值β是图18的步骤34中的对边缘线的量(条数)进行评价的阈值。这样,通过将判断的阈值变高,来调整检测灵敏度使得不容易检测出行驶于本车辆V的行驶车道附近的其它车辆VX,因此能够防止对其它车辆VX的错误检测。
本实施方式的控制部39向三维物体检测部33输出将在鸟瞰视点图像的差分图像上对示出规定的差分的像素数进行计数并进行频数分布化得到的值输出得低的控制命令。在鸟瞰视点图像的差分图像上对示出规定的差分的像素数进行计数并进行频数分布化得到的值是指在图11的步骤S5中生成的差分波形DWt的纵轴的值。另外,本实施方式的控制部39向三维物体检测部37输出将所检测出的边缘信息输出得低的控制命令。所检测出的边缘信息除了是图17的步骤S29中的对各关注点Pa的属性的连续性c的总和进行标准化得到的值即边缘线的长度以外,还是图18的步骤34中的边缘线的量。控制部39将对各关注点Pa的属性的连续性c的总和进行标准化得到的值或边缘线的量变低使得在下一次的处理中不容易检测出三维物体。这样,能够通过降低输出值来调整检测灵敏度使得不容易检测出行驶于本车辆V的行驶车道附近的其它车辆VX,因此能够防止对行驶于相邻的车道的其它车辆VX的错误检测。
设定了第二检测区域A12、A22并设定了各阈值后,进入步骤S48,进行三维物体的检测处理。依照上述的三维物体检测部33使用图11、图12的差分波形信息的处理、或者三维物体检测部37使用图17、图18的边缘信息的处理进行该三维物体的检测处理。然后,在步骤43中由该三维物体检测部33、37在检测区域A1、A2中检测出三维物体的情况下进入步骤S49,判断为所检测出的三维物体是其它车辆VX。另一方面,在由三维物体检测部33、37在检测区域A1、A2没有检测出三维物体的情况下进入步骤S51,判断为在检测区域A1、A2不存在其它车辆VX。
根据如以上那样构成并发挥作用的本发明的本实施方式的三维物体检测装置1,起到下面的效果。
(1)根据本实施方式的三维物体检测装置1,在检测出镜头11润湿的状态的情况下,设定与默认的第一检测区域A11、A21不同的第二检测区域A12、A22。由于该第二检测区域A12、A22被设定在不包含与车辆V所行驶的车道相邻的邻近车道的白线中的靠本车辆V的行车道侧的白线的显示区域的位置处,因此能够排除通过润湿的镜头11拍摄到的变形的白线图像的影响。其结果,能够提供一种防止由于镜头11润湿而检测结果的精度下降从而高精度地检测行驶于检测区域的其它车辆的三维物体检测装置1。无论在基于差分波形信息检测其它车辆VX的情况下还是在基于边缘信息检测其它车辆VX的情况下都同样地起到该效果。
(2)根据本实施方式的三维物体检测装置1,通过使第一检测区域A11、A21从本车辆V的行车道的中央向左右两侧离开距离W1,能够使得在第二检测区域A12、A22内不包含邻近车道的白线(行驶车道标识),因此能够排除通过润湿的镜头11拍摄到的变形的白线图像的影响。
(3)根据本实施方式的三维物体检测装置1,通过从检测区域中除去第一检测区域A11、A21中的从本车辆V的行车道的中央起左右两侧的小于距离W2的区域,能够使得在第二检测区域A12、A22内不包含邻近车道的白线(行驶车道标识),因此能够排除通过润湿的镜头11拍摄到的变形的白线图像的影响。
(4)根据本实施方式的三维物体检测装置1,通过使第一检测区域A11、A21中的从本车辆V的行车道的中央起左右两侧的小于距离W3的区域不作为检测区域发挥功能(进行遮蔽),能够使得在第二检测区域A12、A22内检测不到邻近车道的白线(行驶车道标识),因此能够排除通过润湿的镜头11拍摄到的变形的白线图像的影响。
(5)根据本实施方式的三维物体检测装置1,通过去除第一检测区域A11、A21中的白线的显示区域,能够使得在第二检测区域A12、A22内检测不到邻近车道的白线(行驶车道标识),因此能够排除通过润湿的镜头11拍摄到的变形的白线图像的影响。
(6)在白线(行驶车道标识)的对比度表现得高的状况中,因变形的白线图像而产生错误检测的可能性高。根据本实施方式的三维物体检测装置1,在白线(行驶车道标识)的对比度高的情况下,设定成以检测不到邻近车道的白线(行驶车道标识)的方式设定的第二检测区域A12、A22,因此能够排除通过润湿的镜头11拍摄到的变形的白线图像的影响。
(7)根据本实施方式的三维物体检测装置1,在第二检测区域A12、A22与第一检测区域A11、A21的距离ΔW(W1-W0)为规定值以上的情况下,设定成以检测不到邻近车道的外侧的(距本车辆V的行车道较远的)白线(行驶车道标识)的方式设定的第二检测区域A12、A22,因此能够排除通过润湿的镜头11拍摄到的变形的白线图像的影响。
(8)根据本实施方式的三维物体检测装置1,随着第二检测区域A12、A22与第一检测区域A11、A21的距离ΔW(W1-W0)变大,抑制检测出三维物体、抑制所检测出的三维物体被判断为是其它车辆VX,因此能够防止由于使检测区域A1、A2移动而产生的错误检测。
(9)根据本实施方式的三维物体检测装置1,在第二检测区域A12、A22与第一检测区域A11、A21的距离ΔW(W1-W0)大的情况下,抑制根据与从沿着车辆的车长方向y的基准线P离开第五规定距离W5以上的区域对应的图像信息检测出三维物体,抑制判断为所检测出的三维物体是其它车辆VX,因此能够防止由于使检测区域A1、A2移动而产生的错误检测。
上述摄像机10相当于本发明所涉及的摄像单元,上述视点变换部31相当于本发明所涉及的图像变换单元,上述对位部32和三维物体检测部33相当于本发明所涉及的三维物体检测单元,上述亮度差计算部35、边缘线检测部36以及三维物体检测部37相当于本发明所涉及的三维物体检测单元,上述三维物体判断部34相当于三维物体判断单元,上述镜头状态判断部38相当于镜头状态判断单元,上述检测区域设定部41相当于检测区域设定单元,上述车速传感器20相当于车速传感器。
本实施方式中的对位部21将不同时刻的鸟瞰视点图像的位置以鸟瞰视点进行对位,得到对位后的该鸟瞰视点图像,但是能够以与检测对象的类型、所要求的检测精度相应的精度进行该“对位”处理。可以是以同一时刻和同一位置为基准进行对位的严格的对位处理,也可以是掌握各鸟瞰视点图像的坐标这样的程度的缓和的对位处理。
附图标记说明
1:三维物体检测装置;10:摄像机;11:镜头清洗装置;20:车速传感器;30:计算机;31:视点变换部;32:对位部;33、37:三维物体检测部;34:三维物体判断部;35:亮度差计算部;36:边缘检测部;38:镜头状态判断部;39:控制部;40:拖影检测部;41:检测区域设定部;50:雨滴传感器;60:雨刷;70:导航装置;80:镜头清洗装置;a:视角;A1、A2:检测区域;CP:交点;DP:差分像素;DWt、DWt’:差分波形;DWt1~DWm、DWm+k~DWtn:小区域;L1、L2:触地线;La、Lb:三维物体倾倒的方向上的线;P:摄像图像;PBt:鸟瞰视点图像;PDt:差分图像;MP:掩模图像;S:拖影;SP:拖影图像;SBt:拖影鸟瞰视点图像;V:本车辆;VX:其它车辆。
Claims (14)
1.一种三维物体检测装置,其特征在于,具备:
摄像单元,其具备使车辆后方的影像成像的镜头;
检测区域设定单元,其在上述车辆后方设定检测区域;
三维物体检测单元,其基于由上述摄像单元获取到的图像,检测存在于上述检测区域的三维物体;以及
镜头状态判断单元,其检测上述镜头是否为润湿的状态,
其中,在由上述镜头状态判断单元判断为上述镜头是润湿的状态的情况下,上述检测区域设定单元使之前被设定作为上述检测区域的第一检测区域变更为将与上述车辆所行驶的车道相邻的邻近车道的行驶车道标识中的靠上述车辆的行车道侧的行驶车道标识的显示区域去除而得到的第二检测区域。
2.根据权利要求1所述的三维物体检测装置,其特征在于,还具备:
图像变换单元,其将由上述摄像单元获得的图像视点变换为鸟瞰视点图像;以及
三维物体判断单元,其判断由上述三维物体检测单元检测出的三维物体是否为其它车辆,
其中,上述检测区域设定单元在上述车辆后方的右侧和左侧分别设定检测区域,
上述三维物体检测单元将由上述图像变换单元获得的不同时刻的鸟瞰视点图像的位置以鸟瞰视点进行对位,在该对位后的鸟瞰视点图像的差分图像上沿着视点变换为上述鸟瞰视点图像时三维物体倾倒的方向在上述差分图像上对示出规定的差分的像素数进行计数并进行频数分布化,由此生成差分波形信息,基于该差分波形信息检测存在于上述检测区域的三维物体,
上述三维物体判断单元判断由上述三维物体检测单元检测出的三维物体是否为存在于上述右侧检测区域或左侧检测区域的其它车辆。
3.根据权利要求1所述的三维物体检测装置,其特征在于,还具备:
图像变换单元,其将由上述摄像单元获得的图像视点变换为鸟瞰视点图像;以及
三维物体判断单元,其判断由上述三维物体检测单元检测出的三维物体是否为其它车辆,
上述检测区域设定单元在上述车辆后方的右侧和左侧分别设定检测区域,
上述三维物体检测单元在由上述图像变换单元获得的鸟瞰视点图像上沿着在视点变换为鸟瞰视点图像时三维物体倾倒的方向检测相邻的图像区域的亮度差为规定阈值以上的边缘信息,基于该边缘信息检测三维物体,
上述三维物体判断单元判断由上述三维物体检测单元检测出的三维物体是否为存在于上述右侧检测区域或左侧检测区域的其它车辆。
4.根据权利要求1~3中的任一项所述的三维物体检测装置,其特征在于,
在由上述镜头状态判断单元判断为上述镜头是润湿的状态的情况下,上述检测区域设定单元使之前被设定作为上述检测区域的第一检测区域设定于从基准线离开第一规定距离的位置处,来设定上述第二检测区域作为上述检测区域,其中,该基准线通过上述摄像机的设置位置且沿着上述车辆的车长方向。
5.根据权利要求1~3中的任一项所述的三维物体检测装置,其特征在于,
在由上述镜头状态判断单元判断为上述镜头是润湿的状态的情况下,上述检测区域设定单元将上述第二检测区域设定于使之前被设定作为上述检测区域的第一检测区域中的从基准线起的小于第二规定距离的区域缺损区域而得到的区域,来作为上述检测区域,其中,该基准线通过上述摄像机的设置位置且沿着上述车辆的车长方向。
6.根据权利要求1~3中的任一项所述的三维物体检测装置,其特征在于,
在由上述镜头状态判断单元判断为上述镜头是润湿的状态的情况下,上述检测区域设定单元设定将之前被设定作为上述检测区域的第一检测区域中的从基准线起的小于第三规定距离的区域遮蔽而得到的第二检测区域,来作为上述检测区域,其中,该基准线通过上述摄像机的设置位置且沿着上述车辆的车长方向。
7.根据权利要求1~3中的任一项所述的三维物体检测装置,其特征在于,
上述检测区域设定单元基于上述摄像机所拍摄到的图像,抽出用于对在道路上显示行驶车道标识的区域进行检测的行驶车道标识的显示区域,
在由上述镜头状态判断单元判断为上述镜头是润湿的状态的情况下,设定之前被设定作为上述检测区域的第一检测区域中的、不包含上述显示区域的第二检测区域作为上述检测区域。
8.根据权利要求1~7中的任一项所述的三维物体检测装置,其特征在于,
上述检测区域设定单元基于上述摄像机所拍摄到的图像计算道路上所显示的行驶车道标识的对比度的高低,在计算出的上述行驶车道标识的对比度的高低为规定阈值以上的情况下,设定上述第二检测区域作为上述检测区域。
9.根据权利要求1~8中的任一项所述的三维物体检测装置,其特征在于,
在判断为所设定的上述第二检测区域与上述第一检测区域之间的距离为规定值以上的情况下,上述检测区域设定单元使所设定的第二检测区域中的从基准线离开第四规定距离以上的区域缺损,其中,该基准线通过上述摄像机的设置位置且沿着上述车辆的车长方向。
10.根据权利要求1~9中的任一项所述的三维物体检测装置,其特征在于,
还具备控制单元,该控制单元随着由上述检测区域设定单元设定的上述第二检测区域与上述第一检测区域之间的距离变大,抑制由上述三维物体检测单元检测出的三维物体通过上述三维物体判断单元被判断为是存在于上述右侧检测区域或左侧检测区域的其它车辆。
11.根据权利要求1~9中的任一项所述的三维物体检测装置,其特征在于,
在判断为所设定的上述第二检测区域与上述第一检测区域的距离为规定值以上的情况下,上述检测区域设定单元将第三检测区域设定于所设定的第二检测区域中的从基准线离开第五规定距离以上的区域,其中,该基准线通过上述摄像机的设置位置且沿着上述车辆的车长方向,
还具备控制单元,该控制单元根据基于与上述第三检测区域对应的图像的信息抑制所检测出的上述三维物体被判断为是上述其它车辆。
12.根据权利要求1~11中的任一项所述的三维物体检测装置,其特征在于,
上述镜头状态判断单元基于从搭载于上述车辆的雨滴传感器、雨刷、导航装置以及上述镜头的清洗装置中的任一个以上获取到的信息,判断上述镜头是否为润湿的状态。
13.一种三维物体检测方法,其特征在于,包括以下步骤:
将由摄像单元获得的图像视点变换为鸟瞰视点图像,该摄像单元搭载于车辆并具备使车辆后方的影像成像的镜头;
在上述车辆后方的右侧和左侧分别设定检测区域;
将所获得的不同时刻的上述鸟瞰视点图像的位置以鸟瞰视点进行对位,在该对位后的鸟瞰视点图像的差分图像上沿着视点变换为上述鸟瞰视点图像时三维物体倾倒的方向在上述差分图像上对示出规定的差分的像素数进行计数并进行频数分布化,由此生成差分波形信息,基于该差分波形信息检测存在于上述检测区域的三维物体;
判断所检测出的上述三维物体是否为存在于上述右侧检测区域或左侧检测区域的其它车辆;以及
检测上述镜头是否为润湿的状态,
其中,在设定上述检测区域的步骤中,在判断为上述镜头是润湿的状态的情况下,使之前被设定作为上述检测区域的第一检测区域变更为将与上述车辆所行驶的车道相邻的邻近车道的行驶车道标识中的靠上述车辆的行车道侧的行驶车道标识的显示区域去除而得到的第二检测区域。
14.一种三维物体检测方法,其特征在于,包括以下步骤:
将由摄像单元获得的图像视点变换为鸟瞰视点图像,该摄像单元搭载于车辆并具备使车辆后方的影像成像的镜头;
在上述车辆后方的右侧和左侧分别设定检测区域;
在由上述图像变换单元获得的鸟瞰视点图像上,沿着在视点变换为鸟瞰视点图像时三维物体倾倒的方向检测相邻的图像区域的亮度差为规定阈值以上的边缘信息,基于该边缘信息检测三维物体;
判断所检测出的上述三维物体是否为存在于上述右侧检测区域或左侧检测区域的其它车辆;以及
检测上述镜头是否为润湿的状态,
其中,在设定上述检测区域的步骤中,在判断为上述镜头是润湿的状态的情况下,使之前被设定作为上述检测区域的第一检测区域变更为将与上述车辆所行驶的车道相邻的邻近车道的行驶车道标识中的靠上述车辆的行车道侧的行驶车道标识的显示区域去除而得到的第二检测区域。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012166515 | 2012-07-27 | ||
| JP2012-166515 | 2012-07-27 | ||
| PCT/JP2013/070009 WO2014017520A1 (ja) | 2012-07-27 | 2013-07-24 | 立体物検出装置及び立体物検出方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN104508726A true CN104508726A (zh) | 2015-04-08 |
| CN104508726B CN104508726B (zh) | 2017-05-03 |
Family
ID=49997329
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201380039932.0A Active CN104508726B (zh) | 2012-07-27 | 2013-07-24 | 三维物体检测装置和三维物体检测方法 |
Country Status (10)
| Country | Link |
|---|---|
| US (1) | US9569675B2 (zh) |
| EP (1) | EP2879110B1 (zh) |
| JP (1) | JP5900623B2 (zh) |
| CN (1) | CN104508726B (zh) |
| BR (1) | BR112015001865B1 (zh) |
| IN (1) | IN2015KN00315A (zh) |
| MX (1) | MX341048B (zh) |
| MY (1) | MY155816A (zh) |
| RU (1) | RU2572952C1 (zh) |
| WO (1) | WO2014017520A1 (zh) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN107145817A (zh) * | 2016-03-01 | 2017-09-08 | 福特全球技术公司 | 车辆车道学习 |
| CN107368068A (zh) * | 2016-05-13 | 2017-11-21 | 德尔福技术有限公司 | 用于自动车辆的脱险路径规划系统 |
| CN111582173A (zh) * | 2020-05-08 | 2020-08-25 | 东软睿驰汽车技术(沈阳)有限公司 | 一种自动驾驶的方法及系统 |
| CN116075794A (zh) * | 2020-09-07 | 2023-05-05 | 日立建机株式会社 | 作业机械 |
Families Citing this family (29)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5413516B2 (ja) * | 2010-08-19 | 2014-02-12 | 日産自動車株式会社 | 立体物検出装置及び立体物検出方法 |
| JP5894201B2 (ja) * | 2014-02-14 | 2016-03-23 | 株式会社日本自動車部品総合研究所 | 境界線認識装置 |
| JP6087858B2 (ja) * | 2014-03-24 | 2017-03-01 | 株式会社日本自動車部品総合研究所 | 走行区画線認識装置及び走行区画線認識プログラム |
| JP6260424B2 (ja) * | 2014-04-16 | 2018-01-17 | 株式会社デンソー | 車載カメラの取り付け誤差検出装置 |
| JP5962706B2 (ja) * | 2014-06-04 | 2016-08-03 | トヨタ自動車株式会社 | 運転支援装置 |
| JP6456682B2 (ja) * | 2014-12-25 | 2019-01-23 | 株式会社Soken | 走行区画線認識装置 |
| JP6418961B2 (ja) * | 2015-01-28 | 2018-11-07 | シャープ株式会社 | 障害物検知装置、移動体、障害物検知方法、および障害物検知プログラム |
| JP6545007B2 (ja) * | 2015-06-11 | 2019-07-17 | キヤノン株式会社 | 撮像装置 |
| CN104976960B (zh) * | 2015-06-11 | 2017-05-31 | 西北农林科技大学 | 一种雨滴物理特性观测方法 |
| JP6623729B2 (ja) * | 2015-12-04 | 2019-12-25 | 株式会社ソシオネクスト | 測距システム、移動体及び部品 |
| JP2017187882A (ja) | 2016-04-04 | 2017-10-12 | セイコーエプソン株式会社 | 画像処理に用いられるコンピュータープログラム |
| WO2017216856A1 (ja) * | 2016-06-14 | 2017-12-21 | 日産自動車株式会社 | 車間距離推定方法及び車間距離推定装置 |
| US9928426B1 (en) * | 2016-09-16 | 2018-03-27 | Hong Kong Applied Science and Technology Research Institute Company Limited | Vehicle detection, tracking and localization based on enhanced anti-perspective transformation |
| FR3070029B1 (fr) * | 2017-08-09 | 2021-06-04 | Valeo Systemes Dessuyage | Systeme de nettoyage d'une surface vitree de vehicule |
| US10552665B2 (en) | 2017-12-12 | 2020-02-04 | Seiko Epson Corporation | Methods and systems for training an object detection algorithm using synthetic images |
| US10769437B2 (en) * | 2018-04-10 | 2020-09-08 | Seiko Epson Corporation | Adaptive sampling of training views |
| US10878285B2 (en) | 2018-04-12 | 2020-12-29 | Seiko Epson Corporation | Methods and systems for shape based training for an object detection algorithm |
| US10634918B2 (en) | 2018-09-06 | 2020-04-28 | Seiko Epson Corporation | Internal edge verification |
| JP7065410B2 (ja) * | 2018-09-28 | 2022-05-12 | パナソニックIpマネジメント株式会社 | 空き駐車スペース検知装置および空き駐車スペース検知方法 |
| CN110490033B (zh) * | 2018-10-29 | 2022-08-23 | 毫末智行科技有限公司 | 用于车道检测的图像处理方法及装置 |
| JP7183729B2 (ja) * | 2018-11-26 | 2022-12-06 | トヨタ自動車株式会社 | 撮影異常診断装置 |
| US10771665B1 (en) * | 2019-02-27 | 2020-09-08 | Ford Global Technologies, Llc | Determination of illuminator obstruction by known optical properties |
| JP7323356B2 (ja) * | 2019-06-28 | 2023-08-08 | フォルシアクラリオン・エレクトロニクス株式会社 | 駐車支援装置及び駐車支援方法 |
| JP7272226B2 (ja) * | 2019-10-07 | 2023-05-12 | 株式会社デンソー | 雨滴認識装置、車両制御装置、学習方法および学習済みモデル |
| JP7401273B2 (ja) * | 2019-11-26 | 2023-12-19 | 日立Astemo株式会社 | 移動体の制御装置及び方法 |
| KR102264254B1 (ko) * | 2020-11-13 | 2021-06-14 | 렉스젠(주) | 검지 영역 설정을 위한 영상 분석 장치, 시스템 및 이를 위한 방법 |
| CN113257033B (zh) * | 2021-07-01 | 2021-09-24 | 成都宜泊信息科技有限公司 | 一种停车场管理方法、系统、存储介质及电子设备 |
| CN115123218B (zh) * | 2022-09-02 | 2022-11-22 | 小米汽车科技有限公司 | 车辆的检测方法、装置及其电子设备 |
| US20250031089A1 (en) * | 2023-07-21 | 2025-01-23 | Qualcomm Incorporated | Sparsity-based adverse weather detection |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008197863A (ja) * | 2007-02-13 | 2008-08-28 | Hitachi Ltd | 車載用走行環境認識装置 |
| CN101294801A (zh) * | 2007-07-13 | 2008-10-29 | 东南大学 | 基于双目视觉的车距测量方法 |
| JP2009145065A (ja) * | 2007-12-11 | 2009-07-02 | Toyota Motor Corp | 二次電池の状態検出装置 |
| JP2010256995A (ja) * | 2009-04-21 | 2010-11-11 | Daihatsu Motor Co Ltd | 物体認識装置 |
| CN102288165A (zh) * | 2010-06-21 | 2011-12-21 | 日产自动车株式会社 | 移动距离检测装置和移动距离检测方法 |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008219063A (ja) | 2007-02-28 | 2008-09-18 | Sanyo Electric Co Ltd | 車両周辺監視装置及び方法 |
| JP2008227646A (ja) | 2007-03-09 | 2008-09-25 | Clarion Co Ltd | 障害物検知装置 |
| RU70208U1 (ru) * | 2007-07-10 | 2008-01-20 | Александр Викторович Баев | Система видеозаписи дорожно-транспортного происшествия |
| JP5546321B2 (ja) * | 2010-04-02 | 2014-07-09 | アルパイン株式会社 | 複数カメラ画像使用車外表示装置 |
| JP5413516B2 (ja) * | 2010-08-19 | 2014-02-12 | 日産自動車株式会社 | 立体物検出装置及び立体物検出方法 |
| JP5680436B2 (ja) * | 2011-02-15 | 2015-03-04 | アルパイン株式会社 | 車載カメラレンズ用異物付着判定装置 |
-
2013
- 2013-07-24 MY MYPI2015700166A patent/MY155816A/en unknown
- 2013-07-24 CN CN201380039932.0A patent/CN104508726B/zh active Active
- 2013-07-24 US US14/406,807 patent/US9569675B2/en active Active
- 2013-07-24 EP EP13822484.5A patent/EP2879110B1/en active Active
- 2013-07-24 JP JP2014526961A patent/JP5900623B2/ja active Active
- 2013-07-24 IN IN315KON2015 patent/IN2015KN00315A/en unknown
- 2013-07-24 BR BR112015001865-3A patent/BR112015001865B1/pt active IP Right Grant
- 2013-07-24 RU RU2015106753/11A patent/RU2572952C1/ru active
- 2013-07-24 MX MX2015001228A patent/MX341048B/es active IP Right Grant
- 2013-07-24 WO PCT/JP2013/070009 patent/WO2014017520A1/ja not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008197863A (ja) * | 2007-02-13 | 2008-08-28 | Hitachi Ltd | 車載用走行環境認識装置 |
| CN101294801A (zh) * | 2007-07-13 | 2008-10-29 | 东南大学 | 基于双目视觉的车距测量方法 |
| JP2009145065A (ja) * | 2007-12-11 | 2009-07-02 | Toyota Motor Corp | 二次電池の状態検出装置 |
| JP2010256995A (ja) * | 2009-04-21 | 2010-11-11 | Daihatsu Motor Co Ltd | 物体認識装置 |
| CN102288165A (zh) * | 2010-06-21 | 2011-12-21 | 日产自动车株式会社 | 移动距离检测装置和移动距离检测方法 |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN107145817A (zh) * | 2016-03-01 | 2017-09-08 | 福特全球技术公司 | 车辆车道学习 |
| CN107145817B (zh) * | 2016-03-01 | 2022-09-02 | 福特全球技术公司 | 车辆车道学习 |
| CN107368068A (zh) * | 2016-05-13 | 2017-11-21 | 德尔福技术有限公司 | 用于自动车辆的脱险路径规划系统 |
| CN111582173A (zh) * | 2020-05-08 | 2020-08-25 | 东软睿驰汽车技术(沈阳)有限公司 | 一种自动驾驶的方法及系统 |
| CN116075794A (zh) * | 2020-09-07 | 2023-05-05 | 日立建机株式会社 | 作业机械 |
Also Published As
| Publication number | Publication date |
|---|---|
| IN2015KN00315A (zh) | 2015-07-10 |
| JPWO2014017520A1 (ja) | 2016-07-11 |
| EP2879110A4 (en) | 2015-10-14 |
| BR112015001865A2 (pt) | 2019-12-31 |
| BR112015001865B1 (pt) | 2021-10-26 |
| US20150161457A1 (en) | 2015-06-11 |
| US9569675B2 (en) | 2017-02-14 |
| RU2572952C1 (ru) | 2016-01-20 |
| JP5900623B2 (ja) | 2016-04-06 |
| EP2879110B1 (en) | 2019-09-04 |
| EP2879110A1 (en) | 2015-06-03 |
| MX341048B (es) | 2016-08-05 |
| MX2015001228A (es) | 2015-05-12 |
| WO2014017520A1 (ja) | 2014-01-30 |
| CN104508726B (zh) | 2017-05-03 |
| MY155816A (en) | 2015-12-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN104508726B (zh) | 三维物体检测装置和三维物体检测方法 | |
| CN104508727B (zh) | 三维物体检测装置和三维物体检测方法 | |
| RU2636120C2 (ru) | Устройство обнаружения трехмерных объектов | |
| CN104509102B (zh) | 三维物体检测装置和异物检测装置 | |
| CN104508722B (zh) | 车载用周围环境识别装置 | |
| CN104246821B (zh) | 三维物体检测装置和三维物体检测方法 | |
| CN104012081B (zh) | 三维物体检测装置 | |
| CN104508728B (zh) | 三维物体检测装置 | |
| US10096124B2 (en) | Water droplet detection device, and three-dimensional object detection device using water droplet detection device | |
| CN104685866A (zh) | 三维物体检测装置以及三维物体检测方法 | |
| JP6337601B2 (ja) | 立体物検出装置 | |
| JP5790867B2 (ja) | 立体物検出装置 | |
| JP6011110B2 (ja) | 立体物検出装置および立体物検出方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| C06 | Publication | ||
| PB01 | Publication | ||
| C10 | Entry into substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |