[go: up one dir, main page]

JP2006339960A - Object detection apparatus and object detection method - Google Patents

Object detection apparatus and object detection method Download PDF

Info

Publication number
JP2006339960A
JP2006339960A JP2005161244A JP2005161244A JP2006339960A JP 2006339960 A JP2006339960 A JP 2006339960A JP 2005161244 A JP2005161244 A JP 2005161244A JP 2005161244 A JP2005161244 A JP 2005161244A JP 2006339960 A JP2006339960 A JP 2006339960A
Authority
JP
Japan
Prior art keywords
edge
edges
image
object detection
rear camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005161244A
Other languages
Japanese (ja)
Inventor
Teruhisa Takano
照久 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2005161244A priority Critical patent/JP2006339960A/en
Publication of JP2006339960A publication Critical patent/JP2006339960A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device and a method detecting an object that exists nearby the vehicle. <P>SOLUTION: A viewpoint conversion section 103a performs viewpoint conversion of images picked up by a right rear camera 101 and a left rear camera 102 to generate a bird's-eye image on a road surface as a projection surface. Then a solid-body detection section 103b extracts edges from a plurality of generated bird's-eye images and superposes them, detects end points of edges present in the superposed images, and groups edge end points whose existing positions are close to each other. When a plurality of edges extend in different directions from respective edge points existing in each group, it is decided that the edges existing in the group are edges detected from the solid body. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、車両周辺に存在する立体物を検出することができる物体検出装置、および物体検出方法に関する。   The present invention relates to an object detection apparatus and an object detection method capable of detecting a three-dimensional object existing around a vehicle.

次のような物体検出装置が特許文献1によって知られている。この物体検出装置によれば、異なる方向から2枚の画像を撮像し、撮像した一方の画像の輝度値と他方の画像の輝度値とを比較し、それぞれの輝度値の異なる位置に立体物が存在すると判定する。   The following object detection apparatus is known from Patent Document 1. According to this object detection device, two images are taken from different directions, the luminance value of one image taken is compared with the luminance value of the other image, and the three-dimensional object is located at a position where the respective luminance values are different. It is determined that it exists.

特表平10−505176号公報Japanese National Patent Publication No. 10-505176

しかしながら、従来の装置においては、2枚の画像の輝度値を比較して立体物を検出したため、それぞれの画像で光が当たる箇所が異なる場合に、誤検出が発生する可能性があるという問題が生じていた。   However, in the conventional apparatus, since the three-dimensional object is detected by comparing the luminance values of the two images, there is a problem in that erroneous detection may occur when the location where the light hits in each image is different. It was happening.

本発明は、複数の撮像手段によって異なる角度から撮像される車両周囲の画像のそれぞれを視点変換して路面を投影面とする複数の俯瞰画像を作成し、作成した複数の俯瞰画像からエッジを抽出し、エッジを抽出した複数の俯瞰画像を重畳し、重畳した画像内に存在するエッジの端点を検出して、その存在位置が近接するエッジ端点をグルーピングし、グルーピングした各グループ内に存在するエッジ端点から延在するエッジ間の角度が所定以上であるエッジは立体物から検出されたエッジであると判定することを特徴とする。   The present invention creates a plurality of bird's-eye images with a road surface as a projection plane by converting viewpoints of images around the vehicle imaged from different angles by a plurality of imaging means, and extracts edges from the created bird's-eye images Then, by superimposing multiple bird's-eye images from which edges are extracted, edge endpoints that exist in the superimposed image are detected, edge endpoints that are close to each other are grouped, and edges that exist in each grouped group An edge having an angle between edges extending from the end point being a predetermined value or more is determined to be an edge detected from a three-dimensional object.

本発明によれば、重畳画像内における各グループに含まれるエッジ端点から延在するエッジ間の角度に基づいて立体物を検出することができるため、精度高く立体物を検出することができる。   According to the present invention, since a solid object can be detected based on the angle between edges extending from the edge end points included in each group in the superimposed image, the solid object can be detected with high accuracy.

図1は、本実施の形態における物体検出装置の一実施の形態の構成を示すブロック図である。物体検出装置100は車両に搭載され、車両の右後方に設置され、画像を撮像する右後方カメラ101と、車両の左後方に設置され、画像を撮像する左後方カメラ102と、CPU、メモリ、およびその他周辺回路を含み、後述する種々の処理を実行する制御装置103とを備えている。   FIG. 1 is a block diagram showing a configuration of an embodiment of an object detection apparatus according to the present embodiment. The object detection device 100 is mounted on a vehicle and installed on the right rear side of the vehicle, a right rear camera 101 that captures an image, a left rear camera 102 that is installed on the left rear side of the vehicle and captures an image, a CPU, a memory, And other peripheral circuits, and a control device 103 that executes various processes to be described later.

右後方カメラ101および左後方カメラ102は、例えば図2に示すように、それぞれ車両の左右から車両後方を撮像するように設置され、一定時間間隔で連続的に自車両後方の画像を撮像する。すなわち、車両後方の画像を異なる角度から連続的に撮像する。なお、本実施の形態では、右後方カメラ101および左後方カメラ102によって車両後方を異なる角度から撮像する場合について説明するが、これに限定されず、車両前方を異なる角度から撮像してもよく、車両側方を異なる角度から撮像するようにしてもよい。   For example, as shown in FIG. 2, the right rear camera 101 and the left rear camera 102 are installed so as to capture the rear of the vehicle from the left and right sides of the vehicle, and continuously capture images of the rear of the host vehicle at regular time intervals. That is, the images behind the vehicle are continuously taken from different angles. In the present embodiment, the case where the right rear camera 101 and the left rear camera 102 capture the rear of the vehicle from different angles will be described. However, the present invention is not limited to this, and the front of the vehicle may be captured from different angles. You may make it image the vehicle side from a different angle.

制御装置103は、視点変換部103aと、立体物検出部103bとを有している。視点変換部103aは、右後方カメラ101および左後方カメラ102によって撮像されたそれぞれの画像を視点変換して俯瞰画像(鳥瞰図)を生成する。すなわち、右後方カメラ101および左後方カメラ102によって撮像されたそれぞれの画像を、路面を投影面として視点変化することによって、あたかも上空から見下ろしたように表示した俯瞰画像に変換する。なお、各画像を俯瞰画像に視点変換する方法については、公知の手法であるため説明を省略する。   The control device 103 includes a viewpoint conversion unit 103a and a three-dimensional object detection unit 103b. The viewpoint conversion unit 103a generates viewpoint images (bird's-eye views) by converting viewpoints of the images captured by the right rear camera 101 and the left rear camera 102. In other words, each image captured by the right rear camera 101 and the left rear camera 102 is converted into a bird's eye view displayed as if looking down from the sky by changing the viewpoint with the road surface as a projection plane. In addition, about the method of converting each image into a bird's-eye view image, since it is a well-known method, description is abbreviate | omitted.

本実施の形態では、例えば、図3に示すような車両後方の画像を右後方カメラ101および左後方カメラ102によって撮像する場合について説明する。この図3に示す例では、自車両の後方に例えばポールなどの立体物3aと、車両の駐車位置を示す路面上の白線3bが存在している。   In the present embodiment, for example, a case will be described in which an image behind the vehicle as illustrated in FIG. 3 is captured by the right rear camera 101 and the left rear camera 102. In the example shown in FIG. 3, a solid object 3a such as a pole and a white line 3b on the road surface indicating the parking position of the vehicle exist behind the host vehicle.

このような図3に示す車両後方の画像が右後方カメラ101および左後方カメラ102で撮像されて入力されると、視点変換部103aは、それぞれの画像を視点変換して図4に示すような俯瞰画像を作成する。なお、図4(a)は、右後方カメラ101によって撮像された画像の視点変換後の俯瞰画像を示す図であり、図4(b)は、左後方カメラ102によって撮像された画像の視点変換後の俯瞰画像を示す図である。   When such an image of the rear of the vehicle shown in FIG. 3 is picked up and inputted by the right rear camera 101 and the left rear camera 102, the viewpoint conversion unit 103a performs viewpoint conversion of each image as shown in FIG. Create an overhead image. 4A is a diagram illustrating a bird's-eye view image after the viewpoint conversion of the image captured by the right rear camera 101, and FIG. 4B is a viewpoint conversion of the image captured by the left rear camera 102. It is a figure which shows the subsequent bird's-eye view image.

立体物検出部103bは、このように視点変換部103aで視点変換された2枚の俯瞰画像を画像処理して、俯瞰画像内に存在する立体の構造物や人物などの立体物を検出することによって、車両後方に存在する立体物を検出する。まず、視点変換部103aで視点変換された各俯瞰画像に対して、エッジ抽出用フィルタを適用し、各俯瞰画像内からエッジを抽出する。その後、エッジが抽出された各画素において、隣接する画素とのエッジの連続性を検出して、直線を構成するエッジのみを抽出する。これによって俯瞰画像内から直線を構成しない、例えば点などのノイズを除去することができる。   The three-dimensional object detection unit 103b performs image processing on the two overhead images converted by the viewpoint conversion unit 103a in this way, and detects a three-dimensional object such as a three-dimensional structure or a person existing in the overhead image. Thus, a three-dimensional object existing behind the vehicle is detected. First, an edge extraction filter is applied to each bird's-eye view image converted by the viewpoint conversion unit 103a to extract an edge from each bird's-eye view image. Thereafter, in each pixel from which the edge is extracted, the continuity of the edge with the adjacent pixel is detected, and only the edge constituting the straight line is extracted. As a result, it is possible to remove noise such as dots that do not form a straight line from the overhead image.

さらに、エッジ抽出を行った俯瞰画像内から画像内で横方向に延在するエッジ(横エッジ)を削除する。これによって、図5(a)および(b)に示すように、縦エッジのみを含む俯瞰画像を得ることができる。   Further, an edge (horizontal edge) extending in the horizontal direction in the image is deleted from the overhead image from which the edge has been extracted. Thereby, as shown in FIGS. 5A and 5B, a bird's-eye view image including only vertical edges can be obtained.

次に、上述した処理で作成した右後方カメラ101および左後方カメラ102によって撮像された画像に基づいて作成されたそれぞれの縦エッジのみを含む2枚の俯瞰画像を重畳する。すなわち、車両における右後方カメラ101および左後方カメラ102の設置位置、設置角度、および各カメラ固有のカメラパラメータを加味して、各俯瞰画像上における実空間上の同一位置が一致するようにそれぞれの俯瞰画像を重畳する。   Next, two overhead images including only the respective vertical edges created based on the images captured by the right rear camera 101 and the left rear camera 102 created by the above-described processing are superimposed. That is, taking into account the installation positions and installation angles of the right rear camera 101 and the left rear camera 102 in the vehicle and the camera parameters specific to each camera, the respective positions in the real space on each overhead image match each other. The overhead image is superimposed.

図6(a)は、図5(a)および(b)に示した2枚の縦エッジのみを含む俯瞰画像を重畳した場合の具体例を示す図である。このように、それぞれの撮像画像内に含まれる立体物3aと白線3bとの実空間上における存在位置が一致するように重畳した俯瞰画像を得ることができる。   FIG. 6A is a diagram illustrating a specific example in a case where the overhead image including only two vertical edges illustrated in FIGS. 5A and 5B is superimposed. In this way, it is possible to obtain a bird's-eye view image that is superimposed so that the positions of the three-dimensional object 3a and the white line 3b included in each captured image match in real space.

この図6(a)に示した重畳後の画像(重畳画像)において、エッジの端点を検出し、近接して存在する複数のエッジ端点をグルーピングする。例えば、図6(a)においては、符号6aおよび6bに示す2つのエッジ端点のグループが存在する。そして、それぞれのグループ内に存在する各エッジ端点から延在するエッジ同士が所定以上の角度を有しているグループのみを抽出する。   In the image after superimposition (superimposed image) shown in FIG. 6A, edge end points are detected, and a plurality of adjacent edge end points are grouped. For example, in FIG. 6A, there are two edge end point groups indicated by reference numerals 6a and 6b. Then, only a group in which edges extending from edge end points existing in each group have an angle of a predetermined value or more is extracted.

例えば、図6(a)に示す例では、グループ6b内に存在する2つのエッジ端点から延在するエッジは、重畳画像上において略平行に延在しているため、グループ6bは抽出の対象外となる。これによって、視点変換時の投影面とした路面上の白線3bから検出されるエッジは、右後方カメラ101と左後方カメラ102との撮像角度の違いに関わらず、重畳画像上において略平行に延在することを加味して、重畳画像内に存在する路面上のペイントから抽出されたエッジを精度高く排除することができる。   For example, in the example shown in FIG. 6A, since the edge extending from the two edge end points existing in the group 6b extends substantially in parallel on the superimposed image, the group 6b is not subject to extraction. It becomes. As a result, the edge detected from the white line 3b on the road surface as the projection plane at the time of viewpoint conversion extends substantially in parallel on the superimposed image regardless of the imaging angle difference between the right rear camera 101 and the left rear camera 102. In consideration of the presence, the edge extracted from the paint on the road surface existing in the superimposed image can be excluded with high accuracy.

これに対して、グループ6a内に存在する2つのエッジ端点から延在するエッジは、重畳画像上において所定以上の角度を有して延在しているため、抽出の対象とする。これによって、立体物から検出された各エッジは、右後方カメラ101と左後方カメラ102との撮像角度の違いから、俯瞰画像を重畳した重畳画像上においては異なる方向に延在することを加味して、重畳画像内に存在する立体物から抽出された可能性が高いエッジを精度高く抽出することができる。   On the other hand, the edge extending from the two edge end points existing in the group 6a extends at a predetermined angle or more on the superimposed image, and is therefore an extraction target. Accordingly, each edge detected from the three-dimensional object is considered to extend in a different direction on the superimposed image on which the overhead image is superimposed due to the difference in imaging angle between the right rear camera 101 and the left rear camera 102. Thus, it is possible to accurately extract an edge that is highly likely to be extracted from a three-dimensional object existing in the superimposed image.

さらに、立体物から抽出されたエッジを含むグループ6a内に存在する任意の1つのエッジ端点から、異なる方向に複数のエッジが延在している場合には、このエッジ端点から延在する複数のエッジは、同一の立体物から抽出された可能性が高いと判定する。すなわち、同一のエッジ端点から延在するエッジは、右後方カメラ101と左後方カメラ102との撮像角度の違いから、異なる2方向に延在しているが、それぞれの重畳画像上での端点は一致していることから、同一物から検出されたエッジである可能性が高いと判定することができる。   Furthermore, when a plurality of edges extend in different directions from any one edge end point existing in the group 6a including the edge extracted from the three-dimensional object, a plurality of edges extending from the edge end point The edge is determined to have a high possibility of being extracted from the same three-dimensional object. That is, the edge extending from the same edge end point extends in two different directions due to the difference in imaging angle between the right rear camera 101 and the left rear camera 102, but the end point on each superimposed image is Since they match, it can be determined that there is a high possibility that the edges are detected from the same object.

そして、抽出したグループ6a内において、同一端点から異なる方向に延在しているエッジのなす角、すなわち図6(b)におけるなす角θ1およびθ2のフレーム間での角度の変化を検出する。その結果、フレーム間でそれぞれのエッジのなす角θ1および/またはθ2が変化した場合には、自車両の走行に伴って、俯瞰画像上において後方カメラ101、および左後方カメラ102から各エッジが構成する物体の見える角度がそれぞれ変化することから、そのなす角が変化したエッジによって構成される物体は同一の立体物であると判定することができる。   Then, in the extracted group 6a, an angle change between the frames of the angles θ1 and θ2 formed by the edges extending in different directions from the same end point, that is, the angles θ1 and θ2 formed in FIG. 6B is detected. As a result, when the angles θ1 and / or θ2 formed by the respective edges change between frames, each edge is configured from the rear camera 101 and the left rear camera 102 on the overhead view image as the host vehicle travels. Since the viewing angle of the object to be changed changes, it is possible to determine that the object constituted by the edge whose angle is changed is the same three-dimensional object.

一方、フレーム間でそれぞれのエッジのなす角θ1および/またはθ2が変化しない場合には、俯瞰画像上において、後方カメラ101、および左後方カメラ102から各エッジが構成する物体の見える角度が変化していないことから、これらのエッジによって構成される物体は路面上のペイントなど、路面上から検出されたエッジであると判定することができる。   On the other hand, when the angles θ1 and / or θ2 formed by the respective edges do not change between the frames, the angle at which the object that each edge constitutes from the rear camera 101 and the left rear camera 102 changes on the overhead image. Therefore, it can be determined that the object constituted by these edges is an edge detected from the road surface, such as paint on the road surface.

例えば、図6(b)に示す例においては、フレーム間でθ1およびθ2の大きさの変化が検出されて、それぞれのエッジの端点から延在する各エッジは路上に存在する立体物から検出されたエッジであると判定することができる。これによって、右後方カメラ101、および左後方カメラ102の撮像範囲内に立体物が存在する場合には、それぞれのカメラからの立体物の見え方が異なることを加味して、精度高く重畳画像内に存在する立体物、すなわち、右後方カメラ101、および左後方カメラ102の撮像範囲内の路上に存在する立体物を検出することができる。   For example, in the example shown in FIG. 6B, changes in the magnitudes of θ1 and θ2 are detected between frames, and each edge extending from the end point of each edge is detected from a three-dimensional object existing on the road. It can be determined that the edge is a sharp edge. As a result, when there is a three-dimensional object within the imaging range of the right rear camera 101 and the left rear camera 102, the appearance of the three-dimensional object from the respective cameras is different, and the superimposed image is highly accurate. 3, that is, a three-dimensional object existing on the road within the imaging range of the right rear camera 101 and the left rear camera 102 can be detected.

図7は、本実施の形態における物体検出装置100の処理を示すフローチャートである。図7に示す処理は、車両のイグニションスイッチがオンされることによって、物体検出装置100の電源がオンされると起動するプログラムとして制御装置103により実行される。   FIG. 7 is a flowchart showing processing of the object detection apparatus 100 in the present embodiment. The process shown in FIG. 7 is executed by the control device 103 as a program that starts when the power of the object detection device 100 is turned on by turning on the ignition switch of the vehicle.

ステップS10において、右後方カメラ101、および左後方カメラ102のそれぞれから撮像される画像の読み込みを開始して、ステップS20へ進む。ステップS20では、視点変換部103aは、上述したように、右後方カメラ101および左後方カメラ102によって撮像されたそれぞれの画像を視点変換して俯瞰画像を作成する。その後、ステップS30へ進み、立体物検出部103bは、視点変換された各俯瞰画像に対して、エッジ抽出用フィルタを適用し、各俯瞰画像内からエッジを抽出してステップS40へ進む。   In step S10, reading of images captured from each of the right rear camera 101 and the left rear camera 102 is started, and the process proceeds to step S20. In step S20, as described above, the viewpoint conversion unit 103a performs viewpoint conversion on the images captured by the right rear camera 101 and the left rear camera 102 to create an overhead image. Thereafter, the process proceeds to step S30, and the three-dimensional object detection unit 103b applies an edge extraction filter to each overhead view image subjected to viewpoint conversion, extracts an edge from each overhead image, and proceeds to step S40.

ステップS40では、エッジが抽出された各画素において、隣接する画素とのエッジの連続性を検出して、直線を構成するエッジのみを抽出する。その後、ステップS50へ進み、俯瞰画像内から画像内で横方向に延在するエッジ(横エッジ)を削除して、ステップS60へ進む。ステップS60では、上述したように、右後方カメラ101、および左後方カメラ102のそれぞれによって撮像された画像に基づいて作成された縦エッジのみを含む俯瞰画像を重畳して重畳画像を作成する。その後、ステップS70へ進む。   In step S40, in each pixel from which an edge has been extracted, the continuity of the edge with an adjacent pixel is detected, and only the edges that form a straight line are extracted. Thereafter, the process proceeds to step S50, an edge (horizontal edge) extending in the horizontal direction in the image is deleted from the overhead image, and the process proceeds to step S60. In step S60, as described above, a superimposed image is created by superimposing a bird's-eye view image including only vertical edges created based on images captured by the right rear camera 101 and the left rear camera 102, respectively. Thereafter, the process proceeds to step S70.

ステップS70では、上述したように、重畳画像においてエッジの端点を検出し、近接して存在する複数のエッジ端点をグルーピングする。その後、ステップS80へ進み、各グループ内に存在するエッジ端点から延在するエッジが所定以上の角度を有しているか否かを判断する。各エッジが所定以上の角度を有していない、すなわち略平行であると判断した場合には、後述するステップS120へ進む。これに対して、各エッジが所定以上の角度を有していると判断した場合には、ステップS90へ進む。   In step S70, as described above, edge end points are detected in the superimposed image, and a plurality of adjacent edge end points are grouped. Thereafter, the process proceeds to step S80, and it is determined whether or not the edge extending from the edge end point existing in each group has a predetermined angle or more. If it is determined that each edge does not have a predetermined angle or more, that is, is substantially parallel, the process proceeds to step S120 described later. On the other hand, if it is determined that each edge has a predetermined angle or more, the process proceeds to step S90.

ステップS90では、各グループ内に存在する任意のエッジ端点について、当該エッジ端点から右後方カメラ101で撮像された画像から抽出されたエッジ、および左後方カメラ102で撮像された画像から抽出されたエッジのそれぞれが異なる方向に延在しているか否かを判断する。任意のエッジ端点からそれぞれのエッジが異なる方向へ延在していないと判断した場合には、後述するステップS120へ進む。これに対して、任意のエッジ端点からそれぞれのエッジが異なる方向へ延在していると判断した場合には、ステップS100へ進む。   In step S90, for an arbitrary edge endpoint existing in each group, an edge extracted from the image captured by the right rear camera 101 from the edge endpoint and an edge extracted from the image captured by the left rear camera 102 It is determined whether or not each extends in a different direction. When it is determined that each edge does not extend in a different direction from any edge end point, the process proceeds to step S120 described later. On the other hand, when it is determined that each edge extends in a different direction from an arbitrary edge end point, the process proceeds to step S100.

ステップS100では、任意のエッジ端点からそれぞれのエッジが異なる方向へ延在しているエッジのなす角が連続して撮像されるフレーム間で変化するか否かを判断する。エッジのなす角がフレーム間で変化しないと判断した場合には、ステップS120へ進み、そのエッジは路面上のペイントであると判定する。これに対して、エッジのなす角がフレーム間で変化すると判断した場合には、ステップS110へ進み、そのエッジによって構成される物体は立体物であると判定する。   In step S100, it is determined whether or not the angle formed by an edge in which each edge extends in a different direction from an arbitrary edge end point changes between consecutively imaged frames. If it is determined that the angle formed by the edge does not change between frames, the process proceeds to step S120, where it is determined that the edge is paint on the road surface. On the other hand, when it is determined that the angle formed by the edge changes between frames, the process proceeds to step S110, and it is determined that the object constituted by the edge is a three-dimensional object.

その後、ステップS130へ進み、自車両のイグニションスイッチがオフされたか否かを判断する。自車両のイグニションスイッチがオフされないと判断した場合には、ステップS20へ戻って処理を繰り返す。これに対して、オフされたと判断した場合には、処理を終了する。   Then, it progresses to step S130 and it is judged whether the ignition switch of the own vehicle was turned off. If it is determined that the ignition switch of the host vehicle is not turned off, the process returns to step S20 and the process is repeated. On the other hand, if it is determined that it is turned off, the process is terminated.

以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)右後方カメラ101、および左後方カメラ102のそれぞれで撮像した画像を視点変換して俯瞰画像を作成し、俯瞰画像から縦エッジのみを抽出して、各俯瞰画像上における実空間上の同一位置が一致するようにそれぞれの俯瞰画像を重畳した。そして、俯瞰画像内で近接して存在するエッジ端点をグルーピングして、各グループ内に存在するエッジ端点から延在するエッジが所定の角度を有している場合には、そのエッジは立体物から抽出された可能性が高いと判定するようにした。これによって、立体物から検出された各エッジは、右後方カメラ101と左後方カメラ102との撮像角度の違いから、俯瞰画像を重畳した重畳画像上においては異なる方向に延在することを加味して、重畳画像内に存在する立体物から抽出された可能性が高いエッジを精度高く抽出することができる。
According to the present embodiment described above, the following operational effects can be obtained.
(1) A viewpoint image is created by converting viewpoints of images captured by the right rear camera 101 and the left rear camera 102, and only a vertical edge is extracted from the overhead image, and a real space on each overhead image is extracted. Each overhead image was superimposed so that the same position might correspond. Then, by grouping edge end points that are close to each other in the bird's-eye view image, and an edge extending from the edge end point existing in each group has a predetermined angle, the edge is separated from a three-dimensional object. It was determined that the possibility of extraction was high. Accordingly, each edge detected from the three-dimensional object is considered to extend in different directions on the superimposed image on which the overhead image is superimposed due to the difference in imaging angle between the right rear camera 101 and the left rear camera 102. Thus, it is possible to accurately extract an edge that is highly likely to be extracted from a three-dimensional object existing in the superimposed image.

例えば、従来の立体物検出方法のように、異なる方向から2枚の画像を撮像し、撮像した一方の画像の輝度値と他方の画像の輝度値とを比較し、それぞれの輝度値の異なる位置に立体物が存在すると判定する場合には、それぞれの画像で光が当たる箇所が異なる場合に誤検出が発生する可能性があった。これに対して上述した実施の形態によれば、画像の輝度に基づいて立体物を判定する代わりに、重畳画像内で抽出したエッジの角度に基づいて立体物を検出するため、画像内における光の当たり方によらず、精度高く立体物を検出することが可能となる。   For example, as in the conventional three-dimensional object detection method, two images are taken from different directions, the luminance value of one image is compared with the luminance value of the other image, and the positions where the respective luminance values are different. In the case where it is determined that there is a three-dimensional object, there is a possibility that erroneous detection may occur when the location where the light hits is different in each image. On the other hand, according to the above-described embodiment, instead of determining a three-dimensional object based on the luminance of the image, the three-dimensional object is detected based on the angle of the edge extracted in the superimposed image. It is possible to detect a three-dimensional object with high accuracy regardless of how it hits.

(2)また、俯瞰画像内で近接して存在するエッジ端点をグルーピングした結果、各グループ内に存在するエッジ端点から延在するエッジが略平行である場合には、そのエッジは路面上のペイントから抽出されたエッジであると判定するようにした。これによって、視点変換時の投影面とした路面上から検出されるエッジは、右後方カメラ101と左後方カメラ102との撮像角度の違いに関わらず、重畳画像上において略平行に延在することを加味して、重畳画像内に存在する路面上のペイント、例えば白線から抽出されたエッジを精度高く排除することができる。 (2) Further, when edge edges that are close to each other in the bird's-eye view image are grouped, and the edges extending from the edge endpoints existing in each group are substantially parallel, the edges are painted on the road surface. It was determined that the edge was extracted from. As a result, the edge detected from the road surface as the projection plane at the time of viewpoint conversion extends substantially in parallel on the superimposed image regardless of the difference in imaging angle between the right rear camera 101 and the left rear camera 102. In consideration of this, paint on the road surface existing in the superimposed image, for example, an edge extracted from a white line can be excluded with high accuracy.

(3)俯瞰画像内で近接して存在するエッジ端点をグルーピングした結果、各グループ内に存在するエッジ端点からエッジが異なる方向に複数延在している場合には、それらのエッジは同一物から抽出されたエッジであると判定するようにした。これによって、同一のエッジ端点から延在するエッジは、右後方カメラ101と左後方カメラ102との撮像角度の違いから、異なる2方向に延在しているが、それぞれの重畳画像上での端点は一致していることを加味して、精度高く同一立体物から検出されたエッジを検出することができる。 (3) As a result of grouping edge end points that are close to each other in the bird's-eye view image, when a plurality of edges extend in different directions from the edge end points existing in each group, those edges are from the same object. Judged to be an extracted edge. As a result, the edges extending from the same edge end point extend in two different directions due to the difference in imaging angle between the right rear camera 101 and the left rear camera 102, but the end points on the respective superimposed images Taking into account that they match, edges detected from the same three-dimensional object can be detected with high accuracy.

(4)同一端点から異なる方向に延在しているエッジのなす角を算出し、フレーム間でそのなす角が変化した場合には、そのなす角が変化したエッジによって構成される物体は立体物であると判定するようにした。これによって、右後方カメラ101、および左後方カメラ102の撮像範囲内に立体物が存在する場合には、それぞれのカメラからの立体物の見え方が異なることを加味して、精度高く重畳画像内に存在する立体物を検出することができる。 (4) When an angle formed by edges extending in different directions from the same end point is calculated and the angle formed between frames changes, an object constituted by the edge formed by the changed angle is a three-dimensional object. It was determined to be. As a result, when there is a three-dimensional object within the imaging range of the right rear camera 101 and the left rear camera 102, the appearance of the three-dimensional object from the respective cameras is different, and the superimposed image is highly accurate. A three-dimensional object existing in the can be detected.

(5)重畳画像内で立体物として検出されなかったエッジは、路面のペイントから検出されたエッジであると判定するようにした。これによって、右後方カメラ101および左後方カメラ102によって撮像されたそれぞれの画像を、路面を投影面として視点変化して得た俯瞰画像に基づいて作成した重畳画像では、路面上のペイントは平面として扱うことができることを加味して、立体物以外のものを路面のペイントと判定することで、重畳画像内に存在する立体物と路面のペイントとを精度高く分離することが可能となる。 (5) An edge that is not detected as a three-dimensional object in the superimposed image is determined to be an edge detected from paint on the road surface. As a result, in the superimposed image created based on the overhead view image obtained by changing the viewpoint of the respective images captured by the right rear camera 101 and the left rear camera 102 with the road surface as the projection plane, the paint on the road surface is a plane. Considering that the object can be handled, it is possible to accurately separate the solid object and the road surface paint existing in the superimposed image by determining that the object other than the three-dimensional object is the road surface paint.

―変形例―
なお、上述した実施の形態の物体検出装置は、以下のように変形することもできる。
(1)上述した実施の形態では、右後方カメラ101および左後方カメラ102とを撮像手段として備え、これらのカメラで撮像した画像に基づいて、自車両後方に存在する立体物を検出する処理について説明した。しかしこれに限定されず、例えば右前方カメラと左前方カメラとを設けて、車両前方に存在する立体物を検出するようにしてもよく、車両の周囲全体を撮像するための複数のカメラを設置して、車両周囲に存在する立体物を検出するようにしてもよい。
-Modification-
The object detection apparatus according to the above-described embodiment can be modified as follows.
(1) In the embodiment described above, the right rear camera 101 and the left rear camera 102 are provided as imaging means, and processing for detecting a three-dimensional object existing behind the host vehicle based on images captured by these cameras. explained. However, the present invention is not limited to this. For example, a right front camera and a left front camera may be provided to detect a three-dimensional object existing in front of the vehicle, and a plurality of cameras for imaging the entire periphery of the vehicle are installed. Then, a three-dimensional object existing around the vehicle may be detected.

(2)上述した実施の形態では、次の(A)〜(C)の条件を全て満たした場合に、抽出したエッジが構成する物体は立体物であると判定する例について説明した。
(A)各グループ内に存在するエッジ端点から延在するエッジが所定以上の角度を有している。
(B)各グループ内に存在する任意のエッジ端点から延在するエッジのそれぞれが異なる方向に延在している。
(C)任意のエッジ端点からそれぞれのエッジが異なる方向へ延在しているエッジのなす角が連続して撮像されるフレーム間で変化する。
しかしながら、(A)〜(C)のいずれか1つ、または2つを満たした場合に、抽出したエッジが構成する物体は立体物であると判定するようにしてもよい。
(2) In the above-described embodiment, an example has been described in which, when all the following conditions (A) to (C) are satisfied, it is determined that the object formed by the extracted edge is a three-dimensional object.
(A) An edge extending from an edge end point existing in each group has a predetermined angle or more.
(B) Each of the edges extending from an arbitrary edge end point existing in each group extends in a different direction.
(C) An angle formed by an edge in which each edge extends in a different direction from an arbitrary edge end point varies between consecutively imaged frames.
However, when any one or two of (A) to (C) is satisfied, it may be determined that the object formed by the extracted edge is a three-dimensional object.

(3)上述した実施の形態では、物体検出装置を車両に搭載する例について説明したが、これに限定されず、その他の移動体に搭載するようにしてもよい。 (3) In the above-described embodiment, the example in which the object detection device is mounted on the vehicle has been described. However, the present invention is not limited to this, and the object detection device may be mounted on another moving body.

なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。   Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired.

特許請求の範囲の構成要素と実施の形態との対応関係について説明する。立体物検出部103bは、画像重畳手段、グルーピング手段、および角度変化検出手段に相当する。なお、以上の説明はあくまでも一例であり、発明を解釈する際、上記の実施形態の記載事項と特許請求の範囲の記載事項の対応関係に何ら限定も拘束もされない。   The correspondence between the constituent elements of the claims and the embodiment will be described. The three-dimensional object detection unit 103b corresponds to an image superimposing unit, a grouping unit, and an angle change detection unit. The above description is merely an example, and when interpreting the invention, there is no limitation or restriction on the correspondence between the items described in the above embodiment and the items described in the claims.

本実施の形態における物体検出装置の一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of the object detection apparatus in this Embodiment. 右後方カメラ101および左後方カメラ102の車両への設置例を示す図である。It is a figure which shows the example of installation in the vehicle of the right rear camera 101 and the left rear camera 102. FIG. 車両後方に存在する物体の具体例を示す図である。It is a figure which shows the specific example of the object which exists in the vehicle back. 右後方カメラ101および左後方カメラ102のそれぞれで撮像した画像を視点変化して作成した俯瞰画像の具体例を示す図である。It is a figure which shows the specific example of the bird's-eye view image produced by changing the viewpoint of the image imaged with each of the right rear camera and the left rear camera. 縦エッジのみを抽出した俯瞰画像の具体例を示す図である。It is a figure which shows the specific example of the bird's-eye view image which extracted only the vertical edge. 重畳画像の具体例を示す図である。It is a figure which shows the specific example of a superimposed image. 本実施の形態における物体検出装置100の処理を示すフローチャート図である。It is a flowchart figure which shows the process of the object detection apparatus 100 in this Embodiment.

符号の説明Explanation of symbols

100 物体検出装置
101 右後方カメラ
102 左後方カメラ
103 制御装置
103a 視点変換部
103b 立体物検出部
DESCRIPTION OF SYMBOLS 100 Object detection apparatus 101 Right rear camera 102 Left rear camera 103 Control apparatus 103a View point conversion part 103b Three-dimensional object detection part

Claims (4)

複数の撮像手段によって異なる角度から撮像される車両周囲の画像のそれぞれを視点変換して路面を投影面とする複数の俯瞰画像を作成する視点変換手段と、
前記視点変換手段で作成した複数の俯瞰画像からエッジを抽出するエッジ抽出手段と、
前記エッジ抽出手段でエッジを抽出した複数の俯瞰画像を重畳する画像重畳手段と、
前記画像重畳手段で重畳した画像内に存在するエッジの端点を検出して、その存在位置が近接するエッジ端点をグルーピングするグルーピング手段と、
前記グルーピング手段でグルーピングした各グループ内に存在するエッジ端点から延在するエッジ間の角度が所定以上であるエッジは、立体物から検出されたエッジであると判定する立体物検出手段とを備えることを特徴とする物体検出装置。
Viewpoint conversion means for creating a plurality of overhead images having a road surface as a projection plane by converting viewpoints of images around the vehicle imaged from different angles by a plurality of imaging means;
Edge extraction means for extracting edges from a plurality of overhead images created by the viewpoint conversion means;
Image superimposing means for superimposing a plurality of overhead images obtained by extracting edges by the edge extracting means;
Grouping means for detecting edge endpoints existing in the image superimposed by the image superimposing means, and grouping edge endpoints whose existence positions are close to each other;
A solid object detecting means for determining that an edge having an angle between edges extending from edge end points existing in each group grouped by the grouping means is equal to or larger than a predetermined value is an edge detected from the solid object. An object detection device characterized by.
請求項1に記載の物体検出装置において、
前記立体物検出手段は、前記グルーピング手段でグルーピングした任意のグループ内に存在する1つのエッジ端点から異なる方向に複数のエッジが延在している場合には、そのエッジ端点から延在するエッジは同一の立体物から抽出されたエッジの候補であると判定することを特徴とする物体検出装置。
The object detection apparatus according to claim 1,
In the case where a plurality of edges extend in different directions from one edge end point existing in an arbitrary group grouped by the grouping unit, the three-dimensional object detection unit has an edge extending from the edge end point. An object detection apparatus for determining that an edge is extracted from the same three-dimensional object.
請求項2に記載の物体検出装置において、
前記立体物検出手段は、グループ内に存在する1つのエッジ端点から異なる方向に複数のエッジが延在している場合に、フレーム間における前記1つのエッジ端点から異なる方向に延在する複数のエッジ間の角度の変化を検出する角度変化検出手段を含み、
前記角度変化検出手段によってフレーム間でエッジ間の角度の変化が検出された場合に、1つのエッジ端点から異なる方向に延在する複数のエッジは同一の立体物から抽出されたエッジであると判定することを特徴とする物体検出装置。
The object detection device according to claim 2,
The three-dimensional object detection means includes a plurality of edges extending in different directions from the one edge end point between frames when a plurality of edges extend in different directions from one edge end point existing in the group. Including an angle change detecting means for detecting a change in angle between,
When a change in angle between edges is detected between frames by the angle change detection means, it is determined that a plurality of edges extending in different directions from one edge end point are edges extracted from the same three-dimensional object. An object detection apparatus characterized by:
複数の撮像手段によって異なる角度から撮像される車両周囲の画像のそれぞれを視点変換して路面を投影面とする複数の俯瞰画像を作成し、
作成した複数の俯瞰画像からエッジを抽出し、
エッジを抽出した複数の俯瞰画像を重畳し、
重畳した画像内に存在するエッジの端点を検出して、その存在位置が近接するエッジ端点をグルーピングし、
グルーピングした各グループ内に存在するエッジ端点から延在するエッジ間の角度が所定以上であるエッジは立体物から検出されたエッジであると判定することを特徴とする物体検出方法。
A plurality of bird's-eye images are created by converting the viewpoint of each of the images around the vehicle imaged from different angles by a plurality of imaging means and using the road surface as a projection plane,
Edges are extracted from the created overhead images,
Superimpose multiple bird's-eye images extracted edges,
Detect the edge endpoints that exist in the superimposed image, group the edge endpoints that are close to each other,
An object detection method, wherein an edge having an angle between edges extending from edge end points existing in each grouped group is determined to be an edge detected from a three-dimensional object.
JP2005161244A 2005-06-01 2005-06-01 Object detection apparatus and object detection method Pending JP2006339960A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005161244A JP2006339960A (en) 2005-06-01 2005-06-01 Object detection apparatus and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005161244A JP2006339960A (en) 2005-06-01 2005-06-01 Object detection apparatus and object detection method

Publications (1)

Publication Number Publication Date
JP2006339960A true JP2006339960A (en) 2006-12-14

Family

ID=37560111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005161244A Pending JP2006339960A (en) 2005-06-01 2005-06-01 Object detection apparatus and object detection method

Country Status (1)

Country Link
JP (1) JP2006339960A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008262333A (en) * 2007-04-11 2008-10-30 Nissan Motor Co Ltd Road surface discrimination device and road surface discrimination method
JP2009188635A (en) * 2008-02-05 2009-08-20 Nissan Motor Co Ltd Vehicle periphery image processing apparatus and vehicle periphery state presentation method
WO2012023412A1 (en) * 2010-08-19 2012-02-23 日産自動車株式会社 Three-dimensional object detection device and three-dimensional object detection method
JP2012098084A (en) * 2010-10-29 2012-05-24 Keyence Corp Image measuring apparatus, image measuring method and computer program
WO2012073391A1 (en) * 2010-11-29 2012-06-07 パナソニック株式会社 Driving-assistance display device
JP2013205956A (en) * 2012-03-27 2013-10-07 Sumitomo Heavy Ind Ltd Image generation method, image generation device and operation support system
WO2014061195A1 (en) * 2012-10-19 2014-04-24 日本電気株式会社 Passenger counting system, passenger counting method and passenger counting program
CN104012081A (en) * 2011-12-19 2014-08-27 日产自动车株式会社 Object detection device
WO2018146997A1 (en) * 2017-02-07 2018-08-16 日本電気株式会社 Three-dimensional object detection device
US10192122B2 (en) 2014-08-21 2019-01-29 Mitsubishi Electric Corporation Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program
US10410072B2 (en) 2015-11-20 2019-09-10 Mitsubishi Electric Corporation Driving support apparatus, driving support system, driving support method, and computer readable recording medium

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008262333A (en) * 2007-04-11 2008-10-30 Nissan Motor Co Ltd Road surface discrimination device and road surface discrimination method
JP2009188635A (en) * 2008-02-05 2009-08-20 Nissan Motor Co Ltd Vehicle periphery image processing apparatus and vehicle periphery state presentation method
WO2012023412A1 (en) * 2010-08-19 2012-02-23 日産自動車株式会社 Three-dimensional object detection device and three-dimensional object detection method
US10397544B2 (en) 2010-08-19 2019-08-27 Nissan Motor Co., Ltd. Three-dimensional object detection device and three-dimensional object detection method
JP5413516B2 (en) * 2010-08-19 2014-02-12 日産自動車株式会社 Three-dimensional object detection apparatus and three-dimensional object detection method
RU2540849C2 (en) * 2010-08-19 2015-02-10 Ниссан Мотор Ко., Лтд. Device for detecting three-dimensional object and method of detecting three-dimensional object
JP2012098084A (en) * 2010-10-29 2012-05-24 Keyence Corp Image measuring apparatus, image measuring method and computer program
US8848050B2 (en) 2010-11-29 2014-09-30 Panasonic Corporation Drive assist display apparatus
WO2012073391A1 (en) * 2010-11-29 2012-06-07 パナソニック株式会社 Driving-assistance display device
JP2012119755A (en) * 2010-11-29 2012-06-21 Panasonic Corp Drive support display device
CN102933430A (en) * 2010-11-29 2013-02-13 松下电器产业株式会社 Driving-assistance display device
CN104012081A (en) * 2011-12-19 2014-08-27 日产自动车株式会社 Object detection device
EP2797320A4 (en) * 2011-12-19 2015-05-27 Nissan Motor DEVICE FOR DETECTING OBJECTS
CN104012081B (en) * 2011-12-19 2017-04-19 日产自动车株式会社 Object detection device
JP2013205956A (en) * 2012-03-27 2013-10-07 Sumitomo Heavy Ind Ltd Image generation method, image generation device and operation support system
WO2014061195A1 (en) * 2012-10-19 2014-04-24 日本電気株式会社 Passenger counting system, passenger counting method and passenger counting program
JPWO2014061195A1 (en) * 2012-10-19 2016-09-05 日本電気株式会社 Passenger counting system, passenger counting method and passenger counting program
US9477881B2 (en) 2012-10-19 2016-10-25 Nec Corporation Passenger counting system, passenger counting method and passenger counting program
US9846802B2 (en) 2012-10-19 2017-12-19 Nec Corporation Passenger counting system, passenger counting method and passenger counting program
US10192122B2 (en) 2014-08-21 2019-01-29 Mitsubishi Electric Corporation Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program
US10410072B2 (en) 2015-11-20 2019-09-10 Mitsubishi Electric Corporation Driving support apparatus, driving support system, driving support method, and computer readable recording medium
WO2018146997A1 (en) * 2017-02-07 2018-08-16 日本電気株式会社 Three-dimensional object detection device

Similar Documents

Publication Publication Date Title
JP6348758B2 (en) Image processing device
JP4622001B2 (en) Road lane marking detection apparatus and road lane marking detection method
JP5402828B2 (en) Lane boundary detection device, lane boundary detection program
CN102567713A (en) Image processing apparatus
US10055655B2 (en) Traffic light detection device and traffic light detection method
CN105825495A (en) Object detection apparatus and object detection method
JP2006339960A (en) Object detection apparatus and object detection method
JP2006338272A (en) Vehicle behavior detection device and vehicle behavior detection method
KR101402089B1 (en) Apparatus and Method for Obstacle Detection
JP2014106739A (en) In-vehicle image processing device
JP2009083632A (en) Moving object detecting device
JP2017074867A (en) Abnormality determination device
JP4042750B2 (en) Image processing apparatus, computer program, and image processing method
CN104512334A (en) Filtering device
JP6313999B2 (en) Object detection device and object detection system
KR101420242B1 (en) vehicle detector and method using stereo camera
CN109923586B (en) Parking frame recognition device
JP2016021712A (en) Image processing system and operation support system
US20240312223A1 (en) Image processing apparatus
KR101501531B1 (en) Stereo Vision-based Pedestrian Detection System and the method of
JP2008257399A (en) Image processing device
JP2008064716A (en) Vehicle azimuth correcting system
JP6729358B2 (en) Recognition device
JP5929330B2 (en) Step detection device
JP7344776B2 (en) Traffic light recognition method and traffic light recognition device