JP2006339960A - Object detection apparatus and object detection method - Google Patents
Object detection apparatus and object detection method Download PDFInfo
- Publication number
- JP2006339960A JP2006339960A JP2005161244A JP2005161244A JP2006339960A JP 2006339960 A JP2006339960 A JP 2006339960A JP 2005161244 A JP2005161244 A JP 2005161244A JP 2005161244 A JP2005161244 A JP 2005161244A JP 2006339960 A JP2006339960 A JP 2006339960A
- Authority
- JP
- Japan
- Prior art keywords
- edge
- edges
- image
- object detection
- rear camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、車両周辺に存在する立体物を検出することができる物体検出装置、および物体検出方法に関する。 The present invention relates to an object detection apparatus and an object detection method capable of detecting a three-dimensional object existing around a vehicle.
次のような物体検出装置が特許文献1によって知られている。この物体検出装置によれば、異なる方向から2枚の画像を撮像し、撮像した一方の画像の輝度値と他方の画像の輝度値とを比較し、それぞれの輝度値の異なる位置に立体物が存在すると判定する。 The following object detection apparatus is known from Patent Document 1. According to this object detection device, two images are taken from different directions, the luminance value of one image taken is compared with the luminance value of the other image, and the three-dimensional object is located at a position where the respective luminance values are different. It is determined that it exists.
しかしながら、従来の装置においては、2枚の画像の輝度値を比較して立体物を検出したため、それぞれの画像で光が当たる箇所が異なる場合に、誤検出が発生する可能性があるという問題が生じていた。 However, in the conventional apparatus, since the three-dimensional object is detected by comparing the luminance values of the two images, there is a problem in that erroneous detection may occur when the location where the light hits in each image is different. It was happening.
本発明は、複数の撮像手段によって異なる角度から撮像される車両周囲の画像のそれぞれを視点変換して路面を投影面とする複数の俯瞰画像を作成し、作成した複数の俯瞰画像からエッジを抽出し、エッジを抽出した複数の俯瞰画像を重畳し、重畳した画像内に存在するエッジの端点を検出して、その存在位置が近接するエッジ端点をグルーピングし、グルーピングした各グループ内に存在するエッジ端点から延在するエッジ間の角度が所定以上であるエッジは立体物から検出されたエッジであると判定することを特徴とする。 The present invention creates a plurality of bird's-eye images with a road surface as a projection plane by converting viewpoints of images around the vehicle imaged from different angles by a plurality of imaging means, and extracts edges from the created bird's-eye images Then, by superimposing multiple bird's-eye images from which edges are extracted, edge endpoints that exist in the superimposed image are detected, edge endpoints that are close to each other are grouped, and edges that exist in each grouped group An edge having an angle between edges extending from the end point being a predetermined value or more is determined to be an edge detected from a three-dimensional object.
本発明によれば、重畳画像内における各グループに含まれるエッジ端点から延在するエッジ間の角度に基づいて立体物を検出することができるため、精度高く立体物を検出することができる。 According to the present invention, since a solid object can be detected based on the angle between edges extending from the edge end points included in each group in the superimposed image, the solid object can be detected with high accuracy.
図1は、本実施の形態における物体検出装置の一実施の形態の構成を示すブロック図である。物体検出装置100は車両に搭載され、車両の右後方に設置され、画像を撮像する右後方カメラ101と、車両の左後方に設置され、画像を撮像する左後方カメラ102と、CPU、メモリ、およびその他周辺回路を含み、後述する種々の処理を実行する制御装置103とを備えている。
FIG. 1 is a block diagram showing a configuration of an embodiment of an object detection apparatus according to the present embodiment. The
右後方カメラ101および左後方カメラ102は、例えば図2に示すように、それぞれ車両の左右から車両後方を撮像するように設置され、一定時間間隔で連続的に自車両後方の画像を撮像する。すなわち、車両後方の画像を異なる角度から連続的に撮像する。なお、本実施の形態では、右後方カメラ101および左後方カメラ102によって車両後方を異なる角度から撮像する場合について説明するが、これに限定されず、車両前方を異なる角度から撮像してもよく、車両側方を異なる角度から撮像するようにしてもよい。
For example, as shown in FIG. 2, the right
制御装置103は、視点変換部103aと、立体物検出部103bとを有している。視点変換部103aは、右後方カメラ101および左後方カメラ102によって撮像されたそれぞれの画像を視点変換して俯瞰画像(鳥瞰図)を生成する。すなわち、右後方カメラ101および左後方カメラ102によって撮像されたそれぞれの画像を、路面を投影面として視点変化することによって、あたかも上空から見下ろしたように表示した俯瞰画像に変換する。なお、各画像を俯瞰画像に視点変換する方法については、公知の手法であるため説明を省略する。
The
本実施の形態では、例えば、図3に示すような車両後方の画像を右後方カメラ101および左後方カメラ102によって撮像する場合について説明する。この図3に示す例では、自車両の後方に例えばポールなどの立体物3aと、車両の駐車位置を示す路面上の白線3bが存在している。
In the present embodiment, for example, a case will be described in which an image behind the vehicle as illustrated in FIG. 3 is captured by the right
このような図3に示す車両後方の画像が右後方カメラ101および左後方カメラ102で撮像されて入力されると、視点変換部103aは、それぞれの画像を視点変換して図4に示すような俯瞰画像を作成する。なお、図4(a)は、右後方カメラ101によって撮像された画像の視点変換後の俯瞰画像を示す図であり、図4(b)は、左後方カメラ102によって撮像された画像の視点変換後の俯瞰画像を示す図である。
When such an image of the rear of the vehicle shown in FIG. 3 is picked up and inputted by the right
立体物検出部103bは、このように視点変換部103aで視点変換された2枚の俯瞰画像を画像処理して、俯瞰画像内に存在する立体の構造物や人物などの立体物を検出することによって、車両後方に存在する立体物を検出する。まず、視点変換部103aで視点変換された各俯瞰画像に対して、エッジ抽出用フィルタを適用し、各俯瞰画像内からエッジを抽出する。その後、エッジが抽出された各画素において、隣接する画素とのエッジの連続性を検出して、直線を構成するエッジのみを抽出する。これによって俯瞰画像内から直線を構成しない、例えば点などのノイズを除去することができる。
The three-dimensional
さらに、エッジ抽出を行った俯瞰画像内から画像内で横方向に延在するエッジ(横エッジ)を削除する。これによって、図5(a)および(b)に示すように、縦エッジのみを含む俯瞰画像を得ることができる。 Further, an edge (horizontal edge) extending in the horizontal direction in the image is deleted from the overhead image from which the edge has been extracted. Thereby, as shown in FIGS. 5A and 5B, a bird's-eye view image including only vertical edges can be obtained.
次に、上述した処理で作成した右後方カメラ101および左後方カメラ102によって撮像された画像に基づいて作成されたそれぞれの縦エッジのみを含む2枚の俯瞰画像を重畳する。すなわち、車両における右後方カメラ101および左後方カメラ102の設置位置、設置角度、および各カメラ固有のカメラパラメータを加味して、各俯瞰画像上における実空間上の同一位置が一致するようにそれぞれの俯瞰画像を重畳する。
Next, two overhead images including only the respective vertical edges created based on the images captured by the right
図6(a)は、図5(a)および(b)に示した2枚の縦エッジのみを含む俯瞰画像を重畳した場合の具体例を示す図である。このように、それぞれの撮像画像内に含まれる立体物3aと白線3bとの実空間上における存在位置が一致するように重畳した俯瞰画像を得ることができる。
FIG. 6A is a diagram illustrating a specific example in a case where the overhead image including only two vertical edges illustrated in FIGS. 5A and 5B is superimposed. In this way, it is possible to obtain a bird's-eye view image that is superimposed so that the positions of the three-
この図6(a)に示した重畳後の画像(重畳画像)において、エッジの端点を検出し、近接して存在する複数のエッジ端点をグルーピングする。例えば、図6(a)においては、符号6aおよび6bに示す2つのエッジ端点のグループが存在する。そして、それぞれのグループ内に存在する各エッジ端点から延在するエッジ同士が所定以上の角度を有しているグループのみを抽出する。
In the image after superimposition (superimposed image) shown in FIG. 6A, edge end points are detected, and a plurality of adjacent edge end points are grouped. For example, in FIG. 6A, there are two edge end point groups indicated by
例えば、図6(a)に示す例では、グループ6b内に存在する2つのエッジ端点から延在するエッジは、重畳画像上において略平行に延在しているため、グループ6bは抽出の対象外となる。これによって、視点変換時の投影面とした路面上の白線3bから検出されるエッジは、右後方カメラ101と左後方カメラ102との撮像角度の違いに関わらず、重畳画像上において略平行に延在することを加味して、重畳画像内に存在する路面上のペイントから抽出されたエッジを精度高く排除することができる。
For example, in the example shown in FIG. 6A, since the edge extending from the two edge end points existing in the
これに対して、グループ6a内に存在する2つのエッジ端点から延在するエッジは、重畳画像上において所定以上の角度を有して延在しているため、抽出の対象とする。これによって、立体物から検出された各エッジは、右後方カメラ101と左後方カメラ102との撮像角度の違いから、俯瞰画像を重畳した重畳画像上においては異なる方向に延在することを加味して、重畳画像内に存在する立体物から抽出された可能性が高いエッジを精度高く抽出することができる。
On the other hand, the edge extending from the two edge end points existing in the
さらに、立体物から抽出されたエッジを含むグループ6a内に存在する任意の1つのエッジ端点から、異なる方向に複数のエッジが延在している場合には、このエッジ端点から延在する複数のエッジは、同一の立体物から抽出された可能性が高いと判定する。すなわち、同一のエッジ端点から延在するエッジは、右後方カメラ101と左後方カメラ102との撮像角度の違いから、異なる2方向に延在しているが、それぞれの重畳画像上での端点は一致していることから、同一物から検出されたエッジである可能性が高いと判定することができる。
Furthermore, when a plurality of edges extend in different directions from any one edge end point existing in the
そして、抽出したグループ6a内において、同一端点から異なる方向に延在しているエッジのなす角、すなわち図6(b)におけるなす角θ1およびθ2のフレーム間での角度の変化を検出する。その結果、フレーム間でそれぞれのエッジのなす角θ1および/またはθ2が変化した場合には、自車両の走行に伴って、俯瞰画像上において後方カメラ101、および左後方カメラ102から各エッジが構成する物体の見える角度がそれぞれ変化することから、そのなす角が変化したエッジによって構成される物体は同一の立体物であると判定することができる。
Then, in the extracted
一方、フレーム間でそれぞれのエッジのなす角θ1および/またはθ2が変化しない場合には、俯瞰画像上において、後方カメラ101、および左後方カメラ102から各エッジが構成する物体の見える角度が変化していないことから、これらのエッジによって構成される物体は路面上のペイントなど、路面上から検出されたエッジであると判定することができる。
On the other hand, when the angles θ1 and / or θ2 formed by the respective edges do not change between the frames, the angle at which the object that each edge constitutes from the
例えば、図6(b)に示す例においては、フレーム間でθ1およびθ2の大きさの変化が検出されて、それぞれのエッジの端点から延在する各エッジは路上に存在する立体物から検出されたエッジであると判定することができる。これによって、右後方カメラ101、および左後方カメラ102の撮像範囲内に立体物が存在する場合には、それぞれのカメラからの立体物の見え方が異なることを加味して、精度高く重畳画像内に存在する立体物、すなわち、右後方カメラ101、および左後方カメラ102の撮像範囲内の路上に存在する立体物を検出することができる。
For example, in the example shown in FIG. 6B, changes in the magnitudes of θ1 and θ2 are detected between frames, and each edge extending from the end point of each edge is detected from a three-dimensional object existing on the road. It can be determined that the edge is a sharp edge. As a result, when there is a three-dimensional object within the imaging range of the right
図7は、本実施の形態における物体検出装置100の処理を示すフローチャートである。図7に示す処理は、車両のイグニションスイッチがオンされることによって、物体検出装置100の電源がオンされると起動するプログラムとして制御装置103により実行される。
FIG. 7 is a flowchart showing processing of the
ステップS10において、右後方カメラ101、および左後方カメラ102のそれぞれから撮像される画像の読み込みを開始して、ステップS20へ進む。ステップS20では、視点変換部103aは、上述したように、右後方カメラ101および左後方カメラ102によって撮像されたそれぞれの画像を視点変換して俯瞰画像を作成する。その後、ステップS30へ進み、立体物検出部103bは、視点変換された各俯瞰画像に対して、エッジ抽出用フィルタを適用し、各俯瞰画像内からエッジを抽出してステップS40へ進む。
In step S10, reading of images captured from each of the right
ステップS40では、エッジが抽出された各画素において、隣接する画素とのエッジの連続性を検出して、直線を構成するエッジのみを抽出する。その後、ステップS50へ進み、俯瞰画像内から画像内で横方向に延在するエッジ(横エッジ)を削除して、ステップS60へ進む。ステップS60では、上述したように、右後方カメラ101、および左後方カメラ102のそれぞれによって撮像された画像に基づいて作成された縦エッジのみを含む俯瞰画像を重畳して重畳画像を作成する。その後、ステップS70へ進む。
In step S40, in each pixel from which an edge has been extracted, the continuity of the edge with an adjacent pixel is detected, and only the edges that form a straight line are extracted. Thereafter, the process proceeds to step S50, an edge (horizontal edge) extending in the horizontal direction in the image is deleted from the overhead image, and the process proceeds to step S60. In step S60, as described above, a superimposed image is created by superimposing a bird's-eye view image including only vertical edges created based on images captured by the right
ステップS70では、上述したように、重畳画像においてエッジの端点を検出し、近接して存在する複数のエッジ端点をグルーピングする。その後、ステップS80へ進み、各グループ内に存在するエッジ端点から延在するエッジが所定以上の角度を有しているか否かを判断する。各エッジが所定以上の角度を有していない、すなわち略平行であると判断した場合には、後述するステップS120へ進む。これに対して、各エッジが所定以上の角度を有していると判断した場合には、ステップS90へ進む。 In step S70, as described above, edge end points are detected in the superimposed image, and a plurality of adjacent edge end points are grouped. Thereafter, the process proceeds to step S80, and it is determined whether or not the edge extending from the edge end point existing in each group has a predetermined angle or more. If it is determined that each edge does not have a predetermined angle or more, that is, is substantially parallel, the process proceeds to step S120 described later. On the other hand, if it is determined that each edge has a predetermined angle or more, the process proceeds to step S90.
ステップS90では、各グループ内に存在する任意のエッジ端点について、当該エッジ端点から右後方カメラ101で撮像された画像から抽出されたエッジ、および左後方カメラ102で撮像された画像から抽出されたエッジのそれぞれが異なる方向に延在しているか否かを判断する。任意のエッジ端点からそれぞれのエッジが異なる方向へ延在していないと判断した場合には、後述するステップS120へ進む。これに対して、任意のエッジ端点からそれぞれのエッジが異なる方向へ延在していると判断した場合には、ステップS100へ進む。
In step S90, for an arbitrary edge endpoint existing in each group, an edge extracted from the image captured by the right
ステップS100では、任意のエッジ端点からそれぞれのエッジが異なる方向へ延在しているエッジのなす角が連続して撮像されるフレーム間で変化するか否かを判断する。エッジのなす角がフレーム間で変化しないと判断した場合には、ステップS120へ進み、そのエッジは路面上のペイントであると判定する。これに対して、エッジのなす角がフレーム間で変化すると判断した場合には、ステップS110へ進み、そのエッジによって構成される物体は立体物であると判定する。 In step S100, it is determined whether or not the angle formed by an edge in which each edge extends in a different direction from an arbitrary edge end point changes between consecutively imaged frames. If it is determined that the angle formed by the edge does not change between frames, the process proceeds to step S120, where it is determined that the edge is paint on the road surface. On the other hand, when it is determined that the angle formed by the edge changes between frames, the process proceeds to step S110, and it is determined that the object constituted by the edge is a three-dimensional object.
その後、ステップS130へ進み、自車両のイグニションスイッチがオフされたか否かを判断する。自車両のイグニションスイッチがオフされないと判断した場合には、ステップS20へ戻って処理を繰り返す。これに対して、オフされたと判断した場合には、処理を終了する。 Then, it progresses to step S130 and it is judged whether the ignition switch of the own vehicle was turned off. If it is determined that the ignition switch of the host vehicle is not turned off, the process returns to step S20 and the process is repeated. On the other hand, if it is determined that it is turned off, the process is terminated.
以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)右後方カメラ101、および左後方カメラ102のそれぞれで撮像した画像を視点変換して俯瞰画像を作成し、俯瞰画像から縦エッジのみを抽出して、各俯瞰画像上における実空間上の同一位置が一致するようにそれぞれの俯瞰画像を重畳した。そして、俯瞰画像内で近接して存在するエッジ端点をグルーピングして、各グループ内に存在するエッジ端点から延在するエッジが所定の角度を有している場合には、そのエッジは立体物から抽出された可能性が高いと判定するようにした。これによって、立体物から検出された各エッジは、右後方カメラ101と左後方カメラ102との撮像角度の違いから、俯瞰画像を重畳した重畳画像上においては異なる方向に延在することを加味して、重畳画像内に存在する立体物から抽出された可能性が高いエッジを精度高く抽出することができる。
According to the present embodiment described above, the following operational effects can be obtained.
(1) A viewpoint image is created by converting viewpoints of images captured by the right
例えば、従来の立体物検出方法のように、異なる方向から2枚の画像を撮像し、撮像した一方の画像の輝度値と他方の画像の輝度値とを比較し、それぞれの輝度値の異なる位置に立体物が存在すると判定する場合には、それぞれの画像で光が当たる箇所が異なる場合に誤検出が発生する可能性があった。これに対して上述した実施の形態によれば、画像の輝度に基づいて立体物を判定する代わりに、重畳画像内で抽出したエッジの角度に基づいて立体物を検出するため、画像内における光の当たり方によらず、精度高く立体物を検出することが可能となる。 For example, as in the conventional three-dimensional object detection method, two images are taken from different directions, the luminance value of one image is compared with the luminance value of the other image, and the positions where the respective luminance values are different. In the case where it is determined that there is a three-dimensional object, there is a possibility that erroneous detection may occur when the location where the light hits is different in each image. On the other hand, according to the above-described embodiment, instead of determining a three-dimensional object based on the luminance of the image, the three-dimensional object is detected based on the angle of the edge extracted in the superimposed image. It is possible to detect a three-dimensional object with high accuracy regardless of how it hits.
(2)また、俯瞰画像内で近接して存在するエッジ端点をグルーピングした結果、各グループ内に存在するエッジ端点から延在するエッジが略平行である場合には、そのエッジは路面上のペイントから抽出されたエッジであると判定するようにした。これによって、視点変換時の投影面とした路面上から検出されるエッジは、右後方カメラ101と左後方カメラ102との撮像角度の違いに関わらず、重畳画像上において略平行に延在することを加味して、重畳画像内に存在する路面上のペイント、例えば白線から抽出されたエッジを精度高く排除することができる。
(2) Further, when edge edges that are close to each other in the bird's-eye view image are grouped, and the edges extending from the edge endpoints existing in each group are substantially parallel, the edges are painted on the road surface. It was determined that the edge was extracted from. As a result, the edge detected from the road surface as the projection plane at the time of viewpoint conversion extends substantially in parallel on the superimposed image regardless of the difference in imaging angle between the right
(3)俯瞰画像内で近接して存在するエッジ端点をグルーピングした結果、各グループ内に存在するエッジ端点からエッジが異なる方向に複数延在している場合には、それらのエッジは同一物から抽出されたエッジであると判定するようにした。これによって、同一のエッジ端点から延在するエッジは、右後方カメラ101と左後方カメラ102との撮像角度の違いから、異なる2方向に延在しているが、それぞれの重畳画像上での端点は一致していることを加味して、精度高く同一立体物から検出されたエッジを検出することができる。
(3) As a result of grouping edge end points that are close to each other in the bird's-eye view image, when a plurality of edges extend in different directions from the edge end points existing in each group, those edges are from the same object. Judged to be an extracted edge. As a result, the edges extending from the same edge end point extend in two different directions due to the difference in imaging angle between the right
(4)同一端点から異なる方向に延在しているエッジのなす角を算出し、フレーム間でそのなす角が変化した場合には、そのなす角が変化したエッジによって構成される物体は立体物であると判定するようにした。これによって、右後方カメラ101、および左後方カメラ102の撮像範囲内に立体物が存在する場合には、それぞれのカメラからの立体物の見え方が異なることを加味して、精度高く重畳画像内に存在する立体物を検出することができる。
(4) When an angle formed by edges extending in different directions from the same end point is calculated and the angle formed between frames changes, an object constituted by the edge formed by the changed angle is a three-dimensional object. It was determined to be. As a result, when there is a three-dimensional object within the imaging range of the right
(5)重畳画像内で立体物として検出されなかったエッジは、路面のペイントから検出されたエッジであると判定するようにした。これによって、右後方カメラ101および左後方カメラ102によって撮像されたそれぞれの画像を、路面を投影面として視点変化して得た俯瞰画像に基づいて作成した重畳画像では、路面上のペイントは平面として扱うことができることを加味して、立体物以外のものを路面のペイントと判定することで、重畳画像内に存在する立体物と路面のペイントとを精度高く分離することが可能となる。
(5) An edge that is not detected as a three-dimensional object in the superimposed image is determined to be an edge detected from paint on the road surface. As a result, in the superimposed image created based on the overhead view image obtained by changing the viewpoint of the respective images captured by the right
―変形例―
なお、上述した実施の形態の物体検出装置は、以下のように変形することもできる。
(1)上述した実施の形態では、右後方カメラ101および左後方カメラ102とを撮像手段として備え、これらのカメラで撮像した画像に基づいて、自車両後方に存在する立体物を検出する処理について説明した。しかしこれに限定されず、例えば右前方カメラと左前方カメラとを設けて、車両前方に存在する立体物を検出するようにしてもよく、車両の周囲全体を撮像するための複数のカメラを設置して、車両周囲に存在する立体物を検出するようにしてもよい。
-Modification-
The object detection apparatus according to the above-described embodiment can be modified as follows.
(1) In the embodiment described above, the right
(2)上述した実施の形態では、次の(A)〜(C)の条件を全て満たした場合に、抽出したエッジが構成する物体は立体物であると判定する例について説明した。
(A)各グループ内に存在するエッジ端点から延在するエッジが所定以上の角度を有している。
(B)各グループ内に存在する任意のエッジ端点から延在するエッジのそれぞれが異なる方向に延在している。
(C)任意のエッジ端点からそれぞれのエッジが異なる方向へ延在しているエッジのなす角が連続して撮像されるフレーム間で変化する。
しかしながら、(A)〜(C)のいずれか1つ、または2つを満たした場合に、抽出したエッジが構成する物体は立体物であると判定するようにしてもよい。
(2) In the above-described embodiment, an example has been described in which, when all the following conditions (A) to (C) are satisfied, it is determined that the object formed by the extracted edge is a three-dimensional object.
(A) An edge extending from an edge end point existing in each group has a predetermined angle or more.
(B) Each of the edges extending from an arbitrary edge end point existing in each group extends in a different direction.
(C) An angle formed by an edge in which each edge extends in a different direction from an arbitrary edge end point varies between consecutively imaged frames.
However, when any one or two of (A) to (C) is satisfied, it may be determined that the object formed by the extracted edge is a three-dimensional object.
(3)上述した実施の形態では、物体検出装置を車両に搭載する例について説明したが、これに限定されず、その他の移動体に搭載するようにしてもよい。 (3) In the above-described embodiment, the example in which the object detection device is mounted on the vehicle has been described. However, the present invention is not limited to this, and the object detection device may be mounted on another moving body.
なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。 Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired.
特許請求の範囲の構成要素と実施の形態との対応関係について説明する。立体物検出部103bは、画像重畳手段、グルーピング手段、および角度変化検出手段に相当する。なお、以上の説明はあくまでも一例であり、発明を解釈する際、上記の実施形態の記載事項と特許請求の範囲の記載事項の対応関係に何ら限定も拘束もされない。
The correspondence between the constituent elements of the claims and the embodiment will be described. The three-dimensional
100 物体検出装置
101 右後方カメラ
102 左後方カメラ
103 制御装置
103a 視点変換部
103b 立体物検出部
DESCRIPTION OF
Claims (4)
前記視点変換手段で作成した複数の俯瞰画像からエッジを抽出するエッジ抽出手段と、
前記エッジ抽出手段でエッジを抽出した複数の俯瞰画像を重畳する画像重畳手段と、
前記画像重畳手段で重畳した画像内に存在するエッジの端点を検出して、その存在位置が近接するエッジ端点をグルーピングするグルーピング手段と、
前記グルーピング手段でグルーピングした各グループ内に存在するエッジ端点から延在するエッジ間の角度が所定以上であるエッジは、立体物から検出されたエッジであると判定する立体物検出手段とを備えることを特徴とする物体検出装置。 Viewpoint conversion means for creating a plurality of overhead images having a road surface as a projection plane by converting viewpoints of images around the vehicle imaged from different angles by a plurality of imaging means;
Edge extraction means for extracting edges from a plurality of overhead images created by the viewpoint conversion means;
Image superimposing means for superimposing a plurality of overhead images obtained by extracting edges by the edge extracting means;
Grouping means for detecting edge endpoints existing in the image superimposed by the image superimposing means, and grouping edge endpoints whose existence positions are close to each other;
A solid object detecting means for determining that an edge having an angle between edges extending from edge end points existing in each group grouped by the grouping means is equal to or larger than a predetermined value is an edge detected from the solid object. An object detection device characterized by.
前記立体物検出手段は、前記グルーピング手段でグルーピングした任意のグループ内に存在する1つのエッジ端点から異なる方向に複数のエッジが延在している場合には、そのエッジ端点から延在するエッジは同一の立体物から抽出されたエッジの候補であると判定することを特徴とする物体検出装置。 The object detection apparatus according to claim 1,
In the case where a plurality of edges extend in different directions from one edge end point existing in an arbitrary group grouped by the grouping unit, the three-dimensional object detection unit has an edge extending from the edge end point. An object detection apparatus for determining that an edge is extracted from the same three-dimensional object.
前記立体物検出手段は、グループ内に存在する1つのエッジ端点から異なる方向に複数のエッジが延在している場合に、フレーム間における前記1つのエッジ端点から異なる方向に延在する複数のエッジ間の角度の変化を検出する角度変化検出手段を含み、
前記角度変化検出手段によってフレーム間でエッジ間の角度の変化が検出された場合に、1つのエッジ端点から異なる方向に延在する複数のエッジは同一の立体物から抽出されたエッジであると判定することを特徴とする物体検出装置。 The object detection device according to claim 2,
The three-dimensional object detection means includes a plurality of edges extending in different directions from the one edge end point between frames when a plurality of edges extend in different directions from one edge end point existing in the group. Including an angle change detecting means for detecting a change in angle between,
When a change in angle between edges is detected between frames by the angle change detection means, it is determined that a plurality of edges extending in different directions from one edge end point are edges extracted from the same three-dimensional object. An object detection apparatus characterized by:
作成した複数の俯瞰画像からエッジを抽出し、
エッジを抽出した複数の俯瞰画像を重畳し、
重畳した画像内に存在するエッジの端点を検出して、その存在位置が近接するエッジ端点をグルーピングし、
グルーピングした各グループ内に存在するエッジ端点から延在するエッジ間の角度が所定以上であるエッジは立体物から検出されたエッジであると判定することを特徴とする物体検出方法。 A plurality of bird's-eye images are created by converting the viewpoint of each of the images around the vehicle imaged from different angles by a plurality of imaging means and using the road surface as a projection plane,
Edges are extracted from the created overhead images,
Superimpose multiple bird's-eye images extracted edges,
Detect the edge endpoints that exist in the superimposed image, group the edge endpoints that are close to each other,
An object detection method, wherein an edge having an angle between edges extending from edge end points existing in each grouped group is determined to be an edge detected from a three-dimensional object.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005161244A JP2006339960A (en) | 2005-06-01 | 2005-06-01 | Object detection apparatus and object detection method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005161244A JP2006339960A (en) | 2005-06-01 | 2005-06-01 | Object detection apparatus and object detection method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2006339960A true JP2006339960A (en) | 2006-12-14 |
Family
ID=37560111
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2005161244A Pending JP2006339960A (en) | 2005-06-01 | 2005-06-01 | Object detection apparatus and object detection method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2006339960A (en) |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008262333A (en) * | 2007-04-11 | 2008-10-30 | Nissan Motor Co Ltd | Road surface discrimination device and road surface discrimination method |
| JP2009188635A (en) * | 2008-02-05 | 2009-08-20 | Nissan Motor Co Ltd | Vehicle periphery image processing apparatus and vehicle periphery state presentation method |
| WO2012023412A1 (en) * | 2010-08-19 | 2012-02-23 | 日産自動車株式会社 | Three-dimensional object detection device and three-dimensional object detection method |
| JP2012098084A (en) * | 2010-10-29 | 2012-05-24 | Keyence Corp | Image measuring apparatus, image measuring method and computer program |
| WO2012073391A1 (en) * | 2010-11-29 | 2012-06-07 | パナソニック株式会社 | Driving-assistance display device |
| JP2013205956A (en) * | 2012-03-27 | 2013-10-07 | Sumitomo Heavy Ind Ltd | Image generation method, image generation device and operation support system |
| WO2014061195A1 (en) * | 2012-10-19 | 2014-04-24 | 日本電気株式会社 | Passenger counting system, passenger counting method and passenger counting program |
| CN104012081A (en) * | 2011-12-19 | 2014-08-27 | 日产自动车株式会社 | Object detection device |
| WO2018146997A1 (en) * | 2017-02-07 | 2018-08-16 | 日本電気株式会社 | Three-dimensional object detection device |
| US10192122B2 (en) | 2014-08-21 | 2019-01-29 | Mitsubishi Electric Corporation | Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program |
| US10410072B2 (en) | 2015-11-20 | 2019-09-10 | Mitsubishi Electric Corporation | Driving support apparatus, driving support system, driving support method, and computer readable recording medium |
-
2005
- 2005-06-01 JP JP2005161244A patent/JP2006339960A/en active Pending
Cited By (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008262333A (en) * | 2007-04-11 | 2008-10-30 | Nissan Motor Co Ltd | Road surface discrimination device and road surface discrimination method |
| JP2009188635A (en) * | 2008-02-05 | 2009-08-20 | Nissan Motor Co Ltd | Vehicle periphery image processing apparatus and vehicle periphery state presentation method |
| WO2012023412A1 (en) * | 2010-08-19 | 2012-02-23 | 日産自動車株式会社 | Three-dimensional object detection device and three-dimensional object detection method |
| US10397544B2 (en) | 2010-08-19 | 2019-08-27 | Nissan Motor Co., Ltd. | Three-dimensional object detection device and three-dimensional object detection method |
| JP5413516B2 (en) * | 2010-08-19 | 2014-02-12 | 日産自動車株式会社 | Three-dimensional object detection apparatus and three-dimensional object detection method |
| RU2540849C2 (en) * | 2010-08-19 | 2015-02-10 | Ниссан Мотор Ко., Лтд. | Device for detecting three-dimensional object and method of detecting three-dimensional object |
| JP2012098084A (en) * | 2010-10-29 | 2012-05-24 | Keyence Corp | Image measuring apparatus, image measuring method and computer program |
| US8848050B2 (en) | 2010-11-29 | 2014-09-30 | Panasonic Corporation | Drive assist display apparatus |
| WO2012073391A1 (en) * | 2010-11-29 | 2012-06-07 | パナソニック株式会社 | Driving-assistance display device |
| JP2012119755A (en) * | 2010-11-29 | 2012-06-21 | Panasonic Corp | Drive support display device |
| CN102933430A (en) * | 2010-11-29 | 2013-02-13 | 松下电器产业株式会社 | Driving-assistance display device |
| CN104012081A (en) * | 2011-12-19 | 2014-08-27 | 日产自动车株式会社 | Object detection device |
| EP2797320A4 (en) * | 2011-12-19 | 2015-05-27 | Nissan Motor | DEVICE FOR DETECTING OBJECTS |
| CN104012081B (en) * | 2011-12-19 | 2017-04-19 | 日产自动车株式会社 | Object detection device |
| JP2013205956A (en) * | 2012-03-27 | 2013-10-07 | Sumitomo Heavy Ind Ltd | Image generation method, image generation device and operation support system |
| WO2014061195A1 (en) * | 2012-10-19 | 2014-04-24 | 日本電気株式会社 | Passenger counting system, passenger counting method and passenger counting program |
| JPWO2014061195A1 (en) * | 2012-10-19 | 2016-09-05 | 日本電気株式会社 | Passenger counting system, passenger counting method and passenger counting program |
| US9477881B2 (en) | 2012-10-19 | 2016-10-25 | Nec Corporation | Passenger counting system, passenger counting method and passenger counting program |
| US9846802B2 (en) | 2012-10-19 | 2017-12-19 | Nec Corporation | Passenger counting system, passenger counting method and passenger counting program |
| US10192122B2 (en) | 2014-08-21 | 2019-01-29 | Mitsubishi Electric Corporation | Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program |
| US10410072B2 (en) | 2015-11-20 | 2019-09-10 | Mitsubishi Electric Corporation | Driving support apparatus, driving support system, driving support method, and computer readable recording medium |
| WO2018146997A1 (en) * | 2017-02-07 | 2018-08-16 | 日本電気株式会社 | Three-dimensional object detection device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6348758B2 (en) | Image processing device | |
| JP4622001B2 (en) | Road lane marking detection apparatus and road lane marking detection method | |
| JP5402828B2 (en) | Lane boundary detection device, lane boundary detection program | |
| CN102567713A (en) | Image processing apparatus | |
| US10055655B2 (en) | Traffic light detection device and traffic light detection method | |
| CN105825495A (en) | Object detection apparatus and object detection method | |
| JP2006339960A (en) | Object detection apparatus and object detection method | |
| JP2006338272A (en) | Vehicle behavior detection device and vehicle behavior detection method | |
| KR101402089B1 (en) | Apparatus and Method for Obstacle Detection | |
| JP2014106739A (en) | In-vehicle image processing device | |
| JP2009083632A (en) | Moving object detecting device | |
| JP2017074867A (en) | Abnormality determination device | |
| JP4042750B2 (en) | Image processing apparatus, computer program, and image processing method | |
| CN104512334A (en) | Filtering device | |
| JP6313999B2 (en) | Object detection device and object detection system | |
| KR101420242B1 (en) | vehicle detector and method using stereo camera | |
| CN109923586B (en) | Parking frame recognition device | |
| JP2016021712A (en) | Image processing system and operation support system | |
| US20240312223A1 (en) | Image processing apparatus | |
| KR101501531B1 (en) | Stereo Vision-based Pedestrian Detection System and the method of | |
| JP2008257399A (en) | Image processing device | |
| JP2008064716A (en) | Vehicle azimuth correcting system | |
| JP6729358B2 (en) | Recognition device | |
| JP5929330B2 (en) | Step detection device | |
| JP7344776B2 (en) | Traffic light recognition method and traffic light recognition device |