JP2007088601A - Object detection device - Google Patents
Object detection device Download PDFInfo
- Publication number
- JP2007088601A JP2007088601A JP2005272253A JP2005272253A JP2007088601A JP 2007088601 A JP2007088601 A JP 2007088601A JP 2005272253 A JP2005272253 A JP 2005272253A JP 2005272253 A JP2005272253 A JP 2005272253A JP 2007088601 A JP2007088601 A JP 2007088601A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- detection
- image
- hidden
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Geophysics And Detection Of Objects (AREA)
Abstract
【課題】一部の隠れた検出対象物を適切に検出できる物体検出装置を提供する。
【解決手段】撮像した画像を画像処理して検出対象物の検出を行う物体検出装置1であって、画像内における車両を検出しておき、画像をエッジ処理し、その車両の端部から延びる下端エッジ線を検出し、その下端エッジ線に基づき車両の一部が隠れている車両の検出を行う。これにより、車両の隠れ割合に応じて車両検出が行え、車両の検出精度の向上が図れる。
【選択図】図1An object detection apparatus capable of appropriately detecting a part of a hidden detection target is provided.
An object detection apparatus that detects a detection target by performing image processing on a captured image, detects a vehicle in the image, performs edge processing on the image, and extends from an end of the vehicle. A lower end edge line is detected, and a vehicle in which a part of the vehicle is hidden is detected based on the lower end edge line. Thereby, vehicle detection can be performed according to the hidden ratio of the vehicle, and the detection accuracy of the vehicle can be improved.
[Selection] Figure 1
Description
本発明は、撮像された画像を画像処理することにより検出対象物を検出する物体検出装置に関するものである。 The present invention relates to an object detection apparatus that detects a detection target by performing image processing on a captured image.
従来、撮像された画像を画像処理することによって検出対象物を検出する装置として、特開平8−329397号公報に記載されるように、検出対象物として車両を検出する装置であって、撮像した画像データを微分処理し、その微分画像について横エッジ処理及び縦エッジ処理を行い、この横エッジ量及び縦エッジ量を強調した画像を生成し、その画像に基づいて先行車の認識を行うものが知られている。
しかしながら、このような装置にあっては、重なって撮像される複数の検出対象物を検出することが困難である。例えば、すぐ前の先行車の前を走行する車両がその先行車の陰になって一部隠れている状態となっている場合、その一部隠れている車両については、車両全体が撮像されていないため、認識することが困難となる。 However, in such an apparatus, it is difficult to detect a plurality of detection objects that are imaged in an overlapping manner. For example, when a vehicle traveling in front of a preceding vehicle is partially hidden behind the preceding vehicle, the entire vehicle is imaged for the partially hidden vehicle. It is difficult to recognize.
そこで本発明は、撮像した画像を画像処理することにより一部隠れた検出対象物を適切に検出できる物体検出装置を提供することを目的とする。 Therefore, an object of the present invention is to provide an object detection apparatus that can appropriately detect a partially hidden detection target by performing image processing on a captured image.
すなわち、本発明に係る物体検出装置は、撮像した画像を画像処理して検出対象物の検出を行う物体検出装置において、前記画像内における第一検出対象物を検出する第一検出手段と、前記画像をエッジ処理するエッジ処理手段と、前記第一検出対象物の端部から延びるエッジ線に基づき、前記第一検出対象物に一部が隠れている第二検出対象物を検出する第二検出手段とを備えて構成されている。 That is, the object detection device according to the present invention is an object detection device that detects a detection target by performing image processing on a captured image, and a first detection unit that detects a first detection target in the image; Second detection for detecting a second detection target partly hidden by the first detection target based on an edge processing means for edge processing the image and an edge line extending from an end of the first detection target And means.
この発明によれば、第一検出対象物の端部から延びるエッジ線を検出することにより第一検出対象物に一部が隠れている第二検出対象物を適切に検出することができる。 According to the present invention, it is possible to appropriately detect the second detection target that is partially hidden behind the first detection target by detecting the edge line extending from the end of the first detection target.
また本発明に係る物体検出装置において、前記第二検出手段は、前記エッジ線に基づいて前記第二検出対象物の隠れ割合を割り出し、その隠れ割合に応じて前記第二検出対象物の検出を行うことが好ましい。 Moreover, in the object detection apparatus according to the present invention, the second detection means calculates a hidden ratio of the second detection target based on the edge line, and detects the second detection target according to the hidden ratio. Preferably it is done.
また本発明に係る物体検出装置において、前記第二検出手段は、前記第二検出対象物の隠れ割合に応じて検出判定モデルを修正し、その修正した検出判定モデルを用いて前記第二検出対象物の検出を行うことが好ましい。 Further, in the object detection apparatus according to the present invention, the second detection means corrects the detection determination model according to the hidden ratio of the second detection target, and uses the corrected detection determination model to detect the second detection target. It is preferable to detect an object.
これらの発明によれば、第二検出対象物の隠れ割合に応じて第二検出対象物の検出を行うことにより、第二検出対象物が隠れ割合が異なる場合にも対応して第二検出対象物の検出が正確に行える。このため、第二検出対象物の検出精度の向上が図れる。 According to these inventions, by detecting the second detection object in accordance with the hidden ratio of the second detection object, the second detection object can be handled even when the second detection object has a different hidden ratio. Objects can be detected accurately. For this reason, the detection accuracy of the second detection object can be improved.
また本発明に係る物体検出装置は、前記第一検出対象物として第一車両を検出し、前記第二検出対象物として前記第一車両に一部が隠れている第二車両を検出する装置であって、前記第二検出手段は、前記第一車両の端部から延びる前記第二車両の下端エッジ線に基づいて前記前記第二車両を検出することを特徴とする。 Moreover, the object detection apparatus according to the present invention is an apparatus that detects a first vehicle as the first detection target and detects a second vehicle partially hidden behind the first vehicle as the second detection target. And said 2nd detection means detects said 2nd vehicle based on the lower end edge line of said 2nd vehicle extended from the edge part of said 1st vehicle, It is characterized by the above-mentioned.
この発明によれば、第一車両の端部から延びる第二車両の下端エッジ線を検出することにより、第一車両に一部が隠れている第二車両を適切に検出することができる。 According to this invention, it is possible to appropriately detect the second vehicle partially hidden by the first vehicle by detecting the lower edge line of the second vehicle extending from the end of the first vehicle.
また本発明に係る物体検出装置において、前記第二検出手段は、前記下端エッジ線に基づいて前記第二車両の隠れ割合を割り出し、その隠れ割合に応じて前記第二車両の検出を行うことが好ましい。 In the object detection device according to the present invention, the second detection means may determine a hidden ratio of the second vehicle based on the lower edge line and detect the second vehicle according to the hidden ratio. preferable.
また本発明に係る物体検出装置において、前記第二検出手段は、前記第二車両の隠れ割合に応じて検出判定モデルを修正し、その修正した検出判定モデルを用いて前記第二車両の検出を行うことが好ましい。 Further, in the object detection apparatus according to the present invention, the second detection means corrects the detection determination model according to the hidden ratio of the second vehicle, and detects the second vehicle using the corrected detection determination model. Preferably it is done.
これらの発明によれば、第二車両の隠れ割合に応じて第二車両の検出を行うことにより、第二車両が隠れ割合が異なる場合にも対応して第二車両の検出が正確に行える。このため、第二車両の検出精度の向上を図ることができる。 According to these inventions, by detecting the second vehicle according to the hidden ratio of the second vehicle, it is possible to accurately detect the second vehicle even when the second vehicle has a different hidden ratio. For this reason, the detection accuracy of the second vehicle can be improved.
本発明によれば、撮像した画像を画像処理することにより一部隠れた検出対象物を適切に検出することができる。 According to the present invention, it is possible to appropriately detect a detection target partially hidden by performing image processing on a captured image.
以下、添付図面を参照して本発明の実施の形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.
図1は本発明の実施形態に係る物体検出装置の構成概要図である。 FIG. 1 is a schematic configuration diagram of an object detection apparatus according to an embodiment of the present invention.
図1に示すように、本実施形態に係る物体検出装置1は、撮像した画像を画像処理することにより検出対象物を検出する装置であって、検出対象物として車両を検出するものである。物体検出装置1は、例えば車両に搭載され、その前方又は後方を走行する他車の検出を行う。この物体検出装置1は、撮像部2、車両検出部3、モデル生成部4、車両位置推定部5、モデル修正部6、車両判定部7及び出力部8を備えて構成されている。車両検出部3、モデル生成部4、車両位置推定部5、モデル修正部6及び車両判定部7は、例えば画像処理IC及び画像メモリなどによって構成される。
As shown in FIG. 1, an
撮像部2は、検出すべき車両を撮像する撮像手段として機能するものであり、例えば撮像装置及び画像記憶メモリを備えて構成される。撮像装置は、車両の前方又は後方を撮像できるように設置される。また、撮像装置としては、例えばCCDカメラ、C−MOSカメラなどが用いられる。撮像装置により撮像された画像は、画像記憶メモリに記録される。例えば、図2に示すように、撮像される画像10は、後続の車両21、22及び23が撮像されている。車両21は、自車のすぐ後を走行する車両であり、車両全体が撮像されている。車両22は、車両21に後続して走行する車両であり、その一部が車両21に隠れており、車両の一部が撮像された状態になっている。車両23は、車両22に後続して走行する車両であり、その一部が車両22に隠れており、車両の一部が撮像された状態になっている。
The
図1において、車両検出部3は、撮像画像内に車両全体が撮像されている車両の検出を画像処理によって行うものである。車両検出部3は、車両検出メモリを有し、検出された車両の位置や大きさを車両検出メモリに記録する。
In FIG. 1, a
モデル生成部4は、車両検出に用いるモデルを生成するものである。このモデル生成部4は、データベース記憶メモリ及びモデル記憶メモリを備えている。データベース記憶メモリは、車両が撮像されている車両サンプル画像や車両が撮像されていない背景画像などを記憶するメモリである。例えば、図3に示すように、車両サンプル画像31は、車両31aを切り出した画像である。車両31aは、車両サンプル画像31が縦h、横wの大きさの場合、下側に幅a、左側に幅b、右側に幅cを空けて切り出されている。
The
モデル生成部4が生成するモデルは、車両を表現する部分を検出するための複数のフィルタにより構成されている。例えば、図4に示すように、モデル40は、車両31aの外縁部や境界部などに配置される複数のフィルタ41によって構成されている。フィルタ41は、例えば車両のバンパと車両下の陰部分との境界、車両のルーフと背景との境界、フロントガラスとボンネットとの境界、タイヤと道路背景との境界、車両の横縁の境界などに配置される。各フィルタ41は、モデル40のサイズを増減しても、それらの相対位置関係が変化しないように、相対位置が設定されている。これにより、サイズの異なる車両に対して、モデル40のサイズを変えることで、車両検出を行うことができる。
The model generated by the
図4においては、フィルタ41の配置される領域のみが表されている。例えば、図5に示すように、フィルタ41は、車両の外縁や境界などを境に正領域41aと負領域41bを設けて構成されている。正領域41aにおける画素の輝度値の和から負領域41bにおける画素の輝度値の和を減ずることにより、フィルタ値が算出される。このフィルタ値の大きさにより、正領域41aと負領域41bとの濃淡差を判定することができ、車両であるか否かの部分的な判断を行うことができる。
In FIG. 4, only the region where the
このモデル生成部4においては、複数の車両サンプル画像に基づいて複数のモデルを生成することが好ましい。これにより、各種の車両に対応したモデルを生成することができ、各種の車両について検出精度の向上を図ることができる。また、モデルを構成する各フィルタについては、車両検出の検出率及び誤検出率に応じて重みを設定することが好ましい。これにより、車両の検出精度の向上が図られる。
In this
車両位置推定部5は、画像内の車両の位置を画像処理によって推定する車両位置推定手段して機能するものである。この車両位置推定部5は、例えば、撮像画像のエッジ処理を行い、エッジに基づいて車両の端点を抽出し、タイヤの検出を行うなどして、車両の位置を推定する。
The vehicle
モデル修正部6は、車両検出に用いるモデルを修正するものである。すなわち、車両の隠れ度合いを検出し、その隠れ度合いに応じて車両全体を検出するためのモデルを修正するものである。車両判定部7は、画像内に車両が存在するか否かを判定するものである。この車両判定部7は、一部が隠れた車両について車両であるか否かを判定することができるものである。出力部8は、車両の検出結果を出力する出力手段であり、例えば、ランプ、液晶、LEDなど視覚を通じて出力するもの、又はブザー、スピーカなど聴覚などを通じて出力するものなどが用いられる。
The
次に、本実施形態に係る物体検出装置1の動作について説明する。
Next, the operation of the
図1において、撮像部2により自車の後方を走行する車両の撮影が行われる。撮像部2により撮像された撮像画像は、車両検出部3に入力され、画像処理されて車両検出が行われる。
In FIG. 1, imaging of a vehicle traveling behind the host vehicle is performed by the
図6は、物体検出装置1における車両検出処理のフローチャートである。この図6における一連の制御処理は、車両検出部3を主体とし、所定の周期で繰り返し実行される。
FIG. 6 is a flowchart of the vehicle detection process in the
まず、図6のS10に示すように、撮像画像の読み込み処理が行われる。この撮像画像の読み込み処理は、撮像部2で撮像された画像を車両検出部3に取り込むことにより行われる。そして、S12に移行し、検出領域設定処理が行われる。検出領域設定処理は、撮像画像内に車両を検出するための検出領域を設定する処理である。例えば、図7に示すように、撮像画像10に矩形状の検出領域50を設定する。検出領域50の大きさは、検出すべき車両の大きさに応じて設定される。
First, as shown in S10 of FIG. 6, a captured image reading process is performed. The captured image reading process is performed by taking the image captured by the
そして、S14に移行し、検出スコアの算出処理が行われる。検出スコアの算出処理は、検出領域50において車両の検出スコアを算出する処理である。検出スコアは、検出領域50において車両検出判断に用いられる数値である。検出スコアは、図4に示す車両検出のモデル40を用いて算出される。すなわち、検出領域50にモデル40の大きさが合わされ、モデル40のフィルタ41における各フィルタ値が算出される。そして、フィルタ値にそれぞれ重みを乗じたものの総和が検出スコアとして算出される。例えば、検出スコアは、検出領域50に車両が存在する場合、車両が存在しない場合に比べて大きい値となって算出される。
And it transfers to S14 and the calculation process of a detection score is performed. The detection score calculation process is a process of calculating a vehicle detection score in the
そして、図6のS16に移行し、検出スコアが車両検出しきい値を超えたか否かが判断される。しきい値は、車両検出部3に予め設定される設定値である。S16にて検出スコアがしきい値を超えていない場合には、検出領域50に車両が検出されなかったと判断され、S20に移行する。一方、S16にて検出スコアがしきい値を超えている場合には、検出領域50に車両が検出されたと判断され、車両検出の記録処理が行われる(S18)。車両検出の記録処理は、車両の位置とサイズを車両検出メモリに記録する処理である。
And it transfers to S16 of FIG. 6 and it is judged whether the detection score exceeded the vehicle detection threshold value. The threshold value is a set value set in advance in the
そして、S20に移行し、検出領域50のシフト処理が行われる。このシフト処理は、検出領域50を次の検出位置に移動させる処理である。例えば、図7に示すように、検出領域50は、撮像画像10の左上の位置から右方向に移動され、右端に来たら一つ下の左端に移動され、右下の位置に来るまで順次シフトされる。
Then, the process proceeds to S20, and the
そして、S22に移行し、シフトが全て完了したか否かが判断される。すなわち、検出領域50が右下位置まで移動し、全ての検出位置を移動し終えたか否かが判断される。全てのシフトが完了していないと判断された場合には、S14に戻る。一方、シフトが全て完了したと判断された場合には、検出領域のサイズ変更処理が行われる。サイズ変更処理は、検出領域50の大きさを変更する処理である。例えば、検出領域50は、最小サイズから最大サイズまで設定可能とされ、最小サイズから最大のサイズまで複数のサイズに変更される。
Then, the process proceeds to S22 to determine whether or not all the shifts are completed. That is, it is determined whether or not the
そして、S26に移行し、サイズ変更が全て完了したか否かが判断される。すなわち、検出領域50が最小サイズから最大サイズまでサイズ変更し終えたか否かが判断される。全てのサイズ変更が完了していないと判断された場合には、S14に戻る。一方、サイズ変更が全て完了したと判断された場合には、車両検出処理の一連の制御処理を終了する。
Then, the process proceeds to S26, and it is determined whether or not all the size changes are completed. That is, it is determined whether or not the
このような車両検出処理によれば、撮像画像10において全体が現れている車両21の検出が行え、車両21における撮像画像10上の位置及び大きさを検出することができる。例えば、図2において、全体が現れている車両21の位置及び大きさを検出することができる。
According to such a vehicle detection process, the
この車両検出処理において、車両検出のモデルを複数用いることが好ましい。例えば、種類の異なる車両に対応した複数のモデルを用いて車両検出を行うことにより、各種の車両を的確に検出することができる。 In this vehicle detection process, it is preferable to use a plurality of vehicle detection models. For example, various vehicles can be accurately detected by performing vehicle detection using a plurality of models corresponding to different types of vehicles.
次に、物体検出装置1における車両位置推定処理について説明する。
Next, the vehicle position estimation process in the
図8に車両位置推定処理のフローチャートを示す。この車両位置推定処理は、上述した車両検出処理にて検出した全体車両の位置情報などに基づいて一部が隠れた車両の位置などを推定する処理である。 FIG. 8 shows a flowchart of the vehicle position estimation process. This vehicle position estimation process is a process of estimating the position of a partially hidden vehicle based on the position information of the entire vehicle detected by the vehicle detection process described above.
この車両位置推定処理は、S30に示すように、まずエッジ処理が行われる。エッジ処理は、撮像画像10をエッジ処理してエッジ画像を生成する処理である。そして、S32に移行し、車両21の下端エッジの検出処理が行われる。この検出処理は、エッジ画像に基づいて全体が現れている車両21の下端エッジを検出する処理である。
In this vehicle position estimation process, edge processing is first performed as shown in S30. The edge processing is processing for generating an edge image by performing edge processing on the captured
例えば、図9に示すように、エッジ画像11において、車両下端エッジを検出するためのウインドウ12が設定され、そのウインドウ12が横方向にシフトされる。そして、図10に示すように、ウインドウ12と横エッジとの交点がグラフ化される。ウインドウ12は、車両検出処理にて検出された車両21の位置及び大きさに基づいて、シフトにより少なくとも車両21を含むように設定される。
For example, as shown in FIG. 9, a
そして、図10において、所定の長さ以上に長い横エッジ線であって、一番下に現れる横エッジ線61が車両21の下端エッジとして検出される。通常、車両下端と路面の間は、影により暗くなるので、車両下部の位置に横エッジが形成される。このため、エッジ画像において、所定以上の長さの横エッジ線を抽出することにより、車両の下端エッジを的確に検出することができる。
In FIG. 10, the
そして、図8のS34に移行し、後続の車両の下端エッジの検出処理が行われる。この検出処理は、一部が隠れた車両の下端エッジを検出する処理である。例えば、図10において、ウインドウがシフトしていくと、車両21の下端エッジ61が消滅し、最下部が次のエッジ62に移動する。このエッジ62が下端エッジ61との上下位置の差Y1が所定値以内であり、エッジ62が所定の長さ以上の長さであれば、一部が隠れた車両の下端エッジであると判断される。
Then, the process proceeds to S34 in FIG. 8, and the detection processing of the lower edge of the subsequent vehicle is performed. This detection process is a process for detecting the lower edge of a vehicle that is partially hidden. For example, in FIG. 10, as the window shifts, the
そして、図8のS36に移行し、後続の車両の下端エッジがあるか否かが判断される。後続の車両の下端エッジがないと判断されたときには、S48に移行する。一方、S36にて後続の車両の下端エッジがあると判断されたときには、縦エッジの検出処理が行われる(S38)。縦エッジの検出処理は、車両と車両との間に形成される縦エッジを検出する処理である。例えば、図11に示すように、車両21と車両22の間の位置に縦長のウインドウ13が設定され、ウインドウ13の設定領域に所定以上の長さの縦エッジがあるかどうか検出される。車両21と車両22の間の位置は、エッジ画像11において、図10の下端エッジ61と下端エッジ62の境界位置P1に対応する位置に設定すればよい。
Then, the process proceeds to S36 in FIG. 8 to determine whether or not there is a lower end edge of the following vehicle. When it is determined that there is no lower edge of the following vehicle, the process proceeds to S48. On the other hand, when it is determined in S36 that there is a lower edge of the following vehicle, a vertical edge detection process is performed (S38). The vertical edge detection process is a process for detecting a vertical edge formed between vehicles. For example, as shown in FIG. 11, a vertically
そして、図8のS40に移行し、縦エッジが検出されたか否かが判断される。縦エッジが検出されていない場合には、S48に移行する。一方、S40にて縦エッジが検出された場合には、タイヤ検出処理が行われる(S42)。タイヤ検出処理は、車両のタイヤを検出する処理であり、車両の位置からその車両のタイヤ位置を特定し、そのタイヤ位置にタイヤがあるか否かを検出して行われる。例えば、図12に示すように、撮像画像10のタイヤ位置にタイヤ検出用のフィルタ41、41がかけられ、輝度値の濃淡に基づいてタイヤの有無が評価される。
Then, the process proceeds to S40 in FIG. 8, and it is determined whether or not a vertical edge is detected. If no vertical edge is detected, the process proceeds to S48. On the other hand, if a vertical edge is detected in S40, tire detection processing is performed (S42). The tire detection process is a process for detecting a tire of a vehicle, and is performed by specifying the tire position of the vehicle from the position of the vehicle and detecting whether there is a tire at the tire position. For example, as shown in FIG. 12, tire detection filters 41 and 41 are applied to the tire position of the captured
そして、図8のS44に移行し、タイヤが検出されたか否かが判断される。タイヤが検出されない場合には、S48に移行する。一方、S44にてタイヤが検出された場合には、記録処理が行われる(S46)。記録処理は、車両の下端位置、上端位置、下隅位置及びサイズを記録する処理である。車両の下端位置は、下端エッジの位置に基づいて記録される。車両の上端位置は、下端エッジの上方に位置する所定以上の長さの上端エッジに基づいて記録される。車両の下隅位置は、車両のタイヤ位置に基づいて記録される。車両のサイズは、車両の下端エッジに基づいて算出され記録される。 Then, the process proceeds to S44 in FIG. 8, and it is determined whether or not a tire is detected. If no tire is detected, the process proceeds to S48. On the other hand, when a tire is detected in S44, a recording process is performed (S46). The recording process is a process of recording the lower end position, the upper end position, the lower corner position, and the size of the vehicle. The lower end position of the vehicle is recorded based on the position of the lower end edge. The upper end position of the vehicle is recorded on the basis of an upper end edge having a predetermined length or more and located above the lower end edge. The lower corner position of the vehicle is recorded based on the vehicle tire position. The size of the vehicle is calculated and recorded based on the lower edge of the vehicle.
そして、記録処理を終えたら、S34の後続車両の下端エッジ検出処理に戻る。この場合、二回目の下端エッジ検出処理では、後続車両に後続する車両の下端エッジの検出が行われる。すなわち、図2に示すように、全体が現れている車両21があり、その車両21に後続して車両22、車両23がある場合、車両22に後続する車両23の下端エッジ検出処理が行われる。そして、縦エッジ検出(S38)、タイヤ検出(S42)、記録処理(S46)が順次行われることにより、車両22及び車両23の車両の下端位置、上端位置及び下隅位置が記録される。
When the recording process is completed, the process returns to the lower edge detection process of the succeeding vehicle in S34. In this case, in the second lower edge detection process, the lower edge of the vehicle following the succeeding vehicle is detected. That is, as shown in FIG. 2, when there is a
ところで、S36にて後続車両の下端エッジがないと判断された場合には、S48に移行し、車両端部位置の記録保存処理が行われる。この場合、後続する車両がもうないと判断され、検出された車両について、その端部位置の記録保存が行われる。例えば、図2においては、車両21、22及び23について、車両左下位置21a、22a及び23aが記録される。
By the way, when it is determined in S36 that there is no lower edge of the following vehicle, the process proceeds to S48, and the recording and storing process of the vehicle end position is performed. In this case, it is determined that there is no subsequent vehicle, and the end position of the detected vehicle is recorded and stored. For example, in FIG. 2, the vehicle lower
そして、S50に移行し、他の全体が現れている車両があるか否かが判断される。撮像画像10において他の全体が現れている車両がある場合には、S32に移行する。一方、S50にて他の全体が現れている車両がない場合には、車両位置推定処理の一連の制御処理を終了する。
Then, the process proceeds to S50, and it is determined whether or not there is a vehicle in which another whole appears. When there is a vehicle in which another whole appears in the captured
このような車両位置推定処理によれば、撮像画像10に撮像される全体車両(全体が現れている車両)及び一部車両(一部が隠れている車両)の位置を適切に推定することができる。すなわち、車両の下端エッジを検出し、車両と車両との間の縦エッジを検出することにより、一部車両の検出が適切に行える。
According to such a vehicle position estimation process, it is possible to appropriately estimate the positions of the entire vehicle (the vehicle in which the entire image appears) and the partial vehicle (the vehicle in which the image is partially hidden) captured in the captured
また、車両の位置検出に際し、タイヤ検出を行うことにより、車両の存在の確実性が向上し、車両の位置検出の精度向上が図れる。 In addition, by detecting the tire when detecting the position of the vehicle, the certainty of the presence of the vehicle is improved, and the accuracy of detecting the position of the vehicle can be improved.
次に、物体検出装置1における車両判定処理について説明する。
Next, the vehicle determination process in the
図13に車両判定処理のフローチャートを示す。この車両判定処理は、一部が隠れている車両を検出する処理である。 FIG. 13 shows a flowchart of the vehicle determination process. This vehicle determination process is a process for detecting a partially hidden vehicle.
この車両判定処理は、S60に示すように、まずモデル修正処理が行われる。モデル修正処理は、全体が現れた車両を検出するためのモデルを、一部が隠れた車両を検出するモデルに修正する処理である。例えば、図14に示すように、撮像画像10において、車両22の左下位置22aから車両21までの距離d1が算出される。この距離d1は、車両22の隠れ割合を示すものとなる。そして、この距離d1及び車両サイズに基づいて、車両検出用のモデルが修正される。このモデル修正は、距離d1及び車両サイズに基づいて行われることにより、車両22の隠れ割合に応じてモデルの修正が可能となる。車両サイズとしては、車両位置推定処理にて算出されたものが用いられる。
In this vehicle determination process, as shown in S60, a model correction process is first performed. The model correction process is a process of correcting a model for detecting a vehicle that has appeared entirely to a model for detecting a partially hidden vehicle. For example, as shown in FIG. 14, in the captured
図15に示すように、モデル修正は、車両22が隠れている分だけ車両検出用のモデル40の一部を削除することにより行われる。削除範囲40aは、車両22のサイズ及び現れている距離d1に基づき、隠れ割合に応じて設定される。また、このモデル40の一部削除に伴って、車両検出しきい値の修正が行われる。削除されるフィルタ41と一部が削除されるフィルタ41の分だけ検出スコア値が減少するため、その減少に応じて車両検出しきい値が減ぜられる。これにより、一部のみが現れている車両22の適切な車両検出判断が可能となる。
As shown in FIG. 15, the model correction is performed by deleting a part of the
そして、図13のS62に移行し、検出スコアの算出処理が行われる。検出スコア算出処理は、S60にて修正したモデルを用いて車両22の検出スコアを算出する処理である。例えば、撮像画像10に対し、車両22の位置に修正モデルが配置され、修正モデルの各フィルタ41のフィルタ値が算出され、フィルタ値の総和である検出スコアが算出される。
Then, the process proceeds to S62 in FIG. 13 and detection score calculation processing is performed. The detection score calculation process is a process of calculating the detection score of the
そして、S64に移行し、検出スコアが車両検出しきい値を超えたか否か判断される。検出スコアが車両検出しきい値を超えていない場合には、車両が検出されなかったと判断され、S68に移行する。一方、S64にて検出スコアが車両検出しきい値を超えた場合には、車両が検出されたとして、車両検出の記録処理が行われる(S66)。車両検出の記録処理は、一部のみが現れている車両22について情報を記録する処理である。例えば、車両22の位置、大きさが記録される。
And it transfers to S64 and it is judged whether the detection score exceeded the vehicle detection threshold value. If the detection score does not exceed the vehicle detection threshold, it is determined that no vehicle has been detected, and the process proceeds to S68. On the other hand, when the detection score exceeds the vehicle detection threshold value in S64, the vehicle detection recording process is performed assuming that the vehicle is detected (S66). The vehicle detection recording process is a process of recording information about the
そして、S68に移行し、他に判定すべき車両があるか否かが判断される。例えば、図14に示すように、車両22に後続する車両23がある場合には、他に判定すべき車両があると判断され、S60に戻り、車両23に対応したモデル修正が行われる。一方、S68にて他に判定すべき車両がないと判断された場合には、車両判定処理の一連の制御処理を終了する。
Then, the process proceeds to S68, where it is determined whether there is another vehicle to be determined. For example, as shown in FIG. 14, when there is a
このような車両判定処理によれば、一部が隠れている車両についても、適切に車両検出が行える。すなわち、一部が隠れている車両については、その隠れ程度に応じてモデル修正が行われ、その修正されたモデルを用いることにより適切な車両検出が可能となる。 According to such a vehicle determination process, vehicle detection can be performed appropriately even for a partially hidden vehicle. That is, for a partially hidden vehicle, model correction is performed according to the degree of hiding, and appropriate vehicle detection is possible by using the corrected model.
以上のように、本実施形態に係る物体検出装置1によれば、全体が現れている車両の端部から延びる車両の下端エッジ線を検出することにより、車両に一部が隠れている車両を適切に検出することができる。
As described above, according to the
また、車両の隠れ割合に応じて車両の検出を行うことにより、車両が隠れ割合が異なる場合にも対応して車両の検出が正確に行える。このため、一部が隠れている車両の検出精度の向上を図ることができる。 In addition, by detecting the vehicle according to the hidden ratio of the vehicle, the vehicle can be accurately detected even when the vehicle has a different hidden ratio. For this reason, it is possible to improve the detection accuracy of a partially hidden vehicle.
なお、上述した実施形態は本発明に係る物体検出装置の一例を示すものである。本発明に係る物体検出装置は、このようなものに限られるものではなく、各請求項に記載した要旨を変更しないものであれば、実施形態に係る物体検出装置を変形し、又は他のものに適用したものであってもよい。例えば、本実施形態では、車両の検出を行う装置について説明したが、車両以外の物などの検出に適用してもよい。 The above-described embodiment shows an example of the object detection apparatus according to the present invention. The object detection device according to the present invention is not limited to this, and the object detection device according to the embodiment may be modified or otherwise provided that the gist described in each claim is not changed. It may be applied to. For example, in the present embodiment, an apparatus for detecting a vehicle has been described. However, the present invention may be applied to detection of an object other than a vehicle.
1…物体検出装置、2…撮像部、3…車両検出部、4…モデル生成部、5…車両位置推定部、6…モデル修正部、7…車両判定部、8…出力部。
DESCRIPTION OF
Claims (6)
前記画像内における第一検出対象物を検出する第一検出手段と、
前記画像をエッジ処理するエッジ処理手段と、
前記第一検出対象物の端部から延びるエッジ線に基づき、前記第一検出対象物に一部が隠れている第二検出対象物を検出する第二検出手段と、
を備えた物体検出装置。 In an object detection apparatus that detects a detection target by performing image processing on a captured image,
First detection means for detecting a first detection object in the image;
Edge processing means for edge processing the image;
Second detection means for detecting a second detection object partially hidden behind the first detection object based on an edge line extending from an end of the first detection object;
An object detection apparatus comprising:
を特徴とする請求項1に記載の物体検出装置。 The second detection means calculates a hidden ratio of the second detection object based on the edge line, and detects the second detection object according to the hidden ratio;
The object detection apparatus according to claim 1.
を特徴とする請求項1又は2に記載の物体検出装置。 The second detection means corrects the detection determination model according to the hidden ratio of the second detection target, and detects the second detection target using the corrected detection determination model.
The object detection device according to claim 1, wherein:
前記第二検出手段は、前記第一車両の端部から延びる前記第二車両の下端エッジ線に基づいて前記前記第二車両を検出すること、
を特徴とする請求項1に記載の物体検出装置。 A device that detects a first vehicle as the first detection object and detects a second vehicle that is partially hidden behind the first vehicle as the second detection object,
The second detection means detects the second vehicle based on a lower edge line of the second vehicle extending from an end of the first vehicle;
The object detection apparatus according to claim 1.
を特徴とする請求項4に記載の物体検出装置。 The second detection means calculates a hidden ratio of the second vehicle based on the lower edge line, and detects the second vehicle according to the hidden ratio;
The object detection apparatus according to claim 4.
を特徴とする請求項4又は5に記載の物体検出装置。 The second detection means corrects the detection determination model according to the hidden ratio of the second vehicle, and detects the second vehicle using the corrected detection determination model;
The object detection apparatus according to claim 4, wherein:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005272253A JP2007088601A (en) | 2005-09-20 | 2005-09-20 | Object detection device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005272253A JP2007088601A (en) | 2005-09-20 | 2005-09-20 | Object detection device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2007088601A true JP2007088601A (en) | 2007-04-05 |
Family
ID=37975174
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2005272253A Pending JP2007088601A (en) | 2005-09-20 | 2005-09-20 | Object detection device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2007088601A (en) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010218246A (en) * | 2009-03-17 | 2010-09-30 | Toyota Motor Corp | Object identification device |
| JP2010231706A (en) * | 2009-03-30 | 2010-10-14 | Fujitsu Ltd | Vehicle information extraction program, vehicle information extraction device, and vehicle information extraction method |
| JP2016175449A (en) * | 2015-03-18 | 2016-10-06 | 横浜ゴム株式会社 | Travel support device |
| KR101937777B1 (en) * | 2018-05-14 | 2019-01-11 | 주식회사 에스오에스랩 | Lidar device and method for measuring distance using the same |
| CN110065492A (en) * | 2018-01-23 | 2019-07-30 | 丰田自动车株式会社 | Vehicle control system |
| US10557924B1 (en) | 2018-05-14 | 2020-02-11 | SOS Lab co., Ltd | Lidar device |
| US10591598B2 (en) | 2018-01-08 | 2020-03-17 | SOS Lab co., Ltd | Lidar device |
| US11953626B2 (en) | 2018-01-08 | 2024-04-09 | SOS Lab co., Ltd | LiDAR device |
| US12553991B2 (en) | 2022-03-04 | 2026-02-17 | Sos Lab Co., Ltd. | LiDAR device |
-
2005
- 2005-09-20 JP JP2005272253A patent/JP2007088601A/en active Pending
Cited By (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010218246A (en) * | 2009-03-17 | 2010-09-30 | Toyota Motor Corp | Object identification device |
| JP2010231706A (en) * | 2009-03-30 | 2010-10-14 | Fujitsu Ltd | Vehicle information extraction program, vehicle information extraction device, and vehicle information extraction method |
| JP2016175449A (en) * | 2015-03-18 | 2016-10-06 | 横浜ゴム株式会社 | Travel support device |
| US11953596B2 (en) | 2018-01-08 | 2024-04-09 | Sos Lab Co., Ltd. | LiDAR device |
| US10591598B2 (en) | 2018-01-08 | 2020-03-17 | SOS Lab co., Ltd | Lidar device |
| US10613224B2 (en) | 2018-01-08 | 2020-04-07 | SOS Lab co., Ltd | LiDAR device |
| US11493630B2 (en) | 2018-01-08 | 2022-11-08 | SOS Lab co., Ltd | LiDAR device |
| US11953626B2 (en) | 2018-01-08 | 2024-04-09 | SOS Lab co., Ltd | LiDAR device |
| CN110065492A (en) * | 2018-01-23 | 2019-07-30 | 丰田自动车株式会社 | Vehicle control system |
| JP2019128700A (en) * | 2018-01-23 | 2019-08-01 | トヨタ自動車株式会社 | Vehicle control system |
| US10557924B1 (en) | 2018-05-14 | 2020-02-11 | SOS Lab co., Ltd | Lidar device |
| US10578721B2 (en) | 2018-05-14 | 2020-03-03 | SOS Lab co., Ltd | LiDAR device |
| US10705190B2 (en) | 2018-05-14 | 2020-07-07 | SOS Lab co., Ltd | LiDAR device |
| KR101937777B1 (en) * | 2018-05-14 | 2019-01-11 | 주식회사 에스오에스랩 | Lidar device and method for measuring distance using the same |
| US12135393B2 (en) | 2018-05-14 | 2024-11-05 | Sos Lab Co., Ltd. | LiDAR device comprising a plurality of beam steering cells for steering a laser beam |
| US12553991B2 (en) | 2022-03-04 | 2026-02-17 | Sos Lab Co., Ltd. | LiDAR device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5600332B2 (en) | Driving assistance device | |
| US20140071240A1 (en) | Free space detection system and method for a vehicle using stereo vision | |
| JP4872769B2 (en) | Road surface discrimination device and road surface discrimination method | |
| JP6237875B2 (en) | Self-position calculation device and self-position calculation method | |
| JP5947268B2 (en) | Roll angle estimation device for vehicle | |
| JP6237874B2 (en) | Self-position calculation device and self-position calculation method | |
| JP2004117078A (en) | Obstacle detection apparatus and method | |
| JP2006331193A (en) | Vehicle, image processing system, image processing method, and image processing program | |
| JP2021117760A (en) | Object tracking device and object tracking method | |
| JP4296287B2 (en) | Vehicle recognition device | |
| JP2007088601A (en) | Object detection device | |
| JP6462557B2 (en) | Vehicle pitch angle estimation device | |
| JP2010108049A (en) | Road marking recognition device | |
| JP2010061375A (en) | Apparatus and program for recognizing object | |
| JP7056496B2 (en) | Position detector | |
| JP2012252501A (en) | Traveling path recognition device and traveling path recognition program | |
| JP2011170539A (en) | Lighting color discriminating device and program | |
| JP2010286995A (en) | Image processing system for vehicle | |
| JP4767052B2 (en) | Optical axis deviation detector | |
| WO2025050767A1 (en) | Vision-based spatial parking space detection method and system, and automobile | |
| JP7131131B2 (en) | VEHICLE LINE DETECTION DEVICE AND METHOD | |
| JP5472137B2 (en) | Boundary detection device and boundary detection program | |
| JP4842301B2 (en) | Pedestrian detection device and program | |
| CN101124612B (en) | Image processing method, image processing system, and image processing device | |
| JP6719328B2 (en) | Exterior monitoring device |