[go: up one dir, main page]

JP2007088601A - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP2007088601A
JP2007088601A JP2005272253A JP2005272253A JP2007088601A JP 2007088601 A JP2007088601 A JP 2007088601A JP 2005272253 A JP2005272253 A JP 2005272253A JP 2005272253 A JP2005272253 A JP 2005272253A JP 2007088601 A JP2007088601 A JP 2007088601A
Authority
JP
Japan
Prior art keywords
vehicle
detection
image
hidden
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005272253A
Other languages
Japanese (ja)
Inventor
Hiroaki Shimizu
宏明 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2005272253A priority Critical patent/JP2007088601A/en
Publication of JP2007088601A publication Critical patent/JP2007088601A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

【課題】一部の隠れた検出対象物を適切に検出できる物体検出装置を提供する。
【解決手段】撮像した画像を画像処理して検出対象物の検出を行う物体検出装置1であって、画像内における車両を検出しておき、画像をエッジ処理し、その車両の端部から延びる下端エッジ線を検出し、その下端エッジ線に基づき車両の一部が隠れている車両の検出を行う。これにより、車両の隠れ割合に応じて車両検出が行え、車両の検出精度の向上が図れる。
【選択図】図1
An object detection apparatus capable of appropriately detecting a part of a hidden detection target is provided.
An object detection apparatus that detects a detection target by performing image processing on a captured image, detects a vehicle in the image, performs edge processing on the image, and extends from an end of the vehicle. A lower end edge line is detected, and a vehicle in which a part of the vehicle is hidden is detected based on the lower end edge line. Thereby, vehicle detection can be performed according to the hidden ratio of the vehicle, and the detection accuracy of the vehicle can be improved.
[Selection] Figure 1

Description

本発明は、撮像された画像を画像処理することにより検出対象物を検出する物体検出装置に関するものである。   The present invention relates to an object detection apparatus that detects a detection target by performing image processing on a captured image.

従来、撮像された画像を画像処理することによって検出対象物を検出する装置として、特開平8−329397号公報に記載されるように、検出対象物として車両を検出する装置であって、撮像した画像データを微分処理し、その微分画像について横エッジ処理及び縦エッジ処理を行い、この横エッジ量及び縦エッジ量を強調した画像を生成し、その画像に基づいて先行車の認識を行うものが知られている。
特開平8−329397号公報
Conventionally, as a device for detecting a detection target by performing image processing on a captured image, as described in JP-A-8-329397, a device for detecting a vehicle as a detection target, What differentiates image data, performs horizontal edge processing and vertical edge processing on the differential image, generates an image in which the horizontal edge amount and vertical edge amount are emphasized, and recognizes the preceding vehicle based on the image Are known.
JP-A-8-329397

しかしながら、このような装置にあっては、重なって撮像される複数の検出対象物を検出することが困難である。例えば、すぐ前の先行車の前を走行する車両がその先行車の陰になって一部隠れている状態となっている場合、その一部隠れている車両については、車両全体が撮像されていないため、認識することが困難となる。   However, in such an apparatus, it is difficult to detect a plurality of detection objects that are imaged in an overlapping manner. For example, when a vehicle traveling in front of a preceding vehicle is partially hidden behind the preceding vehicle, the entire vehicle is imaged for the partially hidden vehicle. It is difficult to recognize.

そこで本発明は、撮像した画像を画像処理することにより一部隠れた検出対象物を適切に検出できる物体検出装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an object detection apparatus that can appropriately detect a partially hidden detection target by performing image processing on a captured image.

すなわち、本発明に係る物体検出装置は、撮像した画像を画像処理して検出対象物の検出を行う物体検出装置において、前記画像内における第一検出対象物を検出する第一検出手段と、前記画像をエッジ処理するエッジ処理手段と、前記第一検出対象物の端部から延びるエッジ線に基づき、前記第一検出対象物に一部が隠れている第二検出対象物を検出する第二検出手段とを備えて構成されている。   That is, the object detection device according to the present invention is an object detection device that detects a detection target by performing image processing on a captured image, and a first detection unit that detects a first detection target in the image; Second detection for detecting a second detection target partly hidden by the first detection target based on an edge processing means for edge processing the image and an edge line extending from an end of the first detection target And means.

この発明によれば、第一検出対象物の端部から延びるエッジ線を検出することにより第一検出対象物に一部が隠れている第二検出対象物を適切に検出することができる。   According to the present invention, it is possible to appropriately detect the second detection target that is partially hidden behind the first detection target by detecting the edge line extending from the end of the first detection target.

また本発明に係る物体検出装置において、前記第二検出手段は、前記エッジ線に基づいて前記第二検出対象物の隠れ割合を割り出し、その隠れ割合に応じて前記第二検出対象物の検出を行うことが好ましい。   Moreover, in the object detection apparatus according to the present invention, the second detection means calculates a hidden ratio of the second detection target based on the edge line, and detects the second detection target according to the hidden ratio. Preferably it is done.

また本発明に係る物体検出装置において、前記第二検出手段は、前記第二検出対象物の隠れ割合に応じて検出判定モデルを修正し、その修正した検出判定モデルを用いて前記第二検出対象物の検出を行うことが好ましい。   Further, in the object detection apparatus according to the present invention, the second detection means corrects the detection determination model according to the hidden ratio of the second detection target, and uses the corrected detection determination model to detect the second detection target. It is preferable to detect an object.

これらの発明によれば、第二検出対象物の隠れ割合に応じて第二検出対象物の検出を行うことにより、第二検出対象物が隠れ割合が異なる場合にも対応して第二検出対象物の検出が正確に行える。このため、第二検出対象物の検出精度の向上が図れる。   According to these inventions, by detecting the second detection object in accordance with the hidden ratio of the second detection object, the second detection object can be handled even when the second detection object has a different hidden ratio. Objects can be detected accurately. For this reason, the detection accuracy of the second detection object can be improved.

また本発明に係る物体検出装置は、前記第一検出対象物として第一車両を検出し、前記第二検出対象物として前記第一車両に一部が隠れている第二車両を検出する装置であって、前記第二検出手段は、前記第一車両の端部から延びる前記第二車両の下端エッジ線に基づいて前記前記第二車両を検出することを特徴とする。   Moreover, the object detection apparatus according to the present invention is an apparatus that detects a first vehicle as the first detection target and detects a second vehicle partially hidden behind the first vehicle as the second detection target. And said 2nd detection means detects said 2nd vehicle based on the lower end edge line of said 2nd vehicle extended from the edge part of said 1st vehicle, It is characterized by the above-mentioned.

この発明によれば、第一車両の端部から延びる第二車両の下端エッジ線を検出することにより、第一車両に一部が隠れている第二車両を適切に検出することができる。   According to this invention, it is possible to appropriately detect the second vehicle partially hidden by the first vehicle by detecting the lower edge line of the second vehicle extending from the end of the first vehicle.

また本発明に係る物体検出装置において、前記第二検出手段は、前記下端エッジ線に基づいて前記第二車両の隠れ割合を割り出し、その隠れ割合に応じて前記第二車両の検出を行うことが好ましい。   In the object detection device according to the present invention, the second detection means may determine a hidden ratio of the second vehicle based on the lower edge line and detect the second vehicle according to the hidden ratio. preferable.

また本発明に係る物体検出装置において、前記第二検出手段は、前記第二車両の隠れ割合に応じて検出判定モデルを修正し、その修正した検出判定モデルを用いて前記第二車両の検出を行うことが好ましい。   Further, in the object detection apparatus according to the present invention, the second detection means corrects the detection determination model according to the hidden ratio of the second vehicle, and detects the second vehicle using the corrected detection determination model. Preferably it is done.

これらの発明によれば、第二車両の隠れ割合に応じて第二車両の検出を行うことにより、第二車両が隠れ割合が異なる場合にも対応して第二車両の検出が正確に行える。このため、第二車両の検出精度の向上を図ることができる。   According to these inventions, by detecting the second vehicle according to the hidden ratio of the second vehicle, it is possible to accurately detect the second vehicle even when the second vehicle has a different hidden ratio. For this reason, the detection accuracy of the second vehicle can be improved.

本発明によれば、撮像した画像を画像処理することにより一部隠れた検出対象物を適切に検出することができる。   According to the present invention, it is possible to appropriately detect a detection target partially hidden by performing image processing on a captured image.

以下、添付図面を参照して本発明の実施の形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

図1は本発明の実施形態に係る物体検出装置の構成概要図である。   FIG. 1 is a schematic configuration diagram of an object detection apparatus according to an embodiment of the present invention.

図1に示すように、本実施形態に係る物体検出装置1は、撮像した画像を画像処理することにより検出対象物を検出する装置であって、検出対象物として車両を検出するものである。物体検出装置1は、例えば車両に搭載され、その前方又は後方を走行する他車の検出を行う。この物体検出装置1は、撮像部2、車両検出部3、モデル生成部4、車両位置推定部5、モデル修正部6、車両判定部7及び出力部8を備えて構成されている。車両検出部3、モデル生成部4、車両位置推定部5、モデル修正部6及び車両判定部7は、例えば画像処理IC及び画像メモリなどによって構成される。   As shown in FIG. 1, an object detection apparatus 1 according to the present embodiment is an apparatus that detects a detection target by performing image processing on a captured image, and detects a vehicle as the detection target. The object detection device 1 is mounted on a vehicle, for example, and detects other vehicles that travel in front of or behind the object detection device 1. The object detection apparatus 1 includes an imaging unit 2, a vehicle detection unit 3, a model generation unit 4, a vehicle position estimation unit 5, a model correction unit 6, a vehicle determination unit 7, and an output unit 8. The vehicle detection unit 3, the model generation unit 4, the vehicle position estimation unit 5, the model correction unit 6, and the vehicle determination unit 7 are configured by, for example, an image processing IC and an image memory.

撮像部2は、検出すべき車両を撮像する撮像手段として機能するものであり、例えば撮像装置及び画像記憶メモリを備えて構成される。撮像装置は、車両の前方又は後方を撮像できるように設置される。また、撮像装置としては、例えばCCDカメラ、C−MOSカメラなどが用いられる。撮像装置により撮像された画像は、画像記憶メモリに記録される。例えば、図2に示すように、撮像される画像10は、後続の車両21、22及び23が撮像されている。車両21は、自車のすぐ後を走行する車両であり、車両全体が撮像されている。車両22は、車両21に後続して走行する車両であり、その一部が車両21に隠れており、車両の一部が撮像された状態になっている。車両23は、車両22に後続して走行する車両であり、その一部が車両22に隠れており、車両の一部が撮像された状態になっている。   The imaging unit 2 functions as an imaging unit that images a vehicle to be detected, and includes, for example, an imaging device and an image storage memory. An imaging device is installed so that the front or back of a vehicle can be imaged. Moreover, as an imaging device, a CCD camera, a C-MOS camera, etc. are used, for example. An image captured by the imaging device is recorded in an image storage memory. For example, as illustrated in FIG. 2, in the image 10 to be captured, the following vehicles 21, 22, and 23 are captured. The vehicle 21 is a vehicle that travels immediately behind the host vehicle, and the entire vehicle is imaged. The vehicle 22 is a vehicle that travels following the vehicle 21, a part of which is hidden behind the vehicle 21, and a part of the vehicle is imaged. The vehicle 23 is a vehicle that travels following the vehicle 22, a part of which is hidden behind the vehicle 22, and a part of the vehicle is imaged.

図1において、車両検出部3は、撮像画像内に車両全体が撮像されている車両の検出を画像処理によって行うものである。車両検出部3は、車両検出メモリを有し、検出された車両の位置や大きさを車両検出メモリに記録する。   In FIG. 1, a vehicle detection unit 3 detects a vehicle in which the entire vehicle is captured in a captured image by image processing. The vehicle detection unit 3 has a vehicle detection memory, and records the detected position and size of the vehicle in the vehicle detection memory.

モデル生成部4は、車両検出に用いるモデルを生成するものである。このモデル生成部4は、データベース記憶メモリ及びモデル記憶メモリを備えている。データベース記憶メモリは、車両が撮像されている車両サンプル画像や車両が撮像されていない背景画像などを記憶するメモリである。例えば、図3に示すように、車両サンプル画像31は、車両31aを切り出した画像である。車両31aは、車両サンプル画像31が縦h、横wの大きさの場合、下側に幅a、左側に幅b、右側に幅cを空けて切り出されている。   The model generation unit 4 generates a model used for vehicle detection. The model generation unit 4 includes a database storage memory and a model storage memory. The database storage memory is a memory that stores a vehicle sample image in which the vehicle is imaged, a background image in which the vehicle is not imaged, and the like. For example, as shown in FIG. 3, the vehicle sample image 31 is an image obtained by cutting out the vehicle 31a. The vehicle 31a is cut out with a width a on the lower side, a width b on the left side, and a width c on the right side when the vehicle sample image 31 has a size of height h and width w.

モデル生成部4が生成するモデルは、車両を表現する部分を検出するための複数のフィルタにより構成されている。例えば、図4に示すように、モデル40は、車両31aの外縁部や境界部などに配置される複数のフィルタ41によって構成されている。フィルタ41は、例えば車両のバンパと車両下の陰部分との境界、車両のルーフと背景との境界、フロントガラスとボンネットとの境界、タイヤと道路背景との境界、車両の横縁の境界などに配置される。各フィルタ41は、モデル40のサイズを増減しても、それらの相対位置関係が変化しないように、相対位置が設定されている。これにより、サイズの異なる車両に対して、モデル40のサイズを変えることで、車両検出を行うことができる。   The model generated by the model generation unit 4 is composed of a plurality of filters for detecting a portion representing the vehicle. For example, as illustrated in FIG. 4, the model 40 includes a plurality of filters 41 that are arranged at an outer edge portion or a boundary portion of the vehicle 31 a. The filter 41 may be, for example, a boundary between a vehicle bumper and a shaded portion under the vehicle, a boundary between a vehicle roof and a background, a boundary between a windshield and a hood, a boundary between a tire and a road background, a boundary between a vehicle and a lateral edge. Placed in. The relative positions of the filters 41 are set so that their relative positional relationship does not change even if the size of the model 40 is increased or decreased. Thereby, vehicle detection can be performed by changing the size of the model 40 with respect to vehicles of different sizes.

図4においては、フィルタ41の配置される領域のみが表されている。例えば、図5に示すように、フィルタ41は、車両の外縁や境界などを境に正領域41aと負領域41bを設けて構成されている。正領域41aにおける画素の輝度値の和から負領域41bにおける画素の輝度値の和を減ずることにより、フィルタ値が算出される。このフィルタ値の大きさにより、正領域41aと負領域41bとの濃淡差を判定することができ、車両であるか否かの部分的な判断を行うことができる。   In FIG. 4, only the region where the filter 41 is arranged is shown. For example, as shown in FIG. 5, the filter 41 is configured by providing a positive region 41 a and a negative region 41 b with the outer edge or boundary of the vehicle as a boundary. The filter value is calculated by subtracting the sum of the luminance values of the pixels in the negative region 41b from the sum of the luminance values of the pixels in the positive region 41a. Based on the magnitude of this filter value, the light / dark difference between the positive region 41a and the negative region 41b can be determined, and a partial determination of whether or not the vehicle is a vehicle can be made.

このモデル生成部4においては、複数の車両サンプル画像に基づいて複数のモデルを生成することが好ましい。これにより、各種の車両に対応したモデルを生成することができ、各種の車両について検出精度の向上を図ることができる。また、モデルを構成する各フィルタについては、車両検出の検出率及び誤検出率に応じて重みを設定することが好ましい。これにより、車両の検出精度の向上が図られる。   In this model generation part 4, it is preferable to generate a plurality of models based on a plurality of vehicle sample images. As a result, models corresponding to various vehicles can be generated, and the detection accuracy of various vehicles can be improved. For each filter constituting the model, it is preferable to set a weight according to the detection rate and false detection rate of vehicle detection. Thereby, the detection accuracy of the vehicle is improved.

車両位置推定部5は、画像内の車両の位置を画像処理によって推定する車両位置推定手段して機能するものである。この車両位置推定部5は、例えば、撮像画像のエッジ処理を行い、エッジに基づいて車両の端点を抽出し、タイヤの検出を行うなどして、車両の位置を推定する。   The vehicle position estimation unit 5 functions as vehicle position estimation means for estimating the position of the vehicle in the image by image processing. The vehicle position estimation unit 5 estimates the position of the vehicle, for example, by performing edge processing of the captured image, extracting the end point of the vehicle based on the edge, and detecting the tire.

モデル修正部6は、車両検出に用いるモデルを修正するものである。すなわち、車両の隠れ度合いを検出し、その隠れ度合いに応じて車両全体を検出するためのモデルを修正するものである。車両判定部7は、画像内に車両が存在するか否かを判定するものである。この車両判定部7は、一部が隠れた車両について車両であるか否かを判定することができるものである。出力部8は、車両の検出結果を出力する出力手段であり、例えば、ランプ、液晶、LEDなど視覚を通じて出力するもの、又はブザー、スピーカなど聴覚などを通じて出力するものなどが用いられる。   The model correction unit 6 corrects a model used for vehicle detection. That is, the hiding degree of the vehicle is detected, and the model for detecting the entire vehicle is corrected according to the hiding degree. The vehicle determination unit 7 determines whether there is a vehicle in the image. The vehicle determination unit 7 can determine whether a partially hidden vehicle is a vehicle. The output unit 8 is an output unit that outputs a detection result of the vehicle. For example, a unit that outputs a visual signal such as a lamp, a liquid crystal, or an LED, or a unit that outputs a visual signal such as a buzzer or a speaker is used.

次に、本実施形態に係る物体検出装置1の動作について説明する。   Next, the operation of the object detection apparatus 1 according to this embodiment will be described.

図1において、撮像部2により自車の後方を走行する車両の撮影が行われる。撮像部2により撮像された撮像画像は、車両検出部3に入力され、画像処理されて車両検出が行われる。   In FIG. 1, imaging of a vehicle traveling behind the host vehicle is performed by the imaging unit 2. The captured image captured by the imaging unit 2 is input to the vehicle detection unit 3 and subjected to image processing for vehicle detection.

図6は、物体検出装置1における車両検出処理のフローチャートである。この図6における一連の制御処理は、車両検出部3を主体とし、所定の周期で繰り返し実行される。   FIG. 6 is a flowchart of the vehicle detection process in the object detection apparatus 1. The series of control processes in FIG. 6 are repeatedly executed at a predetermined cycle with the vehicle detection unit 3 as a main body.

まず、図6のS10に示すように、撮像画像の読み込み処理が行われる。この撮像画像の読み込み処理は、撮像部2で撮像された画像を車両検出部3に取り込むことにより行われる。そして、S12に移行し、検出領域設定処理が行われる。検出領域設定処理は、撮像画像内に車両を検出するための検出領域を設定する処理である。例えば、図7に示すように、撮像画像10に矩形状の検出領域50を設定する。検出領域50の大きさは、検出すべき車両の大きさに応じて設定される。   First, as shown in S10 of FIG. 6, a captured image reading process is performed. The captured image reading process is performed by taking the image captured by the imaging unit 2 into the vehicle detection unit 3. Then, the process proceeds to S12, and detection area setting processing is performed. The detection area setting process is a process of setting a detection area for detecting a vehicle in the captured image. For example, as illustrated in FIG. 7, a rectangular detection region 50 is set in the captured image 10. The size of the detection area 50 is set according to the size of the vehicle to be detected.

そして、S14に移行し、検出スコアの算出処理が行われる。検出スコアの算出処理は、検出領域50において車両の検出スコアを算出する処理である。検出スコアは、検出領域50において車両検出判断に用いられる数値である。検出スコアは、図4に示す車両検出のモデル40を用いて算出される。すなわち、検出領域50にモデル40の大きさが合わされ、モデル40のフィルタ41における各フィルタ値が算出される。そして、フィルタ値にそれぞれ重みを乗じたものの総和が検出スコアとして算出される。例えば、検出スコアは、検出領域50に車両が存在する場合、車両が存在しない場合に比べて大きい値となって算出される。   And it transfers to S14 and the calculation process of a detection score is performed. The detection score calculation process is a process of calculating a vehicle detection score in the detection area 50. The detection score is a numerical value used for vehicle detection determination in the detection region 50. The detection score is calculated using a vehicle detection model 40 shown in FIG. That is, the size of the model 40 is adjusted to the detection area 50, and each filter value in the filter 41 of the model 40 is calculated. Then, the total sum of the filter values multiplied by the weights is calculated as the detection score. For example, the detection score is calculated as a larger value when a vehicle is present in the detection area 50 than when no vehicle is present.

そして、図6のS16に移行し、検出スコアが車両検出しきい値を超えたか否かが判断される。しきい値は、車両検出部3に予め設定される設定値である。S16にて検出スコアがしきい値を超えていない場合には、検出領域50に車両が検出されなかったと判断され、S20に移行する。一方、S16にて検出スコアがしきい値を超えている場合には、検出領域50に車両が検出されたと判断され、車両検出の記録処理が行われる(S18)。車両検出の記録処理は、車両の位置とサイズを車両検出メモリに記録する処理である。   And it transfers to S16 of FIG. 6 and it is judged whether the detection score exceeded the vehicle detection threshold value. The threshold value is a set value set in advance in the vehicle detection unit 3. If the detection score does not exceed the threshold value in S16, it is determined that no vehicle is detected in the detection area 50, and the process proceeds to S20. On the other hand, if the detection score exceeds the threshold value in S16, it is determined that a vehicle is detected in the detection area 50, and a vehicle detection recording process is performed (S18). The vehicle detection recording process is a process of recording the position and size of the vehicle in the vehicle detection memory.

そして、S20に移行し、検出領域50のシフト処理が行われる。このシフト処理は、検出領域50を次の検出位置に移動させる処理である。例えば、図7に示すように、検出領域50は、撮像画像10の左上の位置から右方向に移動され、右端に来たら一つ下の左端に移動され、右下の位置に来るまで順次シフトされる。   Then, the process proceeds to S20, and the detection area 50 is shifted. This shift process is a process of moving the detection area 50 to the next detection position. For example, as shown in FIG. 7, the detection area 50 is moved rightward from the upper left position of the captured image 10, moved to the lower left edge when it reaches the right edge, and sequentially shifted until it reaches the lower right position. Is done.

そして、S22に移行し、シフトが全て完了したか否かが判断される。すなわち、検出領域50が右下位置まで移動し、全ての検出位置を移動し終えたか否かが判断される。全てのシフトが完了していないと判断された場合には、S14に戻る。一方、シフトが全て完了したと判断された場合には、検出領域のサイズ変更処理が行われる。サイズ変更処理は、検出領域50の大きさを変更する処理である。例えば、検出領域50は、最小サイズから最大サイズまで設定可能とされ、最小サイズから最大のサイズまで複数のサイズに変更される。   Then, the process proceeds to S22 to determine whether or not all the shifts are completed. That is, it is determined whether or not the detection area 50 has moved to the lower right position and all the detection positions have been moved. If it is determined that all the shifts have not been completed, the process returns to S14. On the other hand, when it is determined that all the shifts have been completed, a detection area size changing process is performed. The size changing process is a process for changing the size of the detection area 50. For example, the detection area 50 can be set from the minimum size to the maximum size, and is changed to a plurality of sizes from the minimum size to the maximum size.

そして、S26に移行し、サイズ変更が全て完了したか否かが判断される。すなわち、検出領域50が最小サイズから最大サイズまでサイズ変更し終えたか否かが判断される。全てのサイズ変更が完了していないと判断された場合には、S14に戻る。一方、サイズ変更が全て完了したと判断された場合には、車両検出処理の一連の制御処理を終了する。   Then, the process proceeds to S26, and it is determined whether or not all the size changes are completed. That is, it is determined whether or not the detection area 50 has been resized from the minimum size to the maximum size. If it is determined that all the size changes have not been completed, the process returns to S14. On the other hand, when it is determined that all the size changes have been completed, a series of control processes of the vehicle detection process is ended.

このような車両検出処理によれば、撮像画像10において全体が現れている車両21の検出が行え、車両21における撮像画像10上の位置及び大きさを検出することができる。例えば、図2において、全体が現れている車両21の位置及び大きさを検出することができる。   According to such a vehicle detection process, the vehicle 21 that appears entirely in the captured image 10 can be detected, and the position and size of the vehicle 21 on the captured image 10 can be detected. For example, in FIG. 2, the position and size of the vehicle 21 that appears as a whole can be detected.

この車両検出処理において、車両検出のモデルを複数用いることが好ましい。例えば、種類の異なる車両に対応した複数のモデルを用いて車両検出を行うことにより、各種の車両を的確に検出することができる。   In this vehicle detection process, it is preferable to use a plurality of vehicle detection models. For example, various vehicles can be accurately detected by performing vehicle detection using a plurality of models corresponding to different types of vehicles.

次に、物体検出装置1における車両位置推定処理について説明する。   Next, the vehicle position estimation process in the object detection apparatus 1 will be described.

図8に車両位置推定処理のフローチャートを示す。この車両位置推定処理は、上述した車両検出処理にて検出した全体車両の位置情報などに基づいて一部が隠れた車両の位置などを推定する処理である。   FIG. 8 shows a flowchart of the vehicle position estimation process. This vehicle position estimation process is a process of estimating the position of a partially hidden vehicle based on the position information of the entire vehicle detected by the vehicle detection process described above.

この車両位置推定処理は、S30に示すように、まずエッジ処理が行われる。エッジ処理は、撮像画像10をエッジ処理してエッジ画像を生成する処理である。そして、S32に移行し、車両21の下端エッジの検出処理が行われる。この検出処理は、エッジ画像に基づいて全体が現れている車両21の下端エッジを検出する処理である。   In this vehicle position estimation process, edge processing is first performed as shown in S30. The edge processing is processing for generating an edge image by performing edge processing on the captured image 10. And it transfers to S32 and the detection process of the lower end edge of the vehicle 21 is performed. This detection process is a process for detecting the lower edge of the vehicle 21 that appears entirely based on the edge image.

例えば、図9に示すように、エッジ画像11において、車両下端エッジを検出するためのウインドウ12が設定され、そのウインドウ12が横方向にシフトされる。そして、図10に示すように、ウインドウ12と横エッジとの交点がグラフ化される。ウインドウ12は、車両検出処理にて検出された車両21の位置及び大きさに基づいて、シフトにより少なくとも車両21を含むように設定される。   For example, as shown in FIG. 9, a window 12 for detecting the vehicle lower edge is set in the edge image 11, and the window 12 is shifted in the horizontal direction. And as shown in FIG. 10, the intersection of the window 12 and a horizontal edge is graphed. The window 12 is set so as to include at least the vehicle 21 by shifting based on the position and size of the vehicle 21 detected in the vehicle detection process.

そして、図10において、所定の長さ以上に長い横エッジ線であって、一番下に現れる横エッジ線61が車両21の下端エッジとして検出される。通常、車両下端と路面の間は、影により暗くなるので、車両下部の位置に横エッジが形成される。このため、エッジ画像において、所定以上の長さの横エッジ線を抽出することにより、車両の下端エッジを的確に検出することができる。   In FIG. 10, the horizontal edge line 61 that is longer than a predetermined length and appears at the bottom is detected as the lower edge of the vehicle 21. Usually, since the space between the lower end of the vehicle and the road surface becomes dark due to a shadow, a horizontal edge is formed at a position below the vehicle. For this reason, the lower end edge of the vehicle can be accurately detected by extracting a horizontal edge line having a length equal to or longer than a predetermined length in the edge image.

そして、図8のS34に移行し、後続の車両の下端エッジの検出処理が行われる。この検出処理は、一部が隠れた車両の下端エッジを検出する処理である。例えば、図10において、ウインドウがシフトしていくと、車両21の下端エッジ61が消滅し、最下部が次のエッジ62に移動する。このエッジ62が下端エッジ61との上下位置の差Y1が所定値以内であり、エッジ62が所定の長さ以上の長さであれば、一部が隠れた車両の下端エッジであると判断される。   Then, the process proceeds to S34 in FIG. 8, and the detection processing of the lower edge of the subsequent vehicle is performed. This detection process is a process for detecting the lower edge of a vehicle that is partially hidden. For example, in FIG. 10, as the window shifts, the lower edge 61 of the vehicle 21 disappears and the lowermost part moves to the next edge 62. If the difference Y1 in the vertical position between the edge 62 and the lower edge 61 is within a predetermined value and the edge 62 is longer than a predetermined length, it is determined that the edge 62 is a lower edge of a hidden vehicle. The

そして、図8のS36に移行し、後続の車両の下端エッジがあるか否かが判断される。後続の車両の下端エッジがないと判断されたときには、S48に移行する。一方、S36にて後続の車両の下端エッジがあると判断されたときには、縦エッジの検出処理が行われる(S38)。縦エッジの検出処理は、車両と車両との間に形成される縦エッジを検出する処理である。例えば、図11に示すように、車両21と車両22の間の位置に縦長のウインドウ13が設定され、ウインドウ13の設定領域に所定以上の長さの縦エッジがあるかどうか検出される。車両21と車両22の間の位置は、エッジ画像11において、図10の下端エッジ61と下端エッジ62の境界位置P1に対応する位置に設定すればよい。   Then, the process proceeds to S36 in FIG. 8 to determine whether or not there is a lower end edge of the following vehicle. When it is determined that there is no lower edge of the following vehicle, the process proceeds to S48. On the other hand, when it is determined in S36 that there is a lower edge of the following vehicle, a vertical edge detection process is performed (S38). The vertical edge detection process is a process for detecting a vertical edge formed between vehicles. For example, as shown in FIG. 11, a vertically long window 13 is set at a position between the vehicle 21 and the vehicle 22, and it is detected whether or not there is a vertical edge having a predetermined length or longer in the setting region of the window 13. The position between the vehicle 21 and the vehicle 22 may be set to a position corresponding to the boundary position P1 between the lower edge 61 and the lower edge 62 in FIG.

そして、図8のS40に移行し、縦エッジが検出されたか否かが判断される。縦エッジが検出されていない場合には、S48に移行する。一方、S40にて縦エッジが検出された場合には、タイヤ検出処理が行われる(S42)。タイヤ検出処理は、車両のタイヤを検出する処理であり、車両の位置からその車両のタイヤ位置を特定し、そのタイヤ位置にタイヤがあるか否かを検出して行われる。例えば、図12に示すように、撮像画像10のタイヤ位置にタイヤ検出用のフィルタ41、41がかけられ、輝度値の濃淡に基づいてタイヤの有無が評価される。   Then, the process proceeds to S40 in FIG. 8, and it is determined whether or not a vertical edge is detected. If no vertical edge is detected, the process proceeds to S48. On the other hand, if a vertical edge is detected in S40, tire detection processing is performed (S42). The tire detection process is a process for detecting a tire of a vehicle, and is performed by specifying the tire position of the vehicle from the position of the vehicle and detecting whether there is a tire at the tire position. For example, as shown in FIG. 12, tire detection filters 41 and 41 are applied to the tire position of the captured image 10, and the presence or absence of the tire is evaluated based on the brightness value.

そして、図8のS44に移行し、タイヤが検出されたか否かが判断される。タイヤが検出されない場合には、S48に移行する。一方、S44にてタイヤが検出された場合には、記録処理が行われる(S46)。記録処理は、車両の下端位置、上端位置、下隅位置及びサイズを記録する処理である。車両の下端位置は、下端エッジの位置に基づいて記録される。車両の上端位置は、下端エッジの上方に位置する所定以上の長さの上端エッジに基づいて記録される。車両の下隅位置は、車両のタイヤ位置に基づいて記録される。車両のサイズは、車両の下端エッジに基づいて算出され記録される。   Then, the process proceeds to S44 in FIG. 8, and it is determined whether or not a tire is detected. If no tire is detected, the process proceeds to S48. On the other hand, when a tire is detected in S44, a recording process is performed (S46). The recording process is a process of recording the lower end position, the upper end position, the lower corner position, and the size of the vehicle. The lower end position of the vehicle is recorded based on the position of the lower end edge. The upper end position of the vehicle is recorded on the basis of an upper end edge having a predetermined length or more and located above the lower end edge. The lower corner position of the vehicle is recorded based on the vehicle tire position. The size of the vehicle is calculated and recorded based on the lower edge of the vehicle.

そして、記録処理を終えたら、S34の後続車両の下端エッジ検出処理に戻る。この場合、二回目の下端エッジ検出処理では、後続車両に後続する車両の下端エッジの検出が行われる。すなわち、図2に示すように、全体が現れている車両21があり、その車両21に後続して車両22、車両23がある場合、車両22に後続する車両23の下端エッジ検出処理が行われる。そして、縦エッジ検出(S38)、タイヤ検出(S42)、記録処理(S46)が順次行われることにより、車両22及び車両23の車両の下端位置、上端位置及び下隅位置が記録される。   When the recording process is completed, the process returns to the lower edge detection process of the succeeding vehicle in S34. In this case, in the second lower edge detection process, the lower edge of the vehicle following the succeeding vehicle is detected. That is, as shown in FIG. 2, when there is a vehicle 21 that appears as a whole, and there are a vehicle 22 and a vehicle 23 following the vehicle 21, a lower edge detection process of the vehicle 23 following the vehicle 22 is performed. . Then, the vertical edge detection (S38), the tire detection (S42), and the recording process (S46) are sequentially performed, whereby the lower end position, the upper end position, and the lower corner position of the vehicle 22 and the vehicle 23 are recorded.

ところで、S36にて後続車両の下端エッジがないと判断された場合には、S48に移行し、車両端部位置の記録保存処理が行われる。この場合、後続する車両がもうないと判断され、検出された車両について、その端部位置の記録保存が行われる。例えば、図2においては、車両21、22及び23について、車両左下位置21a、22a及び23aが記録される。   By the way, when it is determined in S36 that there is no lower edge of the following vehicle, the process proceeds to S48, and the recording and storing process of the vehicle end position is performed. In this case, it is determined that there is no subsequent vehicle, and the end position of the detected vehicle is recorded and stored. For example, in FIG. 2, the vehicle lower left positions 21 a, 22 a, and 23 a are recorded for the vehicles 21, 22, and 23.

そして、S50に移行し、他の全体が現れている車両があるか否かが判断される。撮像画像10において他の全体が現れている車両がある場合には、S32に移行する。一方、S50にて他の全体が現れている車両がない場合には、車両位置推定処理の一連の制御処理を終了する。   Then, the process proceeds to S50, and it is determined whether or not there is a vehicle in which another whole appears. When there is a vehicle in which another whole appears in the captured image 10, the process proceeds to S32. On the other hand, if there is no other vehicle in which the whole appears in S50, the series of control processing of the vehicle position estimation processing is ended.

このような車両位置推定処理によれば、撮像画像10に撮像される全体車両(全体が現れている車両)及び一部車両(一部が隠れている車両)の位置を適切に推定することができる。すなわち、車両の下端エッジを検出し、車両と車両との間の縦エッジを検出することにより、一部車両の検出が適切に行える。   According to such a vehicle position estimation process, it is possible to appropriately estimate the positions of the entire vehicle (the vehicle in which the entire image appears) and the partial vehicle (the vehicle in which the image is partially hidden) captured in the captured image 10. it can. That is, by detecting the lower edge of the vehicle and detecting the vertical edge between the vehicles, some vehicles can be detected appropriately.

また、車両の位置検出に際し、タイヤ検出を行うことにより、車両の存在の確実性が向上し、車両の位置検出の精度向上が図れる。   In addition, by detecting the tire when detecting the position of the vehicle, the certainty of the presence of the vehicle is improved, and the accuracy of detecting the position of the vehicle can be improved.

次に、物体検出装置1における車両判定処理について説明する。   Next, the vehicle determination process in the object detection apparatus 1 will be described.

図13に車両判定処理のフローチャートを示す。この車両判定処理は、一部が隠れている車両を検出する処理である。   FIG. 13 shows a flowchart of the vehicle determination process. This vehicle determination process is a process for detecting a partially hidden vehicle.

この車両判定処理は、S60に示すように、まずモデル修正処理が行われる。モデル修正処理は、全体が現れた車両を検出するためのモデルを、一部が隠れた車両を検出するモデルに修正する処理である。例えば、図14に示すように、撮像画像10において、車両22の左下位置22aから車両21までの距離d1が算出される。この距離d1は、車両22の隠れ割合を示すものとなる。そして、この距離d1及び車両サイズに基づいて、車両検出用のモデルが修正される。このモデル修正は、距離d1及び車両サイズに基づいて行われることにより、車両22の隠れ割合に応じてモデルの修正が可能となる。車両サイズとしては、車両位置推定処理にて算出されたものが用いられる。   In this vehicle determination process, as shown in S60, a model correction process is first performed. The model correction process is a process of correcting a model for detecting a vehicle that has appeared entirely to a model for detecting a partially hidden vehicle. For example, as shown in FIG. 14, in the captured image 10, a distance d1 from the lower left position 22a of the vehicle 22 to the vehicle 21 is calculated. This distance d1 indicates the hidden ratio of the vehicle 22. Based on the distance d1 and the vehicle size, the vehicle detection model is corrected. This model correction is performed based on the distance d1 and the vehicle size, so that the model can be corrected according to the hidden ratio of the vehicle 22. As the vehicle size, the one calculated in the vehicle position estimation process is used.

図15に示すように、モデル修正は、車両22が隠れている分だけ車両検出用のモデル40の一部を削除することにより行われる。削除範囲40aは、車両22のサイズ及び現れている距離d1に基づき、隠れ割合に応じて設定される。また、このモデル40の一部削除に伴って、車両検出しきい値の修正が行われる。削除されるフィルタ41と一部が削除されるフィルタ41の分だけ検出スコア値が減少するため、その減少に応じて車両検出しきい値が減ぜられる。これにより、一部のみが現れている車両22の適切な車両検出判断が可能となる。   As shown in FIG. 15, the model correction is performed by deleting a part of the vehicle detection model 40 as much as the vehicle 22 is hidden. The deletion range 40a is set according to the hiding ratio based on the size of the vehicle 22 and the appearing distance d1. Further, the vehicle detection threshold value is corrected in accordance with the partial deletion of the model 40. Since the detection score value is decreased by the amount of the filter 41 to be deleted and the filter 41 to be partially deleted, the vehicle detection threshold value is decreased in accordance with the decrease. As a result, it is possible to make an appropriate vehicle detection determination of the vehicle 22 in which only a part appears.

そして、図13のS62に移行し、検出スコアの算出処理が行われる。検出スコア算出処理は、S60にて修正したモデルを用いて車両22の検出スコアを算出する処理である。例えば、撮像画像10に対し、車両22の位置に修正モデルが配置され、修正モデルの各フィルタ41のフィルタ値が算出され、フィルタ値の総和である検出スコアが算出される。   Then, the process proceeds to S62 in FIG. 13 and detection score calculation processing is performed. The detection score calculation process is a process of calculating the detection score of the vehicle 22 using the model corrected in S60. For example, with respect to the captured image 10, the correction model is arranged at the position of the vehicle 22, the filter value of each filter 41 of the correction model is calculated, and the detection score that is the sum of the filter values is calculated.

そして、S64に移行し、検出スコアが車両検出しきい値を超えたか否か判断される。検出スコアが車両検出しきい値を超えていない場合には、車両が検出されなかったと判断され、S68に移行する。一方、S64にて検出スコアが車両検出しきい値を超えた場合には、車両が検出されたとして、車両検出の記録処理が行われる(S66)。車両検出の記録処理は、一部のみが現れている車両22について情報を記録する処理である。例えば、車両22の位置、大きさが記録される。   And it transfers to S64 and it is judged whether the detection score exceeded the vehicle detection threshold value. If the detection score does not exceed the vehicle detection threshold, it is determined that no vehicle has been detected, and the process proceeds to S68. On the other hand, when the detection score exceeds the vehicle detection threshold value in S64, the vehicle detection recording process is performed assuming that the vehicle is detected (S66). The vehicle detection recording process is a process of recording information about the vehicle 22 in which only a part appears. For example, the position and size of the vehicle 22 are recorded.

そして、S68に移行し、他に判定すべき車両があるか否かが判断される。例えば、図14に示すように、車両22に後続する車両23がある場合には、他に判定すべき車両があると判断され、S60に戻り、車両23に対応したモデル修正が行われる。一方、S68にて他に判定すべき車両がないと判断された場合には、車両判定処理の一連の制御処理を終了する。   Then, the process proceeds to S68, where it is determined whether there is another vehicle to be determined. For example, as shown in FIG. 14, when there is a vehicle 23 following the vehicle 22, it is determined that there is another vehicle to be determined, and the process returns to S <b> 60 and model correction corresponding to the vehicle 23 is performed. On the other hand, when it is determined in S68 that there is no other vehicle to be determined, a series of control processes of the vehicle determination process is ended.

このような車両判定処理によれば、一部が隠れている車両についても、適切に車両検出が行える。すなわち、一部が隠れている車両については、その隠れ程度に応じてモデル修正が行われ、その修正されたモデルを用いることにより適切な車両検出が可能となる。   According to such a vehicle determination process, vehicle detection can be performed appropriately even for a partially hidden vehicle. That is, for a partially hidden vehicle, model correction is performed according to the degree of hiding, and appropriate vehicle detection is possible by using the corrected model.

以上のように、本実施形態に係る物体検出装置1によれば、全体が現れている車両の端部から延びる車両の下端エッジ線を検出することにより、車両に一部が隠れている車両を適切に検出することができる。   As described above, according to the object detection device 1 according to the present embodiment, a vehicle whose part is hidden by the vehicle is detected by detecting the lower end edge line of the vehicle extending from the end portion of the vehicle where the whole appears. It can be detected properly.

また、車両の隠れ割合に応じて車両の検出を行うことにより、車両が隠れ割合が異なる場合にも対応して車両の検出が正確に行える。このため、一部が隠れている車両の検出精度の向上を図ることができる。   In addition, by detecting the vehicle according to the hidden ratio of the vehicle, the vehicle can be accurately detected even when the vehicle has a different hidden ratio. For this reason, it is possible to improve the detection accuracy of a partially hidden vehicle.

なお、上述した実施形態は本発明に係る物体検出装置の一例を示すものである。本発明に係る物体検出装置は、このようなものに限られるものではなく、各請求項に記載した要旨を変更しないものであれば、実施形態に係る物体検出装置を変形し、又は他のものに適用したものであってもよい。例えば、本実施形態では、車両の検出を行う装置について説明したが、車両以外の物などの検出に適用してもよい。   The above-described embodiment shows an example of the object detection apparatus according to the present invention. The object detection device according to the present invention is not limited to this, and the object detection device according to the embodiment may be modified or otherwise provided that the gist described in each claim is not changed. It may be applied to. For example, in the present embodiment, an apparatus for detecting a vehicle has been described. However, the present invention may be applied to detection of an object other than a vehicle.

本発明の実施形態に係る物体検出装置の構成概要図である。1 is a schematic configuration diagram of an object detection device according to an embodiment of the present invention. 図1の物体検出装置における撮像画像の説明図である。It is explanatory drawing of the captured image in the object detection apparatus of FIG. 図1の物体検出装置に記録される車両サンプル画像の説明図である。It is explanatory drawing of the vehicle sample image recorded on the object detection apparatus of FIG. 図1の物体検出装置で用いられる車両検出用モデルの説明図である。It is explanatory drawing of the model for vehicle detection used with the object detection apparatus of FIG. 図1の物体検出装置で用いられる車両検出用モデルの説明図である。It is explanatory drawing of the model for vehicle detection used with the object detection apparatus of FIG. 図1の物体検出装置における車両検出処理のフローチャートである。It is a flowchart of the vehicle detection process in the object detection apparatus of FIG. 図1の物体検出装置における車両検出処理の説明図である。It is explanatory drawing of the vehicle detection process in the object detection apparatus of FIG. 図1の物体検出装置における車両位置推定処理のフローチャートである。It is a flowchart of the vehicle position estimation process in the object detection apparatus of FIG. 図1の物体検出装置における車両位置推定処理の説明図である。It is explanatory drawing of the vehicle position estimation process in the object detection apparatus of FIG. 図1の物体検出装置における車両位置推定処理の説明図である。It is explanatory drawing of the vehicle position estimation process in the object detection apparatus of FIG. 図1の物体検出装置における車両位置推定処理の説明図である。It is explanatory drawing of the vehicle position estimation process in the object detection apparatus of FIG. 図1の物体検出装置における車両位置推定処理の説明図である。It is explanatory drawing of the vehicle position estimation process in the object detection apparatus of FIG. 図1の物体検出装置における車両判定処理のフローチャートである。It is a flowchart of the vehicle determination process in the object detection apparatus of FIG. 図1の物体検出装置における車両判定処理の説明図である。It is explanatory drawing of the vehicle determination process in the object detection apparatus of FIG. 図1の物体検出装置における車両判定処理の説明図である。It is explanatory drawing of the vehicle determination process in the object detection apparatus of FIG.

符号の説明Explanation of symbols

1…物体検出装置、2…撮像部、3…車両検出部、4…モデル生成部、5…車両位置推定部、6…モデル修正部、7…車両判定部、8…出力部。   DESCRIPTION OF SYMBOLS 1 ... Object detection apparatus, 2 ... Imaging part, 3 ... Vehicle detection part, 4 ... Model production | generation part, 5 ... Vehicle position estimation part, 6 ... Model correction part, 7 ... Vehicle determination part, 8 ... Output part.

Claims (6)

撮像した画像を画像処理して検出対象物の検出を行う物体検出装置において、
前記画像内における第一検出対象物を検出する第一検出手段と、
前記画像をエッジ処理するエッジ処理手段と、
前記第一検出対象物の端部から延びるエッジ線に基づき、前記第一検出対象物に一部が隠れている第二検出対象物を検出する第二検出手段と、
を備えた物体検出装置。
In an object detection apparatus that detects a detection target by performing image processing on a captured image,
First detection means for detecting a first detection object in the image;
Edge processing means for edge processing the image;
Second detection means for detecting a second detection object partially hidden behind the first detection object based on an edge line extending from an end of the first detection object;
An object detection apparatus comprising:
前記第二検出手段は、前記エッジ線に基づいて前記第二検出対象物の隠れ割合を割り出し、その隠れ割合に応じて前記第二検出対象物の検出を行うこと、
を特徴とする請求項1に記載の物体検出装置。
The second detection means calculates a hidden ratio of the second detection object based on the edge line, and detects the second detection object according to the hidden ratio;
The object detection apparatus according to claim 1.
前記第二検出手段は、前記第二検出対象物の隠れ割合に応じて検出判定モデルを修正し、その修正した検出判定モデルを用いて前記第二検出対象物の検出を行うこと、
を特徴とする請求項1又は2に記載の物体検出装置。
The second detection means corrects the detection determination model according to the hidden ratio of the second detection target, and detects the second detection target using the corrected detection determination model.
The object detection device according to claim 1, wherein:
前記第一検出対象物として第一車両を検出し、前記第二検出対象物として前記第一車両に一部が隠れている第二車両を検出する装置であって、
前記第二検出手段は、前記第一車両の端部から延びる前記第二車両の下端エッジ線に基づいて前記前記第二車両を検出すること、
を特徴とする請求項1に記載の物体検出装置。
A device that detects a first vehicle as the first detection object and detects a second vehicle that is partially hidden behind the first vehicle as the second detection object,
The second detection means detects the second vehicle based on a lower edge line of the second vehicle extending from an end of the first vehicle;
The object detection apparatus according to claim 1.
前記第二検出手段は、前記下端エッジ線に基づいて前記第二車両の隠れ割合を割り出し、その隠れ割合に応じて前記第二車両の検出を行うこと、
を特徴とする請求項4に記載の物体検出装置。
The second detection means calculates a hidden ratio of the second vehicle based on the lower edge line, and detects the second vehicle according to the hidden ratio;
The object detection apparatus according to claim 4.
前記第二検出手段は、前記第二車両の隠れ割合に応じて検出判定モデルを修正し、その修正した検出判定モデルを用いて前記第二車両の検出を行うこと、
を特徴とする請求項4又は5に記載の物体検出装置。
The second detection means corrects the detection determination model according to the hidden ratio of the second vehicle, and detects the second vehicle using the corrected detection determination model;
The object detection apparatus according to claim 4, wherein:
JP2005272253A 2005-09-20 2005-09-20 Object detection device Pending JP2007088601A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005272253A JP2007088601A (en) 2005-09-20 2005-09-20 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005272253A JP2007088601A (en) 2005-09-20 2005-09-20 Object detection device

Publications (1)

Publication Number Publication Date
JP2007088601A true JP2007088601A (en) 2007-04-05

Family

ID=37975174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005272253A Pending JP2007088601A (en) 2005-09-20 2005-09-20 Object detection device

Country Status (1)

Country Link
JP (1) JP2007088601A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010218246A (en) * 2009-03-17 2010-09-30 Toyota Motor Corp Object identification device
JP2010231706A (en) * 2009-03-30 2010-10-14 Fujitsu Ltd Vehicle information extraction program, vehicle information extraction device, and vehicle information extraction method
JP2016175449A (en) * 2015-03-18 2016-10-06 横浜ゴム株式会社 Travel support device
KR101937777B1 (en) * 2018-05-14 2019-01-11 주식회사 에스오에스랩 Lidar device and method for measuring distance using the same
CN110065492A (en) * 2018-01-23 2019-07-30 丰田自动车株式会社 Vehicle control system
US10557924B1 (en) 2018-05-14 2020-02-11 SOS Lab co., Ltd Lidar device
US10591598B2 (en) 2018-01-08 2020-03-17 SOS Lab co., Ltd Lidar device
US11953626B2 (en) 2018-01-08 2024-04-09 SOS Lab co., Ltd LiDAR device
US12553991B2 (en) 2022-03-04 2026-02-17 Sos Lab Co., Ltd. LiDAR device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010218246A (en) * 2009-03-17 2010-09-30 Toyota Motor Corp Object identification device
JP2010231706A (en) * 2009-03-30 2010-10-14 Fujitsu Ltd Vehicle information extraction program, vehicle information extraction device, and vehicle information extraction method
JP2016175449A (en) * 2015-03-18 2016-10-06 横浜ゴム株式会社 Travel support device
US11953596B2 (en) 2018-01-08 2024-04-09 Sos Lab Co., Ltd. LiDAR device
US10591598B2 (en) 2018-01-08 2020-03-17 SOS Lab co., Ltd Lidar device
US10613224B2 (en) 2018-01-08 2020-04-07 SOS Lab co., Ltd LiDAR device
US11493630B2 (en) 2018-01-08 2022-11-08 SOS Lab co., Ltd LiDAR device
US11953626B2 (en) 2018-01-08 2024-04-09 SOS Lab co., Ltd LiDAR device
CN110065492A (en) * 2018-01-23 2019-07-30 丰田自动车株式会社 Vehicle control system
JP2019128700A (en) * 2018-01-23 2019-08-01 トヨタ自動車株式会社 Vehicle control system
US10557924B1 (en) 2018-05-14 2020-02-11 SOS Lab co., Ltd Lidar device
US10578721B2 (en) 2018-05-14 2020-03-03 SOS Lab co., Ltd LiDAR device
US10705190B2 (en) 2018-05-14 2020-07-07 SOS Lab co., Ltd LiDAR device
KR101937777B1 (en) * 2018-05-14 2019-01-11 주식회사 에스오에스랩 Lidar device and method for measuring distance using the same
US12135393B2 (en) 2018-05-14 2024-11-05 Sos Lab Co., Ltd. LiDAR device comprising a plurality of beam steering cells for steering a laser beam
US12553991B2 (en) 2022-03-04 2026-02-17 Sos Lab Co., Ltd. LiDAR device

Similar Documents

Publication Publication Date Title
JP5600332B2 (en) Driving assistance device
US20140071240A1 (en) Free space detection system and method for a vehicle using stereo vision
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JP6237875B2 (en) Self-position calculation device and self-position calculation method
JP5947268B2 (en) Roll angle estimation device for vehicle
JP6237874B2 (en) Self-position calculation device and self-position calculation method
JP2004117078A (en) Obstacle detection apparatus and method
JP2006331193A (en) Vehicle, image processing system, image processing method, and image processing program
JP2021117760A (en) Object tracking device and object tracking method
JP4296287B2 (en) Vehicle recognition device
JP2007088601A (en) Object detection device
JP6462557B2 (en) Vehicle pitch angle estimation device
JP2010108049A (en) Road marking recognition device
JP2010061375A (en) Apparatus and program for recognizing object
JP7056496B2 (en) Position detector
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP2011170539A (en) Lighting color discriminating device and program
JP2010286995A (en) Image processing system for vehicle
JP4767052B2 (en) Optical axis deviation detector
WO2025050767A1 (en) Vision-based spatial parking space detection method and system, and automobile
JP7131131B2 (en) VEHICLE LINE DETECTION DEVICE AND METHOD
JP5472137B2 (en) Boundary detection device and boundary detection program
JP4842301B2 (en) Pedestrian detection device and program
CN101124612B (en) Image processing method, image processing system, and image processing device
JP6719328B2 (en) Exterior monitoring device