JP2010054461A - Device for generating distance image data for vehicle - Google Patents
Device for generating distance image data for vehicle Download PDFInfo
- Publication number
- JP2010054461A JP2010054461A JP2008222220A JP2008222220A JP2010054461A JP 2010054461 A JP2010054461 A JP 2010054461A JP 2008222220 A JP2008222220 A JP 2008222220A JP 2008222220 A JP2008222220 A JP 2008222220A JP 2010054461 A JP2010054461 A JP 2010054461A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- distance
- luminance
- imaging
- distance image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 claims description 91
- 230000007717 exclusion Effects 0.000 claims description 4
- 238000005192 partition Methods 0.000 claims 1
- 238000000034 method Methods 0.000 description 27
- 230000008569 process Effects 0.000 description 24
- 238000001514 detection method Methods 0.000 description 14
- 230000002123 temporal effect Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
Landscapes
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
本発明は、車両用距離画像データ生成装置の技術分野に属する。 The present invention belongs to the technical field of a vehicle distance image data generation device.
特許文献1には、自車両前方を投光し、ターゲット距離から戻ってくる反射光のタイミングに合わせて撮像した画像に基づいて、当該ターゲット距離に障害物等の物体が存在するか否かを検出する技術が開示されている。
しかしながら、上記従来技術にあっては、ターゲット距離以外の物体を検出できない。つまり、状況の把握が間欠的であり、自車両前方の状況を連続的に把握できないという問題があった。 However, in the above prior art, objects other than the target distance cannot be detected. That is, there is a problem that the situation is intermittently grasped and the situation ahead of the host vehicle cannot be grasped continuously.
本発明の目的は、自車両前方の状況を連続的に把握できる車両用距離画像データ生成装置を提供することにある。 An object of the present invention is to provide a vehicular distance image data generation apparatus that can continuously grasp the situation ahead of the host vehicle.
上記目的を達成するため、本発明の車両用距離画像データ生成装置では、自車両前方に所定周期でパルス光を投光する投光手段と、ターゲット距離に応じて設定される撮像タイミングで前記ターゲット距離から帰ってくる反射光を撮像する撮像手段と、前記ターゲット距離が連続的に変化するように前記撮像タイミングを制御するタイミング制御手段と、前記撮像手段により得られたターゲット距離の異なる複数の撮像画像における同一画素の輝度に基づいて、画素毎の物体までの距離を表す距離画像データを生成する距離画像データ生成手段と、を備え、前記距離画像データ生成手段は、ターゲット距離の異なる複数の撮像画像それぞれに対して輝度と頻度から物体以外のデータを距離画像データの生成から除外するフィルタ手段を備えた、ことを特徴とする。 In order to achieve the above object, in the vehicle distance image data generation device of the present invention, a light projecting unit that projects pulsed light in front of the host vehicle at a predetermined cycle, and an imaging timing set according to the target distance. Imaging means for imaging reflected light returning from the distance, timing control means for controlling the imaging timing so that the target distance changes continuously, and a plurality of imagings with different target distances obtained by the imaging means Distance image data generation means for generating distance image data representing the distance to the object for each pixel based on the luminance of the same pixel in the image, wherein the distance image data generation means is a plurality of imaging with different target distances Filter means for excluding data other than objects from the generation of distance image data from the brightness and frequency for each image It is characterized in.
よって、本発明にあっては、自車両前方の状況を連続的に把握できる。 Therefore, in this invention, the situation ahead of the own vehicle can be grasped | ascertained continuously.
以下、本発明の車両用距離画像データ生成装置を実現するための最良の形態を、図面に基づく実施例により説明する。 DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The best mode for realizing a vehicular distance image data generating apparatus according to the present invention will be described below with reference to the drawings.
まず、構成を説明する。
図1は、本発明の車両用距離画像データ生成装置を適用した実施例1の障害物検出装置1の構成を示すブロック図であり、実施例1の障害物検出装置1は、距離画像データ生成装置2と、物体認識処理部3と、判断部4とを備えている。
First, the configuration will be described.
FIG. 1 is a block diagram illustrating a configuration of an obstacle detection apparatus 1 according to a first embodiment to which the vehicle distance image data generation apparatus according to the present invention is applied. A device 2, an object recognition processing unit 3, and a determination unit 4 are provided.
距離画像データ生成装置2は、投光器(投光手段)5と、対物レンズ6と、光倍増部7と、高速度カメラ(撮像手段)8と、タイミングコントローラ(タイミング制御手段)9と、画像処理部(距離画像データ生成手段)10とを備えている。
投光器5は、車両の前端部に配置した近赤外線LEDであり、タイミングコントローラ9から出力されるパルス信号に応じて、所定の投光時間tL(例えば、5ns)の間、パルス光を出力する。パルス信号の周期は、投光器5の投光周期tPであり、投光周期tPは、例えば、1/100s以下の間隔とする。
対物レンズ6は、物体からの反射光を受光するためのもので、投光器5と隣接配置している。例えば、自車両前方の所定範囲を撮像できる画角とするように設定された光学系である。
The distance image data generation device 2 includes a projector (projecting unit) 5, an objective lens 6, a light doubling unit 7, a high-speed camera (imaging unit) 8, a timing controller (timing control unit) 9, and image processing. Unit (distance image data generating means) 10.
The projector 5 is a near-infrared LED disposed at the front end of the vehicle, and outputs pulsed light for a predetermined light projecting time tL (for example, 5 ns) in accordance with the pulse signal output from the timing controller 9. The cycle of the pulse signal is the projection cycle tP of the projector 5, and the projection cycle tP is, for example, an interval of 1/100 s or less.
The objective lens 6 is for receiving reflected light from an object, and is disposed adjacent to the projector 5. For example, the optical system is set to have an angle of view capable of capturing a predetermined range in front of the host vehicle.
光倍増部7は、ゲート7aとイメージインテンシファイア7bとを備えている。
ゲート7aは、タイミングコントローラ9からの開閉指令信号に応じて開閉する。ここで、実施例1では、ゲート7aの開時間(ゲート時間)tGを、投光時間tLと同じ5nsとしている。ここで、ゲート時間tGは、撮像エリア(ターゲット距離)の撮像対象幅に相当し、ゲート時間tGを長くするほど撮像エリアの撮像対象幅は長くなる。実施例1では、ゲート時間tG=5nsとしているため、撮像対象幅は、光速度(約3×108m/s)×ゲート時間(5ns)から、1.5mとなる。
The light multiplication unit 7 includes a gate 7a and an image intensifier 7b.
The gate 7a opens and closes in response to an opening / closing command signal from the timing controller 9. Here, in Example 1, the opening time (gate time) tG of the gate 7a is set to 5 ns, which is the same as the light projection time tL. Here, the gate time tG corresponds to the imaging target width of the imaging area (target distance). The longer the gate time tG, the longer the imaging target width of the imaging area. In the first embodiment, since the gate time tG = 5 ns, the imaging target width is 1.5 m from the speed of light (about 3 × 10 8 m / s) × gate time (5 ns).
イメージインテンシファイア7bは、極微弱な光(物体からの反射光等)を一旦電子に変換して電気的に増幅し、再度蛍光像に戻すことで光量を倍増してコントラストのついた像を見るデバイスである。イメージインテンシファイア7bの光電面より光電現象によって打ち出された光電子はkVオーダーの高電圧で加速され、陽極側の蛍光面に打ち込まれることにより、100倍以上の光子数の蛍光を発する。蛍光面で発生した蛍光は、ファイバオプティックプレートにより、そのままの位置関係を保ったまま散乱されることなく高速度カメラ8のイメージセンサに導かれる。
高速度カメラ8は、タイミングコントローラ9からの指令信号に応じて、光倍増部7から発せられた像を撮像し、撮像画像(カラー画像)を画像処理部10へ出力する。実施例1では、解像度640×480(横:縦)、輝度値1〜255(256段階)、100fps以上のカメラを用いている。
The image intensifier 7b temporarily converts extremely weak light (reflected light from an object, etc.) into electrons and then electrically amplifies it, and returns it to a fluorescent image again to double the amount of light and to produce an image with contrast. It is a viewing device. Photoelectrons launched from the photocathode of the image intensifier 7b by a photoelectric phenomenon are accelerated at a high voltage of the order of kV, and are emitted into the phosphor screen on the anode side, thereby emitting fluorescence having a photon number of 100 times or more. The fluorescence generated on the phosphor screen is guided to the image sensor of the high-speed camera 8 by the fiber optic plate without being scattered while maintaining the same positional relationship.
The high-speed camera 8 captures an image emitted from the light doubling unit 7 in response to a command signal from the timing controller 9 and outputs a captured image (color image) to the image processing unit 10. In the first embodiment, a camera having a resolution of 640 × 480 (horizontal: vertical), a luminance value of 1 to 255 (256 levels), and 100 fps or more is used.
タイミングコントローラ9は、高速度カメラ8により撮像される撮像画像が、狙った撮像エリアから帰ってくる反射光のタイミングとなるように、投光器5の投光開始時点からゲート7aを開くまでの時間であるディレイ時間tDを設定し、ディレイ時間に応じた開閉指令信号を出力することで、撮像タイミングを制御する。つまり、ディレイ時間tDは、自車両から撮像エリアまでの距離(撮像対象距離)を決める値であり、ディレイ時間tDと撮像対象距離との関係は、以下の式となる。
撮像対象距離=光速度(約3×108m/s)×ディレイ時間tD/2
図2に、1つの撮像エリアを撮像する際の、投光器5の動作(投光動作)とゲート7aの動作(カメラゲート動作)との時間的な関係を示す。
The timing controller 9 is the time from the light projection start time of the projector 5 until the gate 7a is opened so that the captured image captured by the high-speed camera 8 is the timing of the reflected light returning from the target imaging area. The imaging timing is controlled by setting a certain delay time tD and outputting an open / close command signal corresponding to the delay time. That is, the delay time tD is a value that determines the distance from the host vehicle to the imaging area (imaging target distance), and the relationship between the delay time tD and the imaging target distance is as follows.
Imaging distance = speed of light (approx. 3 x 10 8 m / s) x delay time tD / 2
FIG. 2 shows a temporal relationship between the operation of the projector 5 (light projection operation) and the operation of the gate 7a (camera gate operation) when imaging one imaging area.
タイミングコントローラ9は、撮像エリアが車両手前側から先方へと連続的に移動するように、ディレイ時間tDを所定間隔(例えば、10ns)ずつ長くすることで、高速度カメラ8の撮像範囲を車両前方側へ変化させる。なお、タイミングコントローラ9は、ゲート7aが開く直前に高速度カメラ8の撮像動作を開始させ、ゲート7aが完全に閉じた後に撮像動作を終了させる。但し、実施例1では、タイミングコントローラ9は、撮像対象距離に応じて、予め多重露光回数を設定しておき、このデータを読み出して、ある一つの撮像対象距離における撮像が所定回数の投光動作とゲート7aの開閉動作で構成されるようにする。そのため、設定された所定回数が複数回の場合は、複数回の投光動作とゲート7aの開閉動作後に撮像動作を終了させることになる。 The timing controller 9 increases the imaging range of the high-speed camera 8 by increasing the delay time tD by a predetermined interval (for example, 10 ns) so that the imaging area continuously moves from the front side of the vehicle to the front side. Change to the side. The timing controller 9 starts the imaging operation of the high-speed camera 8 immediately before the gate 7a is opened, and ends the imaging operation after the gate 7a is completely closed. However, in the first embodiment, the timing controller 9 sets the number of times of multiple exposure in advance according to the imaging target distance, reads this data, and performs a light projection operation with a predetermined number of times of imaging at one imaging target distance. And an opening / closing operation of the gate 7a. Therefore, when the predetermined number of times set is a plurality of times, the imaging operation is terminated after a plurality of light projection operations and the opening / closing operation of the gate 7a.
また、実施例1では、図3に示すように、撮像対象距離をB1→B2→B3→…と連続的に変化させながら撮像する際、撮像エリアの撮像対象幅Aよりも撮像対象距離の増加量(B2-B1)を短くすることで、撮像エリアの一部がオーバーラップしながら変化するように撮像対象距離の増加量を設定している。 Further, in the first embodiment, as illustrated in FIG. 3, when the imaging target distance is continuously changed from B1 → B2 → B3 →..., The imaging target distance is increased more than the imaging target width A of the imaging area. By increasing the amount (B2-B1), the increase amount of the imaging target distance is set so that a part of the imaging area changes while overlapping.
図4は、撮像対象距離の増加量を極限まで小さくした場合、言い換えると、撮像エリアを無限に増やして撮像を行った場合の時間的な輝度変化を示す模式図であり、撮像エリアの一部をオーバーラップさせることで、連続する複数の撮像画像における同一の画素の輝度値は、徐々に増加し、ピーク後は徐々に小さくなる特性となる。なお、実際には撮像エリアは有限個(1〜n)であるが、連続する撮像エリアの一部をオーバーラップさせることで、時間的な輝度変化は図4の特性に近くなる。 FIG. 4 is a schematic diagram showing temporal luminance changes when the amount of increase in the imaging target distance is reduced to the limit, in other words, when imaging is performed with an infinite increase in the imaging area. By overlapping each other, the luminance value of the same pixel in a plurality of consecutive captured images gradually increases, and after the peak, the luminance value gradually decreases. In practice, the number of imaging areas is limited (1 to n), but by overlapping a part of continuous imaging areas, the temporal luminance change becomes close to the characteristics of FIG.
タイミングコントローラ9は、1フレーム分、すなわち、設定された所定範囲(エリア1、エリア2、…、エリアn)の撮像画像が全て撮像された場合、画像処理部10に対し画像処理指令信号を出力する。 The timing controller 9 outputs an image processing command signal to the image processing unit 10 when all the captured images for one frame, that is, the set predetermined range (area 1, area 2,..., Area n) are captured. To do.
画像処理部10は、高速度カメラ8により撮像された1フレーム分の撮像画像(撮像画素)から、距離情報を色や輝度等で表す距離画像データを生成し、生成した距離画像データを物体認識処理部3へ出力する。 The image processing unit 10 generates distance image data representing distance information by color, luminance, and the like from one frame of captured images (imaging pixels) captured by the high-speed camera 8, and object recognition is performed on the generated distance image data. Output to the processing unit 3.
物体認識処理部3は、距離画像データに含まれる物体に対して、画像処理、例えば、ラベリング、パターンマッチング等により距離画像データに含まれる物体を特定する。
判断部4は、物体認識処理部3により特定された物体(人、自動車、標識等)と自車両との関係(距離、相対速度等)に基づいて、警報等による運転者への情報提示、自動ブレーキ等の車両制御の要否を判断する。
The object recognition processing unit 3 identifies an object included in the distance image data by performing image processing, for example, labeling, pattern matching, or the like on the object included in the distance image data.
Based on the relationship (distance, relative speed, etc.) between the object (person, car, sign, etc.) identified by the object recognition processing unit 3 and the host vehicle, the determination unit 4 presents information to the driver by an alarm, Determine whether vehicle control such as automatic braking is necessary.
[距離画像データ生成制御処理]
図5は、実施例1の画像処理部10で実行される距離画像データ生成制御処理の流れを示すフローチャートで、以下、各ステップについて説明する。なお、この処理は、所定の演算周期で繰り返し実行される。
[Distance image data generation control processing]
FIG. 5 is a flowchart illustrating the flow of the distance image data generation control process executed by the image processing unit 10 according to the first embodiment. Each step will be described below. This process is repeatedly executed at a predetermined calculation cycle.
ステップS1では、画像処理部10が、投光器5による投光を行わずに自車両前方を撮像した撮像画像の最も輝度の低い輝度値データを後の輝度判断のために記憶し、ステップS2へ移行する。このデータは、距離画像データ生成の際に用いるものとする。 In step S1, the image processing unit 10 stores the luminance value data having the lowest luminance of the captured image obtained by imaging the front of the host vehicle without performing the light projection by the projector 5 for later luminance determination, and proceeds to step S2. To do. This data is used when generating the distance image data.
ステップS2では、画像処理部10が、撮像画像を入力し、ステップS3へと移行する。なお、実施例1においては、入力される撮像画像は、撮像する距離範囲に応じて予め設定された多重露光回数により複数回撮像された画像となる。 In step S2, the image processing unit 10 inputs a captured image, and proceeds to step S3. In the first embodiment, the input captured image is an image captured a plurality of times with the number of multiple exposures set in advance according to the distance range to be captured.
ステップS3では、画像処理部10が、1フレーム分(エリア1、エリア2、…、エリアn)の画像入力が終了したか否かを判定する。YESの場合にはステップS4へ移行し、NOの場合にはステップS2へ移行する。 In step S3, the image processing unit 10 determines whether image input for one frame (area 1, area 2,..., Area n) has been completed. If YES, the process proceeds to step S4. If NO, the process proceeds to step S2.
ステップS4では、画像処理部10が、n番目(例えば1や0から始まるものとする)の画像における輝度の頻度算出処理を行う。この処理では、画像の各画素の輝度値、例えば0〜256ビット値に対して、同じ輝度値の画素がいくつ存在するか、つまり頻度を算出するようにする。これを頻度算出処理とする。 In step S4, the image processing unit 10 performs a luminance frequency calculation process for the nth image (for example, starting from 1 or 0). In this process, the number of pixels having the same luminance value, that is, the frequency is calculated with respect to the luminance value of each pixel of the image, for example, a 0-256 bit value. This is a frequency calculation process.
ステップS5では、ステップS4の処理に得られる1画像の輝度と頻度の関係に対して、全体の頻度の合計、つまり全画素数のうち、輝度の高い方の所定P%分となる輝度値を算出し、これを閾値とする。詳細は後述する。 In step S5, with respect to the relationship between the luminance and frequency of one image obtained in the process of step S4, the total frequency, that is, the luminance value corresponding to the predetermined P% of the higher luminance of the total number of pixels is obtained. Calculate and use this as a threshold. Details will be described later.
ステップS6では、ステップS5の処理で決定した閾値により低い輝度値のデータを後の距離画像生成に用いないようにする排除処理を行う。 In step S6, an exclusion process is performed so that data having a lower luminance value than the threshold value determined in the process of step S5 is not used for subsequent distance image generation.
ステップS7では、n番目の画像の次の画像を処理するために、nを増加する処理を行う。例えばn=n+1とする。 In step S7, a process of increasing n is performed in order to process the next image after the nth image. For example, n = n + 1.
ステップS8では、1フレーム分の処理、つまり1フレーム分のn番目までの画像の処理が終了したかどうかを判断し、終了したならばステップS9へ進み、終了していないならばステップS4へ戻る。 In step S8, it is determined whether or not the processing for one frame, that is, the processing of the n-th image for one frame has been completed. If completed, the process proceeds to step S9. If not completed, the process returns to step S4. .
ステップS9では、色や輝度により距離情報を伴う画像として、距離画像データを生成し、リターンへ移行する。 In step S9, distance image data is generated as an image with distance information depending on color and brightness, and the process proceeds to return.
次に、作用を説明する。
[距離画像データ生成作用]
タイミングコントローラ9は、高速度カメラ8により撮像される撮像画像が、狙った撮像エリアから帰ってくる反射光のタイミングとなるように、ディレイ時間tDを設定し、高速度カメラ8の撮像タイミングを制御する。狙った撮像エリアに物体が存在している場合、投光器5から出射された光が撮像エリアから戻ってくる時間は、自車両と撮像エリアまでの距離(撮像対象距離)を光が往復する時間となるため、ディレイ時間tDは、撮像対象距離と光速度から求めることができる。
Next, the operation will be described.
[Distance image data generation function]
The timing controller 9 controls the imaging timing of the high-speed camera 8 by setting the delay time tD so that the captured image captured by the high-speed camera 8 becomes the timing of the reflected light returning from the target imaging area. To do. When an object is present in the target imaging area, the time for the light emitted from the projector 5 to return from the imaging area is the time for the light to reciprocate the distance between the host vehicle and the imaging area (imaging target distance). Therefore, the delay time tD can be obtained from the imaging target distance and the speed of light.
上記方法で得られた高速度カメラ8の撮像画像において、撮像エリアに物体が存在する場合、当該物体の位置に対応する画素の輝度値データは、反射光の影響を受け、他の画素の輝度値データよりも高い値を示す。これにより、各画素の輝度値データに基づいて、狙った撮像エリアに存在する物体との距離を求めることができる。 In the captured image of the high-speed camera 8 obtained by the above method, when an object exists in the imaging area, the luminance value data of the pixel corresponding to the position of the object is affected by the reflected light, and the luminance of other pixels Indicates a value higher than the value data. Thereby, based on the luminance value data of each pixel, the distance from the object existing in the targeted imaging area can be obtained.
さらに、実施例1では、ディレイ時間tDを変化させながら撮像エリア1〜nの撮像画像を取得する。続いて、同じ画素位置の前後の距離の輝度値データを比較し、最も高い輝度値データを当該画素で検出する物体の距離とし、撮像範囲(640×480)の距離の情報を持つデータ(距離画像データ)を生成する。 Furthermore, in the first embodiment, captured images of the imaging areas 1 to n are acquired while changing the delay time tD. Subsequently, the brightness value data of the distance before and after the same pixel position is compared, the highest brightness value data is set as the distance of the object detected by the pixel, and the data (distance with distance information of the imaging range (640 × 480)) Image data).
従来のレーザレーダやステレオカメラを用いた距離検出方法では、雨、霧や雪などの影響を受けやすく、信号レベルに対するノイズレベルが大きくなる(SN比が小さい)ため、悪天候時の信頼性が低い。なお、悪天候の影響を受けにくいミリ波レーダを用いた場合、距離検出の信頼性は高くなるが、ミリ波レーダの信号から物体認識(物体の特定)を行うのは困難であり、別途カメラ画像が必要となる。そして、悪天候時にはカメラ画像が不明瞭となるため、正確な物体認識を行うことは困難である。 Conventional distance detection methods using laser radars and stereo cameras are susceptible to rain, fog, snow, etc., and the noise level with respect to the signal level is large (the SN ratio is small), so the reliability in bad weather is low. . When using a millimeter wave radar that is not easily affected by bad weather, the reliability of distance detection is high, but it is difficult to perform object recognition (object identification) from the millimeter wave radar signal. Is required. Further, since the camera image becomes unclear during bad weather, it is difficult to perform accurate object recognition.
これに対し、実施例1では、狙った撮像エリアから帰ってくる反射波のみを撮像画像に反映させるため、雨、霧や雪などの影響により屈曲した光、すなわち、ノイズの混入レベルを低く抑え、高いSN比を得ることができる。つまり、悪天候や夜間にかかわらず、高い距離検出精度を得ることができる。
そして、生成された距離画像データにより、画像から検出される物体の距離が分かるため、その後パターンマッチング等の手法を用いて物体認識を行う場合、物体との距離を瞬時に把握できる。
On the other hand, in the first embodiment, only reflected waves returning from the target imaging area are reflected in the captured image, so that the light bent due to the influence of rain, fog, snow, or the like, that is, the noise mixing level is kept low. High signal-to-noise ratio can be obtained. That is, high distance detection accuracy can be obtained regardless of bad weather or night.
And since the distance of the object detected from an image is known from the produced | generated distance image data, when performing object recognition using methods, such as pattern matching after that, the distance with an object can be grasped | ascertained instantaneously.
さらに、実施例1では、撮像エリアを連続的に変化させて複数の撮像画像を取得し、各撮像画像を比較して各画素の距離を検出しているため、自車両前方の状況を連続的に、かつ、広範囲に亘って把握できる。例えば、自車両と先行車両との間に歩行者が飛び出してきた状況であっても、先行車と歩行者の距離をそれぞれ同時に把握でき、警報による運転者への情報提示や自動ブレーキ等の車両制御を行うことが可能である。 Furthermore, in the first embodiment, the captured area is continuously changed to acquire a plurality of captured images, and the captured images are compared to detect the distance of each pixel. In addition, it can be grasped over a wide range. For example, even in a situation where a pedestrian has jumped between the host vehicle and the preceding vehicle, the distance between the preceding vehicle and the pedestrian can be grasped at the same time. Control can be performed.
図6は、自車両前方の異なる位置に4人の歩行者A〜Dが存在している状況を示し、自車両と各歩行者との距離の関係は、A<B<C<Dとする。
このとき、実施例1では、1つの物体からの反射光が連続する複数の撮像エリアにおける撮像画像のオブジェクトを構成する画素に反映されるように、撮像エリアの一部をオーバーラップさせている。このため、各歩行者に対応するオブジェクトを構成する画素の時間的な輝度変化は、図7に示すように、歩行者の位置でピークを取る三角形の特性を示す。
FIG. 6 shows a situation in which four pedestrians A to D exist at different positions in front of the host vehicle, and the relationship between the distance between the host vehicle and each pedestrian is A <B <C <D. .
At this time, in the first embodiment, a part of the imaging area is overlapped so that the reflected light from one object is reflected on the pixels constituting the object of the captured image in the plurality of imaging areas in which the reflected light is continuous. For this reason, the temporal luminance change of the pixels constituting the object corresponding to each pedestrian shows a triangular characteristic that takes a peak at the position of the pedestrian as shown in FIG.
なお、距離画像データは、警報や車両制御に用いるデータであるため、ある程度の演算速度が要求される以上、撮像エリアを無限に細かく設定することは時間的に不可能であるが、1つの物体からの反射光が複数の撮像画像の含まれるようにすることで、図8に示すように、画素の時間的な輝度変化を上記特性に近似させ、三角形部分のピークと対応する撮像エリアを、当該画素における物体の距離とすることで、検出精度を高めることができる。 Since the distance image data is data used for alarms and vehicle control, it is impossible to set an imaging area infinitely finely as long as a certain calculation speed is required. By making the reflected light from the plurality of captured images included, as shown in FIG. 8, the temporal luminance change of the pixel is approximated to the above characteristics, and the imaging area corresponding to the peak of the triangular portion is By setting the distance of the object in the pixel, detection accuracy can be increased.
[多重露光による輝度補正]
実施例1の距離画像データ生成装置2では、撮像対象距離を徐々に遠くしながら複数の撮像画像を取得しているため、遠くの撮像エリアに存在する物体からの反射光は、近くの撮像エリアに存在する物体の反射光よりも弱くなる。このため、各撮像エリアで撮像時間(ゲート時間tG)を一定とした場合、遠い撮像エリアほど撮像画像が暗くなってしまう。
[Brightness correction by multiple exposure]
In the distance image data generation device 2 according to the first embodiment, a plurality of captured images are acquired while gradually increasing the imaging target distance. Therefore, reflected light from an object existing in a far imaging area is reflected in a nearby imaging area. It becomes weaker than the reflected light of the object existing in the. For this reason, when the imaging time (gate time tG) is constant in each imaging area, the captured image becomes darker as the imaging area is farther.
一方、画像処理部10では、複数の撮像画像における同一画素の輝度に基づいて、画素毎の物体までの距離を表す距離画像データを生成しているため、撮像画像間で上述した撮像対象距離の違いによる輝度差が生じると、同一画素の輝度を比較する際、正確な比較を行うことができない。 On the other hand, the image processing unit 10 generates the distance image data representing the distance to the object for each pixel based on the luminance of the same pixel in the plurality of captured images. If a luminance difference due to a difference occurs, an accurate comparison cannot be performed when comparing the luminance of the same pixel.
これに対し、実施例1では、物体が存在する撮像エリアにおける撮像画像の輝度ピーク値(輝度の最大値)が目標輝度となるよう、撮像対象距離に対して多重露光回数を設定し、記憶させる。そして、タイミングコントローラ9が、設定された多重露光回数に従って1画像に対して投光動作とゲート7aの開閉動作の複数組を行う。つまり、本実施例1の多重露光回数とは、高速度カメラ8で撮像する1画像に対して、タイミングコントローラ9の制御により行われる、投光器5の投光動作と、上記説明のように投光動作と対になる(ディレイ時間tDによる)ゲート7aの開閉動作の繰り返し回数を意味する。 On the other hand, in the first embodiment, the number of multiple exposures is set and stored for the imaging target distance so that the luminance peak value (maximum luminance value) of the captured image in the imaging area where the object exists becomes the target luminance. . Then, the timing controller 9 performs a plurality of sets of a light projecting operation and an opening / closing operation of the gate 7a on one image according to the set number of multiple exposures. In other words, the number of multiple exposures in the first embodiment refers to the light projecting operation of the light projector 5 performed by the control of the timing controller 9 for one image captured by the high-speed camera 8, and the light projection as described above. This means the number of repetitions of the opening / closing operation of the gate 7a (by the delay time tD) paired with the operation.
このため、撮像対象距離の異なる各撮像画像の輝度レンジ幅(輝度最小値と輝度最大値との差)を撮像エリアにかかわらず均一化し、予め良好な処理ができるように設定された目標輝度に近づけることができる(図9参照)。 For this reason, the luminance range width (difference between the minimum luminance value and the maximum luminance value) of each captured image with different imaging target distances is made uniform regardless of the imaging area, and the target luminance is set in advance so that good processing can be performed. (See FIG. 9).
[距離検出精度の向上作用]
図10は実施例1の距離画像データ生成装置の画像処理部が輝度の頻度を用いた処理を行う状態の説明図である。
実施例1では、悪天候における距離検出精度をさらに向上させている。以下、詳細に説明する。
実施例1の距離画像データ生成装置2において、例えば霧などがある場合の悪天候条件下では、検出されるべき物体の手前にある霧等(雨の場合もある)からの反射光により得られる画像の輝度が、物体からの反射光より得られる画像の輝度より高くなる場合がある。すると、画像の輝度のピーク値を算出した場合に、霧を物体として検出してしまう。
[Improvement of distance detection accuracy]
FIG. 10 is an explanatory diagram illustrating a state in which the image processing unit of the distance image data generation device according to the first embodiment performs processing using the luminance frequency.
In the first embodiment, the distance detection accuracy in bad weather is further improved. Details will be described below.
In the distance image data generation device 2 according to the first embodiment, for example, an image obtained by reflected light from fog or the like (may be rainy) in front of an object to be detected under bad weather conditions in the presence of fog or the like. May be higher than the brightness of the image obtained from the reflected light from the object. Then, when the peak value of the luminance of the image is calculated, fog is detected as an object.
これに対して実施例1の距離画像データ生成装置2では、上記多重露光による距離における輝度の均一化により、物体が輝度のピークとして検出されやすくしている。
さらに、撮像画像に対して、輝度の頻度の算出処理を行う(ステップS4)。
つまり、1フレームを構成する複数画像の各画像において、輝度に対する頻度を算出する。すると、例えば図10(b)に示すような横軸に輝度、縦軸に頻度のグラフを得ることができる。なお、図10(b)においては、霧等がないときの日ストグラムの輪郭線を符号101で示し、霧等があるときのヒストグラムの輪郭線を符号102で示す。
On the other hand, in the distance image data generation device 2 according to the first embodiment, the object is easily detected as a luminance peak by equalizing the luminance at the distance by the multiple exposure.
Further, a luminance frequency calculation process is performed on the captured image (step S4).
That is, the frequency with respect to the brightness is calculated for each of a plurality of images constituting one frame. Then, for example, a graph with luminance on the horizontal axis and frequency on the vertical axis as shown in FIG. 10B can be obtained. In FIG. 10B, the contour line of the daily strogram when there is no fog or the like is indicated by reference numeral 101, and the contour line of the histogram when there is fog or the like is indicated by reference numeral 102.
すると、図10(b)の横軸と、ヒストグラムの輪郭線101,102により、輝度と頻度の特性が面積で表現される。この面積で表現した輝度と頻度の特性に対して、輝度の高い方の面積割合(%)を所定の割合、例えば5%〜15%などとして輝度値で仕切る。図10(b)には面積部分101a,102aで示す。そして、仕切った境目となる輝度値を閾値101b,102bとして決定する(ステップS5)。
そして、この閾値101b,102bよりも輝度の低い部分の画素データを、ステップS9の距離画像データ生成に用いないように排除する(ステップS6)。
Then, the luminance and frequency characteristics are expressed in terms of area by the horizontal axis of FIG. 10B and the contour lines 101 and 102 of the histogram. With respect to the luminance and frequency characteristics expressed in this area, the area ratio (%) of the higher luminance is divided by a luminance value as a predetermined ratio, for example, 5% to 15%. FIG. 10B shows the area portions 101a and 102a. Then, the luminance value that is the boundary between the divided boundaries is determined as the threshold values 101b and 102b (step S5).
Then, the pixel data of a portion having a lower luminance than the threshold values 101b and 102b is excluded so as not to be used for the distance image data generation in step S9 (step S6).
なお、この処理は、撮像対象距離ごとに撮像される各画像について行われる(ステップS7,S8)。霧等がない場合の輝度と頻度の特性(符号101)は、図10(b)に示すように、輝度の低い部分の頻度が高く、輝度の高いピーク値近傍は頻度が低くなる。この特性では、例えば図10(b)に示す輝度の高い面積範囲(符号101a)以外を除外しても、この輝度の高い面積範囲に検出されるべき物体からの反射による画像の輝度ピーク値が含まれることになるので、輝度ピーク値による物体の検出が良好に行われる。 This process is performed for each image captured at each imaging target distance (steps S7 and S8). As shown in FIG. 10B, the luminance and frequency characteristics (reference numeral 101) in the absence of fog or the like are high in the low luminance portion and low in the vicinity of the high luminance peak value. In this characteristic, for example, even if the area other than the area with high luminance (reference numeral 101a) shown in FIG. 10B is excluded, the luminance peak value of the image due to reflection from the object to be detected in this area with high luminance is obtained. Therefore, the detection of the object by the luminance peak value is performed satisfactorily.
これに対して、霧等があり、その反射が強い場合の輝度と頻度の特性(符号102)は、図10(b)に示すように、霧等の反射により輝度がある程度高い値まで頻度が高くなる。この特性で、例えば図10(b)に示す輝度の高い面積範囲(符号102a)以外を除外する(ステップS6)。輝度の高い面積範囲に検出されるべき物体からの反射による画像の輝度ピーク値は、多重露光による輝度補正により、霧等の反射輝度ピーク値近傍まで引き上げられている。そのため、検出されるべき物体からの反射による画像の輝度ピーク値は、輝度の高い面積範囲に含まれることになる。 On the other hand, the characteristic of luminance and frequency (reference numeral 102) when fog is present and the reflection is strong is such that the frequency is increased to a certain level due to reflection of fog or the like, as shown in FIG. 10 (b). Get higher. With this characteristic, for example, an area other than the high luminance area range (reference numeral 102a) shown in FIG. 10B is excluded (step S6). The luminance peak value of the image due to reflection from the object to be detected in the area with high luminance is raised to the vicinity of the reflection luminance peak value such as fog by the luminance correction by multiple exposure. Therefore, the luminance peak value of the image due to reflection from the object to be detected is included in the area range with high luminance.
すると、この除外処理によって、霧等の部分が大きく距離画像から排除されることになり、遠い撮像対象距離になる物体が距離画像において、よりはっきりと見えるようになっていく。これにより、悪天候化で、近い距離の霧等の反射が強い場合で物体の距離画像における検出性能が低下するような場合であっても、物体の検出性能を向上させる。 Then, by this exclusion process, a portion such as fog is largely excluded from the distance image, and an object that becomes a far imaging target distance can be seen more clearly in the distance image. Thereby, even if the detection performance in the distance image of the object is lowered due to bad weather and strong reflection of fog or the like at a short distance, the object detection performance is improved.
実施例1の距離画像データ生成装置2の作用を明確にするためにさらに説明を加える。
図10(a)に示すように、物体がある距離の画像よりも、物体より手前の距離の画像における霧等の輝度が広い面積で高い場合、距離画像を生成すると、図10(d)に符号201として示すように、霧等が強く検出されてしまい物体が隠れるようになる。
画像処理部10で生成される距離画像データでは、例えば、距離が近くから遠くになるにつれ、赤→黄→緑→青というように色等で画素ごとに表現されることになる。そのため、特にこのように物体がその距離から青く複数画素で見える場合にその手前の霧等が大きな面積で黄色に見えると物体が隠れるように見えることになる。この隠れて見える感覚は、そのまま、その後のパターンマッチング等の難しさを示すことになる。
Further explanation will be added to clarify the operation of the distance image data generation device 2 of the first embodiment.
As shown in FIG. 10 (a), when the brightness of a fog or the like in the image at a distance closer to the object is higher than the image at a certain distance, the distance image is generated as shown in FIG. 10 (d). As indicated by reference numeral 201, fog or the like is strongly detected and the object is hidden.
In the distance image data generated by the image processing unit 10, for example, as the distance increases from near to far, it is expressed for each pixel in colors such as red → yellow → green → blue. For this reason, particularly when the object is blue and viewed from a plurality of pixels in this way, the object appears to be hidden when the front fog or the like appears yellow in a large area. This hidden sensation shows the difficulty of subsequent pattern matching or the like as it is.
これに対して、多重露光による輝度補正と、輝度と頻度の特性から高い輝度の所定面積部分以外を除外する処理により、霧等は例えば図10(c)に符号202として示すように、この処理を行わない図10(d)の符号201で示す部分に対して霧等の面積を大幅に縮小させ、符号301で示す物体が明らかに見えるようにする。
これによって、その後のパターンマッチング等による物体の検出性能が向上される。
On the other hand, with the brightness correction by multiple exposure and the process of excluding a predetermined area portion having a high brightness from the characteristics of brightness and frequency, fog and the like are processed as shown by reference numeral 202 in FIG. The area indicated by reference numeral 201 in FIG. 10 (d) that is not performed is greatly reduced in area such as fog so that the object indicated by reference numeral 301 can be clearly seen.
This improves the object detection performance by subsequent pattern matching or the like.
次に、効果を説明する。
実施例1の距離画像データ生成装置2にあっては、以下に列挙する効果を奏する。
Next, the effect will be described.
The distance image data generation device 2 according to the first embodiment has the following effects.
(1)自車両前方に所定周期でパルス光を投光する投光器5と、ターゲット距離に応じて設定される撮像タイミングでターゲット距離から帰ってくる反射光を撮像するイメージインテンシファイア7b及び高速度カメラ8と、ターゲット距離が連続的に変化するように撮像タイミングを制御するタイミングコントローラ9と、イメージインテンシファイア7b及び高速度カメラ8により得られたターゲット距離の異なる複数の撮像画像における同一画素の輝度に基づいて、画素毎の物体までの距離を表す距離画像データを生成する画像処理部10を備え、画像処理部10は、ターゲット距離の異なる複数の撮像画像それぞれに対して輝度と頻度から物体以外のデータを距離画像データの生成から除外するステップS4〜S6の処理を備えたため、自車両前方の状況を連続的に把握できる。また、悪天候条件下の影響を抑制して精度よく物体が検出される距離画像を生成することができる。 (1) A projector 5 that projects pulsed light in front of the host vehicle at a predetermined period, an image intensifier 7b that captures reflected light returning from the target distance at an imaging timing set according to the target distance, and a high speed The same pixel in a plurality of captured images with different target distances obtained by the camera 8, the timing controller 9 that controls the imaging timing so that the target distance changes continuously, the image intensifier 7b, and the high-speed camera 8 The image processing unit 10 generates distance image data representing the distance to the object for each pixel based on the luminance, and the image processing unit 10 determines the object from the luminance and the frequency for each of a plurality of captured images having different target distances. Because the processing of steps S4 to S6 for excluding data other than that from the generation of distance image data is provided, the host vehicle You can keep track of the situation ahead. In addition, it is possible to generate a distance image in which an object is detected with high accuracy while suppressing the influence under bad weather conditions.
(2)上記(1)において、画像処理部10が実行するステップS4〜S6の処理は、ターゲット距離の異なる複数の撮像画像それぞれの輝度と頻度の特性を算出するステップS4の頻度算出処理と、輝度と頻度の特性での全面積に対する高輝度側の所定割合を仕切る輝度の閾値を決定するステップS5の閾値決定処理と、閾値より低い輝度の画素の輝度を、距離画像データの生成から除外するステップS6の除外処理とを備えるため、悪天候下で、物体の手前で霧等が輝度高く光を反射する場合に、霧等の範囲部分を大きく縮小させ、物体をより明らかにし、霧等より奥側の物体をより検出しやすくでき、これにより精度を向上した距離画像データを生成できる。 (2) In the above (1), the processing of steps S4 to S6 executed by the image processing unit 10 includes the frequency calculation processing of step S4 for calculating the luminance and frequency characteristics of each of a plurality of captured images having different target distances, The threshold determination process of step S5 that determines a predetermined threshold on the high luminance side with respect to the entire area in the luminance and frequency characteristics, and the luminance of pixels having a luminance lower than the threshold are excluded from the generation of the distance image data. In order to provide the exclusion process in step S6, when fog or the like reflects light with high brightness in front of the object in bad weather, the area of the fog or the like is greatly reduced to make the object clearer and deeper than the fog or the like. This makes it easier to detect the object on the side, thereby generating distance image data with improved accuracy.
(3)上記(1)又は(2)において、タイミングコントローラ9は、一つのターゲット距離の撮像画像が、投光器5による複数回の投光と、イメージインテンシファイア7b及び高速度カメラ8による撮像タイミングでの複数回の撮像で生成されるよう制御を行うため、多重露光により、遠くに位置する物体の輝度ピークが、近くに位置する物体の輝度ピークに近い値が得られるようにでき、遠い距離の物体が確実に検出された距離画像データを生成できる。また、悪天候下で、物体の手前で霧等が輝度高く光を反射する場合に、物体をより明らかにし、霧等より奥側の物体をより検出しやすくでき、これにより精度を向上した距離画像データを生成できる。 (3) In the above (1) or (2), the timing controller 9 determines that the captured image of one target distance is projected multiple times by the projector 5, and the imaging timing by the image intensifier 7b and the high-speed camera 8. In order to control to be generated by multiple imaging at, multiple exposure allows the brightness peak of an object located far away to be a value close to the brightness peak of an object located nearby. The distance image data in which the object is reliably detected can be generated. Also, in bad weather, when fog or the like reflects light with high brightness in front of the object, the object can be made clearer and the object behind the fog can be detected more easily, thereby improving the distance image Data can be generated.
以上、本発明を実施するための最良の形態を、実施例に基づき説明したが、本発明の具体的な構成については、実施例の構成に限らず、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計変更や追加等は許容される。 The best mode for carrying out the present invention has been described above based on the embodiment. However, the specific configuration of the present invention is not limited to the configuration of the embodiment, and it relates to each claim of the claims. Design changes and additions are allowed without departing from the spirit of the invention.
例えば、投光周期、投光時間、ゲート時間、撮像対象幅、撮像対象距離の変化量、1フレーム中の撮像エリア数は、撮像手段の性能や距離画像データ生成手段の性能に応じて適宜設定することができる。 For example, the light projection period, the light projection time, the gate time, the imaging target width, the amount of change in the imaging target distance, and the number of imaging areas in one frame are appropriately set according to the performance of the imaging means and the performance of the distance image data generation means can do.
1 障害物検出装置
2 距離画像データ生成装置
3 物体認識処理部
4 判断部
5 投光器(投光手段)
6 対物レンズ
7 光増倍部
7a ゲート
7b イメージインテンシファイア
8 高速度カメラ(撮像手段)
9 タイミングコントローラ(タイミング制御手段)
10 画像処理部(距離画像データ生成手段)
101 (霧等がない場合のヒストグラムの)輪郭線
101a (霧等がない場合の全体に対して所定の面積割合の輝度が高い側の)面積部分
101b (霧等がない場合の全体に対して所定の面積割合に仕切る)閾値
102 (霧等がある場合のヒストグラムの)輪郭線
102a (霧等がある場合の全体に対して所定の面積割合の輝度が高い側の)面積部分
102b (霧等がある場合の全体に対して所定の面積割合に仕切る)閾値
201 (距離画像データにおける)霧等の部分
202 (距離画像データにおける)霧等の部分
301 (距離画像データにおける)物体の部分
DESCRIPTION OF SYMBOLS 1 Obstacle detection apparatus 2 Distance image data generation apparatus 3 Object recognition process part 4 Judgment part 5 Light projector (light projection means)
6 Objective lens 7 Photomultiplier 7a Gate 7b Image intensifier 8 High-speed camera (imaging means)
9 Timing controller (timing control means)
10 Image processing unit (distance image data generating means)
101 Contour line 101a (of the histogram when there is no fog, etc.) Area portion 101b (on the higher luminance side of a predetermined area ratio relative to the whole when there is no fog) Threshold value 102 (dividing into a predetermined area ratio) Contour line 102a (of a histogram when there is fog or the like) Area portion 102b (on the side where the luminance of the predetermined area ratio is higher than the whole when there is fog or the like) Threshold value 201 (in the distance image data) 202 such as fog (in the distance image data) 301 portion such as fog (in the distance image data)
Claims (3)
ターゲット距離に応じて設定される撮像タイミングで前記ターゲット距離から帰ってくる反射光を撮像する撮像手段と、
前記ターゲット距離が連続的に変化するように前記撮像タイミングを制御するタイミング制御手段と、
前記撮像手段により得られたターゲット距離の異なる複数の撮像画像における同一画素の輝度に基づいて、画素毎の物体までの距離を表す距離画像データを生成する距離画像データ生成手段と、
を備え、
前記距離画像データ生成手段は、
ターゲット距離の異なる複数の撮像画像それぞれに対して輝度と頻度から物体以外のデータを距離画像データの生成から除外するフィルタ手段を備えた、
ことを特徴とする車両用距離画像データ生成装置。 Light projecting means for projecting pulsed light in front of the host vehicle at a predetermined period;
Imaging means for imaging reflected light returning from the target distance at an imaging timing set according to the target distance;
Timing control means for controlling the imaging timing so that the target distance changes continuously;
Distance image data generation means for generating distance image data representing a distance to an object for each pixel based on the luminance of the same pixel in a plurality of captured images with different target distances obtained by the imaging means;
With
The distance image data generation means includes
Filter means for excluding data other than objects from the generation of distance image data from the brightness and frequency for each of a plurality of captured images with different target distances,
A vehicular distance image data generating apparatus characterized by the above.
前記フィルタ手段は、
ターゲット距離の異なる複数の撮像画像それぞれの輝度と頻度の特性を算出する頻度特性算出手段と、
輝度と頻度の特性での全面積に対する高輝度側の所定割合を仕切る輝度の閾値を決定する閾値決定手段と、
前記閾値より低い輝度の画素の輝度を、距離画像データの生成から除外する除外手段と、
を備える、
ことを特徴とする車両用距離画像データ生成装置。 The vehicle distance image data generation device according to claim 1,
The filter means includes
A frequency characteristic calculating means for calculating the luminance and frequency characteristics of each of a plurality of captured images having different target distances;
A threshold value determining means for determining a threshold value of luminance that partitions a predetermined ratio on the high luminance side with respect to the total area in the luminance and frequency characteristics;
Exclusion means for excluding the luminance of pixels having a luminance lower than the threshold from generation of distance image data;
Comprising
A vehicular distance image data generating apparatus characterized by the above.
前記タイミング制御手段は、
一つのターゲット距離の撮像画像が、前記投光手段による複数回の投光と、前記撮像手段による前記撮像タイミングでの複数回の撮像で生成されるよう制御を行う、
ことを特徴とする車両用距離画像データ生成装置。 In the vehicular distance image data generating device according to claim 1 or 2,
The timing control means includes
Control is performed so that a captured image of one target distance is generated by a plurality of times of light projection by the light projecting unit and a plurality of times of imaging at the imaging timing by the image capturing unit.
A vehicular distance image data generating apparatus characterized by the above.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008222220A JP2010054461A (en) | 2008-08-29 | 2008-08-29 | Device for generating distance image data for vehicle |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008222220A JP2010054461A (en) | 2008-08-29 | 2008-08-29 | Device for generating distance image data for vehicle |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2010054461A true JP2010054461A (en) | 2010-03-11 |
Family
ID=42070533
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008222220A Pending JP2010054461A (en) | 2008-08-29 | 2008-08-29 | Device for generating distance image data for vehicle |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2010054461A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012107984A (en) * | 2010-11-17 | 2012-06-07 | Denso Corp | Distance measuring device and distance measuring program |
| WO2017110417A1 (en) * | 2015-12-21 | 2017-06-29 | 株式会社小糸製作所 | Image acquisition device for vehicles, control device, vehicle provided with image acquisition device for vehicles and control device, and image acquisition method for vehicles |
| WO2020184447A1 (en) * | 2019-03-11 | 2020-09-17 | 株式会社小糸製作所 | Gating camera, automobile, vehicle lamp, object identifying system, arithmetic processing unit, object identifying method, image display system, detection method, image capturing device, and image processing device |
| US11187805B2 (en) | 2015-12-21 | 2021-11-30 | Koito Manufacturing Co., Ltd. | Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle |
| US11204425B2 (en) | 2015-12-21 | 2021-12-21 | Koito Manufacturing Co., Ltd. | Image acquisition device for vehicles and vehicle provided with same |
| US11249172B2 (en) | 2015-12-21 | 2022-02-15 | Koito Manufacturing Co., Ltd. | Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle |
-
2008
- 2008-08-29 JP JP2008222220A patent/JP2010054461A/en active Pending
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012107984A (en) * | 2010-11-17 | 2012-06-07 | Denso Corp | Distance measuring device and distance measuring program |
| WO2017110417A1 (en) * | 2015-12-21 | 2017-06-29 | 株式会社小糸製作所 | Image acquisition device for vehicles, control device, vehicle provided with image acquisition device for vehicles and control device, and image acquisition method for vehicles |
| JPWO2017110417A1 (en) * | 2015-12-21 | 2018-10-04 | 株式会社小糸製作所 | Vehicular image acquisition device, control device, vehicle image acquisition device or vehicle equipped with control device, and vehicle image acquisition method |
| US11187805B2 (en) | 2015-12-21 | 2021-11-30 | Koito Manufacturing Co., Ltd. | Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle |
| US11194023B2 (en) | 2015-12-21 | 2021-12-07 | Koito Manufacturing Co., Ltd. | Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle |
| US11204425B2 (en) | 2015-12-21 | 2021-12-21 | Koito Manufacturing Co., Ltd. | Image acquisition device for vehicles and vehicle provided with same |
| US11249172B2 (en) | 2015-12-21 | 2022-02-15 | Koito Manufacturing Co., Ltd. | Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle |
| WO2020184447A1 (en) * | 2019-03-11 | 2020-09-17 | 株式会社小糸製作所 | Gating camera, automobile, vehicle lamp, object identifying system, arithmetic processing unit, object identifying method, image display system, detection method, image capturing device, and image processing device |
| US12262101B2 (en) | 2019-03-11 | 2025-03-25 | Koito Manufacturing Co., Ltd. | Gating camera |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2009257983A (en) | Device and method for generating distance image data for vehicle | |
| JP2009257981A (en) | Device for generating distance image data for vehicle | |
| JP2010170449A (en) | Device and method for creating range image data for vehicle | |
| JP6851985B2 (en) | Vehicle and vehicle image acquisition method equipped with vehicle image acquisition device, control device, vehicle image acquisition device or control device | |
| JP6868570B2 (en) | Vehicle and vehicle image acquisition method equipped with vehicle image acquisition device, control device, vehicle image acquisition device or control device | |
| JP6471528B2 (en) | Object recognition apparatus and object recognition method | |
| JP2010121995A (en) | Device for generating distance image data for vehicle | |
| JP2010066221A (en) | Range image data generating device for vehicle | |
| JP2010061304A (en) | Vehicular distance image data generation device | |
| JP7594539B2 (en) | Gating camera, automobile, vehicle lighting device, image processing device, and image processing method | |
| EP3396411A1 (en) | Image acquisition device for vehicles, and vehicle provided with same | |
| US11040649B2 (en) | Vehicular sensor and vehicle provided with same | |
| JP7095640B2 (en) | Object detector | |
| JP6851986B2 (en) | Vehicle and vehicle image acquisition method equipped with vehicle image acquisition device, control device, vehicle image acquisition device or control device | |
| JP2010054461A (en) | Device for generating distance image data for vehicle | |
| WO2018110183A1 (en) | Image capture control device, image capture control method, program, and recording medium | |
| CN108370435B (en) | Vehicle image acquisition device, and vehicle including vehicle image acquisition device | |
| JP2009281895A (en) | Range image data generating device for vehicle and method for generating range image data | |
| JP2009257982A (en) | Device for generating distance image data for vehicle | |
| JP2010071704A (en) | Device and method for generating distance image data for vehicle | |
| JP2010145255A (en) | Apparatus and method for creating vehicle-use distance image data | |
| JP2009282906A (en) | Range image data generation device for vehicle | |
| JP2009258015A (en) | Apparatus and method for generating range image data for vehicle | |
| JP2009259070A (en) | Device for generating distance image data for vehicle | |
| CN121218042A (en) | Infrared strobe capture methods, media, software products, cameras and systems |