JP2001021345A - Obstacle detecting device - Google Patents
Obstacle detecting deviceInfo
- Publication number
- JP2001021345A JP2001021345A JP11193549A JP19354999A JP2001021345A JP 2001021345 A JP2001021345 A JP 2001021345A JP 11193549 A JP11193549 A JP 11193549A JP 19354999 A JP19354999 A JP 19354999A JP 2001021345 A JP2001021345 A JP 2001021345A
- Authority
- JP
- Japan
- Prior art keywords
- obstacle
- template
- estimated
- image
- feature extraction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 42
- 238000000605 extraction Methods 0.000 claims abstract description 38
- 230000003287 optical effect Effects 0.000 claims abstract description 34
- 230000033001 locomotion Effects 0.000 claims description 21
- 238000000034 method Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 102100033040 Carbonic anhydrase 12 Human genes 0.000 description 1
- 101000867855 Homo sapiens Carbonic anhydrase 12 Proteins 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Geophysics And Detection Of Objects (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、例えば車両に接近
する他の車両などの移動する障害物を検出する障害物検
出装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an obstacle detecting device for detecting a moving obstacle such as another vehicle approaching a vehicle.
【0002】[0002]
【従来の技術】従来、車両に取付けたカメラ(撮像素
子)によって車両後方の画像を撮像し、その画像データ
を画像処理することにより車両後方を走行する他の車両
などの移動物体を検出する障害物検出装置が知られてい
る。この種の装置において、後方から接近する他の車両
などの移動物体を検出する画像処理法としてオプティカ
ルフローによる手法が知られている。2. Description of the Related Art Conventionally, a camera (imaging element) mounted on a vehicle captures an image behind the vehicle and processes the image data to detect a moving object such as another vehicle traveling behind the vehicle. Object detection devices are known. In this type of apparatus, an optical flow method is known as an image processing method for detecting a moving object such as another vehicle approaching from behind.
【0003】オプティカルフローによる手法は、現在の
フレームと過去のフレームの画素濃度の相関からフロー
ベクトル(動きベクトル)を演算し、ベクトルから動き
のある物体を判別して障害物を検出する。具体的には、
画像を複数の小さなブロックに分割し、一定時間後の画
像中から各ブロックと最も相関の高いブロックを探索し
てブロック毎にベクトルを算出し、各ブロック毎のベク
トル結果を組み合わせて障害物を特定する。In the optical flow method, a flow vector (motion vector) is calculated from the correlation between the pixel densities of the current frame and the past frame, and a moving object is determined from the vector to detect an obstacle. In particular,
Divide the image into multiple small blocks, search for the block with the highest correlation with each block from the image after a fixed time, calculate the vector for each block, and identify the obstacle by combining the vector result for each block I do.
【0004】[0004]
【発明が解決しようとする課題】しかし、後方から接近
する車両などのように大きさが変化する障害物に対して
は、過去の画像中の各ブロックと一定時間後の画像との
間の相関が低くなるので良いマッチングが得られず、精
度の高いオプティカルフローは得られなかった。そのた
め、障害物のないところに障害物があると検出される誤
検出が起こるなど、その検出精度が低くなるという問題
があった。However, for an obstacle whose size changes, such as a vehicle approaching from behind, the correlation between each block in the past image and the image after a certain time has elapsed. Therefore, good matching could not be obtained, and a highly accurate optical flow could not be obtained. For this reason, there has been a problem that the detection accuracy is low, such as erroneous detection in which an obstacle is detected when there is no obstacle.
【0005】このように障害物が接近して大きさが変わ
るときの誤検出を防ぐため、画像のブロック分割数を多
くとることが従来は行われているが、ブロックの分割数
が多くなると、処理時間が長くかかるうえ、大きさが変
わらないときの検出精度が低下するという問題があっ
た。In order to prevent erroneous detection when the size of an image changes due to the approach of an obstacle as described above, it is conventional to increase the number of block divisions of an image. There is a problem that the processing time is long and the detection accuracy when the size does not change is reduced.
【0006】本発明は上記課題を解決するためになされ
たものであって、その目的は、接近する障害物を誤検出
なく精度良く検出することができる障害物検出装置を提
供することにある。SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problem, and an object of the present invention is to provide an obstacle detecting device capable of detecting an approaching obstacle with high accuracy without erroneous detection.
【0007】[0007]
【課題を解決するための手段】上記目的を達成するため
に請求項1に記載の発明は、撮像手段と、前記撮像手段
より取得した今回の画像データの特徴抽出をし、該特徴
抽出結果に基づき障害物を推定する特徴抽出手段と、前
記撮像手段より取得した前回と今回の画像データを用い
て相関を調べて動きベクトルを演算し、該動きベクトル
から障害物を推定するオプティカルフロー検出手段と、
前記特徴抽出手段が推定した障害物と、前記オプティカ
ルフロー検出手段が推定した障害物とを照合する照合手
段とを備えていることを要旨とする。In order to achieve the above object, according to the first aspect of the present invention, an image pickup means and a feature extraction of current image data obtained from the image pickup means are performed, and the feature extraction result is obtained. A feature extraction unit for estimating an obstacle based on, and an optical flow detection unit for calculating a motion vector by examining a correlation using previous and current image data obtained from the imaging unit and estimating an obstacle from the motion vector; ,
The gist of the present invention is to include a matching unit that matches the obstacle estimated by the feature extraction unit and the obstacle estimated by the optical flow detection unit.
【0008】請求項2に記載の発明は、請求項1の発明
において、前記特徴抽出手段は、前記画像データの濃度
変化を検出して特徴抽出をすることを要旨とする。請求
項3に記載の発明は、請求項2の発明において、前記オ
プティカルフロー検出手段は、前回の画像データについ
て障害物が存在すると推定される区画領域にテンプレー
トを作成するテンプレート作成手段を備え、前回時刻の
テンプレートと今回の画像データとのテンプレートマッ
チングにより動きベクトルを演算して障害物を推定する
ことを要旨とする。A second aspect of the present invention is based on the first aspect, wherein the feature extracting means detects a change in density of the image data and performs feature extraction. According to a third aspect of the present invention, in the second aspect of the present invention, the optical flow detecting means includes a template creating means for creating a template in a section area where an obstacle is presumed to exist in the previous image data. The gist is to estimate a obstacle by calculating a motion vector by template matching between a time template and current image data.
【0009】請求項4に記載の発明は、請求項1〜3の
いずれか一項の発明において、前記テンプレート作成手
段は、前記特徴抽出手段が特徴抽出結果に基づいて推定
した障害物を囲む区画領域にテンプレートを作成するこ
とを要旨とする。According to a fourth aspect of the present invention, in the invention according to any one of the first to third aspects, the template creating means includes a section surrounding the obstacle estimated by the feature extracting means based on a feature extraction result. The point is to create a template in the area.
【0010】(作用)請求項1の発明によれば、特徴抽
出手段は撮像手段より取得した今回の画像データについ
て特徴抽出を行い、その特徴抽出結果に基づいて障害物
を推定する。オプティカルフロー検出手段は前回と今回
の画像データを用いて相関を調べて動きベクトルを演算
し、この動きベクトルから障害物を推定する。照合手段
は特徴抽出手段とオプティカルフロー検出手段によりそ
れぞれ推定された2つの推定障害物を照合する。照合の
結果、両者が一致するものと判断されたときにそれを障
害物と特定する。動きと特徴との2つの側面から障害物
を特定するので、誤判定が減り障害物検出の信頼性が高
まる。(Operation) According to the first aspect of the present invention, the feature extracting means performs feature extraction on the current image data acquired from the imaging means, and estimates an obstacle based on the feature extraction result. The optical flow detection means checks the correlation using the previous and current image data, calculates a motion vector, and estimates an obstacle from the motion vector. The collating unit collates the two estimated obstacles respectively estimated by the feature extracting unit and the optical flow detecting unit. As a result of the collation, when it is determined that they match, it is identified as an obstacle. Since the obstacle is specified from the two aspects of the motion and the feature, erroneous determination is reduced and the reliability of the obstacle detection is improved.
【0011】請求項2の発明によれば、特徴抽出手段
は、今回の画像データの濃度変化を検出して特徴抽出を
する。濃度変化検出なので簡単な処理で済む。請求項3
の発明によれば、オプティカルフロー検出手段は、テン
プレート作成手段により前回の画像データにおいて障害
物が存在すると推定される区画領域にテンプレートを作
成する。そして、前回時刻のテンプレートと今回の画像
データとのテンプレートマッチングにより動きベクトル
を演算して障害物を推定する。障害物の存在する一部の
区画領域をテンプレートとするので、マッチング処理が
簡単となり、動きベクトルの演算処理が短時間で済む。According to the second aspect of the present invention, the feature extracting means detects a change in the density of the current image data and performs feature extraction. Simple processing is required because the change in density is detected. Claim 3
According to the invention, the optical flow detecting means creates the template in the section area where the obstacle is presumed to exist in the previous image data by the template creating means. Then, an obstacle is estimated by calculating a motion vector by template matching between the template at the previous time and the current image data. Since a partial area where an obstacle exists is used as a template, the matching process is simplified, and the calculation process of the motion vector can be completed in a short time.
【0012】請求項4の発明によれば、テンプレート作
成手段は特徴抽出手段がその特徴抽出結果に基づいて推
定した障害物を囲む区画領域にテンプレートを作成す
る。According to the fourth aspect of the present invention, the template creating means creates the template in the area surrounding the obstacle estimated by the feature extracting means based on the feature extraction result.
【0013】[0013]
【発明の実施の形態】以下、本発明を具体化した一実施
形態を図1〜図7に基づいて説明する。図2に示すよう
に、障害物検出装置1は自動車2に搭載され、カメラ3
を備えている。カメラ3は撮像手段として撮像素子(イ
メージセンサ)4を内蔵している。撮像素子4としては
例えばCCDイメージセンサやMOS型イメージセンサ
が用いられる。カメラ3は自動車2の後方を撮像可能な
場所、例えば同図のようにリヤバンパ、あるいはドアミ
ラーなどに取付けられる。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to FIGS. As shown in FIG. 2, the obstacle detection device 1 is mounted on an automobile 2 and a camera 3
It has. The camera 3 incorporates an image pickup device (image sensor) 4 as image pickup means. As the imaging device 4, for example, a CCD image sensor or a MOS image sensor is used. The camera 3 is attached to a place where the rear of the automobile 2 can be imaged, for example, a rear bumper or a door mirror as shown in FIG.
【0014】カメラ3はハーネスなどの電気配線を通じ
て自動車2に配設された制御装置5に接続されている。
制御装置5はマイクロコンピュータ(以下、単にマイコ
ンという)6、画像メモリ7、メモリ8を備えている。
マイコン6はカウンタ9を内蔵している。なお、特徴抽
出手段、オプティカルフロー検出手段、照合手段及びテ
ンプレート作成手段は、マイコン6により構成される。The camera 3 is connected to a control device 5 provided in the automobile 2 through electric wiring such as a harness.
The control device 5 includes a microcomputer (hereinafter simply referred to as a microcomputer) 6, an image memory 7, and a memory 8.
The microcomputer 6 has a built-in counter 9. The feature extracting means, the optical flow detecting means, the collating means and the template creating means are constituted by the microcomputer 6.
【0015】画像素子4により撮像された画像データは
画像メモリ7に転送される。マイコン6は画像メモリ7
から画像データを読み取って画像処理を行う。メモリ8
には障害物検出の画像処理を行うための図1にフローチ
ャートで示すプログラムデータが記憶されている。マイ
コン6はこのプログラムデータを所定時間間隔毎に実行
し、車両の後方を走行する他の車両などの移動する障害
物を検出する。制御装置5は図示しない警報装置に電気
的に接続されてこれを制御し、例えば車線を変更しよう
としたときに急に後方から接近してきた障害物(他の車
両等)を検出すると、警報装置により運手者にその障害
物の接近を告知する。The image data picked up by the image element 4 is transferred to the image memory 7. The microcomputer 6 is an image memory 7
And performs image processing. Memory 8
Stores program data shown in the flowchart of FIG. 1 for performing image processing for obstacle detection. The microcomputer 6 executes the program data at predetermined time intervals, and detects a moving obstacle such as another vehicle running behind the vehicle. The control device 5 is electrically connected to an alarm device (not shown) to control the alarm device. For example, when detecting an obstacle (other vehicle or the like) suddenly approaching from behind when attempting to change lanes, the alarm device is activated. To inform the operator of the approach of the obstacle.
【0016】次に障害物検出方法を図3〜図7に示す画
像データを用いて概説する。以下の画像処理方法に基づ
いて図1のプログラムデータは作成されている。 初期認識 図3は、図4に示す時刻tに読み込まれた画像データ
(画像濃度データ)Itについて濃度変化検出処理(微
分処理)を行って障害物の特徴抽出を行った濃度変化画
像(エッジ画像)Dtである。図4のように後方から接
近する障害物が車両である場合、路面と車両、車両の中
でもボンネットとガラスの境界などコントラストがはっ
きりした車両の輪郭部分のエッジE1が特徴抽出される
(輪郭線抽出法)。このエッジ画像Dtで特徴抽出され
た輪郭情報から障害物(車両)の位置・大きさを推定す
る。詳しくは濃度変化(エッジ)の集合を抽出する処理
を行い、その抽出範囲から障害物の存在範囲を推定す
る。そして、その推定された障害物の存在範囲を図4の
画像データItにおいて区画し、この区画した濃度画像
の領域をテンプレートT1(図4における太線枠)とし
て保持する。Next, an obstacle detection method will be outlined with reference to image data shown in FIGS. The program data of FIG. 1 is created based on the following image processing method. Initial recognition FIG. 3 shows a density change image (edge image) obtained by performing density change detection processing (differential processing) on image data (image density data) It read at time t shown in FIG. ) Dt. When an obstacle approaching from behind is a vehicle as shown in FIG. 4, an edge E1 of a contour portion of a vehicle having a sharp contrast such as a boundary between a road surface and a vehicle, and a boundary between a hood and a glass among vehicles is extracted (contour line extraction). Law). The position and the size of the obstacle (vehicle) are estimated from the contour information extracted from the edge image Dt. Specifically, a process of extracting a set of density changes (edges) is performed, and the existence range of the obstacle is estimated from the extraction range. Then, the estimated existence range of the obstacle is partitioned in the image data It of FIG. 4, and the region of the partitioned density image is stored as a template T1 (a thick frame in FIG. 4).
【0017】 オプティカルフローによる障害物推定 次に所定時間経過後の時刻t+1に図6に示す画像データ
(画像濃度データ)が読み込まれる。前回(時刻t)の
テンプレートT1と今回(時刻t+1 )の画像濃度データ
It+1との相関からオプティカルフロー(動きベクト
ル)を算出する。そして、初期のテンプレートT1(図
6における点線枠)をその初期の位置からそのフローベ
クトルB(図6における矢印)分だけそのベクトルの向
きにベクトルの大きさの移動量だけ移動させた図6の太
線枠Kの位置に、そのテンプレートT1程度の大きさの
障害物が存在するはずであろうと推定する。この場合、
障害物は接近しており大きさの異なるものと相関をとっ
ているため、オプティカルフローの推定位置は信頼性が
低いことになる。Obstacle Estimation by Optical Flow Next, at time t + 1 after a lapse of a predetermined time, image data (image density data) shown in FIG. 6 is read. An optical flow (motion vector) is calculated from the correlation between the previous (time t) template T1 and the current (time t + 1) image density data It + 1. Then, the initial template T1 (dotted frame in FIG. 6) is moved from the initial position by the flow vector B (arrow in FIG. 6) in the direction of the vector by the moving amount of the vector size in FIG. It is estimated that an obstacle having the size of the template T1 should exist at the position of the thick line frame K. in this case,
Since the obstacles are close to each other and correlated with those having different sizes, the estimated position of the optical flow has low reliability.
【0018】 特徴抽出による障害物推定 一方、時刻t+1の画像濃度データについて濃度変化検出
処理(微分処理)を行う。図5は時刻t+1の画像濃度デ
ータIt+1を微分処理して濃度変化の大きい輪郭部分の
エッジE2が特徴抽出された濃度変化画像(エッジ画
像)Dt+1である。このエッジ画像Dtで特徴抽出された
輪郭情報から障害物(車両)の位置・大きさを推定す
る。詳しくは濃度変化(エッジ)の集合を抽出する処理
を行い、その抽出範囲から障害物の存在範囲を推定す
る。Obstacle Estimation by Feature Extraction On the other hand, density change detection processing (differential processing) is performed on the image density data at time t + 1. FIG. 5 shows a density-change image (edge image) Dt + 1 obtained by differentiating the image density data It + 1 at time t + 1 and extracting an edge E2 of a contour portion having a large density change. The position and the size of the obstacle (vehicle) are estimated from the contour information extracted from the edge image Dt. Specifically, a process of extracting a set of density changes (edges) is performed, and the existence range of the obstacle is estimated from the extraction range.
【0019】 2つの推定障害物の照合 で得られたオプティカルフローによる推定障害物と、
で得られた特徴抽出による推定障害物とを照合する。
すなわち、図6の太線枠の近傍に障害物を特徴づけるエ
ッジE2があるかどうかを調べる。図6の太線枠の近傍
に車両を特徴づけるエッジが得られれば、動きの情報か
ら推定された障害物と、特徴抽出から推定された障害物
とが一致していることが分かる。つまり、動きがあるも
のと車両らしきものとが一致すれば、それを移動する車
両であると特定する。障害物の接近する障害物は大きさ
が異なるために相関度が相対的に低くなり、オプティカ
ルフローの信頼性が低く誤判定の恐れもあるが、その移
動するものが車両の特徴を有しているかを見ることで誤
判定を防止するようにしている。そして、照合によって
2つの推定障害物が整合すると、エッジ画像Dt+1の輪
郭情報に基づいて図7に示すように時刻t+1におけるテ
ンプレートT2を作成する。なお、障害物(車両)が接
近するか離間するかの判断はフローベクトルBの向きか
ら判定される。An estimated obstacle based on the optical flow obtained by comparing the two estimated obstacles,
Is compared with the obstacle estimated by the feature extraction obtained in step (1).
That is, it is checked whether there is an edge E2 characterizing the obstacle near the thick line frame in FIG. If an edge characterizing the vehicle is obtained in the vicinity of the thick line frame in FIG. 6, it can be understood that the obstacle estimated from the motion information matches the obstacle estimated from the feature extraction. In other words, if a moving object matches a vehicle-like object, it is identified as a moving vehicle. Obstacles approaching are different in size due to their different sizes, and the correlation is relatively low.The reliability of the optical flow is low and there is a risk of erroneous determination, but the moving object has the characteristics of a vehicle. The erroneous determination is prevented by seeing whether the Then, when the two estimated obstacles are matched by collation, a template T2 at time t + 1 is created based on the contour information of the edge image Dt + 1 as shown in FIG. The determination as to whether an obstacle (vehicle) approaches or separates is determined from the direction of the flow vector B.
【0020】以下同様の手順で〜の処理を所定時間
毎に繰り返し、接近する障害物を検出する。ここで、車
両らしきものの推定に濃度変化画像を使用するのは、特
徴部分だけを抽出することにより処理時間を短く済ませ
るためである。In the same manner, the following steps are repeated at predetermined time intervals to detect an approaching obstacle. Here, the reason why the density change image is used for estimating a vehicle-like object is to shorten the processing time by extracting only the characteristic portion.
【0021】〜の処理内容を図1のプログラムデー
タは備えている。マイコン6は図1のプログラムデータ
を所定時間間隔毎に実行して障害物検出処理を行う。以
下、マイコン6による障害物検出処理について図1に従
って説明する。The program data shown in FIG. The microcomputer 6 executes the program data of FIG. 1 at predetermined time intervals to perform an obstacle detection process. Hereinafter, the obstacle detection processing by the microcomputer 6 will be described with reference to FIG.
【0022】まずステップ(以下、単にSと記す)10
では、画像データの読み込みをする。S20では、既存
テンプレート(障害物テンプレート)が有るかどうかを
判断する。既存テンプレートが有るときはS30に進
み、既存テンプレートが無いときはS40に進む。First, a step (hereinafter simply referred to as S) 10
Then, the image data is read. In S20, it is determined whether there is an existing template (obstacle template). When there is an existing template, the process proceeds to S30, and when there is no existing template, the process proceeds to S40.
【0023】S30では、相関処理を行う。つまり、既
存(例えば時刻t)のテンプレートT1と今回(時刻t+
1 )の画像濃度データIt+1との相関からオプティカル
フローを算出し、既存テンプレートT1とフローベクト
ルBとから障害物を推定する。つまり、図6の点線枠で
示された既存のテンプレートT1にフローベクトルBの
動きを加えて既存のテンプレートT1を移動させる処理
を計算上で行い、そのテンプレートT1の移動先である
図6の太線枠Kの範囲の近傍に障害物が存在するであろ
うと推定する。In S30, a correlation process is performed. That is, the existing (for example, time t) template T1 and the current (time t +
1) An optical flow is calculated from the correlation with the image density data It + 1, and an obstacle is estimated from the existing template T1 and the flow vector B. That is, the process of adding the motion of the flow vector B to the existing template T1 shown by the dotted frame in FIG. 6 to move the existing template T1 is performed by calculation, and the thick line in FIG. It is estimated that there will be an obstacle near the range of the frame K.
【0024】S40では、今回の画像濃度データIt+1
を濃度変化検出処理(微分処理)し、濃度変化データ
(エッジ画像)Dt+1を作成する。微分処理では水平エ
ッジ及び垂直エッジが検出される。なお、既存テンプレ
ートT1が無い初回処理時の場合は、図4に示す画像濃
度データItの微分処理によって画像中の車両の濃度変
化部分(輪郭部分)が特徴抽出された図3に示す濃度変
化データ(エッジ画像)Dtが求められる。In S40, the current image density data It + 1
Is subjected to density change detection processing (differential processing) to generate density change data (edge image) Dt + 1. In the differentiation processing, horizontal edges and vertical edges are detected. In the case of the initial processing without the existing template T1, the density change data shown in FIG. 3 in which the density change portion (outline portion) of the vehicle in the image is featured by the differential processing of the image density data It shown in FIG. (Edge image) Dt is obtained.
【0025】一方、既存テンプレートT1が有る場合
は、図6に示す時刻t+1 の画像濃度データについて微分
処理がなされ、画像中の車両の濃度変化部分(輪郭部
分)が特徴抽出された図5に示す濃度変化データ(エッ
ジ画像)Dt+1が求められる。On the other hand, when the existing template T1 exists, the image density data at time t + 1 shown in FIG. 6 is differentiated, and the density change portion (outline portion) of the vehicle in the image is extracted. The density change data (edge image) Dt + 1 shown in FIG.
【0026】S50では、濃度変化データDt,Dt+1の
特徴抽出結果に基づく輪郭情報から障害物(車両)を推
定する。S60では、S30でのオプティカルフロー
(相関処理)結果から推定された障害物が有るかどうか
を判断する。推定障害物が有ればS70に進み、推定障
害物が無ければS170に進む。In S50, an obstacle (vehicle) is estimated from contour information based on the feature extraction result of the density change data Dt, Dt + 1. In S60, it is determined whether there is an obstacle estimated from the result of the optical flow (correlation processing) in S30. If there is an estimated obstacle, the process proceeds to S70, and if there is no estimated obstacle, the process proceeds to S170.
【0027】S70では、S50で濃度変化(特徴抽
出)結果から推定された推定障害物があるかどうかを判
断する。推定障害物が有ればS80に進み、推定障害物
が無ければS130に進む。In S70, it is determined whether there is an estimated obstacle estimated from the density change (feature extraction) result in S50. If there is an estimated obstacle, the process proceeds to S80, and if there is no estimated obstacle, the process proceeds to S130.
【0028】S80では、濃度変化推定障害物と相関処
理推定障害物との整合処理を行う。すなわち、特徴抽出
から車両らしきものであろうと推定された推定障害物
と、フローベクトルによる動きから移動するものであろ
うと推定された推定障害物について、位置および大きさ
について整合するかどうかを照合する。位置の整合は、
動きから推定された障害物(図6の太線枠)の近傍に、
車両の特徴をもつエッジE2が存在するかどうかを調べ
る。大きさの整合は、動きから推定された障害物(図6
の太線枠)の大きさと、特徴抽出から得られたエッジE
2から推定される障害物の大きさとの比較により行われ
る。画像の読み込み時間間隔が非常に短く、障害物の接
近または離間によって障害物の大きさが変わる程度は限
られるため、自車から障害物までの距離に応じて決まる
許容誤差範囲内であれば大きさの一致がみられたとす
る。In S80, matching processing is performed between the density change estimated obstacle and the correlation processing estimated obstacle. That is, it is checked whether the position and the size of the estimated obstacle estimated to be a vehicle from the feature extraction and the estimated obstacle estimated to be the one moving from the motion based on the flow vector match with each other. . The alignment of the position
In the vicinity of an obstacle (bold frame in FIG. 6) estimated from the motion,
It is checked whether an edge E2 having the characteristics of the vehicle exists. The size matching is based on the obstacle estimated from the motion (FIG. 6).
And the edge E obtained from the feature extraction
This is performed by comparison with the size of the obstacle estimated from (2). The image reading time interval is very short, and the degree of change in the size of the obstacle due to approaching or moving away from the obstacle is limited, so if it is within the allowable error range determined according to the distance from the vehicle to the obstacle, Suppose a match is found.
【0029】S90では、S80の結果が整合有りかど
うかを判断する。整合有りであればS100に進み、整
合有りでなければS120に進む。S100では、2つ
の推定障害物が整合したのでそれを障害物と特定する。In S90, it is determined whether or not the result of S80 is consistent. If there is a match, the process proceeds to S100, and if there is no match, the process proceeds to S120. In S100, since the two estimated obstacles match, it is identified as an obstacle.
【0030】S110では、S100で特定された障害
物のテンプレートT2を作成する。すなわち、今回(時
刻t+1 )の濃度変化データ(エッジ画像)Dt+1(図
5)の輪郭情報に基づき図7の画像濃度データIt+1に
おける障害物を推定してこれを区画し、この区画(図7
の太線枠)内の濃度領域をテンプレートT2として作成
する。In S110, a template T2 of the obstacle specified in S100 is created. That is, based on the contour information of the density change data (edge image) Dt + 1 (FIG. 5) of the current time (time t + 1), an obstacle in the image density data It + 1 of FIG. 7 is estimated and partitioned. This section (Fig. 7
(Thick line frame) is created as a template T2.
【0031】S120は、2つの推定障害物が整合しな
かった場合の処理で、整合しなかった理由は新規の障害
物の出現であるとして、新規の障害物のテンプレートを
作成する。S120 is a process in a case where the two estimated obstacles do not match, and a template of a new obstacle is created on the assumption that the reason for the mismatch is the appearance of a new obstacle.
【0032】S130〜S160の処理は、オプティカ
ルフロー(相関処理)による推定障害物は得られたもの
の、特徴抽出(濃度変化)による推定障害物が得られな
かった場合の処理である。この原因として気象条件や日
陰に入るなどの光の条件の変化でエッジが捉え難くなっ
た場合と、テンプレート自体が間違っている場合とが挙
げられる。過去何回かのデータの中で急にエッジの特徴
が捉えられなくなった場合は、そのような光の条件の変
化に起因する可能性が高い。また、過去何回かのデータ
の中でエッジの特徴が継続して捉えられない場合は、テ
ンプレート自体が間違っている可能性が高い。また、テ
ンプレートの間違いは、画像の中央にいた車両が画面か
ら急に消えることはあり得ないので、そのような位置情
報からも判定可能である。また、車両が短時間のうちに
移動できる範囲は限られるので、フローベクトルの大き
さからもテンプレートの間違いを判定することが可能で
ある。S130は、このような観点から障害物を特定で
きない理由であるテンプレートの間違いを判定するため
の処理である。The processing of S130 to S160 is a processing in a case where an estimated obstacle is obtained by optical flow (correlation processing) but an estimated obstacle is not obtained by feature extraction (density change). The causes include a case where the edge becomes difficult to catch due to a change in light conditions such as a weather condition or a shade, and a case where the template itself is wrong. If the feature of the edge suddenly becomes unrecognizable in the past several times of data, it is highly likely that such a change is caused by such a change in light conditions. Further, when the edge feature cannot be continuously captured in the past several times of data, there is a high possibility that the template itself is wrong. In addition, since a vehicle in the center of the image cannot suddenly disappear from the screen, an error in the template can be determined from such positional information. Further, since the range in which the vehicle can move in a short time is limited, it is possible to determine a template error from the size of the flow vector. S130 is processing for determining a template error which is a reason why an obstacle cannot be specified from such a viewpoint.
【0033】S130では、上記の観点から、障害物の
過去の位置情報、フローベクトルの大きさ、過去の不特
定回数値などのデータに基づきテンプレート間違いの可
能性が高いかどうかを判定する。そして、テンプレート
間違いの可能性が高いと判定されたときは、カウンタ9
をインクリメントして不特定回数に「1」加える。In S130, from the above viewpoint, it is determined whether or not there is a high possibility of a template error based on data such as the past position information of the obstacle, the magnitude of the flow vector, and the past unspecified count value. When it is determined that the possibility of a template error is high, the counter 9
Is incremented and “1” is added to the unspecified number of times.
【0034】S140では、不特定回数が予め設定した
規定値以上であるかどうかを判断する。不特定回数が規
制値未満であるときはS150に進み、不特定回数が規
制値以上であるときはS160に進む。In S140, it is determined whether or not the unspecified number is equal to or greater than a predetermined value. When the unspecified number is less than the regulation value, the process proceeds to S150, and when the unspecified number is equal to or more than the regulation value, the process proceeds to S160.
【0035】S150では、既存テンプレートを保持す
る。つまり、不特定回数が規制値未満であるときは、光
の条件などの原因でエッジの特徴が捉えられないだけで
テンプレート自体が正しい可能性が十分あるので、既存
テンプレートをそのまま保持する。In S150, the existing template is held. That is, when the unspecified number of times is less than the regulation value, the existing template is retained as it is because there is a sufficient possibility that the template itself is correct simply because the edge feature cannot be captured due to light conditions or the like.
【0036】S160では、障害物のテンプレートを消
去する。つまり、不特定回数が規制値以上であるとき
は、既存のテンプレートが間違いであるとほぼ認められ
るので、その間違った既存テンプレートを消去する。In S160, the template of the obstacle is deleted. That is, when the unspecified number of times is equal to or larger than the regulation value, the existing template is almost recognized as wrong, and the wrong existing template is deleted.
【0037】S60,S170,S120の処理は、オ
プティカルフロー(相関処理)による推定障害物と、特
徴抽出(濃度変化)による推定障害物が共に得られなか
った場合の処理である。つまりフローベクトルもエッジ
の特徴も共に捉えられない場合である。The processes in S60, S170, and S120 are processes in a case where neither an estimated obstacle by optical flow (correlation processing) nor an estimated obstacle by feature extraction (density change) is obtained. That is, neither the flow vector nor the edge feature can be captured.
【0038】S170では、S60でオプティカルフロ
ー(相関処理)による推定障害物が無いと判断された
後、特徴抽出(濃度変化)による推定障害物(S50)
が有るかどうかを判断する。つまりS70と判断内容は
同じである。推定障害物が有ればS120に進んで新規
障害物のテンプレートを作成し、推定障害物が無ければ
今回の処理サイクルを終了する。なお、S30がオプテ
ィカルフロー検出手段を構成し、S40,S50が特徴
抽出手段を構成し、S80〜S100が照合手段を構成
する。また、S110,S120がテンプレート作成手
段を構成する。In S170, after it is determined in S60 that there is no estimated obstacle by optical flow (correlation processing), the estimated obstacle by feature extraction (density change) (S50)
It is determined whether or not there is. That is, the determination content is the same as S70. If there is an estimated obstacle, the process proceeds to S120 to create a template of a new obstacle, and if there is no estimated obstacle, the current processing cycle ends. S30 constitutes an optical flow detecting means, S40 and S50 constitute a feature extracting means, and S80 to S100 constitute a matching means. Also, S110 and S120 constitute a template creation unit.
【0039】こうして図1のフローチャートを所定時間
間隔で繰り返し実行することにより、カメラ3の画像中
に後方を走行する車両が現れたときには、その動きから
のフローベクトルに基づく推定と、車両の特徴抽出に基
づく推定との2つの推定結果の整合をみてその車両が障
害物であるかどうかが判定される。このため、障害物が
自車に対して接近または離間し、時刻の異なる2つの画
像においてその大きさが異なっても誤判定が生じ難く、
検出精度が向上する。例えば自車が車線変更する場合に
その後方から接近する車両と十分な車間距離が確保され
ない恐れがあると判断されたときには、警告装置から運
転者に対して音や音声による警告がなされる。本実施形
態ではこのような警告の際に、接近する障害物が存在し
ないにもかかわら警告がなされる警告ミスが減ることに
なる。By repeatedly executing the flowchart of FIG. 1 at predetermined time intervals, when a vehicle traveling behind appears in the image of the camera 3, estimation based on the flow vector from the movement and feature extraction of the vehicle are performed. It is determined whether or not the vehicle is an obstacle by matching the two estimation results with the estimation based on the vehicle. For this reason, even if the obstacle approaches or separates from the own vehicle and the sizes of the two images at different times are different, erroneous determination hardly occurs.
The detection accuracy is improved. For example, when it is determined that there is a possibility that a sufficient inter-vehicle distance from a vehicle approaching from behind the vehicle may not be ensured when the vehicle changes lanes, a warning is issued to the driver from the warning device by sound or voice. In the present embodiment, at the time of such a warning, a warning error in which a warning is issued even when an approaching obstacle does not exist is reduced.
【0040】以上詳述したように本実施形態によれば、
以下の効果を得ることができる。 (1)オプティカルフロー(相関処理)による推定結果
と、特徴抽出(濃度変化)からの推定結果とを照合し、
両推定結果が整合したものについてそれを障害物と特定
する手法を採用するため、障害物が接近・離間してその
大きさが異なることに起因する障害物の誤判定が生じ難
く、障害物の検出精度を向上させることができる。As described in detail above, according to the present embodiment,
The following effects can be obtained. (1) The estimation result from optical flow (correlation processing) is compared with the estimation result from feature extraction (density change),
Since a method is used in which the two estimation results are consistent and the method is used to identify it as an obstacle, erroneous determination of obstacles due to the difference in size due to the approaching / separating of the obstacles is unlikely to occur. Detection accuracy can be improved.
【0041】(2)障害物のテンプレートを作成し、そ
のテンプレートと画像データとのテンプレートマッチン
グによるオプティカルフロー手法を採用するので、マッ
チング処理が簡素化してオプティカルフローの演算時間
を短縮でき、リアルタイムの高速処理にも対応できる。(2) Since an optical flow method based on template creation of an obstacle and template matching between the template and the image data is employed, the matching process is simplified, the operation time of the optical flow can be reduced, and real-time high-speed processing can be achieved. It can also handle processing.
【0042】(3)画像データの濃度変化検出処理(微
分処理)により障害物の輪郭の特徴を抽出し、その抽出
された輪郭情報から障害物の存在範囲を推定してテンプ
レートを作成する輪郭線抽出方式を採用するので、領域
抽出方式に比べテンプレートの作成時間を短縮でき、こ
の点からも高速処理に対応できる。(3) A contour line for extracting a feature of an outline of an obstacle by a density change detection processing (differential processing) of image data, estimating an existence range of the obstacle from the extracted outline information, and creating a template. Since the extraction method is employed, the time required to create a template can be reduced as compared with the region extraction method, and this also enables high-speed processing.
【0043】(4)テンプレート自体の間違いを不特定
処理判定(S130)により発見して見直す機能を有す
るので、障害物のテンプレートを使ったテンプレートマ
ッチングによるオプティカルフロー検出を行うものの、
テンプレート自体の間違いに起因する障害物の誤検出を
防止することができる。(4) It has a function of finding and reviewing an error in the template itself by the unspecified process determination (S130), so that optical flow detection is performed by template matching using an obstacle template.
It is possible to prevent erroneous detection of an obstacle due to an error in the template itself.
【0044】(5)不特定処理判定(S130)におい
て不特定回数が規定値以上のときにはその注視する障害
物のテンプレートを消去するので、光の条件の変化など
の原因でエッジの特徴が捉えられないときはそのままテ
ンプレートを保持でき、テンプレートの間違いがほぼ確
実な場合にテンプレートを消去することができる。(5) When the unspecified number of times is equal to or more than the specified value in the unspecified process determination (S130), the template of the observing obstacle is erased, so that the feature of the edge is captured due to a change in light conditions or the like. When there is no template, the template can be kept as it is, and when the mistake of the template is almost certain, the template can be erased.
【0045】(6)整合処理(S80)において整合が
ない場合は、新規障害物のテンプレートを作成するの
で、既存の障害物と画面上に新規に現れた障害物とを区
別し、新規の障害物についても個別に注視してその動き
を検出することができる。(6) If there is no match in the matching process (S80), a template for a new obstacle is created, so that existing obstacles and obstacles newly appearing on the screen are distinguished and new obstacles are created. It is also possible to detect the movement of an object while watching it individually.
【0046】(7)障害物の誤検出を防ぎ障害物を精度
良く検出できるので、運転者に適切な警告をすることが
できる。なお、発明の実施の形態は、以下ような形態で
実施することもできる。(7) Since an erroneous detection of an obstacle can be prevented and the obstacle can be detected with high accuracy, an appropriate warning can be given to the driver. The embodiments of the present invention can also be implemented in the following modes.
【0047】・ 障害物のテンプレートを使用したテン
プレートマッチングによるオプティカルフロー検出方法
を採用することに限定されない。オプティカルフロー検
出には従来と同様に、画像を複数の小さなブロックに分
割し、一定時間後の画像中から各ブロックと最も相関の
高きブロックを探索する方法を採用することができる。
この場合も、濃度変化データによるエッジの特徴からの
推定結果との整合をとることにより接近する障害物の誤
検出を防止することができる。It is not limited to adopting the optical flow detection method by template matching using an obstacle template. As in the related art, a method of dividing an image into a plurality of small blocks and searching for a block having the highest correlation with each block from the image after a predetermined time can be employed for optical flow detection.
Also in this case, it is possible to prevent an erroneous detection of an approaching obstacle by matching the estimation result with the estimation result from the edge feature based on the density change data.
【0048】・ テンプレートの作成方法は、濃度変化
のエッジの特徴からの輪郭情報に基づき作成する方法に
限定されない。例えば処理速度は遅くなるものの、画像
データの濃度情報をそのまま使って障害物を推定するこ
とによりテンプレートを作成する方法をとることもでき
る。The method of creating a template is not limited to the method of creating a template based on contour information from the edge characteristics of the density change. For example, although the processing speed becomes slow, a method of creating a template by estimating an obstacle using the density information of the image data as it is can also be adopted.
【0049】・ オプティカルフロー検出をする際のテ
ンプレートマッチングに使用する障害物のテンプレート
は濃度データに限らず、濃度変化データを使ってもよ
い。 ・ 障害物検出装置は車両後方の障害物検出用に限定さ
れない。例えば車両前方や車両側方の障害物検出にも使
用できる。The template of the obstacle used for the template matching at the time of optical flow detection is not limited to the density data, and density change data may be used. -The obstacle detection device is not limited to detecting an obstacle behind the vehicle. For example, it can also be used to detect obstacles in front of and on the side of the vehicle.
【0050】・ 障害物検出装置を警告以外の目的で車
両に搭載しても構わない。移動物体を検出してその検出
結果に基づいてある処理をするあらゆる装置に適用でき
る。例えば自動運転システムにおいて採用することもで
きる。The obstacle detection device may be mounted on a vehicle for purposes other than warning. The present invention can be applied to any device that detects a moving object and performs a certain process based on the detection result. For example, it can be adopted in an automatic driving system.
【0051】上記実施形態及び別例から把握される請求
項以外の技術的思想を、その効果とともに以下に記載す
る。 (1)請求項2において、前記特徴抽出手段は、濃度変
化データに基づいて濃度変化の集合を抽出して障害物を
推定する。この構成によれば、特徴抽出処理が簡単であ
る。The technical ideas other than the claims grasped from the above embodiment and other examples are described below together with their effects. (1) In claim 2, the feature extracting means estimates a obstacle by extracting a set of density changes based on density change data. According to this configuration, the feature extraction processing is simple.
【0052】(2)請求項1〜4のいずれかにおいて、
前記オプティカルフロー検出手段による推定障害物が得
られ、前記特徴抽出手段による推定障害物が得られなか
ったときに、テンプレートの間違いであるかどうかを判
定する不特定判定手段(S130〜S160)を備えて
いる。(2) In any one of claims 1 to 4,
Unspecified determining means (S130 to S160) for determining whether or not the template is incorrect when an estimated obstacle by the optical flow detecting means is obtained and an estimated obstacle by the feature extracting means is not obtained. ing.
【0053】(3)前記(2)の技術的思想において、
前記不特定判定手段、不特定判定回数が規定値未満では
テンプレートを保持し、規定値以上になるとテンプレー
トを消去する。この構成によれば、光の条件などにより
濃度変化の特徴が捉え難い場合にはテンプレートを保持
し、テンプレート自体に間違いがあるときにはそれを消
去することができる。(3) In the technical idea of the above (2),
The unspecified determination means retains the template if the number of unspecified determinations is less than a specified value, and deletes the template if the number of unspecified determinations exceeds the specified value. According to this configuration, the template can be held when the feature of the density change is difficult to catch due to light conditions or the like, and can be deleted when there is an error in the template itself.
【0054】(4)請求項1〜4及び前記(1)〜
(3)の技術的思想のいずれかの障害物検出装置を備え
ている車両。この車両によれば、車両の周囲の障害物を
精度良く検出できる。(4) Claims 1-4 and (1)-
A vehicle provided with any of the obstacle detection devices according to the technical concept of (3). According to this vehicle, obstacles around the vehicle can be accurately detected.
【0055】[0055]
【発明の効果】請求項1及び2の発明によれば、特徴抽
出から推定した障害物と、動きベクトルから推定した障
害物とを照合し、両者が一致するものと判断されたとき
にそれを障害物と特定するので、接近して大きさが変化
する障害物についても誤判定が生じ難く検出精度を向上
させることができる。According to the first and second aspects of the present invention, the obstacle estimated from the feature extraction and the obstacle estimated from the motion vector are collated, and when it is determined that they match, the obstacle is determined. Since the obstacle is identified as an obstacle, an erroneous determination is unlikely to occur even for an obstacle whose size changes when approaching, so that the detection accuracy can be improved.
【0056】請求項3の発明によれば、画像データのう
ち障害物が存在する区画領域をテンプレートとし、この
一部領域のテンプレートについて今回の画像データとの
間でテンプレートマッチングを行うので、動きベクトル
の演算時間を短縮でき、リアルタイムの高速処理に対応
できる。According to the third aspect of the present invention, a template area is defined as a template in a section area where an obstacle is present in image data, and template matching is performed between the template of this partial area and the current image data. Can reduce the calculation time, and can respond to real-time high-speed processing.
【0057】請求項4の発明によれば、特徴抽出手段の
特徴抽出結果を利用してテンプレートを作成するので、
テンプレート作成処理時間を短縮でき、リアルタイムの
高速処理に対応できる。According to the fourth aspect of the present invention, the template is created using the characteristic extraction result of the characteristic extracting means.
The template creation processing time can be reduced and real-time high-speed processing can be supported.
【図1】一実施形態における障害物検出処理のフローチ
ャート。FIG. 1 is a flowchart of an obstacle detection process according to an embodiment.
【図2】障害物検出装置のブロック図。FIG. 2 is a block diagram of an obstacle detection device.
【図3】時刻tにおける画像の濃度変化データ図。FIG. 3 is a graph showing density change data of an image at time t.
【図4】時刻tにおける画像データ図。FIG. 4 is an image data diagram at time t.
【図5】時刻t+1における画像の濃度変化データ図。FIG. 5 is a density change data diagram of an image at time t + 1.
【図6】時刻t+1における画像データ図。FIG. 6 is an image data diagram at time t + 1.
【図7】時刻t+1におけるテンプレートが作成された
画像データ図。FIG. 7 is an image data diagram in which a template at time t + 1 is created.
1…障害物検出装置、2…車両としての自動車、3…カ
メラ、4…撮像手段としての撮像素子、5…制御装置、
6…特徴抽出手段、オプティカルフロー検出手段、照合
手段及びテンプレート作成手段としてのマイクロコンピ
ュータ、7…画像メモリ、8…メモリ、9…カウンタ。DESCRIPTION OF SYMBOLS 1 ... Obstacle detection apparatus, 2 ... Car as a vehicle, 3 ... Camera, 4 ... Image sensor as imaging means, 5 ... Control device,
6: microcomputer as feature extraction means, optical flow detection means, collation means and template creation means, 7: image memory, 8: memory, 9: counter.
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) // G08G 1/16 G01V 9/04 S Fターム(参考) 2F065 AA02 AA12 AA51 BB15 CC11 DD03 FF04 JJ03 JJ26 QQ13 QQ21 QQ24 QQ32 QQ36 QQ41 QQ51 UU05 2F112 AD03 BA06 CA05 CA12 FA03 FA14 FA21 FA27 FA45 5H180 AA01 CC04 LL01 LL06 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI theme coat ゛ (reference) // G08G 1/16 G01V 9/04 SF term (reference) 2F065 AA02 AA12 AA51 BB15 CC11 DD03 FF04 JJ03 JJ26 QQ13 QQ21 QQ24 QQ32 QQ36 QQ41 QQ51 UU05 2F112 AD03 BA06 CA05 CA12 FA03 FA14 FA21 FA27 FA45 5H180 AA01 CC04 LL01 LL06
Claims (4)
をし、該特徴抽出結果に基づき障害物を推定する特徴抽
出手段と、 前記撮像手段より取得した前回と今回の画像データを用
いて相関を調べて動きベクトルを演算し、該動きベクト
ルから障害物を推定するオプティカルフロー検出手段
と、 前記特徴抽出手段が推定した障害物と、前記オプティカ
ルフロー検出手段が推定した障害物とを照合する照合手
段とを備えたことを特徴とする障害物検出装置。1. An image pickup means, a feature extraction means for extracting a feature of current image data obtained from the image pickup means, and estimating an obstacle based on the result of the feature extraction; The motion vector is calculated by examining the correlation using the image data of the optical flow detecting means for estimating an obstacle from the motion vector, the obstacle estimated by the feature extracting means, and the optical flow detecting means estimating the obstacle. An obstacle detection device comprising: a collation unit configured to collate with an obstacle.
濃度変化を検出して特徴抽出をする請求項1に記載の障
害物検出装置。2. The obstacle detection device according to claim 1, wherein the feature extraction unit detects a change in density of the image data and performs feature extraction.
回の画像データについて障害物が存在すると推定される
区画領域にテンプレートを作成するテンプレート作成手
段を備え、前回時刻のテンプレートと今回の画像データ
とのテンプレートマッチングにより動きベクトルを演算
して障害物を推定することを特徴とする請求項1又は2
に記載の車両における障害物検出装置。3. The optical flow detecting means includes template creating means for creating a template in a sectioned area where an obstacle is presumed to exist in the previous image data, and includes a template of a previous time template and a current image data. 3. An obstacle is estimated by calculating a motion vector by matching.
An obstacle detection device for a vehicle according to Claim 1.
抽出手段が特徴抽出結果に基づいて推定した障害物を囲
む区画領域にテンプレートを作成することを特徴とする
請求項3に記載の車両における障害物検出装置。4. The obstacle according to claim 3, wherein the template creating unit creates a template in a partitioned area surrounding the obstacle estimated by the feature extracting unit based on the feature extraction result. Detection device.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP11193549A JP2001021345A (en) | 1999-07-07 | 1999-07-07 | Obstacle detecting device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP11193549A JP2001021345A (en) | 1999-07-07 | 1999-07-07 | Obstacle detecting device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2001021345A true JP2001021345A (en) | 2001-01-26 |
Family
ID=16309918
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP11193549A Pending JP2001021345A (en) | 1999-07-07 | 1999-07-07 | Obstacle detecting device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2001021345A (en) |
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2006016663A1 (en) | 2004-08-11 | 2006-02-16 | Tokyo Institute Of Technology | Object detector |
| JP2006048451A (en) * | 2004-08-05 | 2006-02-16 | Toshiba Corp | Perimeter monitoring apparatus and overhead image display method |
| JP2008120294A (en) * | 2006-11-14 | 2008-05-29 | Kobe Univ | Flight type information processor |
| JP2009122808A (en) * | 2007-11-13 | 2009-06-04 | Mazda Motor Corp | Drive support device for vehicle |
| WO2010050095A1 (en) | 2008-10-31 | 2010-05-06 | 株式会社小糸製作所 | Headlamp controller |
| US8154594B2 (en) | 2004-08-11 | 2012-04-10 | Tokyo Institute Of Technology | Mobile peripheral monitor |
| US8180100B2 (en) | 2004-08-11 | 2012-05-15 | Honda Motor Co., Ltd. | Plane detector and detecting method |
| JP2012160165A (en) * | 2011-01-31 | 2012-08-23 | Nec (China) Co Ltd | Baseline band video monitoring system and method |
| JP2013156671A (en) * | 2012-01-26 | 2013-08-15 | Secom Co Ltd | Image monitoring device |
| WO2013136395A1 (en) * | 2012-03-12 | 2013-09-19 | 日本電気株式会社 | Sensor device, sensing method, and recording medium storing program |
| JP2016009287A (en) * | 2014-06-24 | 2016-01-18 | 三菱電機株式会社 | Motion detection device and motion detection method |
| JP2018136844A (en) * | 2017-02-23 | 2018-08-30 | 株式会社ダイフク | Article conveyance vehicle |
-
1999
- 1999-07-07 JP JP11193549A patent/JP2001021345A/en active Pending
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006048451A (en) * | 2004-08-05 | 2006-02-16 | Toshiba Corp | Perimeter monitoring apparatus and overhead image display method |
| US8180100B2 (en) | 2004-08-11 | 2012-05-15 | Honda Motor Co., Ltd. | Plane detector and detecting method |
| WO2006016663A1 (en) | 2004-08-11 | 2006-02-16 | Tokyo Institute Of Technology | Object detector |
| US8331653B2 (en) | 2004-08-11 | 2012-12-11 | Tokyo Institute Of Technology | Object detector |
| US8154594B2 (en) | 2004-08-11 | 2012-04-10 | Tokyo Institute Of Technology | Mobile peripheral monitor |
| JP2008120294A (en) * | 2006-11-14 | 2008-05-29 | Kobe Univ | Flight type information processor |
| JP2009122808A (en) * | 2007-11-13 | 2009-06-04 | Mazda Motor Corp | Drive support device for vehicle |
| WO2010050095A1 (en) | 2008-10-31 | 2010-05-06 | 株式会社小糸製作所 | Headlamp controller |
| JP2012160165A (en) * | 2011-01-31 | 2012-08-23 | Nec (China) Co Ltd | Baseline band video monitoring system and method |
| JP2013156671A (en) * | 2012-01-26 | 2013-08-15 | Secom Co Ltd | Image monitoring device |
| WO2013136395A1 (en) * | 2012-03-12 | 2013-09-19 | 日本電気株式会社 | Sensor device, sensing method, and recording medium storing program |
| JP2016009287A (en) * | 2014-06-24 | 2016-01-18 | 三菱電機株式会社 | Motion detection device and motion detection method |
| JP2018136844A (en) * | 2017-02-23 | 2018-08-30 | 株式会社ダイフク | Article conveyance vehicle |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7231288B2 (en) | System to determine distance to a lead vehicle | |
| US20040057599A1 (en) | Image processing apparatus and method | |
| US20190057604A1 (en) | Method, device and system for processing startup of preceding vehicle | |
| CN107924569B (en) | Image processing device, image processing method, and storage medium | |
| JP2000136905A (en) | Object edge position measuring device and moving object traffic judging device | |
| JP2001021345A (en) | Obstacle detecting device | |
| JP6021689B2 (en) | Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program | |
| US20170180723A1 (en) | Method for performing diagnosis of a camera system of a motor vehicle, camera system and motor vehicle | |
| EP1640937B1 (en) | Collision time estimation apparatus and method for vehicles | |
| CN112598743B (en) | Pose estimation method and related device for monocular vision image | |
| JP2019066333A (en) | Vehicle recognition system | |
| JP2000266539A (en) | Inter-vehicle distance measurement device | |
| KR102082254B1 (en) | a vehicle recognizing system | |
| JP2004038624A (en) | Vehicle recognition method, vehicle recognition device, and vehicle recognition program | |
| JP2003281700A (en) | Interruption vehicle detection apparatus and method | |
| JP2002094978A (en) | Lane detector | |
| JP2821041B2 (en) | Image processing method | |
| CN114333414A (en) | Parking yield detection device, parking yield detection system, and recording medium | |
| CN114998861B (en) | Method and device for detecting distance between vehicle and obstacle | |
| JP3319401B2 (en) | Roadway recognition device | |
| CN113516685A (en) | Target tracking method, device, equipment and storage medium | |
| JP2006078261A (en) | Object detection device | |
| CN111860092B (en) | Driver identity verification method, device, control equipment and storage medium | |
| JP2019174899A (en) | Object detection device and vehicle | |
| JP3081660B2 (en) | Distance detection method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060217 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080207 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080401 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080805 |