JP2012141740A - Vehicle external world recognition device and vehicle system using the same - Google Patents
Vehicle external world recognition device and vehicle system using the same Download PDFInfo
- Publication number
- JP2012141740A JP2012141740A JP2010293471A JP2010293471A JP2012141740A JP 2012141740 A JP2012141740 A JP 2012141740A JP 2010293471 A JP2010293471 A JP 2010293471A JP 2010293471 A JP2010293471 A JP 2010293471A JP 2012141740 A JP2012141740 A JP 2012141740A
- Authority
- JP
- Japan
- Prior art keywords
- similarity
- vehicle
- reliability
- image
- pedestrian
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】例えば雨天時の傘をさしている歩行者と持っていない歩行者のように、類似した2種類の物体を少ない処理負荷で検出することができる車両用外界認識装置を提供する。
【解決手段】車両用外界認識装置1000は、画像から第一の物体と第二の物体で互いに共通する部分の類似度MT0と、第一の物体の特有な部分の類似度である第一の特有類似度MT1と、第二の物体の特有な部分の類似度である第二の特有類似度MT2を算出して、共通類似度MT0と第一の特有類似度MT1を用いて第一の物体の有無を判定するとともに、共通類似度MT0と第二の特有類似度MT2を用いて第二の物体の有無を判定し、装置全体の処理負荷を軽減する。
【選択図】図1An object of the present invention is to provide a vehicle external environment recognition device capable of detecting two similar types of objects with a small processing load, such as a pedestrian holding an umbrella during rainy weather and a pedestrian not having an umbrella.
A vehicle external environment recognition apparatus 1000 includes a first similarity MT0 of a part common to a first object and a second object from an image, and a first similarity which is a similarity of a specific part of the first object. The first object is calculated using the common similarity MT0 and the first characteristic similarity MT1 by calculating the characteristic similarity MT1 and the second characteristic similarity MT2 which is the similarity of the characteristic part of the second object. And the presence / absence of the second object are determined using the common similarity MT0 and the second specific similarity MT2, thereby reducing the processing load of the entire apparatus.
[Selection] Figure 1
Description
本発明は、カメラ等の画像センサからの情報に基づいて自車周囲の歩行者等の物体を検知する車両用外界認識装置およびそれを用いた車両システムに関する。 The present invention relates to an external environment recognition device for a vehicle that detects an object such as a pedestrian around a host vehicle based on information from an image sensor such as a camera, and a vehicle system using the same.
交通事故による死傷者数を低減するため、事故を未然に防ぐ予防安全システムの開発が進められている。日本国内においては、歩行者が死亡する事故が交通事故死亡者数全体の約30%を占めており、このような歩行者事故を減少させるために、自車前方の歩行者を検知する予防安全システムが有効である。予防安全システムは、事故の発生する可能性が高い状況下で作動するシステムであり、例えば、自車前方の障害物と衝突する可能性が生じたときには警報によって運転者に注意を促し、衝突が避けられない状況になったときには自動ブレーキによって乗員の被害を軽減するプリクラッシュ・セーフティ・システム等が実用化されている。 In order to reduce the number of casualties due to traffic accidents, the development of preventive safety systems that prevent accidents in advance is underway. In Japan, accidents that kill pedestrians account for about 30% of all traffic fatalities. In order to reduce such pedestrian accidents, preventive safety by detecting pedestrians in front of the vehicle The system is valid. A preventive safety system is a system that operates in a situation where there is a high possibility of an accident.For example, when there is a possibility of collision with an obstacle in front of the host vehicle, a warning is given to the driver to alert the driver. Pre-crash safety systems have been put into practical use that reduce the damage to passengers by automatic braking when inevitable situations occur.
自車前方の歩行者を検知する方法として、カメラで自車前方を撮像し、撮像された画像から、歩行者の形状パターンを用いて検出するパターンマッチ手法が用いられる。歩行者は様々な服装、形状のパターンが考えられるが、自車の環境を測定することによって歩行者の形状を推定し検出を変える方法が提案されている。 As a method for detecting a pedestrian in front of the host vehicle, a pattern matching method is used in which the front of the host vehicle is imaged with a camera and detected from the captured image using the shape pattern of the pedestrian. Pedestrians can consider various clothing and shape patterns, and a method has been proposed that changes the detection by estimating the shape of the pedestrian by measuring the environment of the vehicle.
例えば、特許文献1には、夜間、雨天といった走行環境を判定し、環境に応じて歩行者テンプレートを変える方式が記載されている。
For example,
また、特許文献2には、自動車専用道を走行中か否か、あるいは、昼か夜か等の判定結果に応じて、歩行者テンプレートとのマッチング率の閾値を変化させる方法が記載されている。
さらに、特許文献3には、歩行者の形状を検出しやすい環境であるかを判定し、その判定結果に基づいて検出判定用閾値を決定する方法が記載されている。 Furthermore, Patent Document 3 describes a method of determining whether or not the environment is easy to detect the shape of a pedestrian and determining a detection determination threshold based on the determination result.
しかしながら、上記方法においては、環境によって検出できない歩行者が存在する。例えば、特許文献1に記載のテンプレートを切り替える方式においては、雨天時であるとして、通常の歩行者用のテンプレートから、傘をさしている歩行者用のテンプレートに切り替えると、雨天時に傘をさしていない歩行者を検出することができないという問題がある。
However, in the above method, there are pedestrians that cannot be detected depending on the environment. For example, in the method of switching templates described in
特許文献2、3に記載の環境を認識して検出用閾値を変化させる方式においても、検出用閾値を低下させて検出漏れを減らすと、誤検出が増加してしまうという問題がある。
Even in the methods of recognizing the environment described in
また、様々な歩行者を同時に検出するために複数のテンプレートとのマッチングを常時すべて実行する方法が考えられるが、処理負荷の観点から、現実的でない。 In addition, a method of always executing all matching with a plurality of templates in order to detect various pedestrians at the same time is conceivable, but it is not realistic from the viewpoint of processing load.
上記した問題は、歩行者に限定されるものではなく、車両にとって障害物となりうる物体の全てについて生ずるものである。 The above-mentioned problems are not limited to pedestrians, but occur for all objects that can be obstacles for vehicles.
本発明は、上記の点に鑑みてなされたものであり、その目的とするところは、一部の形状が互いに共通している複数種類の物体を、より小さな処理負荷でそれぞれ検出可能な車両用外界認識装置およびそれを用いた車両システムを提供することである。 The present invention has been made in view of the above points, and an object of the present invention is for a vehicle that can detect a plurality of types of objects having some common shapes with a smaller processing load. An external recognition device and a vehicle system using the same are provided.
上記課題を解決する本発明の車両用外界認識装置は、自車周辺を撮影した画像から第一の物体と第二の物体の共通部分の類似度である共通類似度を算出し、画像から第一の物体の特有な部分の類似度である第一の特有類似度を算出し、画像から第二の物体の特有な部分の類似度である第二の特有類似度を算出し、該算出した共通類似度と第一の特有類似度を用いて第一の物体の有無を判定し、該算出した共通類似度と第二の特有類似度を用いて第二の物体の有無を判定することを特徴としている。 An external environment recognition apparatus for a vehicle according to the present invention that solves the above problem calculates a common similarity that is a similarity between a common part of a first object and a second object from an image obtained by photographing the periphery of the vehicle, The first unique similarity that is the similarity of the unique part of the one object is calculated, the second unique similarity that is the similarity of the unique part of the second object is calculated from the image, and the calculated Determining the presence or absence of the first object using the common similarity and the first specific similarity, and determining the presence or absence of the second object using the calculated common similarity and the second specific similarity It is a feature.
本発明によれば、画像から第一の物体と第二の物体で互いに共通する部分の類似度と、第一の物体の特有な部分の類似度である第一の特有類似度と、第二の物体の特有な部分の類似度である第二の特有類似度を算出して、共通類似度と第一の特有類似度を用いて第一の物体の有無を判定するとともに、共通類似度と第二の特有類似度を用いて第二の物体の有無を判定するので、例えば、第一の物体全体の類似度を算出して第一の物体の有無を判定しかつ第二の物体全体の類似度を算出して第二の物体の有無を判定する処理を行う場合と比較して、第一の物体と第二の物体で互いに共通する部分については、それぞれ類似度を判断する処理を重複して行う必要がなく、かかる共通部分については類似度を判断する処理を一度だけ実行すればよく、装置全体の処理負荷を軽減することができる。 According to the present invention, the similarity between the parts common to the first object and the second object from the image, the first unique similarity that is the similarity between the unique parts of the first object, and the second Calculating the second unique similarity that is the similarity of the unique part of the object, determining the presence or absence of the first object using the common similarity and the first unique similarity, Since the presence or absence of the second object is determined using the second specific similarity, for example, the similarity of the entire first object is calculated to determine the presence or absence of the first object and the entire second object Compared with the case of calculating the degree of similarity and determining the presence or absence of the second object, the process of determining the degree of similarity is duplicated for the parts common to the first object and the second object. It is not necessary to perform this process, and it is only necessary to execute the process of judging the similarity once for such common parts. It is possible to reduce the entire apparatus processing load.
<第一実施の形態>
以下、本発明の第一実施の形態について図面を用いて詳細に説明する。図1は、第一実施の形態における車両用外界認識装置1000のブロック図である。
<First embodiment>
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram of a vehicle external
車両用外界認識装置1000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ装置のカメラ1010で撮影した画像内から、一部の形状が互いに共通している複数種類の物体を検出するためのものであり、本実施の形態では、自車の前方を撮像した画像内から傘をさしていない歩行者、および、傘をさしている歩行者を検知するように構成されている。傘をさしていない歩行者、および、傘をさしている歩行者は、その一部である下半身の形状が互いに共通している。
The vehicle external
車両用外界認識装置1000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。
The vehicle external
車両用外界認識装置1000は、図1に示すように、画像取得部1011と、処理領域設定部1021と、共通類似度算出部1030と、第一の特有類似度算出部1031と、第二の特有類似度算出部1032と、第一の物体判定部1041と、第二の物体判定部1042と、物体位置算出部1051とを有し、さらに実施例によっては、更に物体位置取得部1111を有する場合がある。
As shown in FIG. 1, the vehicle external
画像取得部1011は、自車の前方を撮像可能な位置に取り付けられたカメラ1010から、自車前方を撮影したデータを取り込み、画像IMGSRC[x][y]としてRAM上に書き込む。なお、画像IMGSRC[x][y]は2次元配列であり、x、yはそれぞれ画像の座標を示す。
The
処理領域設定部1021は、画像IMGSRC[x][y]内から歩行者を検出する処理領域23(SX,SY,EX,EY)を設定する。処理の詳細については後述する。
The processing area setting
以下、共通類似度算出部1030、第一の特有類似度算出部1031、第二の特有類似度算出部1032、第一の物体判定部1041、第二の物体判定部1042は、歩行者を検出する処理領域23(SX,SY,EX,EY)内を探索するように、判定領域31(図5を参照)(SXG[g],SYG[g],EXG[g],EYG[g])を設定し、第一の物体である傘をさしていない歩行者と第2の物体である傘をさしている歩行者を検出する処理を、繰り返し実行する。ここで、gは複数の領域を設定した場合のID番号である。
Hereinafter, the common
共通類似度算出部1030は、傘をさしていない歩行者、および、傘をさしている歩行者の共通なパターンである、歩行者の下半身のテンプレートTP0との類似度を算出する。共通類似度算出部1030は、歩行者の下半身のテンプレートTP0を有し、画像IMGSRC[x][y]の判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])との類似度MT0を算出する。処理の詳細については後述する。
The common
第一の特有類似度算出部1031は、傘をさしていない歩行者の特有のパターンである、歩行者の上半身のテンプレートTP1との類似度を算出する。第一の特有類似度算出部1031は、歩行者の上半身のテンプレートTP1を有し、画像IMGSRC[x][y]の判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])との類似度MT1を算出する。処理の詳細については後述する。
The first unique
第二の特有類似度算出部1032は、傘をさしている歩行者の特有のパターンである、傘を含む歩行者の上半身のテンプレートTP2との類似度を算出する。第二の特有類似度算出部1032は、テンプレートTP2を有し、画像IMGSRC[x][y]の判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])との類似度MT2を算出する。処理の詳細については後述する。
The second unique
第一の物体判定部1041は、共通部分のテンプレートTP0との共通類似度MT0と、傘をさしていない歩行者特有のテンプレートTP1との第一の特有類似度MT1を用いて、傘をさしていない歩行者の有無を判定する。判定は、例えば閾値TH1_MTを用いて、共通類似度MT0と第一の特有類似度MT1とを加算した値が閾値TH1_MTよりも大きいという条件を満たす場合、すなわち、
(MT0+MT1)>TH1_MT
であれば存在すると判定してもよいし、共通類似度の閾値TH1_MT0と第一の特有類似度の閾値TH1_MT1を用いて、共通類似度MT0が閾値TH1_MT0よりも大きくかつ第一の特有類似度MT1が閾値TH1_MT1よりも大きいという条件を満たす場合、すなわち、
MT0>TH1_MT0、かつ、MT1>TH1_MT1
であれば物体が存在すると判定してもよい。
The first
(MT0 + MT1)> TH1_MT
If the common similarity MT0 is greater than the threshold TH1_MT0 and the first specific similarity MT1 is determined using the common similarity threshold TH1_MT0 and the first specific similarity threshold TH1_MT1. Is larger than the threshold value TH1_MT1, that is,
MT0> TH1_MT0 and MT1> TH1_MT1
If so, it may be determined that an object exists.
第二の物体判定部1042は、共通部分のテンプレートTP0との共通類似度MT0と、傘をさしている歩行者特有のテンプレートとの第二の特有類似度MT2を用いて、傘をさしている歩行者の有無を判定する。判定は、例えば閾値TH2_MTを用いて、共通類似度MT0と第二の特有類似度MT2とを加算した値が閾値TH2_MTよりも大きいという条件を満たす場合、すなわち、
(MT0+MT2)>TH2_MT
であれば存在すると判定してもよいし、共通類似度の閾値TH2_MT0と第二の特有類似度の閾値TH2_MT2を用いて、共通類似度MT0が閾値TH2_MT0よりも大きくかつ第二の特有類似度MT2が閾値TH2_MT2よりも大きいという条件を満たす場合、すなわち、
MT0>TH2_MT0、かつ、MT2>TH2_MT2
であれば物体が存在すると判定してもよい。
The second
(MT0 + MT2)> TH2_MT
If the common similarity MT0 is larger than the threshold TH2_MT0 and the second specific similarity MT2 is determined using the common similarity threshold TH2_MT0 and the second specific similarity threshold TH2_MT2. Is larger than the threshold value TH2_MT2, that is,
MT0> TH2_MT0 and MT2> TH2_MT2
If so, it may be determined that an object exists.
物体位置算出部1051は、第一の物体判定部1041、第二の物体判定部1042にて検出した物体の位置を算出する。物体位置取得部1111を有する場合、物体位置は物体位置取得部1111より取得した物体位置情報を用いる。処理の詳細は後述する。
The object
物体位置取得部1111は、自車に搭載されたミリ波レーダやレーザレーダ等の自車周辺の物体を検出するレーダからの検出信号を取得して、自車前方に存在する物体の物体位置(相対距離PYR[b]、横位置PXR[b]、横幅WDR[b])を取得する。ここで、bは複数の物体を検知している場合の各物体のID番号である。これらの物体の位置情報は、レーダの信号を車両用外界認識装置1000に直接入力することによって取得してもよいし、レーダとLAN(Local Area Network)を用いた通信を行うことによって取得してもよい。物体位置取得部1111で検出した物体位置は、処理領域設定部1021にて用いられる。
The object
[処理領域設定部]
つぎに、図2を用いて、処理領域設定部1021における処理の内容について説明する。
[Processing area setting section]
Next, the contents of processing in the processing
図2は、処理領域設定部の処理の例を示す図である。処理領域設定部1021は、画像IMGSRC[x][y]内で歩行者検知処理を行う処理領域23を選定し、その座標の範囲である、x座標(横方向)の始点SXおよび終点EX、y座標上(縦方向)の始点SYおよび終点EYを求める(SX,SY,EX,EY)。処理領域設定部1021は、物体位置取得部1111からの位置情報を用いてもよく、用いなくてもよい。
FIG. 2 is a diagram illustrating an example of processing performed by the processing region setting unit. The processing
まず、物体位置取得部1111からの位置情報を用いる場合について説明する。図2(a)は、物体位置取得部1111からの位置情報を用いた場合における処理領域設定部1021の処理の例を示す図である。
First, a case where position information from the object
処理領域設定部1021は、物体位置取得部1111が検出した物体21の相対距離PYR[b]、横位置PXR[b]および横幅WDR[b]から、検出した物体21の画像上での位置を示す物体位置領域22(x座標(横方向)の始点SXB、終点EXB、y座標(縦方向)の始点SYB、終点EYB)を算出する。なお、カメラ画像上の座標と実世界の位置関係を対応付けるカメラ幾何パラメータを、カメラキャリブレーション等の方法によってあらかじめ算出しておき、物体の高さを、例えば180[cm]などあらかじめ仮定しておくことにより、画像上での位置は一意に決まる。
The processing
また、カメラ1010の取り付けの誤差やレーダとの通信遅れ等の理由により、物体位置取得部1111で検出した物体21の画像上での位置と、カメラ画像に写っている同じ物体21の画像上での位置に違いが生じる場合がある。よって、画像上での物体21の位置を示す物体位置領域22(SXB、EXB、SYB、EYB)に、補正を加えた領域を処理領域23(SX、EX、SY、EY)として算出する。補正は、画像上での物体21の位置を示す物体位置領域22を所定の量だけ拡大したり、移動させたりすることによって行われ、例えば、物体位置領域22の各点SXB、EXB、SYB、EYBの位置を上下左右に所定の画素だけ拡張してもよい。こうして、処理領域23(SX、EX、SY、EY)を得ることができる。なお、複数の領域に対して処理する場合、処理領域23(SX、EX、SY、EY)をそれぞれ生成し、後述する物体検出処理をそれぞれの処理領域23に対して個別に実施する。
Further, for reasons such as mounting error of the camera 1010 or communication delay with the radar, the position on the image of the
つぎに、処理領域設定部1021において、物体位置取得部1111からの位置情報を用いずに処理領域23(SX、EX、SY、EY)を設定する処理について説明する。物体位置取得部1111を用いない場合の処理領域23の設定方法は、例えば、領域の大きさを変化させながら画像全体を探索するように複数の領域を設定する方法や、特定の位置、特定の大きさのみに限定して領域を設定する方法がある。特定の位置に限定する場合は、例えば自車速を用いて、自車がT秒後に進んでいる位置に限定する方法がある。
Next, processing for setting the processing region 23 (SX, EX, SY, EY) in the processing
図2(b)は、自車速を用いて,自車が2秒後に進んでいる位置を探索する場合の例である。処理領域23の位置、および大きさは、自車が2秒後に進んでいる位置までの相対距離における路面高さ(0cm)、および想定する歩行者21の高さ(本実施の形態では180cm)から、カメラ幾何パラメータを用いて画像IMGSRC[x][y]上のy方向の範囲(SYP、EYP)を求める。なお、x方向の範囲(SXP、EXP)は、制限しなくてもよいし、自車の予測進路等により制限してもよい。こうして、処理領域23(SX、EX、SY、EY)を得ることができる。
FIG. 2B is an example in the case of searching for a position where the host vehicle has advanced two seconds later using the host vehicle speed. The position and size of the
[類似度算出部]
つぎに、図3、4を用いて、共通類似度算出部1030、第一の特有類似度算出部1031、第二の特有類似度算出部1032、第一の物体判定部1041、第二の物体判定部1042、物体位置算出部1051における処理の流れについて説明する。図3は、車両用外界認識装置の処理を説明するフローチャートである。
[Similarity calculation unit]
Next, using FIGS. 3 and 4, the common
まず、ステップS301にて、画像IMGSRC[x][y]の処理領域23(SX,SY,EX,EY)から、エッジを抽出する。以下、微分フィルタとしてソーベルフィルタを適用する場合におけるエッジ画像EDGE[x][y]、および、勾配方向画像DIRC[x][y]の算出方法について説明する。 First, in step S301, an edge is extracted from the processing area 23 (SX, SY, EX, EY) of the image IMGSRC [x] [y]. Hereinafter, a method of calculating the edge image EDGE [x] [y] and the gradient direction image DIRC [x] [y] when the Sobel filter is applied as the differential filter will be described.
ソーベルフィルタは、図4に示すように3×3画素の大きさで、x方向の勾配を求めるx方向フィルタ41とy方向の勾配を求めるy方向フィルタ42の2種類が存在する。画像IMGSRC[x][y]からx方向の勾配を求める場合、画像IMGSRC[x][y]の1画素ごとに、その画素と周囲8画素の計9画素の画素値と、対応する位置のx方向フィルタ41の重みの積和演算を行う。積和演算の結果がその画素におけるx方向の勾配となる。y方向の勾配の算出も同様である。
As shown in FIG. 4, there are two types of Sobel filters: an
画像IMGSRC[x][y]のある位置(x、y)におけるx方向の勾配の算出結果をdx、y方向の勾配の算出結果をdyとすると、勾配強さ画像DMAG[x][y]および勾配方向画像DIRC[x][y]は以下の式(1)(2)により算出される。 If the calculation result of the gradient in the x direction at a position (x, y) of the image IMGSRC [x] [y] is dx, and the calculation result of the gradient in the y direction is dy, the gradient strength image DMAG [x] [y] The gradient direction image DIRC [x] [y] is calculated by the following equations (1) and (2).
DMAG[x][y]=|dx|+|dy| ・・・(1)
DIRC[x][y]=arctan(dy/dx) ・・・(2)
DMAG [x] [y] = | dx | + | dy | (1)
DIRC [x] [y] = arctan (dy / dx) (2)
なお、勾配強さ画像DMAG[x][y]および勾配方向画像DIRC[x][y]は、画像IMGSRC[x][y]と同じ大きさの2次元配列であり、勾配強さ画像DMAG[x][y]および勾配方向画像DIRC[x][y]の座標(x、y)は画像IMGSRC[x][y]の座標(x、y)に対応する。 The gradient strength image DMAG [x] [y] and the gradient direction image DIRC [x] [y] are two-dimensional arrays having the same size as the image IMGSRC [x] [y], and the gradient strength image DMAG The coordinates (x, y) of [x] [y] and the gradient direction image DIRC [x] [y] correspond to the coordinates (x, y) of the image IMGSRC [x] [y].
算出した勾配強さ画像DMAG[x][y]の値とエッジ閾値THR_EDGEを比較し、勾配強さ画像DMAG[x][y]がエッジ閾値THR_EDGEよりも大きい(DMAG[x][y]>THR_EDGE)のであれば1、それ以外、すなわち、勾配強さ画像DMAG[x][y]がエッジ閾値THR_EDGE以下であれば0を、エッジ画像EDGE[x][y]に記憶する。 The calculated gradient strength image DMAG [x] [y] is compared with the edge threshold value THR_EDGE, and the gradient strength image DMAG [x] [y] is larger than the edge threshold value THR_EDGE (DMAG [x] [y]> If it is THR_EDGE), 1 is stored in the edge image EDGE [x] [y], otherwise, that is, 0 if the gradient strength image DMAG [x] [y] is equal to or less than the edge threshold value THR_EDGE.
エッジ画像EDGE[x][y]は、画像IMGSRC[x][y]と同じ大きさの2次元配列であり、エッジ画像EDGE[x][y]の座標(x、y)は画像IMGSRC[x][y]の座標(x、y)に対応する。 The edge image EDGE [x] [y] is a two-dimensional array having the same size as the image IMGSRC [x] [y], and the coordinates (x, y) of the edge image EDGE [x] [y] are the image IMGSRC [ This corresponds to the coordinates (x, y) of x] [y].
なお、エッジ抽出前に、画像IMGSRC[x][y]から処理領域23(SX、EX、SY、EY)に該当する画像を切り出し、画像中の物体の大きさが所定の大きさになるように拡大・縮小してもよい。本実施の形態では、処理領域設定部1021にて用いた距離情報とカメラ幾何を用い、画像IMGSRC[x][y]内の高さ180[cm]、幅60[cm]の物体が全て16ドット×12ドットの大きさになるように画像を拡大・縮小し、上記エッジを算出する。
Prior to edge extraction, an image corresponding to the processing region 23 (SX, EX, SY, EY) is cut out from the image IMGSRC [x] [y] so that the size of the object in the image becomes a predetermined size. You may zoom in and out. In the present embodiment, the distance information and camera geometry used in the processing
また、エッジ画像EDGE[x][y]、勾配方向画像DIRC[x][y]の算出は、処理領域23(SX、EX、SY、EY)の範囲外は全てゼロとしてもよい。 Further, the calculation of the edge image EDGE [x] [y] and the gradient direction image DIRC [x] [y] may be all zero outside the range of the processing region 23 (SX, EX, SY, EY).
つぎに、ステップS3011にて、エッジ画像EDGE[x][y],およびエッジ方向画像DIRC[x][y]内に歩行者判定を行う判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])を設定する。 Next, in step S3011, determination areas 31 (SXG [g], SYG [g], pedestrian determination are performed in the edge image EDGE [x] [y] and the edge direction image DIRC [x] [y]. EXG [g], EYG [g]).
ステップS301で述べたように,本実施の形態では、カメラ幾何を用い、画像IMGSRC[x][y]内の高さ180[cm]、幅60[cm]の物体が全て16ドット×12ドットの大きさになるように画像を拡大・縮小してエッジ画像EDGE[x][y]を生成している。よって、判定領域31の大きさを16ドット×12ドットとし、エッジ画像EDGE[x][y]内の処理領域23(SX、EX、SY、EY)が16ドット×12ドットより大きい場合は、判定領域31をエッジ画像EDGE[x][y]内に一定の間隔で敷き詰めるように複数設定する。
As described in step S301, in the present embodiment, all the objects having a height of 180 [cm] and a width of 60 [cm] in the image IMGSRC [x] [y] are 16 dots × 12 dots in the image IMGSRC [x] [y]. The edge image EDGE [x] [y] is generated by enlarging / reducing the image so that the size becomes. Therefore, when the size of the
つぎに、g=0として、処理領域設定部1021にて設定された全ての判定領域31(SXG[g],SYG[g],EXG[g],EXG[g])について、以下ステップS302からS306の処理を実行する。
Next, with g = 0, all the determination areas 31 (SXG [g], SYG [g], EXG [g], EXG [g]) set by the processing
まず、ステップS302にて、判定領域31(SXG[g],SYG[g],EXG[g],EXG[g])内のエッジ画像EDGE[x][y]、勾配方向画像DIRC[x][y]を用いて、複数種類の物体で互いに共通している部分の類似度である共通類似度を算出する。ここでは、共通類似度算出部1030で、傘をさしていない歩行者と傘をさしている歩行者との共通部分である、歩行者の下半身のパターンとの類似度を求める処理を行い、共通類似度MT0を算出する。処理詳細は後述する。
First, in step S302, the edge image EDGE [x] [y] and the gradient direction image DIRC [x] in the determination region 31 (SXG [g], SYG [g], EXG [g], EXG [g]). [Y] is used to calculate the common similarity, which is the similarity of the parts that are common to each other among the plurality of types of objects. Here, the common
つぎに、ステップS303にて、判定領域31(SXG[g],SYG[g],EXG[g],EXG[g])内のエッジ画像EDGE[x][y]、勾配方向画像DIRC[x][y]を用いて、所定の種類の物体が有する物体特有の特徴部分のパターンとの類似度である第一の特有類似度を算出する。ここでは、第一の特有類似度算出部1031で、傘をさしていない歩行者特有の特徴部分である、歩行者の上半身のパターンとの類似度を求める処理を行い、傘をさしていない歩行者の特有な部分の類似度である第一の特有類似度MT1を算出する。処理詳細は後述する。
Next, in step S303, the edge image EDGE [x] [y] and the gradient direction image DIRC [x] in the determination region 31 (SXG [g], SYG [g], EXG [g], EXG [g]). ] [Y] is used to calculate the first specific similarity that is the similarity to the pattern of the characteristic part unique to the object of the predetermined type of object. Here, in the first unique
つぎに、ステップS304にて、判定領域31(SXG[g],SYG[g],EXG[g],EXG[g])内のエッジ画像EDGE[x][y]、勾配方向画像DIRC[x][y]を用いて、他の種類の物体が有する物体特有の特徴部分のパターンとの類似度である第二の特有類似度を算出する。ここでは、第二の特有類似度算出部1032で、傘をさしている歩行者特有の特徴部分である、歩行者の上半身の形状のパターンとの類似度を求める処理を行い、傘をさしている歩行者特有の特有な部分の類似度である第二の特有類似度MT2を算出する。処理詳細は後述する。
Next, in step S304, the edge image EDGE [x] [y] and the gradient direction image DIRC [x] in the determination region 31 (SXG [g], SYG [g], EXG [g], EXG [g]). ] [Y] is used to calculate the second specific similarity that is the similarity to the pattern of the characteristic part unique to the object of other types of objects. Here, the second unique
つぎに、ステップS305にて、第一の物体判定部1041の処理を行い、第一の判定結果格納用配列DTC1[x][y]の座標(SXG[g],SYG[g])に、物体が存在すると判定された場合には「1」を、そうでない場合には「0」を格納する。
Next, in step S305, the processing of the first
さらに、ステップS306も同様に、第二の物体判定部1042の処理を行い、第二の判定結果格納用配列DTC2[x][y]の座標(SXG[g],SYG[g])に、物体が存在すると判定された場合には「1」を、そうでない場合には「0」を格納する。
Further, in step S306 as well, the processing of the second
以上の処理を、全ての判定領域31(SXG[g],SYG[g],EXG[g],EXG[g])に対し実行し、最後にステップS307にて、第一の判定結果格納用配列DTC1[x][y]、および、第二の判定結果格納用配列DTC2[x][y]の結果を統合し、物体位置を算出する。処理詳細は後述する。 The above processing is executed for all the determination areas 31 (SXG [g], SYG [g], EXG [g], EXG [g]), and finally, in step S307, the first determination result storage is performed. The result of the array DTC1 [x] [y] and the second determination result storage array DTC2 [x] [y] are integrated to calculate the object position. Details of the process will be described later.
[類似度算出部]
つぎに、図5、6を用いて、共通類似度算出部1030における処理の流れについて説明する。図5は、図1の共通類似度算出部で用いられる局所エッジ判定器の模式図、図6は、図1の共通類似度算出部による類似度の算出方法を示すブロック図である。
[Similarity calculation unit]
Next, a processing flow in the common
共通類似度算出部1030の処理を行うステップS302にて、ある判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])について、以下で詳述する識別器61の処理結果で得られる出力を類似度として取り扱う。
In step S302 in which the processing of the common
まず、識別器61を用いて類似度を算出する方法について説明する。 First, a method for calculating similarity using the classifier 61 will be described.
画像処理によって所定のパターンとの類似度を算出する方法として、パターンの代表となるテンプレートを複数用意しておき、差分累積演算あるいは正規化相関係演算を行って一致度を求めるテンプレートマッチングによる方法や、ニューラルネットワークなどの識別器を用いてパターン認識を行う方法が挙げられる。 As a method for calculating the degree of similarity with a predetermined pattern by image processing, a template matching method is used in which a plurality of templates representing patterns are prepared and the degree of coincidence is obtained by performing a difference accumulation operation or a normalized phase relationship operation. And a pattern recognition method using a classifier such as a neural network.
いずれの方法を選択するとしても、あらかじめ所定のパターンか否かを決定する指標となるソースのデータベースが必要となる。パターンの様々な状態をデータベースとして蓄えておき、そこから代表となるテンプレートを作成したり識別器を生成したりする。実環境ではパターンに様々な状態が予想されるため、大量のデータベースを用意して、誤判定を少なくすることが必要となってくる。このとき、前者のテンプレートマッチングによる方法の場合、判定漏れを防ぐようにするとテンプレートの数が膨大となるため現実的でない。 Regardless of which method is selected, a source database is required as an index for determining in advance whether the pattern is a predetermined pattern or not. Various patterns are stored as a database, from which a representative template is created or a discriminator is generated. Since various states are expected in the pattern in the real environment, it is necessary to prepare a large amount of databases and reduce erroneous determinations. In this case, the former method based on template matching is not realistic because the number of templates becomes enormous if the omission of determination is prevented.
そこで、本実施の形態では後者の識別器を用いて類似度を算出する方法を採用する。識別器の大きさはソースのデータベースの大きさに依存しない。なお、識別器を生成するためのデータベースを教師データと呼ぶ。 Therefore, in this embodiment, a method of calculating the similarity using the latter discriminator is adopted. The size of the discriminator does not depend on the size of the source database. A database for generating a classifier is called teacher data.
本実施の形態で使用する識別器61は、複数の局所エッジ判定器に基づいて、傘をさしていない歩行者と傘をさしている歩行者の共通の特徴部分である、歩行者の下半身の類似度を算出する。 The discriminator 61 used in the present embodiment is based on a plurality of local edge discriminators, and the similarity of the lower body of the pedestrian, which is a common feature of the pedestrian who does not wear the umbrella and the pedestrian who holds the umbrella. Is calculated.
まず、局所エッジ判定器51について、図5の例を用いて説明する。局所エッジ判定器51は、エッジ画像EDGE[x][y]、勾配方向画像DIRC[x][y]、およびマッチング判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])を入力とし、0か1かの2値を出力する判定器であり、局所エッジ頻度算出部511、および閾値処理部512から構成される。 First, the local edge determiner 51 will be described using the example of FIG. The local edge determiner 51 includes an edge image EDGE [x] [y], a gradient direction image DIRC [x] [y], and a matching determination region 31 (SXG [g], SYG [g], EXG [g], EYG [G]) as an input and outputs a binary value of 0 or 1, and includes a local edge frequency calculation unit 511 and a threshold processing unit 512.
局所エッジ頻度算出部511は、マッチング判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])と同じ大きさのウィンドウ5111内に、局所エッジ頻度算出領域5112を持ち、マッチング判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])とウィンドウ5111の位置関係から、エッジ画像EDGE[x][y]および勾配方向画像DIRC[x][y]内の局所エッジ頻度を算出する位置を設定し、局所エッジ頻度MWCを算出する。 The local edge frequency calculation unit 511 includes a local edge frequency calculation region 5112 in a window 5111 having the same size as the matching determination region 31 (SXG [g], SYG [g], EXG [g], EYG [g]). The edge image EDGE [x] [y] and the gradient direction image DIRC [] from the positional relationship between the matching determination region 31 (SXG [g], SYG [g], EXG [g], EYG [g]) and the window 5111. The position for calculating the local edge frequency in x] [y] is set, and the local edge frequency MWC is calculated.
局所エッジ頻度MWCは、勾配方向画像DIRC[x][y]の角度値が角度条件5113を満たしており、かつ、対応する位置のエッジ画像EDGE[x][y]が1である画素の総数である。角度条件5113は、図4の例の場合、67.5度から112.5度の間、もしくは、267.5度から292.5度の間であることであり、勾配方向画像DIRC[x][y]の値が一定の範囲であるか否かを判定するものである。 The local edge frequency MWC is the total number of pixels in which the angle value of the gradient direction image DIRC [x] [y] satisfies the angle condition 5113 and the edge image EDGE [x] [y] at the corresponding position is 1. It is. In the example of FIG. 4, the angle condition 5113 is between 67.5 degrees and 112.5 degrees, or between 267.5 degrees and 292.5 degrees, and the gradient direction image DIRC [x] It is determined whether or not the value of [y] is within a certain range.
閾値処理部512は、あらかじめ定められた閾値THWC#を持ち、局所エッジ頻度算出部511にて算出された局所エッジ頻度MWCが閾値THWC#以上であれば1、それ以外であれば0を出力する。なお、閾値処理部512は、局所エッジ頻度算出部511にて算出された局所エッジ頻度MWCが閾値THWC#以下であれば1、それ以外であれば0を出力してもよい。
The threshold processing unit 512 has a predetermined threshold THWC #, and
つぎに、図6を用いて、識別器について説明する。識別器61は、エッジ画像EDGE[x][y]、勾配方向画像DIRC[x][y]、および判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])を入力とし、判定領域31内が歩行者の下半身に類似していれば正の値を、類似していなければ負の値を出力する。識別器61は、40個の局所エッジ頻度判定器6101〜6140と、合計部612とから構成される。
Next, the classifier will be described with reference to FIG. The discriminator 61 includes an edge image EDGE [x] [y], a gradient direction image DIRC [x] [y], and a determination area 31 (SXG [g], SYG [g], EXG [g], EYG [g]. ) As an input, a positive value is output if the
局所エッジ頻度判定器6101〜6140は、一つ一つの処理は、前述した局所エッジ判定器51と同様であるが、局所エッジ頻度算出領域5112、角度条件5113、閾値THWC#は、それぞれ異なっている。合計部6120は、局所エッジ頻度判定器6101〜6140からの出力に、対応する重みWWC1#〜WWC40#を乗じ、その合計値SCを出力する。 The local edge frequency determiners 6101 to 6140 are the same as the local edge determiner 51 described above, but the local edge frequency calculation region 5112, the angle condition 5113, and the threshold value THWC # are different. . Summing unit 6120 multiplies the outputs from local edge frequency determiners 6101 to 6140 by corresponding weights WWC1 # to WWC40 #, and outputs the total value SC.
識別器61の各局所エッジ頻度判定器6101〜6140のパラメータである局所エッジ頻度算出領域5112、角度条件5113、閾値THWC、また、重みWWC1#〜WWC40#は、識別器61への入力画像が歩行者の下半身であった場合には、合計部612から出力される合計値SCが正の値、歩行者の下半身ではなかった場合には合計値SCが負の値となるように、教師データを用いて調整される。調整には、例えばAdaBoostなどの機械学習の手段を用いてもよいし、手動で行ってもよい。
The local edge frequency calculation region 5112, the angle condition 5113, the threshold value THWC, and the weights WWC1 # to WWC40 #, which are parameters of the local edge frequency determiners 6101 to 6140 of the classifier 61, are input to the classifier 61 by walking. The teacher data is set so that the total value SC output from the
例えば、NPD個の歩行者の下半身の教師データ、およびNBG個の非歩行者の教師データから、AdaBoostを用いてパラメータを決定する手順は以下の通りとなる。なお、以下、局所エッジ頻度判定器をcWC[m]と表す。ここで、mは局所エッジ頻度判定器のID番号である。 For example, the procedure for determining parameters using AdaBoost from NPD pedestrian lower body teacher data and NBG non-pedestrian teacher data is as follows. Hereinafter, the local edge frequency determiner is represented as cWC [m]. Here, m is the ID number of the local edge frequency determiner.
まず、局所エッジ頻度算出領域5112および角度条件5113が異なる局所エッジ頻度判定器cWC[m]を複数(例えば、100万通り)用意し、それぞれにおいて、局所エッジ頻度MWCの値を全ての教師データから算出し、閾値THWCをそれぞれ決定する。閾値THWCは、歩行者の下半身の教師データと非歩行者の教師データを最も分類することができる値を選択する。 First, a plurality of local edge frequency determiners cWC [m] having different local edge frequency calculation areas 5112 and angle conditions 5113 (for example, 1 million) are prepared, and the value of the local edge frequency MWC is obtained from all teacher data in each. The threshold value THWC is determined by calculation. The threshold THWC selects a value that can most classify the teacher data of the lower body of the pedestrian and the teacher data of the non-pedestrian.
つぎに、歩行者の下半身の教師データひとつひとつにwPD[nPD]=1/2NPDの重みを与える。同様に、非歩行者の教師データひとつひとつにwBG[nBG]=1/2NBGの重みを与える。ここで、nPDは歩行者の下半身の教師データのID番号、nBGは非歩行者の教師データのID番号である。そして、k=1として、以下、繰り返し処理を行う。 Next, a weight of wPD [nPD] = 1/2 NPD is given to each teacher data of the lower body of the pedestrian. Similarly, a weight of wBG [nBG] = 1 / 2NBG is given to each non-pedestrian teacher data. Here, nPD is the ID number of the teacher data of the lower body of the pedestrian, and nBG is the ID number of the teacher data of the non-pedestrian. Then, it is assumed that k = 1, and the following process is repeated.
まず、歩行者の下半身・非歩行者全ての教師データの重みの合計が1となるように、重みを正規化する。つぎに、各局所エッジ頻度判定器の誤検知率cER[m]を算出する。誤検知率cER[m]は、局所エッジ頻度判定器cWC[m]において、歩行者の下半身の教師データを局所エッジ頻度判定器cWC[m]に入力した場合の出力が0となったもの、もしくは非歩行者の教師データを局所エッジ頻度判定器cWC[m]に入力した場合の出力が1となったもの、すなわち出力が間違っている教師データの重みの合計である。
全ての局所エッジ頻度判定器の誤検知率cER[m]を算出後、誤検知率が最小となる局所エッジ頻度判定器のID mMin を選択し、最終局所エッジ頻度判定器WC[k]=cWC[mMin]とする。
First, the weights are normalized so that the sum of the weights of the teacher data of all the lower body and non-pedestrians of the pedestrian is 1. Next, the false detection rate cER [m] of each local edge frequency determiner is calculated. The false detection rate cER [m] is obtained when the local edge frequency determiner cWC [m] outputs 0 when the pedestrian's lower body teacher data is input to the local edge frequency determiner cWC [m]. Alternatively, when the non-pedestrian teacher data is input to the local edge frequency determiner cWC [m], the output is 1, that is, the sum of the weights of the teacher data whose output is incorrect.
After calculating the false detection rate cER [m] of all the local edge frequency determiners, the local edge frequency determiner ID Mmin that minimizes the false detection rate is selected, and the final local edge frequency determiner WC [k] = cWC. [MMin].
つぎに、各教師データの重みを更新する。更新は、歩行者の下半身の教師データのうち、最終局所エッジ頻度判定器WC[k]を適用した結果が1となったもの、および、非歩行者の教師データのうち最終局所エッジ頻度判定器WC[k]を適用した結果が0となったもの、すなわち出力が正しい教師データの重みに、係数BT[k]=cER[mMin]/(1−cER[mMin])を乗じる。 Next, the weight of each teacher data is updated. The update is such that the result of applying the final local edge frequency determiner WC [k] among the teacher data of the lower body of the pedestrian becomes 1, and the final local edge frequency determiner of the non-pedestrian teacher data Multiply the coefficient BT [k] = cER [mMin] / (1-cER [mMin]) by the weight of the teacher data whose result of applying WC [k] is 0, that is, the output is correct.
k=k+1とし、kが予め設定した値(例えば、40)になるまで繰り返す。繰り返し処理の終了後に得られる最終局所エッジ頻度判定器WCがAdaBoostにより自動調整された識別器61となる。なお、重みWWC1〜WWC40は1/BT[k]から算出される。 k = k + 1 is repeated until k reaches a preset value (for example, 40). The final local edge frequency determiner WC obtained after the end of the iterative process becomes the discriminator 61 that is automatically adjusted by AdaBoost. The weights WWC1 to WWC40 are calculated from 1 / BT [k].
つぎに、図7を用いて、第一の特有類似度算出部1031、第二の特有類似度算出部1032における処理の流れについて説明する。図7は、図1の第一の特有類似度算出部および第二の特有類似度算出部における類似度の算出方法を示すブロック図である。
Next, the flow of processing in the first specific
第一の特有類似度算出部1031の処理を行うステップS303にて、ある判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])について、識別器611の処理結果得られる出力を第一の特有類似度MT1として取り扱う。識別器611は、識別器61と同じように設計された識別器であるが、教師データとして、傘をさしていない歩行者の上半身を用いている。
In step S303 in which the first specific
同様に、第二の特有類似度算出部1032の処理を行うステップS304にて、ある判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])について、識別器612の処理結果得られる出力を第二の特有類似度MT2として取り扱う。識別器612は、識別器61と同じように設計された識別器であるが、教師データとして、傘をさしている歩行者の上半身を用いている。
Similarly, in step S304 in which the second unique
つぎに、物体位置算出部1051の処理について説明する。物体位置算出部1051は、判定結果格納用配列DTC1[x][y]において、「1」が入っている場所をグルーピングし、その中心位置に歩行者が存在すると判定する。グルーピングには、ラベリングなど、公知の技術を用いる。
Next, processing of the object
グルーピングされた領域のY座標と、カメラ幾何を用いて、歩行者の身長を180cmと仮定すると、歩行者までの距離を算出することができる。また、グルーピングされた領域のX座標と、カメラ幾何を用いて、歩行者の幅を60cmと仮定すると、自車中央から歩行者がどれだけ横(車幅方向外側)に存在しているかを算出することができる。 If the height of the pedestrian is assumed to be 180 cm using the Y coordinate of the grouped area and the camera geometry, the distance to the pedestrian can be calculated. Also, using the X coordinate of the grouped area and the camera geometry, if the pedestrian width is assumed to be 60 cm, calculate how much pedestrians are present laterally (outside in the vehicle width direction) from the center of the vehicle. can do.
また、物体位置取得部1111が存在する場合は、上記の方式により算出した位置の周辺に物体情報(PXR[b],PYR[b])が存在する場合は、情報を置き換える。もしくは、物体情報(PXR[b],PYR[b])を、カメラ幾何を用いて判定結果格納用配列DTC1[x][y]へ投影し、各グループの中心位置と投影した物体情報の配列上の距離が所定値以下である場合、物体であると判定し、物体情報(PXR[b],PYR[b])を歩行者の位置とする。判定結果格納用配列DTC2[x][y]についても同様の処理を行う。
When the object
以上説明したように、車両用外界認識装置1000は、一回に傘をさしていない歩行者と傘をさしている歩行者を同時に検出することができる。さらに、共通類似度算出部1030を有しているため、単純に2種類の歩行者パターンマッチを実行するよりも、処理負荷を低減することができる。
As described above, the vehicle external
例えば、傘をさしていない歩行者の全身用のテンプレートと、傘をさしている歩行者の全身用のテンプレートとを用いてパターンマッチングを行った場合、共通する部分である歩行者の下半身については、重複してマッチング判定が行われ、処理の無駄が発生することとなる。 For example, when pattern matching is performed using a template for the whole body of a pedestrian who is not wearing an umbrella and a template for the whole body of a pedestrian who is holding an umbrella, the lower part of the pedestrian, which is a common part, is duplicated. Thus, matching is determined, and processing is wasted.
これに対して、車両用外界認識装置1000は、傘をさしていない歩行者と傘をさしている歩行者で共通する特徴部分である歩行者の下半身については、共通する下半身用のテンプレートを用いて類似度を算出し、各歩行者の上半身については、それぞれ傘ありと傘なしの上半身用のテンプレートを用いて類似度を算出しているので、下半身について重複してマッチング判定が行われるのを防ぎ、装置全体の処理負荷を軽減することができる。
On the other hand, the vehicle external
なお、歩行者の検知に用いる識別器61、611,612は、本実施の形態で説明した方法の例に限定されない。正規化相関を用いたテンプレートマッチング、ニューラルネットワーク識別器、サポートベクターマシン識別器、ベイズ識別器などを用いてもよい。また、エッジを抽出せずに、濃淡画像やカラー画像をそのまま用いて、識別器61,611,612により判定してもよい。
Note that the
また、識別器61,611,612は、様々な歩行者の画像データと、自車にとって衝突の危険がない領域の画像データを教師データとして、AdaBoostなどの機械学習の手段を用いて調整してもよい。特に、実施の形態として車両用外界認識装置1000が物体位置取得部1111を備える場合には、様々な歩行者の画像データと、横断歩道、マンホールやキャッツアイ等、ミリ波レーダやレーザレーダが衝突の危険がないにも関わらず誤検知する領域の画像データを教師データとしてもよい。
The
<第二実施の形態>
つぎに、本発明の車両用外界認識装置の第二実施の形態について、以下に図面を用いて説明する。
<Second embodiment>
Next, a second embodiment of the vehicle external environment recognition device of the present invention will be described below with reference to the drawings.
図8は、第二実施の形態における車両用外界認識装置の構成を示すブロック図である。なお、以下の説明では、上述の第一実施の形態における車両用外界認識装置1000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付してその詳細な説明を省略する。
FIG. 8 is a block diagram showing the configuration of the vehicle external environment recognition device according to the second embodiment. In the following description, only portions different from the vehicle external
本実施の形態において特徴的なことは、自車周辺の環境を推定し、該推定した車両環境に応じて、第一の物体判定手段の判定結果に対する第一の信頼度と第二の物体判定手段の判定結果に対する第二の信頼度を調整する構成としたことである。 What is characteristic in the present embodiment is that the environment around the host vehicle is estimated, and the first reliability and the second object determination with respect to the determination result of the first object determination means are determined according to the estimated vehicle environment. The second reliability for the determination result of the means is adjusted.
車両用外界認識装置2000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1010で撮影した画像内から予め設定された2種類の物体を検知するためのものであり、本実施の形態では、自車の前方を撮像した画像内から傘をさしていない歩行者、および、傘をさしている歩行者を検知するように構成されている。
The vehicle external
車両用外界認識装置2000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。
The vehicle external
車両用外界認識装置2000は、図8に示すように、画像取得部1011と、処理領域設定部1021と、共通類似度算出部1030と、第一の特有類似度算出部1031と、第二の特有類似度算出部1032と、第一の物体判定部1041と、第二の物体判定部1042と、環境推定部2060と、第一の信頼度2061と、第二の信頼度2062と、物体位置算出部2071とを有し、さらに実施の形態によって、ワイパ操作取得部2161と、物体位置取得部1111とを有する。
As shown in FIG. 8, the vehicle external
ワイパ操作取得部2161は、運転者による車両のワイパ操作の開始/終了の情報を取得する。この操作情報は、ワイパのON/OFF信号を車両用外界認識装置2000に直接入力することによって取得してもよいし、LAN(Local Area Network)を用いた通信を行うことによって取得してもよい。
The wiper
環境推定部2060は、ワイパ操作取得部2161、第一の物体判定部1041、第二の物体判定部1042、さらに物体位置取得部1111の情報のいずれか1つ以上を用いて、第一の信頼度2061、および、第二の信頼度2062の値を変更する。処理の詳細については後述する。
The
第一の信頼度2061、および、第二の信頼度2062は、値が高いほど信頼度が高いことを表す数値である。これらの値は、環境推定部2060によって変更され、物体位置算出部2071にて用いられる。
The
物体位置算出部2071は、第一の物体判定部1041、第二の物体判定部1042、第一の信頼度2061、第二の信頼度2062を用いて物体位置を算出する。物体位置取得部1111を有する場合、物体位置は物体位置取得部1111より取得した物体位置情報を用いる。処理の詳細は後述する。
The object
[環境推定部]
つぎに、図9,10を用いて、環境推定部2060における処理の内容について説明する。図9、10は環境推定部2060の処理の流れを示すフローチャートである。ここでは、2通りの調整方法について説明する。
[Environment estimation section]
Next, contents of processing in the
第一に、図9を用いて、ワイパ操作取得部2161の情報を用いた方法について説明する。まず、ステップS91にて、ワイパ操作取得部2161からワイパのON/OFF状態を取得する。つぎに、ステップS92にて、ワイパのON/OFF状態に応じて、図9(b)のテーブル921を参照して第一の信頼度2061、第二の信頼度2062を設定する。
First, a method using information of the wiper
このように、ワイパのON/OFF状態に応じて第一の信頼度2061、第二の信頼度2062を変えることにより、例えばワイパがONのときは雨が降っていると予想されるので、第一の信頼度2061よりも第二の信頼度2062を大きく設定し(第一の信頼度2061<第二の信頼度2062)、逆にワイパがOFFのときは雨が降っていないと予想されるので、第一の信頼度2061よりも第二の信頼度2062を小さく設定する(第一の信頼度2061>第二の信頼度2062)。
Thus, by changing the
第二に、図10を用いて、第一の物体判定部1041、第二の物体判定部1042を用いた方法について説明する。
Second, a method using the first
まず、ステップS101にて、第一の物体判定部1041による第一の物体の過去T秒における検出回数N1をカウントする。ここでは、T=1秒とする。つぎに、ステップS102にて、第二の物体判定部1042による第2の物体の過去T秒における検出回数N2をカウントする。ここでは、T=1秒とする。つぎに、ステップS103にて、以下の条件を満たすかを判定する。ここで、THNはあらかじめ定められた値である。
First, in step S101, the first
(N1−N2)/(N1+N2)>THN (N1-N2) / (N1 + N2)> THN
上記条件を満たす場合は、ステップS105へ移行し、第一の信頼度2061、および、第二の信頼度2062をそれぞれr11、r21(r11>r21)と設定する。これにより、傘をさしている歩行者の方が、傘をさしていない歩行者よりも十分に多い場合には、傘をさしている歩行者の信頼度を、傘をさしていない歩行者の信頼度よりも大きく設定される。
When the above condition is satisfied, the process proceeds to step S105, and the
そして、ステップS103の条件を満たさない場合は、ステップS104へ移行し、以下の条件を満たすかを判定する。ここで、THNはあらかじめ定められた値である。 If the condition in step S103 is not satisfied, the process proceeds to step S104 to determine whether the following condition is satisfied. Here, THN is a predetermined value.
(N2−N1)/(N1+N2)>THN (N2-N1) / (N1 + N2)> THN
上記条件を満たす場合は、ステップS106へ行き、第一の信頼度2061、および、第二の信頼度2062をそれぞれr12、r22(r12<r22)と設定する。これにより、傘をさしていない歩行者の方が、傘をさしている歩行者よりも十分に多い場合には、傘をさしていない歩行者の信頼度を、傘をさしている歩行者の信頼度よりも大きく設定される。
When the above condition is satisfied, the process goes to step S106, and the
そして、ステップS104の条件を満たさない場合は、ステップS107へ移行し、第一の信頼度2061、および、第二の信頼度2062をそれぞれr13、r23(r13=r23)と設定する。これにより、傘をさしていない歩行者と、傘をさしている歩行者の人数がほぼ等しい場合には、傘をさしていない歩行者の信頼度と傘をさしている歩行者の信頼度が同じに設定される。このように、過去の検出回数を参照することによって、一方の検出頻度が他方に比べ高い場合、信頼度を高める処理を行う。
If the condition in step S104 is not satisfied, the process proceeds to step S107, and the
つぎに、物体位置算出部2071における処理の内容について説明する。
Next, the contents of processing in the object
物体位置算出部2071は、判定結果格納用配列DTC1[x][y]において、「1」が入っている場所をグルーピングし、その中心位置に歩行者が存在すると判定する。グルーピングには、ラベリングなど、公知の技術を用いる。
The object
つぎに、過去T秒の検出結果を参照し、各グループが過去に存在した回数DTをカウントする。そして、回数DTと第一の信頼度2061を乗じた値JGを算出し、値JGが所定の閾値THJG以上であれば、そこに歩行者が存在すると判定する。
Next, referring to the detection result of the past T seconds, the number of times DT each group has existed in the past is counted. And the value JG which multiplied the frequency | count DT and the
グルーピングされた領域のY座標と、カメラ幾何を用いて、歩行者の身長を180cmと仮定すると、歩行者までの距離を算出することができる。また、グルーピングされた領域のX座標と、カメラ幾何を用いて、歩行者の幅を60cmと仮定すると、自車中央から歩行者がどれだけ横の位置(車幅方向)に存在しているかを算出することができる。 If the height of the pedestrian is assumed to be 180 cm using the Y coordinate of the grouped area and the camera geometry, the distance to the pedestrian can be calculated. Also, assuming that the pedestrian's width is 60 cm using the X coordinate of the grouped area and the camera geometry, how much the pedestrian is in the lateral position (vehicle width direction) from the center of the vehicle. Can be calculated.
また、物体位置取得部1111が存在する場合は、上記の方式により算出した位置の周辺に物体情報(PXR[b],PYR[b])が存在する場合は、情報を置き換える。
When the object
もしくは、物体情報(PXR[b],PYR[b])を、カメラ幾何を用いて判定結果格納用配列DTC1[x][y]へ投影し、各グループの中心位置と投影した物体情報の配列上の距離が所定値以下である場合、物体であると判定し、物体情報(PXR[b],PYR[b])を歩行者の位置とする。判定結果格納用配列DTC2[x][y]についても同様の処理を行う。 Alternatively, the object information (PXR [b], PYR [b]) is projected onto the determination result storage array DTC1 [x] [y] using camera geometry, and the center position of each group and the array of the projected object information When the upper distance is less than or equal to the predetermined value, it is determined that the object is an object, and the object information (PXR [b], PYR [b]) is set as the position of the pedestrian. Similar processing is performed for the determination result storage array DTC2 [x] [y].
以上説明したように、信頼度と過去の検出回数を用いることにより、第一の信頼度、もしくは第二の信頼度が高い場合は対応する物体をすぐに検出することができ、低い場合は検出まで時間を要して、しばらくの間待つこととなる。 As described above, by using the reliability and the number of past detections, the corresponding object can be detected immediately when the first reliability or the second reliability is high, and the detection is performed when the reliability is low. It takes time to wait and wait for a while.
環境推定部2060が図9に示す第一の形式の場合、ワイパのON/OFFによって傘をさしている歩行者の信頼度を変化させている。よって、傘をさしていない歩行者も、傘をさしている歩行者も物体判定は実行しているが、ワイパがOFFの場合は傘をさしている歩行者が、ワイパがONの場合は傘をさしていない歩行者が、それぞれ最終結果として検出されにくくなる。したがって、誤判定を減らすことができ、歩行者の検出精度を向上させることができる。
When the
また、環境推定部2060が図10に示す第二の形式の場合、過去の判定結果の頻度によって傘をさしていない歩行者、および、傘をさしている歩行者のそれぞれの信頼度を変化させている。よって、傘をさしていない歩行者も、傘をさしている歩行者も物体判定は実行しているが、一方の検出回数が十分多くなると、検出回数が少ない方は最終結果として検出されにくくなる。したがって、誤判定を減らすことができ、歩行者の検出精度を向上させることができる。
Further, when the
<第三実施の形態>
つぎに、本発明の車両用外界認識装置の第三の実施の形態について、以下に図面を用いて説明する。
<Third embodiment>
Next, a third embodiment of the vehicle external environment recognition device of the present invention will be described below with reference to the drawings.
図11は、車両用外界認識装置3000の実施形態を表すブロック図である。なお、以下の説明では、上述の第一実施の形態の車両用外界認識装置1000、および、第二十子の形態の車両用外界認識装置2000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付し説明を省略する。
FIG. 11 is a block diagram showing an embodiment of the vehicle external
車両用外界認識装置3000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1010で撮影した画像内から予め設定された2種類の物体を検知するためのものであり、本実施の形態では、自車の前方を撮像した画像内から自車の車幅方向に向いている横向きの歩行者、および、自車の前後方向に向いている縦向きの歩行者を検知するように構成されている。
The vehicle external
車両用外界認識装置3000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。車両用外界認識装置3000は、図11に示すように、画像取得部1011と、処理領域設定部1021と、共通類似度算出部3030と、第一の特有類似度算出部3031と、第二の特有類似度算出部3032と、第一の物体判定部3041と、第二の物体判定部3042と、環境推定部3060と、第一の信頼度2061と、第二の信頼度2062と、物体位置算出部3071と、物体位置取得部1111とを有する。
The vehicle external
共通類似度算出部3030は、横向きの歩行者、および、縦向きの歩行者の共通なパターンである、歩行者の頭から肩にかけての輪郭テンプレートとの類似度を算出する。共通類似度算出部3030は、歩行者の頭のテンプレートTP0を有し、画像IMGSRC[x][y]の判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])とテンプレートTP0との類似度MT0を算出する。なお、処理の詳細は、テンプレートTP0が歩行者の頭から肩にかけての輪郭であること以外は上述の共通類似度算出部1030と同様であるため、割愛する。
The common
第一の特有類似度算出部3031は、横向きの歩行者の特有のパターンである、横向きの歩行者の肩から下のテンプレートとの類似度を算出する。第一の特有類似度算出部3031は、横向きの歩行者の肩から下の輪郭テンプレートTP1を有し、画像IMGSRC[x][y]の判定領域(SXG[g],SYG[g],EXG[g],EYG[g])とテンプレートTP1との類似度MT1を算出する。なお、処理の詳細は、テンプレートTP1が横向きの歩行者の肩から下の輪郭であること以外は上述の第一の特有類似度算出部1031と同様であるため、割愛する。
The first unique
第二の特有類似度算出部3032は、縦向きの歩行者の特有のパターンである、縦向きの歩行者の肩から下の輪郭テンプレートとの類似度を算出する。第二の特有類似度算出部3032は、縦向きの歩行者の肩から下のテンプレートTP2を有し、画像IMGSRC[x][y]の判定領域(SXG[g],SYG[g],EXG[g],EYG[g])とテンプレートTP2との類似度MT2を算出する。なお、処理の詳細は、テンプレートTP2が縦向きの歩行者の肩から下の輪郭であること以外は上述の第二の特有類似度算出部1032と同様であるため、割愛する。
The second unique
第一の物体判定部3041は、共通部分のテンプレートTP0との共通類似度MT0、および、横向きの歩行者特有のテンプレートTP1との第一の特有類似度MT1を用いて、横向きの歩行者の有無を判定する。判定は、例えば閾値TH1_MTを用いて、共通類似度MT0と第一の特有類似度MT1とを加算した値が閾値TH1_MTよりも大きいという条件を満たす場合、すなわち、
(MT0+MT1)>TH1_MT
であれば存在すると判定してもよいし、共通類似度の閾値TH1_MT0と第一の特有類似度の閾値TH1_MT1を用いて、共通類似度MT0が閾値TH1_MT0よりも大きくかつ第一の特有類似度MT1が閾値TH1_MT1よりも大きいという条件を満たす場合、すなわち、
MT0>TH1_MT0、かつ、MT1>TH1_MT1
であれば物体が存在すると判定してもよい。
The first
(MT0 + MT1)> TH1_MT
If the common similarity MT0 is greater than the threshold TH1_MT0 and the first specific similarity MT1 is determined using the common similarity threshold TH1_MT0 and the first specific similarity threshold TH1_MT1. Is larger than the threshold value TH1_MT1, that is,
MT0> TH1_MT0 and MT1> TH1_MT1
If so, it may be determined that an object exists.
第二の物体判定部3042は、共通部分のテンプレートTP0との共通類似度MT0と、縦向きの歩行者特有のテンプレートTP2との第二の特有類似度MT2を用いて、縦向きの歩行者の有無を判定する。判定は、例えば閾値TH2_MTを用いて、共通類似度MT0と第二の特有類似度MT2とを加算した値が閾値TH2_MTよりも大きいという条件を満たす場合、すなわち、
(MT0+MT2)>TH2_MT
であれば存在すると判定してもよいし、共通類似度の閾値TH2_MT0と第二の特有類似度の閾値TH2_MT2を用いて、共通類似度MT0が閾値TH2_MT0よりも大きくかつ第二の特有類似度MT2が閾値TH2_MT2よりも大きいという条件を満たす場合、すなわち、
MT0>TH2_MT0、かつ、MT2>TH2_MT2
であれば物体が存在すると判定してもよい。
The second
(MT0 + MT2)> TH2_MT
If the common similarity MT0 is larger than the threshold TH2_MT0 and the second specific similarity MT2 is determined using the common similarity threshold TH2_MT0 and the second specific similarity threshold TH2_MT2. Is larger than the threshold value TH2_MT2, that is,
MT0> TH2_MT0 and MT2> TH2_MT2
If so, it may be determined that an object exists.
環境推定部3060は、物体位置取得部1111からの情報を用いて、物体位置の履歴に基づいて、第一の信頼度2061、および、第二の信頼度2062を調整する処理を行う。この処理について、図12を用いて説明する。
The
まず、ステップS121にて、処理領域設定部1021で選択されている処理対象となった物体の情報(相対距離PYR[b],PXR[b])を取得する。つぎに、ステップS122にて、過去の物体の位置情報の差分、および、自車速から、物体の縦方向の移動速度VY[b]、および、横方向の移動速度VX[b]を算出する。
First, in step S121, information (relative distances PYR [b], PXR [b]) of an object that is a processing target selected by the processing
そして、ステップS123にて、以下の条件を満たすかを判定する。ここで、Abs(X)は絶対値算出の演算であり、THVXはあらかじめ定められた所定の値である。例えば、0.5[m/s]と設定する。 In step S123, it is determined whether the following condition is satisfied. Here, Abs (X) is an operation for calculating an absolute value, and THVX is a predetermined value determined in advance. For example, it is set to 0.5 [m / s].
Abs(VX[b])>Abs(VY[b])
かつ Abs(VX[b])>THVX
Abs (VX [b])> Abs (VY [b])
And Abs (VX [b])> THVX
すなわち、横移動速度が縦移動速度よりも大きく、かつ、絶対値が十分に大きいという条件を満たすか否かが判断される。そして、この条件を満たす場合は、ステップS215へ進み、第一の信頼度2061、および、第二の信頼度2062をそれぞれr11、r21(r11>r21)と設定する。これにより、横向きの歩行者の方が、縦向きの歩行者よりも十分に多い場合には、横向きの歩行者の信頼度が、縦向き歩行者の信頼度よりも大きく設定される。
That is, it is determined whether or not the condition that the horizontal movement speed is higher than the vertical movement speed and the absolute value is sufficiently large is satisfied. If this condition is satisfied, the process proceeds to step S215, and the
そして、ステップS123の条件を満たさない場合は、ステップS124へ行き、以下の条件を満たすかを判定する。ここで、THVYはあらかじめ定められた所定の値であり、例えば、0.5[m/s]と設定する。 If the condition in step S123 is not satisfied, the process goes to step S124 to determine whether the following condition is satisfied. Here, THVY is a predetermined value set in advance, and is set to 0.5 [m / s], for example.
Abs(VY[b])>Abs(VX[b])
かつ Abs(VY[b])>THVY
Abs (VY [b])> Abs (VX [b])
And Abs (VY [b])> THVY
すなわち、縦移動速度が横移動速度よりも大きく、かつ、絶対値が十分に大きいという条件を満たすか否かが判断される。そして、この条件を満たす場合は、ステップS126へ移行し、第一の信頼度2061、および、第二の信頼度2062をそれぞれr12、r22(r12<r22)と設定する。これにより、縦向きの歩行者の方が、横向きの歩行者よりも十分に多い場合には、縦向きの歩行者の信頼度が、横向き歩行者の信頼度よりも大きく設定される。
That is, it is determined whether or not the condition that the vertical movement speed is larger than the horizontal movement speed and the absolute value is sufficiently large is satisfied. If this condition is satisfied, the process proceeds to step S126, and the
そして、ステップS124の条件を満たさない場合は、ステップS127へ移行し、第一の信頼度2061、および、第二の信頼度2062をそれぞれr13、r23(r13=r23)と設定する。これにより、横向きの歩行者と、縦向きの歩行者の人数に大きな差がない場合には、横向きの歩行者の信頼度と縦向きの歩行者の信頼度が同じに設定される。
If the condition of step S124 is not satisfied, the process proceeds to step S127, and the
以上説明したように、物体位置情報に基づいて縦向きの歩行者と横向きの歩行者の信頼度を変化させることによって、横方向に移動している物体に対する画像処理では、横向きの歩行者を判定しやすく、縦方向に移動している物体に対する画像処理では、縦向きの歩行者を判定しやすくすることができる。 As described above, in the image processing for an object moving in the horizontal direction, the pedestrian in the horizontal direction is determined by changing the reliability of the vertical pedestrian and the horizontal pedestrian based on the object position information. In the image processing for the object moving in the vertical direction, it is possible to easily determine the pedestrian in the vertical direction.
なお、本実施の形態では、環境推定部3060、第一の信頼度2061、第二の信頼度2062、物体位置算出部3071を用いた場合を例に説明したが、これらを用いずに、代わりに上述の第一実施の形態における物体位置算出部1051(図1を参照)を用いてもよい。また、本実施の形態では、環境推定部3060を用いる場合を例に説明したが、代わりに上述の第二の実施形態における環境推定部2060の図10に示す第二の形式を用いることもできる。
In the present embodiment, the case where the
さらに、コンピュータの処理能力が低い場合、所定の自車速から白線認識などを並列処理する場合、全てのパターンマッチ処理を実行することができないことがある。したがって、例えば、図8に記載の車両用外界認識装置の第二の実施形態、または、図11に記載の車両用外界認識装置の第三の実施形態において、第一の信頼度2061、第二の信頼度2062を参照し、信頼度が高いほうの判定部、および、判定部が参照している共通類似度算出部、特有類似度算出部の処理を優先させ、処理に余裕があるときに、残りの信頼度が低い方の物体判定部、および、判定部が参照している特有類似度算出部の処理を実行するようにしてもよい。 Furthermore, when the processing capability of the computer is low, it may not be possible to execute all pattern matching processes when parallel processing such as white line recognition is performed from a predetermined own vehicle speed. Therefore, for example, in the second embodiment of the vehicle external environment recognition device shown in FIG. 8 or the third embodiment of the vehicle external environment recognition device shown in FIG. When the processing of the determination unit with higher reliability and the processing of the common similarity calculation unit and the specific similarity calculation unit referred to by the determination unit is prioritized and there is a margin in processing The remaining object determination unit having a lower reliability and the processing of the unique similarity calculation unit referred to by the determination unit may be executed.
以上説明したように、信頼度を設けることによって、処理負荷が大きく全ての処理が実行できない場合に、信頼度に基づいて処理の優先順位を変更し、信頼度が高い物体の判定処理を優先させることができる。 As described above, by providing reliability, when the processing load is large and not all processes can be performed, the priority of the process is changed based on the reliability, and the object determination process with high reliability is given priority. be able to.
<第四実施の形態>
つぎに、本発明の車両用外界認識装置の第四実施の形態について、以下に図面を用いて説明する。図13は、車両用外界認識装置4000の実施形態を表すブロック図である。なお、以下の説明では、上述の第一実施の形態〜第三実施の形態の車両用外界認識装置1000〜3000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付してその詳細な説明を省略する。
<Fourth embodiment>
Next, a fourth embodiment of the vehicle external environment recognition device of the present invention will be described below with reference to the drawings. FIG. 13 is a block diagram illustrating an embodiment of a vehicle external
車両用外界認識装置4000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1010で撮影した画像内から予め設定された2種類の物体を検知するためのものであり、本実施の形態では、例えば夜間にヘッドライトのロービームによって、自車の前方を撮像した画像内から全身が見えている歩行者と、下半身のみ見えている歩行者の両方を検知するように構成されている。
The vehicle external
車両用外界認識装置4000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。
The vehicle external
車両用外界認識装置4000は、図13に示すように、画像取得部1011と、処理領域設定部1021と、共通類似度算出部4030と、第一の特有類似度算出部4031と、第一の物体判定部4041と、第二の物体判定部4042と、物体位置算出部1051とを有し、実施例によっては物体位置取得部1111を有する。
As shown in FIG. 13, the vehicle external
共通類似度算出部4030は、全身が見えている歩行者、および、下半身のみ見えている歩行者の共通なパターンである、歩行者の下半身のテンプレートTP0との類似度を算出する。共通類似度算出部4030は、歩行者の下半身のテンプレートTP0を有し、画像IMGSRC[x][y]の判定領域(SXG[g],SYG[g],EXG[g],EYG[g])とテンプレートTP0との類似度MT0を算出する。なお、歩行者の下半身のテンプレートは図5に示すものであり、類似度MT0の算出処理は、上述の第一実施の形態における共通類似度算出部1030と同様であるため、説明は割愛する。
The common
第一の特有類似度算出部4031は、全身が見えている歩行者の特有のパターンである、歩行者の上半身のテンプレートTP1との類似度を算出する。第一の特有類似度算出部4031は、歩行者の上半身のテンプレートTP1を有し、画像IMGSRC[x][y]の判定領域(SXG[g],SYG[g],EXG[g],EYG[g])とテンプレートTP1との類似度MT1を算出する。なお、歩行者の上半身のテンプレートTP1は、図7(a)に示すものであり、類似度MT1の算出処理は、上述の第一実施の形態における第一の特有類似度算出部1031と同様であるため、説明は割愛する。
The first unique
第一の物体判定部4041は、共通部分のテンプレートTP0との共通類似度MT0と、全身が見えている歩行者特有のテンプレートTP1との第一の特有類似度MT1を用いて、全身が見えている歩行者の有無を判定する。判定は、例えば閾値TH1_MTを用いて、共通類似度MT0と第一の特有類似度MT1とを加算した値が閾値TH1_MTよりも大きいという条件を満たす場合、すなわち、
(MT0+MT1)>TH1_MT
であれば存在すると判定してもよいし、共通類似度の閾値TH1_MT0と第一の特有類似度の閾値TH1_MT1を用いて、共通類似度MT0が閾値TH1_MT0よりも大きくかつ第一の特有類似度MT1が閾値TH1_MT1よりも大きいという条件を満たす場合、すなわち、
MT0>TH1_MT0、かつ、MT1>TH1_MT1
であれば物体が存在すると判定してもよい。
The first
(MT0 + MT1)> TH1_MT
If the common similarity MT0 is greater than the threshold TH1_MT0 and the first specific similarity MT1 is determined using the common similarity threshold TH1_MT0 and the first specific similarity threshold TH1_MT1. Is larger than the threshold value TH1_MT1, that is,
MT0> TH1_MT0 and MT1> TH1_MT1
If so, it may be determined that an object exists.
第二の物体判定部3042は、共通部分のテンプレートとの共通類似度MT0を用いて、下半身のみ見えている歩行者の有無を判定する。判定は、例えば閾値TH2_MTを用いて、共通類似度MT0が閾値TH2_MTよりも大きいという条件を満たす場合、すなわち、
MT0>TH2_MT
であれば、歩行者が存在すると判定する。
The second
MT0> TH2_MT
If it is, it will determine with a pedestrian existing.
なお、本実施の形態では、図13に示すように、物体位置算出部1051を用いる場合を例に説明しているが、これを用いずに、代わりに上述の第三の実施の形態における環境推定部3060、第一の信頼度2061、第二の信頼度2062、物体位置算出部3071を用いてもよい。
In the present embodiment, as shown in FIG. 13, the case where the object
本実施の形態によれば、自車の前方を撮像した画像内から全身が見えている歩行者と、下半身のみ見えている歩行者の両方を、より少ない処理負荷で検知することができる。 According to the present embodiment, it is possible to detect both a pedestrian who can see the whole body from an image obtained by capturing the front of the host vehicle and a pedestrian who can see only the lower body with a smaller processing load.
<第五実施の形態>
つぎに、図14を用いて、プリクラッシュ・セーフティ・システムを例にとり、上述の各実施の形態の車両用外界認識装置によって判定した歩行者に応じて警報を出力する、あるいは自動的にブレーキを制御するといったシステムの動作方法について説明する。
<Fifth embodiment>
Next, referring to FIG. 14, taking a pre-crash safety system as an example, an alarm is output according to the pedestrian determined by the vehicle external environment recognition device of each embodiment described above, or the brake is automatically applied. An operation method of the system such as control will be described.
図14は、プリクラッシュ・セーフティ・システムの動作方法を示すフローチャートである。 FIG. 14 is a flowchart showing an operation method of the pre-crash safety system.
最初に、ステップS141において、上記いずれかの車両用外界認識装置によって検知された歩行者の位置情報を、障害物情報(PYO[b]、PXO[b]、WDO[b])として読み込む。 First, in step S141, the position information of the pedestrian detected by any of the above-described vehicle external recognition devices is read as obstacle information (PYO [b], PXO [b], WDO [b]).
つぎに、ステップS142において、検知された各物体の衝突予測時間TTC[i]を、下記の式(3)を用いて演算する。ここで、相対速度VYO[b]は、物体の相対距離PYO[b]を擬似微分することによって求める。 Next, in step S142, the collision prediction time TTC [i] of each detected object is calculated using the following equation (3). Here, the relative velocity VYO [b] is obtained by pseudo-differentiating the relative distance PYO [b] of the object.
TTC[b]=PY[b]÷VY[b] ・・・(3) TTC [b] = PY [b] ÷ VY [b] (3)
さらに、ステップS143において、各障害物に対する危険度DRECI[b]を演算する。 Further, in step S143, the risk level DRECI [b] for each obstacle is calculated.
以下、上述のいずれかの車両用外界認識装置で検知された物体X[b]に対する危険度DRECI[b]の演算方法の例を、図15を用いて説明する。 Hereinafter, an example of a method for calculating the degree of risk DRECI [b] for the object X [b] detected by any one of the above-described vehicle external world recognition devices will be described with reference to FIG.
まず、予測進路の推定方法について説明する。図15に示すように、自車位置を原点Oとすると、予測進路は原点Oを通る旋回半径Rの円弧で近似できる。ここで、旋回半径Rは、自車の操舵角α、速度Vsp、スタビリティファクタA、ホイールベースLおよびステアリングギア比Gsを用いて以下の式(4)で表される。 First, a method for estimating a predicted course will be described. As shown in FIG. 15, when the vehicle position is the origin O, the predicted course can be approximated by an arc of a turning radius R passing through the origin O. Here, the turning radius R is expressed by the following equation (4) using the steering angle α, the speed Vsp, the stability factor A, the wheel base L, and the steering gear ratio Gs of the host vehicle.
R=(1+AV2)×(L・Gs/α) ・・・(4) R = (1 + AV2) × (L · Gs / α) (4)
ここで、スタビリティファクタAとは、その正負が、車両のステア特性を支配するものであり、車両の定常円旋回の速度に依存する変化の大きさを示す指数となる重要な値である。上記式(2)からわかるように、旋回半径Rは、スタビリティファクタAを係数として、自車の速度Vspの2乗に比例して変化する。また、旋回半径Rは車速Vspおよびヨーレートγを用いて式(5)で表すことができる。 Here, the stability factor A is an important value that determines the magnitude of the change depending on the speed of the steady circular turning of the vehicle. As can be seen from the above equation (2), the turning radius R changes in proportion to the square of the speed Vsp of the host vehicle with the stability factor A as a coefficient. Further, the turning radius R can be expressed by Expression (5) using the vehicle speed Vsp and the yaw rate γ.
R=V/γ ・・・(5) R = V / γ (5)
つぎに、物体X[b]から、旋回半径Rの円弧で近似した予測進路の中心へ垂線を引き、距離L[b]を求める。 Next, a perpendicular line is drawn from the object X [b] to the center of the predicted course approximated by the arc of the turning radius R to obtain the distance L [b].
さらに、自車幅Hから距離L[b]を引き、これが負値の場合には危険度DRECI[b]=0とし、正値の場合には以下の式(6)によって危険度DRECI[b]を演算する。 Further, the distance L [b] is subtracted from the own vehicle width H. When this is a negative value, the danger level DRECI [b] = 0, and when the value is a positive value, the danger level DRECI [b] is given by the following equation (6). ] Is calculated.
DRECI[b]= (H−L[b])/H ・・・(6) DRECI [b] = (HL [b]) / H (6)
なお、ステップS141〜S143の処理は、検知した物体数に応じてループ処理を行う構成としている。 In addition, the process of step S141-S143 is set as the structure which performs a loop process according to the detected number of objects.
ステップS144において、ステップS143で演算した危険度DRECI[b]に応じて式(7)の条件が成立している物体を選択し、選択された物体の中で衝突予測時間TTC[b]が最小となる物体bMinを選択する。 In step S144, an object satisfying the condition of Expression (7) is selected according to the risk degree DRECI [b] calculated in step S143, and the predicted collision time TTC [b] is the smallest among the selected objects. The object bMin is selected.
DRECI[b]≧ cDRECI# ・・・(7) DRECI [b] ≧ cDRECI # (7)
ここで、所定値cDRECI#は、自車に衝突するか否かを判定するための閾値である。 Here, the predetermined value cDRECI # is a threshold value for determining whether or not the vehicle collides.
つぎに、ステップS145において、選択された物体kの衝突予測時間TTC[bMin]に応じて自動的にブレーキを制御する範囲であるか否かの判定を行う。式(8)が成立している場合にはステップS146に進み、ブレーキ制御を実行して処理を終了する。また、式(8)が非成立の場合にはステップS147に進む。 Next, in step S145, it is determined whether or not the brake is automatically controlled in accordance with the predicted collision time TTC [bMin] of the selected object k. If Expression (8) is established, the process proceeds to step S146, brake control is executed, and the process is terminated. On the other hand, if Expression (8) is not established, the process proceeds to step S147.
TTC[bMin]≦cTTCBRK# ・・・(8) TTC [bMin] ≦ cTTCBRK # (8)
ステップS147において、選択された物体bMinの衝突予測時間TTC[bMin]に応じて警報を出力する範囲であるか否かの判定を行う。式(9)が成立している場合にはステップS148に進み、警報を出力して処理を終了する。また、式(9)が非成立の場合には、ブレーキ制御、警報ともに実行せずに処理を終了する。 In step S147, it is determined whether or not the alarm is output in accordance with the predicted collision time TTC [bMin] of the selected object bMin. If Expression (9) is established, the process proceeds to step S148, where an alarm is output and the process is terminated. In addition, when Expression (9) is not established, neither the brake control nor the warning is executed and the process is terminated.
TTC[bMin]≦cTTCALM# ・・・(9) TTC [bMin] ≦ cTTCALM # (9)
以上説明したように、本発明である上述のいずれかの車両用外界認識装置において歩行者と判定された物体に対して、その危険度に応じて上記警報やブレーキ制御を発動させることができる。 As described above, the alarm and the brake control can be activated for an object determined as a pedestrian in any one of the above vehicle external recognition devices according to the present invention, depending on the degree of risk.
なお、本発明は、上述の各実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。 The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the spirit of the present invention.
1000 車両用外界認識装置
1011 画像取得部
1021 処理領域設定部
1030 共通類似度算出部
1031 第一の特有類似度算出部
1032 第二の特有類似度算出部
1041 第一の物体判定部
1042 第二の物体判定部
1051 物体位置算出部
1111 物体位置取得部
2000 車両用外界認識装置
2161 ワイパ操作取得部
2060 環境推定部
2061 第一の信頼度
2062 第二の信頼度
2071 物体位置算出部
3000 車両用外界認識装置
3030 共通類似度算出部
3031 第一の特有類似度算出部
3032 第二の特有類似度算出部
3041 第一の物体判定部
3042 第二の物体判定部
3060 環境推定部
4000 車両用外界認識装置
4030 共通類似度算出部
4031 第一の特有類似度算出部
4041 第一の物体判定部
4042 第二の物体判定部
1000
Claims (11)
自車周辺を撮影した画像を取得する画像取得手段と、
前記画像から前記第一の物体と前記第二の物体の共通部分の類似度である共通類似度を算出する共通類似度算出手段と、
前記画像から前記第一の物体の特有な部分の類似度である第一の特有類似度を算出する第一の特有類似度算出手段と、
前記画像から前記第二の物体の特有な部分の類似度である第二の特有類似度を算出する第二の特有類似度算出手段と、
前記共通類似度と前記第一の特有類似度を用いて前記第一の物体の有無を判定する第一の物体判定手段と、
前記共通類似度と前記第二の特有類似度を用いて前記第二の物体の有無を判定する第二の物体判定手段と、
を有することを特徴とする車両用外界認識装置。 An external recognition device for a vehicle that detects a predetermined first object and a second object from around the vehicle,
Image acquisition means for acquiring an image of the periphery of the vehicle;
A common similarity calculation means for calculating a common similarity that is a similarity of a common part of the first object and the second object from the image;
A first unique similarity calculating means for calculating a first unique similarity that is a similarity of a specific part of the first object from the image;
A second specific similarity calculating means for calculating a second specific similarity that is a similarity of a specific part of the second object from the image;
First object determination means for determining the presence or absence of the first object using the common similarity and the first specific similarity;
Second object determination means for determining the presence or absence of the second object using the common similarity and the second specific similarity;
A vehicle external environment recognition device characterized by comprising:
前記環境推定手段は、前記物体位置取得手段で取得した物体位置の履歴により前記第一の信頼度と前記第二の信頼度を調整することを特徴とする請求項2に記載の車両用外界認識装置。 An object position acquisition means for acquiring an object position of an object existing in front of the host vehicle;
The vehicle environment recognition according to claim 2, wherein the environment estimation unit adjusts the first reliability and the second reliability based on a history of the object position acquired by the object position acquisition unit. apparatus.
前記第二の信頼度の方が前記第一の信頼度よりも高い場合に、前記第二の特有類似度算出手段と前記第二の物体判定手段の処理を、前記第一の特有類似度算出手段と前記第一の物体判定手段の処理よりも優先することを特徴とする請求項2から請求項5のいずれか一項に記載の車両用外界認識装置。 When the first reliability is higher than the second reliability, the processing of the first specific similarity calculation unit and the first object determination unit is performed by calculating the second specific similarity. Priority over the processing of the means and the second object determination means,
When the second reliability is higher than the first reliability, the processing of the second specific similarity calculation means and the second object determination means is performed by calculating the first specific similarity. The vehicle external environment recognition device according to any one of claims 2 to 5, wherein the vehicle has priority over the processing of the first object determination unit and the first object determination unit.
自車周辺を撮影した画像を取得する画像取得手段と、
前記画像から前記第一の物体と前記第二の物体の共通部分の類似度である共通類似度を算出する共通類似度算出手段と、
前記画像から前記第一の物体の特有な部分の類似度である第一の特有類似度を算出する第一の特有類似度算出手段と、
前記共通類似度と前記第一の特有類似度を用いて前記第一の物体の有無を判定する第一の物体判定手段と、
前記共通類似度を用いて前記第二の物体の有無を判定する第二の物体判定手段と、
を有する車両用外界認識装置。 An external recognition device for a vehicle that detects a predetermined first object and a second object from around the vehicle,
Image acquisition means for acquiring an image of the periphery of the vehicle;
A common similarity calculation means for calculating a common similarity that is a similarity of a common part of the first object and the second object from the image;
A first unique similarity calculating means for calculating a first unique similarity that is a similarity of a specific part of the first object from the image;
First object determination means for determining the presence or absence of the first object using the common similarity and the first specific similarity;
Second object determination means for determining the presence or absence of the second object using the common similarity;
An external environment recognition device for a vehicle.
前記物体位置検出手段により検出した前記第一の物体の位置および前記第二の物体の位置に応じて前記自車が衝突する危険度を算出する衝突危険度算出手段と、
該衝突危険度算出手段により算出した衝突危険度に応じて自車の衝突を回避する制御を行う制御手段と、
を有することを特徴とする車両システム。 A vehicle system comprising the vehicle external environment recognizing device according to any one of claims 2 to 8,
A collision risk calculating means for calculating a risk of collision of the vehicle according to the position of the first object and the position of the second object detected by the object position detecting means;
Control means for performing control to avoid a collision of the own vehicle according to the collision risk calculated by the collision risk calculation means;
A vehicle system comprising:
The control means calculates a predicted collision time when the host vehicle collides with the object based on the position of the first object and the position of the second object, and the calculated predicted collision time is preset. 10. The vehicle system according to claim 9, wherein an alarm control is performed on a driver of the host vehicle when the estimated collision time is equal to or less than the alarm threshold by comparing with an alarm threshold. 10.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010293471A JP5593217B2 (en) | 2010-12-28 | 2010-12-28 | Vehicle external recognition device and vehicle system using the same |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010293471A JP5593217B2 (en) | 2010-12-28 | 2010-12-28 | Vehicle external recognition device and vehicle system using the same |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2012141740A true JP2012141740A (en) | 2012-07-26 |
| JP5593217B2 JP5593217B2 (en) | 2014-09-17 |
Family
ID=46677988
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010293471A Expired - Fee Related JP5593217B2 (en) | 2010-12-28 | 2010-12-28 | Vehicle external recognition device and vehicle system using the same |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5593217B2 (en) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014035669A (en) * | 2012-08-09 | 2014-02-24 | Honda Motor Co Ltd | Object position detection device |
| JP2014059655A (en) * | 2012-09-14 | 2014-04-03 | Toshiba Corp | Road situation-monitoring device, and road situation-monitoring method |
| JP2015215749A (en) * | 2014-05-09 | 2015-12-03 | 株式会社デンソー | Object detection device for vehicle |
| WO2018110964A1 (en) * | 2016-12-14 | 2018-06-21 | Samsung Electronics Co., Ltd. | Electronic device and method for recognizing object by using plurality of sensors |
| JP2018151748A (en) * | 2017-03-10 | 2018-09-27 | オムロン株式会社 | Image processing apparatus, image processing method, template creation apparatus, object recognition processing apparatus, and program |
| KR20220167263A (en) * | 2020-12-10 | 2022-12-20 | 모셔널 에이디 엘엘씨 | MERGING LiDAR INFORMATION AND CAMERA INFORMATION |
| WO2024095318A1 (en) * | 2022-10-31 | 2024-05-10 | 日本電気株式会社 | Parameter control device, object detection device, equipment control device, method, and computer readable medium |
| US12142056B2 (en) | 2018-03-26 | 2024-11-12 | Mitsubishi Electric Corporation | Information processing device, information processing method, and computer readable medium for determining a latent event |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002074595A (en) * | 2000-08-29 | 2002-03-15 | Hitachi Ltd | Vehicle safe driving support system |
| JP2005354597A (en) * | 2004-06-14 | 2005-12-22 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
| JP2007255979A (en) * | 2006-03-22 | 2007-10-04 | Nissan Motor Co Ltd | Object detection method and object detection apparatus |
| JP2007272624A (en) * | 2006-03-31 | 2007-10-18 | Toyota Motor Corp | Image recognition device |
| JP2009026223A (en) * | 2007-07-23 | 2009-02-05 | Toyota Central R&D Labs Inc | Object detection apparatus and program |
| JP2009042941A (en) * | 2007-08-07 | 2009-02-26 | Honda Motor Co Ltd | Object type determination device, vehicle, object type determination method, and object type determination program |
| JP2010211427A (en) * | 2009-03-10 | 2010-09-24 | Omron Corp | Safe driving monitor |
-
2010
- 2010-12-28 JP JP2010293471A patent/JP5593217B2/en not_active Expired - Fee Related
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002074595A (en) * | 2000-08-29 | 2002-03-15 | Hitachi Ltd | Vehicle safe driving support system |
| JP2005354597A (en) * | 2004-06-14 | 2005-12-22 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
| JP2007255979A (en) * | 2006-03-22 | 2007-10-04 | Nissan Motor Co Ltd | Object detection method and object detection apparatus |
| JP2007272624A (en) * | 2006-03-31 | 2007-10-18 | Toyota Motor Corp | Image recognition device |
| JP2009026223A (en) * | 2007-07-23 | 2009-02-05 | Toyota Central R&D Labs Inc | Object detection apparatus and program |
| JP2009042941A (en) * | 2007-08-07 | 2009-02-26 | Honda Motor Co Ltd | Object type determination device, vehicle, object type determination method, and object type determination program |
| JP2010211427A (en) * | 2009-03-10 | 2010-09-24 | Omron Corp | Safe driving monitor |
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014035669A (en) * | 2012-08-09 | 2014-02-24 | Honda Motor Co Ltd | Object position detection device |
| JP2014059655A (en) * | 2012-09-14 | 2014-04-03 | Toshiba Corp | Road situation-monitoring device, and road situation-monitoring method |
| JP2015215749A (en) * | 2014-05-09 | 2015-12-03 | 株式会社デンソー | Object detection device for vehicle |
| WO2018110964A1 (en) * | 2016-12-14 | 2018-06-21 | Samsung Electronics Co., Ltd. | Electronic device and method for recognizing object by using plurality of sensors |
| US10600197B2 (en) | 2016-12-14 | 2020-03-24 | Samsung Electronics Co., Ltd. | Electronic device and method for recognizing object by using plurality of sensors |
| US11295469B2 (en) | 2016-12-14 | 2022-04-05 | Samsung Electronics Co., Ltd. | Electronic device and method for recognizing object by using plurality of sensors |
| JP2018151748A (en) * | 2017-03-10 | 2018-09-27 | オムロン株式会社 | Image processing apparatus, image processing method, template creation apparatus, object recognition processing apparatus, and program |
| US12142056B2 (en) | 2018-03-26 | 2024-11-12 | Mitsubishi Electric Corporation | Information processing device, information processing method, and computer readable medium for determining a latent event |
| KR20220167263A (en) * | 2020-12-10 | 2022-12-20 | 모셔널 에이디 엘엘씨 | MERGING LiDAR INFORMATION AND CAMERA INFORMATION |
| US12060078B2 (en) | 2020-12-10 | 2024-08-13 | Motional Ad Llc | Merging LiDAR information and camera information |
| KR102717432B1 (en) * | 2020-12-10 | 2024-10-15 | 모셔널 에이디 엘엘씨 | MERGING LiDAR INFORMATION AND CAMERA INFORMATION |
| WO2024095318A1 (en) * | 2022-10-31 | 2024-05-10 | 日本電気株式会社 | Parameter control device, object detection device, equipment control device, method, and computer readable medium |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5593217B2 (en) | 2014-09-17 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5401344B2 (en) | Vehicle external recognition device | |
| JP5372680B2 (en) | Obstacle detection device | |
| JP5593217B2 (en) | Vehicle external recognition device and vehicle system using the same | |
| JP5283967B2 (en) | In-vehicle object detection device | |
| JP7025912B2 (en) | In-vehicle environment recognition device | |
| JP5518007B2 (en) | Vehicle external recognition device and vehicle control system using the same | |
| JP5090321B2 (en) | Object detection device | |
| JP5690688B2 (en) | Outside world recognition method, apparatus, and vehicle system | |
| JP4775391B2 (en) | Obstacle detection device | |
| EP3179445B1 (en) | Outside environment recognition device for vehicles and vehicle behavior control device using same | |
| JP5124592B2 (en) | System and method for detecting and tracking a vehicle | |
| US8994823B2 (en) | Object detection apparatus and storage medium storing object detection program | |
| KR101663574B1 (en) | Method and system for detection of sudden pedestrian crossing for safe driving during night time | |
| JP7454685B2 (en) | Detection of debris in vehicle travel paths | |
| JP6458651B2 (en) | Road marking detection device and road marking detection method | |
| JP2011248445A (en) | Moving object prediction device and program | |
| JP2008304344A (en) | Target detection device | |
| JP2017187864A (en) | Vehicle controller, vehicle control method | |
| JPWO2018190362A1 (en) | Method and apparatus for detecting pedestrians around a vehicle | |
| KR101687094B1 (en) | Apparatus for recognizing traffic sign and method thereof | |
| Kim et al. | An intelligent and integrated driver assistance system for increased safety and convenience based on all-around sensing | |
| JP2009037284A (en) | Traveling object recognition device | |
| JP6171608B2 (en) | Object detection device | |
| JP2021196560A (en) | Environmental map generation method and environmental map generation device | |
| JP4092509B2 (en) | Object determination apparatus and object determination method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130124 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131011 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131022 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131220 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140121 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140418 |
|
| A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20140604 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140708 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140804 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5593217 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |