JP2013069045A - 画像認識装置、画像認識方法および画像認識プログラム - Google Patents
画像認識装置、画像認識方法および画像認識プログラム Download PDFInfo
- Publication number
- JP2013069045A JP2013069045A JP2011206073A JP2011206073A JP2013069045A JP 2013069045 A JP2013069045 A JP 2013069045A JP 2011206073 A JP2011206073 A JP 2011206073A JP 2011206073 A JP2011206073 A JP 2011206073A JP 2013069045 A JP2013069045 A JP 2013069045A
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- unit
- image
- object recognition
- analysis method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 154
- 238000003909 pattern recognition Methods 0.000 claims abstract description 233
- 238000004458 analytical method Methods 0.000 claims abstract description 222
- 230000003287 optical effect Effects 0.000 claims description 136
- 238000012545 processing Methods 0.000 description 142
- 238000004364 calculation method Methods 0.000 description 110
- 238000001514 detection method Methods 0.000 description 88
- 238000010586 diagram Methods 0.000 description 19
- 230000033001 locomotion Effects 0.000 description 16
- 238000010606 normalization Methods 0.000 description 7
- 230000010354 integration Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012567 pattern recognition method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003449 preventive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】画像認識装置1は、画像に対して3D解析手法による物体認識を行う3D解析手法による物体認識部13と、前記画像に対してパターン認識による物体認識を行うパターン認識による物体認識部14と、を備え、前記3D解析手法による物体認識部13により得られる3D解析手法による物体認識の結果と前記パターン認識による物体認識部14により得られるパターン認識による物体認識の結果に基づいて最終ターゲットの認識結果を得る、ことを特徴とする。
【選択図】図1
Description
図1は、本発明の第1実施形態に係る画像認識装置1の構成を示すブロック図である。
本実施形態に係る画像認識装置1は、単眼カメラ11と、画像取得部12と、3D解析手法による物体認識部13と、パターン認識による物体認識部14と、最終ターゲット認識部15と、距離・TTC確定部16と、トラッキング部17と、衝突警報部18と、ACC制御部19と、を備える。
単眼カメラ11は、画像を撮像し、撮像した画像を画像取得部12に出力する。
画像取得部12は、単眼カメラ11から入力された画像を取得し、取得した画像のデータを3D解析手法による物体認識部13とパターン認識による物体認識部14のそれぞれに出力する。
ここで、画像取得部12は、例えば、取得した画像のデータを一時的に記憶する記憶部を有する。
本実施形態では、3D解析手法による物体認識部13は、画像取得部12から入力された画像のデータについて、その画像の中で、車両が映っていると推定される画像領域を認識し、その画像領域を特定する情報を物体認識の処理の結果として最終ターゲット認識部15に出力する。全体の画像中の画像領域は、例えば、水平(横)方向の座標値と垂直(縦)方向の座標値からなる座標の情報を用いて表現することができる。
ここで、3D解析手法による物体認識部13では、処理の誤差によって、車両以外のものが映っている画像領域を、車両が映っている画像領域として誤認識することが生じ得る。
本実施形態では、パターン認識による物体認識部14は、車両の画像のパターン(学習結果による、弱識別器のパラメータ等)をメモリに記憶しており、画像取得部12から入力された画像のデータについて、その画像の中で、メモリに記憶された車両の画像のパターンと同一または類似するものが映っていると推定される画像領域を認識し、その画像領域を特定する情報を物体認識の処理の結果として最終ターゲット認識部15に出力する。全体の画像中の画像領域は、例えば、水平(横)方向の座標値と垂直(縦)方向の座標値からなる座標の情報を用いて表現することができる。
ここで、パターン認識による物体認識部14では、処理の誤差によって、車両以外のものが映っている画像領域を、車両が映っている画像領域として誤認識することが生じ得る。
なお、最終的なターゲットごとの距離とTTCは、例えば、3D解析手法による物体認識部13により得られた物体認識の処理の結果を用いて算出することができ、他の例として、パターン認識による物体認識部14により得られた物体認識の処理の結果を用いて算出されてもよく、さらに他の例として、これら両方の物体認識の処理の結果を用いて算出されてもよい。
なお、トラッキング部17は、時系列画像のトラッキングの処理を行う場合に、例えば、制御サイクルの時系列フィルタ処理で、過去制御サイクルとの結果で最終的な判定を行う。
図9は、3D解析手法の処理の手順の一例を示す図である。ここでは、各処理の概略を説明する。
なお、この処理の手順は、非特許文献1に記載されたものを引用しており、詳細については非特許文献1に記載されている。
次に、3D解析手法による物体認識部13は、特徴点を検出し、オプティカルフローを計算する(ステップS2)。
次に、3D解析手法による物体認識部13は、特徴点の三次元位置を計算する(ステップS4)。
次に、3D解析手法による物体認識部13は、移動物体領域を検出する(ステップS6)。
そして、3D解析手法による物体認識部13は、検出した移動物体(本実施形態では、車両であると推定される移動物体)をターゲットとして認識する(ステップS7)。
また、本実施形態では、動きベクトルとして、オプティカルフローを用いる場合を示すが、他の種々なものが用いられてもよい。
図2は、パターン認識による物体認識部14の構成例を示すブロック図である。
本実施形態に係るパターン認識による物体認識部14は、勾配積分画像算出部101と、座標スキャン部102と、特徴量ベクトル算出部103と、識別部104と、を備える。
また、本実施形態に係るパターン認識による物体認識部14では、識別部104において、AdaBoostの認識アルゴリズムを用いている。他の例として、認識アルゴリズムとして、Real AdaBoostやSVM等の他の種々な認識アルゴリズムやその改良アルゴリズムが用いられてもよい。
なお、HOG特徴量やAdaBoostの認識アルゴリズムとしては、それぞれ、公知の技術を利用することができ、本実施形態では、詳しい説明は省略する。
勾配積分画像算出部101は、入力された画像について、全画像に対して勾配強度と勾配方向を算出し、それぞれの勾配方向の勾配強度に対して積分画像を算出し、ヒストグラムを計算する。勾配積分画像算出部101は、この計算結果の情報を座標スキャン部102に出力する。
なお、本実施形態では、元の全画像に対して勾配強度と勾配方向を算出するが、他の例として、ピラミッド画像により解像度を下げた画像にも適用可能である。
なお、他の例として、このような積分画像を使用しない構成が用いられてもよい。
識別部104は、特徴量ベクトル算出部103から入力された情報に基づいて、AdaBoostによる識別の処理を行い、あらかじめターゲットとしている物体(本実施形態では、あらかじめ用意された車両の画像のパターンに合致する物体)を認識する。識別部104は、この物体認識の処理の結果を出力する。
識別部104から出力された物体認識の処理の結果は、パターン認識による物体認識部14から出力されて、最終ターゲット認識部15に入力される。
なお、識別部104と最終ターゲット認識部15との間にクラスタリング部を設けてミーンシフト等のクラスタリングを行ってもよい。
図10は、勾配積分画像算出部101と、特徴量ベクトル算出部103について、詳しい構成例を示してある。
勾配積分画像算出部101は、勾配強度検出部301と、勾配方向検出部302と、勾配方向ごとの勾配強度の積分部303と、を備える。
特徴量ベクトル算出部103は、セル単位の積分値算出部311と、ブロック正規化部312と、特徴量ベクトル算出処理部313と、を備える。
勾配積分画像算出部101に入力された画像は、勾配強度検出部301に入力される。
勾配強度検出部301は、入力された画像に基づいて、各ピクセル(u,v)における画素値(例えば、輝度値)の勾配強度m(u,v)を検出する。勾配強度検出部301は、入力された画像および検出した勾配強度m(u,v)を勾配方向検出部302に出力する。
ここで、uとvは、直交座標平面上における画素(ピクセル)の位置を表すための座標の縦軸方向の値と横軸方向の値である。
勾配方向ごとの勾配強度の積分部303から出力された情報は、勾配積分画像算出部101による計算結果の情報として当該勾配積分画像算出部101から出力されて、座標スキャン部102に入力される。
座標スキャン部102から特徴量ベクトル算出部103に入力された情報は、セル単位の積分値算出部311に入力される。
セル単位の積分値算出部311は、入力された情報に基づいて、勾配方向ごとの勾配強度について、セル単位の積分値を算出する。セル単位の積分値算出部311は、算出したセル単位の積分値をブロック正規化部312に出力する。
特徴量ベクトル算出処理部313は、ブロック正規化部312から入力された情報に基づいて、特徴量ベクトル(本実施形態では、HOG特徴量のベクトル)を算出する。特徴量ベクトル算出処理部313は、算出した特徴量ベクトルの情報を出力する。
特徴量ベクトル算出処理部313から出力された情報は、特徴量ベクトル算出部103から出力されて、識別部104に入力される。
なお、セルの大きさや、ブロックの大きさとしては、それぞれ、他の種々な構成が用いられてもよい。
図11は、積分画像を説明するための図である。
図11において、画像の左上を画素の座標の基準位置(0,0)として、座標(u、v)を考える。また、座標(u,v)における画像の画素値をi(u,v)とする。
s(u,v)を行の画素の総和(縦方向の総和)とし、ii(u,v)を列のs(u,v)の総和(横方向の総和)とする。このii(u,v)が積分画像となる。
このとき、次の式(1)、式(2)が表される。ここで、s(−1,v)=0とし、ii(u,−1)=0とする。
図3は、3D解析手法による物体認識とパターン認識による物体認識との組み合わせにより物体認識の性能を向上させることが望まれる領域の例を示す図である。
図3に示される画像1001では、道路上に車両が走行している。そして、3D解析手法による物体認識とパターン認識による物体認識との組み合わせにより物体認識の性能を向上させることが望まれる領域として、縦方向の辺よりも横方向の辺の方が長い矩形の枠1002の領域が示されている。
従って、このような互いの認識性能がある場合には、本実施形態のように、最終的なターゲットと認識するために、最終ターゲット認識部15によりAND論理での認識を行うことが効果的である。このように最終的なターゲットと認識する論理(本実施形態では、AND論理)は、3D解析手法による物体認識とパターン認識による物体認識との互いの判定性能に依存して定めたものである。
図3に示される例では、道路がほぼ直進方向にあるが、大きいカーブでの前走車を認識することが必要であることから、横長の枠1002の領域を設定している。
ここで、枠1002の領域は、例えば、画像1001における座標の値を用いて表すことができる。
従って、本実施形態に係る画像認識装置1によれば、物体の認識を精度良く行うことができ、ターゲットとする物体の検出に好適な装置を提供することができる。例えば、本実施形態に係る画像認識装置1によれば、画像の消失点付近を含む比較的遠距離にある物体の形状を認識する精度が大幅に向上するため、前方衝突警報装置(FCW)に適用することができ、さらに、特に遠距離での認識が必要な車間距離制御装置(ACC)への適用が可能となる効果を有する。
本実施形態に係る画像認識装置1aの概略的な構成は、図1に示される第1実施形態に係る画像認識装置1の構成と同様であるため、以下では、図1に示される構成および各構成部の符号を利用して説明する。
なお、以下では、第1実施形態に係る画像認識装置1とは異なる点について詳しく説明する。
本実施形態では、最終ターゲット認識部15は、OR論理を用いて認識を行う。
具体的には、最終ターゲット認識部15は、3D解析手法による物体認識部13から入力された物体認識の処理の結果(本実施形態では、車両が映っていると推定される画像領域を特定する情報)と、パターン認識による物体認識部14から入力された物体認識の処理の結果(本実施形態では、車両が映っていると推定される画像領域を特定する情報)について、これら2つの物体認識の処理の結果において、認識対象の物体(本実施形態では、車両)であると特定した何れかまたは一致する画像領域(座標の領域)の部分を、最終的なターゲットの領域であると認識し、認識した最終的なターゲットの領域を特定する情報を距離・TTC確定部16に出力する。
第1実施形態において参照した図3には、3D解析手法による物体認識とパターン認識による物体認識との組み合わせにより物体認識の性能を向上させることが望まれる領域として、矩形の枠1002の領域が示されている。
従って、このような互いの認識性能がある場合には、本実施形態のように、最終的なターゲットと認識するために、最終ターゲット認識部15によりOR論理での認識を行うことが効果的である。このように最終的なターゲットと認識する論理(本実施形態では、OR論理)は、3D解析手法による物体認識とパターン認識による物体認識との互いの判定性能に依存して定めたものである。
従って、本実施形態に係る画像認識装置1aによれば、物体の認識を精度良く行うことができ、ターゲットとする物体の検出に好適な装置を提供することができる。例えば、本実施形態に係る画像認識装置1aによれば、画像の消失点付近を含む比較的遠距離にある物体の形状を認識する精度が大幅に向上するため、前方衝突警報装置(FCW)に適用することができ、さらに、特に遠距離での認識が必要な車間距離制御装置(ACC)への適用が可能となる効果を有する。
AND論理の一例として、最終ターゲット認識部15は、3D解析手法による物体認識部13から入力された物体認識の処理の結果(本実施形態では、車両が映っていると推定される画像領域を特定する情報)と、パターン認識による物体認識部14から入力された物体認識の処理の結果(本実施形態では、車両が映っていると推定される画像領域を特定する情報)について、これら2つの物体認識の処理の結果において、認識対象の物体(本実施形態では、車両)であると特定した画像領域(座標の領域)の重複部分(オーバーラップする部分)が所定の割合(例えば、50%など)以上である場合に、あらかじめ定められたいずれか一方の物体認識の処理の結果を最終的なターゲットの領域であると認識し、認識した最終的なターゲットの領域を特定する情報を距離・TTC確定部16に出力する、といった構成を用いることができる。
図4は、本発明の第3実施形態に係る画像認識装置2の構成を示すブロック図である。
本実施形態に係る画像認識装置2は、単眼カメラ11と、画像取得部12と、3D解析手法による物体認識部21と、パターン認識による物体認識部22と、最終ターゲット認識部15と、距離・TTC確定部16と、トラッキング部17と、衝突警報部18と、ACC制御部19と、を備える。
このため、図4では、第1実施形態または第2実施形態と同様な構成部については、同一の符号を付してある。以下では、第1実施形態に係る画像認識装置1または第2実施形態に係る画像認識装置1aとは異なる点について詳しく説明する。
パターン認識による物体認識部22は、勾配積分画像算出部121と、座標スキャン部122と、特徴量ベクトル算出部123と、識別部124と、を備える。座標スキャン部122は、座標のスキャン領域決定部126を備える。
画像取得部12から3D解析手法による物体認識部21に入力された画像は、特徴点・オプティカルフロー検出部111に入力される。
この入力画像は、特徴点・オプティカルフロー検出部111、自車に対する相対距離検出部112、クラスタリング部113により、順に処理されて、その処理の結果がクラスタリング部113から出力される。
クラスタリング部113から出力された処理の結果は、3D解析手法による物体認識の処理の結果として、3D解析手法による物体認識部21から出力されて、最終ターゲット認識部15に入力される。
本実施形態では、一例として、特徴点・オプティカルフロー検出部111がステップS1〜ステップS2の処理を実行し、自車に対する相対距離検出部112がステップS3〜ステップS6の処理を実行し、クラスタリング部113がステップS7の処理を実行する。
画像取得部12からパターン認識による物体認識部22に入力された画像は、勾配積分画像算出部121に入力される。
この入力画像は、勾配積分画像算出部121、座標スキャン部122、特徴量ベクトル算出部123、識別部124により、順に処理されて、その処理の結果が識別部124から出力される。
識別部124から出力された処理の結果は、パターン認識による物体認識の処理の結果として、パターン認識による物体認識部22から出力されて、最終ターゲット認識部15に入力される。
他の一例として、この閾値として、1を設定することもできる。この場合、座標のスキャン領域決定部126は、全画像をあらかじめ設定された複数に分割した領域(分割領域)を想定し、1つでも特徴点が抽出された分割領域のみを、座標スキャン部122において座標スキャンする領域として決定することができる。
他の例に係る座標のスキャン領域決定部126は、入力された特徴点の情報とオプティカルフローの情報のうちの一方または両方に基づいて、座標スキャン部122において座標スキャンする領域の重要度を決定する。本実施形態では、このようにして決定される座標スキャン部122において座標スキャンする領域の重要度は、パターン認識を行う領域の重要度として使用される。
従って、本実施形態に係る画像認識装置2によれば、物体の認識を精度良く行うことができ、ターゲットとする物体の検出に好適な装置を提供することができる。例えば、本実施形態に係る画像認識装置2によれば、3D解析手法による物体認識において得られた特徴点の情報または動きベクトル(本実施形態では、オプティカルフロー)の情報に基づく座標領域を優先してまたは重要視して、パターン認識を行う画像において座標をスキャンする領域に関する設定を行うことができる。これにより、例えば、パターン認識の座標スキャン時の処理負荷を軽減することが可能である。
図5は、本発明の第4実施形態に係る画像認識装置3の構成を示すブロック図である。
本実施形態に係る画像認識装置3は、単眼カメラ11と、画像取得部12と、3D解析手法による物体認識部31と、パターン認識による物体認識部32と、最終ターゲット認識部15と、距離・TTC確定部16と、トラッキング部17と、衝突警報部18と、ACC制御部19と、を備える。
このため、図5では、第1実施形態または第2実施形態と同様な構成部については、同一の符号を付してある。以下では、第1実施形態に係る画像認識装置1または第2実施形態に係る画像認識装置1aとは異なる点について詳しく説明する。
パターン認識による物体認識部32は、座標のスキャン領域決定部141と、勾配積分画像算出部142と、特徴量ベクトル算出部143と、識別部144と、を備える。
画像取得部12から3D解析手法による物体認識部31に入力された画像は、特徴点・オプティカルフロー検出部131に入力される。
この入力画像は、特徴点・オプティカルフロー検出部131、自車に対する相対距離検出部132、クラスタリング部133により、順に処理されて、その処理の結果がクラスタリング部133から出力される。
クラスタリング部133から出力された処理の結果は、3D解析手法による物体認識の処理の結果として、3D解析手法による物体認識部31から出力されて、最終ターゲット認識部15に入力される。
本実施形態では、一例として、特徴点・オプティカルフロー検出部131がステップS1〜ステップS2の処理を実行し、自車に対する相対距離検出部132がステップS3〜ステップS6の処理を実行し、クラスタリング部133がステップS7の処理を実行する。
画像取得部12からパターン認識による物体認識部32に入力された画像は、座標のスキャン領域決定部141に入力される。
この入力画像は、座標のスキャン領域決定部141、勾配積分画像算出部142、特徴量ベクトル算出部143、識別部144により、順に処理されて、その処理の結果が識別部144から出力される。
識別部144から出力された処理の結果は、パターン認識による物体認識の処理の結果として、パターン認識による物体認識部32から出力されて、最終ターゲット認識部15に入力される。
識別部144は、特徴量ベクトル算出部143から入力された情報に基づいて、AdaBoostによる識別の処理を行い、あらかじめターゲットとしている物体(本実施形態では、あらかじめ用意された車両の画像のパターンに合致する物体)を認識する。識別部144は、この物体認識の処理の結果を出力する。
他の例に係る座標のスキャン領域決定部141は、クラスタリング部133から入力された物体認識の処理の結果(本実施形態では、車両が映っていると推定される画像領域を特定する情報)に基づいて、座標スキャンする領域の重要度を決定する。そして、他の例に係る座標のスキャン領域決定部141は、決定した座標スキャンする領域の重要度の情報を勾配積分画像算出部142に出力する。本実施形態では、このようにして決定される座標スキャンする領域の重要度は、パターン認識を行う領域の重要度として使用される。
従って、本実施形態に係る画像認識装置3によれば、物体の認識を精度良く行うことができ、ターゲットとする物体の検出に好適な装置を提供することができる。例えば、本実施形態に係る画像認識装置3によれば、3D解析手法による物体認識において確定した座標領域を優先してまたは重要視して、パターン認識を行う画像において座標をスキャンする領域に関する設定を行うことができる。これにより、例えば、パターン認識の座標スキャン時の処理負荷を軽減することが可能である。
図6は、本発明の第5実施形態に係る画像認識装置4の構成を示すブロック図である。
本実施形態に係る画像認識装置4は、単眼カメラ11と、画像取得部12と、3D解析手法による物体認識部41と、パターン認識による物体認識部42と、最終ターゲット認識部15と、距離・TTC確定部16と、トラッキング部17と、衝突警報部18と、ACC制御部19と、を備える。
このため、図6では、第1実施形態または第2実施形態と同様な構成部については、同一の符号を付してある。以下では、第1実施形態に係る画像認識装置1または第2実施形態に係る画像認識装置1aとは異なる点について詳しく説明する。
パターン認識による物体認識部42は、勾配積分画像算出部161と、座標スキャン部162と、特徴量ベクトル算出部163と、識別部164と、を備える。
画像取得部12から3D解析手法による物体認識部41に入力された画像は、特徴点・オプティカルフロー検出部151に入力される。
この入力画像は、特徴点・オプティカルフロー検出部151、自車に対する相対距離検出部152、クラスタリング部153により、順に処理されて、その処理の結果がクラスタリング部153から出力される。
クラスタリング部153から出力された処理の結果は、3D解析手法による物体認識の処理の結果として、3D解析手法による物体認識部41から出力されて、最終ターゲット認識部15に入力される。
本実施形態では、一例として、特徴点・オプティカルフロー検出部151がステップS1〜ステップS2の処理を実行し、自車に対する相対距離検出部152がステップS3〜ステップS6の処理を実行し、クラスタリング部153がステップS7の処理を実行する。
画像取得部12からパターン認識による物体認識部42に入力された画像は、勾配積分画像算出部161に入力される。
この入力画像は、勾配積分画像算出部161、座標スキャン部162、特徴量ベクトル算出部163、識別部164により、順に処理されて、その処理の結果が識別部164から出力される。
識別部164から出力された処理の結果は、パターン認識による物体認識の処理の結果として、パターン認識による物体認識部42から出力されて、最終ターゲット認識部15に入力される。
識別部164は、特徴量ベクトル算出部163から入力された情報(特徴量ベクトルの情報)に基づいて、AdaBoostによる識別の処理を行い、あらかじめターゲットとしている物体(本実施形態では、あらかじめ用意された車両の画像のパターンに合致する物体)を認識し、この場合に、特徴点・オプティカルフロー検出部151から入力された特徴点の情報とオプティカルフローの情報のうちの一方または両方に基づいて、識別の処理を行う。識別部164は、この物体認識の処理の結果を出力する。
そして、識別部164は、車両の画像のパターンをメモリに記憶しており、特徴量ベクトル算出部163から入力された情報(特徴量ベクトルの情報)に基づいて、画像(画像取得部12から出力される画像)の中で、識別閾値を用いて、メモリに記憶された車両の画像のパターンと同一または類似するものが映っていると推定される画像領域を識別(認識)し、その画像領域を特定する情報を物体認識の処理の結果として最終ターゲット認識部15に出力する。この識別の処理では、メモリに記憶された車両の画像のパターンとの一致度が識別閾値(例えば、弱識別器による線形和の値で強識別器の判定をする際の閾値)以上となる画像中の領域を、メモリに記憶された車両の画像のパターンと同一または類似するものが映っていると推定される画像領域として識別する。
他の一例として、前記した特徴点の数に関する閾値として、1を設定することもできる。この場合、識別部164は、全画像をあらかじめ設定された複数に分割した領域(分割領域)を想定し、1つでも特徴点が抽出された分割領域のみについて、あらかじめ定められた基準となる識別閾値よりも小さい値の識別閾値を用いるように変更(設定)することができる。
また、基準となる識別閾値としては、任意の値が用いられてもよく、例えば、本実施形態におけるような識別閾値の変更(設定)が行われない構成において全ての画像領域に対して一定に設定される識別閾値の値を用いることができる。
従って、本実施形態に係る画像認識装置4によれば、物体の認識を精度良く行うことができ、ターゲットとする物体の検出に好適な装置を提供することができる。例えば、本実施形態に係る画像認識装置4によれば、3D解析手法による物体認識において得られた特徴点の情報または動きベクトル(本実施形態では、オプティカルフロー)の情報に基づく座標領域を優先してまたは重要視して、パターン認識による物体認識を行う際の識別閾値に関する設定を行うことができる。
図7は、本発明の第6実施形態に係る画像認識装置5の構成を示すブロック図である。
本実施形態に係る画像認識装置5は、単眼カメラ11と、画像取得部12と、3D解析手法による物体認識部51と、パターン認識による物体認識部52と、最終ターゲット認識部15と、距離・TTC確定部16と、トラッキング部17と、衝突警報部18と、ACC制御部19と、を備える。
このため、図7では、第1実施形態または第2実施形態と同様な構成部については、同一の符号を付してある。以下では、第1実施形態に係る画像認識装置1または第2実施形態に係る画像認識装置1aとは異なる点について詳しく説明する。
パターン認識による物体認識部52は、勾配積分画像算出部181と、座標スキャン部182と、特徴量ベクトル算出部183と、識別部184と、を備える。
画像取得部12から3D解析手法による物体認識部51に入力された画像は、特徴点・オプティカルフロー検出部171に入力される。
この入力画像は、特徴点・オプティカルフロー検出部171、自車に対する相対距離検出部172、クラスタリング部173により、順に処理されて、その処理の結果がクラスタリング部173から出力される。
クラスタリング部173から出力された処理の結果は、3D解析手法による物体認識の処理の結果として、3D解析手法による物体認識部51から出力されて、最終ターゲット認識部15に入力される。
本実施形態では、一例として、特徴点・オプティカルフロー検出部171がステップS1〜ステップS2の処理を実行し、自車に対する相対距離検出部172がステップS3〜ステップS6の処理を実行し、クラスタリング部173がステップS7の処理を実行する。
画像取得部12からパターン認識による物体認識部52に入力された画像は、勾配積分画像算出部181に入力される。
この入力画像は、勾配積分画像算出部181、座標スキャン部182、特徴量ベクトル算出部183、識別部184により、順に処理されて、その処理の結果が識別部184から出力される。
識別部184から出力された処理の結果は、パターン認識による物体認識の処理の結果として、パターン認識による物体認識部52から出力されて、最終ターゲット認識部15に入力される。
そして、識別部184は、車両の画像のパターンをメモリに記憶しており、特徴量ベクトル算出部183から入力された情報(特徴量ベクトルの情報)に基づいて、画像(画像取得部12から出力される画像)の中で、識別閾値を用いて、メモリに記憶された車両の画像のパターンと同一または類似するものが映っていると推定される画像領域を識別(認識)し、その画像領域を特定する情報を物体認識の処理の結果として最終ターゲット認識部15に出力する。この識別の処理では、メモリに記憶された車両の画像のパターンとの一致度が識別閾値(例えば、弱識別器による線形和の値で強識別器の判定をする際の閾値)以上となる画像中の領域を、メモリに記憶された車両の画像のパターンと同一または類似するものが映っていると推定される画像領域として識別する。
従って、本実施形態に係る画像認識装置5によれば、物体の認識を精度良く行うことができ、ターゲットとする物体の検出に好適な装置を提供することができる。例えば、本実施形態に係る画像認識装置5によれば、3D解析手法による物体認識において得られた物体認識の処理の結果に基づく座標領域を優先してまたは重要視して、パターン認識による物体認識を行う際の識別閾値に関する設定を行うことができる。
図8は、本発明の第7実施形態に係る画像認識装置6の構成を示すブロック図である。
本実施形態に係る画像認識装置6は、単眼カメラ11と、画像取得部12と、3D解析手法による物体認識部61と、パターン認識による物体認識部62と、最終ターゲット認識部63と、距離・TTC確定部16と、トラッキング部17と、衝突警報部18と、ACC制御部19と、を備える。
このため、図8では、第1実施形態または第2実施形態と同様な構成部については、同一の符号を付してある。以下では、第1実施形態に係る画像認識装置1または第2実施形態に係る画像認識装置1aとは異なる点について詳しく説明する。
パターン認識による物体認識部62は、勾配積分画像算出部201と、座標スキャン部202と、特徴量ベクトル算出部203と、識別部204と、を備える。
画像取得部12からパターン認識による物体認識部62に入力された画像は、勾配積分画像算出部201に入力される。
この入力画像は、勾配積分画像算出部201、座標スキャン部202、特徴量ベクトル算出部203、識別部204により、順に処理されて、その処理の結果が識別部204から出力される。
そして、本実施形態では、識別部204から出力された処理の結果は、パターン認識による物体認識の処理の結果として、パターン認識による物体認識部62から出力されて、3D解析手法による物体認識部61の特徴点・オプティカルフロー検出部191に入力される。
画像取得部12から3D解析手法による物体認識部61に入力された画像は、特徴点・オプティカルフロー検出部191に入力される。
この入力画像は、特徴点・オプティカルフロー検出部191、自車に対する相対距離検出部192、クラスタリング部193により、順に処理されて、その処理の結果がクラスタリング部193から出力される。
クラスタリング部193から出力された処理の結果は、3D解析手法による物体認識の処理の結果として、3D解析手法による物体認識部61から出力されて、最終ターゲット認識部63に入力される。
本実施形態では、一例として、特徴点・オプティカルフロー検出部191がステップS1〜ステップS2の処理を実行し、自車に対する相対距離検出部192がステップS3〜ステップS6の処理を実行し、クラスタリング部193がステップS7の処理を実行する。
他の例に係る特徴点・オプティカルフロー検出部191は、パターン認識による物体認識部62の識別部204から入力されたパターン認識による物体認識の処理の結果(本実施形態では、車両が映っていると推定される画像領域を特定する情報)に基づいて、特徴点の検出やオプティカルフローの検出を行う領域の重要度を決定する。
本実施形態では、最終ターゲット認識部63は、3D解析手法による物体認識部61から入力された物体認識の処理の結果(本実施形態では、車両が映っていると推定される画像領域を特定する情報)に基づいて、認識対象の物体(本実施形態では、車両)であると特定した画像領域(座標の領域)を、最終的なターゲットの領域であると認識し、認識した最終的なターゲットの領域を特定する情報を距離・TTC確定部16に出力する。
このように、本実施形態では、3D解析手法による物体認識の結果が、最終的なターゲット認識の結果となる。
従って、本実施形態に係る画像認識装置6によれば、物体の認識を精度良く行うことができ、ターゲットとする物体の検出に好適な装置を提供することができる。例えば、本実施形態に係る画像認識装置6によれば、パターン認識による物体認識において確定した座標領域を優先してまたは重要視して、3D解析手法による物体認識を行う画像において、特徴点を検出する領域に関する設定やオプティカルフローを検出する領域に関する設定を行うことができる。
この構成では、クラスタリング部193は、パターン認識による物体認識部62の識別部204により得られたパターン認識による物体認識の結果に基づいて、認識対象の物体の識別を行う。
3D解析手法による物体認識部61のクラスタリング部193において、パターン認識による物体認識の処理の結果(パターン認識による物体領域)を優先してまたは重要視して判定する(物体を認識する)手法としては、様々な手法が用いられてもよく、例えば、画像中のあらかじめ定めた座標領域(例えば図3の1002)に、パターン認識による物体領域がある場合は、前記あらかじめ定めた座標領域に認識すべき物体が存在することを確定する手法や、パターン認識による物体領域と一致する部分のみを物体認識結果の範囲に含める手法や、パターン認識による物体領域と一致する部分の方が一致しない部分よりも物体認識結果の範囲に含まれ易くするように所定の閾値などを変更する手法などを用いることができる。
ここで、以上の実施形態では、図1、図4〜図8に示される装置を車載用として車両に設ける構成を示したが、他の例として、他の任意の移動体に設けることも可能である。
また、以上の実施形態では、3D解析手法による物体認識の手法として、非特許文献1に記載された手法を用いる構成を示したが、この手法に限定するものではなく、例えば、特徴点の抽出による3D解析手法の全般に適用することもできる。
また、以上の実施形態では、パターン認識による物体認識で用いるHOG特徴量として、輝度勾配の積分画像によるヒストグラム(インテグラルヒストグラム)での作成を例に述べたが、他の手法が用いられてもよい。
11…単眼カメラ 12…画像取得部
13、21、31、41、51、61…3D解析手法による物体認識部
14、22、32、42、52、62…パターン認識による物体認識部
15、63…最終ターゲット認識部
16…距離・TTC確定部 17…トラッキング部 18…衝突警報部
19…ACC制御部
101、121、142、161、181、201…勾配積分画像算出部
102、122、162、182、202…座標スキャン部
103、123、143、163、183、203…特徴量ベクトル算出部
104、124、144、164、184、204…識別部
126、141…座標のスキャン領域決定部
111、131、151、171、191…特徴点・オプティカルフロー検出部
112、132、152、172、192…自車に対する相対距離検出部
113、133、153、173、193…クラスタリング部
301…勾配強度検出部 302…勾配方向検出部
303…勾配方向ごとの勾配強度の積分部
311…セル単位の積分値算出部 312…ブロック正規化部
313…特徴量ベクトル算出処理部
Claims (15)
- 画像に対して3D解析手法による物体認識を行う3D解析手法による物体認識部と、
前記画像に対してパターン認識による物体認識を行うパターン認識による物体認識部と、を備え、
前記3D解析手法による物体認識部により得られる3D解析手法による物体認識の結果と前記パターン認識による物体認識部により得られるパターン認識による物体認識の結果に基づいて最終ターゲットの認識結果を得る、
ことを特徴とする画像認識装置。 - 前記3D解析手法による物体認識部により得られた3D解析手法による物体認識の結果と前記パターン認識による物体認識部により得られたパターン認識による物体認識の結果に基づいて、AND論理により、最終ターゲットの認識結果を得る最終ターゲット認識部を備える、
ことを特徴とする請求項1に記載の画像認識装置。 - 前記3D解析手法による物体認識部により得られた3D解析手法による物体認識の結果と前記パターン認識による物体認識部により得られたパターン認識による物体認識の結果に基づいて、OR論理により、最終ターゲットの認識結果を得る最終ターゲット認識部を備える、
ことを特徴とする請求項1に記載の画像認識装置。 - 前記パターン認識による物体認識部は、前記3D解析手法による物体認識部により検出した特徴点とオプティカルフローのうちの一方または両方に基づいて、座標のスキャン領域を決定する、
ことを特徴とする請求項1から請求項3のいずれか1項に記載の画像認識装置。 - 前記パターン認識による物体認識部は、前記3D解析手法による物体認識部により得られた3D解析手法による物体認識の結果に基づいて、座標のスキャン領域を決定する、
ことを特徴とする請求項1から請求項3のいずれか1項に記載の画像認識装置。 - 前記パターン認識による物体認識部は、前記3D解析手法による物体認識部により検出した特徴点とオプティカルフローのうちの一方または両方に基づいて、認識対象の物体の識別を行う、
ことを特徴とする請求項1から請求項3のいずれか1項に記載の画像認識装置。 - 前記パターン認識による物体認識部は、前記3D解析手法による物体認識部により検出した特徴点とオプティカルフローのうちの一方または両方に基づいて、認識対象の物体が映っている可能性が高いと推定される領域について、物体を認識し易くするように、パターン認識による物体認識において用いられる閾値を変更して、認識対象の物体の識別を行う、
ことを特徴とする請求項6に記載の画像認識装置。 - 前記パターン認識による物体認識部は、前記3D解析手法による物体認識部により得られた3D解析手法による物体認識の結果に基づいて、認識対象の物体の識別を行う、
ことを特徴とする請求項1から請求項3のいずれか1項に記載の画像認識装置。 - 前記パターン認識による物体認識部は、前記3D解析手法による物体認識部により得られた3D解析手法による物体認識の結果に基づいて、認識対象の物体が映っている可能性が高いと推定される領域について、物体を認識し易くするように、パターン認識による物体認識において用いられる閾値を変更して、認識対象の物体の識別を行う、
ことを特徴とする請求項8に記載の画像認識装置。 - 前記3D解析手法による物体認識部は、前記パターン認識による物体認識部により得られたパターン認識による物体認識の結果に基づいて、特徴点またはオプティカルフローのうちの一方または両方を検出する、
ことを特徴とする請求項1に記載の画像認識装置。 - 前記3D解析手法による物体認識部により得られた3D解析手法による物体認識の結果に基づいて最終ターゲットの認識結果を得る最終ターゲット認識部を備える、
ことを特徴とする請求項10に記載の画像認識装置。 - 前記3D解析手法による物体認識部は、前記パターン認識による物体認識部により得られたパターン認識による物体認識の結果に基づいて、認識対象の物体の識別を行う、
ことを特徴とする請求項1に記載の画像認識装置。 - 車載用の画像認識装置であり、
画像を撮像するカメラを備え、
前記3D解析手法による物体認識部および前記パターン認識による物体認識部は、前記カメラにより撮像される画像に対して物体認識を行う、
ことを特徴とする請求項1から請求項12のいずれか1項に記載の画像認識装置。 - 3D解析手法による物体認識部が、画像に対して3D解析手法による物体認識を行い、
パターン認識による物体認識部が、前記画像に対してパターン認識による物体認識を行い、
前記3D解析手法による物体認識部により得られる3D解析手法による物体認識の結果と前記パターン認識による物体認識部により得られるパターン認識による物体認識の結果に基づいて最終ターゲットの認識結果を得る、
ことを特徴とする画像認識方法。 - 3D解析手法による物体認識部により得られる3D解析手法による物体認識の結果とパターン認識による物体認識部により得られるパターン認識による物体認識の結果に基づいて最終ターゲットの認識結果を得るために、
3D解析手法による物体認識部が、画像に対して3D解析手法による物体認識を行う手順と、
パターン認識による物体認識部が、前記画像に対してパターン認識による物体認識を行う手順と、
をコンピュータに実行させるための画像認識プログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011206073A JP2013069045A (ja) | 2011-09-21 | 2011-09-21 | 画像認識装置、画像認識方法および画像認識プログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011206073A JP2013069045A (ja) | 2011-09-21 | 2011-09-21 | 画像認識装置、画像認識方法および画像認識プログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2013069045A true JP2013069045A (ja) | 2013-04-18 |
Family
ID=48474708
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011206073A Pending JP2013069045A (ja) | 2011-09-21 | 2011-09-21 | 画像認識装置、画像認識方法および画像認識プログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2013069045A (ja) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014135039A (ja) * | 2012-12-13 | 2014-07-24 | Denso Corp | 移動体検出装置 |
| WO2015104898A1 (ja) * | 2014-01-09 | 2015-07-16 | クラリオン株式会社 | 車両用外界認識装置 |
| JP2021051536A (ja) * | 2019-09-25 | 2021-04-01 | Kddi株式会社 | オブジェクト検出装置、方法及びプログラム |
| JP2021165983A (ja) * | 2020-04-08 | 2021-10-14 | 日本電気通信システム株式会社 | 検出装置、検出方法及びプログラム |
| CN115019305A (zh) * | 2022-08-08 | 2022-09-06 | 成都西交智汇大数据科技有限公司 | 一种根尖细胞的识别方法、装置、设备及可读存储介质 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07287756A (ja) * | 1994-02-23 | 1995-10-31 | Matsushita Electric Works Ltd | 物体認識方法 |
| JPH10269362A (ja) * | 1997-03-21 | 1998-10-09 | Omron Corp | 物体認識方法およびその装置 |
| JP2003502745A (ja) * | 1999-06-11 | 2003-01-21 | ダイムラークライスラー・アクチェンゲゼルシャフト | 相当の距離までの道路車両の付近にある物体の検出方法 |
| JP2005004287A (ja) * | 2003-06-10 | 2005-01-06 | Fuji Photo Film Co Ltd | 顔画像検出装置およびその制御方法 |
| JP2009026223A (ja) * | 2007-07-23 | 2009-02-05 | Toyota Central R&D Labs Inc | 物体検出装置及びプログラム |
-
2011
- 2011-09-21 JP JP2011206073A patent/JP2013069045A/ja active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07287756A (ja) * | 1994-02-23 | 1995-10-31 | Matsushita Electric Works Ltd | 物体認識方法 |
| JPH10269362A (ja) * | 1997-03-21 | 1998-10-09 | Omron Corp | 物体認識方法およびその装置 |
| JP2003502745A (ja) * | 1999-06-11 | 2003-01-21 | ダイムラークライスラー・アクチェンゲゼルシャフト | 相当の距離までの道路車両の付近にある物体の検出方法 |
| JP2005004287A (ja) * | 2003-06-10 | 2005-01-06 | Fuji Photo Film Co Ltd | 顔画像検出装置およびその制御方法 |
| JP2009026223A (ja) * | 2007-07-23 | 2009-02-05 | Toyota Central R&D Labs Inc | 物体検出装置及びプログラム |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014135039A (ja) * | 2012-12-13 | 2014-07-24 | Denso Corp | 移動体検出装置 |
| US9852334B2 (en) | 2012-12-13 | 2017-12-26 | Denso Corporation | Method and apparatus for detecting moving objects |
| WO2015104898A1 (ja) * | 2014-01-09 | 2015-07-16 | クラリオン株式会社 | 車両用外界認識装置 |
| JP2015132879A (ja) * | 2014-01-09 | 2015-07-23 | クラリオン株式会社 | 車両用外界認識装置 |
| US9811742B2 (en) | 2014-01-09 | 2017-11-07 | Clarion Co., Ltd. | Vehicle-surroundings recognition device |
| JP2021051536A (ja) * | 2019-09-25 | 2021-04-01 | Kddi株式会社 | オブジェクト検出装置、方法及びプログラム |
| JP7144384B2 (ja) | 2019-09-25 | 2022-09-29 | Kddi株式会社 | オブジェクト検出装置、方法及びプログラム |
| JP2021165983A (ja) * | 2020-04-08 | 2021-10-14 | 日本電気通信システム株式会社 | 検出装置、検出方法及びプログラム |
| JP7464263B2 (ja) | 2020-04-08 | 2024-04-09 | 日本電気通信システム株式会社 | 検出装置、検出方法及びプログラム |
| CN115019305A (zh) * | 2022-08-08 | 2022-09-06 | 成都西交智汇大数据科技有限公司 | 一种根尖细胞的识别方法、装置、设备及可读存储介质 |
| CN115019305B (zh) * | 2022-08-08 | 2022-11-11 | 成都西交智汇大数据科技有限公司 | 一种根尖细胞的识别方法、装置、设备及可读存储介质 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5297078B2 (ja) | 車両の死角における移動物体を検知するための方法、および死角検知装置 | |
| US10970871B2 (en) | Estimating two-dimensional object bounding box information based on bird's-eye view point cloud | |
| EP3338248B1 (en) | Systems and methods for object tracking | |
| EP3007099B1 (en) | Image recognition system for a vehicle and corresponding method | |
| KR101647370B1 (ko) | 카메라 및 레이더를 이용한 교통정보 관리시스템 | |
| JP5944781B2 (ja) | 移動体認識システム、移動体認識プログラム、及び移動体認識方法 | |
| CN110264495B (zh) | 一种目标跟踪方法及装置 | |
| JP6450294B2 (ja) | 物体検出装置、物体検出方法、及びプログラム | |
| US20140002657A1 (en) | Forward collision warning system and forward collision warning method | |
| JP7675339B2 (ja) | 物体追跡装置 | |
| US20120257056A1 (en) | Image processing apparatus, image processing method, and image processing program | |
| TWI595450B (zh) | 物件偵測系統 | |
| EP2951783B1 (en) | Method and system for detecting moving objects | |
| KR20180047149A (ko) | 충돌 위험 경고 장치 및 방법 | |
| CN108645375B (zh) | 一种用于车载双目系统快速车辆测距优化方法 | |
| WO2017051480A1 (ja) | 画像処理装置及び画像処理方法 | |
| CN103366155A (zh) | 通畅路径检测中的时间相干性 | |
| JP2018124963A (ja) | 画像処理装置、画像認識装置、画像処理プログラム、及び画像認識プログラム | |
| CN108629225B (zh) | 一种基于多幅子图与图像显著性分析的车辆检测方法 | |
| JP2013069045A (ja) | 画像認識装置、画像認識方法および画像認識プログラム | |
| WO2018143277A1 (ja) | 画像特徴量出力装置、画像認識装置、画像特徴量出力プログラム、及び画像認識プログラム | |
| US9183448B2 (en) | Approaching-object detector, approaching object detecting method, and recording medium storing its program | |
| WO2018143278A1 (ja) | 画像処理装置、画像認識装置、画像処理プログラム、及び画像認識プログラム | |
| KR101437228B1 (ko) | 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치 및 방법 | |
| Kundu et al. | SPEEDZO: Vehicle speed detection using Video Processing |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140910 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20140911 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150611 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150623 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20151020 |