JP2014191685A - 画像処理装置および画像処理方法 - Google Patents
画像処理装置および画像処理方法 Download PDFInfo
- Publication number
- JP2014191685A JP2014191685A JP2013068026A JP2013068026A JP2014191685A JP 2014191685 A JP2014191685 A JP 2014191685A JP 2013068026 A JP2013068026 A JP 2013068026A JP 2013068026 A JP2013068026 A JP 2013068026A JP 2014191685 A JP2014191685 A JP 2014191685A
- Authority
- JP
- Japan
- Prior art keywords
- determination
- image
- region
- area
- coordinate position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】検出対象領域の検出精度を高めることが可能な画像処理装置を提供する。
【解決手段】検出対象領域が識別された基準画像を複数の基準領域に分割し、画像の上下方向をY座標とした座標系で特定可能な基準領域から色情報を抽出し、Y座標が共通する基準領域の色情報の特徴に基づいて、各Y座標位置に対応する判定基準を取得する判定基準取得手段20と、第1撮像装置で撮像された基準画像の特徴点と、第2撮像装置で撮像された撮像画像の特徴点とに基づいて、基準画像のY座標位置と撮像画像のY座標位置との対応関係を定義した参照テーブルを取得する参照テーブル取得手段20と、撮像画像を複数の判定領域に分割し、判定領域から色情報を抽出する抽出手段20と、参照テーブルに基づいて判定領域のY座標位置に対応する判定基準を取得し、該判定基準を用いて判定領域が検出対象領域であるかを判定する判定手段20と、を備える画像処理装置。
【選択図】図1
【解決手段】検出対象領域が識別された基準画像を複数の基準領域に分割し、画像の上下方向をY座標とした座標系で特定可能な基準領域から色情報を抽出し、Y座標が共通する基準領域の色情報の特徴に基づいて、各Y座標位置に対応する判定基準を取得する判定基準取得手段20と、第1撮像装置で撮像された基準画像の特徴点と、第2撮像装置で撮像された撮像画像の特徴点とに基づいて、基準画像のY座標位置と撮像画像のY座標位置との対応関係を定義した参照テーブルを取得する参照テーブル取得手段20と、撮像画像を複数の判定領域に分割し、判定領域から色情報を抽出する抽出手段20と、参照テーブルに基づいて判定領域のY座標位置に対応する判定基準を取得し、該判定基準を用いて判定領域が検出対象領域であるかを判定する判定手段20と、を備える画像処理装置。
【選択図】図1
Description
本発明は、画像処理装置および画像処理方法に関するものである。
従来より、道路の路面などの検出対象領域をラベル付けした基準画像に基づいて、検出対象領域の色情報の特徴を学習させることで、この学習結果に基づいて、道路の路面などの検出対象領域を撮像した撮像画像から検出対象領域を検出する技術が知られている(たとえば、特許文献1参照)。
しかしながら、従来技術では、たとえば、第1撮像装置で撮像した基準画像に基づく学習結果を用いて、第1撮像装置とは異なる第2撮像装置で撮像した撮像画像から検出対象領域を検出する場合に、第1撮像装置と第2撮像装置とが画角、高さ、俯角、および撮影方向などの撮影条件が異なる場合には、たとえ撮影場所が同じであっても、第1撮像装置で撮像された基準画像と第2撮像装置で撮像された撮像画像で得られる色情報は異なるため、検出対象領域の検出精度が低下してしまうという問題があった。
本発明の課題は、第1撮像装置で撮像した基準画像での学習結果に基づいて、第1撮像装置と撮影条件の異なる第2撮像装置で撮像した撮像画像から検出対象領域を検出する場合に、検出対象領域の検出精度の低下を有効に防止することが可能な画像処理装置を提供することである。
本発明は、第1撮像装置により撮像された基準画像に基づいて定義された判定基準を用いて、第1撮像装置とは異なる撮影条件を備えた第2撮像装置により撮像された撮像画像から検出対象領域を検出する際に、第2撮像装置により撮像された撮像画像を複数の判定領域に分割し、判定領域から色情報を抽出し、該判定領域のY座標位置に対応する判定基準を用いて、該判定領域の色情報に基づいて、該判定領域が前記対象領域であるか否かを判定することで、上記課題を解決する。
本発明によれば、第1撮像装置と第2撮像装置との撮影条件が異なる場合でも、基準画像のY座標位置と撮像画像のY座標位置との対応関係を示す参照テーブルを参照して、判定領域のY座標位置に対応する判定基準を適切に選択することができ、これにより、選択した判定基準を用いて、判定領域が検出対象領域であるか否かを判定することで、検出対象領域の検出精度を高めることができる。
以下、図面に基づいて、本発明の実施形態について説明する。なお、以下においては、車両に搭載され、車両周辺を撮像した撮像画像から検出対象領域である自車両の走路を検出する画像処理システムを例示して、本発明を説明する。
図1は、本実施形態に係る画像処理システムの概略構成図である。本実施形態に係る画像処理システム1は、図1に示すように、カメラ10と、画像処理装置20と、記憶装置30とを備える。
カメラ10は、CCDイメージセンサ、MOSセンサ、又はCID等の複数の光電変換素子が二次元に配置された撮像素子を備えている。このカメラ10の撮像素子の撮像面には、たとえばベイヤー配列により、赤色(R)、緑色(G)、および青色(B)に対応するカラーフィルターが配置されており、赤色(R)に対応するカラーフィルターが配置されたR画素からR成分の画像信号が、緑色(G)に対応するカラーフィルターが配置されたG画素からG成分の画像信号が、青色(B)に対応するカラーフィルターが配置されたB画素からB成分の画像信号がそれぞれ出力される。
また、カメラ10は、図1に示すように、高さhの箇所において、俯角がθとなるように車両前方に取り付けられている。カメラ10は、この位置から、自車両の進行方向前方を撮像するように設置されており、これにより、自車両が走行する道路の路面(以下、走路ともいう。)を含む撮影領域を撮像する。なお、カメラ10により撮像された撮像画像は、画像処理装置20に送信される。
記憶装置30は、検出対象領域(走路)をラベル付けした複数のサンプル画像を記憶している。図2は、記憶装置30に記憶されているサンプル画像の一例を示す図である。記憶装置30に記憶されているサンプル画像は、予め撮像されたカラー画像であり、たとえば、図2に示すように、設計者や開発者の手作業により、検出対象領域である道路の路面(走路)がラベル付け(識別)されたものである。なお、図2においては、ラベル付けをしたサンプル画像の画像領域(走路)をグレーで示している。
また、記憶装置30に記憶されているサンプル画像は、本実施形態のカメラ10とは異なり、他車両に搭載されたカメラ(以下、カメラAという)により撮像されたものである。図3は、他車両に搭載されたカメラAの設置例を示す図である。カメラAは、高さ、画角、俯角、撮影方向のうち少なくとも1つの撮影条件が、本実施形態のカメラ10の撮影条件と異なっており、そのため、同じ場所で同じ被写体を撮影した場合でも、カメラAで撮像されるサンプル画像と、カメラ10により撮像される撮像画像とでは撮像される被写体(構図)が異なることとなる。たとえば、図3に示す例では、カメラAは高さがh’、俯角がθ’となるように設置されており、図2に示すカメラ10の撮影条件と異なる撮影条件を有しているため、カメラ10で撮影される被写体(構図)と異なることとなる。
さらに、記憶装置30には、サンプル画像を撮像したカメラAの撮影条件、すなわち、カメラAの高さh’、画角、俯角θ’、撮影方向などが記憶されている。同様に、記憶装置30には、撮像画像を撮像するカメラ10の撮影条件、すなわち、カメラ10の高さh、画角、俯角θ、撮影方向などが記憶されている。
次に、画像処理装置20について説明する。画像処理装置20は、各種プログラムが格納されたROM(Read Only Memory)と、このROMに格納されたプログラムを実行する動作回路としてのCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)と、を備えている。
本実施形態に係る画像処理装置20は、いわゆるランダムフォレスト法に基づいて、記憶装置30に記憶している複数のサンプル画像から、検出対象領域あるいは非検出対象領域の色情報の特徴を学習させることで、カメラ10により撮像された撮像画像から検出対象領域を検出するものである。本実施形態に係る画像処理装置20は、上述した機能を実現するために、判定基準生成機能と、撮像画像取得機能と、色情報抽出機能と、参照テーブル生成機能と、対象領域判定機能との各機能を実現する。以下に、画像処理装置20が実現する各機能について説明する。
まず、画像処理装置20の判定基準生成機能について説明する。判定基準生成機能は、記憶装置30に記憶されているサンプル画像に基づいて、カメラ10で撮像した撮像画像において検出対象領域(走路)を判定するための判定基準を生成する。具体的には、判定基準生成機能は、まず、記憶装置30に記憶されている複数のサンプル画像をそれぞれ複数の領域に分割し、分割した複数の領域を基準領域として特定する。ここで、図4は、基準領域を説明するための図である。図4に示す例では、判定基準生成機能は、サンプル画像を11×15=165個の基準領域に分割する。なお、図4では、説明の便宜上、サンプル画像を165個の基準領域に分割する構成を例示したが、基準領域の数は、この例に限定されるものではなく、165よりも小さくすることも、大きくすることもできる。
次に、判定基準生成機能は、サンプル画像を構成する各基準領域から色情報を抽出する。具体的には、判定基準生成機能は、基準領域に対応する各画素からR成分,G成分、またはB成分の画像信号を抽出し、基準領域ごとに、R成分、G成分、およびB成分に応じた3つのヒストグラムを生成する。ここで、図5は、基準領域の色情報(RGB成分)のヒストグラムの一例を示す図であり、(A)はR成分のヒストグラムを、(B)はG成分のヒストグラムを、(C)はB成分のヒストグラムの一例を示している。
たとえば、判定基準生成機能は、図5(A)に示すように、基準領域内のR画素から抽出したR成分の成分値の大きさを、たとえば4つの範囲に分け、それぞれの範囲に含まれるR画素の画素数に基づいて度数をカウントすることで、R成分のヒストグラムを生成する。同様に、判定基準生成機能は、図5(B)に示すように、基準領域内のG画素から抽出したG成分に基づいて、G成分のヒストグラムを生成し、また、図5(C)に示すように、基準領域内のB画素から抽出したB成分に基づいて、B成分のヒストグラムを生成する。
そして、判定基準生成機能は、サンプル画像を構成する全ての基準領域において、R成分、G成分、およびB成分に応じた3つのヒストグラムを生成し、さらに、記憶装置30に記憶されている全てのサンプル画像についても同様の処理を行うことで、全てのサンプル画像の全ての基準領域から、R成分、G成分、およびB成分に応じた3つのヒストグラムを生成する。
また、判定基準生成機能は、基準領域の色情報として、基準領域から彩度S、明度V、色相H(以下、HSV成分ともいう。)を抽出する構成としてもよい。具体的には、判定基準生成機能は、まず、基準領域の各画素から抽出したRGB成分を変換して、基準領域の彩度S、明度V、色相Hを算出する。
そして、判定基準生成機能は、算出した基準領域内の各画素領域の彩度Sの大きさを、4つの範囲に分け、それぞれの範囲に含まれる画素数の数に基づいて度数をカウントすることで、基準領域内の彩度Sのヒストグラムを生成することができる。同様に、判定基準生成機能は、算出した基準領域内の明度Vおよび色相Hの大きさに基づいて、基準領域内の明度Vのヒストグラム、および基準領域内の色相Hのヒストグラムを生成することができる。なお、この場合も、判定基準生成機能は、サンプル画像を構成する全ての基準領域において、彩度S、明度V、および色相Hに応じた3つのヒストグラムを生成することで、基準領域ごとに、彩度S、明度V、および色相Hの3つのヒストグラムを生成する。また、判定基準生成機能は、記憶装置30に記憶されている全てのサンプル画像について同様の処理を行い、全てのサンプル画像の全ての基準領域から、HSV成分に応じた3つのヒストグラムを生成する。
そして、判定基準生成機能は、図5に示すように、基準領域のR成分、G成分、およびB成分の3つのヒストグラムを、この基準領域の座標位置とともに記憶する。ここで、図5に示す例では、画面の左上の座標位置を原点(0,0)とした二次元画像座標系において、画面の左方向から右方向にX軸を、画面の上方向から下方向にY軸をとっている。判定基準生成機能は、このような二次元画像座標系において、各基準領域の座標位置を取得し、各基準領域の座標位置を、該基準領域の色情報に基づいて生成した3つのヒストグラムとともに記憶する。たとえば、図5に示す例では、画面の左上の座標位置を原点(0,0)とした二次元画像座標系において、X座標が12、Y座標が6の基準領域を例示しており、この場合、判定基準生成機能は、図5に示すように、この基準領域の3つのヒストグラムと、この基準領域の座標位置(12,6)とを、記憶装置30に記憶する。なお、原点の座標は画面の左上に限定されず、たとえば画面の左下であってもよい。
また、判定基準生成機能は、消失点が存在する座標位置を原点O(0,0)として、各基準領域の座標位置を特定する構成としてもよい。このように、消失点が存在する座標位置を原点とした二次元画像座標系において、基準領域の座標位置を求めることで、たとえば、消失点よりも上部の画像領域は検出対象領域(走路)ではないと判断して、検出対象領域の検出対象から除外することができ、これにより、検出対象領域をより高い精度で算出することが可能となる。なお、消失点は、公知の方法により求めればよい。
そして、判定基準生成機能は、複数のサンプル画像の複数の基準領域のうち、上述した二次元画像座標系において、座標位置が共通する基準領域の色情報に基づいて、該座標位置に対応する画像が検出対象領域であるか否かを判定(分類)するための判定基準を生成する。たとえば、判定基準生成機能は、複数のサンプル画像の複数の基準領域から座標位置が共通する複数の基準領域を抽出し、抽出した複数の基準領域のR成分、G成分、B成分の各ヒストグラム(あるいは、彩度S、明度V、色相Hの各ヒストグラム)と、該基準領域のラベル付けの有り無し(すなわち、検出対象領域であるか否か)との関係を、所定のアルゴリズムに基づいて対応付けることで、基準領域の色情報から該基準領域が検出対象領域であるか否かを判定(分類)するための分類木を判定基準として生成することができる。
たとえば、判定基準生成機能は、座標位置が共通する複数の基準領域のR成分のヒストグラムに基づいて、該座標位置に対応する画像が検出対象領域であるか否かを判定(分類)するための分類木を生成し、生成した分類木を、該座標位置のR成分に対応する判定基準として記憶装置30に記憶する。同様に、判定基準生成機能は座標位置のG成分に対応する判定基準と、座標位置のG成分に対応する判定基準とを記憶装置30に記憶する。
このように、判定基準生成機能は、R成分、G成分、B成分の各ヒストグラム(あるいは、彩度S、明度V、色相Hの各ヒストグラム)に基づいて、座標位置ごとに、R成分、G成分、B成分(あるいは、彩度S、明度V、色相H)に対応する3つの分類木を、R成分、G成分、B成分(あるいは、彩度S、明度V、色相H)に対応する判定基準として生成し、座標位置ごとに生成した判定基準を記憶装置30に記憶する。
画像処理装置20の撮像画像取得機能は、カメラ10が撮像した撮像画像を、カメラ10から取得する。
画像処理装置20の色情報抽出機能は、撮像画像取得機能により取得された撮像画像から色情報を抽出する。具体的には、色情報抽出機能は、まず、カメラ10で撮像された撮像画像を、複数の領域に分割し、分割した複数の領域を判定領域として特定する。たとえば、色情報抽出機能は、図3に示すように、判定基準機能によりサンプル画像を分割した基準領域の分割数と同様に、撮像画像を11×15=165個の領域に分割し、これらの領域を判定領域として特定する。
そして、色情報抽出機能は、特定した各判定領域から色情報を抽出する。たとえば、色情報抽出機能は、図3に示すように、判定領域内のR画素からR成分の画像信号を、G画素からG成分の画像信号を、B画素からB成分の画像信号をそれぞれ抽出し、これにより、図5に示すように、この判定領域内のR成分のヒストグラムと、G成分のヒストグラムと、B成分のヒストグラムとを生成する。あるいは、色情報抽出機能は、判定領域のRGB成分をHSV成分に変換することで、判定領域内のH成分(色相)のヒストグラムと、S成分(彩度)のヒストグラムと、V成分(明度)のヒストグラムとを生成する。
画像処理装置20の参照テーブル生成機能は、サンプル画像の座標位置と判定領域の座標位置とを対応付けた参照テーブルの生成を行う。具体的には、参照テーブル生成機能は、撮影範囲が共通する基準領域と判定領域とを特定し、特定した基準領域の座標位置と判定領域の座標位置とを対応付けた参照テーブルを生成する。
ここで、記憶装置30に記憶されている判定基準は、他車両に搭載されたカメラAにより撮像されたサンプル画像に基づいて、基準領域ごとに生成されたものである。そのため、他車両に搭載されたカメラAと、自車両に搭載されたカメラ10とが、高さ、画角、俯角、撮影方向などの撮影条件が一致している場合には、判定領域と座標位置が共通する基準領域の判定基準を用いて、この判定領域が検出対象領域であるか否かを判定することができる。しかしながら、本実施形態では、他車両に搭載されたカメラAと、自車両に搭載されたカメラ10とが、高さ、画角、俯角、撮影方向のうち少なくとも1つの撮影条件が異なるため、判定領域と座標位置が共通する基準領域の判定基準をそのまま用いて、この判定領域が検出対象領域であるか否かを判定する場合には、次のような問題があった。
図7(A)は、他車両に搭載されたカメラAにより撮像されたサンプル画像の一例を示す図であり、図7(B)は、本実施形態に係るカメラ10により撮像された撮像画像の一例を示す図である。たとえば、図7(A)に示すように、カメラAの撮影条件により、所定の座標位置(xi,yi)において、カメラAからの撮影距離がLメートルの路面が撮影されるが、図7(B)に示すように、カメラAの撮影条件と異なるカメラ10の撮影条件では、同じ座標位置(xi,yi)において、カメラ10からの撮影距離がL’メートル(L≠L’)の路面が撮影されてしまう。このように、カメラAの撮影条件とカメラ10の撮影条件とが異なる場合には、たとえカメラAとカメラ10とが同じ撮影場所で撮影した場合でも、サンプル画像の座標位置(xi,yi)で撮像される撮影範囲(各基準領域が撮影する範囲)と、撮像画像の座標位置(xi,yi)で撮像される撮像範囲(各判定領域が撮影する範囲)とは異なる。一方、図7に示す例では、サンプル画像の座標位置(xi,yi)の撮影範囲と、撮像画像の座標位置(xt,yt)の撮影範囲とが共通し、カメラAとカメラ10とが同じ撮影場所で撮影した場合に、サンプル画像の座標位置(xi,yi)と、撮像画像の座標位置(xt,yt)とが同一の被写体を撮影することとなる。
そのため、図8に示すように、カメラAで撮像したサンプル画像の座標位置(xi,yi)での色情報は、カメラ10で撮像した撮像画像の座標位置(xt,yt)での色情報とは類似せず、撮像画像の座標位置(xt,yt)での色情報と類似する。このように、カメラAとカメラ10との撮影条件が異なる場合には、カメラAで撮像されたサンプル画像の座標位置(xi,yi)の色情報と、カメラ10で撮像された撮像画像の座標位置(xi,yi)の色情報とは異さ、サンプル画像の座標位置(xi,yi)で撮像された画像の色情報に基づいて生成された判定基準を、撮像画像の座標位置(xi,yi)にそのまま適用してしまうと、検出対象領域の判定精度が低下してしまうこととなる。
そこで、本実施形態では、撮影範囲が共通するサンプル画像の座標位置と撮像画像の座標位置とを特定し、撮影範囲が共通するサンプル画像の座標位置と撮像画像の座標位置とを対応付けた参照テーブルを生成する。たとえば、図7(A),(B)に示す例では、カメラAにより撮像されたサンプル画像の座標位置(xi,yi)は、カメラ10で撮像された撮像画像の座標位置(xt,yt)と撮影範囲が共通するため、参照テーブル生成機能は、サンプル画像の座標位置(xi,yi)と、撮像画像の座標位置(xt,yt)とを対応付け、同様に、他のサンプル画像の座標位置においても、撮影範囲が共通する撮像画像の座標位置と対応付けることで、参照テーブルを生成する。
具体的には、参照テーブル生成機能は、たとえば、カメラAで撮像したサンプル画像と、カメラ10で撮像した撮像画像とから、チェッカーボード、レーンマーク、道路標示などの既知の像を検出し、これらの像から特徴点を抽出する。そして、サンプル画像から抽出した特徴点の座標位置と、撮像画像から抽出した特徴点の座標位置とに基づいて、DLT(Direct Linear Transform)法などにより変換行列を算出し、この変換行列により、カメラAで撮像したサンプル画像の座標位置と、カメラ10で撮像したサンプル画像の座標位置とを対応付ける。このように、大きさなどが既知のマーカーを用いることで、カメラAで撮像したサンプル画像の座標位置と、カメラ10で撮像したサンプル画像の座標位置とを対応付けることができる。
たとえば、参照テーブル生成機能は、同一のチェッカーボードを撮像したサンプル画像と撮像画像とから、それぞれ4点以上の特徴点を検出する。そして、参照テーブル生成機能は、DLT法を用いて、これらの特徴点から3×3の変換行列を算出する。さらに、参照テーブル生成機能は、最適化問題として、射影誤差が所定値以下となるまで変換行列の算出を繰り返し、最終的に、射影誤差が所定値以下となる変換行列を算出する。そして、参照テーブル生成機能は、算出した変換行列を用いて、サンプル画像の座標位置と撮像画像の座標位置との対応関係を特定し、サンプル画像の座標位置と撮像画像の座標位置とを対応付けた参照テーブルを生成する。
また、参照テーブル生成機能は、チェッカーボートの代わりに、大きさが既知の白線や道路標示を用いて、サンプル画像の座標位置と撮像画像の座標位置とを対応付ける構成としてもよい。ここで、図8は、白線を用いた参照テーブルの生成方法の一例を説明するための図であり、図8(A)は、白線を撮像したサンプル画像の一例を示す図であり、図8(B)は、白線を撮像した撮像画像の一例を示す図である。たとえば、参照テーブル生成機能は、図8(A)に示すように、サンプル画像内で白線を検出し、検出した白線と白線の間の領域を白線間領域として特定する。そして、この白線間領域の4つの頂点を特徴点として検出する。同様に、参照テーブル生成機能は、図8(B)に示すように、撮像画像内で白線間領域を特定し、白線間領域の4つの頂点を特徴点として検出する。そして、参照テーブル生成機能は、サンプル画像内で検出した4つの特徴点と、撮像画像内で検出した4つの特徴点とから変換行列を算出し、算出した変換行列に基づいて、サンプル画像の座標位置と撮像画像の座標位置とを対応付けた参照テーブルを生成する。同様に、参照テーブル生成機能は、道路の路面に描画された道路標示から所定の特徴点を抽出することで、サンプル画像の座標位置と撮像画像の座標位置とを対応付けた参照テーブルを生成することができる。
画像処理装置20の対象領域判定機能は、判定基準生成機能により生成された判定基準を用いて、撮像画像を構成する各判定領域が検出対象領域(走路)であるか否かを判定する。ここで、上述したように、判定基準生成機能により生成された判定基準は、検出対象領域をラベル付けした複数のサンプル画像に基づいて、画像の色情報の特徴と、検出対象領域あるいは非検出対象領域との関係を、座標位置ごとに学習させた分類木である。そのため、対象領域判定機能は、判定領域に対応する判定基準を用いることで、判定領域の色情報の特徴から、該判定領域が検出対象領域であるか否かを判定(分類)することができる。
具体的には、対象領域判定機能は、まず、参照テーブル生成機能により生成された参照テーブルに基づいて、判定領域と共通の撮像範囲を撮像する基準領域を特定し、この基準領域の色情報に基づいて生成された判定基準(以下、判定領域に対応する判定基準という。)を、記憶装置30から読み出す。
そして、対象領域判定機能は、判定領域に対応する判定基準を用いて、色情報抽出機能により抽出された判定領域の色情報から、この判定領域が検出対象領域であるか否かを判定する。たとえば、図7(A)に示すサンプル画像の座標位置(xi,yi)の基準領域と、図7(B)に示す撮像画素の座標位置(xt,yt)の判定領域とは撮像範囲が共通しており、対象領域判定機能は、参照テーブルを参照して、座標位置(xi,yi)の基準領域の色情報に基づいて生成された判定基準を用いて、座標位置(xt,yt)の判定領域が検出対象領域であるか否かを判定する。
より具体的には、対象領域判定機能は、判定領域に対応するR成分の判定基準に基づいて、この判定領域のR成分のヒストグラムの特徴から、この判定領域が検出対象領域あるいは非検出対象領域のいずれかであるかを判定(分類)する。また、同様に、対象領域判定機能は、判定領域に対応するG成分の判定基準に基づいて、この判定領域のG成分のヒストグラムの特徴から、この判定領域が検出対象領域であるか否かを判定し、また、判定領域に対応するB成分の判定基準に基づいて、この判定領域のB成分のヒストグラムの特徴から、この判定領域が検出対象領域であるか否かを判定する。これにより、対象領域判定機能は、この判定領域が検出対象領域であるか否かの判定結果を3つ得ることができる。
また、判定基準生成機能により彩度S、明度V、および色相Hの色情報に基づいて判定基準が生成されている場合には、対象領域判定機能は、色情報抽出機能により抽出された判定領域の彩度S、明度V、および色相Hのヒストグラムから、判定領域が検出対象領域であるか否かを判定する。たとえば、対象領域判定機能は、判定領域に対応する彩度Sの判定基準を用いて、この判定領域の彩度Sのヒストグラムの特徴から、この判定領域が検出対象領域であるか否かを判定する。同様に、対象領域判定機能は、判定領域に対応する明度Vの判定基準を用いて、この判定領域の明度Vのヒストグラムの特徴から、この判定領域が検出対象領域であるか否かを判定し、また、判定領域に対応する色相Hの判定基準を用いて、この判定領域の色相Hのヒストグラムの特徴から、この判定領域が検出対象領域であるか否かを判定する。この場合も、対象領域判定機能は、3つの判定結果を得ることができる。
そして、対象領域判定機能は、取得した3つの判定結果に基づいて、この判定領域が検出対象領域であるか否かを判定する。すなわち、対象領域判定機能は、この3つの判定結果において、判定領域が検出対象領域であるとの判定結果が多い場合には、この判定領域は検出対象領域であると判定し、判定領域が検出対象領域ではないとの判定結果が多い場合には、この判定領域は検出対象領域ではないと判定する。
さらに、対象領域判定機能は、撮像画像を構成する全ての判定領域について同様の処理を行い、各判定領域が検出対象領域であるか否かを判定する。これにより、対象領域判定機能は、撮像画像から検出対象領域を検出することができる。
続いて、図10を参照して、本実施形態に係る判定基準生成処理について説明する。図10は、本実施形態に係る判定基準生成処理を示すフローチャートである。なお、以下に説明する判定基準生成処理は、画像処理装置20の判定基準生成機能により実行される。
まず、ステップS101では、記憶装置30に記憶されている複数のサンプル画像のうち、判定基準の生成が行われていないサンプル画像の取得が行われる。そして、ステップS102では、図2に示すように、ステップS101で取得されたサンプル画像が複数の基準領域に分割される。たとえば、図2に示す例では、11×15=165の基準領域に分割される。
ステップS103〜S106では、ステップS102で分割された複数の基準領域のそれぞれについて、ステップS103〜S106の処理が行われる。まず、ステップS103では、ステップS103〜S106の処理が行われていない基準領域が取得される。
そして、ステップS104では、ステップS103で取得された基準領域から色情報の抽出が行われる。具体的には、判定基準生成機能は、図4に示すように、基準領域内のR画素、G画素、およびB画素から、R成分、G成分、およびB成分をそれぞれ抽出し、抽出した画素領域内のR成分、G成分、B成分の分布をヒストグラムとして生成する。また、基準領域のRGB成分をHSV成分に変換することで、R成分、G成分、B成分のヒストグラムに代えて、彩度S、明度V、色相Hのヒストグラムを生成する構成としてもよい。
ステップS105では、ステップS104で色情報の抽出が行われた基準領域について、基準領域の座標位置の取得が行われる。たとえば、図6に示す例では、判定基準生成機能は、画面左上の座標位置を原点(0,0)とした二次元画像座標系において、基準領域の座標位置を(12,6)として取得する。また、判定基準生成機能は、消失点を検出し、検出された消失点が存在する座標位置を原点とした二次元画像座標系において、基準領域の座標位置を取得する構成としてもよい。
ステップS106では、ステップS103で抽出された基準領域の色情報、すなわち、基準領域内のR成分、G成分、B成分のヒストグラム(あるいは、彩度S、明度V、色相Hのヒストグラム)と、ステップS104で取得した基準領域の座標位置とが、記憶装置30に記憶される。
そして、ステップS107では、ステップS102で分割された全ての基準領域について、ステップS103〜S106の処理が実施されたか否かの判断が行われる。ステップS102で分割された全ての基準領域について、ステップS103〜S106の処理が実施された場合には、ステップS108に進み、一方、ステップS102で分割された全ての基準領域について、ステップS103〜S106の処理が実施されていない場合には、ステップS103に戻り、ステップS103〜S106の処理が実施されていない基準領域について、ステップS103〜S106の処理が実施される。これにより、サンプル画像を分割した全ての基準領域について、R成分、G成分、B成分のヒストグラム(あるいは、彩度S、明度V、色相Hのヒストグラム)と、座標位置とが得られることとなる。
ステップS108では、ステップS101で取得された全てのサンプル画像について、ステップS102〜S107の処理が実施されたか否かの判断が行われる。ステップS101で取得された全てのサンプル画像について、ステップS102〜S107の処理が実施された場合には、ステップS109に進む。一方、ステップS101で取得された全てのサンプル画像について、ステップS102〜S107の処理が実施されていない場合には、ステップS101に戻り、ステップS102〜S107の処理が実施されていないサンプル画像について、ステップS102〜S107の処理が実施される。これにより、記憶装置30に記憶されている全てのサンプル画像の全ての基準領域について、R成分、G成分、B成分のヒストグラム(あるいは、彩度S、明度V、色相Hのヒストグラム)と、座標位置とが得られることとなる。
ステップS109では、全てのサンプル画像の全ての基準領域についてのR成分、G成分、B成分のヒストグラム(あるいは、彩度S、明度V、色相Hのヒストグラム)と、座標位置とが、記憶装置30から読み出される。そして、読み出した複数の基準領域のうち、二次元画像座標系において座標位置が共通する基準領域の色情報に基づいて、この座標位置における画像が検出対象領域であるか否かを判定(分類)するための分類木の生成が行われる。
具体的には、判定基準生成機能は、読み出した複数の基準領域のうち、二次元画像座標系において座標位置が共通する基準領域のR成分、G成分、B成分のヒストグラム(あるいは、彩度S、明度V、色相Hのヒストグラム)から、R成分、G成分、B成分(あるいは、彩度S、明度V、色相H)に対応する分類木をそれぞれ生成する。すなわち、判定基準生成機能は、所定のアルゴリズムに基づいて、基準領域のR成分、G成分、B成分(あるいは、彩度S、明度V、色相H)ごとに、各成分がどのような分布であれば、検出対象領域であると判定(分類)することができ、あるいは、検出対象領域ではないと判定(分類)することができるかを学習させることで、座標位置ごとに、画像が検出対象領域であるか否かを判定(分類)するための分類木を生成する。このように、本実施形態では、座標位置ごとに、R成分、G成分、B成分のヒストグラム(あるいは、彩度S、明度V、色相Hのヒストグラム)に基づく3つの分類木を生成する。
そして、判定基準生成機能は、座標位置ごとに生成した3つの分類木を、各座標位置に対応する判定基準として、記憶装置30に記憶する。このように、本実施形態では、検出対象領域を判定するための判定基準の生成が行われる。
次に、図11を参照して、本実施形態に係る参照テーブル生成処理について説明する。参照テーブル生成処理は、他車両のカメラAにより撮像されたサンプル画像と、自車両のカメラ10により撮像された撮像画像との対応関係を示す参照テーブルを生成する処理である。図11は、本実施形態に係る参照テーブル生成処理を示すフローチャートである。なお、以下に説明する参照テーブル生成処理は、所定のタイミングで行ってもよいし、あるいは、本実施形態に係る対象領域検出処理を初めて実行する前に一度だけ実行してもよい。
まず、ステップS201では、画像処理装置20の参照テーブル生成機能により、他車両のカメラAにより撮像されたサンプル画像の取得が行われる。本実施形態では、他車両のカメラAにより撮像されたサンプル画像が予め記憶装置30に記憶されており、参照テーブル生成機能は、カメラAにより撮像されたサンプル画像を記憶装置30から取得することができる。
ステップS202では、画像処理装置20の参照テーブル生成機能により、ステップS201で取得されたサンプル画像から特徴点の検出が行われる。たとえば、参照テーブル生成機能は、サンプル画像に撮像されたチェッカーボード、レーンマーク(白線または黄色の線)、道路標示などから特徴点を抽出することができる。
ステップS203では、画像処理装置20の撮像画像取得機能により、自車両のカメラ10により撮像された撮像画像の取得が行われる。そして、ステップS204では、ステップS203で取得された撮像画像から特徴点の抽出が行われる。すなわち、ステップS204では、ステップS202と同様に、たとえば、撮像画像に撮像されたチェッカーボード、レーンマーク(白線または黄色の線)、道路標示などから特徴点を抽出することができる。
そして、ステップS205では、画像処理装置20の参照テーブル生成機能により、ステップS202で抽出されたサンプル画像の特徴点と、ステップS204で抽出された撮像画像の特徴点とに基づいて、射影変換(たとえばDLT法)による変換行列の算出が行われる。そして、ステップS206では、算出した変換行列を用いて、サンプル画像の座標位置と、撮像画像の座標位置との対応関係が特定され、これにより、参照テーブルが生成される。
なお、ステップS204では、ステップS202においてチェッカーボードの像から特徴点が抽出された場合には、同一のチェッカーボードの像から特徴点を抽出し、同様に、ステップS202において、レーンマークの像から特徴点が抽出された場合にはレーンマークの像から特徴点を、道路標示の像から特徴点が抽出された場合には道路標示の像から特徴点をそれぞれ抽出する。これらの被写体は、撮像場所にかかわらず大きさが一定であるため、異なる撮影場所でサンプル画像および撮像画像を撮影した場合でも、サンプル画像の座標位置と、撮像画像の座標位置との対応関係を特定することができる。
また、上述した参照テーブルの生成方法は一例であり、参照テーブル生成機能は、他の方法で参照テーブルを生成することもできる。たとえば、参照テーブル生成機能は、カメラAの高さ、画角、俯角などの撮影条件に基づいて各基準領域が撮像する撮影範囲を算出するとともに、カメラ10の高さ、画角、俯角などの撮影条件とに基づいて各判定領域が撮像する撮影範囲を算出することで、サンプル画像の座標位置と撮像画像の座標位置との対応関係を特定し、これにより、参照テーブルを生成する構成とすることができる。なお、カメラAの撮影条件およびカメラ10の撮影条件は予め記憶装置30に記憶されており、参照テーブル生成機能は、カメラAの撮影条件およびカメラ10の撮影条件を記憶装置30から取得することができる。
続いて、図12を参照して、本実施形態に係る対象領域検出処理について説明する。図12は、本実施形態に係る対象領域検出処理を示すフローチャートである。なお、以下に説明する対象領域検出処理は、画像処理装置20により実行される。
まず、ステップS301では、画像処理装置20の撮像画像取得機能により、カメラ10で撮像された撮像画像の取得が行われる。そして、ステップS302では、画像処理装置20の色情報抽出機能により、ステップS301で取得された撮像画像が複数の判定領域に分割される。たとえば、本実施形態では、サンプル画像を11×15=165個の基準領域に分割しているため、色情報抽出機能は、撮像画像も11×15=165個の判定領域に分割する。
次いで、ステップS302で分割された複数の判定領域のそれぞれについて、ステップS303〜S306の処理が行われる。具体的には、ステップS303では、まず、色情報抽出機能により、ステップS302で分割された判定領域から色情報の抽出が行われる。具体的には、色情報抽出機能は、判定領域からR成分、G成分、およびB成分をそれぞれ抽出し、抽出したR成分、G成分、およびB成分に基づいて、R成分、G成分、およびB成分のそれぞれに対応する3つのヒストグラムを生成する。また、図6に示す判定基準生成処理において、彩度S、明度V、および色相Hに基づいて判定基準が生成されている場合には、抽出した判定領域のR成分、G成分、およびB成分から、判定領域内の彩度S、明度V、および色相Hを算出し、算出した彩度S、明度V、および色相Hに基づいて、彩度S、明度V、および色相Hのそれぞれに対応する3つのヒストグラムを生成する。
ステップS304では、画像処理装置20の色情報抽出機能により、ステップS303において色情報が抽出された判定領域の座標位置が取得される。なお、色情報抽出機能は、判定基準生成処理における二次元画像座標系と共通する座標系において、判定領域の座標位置を取得する。すなわち、判定基準生成処理において、画面左上の座標位置を原点とした二次元画像座標系により基準領域の座標位置を特定している場合には、判定領域の座標位置についても、画面左上の座標位置を原点とした二次元画像座標系により特定される。あるいは、判定基準生成処理において、消失点が存在する座標位置を原点とした二次元画像座標系により基準領域の座標位置を特定している場合には、判定領域の座標位置についても、消失点が存在する座標位置を原点とした二次元画像座標系により特定される。
ステップS305では、画像処理装置20の対象領域判定機能により、記憶装置30に記憶されている参照テーブルを参照し、記憶装置30に記憶されている判定基準の中から、この判定領域と撮影範囲が共通する判定基準の読み出しが行われる。すなわち、参照テーブルには、撮像範囲が共通するサンプル画像の座標位置と撮像画像の座標位置との対応関係が定められており、対象領域判定機能は、この参照テーブルに基づいて、判定領域と撮影範囲が共通する基準領域を特定することができ、これにより、判定領域と撮影範囲が共通する基準領域に基づいて生成された判定基準を、この判定領域に対応する判定基準として読み出すことができる。
そして、ステップS306では、対象領域判定機能により、ステップS305で読み出された判定基準を用いて、判定領域が検出対象領域であるか否かの判定が行われる。ここで、本実施形態に係る判定基準は、検出対象領域をラベル付けした複数のサンプル画像を用いて、画像の色情報がどのような特徴である場合に検出対象領域であり、あるいは、検出対象領域ではないかを学習させたものである。そのため、対象領域判定機能は、判定領域に対応する判定基準を用いて、色情報抽出機能により抽出された判定領域の色情報の特徴から、判定領域が検出対象領域であるか否かを判定することができる。
次いで、ステップS307では、ステップS302で分割された全ての判定領域について、ステップS303〜S306の処理が実施されたか否かの判断が行われる。ステップS302で分割された全ての判定領域について、ステップS303〜S306の処理が実施された場合には、この対象領域検出処理を終了して、ステップS301に戻り、次フレームの撮像画像について、対象領域検出処理を実行する。一方、ステップS302で分割された全ての判定領域について、ステップS303〜S306の処理が実施されていない場合には、ステップS303に戻り、ステップS303〜S306の処理が実施されていない判定領域について、ステップS303〜S306の処理が実施される。これにより、撮像画像を構成する全ての判定領域について、検出対象領域であるか否かの判定が行われ、その結果、撮像画像から検出対象領域を検出することができる。
以上のように、本実施形態では、走路などの検出対象領域をラベル付けしたサンプル画像を複数の基準領域に分割し、分割した各基準領域から色情報を抽出し、座標位置が共通する基準領域の色情報に基づいて、画像の色情報がどのような特徴である場合に、画像を検出対象領域であると判定(分類)することができ、あるいは、検出対象領域ではないと判定(分類)することができるかを、座標位置ごとに学習させ、この学習結果を、この座標位置に対応する画像が検出対象領域であるか否かを判定するための判定基準として生成する。そして、カメラ10で撮像した撮像画像を複数の判定領域に分割し、分割した判定領域から色情報を抽出し、この判定領域に対応する判定基準を用いて、この判定領域の色情報の特徴から、この判定領域が検出対象領域であるか否かを判定する。このように、本実施形態では、判定領域の色情報に加えて判定領域の座標位置も加味して、この判定領域が検出対象領域(走路)であるか否かを判定することで、たとえば、検出対象領域である走路と色が似ている建物(ビル)など、色情報だけでは走路として誤検出される被写体が多く撮像され座標位置の判定領域においても、このような判定領域を検出対象領域として誤検出してしまうことを有効に防止することができ、その結果、検出対象領域の検出精度を向上させることができる。
さらに、本実施形態では、サンプル画像を撮像するカメラAの撮影条件と、撮像画像を撮像するカメラ10の撮影条件とが異なるために、サンプル画像の座標位置と撮像画像の座標位置との対応関係を示す参照テーブルを生成し、この参照テーブルに基づいて、判定領域の座標位置に対応する基準領域を特定し、この基準領域の色情報に基づいて生成された判定基準を用いて、この判定領域が検出対象領域であるか否かを判定する。ここで、図8に示すように、カメラAとカメラ10との撮影条件が異なる場合には、カメラAで撮像されたサンプル画像の座標位置(xi,yi)の色情報と、カメラ10で撮像された撮像画像の座標位置(xi,yi)の色情報とは異なり、サンプル画像の座標位置(xi,yi)で撮像された画像の色情報に基づいて生成した判定基準を、撮像画像の座標位置(xi,yi)にそのまま適用してしまうと、検出対象領域の判定精度が低下してしまうこととなる。このような場合でも、本実施形態では、撮影範囲が共通するサンプル画像の座標位置と、撮像画像の座標位置との対応関係を予め参照テーブルとして生成することで、判定領域の座標位置に対応する基準領域の色情報に基づいて生成された判定基準を用いて、この判定領域が検出対処領域であるか否かの判定を行うことができるため、判定領域が検出対象領域であるか否かを適切に判定することができる。
特に、従来では、カメラAとカメラ10との撮影条件が異なる場合には、カメラAで撮像したサンプル画像に基づく判定基準を、カメラ10で撮像した撮像画像に用いることができず、そのため、再度、カメラ10で撮像した複数の撮像画像のについて検出対象領域をラベル付けし、ラベル付した撮像画像の色情報から、画像の色情報がどのような特徴の場合に、画像が検出対象領域であるか否かを学習させる必要があるが、本実施形態では、カメラAで撮像したサンプル画像に基づく判定基準を用いて、カメラ10で撮像した撮像画像から検出対象領域を検出することができるため、再度、カメラ10で撮像した複数の撮像画像のそれぞれについて検出対象領域をラベル付けし、ラベル付した撮像画像の色情報に基づいて学習を行わせる手間を省くことができる。
以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
たとえば、上述した実施形態に加えて、カメラ10から所定距離以上の撮影範囲を撮像する判定領域を、検出対象領域であるか否かを判定する判定領域から除外する構成とすることができる。たとえば、画像処理装置20の対象領域判定機能は、図13に示すように、カメラ10の高さ、画角、俯角などから各判定領域が撮像する撮影範囲の撮影距離L1を算出し、この撮影距離L1を超える撮影範囲を撮像する判定領域を、検出対象領域であるか否かを判定する判定領域から除外する構成とすることができる。また、対象領域判定機能は、図13に示すように、カメラ10の高さ、画角、俯角などから、判定領域から該判定領域が撮影する撮影範囲とを結ぶ光線と、光軸との角度がθ1よりも小さくなる判定領域を算出し、算出した判定領域を、検出対象領域であるか否かを判定する判定領域から除外する構成とすることができる。撮影距離がL1以上であり、俯角がθ1よりも小さい撮影範囲を撮像する判定領域では、路面に反射した光が撮像素子に入射し易く、輝度が高くなるために、判定領域が白くなってしまい、このような判定領域が検出対象領域であるか否かを適切に検出することができない。そこで、このような判定領域を検出対象領域の検出対象から除外することで、検出対象領域の検出精度を向上させることができる。
また、同様に、魚眼レンズなどの歪みが生じるレンズを用いる場合も、ゆがみが生じる判定領域を検出対象領域の検出対象から除外することで、検出対象領域の検出精度を向上させることができる。さらに、本実施形態のように、自車両が走行する路面を検出対処領域として検出する場合には、水平線よりも上方を撮影する判定領域を、検出対処領域の検出対象から除外する構成としてもよい。また同様に、消失点を検出し、消失点よりも上方を撮影する判定領域を、検出対処領域の検出対象から除外する構成としてもよい。
さらに、上述した実施形態では、二次元画像座標系において、サンプル画像の座標位置(XY座標位置)と、撮像画像の座標位置(XY座標位置)との対応関係を示す参照テーブルを生成する構成を例示したが、この構成に限定されず、たとえば、二次元画像座標系におけるサンプル画像のY座標位置と、撮像画像のY座標位置との対応関係を示す参照テーブルを生成する構成としてもよい。たとえば、サンプル画像の各座標位置の基準領域から色情報のヒストグラムを生成し、複数のサンプル画像から取得した複数の基準領域のうち、Y座標位置が共通する基準領域の色情報に基づいて、判定基準をY座標位置ごとに生成する。そして、参照テーブルを参照して、判定領域のY座標位置に対応する判定基準を読み出し、判定領域のY座標位置に対応する判定基準を用いて、この判定領域が検出対象領域否かを判定することができる。たとえば、本実施形態のように、検出対象領域として道路の路面を撮影する場合に、判定領域のY座標位置が異なれば、カメラから判定領域で撮像される路面までの撮影距離が異なるため、X座標位置と比べて、各判定領域で撮影される画像の色情報のヒストグラムが変化する度合が高くなる。そのため、少なくとも判定領域のY座標位置に対応する判定基準を用いて、この判定領域が検出対象領域である否かを判定することで、検出対象領域の判定精度を高くすることができる。
また、上述した実施形態では、基準領域および判定領域の色情報として、RGB成分またはHSV成分を抽出する構成を例示したが、この構成に限定されず、たとえば、基準領域および判定領域の色情報として、基準領域および判定領域の輝度勾配を抽出する構成としてもよい。
さらに、上述した実施形態では、進行方向前方を撮像するカメラAで撮像したサンプル画像と、同じく進行方向前方を撮像するカメラ10で撮像した撮像画像との対応関係を求めることで、サンプル画像の判定基準を撮像画像に適用する構成を例示したが、たとえば、サンプル画像が進行方向前方を撮像したものであり、撮像画像が自車両の車幅方向を撮像したものであっても、サンプル画像に基づいて得られた判定基準を用いて、撮像画像から検出対象領域を検出することができる。
この場合、車両進行方向を撮像するサンプル画像では、車両進行方向がY軸方向となるのに対して、車幅方向を撮像する撮像画像では、車幅方向がY軸方向となるが、撮像画像を90°回転させることで、サンプル画像と撮像画像との対応関係を求めることができる。また、上述したように、二次元画像座標系において、サンプル画像のY座標位置と撮像画像のY座標位置との対応関係を示す参照テーブルを参照して、判定領域のY座標位置に対応する判定基準を読み出し、判定領域のY座標位置に対応する判定基準を用いて、この判定領域が検出対象領域である否かを判定することで、サンプル画像と撮像画像とで撮影距離が違う場合でも、判定領域が検出対象領域である否かを適切に判定することができる。なお、この場合、車両進行方向を撮像するサンプル画像では、車両進行方向がY軸方向となるのに対して、車幅方向を撮像する撮像画像では、車幅方向がY軸方向となるため、基準領域および判定領域の色情報として輝度勾配は用いることができず、基準領域および判定領域の色情報としてRGB成分またはHSV成分を用いて、検出対処領域の判定を行うことが好適である。
また、上述した実施形態では、基準領域および判定領域の色情報として、RGB成分またはHSV成分を抽出する構成を例示したが、この構成に限定されず、たとえば、RGB成分およびHSV成分の両方を抽出して、抽出したRGB成分およびHSV成分に対応する判定基準を生成する構成としてもよい。
すなわち、HSV成分の色情報を用いた検出対象領域の判定の方が判定精度は高いが、RGB成分の色情報を用いた検出対象領域の判定の方が処理速度は速い。そのため、たとえば、自車両が高速で走行している場合など、撮像画像を短いフレームレートで撮像する場合には、RGB成分の色情報を用いて検出対象領域の判定を行い、一方、渋滞などにより撮像画像を長いフレームレートで撮像することができる場合には、HSV成分の色情報を用いて検出対象領域の判定を行うなど、HSV成分の色情報を用いた検出対象領域の判定と、RGB成分の色情報を用いた検出対象領域の判定とを切り替えることが好適である。
さらに、上述した実施形態では、基準領域および判定領域において、R成分、G成分、B成分に対応する3つのヒストグラム(あるいは、彩度S、明度V、色相Hに対応する3つのヒストグラム)をそれぞれ生成する構成を例示したが、この構成に限定されず、たとえば、以下に説明するように、基準領域および判定領域において生成されるヒストグラムの数を増やす構成としてもよい。すなわち、基準領域および判定領域をさらに4つの領域に分割し、これらの領域ごとに、R成分、G成分、B成分に対応する3つのヒストグラム(あるいは、彩度S、明度V、色相Hに対応する3つのヒストグラム)を生成することで、基準領域および判定領域から、R成分、G成分、B成分についてのヒストグラム(あるいは、彩度S、明度V、色相Hについてのヒストグラム)を、3×4=12ずつ生成する構成とすることができる。すなわち、基準領域および判定領域をそれぞれ4つの領域に分割することで、R成分に対応する4つのヒストグラムと、G成分に対応する4つのヒストグラムと、B成分に対応する4つのヒストグラムとを生成することができ、これにより、基準領域および判定領域において、12のヒストグラムを生成することができる(彩度S、明度V、色相Hについてのヒストグラムも同様。)。この場合、座標位置ごとに12の分類木を判定基準として得ることができるため、このような判定基準を用いて判定領域が検出対象領域であるか否かを判定することで、検出対象領域の判定精度を向上させることができる。
また、上述した実施形態では、基準領域および判定領域の色情報としてRGB成分またはHSV成分を抽出し、RGB成分またはHSV成分に基づいて3つのヒストグラムを生成することで、3本の分類木を判定基準として生成する構成を例示したが、この構成に限定されず、たとえば、RGB成分およびHSV成分を抽出し、RGB成分およびHSV成分に基づいて6つのヒストグラムを生成することで、6本の分類木を判定基準として生成する構成としてもよい。さらに、上述したように、基準領域および判定領域の色情報として輝度勾配を抽出し、RGB成分および/またはHSV成分と組み合わせる構成としてもよい。
さらに、上述した実施形態では、撮像画像を複数の判定領域に分割する際に、判定領域の分割数を、サンプル画像を分割した基準領域の分割数と同数とする構成を例示したが、この構成に限定されず、判定領域の分割数と基準領域の分割数とを異なる数にする構成としてもよい。このような場合も、基準領域の座標位置と判定領域の座標位置とを対応付けておくことで、判定領域に対応する判定基準を用いて、この判定領域が検出対象領域であるか否かを判定することができる。
また、上述した実施形態では、撮影範囲が共通する基準領域の座標位置と判定領域の座標位置との対応関係を示す参照テーブルを生成する構成を例示したが、この構成に限定されず、たとえば、各判定領域の座標位置と、該判定領域と撮影範囲が共通する基準領域の色情報に基づいて生成された判定基準との対応関係を示す参照テーブルを生成する構成としてもよい。この場合、判定領域の座標位置に基づいて、該判定領域に対応する判定基準を特定することができるため、該判定領域が検出対象領域であるか否かを適切に判定することができる。
なお、上述した実施形態の画像処理装置20の撮像画像取得機能は本発明の撮像画像取得手段に、色情報抽出機能は本発明の抽出手段に、対象領域判定機能は本発明の参照テーブル取得手段、判定基準取得手段、および判定手段に、それぞれ対応する。
1…画像処理システム
10…カメラ
20…画像処理装置
30…記憶装置
10…カメラ
20…画像処理装置
30…記憶装置
Claims (8)
- 第1撮像装置により撮像された画像であり、かつ、検出対象領域が識別された画像である複数の基準画像をそれぞれ複数の基準領域に分割し、画像の左右方向をX座標とし、画像の上下方向をY座標としたXY座標系で特定可能な前記基準領域から色情報を抽出し、Y座標位置が共通する前記基準領域の色情報の特徴に基づいて、前記検出対象領域であるか否かを判定するために、Y座標位置が共通する前記基準領域ごとに定義された判定基準を取得する判定基準取得手段と、
前記第1撮像装置により撮像された前記基準画像の4点以上の特徴点と、前記第1撮影装置と撮影条件の異なる第2撮像装置により撮像された撮像画像の4点以上の特徴点とに基づいて、前記基準画像のY座標位置と、前記撮像画像のY座標位置との対応関係を定義した参照テーブルを取得する参照テーブル取得手段と、
前記第2撮像装置により撮像された撮像画像を取得する撮像画像取得手段と、
前記撮像画像を複数の判定領域に分割し、前記判定領域から色情報を抽出する抽出手段と、
前記参照テーブルに基づいて、前記判定領域のY座標位置に対応する前記基準領域を特定し、該判定領域の前記判定基準を用いて、前記判定領域の色情報に基づいて、該判定領域が前記検出対象領域であるか否かを判定する判定手段と、を備えることを特徴とする画像処理装置。 - 請求項1に記載の画像処理装置であって、
前記参照テーブル取得手段は、前記第1撮像装置でチェッカーボード、レーンマーク、または道路標示を撮像することで、前記第1撮像装置により撮像されたチェッカーボード、レーンマーク、または道路標示の像から前記基準画像の特徴点を抽出するとともに、前記第2撮像装置でチェッカーボード、レーンマーク、または道路標示を撮像することで、前記第2撮像装置により撮像されたチェッカーボード、レーンマーク、または道路標示の像から前記基準画像の特徴点を抽出することを特徴とする画像処理装置。 - 請求項1または2に記載の画像処理装置であって、
前記判定基準取得手段は、前記基準領域のRGB画像信号の分布、HSV画像信号の分布、または輝度勾配を、前記基準領域の色情報の特徴として求めることで、前記Y座標位置が共通する基準領域のRGB画像信号の分布、HSV画像信号の分布、または輝度勾配から該Y座標位置に対応する前記判定基準を定義し、
前記判定手段は、RGB画像信号の分布、HSV画像信号の分布、または輝度勾配に基づいて定義された前記判定基準を用いて、前記判定領域内のRGB画像信号の分布、HSV画像信号の分布、または輝度勾配に基づいて、前記判定領域が前記検出対象領域であるか否かを判定することを特徴とする画像処理装置。 - 請求項3に記載の画像処理装置であって、
前記判定手段は、前記第1撮像装置が撮像する方向と前記第2撮像装置が撮像する方向とが異なる場合には、輝度勾配に基づいて定義される前記判定基準を用いずに、RGB画像信号の分布またはHSV画像信号の分布に基づいて定義された前記判定基準を用いて、前記判定領域内のRGB画像信号の分布またはHSV画像信号の分布に基づいて、前記判定領域が前記検出対象領域であるか否かを判定することを特徴とする画像処理装置。 - 請求項1〜4のいずれかに記載の画像処理装置であって、
前記判定基準取得手段は、前記二次元画像座標系のXY座標位置が共通する前記基準領域の色情報の特徴から該XY座標位置に対応する画像が前記検出対象領域であるか否かを判定するための判定基準を定義することで、XY座標位置ごとに前記判定基準を取得し、
前記参照テーブル取得手段は、前記基準画像のXY座標位置と前記撮像画像のXY座標位置との対応関係を定義した参照テーブルを取得し、
前記判定手段は、前記参照テーブルに基づいて、前記判定領域とXY座標位置が共通する基準領域を特定し、該基準領域の前記判定基準を用いて、前記判定領域の色情報に基づいて、該判定領域が前記検出対象領域であるか否かを判定することを特徴とする画像処理装置。 - 請求項1〜5のいずれかに記載の画像処理装置であって、
前記判定手段は、前記複数の判定領域のうち、前記第2撮像装置からの撮影距離が所定距離以上となる前記判定領域を、前記検出対象領域の検出対象から除外することを特徴とする画像処理装置。 - 請求項1〜6のいずれかに記載の画像処理装置であって、
前記判定手段は、レンズの特性により被写体の像が所定値以上歪む画像領域を除外領域として特定し、前記複数の判定領域のうち、前記除外領域に対応する前記判定領域を前記検出対象領域の検出対象から除外することを特徴とする画像処理装置。 - 第1撮像装置により撮像された画像であり、かつ、検出対象領域が識別された画像である基準画像を複数の基準領域に分割し、画面の左右方向をX座標とし、画面の上下方向をY座標としたXY座標系で特定可能な前記基準領域から色情報を抽出し、Y座標位置が共通する前記基準領域の色情報の特徴に基づいて、Y座標位置ごとに定義された前記判定基準を取得する判定基準取得工程と、
前記第1撮像装置により撮像された前記基準画像の特徴点と、前記第1撮像装置と撮影条件の異なる第2撮像装置により撮像された撮像画像内の特徴点とに基づいて、前記基準画像のY座標位置と、前記撮像画像のY座標位置との対応関係を定義した参照テーブルを取得する参照テーブル取得工程と、
前記第2撮像装置により撮像された撮像画像を取得し、前記撮像画像を複数の判定領域に分割し、前記判定領域から色情報を抽出し、前記参照テーブルに基づいて、前記判定領域のY座標位置に対応する基準領域を特定し、該基準領域の前記判定基準を用いて、前記判定領域の色情報に基づいて、該判定領域が前記検出対象領域であるか否かを判定する対象領域検出工程と、を有することを特徴とする画像処理方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013068026A JP2014191685A (ja) | 2013-03-28 | 2013-03-28 | 画像処理装置および画像処理方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013068026A JP2014191685A (ja) | 2013-03-28 | 2013-03-28 | 画像処理装置および画像処理方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2014191685A true JP2014191685A (ja) | 2014-10-06 |
Family
ID=51837846
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013068026A Pending JP2014191685A (ja) | 2013-03-28 | 2013-03-28 | 画像処理装置および画像処理方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2014191685A (ja) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016099997A (ja) * | 2014-11-19 | 2016-05-30 | 曜鵬科技股▲ふん▼有限公司 | 動画像監視システム、装置及び方法 |
| CN107064150A (zh) * | 2017-05-27 | 2017-08-18 | 华中农业大学 | 一种基于机器视觉技术的褐壳无精蛋和受精蛋鉴别装置及鉴别方法 |
| WO2020100660A1 (ja) * | 2018-11-12 | 2020-05-22 | ソニー株式会社 | 情報処理方法および情報処理システム |
| JP2023076903A (ja) * | 2021-11-24 | 2023-06-05 | 三菱電機株式会社 | 路面劣化検出システムおよび路面劣化検出方法 |
-
2013
- 2013-03-28 JP JP2013068026A patent/JP2014191685A/ja active Pending
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016099997A (ja) * | 2014-11-19 | 2016-05-30 | 曜鵬科技股▲ふん▼有限公司 | 動画像監視システム、装置及び方法 |
| CN107064150A (zh) * | 2017-05-27 | 2017-08-18 | 华中农业大学 | 一种基于机器视觉技术的褐壳无精蛋和受精蛋鉴别装置及鉴别方法 |
| WO2020100660A1 (ja) * | 2018-11-12 | 2020-05-22 | ソニー株式会社 | 情報処理方法および情報処理システム |
| JP2023076903A (ja) * | 2021-11-24 | 2023-06-05 | 三菱電機株式会社 | 路面劣化検出システムおよび路面劣化検出方法 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN108921823B (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
| CN107749268B (zh) | 屏幕检测方法及设备 | |
| CN101599175B (zh) | 确定拍摄背景发生改变的检测方法及图像处理设备 | |
| CN110163025A (zh) | 二维码定位方法及装置 | |
| JP5779089B2 (ja) | エッジ検出装置、エッジ検出プログラム、およびエッジ検出方法 | |
| JP2016151955A (ja) | 画像処理装置、撮像装置、距離計測装置、および画像処理方法 | |
| JP2003244521A (ja) | 情報処理方法、装置および記録媒体 | |
| US20180184012A1 (en) | Image processing apparatus, control method, and storage medium | |
| US20160321825A1 (en) | Measuring apparatus, system, and program | |
| KR101295092B1 (ko) | 차량용 색상검출기 | |
| CN107920246A (zh) | 摄像头模组的倾斜度测试方法及装置 | |
| US20160156844A1 (en) | Image capturing apparatus, image processing apparatus, image capturing system, image processing method, and storage medium | |
| CN109242900B (zh) | 焦平面定位方法、处理装置、焦平面定位系统及存储介质 | |
| JP2014191685A (ja) | 画像処理装置および画像処理方法 | |
| CN111243003A (zh) | 车载双目摄像机及其检测道路限高杆的方法、装置 | |
| CN115343699B (zh) | 多传感器信息融合的目标检测方法、设备、介质及终端 | |
| KR101574195B1 (ko) | 모바일 플랫폼에 기반한 가상 카메라의 자동 캘리브레이션 방법 | |
| CN112734721B (zh) | 一种光轴偏转角度检测方法、装置、设备和介质 | |
| EP2775422A2 (en) | Object detection apparatus, program, and integrated circuit | |
| US9977992B2 (en) | Identifying points of interest in an image | |
| KR20150009842A (ko) | 카메라 모듈용 결함 픽셀 평가 시스템 및 이를 사용한 카메라 모듈용 결함 픽셀 평가 방법 | |
| JP5754931B2 (ja) | 画像解析装置、画像解析方法及びプログラム | |
| JP6825299B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
| CN107992789B (zh) | 识别交通灯的方法、装置及车辆 | |
| CN105930813B (zh) | 一种在任意自然场景下检测行文本的方法 |