[go: up one dir, main page]

JP2009041972A - 画像処理装置及びその方法 - Google Patents

画像処理装置及びその方法 Download PDF

Info

Publication number
JP2009041972A
JP2009041972A JP2007205182A JP2007205182A JP2009041972A JP 2009041972 A JP2009041972 A JP 2009041972A JP 2007205182 A JP2007205182 A JP 2007205182A JP 2007205182 A JP2007205182 A JP 2007205182A JP 2009041972 A JP2009041972 A JP 2009041972A
Authority
JP
Japan
Prior art keywords
region
road surface
area
far
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007205182A
Other languages
English (en)
Inventor
Takeshi Nakano
剛 仲野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007205182A priority Critical patent/JP2009041972A/ja
Priority to US12/187,530 priority patent/US20090041337A1/en
Publication of JP2009041972A publication Critical patent/JP2009041972A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】自車両に搭載された2つのカメラから、自車両が走行している遠方の道路勾配を推定する画像処理装置を提供する。
【解決手段】自車両から予め設定された距離より近い領域を近接領域、道路面領域と近接領域が重なる領域を近接道路面領域、及び、近接領域より遠方の領域を遠方領域と設定し、左右画像における近接道路面領域及び遠方領域内のそれぞれから特徴点を検出し、左右画像における特徴点のそれぞれの3次元位置情報を計算し、左右画像のそれぞれから道路面上に存在する白線を検出し、白線を遠方領域へ延長することにより、延長した白線における遠方領域内の水平方向と奥行き方向のそれぞれの位置を推定し、複数の画像におけるそれぞれの遠方領域内における特徴点から一定の長さ以上のエッジセグメントを検出し、エッジセグメントの3次元位置情報を計算し、遠方領域における道路勾配を推定する。
【選択図】図1

Description

本発明は、自動車等の車両に代表される移動物体に取り付けられたTVカメラから得られる画像を用いて、車両等の姿勢や走行している道路の勾配を推定する画像処理装置及びその方法に関する。
従来、車両等の姿勢や道路の勾配を推定する方法として、対象物判定装置がある(特許文献1参照)。この従来技術1は、ステレオカメラから取得した画像から、特徴点の3次元位置情報を計算する。特徴点の3次元位置情報を用いて、特徴点を水平方向と奥行き方向の面に投票することにより、投票値の大小から道路領域とそれ以外の領域に分離する。検出された道路領域に属する近距離の特徴点から、近距離の道路勾配や車両の姿勢を推定し、さらに、遠距離の距離情報を用いて縦断曲率を計算することにより道路勾配を推定する。
また、道路追跡と3次元道路形状復元のための動的輪郭道路モデルという方法がある(非特許文献1参照)。この従来技術2は、1つのカメラから得られる画像から道路領域を検出し、追跡する。道路の平行性の関係を動的輪郭モデルの制約条件として用いて、安定した道路境界を検出し、道路勾配を推定する。
特開2006−234682公報 八木ら,「道路追跡と3次元道路形状復元のための動的輪郭道路モデル」,電子情報通信学会論文誌D-II,Vol.J84-D-II,No.8,pp.1597-1607,2001
しかし、従来技術1における3次元位置情報のみを用いて道路勾配を推定する場合は、遠距離の3次元位置情報は精度が低下するため、道路領域とそれ以外の領域の区別が困難になり、道路領域以外の特徴点を用いて、誤った道路形状を推定する問題点がある。
また、従来技術2における道路の平行性を用いて、道路形状を推定する場合は、高速道路等のように2本以上の白線が存在する場合は推定できるが、白線が複数存在しない場合や平行でない場合は検出できない問題点がある。
そこで本発明は、上記問題点を解決するために、自車両に搭載されたカメラから、自車両が走行している道路面の道路勾配を推定することができる画像処理装置及びその方法を提供することにある。
本発明は、自車両に搭載した共通の視野を有する2つ以上のカメラから時系列の画像をそれぞれ取得する画像取得部と、前記複数の画像から道路面領域を検出する道路面領域検出部と、前記複数の画像のそれぞれに、前記自車両から予め設定された距離より近い領域である近接領域、前記道路面領域と近接領域が重なる領域である近接道路面領域、及び、前記近接領域より遠方の領域である遠方領域を設定する設定部と、前記複数の画像における前記近接道路面領域及び前記遠方領域内のそれぞれから特徴点を検出する特徴点検出部と、前記複数の画像における前記特徴点のそれぞれの3次元位置情報を、前記複数の画像間の視差に基づいて計算する3次元情報計算部と、前記複数の画像のそれぞれから道路面上に存在する白線を検出する白線検出部と、前記近接道路面領域内の白線の3次元位置情報に基づいて、前記白線を前記遠方領域へ延長することにより、前記延長した白線における前記遠方領域内の水平方向と奥行き方向のそれぞれの位置を推定する白線推定部と、前記複数の画像におけるそれぞれの遠方領域内における前記特徴点から、一定の長さ以上となる前記特徴点の集合であるエッジセグメントを検出し、前記エッジセグメントの3次元位置情報を計算するエッジセグメント検出部と、前記エッジセグメントの3次元位置情報と前記延長した白線情報とに基づいて、前記遠方領域における道路勾配を推定する遠方領域道路勾配推定部と、を備える画像処理装置である。
本発明によれば、自車両に搭載された2つ以上のカメラにより取得される時系列画像から、道路勾配を推定することができる。
以下、本発明の一実施形態の画像処理装置を図1〜図16に基づいて説明する。
(1)画像処理装置の構成
図1に本実施形態の画像処理装置の構成例を示す。
画像処理装置は、画像取得部1、道路面領域検出部2、特徴点検出部3、3次元情報計算部4、白線情報取得部5、車両姿勢推定部6、道路形状推定部7により構成される。
図2に本実施形態における座標系を示している。図2に示すように、自車両が走行する実空間において水平方向をX、高さ方向をY、奥行き方向をZとし、画像座標系の水平方向をx、垂直方向をyとする。
これら各部1〜7の機能は、コンピュータに記憶されたプログラムによっても実現される。以下、順番に各部1〜7の機能を説明する。
(2)画像取得部1
画像取得部1は、移動する自車両に取り付けられた車両周辺、特に前方の時系列の画像を取得する2台のTVカメラであって、ステレオ視によって共通の視野を有している。
(3)道路面領域検出部2
まず、道路面領域検出部2は、自車両から近い領域、例えば自車両から30mまでの領域を近接領域と設定する。ここで、自車両からの距離は、後から説明する3次元情報計算部4で求めたZ値の情報を用いる。
次に、道路面領域検出部2は、図3に示すように、近接領域において、道路面領域とそれ以外の領域との境界線を検出する。検出された境界線から自車両側の領域を道路面領域とする。
道路面領域とそれ以外の領域との境界線を検出する方法としては、特開2006−53890公報による方法がある。しかし、本実施形態で用いる道路面領域とそれ以外の領域を区別する方法は、他に様々に提案されていて、どのような方法を用いても良い。
次に、道路面領域検出部2は、近接領域と道路面領域が重なる領域を近接道路面領域と設定する。近接道路面領域は、必ずしも正確に求める必要はなく、おおまかな位置がわかれば良い。
(4)特徴点検出部3
まず、特徴点検出部3は、図4に示すように、近接領域より遠く、画像の中心付近、すなわち、消失点付近にある任意の大きさの領域を遠方領域と設定する。
次に、特徴点検出部3は、道路面領域検出部2により検出された近接道路面領域と遠方領域内で、図5に示すような縦方向に関するSobelフィルタを用いて、エッジ画像を検出する。なお、エッジ検出に関しては、Sobelフィルタに限らずどのようなフィルタを用いても良い。
次に、特徴点検出部3は、閾値以上のエッジ強度のエッジに関して、細線化処理を行って線分化する。この細線化されたエッジ線分を構成する各点を特徴点とする。
(5)3次元情報計算部4
3次元情報計算部4は、異なる位置に置かれた2つ以上のカメラから、3角測量の原理を用いて、上記で求めた各特徴点の3次元位置をそれぞれ測定する。
本実施形態は、左カメラと右カメラの2つのTVカメラを設置して、各特徴点の3次元位置を測定する。この2つのカメラは、予めキャリブレーションされており、また平行ステレオであるとする。
物体上の点(X,Y,Z)が、左カメラの画像上の位置(x,y)に投影されたとするとき、右カメラの画像上の対応点(x,y)を探索する。
式(1)に示すような、差の絶対値和の評価値を用いて対応点の探索を行う。画像サイズがM×Nの対象画像をI(m,n)、テンプレートをT(m,n)とする。評価値は、差の絶対値和に限らず、他の評価値を用いても良い。
Figure 2009041972
対応点から視差dを求め、式(2)を用いて各特徴点の3次元位置を計算する。なお、bはカメラ間隔、fは焦点距離とする。
Figure 2009041972
ここで視差dは、画像における道路面領域において画像の縦方向yのみに関して変化し、横方向xに関しては変化しないとする。
(6)白線情報取得部5
まず、白線情報取得部5は、道路面領域検出部2が検出した道路面から自車両が現在走行しているレーンの境界線である白線を検出する。
白線検出の方法としては、特開平7−89367号公報による方法など様々な方法が提案されていて、どのような方法を用いても良い。
次に、白線情報取得部5は、3次元情報計算部4における方法と同様にして、得られた白線上の全ての点に対して、3次元位置を計算する。
図6に示すように、計算された3次元位置におけるX、Z値を用いて、XZ平面上に投影する。XZ平面上(上から見た平面)において、近接道路面領域における白線の曲率を計算し、遠方領域に白線を延長し、延長された白線を推定白線とする。
また、白線は必ずしも2本である必要はなく、1本、または、複数本でも良い。
(7)車両姿勢推定部6
車両姿勢推定部6は、図7に示すように、近接領域車両姿勢推定部61、近接領域道路面推定部62からなる。
(7−1)近接領域車両姿勢推定部61
近接領域車両姿勢推定部61の機能について説明する。
左右のカメラから得られる左画像と右画像は、画像の縦方向yに関して位置合わせを行う平行化(rectification)がなされているものとする。図8に示すように、消失点の座標を(v,v)、道路面上の点Pの左画像上での位置を(x,y)、右画像上での位置を(x,y)とおくと、両者は式(3)のようなアフィン変換により対応付けられる。
Figure 2009041972
つまり、左カメラから得られた左画像と、右カメラから得られた右画像がアフィン変換された右アフィン画像は、道路面上のパターンの位置が同じになる。このときのアフィン変換のパラメータはキャリブレーションにより予め求めておく。またこの対応関係から、道路面における視差d(y)も求めておく。
しかし、車が実際に道路を走行すると、車体の振動等により道路面とカメラの相対的な位置関係が変動する。このため、予め求めたパラメータで変換しても、左右の道路面パターンにずれが生じることがある。平行化がなされているので、このずれは水平方向に生じる。これは車に上下振動などが生じても両カメラが同じように上下振動するために、水平方向のみにすれが生じる。そして、ずれの要因は主に車体の上下動及びピッチングの車両姿勢の変化であり、この場合、ずれ量e(y)は式(4)のような画像のy座標に関する1次式で表せる。
Figure 2009041972
図9の左図に示すように、水平ライン毎に左画像の特徴点を基準として、右アフィン画像において左右方向にw画素分、左画像と右アフィン画像の相関値を求める。相関値は、左画像におけるエッジ強度と右アフィン画像におけるエッジ強度の小さい方の値とする。図9でさらに詳しく説明すると、左画像におけるエッジ強度をS1、右アフィン画像におけるエッジ強度をS2として、S1<S2であれば、相関値としてS1を図9の右図に反映させ、S1>S2であれば、相関値としてS2を図9の右図に反映させる。なお、相関を計算する評価式は、様々提案されており、差分などの別の評価式を用いても良い。
この処理を水平方向に走査し、各特徴点における相関を相関画像に足しこむ。そして、全ての水平ラインで同様の処理を行って図9の右図の相関画像を生成する。この処理は、近接道路面領域のみで行う。
図9の右図の相関画像に対して、直線のハフ変換を用いて直線を求める。式(4)における、βとγが計算される。なお、このβとγは道路面からの車両に搭載されたカメラの高さとピッチ角に関係している。
そして求めたβとγと、式(5)のようなアフィン変換の式により、左画像と右アフィン画像における道路面の位置が対応付けられる。
Figure 2009041972
この対応関係から、道路面における視差dを求める。すなわち、式(5)からxとxを求め、視差d=x−xを計算する。なお、上記したように画像における道路面領域において画像の縦方向yのみに関して変化し、横方向xに関しては変化しない。
(7−2)近接領域道路面推定部62
近接領域道路面推定部62の機能について説明する。
実際の道路環境では、道路は平面であると限らない。道路面を平面ではなく曲面(すなわち、道路に勾配がある)としてパラメータを検出する必要がある。そのために、平面であると仮定してβとγが求まった式(4)の直線を、道路の勾配に対応した3本の折れ線に修正するために、下記の処理を行う。
まず、図10に示すように、近接道路面領域内の実空間座標のZ軸方向に所定間隔毎に4点の設定点を設定する。例えば、車の位置から10m、15m、20m、25mである。設定点は、カメラの画角等から決定する。
次に、その4点の設定点に対する視差dをそれぞれ求める。
次に、その4点の設定点と視差dから、その設定点を画像上の位置に変換した制御点を計算する。
次に、この4点の制御点から式(4)を3本の折れ線で表現し直す。すなわち、βとγを折れ線毎に再計算する。
次に、これら3本の折れ線を、ダイナミックプログラミング法(Dynamic Programming)を用いて、制御点をx方向、z方向に動かして、図9の相関画像において、折れ線通過位置の相関値の和が最大になるようにフィッティングし直して、4点の最終制御点を求める。
次に、これら4点の最終制御点に対応するβとγをそれぞれ求め、さらに、視差dを求める。これら視差dは、より正確な近接道路面領域における視差を表している。βとγから視差dの求め方は、式(5)を用いる。
(8)道路形状推定部7
道路形状推定部7は、図11に示すように、遠方領域エッジ線分検出部71、遠方領域エッジ線分選択部72、遠方領域道路勾配推定部73からなる。
実際の道路環境では、急に道路勾配が変化する場合がある。そのため、道路形状推定部7は、まず、遠方領域の道路勾配を推定し、その後、上記で求めた近接道路領域における道路勾配と接続させる。
(8−1)遠方領域エッジ線分検出部71
遠方領域エッジ線分検出部71の機能について説明する。
遠方領域エッジ線分検出部71は、特徴点検出部3で検出された近接道路面領域と遠方領域における特徴点に注目する。
まず、近接道路面領域において白線に代表されるような、消失点方向に向いていて、ある閾値以上の長さを持つ、連結された特徴点のかたまり、すなわち、集合をエッジセグメントとして検出する。このときの閾値は、カメラの画角等から決定する。なお、このエッジセグメントには、白線情報取得部5で推定された推定白線も含まれる。
次に、図12に示すように、検出されたエッジセグメントを、境界線をまたいで遠方領域側に、特徴点が連結しているか調べて、追跡する。この処理によりエッジセグメントが遠方領域側に延長されたことになる。
次に、延長されたエッジセグメントに関する3次元情報計算部4により計算された3次元位置情報におけるX、Z値を用いて、XZ平面に投影する。
(8−2)遠方領域エッジ線分選択部72
遠方領域エッジ線分選択部72の機能について説明する。
遠方領域エッジ線分検出部71により検出されたエッジセグメントは、道路面上以外に存在するものも含まれている。エッジセグメントの3次元位置情報と、白線情報を用いて、道路面上に存在するもののみ選択する。以下に具体的に説明する。
まず、XZ平面上において、白線情報取得部5で推定された推定白線を白線セグメントとする。この白線セグメントとエッジセグメントに関して、図13に示すように、エッジセグメントの始点sと終点eの間における、各点のX方向距離の絶対値差の平均値Xmと分散値Xvを求める。ここで、X方向距離の絶対値差とは、X方向における白線セグメントの位置とエッジセグメントの位置の差の絶対値である。
次に、図14に示すように、エッジセグメントの始点sと終点eの間における高さの平均値H1と、エッジセグメントが存在する距離ZsからZeまでの各点の道路面の高さの平均値H2(図14の点線で表された道路面の高さの平均値)の差Hd(=H1−H2)を求める。
次に、エッジセグメントのYとZに関する関係を式(6)として最小2乗法で計算し、このときの傾きaを求める。
Figure 2009041972
X方向距離の平均値Xmがある閾値より小さい場合を第1の条件とする。X方向距離の分散値Xvがある閾値より小さい場合を第2の条件とする。高さの差Hdがある閾値より小さい場合を第3の条件とする。傾きaの絶対値がある閾値より小さい場合を第4の条件とする。そして、4つの全ての条件を満たすエッジセグメントを選択し、「道路面セグメント」とする。なお、これらの閾値は、それぞれカメラの画角等から適切に決定される。
(8−3)遠方領域道路勾配推定部73
遠方領域道路勾配推定部73の機能について説明する。
まず、遠方領域エッジ線分選択部72で選択された道路面セグメントにおけるエッジ点の視差を求める。
次に、予めキャリブレーションによって求まっている道路面の視差d(y)を呼び出す。
次に、この道路面の視差d(y)と前記道路面セグメントにおけるエッジ点の視差の差をずれ量E(y)として求める。
次に、このずれ量E(y)を、図15の右図に示すような相関画像に当てはめる。すなわち、この相関画像における水平方向の位置をずれ量Eとし、またエッジ点の画像上における位置のy座標値を相関画像における垂直方向の位置とする。そして、相関画像において、前記求まった位置に、道路面セグメントのエッジ点の強度値を足しこむ。これにより、遠方領域の視差を用いた曲線が完成する。
なお、図15の右図の相関画像の下部分には、近接領域道路面推定部62で求まった相関画像部分、すなわち、図9の右図に示す相関画像が表現されている。また、この相関画像の下部分には、近接領域道路面推定部62で求まった3本の折れ線が表現されている。
次に、近接領域道路面推定部62で求まった3本の折れ線を基本として、さらに1点の折れ線を生成するために新規制御点を追加する。この追加する方法は、図16に示すように、新規制御点を折れ線上で走査し、その新規制御点から様々な傾きの線分を仮決定し、その折れ線が通過する位置の相関値の和が最大になる新規制御点位置と傾きを求め、フィッティングし直す。すなわち、このフィッティングによって、近接領域道路面推定部62で求まった3本の折れ線と、遠方領域の視差を用いた曲線を、一本の線で連結が可能な新規制御点を求める。そして、式(4)で表されるβとγをそれぞれ求め、式(5)から視差dを求める。
そして、このフィッティング結果により、道路面の勾配が急に変化する場合においても、より正確な道路面における視差が求まり、全体の道路の勾配を推定できる。すなわち、道路が近接位置から遠方まで平面(例えば、水平)であれば、求めた近接位置から遠方までのエッジセグメントに対する視差と、予めキャリブレーションによって求まっている道路面の視差d(y)との差がなく、図16における相関画像の線が中央で直線に延びるが、勾配があるとその視差に差が生じて曲線となる。
なお、求めた視差dから道路の勾配θを求めるには、次のように行う。
まず、この視差dと画像中の道路面の2つの位置を式(2)に代入して、2地点の道路の高さY1、奥行きZ1と、高さY2、奥行きZ2とを求める。
次に、この(Y1−Y2)と(Z1−Z2)から勾配θを求める。すなわち、tanθ=(Y1−Y2)/(Z1−Z2)となる。
(9)効果
本実施形態の画像処理装置においては、以上のような処理を時系列画像に対して行い、正確な車両姿勢と自車両前方の道路の勾配を推定できる。
(10)変更例
本発明は上記各実施形態に限らず、その主旨を逸脱しない限り種々に変更することができる。
本発明の一実施形態の構成を示す画像処理装置のブロック図である。 本実施形態における座標系についての説明図である。 境界線と近接道路面領域に関する説明図である。 遠方領域に関する説明図である。 エッジ検出フィルタに関する説明図である。 推定白線を検出する方法の説明図である。 車両姿勢推定部の構成を示すブロック図である。 左画像と右アフィン画像の関する説明図である。 相関画像に関する説明図である。 制御点に関する説明図である。 道路形状推定部の構成を示すブロック図である。 エッジセグメント追跡に関する説明図である。 エッジセグメントとの距離を計算する方法の説明図である。 エッジセグメントの高さを計算する方法の説明図である。 遠方領域におけるずれ量に関する説明図である。 折れ線を計算する方法の説明図である。
符号の説明
1 画像取得部
2 道路面領域検出部
3 特徴点検出部
4 3次元情報計算部
5 白線情報取得部
6 車両姿勢推定部
7 道路形状推定部
61 近接領域車両姿勢推定部
62 近接領域道路面推定部
71 遠方領域エッジ線分検出部
72 遠方領域エッジ線分選択部
73 遠方領域道路勾配推定部

Claims (9)

  1. 自車両に搭載した共通の視野を有する2つ以上のカメラから時系列の画像をそれぞれ取得する画像取得部と、
    前記複数の画像から道路面領域を検出する道路面領域検出部と、
    前記複数の画像のそれぞれに、前記自車両から予め設定された距離より近い領域である近接領域、前記道路面領域と近接領域が重なる領域である近接道路面領域、及び、前記近接領域より遠方の領域である遠方領域を設定する設定部と、
    前記複数の画像における前記近接道路面領域及び前記遠方領域内のそれぞれから特徴点を検出する特徴点検出部と、
    前記複数の画像における前記特徴点のそれぞれの3次元位置情報を、前記複数の画像間の視差に基づいて計算する3次元情報計算部と、
    前記複数の画像のそれぞれから道路面上に存在する白線を検出する白線検出部と、
    前記近接道路面領域内の白線の3次元位置情報に基づいて、前記白線を前記遠方領域へ延長することにより、前記延長した白線における前記遠方領域内の水平方向と奥行き方向のそれぞれの位置を推定する白線推定部と、
    前記複数の画像におけるそれぞれの遠方領域内における前記特徴点から、一定の長さ以上となる前記特徴点の集合であるエッジセグメントを検出し、前記エッジセグメントの3次元位置情報を計算するエッジセグメント検出部と、
    前記エッジセグメントの3次元位置情報と前記延長した白線情報とに基づいて、前記遠方領域における道路勾配を推定する遠方領域道路勾配推定部と、
    を備える画像処理装置。
  2. 前記エッジセグメント検出部は、
    前記遠方領域内で前記画像中の消失点方向に向いた前記エッジセグメントを検出し、前記エッジセグメントの3次元位置情報を計算し、
    前記道路勾配推定部は、
    前記エッジセグメントの3次元位置情報と前記延長された白線情報との位置関係を用いて、前記遠方領域内における前記道路面に存在するエッジセグメントを選択し、
    前記選択されたエッジセグメントの3次元位置情報から前記遠方領域における道路勾配を推定する、
    を備える請求項1記載の画像処理装置。
  3. 前記エッジセグメント検出部は、
    前記近接道路面領域と前記遠方領域との境界線付近で、かつ、前記近接道路面領域内に存在する前記一定以上の長さを有するエッジセグメントの特徴点が、前記遠方領域まで連結しているか否かを判定し、連結していると判定した前記エッジセグメントを前記消失点方向に延長し、
    前記延長されたエッジセグメントの3次元位置情報を計算する、
    請求項2記載の画像処理装置。
  4. 前記道路勾配推定部は、
    前記道路面の水平方向をX、奥行き方向をZとするとき、XZ平面において、前記延長した白線の位置に対して、前記エッジセグメントまでの距離が閾値以下の第1の条件、前記延長した白線と前記エッジセグメントが平行であるという第2の条件、または、前記エッジセグメントの3次元位置情報に基づいて、前記エッジセグメントの高さが滑らかに変化するという第3の条件の少なくとも一つの条件を満足する前記エッジセグメントを選択する、
    請求項2記載の画像処理装置。
  5. 前記近接道路面領域内に存在する前記道路面の道路勾配を求める近接道路面勾配推定部と、
    前記近接道路面領域内の前記道路勾配と前記遠方領域における前記道路勾配とを接続して、前記近接領域から前記遠方領域までの全ての道路勾配を推定する全道路勾配推定部と、
    をさらに備える請求項1記載の画像処理装置。
  6. 前記近接道路面勾配推定部は、
    前記複数の画像の中の一の画像における前記近接道路面領域の任意の位置の画像情報と、前記複数の画像の中の他の画像を前記一の画像にアフィン変換したときの前記任意の位置に対応する画像情報とのずれ量を前記画像の縦方向に沿って計算し、
    前記ずれ量から前記近接領域における前記道路面の勾配を求める、
    請求項5記載の画像処理装置。
  7. 前記全道路面勾配推定部は、
    前記近接領域における前記道路面の勾配を表す直線と、前記遠方領域における前記道路勾配を表す曲線とを連結して、前記全ての道路勾配を表す線を求める、
    請求項5記載の画像処理装置。
  8. 自車両に搭載した共通の視野を有する2つ以上のカメラから時系列の画像をそれぞれ取得する画像取得ステップと、
    前記複数の画像から道路面領域を検出する道路面領域検出ステップと、
    前記複数の画像のそれぞれに、前記自車両から予め設定された距離より近い領域である近接領域、前記道路面領域と近接領域が重なる領域である近接道路面領域、及び、前記近接領域より遠方の領域である遠方領域を設定する設定ステップと、
    前記自車両から予め設定された距離より近い領域を近接領域、前記道路面領域と近接領域が重なる領域を近接道路面領域、及び、前記近接領域より遠方の領域を遠方領域と設定する設定ステップと、
    前記複数の画像における前記近接道路面領域及び前記遠方領域内のそれぞれから特徴点を検出する特徴点検出ステップと、
    前記複数の画像における前記特徴点のそれぞれの3次元位置情報を、前記複数の画像間の視差に基づいて計算する3次元情報計算ステップと、
    前記複数の画像のそれぞれから道路面上に存在する白線を検出する白線検出ステップと、
    前記近接道路面領域内の白線の3次元位置情報に基づいて、前記白線を前記遠方領域へ延長することにより、前記延長した白線における前記遠方領域内の水平方向と奥行き方向のそれぞれの位置を推定する白線推定ステップと、
    前記複数の画像におけるそれぞれの遠方領域内における前記特徴点から、一定の長さ以上となる前記特徴点の集合であるエッジセグメントを検出し、前記エッジセグメントの3次元位置情報を計算するエッジセグメント検出ステップと、
    前記エッジセグメントの3次元位置情報と前記延長した白線情報とに基づいて、前記遠方領域における道路勾配を推定する遠方領域道路勾配推定ステップと、
    を備える画像処理方法。
  9. 自車両に搭載した共通の視野を有する2つ以上のカメラから時系列の画像をそれぞれ取得する画像取得機能と、
    前記複数の画像から道路面領域を検出する道路面領域検出機能と、
    前記複数の画像のそれぞれに、前記自車両から予め設定された距離より近い領域である近接領域、前記道路面領域と近接領域が重なる領域である近接道路面領域、及び、前記近接領域より遠方の領域である遠方領域を設定する設定機能と、
    前記複数の画像における前記近接道路面領域及び前記遠方領域内のそれぞれから特徴点を検出する特徴点検出機能と、
    前記複数の画像における前記特徴点のそれぞれの3次元位置情報を、前記複数の画像間の視差に基づいて計算する3次元情報計算機能と、
    前記複数の画像のそれぞれから道路面上に存在する白線を検出する白線検出機能と、
    前記近接道路面領域内の白線の3次元位置情報に基づいて、前記白線を前記遠方領域へ延長することにより、前記延長した白線における前記遠方領域内の水平方向と奥行き方向のそれぞれの位置を推定する白線推定機能と、
    前記複数の画像におけるそれぞれの遠方領域内における前記特徴点から、一定の長さ以上となる前記特徴点の集合であるエッジセグメントを検出し、前記エッジセグメントの3次元位置情報を計算するエッジセグメント検出機能と、
    前記エッジセグメントの3次元位置情報と前記延長した白線情報とに基づいて、前記遠方領域における道路勾配を推定する遠方領域道路勾配推定機能と、
    を備える画像処理プログラム。
JP2007205182A 2007-08-07 2007-08-07 画像処理装置及びその方法 Pending JP2009041972A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007205182A JP2009041972A (ja) 2007-08-07 2007-08-07 画像処理装置及びその方法
US12/187,530 US20090041337A1 (en) 2007-08-07 2008-08-07 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007205182A JP2009041972A (ja) 2007-08-07 2007-08-07 画像処理装置及びその方法

Publications (1)

Publication Number Publication Date
JP2009041972A true JP2009041972A (ja) 2009-02-26

Family

ID=40346592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007205182A Pending JP2009041972A (ja) 2007-08-07 2007-08-07 画像処理装置及びその方法

Country Status (2)

Country Link
US (1) US20090041337A1 (ja)
JP (1) JP2009041972A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010271964A (ja) * 2009-05-22 2010-12-02 Fuji Heavy Ind Ltd 道路形状認識装置
JP2012007922A (ja) * 2010-06-23 2012-01-12 Nec Corp 道路構造測定方法および道路面測定装置
JP2013239078A (ja) * 2012-05-16 2013-11-28 Toyota Motor Corp 画像解析装置、画像解析方法、画像解析プログラム
WO2013186903A1 (ja) 2012-06-14 2013-12-19 トヨタ自動車株式会社 車線区分標示検出装置、運転支援システム
JP2020012735A (ja) * 2018-07-18 2020-01-23 日立オートモティブシステムズ株式会社 車載環境認識装置
KR102109841B1 (ko) * 2018-11-30 2020-05-28 아주대학교 산학협력단 주행 영상으로부터 차량을 검출하는 방법 및 장치
JP2021015373A (ja) * 2019-07-10 2021-02-12 株式会社Soken 物体検知装置
JP7563353B2 (ja) 2021-09-24 2024-10-08 株式会社デンソー 画像処理装置及び画像処理方法
WO2025134302A1 (ja) * 2023-12-21 2025-06-26 Astemo株式会社 画像処理装置

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5074365B2 (ja) * 2008-11-28 2012-11-14 日立オートモティブシステムズ株式会社 カメラ装置
JP4780534B2 (ja) * 2009-01-23 2011-09-28 トヨタ自動車株式会社 道路区画線検出装置
US8699755B2 (en) * 2009-02-20 2014-04-15 Navteq B.V. Determining travel path features based on retroreflectivity
GB2471276A (en) * 2009-06-22 2010-12-29 Bae Systems Plc Terrain sensing apparatus for an autonomous vehicle
US8659592B2 (en) * 2009-09-24 2014-02-25 Shenzhen Tcl New Technology Ltd 2D to 3D video conversion
JP2013097675A (ja) * 2011-11-02 2013-05-20 Honda Elesys Co Ltd 勾配推定装置、勾配推定方法、及び勾配推定プログラム
CN103164851B (zh) * 2011-12-09 2016-04-20 株式会社理光 道路分割物检测方法和装置
CN103177236B (zh) * 2011-12-22 2016-06-01 株式会社理光 道路区域检测方法和装置、分道线检测方法和装置
DE102012000650A1 (de) * 2012-01-16 2013-07-18 Carl Zeiss Microscopy Gmbh Verfahren und vorrichtung zum abrastern einer oberfläche eines objekts mit einem teilchenstrahl
KR101927886B1 (ko) * 2012-03-19 2018-12-11 삼성전자주식회사 영상 처리 장치 및 그 방법
CN102831595B (zh) * 2012-06-20 2014-12-10 中国农业大学 用于自然环境下目标点图像识别的标识物检测方法
WO2014084181A1 (ja) * 2012-11-30 2014-06-05 シャープ株式会社 画像計測装置
JP5754470B2 (ja) * 2012-12-20 2015-07-29 株式会社デンソー 路面形状推定装置
JP6194604B2 (ja) * 2013-03-15 2017-09-13 株式会社リコー 認識装置、車両及びコンピュータが実行可能なプログラム
JP6194610B2 (ja) * 2013-03-28 2017-09-13 富士通株式会社 移動距離推定装置、移動距離推定方法、及びプログラム
CN104166834B (zh) * 2013-05-20 2017-10-10 株式会社理光 路面检测方法和装置
JP5874756B2 (ja) * 2014-02-07 2016-03-02 トヨタ自動車株式会社 区画線検出システム及び区画線検出方法
JP6130809B2 (ja) * 2014-04-25 2017-05-17 本田技研工業株式会社 車線認識装置
EP3435352B1 (en) * 2016-03-24 2021-11-17 Nissan Motor Co., Ltd. Travel path detection method and travel path detection device
DE102016110461A1 (de) * 2016-06-07 2017-12-07 Connaught Electronics Ltd. Verfahren zum Erkennen einer Neigung in einer Fahrbahn für ein Kraftfahrzeug, Fahrerassistenzsystem sowie Kraftfahrzeug
KR102697448B1 (ko) 2016-11-30 2024-08-21 삼성전자주식회사 자율 주행 경로 생성 방법 및 그 장치
IT201600129019A1 (it) * 2016-12-20 2017-03-20 Univ Degli Studi Di Messina Apparato per tracciare lo stato della superficie di un pavimento e procedimento di bilanciamento dinamico di un tale apparato
US11089288B2 (en) * 2017-09-11 2021-08-10 Tusimple, Inc. Corner point extraction system and method for image guided stereo camera optical axes alignment
US11158088B2 (en) 2017-09-11 2021-10-26 Tusimple, Inc. Vanishing point computation and online alignment system and method for image guided stereo camera optical axes alignment
JP6901386B2 (ja) * 2017-12-08 2021-07-14 株式会社東芝 勾配推定装置、勾配推定方法、プログラムおよび制御システム
CN110826357B (zh) * 2018-08-07 2022-07-26 北京市商汤科技开发有限公司 对象三维检测及智能驾驶控制的方法、装置、介质及设备
CN109919144B (zh) * 2019-05-15 2019-08-16 长沙智能驾驶研究院有限公司 可行驶区域检测方法、装置、计算机存储介质及路测视觉设备
CN111062911B (zh) * 2019-11-15 2023-08-18 北京中科慧眼科技有限公司 基于路面信息的成像环境评价方法、装置、系统和存储介质
KR20210148756A (ko) 2020-06-01 2021-12-08 삼성전자주식회사 경사 추정 장치 및 이의 동작 방법
JP7528009B2 (ja) * 2021-03-17 2024-08-05 株式会社東芝 画像処理装置および画像処理方法
CN113077476B (zh) * 2021-03-17 2023-04-18 浙江大华技术股份有限公司 一种高度测量方法、终端设备以及计算机存储介质
CN116797517A (zh) * 2022-03-16 2023-09-22 小米汽车科技有限公司 对象检测方法、装置及车辆
CN116580032B (zh) * 2023-07-14 2023-09-26 青岛西海岸城市建设集团有限公司 一种用于道路施工的质量监控方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3797949B2 (ja) * 2002-03-28 2006-07-19 株式会社東芝 画像処理装置及びその方法
JP3895238B2 (ja) * 2002-08-28 2007-03-22 株式会社東芝 障害物検出装置及びその方法
JP4406381B2 (ja) * 2004-07-13 2010-01-27 株式会社東芝 障害物検出装置及び方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010271964A (ja) * 2009-05-22 2010-12-02 Fuji Heavy Ind Ltd 道路形状認識装置
JP2012007922A (ja) * 2010-06-23 2012-01-12 Nec Corp 道路構造測定方法および道路面測定装置
JP2013239078A (ja) * 2012-05-16 2013-11-28 Toyota Motor Corp 画像解析装置、画像解析方法、画像解析プログラム
WO2013186903A1 (ja) 2012-06-14 2013-12-19 トヨタ自動車株式会社 車線区分標示検出装置、運転支援システム
CN104335264A (zh) * 2012-06-14 2015-02-04 丰田自动车株式会社 车道划分标示检测装置、驾驶辅助系统
WO2020017334A1 (ja) * 2018-07-18 2020-01-23 日立オートモティブシステムズ株式会社 車載環境認識装置
JP2020012735A (ja) * 2018-07-18 2020-01-23 日立オートモティブシステムズ株式会社 車載環境認識装置
JP7219561B2 (ja) 2018-07-18 2023-02-08 日立Astemo株式会社 車載環境認識装置
KR102109841B1 (ko) * 2018-11-30 2020-05-28 아주대학교 산학협력단 주행 영상으로부터 차량을 검출하는 방법 및 장치
JP2021015373A (ja) * 2019-07-10 2021-02-12 株式会社Soken 物体検知装置
JP7318377B2 (ja) 2019-07-10 2023-08-01 株式会社Soken 物体検知装置
JP7563353B2 (ja) 2021-09-24 2024-10-08 株式会社デンソー 画像処理装置及び画像処理方法
WO2025134302A1 (ja) * 2023-12-21 2025-06-26 Astemo株式会社 画像処理装置

Also Published As

Publication number Publication date
US20090041337A1 (en) 2009-02-12

Similar Documents

Publication Publication Date Title
JP2009041972A (ja) 画像処理装置及びその方法
EP3057063B1 (en) Object detection device and vehicle using same
JP5588812B2 (ja) 画像処理装置及びそれを用いた撮像装置
CN104204726B (zh) 移动物体位置姿态估计装置和移动物体位置姿态估计方法
EP2757524B1 (en) Depth sensing method and system for autonomous vehicles
JP4814669B2 (ja) 3次元座標取得装置
JP5820774B2 (ja) 路面境界推定装置及びプログラム
JP4363295B2 (ja) ステレオ画像による平面推定方法
JP6171593B2 (ja) 視差図からの対象追跡方法及びシステム
JP2012127896A (ja) 移動体位置測定装置
EP3324359B1 (en) Image processing device and image processing method
KR20140052383A (ko) 차량의 주차구획 인식방법
WO2018179281A1 (ja) 物体検出装置及び車両
CN105849585A (zh) 物体识别装置
JP2021120255A (ja) 距離推定装置及び距離推定用コンピュータプログラム
JP2004028727A (ja) 監視システムおよび監視方法、当該監視システムにおける距離補正装置および距離補正方法
JP5501084B2 (ja) 平面領域検出装置及びステレオカメラシステム
JP5181602B2 (ja) 物体検出装置
JP2004013400A (ja) 対象物認識装置および対象物認識方法
JP2003281552A (ja) 画像処理装置及びその方法
JP2009139325A (ja) 車両用走行路面検出装置
JP3629935B2 (ja) 移動体の速度計測方法およびその方法を用いた速度計測装置
JP2020201210A (ja) 位置推定装置及びコンピュータプログラム
JPH10187974A (ja) 物流計測装置
JP2020046228A (ja) 計測装置、計測システムおよび車両