[go: up one dir, main page]

JP2018185694A - 移動物体判定装置、及び移動物体判定プログラム - Google Patents

移動物体判定装置、及び移動物体判定プログラム Download PDF

Info

Publication number
JP2018185694A
JP2018185694A JP2017087697A JP2017087697A JP2018185694A JP 2018185694 A JP2018185694 A JP 2018185694A JP 2017087697 A JP2017087697 A JP 2017087697A JP 2017087697 A JP2017087697 A JP 2017087697A JP 2018185694 A JP2018185694 A JP 2018185694A
Authority
JP
Japan
Prior art keywords
feature point
moving object
calculation unit
optical flow
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017087697A
Other languages
English (en)
Inventor
洪二郎 武山
Kojiro Takeyama
洪二郎 武山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2017087697A priority Critical patent/JP2018185694A/ja
Publication of JP2018185694A publication Critical patent/JP2018185694A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】自車両と周囲の物体の位置関係に関わらずに、撮影した画像に含まれる物体が移動体か否かを精度よく判定する。【解決手段】移動物体判定装置1は、画像から特徴点9を抽出する画像特徴抽出部20と、抽出した特徴点9を示すオプティカルフローを特徴点9毎に算出する第1オプティカルフロー算出部30と、自車両8の走行軌跡を算出する車両軌跡算出部50と、オプティカルフロー及び自車両8の走行軌跡から空間特徴点14を特徴点9毎に算出する特徴点3次元位置算出部60と、自車両8の走行軌跡及び空間特徴点14を用いて、特徴点9に対応した空間特徴点14のオプティカルフローを特徴点9毎に算出する第2オプティカルフロー算出部70と、特徴点9を示すオプティカルフローと空間特徴点9のオプティカルフローとを比較して、抽出したオプティカルフローが移動物体のオプティカルフローか否かを判定する移動物体判定部80を備える。【選択図】図1

Description

本発明は、移動物体判定装置、及び移動物体判定プログラムに関する。
従来から対象物をカメラで撮影し、撮影した画像に含まれる対象物が移動物体であるか静止物体であるかを判定する手法が提案されている(例えば特許文献1参照)。
特開2010−286963号公報
特許文献1に記載の移動物体検出装置では、画像の路面に相当する最下部の所定領域に含まれる特徴点を、路面構造に属する基準特徴点として選出し、選出した基準特徴点に基づいて自車両の基準姿勢変化量を算出する。そして、画像内の基準特徴点を除いた残りの特徴点の中から、任意の特徴点を比較特徴点として選出し、選出した比較特徴点に基づいて自車両の比較姿勢変化量を算出する。移動物体検出装置は、基準姿勢変化量と比較姿勢変化量を3次元座標にマッピングし、基準姿勢変化量の座標位置と比較姿勢変化量の座標位置が距離r以上離れている場合に、比較姿勢変化量の算出に用いた比較特徴点が移動物体に付随する特徴点と判定する。
しかしながら、特許文献1に記載の移動物体検出装置では、画像の決められた範囲を路面に相当する領域に設定するため、状況によっては設定した領域が必ずしも路面でないことがある。例えば自車両の前方にカメラを取り付けている場合、前方を走行している車両が自車両に近づくと、撮影した画像の最下部の所定領域には前方を走行している車両が映っていることがある。この場合、所定領域から選出した基準特徴点は静止物体の特徴点ではないことから、静止物体から基準特徴点を選出するという判定手法の前提条件が満たされないことになる。したがって、特許文献1に記載の移動物体検出装置では、移動物体を検出することが困難になる。
また、カメラの取り付け位置及び使用するカメラの解像度によっては、路面の特徴点を精度よく選出することが困難になることがある。仮に、路面の特徴点を精度よく選出することができたとしても、路面という限られた範囲の特徴点では特徴が似ている場合が多く、特徴点のばらつきが少ない場合がある。このように特許文献1に記載の移動物体検出装置は、偏った特徴点の分布を用いて移動物体を検出するため、自車両の基準姿勢変化量を精度よく算出することができない場合がある。また、自車両の基準姿勢変化量が精度よく算出できなければ、移動物体の検出精度も低下してしまう。
本発明は、上記に示した問題点を鑑みてなされたものであり、自車両と周囲の物体の位置関係に関わらずに、撮影した画像に含まれる物体が移動物体か否かを精度よく判定する移動物体判定装置を提供することを目的とする。
上記の目的を達成するために、請求項1に記載の移動物体判定装置は、移動体に取り付けられた撮影装置で時系列に沿って撮影された各々の画像から特徴点を抽出する抽出部と、前記抽出部で抽出された特徴点のうち、前記各々の画像において対応する特徴点を追跡し、追跡した特徴点の位置の時系列を特徴点毎に算出する第1の算出部と、前記移動体の移動速度及び運動に関する物理量を用いて、前記移動体の走行軌跡を算出する第2の算出部と、前記第1の算出部で算出した特徴点の位置の時系列と、前記第2の算出部で算出した前記移動体の走行軌跡とを用いて、抽出した特徴点の3次元空間における位置を特徴点毎に算出する第3の算出部と、前記第2の算出部で算出した前記移動体の走行軌跡と、前記第3の算出部で算出した前記3次元空間における特徴点を表す空間特徴点の位置とを用いて、前記空間特徴点の前記各々の画像における位置を算出し、前記各々の画像で表される前記空間特徴点に対応した特徴点の位置の時系列を、前記空間特徴点に対応する特徴点毎に算出する第4の算出部と、前記第1の算出部で算出した特徴点の位置の時系列と、当該特徴点に対応する前記第4の算出部で算出した前記空間特徴点の位置の時系列とを比較して、特徴点が表す物体が移動物体か否かを特徴点毎に判定する判定部と、を備える。
請求項2に記載の発明では、前記各々の画像から移動物体領域を検出する検出部を備え、前記判定部は、移動物体を表すと判定した特徴点のうち、前記検出部で前記各々の画像から検出された前記移動物体領域の何れにも含まれない特徴点は、移動物体を表す特徴点ではないと再判定する。
請求項3に記載の発明では、前記各々の画像における何れかの画像から移動物体領域を検出する検出部を備え、前記判定部は、前記検出部で検出された前記移動物体領域毎に、前記移動物体領域に含まれる特徴点に対する移動物体を表す特徴点の割合を算出し、前記割合が予め定めた割合未満となる前記移動物体領域に含まれる特徴点は、移動物体を表す特徴点ではないと再判定すると共に、前記割合が予め定めた割合以上となる前記移動物体領域に含まれる特徴点は、移動物体を表す特徴点であると再判定する。
請求項4に記載の発明では、前記判定部は、過去に前記移動物体領域を表すと判定されたことがある特徴点は、移動物体を表す特徴点であると判定する。
請求項5に記載の発明では、前記判定部は、前記移動体の運動に関する物理量の変動度合いが予め定めた閾値より大きい場合、特徴点の位置の時系列として、前回の判定で得られた特徴点の位置の時系列を用いて、特徴点が表す物体が移動物体か否かを特徴点毎に判定する。
請求項6に記載の発明では、前記判定部は、前記第1の算出部で算出した特徴点の位置の時系列と、当該特徴点に対応する前記第4の算出部で算出した前記空間特徴点の位置の時系列との距離を用いて、特徴点が表す物体が移動物体か否かを特徴点毎に判定する。
請求項7に記載の移動物体判定プログラムは、コンピュータを、移動体に取り付けられた撮影装置で時系列に沿って撮影された各々の画像から特徴点を抽出する抽出部と、前記抽出部で抽出された特徴点のうち、前記各々の画像において対応する特徴点を追跡し、追跡した特徴点の位置の時系列を特徴点毎に算出する第1の算出部と、前記移動体の移動速度及び移動方向に関する物理量を用いて、前記移動体の走行軌跡を算出する第2の算出部と、前記第1の算出部で算出した特徴点の位置の時系列と、前記第2の算出部で算出した前記移動体の走行軌跡とを用いて、抽出した特徴点の3次元空間における位置を特徴点毎に算出する第3の算出部と、前記第2の算出部で算出した前記移動体の走行軌跡と、前記第3の算出部で算出した前記3次元空間における特徴点を表す空間特徴点の位置とを用いて、前記空間特徴点の前記各々の画像における位置を算出し、前記各々の画像で表される前記空間特徴点に対応した特徴点の位置の時系列を、前記空間特徴点に対応する特徴点毎に算出する第4の算出部と、前記第1の算出部で算出した特徴点の位置の時系列と、当該特徴点に対応する前記第4の算出部で算出した前記空間特徴点の位置の時系列とを比較して、特徴点が表す物体が移動物体か否かを特徴点毎に判定する判定部として機能させる。
本発明によれば、自車両と周囲の物体の位置関係に関わらずに、撮影した画像に含まれる物体が移動物体か否かを精度よく判定することができる、という効果を奏する。
第1実施形態に係る移動物体判定装置の構成例を示す図である。 特徴点の3次元位置の算出方法について説明した模式図である。 特徴点の再投影について説明した模式図である。 移動体の軌跡の判定方法を説明した模式図である。 移動物体判定装置の電気系統の要部構成例を示す図である。 第1実施形態に係る移動物体判定処理の流れの一例を示すフローチャートである。 オプティカルフローの一例を示す図である。 移動物体の判定結果の一例を示す図である。 第2実施形態に係る移動物体判定装置の構成例を示す図である。 第2実施形態に係る移動物体判定処理の流れの一例を示すフローチャートである。 車両画像領域の一例を示す図である。 移動物体の判定結果の一例を示す図である。 第3実施形態に係る移動物体判定装置の構成例を示す図である。 第3実施形態に係る移動物体判定処理の流れの一例を示すフローチャートである。 第4実施形態に係る移動物体判定装置の構成例を示す図である。 第4実施形態に係る移動物体判定処理の流れの一例を示すフローチャートである。 移動車両領域判定処理の流れの一例を示すフローチャートである。 車両画像領域の判定結果の一例を示す図である。 移動物体の判定結果の一例を示す図である。
以下、本実施の形態について図面を参照しながら説明する。なお、機能が同じ構成要素及び処理には、全図面を通して同じ符合を付与し、重複する説明を省略する。
<第1実施形態>
図1は、第1実施形態に係る移動物体判定装置1の構成例を示す図である。図1に示すように、移動物体判定装置1は、画像情報取得部10、画像特徴抽出部20、第1オプティカルフロー算出部30、IMU情報取得部40、及び車両軌跡算出部50を含む。更に、移動物体判定装置1は、特徴点3次元位置算出部60、第2オプティカルフロー算出部70、及び移動物体判定部80を含む。
画像情報取得部10は、移動物体判定装置1が搭載された車両(以降、「自車両」という場合がある)に取り付けられた撮影装置の一例である図示しないカメラで撮影された、自車両周辺の画像を取得する。
図示しないカメラは時系列に沿って画像を撮影し、撮影した画像を画像データとして後述するRAM等の記憶装置に記憶する。なお、画像情報取得部10が取得する画像の形態は、静止画であっても動画であってもよく、自車両の周囲の画像内容を解析することができれば、可視画像、赤外画像、及び距離画像の何れの画像であってもよい。また、画像情報取得部10は、自車両に取り付けられた1台のカメラから画像を取得しても、複数のカメラから画像を取得してもよい。
更に、自車両におけるカメラの取り付け位置に制約はなく、例えば車両進行方向、車両進行方向と逆方向、又は自車両を中心とした全方位の画像を撮影する位置にカメラを取り付けることができる。なお、自車両は移動体の一例である。
画像特徴抽出部20は、画像情報取得部10で取得した画像の各々から、画像内の他の領域とは異なる特徴的な画素パターンを示す特徴点を複数抽出する。
画像特徴抽出部20における特徴点の抽出手法には公知の手法が用いられ、適用される特徴点の抽出手法に制約はない。画像特徴抽出部20は、例えば特徴点の抽出において拡大、回転、及び明るさの変化といった外部要因の影響を除外しようとする内的性質(ロバスト性)を有するSIFT(Scale-Invariant Feature Transform)法、及びSURF(Speed Up Robust Feature)法を用いることができる。また、画像特徴抽出部20は、他の特徴点の抽出手法に比べて実装が容易なHarris法や、計算量が少ないFAST(Features from Accelerated Segment Test)法を用いることができる。
なお、画像特徴抽出部20は特徴点の抽出に代えて、又は特徴点の抽出と共に、画像の特徴を示す線分(特徴線分)や面(特徴面)を抽出してもよいが、ここでは一例として、画像特徴抽出部20は特徴点を抽出するものとする。画像特徴抽出部20は抽出部の一例である。
第1オプティカルフロー算出部30は、画像特徴抽出部20で抽出された、自車両の走行に伴って時間と共に移動する各々の特徴点を追跡し、同じ箇所を示す特徴点(対応する特徴点ともいう)の位置の時系列として表されるオプティカルフローを特徴点毎に算出する。対応する特徴点の追跡には、例えばLucas-Kanade法などの公知の手法を用いることができ、特徴点の追跡手法に特に制約はない。第1オプティカルフロー算出部30は、第1の算出部の一例である。なお、以降では、オプティカルフローを“OF(Optical Flow)”と省略して表記する場合がある。また、単に「オプティカルフロー」と記載している場合は、画像特徴抽出部20で抽出された特徴点9を追跡して得られたオプティカルフローを指す。
IMU情報取得部40は、自車両に取り付けられた図示しない車速センサ及びジャイロセンサから、それぞれ自車両の移動速度を表す車速及び自車両の運動を表す角速度を時系列に沿って取得する。
ジャイロセンサは、ピッチ方向、ロール方向、及びヨー方向のそれぞれの角速度を測定する。
IMU情報取得部40による自車両の車速及び角速度の取得間隔に制約はないが、取得間隔を短くするほど自車両の移動状況を詳細に解析することができる。なお、IMU情報取得部40による自車両の車速及び角速度の取得方法についても制約はなく、車速センサ及びジャイロセンサに接続された配線からそれぞれ自車両の車速及び角速度を取得しても、無線を用いて取得してもよい。また、IMU情報取得部40は、車速センサ及びジャイロセンサからそれぞれ自車両の車速及び角速度を直接取得する必要はなく、車速センサ及びジャイロセンサの計測値を蓄積する他の装置(例えばセンサ管理装置)から取得するようにしてもよい。
なお、IMUはInertial Measurement Unit(慣性計測装置)の略である。
車両軌跡算出部50は、IMU情報取得部40で取得した自車両の車速及び角速度を用いて、自車両の走行軌跡を算出する。
車速及び角速度の測定間隔をΔt、ヨー方向、すなわち方位角方向の角速度をω、ピッチ方向の角速度をψ、時刻tにおける方位角をθt、時刻tにおけるピッチ角をφtとすれば、時刻(t+1)における方位角θt+1及びピッチ角φt+1はそれぞれ(1)式及び(2)式で表される。
また、時刻(t+1)における車速をVt+1、時刻tにおける自車両の位置をxt=(Xt、Yt、Zt)とすれば、時刻(t+1)における自車両の3次元空間(実空間)における位置xt+1=(Xt+1、Yt+1、Zt+1)は(4)式で表される。
車両軌跡算出部50は、(1)式〜(3)式の各式に基づき、各時刻における自車両の位置を逐次算出し、算出した位置を時系列に沿って接続することで、自車両の走行軌跡を算出する。
なお、自車両の方位角θ、ピッチ角φ、及び自車両の位置の初期値は“0”とする。車両軌跡算出部50は、第2の算出部の一例である。
特徴点3次元位置算出部60は、第1オプティカルフロー算出部30で算出した特徴点毎のオプティカルフローと、車両軌跡算出部50で算出した自車両の走行軌跡を用いて、実空間における特徴点の位置(特徴点の3次元位置)を特徴点毎に算出する。
図2は、特徴点3次元位置算出部60における特徴点の3次元位置の算出方法について説明した模式図である。なお、特徴点3次元位置算出部60は特徴点毎に特徴点の3次元位置を算出するが、図2では1つの特徴点に注目して特徴点の3次元位置の算出方法を説明している。また、図2では時刻t〜tにおけるオプティカルフローと自車両の走行軌跡を用いているが、特徴点の3次元位置の算出に用いる時刻の範囲は一例であり、4つの時刻t〜tに限られないことは言うまでもない。
特徴点3次元位置算出部60は、自車両8の走行軌跡によって表される各時刻t〜tにおける自車両8のそれぞれの位置から、オプティカルフローによって位置が表される同じ時刻における画像内の特徴点9を眺めた場合の視線を表す直線12を、実空間上に各々設定する。そして、実空間に設定した各々の直線12が最も集中する位置を、オプティカルフローで表される同じ特徴点9の実空間における特徴点位置とする。なお、以降では、特徴点9に対応した実空間上の特徴点を「空間特徴点14」ということにする。
このように、各時刻の画像に含まれる特徴点9から空間特徴点14を算出する演算は、「特徴点9の逆投影」と呼ばれる。
時刻tにおける自車両8の位置をxt、方位角θt、ピッチ角φt、ロール角ρtで表される時刻tにおける自車両8の姿勢を要素とした3次元回転行列をRt、時刻tにおける画像内の特徴点mの位置をX' t,m、カメラパラメータをKとすれば、特徴点mに対応する空間特徴点14の3次元位置Xは(4)式で表される。
ここで、“I”は3×3の単位正方行列であり、“m”は複数の特徴点にそれぞれ割り当てられた特徴点のインデックスである。なお、カメラパラメータとは、画像を撮影するカメラの光学特性を表すパラメータであり、例えば焦点距離、画素の大きさ、レンズ収差、及び画像中心等の要素を含む。
また、ロール方向の角速度をξとすれば、時刻(t+1)におけるロール角ρt+1は(5)式で表される。
したがって、(1)式、(2)式及び(5)式から、3次元回転行列Rtが得られる。特徴点3次元位置算出部60は、第3の算出部の一例である。
第2オプティカルフロー算出部70は、車両軌跡算出部50で算出した自車両8の走行軌跡と、特徴点3次元位置算出部60で算出した空間特徴点14の3次元位置を用いて、画像内における空間特徴点14の位置を各時刻に撮影された画像毎に算出する。そして、第2オプティカルフロー算出部70は、空間特徴点14に対応する画像内における特徴点の位置の時系列、すなわち空間特徴点14のオプティカルフローを空間特徴点14毎に算出する。
なお、特徴点9に対応する空間特徴点14の各時刻における画像内の位置を算出する演算は「特徴点9の再投影」と呼ばれる。したがって、各画像内の空間特徴点14に対応する位置の特徴点を「再投影特徴点16」ということがある。
図3は、第2オプティカルフロー算出部70における特徴点9の再投影について説明した模式図である。なお、第2オプティカルフロー算出部70は特徴点9毎に画像内における再投影特徴点16の位置を算出するが、図3では1つの特徴点9に対応する空間特徴点14に注目して特徴点9の再投影について説明している。また、図3では時刻t〜tにおける空間特徴点14のオプティカルフローを算出しているが、空間特徴点14のオプティカルフローを算出する時刻の範囲は一例であり、時刻t〜tに限られないことは言うまでもない。ただし、後述する移動物体判定部80でオプティカルフローと、対応する空間特徴点14のオプティカルフローとを比較するため、算出する空間特徴点14のオプティカルフローの範囲を、特徴点3次元位置算出部60で空間特徴点14の位置を算出する際に使用した時刻の範囲に合わせることが好ましい。
第2オプティカルフロー算出部70は、空間特徴点14から自車両8の走行軌跡によって表される各時刻t〜tにおける自車両8の各々の位置に対して直線12を設定し、直線12が各時刻t〜tに撮影された画像と交わる各々の点(投影点)を、各時刻t〜tにおける再投影特徴点16の位置とする。そして、第2オプティカルフロー算出部70は、各時刻t〜tにおける再投影特徴点16を時系列に沿って追跡することで、空間特徴点14のオプティカルフローを得る。
なお、インデックスmで示される空間特徴点14に対応する時刻tにおける再投影特徴点16の位置X'' t,mは(6)式で表される。
第2オプティカルフロー算出部70は、第4の算出部の一例である。
移動物体判定部80は、第1オプティカルフロー算出部30で算出したオプティカルフローと、第2オプティカルフロー算出部70で算出した、特徴点9に対応する空間特徴点14のオプティカルフローを特徴点9毎に比較する。そして、移動物体判定部80は、第1オプティカルフロー算出部30で算出したオプティカルフローが、移動物体の軌跡を示しているか否かを特徴点9毎に判定する。
図4は、移動物体判定部80による移動物体の軌跡の判定方法を説明した模式図である。
図4に示すように、移動物体判定部80は、各時刻におけるオプティカルフロー22と特徴点9に対応する空間特徴点14のオプティカルフロー24との距離(乖離距離18)を算出する。
移動物体判定部80は、算出した乖離距離18からオプティカルフロー22と空間特徴点14のオプティカルフロー24との乖離度合いを表す乖離指標値を算出し、乖離指標値が予め定めた乖離閾値を越える場合、オプティカルフロー22が移動物体の軌跡であると判定する。
乖離指標値としては、例えば各時刻における乖離距離18の分散値、標準偏差、平均値、中央値、最大値、及び最小値等を用いることができるが、これに限られず、他の統計量を用いることができる。また、乖離閾値は、時刻毎の乖離距離18から算出した乖離指標値がこの値以上である場合に、オプティカルフローが移動物体の軌跡を示しているとみなすことができる値に設定される。乖離閾値は、例えば移動物体判定装置1の実機による実験や移動物体判定装置1の設計仕様に基づくコンピュータシミュレーション等により予め設定される閾値である。なお、移動物体判定部80は判定部の一例である。
次に、移動物体判定装置1の作用について説明する。上述した移動物体判定装置1は、コンピュータ2を用いて構成することができる。
図5は、移動物体判定装置1の電気系統の要部構成例を示す図である。
移動物体判定装置1は、判定処理を実行するCPU(Central Processing Unit)2Aを備える。また、移動物体判定装置1は、各種プログラムや各種パラメータ等が予め記憶されたROM(Read Only Memory)2B、及びCPU2Aによるプログラムの実行時のワークエリア等として用いられるRAM(Random Access Memory)2Cを備える。更に、移動物体判定装置1は、コンピュータ2の電源をオフにしてもデータが保持される不揮発性メモリ2D、及び外部モジュールを接続する入出力インターフェース(I/O)2Eを備える。
CPU2A、ROM2B、RAM2C、不揮発性メモリ2D、及びI/O2Eは互いに内部バス2Fで接続され、I/O2Eには、例えばカメラ3、GPS(Global Positioning System)モジュール4、車速センサ5、及びジャイロセンサ6が接続される。
GPSモジュール4は、複数のGPSから送信されるGPS電波を受信し、自車両8の位置を緯度及び経度で表す位置測定装置の一例である。
車速センサ5は、例えば自車両8の車軸の回転数を監視して、車軸の回転数から車速を測定する速度測定装置の一例である。
ジャイロセンサ6は、例えば自車両8のピッチ方向、ロール方向、及びヨー方向のそれぞれの角速度を測定する慣性計測装置の一例である。ジャイロセンサ6における角速度の測定方法に制約はなく、機械的な動きを検知して角速度を測定する振動方式であってもよいし、コリオリ力によって発生した変位を静電容量の変位として検知して角速度を測定する静電容量方式であってもよい。
なお、I/O2Eに接続される外部モジュールは一例であり、カメラ3、GPSモジュール4、車速センサ5、及びジャイロセンサ6に限定されない。例えばI/O2Eに、インターネット等の通信回線に接続して他の外部装置とデータ通信を行う通信装置を接続してもよい。
図6は、移動物体判定装置1での移動物体判定処理の流れの一例を示すフローチャートである。移動物体判定処理を規定する移動物体判定プログラムはROM2Bに予め記憶されており、例えば移動物体判定装置1の電源がオンされると、CPU2Aが移動物体判定プログラムをROM2Bから読み出して実行する。その後、CPU2Aは、一定期間経過毎に移動物体判定処理を実行する。
ステップS10において、CPU2Aは、カメラ3を制御して画像の撮影を開始させる。カメラ3で撮影された画像はRAM2Cに記憶されるため、CPU2Aは、画像を時系列に沿ってRAM2Cから取得する。
ステップS20において、CPU2Aは、公知の特徴点抽出手法を用いて、ステップS10で取得した画像の各々から特徴点9を複数抽出し、画像と抽出した特徴点9の座標とを対応付けてRAM2Cに記憶する。
ステップS30において、CPU2Aは、ステップS20で抽出した各々の画像の特徴点9を時系列に沿って追跡することで得られるオプティカルフローを特徴点9毎に算出する。CPU2Aは、算出したオプティカルフローをRAM2Cに記憶する。
図7は、ステップS30で算出したオプティカルフローの一例を示す図である。ステップS20で抽出した時刻t(t=1〜5)における各画像の特徴点9を時間追跡することで、オプティカルフロー22が特徴点9毎に得られる。
ステップS40において、CPU2Aは、自車両8の時系列に沿った車速及び角速度を、予め定めた時間の範囲(判定期間)に亘ってそれぞれ車速センサ5及びジャイロセンサ6から取得する。なお、CPU2Aは、自車両8の方位角方向の角速度ω、ピッチ方向の角速度ψ、及びロール方向の角速度ξをそれぞれ取得する。CPU2Aは、取得した車速及び角速度をRAM2Cに記憶する。
ステップS50において、CPU2Aは、ステップS40で取得した自車両8の方位角方向の角速度ωと、時刻tにおける方位角θtを用いて、時刻(t+1)における方位角θt+1を(1)式によって算出する。
また、CPU2Aは、ステップS40で取得した自車両8のピッチ方向の角速度ψと、時刻tにおけるピッチ角φtを用いて、時刻(t+1)におけるピッチ角φt+1を(2)式によって算出する。
更に、CPU2Aは、算出した時刻(t+1)における方位角θt+1、ピッチ角φt+1、及びステップS40で取得した時刻(t+1)における車速Vt+1を用いて、時刻(t+1)における自車両8の位置(Xt+1、Yt+1、Zt+1)を(3)式によって算出する。
CPU2Aは、判定期間内において、各時刻tにおける自車両8の位置を逐次算出することで、判定期間における自車両8の位置の変化、すなわち自車両8の走行軌跡を算出する。なお、車速及び角速度の測定間隔であるΔtは予め定められており、例えば不揮発性メモリ2Dに予め記憶しておけばよい。
CPU2Aは、判定期間における自車両8の各位置を、自車両8の走行軌跡としてRAM2Cに記憶する。
ステップS60において、CPU2Aは、ステップS40で取得した自車両8のロール角方向の角速度ξと、時刻tにおけるロール角ρtを用いて、時刻(t+1)におけるロール角ρt+1を(5)式によって算出する。
CPU2Aは、判定期間内において、各時刻tにおける自車両8のロール角ρtを逐次算出し、判定期間内における自車両8のロール角ρtと、ステップS50で算出した判定期間内における自車両8の方位角θt及びピッチ角φtを用いて、自車両8の3次元回転行列Rtを算出する。
そして、CPU2Aは、カメラ3のカメラパラメータK、自車両8の3次元回転行列Rt、ステップS50で算出した自車両8の走行軌跡xt、及びステップS30で算出したインデックスmで示されるオプティカルフローX' t,mを用いて、特徴点9に対応する空間特徴点14の3次元位置Xを(4)式によって特徴点9毎に算出する。
なお、カメラ3のカメラパラメータKは、例えば不揮発性メモリ2Dに予め記憶しておいた値を用いればよい。
CPU2Aは、算出した空間特徴点14の3次元位置Xを、空間特徴点14の算出に用いたオプティカルフローと対応付けて、特徴点9毎にRAM2Cに記憶する。
ステップS70において、CPU2Aは、RAM2Cに記憶したオプティカルフローのうち、選択していないオプティカルフローを1つ選択する。
ステップS80において、CPU2Aは、ステップS70で選択したオプティカルフローに対応付けられている空間特徴点14の3次元位置Xを取得する。
CPU2Aは、取得した空間特徴点14の3次元位置X、カメラ3のカメラパラメータK、ステップS60で算出した自車両8の3次元回転行列Rt、及びステップS50で算出した自車両8の走行軌跡xtを用いて、空間特徴点14に対応する判定期間における各画像内の再投影特徴点16の位置X'' t,mを(6)式によって算出する。
CPU2Aは、判定期間における各画像内の再投影特徴点16の位置X'' t,mを時系列に沿って追跡することで得られる空間特徴点14のオプティカルフローを、ステップS70で選択したオプティカルフローと対応付けてRAM2Cに記憶する。
ステップS90において、CPU2Aは、ステップS70で選択したオプティカルフローと、ステップS80で算出した特徴点9に対応付けられている空間特徴点14のオプティカルフローとの乖離距離18を算出する。具体的には、CPU2Aは、選択したオプティカルフローと空間特徴点14のオプティカルフローとの乖離距離18から、乖離度合いを表す乖離指標値を算出する。一例として、CPU2Aは乖離指標値として、判定期間内の各時刻における乖離距離18の平均値を算出する。
ステップS100において、CPU2Aは、ステップS90で算出した乖離指標値が乖離閾値を越えるか否かを判定する。乖離指標値が乖離閾値を超える場合、ステップS110に移行する。
選択したオプティカルフローが移動物体のオプティカルフローであれば、移動物体は移動していることから、乖離距離18が大きくなる傾向が見られる。すなわち、乖離指標値が乖離閾値を超える場合、ステップS70で選択したオプティカルフローが、例えば自車両8の周囲を走行している他の車両等の移動物体のオプティカルフローであるとみなすことができる。
したがって、ステップS110において、CPU2Aは、ステップS70で選択したオプティカルフローに移動物体OFのタグを対応付けてRAM2Cに記憶する。ここで「移動物体OF」とは、オプティカルフローが移動物体のオプティカルフローであることを表すタグである。
一方、ステップS100の判定処理が否定判定の場合、すなわち、乖離指標値が乖離閾値以下である場合は、ステップS110の処理を実行せずにステップS120に移行する。
ステップS120において、CPU2Aは、ステップS30で算出した全てのオプティカルフローをステップS70で選択したか否かを判定する。選択していないオプティカルフローが存在する場合にはステップS70に移行する。ステップS70において、CPU2Aは、まだ選択していないオプティカルフローを選択し、ステップS70〜S120の処理を繰り返し実行することで、オプティカルフローが移動物体のオプティカルフローであるか否かを特徴点9毎に判定する。
そして、ステップS30で算出した全てのオプティカルフローに対して移動物体のオプティカルフローであるか否かの判定が行われると、ステップS120の判定処理が肯定判定となり、図6に示した移動物体判定処理が終了する。
すなわち、移動物体のオプティカルフローであると判定されたオプティカルフローを伴う物体は、移動物体であると判定される。
図8は、移動物体判定装置1で図6に示した移動物体判定処理を実行した場合の判定結果の一例を示す図である。
図8において、画像32は、ステップS30で算出したオプティカルフローを統合した画像であり、画像34は、ステップS80で算出した空間特徴点14のオプティカルフロー24を統合した画像である。また、画像36は、オプティカルフロー22と空間特徴点14のオプティカルフロー24との乖離距離18の平均値をオプティカルフロー毎に算出し、乖離距離18の平均値が比較的長い軌跡を黒色で表し、乖離距離18の平均値が比較的短い軌跡を灰色で表した図である。画像38は、オプティカルフロー22のうち、移動物体のオプティカルフローであると判定されたオプティカルフローを黒色の実線で表し、静止物体のオプティカルフローであると判定されたオプティカルフローを灰色の実線で表した画像である。
このように第1実施形態に係る移動物体判定装置1によれば、例えば画像の下部というように、画像から抽出する特徴点9の領域を限定することなく特徴点9を抽出する。また、移動物体判定装置1は、特徴点9に対応した空間特徴点14を算出し、空間特徴点14を画像に再投影することで、空間特徴点14のオプティカルフローを算出する。そして、移動物体判定装置1は、特徴点9を示すオプティカルフローと空間特徴点14のオプティカルフローの乖離度合いに基づいて、オプティカルフローが移動物体のオプティカルフローか否かを判定する。したがって、移動物体判定装置1は、自車両8と周囲の物体の位置関係に関わらずに、撮影した画像に含まれる物体が移動物体か否かを判定することができる。更に、移動物体判定装置1は、特徴点9を示すオプティカルフローだけから移動物体か否かを判定する場合と比較して、撮影した画像に含まれる物体が移動物体か否かを精度よく判定することができる。
<第2実施形態>
第1実施形態に係る移動物体判定装置1は、特徴点9を示すオプティカルフローと空間特徴点14のオプティカルフローの乖離度合いに基づいて、画像から抽出したオプティカルフローが移動物体のオプティカルフローか否か判定した。
第2実施形態では、予め画像から移動物体の範囲を絞り込んでおくことで、オプティカルフローから画像に含まれる物体が移動物体か否かを精度よく判定することができる移動物体判定装置1Aについて説明する。
図9は、移動物体判定装置1Aの構成例を示す図である。移動物体判定装置1Aの構成が、図1に示した第1実施形態に係る移動物体判定装置1の構成と異なる点は、移動物体候補判定部90及び車両検出部100が追加され、移動物体判定部80が移動物体判定部80Aに置き換えられた点である。
移動物体候補判定部90は、第1実施形態に係る移動物体判定装置1の移動物体判定部80と同じ処理を行う。すなわち、移動物体判定装置1Aでは、移動物体候補判定部90が移動物体判定部80の機能を担う。
移動物体候補判定部90は、第1オプティカルフロー算出部30で算出したオプティカルフローの各々に対して移動物体のオプティカルフローか否かを判定した判定結果を、移動物体判定部80Aに通知する。以降では、移動物体候補判定部90で移動物体のオプティカルフローであると判定されたオプティカルフローを「移動物体OF候補」という。
車両検出部100は、画像情報取得部10で取得した画像の各々について、車両に相当する画像領域(車両画像領域)を検出する。画像から車両画像領域を検出する手法には公知の検出手法が用いられる。例えば、予め様々な車両の画像を教師信号として学習しておき、画像に含まれる物体が車両か否かのパターン認識を行うSVM(Support Vector Machine)や、車両の特徴をよく表している部分の局所的特徴量の集合を用いて、画像内に局所的特徴量の集合が含まれるか否かを判定することで車両画像領域を検出するBOF(Bag Of Features)が用いられる。また、車両画像領域の検出に、CNN(Convolutional Neural Network)等のニューラルネットワークを用いた深層学習(Deep Learning)手法を用いてもよい。
なお、車両検出部100は検出部の一例であり、車両画像領域は移動物体領域の一例である。
移動物体判定部80Aは、移動物体候補判定部90で判定された移動物体OF候補と、車両検出部100で検出された車両画像領域を用いて、移動物体OF候補のうち、何れのオプティカルフローが移動物体のオプティカルフローか否かを判定する。
具体的には、移動物体判定部80Aは、移動物体OF候補のうち、オプティカルフローの少なくとも一部が車両画像領域に含まれる移動物体OF候補を移動物体のオプティカルフローと判定する。すなわち、移動物体判定部80Aは、移動物体OF候補のうち、オプティカルフローの何れの部分も車両画像領域に含まれないオプティカルフローは移動物体のオプティカルフローではないと判定する。なお、オプティカルフローの少なくとも一部が車両画像領域に含まれることを、「車両画像領域にオプティカルフローが含まれる」という。
移動物体判定装置1Aにおいて、移動物体判定部80A及び移動物体候補判定部90は、判定部の一例である。
次に、移動物体判定装置1Aの作用について説明する。移動物体判定装置1Aの電気系統の要部構成例は、図5に示した第1実施形態に係る移動物体判定装置1における電気系統の要部構成例と同じである。
図10は、移動物体判定装置1Aでの移動物体判定処理の流れの一例を示すフローチャートである。移動物体判定処理を規定する移動物体判定プログラムはROM2Bに予め記憶されており、例えば移動物体判定装置1Aの電源がオンされると、CPU2Aが移動物体判定プログラムをROM2Bから読み出して実行する。その後、CPU2Aは、一定期間経過毎に移動物体判定処理を実行する。
図10の移動物体判定処理が、図6に示した第1実施形態に係る移動物体判定処理と異なる点は、ステップS130及びステップS140が追加された点であり、ステップS10〜S120の処理は同じである。
ステップS130において、CPU2Aは、ステップS10で取得した画像の各々から、公知の抽出手法を用いて車両画像領域を検出する。CPU2Aは、検出した車両画像領域の座標データを検出元の画像と対応付けてRAM2Cに記憶する。
図11は、画像52から検出した車両画像領域42の例を示す図である。図11では、車両画像領域42を点線の矩形で表している。
ステップS140において、CPU2Aは、ステップS10で取得した何れかの画像に対応付けられた車両画像領域42と、ステップS30で算出されたオプティカルフローを統合して、オプティカルフローのうち、車両画像領域42に含まれる移動物体OF候補を最終的な移動物体のオプティカルフローとして判定する。
したがって、CPU2Aは、移動物体OF候補のうち、最終的に移動物体のオプティカルフローであると判定した移動物体OF候補にのみ移動物体OFのタグを対応付けてRAM2Cに記憶し、移動物体のオプティカルフローではないと判定した移動物体OF候補からは移動物体OFのタグを取り除く。
なお、ステップS140における最終的な移動物体のオプティカルフローの判定方法はこれに限定されない。例えば、ステップS30で抽出したオプティカルフローのうち、車両画像領域42に含まれるオプティカルフローを全て移動物体のオプティカルフローと判定し、これ以外のオプティカルフローは移動物体のオプティカルフローではないと判定してもよい。
以上により、図10に示した移動物体判定処理が終了する。
図12は、移動物体判定装置1Aで図10に示した移動物体判定処理を実行した場合の判定結果の一例を示す図である。
図12において、画像52は、車両画像領域42を統合した画像であり、画像54は、オプティカルフローを統合した画像である。画像54において、黒色の実線は移動物体OF候補を表し、灰色の実線は移動物体候補判定部90で静止物体のオプティカルフローと判定されたオプティカルフローを表す。また、画像56は、画像52と画像54を統合した画像である。
移動物体判定装置1Aは、例えば画像56に示した移動物体OF候補のうち、車両画像領域42に含まれる移動物体OF候補を移動物体のオプティカルフローとして判定することになる。
このように第2実施形態に係る移動物体判定装置1Aによれば、画像から車両画像領域42を検出することで、移動物体OF候補の中から更に移動物体のオプティカルフローを絞り込むことができるため、移動物体のオプティカルフローを精度よく判定することができる。
<第3実施形態>
第2実施形態に係る移動物体判定装置1Aは、移動物体OF候補のうち、車両画像領域42に含まれる移動物体OF候補を移動物体のオプティカルフローとして判定した。
第3実施形態では、移動物体OF候補の信頼度を判定し、信頼度の低い移動物体OF候補を移動物体のオプティカルフローの判定に用いないようにする移動物体判定装置1Bについて説明する。
図13は、移動物体判定装置1Bの構成例を示す図である。移動物体判定装置1Bの構成が、図9に示した第2実施形態に係る移動物体判定装置1Aの構成と異なる点は、信頼度判定部110が追加された点である。
信頼度判定部110は、IMU情報取得部40で取得した自車両8の角速度のうち、ピッチ方向の角速度ψの変動度合いを表すピッチレイトを用いて、移動物体候補判定部90で判定された移動物体OF候補の信頼度を判定する。ピッチレイトは、例えば判定期間といった予め定めた期間における角速度ψの変動量で表される。
移動物体判定装置1Bにおいて、移動物体判定部80A、移動物体候補判定部90、及び信頼度判定部110は、判定部の一例である。
次に、移動物体判定装置1Bの作用について説明する。移動物体判定装置1Bの電気系統の要部構成例は、図5に示した第1実施形態に係る移動物体判定装置1における電気系統の要部構成例と同じである。
図14は、移動物体判定装置1Bでの移動物体判定処理の流れの一例を示すフローチャートである。移動物体判定処理を規定する移動物体判定プログラムはROM2Bに予め記憶されており、例えば移動物体判定装置1Bの電源がオンされると、CPU2Aが移動物体判定プログラムをROM2Bから読み出して実行する。その後、CPU2Aは、一定期間経過毎に移動物体判定処理を実行する。
図14の移動物体判定処理が、図10に示した第2実施形態に係る移動物体判定処理と異なる点は、ステップS122〜S126が追加された点であり、その他の処理は同じである。
ステップS10〜S120で移動物体OF候補が得られた後、ステップS122において、CPU2Aは、ステップS40で取得した自車両8のピッチ方向の角速度ψを用いて、判定期間におけるピッチレイトを算出する。
自車両8のピッチ方向に頻繁に変動が生じる場合、例えば車速センサ5、ジャイロセンサ6、及びカメラ3の設置位置の相違によって、車速及び角速度から算出した自車両8の走行軌跡と、カメラ3で撮影した画像から算出したオプティカルフローとの乖離距離18の算出精度が低くなる。すなわち、ピッチレイトが大きくなるにつれて、ステップS10〜S120で得られた移動物体OF候補のうち、実際に移動物体のオプティカルフローを示すオプティカルフローの割合が低下するため、移動物体OF候補が移動物体のオプティカルフローを表しているという信頼度が低下する傾向が見られる。
したがって、変動閾値を設け、ピッチレイトがこの値より大きい場合には、移動物体OF候補の信頼度が低いとみなすことができる値に変動閾値を予め設定しておく。
そして、ステップS124において、CPU2Aは、ステップS122で算出したピッチレイトが変動閾値より大きいか否かを判定する。
なお、変動閾値は、例えば移動物体判定装置1Bの実機による実験や移動物体判定装置1Bの設計仕様に基づくコンピュータシミュレーション等により設定し、不揮発性メモリ2Dに予め記憶しておけばよい。
ピッチレイトが変動閾値以下の場合には、移動物体OF候補の信頼度は高いと判定される。したがって、CPU2Aは、ステップS140において、直前にステップS10〜S120で得られた移動物体OF候補と、ステップS130で検出した車両画像領域42を用いて、最終的な移動物体のオプティカルフローを判定する。
一方、ピッチレイトが変動閾値より大きい場合には、移動物体OF候補の信頼度は低いと判定される。したがって、ステップS126に移行し、ステップS126においてCPU2Aは、前回実行した移動物体判定処理で得られた移動物体OF候補(前回の移動物体OF候補)をRAM2Cから取得する。
この場合、CPU2Aは、ステップS140において、ステップS126で取得した前回の移動物体OF候補と、ステップS130で検出した車両画像領域42を用いて、最終的な移動物体のオプティカルフローを判定する。
このように、第3実施形態に係る移動物体判定装置1Bによれば、自車両8のピッチレイトを用いて移動物体OF候補の信頼度を判定し、信頼度が低いと判定された場合には、前回取得した移動物体OF候補を用いて移動物体のオプティカルフローを判定する。したがって、移動物体判定装置1Bは、移動物体OF候補の信頼度を考慮せずに移動物体のオプティカルフローを判定する場合と比較して、移動物体のオプティカルフローを精度よく判定することができる。
なお、移動物体判定装置1Bではピッチレイトを用いて移動物体OF候補の信頼度を判定したが、移動物体OF候補の信頼度の判定方法はこれに限られない。例えばロール方向の角速度ξの変動度合いを表すロールレイトを用いて移動物体OF候補の信頼度を判定してもよい。ピッチレイトと同様に、ロールレイトが大きくなるにつれて、移動物体OF候補の信頼度が低下する。また、ピッチレイトとロールレイトを組み合わせて移動物体OF候補の信頼度を判定してもよい。
<第4実施形態>
第3実施形態に係る移動物体判定装置1Bは、車両検出部100で検出された車両画像領域42に含まれる車両を移動している車両とみなし、車両画像領域42に含まれる移動物体OF候補は全て移動物体のオプティカルフローとして判定した。
しかしながら、車両画像領域42に含まれる車両には、駐車中の車両といった静止している車両が含まれることがある。
したがって、第4実施形態では、車両検出部100で検出された車両画像領域42のうち、移動している車両を含む車両画像領域42に含まれる移動物体OF候補を移動物体のオプティカルフローとして判定する移動物体判定装置1Cについて説明する。
図15は、移動物体判定装置1Cの構成例を示す図である。移動物体判定装置1Cの構成が、図13に示した第3実施形態に係る移動物体判定装置1Bの構成と異なる点は、移動車両領域判定部120が追加され、移動物体判定部80Aが移動物体判定部80Bに置き換えられた点である。また、移動車両領域判定部120の追加に伴い、車両検出部100で検出した車両画像領域42の出力先が、移動物体判定部80Aから移動車両領域判定部120に変更されている。
移動車両領域判定部120は、信頼度判定部110で信頼度が高いと判定された移動物体OF候補と、車両検出部100で検出された車両画像領域42を用いて、車両画像領域42が移動している車両を含んでいる車両画像領域42か否かを車両画像領域42毎に判定する。そして、移動車両領域判定部120は、車両検出部100で検出された車両画像領域42を、静止している車両を含んでいる車両画像領域42(静止車両画像領域)と、移動している車両を含んでいる車両画像領域42(移動車両画像領域)に分類し、移動車両画像領域を移動物体判定部80Bに出力する。
移動物体判定部80Bは、信頼度判定部110で信頼度が高いと判定された移動物体OF候補と、移動車両領域判定部120で得られた移動車両画像領域を用いて、移動物体のオプティカルフローを判定する。
移動物体判定装置1Cにおいて、 移動物体判定部80B、移動物体候補判定部90、信頼度判定部110、及び移動車両領域判定部は、判定部の一例である。
次に、移動物体判定装置1Cの作用について説明する。移動物体判定装置1Cの電気系統の要部構成例は、図5に示した第1実施形態に係る移動物体判定装置1における電気系統の要部構成例と同じである。
図16は、移動物体判定装置1Cでの移動物体判定処理の流れの一例を示すフローチャートである。移動物体判定処理を規定する移動物体判定プログラムはROM2Bに予め記憶されており、例えば移動物体判定装置1Cの電源がオンされると、CPU2Aが移動物体判定プログラムをROM2Bから読み出して実行する。その後、CPU2Aは、一定期間経過毎に移動物体判定処理を実行する。
図16の移動物体判定処理が、図14に示した第3実施形態に係る移動物体判定処理と異なる点は、ステップS135が追加された点であり、その他の処理は同じである。
ステップS10〜S126で信頼度の高い移動物体OF候補を取得し、ステップS130で画像から車両画像領域42を取得した後、ステップS135において、CPU2Aは、移動車両領域判定処理を実行する。
図17は、ステップS135で実行される移動車両領域判定処理の流れの一例を示すフローチャートである。
ステップS200において、CPU2Aは、ステップS130で検出した何れかの画像の車両画像領域42のうち、まだ選択していない車両画像領域42を1つ選択する。
ステップS210において、CPU2Aは、ステップS30で抽出したオプティカルフローと、ステップS200で選択した車両画像領域42を統合し、ステップS200で選択した車両画像領域42における移動物体OF候補割合を算出する。移動物体OF候補割合は、選択した車両画像領域42に含まれるオプティカルフロー数に対する、当該車両画像領域42に含まれる移動物体OF候補のオプティカルフロー数の割合として表される。
移動物体OF候補割合が小さくなるにつれて、選択した車両画像領域42に含まれる車両は静止している可能性が高くなる。
したがって、移動物体OF候補割合がこの値未満の場合には、選択した車両画像領域42は静止している車両に対応する車両画像領域42であるとみなすことができる静止閾値を設け、ステップS220において、CPU2Aは、算出した移動物体OF候補割合が静止閾値未満であるか否かを判定する。
なお、静止閾値は、例えば移動物体判定装置1Cの実機による実験や移動物体判定装置1Cの設計仕様に基づくコンピュータシミュレーション等により設定し、不揮発性メモリ2Dに予め記憶しておけばよい。
ステップS220の判定処理が肯定判定の場合、ステップS230に移行する。
ステップS200で選択した車両画像領域42の移動物体OF候補割合が静止閾値未満であることから、ステップS230において、CPU2Aは、当該車両画像領域42を静止車両画像領域に分類する。具体的には、CPU2Aは、ステップS200で選択した車両画像領域42に、値を“0”に設定した領域タグを対応付けてRAM2Cに記憶する。領域タグは、車両画像領域42が静止車両画像領域であるか、移動車両画像領域であるかを示す情報であり、例えば領域タグの値が“0”の場合には静止車両画像領域であることを示し、領域タグの値が“1”の場合には移動車両画像領域であることを示す。
一方、ステップS220の判定処理が否定判定の場合、ステップS240に移行する。
この場合、ステップS200で選択した車両画像領域42の移動物体OF候補割合が静止閾値より大きいことから、ステップS240において、CPU2Aは、当該車両画像領域42を移動車両画像領域に分類する。具体的には、CPU2Aは、ステップS200で選択した車両画像領域42に、値を“1”に設定した領域タグを対応付けてRAM2Cに記憶する。
そして、ステップS250において、CPU2Aは、画像に含まれる全ての車両画像領域42をステップS200で選択したか否かを判定する。選択していない車両画像領域42が存在する場合にはステップS200に移行する。
ステップS200において、CPU2Aは、まだ選択していない車両画像領域42を選択し、ステップS200〜S250の処理を繰り返し実行することで、車両画像領域42が静止車両画像領域であるか移動車両画像領域であるかを車両画像領域42毎に判定する。
一方、ステップS250の判定処理が肯定判定の場合、すなわち、画像に含まれる車両画像領域42を全て選択した場合には、図17に示した移動車両領域判定処理を終了する。
CPU2Aは、図16のステップS140において、ステップS30で抽出したオプティカルフローと、ステップS130で検出した車両画像領域42を統合し、車両画像領域42のうち、ステップS135で移動車両画像領域に分類された車両画像領域42に含まれるオプティカルフローを全て最終的な移動物体のオプティカルフローとして判定する。
なお、ステップS140における最終的な移動物体のオプティカルフローの判定方法はこれに限定されない。例えば、移動物体OF候補のうち、ステップS135で移動車両画像領域に分類された車両画像領域42に含まれるオプティカルフローのみを移動物体のオプティカルフローと判定し、これ以外のオプティカルフローは移動物体のオプティカルフローではないと判定してもよい。また、移動車両画像領域に分類された車両画像領域42に過去に1度でも含まれたことがあるオプティカルフローについては、現時刻において当該車両画像領域42に含まれているか否かに関わらず、移動物体のオプティカルフローと判定してもよい。
図18は、移動物体判定装置1Cで図16のステップS135における移動車両領域判定処理を実行した場合の、車両画像領域42の判定結果の一例を示す図である。
図18において、画像58が移動車両領域判定処理の判定結果を示しており、実線の矩形44が移動車両画像領域を表し、点線の矩形46が静止車両画像領域を表している。
また、図19は、移動車両画像領域に含まれるオプティカルフローを最終的な移動物体のオプティカルフローとする判定結果の一例を示す図である。
画像62において、黒色の実線は移動物体OF候補を表し、灰色の実線は静止物体のオプティカルフローと判定されたオプティカルフローを表す。また、画像64において、黒色の実線は移動物体のオプティカルフローを表し、灰色の実線は静止物体のオプティカルフローを表す
画像62において移動物体OF候補ではないオプティカルフローであっても、移動車両画像領域44に含まれる場合は移動物体のオプティカルフローとして判定される。逆に、画像62において移動物体OF候補であるオプティカルフローであっても、移動車両画像領域44に含まれない場合は静止物体のオプティカルフローとして判定される。
このように第4実施形態に係る移動物体判定装置1Cによれば、画像から検出した車両画像領域42のうち、移動している車両が含まれる車両画像領域42とオプティカルフローを用いて、移動物体のオプティカルフローを判定する。したがって、実際には静止している車両に対応した車両画像領域42に含まれるオプティカルフローを、移動物体のオプティカルフローであると誤判定する可能性が低下するため、移動物体判定装置1Cは、移動物体のオプティカルフローを精度よく判定することができる。
本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。例えば、発明の要旨を逸脱しない範囲で、各実施形態に係る移動物体判定処理内の実行順序を変更してもよい。
また、移動物体判定装置1A、1B、1Cにおける車両検出部100では、画像から車両に相当する画像領域を検出したが、車両に加えて、例えば歩行者及び2輪車等の移動物体を検出するようにしてもよい。
また、各実施形態に係る移動物体判定装置1、1A、1B、1Cでは、移動物体判定処理をソフトウエアによって実現する場合について説明したが、本発明はこれに限定されるものではなく、移動物体判定処理を、例えばASIC(Application Specific Integrated Circuit)等を用いたハードウエア構成により実現するようにしてもよい。この場合、ソフトウエアを用いた場合と比較して、処理を高速化することができる。
また、各実施の形態に係る移動物体判定装置1、1A、1B、1Cでは、移動物体判定プログラムがROM2Bにインストールされている形態について説明したが、これに限定されるものではない。本発明に係る移動物体判定プログラムを、コンピュータ読取可能な記憶媒体に記録した形態で提供してもよい。例えば、本発明に係る移動物体判定プログラムを、CD(Compact Disc)−ROM、及びDVD(Digital Versatile Disc)−ROM等の光ディスクに記録した形態、又はUSB(Universal Serial Bus)メモリ及びメモリカード等の半導体メモリに記録した形態で提供してもよい。また、本発明に係る移動物体判定プログラムを、通信回線に接続された外部装置から取得するようにしてもよい。
1(1A、1B、1C)・・・移動物体判定装置、2・・・コンピュータ、2A・・・CPU、3・・・カメラ、4・・・GPSモジュール、5・・・車速センサ、6・・・ジャイロセンサ、8・・・自車両、9・・・特徴点、10・・・画像情報取得部、14・・・空間特徴点、16・・・再投影特徴点、18・・・乖離距離、20・・・画像特徴抽出部、22・・・オプティカルフロー、24・・・空間特徴点のオプティカルフロー、30・・・第1オプティカルフロー算出部、40・・・IMU情報取得部、42・・・車両画像領域、50・・・車両軌跡算出部、60・・・特徴点3次元位置算出部、70・・・第2オプティカルフロー算出部、80(80A、80B)・・・移動物体判定部、90・・・移動物体候補判定部、100・・・車両検出部、110・・・信頼度判定部、120・・・移動車両領域判定部

Claims (7)

  1. 移動体に取り付けられた撮影装置で時系列に沿って撮影された各々の画像から特徴点を抽出する抽出部と、
    前記抽出部で抽出された特徴点のうち、前記各々の画像において対応する特徴点を追跡し、追跡した特徴点の位置の時系列を特徴点毎に算出する第1の算出部と、
    前記移動体の移動速度及び運動に関する物理量を用いて、前記移動体の走行軌跡を算出する第2の算出部と、
    前記第1の算出部で算出した特徴点の位置の時系列と、前記第2の算出部で算出した前記移動体の走行軌跡とを用いて、抽出した特徴点の3次元空間における位置を特徴点毎に算出する第3の算出部と、
    前記第2の算出部で算出した前記移動体の走行軌跡と、前記第3の算出部で算出した前記3次元空間における特徴点を表す空間特徴点の位置とを用いて、前記空間特徴点の前記各々の画像における位置を算出し、前記各々の画像で表される前記空間特徴点に対応した特徴点の位置の時系列を、前記空間特徴点に対応する特徴点毎に算出する第4の算出部と、
    前記第1の算出部で算出した特徴点の位置の時系列と、当該特徴点に対応する前記第4の算出部で算出した前記空間特徴点の位置の時系列とを比較して、特徴点が表す物体が移動物体か否かを特徴点毎に判定する判定部と、
    を備えた移動物体判定装置。
  2. 前記各々の画像から移動物体領域を検出する検出部を備え、
    前記判定部は、移動物体を表すと判定した特徴点のうち、前記検出部で前記各々の画像から検出された前記移動物体領域の何れにも含まれない特徴点は、移動物体を表す特徴点ではないと再判定する
    請求項1記載の移動物体判定装置。
  3. 前記各々の画像における何れかの画像から移動物体領域を検出する検出部を備え、
    前記判定部は、前記検出部で検出された前記移動物体領域毎に、前記移動物体領域に含まれる特徴点に対する移動物体を表す特徴点の割合を算出し、前記割合が予め定めた割合未満となる前記移動物体領域に含まれる特徴点は、移動物体を表す特徴点ではないと再判定すると共に、前記割合が予め定めた割合以上となる前記移動物体領域に含まれる特徴点は、移動物体を表す特徴点であると再判定する
    請求項1記載の移動物体判定装置。
  4. 前記判定部は、過去に前記移動物体領域を表すと判定されたことがある特徴点は、移動物体を表す特徴点であると判定する
    請求項2又は請求項3に記載の移動物体判定装置。
  5. 前記判定部は、前記移動体の運動に関する物理量の変動度合いが予め定めた閾値より大きい場合、特徴点の位置の時系列として、前回の判定で得られた特徴点の位置の時系列を用いて、特徴点が表す物体が移動物体か否かを特徴点毎に判定する
    請求項2〜請求項4の何れか1項に記載の移動物体判定装置。
  6. 前記判定部は、前記第1の算出部で算出した特徴点の位置の時系列と、当該特徴点に対応する前記第4の算出部で算出した前記空間特徴点の位置の時系列との距離を用いて、特徴点が表す物体が移動物体か否かを特徴点毎に判定する
    請求項1〜請求項5の何れか1項に記載の移動物体判定装置。
  7. コンピュータを、
    移動体に取り付けられた撮影装置で時系列に沿って撮影された各々の画像から特徴点を抽出する抽出部と、
    前記抽出部で抽出された特徴点のうち、前記各々の画像において対応する特徴点を追跡し、追跡した特徴点の位置の時系列を特徴点毎に算出する第1の算出部と、
    前記移動体の移動速度及び移動方向に関する物理量を用いて、前記移動体の走行軌跡を算出する第2の算出部と、
    前記第1の算出部で算出した特徴点の位置の時系列と、前記第2の算出部で算出した前記移動体の走行軌跡とを用いて、抽出した特徴点の3次元空間における位置を特徴点毎に算出する第3の算出部と、
    前記第2の算出部で算出した前記移動体の走行軌跡と、前記第3の算出部で算出した前記3次元空間における特徴点を表す空間特徴点の位置とを用いて、前記空間特徴点の前記各々の画像における位置を算出し、前記各々の画像で表される前記空間特徴点に対応した特徴点の位置の時系列を、前記空間特徴点に対応する特徴点毎に算出する第4の算出部と、
    前記第1の算出部で算出した特徴点の位置の時系列と、当該特徴点に対応する前記第4の算出部で算出した前記空間特徴点の位置の時系列とを比較して、特徴点が表す物体が移動物体か否かを特徴点毎に判定する判定部
    として機能させるための移動物体判定プログラム。
JP2017087697A 2017-04-26 2017-04-26 移動物体判定装置、及び移動物体判定プログラム Pending JP2018185694A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017087697A JP2018185694A (ja) 2017-04-26 2017-04-26 移動物体判定装置、及び移動物体判定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017087697A JP2018185694A (ja) 2017-04-26 2017-04-26 移動物体判定装置、及び移動物体判定プログラム

Publications (1)

Publication Number Publication Date
JP2018185694A true JP2018185694A (ja) 2018-11-22

Family

ID=64355948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017087697A Pending JP2018185694A (ja) 2017-04-26 2017-04-26 移動物体判定装置、及び移動物体判定プログラム

Country Status (1)

Country Link
JP (1) JP2018185694A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022135552A (ja) * 2021-03-05 2022-09-15 キヤノン株式会社 姿勢推定装置及びその制御方法
CN116279446A (zh) * 2023-03-15 2023-06-23 重庆赛力斯新能源汽车设计院有限公司 一种汽车防碰撞控制方法、系统、设备及存储介质
JP2024144974A (ja) * 2023-03-31 2024-10-15 横河電機株式会社 装置、方法およびプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022135552A (ja) * 2021-03-05 2022-09-15 キヤノン株式会社 姿勢推定装置及びその制御方法
CN116279446A (zh) * 2023-03-15 2023-06-23 重庆赛力斯新能源汽车设计院有限公司 一种汽车防碰撞控制方法、系统、设备及存储介质
JP2024144974A (ja) * 2023-03-31 2024-10-15 横河電機株式会社 装置、方法およびプログラム
JP7794162B2 (ja) 2023-03-31 2026-01-06 横河電機株式会社 装置、方法およびプログラム

Similar Documents

Publication Publication Date Title
US10762643B2 (en) Method for evaluating image data of a vehicle camera
US12313428B2 (en) Position estimation method, position estimation device, and position estimation program
US10699441B2 (en) Calibration apparatus, calibration method and storage medium
JP7077910B2 (ja) 区画線検出装置及び区画線検出方法
CN112292711A (zh) 关联lidar数据和图像数据
CN112001456B (zh) 一种车辆定位方法、装置、存储介质及电子设备
KR102043366B1 (ko) 최대 공통 뷰를 이용한 공간참조 영상들간의 궤적 유사도 측정방법
KR20220160850A (ko) 소실점을 추정하는 방법 및 장치
CN107392080B (zh) 影像评估方法以及其电子装置
JP6479296B2 (ja) 位置姿勢推定装置および位置姿勢推定方法
JP2017181476A (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
JP6965325B2 (ja) 自動検出システムおよび自動検出プログラム
JP2018185694A (ja) 移動物体判定装置、及び移動物体判定プログラム
JP2006330908A (ja) 位置記録装置及び位置記録方法
KR20220062709A (ko) 모바일 디바이스 영상에 기반한 공간 정보 클러스터링에 의한 재난 상황 인지 시스템 및 방법
JP7234840B2 (ja) 位置推定装置
JP2019160147A (ja) 自己位置検出装置
JP6571492B2 (ja) 対応点探索方法、および距離測定装置
CN115578463B (zh) 一种单目图像物体识别方法、装置及电子设备
JP5891802B2 (ja) 車両位置算出装置
JP5251460B2 (ja) 接近物体検出装置、接近物体検出プログラム、接近物体検出方法
JP7585147B2 (ja) 演算装置、速度算出方法
JP2023053997A (ja) 地図データ収集装置及び地図データ収集用コンピュータプログラム
Garcia et al. Mobile based pedestrian detection with accurate tracking
CN117670999A (zh) 位姿估计方法、装置、设备及计算机可读存储介质