JP2008172441A - 検出装置および方法、並びに、プログラム - Google Patents
検出装置および方法、並びに、プログラム Download PDFInfo
- Publication number
- JP2008172441A JP2008172441A JP2007002701A JP2007002701A JP2008172441A JP 2008172441 A JP2008172441 A JP 2008172441A JP 2007002701 A JP2007002701 A JP 2007002701A JP 2007002701 A JP2007002701 A JP 2007002701A JP 2008172441 A JP2008172441 A JP 2008172441A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- feature point
- roi
- unit
- motion vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【課題】障害物の検出性能を低下させずに、検出処理の負荷を低減する。
【解決手段】ステップS31において、位置判定部は、レーザレーダにより検出されたオブジェクトのうち、自車の速度に基づいて設定される検知領域内のオブジェクトを抽出する。ステップS32において、速度判定部は、ステップS31で抽出されたオブジェクトのうち、自車の距離方向の速度が所定の閾値以下のオブジェクトを抽出する。ステップS33において、ROI設定部は、抽出された各オブジェクトについて、オブジェクトの自車からの距離に応じた大きさのROIを設定する。本発明は、車載用の障害物検出装置に適用できる。
【選択図】図6
【解決手段】ステップS31において、位置判定部は、レーザレーダにより検出されたオブジェクトのうち、自車の速度に基づいて設定される検知領域内のオブジェクトを抽出する。ステップS32において、速度判定部は、ステップS31で抽出されたオブジェクトのうち、自車の距離方向の速度が所定の閾値以下のオブジェクトを抽出する。ステップS33において、ROI設定部は、抽出された各オブジェクトについて、オブジェクトの自車からの距離に応じた大きさのROIを設定する。本発明は、車載用の障害物検出装置に適用できる。
【選択図】図6
Description
本発明は、検出装置および方法、並びに、プログラムに関し、特に、車両の周囲の障害物を検出する検出装置および方法、並びに、プログラムに関する。
従来、車載用の物体検出装置において、ミリ波レーダによる検出結果と画像認識による検出結果とを照合して、ミリ波レーダと画像認識の両方で検出された障害物候補、ミリ波レーダのみで検出された障害物候補のうち移動速度が所定の閾値以上の障害物候補、および、画像認識のみで検出された障害物候補のうち大きさが所定の範囲内かつ移動速度が所定の閾値未満の障害物候補を障害物であると特定することが提案されている(例えば、特許文献1参照)。
しかしながら、特許文献1に記載の発明では、ミリ波レーダおよび画像認識の両方により障害物候補の検出が行われるため、検出処理の負荷が増大してしまう。
本発明は、このような状況に鑑みてなされたものであり、障害物の検出性能を低下させずに、検出処理の負荷を低減するようにするものである。
本発明の一側面の検出装置は、車両の周囲の障害物を検出する検出装置であって、車両に設けられたレーダにより車両の周囲において検出されたオブジェクトのうち、車両の距離方向の速度の絶対値が所定の閾値以下であるオブジェクトを抽出するオブジェクト抽出手段と、車両に設けられたカメラにより車両の周囲を撮影した画像において、抽出されたオブジェクトの一部または全部を含み、抽出されたオブジェクトの車両からの距離に応じた大きさの領域を障害物の検出を行う領域に設定する領域設定手段とを備える。
本発明の一側面の検出装置においては、車両に設けられたレーダにより車両の周囲において検出されたオブジェクトのうち、車両の距離方向の速度の絶対値が所定の閾値以下であるオブジェクトが抽出され、車両に設けられたカメラにより車両の周囲を撮影した画像において、抽出されたオブジェクトの一部または全部を含み、抽出されたオブジェクトの車両からの距離に応じた大きさの領域が障害物の検出を行う領域に設定される。
従って、障害物の検出性能を低下させずに、検出処理の負荷を低減することができる。
このオブジェクト抽出手段、領域設定手段は、例えば、CPU(Central Processing Unit)により構成される。
このオブジェクト抽出手段には、車両の距離方向の速度の絶対値が所定の閾値以下であるオブジェクトのうち、車両の速度に基づいて設定される車両の周囲の領域内に存在するオブジェクトを抽出させることができる。
これにより、さらに、障害物の検出性能を低下させずに、検出処理の負荷を低減することができる。
この検出装置は、領域内の画素の特徴量を算出する特徴量算出手段と、領域内において、特徴量が所定の閾値以上となる画素である特徴点候補の中からオブジェクトの特徴を検出するための特徴点を、オブジェクトの車両からの距離が遠いほど高い密度で抽出する特徴点抽出手段とをさらに備えることができる。
これにより、遠方の障害物を精度よく検出することができ、近くの障害物の検出処理の負荷を抑制することができる。
この特徴量算出手段、特徴点抽出手段は、例えば、CPU(Central Processing Unit)により構成される。
この検出装置は、特徴点における動きベクトルを検出する動きベクトル検出手段と、検出された動きベクトルの成分から、車両の旋回方向へのカメラの回転により生じた成分を除去することにより動きベクトルを変換するベクトル変換手段と、変換された動きベクトルの画像の水平方向の成分の大きさ、動きベクトルに対応する特徴点の画像の水平方向における位置、オブジェクトの車両からの距離、および、車両の移動距離に基づいて、動きベクトルが移動している物体の動きベクトルである移動物体ベクトルであるか否かを検出することにより動きベクトルを分類するベクトル分類手段と、領域内の動きベクトルを分類した結果に基づいて、オブジェクトが移動しているか否かを判定する移動判定手段とをさらに備えることができる。
これにより、車両の周囲の移動する物体を簡単かつ正確に検出することができる。
このベクトル検出手段、ベクトル変換手段、ベクトル分類手段、および、移動判定手段は、例えば、CPU(Central Processing Unit)により構成される。
本発明の一側面の検出方法またはプログラムは、車両の周囲の障害物を検出する検出方法または車両の周囲の障害物を検出する検出処理をコンピュータに実行させるプログラムであって、車両に設けられたレーダにより車両の周囲において検出されたオブジェクトのうち、車両の距離方向の速度の絶対値が所定の閾値以下であるオブジェクトを抽出するオブジェクト抽出ステップと、車両に設けられたカメラにより車両の周囲を撮影した画像において、抽出されたオブジェクトの一部または全部を含み、抽出されたオブジェクトの車両からの距離に応じた大きさの領域を障害物の検出を行う領域に設定する領域設定ステップとを含む。
本発明の一側面の検出方法またはプログラムにおいては、車両に設けられたレーダにより車両の周囲において検出されたオブジェクトのうち、車両の距離方向の速度の絶対値が所定の閾値以下であるオブジェクトが抽出され、車両に設けられたカメラにより車両の周囲を撮影した画像において、抽出されたオブジェクトの一部または全部を含み、抽出されたオブジェクトの車両からの距離に応じた大きさの領域が障害物の検出を行う領域に設定される。
従って、障害物の検出性能を低下させずに、検出処理の負荷を低減することができる。
このオブジェクト抽出ステップは、例えば、CPUにより、車両に設けられたレーダにより車両の周囲において検出されたオブジェクトのうち、車両の距離方向の速度の絶対値が所定の閾値以下であるオブジェクトを抽出するオブジェクト抽出ステップにより構成され、この領域設定ステップは、例えば、CPUにより、抽出されたオブジェクトの一部または全部を含み、抽出されたオブジェクトの車両からの距離に応じた大きさの領域を障害物の検出を行う領域に設定する領域設定ステップにより構成される。
本発明の一側面によれば、障害物の検出を行う画像の領域を設定することができる。特に、本発明の一側面によれば、障害物の検出性能を低下させずに、検出処理の負荷を低減することができる。
以下、図を参照して、本発明の実施の形態について説明する。
図1は、本発明を適用した障害物検出システムの一実施の形態を示すブロック図である。図1の障害物検出システム101は、例えば、車両に設けられ、障害物検出システム101が設けられた車両(以下、自車とも称する)の前方の人(例えば、歩行者、立ち止まっている人など)の検出を行い、検出結果に応じて、自車の動作を制御する。
障害物検出システム101は、レーザレーダ111、カメラ112、車速センサ113、ヨーレートセンサ114、障害物検出装置115、および、車両制御装置116を含むように構成される。
レーザレーダ111は、例えば、水平方向に走査を行う1次元スキャン方式のレーザレーダにより構成される。レーザレーダ111は、自車の前方に向けて自車の底面に対してほぼ水平に設置され、レーザレーダ111からのビーム(レーザ光)の反射光の強度が所定の閾値以上となる自車の前方のオブジェクト(例えば、車両、人、障害物、建築物、路側構造物、道路標識、信号など)を検出する。レーザレーダ111は、所定の間隔で、検出したオブジェクトのレーダ座標系におけるx軸およびz軸方向の位置(X,Z)、および、x軸およびz軸方向の自車に対するオブジェクトの相対速度(dX,dZ)を含むオブジェクト情報を障害物検出装置115に供給する。レーザレーダ111から供給されたオブジェクト情報は、障害物検出装置115の図示せぬメモリなどに一時的に記憶され、障害物検出装置115の各部が使用できる状態にされる。
なお、レーダ座標系は、レーザレーダ111のビームの出射口を原点とし、自車の距離方向(前後方向)をz軸方向とし、z軸方向に垂直な高さ方向をy軸方向とし、z軸方向およびy軸方向に垂直な自車の横断方向(左右方向)をx軸方向とする座標系である。なお、レーダ座標系の右方向をx軸の正の方向とし、上方向をy軸の正の方向とし、前方向をz軸の正の方向とする。
また、オブジェクトのx軸方向の位置Xは、オブジェクトからの反射光を受信したときのビームの走査角度により求められ、z軸方向の位置Zは、ビームが出射されてからオブジェクトからの反射光を受信するまでの遅延時間により求められる。また、時刻tにおけるオブジェクトの相対速度(dX(t),dZ(t))は、以下の式(1)および式(2)により求められる。
なお、式(1)および式(2)のNはオブジェクトを追跡した回数を示し、X(t-k)およびZ(t-k)は、k回前のオブジェクトのx軸方向およびz軸方向の位置を示す。すなわち、オブジェクトの相対速度は、オブジェクトの位置の変位量に基づいて算出される。
カメラ112は、例えば、CCD撮像素子、CMOS撮像素子、または、対数変換型撮像素子などを用いたカメラにより構成される。カメラ112は、自車の前方に向けて自車の底面に対してほぼ水平に設置され、所定の間隔で、自車の前方を撮影した画像(以下、前方画像と称する)を障害物検出装置115に出力する。カメラ112から供給された前方画像は、障害物検出装置115の図示せぬメモリなどに一時的に記憶され、障害物検出装置115の各部が使用できる状態にされる。
なお、レーザレーダ111とカメラ112の中心軸(光軸)は、相互にほぼ平行であることが望ましい。
車速センサ113は、自車の車速を検出し、検出した車速を示す信号を障害物検出装置115の位置判定部151、速度判定部152、および、クラスタリング部165のベクトル分類部262(図4)に供給する。なお、車速センサ113を、例えば、自車に設けられている車速センサにより構成するようにしてもよいし、専用のセンサにより構成するようにしてもよい。
ヨーレートセンサ114は、自車の旋回方向の角速度を検出するセンサであり、検出した角速度を示す信号を障害物検出装置115のクラスタリング部165のベクトル変換部261(図4)に供給する。なお、ヨーレートセンサ114を、例えば、自車に設けられているヨーレートセンサにより構成するようにしてもよいし、専用のセンサにより構成するようにしてもよい。
障害物検出装置115は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などにより構成され、自車の前方に存在する人を検出し、検出結果を示す情報を車両制御装置116に供給する。
ここで、図2および図3を参照して、障害物検出装置115により行われる処理の概要について説明する。図2は、レーザレーダ111の検出結果の例を示す鳥瞰図である。図内の距離は自車からの距離を示しており、4本の縦線のうち内側の2本は、自車の車幅を示し、外側の2本は自車が走行している車線の幅を示している。図2の例においては、車線内右側の自車からの距離が20mを超えた付近にオブジェクト201が検出され、車線の左側外の自車からの距離が30mを超えた付近および40m付近に、それぞれ、オブジェクト202および203が検出されている。
図3は、図2に示される検出が行われた時刻と同時刻にカメラ112により撮影された前方画像の例を示している。障害物検出装置115は、図5などを参照して後述するように、図3に示される前方画像において、オブジェクト201に対応する領域211、オブジェクト202に対応する領域212、および、オブジェクト203に対応する領域213をROI(Region Of Interest、関心領域)に設定し、設定したROIに対して画像処理を行うことにより、自車の前方の人の検出を行う。そして、図3の例の場合、ROI211内の領域221内に存在する人の位置、移動方向、速度などが検出結果として、障害物検出装置115から車両制御装置116に出力される。
なお、図5などを参照して後述するように、障害物検出装置115は、レーザレーダ111により検出された全てのオブジェクトに対して処理を行うのではなく、オブジェクトの位置および速度に基づいて、処理対象となるオブジェクトを抽出し、抽出したオブジェクトに対してのみ処理を行う。
図1に戻り、障害物検出装置115は、オブジェクト情報処理部131、画像処理部132、および、出力部133を含むように構成される。
オブジェクト情報処理部131は、レーザレーダ111からのオブジェクト情報の処理を行うブロックであり、オブジェクト抽出部141および特徴点密度パラメータ設定部142を含むように構成される。
オブジェクト抽出部141は、レーザレーダ111により検出されたオブジェクトのうち、画像処理部132において処理する対象となるオブジェクトを抽出するブロックであり、位置判定部151および速度判定部152を含むように構成される。
位置判定部151は、図6などを参照して後述するように、車速センサ113により検出された自車の速度に基づいて検知領域を設定し、レーザレーダ111により検出されたオブジェクトの中から検知領域内に存在するオブジェクトを抽出することにより、画像処理部132の処理対象とするオブジェクトを絞り込む。位置判定部151は、オブジェクトの抽出結果を示す情報を速度判定部152に供給する。
速度判定部152は、図6などを参照して後述するように、位置判定部151により抽出されたオブジェクトの中から、速度が所定の条件を満たすオブジェクトを抽出することにより、画像処理部132の処理対象とするオブジェクトを絞り込む。速度判定部152は、オブジェクトの抽出結果を示す情報、および、抽出したオブジェクトに対応するオブジェクト情報をROI設定部161に供給する。また、速度判定部152は、オブジェクトの抽出結果を示す情報を特徴点密度パラメータ設定部142に供給する。
特徴点密度パラメータ設定部142は、図11などを参照して後述するように、ROI設定部161により設定された各ROIについて、ROI内のオブジェクトの自車からの距離に基づいて、ROI内において抽出する特徴点の密度を示す特徴点密度パラメータを設定する。特徴点密度パラメータ設定部142は、設定した特徴点密度パラメータを示す情報を特徴点抽出部163に供給する。
画像処理部132は、カメラ112により撮影された前方画像を画像処理するブロックであり、ROI設定部161、特徴量算出部162、特徴点抽出部163、ベクトル検出部164、および、クラスタリング部165を含むように構成される。
ROI設定部161は、図9などを参照して後述するように、オブジェクト抽出部141により抽出された各オブジェクトに対するROIを設定する。ROI設定部161は、各ROIの前方画像上の位置を示す情報を特徴量算出部162に供給する。また、ROI設定部161は、各ROI内のオブジェクトの自車からの距離を示す情報をクラスタリング部165のベクトル分類部262(図4)に供給する。さらに、ROI設定部161は、各ROIの前方画像上およびレーダ座標系における位置を示す情報を特徴点密度パラメータ設定部142に供給する。また、ROI設定部161は、各ROIの前方画像上の位置およびレーダ座標系における位置を示す情報、並びに、各ROI内のオブジェクトに対応するオブジェクト情報を出力部133に供給する。
特徴量算出部162は、図11などを参照して後述するように、各ROI内の各画素の所定の種類の特徴量を算出する。特徴量算出部162は、処理を行ったROIの前方画像上の位置、および、ROI内の各画素の特徴量を示す情報を特徴点抽出部163に供給する。
特徴点抽出部163は、特徴点抽出部163は、特徴点を抽出するROIの前方画像上の位置を示す情報を特徴点密度パラメータ設定部142に供給する。特徴点抽出部163は、図11などを参照して後述するように、各画素の特徴量および特徴点密度パラメータに基づいて、各ROIの特徴点を抽出する。特徴点抽出部163は、処理を行ったROIの前方画像上の位置を示す情報、および、抽出した特徴点の位置を示す情報をベクトル検出部164に供給する。
ベクトル検出部164は、図11などを参照して後述するように、特徴点抽出部163により抽出された各特徴点における動きベクトルを検出する。ベクトル検出部164は、処理を行ったROIの前方画像上の位置、および、検出した動きベクトルを示す情報をクラスタリング部165のベクトル変換部261(図4)に供給する。
クラスタリング部165は、図22などを参照して後述するように、各ROI内のオブジェクトの種類を分類する。クラスタリング部165は、分類した結果を示す情報を出力部133に供給する。
出力部133は、検出されたオブジェクトの種類、位置、移動方向、および、速度などの検出結果を示す情報を車両制御装置116に供給する。
車両制御装置116は、例えば、ECU(Electronic Control Unit)により構成され、障害物検出装置115による検出結果に基づいて、自車および自車に設けられている各種の車載装置の動作を制御する。
図4は、クラスタリング部165の機能的構成を詳細に示すブロック図である。クラスタリング部165は、ベクトル変換部261、ベクトル分類部262、オブジェクト分類部263、移動物体分類部264、および、静止物体分類部265を含むように構成される。
ベクトル変換部261は、図22を参照して後述するように、ヨーレートセンサ114により検出された自車の旋回方向の角速度に基づいて、ベクトル検出部164により検出された動きベクトルの成分から、自車の旋回方向の回転に伴うカメラ112の旋回方向の回転により生じた成分を除いた動きベクトル(以下、変換ベクトルとも称する)を求める。ベクトル変換部261は、処理を行ったROIの前方画像上の位置、および、求めた変換ベクトルを示す情報をベクトル分類部262に供給する。
ベクトル分類部262は、図22などを参照して後述するように、変換ベクトル、前方画像における特徴点の位置、自車からオブジェクトまでの距離、および、車速センサ113により検出された自車の速度に基づいて、各特徴点において検出された動きベクトルの種類を検出する。ベクトル分類部262は、処理を行ったROIの前方画像上の位置、および、検出した動きベクトルの種類を示す情報をオブジェクト分類部263に供給する。
オブジェクト分類部263は、図22を参照して後述するように、動きベクトルの分類結果に基づいて、ROI内のオブジェクトを移動している物体(以下、移動物体とも称する)、または、静止している物体(以下、静止物体とも称する)のいずれかに分類する。オブジェクト分類部263は、ROI内のオブジェクトを移動物体に分類した場合、その移動物体を含むROIの前方画像上における位置を示す情報を移動物体分類部264に供給する。また、オブジェクト分類部263は、ROI内のオブジェクトが静止物体であると判定した場合、その静止物体を含むROIの前方画像上における位置を示す情報を静止物体分類部265に供給する。
移動物体分類部264は、所定の画像認識の手法を用いて、ROI内の移動物体の種類を検出する。移動物体分類部264は、移動物体の種類、および、その移動物体を含むROIの前方画像上の位置を示す情報を出力部133に供給する。
静止物体分類部265は、所定の画像認識の手法を用いて、ROI内の静止物体の種類を分類する。静止物体分類部265は、静止物体の種類、および、その静止物体を含むROIの前方画像上の位置を示す情報を出力部133に供給する。
次に、図5のフローチャートを参照して、障害物検出システム101により実行される障害物検出処理について説明する。なお、この処理は、例えば、自車のエンジンが始動されたとき、開始される。
ステップS1において、レーザレーダ111は、オブジェクトの検出を開始する。レーザレーダ111は、検出したオブジェクトの位置および相対速度を含むオブジェクト情報の障害物検出装置115への供給を開始する。レーザレーダ111から供給されたオブジェクト情報は、障害物検出装置115の図示せぬメモリなどに一時的に記憶され、障害物検出装置115の各部が使用できる状態にされる。
ステップS2において、カメラ112は、撮影を開始する。カメラ112は、自車の前方を撮影した前方画像の障害物検出装置115への供給を開始する。カメラ112から供給された前方画像は、障害物検出装置115の図示せぬメモリなどに一時的に記憶され、障害物検出装置115の各部が使用できる状態にされる。
ステップS3において、車速センサ113は、車速の検出を開始する。車速センサ113は、検出した車速を示す信号の位置判定部151、速度判定部152、および、ベクトル分類部262への供給を開始する。
ステップS4において、ヨーレートセンサ114は、車両の旋回方向の角速度の検出を開始する。また、ヨーレートセンサ114は、検出した角速度を示す信号のベクトル変換部261への供給を開始する。
ステップS5において、障害物検出装置115は、ROI設定処理を行う。ここで、図6のフローチャートを参照して、ROI設定処理の詳細について説明する。
ステップS31において、位置判定部151は、オブジェクトの位置に基づいて、処理対象を絞り込む。具体的には、位置判定部151は、レーザレーダ111により検出されたオブジェクトの位置(X,Z)に基づいて、以下の式(3)を満たすオブジェクトを抽出することにより、処理対象を絞り込む。
|X|<Xth and Z<Zth ・・・(3)
なお、式(3)のXthおよびZthは所定の閾値である。従って、図7の車両301を自車とした場合、車両301の前方の幅Xth×長さZthの検知領域Rth内に存在するオブジェクトが抽出される。
閾値Xthは、例えば、自車の車幅(図7においては、車両301の車幅Xc)、または、自車が走行中の車線幅に、余裕分として所定の長さを加えた値に設定される。
また、Zthは、例えば、以下の式(4)に基づいて算出される値に設定される。
Zth(m)=自車の速度(m/s)×Tc(s) ・・・(4)
なお、時間Tcは、例えば、自車が所定の速度(例えば、60km/h)で走行しているときに、自車の前方の所定の距離(例えば、100m)だけ離れた位置にいる歩行者に衝突するまでの衝突時間(TTC(Time to Collision))などに基づいて設定される定数である。
これにより、自車に衝突する可能性が低い検知領域Rthの外に存在するオブジェクトが処理対象から除かれる。
なお、検知領域は、その領域内に存在するオブジェクトに自車が衝突する可能性に基づいて設定される領域であり、必ずしも図7のように矩形の領域である必要はない。また、例えば、カーブの場合には検知領域のXthを広げるようにしてもよい。
位置判定部151は、オブジェクトの抽出結果を示す情報を速度判定部152に供給する。
ステップS32において、速度判定部152は、オブジェクトの速度に基づいて、処理対象を絞り込む。具体的には、速度判定部152は、位置判定部151により抽出されたオブジェクトの中から、以下の式(5)を満たすオブジェクトを抽出することにより、処理対象を絞り込む。
|Vv(t)+dZ(t)|≦ε ・・・(5)
なお、Vv(t)は、時刻tにおける自車の速度を表し、dZ(t)は、上述したように、時刻tにおける自車に対するオブジェクトのz軸方向(距離方向)の相対速度を表す。また、εは所定の閾値を表す。
これにより、図8に示されるように、検知領域内に存在するオブジェクトのうち、自車の距離方向の速度が所定の閾値より大きいオブジェクト、例えば、先行車両および対向車両などが処理対象から除かれ、自車の距離方向の速度が所定の閾値以下のオブジェクト、例えば、歩行者、路側構造物、停止車両、自車に対して横断方向に走行している車両などが処理対象として抽出される。従って、動きベクトルを用いた画像認識において歩行者との区別が困難な先行車両および対向車両が処理対象から除かれるため、処理の負荷を軽減できるとともに、検出性能を向上させることができる。
速度判定部152は、オブジェクトの抽出結果、および、抽出したオブジェクトに対応するオブジェクト情報を、ROI設定部161に供給する。また、速度判定部152は、オブジェクトの抽出結果を示す情報を特徴点密度パラメータ設定部142に供給する。
ステップS33において、ROI設定部161は、ROIを設定する。ここで、図9を参照して、ROIの設定方法の一例について説明する。
まず、図9の左側のオブジェクト321によりビームBM11が反射された場合について考える。なお、レーザレーダ111から出射されるビームは、実際には縦長の楕円形をしているが、図9では、説明を簡単にするために長方形により示している。まず、BM11の幅および高さとほぼ等しい長方形の領域OR11の中心点OC11が、オブジェクト321の中心として求められる。中心点OC11のレーダ座標系における位置を(X1,Y1,Z1)とした場合、X1およびZ1はレーザレーダ111から供給されるオブジェクト情報から求められ、Y1はレーザレーダ111の設置位置の地面からの高さから求められる。そして、中心点OC11を中心とする高さ2A(m)×幅2B(m)の領域322が、オブジェクト321に対するROIに設定される。なお、2Aおよび2Bの値は、標準的な歩行者の大きさに余裕分として所定の長さを加えた値に設定される。
次に、図9の右側のオブジェクト323によりビームBM12−1乃至BM12−3が反射された場合について考える。この場合、反射点の距離の差が所定の閾値以内であるビームは同じオブジェクトから反射されてきたものと判断され、ビームBM12−1乃至BM12−3がグループ化される。次にグループ化されたビームBM12−1乃至BM12−3の幅および高さとほぼ等しい長方形の領域OR12の中心点OC12が、オブジェクト323の中心として求められる。中心点OC12のレーダ座標系における位置を(X2,Y2,Z2)とした場合、X2およびZ2はレーザレーダ111から供給されるオブジェクト情報から求められ、Y2はレーザレーダ111の設置位置の地面からの高さから求められる。そして、中心点OC12を中心とする高さ2A(m)×幅2B(m)の領域324が、オブジェクト323に対するROIに設定される。
そして、オブジェクト抽出部141により抽出された各オブジェクトに対するROIの位置が、以下の関係式(6)乃至(8)に基づいて、レーダ座標系における位置から前方画像における位置に変換される。
なお、(XL,YL,ZL)はレーダ座標系における座標を示し、(Xc,Yc,Zc)はカメラ座標系における座標を示し、(Xp,Yp)は前方画像の座標系における座標を示す。なお、前方画像の座標系は、周知のキャリブレーションによって設定された前方画像の中心(X0,Y0)を原点とし、水平方向をx軸方向、垂直方向をy軸方向とし、右方向をx軸の正の方向、上方向をy軸の正の方向とする座標系とされる。また、Rは3×3の行列、Tは3×1の行列を表し、RおよびTは周知のカメラキャリブレーションにより設定される。さらに、Fはカメラ112の焦点距離を表し、dXpは前方画像の1画素の水平方向の長さ、dYpは前方画像の1画素の垂直方向の長さを表す。
これにより、前方画像において、抽出された各オブジェクトについて、オブジェクトの一部または全部を含み、オブジェクトまでの距離に応じた大きさのROIが設定される。
なお、レーダ座標系を前方画像の座標系に変換する方法の詳細については、例えば、特開2006−151125号公報などに開示されている。
ROI設定部161は、各ROIの前方画像上の位置を示す情報を特徴量算出部162に供給する。また、ROI設定部161は、各ROIの前方画像上およびレーダ座標系における位置を示す情報を特徴点密度パラメータ設定部142に供給する。さらに、ROI設定部161は、各ROIの前方画像上の位置およびレーダ座標系における位置を示す情報、並びに、各ROI内のオブジェクトに対応するオブジェクト情報を出力部133に供給する。
図10は、前方画像およびROIの例を示している。図10の前方画像341においては、前方を横断している歩行者351を含むROI352、および、車線の左側に設置されているガードレール353の一部を含むROI354の2つのROIが設定されている。なお、以下、適宜、前方画像341を例に挙げながら、障害物検出処理の説明を行う。
図5に戻り、ステップS6において、特徴量算出部162は、未処理のROIを1つ選択する。すなわち、特徴量算出部162は、ROI設定部161により設定されたROIのうち、後述するステップS7乃至S9の処理を行っていないROIを1つ選択する。なお、以下、ステップS6において選択されたROIを選択ROIとも称する。
ステップS7において、障害物検出装置115は、特徴点抽出処理を実行する。ここで、図11のフローチャートを参照して、特徴点抽出処理の詳細について説明する。
ステップS51において、特徴量算出部162は、特徴量を算出する。例えば、特徴量算出部162は、所定の手法(例えば、ハリスのコーナー検出法など)に基づいて、選択ROI内の画像のコーナーの強度を特徴量として算出する。特徴量算出部162は、選択ROIの前方画像上の位置、および、選択ROI内の各画素の特徴量を示す情報を特徴点抽出部163に供給する。
ステップS52において、特徴点抽出部163は、特徴点候補を抽出する。具体的には、特徴点抽出部163は、選択ROI内の各画素のうち、特徴量が所定の閾値を超える画素を特徴点候補として抽出する。
ステップS53において、特徴点抽出部163は、特徴量の大きい順に特徴点候補をソートする。
ステップS54において、特徴点密度パラメータ設定部142は、特徴点密度パラメータを設定する。具体的には、特徴点抽出部163は、選択ROIの前方画像上の位置を示す情報を特徴点密度パラメータ設定部142に供給する。特徴点密度パラメータ設定部142は、選択ROIのレーダ座標系における位置を求める。そして、特徴点密度パラメータ設定部142は、選択ROI内のオブジェクトが歩行者であると仮定して、以下の式(9)に基づいて、その歩行者の前方画像における高さ(単位はピクセル)を推定する。
歩行者の高さ(ピクセル)=身長(m)×焦点距離(ピクセル)÷距離(m) ・・・(9)
なお、式(9)において、身長は、想定される歩行者の身長の平均値などに基づく定数(例えば、1.7m)であり、焦点距離は、カメラ112の焦点距離をカメラ112の撮像素子の画素ピッチを用いて表した値であり、距離は、選択ROI内のオブジェクトまでの距離を表し、選択ROIのレーダ座標系における位置により求められる。
次に、特徴点密度パラメータ設定部142は、以下の式(10)に基づいて、特徴点密度パラメータを算出する。
特徴点密度パラメータ(ピクセル)=歩行者の高さ(ピクセル)÷Pmax ・・・(10)
なお、Pmaxは所定の定数であり、例えば、歩行者の動きを検出するために、歩行者の高さ方向において抽出することが望ましい特徴点の数などに基づいて設定される。
特徴点密度パラメータは、前方画像におけるオブジェクトが歩行者であると仮定した場合、歩行者の大きさに関わらず、換言すれば、歩行者までの距離に関わらず、その歩行者の画像の高さ方向において抽出される特徴点の数がほぼ一定となるように、各特徴点間に設ける間隔の最小値を表す。すなわち、特徴点密度パラメータは、選択ROI内のオブジェクトの自車からの距離が遠いほど小さくなるように設定される。
特徴点密度パラメータ設定部142は、特徴点密度パラメータを示す情報を特徴点抽出部163に供給する。
ステップS55において、特徴点抽出部163は、ROI内の全ての画素の選択フラグをオンに設定する。選択フラグは、特徴点に設定できる画素であるか否かを示すフラグであり、特徴点に設定される画素の選択フラグはオンに設定され、特徴点に設定できない画素の選択フラグはオフに設定される。特徴点抽出部163は、まず、選択ROI内の全ての画素を特徴点に設定できるように、選択ROI内の全ての画素の選択フラグをオンに設定する。
ステップS56において、特徴点抽出部163は、未処理の特徴点候補の中から最も順位の高い特徴点候補を選択する。具体的には、特徴点抽出部163は、後述するステップS56乃至S58の処理を行っていない特徴点候補の中から、ソート順において最も順位が高い特徴点候補、すなわち、特徴量が最も大きい特徴点候補を選択する。
ステップS57において、特徴点抽出部163は、選択した特徴点候補の選択フラグがオンであるかを判定する。選択した特徴点候補の選択フラグがオンであると判定された場合、処理はステップS58に進む。
ステップS58において、特徴点抽出部163は、選択した特徴点候補の近傍の画素の選択フラグをオフに設定する。具体的には、特徴点抽出部163は、選択した特徴点候補からの距離が特徴点密度パラメータの範囲内の画素の選択フラグをオフに設定する。これにより、選択した特徴点候補からの距離が特徴点密度パラメータの範囲内の画素から新たに特徴点が抽出されなくなる。
ステップS59において、特徴点抽出部163は、選択した特徴点候補を特徴点リストに追加する。すなわち、選択した特徴点候補が特徴点として抽出される。
一方、ステップS57において、選択した特徴点候補の選択フラグがオフであると判定された場合、ステップS58およびS59の処理はスキップされ、選択した特徴点候補が特徴点リストに追加されずに、処理はステップS60に進む。
ステップS60において、特徴点抽出部163は、全ての特徴点候補について処理したかを判定する。全ての特徴点候補について処理していないと判定された場合、処理はステップS56に戻り、ステップS60において、全ての特徴点候補について処理したと判定されるまで、ステップS56乃至S60の処理が、繰り返し実行される。すなわち、ROI内の全ての特徴点候補について、特徴量が大きい順にステップS56乃至S60の処理が実行される。
ステップS60において、全ての特徴点候補について処理したと判定された場合、処理はステップS61に進む。
ステップS61において、特徴点抽出部163は、抽出結果を通知し、特徴点抽出処理は終了する。具体的には、特徴点抽出部163は、選択ROIの前方画像上の位置および特徴点リストをベクトル検出部164に供給する。
ここで、図12乃至図17を参照して、特徴点抽出処理の具体例について説明する。
図12は、ROI内の各画素の特徴量の一例を示している。図12のROI351内の正方形の各欄は画素を示しており、各画素内には各画素の特徴量が示されている。なお、以下、ROI351の左上隅の画素を原点(0,0)とし、水平方向をx軸方向、垂直方向をy軸方向とする座標系を用いて、ROI351内の各画素の座標を表す。
ステップS52において、閾値を0に設定し、ROI351において特徴量が0を超える画素を特徴点候補として抽出した場合、座標が(2,1)、(5,1)、(5,3)、(2,5)および(5,5)の画素が、特徴点候補FP11乃至FP15として抽出される。
ステップS53において、図13に示されるように、ROI351内の特徴点候補が特徴量の大きい方から、特徴点候補FP12、FP13、FP15、FP11、FP14の順にソートされる。
ステップS54において、特徴点密度パラメータが設定されるが、以下、特徴点パラメータが2画素(2ピクセル)に設定されたものとして説明する。
ステップS55において、ROI351内の全ての画素の選択フラグがオンに設定される。
ステップS56において、まず、順位が最も高い特徴点候補FP12が選択され、ステップS57において、特徴点候補FP12の選択フラグがオンであると判定され、ステップS58において、特徴点候補FP12からの距離が2画素以内の画素の選択フラグがオフに設定され、ステップS59において、特徴点候補FP12が特徴点リストに追加される。
図14は、この時点におけるROI351の状態を示している。図内の斜線で示される画素は、選択フラグがオフに設定されている画素である。この時点で、特徴点候補FP12からの距離が2画素である特徴点候補FP13の選択フラグがオフに設定されている。
その後、ステップS60において、まだ全ての特徴点候補について処理していないと判定され、処理はステップS56に戻り、ステップS56において、次に特徴点候補FP13が選択される。
ステップS57において、特徴点候補FP13の選択フラグはオフであると判定され、ステップS58およびS59の処理はスキップされ、特徴点候補FP13は特徴点リストに追加されずに、処理はステップS60に進む。
図15は、この時点におけるROI351の状態を示している。特徴点候補FP13が特徴点リストに追加されず、かつ、特徴点候補FP13の近傍の画素の選択フラグがオフに設定されないため、ROI351の状態は、図14に示される状態から変化しない。
その後、ステップS60において、まだ全ての特徴点候補について処理していないと判定され、処理はステップS56に戻り、ステップS56において、次に特徴点候補FP15が選択される。
ステップS57において、特徴点候補FP15の選択フラグがオンであると判定され、ステップS58において、特徴点候補FP15からの距離が2画素以内の画素の選択フラグがオフに設定され、ステップS59において、特徴点候補FP15が特徴点リストに追加される。
図16は、この時点のROI351の状態を示している。特徴点候補FP12および特徴点候補FP15が特徴点リストに追加され、特徴点候補FP12または特徴点候補FP15からの距離が2画素以内の画素の選択フラグがオフに設定されている。
その後、特徴点候補FP11、特徴点候補FP14の順番で、ステップS56乃至S60の処理が行われ、特徴点候補FP14の処理が終わったとき、ステップS60において、全ての特徴点候補について処理したと判定され、処理はステップS61に進む。
図17は、この時点のROI351の状態を示している。すなわち、特徴点候補FP11、FP12、FP14、および、FP15が特徴点リストに追加され、特徴点候補FP11、FP12、FP14、または、FP15からの距離が2画素以内の画素の選択フラグがオフに設定されている。
そして、ステップS61において、特徴点候補FP11、FP12、FP14、および、FP15が登録された特徴点リストがベクトル検出部164に供給される。すなわち、特徴点候補FP11、FP12、FP14、および、FP15が特徴点としてROI351から抽出される。
このように、特徴点候補の中から特徴量が高い順に特徴点が抽出されるとともに、抽出された特徴点からの距離が特徴点密度パラメータ以下の特徴点候補が特徴点として抽出されなくなる。換言すれば、各特徴点の間隔が特徴点密度パラメータより大きくなるように、特徴点が抽出される。
ここで、図18および図19を参照して、特徴量の値のみに基づいて特徴点を抽出した場合と、上述した特徴点抽出処理を用いて特徴点を抽出した場合を比較する。図18は、前方画像P11およびP12において、特徴量の値のみに基づいて特徴点を抽出した場合の例を示し、図19は、同じ前方画像P11およびP12において、上述した特徴点抽出処理を用いて特徴点を抽出した場合の例を示している。なお、前方画像P11およびP12内の黒丸が抽出された特徴点を示している。
特徴量の値のみに基づいて特徴点を抽出した場合、図18の画像P11内のオブジェクト361のように、自車からオブジェクトまでの距離が近く、オブジェクトの画像が大きく鮮明であるとき、オブジェクト361に対応するROI362内において、オブジェクト361の動きを正確に検出するのに十分な数の特徴点が抽出される。しかし、画像P12内のオブジェクト363のように、自車からオブジェクトまでの距離が遠く、オブジェクトの画像が小さく不鮮明であるとき、オブジェクト363に対応するROI364内において、抽出される特徴点の数が減るととともに、オブジェクト363以外の領域から抽出される特徴点が増える。すなわち、オブジェクト363の動きを正確に検出するのに十分な数の特徴点が抽出されなくなる可能性が高くなる。また、図示はしていないが、逆に、ROI362内において、抽出される特徴点の数が増えすぎて、後段の処理において、負荷が増大してしまう場合がある。
一方、上述した特徴点抽出処理を用いて特徴点を抽出した場合、自車からオブジェクトまでの距離が遠いほど高い密度で特徴点が抽出されるため、図19に示されるように、画像P11のROI362内および画像P12のROI364内の両方において、それぞれ、オブジェクト361またはオブジェクト363の動きを正確に検出するために適切な数の特徴点が抽出される。
図20は、図10の前方画像341において抽出される特徴点の例を示している。図内の黒丸が特徴点を示しており、ROI352およびROI354内の画像のコーナーおよびその付近において、特徴点が抽出されている。
なお、以上の説明では、画像のコーナーの強度に基づいて特徴点を抽出する例を示したが、オブジェクトの動きベクトルの検出に適した特徴点を抽出することが可能であれば、それ以外の特徴量を用いて特徴点を抽出するようにしてもよい。また、特徴量を抽出する手法も、特定の手法に限定されるものではなく、正確に、迅速に、かつ、簡単な処理により特徴量を検出できる手法を適用することが望ましい。
図5に戻り、ステップS8において、ベクトル検出部164は、動きベクトルを検出する。具体的には、ベクトル検出部164は、所定の手法に基づいて、選択ROIの各特徴点における動きベクトルを検出する。例えば、ベクトル検出部164は、選択ROI内の各特徴点に対応する、次のフレームの前方画像内の画素を検出し、各特徴点から検出した画素に向かうベクトルを、各特徴点における動きベクトルとして検出する。ベクトル検出部164は、選択ROIの前方画像上の位置、および、検出した動きベクトルを示す情報をクラスタリング部165に供給する。
図21は、図10の前方画像341において検出される動きベクトルの例を示している。図内の黒丸で示される特徴点を始点とする線が、各特徴点における動きベクトルを示している。
なお、ベクトル検出部164が動きベクトルを検出する手法は、例えば、周知のLucas-Kanade法、ブロックマッチング法が代表的であるが、特定の手法に限定されるものではなく、正確に、迅速に、かつ、簡単な処理により動きベクトルを検出できる手法を適用することが望ましい。
図5に戻り、ステップS9において、クラスタリング部165は、クラスタリング処理を行う。ここで、図22のフローチャートを参照して、クラスタリング処理の詳細について説明する。
ステップS71において、ベクトル変換部261は、未処理の特徴点を1つ選択する。具体的には、ベクトル変換部261は、選択ROI内の特徴点のうち、まだステップS72およびS73の処理を行っていない特徴点を1つ選択する。なお、以下、ステップS71において選択された特徴点を選択特徴点とも称する。
ステップS72において、ベクトル変換部261は、選択した特徴点における動きベクトルを、カメラ112の回転角に基づいて変換する。具体的には、ベクトル変換部261は、ヨーレートセンサ114により検出された自車の旋回方向の角速度、および、カメラ112のフレーム間隔に基づいて、前方画像の現在処理中のフレームと次のフレームとの間に自車が旋回方向に回転した角度、すなわち、自車の旋回方向にカメラ112が回転した角度を算出する。ベクトル変換部261は、選択特徴点における動きベクトルの成分から、カメラ112が自車の旋回方向に回転したことにより生じた成分を除くことにより、自車(カメラ112)の距離方向の移動、および、選択特徴点における被写体の動きにより生じた動きベクトル(変換ベクトル)を求める。なお、カメラ112の自車の旋回方向の回転により生じる動きベクトルの成分の大きさは、被写体までの距離とは無関係である。
ベクトル変換部261は、選択ROIの前方画像上の位置、および、求めた変換ベクトルを示す情報をベクトル分類部262に供給する。
ステップS73において、ベクトル分類部262は、動きベクトルの種類を検出する。具体的には、まず、ベクトル分類部262は、自車から選択ROI内のオブジェクトまでの距離を示す情報をROI設定部161から取得する。
カメラ112が自車の旋回方向に回転していない場合、前方画像内の静止物体上の画素における動きベクトル(以下、背景ベクトルと称する)、すなわち、自車の距離方向の移動のみにより生じる動きベクトルの向きおよび大きさは、その画素の前方画像上の位置、その静止物体の自車からの距離、および、動きベクトルの検出に用いた2枚の前方画像のフレーム間の時間内に自車が移動した距離に基づいて求めることができる。変換ベクトルは、自車の旋回方向へのカメラ112の回転により生じた成分が除かれているため、選択特徴点における変換ベクトルと、選択特徴点において理論的に求められる背景ベクトルとを比較することにより、選択特徴点における動きベクトルが、移動物体の動きベクトル(以下、移動物体ベクトルと称する)または背景ベクトルのいずれであるかを検出することができる。換言すれば、選択特徴点が、移動物体または静止物体のいずれの上にある画素であるかを検出することができる。
ベクトル分類部262は、選択特徴点における変換ベクトルと、選択特徴点における理論上の背景ベクトル(カメラ112が回転しておらず、かつ、選択特徴点が静止物体上の画素である場合の選択特徴点における動きベクトル)とのx軸方向(前方画像の水平方向)の向きが異なる場合、以下の式(11)を満たすとき、選択特徴点における動きベクトルは移動物体ベクトルであると判定し、式(11)を満たさないとき、選択特徴点における動きベクトルは背景ベクトルであると判定する。
|vx|>0 ・・・(11)
なお、vxは、変換ベクトルのx軸方向の成分を示している。すなわち、選択特徴点における動きベクトルは、選択特徴点における変換ベクトルと理論上の背景ベクトルとのx軸方向の向きが異なる場合、移動物体ベクトルであると判定され、x軸方向の向きが同じ場合、背景ベクトルであると判定される。
また、ベクトル分類部262は、選択特徴点における変換ベクトルと理論上の背景ベクトルとのx軸方向の向きが同じ場合、以下の式(12)を満たすとき、選択特徴点における動きベクトルは移動物体ベクトルであると判定し、式(12)を満たさないとき、選択特徴点における動きベクトルは背景ベクトルであると判定する。
|vx|>x×tz÷Z ・・・(12)
なお、xは、選択特徴点の前方画像の中心点(X0,Y0)からのx軸方向の距離(長さ)を表し、tzは、動きベクトルの検出に用いた2枚の前方画像のフレーム間の時間内に自車が移動した距離を表し、Zは、選択ROI内のオブジェクトの自車からの距離を表す。すなわち、式(12)の右辺は、カメラ112が回転しておらず、かつ、選択特徴点が静止物体上にある場合の選択特徴点における動きベクトルの水平成分の大きさを表している。従って、選択特徴点における動きベクトルは、選択特徴点における変換ベクトルと理論上の背景ベクトルとのx軸方向の向きが同じ場合、変換ベクトルのx軸方向の成分の大きさが式(12)の右辺より大きいとき、移動物体ベクトルであると判定され、変換ベクトルのx軸方向の成分の大きさが式(12)の右辺以下のとき、背景ベクトルであると判定される。
ステップS74において、ベクトル分類部262は、全ての特徴点について処理したかを判定する。全ての特徴点について処理していないと判定された場合、処理はステップS71に戻り、ステップS74において、全ての特徴点について処理したと判定されるまで、ステップS71乃至S74の処理が繰り返し実行される。すなわち、ROI内の全ての特徴点における動きベクトルの種類が検出される。
一方、ステップS74において、全ての特徴点について処理したと判定された場合、処理はステップS75に進む。
ステップS75において、オブジェクト分類部263は、オブジェクトの種類を検出する。具体的には、ベクトル分類部262は、選択ROIの前方画像上の位置、および、選択ROI内の各動きベクトルの種類を示す情報をオブジェクト分類部263に供給する。
オブジェクト分類部263は、選択ROI内の動きベクトルを分類した結果に基づいて、選択ROI内のオブジェクトの種類を検出する。例えば、オブジェクト分類部263は、選択ROI内の移動物体ベクトルの数が所定の閾値以上である場合、選択ROI内のオブジェクトが移動物体であると判定し、所定の閾値未満である場合、選択ROI内のオブジェクトが静止物体であると判定する。あるいは、例えば、オブジェクト分類部263は、選択ROI内の全ての動きベクトルに占める移動物体ベクトルの比率が所定の閾値以上である場合、選択ROI内のオブジェクトが移動物体であると判定し、所定の閾値未満である場合、選択ROI内のオブジェクトが静止物体であると判定する。
ここで、図23を参照して、オブジェクトの分類処理の具体例について説明する。なお、図23は、前方画像を模式的に表した図であり、図内の黒の矢印は、ROI381内のオブジェクト382の動きベクトル、および、ROI383内のオブジェクト384の動きベクトルを表し、その他の矢印は背景ベクトルを表す。図23に示されるように、背景ベクトルは、前方画像上のx軸方向のほぼ中央を境にして向きが変わり、左右の両端に近くなるほど、その大きさが大きくなる。また、線385乃至387は、路上の区分線を表し、線388および389は、検知領域の境界を表すための補助線である。
図23に示されるように、オブジェクト382は、背景ベクトルの向きとほぼ反対方向に移動している。従って、オブジェクト382の動きベクトルとオブジェクト382における理論上の背景ベクトルのx軸方向の向きが異なるため、上述した式(11)に基づいて、オブジェクト382の動きベクトルは、移動物体ベクトルであると判定され、オブジェクト382は移動物体に分類される。
一方、オブジェクト384は、背景ベクトルの向きとほぼ同じ方向に移動している。すなわち、オブジェクト384の動きベクトルとオブジェクト384における理論上の背景ベクトルのx軸方向の向きが同じになる。この場合、オブジェクト384の動きベクトルは、自車の移動による成分とオブジェクト384の移動による成分との和になり、理論上の背景ベクトルの大きさより大きくなる。従って、式(12)に基づいて、オブジェクト384の動きベクトルは、移動物体ベクトルであると判定され、オブジェクト384は移動物体に分類される。
このように、オブジェクトの移動方向と理論上の背景ベクトルの向きとの関係に関わらず、オブジェクトが移動物体であるか否かを正確に検出することができる。
一方、例えば、特開6−282655号公報に記載されているように、動きベクトルと理論上の背景ベクトルとのx軸方向の向きのみに基づいて、移動物体を検出するようにした場合、背景ベクトルの向きとほぼ反対方向に移動しているオブジェクト382を移動物体に分類することはできるが、背景ベクトルとほほ同じ方向に移動しているオブジェクト384を移動物体に分類することはできない。
図22に戻り、ステップS76において、オブジェクト分類部263は、移動物体であるかを判定する。オブジェクト分類部263は、ステップS75の処理の結果に基づいて、選択ROI内のオブジェクトが移動物体であると判定した場合、処理はステップS77に進む。
ステップS77において、移動物体分類部264は、移動物体の種類を検出し、クラスタリング処理は終了する。具体的には、オブジェクト分類部263は、選択ROIの前方画像上の位置を示す情報を移動物体分類部264に供給する。移動物体分類部264は、例えば、所定の画像認識の手法を用いて、選択ROI内のオブジェクトである移動物体が車両であるか否かを検出する。なお、上述したステップS5のROI設定処理において、対向車および先行車が処理対象から除かれているため、この処理により、選択ROI内の移動物体が、自車の横断方向に移動している車両であるか否かが検出される。
このように、検出対象が移動物体に絞り込まれた後、自車に対して横断方向に移動している車両であるか否かを検出するので、検出精度を向上させることができる。また、選択ROI内の移動物体が車両でないと判定された場合、その移動物体は、検知領域内において車両以外の移動する物体であり、人である可能性が高くなる。
移動物体分類部264は、選択ROIの前方画像上の位置、および、選択ROI内のオブジェクトの種類を示す情報を出力部133に供給する。
一方、ステップS76において、選択ROI内のオブジェクトが静止物体であると判定された場合、処理はステップS78に進む。
ステップS78において、静止物体分類部265は、静止物体の種類を検出し、クラスタリング処理は終了する。具体的には、オブジェクト分類部263は、選択ROIの前方画像上の位置を示す情報を静止物体分類部265に供給する。静止物体分類部265は、例えば、所定の画像認識の手法を用いて、選択ROI内のオブジェクトである静止物体が人であるか否かを判定する。すなわち、選択ROI内の静止物体が人であるか、それ以外の物体(例えば、路側構造物、停止車両など)であるかが検出される。
このように、検出対象が静止物体に絞り込まれた後、静止している人であるか否かを検出するので、検出精度を向上させることができる。
静止物体分類部265は、選択ROIの前方画像上の位置、および、選択ROI内のオブジェクトの種類を示す情報を出力部133に供給する。
図5に戻り、ステップS10において、特徴量算出部162は、全てのROIについて処理したかを判定する。まだ全てのROIについて処理していないと判定された場合、処理はステップS6に戻り、ステップS10において、全てのROIについて処理したと判定されるまで、ステップS6乃至S10の処理が繰り返し実行される。すなわち、設定された全てのROI内のオブジェクトの種類が検出される。
ステップS11において、出力部133は、検出結果を供給する。具体的には、出力部133は、移動物体が検出されたROIのうち車両以外の移動物体が検出されたROI内のオブジェクト、および、静止物体が検出されたROIのうち人が検出されたROI内のオブジェクト、すなわち、人である可能性が高いオブジェクトのレーダ座標系における位置、移動方向、および、速度などの検出結果を示す情報を車両制御装置116に供給する。
図24は、図10の前方画像341における検出結果の例を示す図である。ROI352内の領域401内のオブジェクト351が人である可能性が高いと判定され、オブジェクト351のレーダ座標系における位置、移動方向、および、速度などの検出結果を示す情報が車両制御装置116に供給される。
ステップS12において、車両制御装置116は、検出結果に応じた処理を行う。例えば、車両制御装置116は、図示せぬ表示や装置やスピーカなどを用いて、画像や音声により、検出した人との接触や衝突の回避を促す警報を行う。また、例えば、車両制御装置116は、検出した人との接触や衝突を回避するように、自車の速度や進行方向などを制御する。
ステップS13において、障害物検出システム101は、処理を終了するかを判定する。処理を終了しないと判定された場合、処理はステップS5に戻り、ステップS13において、処理を終了すると判定されるまで、ステップS5乃至S13の処理が繰り返し実行される。
一方、ステップS13において、例えば、自車のエンジンが停止された場合、処理を終了すると判定され、障害物検出処理は終了する。
以上のように、自車の前方に存在するオブジェクトが移動物体または静止物体のいずれであるかを正確に検出することができ、その結果、自車の前方に存在する人の検出性能を向上させることができる。
また、検出処理を行う領域がROI内に限定されるため、検出処理の負荷を軽減することができ、処理速度を高速化したり、検出処理を実現するための装置に要するコストを削減したりすることができる。
さらに、オブジェクトまでの距離に応じてROI内から抽出される特徴点の密度が適切に設定されるので、検出性能を向上させることができるとともに、特徴点が必要以上に抽出されてしまい、検出処理の負荷が増大することが防止される。
なお、以上の説明では、障害物検出装置115から、自車の前方に存在する人の位置、移動方向、および、速度などを検出結果として出力する例を示したが、例えば、検出された全ての移動物体および静止物体の種類、位置、移動方向、および、速度などを検出結果として出力するようにしてもよい。あるいは、例えば、横断方向に走行している車両など、所望の種類のみの物体の位置、移動方向、および、速度などを検出結果として出力するようにしてもよい。
また、必要に応じて、移動物体分類部264および静止物体分類部265において、さらに高精度な画像認識を行い、より詳細に移動物体または静止物体の種類を分類するようにしてもよい。
さらに、移動物体または静止物体の種類を分類する必要がない場合、移動物体または静止物体の種類の検出を行わずに、移動物体または静止物体の位置、移動方向、および、速度などを検出結果として出力するようにしてもよい。
また、図6のROI設定処理において、速度が所定の閾値より大きいオブジェクトを処理対象から除外するようにしたが、逆に、速度が所定の閾値より大きいオブジェクトのみを処理対象とするようにしてもよい。これにより、対向車および先行車の検出精度を低下させることなく、検出処理の負荷を低減させることができる。
さらに、図6のROI設定処理において、速度が所定の閾値より大きいオブジェクトに対するROIを求め、求めたROI以外の領域を処理対象とするようにしてもよい。
また、図11の特徴点抽出の手法は、上述した動きベクトルを検出するための特徴点を抽出する以外にも、例えば、画像認識における特徴点抽出などにも適用することができる。
さらに、以上の説明では、車両の前方のオブジェクトを検出する例を示したが、本発明は、前方以外の方向のオブジェクトを検出する場合にも適用することができる。
また、以上の説明では、画像の高さ方向において抽出することが望ましい特徴点の数に基づいて、特徴点密度パラメータを設定する例を示したが、例えば、画像の所定の面積あたりにおいて抽出することが望ましい特徴点の数に基づいて、特徴点密度パラメータを設定するようにしてもよい。
なお、本発明は、例えば、自動車、自動二輪車、電車などの車両に設ける障害物検出装置に適用することができる。
上述した障害物検出装置115の一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。障害物検出装置115の一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図25は、上述した障害物検出装置115の一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、キーボード、マウス、マイクロホンなどよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507、ハードディスクや不揮発性のメモリなどよりなる記憶部508、ネットワークインタフェースなどよりなる通信部509、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア511を駆動するドライブ510が接続されている。
以上のように構成されるコンピュータでは、CPU501が、例えば、記憶部508に記憶されているプログラムを、入出力インタフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU501)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア511に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インタフェース505を介して、記憶部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記憶部508にインストールすることができる。その他、プログラムは、ROM502や記憶部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムの用語は、複数の装置、手段などより構成される全体的な装置を意味するものとする。
さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
101 障害物検出システム
111 レーザレーダ
112 カメラ
113 車速センサ
114 ヨーレートセンサ
115 障害物検出装置
116 車両制御装置
131 オブジェクト情報処理部
132 画像処理部
133 出力部
141 オブジェクト抽出部
142 特徴点密度パラメータ設定部
151 位置判定部
152 速度判定部
161 ROI設定部
162 特徴量算出部
163 特徴点抽出部
164 ベクトル検出部
165 クラスタリング部
261 ベクトル変換部
262 ベクトル分類部
263 オブジェクト分類部
264 移動物体分類部
265 静止物体分類部
111 レーザレーダ
112 カメラ
113 車速センサ
114 ヨーレートセンサ
115 障害物検出装置
116 車両制御装置
131 オブジェクト情報処理部
132 画像処理部
133 出力部
141 オブジェクト抽出部
142 特徴点密度パラメータ設定部
151 位置判定部
152 速度判定部
161 ROI設定部
162 特徴量算出部
163 特徴点抽出部
164 ベクトル検出部
165 クラスタリング部
261 ベクトル変換部
262 ベクトル分類部
263 オブジェクト分類部
264 移動物体分類部
265 静止物体分類部
Claims (6)
- 車両の周囲の障害物を検出する検出装置において、
前記車両に設けられたレーダにより前記車両の周囲において検出されたオブジェクトのうち、前記車両の距離方向の速度の絶対値が所定の閾値以下であるオブジェクトを抽出するオブジェクト抽出手段と、
前記車両に設けられたカメラにより前記車両の周囲を撮影した画像において、抽出された前記オブジェクトの一部または全部を含み、抽出された前記オブジェクトの前記車両からの距離に応じた大きさの領域を障害物の検出を行う領域に設定する領域設定手段と
を含む検出装置。 - 前記オブジェクト抽出手段は、前記車両の距離方向の速度の絶対値が所定の閾値以下であるオブジェクトのうち、前記車両の速度に基づいて設定される前記車両の周囲の領域内に存在するオブジェクトを抽出する
請求項1に記載の検出装置。 - 前記領域内の画素の特徴量を算出する特徴量算出手段と、
前記領域内において、前記特徴量が所定の閾値以上となる画素である特徴点候補の中から前記オブジェクトの特徴を検出するための特徴点を、前記オブジェクトの前記車両からの距離が遠いほど高い密度で抽出する特徴点抽出手段と
をさらに含む請求項1に記載の検出装置。 - 前記特徴点における動きベクトルを検出する動きベクトル検出手段と、
検出された前記動きベクトルの成分から、前記車両の旋回方向への前記カメラの回転により生じた成分を除去することにより前記動きベクトルを変換するベクトル変換手段と、
変換された前記動きベクトルの前記画像の水平方向の成分の大きさ、前記動きベクトルに対応する前記特徴点の前記画像の水平方向における位置、前記オブジェクトの前記車両からの距離、および、前記車両の移動距離に基づいて、前記動きベクトルが移動している物体の動きベクトルである移動物体動きベクトルであるか否かを検出することにより前記動きベクトルを分類するベクトル分類手段と、
前記領域内の前記動きベクトルを分類した結果に基づいて、前記オブジェクトが移動しているか否かを判定する移動判定手段と
をさらに含む請求項3に記載の検出装置。 - 車両の周囲の障害物を検出する検出方法において、
前記車両に設けられたレーダにより前記車両の周囲において検出されたオブジェクトのうち、前記車両の距離方向の速度の絶対値が所定の閾値以下であるオブジェクトを抽出するオブジェクト抽出ステップと、
前記車両に設けられたカメラにより前記車両の周囲を撮影した画像において、抽出された前記オブジェクトの一部または全部を含み、抽出された前記オブジェクトの前記車両からの距離に応じた大きさの領域を障害物の検出を行う領域に設定する領域設定ステップと
を含む検出方法。 - 車両の周囲の障害物を検出する検出処理をコンピュータに実行させるプログラムにおいて、
前記車両に設けられたレーダにより前記車両の周囲において検出されたオブジェクトのうち、前記車両の距離方向の速度の絶対値が所定の閾値以下であるオブジェクトを抽出するオブジェクト抽出ステップと、
前記車両に設けられたカメラにより前記車両の周囲を撮影した画像において、抽出された前記オブジェクトの一部または全部を含み、抽出された前記オブジェクトの前記車両からの距離に応じた大きさの領域を障害物の検出を行う領域に設定する領域設定ステップと
を含むプログラム。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007002701A JP2008172441A (ja) | 2007-01-10 | 2007-01-10 | 検出装置および方法、並びに、プログラム |
| EP07123708A EP1950689A3 (en) | 2007-01-10 | 2007-12-19 | Detection device, method and program thereof |
| US11/972,354 US20080164985A1 (en) | 2007-01-10 | 2008-01-10 | Detection device, method and program thereof |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007002701A JP2008172441A (ja) | 2007-01-10 | 2007-01-10 | 検出装置および方法、並びに、プログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2008172441A true JP2008172441A (ja) | 2008-07-24 |
Family
ID=39500129
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007002701A Withdrawn JP2008172441A (ja) | 2007-01-10 | 2007-01-10 | 検出装置および方法、並びに、プログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20080164985A1 (ja) |
| EP (1) | EP1950689A3 (ja) |
| JP (1) | JP2008172441A (ja) |
Cited By (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009237897A (ja) * | 2008-03-27 | 2009-10-15 | Daihatsu Motor Co Ltd | 画像認識装置 |
| JP2012146146A (ja) * | 2011-01-12 | 2012-08-02 | Denso It Laboratory Inc | 移動物体検出装置 |
| JP2013084242A (ja) * | 2011-10-06 | 2013-05-09 | Honda Research Inst Europe Gmbh | 映像に基づく車両用警報システム |
| JP2013120551A (ja) * | 2011-12-08 | 2013-06-17 | Denso It Laboratory Inc | 車両用運転支援装置 |
| JP2013152388A (ja) * | 2012-01-26 | 2013-08-08 | Canon Inc | 撮像装置およびその制御方法 |
| KR101498114B1 (ko) * | 2013-11-28 | 2015-03-05 | 현대모비스 주식회사 | 보행자를 검출하는 영상 처리 장치 및 그 방법 |
| KR101519261B1 (ko) * | 2013-12-17 | 2015-05-11 | 현대자동차주식회사 | 차량의 모니터링 방법 및 자동 제동 장치 |
| KR20160002082A (ko) * | 2014-06-30 | 2016-01-07 | 국방과학연구소 | 표적의 주요 특징점 정보를 이용한 지상 표적 인지 기법 |
| JP2019525360A (ja) * | 2016-08-25 | 2019-09-05 | エルジー エレクトロニクス インコーポレイティド | 移動ロボット及びその制御方法 |
| JP2019207161A (ja) * | 2018-05-29 | 2019-12-05 | 株式会社Soken | 物体検知装置 |
| WO2020003776A1 (ja) * | 2018-06-29 | 2020-01-02 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置及び情報処理方法、撮像装置、コンピュータプログラム、情報処理システム、並びに移動体装置 |
| WO2020075525A1 (ja) * | 2018-10-12 | 2020-04-16 | ソニーセミコンダクタソリューションズ株式会社 | センサフュージョンシステム、同期制御装置、及び同期制御方法 |
| WO2020116204A1 (ja) * | 2018-12-07 | 2020-06-11 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体 |
| JP2020201670A (ja) * | 2019-06-07 | 2020-12-17 | 本田技研工業株式会社 | 認識装置、認識方法、およびプログラム |
| JP2021128759A (ja) * | 2020-02-10 | 2021-09-02 | 富士通株式会社 | オブジェクト検出方法及び装置 |
| JP2021530679A (ja) * | 2018-06-30 | 2021-11-11 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh | 自動車用レーダセンサによる静的レーダ目標の認識方法 |
| JPWO2022019117A1 (ja) * | 2020-07-21 | 2022-01-27 | ||
| KR102363691B1 (ko) * | 2021-05-07 | 2022-02-17 | (주)뉴빌리티 | 자율주행을 위한 객체 속도 추정 장치 및 방법 |
| JP2022076876A (ja) * | 2020-11-10 | 2022-05-20 | 株式会社デンソー | 位置推定装置、位置推定方法、及び位置推定プログラム |
| JP2022143920A (ja) * | 2021-03-18 | 2022-10-03 | 株式会社Jvcケンウッド | 画像記録装置 |
| JP2023022415A (ja) * | 2021-08-03 | 2023-02-15 | 株式会社Subaru | 物体認識装置、コンピュータプログラム及び記録媒体 |
| JP2023085415A (ja) * | 2016-11-16 | 2023-06-20 | イノヴィズ テクノロジーズ リミテッド | Lidarシステム及び方法 |
Families Citing this family (57)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009169776A (ja) * | 2008-01-18 | 2009-07-30 | Hitachi Ltd | 検出装置 |
| US8917904B2 (en) * | 2008-04-24 | 2014-12-23 | GM Global Technology Operations LLC | Vehicle clear path detection |
| DE102008039606A1 (de) * | 2008-08-25 | 2010-03-04 | GM Global Technology Operations, Inc., Detroit | Kraftfahrzeug mit einem Abstandssensor und einem Bilderfassungssystem |
| CN101676741B (zh) * | 2008-09-19 | 2012-11-14 | 李世雄 | 可防止追撞意外的倒车侦测装置 |
| JP4858574B2 (ja) * | 2009-05-19 | 2012-01-18 | トヨタ自動車株式会社 | 物体検出装置 |
| JP5385009B2 (ja) * | 2009-05-29 | 2014-01-08 | 日立オートモティブシステムズ株式会社 | 車両制御装置および車両制御方法 |
| JP5645769B2 (ja) * | 2011-08-01 | 2014-12-24 | 株式会社日立製作所 | 画像処理装置 |
| CN103764448B (zh) * | 2011-09-05 | 2016-03-02 | 三菱电机株式会社 | 图像处理装置及图像处理方法 |
| DE102011082477A1 (de) * | 2011-09-12 | 2013-03-14 | Robert Bosch Gmbh | Verfahren und System zur Erstellung einer digitalen Abbildung eines Fahrzeugumfeldes |
| DE102012001554A1 (de) * | 2012-01-26 | 2013-08-01 | Connaught Electronics Ltd. | Verfahren zum Betreiben einer Fahrerassistenzeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung und Kraftfahrzeug |
| US20140309876A1 (en) | 2013-04-15 | 2014-10-16 | Flextronics Ap, Llc | Universal vehicle voice command system |
| DE102012005851A1 (de) * | 2012-03-22 | 2013-09-26 | Connaught Electronics Ltd. | Verfahren zum Warnen des Fahrers eines Kraftfahrzeugs vor der Anwesenheit einesObjekts in der Umgebung des Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug |
| KR101326943B1 (ko) * | 2012-06-29 | 2013-11-11 | 엘지이노텍 주식회사 | 추월차량 경고 시스템 및 추월차량 경고 방법 |
| US12039243B2 (en) | 2013-04-15 | 2024-07-16 | Autoconnect Holdings Llc | Access and portability of user profiles stored as templates |
| US9674490B2 (en) * | 2013-04-18 | 2017-06-06 | Magna Electronics Inc. | Vision system for vehicle with adjustable cameras |
| JP6036601B2 (ja) * | 2013-08-09 | 2016-11-30 | 株式会社デンソー | 画像処理装置及び画像処理方法 |
| KR101550972B1 (ko) * | 2013-09-25 | 2015-09-07 | 현대자동차주식회사 | 레이저 스캐너를 이용하여 장애물을 인식하기 위한 특징점 추출 장치 및 방법 |
| CN103886583A (zh) * | 2014-02-14 | 2014-06-25 | 杭州电子科技大学 | 一种基于场景几何约束的目标检测滑窗扫描方法 |
| US9380229B2 (en) * | 2014-02-28 | 2016-06-28 | Samsung Electronics Co., Ltd. | Digital imaging systems including image sensors having logarithmic response ranges and methods of determining motion |
| KR102273027B1 (ko) * | 2014-06-09 | 2021-07-05 | 삼성전자주식회사 | 위치정보를 사용하여 설정된 관심영역을 사용하여 영상데이터를 생성하는 방법 및 장치 |
| CN104952060B (zh) * | 2015-03-19 | 2017-10-31 | 杭州电子科技大学 | 一种红外行人感兴趣区域自适应分割提取方法 |
| WO2017082370A1 (ja) * | 2015-11-10 | 2017-05-18 | 古河電気工業株式会社 | 監視装置および監視方法 |
| US10692126B2 (en) | 2015-11-17 | 2020-06-23 | Nio Usa, Inc. | Network-based system for selling and servicing cars |
| CN105740802A (zh) * | 2016-01-28 | 2016-07-06 | 北京中科慧眼科技有限公司 | 基于视差图的障碍物检测方法和装置及汽车驾驶辅助系统 |
| US20180012197A1 (en) | 2016-07-07 | 2018-01-11 | NextEv USA, Inc. | Battery exchange licensing program based on state of charge of battery pack |
| US9928734B2 (en) | 2016-08-02 | 2018-03-27 | Nio Usa, Inc. | Vehicle-to-pedestrian communication systems |
| CN106406312B (zh) * | 2016-10-14 | 2017-12-26 | 平安科技(深圳)有限公司 | 导览机器人及其移动区域标定方法 |
| KR101967305B1 (ko) * | 2016-10-14 | 2019-05-15 | 주식회사 만도 | 차량의 보행자 인식 방법 및 차량의 보행자 인식 시스템 |
| US10025311B2 (en) * | 2016-10-28 | 2018-07-17 | Delphi Technologies, Inc. | Automated vehicle sensor control system |
| US9963106B1 (en) | 2016-11-07 | 2018-05-08 | Nio Usa, Inc. | Method and system for authentication in autonomous vehicles |
| US10708547B2 (en) | 2016-11-11 | 2020-07-07 | Nio Usa, Inc. | Using vehicle sensor data to monitor environmental and geologic conditions |
| US10410064B2 (en) | 2016-11-11 | 2019-09-10 | Nio Usa, Inc. | System for tracking and identifying vehicles and pedestrians |
| US10694357B2 (en) | 2016-11-11 | 2020-06-23 | Nio Usa, Inc. | Using vehicle sensor data to monitor pedestrian health |
| US10699305B2 (en) | 2016-11-21 | 2020-06-30 | Nio Usa, Inc. | Smart refill assistant for electric vehicles |
| US10249104B2 (en) | 2016-12-06 | 2019-04-02 | Nio Usa, Inc. | Lease observation and event recording |
| US10074223B2 (en) | 2017-01-13 | 2018-09-11 | Nio Usa, Inc. | Secured vehicle for user use only |
| US10471829B2 (en) | 2017-01-16 | 2019-11-12 | Nio Usa, Inc. | Self-destruct zone and autonomous vehicle navigation |
| US9984572B1 (en) | 2017-01-16 | 2018-05-29 | Nio Usa, Inc. | Method and system for sharing parking space availability among autonomous vehicles |
| US10031521B1 (en) | 2017-01-16 | 2018-07-24 | Nio Usa, Inc. | Method and system for using weather information in operation of autonomous vehicles |
| US10286915B2 (en) | 2017-01-17 | 2019-05-14 | Nio Usa, Inc. | Machine learning for personalized driving |
| US10464530B2 (en) | 2017-01-17 | 2019-11-05 | Nio Usa, Inc. | Voice biometric pre-purchase enrollment for autonomous vehicles |
| US10897469B2 (en) | 2017-02-02 | 2021-01-19 | Nio Usa, Inc. | System and method for firewalls between vehicle networks |
| US10234302B2 (en) | 2017-06-27 | 2019-03-19 | Nio Usa, Inc. | Adaptive route and motion planning based on learned external and internal vehicle environment |
| US10369974B2 (en) | 2017-07-14 | 2019-08-06 | Nio Usa, Inc. | Control and coordination of driverless fuel replenishment for autonomous vehicles |
| US10710633B2 (en) | 2017-07-14 | 2020-07-14 | Nio Usa, Inc. | Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles |
| US10837790B2 (en) | 2017-08-01 | 2020-11-17 | Nio Usa, Inc. | Productive and accident-free driving modes for a vehicle |
| US10679351B2 (en) | 2017-08-18 | 2020-06-09 | Samsung Electronics Co., Ltd. | System and method for semantic segmentation of images |
| US10635109B2 (en) | 2017-10-17 | 2020-04-28 | Nio Usa, Inc. | Vehicle path-planner monitor and controller |
| US10606274B2 (en) | 2017-10-30 | 2020-03-31 | Nio Usa, Inc. | Visual place recognition based self-localization for autonomous vehicles |
| US10935978B2 (en) | 2017-10-30 | 2021-03-02 | Nio Usa, Inc. | Vehicle self-localization using particle filters and visual odometry |
| US10717412B2 (en) | 2017-11-13 | 2020-07-21 | Nio Usa, Inc. | System and method for controlling a vehicle using secondary access methods |
| CN108415018A (zh) * | 2018-03-27 | 2018-08-17 | 哈尔滨理工大学 | 一种基于毫米波雷达检测的目标存在性分析方法 |
| US10369966B1 (en) | 2018-05-23 | 2019-08-06 | Nio Usa, Inc. | Controlling access to a vehicle using wireless access devices |
| CN111830470B (zh) * | 2019-04-16 | 2023-06-27 | 杭州海康威视数字技术股份有限公司 | 联合标定方法及装置、目标对象检测方法、系统及装置 |
| JP7322358B2 (ja) * | 2020-01-30 | 2023-08-08 | 富士通株式会社 | 情報処理プログラム、情報処理方法、及び情報処理装置 |
| US11418773B2 (en) * | 2020-04-21 | 2022-08-16 | Plato Systems, Inc. | Method and apparatus for camera calibration |
| EP4588022A1 (de) * | 2022-09-13 | 2025-07-23 | Sew-Eurodrive GmbH & Co. KG | Verfahren zur detektion eines objekts durch ein mobiles system |
Family Cites Families (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3123303B2 (ja) * | 1992-07-21 | 2001-01-09 | 日産自動車株式会社 | 車両用画像処理装置 |
| JP3239521B2 (ja) | 1993-03-30 | 2001-12-17 | トヨタ自動車株式会社 | 移動体認識装置 |
| JP3911979B2 (ja) * | 2000-08-29 | 2007-05-09 | トヨタ自動車株式会社 | 警報装置およびその警報装置を備えた走行制御装置 |
| GB0218982D0 (en) * | 2002-08-15 | 2002-09-25 | Roke Manor Research | Video motion anomaly detector |
| JP3736520B2 (ja) * | 2002-12-19 | 2006-01-18 | 株式会社デンソー | 車両用障害物認識装置 |
| JP2005025692A (ja) * | 2003-07-04 | 2005-01-27 | Suzuki Motor Corp | 車両用情報提供装置 |
| JP4193703B2 (ja) | 2004-01-19 | 2008-12-10 | トヨタ自動車株式会社 | 物体検出装置 |
| JP4052650B2 (ja) * | 2004-01-23 | 2008-02-27 | 株式会社東芝 | 障害物検出装置、方法及びプログラム |
| JP2005284410A (ja) * | 2004-03-26 | 2005-10-13 | Omron Corp | 車両認識装置及び車両認識方法 |
| JP2006151125A (ja) | 2004-11-26 | 2006-06-15 | Omron Corp | 車載用画像処理装置 |
-
2007
- 2007-01-10 JP JP2007002701A patent/JP2008172441A/ja not_active Withdrawn
- 2007-12-19 EP EP07123708A patent/EP1950689A3/en not_active Withdrawn
-
2008
- 2008-01-10 US US11/972,354 patent/US20080164985A1/en not_active Abandoned
Cited By (42)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009237897A (ja) * | 2008-03-27 | 2009-10-15 | Daihatsu Motor Co Ltd | 画像認識装置 |
| JP2012146146A (ja) * | 2011-01-12 | 2012-08-02 | Denso It Laboratory Inc | 移動物体検出装置 |
| JP2013084242A (ja) * | 2011-10-06 | 2013-05-09 | Honda Research Inst Europe Gmbh | 映像に基づく車両用警報システム |
| JP2013120551A (ja) * | 2011-12-08 | 2013-06-17 | Denso It Laboratory Inc | 車両用運転支援装置 |
| JP2013152388A (ja) * | 2012-01-26 | 2013-08-08 | Canon Inc | 撮像装置およびその制御方法 |
| KR101498114B1 (ko) * | 2013-11-28 | 2015-03-05 | 현대모비스 주식회사 | 보행자를 검출하는 영상 처리 장치 및 그 방법 |
| KR101519261B1 (ko) * | 2013-12-17 | 2015-05-11 | 현대자동차주식회사 | 차량의 모니터링 방법 및 자동 제동 장치 |
| US9365195B2 (en) | 2013-12-17 | 2016-06-14 | Hyundai Motor Company | Monitoring method of vehicle and automatic braking apparatus |
| KR20160002082A (ko) * | 2014-06-30 | 2016-01-07 | 국방과학연구소 | 표적의 주요 특징점 정보를 이용한 지상 표적 인지 기법 |
| KR101599817B1 (ko) * | 2014-06-30 | 2016-03-04 | 국방과학연구소 | 표적의 주요 특징점 정보를 이용한 지상 표적 인지 기법 |
| JP2019525360A (ja) * | 2016-08-25 | 2019-09-05 | エルジー エレクトロニクス インコーポレイティド | 移動ロボット及びその制御方法 |
| JP7478281B2 (ja) | 2016-11-16 | 2024-05-02 | イノヴィズ テクノロジーズ リミテッド | Lidarシステム及び方法 |
| JP2023085415A (ja) * | 2016-11-16 | 2023-06-20 | イノヴィズ テクノロジーズ リミテッド | Lidarシステム及び方法 |
| JP2019207161A (ja) * | 2018-05-29 | 2019-12-05 | 株式会社Soken | 物体検知装置 |
| WO2020003776A1 (ja) * | 2018-06-29 | 2020-01-02 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置及び情報処理方法、撮像装置、コンピュータプログラム、情報処理システム、並びに移動体装置 |
| KR102792151B1 (ko) * | 2018-06-29 | 2025-04-08 | 소니 세미컨덕터 솔루션즈 가부시키가이샤 | 정보 처리 장치 및 정보 처리 방법, 촬상 장치, 컴퓨터 프로그램, 정보 처리 시스템, 그리고 이동체 장치 |
| JP7530830B2 (ja) | 2018-06-29 | 2024-08-08 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置及び情報処理方法、撮像装置、コンピュータプログラム、情報処理システム、並びに移動体装置 |
| US11994581B2 (en) | 2018-06-29 | 2024-05-28 | Sony Semiconductor Solutions Corporation | Information processing device and information processing method, imaging device, computer program, information processing system, and moving body device |
| KR20210022570A (ko) * | 2018-06-29 | 2021-03-03 | 소니 세미컨덕터 솔루션즈 가부시키가이샤 | 정보 처리 장치 및 정보 처리 방법, 촬상 장치, 컴퓨터 프로그램, 정보 처리 시스템, 그리고 이동체 장치 |
| JPWO2020003776A1 (ja) * | 2018-06-29 | 2021-08-19 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置及び情報処理方法、撮像装置、コンピュータプログラム、情報処理システム、並びに移動体装置 |
| JP2021530679A (ja) * | 2018-06-30 | 2021-11-11 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh | 自動車用レーダセンサによる静的レーダ目標の認識方法 |
| US11879992B2 (en) | 2018-06-30 | 2024-01-23 | Robert Bosch Gmbh | Method for identifying static radar targets using a radar sensor for motor vehicles |
| JP7037672B2 (ja) | 2018-06-30 | 2022-03-16 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング | 自動車用レーダセンサによる静的レーダ目標の認識方法 |
| WO2020075525A1 (ja) * | 2018-10-12 | 2020-04-16 | ソニーセミコンダクタソリューションズ株式会社 | センサフュージョンシステム、同期制御装置、及び同期制御方法 |
| WO2020116204A1 (ja) * | 2018-12-07 | 2020-06-11 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体 |
| JPWO2020116204A1 (ja) * | 2018-12-07 | 2021-10-21 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体 |
| JP7483627B2 (ja) | 2018-12-07 | 2024-05-15 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体 |
| US11987271B2 (en) | 2018-12-07 | 2024-05-21 | Sony Semiconductor Solutions Corporation | Information processing apparatus, information processing method, mobile-object control apparatus, and mobile object |
| JP7228472B2 (ja) | 2019-06-07 | 2023-02-24 | 本田技研工業株式会社 | 認識装置、認識方法、およびプログラム |
| JP2020201670A (ja) * | 2019-06-07 | 2020-12-17 | 本田技研工業株式会社 | 認識装置、認識方法、およびプログラム |
| JP7596794B2 (ja) | 2020-02-10 | 2024-12-10 | 富士通株式会社 | オブジェクト検出方法及び装置 |
| JP2021128759A (ja) * | 2020-02-10 | 2021-09-02 | 富士通株式会社 | オブジェクト検出方法及び装置 |
| JP7676407B2 (ja) | 2020-07-21 | 2025-05-14 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
| WO2022019117A1 (ja) * | 2020-07-21 | 2022-01-27 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
| JPWO2022019117A1 (ja) * | 2020-07-21 | 2022-01-27 | ||
| JP7472759B2 (ja) | 2020-11-10 | 2024-04-23 | 株式会社デンソー | 位置推定装置、位置推定方法、及び位置推定プログラム |
| JP2022076876A (ja) * | 2020-11-10 | 2022-05-20 | 株式会社デンソー | 位置推定装置、位置推定方法、及び位置推定プログラム |
| JP2022143920A (ja) * | 2021-03-18 | 2022-10-03 | 株式会社Jvcケンウッド | 画像記録装置 |
| JP7690757B2 (ja) | 2021-03-18 | 2025-06-11 | 株式会社Jvcケンウッド | 画像記録装置 |
| KR102363691B1 (ko) * | 2021-05-07 | 2022-02-17 | (주)뉴빌리티 | 자율주행을 위한 객체 속도 추정 장치 및 방법 |
| JP2023022415A (ja) * | 2021-08-03 | 2023-02-15 | 株式会社Subaru | 物体認識装置、コンピュータプログラム及び記録媒体 |
| JP7708606B2 (ja) | 2021-08-03 | 2025-07-15 | 株式会社Subaru | 物体認識装置、コンピュータプログラム及び記録媒体 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20080164985A1 (en) | 2008-07-10 |
| EP1950689A3 (en) | 2009-03-04 |
| EP1950689A2 (en) | 2008-07-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4967666B2 (ja) | 画像処理装置および方法、並びに、プログラム | |
| JP2008172441A (ja) | 検出装置および方法、並びに、プログラム | |
| JP2008203992A (ja) | 検出装置および方法、並びに、プログラム | |
| US11719788B2 (en) | Signal processing apparatus, signal processing method, and program | |
| EP3229041B1 (en) | Object detection using radar and vision defined image detection zone | |
| US12315181B2 (en) | Advanced driver assist system, method of calibrating the same, and method of detecting object in the same | |
| EP2889641B1 (en) | Image processing apparatus, image processing method, program and image processing system | |
| US9230165B2 (en) | Object detection apparatus, vehicle-mounted device control system and storage medium of program of object detection | |
| Khammari et al. | Vehicle detection combining gradient analysis and AdaBoost classification | |
| JP5407898B2 (ja) | 対象物検出装置及びプログラム | |
| EP2924653B1 (en) | Image processing apparatus and image processing method | |
| EP2803944B1 (en) | Image Processing Apparatus, Distance Measurement Apparatus, Vehicle-Device Control System, Vehicle, and Image Processing Program | |
| JP5690688B2 (ja) | 外界認識方法,装置,および車両システム | |
| US8994823B2 (en) | Object detection apparatus and storage medium storing object detection program | |
| US20050232463A1 (en) | Method and apparatus for detecting a presence prior to collision | |
| US7103213B2 (en) | Method and apparatus for classifying an object | |
| US7672514B2 (en) | Method and apparatus for differentiating pedestrians, vehicles, and other objects | |
| JP2006018751A (ja) | 車両用画像処理装置 | |
| JP2012221456A (ja) | 対象物識別装置及びプログラム | |
| US10748014B2 (en) | Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium | |
| JP2008171141A (ja) | 画像処理装置および方法、並びに、プログラム | |
| US7466860B2 (en) | Method and apparatus for classifying an object | |
| JP6733302B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
| JP7052265B2 (ja) | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム | |
| JP2013161433A (ja) | 車両の周辺監視装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100406 |