[go: up one dir, main page]

JP2017162204A - 物体検出装置、物体検出方法および物体検出プログラム - Google Patents

物体検出装置、物体検出方法および物体検出プログラム Download PDF

Info

Publication number
JP2017162204A
JP2017162204A JP2016046224A JP2016046224A JP2017162204A JP 2017162204 A JP2017162204 A JP 2017162204A JP 2016046224 A JP2016046224 A JP 2016046224A JP 2016046224 A JP2016046224 A JP 2016046224A JP 2017162204 A JP2017162204 A JP 2017162204A
Authority
JP
Japan
Prior art keywords
information
vehicle
template
dimensional information
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2016046224A
Other languages
English (en)
Inventor
笠見 英男
Hideo Kasami
英男 笠見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2016046224A priority Critical patent/JP2017162204A/ja
Priority to US15/383,054 priority patent/US20170263129A1/en
Priority to EP17158322.2A priority patent/EP3217376A3/en
Publication of JP2017162204A publication Critical patent/JP2017162204A/ja
Abandoned legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】自車両の周辺の車両をより高精度に検出可能とする。【解決手段】第1の実施形態の物体検出装置は、自車両の周辺の車両について、識別情報、位置情報および方向情報を含む車両情報を取得する。周辺車両の3次元情報による外形情報、位置情報および方向情報と、自車両の位置情報および方向情報とに基づいて、2次元情報テンプレートを生成する。センサが取得した自車両周辺の2次元情報内の、2次元情報テンプレートが対応する位置を探索し、第1の2次元情報テンプレートの前面への第2の2次元情報テンプレートの重複を検出した場合に、重複する部分の比率を算出し、比率と、周辺車両および自車両の位置情報および方向情報とに基づき通知を出力する。【選択図】図2

Description

本発明は、物体検出装置、物体検出方法および物体検出プログラムに関する。
自動車にカメラ(車載カメラ)を搭載し、車載カメラにより自車両の周辺を撮影することが一般的に行われている。車載カメラで撮像された自車両の周辺の車両について、車車間通信で車両位置やウィンカの点灯状態といった車両情報を受信し、受信された車両情報の車両と、撮像された車両の一致、不一致を判定する技術が知られている。
特開2013−168019号公報
従来では、自車両の周辺の車両ではあるが、自車両に対して他の車両や設置物の背後に隠れた車両については、画像情報の欠落により、車両検出を行うことが困難であった。また、車両位置をGNSS(Global Navigation Satellite System)を用いて推定する場合、その精度は数m(例えば2m)程度であって、近接する2台の周辺車両を車両位置に基づき識別することが困難な場合があった。
本発明が解決する課題は、自車両の周辺の車両をより高精度に検出可能な物体検出装置、物体検出方法および物体検出プログラムを提供することにある。
第1の実施形態の物体検出装置は、自車両の周辺の車両について、識別情報、位置情報および方向情報を含む車両情報を取得する。周辺車両の3次元情報による外形情報、位置情報および方向情報と、自車両の位置情報および方向情報とに基づいて、2次元情報テンプレートを生成する。センサが取得した自車両周辺の2次元情報内の、2次元情報テンプレートが対応する位置を探索し、第1の2次元情報テンプレートの前面への第2の2次元情報テンプレートの重複を検出した場合に、重複する部分の比率を算出し、比率と、周辺車両および自車両の位置情報および方向情報とに基づき通知を出力する。
図1は、各実施形態に適用可能な運転支援システムについて概略的に説明するための図である。 図2は、第1の実施形態に係る物体検出装置の機能を説明するための一例の機能ブロック図である。 図3は、第1の実施形態に適用可能な、周辺車両情報の例を示す図である。 図4は、第1の実施形態に適用可能な、自車両情報の例を示す図である。 図5は、第1の実施形態に係る車両DBの構成の例を示す図である。 図6は、第1の実施形態に適用可能な物体検出装置の一例のハードウェア構成を示すブロック図である。 図7は、第1の実施形態に係る物体検出処理を示す一例のフローチャートである。 図8は、第1の実施形態に係る2次元情報テンプレートの例を示す図である。 図9は、第1の実施形態に適用可能な探索処理を概略的に示す図である。 図10は、第1の実施形態に係る、2次元情報テンプレートの前面からの探索処理について説明するための図である。 図11は、第1の実施形態に係る、2次元情報テンプレートの背面からの探索処理について説明するための図である。 図12は、第1の実施形態に係る、位置が確定した2つの2次元情報テンプレートを統合することを説明するための図である。 図13は、第1の実施形態に係る衝突可能性の有無の判定処理について説明するための図である。 図14は、撮像処理部により取得された撮像画像の例を示す図である。 図15は、第1の実施形態に係る、各車両に対応して生成した各2次元情報テンプレートの例を示す図である。 図16は、第1の実施形態に係る探索処理の第1の例について説明するための図である。 図17は、第1の実施形態に係る探索処理の第1の例について説明するための図である。 図18は、第1の実施形態に係る、統合2次元情報テンプレートの背面および前面から探索を行った例をそれぞれ示す図である。 図19は、第1の実施形態に係る、撮像画像内で各2次元情報テンプレートの位置が確定した状態を模式的に示す模式図である。 図20は、撮像処理部により取得された撮像画像の例を示す図である。 図21は、第1の実施形態に係る探索処理の第2の例について説明するための図である。 図22は、第1の実施形態に係る探索処理の第2の例について説明するための図である。 図23は、第1の実施形態に係る、統合2次元情報テンプレートの前面および背面から探索を行った例をそれぞれ示す図である。 図24は、第1の実施形態に係る、撮像画像内で各2次元情報テンプレートの位置が確定した状態を模式的に示す模式図である。 図25は、第1の実施形態に係る、出力部から出力された通知に応じた表示の例を示す図である。 図26は、2台のカメラを搭載する自車両の例を示す図である。 図27は、第2の実施形態に係る物体検出装置の機能を説明するための一例の機能ブロック図である。
以下、実施形態に係る物体検出装置、物体検出方法および物体検出プログラムについて説明する。
各実施形態に係る物体検出装置は、物体検出装置が搭載される自車両の周辺に存在する周辺車両について、3次元情報による外形情報と、車車間通信を用いて取得した状態情報と、自車両に搭載されるカメラにより撮像された撮像画像とに基づき、自車両と周辺車両との関係を求める。物体検出装置は、求めた自車両と周辺車両との関係に基づき、自車両と周辺車両とが衝突する可能性があるか否かを判定し、可能性があると判定された場合に、通知を出力する。
(各実施形態に適用可能なシステム)
図1を用いて、各実施形態に適用可能な運転支援システムについて概略的に説明する。図1は、道路30を上方から俯瞰した例を示している。図1の例では、道路30(左側通行であるものとする)上に、センターライン14の左側の車線に車両20が存在し、右側の車線に、車両21および22が存在している様子が示されている。また、図1では、道路30の左端側に信号機31が設置されている。
車両20は、各実施形態に係る物体検出装置を含む車載機10が搭載されている。詳細は後述するが、物体検出装置は、通信機能と、自車の状態を示す状態情報を取得する機能と、カメラでの撮像を行うための撮像機能とを含む。図1の例では、車両20に搭載されるカメラが撮像範囲40で撮像を行うように示されている。また、車両21は、通信機能と、自車の状態を示す状態情報を取得する機能とを含む車載機11が搭載されている。この例では、車両21に搭載される車載機11は、各実施形態に係る物体検出装置を含まないものとする。これに限らず、車載機11が各実施形態に係る物体検出装置を含んでいてもよい。
以下、各実施形態に係る物体検出装置を含む車載機10を搭載する車両20を自車両(自車両20と記述)とし、自車両20の周辺に存在する車両21および22を周辺車両(それぞれ周辺車両21および22と記述)とする。
例えば周辺車両21において、車載機11は、無線通信51により情報を送信する。無線通信51により送信された情報は、自車両20において、車載機10により受信される(無線通信51’)。これにより、自車両20において車載機10は、周辺車両21の車載機11から無線通信51により送信された例えば周辺車両21の状態を示す状態情報を取得することができる。このように、車両間で行われる通信を、車車間通信と呼ぶ。
図1において、信号機31に対して、自車両20および周辺車両21との間で無線通信を行うことが可能な路側機32が設けられている。また、図1の例では、路側機32に対して、各車両(車種)を識別可能な識別情報と、各車両の3次元情報による外形情報とが関連付けられて記憶される外部車両データベース(DB)33が接続されている。路側機32は、無線通信52により情報を送信する。無線通信52により送信された情報は、例えば自車両20において、車載機10により受信される(無線通信52’)。これにより、自車両20において車載機10は、路側機32から送信された例えば車両の識別情報および3次元情報による外形情報を取得することできる。このように、路側機32と車両との間で行われる通信を、路車間通信と呼ぶ。
ここで、車車間通信および路車間通信について、概略的に説明する。車車間通信は、車両同士の無線通信により周辺の車両の情報(位置、速度、車両制御情報など)を取得し、必要に応じて運転者に対して運転支援を行うことを可能とするものである。また、路車間通信は、車両と、路側機などのインフラ設備との無線通信により、車両がインフラからの情報(信号情報、規制情報、道路情報など)を取得し、必要に応じて運転者に対して運転支援を行うことを可能とするものである。
車車間通信および路車間通信に適用される通信規格の例として、IEEE(The Institute of Electrical and Electronics Engineers)により策定される、周波数帯域が5GHz帯の電波を用いるIEEE802.11p、ARIB(Association of Radio Industries and Businesses)により策定される、周波数帯域が700MHz帯の電波を用いるSTD−T109などがある。700MHz帯の電波は、通信距離が数百m程度であり、5GHz帯の電波は、通信距離が数十m程度である。各実施形態では、自車両20に対する周辺車両21、22との間で車車間通信を行うため、5GHz帯の電波が適している。
車車間通信では、車載機は、搭載車両の現在の状態を示す状態情報、例えば位置、速度、制御(ブレーキなど)といった情報を、例えば1秒間に数十回、送信することができる。また、路車間通信では、車載機を搭載した車両が路側機の近傍を通過する際に、車両(車載機)に対して信号を送信することができる。車載機は、このような、車車間通信、路車間通信により取得される情報に基づき、運転支援のための情報を出力する。
(第1の実施形態)
次に、第1の実施形態について説明する。図2は、第1の実施形態に係る物体検出装置100の機能を説明するための一例の機能ブロック図である。図2に示される物体検出装置100は、例えば上述した自車両20の車載機10に含まれる。図2において、物体検出装置100は、車車間通信部111と、周辺車両情報取得部112と、自車両情報取得部113と、生成部114と、撮像処理部117と、探索部120と、算出部121と、出力部122と、路車間通信部131と、更新情報取得部132とを含む。
これら車車間通信部111、周辺車両情報取得部112、自車両情報取得部113、生成部114、撮像処理部117、探索部120、算出部121、出力部122、路車間通信部131および更新情報取得部132は、CPU(Central Processing Unit)上でプログラムが動作することにより実現される。これに限らず、これら車車間通信部111、周辺車両情報取得部112、自車両情報取得部113、生成部114、撮像処理部117、探索部120、算出部121、出力部122、路車間通信部131および更新情報取得部132のうち一部または全部を、互いに協働して動作するハードウェア回路により構成してもよい。
図2において、車車間通信部111は、アンテナ110を介して車車間通信による情報の送受信を行う。周辺車両情報取得部112は、車車間通信部111により受信された、周辺車両の車両情報を取得し、取得した車両情報を所定時間(例えば1秒)の間、記憶する。周辺車両情報取得部112は、車両情報を取得して所定時間を経過した後、その車両情報を破棄する。なお、ここでいう「周辺」は、例えば自車両20との間で車車間通信による通信が可能な範囲内を示す。
図3は、第1の実施形態に適用可能な、周辺車両情報取得部112により取得され記憶される周辺車両の車両情報(周辺車両情報と呼ぶ)の例を示す。図3に示すように、周辺車両情報取得部112は、複数の周辺車両について、それぞれ周辺車両情報1401、1402、1403、…を取得および記憶することができる。図3の例では、車両情報1401、1402、1403、…は、それぞれ周辺車両情報#1、#2、#3、…としても示されている。
各周辺車両情報1401、1412、1413、…は、識別情報141と、状態情報142とを含む。以下、特に記載の無い限り、周辺車両情報1401、1412、1413、…を、周辺車両情報140で代表させて説明を行う。
識別情報141は、周辺車両情報140の送信元の車両の例えば車種を識別する。識別情報141としては、ISO(International Organization for Standardization)により定義される車両識別番号(VIN)を用いることができる。車両識別番号は、国際製造者識別子(WMI)と、車両記述区分(VDS)と、車両識別子区分(VIS)を含んで構成され、17桁の値で表現される。車両識別番号は、自動車、二輪車、自転車、シニアカー、車椅子、電動カート、ロボット、工場内搬送装置AGV(Automated Guided Vehicle)、UAV(Unmanned Aerial Vehicle)、路面電車、歩行者(高齢者)、歩行者(子供)のような種別情報が含まれていてもよい。
なお、識別情報141は、上述した車両識別番号に限られず、例えば日本国内で定義される車台番号を用いてもよい。
状態情報142は、周辺車両情報140の送信元の車両の、車両情報の取得時の状態を示す各情報を含む。図3の例では、状態情報142は、時刻情報と、位置情報と、進行方向情報と、速度情報とを含んでいる。時刻情報は、この車両情報を取得した時刻を示す。位置情報は、時刻情報で示される時刻における、車両の位置を示す。位置情報は、例えば緯度および経度を用いて示される。位置情報に高度を含めてもよい。進行方向情報は、時刻情報で示される時刻における、車両の向き(進行方向)を示す。進行方向情報は、例えば、基準となる方向(例えば経度方向)に対する角度を用いて示すことができる。速度情報は、時刻情報で示される時刻における、車両の速度を示す。
なお、状態情報142に含まれる各情報の精度は、例えば、時刻情報が±0.1秒程度、位置情報が緯度経度それぞれ±2m程度、進行方向情報が±20°程度、速度情報が±0.2m/s程度が想定される。
一例として、車車間通信による車両情報の送信が1秒間に10回行われ、周辺車両情報取得部112が記憶した周辺車両情報140を1秒間保持した後に破棄する場合、周辺車両情報取得部112は、識別情報141が同一で、状態情報142が互いに異なる10個の周辺車両情報140を常時保持することになる。
図2において、自車両情報取得部113は、この物体検出装置100が搭載される自車両20の車両情報を取得し、記憶する。図4は、第1の実施形態に適用可能な、自車両情報取得部113により取得され記憶される自車両情報の例を示す。図4において、自車両情報143は、時刻情報、位置情報、進行方向情報および速度情報を含む。それぞれの意味は、上述した状態情報142に含まれる時刻情報、位置情報、進行方向情報および速度情報と共通である。
なお、自車両情報取得部113は、位置情報を、GNSS(Global Navigation Satellite System)を利用して取得してもよいし、進行方向情報と速度情報とに基づき推測して取得してもよい。また、自車両情報取得部113は、所定間隔(例えば10回/秒)で繰り返して自車両情報143を取得および記憶し、記憶した自車両情報143を、取得から所定時間(例えば1秒)の経過後に破棄する。
車両DB115は、上述した識別情報141と、識別情報141により示される車両の3次元情報による外形情報とが関連付けられて格納される。例えば、車両DB115は、識別情報141が入力されると、入力された識別情報141に関連付けられた外形情報を出力する。以下、「3次元情報による外形情報」を「3D外形情報」と略称する。
図5は、第1の実施形態に係る車両DB15の構成の例を示す。車両DB115は、識別情報141と3D外形情報とを1対1に関連付けて格納する。なお、図5では、便宜上、識別情報141を6桁の値「aaaa01」、「bbbb03」および「xxxx22」でそれぞれ示している。
3D外形情報は、車両の外形を、3次元情報、例えば、車両の外形における各頂点の所定の原点に対する座標(x,y,z)と、各頂点を結ぶ線を示す情報とを用いて表した情報である。これに限らず、3D外形情報は、3以上の頂点に囲まれた面を示す情報を含んでいてもよい。3D外形情報は、例えば、車両のメーカにより、設計時などのCAD(Computer-Aided Design)データに基づき提供される。
3D外形情報は、3次元の座標情報を持っているため、3D外形情報に所望の回転角を持つ回転行列を適用して回転させて2次元平面に射影することで、所望の向きから見た車両の2次元情報による外形図を容易に作成することができる。同様に、3D外形情報に所望の拡大縮小率を持つ拡大縮小行列を適用して2次元平面に射影することで、所望の大きさに拡大縮小された車両の2次元情報による外形図を容易に作成することができる。
なお、車両DB115は、3D外形情報を、少なくとも、例えば後述する探索部120による画像認識のピクセルの精度で持つことが好ましい。3D外形情報の精度をさらに細かくすることも可能である。この場合、精度を細かくするとデータ容量が大きくなり、また、処理に要する時間も増大する。そのため、車両DB115に格納する3D外形情報の精度は、必要とされる精度や処理速度、対応可能なデータ容量などを考慮して決定することが好ましい。
図2において、生成部114は、周辺車両情報取得部112が取得した周辺車両情報1401、1402、1403、…と、自車両情報取得部113が取得した自車両情報143と、車両DB115に格納される3D外形情報とに基づき、各周辺車両情報1401、1402、1403、…に対応する2次元情報テンプレートを生成する。
生成部114は、例えば周辺車両情報140に含まれる識別情報141に対応する3D外形情報を車両DB115から取得する。生成部114は、周辺車両情報140に含まれる状態情報142と、自車両情報143とに基づき、周辺車両情報140に対応する周辺車両の、自車両20から見た相対的な位置および進行方向を求める。生成部114は、求めた相対的な位置および進行方向に基づき、車両DB115から取得した3D外形情報に対して回転、拡大縮小処理を施し、回転および拡大縮小処理された3D外形情報を、2次元平面に射影し、2次元情報を生成する。この、3D外形情報を、自車両20から見た相対的な位置および進行方向に基づき回転、拡大縮小処理を施して2次元平面に射影して生成した2次元情報を、2次元情報テンプレートと呼ぶ。生成部114による2次元情報テンプレート生成処理の詳細は、後述する。
撮像部116は、例えば自車両20に搭載された車載カメラである。この車載カメラは、例えば、自車両20の前方の所定の撮像範囲で撮像して撮像画像を出力する。撮像処理部117は、撮像部116による撮像を制御し、撮像部116から出力された撮像画像に対して、ノイズ除去、レベル調整など所定の画像処理を施して出力する。
探索部120は、撮像処理部117から出力された撮像画像に対して、生成部114で生成された2次元情報テンプレートによる画像マッチング処理を行い、2次元情報テンプレートが対応する撮像画像内の位置を求める。このとき、探索部120は、第1の2次元情報テンプレートの前面に対して重なる第2の2次元情報テンプレートが存在するか否かを検出する。
算出部121は、探索部120で第1の2次元情報テンプレートの前面に対して重なる第2の2次元情報テンプレートが存在すると検出された場合に、第1の2次元情報テンプレートにおいて第2の2次元情報テンプレートが第1の2次元情報テンプレートに重なる部分と、第1の2次元情報テンプレートの全体との比率を算出する。算出部121は、算出された比率に対して閾値判定を行い、比率が閾値以上であると判定された場合に、当該第1の2次元情報テンプレートを示す情報を出力部122に渡す。
出力部122は、周辺車両情報取得部112から、算出部121から渡された2次元情報テンプレートを示す情報に対応する識別情報141に関連付けられた状態情報142を取得する。また、出力部122は、自車両情報取得部113から、自車両情報143を取得する。出力部122は、取得したこれら状態情報142と自車両情報143とに基づき、算出部121から渡された2次元情報テンプレートに対応する周辺車両21と、自車両20とが衝突する可能性があるか否かを判定する。出力部122は、衝突する可能性があると判定した場合、衝突可能性を示す通知を出力する。
図2において、路車間通信部131は、アンテナ130を介して路車間通信による情報の送受信を行う。更新情報取得部132は、路車間通信部131により路側機32と路車間通信を行い、路側機32に接続される外部車両DB33に対して、3D外形情報の更新の有無を問い合わせる。更新情報取得部132は、問い合わせの結果、外部車両DB33において更新があったとされた場合、外部車両DB33から更新された3D外形情報を取得して、取得した3D外形情報により車両DB115に格納される3D外形情報を更新する。
図6は、第1の実施形態に適用可能な物体検出装置100の一例のハードウェア構成を示す。図6において、物体検出装置100は、CPU1000と、ROM(Read Only Memory)1001と、RAM1002と、カメラI/F1003と、位置情報取得部1004と、ストレージ1005と、操作部1006と、グラフィクスI/F1007と、通信部1009とを含み、これら各部がバス1020により互いに通信可能に接続されている。
ストレージ1005は、不揮発にデータを記憶する記憶媒体であって、フラッシュメモリやハードディスクドライブを用いることができる。CPU1000は、ストレージ1005やROM1001に予め記憶されるプログラムに従い、RAM1002をワークメモリとして用いて、この物体検出装置100の動作を制御する。
なお、上述した周辺車両情報取得部112や、自車両情報取得部113は、取得した各周辺車両情報140や自車両情報143を、ストレージ1005に記憶する。これに限らず、周辺車両情報取得部112や、自車両情報取得部113は、各周辺車両情報140や自車両情報143をRAM1002に記憶してもよい。また、車両DB115の情報は、ストレージ1005に記憶される。
カメラI/F1003は、自車両20の周辺の状態を検知するセンサとしてのカメラ1011を物体検出装置100に接続するためのインタフェースである。図2の撮像部116は、例えばカメラ1011とカメラI/F1003とを含んだ構成に対応する。CPU1000は、カメラI/F1003を介してカメラ1011の撮像動作を制御することができる。
位置情報取得部1004は、例えばGNSS(Global Navigation Satellite System)を用いて現在位置を示す情報を取得する。これに限らず、位置情報取得部1004は、IMU(慣性計測装置)を用いて現在位置を取得してもよいし、GNSSとIMUとを組み合わせて現在位置を取得してもよい。また、位置情報取得部1004は、自車両20の速度とステアリングの角度とに基づき現在位置を計算してもよい。
操作部1006は、操作子やタッチパネルにより、ユーザ操作を受け付ける。グラフィクスI/F1007は、CPU1000がプログラムに従い生成した表示データを、表示装置1008を駆動可能な表示制御信号に変換して出力する。表示装置1008は、例えばLCD(Liquid Crystal Display)を表示として用い、グラフィクスI/F1007から供給される表示制御信号に応じた画面を表示する。
通信部1009は、アンテナ1010を介して無線通信を行う。図6の例では、通信部1009は、図2の車車間通信部111の機能と、路車間通信部131の機能とを含む。また、アンテナ1010は、図2のアンテナ110の機能と、アンテナ130の機能とを含む。これに限らず、図2のアンテナ110および130に対応する2本のアンテナを設け、車車間通信部111の機能を実現する通信部と、路車間通信部131の機能を実現する通信部とをそれぞれ設けるようにしてもよい。
なお、第1の実施形態に係る物体検出処理を実行するための物体検出プログラムは、インストール可能な形式または実行可能な形式のファイルでCD(Compact Disk)、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記録媒体に記録して提供される。これに限らず、物体検出プログラムを、ROM1001に予め記憶させて提供してもよい。
さらに、各実施形態に係る検出処理を実行するための物体検出プログラムを、インターネットなどの通信ネットワークに接続されたコンピュータ上に格納し、通信ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、各実施形態および変形例に係る検出処理を実行するための物体検出プログラムを、インターネットなどの通信ネットワーク経由で提供または配布するように構成してもよい。
第1の実施形態に係る物体検出処理を実行するための物体検出プログラムは、例えば上述した各部(車車間通信部111、周辺車両情報取得部112、自車両情報取得部113、生成部114、撮像処理部117、探索部120、算出部121、出力部122、路車間通信部131および更新情報取得部132)を含むモジュール構成となっており、実際のハードウェアとしてはCPU1000が例えばストレージ1005から当該物体検出プログラムを読み出して実行することにより上記各部が主記憶装置(例えばRAM1002)上にロードされ、各部が主記憶装置上に生成されるようになっている。
次に、図7〜図13を用いて、第1の実施形態に係る物体検出装置100による物体検出処理について、より詳細に説明する。図7は、第1の実施形態に係る物体検出装置100による物体検出処理を示す一例のフローチャートである。
ステップS100で、周辺車両情報取得部112は、車車間通信部111の車車間通信により、自車両20の周辺に存在する周辺車両21について、周辺車両情報140を取得する。ここでは、n台の周辺車両21について周辺車両情報140が取得されたものとする。次のステップS101では、以降の処理で用いる変数iおよび変数jを1に初期化している。
次のステップS102で、生成部114は、周辺車両情報取得部112から、ステップS100で取得されたn個の周辺車両情報140を受け取り、受け取った周辺車両情報140それぞれから識別情報141を取り出す。なお、生成部114は、同一の識別情報141を持つ複数の周辺車両情報140が存在する場合、各周辺車両情報140に含まれる時刻情報に基づき、最新の周辺車両情報140を取得するものとする。
ステップS102〜ステップS105では、各識別情報141を、変数i(iは1≦i≦nの整数)を用いて識別情報(i)として表す。生成部114は、車両DB115から、識別情報(i)に対応する3D外形情報(i)を取得する。
次のステップS103で、生成部114は、自車両情報取得部113から自車両情報143を取得する。この場合も、周辺車両情報140の例と同様に、自車両情報取得部113が複数の自車両情報143を記憶している場合、時刻情報に基づき、最新の自車両情報143を取得するものとする。
生成部114は、取得した自車両情報143と、識別情報(i)に含まれる状態情報142とに基づき、識別情報(i)に対応する周辺車両21の、自車両20に対する相対位置を計算する。例えば、生成部114は、自車両情報143に含まれる位置情報、走行方向情報および速度情報と、識別情報(i)の状態情報142に含まれる位置情報、走行方向情報および速度情報とに基づき、相対位置を計算する。
次のステップS104で、生成部114は、ステップS103で計算された相対値に基づき、識別情報(i)に対応する3D外形情報を2次元平面に射影して、当該3D外形情報に基づく2次元情報テンプレート(i)を生成する。なお、3D外形情報を射影する2次元平面は、撮像部116(カメラ1011)の撮像範囲(画角)に対応する2次元平面であるとする。すなわち、撮像部116により取得される画像情報は、2次元情報である。
図8は、第1の実施形態に係る、ステップS104で生成部114に生成される2次元情報テンプレート(i)の例を示す。図8(a)〜図8(c)において、同一の3D外形情報から生成され、それぞれ向きおよび大きさが異なる2次元情報テンプレート210a〜210cが示されている。なお、図8(a)〜図8(c)は、各2次元情報テンプレート210a〜210cの大きさおよび向きを比較可能とするために、便宜上、撮像部116により撮像される撮像画像200内に配置したものとして示している。
また、図8(a)〜図8(c)において、各2次元情報テンプレート210a〜210cは、図5において識別情報「aaaa01」に関連付けられた3D外形情報に基づき生成されたものであって、それぞれ細部を簡略化して示している。
図8(a)および図8(b)は、同一の周辺車両21について、自車両20に対する相対位置が同一で、相対的な走行方向が異なる場合の2次元情報テンプレート210aおよび210bの例を示す。図8(c)は、同一の周辺車両21について、当該周辺車両21が、自車両20に対して、図8(a)における当該周辺車両21の位置よりも遠い位置にある場合の2次元情報テンプレート210cの例を示す。
生成部114は、当該周辺車両21の識別情報141に対応する3D外形情報に対して、例えば、自車両20および当該周辺車両21の各位置情報および各走行方向情報に基づき、拡大縮小処理および回転処理を施して、変換された3D外形情報を生成する。次に、生成部114は、生成した変形された3D外形情報を2次元平面に射影して2次元情報テンプレート210a〜210cを生成する。
生成部114は、このようにして、3D外形情報から2次元情報テンプレートを生成している。そのため、生成部114は、自車両20に対して相対的な走行方向に従った方向を向いた画像(2次元情報テンプレート210aおよび210b)を生成することができる。同様に、生成部114は、自車両20からより遠い位置にあり自車両20からより小さく見える画像(2次元情報テンプレート210c)を生成することができる。
図7の説明に戻り、次のステップS105で、生成部114は、変数iと値nとを比較して、ステップS100で取得されたn個の周辺車両情報140について処理が終了したか否かを判定する。生成部114は、終了していないと判定した場合(ステップS105、「No」)、変数iを1だけインクリメントして(i=i+1)、処理をステップS102に戻す。一方、生成部114は、終了したと判定した場合(ステップS105、「Yes」)、処理をステップS106に移行する。このとき、生成部114は、ステップS102〜S104の処理により生成されたn個の2次元情報テンプレート(1)〜(n)を探索部120に渡す。
ステップS106で、撮像処理部117は、撮像部116から出力される撮像画像を取得し、取得した撮像画像を探索部120に渡す。なお、この撮像画像の取得処理は、次のステップS107の処理以前であれば、実行するタイミングは限定されない。例えば、ステップS100における周辺車両情報140の取得時や、所得の直前、直後などに撮像画像を取得してもよい。
次のステップS107およびステップS108で、探索部120は、生成部114から渡された2次元情報テンプレート(1)〜(n)それぞれを被探索対象として、撮像処理部117から渡された撮像画像200を探索対象とした探索処理を行う。なお、ステップS107およびステップS108では、各識別情報141を、変数j(jは1≦j≦nの整数)を用いて識別情報(j)として表す。
ステップS107で、探索部120は、2次元情報テンプレート(1)〜(n)のうち2次元情報テンプレート(j)について探索処理を行う。探索部120は、撮像画像200から、2次元情報テンプレート(j)と対応する画像が探索された場合に、画像が探索された位置または領域に、当該2次元情報テンプレート(j)に対応する識別情報(j)を関連付ける。
次のステップS108で、探索部120は、変数jと値nとを比較して、生成部114から渡された2次元情報テンプレート(1)〜(n)について処理が終了したか否かを判定する。探索部120は、終了していないと判定した場合(ステップS108、「No」)、変数jを1だけインクリメントして(j=j+1)、処理をステップS107に戻す。一方、探索部120は、終了したと判定した場合(ステップS108、「Yes」)、処理をステップS109に移行する。
なお、探索部120は、ステップS107による探索処理を、生成部114から渡された2次元情報テンプレート(1)〜(n)のうちサイズが大きい2次元情報テンプレートから順に実行することが好ましい。この場合、サイズは、例えば2次元情報テンプレートの面積である。これに限らず、サイズを、2次元情報テンプレートの撮像画像200内での水平方向または垂直方向の大きさとしてもよい。
図9〜図12を用いて、第1の実施形態に係る探索処理についてより詳細に説明する。図9は、第1の実施形態に適用可能な探索処理を概略的に示す。図9に示されるように、探索部120は、被探索対象である2次元情報テンプレート211を探索対象の撮像画像200内で移動させる。探索部120は、例えば、2次元情報テンプレート211を撮像画像200内で水平方向に所定単位毎に移動させ、さらに、垂直方向に所定単位毎に移動させる。探索部120は、移動された各位置において、2次元情報テンプレート211と、撮像画像における2次元情報テンプレートに対応する領域の画像400との類似度を算出する。類似度の算出は、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)といった既存の技術を適用することができる。これらに限らず、例えば、画像のエッジ検出結果に対して類似度を計算してもよい。
ここで、撮像画像200では、自車両20から見て第1の周辺車両21よりも奥に位置する第2の周辺車両21は、第1の周辺車両21の画像に一部または全部が隠れてしまうため、撮像画像200上に一部または全部が含まれないことになる。これに対して、周辺車両情報140は、状態情報142中に位置情報を含む。そのため、周辺車両情報140に基づき、撮像画像200に含まれていないが自車両20の周辺に位置する第2の周辺車両21を認識することが可能である。一方、状態情報142中に含まれる位置情報は、上述したように、精度が±数mと比較的大きく、位置情報のみの判定では、自車両20から見た場合の第1の周辺車両21と第2の周辺車両21との位置関係(前後関係)を誤認してしまうおそれがある。
そのため、探索部120は、撮像画像200において最初の2次元情報テンプレートの位置が確定した後の探索処理を、その処理までに既に位置が確定した2次元情報テンプレートの前面および背面からそれぞれ実行すると好ましい。
ここで、2次元情報テンプレートの前面は、自車両20から当該2次元情報テンプレートを見た場合の、当該2次元情報テンプレートの面である。一方、2次元情報テンプレートの背面は、当該2次元情報テンプレートから自車両20を見る方向で当該2次元情報テンプレートを見た場合の、当該2次元情報テンプレートの面である。換言すれば、2次元情報テンプレートの、自車両20の側から見える面が前面であり、自車両20の側から見えない面が背面である。
図10および図11を用いて、第1の実施形態に係る、探索部120による2次元情報テンプレートの前面からの探索処理(第1の探索)および背面からの探索処理(第2の探索)について説明する。図10および図11は、画像410に対応する2次元情報テンプレートの位置が既に確定された状態で、画像411に対応する2次元情報テンプレート213について探索処理を行う例を示している。
また、図10(a)および図11(a)にそれぞれ示されるように、撮像画像上の位置において、2次元情報テンプレート画像213は、その一部が、位置が既に確定した2次元情報テンプレートと重複しており、2次元情報テンプレート画像213に対応する画像411は、画像410に重複する残りの部分の画像411aが撮像画像上に現れているものとする。このとき、画像411aは、画像411の全体に対して40%の部分であるものとする。
なお、以下では、類似度を0≦S≦1である類似度Sとして表し、類似度S=1で、最も類似度が高いものとする。
図10は、2次元情報テンプレートの前面から探索処理を行う例を示す。この場合、探索部120は、図10(b)〜図10(e)に示されるように、既に位置が確定した、画像410に対応する2次元情報テンプレートを無視して、画像411に対応する2次元情報テンプレート213による探索を実行する。なお、図10(b)〜図10(e)において、境界線220は、画像410に対応する2次元情報テンプレートの、画像411側の境界を示している。
探索部120は、探索処理において、図9を用いて説明したように、被探索対象の2次元情報テンプレート213を、探索対象である撮像画像内で水平方向に移動させる。図10(b)〜図10(e)は、探索部120が2次元情報テンプレート213を右方向に順次移動させる様子を示している。2次元情報テンプレート213が、2次元情報テンプレート213の左側の部分213aと画像411aとが略一致する、図10(d)の位置に移動した状態で、類似度Sが最高になる。この場合、2次元情報テンプレート213の一部が画像411aと類似しているため、例えば、画像411aの画像411全体に対する割合に応じて、類似度S=0.4であるものとする。
図11は、2次元情報テンプレートの背面から探索処理を行う例を示す。図11(b)〜図11(e)は、2次元情報テンプレート213を上述した図10(b)〜図10(e)と対応する位置に移動させた例を示している。この場合、探索部120は、図11(b)〜図11(e)に示されるように、既に位置が確定した画像410に対応する2次元情報テンプレートと、画像411に対応する2次元情報テンプレート213との差分を用いて探索を実行する。
上述と同様に、探索部120は、図11(b)〜図11(e)に示されるように、被探索対象の2次元情報テンプレート213を撮像画像内で水平方向に移動させる。このとき、探索部120は、境界線220の位置において2次元情報テンプレート213を切り出し、切り出した2次元情報テンプレートを被探索対象として用いて、画像411aとの類似度を求める。
より具体的には、探索部120は、図11(b)の状態では、2次元情報テンプレート213の位置がまだ境界線220に達していないので、2次元情報テンプレート213をそのまま用いて類似度を求める。探索部120は、図11(c)および図11(c)の、2次元情報テンプレート213の一部が境界線220に掛かった状態では、境界線220よりも右側にはみ出た部分214a’や部分214b’を捨て、残りの部分214aや部分214bを用いて類似度を求める。この残りの部分214aおよび214bが、既に位置が確定した画像410に対応する2次元情報テンプレートと、画像411に対応する2次元情報テンプレートとの差分となる。
この例では、2次元情報テンプレート213が図11(d)の位置に移動した状態で、2次元情報テンプレート213を境界線220に従い切り出した残りの部分214bと、画像411aとが略一致し、類似度Sが最高になる。この場合、2次元情報テンプレート213から切り出した残りの部分214bの全体が画像411aと類似しているため、例えば類似度S=1.0となる。
上述の例では、背面からの探索によって求めた最大の類似度S(=1.0)が、前面からの探索によって求めた最大の類似度S(=0.4)よりも高い。したがって、2次元情報テンプレート213が、画像410に対応する2次元情報テンプレートの背面側にあると判定できる。一方、同様にして前面からの探索によって求めた最高の類似度Sが、背面からの探索によって求めた最大の類似度Sよりも高い場合は、2次元情報テンプレート213が、画像410に対応する2次元情報テンプレートの前面側にあると判定できる。
また、探索部120は、前面からの探索と背面からの探索とで、撮像画像内の同一位置での類似度Sが異なる場合に、2次元情報テンプレート213と、画像410に対応する2次元情報テンプレートとが重複していると判定できる。上述の例では、2次元情報テンプレート213を移動させているので、2次元情報テンプレート213に対して重複する部分を持つ2次元情報テンプレートが検出されたと考えることができる。
なお、上述の例で、画像411に対応する2次元情報テンプレート213が、画像410に対応する2次元情報テンプレートよりもサイズが小さく、且つ、当該2次元情報テンプレートの背面側にある場合、自車両20から見て、2次元情報テンプレート213が画像410に対応する2次元情報テンプレートに完全に隠れてしまうことも考えられる。この場合、探索部120は、例えば内容を持たない(Nullデータのみを持つ)2次元情報テンプレート213’(図11(e))を用いることで、背後に隠れた位置での探索を実行することが可能である。
また、図12(a)に例示されるように、互いに重複する2以上の2次元情報テンプレート216および217の撮像画像内での位置が既に確定した状態で、次の2次元情報テンプレート218による探索を実行する場合も有り得る。この場合、探索部120は、図12(b)に示されるように、既に位置が確定した2次元情報テンプレート216および217を統合した統合2次元情報テンプレート216’を生成し、この統合2次元情報テンプレート216’に対して、2次元情報テンプレート218による探索を実行する。
図7の説明に戻り、ステップS109で、探索部120は、上述したステップS107およびステップS108の処理の結果に基づき、互いに重複部分を持つ2次元情報テンプレートの組が存在するか否かを判定する。存在しないと判定した場合(ステップS109、「No」)、図7のフローチャートによる一連の処理が終了される。
一方、探索部120は、互いに重複部分を持つ2次元情報テンプレートの組が存在すると判定した場合(ステップS109、「Yes」)、処理をステップS110に移行させる。ステップS110で、算出部121は、互いに重複部分を持つ2次元情報テンプレートの組における、2次元情報テンプレートの重複率を算出する。2次元情報テンプレートの重複率は、第1の2次元情報テンプレートの前面側の少なくとも一部に、第2の2次元情報テンプレートの部分または全部が重なっている場合に、第1の2次元情報テンプレートにおける、第2の2次元情報テンプレートが重複している部分の、第1の2次元情報テンプレートの全体に対する割合である。
一例として、上述の図11(d)では、背面側の2次元情報テンプレート213が第1の2次元情報テンプレートに相当する。また、画像410に対応する2次元情報テンプレートのうち、2次元情報テンプレート213に対応する前面側の2次元情報テンプレートが第2の2次元情報テンプレートに相当する。重複率は、背面側の2次元情報テンプレート213の全体に対する、2次元情報テンプレート213が境界線220から画像410内部に向けてはみ出した(2次元情報テンプレート213が画像410に重複する)部分である部分214b’の割合となる。図11(d)の例では、重複率は、例えば60%程度となる。
次のステップS111で、算出部121は、算出した重複率が閾値を超えるか否かを判定する。算出部121は、重複率が閾値以下であると判定した場合(ステップS111、「No」)、処理をステップS114に移行させる。一方、算出部121は、重複率が閾値を超えると判定した場合(ステップS111、「Yes」)、処理をステップS112に移行する。
ステップS112で、出力部122は、互いに重複部分を持つ2次元情報テンプレートの組における、背面側の2次元情報テンプレートに対応する周辺車両21と、自車両20とが衝突する可能性の有無を判定する。出力部122は、衝突する可能性が無いと判定した場合(ステップS112、「No」)、処理をステップS114に移行させる。
一方、出力部122は、衝突する可能性があると判定した場合(ステップS112、「Yes」)、処理をステップS113に移行させて、衝突可能性を示す通知を出力する。通知を出力すると、出力部122は、処理をステップS114に移行させる。
ステップS114で、出力部122は、ステップS109で存在すると判定された、互いに重複部分を持つ2次元情報テンプレートの全ての組について、処理が完了したか否かを判定する。完了していないと判定した場合(ステップS114、「No」)、処理がステップS110に戻され、次の組に対する処理が実行される。
一方、完了していると判定された場合(ステップS114、「Yes」)、図7のフローチャートによる一連の処理が終了される。この場合、図7のフローチャートによる処理が、ステップS100から再び実行される。
上述したステップS112の、第1の実施形態に係る衝突可能性の有無の判定処理について、図13を用いて説明する。ステップS112において、出力部122は、互いに重複部分を持つ2次元情報テンプレートの組における、背面側の2次元情報テンプレートに対応する周辺車両21の周辺車両情報140を周辺車両情報取得112から取得する。また、出力部122は、自車両情報取得部113から、自車両20の自車両情報143を取得する。
出力部122は、取得した周辺車両情報140および自車両情報143から、周辺車両21および自車両20の位置情報、進行方向情報および速度情報をそれぞれ取り出す。ここで、自車両20の位置を位置(x0,y0)、進行方向を角度0°、速度を速度v0とする。また、周辺車両21の位置を位置(x1,y1)、進行方向を角度θ、速度を速度v1とする。
出力部122は、これら自車両20に関する位置(x0,y0)、角度0°および速度v0と、周辺車両21に関する位置(x1,y1)、角度θおよび速度v1とに基づき、周辺車両情報140および自車両情報143を取得した時点での、自車両20および周辺車両21それぞれの移動を示すベクトルを求めることができる。
出力部122は、求めた各ベクトルに基づき、自車両20および周辺車両21がそれぞれ方向510および511に沿って速度v0およびv1で走行した場合に、方向510および511が交差する地点512に自車両20および周辺車両21がそれぞれ到達する時刻を計算することができる。出力部122は、計算結果が、地点512に自車両20および周辺車両21が同時または所定の時間範囲内に到達することを示している場合に、衝突可能性があると判定することができる。
(第1の実施形態のより具体的な例)
次に、上述した図7のフローチャートを参照しながら、第1の実施形態のより具体的な例について説明する。先ず、図7のフローチャートにおけるステップS113の通知出力を行わない場合の例について説明する。
図14は、撮像処理部117により取得された撮像画像の例を示す。なお、ここでは、説明のため、図7のフローチャートにおけるステップS100の直前に撮像画像の取得が行われたものとしている。図14の例では、撮像画像200内に、自車両20に対する周辺車両21である3台の車両420、421および422の画像が含まれている。また、車両420、421および422は、自車両20に対して、車両422の奥に車両420が位置し、車両420の進行方向に対して後側の奥に車両421が位置している。このような位置関係の場合、車両422の運転者は、自車両20が見えているものと考えられる。
周辺車両情報取得部112は、車車間通信部111の通信により、これら車両420〜422に対応する各周辺車両情報140を取得する(図7のステップS100)。生成部114は、周辺車両情報取得部112により取得された車両420〜422に対応する各周辺車両情報140に含まれる各識別情報141に基づき各車両420〜422の3D外形情報を取得する(図7のステップS102)。また、生成部114は、各周辺車両情報140に含まれる各状態情報142と、自車両情報取得部113により取得された自車両情報143とに基づき、各車両420〜422の自車両20に対する相対位置を計算し(図7のステップS103)、計算結果と、各車両420〜422の各3D外形情報とに基づき、各車両420〜422の2次元情報テンプレートを生成する。
図15は、第1の実施形態に係る、生成部114が各車両420〜422に対応して生成した各2次元情報テンプレートの例を示す。図15(a)は、車両420に対応する2次元情報テンプレート220の例、図15(b)は、車両421に対応する2次元情報テンプレート221の例、図15(c)は、車両422に対応する2次元情報テンプレート222の例を、それぞれ示す。
これら2次元情報テンプレート220〜222は、対応する各車両420〜422の大きさと、自車両20に対する相対位置とに応じた大きさを持つ。図15(a)〜図15(c)の例では、2次元情報テンプレート220〜222のうち、2次元情報テンプレート220が最も大きく、2次元情報テンプレート222が最も小さいものとする。
これら2次元情報テンプレート220、221および222は、それぞれ、車両420、421および422それぞれの識別情報141と関連付けられるものである。一方2次元情報テンプレート220〜222が生成された時点では、撮像画像200内の各車両420〜422の画像と2次元情報テンプレート220〜222との関連付けが行われていない。したがって、撮像画像200内の各車両420〜422の画像に対する識別情報141の関連付けも、行われていない。
これら2次元情報テンプレート220〜222に対する、図7のステップS107およびステップS108による探索処理の第1の例について、図16〜図19を用いて説明する。探索部120は、撮像画像200に対する最初の探索では、2次元情報テンプレート220〜222のうち最もサイズの大きな2次元情報テンプレート220について探索を行う。
図16は、この探索により2次元情報テンプレート220に対応する車両420の画像が探索され、2次元情報テンプレート220の撮像画像200内での位置が確定した状態を示す。探索部120は、2次元情報テンプレート220に対応する識別情報141を、2次元情報テンプレート220に対応する車両420の画像に対して関連付ける。
なお、図16および以下の同様の図(図17、図18、図21〜図23)において、太線の実線は、探索対象の2次元情報テンプレートを示し、太線の点線は、探索により位置が確定済みの2次元情報テンプレートを示している。
探索部120は、位置が確定された2次元情報テンプレート220の次に大きな2次元情報テンプレート221について探索を行う。このとき、探索部120は、上述したように、2次元情報テンプレート221について、2次元情報テンプレート220の前面および背面からそれぞれ探索を行う。図17(a)は、2次元情報テンプレート220の前面から探索を行った例、図17(b)は、2次元情報テンプレート220の背面から探索を行った例をそれぞれ示す。
この例では、車両421が、車両420の自車両20から見て後ろに位置し、撮像画像200において車両421の画像に対して車両420の画像が重なっている。そのため、前面から探索を行った場合(図17(a))よりも、背面から探索を行った場合(図17(b)の方が類似度Sが高くなる。したがって、2次元情報テンプレート221に対して2次元情報テンプレート220が重複していることが分かり、2次元情報テンプレート221の撮像画像200内での位置が確定する。
探索部120は、位置が確定された2次元情報テンプレート220および221の次に大きな2次元情報テンプレート222について探索を行う。この場合にも、上述と同様に、2次元情報テンプレート222について、2次元情報テンプレート220および221の前面および背面からそれぞれ探索を行う。この場合、例えば図12を用いて説明したように、2次元情報テンプレート220および221を統合した統合2次元情報テンプレートに対して探索を行うとよい。
図18(a)は、統合2次元情報テンプレートの背面から探索を行った例、図18(b)は、統合2次元情報テンプレートの前面から探索を行った例をそれぞれ示す。図18(a)の例では、2次元情報テンプレート222の、統合2次元情報テンプレートに対する差分が部分222aとして示されている。また、図18(b)の例では、2次元情報テンプレート222が、そのままの状態の2次元情報テンプレート222bとして示されている。
この例では、車両422が、車両420および421の、自車両20から見て前に位置し、撮像画像200において車両420および421の画像に対して車両422の画像が重なっている。そのため、背面から探索を行った場合(図18(a))よりも、前面から探索を行った場合(図18(b)の方が、類似度Sが高くなる。したがって、統合2次元情報テンプレートに対して2次元情報テンプレート222が重複していることが分かり、2次元情報テンプレート222の撮像画像200内での位置が確定する。
図19は、このようにして、撮像画像200内で各2次元情報テンプレート220〜222の位置が確定した状態を模式的に示す。なお、図19では、煩雑さを避けるために、各2次元情報テンプレート220〜222を枠線のみで示している。
算出部121は、上述した探索部120による探索結果に基づき、各2次元情報テンプレート220〜222の重複率を算出し、算出した重複率を閾値と比較する。閾値は、例えば70%とする。
図19の例では、2次元情報テンプレート220および221については、2次元情報テンプレート221の前面の一部に対して2次元情報テンプレート220が重複しており、その重複率が例えば30%であるものとする。また、2次元情報テンプレート222については、2次元情報テンプレート220および221を統合した統合2次元情報テンプレートの前面の一部に対して2次元情報テンプレート222が重複しており、その重複率が5%であるものとする。
図19の例においては、何れの重複率も閾値以下であり、図7のステップS112およびステップS113の処理がスキップされ、出力部122による通知の出力が行われない。
次に、図7のフローチャートにおけるステップS113の通知出力を行う場合の例について説明する。図20は、撮像処理部117により取得された撮像画像の例を示す。なお、図20において、撮像画像200内には、上述した図14と同一の各車両420〜422が含まれている。図20の例では、車両420、421および422は、自車両20に対して、車両420の、車両420の進行方向側の奥に車両422が位置し、車両420の進行方向に対して後側の奥に車両421が位置している。このような位置関係の場合、車両422の運転者は、自車両20が見えていない可能性がある。
周辺車両情報取得部112による周辺車両情報140の取得処理、および、生成部114による、車両420〜422に対する2次元情報テンプレート220〜222の生成処理は、上述と同様なので、ここでの説明を省略する。生成部114は、車両420〜422について、図15(a)〜図15(c)で示した各2次元情報テンプレート220〜222を生成するものとする。
これら2次元情報テンプレート220〜222に対する、図7のステップS107およびステップS108による探索処理の第2の例について、図21〜図24を用いて説明する。探索部120は、撮像画像200に対する最初の探索では、2次元情報テンプレート220〜222のうち最もサイズの大きな2次元情報テンプレート220について探索を行う。図21は、この探索により2次元情報テンプレート220に対応する車両420の画像が探索され、2次元情報テンプレート220の撮像画像200内での位置が確定した状態を示す。
探索部120は、位置が確定された2次元情報テンプレート220の次に大きな2次元情報テンプレート221について、2次元情報テンプレート220の前面および背面からそれぞれ探索を行う。図22(a)は、2次元情報テンプレート220の前面から探索を行った例、図22(b)は、2次元情報テンプレート220の背面から探索を行った例をそれぞれ示す。図17(a)および図17(b)の例と同様に、2次元情報テンプレート221に対して2次元情報テンプレート220が重複しているとされ、2次元情報テンプレート221の撮像画像200内での位置が確定する。
次に、探索部120は、位置が確定された2次元情報テンプレート220および221の次に大きな2次元情報テンプレート222について探索を行う。この場合にも、上述と同様に、2次元情報テンプレート222について、2次元情報テンプレート220および221の前面および背面からそれぞれ探索を行う。
図23(a)は、2次元情報テンプレート220および221を統合した統合2次元情報テンプレートの前面から探索を行った例、図23(b)は、統合2次元情報テンプレートの背面から探索を行った例をそれぞれ示す。図23(a)の例では、2次元情報テンプレート222が、そのままの状態の2次元情報テンプレート222cとして示されている。また、図23(b)の例では、2次元情報テンプレート222が、統合2次元情報テンプレートに対する差分が部分222dとして示されている。
この例では、車両422が、車両420の、自車両20から見て奥に位置し、撮像画像200において車両422の画像に対して車両420の画像が重なっている。そのため、前面から探索を行った場合(図23(a))よりも、背面から探索を行った場合(図23(b))の方が類似度Sが高くなる。したがって、2次元情報テンプレート222に対して統合2次元情報テンプレートが重複していることが分かり、2次元情報テンプレート222の撮像画像200内での位置が確定する。図24は、このようにして、撮像画像200内で各2次元情報テンプレート220〜222の位置が確定した状態を模式的に示す。
算出部121は、上述した探索部120による探索結果に基づき、各2次元情報テンプレート220〜222の重複率を算出し、算出した重複率を閾値と比較する。図24の例では、2次元情報テンプレート220および221については、2次元情報テンプレート221の前面の一部に対して2次元情報テンプレート220が重複しており、その重複率が例えば30%であるものとする。また、2次元情報テンプレート222については、2次元情報テンプレート222の前面の一部に対して2次元情報テンプレート220および221を統合した統合2次元情報テンプレートが重複しており、その重複率が80%であるものとする。
図19の例においては、2次元情報テンプレート222に対する重複率(=80%)が閾値(=70%)を超えており、図7のステップS112による衝突可能性の判定が行われる。
出力部122は、互いに重複する、2次元情報テンプレート222と統合2次元情報テンプレートとの組について、背面側の2次元情報テンプレート222に対応する車両422の周辺車両情報140を周辺車両情報取得112から取得する。また、出力部122は、自車両情報取得部113から、自車両20の車両情報143を取得する。
出力部122は、図13を用いて説明したように、取得した周辺車両情報140および自車両情報143それぞれに含まれる位置情報、進行方向情報および速度情報に基づき、自車両20と車両422との衝突可能性を判定する。出力部122は、衝突可能性があると判定した場合、その旨を示す通知を出力する。
図25は、第1の実施形態に係る、出力部122から出力された通知に応じた表示の例を示す。出力部122は、例えば、自車両20に対して衝突する可能性があると判定した車両422に対応する2次元情報テンプレート222の撮像画像200内での位置を示す位置情報を取得する。出力部122は、取得した位置情報に基づき、撮像画像200内の車両422の画像に対応する位置に、衝突可能性があることを示すワーニング画像600を、撮像画像200に対して合成して、表示装置1008に表示させる。
また、図25の例では、ワーニング画像600の表示に加えて、当該車両422の画像において、当該車両422に対応する2次元情報テンプレート222の、車両420の2次元情報テンプレート220に対する差分の部分222dに相当する部分が強調表示されている。
上述のように、第1の実施形態に係る物体検出装置100によれば、撮像画像200と、車車間通信により取得した周辺車両情報140と、周辺車両21の3D外形情報と、自車両20から取得した自車両情報143とに基づき、3D外形情報を2次元平面に射影した2次元情報テンプレートを生成している。そして、物体検出装置100は、生成した2次元情報テンプレートにより撮像画像200内を探索することで、各2次元情報テンプレートに対応する車両の位置を特定する。そのため、自車両20の周辺の周辺車両21をより高精度に検出することができる。
したがって、第1の実施形態に係る物体検出装置100を用いることで、車両位置の推定精度に対して周辺車両21が近接している場合、特に、ある周辺車両21などの背後に隠れた他の周辺車両21についても、車両の検出が可能となる。また、ある周辺車両21などの陰から他の周辺車両21が飛び出してくることにより発生する、自車両20と当該他の周辺車両21との出会い頭衝突の可能性がある場合に、警告を発することが可能となる。
(第2の実施形態)
次に、第2の実施形態について説明する。上述した第1の実施形態では、自車両20が1台のカメラ1011を搭載しているものとして説明した。これに対して、第2の実施形態では、自車両が撮像範囲が互いに異なる複数台の車載カメラを搭載する場合の例である。
図26は、2台のカメラ1011aおよび1011bを搭載する自車両700の例を示す。この例では、2台のカメラ1011aおよび1011bは、互いに異なる撮像範囲710aおよび710bを有する。自車両700において図中の矢印「A」で示された方向が前方である場合、カメラ1011aが前方の撮像範囲710aを撮像し、カメラ1011bが後方の撮像範囲710bを撮像する。ここで、カメラ1011aおよび1011bのうち何れを用いるかは、手動により切り替えてもよいし、自動切り替えにて所定の間隔で交互に切り替えてもよい。
図27は、第2の実施形態に係る物体検出装置100’の機能を説明するための一例の機能ブロック図である。なお、図27において、上述した図2と共通する部分は、同一の符号を付して詳細な説明を省略する。
図27において、撮像処理部117’は、それぞれカメラ1011aおよび1011bに対応する撮像部116aおよび116bからの撮像画像を取得可能とされている。撮像処理部117’は、手動操作または自動切り替えにより、撮像部116aからの撮像画像と、撮像部116bからの撮像画像とを選択的に出力することができる。また、撮像処理部117’は、撮像部116aおよび116bのうち、選択中の撮像部を示す撮像部選択情報を出力する。この撮像部選択情報は、生成部114’に供給される。
生成部114’は、2次元情報テンプレートを作成する際に、周辺車両情報取得部112が取得した周辺車両情報1401、1402、1403、…から、撮像処理部117’から供給される撮像部選択情報に応じた周辺車両情報を選択する。生成部114’は、選択した周辺車両情報に対応して、2次元情報テンプレートを生成する。
一例として、撮像処理部117’において撮像部116aが選択された場合について考える。この場合、生成部114’は、図7のステップS102で周辺車両情報取得部112から取得した各周辺車両情報140のうち、状態情報142に含まれる位置情報が撮像部116aによる撮像範囲710aに対応している周辺車両情報140を選択する。
例えば、図3に示した各周辺車両情報1401、1402および1403のうち、周辺車両情報1401および1402に含まれる位置情報が撮像範囲710aに含まれる位置を示し、周辺車両情報1403に含まれる位置情報が撮像範囲710bに含まれる位置を示しているものとする。
生成部114’は、撮像部選択情報が撮像部116aを選択していることを示している場合、各周辺車両情報1401、1402および1403から、位置情報が撮像範囲710aに含まれる周辺車両情報1401および1402に基づき、2次元情報テンプレートを生成する。また、撮像処理部117’は、使用する撮像部を撮像部116aから撮像部116bに切り替えると、その旨を示す撮像部選択情報を生成部114’に供給する。生成部114’は、この撮像部116bを選択していることを示す撮像部選択情報に応じて、各周辺車両情報1401、1402および1403から、位置情報が撮像範囲710bに含まれる周辺車両情報1403に基づき、2次元情報テンプレートを生成する。
上述では、撮像範囲が互いに異なる2台のカメラ1011aおよび1011bを用いた場合について説明したが、これはこの例に限定されない。すなわち、第2の実施形態は、撮像範囲が互いに異なる3台以上の車載カメラを用いた場合にも、同様に適用可能である。
(他の実施形態)
上述の各実施形態では、自車両20の周辺の状態を検知するセンサとして車載カメラを用い、車載カメラにより撮像した撮像画像と、車車間通信により取得した周辺車両情報とを用いて衝突可能性の判定をしているが、これはこの例に限定されない。センサは、自車両20の周辺の状態を2次元情報として取得可能なものであれば、他の種類のセンサを用いてもよい。例えば、センサとしてレーザ光線を用いて周辺の状態を検知するレーザレーダや、ミリ波を用いて周辺の状態を検知するミリ波レーダを用いてもよい。例えば、レーザレーダは、点群データにより周辺の物体の存在を検知する。撮像画像の代わりにこの点群データを用いることで、上述と同様の効果を得ることができる。
また、上述では、各実施形態に係る物体検出装置100および100’が、運転者による運転を支援するように記載されているが、これはこの例に限定されない。例えば、各実施形態に係る物体検出装置100および100’は、自動車の自律走行制御において衝突などを回避する例にも適用することができる。
なお、各実施形態は、上述したそのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
20 自車両
21,22 周辺車両
33 外部車両DB
100,100’ 物体検出装置
111 車車間通信部
112 周辺車両情報取得部
113 自車両情報取得部
114,114’ 生成部
115 車両DB
116,116a,116b 撮像部
117,117’ 撮像処理部
120 探索部
121 算出部
122 出力部
131 路車間通信部
132 更新情報取得部
140,1401,1402,1403 周辺車両情報
141 識別情報
142 状態情報
143 自車両情報
200 撮像画像
210a,210b,210c,211,213,213’,220,221,222 2次元情報テンプレート
420,421,422 車両
1000 CPU
1011,1011a,1011b カメラ

Claims (9)

  1. 自車両の周辺の車両について、該車両を識別する識別情報と、該車両の位置を示す第1の位置情報と、該車両の進行方向を示す第1の方向情報とを少なくとも含む車両情報を取得する車両情報取得部と、
    前記識別情報に対応する車両の3次元情報による外形情報と、前記第1の位置情報と、前記第1の方向情報と、前記自車両の位置を示す第2の位置情報と、該自車両の進行方向を示す第2の方向情報とに基づいて、2次元情報テンプレートを生成する生成部と、
    センサが取得した前記自車両周辺の2次元情報内の、前記2次元情報テンプレートが対応する位置を探索する探索部と、
    前記探索部が探索結果に基づき第1の2次元情報テンプレートの前面への第2の2次元情報テンプレートの重複を検出した場合に、前記第1の2次元情報テンプレートに対して前記第2の2次元情報テンプレートが重複する部分の、前記第1の2次元情報テンプレートの全体に対する比率を算出する算出部と、
    少なくとも、前記比率と、前記第1の位置情報と、前記第1の方向情報と、前記第2の位置情報と、前記第2の方向情報とに基づき通知を出力する出力部と
    を備える物体検出装置。
  2. 前記探索部は、
    前記2次元情報テンプレートを前記2次元情報内で移動させながら前記2次元情報テンプレートと前記2次元情報との類似度を求めることで前記位置を探索し、
    既に前記第2の2次元情報テンプレートが探索されている場合に、
    前記第2の2次元情報テンプレートを無視して前記第1の2次元情報テンプレートを移動させる第1の探索と、
    前記第2の2次元情報テンプレートと前記第1の2次元情報テンプレートとの差分に基づいた第2の探索とを実行し、
    前記第1の探索で求めた前記類似度よりも前記第2の探索で求めた前記類似度の方が高い場合に、前記重複が検出されたと判定する
    請求項1に記載の物体検出装置。
  3. 前記外形情報と前記識別情報とを関連付けて記憶する記憶部と、
    前記外形情報と前記識別情報を更新するための更新情報を取得する更新情報取得部と
    をさらに備える
    請求項1または請求項2に記載の物体検出装置。
  4. 前記探索部は、
    2以上の前記2次元情報テンプレートのうち、サイズが大きい前記2次元情報テンプレートから順番に前記位置を探索する
    請求項1乃至請求項3の何れか1項に記載の物体検出装置。
  5. 前記生成部は、
    前記センサが前記2次元情報を取得可能な範囲を示す範囲情報をさらに用いて前記2次元情報テンプレートを生成する
    請求項1乃至請求項4の何れか1項に記載の物体検出装置。
  6. 前記出力部は、
    前記第1の位置情報に対応する車両と前記自車両との衝突の可能性を示す前記通知を出力する
    請求項1乃至請求項5の何れか1項に記載の物体検出装置。
  7. 前記車両情報取得部は、前記自車両の周辺の車両の速度を示す第1の速度情報をさらに取得し、
    前記出力部は、
    前記比率と、前記第1の位置情報と、前記第1の方向情報と、前記第1の速度情報と、前記第2の位置情報と、前記第2の方向情報と、前記自車両の速度を示す第2の速度情報とに基づき、前記衝突の可能性の有無を判定する
    請求項6に記載の物体検出装置。
  8. 自車両の周辺の車両について、該車両を識別する識別情報と、該車両の位置を示す第1の位置情報と、該車両の進行方向を示す第1の方向情報とを少なくとも含む車両情報を取得する車両情報取得ステップと、
    前記識別情報に対応する車両の3次元情報による外形情報と、前記第1の位置情報と、前記第1の方向情報と、前記自車両の位置を示す第2の位置情報と、該自車両の進行方向を示す第2の方向情報とに基づいて、2次元情報テンプレートを生成する生成ステップと、
    センサが取得した前記自車両周辺の2次元情報内の、前記2次元情報テンプレートが対応する位置を探索する探索ステップと、
    前記探索ステップにより探索結果に基づき第1の2次元情報テンプレートの前面への第2の2次元情報テンプレートの重複を検出した場合に、前記第1の2次元情報テンプレートに対して前記第2の2次元情報テンプレートが重複する部分の、前記第1の2次元情報テンプレートの全体に対する比率を算出する算出ステップと、
    少なくとも、前記比率と、前記第1の位置情報と、前記第1の方向情報と、前記第2の位置情報と、前記第2の方向情報とに基づき通知を出力する出力ステップと
    を有する物体検出方法。
  9. 自車両の周辺の車両について、該車両を識別する識別情報と、該車両の位置を示す第1の位置情報と、該車両の進行方向を示す第1の方向情報とを少なくとも含む車両情報を取得する車両情報取得ステップと、
    前記識別情報に対応する車両の3次元情報による外形情報と、前記第1の位置情報と、前記第1の方向情報と、前記自車両の位置を示す第2の位置情報と、該自車両の進行方向を示す第2の方向情報とに基づいて、2次元情報テンプレートを生成する生成ステップと、
    センサが取得した前記自車両周辺の2次元情報内の、前記2次元情報テンプレートが対応する位置を探索する探索ステップと、
    前記探索ステップにより探索結果に基づき第1の2次元情報テンプレートの前面への第2の2次元情報テンプレートの重複を検出した場合に、前記第1の2次元情報テンプレートに対して前記第2の2次元情報テンプレートが重複する部分の、前記第1の2次元情報テンプレートの全体に対する比率を算出する算出ステップと、
    少なくとも、前記比率と、前記第1の位置情報と、前記第1の方向情報と、前記第2の位置情報と、前記第2の方向情報とに基づき通知を出力する出力ステップと
    をコンピュータに実行させるための物体検出プログラム。
JP2016046224A 2016-03-09 2016-03-09 物体検出装置、物体検出方法および物体検出プログラム Abandoned JP2017162204A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016046224A JP2017162204A (ja) 2016-03-09 2016-03-09 物体検出装置、物体検出方法および物体検出プログラム
US15/383,054 US20170263129A1 (en) 2016-03-09 2016-12-19 Object detecting device, object detecting method, and computer program product
EP17158322.2A EP3217376A3 (en) 2016-03-09 2017-02-28 Object detecting device, object detecting method, and computer-readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016046224A JP2017162204A (ja) 2016-03-09 2016-03-09 物体検出装置、物体検出方法および物体検出プログラム

Publications (1)

Publication Number Publication Date
JP2017162204A true JP2017162204A (ja) 2017-09-14

Family

ID=58692269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016046224A Abandoned JP2017162204A (ja) 2016-03-09 2016-03-09 物体検出装置、物体検出方法および物体検出プログラム

Country Status (3)

Country Link
US (1) US20170263129A1 (ja)
EP (1) EP3217376A3 (ja)
JP (1) JP2017162204A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2024024037A1 (ja) * 2022-07-28 2024-02-01
US11933967B2 (en) 2019-08-22 2024-03-19 Red Creamery, LLC Distally actuated scanning mirror
US12123950B2 (en) 2016-02-15 2024-10-22 Red Creamery, LLC Hybrid LADAR with co-planar scanning and imaging field-of-view
US12399279B1 (en) 2016-02-15 2025-08-26 Red Creamery Llc Enhanced hybrid LIDAR with high-speed scanning
US12399278B1 (en) 2016-02-15 2025-08-26 Red Creamery Llc Hybrid LIDAR with optically enhanced scanned laser

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6839625B2 (ja) * 2017-07-27 2021-03-10 京セラ株式会社 飛行体、通信端末、及びプログラム
US10424176B2 (en) * 2017-09-27 2019-09-24 Harman International Industries, Incorporated AMBER alert monitoring and support
US10495746B1 (en) * 2019-01-17 2019-12-03 T-Mobile Usa, Inc. Pattern recognition based on millimeter wave transmission in wireless communication networks
CN110703755B (zh) * 2019-10-21 2022-12-02 北京小马睿行科技有限公司 追捕车辆的方法、装置和系统
CN113536867B (zh) * 2020-04-22 2023-09-22 杭州海康威视数字技术股份有限公司 物体识别的方法、装置及系统
CN112214033B (zh) * 2020-09-25 2022-12-30 中国直升机设计研究所 一种基于ooda的直升机驾驶辅助决策支持系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE20105340U1 (de) * 2001-03-26 2001-07-26 Daimler Chrysler Ag Dimensionale Umfelderfassung
US8054201B2 (en) * 2008-03-19 2011-11-08 Mazda Motor Corporation Surroundings monitoring device for vehicle
US8332134B2 (en) * 2008-04-24 2012-12-11 GM Global Technology Operations LLC Three-dimensional LIDAR-based clear path detection
JP5345350B2 (ja) * 2008-07-30 2013-11-20 富士重工業株式会社 車両の運転支援装置
JP5152244B2 (ja) * 2010-04-06 2013-02-27 トヨタ自動車株式会社 追従対象車特定装置
JP5593245B2 (ja) * 2011-01-31 2014-09-17 インターナショナル・ビジネス・マシーンズ・コーポレーション 移動物に関連するトレース・データの開示を制御する方法、並びにそのコンピュータ及びコンピュータ・プログラム
US8473144B1 (en) * 2012-10-30 2013-06-25 Google Inc. Controlling vehicle lateral lane positioning
JP5729398B2 (ja) * 2013-01-22 2015-06-03 株式会社デンソー 車載物標検出装置
JP5729416B2 (ja) * 2013-04-26 2015-06-03 株式会社デンソー 衝突判定装置、および衝突緩和装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12123950B2 (en) 2016-02-15 2024-10-22 Red Creamery, LLC Hybrid LADAR with co-planar scanning and imaging field-of-view
US12399279B1 (en) 2016-02-15 2025-08-26 Red Creamery Llc Enhanced hybrid LIDAR with high-speed scanning
US12399278B1 (en) 2016-02-15 2025-08-26 Red Creamery Llc Hybrid LIDAR with optically enhanced scanned laser
US11933967B2 (en) 2019-08-22 2024-03-19 Red Creamery, LLC Distally actuated scanning mirror
US12130426B2 (en) 2019-08-22 2024-10-29 Red Creamery Llc Distally actuated scanning mirror
JPWO2024024037A1 (ja) * 2022-07-28 2024-02-01
JP7796231B2 (ja) 2022-07-28 2026-01-08 楽天モバイル株式会社 拡張現実画像を生成するための画像処理

Also Published As

Publication number Publication date
EP3217376A2 (en) 2017-09-13
EP3217376A3 (en) 2017-09-20
US20170263129A1 (en) 2017-09-14

Similar Documents

Publication Publication Date Title
JP2017162204A (ja) 物体検出装置、物体検出方法および物体検出プログラム
CN113168691B (zh) 信息处理装置、信息处理方法、程序、移动体控制装置和移动体
CN108139202B (zh) 图像处理装置、图像处理方法和程序
EP3245614B1 (en) Object detection using location data and scale space representations of image data
JP7103359B2 (ja) 制御装置、および制御方法、プログラム、並びに移動体
US10753757B2 (en) Information processing apparatus and information processing method
US11978261B2 (en) Information processing apparatus and information processing method
JPWO2017159382A1 (ja) 信号処理装置および信号処理方法
WO2019073920A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
CN113167883B (zh) 信息处理装置、信息处理方法、程序、移动体控制装置和移动体
US20180288401A1 (en) Image processing apparatus, image processing method, and program
US20200230820A1 (en) Information processing apparatus, self-localization method, program, and mobile body
CN109927629B (zh) 用于控制投影设备的显示控制设备、显示控制方法及车辆
CN113614782B (zh) 信息处理装置、信息处理方法和程序产品
CN115777116A (zh) 信息处理装置、信息处理方法和程序
CN114788257A (zh) 信息处理装置、信息处理方法、程序、成像装置和成像系统
US11436706B2 (en) Image processing apparatus and image processing method for improving quality of images by removing weather elements
WO2022024602A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20220148283A1 (en) Information processing apparatus, information processing method, and program
CN115128566A (zh) 雷达数据确定电路及雷达数据确定方法
WO2022106531A1 (en) Time-of-flight object detection circuitry and time-of-flight object detection method
WO2024225031A1 (ja) 情報処理装置及び通信装置
CN117716406A (zh) 用于警报关于在同一通行车道上逆向通行的车辆的警报方法和警报装置
CN116235231A (zh) 信息处理设备、信息处理方法和信息处理系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180222

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20180521