[go: up one dir, main page]

JP7597031B2 - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents

情報処理装置、および情報処理方法、並びにプログラム Download PDF

Info

Publication number
JP7597031B2
JP7597031B2 JP2021537690A JP2021537690A JP7597031B2 JP 7597031 B2 JP7597031 B2 JP 7597031B2 JP 2021537690 A JP2021537690 A JP 2021537690A JP 2021537690 A JP2021537690 A JP 2021537690A JP 7597031 B2 JP7597031 B2 JP 7597031B2
Authority
JP
Japan
Prior art keywords
feature
unit
calculation unit
feature amount
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021537690A
Other languages
English (en)
Other versions
JPWO2021024805A1 (ja
Inventor
祐輝 山本
佑介 日永田
卓 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2021024805A1 publication Critical patent/JPWO2021024805A1/ja
Application granted granted Critical
Publication of JP7597031B2 publication Critical patent/JP7597031B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、情報処理装置、および情報処理方法、並びにプログラムに関し、特に、物体認識精度を向上できるようにした情報処理装置、および情報処理方法、並びにプログラムに関する。
車両に搭載されるカメラやLiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)等の各種のセンサにより車両の周辺をセンシングし、センシング結果に基づいて、車両周辺の物体を認識する技術が提案されている。
ところが、ユーザが搭乗する車両に搭載されたセンサのセンシング結果のみでは、他の車両との位置関係によっては物体が隠れているようなセンシング結果や、物体を認識し難い方向からのセンシング結果しか得られないことがあり、物体の認識精度を低下させる原因となっていた。
そこで、特定の物体について、他の物体の処理に用いるために撮像された画像も併せて用いて処理することにより、特定の物体についての処理精度を向上させる技術を応用させることが考えられる(特許文献1参照)。
特開2019-016161号公報
しかしながら、特許文献1に係る技術を応用して、他の車両でセンシングされたセンシング結果を用いた場合でも、センサが異なることにより認識結果が相互に矛盾してしまう恐れがあった。
また、他の車両でセンシングされたセンシング結果を用いても、共通観測領域における認識精度のみしか向上させることができず、全体として認識精度を向上させることができない恐れがあった。
本開示は、このような状況に鑑みてなされたものであり、特に、他の車両のセンシング結果から得られる特徴量を取得し、選択して結合した上で、一括して物体認識に用いることで、物体の認識精度を向上するものである。
本開示の一側面の情報処理装置、およびプログラムは、周囲情報検出センサにより検出されたセンシング結果に基づいて、複数の階層のそれぞれにおいて、物体認識に用いる特徴量を段階的に計算する特徴量計算部と、前記周囲情報検出センサと異なる他の周囲情報検出センサにより検出された他のセンシング結果に基づいて、前記特徴量計算部と異なる他の特徴量計算部により計算された前記物体認識に用いる前記特徴量と異なる他の特徴量を取得する取得部と、前記特徴量と、前記他の特徴量とに基づいて、前記物体認識を行う認識部とを備え、前記周囲情報検出センサと前記他の周囲情報検出センサとは、それぞれ異なる物体に設けられる情報処理装置、およびプログラムである。
本開示の一側面の情報処理方法は、特徴量計算部と、取得部と、認識部とを備えた情報処理装置の情報処理方法であって、前記特徴量計算部が、周囲情報検出センサにより検出されたセンシング結果に基づいて、複数の階層のそれぞれにおいて、物体認識に用いる特徴量を段階的に計算する計算処理することと、前記取得部が、前記周囲情報検出センサと異なる他の周囲情報検出センサにより検出された他のセンシング結果に基づいて、前記特徴量計算処理とは異なる他の特徴量計算処理により計算された前記物体認識に用いる前記特徴量と異なる他の特徴量を取得する取得処理することと、前記認識部が、前記特徴量と、前記他の特徴量とに基づいて、前記物体認識を行う物体認識処理することとを含み、前記周囲情報検出センサと前記他の周囲情報検出センサとは、それぞれ異なる物体に設けられる情報処理方法である
本開示の一側面においては、特徴量計算部により、周囲情報検出センサにより検出されたセンシング結果に基づいて、複数の階層のそれぞれにおいて、物体認識に用いる特徴量が段階的に計算され、前記周囲情報センサと異なる他の周囲情報検出センサにより検出された他のセンシング結果に基づいて、前記特徴量計算部と異なる他の特徴量計算部により計算された前記物体認識に用いる前記特徴量と異なる他の特徴量が取得され、前記特徴量と、前記他の特徴量とに基づいて、前記物体認識が行われ、前記周囲情報検出センサと前記他の周囲情報検出センサとは、それぞれ異なる物体に設けられる。
本開示の物体認識システムの概要を説明する図である。 本開示の車両制御システムの構成例を説明する図である。 本開示の物体認識部の第1の実施の形態の構成例を説明するブロック図である。 第1の実施の形態の物体認識処理を説明するフローチャートである。 第1の実施の形態の物体認識処理を説明するフローチャートである。 第1の実施の形態の変形例の物体認識処理を説明するフローチャートである。 第1の実施の形態の変形例の物体認識処理を説明するフローチャートである。 本開示の物体認識部の第2の実施の形態の構成例を説明するブロック図である。 第2の実施の形態の物体認識処理を説明するフローチャートである。 第2の実施の形態の物体認識処理を説明するフローチャートである。 汎用のコンピュータの構成例を説明する図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.本開示の概要
2.第1の実施の形態
3.第1の実施の形態の変形例
4.第2の実施の形態
5.ソフトウェアにより実行させる例
<<1.本開示の概要>>
本開示は、車両毎に自車の周囲の環境をセンシングし、センシング結果から特徴量を抽出し、他車において抽出された特徴量と自車において抽出された特徴量とを結合し、結合した特徴量に基づいて物体を認識することで、物体の認識精度を向上させる。
まず、図1を参照して、本開示の物体認識システムの概要について説明する。
図1の物体認識システム11は、複数の車両31-1乃至31-5より構成される。なお、図1の物体認識システム11においては、車両31-1乃至31-5を特に区別する必要がない場合、単に車両31と称する。また、図1の物体認識システム11においては、車両31は、5台であることを前提とするが、自車以外に少なくとももう1台あれば、それ以外の台数であってもよい。
また、ユーザが搭乗する車両31は、特に自車とも称し、それ以外の車両31については、他車とも称する。
図1の物体認識システム11においては、車両31-1が自車であるものとし、車両31-2乃至31-5が他車であるものとする。
また、図示しないが、車両31-1乃至31-5は所定距離内において、いわゆる車車間通信により相互に通信が可能な構成とされている。
さらに、車両31-1乃至31-5は、それぞれ物体認識装置41-1乃至41-5を備えている。
物体認識装置41-1乃至41-5は、それぞれ物体認識部41a-1乃至41a―5を備えており、物体認識部41a-1乃至41a―5が、それぞれの周囲の情報を点群情報PC1乃至PC5として取得し、点群情報PC1乃至PC5より特徴量F1乃至F5をそれぞれ抽出する。
そして、物体認識部41a-1乃至41a-5は、それぞれ周囲に車両が存在しない場合、それぞれで抽出した特徴量F1乃至F5をそれぞれ単独で用いて物体認識処理を実行し、それぞれ認識結果SR1乃至SR5を出力する。
車両31-1乃至31-5のそれぞれは、認識結果SR1乃至SR5に基づいて、各種の処理を実行する。
また、物体認識部41a-1乃至41a-5は、それぞれ周囲において所定の距離内となる近傍において他車が存在する場合、他車の特徴量を要求して取得し、他社の特徴量と自車の特徴量とを使用して、物体認識処理を実行する。
すなわち、図1における車両31-1の場合、点線で示される所定の距離内の範囲Z内であって、自車の走行方向前方を撮像する、例えば、車両31-2,31-4が車両31-1における近傍の車両であるものと認識されるものとする。
この場合、車両31-1の物体認識部41a-1は、周囲の車両である車両31-2,31-4に対して特徴量を要求する。
この要求に応じて、車両31-2,31-4の物体認識部41a-2,41a-4は、それぞれの特徴量F2,F4を車両31-1に送信する。
これにより、車両31-1の物体認識部41a-1は、車両31-2,31-4の物体認識部41a-2,41a-4から送信されてくる特徴量F2,F4を取得する。
そして、車両31-1の物体認識部41a-1は、このように取得した特徴量F2,F4と、自らで求めた特徴量F1とを結合して利用することで、物体認識処理を実行する。
このような処理により、車両31-1の物体認識部41a-1は、自車の監視領域の点群情報に基づいた特徴量F1と共に、他車の監視領域の点群情報に基づいた特徴量F2,F4を用いて物体認識処理を実行することで、物体の認識精度を向上させることが可能となる。
また、送受信される特徴量F2,F4は、点群情報PC2,PC4と比較して十分に小さな情報量であるので、車車間通信における通信負荷を抑制すると共に、通信速度を向上させることが可能となり、高精度な物体認識処理を高速で実現させることが可能となる。
<<2.第1の実施の形態>>
<車両制御システムの構成例>
図2は、本技術が適用され得る車両の移動体制御システムの一例である車両51の車両制御システム100の概略的な機能の構成例を示すブロック図である。尚、図2の車両51は、図1の車両31に対応する。
また、以下、車両制御システム100が設けられている車両を他の車両と区別する場合、自車又は自車両と称する。
車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
なお、以下、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
例えば、データ取得部102は、自車の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
また、例えば、データ取得部102は、自車の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、及び、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、自車の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
さらに、例えば、データ取得部102は、自車の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である。
例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又は、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、自車と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、自車に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
出力制御部105は、自車の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
出力部106は、自車の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
駆動系システム108は、自車の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、自車の周囲の情報を含むローカルマップ等の地図データを記憶する。
自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、自車の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自車の衝突警告、又は、自車のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の外部の情報の検出処理を行う。例えば、車外情報検出部141は、自車の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部141は、自車の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
車外情報検出部141は、さらに、物体認識部181、および車両検出部182を備えている。
物体認識部181は、図1の物体認識部41aに対応する構成であり、データ取得部102の超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ステレオカメラ、およびソナー等の周囲情報検出センサより供給されるポイントクラウド(点群情報)に基づいて、物体認証処理を行い、自車の周囲のポイントクラウドの各ポイント単位で物体を認証する。
車両検出部182は、データ取得部102の、例えば、カメラ等の撮像装置により撮像された画像や、通信部103を介して他車との間でなされる車車間通信により自車の周囲における他車の接近を検出する。
より詳細には、物体認識部181は、ポイントクラウドからなるセンシング結果をDNN(Deep Neural Network)により特徴量を計算し、計算結果に基づいて、物体認識処理を行い、ポイント単位で物体を認識する。
この際、物体認識部181は、車両検出部182により自車の周囲に他車の接近が検出されると、他車に対して車車間通信等により、他車の物体認識部181により計算された特徴量を要求して取得し、自らで計算した特徴量と結合して物体認証処理を行う。
これにより、物体認識部181は、自車の周囲の全ポイントクラウドに相当する物体認証を行うことが可能となり、物体認証精度を向上させることが可能となる。
尚、物体認識部181の構成については、詳細を後述する。
車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の状態の検出処理を行う。検出対象となる自車の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
自己位置推定部132は、車外情報検出部141、及び、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
状況分析部133は、自車及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、自車の周囲の信号の位置及び状態、自車の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の認識処理を行う。例えば、状況認識部153は、自車の状況、自車の周囲の状況、及び、自車の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、自車の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
認識対象となる自車の状況には、例えば、自車の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる自車の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の予測処理を行う。例えば、状況予測部154は、自車の状況、自車の周囲の状況、及び、運転者の状況等の予測処理を行う。
予測対象となる自車の状況には、例えば、自車の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる自車の周囲の状況には、例えば、自車の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための自車の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、及び、追い越し等の計画を行う。行動計画部162は、計画した自車の行動を示すデータを動作計画部163等に供給する。
動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための自車の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した自車の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
動作制御部135は、自車の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための自車の動作を計画する。緊急事態回避部171は、計画した自車の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
方向制御部173は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
<物体認識部の第1の構成例>
次に、図3を参照して、物体認識部181の第1の構成例について説明する。
物体認識部181は、ステレオカメラやLiDARなどのセンサよりデータ取得部102より供給されるポイントクラウドPCに基づいて、物体認識処理を行い、ポイント毎の大域特徴量Rとして出力する。
ポイントクラウドPCは、例えば、ポイント(x1,y1,z1)、ポイント(x2,y2,z2)、ポイント(x3,y3,z3)・・・ポイント(xn,yn,zn)のそれぞれの位置情報からなる点群情報である。
また、大域特徴量Rは、(x1,y1,z1),(x2,y2,z2),(x3,y3,z3)に対応する大域特徴量R(x1,y1,z1)、大域特徴量R(x2,y2,z2)、大域特徴量R(x3,y3,z3)・・・大域特徴量R(xn,yn,zn)であり、ポイント単位の物体の認識結果である。
より詳細には、物体認識部181は、局所特徴量計算部201、特徴量結合部202、大域特徴量計算部203、認識部204、特徴量抽出部205、特徴量送信制御部206、特徴量受信制御部207、および特徴量選択部208を備えている。
局所特徴量計算部201は、ポイントクラウドPCにおけるポイント毎の特徴量を段階的に計算するものであり、第1特徴量計算部221、第2特徴量計算部222、および第3特徴量計算部223を備えている。
第1特徴量計算部221は、それぞれポイント毎のMLP(Multi Layer Perceptron)231-1乃至231-nにより構成されており、ポイントクラウドPCのポイントのそれぞれについて、第1段階の特徴量である第1特徴量を計算し、第2特徴量計算部222、および特徴量抽出部205の第1特徴量抽出部281に出力する。
第2特徴量計算部222は、それぞれポイント毎のMLP241-1乃至241-nにより構成されており、第1特徴量計算部221よりポイントクラウドPCのポイントのそれぞれについて供給される第1特徴量に基づいて、第2段階の特徴量である第2特徴量を計算して、第3特徴量計算部223、および特徴量抽出部205の第2特徴量抽出部282に出力する。
第3特徴量計算部223は、それぞれポイント毎のMLP251-1乃至251-nにより構成されており、第2特徴量計算部222よりポイントクラウドPCのポイントのそれぞれについて供給される第2特徴量に基づいて、第3段階の特徴量である第3特徴量を計算して、特徴量結合部202、および特徴量抽出部205の第3特徴量抽出部283に出力する。
特徴量結合部202は、通信部103、特徴量受信制御部207、および特徴量選択部208を介して他車より供給される第1特徴量、第2特徴量、および第3特徴量と、局所特徴量計算部201より供給される第3特徴量とを結合させて大域特徴量計算部203に出力する。
より詳細には、特徴量結合部202は、第2特徴量計算部271、および第3特徴量計算部272を備えている。
第2特徴量計算部271、および第3特徴量計算部272は、第2特徴量計算部222、および第3特徴量計算部223と同一の機能を備えたものであり、必要に応じて他車より供給された第1特徴量、および第2特徴量より第2特徴量や第3特徴量を計算し、最終的に他車の特徴量に基づいた第3特徴量を計算する。
そして、特徴量結合部202は、他車より求められた第3特徴量と、局所特徴量計算部201により計算された第3特徴量とを、例えば、重みを設定した積和により結合する。
重みの設定については、均等にしてもよいし、他車との距離やDNN構造が同一であるか否かに応じて設定するようにしてもよい。
大域特徴量計算部203は、例えば、Maxpoolingにより、特徴量結合部202より供給される特徴量(実質的に第3特徴量)に基づいて、各ポイントにおける大域特徴量Rを計算して認識部204に出力する。認識部204は、大域特徴量Rに基づいて、物体認識処理を行い、処理結果である物体認識結果を出力する。
すなわち、本開示の図3の物体認識部181においては、局所特徴量計算部201と特徴量結合部202と大域特徴量計算部203とにより、DNNによるPointNetが形成されている。
ここで、PointNetとは、点群情報を入力とし、入力された点群情報に基づいて、所定の処理結果を出力するニューラルネットワークをいう。
すなわち、局所特徴量計算部201における、第1特徴量計算部221、第2特徴量計算部222、および第3特徴量計算部223は、局所的な特徴を抽出する中間層である。
このため、図3の局所特徴量計算部201は、第1特徴量計算部221乃至第3特徴量計算部223のように3段階の階層構造により特徴量を求める構成としているが、入力層と出力層に対応する少なくとも2階層以上の階層構造であれば、階層数は2または3以外であってもよい。
そして、局所特徴量計算部201と大域特徴量計算部203は、例えば、ポイントクラウドである位置(x,y,z)および色(r,g,b)を入力とし、セマンティックセグメンテーションラベルを正解とした学習(バックプロパゲーション:backpropagation)がなされていることが前提とされる。
特徴量抽出部205は、局所特徴量計算部201の計算結果である特徴量を抽出して特徴量送信制御部206に供給する。
より詳細には、特徴量抽出部205は、第1特徴量抽出部281、第2特徴量抽出部282、および第3特徴量抽出部283を備えている。
第1特徴量抽出部281は、局所特徴量計算部201の第1特徴量計算部221の計算結果である第1特徴量を抽出して特徴量送信制御部206に出力する。
第2特徴量抽出部282は、局所特徴量計算部201の第2特徴量計算部222の計算結果である第2特徴量を抽出して特徴量送信制御部206に出力する。
第3特徴量抽出部283は、局所特徴量計算部201の第3特徴量計算部223の計算結果である第3特徴量を抽出して特徴量送信制御部206に出力する。
特徴量送信制御部206は、自車の周囲の他車より特徴量の要求があったとき、通信部103を制御して、要求のあった他車に対して、例えば、車車間通信等により抽出された第1特徴量乃至第3特徴量を送信する。
このとき、特徴量送信制御部206は、特徴量のそれぞれについて第1特徴量、第2特徴量、および第3特徴量のいずれであるかを識別する情報を付加して送信する。
また、特徴量送信制御部206は、自車の局所特徴量計算部201のDNN(Deep Neural Network)構造を示す情報を付加して特徴量を送信する。ここで、DNN構造を示す情報は、例えば、DNNにおける各層である第1特徴量計算部221乃至第3特徴量計算部223のそれぞれのポイントに対応するMLP231,241,251に対する重み係数の値である。
特徴量受信制御部207は、自車の周囲において所定の距離となる近傍に他車が存在する場合、通信部103を制御して自車の近傍の他車に対して特徴量の送付を要求すると共に、要求に応じて他車から送信されてくる特徴量を取得して特徴量選択部208に供給する。
特徴量選択部208は、特徴量受信制御部207より供給されてくる自車の周囲に存在する他社からの特徴量のうち、必要な特徴量を選択して特徴量結合部202に出力する。すなわち、特徴量選択部208は、例えば、現在時刻から所定の時刻範囲の特徴量だけを選択し、特徴量結合部202に出力する。
また、特徴量選択部208は、他車から供給される特徴量のそれぞれに付与されている他車のDNN構造を示す情報に基づいて、自車におけるDNN構造と同一の特徴量のみを選択的に抽出し、特徴量結合部202に出力する。
特徴量結合部202は、このように特徴量選択部208より供給される特徴量と、他車のDNN構造に応じて、特徴量を結合し、大域特徴量計算部203に出力する。
ここで、特徴量結合部202は、特徴量選択部208より供給される特徴量により求められる第3特徴量と、局所特徴量計算部201より供給される第3特徴量とを、重みを用いて積和により結合する際、その重みを調整して結合するようにしてもよい。
例えば、自車と他車とのDNN構造が異なる場合については、特徴量結合部202は、他車の特徴量の重みを小さくして、自車の特徴量の重みを大きくして結合するようにしてもよい。
また、自車と他車とのDNN構造が同一である場合については、特徴量結合部202は、他車の特徴量の重みと、自車の特徴量の重みとを同一にして結合するようにしてもよい。
さらに、局所特徴量計算部201を構成する第1特徴量計算部221、第2特徴量計算部222、および第3特徴量計算部223は、それぞれポイント毎の特徴量を計算するローカル処理構造を構成する。
また、大域特徴量計算部203は、ポイントの順序が変わっても、全体として大域特徴量Rに影響しない処理を行うグローバル処理構造を構成する。
すなわち、本開示の図3の物体認識部181は、上述したポイント毎の処理を行うローカル処理構造と、ポイントの順序が変わっても処理結果に影響しないグローバル処理構造とを備え、全体としてPointNetが形成されている。
そして、本開示の図3の物体認識部181においては、ローカル処理構造により、ポイントクラウドPCにおけるポイント毎の特徴量が計算され、グローバル構造により、計算された特徴量からなる大域特徴量Rが用いられて、ポイント毎の物体認識処理がなされる。
<第1の実施の形態における物体認識処理>
次に、図4,図5のフローチャートを参照して、図3の物体認識部181による第1の実施の形態における物体認識処理について説明する。
ステップS11において、局所特徴量計算部201の第1特徴量計算部221は、データ取得部102より供給される、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ステレオカメラ、およびソナー等の周囲情報検出センサ等により検出されるポイントクラウドPCを取得する。
ステップS12において、第1特徴量計算部221は、ポイントクラウドPCより第1特徴量を計算し、第2特徴量計算部222、および特徴量抽出部205の第1特徴量抽出部281に出力する。
ステップS13において、第1特徴量抽出部281は、第1特徴量計算部221より供給される第1特徴量を抽出して、特徴量送信制御部206に出力する。これにより、特徴量送信制御部206は、供給されてきた第1特徴量に、図示せぬシステムクロックにおける現在時刻に応じたタイムスタンプを付して記憶する。
ステップS14において、第2特徴量計算部222は、第1特徴量計算部221より供給される第1特徴量を取得し、第1特徴量より第2特徴量を計算し、第3特徴量計算部223、および特徴量抽出部205の第2特徴量抽出部282に出力する。
ステップS15において、特徴量抽出部205の第2特徴量抽出部282は、第2特徴量計算部222より供給される第2特徴量を抽出して、特徴量送信制御部206に出力する。これにより、特徴量送信制御部206は、供給されてきた第2特徴量に、図示せぬシステムクロックにおける現在時刻に応じたタイムスタンプを付して記憶する。
ステップS16において、第3特徴量計算部223は、第2特徴量計算部222より供給される第2特徴量を取得し、第2特徴量より第3特徴量を計算し、局所特徴量として特徴量結合部202、および特徴量抽出部205の第3特徴量抽出部283に出力する。
ステップS17において、特徴量抽出部205の第3特徴量抽出部283は、第3特徴量計算部223より供給される第3特徴量を抽出して、特徴量送信制御部206に出力する。これにより、特徴量送信制御部206は、供給されてきた第3特徴量に、図示せぬシステムクロックにおける現在時刻に応じたタイムスタンプを付して記憶する。
ステップS18において、特徴量送信制御部206は、通信部103を制御して、周囲の他車より特徴量の要求が送信されてきたか否かを判定する。
ステップS18において、他車より特徴量の要求が送信されてきたと判定された場合、処理は、ステップS19に進む。
ステップS19において、特徴量送信制御部206は、他車より送信されてきた特徴量の要求を受信する。
ステップS20において、特徴量送信制御部206は、記憶している第1特徴量乃至第3特徴量のうち、現在時刻に最も近い時刻の第1特徴量乃至第3特徴量を選択する。
ステップS21において、特徴量送信制御部206は、通信部103を制御して、選択した現在時刻に最も近い時刻の第1特徴量乃至第3特徴量を、特徴量を要求してきた他車に向けて送信する。
このとき、特徴量送信制御部206は、自己位置推定部132により検出される自己位置の情報、および、自己の姿勢の情報を併せて、特徴量を要求してきた他車に向けて送信する。
尚、自己位置の情報、および、自己の姿勢の情報は、車両51における座標系(ローカル座標系)からなるポイントクラウドPCの各ポイントの位置情報を、グローバル座標系、または、他車のローカル座標系に変換するための情報である。
このため、ポイントクラウドPCにおける各ポイントの位置情報がグローバル座標系で表現されている場合には、自己位置の情報、および、自己の姿勢の情報は不要である。
また、ステップS18において、特徴量の送付の要求がないと判定された場合、ステップS19乃至S21の処理がスキップされ、他車に対して特徴量の送付がなされない。
ステップS22(図5)において、車両検出部182は、車車間通信等により自車の周辺の車両との通信により自車へと接近する車両(他車)を検出する。
ステップS23において、特徴量受信制御部207は、車両検出部182の検出結果に基づいて、自車から所定の距離内となる自車の近傍に他車が存在するか否かを判定する。
ステップS23において、例えば、図1で示されるように、自車である車両31-1からの所定の距離内を示す点線の範囲内に他車となる車両31-2,31-4が存在するようなとき、自車の近傍に他車が存在すると判定される。図1で示されるように、自車の近傍に他車が存在すると判定された場合、処理は、ステップS24に進む。
ステップS24において、特徴量受信制御部207は、通信部103を制御して、自車から所定の距離内の他車に対して、特徴量を送付するように送信する。
この処理により、他車における物体認識処理における、上述したステップS18において、他車からの要求が受信されることになるため、ステップS19乃至S21の処理により、他車から自車に向けて特徴量が送信されてくることになる。
そこで、ステップS25において、特徴量受信制御部207は、通信部103を制御して、他車より送信されてくる特徴量、および他車の位置、および姿勢の情報を取得し、特徴量選択部208に供給する。
ステップS26において、特徴量選択部208は、供給された特徴量のうち、タイムスタンプに付された時刻が、現在時刻に最も近い時刻の特徴量を選択して、特徴量結合部202に出力する。このとき、特徴量選択部208は、選択した特徴量を送信してきた、他車の位置や姿勢の情報も併せて特徴量結合部202に供給する。
ステップS27において、特徴量結合部202は、特徴量選択部208より供給されてきた他車から送信されてきた特徴量と、局所特徴量計算部201より送信されてきた特徴量とを結合させて、大域特徴量計算部203に出力する。
ここで、特徴量結合部202は、他車から送信されてきた特徴量のうち、第1特徴量および第2特徴量については、内蔵する第2特徴量計算部271、および第3特徴量計算部272を使用して、第3特徴量を求め、局所特徴量計算部201より供給されてくる第3特徴量を、それぞれのポイント毎に結合する。
この際、特徴量結合部202は、特徴量を送信してきた他車と自車との位置関係やDNN構造に応じて重みを設定し、重みを用いた積和により第3特徴量を結合する。また、特徴量結合部202は、他車の位置、および姿勢の情報に基づいて、自らの座標系に変換して、他車からの第3特徴量と、局所特徴量計算部201により計算された第3特徴量とを結合する。
ステップS28において、大域特徴量計算部203は、特徴量結合部より供給された第3特徴量に基づいて、例えば、Maxpoolingにより、大域特徴量Rを計算し、認識部204に出力する。
ステップS29において、認識部204は、大域特徴量Rにおけるポイント毎に物体認識処理を行い、物体認識結果を出力する。
ステップS30において、物体認識部181は、処理の終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS11(図4)に戻り、それ以降の処理が繰り返される。
また、ステップS23において、自車の所定の距離内の近傍に車両51が存在せず、他車が存在しないとみなされた場合、処理は、ステップS31に進む。
ステップS31において、特徴量結合部202は、局所特徴量計算部201により計算された第3特徴量をそのまま大域特徴量計算部203に出力する。
すなわち、自車の近傍に他車が存在しないということは、他車からの特徴量の供給がないことになるので、処理は、ステップS30に進み、自車において計算された第3特徴量のみを使った自車単独による第3特徴量のみを使った大域特徴量が計算されて、物体認識処理が行われる。
以上の一連の処理により、自車の所定の距離内となる近傍に他車が存在していた場合、他車に対して特徴量が要求されて、要求に応じて他車の物体認識処理において計算された特徴量が取得される。そして、自車において計算された特徴量と、取得された他車の特徴量とが結合され、自車と他車の特徴量が一括して使用されて物体認識処理がなされる。
結果として、他車のセンシング結果と、自車のセンシング結果とが利用されて特徴量が求められることになるので、ポイントクラウド全体のセンシング結果を用いた場合に相当する認識精度で物体認識処理を実現することが可能となる。
また、以上においては、第1特徴量、第2特徴量、および第3特徴量の3種類の特徴量を全て、他車に送信する、または、他車から送信される例について説明してきたが、他車に送信する、または、他車から送信される特徴量の種類は、そのうちの一部でもよく、例えば、第1特徴量、第2特徴量、および第3特徴量の3種類のうちの、いずれか、または、そのうちの2つの組み合わせであってもよい。
また、送受信される特徴量は、通信負荷に応じて、ランダムサンプリングされることにより、データ量が制限されるようにして、データ量を低減するようにしてもよい。
さらに、以上においては、自車の近傍の他車から特徴量を取得して、自らの特徴量と結合して物体認識処理がなされる例について説明してきたが、ポイントクラウドにより特徴量を求めることができれば、自車の近傍の車両以外でもよく、例えば、道端に設けられたLiDARやステレオカメラなどにより取得されるポイントクラウドに基づいて計算される特徴量を要求して取得し、自車で計算した特徴量と結合して、物体認識処理を実行するようにしてもよい。
すなわち、自車以外の特徴量は、以上において説明してきたV2V通信のみならず、V2X通信により、車両以外のものから取得されるようにしてもよい。
また、物体認識処理においては、取得する特徴量が多い程、物体認識精度を高くすることができるので、自車の近傍により多くの他車が存在し、より多くの他車から特徴量を取得することで、物体認識精度を、さらに向上させることが可能となる。
さらに、ポイントクラウドPCは、LiDAR、ステレオカメラ、およびデプス画像などいずれのものであってもよいので、本開示の物体認識部181においては、センサフュージョンを容易に実現することが可能となる。
また、入力となるポイントクラウドPCは、点群情報が形成される限り、様々な形態でもよく、例えば、3次元の点群情報でもよいし、2次元の点群情報でもよい。
<<3.第1の実施の形態の変形例>>
以上においては、自車の近傍に他車が存在する場合、他車から特徴量の要求があるときには、特徴量を送信すると共に、自らも特徴量を要求し、他車からの特徴量を取得して、自車の特徴量と他車の特徴量とが結合されて一括して物体認識処理が行われる例について説明してきたが、他車に要求する特徴量の条件を設定し、設定した条件に合った特徴量だけを他車から取得できるようにしてもよい。
すなわち、例えば、自車のDNN構造と他車のDNN構造とが異なる場合、すなわち、第1特徴量計算部221、第2特徴量計算部222、および第3特徴量計算部223の計算に係る重み係数等が異なるような場合について考える。
このような場合、自車と他車とで求められる特徴量は、同一の条件下で計算されたものではないので、両者を結合して物体認識を行っても必ずしも認識精度を向上させることができない可能性がある。
そこで、自車から他車へ特徴量を要求する際、要求する特徴量の条件として、自車のDNN構造(特徴量を計算する際の重み係数の値等)の情報が併せて送信されるようにする。そして、特徴量の要求を受信した他車においては、DNN構造が一致する、条件を満たす場合にのみ、要求に応じて特徴量を送信する。
このようにすることで、自らのDNN構造と同一のDNN構造からなる条件を満たす特徴量だけが他車から送信されることになるので、同一のDNN構造により計算された、自車と他車との特徴量が結合されて、物体認識処理がなされるので、物体認識精度を向上させることが可能となる。
尚、以上においては、特徴量の条件がDNN構造である場合について説明してきたが、他の条件であってもよく、例えば、第1特徴量、第2特徴量、および第3特徴量のうちのいずれか1または2を特定する情報や、特徴量が計算されたタイミングを示す時刻範囲の情報でもよい。また、特徴量の条件としては、自車の視野外に存在する他車からの特徴量に限定するようなものでもよいし、自車の後方に存在する他車の特徴量を除外するような条件や、自車に対向する他車の特徴量だけに限定するようなものでもよい。
ここで、図6,図7のフローチャートを参照して、自車から他車に特徴量を要求する場合、他車に要求する特徴量の条件を設定して要求し、他車においては、設定された条件に合った特徴量のみ、特徴量を送信するようにする場合の物体認識処理について説明する。
尚、図6,図7のフローチャートにおけるステップS51乃至S58、およびステップS64,S65,S71乃至S74の処理は、図4,図5のフローチャートにおけるステップS11乃至S18、およびステップS28乃至S31の処理と同一であるので、その説明は省略する。
すなわち、ステップS58において、特徴量の送付の要求が送信されてきたと判定された場合、処理は、ステップS59に進む。
ステップS59において、特徴量送信制御部206は、他車より送信されてきた特徴量の要求を、特徴量の条件と共に受信する。
ステップS60において、特徴量送信制御部206は、条件に合った特徴量があるか否かを判定する。
ステップS60において、条件に合った特徴量がある場合、処理は、ステップS61に進む。
ステップS61において、特徴量送信制御部206は、記憶している第1特徴量乃至第3特徴量のうち、条件の合った特徴量を選択する。
ステップS62において、特徴量送信制御部206は、通信部103を制御して、選択した、条件に合った特徴量を、特徴量を要求してきた他車に向けて送信する。このとき、特徴量送信制御部206は、自己位置推定部132により検出される自己位置の情報、および、自己の姿勢の情報を併せて、特徴量を要求してきた他車に向けて送信する。
尚、ステップS60において、条件に合った特徴量がない場合、処理は、ステップS63に進む。
ステップS63において、特徴量送信制御部206は、通信部103を制御して、条件に合った特徴量がないことを示す旨の通知を、特徴量を要求してきた他車に向けて送信する。
以上の処理により、他車から特徴量が要求された場合、要求と共に受信された条件に合った特徴量があるときには、条件に合った特徴量が他車に送信され、条件に合った特徴量がない場合には、条件に合った特徴量がないことが通知される。
また、自車の近傍に他車が存在する場合、ステップS66(図7)において、特徴量受信制御部207は、通信部103を制御して、自車から所定の距離内の近傍の他車に対して、特徴量の条件の情報と共に、特徴量を要求する通知を送信する。
ステップS67において、特徴量受信制御部207は、特徴量を要求した他車から条件に合った特徴量がないことを示す通知が送信されてきたか否かを判定する。
ステップS67において、例えば、特徴量を要求した他車から条件に合った特徴量が送信されてきた場合、特徴量を要求した他車から条件に合った特徴量がないことを示す通知が送信されないことになるので、処理は、ステップS68に進む。
ステップS68において、特徴量受信制御部207は、通信部103を制御して、他車より送信されてくる条件に合った特徴量、および他車の位置、および姿勢の情報を取得し、特徴量選択部208に供給する。
ステップS69において、特徴量選択部208は、条件に合った特徴量のうち、タイムスタンプに付された時刻のうち、現在時刻に最も近い時刻の特徴量を選択して、特徴量結合部202に出力する。このとき、特徴量選択部208は、選択した特徴量を送信してきた、他車の位置や姿勢の情報も併せて特徴量結合部202に供給する。
ステップS70において、特徴量結合部202は、特徴量選択部208より供給されてきた他車から送信されてきた条件に合った特徴量と、局所特徴量計算部201より送信されてきた自車の特徴量とを結合させて、大域特徴量計算部203に出力する。
また、ステップS67において、例えば、特徴量を要求した他車から条件に合った特徴量がないことを示す通知が送信されてきた場合、処理は、ステップS74に進む。
すなわち、この場合、条件に合った特徴量がないことが通知されて、特徴量が送信されてこないので、自らの局所特徴量計算部201により計算された特徴量のみを使用して物体認識処理を実行する。
ただし、自車の近傍に複数の他車が存在している場合については、条件に合った特徴量を送信してきた他車からの特徴量のみを受信し、物体認識処理に使用する。
以上の処理により、条件を満たす特徴量だけが他車から送信されることにより、条件にあった特徴量のみで自車と他車とで計算された特徴量が結合されて物体認識処理がなされるので、物体認識精度を向上させることが可能となる。
尚、以上においては、車両51が、近傍に存在する他車に対して、要求する特徴量の条件と併せて、他車に対して特徴量を要求し、要求を受けた他車が、条件に合った特徴量があれば送信し、条件に合った特徴量がなければ、条件に合った特徴量がないことを通知する例について説明してきた。
しかしながら、車両51は、近傍に他車が存在する場合、近傍の他車に対して特徴量を要求し、要求を受けた他車は、条件とは無関係に、特徴量を送信し、特徴量を要求した車両51が、受信した特徴量のうち、条件に合うものを選択して使用し、それ以外の特徴量については破棄するようにしてもよい。
<<4.第2の実施の形態>>
<物体認識部の第2の構成例>
以上においては、物体認識部181が、PointNetにより構成される例について説明してきたが、DNN構造が実現される構成であれば、他の構成でもよく、例えば、PointNet++により構成されるようにしてもよい。
ここで、PointNet++とは、PointNetと同様、点群情報を入力とし、入力された点群情報に基づいて、所定の処理結果を出力するニューラルネットワークをいう。
図8は、PointNet++により構成されるようにした、物体認識部181の第2の構成例を示す図である。
図8の物体認識部181は、局所特徴量計算部301、特徴量結合部302、大域特徴量計算部303、認識部304、特徴量抽出部305、特徴量送信制御部306、特徴量受信制御部307、および特徴量選択部308を備えている。
局所特徴量計算部301は、ポイントクラウドPCにおけるポイント毎の局所特徴量を段階的に計算するものであり、第1特徴量計算部321、第2特徴量計算部322、および第3特徴量計算部323を備えている。
第1特徴量計算部321は、ポイントクラウドPCを構成するポイントのうち、複数のポイントからなるグループ単位で、第1段階の特徴量である第1特徴量を計算し、第2特徴量計算部322、特徴量結合部302の第1特徴量結合部341、および特徴量抽出部305の第1特徴量抽出部381に出力する。
尚、ここで、第1特徴量計算部321により第1特徴量が求められる単位であるグループを第1階層グループと称する。
第2特徴量計算部322は、第1特徴量計算部321により求められた第1特徴量のうち、複数の第1特徴量からなるグループ単位で、第2段階の特徴量である第2特徴量を計算して、第3特徴量計算部323、特徴量結合部302の第2特徴量結合部342、および特徴量抽出部305の第2特徴量抽出部382に出力する。
尚、ここで、第2特徴量計算部322により第2特徴量が求められる単位であるグループを第2階層グループと称する。
第3特徴量計算部323は、第2特徴量計算部322により求められた第2特徴量のうち、複数の第2特徴量からなるグループ単位で、第3段階の特徴量である第3特徴量を計算して、特徴量結合部302の第3特徴量結合部343、および特徴量抽出部305の第3特徴量抽出部383に出力する。
尚、ここで、第3特徴量計算部323により第3特徴量が求められる単位であるグループを第3階層グループと称する。
特徴量結合部302は、通信部103、特徴量受信制御部307、および特徴量選択部308を介して他車より供給される第1特徴量、第2特徴量、および第3特徴量と、局所特徴量計算部301より供給される第1特徴量、第2特徴量、および第3特徴量とをそれぞれ結合させて大域特徴量計算部303に出力する。
より詳細には、特徴量結合部302は、第1特徴量結合部341、第2特徴量結合部342、および第3特徴量結合部343を備えている。
第1特徴量結合部341は、第1特徴量計算部321より供給される第1特徴量と、特徴量選択部308より供給される他車より供給される第1特徴量とを結合させて、大域特徴量計算部303の第2特徴量計算部362に出力する。
第2特徴量結合部342は、第2特徴量計算部322より供給される第2特徴量と、特徴量選択部308より供給される他車より供給される第2特徴量とを結合させて、大域特徴量計算部303の第3特徴量計算部361に出力する。
第3特徴量結合部343は、第3特徴量計算部323より供給される第3特徴量と、特徴量選択部308より供給される他車より供給される第3特徴量とを結合させて、大域特徴量計算部303の第3特徴量計算部361に出力する。
大域特徴量計算部303は、特徴量結合部202より供給される第1特徴量、第2特徴量、および第3特徴量に基づいて、各ポイントにおける大域特徴量Rを計算し出力する。
より詳細には、大域特徴量計算部303は、第3特徴量計算部361、第2特徴量計算部362、および第1特徴量計算部363を備えている。
第3特徴量計算部361は、第3特徴量結合部343より供給される第3特徴量と、第2特徴量結合部342より供給される第2特徴量とに基づいて、第2階層グループ単位の点群からなる特徴量を復元し、復元結果を第2階層グループ単位の大域特徴量として第2特徴量計算部362に出力する。
より詳細には、第3特徴量計算部361は、第3特徴量結合部343より供給される第3特徴量を、第2特徴量結合部342より供給される第2階層グループ単位の第2特徴量を用いて拡張し、第2階層グループ単位の点群の特徴量である第2特徴量として復元する。そして、第3特徴量計算部361は、復元結果を第2階層グループ単位の大域特徴量Rとして第2特徴量計算部362に出力する。
第2特徴量計算部362は、第3特徴量計算部361より供給される、第2階層グループ単位の大域特徴量Rと、第1特徴量結合部341より供給される第1特徴量とに基づいて、第1階層グループ単位の特徴量を復元し、復元結果を第1階層グループ単位の大域特徴量Rとして第1特徴量計算部363に出力する。
より詳細には、第2特徴量計算部362は、第3特徴量計算部361より供給される第2特徴量を、第1特徴量結合部341より供給される第1階層グループ単位の第1特徴量を用いて拡張し、第1階層グループ単位の点群の特徴量である第1特徴量として復元する。そして、第2特徴量計算部362は、復元結果を第1階層グループ単位の大域特徴量Rとして第1特徴量計算部363に出力する。
第1特徴量計算部363は、第2特徴量計算部362より供給される、第1階層グループ単位の大域特徴量Rと、ポイントクラウドPCとに基づいて、各ポイント単位の特徴量を復元し、復元結果を物体の大域特徴量Rとして認識部304に出力する。認識部304は、大域特徴量Rに基づいた物体認識処理を実行し、物体認識結果を出力する。
より詳細には、第1特徴量計算部363は、第2特徴量計算部362より供給される第1特徴量を、ポイントクラウドPCを用いて拡張し、ポイント単位の点群の特徴量に基づいた大域特徴量Rとして復元する。そして、第1特徴量計算部363は、復元結果をポイント単位の大域特徴量Rとして認識部304に出力する。
すなわち、本開示の図8の物体認識部181においては、局所特徴量計算部301と大域特徴量計算部303とにより、DNNによるPointNet++が形成されている。
すなわち、局所特徴量計算部301における、第1特徴量計算部321、第2特徴量計算部322、および第3特徴量計算部323は、実質的にDNN(Deep Neural Network)における入力層、隠れ層、および出力層を構成している。
このため、図8の局所特徴量計算部301は、第1特徴量計算部321乃至第3特徴量計算部323のように3段階の階層構造により特徴量を求める構成としているが、入力層と出力層に対応する少なくとも2階層以上の階層構造であれば、階層数は2または3以外であってもよい。
そして、局所特徴量計算部301と大域特徴量計算部303は、例えば、ポイントクラウドである位置(x,y,z)および色(r,g,b)を入力とし、セマンティックセグメンテーションラベルを正解とした学習(バックプロパゲーション:backpropagation)がなされている。
特徴量抽出部305は、局所特徴量計算部301の計算結果である特徴量を抽出して特徴量送信制御部306に供給する。
より詳細には、特徴量抽出部305は、第1特徴量抽出部381、第2特徴量抽出部382、および第3特徴量抽出部383を備えている。
第1特徴量抽出部381は、局所特徴量計算部301の第1特徴量計算部351の計算結果である第1特徴量を抽出して特徴量送信制御部306に出力する。
第2特徴量抽出部382は、局所特徴量計算部301の第2特徴量計算部352の計算結果である第2特徴量を抽出して特徴量送信制御部306に出力する。
第3特徴量抽出部383は、局所特徴量計算部301の第3特徴量計算部353の計算結果である第3特徴量を抽出して特徴量送信制御部306に出力する。
特徴量送信制御部306は、自車の周囲の他車より特徴量の要求があったとき、通信部103を制御して、要求のあった他車に対して、例えば、車車間通信等により抽出された第1特徴量乃至第3特徴量を送信する。
このとき、特徴量送信制御部306は、特徴量のそれぞれについて第1特徴量、第2特徴量、および第3特徴量のいずれであるかを識別する情報を付加して送信する。
また、特徴量送信制御部306は、自車の局所特徴量計算部301のDNN(Deep Neural Network)構造を示す情報を付加して特徴量を送信する。
特徴量受信制御部307は、自車の近傍に他車が存在する場合、通信部103を制御して自車の近傍の他車に対して特徴量の送付を要求すると共に、要求に応じて他車から送信されてくる特徴量を取得して特徴量選択部308に供給する。
特徴量選択部308は、特徴量受信制御部307より供給されてくる自車の周囲に存在する他社からの特徴量のうち、例えば、現在時刻から所定の時刻範囲の特徴量だけを抽出し、特徴量結合部302に出力する。
また、特徴量選択部308は、他車から供給される特徴量のそれぞれに付与されている他車のDNN構造を示す情報に基づいて、自車におけるDNN構造と同一の特徴量のみを選択的に抽出し、特徴量結合部302に出力する。
より詳細には、特徴量選択部308は、選択した特徴量のうち、第1特徴量を特徴量結合部302の第1特徴量結合部341に、第2特徴量を第2特徴量結合部342に、第3特徴量を第3特徴量結合部343にそれぞれ出力する。
特徴量結合部302の第1特徴量結合部341、第2特徴量結合部342、および第3特徴量結合部343は、それぞれ、特徴量選択部308より供給される第1特徴量、第2特徴量、および第3特徴量と、他車のDNN構造に応じて、第1特徴量、第2特徴量、および第3特徴量とをそれぞれ結合する際、重みを調整するようにしてもよい。
すなわち、自車と他車とのDNN構造が異なる場合については、特徴量結合部202は、他車の特徴量の重みを小さくして、自車の特徴量の重みを大きくして結合するようにしてもよい。
また、自車と他車とのDNN構造が同一である場合については、特徴量結合部202は、他車の特徴量の重みと、自車の特徴量の重みとを同一にして結合する。
また、局所特徴量計算部301を構成する第1特徴量計算部351、第2特徴量計算部352、および第3特徴量計算部353は、それぞれポイントクラウドPCにおけるポイントを基準とした、第1階層グループ、第2階層グループ、および第3階層グループのそれぞれのグループ毎の特徴量を計算するローカル処理構造を構成する。
さらに、大域特徴量計算部303は、ポイントの順序が変わっても、全体として大域特徴量Rに影響しない処理を行うグローバル処理構造を構成する。
すなわち、本開示の図8の物体認識部181は、上述したポイント毎の処理を行うローカル処理構造と、ポイントの順序が変わっても処理結果に影響しないグローバル処理構造とを備え、全体としてPointNet++が形成されている。
そして、本開示の図8の物体認識部181においては、ローカル処理構造によりポイントクラウドPCにおけるポイントを基準とした、第1階層グループ、第2階層グループ、および第3階層グループのそれぞれのグループ毎の処理により特徴量が計算される、グローバル処理構造による処理がなされる。
<第2の実施の形態における物体認識処理>
次に、図9,図10のフローチャートを参照して、図8の物体認識部181による第2の実施の形態における物体認識処理について説明する。
ステップS91において、局所特徴量計算部201の第1特徴量計算部221は、データ取得部102より供給されるステレオカメラやLiDAR等により得られるポイントクラウドPCを取得する。
ステップS92において、第1特徴量計算部321は、ポイントクラウドPCより第1階層グループ単位の特徴量である第1特徴量を計算し、第2特徴量計算部322、特徴量結合部302の第1特徴量結合部341、および特徴量抽出部305の第1特徴量抽出部381に出力する。
ステップS93において、第1特徴量抽出部381は、第1特徴量計算部321より供給される第1特徴量を抽出して、特徴量送信制御部306に出力する。これにより、特徴量送信制御部306は、供給されてきた第1特徴量に、図示せぬシステムクロックにおける現在時刻に応じたタイムスタンプを付して記憶する。
ステップS94において、第2特徴量計算部322は、第1特徴量計算部321より供給される第1特徴量を取得し、第1特徴量より第2階層グループ単位の特徴量である第2特徴量を計算し、第3特徴量計算部323、特徴量結合部302の第2特徴量結合部342、および特徴量抽出部305の第2特徴量抽出部382に出力する。
ステップS95において、特徴量抽出部305の第2特徴量抽出部382は、第2特徴量計算部322より供給される第2特徴量を抽出して、特徴量送信制御部306に出力する。これにより、特徴量送信制御部306は、供給されてきた第2特徴量に、図示せぬシステムクロックにおける現在時刻に応じたタイムスタンプを付して記憶する。
ステップS96において、第3特徴量計算部323は、第2特徴量計算部322より供給される第2特徴量を取得し、第2特徴量より第3階層グループ単位の特徴量である第3特徴量を計算し、特徴量結合部302の第3特徴量結合部343、および特徴量抽出部305の第3特徴量抽出部383に出力する。
ステップS97において、特徴量抽出部305の第3特徴量抽出部383は、第3特徴量計算部323より供給される第3特徴量を抽出して、特徴量送信制御部306に出力する。これにより、特徴量送信制御部306は、供給されてきた第3特徴量に、図示せぬシステムクロックにおける現在時刻に応じたタイムスタンプを付して記憶する。
ステップS98において、特徴量送信制御部306は、通信部103を制御して、周囲の他車より特徴量の要求が送信されてきたか否かを判定する。
ステップS98において、他車より特徴量の要求が送信されてきたと判定された場合、処理は、ステップS99に進む。
ステップS99において、特徴量送信制御部306は、他車より送信されてきた特徴量の要求を受信する。
ステップS100において、特徴量送信制御部306は、記憶している第1特徴量乃至第3特徴量のうち、現在時刻に最も近い時刻の第1特徴量乃至第3特徴量を選択する。
ステップS101において、特徴量送信制御部306は、通信部103を制御して、選択した現在時刻に最も近い時刻の第1特徴量乃至第3特徴量を、特徴量を要求してきた他車に向けて送信する。このとき、特徴量送信制御部306は、自己位置推定部132により検出される自己位置の情報、および、自己の姿勢の情報を併せて、特徴量を要求してきた他車に向けて送信する。
尚、ステップS98において、特徴量の送付の要求がないと判定された場合、ステップS99乃至S101の処理がスキップされ、他車に対して特徴量の送付がなされない。
ステップS102(図10)において、車両検出部182は、車車間通信等により自車の周辺に車両との通信により自車の周辺の車両(他車)との通信により自車へと接近する車両を検出する。
ステップS103において、特徴量受信制御部307は、車両検出部182の検出結果に基づいて、自車から所定の距離内である近傍に他車が存在するか否かを判定する。
ステップS103において、自車の近傍に他車が存在すると判定された場合、処理は、ステップS104に進む。
ステップS104において、特徴量受信制御部307は、通信部103を制御して、自車の近傍の他車に対して、特徴量を送付するように送信する。
この処理により、他車における物体認識処理において、上述したステップS98において、他車からの要求が受信されることになるため、ステップS99乃至S101の処理により、他車から自車に向けて特徴量が送信されてくることになる。
そこで、ステップS105において、特徴量受信制御部307は、通信部103を制御して、他車より送信されてくる特徴量、および他車の位置、および姿勢の情報を取得し、特徴量選択部308に供給する。
ステップS106において、特徴量選択部308は、供給された特徴量のうち、タイムスタンプに付された時刻のうち、現在時刻に最も近い時刻の特徴量を選択して、特徴量結合部302に出力する。このとき、特徴量選択部308は、選択した特徴量を送信してきた、他車の位置や姿勢の情報も併せて特徴量結合部302に供給する。
より詳細には、特徴量選択部308は、供給された特徴量のうち、第1特徴量を第1特徴量結合部341に出力し、第2特徴量を第2特徴量結合部342に出力し、第3特徴量を第3特徴量結合部343にそれぞれ出力する。
ステップS107において、特徴量結合部302の第1特徴量結合部341は、特徴量選択部308より供給されてきた他車から送信されてきた第1特徴量と、局所特徴量計算部301の第1特徴量計算部321より送信されてきた第1特徴量とを結合させて、大域特徴量計算部303の第2特徴量計算部362に出力する。
また、特徴量結合部302の第2特徴量結合部342、および第3特徴量結合部343は、それぞれ特徴量選択部308より供給されてきた他車から送信されてきた第2特徴量、および第3特徴量と、第2特徴量計算部322、および第3特徴量計算部323より送信されてきた第2特徴量、および第3特徴量とをそれぞれ結合させて、大域特徴量計算部303の第3特徴量計算部361に出力する。
この際、特徴量結合部302の第1特徴量結合部341、第2特徴量結合部342、および第3特徴量結合部343は、それぞれ特徴量を送信してきた他車と自車との位置関係やDNN構造に応じて重みを設定し、重みを用いた積和により第1特徴量、第2特徴量、および第3特徴量をそれぞれ結合する。
ステップS108において、大域特徴量計算部303の第3特徴量計算部361は、第3特徴量結合部343より供給される第3特徴量に基づいて、第3階層グループ単位の大域特徴量Rを計算し、第2特徴量結合部342より供給される第2特徴量により第2階層グループ単位の特徴量に拡張し、第2階層グループ単位の大域特徴量Rとして、第2特徴量計算部362に出力する。
ステップS109において、大域特徴量計算部303の第2特徴量計算部362は、第3特徴量計算部361より供給される第2階層グループ単位の大域特徴量Rを、第1特徴量結合部341より供給される第1特徴量により、第1階層グループ単位の特徴量に拡張し、第1階層グループ単位の大域特徴量Rとして第1特徴量計算部363に出力する。
ステップS110において、大域特徴量計算部303の第1特徴量計算部363は、第2特徴量計算部362より供給される第1階層グループ単位の大域特徴量Rを、ポイントクラウドPCにより、ポイントクラウドPCにおけるポイント単位の特徴量に拡張し、ポイント単位の大域特徴量Rとして認識部304に出力する。
ステップS111において、認識部304は、ポイント単位の大域特徴量Rにおけるポイント毎に物体認識処理を行い、物体認識結果を出力する。
ステップS112において、物体認識部181は、処理の終了が指示されたか否かを判定し、終了が指示されない場合、処理は、ステップS91(図9)に戻り、それ以降の処理が繰り返される。
また、ステップS103において、自車の所定の距離内の近傍に車両が存在せず、他車が存在しないとみなされた場合、処理は、ステップS113に進む。
ステップS113において、特徴量結合部302の第1特徴量結合部341、第2特徴量結合部342、および第3特徴量結合部343は、それぞれ局所特徴量計算部301の第1特徴量計算部321、第2特徴量計算部322、および第3特徴量計算部323のそれぞれにより計算された第1特徴量、第2特徴量、および第3特徴量をそのまま大域特徴量計算部303の第3特徴量計算部361、および第2特徴量計算部362に出力する。
すなわち、自車の近傍に他車が存在しないということは、他車からの特徴量の供給がないことになるので、処理は、ステップS112に進み、計算された第1特徴量、第2特徴量、および第3特徴量のみを使った自車単独による第1特徴量、第2特徴量、および第3特徴量を使った物体認識処理が行われる。
以上の一連の処理により、図8で示されるようなPointNet++により構成される物体認識部181においても、自車の所定の距離内となる近傍に他車が存在していた場合、他車に対して特徴量が要求されて、要求に応じて他車の物体認識処理において計算された特徴量が取得される。そして、自車において計算された特徴量と、取得された他車の特徴量とが結合されることで、他車により求められた特徴量とが併せられた一括した物体認識処理により物体が認識される。
結果として、他車のセンシング結果と、自車のセンシング結果とが利用されて特徴量が求められることになるので、ポイントクラウド全体のセンシング結果を用いた場合に相当する認識精度で物体認識処理を実現することが可能となる。
尚、図8の物体認識部181においても、図3の物体認識部181における変形例と同様に、特徴量を他車に要求する際に、特徴量の条件を併せて送信し、条件に合った特徴量だけを他車より送信させてもよいし、条件を付けることなく特徴量を要求し、受信した特徴量から条件に合ったものだけを選択して、それ以外を破棄してもよい。
第2の実施の形態における変形例については、第1の実施の形態の変形例における物体認識処理と同様に、第2の実施の形態に対して、特徴量を他車に要求する際に、特徴量の条件を併せて送信し、条件に合った特徴量だけを他車より送信される点が異なるのみであり、その点の説明については同様であるので、その説明は省略する。
また、図8の物体認識部181における局所特徴量計算部301の第1特徴量計算部321、第2特徴量計算部322、および第3特徴量計算部323は、階層毎のグループ単位で特徴量が求められるため、第1特徴量、第2特徴量、および第3特徴量の順に求められる特徴量の情報量が小さくなる。このため、特徴量を他車から取得する場合、階層が上位となる特徴量を選択的に送受信させるようにすることで、車車間通信の通信負荷を低減させて、高速の通信を実現させることが可能となる。
すなわち、他車に対して特徴量を要求する際、例えば、第1特徴量のみを要求するよりも第2特徴量のみを要求することで、取得する特徴量の情報量を小さくすることができ、通信負荷を低減させ、特徴量の取得に係る処理を高速化することが可能となる。
さらに、他車に対して特徴量を要求する際、第2特徴量のみを要求するよりも第3特徴量のみを要求することで、さらに、通信負荷を低減させることができ、特徴量の取得に係る処理を、さらに高速化することが可能となる。
<<5.ソフトウェアにより実行させる例>>
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、記録媒体からインストールされる。
図11は、汎用のコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェース1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタフェース1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブル記憶媒体1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブル記憶媒体1011ら読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記憶媒体1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記憶媒体1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
尚、図11におけるCPU1001が、図3,図8の物体認識部181の機能を実現させる。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
尚、本開示は、以下のような構成も取ることができる。
<1> 複数の階層のそれぞれにおいて、物体認識に用いる特徴量を段階的に計算する特徴量計算部と、
前記特徴量計算部と異なる他の特徴量計算部により計算された前記物体認識に用いる特徴量を取得する取得部と、
計算された特徴量と、取得された特徴量とに基づいて、前記物体認識を行う認識部と
を備える情報処理装置。
<2> 前記特徴量計算部は移動体に設けられ、前記他の特徴量計算部は前記移動体とは異なる他の移動体に設けられる
<1>に記載の情報処理装置。
<3> 前記認識部は、前記特徴量計算部において2以上の段階的に計算された複数の階層の特徴量に基づいて、前記物体認識を行う
<1>または<2>に記載の情報処理装置。
<4> 前記取得部は、前記他の特徴量計算部において段階的に計算された複数の階層の特徴量のうち、2以上の階層の特徴量を取得する
<1>または<2>に記載の情報処理装置。
<5> 前記取得部は、前記他の特徴量計算部により計算された複数の階層の特徴量のうち、特定の階層の特徴量を取得する
<1>または<2>に記載の情報処理装置。
<6> 前記取得部は、前記他の特徴量計算部により計算された特徴量のうち、前記特徴量計算部と同一のニューラルネットワーク構造を持つ階層の、前記他の特徴量計算部により計算された特徴量を取得する
<2>に記載の情報処理装置。
<7> 前記移動体と、前記他の移動体との距離が所定の距離内であるとき、前記取得部は、前記他の移動体に対して、前記特徴量計算部と同一のニューラルネットワーク構造を持つ階層の、前記他の特徴量計算部により計算された特徴量を要求し、
前記取得部は、前記特徴量の要求に応じて、前記他の移動体より送信されてくる、前記他の特徴量計算部により計算された特徴量のうち、前記特徴量計算部と同一のニューラルネットワーク構造を持つ階層の、前記他の特徴量計算部により計算された特徴量を取得する
<6>に記載の情報処理装置。
<8> 前記取得部は、前記他の移動体に対して、前記特徴量計算部と同一のニューラルネットワーク構造を持つ階層の、前記他の特徴量計算部により計算された特徴量を要求し、前記特徴量の要求に応じて、前記他の移動体より送信されてくる、前記他の特徴量計算部により計算された特徴量のうち、前記特徴量計算部と同一のニューラルネットワーク構造を持つ階層の、前記他の特徴量計算部により計算された特徴量を取得する
<7>に記載の情報処理装置。
<9> 前記取得部は、前記他の移動体に対して、前記他の特徴量計算部により計算された特徴量を要求し、前記特徴量の要求に応じて、前記他の移動体より送信されてくる、前記他の特徴量計算部により計算された特徴量のうち、前記特徴量計算部と同一のニューラルネットワーク構造を持つ階層の、前記他の特徴量計算部により計算された特徴量を抽出して取得し、前記特徴量計算部と同一のニューラルネットワーク構造を持たない階層の、前記他の特徴量計算部により計算された特徴量を破棄する
<7>に記載の情報処理装置。
<10> 計算された特徴量と、取得された特徴量とを結合する結合部と、
前記結合部により結合された特徴量に基づいて、大域特徴量を計算する大域特徴量計算部とをさらに含み、
前記認識部は、前記大域特徴量計算部により計算された特徴量に基づいて、前記物体認識を行う
<1>乃至<9>のいずれかに記載の情報処理装置。
<11> 前記特徴量計算部と、前記大域特徴量計算部とにおいて、
前記結合部は、前記特徴量計算部により段階的に計算された最終階層の特徴量と、前記他の特徴量計算部により段階的に計算された最終階層の特徴量とを結合し、
前記大域特徴量計算部は、計算された最終階層の特徴量と、取得された最終階層の特徴量とが前記結合部により結合された特徴量に基づいて、前記大域特徴量を計算する
<10>に記載の情報処理装置。
<12> 前記特徴量計算部と、前記大域特徴量計算部とは、PointNet構造を形成する
<11>に記載の情報処理装置。
<13> 前記特徴量計算部と、前記大域特徴量計算部とにおいて、
前記結合部は、前記特徴量計算部により段階的に計算された階層毎の特徴量と、前記他の特徴量計算部により段階的に計算された階層毎の特徴量とを、前記階層毎に結合し、
前記大域特徴量計算部は、前記計算された階層毎の特徴量と、取得された階層毎の特徴量とが前記結合部により前記階層毎に結合された特徴量に基づいて、前記大域特徴量を計算する
<10>に記載の情報処理装置。
<14> 前記特徴量計算部と、前記大域特徴量計算部とは、PointNet++構造を形成する
<13>に記載の情報処理装置。
<15> 前記特徴量計算部は、ポイントクラウドからなる入力情報におけるポイント毎のローカル処理を行うローカル処理構造からなり、前記複数の階層のそれぞれにおいて、前記物体認識に用いる特徴量を段階的に計算し、
前記大域特徴量計算部は、前記ポイントの順番に影響されないグローバル処理を行うグローバル処理構造からなり、前記特徴量計算部により計算された特徴量と、取得された特徴量とに基づいて、前記大域特徴量を計算する
<10>に記載の情報処理装置。
<16> 特徴量計算部と、
取得部と、
認識部と
を備えた情報処理装置の情報処理方法であって、
前記特徴量計算部が、複数の階層のそれぞれにおいて、物体認識に用いる特徴量を段階的に計算し、
前記取得部が、前記特徴量計算部とは異なる他の特徴量計算部により計算された前記物体認識に用いる特徴量を取得し、
前記認識部が、計算された特徴量と、取得された特徴量とに基づいて、前記物体認識を行う
ステップを含む情報処理方法。
<17> 複数の階層のそれぞれにおいて、物体認識に用いる特徴量を段階的に計算する特徴量計算部と、
前記特徴量計算部と異なる他の特徴量計算部により計算された前記物体認識に用いる特徴量を取得する取得部と、
計算された特徴量と、取得された特徴量とに基づいて、前記物体認識を行う認識部と
してコンピュータを機能させるプログラム。
11 物体認識システム, 31,51 車両, 141 車外情報検出部, 181 物体認識部, 182 車両検出部, 201 局所特徴量計算部, 202 特徴量結合部, 203 大域特徴量計算部, 204 認識部, 205 特徴量抽出部, 206 特徴量送信制御部, 207 特徴量受信制御部, 208 特徴量選択部, 221 第1特徴量計算部, 222 第2 特徴量計算部, 223 第3特徴量計算部, 271 第2特徴量計算部, 272 第3特徴量計算部, 281 第1特徴量抽出部, 282 第2特徴量抽出部, 283 第3特徴量抽出部, 301 特徴量計算部, 302 特徴量結合部, 303 大域特徴量計算部, 304 認識部, 305 特徴量抽出部, 306 特徴量送信制御部, 307 特徴量受信制御部, 308 特徴量選択部, 321 第1特徴量計算部, 322 第2 特徴量計算部, 323 第3特徴量計算部, 361 第3特徴量計算部, 362 第2特徴量計算部, 363 第1特徴量計算部, 381 第1特徴量抽出部, 382 第2特徴量抽出部, 383 第3特徴量抽出部

Claims (17)

  1. 周囲情報検出センサにより検出されたセンシング結果に基づいて、複数の階層のそれぞれにおいて、物体認識に用いる特徴量を段階的に計算する特徴量計算部と、
    前記周囲情報検出センサと異なる他の周囲情報検出センサにより検出された他のセンシング結果に基づいて、前記特徴量計算部と異なる他の特徴量計算部により計算された前記物体認識に用いる、前記特徴量と異なる他の特徴量を取得する取得部と、
    前記特徴量と、前記他の特徴量とに基づいて、前記物体認識を行う認識部とを備え
    前記周囲情報検出センサと前記他の周囲情報検出センサとは、それぞれ異なる物体に設けられる
    情報処理装置。
  2. 前記周囲情報検出センサおよび前記特徴量計算部は移動体に設けられ、前記他の周囲情報検出センサおよび前記他の特徴量計算部は前記移動体とは異なる他の移動体に設けられる
    請求項1に記載の情報処理装置。
  3. 前記認識部は、前記特徴量計算部において2以上の段階的に計算された複数の階層の特徴量に基づいて、前記物体認識を行う
    請求項1に記載の情報処理装置。
  4. 前記取得部は、前記他の特徴量計算部において段階的に計算された複数の階層の特徴量のうち、2以上の階層の特徴量を前記他の特徴量として取得する
    請求項1に記載の情報処理装置。
  5. 前記取得部は、前記他の特徴量計算部により計算された複数の階層の特徴量のうち、特定の階層の特徴量を前記他の特徴量として取得する
    請求項1に記載の情報処理装置。
  6. 前記取得部は、前記他の特徴量計算部により計算された特徴量のうち、前記特徴量計算部と同一のニューラルネットワーク構造を持つ階層の、前記他の特徴量計算部により計算された特徴量を前記他の特徴量として取得する
    請求項2に記載の情報処理装置。
  7. 前記移動体と、前記他の移動体との距離が所定の距離内であるとき、前記取得部は、前記他の移動体に対して、前記特徴量計算部と同一のニューラルネットワーク構造を持つ階層の、前記他の特徴量計算部により計算された特徴量を要求し、前記特徴量の要求に応じて、前記他の移動体より送信されてくる、前記他の特徴量計算部により計算された特徴量のうち、前記特徴量計算部と同一のニューラルネットワーク構造を持つ階層の、前記他の特徴量計算部により計算された特徴量を前記他の特徴量として取得する
    請求項6に記載の情報処理装置。
  8. 前記取得部は、前記他の移動体に対して、前記特徴量計算部と同一のニューラルネットワーク構造を持つ階層の、前記他の特徴量計算部により計算された特徴量を要求し、前記特徴量の要求に応じて、前記他の移動体より送信されてくる、前記他の特徴量計算部により計算された特徴量のうち、前記特徴量計算部と同一のニューラルネットワーク構造を持つ階層の、前記他の特徴量計算部により計算された特徴量を前記他の特徴量として取得する
    請求項7に記載の情報処理装置。
  9. 前記取得部は、前記他の移動体に対して、前記他の特徴量計算部により計算された特徴量を要求し、前記特徴量の要求に応じて、前記他の移動体より送信されてくる、前記他の特徴量計算部により計算された特徴量のうち、前記特徴量計算部と同一のニューラルネットワーク構造を持つ階層の、前記他の特徴量計算部により計算された特徴量を抽出して前記他の特徴量として取得し、前記特徴量計算部と同一のニューラルネットワーク構造を持たない階層の、前記他の特徴量計算部により計算された特徴量を破棄する
    請求項7に記載の情報処理装置。
  10. 前記特徴量と、前記他の特徴量とを結合する結合部と、
    前記結合部により結合された特徴量に基づいて、大域特徴量を計算する大域特徴量計算部とをさらに含み、
    前記認識部は、前記大域特徴量計算部により計算された特徴量に基づいて、前記物体認識を行う
    請求項1に記載の情報処理装置。
  11. 前記特徴量計算部と、前記大域特徴量計算部とにおいて、
    前記結合部は、前記特徴量計算部により段階的に計算された最終階層の特徴量と、前記他の特徴量計算部により段階的に計算された最終階層の特徴量とを結合し、
    前記大域特徴量計算部は、計算された最終階層の特徴量と、取得された最終階層の特徴量とが前記結合部により結合された特徴量に基づいて、前記大域特徴量を計算する
    請求項10に記載の情報処理装置。
  12. 前記特徴量計算部と、前記大域特徴量計算部とは、PointNet構造を形成する
    請求項11に記載の情報処理装置。
  13. 前記特徴量計算部と、前記大域特徴量計算部とにおいて、
    前記結合部は、前記特徴量計算部により段階的に計算された階層毎の特徴量と、前記他の特徴量計算部により段階的に計算された階層毎の特徴量とを、前記階層毎に結合し、
    前記大域特徴量計算部は、前記計算された階層毎の特徴量と、取得された階層毎の特徴量とが前記結合部により前記階層毎に結合された特徴量に基づいて、前記大域特徴量を計算する
    請求項10に記載の情報処理装置。
  14. 前記特徴量計算部と、前記大域特徴量計算部とは、PointNet++構造を形成する
    請求項13に記載の情報処理装置。
  15. 前記特徴量計算部は、ポイントクラウドからなる入力情報におけるポイント毎のローカル処理を行うローカル処理構造からなり、前記複数の階層のそれぞれにおいて、前記物体認識に用いる特徴量を段階的に計算し、
    前記大域特徴量計算部は、前記ポイントの順番に影響されないグローバル処理を行うグローバル処理構造からなり、前記特徴量計算部により計算された特徴量と、取得された特徴量とに基づいて、前記大域特徴量を計算する
    請求項10に記載の情報処理装置。
  16. 特徴量計算部と、
    取得部と、
    認識部と
    を備えた情報処理装置の情報処理方法であって、
    前記特徴量計算部が、周囲情報検出センサにより検出されたセンシング結果に基づいて、複数の階層のそれぞれにおいて、物体認識に用いる特徴量を段階的に計算する計算処理することと
    前記取得部が、前記周囲情報検出センサと異なる他の周囲情報検出センサにより検出された他のセンシング結果に基づいて、前記特徴量計算部とは異なる他の特徴量計算部により計算された前記物体認識に用いる前記特徴量と異なる他の特徴量を取得する取得処理することと
    前記認識部が、前記特徴量と、前記他の特徴量とに基づいて、前記物体認識を行う物体認識処理することとを含み、
    前記周囲情報検出センサと前記他の周囲情報検出センサとは、それぞれ異なる物体に設けられる
    情報処理方法。
  17. 周囲情報検出センサにより検出されたセンシング結果に基づいて、複数の階層のそれぞれにおいて、物体認識に用いる特徴量を段階的に計算する特徴量計算部と、
    前記周囲情報検出センサと異なる他の周囲情報検出センサにより検出された他のセンシング結果に基づいて、前記特徴量計算部と異なる他の特徴量計算部により計算された前記物体認識に用いる前記特徴量と異なる他の特徴量を取得する取得部と、
    前記特徴量と、前記他の特徴量とに基づいて、前記物体認識を行う認識部としてコンピュータを機能させ
    前記周囲情報検出センサと前記他の周囲情報検出センサとは、それぞれ異なる物体に設けられる
    プログラム。
JP2021537690A 2019-08-06 2020-07-22 情報処理装置、および情報処理方法、並びにプログラム Active JP7597031B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019144401 2019-08-06
JP2019144401 2019-08-06
PCT/JP2020/028389 WO2021024805A1 (ja) 2019-08-06 2020-07-22 情報処理装置、および情報処理方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JPWO2021024805A1 JPWO2021024805A1 (ja) 2021-02-11
JP7597031B2 true JP7597031B2 (ja) 2024-12-10

Family

ID=74504035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021537690A Active JP7597031B2 (ja) 2019-08-06 2020-07-22 情報処理装置、および情報処理方法、並びにプログラム

Country Status (4)

Country Link
US (2) US12067761B2 (ja)
JP (1) JP7597031B2 (ja)
DE (1) DE112020003708T5 (ja)
WO (1) WO2021024805A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7597031B2 (ja) * 2019-08-06 2024-12-10 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム
CN113569958B (zh) * 2021-07-29 2024-04-12 清华大学苏州汽车研究院(吴江) 激光点云数据聚类方法、装置、设备及介质
US20240265629A1 (en) * 2021-08-06 2024-08-08 Nippon Telegraph And Telephone Corporation Point cloud data processing apparatus, point cloud data processing method and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014160419A (ja) 2013-02-20 2014-09-04 Denso Corp 周辺車両識別システム、特徴量送信装置、及び周辺車両識別装置
JP2017215272A (ja) 2016-06-02 2017-12-07 沖電気工業株式会社 情報処理装置、情報処理方法、及びプログラム
US20190096086A1 (en) 2017-09-22 2019-03-28 Zoox, Inc. Three-Dimensional Bounding Box From Two-Dimensional Image and Point Cloud Data
CN110032962A (zh) 2019-04-03 2019-07-19 腾讯科技(深圳)有限公司 一种物体检测方法、装置、网络设备和存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140074710A (ko) * 2012-12-10 2014-06-18 삼성디스플레이 주식회사 표시 장치 및 그 제조 방법
JP6548691B2 (ja) * 2016-10-06 2019-07-24 株式会社アドバンスド・データ・コントロールズ 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法
JP6807021B2 (ja) * 2016-11-18 2021-01-06 株式会社オートネットワーク技術研究所 車両用物体検知装置及び車両用物体検知システム
KR102404791B1 (ko) * 2017-03-30 2022-06-02 삼성전자주식회사 입력 영상에 포함된 객체를 인식하는 디바이스 및 방법
JP6948175B2 (ja) * 2017-07-06 2021-10-13 キヤノン株式会社 画像処理装置およびその制御方法
KR102425578B1 (ko) * 2017-08-08 2022-07-26 삼성전자주식회사 객체를 인식하는 방법 및 장치
US10824862B2 (en) * 2017-11-14 2020-11-03 Nuro, Inc. Three-dimensional object detection for autonomous robotic systems using image proposals
WO2019171440A1 (ja) * 2018-03-05 2019-09-12 日本電気株式会社 画像解析装置、画像解析方法および画像解析プログラム
US11417122B2 (en) * 2018-11-21 2022-08-16 Lg Electronics Inc. Method for monitoring an occupant and a device therefor
US11062454B1 (en) * 2019-04-16 2021-07-13 Zoox, Inc. Multi-modal sensor data association architecture
JP7597031B2 (ja) * 2019-08-06 2024-12-10 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP7466396B2 (ja) * 2020-07-28 2024-04-12 株式会社Soken 車両制御装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014160419A (ja) 2013-02-20 2014-09-04 Denso Corp 周辺車両識別システム、特徴量送信装置、及び周辺車両識別装置
JP2017215272A (ja) 2016-06-02 2017-12-07 沖電気工業株式会社 情報処理装置、情報処理方法、及びプログラム
US20190096086A1 (en) 2017-09-22 2019-03-28 Zoox, Inc. Three-Dimensional Bounding Box From Two-Dimensional Image and Point Cloud Data
CN110032962A (zh) 2019-04-03 2019-07-19 腾讯科技(深圳)有限公司 一种物体检测方法、装置、网络设备和存储介质

Also Published As

Publication number Publication date
US20240257508A1 (en) 2024-08-01
US12067761B2 (en) 2024-08-20
US20220277556A1 (en) 2022-09-01
WO2021024805A1 (ja) 2021-02-11
DE112020003708T5 (de) 2022-06-09
JPWO2021024805A1 (ja) 2021-02-11

Similar Documents

Publication Publication Date Title
JP7757353B2 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
JP7314798B2 (ja) 撮像装置、画像処理装置、及び、画像処理方法
US11531354B2 (en) Image processing apparatus and image processing method
CN114424265B (zh) 信号处理设备、信号处理方法、程序和移动设备
US12511762B2 (en) Learning model generation method, information processing device, and information processing system
CN112534297B (zh) 信息处理设备和信息处理方法、计算机程序、信息处理系统以及移动设备
JP7180670B2 (ja) 制御装置、制御方法、並びにプログラム
WO2022259621A1 (ja) 情報処理装置、情報処理方法、コンピュータプログラム
US11200795B2 (en) Information processing apparatus, information processing method, moving object, and vehicle
JP7626632B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP7544057B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2021241189A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20240257508A1 (en) Information processing device, information processing method, and program
JP7487178B2 (ja) 情報処理方法、プログラム、及び、情報処理装置
WO2021193099A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2025061744A (ja) 情報処理装置、および情報処理システム、並びにプログラム
JPWO2020116204A1 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
JP7676407B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
US20230121905A1 (en) Information processing apparatus, information processing method, and program
US20240386724A1 (en) Recognition processing device, recognition processing method, and recognition processing system
WO2024009829A1 (ja) 情報処理装置、情報処理方法および車両制御システム
WO2022004423A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
US20240160467A1 (en) Information processing system, information processing method, program, and cluster system
JP2024179782A (ja) 情報処理装置及び情報処理方法
WO2023149089A1 (ja) 学習装置、学習方法及び学習プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241111

R150 Certificate of patent or registration of utility model

Ref document number: 7597031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150