[go: up one dir, main page]

JP7711665B2 - 距離推定装置、距離推定方法、および距離推定用コンピュータプログラム - Google Patents

距離推定装置、距離推定方法、および距離推定用コンピュータプログラム

Info

Publication number
JP7711665B2
JP7711665B2 JP2022134393A JP2022134393A JP7711665B2 JP 7711665 B2 JP7711665 B2 JP 7711665B2 JP 2022134393 A JP2022134393 A JP 2022134393A JP 2022134393 A JP2022134393 A JP 2022134393A JP 7711665 B2 JP7711665 B2 JP 7711665B2
Authority
JP
Japan
Prior art keywords
time
camera
vehicle
interpolated
peripheral image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022134393A
Other languages
English (en)
Other versions
JP2024031077A (ja
Inventor
雅史 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2022134393A priority Critical patent/JP7711665B2/ja
Priority to US18/209,271 priority patent/US20240070909A1/en
Priority to CN202311075582.5A priority patent/CN117636294A/zh
Publication of JP2024031077A publication Critical patent/JP2024031077A/ja
Application granted granted Critical
Publication of JP7711665B2 publication Critical patent/JP7711665B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、車両から周辺物体までの距離を推定する距離推定装置、距離推定方法、および距離推定用コンピュータプログラムに関する。
車両の運転を適切に支援するためには、車両から周辺物体までの距離を適切に把握することが重要となる。特許文献1には、車両から所定距離以内にある対象物までの距離を推定し、対象物の位置を追跡する車両周辺監視装置が記載されている。
特開2013-54399号公報
特許文献1に記載の車両周辺監視装置は、光軸が平行になるように2台並べて車両内に配置された2台のカメラ(ステレオカメラ)によりそれぞれ撮像された同一対象物の画像部分の視差に基づいて車両から対象物までの距離を推定する。すなわち、特許文献1の車両周辺監視装置によると、車両から対象物までの距離の推定のため専用のステレオカメラの搭載が必要となり、コストの増大を招く。ステレオカメラのような専用のハードウェアを必要としない距離推定装置が求められている。
本開示は、測距用のステレオカメラによることなく車両の周囲の対象物体までの距離を推定することができる距離推定装置を提供することを目的とする。
本開示にかかる距離推定装置は、車両に搭載された第1撮影範囲を有する第1カメラにより第1時刻に生成された車両の周辺の状況を表す第1周辺画像から、車両に搭載された第1撮影範囲よりも狭い第2撮影範囲を有する第2カメラにより第1時刻よりも前の第2時刻に生成された先行第2周辺画像に表される領域、または、第2カメラにより第1時刻よりも後の第3時刻に生成された後続第2周辺画像に表される領域に対応する第1部分領域を特定する特定部と、先行第2周辺画像および後続第2周辺画像を用いて、第1時刻に対応する補間第2周辺画像を生成し、第2時刻における第2カメラの位置および第3時刻における第2カメラの位置、または、第1時刻における第1カメラの位置を用いて、第1時刻に対応する第2カメラの補間位置を推定する補間部と、第1部分領域および補間第2周辺画像のそれぞれから、共通に表された対象物体について1以上の特徴点を検出する検出部と、第1時刻における前記第1カメラの位置と第2カメラの補間位置との関係、および、第1部分領域における1以上の特徴点のうち一の特徴点の位置と補間第2周辺画像における前記一の特徴点に対応する特徴点の位置との関係を少なくとも用いて、車両と対象物体との間の距離を推定する推定部と、を備える。
本開示にかかる距離推定装置は、第1部分領域および補間第2周辺画像のうち少なくとも一方の解像度を変更することにより、第1部分領域および補間第2周辺画像が同一の解像度を有するように変換する変換部をさらに備えることが好ましい。
本開示にかかる距離推定方法は、車両に搭載された第1撮影範囲を有する第1カメラにより第1時刻に生成された車両の周辺の状況を表す第1周辺画像から、車両に搭載された第1撮影範囲よりも狭い第2撮影範囲を有する第2カメラにより第1時刻よりも前の第2時刻に生成された先行第2周辺画像に表される領域、または、第2カメラにより第1時刻よりも後の第3時刻に生成された後続第2周辺画像に表される領域に対応する第1部分領域を特定し、先行第2周辺画像および後続第2周辺画像を用いて、第1時刻に対応する補間第2周辺画像を生成し、第2時刻における第2カメラの位置および第3時刻における第2カメラの位置、または、第1時刻における第1カメラの位置を用いて、第1時刻に対応する第2カメラの補間位置を推定し、第1部分領域および補間第2周辺画像のそれぞれから、共通に表された対象物体について1以上の特徴点を検出し、第1時刻における第1カメラの位置と第2カメラの補間位置との関係、および、第1部分領域における1以上の特徴点のうち一の特徴点の位置と補間第2周辺画像における一の特徴点に対応する特徴点の位置との関係を少なくとも用いて、車両と対象物体との間の距離を推定する、ことを含む。
本開示にかかる距離推定用コンピュータプログラムは、車両に搭載された第1撮影範囲を有する第1カメラにより第1時刻に生成された前記車両の周辺の状況を表す第1周辺画像から、車両に搭載された第1撮影範囲よりも狭い第2撮影範囲を有する第2カメラにより第1時刻よりも前の第2時刻に生成された先行第2周辺画像に表される領域、または、第2カメラにより第1時刻よりも後の第3時刻に生成された後続第2周辺画像に表される領域に対応する第1部分領域を特定し、先行第2周辺画像および後続第2周辺画像を用いて、第1時刻に対応する補間第2周辺画像を生成し、第2時刻における第2カメラの位置および第3時刻における第2カメラの位置、または、第1時刻における第1カメラの位置を用いて、第1時刻に対応する第2カメラの補間位置を推定し、第1部分領域および補間第2周辺画像のそれぞれから、共通に表された対象物体について1以上の特徴点を検出し、第1時刻における第1カメラの位置と第2カメラの補間位置との関係、および、第1部分領域における1以上の特徴点のうち一の特徴点の位置と補間第2周辺画像における一の特徴点に対応する特徴点の位置との関係を少なくとも用いて、車両と対象物体との間の距離を推定する、ことをコンピュータに実行させる。
本開示にかかる距離推定装置によれば、測距用のステレオカメラによることなく車両の周囲の対象物体までの距離を推定することができる。
距離推定装置が実装される車両の概略構成図である。 距離推定装置のハードウェア模式図である。 距離推定装置が有するプロセッサの機能ブロック図である。 周辺画像の処理の例を説明する模式図である。 距離推定処理のフローチャートである。
以下、図面を参照して、測距用のステレオカメラによることなく車両の周囲の対象物体までの距離を推定することができる距離推定装置について詳細に説明する。距離推定装置は、車両に搭載された第1カメラにより第1時刻に生成された車両の周辺の状況を表す第1周辺画像から第1部分領域を特定する。第1部分領域は、車両に搭載された第2カメラにより第1時刻よりも前の第2時刻に生成された先行第2周辺画像に表される領域、または、第2カメラにより第1時刻よりも後の第3時刻に生成された後続第2周辺画像に表される領域に対応する領域である。第1カメラは第1撮影範囲を有し、第2カメラは第1撮影範囲よりも小さい第2撮影範囲を有する。次に、距離推定装置は、先行第2周辺画像および後続第2周辺画像を用いて、第1時刻に対応する補間第2周辺画像を生成する。また、距離推定装置は、第2時刻における第2カメラの位置および第3時刻における第2カメラの位置、または、第1時刻における第1カメラの位置を用いて、第1時刻に対応する第2カメラの補間位置を生成する。次に、距離推定装置は、第1部分領域および補間第2周辺画像のそれぞれから、共通に表された対象物体について1以上の特徴点を検出する。そして、距離推定装置は、第1時刻における第1カメラの位置と第2カメラの補間位置との関係、および、第1部分領域における1以上の特徴点のうち一の特徴点の位置と補間第2周辺画像における一の特徴点の位置との関係を少なくとも用いて、車両と対象物体との間の距離を推定する。
図1は、距離推定装置が実装される車両の概略構成図である。
車両1は、広角カメラ2と、望遠カメラ3と、GNSS(Global Navigation Satellite System)受信機4と、距離推定装置5とを有する。広角カメラ2、望遠カメラ3、およびGNSS受信機4と、距離推定装置5とは、コントローラエリアネットワークといった規格に準拠した車内ネットワークを介して通信可能に接続される。
広角カメラ2は、車両の周辺の状況を表す第1周辺画像を含む画像データを生成するための第1カメラの一例である。広角カメラ2は、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上の撮影対象となる領域の像を結像する結像光学系とを有する。広角カメラ2は、第1撮影範囲、例えば結像光学系の光軸から水平方向に±30度の範囲を撮影可能である。広角カメラ2は、例えば車室内の前方上部に、前方を向けて配置される。広角カメラ2は、例えばGNSS受信機4により供給される時刻に同期された時計を有する。広角カメラ2は、所定の撮影周期(例えば1/30秒~1/10秒)でフロントガラスを介して車両1の周辺の状況を撮影し、周辺の状況に対応した画像データを出力する。広角カメラ2により出力される画像データは、車両1からの距離が比較的小さい位置にある物体の詳細情報の取得に用いることができる。
望遠カメラ3は、車両の周辺の状況を表す第2周辺画像を含む画像データを生成するための第2カメラの一例である。望遠カメラ3は、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上の撮影対象となる領域の像を結像する結像光学系とを有する。望遠カメラ3は、第1撮影範囲よりも狭い第2撮影範囲、例えば結像光学系の光軸から水平方向に±15度の範囲を撮影可能である。望遠カメラ3は、例えば車室内の前方上部に、広角カメラ2と左右に並ぶように前方を向けて配置される。望遠カメラ3は、例えばGNSS受信機4により供給される時刻に同期された時計を有する。望遠カメラ3は、所定の撮影周期(例えば1/30秒~1/10秒)でフロントガラスを介して車両1の周辺の状況を撮影し、周辺の状況に対応した画像データを出力する。望遠カメラ3により出力される画像データは、車両1からの距離が比較的大きい位置にある物体の情報の取得に用いることができる。
広角カメラ2および望遠カメラ3は、車両1の前方に代えて、または車両1の前方に加えて、車両1の後方または側方を向けて、同一の対象物を撮影できるように左右に並べて配置されていてもよい。
GNSS受信機4は、測位センサの一例であり、不図示のGNSSアンテナにより所定の周期ごとにGNSS衛星からのGNSS信号を受信し、受信したGNSS信号に基づいて車両1の自己位置を測位する。GNSS受信機4は、所定の周期ごとに、GNSS信号に基づく車両1の自己位置の測位結果を表す測位信号を、車内ネットワークを介して距離推定装置5へ出力する。
距離推定装置5は、通信インタフェースと、メモリと、プロセッサとを有するECU(Electronic Control Unit)である。距離推定装置5は、通信インタフェースを介して、広角カメラ2および望遠カメラ3から画像を受信する。距離推定装置は、受信した画像を用いて、車両1と、車両1の周辺に存在する物体との間の距離を推定する。
図2は、距離推定装置5のハードウェア模式図である。距離推定装置5は、通信インタフェース51と、メモリ52と、プロセッサ53とを備える。
通信インタフェース51は、通信部の一例であり、距離推定装置5を車内ネットワークへ接続するための通信インタフェース回路を有する。通信インタフェース51は、受信したデータをプロセッサ53に供給する。また、通信インタフェース51は、プロセッサ53から供給されたデータを外部に出力する。
メモリ52は、記憶部の一例であり、揮発性の半導体メモリおよび不揮発性の半導体メモリを有する。メモリ52は、プロセッサ53による処理に用いられる各種データ、例えば広角カメラ2および望遠カメラ3のそれぞれの取り付け位置、取り付け方向、および、結像光学系の焦点距離、周辺画像のピクセルサイズといった内部パラメータ、画像から物体の特徴点を検出する識別器として使用されるニューラルネットワークを規定するためのパラメータ群(層数、層構成、カーネル、重み係数等)などを保存する。また、メモリ52は、各種アプリケーションプログラム、例えば距離推定処理を実行する距離推定プログラム等を保存する。
プロセッサ53は、制御部の一例であり、1以上のプロセッサおよびその周辺回路を有する。プロセッサ53は、論理演算ユニット、数値演算ユニット、またはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。
図3は、距離推定装置5が有するプロセッサ53の機能ブロック図である。
距離推定装置5のプロセッサ53は、機能ブロックとして、特定部531と、補間部532と、変換部533と、検出部534と、推定部535とを有する。プロセッサ53が有するこれらの各部は、プロセッサ53上で実行されるプログラムによって実装される機能モジュールである。プロセッサ53の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。あるいは、プロセッサ53が有するこれらの各部は、独立した集積回路、マイクロプロセッサ、またはファームウェアとして距離推定装置5に実装されてもよい。
特定部531は、広角カメラ2により第1時刻に生成された車両1の周辺の状況を表す第1周辺画像から第1部分領域を特定する。第1部分領域は、望遠カメラ3により第1時刻よりも前の第2時刻に生成された先行第2周辺画像に表される領域、または、望遠カメラ3により第1時刻よりも後の第3時刻に生成された後続第2周辺画像に表される領域に対応する領域である。
図4は、周辺画像の処理の例を示す模式図である。
広角カメラ2は、第1時刻t1に、第1周辺画像SP1を生成する。望遠カメラ3は、第1時刻t1よりも前の第2時刻t2に、先行第2周辺画像SP2pを生成し、第1時刻t1よりも後の第3時刻t3に、後続第2周辺画像SP2sを生成する。
特定部531は、メモリ52に保存された広角カメラ2および望遠カメラ3のそれぞれの取り付け位置、取り付け方向、および、内部パラメータを参照する。また、特定部531は、第2時刻t2と第1時刻t1との間の車両1の移動量、または、第1時刻t1と第3時刻t3との間の車両1の移動量を算出する。
特定部531は、第1時刻t1、第2時刻t2、および第3時刻t3のそれぞれにおける車両1の位置から、第2時刻t2と第1時刻t1との間の車両1の移動量、または、第1時刻t1と第3時刻t3との間の車両1の移動量を算出する。特定部531は、GNSS受信機4から取得した、第2時刻t2および第3時刻t3にそれぞれ対応する測位信号に基づいて、第2時刻t2および第3時刻t3のそれぞれにおける車両1の位置を特定する(GNSS測位)。なお、特定部531は、GNSS受信機4から取得した測位信号に対応する位置の周辺の地物に関する情報を、車両1に搭載され高精度地図情報を記憶するストレージ装置(不図示)から取得し、第1周辺画像SP1、先行第2周辺画像SP2p、または、後続第2周辺画像SP2sに表される地物と照合することにより、車両1の位置(広角カメラ2または望遠カメラ3の位置)を特定(ローカライズ処理)してもよい。
また、特定部531は、第1時刻t1、第2時刻t2、および第3時刻t3のそれぞれにおける車両1の位置によらず、第2時刻t2と第1時刻t1との間の車両1の移動量、または、第1時刻t1と第3時刻t3との間の車両1の移動量を算出してもよい。例えば、特定部531は、移動している間の複数の時刻において、車両1に搭載された加速度センサ、角速度センサ等から得られる車両1の動作を表すデータ(オドメトリ情報)を用いて、当該移動における車両1の移動量を算出することができる。
特定部531は、各カメラのパラメータおよび車両1の移動量に基づいて、望遠カメラ3により第2時刻t2に取得される先行第2周辺画像SP2pに表される範囲が第1時刻t1において広角カメラ2の視野に占める領域を特定することで、第1周辺画像SP1から第1部分領域A1を特定する。また、特定部531は、各カメラのパラメータおよび車両1の移動量に基づいて、望遠カメラ3により第3時刻t3に取得される後続第2周辺画像SP2sに表される範囲が第1時刻t1において広角カメラ2の視野に占める領域を特定することで、第1周辺画像SP1から第1部分領域A1を特定する。
図3に戻り、補間部532は、先行第2周辺画像SP2pおよび後続第2周辺画像SP2sを用いて、第1時刻t1に対応する補間第2周辺画像SP2iを生成する。また、補間部532は、第2時刻t2における望遠カメラ3の位置と第3時刻t3における望遠カメラ3の位置とを用いて、第1時刻t1に対応する望遠カメラ3の補間位置を生成する。
補間部532は、例えばブロックマッチング法を用いて、先行第2周辺画像SP2pおよび後続第2周辺画像SP2sを分割した所定サイズ(例えば16ピクセル×16ピクセル)のブロックのそれぞれの動きベクトルを求める。そして、補間部532は、第2時刻t2と第1時刻t1との時間間隔および第1時刻t1と第3時刻t3との時間間隔に応じて動きベクトルを按分して得られる位置に、先行第2周辺画像SP2pまたは後続第2周辺画像SP2sの対応するブロックを配置することで、補間第2周辺画像SP2iを生成する。
補間部532は、第2時刻t2および第3時刻t3のそれぞれにおける車両1の位置を、特定部531から取得する。補間部532は、第2時刻t2と第1時刻t1との時間間隔および第1時刻t1と第3時刻t3との時間間隔に応じて第2時刻t2および第3時刻t3のそれぞれにおける車両1の位置を按分することで、第1時刻t1に対応する車両1の位置を推定する。そして、補間部532は、取得した車両1の位置に表される車両1の所定位置とメモリ52に保存された望遠カメラ3の取り付け位置との関係を用いて、第1時刻t1に対応する望遠カメラ3の補間位置を推定する。取得した車両1の位置に表される車両1の所定位置は、GNSS測位により特定される場合、例えばGNSSアンテナの位置である。また、取得した車両1の位置に表される車両1の所定位置は、ローカライズ処理により特定される場合、例えば広角カメラ2の位置である。いずれの場合であっても、取得した車両1の位置に表される車両1の所定位置は、車両1における特定の位置(例えば運転席の位置)を表すように補正されていてもよい。また、ローカライズ処理により車両1の位置として望遠カメラ3の位置が取得されている場合、取得した車両1の所定位置と望遠カメラ3の取り付け位置との関係を用いた望遠カメラ3の補間位置の推定を行う必要はない。なお、特定部531が車両1の位置によらず車両1の移動量を特定する場合、補間部532は、特定部531の動作として記載したGNSS受信機4から取得した測位信号を用いる処理、または、高精度地図情報に含まれる地物を用いる処理を実行することにより車両1の位置を特定すればよい。
補間部532は、メモリ52に保存された広角カメラ2および望遠カメラ3のそれぞれの取り付け位置に基づいて、第1時刻t1における広角カメラ2の位置を基準とした望遠カメラ3の相対位置を、第1時刻t1に対応する望遠カメラ3の補間位置として推定してもよい。この場合、補間部532は、ローカライズ処理による車両1の位置として、広角カメラ2の位置を取得する。
変換部533は、第1部分領域A1および補間第2周辺画像SP2iのうち少なくとも一方の解像度を、所定のアップサンプリング手法またはダウンサンプリング手法に従って変更することにより、第1部分領域A1および補間第2周辺画像SP2iのそれぞれが同一の解像度を有するように変換する。
第1部分領域A1および補間第2周辺画像SP2iのそれぞれが、変換することなく同一の解像度を有している場合、変換部533による変換を実行する必要はない。そのため、第1部分領域A1と補間第2周辺画像SP2i(すなわち先行第2周辺画像SP2pおよび後続第2周辺画像SP2s)とが同一の解像度を有する車両1においては、距離推定装置5は、変換部533を有していなくてもよい。
検出部534は、第1部分領域A1および補間第2周辺画像SP2iのそれぞれから、共通に表された対象物体について1以上の特徴点を検出する。
検出部534は、例えば、画像から特徴点を検出するよう予め学習された識別器に、第1部分領域A1および補間第2周辺画像SP2iを入力することにより、車両1の周辺に存在する対象物体(例えば他車両)について1以上の特徴点(例えばタイヤの接地点)を検出する。
識別器は、例えば、入力側から出力側に向けて直列に接続された複数の畳み込み層を有する畳み込みニューラルネットワーク(CNN)とすることができる。検出対象となる所定の物体を表し特徴点がタグ付けされた複数の画像を教師データとして用いてCNNに入力して予め学習を行うことにより、CNNは対象物の特徴点を検出する識別器として動作する。
また、検出部534は、Harris corner detector、Scale-Invariant Feature Transform(SIFT)といった特徴点抽出手法に従って、第1部分領域A1および補間第2周辺画像SP2iのそれぞれから特徴点を抽出してもよい。
図4に示す例では、検出部534は、第1部分領域A1から特徴点FP1を含む特徴点を検出し、補間第2周辺画像SP2iから、特徴点FP1に対応する特徴点FP2iを含む特徴点を検出する。
推定部535は、第1時刻における広角カメラ2の位置と望遠カメラ3の補間位置との関係、および、第1部分領域A1における1以上の特徴点のうち一の特徴点の位置と補間第2周辺画像SP2iにおける一の特徴点の位置との関係を少なくとも用いて、車両1と対象物体との間の距離を推定する。
例えば、推定部535は、第1時刻における広角カメラ2の位置と望遠カメラ3の補間位置との関係から、広角カメラ2と望遠カメラ3との間の距離を算出する。また、推定部535は、第1部分領域A1と補間第2周辺画像SP2iとを重ねたときの特徴点FP1と特徴点FP2iとの画像上の間隔(画素数)に画素サイズを乗じて視差を算出する。そして、推定部535は、広角カメラ2と望遠カメラ3との間の距離と望遠カメラ3の光学系の焦点距離との積を視差で除することにより望遠カメラ3と特徴点FP1(または特徴点FP2i)との間の距離を算出し、車両1と対象物体との間の距離として推定する。
図5は、距離推定処理のフローチャートである。距離推定装置5は、車両1が走行する間、処理を所定の時間間隔(例えば1/10秒間隔)で繰り返し実行する。
まず、距離推定装置5の特定部531は、広角カメラ2により第1時刻t1に生成された第1周辺画像SP1から第1部分領域A1を特定する(ステップS1)。
次に、距離推定装置5の補間部532は、望遠カメラ3により第2時刻t2に生成された先行第2周辺画像SP2p、および、第3時刻t3に生成された後続第2周辺画像SP2sを用いて、第1時刻t1に対応する補間第2周辺画像SP2iを生成する。また、補間部532は、第2時刻t2における望遠カメラ3の位置と第3時刻t3における望遠カメラ3の位置とを用いて、第1時刻t1に対応する望遠カメラ3の補間位置を生成する(ステップS2)。
次に、距離推定装置5の変換部533は、第1部分領域A1および補間第2周辺画像SP2iのうち少なくとも一方の解像度を変更することにより、第1部分領域A1および補間第2周辺画像SP2iのそれぞれが同一の解像度を有するように変換する(ステップS3)。
次に、距離推定装置5の検出部534は、第1部分領域A1および補間第2周辺画像SP2iのそれぞれから、共通に表された対象物体について1以上の特徴点を検出する(ステップS4)。
距離推定装置5の推定部535は、第1時刻t1における広角カメラ2の位置と望遠カメラ3の補間位置との関係、および、第1部分領域A1における1以上の特徴点のうち一の特徴点の位置と補間第2周辺画像SP2iにおける一の特徴点の位置との関係を少なくとも用いて、車両1と対象物体との間の距離を推定し(ステップS5)、距離推定処理を終了する。
このように距離推定処理を実行することにより、距離推定装置5は、測距用のステレオカメラによることなく、適切な精度で車両の周囲の対象物体までの距離を推定することができる。
距離推定装置5は、推定された車両1と対象物体との間の距離を、車両1のエンジン、ブレーキ、ステアリングといった走行機構に制御信号を送信する走行制御装置に送信する。走行制御装置は、推定された車両1と対象物体との間の距離を用いて、車両1と車両1の周辺の物体との間の距離が所定以上となるように車両1の走行を制御することができる。
変形例によれば、検出部534は、補間第2周辺画像SP2iからの特徴点の検出に代えて、または加えて、先行第2周辺画像SP2pおよび後続第2周辺画像SP2sのそれぞれからの特徴点の検出を行う。そして、推定部535は、先行第2周辺画像SP2pおよび後続第2周辺画像SP2sのそれぞれから検出された特徴点の位置から、望遠カメラ3により第1時刻t1に画像が生成されたと仮定した場合の当該画像(補間第2周辺画像SP2iに相当)に表される特徴点の位置を推定する。推定部535は、推定された特徴点の位置を用いて、車両1と対象物体との間の距離を推定する。この場合、補間部532は、補間第2周辺画像SP2iを生成しなくてもよい。
当業者は、本発明の精神および範囲から外れることなく、種々の変更、置換および修正をこれに加えることが可能であることを理解されたい。
1 車両
5 距離推定装置
531 特定部
532 補間部
533 変換部
534 検出部
535 推定部

Claims (4)

  1. 車両に搭載された第1撮影範囲を有する第1カメラにより第1時刻に生成された前記車両の周辺の状況を表す第1周辺画像から、前記車両に搭載された前記第1撮影範囲よりも狭い第2撮影範囲を有する第2カメラにより前記第1時刻よりも前の第2時刻に生成された先行第2周辺画像に表される領域、または、前記第2カメラにより前記第1時刻よりも後の第3時刻に生成された後続第2周辺画像に表される領域に対応する第1部分領域を特定する特定部と、
    前記先行第2周辺画像および前記後続第2周辺画像を用いて、前記第1時刻に対応する補間第2周辺画像を生成し、前記第1時刻における前記第1カメラの位置を用いて、前記第1時刻に対応する前記第2カメラの補間位置を推定する補間部と、
    前記第1部分領域および前記補間第2周辺画像のそれぞれから、共通に表された対象物体について1以上の特徴点を検出する検出部と、
    前記第1時刻における前記第1カメラの位置と前記第2カメラの補間位置との関係、および、前記第1部分領域における前記1以上の特徴点のうち一の特徴点の位置と前記補間第2周辺画像における前記一の特徴点に対応する特徴点の位置との関係を少なくとも用いて、前記車両と前記対象物体との間の距離を推定する推定部と、
    を備える距離推定装置。
  2. 前記第1部分領域および前記補間第2周辺画像のうち少なくとも一方の解像度を変更することにより、前記第1部分領域および前記補間第2周辺画像が同一の解像度を有するように変換する変換部をさらに備える請求項1に記載の距離推定装置。
  3. 車両に搭載された第1撮影範囲を有する第1カメラにより第1時刻に生成された前記車両の周辺の状況を表す第1周辺画像から、前記車両に搭載された前記第1撮影範囲よりも狭い第2撮影範囲を有する第2カメラにより前記第1時刻よりも前の第2時刻に生成された先行第2周辺画像に表される領域、または、前記第2カメラにより前記第1時刻よりも後の第3時刻に生成された後続第2周辺画像に表される領域に対応する第1部分領域を特定し、
    前記先行第2周辺画像および前記後続第2周辺画像を用いて、前記第1時刻に対応する補間第2周辺画像を生成し、前記第1時刻における前記第1カメラの位置を用いて、前記第1時刻に対応する前記第2カメラの補間位置を推定し、
    前記第1部分領域および前記補間第2周辺画像のそれぞれから、共通に表された対象物体について1以上の特徴点を検出し、
    前記第1時刻における前記第1カメラの位置と前記第2カメラの補間位置との関係、および、前記第1部分領域における前記1以上の特徴点のうち一の特徴点の位置と前記補間第2周辺画像における前記一の特徴点の位置との関係を少なくとも用いて、前記車両と前記対象物体との間の距離を推定する、
    ことを含む距離推定方法。
  4. 車両に搭載された第1撮影範囲を有する第1カメラにより第1時刻に生成された前記車両の周辺の状況を表す第1周辺画像から、前記車両に搭載された前記第1撮影範囲よりも狭い第2撮影範囲を有する第2カメラにより前記第1時刻よりも前の第2時刻に生成された先行第2周辺画像に表される領域、または、前記第2カメラにより前記第1時刻よりも後の第3時刻に生成された後続第2周辺画像に表される領域に対応する第1部分領域を特定し、
    前記先行第2周辺画像および前記後続第2周辺画像を用いて、前記第1時刻に対応する補間第2周辺画像を生成し、前記第1時刻における前記第1カメラの位置を用いて、前記第1時刻に対応する前記第2カメラの補間位置を推定し、
    前記第1部分領域および前記補間第2周辺画像のそれぞれから、共通に表された対象物体について1以上の特徴点を検出し、
    前記第1時刻における前記第1カメラの位置と前記第2カメラの補間位置との関係、および、前記第1部分領域における前記1以上の特徴点のうち一の特徴点の位置と前記補間第2周辺画像における前記一の特徴点の位置との関係を少なくとも用いて、前記車両と前記対象物体との間の距離を推定する、
    ことをコンピュータに実行させるための距離推定用コンピュータプログラム。
JP2022134393A 2022-08-25 2022-08-25 距離推定装置、距離推定方法、および距離推定用コンピュータプログラム Active JP7711665B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022134393A JP7711665B2 (ja) 2022-08-25 2022-08-25 距離推定装置、距離推定方法、および距離推定用コンピュータプログラム
US18/209,271 US20240070909A1 (en) 2022-08-25 2023-06-13 Apparatus and method for distance estimation
CN202311075582.5A CN117636294A (zh) 2022-08-25 2023-08-24 距离推测装置及距离推测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022134393A JP7711665B2 (ja) 2022-08-25 2022-08-25 距離推定装置、距離推定方法、および距離推定用コンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2024031077A JP2024031077A (ja) 2024-03-07
JP7711665B2 true JP7711665B2 (ja) 2025-07-23

Family

ID=89996718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022134393A Active JP7711665B2 (ja) 2022-08-25 2022-08-25 距離推定装置、距離推定方法、および距離推定用コンピュータプログラム

Country Status (3)

Country Link
US (1) US20240070909A1 (ja)
JP (1) JP7711665B2 (ja)
CN (1) CN117636294A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011191905A (ja) 2010-03-12 2011-09-29 Hitachi Automotive Systems Ltd ステレオカメラ装置
JP2018179911A (ja) 2017-04-20 2018-11-15 株式会社デンソー 測距装置及び距離情報取得方法
JP2020003971A (ja) 2018-06-27 2020-01-09 日産自動車株式会社 物体検出方法及び物体検出装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2998791B2 (ja) * 1996-10-31 2000-01-11 日本電気株式会社 三次元構造推定装置
JP6184877B2 (ja) * 2014-01-09 2017-08-23 クラリオン株式会社 車両用外界認識装置
JP6156400B2 (ja) * 2015-02-09 2017-07-05 トヨタ自動車株式会社 走行路面検出装置及び走行路面検出方法
US12235659B2 (en) * 2016-02-29 2025-02-25 AI Incorporated Obstacle recognition method for autonomous robots
DE102016009304A1 (de) * 2016-08-01 2018-02-01 Lucas Automotive Gmbh Steuerungs-System und Steuerungs-Verfahren zum Bestimmen einer Fahrbahn
JP6610585B2 (ja) * 2017-03-13 2019-11-27 トヨタ自動車株式会社 衝突回避制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011191905A (ja) 2010-03-12 2011-09-29 Hitachi Automotive Systems Ltd ステレオカメラ装置
JP2018179911A (ja) 2017-04-20 2018-11-15 株式会社デンソー 測距装置及び距離情報取得方法
JP2020003971A (ja) 2018-06-27 2020-01-09 日産自動車株式会社 物体検出方法及び物体検出装置

Also Published As

Publication number Publication date
US20240070909A1 (en) 2024-02-29
JP2024031077A (ja) 2024-03-07
CN117636294A (zh) 2024-03-01

Similar Documents

Publication Publication Date Title
JP4814669B2 (ja) 3次元座標取得装置
US8611600B2 (en) Three-frame difference moving target acquisition system and method for target track identification
CN107121132B (zh) 求取车辆环境图像的方法和设备及识别环境中对象的方法
CN107122770B (zh) 多目相机系统、智能驾驶系统、汽车、方法和存储介质
WO2017118907A1 (en) Systems and methods for estimating future paths
EP3150961B1 (en) Stereo camera device and vehicle provided with stereo camera device
CN107038723A (zh) 棒状像素估计方法和系统
EP2610778A1 (en) Method of detecting an obstacle and driver assist system
CN111989541B (zh) 立体摄像机装置
JP7183729B2 (ja) 撮影異常診断装置
CN114600417A (zh) 同步装置、同步方法以及同步程序
JP6988873B2 (ja) 位置推定装置および位置推定用コンピュータプログラム
KR20220121533A (ko) 어레이 카메라를 통해 획득된 영상을 복원하는 영상 복원 방법 및 영상 복원 장치
EP3176750B1 (en) Vision system for a motor vehicle and method of controlling a vision system
JP2007256029A (ja) ステレオ画像処理装置
JP2024074254A (ja) カメラ姿勢を推定する装置及び方法
JP6032141B2 (ja) 走行路面標示検知装置および走行路面標示検知方法
KR102195040B1 (ko) 이동식 도면화 시스템 및 모노카메라를 이용한 도로 표지 정보 수집 방법
JP7613406B2 (ja) 地物検出装置、地物検出方法及び地物検出用コンピュータプログラム
JP2021165916A (ja) 傾斜角検出装置及び制御装置
JP7711665B2 (ja) 距離推定装置、距離推定方法、および距離推定用コンピュータプログラム
JP6886136B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
CN119741367A (zh) 推断装置以及推断方法
US11727590B2 (en) Vision system and method for a motor vehicle
WO2022270183A1 (ja) 演算装置、速度算出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250610

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250623

R150 Certificate of patent or registration of utility model

Ref document number: 7711665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150