[go: up one dir, main page]

JP2023008030A - 画像処理システム、画像処理方法及び画像処理プログラム - Google Patents

画像処理システム、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP2023008030A
JP2023008030A JP2021111258A JP2021111258A JP2023008030A JP 2023008030 A JP2023008030 A JP 2023008030A JP 2021111258 A JP2021111258 A JP 2021111258A JP 2021111258 A JP2021111258 A JP 2021111258A JP 2023008030 A JP2023008030 A JP 2023008030A
Authority
JP
Japan
Prior art keywords
image
moving object
images
feature amount
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021111258A
Other languages
English (en)
Other versions
JP7666179B2 (ja
Inventor
雄介 中野
Yusuke Nakano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021111258A priority Critical patent/JP7666179B2/ja
Priority to US17/850,665 priority patent/US12315173B2/en
Publication of JP2023008030A publication Critical patent/JP2023008030A/ja
Application granted granted Critical
Publication of JP7666179B2 publication Critical patent/JP7666179B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

Figure 2023008030000001
【課題】追跡対象の移動体を複数の画像間で精度よく対応付けることが可能な画像処理システムを提供すること。
【解決手段】本開示にかかる画像処理システム100は、移動体画像が含まれる画像を複数取得する画像取得部と、複数の画像の撮像時における、撮像装置から移動体に対する撮像方向を示す撮像方向情報を算出する撮像方向情報算出部と、複数の画像から抽出された移動体画像の特徴量を算出する特徴量算出部と、撮像方向情報と特徴量とに基づいて、複数の画像間で移動体を対応付ける対応付け部と、を備える。
【選択図】図3

Description

本開示は、画像処理システム、画像処理方法及び画像処理プログラムに関する。
車両などの移動体を撮像し、比較的広域に亘って、移動体ごとの挙動を追跡する技術が知られている。関連する技術として、特許文献1は、複数の挙動検知ユニットを用いて監視対象区域内の車両を監視する技術を開示する。特許文献1が開示する挙動検知ユニットは、撮像画像から検出した複数の車両の画像と、これらの車両を区別するために付与したID番号とを記憶する。各挙動検知ユニットは、検出した車両が車両検知領域から外れると、その情報をバッファに格納する。隣接する他の挙動検知ユニットは、撮像した各車両の画像と直前の挙動検知ユニットのバッファにある車両の画像とを比較し、比較結果に基づいて車両にID番号を付与する。同一の車両に同一のID番号を付与することで、車両の追跡が可能となる。
特開平10-105690号公報
特許文献1が開示する挙動検知ユニットでは、撮像された複数の画像を比較し、その結果に基づいて車両にID番号を付与している。このような場合、車両等の移動体の姿勢が変化した場合や、監視対象区域内の照明に変化があった場合には、同一の車両を異なる車両として誤認識する可能性がある。
本開示の目的は、上述した課題を鑑み、追跡対象の移動体を複数の画像間で精度よく対応付けることが可能な画像処理システム、画像処理方法及び画像処理プログラムを提供することにある。
本開示にかかる画像処理システムは、
移動体画像が含まれる画像を複数取得する画像取得部と、
前記複数の画像の撮像時における、撮像装置から移動体に対する撮像方向を示す撮像方向情報を算出する撮像方向情報算出部と、
前記複数の画像から抽出された前記移動体画像の特徴量を算出する特徴量算出部と、
前記撮像方向情報と前記特徴量とに基づいて、前記複数の画像間で前記移動体を対応付ける対応付け部と、を備える。
本開示にかかる画像処理システムは、
移動体画像が含まれる画像を複数取得する画像取得部と、
前記複数の画像から抽出された前記移動体画像の特徴量と、前記移動体画像が含まれる画像と同一の画像において抽出された他の移動体画像の特徴量と、を算出する特徴量算出部と、
前記移動体画像の特徴量と前記他の移動体画像の特徴量とに基づいて、前記複数の画像間で前記移動体を対応付ける対応付け部と、を備える。
本開示にかかる画像処理方法は、
移動体画像が含まれる画像を複数取得する画像取得ステップと、
前記複数の画像の撮像時における、撮像装置から移動体に対する撮像方向を示す撮像方向情報を算出する撮像方向情報算出ステップと、
前記複数の画像から抽出された前記移動体画像の特徴量を算出する特徴量算出ステップと、
前記撮像方向情報と前記特徴量とに基づいて、前記複数の画像間で前記移動体を対応付ける対応付けステップと、を備える。
本開示にかかる画像処理方法は、
移動体画像が含まれる画像を複数取得する画像取得ステップと、
前記複数の画像から抽出された前記移動体画像の特徴量と、前記移動体画像が含まれる画像と同一の画像において抽出された他の移動体画像の特徴量と、を算出する特徴量算出ステップと、
前記移動体画像の特徴量と前記他の移動体画像の特徴量とに基づいて、前記複数の画像間で前記移動体を対応付ける対応付けステップと、を備える。
本開示にかかる画像処理プログラムは、
移動体画像が含まれる画像を複数取得する画像取得ステップと、
前記複数の画像の撮像時における、撮像装置から移動体に対する撮像方向を示す撮像方向情報を算出する撮像方向情報算出ステップと、
前記複数の画像から抽出された前記移動体画像の特徴量を算出する特徴量算出ステップと、
前記撮像方向情報と前記特徴量とに基づいて、前記複数の画像間で前記移動体を対応付ける対応付けステップと、
をコンピュータに実行させる。
本開示にかかる画像処理プログラムは、
移動体画像が含まれる画像を複数取得する画像取得ステップと、
前記複数の画像から抽出された前記移動体画像の特徴量と、前記移動体画像が含まれる画像と同一の画像において抽出された他の移動体画像の特徴量と、を算出する特徴量算出ステップと、
前記移動体画像の特徴量と前記他の移動体画像の特徴量とに基づいて、前記複数の画像間で前記移動体を対応付ける対応付けステップと、
をコンピュータに実行させる。
本開示にかかる画像処理システム、画像処理方法及び画像処理プログラムは、追跡対象の移動体を複数の画像間で精度よく対応付けることを可能とする。
実施形態1にかかる画像処理システムの構成を示すブロック図である。 実施形態1にかかる画像処理システムの処理を示すフローチャートである。 実施形態1にかかる画像処理システムの説明図である。 実施形態1にかかる画像処理システムの説明図である。 実施形態1にかかる画像処理システムにおいて、撮像方向が類似する場合の説明図である。 実施形態1にかかる画像処理システムにおいて、撮像方向が類似しない場合の説明図である。 実施形態2にかかる画像処理システムの説明図である。 実施形態2にかかる画像処理システムの処理を示すフローチャートである。 実施形態2にかかる画像処理システムにおいて、近傍車両を特定する処理を示すフローチャートである。 実施形態2にかかる画像処理システムの説明図である。 ハードウエア構成例を示す図である。
<実施形態1>
本実施形態にかかる画像処理システム100について説明する。画像処理システム100は、追跡対象の移動体が含まれる画像を複数取得し、当該複数の画像間で移動体を対応付ける情報処理システムである。移動体は、例えば車両、人、動物、又はロボットなどを含み得る。これらに限らず、追跡の対象となり得る種々の移動体に対して本開示が適用されてよい。
本実施形態では、追跡対象の移動体が道路上を走行する車両200である場合を例として説明を行う。画像処理システム100は、道路上に設置されたカメラが撮像した画像を複数取得する。画像処理システム100は、取得した複数の画像から車両200の画像を抽出し、複数の画像間において車両200を対応付ける。
以下では、図面を参照して本開示の実施形態について説明する。
図1は、本実施形態にかかる画像処理システム100の構成を示すブロック図である。画像処理システム100は、カメラCAM1、カメラCAM2、画像取得部101、カメラ情報取得部102、物体検出部103、物体特徴抽出部104、比較部105、ID出力部106、検出モデル107、特徴抽出モデル108、比較モデル109、及び学習部110を備えている。
カメラCAM1及びCAM2は、追跡対象の車両200を撮像する撮像装置である。以下では、カメラCAM1又はCAM2を単に「カメラ」と称して説明する場合がある。カメラは、車両200を撮像可能な領域に設置されている。カメラは、例えば、RGBカメラ、モノクロカメラ、グレイスケールカメラ、又はIRカメラなどであってよい。これに限らず、種々のカメラが用いられてもよい。カメラの数は、1つであってもよいし、複数であってもよい。ここでは2台のカメラを用いて説明するが、3台以上のカメラが用いられてもよい。また、これらは異なる種類のカメラの組み合わせであってもよい。例えばカメラCAM1がRGBカメラ、カメラCAM2がモノクロカメラであってもよい。
カメラから得られる撮像画像は、静止画像であってもよいし、動画像であってもよい。
カメラの撮像方向は固定されていてもよいし、固定されていなくともよい。例えば、カメラは、360度方向を撮像可能であり、所定の時間間隔で異なる方向を撮像するものであってもよい。
カメラは、追跡対象である移動体を撮像可能な領域に設置される。本実施形態では、追跡対象は車両200であるので、カメラは、車両200が走行する道路上に設置されているものとして説明を行う。画像処理システム100と複数のカメラとは、有線又は無線により接続されていてよい。図1では、カメラCAM1及びCAM2を画像処理システム100内に含めているが、これらは同一装置内に搭載されている必要はない。例えば、カメラCAM1及びCAM2は道路上に設置され、その他の機能部は所定のサーバ内に設けられてよい。
撮像画像には、監視対象の移動体以外のものが含まれ得る。例えば、監視対象の移動体とは別の移動体が撮像画像に含まれ得る。以下では、監視対象の移動体とは異なる移動体を「他の移動体」と称して説明する場合がある。他の移動体は、例えば、監視対象の車両と同じ進行方向で走行する車両であってよい。これに限らず、他の移動体は、人、動物、又はロボットなどであってもよい。
画像取得部101は、追跡対象の移動体画像が含まれる撮像画像を、カメラから複数取得する。ここでは、画像取得部101は、車両220が含まれる撮像画像を、カメラCAM1及びCAM2から取得する。画像取得部101は、カメラで撮像が行われる都度、撮像画像を取得してもよいし、所定の時間間隔で撮像画像を取得してもよい。画像取得部101は、撮像画像と共に、当該撮像画像の撮像日時を示す撮像日時情報を取得する。
カメラ情報取得部102は、カメラパラメータを取得して、取得したカメラパラメータを物体特徴抽出部104に出力する。
物体検出部103は、検出モデル107を用いて、画像取得部101において取得された撮像画像に含まれる物体の領域を検出する。
物体特徴抽出部104は、撮像方向情報算出部及び特徴量算出部として機能する。
撮像方向情報算出部は、撮像時における、カメラから移動体に対する撮像方向を示す撮像方向情報を算出する機能部である。また、特徴量算出部は、複数の画像から抽出された移動体画像の特徴量を算出する機能部である。以下では、それぞれの機能について説明する。なお、各処理の詳細な手順については後述する。
物体特徴抽出部104(撮像方向情報算出部)は、画像取得部101で取得された複数の画像の撮像時における、カメラから移動体に対する撮像方向を示す撮像方向情報を算出する。撮像方向情報は、例えば、カメラCAM1及びCAM2のそれぞれから車両200に対する撮像方向を、単位方向ベクトルn及びnを用いて表すことができる。物体特徴抽出部104は、単位方向ベクトルn及びnを生成する。なお、以下では、ベクトルを示す英文字上の矢印を省略し、ベクトルの用語のみを用いてベクトルであることを示す場合がある。
なお、ここでは、単位方向ベクトルn及びnの双方を生成するように説明するが、これらは同時に生成する必要はない。単位方向ベクトルn及びnは、異なるタイミングで生成されてよい。例えば、生成された単位方向ベクトルn又はnは、図示しない記憶部に格納されてよい。以下で説明する画像ベクトルi及びi、統合ベクトルg及びg、特徴ベクトルf及びfについても同様である。
また、物体特徴抽出部104(特徴量算出部)は、物体検出部103で検出された移動体画像の特徴量を算出する。具体的には、物体特徴抽出部104は、カメラCAM1及びCAM2で撮像された画像から検出された車両200の画像の特徴量を、上述した単位方向ベクトルn及びnを加味してそれぞれ算出する。それぞれの特徴量は、特徴ベクトルf及びfを用いて表すことができる。物体特徴抽出部104は、以下のような処理を行うことで特徴ベクトルf及びfを生成する。
まず、物体特徴抽出部104は、カメラCAM1及びCAM2で撮像された画像の画像ベクトルi及びiをそれぞれ算出する。画像ベクトルi及びiは、各画像における各画素の画素値を示すものであってよい。
次に、物体特徴抽出部104は、単位方向ベクトルnと画像ベクトルiとを統合し、統合ベクトルgを生成する。同様にして、物体特徴抽出部104は、単位方向ベクトルnと画像ベクトルiとを統合し、統合ベクトルgを生成する。そして、物体特徴抽出部104は、特徴抽出モデル108を用いて、統合ベクトルg及びgから特徴ベクトルf及びfをそれぞれ生成する。
このようにして、物体特徴抽出部104は、カメラCAM1で撮像された車両200の特徴量を示す特徴ベクトルfと、カメラCAM2で撮像された車両200の特徴量を示す特徴ベクトルfと、を生成することができる。
なお、物体特徴抽出部104は、車両200が含まれる画像と同一の画像において抽出された他の移動体画像の特徴量を算出してもよい。例えば、車両200と、車両200とは別の車両210が同一の画像内に含まれる場合、物体特徴抽出部104は、車両200及び車両210の特徴量を、上述のような処理によりそれぞれ算出してよい。
比較部105及びID出力部106は、対応付け部として機能する。対応付け部は、撮像方向情報と撮像画像の特徴量とに基づいて、複数の画像間で移動体を対応付ける機能部である。具体的には、比較部105は、物体特徴抽出部104で生成された特徴ベクトルf及びfを、比較モデル109を用いて比較する。ID出力部106は、比較部105における比較結果に基づいて、画像に含まれる車両200に対して移動体IDの割り当てを行う。ここで、移動体IDは、画像に含まれる移動体を識別するための識別情報である。このようにすることで、複数画像間における車両200の対応付けを行うことができる。
上記の比較において、比較部105は、単位方向ベクトルn及びnが類似する場合と、これらが類似しない場合とで、異なる対応付けを行ってよい。ここで、単位方向ベクトルn及びnが類似するか否かは、予め設けた所定の閾値との比較により判定されてよい。
また、比較部105は、単位方向ベクトルn及びnが類似する場合と、これらが類似しない場合とで、異なる基準を用いて車両200の比較を行ってもよい。例えば、比較部105は、単位方向ベクトルn及びnが類似する場合、車両200の形状を含む基準を用いて比較を行い、単位方向ベクトルn及びnが類似しない場合、車両200の形状を含まない基準を用いて比較を行ってよい。単位方向ベクトルn及びnが類似しない場合、比較部105は、例えば移動体の色情報を少なくとも含む基準を用いて比較を行ってよい。
なお、比較部105は、単位方向ベクトルn及びnが類似する場合には、特徴ベクトルf及びfの比較を行い、類似しない場合には、これらの比較を行わないこととしてもよい。また、比較部105は、車両200以外の画像の特徴量にさらに基づいて、特徴ベクトルf及びfの比較を行ってもよい。
ID出力部106は、比較部105における比較の結果に応じて、抽出された移動体画像に対して移動体IDの割り当てを行う。比較部105における比較の結果、複数の画像間において同一の移動体であると判定された場合、ID出力部106は、当該移動体画像に対して同一の移動体IDを付与する。
学習部110は、検出モデル107、特徴抽出モデル108、及び比較モデル109をそれぞれ学習させる。
続いて、図2を用いて画像処理システム100が行う処理について説明する。図2は、画像処理システム100が行う処理を示すフローチャートである。
まず、画像取得部101は、カメラから撮像画像を取得する(S101)。撮像画像には、撮像された日時を示す撮像日時情報が含まれている。
物体検出部103は、検出モデル107を用いて、入力画像の抽出及び識別処理を行う。物体検出部103は、画像中の車両、自転車、歩行者などの移動体領域を抽出する。ここでは、物体検出部103は、車両200の画像領域を抽出する(S103)。物体検出部103は、深層学習ネットワーク等の一般物体認識技術を用いて移動体領域を抽出してもよい。
物体特徴抽出部104は、カメラ情報取得部102から取得したカメラパラメータと、ステップS103で抽出された物体領域から、車両の方向ベクトルを算出する(S105)。
物体特徴抽出部104は、ステップS103で抽出された物体の画像特徴と、ステップS105で算出された方向ベクトルと、を統合した統合ベクトルを生成する。物体特徴抽出部104は、生成した統合ベクトルを入力とし、ニューラルネットワークなどの特徴抽出器で特徴ベクトルを生成する(S107)。
比較部105は、対象物体の特徴ベクトルと過去フレームの特徴ベクトルとの比較を行う(S109)。比較部105は、対象物体の特徴ベクトルと過去フレームの特徴ベクトルが同一であるか否かを判定する(S111)。特徴ベクトルが同一であると判定された場合(S111のYES)、ID出力部106は、同一のIDを付与し(S113)、処理を終了する。
ステップS111において特徴ベクトルが同一でないと判定された場合(S111のNO)、ステップS117に進む。比較部105は、他の特徴ベクトルがあるか否かを判定する(S117)。他の特徴ベクトルがあると判定された場合(S117のYES)、ステップS109に戻る。他の特徴ベクトルがないと判定された場合(S117のNO)、ステップS115に進む。この場合、ID出力部106は、新なIDを付与し(S115)、処理を終了する。
上述したステップS105、S107、及びS109の処理について、図3を参照して詳細に説明する。図3は、カメラCAM1で車両200を撮像した場合における単位方向ベクトルn、画像ベクトルi、統合ベクトルg、及び特徴ベクトルfを生成するまでの処理の概要を示す図である。カメラCAM2で車両200を撮像した場合における単位方向ベクトルn、画像ベクトルi、統合ベクトルg2、及び特徴ベクトルfについても、同様にして生成することができる。
なお、以下の説明では、画像ベクトルi又はiを単に「画像ベクトルi」と称して説明する場合がある。同様に、単位方向ベクトルn又はnを「単位方向ベクトルn」、統合ベクトルg又はgを「統合ベクトルg」、特徴ベクトルf又はfを「特徴ベクトルf」と称して説明する場合がある。
上述したステップS105では、カメラパラメータと、ステップS103で抽出された物体領域から、車両200の単位方向ベクトルnを以下の手順で算出する。ここでは、カメラパラメータは3行4列の射影行列Aとして表現する。また、図3に示すように、3次元世界座標の車両の重心位置をP(X,Y,Z)、画像座標での重心位置をp(u,v)とする。
P(X,Y,Z)とp(u,v)との関係は、以下の式(1)のように表される。
Figure 2023008030000002
・・・(1)
式(1)において、Sはスケールパラメータである。また、射影行列Aは、カメラCAM1のキャリブレーションを行うことで求められる既知の行列である。また、射影行列Aは、以下の式(2)及び式(3)で表すことができる。
Figure 2023008030000003
・・・(2)
Figure 2023008030000004
・・・(3)
式(1)~式(3)より、以下の式(4)が得られる。
Figure 2023008030000005
・・・(4)
ステップS105において、車両200の単位方向ベクトルnは、以下の式(5)のように計算される。
Figure 2023008030000006
・・・(5)
式(5)において、方向ベクトルNは以下の式(6)で表される。
Figure 2023008030000007
・・・(6)
ステップS107では、以下の手順で特徴ベクトルfを算出する。
まず、図3に示す車両200の検出枠DをK*Kの矩形領域に正規化する。検出枠Dは、物体検出部103によって検出された画像領域であってよい。次に、正規化された矩形領域に対してラスタースキャンを行う。そして、ラスタースキャンの順に並べた矩形領域の画素値を、以下の式(7)に示すように画像ベクトルiとして定義する。ここで、次元数は、正規化された矩形領域内にある画素数と等しくなる。
Figure 2023008030000008
・・・(7)
次に、ステップS105の(5)で計算した単位方向ベクトルnと、式(7)で定義した画像ベクトルiとを統合し、以下の式(8)で表される統合ベクトルgを生成する。
Figure 2023008030000009
・・・(8)
式(8)で生成した統合ベクトルgを、特徴抽出モデル108の学習器に入力し、出力として特徴ベクトルfを得る。特徴抽出モデル108及び比較モデル109の構造の一例を図4に示す。図4においては、対象物体の統合ベクトルg及び過去フレームの統合ベクトルgが示されている。
学習器としては、様々な機械学習モデルを用いることができる。例えば、深層学習畳み込みニューラルネットワーク(CNN)を用いてよい。
ステップS109では、ステップS107で得た対象物体の特徴ベクトルfと、過去フレームの特徴ベクトルfの比較を行う。比較部105は、比較モデル109の学習器に特徴ベクトルf及びfを入力し、出力として1ならば同一、0ならば同一でないと判定する。学習器としては、様々な機械学習モデルを用いることができる。例えば階層型ニューラルネットワークを用いてよい。
特徴抽出モデル108としては、様々な汎用的なCNNを用いることができる。例えば、VGGやEfficientNet、ResNetなどを用いることができる。また、比較モデル109としては、汎用的な全結合多層パーセプトロンを用いることができる。特徴抽出モデル108及び比較モデル109の学習は、同時に行う。
教師データは、以下の式(9)で表されるデータと、式(10)で表されるラベルとの組になる。
Figure 2023008030000010
・・・(9)
Figure 2023008030000011
・・・(10)
統合ベクトルgは式(8)で既に定義されている。式(10)において、idは、時刻tにおける移動体の移動体IDである。統合ベクトルg及びgの入力に対し、移動体IDが等しい場合は1を、異なる場合は0を入力するように学習する。
このように、本実施形態では、カメラからの単位方向ベクトルnを移動体画像の画像ベクトルiに付加して、画像の比較に用いるための特徴ベクトルfを生成することができる。そのため、画像ベクトルiのみで比較する場合よりも、精度よく移動体画像の対応付けを行うことができる。
図5及び図6は、本実施形態にかかる画像処理システム100の処理を模式的に示す図である。白抜き矢印に示すように、車両200は、紙面右側の地点A1から紙面左側の地点A2に向かい進行している。車両200は、地点A1及びA2において、カメラCAM1及びカメラCAM2によりそれぞれ撮像される。
図5では、カメラCAM1及びCAM2は、同じ方向から車両200を撮像するように配置されている。同図では、カメラCAM1及びCAM2は、車両200を前方から撮像する。これに対し、図6では、カメラCAM1及びCAM2が背中合わせとなるように配置されている。カメラCAM1は車両200を前方から撮像し、カメラCAM2は車両200を後方から撮像することとなる。そのため、地点A1及びA2で撮像される画像では、車両200の形状等が異なるものとなる。
本実施形態にかかる画像処理システム100では、図5に示すような場合と図6に示すような場合とで、異なる基準を用いて画像を比較し、車両200の対応付けを行うことができる。例えば、図5に示すような場合には、車両200の形状を含む基準を用いて対応付けを行う。車両200の形状を含む基準は、例えば、車両200の形状や、テクスチャ(各画素の画素値)などの特徴を用いた基準であってよい。
また、図6に示すような場合には、車両200の形状を含まない基準を用いて画像を比較し、対応付けを行うことができる。車両200の形状を含まない基準は、車両200の色特徴などを用いた基準であってよい。例えば、車両200の全体的な色味(例えば、白)や車両200の模様などの特徴を用いた基準であってよい。カメラの姿勢に依存しないこのような特徴を用いて比較を行うことで、精度よく車両200の対応付けができる。
また、図6に示すカメラCAM1及びCAM2のように、撮像方向が大きく違うような場合には、カメラCAM2の撮像画像は、画像の対応付けに用いないこととしてもよい。このようにすることで、撮像方向が類似する画像に限定して比較することができるので、車両200の形状にかかる特徴に重みを付けた対応付けを行うことができる。
なお、図5及び図6では、2つのカメラが同じ方向(前方)から車両200を撮像する例と、逆方向(前方又は後方)から撮像する例を示しているが、これに限られない。撮像方向は、任意の方向を含んでよい。例えば、車両200の側面や上面からの撮像方向が含まれてよい。したがって、撮像方向が90度異なる場合などが含まれてよい。撮像方向が類似するか否かによって、異なる対応付けが行われてよい。なお、撮像方向が類似するか否かの判定は、カメラから車両200に向かう単位方向ベクトルn及びnを、予め設けた所定の閾値と比較するなどして行ってよい。
また、これに限らず、画像処理システム100は、任意の重み付けを行い、車両200の対応付けを行ってよい。
以上説明したように、本実施形態にかかる画像処理システム100では、画像取得部101において、車両200が含まれる画像をカメラから複数取得する。また、物体特徴抽出部104において、カメラから移動体に対する撮像方向を示す撮像方向情報(単位方向ベクトルn)と、複数の画像から抽出された各移動体画像の特徴量(画像ベクトルi)を算出する。物体特徴抽出部104は、単位方向ベクトルn及び画像ベクトルiから統合ベクトルgを算出し、統合ベクトルgから特徴ベクトルfを算出する。比較部105では、異なる時刻で撮像された画像間で特徴ベクトルfを比較する。ID出力部106は、比較部105における比較結果に基づいて、同一の車両200に同一の移動体IDを付与することで画像の対応付けを行う。
このような構成により、画像処理システム100では、単位方向ベクトルnが異なる状態、すなわち撮像画像における車両200の形状特徴が異なると考えられる状態では、カメラの姿勢に依存しない色情報などに基づいて対応付けを行うことができる。したがって、本実施形態にかかる画像処理システム100によれば、カメラの配置に応じた最適なID推論エンジンを学習することができる。これにより、撮像された移動体を誤認識することを防ぎ、精度よく移動体を追跡することが可能となる。
<実施形態2>
続いて、本開示の実施形態2について説明する。
実施形態1では、物体特徴抽出部104(撮像方向情報算出部)において算出された撮像方向情報(方向ベクトル)と、各撮像画像の特徴量(画像ベクトル)とに基づいて、複数画像間における移動体の対応付けを行った。本実施形態では、上記の方向ベクトルに代わり、撮像画像において抽出された、車両200とは別の移動体の情報を加味して対応付けを行う。
図7は、本実施形態にかかる画像処理システム100の処理を模式的に示す図である。同図に示すように、地点A1において、車両200の近傍には車両210及び220が存在しており、同一方向に向かい走行しているものとする。ここでは、複数画像間で対応付けを行う対象は車両200であり、車両210及び220は、その対象ではないものとする。
本実施形態にかかる画像処理システム100の構成は、図1に示すブロック図と同様である。図1を参照して本実施形態にかかる画像処理システム100の構成を説明する。実施形態1と同様の構成については、その説明を省略する。
画像取得部101は、移動体画像が含まれる撮像画像を、カメラから複数取得する。ここで、撮像画像には、車両200以外の移動体が含まれている。ここでは、図7に示すように、カメラCAM1で撮像された画像には、車両200、210、及び220が同一画像内に含まれているものとする。また、カメラCAM2で撮像された画像には、車両200及び210が同一画像内に含まれるが、車両220は同一画像内には含まれていないものとする。
物体検出部103は、画像取得部101において取得された画像から、検出モデル107を用いて車両200~220の物体領域を検出する。
物体特徴抽出部104は、特徴量算出部として機能する。物体特徴抽出部104は、物体検出部103で抽出された車両200~220について、それぞれの画像の特徴量を算出する。実施形態1と同様にして、物体特徴抽出部104は、各画像の特徴量を示す画像ベクトルiを生成する。
ここで、物体特徴抽出部104は、対応付けの対象でない車両210及び220のうち、対応付けの対象である車両200と移動速度が近い車両を特定して、画像ベクトルiを算出してよい。車両200~220の移動速度は、カメラCAM1で撮像して取得された複数の画像に基づいて、算出されてよい。例えば、カメラCAM1において所定の時間間隔で撮像された複数の画像を比較し、撮像間隔と、車両200~220のそれぞれの移動距離とに基づいて算出されてもよい。これに限らず、他の算出方法を用いて各車両の速度が算出されてもよい。
図7において、地点A1における車両200、210、及び220の走行速度は、それぞれ速度ベクトルV、速度ベクトルV、及び速度ベクトルVで示されている。車両200と車両210とは比較的近い速度で走行しており、車両220は、これらの速度よりも比較的速い速度で走行しているものとする。物体特徴抽出部104は、車両200と移動速度の近い車両210に対応する画像の画像ベクトルiを生成する。
物体特徴抽出部104は、予め所定の閾値を設けて、移動速度が近いか否かを判定してよい。物体特徴抽出部104は、車両200の移動速度と、他の車両の移動速度との差が所定値以下の場合に、移動速度が近いと判定してよい。なお、以下では、車両200と移動速度の近い車両を、「近傍車両」と称して説明を行う場合がある。
近傍車両は、複数存在してもよい。また、複数の近傍車両に優先度を設けて、車両200の対応付けに用いてもよい。例えば、移動速度が車両200と近い順に優先度を大きくして、優先度に応じて対応付けの重み付けを行ってもよい。
図1に戻り説明を続ける。比較部105及びID出力部106は、対応付け部の機能を有する。対応付け部は、車両200の画像の特徴量と、車両200以外の画像の特徴量とに基づいて、複数の画像間で車両200を対応付ける。
具体的には、比較部105において、物体特徴抽出部104で生成された車両200の特徴ベクトルを比較することにより、複数の画像の比較を行う。比較部105は、比較モデル109を用いて、比較結果を取得してよい。ID出力部106は、比較部105における比較の結果に応じて、移動体IDの割り当てを行う。
続いて、図8を用いて、本実施形態にかかる画像処理システム100が行う処理を説明する。図8は、本実施形態にかかる画像処理システム100が行う処理を示すフローチャートである。
まず、画像取得部101は、カメラから撮像画像を取得する(S201)。撮像画像には、撮像された日時を示す撮像日時情報が含まれている。物体検出部103は、検出モデル107を用いて、入力画像の抽出及び識別処理を行い、画像中の車両、自転車、歩行者などの移動体領域を抽出する(S203)。物体検出部103は、深層学習ネットワーク等の一般物体認識技術を用いて移動体領域を抽出してもよい。
物体特徴抽出部104は、撮像画像に含まれる近傍車両の画像ベクトルを算出する(S205)。ここで、図9を用いて、近傍車両を特定する処理について説明する。図9は、近傍車両を特定する処理を示すフローチャートである。
物体特徴抽出部104は、車両200と移動速度が類似する車両(以下、「ノード」と称する)を同一のグループ化グラフ300に追加し、移動速度が類似しないノードをグループ化グラフ300から削除する。物体特徴抽出部104は、以下の処理によってノードの追加又は削除を行う。
まず、物体特徴抽出部104は、対応付けの対象である車両200を、ルートノードとして決定する(S301)。物体特徴抽出部104は、車両200とグループ化する候補となる候補ノードを決定する(S303)。例えば、物体特徴抽出部104は、対象車両のオルソ画像の重心から所定の距離以内にある車両を候補ノードとする。図7に示す例では、車両210及び220が候補ノードとなる。これに限らず、候補ノードは任意の条件を用いて決定されてよい。例えば、撮像画像に含まれる全ての移動体を候補ノードとしてもよい。
物体特徴抽出部104は、候補ノードのうち、車両200と速度ベクトルの差の絶対値が所定値以下である車両を、車両200と同じグループ化グラフ300のノードに決定する(S305)。エッジ強度は、差の絶対値の逆数とする。ここでは、物体特徴抽出部104は、車両210を同一のグループ化グラフ300のノードとして決定する。
物体特徴抽出部104は、候補ノードのうち、ステップS305の条件を満たさないものがあれば削除する(S307)。ここでは、車両220が削除される。
このようにして、物体特徴抽出部104は、車両200と同一グループに属する近傍車両を特定することができる。ここでは、物体特徴抽出部104は、車両210を車両200の近傍車両として特定する。
図8に戻り説明を続ける。物体特徴抽出部104は、車両200及び210の画像ベクトルを用いて、特徴ベクトルを生成する(S207)。それぞれの特徴ベクトルの生成方法は、実施形態1と同様であるので詳細な説明を省略する。
図10は、実施形態1の図4に対応する図であり、特徴抽出モデル108及び比較モデル109の構造の一例を示している。物体特徴抽出部104は、実施形態1における式(7)と同様にして、車両200の画像ベクトルiと、車両210の画像ベクトルjをそれぞれ生成する。
次に、物体特徴抽出部104は、実施形態1における式(8)と同様にして、画像ベクトルi及びjを統合し、統合ベクトルgを生成する。統合ベクトルgは、以下の式(11)で表される。
Figure 2023008030000012
・・・(11)
物体特徴抽出部104は、実施形態1と同様にして、統合ベクトルgから特徴ベクトルfを生成する。物体特徴抽出部104は、対象物体の特徴ベクトルfと過去フレームの特徴ベクトルfをそれぞれ生成する。
比較部105は、ステップS207で得た特徴ベクトルf及びfの比較を行う(S209)。特徴ベクトルf及びfの入力に対し、移動体IDが等しい場合は1を、異なる場合は0を入力するように学習する。
以降の処理は実施形態1と同様であるので、その説明を省略する。ステップS211~S217の処理は、図2を用いて説明したステップS111~S117に対応している。
なお、近傍車両が複数存在する場合、全ての近傍車両について特徴ベクトルを生成してもよいし、対応付けに用いる近傍車両を限定して、当該限定された近傍車両の特徴ベクトルを生成してもよい。例えば、車両200の移動速度や車両200との位置関係等に応じて、対応付けに用いる優先順位を設けてもよい。
以上説明したように、本実施形態にかかる画像処理システム100によれば、対応付けの対象となる車両200の近傍に存在する車両210の画像情報を付加して特徴ベクトルを生成する。また、車両200からの距離と、車両200及び車両210の移動速度の差を用いて近傍車両を特定する。
このように、同グループと見なせる近傍の移動体の画像情報を付加して特徴を生成することで、車両200の単体の画像情報を用いる場合と比較して、より精度よく画像の対応付けを行うことができる。車両200と形状の特徴が類似する車両が複数ある場合であっても、複数の画像間における車両200の対応付けを適切に行うことができる。
なお、本実施形態は、実施形態1で説明した構成を組み合わせて実現されてもよい。実施形態1で説明した方向ベクトルと、本実施形態で説明した近傍車両の画像ベクトルとの双方を用いて、車両200の対応付けを行ってもよい。
<ハードウエアの構成例>
画像処理システム100の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、画像処理システム100の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図11は、画像処理システム100を実現するコンピュータ900のハードウエア構成を例示するブロック図である。コンピュータ900は、画像処理システム100を実現するために設計された専用のコンピュータであってもよいし、汎用のコンピュータであってもよい。コンピュータ900は、スマートフォンやタブレット端末などといった可搬型のコンピュータであってもよい。
例えば、コンピュータ900に対して所定のアプリケーションをインストールすることにより、コンピュータ900で、画像処理システム100の各機能が実現される。上記アプリケーションは、画像処理システム100の機能構成部を実現するためのプログラムで構成される。
コンピュータ900は、バス902、プロセッサ904、メモリ906、ストレージデバイス908、入出力インタフェース910、及びネットワークインタフェース912を有する。バス902は、プロセッサ904、メモリ906、ストレージデバイス908、入出力インタフェース910、及びネットワークインタフェース912が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ904などを互いに接続する方法は、バス接続に限定されない。
プロセッサ904は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は FPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ906は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス908は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。
入出力インタフェース910は、コンピュータ900と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース910には、キーボードなどの入力装置や、ディスプレイ装置などの出力装置が接続される。例えば、入出力インタフェース910には、実施形態で説明したカメラが接続されてよい。
ネットワークインタフェース912は、コンピュータ900をネットワークに接続するためのインタフェースである。このネットワークは、LAN(Local Area Network)であってもよいし、WAN(Wide Area Network)であってもよい。
ストレージデバイス908は、画像処理システム100の各機能構成部を実現するプログラム(前述したアプリケーションを実現するプログラム)を記憶している。プロセッサ904は、このプログラムをメモリ906に読み出して実行することで、画像処理システム100の各機能構成部を実現する。
プロセッサの各々は、アルゴリズムをコンピュータに行わせるための命令群を含む1又はそれ以上のプログラムを実行する。このプログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。
なお、本開示は上記実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
100 画像処理システム
101 画像取得部
102 カメラ情報取得部
103 物体検出部
104 物体特徴抽出部
105 比較部
106 ID出力部
107 検出モデル
108 特徴抽出モデル
109 比較モデル
110 学習部
200、210、220 車両
300 グループ化グラフ
CAM1、CAM2 カメラ
D 検出枠
N 方向ベクトル
n、n、n 単位方向ベクトル
i、i、i、j 画像ベクトル
g、g、g 統合ベクトル
f、f、f 特徴ベクトル
、V、V 速度ベクトル

Claims (12)

  1. 移動体画像が含まれる画像を複数取得する画像取得部と、
    前記複数の画像の撮像時における、撮像装置から移動体に対する撮像方向を示す撮像方向情報を算出する撮像方向情報算出部と、
    前記複数の画像から抽出された前記移動体画像の特徴量を算出する特徴量算出部と、
    前記撮像方向情報と前記特徴量とに基づいて、前記複数の画像間で前記移動体を対応付ける対応付け部と、
    を備える画像処理システム。
  2. 前記撮像方向情報は、前記撮像装置から前記移動体に向かう方向ベクトルであり、
    前記対応付け部は、前記複数の画像間で前記方向ベクトルが類似する場合と、前記複数の画像間で前記方向ベクトルが類似しない場合とで、異なる対応付けを行う
    請求項1に記載の画像処理システム。
  3. 前記対応付け部は、前記複数の画像間で前記方向ベクトルが類似する場合と、前記複数の画像間で前記方向ベクトルが類似しない場合とで、異なる基準を用いて前記移動体を対応付ける
    請求項2に記載の画像処理システム。
  4. 前記対応付け部は、
    前記複数の画像間で前記方向ベクトルが類似する場合、前記移動体の形状を含む基準を用いて前記移動体を対応付け、
    前記複数の画像間で前記方向ベクトルが類似しない場合、前記移動体の形状を含まない基準を用いて前記移動体を対応付ける
    請求項2又は3に記載の画像処理システム。
  5. 前記対応付け部は、前記複数の画像間で前記方向ベクトルが類似しない場合、前記移動体の色情報を少なくとも含む基準を用いて前記移動体を対応付ける
    請求項2~4のいずれか1項に記載の画像処理システム。
  6. 前記特徴量算出部は、前記移動体画像が含まれる画像と同一の画像において抽出された他の移動体画像の特徴量をさらに算出し、
    前記対応付け部は、前記他の移動体画像の特徴量にさらに基づいて、前記移動体を対応付ける
    請求項1~5のいずれか1項に記載の画像処理システム。
  7. 移動体画像が含まれる画像を複数取得する画像取得部と、
    前記複数の画像から抽出された前記移動体画像の特徴量と、前記移動体画像が含まれる画像と同一の画像において抽出された他の移動体画像の特徴量と、を算出する特徴量算出部と、
    前記移動体画像の特徴量と前記他の移動体画像の特徴量とに基づいて、前記複数の画像間で前記移動体を対応付ける対応付け部と、
    を備える画像処理システム。
  8. 前記特徴量算出部は、前記移動体の移動速度と前記他の移動体の移動速度との差が所定値以下の場合に、前記他の移動体画像の特徴量を算出する
    請求項7に記載の画像処理システム。
  9. 移動体画像が含まれる画像を複数取得する画像取得ステップと、
    前記複数の画像の撮像時における、撮像装置から移動体に対する撮像方向を示す撮像方向情報を算出する撮像方向情報算出ステップと、
    前記複数の画像から抽出された前記移動体画像の特徴量を算出する特徴量算出ステップと、
    前記撮像方向情報と前記特徴量とに基づいて、前記複数の画像間で前記移動体を対応付ける対応付けステップと、
    を備える画像処理方法。
  10. 移動体画像が含まれる画像を複数取得する画像取得ステップと、
    前記複数の画像から抽出された前記移動体画像の特徴量と、前記移動体画像が含まれる画像と同一の画像において抽出された他の移動体画像の特徴量と、を算出する特徴量算出ステップと、
    前記移動体画像の特徴量と前記他の移動体画像の特徴量とに基づいて、前記複数の画像間で前記移動体を対応付ける対応付けステップと、
    を備える画像処理方法。
  11. 移動体画像が含まれる画像を複数取得する画像取得ステップと、
    前記複数の画像の撮像時における、撮像装置から移動体に対する撮像方向を示す撮像方向情報を算出する撮像方向情報算出ステップと、
    前記複数の画像から抽出された前記移動体画像の特徴量を算出する特徴量算出ステップと、
    前記撮像方向情報と前記特徴量とに基づいて、前記複数の画像間で前記移動体を対応付ける対応付けステップと、
    をコンピュータに実行させる画像処理プログラム。
  12. 移動体画像が含まれる画像を複数取得する画像取得ステップと、
    前記複数の画像から抽出された前記移動体画像の特徴量と、前記移動体画像が含まれる画像と同一の画像において抽出された他の移動体画像の特徴量と、を算出する特徴量算出ステップと、
    前記移動体画像の特徴量と前記他の移動体画像の特徴量とに基づいて、前記複数の画像間で前記移動体を対応付ける対応付けステップと、
    をコンピュータに実行させる画像処理プログラム。
JP2021111258A 2021-07-05 2021-07-05 画像処理システム、画像処理方法及び画像処理プログラム Active JP7666179B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021111258A JP7666179B2 (ja) 2021-07-05 2021-07-05 画像処理システム、画像処理方法及び画像処理プログラム
US17/850,665 US12315173B2 (en) 2021-07-05 2022-06-27 Image processing system, image processing method, and storage medium for associating moving objects in images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021111258A JP7666179B2 (ja) 2021-07-05 2021-07-05 画像処理システム、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2023008030A true JP2023008030A (ja) 2023-01-19
JP7666179B2 JP7666179B2 (ja) 2025-04-22

Family

ID=84785599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021111258A Active JP7666179B2 (ja) 2021-07-05 2021-07-05 画像処理システム、画像処理方法及び画像処理プログラム

Country Status (2)

Country Link
US (1) US12315173B2 (ja)
JP (1) JP7666179B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7207258B2 (ja) * 2019-10-16 2023-01-18 トヨタ自動車株式会社 物品搬送システム、物品搬送ロボット、および、収容箱
TWI827356B (zh) * 2022-11-11 2023-12-21 大陸商廣州印芯半導體技術有限公司 行為影像感測系統

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018032078A (ja) * 2016-08-22 2018-03-01 Kddi株式会社 他の物体の画像領域も考慮して物体を追跡する装置、プログラム及び方法
JP2020161032A (ja) * 2019-03-28 2020-10-01 日本電気株式会社 追跡方法、追跡装置、及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105690A (ja) 1996-09-27 1998-04-24 Oki Electric Ind Co Ltd 広域移動体追跡装置
JP3523847B2 (ja) * 2001-05-02 2004-04-26 株式会社リオスコーポレーション 動体関連付けシステム
JP2004199623A (ja) * 2002-12-20 2004-07-15 Minolta Co Ltd 移動体の計数方法
JP5459674B2 (ja) 2010-09-13 2014-04-02 株式会社東芝 移動物体追跡システムおよび移動物体追跡方法
MX2012009579A (es) 2010-02-19 2012-10-01 Toshiba Kk Sistema de rastreo de objetos en movimiento y metodo de rastreo de objetos en movimiento.
US8498448B2 (en) * 2011-07-15 2013-07-30 International Business Machines Corporation Multi-view object detection using appearance model transfer from similar scenes
JP6953292B2 (ja) 2017-11-29 2021-10-27 Kddi株式会社 オブジェクト識別装置および方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018032078A (ja) * 2016-08-22 2018-03-01 Kddi株式会社 他の物体の画像領域も考慮して物体を追跡する装置、プログラム及び方法
JP2020161032A (ja) * 2019-03-28 2020-10-01 日本電気株式会社 追跡方法、追跡装置、及びプログラム

Also Published As

Publication number Publication date
US20230005162A1 (en) 2023-01-05
US12315173B2 (en) 2025-05-27
JP7666179B2 (ja) 2025-04-22

Similar Documents

Publication Publication Date Title
CN109478239B (zh) 检测图像中的对象的方法和对象检测系统
JP6032921B2 (ja) 物体検出装置及びその方法、プログラム
US10872262B2 (en) Information processing apparatus and information processing method for detecting position of object
JP4216668B2 (ja) 映像視覚情報を結合してリアルタイムで複数の顔を検出して追跡する顔検出・追跡システム及びその方法
WO2021000664A1 (zh) 跨模态目标检测中的差异自动校准方法、系统、装置
CN110097050B (zh) 行人检测方法、装置、计算机设备及存储介质
US9665803B2 (en) Image processing apparatus and image processing method
US10748294B2 (en) Method, system, and computer-readable recording medium for image object tracking
JP7272024B2 (ja) 物体追跡装置、監視システムおよび物体追跡方法
WO2018025831A1 (ja) 人流推定装置、表示制御装置、人流推定方法および記録媒体
US12175699B2 (en) Confidence determination of 3D point cloud data acquired by LIDAR sensor
US12475676B2 (en) Object detection method, object detection device, and program
WO2013012091A1 (ja) 情報処理装置、物体追跡方法およびプログラム記憶媒体
JP6756406B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2021503139A (ja) 画像処理装置、画像処理方法および画像処理プログラム
Guo et al. Global-local MAV detection under challenging conditions based on appearance and motion
CN108875500A (zh) 行人再识别方法、装置、系统及存储介质
JP6899986B1 (ja) オブジェクト領域特定装置、オブジェクト領域特定方法、及びオブジェクト領域特定プログラム
KR101681104B1 (ko) 부분적 가림을 갖는 영상 객체 내의 주요 특징점 기반 다중 객체 추적 방법
JP7666179B2 (ja) 画像処理システム、画像処理方法及び画像処理プログラム
JP7488674B2 (ja) 物体認識装置、物体認識方法及び物体認識プログラム
WO2023149295A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019075051A (ja) 画像処理装置
WO2025046917A1 (ja) 情報処理装置、情報処理方法、およびコンピュータにより読み取り可能な非一過性の記憶媒体
JP2019200527A (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250324

R150 Certificate of patent or registration of utility model

Ref document number: 7666179

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150