[go: up one dir, main page]

JP2019096062A - Object tracking device, object tracking method, and object tracking program - Google Patents

Object tracking device, object tracking method, and object tracking program Download PDF

Info

Publication number
JP2019096062A
JP2019096062A JP2017224998A JP2017224998A JP2019096062A JP 2019096062 A JP2019096062 A JP 2019096062A JP 2017224998 A JP2017224998 A JP 2017224998A JP 2017224998 A JP2017224998 A JP 2017224998A JP 2019096062 A JP2019096062 A JP 2019096062A
Authority
JP
Japan
Prior art keywords
image
tracking
object image
same
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017224998A
Other languages
Japanese (ja)
Other versions
JP6972962B2 (en
Inventor
早田 啓介
Keisuke Hayata
啓介 早田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2017224998A priority Critical patent/JP6972962B2/en
Publication of JP2019096062A publication Critical patent/JP2019096062A/en
Application granted granted Critical
Publication of JP6972962B2 publication Critical patent/JP6972962B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】複数のカメラを用いた物体追跡において、各カメラを用いて追跡した物体どうしを正確に対応付ける。【解決手段】物体追跡装置は、第1物体像を検出することによって、第1物体を追跡する第1物体追跡部と、第2物体像を検出することによって、第2物体を追跡する第2物体追跡部と、第2物体の追跡で得られる第2物体像の群の中から、同一物体の判定に用いられる第2物体像を選択する第2物体像選択部と、第1物体の追跡で得られる第1物体像の群の中から、上記選択された第2物体像の特徴と類似する特徴を有する第1物体像を選択する第1物体像選択部と、この選択された第1物体像と上記選択された第2物体像とを用いて、第1物体と第2物体とが同一物体か否かを判定する同一物体判定部と、同一物体判定部によって第1物体と第2物体とが同一物体と判定されたとき、第1物体と第2物体とを対応付ける処理をする対応付け処理部と、を備える。【選択図】図1PROBLEM TO BE SOLVED: To accurately associate objects tracked by each camera in object tracking using a plurality of cameras. An object tracking device has a first object tracking unit that tracks a first object by detecting a first object image, and a second object tracking unit that tracks a second object by detecting a second object image. The object tracking unit, the second object image selection unit that selects the second object image used for determining the same object from the group of the second object images obtained by tracking the second object, and the tracking of the first object. A first object image selection unit that selects a first object image having characteristics similar to those of the selected second object image from the group of the first object images obtained in the above, and the selected first object image. Using the object image and the selected second object image, the same object determination unit that determines whether the first object and the second object are the same object, and the first object and the second object by the same object determination unit. When it is determined that the objects are the same, the association processing unit that performs the processing of associating the first object with the second object is provided. [Selection diagram] Fig. 1

Description

本発明は、複数のカメラを用いて、物体を追跡する技術に関する。   The present invention relates to a technique for tracking an object using a plurality of cameras.

物体追跡の一つとして、異なる場所に設置された複数のカメラが、受け持ちの範囲で物体を撮像し、各カメラで撮像された画像を用いて物体を追跡する技術がある。これによれば、長い距離において、物体を追跡することができる。この物体追跡では、各カメラを用いて追跡した物体どうしを対応づける必要がある。この対応づけの前提として、各カメラを用いて追跡した物体どうしが同一物体か否かが判定される。   As one of object tracking, there is a technology in which a plurality of cameras installed at different places capture an object in a range of the carrier and track the object using an image captured by each camera. According to this, it is possible to track an object at a long distance. In this object tracking, it is necessary to associate the tracked objects with each camera. As a premise of this correspondence, it is determined whether the objects tracked using each camera are the same object or not.

同一物体(例えば、同一人物)の判定技術として、例えば、特許文献1は、入力画像から対象人物を検出し、前記検出された対象人物の画像領域を求めるとともに前記対象人物の移動方向を算出する検出部と、画像特徴と人物の向きとの対応関係を示す情報を記憶する記憶部と、カメラの光軸に対する前記対象人物の移動方向と観測可能範囲の対応テーブルを用いて、前記対象人物の移動方向によって観測領域範囲を選択し、抽出した部分領域特徴を分割して特徴テーブルを作成するとともに、前記部分領域特徴を前記観測領域範囲内に格納する画像特徴抽出部と、比較する二つの特徴テーブルが重畳する部分領域の範囲を求め、前記重畳する部分領域の特徴のみを照合する特徴照合部と、 を備えていることを特徴とする画像処理装置を開示している。   As a determination technique of the same object (for example, the same person), for example, Patent Document 1 detects a target person from an input image, obtains an image area of the detected target person, and calculates the moving direction of the target person. A detection unit, a storage unit storing information indicating the correspondence between the image feature and the direction of the person, and a correspondence table of the moving direction of the object person with respect to the optical axis of the camera and the observable range. An observation area range is selected according to the movement direction, and the extracted partial area features are divided to create a feature table, and an image feature extraction unit that stores the partial area features in the observation area range and two features to be compared Disclosed is an image processing apparatus comprising: a feature collating unit which finds a range of partial regions on which a table is superimposed, and collates only the features of the partial regions to be superimposed. doing.

特開2015−2547号公報JP, 2015-2547, A

カメラで撮像された物体は、同一物体であっても、カメラの配置位置に対する物体の位置によって、その物体の像(以下、物体像)の形が異なる。特に、カメラの画角が大きいとき、物体像の形状が大きく異なる。例えば、カメラの視野の中央部と上端部と下端部と左端部と右端部とでは、同一物体であっても、物体像の形状が大きく異なる。本発明者は、物体が一つのカメラの視野から出る直前の物体像と、その物体が次のカメラの視野に入った直後の物体像とを用いて、同一物体か否かの判定をすれば、同一物体であるのにもかかわらず、同一物体でないと判定され、この結果、物体どうしを正確に対応付けることができないことを見出した。   Even if the object imaged by the camera is the same object, the shape of the image of the object (hereinafter referred to as an object image) differs depending on the position of the object relative to the arrangement position of the camera. In particular, when the angle of view of the camera is large, the shape of the object image is largely different. For example, the shapes of the object images of the central portion, the upper end portion, the lower end portion, the left end portion, and the right end portion of the field of view of the camera greatly differ even if they are the same object. If the inventor uses the object image immediately before the object comes out of the field of view of one camera and the object image immediately after the object enters the field of view of the next camera, it is determined whether or not they are the same object. Although they are the same object, they are determined not to be the same object, and as a result, it has been found that the objects can not be accurately associated with each other.

本発明の目的は、複数のカメラを用いた物体追跡において、各カメラを用いて追跡した物体どうしを正確に対応付けることができる物体追跡装置、物体追跡方法、および、物体追跡プログラムを提供することである。   An object of the present invention is to provide an object tracking device, an object tracking method, and an object tracking program, which can accurately associate objects tracked with each camera in object tracking using a plurality of cameras. is there.

本発明の第1局面に係る物体追跡装置は、複数のカメラを用いて物体を追跡する物体追跡装置であって、前記複数のカメラの一つである第1カメラによって撮像された画像が時系列に並ぶ第1時系列画像、および、前記複数のカメラの他の一つである第2カメラによって撮像された画像が時系列に並ぶ第2時系列画像を取得する取得部と、第1物体の像である第1物体像を前記第1時系列画像から検出することによって、前記第1物体を追跡する第1物体追跡部と、第2物体の像である第2物体像を前記第2時系列画像から検出することによって、前記第2物体を追跡する第2物体追跡部と、所定の基準に従って、前記第2物体追跡部による前記第2物体の追跡で得られる前記第2物体像の群の中から、同一物体の判定に用いられる前記第2物体像を選択する第2物体像選択部と、前記第1物体追跡部による前記第1物体の追跡で得られる前記第1物体像の群の中から、前記第2物体像選択部によって選択された前記第2物体像の特徴と類似する特徴を有する前記第1物体像を選択する第1物体像選択部と、前記第1物体像選択部によって選択された前記第1物体像と前記第2物体像選択部によって選択された前記第2物体像とを用いて、前記第1物体と前記第2物体とが同一物体か否かを判定する同一物体判定部と、前記同一物体判定部によって前記第1物体と前記第2物体とが同一物体と判定されたとき、前記第1物体と前記第2物体とを対応付ける処理をする対応付け処理部と、を備える。   An object tracking device according to a first aspect of the present invention is an object tracking device for tracking an object using a plurality of cameras, and an image captured by a first camera which is one of the plurality of cameras is time-series An acquisition unit configured to acquire a first time-series image aligned in time, and a second time-series image aligned in time series, an image captured by a second camera that is another one of the plurality of cameras; A first object tracking unit that tracks the first object by detecting a first object image that is an image from the first time-series image, and a second object image that is an image of a second object at the second time A second object tracking unit for tracking the second object by detecting from the sequence image, and a group of the second object images obtained by tracking the second object by the second object tracking unit according to a predetermined standard Second, which is used to determine the same object from among A second object image selection unit for selecting a body image; and a second object image selection unit selected from a group of the first object images obtained by tracking of the first object by the first object tracking unit. A first object image selecting unit for selecting the first object image having a feature similar to the feature of the second object image; and the first object image and the second selected by the first object image selecting unit An identical object determination unit that determines whether the first object and the second object are the same object using the second object image selected by the object image selection unit; and the same object determination unit And an association processing unit configured to associate the first object with the second object when it is determined that the first object and the second object are the same object.

追跡の対象となる物体(第1物体、第2物体)は、第1カメラの視野から第2カメラの視野へ移動してもよいし、第2カメラの視野から第1カメラの視野へ移動してもよい。第1カメラの視野と第2カメラの視野とは、重なっていなくてもよいし、一部が重なっていてもよい。   An object to be tracked (first object, second object) may move from the field of view of the first camera to the field of view of the second camera, or move from the field of view of the second camera to the field of view of the first camera. May be The field of view of the first camera and the field of view of the second camera may not overlap or may partially overlap.

第2物体像選択部は、所定の基準に従って、同一物体の判定に用いられる第2物体像を選択する。例えば、第2物体像選択部は、第2時系列画像を構成する画像(フレーム)の中で、第2物体像が最初に出現する画像(フレーム)に含まれる第2物体像を選択する。   The second object image selection unit selects a second object image to be used for determination of the same object in accordance with a predetermined criterion. For example, the second object image selection unit selects a second object image included in an image (frame) in which the second object image first appears among images (frames) constituting the second time-series image.

第1物体像選択部は、第2物体像選択部によって選択された第2物体像の特徴と類似する特徴を有する第1物体像を選択する。特徴類似の判断要素を例示すれば、以下の通りである。   The first object image selecting unit selects a first object image having a feature similar to the feature of the second object image selected by the second object image selecting unit. The characteristic similar judgment elements are as follows.

(1)第1物体像の移動方向(動線の方向)と第2物体像の移動方向(動線の方向)とが同じである。
(2)第1物体像の画像(フレーム)上の位置と第2物体像の画像(フレーム)上の位置とが同じである。
(3)第1物体像(第1物体)の移動速度と第2物体像(第2物体)の移動速度とが同じである。
(4)第1物体像の向きと第2物体像の向きとが同じである。
(1) The movement direction of the first object image (the direction of the movement line) and the movement direction of the second object image (the direction of the movement line) are the same.
(2) The position on the image (frame) of the first object image and the position on the image (frame) of the second object image are the same.
(3) The moving speed of the first object image (first object) is the same as the moving speed of the second object image (second object).
(4) The orientation of the first object image is the same as the orientation of the second object image.

ここでの同じとは、完全に同じでもよいし、ほぼ同じでもよい。第1物体像選択部は、(1)〜(4)のいずれか1つ、または、これらの2つ以上の組み合わせについて、第1物体像と第2物体像とが同じであれば、第1物体像の特徴と第2物体像の特徴とが類似すると判断する。例えば、(1)および(2)を満たせば、第1物体像の特徴と第2物体像の特徴とは類似する。   The same here may be completely the same or almost the same. If the first object image and the second object image are the same for any one of (1) to (4) or a combination of two or more of them, the first object image selection unit performs the first It is determined that the feature of the object image and the feature of the second object image are similar. For example, if (1) and (2) are satisfied, the features of the first object image and the features of the second object image are similar.

第1物体像選択部は、第2物体像の特徴と類似する特徴を有する第1物体像が複数あれば、所定の基準に従って、複数の第1物体像の中から第1物体像を選択する。例えば、第1物体像選択部は、第2物体像選択部によって選択された第2物体像を含む画像(フレーム)が撮像された時刻と一番近い時刻に撮像された画像(フレーム)に含まれる第1物体像を選択する。   The first object image selecting unit selects the first object image from among the plurality of first object images according to a predetermined criterion if there are a plurality of first object images having features similar to the features of the second object image. . For example, the first object image selecting unit is included in an image (frame) captured at a time closest to a time when an image (frame) including the second object image selected by the second object image selecting unit is captured. The first object image to be selected is selected.

同一物体判定部は、第2物体像と、この第2物体像の特徴と類似する特徴を有する第1物体像とを用いて、第1物体と第2物体とが同一物体か否かを判定するので、同一物体の判定精度を向上させることができる。従って、本発明の第1局面に係る物体追跡装置によれば、複数のカメラを用いた物体追跡において、各カメラを用いて追跡した物体どうしを正確に対応付けることができる。   The same object determination unit determines whether the first object and the second object are the same object, using the second object image and the first object image having a feature similar to the feature of the second object image. Therefore, the determination accuracy of the same object can be improved. Therefore, according to the object tracking device according to the first aspect of the present invention, in object tracking using a plurality of cameras, objects tracked using each camera can be accurately associated with each other.

上記構成において、前記対応付け処理部は、1つの前記第2物体に対して、複数の前記第1物体の中から1つの前記第1物体を対応付ける処理をし、前記物体追跡装置は、1つの前記第2物体の位置と複数の前記第1物体の位置との関係を基にして、複数の前記第1物体の中から、前記第2物体と同一物体である可能性を有する前記第1物体を決定する第1物体決定部をさらに備え、前記第1物体像選択部は、前記第1物体決定部によって決定された前記第1物体に対して、前記第1物体像を選択する処理をする。   In the above configuration, the association processing unit performs processing of associating one first object among a plurality of first objects with respect to one second object, and the object tracking device is configured to The first object having the possibility of being the same object as the second object among the plurality of first objects based on the relationship between the position of the second object and the positions of the plurality of first objects Further includes a first object determining unit that determines the first object image selecting unit, for selecting the first object image for the first object determined by the first object determining unit. .

第1物体像選択部が、第1物体追跡部が追跡した全ての第1物体に対して、第1物体像を選択する処理をする場合を考える。この場合、第1物体追跡部が追跡した第1物体の数が多ければ、第1物体像を選択する処理量が増えるので、物体追跡の高速化が妨げられる。この構成によれば、第1物体像選択部は、第1物体追跡部が追跡した全ての第1物体に対して、第1物体像を選択する処理をするのではなく、第1物体決定部によって決定された第1物体に対して、第1物体像を選択する処理をする。よって、第1物体追跡部が追跡した第1物体の数が多くても、第1物体像を選択する処理量を抑制できるので、物体追跡の高速化を図れる。   A case is considered where the first object image selection unit performs processing to select the first object image for all the first objects tracked by the first object tracking unit. In this case, if the number of first objects tracked by the first object tracking unit is large, the processing amount for selecting the first object image increases, which hinders the speeding up of object tracking. According to this configuration, the first object image selection unit does not perform processing for selecting the first object image for all the first objects tracked by the first object tracking unit, but the first object determination unit A process of selecting a first object image is performed on the first object determined by Therefore, even if the number of first objects tracked by the first object tracking unit is large, the processing amount for selecting the first object image can be suppressed, so that the object tracking can be speeded up.

上記構成において、前記第1カメラの視野と前記第2カメラの視野とが一部重なる重複領域があり、前記第1物体決定部は、前記第2物体像が前記重複領域で検出された時刻に前記重複領域で検出された前記第1物体像が示す前記第1物体を、前記第2物体と同一物体である可能性を有する前記第1物体と決定する。   In the above configuration, there is an overlapping area in which the field of view of the first camera and the field of view of the second camera partially overlap, and the first object determining unit determines that the second object image is detected in the overlapping area. The first object indicated by the first object image detected in the overlapping area is determined as the first object having the possibility of being the same object as the second object.

この構成は、重複領域を基にして、上述した「1つの前記第2物体の位置と複数の前記第1物体の位置との関係」を定める。   This configuration determines the above-mentioned "relationship between the position of one second object and the positions of a plurality of first objects" based on the overlapping area.

第2物体像が重複領域で検出された時刻に、重複領域で検出された第1物体像と重複領域以外で検出された第1物体像とがあれば、重複領域以外で検出された第1物体像が示す第1物体は、第2物体像が示す第2物体と同一物体ではない。また、第2物体像が重複領域で検出された時刻に、重複領域で検出された第1物体像が2以上であれば、これら2以上の第1物体像が示す第1物体のいずれかが、第2物体と同一物体である。以上より、この構成では、第2物体像が重複領域で検出された時刻に、重複領域で検出された第1物体像が示す第1物体を、第2物体像が示す第2物体と同一物体である可能性を有する第1物体と決定する。   If there is a first object image detected in the overlap region and a first object image detected outside the overlap region at the time when the second object image is detected in the overlap region, the first object detected in the other region than the overlap region The first object indicated by the object image is not the same as the second object indicated by the second object image. In addition, at the time when the second object image is detected in the overlapping area, if the number of first object images detected in the overlapping area is two or more, one of the first objects indicated by the two or more first object images is , The same as the second object. As described above, in this configuration, at the time when the second object image is detected in the overlap area, the first object indicated by the first object image detected in the overlap area is identical to the second object indicated by the second object image. It is determined that the first object has the possibility of being

上記構成において、前記同一物体判定部は、機械学習を用いて、前記第1物体と前記第2物体とが同一物体か否かを判定する。   In the above configuration, the same object determination unit determines whether the first object and the second object are the same object using machine learning.

この構成は、同一物体の判定方法の一例である。   This configuration is an example of the determination method of the same object.

本発明の第2局面に係る物体追跡方法は、複数のカメラを用いて物体を追跡する物体追跡方法であって、前記複数のカメラの一つである第1カメラによって撮像された画像が時系列に並ぶ第1時系列画像、および、前記複数のカメラの他の一つである第2カメラによって撮像された画像が時系列に並ぶ第2時系列画像を取得する取得ステップと、第1物体の像である第1物体像を前記第1時系列画像から検出することによって、前記第1物体を追跡する第1物体追跡ステップと、第2物体の像である第2物体像を前記第2時系列画像から検出することによって、前記第2物体を追跡する第2物体追跡ステップと、所定の基準に従って、前記第2物体追跡ステップによる前記第2物体の追跡で得られる前記第2物体像の群の中から、同一物体の判定に用いられる前記第2物体像を選択する第2物体像選択ステップと、前記第1物体追跡ステップによる前記第1物体の追跡で得られる前記第1物体像の群の中から、前記第2物体像選択ステップによって選択された前記第2物体像の特徴と類似する特徴を有する前記第1物体像を選択する第1物体像選択ステップと、前記第1物体像選択ステップによって選択された前記第1物体像と前記第2物体像選択ステップによって選択された前記第2物体像とを用いて、前記第1物体と前記第2物体とが同一物体か否かを判定する同一物体判定ステップと、前記同一物体判定ステップによって前記第1物体と前記第2物体とが同一物体と判定されたとき、前記第1物体と前記第2物体とを対応付ける処理をする対応付け処理ステップと、を備える。   An object tracking method according to a second aspect of the present invention is an object tracking method for tracking an object using a plurality of cameras, wherein an image captured by a first camera, which is one of the plurality of cameras, is time-series Acquiring a first time-series image aligned in time, and a second time-series image aligned in time series with an image captured by a second camera that is one of the plurality of cameras; A first object tracking step of tracking the first object by detecting a first object image which is an image from the first time-series image; and a second object image which is an image of a second object at the second time A second object tracking step of tracking the second object by detecting from the sequence images, and a group of the second object images obtained by tracking of the second object by the second object tracking step according to a predetermined criterion Of the same object from among The second object image selecting step of selecting the second object image used for the constant setting, and the second object image from the group of the first object images obtained by the tracking of the first object by the first object tracking step A first object image selecting step of selecting the first object image having a feature similar to the feature of the second object image selected by the object image selecting step; and the second selected by the first object image selecting step A same object determining step of determining whether the first object and the second object are the same object using the one object image and the second object image selected in the second object image selecting step; An associating process step of associating the first object with the second object when the first object and the second object are determined to be the same object in the identical object determining step

本発明の第2局面に係る物体追跡方法は、本発明の第1局面に係る物体追跡装置を方法の観点から規定しており、本発明の第1局面に係る物体追跡装置と同様の作用効果を有する。   The object tracking method according to the second aspect of the present invention defines the object tracking device according to the first aspect of the present invention from the viewpoint of the method, and the same effects as the object tracking device according to the first aspect of the present invention Have.

本発明の第3局面に係る物体追跡プログラムは、複数のカメラを用いて物体を追跡する物体追跡プログラムであって、前記複数のカメラの一つである第1カメラによって撮像された画像が時系列に並ぶ第1時系列画像、および、前記複数のカメラの他の一つである第2カメラによって撮像された画像が時系列に並ぶ第2時系列画像を取得する取得ステップと、第1物体の像である第1物体像を前記第1時系列画像から検出することによって、前記第1物体を追跡する第1物体追跡ステップと、第2物体の像である第2物体像を前記第2時系列画像から検出することによって、前記第2物体を追跡する第2物体追跡ステップと、所定の基準に従って、前記第2物体追跡ステップによる前記第2物体の追跡で得られる前記第2物体像の群の中から、同一物体の判定に用いられる前記第2物体像を選択する第2物体像選択ステップと、前記第1物体追跡ステップによる前記第1物体の追跡で得られる前記第1物体像の群の中から、前記第2物体像選択ステップによって選択された前記第2物体像の特徴と類似する特徴を有する前記第1物体像を選択する第1物体像選択ステップと、前記第1物体像選択ステップによって選択された前記第1物体像と前記第2物体像選択ステップによって選択された前記第2物体像とを用いて、前記第1物体と前記第2物体とが同一物体か否かを判定する同一物体判定ステップと、前記同一物体判定ステップによって前記第1物体と前記第2物体とが同一物体と判定されたとき、前記第1物体と前記第2物体とを対応付ける処理をする対応付け処理ステップと、をコンピュータに実行させる。   An object tracking program according to a third aspect of the present invention is an object tracking program for tracking an object using a plurality of cameras, and an image captured by a first camera which is one of the plurality of cameras is time-series Acquiring a first time-series image aligned in time, and a second time-series image aligned in time series with an image captured by a second camera that is one of the plurality of cameras; A first object tracking step of tracking the first object by detecting a first object image which is an image from the first time-series image; and a second object image which is an image of a second object at the second time A second object tracking step of tracking the second object by detecting from the sequence images, and a group of the second object images obtained by tracking of the second object by the second object tracking step according to a predetermined criterion From within From the group of the first object image obtained by the tracking of the first object by the second object image selecting step of selecting the second object image used for the determination of the same object, and the first object tracking step A first object image selecting step of selecting the first object image having features similar to the features of the second object image selected by the second object image selecting step; and selected by the first object image selecting step The same object determination to determine whether the first object and the second object are the same object using the first object image and the second object image selected in the second object image selection step An associating process step of associating the first object with the second object when the first object and the second object are determined to be the same object in the same object determining step; , Cause the computer to execute an.

本発明の第3局面に係る物体追跡プログラムは、本発明の第1局面に係る物体追跡装置をプログラムの観点から規定しており、本発明の第1局面に係る物体追跡装置と同様の作用効果を有する。   The object tracking program according to the third aspect of the present invention defines the object tracking device according to the first aspect of the present invention from the viewpoint of the program, and the same effects as the object tracking device according to the first aspect of the present invention Have.

本発明によれば、複数のカメラを用いた物体追跡において、各カメラを用いて追跡した物体どうしを正確に対応付けることができる。   According to the present invention, in object tracking using a plurality of cameras, objects tracked using each camera can be accurately associated with each other.

実施形態に係る物体追跡装置の機能ブロック図である。It is a functional block diagram of an object tracking device concerning an embodiment. 第1カメラおよび第2カメラの配置の一例を示す模式図である。It is a schematic diagram which shows an example of arrangement | positioning of a 1st camera and a 2nd camera. 天井から見た第1カメラの視野の平面図である。It is a top view of the visual field of the 1st camera seen from the ceiling. 実施形態に係る物体追跡装置の動作を説明するフローチャートである。It is a flow chart explaining operation of an object tracking device concerning an embodiment. 2つの物体(人物)が通路を歩いているときに、第1カメラによって撮像された動画V1の一部分、および、第2カメラによって撮像された動画V2の一部分を示す模式図である。It is a schematic diagram which shows a part of moving image V1 imaged by the 1st camera, and a part of moving image V2 imaged by the 2nd camera, when two objects (persons) are walking in the passage. 図5において、物体像を囲む矩形領域が設定された状態を示す模式図である。FIG. 6 is a schematic view showing a state in which a rectangular area surrounding an object image is set in FIG. 5; 図6において、動線が設定された状態を示す模式図である。In FIG. 6, it is a schematic diagram which shows the state in which the flow line was set. 第1変形例に係る物体追跡装置の機能ブロック図である。It is a functional block diagram of the object tracking device concerning the 1st modification. 第2変形例に係る物体追跡装置の機能ブロック図である。It is a functional block diagram of the object tracking device concerning the 2nd modification. 撮像時刻が同じである2つのフレームの一例を示す模式図である。It is a schematic diagram which shows an example of two flames | frames whose imaging time is the same. 撮像時刻が同じである2つのフレームの他の例を示す模式図である。It is a schematic diagram which shows the other example of two flames | frames whose imaging time is the same. 図11において、重複領域に対応する2つの領域を重ねる処理がされた画像を示す模式図である。FIG. 12 is a schematic view showing an image on which two areas corresponding to the overlapping area are overlapped in FIG.

以下、図面に基づいて本発明の実施形態を詳細に説明する。各図において、同一符号を付した構成は、同一の構成であることを示し、その構成について、既に説明している内容については、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し(例えば、物体4)、個別の構成を指す場合には添え字を付した参照符号で示す(例えば、物体4−1、物体4−2)。   Hereinafter, an embodiment of the present invention will be described in detail based on the drawings. In each figure, the structure which attached | subjected the same code | symbol shows that it is the same structure, and the description is abbreviate | omitted about the content already demonstrated about the structure. In the present specification, suffixes are collectively denoted by reference numerals without suffixes (for example, object 4), and suffixes are denoted by suffixes when referring to individual configurations (for example, object 4-1) , Object 4-2).

図1は、実施形態に係る物体追跡装置3−1の機能ブロック図である。物体追跡装置3−1は、通信部31と、第1物体追跡部32と、第2物体追跡部33と、第1物体像選択部34と、第2物体像選択部35と、同一物体判定部36と、対応付け処理部37と、を備える。物体追跡装置3−1が追跡する物体4として、人物を例にして説明する。しかしながら、物体4は、人物に限らず、カメラで撮像できる動体(例えば、自動車)であればよい。   FIG. 1 is a functional block diagram of an object tracking device 3-1 according to the embodiment. The object tracking device 3-1 determines the same object as the communication unit 31, the first object tracking unit 32, the second object tracking unit 33, the first object image selecting unit 34, and the second object image selecting unit 35. A section 36 and an association processing section 37 are provided. A person is taken as an example and described as the object 4 tracked by the object tracking device 3-1. However, the object 4 is not limited to a person, and may be a moving body (for example, a car) that can be imaged by a camera.

図1を参照して、通信部31は、有線または無線によって、第1カメラ1および第2カメラ2と通信する通信インターフェースである。第1カメラ1および第2カメラ2は、監視カメラとして用いられる。第1カメラ1が撮像した動画V1、および、第2カメラ2が撮像した動画V2は、通信部31によって受信される。動画V1は、第1カメラ1によって撮像された画像が、時系列に並ぶ第1時系列画像の一例である。動画V2は、第2カメラ2によって撮像された画像が、時系列に並ぶ第1時系列画像の一例である。第1カメラ1の視野11に物体4が存在する期間中の動画V1には、物体4を示す物体像が含まれる。第2カメラ2の視野21に物体4が存在する期間中の動画V2には、物体4を示す物体像が含まれる。動画V1,V2のフレームレートは、任意である(例えば、24fps、15fps、10fps、1fps)。   Referring to FIG. 1, the communication unit 31 is a communication interface that communicates with the first camera 1 and the second camera 2 by wire or wirelessly. The first camera 1 and the second camera 2 are used as surveillance cameras. The communication unit 31 receives the moving image V1 captured by the first camera 1 and the moving image V2 captured by the second camera 2. The moving image V1 is an example of a first time-series image in which images captured by the first camera 1 are arranged in time series. The moving image V2 is an example of a first time-series image in which images captured by the second camera 2 are arranged in time series. The moving image V <b> 1 in a period in which the object 4 is present in the field of view 11 of the first camera 1 includes an object image indicating the object 4. The moving image V2 in a period in which the object 4 is present in the field of view 21 of the second camera 2 includes an object image indicating the object 4. The frame rates of the moving pictures V1 and V2 are arbitrary (for example, 24 fps, 15 fps, 10 fps, 1 fps).

以上説明したように、通信部31は、動画V1および動画V2を取得する取得部として機能する。   As described above, the communication unit 31 functions as an acquisition unit that acquires the moving image V1 and the moving image V2.

図2は、第1カメラ1および第2カメラ2の配置の一例を示す模式図である。図2を参照して、この図は、通路12を横方向から見た状態を示している。物体4−1(人物)は、矢印D方向に通路12を歩いている。物体4−2(人物)は、矢印D方向と逆方向に通路12を歩いている。通路12の上方に天井13がある。通路12が延びる方向に沿って、第1カメラ1、第2カメラ2が間隔を設けて、天井13に設置されている。第1カメラ1の視野11と第2カメラ2の視野21とは、一部が重なっており、視野の重複領域22が形成されている。第1カメラ1は、視野11内に位置する物体4を撮像する。第2カメラ2は、視野21内に位置する物体4を撮像する。   FIG. 2 is a schematic view showing an example of the arrangement of the first camera 1 and the second camera 2. Referring to FIG. 2, this figure shows the passage 12 viewed from the side. An object 4-1 (person) is walking along the passage 12 in the arrow D direction. An object 4-2 (person) is walking along the passage 12 in the direction opposite to the arrow D direction. A ceiling 13 is located above the passage 12. The first camera 1 and the second camera 2 are installed on the ceiling 13 at an interval along the direction in which the passage 12 extends. The field of view 11 of the first camera 1 and the field of view 21 of the second camera 2 partially overlap, and an overlapping area 22 of the field of view is formed. The first camera 1 captures an object 4 located in the field of view 11. The second camera 2 captures an object 4 located within the field of view 21.

天井13から見たカメラの視野について、第1カメラ1を例にして説明する。図3は、天井13から見た第1カメラ1の視野11の平面図である。第1カメラ1の光軸中心14が視野11の中心に位置する。物体4の向き、および、視野11上での物体4の位置に応じて、同一物体であっても、物体4を示す物体像の外観形状が大きく異なる。   The field of view of the camera viewed from the ceiling 13 will be described by taking the first camera 1 as an example. FIG. 3 is a plan view of the visual field 11 of the first camera 1 viewed from the ceiling 13. The optical axis center 14 of the first camera 1 is located at the center of the field of view 11. Depending on the orientation of the object 4 and the position of the object 4 on the field of view 11, the appearance shape of the object image showing the object 4 greatly differs even for the same object.

図1および図2を参照して、第1物体追跡部32が追跡する物体4を第1物体とする。言い換えれば、第1カメラ1を用いて追跡する物体4が第1物体である。第1物体追跡部32は、通信部31が受信した動画V1から、第1物体の像である第1物体像を検出することによって、第1物体を追跡する。この追跡には、公知の物体追跡技術(例えば、パーティクルフィルター、オプティカルフロー)を用いることができる。   Referring to FIGS. 1 and 2, the object 4 tracked by the first object tracking unit 32 is taken as a first object. In other words, the object 4 tracked using the first camera 1 is the first object. The first object tracking unit 32 tracks the first object by detecting a first object image that is an image of the first object from the moving image V1 received by the communication unit 31. For this tracking, known object tracking techniques (eg, particle filter, optical flow) can be used.

第1物体追跡部32は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、及び、HDD(Hard Disk Drive)等のハードウェア、並びに、第1物体追跡部32の機能を実行するためのプログラムおよびデータ等によって実現される。第1物体追跡部32の機能の一部又は全部は、CPUによる処理に替えて、又は、これと共に、DSP(Digital Signal Processor)による処理によって実現されてもよい。又、第1物体追跡部32の機能の一部又は全部は、ソフトウェアによる処理に替えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。以上説明したことは、第2物体追跡部33、第1物体像選択部34、第2物体像選択部35、同一物体判定部36、対応付け処理部37についても同様である。また、後で説明する第1変形例に備えられる第1物体決定部38、および、第2変形例に備えられる第1物体決定部39についても同様である。   The first object tracking unit 32 includes, for example, hardware such as a central processing unit (CPU), a random access memory (RAM), a read only memory (ROM), and a hard disk drive (HDD), and a first object tracking. The program is realized by a program and data for executing the function of the unit 32. Some or all of the functions of the first object tracking unit 32 may be realized by processing by a DSP (Digital Signal Processor) instead of or together with processing by the CPU. Also, some or all of the functions of the first object tracking unit 32 may be realized by processing by a dedicated hardware circuit instead of or in addition to processing by software. The same applies to the second object tracking unit 33, the first object image selection unit 34, the second object image selection unit 35, the identical object determination unit 36, and the association processing unit 37. The same applies to the first object determination unit 38 provided in the first modification described later and the first object determination unit 39 provided in the second modification.

物体追跡装置3−1は、図1に示す複数の要素によって構成される。従って、上記HDDには、これらの要素を実現するためのプログラムが格納されている。すなわち、HDDには、第1物体追跡部32、第2物体追跡部33、第1物体像選択部34、第2物体像選択部35、同一物体判定部36、対応付け処理部37のそれぞれを実現するためのプログラムが格納されている(後で説明する第1変形例では、第1物体決定部38を実現するためのプログラムがさらにHDDに格納されており、第2変形例では、第1物体決定部39を実現するためのプログラムがさらにHDDに格納されている)。これらのプログラムは、第1物体追跡プログラム、第2物体追跡プログラム、第1物体像選択プログラム、第2物体像選択プログラム、同一物体判定プログラム、対応付け処理プログラムと表現される。   The object tracking device 3-1 is composed of a plurality of elements shown in FIG. Therefore, programs for realizing these elements are stored in the HDD. That is, in the HDD, each of the first object tracking unit 32, the second object tracking unit 33, the first object image selecting unit 34, the second object image selecting unit 35, the same object judging unit 36, and the association processing unit 37. A program for realizing the program is stored (in the first modified embodiment, a program for realizing the first object determining unit 38 is further stored in the HDD, and in the second modified embodiment, the program for realizing the first object determining unit 38 is stored). A program for realizing the object determination unit 39 is further stored in the HDD). These programs are expressed as a first object tracking program, a second object tracking program, a first object image selection program, a second object image selection program, an identical object determination program, and an association processing program.

これらのプログラムは、要素の定義を用いて表現される。第1物体追跡部32と第1物体追跡プログラムを例にして説明する。第1物体追跡部32は、第1物体像を動画V1(第1時系列画像)から検出することによって、第1物体を追跡する。第1物体追跡プログラムは、第1物体像を動画V1(第1時系列画像)から検出することによって、第1物体を追跡するプログラムである。   These programs are expressed using element definitions. The first object tracking unit 32 and the first object tracking program will be described as an example. The first object tracking unit 32 tracks the first object by detecting the first object image from the moving image V1 (first time-series image). The first object tracking program is a program for tracking a first object by detecting a first object image from a moving image V1 (first time-series image).

上記CPUによって実行されるこれらのプログラム(第1物体追跡プログラム、第2物体追跡プログラム、第1物体像選択プログラム、第2物体像選択プログラム、同一物体判定プログラム、対応付け処理プログラム)のフローチャートが、後で説明する図4である。   A flowchart of these programs (a first object tracking program, a second object tracking program, a first object image selection program, a second object image selection program, a same object determination program, an association processing program) executed by the CPU It is FIG. 4 demonstrated later.

なお、これらのプログラムは、HDDに予め記憶されているが、これに限定されない。例えば、これらのプログラムを記録している記録媒体(例えば、磁気ディスク、光学ディスクのような外部記録媒体)が用意されており、この記録媒体に記憶されているプログラムがHDDに記憶されてもよい。また、これらのプログラムは、物体追跡装置3−1とネットワーク接続されたサーバに格納されており、ネットワークを介して、これらのプログラムがHDDに送られ、HDDに記憶されてもよい。これらのプログラムは、HDDの替わりにROMに記憶してもよい。物体追跡装置3−1は、HDDの替わりに、フラッシュメモリを備え、これらのプログラムはフラッシュメモリに記憶してもよい。   Although these programs are stored in advance in the HDD, the present invention is not limited to this. For example, a recording medium (for example, an external recording medium such as a magnetic disk or an optical disk) recording these programs may be prepared, and the program stored in the recording medium may be stored in the HDD. . Also, these programs may be stored in a server connected to the object tracking device 3-1 via a network, and these programs may be sent to the HDD via the network and stored in the HDD. These programs may be stored in the ROM instead of the HDD. The object tracking device 3-1 may include a flash memory instead of the HDD, and these programs may be stored in the flash memory.

第2物体追跡部33が追跡する物体4を第2物体とする。言い換えれば、第2カメラ2を用いて追跡する物体4が第2物体である。第2物体追跡部33は、通信部31が受信した動画V2から、第2物体の像である第2物体像を検出することによって、第2物体を追跡する。この追跡には、公知の物体追跡技術(例えば、パーティクルフィルター、オプティカルフロー)を用いることができる。   An object 4 tracked by the second object tracking unit 33 is taken as a second object. In other words, the object 4 tracked using the second camera 2 is the second object. The second object tracking unit 33 tracks the second object by detecting a second object image which is an image of the second object from the moving image V2 received by the communication unit 31. For this tracking, known object tracking techniques (eg, particle filter, optical flow) can be used.

第1物体像選択部34、第2物体像選択部35、同一物体判定部36、対応付け処理部37については後で説明する。   The first object image selection unit 34, the second object image selection unit 35, the same object determination unit 36, and the association processing unit 37 will be described later.

実施形態に係る物体追跡装置3−1の動作について説明する。図4は、これを説明するフローチャートである。図1および図2を参照して、第1カメラ1および第2カメラ2は、所定時間連続して作動し(例えば、24時間連続作動)、通信部31(取得部の一例)は、第1カメラ1によって撮像された動画V1、および、第2カメラ2によって撮像された動画V2をリアルタイムで受信する(図4のステップS1)。   The operation of the object tracking device 3-1 according to the embodiment will be described. FIG. 4 is a flowchart explaining this. Referring to FIGS. 1 and 2, the first camera 1 and the second camera 2 operate continuously for a predetermined time (for example, continuous operation for 24 hours), and the communication unit 31 (an example of an acquisition unit) The moving image V1 captured by the camera 1 and the moving image V2 captured by the second camera 2 are received in real time (step S1 in FIG. 4).

第1物体追跡部32は、通信部31が受信した動画V1から物体像を検出することにより、物体4(第1物体)を追跡し、第2物体追跡部33は、通信部31が受信した動画V2から物体像を検出することにより、物体4(第2物体)を追跡する(図4のステップS2)。物体4の追跡について、詳しく説明する。図5は、物体4−1(人物)および物体4−2(人物)が通路12を歩いているときに、第1カメラ1によって撮像された動画V1の一部分、および、第2カメラ2によって撮像された動画V2の一部分を示す模式図である。動画V1の一部分は、撮像時刻T1から撮像時刻T6までのフレームF1によって構成される。動画V2の一部分は、撮像時刻T1から撮像時刻T6までのフレームF2によって構成される。撮像時刻T1、撮像時刻T2、撮像時刻T3、撮像時刻T4、撮像時刻T5、撮像時刻T6の順に時間が進む。図6は、図5において、物体像41,42,43を囲む矩形領域411,421,431が設定された状態を示す模式図である。図7は、図6において、動線L1,L2,L3が設定された状態を示す模式図である。   The first object tracking unit 32 tracks the object 4 (first object) by detecting an object image from the moving image V1 received by the communication unit 31, and the second object tracking unit 33 is received by the communication unit 31. The object 4 (second object) is tracked by detecting the object image from the moving image V2 (step S2 in FIG. 4). The tracking of the object 4 will be described in detail. FIG. 5 shows a part of the moving image V1 captured by the first camera 1 and an image captured by the second camera 2 when the object 4-1 (person) and the object 4-2 (person) walk in the passage 12 It is a schematic diagram which shows a part of moving image V2. A part of the moving image V1 is constituted by a frame F1 from an imaging time T1 to an imaging time T6. A part of the moving image V2 is composed of a frame F2 from an imaging time T1 to an imaging time T6. The time advances in order of imaging time T1, imaging time T2, imaging time T3, imaging time T4, imaging time T5, and imaging time T6. FIG. 6 is a schematic view showing a state in which rectangular regions 411, 421 and 431 surrounding the object images 41, 42 and 43 are set in FIG. FIG. 7 is a schematic view showing a state in which flow lines L1, L2 and L3 are set in FIG.

図1、図2および図5を参照して、物体像41(第1物体像)は、第1カメラ1によって撮像された動画V1に含まれる物体4−1(第1物体)の像である。物体像43(第1物体像)は、第1カメラ1によって撮像された動画V1に含まれる物体4−2(第1物体)の像である。物体像42(第2物体像)は、第2カメラ2によって撮像された動画V2に含まれる物体4−1(第2物体)の像である。   Referring to FIGS. 1, 2 and 5, object image 41 (first object image) is an image of object 4-1 (first object) included in moving image V1 captured by first camera 1. . The object image 43 (first object image) is an image of an object 4-2 (first object) included in the moving image V1 captured by the first camera 1. The object image 42 (second object image) is an image of the object 4-1 (second object) included in the moving image V2 captured by the second camera 2.

図1、図2および図6を参照して、第1物体追跡部32は、動画V1に含まれる物体像を検出し、物体像を囲む矩形領域を動画V1に設定する。ここでは、第1物体追跡部32は、物体像41および物体像43を検出し、物体像41を囲む矩形領域411、および、物体像43を囲む矩形領域431を動画V1に設定する。撮像時刻T4のフレームF1には、物体像41が含まれるが、物体4−1の一部分の像なので、物体像41は検出されていない。   Referring to FIGS. 1, 2 and 6, the first object tracking unit 32 detects an object image included in the moving image V1, and sets a rectangular area surrounding the object image as the moving image V1. Here, the first object tracking unit 32 detects the object image 41 and the object image 43, and sets a rectangular area 411 surrounding the object image 41 and a rectangular area 431 surrounding the object image 43 as the moving image V1. Although the object image 41 is included in the frame F1 at the imaging time T4, the object image 41 is not detected because it is an image of a part of the object 4-1.

第2物体追跡部33は、動画V2に含まれる物体像を検出し、物体像を囲む矩形領域を動画V2に設定する。ここでは、第2物体追跡部33は、物体像42を検出し、物体像42を囲む矩形領域421を動画V2に設定する。撮像時刻T3のフレームF2には、物体像42が含まれるが、物体4−1の一部分の像なので、物体像42は検出されていない。   The second object tracking unit 33 detects an object image included in the moving image V2, and sets a rectangular area surrounding the object image as the moving image V2. Here, the second object tracking unit 33 detects the object image 42 and sets the rectangular area 421 surrounding the object image 42 as the moving image V2. Although the object image 42 is included in the frame F2 at the imaging time T3, the object image 42 is not detected because it is an image of a part of the object 4-1.

第1カメラ1の視野11と第2カメラ2の視野21とは、一部が重複している。この重複領域22は3次元であり、重複領域22の高さは、物体4より低い。このため、重複領域22には、物体4の一部しか収まらないので、重複領域22では物体4が検出されない。従って、物体4−1の物体像41と物体4−1の物体像42とが同時に検出されることはない。すなわち、撮像時刻T3では、物体4−1の物体像41が検出されているが、物体4−1の物体像42は検出されていない。撮像時刻T4では、物体4−1の物体像42が検出されているが、物体4−1の物体像41は検出されていない。   The field of view 11 of the first camera 1 and the field of view 21 of the second camera 2 partially overlap. The overlapping area 22 is three-dimensional, and the height of the overlapping area 22 is lower than that of the object 4. For this reason, since only a part of the object 4 is included in the overlapping area 22, the object 4 is not detected in the overlapping area 22. Therefore, the object image 41 of the object 4-1 and the object image 42 of the object 4-1 are not simultaneously detected. That is, at the imaging time T3, the object image 41 of the object 4-1 is detected, but the object image 42 of the object 4-1 is not detected. At the imaging time T4, the object image 42 of the object 4-1 is detected, but the object image 41 of the object 4-1 is not detected.

以上が物体4の追跡である(図4のステップS2)。物体追跡装置3−1は、物体4−1を追跡するために、物体像41(第1物体像)と物体像42(第2物体像)とを用いて、物体像41が示す物体4−1(第1物体)と物体像42が示す物体4−1(第2物体)とが同一物体であることを判定しなければならない。図6を参照して、例えば、物体像41が検出された3つのフレームF1、物体像42が検出された3つのフレームF2のうち、撮像時刻が最も近いフレームF1,F2に含まれる物体像41,42が、同一物体の判定に用いられるとする。ここでは、撮像時刻T3のフレームF1に含まれる物体像41と撮像時刻T4のフレームF2に含まれる物体像42である。撮像時刻T3のフレームF1に含まれる物体像41は、物体4−1(人物)の背中側の像である。撮像時刻T4のフレームF2に含まれる物体像42は、物体4−1(人物)の正面側の像である。外観からすると、物体像41と物体像42とは似ておらず、物体像41が示す物体4−1と物体像42が示す物体4−1とは、同一物体であるにもかかわらず、同一物体でないと判定される可能性がある。   The above is the tracking of the object 4 (step S2 in FIG. 4). The object tracking device 3-1 uses the object image 41 (first object image) and the object image 42 (second object image) to track the object 4-1 to display an object 4-1 indicated by the object image 41. It must be determined that 1 (first object) and the object 4-1 (second object) indicated by the object image 42 are the same object. Referring to FIG. 6, for example, among three frames F1 in which object image 41 is detected and three frames F2 in which object image 42 is detected, object images 41 included in frames F1 and F2 having the closest imaging time. , 42 are used to determine the same object. Here, the object image 41 included in the frame F1 at the imaging time T3 and the object image 42 included in the frame F2 at the imaging time T4. The object image 41 included in the frame F1 at the imaging time T3 is an image on the back side of the object 4-1 (person). The object image 42 included in the frame F2 at the imaging time T4 is an image on the front side of the object 4-1 (person). In terms of appearance, the object image 41 and the object image 42 are not similar, and the object 4-1 indicated by the object image 41 and the object 4-1 indicated by the object image 42 are the same although they are the same object. It may be determined not to be an object.

そこで、実施形態では、以下のステップS3およびステップS4によって、同一物体の判定に用いられる物体像41(第1物体像)および物体像42(第2物体像)を選択する。図1、図2および図7を参照して、第2物体像選択部35は、同一物体の判定に用いる物体像42を選択する(図4のステップS3)。詳しく説明すると、第2物体像選択部35は、動画V2の物体像に動線を設定する。動線は、物体4が歩いた方向、および、歩いた軌跡を示す線である。第2カメラ2は、通路12を矢印D方向に歩く物体4−1を撮像している。第2物体像選択部35は、物体4−1を示す物体像42の動線L2を生成し、第2物体追跡部33によって検出された物体像42を含むフレームF2(撮像時刻T4のフレームF2、撮像時刻T5のフレームF2、撮像時刻T6のフレームF2)に動線L2を設定する。物体像42の動線L2は、矢印D方向と同じ方向の直線である。   Therefore, in the embodiment, the object image 41 (first object image) and the object image 42 (second object image) to be used for determination of the same object are selected by the following steps S3 and S4. Referring to FIGS. 1, 2 and 7, second object image selection unit 35 selects object image 42 used for determination of the same object (step S3 in FIG. 4). Specifically, the second object image selection unit 35 sets a flow line to the object image of the moving image V2. The movement line is a line indicating the direction in which the object 4 walks and the trajectory of the walk. The second camera 2 captures an image of an object 4-1 walking in the direction of arrow D in the passage 12. The second object image selection unit 35 generates a flow line L2 of the object image 42 indicating the object 4-1, and a frame F2 (a frame F2 of the imaging time T4) including the object image 42 detected by the second object tracking unit 33. The flow line L2 is set to the frame F2 at the imaging time T5 and the frame F2 at the imaging time T6. The flow line L2 of the object image 42 is a straight line in the same direction as the arrow D direction.

第2物体像選択部35は、動線L2が設定されたフレームF2の中から、同一物体の判定に用いられる物体像42を選択する。実施形態では、最初に検出された物体像42、すなわち、撮像時刻T4のフレームF2に含まれる物体像42が選択される。   The second object image selection unit 35 selects an object image 42 used for the determination of the same object from the frame F2 in which the flow line L2 is set. In the embodiment, the object image 42 detected first, that is, the object image 42 included in the frame F2 at the imaging time T4 is selected.

以上説明したように、第2物体像選択部35は、所定の基準に従って、第2物体追跡部33による第2物体(物体4−1)の追跡で得られる第2物体像の群(撮像時刻T4,T5,T6のフレームF2にそれぞれ含まれる物体像42)の中から、同一物体の判定に用いられる第2物体像(撮像時刻T4のフレームF2に含まれる物体像42)を選択する。   As described above, the second object image selection unit 35 determines the group of the second object images obtained by tracking the second object (object 4-1) by the second object tracking unit 33 according to a predetermined criterion (imaging time) From the object images 42) respectively included in the frame F2 of T4, T5, and T6, the second object image (the object image 42 included in the frame F2 of the imaging time T4) used to determine the same object is selected.

図1、図2および図7を参照して、次に、第1物体像選択部34は、同一物体の判定に用いる物体像41を選択する(図4のステップS4)。詳しく説明すると、第1物体像選択部34は、動画V1の物体像に動線を設定する。第1カメラ1は、通路12を矢印D方向に歩く物体4−1、および、通路12を矢印D方向と逆方向に歩く物体4−2を撮像している。第1物体像選択部34は、物体4−1を示す物体像41の動線L1を生成し、第1物体追跡部32によって検出された物体像41を含むフレームF1(撮像時刻T1のフレームF1、撮像時刻T2のフレームF1、撮像時刻T3のフレームF1)に動線L1を設定する。物体像41の動線L1は、矢印D方向と同じ向きの直線である。   Referring to FIGS. 1, 2 and 7, next, the first object image selection unit 34 selects the object image 41 used for the determination of the same object (step S4 in FIG. 4). Specifically, the first object image selection unit 34 sets a flow line to the object image of the moving image V1. The first camera 1 captures an object 4-1 that walks in the passage 12 in the arrow D direction, and an object 4-2 that walks in the passage 12 in the direction opposite to the arrow D direction. The first object image selection unit 34 generates a flow line L1 of the object image 41 indicating the object 4-1, and a frame F1 (a frame F1 at an imaging time T1) including the object image 41 detected by the first object tracking unit 32. Then, the flow line L1 is set to the frame F1 of the imaging time T2 and the frame F1 of the imaging time T3. The flow line L1 of the object image 41 is a straight line in the same direction as the arrow D direction.

第1物体像選択部34は、物体4−2を示す物体像43の動線L3を生成し、第1物体追跡部32によって検出された物体像43を含むフレームF1(撮像時刻T1のフレームF1、撮像時刻T2のフレームF1、撮像時刻T3のフレームF1)に動線L3を設定する。物体像43の動線L3は、矢印D方向と逆方向の直線である。   The first object image selection unit 34 generates a flow line L3 of the object image 43 indicating the object 4-2, and a frame F1 including the object image 43 detected by the first object tracking unit 32 (frame F1 of imaging time T1 The flow line L3 is set to the frame F1 at the imaging time T2 and the frame F1 at the imaging time T3. The flow line L3 of the object image 43 is a straight line in the direction opposite to the arrow D direction.

第1物体像選択部34は、第1物体追跡部32が追跡した物体4のうち、動線L2と同じ方向の動線が設定されている物体像で示される物体4を選択する。ここでは、第1物体追跡部32が、物体4−1と物体4−2とを追跡している。動線L2と同じ方向の動線が設定されている物体像で示される物体4は、動線L1が設定されている物体像41で示される物体4−1である。   The first object image selection unit 34 selects, among the objects 4 tracked by the first object tracking unit 32, the object 4 indicated by the object image in which the movement line in the same direction as the movement line L2 is set. Here, the first object tracking unit 32 tracks the object 4-1 and the object 4-2. An object 4 indicated by an object image in which a movement line in the same direction as the movement line L2 is set is an object 4-1 indicated by an object image 41 in which the movement line L1 is set.

第1物体像選択部34は、動線L1が設定された物体像41のうち、ステップS3において第2物体像選択部35が選択した物体像42とフレーム上の位置が同じである物体像41を選択する。これは、図3で説明したように、同一物体であっても、視野11上の物体4の位置に応じて、物体4の像(物体像)の形状が異なるからである。例えば、縦2個×横3個の合計6個の領域(中央上側領域、中央下側領域、左上側領域、左下側領域、右上側領域、右下側領域)に仮想的に分割されたフレームF1およびフレームF2において、物体像が同じ領域に位置すれば、物体像のフレーム上の位置が同じとされる。   The first object image selection unit 34 selects an object image 41 having the same position on the frame as the object image 42 selected by the second object image selection unit 35 in step S3 among the object images 41 for which the flow line L1 is set. Choose This is because the shape of the image (object image) of the object 4 is different depending on the position of the object 4 on the field of view 11 even in the same object as described in FIG. For example, a frame virtually divided into a total of six regions (vertical upper region, central lower region, upper left region, lower left region, upper right region, lower right region) of 2 vertical × 3 horizontal In F1 and frame F2, if the object image is located in the same area, the position on the frame of the object image is considered to be the same.

第2物体像選択部35が選択した物体像42は、フレームF2の右下側領域に位置している。そこで、第1物体像選択部34は、フレームF1の右下側領域に位置する物体像41(撮像時刻T1のフレームF1に含まれる物体像41)を選択する。ここでは、物体像41の群の中で、フレームF1の右下側領域に位置する物体像41は、撮像時刻T1のフレームF1に含まれる物体像41だけである。しかしながら、撮像時刻T1のフレームF1を含む連続するフレームF1のいずれにも、右下側領域に物体像41が位置すれば、第1物体像選択部34は、これらの物体像41の中から所定の基準に従って、物体像41を選択する。例えば、第1物体像選択部34は、それらの連続するフレームF1の中から、撮像時刻T4に最も近い撮像時刻のフレームF1に含まれる物体像41を選択する。   The object image 42 selected by the second object image selection unit 35 is located in the lower right area of the frame F2. Therefore, the first object image selection unit 34 selects the object image 41 (the object image 41 included in the frame F1 at the imaging time T1) located in the lower right area of the frame F1. Here, among the group of object images 41, the object image 41 located in the lower right region of the frame F1 is only the object image 41 included in the frame F1 at the imaging time T1. However, if the object image 41 is positioned in the lower right region in any of the continuous frames F1 including the frame F1 at the imaging time T1, the first object image selecting unit 34 determines a predetermined one of these object images 41. The object image 41 is selected according to the criteria of. For example, the first object image selection unit 34 selects the object image 41 included in the frame F1 at the imaging time closest to the imaging time T4 from the continuous frames F1.

実施形態では、物体像41が位置する領域と物体像42が位置する領域とが同じであれば、これらが同じ位置にあると判定している。しかしながら、これに限定されず、例えば、第1物体像選択部34は、物体像41の重心と物体像42の重心との距離が所定のしきい値以下のとき、これらが同じ位置にあると判定してもよい。   In the embodiment, if the area where the object image 41 is located and the area where the object image 42 is located are the same, it is determined that they are at the same position. However, the present invention is not limited to this. For example, when the distance between the gravity center of the object image 41 and the gravity center of the object image 42 is less than a predetermined threshold, the first object image selection unit 34 You may judge.

以上説明したように、第1物体像選択部34は、第1物体追跡部32による第1物体(物体4−1)の追跡で得られる第1物体像の群(撮像時刻T1,T2,T3のフレームF1にそれぞれ含まれる物体像41)の中から、第2物体像選択部35によって選択された第2物体像(撮像時刻T4のフレームF2に含まれる物体像42)の特徴と類似する特徴を有する第1物体像(撮像時刻T1のフレームF1に含まれる物体像41)を選択する。特徴類似の判断要素を例示すれば、以下の通りである。   As described above, the first object image selection unit 34 generates a group of first object images obtained by tracking the first object (object 4-1) by the first object tracking unit 32 (imaging times T1, T2, and T3). Features similar to the features of the second object image (the object image 42 included in the frame F2 at the imaging time T4) selected by the second object image selection unit 35 from the object images 41) respectively included in the frame F1 of A first object image (object image 41 included in frame F1 at imaging time T1) is selected. The characteristic similar judgment elements are as follows.

(1)第1物体像の移動方向(動線の方向)と第2物体像の移動方向(動線の方向)とが同じである。
(2)第1物体像の画像(フレーム)上の位置と第2物体像の画像(フレーム)上の位置とが同じである。
(3)第1物体像(第1物体)の移動速度と第2物体像(第2物体)の移動速度とが同じである。
(4)第1物体像の向きと第2物体像の向きとが同じである。
(1) The movement direction of the first object image (the direction of the movement line) and the movement direction of the second object image (the direction of the movement line) are the same.
(2) The position on the image (frame) of the first object image and the position on the image (frame) of the second object image are the same.
(3) The moving speed of the first object image (first object) is the same as the moving speed of the second object image (second object).
(4) The orientation of the first object image is the same as the orientation of the second object image.

ここでの同じとは、完全に同じでもよいし、ほぼ同じでもよい。(3)の「移動速度」は、例えば、所定時間において、物体像がフレーム上を移動した量を基にして算出される。(4)の「向き」は、例えば、テンプレートマッチングによって求められる。第1物体像選択部34は、(1)〜(4)のいずれか1つ、または、これらの2つ以上の組み合わせについて、第1物体像と第2物体像とが同じであれば、第1物体像の特徴と第2物体像の特徴とが類似すると判断する。実施形態では、(1)および(2)を満たせば、第1物体像の特徴と第2物体像の特徴とが類似していると判断する。   The same here may be completely the same or almost the same. The “moving speed” of (3) is calculated based on, for example, the amount of movement of the object image on the frame in a predetermined time. The “direction” of (4) is obtained, for example, by template matching. If the first object image and the second object image are the same for any one of (1) to (4) or a combination of two or more of them, the first object image selection unit 34 It is determined that the feature of one object image and the feature of the second object image are similar. In the embodiment, if (1) and (2) are satisfied, it is determined that the feature of the first object image and the feature of the second object image are similar.

図1、図2および図7を参照して、同一物体判定部36は、ステップS4で第1物体像選択部34によって選択された物体像41(第1物体像)と、ステップS3で第2物体像選択部35によって選択された物体像42(第2物体像)とを用いて、物体像41が示す物体4−1(第1物体)と物体像42が示す物体4−1とが同一物体か否かを判定する(図4のステップS5)。   Referring to FIGS. 1, 2 and 7, the same object determination unit 36 selects the object image 41 (first object image) selected by the first object image selection unit 34 in step S4, and the second one in step S3. The object 4-1 (first object) indicated by the object image 41 and the object 4-1 indicated by the object image 42 are identical using the object image 42 (second object image) selected by the object image selection unit 35 It is determined whether or not it is an object (step S5 in FIG. 4).

この判定には、公知の同一物体の判定技術を用いることができる。例えば、同一物体判定部36は、ステップS4で第1物体像選択部34によって選択された物体像41の色情報と、ステップS3で第2物体像選択部35によって選択された物体像42の色情報との一致度が、予め定められたしきい値より高い場合、同一物体と判定する(ヒストグラムインターセクション)。色情報の替わりに形状情報の一致度でもよい。これらに限らす、例えば、同一物体判定部36は、機械学習(例えば、ディープラーニング、サポートベクターマシン)を用いて、同一物体か否かを判定してもよい。   For this determination, it is possible to use a known determination technique for the same object. For example, the same object determination unit 36 determines the color information of the object image 41 selected by the first object image selection unit 34 in step S4 and the color of the object image 42 selected by the second object image selection unit 35 in step S3. If the degree of coincidence with the information is higher than a predetermined threshold, it is determined that the same object is present (histogram intersection). Instead of color information, the matching degree of shape information may be used. For example, the same object determination unit 36 may determine whether the object is the same object using machine learning (for example, deep learning, support vector machine).

同一物体判定部36が、同一物体と判定したとき(図4のステップS5でYes)、対応付け処理部37は、物体像41が示す物体4−1(第1物体)のIDと同じIDを、物体像42が示す物体4−1(第2物体)に付与する(図4のステップS6)。すなわち、対応付け処理部37は、同一物体判定部36によって、物体像41が示す物体4−1(第1物体)と物体像42が示す物体4−1(第2物体)とが同一物体と判定されたとき、第1物体と第2物体とを対応付ける処理をする。   When the same object determination unit 36 determines that the object is the same (Yes in step S5 in FIG. 4), the association processing unit 37 sets the same ID as the ID of the object 4-1 (first object) indicated by the object image 41. , And is applied to the object 4-1 (second object) indicated by the object image 42 (step S6 in FIG. 4). That is, in the association processing unit 37, the same object determination unit 36 determines that the object 4-1 (first object) indicated by the object image 41 and the object 4-1 (second object) indicated by the object image 42 are the same object. When it is determined, processing is performed to associate the first object with the second object.

同一物体判定部36が、同一物体でないと判定したとき(図4のステップS5でNo)、対応付け処理部37は、物体像41が示す物体4−1のIDと異なるIDを、物体像42が示す物体4−1に付与する(図4のステップS7)。   When the same object determination unit 36 determines that the object is not the same (No in step S5 of FIG. 4), the association processing unit 37 determines an ID different from the ID of the object 4-1 indicated by the object image 41. Is given to the object 4-1 indicated by (step S 7 in FIG. 4).

以上説明したように、対応付け処理部37は、第2物体追跡部33が追跡した1つの物体4−1(1つの第2物体)に対して、第1物体追跡部32が追跡した2つの物体4−1,4−2(複数の第1物体)の中から、1つの物体4−1(1つの第1物体)を対応付ける処理をする。   As described above, the association processing unit 37 causes the first object tracking unit 32 to track two objects 4-1 (one second object) tracked by the second object tracking unit 33. Among the objects 4-1, 4-2 (a plurality of first objects), processing of associating one object 4-1 (a first object) is performed.

実施形態では、第1物体追跡部32が追跡した物体4−1,4−2(第1物体)の中で、動線L2と同じ方向の動線が設定された物体像が示す物体4(第1物体)の数が、1つの場合(物体4−1)を例に説明した。しかしながら、この数が2以上の場合、2以上のそれぞれの物体4(第1物体)に対して、第1物体像選択部34は、ステップS4の処理をし、同一物体判定部36は、ステップS5の処理をする。そして、上記2以上の物体4(第1物体)の中で、同一物体の判定のスコアが一番大きい物体4(第1物体)のIDと同じIDを、物体像42が示す物体4−1(第2物体)に付与する。   In the embodiment, among the objects 4-1 and 4-2 (first object) tracked by the first object tracking unit 32, an object 4 indicated by an object image in which a movement line in the same direction as the movement line L2 is set The case where the number of first objects) is one (object 4-1) has been described as an example. However, when the number is two or more, the first object image selection unit 34 performs the process of step S4 for each of two or more objects 4 (first objects), and the same object determination unit 36 performs the step Process S5. Then, the object 4-1 shows the same ID as the ID of the object 4 (first object) having the largest determination score of the same object among the two or more objects 4 (first objects). Apply to (second object).

実施形態の主な効果を説明する。図1、図2および図7を参照して、第1物体像選択部34は、撮像時刻T4のフレームF2に含まれる物体像42(第2物体像)の特徴と類似する特徴を有する物体像41(第1物体像)として、撮像時刻T1のフレームF1に含まれる物体像41を選択する。同一物体判定部36は、これら2つの物体像41,42を用いて、物体像41が示す物体4−1(第1物体)と物体像42が示す物体4−1(第2物体)とが同一物体か否かを判定する。これにより、同一物体の判定精度を向上させることができる。従って、実施形態に係る物体追跡装置3−1によれば、複数のカメラを用いた物体追跡において、各カメラを用いて追跡した物体どうしを正確に対応付けることができる。   The main effects of the embodiment will be described. Referring to FIGS. 1, 2 and 7, first object image selection unit 34 is an object image having a feature similar to the feature of object image 42 (second object image) included in frame F2 at imaging time T4. The object image 41 included in the frame F1 at the imaging time T1 is selected as 41 (first object image). The identical object determination unit 36 uses the two object images 41 and 42 to generate an object 4-1 (first object) indicated by the object image 41 and an object 4-1 (second object) indicated by the object image 42. It is determined whether it is the same object or not. Thereby, the determination accuracy of the same object can be improved. Therefore, according to the object tracking device 3-1 according to the embodiment, in the object tracking using a plurality of cameras, objects tracked using each camera can be accurately associated with each other.

実施形態は、カメラの数が2つの場合で説明したが、カメラの数が3つ以上でもよい。カメラの数が3つの場合、視野が隣り合う2つのカメラが、第1カメラ1と第2カメラ2となる。例えば、カメラA、カメラB、カメラCの3つのカメラが配置され、カメラAの視野、カメラBの視野、カメラCの視野が順に並ぶ場合、カメラAとカメラB、および、カメラBとカメラCが第1カメラ1と第2カメラ2の関係となる。   Although the embodiment has been described in the case where the number of cameras is two, the number of cameras may be three or more. When the number of cameras is three, two cameras whose fields of view are adjacent become the first camera 1 and the second camera 2. For example, when three cameras, camera A, camera B and camera C, are arranged, and the field of view of camera A, the field of view of camera B, and the field of view of camera C are arranged in order, camera A and camera B, and camera B and camera C Is the relationship between the first camera 1 and the second camera 2.

物体追跡装置3−1は、カメラの数が3つ以上の場合、視野が隣り合う2つのカメラを紐付けたデータを予め記憶する記憶部(不図示)を備える。視野が隣り合う2つのカメラが第1カメラ1と第2カメラ2となり、第1カメラ1によって撮像された動画V1(第1時系列画像)と第2カメラ2によって撮像された動画V2(第2時系列画像)とを用いて、第1物体と第2物体とが同一物体か否かが判定されるからである。   When the number of cameras is three or more, the object tracking device 3-1 includes a storage unit (not shown) that previously stores data in which two cameras with adjacent fields of view are linked. Two cameras whose fields of view are adjacent to each other are the first camera 1 and the second camera 2, and a moving image V1 (first time-series image) captured by the first camera 1 and a moving image V2 captured by the second camera 2 (second It is because it is determined whether or not the first object and the second object are the same object by using the time-series image).

実施形態の変形例について説明する。実施形態では、第1物体像選択部34が物体像を選択する処理(図4のステップS4:動線の設定、第2物体像選択部35が選択した物体像42と動線の方向が同じ、かつ、フレーム上の位置が同じ物体像の特定)の対象となる物体4は、第1物体追跡部32が追跡した物体4の全てである(物体4−1、物体4−2)。第1物体追跡部32が追跡した物体4の数が多い場合、上記処理(図4のステップS4)の演算量が増えるので、物体追跡の高速化が妨げられる。そこで、第1変形例は、上記処理(図4のステップS4)の対象となる物体4を減らすことができる処理をする。以下、詳しく説明する。   A modification of the embodiment will be described. In the embodiment, a process in which the first object image selection unit 34 selects an object image (step S4 of FIG. 4: setting of flow line, the direction of the flow line is the same as the object image 42 selected by the second object image selection section 35). And the object 4 used as the object of specification of the object image with the same position on a flame | frame is all the objects 4 which the 1st object tracking part 32 tracked (object 4-1, object 4-2). When the number of the objects 4 tracked by the first object tracking unit 32 is large, the amount of computation of the above process (step S4 in FIG. 4) increases, which prevents the object tracking from being speeded up. Therefore, in the first modification, processing is performed that can reduce the number of objects 4 to be targets of the above processing (step S4 in FIG. 4). Details will be described below.

図8は、第1変形例に係る物体追跡装置3−2の機能ブロック図である。図1に示す物体追跡装置3−1と異なる点を主に説明する。物体追跡装置3−2は、図1に示す物体追跡装置3−1の構成要素に加えて、第1物体決定部38をさらに備える。   FIG. 8 is a functional block diagram of an object tracking device 3-2 according to a first modification. The differences from the object tracking device 3-1 shown in FIG. 1 will be mainly described. The object tracking device 3-2 further includes a first object determination unit 38 in addition to the components of the object tracking device 3-1 illustrated in FIG.

図2および図6を参照して、物体4−1は、矢印D方向(図2の紙面において、左方向)に歩いている。よって、物体4−1の物体像41は、フレームF1の左端(左側)から消え、所定時間後、物体4−1の物体像42が、フレームF2の右端(右側)に出現する。言い換えれば、撮像時刻T3のフレームF1の左端に物体4−1の物体像41が位置し、撮像時刻T4のフレームF2の右端に物体4−1の物体像42が位置する。この所定時間は、歩行速度から決まる推定時間(数秒)である。よって、第1物体追跡部32が追跡した複数の物体4の中で、以下の(i)および(ii)の条件を満たす物体4は、第2物体追跡部33が追跡した1つの物体4(物体4−1)の可能性がある。   Referring to FIGS. 2 and 6, object 4-1 walks in the direction of arrow D (leftward in the plane of FIG. 2). Therefore, the object image 41 of the object 4-1 disappears from the left end (left side) of the frame F1, and after a predetermined time, the object image 42 of the object 4-1 appears at the right end (right side) of the frame F2. In other words, the object image 41 of the object 4-1 is located at the left end of the frame F1 at the imaging time T3, and the object image 42 of the object 4-1 is located at the right end of the frame F2 at the imaging time T4. This predetermined time is an estimated time (several seconds) determined from the walking speed. Therefore, among the plurality of objects 4 tracked by the first object tracking unit 32, the objects 4 satisfying the following conditions (i) and (ii) are one object 4 tracked by the second object tracking unit 33 ( There is a possibility of the object 4-1).

(i)フレームF1は、物体4−1の物体像42が右端に位置するフレームF2の撮像時刻(撮像時刻T4)より前であり、かつ、この撮像時刻から所定時間内に撮像されたフレームF1(撮像時刻T3のフレームF1)である。
(ii)物体4は、(i)のフレームF1の左端に物体像(物体像41)が位置する物体4(物体4−1)である。
(I) The frame F1 is a frame F1 which is before the imaging time (imaging time T4) of the frame F2 in which the object image 42 of the object 4-1 is positioned at the right end and which is imaged within a predetermined time from this imaging time. (Frame F1 at imaging time T3).
(Ii) The object 4 is the object 4 (object 4-1) in which the object image (object image 41) is located at the left end of the frame F1 of (i).

第2物体追跡部33が追跡した1つの物体4(物体4−1)と同一物体でない物体4−2は、撮像時刻T3のフレームF1の左端に、物体像43が位置していない。よって、物体4−2は、(i)および(ii)の条件を満たしていない。   The object image 43 is not located at the left end of the frame F1 at the imaging time T3 for the object 4-2 which is not the same object as the one object 4 (object 4-1) tracked by the second object tracking unit 33. Therefore, the object 4-2 does not satisfy the conditions of (i) and (ii).

以上より、第1物体決定部38は、第1物体追跡部32が追跡した物体4(第1物体)が、(i)および(ii)の条件を満たす場合、第2物体追跡部33が追跡した1つの物体4(第2物体)と同一物体である可能性を有する物体4(第1物体)と決定する。このように、第1物体決定部38は、1つの第2物体の位置と複数の第1物体の位置との関係を基にして、複数の第1物体の中から、第2物体と同一物体である可能性を有する第1物体を決定する。   As described above, when the object 4 (first object) tracked by the first object tracking unit 32 satisfies the conditions of (i) and (ii), the first object determining unit 38 tracks the second object tracking unit 33 It is determined that the object 4 (first object) has the possibility of being the same object as the one object 4 (second object). Thus, the first object determination unit 38 selects one of the plurality of first objects based on the relationship between the position of one second object and the positions of the plurality of first objects, and the same object as the second object. Determine the first object that has the possibility of being

第1物体像選択部34は、第1物体決定部38によって決定された物体4(第1物体)に対して、第1物体像選択部34が物体像を選択する処理(図4のステップS4)をする。   A process in which the first object image selection unit 34 selects an object image for the object 4 (first object) determined by the first object determination unit 38 (step S4 in FIG. 4). )do.

対応付け処理部37は、第2物体追跡部33が追跡した1つの物体4−1(1つの第2物体)に対して、第1物体追跡部32が追跡した2つの物体4−1,4−2(複数の第1物体)の中から、1つの物体4−1(1つの第1物体)を対応付ける処理をする。第1変形例は、これを前提とし、第1物体決定部38を備えることにより、第1物体追跡部32が追跡した物体4(第1物体)の数が多い場合でも、上記処理(図4のステップS4)の演算量を抑制できるので、物体追跡の高速化を図ることができる。   The association processing unit 37 is configured to track two objects 4-1, 4 tracked by the first object tracking unit 32 with respect to one object 4-1 (one second object) tracked by the second object tracking unit 33. -2 A process of correlating one object 4-1 (one first object) among -2 (a plurality of first objects) is performed. The first modification is based on this, and by providing the first object determination unit 38, the process described above (FIG. 4) even when the number of objects 4 (first objects) tracked by the first object tracking unit 32 is large. Since the amount of calculation in step S4) can be suppressed, the speed of object tracking can be increased.

実施形態の第2変形例を説明する。第1物体追跡部32が追跡した複数の物体4(第1物体)の中から、第2物体追跡部33が追跡した1つの物体4(第2物体)と同一物体である可能性を有する物体4(第1物体)の決定の仕方が、第2変形例は第1変形例と異なる。図9は、第2変形例に係る物体追跡装置3−3の機能ブロック図である。図1に示す物体追跡装置3−1と異なる点を主に説明する。物体追跡装置3−3は、図1に示す物体追跡装置3−1の構成要素に加えて、第1物体決定部39およびアドレス記憶部40をさらに備える。   A second modified example of the embodiment will be described. Among the plurality of objects 4 (first objects) tracked by the first object tracking unit 32, objects having the possibility of being identical to one object 4 (second object) tracked by the second object tracking unit 33 The second modification is different from the first modification in the determination method of 4 (first object). FIG. 9 is a functional block diagram of an object tracking device 3-3 according to a second modification. The differences from the object tracking device 3-1 shown in FIG. 1 will be mainly described. The object tracking device 3-3 further includes a first object determination unit 39 and an address storage unit 40 in addition to the components of the object tracking device 3-1 shown in FIG.

第2変形例では、図2に示す重複領域22で物体4を検出できるように、第1カメラ1および第2カメラ2の画角が設定されている。図10は、撮像時刻が同じであるフレームF1、フレームF2の一例を示す模式図である。フレームF1には、重複領域22に対応する領域221が、フレームF1の左端部に位置する。フレームF2には、重複領域22に対応する領域222が、フレームF2の右端部に位置する。第2変形例は、重複領域22を基にして、「1つの第2物体の位置と複数の第1物体の位置との関係」を定める。   In the second modification, the angle of view of the first camera 1 and the second camera 2 is set so that the object 4 can be detected in the overlapping area 22 shown in FIG. FIG. 10 is a schematic view showing an example of the frame F1 and the frame F2 having the same imaging time. In the frame F1, an area 221 corresponding to the overlapping area 22 is located at the left end of the frame F1. In the frame F2, an area 222 corresponding to the overlapping area 22 is located at the right end of the frame F2. In the second modification, “the relationship between the position of one second object and the positions of a plurality of first objects” is determined based on the overlapping area 22.

第1物体追跡部32は、物体像44、物体像45および物体像46を検出している。フレームF1には、物体像44を囲む矩形領域441が設定され、物体像45を囲む矩形領域451が設定され、物体像46を囲む矩形領域461が設定されている。物体像44が示す物体4、物体像45が示す物体4、物体像46が示す物体4は、それぞれ異なる。   The first object tracking unit 32 detects an object image 44, an object image 45 and an object image 46. In the frame F1, a rectangular area 441 surrounding the object image 44 is set, a rectangular area 451 surrounding the object image 45 is set, and a rectangular area 461 surrounding the object image 46 is set. The object 4 indicated by the object image 44, the object 4 indicated by the object image 45, and the object 4 indicated by the object image 46 are different from each other.

第2物体追跡部33は、物体像47および物体像48を検出している。フレームF2には、物体像47を囲む矩形領域471が設定され、物体像48を囲む矩形領域481が設定されている。物体像47が示す物体4と物体像48が示す物体4とは異なる。   The second object tracking unit 33 detects an object image 47 and an object image 48. In the frame F2, a rectangular area 471 surrounding the object image 47 is set, and a rectangular area 481 surrounding the object image 48 is set. The object 4 shown by the object image 47 and the object 4 shown by the object image 48 are different.

アドレス記憶部40は、フレームF1上の領域221のアドレス、および、フレームF2上の領域222のアドレスを予め記憶している。アドレス記憶部40は、HDD、フラッシュメモリ等によって実現される。第1物体決定部39は、フレームF2上の領域222のアドレスを基にして、フレームF2上の物体像(物体像47、物体像48)が領域222に位置するか否かを判断する。第1物体決定部39は、フレームF1上の領域221のアドレスを基にして、フレームF1上の物体像(物体像44、物体像45、物体像46)が領域221に位置するか否かを判断する。   The address storage unit 40 stores in advance the address of the area 221 on the frame F1 and the address of the area 222 on the frame F2. The address storage unit 40 is realized by an HDD, a flash memory or the like. The first object determination unit 39 determines whether the object image (the object image 47 and the object image 48) on the frame F2 is positioned in the region 222 based on the address of the region 222 on the frame F2. The first object determination unit 39 determines whether the object image (the object image 44, the object image 45, the object image 46) on the frame F1 is located in the region 221 based on the address of the region 221 on the frame F1. to decide.

物体像44と物体像45とは領域221に位置し、物体像46は領域221外に位置する。物体像47は領域222に位置する。よって、3つの物体像44,45,46の中で、物体像44が示す物体4、および、物体像45が示す物体4が、物体像47が示す物体4と同一物体の可能性を有する。そこで、第1物体決定部39は、物体像47(第2物体像)が重複領域22で検出された時刻に重複領域22で検出された物体像44,45のそれぞれが示す物体4(第1物体像が示す第1物体)を、物体像47が示す物体4(第2物体)と同一物体である可能性を有する物体4(第1物体)と決定する。   The object image 44 and the object image 45 are located in the area 221, and the object image 46 is located outside the area 221. The object image 47 is located in the area 222. Therefore, among the three object images 44, 45 and 46, the object 4 shown by the object image 44 and the object 4 shown by the object image 45 have the possibility of the same object as the object 4 shown by the object image 47. Therefore, the first object determination unit 39 causes each of the object images 44 and 45 detected in the overlapping area 22 at the time when the object image 47 (second object image) is detected in the overlapping area 22 (first A first object shown by the object image is determined as an object 4 (first object) having the possibility of being the same object as the object 4 (second object) shown by the object image 47.

なお、図4のステップS4の説明において、第1物体像選択部34は、第2物体像(物体像42)の特徴と類似する特徴を有する第1物体像(物体像41)が複数あれば、第2物体像選択部35によって選択された第2物体像(物体像42)を含む画像フレームF2が撮像された時刻(撮像時刻T4)と一番近い時刻に撮像されたフレームF1に含まれる第1物体像を選択する。これに限らず、例えば、第1物体像選択部34は、第2物体像(物体像42)の特徴と最も類似した特徴を有する第1物体像(物体像41)を選択してもよいし、第1物体像選択部34は、第2物体像と複数の第1物体像とのそれぞれの距離を基にして、第1物体像を選択してもよい。後者について詳しく説明する。   In the description of step S4 in FIG. 4, the first object image selection unit 34 determines that there are a plurality of first object images (object images 41) having features similar to the features of the second object image (object image 42). Included in the frame F1 captured at a time closest to the time (imaging time T4) at which the image frame F2 including the second object image (object image 42) selected by the second object image selection unit 35 is captured The first object image is selected. For example, the first object image selection unit 34 may select the first object image (object image 41) having a feature most similar to the feature of the second object image (object image 42). The first object image selection unit 34 may select the first object image based on the respective distances between the second object image and the plurality of first object images. The latter will be described in detail.

図11は、撮像時刻が同じであるフレームF1、フレームF2の他の例を示す模式図である。図11について、図10と相違する点を説明する。第1物体追跡部32は、物体像49および物体像50を検出している。フレームF1には、物体像49を囲む矩形領域491が設定され、物体像50を囲む矩形領域501が設定されている。物体像49が示す物体4と物体像50が示す物体4とは異なる。第2物体追跡部33は、物体像51を検出している。フレームF2には、物体像51を囲む矩形領域511が設定されている。   FIG. 11 is a schematic view showing another example of the frame F1 and the frame F2 having the same imaging time. The differences between FIG. 11 and FIG. 10 will be described. The first object tracking unit 32 detects an object image 49 and an object image 50. In the frame F1, a rectangular area 491 surrounding the object image 49 is set, and a rectangular area 501 surrounding the object image 50 is set. The object 4 shown by the object image 49 and the object 4 shown by the object image 50 are different. The second object tracking unit 33 detects the object image 51. In the frame F2, a rectangular area 511 surrounding the object image 51 is set.

第1物体像選択部34は、重複領域22に対応する領域221の画像と重複領域22に対応する領域222の画像とを重ねる処理をする。図12は、この処理がされた画像を示す模式図である。第1物体像選択部34は、物体像49、物体像50、物体像51のそれぞれについて、重心49a、重心50a、重心51aを算出する。   The first object image selection unit 34 superimposes the image of the area 221 corresponding to the overlapping area 22 and the image of the area 222 corresponding to the overlapping area 22. FIG. 12 is a schematic view showing an image subjected to this processing. The first object image selection unit 34 calculates the center of gravity 49a, the center of gravity 50a, and the center of gravity 51a for each of the object image 49, the object image 50, and the object image 51.

第1物体像選択部34は、物体像51(第2物体像)の重心51aと物体像49(第1物体像)の重心49aとの距離d1を算出し、物体像51(第2物体像)の重心51aと物体像50(第1物体像)の重心50aとの距離d2を算出する。第1物体像選択部34は、これらの距離の中で、一番短い距離を特定し(ここでは、距離d1)、この距離を規定する重心を有する物体像(ここでは、物体像49)を第1物体像として選択する。   The first object image selection unit 34 calculates the distance d1 between the center of gravity 51a of the object image 51 (second object image) and the center of gravity 49a of the object image 49 (first object image). The distance d2 between the center of gravity 51a) and the center of gravity 50a of the object image 50 (first object image) is calculated. Among these distances, the first object image selection unit 34 identifies the shortest distance (here, the distance d1), and an object image (here, the object image 49) having a center of gravity that defines this distance. It is selected as the first object image.

1 第1カメラ
2 第2カメラ
3−1,3−2,3−3 物体追跡装置
4,4−1,4−2 物体
11 視野
12 通路
13 天井
14 光軸中心
21 視野
22 重複領域
41〜51 物体像
49a,50a 重心
411,421,431,441,451,461,471,481,491,501,511 矩形領域
221,222 重複領域に対応する領域
d1,d2 距離
F1,F2 フレーム
L1,L2,L3 動線
V1 動画(第1時系列画像の一例)
V2 動画(第2時系列画像の一例)
DESCRIPTION OF SYMBOLS 1 1st camera 2 2nd camera 3-1, 3-2, 3-3 Object tracking device 4, 4, 4- 2, 2 Object 11 Field of view 12 Passage 13 Ceiling 14 Optical axis center 21 Field of view 22 Overlap area 41-51 Object image 49a, 50a center of gravity 411, 421, 431, 441, 451, 461, 471, 481, 491, 501, 511 rectangular area 221, 222 area d1, d2 corresponding to overlapping area distance F1, F2 frame L1, L2, frame L3 flow line V1 movie (an example of the first time series image)
V2 movie (example of second time series image)

Claims (7)

複数のカメラを用いて物体を追跡する物体追跡装置であって、
前記複数のカメラの一つである第1カメラによって撮像された画像が時系列に並ぶ第1時系列画像、および、前記複数のカメラの他の一つである第2カメラによって撮像された画像が時系列に並ぶ第2時系列画像を取得する取得部と、
第1物体の像である第1物体像を前記第1時系列画像から検出することによって、前記第1物体を追跡する第1物体追跡部と、
第2物体の像である第2物体像を前記第2時系列画像から検出することによって、前記第2物体を追跡する第2物体追跡部と、
所定の基準に従って、前記第2物体追跡部による前記第2物体の追跡で得られる前記第2物体像の群の中から、同一物体の判定に用いられる前記第2物体像を選択する第2物体像選択部と、
前記第1物体追跡部による前記第1物体の追跡で得られる前記第1物体像の群の中から、前記第2物体像選択部によって選択された前記第2物体像の特徴と類似する特徴を有する前記第1物体像を選択する第1物体像選択部と、
前記第1物体像選択部によって選択された前記第1物体像と前記第2物体像選択部によって選択された前記第2物体像とを用いて、前記第1物体と前記第2物体とが同一物体か否かを判定する同一物体判定部と、
前記同一物体判定部によって前記第1物体と前記第2物体とが同一物体と判定されたとき、前記第1物体と前記第2物体とを対応付ける処理をする対応付け処理部と、を備える物体追跡装置。
An object tracking apparatus for tracking an object using a plurality of cameras, comprising:
A first time-series image in which images taken by a first camera, which is one of the plurality of cameras, are arranged in time series, and an image taken by a second camera, which is another one of the plurality of cameras An acquisition unit that acquires second time-series images arranged in time series;
A first object tracking unit configured to track the first object by detecting a first object image which is an image of the first object from the first time-series image;
A second object tracking unit that tracks the second object by detecting a second object image that is an image of a second object from the second time-series image;
A second object for selecting the second object image to be used for determination of the same object from among a group of the second object images obtained by tracking of the second object by the second object tracking unit according to a predetermined standard An image selection unit,
Among the group of the first object images obtained by the first object tracking unit by the first object tracking unit, the feature similar to the feature of the second object image selected by the second object image selecting unit is A first object image selection unit that selects the first object image that it has;
The first object and the second object are the same using the first object image selected by the first object image selection unit and the second object image selected by the second object image selection unit. An identical object determination unit that determines whether the object is an object;
An object tracking unit that includes an association processing unit that performs processing to associate the first object with the second object when the first object and the second object are determined to be the same object by the same object determination unit apparatus.
前記対応付け処理部は、1つの前記第2物体に対して、複数の前記第1物体の中から1つの前記第1物体を対応付ける処理をし、
前記物体追跡装置は、1つの前記第2物体の位置と複数の前記第1物体の位置との関係を基にして、複数の前記第1物体の中から、前記第2物体と同一物体である可能性を有する前記第1物体を決定する第1物体決定部をさらに備え、
前記第1物体像選択部は、前記第1物体決定部によって決定された前記第1物体に対して、前記第1物体像を選択する処理をする、請求項1に記載の物体追跡装置。
The association processing unit performs processing to associate one first object among a plurality of first objects with respect to one second object,
The object tracking device is the same object as the second object among the plurality of first objects based on the relationship between the position of one second object and the positions of the plurality of first objects. The apparatus further comprises a first object determination unit that determines the first object having the possibility
The object tracking device according to claim 1, wherein the first object image selection unit performs a process of selecting the first object image for the first object determined by the first object determination unit.
前記第1カメラの視野と前記第2カメラの視野とが一部重なる重複領域があり、
前記第1物体決定部は、前記第2物体像が前記重複領域で検出された時刻に前記重複領域で検出された前記第1物体像が示す前記第1物体を、前記第2物体と同一物体である可能性を有する前記第1物体と決定する、請求項2に記載の物体追跡装置。
There is an overlapping area where the field of view of the first camera and the field of view of the second camera partially overlap,
The first object determination unit determines the first object indicated by the first object image detected in the overlapping area at the time when the second object image is detected in the overlapping area, the same object as the second object The object tracking device according to claim 2, wherein the first object having the possibility of being determined is determined.
前記同一物体判定部は、機械学習を用いて、前記第1物体と前記第2物体とが同一物体か否かを判定する、請求項1〜3のいずれか一項に記載の物体追跡装置。   The object tracking device according to any one of claims 1 to 3, wherein the same object determination unit determines whether the first object and the second object are the same object by using machine learning. 前記第1物体像選択部は、以下の(1)〜(4)のいずれか1つ、または、これらの2つ以上の組み合わせについて、前記第1物体像と前記第2物体像とが同じであれば、前記第1物体像の特徴と前記第2物体像の特徴とが類似すると判断する、請求項1〜4のいずれか一項に記載の物体追跡装置。
(1)前記第1物体像の移動方向と前記第2物体像の移動方向とが同じである。
(2)前記第1物体像の画像上の位置と前記第2物体像の画像上の位置とが同じである。
(3)前記第1物体像の移動速度と前記第2物体像の移動速度とが同じである。
(4)前記第1物体像の向きと前記第2物体像の向きとが同じである。
The first object image selecting unit is configured such that the first object image and the second object image are the same for any one of the following (1) to (4) or a combination of two or more of them: The object tracking device according to any one of claims 1 to 4, wherein it is determined that the features of the first object image and the features of the second object image are similar, if any.
(1) The moving direction of the first object image is the same as the moving direction of the second object image.
(2) The position on the image of the first object image and the position on the image of the second object image are the same.
(3) The moving speed of the first object image and the moving speed of the second object image are the same.
(4) The orientation of the first object image and the orientation of the second object image are the same.
複数のカメラを用いて物体を追跡する物体追跡方法であって、
前記複数のカメラの一つである第1カメラによって撮像された画像が時系列に並ぶ第1時系列画像、および、前記複数のカメラの他の一つである第2カメラによって撮像された画像が時系列に並ぶ第2時系列画像を取得する取得ステップと、
第1物体の像である第1物体像を前記第1時系列画像から検出することによって、前記第1物体を追跡する第1物体追跡ステップと、
第2物体の像である第2物体像を前記第2時系列画像から検出することによって、前記第2物体を追跡する第2物体追跡ステップと、
所定の基準に従って、前記第2物体追跡ステップによる前記第2物体の追跡で得られる前記第2物体像の群の中から、同一物体の判定に用いられる前記第2物体像を選択する第2物体像選択ステップと、
前記第1物体追跡ステップによる前記第1物体の追跡で得られる前記第1物体像の群の中から、前記第2物体像選択ステップによって選択された前記第2物体像の特徴と類似する特徴を有する前記第1物体像を選択する第1物体像選択ステップと、
前記第1物体像選択ステップによって選択された前記第1物体像と前記第2物体像選択ステップによって選択された前記第2物体像とを用いて、前記第1物体と前記第2物体とが同一物体か否かを判定する同一物体判定ステップと、
前記同一物体判定ステップによって前記第1物体と前記第2物体とが同一物体と判定されたとき、前記第1物体と前記第2物体とを対応付ける処理をする対応付け処理ステップと、を備える物体追跡方法。
An object tracking method for tracking an object using a plurality of cameras, comprising:
A first time-series image in which images taken by a first camera, which is one of the plurality of cameras, are arranged in time series, and an image taken by a second camera, which is another one of the plurality of cameras An acquisition step of acquiring a second time-series image arranged in time series;
A first object tracking step of tracking the first object by detecting a first object image which is an image of the first object from the first time-series image;
A second object tracking step of tracking the second object by detecting a second object image which is an image of a second object from the second time-series image;
A second object for selecting the second object image used to determine the same object from among the group of the second object images obtained by the tracking of the second object by the second object tracking step according to a predetermined criterion An image selection step,
Among the group of the first object image obtained by the tracking of the first object by the first object tracking step, a feature similar to the feature of the second object image selected by the second object image selecting step Selecting a first object image having the first object image;
The first object and the second object are the same using the first object image selected in the first object image selection step and the second object image selected in the second object image selection step An identical object determination step of determining whether the object is an object;
An object tracking process including a process of correlating the first object with the second object when the first object and the second object are determined to be the same object in the same object determining step Method.
複数のカメラを用いて物体を追跡する物体追跡プログラムであって、
前記複数のカメラの一つである第1カメラによって撮像された画像が時系列に並ぶ第1時系列画像、および、前記複数のカメラの他の一つである第2カメラによって撮像された画像が時系列に並ぶ第2時系列画像を取得する取得ステップと、
第1物体の像である第1物体像を前記第1時系列画像から検出することによって、前記第1物体を追跡する第1物体追跡ステップと、
第2物体の像である第2物体像を前記第2時系列画像から検出することによって、前記第2物体を追跡する第2物体追跡ステップと、
所定の基準に従って、前記第2物体追跡ステップによる前記第2物体の追跡で得られる前記第2物体像の群の中から、同一物体の判定に用いられる前記第2物体像を選択する第2物体像選択ステップと、
前記第1物体追跡ステップによる前記第1物体の追跡で得られる前記第1物体像の群の中から、前記第2物体像選択ステップによって選択された前記第2物体像の特徴と類似する特徴を有する前記第1物体像を選択する第1物体像選択ステップと、
前記第1物体像選択ステップによって選択された前記第1物体像と前記第2物体像選択ステップによって選択された前記第2物体像とを用いて、前記第1物体と前記第2物体とが同一物体か否かを判定する同一物体判定ステップと、
前記同一物体判定ステップによって前記第1物体と前記第2物体とが同一物体と判定されたとき、前記第1物体と前記第2物体とを対応付ける処理をする対応付け処理ステップと、をコンピュータに実行させる物体追跡プログラム。
An object tracking program for tracking an object using a plurality of cameras, comprising:
A first time-series image in which images taken by a first camera, which is one of the plurality of cameras, are arranged in time series, and an image taken by a second camera, which is another one of the plurality of cameras An acquisition step of acquiring a second time-series image arranged in time series;
A first object tracking step of tracking the first object by detecting a first object image which is an image of the first object from the first time-series image;
A second object tracking step of tracking the second object by detecting a second object image which is an image of a second object from the second time-series image;
A second object for selecting the second object image used to determine the same object from among the group of the second object images obtained by the tracking of the second object by the second object tracking step according to a predetermined criterion An image selection step,
Among the group of the first object image obtained by the tracking of the first object by the first object tracking step, a feature similar to the feature of the second object image selected by the second object image selecting step Selecting a first object image having the first object image;
The first object and the second object are the same using the first object image selected in the first object image selection step and the second object image selected in the second object image selection step An identical object determination step of determining whether the object is an object;
When the first object and the second object are determined to be the same object in the same object determining step, the computer executes an associating processing step of associating the first object with the second object. Object tracking program.
JP2017224998A 2017-11-22 2017-11-22 Object tracking device, object tracking method, and object tracking program Active JP6972962B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017224998A JP6972962B2 (en) 2017-11-22 2017-11-22 Object tracking device, object tracking method, and object tracking program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017224998A JP6972962B2 (en) 2017-11-22 2017-11-22 Object tracking device, object tracking method, and object tracking program

Publications (2)

Publication Number Publication Date
JP2019096062A true JP2019096062A (en) 2019-06-20
JP6972962B2 JP6972962B2 (en) 2021-11-24

Family

ID=66971710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017224998A Active JP6972962B2 (en) 2017-11-22 2017-11-22 Object tracking device, object tracking method, and object tracking program

Country Status (1)

Country Link
JP (1) JP6972962B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021015869A1 (en) * 2019-07-23 2021-01-28 Toyota Research Institute, Inc. Training methods for deep networks
WO2021157133A1 (en) * 2020-02-03 2021-08-12 コニカミノルタ株式会社 Re-identification device, re-identification program, and re-identification method
DE112020002471T5 (en) 2019-05-22 2022-02-03 Denso Corporation METHOD AND DEVICE FOR DETERMINING A THREE-DIMENSIONAL POSITION
JP2022110793A (en) * 2021-01-19 2022-07-29 国立研究開発法人情報通信研究機構 Positioning system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170564A (en) * 2010-02-17 2011-09-01 Toshiba Tec Corp Traffic line connection method, device, and traffic line connection program
JP6206857B1 (en) * 2016-08-24 2017-10-04 パナソニックIpマネジメント株式会社 Tracking support device, tracking support system, and tracking support method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170564A (en) * 2010-02-17 2011-09-01 Toshiba Tec Corp Traffic line connection method, device, and traffic line connection program
JP6206857B1 (en) * 2016-08-24 2017-10-04 パナソニックIpマネジメント株式会社 Tracking support device, tracking support system, and tracking support method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112020002471T5 (en) 2019-05-22 2022-02-03 Denso Corporation METHOD AND DEVICE FOR DETERMINING A THREE-DIMENSIONAL POSITION
WO2021015869A1 (en) * 2019-07-23 2021-01-28 Toyota Research Institute, Inc. Training methods for deep networks
WO2021157133A1 (en) * 2020-02-03 2021-08-12 コニカミノルタ株式会社 Re-identification device, re-identification program, and re-identification method
JPWO2021157133A1 (en) * 2020-02-03 2021-08-12
JP7491321B2 (en) 2020-02-03 2024-05-28 コニカミノルタ株式会社 Re-identification device, re-identification program, and re-identification method
JP2022110793A (en) * 2021-01-19 2022-07-29 国立研究開発法人情報通信研究機構 Positioning system
JP7576836B2 (en) 2021-01-19 2024-11-01 国立研究開発法人情報通信研究機構 Positioning system

Also Published As

Publication number Publication date
JP6972962B2 (en) 2021-11-24

Similar Documents

Publication Publication Date Title
JP7039409B2 (en) Video analysis device, person search system and person search method
CN107438173A (en) Video process apparatus, method for processing video frequency and storage medium
JP6525453B2 (en) Object position estimation system and program thereof
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
CN102369549B (en) Device for creating information for positional estimation of matter, and method for creating information for positional estimation of matter
JP5754990B2 (en) Information processing apparatus, information processing method, and program
KR101788225B1 (en) Method and System for Recognition/Tracking Construction Equipment and Workers Using Construction-Site-Customized Image Processing
JP2019096062A (en) Object tracking device, object tracking method, and object tracking program
KR20160014413A (en) The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map
JP6336935B2 (en) Moving object tracking device
CN105744223A (en) Video data processing method and apparatus
JP6077425B2 (en) Video management apparatus and program
US10839552B2 (en) Image processing apparatus, tracking method, and program
JPWO2014103673A1 (en) Information processing system, information processing method, and program
KR20250008456A (en) A method and non-transitory computer-readable storage medium for detecting on or more occluded areas of a scene
KR20170073963A (en) Device and method for tracking group-based multiple object
JP2017147689A (en) Video editing apparatus, video editing method, and video editing computer program
JP6405606B2 (en) Image processing apparatus, image processing method, and image processing program
JP6831396B2 (en) Video monitoring device
JP2002027480A (en) Moving image processing method and moving image processing apparatus
KR20160090649A (en) Device and method for detecting/tracking low-body part
JP6548306B2 (en) Image analysis apparatus, program and method for tracking a person appearing in a captured image of a camera
JP2020052600A (en) Object identification device, method and program
JP2011043863A (en) Apparatus, method, program for determining/tracking object region, and apparatus for determining object region

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211018

R150 Certificate of patent or registration of utility model

Ref document number: 6972962

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150