JP2019096062A - Object tracking device, object tracking method, and object tracking program - Google Patents
Object tracking device, object tracking method, and object tracking program Download PDFInfo
- Publication number
- JP2019096062A JP2019096062A JP2017224998A JP2017224998A JP2019096062A JP 2019096062 A JP2019096062 A JP 2019096062A JP 2017224998 A JP2017224998 A JP 2017224998A JP 2017224998 A JP2017224998 A JP 2017224998A JP 2019096062 A JP2019096062 A JP 2019096062A
- Authority
- JP
- Japan
- Prior art keywords
- image
- tracking
- object image
- same
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】複数のカメラを用いた物体追跡において、各カメラを用いて追跡した物体どうしを正確に対応付ける。【解決手段】物体追跡装置は、第1物体像を検出することによって、第1物体を追跡する第1物体追跡部と、第2物体像を検出することによって、第2物体を追跡する第2物体追跡部と、第2物体の追跡で得られる第2物体像の群の中から、同一物体の判定に用いられる第2物体像を選択する第2物体像選択部と、第1物体の追跡で得られる第1物体像の群の中から、上記選択された第2物体像の特徴と類似する特徴を有する第1物体像を選択する第1物体像選択部と、この選択された第1物体像と上記選択された第2物体像とを用いて、第1物体と第2物体とが同一物体か否かを判定する同一物体判定部と、同一物体判定部によって第1物体と第2物体とが同一物体と判定されたとき、第1物体と第2物体とを対応付ける処理をする対応付け処理部と、を備える。【選択図】図1PROBLEM TO BE SOLVED: To accurately associate objects tracked by each camera in object tracking using a plurality of cameras. An object tracking device has a first object tracking unit that tracks a first object by detecting a first object image, and a second object tracking unit that tracks a second object by detecting a second object image. The object tracking unit, the second object image selection unit that selects the second object image used for determining the same object from the group of the second object images obtained by tracking the second object, and the tracking of the first object. A first object image selection unit that selects a first object image having characteristics similar to those of the selected second object image from the group of the first object images obtained in the above, and the selected first object image. Using the object image and the selected second object image, the same object determination unit that determines whether the first object and the second object are the same object, and the first object and the second object by the same object determination unit. When it is determined that the objects are the same, the association processing unit that performs the processing of associating the first object with the second object is provided. [Selection diagram] Fig. 1
Description
本発明は、複数のカメラを用いて、物体を追跡する技術に関する。 The present invention relates to a technique for tracking an object using a plurality of cameras.
物体追跡の一つとして、異なる場所に設置された複数のカメラが、受け持ちの範囲で物体を撮像し、各カメラで撮像された画像を用いて物体を追跡する技術がある。これによれば、長い距離において、物体を追跡することができる。この物体追跡では、各カメラを用いて追跡した物体どうしを対応づける必要がある。この対応づけの前提として、各カメラを用いて追跡した物体どうしが同一物体か否かが判定される。 As one of object tracking, there is a technology in which a plurality of cameras installed at different places capture an object in a range of the carrier and track the object using an image captured by each camera. According to this, it is possible to track an object at a long distance. In this object tracking, it is necessary to associate the tracked objects with each camera. As a premise of this correspondence, it is determined whether the objects tracked using each camera are the same object or not.
同一物体(例えば、同一人物)の判定技術として、例えば、特許文献1は、入力画像から対象人物を検出し、前記検出された対象人物の画像領域を求めるとともに前記対象人物の移動方向を算出する検出部と、画像特徴と人物の向きとの対応関係を示す情報を記憶する記憶部と、カメラの光軸に対する前記対象人物の移動方向と観測可能範囲の対応テーブルを用いて、前記対象人物の移動方向によって観測領域範囲を選択し、抽出した部分領域特徴を分割して特徴テーブルを作成するとともに、前記部分領域特徴を前記観測領域範囲内に格納する画像特徴抽出部と、比較する二つの特徴テーブルが重畳する部分領域の範囲を求め、前記重畳する部分領域の特徴のみを照合する特徴照合部と、 を備えていることを特徴とする画像処理装置を開示している。
As a determination technique of the same object (for example, the same person), for example,
カメラで撮像された物体は、同一物体であっても、カメラの配置位置に対する物体の位置によって、その物体の像(以下、物体像)の形が異なる。特に、カメラの画角が大きいとき、物体像の形状が大きく異なる。例えば、カメラの視野の中央部と上端部と下端部と左端部と右端部とでは、同一物体であっても、物体像の形状が大きく異なる。本発明者は、物体が一つのカメラの視野から出る直前の物体像と、その物体が次のカメラの視野に入った直後の物体像とを用いて、同一物体か否かの判定をすれば、同一物体であるのにもかかわらず、同一物体でないと判定され、この結果、物体どうしを正確に対応付けることができないことを見出した。 Even if the object imaged by the camera is the same object, the shape of the image of the object (hereinafter referred to as an object image) differs depending on the position of the object relative to the arrangement position of the camera. In particular, when the angle of view of the camera is large, the shape of the object image is largely different. For example, the shapes of the object images of the central portion, the upper end portion, the lower end portion, the left end portion, and the right end portion of the field of view of the camera greatly differ even if they are the same object. If the inventor uses the object image immediately before the object comes out of the field of view of one camera and the object image immediately after the object enters the field of view of the next camera, it is determined whether or not they are the same object. Although they are the same object, they are determined not to be the same object, and as a result, it has been found that the objects can not be accurately associated with each other.
本発明の目的は、複数のカメラを用いた物体追跡において、各カメラを用いて追跡した物体どうしを正確に対応付けることができる物体追跡装置、物体追跡方法、および、物体追跡プログラムを提供することである。 An object of the present invention is to provide an object tracking device, an object tracking method, and an object tracking program, which can accurately associate objects tracked with each camera in object tracking using a plurality of cameras. is there.
本発明の第1局面に係る物体追跡装置は、複数のカメラを用いて物体を追跡する物体追跡装置であって、前記複数のカメラの一つである第1カメラによって撮像された画像が時系列に並ぶ第1時系列画像、および、前記複数のカメラの他の一つである第2カメラによって撮像された画像が時系列に並ぶ第2時系列画像を取得する取得部と、第1物体の像である第1物体像を前記第1時系列画像から検出することによって、前記第1物体を追跡する第1物体追跡部と、第2物体の像である第2物体像を前記第2時系列画像から検出することによって、前記第2物体を追跡する第2物体追跡部と、所定の基準に従って、前記第2物体追跡部による前記第2物体の追跡で得られる前記第2物体像の群の中から、同一物体の判定に用いられる前記第2物体像を選択する第2物体像選択部と、前記第1物体追跡部による前記第1物体の追跡で得られる前記第1物体像の群の中から、前記第2物体像選択部によって選択された前記第2物体像の特徴と類似する特徴を有する前記第1物体像を選択する第1物体像選択部と、前記第1物体像選択部によって選択された前記第1物体像と前記第2物体像選択部によって選択された前記第2物体像とを用いて、前記第1物体と前記第2物体とが同一物体か否かを判定する同一物体判定部と、前記同一物体判定部によって前記第1物体と前記第2物体とが同一物体と判定されたとき、前記第1物体と前記第2物体とを対応付ける処理をする対応付け処理部と、を備える。 An object tracking device according to a first aspect of the present invention is an object tracking device for tracking an object using a plurality of cameras, and an image captured by a first camera which is one of the plurality of cameras is time-series An acquisition unit configured to acquire a first time-series image aligned in time, and a second time-series image aligned in time series, an image captured by a second camera that is another one of the plurality of cameras; A first object tracking unit that tracks the first object by detecting a first object image that is an image from the first time-series image, and a second object image that is an image of a second object at the second time A second object tracking unit for tracking the second object by detecting from the sequence image, and a group of the second object images obtained by tracking the second object by the second object tracking unit according to a predetermined standard Second, which is used to determine the same object from among A second object image selection unit for selecting a body image; and a second object image selection unit selected from a group of the first object images obtained by tracking of the first object by the first object tracking unit. A first object image selecting unit for selecting the first object image having a feature similar to the feature of the second object image; and the first object image and the second selected by the first object image selecting unit An identical object determination unit that determines whether the first object and the second object are the same object using the second object image selected by the object image selection unit; and the same object determination unit And an association processing unit configured to associate the first object with the second object when it is determined that the first object and the second object are the same object.
追跡の対象となる物体(第1物体、第2物体)は、第1カメラの視野から第2カメラの視野へ移動してもよいし、第2カメラの視野から第1カメラの視野へ移動してもよい。第1カメラの視野と第2カメラの視野とは、重なっていなくてもよいし、一部が重なっていてもよい。 An object to be tracked (first object, second object) may move from the field of view of the first camera to the field of view of the second camera, or move from the field of view of the second camera to the field of view of the first camera. May be The field of view of the first camera and the field of view of the second camera may not overlap or may partially overlap.
第2物体像選択部は、所定の基準に従って、同一物体の判定に用いられる第2物体像を選択する。例えば、第2物体像選択部は、第2時系列画像を構成する画像(フレーム)の中で、第2物体像が最初に出現する画像(フレーム)に含まれる第2物体像を選択する。 The second object image selection unit selects a second object image to be used for determination of the same object in accordance with a predetermined criterion. For example, the second object image selection unit selects a second object image included in an image (frame) in which the second object image first appears among images (frames) constituting the second time-series image.
第1物体像選択部は、第2物体像選択部によって選択された第2物体像の特徴と類似する特徴を有する第1物体像を選択する。特徴類似の判断要素を例示すれば、以下の通りである。 The first object image selecting unit selects a first object image having a feature similar to the feature of the second object image selected by the second object image selecting unit. The characteristic similar judgment elements are as follows.
(1)第1物体像の移動方向(動線の方向)と第2物体像の移動方向(動線の方向)とが同じである。
(2)第1物体像の画像(フレーム)上の位置と第2物体像の画像(フレーム)上の位置とが同じである。
(3)第1物体像(第1物体)の移動速度と第2物体像(第2物体)の移動速度とが同じである。
(4)第1物体像の向きと第2物体像の向きとが同じである。
(1) The movement direction of the first object image (the direction of the movement line) and the movement direction of the second object image (the direction of the movement line) are the same.
(2) The position on the image (frame) of the first object image and the position on the image (frame) of the second object image are the same.
(3) The moving speed of the first object image (first object) is the same as the moving speed of the second object image (second object).
(4) The orientation of the first object image is the same as the orientation of the second object image.
ここでの同じとは、完全に同じでもよいし、ほぼ同じでもよい。第1物体像選択部は、(1)〜(4)のいずれか1つ、または、これらの2つ以上の組み合わせについて、第1物体像と第2物体像とが同じであれば、第1物体像の特徴と第2物体像の特徴とが類似すると判断する。例えば、(1)および(2)を満たせば、第1物体像の特徴と第2物体像の特徴とは類似する。 The same here may be completely the same or almost the same. If the first object image and the second object image are the same for any one of (1) to (4) or a combination of two or more of them, the first object image selection unit performs the first It is determined that the feature of the object image and the feature of the second object image are similar. For example, if (1) and (2) are satisfied, the features of the first object image and the features of the second object image are similar.
第1物体像選択部は、第2物体像の特徴と類似する特徴を有する第1物体像が複数あれば、所定の基準に従って、複数の第1物体像の中から第1物体像を選択する。例えば、第1物体像選択部は、第2物体像選択部によって選択された第2物体像を含む画像(フレーム)が撮像された時刻と一番近い時刻に撮像された画像(フレーム)に含まれる第1物体像を選択する。 The first object image selecting unit selects the first object image from among the plurality of first object images according to a predetermined criterion if there are a plurality of first object images having features similar to the features of the second object image. . For example, the first object image selecting unit is included in an image (frame) captured at a time closest to a time when an image (frame) including the second object image selected by the second object image selecting unit is captured. The first object image to be selected is selected.
同一物体判定部は、第2物体像と、この第2物体像の特徴と類似する特徴を有する第1物体像とを用いて、第1物体と第2物体とが同一物体か否かを判定するので、同一物体の判定精度を向上させることができる。従って、本発明の第1局面に係る物体追跡装置によれば、複数のカメラを用いた物体追跡において、各カメラを用いて追跡した物体どうしを正確に対応付けることができる。 The same object determination unit determines whether the first object and the second object are the same object, using the second object image and the first object image having a feature similar to the feature of the second object image. Therefore, the determination accuracy of the same object can be improved. Therefore, according to the object tracking device according to the first aspect of the present invention, in object tracking using a plurality of cameras, objects tracked using each camera can be accurately associated with each other.
上記構成において、前記対応付け処理部は、1つの前記第2物体に対して、複数の前記第1物体の中から1つの前記第1物体を対応付ける処理をし、前記物体追跡装置は、1つの前記第2物体の位置と複数の前記第1物体の位置との関係を基にして、複数の前記第1物体の中から、前記第2物体と同一物体である可能性を有する前記第1物体を決定する第1物体決定部をさらに備え、前記第1物体像選択部は、前記第1物体決定部によって決定された前記第1物体に対して、前記第1物体像を選択する処理をする。 In the above configuration, the association processing unit performs processing of associating one first object among a plurality of first objects with respect to one second object, and the object tracking device is configured to The first object having the possibility of being the same object as the second object among the plurality of first objects based on the relationship between the position of the second object and the positions of the plurality of first objects Further includes a first object determining unit that determines the first object image selecting unit, for selecting the first object image for the first object determined by the first object determining unit. .
第1物体像選択部が、第1物体追跡部が追跡した全ての第1物体に対して、第1物体像を選択する処理をする場合を考える。この場合、第1物体追跡部が追跡した第1物体の数が多ければ、第1物体像を選択する処理量が増えるので、物体追跡の高速化が妨げられる。この構成によれば、第1物体像選択部は、第1物体追跡部が追跡した全ての第1物体に対して、第1物体像を選択する処理をするのではなく、第1物体決定部によって決定された第1物体に対して、第1物体像を選択する処理をする。よって、第1物体追跡部が追跡した第1物体の数が多くても、第1物体像を選択する処理量を抑制できるので、物体追跡の高速化を図れる。 A case is considered where the first object image selection unit performs processing to select the first object image for all the first objects tracked by the first object tracking unit. In this case, if the number of first objects tracked by the first object tracking unit is large, the processing amount for selecting the first object image increases, which hinders the speeding up of object tracking. According to this configuration, the first object image selection unit does not perform processing for selecting the first object image for all the first objects tracked by the first object tracking unit, but the first object determination unit A process of selecting a first object image is performed on the first object determined by Therefore, even if the number of first objects tracked by the first object tracking unit is large, the processing amount for selecting the first object image can be suppressed, so that the object tracking can be speeded up.
上記構成において、前記第1カメラの視野と前記第2カメラの視野とが一部重なる重複領域があり、前記第1物体決定部は、前記第2物体像が前記重複領域で検出された時刻に前記重複領域で検出された前記第1物体像が示す前記第1物体を、前記第2物体と同一物体である可能性を有する前記第1物体と決定する。 In the above configuration, there is an overlapping area in which the field of view of the first camera and the field of view of the second camera partially overlap, and the first object determining unit determines that the second object image is detected in the overlapping area. The first object indicated by the first object image detected in the overlapping area is determined as the first object having the possibility of being the same object as the second object.
この構成は、重複領域を基にして、上述した「1つの前記第2物体の位置と複数の前記第1物体の位置との関係」を定める。 This configuration determines the above-mentioned "relationship between the position of one second object and the positions of a plurality of first objects" based on the overlapping area.
第2物体像が重複領域で検出された時刻に、重複領域で検出された第1物体像と重複領域以外で検出された第1物体像とがあれば、重複領域以外で検出された第1物体像が示す第1物体は、第2物体像が示す第2物体と同一物体ではない。また、第2物体像が重複領域で検出された時刻に、重複領域で検出された第1物体像が2以上であれば、これら2以上の第1物体像が示す第1物体のいずれかが、第2物体と同一物体である。以上より、この構成では、第2物体像が重複領域で検出された時刻に、重複領域で検出された第1物体像が示す第1物体を、第2物体像が示す第2物体と同一物体である可能性を有する第1物体と決定する。 If there is a first object image detected in the overlap region and a first object image detected outside the overlap region at the time when the second object image is detected in the overlap region, the first object detected in the other region than the overlap region The first object indicated by the object image is not the same as the second object indicated by the second object image. In addition, at the time when the second object image is detected in the overlapping area, if the number of first object images detected in the overlapping area is two or more, one of the first objects indicated by the two or more first object images is , The same as the second object. As described above, in this configuration, at the time when the second object image is detected in the overlap area, the first object indicated by the first object image detected in the overlap area is identical to the second object indicated by the second object image. It is determined that the first object has the possibility of being
上記構成において、前記同一物体判定部は、機械学習を用いて、前記第1物体と前記第2物体とが同一物体か否かを判定する。 In the above configuration, the same object determination unit determines whether the first object and the second object are the same object using machine learning.
この構成は、同一物体の判定方法の一例である。 This configuration is an example of the determination method of the same object.
本発明の第2局面に係る物体追跡方法は、複数のカメラを用いて物体を追跡する物体追跡方法であって、前記複数のカメラの一つである第1カメラによって撮像された画像が時系列に並ぶ第1時系列画像、および、前記複数のカメラの他の一つである第2カメラによって撮像された画像が時系列に並ぶ第2時系列画像を取得する取得ステップと、第1物体の像である第1物体像を前記第1時系列画像から検出することによって、前記第1物体を追跡する第1物体追跡ステップと、第2物体の像である第2物体像を前記第2時系列画像から検出することによって、前記第2物体を追跡する第2物体追跡ステップと、所定の基準に従って、前記第2物体追跡ステップによる前記第2物体の追跡で得られる前記第2物体像の群の中から、同一物体の判定に用いられる前記第2物体像を選択する第2物体像選択ステップと、前記第1物体追跡ステップによる前記第1物体の追跡で得られる前記第1物体像の群の中から、前記第2物体像選択ステップによって選択された前記第2物体像の特徴と類似する特徴を有する前記第1物体像を選択する第1物体像選択ステップと、前記第1物体像選択ステップによって選択された前記第1物体像と前記第2物体像選択ステップによって選択された前記第2物体像とを用いて、前記第1物体と前記第2物体とが同一物体か否かを判定する同一物体判定ステップと、前記同一物体判定ステップによって前記第1物体と前記第2物体とが同一物体と判定されたとき、前記第1物体と前記第2物体とを対応付ける処理をする対応付け処理ステップと、を備える。 An object tracking method according to a second aspect of the present invention is an object tracking method for tracking an object using a plurality of cameras, wherein an image captured by a first camera, which is one of the plurality of cameras, is time-series Acquiring a first time-series image aligned in time, and a second time-series image aligned in time series with an image captured by a second camera that is one of the plurality of cameras; A first object tracking step of tracking the first object by detecting a first object image which is an image from the first time-series image; and a second object image which is an image of a second object at the second time A second object tracking step of tracking the second object by detecting from the sequence images, and a group of the second object images obtained by tracking of the second object by the second object tracking step according to a predetermined criterion Of the same object from among The second object image selecting step of selecting the second object image used for the constant setting, and the second object image from the group of the first object images obtained by the tracking of the first object by the first object tracking step A first object image selecting step of selecting the first object image having a feature similar to the feature of the second object image selected by the object image selecting step; and the second selected by the first object image selecting step A same object determining step of determining whether the first object and the second object are the same object using the one object image and the second object image selected in the second object image selecting step; An associating process step of associating the first object with the second object when the first object and the second object are determined to be the same object in the identical object determining step
本発明の第2局面に係る物体追跡方法は、本発明の第1局面に係る物体追跡装置を方法の観点から規定しており、本発明の第1局面に係る物体追跡装置と同様の作用効果を有する。 The object tracking method according to the second aspect of the present invention defines the object tracking device according to the first aspect of the present invention from the viewpoint of the method, and the same effects as the object tracking device according to the first aspect of the present invention Have.
本発明の第3局面に係る物体追跡プログラムは、複数のカメラを用いて物体を追跡する物体追跡プログラムであって、前記複数のカメラの一つである第1カメラによって撮像された画像が時系列に並ぶ第1時系列画像、および、前記複数のカメラの他の一つである第2カメラによって撮像された画像が時系列に並ぶ第2時系列画像を取得する取得ステップと、第1物体の像である第1物体像を前記第1時系列画像から検出することによって、前記第1物体を追跡する第1物体追跡ステップと、第2物体の像である第2物体像を前記第2時系列画像から検出することによって、前記第2物体を追跡する第2物体追跡ステップと、所定の基準に従って、前記第2物体追跡ステップによる前記第2物体の追跡で得られる前記第2物体像の群の中から、同一物体の判定に用いられる前記第2物体像を選択する第2物体像選択ステップと、前記第1物体追跡ステップによる前記第1物体の追跡で得られる前記第1物体像の群の中から、前記第2物体像選択ステップによって選択された前記第2物体像の特徴と類似する特徴を有する前記第1物体像を選択する第1物体像選択ステップと、前記第1物体像選択ステップによって選択された前記第1物体像と前記第2物体像選択ステップによって選択された前記第2物体像とを用いて、前記第1物体と前記第2物体とが同一物体か否かを判定する同一物体判定ステップと、前記同一物体判定ステップによって前記第1物体と前記第2物体とが同一物体と判定されたとき、前記第1物体と前記第2物体とを対応付ける処理をする対応付け処理ステップと、をコンピュータに実行させる。 An object tracking program according to a third aspect of the present invention is an object tracking program for tracking an object using a plurality of cameras, and an image captured by a first camera which is one of the plurality of cameras is time-series Acquiring a first time-series image aligned in time, and a second time-series image aligned in time series with an image captured by a second camera that is one of the plurality of cameras; A first object tracking step of tracking the first object by detecting a first object image which is an image from the first time-series image; and a second object image which is an image of a second object at the second time A second object tracking step of tracking the second object by detecting from the sequence images, and a group of the second object images obtained by tracking of the second object by the second object tracking step according to a predetermined criterion From within From the group of the first object image obtained by the tracking of the first object by the second object image selecting step of selecting the second object image used for the determination of the same object, and the first object tracking step A first object image selecting step of selecting the first object image having features similar to the features of the second object image selected by the second object image selecting step; and selected by the first object image selecting step The same object determination to determine whether the first object and the second object are the same object using the first object image and the second object image selected in the second object image selection step An associating process step of associating the first object with the second object when the first object and the second object are determined to be the same object in the same object determining step; , Cause the computer to execute an.
本発明の第3局面に係る物体追跡プログラムは、本発明の第1局面に係る物体追跡装置をプログラムの観点から規定しており、本発明の第1局面に係る物体追跡装置と同様の作用効果を有する。 The object tracking program according to the third aspect of the present invention defines the object tracking device according to the first aspect of the present invention from the viewpoint of the program, and the same effects as the object tracking device according to the first aspect of the present invention Have.
本発明によれば、複数のカメラを用いた物体追跡において、各カメラを用いて追跡した物体どうしを正確に対応付けることができる。 According to the present invention, in object tracking using a plurality of cameras, objects tracked using each camera can be accurately associated with each other.
以下、図面に基づいて本発明の実施形態を詳細に説明する。各図において、同一符号を付した構成は、同一の構成であることを示し、その構成について、既に説明している内容については、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し(例えば、物体4)、個別の構成を指す場合には添え字を付した参照符号で示す(例えば、物体4−1、物体4−2)。 Hereinafter, an embodiment of the present invention will be described in detail based on the drawings. In each figure, the structure which attached | subjected the same code | symbol shows that it is the same structure, and the description is abbreviate | omitted about the content already demonstrated about the structure. In the present specification, suffixes are collectively denoted by reference numerals without suffixes (for example, object 4), and suffixes are denoted by suffixes when referring to individual configurations (for example, object 4-1) , Object 4-2).
図1は、実施形態に係る物体追跡装置3−1の機能ブロック図である。物体追跡装置3−1は、通信部31と、第1物体追跡部32と、第2物体追跡部33と、第1物体像選択部34と、第2物体像選択部35と、同一物体判定部36と、対応付け処理部37と、を備える。物体追跡装置3−1が追跡する物体4として、人物を例にして説明する。しかしながら、物体4は、人物に限らず、カメラで撮像できる動体(例えば、自動車)であればよい。
FIG. 1 is a functional block diagram of an object tracking device 3-1 according to the embodiment. The object tracking device 3-1 determines the same object as the
図1を参照して、通信部31は、有線または無線によって、第1カメラ1および第2カメラ2と通信する通信インターフェースである。第1カメラ1および第2カメラ2は、監視カメラとして用いられる。第1カメラ1が撮像した動画V1、および、第2カメラ2が撮像した動画V2は、通信部31によって受信される。動画V1は、第1カメラ1によって撮像された画像が、時系列に並ぶ第1時系列画像の一例である。動画V2は、第2カメラ2によって撮像された画像が、時系列に並ぶ第1時系列画像の一例である。第1カメラ1の視野11に物体4が存在する期間中の動画V1には、物体4を示す物体像が含まれる。第2カメラ2の視野21に物体4が存在する期間中の動画V2には、物体4を示す物体像が含まれる。動画V1,V2のフレームレートは、任意である(例えば、24fps、15fps、10fps、1fps)。
Referring to FIG. 1, the
以上説明したように、通信部31は、動画V1および動画V2を取得する取得部として機能する。
As described above, the
図2は、第1カメラ1および第2カメラ2の配置の一例を示す模式図である。図2を参照して、この図は、通路12を横方向から見た状態を示している。物体4−1(人物)は、矢印D方向に通路12を歩いている。物体4−2(人物)は、矢印D方向と逆方向に通路12を歩いている。通路12の上方に天井13がある。通路12が延びる方向に沿って、第1カメラ1、第2カメラ2が間隔を設けて、天井13に設置されている。第1カメラ1の視野11と第2カメラ2の視野21とは、一部が重なっており、視野の重複領域22が形成されている。第1カメラ1は、視野11内に位置する物体4を撮像する。第2カメラ2は、視野21内に位置する物体4を撮像する。
FIG. 2 is a schematic view showing an example of the arrangement of the
天井13から見たカメラの視野について、第1カメラ1を例にして説明する。図3は、天井13から見た第1カメラ1の視野11の平面図である。第1カメラ1の光軸中心14が視野11の中心に位置する。物体4の向き、および、視野11上での物体4の位置に応じて、同一物体であっても、物体4を示す物体像の外観形状が大きく異なる。
The field of view of the camera viewed from the
図1および図2を参照して、第1物体追跡部32が追跡する物体4を第1物体とする。言い換えれば、第1カメラ1を用いて追跡する物体4が第1物体である。第1物体追跡部32は、通信部31が受信した動画V1から、第1物体の像である第1物体像を検出することによって、第1物体を追跡する。この追跡には、公知の物体追跡技術(例えば、パーティクルフィルター、オプティカルフロー)を用いることができる。
Referring to FIGS. 1 and 2, the
第1物体追跡部32は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、及び、HDD(Hard Disk Drive)等のハードウェア、並びに、第1物体追跡部32の機能を実行するためのプログラムおよびデータ等によって実現される。第1物体追跡部32の機能の一部又は全部は、CPUによる処理に替えて、又は、これと共に、DSP(Digital Signal Processor)による処理によって実現されてもよい。又、第1物体追跡部32の機能の一部又は全部は、ソフトウェアによる処理に替えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。以上説明したことは、第2物体追跡部33、第1物体像選択部34、第2物体像選択部35、同一物体判定部36、対応付け処理部37についても同様である。また、後で説明する第1変形例に備えられる第1物体決定部38、および、第2変形例に備えられる第1物体決定部39についても同様である。
The first
物体追跡装置3−1は、図1に示す複数の要素によって構成される。従って、上記HDDには、これらの要素を実現するためのプログラムが格納されている。すなわち、HDDには、第1物体追跡部32、第2物体追跡部33、第1物体像選択部34、第2物体像選択部35、同一物体判定部36、対応付け処理部37のそれぞれを実現するためのプログラムが格納されている(後で説明する第1変形例では、第1物体決定部38を実現するためのプログラムがさらにHDDに格納されており、第2変形例では、第1物体決定部39を実現するためのプログラムがさらにHDDに格納されている)。これらのプログラムは、第1物体追跡プログラム、第2物体追跡プログラム、第1物体像選択プログラム、第2物体像選択プログラム、同一物体判定プログラム、対応付け処理プログラムと表現される。
The object tracking device 3-1 is composed of a plurality of elements shown in FIG. Therefore, programs for realizing these elements are stored in the HDD. That is, in the HDD, each of the first
これらのプログラムは、要素の定義を用いて表現される。第1物体追跡部32と第1物体追跡プログラムを例にして説明する。第1物体追跡部32は、第1物体像を動画V1(第1時系列画像)から検出することによって、第1物体を追跡する。第1物体追跡プログラムは、第1物体像を動画V1(第1時系列画像)から検出することによって、第1物体を追跡するプログラムである。
These programs are expressed using element definitions. The first
上記CPUによって実行されるこれらのプログラム(第1物体追跡プログラム、第2物体追跡プログラム、第1物体像選択プログラム、第2物体像選択プログラム、同一物体判定プログラム、対応付け処理プログラム)のフローチャートが、後で説明する図4である。 A flowchart of these programs (a first object tracking program, a second object tracking program, a first object image selection program, a second object image selection program, a same object determination program, an association processing program) executed by the CPU It is FIG. 4 demonstrated later.
なお、これらのプログラムは、HDDに予め記憶されているが、これに限定されない。例えば、これらのプログラムを記録している記録媒体(例えば、磁気ディスク、光学ディスクのような外部記録媒体)が用意されており、この記録媒体に記憶されているプログラムがHDDに記憶されてもよい。また、これらのプログラムは、物体追跡装置3−1とネットワーク接続されたサーバに格納されており、ネットワークを介して、これらのプログラムがHDDに送られ、HDDに記憶されてもよい。これらのプログラムは、HDDの替わりにROMに記憶してもよい。物体追跡装置3−1は、HDDの替わりに、フラッシュメモリを備え、これらのプログラムはフラッシュメモリに記憶してもよい。 Although these programs are stored in advance in the HDD, the present invention is not limited to this. For example, a recording medium (for example, an external recording medium such as a magnetic disk or an optical disk) recording these programs may be prepared, and the program stored in the recording medium may be stored in the HDD. . Also, these programs may be stored in a server connected to the object tracking device 3-1 via a network, and these programs may be sent to the HDD via the network and stored in the HDD. These programs may be stored in the ROM instead of the HDD. The object tracking device 3-1 may include a flash memory instead of the HDD, and these programs may be stored in the flash memory.
第2物体追跡部33が追跡する物体4を第2物体とする。言い換えれば、第2カメラ2を用いて追跡する物体4が第2物体である。第2物体追跡部33は、通信部31が受信した動画V2から、第2物体の像である第2物体像を検出することによって、第2物体を追跡する。この追跡には、公知の物体追跡技術(例えば、パーティクルフィルター、オプティカルフロー)を用いることができる。
An
第1物体像選択部34、第2物体像選択部35、同一物体判定部36、対応付け処理部37については後で説明する。
The first object
実施形態に係る物体追跡装置3−1の動作について説明する。図4は、これを説明するフローチャートである。図1および図2を参照して、第1カメラ1および第2カメラ2は、所定時間連続して作動し(例えば、24時間連続作動)、通信部31(取得部の一例)は、第1カメラ1によって撮像された動画V1、および、第2カメラ2によって撮像された動画V2をリアルタイムで受信する(図4のステップS1)。
The operation of the object tracking device 3-1 according to the embodiment will be described. FIG. 4 is a flowchart explaining this. Referring to FIGS. 1 and 2, the
第1物体追跡部32は、通信部31が受信した動画V1から物体像を検出することにより、物体4(第1物体)を追跡し、第2物体追跡部33は、通信部31が受信した動画V2から物体像を検出することにより、物体4(第2物体)を追跡する(図4のステップS2)。物体4の追跡について、詳しく説明する。図5は、物体4−1(人物)および物体4−2(人物)が通路12を歩いているときに、第1カメラ1によって撮像された動画V1の一部分、および、第2カメラ2によって撮像された動画V2の一部分を示す模式図である。動画V1の一部分は、撮像時刻T1から撮像時刻T6までのフレームF1によって構成される。動画V2の一部分は、撮像時刻T1から撮像時刻T6までのフレームF2によって構成される。撮像時刻T1、撮像時刻T2、撮像時刻T3、撮像時刻T4、撮像時刻T5、撮像時刻T6の順に時間が進む。図6は、図5において、物体像41,42,43を囲む矩形領域411,421,431が設定された状態を示す模式図である。図7は、図6において、動線L1,L2,L3が設定された状態を示す模式図である。
The first
図1、図2および図5を参照して、物体像41(第1物体像)は、第1カメラ1によって撮像された動画V1に含まれる物体4−1(第1物体)の像である。物体像43(第1物体像)は、第1カメラ1によって撮像された動画V1に含まれる物体4−2(第1物体)の像である。物体像42(第2物体像)は、第2カメラ2によって撮像された動画V2に含まれる物体4−1(第2物体)の像である。
Referring to FIGS. 1, 2 and 5, object image 41 (first object image) is an image of object 4-1 (first object) included in moving image V1 captured by
図1、図2および図6を参照して、第1物体追跡部32は、動画V1に含まれる物体像を検出し、物体像を囲む矩形領域を動画V1に設定する。ここでは、第1物体追跡部32は、物体像41および物体像43を検出し、物体像41を囲む矩形領域411、および、物体像43を囲む矩形領域431を動画V1に設定する。撮像時刻T4のフレームF1には、物体像41が含まれるが、物体4−1の一部分の像なので、物体像41は検出されていない。
Referring to FIGS. 1, 2 and 6, the first
第2物体追跡部33は、動画V2に含まれる物体像を検出し、物体像を囲む矩形領域を動画V2に設定する。ここでは、第2物体追跡部33は、物体像42を検出し、物体像42を囲む矩形領域421を動画V2に設定する。撮像時刻T3のフレームF2には、物体像42が含まれるが、物体4−1の一部分の像なので、物体像42は検出されていない。
The second
第1カメラ1の視野11と第2カメラ2の視野21とは、一部が重複している。この重複領域22は3次元であり、重複領域22の高さは、物体4より低い。このため、重複領域22には、物体4の一部しか収まらないので、重複領域22では物体4が検出されない。従って、物体4−1の物体像41と物体4−1の物体像42とが同時に検出されることはない。すなわち、撮像時刻T3では、物体4−1の物体像41が検出されているが、物体4−1の物体像42は検出されていない。撮像時刻T4では、物体4−1の物体像42が検出されているが、物体4−1の物体像41は検出されていない。
The field of
以上が物体4の追跡である(図4のステップS2)。物体追跡装置3−1は、物体4−1を追跡するために、物体像41(第1物体像)と物体像42(第2物体像)とを用いて、物体像41が示す物体4−1(第1物体)と物体像42が示す物体4−1(第2物体)とが同一物体であることを判定しなければならない。図6を参照して、例えば、物体像41が検出された3つのフレームF1、物体像42が検出された3つのフレームF2のうち、撮像時刻が最も近いフレームF1,F2に含まれる物体像41,42が、同一物体の判定に用いられるとする。ここでは、撮像時刻T3のフレームF1に含まれる物体像41と撮像時刻T4のフレームF2に含まれる物体像42である。撮像時刻T3のフレームF1に含まれる物体像41は、物体4−1(人物)の背中側の像である。撮像時刻T4のフレームF2に含まれる物体像42は、物体4−1(人物)の正面側の像である。外観からすると、物体像41と物体像42とは似ておらず、物体像41が示す物体4−1と物体像42が示す物体4−1とは、同一物体であるにもかかわらず、同一物体でないと判定される可能性がある。
The above is the tracking of the object 4 (step S2 in FIG. 4). The object tracking device 3-1 uses the object image 41 (first object image) and the object image 42 (second object image) to track the object 4-1 to display an object 4-1 indicated by the
そこで、実施形態では、以下のステップS3およびステップS4によって、同一物体の判定に用いられる物体像41(第1物体像)および物体像42(第2物体像)を選択する。図1、図2および図7を参照して、第2物体像選択部35は、同一物体の判定に用いる物体像42を選択する(図4のステップS3)。詳しく説明すると、第2物体像選択部35は、動画V2の物体像に動線を設定する。動線は、物体4が歩いた方向、および、歩いた軌跡を示す線である。第2カメラ2は、通路12を矢印D方向に歩く物体4−1を撮像している。第2物体像選択部35は、物体4−1を示す物体像42の動線L2を生成し、第2物体追跡部33によって検出された物体像42を含むフレームF2(撮像時刻T4のフレームF2、撮像時刻T5のフレームF2、撮像時刻T6のフレームF2)に動線L2を設定する。物体像42の動線L2は、矢印D方向と同じ方向の直線である。
Therefore, in the embodiment, the object image 41 (first object image) and the object image 42 (second object image) to be used for determination of the same object are selected by the following steps S3 and S4. Referring to FIGS. 1, 2 and 7, second object
第2物体像選択部35は、動線L2が設定されたフレームF2の中から、同一物体の判定に用いられる物体像42を選択する。実施形態では、最初に検出された物体像42、すなわち、撮像時刻T4のフレームF2に含まれる物体像42が選択される。
The second object
以上説明したように、第2物体像選択部35は、所定の基準に従って、第2物体追跡部33による第2物体(物体4−1)の追跡で得られる第2物体像の群(撮像時刻T4,T5,T6のフレームF2にそれぞれ含まれる物体像42)の中から、同一物体の判定に用いられる第2物体像(撮像時刻T4のフレームF2に含まれる物体像42)を選択する。
As described above, the second object
図1、図2および図7を参照して、次に、第1物体像選択部34は、同一物体の判定に用いる物体像41を選択する(図4のステップS4)。詳しく説明すると、第1物体像選択部34は、動画V1の物体像に動線を設定する。第1カメラ1は、通路12を矢印D方向に歩く物体4−1、および、通路12を矢印D方向と逆方向に歩く物体4−2を撮像している。第1物体像選択部34は、物体4−1を示す物体像41の動線L1を生成し、第1物体追跡部32によって検出された物体像41を含むフレームF1(撮像時刻T1のフレームF1、撮像時刻T2のフレームF1、撮像時刻T3のフレームF1)に動線L1を設定する。物体像41の動線L1は、矢印D方向と同じ向きの直線である。
Referring to FIGS. 1, 2 and 7, next, the first object
第1物体像選択部34は、物体4−2を示す物体像43の動線L3を生成し、第1物体追跡部32によって検出された物体像43を含むフレームF1(撮像時刻T1のフレームF1、撮像時刻T2のフレームF1、撮像時刻T3のフレームF1)に動線L3を設定する。物体像43の動線L3は、矢印D方向と逆方向の直線である。
The first object
第1物体像選択部34は、第1物体追跡部32が追跡した物体4のうち、動線L2と同じ方向の動線が設定されている物体像で示される物体4を選択する。ここでは、第1物体追跡部32が、物体4−1と物体4−2とを追跡している。動線L2と同じ方向の動線が設定されている物体像で示される物体4は、動線L1が設定されている物体像41で示される物体4−1である。
The first object
第1物体像選択部34は、動線L1が設定された物体像41のうち、ステップS3において第2物体像選択部35が選択した物体像42とフレーム上の位置が同じである物体像41を選択する。これは、図3で説明したように、同一物体であっても、視野11上の物体4の位置に応じて、物体4の像(物体像)の形状が異なるからである。例えば、縦2個×横3個の合計6個の領域(中央上側領域、中央下側領域、左上側領域、左下側領域、右上側領域、右下側領域)に仮想的に分割されたフレームF1およびフレームF2において、物体像が同じ領域に位置すれば、物体像のフレーム上の位置が同じとされる。
The first object
第2物体像選択部35が選択した物体像42は、フレームF2の右下側領域に位置している。そこで、第1物体像選択部34は、フレームF1の右下側領域に位置する物体像41(撮像時刻T1のフレームF1に含まれる物体像41)を選択する。ここでは、物体像41の群の中で、フレームF1の右下側領域に位置する物体像41は、撮像時刻T1のフレームF1に含まれる物体像41だけである。しかしながら、撮像時刻T1のフレームF1を含む連続するフレームF1のいずれにも、右下側領域に物体像41が位置すれば、第1物体像選択部34は、これらの物体像41の中から所定の基準に従って、物体像41を選択する。例えば、第1物体像選択部34は、それらの連続するフレームF1の中から、撮像時刻T4に最も近い撮像時刻のフレームF1に含まれる物体像41を選択する。
The
実施形態では、物体像41が位置する領域と物体像42が位置する領域とが同じであれば、これらが同じ位置にあると判定している。しかしながら、これに限定されず、例えば、第1物体像選択部34は、物体像41の重心と物体像42の重心との距離が所定のしきい値以下のとき、これらが同じ位置にあると判定してもよい。
In the embodiment, if the area where the
以上説明したように、第1物体像選択部34は、第1物体追跡部32による第1物体(物体4−1)の追跡で得られる第1物体像の群(撮像時刻T1,T2,T3のフレームF1にそれぞれ含まれる物体像41)の中から、第2物体像選択部35によって選択された第2物体像(撮像時刻T4のフレームF2に含まれる物体像42)の特徴と類似する特徴を有する第1物体像(撮像時刻T1のフレームF1に含まれる物体像41)を選択する。特徴類似の判断要素を例示すれば、以下の通りである。
As described above, the first object
(1)第1物体像の移動方向(動線の方向)と第2物体像の移動方向(動線の方向)とが同じである。
(2)第1物体像の画像(フレーム)上の位置と第2物体像の画像(フレーム)上の位置とが同じである。
(3)第1物体像(第1物体)の移動速度と第2物体像(第2物体)の移動速度とが同じである。
(4)第1物体像の向きと第2物体像の向きとが同じである。
(1) The movement direction of the first object image (the direction of the movement line) and the movement direction of the second object image (the direction of the movement line) are the same.
(2) The position on the image (frame) of the first object image and the position on the image (frame) of the second object image are the same.
(3) The moving speed of the first object image (first object) is the same as the moving speed of the second object image (second object).
(4) The orientation of the first object image is the same as the orientation of the second object image.
ここでの同じとは、完全に同じでもよいし、ほぼ同じでもよい。(3)の「移動速度」は、例えば、所定時間において、物体像がフレーム上を移動した量を基にして算出される。(4)の「向き」は、例えば、テンプレートマッチングによって求められる。第1物体像選択部34は、(1)〜(4)のいずれか1つ、または、これらの2つ以上の組み合わせについて、第1物体像と第2物体像とが同じであれば、第1物体像の特徴と第2物体像の特徴とが類似すると判断する。実施形態では、(1)および(2)を満たせば、第1物体像の特徴と第2物体像の特徴とが類似していると判断する。
The same here may be completely the same or almost the same. The “moving speed” of (3) is calculated based on, for example, the amount of movement of the object image on the frame in a predetermined time. The “direction” of (4) is obtained, for example, by template matching. If the first object image and the second object image are the same for any one of (1) to (4) or a combination of two or more of them, the first object
図1、図2および図7を参照して、同一物体判定部36は、ステップS4で第1物体像選択部34によって選択された物体像41(第1物体像)と、ステップS3で第2物体像選択部35によって選択された物体像42(第2物体像)とを用いて、物体像41が示す物体4−1(第1物体)と物体像42が示す物体4−1とが同一物体か否かを判定する(図4のステップS5)。
Referring to FIGS. 1, 2 and 7, the same
この判定には、公知の同一物体の判定技術を用いることができる。例えば、同一物体判定部36は、ステップS4で第1物体像選択部34によって選択された物体像41の色情報と、ステップS3で第2物体像選択部35によって選択された物体像42の色情報との一致度が、予め定められたしきい値より高い場合、同一物体と判定する(ヒストグラムインターセクション)。色情報の替わりに形状情報の一致度でもよい。これらに限らす、例えば、同一物体判定部36は、機械学習(例えば、ディープラーニング、サポートベクターマシン)を用いて、同一物体か否かを判定してもよい。
For this determination, it is possible to use a known determination technique for the same object. For example, the same
同一物体判定部36が、同一物体と判定したとき(図4のステップS5でYes)、対応付け処理部37は、物体像41が示す物体4−1(第1物体)のIDと同じIDを、物体像42が示す物体4−1(第2物体)に付与する(図4のステップS6)。すなわち、対応付け処理部37は、同一物体判定部36によって、物体像41が示す物体4−1(第1物体)と物体像42が示す物体4−1(第2物体)とが同一物体と判定されたとき、第1物体と第2物体とを対応付ける処理をする。
When the same
同一物体判定部36が、同一物体でないと判定したとき(図4のステップS5でNo)、対応付け処理部37は、物体像41が示す物体4−1のIDと異なるIDを、物体像42が示す物体4−1に付与する(図4のステップS7)。
When the same
以上説明したように、対応付け処理部37は、第2物体追跡部33が追跡した1つの物体4−1(1つの第2物体)に対して、第1物体追跡部32が追跡した2つの物体4−1,4−2(複数の第1物体)の中から、1つの物体4−1(1つの第1物体)を対応付ける処理をする。
As described above, the
実施形態では、第1物体追跡部32が追跡した物体4−1,4−2(第1物体)の中で、動線L2と同じ方向の動線が設定された物体像が示す物体4(第1物体)の数が、1つの場合(物体4−1)を例に説明した。しかしながら、この数が2以上の場合、2以上のそれぞれの物体4(第1物体)に対して、第1物体像選択部34は、ステップS4の処理をし、同一物体判定部36は、ステップS5の処理をする。そして、上記2以上の物体4(第1物体)の中で、同一物体の判定のスコアが一番大きい物体4(第1物体)のIDと同じIDを、物体像42が示す物体4−1(第2物体)に付与する。
In the embodiment, among the objects 4-1 and 4-2 (first object) tracked by the first
実施形態の主な効果を説明する。図1、図2および図7を参照して、第1物体像選択部34は、撮像時刻T4のフレームF2に含まれる物体像42(第2物体像)の特徴と類似する特徴を有する物体像41(第1物体像)として、撮像時刻T1のフレームF1に含まれる物体像41を選択する。同一物体判定部36は、これら2つの物体像41,42を用いて、物体像41が示す物体4−1(第1物体)と物体像42が示す物体4−1(第2物体)とが同一物体か否かを判定する。これにより、同一物体の判定精度を向上させることができる。従って、実施形態に係る物体追跡装置3−1によれば、複数のカメラを用いた物体追跡において、各カメラを用いて追跡した物体どうしを正確に対応付けることができる。
The main effects of the embodiment will be described. Referring to FIGS. 1, 2 and 7, first object
実施形態は、カメラの数が2つの場合で説明したが、カメラの数が3つ以上でもよい。カメラの数が3つの場合、視野が隣り合う2つのカメラが、第1カメラ1と第2カメラ2となる。例えば、カメラA、カメラB、カメラCの3つのカメラが配置され、カメラAの視野、カメラBの視野、カメラCの視野が順に並ぶ場合、カメラAとカメラB、および、カメラBとカメラCが第1カメラ1と第2カメラ2の関係となる。
Although the embodiment has been described in the case where the number of cameras is two, the number of cameras may be three or more. When the number of cameras is three, two cameras whose fields of view are adjacent become the
物体追跡装置3−1は、カメラの数が3つ以上の場合、視野が隣り合う2つのカメラを紐付けたデータを予め記憶する記憶部(不図示)を備える。視野が隣り合う2つのカメラが第1カメラ1と第2カメラ2となり、第1カメラ1によって撮像された動画V1(第1時系列画像)と第2カメラ2によって撮像された動画V2(第2時系列画像)とを用いて、第1物体と第2物体とが同一物体か否かが判定されるからである。
When the number of cameras is three or more, the object tracking device 3-1 includes a storage unit (not shown) that previously stores data in which two cameras with adjacent fields of view are linked. Two cameras whose fields of view are adjacent to each other are the
実施形態の変形例について説明する。実施形態では、第1物体像選択部34が物体像を選択する処理(図4のステップS4:動線の設定、第2物体像選択部35が選択した物体像42と動線の方向が同じ、かつ、フレーム上の位置が同じ物体像の特定)の対象となる物体4は、第1物体追跡部32が追跡した物体4の全てである(物体4−1、物体4−2)。第1物体追跡部32が追跡した物体4の数が多い場合、上記処理(図4のステップS4)の演算量が増えるので、物体追跡の高速化が妨げられる。そこで、第1変形例は、上記処理(図4のステップS4)の対象となる物体4を減らすことができる処理をする。以下、詳しく説明する。
A modification of the embodiment will be described. In the embodiment, a process in which the first object
図8は、第1変形例に係る物体追跡装置3−2の機能ブロック図である。図1に示す物体追跡装置3−1と異なる点を主に説明する。物体追跡装置3−2は、図1に示す物体追跡装置3−1の構成要素に加えて、第1物体決定部38をさらに備える。
FIG. 8 is a functional block diagram of an object tracking device 3-2 according to a first modification. The differences from the object tracking device 3-1 shown in FIG. 1 will be mainly described. The object tracking device 3-2 further includes a first
図2および図6を参照して、物体4−1は、矢印D方向(図2の紙面において、左方向)に歩いている。よって、物体4−1の物体像41は、フレームF1の左端(左側)から消え、所定時間後、物体4−1の物体像42が、フレームF2の右端(右側)に出現する。言い換えれば、撮像時刻T3のフレームF1の左端に物体4−1の物体像41が位置し、撮像時刻T4のフレームF2の右端に物体4−1の物体像42が位置する。この所定時間は、歩行速度から決まる推定時間(数秒)である。よって、第1物体追跡部32が追跡した複数の物体4の中で、以下の(i)および(ii)の条件を満たす物体4は、第2物体追跡部33が追跡した1つの物体4(物体4−1)の可能性がある。
Referring to FIGS. 2 and 6, object 4-1 walks in the direction of arrow D (leftward in the plane of FIG. 2). Therefore, the
(i)フレームF1は、物体4−1の物体像42が右端に位置するフレームF2の撮像時刻(撮像時刻T4)より前であり、かつ、この撮像時刻から所定時間内に撮像されたフレームF1(撮像時刻T3のフレームF1)である。
(ii)物体4は、(i)のフレームF1の左端に物体像(物体像41)が位置する物体4(物体4−1)である。
(I) The frame F1 is a frame F1 which is before the imaging time (imaging time T4) of the frame F2 in which the
(Ii) The
第2物体追跡部33が追跡した1つの物体4(物体4−1)と同一物体でない物体4−2は、撮像時刻T3のフレームF1の左端に、物体像43が位置していない。よって、物体4−2は、(i)および(ii)の条件を満たしていない。
The
以上より、第1物体決定部38は、第1物体追跡部32が追跡した物体4(第1物体)が、(i)および(ii)の条件を満たす場合、第2物体追跡部33が追跡した1つの物体4(第2物体)と同一物体である可能性を有する物体4(第1物体)と決定する。このように、第1物体決定部38は、1つの第2物体の位置と複数の第1物体の位置との関係を基にして、複数の第1物体の中から、第2物体と同一物体である可能性を有する第1物体を決定する。
As described above, when the object 4 (first object) tracked by the first
第1物体像選択部34は、第1物体決定部38によって決定された物体4(第1物体)に対して、第1物体像選択部34が物体像を選択する処理(図4のステップS4)をする。
A process in which the first object
対応付け処理部37は、第2物体追跡部33が追跡した1つの物体4−1(1つの第2物体)に対して、第1物体追跡部32が追跡した2つの物体4−1,4−2(複数の第1物体)の中から、1つの物体4−1(1つの第1物体)を対応付ける処理をする。第1変形例は、これを前提とし、第1物体決定部38を備えることにより、第1物体追跡部32が追跡した物体4(第1物体)の数が多い場合でも、上記処理(図4のステップS4)の演算量を抑制できるので、物体追跡の高速化を図ることができる。
The
実施形態の第2変形例を説明する。第1物体追跡部32が追跡した複数の物体4(第1物体)の中から、第2物体追跡部33が追跡した1つの物体4(第2物体)と同一物体である可能性を有する物体4(第1物体)の決定の仕方が、第2変形例は第1変形例と異なる。図9は、第2変形例に係る物体追跡装置3−3の機能ブロック図である。図1に示す物体追跡装置3−1と異なる点を主に説明する。物体追跡装置3−3は、図1に示す物体追跡装置3−1の構成要素に加えて、第1物体決定部39およびアドレス記憶部40をさらに備える。
A second modified example of the embodiment will be described. Among the plurality of objects 4 (first objects) tracked by the first
第2変形例では、図2に示す重複領域22で物体4を検出できるように、第1カメラ1および第2カメラ2の画角が設定されている。図10は、撮像時刻が同じであるフレームF1、フレームF2の一例を示す模式図である。フレームF1には、重複領域22に対応する領域221が、フレームF1の左端部に位置する。フレームF2には、重複領域22に対応する領域222が、フレームF2の右端部に位置する。第2変形例は、重複領域22を基にして、「1つの第2物体の位置と複数の第1物体の位置との関係」を定める。
In the second modification, the angle of view of the
第1物体追跡部32は、物体像44、物体像45および物体像46を検出している。フレームF1には、物体像44を囲む矩形領域441が設定され、物体像45を囲む矩形領域451が設定され、物体像46を囲む矩形領域461が設定されている。物体像44が示す物体4、物体像45が示す物体4、物体像46が示す物体4は、それぞれ異なる。
The first
第2物体追跡部33は、物体像47および物体像48を検出している。フレームF2には、物体像47を囲む矩形領域471が設定され、物体像48を囲む矩形領域481が設定されている。物体像47が示す物体4と物体像48が示す物体4とは異なる。
The second
アドレス記憶部40は、フレームF1上の領域221のアドレス、および、フレームF2上の領域222のアドレスを予め記憶している。アドレス記憶部40は、HDD、フラッシュメモリ等によって実現される。第1物体決定部39は、フレームF2上の領域222のアドレスを基にして、フレームF2上の物体像(物体像47、物体像48)が領域222に位置するか否かを判断する。第1物体決定部39は、フレームF1上の領域221のアドレスを基にして、フレームF1上の物体像(物体像44、物体像45、物体像46)が領域221に位置するか否かを判断する。
The
物体像44と物体像45とは領域221に位置し、物体像46は領域221外に位置する。物体像47は領域222に位置する。よって、3つの物体像44,45,46の中で、物体像44が示す物体4、および、物体像45が示す物体4が、物体像47が示す物体4と同一物体の可能性を有する。そこで、第1物体決定部39は、物体像47(第2物体像)が重複領域22で検出された時刻に重複領域22で検出された物体像44,45のそれぞれが示す物体4(第1物体像が示す第1物体)を、物体像47が示す物体4(第2物体)と同一物体である可能性を有する物体4(第1物体)と決定する。
The
なお、図4のステップS4の説明において、第1物体像選択部34は、第2物体像(物体像42)の特徴と類似する特徴を有する第1物体像(物体像41)が複数あれば、第2物体像選択部35によって選択された第2物体像(物体像42)を含む画像フレームF2が撮像された時刻(撮像時刻T4)と一番近い時刻に撮像されたフレームF1に含まれる第1物体像を選択する。これに限らず、例えば、第1物体像選択部34は、第2物体像(物体像42)の特徴と最も類似した特徴を有する第1物体像(物体像41)を選択してもよいし、第1物体像選択部34は、第2物体像と複数の第1物体像とのそれぞれの距離を基にして、第1物体像を選択してもよい。後者について詳しく説明する。
In the description of step S4 in FIG. 4, the first object
図11は、撮像時刻が同じであるフレームF1、フレームF2の他の例を示す模式図である。図11について、図10と相違する点を説明する。第1物体追跡部32は、物体像49および物体像50を検出している。フレームF1には、物体像49を囲む矩形領域491が設定され、物体像50を囲む矩形領域501が設定されている。物体像49が示す物体4と物体像50が示す物体4とは異なる。第2物体追跡部33は、物体像51を検出している。フレームF2には、物体像51を囲む矩形領域511が設定されている。
FIG. 11 is a schematic view showing another example of the frame F1 and the frame F2 having the same imaging time. The differences between FIG. 11 and FIG. 10 will be described. The first
第1物体像選択部34は、重複領域22に対応する領域221の画像と重複領域22に対応する領域222の画像とを重ねる処理をする。図12は、この処理がされた画像を示す模式図である。第1物体像選択部34は、物体像49、物体像50、物体像51のそれぞれについて、重心49a、重心50a、重心51aを算出する。
The first object
第1物体像選択部34は、物体像51(第2物体像)の重心51aと物体像49(第1物体像)の重心49aとの距離d1を算出し、物体像51(第2物体像)の重心51aと物体像50(第1物体像)の重心50aとの距離d2を算出する。第1物体像選択部34は、これらの距離の中で、一番短い距離を特定し(ここでは、距離d1)、この距離を規定する重心を有する物体像(ここでは、物体像49)を第1物体像として選択する。
The first object
1 第1カメラ
2 第2カメラ
3−1,3−2,3−3 物体追跡装置
4,4−1,4−2 物体
11 視野
12 通路
13 天井
14 光軸中心
21 視野
22 重複領域
41〜51 物体像
49a,50a 重心
411,421,431,441,451,461,471,481,491,501,511 矩形領域
221,222 重複領域に対応する領域
d1,d2 距離
F1,F2 フレーム
L1,L2,L3 動線
V1 動画(第1時系列画像の一例)
V2 動画(第2時系列画像の一例)
DESCRIPTION OF
V2 movie (example of second time series image)
Claims (7)
前記複数のカメラの一つである第1カメラによって撮像された画像が時系列に並ぶ第1時系列画像、および、前記複数のカメラの他の一つである第2カメラによって撮像された画像が時系列に並ぶ第2時系列画像を取得する取得部と、
第1物体の像である第1物体像を前記第1時系列画像から検出することによって、前記第1物体を追跡する第1物体追跡部と、
第2物体の像である第2物体像を前記第2時系列画像から検出することによって、前記第2物体を追跡する第2物体追跡部と、
所定の基準に従って、前記第2物体追跡部による前記第2物体の追跡で得られる前記第2物体像の群の中から、同一物体の判定に用いられる前記第2物体像を選択する第2物体像選択部と、
前記第1物体追跡部による前記第1物体の追跡で得られる前記第1物体像の群の中から、前記第2物体像選択部によって選択された前記第2物体像の特徴と類似する特徴を有する前記第1物体像を選択する第1物体像選択部と、
前記第1物体像選択部によって選択された前記第1物体像と前記第2物体像選択部によって選択された前記第2物体像とを用いて、前記第1物体と前記第2物体とが同一物体か否かを判定する同一物体判定部と、
前記同一物体判定部によって前記第1物体と前記第2物体とが同一物体と判定されたとき、前記第1物体と前記第2物体とを対応付ける処理をする対応付け処理部と、を備える物体追跡装置。 An object tracking apparatus for tracking an object using a plurality of cameras, comprising:
A first time-series image in which images taken by a first camera, which is one of the plurality of cameras, are arranged in time series, and an image taken by a second camera, which is another one of the plurality of cameras An acquisition unit that acquires second time-series images arranged in time series;
A first object tracking unit configured to track the first object by detecting a first object image which is an image of the first object from the first time-series image;
A second object tracking unit that tracks the second object by detecting a second object image that is an image of a second object from the second time-series image;
A second object for selecting the second object image to be used for determination of the same object from among a group of the second object images obtained by tracking of the second object by the second object tracking unit according to a predetermined standard An image selection unit,
Among the group of the first object images obtained by the first object tracking unit by the first object tracking unit, the feature similar to the feature of the second object image selected by the second object image selecting unit is A first object image selection unit that selects the first object image that it has;
The first object and the second object are the same using the first object image selected by the first object image selection unit and the second object image selected by the second object image selection unit. An identical object determination unit that determines whether the object is an object;
An object tracking unit that includes an association processing unit that performs processing to associate the first object with the second object when the first object and the second object are determined to be the same object by the same object determination unit apparatus.
前記物体追跡装置は、1つの前記第2物体の位置と複数の前記第1物体の位置との関係を基にして、複数の前記第1物体の中から、前記第2物体と同一物体である可能性を有する前記第1物体を決定する第1物体決定部をさらに備え、
前記第1物体像選択部は、前記第1物体決定部によって決定された前記第1物体に対して、前記第1物体像を選択する処理をする、請求項1に記載の物体追跡装置。 The association processing unit performs processing to associate one first object among a plurality of first objects with respect to one second object,
The object tracking device is the same object as the second object among the plurality of first objects based on the relationship between the position of one second object and the positions of the plurality of first objects. The apparatus further comprises a first object determination unit that determines the first object having the possibility
The object tracking device according to claim 1, wherein the first object image selection unit performs a process of selecting the first object image for the first object determined by the first object determination unit.
前記第1物体決定部は、前記第2物体像が前記重複領域で検出された時刻に前記重複領域で検出された前記第1物体像が示す前記第1物体を、前記第2物体と同一物体である可能性を有する前記第1物体と決定する、請求項2に記載の物体追跡装置。 There is an overlapping area where the field of view of the first camera and the field of view of the second camera partially overlap,
The first object determination unit determines the first object indicated by the first object image detected in the overlapping area at the time when the second object image is detected in the overlapping area, the same object as the second object The object tracking device according to claim 2, wherein the first object having the possibility of being determined is determined.
(1)前記第1物体像の移動方向と前記第2物体像の移動方向とが同じである。
(2)前記第1物体像の画像上の位置と前記第2物体像の画像上の位置とが同じである。
(3)前記第1物体像の移動速度と前記第2物体像の移動速度とが同じである。
(4)前記第1物体像の向きと前記第2物体像の向きとが同じである。 The first object image selecting unit is configured such that the first object image and the second object image are the same for any one of the following (1) to (4) or a combination of two or more of them: The object tracking device according to any one of claims 1 to 4, wherein it is determined that the features of the first object image and the features of the second object image are similar, if any.
(1) The moving direction of the first object image is the same as the moving direction of the second object image.
(2) The position on the image of the first object image and the position on the image of the second object image are the same.
(3) The moving speed of the first object image and the moving speed of the second object image are the same.
(4) The orientation of the first object image and the orientation of the second object image are the same.
前記複数のカメラの一つである第1カメラによって撮像された画像が時系列に並ぶ第1時系列画像、および、前記複数のカメラの他の一つである第2カメラによって撮像された画像が時系列に並ぶ第2時系列画像を取得する取得ステップと、
第1物体の像である第1物体像を前記第1時系列画像から検出することによって、前記第1物体を追跡する第1物体追跡ステップと、
第2物体の像である第2物体像を前記第2時系列画像から検出することによって、前記第2物体を追跡する第2物体追跡ステップと、
所定の基準に従って、前記第2物体追跡ステップによる前記第2物体の追跡で得られる前記第2物体像の群の中から、同一物体の判定に用いられる前記第2物体像を選択する第2物体像選択ステップと、
前記第1物体追跡ステップによる前記第1物体の追跡で得られる前記第1物体像の群の中から、前記第2物体像選択ステップによって選択された前記第2物体像の特徴と類似する特徴を有する前記第1物体像を選択する第1物体像選択ステップと、
前記第1物体像選択ステップによって選択された前記第1物体像と前記第2物体像選択ステップによって選択された前記第2物体像とを用いて、前記第1物体と前記第2物体とが同一物体か否かを判定する同一物体判定ステップと、
前記同一物体判定ステップによって前記第1物体と前記第2物体とが同一物体と判定されたとき、前記第1物体と前記第2物体とを対応付ける処理をする対応付け処理ステップと、を備える物体追跡方法。 An object tracking method for tracking an object using a plurality of cameras, comprising:
A first time-series image in which images taken by a first camera, which is one of the plurality of cameras, are arranged in time series, and an image taken by a second camera, which is another one of the plurality of cameras An acquisition step of acquiring a second time-series image arranged in time series;
A first object tracking step of tracking the first object by detecting a first object image which is an image of the first object from the first time-series image;
A second object tracking step of tracking the second object by detecting a second object image which is an image of a second object from the second time-series image;
A second object for selecting the second object image used to determine the same object from among the group of the second object images obtained by the tracking of the second object by the second object tracking step according to a predetermined criterion An image selection step,
Among the group of the first object image obtained by the tracking of the first object by the first object tracking step, a feature similar to the feature of the second object image selected by the second object image selecting step Selecting a first object image having the first object image;
The first object and the second object are the same using the first object image selected in the first object image selection step and the second object image selected in the second object image selection step An identical object determination step of determining whether the object is an object;
An object tracking process including a process of correlating the first object with the second object when the first object and the second object are determined to be the same object in the same object determining step Method.
前記複数のカメラの一つである第1カメラによって撮像された画像が時系列に並ぶ第1時系列画像、および、前記複数のカメラの他の一つである第2カメラによって撮像された画像が時系列に並ぶ第2時系列画像を取得する取得ステップと、
第1物体の像である第1物体像を前記第1時系列画像から検出することによって、前記第1物体を追跡する第1物体追跡ステップと、
第2物体の像である第2物体像を前記第2時系列画像から検出することによって、前記第2物体を追跡する第2物体追跡ステップと、
所定の基準に従って、前記第2物体追跡ステップによる前記第2物体の追跡で得られる前記第2物体像の群の中から、同一物体の判定に用いられる前記第2物体像を選択する第2物体像選択ステップと、
前記第1物体追跡ステップによる前記第1物体の追跡で得られる前記第1物体像の群の中から、前記第2物体像選択ステップによって選択された前記第2物体像の特徴と類似する特徴を有する前記第1物体像を選択する第1物体像選択ステップと、
前記第1物体像選択ステップによって選択された前記第1物体像と前記第2物体像選択ステップによって選択された前記第2物体像とを用いて、前記第1物体と前記第2物体とが同一物体か否かを判定する同一物体判定ステップと、
前記同一物体判定ステップによって前記第1物体と前記第2物体とが同一物体と判定されたとき、前記第1物体と前記第2物体とを対応付ける処理をする対応付け処理ステップと、をコンピュータに実行させる物体追跡プログラム。 An object tracking program for tracking an object using a plurality of cameras, comprising:
A first time-series image in which images taken by a first camera, which is one of the plurality of cameras, are arranged in time series, and an image taken by a second camera, which is another one of the plurality of cameras An acquisition step of acquiring a second time-series image arranged in time series;
A first object tracking step of tracking the first object by detecting a first object image which is an image of the first object from the first time-series image;
A second object tracking step of tracking the second object by detecting a second object image which is an image of a second object from the second time-series image;
A second object for selecting the second object image used to determine the same object from among the group of the second object images obtained by the tracking of the second object by the second object tracking step according to a predetermined criterion An image selection step,
Among the group of the first object image obtained by the tracking of the first object by the first object tracking step, a feature similar to the feature of the second object image selected by the second object image selecting step Selecting a first object image having the first object image;
The first object and the second object are the same using the first object image selected in the first object image selection step and the second object image selected in the second object image selection step An identical object determination step of determining whether the object is an object;
When the first object and the second object are determined to be the same object in the same object determining step, the computer executes an associating processing step of associating the first object with the second object. Object tracking program.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017224998A JP6972962B2 (en) | 2017-11-22 | 2017-11-22 | Object tracking device, object tracking method, and object tracking program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017224998A JP6972962B2 (en) | 2017-11-22 | 2017-11-22 | Object tracking device, object tracking method, and object tracking program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019096062A true JP2019096062A (en) | 2019-06-20 |
| JP6972962B2 JP6972962B2 (en) | 2021-11-24 |
Family
ID=66971710
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017224998A Active JP6972962B2 (en) | 2017-11-22 | 2017-11-22 | Object tracking device, object tracking method, and object tracking program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6972962B2 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2021015869A1 (en) * | 2019-07-23 | 2021-01-28 | Toyota Research Institute, Inc. | Training methods for deep networks |
| WO2021157133A1 (en) * | 2020-02-03 | 2021-08-12 | コニカミノルタ株式会社 | Re-identification device, re-identification program, and re-identification method |
| DE112020002471T5 (en) | 2019-05-22 | 2022-02-03 | Denso Corporation | METHOD AND DEVICE FOR DETERMINING A THREE-DIMENSIONAL POSITION |
| JP2022110793A (en) * | 2021-01-19 | 2022-07-29 | 国立研究開発法人情報通信研究機構 | Positioning system |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011170564A (en) * | 2010-02-17 | 2011-09-01 | Toshiba Tec Corp | Traffic line connection method, device, and traffic line connection program |
| JP6206857B1 (en) * | 2016-08-24 | 2017-10-04 | パナソニックIpマネジメント株式会社 | Tracking support device, tracking support system, and tracking support method |
-
2017
- 2017-11-22 JP JP2017224998A patent/JP6972962B2/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011170564A (en) * | 2010-02-17 | 2011-09-01 | Toshiba Tec Corp | Traffic line connection method, device, and traffic line connection program |
| JP6206857B1 (en) * | 2016-08-24 | 2017-10-04 | パナソニックIpマネジメント株式会社 | Tracking support device, tracking support system, and tracking support method |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE112020002471T5 (en) | 2019-05-22 | 2022-02-03 | Denso Corporation | METHOD AND DEVICE FOR DETERMINING A THREE-DIMENSIONAL POSITION |
| WO2021015869A1 (en) * | 2019-07-23 | 2021-01-28 | Toyota Research Institute, Inc. | Training methods for deep networks |
| WO2021157133A1 (en) * | 2020-02-03 | 2021-08-12 | コニカミノルタ株式会社 | Re-identification device, re-identification program, and re-identification method |
| JPWO2021157133A1 (en) * | 2020-02-03 | 2021-08-12 | ||
| JP7491321B2 (en) | 2020-02-03 | 2024-05-28 | コニカミノルタ株式会社 | Re-identification device, re-identification program, and re-identification method |
| JP2022110793A (en) * | 2021-01-19 | 2022-07-29 | 国立研究開発法人情報通信研究機構 | Positioning system |
| JP7576836B2 (en) | 2021-01-19 | 2024-11-01 | 国立研究開発法人情報通信研究機構 | Positioning system |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6972962B2 (en) | 2021-11-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7039409B2 (en) | Video analysis device, person search system and person search method | |
| CN107438173A (en) | Video process apparatus, method for processing video frequency and storage medium | |
| JP6525453B2 (en) | Object position estimation system and program thereof | |
| US10445887B2 (en) | Tracking processing device and tracking processing system provided with same, and tracking processing method | |
| US11544926B2 (en) | Image processing apparatus, method of processing image, and storage medium | |
| CN102369549B (en) | Device for creating information for positional estimation of matter, and method for creating information for positional estimation of matter | |
| JP5754990B2 (en) | Information processing apparatus, information processing method, and program | |
| KR101788225B1 (en) | Method and System for Recognition/Tracking Construction Equipment and Workers Using Construction-Site-Customized Image Processing | |
| JP2019096062A (en) | Object tracking device, object tracking method, and object tracking program | |
| KR20160014413A (en) | The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map | |
| JP6336935B2 (en) | Moving object tracking device | |
| CN105744223A (en) | Video data processing method and apparatus | |
| JP6077425B2 (en) | Video management apparatus and program | |
| US10839552B2 (en) | Image processing apparatus, tracking method, and program | |
| JPWO2014103673A1 (en) | Information processing system, information processing method, and program | |
| KR20250008456A (en) | A method and non-transitory computer-readable storage medium for detecting on or more occluded areas of a scene | |
| KR20170073963A (en) | Device and method for tracking group-based multiple object | |
| JP2017147689A (en) | Video editing apparatus, video editing method, and video editing computer program | |
| JP6405606B2 (en) | Image processing apparatus, image processing method, and image processing program | |
| JP6831396B2 (en) | Video monitoring device | |
| JP2002027480A (en) | Moving image processing method and moving image processing apparatus | |
| KR20160090649A (en) | Device and method for detecting/tracking low-body part | |
| JP6548306B2 (en) | Image analysis apparatus, program and method for tracking a person appearing in a captured image of a camera | |
| JP2020052600A (en) | Object identification device, method and program | |
| JP2011043863A (en) | Apparatus, method, program for determining/tracking object region, and apparatus for determining object region |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200618 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210630 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210803 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210916 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211018 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6972962 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |