[go: up one dir, main page]

JP2018112890A - Object tracking program, object tracking method, and object tracking device - Google Patents

Object tracking program, object tracking method, and object tracking device Download PDF

Info

Publication number
JP2018112890A
JP2018112890A JP2017002816A JP2017002816A JP2018112890A JP 2018112890 A JP2018112890 A JP 2018112890A JP 2017002816 A JP2017002816 A JP 2017002816A JP 2017002816 A JP2017002816 A JP 2017002816A JP 2018112890 A JP2018112890 A JP 2018112890A
Authority
JP
Japan
Prior art keywords
person
area
tracking
image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017002816A
Other languages
Japanese (ja)
Other versions
JP6828445B2 (en
Inventor
信浩 宮▲崎▼
Nobuhiro Miyazaki
信浩 宮▲崎▼
明燮 鄭
Mingbian Zheng
明燮 鄭
馬場 孝之
Takayuki Baba
孝之 馬場
上原 祐介
Yusuke Uehara
祐介 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017002816A priority Critical patent/JP6828445B2/en
Publication of JP2018112890A publication Critical patent/JP2018112890A/en
Application granted granted Critical
Publication of JP6828445B2 publication Critical patent/JP6828445B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】画像上で対象物同士が重なっている場合であっても、同一対象物を精度よく検出できるようにする。【解決手段】対象物追跡プログラムは、第1の画像と前記第1の画像とは異なる時刻に撮像された第2の画像のそれぞれから対象物を検出し、前記第1の画像において手前に位置する第1の対象物と奥側に位置する第2の対象物との間で重なりが発生しているか否かを判定し、重なりが発生している場合に、重なり領域を除去した領域の画像に基づいて、前記第2の対象物の有無の判定に用いる範囲を決定し、前記第1の対象物の追跡結果に基づいて前記範囲を移動させることで、前記第2の画像における前記第2の対象物を追跡するための探索領域を設定し、前記第2の画像についての前記探索領域を探索することで、前記第2の対象物の有無を判定する、処理をコンピュータに実行させる。【選択図】図5PROBLEM TO BE SOLVED: To accurately detect the same object even when the objects overlap each other on an image. An object tracking program detects an object from each of a first image and a second image captured at a different time from the first image, and positions the object in front of the first image. It is determined whether or not there is an overlap between the first object and the second object located on the back side, and if the overlap occurs, an image of the area where the overlap area is removed. The range used for determining the presence or absence of the second object is determined based on the above, and the range is moved based on the tracking result of the first object, whereby the second in the second image. By setting a search area for tracking the object of the above and searching the search area for the second image, a computer is made to execute a process of determining the presence or absence of the second object. [Selection diagram] Fig. 5

Description

本発明は、対象物追跡プログラム、対象物追跡方法及び対象物追跡装置に関する。   The present invention relates to an object tracking program, an object tracking method, and an object tracking apparatus.

近年、監視カメラは、店舗や道路等をはじめとする様々な場所に設置されるようになっている。これに伴い、監視カメラで撮像された画像も、従来の監視目的としての利用だけでなく、他の目的での利用が試行されるようになっている。一例として、監視カメラで撮像された画像から、人物の移動経路を求め、マーケティングや交通量調査等に利用する利用態様が挙げられる。   In recent years, surveillance cameras have been installed in various places such as stores and roads. In connection with this, the image captured by the surveillance camera is tried not only for the purpose of conventional monitoring but also for other purposes. As an example, there is a usage mode in which a person's movement route is obtained from an image captured by a surveillance camera and used for marketing, traffic volume survey, or the like.

ここで、人物の移動経路を算出するためには、画像上で人物同士が重なっているような状況でも、各画像において精度よく同一人物を検出し、人物追跡を行うことが求められる。   Here, in order to calculate the movement path of a person, it is required to accurately detect the same person in each image and perform person tracking even in a situation where the persons overlap on the image.

これに対して、例えば、俯瞰した位置に設置される監視カメラの特性を活かし、重なりが発生する可能性が比較的少ない部位(頭部領域等)を用いて所定領域を探索することで同一人物を検出し、人物追跡を行う方法が提案されている。   In contrast, for example, the same person can be searched by using a characteristic of a surveillance camera installed at an overhead position and searching for a predetermined area using a part (head area, etc.) that is relatively unlikely to overlap. There has been proposed a method of detecting a person and tracking a person.

特開2014−186524号公報JP 2014-186524 A 特開2012−108785号公報JP 2012-108785 A 特開2006−031153号公報JP 2006-031153 A

しかしながら、監視カメラで撮像された画像の場合、目や鼻等の部位まで正確に捉えることは困難であり、頭部領域等から抽出可能な画像特徴量は限られてくる。また、画像上で人物同士が重なっているような状況では、探索する所定領域内に複数の人物が含まれることもある。このため、頭部領域等から抽出された画像特徴量を用いて所定領域を探索しても、各画像において同一人物を検出することは難しく、高い追跡精度が得られないといった問題がある。   However, in the case of an image captured by a surveillance camera, it is difficult to accurately capture parts such as eyes and nose, and the image feature amount that can be extracted from the head region or the like is limited. Further, in a situation where persons overlap on the image, a plurality of persons may be included in a predetermined area to be searched. For this reason, even if a predetermined region is searched using image feature amounts extracted from the head region or the like, it is difficult to detect the same person in each image, and there is a problem that high tracking accuracy cannot be obtained.

一つの側面では、画像上で対象物同士が重なっている場合であっても、同一対象物を精度よく検出できるようにする。   In one aspect, the same object can be detected with high accuracy even when the objects overlap each other on the image.

一態様によれば、対象物追跡プログラムは、
第1の画像と前記第1の画像とは異なる時刻に撮像された第2の画像のそれぞれから対象物を検出し、
前記第1の画像において手前に位置する第1の対象物と奥側に位置する第2の対象物との間で重なりが発生しているか否かを判定し、
重なりが発生している場合に、重なり領域を除去した領域の画像に基づいて、前記第2の対象物の有無の判定に用いる範囲を決定し、
前記第1の対象物の追跡結果に基づいて前記範囲を移動させることで、前記第2の画像における前記第2の対象物を追跡するための探索領域を設定し、前記第2の画像についての前記探索領域を探索することで、前記第2の対象物の有無を判定する、処理をコンピュータに実行させる。
According to one aspect, the object tracking program is
An object is detected from each of the second images captured at different times of the first image and the first image;
Determining whether or not there is an overlap between the first object located in front of the first image and the second object located on the back side in the first image;
When overlapping has occurred, based on the image of the area from which the overlapping area has been removed, a range to be used for determining the presence or absence of the second object is determined,
A search area for tracking the second object in the second image is set by moving the range based on the tracking result of the first object, and the second image By searching the search area, the computer is caused to execute processing for determining the presence or absence of the second object.

画像上で対象物同士が重なっている場合であっても、同一対象物を精度よく検出できる。   Even when the objects overlap on the image, the same object can be detected with high accuracy.

人物追跡システム全体のシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration | structure of the whole person tracking system. 人物追跡システムの各装置の設置例を示す図である。It is a figure which shows the example of installation of each apparatus of a person tracking system. 動画像データの一例及び追跡対象情報の一例を示す図である。It is a figure which shows an example of moving image data and an example of tracking object information. 人物追跡装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a person tracking device. 人物追跡装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of a person tracking device. 人物追跡処理のフローチャートである。It is a flowchart of a person tracking process. 人物検出部により実行される人物検出処理のフローチャートである。It is a flowchart of the person detection process performed by a person detection part. 人物検出部により実行される人物検出処理を模式的に示した図である。It is the figure which showed typically the person detection process performed by a person detection part. 重なり判定部により実行される重なり判定処理のフローチャートである。It is a flowchart of the overlap determination process performed by an overlap determination part. 重なり判定部により実行される重なり判定処理を模式的に示した図である。It is the figure which showed typically the overlap determination process performed by an overlap determination part. 重なり除去部により実行される重なり除去処理のフローチャートである。It is a flowchart of the overlap removal process performed by an overlap removal part. 重なり除去部により実行される重なり除去処理を模式的に示した図である。It is the figure which showed typically the overlap removal process performed by the overlap removal part. 存在範囲決定部により実行される存在範囲決定処理のフローチャートである。It is a flowchart of the existence range determination process performed by an existence range determination part. 存在範囲決定部により実行される存在範囲決定処理を模式的に示した図である。It is the figure which showed typically the existence range determination process performed by an existence range determination part. 移動量算出部により実行される移動量算出処理のフローチャートである。It is a flowchart of the movement amount calculation process performed by the movement amount calculation unit. 移動量算出部により実行される移動量算出処理を模式的に示した図である。It is the figure which showed typically the movement amount calculation process performed by the movement amount calculation part. 特徴領域算出部により実行される特徴領域算出処理のフローチャートである。It is a flowchart of a feature area calculation process executed by a feature area calculation unit. 特徴領域算出部により実行される特徴領域算出処理を模式的に示した第1の図である。It is the 1st figure showing typically the feature region calculation processing performed by the feature region calculation part. 特徴領域算出部により実行される特徴領域算出処理を模式的に示した第2の図である。It is the 2nd figure showing typically the feature region calculation processing performed by the feature region calculation part. 探索部により実行される探索処理のフローチャートである。It is a flowchart of the search process performed by a search part. 探索部により実行される探索処理を模式的に示した図である。It is the figure which showed typically the search process performed by the search part. 探索処理後の追跡対象情報の一例を示す図である。It is a figure which shows an example of the tracking object information after a search process.

以下、実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。   Hereinafter, embodiments will be described with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, the duplicate description is abbreviate | omitted by attaching | subjecting the same code | symbol.

[実施形態]
<人物追跡システム全体のシステム構成>
はじめに、一実施形態に係る人物追跡装置を含む人物追跡システム全体のシステム構成について説明する。図1は、人物追跡システム全体のシステム構成の一例を示す図である。
[Embodiment]
<System configuration of the entire person tracking system>
First, a system configuration of the entire person tracking system including the person tracking apparatus according to an embodiment will be described. FIG. 1 is a diagram illustrating an example of a system configuration of the entire person tracking system.

図1に示すように、人物追跡システム100は、撮像装置110と、動画像データ格納装置120と、人物追跡装置130と、解析装置140とを有する。人物追跡システム100に含まれる各装置は、ネットワーク150を介して相互に接続されている。   As shown in FIG. 1, the person tracking system 100 includes an imaging device 110, a moving image data storage device 120, a person tracking device 130, and an analysis device 140. Each device included in the person tracking system 100 is connected to each other via a network 150.

撮像装置110は、いわゆる監視カメラであり、店舗や道路等に設置される。撮像装置110は、所定期間、連続的に撮像を行い、撮像した動画像データを、ネットワーク150を介して動画像データ格納装置120に送信する。   The imaging device 110 is a so-called surveillance camera and is installed in a store, a road, or the like. The imaging device 110 continuously captures images for a predetermined period, and transmits the captured moving image data to the moving image data storage device 120 via the network 150.

動画像データ格納装置120は、撮像装置110より送信された動画像データを格納する。動画像データ格納装置120により格納された動画像データは、人物追跡装置130からの要求に応じて、人物追跡装置130に送信される。   The moving image data storage device 120 stores moving image data transmitted from the imaging device 110. The moving image data stored by the moving image data storage device 120 is transmitted to the person tracking device 130 in response to a request from the person tracking device 130.

人物追跡装置130には、人物追跡プログラム及び追跡対象情報出力プログラムがインストールされている。人物追跡装置130は、当該プログラムを実行することで、人物追跡部131及び追跡対象情報出力部132として機能する。   The person tracking device 130 is installed with a person tracking program and a tracking target information output program. The person tracking device 130 functions as the person tracking unit 131 and the tracking target information output unit 132 by executing the program.

人物追跡部131は、動画像データ格納装置120より動画像データを読み出し、動画像データの各フレームにおいて人物を検出し、検出した人物と一致する人物(同一人物)を、次のフレームでも検出することで、人物追跡を行う。人物追跡部131は、各フレームにおいて検出した人物に関する情報を、追跡対象情報として、追跡対象情報格納部133に格納する。   The person tracking unit 131 reads moving image data from the moving image data storage device 120, detects a person in each frame of the moving image data, and detects a person (same person) that matches the detected person in the next frame. In this way, person tracking is performed. The person tracking unit 131 stores information about the person detected in each frame in the tracking target information storage unit 133 as tracking target information.

追跡対象情報出力部132は、解析装置140からの要求に応じて、追跡対象情報格納部133に格納した追跡対象情報を解析装置140に送信する。   The tracking target information output unit 132 transmits the tracking target information stored in the tracking target information storage unit 133 to the analysis device 140 in response to a request from the analysis device 140.

解析装置140は、撮像装置110の撮像範囲に含まれる各構造物の配置等を加味して、追跡対象情報に基づいて、人物の移動経路等を解析する。これにより、解析装置140のユーザは、例えば、解析結果に応じたマーケティング戦略を立案することができる。   The analysis device 140 analyzes the movement path of the person based on the tracking target information in consideration of the arrangement of each structure included in the imaging range of the imaging device 110. Thereby, the user of the analysis apparatus 140 can plan a marketing strategy according to the analysis result, for example.

<人物追跡システムの設置例>
次に、人物追跡システム100の各装置(撮像装置110、動画像データ格納装置120、人物追跡装置130、解析装置140)の設置例について説明する。図2は、人物追跡システムの各装置の設置例を示す図である。
<Installation example of person tracking system>
Next, an installation example of each device (the imaging device 110, the moving image data storage device 120, the person tracking device 130, and the analysis device 140) of the person tracking system 100 will be described. FIG. 2 is a diagram illustrating an installation example of each device of the person tracking system.

図2の例は、人物追跡システム100を、店舗を対象に設置した場合を示している。図2に示すように、撮像装置110は、店舗の売り場200の天井付近に設置される。また、動画像データ格納装置120及び解析装置140は、従業員の控室210に設置される。更に、人物追跡装置130は、各店舗の動画像データを処理し、各店舗の解析装置140に追跡対象情報を送信する処理センタ等に設定される。   The example of FIG. 2 shows a case where the person tracking system 100 is installed for a store. As shown in FIG. 2, the imaging device 110 is installed near the ceiling of the store 200 in the store. The moving image data storage device 120 and the analysis device 140 are installed in the employee waiting room 210. Furthermore, the person tracking device 130 is set in a processing center or the like that processes moving image data of each store and transmits tracking target information to the analysis device 140 of each store.

撮像装置110により撮像された動画像データは、動画像データ格納装置120に一旦格納され、人物追跡装置130により処理されることで、追跡対象情報が生成される。解析装置140は、人物追跡装置130より追跡対象情報を読み出して、売り場200における各人物の移動経路等を解析し、解析結果を表示する。表示画面220は、解析装置140に表示された解析結果の一例を示している。表示画面220に示すように、解析装置140によれば、追跡対象情報を解析することで、売り場200にいる各人物が、売り場200の入口から入ってきてから現在に至るまでのそれぞれの移動経路を、曲線で表示することができる。   The moving image data picked up by the image pickup device 110 is temporarily stored in the moving image data storage device 120 and processed by the person tracking device 130 to generate tracking target information. The analysis device 140 reads the tracking target information from the person tracking device 130, analyzes the movement path of each person on the sales floor 200, and displays the analysis result. The display screen 220 shows an example of the analysis result displayed on the analysis device 140. As shown in the display screen 220, according to the analysis device 140, by analyzing the tracking target information, each movement route from the time when each person in the sales floor 200 enters from the entrance of the sales floor 200 to the present time. Can be displayed as a curve.

<動画像データ及び追跡対象情報>
次に、人物追跡装置130にて処理される動画像データ及び人物追跡装置130に格納される追跡対象情報について説明する。図3は、動画像データの一例及び追跡対象情報の一例を示す図である。
<Moving image data and tracking target information>
Next, moving image data processed by the person tracking device 130 and tracking target information stored in the person tracking device 130 will be described. FIG. 3 is a diagram illustrating an example of moving image data and an example of tracking target information.

このうち、図3(a)は、動画像データの一例を示す図である。人物追跡装置130にて処理される動画像データには、複数のフレームが含まれており、人物追跡装置130は、フレーム単位で動画像データを処理する。図3(a)において、画像データ300は、人物追跡装置130が処理する1フレーム分の画像データを示している。図3(a)に示すように、各フレームの画像データは、横方向をx軸、縦方向をy軸としている。なお、図3(a)の例は、処理対象の画像データ300において、人物301が検出され、人物領域302が算出された様子を示している。   Among these, Fig.3 (a) is a figure which shows an example of moving image data. The moving image data processed by the person tracking device 130 includes a plurality of frames, and the person tracking device 130 processes the moving image data in units of frames. In FIG. 3A, image data 300 indicates image data for one frame processed by the person tracking device 130. As shown in FIG. 3A, the image data of each frame has an x-axis in the horizontal direction and a y-axis in the vertical direction. Note that the example in FIG. 3A shows a state in which a person 301 is detected and a person area 302 is calculated in the image data 300 to be processed.

図3(b)は、追跡対象情報の一例を示す図である。追跡対象情報310には、処理対象の画像データにおいて検出された人物に関する情報が記録される。追跡対象情報310に記録される情報の項目には、“人物ID”、“時刻[フレーム]”、“人物領域”、“移動量(x,y)”、“重なり領域”、“重なりフラグ”、“重なり関係”、“追跡フラグ”が含まれる。   FIG. 3B is a diagram illustrating an example of tracking target information. In the tracking target information 310, information about a person detected in the image data to be processed is recorded. Information items recorded in the tracking target information 310 include “person ID”, “time [frame]”, “person area”, “movement amount (x, y)”, “overlap area”, and “overlap flag”. , “Overlapping relationship”, and “tracking flag”.

“人物ID”には、処理対象の画像データにおいて、新たな人物が検出された場合に、当該人物を識別する識別子が記録される。   In “person ID”, an identifier for identifying the person when a new person is detected in the image data to be processed is recorded.

“時刻[フレーム]”には、人物IDにより識別される人物が含まれる画像データのフレーム番号が記録される。   In “time [frame]”, the frame number of the image data including the person identified by the person ID is recorded.

“人物領域”には、“x座標[画素]”、“y座標[画素]”、“幅[画素]”、“高さ[画素]”が含まれる。“x座標[画素]”には、人物IDにより識別される人物が含まれる人物領域の左上頂点のx座標(例えば、図3(a)の人物領域302の場合には、左上頂点311のx座標)が記録される。“y座標[画素]”には、人物IDにより識別される人物が含まれる人物領域の左上頂点のy座標(例えば、図3(a)の人物領域302の場合には、左上頂点311のy座標)が記録される。“幅[画素]”には、人物IDにより識別される人物が含まれる人物領域のx方向の長さ(例えば、図3(a)の人物領域302の場合には符号312で示した長さ)が記録される。“高さ[画素]”には、人物IDにより識別される人物が含まれる人物領域のy方向の長さ(例えば、図3(a)の人物領域302の場合には符号313で示した長さ)が記録される。   The “person area” includes “x coordinate [pixel]”, “y coordinate [pixel]”, “width [pixel]”, and “height [pixel]”. In “x coordinate [pixel]”, the x coordinate of the upper left vertex of the person area including the person identified by the person ID (for example, in the case of the person area 302 in FIG. 3A, the x of the upper left vertex 311). Coordinates) is recorded. In “y coordinate [pixel]”, the y coordinate of the upper left vertex of the person area including the person identified by the person ID (for example, y in the upper left vertex 311 in the case of the person area 302 in FIG. 3A). Coordinates) is recorded. “Width [pixel]” includes the length in the x direction of the person area including the person identified by the person ID (for example, the length indicated by reference numeral 312 in the case of the person area 302 in FIG. 3A). ) Is recorded. “Height [pixel]” includes the length in the y direction of the person area including the person identified by the person ID (for example, the length indicated by reference numeral 313 in the case of the person area 302 in FIG. 3A). Is recorded.

“移動量(x,y)”には、処理対象の画像データのフレーム番号の1つ前のフレーム番号の画像データと比較した場合の、人物の移動量が記録される。“移動量(x、y)”には、1つ前のフレーム番号の画像データにおいて検出された人物が、処理対象の画像データにおいても検出できた場合に(つまり、当該人物を追跡できた場合に)、当該人物の移動量が記録される。   In “movement amount (x, y)”, the movement amount of the person when compared with the image data of the frame number immediately before the frame number of the image data to be processed is recorded. In “movement amount (x, y)”, when a person detected in the image data of the previous frame number can also be detected in the image data to be processed (that is, when the person can be tracked) B), the movement amount of the person is recorded.

“重なり領域”には、“x座標[画素]”、“y座標[画素]”、“幅[画素]”、“高さ[画素]”が含まれる。“x座標[画素]”には、画像データにおいて2つの人物領域が重なっていた場合に、重なり部分の領域(重なり領域)の左上頂点のx座標が記録される。“y座標[画素]”には、重なり領域の左上頂点のy座標が記録される。“幅[画素]”には、重なり領域のx方向の長さが記録される。“高さ[画素]”には、重なり領域のy方向の長さが記録される。   The “overlap area” includes “x coordinate [pixel]”, “y coordinate [pixel]”, “width [pixel]”, and “height [pixel]”. In the “x coordinate [pixel]”, when two person areas overlap in the image data, the x coordinate of the upper left vertex of the overlapping area (overlapping area) is recorded. In “y coordinate [pixel]”, the y coordinate of the upper left vertex of the overlapping area is recorded. In “width [pixel]”, the length of the overlapping region in the x direction is recorded. In “height [pixel]”, the length of the overlapping region in the y direction is recorded.

“重なりフラグ”には、人物IDにより識別される人物の人物領域が、手前にいる他の人物の人物領域と重なっていた場合に「1」が記録され、手前にいる他の人物の人物領域と重なっていない場合に「0」が記録される。   In the “overlap flag”, “1” is recorded when the person area of the person identified by the person ID overlaps with the person area of another person in front, and the person area of the other person in front is recorded. "0" is recorded when it does not overlap.

“重なり関係”には、人物IDにより識別される人物の人物領域が、手前にいる他の人物の人物領域と重なっていた場合に(重なり関係にある場合に)、手前にいる他の人物の人物IDが記録される。   In the “overlapping relationship”, when the person area of the person identified by the person ID overlaps with the person area of another person in the foreground (when there is an overlapping relationship), A person ID is recorded.

“追跡フラグ”には、重なりフラグに「0」が記録された場合であって、人物IDにより識別される人物と同一人物が、処理対象の画像データのフレーム番号の1つ後のフレーム番号の画像データにおいて検出された場合に、「1」が記録される。   In the “tracking flag”, “0” is recorded in the overlap flag, and the same person as the person identified by the person ID has a frame number one after the frame number of the image data to be processed. When it is detected in the image data, “1” is recorded.

<人物追跡装置のハードウェア構成>
次に、人物追跡装置130のハードウェア構成について説明する。図4は、人物追跡装置のハードウェア構成の一例を示す図である。図4に示すように、人物追跡装置130は、CPU(Central Processing Unit)401、ROM(Read Only Memory)402、RAM(Random Access Memory)403を有する。CPU401、ROM402、RAM403は、いわゆるコンピュータを形成する。
<Hardware configuration of person tracking device>
Next, the hardware configuration of the person tracking device 130 will be described. FIG. 4 is a diagram illustrating an example of a hardware configuration of the person tracking device. As shown in FIG. 4, the person tracking device 130 includes a CPU (Central Processing Unit) 401, a ROM (Read Only Memory) 402, and a RAM (Random Access Memory) 403. The CPU 401, ROM 402, and RAM 403 form a so-called computer.

また、人物追跡装置130は、補助記憶装置404、表示装置405、操作装置406、I/F(Interface)装置407、ドライブ装置408を有する。なお、人物追跡装置130の各部は、バス409を介して相互に接続されている。   The person tracking device 130 includes an auxiliary storage device 404, a display device 405, an operation device 406, an I / F (Interface) device 407, and a drive device 408. Each unit of the person tracking device 130 is connected to each other via a bus 409.

CPU401は、補助記憶装置404にインストールされている各種プログラム(例えば、人物追跡プログラム、追跡対象情報出力プログラム等)を実行するデバイスである。ROM402は、不揮発性メモリである。ROM402は、補助記憶装置404にインストールされている各種プログラムをCPU401が実行するために必要な各種プログラム、データ等を格納する、主記憶デバイスとして機能する。具体的には、ROM402はBIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を格納する。   The CPU 401 is a device that executes various programs (for example, a person tracking program, a tracking target information output program, etc.) installed in the auxiliary storage device 404. The ROM 402 is a nonvolatile memory. The ROM 402 functions as a main storage device that stores various programs, data, and the like necessary for the CPU 401 to execute various programs installed in the auxiliary storage device 404. Specifically, the ROM 402 stores a boot program such as a basic input / output system (BIOS) or an extensible firmware interface (EFI).

RAM403は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の揮発性メモリである。RAM403は、補助記憶装置404にインストールされている各種プログラムがCPU401によって実行される際に展開される作業領域を提供する、主記憶デバイスとして機能する。   The RAM 403 is a volatile memory such as a DRAM (Dynamic Random Access Memory) or an SRAM (Static Random Access Memory). The RAM 403 functions as a main storage device that provides a work area that is expanded when various programs installed in the auxiliary storage device 404 are executed by the CPU 401.

補助記憶装置404は、各種プログラムや、各種プログラムが実行されることで生成される情報(例えば、追跡対象情報310等)、ならびに各種プログラムが実行される際に用いられる情報(例えば、後述する類似度マップ等)を格納する補助記憶デバイスである。追跡対象情報格納部133は、補助記憶装置404において実現される。   The auxiliary storage device 404 stores various programs, information generated by executing the various programs (for example, tracking target information 310), and information used when the various programs are executed (for example, similarities described later). This is an auxiliary storage device for storing a degree map or the like. The tracking target information storage unit 133 is realized in the auxiliary storage device 404.

表示装置405は、人物追跡装置130の内部状態等を表示する表示デバイスである。操作装置406は、人物追跡装置130の管理者が人物追跡装置130に対して各種指示を入力するための入力デバイスである。   The display device 405 is a display device that displays an internal state or the like of the person tracking device 130. The operation device 406 is an input device for an administrator of the person tracking device 130 to input various instructions to the person tracking device 130.

I/F装置407は、ネットワーク150に接続し、動画像データ格納装置120、解析装置140と通信を行うための通信デバイスである。   The I / F device 407 is a communication device that connects to the network 150 and communicates with the moving image data storage device 120 and the analysis device 140.

ドライブ装置408は記録媒体410をセットするためのデバイスである。ここでいう記録媒体410には、CD−ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体410には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。   The drive device 408 is a device for setting the recording medium 410. The recording medium 410 here includes a medium for recording information optically, electrically, or magnetically, such as a CD-ROM, a flexible disk, a magneto-optical disk, or the like. The recording medium 410 may include a semiconductor memory that electrically records information, such as a ROM and a flash memory.

なお、補助記憶装置404に格納される各種プログラムは、例えば、配布された記録媒体410がドライブ装置408にセットされ、該記録媒体410に記録された各種プログラムがドライブ装置408により読み出されることでインストールされる。   The various programs stored in the auxiliary storage device 404 are installed by, for example, setting the distributed recording medium 410 in the drive device 408 and reading the various programs recorded in the recording medium 410 by the drive device 408. Is done.

<人物追跡装置の機能構成>
次に、人物追跡装置130の人物追跡部131の機能構成について説明する。図5は、人物追跡装置の機能構成の一例を示す図である。
<Functional configuration of person tracking device>
Next, a functional configuration of the person tracking unit 131 of the person tracking device 130 will be described. FIG. 5 is a diagram illustrating an example of a functional configuration of the person tracking apparatus.

図5に示すように、人物追跡装置130の人物追跡部131は、人物検出部501、重なり判定部502、重なり除去部503、存在範囲決定部504、移動量算出部505、特徴領域算出部506、探索部507を有する。   As shown in FIG. 5, the person tracking unit 131 of the person tracking device 130 includes a person detection unit 501, an overlap determination unit 502, an overlap removal unit 503, an existence range determination unit 504, a movement amount calculation unit 505, and a feature region calculation unit 506. And a search unit 507.

人物検出部501は検出部の一例であり、処理対象の画像データにおいて新たに人物が登場した場合に、当該人物を検出し、検出した人物の人物領域を算出する。   The person detection unit 501 is an example of a detection unit. When a new person appears in the image data to be processed, the person detection unit 501 detects the person and calculates the person area of the detected person.

重なり判定部502は判定部の一例であり、処理対象の画像データについて、人物検出部501により新たに検出された人物、あるいは、既に検出され、追跡されている人物について、人物領域の重なりの有無を判定する。処理対象の画像データには、人物領域が他の人物の人物領域と重なっている人物(奥側の人物)と、重なっていない人物(手前側の人物)とが含まれる。そこで、重なり判定部502は、人物領域が重なっている人物(奥側の人物)と、重なっていない人物(手前側の人物)とを判定する。   The overlap determination unit 502 is an example of a determination unit, and for the image data to be processed, whether or not there is an overlap of person areas for a person newly detected by the person detection unit 501 or a person already detected and tracked Determine. The image data to be processed includes a person whose person area overlaps the person area of another person (a person on the back side) and a person who does not overlap (a person on the near side). Therefore, the overlap determination unit 502 determines a person whose person areas overlap (a person on the back side) and a person who does not overlap (a person on the near side).

このうち、手前側の人物については、次の処理対象の画像データにおいても、当該人物と同一人物を容易に検出できる(つまり、容易に人物追跡することができる)。一方、奥側の人物については、次の処理対象の画像データにおいて、当該人物と同一人物を検出することが困難である(つまり、人物追跡が困難である)。   Among these, for the person on the near side, the same person as the person can be easily detected in the image data to be processed next (that is, the person can be easily tracked). On the other hand, for the person on the back side, it is difficult to detect the same person as the person in the image data to be processed next (that is, person tracking is difficult).

そこで、人物追跡部131では、人物追跡が困難な奥側の人物について、まず、重なり除去部503が、処理対象の画像データにおいて、人物領域の重なり領域を除去する。これにより、奥側の人物が存在する範囲を識別することが可能となる。   In view of this, in the person tracking unit 131, first, the overlap removing unit 503 removes the overlapping regions of the person regions from the image data to be processed for the person on the back side that is difficult to track. As a result, it is possible to identify a range in which a person on the back side exists.

続いて、人物追跡部131では、決定部の一例である存在範囲決定部504が、奥側の人物が存在する範囲の画像を用いて、奥側の人物を追跡(次の処理対象の画像データにおいて奥側の人物と同一人物の有無を判定)するうえで有効な範囲を決定する。存在範囲決定部504は、類似度マップを生成することで、当該範囲を決定する。類似度マップとは、処理対象の画像データの各位置において、奥側の人物が存在する範囲の画像との類似度を算出し、各位置での類似度を濃淡画像として表現したマップである。類似度マップにおいて濃度の高い範囲は、奥側の人物の特徴が顕著に表れている範囲であり、奥側の人物を追跡するうえで有効な範囲である。   Subsequently, in the person tracking unit 131, the existence range determination unit 504, which is an example of a determination unit, tracks a person on the back side using an image in a range where the person on the back side exists (image data to be processed next). The effective range for determining the presence or absence of the same person as the person on the back side is determined. The existence range determination unit 504 determines the range by generating a similarity map. The similarity map is a map that calculates the similarity with an image in a range in which a person on the back side exists at each position of the image data to be processed, and expresses the similarity at each position as a gray image. In the similarity map, the high-density range is a range in which the features of the person on the back side are noticeable, and is an effective range for tracking the person on the back side.

一方、移動量算出部505は、重なり判定部502により重なっていないと判定された人物(手前側の人物)について、次の処理対象の画像データより、当該人物と同一人物を検出し、検出した人物の人物領域を算出する。また、移動量算出部505は、処理対象の画像データから次の処理対象の画像データまでの間の、手前側の人物の移動量を算出する。   On the other hand, the movement amount calculation unit 505 detects and detects the same person as the person from the next processing target image data for the person determined to be non-overlapped by the overlap determination unit 502 (the person on the near side). The person area of the person is calculated. Further, the movement amount calculation unit 505 calculates the movement amount of the person on the near side between the processing target image data and the next processing target image data.

特徴領域算出部506は算出部の一例であり、処理対象の画像データの1つ前の処理対象の画像データからの移動量と、処理対象の画像データから次の処理対象の画像データまでの間の移動量とを比較することで、手前側の人物の移動量の変化を算出する。このように、手前側の人物の移動量の変化を算出することで、処理対象の画像データにおいて算出した奥側の人物の重なり領域が、次の処理対象の画像データにおいてどのように変化するのかを推定することができる。   The feature area calculation unit 506 is an example of a calculation unit, and the amount of movement from the processing target image data immediately before the processing target image data and the interval between the processing target image data and the next processing target image data. The movement amount change of the person on the near side is calculated by comparing the movement amount of the person. In this way, by calculating the change in the amount of movement of the person on the near side, how the overlapping area of the person on the back side calculated in the image data to be processed changes in the next image data to be processed Can be estimated.

そこで、特徴領域算出部506は、手前側の人物の移動量の変化に基づいて、変化後の重なり領域を推定し、次の処理対象の画像データにおいて、奥側の人物が存在する範囲を推定する。   Therefore, the feature area calculation unit 506 estimates the overlap area after the change based on the change in the movement amount of the person on the near side, and estimates the range where the person on the back side exists in the next image data to be processed. To do.

更に、特徴領域算出部506は、推定した範囲に応じた処理対象の画像データの領域を、奥側の人物を探索する際に用いる特徴領域として算出する。   Furthermore, the feature region calculation unit 506 calculates the region of the image data to be processed according to the estimated range as a feature region used when searching for a person on the back side.

探索部507は、移動量算出部505により算出された移動量(処理対象の画像データから次の処理対象の画像データまでの間の移動量)に応じて、存在範囲決定部504により生成された類似度マップを移動させる。また、探索部507は、次の処理対象の画像データにおける類似度マップの位置を識別し、識別した位置の類似度マップ(移動後の類似度マップ)に基づく領域を探索領域として設定する。   The search unit 507 is generated by the existence range determination unit 504 according to the movement amount calculated by the movement amount calculation unit 505 (movement amount between the processing target image data and the next processing target image data). Move the similarity map. Further, the search unit 507 identifies the position of the similarity map in the next image data to be processed, and sets an area based on the identified position similarity map (similarity map after movement) as a search area.

更に、探索部507は、当該探索領域について探索を行うことで、次の処理対象の画像データにおいて、奥側の人物と同一人物が存在するか否かを判定する。具体的には、探索部507は、特徴領域算出部506にて算出された特徴領域の画像を用いた、当該探索領域を探索する。探索部507は、探索領域の画像が、特徴領域算出部506にて算出された特徴領域の画像と類似していれば、探索領域に奥側の人物と同一人物が存在すると判定する。   Further, the search unit 507 performs a search on the search area to determine whether or not the same person as the back person exists in the next image data to be processed. Specifically, the search unit 507 searches for the search area using the image of the feature area calculated by the feature area calculation unit 506. If the image of the search area is similar to the image of the feature area calculated by the feature area calculation unit 506, the search unit 507 determines that the same person as the back person is present in the search area.

このように、人物追跡部131では、人物追跡が容易な人物(手前側の人物)の追跡結果を利用して、人物追跡が困難な人物を探索する際に用いる特徴領域を算出するとともに、探索領域を設定する。これにより、人物追跡部131によれば、頭部領域等を特徴領域とする場合と比較して、より多くの画像特徴量に基づき探索を行うことが可能となる。また、人物追跡部131によれば、手前側の人物との重なり具合によらず所定の範囲を探索領域として探索した場合と比較して、より有効な探索領域(存在する可能性が高い探索領域)を探索することが可能となる。   As described above, the person tracking unit 131 uses the tracking result of the person who is easy to track the person (the person on the near side) to calculate a feature region used when searching for a person who is difficult to track the person and Set the area. Thus, according to the person tracking unit 131, it is possible to perform a search based on more image feature amounts than in the case where the head region or the like is a feature region. Further, according to the person tracking unit 131, a more effective search area (a search area that is more likely to exist) is compared with a case where a predetermined range is searched as a search area regardless of the degree of overlap with the person on the near side. ) Can be searched.

この結果、人物追跡部131によれば、画像上で人物同士が重なっている場合であっても、同一人物を精度よく検出することが可能となる。   As a result, the person tracking unit 131 can accurately detect the same person even when the persons overlap in the image.

<人物追跡処理の流れ>
図6は、人物追跡処理のフローチャートである。以下、図6に示すフローチャートを用いて、人物追跡部131の各部による人物追跡処理の流れについて説明する。なお、人物追跡部131の各部が、図6に示す人物追跡処理を実行するにあたり、人物追跡部131は、動画像データ格納装置120より、予め動画像データを取得しているものとする。
<Flow of person tracking process>
FIG. 6 is a flowchart of the person tracking process. Hereinafter, the flow of the person tracking process performed by each unit of the person tracking unit 131 will be described with reference to the flowchart shown in FIG. In addition, when each part of the person tracking part 131 performs the person tracking process shown in FIG. 6, it is assumed that the person tracking part 131 has acquired moving image data from the moving image data storage device 120 in advance.

ステップS601において、人物検出部501は、人物追跡部131が取得した動画像データをフレーム単位で読み出す。   In step S601, the person detection unit 501 reads the moving image data acquired by the person tracking unit 131 in units of frames.

ステップS602において、人物検出部501は、読み出したフレーム単位の画像データに対して人物検出処理を実行することで、処理対象の画像データに新たに含まれる人物を検出し、追跡対象情報310に記録する。   In step S <b> 602, the person detection unit 501 performs person detection processing on the read frame-unit image data to detect a person newly included in the processing target image data, and records it in the tracking target information 310. To do.

ステップS603において、重なり判定部502は、ステップS602において検出した人物を含む各人物について、重なり判定処理を実行することで、人物領域の重なりの有無を判定し、判定結果を追跡対象情報310に記録する。   In step S <b> 603, the overlap determination unit 502 executes overlap determination processing for each person including the person detected in step S <b> 602, thereby determining whether or not person regions overlap, and records the determination result in the tracking target information 310. To do.

ステップS604において、重なり除去部503は、ステップS603において重なりがあると判定された人物領域について、重なり除去処理を実行することで、重なり領域を除去する。   In step S604, the overlap removal unit 503 removes the overlap region by executing an overlap removal process on the person region determined to have overlap in step S603.

ステップS605において、存在範囲決定部504は、ステップS604において重なり領域が除去された場合に、存在範囲決定処理を実行することで、重なりがあると判定された人物の存在範囲を識別する。また、存在範囲決定部504は、存在範囲決定処理を行うことで、識別した存在範囲に基づいて類似度マップを生成し、重なりがあると判定された人物を追跡するのに有効な範囲を決定する。   In step S605, the existence range determination unit 504 identifies the existence range of persons who are determined to have overlap by executing the existence range determination process when the overlapping region is removed in step S604. In addition, the existence range determination unit 504 performs an existence range determination process, thereby generating a similarity map based on the identified existence range, and determining an effective range for tracking a person who is determined to have an overlap. To do.

ステップS606において、移動量算出部505は、移動量算出処理を実行することで、ステップS603において重なりがないと判定された人物と同一人物を、次の処理対象の画像データより検出する。また、移動量算出部505は、移動量算出処理を行うことで、次の処理対象の画像データより検出した人物の人物領域に基づいて移動量を算出し、追跡対象情報310に記録する。   In step S606, the movement amount calculation unit 505 executes the movement amount calculation process to detect the same person as the person determined not to overlap in step S603 from the image data to be processed next. Further, the movement amount calculation unit 505 calculates the movement amount based on the person area of the person detected from the next processing target image data by performing the movement amount calculation process, and records the movement amount in the tracking target information 310.

ステップS607において、特徴領域算出部506は、特徴領域算出処理の要否を判定する。ステップS603において重なり判定部502が人物領域の重なりがあると判定した人物であって、特徴領域算出処理を実行していない人物がいる場合、特徴領域算出部506は、特徴領域算出処理が必要と判定する。この場合、特徴領域算出部506は、ステップS608に進み、当該重なりがあると判定した人物についての処理を行う。   In step S607, the feature region calculation unit 506 determines whether or not feature region calculation processing is necessary. In the case where there is a person who has been determined that the overlap determination unit 502 has overlapped person areas in step S603 and has not performed the feature area calculation process, the feature area calculation unit 506 needs the feature area calculation process. judge. In this case, the feature area calculation unit 506 proceeds to step S608 and performs processing for the person who is determined to have the overlap.

具体的には、ステップS608において、特徴領域算出部506は、特徴領域算出処理を実行することで、ステップS606において算出された移動量に基づき、重なりがないと判定された人物の移動量の変化を算出する。更に、特徴領域算出部506は、算出した移動量の変化に基づいて、特徴領域を算出する。   Specifically, in step S608, the feature area calculation unit 506 executes a feature area calculation process, so that the change in the movement amount of the person determined to have no overlap based on the movement amount calculated in step S606. Is calculated. Further, the feature region calculation unit 506 calculates a feature region based on the calculated change in the movement amount.

ステップS609において、探索部507は、探索処理を実行する。具体的には、探索部507は、ステップS605において生成された類似度マップと、ステップS606において算出された移動量とに基づいて、次の処理対象の画像データにおける探索領域を設定する。また、探索部507は、設定した探索領域において、ステップS608において算出した特徴領域の画像を用いて探索を行う。これにより、探索部507は、処理対象の画像データにおいて重なりがあると判定された人物と同一人物が、次の処理対象の画像データにおいて存在するか否かを判定する。また、探索部507は、探索結果を追跡対象情報310に記録する。なお、ステップS608及びステップS609の処理は、人物領域の重なりがあると判定された人物全てに対して実行する。   In step S609, the search unit 507 executes a search process. Specifically, the search unit 507 sets a search area in the next image data to be processed based on the similarity map generated in step S605 and the movement amount calculated in step S606. In addition, the search unit 507 performs a search using the feature region image calculated in step S608 in the set search region. Thereby, the search unit 507 determines whether or not the same person as the person who is determined to have an overlap in the processing target image data exists in the next processing target image data. In addition, the search unit 507 records the search result in the tracking target information 310. Note that the processing in step S608 and step S609 is executed for all persons determined to have overlapping human areas.

人物領域の重なりがあると判定された人物全てに対して、ステップS608及びステップS609の処理が実行されると、特徴領域算出部506は、ステップS607において、特徴領域算出処理が不要と判定し、ステップS610に進む。   When the processes in step S608 and step S609 are executed for all persons determined to have overlapping human areas, the characteristic area calculation unit 506 determines in step S607 that the characteristic area calculation processing is unnecessary, Proceed to step S610.

ステップS610において、人物検出部501は、次のフレームの画像データについて、同様の処理を続行するか否かを判定する。ステップS610において、処理を続行すると判定した場合には、ステップS601に戻る。一方、ステップS610において、処理を続行しないと判定した場合には、人物追跡処理を終了する。   In step S610, the person detection unit 501 determines whether or not to continue the same processing for the image data of the next frame. If it is determined in step S610 that the process is to be continued, the process returns to step S601. On the other hand, if it is determined in step S610 that the process is not continued, the person tracking process is terminated.

<人物追跡部の各部による処理の詳細>
続いて、人物追跡部131の各部による各処理(ステップS602〜S606、S608〜S609)の詳細について説明する。
<Details of processing by each part of the person tracking part>
Next, details of each process (steps S602 to S606 and S608 to S609) performed by each unit of the person tracking unit 131 will be described.

(1)人物検出部による人物検出処理の詳細
はじめに、人物検出部501による人物検出処理(ステップS602)の詳細について説明する。図7は、人物検出部により実行される人物検出処理のフローチャートである。
(1) Details of Person Detection Processing by Person Detection Unit First, details of the person detection processing (step S602) by the person detection unit 501 will be described. FIG. 7 is a flowchart of the person detection process executed by the person detection unit.

処理対象の画像データが読み込まれると、図7に示す人物検出処理が実行される。ステップS701において、人物検出部501は、処理対象の画像データのフレーム番号よりも1つ前のフレーム番号の画像データとの差分を算出する。これにより、人物検出部501は、背景差分画像データを算出する。   When the image data to be processed is read, the person detection process shown in FIG. 7 is executed. In step S <b> 701, the person detection unit 501 calculates a difference from the image data having a frame number one before the frame number of the image data to be processed. Thereby, the person detection unit 501 calculates background difference image data.

ステップS702において、人物検出部501は、背景差分画像データより人物領域である可能性のある領域(人物領域候補)を識別し、処理対象の画像データより、当該識別した人物領域候補の各画素の画素値を抽出する。また、人物検出部501は、抽出した画素値に基づいてHOG(Histograms of Oriented Gradients)特徴量を算出する。   In step S <b> 702, the person detection unit 501 identifies an area (person area candidate) that may be a person area from the background difference image data, and determines each pixel of the identified person area candidate from the image data to be processed. Extract pixel values. In addition, the person detection unit 501 calculates a HOG (Histograms of Oriented Gradients) feature amount based on the extracted pixel value.

ステップS703において、人物検出部501は、算出したHOG特徴量を、予め生成した識別器に入力することで、識別した人物領域候補が、人物領域であるか否かを判定する。   In step S <b> 703, the person detection unit 501 determines whether the identified person area candidate is a person area by inputting the calculated HOG feature amount to a classifier generated in advance.

ステップS704において、人物検出部501は、識別した人物領域候補が人物領域であると判定した場合に、当該領域の左上頂点のx座標、y座標、及び当該領域の幅、高さを算出する。また、人物検出部501は、算出したx座標、y座標、幅、高さを、処理対象の画像データにおける新たな人物の人物領域として、追跡対象情報310に記録する。   In step S704, when the person detection unit 501 determines that the identified person area candidate is a person area, the person detection unit 501 calculates the x coordinate and y coordinate of the upper left vertex of the area, and the width and height of the area. In addition, the person detection unit 501 records the calculated x coordinate, y coordinate, width, and height in the tracking target information 310 as a person area of a new person in the processing target image data.

図8は、人物検出部により実行される人物検出処理を模式的に示した図である。図8において、画像データ801は、処理対象の画像データ811のフレーム番号の1つ前のフレーム番号の画像データである。   FIG. 8 is a diagram schematically illustrating a person detection process executed by the person detection unit. In FIG. 8, image data 801 is image data having a frame number one before the frame number of the image data 811 to be processed.

人物検出部501は、画像データ811と画像データ801との差分を算出することで、背景画像データ802を算出し、人物領域候補803を検出する。   The person detection unit 501 calculates the background image data 802 by detecting the difference between the image data 811 and the image data 801, and detects a person area candidate 803.

更に、人物検出部501は、人物領域候補803の各画素の画素値を、画像データ811より抽出し、HOG特徴量を算出する。また、人物検出部501は、算出したHOG特徴量を予め生成した識別器820に入力することで、人物領域候補803が人物領域であるか否かを判定する。図8の例は、判定の結果、人物領域であると判定され、x座標=x812、y座標=y812、幅=W812、高さ=H812の人物領域812が算出された様子を示している。 Furthermore, the person detection unit 501 extracts the pixel value of each pixel of the person region candidate 803 from the image data 811 and calculates the HOG feature amount. In addition, the person detection unit 501 determines whether the person area candidate 803 is a person area by inputting the calculated HOG feature amount to the classifier 820 generated in advance. Example of FIG. 8, the result of the determination, it is determined that a person region, x-coordinate = x 812, y-coordinate = y 812, width = W 812, how the person area 812 is calculated height = H 812 Show.

(2)重なり判定部による重なり判定処理の詳細
次に、重なり判定部502による重なり判定処理(ステップS603)の詳細について説明する。図9は、重なり判定部により実行される重なり判定処理のフローチャートである。なお、図9に示す重なり判定処理を開始するにあたり、処理対象の画像データに含まれる各人物についての人物領域は、既に算出されているものとする。
(2) Details of Overlap Determination Processing by Overlap Determination Unit Next, details of the overlap determination processing (step S603) by the overlap determination unit 502 will be described. FIG. 9 is a flowchart of the overlap determination process executed by the overlap determination unit. It is assumed that the person area for each person included in the image data to be processed has already been calculated when starting the overlap determination process shown in FIG.

ステップS901において、重なり判定部502は、処理対象の画像データに含まれる各人物のうち、重なり判定処理の判定対象の人物の“人物領域”を、追跡対象情報310から読み出す。   In step S <b> 901, the overlap determination unit 502 reads, from the tracking target information 310, the “person area” of the person to be determined in the overlap determination process among the persons included in the image data to be processed.

ステップS902において、重なり判定部502は、処理対象の画像データに含まれる他の人物の“人物領域”を、追跡対象情報310から読み出す。   In step S <b> 902, the overlap determination unit 502 reads “person area” of another person included in the image data to be processed from the tracking target information 310.

ステップS903において、重なり判定部502は、判定対象の人物について、人物領域の重なりがあるか否かを判定する。ステップS903において、人物領域の重なりがあると判定した場合には(ステップS903においてYesの場合には)、ステップS904に進む。   In step S <b> 903, the overlap determination unit 502 determines whether there is an overlap of person areas for the person to be determined. If it is determined in step S903 that there are overlapping human areas (Yes in step S903), the process proceeds to step S904.

ステップS904において、重なり判定部502は、判定対象の人物の“人物領域”の方が、他の人物の“人物領域”よりもy座標が小さいか否かを判定する。y座標が小さいと判定した場合、重なり判定部502は、追跡対象情報310において、判定対象の人物の人物領域に対応付けられた“重なりフラグ”を「1」にする。   In step S <b> 904, the overlap determination unit 502 determines whether the “person area” of the person to be determined has a smaller y coordinate than the “person area” of another person. If it is determined that the y coordinate is small, the overlap determination unit 502 sets “1” in the “overlap flag” associated with the person area of the determination target person in the tracking target information 310.

ステップS905において、重なり判定部502は、他の人物(判定対象の人物の人物領域よりもy座標が大きい人物領域の人物)の人物IDを識別する。また、重なり判定部502は、追跡対象情報310において、判定対象の人物の“人物ID”に対応する“重なり関係”に、当該識別した人物IDを記録する。その後、重なり判定部502は、ステップS907に進む。   In step S <b> 905, the overlap determination unit 502 identifies the person ID of another person (a person in a person area whose y coordinate is larger than the person area of the person to be determined). Further, the overlap determination unit 502 records the identified person ID in the “overlap relationship” corresponding to the “person ID” of the person to be determined in the tracking target information 310. Thereafter, the overlap determination unit 502 proceeds to step S907.

一方、ステップS903において、人物領域の重なりがないと判定した場合には(ステップS903においてNoの場合には)、ステップS906に進む。ステップS906において、重なり判定部502は、追跡対象情報310において、判定対象の人物の“人物領域”に対応付けられた“重なりフラグ”を「0」にする。その後、重なり判定部502は、ステップS907に進む。   On the other hand, if it is determined in step S903 that there is no overlapping of person areas (in the case of No in step S903), the process proceeds to step S906. In step S <b> 906, the overlap determination unit 502 sets the “overlap flag” associated with the “person area” of the determination target person in the tracking target information 310 to “0”. Thereafter, the overlap determination unit 502 proceeds to step S907.

ステップS907において、重なり判定部502は、処理対象の画像データに含まれる全ての人物の人物領域について、処理を行ったか否かを判定する。ステップS907において、処理を行っていない人物の人物領域があると判定した場合には(ステップS907においてYesの場合には)、ステップS901に戻る。   In step S907, the overlap determination unit 502 determines whether or not processing has been performed for all human areas included in the processing target image data. If it is determined in step S907 that there is a person region of a person who has not been processed (Yes in step S907), the process returns to step S901.

一方、全ての人物の人物領域について、処理を行ったと判定した場合には(ステップS907においてNoの場合には)、重なり判定処理を終了する。   On the other hand, when it is determined that the process has been performed for the person areas of all persons (No in step S907), the overlap determination process ends.

図10は、重なり判定部により実行される重なり判定処理を模式的に示した図である。このうち、図10(a)は処理対象の画像データ1000を示しており、図10(b)は、処理対象の画像データ1000を処理した際の追跡対象情報310を示している。   FIG. 10 is a diagram schematically illustrating overlap determination processing executed by the overlap determination unit. 10A shows the image data 1000 to be processed, and FIG. 10B shows the tracking target information 310 when the image data 1000 to be processed is processed.

処理対象の画像データ1000は、フレーム番号が「239」の画像データである。また、画像データ1000に含まれる人物1010には、“人物ID”として「3」が付され、人物1020には、“人物ID”として「2」が付されているものとする。なお、説明の簡略化のため、画像データ1000において、“人物ID”として「1」が付された人物については省略している。   The image data 1000 to be processed is image data with a frame number “239”. In addition, it is assumed that “3” is assigned as the “person ID” to the person 1010 included in the image data 1000 and “2” is assigned as the “person ID” to the person 1020. For simplification of description, the person with “1” as “person ID” in the image data 1000 is omitted.

人物1020が重なり判定処理の判定対象の人物であったとすると、重なり判定部502は、人物1020の人物領域1021と、他の人物1010の人物領域1011とを追跡対象情報310から読み込む。また、重なり判定部502は、人物領域1021と人物領域1011との間に重なりがあるか否かを判定する。   Assuming that the person 1020 is a person to be determined in the overlap determination process, the overlap determination unit 502 reads the person area 1021 of the person 1020 and the person area 1011 of another person 1010 from the tracking target information 310. In addition, the overlap determination unit 502 determines whether there is an overlap between the person area 1021 and the person area 1011.

具体的には、重なり判定部502は、以下の条件が成立する場合に、重なりがあると判定する。
・x1<x2<x1またはx1<x2<x1のいずれかを満たしており、かつ、y1<y2<y1を満たしている。
または、
・x2<x1<x2またはx2<x1<x2のいずれかを満たしており、かつ、y2<y1<y2を満たしている。
Specifically, the overlap determination unit 502 determines that there is an overlap when the following condition is satisfied.
X1 s <x2 s <x1 e or x1 s <x2 e <x1 e is satisfied, and y1 s <y2 e <y1 e is satisfied.
Or
X2 s <x1 s <x2 e or x2 s <x1 e <x2 e is satisfied, and y2 s <y1 s <y2 e is satisfied.

ただし、x1、x1、y1、y1は、それぞれ、人物領域1011のx座標の最小値、最大値、y座標の最小値、最大値を示している。また、x2、x2、y2、y2は、それぞれ、人物領域1021のx座標の最小値、最大値、y座標の最小値、最大値を示している。 However, x1 s , x1 e , y1 s , and y1 e indicate the minimum value and maximum value of the x coordinate of the person region 1011, and the minimum value and maximum value of the y coordinate, respectively. Further, x2 s , x2 e , y2 s , and y2 e indicate the minimum value and maximum value of the x coordinate of the person region 1021, and the minimum value and maximum value of the y coordinate, respectively.

図10(a)の場合、重なり判定部502は、人物領域1011が人物領域1021と重なっていると判定する。このため、重なり判定部502は、追跡対象情報310において処理対象の画像データ(フレーム番号=「239」)に対応付けて判定結果を記録する。具体的には、重なり判定部502は、y座標の値が小さい人物領域1021の人物ID=「2」に対応する“重なりフラグ”を「1」にする(図10(b)参照)。また、重なり判定部502は、y座標の値が大きい人物領域1011の人物ID=「3」を、判定対象の人物1020の人物ID=「2」に対応する“重なり関係”に記録する(図10(b)参照)。   In the case of FIG. 10A, the overlap determination unit 502 determines that the person area 1011 overlaps the person area 1021. For this reason, the overlap determination unit 502 records the determination result in association with the image data to be processed (frame number = “239”) in the tracking target information 310. Specifically, the overlap determination unit 502 sets the “overlap flag” corresponding to the person ID = “2” of the person region 1021 having a small y coordinate value to “1” (see FIG. 10B). Further, the overlap determination unit 502 records the person ID = “3” of the person region 1011 having a large y coordinate value in the “overlap relationship” corresponding to the person ID = “2” of the determination target person 1020 (see FIG. 10 (b)).

なお、人物1010が重なり判定処理の判定対象の人物であった場合には、重なり判定部502は、他の人物1020と重なっていないと判定する。このため、重なり判定部502は、追跡対象情報310において処理対象の画像データ(フレーム番号=「239」)に対応付けて判定結果を記録する。具体的には、重なり判定部502は、人物1010の人物ID=「3」に対応する“重なりフラグ”を「0」にする(図10(b)参照)。   If the person 1010 is a person to be determined in the overlap determination process, the overlap determination unit 502 determines that the person 1010 does not overlap with another person 1020. For this reason, the overlap determination unit 502 records the determination result in association with the image data to be processed (frame number = “239”) in the tracking target information 310. Specifically, the overlap determination unit 502 sets “overlap flag” corresponding to the person ID = “3” of the person 1010 to “0” (see FIG. 10B).

(3)重なり除去部による重なり除去処理の詳細
次に、重なり除去部503による重なり除去処理(ステップS604)の詳細について説明する。図11は、重なり除去部により実行される重なり除去処理のフローチャートである。
(3) Details of Overlap Removal Processing by Overlap Removal Unit Next, details of the overlap removal processing (step S604) by the overlap removal unit 503 will be described. FIG. 11 is a flowchart of the overlap removal process executed by the overlap removal unit.

ステップS1101において、重なり除去部503は、処理対象の画像データに含まれる処理対象の人物の“重なりフラグ”を、追跡対象情報格納部133の追跡対象情報310から読み出す。   In step S <b> 1101, the overlap removing unit 503 reads the “overlap flag” of the person to be processed included in the image data to be processed from the tracking target information 310 of the tracking target information storage unit 133.

ステップS1102において、重なり除去部503は、“重なりフラグ”が「1」であるか否かを判定する。ステップS1102において、“重なりフラグ”が「1」であると判定した場合には(ステップS1102においてYesの場合には)、ステップS1103に進む。   In step S1102, the overlap removing unit 503 determines whether or not the “overlap flag” is “1”. If it is determined in step S1102 that the “overlap flag” is “1” (Yes in step S1102), the process proceeds to step S1103.

ステップS1103において、重なり除去部503は、処理対象の人物の“重なり関係”を、追跡対象情報格納部133の追跡対象情報310から読み出す。   In step S <b> 1103, the overlap removal unit 503 reads the “overlap relationship” of the person to be processed from the tracking target information 310 of the tracking target information storage unit 133.

ステップS1104において、重なり除去部503は、読み出した“重なり関係”に対応する人物の“人物領域”を、追跡対象情報格納部133の追跡対象情報310から読み出す。   In step S <b> 1104, the overlap removing unit 503 reads the “person area” of the person corresponding to the read “overlap relationship” from the tracking target information 310 of the tracking target information storage unit 133.

ステップS1105において、重なり除去部503は、処理対象の人物の“人物領域”を、追跡対象情報格納部133の追跡対象情報310から読み出す。また、重なり除去部503は、ステップS1104において読み出した“人物領域”との間で重なり領域を算出し、追跡対象情報310に記録した後、ステップS1106に進む。   In step S 1105, the overlap removing unit 503 reads the “person area” of the person to be processed from the tracking target information 310 of the tracking target information storage unit 133. Further, the overlap removing unit 503 calculates an overlap area with the “person area” read in step S1104, records the overlap area in the tracking target information 310, and then proceeds to step S1106.

これにより、重なり除去部503は、処理対象の人物の“人物領域”から、“重なり領域”を除去した範囲を、処理対象の人物が存在する範囲として識別することができる。   Accordingly, the overlap removal unit 503 can identify a range in which the “overlap region” is removed from the “person region” of the person to be processed as a range in which the person to be processed exists.

一方、ステップS1102において、“重なりフラグ”が「1」でないと判定した場合には(ステップS1102においてNoの場合には)、直接、ステップS1106に進む。   On the other hand, if it is determined in step S1102 that the “overlap flag” is not “1” (in the case of No in step S1102), the process directly proceeds to step S1106.

ステップS1106において、重なり除去部503は、処理対象の画像データに含まれる全ての人物の人物領域について、処理を行ったか否かを判定する。ステップS1106において、処理を行っていない人物の人物領域があると判定した場合には(ステップS1106においてYesの場合には)、ステップS1101に戻る。   In step S1106, the overlap removing unit 503 determines whether or not processing has been performed on the person regions of all persons included in the image data to be processed. If it is determined in step S1106 that there is a person area of a person who has not performed processing (in the case of Yes in step S1106), the process returns to step S1101.

一方、ステップS1106において、全ての人物の人物領域について処理を行ったと判定した場合には(ステップS1106においてNoの場合には)、重なり除去処理を終了する。   On the other hand, if it is determined in step S1106 that the process has been performed for all the person areas (in the case of No in step S1106), the overlap removal process ends.

図12は、重なり除去部により実行される重なり除去処理を模式的に示した図である。このうち、図12(a)は処理対象の画像データ1000を示しており、図12(b)は、算出された重なり領域1210を示している。また、図12(c)は、画像データ1000について、重なり除去処理を実行した際の追跡対象情報310を示している。   FIG. 12 is a diagram schematically illustrating the overlap removal process executed by the overlap removal unit. Among these, FIG. 12A shows the image data 1000 to be processed, and FIG. 12B shows the calculated overlapping area 1210. FIG. 12C shows the tracking target information 310 when the overlap removal process is executed for the image data 1000.

処理対象の画像データ1000は、フレーム番号が「239」の画像データである。画像データ1000に含まれる人物1010には、“人物ID”として「3」が付され、人物1020には、“人物ID”として「2」が付されているものとする。なお、説明の簡略化のため、画像データ1000において、“人物ID”が「1」の人物については省略している。   The image data 1000 to be processed is image data with a frame number “239”. The person 1010 included in the image data 1000 is assigned “3” as the “person ID”, and the person 1020 is assigned “2” as the “person ID”. For simplification of explanation, the person whose “person ID” is “1” in the image data 1000 is omitted.

人物1020が処理対象の人物であったとすると、重なり除去部503は、人物1020(人物ID=「2」)の“重なりフラグ”として、追跡対象情報310から「1」を読み出し、更に、“重なり関係”として、「3」を読み出す。   Assuming that the person 1020 is the person to be processed, the overlap removing unit 503 reads “1” from the tracking target information 310 as the “overlap flag” of the person 1020 (person ID = “2”). “3” is read out as “Relation”.

また、重なり除去部503は、追跡対象情報310から、“人物ID”が「3」の“人物領域”(x座標、y座標、幅、高さ)を読み出し、処理対象の人物1020の“人物領域”(x座標、y座標、幅、高さ)との間で、重なり領域1210を算出する。例えば、重なり除去部503は、下式に基づいて重なり領域1210のx座標、y座標を算出する。   Further, the overlap removal unit 503 reads “person area” (x coordinate, y coordinate, width, height) having “person ID” “3” from the tracking target information 310, and displays “person” of the person 1020 to be processed. An overlapping region 1210 is calculated between the region "(x coordinate, y coordinate, width, height). For example, the overlap removing unit 503 calculates the x coordinate and the y coordinate of the overlap region 1210 based on the following expression.

Figure 2018112890
ただし、max(x1,x2)は、x座標のうち大きい方の値を選択することを表す。図12(c)の場合、x1=40、x2=45であるため、max(x1,x2)=45となる。
Figure 2018112890
However, max (x1 s , x2 s ) represents selecting the larger value of the x coordinates. In the case of FIG. 12C, since x1 s = 40 and x2 s = 45, max (x1 s , x2 s ) = 45.

また、min(x1,x2)は、x座標のうち小さい方の値を選択すること表す。図12(c)の場合、x1=50、x2=54であるため、min(x1,x2)=50となる。 Further, min (x1 e , x2 e ) represents that the smaller value of the x coordinates is selected. In the case of FIG. 12C, since x1 e = 50 and x2 e = 54, min (x1 e , x2 e ) = 50.

同様に、max(y1,y2)は、y座標のうち大きい方の値を選択することを表す。図12(c)の場合、y1=46、y2=35であるため、max(y1,y2)=46となる。 Similarly, max (y1 s , y2 s ) represents selecting the larger value of the y coordinates. In the case of FIG. 12C, since y1 s = 46 and y2 s = 35, max (y1 s , y2 s ) = 46.

また、min(y1,y2)は、y座標のうち小さい方の値を選択すること表す。図12(c)の場合、y1=78、y2=65であるため、min(y1,y2)=65となる。 Further, min (y1 e , y2 e ) represents that the smaller value of the y coordinates is selected. In the case of FIG. 12C, since y1 e = 78 and y2 e = 65, min (y1 e , y2 e ) = 65.

図12(c)の例は、重なり除去部503が、重なり領域1210のx座標、y座標、幅、高さとして、
・x座標=max(x1,x2)=45、
・y座標=max(y1,y2)=46、
・幅=min(x1,x2)−max(x1,x2)=5、
・高さ=min(y1,y2)−max(y1,y2)=19、
を算出し、追跡対象情報310の“重なり領域”に、それぞれ「45」、「46」、「5」、「19」を記録したことを示している。
In the example of FIG. 12C, the overlap removing unit 503 uses the x coordinate, y coordinate, width, and height of the overlap region 1210 as follows:
X coordinate = max (x1 s , x2 s ) = 45,
Y coordinate = max (y1 s , y2 s ) = 46,
Width = min (x1 e , x2 e ) −max (x1 s , x2 s ) = 5,
Height = min (y1 e , y2 e ) −max (y1 s , y2 s ) = 19
And “45”, “46”, “5”, and “19” are recorded in the “overlap area” of the tracking target information 310, respectively.

(4)存在範囲決定部による存在範囲決定処理の詳細
次に、存在範囲決定部504による存在範囲決定処理(ステップS605)の詳細について説明する。図13は、存在範囲決定部により実行される存在範囲決定処理のフローチャートである。
(4) Details of Existence Range Determination Processing by Existence Range Determination Unit Next, details of the existence range determination processing (step S605) by the existence range determination unit 504 will be described. FIG. 13 is a flowchart of the existence range determination process executed by the existence range determination unit.

ステップS1301において、存在範囲決定部504は、処理対象の画像データに含まれる人物の“人物領域”であって、“重なりフラグ”が「1」の人物(つまり、奥側の人物)の“人物領域”及び“重なり領域”を、追跡対象情報310から読み出す。   In step S <b> 1301, the existence range determination unit 504 is a “person area” of a person included in the image data to be processed and a “person” of a person whose “overlap flag” is “1” (that is, a person on the back side). The “region” and the “overlapping region” are read from the tracking target information 310.

ステップS1302において、存在範囲決定部504は、読み出した“人物領域”と“重なり領域”とに基づいて、奥側の人物が存在する範囲を識別する。   In step S <b> 1302, the existence range determination unit 504 identifies a range in which a person on the back side exists based on the read “person area” and “overlap area”.

ステップS1303において、存在範囲決定部504は、識別した存在範囲の画像を用いて、奥側の人物の範囲及びその周辺の範囲を走査し、各位置での画像の類似度を算出する。   In step S1303, the existence range determination unit 504 scans the range of the person on the back side and the surrounding area using the identified existence range image, and calculates the similarity of the images at each position.

ステップS1304において、存在範囲決定部504は、ステップS1303において算出した各位置での画像の類似度に基づいて濃淡画像を生成することで、類似度マップを生成する。これにより、奥側の人物を追跡するのに有効な範囲が決定される。存在範囲決定部504は、生成した類似度マップを保存する。   In step S1304, the existence range determination unit 504 generates a similarity map by generating a grayscale image based on the image similarity at each position calculated in step S1303. Thereby, the effective range for tracking the person on the back side is determined. The existence range determination unit 504 stores the generated similarity map.

ステップS1305において、存在範囲決定部504は、“重なりフラグ”が「1」の全ての人物の人物領域について、処理を行ったか否かを判定する。ステップS1305において、処理を行っていない人物の人物領域があると判定した場合には(ステップS1305においてYesの場合には)、ステップS1301に戻る。   In step S <b> 1305, the existence range determination unit 504 determines whether or not processing has been performed for the person regions of all persons whose “overlap flag” is “1”. If it is determined in step S1305 that there is a person region of a person who has not been processed (Yes in step S1305), the process returns to step S1301.

一方、ステップS1305において、“重なりフラグ”が「1」の全ての人物の人物領域について処理を行ったと判定した場合には(ステップS1305においてNoの場合には)、存在範囲決定処理を終了する。   On the other hand, if it is determined in step S1305 that processing has been performed for all the person areas of which the “overlap flag” is “1” (in the case of No in step S1305), the existence range determination processing ends.

図14は、存在範囲決定部により実行される存在範囲決定処理を模式的に示した図である。図14(a)において、存在範囲決定部504は、人物1020の人物領域から重なり領域を除去することで得られる、人物1020が存在する範囲を識別する。また、存在範囲決定部504は、人物1020の存在範囲1401の画像を抽出する。更に、存在範囲決定部504は、抽出した存在範囲1401の画像を用いて、人物1020の範囲及びその周辺の範囲を走査し、各位置での画像の類似度を算出する。なお、存在範囲決定部504は、例えば、下式に基づいて類似度を算出する。   FIG. 14 is a diagram schematically showing existence range determination processing executed by the existence range determination unit. In FIG. 14A, the existence range determination unit 504 identifies a range where the person 1020 exists, which is obtained by removing the overlapping area from the person area of the person 1020. In addition, the existence range determination unit 504 extracts an image of the existence range 1401 of the person 1020. Further, the existence range determination unit 504 scans the range of the person 1020 and the surrounding area using the extracted image of the existence range 1401, and calculates the similarity of the images at each position. Note that the existence range determination unit 504 calculates the similarity based on the following equation, for example.

Figure 2018112890
ただし、Tは、存在範囲1401の画像(各画素の画素値)を表し、Iは、処理対象の画像データ(ただし、人物1020の範囲及びその周辺の範囲の画像データ)の各位置(x,y)での画像(各画素の画素値)を表す。また、hは、存在範囲1401の高さを表し、wは、存在範囲1401の幅を表す。
Figure 2018112890
However, T represents an image (pixel value of each pixel) in the existence range 1401, and I represents each position (x, X) of the image data to be processed (however, the image data in the range of the person 1020 and its surrounding range). y) represents an image (pixel value of each pixel). H represents the height of the existence range 1401, and w represents the width of the existence range 1401.

図14(b)は、各位置での類似度の算出結果を、濃淡画像1411として示した様子を示している。濃淡画像1411において濃度の高い領域は、類似度が高いことを示しており、人物1020の特徴が顕著に表れている領域である。一方、濃度が低い領域は、類似度が低いことを示しており、人物1020の特徴があまり表れていない領域である。したがって、次の処理対象の画像データにおいて、人物1020と同一人物を探索する場合には、濃淡画像1411において、濃度の高い領域を用いることが有効であるといえる。   FIG. 14B shows the calculation result of the similarity at each position as a gray image 1411. A region with high density in the grayscale image 1411 indicates that the degree of similarity is high, and the feature of the person 1020 appears remarkably. On the other hand, the low density area indicates that the degree of similarity is low and the characteristics of the person 1020 do not appear so much. Therefore, when searching for the same person as the person 1020 in the image data to be processed next, it can be said that it is effective to use a high-density area in the grayscale image 1411.

存在範囲決定部504は、類似度を算出することで得た濃淡画像1411を、類似度マップとして保存する。   The existence range determination unit 504 stores the grayscale image 1411 obtained by calculating the similarity as a similarity map.

(5)移動量算出部による移動量算出処理の詳細
次に、移動量算出部505による移動量算出処理(ステップS606)の詳細について説明する。図15は、移動量算出部により実行される移動量算出処理のフローチャートである。
(5) Details of Movement Amount Calculation Processing by Movement Amount Calculation Unit Next, details of the movement amount calculation processing (step S606) by the movement amount calculation unit 505 will be described. FIG. 15 is a flowchart of the movement amount calculation process executed by the movement amount calculation unit.

ステップS1501において、移動量算出部505は、処理対象の画像データについて、処理対象の人物の“重なりフラグ”を、追跡対象情報格納部133の追跡対象情報310から読み出す。   In step S <b> 1501, the movement amount calculation unit 505 reads the “overlap flag” of the processing target person from the tracking target information 310 of the tracking target information storage unit 133 for the processing target image data.

ステップS1502において、移動量算出部505は、読み出した“重なりフラグ”が「1」であるか否かを判定する。ステップS1502において、“重なりフラグ”が「1」でないと判定した場合には(ステップS1502においてNoの場合には)、処理対象の人物が手前側の人物であると判定し、ステップS1505に進む。   In step S1502, the movement amount calculation unit 505 determines whether or not the read “overlap flag” is “1”. If it is determined in step S1502 that the “overlap flag” is not “1” (in the case of No in step S1502), it is determined that the person to be processed is the front person, and the process proceeds to step S1505.

一方、ステップS1502において、“重なりフラグ”が「1」であると判定した場合には(ステップS1502においてYesの場合には)、処理対象の人物が奥側の人物であると判定し、ステップS1503に進む。   On the other hand, if it is determined in step S1502 that the “overlap flag” is “1” (in the case of Yes in step S1502), it is determined that the person to be processed is a person on the back side, and step S1503. Proceed to

処理対象の人物が奥側の人物であった場合、ステップS1503において、移動量算出部505は、処理対象の人物の“重なり関係”を、追跡対象情報格納部133の追跡対象情報310から読み出す。   If the person to be processed is a person on the back side, in step S1503, the movement amount calculation unit 505 reads the “overlapping relationship” of the persons to be processed from the tracking target information 310 of the tracking target information storage unit 133.

ステップS1504において、移動量算出部505は、読み出した“重なり関係”に対応する人物の、次の処理対象の画像データにおける“追跡フラグ”が「1」であるか否かを判定する。   In step S1504, the movement amount calculation unit 505 determines whether or not the “tracking flag” in the image data to be processed next of the person corresponding to the read “overlap relationship” is “1”.

ステップS1504において、“追跡フラグ”が「1」であると判定した場合には(ステップS1504においてYesの場合には)、ステップS1511に進む。   If it is determined in step S1504 that the “tracking flag” is “1” (Yes in step S1504), the process proceeds to step S1511.

一方、ステップS1504において、“追跡フラグ”が「1」でないと判定した場合には(ステップS1504においてNoの場合には)、ステップS1505に進む。   On the other hand, if it is determined in step S1504 that the “tracking flag” is not “1” (in the case of No in step S1504), the process proceeds to step S1505.

ステップS1505において、移動量算出部505は、処理対象の人物の人物領域または処理対象の人物の“重なり関係”に対応する人物の人物領域の画像を用いて、次の処理対象の画像データを走査し、類似度を算出する。   In step S1505, the movement amount calculation unit 505 scans the image data of the next processing target using the image of the person region of the person corresponding to the person area of the person to be processed or the “overlapping relationship” of the person to be processed. Then, the similarity is calculated.

ステップS1506において、移動量算出部505は、算出した類似度が所定の閾値以上であるか否かを判定する。ステップS1506において、所定の閾値以上であると判定した場合には(ステップS1506においてYesの場合には)、ステップS1507に進む。   In step S1506, the movement amount calculation unit 505 determines whether the calculated similarity is equal to or greater than a predetermined threshold. If it is determined in step S1506 that the threshold value is equal to or greater than the predetermined threshold (in the case of Yes in step S1506), the process proceeds to step S1507.

ステップS1507において、移動量算出部505は、処理対象の人物または処理対象の人物の“重なり関係”に対応する人物と、次の処理対象の画像データ内で、類似度が最も高い位置の人物領域の人物とを、同一人物として関連付ける。   In step S <b> 1507, the movement amount calculation unit 505 determines that the person corresponding to the “overlapping relationship” between the person to be processed or the person to be processed and the person region at the highest similarity in the next image data to be processed. Are related as the same person.

ステップS1508において、移動量算出部505は、処理対象の人物または処理対象の人物の“重なり関係”に対応する人物の、次の処理対象の画像データにおける“追跡フラグ”を「1」にする。   In step S1508, the movement amount calculation unit 505 sets the “tracking flag” in the next processing target image data of the person corresponding to the processing target person or the “overlapping relationship” of the processing target person to “1”.

ステップS1509において、移動量算出部505は、同一人物として関連付けた人物の人物領域の移動量(処理対象の画像データから次の処理対象の画像データまでの間の移動量)を算出する。また、移動量算出部505は、算出した移動量を、追跡対象情報310において、処理対象の人物または処理対象の人物の“重なり関係”に対応する人物に対応付けて記録する。このとき、移動量算出部505は、算出した移動量を、次の処理対象の画像データのフレーム番号に対応付けて記録する。   In step S <b> 1509, the movement amount calculation unit 505 calculates the movement amount (movement amount between the processing target image data and the next processing target image data) of the person area associated as the same person. Further, the movement amount calculation unit 505 records the calculated movement amount in the tracking target information 310 in association with the person to be processed or the person corresponding to the “overlapping relationship” of the person to be processed. At this time, the movement amount calculation unit 505 records the calculated movement amount in association with the frame number of the next image data to be processed.

一方、ステップS1506において、所定の閾値以上でないと判定した場合には(ステップS1506においてNoの場合には)、ステップS1510に進む。   On the other hand, if it is determined in step S1506 that it is not equal to or greater than the predetermined threshold (in the case of No in step S1506), the process proceeds to step S1510.

ステップS1510において、移動量算出部505は、処理対象の人物または処理対象の人物の“重なり関係”に対応する人物の、次の処理対象の画像データにおける“追跡フラグ”を「0」にする。   In step S1510, the movement amount calculation unit 505 sets “tracking flag” in the next processing target image data of the person corresponding to the processing target person or the “overlapping relationship” of the processing target person to “0”.

ステップS1511において、移動量算出部505は、処理対象の画像データに含まれる全ての人物について、処理を行ったか否かを判定する。ステップS1511において、処理を行っていない人物がいると判定した場合には(ステップS1511においてYesの場合には)、ステップS1501に戻る。   In step S1511, the movement amount calculation unit 505 determines whether or not processing has been performed for all persons included in the image data to be processed. If it is determined in step S1511 that there is a person who has not performed the process (Yes in step S1511), the process returns to step S1501.

一方、ステップS1511において、全ての人物について処理を行ったと判定した場合には(ステップS1511においてNoの場合には)、移動量算出処理を終了する。   On the other hand, if it is determined in step S1511 that the process has been performed for all persons (No in step S1511), the movement amount calculation process ends.

図16は、移動量算出部により実行される移動量算出処理を模式的に示した図である。図16(a)の画像データ1610は、処理対象の画像データ(フレーム番号=「239」)であり、図16(b)の画像データ1620は、次の処理対象の画像データ(フレーム番号=「240」)である。   FIG. 16 is a diagram schematically illustrating movement amount calculation processing executed by the movement amount calculation unit. Image data 1610 in FIG. 16A is image data to be processed (frame number = “239”), and image data 1620 in FIG. 16B is image data to be processed next (frame number = “239”). 240 ").

また、処理対象の画像データ1610において、人物領域1611は、“人物ID”が「3」の人物の人物領域であり、人物領域1612は、“人物ID”が「1」の人物の人物領域である。更に、人物1613は、“人物ID”が「2」の人物である。   In the image data 1610 to be processed, a person area 1611 is a person area of a person whose “person ID” is “3”, and a person area 1612 is a person area of a person whose “person ID” is “1”. is there. Furthermore, the person 1613 is a person whose “person ID” is “2”.

ここで、処理対象の画像データ1610において、移動量算出部505が、人物領域1611の人物(人物ID=「3」)について移動量算出処理を行ったとする。人物領域1611の人物(人物ID=「3」)の場合、“重なりフラグ”が「0」であるため、移動量算出部505は、人物領域1611を用いて、次の処理対象の画像データ1620を走査し、各位置での画像の類似度を算出する。移動量算出部505は、次の処理対象の画像データ1620を走査するにあたり、例えば、以下のような類似度を用いる。   Here, it is assumed that the movement amount calculation unit 505 performs the movement amount calculation process for the person (person ID = “3”) in the person area 1611 in the image data 1610 to be processed. In the case of a person in the person area 1611 (person ID = “3”), since the “overlap flag” is “0”, the movement amount calculation unit 505 uses the person area 1611 to perform image data 1620 to be processed next. , And the similarity of the images at each position is calculated. The movement amount calculation unit 505 uses the following similarity, for example, when scanning the next processing target image data 1620.

Figure 2018112890
ただし、Tは、画像データ1610の人物領域1611の画像(各画素の画素値)を表し、Iは、次の処理対象の画像データ1620の各位置(x,y)での画像(各画素の画素値)を表す。また、hは、画像データ1610の人物領域1611の高さを表し、wは人物領域1611の幅を表す。
Figure 2018112890
However, T represents the image (pixel value of each pixel) of the person region 1611 of the image data 1610, and I represents the image (each pixel of each pixel) at each position (x, y) of the image data 1620 to be processed next. Pixel value). Further, h represents the height of the person area 1611 of the image data 1610, and w represents the width of the person area 1611.

図16(b)は、人物領域1611を用いて次の処理対象の画像データ1620(フレーム番号=「240」)を走査した結果、領域1621の位置において、最も高い類似度が得られたことを示している。移動量算出部505は、領域1621に含まれる人物が、処理対象の画像データ1610(フレーム番号=「239」)において検出された人物(人物ID=「3」)と同一人物であると判定する。   FIG. 16B shows that the highest similarity is obtained at the position of the area 1621 as a result of scanning the image data 1620 (frame number = “240”) to be processed next using the person area 1611. Show. The movement amount calculation unit 505 determines that the person included in the region 1621 is the same person as the person (person ID = “3”) detected in the processing target image data 1610 (frame number = “239”). .

そして、移動量算出部505は、“人物ID”が「3」で、“フレーム番号”が「240」の“人物領域”に、領域1621のx座標、y座標、幅、高さを記録する(図16(d)参照)。また、移動量算出部505は、“人物ID”が「3」で、“フレーム番号”が「240」の“追跡フラグ”に「1」を記録する(図16(d)参照)。更に、移動量算出部505は、“人物ID”が「3」で、“フレーム番号”が「240」の“移動量”に、領域1621と人物領域1611との位置の差分(x方向の差分、y方向の差分)を記録する(図16(d)参照)。なお、“人物ID”が「3」の人物の“移動量”は、図16(c)の矢印1631により表すことができる。   Then, the movement amount calculation unit 505 records the x-coordinate, y-coordinate, width, and height of the area 1621 in the “person area” whose “person ID” is “3” and “frame number” is “240”. (See FIG. 16D). Further, the movement amount calculation unit 505 records “1” in the “tracking flag” in which “person ID” is “3” and “frame number” is “240” (see FIG. 16D). Further, the movement amount calculation unit 505 sets the difference in position between the region 1621 and the person region 1611 (difference in the x direction) to the “movement amount” where the “person ID” is “3” and the “frame number” is “240”. , Y direction difference) is recorded (see FIG. 16D). The “movement amount” of the person whose “person ID” is “3” can be represented by an arrow 1631 in FIG.

続いて、処理対象の画像データ1610において、移動量算出部505が、人物領域1612の人物(“人物ID”が「1」)について移動量算出処理を行ったとする。移動量算出部505では、人物領域1612の人物の場合も、人物領域1611の人物の場合と同様の処理を行う。   Subsequently, in the image data 1610 to be processed, it is assumed that the movement amount calculation unit 505 performs the movement amount calculation processing for the person in the person area 1612 (“person ID” is “1”). The movement amount calculation unit 505 performs the same processing for the person in the person area 1612 as in the case of the person in the person area 1611.

すなわち、人物領域1612の人物(“人物ID”が「1」)の場合も、“重なりフラグ”が「0」であるため、移動量算出部505は、人物領域1612を用いて、次の処理対象の画像データ1620を走査し、各位置での画像の類似度を算出する。   That is, since the “overlap flag” is “0” even in the case of the person in the person area 1612 (“person ID” is “1”), the movement amount calculation unit 505 uses the person area 1612 to perform the next process. The target image data 1620 is scanned, and the similarity of images at each position is calculated.

図16(b)は、人物領域1612を用いて次の処理対象の画像データ1620(“フレーム番号”が「240」)を走査することで、領域1622の位置において、最も高い類似度が得られたことを示している。移動量算出部505は、領域1622に含まれる人物が、処理対象の画像データ1610(“フレーム番号”が「239」)において検出された人物(“人物ID”が「1」)と同一人物であると判定する。   In FIG. 16B, the image data 1620 to be processed next (“frame number” is “240”) is scanned using the person area 1612, and the highest similarity is obtained at the position of the area 1622. It shows that. The movement amount calculation unit 505 is the same person as the person ("person ID" is "1") detected in the processing target image data 1610 ("frame number" is "239"). Judge that there is.

そして、移動量算出部505は、“人物ID”が「1」で、“フレーム番号”が「240」の“人物領域”に、領域1622のx座標、y座標、幅、高さを記録する(図16(d)参照)。また、移動量算出部505は、“人物ID”が「1」で、“フレーム番号”が「240」の“追跡フラグ”に「1」を記録する(図16(d)参照)。更に、移動量算出部505は、“人物ID”が「1」で、“フレーム番号”が「240」の“移動量”に、領域1622と人物領域1612との位置の差分(x方向の差分、y方向の差分)を記録する(図16(d)参照)。なお、“人物ID”が「1」の人物の“移動量”は、図16(c)の矢印1632により表すことができる。   Then, the movement amount calculation unit 505 records the x-coordinate, y-coordinate, width, and height of the area 1622 in the “person area” whose “person ID” is “1” and “frame number” is “240”. (See FIG. 16D). Further, the movement amount calculation unit 505 records “1” in the “tracking flag” in which “person ID” is “1” and “frame number” is “240” (see FIG. 16D). Further, the movement amount calculation unit 505 sets the difference between the positions of the region 1622 and the person region 1612 (difference in the x direction) to the “movement amount” where the “person ID” is “1” and the “frame number” is “240”. , Y direction difference) is recorded (see FIG. 16D). The “movement amount” of the person whose “person ID” is “1” can be represented by an arrow 1632 in FIG.

続いて、処理対象の画像データ1610において、移動量算出部505が、人物1613について移動量算出処理を行ったとする。人物1613(“人物ID”が「2」)の場合、“重なりフラグ”が「1」であるため、移動量算出部505は、“重なり関係”を読み出す。   Subsequently, it is assumed that the movement amount calculation unit 505 performs a movement amount calculation process on the person 1613 in the image data 1610 to be processed. In the case of the person 1613 (“person ID” is “2”), since the “overlap flag” is “1”, the movement amount calculation unit 505 reads “overlap relationship”.

ここで、人物1613(“人物ID”が「2」)の“重なり関係”は「3」であり、次の処理対象の画像データ1620(“フレーム番号”が「240」)において“人物ID”が「3」の“追跡フラグ”は、既に「1」になっている。   Here, the “overlapping relationship” of the person 1613 (“person ID” is “2”) is “3”, and the “person ID” in the next processing target image data 1620 (“frame number” is “240”). The “tracking flag” of “3” is already “1”.

このため、移動量算出部505は、処理対象の人物1613の“重なり関係”に対応する人物(“人物ID”が「3」の人物)については、次の処理対象の画像データ1620において、人物領域に基づく走査を行わない。   For this reason, the movement amount calculation unit 505 determines the person corresponding to the “overlapping relationship” of the person 1613 to be processed (the person whose “person ID” is “3”) in the image data 1620 to be processed next. Do not scan based on region.

また、移動量算出部505は、処理対象の人物1613についても、次の処理対象の画像データ1620において、人物領域に基づく走査を行わない(人物1613については、代わりに、特徴領域算出処理及び探索処理を行う)。   Also, the movement amount calculation unit 505 does not perform scanning based on the person area in the image data 1620 to be processed next for the person 1613 to be processed (for the person 1613, instead of the characteristic area calculation process and search). Process).

(6)特徴領域算出部による特徴領域算出処理の詳細
次に、特徴領域算出部506による特徴領域算出処理(ステップS608)の詳細について説明する。図17は、特徴領域算出部により実行される特徴領域算出処理のフローチャートである。
(6) Details of Feature Area Calculation Process by Feature Area Calculation Unit Next, details of the feature area calculation process (step S608) by the feature area calculation unit 506 will be described. FIG. 17 is a flowchart of the feature area calculation process executed by the feature area calculation unit.

ステップS1701において、特徴領域算出部506は、処理対象の画像データにおいて、処理対象の人物の“重なりフラグ”及び“追跡フラグ”を、追跡対象情報格納部133の追跡対象情報310から読み出す。   In step S <b> 1701, the feature area calculation unit 506 reads the “overlap flag” and “tracking flag” of the person to be processed from the tracking target information 310 of the tracking target information storage unit 133 in the processing target image data.

ステップS1702において、特徴領域算出部506は、読み出した“重なりフラグ”が「1」で、かつ“追跡フラグ”が「0」であるかを判定する。ステップS1702において、読み出した“重なりフラグ”が「1」でないと判定した場合、または、“追跡フラグ”が「0」でないと判定した場合には(ステップS1702においてNoの場合には)、ステップS1708に進む。   In step S1702, the feature region calculation unit 506 determines whether the read “overlap flag” is “1” and the “tracking flag” is “0”. If it is determined in step S1702 that the read “overlap flag” is not “1”, or if it is determined that the “tracking flag” is not “0” (in the case of No in step S1702), step S1708 is performed. Proceed to

一方、ステップS1702において、読み出した“重なりフラグ”が「1」で、かつ“追跡フラグ”が「0」であると判定した場合には(ステップS1702においてYesの場合には)、ステップS1703に進む。   On the other hand, if it is determined in step S1702 that the read “overlap flag” is “1” and the “tracking flag” is “0” (Yes in step S1702), the process proceeds to step S1703. .

ステップS1703において、特徴領域算出部506は、処理対象の人物の“重なり関係”を、追跡対象情報格納部133の追跡対象情報310から読み出す。   In step S <b> 1703, the feature region calculation unit 506 reads the “overlapping relationship” of the person to be processed from the tracking target information 310 of the tracking target information storage unit 133.

ステップS1704において、特徴領域算出部506は、読み出した“重なり関係”に対応する人物の“移動量”を、追跡対象情報格納部133の追跡対象情報310から読み出す。このとき、特徴領域算出部506は、処理対象の画像データのフレーム番号に対応付けて記録されている“移動量”及び次の処理対象の画像データのフレーム番号に対応付けて記録されている“移動量”を読み出す。   In step S 1704, the feature area calculation unit 506 reads the “movement amount” of the person corresponding to the read “overlap relationship” from the tracking target information 310 of the tracking target information storage unit 133. At this time, the feature area calculation unit 506 records “movement amount” recorded in association with the frame number of the image data to be processed and “frame amount” recorded in association with the frame number of the next image data to be processed. Read “Movement amount”.

ステップS1705において、特徴領域算出部506は、処理対象の人物の“重なり関係”に対応する人物の移動量の変化を算出する。具体的には、特徴領域算出部506は、ステップS1704において読み出した2つの移動量の差分を算出することで、移動量の変化を算出する。   In step S1705, the feature area calculation unit 506 calculates a change in the movement amount of the person corresponding to the “overlapping relationship” of the person to be processed. Specifically, the feature area calculation unit 506 calculates a change in the movement amount by calculating a difference between the two movement amounts read in step S1704.

ステップS1706において、特徴領域算出部506は、移動量の変化に基づいて、次の処理対象の画像データにおける、重なり領域の変化を推定する。また、特徴領域算出部506は、推定した変化後の重なり領域に基づいて、次の処理対象の画像データにおける、処理対象の人物の存在範囲を推定する。   In step S1706, the feature area calculation unit 506 estimates a change in the overlapping area in the next image data to be processed based on the change in the movement amount. Also, the feature area calculation unit 506 estimates the existence range of the person to be processed in the next image data to be processed based on the estimated overlapping area after the change.

ステップS1707において、特徴領域算出部506は、推定した範囲に応じた処理対象の画像データの領域を、奥側の人物を探索する際に用いる特徴領域として算出する。   In step S1707, the feature area calculation unit 506 calculates the area of the image data to be processed according to the estimated range as a feature area used when searching for a person on the back side.

ステップS1708において、特徴領域算出部506は、処理対象の画像データに含まれる全ての人物について、処理を行ったか否かを判定する。ステップS1708において、処理を行っていない人物がいると判定した場合には(ステップS1708においてYesの場合には)、ステップS1701に戻る。   In step S1708, the feature area calculation unit 506 determines whether or not processing has been performed for all persons included in the image data to be processed. If it is determined in step S1708 that there is a person who has not performed processing (Yes in step S1708), the process returns to step S1701.

一方、ステップS1708において、全ての人物について処理を行ったと判定した場合には(ステップS1708においてNoの場合には)、特徴領域算出処理を終了する。   On the other hand, if it is determined in step S1708 that processing has been performed for all persons (No in step S1708), the feature area calculation processing ends.

図18は、特徴領域算出部により実行される特徴領域算出処理を模式的に示した第1の図である。図18(a)は、処理対象の人物1802(奥側の人物)と重なり関係にある人物1801(手前側の人物)のy方向の移動量の変化に伴う、人物1802と人物1801との間のy方向の位置関係の変化を示している。図18(b)は、人物1802と人物1801との間のy方向の位置関係の変化に伴う、重なり領域1805の変化を示している。   FIG. 18 is a first diagram schematically showing the feature region calculation process executed by the feature region calculation unit. FIG. 18A shows the relationship between the person 1802 and the person 1801 that accompanies a change in the amount of movement in the y direction of the person 1801 (the person on the near side) that is in an overlapping relationship with the person 1802 (the person on the back). The change in the positional relationship in the y direction is shown. FIG. 18B shows a change in the overlapping area 1805 accompanying a change in the positional relationship in the y direction between the person 1802 and the person 1801.

特徴領域算出部506は、手前側の人物1801のy方向の移動量の変化に基づいて、処理対象の画像データにおける、奥側の人物1802の重なり領域の変化を推定する。これにより、特徴領域算出部506は、重なりがあると判定された人物1802の、次の処理対象の画像データにおける存在範囲を推定する。また、特徴領域算出部506は、推定した範囲に応じた処理対象の画像データの領域を、奥側の人物を探索する際に用いる特徴領域として算出する。   The feature region calculation unit 506 estimates a change in the overlapping region of the far-side person 1802 in the image data to be processed based on the change in the movement amount of the near-side person 1801 in the y direction. Thereby, the feature region calculation unit 506 estimates the existence range in the next processing target image data of the person 1802 determined to have an overlap. Also, the feature area calculation unit 506 calculates the area of the image data to be processed according to the estimated range as a feature area used when searching for a person on the back side.

処理対象の画像データにおいて、人物1801と人物1802とが、図18(a)の符号1800に示す位置関係にあったとする。また、そのときの人物1802の人物1801に対する重なり領域が、重なり領域1805に示す大きさであったとする。   In the image data to be processed, it is assumed that the person 1801 and the person 1802 have a positional relationship indicated by reference numeral 1800 in FIG. Further, it is assumed that the overlapping area of the person 1802 at that time with respect to the person 1801 has the size indicated by the overlapping area 1805.

このような場合、次の処理対象の画像データにおいて、人物1801と人物1802とのy方向の位置関係は符号1820、1830、1840に示す位置関係のいずれかに変化することが考えられる。   In such a case, in the image data to be processed next, the positional relationship between the person 1801 and the person 1802 in the y direction may change to any of the positional relationships indicated by reference numerals 1820, 1830, and 1840.

符号1820に示す位置関係は、処理対象の画像データにおいて算出された、人物1801のy方向の移動量(Δy)が、次の処理対象の画像データにおいて算出された、人物1801のy方向の移動量(Δyt+1)よりも少ない場合の位置関係を示している。 The positional relationship indicated by reference numeral 1820 indicates that the movement amount (Δy t ) of the person 1801 calculated in the processing target image data is calculated in the y direction of the person 1801 calculated in the next processing target image data. The positional relationship is shown when the amount of movement is smaller than (Δy t + 1 ).

なお、Δyは、処理対象の画像データにおいて算出された、人物1801のy方向の移動量を表す。具体的には、Δyは、処理対象の画像データにおける人物1801の人物領域のy座標と、処理対象の画像データの1つ前の画像データにおける人物1801の人物領域のy座標との差分により算出される。 Note that Δy t represents the amount of movement in the y direction of the person 1801 calculated in the image data to be processed. Specifically, Δy t is the difference between the y coordinate of the person area of the person 1801 in the image data to be processed and the y coordinate of the person area of the person 1801 in the image data immediately before the image data to be processed. Calculated.

また、Δyt+1は、次の処理対象の画像データにおいて算出された、人物1801のy方向の移動量を表す。具体的には、Δyt+1は、次の処理対象の画像データにおける人物1801の人物領域のy座標と、処理対象の画像データにおける人物1801の人物領域のy座標との差分により算出される。 Δy t + 1 represents the amount of movement of the person 1801 in the y direction calculated in the next processing target image data. Specifically, Δy t + 1 is calculated from the difference between the y coordinate of the person region of the person 1801 in the next processing target image data and the y coordinate of the person region of the person 1801 in the processing target image data.

Δyt+1の方がΔyより少ない場合、人物1802における重なり領域1825は、重なり領域1805と比較してy方向に小さくなる。 When Δy t + 1 is smaller than Δy t , the overlapping region 1825 in the person 1802 is smaller in the y direction than the overlapping region 1805.

なお、重なり領域1825のy座標の最小値をoy’とすると、oy’=oy−(Δy−Δyt+1)と表すことができる(ただし、oyは、重なり領域1805のy座標の最小値を表す)。 Incidentally, the overlap 'When s, oy' the minimum value of y coordinate of the area 1825 oy s = oy s - can be represented as (Δy t -Δy t + 1) ( however, oy s is, y coordinates of the overlap region 1805 Represents the minimum value).

符号1830に示す位置関係は、処理対象の画像データにおいて算出された、人物1801のy方向の移動量(Δy)が、次の処理対象の画像データにおいて算出された、人物1801のy方向の移動量(Δyt+1)と同じ場合の位置関係を示している。Δyt+1がΔyと同じ場合、人物1802における重なり領域1835は、重なり領域1805と等しくなる。つまり、oy’=oyとなる。 The positional relationship indicated by reference numeral 1830 indicates that the movement amount (Δy t ) of the person 1801 calculated in the image data to be processed is calculated in the y direction of the person 1801 calculated in the next image data to be processed. The positional relationship in the same case as the movement amount (Δy t + 1 ) is shown. When Δy t + 1 is the same as Δy t , the overlapping area 1835 in the person 1802 is equal to the overlapping area 1805. That is, oy ' s = oy s .

符号1840に示す位置関係は、処理対象の画像データにおいて算出された、人物1801のy方向の移動量(Δy)が、次の処理対象の画像データにおいて算出された、人物1801のy方向の移動量(Δyt+1)よりも多い場合の位置関係を示している。Δyt+1の方がΔyよりも多い場合、人物1802における重なり領域1845は、重なり領域1805と比較してy方向に大きくなる。 The positional relationship indicated by reference numeral 1840 indicates that the movement amount (Δy t ) of the person 1801 calculated in the image data to be processed is calculated in the y direction of the person 1801 calculated in the next image data to be processed. The positional relationship in the case where it is larger than the movement amount (Δy t + 1 ) is shown. When Δy t + 1 is larger than Δy t , the overlapping area 1845 in the person 1802 is larger in the y direction than the overlapping area 1805.

なお、重なり領域1845のy座標の最小値をoy’とすると、oy’=oy−(Δy−Δyt+1)と表すことができる。 Incidentally, the overlap 'When s, oy' the minimum value of y coordinate of the area 1845 oy s = oy s - can be represented as (Δy t -Δy t + 1) .

このように、特徴領域算出部506は、手前側の人物のy方向の移動量の変化に基づいて、次の処理対象の画像データにおける奥側の人物のy方向の重なり領域の変化を推定する。これにより、特徴領域算出部506は、次の処理対象の画像データにおける、奥側の人物の存在範囲(y方向)を推定することができる。また、特徴領域算出部506は、推定した存在範囲(y方向)に対応する、処理対象の画像データにおける領域を、特徴領域として算出することができる。   In this way, the feature area calculation unit 506 estimates the change in the overlapping area in the y direction of the back person in the next image data to be processed based on the change in the movement amount in the y direction of the near person. . Thereby, the feature area calculation unit 506 can estimate the existence range (y direction) of the person on the back side in the image data to be processed next. Further, the feature area calculation unit 506 can calculate an area in the image data to be processed corresponding to the estimated existence range (y direction) as the feature area.

図19は、特徴領域算出部により実行される特徴領域算出処理を模式的に示した第2の図である。図19(a)は、処理対象の人物1902(奥側の人物)と重なり関係にある人物1901(手前側の人物)のx方向の移動量の変化に伴う、人物1902と人物1902との間のx方向の位置関係の変化を示している。ただし、図19(a)は、pxf≧pxbの場合の位置関係の変化を示している。なお、pxfとは、処理対象の画像データにおける人物1901の人物領域のx座標を表し、pxbとは、処理対象の画像データにおける人物1902の人物領域のx座標を表す。 FIG. 19 is a second diagram schematically illustrating the feature area calculation process executed by the feature area calculation unit. FIG. 19A shows the relationship between the person 1902 and the person 1902 accompanying the change in the amount of movement in the x direction of the person 1901 (the person on the near side) that is in an overlapping relationship with the person 1902 to be processed (the person on the back side). The change in the positional relationship in the x direction is shown. However, FIG. 19 (a) shows a change in positional relationship when the pxf t ≧ pxb t. Note that the pxf t, x coordinate of the person area of the person 1901 in the image data to be processed, the pxb t, represents the x-coordinate of the person area of the person 1902 in the image data to be processed.

図19(b)は、人物1902と人物1901との間のx方向の位置関係の変化に伴う、重なり領域の変化であって、pxf≧pxbの場合の重なり領域の変化を示している。 FIG. 19 (b), due to a change in the x-direction positional relationship between the person 1902 and the person 1901, a change in the overlap area, indicating a change in the overlap region when the pxf t ≧ pxb t .

処理対象の画像データにおいて、人物1901と人物1902とが、図19(a)の符号1900に示す位置関係にあったとする。また、そのときの人物1902の人物1901に対する重なり領域が、重なり領域1905に示す大きさであったとする。   In the image data to be processed, it is assumed that the person 1901 and the person 1902 are in a positional relationship indicated by reference numeral 1900 in FIG. Further, it is assumed that the overlapping area of the person 1902 with respect to the person 1901 at that time is the size indicated by the overlapping area 1905.

このような場合、次の処理対象の画像データにおいて、人物1901と人物1902との位置関係は符号1920、1930、1940に示す位置関係のいずれかに変化することが考えられる。   In such a case, in the image data to be processed next, the positional relationship between the person 1901 and the person 1902 may change to any of the positional relationships indicated by reference numerals 1920, 1930, and 1940.

符号1920に示す位置関係は、処理対象の画像データにおいて算出された、人物1901のx方向の移動量(Δx)が、次の処理対象の画像データにおいて算出された、人物1901のx方向の移動量(Δxt+1)よりも多い場合の位置関係を示している。 The positional relationship indicated by reference numeral 1920 indicates that the movement amount (Δx t ) of the person 1901 in the x direction calculated in the processing target image data is calculated in the next processing target image data in the x direction of the person 1901. The positional relationship in the case where it is larger than the movement amount (Δx t + 1 ) is shown.

人物1901のx方向の移動量(Δx)は、処理対象の画像データにおける人物1901の人物領域のx座標と、処理対象の画像データの1つ前の画像データにおける人物1901の人物領域のx座標との差分により算出される。 The amount of movement (Δx t ) of the person 1901 in the x direction is the x coordinate of the person area of the person 1901 in the image data to be processed and the x of the person area of the person 1901 in the image data immediately before the image data to be processed. Calculated based on the difference from the coordinates.

また、人物1901のx方向の移動量(Δxt+1)は、次の処理対象の画像データにおける人物1901の人物領域のx座標と、処理対象の画像データにおける人物1901の人物領域のx座標との差分により算出される。 In addition, the movement amount (Δx t + 1 ) of the person 1901 in the x direction is the difference between the x coordinate of the person area of the person 1901 in the next image data to be processed and the x coordinate of the person area of the person 1901 in the image data to be processed. Calculated by the difference.

Δxt+1の方がΔxよりも多い場合、人物1902における重なり領域1925は、重なり領域1905と比較してx方向に小さくなる。 When Δx t + 1 is larger than Δx t , the overlapping area 1925 in the person 1902 is smaller in the x direction than the overlapping area 1905.

なお、重なり領域1925のx座標の最小値をox’とすると、ox’=ox−(Δx−Δxt+1)と表すことができる(ただし、oxは、重なり領域1905のx座標の最小値を表す)。 Note that if the minimum value of the x coordinate of the overlapping area 1925 is ox ′ s , it can be expressed as ox ′ s = ox s − (Δx t −Δx t + 1 ) (where ox s is the x coordinate of the overlapping area 1905). Represents the minimum value).

符号1930に示す位置関係は、処理対象の画像データにおいて算出された、人物1901のx方向の移動量(Δx)が、次の処理対象の画像データにおいて算出された、人物1902のx方向の移動量(Δxt+1)と同じ場合の位置関係を示している。Δxt+1がΔxと同じ場合、人物1902における重なり領域1935は、重なり領域1905と等しくなる。つまり、ox’=oxとなる。 The positional relationship indicated by reference numeral 1930 indicates that the movement amount (Δx t ) of the person 1901 in the x-direction calculated in the processing target image data is calculated in the next processing target image data in the x-direction of the person 1902. The positional relationship in the case where it is the same as the movement amount (Δx t + 1 ) is shown. When Δx t + 1 is the same as Δx t , the overlapping area 1935 in the person 1902 is equal to the overlapping area 1905. That is, ox ′ s = ox s .

符号1940に示す位置関係は、処理対象の画像データにおいて算出された、人物1901のx方向の移動量(Δx)が、次の処理対象の画像データにおいて算出された、人物1902のx方向の移動量(Δxt+1)よりも少ない場合の位置関係を示している。Δxt+1がΔxよりも少ない場合、人物1902における重なり領域1945は、重なり領域1905と比較してx方向に大きくなる。 The positional relationship indicated by reference numeral 1940 indicates that the movement amount (Δx t ) of the person 1901 in the x direction calculated in the processing target image data is calculated in the next processing target image data in the x direction of the person 1902. The positional relationship is shown when it is less than the movement amount (Δx t + 1 ). When Δx t + 1 is smaller than Δx t , the overlapping area 1945 in the person 1902 becomes larger in the x direction than the overlapping area 1905.

なお、重なり領域1945のx座標の最小値をox’とすると、ox’=ox−(Δx−Δxt+1)と表すことができる。 Incidentally, the overlap 'When s, ox' the minimum value of x coordinate of the area 1945 ox s = ox s - can be represented as (Δx t -Δx t + 1) .

同様に、図19(c)は、処理対象の人物1902と重なり関係にある人物1901のx方向の移動量の変化に伴う、人物1902と人物1901との間のx方向の位置関係の変化であって、pxf<pxbの場合の位置関係の変化を示している。図19(d)は、人物1902と人物1901との間のx方向の位置関係の変化に伴う、重なり領域の変化であって、pxf<pxbの場合の重なり領域の変化を示している。 Similarly, FIG. 19C shows the change in the positional relationship in the x direction between the person 1902 and the person 1901 accompanying the change in the movement amount in the x direction of the person 1901 that is in an overlapping relationship with the person 1902 to be processed. The change in the positional relationship in the case of pxf t <pxb t is shown. FIG. 19D shows a change in the overlap region in accordance with a change in the positional relationship in the x direction between the person 1902 and the person 1901, and shows a change in the overlap region when pxf t <pxb t . .

処理対象の画像データにおいて、人物1901と人物1902とが、図19(c)の符号1950に示す位置関係にあったとする。また、そのときの人物1902の人物1901に対する重なり領域は、重なり領域1955に示す大きさであったとする。   In the image data to be processed, it is assumed that the person 1901 and the person 1902 are in a positional relationship indicated by reference numeral 1950 in FIG. In addition, it is assumed that the overlapping area of the person 1902 with respect to the person 1901 at that time is the size indicated by the overlapping area 1955.

このような場合、次の処理対象の画像データにおいて、人物1901と人物1902との位置関係は符号1970、1980、1990に示す位置関係のいずれかに変化することが考えられる。   In such a case, in the image data to be processed next, the positional relationship between the person 1901 and the person 1902 may change to any of the positional relationships indicated by reference numerals 1970, 1980, and 1990.

符号1970に示す位置関係は、処理対象の画像データにおいて算出された、人物1901のx方向の移動量(Δx)が、次の処理対象の画像データにおいて算出された、人物1901のx方向の移動量(Δxt+1)よりも少ない場合の位置関係を示している。 The positional relationship indicated by reference numeral 1970 indicates that the movement amount (Δx t ) of the person 1901 in the x-direction calculated in the processing target image data is calculated in the x-direction of the person 1901 calculated in the next processing target image data. The positional relationship is shown when it is less than the movement amount (Δx t + 1 ).

人物1901のx方向の移動量(Δx)は、処理対象の画像データにおける人物1901の人物領域のx座標と、処理対象の画像データの1つ前の画像データにおける人物1901の人物領域のx座標との差分により算出される。 The amount of movement (Δx t ) of the person 1901 in the x direction is the x coordinate of the person area of the person 1901 in the image data to be processed and the x of the person area of the person 1901 in the image data immediately before the image data to be processed. Calculated based on the difference from the coordinates.

また、人物1901のx方向の移動量(Δxt+1)は、次の処理対象の画像データにおける人物1901の人物領域のx座標と、処理対象の画像データにおける人物1901の人物領域のx座標との差分により算出される。 In addition, the movement amount (Δx t + 1 ) of the person 1901 in the x direction is the difference between the x coordinate of the person area of the person 1901 in the next image data to be processed and the x coordinate of the person area of the person 1901 in the image data to be processed. Calculated by the difference.

Δxt+1の方がΔxよりも少ない場合、人物1902における重なり領域1975は、重なり領域1955と比較してx方向に小さくなる。 When Δx t + 1 is smaller than Δx t , the overlapping region 1975 in the person 1902 is smaller in the x direction than the overlapping region 1955.

なお、重なり領域1975のx座標の最大値をox’とすると、ox’=ox−(Δx−Δxt+1)と表すことができる(ただし、oxは、重なり領域1955のx座標の最大値を表す)。 If the maximum value of the x coordinate of the overlapping region 1975 is ox ′ e , it can be expressed as ox ′ e = ox e − (Δx t −Δx t + 1 ) (where ox e is the x coordinate of the overlapping region 1955). Represents the maximum value of

符号1980に示す位置関係は、処理対象の画像データにおいて算出された、人物1901のx方向の移動量(Δx)が、次の処理対象の画像データにおいて算出された、人物1902のx方向の移動量(Δxt+1)と同じ場合の位置関係を示している。Δxt+1がΔxと同じ場合、人物1902における重なり領域1985は、重なり領域1955と等しくなる。つまり、ox’=oxとなる。 The positional relationship indicated by reference numeral 1980 indicates that the movement amount (Δx t ) of the person 1901 in the x-direction calculated in the image data to be processed is calculated in the x-direction of the person 1902 in the image data to be processed next. The positional relationship in the case where it is the same as the movement amount (Δx t + 1 ) is shown. When Δx t + 1 is the same as Δx t , the overlapping area 1985 in the person 1902 is equal to the overlapping area 1955. That is, ox ′ e = ox e .

符号1990に示す位置関係は、処理対象の画像データにおいて算出された、人物1901のx方向の移動量(Δx)が、次の処理対象の画像データにおいて算出された、人物1902のx方向の移動量(Δxt+1)よりも多い場合の位置関係を示している。Δxt+1がΔxよりも多い場合、人物1902における重なり領域1985は、重なり領域1955と比較してx方向に大きくなる。 The positional relationship indicated by reference numeral 1990 indicates that the movement amount (Δx t ) of the person 1901 in the x direction calculated in the processing target image data is calculated in the next processing target image data in the x direction of the person 1902. The positional relationship in the case where it is larger than the movement amount (Δx t + 1 ) is shown. When Δx t + 1 is larger than Δx t , the overlapping area 1985 in the person 1902 is larger in the x direction than the overlapping area 1955.

なお、重なり領域1995のx座標の最大値をox’とすると、ox’=ox−(Δx−Δxt+1)と表すことができる。 If the maximum value of the x coordinate of the overlapping area 1995 is ox ′ e , it can be expressed as ox ′ e = ox e − (Δx t −Δx t + 1 ).

このように、特徴領域算出部506は、手前側の人物のx方向の移動量の変化に基づいて、次の処理対象の画像データにおける奥側の人物のx方向の重なり領域の変化を推定する。これにより、特徴領域算出部506は、次の処理対象の画像データにおける、奥側の人物の存在範囲(x方向)を推定することができる。また、特徴領域算出部506は、推定した存在範囲(x方向)に応じた処理対象の画像データの領域を、特徴領域として算出することができる。   In this way, the feature area calculation unit 506 estimates the change in the overlapping area in the x direction of the far-side person in the image data to be processed next, based on the change in the movement amount in the x direction of the person on the near side. . Thereby, the feature region calculation unit 506 can estimate the existence range (x direction) of the person on the back side in the image data to be processed next. In addition, the feature region calculation unit 506 can calculate a region of image data to be processed according to the estimated existence range (x direction) as a feature region.

(7)探索部による探索処理の詳細
次に、探索部507による探索処理(ステップS609)の詳細について説明する。図20は、探索部により実行される探索処理のフローチャートである。
(7) Details of Search Process by Search Unit Next, details of the search process (step S609) by the search unit 507 will be described. FIG. 20 is a flowchart of search processing executed by the search unit.

ステップS2001において、探索部507は、処理対象の画像データにおいて、処理対象の人物の“重なりフラグ”及び“追跡フラグ”を、追跡対象情報310から読み出す。   In step S2001, the search unit 507 reads “overlap flag” and “tracking flag” of the person to be processed from the tracking target information 310 in the image data to be processed.

ステップS2002において、探索部507は、読み出した“重なりフラグ”が「1」で、かつ“追跡フラグ”が「0」であるかを判定する。ステップS2002において、読み出した“重なりフラグ”が「1」でないと判定した場合、または、“追跡フラグ”が「0」でないと判定した場合には(ステップS2002においてNoの場合には)、ステップS2008に進む。   In step S2002, the search unit 507 determines whether the read “overlap flag” is “1” and the “tracking flag” is “0”. If it is determined in step S2002 that the read “overlap flag” is not “1”, or if it is determined that the “tracking flag” is not “0” (in the case of No in step S2002), step S2008 is performed. Proceed to

一方、ステップS2002において、読み出した“重なりフラグ”が「1」で、かつ“追跡フラグ”が「0」であると判定した場合には(ステップS2002においてYesの場合には)、ステップS2003に進む。   On the other hand, if it is determined in step S2002 that the read “overlap flag” is “1” and the “tracking flag” is “0” (Yes in step S2002), the process proceeds to step S2003. .

ステップS2003において、探索部507は、存在範囲決定部504により保存された、処理対象の画像データにおける、処理対象の人物についての類似度マップを読み出す。   In step S2003, the search unit 507 reads the similarity map for the processing target person in the processing target image data stored by the existence range determination unit 504.

ステップS2004において、探索部507は、処理対象の人物の“重なり関係”を、追跡対象情報310から読み出し、読み出した“重なり関係”に対応する人物の“人物領域”を、追跡対象情報310から読み出す。   In step S2004, the search unit 507 reads the “overlapping relationship” of the person to be processed from the tracking target information 310, and reads the “person area” of the person corresponding to the read “overlapping relationship” from the tracking target information 310. .

ステップS2005において、探索部507は、読み出した“重なり関係”に対応する人物の、次の処理対象の画像データにおける“移動量”を、追跡対象情報310から読み出す。   In step S <b> 2005, the search unit 507 reads “movement amount” in the image data of the next processing target of the person corresponding to the read “overlap relationship” from the tracking target information 310.

ステップS2006において、探索部507は、ステップS2003において読み出した類似度マップを、ステップS2005において読み出した移動量に基づいて移動させ、次の処理対象の画像データにおいて探索領域を設定する。   In step S2006, the search unit 507 moves the similarity map read in step S2003 based on the movement amount read in step S2005, and sets a search area in the next processing target image data.

ステップS2007において、探索部507は、処理対象の人物について、特徴領域算出部506により算出された特徴領域の画像を用いて、設定した探索領域を探索し、処理対象の人物と同一人物の有無を判定する。また、探索部507は、探索の結果、処理対象の人物と同一人物を検出した場合には、検出した人物の人物領域を、次の処理対象の画像データにおける人物領域として、追跡対象情報310に記録する。更に、探索部507は、追跡対象情報310において、次の処理対象の画像データにおける“人物領域”に対応する“追跡フラグ”に、「1」を記録する。   In step S2007, the search unit 507 searches the set search area for the person to be processed using the image of the feature area calculated by the feature area calculation unit 506, and determines whether or not the same person as the person to be processed exists. judge. If the search unit 507 detects the same person as the person to be processed as a result of the search, the search unit 507 sets the person area of the detected person as the person area in the next process target image data in the tracking target information 310. Record. Further, the search unit 507 records “1” in the “tracking flag” corresponding to the “person area” in the image data to be processed next in the tracking target information 310.

ステップS2008において、探索部507は、処理対象の画像データに含まれる全ての人物について、処理を行ったか否かを判定する。ステップS2008において、処理を行っていない人物がいると判定した場合には(ステップS2008においてYesの場合には)、ステップS2001に戻る。   In step S2008, the search unit 507 determines whether or not processing has been performed for all persons included in the image data to be processed. If it is determined in step S2008 that there is a person who has not performed processing (Yes in step S2008), the process returns to step S2001.

一方、ステップS2008において、全ての人物について処理を行ったと判定した場合には(ステップS2008においてNoの場合には)、探索処理を終了する。   On the other hand, if it is determined in step S2008 that the process has been performed for all persons (No in step S2008), the search process ends.

図21は、探索部により実行される探索処理を模式的に示した図である。図21において、類似度マップ2110は、探索部507により読み出された、処理対象の画像データ2100における、処理対象の人物2101(奥側の人物)の類似度マップを示している。また、画像データ2120は、次の処理対象の画像データにおける人物2121(手前側の人物)の移動量を示している。   FIG. 21 is a diagram schematically illustrating search processing executed by the search unit. In FIG. 21, the similarity map 2110 indicates a similarity map of the processing target person 2101 (back person) in the processing target image data 2100 read by the search unit 507. Further, the image data 2120 indicates the amount of movement of the person 2121 (the person on the near side) in the next image data to be processed.

画像データ2130は、探索部507が、次の処理対象の画像データにおいて、手前側の人物2121の移動量に応じた位置に、類似度マップ2110を移動させた様子を示したものである。   The image data 2130 shows a state in which the search unit 507 moves the similarity map 2110 to a position corresponding to the amount of movement of the front person 2121 in the next image data to be processed.

また、画像データ2140は、探索部507が、移動後の類似度マップに基づいて、次の処理対象の画像データにおいて探索領域2142を設定した様子を示している。   Further, the image data 2140 shows a state in which the search unit 507 sets the search area 2142 in the next image data to be processed based on the similarity map after movement.

なお、探索部507は、以下の条件を満たす領域(x、y)を、探索領域2142として設定する。   The search unit 507 sets an area (x, y) that satisfies the following conditions as the search area 2142.

Figure 2018112890
ただし、sxmin、sxmax、symin、symaxは、処理対象の画像データ2100における類似度マップのx座標の最小値、最大値、y座標の最小値、最大値をそれぞれを表している。また、Δx、Δyは、次の処理対象の画像データにおける、手前側の人物2121の移動量を表している。また、sim[x,y]は、座標(x,y)における類似度を表し、thは閾値を表している。更に、pyは、次の処理対象の画像データにおける、手前側の人物2121の人物領域のy座標を表している。
Figure 2018112890
However, s xmin , s xmax , s ymin , and s ymax represent the minimum value and maximum value of the x coordinate, the minimum value and maximum value of the y coordinate of the similarity map in the image data 2100 to be processed, respectively. Δx and Δy represent the amount of movement of the person 2121 on the near side in the next image data to be processed. Further, sim [x, y] represents the similarity at the coordinates (x, y), and th represents the threshold value. Further, py represents the y coordinate of the person area of the front person 2121 in the next image data to be processed.

これにより、処理対象の人物2101について、次の処理対象の画像データ2140において、移動後の類似度マップ2110に応じた探索領域2142を設定することができる。なお、探索部507により探索領域2142が設定されると、人物検出部501は、設定された探索領域2142に対して、特徴領域の画像を用いて探索を行い、処理対象の人物2101と同一人物の有無を判定する。画像データ2140において、人物2141は、設定された探索領域2142において、人物2101と同一人物と判定された人物を示している。   As a result, for the person 2101 to be processed, the search area 2142 corresponding to the similarity map 2110 after movement can be set in the image data 2140 to be processed next. When the search area 2142 is set by the search unit 507, the person detection unit 501 searches the set search area 2142 using the image of the characteristic area, and is the same person as the person 2101 to be processed. The presence or absence of is determined. In the image data 2140, a person 2141 indicates a person who is determined to be the same person as the person 2101 in the set search area 2142.

図22は、探索処理後の追跡対象情報の一例を示す図である。図22に示すように、探索処理が行われることで、追跡対象情報310のフレーム番号=「240」の“人物領域”には、人物2141(“人物ID”が「2」)の人物領域(x座標、y座標、幅、高さ)が記録される。   FIG. 22 is a diagram illustrating an example of tracking target information after the search processing. As shown in FIG. 22, by performing the search process, the person area (person ID “2”) of the person 2141 (“person ID” is “2”) is included in the “person area” of frame number = “240” of the tracking target information 310. x coordinate, y coordinate, width, height) are recorded.

以上の説明から明らかなように、人物追跡装置130は、複数の画像において人物を検出し、それぞれの画像において、手前側の人物と奥側の人物との間に重なりが発生しているか否かを判定する。また、人物追跡装置130は、重なりが発生している場合に、奥側の人物の人物領域のうち、重なりがない領域(存在範囲)の画像に基づいて類似度マップを生成し、奥側の人物を追跡するのに有効な範囲を決定する。また、人物追跡装置130は、手前側の人物を追跡することで得た追跡結果に基づいて、重なりがない領域(存在範囲)の変化を算出し、変化後の範囲を特徴領域として算出する。また、人物追跡装置130は、手前側の人物の追跡結果に基づいて、奥側の人物を追跡するのに有効な範囲(類似度マップ)を移動させることで、奥側の人物を追跡するための探索領域を設定する。更に、人物追跡装置130は、設定した探索領域を、特徴領域の画像を用いて探索することで、奥側の人物の有無を判定する。   As is clear from the above description, the person tracking device 130 detects a person in a plurality of images, and whether or not there is an overlap between the person on the near side and the person on the far side in each image. Determine. Further, when an overlap occurs, the person tracking device 130 generates a similarity map based on an image of a non-overlapping area (existing range) among the person areas of the person on the back side. Determine the effective range for tracking people. Further, the person tracking device 130 calculates a change in an area (existing range) where there is no overlap based on the tracking result obtained by tracking the person on the near side, and calculates the changed range as a feature area. In addition, the person tracking device 130 tracks the back person by moving a range (similarity map) effective for tracking the back person based on the tracking result of the front person. Set the search area. Furthermore, the person tracking device 130 determines the presence or absence of a person on the back side by searching the set search area using the image of the feature area.

このように、人物追跡装置130では、重なりが発生している場合でも、手前側の人物の追跡結果を用いて、適切な探索領域を設定するとともに適切な特徴領域を算出し、該算出した特徴領域の画像を用いて人物の探索を行う。   As described above, the person tracking device 130 sets an appropriate search area and calculates an appropriate feature area using the tracking result of the person on the near side even when an overlap occurs, and calculates the calculated feature. A person is searched using the image of the area.

これにより、人物追跡装置130によれば、重なりが発生している場合でも、精度よく同一人物を検出することができる。つまり、人物追跡装置130によれば、人物追跡において、高い追跡精度を得ることができる。   Thereby, according to person tracking device 130, even when overlap has occurred, the same person can be detected accurately. That is, according to the person tracking device 130, high tracking accuracy can be obtained in person tracking.

[他の実施形態]
上記実施形態では、撮像装置110において撮像された動画像データを動画像データ格納装置120に格納するものとして説明したが、撮像装置110において撮像された動画像データは、人物追跡装置130に格納してもよい。
[Other Embodiments]
In the above embodiment, the moving image data captured by the imaging device 110 is described as being stored in the moving image data storage device 120. However, the moving image data captured by the imaging device 110 is stored in the person tracking device 130. May be.

また、上記実施形態では、人物追跡装置130が追跡対象情報を解析装置140に送信し、解析装置140において追跡対象情報を解析するものとして説明したが、追跡対象情報は、人物追跡装置130において解析してもよい。   In the above embodiment, the person tracking device 130 transmits the tracking target information to the analysis device 140 and the analysis device 140 analyzes the tracking target information. However, the tracking target information is analyzed by the person tracking device 130. May be.

また、上記実施形態では、奥側の人物の特徴領域の画像を用いて探索領域を探索する場合の類似度の算出方法について特に言及しなかったが、例えば、類似度マップを生成する際の類似度の算出方法と同様の算出方法を用いるものとする。   In the above embodiment, no particular reference has been made to the method of calculating the similarity when searching for the search region using the image of the feature region of the person on the back side. For example, the similarity when generating the similarity map is described. A calculation method similar to that of the degree is used.

また、上記実施形態では、類似度マップを生成するにあたり、存在範囲の画像(各画素の画素値)を用いる場合について説明したが、存在範囲の画像に基づいて算出される画像特徴量を用いてもよい。同様に、上記実施形態では、手前側の人物と同一人物を検索するにあたり、手前側の人物の人物領域の画像(各画素の画素値)を用いる場合について説明したが、手前側の人物の人物領域の画像に基づいて算出される画像特徴量を用いてもよい。   In the above-described embodiment, the case where the image of the existing range (pixel value of each pixel) is used to generate the similarity map has been described. However, the image feature amount calculated based on the image of the existing range is used. Also good. Similarly, in the above-described embodiment, the case where the image of the person area of the person on the front side (pixel value of each pixel) is used to search for the same person as the person on the front side is described. An image feature amount calculated based on the image of the region may be used.

また、上記実施形態では、追跡する対象物を人物として説明したが、追跡する対象物は人物に限定されず、人物以外(例えば、車両等)であってもよい。つまり、上記実施形態で説明した、人物追跡装置、人物追跡プログラム、人物追跡システムは、それぞれ、対象物追跡装置、対象物追跡プログラム、対象物追跡システムの一例である。   In the above embodiment, the object to be tracked is described as a person, but the object to be tracked is not limited to a person, and may be other than a person (for example, a vehicle). That is, the person tracking device, the person tracking program, and the person tracking system described in the above embodiments are examples of the object tracking device, the object tracking program, and the object tracking system, respectively.

なお、開示の技術では、以下に記載する付記のような形態が考えられる。
(付記1)
第1の画像と前記第1の画像とは異なる時刻に撮像された第2の画像のそれぞれから対象物を検出し、
前記第1の画像において手前に位置する第1の対象物と奥側に位置する第2の対象物との間で重なりが発生しているか否かを判定し、
重なりが発生している場合に、重なり領域を除去した領域の画像に基づいて、前記第2の対象物の有無の判定に用いる範囲を決定し、
前記第1の対象物の追跡結果に基づいて前記範囲を移動させることで、前記第2の画像における前記第2の対象物を追跡するための探索領域を設定し、前記第2の画像についての前記探索領域を探索することで、前記第2の対象物の有無を判定する、
処理をコンピュータに実行させるための対象物追跡プログラム。
(付記2)
前記第1の対象物を追跡することで得た追跡結果に基づいて、前記重なり領域を除去した領域が変化した場合の変化後の領域を算出し、
前記第2の画像についての前記探索領域を、前記変化後の領域の画像を用いて探索することで、前記第2の対象物の有無を判定することを特徴とする付記1に記載の対象物追跡プログラム。
(付記3)
前記第2の対象物の範囲及び前記第2の対象物の周辺の範囲を走査し、各位置で、前記重なり領域を除去した領域の画像との類似度を算出することで、前記第2の対象物の有無の判定に用いる範囲を決定することを特徴とする付記2に記載の対象物追跡プログラム。
(付記4)
前記第1の対象物を追跡することで得た追跡結果に基づいて、前記第1の対象物の移動量の変化を算出し、
算出した前記第1の対象物の移動量の変化に応じた前記重なり領域の変化から、前記重なり領域を除去した領域の変化を推定し、前記変化後の領域を算出することを特徴とする付記3に記載の対象物追跡プログラム。
(付記5)
コンピュータが、
第1の画像と前記第1の画像とは異なる時刻に撮像された第2の画像のそれぞれから対象物を検出し、
前記第1の画像において手前に位置する第1の対象物と奥側に位置する第2の対象物との間で重なりが発生しているか否かを判定し、
重なりが発生している場合に、重なり領域を除去した領域の画像に基づいて、前記第2の対象物の有無の判定に用いる範囲を決定し、
前記第1の対象物の追跡結果に基づいて前記範囲を移動させることで、前記第2の画像における前記第2の対象物を追跡するための探索領域を設定し、前記第2の画像についての前記探索領域を探索することで、前記第2の対象物の有無を判定する、
処理を実行することを特徴とする対象物追跡方法。
(付記6)
第1の画像と前記第1の画像とは異なる時刻に撮像された第2の画像のそれぞれから対象物を検出する検出部と、
前記第1の画像において手前に位置する第1の対象物と奥側に位置する第2の対象物との間で重なりが発生しているか否かを判定する判定部と、
重なりが発生している場合に、重なり領域を除去した領域の画像に基づいて、前記第2の対象物の有無の判定に用いる範囲を決定する決定部と、
前記第1の対象物の追跡結果に基づいて前記範囲を移動させることで、前記第2の画像における前記第2の対象物を追跡するための探索領域を設定し、前記第2の画像についての前記探索領域を探索することで、前記第2の対象物の有無を判定する探索部と
を有することを特徴とする対象物追跡装置。
In addition, in the disclosed technology, forms such as the following supplementary notes are conceivable.
(Appendix 1)
An object is detected from each of the second images captured at different times of the first image and the first image;
Determining whether or not there is an overlap between the first object located in front of the first image and the second object located on the back side in the first image;
When overlapping has occurred, based on the image of the area from which the overlapping area has been removed, a range to be used for determining the presence or absence of the second object is determined,
A search area for tracking the second object in the second image is set by moving the range based on the tracking result of the first object, and the second image Determining the presence or absence of the second object by searching the search area;
An object tracking program for causing a computer to execute processing.
(Appendix 2)
Based on the tracking result obtained by tracking the first object, calculate the area after the change when the area where the overlapping area is removed,
The object according to claim 1, wherein the presence or absence of the second object is determined by searching the search area for the second image using an image of the area after the change. Tracking program.
(Appendix 3)
By scanning the range of the second object and the peripheral area of the second object, and calculating the similarity with the image of the area from which the overlapping area is removed at each position, the second object 3. The object tracking program according to appendix 2, wherein a range used for determining the presence or absence of the object is determined.
(Appendix 4)
Based on the tracking result obtained by tracking the first object, a change in the amount of movement of the first object is calculated,
The supplementary note is characterized in that a change in the area from which the overlap area is removed is estimated from a change in the overlap area according to a change in the calculated movement amount of the first object, and the area after the change is calculated. 3. The object tracking program according to 3.
(Appendix 5)
Computer
An object is detected from each of the second images captured at different times of the first image and the first image;
Determining whether or not there is an overlap between the first object located in front of the first image and the second object located on the back side in the first image;
When overlapping has occurred, based on the image of the area from which the overlapping area has been removed, a range to be used for determining the presence or absence of the second object is determined,
A search area for tracking the second object in the second image is set by moving the range based on the tracking result of the first object, and the second image Determining the presence or absence of the second object by searching the search area;
An object tracking method characterized by executing processing.
(Appendix 6)
A detection unit that detects an object from each of the second images captured at different times of the first image and the first image;
A determination unit that determines whether or not there is an overlap between the first object located in front of the first image and the second object located on the far side in the first image;
A determination unit that determines a range to be used for the determination of the presence or absence of the second object based on an image of a region from which the overlap region is removed when an overlap occurs;
A search area for tracking the second object in the second image is set by moving the range based on the tracking result of the first object, and the second image An object tracking apparatus comprising: a search unit that determines the presence or absence of the second object by searching the search area.

なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。   Note that the present invention is not limited to the configurations shown here, such as combinations with other elements, etc., in the configurations described in the above embodiments. These points can be changed without departing from the spirit of the present invention, and can be appropriately determined according to the application form.

100 :人物追跡システム
110 :撮像装置
120 :動画像データ格納装置
130 :人物追跡装置
131 :人物追跡部
132 :追跡対象情報出力部
133 :追跡対象情報格納部
140 :解析装置
310 :追跡対象情報
501 :人物検出部
502 :重なり判定部
503 :重なり除去部
504 :存在範囲決定部
505 :移動量算出部
506 :特徴領域算出部
507 :探索部
1210 :重なり領域
1401 :存在範囲
1411 :濃淡画像
2110 :類似度マップ
2142 :探索領域
100: person tracking system 110: imaging device 120: moving image data storage device 130: person tracking device 131: person tracking unit 132: tracking target information output unit 133: tracking target information storage unit 140: analysis device 310: tracking target information 501 : Person detection unit 502: overlap determination unit 503: overlap removal unit 504: existence range determination unit 505: movement amount calculation unit 506: feature region calculation unit 507: search unit 1210: overlap region 1401: existence range 1411: gray image 2110: Similarity map 2142: search area

Claims (6)

第1の画像と前記第1の画像とは異なる時刻に撮像された第2の画像のそれぞれから対象物を検出し、
前記第1の画像において手前に位置する第1の対象物と奥側に位置する第2の対象物との間で重なりが発生しているか否かを判定し、
重なりが発生している場合に、重なり領域を除去した領域の画像に基づいて、前記第2の対象物の有無の判定に用いる範囲を決定し、
前記第1の対象物の追跡結果に基づいて前記範囲を移動させることで、前記第2の画像における前記第2の対象物を追跡するための探索領域を設定し、前記第2の画像についての前記探索領域を探索することで、前記第2の対象物の有無を判定する、
処理をコンピュータに実行させるための対象物追跡プログラム。
An object is detected from each of the second images captured at different times of the first image and the first image;
Determining whether or not there is an overlap between the first object located in front of the first image and the second object located on the back side in the first image;
When overlapping has occurred, based on the image of the area from which the overlapping area has been removed, a range to be used for determining the presence or absence of the second object is determined,
A search area for tracking the second object in the second image is set by moving the range based on the tracking result of the first object, and the second image Determining the presence or absence of the second object by searching the search area;
An object tracking program for causing a computer to execute processing.
前記第1の対象物を追跡することで得た追跡結果に基づいて、前記重なり領域を除去した領域が変化した場合の変化後の領域を算出し、
前記第2の画像についての前記探索領域を、前記変化後の領域の画像を用いて探索することで、前記第2の対象物の有無を判定することを特徴とする請求項1に記載の対象物追跡プログラム。
Based on the tracking result obtained by tracking the first object, calculate the area after the change when the area where the overlapping area is removed,
2. The object according to claim 1, wherein the presence or absence of the second object is determined by searching the search area for the second image using an image of the area after the change. Object tracking program.
前記第2の対象物の範囲及び前記第2の対象物の周辺の範囲を走査し、各位置で、前記重なり領域を除去した領域の画像との類似度を算出することで、前記第2の対象物の有無の判定に用いる範囲を決定することを特徴とする請求項2に記載の対象物追跡プログラム。   By scanning the range of the second object and the peripheral area of the second object, and calculating the similarity with the image of the area from which the overlapping area is removed at each position, the second object The object tracking program according to claim 2, wherein a range to be used for determining the presence or absence of the object is determined. 前記第1の対象物を追跡することで得た追跡結果に基づいて、前記第1の対象物の移動量の変化を算出し、
算出した前記第1の対象物の移動量の変化に応じた前記重なり領域の変化から、前記重なり領域を除去した領域の変化を推定し、前記変化後の領域を算出することを特徴とする請求項3に記載の対象物追跡プログラム。
Based on the tracking result obtained by tracking the first object, a change in the amount of movement of the first object is calculated,
The area after removing the overlap area is estimated from the change in the overlap area according to the change in the calculated movement amount of the first object, and the area after the change is calculated. Item tracking program according to Item 3.
コンピュータが、
第1の画像と前記第1の画像とは異なる時刻に撮像された第2の画像のそれぞれから対象物を検出し、
前記第1の画像において手前に位置する第1の対象物と奥側に位置する第2の対象物との間で重なりが発生しているか否かを判定し、
重なりが発生している場合に、重なり領域を除去した領域の画像に基づいて、前記第2の対象物の有無の判定に用いる範囲を決定し、
前記第1の対象物の追跡結果に基づいて前記範囲を移動させることで、前記第2の画像における前記第2の対象物を追跡するための探索領域を設定し、前記第2の画像についての前記探索領域を探索することで、前記第2の対象物の有無を判定する、
処理を実行することを特徴とする対象物追跡方法。
Computer
An object is detected from each of the second images captured at different times of the first image and the first image;
Determining whether or not there is an overlap between the first object located in front of the first image and the second object located on the back side in the first image;
When overlapping has occurred, based on the image of the area from which the overlapping area has been removed, a range to be used for determining the presence or absence of the second object is determined,
A search area for tracking the second object in the second image is set by moving the range based on the tracking result of the first object, and the second image Determining the presence or absence of the second object by searching the search area;
An object tracking method characterized by executing processing.
第1の画像と前記第1の画像とは異なる時刻に撮像された第2の画像のそれぞれから対象物を検出する検出部と、
前記第1の画像において手前に位置する第1の対象物と奥側に位置する第2の対象物との間で重なりが発生しているか否かを判定する判定部と、
重なりが発生している場合に、重なり領域を除去した領域の画像に基づいて、前記第2の対象物の有無の判定に用いる範囲を決定する決定部と、
前記第1の対象物の追跡結果に基づいて前記範囲を移動させることで、前記第2の画像における前記第2の対象物を追跡するための探索領域を設定し、前記第2の画像についての前記探索領域を探索することで、前記第2の対象物の有無を判定する探索部と
を有することを特徴とする対象物追跡装置。
A detection unit that detects an object from each of the second images captured at different times of the first image and the first image;
A determination unit that determines whether or not there is an overlap between the first object located in front of the first image and the second object located on the far side in the first image;
A determination unit that determines a range to be used for the determination of the presence or absence of the second object based on an image of a region from which the overlap region is removed when an overlap occurs;
A search area for tracking the second object in the second image is set by moving the range based on the tracking result of the first object, and the second image An object tracking apparatus comprising: a search unit that determines the presence or absence of the second object by searching the search area.
JP2017002816A 2017-01-11 2017-01-11 Object tracking program, object tracking method and object tracking device Expired - Fee Related JP6828445B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017002816A JP6828445B2 (en) 2017-01-11 2017-01-11 Object tracking program, object tracking method and object tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017002816A JP6828445B2 (en) 2017-01-11 2017-01-11 Object tracking program, object tracking method and object tracking device

Publications (2)

Publication Number Publication Date
JP2018112890A true JP2018112890A (en) 2018-07-19
JP6828445B2 JP6828445B2 (en) 2021-02-10

Family

ID=62912281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017002816A Expired - Fee Related JP6828445B2 (en) 2017-01-11 2017-01-11 Object tracking program, object tracking method and object tracking device

Country Status (1)

Country Link
JP (1) JP6828445B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022058833A (en) * 2018-12-07 2022-04-12 日本電気株式会社 Information processing system, information processing apparatus, information processing method, and program
US11386637B2 (en) * 2019-07-16 2022-07-12 Samsung Electronics Co., Ltd. Method and apparatus for detecting object
CN116434162A (en) * 2021-12-31 2023-07-14 瑞伟安知识产权控股有限公司 System and method for reducing missed detection of tracked objects in the surrounding environment of a vehicle
US12046075B2 (en) 2018-12-07 2024-07-23 Nec Corporation Information processing apparatus, information processing method, and program
US12254640B2 (en) 2020-03-16 2025-03-18 Nec Corporation Object tracking device, object tracking method, and recording medium
US12499561B2 (en) 2020-10-30 2025-12-16 Nec Corporation Object tracking device, object tracking method, and recording medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012073997A (en) * 2010-09-01 2012-04-12 Ricoh Co Ltd Object tracking device, object tracking method, and program thereof
JP2012080221A (en) * 2010-09-30 2012-04-19 Jvc Kenwood Corp Target tracking device and target tracking method
JP2013077202A (en) * 2011-09-30 2013-04-25 Secom Co Ltd Moving object tracking device
JP2016126624A (en) * 2015-01-06 2016-07-11 Kddi株式会社 Apparatus, program and method for tracking an object using a special classifier when occlusion occurs

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012073997A (en) * 2010-09-01 2012-04-12 Ricoh Co Ltd Object tracking device, object tracking method, and program thereof
JP2012080221A (en) * 2010-09-30 2012-04-19 Jvc Kenwood Corp Target tracking device and target tracking method
JP2013077202A (en) * 2011-09-30 2013-04-25 Secom Co Ltd Moving object tracking device
JP2016126624A (en) * 2015-01-06 2016-07-11 Kddi株式会社 Apparatus, program and method for tracking an object using a special classifier when occlusion occurs

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JEROEN S. VAN GASTEL, 外3名: ""Occlusion-Robust Pedestrian Tracking in Crowded Scenes"", 2015 IEEE 18TH INTERNATIONAL CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS, JPN6020045969, 15 September 2015 (2015-09-15), pages 919 - 924, XP032804113, ISSN: 0004411479, DOI: 10.1109/ITSC.2015.154 *
澤田裕介, 外1名: ""仮説検証に基づく自然環境下での複数歩行者追跡"", 画像の認識・理解シンポジウム(MIRU2011)論文集, vol. 第2011巻, JPN6020045966, 20 July 2011 (2011-07-20), JP, pages 718 - 725, ISSN: 0004411478 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022058833A (en) * 2018-12-07 2022-04-12 日本電気株式会社 Information processing system, information processing apparatus, information processing method, and program
JP7298729B2 (en) 2018-12-07 2023-06-27 日本電気株式会社 Information processing system, information processing device, information processing method, and program
US12046075B2 (en) 2018-12-07 2024-07-23 Nec Corporation Information processing apparatus, information processing method, and program
US11386637B2 (en) * 2019-07-16 2022-07-12 Samsung Electronics Co., Ltd. Method and apparatus for detecting object
US12254640B2 (en) 2020-03-16 2025-03-18 Nec Corporation Object tracking device, object tracking method, and recording medium
US12499561B2 (en) 2020-10-30 2025-12-16 Nec Corporation Object tracking device, object tracking method, and recording medium
CN116434162A (en) * 2021-12-31 2023-07-14 瑞伟安知识产权控股有限公司 System and method for reducing missed detection of tracked objects in the surrounding environment of a vehicle

Also Published As

Publication number Publication date
JP6828445B2 (en) 2021-02-10

Similar Documents

Publication Publication Date Title
JP6828445B2 (en) Object tracking program, object tracking method and object tracking device
KR102261061B1 (en) Systems and methods for detecting a point of interest change using a convolutional neural network
JP6364743B2 (en) Information processing apparatus, control method, program, and information system
KR101507662B1 (en) Semantic parsing of objects in video
JP4166253B2 (en) Object detection apparatus, object detection method, and object detection program
CN105593850B (en) Image retrieval device, image retrieval method, and storage medium
CN107408119B (en) Image retrieval device, system and method
US8908915B2 (en) Devices and methods for tracking moving objects
US8724851B2 (en) Aerial survey video processing
JP6620443B2 (en) Monitoring program, monitoring apparatus, and monitoring method
KR102226372B1 (en) System and method for object tracking through fusion of multiple cameras and lidar sensor
US10762372B2 (en) Image processing apparatus and control method therefor
JP7707643B2 (en) Identification program, identification method, and information processing device
CN110738667A (en) RGB-D SLAM method and system based on dynamic scene
KR20160014413A (en) The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map
JP5248236B2 (en) Image processing apparatus and image processing method
JPH10301948A (en) Image and video search method
CN115132370A (en) Flow adjustment auxiliary method and device based on machine vision and deep learning
KR101682137B1 (en) Method and apparatus for temporally-consistent disparity estimation using texture and motion detection
JP6752122B2 (en) Image processing device, image processing method
Carvalho et al. Filling the gap in quality assessment of video object tracking
CN109644236A (en) Angle detecting method
US20240404209A1 (en) Information processing apparatus, information processing method, and program
Zimoch et al. Human flow recognition using deep networks and vision methods
JP2011043863A (en) Apparatus, method, program for determining/tracking object region, and apparatus for determining object region

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210104

R150 Certificate of patent or registration of utility model

Ref document number: 6828445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees