JP2015052849A - Image processing apparatus, control method therefor, and program - Google Patents
Image processing apparatus, control method therefor, and program Download PDFInfo
- Publication number
- JP2015052849A JP2015052849A JP2013184340A JP2013184340A JP2015052849A JP 2015052849 A JP2015052849 A JP 2015052849A JP 2013184340 A JP2013184340 A JP 2013184340A JP 2013184340 A JP2013184340 A JP 2013184340A JP 2015052849 A JP2015052849 A JP 2015052849A
- Authority
- JP
- Japan
- Prior art keywords
- human body
- body region
- moving body
- moving
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像中の被写体である動体あるいは人体が所定の線分を通過することを検知する画像処理技術に関するものである。 The present invention relates to an image processing technique for detecting that a moving body or a human body, which is a subject in an image, passes a predetermined line segment.
監視カメラにおいて、画像中の動体領域を検出する技術、人体領域を検出する技術、検出した動体や人体の画面内での移動を追尾する技術がある。また、通過検知として、検出した動体や人体が所定の線分を通過したことを判定する技術、所定の領域への進入・退出を判定する技術が知られている。 There are technologies for detecting a moving object region in an image, a technology for detecting a human body region, and a technology for tracking the movement of a detected moving object and a human body within a screen in a surveillance camera. As passage detection, a technique for determining that a detected moving body or human body has passed a predetermined line segment and a technique for determining entry / exit to a predetermined area are known.
動体検出と人体検出を組み合わせた通過検知技術としては、動体を検出した領域に限定して人体領域検出を行い、人物が禁止領域に対して侵入したかどうかを判定する侵入者監視装置がある(特許文献1)。また、時空間画像における局所領域の関連性に基づく統計量に着目して、見掛け上の重複や隠れのあるシーンにおいて動体を追尾する技術があり、実装がなされている(特許文献2、3)
As a passage detection technique that combines moving body detection and human body detection, there is an intruder monitoring device that performs human body region detection only in a region where a moving body is detected and determines whether a person has entered a prohibited region ( Patent Document 1). In addition, there is a technique for tracking a moving object in an apparently overlapping or hidden scene by paying attention to a statistic based on the relevance of a local region in a spatiotemporal image, which has been implemented (
従来の動体検出手法は、画像上での物体同士の重複や他の物体への隠れ、照明条件等の環境変動ノイズに弱い、という課題がある。これに対して、時空間画像の関連性に基づく統計量に着目して、上記課題を解決する手法がある。しかしながら、人物が並んで歩いている場合は、これを分離して検出できない場合がある。この課題に対しては、人体の輪郭から人物1人1人を個別に検出した後で、追尾する手法が有効である。しかし、人体検出は、人物の向きや角度によって検出精度が劣化することがあり、常に精度よく検出できるとは限らない。 Conventional moving object detection methods have a problem that they are vulnerable to environmental fluctuation noise such as overlapping of objects on an image, hiding in other objects, and illumination conditions. On the other hand, there is a method for solving the above problem by paying attention to a statistic based on the relevance of the spatiotemporal image. However, when people are walking side by side, they may not be detected separately. For this problem, a method of tracking after detecting each person individually from the outline of the human body is effective. However, the detection accuracy of human body detection may deteriorate depending on the orientation and angle of a person, and cannot always be detected with high accuracy.
本発明は上記の課題を解決するためになされたものであり、通過検知の精度を向上することができる画像処理装置及びその制御方法、プログラムを提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus that can improve the accuracy of passage detection, a control method therefor, and a program.
上記の目的を達成するための本発明による画像処理装置は以下の構成を備える。即ち、
画像中の被写体である動体あるいは人体が所定の線分を通過することを検知する画像処理装置であって、
前記画像を構成するフレームから、動体及び人体それぞれを示す領域である動体領域及び人体領域を検出する検出手段と、
観測時刻の異なる画像のフレームを比較することで、それぞれのフレームから前記検出手段で検出される前記動体領域及び前記人体領域の少なくとも一方が、前記所定の線分を通過したことを検知する検知手段と、
前記検知手段によって、前記動体領域が前記所定の線分を通過したことを示す動体通過検知結果が得られる場合、前記人体領域に対応する動体領域が前記所定の線分を通過したことにより前記動体通過検知結果が得られたか否かを、前記人体領域と前記動体領域との位置関係に基づいて判定する判定手段と
を備える。
In order to achieve the above object, an image processing apparatus according to the present invention comprises the following arrangement. That is,
An image processing apparatus for detecting that a moving body or a human body as a subject in an image passes a predetermined line segment,
Detecting means for detecting a moving body region and a human body region, which are regions indicating the moving body and the human body, from the frame constituting the image;
Detection means for detecting that at least one of the moving body area and the human body area detected by the detection means from each frame passes through the predetermined line segment by comparing frames of images having different observation times. When,
When the detection means obtains a moving body passage detection result indicating that the moving body region has passed the predetermined line segment, the moving body region corresponding to the human body region has passed the predetermined line segment, so Determination means for determining whether or not a passage detection result is obtained based on a positional relationship between the human body region and the moving body region.
本発明によれば、通過検知の精度を向上することができる。 According to the present invention, the accuracy of passage detection can be improved.
以下、本発明の実施の形態について図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<実施形態1>
本実施形態は、画像中の被写体(動体・人体)を検出・追尾し、その被写体が画像中の所定の線分(検知線)の通過を検知する通過検知処理に関するものである。特に、動体・人体の検出結果を統合することによって、その検知精度を向上するものである。
<
The present embodiment relates to a passage detection process in which a subject (moving body / human body) in an image is detected and tracked and the subject detects passage of a predetermined line segment (detection line) in the image. In particular, the detection accuracy is improved by integrating the detection results of moving bodies and human bodies.
通過検知判定を行う通過検知判定装置100の構成例を図1に示す。
A configuration example of a passage
通過検知判定装置100は、ネットワーク上に画像を配信する監視カメラである撮像装置200と一体型の制御装置を想定した構成である。通過検知判定装置100は、撮像装置200のズーム、フォーカス、ホワイトバランス、撮影姿勢等を制御する撮像系制御部120を有する。通過検知判定装置100において、画像取得部101が撮像装置200から画像を取得する。取得した画像は、後処理に応じて変倍部102で変倍処理がなされる。通過検知判定装置100から配信される画像は、符号化部103、画像配信制御部104、通信部140を得てネットワークに接続される表示装置150や録画装置160に配信される。
The passage
動体検出部105は、変倍後の画像を入力として動体領域を検出する。動体検出には、混合ガウス分布を用いた背景差分や、時空間画像解析による領域分割等の既知の画像処理を用いる。動体追尾部106は、検出された動体に対して追尾処理を行う。これは異なるフレーム間の動体領域を関連付けて、動体の移動軌跡を抽出するものである。予測された移動位置付近における、動体の外接矩形形状(動体領域)の類似性に注目した方法が一般的に用いられる。
The moving
人体検出部107は、人体特徴量データ(辞書)を用いて画像内の人体を検出する。人体検出には、頭と肩のシルエット(所謂、オメガライン)形状を検出する公知の方法がある。人体追尾部108で、検出された人体に対して追尾を行う。追尾のアルゴリズムは動体追尾部106と共通のアルゴリズムを使用可能である。
The human
動体・人体の追尾処理後、通過検知判定部109で通過検知判定を行う。通過検知は、撮像装置200における撮像画面内に予め定めた検知線を、人体または動体の軌跡(移動ベクトル)が通過(交差)したか否かで判定する。この判定は、例えば、観測時刻の異なる画像フレームを比較することで、それぞれの画像フレームから検出される動体領域及び人体領域の少なくとも一方が、所定の線分を通過したか否を判定する。そして、この通過検知判定部109による通過検知判定結果は、通過検知結果統合部110で統合される。ここでは、動体通過検知結果と人体通過検知結果が重複した場合、人体通過検知結果を採用する。統合された検知結果は、通信部140を経てネットワーク上の表示装置150や録画装置160に送信される。
After the moving body / human body tracking process, the passage
設定制御部130は、動体検出部105、人体検出部107及び撮像系制御部120の各種動作を制御するための設定を行う。この設定は、通過検知判定装置100に対するユーザ入力に基づいても良いし、通信部140を介してネットワークから受信する設定指示に基づいても良い。
The
尚、本実施形態では、通過検知判定装置100として、監視カメラ(撮像装置200)内蔵の画像処理装置を想定して説明しているが、監視カメラを独立させて、通過検知判定装置100の各種構成要素の機能を実現するPCサーバタイプでも実現可能である。この場合、画像は、ネットワーク上に接続されている外部のネットワークカメラ(監視カメラ)から取得して処理を行うことになる。
In the present embodiment, the passage
ここで、通過検知判定装置100を実現する情報処理装置は、汎用コンピュータに搭載される標準的な構成要素(例えば、CPU、RAM、ROM、ハードディスク、外部記憶装置、ネットワークインタフェース、ディスプレイ、キーボード、マウス等)を有している。そして、通過検知判定装置100が実行する処理は、例えば、それに搭載されるCPUが、ROM等のメモリに記憶されているプログラムを実行し、制御することで実現することができる。
Here, the information processing apparatus for realizing the passage
図2を用いて、通過検知結果の統合原理を説明する。図2は2人の人物が互いに反対方向から検知線211を通過する場合である。図2のa)−1〜a)−3は動体通過検知処理、b)−1〜b)−3は人体通過検知処理、c)−1〜c)−3は、動体・人体通過検知の統合処理、各々を説明するための図である。いずれも画像3フレーム分の処理を示している。各々のフレームの処理時刻(観測時刻)を、t1、t2、t3と表す。
The integration principle of the passage detection result will be described with reference to FIG. FIG. 2 shows a case where two persons pass through the
尚、所定の線分である検知線211は、直線である場合を示しているが、この検知線とする所定の線分は、これに限定されない。例えば、通過検知の目印となる所定の線分として、複数の線分が連結して構成されたり、多角形を構成する辺の一部であっても良い。
In addition, although the
まず、動体検出を用いる通過検知判定の例を、a)−1〜a)−3により説明する。 First, examples of passage detection determination using moving body detection will be described with reference to a) -1 to a) -3.
a)−1において、画像201中、2人の人物212及び214が、各々別の動体である動体領域213及び215として検出・追尾される。
In a) -1, two
a)−2において、画像202中、2人の人物212及び214は1個の動体領域216として追尾される。
In a) -2, two
a)−3において、画像203中、1個の動体領域217が、検知線211を通過する。複数の人物が一つの動体として検出・追尾されるのは、見かけ上の重複や、互いに近傍にある複数の動体領域をまとめて一つの動体領域とすることによるものである。a)−3において、検知線211と、動体領域の移動(動体領域216→動体領域217)の交差により、1個の動体通過検知が観測される。結果として、動体検出だけによる通過検知判定では、移動方向の異なる2人の人物の通過検知を正しく検出できない。
In a) -3, one moving
次に、人体検出を用いる通過検知判定の例を、b)−1〜b)−3により説明する。 Next, examples of passage detection determination using human body detection will be described with reference to b) -1 to b) -3.
b)−1において、画像204中、2人の人物は2個の人体領域221及び222として検出される。
In b) −1, two persons are detected as two
b)−2において、画像205中、2人の人物は独立した人体領域223及び224として検出・追尾される。
In b) -2, two persons are detected and tracked as independent
b)−3において、画像206中、2人の人物は独立した人体領域225及び226として検出・追尾される。従って、b)−3において、検知線211に対して、人体領域225及び226が互いに異なる方向から通過したことが検知される。結果として、移動方向の異なる2人の人体通過検知が観測される。
In b) -3, two persons are detected and tracked as independent
以上のように、図2の場合では、人体通過検知を採用することで、正しい通過検知結果を得る。このためには、人体通過検知と動体通過検知の重複を判定する必要がある。 As described above, in the case of FIG. 2, a correct passage detection result is obtained by employing human body passage detection. For this purpose, it is necessary to determine the overlap between human body passage detection and moving body passage detection.
通過検知の重複判定処理を説明する。人体領域と動体領域の関係を見る。人体領域、動体領域は共に矩形で表現される。まず、動体領域に包含される人体領域を選択する。次に包含される全ての人体領域集合の外接矩形を算出する。最後に、当該外接矩形の少なくとも3辺(上辺、左辺及び右辺)と、元の動体領域の少なくとも3辺(上辺、左辺及び右辺)の位置関係を比較し、それらが一致するか否かを判定する。一致する場合に、動体検出結果(動体追尾結果)に対して人体タグを付与する。 The overlap detection process for passage detection will be described. Look at the relationship between the human body area and the moving body area. Both the human body area and the moving body area are represented by rectangles. First, a human body region included in the moving body region is selected. Next, circumscribed rectangles of all human body region sets included are calculated. Finally, the positional relationship between at least three sides (upper side, left side, and right side) of the circumscribed rectangle and at least three sides (upper side, left side, and right side) of the original moving object region is compared to determine whether they match. To do. If they match, a human body tag is assigned to the moving object detection result (moving object tracking result).
尚、位置関係の比較の際に下辺を用いない理由は、下半身の隠れや、人物を斜め下に見下ろす角度で撮影した場合、人体検出結果が画像上の人物の足元と一致しない場合があるからである。但し、上辺、左辺及び右辺同士が一致することに加えて、下辺同士が一致することもあるので、そのような場合には、動体検出結果(動体追尾結果)に対して人体タグを付与することができる。 The reason why the lower side is not used when comparing the positional relationship is that the human body detection result may not match the feet of the person on the image when the lower body is hidden or the image is taken at an angle looking down at the person It is. However, in addition to the fact that the upper side, the left side, and the right side match, the lower side may match, so in such a case, a human body tag should be assigned to the moving object detection result (moving object tracking result). Can do.
例えば、図2のc)−1において、画像207中、2人の人物は2個の動体領域213及び215として検出されるとともに、人体領域221及び222としても検出される。
For example, in c) -1 of FIG. 2, two persons are detected as two moving
c)−2において、画像208中、動体検出結果である動体領域216は、人体検出結果である人体領域223及び224を包含しており、かつ全ての辺が、包含する人体領域集合の外接矩形と一致する。この場合、動体領域216に人体タグ227を付与する。
c) -2, in the
c)−3において、画像209中、同様に、動体領域217も、人体領域225及び226を包含しており、かつ全ての辺が、包含する人体領域集合の外接矩形と一致する。この場合、動体領域217に人体タグ228を付与する。このように、動体検出結果である動体領域217は、人体検出結果の集合である人体領域集合の外接矩形と一致する。
c) -3, similarly, in the
以上のことから、c)−3における動体検出結果(動体領域217)に起因する通過検知結果は不採用(無効)とし、人体検出結果(人体領域225及び226)に起因する通過検知結果を採用する。この例では、人物が互いにすれ違う場合を説明しているが、並んで同一方向に通過する場合も同様に人体タグを用いることによって正しく検知できることは言うまでもない。
From the above, the passage detection result caused by the moving body detection result (moving body region 217) in c) -3 is not adopted (invalid), and the passage detection result caused by the human body detection result (
尚、本実施形態では、動体検出結果に対して、通過検知判定を行い、動体通過検知フラグを設定する。そして、動体通過検知結果を採用する場合には動体通過検知フラグをONに設定し、不採用する場合には動体通過検知フラグをOFFに設定する。 In the present embodiment, passage detection determination is performed on the moving object detection result, and a moving object passage detection flag is set. When the moving object passage detection result is adopted, the moving object passage detection flag is set to ON, and when not adopted, the moving object passage detection flag is set to OFF.
また、図2のc)−1においても、動体領域213及び215はそれぞれ、人体領域221及び222を包含しており、かつ全ての辺が、包含する人体領域集合の外接矩形と一致する。そのため、動体領域213及び215にはそれぞれ人体タグ231及び232が付与されることになる。
Also in FIG. 2 c) -1, the moving
次に、人物と車両が交差する例を、図3を用いて説明する。図3は人物と車両が互いに反対方向から検知線311を通過する場合である。図2と同様に、図3のa)−1〜a)−3は動体通過検知処理、b)−1〜b)−3は人体通過検知処理、c)−1〜c)−3は、動体通過検知・人体通過検知の統合処理、各々を説明するための図である。
Next, an example in which a person and a vehicle intersect will be described with reference to FIG. FIG. 3 shows a case where a person and a vehicle pass through the
まず、動体検出を用いる通過検知判定の例を、a)−1〜a)−3により説明する。 First, examples of passage detection determination using moving body detection will be described with reference to a) -1 to a) -3.
a)−1において、画像301中、画面中央縦に検知線311があり、人物312は左から右へ移動し、車両313は右から左に移動する。この場合、正しい検出となる正解値は、人物の通過と車両の通過を別々の通過検知として検出することである。a)−1において、人物312と車両313に対応する動体検出結果は、別々の動体領域134及び315として検出される。
In a) -1, there is a
a)−2において、画像302中、2つの物体(人物316及び車両317)に対して一つの動体検出結果として動体領域318が得られる。
In a) -2, a moving
a)−3において、画像303中、同様に、2つの物体(人物319及び車両320)に対して一つの動体検出結果として動体領域300を得る。
In a) -3, similarly, the moving
a)−2からa)−3にかけて、動体検出結果である動体領域が検知線311を通過するので、a)−3において動体通過検知が発生したと判定できる。
From a) -2 to a) -3, the moving object region that is the moving object detection result passes through the
次に、人体検出を用いる通過検知判定の例を、b)−1〜b)−3により説明する。 Next, examples of passage detection determination using human body detection will be described with reference to b) -1 to b) -3.
b)−1において、画像304中、1人の人物が人体領域321として検出される。
In b) −1, one person is detected as the
b)−2において、画像305中、1人の人物が人体領域322として検出される。
b) -2, one person is detected as the
b)−3において、画像306中、1人の人物が人体領域323として検出される。
In b) -3, one person is detected as the
この場合、b)−2からb)−3にかけて、検知線311を通過するので、b)−3において、人体通過検知が発生する。
In this case, since the
このように、図3では、人体通過検知結果と動体通過検知結果は重複しない。 Thus, in FIG. 3, the human body passage detection result and the moving body passage detection result do not overlap.
図3のc)−1において、画像307の状態から、c)−2において、人体領域322は、動体領域318に包含される。しかし、動体領域318の右辺や上辺は、人体領域322の右辺や上辺と一致しない。他に動体領域に包含される人体領域はないことから、c)−2において、動体領域318と人体領域322は同一の物体ではないと判定され、動体領域318に対して人体タグは付与されない。同様に、c)−3において、動体領域300に対して人体タグは付与されない。そして、c)−2からc)−3にかけて、動体領域318と人体領域322は、検知線311を各々別の方向に通過する。そのため、c)−3において、画像309中、動体通過検知と人体通過検知が発生する。この場合、動体領域300に人体タグは付与されていないため、両方の通過検知が採用される。結果として、人物の通過と車両の通過を別々の通過検知として検出する正解値を得る。
In c) -1 in FIG. 3, the
次に、本実施形態の通過検知判定装置100の処理手順を、図4を用いて説明する。
Next, the processing procedure of the passage
尚、通過検知判定装置100の動作は、ROM等のメモリに記憶されているプログラムを、CPUが読み出し、実行することで実現される。
Note that the operation of the passage
ステップS401で、画像取得部101が、画像を取得する。次に、ステップS411で、動体検出部105が、動体検出処理を行う。ステップS412で、動体追尾部106が、動体追尾処理を行う。さらに、ステップS413で、人体検出部107が、人体検出処理を行う。ステップS414で、人体追尾部108が、人体追尾処理を行う。その後、ステップS415で、設定制御部130が、人体タグ付与処理を行う。この詳細については、後述する。
In step S401, the
ステップS416で、通過検知判定部109が、動体通過検知判定を行う。この処理は、全ての動体に関して、所定の検知線を通過したかどうかを判定し、検知線を通過した動体には、動体通過検知フラグをONにする。ステップS417で、通過検知判定部109が、人体通過検知判定を行う。そして、ステップS418で、通過検知結果統合部110が、動体・人体通過検知判定の統合処理を行う。この処理に詳細については、後述する。最後に、ステップS419で、通信部140が、通過検知結果を送信する。ステップS420で、設定制御部130が、設定終了要求があるか否かを判定する。設定終了要求がない場合(ステップS420でNO)、ステップS410に戻る。一方、設定終了要求がある場合(ステップS420でYES)、処理を終了する。
In step S416, the passage
次に、ステップS415の人体タグ付与処理の詳細について、図5を用いて説明する。 Next, details of the human body tag attaching process in step S415 will be described with reference to FIG.
ステップS501で、設定制御部130が、全ての動体領域に対して処理を完了したか否かを判定する。完了している場合(ステップS501でYES)、処理を終了する。一方、完了していない場合(ステップS501でNO)、ステップS502で、設定制御部130が、動体領域に含まれる人体領域を抽出する。次に、ステップS503で、設定制御部130が、当該動体領域に、包含される全ての人体領域を囲む外接矩形Rhを算出する。
In step S501, the setting
次に、ステップS504で、設定制御部130が、動体領域を表す外接矩形Rmと、それに包含される人体領域の外接矩形Rhとを比較する。これは、RmとRhの左辺、右辺、上辺同士が一致するかどうかを比較する。下辺を比較しない理由は、隠れや、撮像装置の角度の関係から、人物の足元が動体として検出されない場合を考慮したためである。次に、ステップS505で、設定制御部130が、動体領域を表す外接矩形Rmと、それに包含される人体領域の外接矩形Rhが一致するか否かを判定する。即ち、動体領域と人体領域が対応するかを、動体領域と人体領域との位置関係に基づいて判定する。例えば、動体領域の外接矩形と、その動体領域の外接矩形に包含される人体領域の外接矩形との少なくとも3辺が一致するか判定する。一致する場合に、動体領域と人体領域が対応すると判定する。一致しない場合(ステップS505でNO)、ステップS501に戻り、次の動体領域に対する処理を行う。一方、一致する場合(ステップS505でYES)、設定制御部130が、動体領域に人体タグを付与する。
Next, in step S504, the setting
ステップS418の通過検知結果の統合処理の処理について、図6を用いて説明する。 The process of integrating the passage detection results in step S418 will be described with reference to FIG.
ステップS601で、通過検知判定部109が、全ての動体領域に対する処理が完了しているか否か判定する。処理が完了している場合(ステップS601でNO)、処理を終了する。一方、処理対象の動体領域が残っている場合、つまり、処理が完了していない場合(ステップS601でNO)、ステップS602で、通過検知判定部109が、動体が通過検知に寄与したか否かを判定する。この判定は、処理対象の動体領域に、動体通過検知フラグがONであるか否かで判定する。
In step S601, the passage
尚、この動体通過検知フラグは、処理対象の動体領域に付与される(ON)されるフラグである。動体領域が検出されると、この動体通過検知フラグは一旦ONに設定される。そして、その動体領域を通過検知に採用する(通過検知に寄与する)場合には、そのままONの状態が維持され、不採用とする場合にはOFFに設定される。 The moving object passage detection flag is a flag that is given (ON) to the moving object region to be processed. When the moving object region is detected, the moving object passage detection flag is once set to ON. When the moving object region is adopted for passage detection (contributes to passage detection), the ON state is maintained as it is, and when it is not adopted, it is set to OFF.
判定の結果、動体通過検知フラグがOFF、つまり、動体領域が通過検知に寄与していない場合(ステップS602でNO)、ステップS601に戻り、次の処理対象の動体領域について処理を実行する。一方、動体通過検知フラグがON、つまり、動体が通過検知に寄与している場合(ステップS602でYES)、ステップS603で、通過検知判定部109が、処理対象の動体領域に人体タグが付与されているか否かを判定する。人体タグが付与されていない場合(ステップS603でNO)、ステップS601に戻り、次の処理対象の動体領域について処理を実行する。一方、人体タグが付与されている場合(ステップS603でYES)、ステップS604で、通過検知判定部109が、動体通過検知フラグをOFFにする。その後、ステップS601に戻り、処理を続ける。即ち、動体領域が所定の検知線を通過したことを示す動体通過検知結果が得られた場合(ステップS602)、その動体通過検知結果が、人体領域に対応する動体領域が所定の検知線を通過したことにより得られたか否かを判定する(ステップS603)。この人体領域と動体領域の対応付けは、図5で説明したように、人体領域と動体領域との位置関係に基づいて判定される。
As a result of the determination, if the moving object passage detection flag is OFF, that is, if the moving object region does not contribute to the passage detection (NO in step S602), the process returns to step S601, and processing is performed for the next moving object region to be processed. On the other hand, if the moving object passage detection flag is ON, that is, if the moving object contributes to the passage detection (YES in step S602), in step S603, the passage
そして、人体領域に対応する動体領域が所定の検知線を通過したことにより動体通過検知結果が得られたと判定すると、ステップS604で、動体通過検知結果を無効にする。この場合、人体通過検知結果は有効のままである。 If it is determined that the moving body passage detection result has been obtained because the moving body region corresponding to the human body region has passed the predetermined detection line, the moving body passage detection result is invalidated in step S604. In this case, the human body passage detection result remains valid.
一方、人体領域に対応しない動体領域が所定の検知線を通過したことにより動体通過検知結果が得られたと判定すると、動体通過検知結果は無効にせず、有効のままにする。この場合も、人体通過検知結果は有効のままである。 On the other hand, if it is determined that a moving body passage detection result is obtained because a moving body region that does not correspond to the human body region has passed a predetermined detection line, the moving body passage detection result is not invalidated and remains valid. Also in this case, the human body passage detection result remains valid.
全ての動体領域に対して、ステップS418の処理終了後、動体通過検知フラグを確認する。指定した検知線に対して、通過検知に寄与した動体領域ないしは人体領域が、少なくとも一つ存在する場合には、当該検知線における通過検知が生じたと判定される。 For all moving object regions, the moving object passage detection flag is confirmed after the process of step S418 is completed. If there is at least one moving body region or human body region that contributes to passage detection with respect to the designated detection line, it is determined that passage detection has occurred in the detection line.
以上説明したように、実施形態1によれば、動体検出結果と人体検出結果を組み合わせて、通過検知の際には、それらの組み合わせあるいはいずれか一方を適応的に選択して、通過検知に利用することで、通過検知の精度を向上することができる。 As described above, according to the first embodiment, the moving object detection result and the human body detection result are combined, and at the time of passage detection, the combination or any one of them is adaptively selected and used for passage detection. By doing so, the accuracy of passage detection can be improved.
<実施形態2>
実施形態1では、人体検出が安定して成功する条件下で、人体通過検知と動体通過検知が重複した場合に、人体通過検知を優先する構成である。しかし、実際には、人体検出は常に成功するとは限らない。例えば、人物が撮像装置200の真下に近い場合や、人物が帽子やマスクを着用している場合等は、人体検出精度が低下する。そこで、実施形態2では、人体検出と人体通過検知に失敗した場合に、動体検出による通過検知で代替する構成について説明する。
<
In the first embodiment, the human body passage detection is prioritized when the human body passage detection and the moving body passage detection are overlapped under the condition that the human body detection is stable and successful. However, in practice, human detection is not always successful. For example, when a person is close to the
図7は人物が移動する場合を時系列で表わしたものである。説明を簡単化するために人物は1人としている。撮像画像を構成する時系列のフレーム群それぞれを特定するフレーム番号を「#」で示すとし、図7では、フレーム番号#001、#003、#006、及び#009のフレームを示している。 FIG. 7 shows a case where a person moves in time series. In order to simplify the explanation, one person is assumed. Assume that the frame number specifying each time-series frame group constituting the captured image is indicated by “#”, and in FIG. 7, the frames of frame numbers # 001, # 003, # 006, and # 009 are shown.
フレーム番号#001、#003、#006及び#009それぞれのフレームで、動体領域701、702、703及び704が検出される。一方、フレーム番号#001、#003、#009のそれぞれのフレームで、人体領域710、711及び713が検出される。フレーム番号#006のフレームでは、人物は画面に存在するが人体領域として検出されない。各フレームにおいて人体検出がなされると、実施形態1の構成に従って、動体領域に人体タグが付与される。その結果、フレーム番号#001、#003及び#009のフレームそれぞれの動体領域701、702及び704には、それぞれ人体タグ705、706及び707が付与される。フレーム番号#006では、人体が検出されないので、人体タグは付与されない。
Moving
フレーム#003のフレームの動体領域702で、動体通過検知イベントが生じた場合、動体領域702には人体タグ706が付与されていることから、それに対応する人体領域711が人体通過検知に寄与したかを確認する。人体領域711が人体通過検知に寄与した場合は、動体通過検知と重複したと判定できるので、動体領域703の動体通過検知フラグをOFFにし、人体通過検知を採用する。
When a moving object passage detection event occurs in the moving
一方、フレーム#006のフレームの動体領域703で、動体通過検知イベントが生じた場合、動体領域703には人体タグが付与されていないことから、動体通過検知が有効となる。
On the other hand, when a moving object passage detection event occurs in the moving
また、フレーム#009のフレームの動体領域704で、動体通過検知イベントが生じた場合、動体領域704は人体タグ707が付与されている。しかしながら、それに対応する人体領域713は、直前(あるいは従前)のフレーム#006で人体領域が検出されていないため、人体通過検知イベントが生じない。その結果、動体領域704に関する動体通過検知フラグはONのままとし、動体通過検知イベントは有効とする。
When a moving object passage detection event occurs in the moving
ところで、あるフレームにおいて人体領域が検出されなくても、従前のフレームで検出されている人体領域を利用することで、短期間の追尾を継続することは可能である。例えば、あるフレームで人体検出がなされない場合であっても、そのフレームよりも従前に検出されている所定数前のフレーム中の人体領域を残したまま追尾を継続することもできる。 By the way, even if the human body region is not detected in a certain frame, it is possible to continue tracking for a short time by using the human body region detected in the previous frame. For example, even when the human body is not detected in a certain frame, it is possible to continue tracking while leaving the human body region in a predetermined number of frames before that frame.
図7の例では、このフレームは人体領域712に該当する。但し、この場合は、人体領域が検出されたフレームに対してのみ人体通過検知判定を行うこととする。図7では、フレーム#006のフレームにおける人体領域712に対しては、通過検知処理を適用しない。これに対して、フレーム#009のフレームにおける人体領域713に対しては、通過検知処理を適用する。尚、追尾処理の結果、人体領域712と人体領域713が同一の人体領域と判定される場合、人体領域713は通過検知処理の検知対象となる。
In the example of FIG. 7, this frame corresponds to the
次に、本実施形態における動体・人体通過検知判定の統合処理の詳細を、図8を用いて説明する。 Next, details of the integration processing for moving body / human body passage detection determination in the present embodiment will be described with reference to FIG.
ステップS901で、通過検知判定部109が、全ての動体領域に対する処理が完了しているか否かを判定する。処理が完了している場合(ステップS901でNO)、処理を終了する。一方、処理対象の動体領域が残っている場合、つまり、処理が完了していない場合(ステップS901でNO)、ステップS902で、通過検知判定部109が、動体が通過検知に寄与したか否かを判定する。この判定は、処理対象の動体領域に、動体通過検知フラグがONであるか否かで判定する。
In step S901, the passage
判定の結果、動体通過検知フラグがOFF、つまり、動体領域が通過検知に寄与していない場合(ステップS902でNO)、ステップS901に戻り、次の処理対象の動体領域について処理を実行する。一方、動体通過検知フラグがON、動体が通過検知に寄与している場合(ステップS902でYES)、ステップS903で、通過検知判定部109が、処理対象の動体領域に人体タグが付与されているか否かを判定する。人体タグが付与されていない場合(ステップS903でNO)、ステップS901に戻り、次の処理対象の動体領域について処理を実行する。
As a result of the determination, if the moving object passage detection flag is OFF, that is, if the moving object region does not contribute to the passage detection (NO in step S902), the process returns to step S901, and the process is executed for the next moving object region to be processed. On the other hand, when the moving object passage detection flag is ON and the moving object contributes to the passage detection (YES in step S902), in step S903, the passage
一方、人体タグが付与されている場合(ステップS903でYES)、ステップS910で、通過検知判定部109が、人体タグが付与されている動体領域に対応する全ての人体領域に対する処理が完了したか否かを判定する。処理が完了している場合(ステップS910でYES)、ステップS901に戻り、次の処理対象の動体領域について処理を実行する。一方、処理が完了していない場合(ステップS910でNO)、ステップS911で、人体領域が人体通過検知に寄与したか否かを判定する。
On the other hand, if a human body tag has been assigned (YES in step S903), whether or not the passage
人体領域が通過検知に寄与していない場合(ステップS911でNO)、ステップS910に戻り、次の処理対象の人体領域について処理を実行する。一方、人体領域が通過検知に寄与している場合(ステップS911でYES)、ステップS912で、通過検知判定部109が、動体通過検知フラグをOFFにする。その結果、人体通過検知結果が採用される。その後、ステップS910に戻り、処理を続ける。
If the human body region does not contribute to the passage detection (NO in step S911), the process returns to step S910, and the process is executed for the next human body region to be processed. On the other hand, if the human body region contributes to the passage detection (YES in step S911), the passage
以上説明したように、実施形態2によれば、動体通過検知が生じた処理対象のフレームにおいて、動体領域に対応する人体領域が通過検知したか否かを判定する。これにより、人体検出に失敗した場合であっても、動体検出結果を用いて、通過検知を行うことができる。その結果、通過検知精度を確保しつつ、検知漏れを防止できる。 As described above, according to the second embodiment, it is determined whether or not the human body region corresponding to the moving body region has been detected to pass in the processing target frame in which the moving body passage detection has occurred. Thereby, even if it is a case where a human body detection fails, passage detection can be performed using a moving body detection result. As a result, it is possible to prevent omission of detection while ensuring passage detection accuracy.
<実施形態3>
実施形態3では、動体検出と人体検出の処理速度が異なる場合について説明する。
<
In the third embodiment, a case where the processing speeds of moving object detection and human body detection are different will be described.
例えば、人体検出処理が動体検出処理に比べて処理速度が遅く、動体検出処理2回ないしは3回に対して、人体検出処理1回の割合で処理が完了する例を考える。この場合、図7において、不図示のフレーム#002では、動体検出処理結果のみを得る。このとき生じた動体通過検知イベントは即座には発行せずに、後続のフレーム#003のフレームにおける次の人体検出まで待機する。
For example, consider a case where the human body detection process is slower than the moving body detection process, and the process is completed at a rate of one human body detection process for two or three times the moving body detection process. In this case, only the moving object detection processing result is obtained in frame # 002 (not shown) in FIG. The moving object passage detection event generated at this time is not issued immediately, but waits for the next human body detection in the frame of the
そして、フレーム#003のフレームで、動体検出、人体検出が実行される。フレーム#003のフレームの動体領域702に人体タグ706が付与される。その際に、不図示のフレーム#002のフレームにおける動体領域情報を保持しておき、この動体領域に対しても、人体検出結果711が対応するとして人体タグを付与する。そして、フレーム#003のフレームにおける人体検出結果711に対して人体通過検知判定を行う。もし人体通過を検出した場合には、フレーム#002、#003の動体通過検知フラグをOFFにする。
Then, moving body detection and human body detection are executed in
以上のように、実施形態3によれば、動体検出と人体検出の処理速度が異なり、通過検知出力を得る頻度が異なる場合でも、本発明を適用できる。その結果、動体通過検知と人体通過検知を組み合わせることによって検知精度を向上することができる。 As described above, according to the third embodiment, the present invention can be applied even when the processing speeds of the moving object detection and the human body detection are different and the frequency of obtaining the passage detection output is different. As a result, the detection accuracy can be improved by combining the moving body passage detection and the human body passage detection.
尚、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (13)
前記画像を構成するフレームから、動体及び人体それぞれを示す領域である動体領域及び人体領域を検出する検出手段と、
観測時刻の異なる画像のフレームを比較することで、それぞれのフレームから前記検出手段で検出される前記動体領域及び前記人体領域の少なくとも一方が、前記所定の線分を通過したことを検知する検知手段と、
前記検知手段によって、前記動体領域が前記所定の線分を通過したことを示す動体通過検知結果が得られる場合、前記人体領域に対応する動体領域が前記所定の線分を通過したことにより前記動体通過検知結果が得られたか否かを、前記人体領域と前記動体領域との位置関係に基づいて判定する判定手段と
を備えることを特徴とする画像処理装置。 An image processing apparatus for detecting that a moving body or a human body as a subject in an image passes a predetermined line segment,
Detecting means for detecting a moving body region and a human body region, which are regions indicating the moving body and the human body, from the frame constituting the image;
Detection means for detecting that at least one of the moving body area and the human body area detected by the detection means from each frame passes through the predetermined line segment by comparing frames of images having different observation times. When,
When the detection means obtains a moving body passage detection result indicating that the moving body region has passed the predetermined line segment, the moving body region corresponding to the human body region has passed the predetermined line segment, so An image processing apparatus comprising: a determination unit that determines whether or not a passage detection result is obtained based on a positional relationship between the human body region and the moving body region.
ことを特徴とする請求項1に記載の画像処理装置。 The determination means invalidates the moving body passage detection result when it is determined that the moving body passage detection result is obtained because the moving body region corresponding to the human body region passes the predetermined line segment. The image processing apparatus according to claim 1.
ことを特徴とする請求項1に記載の画像処理装置。 The determination means includes at least three sides of a circumscribed rectangle of the moving body region contributing to the moving body passage detection result and a circumscribed rectangle of the human body region contributing to the human body passage detection result included in the circumscribed rectangle of the moving body region. 2. The image processing apparatus according to claim 1, wherein in the case of coincidence, the moving object region corresponding to the human body region is determined to have obtained the moving object passage detection result by passing through the predetermined line segment.
ことを特徴とする請求項1に記載の画像処理装置。 The determination means includes at least three sides of a circumscribed rectangle of the moving body region contributing to the moving body passage detection result and a circumscribed rectangle of the human body region contributing to the human body passage detection result included in the circumscribed rectangle of the moving body region. If they do not match, it is determined that the moving body passage detection result has been obtained by passing a predetermined moving segment of the moving body region that does not correspond to the human body region, and the moving body passage detection result and the detection result are detected as the detection result of the detection means. The image processing apparatus according to claim 1, wherein both the human body passage detection results are validated.
ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 The detecting means detects a first human body region and a corresponding first moving body region in a first frame, does not detect a human body region in a subsequent second frame, and further detects a human body region in a subsequent third frame. When the second human body region and the first moving body region corresponding to the second human body region are detected and it is determined that the first human body region and the second human body region are the same, the detection unit includes: The image processing apparatus according to any one of claims 1 to 4, wherein the second human body region is a detection target.
前記人体検出処理によって前記人体領域が検出されるとともに、前記動体検出処理で前記動体領域が検出された場合に、前記判定手段は、前記人体領域が前記検知手段による前記人体通過検知結果に寄与するか否かに応じて、前記動体領域情報が示す動体領域を、前記検知手段による前記人体通過検知結果に寄与する動体領域であるか否かを判定する
ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 When the processing speed of the human body detection process of the human body region by the detection unit is slower than the processing speed of the moving body detection process of the moving body region, it is detected by the moving body detection process executed until the human body detection process is executed. Holding means for holding moving body area information related to the moving body area,
When the human body region is detected by the human body detection process and the moving body region is detected by the moving body detection process, the determination unit contributes to the human body passage detection result by the detection unit. 6. The method according to claim 1, further comprising: determining whether the moving body region indicated by the moving body region information is a moving body region contributing to the human body passage detection result by the detection unit. The image processing apparatus according to any one of the above.
ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 The predetermined line segment is a line segment formed by connecting a plurality of line segments or a part of a side forming a polygon. 7. Image processing apparatus.
前記画像を構成するフレームから、動体及び人体それぞれを示す領域である動体領域及び人体領域を検出する検出工程と、
観測時刻の異なる画像のフレームを比較することで、それぞれのフレームから前記検出工程で検出される前記動体領域及び前記人体領域の少なくとも一方が、前記所定の線分を通過したことを検知する検知工程と、
前記検知工程によって、前記動体領域が前記所定の線分を通過したことを示す動体通過検知結果が得られる場合、前記人体領域に対応する動体領域が前記所定の線分を通過したことにより前記動体通過検知結果が得られたか否かを、前記人体領域と前記動体領域との位置関係に基づいて判定する判定工程と
を備えることを特徴とする画像処理装置の制御方法。 A control method of an image processing apparatus for detecting that a moving object or a human body as a subject in an image passes a predetermined line segment,
A detection step of detecting a moving body region and a human body region, which are regions indicating the moving body and the human body, from the frame constituting the image;
A detection step of detecting that at least one of the moving body region and the human body region detected in the detection step from each frame passes through the predetermined line segment by comparing frames of images having different observation times. When,
When the moving step detection result indicating that the moving body region has passed the predetermined line segment is obtained by the detection step, the moving body region corresponding to the human body region has passed the predetermined line segment, so that the moving body is And a determination step of determining whether or not a passage detection result has been obtained based on a positional relationship between the human body region and the moving body region.
ことを特徴とする請求項8に記載の画像処理装置の制御方法。 The determination step includes at least three sides of a circumscribed rectangle of the moving body region contributing to the moving body region detection result and a circumscribed rectangle of the human body region included in the circumscribed rectangle of the moving body region and contributing to the human body passage detection result. The image processing apparatus according to claim 8, wherein, when they match, it is determined that the moving object passage detection result is obtained by moving the moving object region corresponding to the human body region through the predetermined line segment. Control method.
ことを特徴とする請求項8に記載の画像処理装置の制御方法。 The determination step includes at least three sides of a circumscribed rectangle of the moving body region contributing to the moving body region detection result and a circumscribed rectangle of the human body region included in the circumscribed rectangle of the moving body region and contributing to the human body passage detection result. If they do not match, it is determined that the moving body passage detection result has been obtained by passing a predetermined moving segment of the moving body region that does not correspond to the human body region, and as the detection result of the detection step, the moving body passage detection result and the The method for controlling an image processing apparatus according to claim 8, wherein both of the human body passage detection results are validated.
ことを特徴とする請求項8乃至10のいずれか1項に記載の画像処理装置の制御方法。 The detecting step detects a first human body region and a corresponding first moving body region in a first frame, does not detect a human body region in a subsequent second frame, and further detects in a subsequent third frame. When the second human body region and the first moving body region corresponding to the second human body region are detected and it is determined that the first human body region and the second human body region are the same, the detection step includes: The method of controlling an image processing apparatus according to any one of claims 8 to 10, wherein the second human body region is a detection target.
前記人体検出処理によって前記人体領域が検出されるとともに、前記動体検出処理で前記動体領域が検出された場合に、前記判定工程は、前記人体領域が前記検知工程による前記人体通過検知結果に寄与するか否かに応じて、前記動体領域情報が示す動体領域を、前記検知工程による前記人体通過検知結果に寄与する動体領域であるか否かを判定する
ことを特徴とする請求項8乃至11のいずれか1項に記載の画像処理装置の制御方法。 When the processing speed of the human body detection process of the human body region by the detection step is slower than the processing speed of the moving body detection process of the moving body region, it is detected by the moving body detection process executed until the human body detection process is executed. A holding process for holding the moving body area information on the moving body area in the storage medium,
When the human body region is detected by the human body detection process and the moving body region is detected by the moving body detection process, the determination step contributes to the human body passage detection result by the detection step. It is determined whether the moving body area | region which the said moving body area | region information shows according to whether it is a moving body area | region which contributes to the said human body passage detection result by the said detection process is characterized by the above-mentioned. The control method of the image processing apparatus of any one of Claims.
前記コンピュータを、
前記画像を構成するフレームから、動体及び人体それぞれを示す領域である動体領域及び人体領域を検出する検出手段と、
観測時刻の異なる画像のフレームを比較することで、それぞれのフレームから前記検出手段で検出される前記動体領域及び前記人体領域の少なくとも一方が、前記所定の線分を通過したことを検知する検知手段と、
前記検知手段によって、前記動体領域が前記所定の線分を通過したことを示す動体通過検知結果が得られる場合、前記人体領域に対応する動体領域が前記所定の線分を通過したことにより前記動体通過検知結果が得られたか否かを、前記人体領域と前記動体領域との位置関係に基づいて判定する判定手段と
して機能させることを特徴とするプログラム。 A program for causing a computer to control the control of an image processing device that detects that a moving object or a human body that is a subject in an image passes a predetermined line segment,
The computer,
Detecting means for detecting a moving body region and a human body region, which are regions indicating the moving body and the human body, from the frame constituting the image;
Detection means for detecting that at least one of the moving body area and the human body area detected by the detection means from each frame passes through the predetermined line segment by comparing frames of images having different observation times. When,
When the detection means obtains a moving body passage detection result indicating that the moving body region has passed the predetermined line segment, the moving body region corresponding to the human body region has passed the predetermined line segment, so A program that functions as a determination unit that determines whether a passage detection result is obtained based on a positional relationship between the human body region and the moving body region.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013184340A JP2015052849A (en) | 2013-09-05 | 2013-09-05 | Image processing apparatus, control method therefor, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013184340A JP2015052849A (en) | 2013-09-05 | 2013-09-05 | Image processing apparatus, control method therefor, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2015052849A true JP2015052849A (en) | 2015-03-19 |
Family
ID=52701855
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013184340A Pending JP2015052849A (en) | 2013-09-05 | 2013-09-05 | Image processing apparatus, control method therefor, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2015052849A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018151940A (en) * | 2017-03-14 | 2018-09-27 | 株式会社デンソーテン | Obstacle detection device and obstacle detection method |
| JP2021057058A (en) * | 2019-05-21 | 2021-04-08 | 株式会社スパイシードローンキッチン | Video processing system, video processing method, and video processor using unmanned mobile body |
| WO2023204193A1 (en) * | 2022-04-19 | 2023-10-26 | 株式会社Nttドコモ | Object detection device |
-
2013
- 2013-09-05 JP JP2013184340A patent/JP2015052849A/en active Pending
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018151940A (en) * | 2017-03-14 | 2018-09-27 | 株式会社デンソーテン | Obstacle detection device and obstacle detection method |
| JP2021057058A (en) * | 2019-05-21 | 2021-04-08 | 株式会社スパイシードローンキッチン | Video processing system, video processing method, and video processor using unmanned mobile body |
| JP7355390B2 (en) | 2019-05-21 | 2023-10-03 | 株式会社スパイシードローンキッチン | Video processing device, video processing method, and video processing program |
| WO2023204193A1 (en) * | 2022-04-19 | 2023-10-26 | 株式会社Nttドコモ | Object detection device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6650677B2 (en) | Video processing apparatus, video processing method, and program | |
| JP6950692B2 (en) | People flow estimation device, people flow estimation method and program | |
| JP5567853B2 (en) | Image recognition apparatus and method | |
| Wu et al. | Number it: Temporal grounding videos like flipping manga | |
| KR101381455B1 (en) | Biometric information processing device | |
| KR101492180B1 (en) | Video analysis | |
| JP5959951B2 (en) | Video processing apparatus, video processing method, and program | |
| JP6587435B2 (en) | Image processing apparatus, information processing method, and program | |
| US10235607B2 (en) | Control device, control method, and computer program product | |
| JP2018061114A (en) | Monitoring device and monitoring method | |
| JP5247569B2 (en) | Person tracking device, person tracking method and program | |
| JP2015219879A (en) | Image recognition system, image recognition method, and program | |
| JP2015052849A (en) | Image processing apparatus, control method therefor, and program | |
| JP5025292B2 (en) | Suspicious person detection system and method | |
| KR102344227B1 (en) | Moving body detecting device, moving body detecting method, and moving body detecting program | |
| JP2012079340A (en) | Suspicious object detection system, suspicious object detection device, suspicious object detection method and program | |
| JP6741079B2 (en) | Flow line synthesizer, flow line synthesis method and program | |
| US20160188856A1 (en) | Authentication device, authentication method, and non-transitory computer readable medium | |
| JP5376403B2 (en) | Video display device and program | |
| JP2014096057A (en) | Image processing apparatus | |
| JP2009205617A (en) | Security device, and security system update method | |
| US20230196773A1 (en) | Object detection device, object detection method, and computer-readable storage medium | |
| KR102848233B1 (en) | Apparatus and Method for Detecting Pedestrians based on Self-Emphasis | |
| US20210166012A1 (en) | Information processing apparatus, control method, and non-transitory storage medium | |
| US9959460B2 (en) | Re-wandering alarm system and method |