[go: up one dir, main page]

JP2012212239A - Moving-body monitoring system - Google Patents

Moving-body monitoring system Download PDF

Info

Publication number
JP2012212239A
JP2012212239A JP2011076553A JP2011076553A JP2012212239A JP 2012212239 A JP2012212239 A JP 2012212239A JP 2011076553 A JP2011076553 A JP 2011076553A JP 2011076553 A JP2011076553 A JP 2011076553A JP 2012212239 A JP2012212239 A JP 2012212239A
Authority
JP
Japan
Prior art keywords
image
area
data
index
index band
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011076553A
Other languages
Japanese (ja)
Inventor
Satoshi Ohashi
聰 大橋
良太 ▲じん▼亭
Ryoma Jintei
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka Gas Co Ltd
Original Assignee
Osaka Gas Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka Gas Co Ltd filed Critical Osaka Gas Co Ltd
Priority to JP2011076553A priority Critical patent/JP2012212239A/en
Publication of JP2012212239A publication Critical patent/JP2012212239A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a moving-body monitoring system capable of effectively detecting the movement of an object with respect to an approach monitoring area and monitoring the moving-body with a small processing load.SOLUTION: A moving-body monitoring system comprises: an image extraction part for extracting a first image area which is the image area of a first indicator zone optionally set outside an approach monitoring area within a camera photographic field and a second image area which is the image area of a second indicator zone optionally set between the approach monitoring area and the first indicator zone from a photographed image; a feature amount calculation part for calculating first and second image feature data which are the respective image feature amounts of the first and second image areas; an evaluation data calculation part for calculating object movement evaluation data for evaluating object movement with respect to the approach monitoring area on the basis of the first and second image feature data; and an object movement estimation part for estimating one or both of the approach and exit of the object with respect to the approach monitoring area on the basis of the temporal change of the object movement evaluation data.

Description

本発明は、カメラによる撮影画像を用いて進入監視エリアに対する物体の移動を監視する移動物体監視システムに関する。   The present invention relates to a moving object monitoring system that monitors the movement of an object relative to an approach monitoring area using an image captured by a camera.

監視カメラを用いて得られた複数のデジタル撮影画像を演算することによって、この監視領域内での移動物体の監視を行なう画像監視装置が特許文献1に記載されている。この装置では、入力された撮影画像の差分画像を算出し、この算出した差分画像を2値化して差分2値化画像を生成し、この生成した差分2値化画像から変化領域を検出し、この検出した変化領域を移動物体としてその変化領域の濃淡パターンを記憶手段に記憶し、所定時間経過後に前記監視カメラから入力された撮影画像における前記移動物体の存在した位置の周辺において、当該撮影画像の濃淡パターンと前記記憶手段内の濃淡パターンとを比較することによって、類似度の高い領域を抽出して前記移動物体と判定することにより前記移動物体を追跡することができる。つまり、移動物体の動きを解析するために、ある時刻の撮影画像で移動物体を抽出し、それ以降の時刻の画像でその移動物体の対応する領域を抽出することになる。従って、最初に抽出された移動物体の監視領域のおける位置がそれほど重要でない位置であったとしても、その移動物体を追跡するという無駄が生じうる。   Patent Document 1 discloses an image monitoring apparatus that monitors a moving object in a monitoring area by calculating a plurality of digitally captured images obtained using a monitoring camera. In this apparatus, a difference image of the input captured image is calculated, the calculated difference image is binarized to generate a difference binarized image, a change area is detected from the generated difference binarized image, The detected change area is used as a moving object, and the shading pattern of the change area is stored in a storage unit. The moving object can be tracked by extracting a region having a high degree of similarity and determining the moving object by comparing the gray pattern and the gray pattern in the storage means. That is, in order to analyze the movement of the moving object, the moving object is extracted from the captured image at a certain time, and the corresponding region of the moving object is extracted from the image at the subsequent time. Therefore, even if the position in the monitoring area of the moving object extracted first is a position that is not so important, there is a waste of tracking the moving object.

さらに、撮影画像濃度の差分演算結果を用いて人間を含む移動物体の動きを検出して移動物体の入退室を検出する入退室検知装置が特許文献2に記載されている。この装置は、人を含む移動物体の動きを検出して移動物体の入退室を検出する入退室検知装置であって、画像入力装置から入力された処理画像データと、処理画像データの入力より前に入力され保持されていた基準画像データとの差分データを求める差分検出部と、差分データを基に所定のデータ解析処理を実行し、解析データを抽出する画像処理部と、解析データに基づいて移動物体の位置検出を行う位置検出部と、時間的に相前後して処理された処理画像データの前記解析データまたは位置情報に基づいて移動物体の動きを検出する動き検出部と、動物体の位置検出部で検出された位置情報と動き検出部で検出された動き情報に基づいて、画像入力装置の撮像範囲内における入室方向の移動、退室方向の移動、及び、入室及び退室方向間のUターン移動を区別して移動物体の入退室を判定する入退室判定部とを備えている。ここで、差分検出部は、画像入力装置から入力された画像データを保持するとともに、入力された画像データの内の最新に入力された処理画像データと、それより前に入力され保持されていた基準画像データとの差分データを生成する。基準画像データは、「初期画像入力モード」において、画像入力装置で撮像され、差分検出部に入力され、差分検出部内の画像メモリに保存された初期画像が使用される。「初期画像入力モード」においては、基準画像データ取得後の動作は行わない。「初期画像入力モード」から「動作モード」にモード変更の後、差分検出部に、「初期画像入力モード」時に取得した基準画像データと最新の入力された処理画像データとの間で絶対差分の値を計算により求めた差分データを生成し、画像処理部へ出力する。従って、この装置においても、毎回入力された撮影画像と、予め入力され保持されていた基準画像との差分データを求めるので、移動物体の動き検出のための処理負担が大きくなる。   Further, Patent Document 2 describes an entrance / exit detection device that detects the entrance / exit of a moving object by detecting the movement of a moving object including a human using the difference calculation result of the captured image density. This device is an entrance / exit detection device that detects the entrance / exit of a moving object by detecting the movement of a moving object including a person, and includes processing image data input from the image input device and input of the processing image data. Based on the analysis data, a difference detection unit that obtains difference data from the reference image data that has been input and held, an image processing unit that executes predetermined data analysis processing based on the difference data, and extracts analysis data A position detection unit for detecting the position of the moving object, a motion detection unit for detecting the movement of the moving object based on the analysis data or the position information of the processed image data processed in tandem with each other, Based on the position information detected by the position detector and the motion information detected by the motion detector, the movement in the entry direction, the movement in the exit direction within the imaging range of the image input device, and between the entrance and exit directions And a entry and exit determination portion determines the entry and exit of the moving object to distinguish U-turn movement. Here, the difference detection unit holds the image data input from the image input device, the processed image data input latest among the input image data, and input and held before that. Difference data with reference image data is generated. In the “initial image input mode”, the reference image data is captured by the image input device, input to the difference detection unit, and the initial image stored in the image memory in the difference detection unit is used. In the “initial image input mode”, the operation after obtaining the reference image data is not performed. After changing the mode from the “initial image input mode” to the “operation mode”, the difference detection unit calculates an absolute difference between the reference image data acquired in the “initial image input mode” and the latest input processed image data. Difference data obtained by calculating the value is generated and output to the image processing unit. Therefore, in this apparatus as well, since difference data between the captured image input every time and the reference image input and held in advance is obtained, the processing load for detecting the motion of the moving object increases.

特開平6‐231252号公報(段落番号〔0016−0024〕、図2)Japanese Patent Laid-Open No. 6-231252 (paragraph number [0016-0024], FIG. 2) 特開2006‐107060号公報(段落番号〔0011−0053〕、図1)Japanese Patent Laying-Open No. 2006-107060 (paragraph number [0011-0053], FIG. 1)

上記実情に鑑み、所定の進入監視エリアに対する物体の移動を効果的に検知して、小さな処理負担で移動物体を監視できる移動物体監視システムが望まれている。   In view of the above circumstances, there is a demand for a moving object monitoring system that can effectively detect the movement of an object relative to a predetermined approach monitoring area and monitor the moving object with a small processing burden.

カメラによる撮影画像を用いて進入監視エリアに対する物体の移動を監視する、本発明による移動物体監視システムは、前記カメラの撮影視野内で前記進入監視エリアの外側に任意に設定される第1指標帯の画像領域である第1画像領域を前記撮影画像から抽出するとともに、前記カメラの撮影視野内で前記進入監視エリアと前記第1指標帯との間に任意に設定される第2指標帯の画像領域である第2画像領域を前記撮影画像から抽出する画像抽出部と、前記第1画像領域の画像特徴量である第1画像特徴データを算定するとともに、前記第2画像領域の画像特徴量である第2画像特徴データを算定する特徴量算定部と、前記第1画像特徴データと前記第2画像特徴データとに基づいて前記進入監視エリアに対する物体移動を評価するための物体移動評価データを演算する評価データ演算部と、前記物体移動評価データの経時変化に基づいて前記進入監視エリアへの物体の進入又は退出あるいはその両方を推定する物体移動推定部と、を備えている。   The moving object monitoring system according to the present invention for monitoring the movement of an object with respect to an approach monitoring area using a photographed image by a camera is a first index band arbitrarily set outside the approach monitoring area within the photographing field of view of the camera. A first image area that is an image area of the second index band is extracted from the captured image and is arbitrarily set between the approach monitoring area and the first index band within the field of view of the camera. An image extraction unit that extracts a second image area that is an area from the captured image, calculates first image feature data that is an image feature quantity of the first image area, and uses the image feature quantity of the second image area. A feature amount calculation unit for calculating certain second image feature data, and for evaluating object movement with respect to the approach monitoring area based on the first image feature data and the second image feature data. An evaluation data calculation unit that calculates body movement evaluation data, and an object movement estimation unit that estimates the entry and / or exit of an object to and from the entry monitoring area based on a change over time of the object movement evaluation data. Yes.

この構成によると、物体移動の評価に関しては、撮影画像全体を処理対象とするのではなく、前もって進入監視エリア周辺の任意位置に設定された指標帯の画像領域だけが処理対象となる。撮影画像から抽出することで処理対象となった画像領域、つまり第1画像領域と第2画像領域からそれぞれ画像特徴量を算定し、それぞれの画像特徴量を入力パラメータとして演算することで、進入監視エリアに対する物体移動を評価するための物体移動評価データを導出する。この物体移動評価データは経時的に順次導出され、それらの経時的な物体移動評価データの変化から監視エリアへの物体の進入又は退出あるいはその両方を推定される。ここで扱われる画像特徴量としては、カメラと指標帯との間に物体が存在することで変化するものが適している。そのような画像特徴量として、画素濃度値、ノードヒストグラム、色分布値、などが挙げられる。第1指標帯と第2指標帯のそれぞれに対応する各画像領域の画像特徴量を比較することでその撮影時点での進入監視エリア周辺における物体の存在又は非存在の情報としての物体移動評価データが得られる。従って、この物体移動評価データを経時的に求め、その経時的な変化から、物体が第1と第2の指標帯を経て進入監視エリアに進入すること、あるいは進入監視エリアから第1と第2の指標帯を経て退出することを推定することができる。また、第1画像領域、第2画像領域は進入監視エリアに対して設けられる指標体でその位置が特定されるため、指標体の設置で監視対象となる第1画像領域、第2画像領域を特定できる。   According to this configuration, with respect to the evaluation of the object movement, the entire captured image is not processed, but only the image area of the index band set in advance at an arbitrary position around the approach monitoring area is processed. The image feature amount is calculated from the image area extracted from the captured image, that is, the first image area and the second image area, and the image feature amount is calculated as an input parameter, thereby monitoring the approach. The object movement evaluation data for evaluating the object movement with respect to the area is derived. The object movement evaluation data is sequentially derived with time, and the approach and / or exit of the object to / from the monitoring area is estimated from the change in the object movement evaluation data with time. As the image feature amount handled here, an image feature amount that changes due to the presence of an object between the camera and the index band is suitable. Examples of such image feature amounts include pixel density values, node histograms, color distribution values, and the like. Object movement evaluation data as information on the presence or absence of an object in the vicinity of the approach monitoring area at the time of photographing by comparing the image feature amounts of the image areas corresponding to the first index band and the second index band, respectively. Is obtained. Therefore, the object movement evaluation data is obtained over time, and from the change over time, the object enters the approach monitoring area via the first and second indicator bands, or the first and second from the approach monitoring area. It can be estimated that the vehicle exits through the indicator band. In addition, since the position of the first image area and the second image area is specified by the index body provided for the approach monitoring area, the first image area and the second image area to be monitored by the installation of the index body are determined. Can be identified.

本発明では、進入監視エリア周辺に設定された第1指標帯と第2指標帯のそれぞれに対応する、撮影画像の第1画像領域と第2画像領域とが処理対象となるので、撮影画像における第1画像領域と第2画像領域のそれぞれの位置が重要となる。このため、本発明の好適な実施形態の1つでは、前記第1指標帯を規定する第1指標帯部材と前記第2指標帯を規定する第2指標帯部材が前記進入監視エリアの床面に任意に設置可能な部材であり、前記撮影画像に写り込んだ第1指標帯部材及び前記第2指標帯部材から前記撮影画像における前記第1画像領域及び前記第2画像領域の位置を設定する指標位置設定部が備えられている。この構成では、移動物体監視を実行する前に、物体の侵入を監視する必要がある進入監視エリアの周辺内側に第2指標帯部材を、そして第2指標帯部材の外側に第1指標帯部材を配置し、その状態で第1指標帯部材と第2指標帯部材を含む撮影画像からその撮影画像における第1指標帯部材の位置(第1画像領域の位置)と第2指標帯部材の位置(第2画像領域の位置)を設定しておく。当該位置を前もって設定しておくことで、後はその位置を用いて撮影画像から第1画像領域と第2画像領域をと抽出することができる。また、指標帯部材を床面(又は路面))に貼り付けるテープのような部材で構成すると、その貼り変えが簡単となり、進入監視エリアの変更に簡単に応じることができる。   In the present invention, the first image area and the second image area of the captured image corresponding to the first index band and the second index band set around the approach monitoring area are the processing targets. The positions of the first image area and the second image area are important. For this reason, in one preferred embodiment of the present invention, the first index band member that defines the first index band and the second index band member that defines the second index band are the floor surface of the approach monitoring area. The position of the first image area and the second image area in the captured image is set from the first index band member and the second index band member reflected in the captured image. An index position setting unit is provided. In this configuration, before executing the moving object monitoring, the second indicator band member is disposed inside the periphery of the approach monitoring area where it is necessary to monitor the intrusion of the object, and the first indicator band member is disposed outside the second index band member. In this state, from the captured image including the first index band member and the second index band member, the position of the first index band member (position of the first image region) and the position of the second index band member in the captured image (The position of the second image area) is set in advance. By setting the position in advance, the first image area and the second image area can be extracted from the captured image using the position. Moreover, if it comprises a member like a tape affixed to a floor surface (or road surface), an indicator belt member will become simple and the change of an entrance monitoring area can be responded easily.

この撮影画像における第1画像領域と第2画像領域が照明やその他の撮影条件によって不明瞭となることを回避するためには、使用しているカメラにとって第1指標帯部材や第2指標帯部材が写し出しやすいことが必要である。このため、本発明の好適な実施形態では、前記第1指標帯部材や第2指標帯部材が再帰性反射材又は蛍光材で構成されている。カメラ側に照明光源がある場合、再帰性反射材は、入射光を光源の方向にまっすぐ戻す機能を有するので、カメラ側から照射された照明光を良好にカメラに戻すことが可能となり、明確な第1画像領域と第2画像領域とが得られる。また、カメラ側に照明光源がない場合、明確な第1画像領域と第2画像領域とが得られ、移動物体によって遮られると大きな明度差で物体の影響を検知することができる。   In order to prevent the first image region and the second image region in the captured image from becoming unclear due to illumination or other imaging conditions, the first index band member and the second index band member for the camera being used. Must be easy to project. For this reason, in a preferred embodiment of the present invention, the first index band member and the second index band member are made of a retroreflective material or a fluorescent material. When there is an illumination light source on the camera side, the retroreflective material has a function to return the incident light straight in the direction of the light source, so that it is possible to return the illumination light irradiated from the camera side to the camera satisfactorily. A first image area and a second image area are obtained. In addition, when there is no illumination light source on the camera side, a clear first image region and second image region are obtained, and when blocked by a moving object, the influence of the object can be detected with a large brightness difference.

一般的なカメラによって取得される撮影画像は、明るさの度合いである濃度値を画素単位で表したものであることから、第1画像領域や第2画像領域から算定される画像特徴量を各画像領域の濃度分布とすると好都合である。例えば、第1指標帯や第2指標帯とカメラとの間の空間に物体が存在する場合と存在しない場合によってその濃度分布は変化するので、この濃度分布を示す画像特徴データが、実質的にそのまま、進入監視エリアに対する物体移動を評価するための物体移動評価データとして利用することができる。   Since a captured image acquired by a general camera represents a density value, which is a degree of brightness, in units of pixels, an image feature amount calculated from the first image region or the second image region is set for each image feature amount. It is convenient to use the density distribution of the image area. For example, since the density distribution changes depending on whether or not an object exists in the space between the first index band or the second index band and the camera, the image feature data indicating this density distribution is substantially As it is, it can be used as object movement evaluation data for evaluating object movement with respect to the approach monitoring area.

前記第1画像領域と前記第2画像領域は互いに平行に所定方向に延びているとすれば、画像特徴データはより具体的な形態、好ましくは、画像領域を所定方向に区分けされた区画毎の濃度値から構成されるものとして生成することができる。なお、ここでの「平行に所定方向に延びている」という記載は、互いの間隔が実質的に等しいという意味であり、第1画像領域と第2画像領域が同軸心配置された外周側セグメントと内周側セグメントであってもよい。   Assuming that the first image area and the second image area extend in a predetermined direction in parallel to each other, the image feature data has a more specific form, preferably for each section in which the image area is divided in the predetermined direction. It can be generated as comprising density values. Here, the phrase “extending in parallel in a predetermined direction” means that the distance between them is substantially equal, and the first image area and the second image area are coaxially arranged on the outer peripheral side segment. And an inner peripheral segment.

本発明の好適な実施形態の1つでは、物体移動評価データは、第1画像特徴データと第2画像特徴データとの差分値データである。物体が第1指標帯と第2指標帯との間に存在する場合、第1画像特徴データと第2画像特徴データとの差分値データから物体がどちらの指標帯に大きな影響を与えているか、つまりどちらの指標帯に接近しているかという情報がこの差分値データから得ることができる。   In one preferred embodiment of the present invention, the object movement evaluation data is difference value data between the first image feature data and the second image feature data. If the object exists between the first index band and the second index band, which index band the object has a large influence from the difference value data between the first image feature data and the second image feature data, That is, information indicating which index band is approaching can be obtained from the difference value data.

進入監視エリアの周辺における移動物体の検出原理を図解した模式図である。It is the model which illustrated the detection principle of the moving object in the periphery of an approach monitoring area. 本発明による移動物体監視システムの全体構成の一例とその機能ブロックを示す模式図である。It is a schematic diagram which shows an example of the whole structure of the moving object monitoring system by this invention, and its functional block. 人が進入監視エリアに進入してきた場合の、移動物体監視システムにおける移動物体検出を図解する説明図である。It is explanatory drawing illustrating the moving object detection in a moving object monitoring system when a person enters into an approach monitoring area. 人が進入監視エリアに進入してきた場合の、移動物体監視システムにおける移動物体検出の経時な変動を図解する説明図である。It is explanatory drawing which illustrates the time-dependent fluctuation | variation of the moving object detection in a moving object monitoring system when a person enters the approach monitoring area.

本発明による移動物体監視システムの実施形態を説明する前に、図1を用いてこの移動物体監視システムで採用されている移動物体監視の基礎原理を説明する。
まず、この移動物体監視システムでは、移動物体の進入を監視する必要のある特定のエリア(ここでは進入監視エリアと称する)の外側周囲に指標帯を設定する(#01)。この指標帯は、進入監視エリアへの進入方向で少なくとも2つ設定される。図1の例では、進入監視エリアから遠い方の第1指標帯と近い方の第2指標帯との2つが設定されている。つまり、第2指標帯は第1指標帯と進入監視エリアとの間に設定されており、外部から物体が進入監視エリアに進入する場合には、第1指標帯を通過し、その後さらに第2指標帯を通過して、進入監視エリアに達することになる。この移動物体監視システムで処理される撮影画像を取得するカメラは、第1指標帯、第2指標帯、進入監視エリアがその撮影視野内に入るように上方位置に配置されている(#02)。進入監視エリアは、その全てでなく部分的に撮影視野内に入るだけでもよい。基本的には、進入してくる移動物体がカメラと指標帯の間に位置するように指標帯を配置するので、床面などの監視空間の境界面に設定すると好都合である。なお、指標帯は床面に自在に貼り付けられるテープのような部材であってもよいし、実態としては存在せずに床面に論理的に規定された仮想的な区画であってもよい。
Before describing an embodiment of a moving object monitoring system according to the present invention, the basic principle of moving object monitoring employed in this moving object monitoring system will be described with reference to FIG.
First, in this moving object monitoring system, an index band is set around the outside of a specific area (herein referred to as an entry monitoring area) where it is necessary to monitor the approach of a moving object (# 01). At least two index bands are set in the approach direction to the approach monitoring area. In the example of FIG. 1, two of the first index band far from the approach monitoring area and the second index band nearer are set. That is, the second index band is set between the first index band and the approach monitoring area. When an object enters the approach monitoring area from the outside, the second index band passes through the first index band, and then the second index band. It will pass through the indicator band and reach the approach monitoring area. The camera that acquires the captured image processed by the moving object monitoring system is arranged at an upper position so that the first index band, the second index band, and the approach monitoring area are within the imaging field of view (# 02). . The approach monitoring area may be partially within the field of view of the image, not all of it. Basically, since the index band is arranged so that the moving object that enters is positioned between the camera and the index band, it is convenient to set it on the boundary surface of the monitoring space such as the floor surface. The index band may be a member such as a tape that can be freely attached to the floor surface, or may be a virtual section logically defined on the floor surface that does not actually exist. .

このように配置されたカメラによって取得された撮影画像には第1指標帯及び第2指標帯が含まれている。この撮影画像における第1指標帯と第2指標帯の画像領域である第1画像領域及び第2画像領域を撮影画像から簡単に抽出するために、撮影画像における座標位置を算定しておく。このため、前処理として、オペレータが撮影画像を見ながら第1画像領域及び第2画像領域を選択して、その座標位置を画像抽出用位置情報として登録しておく。ここで登録された座標位置は、カメラの位置・姿勢や両指標帯の位置を変更しない限り有効となる。   The captured image acquired by the cameras arranged in this way includes the first index band and the second index band. In order to easily extract the first image area and the second image area, which are the image areas of the first index band and the second index band in the captured image, from the captured image, the coordinate positions in the captured image are calculated. Therefore, as preprocessing, the operator selects the first image region and the second image region while viewing the captured image, and the coordinate position is registered as image extraction position information. The coordinate positions registered here are valid as long as the position / posture of the camera and the positions of both index bands are not changed.

移動物体監視システムによる監視処理が実行されると、カメラから経時的に撮影画像が送られる。入力された撮影画像から第1指標帯の画像領域である第1画像領域と、第2指標帯の画像領域である第2画像領域とを抽出する(#03)。第1画像領域の画像特徴量である第1画像特徴データを算定するとともに、前記第2画像領域の画像特徴量である第2画像特徴データを算定する(#04)。ここで扱われる画像特徴量としては、カメラの撮影方向に関して指標帯が移動物体によって遮られた場合に変化が生じるものであればよい。その代表的なものとして、例えば、各画素の輝度値とも呼ばれる濃度値の集まり、つまり濃度分布が挙げられる。その際、濃度分布は画像領域の位置単位の濃度値の集まりであってもよいし、濃度ヒストグラムのようなものであってもよい。また、移動物体によっては、画像特徴量として色相などの色情報を用いることも可能である。さらに、監視すべき物体の画像的特徴が定まっていれば、それに適合する画像特徴量を採用するとよい。人間のような物体を監視する際には、空間位置と対応した濃度画素値の分布が適しているが、都市ガスや二酸化炭素などの気体では濃度ヒストグラムが適する可能性もあるからである。   When monitoring processing by the moving object monitoring system is executed, captured images are sent from the camera over time. A first image area that is an image area of the first index band and a second image area that is an image area of the second index band are extracted from the input captured image (# 03). First image feature data that is an image feature amount of the first image region is calculated, and second image feature data that is an image feature amount of the second image region is calculated (# 04). The image feature amount handled here may be any as long as it changes when the index band is blocked by the moving object with respect to the shooting direction of the camera. A typical example is a collection of density values, also called luminance values of each pixel, that is, a density distribution. In this case, the density distribution may be a collection of density values in position units of the image area, or may be a density histogram. Also, depending on the moving object, color information such as hue can be used as the image feature amount. Furthermore, if the image feature of the object to be monitored is determined, an image feature amount suitable for it may be adopted. This is because when monitoring an object such as a human, the distribution of density pixel values corresponding to the spatial position is suitable, but a density histogram may be suitable for gases such as city gas and carbon dioxide.

ここで得られる第1画像特徴データは第1画像領域つまりは第1指標帯の画像特徴量であり、第2画像特徴データは第2画像領域つまりは第2指標帯の画像特徴量であり、かつ第1指標帯と第2指標帯とは進入監視エリアに対して遠近関係で配置されていることから、第1画像特徴データと第2画像特徴データとに基づいて、進入監視エリアに対する物体の移動を評価することができる。例えば、第1指標帯が物体によって遮られ、第2指標帯は当該物体によって遮られなった場合、第1画像特徴データと第2画像特徴データとを比較することで、第1指標帯に及ぼした移動物体の影響度を算定することができる。つまり、移動物体が第1指標帯に入り込んだことが推定される。その後、第1指標帯と第2指標帯とが物体によって遮られた場合、第1指標帯と第2指標帯に及ぼした移動物体の影響度がほぼ同じになるので、第1指標帯に入り込んだ移動物体がさらに第2指標帯にまで入り込んだことが推定される。このように第1画像特徴データと前記第2画像特徴データとを演算すると、この演算結果から、進入監視エリアに対する物体移動を評価するための物体移動評価データを得ることができる(#05)。   The first image feature data obtained here is an image feature quantity of the first image area, that is, the first index band, and the second image feature data is an image feature quantity of the second image area, that is, the second index band, In addition, since the first index band and the second index band are arranged in a perspective relationship with respect to the approach monitoring area, an object of the approach monitoring area is based on the first image feature data and the second image feature data. Travel can be evaluated. For example, when the first index band is blocked by an object and the second index band is blocked by the object, the first index feature data is compared with the second image feature data to affect the first index band. The influence of moving objects can be calculated. That is, it is estimated that the moving object has entered the first index zone. After that, when the first index band and the second index band are obstructed by the object, the influence degree of the moving object exerted on the first index band and the second index band becomes almost the same, so the first index band enters the first index band. It is estimated that the moving object has further entered the second index zone. When the first image feature data and the second image feature data are calculated in this way, the object movement evaluation data for evaluating the object movement with respect to the approach monitoring area can be obtained from the calculation result (# 05).

この第1画像特徴データと第2画像特徴データとから物体移動評価データを得る手法として、簡単なもののひとつは、第1画像特徴データと第2画像特徴データの差分をとり、その差分値データを物体移動評価データとすることであり、その物体移動評価データの経時的な評価により移動物体の進入監視エリアへの進入を評価することができる。さらに、データ収集において含まれるノイズ(環境光変化、微小物体の移動など)による誤評価を低減するためには、フィルタリング処理を導入してもよい。
例えば、時間:tで得られた第1画像特徴データと時間:t+Δtで得られた第1画像特徴データとの差分値である第1差分値データにしきい値判定ないしはサイズフィルタリングを施し経時的第1特徴データを求める。同様に、時間:tで得られた第2画像特徴データと時間:t+Δtで得られた第2画像特徴データとの差分値である第2差分値データにしきい値判定ないしはサイズフィルタリングを施し経時的第2特徴データを求める。このようにして経時的に求められる経時的第1特徴データと経時的第2特徴データとから差分等の演算を通じて物体移動評価データを求めてもよい。このようにして順次求めた物体移動評価データをさらに経時的に評価して移動物体の進入方向を判定することができる。
また、画像特徴量を演算する際でのノイズ低減策として、平滑化フィルタやサンプリング時間の調整、短いサンプリングタイムで取得した複数の撮影画像の画素値に対する中間値演算や移動平均などの統計的演算によって代表値を演算し、その代表値からなる撮影画像に基づいて画像特徴量を演算してもよい。
本発明では、ノイズ低減するための上記以外の画像処理分野で知られている種々のフィルタリング処理を、取得した撮影画像、画像特徴データ、評価データに施すことを含んでいる。
また、評価すべき移動物体の大きさが予め分かっている場合は、その大きさに基づく許容範囲を設定して、その許容範囲外のデータを取り除くような排除処理を行うことができる。
One simple method for obtaining object movement evaluation data from the first image feature data and the second image feature data is to take a difference between the first image feature data and the second image feature data, and to calculate the difference value data. The object movement evaluation data is used, and the entry of the moving object into the entry monitoring area can be evaluated by evaluating the object movement evaluation data with time. Furthermore, a filtering process may be introduced in order to reduce erroneous evaluation due to noise included in data collection (environmental light change, movement of minute objects, etc.).
For example, threshold determination or size filtering is applied to the first difference value data that is the difference value between the first image feature data obtained at time: t and the first image feature data obtained at time: t + Δt. 1 Find feature data. Similarly, threshold determination or size filtering is applied to the second difference value data, which is a difference value between the second image feature data obtained at time: t and the second image feature data obtained at time: t + Δt, and time-dependent. Second feature data is obtained. The object movement evaluation data may be obtained through the calculation of the difference or the like from the first temporal feature data and the second temporal feature data obtained over time in this way. The object movement evaluation data sequentially obtained in this way can be further evaluated over time to determine the approach direction of the moving object.
In addition, as a noise reduction measure when calculating image features, statistical calculations such as smoothing filter and sampling time adjustment, intermediate value calculation and moving average for pixel values of multiple captured images acquired with short sampling time It is also possible to calculate a representative value and calculate an image feature amount based on a photographed image made up of the representative value.
The present invention includes performing various filtering processes known in the image processing field other than the above for noise reduction on the acquired captured image, image feature data, and evaluation data.
Further, when the size of the moving object to be evaluated is known in advance, an exclusion process can be performed in which an allowable range based on the size is set and data outside the allowable range is removed.

このようにして得られた物体移動評価データは、その時点での移動物体の位置情報を含むことになるので、この物体移動評価データの経時変化に基づいて進入監視エリアへの物体の進入又は退出あるいはその両方を推定することができる。例えば、図1で模式的に示すように、時点t0での物体移動評価データから第1指標帯及び第2指標帯を遮っている物体が存在しないことが推定され、時点t1での物体移動評価データから物体が第1指標帯を遮っていることが推定され、時点t2での物体移動評価データから物体が第2指標帯を遮っていることが推定され、時点t3での物体移動評価データから第1指標帯及び第2指標帯を遮っている物体が存在しないことが推定されると、移動物体が進入監視エリアに進入したと推定することができる。このことから、時点t3で警告を報知することができる。   Since the object movement evaluation data obtained in this way includes the position information of the moving object at that time, the object enters or exits the entry monitoring area based on the temporal change of the object movement evaluation data. Alternatively, both can be estimated. For example, as schematically shown in FIG. 1, it is estimated from the object movement evaluation data at the time point t0 that there is no object blocking the first index band and the second index band, and the object movement evaluation at the time point t1. It is estimated from the data that the object is blocking the first index band, and it is estimated from the object movement evaluation data at time t2 that the object is blocking the second index band, and from the object movement evaluation data at time t3 If it is estimated that there is no object blocking the first index band and the second index band, it can be estimated that the moving object has entered the approach monitoring area. From this, a warning can be notified at time t3.

上述した移動物体監視の基礎原理に基づいて動作する、本発明による移動物体監視システムの実施形態の1つを以下に説明する。図2は、この移動物体監視システムの全体構成とその機能ブロックを示す模式図であり、このシステムは展示室に展示された貴重品の載置エリアを進入監視エリアXとしており、展示室の天井に設置したデジタルカメラ(以下単にカメラと略称する)10はその撮影方向を床面に向けており撮影視野に載置エリア及びその周辺エリアを入れている。また、移動物体は人としている。さらにこの実施形態では、指標帯として、床面に剥がし可能に貼り付けられる接着テープ状の指標帯部材Zが用いられている。指標帯部材Zは第1指標帯部材Z1と第2指標帯部材Z2から構成されており、第1指標帯部材Z1と進入監視エリアXとの間に第2指標帯部材Z2が位置するように進入監視エリアXの周囲に配置される。従って、人が進入監視エリアXに入り込むには、まず第1指標帯部材Z1を越え、続いて第2指標帯部材Z2を越えることになる。この例では、進入監視エリアXの全周囲から進入可能なので、第1指標帯部材Z1と第2指標帯部材Z2とからなる指標帯部材セットを周囲四方向に配置している。しかしながら、説明を簡単にするため、以後は指標帯部材セットが1つだけとする。   One embodiment of the moving object monitoring system according to the present invention, which operates based on the above-mentioned basic principle of moving object monitoring, will be described below. FIG. 2 is a schematic diagram showing the overall configuration and functional blocks of this moving object monitoring system. In this system, the area for placing valuables displayed in the exhibition room is set as the entrance monitoring area X, and the ceiling of the exhibition room is shown. The digital camera (hereinafter simply referred to as a camera) 10 installed in the camera 10 has its shooting direction directed to the floor surface, and a placement area and its peripheral area are placed in the shooting field of view. The moving object is a person. Further, in this embodiment, an index tape member Z in the form of an adhesive tape that is detachably attached to the floor surface is used as the index band. The index band member Z is composed of a first index band member Z1 and a second index band member Z2, so that the second index band member Z2 is positioned between the first index band member Z1 and the approach monitoring area X. It is arranged around the approach monitoring area X. Therefore, in order for a person to enter the approach monitoring area X, the first index band member Z1 is first exceeded, and then the second index band member Z2 is exceeded. In this example, since entry is possible from the entire periphery of the entry monitoring area X, an index band member set including the first index band member Z1 and the second index band member Z2 is arranged in four directions. However, for the sake of simplicity, it is assumed that there is only one index band member set thereafter.

移動物体監視システムの中核構成要素は、カメラ10で取得された撮影画像を受け取る監視コントローラ20であり、実質的にはコンピュータからなる。監視コントローラ20には、カメラ10以外に、マウスやキーボードなどの入力操作デバイス11、モニタ12、機器コントローラ40が接続されている。機器コントローラ40は、進入監視エリアXへの物体の移動を検知した際に出力する移動物体検知情報に基づいて、警報機器や防犯機器など動作機器41の動作を制御する。   A core component of the moving object monitoring system is a monitoring controller 20 that receives a captured image acquired by the camera 10, and substantially includes a computer. In addition to the camera 10, an input operation device 11 such as a mouse and a keyboard, a monitor 12, and a device controller 40 are connected to the monitoring controller 20. The device controller 40 controls the operation of the operation device 41 such as an alarm device or a security device based on the moving object detection information output when the movement of the object to the approach monitoring area X is detected.

監視コントローラ20には、画像入力部21、指標位置設定部22、GUI(グラフィックユーザインターフェース)部23、物体移動推定部24、機器制御部25、画像処理部50が構築されている。画像入力部21は、カメラ10から所定時間間隔で送られてくる撮影画像をメモリに展開する。GUI部23は、入力操作デバイスを用いたオペレータの作業を簡単化するため、操作をグラフィック化してモニタ12に表示する。指標位置設定部22は、前処理として、撮影画像に写りこんでいる第1指標帯部材Z1と第2指標帯部材Z2の画像をモニタ画面で確認しながらオペレータがその輪郭を指定する作業を通じて、第1指標帯部材Z1の撮影画像中の画像領域(第1画像領域)と第2指標帯部材Z2の撮影画像中の画像領域(第2画像領域)の撮影画像中の座標位置を設定する。ここで設定された当該座標位置である位置情報は画像処理部50に与えられる。指標帯部材Zの画像領域が他の領域と識別しやすく、エッジ検出フィルタなどにより容易に検出できる場合には、自動的に撮影画像中の第1画像領域と第2画像領域の撮影画像中の座標位置を設定する方法を採用することも可能である。   The monitoring controller 20 includes an image input unit 21, an index position setting unit 22, a GUI (graphic user interface) unit 23, an object movement estimation unit 24, a device control unit 25, and an image processing unit 50. The image input unit 21 develops captured images sent from the camera 10 at predetermined time intervals in a memory. The GUI unit 23 displays the operation on the monitor 12 as a graphic in order to simplify the operation of the operator using the input operation device. As the preprocessing, the index position setting unit 22 performs an operation in which the operator designates the contour while confirming the images of the first index band member Z1 and the second index band member Z2 reflected in the captured image on the monitor screen. The coordinate positions in the captured image of the image area (first image area) in the captured image of the first index band member Z1 and the image area (second image area) in the captured image of the second index band member Z2 are set. The position information that is the coordinate position set here is given to the image processing unit 50. When the image area of the index band member Z is easily distinguishable from other areas and can be easily detected by an edge detection filter or the like, the first image area and the second image area in the captured image are automatically included in the captured image. It is also possible to adopt a method of setting the coordinate position.

画像処理部50は、前処理部51、画像抽出部52、特徴量算定部53、評価データ演算部54を含んでいる。前処理部51は、メモリに展開されている撮影画像に対して、ホワイトバランス、濃度調整、解像度変換、回転・縮小処理などの必要に応じた前処理を行う。画像抽出部52は、指標位置設定部22から受け取った位置情報に基づいて、撮影画像から第1指標帯Z1の画像領域である第1画像領域を抽出するとともに、第2指標帯Z2の画像領域である第2画像領域を抽出する。   The image processing unit 50 includes a preprocessing unit 51, an image extraction unit 52, a feature amount calculation unit 53, and an evaluation data calculation unit 54. The pre-processing unit 51 performs pre-processing such as white balance, density adjustment, resolution conversion, and rotation / reduction processing as necessary on the captured image developed in the memory. Based on the position information received from the index position setting unit 22, the image extraction unit 52 extracts a first image area that is an image area of the first index band Z1 from the captured image, and an image area of the second index band Z2. The second image area is extracted.

特徴量算定部53は、第1画像領域の画像特徴量である第1画像特徴データを算定するとともに、第2画像領域の画像特徴量である第2画像特徴データを算定する。ここでは、画像特徴量として、画像領域を構成する画素の画素値である濃度階調値がそのまま用いられる。ただし、後の処理を簡単にするため、各画像領域は平均化処理(モザイク処理)により画素数を減らす変換と階調値を簡単にする階調低減変換を施す。この変換処理によって各画像領域の画素数が低減されるとともに、その画素値(濃度階調値)も低減する。例えば、この画像特徴データを、8ビットから3ビットあるいは2ビット(2値化データ)のデータとすることにより、画像特徴データは演算負荷の小さなものにすることができる。   The feature amount calculation unit 53 calculates first image feature data that is an image feature amount of the first image region, and calculates second image feature data that is an image feature amount of the second image region. Here, the density gradation value which is the pixel value of the pixels constituting the image area is used as it is as the image feature amount. However, in order to simplify the subsequent processing, each image region is subjected to conversion for reducing the number of pixels and gradation reduction conversion for simplifying the gradation value by averaging processing (mosaic processing). This conversion process reduces the number of pixels in each image area and also reduces the pixel value (density gradation value). For example, when the image feature data is changed from 8 bits to 3 bits or 2 bits (binarized data), the image feature data can have a small calculation load.

評価データ演算部54は、第1画像特徴データと第2画像特徴データとに基づいて進入監視エリアXに対する物体移動を評価するための物体移動評価データを演算する。ここでは、最も簡単な方法として、第1画像特徴データと第2画像特徴データの差分を採用している。この差分により、人が第1指標帯部材Z1又は第2指標帯部材Z2の通過状況を、外乱を抑制した状態で検知することができる。この第1画像特徴データと第2画像特徴データの差分によって得られる物体移動評価データはそのままでも、第1指標帯Z1を経て第2指標帯Z2を通過する物体の移動を評価するために利用することができるが、より簡単な評価のためには、得られた画像特徴データの画素値の平均値や積算値を物体移動評価データとしてもよい。   The evaluation data calculation unit 54 calculates object movement evaluation data for evaluating object movement with respect to the approach monitoring area X based on the first image feature data and the second image feature data. Here, the difference between the first image feature data and the second image feature data is adopted as the simplest method. By this difference, a person can detect the passing state of the first index band member Z1 or the second index band member Z2 in a state where disturbance is suppressed. The object movement evaluation data obtained by the difference between the first image feature data and the second image feature data is used as it is to evaluate the movement of the object passing through the first index band Z1 and passing through the second index band Z2. However, for simpler evaluation, the average value or integrated value of the pixel values of the obtained image feature data may be used as the object movement evaluation data.

物体移動推定部24は、物体移動評価データの経時変化に基づいて進入監視エリアXへの人の進入又は退出あるいはその両方を推定する。つまり、所定時間間隔でカメラ10から送られてくる撮影画像が順次、前処理部51、画像抽出部52、特徴量算定部53によって画像処理されることで、当該所定時間間隔の物体移動評価データが評価データ演算部54から出力される。これらの出力された物体移動評価データを構成する値群ないしはその値群の代表値(平均値や積算値)の評価することで、人の進入監視エリアXへの進入を判定することができる。   The object movement estimation unit 24 estimates a person's entry and / or exit from the entry monitoring area X based on the temporal change of the object movement evaluation data. That is, the captured images sent from the camera 10 at predetermined time intervals are sequentially subjected to image processing by the preprocessing unit 51, the image extraction unit 52, and the feature amount calculation unit 53, so that the object movement evaluation data at the predetermined time intervals is obtained. Is output from the evaluation data calculation unit 54. By evaluating a value group constituting the output object movement evaluation data or a representative value (average value or integrated value) of the value group, it is possible to determine whether the person has entered the entry monitoring area X.

機器制御部25は、物体移動推定部24が人の進入監視エリアXへの進入を判定したときに出力する進入情報を受け取り、必要な処置を行うように機器コントローラ40に制御情報を送る。機器コントローラ40は、送られた制御情報に基づいて必要な対処策を予め登録されている対策シナリオから選択し、その対策シナリオに沿って各動作機器41を制御する。   The device control unit 25 receives the entry information output when the object movement estimation unit 24 determines that the person has entered the entry monitoring area X, and sends the control information to the device controller 40 so as to perform necessary treatment. The device controller 40 selects a necessary countermeasure from pre-registered countermeasure scenarios based on the sent control information, and controls each operating device 41 according to the countermeasure scenario.

次に、人が進入監視エリアXに進入してきた場合の、画像処理部30及び物体移動推定部24の働きを、説明目的のために簡素化された図解である図3と図4を用いて説明する。   Next, the operation of the image processing unit 30 and the object movement estimation unit 24 when a person enters the entry monitoring area X will be described with reference to FIGS. 3 and 4 which are simplified illustrations for the purpose of explanation. explain.

(1)人が第1指標帯部材Z1のさらに外側に存在〔図3の(a)を参照〕
この時点t0で取得された撮影画像から抽出された第1画像領域と第2画像領域は人の影響を受けていないので、第1画像特徴データと第2画像特徴データとは全ての画素値が「7」となっている。ここでは、各画像領域の画素数は5で、画素値は、3ビット階調濃度となっている。第1画像特徴データから第2画像特徴データの減算によって得られる物体移動評価データの5つの画素値は全て「0」となる。物体移動評価データを当該減算値の積算値とすると、その値は「0」となる。このことから、第1指標帯部材Z1及び第2指標帯部材Z1の上には人(物体)が存在していないと推定される。
(1) A person exists further outside the first indicator band member Z1 [see FIG. 3 (a)]
Since the first image region and the second image region extracted from the photographed image acquired at this time t0 are not affected by a person, all the pixel values of the first image feature data and the second image feature data are the same. It is “7”. Here, the number of pixels in each image area is 5, and the pixel value is a 3-bit gradation density. The five pixel values of the object movement evaluation data obtained by subtracting the second image feature data from the first image feature data are all “0”. When the object movement evaluation data is an integrated value of the subtraction value, the value is “0”. From this, it is estimated that no person (object) exists on the first index band member Z1 and the second index band member Z1.

(2)人が第1指標帯部材Z1の上を通過中〔図3の(b)を参照〕
この時点t1で取得された撮影画像から抽出された第1画像領域は人の影響を受けており、この例では中央領域では暗くなっている。従って、第1画像特徴データの画素値が低下しており、その画素値は、端から順に「7」、「4」、「0」、「4」、「7」となっている。これは、カメラ10に入射する光量が人(又は衣服)に比べて第1指標帯部材Z1の方が大きくなるように設定されているからである。このため、第1指標帯部材Z1の材料として再帰性反射材や発光材を使用するか、明色塗料を塗ったりすると好都合である。これに対して、第2画像領域はまだ人の影響を受けておらず、その第2画像特徴データの画素値全ての画素値が「7」となっている。従って、その物体移動評価データの画素値は、「0」、「-3」、「-7」、「-3」、「0」となり、その積算値は「-13」となる。このことから、第1指標帯部材Z1の上に何らかの人が存在していると推定される。
(2) A person is passing over the first indicator band member Z1 [see (b) of FIG. 3]
The first image area extracted from the photographed image acquired at this time t1 is affected by a person, and in this example, it is dark in the central area. Accordingly, the pixel value of the first image feature data is decreased, and the pixel values are “7”, “4”, “0”, “4”, “7” in order from the end. This is because the amount of light incident on the camera 10 is set so that the first indicator band member Z1 is larger than the person (or clothes). For this reason, it is convenient to use a retroreflective material or a light-emitting material as the material of the first index band member Z1, or to apply a bright paint. On the other hand, the second image area is not yet influenced by humans, and the pixel values of all the pixel values of the second image feature data are “7”. Accordingly, the pixel values of the object movement evaluation data are “0”, “−3”, “−7”, “−3”, and “0”, and the integrated value is “−13”. From this, it is presumed that some kind of person exists on the first index band member Z1.

(3)人が第1指標帯部材Z1と第2指標帯部材Z2の上を通過中〔図3の(c)を参照〕
この時点t2で取得された撮影画像から抽出された第1画像領域と第2画像領域は人の影響を受けており、この例ではどちらも中央領域では暗くなっている。従って、第1画像特徴データと第1画像特徴データの画素値が低下しており、第1画像特徴データの画素値は、端から順に「7」、「5」、「1」、「5」、「7」となっており、第2画像特徴データでは、「7」、「7」、「3」、「6」、「7」となっている。従って、その物体移動評価データの画素値は、「0」、「-2」、「-2」、「-1」、「0」となり、その積算値は「-5」となる。このことから、第1指標帯部材Z1と第2指標帯部材Z1の上に何らかの人が存在していること、より詳しくは第1指標帯部材Z1側にやや寄りがちに存在していると推定される。
(3) A person is passing over the first index band member Z1 and the second index band member Z2 [see FIG. 3 (c)]
The first image region and the second image region extracted from the photographed image acquired at this time t2 are affected by a person, and in this example, both are dark in the central region. Accordingly, the pixel values of the first image feature data and the first image feature data are lowered, and the pixel values of the first image feature data are “7”, “5”, “1”, “5” in order from the end. “7”, and in the second image feature data, “7”, “7”, “3”, “6”, “7”. Accordingly, the pixel values of the object movement evaluation data are “0”, “−2”, “−2”, “−1”, “0”, and the integrated value is “−5”. From this, it is estimated that there is some person on the first index band member Z1 and the second index band member Z1, more specifically, the first index band member Z1 is slightly inclined. Is done.

(4)人が第2指標帯部材Z1の上を通過中〔図3の(d)を参照〕
この時点t3で取得された撮影画像から抽出された第2画像領域は人の影響を受けており、ここでも中央領域では暗くなっているので、第2画像特徴データの画素値が低下しており、その画素値は、端から順に「7」、「4」、「0」、「4」、「7」となっている。これに対して、第1画像領域はもはや人の影響を受けておらず、その第1画像特徴データの画素値全ての画素値が「7」となっている。従って、その物体移動評価データの画素値は、「0」、「3」、「7」、「3」、「0」となり、その積算値は「13」となる。このことから、第2指標帯部材Z1の上に何らかの人が存在していると推定される。
(4) A person is passing over the second index strip member Z1 (see (d) of FIG. 3)
The second image area extracted from the photographed image acquired at this time t3 is affected by a person, and here, since it is dark in the central area, the pixel value of the second image feature data is reduced. The pixel values are “7”, “4”, “0”, “4”, “7” in order from the end. On the other hand, the first image area is no longer affected by humans, and the pixel values of all the pixel values of the first image feature data are “7”. Therefore, the pixel values of the object movement evaluation data are “0”, “3”, “7”, “3”, “0”, and the integrated value is “13”. From this, it is presumed that some kind of person exists on the second index band member Z1.

(5)人が第2指標帯部材Z1を越えて進入監視エリアXに進入〔図3の(e)を参照〕
この時点t4で取得された撮影画像から抽出された第1画像領域と第2画像領域は両方とももはや人の影響を受けていないので、第1画像特徴データと第2画像特徴データとは全ての画素値が「7」となっており、その積算値は「0」である。このことから、第1指標帯部材Z1及び第2指標帯部材Z1の上には人が存在していないと推定される。
(5) A person enters the entry monitoring area X beyond the second index belt member Z1 (see (e) of FIG. 3).
Since both the first image region and the second image region extracted from the photographed image acquired at this time t4 are no longer influenced by humans, the first image feature data and the second image feature data are all The pixel value is “7”, and the integrated value is “0”. From this, it is estimated that there is no person on the first index band member Z1 and the second index band member Z1.

上記(1)から(5)の各処理(図3の(a)から(e))によって得られる人の存在推定結果を、図4で示すように、経時的に見れば、(1)非存在(2)第1指標帯部材上に存在(3)第1・第2指標帯部材上に存在(4)第2指標帯部材上に存在(5)非存在という経時的な評価結果が得られる(図4の(a)から(e))。このことから、外部から進入監視エリアXに人が進入したと推定できる。ここで、もし、(3)の処理結果から(2)を経て(1)の処理結果に移行した場合、一旦進入しかけた人がUターンしたと推定できる。さらに、逆に、(5)から(1)の処理結果が生じた場合、進入監視エリアXから外部に人が退出したと推定できる。   As shown in FIG. 4, when the human presence estimation results obtained by the processes (1) to (5) above ((a) to (e) in FIG. 3) are viewed over time, (1) non- Existence (2) Existence on the first indicator band member (3) Existence on the first and second indicator band members (4) Existence on the second indicator band member (5) Absence of evaluation results over time ((A) to (e) in FIG. 4). From this, it can be estimated that a person has entered the approach monitoring area X from the outside. Here, if the processing result of (3) shifts to the processing result of (1) through (2), it can be estimated that the person who has entered once made a U-turn. Furthermore, conversely, when the processing results from (5) to (1) occur, it can be estimated that a person has left the entry monitoring area X.

図3を用いた、画像処理部30及び物体移動推定部24で取り扱われるデータの説明では、説明を簡単にするため、1×6画素というものであったが、実際はもっと大きなサイズのデータを取り扱う方が好ましい。さらに、カメラ10からの撮影画像の取り込み周期は1秒以下が好ましく、人を含む物体が第1指標帯部材から第2指標帯部材を通過するまでの間に数十回以上の物体移動評価データを演算することも可能であり、それにより高い分解で第1指標帯部材から第2指標帯部材への物体の移動を推定することができる。   In the description of the data handled by the image processing unit 30 and the object movement estimation unit 24 using FIG. 3, the data is 1 × 6 pixels for the sake of simplicity, but actually, data of a larger size is handled. Is preferred. Furthermore, it is preferable that the captured image capturing period from the camera 10 is 1 second or less, and object movement evaluation data of several tens of times before an object including a person passes through the second index band member from the first index band member. Can be calculated, whereby the movement of the object from the first index band member to the second index band member can be estimated with high resolution.

〔別実施の形態〕
(1)上記実施形態の説明では、評価データ演算部54は、同時刻の第1特徴量データと第2特徴量データとの差分をとって物体移動評価データを演算していたが、この演算アルゴリズムに経時的な手法を適用することもできる。
例えば、先に(時間:t)得られた第1画像特徴データとその後に(時間:t+Δt)得られた第1画像特徴データとの差分値である第1差分値データに対して必要なノイズ除去処理を施して経時的第1特徴データを求める。同様に、先に(時間:t)得られた第2画像特徴データとその後に(時間:t+Δt)得られた第2画像特徴データとの差分値である第2差分値データに対して必要なノイズ除去処理を施して経時的第2特徴データを求める。このようにして経時的に求められる経時的第1特徴データと経時的第2特徴データとから差分等の演算を通じて物体移動評価データを求めてもよい。このようにして順次求めた物体移動評価データは、物体移動推定部24に送られ、そこでさらに経時的に評価して移動物体の進入方向が判定される。
さらに別な形態として、評価データ演算部54と物体移動推定部24とを一体化し、時間:tで得られた第1画像特徴データと時間:t+Δtで得られた第1画像特徴データとの差分値である第1差分値データにしきい値判定ないしはサイズフィルタリングを施し第1評価データを求める。同様に、時間:tで得られた第2画像特徴データと時間:t+Δtで得られた第2画像特徴データとの差分値である第2差分値データにしきい値判定ないしはサイズフィルタリングを施し第2評価データを求める。このようにして経時的に求められる第1評価データ群と第2画像特徴データ群を評価して移動物体の進入方向を判定するように構成することも可能である。
このように、本発明の評価データ演算部54と物体移動推定部24は自在な手法による評価データ演算と物体移動推定とを実現する機能を有する。本発明で重要なことは、評価データ演算部54と物体移動推定部24は、第1画像特徴データと第2画像特徴データとに基づいて進入監視エリアに対する物体移動を評価するための種々の形態の物体移動評価データを演算するとともに、この物体移動評価データの経時変化に基づいて進入監視エリアへの物体の進入又は退出あるいはその両方を推定することである。
(2)この移動物体監視システムは、安全上の進入監視だけでなく、人が近接に伴って案内情報を報知する案内システムや、人が部屋に入ることに伴って照明を点灯する自動照明システムにも利用することができる。また、指標帯部材Zに非可視光を反射する放射する部材とその指標帯部材Zを写すことができる非可視光カメラを用いることで、まったく人に意識されずに監視を行うことも可能である。
[Another embodiment]
(1) In the description of the above embodiment, the evaluation data calculation unit 54 calculates the object movement evaluation data by taking the difference between the first feature value data and the second feature value data at the same time. It is also possible to apply a temporal method to the algorithm.
For example, the noise required for the first difference value data that is the difference value between the first image feature data obtained previously (time: t) and the first image feature data obtained thereafter (time: t + Δt). A removal process is performed to obtain first characteristic data over time. Similarly, it is necessary for the second difference value data which is a difference value between the second image feature data obtained previously (time: t) and the second image feature data obtained thereafter (time: t + Δt). A noise removal process is performed to obtain second characteristic data over time. The object movement evaluation data may be obtained through the calculation of the difference or the like from the first temporal feature data and the second temporal feature data obtained over time in this way. The object movement evaluation data sequentially obtained in this way is sent to the object movement estimation unit 24, where it is further evaluated over time to determine the approaching direction of the moving object.
As yet another form, the evaluation data calculation unit 54 and the object movement estimation unit 24 are integrated, and the difference between the first image feature data obtained at time: t and the first image feature data obtained at time: t + Δt. First evaluation value data is obtained by performing threshold judgment or size filtering on the first difference value data that is a value. Similarly, threshold determination or size filtering is applied to the second difference value data that is the difference value between the second image feature data obtained at time: t and the second image feature data obtained at time: t + Δt, and the second difference is obtained. Obtain evaluation data. In this way, the first evaluation data group and the second image feature data group obtained over time can be evaluated to determine the approach direction of the moving object.
As described above, the evaluation data calculation unit 54 and the object movement estimation unit 24 of the present invention have a function of realizing evaluation data calculation and object movement estimation by a free method. What is important in the present invention is that the evaluation data calculation unit 54 and the object movement estimation unit 24 have various modes for evaluating the object movement with respect to the approach monitoring area based on the first image feature data and the second image feature data. The object movement evaluation data is calculated, and the approach and / or exit of the object to / from the approach monitoring area is estimated based on the temporal change of the object movement evaluation data.
(2) This moving object monitoring system is not only for safety approach monitoring, but also a guidance system for notifying guidance information when a person approaches, or an automatic lighting system for lighting when a person enters a room Can also be used. In addition, by using a radiating member that reflects invisible light on the index band member Z and a non-visible light camera that can capture the index band member Z, it is possible to perform monitoring without being conscious of humans at all. is there.

本発明は、種々の物体の移動を画像特徴量の変化を通じて推定するシステムに適用することができる。   The present invention can be applied to a system that estimates movements of various objects through changes in image feature values.

10:カメラ
20:監視コントローラ
22:指標位置設定部
24:物体移動推定部
25:機器制御部
30:画像処理部
32:画像抽出部
33:特徴量算定部
34:評価データ演算部
40:機器コントローラ
Z:指標帯(指標帯部材)
Z1:第1指標帯(第1指標帯部材)
Z2:第2指標帯(第2指標帯部材)
X:進入監視エリア
10: Camera 20: Monitoring controller 22: Index position setting unit 24: Object movement estimation unit 25: Device control unit 30: Image processing unit 32: Image extraction unit 33: Feature amount calculation unit 34: Evaluation data calculation unit 40: Device controller Z: Index band (index band member)
Z1: First index band (first index band member)
Z2: Second index band (second index band member)
X: Approach monitoring area

Claims (6)

カメラによる撮影画像を用いて進入監視エリアに対する物体の移動を監視する移動物体監視システムであって、
前記カメラの撮影視野内で前記進入監視エリアの外側に任意に設定される第1指標帯の画像領域である第1画像領域を前記撮影画像から抽出するとともに、前記カメラの撮影視野内で前記進入監視エリアと前記第1指標帯との間に任意に設定される第2指標帯の画像領域である第2画像領域を前記撮影画像から抽出する画像抽出部と、
前記第1画像領域の画像特徴量である第1画像特徴データを算定するとともに、前記第2画像領域の画像特徴量である第2画像特徴データを算定する特徴量算定部と、
前記第1画像特徴データと前記第2画像特徴データとに基づいて前記進入監視エリアに対する物体移動を評価するための物体移動評価データを演算する評価データ演算部と、
前記物体移動評価データの経時変化に基づいて前記進入監視エリアへの物体の進入又は退出あるいはその両方を推定する物体移動推定部と、
を備えている移動物体監視システム。
A moving object monitoring system that monitors the movement of an object relative to an approach monitoring area using an image captured by a camera,
A first image area, which is an image area of a first index band arbitrarily set outside the entry monitoring area within the photographing field of view of the camera, is extracted from the photographed image, and the approach is entered within the photographing field of the camera. An image extraction unit that extracts from the captured image a second image area that is an image area of a second index band arbitrarily set between a monitoring area and the first index band;
A feature amount calculator that calculates first image feature data that is an image feature amount of the first image region, and that calculates second image feature data that is an image feature amount of the second image region;
An evaluation data calculation unit for calculating object movement evaluation data for evaluating object movement with respect to the approach monitoring area based on the first image feature data and the second image feature data;
An object movement estimator that estimates the entry and / or exit of an object to and from the entry monitoring area based on a change over time of the object movement evaluation data;
A moving object monitoring system.
前記第1指標帯を規定する第1指標帯部材と前記第2指標帯を規定する第2指標帯部材が前記進入監視エリアの床面に任意に設置可能な部材であり、前記撮影画像に写り込んだ第1指標帯部材及び前記第2指標帯部材から前記撮影画像における前記第1画像領域及び前記第2画像領域の位置を設定する指標位置設定部が備えられている請求項1に記載の移動物体監視システム。   The first index band member that defines the first index band and the second index band member that defines the second index band are members that can be arbitrarily installed on the floor surface of the approach monitoring area, and are reflected in the captured image. The index position setting part which sets the position of the 1st image field and the 2nd image field in the picked-up image from the 1st index belt member and the 2nd index belt member which were included is provided. Moving object monitoring system. 前記第1指標帯部材及び前記第2指標帯部材が再帰性反射材又は蛍光材で構成されている請求項2に記載の移動物体監視システム。   The moving object monitoring system according to claim 2, wherein the first index band member and the second index band member are made of a retroreflective material or a fluorescent material. 前記画像特徴量が前記画像領域の濃度分布である請求項1から3のいずれか一項に記載の移動物体監視システム。   The moving object monitoring system according to claim 1, wherein the image feature amount is a density distribution of the image region. 前記第1画像領域と前記第2画像領域は互いに平行に所定方向に延びており、前記第1画像特徴データ及び前記第2画像特徴データは前記画像領域を前記所定方向に区分けされた区画毎の濃度値である請求項4に記載の移動物体監視システム。   The first image area and the second image area extend in a predetermined direction in parallel with each other, and the first image feature data and the second image feature data are provided for each section obtained by dividing the image area in the predetermined direction. The moving object monitoring system according to claim 4, wherein the moving object monitoring system is a density value. 物体移動評価データは、前記第1画像特徴データと前記第2画像特徴データとの差分値データである請求項5に記載の移動物体監視システム。   The moving object monitoring system according to claim 5, wherein the object movement evaluation data is difference value data between the first image feature data and the second image feature data.
JP2011076553A 2011-03-30 2011-03-30 Moving-body monitoring system Withdrawn JP2012212239A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011076553A JP2012212239A (en) 2011-03-30 2011-03-30 Moving-body monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011076553A JP2012212239A (en) 2011-03-30 2011-03-30 Moving-body monitoring system

Publications (1)

Publication Number Publication Date
JP2012212239A true JP2012212239A (en) 2012-11-01

Family

ID=47266149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011076553A Withdrawn JP2012212239A (en) 2011-03-30 2011-03-30 Moving-body monitoring system

Country Status (1)

Country Link
JP (1) JP2012212239A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101798756B1 (en) 2016-03-14 2017-11-16 주식회사 에스원 Intrusion Detection System And Method Using Retro Reflector

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101798756B1 (en) 2016-03-14 2017-11-16 주식회사 에스원 Intrusion Detection System And Method Using Retro Reflector

Similar Documents

Publication Publication Date Title
KR101808587B1 (en) Intelligent integration visual surveillance control system by object detection and tracking and detecting abnormal behaviors
JP5834254B2 (en) People counting device, people counting system, and people counting method
JP5518359B2 (en) Smoke detector
US10740906B2 (en) Unattended object monitoring device, unattended object monitoring system equipped with same, and unattended object monitoring method
US8538063B2 (en) System and method for ensuring the performance of a video-based fire detection system
CN107404628B (en) Image processing apparatus and method, and monitoring system
JP4653207B2 (en) Smoke detector
CN109879130B (en) Image detection system
CN104680145B (en) The on off state change detecting method and device of a kind of
WO2018056355A1 (en) Monitoring device
CN104581081A (en) Passenger-flow analysis method based on video information
KR20090086898A (en) Smoke detection using video camera
KR101454644B1 (en) Loitering Detection Using a Pedestrian Tracker
EP2000952B1 (en) Smoke detecting method and device
JP2007233919A (en) Intruder detection apparatus by imaging processing
JP6386352B2 (en) Smoke detector
JP4811653B2 (en) Object detection device
CN108460319B (en) Abnormal face detection method and device
JP5186973B2 (en) Worker safety inspection device
JP4993281B2 (en) Monitoring area setting device
JP2010218046A (en) Smoke detection device
JP2012212239A (en) Moving-body monitoring system
JP5418635B2 (en) Worker safety inspection device
CN111063145A (en) Intelligent processor for electronic fence
JP5586383B2 (en) Image monitoring device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603