[go: up one dir, main page]

JP2012033100A - Image processing device and method and computer program - Google Patents

Image processing device and method and computer program Download PDF

Info

Publication number
JP2012033100A
JP2012033100A JP2010173749A JP2010173749A JP2012033100A JP 2012033100 A JP2012033100 A JP 2012033100A JP 2010173749 A JP2010173749 A JP 2010173749A JP 2010173749 A JP2010173749 A JP 2010173749A JP 2012033100 A JP2012033100 A JP 2012033100A
Authority
JP
Japan
Prior art keywords
backgrounded
unit
background
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010173749A
Other languages
Japanese (ja)
Inventor
Yoichi Kamei
洋一 亀井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010173749A priority Critical patent/JP2012033100A/en
Publication of JP2012033100A publication Critical patent/JP2012033100A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像中の新たな変化を持続的に検出しつつ、画像中の実際の物体の状態と、画像中の物体の状態の解析結果とに矛盾が生じることを防止する。
【解決手段】画像中で長時間静止している物体を背景化した後、背景化した物体の形状情報及び経過時間情報を背景化物体情報として生成し、背景化物体記憶部420に記憶しておく。そして、入力した画像の物体情報と、記憶しておいた背景化物体情報とを照合し、背景化物体情報に合致する物体情報がない場合には、当該背景化物体情報に解析ルールを適用し、背景化した物体の状態を解析する。
【選択図】図1
An object of the present invention is to continuously detect a new change in an image and prevent inconsistency between an actual object state in the image and an analysis result of the object state in the image.
After an object that has been stationary for a long time in an image is backgrounded, shape information and elapsed time information of the backgrounded object are generated as backgrounded object information and stored in a backgrounded object storage unit 420 deep. Then, the object information of the input image is compared with the stored background object information, and if there is no object information that matches the background object information, the analysis rule is applied to the background object information. Analyze the state of the backgrounded object.
[Selection] Figure 1

Description

本発明は、画像処理装置、画像処理方法、及びコンピュータプログラムに関し、特に、画像処理によって画像中の物体の状態変化を解析するために用いて好適なものである。   The present invention relates to an image processing apparatus, an image processing method, and a computer program, and is particularly suitable for use in analyzing a state change of an object in an image by image processing.

近年、画像処理によって画像中の物体の状態変化を解析することが行われるようになった。フレーム間差分法や背景差分法等により画像の変化を検出し、その変化を画像中の物体の状態変化(例えば物体の出現や消滅)として解析する。特に、背景差分法を用いた場合には、画像中に出現した後に静止し続けている物体も検出できるので、物体の置き去りや放置を知ることができる。
背景差分法では、物体の検出精度が、入力画像との比較に用いる背景画像に大きく依存する。そのため、より適切な背景画像を用いるための方法が提案されている。
In recent years, analysis of state changes of objects in an image has been performed by image processing. A change in the image is detected by an inter-frame difference method, a background difference method, or the like, and the change is analyzed as a state change of an object in the image (for example, appearance or disappearance of an object). In particular, when the background subtraction method is used, an object that remains stationary after appearing in the image can be detected, so that it is possible to know whether the object has been left or left.
In the background subtraction method, the object detection accuracy greatly depends on the background image used for comparison with the input image. Therefore, a method for using a more appropriate background image has been proposed.

特許文献1では、適応的に背景モデルを生成する方法が開示されている。また、特許文献2では、背景画像とすべきでない物体の背景画像への影響を低減する方法が開示されている。
特許文献1に開示された方法により、静止している物体を検出し続けた後に、当該静止している物体を背景画像にすることができる。また、特許文献2の方法により、出現頻度の低い物体を背景画像にすることなく、長時間静止している(即ち出現頻度が高い)物体を背景画像にすることができる。特許文献1、2に開示された方法では、ともに、静止している物体を背景画像にすることで、その後に画像中に起きる新たな変化を検出できるようにしている。
Patent Document 1 discloses a method for adaptively generating a background model. Patent Document 2 discloses a method for reducing the influence of an object that should not be a background image on the background image.
With the method disclosed in Patent Document 1, after continuing to detect a stationary object, the stationary object can be used as a background image. Further, according to the method of Patent Document 2, an object that is stationary for a long time (that is, that has a high appearance frequency) can be used as a background image without using an object that has a low appearance frequency as a background image. In both methods disclosed in Patent Documents 1 and 2, a stationary object is used as a background image so that a new change occurring in the image can be detected thereafter.

特開2007−323572号公報JP 2007-323572 A 特開2009−64228号公報JP 2009-64228 A

しかしながら、背景画像になった時点で入力画像との差分がなくなるので、静止している物体は、物体として検出されなくなってしまう。そうすると、実際には、物体は静止している(即ち存在し続けている)にも関わらず、物体が消滅したとして解析されてしまうことになる。その後、物体が移動する等して実際に画像中に存在しなくなった場合、画面上ではそれまで物体の陰になっていた部分が新たに見えるようになり、それが変化として検出される。ところが、物体が消滅したと解析した後なので、その変化を、新規の物体の出現として解析されることになり、物体の状態と物体の状態の解析結果とが矛盾をきたすようになってしまう。   However, since there is no difference from the input image when it becomes the background image, a stationary object is not detected as an object. In this case, the object is actually analyzed as having disappeared although the object is still (that is, continues to exist). Thereafter, when the object does not actually exist in the image due to movement or the like, the part which has been shadowed by the object so far becomes visible on the screen, and this is detected as a change. However, after analyzing that the object has disappeared, the change is analyzed as the appearance of a new object, and the state of the object and the analysis result of the state of the object become contradictory.

これに対して、特許文献1では、静止している物体として検出させ続ける時間を制御する方法は開示されているが、背景画像化して物体として検出されなくなった際の解析方法については開示されていない。また、特許文献2でも、静止している物体として検出させ続けるために物体を検出した領域の画像処理を停止する方法は開示されているが、特許文献1と同様に、背景画像化して物体として検出されなくなった際の解析方法については開示されていない。
本発明は、このような問題点に鑑みてなされたものであり、画像中の新たな変化を持続的に検出しつつ、画像中の実際の物体の状態と、画像中の物体の状態の解析結果とに矛盾が生じることを防止することを目的とする。
On the other hand, Patent Document 1 discloses a method for controlling the time for which detection is continued as a stationary object, but discloses an analysis method for when a background image is no longer detected as an object. Absent. Also, Patent Document 2 discloses a method for stopping image processing of a region where an object is detected in order to continue detection as a stationary object. An analysis method when it is no longer detected is not disclosed.
The present invention has been made in view of such problems, and analyzes the state of the actual object in the image and the state of the object in the image while continuously detecting new changes in the image. The purpose is to prevent inconsistencies with the results.

本発明の画像処理装置は、画像を入力する画像入力手段と、前記画像入力手段により入力された画像から背景差分法により物体を検出する物体検出手段と、前記物体検出手段により検出された物体が所定の背景化条件を満たすと、当該物体を背景化する背景化手段と、前記物体検出手段により検出された物体が前記背景化された物体に対応するか否かを判断する判断手段と、前記物体検出手段により検出された物体、及び前記背景化された物体の状態を解析する解析手段と、を有し、前記解析手段は、前記判断手段により、前記物体検出手段により検出された物体が前記背景化手段により背景化された物体に対応しないと判断された場合に、前記背景化された物体の状態を解析し、対応すると判断された場合には、前記背景化された物体の状態を解析しないことを特徴とする。   An image processing apparatus according to the present invention includes an image input unit that inputs an image, an object detection unit that detects an object from the image input by the image input unit by a background subtraction method, and an object detected by the object detection unit. When a predetermined backgrounding condition is satisfied, a backgrounding unit that backgrounds the object, a determination unit that determines whether the object detected by the object detection unit corresponds to the backgrounded object, and An object detected by the object detecting means, and an analyzing means for analyzing the state of the backgrounded object, wherein the analyzing means determines that the object detected by the object detecting means is the object detected by the determining means. When it is determined by the backgrounding means that it does not correspond to the backgrounded object, the state of the backgrounded object is analyzed, and when it is determined that it corresponds, the state of the backgrounded object is determined. Characterized in that it does not parse.

本発明によれば、背景化された物体に対し、検出された物体が背景化された物体に対応しないと判断された場合に、背景化された物体の状態を解析するようにした。したがって、画面上の新たな物体の状態の変化を持続的に検出しつつ、実際の物体の状態と、画像から検出した物体の状態の解析結果とに矛盾が生じることを防止することができる。   According to the present invention, when it is determined that the detected object does not correspond to the backgrounded object with respect to the backgrounded object, the state of the backgrounded object is analyzed. Therefore, it is possible to prevent a contradiction between the actual object state and the analysis result of the object state detected from the image while continuously detecting a change in the state of the new object on the screen.

第1の実施形態の画像処理装置の構成を示す図である。It is a figure which shows the structure of the image processing apparatus of 1st Embodiment. 第1の実施形態の物体検出部の構成を示すブロック図である。It is a block diagram which shows the structure of the object detection part of 1st Embodiment. 第1の実施形態のサンプリングデータ更新部の動作フローチャートである。It is an operation | movement flowchart of the sampling data update part of 1st Embodiment. 第1の実施形態の状態解析部の構成を示すブロック図である。It is a block diagram which shows the structure of the state analysis part of 1st Embodiment. 第1の実施形態の解析ルール適用部の動作フローチャートである。It is an operation | movement flowchart of the analysis rule application part of 1st Embodiment. 第2の実施形態の物体検出部の構成を示すブロック図である。It is a block diagram which shows the structure of the object detection part of 2nd Embodiment. 第2の実施形態の状態解析部の構成を示すブロック図である。It is a block diagram which shows the structure of the state analysis part of 2nd Embodiment.

(第1の実施形態)
以下、図1〜図5を参照して、本発明の第1の実施形態について説明する。
図1は、第1の実施形態に関わる画像処理装置の構成の一例を示すブロック図である。
画像処理装置100は、画像入力部110、物体検出部120、状態解析部130、及び解析結果出力部140を有する。画像処理装置100は、画像を入力とし、その解析結果を出力する。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS.
FIG. 1 is a block diagram illustrating an example of the configuration of the image processing apparatus according to the first embodiment.
The image processing apparatus 100 includes an image input unit 110, an object detection unit 120, a state analysis unit 130, and an analysis result output unit 140. The image processing apparatus 100 receives an image and outputs the analysis result.

画像入力部110は、画像処理装置100に接続された図示しない外部装置(ビデオカメラや、ビデオテープ・DVD・半導体メモリ等を用いた画像記憶再生装置)から画像データを連続的に取り込む。画像入力部110は、取り込んだ画像を、物体検出部120が取り扱うことができる所定の画像形式に変換した上で画像データとして物体検出部120に供給する。画像入力部110は、例えば、入力インターフェース及び画像変換装置を用いて実現される。
物体検出部120及び状態解析部130については後述する。
The image input unit 110 continuously takes in image data from an external device (not shown) connected to the image processing apparatus 100 (an image storage / playback apparatus using a video camera, a video tape, a DVD, a semiconductor memory, or the like). The image input unit 110 converts the captured image into a predetermined image format that can be handled by the object detection unit 120, and supplies the converted image data to the object detection unit 120 as image data. The image input unit 110 is realized using, for example, an input interface and an image conversion device.
The object detection unit 120 and the state analysis unit 130 will be described later.

解析結果出力部140は、状態解析部130が出力する解析情報を、画像処理装置100に接続された図示しない「画像処理結果を利用する装置」が取り扱うことができる所定の形式に変換した上で解析結果として出力する。解析結果出力部140は、例えば、出力インターフェース及びデータ変換装置を用いて実現される。例えば、画像処理結果を利用する装置として画像記憶再生装置を画像処理装置100に接続する場合、解析結果出力部140は、静止している物体の出現と消失の検索用インデックス形式に解析情報を変換して出力する。また、解析結果出力部140は、入力されたイベントをトリガーに電子メールを発信することにより解析情報を出力することもできる。また、警告音を再生するイベント処理装置を画像処理装置100に接続する場合、解析結果出力部140は、静止している物体の出現と消失のイベント形式に解析情報を変換して出力する。   The analysis result output unit 140 converts the analysis information output by the state analysis unit 130 into a predetermined format that can be handled by an “apparatus that uses an image processing result” (not shown) connected to the image processing apparatus 100. Output as analysis result. The analysis result output unit 140 is realized using, for example, an output interface and a data conversion device. For example, when an image storage / playback apparatus is connected to the image processing apparatus 100 as an apparatus that uses image processing results, the analysis result output unit 140 converts the analysis information into a search index format for appearance and disappearance of stationary objects. And output. The analysis result output unit 140 can also output analysis information by sending an e-mail triggered by the input event. When an event processing device that reproduces a warning sound is connected to the image processing device 100, the analysis result output unit 140 converts the analysis information into an event format of appearance and disappearance of a stationary object and outputs the converted event information.

続いて物体検出部120の構成と動作について、図2及び図3を参照しながら説明する。
図2は、物体検出部120の詳細な構成を示すブロック図である。
物体検出部120は、サンプリング部200、サンプリングデータ記憶部210、差分計算部220、物体データ集約部230、サンプリングデータ更新部240、及び背景化物体データ集約部250を有する。
Next, the configuration and operation of the object detection unit 120 will be described with reference to FIGS.
FIG. 2 is a block diagram illustrating a detailed configuration of the object detection unit 120.
The object detection unit 120 includes a sampling unit 200, a sampling data storage unit 210, a difference calculation unit 220, an object data aggregation unit 230, a sampling data update unit 240, and a background object data aggregation unit 250.

物体検出部120は、画像入力部110からの画像データを入力とし、背景差分法によって検出した物体情報と背景化物体情報とを状態解析部130に対して出力する。背景化物体情報を用いる点が本実施形態の特徴の一つである。物体検出部120は、例えば、プログラム制御により動作するデータ処理装置を用いて実現される。尚、背景差分法に関しては、特許文献1及び2に詳細に開示されているので、以下では、必要最小限の構成と動作について説明し、詳細な説明を省略する。背景差分法は、無論これらに開示されているものに限定されるものではない。   The object detection unit 120 receives the image data from the image input unit 110 and outputs the object information detected by the background difference method and the background object information to the state analysis unit 130. One of the features of the present embodiment is that background object information is used. The object detection unit 120 is realized using, for example, a data processing device that operates by program control. Since the background subtraction method is disclosed in detail in Patent Documents 1 and 2, the minimum necessary configuration and operation will be described below, and detailed description thereof will be omitted. Of course, the background subtraction method is not limited to those disclosed in these.

サンプリング部200は、画素単位、又は複数の画素からなるブロック単位で、画像入力部110からの画像データの特徴量を抽出する。特徴量としては、例えば、画素毎、又はブロック毎の輝度や色相の値を用いることができる。サンプリング部200で抽出された特徴量は、差分計算部220を経て、サンプリングデータ更新部240によって、サンプリングデータとして、サンプリングデータ記憶部210に記憶される。
まず、サンプリングデータ記憶部210に記録されるサンプリングデータについて説明する。サンプリングデータ記憶部210には、サンプリング単位である「画素毎又はブロック毎」の背景の特徴量(背景特徴量)と、検出された物体の特徴量(物体特徴量)とが記憶される。このとき、物体特徴量には、その特徴量を持つ物体が最初に検出されてからの経過時間情報が併せて記憶される。
The sampling unit 200 extracts the feature amount of the image data from the image input unit 110 in units of pixels or in units of blocks including a plurality of pixels. As the feature amount, for example, luminance or hue values for each pixel or each block can be used. The feature quantity extracted by the sampling unit 200 is stored in the sampling data storage unit 210 as sampling data by the sampling data update unit 240 via the difference calculation unit 220.
First, sampling data recorded in the sampling data storage unit 210 will be described. The sampling data storage unit 210 stores a background feature amount (background feature amount) and a detected object feature amount (object feature amount), which are sampling units “for each pixel or block”. At this time, the object feature amount is stored together with information on elapsed time since the object having the feature amount is first detected.

差分計算部220は、サンプリング部200からの「画素毎又はブロック毎の特徴量」と、サンプリングデータ記憶部210に記憶された「該当画素又は該当ブロックの背景特徴量」とを比較する。サンプリングデータ記憶部210には、1画面分の特徴量が記憶されている。差分計算部220は、サンプリング部200が画像データの画像から抽出した特徴量を入力し、サンプリング部200が特徴量を抽出した位置に対応する特徴量をサンプリングデータ記憶部210から読み出して、両者を比較する。ここで両者が予め設定された閾値の範囲内であれば、該当画素又は該当ブロックの特徴量は、背景特徴量と同一又は類似なので、差分計算部220は、該当画素又は該当ブロックは背景であると判断する。逆に、両者が予め設定された閾値の範囲外であれば、差分計算部220は、該当画素又は該当ブロックが、背景とは異なる物体であると判断し、該当画素又は該当ブロックの「座標情報と経過時間情報」を物体データ集約部230に出力する。   The difference calculation unit 220 compares the “feature amount for each pixel or block” from the sampling unit 200 with the “background feature amount of the corresponding pixel or block” stored in the sampling data storage unit 210. The sampling data storage unit 210 stores a feature amount for one screen. The difference calculation unit 220 receives the feature amount extracted from the image of the image data by the sampling unit 200, reads the feature amount corresponding to the position from which the sampling unit 200 has extracted the feature amount from the sampling data storage unit 210, and extracts both of them. Compare. Here, if both are within a preset threshold range, the feature quantity of the corresponding pixel or the corresponding block is the same as or similar to the background feature quantity, and therefore the difference calculation unit 220 is the background of the corresponding pixel or the corresponding block. Judge. On the contrary, if both are outside the preset threshold range, the difference calculation unit 220 determines that the corresponding pixel or the corresponding block is an object different from the background, and the “coordinate information” of the corresponding pixel or the corresponding block. And “elapsed time information” are output to the object data aggregating unit 230.

物体データ集約部230は、差分計算部220からの「物体が存在する『画素又はブロック』の座標情報」を集約し、物体が存在する画素又はブロックのうち、相互に隣接する画素同士又はブロック同士を連結処理することで物体毎の形状情報を生成する。また、物体データ集約部230は、物体が存在する「画素又はブロック」の経過時間情報を集約し、最初に検出されてからの経過時間情報を物体毎に生成する。物体データ集約部230は、これらの物体毎の「形状情報及び経過時間情報」を物体毎の物体情報として状態解析部130に出力する。
一方、サンプリング部200からの「画素毎又はブロック毎の特徴量」は、差分計算部220を経てサンプリングデータ更新部240にも渡される。サンプリングデータ更新部240は、サンプリングデータ記憶部210に記憶された「画素毎又はブロック毎の背景特徴量と物体特徴量」の更新を行う。以下、図3を参照しながらサンプリングデータ更新部240の詳細な動作について説明する。
The object data aggregating unit 230 aggregates “coordinate information of“ pixel or block ”in which the object exists” from the difference calculating unit 220, and among the pixels or blocks in which the object exists, mutually adjacent pixels or blocks Are combined to generate shape information for each object. Further, the object data aggregating unit 230 aggregates elapsed time information of “pixels or blocks” in which an object exists, and generates elapsed time information since the first detection for each object. The object data aggregation unit 230 outputs the “shape information and elapsed time information” for each object to the state analysis unit 130 as object information for each object.
On the other hand, the “feature quantity for each pixel or block” from the sampling unit 200 is also passed to the sampling data update unit 240 via the difference calculation unit 220. The sampling data update unit 240 updates the “background feature amount and object feature amount for each pixel or block” stored in the sampling data storage unit 210. Hereinafter, the detailed operation of the sampling data updating unit 240 will be described with reference to FIG.

図3は、サンプリングデータ更新部240の動作の一例を説明するフローチャートである。まず、サンプリングデータ更新部240は、差分計算部220からの特徴量が、サンプリングデータ記憶部210に記憶されている背景特徴量と類似であるか否かを判断する(ステップS300)。この判断の結果、差分計算部220からの特徴量が、サンプリングデータ記憶部210に記憶されている背景特徴量と類似であった場合には、差分計算部220からの特徴量は背景のものであるので、特徴量の更新を行わず、そのまま処理を終了する。一方、差分計算部220からの特徴量が、サンプリングデータ記憶部210に記憶されている背景特徴量と類似でなかった場合には、差分計算部220からの特徴量は物体のものであるのでステップS310に進む。   FIG. 3 is a flowchart for explaining an example of the operation of the sampling data update unit 240. First, the sampling data update unit 240 determines whether or not the feature amount from the difference calculation unit 220 is similar to the background feature amount stored in the sampling data storage unit 210 (step S300). As a result of the determination, if the feature amount from the difference calculation unit 220 is similar to the background feature amount stored in the sampling data storage unit 210, the feature amount from the difference calculation unit 220 is that of the background. Therefore, the process is terminated without updating the feature amount. On the other hand, if the feature amount from the difference calculation unit 220 is not similar to the background feature amount stored in the sampling data storage unit 210, the feature amount from the difference calculation unit 220 is that of the object, so The process proceeds to S310.

ステップS310に進むと、サンプリングデータ更新部240は、差分計算部220からの特徴量が、サンプリングデータ記憶部210に記憶されている物体特徴量と類似であるか否かを判断する。この判断の結果、差分計算部220からの特徴量が、サンプリングデータ記憶部210に記憶されている物体特徴量と類似でなかった場合には、差分計算部220からの特徴量は、それまで検出されていた物体とは別の新たな物体のものである。よって、サンプリングデータ更新部240は、サンプリングデータ記憶部210に記憶されている物体特徴量を、差分計算部220からの新たな特徴量に置き換える(ステップS330)。これと共に、サンプリングデータ更新部240は、当該特徴量を持つ物体が最初に検出されてからの経過時間情報をリセットする。   In step S310, the sampling data update unit 240 determines whether the feature amount from the difference calculation unit 220 is similar to the object feature amount stored in the sampling data storage unit 210. As a result of the determination, if the feature quantity from the difference calculation unit 220 is not similar to the object feature quantity stored in the sampling data storage unit 210, the feature quantity from the difference calculation unit 220 has been detected so far. It is of a new object that is different from the object that has been made. Therefore, the sampling data update unit 240 replaces the object feature amount stored in the sampling data storage unit 210 with a new feature amount from the difference calculation unit 220 (step S330). At the same time, the sampling data update unit 240 resets the elapsed time information from when the object having the feature amount is first detected.

一方、差分計算部220からの特徴量が、サンプリングデータ記憶部210に記憶されている物体特徴量と類似であった場合には、差分計算部220からの特徴量は、それまでと同じ物体のものである。よって、サンプリングデータ更新部240は、サンプリングデータ記憶部210の物体特徴量の経過時間情報をインクリメントする(ステップS320)。ここで、この物体特徴量の経過時間情報が増加を続ける場合は、類似の特徴量が連続して入力される場合であり、同じ物体が、同じ画素の位置又は同じブロックの位置に存在し続けている場合(即ち物体がその場に静止している場合)である。物体の静止状態が長く続く場合、その後に画像中に起きる新たな変化を適切に検出するために、画像中の静止している物体の部分を新たな背景画像として置き換える必要がある。   On the other hand, when the feature amount from the difference calculation unit 220 is similar to the object feature amount stored in the sampling data storage unit 210, the feature amount from the difference calculation unit 220 is the same as that of the same object as before. Is. Therefore, the sampling data update unit 240 increments the elapsed time information of the object feature amount in the sampling data storage unit 210 (step S320). Here, when the elapsed time information of the object feature amount continues to increase, similar feature amounts are continuously input, and the same object continues to exist at the same pixel position or the same block position. (That is, when the object is stationary on the spot). When the stationary state of the object continues for a long time, it is necessary to replace the portion of the stationary object in the image with a new background image in order to appropriately detect a new change occurring in the image thereafter.

そこで、続くステップS340では、サンプリングデータ更新部240は、差分計算部220により検出された物体が所定の背景化条件を満たすと、当該物体を背景化する。たとえば、サンプリングデータ更新部240は、サンプリングデータ記憶部210の物体特徴量の経過時間情報が、予め設定された「背景化する時間閾値」を越えたか否かを判断する。この判定の結果、物体特徴量の経過時間情報が、時間閾値以内であった場合には、当該物体特徴量の物体を背景化する必要がないのでそのまま処理を終了する。一方、物体特徴量の経過時間情報が、時間閾値を越えていた場合には、サンプリングデータ更新部240は、サンプリングデータ記憶部210に記憶された背景特徴量を物体特徴量の情報で置き換え、当該物体特徴量の情報をリセットする(ステップS350)。例えば、置き換え前の背景特徴量が500、物体特徴量が300であれば、置き換え後の背景特徴量は300になる。さらに、サンプリングデータ更新部240は、背景化した「画素又はブロック」の「座標情報と経過時間情報」を、背景化物体データ集約部250に出力して処理を終了する(ステップS360)。   Therefore, in the subsequent step S340, the sampling data updating unit 240 backgrounds the object when the object detected by the difference calculation unit 220 satisfies a predetermined backgrounding condition. For example, the sampling data update unit 240 determines whether or not the elapsed time information of the object feature amount in the sampling data storage unit 210 has exceeded a preset “time threshold for background”. As a result of this determination, if the elapsed time information of the object feature amount is within the time threshold, it is not necessary to background the object of the object feature amount, and the processing is ended as it is. On the other hand, if the elapsed time information of the object feature amount exceeds the time threshold, the sampling data update unit 240 replaces the background feature amount stored in the sampling data storage unit 210 with the object feature amount information, and Information on the object feature amount is reset (step S350). For example, if the background feature amount before replacement is 500 and the object feature amount is 300, the background feature amount after replacement is 300. Further, the sampling data updating unit 240 outputs the “coordinate information and elapsed time information” of the “pixel or block” converted to the background to the backgrounded object data aggregating unit 250 and ends the processing (step S360).

背景化物体データ集約部250は、サンプリングデータ更新部240からの「背景化した物体が存在する『画素又はブロック』の座標情報」を集約する。そして、背景化物体データ集約部250は、背景化した物体が存在する画素又はブロックのうち、相互に隣接する画素同士又はブロック同士を連結処理することで物体毎の形状情報を生成する。また、背景化物体データ集約部250は、背景化した物体が存在する「画素又はブロック」の経過時間情報を集約し、最初に検出されてからの経過時間情報を、背景化した物体毎に生成する。背景化物体データ集約部250は、これら背景化した物体毎の「形状情報及び経過時間情報」を、背景化した物体毎の背景化物体情報として状態解析部130に出力する。   The background object data aggregating unit 250 aggregates “coordinate information of“ pixel or block ”in which a background object exists” from the sampling data updating unit 240. Then, the background object data aggregating unit 250 generates shape information for each object by linking pixels or blocks adjacent to each other among the pixels or blocks in which the background object exists. The background object data aggregating unit 250 aggregates the elapsed time information of “pixels or blocks” in which the background object exists, and generates the elapsed time information after the first detection for each background object. To do. The background object data aggregation unit 250 outputs the “shape information and elapsed time information” for each background object to the state analysis unit 130 as background object information for each background object.

続いて状態解析部130の構成と動作の一例について、図4および図5を用いて説明する。
図4は、状態解析部130の詳細な構成を示すブロック図である。
状態解析部130は、解析ルール記憶部400、解析ルール適用部410、背景化物体記憶部420、及び背景化物体検索部430を有する。状態解析部130は、物体検出部120からの「物体情報と背景化物体情報」を入力とし、解析ルールを適用した結果の解析情報を解析結果出力部140に対して出力する。状態解析部130は、例えば、プログラム制御により動作するデータ処理装置を用いて実現される。
Next, an example of the configuration and operation of the state analysis unit 130 will be described with reference to FIGS. 4 and 5.
FIG. 4 is a block diagram illustrating a detailed configuration of the state analysis unit 130.
The state analysis unit 130 includes an analysis rule storage unit 400, an analysis rule application unit 410, a backgrounded object storage unit 420, and a backgrounded object search unit 430. The state analysis unit 130 receives “object information and background object information” from the object detection unit 120 and outputs analysis information to the analysis result output unit 140 as a result of applying the analysis rule. The state analysis unit 130 is realized using, for example, a data processing device that operates under program control.

まず、背景化物体記憶部420から説明する。背景化物体記憶部420は、物体検出部120から出力された背景化物体情報を記憶する。背景化物体記憶部420に記憶された背景化物体情報は、同じ座標・形状値を持つ背景化物体情報が背景化物体記憶部420に入力された際に削除される。
背景化物体検索部430は、背景化物体記憶部420に対して、解析ルール適用部410から指定された「座標・形状や経過時間等の値」をキーに検索を行い、該当する背景化物体情報の全部又は一部を解析ルール適用部410に返す。尚、解析ルール適用部410は、そのとき処理している物体情報の座標・形状や経過時間等をキーとして用いる。解析ルール記憶部400には、後述の解析ルール適用部410で用いる解析ルールが予め設定・記憶されている。ここで、解析とは、画面上の変化を物体に生じた状態変化として判断することをいう。例えば、解析ルール適用部410は、画面上で新たに検出された物体が同じ場所で一定時間以上存在し続けた(所定時間以上静止している)場合、その場に持ち込まれた物体が放置されたと判断するといった解析を行う。解析ルールは、このような物体の状態の判断基準となるものであり、例えば、物体の座標や経過時間の値の範囲で表現される。
First, the background object storage unit 420 will be described. The backgrounded object storage unit 420 stores the backgrounded object information output from the object detection unit 120. The backgrounded object information stored in the backgrounded object storage unit 420 is deleted when the backgrounded object information having the same coordinates and shape values is input to the backgrounded object storage unit 420.
The backgrounded object search unit 430 searches the backgrounded object storage unit 420 using “values such as coordinates, shape, and elapsed time” specified from the analysis rule application unit 410 as keys, and the corresponding backgrounded object All or part of the information is returned to the analysis rule application unit 410. The analysis rule applying unit 410 uses the coordinates, shape, elapsed time, etc. of the object information being processed as a key. In the analysis rule storage unit 400, analysis rules used in an analysis rule application unit 410 described later are set and stored in advance. Here, the analysis refers to determining a change on the screen as a state change generated in the object. For example, when an object newly detected on the screen continues to exist in the same place for a certain time or longer (stills for a predetermined time or longer), the analysis rule application unit 410 leaves the object brought to that place. Analyzes such as judging. The analysis rule is a criterion for determining the state of such an object, and is expressed by a range of values of the coordinates of the object and the elapsed time, for example.

解析ルール適用部410は、物体検出部120からの物体情報に対して、前述の解析ルール記憶部400に記憶された解析ルールと、背景化物体検索部430による背景化物体情報の検索結果とを適用して解析処理を行う。以下、図5を参照しながら解析ルール適用部410の詳細な動作について説明する。
図5は、解析ルール適用部410の動作の一例を説明するフローチャートである。
最初に、解析ルール適用部410は、背景化物体検索部430を用いて背景化物体情報を検索する(ステップS500)。
The analysis rule application unit 410 uses the analysis rule stored in the analysis rule storage unit 400 and the background object search result by the background object search unit 430 for the object information from the object detection unit 120. Apply and perform analysis processing. Hereinafter, the detailed operation of the analysis rule applying unit 410 will be described with reference to FIG.
FIG. 5 is a flowchart for explaining an example of the operation of the analysis rule application unit 410.
First, the analysis rule application unit 410 searches for backgrounded object information using the backgrounded object search unit 430 (step S500).

そして、解析ルール適用部410は、背景化物体検索部430の検索の結果に基づいて、背景化物体記憶部420に背景化物体情報があったか否かを判断する(ステップS510)。この判断の結果、背景化物体情報がなかった場合には、解析ルール適用部410は、物体検出部120からの物体情報があるか否かを判断する(ステップS530)。この判断の結果、物体情報がなかった場合にはそのまま処理を終了する。一方、物体情報があった場合には、解析ルール適用部410は、その物体情報に対して解析ルールを適用し、該当する物体の状態を解析する(ステップS540)。例えば、解析ルール適用部410は、物体が放置されたか解析する。そして、解析ルール適用部410は、物体の状態の解析結果である解析情報を解析結果出力部140に出力する(ステップS550)。   Then, the analysis rule applying unit 410 determines whether there is backgrounded object information in the backgrounded object storage unit 420 based on the search result of the backgrounded object search unit 430 (step S510). If there is no background object information as a result of this determination, the analysis rule application unit 410 determines whether there is object information from the object detection unit 120 (step S530). If there is no object information as a result of this determination, the processing is terminated as it is. On the other hand, if there is object information, the analysis rule applying unit 410 applies the analysis rule to the object information and analyzes the state of the corresponding object (step S540). For example, the analysis rule application unit 410 analyzes whether an object has been left. Then, the analysis rule application unit 410 outputs analysis information that is an analysis result of the state of the object to the analysis result output unit 140 (step S550).

ステップS510で、背景化物体情報があったと判断された場合には、ステップS520に進む。そして、解析ルール適用部410は、物体検出部120からの物体情報が背景化物体記憶部420に記憶されている背景化物体情報と対応するか否かを判断する。物体情報と背景化物体情報とが対応するか否かは、例えば、それらの座標と形状値とが等しいか否かで判断する。
この判断の結果、背景化物体情報と物体情報が対応しなかった場合、解析ルール適用部410は、実際には画像中に物体が存在する状態であると判断する。逆に、背景化物体情報と物体情報が対応した場合、解析ルール適用部410は、実際には画像中に物体が存在しない状態であると判断する。図3のステップS350の処理で物体が背景化した時点で、入力した画像の特徴量と、サンプリングデータ記憶部210に記憶された背景特徴量との差分が閾値の範囲内になるので、物体は検出されなくなる。その結果、当該物体の物体情報が物体検出部120出力されないので、背景化物体情報に対応する物体情報がないことになる。その後、背景化していた物体が移動して、当該物体の陰になっていた部分(本来の背景)が見えるようになると、その部分の背景特徴量と、入力した画像の特徴量との差分が生じ、物体情報として出力されるようになる。この部分は、座標値と形状値とが対応する。例えば、床の上に箱が放置され、当該箱が背景化した場合では、背景である床面が物体である箱の陰になって見えなくなるが、箱が取り除かれると、再び床面が見えるようになる。ここで箱と、当該箱の陰になった床面の「画面上の座標と形状」は対応する。この対応した物体は本来の背景であるので、物体は存在しないと判断する。
If it is determined in step S510 that there is background object information, the process proceeds to step S520. Then, the analysis rule application unit 410 determines whether or not the object information from the object detection unit 120 corresponds to the backgrounded object information stored in the backgrounded object storage unit 420. Whether or not the object information corresponds to the background object information is determined by, for example, whether or not the coordinates and the shape value are equal.
If the background object information does not correspond to the object information as a result of this determination, the analysis rule applying unit 410 determines that the object actually exists in the image. On the other hand, when the background object information corresponds to the object information, the analysis rule applying unit 410 determines that there is actually no object in the image. Since the difference between the feature amount of the input image and the background feature amount stored in the sampling data storage unit 210 is within the threshold when the object is turned into the background in the process of step S350 in FIG. It will not be detected. As a result, the object information of the object is not output to the object detection unit 120, so there is no object information corresponding to the background object information. After that, when the object that has become the background moves and the portion (original background) that is behind the object becomes visible, the difference between the background feature amount of the portion and the feature amount of the input image is And is output as object information. In this part, the coordinate value corresponds to the shape value. For example, when a box is left on the floor and the box becomes a background, the background floor is hidden behind the object box, but when the box is removed, the floor is visible again. It becomes like this. Here, the box corresponds to the “coordinates and shape on the screen” of the floor surface behind the box. Since this corresponding object is the original background, it is determined that the object does not exist.

以上のことから、ステップS520で、背景化物体情報と物体情報が対応した場合には、実際には画像中に物体が存在しないのでそのまま処理を終了する。一方、背景化物体情報と物体情報が対応しなかった場合には、ステップS540に進み、解析ルール適用部410は、背景化物体情報、物体情報に対して解析ルールを適用し、該当する物体の状態を解析する。例えば、物体が持ち去られたかどうかを解析する。そして、解析ルール適用部410は、背景化された物体の状態の解析結果である解析情報を解析結果出力部140に出力する(ステップS550)。   From the above, if the background object information and the object information correspond in step S520, the process is terminated as it is because no object actually exists in the image. On the other hand, if the background object information does not correspond to the object information, the process proceeds to step S540, where the analysis rule applying unit 410 applies the analysis rule to the background object information and the object information, Analyze the condition. For example, it is analyzed whether the object has been taken away. Then, the analysis rule application unit 410 outputs analysis information that is an analysis result of the backgrounded object state to the analysis result output unit 140 (step S550).

以上のように本実施形態では、画像中で長時間静止している物体を背景化した後、背景化した物体の形状情報及び経過時間情報を背景化物体情報として生成し、背景化物体記憶部420に記憶しておく。そして、入力した画像の物体情報と、記憶しておいた背景化物体情報とを照合し、背景化物体情報に対応する物体情報がない場合には、当該背景化物体情報に解析ルールを適用し、背景化した物体の状態を解析する。したがって、静止している物体が背景化しても引き続き物体が存在するものとして状態解析処理を継続できるので、実際の物体の状態と物体の状態の解析結果とに矛盾が生じないようになる。
尚、背景化物体情報と座標値及び形状値が対応する物体情報があるか否かを判定するようにしたが、必ずしもこれらが厳密に合致する物体情報があるか否かを判定する必要はなく、これらが所定の範囲内にある物体情報があるか否かを判定するようにしてもよい。
As described above, in the present embodiment, after backgrounding an object that has been stationary for a long time in an image, shape information and elapsed time information of the backgrounded object are generated as backgrounded object information, and a backgrounded object storage unit 420 is stored. Then, the object information of the input image is compared with the stored background object information, and if there is no object information corresponding to the background object information, the analysis rule is applied to the background object information. Analyze the state of the backgrounded object. Therefore, even if the stationary object is turned into the background, the state analysis process can be continued assuming that the object still exists, so that there is no contradiction between the actual object state and the object state analysis result.
Although it is determined whether there is object information corresponding to the background object information, the coordinate value, and the shape value, it is not always necessary to determine whether there is object information that exactly matches these. It may be determined whether there is object information that falls within a predetermined range.

尚、本実施形態では、例えば、画像入力部110を用いることにより画像入力手段の一例が実現される。また、例えば、サンプリングデータ更新部240が、図3のステップS330、S350の処理を行うことにより、物体検出手段、背景化手段の一例がそれぞれ実現され、背景化物体検索部430を用いることにより判断手段の一例が実現される。また、例えば、背景化物体記憶部420を用いることにより記憶手段の一例が実現される。   In the present embodiment, for example, an example of an image input unit is realized by using the image input unit 110. In addition, for example, the sampling data update unit 240 performs steps S330 and S350 in FIG. 3 to realize examples of the object detection unit and the backgrounding unit, respectively, and the determination is made by using the backgrounded object search unit 430. An example of means is realized. For example, an example of a storage unit is realized by using the background object storage unit 420.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本実施形態と第1の実施形態とは、背景化物体情報を生成、検索する部分が異なるが、その他の部分は同一である。そのため、本実施形態では、第1の実施形態と同一の部分については、図1〜図5に付した符号を付す等して詳細な説明を省略し、第1の実施形態との差異部分のみを説明する。
本実施形態の画像処理装置の構成を示すブロック図は、図1に示した物体検出部120を図6に示す物体検出部125に、図1に示した状態解析部130を図7に示す状態解析部135にそれぞれ置き換えたものである。
本実施形態の物体検出部125は、第1の実施形態の物体検出部120におけるサンプリングデータ記憶部210、サンプリングデータ更新部240の代わりに、サンプリングデータ記憶部600、サンプリングデータ更新部610をそれぞれ有する。また、本実施形態の物体検出部125は、背景化物体データ集約部250の前段に、基準背景差分計算部620をさらに有する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. The present embodiment and the first embodiment are different in parts for generating and searching for background object information, but the other parts are the same. Therefore, in this embodiment, about the same part as 1st Embodiment, the detailed description is abbreviate | omitted by attaching | subjecting the code | symbol attached | subjected to FIGS. 1-5, etc., and only a different part from 1st Embodiment. Will be explained.
The block diagram illustrating the configuration of the image processing apparatus according to the present embodiment includes the object detection unit 120 illustrated in FIG. 1 as the object detection unit 125 illustrated in FIG. 6 and the state analysis unit 130 illustrated in FIG. 1 as illustrated in FIG. Each is replaced with the analysis unit 135.
The object detection unit 125 of the present embodiment has a sampling data storage unit 600 and a sampling data update unit 610 instead of the sampling data storage unit 210 and the sampling data update unit 240 in the object detection unit 120 of the first embodiment. . In addition, the object detection unit 125 according to the present embodiment further includes a reference background difference calculation unit 620 before the background object data aggregation unit 250.

サンプリングデータ記憶部600は、第1の実施形態におけるサンプリングデータ記憶部210に記憶されるサンプリングデータ(背景特徴量及び物体特徴量)に加えて、基準となる背景の特徴量が記憶される。ここで基準となる背景とは、物体がまったく検出されていない状態の背景のことである。基準となる背景の特徴量は、例えば、画像処理装置100の起動時に、物体検出部120が自動的に生成して記憶する。ただし、必ずしもこのようにする必要はなく、利用者の指示により、基準となる背景の特徴量を生成して記憶するようにしてもよい。基準となる背景の特徴量は、後述の基準背景差分計算部620に対して、その時点の背景特徴量とともに出力される。尚、以下の説明では、「基準となる背景の特徴量」を必要に応じて「基準背景特徴量」と称する。   The sampling data storage unit 600 stores a reference background feature amount in addition to the sampling data (background feature amount and object feature amount) stored in the sampling data storage unit 210 in the first embodiment. Here, the reference background is a background in which no object is detected. For example, when the image processing apparatus 100 is activated, the object detection unit 120 automatically generates and stores the reference background feature amount. However, it is not always necessary to do this, and a background feature amount serving as a reference may be generated and stored according to a user instruction. The reference background feature amount is output to the reference background difference calculation unit 620 described later together with the background feature amount at that time. In the following description, “reference background feature amount” is referred to as “reference background feature amount” as necessary.

サンプリングデータ更新部610の動作は、第1の実施形態のサンプリングデータ更新部240の動作から、図3のステップS360の処理を削除した動作となる。
基準背景差分計算部620は、サンプリングデータ記憶部600からの基準背景特徴量と、その時点の背景特徴量との差分を計算する。この差分の計算方法は、差分計算部220と同様である。基準背景差分計算部620は、この差分が閾値の範囲外となった場合、該当画素又は該当ブロックの「座標情報と経過時間情報」を後続の背景化物体データ集約部250に出力する。そして、背景化物体データ集約部250において背景化物体情報が生成される。
The operation of the sampling data update unit 610 is an operation obtained by deleting the process of step S360 of FIG. 3 from the operation of the sampling data update unit 240 of the first embodiment.
The reference background difference calculation unit 620 calculates a difference between the reference background feature amount from the sampling data storage unit 600 and the background feature amount at that time. The difference calculation method is the same as that of the difference calculation unit 220. When the difference falls outside the threshold range, the reference background difference calculation unit 620 outputs “coordinate information and elapsed time information” of the corresponding pixel or block to the subsequent background object data aggregation unit 250. Then, the backgrounded object data aggregation unit 250 generates backgrounded object information.

物体検出部125は、画像データの入力の都度、背景化物体情報を生成する。このため、本実施形態の状態解析部135は、背景化物体記憶部420を持たない。よって、背景化物体検索部700は、物体検出部125からの背景化物体情報に対して直接背景化物体の検索を行う。また、解析ルール適用部410は、図5のステップS500において、背景化物体検索部700を用いて背景化物体情報を検索するが、それ以外の動作は第1の実施形態の動作と同じである。
以上のように本実施形態では、物体の存在しない状態の基準背景画像とその時点の背景画像の差分から背景化物体情報を生成するようにした。よって、画像データの入力の都度、背景化物体情報を生成することができる。したがって、背景化物体情報を記憶する必要がなくなり、メモリ容量の削減を図れる。本実施形態は、特に、基準となる背景が安定していて変動がない入力画像について適用するのが好適である。
The object detection unit 125 generates background object information each time image data is input. For this reason, the state analysis unit 135 of the present embodiment does not have the background object storage unit 420. Therefore, the backgrounded object search unit 700 directly searches for the backgrounded object with respect to the backgrounded object information from the object detection unit 125. The analysis rule application unit 410 searches for backgrounded object information using the backgrounded object search unit 700 in step S500 of FIG. 5, but the other operations are the same as those in the first embodiment. .
As described above, in the present embodiment, backgrounded object information is generated from the difference between the reference background image in the absence of an object and the background image at that time. Therefore, background object information can be generated each time image data is input. Therefore, it is not necessary to store background object information, and the memory capacity can be reduced. In particular, the present embodiment is preferably applied to an input image in which the reference background is stable and does not vary.

尚、本実施形態では、例えば、画像入力部110を用いることにより画像入力手段の一例が実現される。また、例えば、サンプリングデータ更新部610が、図3のステップS330、S350の処理を行うことにより、物体検出手段、背景化手段の一例がそれぞれ実現され、背景化物体検索部700を用いることにより判断手段の一例が実現される。   In the present embodiment, for example, an example of an image input unit is realized by using the image input unit 110. In addition, for example, the sampling data update unit 610 performs steps S330 and S350 in FIG. 3 to realize examples of the object detection unit and the backgrounding unit, respectively, and the determination is performed by using the backgrounded object search unit 700. An example of means is realized.

(その他の実施例)
本発明は、以下の処理を実行することによっても実現される。即ち、まず、以上の実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)が当該コンピュータプログラムを読み出して実行する。
(Other examples)
The present invention is also realized by executing the following processing. That is, first, software (computer program) for realizing the functions of the above embodiments is supplied to a system or apparatus via a network or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the computer program.

100 画像処理装置、120 物体検出部、130 状態解析部   100 image processing apparatus, 120 object detection unit, 130 state analysis unit

Claims (5)

画像を入力する画像入力手段と、
前記画像入力手段により入力された画像から背景差分法により物体を検出する物体検出手段と、
前記物体検出手段により検出された物体が所定の背景化条件を満たすと、当該物体を背景化する背景化手段と、
前記物体検出手段により検出された物体が前記背景化された物体に対応するか否かを判断する判断手段と、
前記物体検出手段により検出された物体、及び前記背景化された物体の状態を解析する解析手段と、を有し、
前記解析手段は、前記判断手段により、前記物体検出手段により検出された物体が前記背景化手段により背景化された物体に対応しないと判断された場合に、前記背景化された物体の状態を解析し、対応すると判断された場合には、前記背景化された物体の状態を解析しないことを特徴とする画像処理装置。
An image input means for inputting an image;
Object detection means for detecting an object from the image input by the image input means by a background difference method;
When the object detected by the object detection means satisfies a predetermined backgrounding condition, a backgrounding means for setting the background of the object; and
Determination means for determining whether or not the object detected by the object detection means corresponds to the backgrounded object;
An analysis means for analyzing the state of the object detected by the object detection means and the backgrounded object,
The analysis unit analyzes the state of the backgrounded object when the determination unit determines that the object detected by the object detection unit does not correspond to the object backgrounded by the backgrounding unit. However, the image processing apparatus is characterized in that when it is determined that it corresponds, the state of the backgrounded object is not analyzed.
前記背景化手段により物体が背景化されると、当該背景化された物体の位置の情報を記憶する記憶手段を有し、
前記判断手段は、前記記憶手段に記憶された情報に基づいて、前記物体検出手段により検出された物体が、前記背景化手段により背景化された物体に対し、位置及び形状が所定の範囲内にあるか否かを判断することを特徴とする請求項1に記載の画像処理装置。
When an object is backgrounded by the backgrounding means, the storage means stores information on the position of the backgrounded object,
The determination unit is configured such that, based on the information stored in the storage unit, the position and shape of the object detected by the object detection unit are within a predetermined range with respect to the object backgrounded by the backgrounding unit. The image processing apparatus according to claim 1, wherein it is determined whether or not there is any.
画像を入力する画像入力工程と、
前記画像入力工程により入力された画像から背景差分法により物体を検出する物体検出工程と、
前記物体検出工程により検出された物体が所定の背景化条件を満たすと、当該物体を背景化する背景化工程と、
前記物体検出工程により検出された物体が前記背景化された物体に対応するか否かを判断する判断工程と、
前記判断工程により、前記物体検出工程により検出された物体が前記背景化工程により背景化された物体に対応しないと判断されると、前記背景化された物体の状態を解析する解析工程と、
を有することを特徴とする画像処理方法。
An image input process for inputting an image;
An object detection step of detecting an object by a background subtraction method from the image input by the image input step;
When the object detected by the object detection step satisfies a predetermined backgrounding condition, a backgrounding step of setting the object as a background;
A determination step of determining whether or not the object detected by the object detection step corresponds to the backgrounded object;
When the determination step determines that the object detected by the object detection step does not correspond to the object backgrounded by the backgrounding step, an analysis step of analyzing the state of the backgrounded object;
An image processing method comprising:
前記背景化工程により物体が背景化されると、当該背景化された物体の位置の情報を記憶する記憶工程を有し、
前記判断工程は、前記記憶工程に記憶された情報に基づいて、前記物体検出工程により検出された物体が、前記背景化工程により背景化された物体に対し、位置及び形状が所定の範囲内にあるか否かを判断することを特徴とする請求項3に記載の画像処理方法。
When the object is backgrounded by the backgrounding step, the storage step stores information on the position of the backgrounded object,
In the determination step, based on the information stored in the storage step, the position and shape of the object detected by the object detection step are within a predetermined range with respect to the object backgrounded by the backgrounding step. 4. The image processing method according to claim 3, wherein it is determined whether or not there is any.
画像を入力する画像入力工程と、
前記画像入力工程により入力された画像から背景差分法により物体を検出する物体検出工程と、
前記物体検出工程により検出された物体が背景化条件を満たすと、当該物体を背景化する背景化工程と、
前記物体検出工程により検出された物体が前記背景化された物体に対応するか否かを判断する判断工程と、
前記判断工程により、前記物体検出工程により検出された物体が前記背景化工程により背景化された物体に対応しないと判断されると、前記背景化された物体の状態を解析する解析工程と、
をコンピュータに実行させることを特徴とするコンピュータプログラム。
An image input process for inputting an image;
An object detection step of detecting an object by a background subtraction method from the image input by the image input step;
When the object detected by the object detection step satisfies the backgrounding condition, the backgrounding step of setting the object as a background;
A determination step of determining whether or not the object detected by the object detection step corresponds to the backgrounded object;
When the determination step determines that the object detected by the object detection step does not correspond to the object backgrounded by the backgrounding step, an analysis step of analyzing the state of the backgrounded object;
A computer program for causing a computer to execute.
JP2010173749A 2010-08-02 2010-08-02 Image processing device and method and computer program Pending JP2012033100A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010173749A JP2012033100A (en) 2010-08-02 2010-08-02 Image processing device and method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010173749A JP2012033100A (en) 2010-08-02 2010-08-02 Image processing device and method and computer program

Publications (1)

Publication Number Publication Date
JP2012033100A true JP2012033100A (en) 2012-02-16

Family

ID=45846402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010173749A Pending JP2012033100A (en) 2010-08-02 2010-08-02 Image processing device and method and computer program

Country Status (1)

Country Link
JP (1) JP2012033100A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013218612A (en) * 2012-04-11 2013-10-24 Canon Inc Image processing apparatus and image processing method
KR20160089165A (en) * 2015-01-19 2016-07-27 한화테크윈 주식회사 System and Method for Detecting Moving Objects
JP2017033559A (en) * 2015-07-31 2017-02-09 富士通株式会社 Detection device, method and system for left article
JP2018022475A (en) * 2016-06-08 2018-02-08 アクシス アーベー Method and apparatus for updating background model

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013218612A (en) * 2012-04-11 2013-10-24 Canon Inc Image processing apparatus and image processing method
KR20160089165A (en) * 2015-01-19 2016-07-27 한화테크윈 주식회사 System and Method for Detecting Moving Objects
KR102366521B1 (en) * 2015-01-19 2022-02-23 한화테크윈 주식회사 System and Method for Detecting Moving Objects
JP2017033559A (en) * 2015-07-31 2017-02-09 富士通株式会社 Detection device, method and system for left article
JP2018022475A (en) * 2016-06-08 2018-02-08 アクシス アーベー Method and apparatus for updating background model
US10489916B2 (en) 2016-06-08 2019-11-26 Axis Ab Method and apparatus for updating a background model

Similar Documents

Publication Publication Date Title
WO2019047789A1 (en) Augmented reality scene related processing method, terminal device and system and computer storage medium
JP6024658B2 (en) Object detection apparatus, object detection method, and program
JP2019536187A (en) Hybrid tracker system and method for match moves
US8417026B2 (en) Gesture recognition methods and systems
CN109767453B (en) Information processing apparatus, background image update method, and non-transitory computer-readable storage medium
JP6631641B2 (en) Image processing apparatus, image processing method, and image processing program
JP2009147911A (en) Video data compression pre-processing method, video data compression method and video data compression system using the same
CN101615296B (en) Tracking point detection apparatus and method, program, and recording medium
JP2012033100A (en) Image processing device and method and computer program
CN113657218B (en) Video object detection method and device capable of reducing redundant data
JP2018124786A (en) Image processing device, image processing method, and image processing program
JP2010016660A (en) Scene change detector, scene change detection method and program
WO2023188264A1 (en) Information processing system
JP5460239B2 (en) Screen recording device
JP2006244074A (en) Animal up-frame detection method, program, and storage medium storing program, and animal up-shot detection method, animal up-frame or shot detection method, program, and storage medium
JP4449483B2 (en) Image analysis apparatus, image analysis method, and computer program
CN114461987B (en) Content detection method, device and computer readable storage medium
JP5111269B2 (en) Image processing apparatus and image processing method
US11361797B2 (en) Moving image reproduction apparatus, moving image reproduction method, moving image reproduction system, and storage medium
JP6098320B2 (en) Image processing apparatus, image processing method, and image processing program
CN114973145A (en) An image deduplication method, apparatus, device and readable storage medium
CN117058565A (en) Interface rolling speed determining method and device, intelligent equipment and storage medium
JP2008009938A (en) Moving image data processing apparatus, moving image data processing method, moving image data processing program, and recording medium recording the same
KR101908938B1 (en) Detection of foreground object using background model-based temporal minimum filtering and log histogram
JP6308612B2 (en) Image processing apparatus, image processing method, and image processing program