JP2007164690A - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP2007164690A JP2007164690A JP2005363332A JP2005363332A JP2007164690A JP 2007164690 A JP2007164690 A JP 2007164690A JP 2005363332 A JP2005363332 A JP 2005363332A JP 2005363332 A JP2005363332 A JP 2005363332A JP 2007164690 A JP2007164690 A JP 2007164690A
- Authority
- JP
- Japan
- Prior art keywords
- background
- image
- unit
- recognition
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【課題】虚像を検出することにより適切に動物体を検出する画像処理装置及び画像処理方法を提供すること。
【解決手段】画像監視装置100は、現画像と背景画像から、所定の手順により抽出オブジェクトを抽出するオブジェクト抽出処理と、所定の手順により抽出オブジェクトと、前認識オブジェクト及び前背景オブジェクトとの比較を行い、認識オブジェクトと背景オブジェクトを生成するオブジェクト分類処理と、背景オブジェクトから背景画像を生成する背景画像生成処理と、を実行する機能を有する。
【選択図】図1An image processing apparatus and an image processing method for appropriately detecting a moving object by detecting a virtual image are provided.
An image monitoring apparatus 100 performs object extraction processing for extracting an extracted object from a current image and a background image by a predetermined procedure, and compares the extracted object with a previously recognized object and a foreground object by a predetermined procedure. And performing an object classification process for generating a recognition object and a background object, and a background image generation process for generating a background image from the background object.
[Selection] Figure 1
Description
本発明は画像処理装置及び画像処理方法に関し、入力画像と自動的に更新される背景画像との比較により監視を行う画像監視に好適な画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method, and more particularly to an image processing apparatus and an image processing method suitable for image monitoring for monitoring by comparing an input image with a background image that is automatically updated.
従来、特許文献1に記載された物体監視追跡装置では、背景差分法と動的2値化法とテンプレートマッチングを用いて動物体を検出し、検出された動物体の特徴量を抽出して予め抽出しておいた特定したい物体の特徴量と比較することで動物体を認識するようにしている。
Conventionally, in the object monitoring and tracking apparatus described in
また、特許文献2に記載された動物体検出装置について図18を参照して説明する。図18において、動物体検出装置は、変化領域抽出部1801と、継続判定部1802と、背景画像更新部1803と、継続情報記憶部1804と、背景画像記憶部1805とを備えた構成となっている。
Moreover, the moving object detection apparatus described in
変化領域抽出部1801は、入力される現画像と背景画像との画素毎の差分絶対値を計算し、所定の閾置により2値化し、この2値化画像を変化領域情報として継続判定部1802に出力する。ここで変化領域情報は動領域であり、検出動物体を示す。
The change
継続判定部1802は、変化領域抽出部1801から入力される変化領域情報に従って各画素の変化の継続フレーム数をカウントアップと、継続フレーム数が所定の閾置以上になった画素位置を取り込み領域として背景画像更新部1803に出力すると共に、カウントアップした継続情報から継続フレーム数が閾値を越えない認識情報を更新継続情報として継続情報記憶部1804に出力する。
The continuation determination unit 1802 counts up the number of continuation frames of the change of each pixel in accordance with the change region information input from the change
背景画像更新部1803は、継続判定部1802から入力される取り込み領域の背景画像を現画像の画素値に置換して更新背景画像として背景画像記憶部1805に出力する。
The background
継続情報記憶部1804は、継続判定部1802から入力される更新継続情報を記憶し、記憶した更新継続情報を次の継続情報として継続判定部1802に出力する。
The continuation
背景画像記憶部1805は、背景画像更新部1803から入力される更新背景画像を記憶し、記憶した更新背景画像を次の背景画像として変化領域抽出部1801に出力する。
The background
この動物体検出装置の動作について、図19及び図20を参照して説明する。 The operation of this moving object detection apparatus will be described with reference to FIGS. 19 and 20.
まず、変化領域抽出部1801において、図19(a)現画像と同図(b)背景画像とから同図(c)背景差分画像が生成される。次に、変化領域抽出部1801において、(c)背景差分画像を2値化して、同図(d)変化領域情報を生成した後、この(d)変化領域情報に対応する同図(e)継続情報(継続フレーム数=4)の継続フレーム数をカウントアップした同図(f)カウントアップ継続情報を生成する。
First, the change
図19では、変化領域情報と継続情報において車の領域が一致しており、継続フレーム数がカウントアップされて「5」となり、人の領域は新たに追加されて継続フレーム数は「1」となる。 In FIG. 19, the area of the vehicle is the same in the change area information and the continuation information, the number of continuation frames is counted up to “5”, the human area is newly added, and the number of continuation frames is “1”. Become.
次いで、継続フレーム数が閾値を越えた画素位置を同図(g)取り込み領域として背景画像更新部1803に出力し、閾値を越えなかった画素位置を同図(h)更新継続情報として継続情報記憶部1804に出力する。ここでは、閾値を「5」と設定しており、継続フレーム数が「5」となった車の領域は取り込み領域として出力され、更新継続情報からは削除されて、継続フレーム数が「1」の人の領域のみが更新継続情報として出力される。
Next, the pixel position where the number of continuation frames exceeds the threshold value is output to the background
そして、図20に示すように、背景画像更新部1803は、同図(b)背景画像の同図(g)背景更新領域を置換することにより同図(i)更新背景画像を生成して背景画像記憶部1805に出力する。
Then, as shown in FIG. 20, the background
以上のような動物体検出装置の構成によれば、動物体が画面内で静止した場合でも、静止した動物体がすぐに背景画像として取り込まれることなく、連続的に動物体を検出することができる。
しかしながら、上記特許文献2の動物体検出装置のように背景更新を行う場合、一旦背景画像に取り込まれた動物体が再び動き出すと背景差分に虚像を生じてしまい、虚像部分の背景が再び更新されるまで虚像を生じ続けることになり、虚像部分まで動物体であると誤検出するという問題が発生する。
However, when the background is updated as in the moving object detection device of
例えば、図21に示すような一旦、(b)背景画像に取り込まれた動物体が再び動き出した場合を考えると、同図(d)変化領域情報には動物体の領域だけでなく動物体が静止していた領域も含まれており、同図(e)検出動物体画像に示されるように動物体だけでなく虚像が検出される。 For example, when (b) the moving object captured in the background image starts moving again as shown in FIG. 21, (d) the change area information includes not only the moving object area but also the moving object. A stationary area is also included, and a virtual image is detected as well as a moving object as shown in FIG.
また、背景差分に虚像が生じても誤検出しないものには、特許文献1の物体監視追跡装置がある。すなわち、背景差分を生じた領域から予め想定していた検出対象を特定することにより、虚像が生じても誤検出しない。しかし、検出対象を探索するための情報を予め準備しておく必要があり、不特定の動物体を検出することはできない。
Further, there is an object monitoring and tracking apparatus disclosed in
本発明はかかる点に鑑みてなされたものであり、虚像を検出することにより適切に動物体を検出する画像処理装置及び画像処理方法を提供することを目的とする。 This invention is made | formed in view of this point, and it aims at providing the image processing apparatus and image processing method which detect a moving body appropriately by detecting a virtual image.
本発明の画像処理装置は、現画像と背景画像からオブジェクトを抽出するオブジェクト抽出部と、前記オブジェクト抽出部により抽出された抽出オブジェクトと前認識オブジェクト及び前背景オブジェクトとの比較を行い、検出オブジェクト、認識オブジェクト及び背景オブジェクトを生成するオブジェクト分類部と、前記背景オブジェクトから背景画像を生成する背景画像生成部と、前記認識オブジェクトを記憶し、次の前認識オブジェクトとして前記オブジェクト分類部に出力する認識オブジェクト記憶部と、前記背景オブジェクトを記憶し、次の前背景オブジェクトとして前記オブジェクト分類部に出力する背景オブジェクト記憶部と、を具備する構成を採る。 An image processing apparatus according to the present invention includes an object extraction unit that extracts an object from a current image and a background image, a comparison between an extracted object extracted by the object extraction unit, a previously recognized object, and a foreground object, An object classification unit that generates a recognition object and a background object, a background image generation unit that generates a background image from the background object, and a recognition object that stores the recognition object and outputs the recognition object to the object classification unit as the next previous recognition object A configuration is provided that includes a storage unit, and a background object storage unit that stores the background object and outputs the background object to the object classification unit as the next previous background object.
この構成によれば、画像内の変化部と背景に取り込まれた物体とを比較して背景に取り込まれた物体が再び動き出したことを検出できるため、変化部から虚像を排除するとともに適切に背景を更新することができる。 According to this configuration, it is possible to detect that the object captured in the background starts to move again by comparing the changed part in the image with the object captured in the background. Can be updated.
また、本発明の画像処理装置は、現画像と背景画像からオブジェクトを抽出するオブジェクト抽出部と、前記オブジェクト抽出部により抽出された抽出オブジェクトと前認識オブジェクト及び前背景オブジェクトとの比較を行い、検出オブジェクト、認識オブジェクト及び背景オブジェクトを生成するオブジェクト分類部と、前記現画像と前記背景オブジェクトから更新背景オブジェクトを生成する背景オブジェクト更新部と、前記更新背景オブジェクトから背景画像を生成する背景画像生成部と、前記認識オブジェクトを記憶し、次の前認識オブジェクトとして前記オブジェクト分類部に出力する認識オブジェクト記憶部と、前記更新背景オブジェクトを記憶し、次の前背景オブジェクトとして前記オブジェクト分類部に出力する背景オブジェクト記憶部と、を具備する構成を採る。 The image processing apparatus of the present invention also detects an object extracting unit that extracts an object from a current image and a background image, and compares the extracted object extracted by the object extracting unit with a previously recognized object and a foreground / background object. An object classifying unit that generates an object, a recognition object, and a background object; a background object updating unit that generates an updated background object from the current image and the background object; and a background image generating unit that generates a background image from the updated background object; A recognition object storage unit that stores the recognition object and outputs it as the next previous recognition object to the object classification unit; and a background object that stores the updated background object and outputs it as the next previous background object to the object classification unit. It adopts a configuration comprising a-object storage unit.
この構成によれば、画像内の変化部と背景に取り込まれた物体とを比較して背景に取り込まれた物体が再び動き出したことを検出でき、背景を構成する物体の特徴量変化にも追従できるため、変化部から虚像を排除するとともにより適切な背景を生成することができる。 According to this configuration, it is possible to detect that the object captured in the background starts to move again by comparing the change part in the image with the object captured in the background, and also follow the change in the feature amount of the object constituting the background. Therefore, it is possible to eliminate the virtual image from the change portion and generate a more appropriate background.
また、本発明の画像処理装置は、請求項1又は2記載の画像処理装置において、前記オブジェクト抽出部は、前記現画像と前記背景画像から背景差分画像を生成し、該背景差分画像を2値化処理して背景差分マスクを生成し、該背景差分マスクを領域分割して分割領域毎の前記現画像から特徴量を抽出して抽出オブジェクトを出力し、前記オブジェクト分類部は、前記抽出オブジェクトと一致する前記前背景オブジェクトを選択し、前記選択した前記背景オブジェクトの前記背景差分マスク及び前記分割領域と前記抽出オブジェクトの前記背景差分マスク及び前記分割領域が一致するオブジェクトを虚像オブジェクトとし、前記虚像オブジェクトと一致しない前記抽出オブジェクトを検出オブジェクトとし、前記前認識オブジェクトと一致する前記検出オブジェクトを仮認識オブジェクトとして保持し、保持回数が所定の回数になったとき、前記仮認識オブジェクトを新規背景化オブジェクトとし、前記新規背景化オブジェクトと一致しない前記検出オブジェクトを認識オブジェクトとし、前記新規背景化オブジェクトと前記継続背景オブジェクトを統合して背景オブジェクトとして出力する構成を採る。
The image processing apparatus according to the present invention is the image processing apparatus according to
この構成によれば、背景に取り込む領域の特徴量を記憶しておき、変化を生じた領域の特徴量と比較することで背景化した領域の変化を検出し、その領域に生じた変化をマスクすることで虚像を排除することができる。 According to this configuration, the feature amount of the region to be captured in the background is stored, the change in the background region is detected by comparing with the feature amount of the region in which the change has occurred, and the change that has occurred in the region is masked. By doing so, the virtual image can be eliminated.
また、本発明の画像処理装置は、請求項2記載の画像処理装置において、前記背景オブジェクト更新部は、前記背景オブジェクトを合成して背景オブジェクトマップを生成し、前記検出オブジェクトのオブジェクトマスクを合成して合成検出オブジェクトマスクを生成し、前記現画像と、前記背景オブジェクトと、前記背景オブジェクトマップと、前記合成検出オブジェクトマスクと、から背景オブジェクトを更新して更新背景オブジェクトとして出力する構成を採る。
The image processing apparatus according to the present invention is the image processing apparatus according to
この構成によれば、更新背景オブジェクトを現画像の微小な変化に追従させることができ、更新背景オブジェクトを用いて生成する背景画像をより適切なものとすることができる。また、同一物体の特徴量の類似性は時間的に近接しているほうが強い傾向があり、背景オブジェクトが更新されていくことで、動き出す直前の物体の特徴量と比較することができるので、虚像の検出精度を向上することができる。 According to this configuration, the updated background object can be made to follow minute changes in the current image, and the background image generated using the updated background object can be made more appropriate. In addition, the similarity of the feature quantity of the same object tends to be stronger when close in time, and since the background object is updated, it can be compared with the feature quantity of the object just before moving, so a virtual image Detection accuracy can be improved.
また、本発明の画像処理方法は、現画像と背景画像からオブジェクトを抽出するオブジェクト抽出ステップと、抽出された前記抽出オブジェクトと前認識オブジェクト及び前背景オブジェクトとの比較を行い、検出オブジェクト、認識オブジェクト及び背景オブジェクトを生成するオブジェクト分類ステップと、前記背景オブジェクトから背景画像を生成する背景画像生成ステップと、前記認識オブジェクトを認識オブジェクト記憶部に記憶し、次の前認識オブジェクトとして出力する認識オブジェクト記憶ステップと、前記背景オブジェクトを背景オブジェクト記憶部に記憶し、次の前背景オブジェクトとして出力する背景オブジェクト記憶ステップと、を有するにより画像から物体を検出する方法を採る。 The image processing method of the present invention includes an object extraction step of extracting an object from a current image and a background image, and compares the extracted object with a previous recognition object and a previous background object, thereby detecting a detection object and a recognition object. And an object classification step for generating a background object, a background image generation step for generating a background image from the background object, and a recognition object storage step for storing the recognition object in a recognition object storage unit and outputting it as the next previous recognition object And a background object storage step of storing the background object in a background object storage unit and outputting it as the next previous background object, and adopting a method of detecting an object from an image.
この方法によれば、画像内の変化部と背景に取り込まれた物体とを比較して背景に取り込まれた物体が再び動き出したことを検出できるため、変化部から虚像を排除するとともに適切に背景を更新することができる。 According to this method, it is possible to detect that the object captured in the background starts to move again by comparing the changed part in the image with the object captured in the background. Can be updated.
また、本発明の画像処理方法は、現画像と背景画像からオブジェクトを抽出するオブジェクト抽出ステップと、抽出された前記抽出オブジェクトと前認識オブジェクト及び前背景オブジェクトとの比較を行い、検出オブジェクト、認識オブジェクト及び背景オブジェクトを生成するオブジェクト分類ステップと、前記現画像と前記背景オブジェクトから更新背景オブジェクトを生成する背景オブジェクト更新ステップと、前記更新背景オブジェクトから背景画像を生成する背景画像生成ステップと、前記認識オブジェクトを認識オブジェクト記憶部に記憶し、次の前認識オブジェクトとして出力する認識オブジェクト記憶ステップと、前記更新背景オブジェクトを背景オブジェクト記憶部に記憶し、次の前背景オブジェクトとして出力する背景オブジェクト記憶ステップと、を有することにより画像から物体を検出する方法を採る。 The image processing method of the present invention includes an object extraction step of extracting an object from a current image and a background image, and compares the extracted object with a previous recognition object and a previous background object, thereby detecting a detection object and a recognition object. And an object classification step for generating a background object, a background object updating step for generating an updated background object from the current image and the background object, a background image generating step for generating a background image from the updated background object, and the recognition object Is stored in the recognition object storage unit and output as the next previous recognition object, and the updated background object is stored in the background object storage unit and output as the next previous background object. Adopt a method of detecting an object from an image by having the object storage step.
この方法によれば、画像内の変化部と背景に取り込まれた物体とを比較して背景に取り込まれた物体が再び動き出したことを検出でき、背景を構成する物体の特徴量変化にも追従できるため、変化部から虚像を排除するとともにより適切な背景を生成することができる。 According to this method, it is possible to detect that the object captured in the background starts to move again by comparing the changed part in the image with the object captured in the background, and also follow the change in the feature amount of the object composing the background. Therefore, it is possible to eliminate the virtual image from the change portion and generate a more appropriate background.
本発明によれば、画像内の変化部と背景に取り込まれた物体とを比較して背景に取り込まれた物体が再び動き出したことを検出できるため、変化部から虚像を排除するとともに適切に背景を更新することができ、適切に動物体を検出することができる。 According to the present invention, it is possible to detect that the object captured in the background starts to move again by comparing the changed part in the image with the object captured in the background. Can be updated and the moving object can be detected appropriately.
以下、本発明の実施の形態について図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(実施の形態1)
図1は、本実施の形態1の画像監視装置100の構成を示すブロック図である。図1において、画像監視装置100は、オブジェクト抽出部101と、オブジェクト分類部102と、背景画像生成部103と、認識オブジェクト記憶部104と、背景オブジェクト記憶部105と、から構成される。
(Embodiment 1)
FIG. 1 is a block diagram illustrating a configuration of the
本実施の形態1の画像監視装置100は、図4に示すフローチャートのように、現画像と背景画像から、所定の手順により抽出オブジェクトを抽出するオブジェクト抽出処理と(ステップS101)、所定の手順により抽出オブジェクトと、前認識オブジェクト及び前背景オブジェクトとの比較を行い、認識オブジェクトと背景オブジェクトを生成するオブジェクト分類処理と(ステップS102)、背景オブジェクトから背景画像を生成する背景画像生成処理と(ステップS103)、を実行する機能を有する。
As shown in the flowchart of FIG. 4, the
まず、オブジェクト抽出部101の構成及び機能について、図2に示すブロック構成図と、図5に示すフローチャートを参照して説明する。
First, the configuration and function of the
オブジェクト抽出部101は、図2に示すように、背景差分処理部201と、2値化部202と、領域分割部203と、特徴量抽出部204と、から構成される。
As illustrated in FIG. 2, the
まず、背景差分処理部201は、入力される現画像と背景画像の画素単位の差分絶対値を計算し、その差分絶対値を画素値とする背景差分画像を2値化部202に出力する(ステップS201)。
First, the background
次に、2値化部202は、背景差分処理部201から入力された背景差分画像を所定の閾値で2値化して背景差分マスクを生成する。ここで、背景差分マスクは、差分絶対値が所定の閾値以上の画素の画素値を「1」とし、それ以外の画素の画素値を「0」とした2値画像を背景差分マスクとして領域分割部203に出力する(ステップS202)。
Next, the
次に、領域分割部203は、2値化部202から入力された差分背景マスクから画素値が「1」の画素の部分を分割し、画素値「1」と「0」について0個以上の分割領域を生成する。ここでは、同一画素値が連続している部分を同一の領域として分割し、その面積が所定の閾値よりも小さい領域は削除する。この場合、面積は領域内の画素値が「1」の画素の数である(ステップS203)。
Next, the
次に、特徴量抽出部204は、領域分割部203から入力された分割領域毎の現画像から特徴量を抽出し、抽出オブジェクトとしてオブジェクト分類部102に出力する(ステップS204)。
Next, the feature
特徴量としては、面積、色ヒストグラム等を抽出する。面積は、分割領域内の面積である。色ヒストグラムは、分割領域内を色空間で分割し、同一色空間に属する画素の数を集計したものである。また、本実施の形態1では、分割領域、分割領域内の背景差分マスク、分割領域の画像を、それぞれ矩形領域、オブジェクトマスク、矩形領域画像とし、それぞれ特徴量とあわせたものを抽出オブジェクトとして出力する。 As the feature amount, an area, a color histogram, and the like are extracted. The area is an area in the divided region. The color histogram is obtained by dividing the divided area by a color space and totaling the number of pixels belonging to the same color space. In the first embodiment, the divided area, the background difference mask in the divided area, and the image of the divided area are set as a rectangular area, an object mask, and a rectangular area image, respectively, and those combined with the feature amount are output as extracted objects. To do.
以上の構成により、オブジェクト抽出部101は、現画像と背景画像から抽出オブジェクトを生成する機能を有する。
With the above configuration, the
次に、図1のオブジェクト分類部102の構成及び機能について、図3に示すブロック構成図と、図6に示すフローチャートを参照して説明する。
Next, the configuration and function of the
オブジェクト分類部102は、図3に示すように、虚像判定部301と、認識オブジェクト更新部302と、背景オブジェクト統合部303と、から構成される。
As shown in FIG. 3, the
虚像判定部301は、図3に示すように、オブジェクト抽出部101から入力される抽出オブジェクトと、図1の背景オブジェクト記憶部105から入力される前背景オブジェクトの比較・対応付けを行い、抽出オブジェクトと一致した前背景オブジェクトを選択する。そして、この一致した前背景オブジェクトの矩形領域、及びオブジェクトマスクが一致するオブジェクトを抽出オブジェクトから探索して虚像オブジェクトとする。さらに、抽出オブジェクトの中で、この虚像オブジェクト以外の抽出オブジェクトを検出オブジェクトとして認識オブジェクト更新部302と外部に出力する(ステップS301)。
As illustrated in FIG. 3, the virtual
抽出オブジェクトと前背景オブジェクトの比較は、オブジェクトマスク、面積、色ヒストグラムを用いて行う。 Comparison between the extracted object and the foreground / background object is performed using an object mask, an area, and a color histogram.
オブジェクトマスクとの一致判定については、抽出オブジェクト及び前背景オブジェクトのオブジェクトマスクとの各画素間で差分絶対値をとり、これら差分絶対値を合計し、合計値が所定の閾値以下となった場合に、オブジェクトマスクと一致したと判定する。 As for the coincidence determination with the object mask, the absolute value of the difference is calculated between each pixel of the extracted object and the object mask of the foreground / background object, and the difference absolute value is summed, and the total value is equal to or less than a predetermined threshold value. It is determined that the object mask matches.
面積の一致判定については、抽出オブジェクト及び前背景オブジェクトの面積が所定の閾値以下となった場合に、面積が一致したと判定する。 Regarding the area coincidence determination, when the areas of the extracted object and the foreground / background object are equal to or smaller than a predetermined threshold, it is determined that the areas coincide.
色ヒストグラムの一致判定については、抽出オブジェクト及び前背景オブジェクトの色ヒストグラム間でユークリッド距離を計算し、そのユークリッド距離が所定の閾値以下となった場合に、色ヒストグラムが一致したと判定する。 Regarding the color histogram match determination, the Euclidean distance is calculated between the color histograms of the extracted object and the foreground / background object, and when the Euclidean distance is equal to or less than a predetermined threshold, it is determined that the color histograms match.
また、矩形領域の比較については、抽出オブジェクト及び前背景オブジェクトの矩形領域左上座標間の距離が所定の閾値以下、かつ、幅が所定の閾値以下、かつ、高さが所定の閾値以下であった場合に、矩形領域は一致したと判定する。 Regarding the comparison of the rectangular areas, the distance between the upper left coordinates of the rectangular area of the extracted object and the foreground / background object is not more than a predetermined threshold, the width is not more than the predetermined threshold, and the height is not more than the predetermined threshold. In this case, it is determined that the rectangular areas match.
また、虚像判定部301は、抽出オブジェクトと前背景オブジェクトが、オブジェクトマスク、面積、色ヒストグラムの全てが一致していた場合には、抽出オブジェクトと前背景オブジェクトが一致したとみなし、前背景オブジェクトの中で、この一致した前背景オブジェクト以外を継続背景オブジェクトとして背景オブジェクト統合部303に出力する。
Further, if the extracted object and the foreground / background object match all of the object mask, area, and color histogram, the virtual
次に、認識オブジェクト更新部302は、虚像判定部301から入力される検出オブジェクトと、図1の認識オブジェクト記憶部104から入力される前認識オブジェクトとの比較・対応付けを行い、対応付けされたオブジェクトを仮認識オブジェクトとする。そして、所定フレーム数以上仮認識オブジェクトとして認識された検出オブジェクトを新規背景化オブジェクトとして背景オブジェクト統合部303に出力する。また、所定フレーム数以上連続で認識されなかった前認識オブジェクト及び新規背景化オブジェクトとならなかった前認識オブジェクト以外の前認識オブジェクトを、検出オブジェクトを用いて更新して認識オブジェクトを生成して認識オブジェクト記憶部104に出力する(ステップS302)。
Next, the recognition
検出オブジェクトと前認識オブジェクトの比較は、矩形領域、オブジェクトマスク、面積及び色ヒストグラムを用いて行う。 Comparison between the detected object and the previously recognized object is performed using a rectangular area, an object mask, an area, and a color histogram.
矩形領域の比較については、検出オブジェクト及び前認識オブジェクトの矩形領域左上座標間の距離が所定の閾値以下、かつ、幅が所定の閾値以下、かつ、高さが所定の閾値以下であった場合に、矩形領域は一致したと判定する。 For comparison of rectangular areas, when the distance between the upper left coordinates of the rectangular area of the detected object and the previously recognized object is less than a predetermined threshold, the width is less than the predetermined threshold, and the height is less than the predetermined threshold It is determined that the rectangular areas match.
オブジェクトマスクとの比較については、抽出オブジェクト及び前背景オブジェクトのオブジェクトマスクとの各画素間で差分絶対値をとり、これら差分絶対値を合計し、合計値が所定の閾値以下となった場合に、オブジェクトマスクと一致したと判定する。 For comparison with the object mask, the difference absolute value is taken between each pixel of the extracted object and the object mask of the foreground / background object, and the difference absolute value is summed, and when the total value becomes a predetermined threshold value or less, It is determined that the object mask matches.
面積の比較については、抽出オブジェクト及び前背景オブジェクトの面積が所定の閾値以下となった場合に、面積は一致したと判定する。 Regarding the area comparison, when the areas of the extracted object and the foreground / background object are equal to or less than a predetermined threshold, it is determined that the areas match.
色ヒストグラムの比較については、抽出オブジェクト及び前背景オブジェクトの色ヒストグラム間でユークリッド距離を計算し、そのユークリッド距離が所定の閾値以下となった場合に、色ヒストグラムが一致したと判定する。 Regarding the comparison of color histograms, the Euclidean distance is calculated between the color histograms of the extracted object and the foreground / background object, and it is determined that the color histograms match when the Euclidean distance falls below a predetermined threshold.
認識オブジェクト更新部302は、矩形領域、オブジェクトマスク、面積及び色ヒストグラムの全てが一致していた場合に、抽出オブジェクトと前背景オブジェクトが一致したとみなす。
The recognized
認識オブジェクト更新部302は、一致した検出オブジェクトに対しては、対応する前認識オブジェクトの認識フレーム数、非認識フレーム数、連続認識フレーム数、連続非認識フレーム数を更新して(認識フレーム数と連続認識フレーム数をインクリメント、連続非認識フレーム数をリセット)付加し、連続認識フレーム数が所定の閾値以上となったものは新規背景化オブジェクトとし、背景化時刻を付加して背景オブジェクト統合部303に出力する。
The recognized
また、認識オブジェクト更新部302は、一致しなかった検出オブジェクトに対しては、初期化した認識フレーム数、非認識フレーム数、連続非認識フレーム数を付加して、認識オブジェクトとして認識オブジェクト記憶部104に出力する。
The recognized
さらに、認識オブジェクト更新部302は、一致しなかった前認識オブジェクトに対しては、非認識フレーム数、連続非認識フレーム数、連続認識フレーム数を更新し(非認識フレーム数と連続非認識フレーム数をインクリメント、連続認識フレーム数をリセット)、連続非認識フレーム数が所定の閾値以下のものを認識オブジェクトとして認識オブジェクト記憶部104に出力する。
Further, the recognition
次に、背景オブジェクト統合部303は、虚像判定部301から入力された継続背景オブジェクトと、認識オブジェクト更新部302から入力された新規背景化オブジェクトを統合し、背景オブジェクトを生成して背景画像生成部103と背景オブジェクト記憶部105に出力する(ステップS303)。
Next, the background
以上の構成により、オブジェクト分類部102は、抽出オブジェクトと、前認識オブジェクトと、前背景オブジェクトと、から認識オブジェクトと、背景オブジェクトを生成する機能を有する。
With the above configuration, the
次に、図1の背景画像生成部103は、オブジェクト分類部102から入力される背景オブジェクトから背景画像を生成する(ステップS103)。背景画像生成部103は、入力された背景オブジェクトを背面から前面へと、背景化時刻が早いものから順に並べ、背面のオブジェクトを前面のオブジェクトで上書きしていくことでオブジェクトの重なりを考慮する。また、背景画像生成部103は、矩形領域に配置した矩形領域画像に対して、オブジェクトマスクの画素値が「1」の部分の画像を書き込む。
Next, the background
次に、図1の認識オブジェクト記憶部104は、オブジェクト分類部102から入力される認識オブジェクトを記憶し、記憶した認識オブジェクトを次の前認識オブジェクトとしてオブジェクト分類部102に出力する。
Next, the recognition
次に、図1の背景オブジェクト記憶部105は、オブジェクト分類部102から入力される背景オブジェクトを記憶し、記憶した背景オブジェクトを次の前背景オブジェクトとしてオブジェクト分類部102に出力する。
Next, the background
以上の構成により、本実施の形態1の画像監視装置100は、背景に取り込まれた物体と変化部分を比較することで虚像を検出することができ、動物体を適切に検出するとともに、背景画像を適切に更新する。
With the above configuration, the
以上のように構成された画像監視装置100の動作について、図7〜図11を参照して説明する。
The operation of the
図7〜図9は、画像監視画面内に人が侵入してきて静止し、画面内で静止していた車が動き出したときの画像監視装置100内の各部の動作例を示したものである。この動作例では、人と車を動物体として検出するとともに、人を背景として取り込み、停止していた車が背景から削除される場合について説明する。
FIG. 7 to FIG. 9 show an example of the operation of each part in the
まず、オブジェクト抽出部101の動作について図7を参照して説明する。図7は、オブジェクト抽出部101内の各ブロックにおける入出力画像の例を示した図である。
First, the operation of the
図7(b)の背景画像は、初期背景と車、自転車の背景オブジェクトにより生成された背景画像であり、画面内に進入・停止した車及び自転車が既に背景化していることを想定している。これに対して、同図(a)に示した現画像は、画面内に進入・静止している人と再始動した車、及び画面内に進入した犬が映っていることを想定した画像である。 The background image of FIG. 7B is a background image generated by the initial background and the background object of the car and the bicycle, and it is assumed that the car and the bicycle that entered / stopped in the screen have already become the background. . On the other hand, the current image shown in FIG. 6A is an image that assumes that a person who has entered and stopped in the screen, a restarted car, and a dog that has entered the screen are shown. is there.
背景差分処理部201では、入力された(a)現画像と(b)背景画像の画素単位の差分絶対値が計算され、その差分絶対値を画素値とする背景差分処理が行われ、同図(c)の背景差分画像が生成されて2値化部202に出力される。
The background
次いで、2値化部202では、背景差分処理部201から入力された(c)背景差分画像が所定の閾値で2値化処理され、同図(d)の背景差分マスクが生成されて領域分割部203に出力される。
Next, the
次いで、領域分割部203では、2値化部202から入力された(d)背景差分マスクから同一画素値が連続している部分が同一の領域として領域分割され、同図(e)の領域1〜4が分割領域として生成されて特徴量抽出部204に出力される。
Next, the
次いで、特徴量抽出部204では、入力された(a)現画像と、領域分割部203から入力された分割領域からの特徴量抽出処理により、分割領域1〜4毎に特徴量が抽出され、分割領域1〜4に対応する同図(f)の抽出オブジェクト1〜4として生成されてオブジェクト分類部102に出力される。
Next, the feature
ここでは、人、車、車の虚像、及び犬がそれぞれ抽出オブジェクト1〜4として抽出される。
Here, a person, a car, a virtual image of a car, and a dog are extracted as
次に、オブジェクト分類部102の動作について図8を参照して説明する。図8は、オブジェクト分類部102内の各ブロックにおける入出力画像の例を示した図である。
Next, the operation of the
まず、虚像判定部301では、オブジェクト抽出部101から入力された(a)の抽出オブジェクト1〜4と、背景オブジェクト記憶部105から入力された同図(b)の前背景オブジェクト1,2との虚像判定により、同図(d)の検出オブジェクト1〜3が生成されて認識オブジェクト更新部302に出力されるとともに、同図(e)の継続背景オブジェクト1が生成されて背景オブジェクト統合部303に出力される。
First, in the virtual
すなわち、抽出オブジェクト1〜4と前背景オブジェクト1,2との比較・対応付けが行われた結果、抽出オブジェクト2と前背景オブジェクト1が一致し、この前背景オブジェクト1と矩形領域及びオブジェクトマスクが一致する抽出オブジェクト3が虚像オブジェクトと判定される。したがって、虚像オブジェクト以外の抽出オブジェクト1,2,4がそれぞれ、同図(d)の検出オブジェクト1〜3として認識オブジェクト更新部302と外部に出力され、前背景オブジェクト2が同図(e)の継続背景オブジェクト1として背景オブジェクト統合部303に出力される。
That is, as a result of comparison / association between the extracted
次に、認識オブジェクト更新部302では、認識オブジェクト記憶部104から入力された同図(c)の前認識オブジェクトと、虚像判定部301から入力された(d)検出オブジェクト1〜3から認識オブジェクト更新処理が行われることにより、同図(f)の認識オブジェクト1,2が生成されて認識オブジェクト記憶部104に出力されるとともに、同図(g)の新規背景化オブジェクト1が生成されて背景オブジェクト統合部303に出力される。
Next, the recognition
すなわち、前認識オブジェクト1と検出オブジェクト1が一致し、認識フレーム数、連続認識フレーム数、連続非認識フレーム数が更新される。ここで、背景化の閾値を「10」と想定すると、連続認識フレーム数が閾値以上となるので、前認識オブジェクト1と検出オブジェクト1から(g)新規背景化オブジェクト1が生成される。
That is, the
次に、背景オブジェクト統合部303では、虚像判定部301から入力された(e)継続背景オブジェクト1と、認識オブジェクト更新部302から入力された(g)新規背景化オブジェクト1が統合されて、同図(h)の背景オブジェクト1,2が生成されて背景画像生成部103と背景オブジェクト記憶部105に出力される。
Next, the background
すなわち、(e)継続背景オブジェクト1と(g)新規背景化オブジェクト1が、それぞれ(h)の背景オブジェクト1,2となる。
That is, (e) the
以上のように、オブジェクト分類部102では、以上のような動作を行うことにより、虚像を排除し、検出オブジェクト、背景オブジェクト及び認識オブジェクトを生成する。
As described above, the
次に、背景画像生成部103の動作について図9を参照して説明する。図9は、背景画像生成部103の入出力画像の例を示した図である。
Next, the operation of the background
背景画像生成部103では、オブジェクト分類部102から入力された(b)背景オブジェクト1,2から背景画像生成処理により同図(c)の背景画像が生成されてオブジェクト抽出部101に出力される。ここでは、背景化時刻の早い順、背景オブジェクト1,2の順で、(a)初期背景画像を(b)背景オブジェクト1,2で上書きし、(c)背景画像となる。
In the background
以上のように、図7〜図9を用いて説明したような動作により、虚像を含まない検出オブジェクトの抽出と、虚像を適切に更新した背景画像の生成が可能になる。 As described above, the operation described with reference to FIGS. 7 to 9 enables extraction of a detection object that does not include a virtual image and generation of a background image in which the virtual image is appropriately updated.
なお、上記オブジェクト分類部102で処理される抽出オブジェクト、前背景オブジェクト、検出オブジェクト、継続背景オブジェクト、新規背景化オブジェクト、認識オブジェクト及び背景オブジェクトのデータ例を図10に示す。また、図10のオブジェクトデータの構成例を図11に示す。
FIG. 10 shows data examples of the extracted object, the foreground / background object, the detection object, the continuous background object, the new background object, the recognition object, and the background object processed by the
以上のように、本実施の形態1の画像監視装置によれば、一旦背景画像に取り込まれた動物体が再び動き出したことを確実に検出し、虚像を生じない画像に背景画像を更新するとともに、適切に監視画面内に進入する動物体を検出することができる。 As described above, according to the image monitoring apparatus of the first embodiment, it is reliably detected that the moving object once captured in the background image starts to move again, and the background image is updated to an image that does not generate a virtual image. It is possible to appropriately detect a moving object entering the monitoring screen.
なお、本実施の形態1の領域分割部においては、画素値が連続しない部分で領域分割を行うようにしたが、矩形位置が近い場合はこれらを統合するようにしてもよいし、類似の特徴量をもつものを統合するようにしてもよい。また、本実施の形態1の画像監視装置では、抽出や比較に用いる特徴量を面積と色ヒストグラムとしたが、これらに限るものではない。 In the region dividing unit according to the first embodiment, the region is divided at a portion where the pixel values are not continuous. However, when the rectangular positions are close to each other, these may be integrated or similar features may be used. You may make it integrate what has quantity. In the image monitoring apparatus of the first embodiment, the feature amounts used for extraction and comparison are the area and the color histogram, but are not limited thereto.
(実施の形態2)
本発明の実施の形態2について、図12〜図17を参照して説明する。
(Embodiment 2)
A second embodiment of the present invention will be described with reference to FIGS.
図12は、本実施の形態2の画像監視装置1200の構成を示すブロック図であり、実施の形態1の図1に示した画像監視装置100と同一の構成部分にと同一符号を付している。図12において、画像監視装置1200は、オブジェクト抽出部101と、オブジェクト分類部102と、背景画像生成部103と、認識オブジェクト記憶部104と、背景オブジェクト記憶部105と、背景オブジェクト更新部1201と、から構成される。
FIG. 12 is a block diagram showing the configuration of the
オブジェクト抽出部101と、オブジェクト分類部102と、認識オブジェクト記憶部104については、上記実施の形態1に示したものと同様の機能を有する。背景画像生成部103と、背景オブジェクト記憶部105については、背景オブジェクトではなく更新背景オブジェクトを扱うが、データ構造に違いはなく、その動作は上記実施の形態1に示したものと同様である。
The
また、本実施の形態2の画像監視装置1200は、図14に示すフローチャートのように、上記実施の形態1の画像監視装置100と同様に、オブジェクト抽出処理と(ステップS101)、オブジェクト分類処理と(ステップS102)、背景画像生成処理と(ステップS103)、を実行する機能を有するとともに、背景オブジェクト更新部1201が所定の手順により更新背景オブジェクトを生成する背景オブジェクト更新処理と(ステップS1403)、を更に実行する機能を有する。
Further, the
背景オブジェクト更新部1201は、現画像と、オブジェクト分類部102から入力される背景オブジェクト及び検出オブジェクトとから、所定の手順により更新背景オブジェクトを生成する。
The background
次に、背景オブジェクト更新部1201の構成及び機能について、図13に示すブロック構成図と、図15に示すフローチャートを参照して説明する。
Next, the configuration and function of the background
背景オブジェクト更新部1201は、図13に示すように、背景オブジェクト合成部1301と、検出オブジェクトマスク合成部1302と、オブジェクトデータ更新部1303と、から構成される。
As illustrated in FIG. 13, the background
まず、背景オブジェクト合成部1301は、オブジェクト分類部102から入力される背景オブジェクトを合成し、各画素と背景オブジェクトを対応付けた背景オブジェクトマップを生成してオブジェクトデータ更新部1303に出力する(ステップS1501)。
First, the background
ここでは、最背面から背景化時刻昇順で背景オブジェクトが並べられる。つまり、背景オブジェクトが重なっていた場合は、背景化時刻が遅い背景オブジェクトに画素は対応付けられる。 Here, the background objects are arranged in ascending order of backgrounding time from the back. That is, when the background object overlaps, the pixel is associated with the background object with the later backgrounding time.
次いで、検出オブジェクトマスク合成部1302は、オブジェクト分類部102から入力された検出オブジェクトのオブジェクトマスクを合成して、合成検出オブジェクトマスクを生成してオブジェクトデータ更新部1303に出力する(ステップS1502)。
Next, the detected object
次いで、オブジェクトデータ更新部1303は、入力される現画像と、オブジェクト分類部102から入力される背景オブジェクトと、背景オブジェクト合成部1301から入力される背景オブジェクトマップと、検出オブジェクトマスク合成部1302から入力される合成検出オブジェクトマスクと、から背景オブジェクトを更新し、更新背景オブジェクトとして背景画像生成部103と背景オブジェクト記憶部105に出力する(ステップS1503)。
Next, the object
合成検出オブジェクトマスクまたは他の背景オブジェクトによりマスクされていない画素が、背景オブジェクトの面積に対して第1の所定の閾値以上の割合を占める背景オブジェクトについては、矩形領域画像を現画像から抽出し直し、これを用いて特徴量も抽出し直す。 For a background object in which pixels not masked by the composite detection object mask or other background object occupy a ratio equal to or greater than the first predetermined threshold with respect to the area of the background object, the rectangular area image is re-extracted from the current image Using this, the feature amount is extracted again.
また、背景オブジェクトの面積に対して第2の所定の閾値以上の割合を占める背景オブジェクトについては、対応付けられている画素の平均輝度値及び背景オブジェクトの平均輝度値を算出し、これらの差分だけ背景オブジェクトの矩形画像の全画素をシフトし、これを用いて特徴量を抽出し直す。 For a background object that occupies a ratio equal to or greater than the second predetermined threshold with respect to the area of the background object, the average luminance value of the associated pixel and the average luminance value of the background object are calculated, and only the difference between them is calculated. All pixels of the rectangular image of the background object are shifted, and feature values are extracted again using this.
それ以外の背景オブジェクトについては、背景オブジェクトの更新は行わない。 Background objects are not updated for other background objects.
以上のような背景オブジェクト更新部1201の構成により、背景オブジェクト更新部1201は現画像と検出オブジェクトと背景オブジェクトから更新背景オブジェクトを生成する。
With the configuration of the background
上記のように構成された画像監視装置1200は、背景に取り込まれた物体と変化部分を比較することで虚像を検出することができ、動物体を適切に検出するとともに、背景画像をより適切に更新する。
The
以上のように構成された画像監視装置1200の動作について、図16,17を参照して説明する。ここでは、特に、背景オブジェクト更新部1201の動作について説明する。図16は、背景オブジェクト更新部1201内の各ブロックにおける入出力画像の例を示した図である。
The operation of the
まず、同図に示すような(a)現画像と、(b)背景オブジェクトと、(c)検出オブジェクトが背景オブジェクト更新部1201に入力されたとする。背景オブジェクト合成部1301では、(b)背景オブジェクトから、背景オブジェクト合成処理により、背景オブジェクト1,2の背景オブジェクトマスクが、矩形位置に配置されてマッピングが行われ、同図(d)に示す背景オブジェクトマップが生成されてオブジェクトデータ更新部1303に出力される。
First, assume that (a) the current image, (b) the background object, and (c) the detected object are input to the background
次いで、検出オブジェクトマスク合成部1302では、(c)検出オブジェクトから、検出オブジェクト合成処理により、検出オブジェクト1〜3のオブジェクトマスクが矩形位置に配置され、同図(e)の合成検出オブジェクトマスクが生成されてオブジェクトデータ更新部1303に出力される。
Next, in the detected object
次いで、オブジェクトデータ更新部1303では、(a)現画像と、オブジェクト分類部102から入力された(b)背景オブジェクトと、背景オブジェクト合成部1301から入力された(d)背景オブジェクトマップと、検出オブジェクトマスク合成部1302から入力された(e)合成検出オブジェクトマスクとから、オブジェクトデータ更新処理により、(b)の背景オブジェクト1,2をそれぞれ更新背景オブジェクト1,2に更新した同図(g)の更新背景オブジェクトが生成されて背景画像生成部103に出力される。
Next, in the object
この場合、背景オブジェクト1は、(e)合成検出オブジェクトマスクにより全くマスクされず、他の背景オブジェクトとも重なっていないので、全画素の対応付けができているので、(a)現画像から矩形画像が抽出し直されて、特徴量が更新される。
In this case, since the
ここでは、現画像の自転車の微小変化が取り込まれた更新背景オブジェクト1が生成される。
Here, an updated
背景オブジェクト2は、(e)合成検出オブジェクトマスクにより完全にマスクされるので、更新は行われずに更新背景オブジェクト2となる。
Since the
図17は、オブジェクトデータ更新部1303において背景オブジェクトが部分的にマッピングされる例を示す図である。
FIG. 17 is a diagram illustrating an example in which the background object is partially mapped in the object
こでは、(f)更新前の背景画像に対して、(a)現画像の車の色が微小変化したことを想定している。 Here, it is assumed that (a) the color of the car in the current image is slightly changed with respect to the background image before the update (f).
(c)背景オブジェクトマップに示すように、背景オブジェクト1と背景オブジェクト2は重なっており、背景オブジェクト1は全画素対応付けされているが、背景オブジェクト2は部分的な対応付けとなり、背景オブジェクト2については平均輝度値を用いた背景オブジェクト更新を行う。
(C) As shown in the background object map, the
背景オブジェクト2の平均輝度値と背景オブジェクト2がマッピングされている現画像の画素の平均輝度値との差分だけ、背景オブジェクト2の矩形画像をシフトし、これを用いて特徴量を抽出し直して、更新背景オブジェクト2とする。
The rectangular image of the
このように画面から抽出できる特徴量を、画面から抽出できない領域に反映させることで、背景オブジェクトを現在の物体に近いものにする。 In this way, the feature quantity that can be extracted from the screen is reflected in the area that cannot be extracted from the screen, thereby making the background object close to the current object.
以上のように、図16、図17に示したオブジェクトデータ更新部1303の動作により、更新背景オブジェクトを現画像の微小な変化に追従させることができる。これにより、背景画像生成部103が更新背景オブジェクトを用いて生成する背景画像をより適切なものとすることができる。
As described above, the operation of the object
また、同一物体の特徴量の類似性は時間的に近接しているほうが強い傾向があり、背景オブジェクトが更新されていくことで、動き出す直前の物体の特徴量と比較することができるので、虚像の検出精度を向上することができる。 In addition, the similarity of the feature quantity of the same object tends to be stronger when close in time, and since the background object is updated, it can be compared with the feature quantity of the object just before moving, so a virtual image Detection accuracy can be improved.
以上のように、本実施の形態2の画像監視装置によれば、一旦背景画像に取り込まれた物体が微小変化した場合であっても、再び動き出したことを検出し、虚像を生じない画像に背景画像を更新するとともに、適切に侵入物体を検出することができる。 As described above, according to the image monitoring apparatus of the second embodiment, even when the object once captured in the background image has slightly changed, it is detected that the object has started moving again, and the image is not generated. While updating the background image, it is possible to appropriately detect the intruding object.
なお、本実施の形態2のオブジェクトデータ更新部において、検出オブジェクトを合成した合成検出オブジェクトマスクで背景オブジェクトにマスクをかけたが、オブジェクト抽出部の2値化部において生成される背景差分マスクを代わりに用いても良い。 In the object data update unit of the second embodiment, the background object is masked with the combined detection object mask obtained by combining the detection objects, but the background difference mask generated by the binarization unit of the object extraction unit is used instead. You may use for.
また、本実施の形態2のオブジェクトデータ更新部において、平均輝度値を用いているが、オブジェクト抽出時に抽出する特徴量に平均輝度値を使用するようにし、これを利用するようにしても良い。 In the object data updating unit of the second embodiment, the average luminance value is used. However, the average luminance value may be used as a feature amount extracted at the time of object extraction, and this may be used.
また、本実施の形態2のオブジェクトデータ更新部において、隣接する背景オブジェクト同士の特徴量が近い場合は、これらを統合して1つの背景オブジェクトとしても良い また、本実施の形態2のオブジェクトデータ更新部において、十分に長い時間背景となり続けている背景オブジェクトについては、初期背景に統合し、この背景オブジェクトを削除するようにしても良い。 Further, in the object data update unit of the second embodiment, when the feature amounts of adjacent background objects are close to each other, they may be integrated into one background object. Also, the object data update of the second embodiment In the section, a background object that has been a background for a sufficiently long time may be integrated into the initial background and the background object may be deleted.
また、本実施の形態2のオブジェクトデータ更新部において、背景オブジェクトが部分的にマッピングされた場合に、輝度値をシフトした矩形画像から特徴量を抽出し直すこととしたが、特定の特徴量については更新しないようにしても良い。 Further, in the object data update unit of the second embodiment, when the background object is partially mapped, the feature amount is extracted again from the rectangular image whose luminance value is shifted. May not be updated.
また、本実施の形態2のオブジェクトデータ更新部において、背景オブジェクトが部分的にマッピングされた場合に、輝度値をシフトした矩形画像を作成したが、マッピングされている画素は現画像から抽出するようにしても良い。 In addition, in the object data update unit according to the second embodiment, when a background object is partially mapped, a rectangular image with a shifted luminance value is created, but the mapped pixels are extracted from the current image. Anyway.
本発明に係る画像処理装置及び画像処理方法は、背景差分に虚像を生じないように適切な背景画像に更新でき、精度の高い監視を行うことができるため、入力画像と背景画像を比較して監視を行う画像監視装置として有用である。 The image processing apparatus and the image processing method according to the present invention can be updated to an appropriate background image so as not to generate a virtual image in the background difference, and can be monitored with high accuracy. This is useful as an image monitoring apparatus for monitoring.
100、1200 画像監視装置
101 オブジェクト抽出部
102 オブジェクト分類部
103 背景画像生成部
104 認識オブジェクト記憶部
105 背景オブジェクト記憶部
201 背景差分処理部
202 2値化部
203 領域分割部
204 特徴量抽出部
301 虚像判定部
302 認識オブジェクト更新部
303 背景オブジェクト統合部
1201 背景オブジェクト更新部
1301 背景オブジェクト合成部
1302 検出オブジェクトマスク合成部
1303 オブジェクトデータ更新部
DESCRIPTION OF
Claims (6)
前記オブジェクト抽出部により抽出された抽出オブジェクトと前認識オブジェクト及び前背景オブジェクトとの比較を行い、検出オブジェクト、認識オブジェクト及び背景オブジェクトを生成するオブジェクト分類部と、
前記背景オブジェクトから背景画像を生成する背景画像生成部と、
前記認識オブジェクトを記憶し、次の前認識オブジェクトとして前記オブジェクト分類部に出力する認識オブジェクト記憶部と、
前記背景オブジェクトを記憶し、次の前背景オブジェクトとして前記オブジェクト分類部に出力する背景オブジェクト記憶部と、
を具備することを特徴とする画像処理装置。 An object extraction unit for extracting an object from the current image and the background image;
An object classification unit that compares the extracted object extracted by the object extraction unit with the previously recognized object and the background object, and generates a detected object, a recognized object, and a background object;
A background image generation unit for generating a background image from the background object;
A recognition object storage unit that stores the recognition object and outputs the recognition object as a next previous recognition object to the object classification unit;
A background object storage unit that stores the background object and outputs the background object as a next previous background object to the object classification unit;
An image processing apparatus comprising:
前記オブジェクト抽出部により抽出された抽出オブジェクトと前認識オブジェクト及び前背景オブジェクトとの比較を行い、検出オブジェクト、認識オブジェクト及び背景オブジェクトを生成するオブジェクト分類部と、
前記現画像と前記背景オブジェクトから更新背景オブジェクトを生成する背景オブジェクト更新部と、
前記更新背景オブジェクトから背景画像を生成する背景画像生成部と、
前記認識オブジェクトを記憶し、次の前認識オブジェクトとして前記オブジェクト分類部に出力する認識オブジェクト記憶部と、
前記更新背景オブジェクトを記憶し、次の前背景オブジェクトとして前記オブジェクト分類部に出力する背景オブジェクト記憶部と、
を具備することを特徴とする画像処理装置。 An object extraction unit for extracting an object from the current image and the background image;
An object classification unit that compares the extracted object extracted by the object extraction unit with the previously recognized object and the background object, and generates a detected object, a recognized object, and a background object;
A background object update unit for generating an updated background object from the current image and the background object;
A background image generation unit that generates a background image from the updated background object;
A recognition object storage unit that stores the recognition object and outputs the recognition object as a next previous recognition object to the object classification unit;
A background object storage unit that stores the updated background object and outputs the updated background object to the object classification unit as a next previous background object;
An image processing apparatus comprising:
前記オブジェクト分類部は、前記抽出オブジェクトと一致する前記前背景オブジェクトを選択し、前記選択した前背景オブジェクトの前記背景差分マスク及び前記分割領域と前記抽出オブジェクトの前記背景差分マスク及び前記分割領域が一致するオブジェクトを虚像オブジェクトとし、前記虚像オブジェクトと一致しない前記抽出オブジェクトを検出オブジェクトとし、前記前認識オブジェクトと一致する前記検出オブジェクトを仮認識オブジェクトとして保持し、保持回数が所定の回数になったとき、前記仮認識オブジェクトを新規背景化オブジェクトとし、前記新規背景化オブジェクトと一致しない前記検出オブジェクトを認識オブジェクトとし、前記新規背景化オブジェクトと前記継続背景オブジェクトを統合して背景オブジェクトとして出力することを特徴とする請求項1又は2記載の画像処理装置。 The object extraction unit generates a background difference image from the current image and the background image, binarizes the background difference image to generate a background difference mask, divides the background difference mask into regions, and divides the divided region Extract the feature amount from each current image and output the extracted object,
The object classification unit selects the foreground / background object that matches the extracted object, and the background difference mask and the divided region of the selected foreground background object match the background difference mask and the divided region of the extracted object. When the object to be a virtual image object, the extracted object that does not match the virtual image object is a detection object, the detection object that matches the pre-recognition object is held as a temporary recognition object, The temporary recognition object is a new background object, the detected object that does not match the new background object is a recognition object, and the new background object and the continuous background object are integrated to form a background object. The image processing apparatus according to claim 1 or 2, wherein the to and output.
抽出された前記抽出オブジェクトと前認識オブジェクト及び前背景オブジェクトとの比較を行い、検出オブジェクト、認識オブジェクト及び背景オブジェクトを生成するオブジェクト分類ステップと、
前記背景オブジェクトから背景画像を生成する背景画像生成ステップと、
前記認識オブジェクトを認識オブジェクト記憶部に記憶し、次の前認識オブジェクトとして出力する認識オブジェクト記憶ステップと、
前記背景オブジェクトを背景オブジェクト記憶部に記憶し、次の前背景オブジェクトとして出力する背景オブジェクト記憶ステップと、
を有することにより画像から物体を検出することを特徴とする画像処理方法。 An object extraction step for extracting an object from the current image and the background image;
An object classification step of comparing the extracted object with a previously recognized object and a previous background object to generate a detected object, a recognized object, and a background object;
A background image generating step for generating a background image from the background object;
A recognition object storage step of storing the recognition object in a recognition object storage unit and outputting as a next previous recognition object;
A background object storage step of storing the background object in a background object storage unit and outputting as a next previous background object;
An image processing method characterized by detecting an object from an image by having
抽出された前記抽出オブジェクトと前認識オブジェクト及び前背景オブジェクトとの比較を行い、検出オブジェクト、認識オブジェクト及び背景オブジェクトを生成するオブジェクト分類ステップと、
前記現画像と前記背景オブジェクトから更新背景オブジェクトを生成する背景オブジェクト更新ステップと、
前記更新背景オブジェクトから背景画像を生成する背景画像生成ステップと、
前記認識オブジェクトを認識オブジェクト記憶部に記憶し、次の前認識オブジェクトとして出力する認識オブジェクト記憶ステップと、
前記更新背景オブジェクトを背景オブジェクト記憶部に記憶し、次の前背景オブジェクトとして出力する背景オブジェクト記憶ステップと、
を有することにより画像から物体を検出することを特徴とする画像処理方法。 An object extraction step for extracting an object from the current image and the background image;
An object classification step of comparing the extracted object with a previously recognized object and a previous background object to generate a detected object, a recognized object, and a background object;
A background object update step of generating an updated background object from the current image and the background object;
A background image generation step of generating a background image from the updated background object;
A recognition object storage step of storing the recognition object in a recognition object storage unit and outputting as a next previous recognition object;
A background object storage step of storing the updated background object in a background object storage unit and outputting as a next previous background object;
An image processing method characterized by detecting an object from an image by having
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005363332A JP2007164690A (en) | 2005-12-16 | 2005-12-16 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005363332A JP2007164690A (en) | 2005-12-16 | 2005-12-16 | Image processing apparatus and image processing method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2007164690A true JP2007164690A (en) | 2007-06-28 |
Family
ID=38247482
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2005363332A Pending JP2007164690A (en) | 2005-12-16 | 2005-12-16 | Image processing apparatus and image processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2007164690A (en) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2009005141A1 (en) * | 2007-07-05 | 2009-01-08 | Nec Corporation | Object area detecting device, object area detecting system, and object area detecting method and program |
| JP2011181014A (en) * | 2010-03-03 | 2011-09-15 | Secom Co Ltd | Moving-object tracking device |
| WO2013075295A1 (en) * | 2011-11-23 | 2013-05-30 | 浙江晨鹰科技有限公司 | Clothing identification method and system for low-resolution video |
| JP2013126236A (en) * | 2011-12-16 | 2013-06-24 | Chuo Electronics Co Ltd | Masking processing apparatus, processing method, processing program, and belongings detector |
| JP2013257785A (en) * | 2012-06-13 | 2013-12-26 | Jvc Kenwood Corp | Object detection device, object detection method and program |
| JP2014041488A (en) * | 2012-08-22 | 2014-03-06 | Canon Inc | Object detection device, control method therefor, program, and storage medium |
| JP2015028753A (en) * | 2013-06-28 | 2015-02-12 | 株式会社Jvcケンウッド | Image processing apparatus and image processing method |
| JP2017207365A (en) * | 2016-05-18 | 2017-11-24 | 株式会社デンソーアイティーラボラトリ | Arithmetic processing device, arithmetic processing method, and program |
-
2005
- 2005-12-16 JP JP2005363332A patent/JP2007164690A/en active Pending
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2009005141A1 (en) * | 2007-07-05 | 2009-01-08 | Nec Corporation | Object area detecting device, object area detecting system, and object area detecting method and program |
| JP5115556B2 (en) * | 2007-07-05 | 2013-01-09 | 日本電気株式会社 | Object region detection apparatus, object region detection system, object region detection method, and program |
| US8588466B2 (en) | 2007-07-05 | 2013-11-19 | Nec Corporation | Object area detection system, device, method, and program for detecting an object |
| JP2011181014A (en) * | 2010-03-03 | 2011-09-15 | Secom Co Ltd | Moving-object tracking device |
| WO2013075295A1 (en) * | 2011-11-23 | 2013-05-30 | 浙江晨鹰科技有限公司 | Clothing identification method and system for low-resolution video |
| JP2013126236A (en) * | 2011-12-16 | 2013-06-24 | Chuo Electronics Co Ltd | Masking processing apparatus, processing method, processing program, and belongings detector |
| JP2013257785A (en) * | 2012-06-13 | 2013-12-26 | Jvc Kenwood Corp | Object detection device, object detection method and program |
| JP2014041488A (en) * | 2012-08-22 | 2014-03-06 | Canon Inc | Object detection device, control method therefor, program, and storage medium |
| JP2015028753A (en) * | 2013-06-28 | 2015-02-12 | 株式会社Jvcケンウッド | Image processing apparatus and image processing method |
| JP2017207365A (en) * | 2016-05-18 | 2017-11-24 | 株式会社デンソーアイティーラボラトリ | Arithmetic processing device, arithmetic processing method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10990191B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
| JP6904346B2 (en) | Image processing equipment, image processing systems, and image processing methods, and programs | |
| CN109918987B (en) | Video subtitle keyword identification method and device | |
| US8588466B2 (en) | Object area detection system, device, method, and program for detecting an object | |
| JP6759411B2 (en) | Object tracking method and equipment | |
| JP4380838B2 (en) | Video image automatic road sign recognition method, road sign automatic recognition device, and road sign automatic recognition program | |
| CN103403764B (en) | Object follow-up mechanism, object method for tracing and control program | |
| JP6509275B2 (en) | Method and apparatus for updating a background model used for image background subtraction | |
| US8983131B2 (en) | Video analysis | |
| JP7014161B2 (en) | Image processing equipment, image processing systems, and image processing methods, and programs | |
| WO2011074049A1 (en) | Image selection device and image selection method | |
| JPH1139469A (en) | Face image processing device | |
| CN109671098B (en) | Target tracking method and system applicable to multiple tracking | |
| JP2007164690A (en) | Image processing apparatus and image processing method | |
| US9947106B2 (en) | Method and electronic device for object tracking in a light-field capture | |
| US9286707B1 (en) | Removing transient objects to synthesize an unobstructed image | |
| JP4042602B2 (en) | Image processing device | |
| JP5253101B2 (en) | Object tracking method and image processing apparatus | |
| JP3197633B2 (en) | Automatic tracking device for moving objects | |
| JP2008035301A (en) | Mobile tracking device | |
| US20230245427A1 (en) | Image recognition apparatus | |
| JP4028533B2 (en) | Image processing device | |
| JP3428166B2 (en) | Clustering method and apparatus | |
| JP6688091B2 (en) | Vehicle distance deriving device and vehicle distance deriving method | |
| JP2004013614A (en) | Object tracking device, object tracking device control method, and image recognition system |