[go: up one dir, main page]

JP2007164690A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2007164690A
JP2007164690A JP2005363332A JP2005363332A JP2007164690A JP 2007164690 A JP2007164690 A JP 2007164690A JP 2005363332 A JP2005363332 A JP 2005363332A JP 2005363332 A JP2005363332 A JP 2005363332A JP 2007164690 A JP2007164690 A JP 2007164690A
Authority
JP
Japan
Prior art keywords
background
image
unit
recognition
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005363332A
Other languages
Japanese (ja)
Inventor
Takeshi Kotake
剛 小竹
Masatake Hayashi
正武 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005363332A priority Critical patent/JP2007164690A/en
Publication of JP2007164690A publication Critical patent/JP2007164690A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】虚像を検出することにより適切に動物体を検出する画像処理装置及び画像処理方法を提供すること。
【解決手段】画像監視装置100は、現画像と背景画像から、所定の手順により抽出オブジェクトを抽出するオブジェクト抽出処理と、所定の手順により抽出オブジェクトと、前認識オブジェクト及び前背景オブジェクトとの比較を行い、認識オブジェクトと背景オブジェクトを生成するオブジェクト分類処理と、背景オブジェクトから背景画像を生成する背景画像生成処理と、を実行する機能を有する。
【選択図】図1
An image processing apparatus and an image processing method for appropriately detecting a moving object by detecting a virtual image are provided.
An image monitoring apparatus 100 performs object extraction processing for extracting an extracted object from a current image and a background image by a predetermined procedure, and compares the extracted object with a previously recognized object and a foreground object by a predetermined procedure. And performing an object classification process for generating a recognition object and a background object, and a background image generation process for generating a background image from the background object.
[Selection] Figure 1

Description

本発明は画像処理装置及び画像処理方法に関し、入力画像と自動的に更新される背景画像との比較により監視を行う画像監視に好適な画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method, and more particularly to an image processing apparatus and an image processing method suitable for image monitoring for monitoring by comparing an input image with a background image that is automatically updated.

従来、特許文献1に記載された物体監視追跡装置では、背景差分法と動的2値化法とテンプレートマッチングを用いて動物体を検出し、検出された動物体の特徴量を抽出して予め抽出しておいた特定したい物体の特徴量と比較することで動物体を認識するようにしている。   Conventionally, in the object monitoring and tracking apparatus described in Patent Document 1, an object is detected using a background subtraction method, a dynamic binarization method, and template matching, and a feature amount of the detected object is extracted in advance. The moving object is recognized by comparing with the extracted feature quantity of the object to be specified.

また、特許文献2に記載された動物体検出装置について図18を参照して説明する。図18において、動物体検出装置は、変化領域抽出部1801と、継続判定部1802と、背景画像更新部1803と、継続情報記憶部1804と、背景画像記憶部1805とを備えた構成となっている。   Moreover, the moving object detection apparatus described in Patent Document 2 will be described with reference to FIG. In FIG. 18, the moving object detection apparatus includes a change region extraction unit 1801, a continuation determination unit 1802, a background image update unit 1803, a continuation information storage unit 1804, and a background image storage unit 1805. Yes.

変化領域抽出部1801は、入力される現画像と背景画像との画素毎の差分絶対値を計算し、所定の閾置により2値化し、この2値化画像を変化領域情報として継続判定部1802に出力する。ここで変化領域情報は動領域であり、検出動物体を示す。   The change area extraction unit 1801 calculates a difference absolute value for each pixel between the input current image and the background image, binarizes it with a predetermined threshold, and uses the binarized image as change area information to continue the determination unit 1802. Output to. Here, the change area information is a moving area and indicates a detected moving object.

継続判定部1802は、変化領域抽出部1801から入力される変化領域情報に従って各画素の変化の継続フレーム数をカウントアップと、継続フレーム数が所定の閾置以上になった画素位置を取り込み領域として背景画像更新部1803に出力すると共に、カウントアップした継続情報から継続フレーム数が閾値を越えない認識情報を更新継続情報として継続情報記憶部1804に出力する。   The continuation determination unit 1802 counts up the number of continuation frames of the change of each pixel in accordance with the change region information input from the change region extraction unit 1801, and takes a pixel position where the number of continuation frames is equal to or greater than a predetermined threshold as a capture region. While outputting to the background image update part 1803, the recognition information from which the continuation frame number does not exceed a threshold value from the counted continuation information is output to the continuation information storage part 1804 as update continuation information.

背景画像更新部1803は、継続判定部1802から入力される取り込み領域の背景画像を現画像の画素値に置換して更新背景画像として背景画像記憶部1805に出力する。   The background image update unit 1803 replaces the background image of the capture area input from the continuation determination unit 1802 with the pixel value of the current image, and outputs the result to the background image storage unit 1805 as an updated background image.

継続情報記憶部1804は、継続判定部1802から入力される更新継続情報を記憶し、記憶した更新継続情報を次の継続情報として継続判定部1802に出力する。   The continuation information storage unit 1804 stores the update continuation information input from the continuation determination unit 1802, and outputs the stored update continuation information to the continuation determination unit 1802 as the next continuation information.

背景画像記憶部1805は、背景画像更新部1803から入力される更新背景画像を記憶し、記憶した更新背景画像を次の背景画像として変化領域抽出部1801に出力する。   The background image storage unit 1805 stores the updated background image input from the background image update unit 1803 and outputs the stored updated background image to the change area extraction unit 1801 as the next background image.

この動物体検出装置の動作について、図19及び図20を参照して説明する。   The operation of this moving object detection apparatus will be described with reference to FIGS. 19 and 20.

まず、変化領域抽出部1801において、図19(a)現画像と同図(b)背景画像とから同図(c)背景差分画像が生成される。次に、変化領域抽出部1801において、(c)背景差分画像を2値化して、同図(d)変化領域情報を生成した後、この(d)変化領域情報に対応する同図(e)継続情報(継続フレーム数=4)の継続フレーム数をカウントアップした同図(f)カウントアップ継続情報を生成する。   First, the change area extraction unit 1801 generates a background difference image in FIG. 19C from the current image in FIG. 19A and the background image in FIG. 19B. Next, in the change area extraction unit 1801, (c) the background difference image is binarized to generate change area information (d) in the figure, and (d) the same figure (e) corresponding to the change area information (d). (F) Count-up continuation information is generated by counting up the continuation frame number of continuation information (continuation frame number = 4).

図19では、変化領域情報と継続情報において車の領域が一致しており、継続フレーム数がカウントアップされて「5」となり、人の領域は新たに追加されて継続フレーム数は「1」となる。   In FIG. 19, the area of the vehicle is the same in the change area information and the continuation information, the number of continuation frames is counted up to “5”, the human area is newly added, and the number of continuation frames is “1”. Become.

次いで、継続フレーム数が閾値を越えた画素位置を同図(g)取り込み領域として背景画像更新部1803に出力し、閾値を越えなかった画素位置を同図(h)更新継続情報として継続情報記憶部1804に出力する。ここでは、閾値を「5」と設定しており、継続フレーム数が「5」となった車の領域は取り込み領域として出力され、更新継続情報からは削除されて、継続フレーム数が「1」の人の領域のみが更新継続情報として出力される。   Next, the pixel position where the number of continuation frames exceeds the threshold value is output to the background image update unit 1803 as (g) capture area in the figure, and the pixel position where the threshold value does not exceed the threshold value is stored as continuation information as update continuation information in the figure (h). Output to the unit 1804. Here, the threshold value is set to “5”, and the area of the car having the number of continuing frames of “5” is output as the capture area, deleted from the update continuation information, and the number of continuing frames is “1”. Only the person's area is output as the update continuation information.

そして、図20に示すように、背景画像更新部1803は、同図(b)背景画像の同図(g)背景更新領域を置換することにより同図(i)更新背景画像を生成して背景画像記憶部1805に出力する。   Then, as shown in FIG. 20, the background image update unit 1803 generates the updated background image (i) by replacing the background update region (g) of the background image (g) of FIG. The image is output to the image storage unit 1805.

以上のような動物体検出装置の構成によれば、動物体が画面内で静止した場合でも、静止した動物体がすぐに背景画像として取り込まれることなく、連続的に動物体を検出することができる。
特開2002−157599号公報 特開2003−123074号公報
According to the configuration of the moving object detection apparatus as described above, even when the moving object is stationary in the screen, the moving object can be continuously detected without being immediately captured as a background image. it can.
JP 2002-157599 A JP 2003-123074 A

しかしながら、上記特許文献2の動物体検出装置のように背景更新を行う場合、一旦背景画像に取り込まれた動物体が再び動き出すと背景差分に虚像を生じてしまい、虚像部分の背景が再び更新されるまで虚像を生じ続けることになり、虚像部分まで動物体であると誤検出するという問題が発生する。   However, when the background is updated as in the moving object detection device of Patent Document 2 described above, once the moving object once captured in the background image starts moving again, a virtual image is generated in the background difference, and the background of the virtual image portion is updated again. Until then, the virtual image continues to be generated, and there is a problem that the virtual image portion is erroneously detected as a moving object.

例えば、図21に示すような一旦、(b)背景画像に取り込まれた動物体が再び動き出した場合を考えると、同図(d)変化領域情報には動物体の領域だけでなく動物体が静止していた領域も含まれており、同図(e)検出動物体画像に示されるように動物体だけでなく虚像が検出される。   For example, when (b) the moving object captured in the background image starts moving again as shown in FIG. 21, (d) the change area information includes not only the moving object area but also the moving object. A stationary area is also included, and a virtual image is detected as well as a moving object as shown in FIG.

また、背景差分に虚像が生じても誤検出しないものには、特許文献1の物体監視追跡装置がある。すなわち、背景差分を生じた領域から予め想定していた検出対象を特定することにより、虚像が生じても誤検出しない。しかし、検出対象を探索するための情報を予め準備しておく必要があり、不特定の動物体を検出することはできない。   Further, there is an object monitoring and tracking apparatus disclosed in Patent Document 1 that does not detect erroneously even if a virtual image is generated in the background difference. That is, by detecting the detection target assumed in advance from the region where the background difference has occurred, no false detection occurs even if a virtual image occurs. However, it is necessary to prepare information for searching for a detection target in advance, and an unspecified moving object cannot be detected.

本発明はかかる点に鑑みてなされたものであり、虚像を検出することにより適切に動物体を検出する画像処理装置及び画像処理方法を提供することを目的とする。   This invention is made | formed in view of this point, and it aims at providing the image processing apparatus and image processing method which detect a moving body appropriately by detecting a virtual image.

本発明の画像処理装置は、現画像と背景画像からオブジェクトを抽出するオブジェクト抽出部と、前記オブジェクト抽出部により抽出された抽出オブジェクトと前認識オブジェクト及び前背景オブジェクトとの比較を行い、検出オブジェクト、認識オブジェクト及び背景オブジェクトを生成するオブジェクト分類部と、前記背景オブジェクトから背景画像を生成する背景画像生成部と、前記認識オブジェクトを記憶し、次の前認識オブジェクトとして前記オブジェクト分類部に出力する認識オブジェクト記憶部と、前記背景オブジェクトを記憶し、次の前背景オブジェクトとして前記オブジェクト分類部に出力する背景オブジェクト記憶部と、を具備する構成を採る。   An image processing apparatus according to the present invention includes an object extraction unit that extracts an object from a current image and a background image, a comparison between an extracted object extracted by the object extraction unit, a previously recognized object, and a foreground object, An object classification unit that generates a recognition object and a background object, a background image generation unit that generates a background image from the background object, and a recognition object that stores the recognition object and outputs the recognition object to the object classification unit as the next previous recognition object A configuration is provided that includes a storage unit, and a background object storage unit that stores the background object and outputs the background object to the object classification unit as the next previous background object.

この構成によれば、画像内の変化部と背景に取り込まれた物体とを比較して背景に取り込まれた物体が再び動き出したことを検出できるため、変化部から虚像を排除するとともに適切に背景を更新することができる。   According to this configuration, it is possible to detect that the object captured in the background starts to move again by comparing the changed part in the image with the object captured in the background. Can be updated.

また、本発明の画像処理装置は、現画像と背景画像からオブジェクトを抽出するオブジェクト抽出部と、前記オブジェクト抽出部により抽出された抽出オブジェクトと前認識オブジェクト及び前背景オブジェクトとの比較を行い、検出オブジェクト、認識オブジェクト及び背景オブジェクトを生成するオブジェクト分類部と、前記現画像と前記背景オブジェクトから更新背景オブジェクトを生成する背景オブジェクト更新部と、前記更新背景オブジェクトから背景画像を生成する背景画像生成部と、前記認識オブジェクトを記憶し、次の前認識オブジェクトとして前記オブジェクト分類部に出力する認識オブジェクト記憶部と、前記更新背景オブジェクトを記憶し、次の前背景オブジェクトとして前記オブジェクト分類部に出力する背景オブジェクト記憶部と、を具備する構成を採る。   The image processing apparatus of the present invention also detects an object extracting unit that extracts an object from a current image and a background image, and compares the extracted object extracted by the object extracting unit with a previously recognized object and a foreground / background object. An object classifying unit that generates an object, a recognition object, and a background object; a background object updating unit that generates an updated background object from the current image and the background object; and a background image generating unit that generates a background image from the updated background object; A recognition object storage unit that stores the recognition object and outputs it as the next previous recognition object to the object classification unit; and a background object that stores the updated background object and outputs it as the next previous background object to the object classification unit. It adopts a configuration comprising a-object storage unit.

この構成によれば、画像内の変化部と背景に取り込まれた物体とを比較して背景に取り込まれた物体が再び動き出したことを検出でき、背景を構成する物体の特徴量変化にも追従できるため、変化部から虚像を排除するとともにより適切な背景を生成することができる。   According to this configuration, it is possible to detect that the object captured in the background starts to move again by comparing the change part in the image with the object captured in the background, and also follow the change in the feature amount of the object constituting the background. Therefore, it is possible to eliminate the virtual image from the change portion and generate a more appropriate background.

また、本発明の画像処理装置は、請求項1又は2記載の画像処理装置において、前記オブジェクト抽出部は、前記現画像と前記背景画像から背景差分画像を生成し、該背景差分画像を2値化処理して背景差分マスクを生成し、該背景差分マスクを領域分割して分割領域毎の前記現画像から特徴量を抽出して抽出オブジェクトを出力し、前記オブジェクト分類部は、前記抽出オブジェクトと一致する前記前背景オブジェクトを選択し、前記選択した前記背景オブジェクトの前記背景差分マスク及び前記分割領域と前記抽出オブジェクトの前記背景差分マスク及び前記分割領域が一致するオブジェクトを虚像オブジェクトとし、前記虚像オブジェクトと一致しない前記抽出オブジェクトを検出オブジェクトとし、前記前認識オブジェクトと一致する前記検出オブジェクトを仮認識オブジェクトとして保持し、保持回数が所定の回数になったとき、前記仮認識オブジェクトを新規背景化オブジェクトとし、前記新規背景化オブジェクトと一致しない前記検出オブジェクトを認識オブジェクトとし、前記新規背景化オブジェクトと前記継続背景オブジェクトを統合して背景オブジェクトとして出力する構成を採る。   The image processing apparatus according to the present invention is the image processing apparatus according to claim 1 or 2, wherein the object extraction unit generates a background difference image from the current image and the background image, and the background difference image is binarized. Processing to generate a background difference mask, divide the background difference mask into regions, extract feature amounts from the current image for each divided region, and output an extracted object. The object classification unit includes the extracted object and The matching foreground / background object is selected, and the background difference mask and the divided area of the selected background object are matched with the background difference mask and the divided area of the extracted object as a virtual image object, and the virtual image object The extracted object that does not match the detected object is set as a detected object, and the extracted object matches the previously recognized object The detected object is held as a temporary recognition object, and when the number of holding times reaches a predetermined number, the temporary recognition object is a new background object, the detection object that does not match the new background object is a recognition object, A new background object and the continuous background object are integrated and output as a background object.

この構成によれば、背景に取り込む領域の特徴量を記憶しておき、変化を生じた領域の特徴量と比較することで背景化した領域の変化を検出し、その領域に生じた変化をマスクすることで虚像を排除することができる。   According to this configuration, the feature amount of the region to be captured in the background is stored, the change in the background region is detected by comparing with the feature amount of the region in which the change has occurred, and the change that has occurred in the region is masked. By doing so, the virtual image can be eliminated.

また、本発明の画像処理装置は、請求項2記載の画像処理装置において、前記背景オブジェクト更新部は、前記背景オブジェクトを合成して背景オブジェクトマップを生成し、前記検出オブジェクトのオブジェクトマスクを合成して合成検出オブジェクトマスクを生成し、前記現画像と、前記背景オブジェクトと、前記背景オブジェクトマップと、前記合成検出オブジェクトマスクと、から背景オブジェクトを更新して更新背景オブジェクトとして出力する構成を採る。   The image processing apparatus according to the present invention is the image processing apparatus according to claim 2, wherein the background object update unit generates a background object map by combining the background objects, and combines an object mask of the detection object. Then, a composition detection object mask is generated, and a background object is updated from the current image, the background object, the background object map, and the composition detection object mask and output as an updated background object.

この構成によれば、更新背景オブジェクトを現画像の微小な変化に追従させることができ、更新背景オブジェクトを用いて生成する背景画像をより適切なものとすることができる。また、同一物体の特徴量の類似性は時間的に近接しているほうが強い傾向があり、背景オブジェクトが更新されていくことで、動き出す直前の物体の特徴量と比較することができるので、虚像の検出精度を向上することができる。   According to this configuration, the updated background object can be made to follow minute changes in the current image, and the background image generated using the updated background object can be made more appropriate. In addition, the similarity of the feature quantity of the same object tends to be stronger when close in time, and since the background object is updated, it can be compared with the feature quantity of the object just before moving, so a virtual image Detection accuracy can be improved.

また、本発明の画像処理方法は、現画像と背景画像からオブジェクトを抽出するオブジェクト抽出ステップと、抽出された前記抽出オブジェクトと前認識オブジェクト及び前背景オブジェクトとの比較を行い、検出オブジェクト、認識オブジェクト及び背景オブジェクトを生成するオブジェクト分類ステップと、前記背景オブジェクトから背景画像を生成する背景画像生成ステップと、前記認識オブジェクトを認識オブジェクト記憶部に記憶し、次の前認識オブジェクトとして出力する認識オブジェクト記憶ステップと、前記背景オブジェクトを背景オブジェクト記憶部に記憶し、次の前背景オブジェクトとして出力する背景オブジェクト記憶ステップと、を有するにより画像から物体を検出する方法を採る。   The image processing method of the present invention includes an object extraction step of extracting an object from a current image and a background image, and compares the extracted object with a previous recognition object and a previous background object, thereby detecting a detection object and a recognition object. And an object classification step for generating a background object, a background image generation step for generating a background image from the background object, and a recognition object storage step for storing the recognition object in a recognition object storage unit and outputting it as the next previous recognition object And a background object storage step of storing the background object in a background object storage unit and outputting it as the next previous background object, and adopting a method of detecting an object from an image.

この方法によれば、画像内の変化部と背景に取り込まれた物体とを比較して背景に取り込まれた物体が再び動き出したことを検出できるため、変化部から虚像を排除するとともに適切に背景を更新することができる。   According to this method, it is possible to detect that the object captured in the background starts to move again by comparing the changed part in the image with the object captured in the background. Can be updated.

また、本発明の画像処理方法は、現画像と背景画像からオブジェクトを抽出するオブジェクト抽出ステップと、抽出された前記抽出オブジェクトと前認識オブジェクト及び前背景オブジェクトとの比較を行い、検出オブジェクト、認識オブジェクト及び背景オブジェクトを生成するオブジェクト分類ステップと、前記現画像と前記背景オブジェクトから更新背景オブジェクトを生成する背景オブジェクト更新ステップと、前記更新背景オブジェクトから背景画像を生成する背景画像生成ステップと、前記認識オブジェクトを認識オブジェクト記憶部に記憶し、次の前認識オブジェクトとして出力する認識オブジェクト記憶ステップと、前記更新背景オブジェクトを背景オブジェクト記憶部に記憶し、次の前背景オブジェクトとして出力する背景オブジェクト記憶ステップと、を有することにより画像から物体を検出する方法を採る。   The image processing method of the present invention includes an object extraction step of extracting an object from a current image and a background image, and compares the extracted object with a previous recognition object and a previous background object, thereby detecting a detection object and a recognition object. And an object classification step for generating a background object, a background object updating step for generating an updated background object from the current image and the background object, a background image generating step for generating a background image from the updated background object, and the recognition object Is stored in the recognition object storage unit and output as the next previous recognition object, and the updated background object is stored in the background object storage unit and output as the next previous background object. Adopt a method of detecting an object from an image by having the object storage step.

この方法によれば、画像内の変化部と背景に取り込まれた物体とを比較して背景に取り込まれた物体が再び動き出したことを検出でき、背景を構成する物体の特徴量変化にも追従できるため、変化部から虚像を排除するとともにより適切な背景を生成することができる。   According to this method, it is possible to detect that the object captured in the background starts to move again by comparing the changed part in the image with the object captured in the background, and also follow the change in the feature amount of the object composing the background. Therefore, it is possible to eliminate the virtual image from the change portion and generate a more appropriate background.

本発明によれば、画像内の変化部と背景に取り込まれた物体とを比較して背景に取り込まれた物体が再び動き出したことを検出できるため、変化部から虚像を排除するとともに適切に背景を更新することができ、適切に動物体を検出することができる。   According to the present invention, it is possible to detect that the object captured in the background starts to move again by comparing the changed part in the image with the object captured in the background. Can be updated and the moving object can be detected appropriately.

以下、本発明の実施の形態について図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(実施の形態1)
図1は、本実施の形態1の画像監視装置100の構成を示すブロック図である。図1において、画像監視装置100は、オブジェクト抽出部101と、オブジェクト分類部102と、背景画像生成部103と、認識オブジェクト記憶部104と、背景オブジェクト記憶部105と、から構成される。
(Embodiment 1)
FIG. 1 is a block diagram illustrating a configuration of the image monitoring apparatus 100 according to the first embodiment. In FIG. 1, the image monitoring apparatus 100 includes an object extraction unit 101, an object classification unit 102, a background image generation unit 103, a recognition object storage unit 104, and a background object storage unit 105.

本実施の形態1の画像監視装置100は、図4に示すフローチャートのように、現画像と背景画像から、所定の手順により抽出オブジェクトを抽出するオブジェクト抽出処理と(ステップS101)、所定の手順により抽出オブジェクトと、前認識オブジェクト及び前背景オブジェクトとの比較を行い、認識オブジェクトと背景オブジェクトを生成するオブジェクト分類処理と(ステップS102)、背景オブジェクトから背景画像を生成する背景画像生成処理と(ステップS103)、を実行する機能を有する。   As shown in the flowchart of FIG. 4, the image monitoring apparatus 100 according to the first embodiment performs an object extraction process for extracting an extracted object from a current image and a background image according to a predetermined procedure (step S101), and a predetermined procedure. An object classification process for comparing the extracted object with the previous recognition object and the previous background object to generate a recognition object and a background object (step S102), and a background image generation process for generating a background image from the background object (step S103) ).

まず、オブジェクト抽出部101の構成及び機能について、図2に示すブロック構成図と、図5に示すフローチャートを参照して説明する。   First, the configuration and function of the object extraction unit 101 will be described with reference to the block configuration diagram shown in FIG. 2 and the flowchart shown in FIG.

オブジェクト抽出部101は、図2に示すように、背景差分処理部201と、2値化部202と、領域分割部203と、特徴量抽出部204と、から構成される。   As illustrated in FIG. 2, the object extraction unit 101 includes a background difference processing unit 201, a binarization unit 202, a region division unit 203, and a feature amount extraction unit 204.

まず、背景差分処理部201は、入力される現画像と背景画像の画素単位の差分絶対値を計算し、その差分絶対値を画素値とする背景差分画像を2値化部202に出力する(ステップS201)。   First, the background difference processing unit 201 calculates an absolute difference value of the input current image and background image in pixel units, and outputs a background difference image having the absolute value of the difference as a pixel value to the binarization unit 202 ( Step S201).

次に、2値化部202は、背景差分処理部201から入力された背景差分画像を所定の閾値で2値化して背景差分マスクを生成する。ここで、背景差分マスクは、差分絶対値が所定の閾値以上の画素の画素値を「1」とし、それ以外の画素の画素値を「0」とした2値画像を背景差分マスクとして領域分割部203に出力する(ステップS202)。   Next, the binarization unit 202 binarizes the background difference image input from the background difference processing unit 201 with a predetermined threshold to generate a background difference mask. Here, the background difference mask is divided into regions using a binary image in which the pixel value of a pixel whose difference absolute value is equal to or greater than a predetermined threshold is “1” and the pixel value of other pixels is “0” as a background difference mask. The data is output to the unit 203 (step S202).

次に、領域分割部203は、2値化部202から入力された差分背景マスクから画素値が「1」の画素の部分を分割し、画素値「1」と「0」について0個以上の分割領域を生成する。ここでは、同一画素値が連続している部分を同一の領域として分割し、その面積が所定の閾値よりも小さい領域は削除する。この場合、面積は領域内の画素値が「1」の画素の数である(ステップS203)。   Next, the region dividing unit 203 divides a pixel portion having a pixel value “1” from the difference background mask input from the binarizing unit 202, and zero or more pixel values “1” and “0” are obtained. Generate split regions. Here, a portion where the same pixel value is continuous is divided as the same region, and a region whose area is smaller than a predetermined threshold is deleted. In this case, the area is the number of pixels having a pixel value “1” in the region (step S203).

次に、特徴量抽出部204は、領域分割部203から入力された分割領域毎の現画像から特徴量を抽出し、抽出オブジェクトとしてオブジェクト分類部102に出力する(ステップS204)。   Next, the feature amount extraction unit 204 extracts a feature amount from the current image for each divided region input from the region division unit 203, and outputs the feature amount to the object classification unit 102 as an extracted object (step S204).

特徴量としては、面積、色ヒストグラム等を抽出する。面積は、分割領域内の面積である。色ヒストグラムは、分割領域内を色空間で分割し、同一色空間に属する画素の数を集計したものである。また、本実施の形態1では、分割領域、分割領域内の背景差分マスク、分割領域の画像を、それぞれ矩形領域、オブジェクトマスク、矩形領域画像とし、それぞれ特徴量とあわせたものを抽出オブジェクトとして出力する。   As the feature amount, an area, a color histogram, and the like are extracted. The area is an area in the divided region. The color histogram is obtained by dividing the divided area by a color space and totaling the number of pixels belonging to the same color space. In the first embodiment, the divided area, the background difference mask in the divided area, and the image of the divided area are set as a rectangular area, an object mask, and a rectangular area image, respectively, and those combined with the feature amount are output as extracted objects. To do.

以上の構成により、オブジェクト抽出部101は、現画像と背景画像から抽出オブジェクトを生成する機能を有する。   With the above configuration, the object extraction unit 101 has a function of generating an extraction object from the current image and the background image.

次に、図1のオブジェクト分類部102の構成及び機能について、図3に示すブロック構成図と、図6に示すフローチャートを参照して説明する。   Next, the configuration and function of the object classification unit 102 in FIG. 1 will be described with reference to the block configuration diagram shown in FIG. 3 and the flowchart shown in FIG.

オブジェクト分類部102は、図3に示すように、虚像判定部301と、認識オブジェクト更新部302と、背景オブジェクト統合部303と、から構成される。   As shown in FIG. 3, the object classification unit 102 includes a virtual image determination unit 301, a recognition object update unit 302, and a background object integration unit 303.

虚像判定部301は、図3に示すように、オブジェクト抽出部101から入力される抽出オブジェクトと、図1の背景オブジェクト記憶部105から入力される前背景オブジェクトの比較・対応付けを行い、抽出オブジェクトと一致した前背景オブジェクトを選択する。そして、この一致した前背景オブジェクトの矩形領域、及びオブジェクトマスクが一致するオブジェクトを抽出オブジェクトから探索して虚像オブジェクトとする。さらに、抽出オブジェクトの中で、この虚像オブジェクト以外の抽出オブジェクトを検出オブジェクトとして認識オブジェクト更新部302と外部に出力する(ステップS301)。   As illustrated in FIG. 3, the virtual image determination unit 301 compares and associates the extracted object input from the object extraction unit 101 with the foreground object input from the background object storage unit 105 in FIG. Select the foreground and background objects that match Then, the object having the same rectangular area and object mask of the matched foreground / background object is searched from the extracted object to be a virtual image object. Further, among the extracted objects, an extracted object other than the virtual image object is output to the recognition object update unit 302 and the outside as a detection object (step S301).

抽出オブジェクトと前背景オブジェクトの比較は、オブジェクトマスク、面積、色ヒストグラムを用いて行う。   Comparison between the extracted object and the foreground / background object is performed using an object mask, an area, and a color histogram.

オブジェクトマスクとの一致判定については、抽出オブジェクト及び前背景オブジェクトのオブジェクトマスクとの各画素間で差分絶対値をとり、これら差分絶対値を合計し、合計値が所定の閾値以下となった場合に、オブジェクトマスクと一致したと判定する。   As for the coincidence determination with the object mask, the absolute value of the difference is calculated between each pixel of the extracted object and the object mask of the foreground / background object, and the difference absolute value is summed, and the total value is equal to or less than a predetermined threshold value. It is determined that the object mask matches.

面積の一致判定については、抽出オブジェクト及び前背景オブジェクトの面積が所定の閾値以下となった場合に、面積が一致したと判定する。   Regarding the area coincidence determination, when the areas of the extracted object and the foreground / background object are equal to or smaller than a predetermined threshold, it is determined that the areas coincide.

色ヒストグラムの一致判定については、抽出オブジェクト及び前背景オブジェクトの色ヒストグラム間でユークリッド距離を計算し、そのユークリッド距離が所定の閾値以下となった場合に、色ヒストグラムが一致したと判定する。   Regarding the color histogram match determination, the Euclidean distance is calculated between the color histograms of the extracted object and the foreground / background object, and when the Euclidean distance is equal to or less than a predetermined threshold, it is determined that the color histograms match.

また、矩形領域の比較については、抽出オブジェクト及び前背景オブジェクトの矩形領域左上座標間の距離が所定の閾値以下、かつ、幅が所定の閾値以下、かつ、高さが所定の閾値以下であった場合に、矩形領域は一致したと判定する。   Regarding the comparison of the rectangular areas, the distance between the upper left coordinates of the rectangular area of the extracted object and the foreground / background object is not more than a predetermined threshold, the width is not more than the predetermined threshold, and the height is not more than the predetermined threshold. In this case, it is determined that the rectangular areas match.

また、虚像判定部301は、抽出オブジェクトと前背景オブジェクトが、オブジェクトマスク、面積、色ヒストグラムの全てが一致していた場合には、抽出オブジェクトと前背景オブジェクトが一致したとみなし、前背景オブジェクトの中で、この一致した前背景オブジェクト以外を継続背景オブジェクトとして背景オブジェクト統合部303に出力する。   Further, if the extracted object and the foreground / background object match all of the object mask, area, and color histogram, the virtual image determination unit 301 considers the extracted object and the foreground / background object to match, and Among these, the objects other than the matched foreground / background objects are output to the background object integration unit 303 as continuous background objects.

次に、認識オブジェクト更新部302は、虚像判定部301から入力される検出オブジェクトと、図1の認識オブジェクト記憶部104から入力される前認識オブジェクトとの比較・対応付けを行い、対応付けされたオブジェクトを仮認識オブジェクトとする。そして、所定フレーム数以上仮認識オブジェクトとして認識された検出オブジェクトを新規背景化オブジェクトとして背景オブジェクト統合部303に出力する。また、所定フレーム数以上連続で認識されなかった前認識オブジェクト及び新規背景化オブジェクトとならなかった前認識オブジェクト以外の前認識オブジェクトを、検出オブジェクトを用いて更新して認識オブジェクトを生成して認識オブジェクト記憶部104に出力する(ステップS302)。   Next, the recognition object update unit 302 compares and associates the detection object input from the virtual image determination unit 301 with the pre-recognition object input from the recognition object storage unit 104 in FIG. Let the object be a temporary recognition object. Then, the detected object recognized as the provisional recognition object for the predetermined number of frames or more is output to the background object integration unit 303 as a new background object. In addition, a recognition object is generated by updating a pre-recognition object other than a pre-recognition object that has not been recognized continuously for a predetermined number of frames or more and a pre-recognition object that has not become a new background object using a detection object to generate a recognition object The data is output to the storage unit 104 (step S302).

検出オブジェクトと前認識オブジェクトの比較は、矩形領域、オブジェクトマスク、面積及び色ヒストグラムを用いて行う。   Comparison between the detected object and the previously recognized object is performed using a rectangular area, an object mask, an area, and a color histogram.

矩形領域の比較については、検出オブジェクト及び前認識オブジェクトの矩形領域左上座標間の距離が所定の閾値以下、かつ、幅が所定の閾値以下、かつ、高さが所定の閾値以下であった場合に、矩形領域は一致したと判定する。   For comparison of rectangular areas, when the distance between the upper left coordinates of the rectangular area of the detected object and the previously recognized object is less than a predetermined threshold, the width is less than the predetermined threshold, and the height is less than the predetermined threshold It is determined that the rectangular areas match.

オブジェクトマスクとの比較については、抽出オブジェクト及び前背景オブジェクトのオブジェクトマスクとの各画素間で差分絶対値をとり、これら差分絶対値を合計し、合計値が所定の閾値以下となった場合に、オブジェクトマスクと一致したと判定する。   For comparison with the object mask, the difference absolute value is taken between each pixel of the extracted object and the object mask of the foreground / background object, and the difference absolute value is summed, and when the total value becomes a predetermined threshold value or less, It is determined that the object mask matches.

面積の比較については、抽出オブジェクト及び前背景オブジェクトの面積が所定の閾値以下となった場合に、面積は一致したと判定する。   Regarding the area comparison, when the areas of the extracted object and the foreground / background object are equal to or less than a predetermined threshold, it is determined that the areas match.

色ヒストグラムの比較については、抽出オブジェクト及び前背景オブジェクトの色ヒストグラム間でユークリッド距離を計算し、そのユークリッド距離が所定の閾値以下となった場合に、色ヒストグラムが一致したと判定する。   Regarding the comparison of color histograms, the Euclidean distance is calculated between the color histograms of the extracted object and the foreground / background object, and it is determined that the color histograms match when the Euclidean distance falls below a predetermined threshold.

認識オブジェクト更新部302は、矩形領域、オブジェクトマスク、面積及び色ヒストグラムの全てが一致していた場合に、抽出オブジェクトと前背景オブジェクトが一致したとみなす。   The recognized object update unit 302 determines that the extracted object and the foreground / background object match when all of the rectangular area, the object mask, the area, and the color histogram match.

認識オブジェクト更新部302は、一致した検出オブジェクトに対しては、対応する前認識オブジェクトの認識フレーム数、非認識フレーム数、連続認識フレーム数、連続非認識フレーム数を更新して(認識フレーム数と連続認識フレーム数をインクリメント、連続非認識フレーム数をリセット)付加し、連続認識フレーム数が所定の閾値以上となったものは新規背景化オブジェクトとし、背景化時刻を付加して背景オブジェクト統合部303に出力する。   The recognized object updating unit 302 updates the number of recognized frames, the number of non-recognized frames, the number of consecutively recognized frames, and the number of consecutive unrecognized frames of the corresponding previous recognized object for the matching detected objects (the number of recognized frames). The number of consecutive recognition frames is incremented and the number of consecutive non-recognition frames is reset). If the number of consecutive recognition frames exceeds a predetermined threshold value, a new background object is added, and the background object time is added to the background object integration unit 303. Output to.

また、認識オブジェクト更新部302は、一致しなかった検出オブジェクトに対しては、初期化した認識フレーム数、非認識フレーム数、連続非認識フレーム数を付加して、認識オブジェクトとして認識オブジェクト記憶部104に出力する。   The recognized object updating unit 302 adds the initialized number of recognized frames, number of unrecognized frames, and number of consecutive non-recognized frames to the detected objects that do not match, and recognizes the recognized object storage unit 104 as a recognized object. Output to.

さらに、認識オブジェクト更新部302は、一致しなかった前認識オブジェクトに対しては、非認識フレーム数、連続非認識フレーム数、連続認識フレーム数を更新し(非認識フレーム数と連続非認識フレーム数をインクリメント、連続認識フレーム数をリセット)、連続非認識フレーム数が所定の閾値以下のものを認識オブジェクトとして認識オブジェクト記憶部104に出力する。   Further, the recognition object update unit 302 updates the number of non-recognized frames, the number of consecutive non-recognized frames, and the number of consecutive recognition frames for the previously recognized objects that do not match (the number of non-recognized frames and the number of consecutive non-recognized frames). And the number of consecutive non-recognized frames is reset to the recognition object storage unit 104 as a recognition object.

次に、背景オブジェクト統合部303は、虚像判定部301から入力された継続背景オブジェクトと、認識オブジェクト更新部302から入力された新規背景化オブジェクトを統合し、背景オブジェクトを生成して背景画像生成部103と背景オブジェクト記憶部105に出力する(ステップS303)。   Next, the background object integration unit 303 integrates the continuous background object input from the virtual image determination unit 301 and the new background object input from the recognition object update unit 302, generates a background object, and generates a background image generation unit. 103 and the background object storage unit 105 (step S303).

以上の構成により、オブジェクト分類部102は、抽出オブジェクトと、前認識オブジェクトと、前背景オブジェクトと、から認識オブジェクトと、背景オブジェクトを生成する機能を有する。   With the above configuration, the object classification unit 102 has a function of generating a recognition object and a background object from the extracted object, the previous recognition object, and the front and background object.

次に、図1の背景画像生成部103は、オブジェクト分類部102から入力される背景オブジェクトから背景画像を生成する(ステップS103)。背景画像生成部103は、入力された背景オブジェクトを背面から前面へと、背景化時刻が早いものから順に並べ、背面のオブジェクトを前面のオブジェクトで上書きしていくことでオブジェクトの重なりを考慮する。また、背景画像生成部103は、矩形領域に配置した矩形領域画像に対して、オブジェクトマスクの画素値が「1」の部分の画像を書き込む。   Next, the background image generation unit 103 in FIG. 1 generates a background image from the background object input from the object classification unit 102 (step S103). The background image generation unit 103 arranges the input background objects from the back to the front in order from the earliest backgrounding time, and considers overlapping of objects by overwriting the back objects with the front objects. In addition, the background image generation unit 103 writes an image of a portion where the pixel value of the object mask is “1” to the rectangular area image arranged in the rectangular area.

次に、図1の認識オブジェクト記憶部104は、オブジェクト分類部102から入力される認識オブジェクトを記憶し、記憶した認識オブジェクトを次の前認識オブジェクトとしてオブジェクト分類部102に出力する。   Next, the recognition object storage unit 104 of FIG. 1 stores the recognition object input from the object classification unit 102, and outputs the stored recognition object to the object classification unit 102 as the next pre-recognition object.

次に、図1の背景オブジェクト記憶部105は、オブジェクト分類部102から入力される背景オブジェクトを記憶し、記憶した背景オブジェクトを次の前背景オブジェクトとしてオブジェクト分類部102に出力する。   Next, the background object storage unit 105 in FIG. 1 stores the background object input from the object classification unit 102 and outputs the stored background object to the object classification unit 102 as the next foreground background object.

以上の構成により、本実施の形態1の画像監視装置100は、背景に取り込まれた物体と変化部分を比較することで虚像を検出することができ、動物体を適切に検出するとともに、背景画像を適切に更新する。   With the above configuration, the image monitoring apparatus 100 according to the first embodiment can detect a virtual image by comparing an object captured in the background with the changed portion, appropriately detect the moving object, and also detect the background image. Update appropriately.

以上のように構成された画像監視装置100の動作について、図7〜図11を参照して説明する。   The operation of the image monitoring apparatus 100 configured as described above will be described with reference to FIGS.

図7〜図9は、画像監視画面内に人が侵入してきて静止し、画面内で静止していた車が動き出したときの画像監視装置100内の各部の動作例を示したものである。この動作例では、人と車を動物体として検出するとともに、人を背景として取り込み、停止していた車が背景から削除される場合について説明する。   FIG. 7 to FIG. 9 show an example of the operation of each part in the image monitoring apparatus 100 when a person enters the image monitoring screen and stops, and the car that is still in the screen starts to move. In this operation example, a case where a person and a car are detected as moving objects, a person is taken as a background, and a stopped car is deleted from the background will be described.

まず、オブジェクト抽出部101の動作について図7を参照して説明する。図7は、オブジェクト抽出部101内の各ブロックにおける入出力画像の例を示した図である。   First, the operation of the object extraction unit 101 will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of input / output images in each block in the object extraction unit 101.

図7(b)の背景画像は、初期背景と車、自転車の背景オブジェクトにより生成された背景画像であり、画面内に進入・停止した車及び自転車が既に背景化していることを想定している。これに対して、同図(a)に示した現画像は、画面内に進入・静止している人と再始動した車、及び画面内に進入した犬が映っていることを想定した画像である。   The background image of FIG. 7B is a background image generated by the initial background and the background object of the car and the bicycle, and it is assumed that the car and the bicycle that entered / stopped in the screen have already become the background. . On the other hand, the current image shown in FIG. 6A is an image that assumes that a person who has entered and stopped in the screen, a restarted car, and a dog that has entered the screen are shown. is there.

背景差分処理部201では、入力された(a)現画像と(b)背景画像の画素単位の差分絶対値が計算され、その差分絶対値を画素値とする背景差分処理が行われ、同図(c)の背景差分画像が生成されて2値化部202に出力される。   The background difference processing unit 201 calculates a difference absolute value in pixel units between the input (a) current image and (b) background image, and performs background difference processing using the difference absolute value as a pixel value. The background difference image of (c) is generated and output to the binarization unit 202.

次いで、2値化部202では、背景差分処理部201から入力された(c)背景差分画像が所定の閾値で2値化処理され、同図(d)の背景差分マスクが生成されて領域分割部203に出力される。   Next, the binarization unit 202 binarizes the (c) background difference image input from the background difference processing unit 201 with a predetermined threshold, generates the background difference mask of FIG. The data is output to the unit 203.

次いで、領域分割部203では、2値化部202から入力された(d)背景差分マスクから同一画素値が連続している部分が同一の領域として領域分割され、同図(e)の領域1〜4が分割領域として生成されて特徴量抽出部204に出力される。   Next, the region dividing unit 203 divides the region where the same pixel values are continuous from the (d) background difference mask input from the binarizing unit 202 as the same region, and the region 1 in FIG. ˜4 are generated as divided regions and output to the feature amount extraction unit 204.

次いで、特徴量抽出部204では、入力された(a)現画像と、領域分割部203から入力された分割領域からの特徴量抽出処理により、分割領域1〜4毎に特徴量が抽出され、分割領域1〜4に対応する同図(f)の抽出オブジェクト1〜4として生成されてオブジェクト分類部102に出力される。   Next, the feature amount extraction unit 204 extracts feature amounts for each of the divided regions 1 to 4 by the feature amount extraction processing from the input (a) current image and the divided regions input from the region dividing unit 203, The extracted objects 1 to 4 corresponding to the divided areas 1 to 4 in FIG. 4F are generated and output to the object classification unit 102.

ここでは、人、車、車の虚像、及び犬がそれぞれ抽出オブジェクト1〜4として抽出される。   Here, a person, a car, a virtual image of a car, and a dog are extracted as extraction objects 1 to 4, respectively.

次に、オブジェクト分類部102の動作について図8を参照して説明する。図8は、オブジェクト分類部102内の各ブロックにおける入出力画像の例を示した図である。   Next, the operation of the object classification unit 102 will be described with reference to FIG. FIG. 8 is a diagram illustrating an example of input / output images in each block in the object classification unit 102.

まず、虚像判定部301では、オブジェクト抽出部101から入力された(a)の抽出オブジェクト1〜4と、背景オブジェクト記憶部105から入力された同図(b)の前背景オブジェクト1,2との虚像判定により、同図(d)の検出オブジェクト1〜3が生成されて認識オブジェクト更新部302に出力されるとともに、同図(e)の継続背景オブジェクト1が生成されて背景オブジェクト統合部303に出力される。   First, in the virtual image determination unit 301, the extracted objects 1 to 4 of (a) input from the object extraction unit 101 and the foreground / background objects 1 and 2 of FIG. As a result of the virtual image determination, detection objects 1 to 3 in FIG. 4D are generated and output to the recognition object update unit 302, and a continuous background object 1 in FIG. Is output.

すなわち、抽出オブジェクト1〜4と前背景オブジェクト1,2との比較・対応付けが行われた結果、抽出オブジェクト2と前背景オブジェクト1が一致し、この前背景オブジェクト1と矩形領域及びオブジェクトマスクが一致する抽出オブジェクト3が虚像オブジェクトと判定される。したがって、虚像オブジェクト以外の抽出オブジェクト1,2,4がそれぞれ、同図(d)の検出オブジェクト1〜3として認識オブジェクト更新部302と外部に出力され、前背景オブジェクト2が同図(e)の継続背景オブジェクト1として背景オブジェクト統合部303に出力される。   That is, as a result of comparison / association between the extracted objects 1 to 4 and the foreground / background objects 1 and 2, the extracted object 2 and the foreground / background object 1 match each other. The matching extracted object 3 is determined as a virtual image object. Accordingly, the extracted objects 1, 2, and 4 other than the virtual image object are output to the recognition object update unit 302 and the outside as the detection objects 1 to 3 in FIG. 4D, respectively, and the foreground object 2 in FIG. The continuous background object 1 is output to the background object integration unit 303.

次に、認識オブジェクト更新部302では、認識オブジェクト記憶部104から入力された同図(c)の前認識オブジェクトと、虚像判定部301から入力された(d)検出オブジェクト1〜3から認識オブジェクト更新処理が行われることにより、同図(f)の認識オブジェクト1,2が生成されて認識オブジェクト記憶部104に出力されるとともに、同図(g)の新規背景化オブジェクト1が生成されて背景オブジェクト統合部303に出力される。   Next, the recognition object update unit 302 updates the recognition object from the pre-recognition object of FIG. 10C input from the recognition object storage unit 104 and (d) detection objects 1 to 3 input from the virtual image determination unit 301. As a result of the processing, recognition objects 1 and 2 in FIG. 8F are generated and output to the recognition object storage unit 104, and a new background object 1 in FIG. The data is output to the integration unit 303.

すなわち、前認識オブジェクト1と検出オブジェクト1が一致し、認識フレーム数、連続認識フレーム数、連続非認識フレーム数が更新される。ここで、背景化の閾値を「10」と想定すると、連続認識フレーム数が閾値以上となるので、前認識オブジェクト1と検出オブジェクト1から(g)新規背景化オブジェクト1が生成される。   That is, the pre-recognized object 1 and the detected object 1 match, and the number of recognized frames, the number of consecutively recognized frames, and the number of consecutive non-recognized frames are updated. Here, assuming that the backgrounding threshold is “10”, the number of continuously recognized frames is equal to or greater than the threshold, and therefore (g) a new backgrounding object 1 is generated from the previous recognition object 1 and the detection object 1.

次に、背景オブジェクト統合部303では、虚像判定部301から入力された(e)継続背景オブジェクト1と、認識オブジェクト更新部302から入力された(g)新規背景化オブジェクト1が統合されて、同図(h)の背景オブジェクト1,2が生成されて背景画像生成部103と背景オブジェクト記憶部105に出力される。   Next, the background object integration unit 303 integrates (e) the continuous background object 1 input from the virtual image determination unit 301 and (g) the new background object 1 input from the recognition object update unit 302. The background objects 1 and 2 in FIG. (H) are generated and output to the background image generation unit 103 and the background object storage unit 105.

すなわち、(e)継続背景オブジェクト1と(g)新規背景化オブジェクト1が、それぞれ(h)の背景オブジェクト1,2となる。   That is, (e) the continuous background object 1 and (g) the new background object 1 become the background objects 1 and 2 of (h), respectively.

以上のように、オブジェクト分類部102では、以上のような動作を行うことにより、虚像を排除し、検出オブジェクト、背景オブジェクト及び認識オブジェクトを生成する。   As described above, the object classification unit 102 eliminates the virtual image and generates the detection object, the background object, and the recognition object by performing the above-described operation.

次に、背景画像生成部103の動作について図9を参照して説明する。図9は、背景画像生成部103の入出力画像の例を示した図である。   Next, the operation of the background image generation unit 103 will be described with reference to FIG. FIG. 9 is a diagram illustrating an example of an input / output image of the background image generation unit 103.

背景画像生成部103では、オブジェクト分類部102から入力された(b)背景オブジェクト1,2から背景画像生成処理により同図(c)の背景画像が生成されてオブジェクト抽出部101に出力される。ここでは、背景化時刻の早い順、背景オブジェクト1,2の順で、(a)初期背景画像を(b)背景オブジェクト1,2で上書きし、(c)背景画像となる。   In the background image generation unit 103, the background image shown in FIG. 10C is generated from the (b) background objects 1 and 2 input from the object classification unit 102 by the background image generation process and is output to the object extraction unit 101. Here, (a) the initial background image is overwritten with (b) the background objects 1 and 2 in the order of the backgrounding time, in the order of the background objects 1 and 2, and (c) the background image is obtained.

以上のように、図7〜図9を用いて説明したような動作により、虚像を含まない検出オブジェクトの抽出と、虚像を適切に更新した背景画像の生成が可能になる。   As described above, the operation described with reference to FIGS. 7 to 9 enables extraction of a detection object that does not include a virtual image and generation of a background image in which the virtual image is appropriately updated.

なお、上記オブジェクト分類部102で処理される抽出オブジェクト、前背景オブジェクト、検出オブジェクト、継続背景オブジェクト、新規背景化オブジェクト、認識オブジェクト及び背景オブジェクトのデータ例を図10に示す。また、図10のオブジェクトデータの構成例を図11に示す。   FIG. 10 shows data examples of the extracted object, the foreground / background object, the detection object, the continuous background object, the new background object, the recognition object, and the background object processed by the object classification unit 102. FIG. 11 shows a configuration example of the object data in FIG.

以上のように、本実施の形態1の画像監視装置によれば、一旦背景画像に取り込まれた動物体が再び動き出したことを確実に検出し、虚像を生じない画像に背景画像を更新するとともに、適切に監視画面内に進入する動物体を検出することができる。   As described above, according to the image monitoring apparatus of the first embodiment, it is reliably detected that the moving object once captured in the background image starts to move again, and the background image is updated to an image that does not generate a virtual image. It is possible to appropriately detect a moving object entering the monitoring screen.

なお、本実施の形態1の領域分割部においては、画素値が連続しない部分で領域分割を行うようにしたが、矩形位置が近い場合はこれらを統合するようにしてもよいし、類似の特徴量をもつものを統合するようにしてもよい。また、本実施の形態1の画像監視装置では、抽出や比較に用いる特徴量を面積と色ヒストグラムとしたが、これらに限るものではない。   In the region dividing unit according to the first embodiment, the region is divided at a portion where the pixel values are not continuous. However, when the rectangular positions are close to each other, these may be integrated or similar features may be used. You may make it integrate what has quantity. In the image monitoring apparatus of the first embodiment, the feature amounts used for extraction and comparison are the area and the color histogram, but are not limited thereto.

(実施の形態2)
本発明の実施の形態2について、図12〜図17を参照して説明する。
(Embodiment 2)
A second embodiment of the present invention will be described with reference to FIGS.

図12は、本実施の形態2の画像監視装置1200の構成を示すブロック図であり、実施の形態1の図1に示した画像監視装置100と同一の構成部分にと同一符号を付している。図12において、画像監視装置1200は、オブジェクト抽出部101と、オブジェクト分類部102と、背景画像生成部103と、認識オブジェクト記憶部104と、背景オブジェクト記憶部105と、背景オブジェクト更新部1201と、から構成される。   FIG. 12 is a block diagram showing the configuration of the image monitoring apparatus 1200 according to the second embodiment. The same components as those in the image monitoring apparatus 100 shown in FIG. Yes. In FIG. 12, an image monitoring apparatus 1200 includes an object extraction unit 101, an object classification unit 102, a background image generation unit 103, a recognized object storage unit 104, a background object storage unit 105, a background object update unit 1201, Consists of

オブジェクト抽出部101と、オブジェクト分類部102と、認識オブジェクト記憶部104については、上記実施の形態1に示したものと同様の機能を有する。背景画像生成部103と、背景オブジェクト記憶部105については、背景オブジェクトではなく更新背景オブジェクトを扱うが、データ構造に違いはなく、その動作は上記実施の形態1に示したものと同様である。   The object extraction unit 101, the object classification unit 102, and the recognized object storage unit 104 have the same functions as those described in the first embodiment. The background image generation unit 103 and the background object storage unit 105 handle the updated background object instead of the background object, but there is no difference in the data structure, and the operation is the same as that described in the first embodiment.

また、本実施の形態2の画像監視装置1200は、図14に示すフローチャートのように、上記実施の形態1の画像監視装置100と同様に、オブジェクト抽出処理と(ステップS101)、オブジェクト分類処理と(ステップS102)、背景画像生成処理と(ステップS103)、を実行する機能を有するとともに、背景オブジェクト更新部1201が所定の手順により更新背景オブジェクトを生成する背景オブジェクト更新処理と(ステップS1403)、を更に実行する機能を有する。   Further, the image monitoring apparatus 1200 according to the second embodiment is configured to perform object extraction processing (step S101), object classification processing, and the like, as with the image monitoring apparatus 100 according to the first embodiment, as shown in the flowchart of FIG. (Step S102), a background image generation process (Step S103), and a background object update process in which the background object update unit 1201 generates an updated background object according to a predetermined procedure (Step S1403). Furthermore, it has a function to execute.

背景オブジェクト更新部1201は、現画像と、オブジェクト分類部102から入力される背景オブジェクト及び検出オブジェクトとから、所定の手順により更新背景オブジェクトを生成する。   The background object update unit 1201 generates an updated background object from the current image and the background object and detection object input from the object classification unit 102 by a predetermined procedure.

次に、背景オブジェクト更新部1201の構成及び機能について、図13に示すブロック構成図と、図15に示すフローチャートを参照して説明する。   Next, the configuration and function of the background object update unit 1201 will be described with reference to the block diagram shown in FIG. 13 and the flowchart shown in FIG.

背景オブジェクト更新部1201は、図13に示すように、背景オブジェクト合成部1301と、検出オブジェクトマスク合成部1302と、オブジェクトデータ更新部1303と、から構成される。   As illustrated in FIG. 13, the background object update unit 1201 includes a background object composition unit 1301, a detected object mask composition unit 1302, and an object data update unit 1303.

まず、背景オブジェクト合成部1301は、オブジェクト分類部102から入力される背景オブジェクトを合成し、各画素と背景オブジェクトを対応付けた背景オブジェクトマップを生成してオブジェクトデータ更新部1303に出力する(ステップS1501)。   First, the background object synthesis unit 1301 synthesizes the background objects input from the object classification unit 102, generates a background object map in which each pixel is associated with the background object, and outputs the background object map to the object data update unit 1303 (step S1501). ).

ここでは、最背面から背景化時刻昇順で背景オブジェクトが並べられる。つまり、背景オブジェクトが重なっていた場合は、背景化時刻が遅い背景オブジェクトに画素は対応付けられる。   Here, the background objects are arranged in ascending order of backgrounding time from the back. That is, when the background object overlaps, the pixel is associated with the background object with the later backgrounding time.

次いで、検出オブジェクトマスク合成部1302は、オブジェクト分類部102から入力された検出オブジェクトのオブジェクトマスクを合成して、合成検出オブジェクトマスクを生成してオブジェクトデータ更新部1303に出力する(ステップS1502)。   Next, the detected object mask combining unit 1302 combines the object masks of the detected objects input from the object classifying unit 102, generates a combined detected object mask, and outputs the combined detected object mask to the object data update unit 1303 (step S1502).

次いで、オブジェクトデータ更新部1303は、入力される現画像と、オブジェクト分類部102から入力される背景オブジェクトと、背景オブジェクト合成部1301から入力される背景オブジェクトマップと、検出オブジェクトマスク合成部1302から入力される合成検出オブジェクトマスクと、から背景オブジェクトを更新し、更新背景オブジェクトとして背景画像生成部103と背景オブジェクト記憶部105に出力する(ステップS1503)。   Next, the object data update unit 1303 receives the input current image, the background object input from the object classification unit 102, the background object map input from the background object composition unit 1301, and the detection object mask composition unit 1302. The background object is updated from the synthesized detection object mask to be output, and is output to the background image generation unit 103 and the background object storage unit 105 as an updated background object (step S1503).

合成検出オブジェクトマスクまたは他の背景オブジェクトによりマスクされていない画素が、背景オブジェクトの面積に対して第1の所定の閾値以上の割合を占める背景オブジェクトについては、矩形領域画像を現画像から抽出し直し、これを用いて特徴量も抽出し直す。   For a background object in which pixels not masked by the composite detection object mask or other background object occupy a ratio equal to or greater than the first predetermined threshold with respect to the area of the background object, the rectangular area image is re-extracted from the current image Using this, the feature amount is extracted again.

また、背景オブジェクトの面積に対して第2の所定の閾値以上の割合を占める背景オブジェクトについては、対応付けられている画素の平均輝度値及び背景オブジェクトの平均輝度値を算出し、これらの差分だけ背景オブジェクトの矩形画像の全画素をシフトし、これを用いて特徴量を抽出し直す。   For a background object that occupies a ratio equal to or greater than the second predetermined threshold with respect to the area of the background object, the average luminance value of the associated pixel and the average luminance value of the background object are calculated, and only the difference between them is calculated. All pixels of the rectangular image of the background object are shifted, and feature values are extracted again using this.

それ以外の背景オブジェクトについては、背景オブジェクトの更新は行わない。   Background objects are not updated for other background objects.

以上のような背景オブジェクト更新部1201の構成により、背景オブジェクト更新部1201は現画像と検出オブジェクトと背景オブジェクトから更新背景オブジェクトを生成する。   With the configuration of the background object update unit 1201 as described above, the background object update unit 1201 generates an updated background object from the current image, the detected object, and the background object.

上記のように構成された画像監視装置1200は、背景に取り込まれた物体と変化部分を比較することで虚像を検出することができ、動物体を適切に検出するとともに、背景画像をより適切に更新する。   The image monitoring apparatus 1200 configured as described above can detect a virtual image by comparing the object captured in the background with the changed portion, appropriately detect the moving object, and more appropriately the background image. Update.

以上のように構成された画像監視装置1200の動作について、図16,17を参照して説明する。ここでは、特に、背景オブジェクト更新部1201の動作について説明する。図16は、背景オブジェクト更新部1201内の各ブロックにおける入出力画像の例を示した図である。   The operation of the image monitoring apparatus 1200 configured as described above will be described with reference to FIGS. Here, in particular, the operation of the background object update unit 1201 will be described. FIG. 16 is a diagram illustrating an example of input / output images in each block in the background object update unit 1201.

まず、同図に示すような(a)現画像と、(b)背景オブジェクトと、(c)検出オブジェクトが背景オブジェクト更新部1201に入力されたとする。背景オブジェクト合成部1301では、(b)背景オブジェクトから、背景オブジェクト合成処理により、背景オブジェクト1,2の背景オブジェクトマスクが、矩形位置に配置されてマッピングが行われ、同図(d)に示す背景オブジェクトマップが生成されてオブジェクトデータ更新部1303に出力される。   First, assume that (a) the current image, (b) the background object, and (c) the detected object are input to the background object update unit 1201 as shown in FIG. The background object composition unit 1301 performs mapping by arranging the background object masks of the background objects 1 and 2 at the rectangular positions from the background object by the background object composition processing, and the background shown in FIG. An object map is generated and output to the object data update unit 1303.

次いで、検出オブジェクトマスク合成部1302では、(c)検出オブジェクトから、検出オブジェクト合成処理により、検出オブジェクト1〜3のオブジェクトマスクが矩形位置に配置され、同図(e)の合成検出オブジェクトマスクが生成されてオブジェクトデータ更新部1303に出力される。   Next, in the detected object mask composition unit 1302, (c) the object masks of the detected objects 1 to 3 are arranged at the rectangular positions from the detected object by the detected object composition process, and the composite detected object mask of FIG. And output to the object data update unit 1303.

次いで、オブジェクトデータ更新部1303では、(a)現画像と、オブジェクト分類部102から入力された(b)背景オブジェクトと、背景オブジェクト合成部1301から入力された(d)背景オブジェクトマップと、検出オブジェクトマスク合成部1302から入力された(e)合成検出オブジェクトマスクとから、オブジェクトデータ更新処理により、(b)の背景オブジェクト1,2をそれぞれ更新背景オブジェクト1,2に更新した同図(g)の更新背景オブジェクトが生成されて背景画像生成部103に出力される。   Next, in the object data update unit 1303, (a) the current image, (b) the background object input from the object classification unit 102, (d) the background object map input from the background object composition unit 1301, and the detected object The background objects 1 and 2 in (b) are updated to the updated background objects 1 and 2 respectively by object data update processing from the (e) composition detection object mask input from the mask composition unit 1302 in FIG. An updated background object is generated and output to the background image generation unit 103.

この場合、背景オブジェクト1は、(e)合成検出オブジェクトマスクにより全くマスクされず、他の背景オブジェクトとも重なっていないので、全画素の対応付けができているので、(a)現画像から矩形画像が抽出し直されて、特徴量が更新される。   In this case, since the background object 1 is not masked at all by the (e) composite detection object mask and does not overlap with other background objects, all pixels are associated with each other. Are extracted again, and the feature amount is updated.

ここでは、現画像の自転車の微小変化が取り込まれた更新背景オブジェクト1が生成される。   Here, an updated background object 1 in which a minute change of the bicycle in the current image is captured is generated.

背景オブジェクト2は、(e)合成検出オブジェクトマスクにより完全にマスクされるので、更新は行われずに更新背景オブジェクト2となる。   Since the background object 2 is completely masked by the (e) composite detection object mask, the background object 2 becomes the updated background object 2 without being updated.

図17は、オブジェクトデータ更新部1303において背景オブジェクトが部分的にマッピングされる例を示す図である。   FIG. 17 is a diagram illustrating an example in which the background object is partially mapped in the object data update unit 1303.

こでは、(f)更新前の背景画像に対して、(a)現画像の車の色が微小変化したことを想定している。   Here, it is assumed that (a) the color of the car in the current image is slightly changed with respect to the background image before the update (f).

(c)背景オブジェクトマップに示すように、背景オブジェクト1と背景オブジェクト2は重なっており、背景オブジェクト1は全画素対応付けされているが、背景オブジェクト2は部分的な対応付けとなり、背景オブジェクト2については平均輝度値を用いた背景オブジェクト更新を行う。   (C) As shown in the background object map, the background object 1 and the background object 2 overlap each other, and the background object 1 is associated with all pixels, but the background object 2 is partially associated with the background object 2. For, the background object is updated using the average luminance value.

背景オブジェクト2の平均輝度値と背景オブジェクト2がマッピングされている現画像の画素の平均輝度値との差分だけ、背景オブジェクト2の矩形画像をシフトし、これを用いて特徴量を抽出し直して、更新背景オブジェクト2とする。   The rectangular image of the background object 2 is shifted by the difference between the average luminance value of the background object 2 and the average luminance value of the pixel of the current image to which the background object 2 is mapped, and the feature amount is extracted again using this. The update background object 2 is assumed.

このように画面から抽出できる特徴量を、画面から抽出できない領域に反映させることで、背景オブジェクトを現在の物体に近いものにする。   In this way, the feature quantity that can be extracted from the screen is reflected in the area that cannot be extracted from the screen, thereby making the background object close to the current object.

以上のように、図16、図17に示したオブジェクトデータ更新部1303の動作により、更新背景オブジェクトを現画像の微小な変化に追従させることができる。これにより、背景画像生成部103が更新背景オブジェクトを用いて生成する背景画像をより適切なものとすることができる。   As described above, the operation of the object data update unit 1303 shown in FIGS. 16 and 17 allows the updated background object to follow a minute change in the current image. Thereby, the background image generated by the background image generation unit 103 using the updated background object can be made more appropriate.

また、同一物体の特徴量の類似性は時間的に近接しているほうが強い傾向があり、背景オブジェクトが更新されていくことで、動き出す直前の物体の特徴量と比較することができるので、虚像の検出精度を向上することができる。   In addition, the similarity of the feature quantity of the same object tends to be stronger when close in time, and since the background object is updated, it can be compared with the feature quantity of the object just before moving, so a virtual image Detection accuracy can be improved.

以上のように、本実施の形態2の画像監視装置によれば、一旦背景画像に取り込まれた物体が微小変化した場合であっても、再び動き出したことを検出し、虚像を生じない画像に背景画像を更新するとともに、適切に侵入物体を検出することができる。   As described above, according to the image monitoring apparatus of the second embodiment, even when the object once captured in the background image has slightly changed, it is detected that the object has started moving again, and the image is not generated. While updating the background image, it is possible to appropriately detect the intruding object.

なお、本実施の形態2のオブジェクトデータ更新部において、検出オブジェクトを合成した合成検出オブジェクトマスクで背景オブジェクトにマスクをかけたが、オブジェクト抽出部の2値化部において生成される背景差分マスクを代わりに用いても良い。   In the object data update unit of the second embodiment, the background object is masked with the combined detection object mask obtained by combining the detection objects, but the background difference mask generated by the binarization unit of the object extraction unit is used instead. You may use for.

また、本実施の形態2のオブジェクトデータ更新部において、平均輝度値を用いているが、オブジェクト抽出時に抽出する特徴量に平均輝度値を使用するようにし、これを利用するようにしても良い。   In the object data updating unit of the second embodiment, the average luminance value is used. However, the average luminance value may be used as a feature amount extracted at the time of object extraction, and this may be used.

また、本実施の形態2のオブジェクトデータ更新部において、隣接する背景オブジェクト同士の特徴量が近い場合は、これらを統合して1つの背景オブジェクトとしても良い また、本実施の形態2のオブジェクトデータ更新部において、十分に長い時間背景となり続けている背景オブジェクトについては、初期背景に統合し、この背景オブジェクトを削除するようにしても良い。   Further, in the object data update unit of the second embodiment, when the feature amounts of adjacent background objects are close to each other, they may be integrated into one background object. Also, the object data update of the second embodiment In the section, a background object that has been a background for a sufficiently long time may be integrated into the initial background and the background object may be deleted.

また、本実施の形態2のオブジェクトデータ更新部において、背景オブジェクトが部分的にマッピングされた場合に、輝度値をシフトした矩形画像から特徴量を抽出し直すこととしたが、特定の特徴量については更新しないようにしても良い。   Further, in the object data update unit of the second embodiment, when the background object is partially mapped, the feature amount is extracted again from the rectangular image whose luminance value is shifted. May not be updated.

また、本実施の形態2のオブジェクトデータ更新部において、背景オブジェクトが部分的にマッピングされた場合に、輝度値をシフトした矩形画像を作成したが、マッピングされている画素は現画像から抽出するようにしても良い。   In addition, in the object data update unit according to the second embodiment, when a background object is partially mapped, a rectangular image with a shifted luminance value is created, but the mapped pixels are extracted from the current image. Anyway.

本発明に係る画像処理装置及び画像処理方法は、背景差分に虚像を生じないように適切な背景画像に更新でき、精度の高い監視を行うことができるため、入力画像と背景画像を比較して監視を行う画像監視装置として有用である。   The image processing apparatus and the image processing method according to the present invention can be updated to an appropriate background image so as not to generate a virtual image in the background difference, and can be monitored with high accuracy. This is useful as an image monitoring apparatus for monitoring.

本発明の実施の形態1に係る画像監視装置の構成を示すブロック図1 is a block diagram showing a configuration of an image monitoring apparatus according to Embodiment 1 of the present invention. 本実施の形態1に係るオブジェクト抽出部の構成を示すブロック図The block diagram which shows the structure of the object extraction part which concerns on this Embodiment 1. FIG. 本実施の形態1に係るオブジェクト分類部の構成を示すブロック図The block diagram which shows the structure of the object classification | category part concerning this Embodiment 1. FIG. 本実施の形態1に係る画像監視装置の動作及び機能を示すフローチャートFlowchart showing operations and functions of the image monitoring apparatus according to the first embodiment. 本実施の形態1に係るオブジェクト抽出部の動作及び機能を示すフローチャートThe flowchart which shows the operation | movement and function of the object extraction part which concerns on this Embodiment 1. 本実施の形態1に係るオブジェクト分類部の動作及び機能を示すフローチャートThe flowchart which shows the operation | movement and function of the object classification part which concerns on this Embodiment 1. 本実施の形態1に係るオブジェクト抽出部内の各ブロックにおける入出力画像の例を示した図The figure which showed the example of the input-output image in each block in the object extraction part which concerns on this Embodiment 1. 本実施の形態1に係るオブジェクト分類部内の各ブロックにおける入出力画像の例を示した図The figure which showed the example of the input-output image in each block in the object classification part which concerns on this Embodiment 1. 本実施の形態1に係る背景画像生成部における入出力画像の例を示した図The figure which showed the example of the input-output image in the background image generation part which concerns on this Embodiment 1. 本実施の形態1に係るオブジェクト分類部で処理されるオブジェクトデータのデータ例を示す図The figure which shows the data example of the object data processed with the object classification | category part which concerns on this Embodiment 1. 本実施の形態1に係るオブジェクトデータの構成例を示す図The figure which shows the structural example of the object data which concerns on this Embodiment 1. 本発明の実施の形態2に係る画像監視装置の構成を示すブロック図The block diagram which shows the structure of the image monitoring apparatus which concerns on Embodiment 2 of this invention. 本実施の形態2に係る背景オブジェクト更新部の構成を示すブロック図The block diagram which shows the structure of the background object update part which concerns on this Embodiment 2. FIG. 本実施の形態2に係る画像監視装置の動作及び機能を示すフローチャートFlowchart showing the operation and function of the image monitoring apparatus according to the second embodiment. 本実施の形態2に係る背景オブジェクト更新部の動作及び機能を示すフローチャートThe flowchart which shows operation | movement and a function of the background object update part which concerns on this Embodiment 2. 本実施の形態2に係る背景オブジェクト更新部内の各ブロックにおける入出力画像の例を示した図The figure which showed the example of the input-output image in each block in the background object update part which concerns on this Embodiment 2. 本実施の形態2に係るオブジェクトデータ更新部における入出力画像の例を示した図The figure which showed the example of the input-output image in the object data update part which concerns on this Embodiment 2. 従来の動物体検出装置の構成を示すブロック図The block diagram which shows the structure of the conventional moving body detection apparatus 従来の動物体検出装置の動作を示す図The figure which shows operation | movement of the conventional moving body detection apparatus. 従来の動物体検出装置の動作を示す図The figure which shows operation | movement of the conventional moving body detection apparatus. 従来の動物体検出装置の動作の課題を示す図The figure which shows the subject of operation | movement of the conventional moving body detection apparatus.

符号の説明Explanation of symbols

100、1200 画像監視装置
101 オブジェクト抽出部
102 オブジェクト分類部
103 背景画像生成部
104 認識オブジェクト記憶部
105 背景オブジェクト記憶部
201 背景差分処理部
202 2値化部
203 領域分割部
204 特徴量抽出部
301 虚像判定部
302 認識オブジェクト更新部
303 背景オブジェクト統合部
1201 背景オブジェクト更新部
1301 背景オブジェクト合成部
1302 検出オブジェクトマスク合成部
1303 オブジェクトデータ更新部
DESCRIPTION OF SYMBOLS 100, 1200 Image monitoring apparatus 101 Object extraction part 102 Object classification part 103 Background image generation part 104 Recognition object memory | storage part 105 Background object memory | storage part 201 Background difference process part 202 Binarization part 203 Area division part 204 Feature-value extraction part 301 Virtual image Determination unit 302 Recognition object update unit 303 Background object integration unit 1201 Background object update unit 1301 Background object composition unit 1302 Detected object mask composition unit 1303 Object data update unit

Claims (6)

現画像と背景画像からオブジェクトを抽出するオブジェクト抽出部と、
前記オブジェクト抽出部により抽出された抽出オブジェクトと前認識オブジェクト及び前背景オブジェクトとの比較を行い、検出オブジェクト、認識オブジェクト及び背景オブジェクトを生成するオブジェクト分類部と、
前記背景オブジェクトから背景画像を生成する背景画像生成部と、
前記認識オブジェクトを記憶し、次の前認識オブジェクトとして前記オブジェクト分類部に出力する認識オブジェクト記憶部と、
前記背景オブジェクトを記憶し、次の前背景オブジェクトとして前記オブジェクト分類部に出力する背景オブジェクト記憶部と、
を具備することを特徴とする画像処理装置。
An object extraction unit for extracting an object from the current image and the background image;
An object classification unit that compares the extracted object extracted by the object extraction unit with the previously recognized object and the background object, and generates a detected object, a recognized object, and a background object;
A background image generation unit for generating a background image from the background object;
A recognition object storage unit that stores the recognition object and outputs the recognition object as a next previous recognition object to the object classification unit;
A background object storage unit that stores the background object and outputs the background object as a next previous background object to the object classification unit;
An image processing apparatus comprising:
現画像と背景画像からオブジェクトを抽出するオブジェクト抽出部と、
前記オブジェクト抽出部により抽出された抽出オブジェクトと前認識オブジェクト及び前背景オブジェクトとの比較を行い、検出オブジェクト、認識オブジェクト及び背景オブジェクトを生成するオブジェクト分類部と、
前記現画像と前記背景オブジェクトから更新背景オブジェクトを生成する背景オブジェクト更新部と、
前記更新背景オブジェクトから背景画像を生成する背景画像生成部と、
前記認識オブジェクトを記憶し、次の前認識オブジェクトとして前記オブジェクト分類部に出力する認識オブジェクト記憶部と、
前記更新背景オブジェクトを記憶し、次の前背景オブジェクトとして前記オブジェクト分類部に出力する背景オブジェクト記憶部と、
を具備することを特徴とする画像処理装置。
An object extraction unit for extracting an object from the current image and the background image;
An object classification unit that compares the extracted object extracted by the object extraction unit with the previously recognized object and the background object, and generates a detected object, a recognized object, and a background object;
A background object update unit for generating an updated background object from the current image and the background object;
A background image generation unit that generates a background image from the updated background object;
A recognition object storage unit that stores the recognition object and outputs the recognition object as a next previous recognition object to the object classification unit;
A background object storage unit that stores the updated background object and outputs the updated background object to the object classification unit as a next previous background object;
An image processing apparatus comprising:
前記オブジェクト抽出部は、前記現画像と前記背景画像から背景差分画像を生成し、該背景差分画像を2値化処理して背景差分マスクを生成し、該背景差分マスクを領域分割して分割領域毎の前記現画像から特徴量を抽出して抽出オブジェクトを出力し、
前記オブジェクト分類部は、前記抽出オブジェクトと一致する前記前背景オブジェクトを選択し、前記選択した前背景オブジェクトの前記背景差分マスク及び前記分割領域と前記抽出オブジェクトの前記背景差分マスク及び前記分割領域が一致するオブジェクトを虚像オブジェクトとし、前記虚像オブジェクトと一致しない前記抽出オブジェクトを検出オブジェクトとし、前記前認識オブジェクトと一致する前記検出オブジェクトを仮認識オブジェクトとして保持し、保持回数が所定の回数になったとき、前記仮認識オブジェクトを新規背景化オブジェクトとし、前記新規背景化オブジェクトと一致しない前記検出オブジェクトを認識オブジェクトとし、前記新規背景化オブジェクトと前記継続背景オブジェクトを統合して背景オブジェクトとして出力することを特徴とする請求項1又は2記載の画像処理装置。
The object extraction unit generates a background difference image from the current image and the background image, binarizes the background difference image to generate a background difference mask, divides the background difference mask into regions, and divides the divided region Extract the feature amount from each current image and output the extracted object,
The object classification unit selects the foreground / background object that matches the extracted object, and the background difference mask and the divided region of the selected foreground background object match the background difference mask and the divided region of the extracted object. When the object to be a virtual image object, the extracted object that does not match the virtual image object is a detection object, the detection object that matches the pre-recognition object is held as a temporary recognition object, The temporary recognition object is a new background object, the detected object that does not match the new background object is a recognition object, and the new background object and the continuous background object are integrated to form a background object. The image processing apparatus according to claim 1 or 2, wherein the to and output.
前記背景オブジェクト更新部は、前記背景オブジェクトを合成して背景オブジェクトマップを生成し、前記検出オブジェクトのオブジェクトマスクを合成して合成検出オブジェクトマスクを生成し、前記現画像と、前記背景オブジェクトと、前記背景オブジェクトマップと、前記合成検出オブジェクトマスクと、から背景オブジェクトを更新して更新背景オブジェクトとして出力することを特徴とする請求項2記載の画像処理装置。   The background object update unit generates a background object map by combining the background objects, generates a combined detection object mask by combining an object mask of the detection object, the current image, the background object, and the 3. The image processing apparatus according to claim 2, wherein a background object is updated from a background object map and the composite detection object mask and output as an updated background object. 現画像と背景画像からオブジェクトを抽出するオブジェクト抽出ステップと、
抽出された前記抽出オブジェクトと前認識オブジェクト及び前背景オブジェクトとの比較を行い、検出オブジェクト、認識オブジェクト及び背景オブジェクトを生成するオブジェクト分類ステップと、
前記背景オブジェクトから背景画像を生成する背景画像生成ステップと、
前記認識オブジェクトを認識オブジェクト記憶部に記憶し、次の前認識オブジェクトとして出力する認識オブジェクト記憶ステップと、
前記背景オブジェクトを背景オブジェクト記憶部に記憶し、次の前背景オブジェクトとして出力する背景オブジェクト記憶ステップと、
を有することにより画像から物体を検出することを特徴とする画像処理方法。
An object extraction step for extracting an object from the current image and the background image;
An object classification step of comparing the extracted object with a previously recognized object and a previous background object to generate a detected object, a recognized object, and a background object;
A background image generating step for generating a background image from the background object;
A recognition object storage step of storing the recognition object in a recognition object storage unit and outputting as a next previous recognition object;
A background object storage step of storing the background object in a background object storage unit and outputting as a next previous background object;
An image processing method characterized by detecting an object from an image by having
現画像と背景画像からオブジェクトを抽出するオブジェクト抽出ステップと、
抽出された前記抽出オブジェクトと前認識オブジェクト及び前背景オブジェクトとの比較を行い、検出オブジェクト、認識オブジェクト及び背景オブジェクトを生成するオブジェクト分類ステップと、
前記現画像と前記背景オブジェクトから更新背景オブジェクトを生成する背景オブジェクト更新ステップと、
前記更新背景オブジェクトから背景画像を生成する背景画像生成ステップと、
前記認識オブジェクトを認識オブジェクト記憶部に記憶し、次の前認識オブジェクトとして出力する認識オブジェクト記憶ステップと、
前記更新背景オブジェクトを背景オブジェクト記憶部に記憶し、次の前背景オブジェクトとして出力する背景オブジェクト記憶ステップと、
を有することにより画像から物体を検出することを特徴とする画像処理方法。
An object extraction step for extracting an object from the current image and the background image;
An object classification step of comparing the extracted object with a previously recognized object and a previous background object to generate a detected object, a recognized object, and a background object;
A background object update step of generating an updated background object from the current image and the background object;
A background image generation step of generating a background image from the updated background object;
A recognition object storage step of storing the recognition object in a recognition object storage unit and outputting as a next previous recognition object;
A background object storage step of storing the updated background object in a background object storage unit and outputting as a next previous background object;
An image processing method characterized by detecting an object from an image by having
JP2005363332A 2005-12-16 2005-12-16 Image processing apparatus and image processing method Pending JP2007164690A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005363332A JP2007164690A (en) 2005-12-16 2005-12-16 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005363332A JP2007164690A (en) 2005-12-16 2005-12-16 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2007164690A true JP2007164690A (en) 2007-06-28

Family

ID=38247482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005363332A Pending JP2007164690A (en) 2005-12-16 2005-12-16 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2007164690A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009005141A1 (en) * 2007-07-05 2009-01-08 Nec Corporation Object area detecting device, object area detecting system, and object area detecting method and program
JP2011181014A (en) * 2010-03-03 2011-09-15 Secom Co Ltd Moving-object tracking device
WO2013075295A1 (en) * 2011-11-23 2013-05-30 浙江晨鹰科技有限公司 Clothing identification method and system for low-resolution video
JP2013126236A (en) * 2011-12-16 2013-06-24 Chuo Electronics Co Ltd Masking processing apparatus, processing method, processing program, and belongings detector
JP2013257785A (en) * 2012-06-13 2013-12-26 Jvc Kenwood Corp Object detection device, object detection method and program
JP2014041488A (en) * 2012-08-22 2014-03-06 Canon Inc Object detection device, control method therefor, program, and storage medium
JP2015028753A (en) * 2013-06-28 2015-02-12 株式会社Jvcケンウッド Image processing apparatus and image processing method
JP2017207365A (en) * 2016-05-18 2017-11-24 株式会社デンソーアイティーラボラトリ Arithmetic processing device, arithmetic processing method, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009005141A1 (en) * 2007-07-05 2009-01-08 Nec Corporation Object area detecting device, object area detecting system, and object area detecting method and program
JP5115556B2 (en) * 2007-07-05 2013-01-09 日本電気株式会社 Object region detection apparatus, object region detection system, object region detection method, and program
US8588466B2 (en) 2007-07-05 2013-11-19 Nec Corporation Object area detection system, device, method, and program for detecting an object
JP2011181014A (en) * 2010-03-03 2011-09-15 Secom Co Ltd Moving-object tracking device
WO2013075295A1 (en) * 2011-11-23 2013-05-30 浙江晨鹰科技有限公司 Clothing identification method and system for low-resolution video
JP2013126236A (en) * 2011-12-16 2013-06-24 Chuo Electronics Co Ltd Masking processing apparatus, processing method, processing program, and belongings detector
JP2013257785A (en) * 2012-06-13 2013-12-26 Jvc Kenwood Corp Object detection device, object detection method and program
JP2014041488A (en) * 2012-08-22 2014-03-06 Canon Inc Object detection device, control method therefor, program, and storage medium
JP2015028753A (en) * 2013-06-28 2015-02-12 株式会社Jvcケンウッド Image processing apparatus and image processing method
JP2017207365A (en) * 2016-05-18 2017-11-24 株式会社デンソーアイティーラボラトリ Arithmetic processing device, arithmetic processing method, and program

Similar Documents

Publication Publication Date Title
US10990191B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
JP6904346B2 (en) Image processing equipment, image processing systems, and image processing methods, and programs
CN109918987B (en) Video subtitle keyword identification method and device
US8588466B2 (en) Object area detection system, device, method, and program for detecting an object
JP6759411B2 (en) Object tracking method and equipment
JP4380838B2 (en) Video image automatic road sign recognition method, road sign automatic recognition device, and road sign automatic recognition program
CN103403764B (en) Object follow-up mechanism, object method for tracing and control program
JP6509275B2 (en) Method and apparatus for updating a background model used for image background subtraction
US8983131B2 (en) Video analysis
JP7014161B2 (en) Image processing equipment, image processing systems, and image processing methods, and programs
WO2011074049A1 (en) Image selection device and image selection method
JPH1139469A (en) Face image processing device
CN109671098B (en) Target tracking method and system applicable to multiple tracking
JP2007164690A (en) Image processing apparatus and image processing method
US9947106B2 (en) Method and electronic device for object tracking in a light-field capture
US9286707B1 (en) Removing transient objects to synthesize an unobstructed image
JP4042602B2 (en) Image processing device
JP5253101B2 (en) Object tracking method and image processing apparatus
JP3197633B2 (en) Automatic tracking device for moving objects
JP2008035301A (en) Mobile tracking device
US20230245427A1 (en) Image recognition apparatus
JP4028533B2 (en) Image processing device
JP3428166B2 (en) Clustering method and apparatus
JP6688091B2 (en) Vehicle distance deriving device and vehicle distance deriving method
JP2004013614A (en) Object tracking device, object tracking device control method, and image recognition system