[go: up one dir, main page]

JP2018169831A - Image comparison device - Google Patents

Image comparison device Download PDF

Info

Publication number
JP2018169831A
JP2018169831A JP2017067092A JP2017067092A JP2018169831A JP 2018169831 A JP2018169831 A JP 2018169831A JP 2017067092 A JP2017067092 A JP 2017067092A JP 2017067092 A JP2017067092 A JP 2017067092A JP 2018169831 A JP2018169831 A JP 2018169831A
Authority
JP
Japan
Prior art keywords
image
simulated
edge
pixel
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017067092A
Other languages
Japanese (ja)
Other versions
JP6548686B2 (en
Inventor
陽介 野中
Yosuke Nonaka
陽介 野中
功 ▲高▼橋
功 ▲高▼橋
Isao Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2017067092A priority Critical patent/JP6548686B2/en
Publication of JP2018169831A publication Critical patent/JP2018169831A/en
Application granted granted Critical
Publication of JP6548686B2 publication Critical patent/JP6548686B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】実画像と模擬画像との間のキャリブレーション誤差、実画像におけるエッジのかすれや途切れがあっても、模擬画像との比較により実画像の相違画素を精度良く抽出する。【解決手段】エッジ抽出手段51は実画像および模擬画像のそれぞれから、各画素におけるエッジ方向を少なくとも含む実エッジ情報および模擬エッジ情報を抽出する。相違画素抽出手段52は実画像の注目画素の近傍領域において、複数の画素の模擬エッジ情報が形成する模擬エッジパターンを求め、実エッジ情報に関し当該模擬エッジパターンに所定基準以上に類似した類似パターンが検出されない注目画素を相違画素とする。【選択図】図2Even if there is a calibration error between an actual image and a simulated image, and blurring or discontinuity of an edge in the actual image, different pixels of the actual image are accurately extracted by comparison with the simulated image. Edge extraction means 51 extracts real edge information and simulated edge information including at least the edge direction of each pixel from each of a real image and a simulated image. The different pixel extraction unit 52 obtains a simulated edge pattern formed by simulated edge information of a plurality of pixels in a region near the target pixel of the actual image, and a similar pattern similar to the simulated edge pattern with respect to the actual edge information is equal to or more than a predetermined reference. A pixel of interest that is not detected is set as a different pixel. [Selection] Figure 2

Description

本発明は、所定の空間を撮影した実画像と、その空間の三次元モデルをレンダリングすることにより生成された模擬画像とを比較して、実画像から相違画素を抽出する画像比較装置に関する。   The present invention relates to an image comparison device that compares a real image obtained by photographing a predetermined space with a simulated image generated by rendering a three-dimensional model of the space and extracts a different pixel from the real image.

防犯等の目的で、監視空間を撮影した撮影画像を背景差分処理して、監視空間に現れた人や不審物などの物体を検出する技術が知られている。ところが、イベント会場など多くの人が行き交う混雑空間においては人や不審物が写っていないシーンの出現頻度が低いため、背景画像の生成が困難化する。そこで、従来、監視空間を模した三次元モデルをレンダリングして背景画像を生成していた。   For the purpose of crime prevention or the like, a technique is known in which an image such as a person or a suspicious object that appears in the monitoring space is detected by performing background subtraction processing on a captured image obtained by shooting the monitoring space. However, in crowded spaces where many people come and go, such as event venues, the appearance frequency of scenes in which no people or suspicious objects are captured is low, making it difficult to generate a background image. Therefore, conventionally, a background image is generated by rendering a three-dimensional model imitating a monitoring space.

また、撮影画像と三次元モデルから生成した背景画像との間にはテクスチャの微小な誤差を含み得ることを鑑みて、従来、小領域単位で背景差分処理を行っていた。   In view of the fact that minute errors in texture may be included between a captured image and a background image generated from a three-dimensional model, conventionally, background difference processing has been performed in units of small areas.

例えば、特許文献1、2に記載の物体検出装置においては、撮影画像を格子状に分割したブロックごとに、または撮影画像において画素値が類似する近傍画素同士をまとめたスーパーピクセルごとに、撮影画像と三次元モデルから生成した背景画像との間で平均画素値の差、画素値の分散の差、エッジ差分を算出していた。   For example, in the object detection devices described in Patent Documents 1 and 2, the captured image is obtained for each block obtained by dividing the captured image into a grid pattern or for each superpixel in which neighboring pixels having similar pixel values are grouped in the captured image. And a background image generated from a three-dimensional model, an average pixel value difference, a pixel value variance difference, and an edge difference are calculated.

特開2016−194778号公報JP, 2006-194778, A 特開2016−194779号公報Japanese Patent Application Laid-Open No. 2006-194779

ところで、カメラの画角を大きくして監視空間を広げると、画像に写る人などの像の大きさが小さくなり得るため、画素単位での背景差分処理が必要となる。また、画素単位での背景差分を行う場合、照明変動にロバストなエッジ情報による差分(エッジ差分)により、監視空間に現れた物体による相違画素を抽出することが望ましい。   By the way, if the angle of view of the camera is increased to widen the monitoring space, the size of an image of a person or the like shown in the image can be reduced, so that background difference processing in units of pixels is necessary. In addition, when performing background difference in units of pixels, it is desirable to extract different pixels due to objects appearing in the monitoring space based on differences (edge differences) based on edge information that is robust to illumination variations.

しかしながら、撮影画像(実画像)と三次元モデルから生成した背景画像(模擬画像)との対応画素同士で単純にエッジ差分を抽出すると、キャリブレーション誤差や、実画像におけるエッジのかすれや途切れ等により、誤抽出が生じる問題があった。   However, if an edge difference is simply extracted between corresponding pixels of a captured image (actual image) and a background image (simulated image) generated from a three-dimensional model, it may be due to calibration error, edge blurring or interruption in the actual image, etc. There was a problem that erroneous extraction occurred.

すなわち、キャリブレーション誤差がある場合に実画像と模擬画像との間に対応画素のズレが生じ、背景物体の一部が誤って変化領域として検出される。   That is, when there is a calibration error, a corresponding pixel shift occurs between the actual image and the simulated image, and a part of the background object is erroneously detected as a change region.

また、実画像においては白線の汚れや微小な凹凸、ブロックの汚れや微小な凹凸等によってエッジのかすれや途切れ等が生じるが、模擬画像でかすれや途切れ等を再現できなかった場合に、背景物体の一部が誤って変化領域として検出される。   Also, in the actual image, the edge of the white line, fine irregularities, block dirt, fine irregularities, etc. cause blurring or discontinuity of the edge, but if the fading or discontinuity cannot be reproduced in the simulated image, the background object Is detected as a change area by mistake.

本発明は上記問題を鑑みてなされたものであり、実画像と模擬画像との間のキャリブレーション誤差、実画像におけるエッジのかすれや途切れがあっても、模擬画像との比較により実画像の相違画素を精度良く抽出できる画像比較装置を提供することを目的とする。   The present invention has been made in view of the above problems, and even if there is a calibration error between the real image and the simulated image, and the edge of the actual image is blurred or interrupted, the difference between the actual image and the simulated image is compared. An object of the present invention is to provide an image comparison apparatus that can extract pixels with high accuracy.

(1)本発明に係る画像比較装置は、所定の空間が撮影された実画像と、前記空間の三次元モデルをレンダリングすることにより生成された模擬画像とを比較して、前記実画像において前記模擬画像と相違する相違画素を抽出する装置であって、前記模擬画像を記憶している模擬画像記憶手段と、前記実画像および前記模擬画像のそれぞれから、各画素におけるエッジ方向を少なくとも含む実エッジ情報および模擬エッジ情報を抽出するエッジ抽出手段と、前記実画像の注目画素の近傍領域において、複数の画素の前記模擬エッジ情報が形成する模擬エッジパターンを求め、前記実エッジ情報に関し当該模擬エッジパターンに所定基準以上に類似した類似パターンが検出されない前記注目画素を前記相違画素とする相違画素抽出手段と、を備える。   (1) The image comparison apparatus according to the present invention compares an actual image in which a predetermined space is photographed with a simulated image generated by rendering a three-dimensional model of the space, and the actual image An apparatus for extracting different pixels different from the simulated image, the simulated image storing means storing the simulated image, and an actual edge including at least an edge direction of each pixel from the actual image and the simulated image An edge extracting means for extracting information and simulated edge information; and a simulated edge pattern formed by the simulated edge information of a plurality of pixels in a region near the target pixel of the actual image, and the simulated edge pattern relating to the actual edge information And a different pixel extracting means that uses the target pixel for which a similar pattern similar to a predetermined reference or more is not detected as the different pixel. That.

(2)上記(1)に記載する画像比較装置において、前記相違画素抽出手段は、前記模擬エッジ情報における前記エッジ方向が類似した複数の画素から形成される前記模擬エッジパターンを用いて前記類似パターンを検出する構成とすることができる。   (2) In the image comparison apparatus according to (1), the different pixel extraction unit uses the simulated edge pattern formed from a plurality of pixels having similar edge directions in the simulated edge information. It can be set as the structure which detects.

(3)上記(1)又は(2)に記載する画像比較装置において、前記模擬画像記憶手段は、前記模擬画像の画素ごとに、当該画素にレンダリングされた前記空間の構造線を識別する構造線識別子を記憶し、前記相違画素抽出手段は、前記構造線識別子が同一である複数の画素の前記模擬エッジ情報から形成される前記模擬エッジパターンを用いて前記類似パターンを検出する構成とすることができる。   (3) In the image comparison apparatus described in (1) or (2) above, the simulated image storage unit identifies, for each pixel of the simulated image, a structural line of the space rendered on the pixel. An identifier is stored, and the different pixel extraction unit is configured to detect the similar pattern using the simulated edge pattern formed from the simulated edge information of a plurality of pixels having the same structural line identifier. it can.

(4)上記(1)〜(3)に記載する画像比較装置であって、複数の前記実画像を順次、前記模擬画像と比較する画像比較装置において、過去の比較にて前記実画像と前記模擬画像とで同一とされた画素同士の位置関係を記憶するマップ記憶手段をさらに備え、前記相違画素抽出手段は、前記類似パターンが検出された前記注目画素を前記模擬画像の画素と同定して前記位置関係を前記マップ記憶手段に記憶させ、新たに比較する前記実画像における前記注目画素のうち前記マップ記憶手段に前記位置関係が記憶されているものについては、当該位置関係をなす前記模擬画像の画素を含む前記模擬エッジパターンを用いて前記類似パターンを検出する構成とすることができる。   (4) In the image comparison apparatus described in (1) to (3) above, in the image comparison apparatus that sequentially compares a plurality of the actual images with the simulated image, the actual image and the Map storage means for storing the positional relationship between pixels that are the same in the simulated image, and the different pixel extraction means identifies the target pixel in which the similar pattern is detected as a pixel in the simulated image. The simulated image forming the positional relationship of the target pixel in the actual image to be newly compared with the positional relationship stored in the map storage unit by storing the positional relationship in the map storage unit The similar pattern can be detected using the simulated edge pattern including the pixels.

(5)上記(1)〜(4)に記載する画像比較装置において、前記相違画素抽出手段は、前記近傍領域よりも狭く予め定めた大きさで前記注目画素の周りに設定した領域にて、当該注目画素の前記実エッジ情報と最も類似する前記模擬エッジ情報を有する画素を探索し、当該画素を含む前記模擬エッジパターンを用いて前記類似パターンを検出する構成とすることができる。   (5) In the image comparison device described in (1) to (4) above, the different pixel extraction unit is an area set around the pixel of interest with a predetermined size narrower than the neighboring area. A pixel having the simulated edge information most similar to the actual edge information of the pixel of interest can be searched, and the similar pattern can be detected using the simulated edge pattern including the pixel.

(6)上記(1)〜(5)に記載する画像比較装置において、前記エッジ抽出手段は、前記各エッジ情報としてさらにエッジ強度を抽出する構成とすることができる。   (6) In the image comparison device described in (1) to (5) above, the edge extraction unit may further extract edge strength as each piece of edge information.

本発明によれば、実画像と模擬画像との間のキャリブレーション誤差、実画像におけるエッジのかすれや途切れがあっても、実画像と模擬画像との間の相違画素を精度良く抽出できる。   According to the present invention, even if there is a calibration error between an actual image and a simulated image, and blurring or interruption of an edge in the actual image, it is possible to accurately extract a different pixel between the actual image and the simulated image.

本発明の実施形態に係る画像監視装置の概略の構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an image monitoring apparatus according to an embodiment of the present invention. 本発明の実施形態に係る画像監視装置の概略の機能ブロック図である。1 is a schematic functional block diagram of an image monitoring apparatus according to an embodiment of the present invention. 実エッジ画像及び模擬エッジ画像の例を示す模式図である。It is a schematic diagram which shows the example of a real edge image and a simulation edge image. 図3(b)の模擬エッジ画像に設定する類似画素の探索領域の例を示す模式図である。It is a schematic diagram which shows the example of the search area | region of the similar pixel set to the simulation edge image of FIG.3 (b). 模擬エッジパターンの抽出処理を説明するための模式図である。It is a schematic diagram for demonstrating the extraction process of the simulated edge pattern. 模擬エッジパターンに対応して設定された実エッジパターンを示す模式図である。It is a schematic diagram which shows the actual edge pattern set corresponding to the simulation edge pattern. リファレンスのエッジパターンの他の生成方法について説明するための模式図である。It is a schematic diagram for demonstrating the other production | generation method of a reference edge pattern. 本発明の実施形態に係る画像監視装置の概略の動作のフロー図である。It is a flowchart of the operation | movement of the outline of the image monitoring apparatus which concerns on embodiment of this invention. 相違画素抽出処理の概略のフロー図である。It is a general | schematic flowchart of a different pixel extraction process.

以下、本発明の実施の形態(以下実施形態という)である画像監視装置1について、図面に基づいて説明する。画像監視装置1は、所定の空間(監視空間)が撮影された画像(実画像)を、人や不審物等の前景物体が存在しないときの監視空間を模した三次元モデルから生成した背景画像(模擬画像)と比較することによって、実画像における変化画素(実画像において模擬画像と相違する相違画素)を抽出する本発明に係る画像比較装置の例を含み、相違画素に基づいて人や不審物等の物体を検知して報知する。   Hereinafter, an image monitoring apparatus 1 according to an embodiment of the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings. The image monitoring apparatus 1 generates a background image generated from a three-dimensional model imitating a monitoring space when a foreground object such as a person or a suspicious object does not exist, by capturing an image (actual image) of a predetermined space (monitoring space). Including an example of an image comparison device according to the present invention that extracts a change pixel in a real image (a different pixel that is different from the simulation image in the real image) by comparing with a (simulation image). An object such as an object is detected and notified.

[画像監視装置1の構成]
図1は画像監視装置1の概略の構成を示すブロック図である。画像監視装置1は、撮影部2、通信部3、記憶部4、画像処理部5、および報知部6からなる。
[Configuration of Image Monitoring Apparatus 1]
FIG. 1 is a block diagram showing a schematic configuration of the image monitoring apparatus 1. The image monitoring apparatus 1 includes a photographing unit 2, a communication unit 3, a storage unit 4, an image processing unit 5, and a notification unit 6.

撮影部2は監視カメラであり、通信部3を介して画像処理部5と接続され、監視空間を所定の時間間隔で撮影して実画像を生成し、実画像を順次、画像処理部5に入力する撮影手段である。例えば、撮影部2は、監視空間であるイベント会場の一角に設置されたポールに当該監視空間を俯瞰する所定の固定視野を有して設置され、監視空間をフレーム周期1秒で撮影してカラー画像を生成する。なお、撮影部2はカラー画像の代わりにモノクロ画像を生成してもよい。   The photographing unit 2 is a monitoring camera and is connected to the image processing unit 5 via the communication unit 3. The photographing unit 2 captures the monitoring space at a predetermined time interval to generate a real image, and sequentially converts the real image to the image processing unit 5. It is a photographing means to input. For example, the imaging unit 2 is installed on a pole installed at one corner of an event venue that is a monitoring space, with a predetermined fixed field of view over the monitoring space, and images the monitoring space with a frame period of 1 second to make a color. Generate an image. Note that the photographing unit 2 may generate a monochrome image instead of a color image.

通信部3は通信回路であり、その一端が画像処理部5に接続され、他端が撮影部2および報知部6と接続される。通信部3は、撮影部2から実画像を取得して画像処理部5に入力し、画像処理部5から入力された検知情報を報知部6に出力する。検知情報は、画像処理部5が検知した物体の種類や検知した領域等を含む情報である。   The communication unit 3 is a communication circuit, one end of which is connected to the image processing unit 5 and the other end is connected to the photographing unit 2 and the notification unit 6. The communication unit 3 acquires a real image from the photographing unit 2 and inputs it to the image processing unit 5, and outputs detection information input from the image processing unit 5 to the notification unit 6. The detection information is information including the type of object detected by the image processing unit 5 and the detected area.

例えば、撮影部2および報知部6がイベント会場内の監視センターに設置され、通信部3、記憶部4および画像処理部5が遠隔地の画像解析センターに設置される場合、通信部3と撮影部2、および通信部3と報知部6をそれぞれインターネット回線にて接続し、通信部3と画像処理部5はバスで接続する構成とすることができる。その他、例えば各部を同一建屋内に設置する場合は、通信部3と撮影部2を同軸ケーブルまたはLAN(Local Area Network)で接続し、通信部3と報知部6はディスプレイケーブル、通信部3と画像処理部5はバスで接続するなど、各部の設置場所に応じた形態で適宜接続される。   For example, when the photographing unit 2 and the notification unit 6 are installed in a monitoring center in the event hall and the communication unit 3, the storage unit 4, and the image processing unit 5 are installed in a remote image analysis center, the photographing unit 3 and the photographing unit 6 are photographed. The unit 2, the communication unit 3, and the notification unit 6 may be connected via an Internet line, and the communication unit 3 and the image processing unit 5 may be connected via a bus. In addition, for example, when installing each part in the same building, the communication part 3 and the imaging | photography part 2 are connected by a coaxial cable or LAN (Local Area Network), the communication part 3 and the alerting | reporting part 6 are a display cable, the communication part 3, and The image processing unit 5 is appropriately connected in a form corresponding to the installation location of each unit, such as connecting by a bus.

記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。記憶部4は画像処理部5と接続されて、画像処理部5との間でこれらの情報を入出力する。   The storage unit 4 is a memory device such as a ROM (Read Only Memory) or a RAM (Random Access Memory), and stores various programs and various data. The storage unit 4 is connected to the image processing unit 5 and inputs / outputs such information to / from the image processing unit 5.

画像処理部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置で構成される。画像処理部5は、記憶部4からプログラムを読み出して実行することにより各種処理手段・制御手段として動作し、必要に応じて、各種データを記憶部4から読み出し、生成したデータを記憶部4に記憶させる。また、画像処理部5は、通信部3経由で撮影部2から取得した実画像から人や不審物等の物体を検知し、検知した物体に関する検知情報を生成して通信部3に出力させる。   The image processing unit 5 is configured by an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an MCU (Micro Control Unit). The image processing unit 5 operates as various processing units / control units by reading out and executing a program from the storage unit 4, reads various data from the storage unit 4 as necessary, and stores the generated data in the storage unit 4. Remember. Further, the image processing unit 5 detects an object such as a person or a suspicious object from the actual image acquired from the imaging unit 2 via the communication unit 3, generates detection information regarding the detected object, and causes the communication unit 3 to output the detection information.

報知部6は、液晶ディスプレイまたはCRT(Cathode Ray Tube)ディスプレイ等のディスプレイ装置であり、通信部3から入力された検知情報に含まれる物体の種類や領域等の情報を表示することによって監視員に報知する。報知部6には、さらに、注意喚起を強調するためにブザーやランプ等を含めることもできる。監視員は表示された検知情報を視認して対処の要否等を判断し、必要に応じて対処員を急行させる等の対処を行う。   The notification unit 6 is a display device such as a liquid crystal display or a CRT (Cathode Ray Tube) display, and displays information such as the type and area of the object included in the detection information input from the communication unit 3 to the monitor. Inform. The notification unit 6 can further include a buzzer, a lamp, and the like in order to emphasize the alerting. The monitor visually recognizes the displayed detection information to determine whether or not a countermeasure is necessary, and takes measures such as urgently handling the countermeasure if necessary.

なお、本実施形態においては、通信部3と画像処理部5の組に対して撮影部2が1台である画像監視装置1を例示するが、別の実施形態においては、通信部3と画像処理部5の組に対して撮影部2が2台以上接続された構成とすることもできる。その場合、通信部3は各撮影部2から実画像を時分割で受信し、画像処理部5は各撮影部からの実画像を時分割処理または並列処理する。   In the present embodiment, the image monitoring apparatus 1 having one photographing unit 2 with respect to the set of the communication unit 3 and the image processing unit 5 is illustrated, but in another embodiment, the communication unit 3 and the image are combined. A configuration in which two or more photographing units 2 are connected to the set of processing units 5 can also be adopted. In that case, the communication unit 3 receives real images from each photographing unit 2 in a time division manner, and the image processing unit 5 performs time division processing or parallel processing on the real images from the respective photographing units.

[画像監視装置1の機能]
図2は画像監視装置1の概略の機能ブロック図である。図2には専ら、通信部3、記憶部4および画像処理部5の機能が示されており、具体的には、通信部3は実画像取得手段30、検知情報出力手段31等として機能し、記憶部4は三次元モデル記憶手段40、模擬画像記憶手段(背景画像記憶手段)41、マップ記憶手段42、カメラ情報記憶手段43等として機能し、画像処理部5は、模擬画像生成手段(背景画像生成手段)50、エッジ抽出手段51、相違画素抽出手段(変化画素抽出手段)52、物体検知手段53等として機能する。
[Function of the image monitoring apparatus 1]
FIG. 2 is a schematic functional block diagram of the image monitoring apparatus 1. FIG. 2 exclusively shows the functions of the communication unit 3, the storage unit 4, and the image processing unit 5. Specifically, the communication unit 3 functions as an actual image acquisition unit 30, a detection information output unit 31, and the like. The storage unit 4 functions as a three-dimensional model storage unit 40, a simulated image storage unit (background image storage unit) 41, a map storage unit 42, a camera information storage unit 43, and the like, and the image processing unit 5 includes a simulated image generation unit ( It functions as background image generation means) 50, edge extraction means 51, different pixel extraction means (changed pixel extraction means) 52, object detection means 53, and the like.

実画像取得手段30は、撮影手段である撮影部2から実画像を順次取得して、取得した実画像をエッジ抽出手段51に順次出力する。   The real image acquisition unit 30 sequentially acquires real images from the photographing unit 2 that is a photographing unit, and sequentially outputs the acquired real images to the edge extraction unit 51.

三次元モデル記憶手段40は、撮影部2が撮影する監視空間を構成する複数の構成物の三次元モデルを予め記憶している。   The three-dimensional model storage means 40 stores in advance a three-dimensional model of a plurality of components that constitute a monitoring space that is imaged by the imaging unit 2.

三次元モデルは、建築設計時に作成されたIFC(Industry Foundation Classes)規格の建物情報、三次元CADデータ等あるいは事前の実計測データから取得できる。   The three-dimensional model can be acquired from building information according to the IFC (Industry Foundation Classes) standard, three-dimensional CAD data, or the like, which has been created at the time of architectural design, or from prior actual measurement data.

構成物は、例えば、壁、床、ドアなどの建築構造物、机や椅子などの什器であり、監視空間を監視する観点において当該監視空間に存在すべきとされる常設物体である。各構成物には当該構成物を識別する識別子を予め付与しておく。また、構成物が複雑な形状を有する場合などには、構成物を構成する面ごとに当該識別子を付与しておく。当該識別子は後述するエッジの識別に用いられ、以降、構造線識別子と称する。なお、構造線識別子は構成物を記述する線要素ごとに付与してもよい。   The components are, for example, building structures such as walls, floors, and doors, and furniture such as desks and chairs, and are permanent objects that should be present in the monitoring space from the viewpoint of monitoring the monitoring space. An identifier for identifying the component is assigned in advance to each component. Moreover, when the component has a complicated shape, the identifier is assigned to each surface constituting the component. The identifier is used for edge identification, which will be described later, and is hereinafter referred to as a structural line identifier. The structural line identifier may be assigned to each line element describing a constituent.

三次元モデルは、監視空間を模したXYZ座標系における各構成物の位置、姿勢、立体形状にて表される三次元座標値および各構成物の表面の色、テクスチャ、反射特性のデータを含み、これらのデータが対応する構造線識別子と紐付けて記憶されている。   The three-dimensional model includes the position, orientation, and three-dimensional shape of each component in the XYZ coordinate system that imitates the surveillance space, and the surface color, texture, and reflection characteristics of each component. These data are stored in association with the corresponding structural line identifier.

なお、三次元モデルは精密であるほど良く、例えばドアであればドア板とドアノブ、机であれば天板と脚というように色、テクスチャおよび反射特性が異なるパーツそれぞれを構成物と定義して三次元モデルを記憶させておくのが好適である。他方、壁のように大きな構成物は各面の光源からの距離の差が大きくなるため各面を構成物と定義するのが好適である。   The more accurate the 3D model, the better. For example, the door plate and door knob for a door, and the top plate and leg for a desk are defined as components with different colors, textures, and reflection characteristics. It is preferable to store the three-dimensional model. On the other hand, since a large structure such as a wall has a large difference in distance from the light source of each surface, it is preferable to define each surface as a structure.

また、三次元モデル記憶手段40はさらに当該監視空間の照明モデルも予め記憶している。照明モデルは、監視空間を照明する1以上の光源について、監視空間を模したXYZ座標系における当該光源の位置および当該光源の配光、色温度などで表される照明特性を含む。光源は人工照明や太陽等である。各光源には当該光源を識別する光源番号を予め付与され、位置および照明特性のデータが対応する光源番号と紐付けて記憶されている。照明モデルは、各光源の点消灯状態を設定し、点灯状態が設定された光源の出力を照明特性に演算することにより、監視空間に対する複数の照明条件を模擬できる。   Further, the three-dimensional model storage means 40 further stores an illumination model of the monitoring space in advance. The illumination model includes, for one or more light sources that illuminate the monitoring space, illumination characteristics represented by the position of the light source in the XYZ coordinate system simulating the monitoring space, the light distribution of the light source, the color temperature, and the like. The light source is artificial lighting or the sun. Each light source is preliminarily assigned a light source number for identifying the light source, and position and illumination characteristic data are stored in association with the corresponding light source number. The illumination model can simulate a plurality of illumination conditions for the monitoring space by setting the light-off state of each light source and calculating the output of the light source in which the light-on state is set to illumination characteristics.

すなわち、三次元モデル記憶手段40は、撮影部2が撮影対象としている所定の空間を構成する複数の構成物それぞれの三次元座標値と各構成物の色、テクスチャ、反射特性、および該空間を照明する光源の照明特性を含んだ環境モデルを記憶している。   That is, the three-dimensional model storage means 40 stores the three-dimensional coordinate values of each of the plurality of constituents constituting the predetermined space that is the subject of photographing by the photographing unit 2, the color, texture, reflection characteristics, and the space of each constituent. An environmental model including the illumination characteristics of the light source to be illuminated is stored.

カメラ情報記憶手段43は監視空間を模したXYZ座標系における撮影部2のカメラパラメータを予め記憶している。カメラパラメータは外部パラメータと内部パラメータからなる。外部パラメータはXYZ座標系における撮影部2の位置姿勢である。内部パラメータは撮影部2の焦点距離、中心座標、歪係数などである。カメラパラメータは事前のキャリブレーションによって計測され、カメラ情報記憶手段43に記憶される。このカメラパラメータをピンホールカメラモデルに適用することによってXYZ座標系の座標を撮影部2の撮影面を表すxy座標系に変換できる。   The camera information storage unit 43 stores in advance camera parameters of the photographing unit 2 in an XYZ coordinate system simulating a monitoring space. Camera parameters consist of external parameters and internal parameters. The external parameter is the position and orientation of the photographing unit 2 in the XYZ coordinate system. The internal parameters are the focal length, center coordinates, distortion coefficient, etc. of the photographing unit 2. Camera parameters are measured by prior calibration and stored in the camera information storage unit 43. By applying this camera parameter to the pinhole camera model, the coordinates of the XYZ coordinate system can be converted to the xy coordinate system representing the imaging surface of the imaging unit 2.

模擬画像生成手段50は、三次元モデル記憶手段40から三次元モデル、照明モデルを読み出し、カメラ情報記憶手段43からカメラパラメータを読み出す。そして、カメラパラメータにより求まる撮影部2の撮影面に、照明条件に対応して三次元モデルをレンダリングすることによって、監視空間の背景画像を模擬画像として仮想的に生成し、生成した背景画像を模擬画像記憶手段41に記憶させる。本実施形態では、模擬画像生成手段50は、実画像取得手段30が実画像を取得するタイミングに同期して模擬画像を生成する。   The simulated image generation means 50 reads the 3D model and the illumination model from the 3D model storage means 40 and reads the camera parameters from the camera information storage means 43. Then, a background image of the monitoring space is virtually generated as a simulated image by rendering a three-dimensional model corresponding to the illumination condition on the imaging surface of the imaging unit 2 obtained from the camera parameters, and the generated background image is simulated The image is stored in the image storage unit 41. In the present embodiment, the simulated image generation unit 50 generates a simulated image in synchronization with the timing at which the actual image acquisition unit 30 acquires the actual image.

具体的には、まず模擬画像生成手段50は、カメラパラメータからXYZ座標系における撮影部2の撮影面を導出する。次に模擬画像生成手段50は、照明モデルに記憶された位置および照明特性に従った光線データを生成し、光線データの有無や出力を各照明条件に合わせて調整する。続いて模擬画像生成手段50は、構成物での反射による光線データの色や出力の変化を構成物の色、テクスチャ、反射特性に従って調整する。そして模擬画像生成手段50は光源から撮影面に到達する直接光、反射光の光線データを撮影面の各画素値に設定して背景画像を生成する。   Specifically, first, the simulated image generation means 50 derives the imaging surface of the imaging unit 2 in the XYZ coordinate system from the camera parameters. Next, the simulated image generating means 50 generates light ray data according to the position and the illumination characteristics stored in the illumination model, and adjusts the presence / absence and output of the light ray data according to each illumination condition. Subsequently, the simulated image generating means 50 adjusts the color of the light beam data and the change in the output due to the reflection on the component according to the color, texture, and reflection characteristics of the component. The simulated image generating means 50 generates a background image by setting the light data of the direct light and reflected light reaching the imaging surface from the light source as the pixel values of the imaging surface.

また、模擬画像生成手段50は、撮影部2の撮影面に設定する画素値に、光線の反射元である構成物またはその面の構造線識別子を対応付けて模擬画像記憶手段41に記憶させる。   Further, the simulated image generating unit 50 associates the pixel value set on the imaging surface of the imaging unit 2 with the component that is the reflection source of the light beam or the structural line identifier of the surface, and stores it in the simulated image storage unit 41.

模擬画像記憶手段41は、模擬画像生成手段50が生成した背景画像とその画素に対応付けられた構造線識別子とを記憶している。   The simulated image storage unit 41 stores the background image generated by the simulated image generation unit 50 and the structural line identifier associated with the pixel.

エッジ抽出手段51は、実画像および模擬画像のそれぞれから、各画素におけるエッジ方向を少なくとも含むエッジ情報を抽出する。つまり、エッジ抽出手段51は実画像取得手段30から入力された実画像にエッジオペレータを適用して各画素のエッジ情報(実エッジ情報)を抽出し、抽出した実エッジ情報を相違画素抽出手段52に出力する。また、エッジ抽出手段51は、模擬画像記憶手段41から模擬画像を読み出し、読み出した模擬画像にエッジオペレータを適用して各画素のエッジ画像(模擬エッジ情報)を生成し、抽出した模擬エッジ情報を相違画素抽出手段52に出力する。   The edge extraction means 51 extracts edge information including at least the edge direction of each pixel from each of the actual image and the simulated image. That is, the edge extraction unit 51 extracts edge information (real edge information) of each pixel by applying an edge operator to the actual image input from the actual image acquisition unit 30, and uses the extracted actual edge information as the different pixel extraction unit 52. Output to. Further, the edge extraction unit 51 reads a simulated image from the simulated image storage unit 41, applies an edge operator to the read simulated image, generates an edge image (simulated edge information) of each pixel, and extracts the extracted simulated edge information. It outputs to the different pixel extraction means 52.

本実施形態では、エッジ抽出手段51は、実画像および模擬画像それぞれの画素ごとに、エッジ強度とエッジ方向とからなるエッジ情報を算出する。ここで、エッジ方向はエッジ強度の勾配値であり、後述する実エッジパターンおよび模擬エッジパターンの形状をその法線方向で表す情報である。例えば、エッジ方向は0度以上180度未満を値域とする無向な情報とすることができる。また、エッジ方向は0度以上360度未満を値域とする有向な情報としてもよく、この場合は、例えば、道路面にペイントされた白線の輪郭画素であればどの向きに道路面の地をなす黒いアスファルトがあるかというような、近傍の様子をさらに含めた情報とすることができる。また、エッジ方向は、法線方向を表す勾配値を接線方向に変換した値としてもよい。例えば、エッジオペレータとしてソーベルオペレータ(Sobel Operator)、ラプラシアンフィルタ(Laplacian Filter)などを用いることができる。   In the present embodiment, the edge extraction unit 51 calculates edge information including edge strength and edge direction for each pixel of the real image and the simulated image. Here, the edge direction is a gradient value of edge strength, and is information representing the shape of an actual edge pattern and a simulated edge pattern, which will be described later, in the normal direction. For example, the edge direction can be undirected information having a range of 0 degrees or more and less than 180 degrees. In addition, the edge direction may be directed information having a range of 0 degrees or more and less than 360 degrees. In this case, for example, the outline of the white line painted on the road surface may be used in any direction. It can be information that further includes the state of the neighborhood, such as whether there is black asphalt. The edge direction may be a value obtained by converting a gradient value representing the normal direction into a tangential direction. For example, a Sobel operator, a Laplacian filter, or the like can be used as the edge operator.

なお、後述の処理にてエッジ情報としてエッジ方向のみを用いる構成とすることもでき、この場合には、エッジ抽出手段51は、エッジ情報としてエッジ方向のみを出力すれば足りる。   Note that only the edge direction can be used as the edge information in the processing described later, and in this case, the edge extraction unit 51 only needs to output the edge direction as the edge information.

エッジ情報は上述のように画素ごとに求められる。つまり、物体の輪郭線などに対応する画素に限られず、基本的にはエッジオペレータの演算結果として全ての画素についてエッジ情報が算出され定義される。但し、例えば、照明状況によって白飛びや黒つぶれが生じた画像領域などでは、算出されるエッジ情報がノイズまたは信頼性の低い情報となることがある。よって、エッジ強度が閾値T未満であるエッジ情報は除外することとしてもよい。閾値Tは実験に基づき予め定めることができる。 Edge information is obtained for each pixel as described above. That is, the edge information is calculated and defined for all pixels as a result of the edge operator calculation, not limited to the pixels corresponding to the contour line of the object. However, for example, in an image region in which whiteout or blackout occurs due to lighting conditions, the calculated edge information may be noise or information with low reliability. Thus, the edge information edge intensity is less than the threshold value T E may be be excluded. Threshold T E can be predetermined based on experimental.

このように、エッジ抽出手段51は、実画像および模擬画像のそれぞれから、各画素における実エッジ情報および模擬エッジ情報を抽出する。そして、エッジ抽出手段51が抽出するエッジ情報には少なくともエッジ方向を含み、好適にはエッジ抽出手段51が抽出するエッジ情報はエッジ方向とエッジ強度を含む。   As described above, the edge extraction unit 51 extracts the actual edge information and the simulated edge information for each pixel from each of the actual image and the simulated image. The edge information extracted by the edge extraction unit 51 includes at least the edge direction, and preferably the edge information extracted by the edge extraction unit 51 includes the edge direction and the edge strength.

各画素のエッジ情報を画像における画素配列に対応させて並べたデータはエッジ画像と称される。そこで、各画素の実エッジ情報を並べたデータを実エッジ画像、各画素の模擬エッジ情報を並べたデータを模擬エッジ画像と称することにする。   Data obtained by arranging the edge information of each pixel in correspondence with the pixel arrangement in the image is referred to as an edge image. Therefore, data in which the real edge information of each pixel is arranged is referred to as a real edge image, and data in which the simulated edge information of each pixel is arranged is referred to as a simulated edge image.

相違画素抽出手段52は、実画像の画素のうち、その近傍領域にて実画像と模擬画像とで互いに類似するエッジパターンが検出されないものを相違画素として抽出する。すなわち、実画像の各画素を注目画素として、その近傍領域において、複数の画素の模擬エッジ情報が形成する模擬エッジパターンを求め、実エッジ情報に関し当該模擬エッジパターンと所定基準以上に類似した類似パターンが検出されない注目画素を相違画素とする。実画像と模擬画像との比較を同一座標の画素のみならず当該画素を含む近傍を比較範囲として行うことで、キャリブレーション誤差があっても精度良く相違画素を抽出できる。   The different pixel extracting means 52 extracts, as a different pixel, a pixel in which a similar edge pattern is not detected between the real image and the simulated image in the vicinity of the pixels of the real image. That is, each pixel of a real image is used as a pixel of interest, and a simulated edge pattern formed by simulated edge information of a plurality of pixels is obtained in the vicinity of the pixel. A pixel of interest for which no is detected is set as a different pixel. By comparing the actual image and the simulated image not only with the pixel of the same coordinate but also the vicinity including the pixel as the comparison range, it is possible to accurately extract the different pixel even if there is a calibration error.

ここで、画素単位でエッジ情報の類似を判定すると、本来は相違画素とすべき画素であるにも拘らず、近傍領域内にエッジ情報の類似度の高い画素が現れることもしばしばである。そのため、画素単位で相違を判定すると相違画素が十分に抽出されずに、人や不審物等の前景物体を検出し損ねる場合がある。そこで、実画像と模擬画像とに同一構造線が写っている画素ならばその近傍領域にエッジ情報として表れる輪郭やテクスチャが類似することに着目し、近傍領域において類似するエッジパターンが検出されない画素を相違画素として抽出するのである。   Here, when similarity of edge information is determined in units of pixels, pixels with high similarity in edge information often appear in the neighborhood region, although they are pixels that should originally be different pixels. For this reason, if the difference is determined in units of pixels, the different pixels may not be sufficiently extracted and a foreground object such as a person or a suspicious object may not be detected. Therefore, paying attention to the fact that contours and textures appearing as edge information are similar in the neighboring area if the pixel has the same structural line in the real image and the simulated image, pixels that do not detect similar edge patterns in the neighboring area It is extracted as a different pixel.

具体的には、実画像中の各画素を注目画素に順次設定して注目画素が相違画素か否かを判定する。模擬エッジパターンは、注目画素を中心とする近傍領域において複数の連続する画素の模擬エッジ情報から形成される形状パターンである。例えば、当該模擬エッジパターンは物体の輪郭線など模擬画像における輝度境界線に対応して得られる。一方、類似パターンか否かの判定対象とされるのは実エッジパターンである。実エッジパターンは、近傍領域内の連続する画素の実エッジ情報から形成される形状パターンであり、例えば、当該実エッジパターンは実画像における輝度境界線に対応して得られる。   Specifically, each pixel in the actual image is sequentially set as the target pixel to determine whether the target pixel is a different pixel. The simulated edge pattern is a shape pattern formed from simulated edge information of a plurality of continuous pixels in the vicinity region centered on the target pixel. For example, the simulated edge pattern is obtained corresponding to a luminance boundary line in a simulated image such as an object outline. On the other hand, it is an actual edge pattern that is a target for determining whether or not it is a similar pattern. The actual edge pattern is a shape pattern formed from the actual edge information of continuous pixels in the vicinity region. For example, the actual edge pattern is obtained corresponding to the luminance boundary line in the actual image.

本実施形態では、相違画素抽出手段52は、注目画素の近傍領域にて当該注目画素と類似するエッジ情報を有する模擬画像の画素(類似画素)を探索し、類似画素の位置に対応して模擬エッジパターンを生成する。これに対応して、注目画素を含む実エッジパターンが類似パターンとなることが期待できる。よって、ここでは、類似パターンは注目画素を含む実エッジパターンであるとする。   In the present embodiment, the different pixel extraction unit 52 searches for a pixel (similar pixel) of a simulated image having edge information similar to the target pixel in a region near the target pixel, and simulates the pixel corresponding to the position of the similar pixel. Generate an edge pattern. Correspondingly, it can be expected that the actual edge pattern including the target pixel becomes a similar pattern. Therefore, it is assumed here that the similar pattern is an actual edge pattern including the target pixel.

例えば、相違画素抽出手段52は、画素単位のエッジ情報の類似度SPX(画素類似度)が閾値TPX以上である画素を類似画素とする。なお、近傍領域に画素類似度SPXが閾値TPX以上の画素が複数含まれる場合は、画素類似度SPXが最も高い画素を類似画素とする。画素類似度SPXは例えば、次式で定義する。 For example, the different pixel extraction unit 52 sets a pixel having edge information similarity S PX (pixel similarity) equal to or higher than a threshold value T PX as a similar pixel. In the case where the pixel similarity S PX in the region near the above pixel threshold T PX contains multiple, and similar pixels with the highest pixel pixel similarity S PX. The pixel similarity SPX is defined by the following equation, for example.

Figure 2018169831
Figure 2018169831

ここで、SPX(・)が画素類似度であり、iは注目画素を表し、bは近傍領域内の画素を表す。また、m,mはそれぞれ画素i,bのエッジ強度であり、d,dはそれぞれ画素i,bのエッジ方向であり、λはエッジ強度の差とエッジ方向の差との画素類似度への寄与を調整する調整係数、M(・)はエッジ強度の差、D(・)はエッジ方向の差である。 Here, S PX (•) is the pixel similarity, i represents a pixel of interest, and b represents a pixel in the neighborhood region. Also, m i, m b is the edge intensity of the pixel i, b respectively, d i, d b are each pixel i, the edge direction of b, lambda the pixels of the difference between the difference between the edge direction of the edge intensities An adjustment coefficient for adjusting the contribution to the similarity, M (•) is a difference in edge strength, and D (•) is a difference in edge direction.

近傍領域は、生じ得るキャリブレーション誤差の上限とエッジパターンの上限サイズとを見積もって、見積もった上限値に応じた広さに予め設定する。エッジパターンの上限サイズにはキャリブレーション誤差に回転成分が含まれても対応可能とする意義がある。例えば、キャリブレーション誤差の上限を±2画素(5×5画素の領域)、エッジパターンの上限サイズ±4画素(9×9画素の領域)と見積もった場合、近傍領域は13×13画素の領域と設定される。   The neighborhood area is preliminarily set to a size corresponding to the estimated upper limit value by estimating the upper limit of the calibration error that can occur and the upper limit size of the edge pattern. The upper limit size of the edge pattern has the significance of being able to cope with a rotation error included in the calibration error. For example, when the upper limit of the calibration error is estimated to be ± 2 pixels (5 × 5 pixel region) and the upper limit size of the edge pattern is ± 4 pixels (9 × 9 pixel region), the neighboring region is a region of 13 × 13 pixels. Is set.

ここで、注目画素を基準に固定的に13×13画素の近傍領域を設定してもよいが、本実施形態においては、注目画素を基準に5×5画素の領域を設定して当該領域内でエッジパターンの中央を決定し、決定したエッジパターンの中央を基準に9×9画素の領域を設定する、というように動的に近傍領域を設定することで処理量を削減する。   Here, a neighborhood area of 13 × 13 pixels may be fixedly set based on the target pixel. However, in the present embodiment, an area of 5 × 5 pixels is set based on the target pixel, and the region within the area is set. The center of the edge pattern is determined, and a 9 × 9 pixel region is set based on the determined center of the edge pattern, so that the processing amount is reduced.

つまり、類似画素の探索はキャリブレーション誤差の見積もりに応じた範囲で行い、エッジパターンの抽出は類似画素を基準としてエッジパターンの最大サイズの範囲で行うことにより処理負荷を減じることができる。   In other words, the processing load can be reduced by searching for similar pixels in a range corresponding to the estimation of the calibration error and extracting the edge pattern in the range of the maximum size of the edge pattern with reference to the similar pixels.

このように、相違画素抽出手段52は、近傍領域よりも狭く予め定めた大きさで注目画素の周りに設定した領域(探索領域)にて、当該注目画素の実エッジ情報と最も類似する模擬エッジ情報を有する類似画素を探索し、当該類似画素を含む模擬エッジパターンを用いて類似パターンを検出する構成とすることができる。   In this way, the different pixel extraction means 52 is a simulated edge that is most similar to the actual edge information of the target pixel in a region (search region) set around the target pixel with a predetermined size that is narrower than the neighboring region. A similar pixel having information can be searched and a similar pattern can be detected using a simulated edge pattern including the similar pixel.

なお、実画像の画素ごとに、撮影部2から当該画素に写る被写体までの距離が遠いほど狭く、撮影部2から当該画素に写る被写体までの距離が近いほど広い近傍領域を設定してもよい。   For each pixel of the real image, a wider neighborhood region may be set as the distance from the photographing unit 2 to the subject captured in the pixel is narrower and as the distance from the photographing unit 2 to the subject captured in the pixel is closer. .

上述したように本実施形態では、類似パターンは注目画素を含む実エッジパターンであるとしている。さらにここで、類似パターンの候補となる実エッジパターンは、模擬エッジパターンと同じ画素配置パターンを有するとし、当該実エッジパターンの模擬エッジパターンに対する類似度が閾値以上であれば、当該実エッジパターンは類似パターンであるとする。   As described above, in the present embodiment, the similar pattern is an actual edge pattern including the target pixel. Further, here, the actual edge pattern that is a candidate for the similar pattern has the same pixel arrangement pattern as the simulated edge pattern, and if the similarity of the actual edge pattern to the simulated edge pattern is equal to or greater than a threshold value, the actual edge pattern Is a similar pattern.

具体的には、類似パターンの検出は、次式に従い模擬エッジパターンと実エッジパターンとの類似度(パターン類似度)SPTを算出して、パターン類似度SPTを閾値TPTと比較し、SPT≧TPTである実エッジパターンを注目画素に対応して得られた模擬エッジパターンの類似パターンと判定する。 Specifically, the detection of the similar pattern is performed by calculating the similarity (pattern similarity) S PT between the simulated edge pattern and the actual edge pattern according to the following formula, and comparing the pattern similarity S PT with the threshold value T PT . A real edge pattern satisfying S PT ≧ T PT is determined as a similar pattern of the simulated edge pattern obtained corresponding to the target pixel.

Figure 2018169831
Figure 2018169831

ここで、SPT(・)はパターン類似度、Pは模擬エッジパターン、Pは実エッジパターン、Tは模擬エッジパターン(または実エッジパターン)を形成する画素の数、D(・)はエッジ方向の差であり、p ,p はそれぞれ模擬エッジパターン、実エッジパターンを形成する画素のうちi番目の画素のエッジ方向を表す。なお、模擬エッジパターンと実エッジパターンとは上述のように同じ画素配置パターンであり、それぞれにおけるインデックスiが同じ画素は当該画素配置パターンにて同じ位置にある。 Here, S PT (·) is the pattern similarity, P B mock edge pattern, P I is a real edge pattern, T is the number of pixels forming the simulated edge patterns (or actual edge patterns), D (·) is It is a difference in edge direction, and p B i and p I i represent the edge direction of the i-th pixel among the pixels forming the simulated edge pattern and the actual edge pattern, respectively. Note that the simulated edge pattern and the actual edge pattern are the same pixel arrangement pattern as described above, and pixels having the same index i are in the same position in the pixel arrangement pattern.

類似パターンの検出処理の結果、類似パターンが検出されない場合は、注目画素を相違画素と判定する。一方、類似パターンが検出された場合は、注目画素は背景画像の画素と同定され、模擬エッジパターンと類似パターンとの位置関係から、実画像での注目画素とこれに対応する模擬画像の画素(対応画素)との位置関係が求まる。なお、本実施形態では、類似パターンは注目画素を含み模擬エッジパターンと同じ画素配置パターンとしており、この場合、類似画素が対応画素となる。   When the similar pattern is not detected as a result of the similar pattern detection process, the target pixel is determined to be a different pixel. On the other hand, if a similar pattern is detected, the target pixel is identified as the pixel of the background image, and the target pixel in the actual image and the corresponding pixel of the simulated image (from the positional relationship between the simulated edge pattern and the similar pattern ( The positional relationship with the corresponding pixel) is obtained. In the present embodiment, the similar pattern includes the pixel of interest and has the same pixel arrangement pattern as the simulated edge pattern. In this case, the similar pixel is a corresponding pixel.

物体の輪郭線など、画像における輝度境界線に対応して実エッジパターン、模擬エッジパターンを定義する場合、そのエッジ強度は輝度境界線が存在しない画素におけるエッジ強度より基本的には大きくなることが期待できる。しかし、その場合であっても実エッジ情報では、既に述べた汚れや微小な凹凸といった種々の要因によりエッジ強度が変動しやすく、かすれや途切れが生じやすいという特徴がある。一方、模擬エッジ情報ではそのような要因が捨象され、かすれや途切れが生じにくいという特徴がある。この差異のため、パターン類似度SPTをエッジ強度成分を含めて定義すると不安定な尺度となる。一方、形状の特徴はエッジ方向で表すことができる。そこで、上式に示したように、エッジ方向の差に応じたパターン類似度SPTを用いている。 When an actual edge pattern or a simulated edge pattern is defined corresponding to a luminance boundary line in an image, such as an object outline, the edge strength may be basically higher than the edge strength in a pixel that does not have a luminance boundary line. I can expect. However, even in such a case, the actual edge information is characterized in that the edge strength is likely to fluctuate due to various factors such as the dirt and minute irregularities already described, and blurring and interruptions are likely to occur. On the other hand, simulated edge information is characterized in that such factors are discarded and blurring and interruptions are unlikely to occur. Because of this difference, defining the pattern similarity SPT including the edge strength component is an unstable measure. On the other hand, the feature of the shape can be expressed by the edge direction. Therefore, as shown in the above equation, the pattern similarity S PT corresponding to the difference in edge direction is used.

また、当該特徴ゆえに、類似パターン検出に用いるリファレンスのエッジパターンを模擬エッジ情報から生成することによって、かすれや途切れの影響を受けにくい類似パターンの検出を可能にする。   Also, because of this feature, by generating a reference edge pattern used for detecting a similar pattern from simulated edge information, it is possible to detect a similar pattern that is less susceptible to blurring and interruptions.

また、エッジ方向についても、それが大きく変化する輝度境界線は別々の物体の輪郭線が組み合わさったものである可能性が高くなり、それら物体の位置関係の変化やレンダリングにおける視線方向のわずかな差などにより、パターン類似度SPTが影響を受けることが起こり得る。よって、輝度境界線に対応する模擬エッジパターンを構成する連続画素は、模擬エッジ情報中のエッジ方向が類似する範囲にするのがよい。 Also for the edge direction, it is highly likely that the luminance boundary line that greatly changes is a combination of the contour lines of different objects, and there is a slight change in the positional relationship of these objects and a slight change in the line-of-sight direction during rendering. The pattern similarity SPT may be affected by a difference or the like. Therefore, it is preferable that the continuous pixels constituting the simulated edge pattern corresponding to the luminance boundary line have a range in which the edge directions in the simulated edge information are similar.

つまり、模擬エッジ情報中のエッジ方向が類似する連続画素を模擬エッジパターンとして抽出し、実エッジ画像中の注目画素の位置に当該模擬エッジパターンと類似する類似パターンが現れているか否かを判定するのがよい。   That is, continuous pixels having similar edge directions in the simulated edge information are extracted as simulated edge patterns, and it is determined whether or not a similar pattern similar to the simulated edge pattern appears at the position of the target pixel in the actual edge image. It is good.

このように、相違画素抽出手段52は、近傍領域において、模擬画像における輝度境界線に沿って並び(模擬エッジ情報が表す輝度境界線に沿って並び)、且つ模擬エッジ情報におけるエッジ方向が類似する複数の画素から形成される模擬エッジパターンを抽出し、当該模擬エッジパターンを用いて類似パターンを検出する。   As described above, the different pixel extraction unit 52 is arranged along the luminance boundary line in the simulated image (aligned along the luminance boundary line represented by the simulated edge information) and the edge direction in the simulated edge information is similar in the vicinity region. A simulated edge pattern formed from a plurality of pixels is extracted, and a similar pattern is detected using the simulated edge pattern.

更には、相違画素抽出手段52は、模擬画像に含まれる構造線識別子を利用し、同一の構造線識別子が付与された画素の模擬エッジ情報から模擬エッジパターンを生成することにより、複数の構造線が入り混じった形状パターンの生成を防ぎ、誤って相違画素として抽出される可能性を減ずることができる。すなわち、相違画素抽出手段52は、近傍領域において構造線識別子が同一である複数の画素の模擬エッジ情報から形成される模擬エッジパターンを用いて類似パターンを検出することで相違画素の抽出精度を向上させることができる。   Further, the different pixel extraction unit 52 uses the structural line identifier included in the simulated image and generates a simulated edge pattern from simulated edge information of the pixels to which the same structural line identifier is assigned, thereby generating a plurality of structural lines. It is possible to prevent generation of a shape pattern mixed with, and to reduce the possibility of erroneous extraction as a different pixel. That is, the different pixel extraction unit 52 improves the extraction accuracy of different pixels by detecting a similar pattern using a simulated edge pattern formed from simulated edge information of a plurality of pixels having the same structural line identifier in the neighboring region. Can be made.

また、実画像中の人や不審物などの前景物体が注目画素に設定された場合は、前景物体の現れた領域が近傍領域に設定され、当該領域では背景のエッジ情報が隠れるため、近傍領域中に注目画素の実エッジ情報と類似する模擬エッジ情報がそもそも検出されないことも多く、エッジパターンの比較を行うまでもなく画素単位の比較で足りる場合もしばしばである。   In addition, when a foreground object such as a person or a suspicious object in the real image is set as the pixel of interest, the area where the foreground object appears is set as the neighborhood area, and the edge information of the background is hidden in the area. In many cases, the simulated edge information similar to the actual edge information of the pixel of interest is not detected in the first place, and it is often the case that the pixel unit comparison is sufficient without comparing the edge patterns.

そこで、相違画素抽出手段52は、エッジパターンの比較の前に、画素類似度SPXを算出して閾値TPXと比較し、画素類似度SPXが閾値TPX未満である画素(非類似画素)を相違画素と判定することにより処理負荷を減じることができる。つまり、相違画素抽出手段52は、類似画素を探索する領域(近傍領域または探索領域)内にて注目画素の実エッジ情報と類似する画素が検出されない場合に、当該注目画素を相違画素として抽出する。 Therefore, difference pixel extracting means 52, prior to the comparison of the edge pattern is compared with a threshold value T PX calculates the pixel similarity S PX, pixel similarity S PX is less than the threshold T PX pixel (dissimilar pixels ) As a different pixel, the processing load can be reduced. That is, the different pixel extraction unit 52 extracts the target pixel as a different pixel when a pixel similar to the actual edge information of the target pixel is not detected in the region (a neighboring region or a search region) for searching for a similar pixel. .

また、上述のように、実画像にて前景物体が現れた領域では背景のエッジ情報が隠れるので、実画像の画素が模擬画像の画素と同定されることは起こらないことが期待されるところ、無関係な位置にある実画像の画素と模擬画像の画素との間にて偶然にエッジ情報が類似して、本来、類似画素や対応画素とすべきではない画素を類似画素や対応画素としてしまう可能性は上昇する。そこで、相違画素抽出手段52は、過去の対応画素の情報をマップ記憶手段42に記憶させておき、これを再利用することで対応画素の特定の精度向上、および相違画素の抽出精度の向上を図る。   In addition, as described above, the edge information of the background is hidden in the region where the foreground object appears in the real image, so that it is expected that the pixel of the real image will not be identified as the pixel of the simulated image. The edge information between a real image pixel and a simulated image pixel at an irrelevant position is coincidentally coincidentally, and a pixel that should not be a similar pixel or a corresponding pixel can be a similar pixel or a corresponding pixel. Sex goes up. Therefore, the different pixel extraction unit 52 stores information on past corresponding pixels in the map storage unit 42 and reuses the information to improve the specific accuracy of the corresponding pixels and improve the extraction accuracy of the different pixels. Plan.

マップ記憶手段42は、実画像の画素と、模擬画像において当該画素に対応する対応画素との位置関係を記憶する。例えば、実画像の画素ごとに、対応画素の座標、または実画像の画素の座標に対する対応画素の相対座標が記憶される。   The map storage means 42 stores the positional relationship between the pixels of the actual image and the corresponding pixels corresponding to the pixel in the simulated image. For example, for each pixel of the real image, the coordinates of the corresponding pixel or the relative coordinates of the corresponding pixel with respect to the coordinates of the pixel of the real image are stored.

具体的には、実エッジ画像において模擬エッジパターンに対する類似パターンが検出されたときの注目画素と、当該模擬エッジパターンを形成する画素であり注目画素との画素類似度が最も高い画素との位置関係をマップ記憶手段42に記憶させることができる。   Specifically, the positional relationship between the target pixel when a similar pattern to the simulated edge pattern is detected in the actual edge image and the pixel that forms the simulated edge pattern and has the highest pixel similarity with the target pixel Can be stored in the map storage means 42.

マップ記憶手段42に記憶される当該位置関係は実画像と模擬画像との画素単位のズレ量を表す。換言すると当該位置関係は実画像と模擬画像とのキャリブレーション誤差に相当する。   The positional relationship stored in the map storage means 42 represents the amount of deviation in pixel units between the actual image and the simulated image. In other words, the positional relationship corresponds to a calibration error between the actual image and the simulated image.

上述のように、相違画素抽出手段52が当該位置関係をマップ記憶手段42に記憶させる構成とすることができる。一方、相違画素抽出手段52はこれらの位置関係を読み出して利用する。つまり、相違画素抽出手段52は、撮影部2が取得する時系列の実画像を順次、模擬画像と比較する処理において、類似パターンが検出された注目画素を模擬画像の画素と同定して、それら同一とされた画素同士の位置関係をマップ記憶手段42に記憶させ、新たに比較する実画像における注目画素のうちマップ記憶手段42に位置関係が記憶されているものについては、当該位置関係をなす模擬画像の画素を含む模擬エッジパターンを用いて類似パターンを検出する。   As described above, the different pixel extraction unit 52 can store the positional relationship in the map storage unit 42. On the other hand, the different pixel extraction means 52 reads and uses these positional relationships. That is, the different pixel extraction unit 52 identifies the target pixel in which the similar pattern is detected as the pixel of the simulated image in the process of sequentially comparing the time-series actual images acquired by the photographing unit 2 with the simulated image, The positional relationship between the identical pixels is stored in the map storage means 42, and among the target pixels in the new image to be compared, those that are stored in the map storage means 42 have the positional relationship. A similar pattern is detected using a simulated edge pattern including pixels of the simulated image.

以下、図3〜図6を用いて、画像監視装置1による処理の一例を具体的に説明する。図3は実エッジ画像および模擬エッジ画像の例を示す模式図であり、図3(a)に示す実エッジ画像100には実エッジパターンの例として実エッジ101,102を示している。具体的には、実エッジ101,102は実線上の画素において、有効な実エッジ情報を抽出されている。一方、点線で示す部分の画素では有効な実エッジ情報が抽出されず、実エッジ101の一部はかすれている。図3(a)には実エッジ画像100として、注目画素110を中心とする13×13画素の近傍領域を示している。   Hereinafter, an example of processing performed by the image monitoring apparatus 1 will be described in detail with reference to FIGS. FIG. 3 is a schematic diagram showing examples of real edge images and simulated edge images. The real edge image 100 shown in FIG. 3A shows real edges 101 and 102 as examples of real edge patterns. Specifically, for the real edges 101 and 102, effective real edge information is extracted from pixels on the solid line. On the other hand, effective real edge information is not extracted from the pixel indicated by the dotted line, and a part of the real edge 101 is blurred. FIG. 3A shows a neighborhood area of 13 × 13 pixels centered on the target pixel 110 as the real edge image 100.

図3(b)に示す模擬エッジ画像200には模擬エッジパターンの例として模擬エッジ201,202を示している。具体的には、模擬エッジ201,202は実線上の画素において、有効な模擬エッジ情報を抽出されている。なお、模擬エッジ201,202にはかすれは生じていない。図3(b)には模擬エッジ画像200として、図3(a)の実エッジ画像100と撮影面での座標が同じ範囲、つまり注目画素110の近傍領域と同じ13×13画素の領域が示されている。   The simulated edge image 200 shown in FIG. 3B shows simulated edges 201 and 202 as examples of simulated edge patterns. Specifically, for the simulated edges 201 and 202, effective simulated edge information is extracted from the pixels on the solid line. Note that the simulated edges 201 and 202 are not blurred. FIG. 3B shows a simulated edge image 200 in which the coordinates on the imaging plane are the same as the real edge image 100 in FIG. 3A, that is, a 13 × 13 pixel area that is the same as the vicinity area of the target pixel 110. Has been.

図4は、図3(b)の模擬エッジ画像200に設定する類似画素の探索領域の例を示す模式図である。模擬エッジ画像200上で注目画素210を中心に5×5画素の探索領域211を設定し、探索領域211から類似画素212が検出されている。なお、図4には、図3(b)の模擬エッジ201,202が実線で示され、図3(a)の実エッジ101,102が一点鎖線で示されている。   FIG. 4 is a schematic diagram showing an example of a similar pixel search region set in the simulated edge image 200 of FIG. A 5 × 5 pixel search area 211 is set on the simulated edge image 200 around the target pixel 210, and a similar pixel 212 is detected from the search area 211. In FIG. 4, the simulated edges 201 and 202 in FIG. 3B are indicated by solid lines, and the real edges 101 and 102 in FIG. 3A are indicated by alternate long and short dash lines.

図5は模擬エッジパターンの抽出処理を説明するための模式図である。図5(a)の模擬エッジ画像200には、類似画素212を中心とする9×9画素のパターン抽出窓220が示されている。図5(b)は模擬画像記憶手段41に記憶されている構造線識別子の模式図であり、模擬画像300の画素に対応付けて構造線識別子を示している。模擬画像300として、実エッジ画像100および模擬エッジ画像200と同じ近傍領域を示しており、模擬エッジ201と対応する画素に構造線識別子「2」、模擬エッジ202と対応する画素に構造線識別子「1」が定義されている。   FIG. 5 is a schematic diagram for explaining the extraction process of the simulated edge pattern. In the simulated edge image 200 of FIG. 5A, a 9 × 9 pixel pattern extraction window 220 centered on a similar pixel 212 is shown. FIG. 5B is a schematic diagram of the structural line identifier stored in the simulated image storage unit 41, and shows the structural line identifier in association with the pixels of the simulated image 300. The simulated image 300 shows the same neighboring region as the actual edge image 100 and the simulated edge image 200, and the structural line identifier “2” is assigned to the pixel corresponding to the simulated edge 201 and the structural line identifier “2” is assigned to the pixel corresponding to the simulated edge 202. 1 "is defined.

相違画素抽出手段52は、パターン抽出窓220内から模擬エッジパターンを求める。ここでは、模擬エッジパターンを、同一の構造線識別子が付与された画素の模擬エッジ情報から生成する例を示しており、相違画素抽出手段52は、類似画素212と同一の構造線識別子「2」が設定された画素のうちパターン抽出窓220内の画素からなるパターン310を抽出する。この構造線識別子に基づくパターン310と対応して模擬エッジ画像200から模擬エッジパターン230が抽出される。模擬エッジパターン230のデータは、当該パターンを構成する各画素のエッジ方向の情報を例えば、画素の並びに沿って配列したベクトル表現231とすることができる。   The different pixel extraction unit 52 obtains a simulated edge pattern from the pattern extraction window 220. Here, an example is shown in which the simulated edge pattern is generated from simulated edge information of pixels to which the same structural line identifier is assigned, and the different pixel extraction means 52 has the same structural line identifier “2” as the similar pixel 212. A pattern 310 consisting of pixels in the pattern extraction window 220 is extracted from among the pixels for which is set. A simulated edge pattern 230 is extracted from the simulated edge image 200 in correspondence with the pattern 310 based on the structural line identifier. The data of the simulated edge pattern 230 can be, for example, a vector expression 231 in which the information on the edge direction of each pixel constituting the pattern is arranged along the arrangement of pixels.

図6は模擬エッジパターン230に対応して設定された実エッジパターンを示す模式図である。実エッジ画像100に示す領域130は、模擬エッジパターン230における画素配置のパターンを、パターン230における類似画素212の位置が注目画素110に一致するように平行移動させたものである。ここで示す例では、当該領域130により実エッジパターン131を生成する。実エッジパターン131のデータのベクトル表現132は、模擬エッジパターンのベクトル表現231と同様に定義される。   FIG. 6 is a schematic diagram showing an actual edge pattern set corresponding to the simulated edge pattern 230. A region 130 shown in the actual edge image 100 is obtained by translating the pixel arrangement pattern in the simulated edge pattern 230 so that the position of the similar pixel 212 in the pattern 230 matches the target pixel 110. In the example shown here, the actual edge pattern 131 is generated from the area 130. The vector representation 132 of the data of the actual edge pattern 131 is defined in the same manner as the vector representation 231 of the simulated edge pattern.

相違画素抽出手段52は、ベクトル表現231の模擬エッジパターン230とベクトル表現132の実エッジパターン131とに対して(4)式、(5)式を適用してパターン類似度SPTを算出し、SPT≧TPTであれば実エッジパターン131を、注目画素に対応して得られた模擬エッジパターン230の類似パターンと判定する。 The different pixel extraction unit 52 calculates the pattern similarity S PT by applying the expressions (4) and (5) to the simulated edge pattern 230 of the vector expression 231 and the actual edge pattern 131 of the vector expression 132, If S PT ≧ T PT , the actual edge pattern 131 is determined to be a similar pattern of the simulated edge pattern 230 obtained corresponding to the target pixel.

ここで、類似パターン抽出に用いるリファレンスのエッジパターンの他の生成方法について図7に示す模式図を用いて述べる。   Here, another method for generating a reference edge pattern used for similar pattern extraction will be described with reference to a schematic diagram shown in FIG.

例えば、リファレンスのエッジパターンとして、構造線識別子が異なる画素を含む模擬エッジパターンを用いる構成が考えられる。図7(a)は、図3〜図6に示した実エッジ画像100、模擬エッジ画像200、模擬画像300の例に、当該構成を適用して得られた実エッジパターンの領域140を示している。領域140の画素配置パターンは、図5の類似画素212を中心とする9×9画素のパターン抽出窓220内における、構造線識別子「2」および「1」の画素からなる模擬エッジパターンの画素配置パターンと同一とされる。図5の実画像100における実エッジ101(又は注目画素110)に対する実エッジ102の位置が、模擬エッジ画像200における模擬エッジ201(又は類似画素212)に対する模擬エッジ202の位置からずれているため、実エッジ102が領域140から外れている。   For example, a configuration in which a simulated edge pattern including pixels having different structural line identifiers is used as the reference edge pattern. FIG. 7A shows a real edge pattern region 140 obtained by applying the configuration to the examples of the real edge image 100, the simulated edge image 200, and the simulated image 300 shown in FIGS. Yes. The pixel arrangement pattern of the region 140 is a pixel arrangement of a simulated edge pattern made up of the pixels of the structural line identifiers “2” and “1” in the 9 × 9 pixel pattern extraction window 220 centering on the similar pixel 212 in FIG. Same as pattern. Since the position of the actual edge 102 with respect to the actual edge 101 (or the target pixel 110) in the actual image 100 of FIG. 5 is shifted from the position of the simulated edge 202 with respect to the simulated edge 201 (or similar pixel 212) in the simulated edge image 200, The real edge 102 is out of the region 140.

上述のように模擬エッジパターンをリファレンスに用いる構成には、かすれや途切れの影響を受けにくいという特長があり、複数の構造線識別子を含む模擬エッジパターンをリファレンスに用いる場合も当該特長が得られる。一方、複数の構造線識別子を含む模擬エッジパターンにおいては、構造線識別子が異なるエッジ同士の位置関係の変化などが起こることがあり、それに起因してパターン類似度SPTが低下し、相違画素の誤抽出、過剰抽出が生じ易くなる。この点で、リファレンスの模擬エッジパターンに含まれる構造線識別子の種類は少ない方がよく、上述した同一の構造線識別子の画素からなる模擬エッジパターンが好適である。 As described above, the configuration using the simulated edge pattern as a reference has a feature that the simulated edge pattern is not easily affected by blurring or interruption, and this feature can be obtained even when a simulated edge pattern including a plurality of structural line identifiers is used as a reference. On the other hand, in the simulated edge pattern comprising a plurality of structural lines identifier, may like the change in the positional relationship of the edge between the structure line identifier is different occurs, due to it reduces the pattern similarity S PT, difference pixel Misextraction and overextraction are likely to occur. In this respect, it is better that the number of the structural line identifiers included in the reference simulated edge pattern is smaller, and the simulated edge pattern including the pixels of the same structural line identifier described above is preferable.

図7(b)は、実画像100からリファレンスのエッジパターンを生成する構成の問題点を説明する模式図である。上述したように実エッジ101はかすれている。このようにかすれ等の影響で、注目画素110に対応して設定される実エッジパターンの領域140は図7(b)に示すように小さくなり、前景のエッジと偶然に一致する可能性が高まる。この点で上述したように模擬エッジパターンに基づいてリファレンスを生成する方法が好適である。   FIG. 7B is a schematic diagram for explaining the problem of the configuration for generating the reference edge pattern from the actual image 100. As described above, the real edge 101 is blurred. As a result of such blurring, the actual edge pattern region 140 set corresponding to the target pixel 110 becomes smaller as shown in FIG. 7B, and the possibility of coincidental coincidence with the foreground edge increases. . In this respect, as described above, a method for generating a reference based on a simulated edge pattern is preferable.

物体検知手段53は、相違画素が監視対象の物体によるものか否かを判定し、監視対象の物体によるものと判定した場合に監視対象の物体を検知した旨を表す検知情報を生成し、生成した検知情報を検知情報出力手段31に出力する。   The object detection unit 53 determines whether or not the different pixel is due to the monitoring target object, and generates detection information indicating that the monitoring target object is detected when it is determined that the different pixel is due to the monitoring target object. The detected information is output to the detection information output means 31.

例えば、物体検知手段53は、互いの近傍(例えば8近傍)に抽出された相違画素を同一物体によるものとしてラベル付けするラベリング処理を行う。そして、ラベルごとの相違画素の実エッジ情報を抽出した相違エッジ画像と、人の形状を模した人形状モデルとのパターンマッチングを行い、一致度が所定値以上であるラベルの相違画素を人によるものと判定する。または、このパターンマッチングに代えて機械学習した識別器を用いる構成とすることもできる。この場合、物体検知手段53は、例えば上記各ラベルの外接矩形を設定し、当該外接矩形と重複を有する識別窓を設定する。そして、識別窓内の実画像を、予め人の画像特徴を学習した人識別器に入力して、人と識別された識別窓内の相違画素を人によるものと判定し、人と識別された識別窓が無かったラベルを不審物によるものと判定する。   For example, the object detection unit 53 performs a labeling process for labeling different pixels extracted in the vicinity of each other (for example, in the vicinity of 8) as being based on the same object. Then, pattern matching is performed between the different edge image obtained by extracting the real edge information of the different pixels for each label and a human shape model that imitates the shape of a person, and the difference pixels of the label whose matching degree is equal to or greater than a predetermined value are determined by humans. Judge that it is. Alternatively, a machine-learned classifier may be used instead of the pattern matching. In this case, the object detection means 53 sets, for example, a circumscribed rectangle of each label, and sets an identification window that overlaps with the circumscribed rectangle. Then, the actual image in the identification window is input to a human classifier that has previously learned the human image characteristics, and the different pixels in the identification window that have been identified as a person are determined to be due to the person and identified as a person. It is determined that the label without the identification window is due to a suspicious object.

検知情報出力手段31は物体検知手段53から入力された検知情報を報知部6に出力する。   The detection information output unit 31 outputs the detection information input from the object detection unit 53 to the notification unit 6.

[画像監視装置1の動作]
図8は画像監視装置1の概略の動作のフロー図である。
[Operation of the image monitoring apparatus 1]
FIG. 8 is a schematic operation flowchart of the image monitoring apparatus 1.

通信部3は実画像取得手段30として動作し、撮影部2から実画像を順次取得する(ステップS1)。   The communication unit 3 operates as the real image acquisition unit 30 and sequentially acquires real images from the photographing unit 2 (step S1).

画像処理部5は、実画像取得手段30から実画像を取得するごとに、模擬画像生成手段50として動作し、模擬画像を生成する(ステップS2)。これにより、実画像の撮影時刻から推定される日照状態や、撮影時刻における照明スイッチの状態などから把握される人工照明の点消灯状態に応じた模擬画像を生成することが可能である。また、撮影部2の視野が変化する場合には、それに対応した模擬画像を生成することができる。模擬画像生成手段50は生成した背景画像を模擬画像記憶手段41に記憶させる。   Each time the real image is acquired from the real image acquisition unit 30, the image processing unit 5 operates as the simulation image generation unit 50 and generates a simulation image (step S2). As a result, it is possible to generate a simulated image according to the sunshine state estimated from the shooting time of the actual image and the lighting state of the artificial illumination grasped from the lighting switch state at the shooting time. Further, when the field of view of the photographing unit 2 changes, a corresponding simulated image can be generated. The simulated image generation unit 50 stores the generated background image in the simulated image storage unit 41.

また、画像処理部5は実画像取得手段30から実画像を取得するごとに、エッジ抽出手段51として動作し、実画像から実エッジ画像を生成すると共に(ステップS3)、当該実画像の取得に対応して生成された模擬画像を模擬画像記憶手段41から読み出して当該模擬画像から模擬エッジ画像を生成する(ステップS4)。   Further, every time the real image is acquired from the real image acquisition unit 30, the image processing unit 5 operates as the edge extraction unit 51, generates a real edge image from the real image (step S3), and acquires the real image. The corresponding simulated image is read from the simulated image storage means 41 and a simulated edge image is generated from the simulated image (step S4).

次に、画像処理部5は相違画素抽出手段52として動作し、ステップS3にて生成された実エッジ画像と、ステップS4にて生成された模擬エッジ画像とに基づいて相違画素を抽出する(ステップS5)。   Next, the image processing unit 5 operates as the different pixel extracting unit 52 and extracts different pixels based on the actual edge image generated in step S3 and the simulated edge image generated in step S4 (step S4). S5).

図9は相違画素抽出処理S5の概略のフロー図である。相違画素抽出手段52は実画像の各画素を順次、注目画素として設定する(ステップS10)。ここで、実画像と模擬画像との間にはキャリブレーション誤差が存在し得るため、実画像の注目画素が模擬画像では異なる位置の画素に対応し得る。これに関し、過去に取得された実画像に対する相違画素抽出処理にて、注目画素に対応する模擬画像の対応画素の位置がマップ記憶手段42に記憶されている可能性がある。そこで、相違画素抽出手段52は、マップ記憶手段42に対応画素の情報があるか否かを確認し(ステップS12)、当該情報が記録されていない場合には(ステップS12にて「NO」の場合)、模擬画像にて注目画素と類似するエッジ情報を有する類似画素を探索する(ステップS14)。   FIG. 9 is a schematic flowchart of the different pixel extraction process S5. The different pixel extraction means 52 sequentially sets each pixel of the actual image as a target pixel (step S10). Here, since a calibration error may exist between the actual image and the simulated image, the target pixel of the actual image may correspond to a pixel at a different position in the simulated image. In this regard, there is a possibility that the position of the corresponding pixel of the simulated image corresponding to the pixel of interest is stored in the map storage means 42 in the different pixel extraction process for the actual image acquired in the past. Therefore, the different pixel extraction unit 52 checks whether or not the corresponding pixel information exists in the map storage unit 42 (step S12). If the information is not recorded ("NO" in step S12). ), A similar pixel having edge information similar to the target pixel is searched for in the simulated image (step S14).

類似画素の探索は注目画素の近傍にて行われる。本実施形態では、注目画素を中心にしてキャリブレーション誤差の上限に応じた大きさの探索領域を設定し、当該探索領域内にて類似画素を探す。例えば、探索領域は既に述べたように5×5画素の矩形領域とする。   The search for similar pixels is performed in the vicinity of the target pixel. In the present embodiment, a search area having a size corresponding to the upper limit of the calibration error is set around the target pixel, and a similar pixel is searched for in the search area. For example, the search area is a rectangular area of 5 × 5 pixels as described above.

探索の結果、模擬画像に類似画素が見つからなかった場合(ステップS16にて「NO」の場合)、相違画素抽出手段52は注目画素を背景(模擬画像)の画素ではないとして相違画素と判定する(ステップS18)。例えば、ステップS18にて相違画素と判定される例として、注目画素が実画像に現れた輝度境界線(物体輪郭など)に位置し大きな強度のエッジをなすのに対し、探索領域の模擬画像にそれに相当するエッジが存在しない場合がある。   As a result of the search, if a similar pixel is not found in the simulated image (“NO” in step S16), the different pixel extraction unit 52 determines that the target pixel is not a background (simulated image) pixel as a different pixel. (Step S18). For example, as an example in which it is determined that the pixel is a different pixel in step S18, the target pixel is located on a luminance boundary line (such as an object contour) that appears in the actual image and forms a high-strength edge. There may be no corresponding edge.

一方、探索の結果、模擬画像に類似画素が検出された場合(ステップS16にて「YES」の場合)、相違画素抽出手段52は模擬画像記憶手段41から構造線識別子の情報を取得し(ステップS20)、類似画素と同一の構造線識別子が付与された画素の模擬エッジ情報から模擬エッジパターンを生成する(ステップS22)。例えば、相違画素抽出手段52は、模擬エッジパターンとして、類似画素を含む複数の画素であって、模擬画像に現れた輝度境界線に沿って並び、且つ構造線識別子が共通である互いに隣接した画素群についての配置およびエッジ方向を求める。なお、構造線識別子が同一という条件に代えて、または当該条件に加えて、模擬エッジパターンをなす互いに隣接した複数の画素におけるエッジ方向の変動範囲が所定の閾値以下である、または隣接画素間でのエッジ方向の差が所定の閾値以下であるという条件を課して模擬エッジパターンを定めてもよい。閾値は90度未満とすることが好適であり、例えば45度とすることができる。   On the other hand, if a similar pixel is detected in the simulated image as a result of the search (“YES” in step S16), the different pixel extracting unit 52 acquires the structural line identifier information from the simulated image storage unit 41 (step S16). S20) A simulated edge pattern is generated from simulated edge information of a pixel to which the same structural line identifier as a similar pixel is assigned (step S22). For example, the different pixel extracting means 52 is a plurality of pixels including similar pixels as the simulated edge pattern, arranged along the luminance boundary line appearing in the simulated image, and adjacent pixels having a common structural line identifier Determine the placement and edge direction for the group. In addition to or in addition to the condition that the structural line identifiers are the same, the variation range in the edge direction in a plurality of adjacent pixels forming the simulated edge pattern is equal to or less than a predetermined threshold value, or between adjacent pixels The simulated edge pattern may be determined by imposing a condition that the difference in the edge direction is equal to or less than a predetermined threshold value. The threshold is preferably less than 90 degrees, for example, 45 degrees.

相違画素抽出手段52は、ステップS22にて類似画素に対応して模擬エッジパターンを生成すると、次に、実エッジ画像における実エッジパターンの中に当該模擬エッジパターンに類似するものである類似パターンが存在するかを調べる(ステップS24)。本実施形態では、実エッジパターンは、模擬エッジパターンと同じ画素配置パターンを、模擬エッジパターン内の類似画素の位置が注目画素に重なるように配置したものであるとし、当該実エッジパターンに対して上記の(4)式、(5)式で定義するパターン類似度SPTを算出し、SPTが閾値TPT以上であれば当該実エッジパターンを類似パターンと判定し、SPTが閾値TPT未満であれば類似パターンはないと判定する。 When the different pixel extraction unit 52 generates the simulated edge pattern corresponding to the similar pixel in step S22, next, the similar pattern which is similar to the simulated edge pattern is included in the actual edge pattern in the actual edge image. It is checked whether it exists (step S24). In the present embodiment, the actual edge pattern is the same pixel arrangement pattern as the simulated edge pattern, which is arranged so that the position of the similar pixel in the simulated edge pattern overlaps the target pixel. The pattern similarity S PT defined by the above equations (4) and (5) is calculated. If S PT is equal to or greater than the threshold value T PT , the actual edge pattern is determined as a similar pattern, and S PT is the threshold value T PT. If it is less, it is determined that there is no similar pattern.

類似パターンが存在すれば(ステップS24にて「YES」の場合)、相違画素抽出手段52はステップS14にて得られた類似画素をステップS10にて設定された注目画素の対応画素と判定し(ステップS26)、マップ記憶手段42に、当該注目画素に関する対応画素情報として当該対応画素の位置を記録する(ステップS28)。   If a similar pattern exists (in the case of “YES” in step S24), the different pixel extraction means 52 determines that the similar pixel obtained in step S14 is a corresponding pixel of the target pixel set in step S10 ( In step S26), the position of the corresponding pixel is recorded in the map storage unit 42 as the corresponding pixel information regarding the target pixel (step S28).

一方、類似パターンがないと判定した場合(ステップS24にて「NO」の場合)、相違画素抽出手段52は、注目画素を相違画素であると判定する(ステップS18)。   On the other hand, when it is determined that there is no similar pattern (when “NO” in step S24), the different pixel extraction unit 52 determines that the target pixel is a different pixel (step S18).

このように、ステップS16にて実画像の注目画素に対し模擬画像に類似画素が見つかっても、この1画素のエッジ情報のみを以て直ちに注目画素が相違画素ではないと判断するのではなく、複数の画素からなるエッジパターンでの比較をさらに行って相違画素であるか否かを判断することにより、精度の高い相違画素検出が可能となる。   Thus, even if a similar pixel is found in the simulated image with respect to the target pixel of the real image in step S16, it is not determined immediately that the target pixel is not a different pixel by using only the edge information of this one pixel. By further comparing with an edge pattern composed of pixels and determining whether or not they are different pixels, it is possible to detect different pixels with high accuracy.

さて、上述のように対応画素情報の記録(ステップS28)を行うので、ステップS10にて設定された注目画素について対応画素情報が存在する場合がある(ステップS12にて「YES」の場合)。この場合は、相違画素抽出手段52は、対応画素情報をマップ記憶手段42から取得することで(ステップS30)、類似画素の探索に関する処理(ステップS14,S16)を省略して、エッジパターンでの比較処理(ステップS20〜S24)に進み、相違画素であるか対応画素であるかを判定する(ステップS18,S26)。これにより処理負荷の軽減、処理時間の短縮が図られる。   Since the corresponding pixel information is recorded as described above (step S28), the corresponding pixel information may exist for the target pixel set in step S10 (in the case of “YES” in step S12). In this case, the different pixel extraction unit 52 acquires the corresponding pixel information from the map storage unit 42 (step S30), omits the processing (steps S14 and S16) related to the search for similar pixels, and uses the edge pattern. Proceeding to the comparison process (steps S20 to S24), it is determined whether the pixel is a different pixel or a corresponding pixel (steps S18 and S26). As a result, the processing load is reduced and the processing time is shortened.

ちなみに、この場合は、対応画素に対応して模擬エッジパターンが生成される。すなわち、相違画素抽出手段52は模擬画像記憶手段41から構造線識別子の情報を取得し(ステップS20)、対応画素と同一の構造線識別子が付与された画素の模擬エッジ情報から模擬エッジパターンを生成する(ステップS22)。   Incidentally, in this case, a simulated edge pattern is generated corresponding to the corresponding pixel. That is, the different pixel extraction unit 52 acquires the information of the structural line identifier from the simulated image storage unit 41 (step S20), and generates a simulated edge pattern from the simulated edge information of the pixel assigned with the same structural line identifier as the corresponding pixel. (Step S22).

以上の処理S10〜S30を実画像の各画素について繰り返し(ステップS32にて「NO」の場合)、実画像の全画素について処理が終わると(ステップS32にて「YES」の場合)、相違画素抽出手段52は図8のステップS6に処理を進める。   The above processing S10 to S30 is repeated for each pixel of the real image (in the case of “NO” in step S32), and when the processing is completed for all the pixels in the real image (in the case of “YES” in step S32), the different pixels The extraction means 52 advances the process to step S6 in FIG.

画像処理部5はステップS5にて相違画素が抽出された場合には(ステップS6にて「YES」の場合)、物体検知手段53として動作し、当該相違画素が監視対象の物体によるものか否かを判定する物体認識処理を行う(ステップS7)。そして、監視対象の物体によるものと判定した場合には、監視対象の物体を検知した旨を表す検知情報を生成し、生成した検知情報を検知情報出力手段31に出力する。   When a different pixel is extracted in step S5 (in the case of “YES” in step S6), the image processing unit 5 operates as the object detection unit 53, and whether or not the different pixel is due to an object to be monitored. Object recognition processing for determining whether or not is performed (step S7). When it is determined that the object is a monitoring target object, detection information indicating that the monitoring target object is detected is generated, and the generated detection information is output to the detection information output unit 31.

通信部3は物体検知手段53からの検知情報を受けて検知情報出力手段31として動作し、当該検知情報を報知部6に出力する(ステップS8)。   The communication unit 3 receives the detection information from the object detection unit 53, operates as the detection information output unit 31, and outputs the detection information to the notification unit 6 (step S8).

画像監視装置1は実画像を取得するごとに上述のステップS1〜S8の処理を繰り返す。なお、ステップS5にて相違画素が抽出されなかった場合には(ステップS6にて「NO」の場合)、ステップS7,S8は省略して次の実画像の処理に移る。   The image monitoring apparatus 1 repeats the above-described steps S1 to S8 every time a real image is acquired. If no different pixel is extracted in step S5 (in the case of “NO” in step S6), steps S7 and S8 are omitted, and the process proceeds to the next actual image.

[変形例]
(1)上述の実施形態では、前景物体が存在しないときの監視空間を模した三次元モデルから生成した模擬画像、すなわち背景画像の模擬画像を実画像と比較する例を示したが、模擬画像はこれに限らない。例えば、模擬画像は、消火器などの監視対象物のモデルを含めた三次元モデルから生成したものとしてもよい。本発明に係る画像比較装置は、当該模擬画像と実画像とを比較し、相違画素に基づいて監視対象物の持ち去りや移動を検知する用途に利用できる。
[Modification]
(1) In the above-described embodiment, the simulation image generated from the three-dimensional model imitating the monitoring space when the foreground object does not exist, that is, the simulation image of the background image is compared with the actual image. Is not limited to this. For example, the simulated image may be generated from a three-dimensional model including a model of a monitoring target such as a fire extinguisher. The image comparison apparatus according to the present invention can be used for the purpose of comparing the simulated image and the actual image and detecting the removal or movement of the monitoring target based on the different pixels.

また、模擬画像は、車両などの識別対象物の三次元モデルから生成したものとしてもよい。本発明に係る画像比較装置は、当該模擬画像と実画像とを比較し、相違画素に基づいて識別対象物を同定または検索する用途に利用できる。   The simulated image may be generated from a three-dimensional model of an identification object such as a vehicle. The image comparison apparatus according to the present invention can be used for the purpose of comparing the simulated image and the actual image, and identifying or searching for the identification object based on the different pixels.

また、模擬画像は、工場生産品などの検査対象物の三次元モデルから生成したものとしてもよい。本発明に係る画像比較装置は、当該模擬画像と実画像とを比較し、相違画素に基づいて検査対象物の傷の有無等を検査する用途に利用できる。   The simulated image may be generated from a three-dimensional model of an inspection object such as a factory-produced product. The image comparison apparatus according to the present invention can be used for the purpose of comparing the simulated image and the actual image and inspecting the presence or absence of scratches on the inspection object based on the different pixels.

(2)上述の実施形態では、実エッジパターン、模擬エッジパターンとして、物体の輪郭線など実画像、模擬画像における輝度境界線に対応して得られる形状パターンを用いて説明したが、本発明におけるエッジパターンはそのような形状パターンに限られない。エッジ情報は上述したように、物体の輪郭線などに対応する画素に限られず、基本的にはエッジオペレータの演算結果として全ての画素について得られる。よって、一般的に、エッジパターンは複数画素からなる領域におけるエッジ情報の集合と定義することができる。   (2) In the above-described embodiment, the actual edge pattern and the simulated edge pattern have been described using the shape pattern obtained corresponding to the luminance boundary line in the actual image and the simulated image, such as the outline of the object. The edge pattern is not limited to such a shape pattern. As described above, the edge information is not limited to the pixels corresponding to the contour line of the object, and is basically obtained for all the pixels as the calculation result of the edge operator. Therefore, in general, an edge pattern can be defined as a set of edge information in an area composed of a plurality of pixels.

よって、実画像における注目画素が輪郭線などを構成するものでなくても、本発明を適用することができる。   Therefore, the present invention can be applied even if the target pixel in the actual image does not constitute a contour line or the like.

(3)上述の実施形態では、模擬エッジパターンとして類似画素を通る形状パターンを生成したが、模擬エッジパターンは類似画素の近傍を通る輪郭線等の形状パターンとしてもよい。例えば、模擬エッジ画像にて類似画素の近くに当該類似画素よりも大きなエッジ強度を有する形状パターンが存在するような場合に、その類似画素の近くにて得られる形状パターンを模擬エッジパターンとする。この場合、例えば、上述の実施形態と同様、実エッジパターンとして模擬エッジパターンと同じ画素配置パターンを仮定する構成では、実エッジパターンは、注目画素と類似画素との位置関係に応じて模擬エッジパターンを平行移動して設定すればよい。つまり、実エッジパターンは注目画素を含まず、その近傍に設定され得る。   (3) In the above-described embodiment, a shape pattern that passes through similar pixels is generated as a simulated edge pattern. However, the simulated edge pattern may be a shape pattern such as a contour line that passes through the vicinity of similar pixels. For example, when a shape pattern having a larger edge strength than the similar pixel exists near the similar pixel in the simulated edge image, the shape pattern obtained near the similar pixel is set as the simulated edge pattern. In this case, for example, as in the above-described embodiment, in the configuration in which the same pixel arrangement pattern as the simulated edge pattern is assumed as the actual edge pattern, the actual edge pattern is the simulated edge pattern according to the positional relationship between the target pixel and the similar pixel. May be set by translating. That is, the actual edge pattern does not include the target pixel and can be set in the vicinity thereof.

(4)上述の実施形態では、実エッジパターンとして、模擬エッジパターンである形状パターンと同じ画素配置パターンを仮定したが、実エッジパターンは模擬エッジパターンとは独立して抽出してもよい。つまり、類似画素を起点として模擬エッジが伸びる方向に画素を連ねて模擬エッジパターンを抽出したのと同様に、注目画素を起点として実エッジが伸びる方向に画素を連ねて実エッジパターンを抽出し、当該実エッジパターンの画素におけるエッジ情報と模擬エッジパターンの画素におけるエッジ情報とを比較して当該実エッジパターンが模擬エッジパターンの類似パターンであるかを判定する構成とすることができる。   (4) In the above-described embodiment, the same pixel arrangement pattern as the shape pattern that is the simulated edge pattern is assumed as the actual edge pattern. However, the actual edge pattern may be extracted independently of the simulated edge pattern. That is, similar to extracting a simulated edge pattern by connecting pixels in the direction in which the simulated edge extends from a similar pixel, extract the actual edge pattern by connecting pixels in the direction in which the actual edge extends from the target pixel, The edge information in the pixel of the actual edge pattern and the edge information in the pixel of the simulated edge pattern may be compared to determine whether the actual edge pattern is a similar pattern of the simulated edge pattern.

(5)上述の実施形態では、撮影部2の視野は固定としているが可変であってもよい。すなわち、撮影部2が走査機構を備え撮影方向を変化させたり、ズーム機構を備え画角を変化させたりするものであってもよい。   (5) In the above-described embodiment, the field of view of the photographing unit 2 is fixed, but may be variable. In other words, the photographing unit 2 may include a scanning mechanism to change the photographing direction, or may include a zoom mechanism to change the angle of view.

1 画像監視装置、2 撮影部、3 通信部、4 記憶部、5 画像処理部、6 報知部、30 実画像取得手段、31 検知情報出力手段、40 三次元モデル記憶手段、41 模擬画像記憶手段、42 マップ記憶手段、43 カメラ情報記憶手段、50 模擬画像生成手段、51 エッジ抽出手段、52 相違画素抽出手段、53 物体検知手段、100 実エッジ画像、101,102 実エッジ、110 注目画素、200 模擬エッジ画像、201,202 模擬エッジ。   DESCRIPTION OF SYMBOLS 1 Image monitoring apparatus, 2 imaging | photography part, 3 communication part, 4 memory | storage part, 5 image processing part, 6 alerting | reporting part, 30 real image acquisition means, 31 detection information output means, 40 3D model storage means, 41 simulated image storage means , 42 Map storage means, 43 Camera information storage means, 50 Simulated image generation means, 51 Edge extraction means, 52 Different pixel extraction means, 53 Object detection means, 100 Real edge image, 101,102 Real edge, 110 Target pixel, 200 Simulated edge image, 201, 202 Simulated edge.

Claims (6)

所定の空間が撮影された実画像と、前記空間の三次元モデルをレンダリングすることにより生成された模擬画像とを比較して、前記実画像において前記模擬画像と相違する相違画素を抽出する画像比較装置であって、
前記模擬画像を記憶している模擬画像記憶手段と、
前記実画像および前記模擬画像のそれぞれから、各画素におけるエッジ方向を少なくとも含む実エッジ情報および模擬エッジ情報を抽出するエッジ抽出手段と、
前記実画像の注目画素の近傍領域において、複数の画素の前記模擬エッジ情報が形成する模擬エッジパターンを求め、前記実エッジ情報に関し当該模擬エッジパターンに所定基準以上に類似した類似パターンが検出されない前記注目画素を前記相違画素とする相違画素抽出手段と、
を備えたことを特徴とする画像比較装置。
An image comparison that compares a real image in which a predetermined space is photographed with a simulated image generated by rendering a three-dimensional model of the space, and extracts a different pixel from the simulated image in the real image A device,
Simulated image storage means for storing the simulated image;
Edge extraction means for extracting actual edge information and simulated edge information including at least an edge direction in each pixel from each of the actual image and the simulated image;
A simulated edge pattern formed by the simulated edge information of a plurality of pixels is obtained in a region near the target pixel of the actual image, and a similar pattern similar to the simulated edge pattern is not detected with respect to the actual edge information. A different pixel extracting means for setting a target pixel as the different pixel;
An image comparison apparatus comprising:
前記相違画素抽出手段は、前記模擬エッジ情報における前記エッジ方向が類似した複数の画素から形成される前記模擬エッジパターンを用いて前記類似パターンを検出すること、を特徴とする請求項1に記載の画像比較装置。   The said different pixel extraction means detects the said similar pattern using the said simulated edge pattern formed from the several pixel with which the said edge direction in the said simulated edge information was similar, The said similar pattern is characterized by the above-mentioned. Image comparison device. 前記模擬画像記憶手段は、前記模擬画像の画素ごとに、当該画素にレンダリングされた前記空間の構造線を識別する構造線識別子を記憶し、
前記相違画素抽出手段は、前記構造線識別子が同一である複数の画素の前記模擬エッジ情報から形成される前記模擬エッジパターンを用いて前記類似パターンを検出すること、
を特徴とする請求項1又は請求項2に記載の画像比較装置。
The simulated image storage means stores, for each pixel of the simulated image, a structural line identifier that identifies a structural line of the space rendered on the pixel,
The different pixel extracting means detects the similar pattern using the simulated edge pattern formed from the simulated edge information of a plurality of pixels having the same structural line identifier;
The image comparison apparatus according to claim 1, wherein:
複数の前記実画像を順次、前記模擬画像と比較する画像比較装置において、
過去の比較にて前記実画像と前記模擬画像とで同一とされた画素同士の位置関係を記憶するマップ記憶手段をさらに備え、
前記相違画素抽出手段は、
前記類似パターンが検出された前記注目画素を前記模擬画像の画素と同定して前記位置関係を前記マップ記憶手段に記憶させ、
新たに比較する前記実画像における前記注目画素のうち前記マップ記憶手段に前記位置関係が記憶されているものについては、当該位置関係をなす前記模擬画像の画素を含む前記模擬エッジパターンを用いて前記類似パターンを検出すること、
を特徴とする請求項1から請求項3のいずれか1つに記載の画像比較装置。
In an image comparison device that sequentially compares a plurality of actual images with the simulated image,
Map storage means for storing a positional relationship between pixels that are identical in the actual image and the simulated image in the past comparison;
The different pixel extracting means includes
Identifying the target pixel in which the similar pattern is detected as a pixel of the simulated image and storing the positional relationship in the map storage means;
Among the target pixels in the actual image to be newly compared, for the pixel in which the positional relationship is stored in the map storage unit, the simulated edge pattern including the pixels of the simulated image that form the positional relationship is used. Detecting similar patterns,
The image comparison apparatus according to claim 1, wherein:
前記相違画素抽出手段は、前記近傍領域よりも狭く予め定めた大きさで前記注目画素の周りに設定した領域にて、当該注目画素の前記実エッジ情報と最も類似する前記模擬エッジ情報を有する画素を探索し、当該画素を含む前記模擬エッジパターンを用いて前記類似パターンを検出すること、を特徴とする請求項1から請求項4のいずれか1つに記載の画像比較装置。   The different pixel extracting means is a pixel having the simulated edge information most similar to the actual edge information of the target pixel in an area set around the target pixel with a predetermined size narrower than the neighboring area. The image comparison apparatus according to claim 1, wherein the similarity pattern is detected using the simulated edge pattern including the pixel. 前記エッジ抽出手段は、前記各エッジ情報としてさらにエッジ強度を抽出すること、を特徴とする請求項1から請求項5のいずれか1つに記載の画像比較装置。   6. The image comparison apparatus according to claim 1, wherein the edge extraction unit further extracts an edge strength as each piece of edge information.
JP2017067092A 2017-03-30 2017-03-30 Image comparison device Active JP6548686B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017067092A JP6548686B2 (en) 2017-03-30 2017-03-30 Image comparison device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017067092A JP6548686B2 (en) 2017-03-30 2017-03-30 Image comparison device

Publications (2)

Publication Number Publication Date
JP2018169831A true JP2018169831A (en) 2018-11-01
JP6548686B2 JP6548686B2 (en) 2019-07-24

Family

ID=64017919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017067092A Active JP6548686B2 (en) 2017-03-30 2017-03-30 Image comparison device

Country Status (1)

Country Link
JP (1) JP6548686B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114201637A (en) * 2021-12-14 2022-03-18 平安付科技服务有限公司 Similar picture searching method, device, equipment and storage medium
KR102479976B1 (en) * 2021-11-15 2022-12-20 국방과학연구소 Change detection apparatus and method for detecting changes between different aerial photographs
CN116533465A (en) * 2023-05-05 2023-08-04 道县三湘源电子科技有限公司 Injection molding part water gap cutting equipment and cutting method

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102516747B1 (en) 2019-09-30 2023-04-03 주식회사 엘지화학 Polypropylene based composite
JP7414540B2 (en) 2020-01-15 2024-01-16 本田技研工業株式会社 Probability acquisition device and probability acquisition method
KR20220135280A (en) 2021-03-29 2022-10-07 주식회사 엘지화학 Polypropylene based composite
KR20220135270A (en) 2021-03-29 2022-10-07 주식회사 엘지화학 Polypropylene based composite
KR20220135279A (en) 2021-03-29 2022-10-07 주식회사 엘지화학 Polypropylene based composite

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149144A (en) * 2003-11-14 2005-06-09 Konica Minolta Holdings Inc Object detection device, object detection method, and recording medium
JP2005228062A (en) * 2004-02-13 2005-08-25 Omron Corp Inspection method and inspection apparatus
JP2016194779A (en) * 2015-03-31 2016-11-17 セコム株式会社 Object detection device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149144A (en) * 2003-11-14 2005-06-09 Konica Minolta Holdings Inc Object detection device, object detection method, and recording medium
JP2005228062A (en) * 2004-02-13 2005-08-25 Omron Corp Inspection method and inspection apparatus
JP2016194779A (en) * 2015-03-31 2016-11-17 セコム株式会社 Object detection device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102479976B1 (en) * 2021-11-15 2022-12-20 국방과학연구소 Change detection apparatus and method for detecting changes between different aerial photographs
CN114201637A (en) * 2021-12-14 2022-03-18 平安付科技服务有限公司 Similar picture searching method, device, equipment and storage medium
CN116533465A (en) * 2023-05-05 2023-08-04 道县三湘源电子科技有限公司 Injection molding part water gap cutting equipment and cutting method

Also Published As

Publication number Publication date
JP6548686B2 (en) 2019-07-24

Similar Documents

Publication Publication Date Title
JP6548686B2 (en) Image comparison device
JP7092615B2 (en) Shadow detector, shadow detection method, shadow detection program, learning device, learning method, and learning program
CN109598794B (en) Construction method of three-dimensional GIS dynamic model
JP6352208B2 (en) 3D model processing apparatus and camera calibration system
JP4451307B2 (en) How to classify objects in a scene
JP2020021300A (en) Fire monitoring device, fire monitoring system, and program for fire monitoring device
JPWO2016199244A1 (en) Object recognition device and object recognition system
JP6240116B2 (en) Object detection device
US11037014B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
CN110910379B (en) Incomplete detection method and device
KR101381580B1 (en) Method and system for detecting position of vehicle in image of influenced various illumination environment
CN112053397B (en) Image processing method, device, electronic device and storage medium
JP2019029935A (en) Image processing system and control method thereof
JP7092616B2 (en) Object detection device, object detection method, and object detection program
CN105787870A (en) Graphic image splicing fusion system
CN107862713A (en) Video camera deflection for poll meeting-place detects method for early warning and module in real time
JP2007130329A (en) Appearance inspection method by image
JPH06308256A (en) Cloudy fog detecting method
JP6687659B2 (en) Area classifier
JP7194534B2 (en) Object detection device, image processing device, object detection method, image processing method, and program
JP6133700B2 (en) Image sensor
JPWO2018110377A1 (en) Video surveillance device
JP6664078B2 (en) Three-dimensional intrusion detection system and three-dimensional intrusion detection method
JP6687658B2 (en) Area classifier
JP2017055242A (en) Color correction device, color correction method and computer program for color correction

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190625

R150 Certificate of patent or registration of utility model

Ref document number: 6548686

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250