JP2018169831A - Image comparison device - Google Patents
Image comparison device Download PDFInfo
- Publication number
- JP2018169831A JP2018169831A JP2017067092A JP2017067092A JP2018169831A JP 2018169831 A JP2018169831 A JP 2018169831A JP 2017067092 A JP2017067092 A JP 2017067092A JP 2017067092 A JP2017067092 A JP 2017067092A JP 2018169831 A JP2018169831 A JP 2018169831A
- Authority
- JP
- Japan
- Prior art keywords
- image
- simulated
- edge
- pixel
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】実画像と模擬画像との間のキャリブレーション誤差、実画像におけるエッジのかすれや途切れがあっても、模擬画像との比較により実画像の相違画素を精度良く抽出する。【解決手段】エッジ抽出手段51は実画像および模擬画像のそれぞれから、各画素におけるエッジ方向を少なくとも含む実エッジ情報および模擬エッジ情報を抽出する。相違画素抽出手段52は実画像の注目画素の近傍領域において、複数の画素の模擬エッジ情報が形成する模擬エッジパターンを求め、実エッジ情報に関し当該模擬エッジパターンに所定基準以上に類似した類似パターンが検出されない注目画素を相違画素とする。【選択図】図2Even if there is a calibration error between an actual image and a simulated image, and blurring or discontinuity of an edge in the actual image, different pixels of the actual image are accurately extracted by comparison with the simulated image. Edge extraction means 51 extracts real edge information and simulated edge information including at least the edge direction of each pixel from each of a real image and a simulated image. The different pixel extraction unit 52 obtains a simulated edge pattern formed by simulated edge information of a plurality of pixels in a region near the target pixel of the actual image, and a similar pattern similar to the simulated edge pattern with respect to the actual edge information is equal to or more than a predetermined reference. A pixel of interest that is not detected is set as a different pixel. [Selection] Figure 2
Description
本発明は、所定の空間を撮影した実画像と、その空間の三次元モデルをレンダリングすることにより生成された模擬画像とを比較して、実画像から相違画素を抽出する画像比較装置に関する。 The present invention relates to an image comparison device that compares a real image obtained by photographing a predetermined space with a simulated image generated by rendering a three-dimensional model of the space and extracts a different pixel from the real image.
防犯等の目的で、監視空間を撮影した撮影画像を背景差分処理して、監視空間に現れた人や不審物などの物体を検出する技術が知られている。ところが、イベント会場など多くの人が行き交う混雑空間においては人や不審物が写っていないシーンの出現頻度が低いため、背景画像の生成が困難化する。そこで、従来、監視空間を模した三次元モデルをレンダリングして背景画像を生成していた。 For the purpose of crime prevention or the like, a technique is known in which an image such as a person or a suspicious object that appears in the monitoring space is detected by performing background subtraction processing on a captured image obtained by shooting the monitoring space. However, in crowded spaces where many people come and go, such as event venues, the appearance frequency of scenes in which no people or suspicious objects are captured is low, making it difficult to generate a background image. Therefore, conventionally, a background image is generated by rendering a three-dimensional model imitating a monitoring space.
また、撮影画像と三次元モデルから生成した背景画像との間にはテクスチャの微小な誤差を含み得ることを鑑みて、従来、小領域単位で背景差分処理を行っていた。 In view of the fact that minute errors in texture may be included between a captured image and a background image generated from a three-dimensional model, conventionally, background difference processing has been performed in units of small areas.
例えば、特許文献1、2に記載の物体検出装置においては、撮影画像を格子状に分割したブロックごとに、または撮影画像において画素値が類似する近傍画素同士をまとめたスーパーピクセルごとに、撮影画像と三次元モデルから生成した背景画像との間で平均画素値の差、画素値の分散の差、エッジ差分を算出していた。
For example, in the object detection devices described in
ところで、カメラの画角を大きくして監視空間を広げると、画像に写る人などの像の大きさが小さくなり得るため、画素単位での背景差分処理が必要となる。また、画素単位での背景差分を行う場合、照明変動にロバストなエッジ情報による差分(エッジ差分)により、監視空間に現れた物体による相違画素を抽出することが望ましい。 By the way, if the angle of view of the camera is increased to widen the monitoring space, the size of an image of a person or the like shown in the image can be reduced, so that background difference processing in units of pixels is necessary. In addition, when performing background difference in units of pixels, it is desirable to extract different pixels due to objects appearing in the monitoring space based on differences (edge differences) based on edge information that is robust to illumination variations.
しかしながら、撮影画像(実画像)と三次元モデルから生成した背景画像(模擬画像)との対応画素同士で単純にエッジ差分を抽出すると、キャリブレーション誤差や、実画像におけるエッジのかすれや途切れ等により、誤抽出が生じる問題があった。 However, if an edge difference is simply extracted between corresponding pixels of a captured image (actual image) and a background image (simulated image) generated from a three-dimensional model, it may be due to calibration error, edge blurring or interruption in the actual image, etc. There was a problem that erroneous extraction occurred.
すなわち、キャリブレーション誤差がある場合に実画像と模擬画像との間に対応画素のズレが生じ、背景物体の一部が誤って変化領域として検出される。 That is, when there is a calibration error, a corresponding pixel shift occurs between the actual image and the simulated image, and a part of the background object is erroneously detected as a change region.
また、実画像においては白線の汚れや微小な凹凸、ブロックの汚れや微小な凹凸等によってエッジのかすれや途切れ等が生じるが、模擬画像でかすれや途切れ等を再現できなかった場合に、背景物体の一部が誤って変化領域として検出される。 Also, in the actual image, the edge of the white line, fine irregularities, block dirt, fine irregularities, etc. cause blurring or discontinuity of the edge, but if the fading or discontinuity cannot be reproduced in the simulated image, the background object Is detected as a change area by mistake.
本発明は上記問題を鑑みてなされたものであり、実画像と模擬画像との間のキャリブレーション誤差、実画像におけるエッジのかすれや途切れがあっても、模擬画像との比較により実画像の相違画素を精度良く抽出できる画像比較装置を提供することを目的とする。 The present invention has been made in view of the above problems, and even if there is a calibration error between the real image and the simulated image, and the edge of the actual image is blurred or interrupted, the difference between the actual image and the simulated image is compared. An object of the present invention is to provide an image comparison apparatus that can extract pixels with high accuracy.
(1)本発明に係る画像比較装置は、所定の空間が撮影された実画像と、前記空間の三次元モデルをレンダリングすることにより生成された模擬画像とを比較して、前記実画像において前記模擬画像と相違する相違画素を抽出する装置であって、前記模擬画像を記憶している模擬画像記憶手段と、前記実画像および前記模擬画像のそれぞれから、各画素におけるエッジ方向を少なくとも含む実エッジ情報および模擬エッジ情報を抽出するエッジ抽出手段と、前記実画像の注目画素の近傍領域において、複数の画素の前記模擬エッジ情報が形成する模擬エッジパターンを求め、前記実エッジ情報に関し当該模擬エッジパターンに所定基準以上に類似した類似パターンが検出されない前記注目画素を前記相違画素とする相違画素抽出手段と、を備える。 (1) The image comparison apparatus according to the present invention compares an actual image in which a predetermined space is photographed with a simulated image generated by rendering a three-dimensional model of the space, and the actual image An apparatus for extracting different pixels different from the simulated image, the simulated image storing means storing the simulated image, and an actual edge including at least an edge direction of each pixel from the actual image and the simulated image An edge extracting means for extracting information and simulated edge information; and a simulated edge pattern formed by the simulated edge information of a plurality of pixels in a region near the target pixel of the actual image, and the simulated edge pattern relating to the actual edge information And a different pixel extracting means that uses the target pixel for which a similar pattern similar to a predetermined reference or more is not detected as the different pixel. That.
(2)上記(1)に記載する画像比較装置において、前記相違画素抽出手段は、前記模擬エッジ情報における前記エッジ方向が類似した複数の画素から形成される前記模擬エッジパターンを用いて前記類似パターンを検出する構成とすることができる。 (2) In the image comparison apparatus according to (1), the different pixel extraction unit uses the simulated edge pattern formed from a plurality of pixels having similar edge directions in the simulated edge information. It can be set as the structure which detects.
(3)上記(1)又は(2)に記載する画像比較装置において、前記模擬画像記憶手段は、前記模擬画像の画素ごとに、当該画素にレンダリングされた前記空間の構造線を識別する構造線識別子を記憶し、前記相違画素抽出手段は、前記構造線識別子が同一である複数の画素の前記模擬エッジ情報から形成される前記模擬エッジパターンを用いて前記類似パターンを検出する構成とすることができる。 (3) In the image comparison apparatus described in (1) or (2) above, the simulated image storage unit identifies, for each pixel of the simulated image, a structural line of the space rendered on the pixel. An identifier is stored, and the different pixel extraction unit is configured to detect the similar pattern using the simulated edge pattern formed from the simulated edge information of a plurality of pixels having the same structural line identifier. it can.
(4)上記(1)〜(3)に記載する画像比較装置であって、複数の前記実画像を順次、前記模擬画像と比較する画像比較装置において、過去の比較にて前記実画像と前記模擬画像とで同一とされた画素同士の位置関係を記憶するマップ記憶手段をさらに備え、前記相違画素抽出手段は、前記類似パターンが検出された前記注目画素を前記模擬画像の画素と同定して前記位置関係を前記マップ記憶手段に記憶させ、新たに比較する前記実画像における前記注目画素のうち前記マップ記憶手段に前記位置関係が記憶されているものについては、当該位置関係をなす前記模擬画像の画素を含む前記模擬エッジパターンを用いて前記類似パターンを検出する構成とすることができる。 (4) In the image comparison apparatus described in (1) to (3) above, in the image comparison apparatus that sequentially compares a plurality of the actual images with the simulated image, the actual image and the Map storage means for storing the positional relationship between pixels that are the same in the simulated image, and the different pixel extraction means identifies the target pixel in which the similar pattern is detected as a pixel in the simulated image. The simulated image forming the positional relationship of the target pixel in the actual image to be newly compared with the positional relationship stored in the map storage unit by storing the positional relationship in the map storage unit The similar pattern can be detected using the simulated edge pattern including the pixels.
(5)上記(1)〜(4)に記載する画像比較装置において、前記相違画素抽出手段は、前記近傍領域よりも狭く予め定めた大きさで前記注目画素の周りに設定した領域にて、当該注目画素の前記実エッジ情報と最も類似する前記模擬エッジ情報を有する画素を探索し、当該画素を含む前記模擬エッジパターンを用いて前記類似パターンを検出する構成とすることができる。 (5) In the image comparison device described in (1) to (4) above, the different pixel extraction unit is an area set around the pixel of interest with a predetermined size narrower than the neighboring area. A pixel having the simulated edge information most similar to the actual edge information of the pixel of interest can be searched, and the similar pattern can be detected using the simulated edge pattern including the pixel.
(6)上記(1)〜(5)に記載する画像比較装置において、前記エッジ抽出手段は、前記各エッジ情報としてさらにエッジ強度を抽出する構成とすることができる。 (6) In the image comparison device described in (1) to (5) above, the edge extraction unit may further extract edge strength as each piece of edge information.
本発明によれば、実画像と模擬画像との間のキャリブレーション誤差、実画像におけるエッジのかすれや途切れがあっても、実画像と模擬画像との間の相違画素を精度良く抽出できる。 According to the present invention, even if there is a calibration error between an actual image and a simulated image, and blurring or interruption of an edge in the actual image, it is possible to accurately extract a different pixel between the actual image and the simulated image.
以下、本発明の実施の形態(以下実施形態という)である画像監視装置1について、図面に基づいて説明する。画像監視装置1は、所定の空間(監視空間)が撮影された画像(実画像)を、人や不審物等の前景物体が存在しないときの監視空間を模した三次元モデルから生成した背景画像(模擬画像)と比較することによって、実画像における変化画素(実画像において模擬画像と相違する相違画素)を抽出する本発明に係る画像比較装置の例を含み、相違画素に基づいて人や不審物等の物体を検知して報知する。
Hereinafter, an
[画像監視装置1の構成]
図1は画像監視装置1の概略の構成を示すブロック図である。画像監視装置1は、撮影部2、通信部3、記憶部4、画像処理部5、および報知部6からなる。
[Configuration of Image Monitoring Apparatus 1]
FIG. 1 is a block diagram showing a schematic configuration of the
撮影部2は監視カメラであり、通信部3を介して画像処理部5と接続され、監視空間を所定の時間間隔で撮影して実画像を生成し、実画像を順次、画像処理部5に入力する撮影手段である。例えば、撮影部2は、監視空間であるイベント会場の一角に設置されたポールに当該監視空間を俯瞰する所定の固定視野を有して設置され、監視空間をフレーム周期1秒で撮影してカラー画像を生成する。なお、撮影部2はカラー画像の代わりにモノクロ画像を生成してもよい。
The photographing
通信部3は通信回路であり、その一端が画像処理部5に接続され、他端が撮影部2および報知部6と接続される。通信部3は、撮影部2から実画像を取得して画像処理部5に入力し、画像処理部5から入力された検知情報を報知部6に出力する。検知情報は、画像処理部5が検知した物体の種類や検知した領域等を含む情報である。
The communication unit 3 is a communication circuit, one end of which is connected to the image processing unit 5 and the other end is connected to the photographing
例えば、撮影部2および報知部6がイベント会場内の監視センターに設置され、通信部3、記憶部4および画像処理部5が遠隔地の画像解析センターに設置される場合、通信部3と撮影部2、および通信部3と報知部6をそれぞれインターネット回線にて接続し、通信部3と画像処理部5はバスで接続する構成とすることができる。その他、例えば各部を同一建屋内に設置する場合は、通信部3と撮影部2を同軸ケーブルまたはLAN(Local Area Network)で接続し、通信部3と報知部6はディスプレイケーブル、通信部3と画像処理部5はバスで接続するなど、各部の設置場所に応じた形態で適宜接続される。
For example, when the
記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。記憶部4は画像処理部5と接続されて、画像処理部5との間でこれらの情報を入出力する。
The
画像処理部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置で構成される。画像処理部5は、記憶部4からプログラムを読み出して実行することにより各種処理手段・制御手段として動作し、必要に応じて、各種データを記憶部4から読み出し、生成したデータを記憶部4に記憶させる。また、画像処理部5は、通信部3経由で撮影部2から取得した実画像から人や不審物等の物体を検知し、検知した物体に関する検知情報を生成して通信部3に出力させる。
The image processing unit 5 is configured by an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an MCU (Micro Control Unit). The image processing unit 5 operates as various processing units / control units by reading out and executing a program from the
報知部6は、液晶ディスプレイまたはCRT(Cathode Ray Tube)ディスプレイ等のディスプレイ装置であり、通信部3から入力された検知情報に含まれる物体の種類や領域等の情報を表示することによって監視員に報知する。報知部6には、さらに、注意喚起を強調するためにブザーやランプ等を含めることもできる。監視員は表示された検知情報を視認して対処の要否等を判断し、必要に応じて対処員を急行させる等の対処を行う。 The notification unit 6 is a display device such as a liquid crystal display or a CRT (Cathode Ray Tube) display, and displays information such as the type and area of the object included in the detection information input from the communication unit 3 to the monitor. Inform. The notification unit 6 can further include a buzzer, a lamp, and the like in order to emphasize the alerting. The monitor visually recognizes the displayed detection information to determine whether or not a countermeasure is necessary, and takes measures such as urgently handling the countermeasure if necessary.
なお、本実施形態においては、通信部3と画像処理部5の組に対して撮影部2が1台である画像監視装置1を例示するが、別の実施形態においては、通信部3と画像処理部5の組に対して撮影部2が2台以上接続された構成とすることもできる。その場合、通信部3は各撮影部2から実画像を時分割で受信し、画像処理部5は各撮影部からの実画像を時分割処理または並列処理する。
In the present embodiment, the
[画像監視装置1の機能]
図2は画像監視装置1の概略の機能ブロック図である。図2には専ら、通信部3、記憶部4および画像処理部5の機能が示されており、具体的には、通信部3は実画像取得手段30、検知情報出力手段31等として機能し、記憶部4は三次元モデル記憶手段40、模擬画像記憶手段(背景画像記憶手段)41、マップ記憶手段42、カメラ情報記憶手段43等として機能し、画像処理部5は、模擬画像生成手段(背景画像生成手段)50、エッジ抽出手段51、相違画素抽出手段(変化画素抽出手段)52、物体検知手段53等として機能する。
[Function of the image monitoring apparatus 1]
FIG. 2 is a schematic functional block diagram of the
実画像取得手段30は、撮影手段である撮影部2から実画像を順次取得して、取得した実画像をエッジ抽出手段51に順次出力する。
The real
三次元モデル記憶手段40は、撮影部2が撮影する監視空間を構成する複数の構成物の三次元モデルを予め記憶している。
The three-dimensional model storage means 40 stores in advance a three-dimensional model of a plurality of components that constitute a monitoring space that is imaged by the
三次元モデルは、建築設計時に作成されたIFC(Industry Foundation Classes)規格の建物情報、三次元CADデータ等あるいは事前の実計測データから取得できる。 The three-dimensional model can be acquired from building information according to the IFC (Industry Foundation Classes) standard, three-dimensional CAD data, or the like, which has been created at the time of architectural design, or from prior actual measurement data.
構成物は、例えば、壁、床、ドアなどの建築構造物、机や椅子などの什器であり、監視空間を監視する観点において当該監視空間に存在すべきとされる常設物体である。各構成物には当該構成物を識別する識別子を予め付与しておく。また、構成物が複雑な形状を有する場合などには、構成物を構成する面ごとに当該識別子を付与しておく。当該識別子は後述するエッジの識別に用いられ、以降、構造線識別子と称する。なお、構造線識別子は構成物を記述する線要素ごとに付与してもよい。 The components are, for example, building structures such as walls, floors, and doors, and furniture such as desks and chairs, and are permanent objects that should be present in the monitoring space from the viewpoint of monitoring the monitoring space. An identifier for identifying the component is assigned in advance to each component. Moreover, when the component has a complicated shape, the identifier is assigned to each surface constituting the component. The identifier is used for edge identification, which will be described later, and is hereinafter referred to as a structural line identifier. The structural line identifier may be assigned to each line element describing a constituent.
三次元モデルは、監視空間を模したXYZ座標系における各構成物の位置、姿勢、立体形状にて表される三次元座標値および各構成物の表面の色、テクスチャ、反射特性のデータを含み、これらのデータが対応する構造線識別子と紐付けて記憶されている。 The three-dimensional model includes the position, orientation, and three-dimensional shape of each component in the XYZ coordinate system that imitates the surveillance space, and the surface color, texture, and reflection characteristics of each component. These data are stored in association with the corresponding structural line identifier.
なお、三次元モデルは精密であるほど良く、例えばドアであればドア板とドアノブ、机であれば天板と脚というように色、テクスチャおよび反射特性が異なるパーツそれぞれを構成物と定義して三次元モデルを記憶させておくのが好適である。他方、壁のように大きな構成物は各面の光源からの距離の差が大きくなるため各面を構成物と定義するのが好適である。 The more accurate the 3D model, the better. For example, the door plate and door knob for a door, and the top plate and leg for a desk are defined as components with different colors, textures, and reflection characteristics. It is preferable to store the three-dimensional model. On the other hand, since a large structure such as a wall has a large difference in distance from the light source of each surface, it is preferable to define each surface as a structure.
また、三次元モデル記憶手段40はさらに当該監視空間の照明モデルも予め記憶している。照明モデルは、監視空間を照明する1以上の光源について、監視空間を模したXYZ座標系における当該光源の位置および当該光源の配光、色温度などで表される照明特性を含む。光源は人工照明や太陽等である。各光源には当該光源を識別する光源番号を予め付与され、位置および照明特性のデータが対応する光源番号と紐付けて記憶されている。照明モデルは、各光源の点消灯状態を設定し、点灯状態が設定された光源の出力を照明特性に演算することにより、監視空間に対する複数の照明条件を模擬できる。 Further, the three-dimensional model storage means 40 further stores an illumination model of the monitoring space in advance. The illumination model includes, for one or more light sources that illuminate the monitoring space, illumination characteristics represented by the position of the light source in the XYZ coordinate system simulating the monitoring space, the light distribution of the light source, the color temperature, and the like. The light source is artificial lighting or the sun. Each light source is preliminarily assigned a light source number for identifying the light source, and position and illumination characteristic data are stored in association with the corresponding light source number. The illumination model can simulate a plurality of illumination conditions for the monitoring space by setting the light-off state of each light source and calculating the output of the light source in which the light-on state is set to illumination characteristics.
すなわち、三次元モデル記憶手段40は、撮影部2が撮影対象としている所定の空間を構成する複数の構成物それぞれの三次元座標値と各構成物の色、テクスチャ、反射特性、および該空間を照明する光源の照明特性を含んだ環境モデルを記憶している。
That is, the three-dimensional model storage means 40 stores the three-dimensional coordinate values of each of the plurality of constituents constituting the predetermined space that is the subject of photographing by the photographing
カメラ情報記憶手段43は監視空間を模したXYZ座標系における撮影部2のカメラパラメータを予め記憶している。カメラパラメータは外部パラメータと内部パラメータからなる。外部パラメータはXYZ座標系における撮影部2の位置姿勢である。内部パラメータは撮影部2の焦点距離、中心座標、歪係数などである。カメラパラメータは事前のキャリブレーションによって計測され、カメラ情報記憶手段43に記憶される。このカメラパラメータをピンホールカメラモデルに適用することによってXYZ座標系の座標を撮影部2の撮影面を表すxy座標系に変換できる。
The camera
模擬画像生成手段50は、三次元モデル記憶手段40から三次元モデル、照明モデルを読み出し、カメラ情報記憶手段43からカメラパラメータを読み出す。そして、カメラパラメータにより求まる撮影部2の撮影面に、照明条件に対応して三次元モデルをレンダリングすることによって、監視空間の背景画像を模擬画像として仮想的に生成し、生成した背景画像を模擬画像記憶手段41に記憶させる。本実施形態では、模擬画像生成手段50は、実画像取得手段30が実画像を取得するタイミングに同期して模擬画像を生成する。
The simulated image generation means 50 reads the 3D model and the illumination model from the 3D model storage means 40 and reads the camera parameters from the camera information storage means 43. Then, a background image of the monitoring space is virtually generated as a simulated image by rendering a three-dimensional model corresponding to the illumination condition on the imaging surface of the
具体的には、まず模擬画像生成手段50は、カメラパラメータからXYZ座標系における撮影部2の撮影面を導出する。次に模擬画像生成手段50は、照明モデルに記憶された位置および照明特性に従った光線データを生成し、光線データの有無や出力を各照明条件に合わせて調整する。続いて模擬画像生成手段50は、構成物での反射による光線データの色や出力の変化を構成物の色、テクスチャ、反射特性に従って調整する。そして模擬画像生成手段50は光源から撮影面に到達する直接光、反射光の光線データを撮影面の各画素値に設定して背景画像を生成する。
Specifically, first, the simulated image generation means 50 derives the imaging surface of the
また、模擬画像生成手段50は、撮影部2の撮影面に設定する画素値に、光線の反射元である構成物またはその面の構造線識別子を対応付けて模擬画像記憶手段41に記憶させる。
Further, the simulated
模擬画像記憶手段41は、模擬画像生成手段50が生成した背景画像とその画素に対応付けられた構造線識別子とを記憶している。
The simulated
エッジ抽出手段51は、実画像および模擬画像のそれぞれから、各画素におけるエッジ方向を少なくとも含むエッジ情報を抽出する。つまり、エッジ抽出手段51は実画像取得手段30から入力された実画像にエッジオペレータを適用して各画素のエッジ情報(実エッジ情報)を抽出し、抽出した実エッジ情報を相違画素抽出手段52に出力する。また、エッジ抽出手段51は、模擬画像記憶手段41から模擬画像を読み出し、読み出した模擬画像にエッジオペレータを適用して各画素のエッジ画像(模擬エッジ情報)を生成し、抽出した模擬エッジ情報を相違画素抽出手段52に出力する。
The edge extraction means 51 extracts edge information including at least the edge direction of each pixel from each of the actual image and the simulated image. That is, the
本実施形態では、エッジ抽出手段51は、実画像および模擬画像それぞれの画素ごとに、エッジ強度とエッジ方向とからなるエッジ情報を算出する。ここで、エッジ方向はエッジ強度の勾配値であり、後述する実エッジパターンおよび模擬エッジパターンの形状をその法線方向で表す情報である。例えば、エッジ方向は0度以上180度未満を値域とする無向な情報とすることができる。また、エッジ方向は0度以上360度未満を値域とする有向な情報としてもよく、この場合は、例えば、道路面にペイントされた白線の輪郭画素であればどの向きに道路面の地をなす黒いアスファルトがあるかというような、近傍の様子をさらに含めた情報とすることができる。また、エッジ方向は、法線方向を表す勾配値を接線方向に変換した値としてもよい。例えば、エッジオペレータとしてソーベルオペレータ(Sobel Operator)、ラプラシアンフィルタ(Laplacian Filter)などを用いることができる。
In the present embodiment, the
なお、後述の処理にてエッジ情報としてエッジ方向のみを用いる構成とすることもでき、この場合には、エッジ抽出手段51は、エッジ情報としてエッジ方向のみを出力すれば足りる。
Note that only the edge direction can be used as the edge information in the processing described later, and in this case, the
エッジ情報は上述のように画素ごとに求められる。つまり、物体の輪郭線などに対応する画素に限られず、基本的にはエッジオペレータの演算結果として全ての画素についてエッジ情報が算出され定義される。但し、例えば、照明状況によって白飛びや黒つぶれが生じた画像領域などでは、算出されるエッジ情報がノイズまたは信頼性の低い情報となることがある。よって、エッジ強度が閾値TE未満であるエッジ情報は除外することとしてもよい。閾値TEは実験に基づき予め定めることができる。 Edge information is obtained for each pixel as described above. That is, the edge information is calculated and defined for all pixels as a result of the edge operator calculation, not limited to the pixels corresponding to the contour line of the object. However, for example, in an image region in which whiteout or blackout occurs due to lighting conditions, the calculated edge information may be noise or information with low reliability. Thus, the edge information edge intensity is less than the threshold value T E may be be excluded. Threshold T E can be predetermined based on experimental.
このように、エッジ抽出手段51は、実画像および模擬画像のそれぞれから、各画素における実エッジ情報および模擬エッジ情報を抽出する。そして、エッジ抽出手段51が抽出するエッジ情報には少なくともエッジ方向を含み、好適にはエッジ抽出手段51が抽出するエッジ情報はエッジ方向とエッジ強度を含む。
As described above, the
各画素のエッジ情報を画像における画素配列に対応させて並べたデータはエッジ画像と称される。そこで、各画素の実エッジ情報を並べたデータを実エッジ画像、各画素の模擬エッジ情報を並べたデータを模擬エッジ画像と称することにする。 Data obtained by arranging the edge information of each pixel in correspondence with the pixel arrangement in the image is referred to as an edge image. Therefore, data in which the real edge information of each pixel is arranged is referred to as a real edge image, and data in which the simulated edge information of each pixel is arranged is referred to as a simulated edge image.
相違画素抽出手段52は、実画像の画素のうち、その近傍領域にて実画像と模擬画像とで互いに類似するエッジパターンが検出されないものを相違画素として抽出する。すなわち、実画像の各画素を注目画素として、その近傍領域において、複数の画素の模擬エッジ情報が形成する模擬エッジパターンを求め、実エッジ情報に関し当該模擬エッジパターンと所定基準以上に類似した類似パターンが検出されない注目画素を相違画素とする。実画像と模擬画像との比較を同一座標の画素のみならず当該画素を含む近傍を比較範囲として行うことで、キャリブレーション誤差があっても精度良く相違画素を抽出できる。 The different pixel extracting means 52 extracts, as a different pixel, a pixel in which a similar edge pattern is not detected between the real image and the simulated image in the vicinity of the pixels of the real image. That is, each pixel of a real image is used as a pixel of interest, and a simulated edge pattern formed by simulated edge information of a plurality of pixels is obtained in the vicinity of the pixel. A pixel of interest for which no is detected is set as a different pixel. By comparing the actual image and the simulated image not only with the pixel of the same coordinate but also the vicinity including the pixel as the comparison range, it is possible to accurately extract the different pixel even if there is a calibration error.
ここで、画素単位でエッジ情報の類似を判定すると、本来は相違画素とすべき画素であるにも拘らず、近傍領域内にエッジ情報の類似度の高い画素が現れることもしばしばである。そのため、画素単位で相違を判定すると相違画素が十分に抽出されずに、人や不審物等の前景物体を検出し損ねる場合がある。そこで、実画像と模擬画像とに同一構造線が写っている画素ならばその近傍領域にエッジ情報として表れる輪郭やテクスチャが類似することに着目し、近傍領域において類似するエッジパターンが検出されない画素を相違画素として抽出するのである。 Here, when similarity of edge information is determined in units of pixels, pixels with high similarity in edge information often appear in the neighborhood region, although they are pixels that should originally be different pixels. For this reason, if the difference is determined in units of pixels, the different pixels may not be sufficiently extracted and a foreground object such as a person or a suspicious object may not be detected. Therefore, paying attention to the fact that contours and textures appearing as edge information are similar in the neighboring area if the pixel has the same structural line in the real image and the simulated image, pixels that do not detect similar edge patterns in the neighboring area It is extracted as a different pixel.
具体的には、実画像中の各画素を注目画素に順次設定して注目画素が相違画素か否かを判定する。模擬エッジパターンは、注目画素を中心とする近傍領域において複数の連続する画素の模擬エッジ情報から形成される形状パターンである。例えば、当該模擬エッジパターンは物体の輪郭線など模擬画像における輝度境界線に対応して得られる。一方、類似パターンか否かの判定対象とされるのは実エッジパターンである。実エッジパターンは、近傍領域内の連続する画素の実エッジ情報から形成される形状パターンであり、例えば、当該実エッジパターンは実画像における輝度境界線に対応して得られる。 Specifically, each pixel in the actual image is sequentially set as the target pixel to determine whether the target pixel is a different pixel. The simulated edge pattern is a shape pattern formed from simulated edge information of a plurality of continuous pixels in the vicinity region centered on the target pixel. For example, the simulated edge pattern is obtained corresponding to a luminance boundary line in a simulated image such as an object outline. On the other hand, it is an actual edge pattern that is a target for determining whether or not it is a similar pattern. The actual edge pattern is a shape pattern formed from the actual edge information of continuous pixels in the vicinity region. For example, the actual edge pattern is obtained corresponding to the luminance boundary line in the actual image.
本実施形態では、相違画素抽出手段52は、注目画素の近傍領域にて当該注目画素と類似するエッジ情報を有する模擬画像の画素(類似画素)を探索し、類似画素の位置に対応して模擬エッジパターンを生成する。これに対応して、注目画素を含む実エッジパターンが類似パターンとなることが期待できる。よって、ここでは、類似パターンは注目画素を含む実エッジパターンであるとする。
In the present embodiment, the different
例えば、相違画素抽出手段52は、画素単位のエッジ情報の類似度SPX(画素類似度)が閾値TPX以上である画素を類似画素とする。なお、近傍領域に画素類似度SPXが閾値TPX以上の画素が複数含まれる場合は、画素類似度SPXが最も高い画素を類似画素とする。画素類似度SPXは例えば、次式で定義する。
For example, the different
ここで、SPX(・)が画素類似度であり、iは注目画素を表し、bは近傍領域内の画素を表す。また、mi,mbはそれぞれ画素i,bのエッジ強度であり、di,dbはそれぞれ画素i,bのエッジ方向であり、λはエッジ強度の差とエッジ方向の差との画素類似度への寄与を調整する調整係数、M(・)はエッジ強度の差、D(・)はエッジ方向の差である。 Here, S PX (•) is the pixel similarity, i represents a pixel of interest, and b represents a pixel in the neighborhood region. Also, m i, m b is the edge intensity of the pixel i, b respectively, d i, d b are each pixel i, the edge direction of b, lambda the pixels of the difference between the difference between the edge direction of the edge intensities An adjustment coefficient for adjusting the contribution to the similarity, M (•) is a difference in edge strength, and D (•) is a difference in edge direction.
近傍領域は、生じ得るキャリブレーション誤差の上限とエッジパターンの上限サイズとを見積もって、見積もった上限値に応じた広さに予め設定する。エッジパターンの上限サイズにはキャリブレーション誤差に回転成分が含まれても対応可能とする意義がある。例えば、キャリブレーション誤差の上限を±2画素(5×5画素の領域)、エッジパターンの上限サイズ±4画素(9×9画素の領域)と見積もった場合、近傍領域は13×13画素の領域と設定される。 The neighborhood area is preliminarily set to a size corresponding to the estimated upper limit value by estimating the upper limit of the calibration error that can occur and the upper limit size of the edge pattern. The upper limit size of the edge pattern has the significance of being able to cope with a rotation error included in the calibration error. For example, when the upper limit of the calibration error is estimated to be ± 2 pixels (5 × 5 pixel region) and the upper limit size of the edge pattern is ± 4 pixels (9 × 9 pixel region), the neighboring region is a region of 13 × 13 pixels. Is set.
ここで、注目画素を基準に固定的に13×13画素の近傍領域を設定してもよいが、本実施形態においては、注目画素を基準に5×5画素の領域を設定して当該領域内でエッジパターンの中央を決定し、決定したエッジパターンの中央を基準に9×9画素の領域を設定する、というように動的に近傍領域を設定することで処理量を削減する。 Here, a neighborhood area of 13 × 13 pixels may be fixedly set based on the target pixel. However, in the present embodiment, an area of 5 × 5 pixels is set based on the target pixel, and the region within the area is set. The center of the edge pattern is determined, and a 9 × 9 pixel region is set based on the determined center of the edge pattern, so that the processing amount is reduced.
つまり、類似画素の探索はキャリブレーション誤差の見積もりに応じた範囲で行い、エッジパターンの抽出は類似画素を基準としてエッジパターンの最大サイズの範囲で行うことにより処理負荷を減じることができる。 In other words, the processing load can be reduced by searching for similar pixels in a range corresponding to the estimation of the calibration error and extracting the edge pattern in the range of the maximum size of the edge pattern with reference to the similar pixels.
このように、相違画素抽出手段52は、近傍領域よりも狭く予め定めた大きさで注目画素の周りに設定した領域(探索領域)にて、当該注目画素の実エッジ情報と最も類似する模擬エッジ情報を有する類似画素を探索し、当該類似画素を含む模擬エッジパターンを用いて類似パターンを検出する構成とすることができる。 In this way, the different pixel extraction means 52 is a simulated edge that is most similar to the actual edge information of the target pixel in a region (search region) set around the target pixel with a predetermined size that is narrower than the neighboring region. A similar pixel having information can be searched and a similar pattern can be detected using a simulated edge pattern including the similar pixel.
なお、実画像の画素ごとに、撮影部2から当該画素に写る被写体までの距離が遠いほど狭く、撮影部2から当該画素に写る被写体までの距離が近いほど広い近傍領域を設定してもよい。
For each pixel of the real image, a wider neighborhood region may be set as the distance from the photographing
上述したように本実施形態では、類似パターンは注目画素を含む実エッジパターンであるとしている。さらにここで、類似パターンの候補となる実エッジパターンは、模擬エッジパターンと同じ画素配置パターンを有するとし、当該実エッジパターンの模擬エッジパターンに対する類似度が閾値以上であれば、当該実エッジパターンは類似パターンであるとする。 As described above, in the present embodiment, the similar pattern is an actual edge pattern including the target pixel. Further, here, the actual edge pattern that is a candidate for the similar pattern has the same pixel arrangement pattern as the simulated edge pattern, and if the similarity of the actual edge pattern to the simulated edge pattern is equal to or greater than a threshold value, the actual edge pattern Is a similar pattern.
具体的には、類似パターンの検出は、次式に従い模擬エッジパターンと実エッジパターンとの類似度(パターン類似度)SPTを算出して、パターン類似度SPTを閾値TPTと比較し、SPT≧TPTである実エッジパターンを注目画素に対応して得られた模擬エッジパターンの類似パターンと判定する。 Specifically, the detection of the similar pattern is performed by calculating the similarity (pattern similarity) S PT between the simulated edge pattern and the actual edge pattern according to the following formula, and comparing the pattern similarity S PT with the threshold value T PT . A real edge pattern satisfying S PT ≧ T PT is determined as a similar pattern of the simulated edge pattern obtained corresponding to the target pixel.
ここで、SPT(・)はパターン類似度、PBは模擬エッジパターン、PIは実エッジパターン、Tは模擬エッジパターン(または実エッジパターン)を形成する画素の数、D(・)はエッジ方向の差であり、pB i,pI iはそれぞれ模擬エッジパターン、実エッジパターンを形成する画素のうちi番目の画素のエッジ方向を表す。なお、模擬エッジパターンと実エッジパターンとは上述のように同じ画素配置パターンであり、それぞれにおけるインデックスiが同じ画素は当該画素配置パターンにて同じ位置にある。 Here, S PT (·) is the pattern similarity, P B mock edge pattern, P I is a real edge pattern, T is the number of pixels forming the simulated edge patterns (or actual edge patterns), D (·) is It is a difference in edge direction, and p B i and p I i represent the edge direction of the i-th pixel among the pixels forming the simulated edge pattern and the actual edge pattern, respectively. Note that the simulated edge pattern and the actual edge pattern are the same pixel arrangement pattern as described above, and pixels having the same index i are in the same position in the pixel arrangement pattern.
類似パターンの検出処理の結果、類似パターンが検出されない場合は、注目画素を相違画素と判定する。一方、類似パターンが検出された場合は、注目画素は背景画像の画素と同定され、模擬エッジパターンと類似パターンとの位置関係から、実画像での注目画素とこれに対応する模擬画像の画素(対応画素)との位置関係が求まる。なお、本実施形態では、類似パターンは注目画素を含み模擬エッジパターンと同じ画素配置パターンとしており、この場合、類似画素が対応画素となる。 When the similar pattern is not detected as a result of the similar pattern detection process, the target pixel is determined to be a different pixel. On the other hand, if a similar pattern is detected, the target pixel is identified as the pixel of the background image, and the target pixel in the actual image and the corresponding pixel of the simulated image (from the positional relationship between the simulated edge pattern and the similar pattern ( The positional relationship with the corresponding pixel) is obtained. In the present embodiment, the similar pattern includes the pixel of interest and has the same pixel arrangement pattern as the simulated edge pattern. In this case, the similar pixel is a corresponding pixel.
物体の輪郭線など、画像における輝度境界線に対応して実エッジパターン、模擬エッジパターンを定義する場合、そのエッジ強度は輝度境界線が存在しない画素におけるエッジ強度より基本的には大きくなることが期待できる。しかし、その場合であっても実エッジ情報では、既に述べた汚れや微小な凹凸といった種々の要因によりエッジ強度が変動しやすく、かすれや途切れが生じやすいという特徴がある。一方、模擬エッジ情報ではそのような要因が捨象され、かすれや途切れが生じにくいという特徴がある。この差異のため、パターン類似度SPTをエッジ強度成分を含めて定義すると不安定な尺度となる。一方、形状の特徴はエッジ方向で表すことができる。そこで、上式に示したように、エッジ方向の差に応じたパターン類似度SPTを用いている。 When an actual edge pattern or a simulated edge pattern is defined corresponding to a luminance boundary line in an image, such as an object outline, the edge strength may be basically higher than the edge strength in a pixel that does not have a luminance boundary line. I can expect. However, even in such a case, the actual edge information is characterized in that the edge strength is likely to fluctuate due to various factors such as the dirt and minute irregularities already described, and blurring and interruptions are likely to occur. On the other hand, simulated edge information is characterized in that such factors are discarded and blurring and interruptions are unlikely to occur. Because of this difference, defining the pattern similarity SPT including the edge strength component is an unstable measure. On the other hand, the feature of the shape can be expressed by the edge direction. Therefore, as shown in the above equation, the pattern similarity S PT corresponding to the difference in edge direction is used.
また、当該特徴ゆえに、類似パターン検出に用いるリファレンスのエッジパターンを模擬エッジ情報から生成することによって、かすれや途切れの影響を受けにくい類似パターンの検出を可能にする。 Also, because of this feature, by generating a reference edge pattern used for detecting a similar pattern from simulated edge information, it is possible to detect a similar pattern that is less susceptible to blurring and interruptions.
また、エッジ方向についても、それが大きく変化する輝度境界線は別々の物体の輪郭線が組み合わさったものである可能性が高くなり、それら物体の位置関係の変化やレンダリングにおける視線方向のわずかな差などにより、パターン類似度SPTが影響を受けることが起こり得る。よって、輝度境界線に対応する模擬エッジパターンを構成する連続画素は、模擬エッジ情報中のエッジ方向が類似する範囲にするのがよい。 Also for the edge direction, it is highly likely that the luminance boundary line that greatly changes is a combination of the contour lines of different objects, and there is a slight change in the positional relationship of these objects and a slight change in the line-of-sight direction during rendering. The pattern similarity SPT may be affected by a difference or the like. Therefore, it is preferable that the continuous pixels constituting the simulated edge pattern corresponding to the luminance boundary line have a range in which the edge directions in the simulated edge information are similar.
つまり、模擬エッジ情報中のエッジ方向が類似する連続画素を模擬エッジパターンとして抽出し、実エッジ画像中の注目画素の位置に当該模擬エッジパターンと類似する類似パターンが現れているか否かを判定するのがよい。 That is, continuous pixels having similar edge directions in the simulated edge information are extracted as simulated edge patterns, and it is determined whether or not a similar pattern similar to the simulated edge pattern appears at the position of the target pixel in the actual edge image. It is good.
このように、相違画素抽出手段52は、近傍領域において、模擬画像における輝度境界線に沿って並び(模擬エッジ情報が表す輝度境界線に沿って並び)、且つ模擬エッジ情報におけるエッジ方向が類似する複数の画素から形成される模擬エッジパターンを抽出し、当該模擬エッジパターンを用いて類似パターンを検出する。
As described above, the different
更には、相違画素抽出手段52は、模擬画像に含まれる構造線識別子を利用し、同一の構造線識別子が付与された画素の模擬エッジ情報から模擬エッジパターンを生成することにより、複数の構造線が入り混じった形状パターンの生成を防ぎ、誤って相違画素として抽出される可能性を減ずることができる。すなわち、相違画素抽出手段52は、近傍領域において構造線識別子が同一である複数の画素の模擬エッジ情報から形成される模擬エッジパターンを用いて類似パターンを検出することで相違画素の抽出精度を向上させることができる。
Further, the different
また、実画像中の人や不審物などの前景物体が注目画素に設定された場合は、前景物体の現れた領域が近傍領域に設定され、当該領域では背景のエッジ情報が隠れるため、近傍領域中に注目画素の実エッジ情報と類似する模擬エッジ情報がそもそも検出されないことも多く、エッジパターンの比較を行うまでもなく画素単位の比較で足りる場合もしばしばである。 In addition, when a foreground object such as a person or a suspicious object in the real image is set as the pixel of interest, the area where the foreground object appears is set as the neighborhood area, and the edge information of the background is hidden in the area. In many cases, the simulated edge information similar to the actual edge information of the pixel of interest is not detected in the first place, and it is often the case that the pixel unit comparison is sufficient without comparing the edge patterns.
そこで、相違画素抽出手段52は、エッジパターンの比較の前に、画素類似度SPXを算出して閾値TPXと比較し、画素類似度SPXが閾値TPX未満である画素(非類似画素)を相違画素と判定することにより処理負荷を減じることができる。つまり、相違画素抽出手段52は、類似画素を探索する領域(近傍領域または探索領域)内にて注目画素の実エッジ情報と類似する画素が検出されない場合に、当該注目画素を相違画素として抽出する。
Therefore, difference
また、上述のように、実画像にて前景物体が現れた領域では背景のエッジ情報が隠れるので、実画像の画素が模擬画像の画素と同定されることは起こらないことが期待されるところ、無関係な位置にある実画像の画素と模擬画像の画素との間にて偶然にエッジ情報が類似して、本来、類似画素や対応画素とすべきではない画素を類似画素や対応画素としてしまう可能性は上昇する。そこで、相違画素抽出手段52は、過去の対応画素の情報をマップ記憶手段42に記憶させておき、これを再利用することで対応画素の特定の精度向上、および相違画素の抽出精度の向上を図る。
In addition, as described above, the edge information of the background is hidden in the region where the foreground object appears in the real image, so that it is expected that the pixel of the real image will not be identified as the pixel of the simulated image. The edge information between a real image pixel and a simulated image pixel at an irrelevant position is coincidentally coincidentally, and a pixel that should not be a similar pixel or a corresponding pixel can be a similar pixel or a corresponding pixel. Sex goes up. Therefore, the different
マップ記憶手段42は、実画像の画素と、模擬画像において当該画素に対応する対応画素との位置関係を記憶する。例えば、実画像の画素ごとに、対応画素の座標、または実画像の画素の座標に対する対応画素の相対座標が記憶される。 The map storage means 42 stores the positional relationship between the pixels of the actual image and the corresponding pixels corresponding to the pixel in the simulated image. For example, for each pixel of the real image, the coordinates of the corresponding pixel or the relative coordinates of the corresponding pixel with respect to the coordinates of the pixel of the real image are stored.
具体的には、実エッジ画像において模擬エッジパターンに対する類似パターンが検出されたときの注目画素と、当該模擬エッジパターンを形成する画素であり注目画素との画素類似度が最も高い画素との位置関係をマップ記憶手段42に記憶させることができる。 Specifically, the positional relationship between the target pixel when a similar pattern to the simulated edge pattern is detected in the actual edge image and the pixel that forms the simulated edge pattern and has the highest pixel similarity with the target pixel Can be stored in the map storage means 42.
マップ記憶手段42に記憶される当該位置関係は実画像と模擬画像との画素単位のズレ量を表す。換言すると当該位置関係は実画像と模擬画像とのキャリブレーション誤差に相当する。 The positional relationship stored in the map storage means 42 represents the amount of deviation in pixel units between the actual image and the simulated image. In other words, the positional relationship corresponds to a calibration error between the actual image and the simulated image.
上述のように、相違画素抽出手段52が当該位置関係をマップ記憶手段42に記憶させる構成とすることができる。一方、相違画素抽出手段52はこれらの位置関係を読み出して利用する。つまり、相違画素抽出手段52は、撮影部2が取得する時系列の実画像を順次、模擬画像と比較する処理において、類似パターンが検出された注目画素を模擬画像の画素と同定して、それら同一とされた画素同士の位置関係をマップ記憶手段42に記憶させ、新たに比較する実画像における注目画素のうちマップ記憶手段42に位置関係が記憶されているものについては、当該位置関係をなす模擬画像の画素を含む模擬エッジパターンを用いて類似パターンを検出する。
As described above, the different
以下、図3〜図6を用いて、画像監視装置1による処理の一例を具体的に説明する。図3は実エッジ画像および模擬エッジ画像の例を示す模式図であり、図3(a)に示す実エッジ画像100には実エッジパターンの例として実エッジ101,102を示している。具体的には、実エッジ101,102は実線上の画素において、有効な実エッジ情報を抽出されている。一方、点線で示す部分の画素では有効な実エッジ情報が抽出されず、実エッジ101の一部はかすれている。図3(a)には実エッジ画像100として、注目画素110を中心とする13×13画素の近傍領域を示している。
Hereinafter, an example of processing performed by the
図3(b)に示す模擬エッジ画像200には模擬エッジパターンの例として模擬エッジ201,202を示している。具体的には、模擬エッジ201,202は実線上の画素において、有効な模擬エッジ情報を抽出されている。なお、模擬エッジ201,202にはかすれは生じていない。図3(b)には模擬エッジ画像200として、図3(a)の実エッジ画像100と撮影面での座標が同じ範囲、つまり注目画素110の近傍領域と同じ13×13画素の領域が示されている。
The
図4は、図3(b)の模擬エッジ画像200に設定する類似画素の探索領域の例を示す模式図である。模擬エッジ画像200上で注目画素210を中心に5×5画素の探索領域211を設定し、探索領域211から類似画素212が検出されている。なお、図4には、図3(b)の模擬エッジ201,202が実線で示され、図3(a)の実エッジ101,102が一点鎖線で示されている。
FIG. 4 is a schematic diagram showing an example of a similar pixel search region set in the
図5は模擬エッジパターンの抽出処理を説明するための模式図である。図5(a)の模擬エッジ画像200には、類似画素212を中心とする9×9画素のパターン抽出窓220が示されている。図5(b)は模擬画像記憶手段41に記憶されている構造線識別子の模式図であり、模擬画像300の画素に対応付けて構造線識別子を示している。模擬画像300として、実エッジ画像100および模擬エッジ画像200と同じ近傍領域を示しており、模擬エッジ201と対応する画素に構造線識別子「2」、模擬エッジ202と対応する画素に構造線識別子「1」が定義されている。
FIG. 5 is a schematic diagram for explaining the extraction process of the simulated edge pattern. In the
相違画素抽出手段52は、パターン抽出窓220内から模擬エッジパターンを求める。ここでは、模擬エッジパターンを、同一の構造線識別子が付与された画素の模擬エッジ情報から生成する例を示しており、相違画素抽出手段52は、類似画素212と同一の構造線識別子「2」が設定された画素のうちパターン抽出窓220内の画素からなるパターン310を抽出する。この構造線識別子に基づくパターン310と対応して模擬エッジ画像200から模擬エッジパターン230が抽出される。模擬エッジパターン230のデータは、当該パターンを構成する各画素のエッジ方向の情報を例えば、画素の並びに沿って配列したベクトル表現231とすることができる。
The different
図6は模擬エッジパターン230に対応して設定された実エッジパターンを示す模式図である。実エッジ画像100に示す領域130は、模擬エッジパターン230における画素配置のパターンを、パターン230における類似画素212の位置が注目画素110に一致するように平行移動させたものである。ここで示す例では、当該領域130により実エッジパターン131を生成する。実エッジパターン131のデータのベクトル表現132は、模擬エッジパターンのベクトル表現231と同様に定義される。
FIG. 6 is a schematic diagram showing an actual edge pattern set corresponding to the
相違画素抽出手段52は、ベクトル表現231の模擬エッジパターン230とベクトル表現132の実エッジパターン131とに対して(4)式、(5)式を適用してパターン類似度SPTを算出し、SPT≧TPTであれば実エッジパターン131を、注目画素に対応して得られた模擬エッジパターン230の類似パターンと判定する。
The different
ここで、類似パターン抽出に用いるリファレンスのエッジパターンの他の生成方法について図7に示す模式図を用いて述べる。 Here, another method for generating a reference edge pattern used for similar pattern extraction will be described with reference to a schematic diagram shown in FIG.
例えば、リファレンスのエッジパターンとして、構造線識別子が異なる画素を含む模擬エッジパターンを用いる構成が考えられる。図7(a)は、図3〜図6に示した実エッジ画像100、模擬エッジ画像200、模擬画像300の例に、当該構成を適用して得られた実エッジパターンの領域140を示している。領域140の画素配置パターンは、図5の類似画素212を中心とする9×9画素のパターン抽出窓220内における、構造線識別子「2」および「1」の画素からなる模擬エッジパターンの画素配置パターンと同一とされる。図5の実画像100における実エッジ101(又は注目画素110)に対する実エッジ102の位置が、模擬エッジ画像200における模擬エッジ201(又は類似画素212)に対する模擬エッジ202の位置からずれているため、実エッジ102が領域140から外れている。
For example, a configuration in which a simulated edge pattern including pixels having different structural line identifiers is used as the reference edge pattern. FIG. 7A shows a real
上述のように模擬エッジパターンをリファレンスに用いる構成には、かすれや途切れの影響を受けにくいという特長があり、複数の構造線識別子を含む模擬エッジパターンをリファレンスに用いる場合も当該特長が得られる。一方、複数の構造線識別子を含む模擬エッジパターンにおいては、構造線識別子が異なるエッジ同士の位置関係の変化などが起こることがあり、それに起因してパターン類似度SPTが低下し、相違画素の誤抽出、過剰抽出が生じ易くなる。この点で、リファレンスの模擬エッジパターンに含まれる構造線識別子の種類は少ない方がよく、上述した同一の構造線識別子の画素からなる模擬エッジパターンが好適である。 As described above, the configuration using the simulated edge pattern as a reference has a feature that the simulated edge pattern is not easily affected by blurring or interruption, and this feature can be obtained even when a simulated edge pattern including a plurality of structural line identifiers is used as a reference. On the other hand, in the simulated edge pattern comprising a plurality of structural lines identifier, may like the change in the positional relationship of the edge between the structure line identifier is different occurs, due to it reduces the pattern similarity S PT, difference pixel Misextraction and overextraction are likely to occur. In this respect, it is better that the number of the structural line identifiers included in the reference simulated edge pattern is smaller, and the simulated edge pattern including the pixels of the same structural line identifier described above is preferable.
図7(b)は、実画像100からリファレンスのエッジパターンを生成する構成の問題点を説明する模式図である。上述したように実エッジ101はかすれている。このようにかすれ等の影響で、注目画素110に対応して設定される実エッジパターンの領域140は図7(b)に示すように小さくなり、前景のエッジと偶然に一致する可能性が高まる。この点で上述したように模擬エッジパターンに基づいてリファレンスを生成する方法が好適である。
FIG. 7B is a schematic diagram for explaining the problem of the configuration for generating the reference edge pattern from the
物体検知手段53は、相違画素が監視対象の物体によるものか否かを判定し、監視対象の物体によるものと判定した場合に監視対象の物体を検知した旨を表す検知情報を生成し、生成した検知情報を検知情報出力手段31に出力する。
The
例えば、物体検知手段53は、互いの近傍(例えば8近傍)に抽出された相違画素を同一物体によるものとしてラベル付けするラベリング処理を行う。そして、ラベルごとの相違画素の実エッジ情報を抽出した相違エッジ画像と、人の形状を模した人形状モデルとのパターンマッチングを行い、一致度が所定値以上であるラベルの相違画素を人によるものと判定する。または、このパターンマッチングに代えて機械学習した識別器を用いる構成とすることもできる。この場合、物体検知手段53は、例えば上記各ラベルの外接矩形を設定し、当該外接矩形と重複を有する識別窓を設定する。そして、識別窓内の実画像を、予め人の画像特徴を学習した人識別器に入力して、人と識別された識別窓内の相違画素を人によるものと判定し、人と識別された識別窓が無かったラベルを不審物によるものと判定する。
For example, the
検知情報出力手段31は物体検知手段53から入力された検知情報を報知部6に出力する。
The detection
[画像監視装置1の動作]
図8は画像監視装置1の概略の動作のフロー図である。
[Operation of the image monitoring apparatus 1]
FIG. 8 is a schematic operation flowchart of the
通信部3は実画像取得手段30として動作し、撮影部2から実画像を順次取得する(ステップS1)。
The communication unit 3 operates as the real
画像処理部5は、実画像取得手段30から実画像を取得するごとに、模擬画像生成手段50として動作し、模擬画像を生成する(ステップS2)。これにより、実画像の撮影時刻から推定される日照状態や、撮影時刻における照明スイッチの状態などから把握される人工照明の点消灯状態に応じた模擬画像を生成することが可能である。また、撮影部2の視野が変化する場合には、それに対応した模擬画像を生成することができる。模擬画像生成手段50は生成した背景画像を模擬画像記憶手段41に記憶させる。
Each time the real image is acquired from the real
また、画像処理部5は実画像取得手段30から実画像を取得するごとに、エッジ抽出手段51として動作し、実画像から実エッジ画像を生成すると共に(ステップS3)、当該実画像の取得に対応して生成された模擬画像を模擬画像記憶手段41から読み出して当該模擬画像から模擬エッジ画像を生成する(ステップS4)。
Further, every time the real image is acquired from the real
次に、画像処理部5は相違画素抽出手段52として動作し、ステップS3にて生成された実エッジ画像と、ステップS4にて生成された模擬エッジ画像とに基づいて相違画素を抽出する(ステップS5)。
Next, the image processing unit 5 operates as the different
図9は相違画素抽出処理S5の概略のフロー図である。相違画素抽出手段52は実画像の各画素を順次、注目画素として設定する(ステップS10)。ここで、実画像と模擬画像との間にはキャリブレーション誤差が存在し得るため、実画像の注目画素が模擬画像では異なる位置の画素に対応し得る。これに関し、過去に取得された実画像に対する相違画素抽出処理にて、注目画素に対応する模擬画像の対応画素の位置がマップ記憶手段42に記憶されている可能性がある。そこで、相違画素抽出手段52は、マップ記憶手段42に対応画素の情報があるか否かを確認し(ステップS12)、当該情報が記録されていない場合には(ステップS12にて「NO」の場合)、模擬画像にて注目画素と類似するエッジ情報を有する類似画素を探索する(ステップS14)。
FIG. 9 is a schematic flowchart of the different pixel extraction process S5. The different pixel extraction means 52 sequentially sets each pixel of the actual image as a target pixel (step S10). Here, since a calibration error may exist between the actual image and the simulated image, the target pixel of the actual image may correspond to a pixel at a different position in the simulated image. In this regard, there is a possibility that the position of the corresponding pixel of the simulated image corresponding to the pixel of interest is stored in the map storage means 42 in the different pixel extraction process for the actual image acquired in the past. Therefore, the different
類似画素の探索は注目画素の近傍にて行われる。本実施形態では、注目画素を中心にしてキャリブレーション誤差の上限に応じた大きさの探索領域を設定し、当該探索領域内にて類似画素を探す。例えば、探索領域は既に述べたように5×5画素の矩形領域とする。 The search for similar pixels is performed in the vicinity of the target pixel. In the present embodiment, a search area having a size corresponding to the upper limit of the calibration error is set around the target pixel, and a similar pixel is searched for in the search area. For example, the search area is a rectangular area of 5 × 5 pixels as described above.
探索の結果、模擬画像に類似画素が見つからなかった場合(ステップS16にて「NO」の場合)、相違画素抽出手段52は注目画素を背景(模擬画像)の画素ではないとして相違画素と判定する(ステップS18)。例えば、ステップS18にて相違画素と判定される例として、注目画素が実画像に現れた輝度境界線(物体輪郭など)に位置し大きな強度のエッジをなすのに対し、探索領域の模擬画像にそれに相当するエッジが存在しない場合がある。
As a result of the search, if a similar pixel is not found in the simulated image (“NO” in step S16), the different
一方、探索の結果、模擬画像に類似画素が検出された場合(ステップS16にて「YES」の場合)、相違画素抽出手段52は模擬画像記憶手段41から構造線識別子の情報を取得し(ステップS20)、類似画素と同一の構造線識別子が付与された画素の模擬エッジ情報から模擬エッジパターンを生成する(ステップS22)。例えば、相違画素抽出手段52は、模擬エッジパターンとして、類似画素を含む複数の画素であって、模擬画像に現れた輝度境界線に沿って並び、且つ構造線識別子が共通である互いに隣接した画素群についての配置およびエッジ方向を求める。なお、構造線識別子が同一という条件に代えて、または当該条件に加えて、模擬エッジパターンをなす互いに隣接した複数の画素におけるエッジ方向の変動範囲が所定の閾値以下である、または隣接画素間でのエッジ方向の差が所定の閾値以下であるという条件を課して模擬エッジパターンを定めてもよい。閾値は90度未満とすることが好適であり、例えば45度とすることができる。
On the other hand, if a similar pixel is detected in the simulated image as a result of the search (“YES” in step S16), the different
相違画素抽出手段52は、ステップS22にて類似画素に対応して模擬エッジパターンを生成すると、次に、実エッジ画像における実エッジパターンの中に当該模擬エッジパターンに類似するものである類似パターンが存在するかを調べる(ステップS24)。本実施形態では、実エッジパターンは、模擬エッジパターンと同じ画素配置パターンを、模擬エッジパターン内の類似画素の位置が注目画素に重なるように配置したものであるとし、当該実エッジパターンに対して上記の(4)式、(5)式で定義するパターン類似度SPTを算出し、SPTが閾値TPT以上であれば当該実エッジパターンを類似パターンと判定し、SPTが閾値TPT未満であれば類似パターンはないと判定する。
When the different
類似パターンが存在すれば(ステップS24にて「YES」の場合)、相違画素抽出手段52はステップS14にて得られた類似画素をステップS10にて設定された注目画素の対応画素と判定し(ステップS26)、マップ記憶手段42に、当該注目画素に関する対応画素情報として当該対応画素の位置を記録する(ステップS28)。
If a similar pattern exists (in the case of “YES” in step S24), the different pixel extraction means 52 determines that the similar pixel obtained in step S14 is a corresponding pixel of the target pixel set in step S10 ( In step S26), the position of the corresponding pixel is recorded in the
一方、類似パターンがないと判定した場合(ステップS24にて「NO」の場合)、相違画素抽出手段52は、注目画素を相違画素であると判定する(ステップS18)。
On the other hand, when it is determined that there is no similar pattern (when “NO” in step S24), the different
このように、ステップS16にて実画像の注目画素に対し模擬画像に類似画素が見つかっても、この1画素のエッジ情報のみを以て直ちに注目画素が相違画素ではないと判断するのではなく、複数の画素からなるエッジパターンでの比較をさらに行って相違画素であるか否かを判断することにより、精度の高い相違画素検出が可能となる。 Thus, even if a similar pixel is found in the simulated image with respect to the target pixel of the real image in step S16, it is not determined immediately that the target pixel is not a different pixel by using only the edge information of this one pixel. By further comparing with an edge pattern composed of pixels and determining whether or not they are different pixels, it is possible to detect different pixels with high accuracy.
さて、上述のように対応画素情報の記録(ステップS28)を行うので、ステップS10にて設定された注目画素について対応画素情報が存在する場合がある(ステップS12にて「YES」の場合)。この場合は、相違画素抽出手段52は、対応画素情報をマップ記憶手段42から取得することで(ステップS30)、類似画素の探索に関する処理(ステップS14,S16)を省略して、エッジパターンでの比較処理(ステップS20〜S24)に進み、相違画素であるか対応画素であるかを判定する(ステップS18,S26)。これにより処理負荷の軽減、処理時間の短縮が図られる。
Since the corresponding pixel information is recorded as described above (step S28), the corresponding pixel information may exist for the target pixel set in step S10 (in the case of “YES” in step S12). In this case, the different
ちなみに、この場合は、対応画素に対応して模擬エッジパターンが生成される。すなわち、相違画素抽出手段52は模擬画像記憶手段41から構造線識別子の情報を取得し(ステップS20)、対応画素と同一の構造線識別子が付与された画素の模擬エッジ情報から模擬エッジパターンを生成する(ステップS22)。
Incidentally, in this case, a simulated edge pattern is generated corresponding to the corresponding pixel. That is, the different
以上の処理S10〜S30を実画像の各画素について繰り返し(ステップS32にて「NO」の場合)、実画像の全画素について処理が終わると(ステップS32にて「YES」の場合)、相違画素抽出手段52は図8のステップS6に処理を進める。 The above processing S10 to S30 is repeated for each pixel of the real image (in the case of “NO” in step S32), and when the processing is completed for all the pixels in the real image (in the case of “YES” in step S32), the different pixels The extraction means 52 advances the process to step S6 in FIG.
画像処理部5はステップS5にて相違画素が抽出された場合には(ステップS6にて「YES」の場合)、物体検知手段53として動作し、当該相違画素が監視対象の物体によるものか否かを判定する物体認識処理を行う(ステップS7)。そして、監視対象の物体によるものと判定した場合には、監視対象の物体を検知した旨を表す検知情報を生成し、生成した検知情報を検知情報出力手段31に出力する。
When a different pixel is extracted in step S5 (in the case of “YES” in step S6), the image processing unit 5 operates as the
通信部3は物体検知手段53からの検知情報を受けて検知情報出力手段31として動作し、当該検知情報を報知部6に出力する(ステップS8)。
The communication unit 3 receives the detection information from the
画像監視装置1は実画像を取得するごとに上述のステップS1〜S8の処理を繰り返す。なお、ステップS5にて相違画素が抽出されなかった場合には(ステップS6にて「NO」の場合)、ステップS7,S8は省略して次の実画像の処理に移る。
The
[変形例]
(1)上述の実施形態では、前景物体が存在しないときの監視空間を模した三次元モデルから生成した模擬画像、すなわち背景画像の模擬画像を実画像と比較する例を示したが、模擬画像はこれに限らない。例えば、模擬画像は、消火器などの監視対象物のモデルを含めた三次元モデルから生成したものとしてもよい。本発明に係る画像比較装置は、当該模擬画像と実画像とを比較し、相違画素に基づいて監視対象物の持ち去りや移動を検知する用途に利用できる。
[Modification]
(1) In the above-described embodiment, the simulation image generated from the three-dimensional model imitating the monitoring space when the foreground object does not exist, that is, the simulation image of the background image is compared with the actual image. Is not limited to this. For example, the simulated image may be generated from a three-dimensional model including a model of a monitoring target such as a fire extinguisher. The image comparison apparatus according to the present invention can be used for the purpose of comparing the simulated image and the actual image and detecting the removal or movement of the monitoring target based on the different pixels.
また、模擬画像は、車両などの識別対象物の三次元モデルから生成したものとしてもよい。本発明に係る画像比較装置は、当該模擬画像と実画像とを比較し、相違画素に基づいて識別対象物を同定または検索する用途に利用できる。 The simulated image may be generated from a three-dimensional model of an identification object such as a vehicle. The image comparison apparatus according to the present invention can be used for the purpose of comparing the simulated image and the actual image, and identifying or searching for the identification object based on the different pixels.
また、模擬画像は、工場生産品などの検査対象物の三次元モデルから生成したものとしてもよい。本発明に係る画像比較装置は、当該模擬画像と実画像とを比較し、相違画素に基づいて検査対象物の傷の有無等を検査する用途に利用できる。 The simulated image may be generated from a three-dimensional model of an inspection object such as a factory-produced product. The image comparison apparatus according to the present invention can be used for the purpose of comparing the simulated image and the actual image and inspecting the presence or absence of scratches on the inspection object based on the different pixels.
(2)上述の実施形態では、実エッジパターン、模擬エッジパターンとして、物体の輪郭線など実画像、模擬画像における輝度境界線に対応して得られる形状パターンを用いて説明したが、本発明におけるエッジパターンはそのような形状パターンに限られない。エッジ情報は上述したように、物体の輪郭線などに対応する画素に限られず、基本的にはエッジオペレータの演算結果として全ての画素について得られる。よって、一般的に、エッジパターンは複数画素からなる領域におけるエッジ情報の集合と定義することができる。 (2) In the above-described embodiment, the actual edge pattern and the simulated edge pattern have been described using the shape pattern obtained corresponding to the luminance boundary line in the actual image and the simulated image, such as the outline of the object. The edge pattern is not limited to such a shape pattern. As described above, the edge information is not limited to the pixels corresponding to the contour line of the object, and is basically obtained for all the pixels as the calculation result of the edge operator. Therefore, in general, an edge pattern can be defined as a set of edge information in an area composed of a plurality of pixels.
よって、実画像における注目画素が輪郭線などを構成するものでなくても、本発明を適用することができる。 Therefore, the present invention can be applied even if the target pixel in the actual image does not constitute a contour line or the like.
(3)上述の実施形態では、模擬エッジパターンとして類似画素を通る形状パターンを生成したが、模擬エッジパターンは類似画素の近傍を通る輪郭線等の形状パターンとしてもよい。例えば、模擬エッジ画像にて類似画素の近くに当該類似画素よりも大きなエッジ強度を有する形状パターンが存在するような場合に、その類似画素の近くにて得られる形状パターンを模擬エッジパターンとする。この場合、例えば、上述の実施形態と同様、実エッジパターンとして模擬エッジパターンと同じ画素配置パターンを仮定する構成では、実エッジパターンは、注目画素と類似画素との位置関係に応じて模擬エッジパターンを平行移動して設定すればよい。つまり、実エッジパターンは注目画素を含まず、その近傍に設定され得る。 (3) In the above-described embodiment, a shape pattern that passes through similar pixels is generated as a simulated edge pattern. However, the simulated edge pattern may be a shape pattern such as a contour line that passes through the vicinity of similar pixels. For example, when a shape pattern having a larger edge strength than the similar pixel exists near the similar pixel in the simulated edge image, the shape pattern obtained near the similar pixel is set as the simulated edge pattern. In this case, for example, as in the above-described embodiment, in the configuration in which the same pixel arrangement pattern as the simulated edge pattern is assumed as the actual edge pattern, the actual edge pattern is the simulated edge pattern according to the positional relationship between the target pixel and the similar pixel. May be set by translating. That is, the actual edge pattern does not include the target pixel and can be set in the vicinity thereof.
(4)上述の実施形態では、実エッジパターンとして、模擬エッジパターンである形状パターンと同じ画素配置パターンを仮定したが、実エッジパターンは模擬エッジパターンとは独立して抽出してもよい。つまり、類似画素を起点として模擬エッジが伸びる方向に画素を連ねて模擬エッジパターンを抽出したのと同様に、注目画素を起点として実エッジが伸びる方向に画素を連ねて実エッジパターンを抽出し、当該実エッジパターンの画素におけるエッジ情報と模擬エッジパターンの画素におけるエッジ情報とを比較して当該実エッジパターンが模擬エッジパターンの類似パターンであるかを判定する構成とすることができる。 (4) In the above-described embodiment, the same pixel arrangement pattern as the shape pattern that is the simulated edge pattern is assumed as the actual edge pattern. However, the actual edge pattern may be extracted independently of the simulated edge pattern. That is, similar to extracting a simulated edge pattern by connecting pixels in the direction in which the simulated edge extends from a similar pixel, extract the actual edge pattern by connecting pixels in the direction in which the actual edge extends from the target pixel, The edge information in the pixel of the actual edge pattern and the edge information in the pixel of the simulated edge pattern may be compared to determine whether the actual edge pattern is a similar pattern of the simulated edge pattern.
(5)上述の実施形態では、撮影部2の視野は固定としているが可変であってもよい。すなわち、撮影部2が走査機構を備え撮影方向を変化させたり、ズーム機構を備え画角を変化させたりするものであってもよい。
(5) In the above-described embodiment, the field of view of the photographing
1 画像監視装置、2 撮影部、3 通信部、4 記憶部、5 画像処理部、6 報知部、30 実画像取得手段、31 検知情報出力手段、40 三次元モデル記憶手段、41 模擬画像記憶手段、42 マップ記憶手段、43 カメラ情報記憶手段、50 模擬画像生成手段、51 エッジ抽出手段、52 相違画素抽出手段、53 物体検知手段、100 実エッジ画像、101,102 実エッジ、110 注目画素、200 模擬エッジ画像、201,202 模擬エッジ。
DESCRIPTION OF
Claims (6)
前記模擬画像を記憶している模擬画像記憶手段と、
前記実画像および前記模擬画像のそれぞれから、各画素におけるエッジ方向を少なくとも含む実エッジ情報および模擬エッジ情報を抽出するエッジ抽出手段と、
前記実画像の注目画素の近傍領域において、複数の画素の前記模擬エッジ情報が形成する模擬エッジパターンを求め、前記実エッジ情報に関し当該模擬エッジパターンに所定基準以上に類似した類似パターンが検出されない前記注目画素を前記相違画素とする相違画素抽出手段と、
を備えたことを特徴とする画像比較装置。 An image comparison that compares a real image in which a predetermined space is photographed with a simulated image generated by rendering a three-dimensional model of the space, and extracts a different pixel from the simulated image in the real image A device,
Simulated image storage means for storing the simulated image;
Edge extraction means for extracting actual edge information and simulated edge information including at least an edge direction in each pixel from each of the actual image and the simulated image;
A simulated edge pattern formed by the simulated edge information of a plurality of pixels is obtained in a region near the target pixel of the actual image, and a similar pattern similar to the simulated edge pattern is not detected with respect to the actual edge information. A different pixel extracting means for setting a target pixel as the different pixel;
An image comparison apparatus comprising:
前記相違画素抽出手段は、前記構造線識別子が同一である複数の画素の前記模擬エッジ情報から形成される前記模擬エッジパターンを用いて前記類似パターンを検出すること、
を特徴とする請求項1又は請求項2に記載の画像比較装置。 The simulated image storage means stores, for each pixel of the simulated image, a structural line identifier that identifies a structural line of the space rendered on the pixel,
The different pixel extracting means detects the similar pattern using the simulated edge pattern formed from the simulated edge information of a plurality of pixels having the same structural line identifier;
The image comparison apparatus according to claim 1, wherein:
過去の比較にて前記実画像と前記模擬画像とで同一とされた画素同士の位置関係を記憶するマップ記憶手段をさらに備え、
前記相違画素抽出手段は、
前記類似パターンが検出された前記注目画素を前記模擬画像の画素と同定して前記位置関係を前記マップ記憶手段に記憶させ、
新たに比較する前記実画像における前記注目画素のうち前記マップ記憶手段に前記位置関係が記憶されているものについては、当該位置関係をなす前記模擬画像の画素を含む前記模擬エッジパターンを用いて前記類似パターンを検出すること、
を特徴とする請求項1から請求項3のいずれか1つに記載の画像比較装置。 In an image comparison device that sequentially compares a plurality of actual images with the simulated image,
Map storage means for storing a positional relationship between pixels that are identical in the actual image and the simulated image in the past comparison;
The different pixel extracting means includes
Identifying the target pixel in which the similar pattern is detected as a pixel of the simulated image and storing the positional relationship in the map storage means;
Among the target pixels in the actual image to be newly compared, for the pixel in which the positional relationship is stored in the map storage unit, the simulated edge pattern including the pixels of the simulated image that form the positional relationship is used. Detecting similar patterns,
The image comparison apparatus according to claim 1, wherein:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017067092A JP6548686B2 (en) | 2017-03-30 | 2017-03-30 | Image comparison device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017067092A JP6548686B2 (en) | 2017-03-30 | 2017-03-30 | Image comparison device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018169831A true JP2018169831A (en) | 2018-11-01 |
| JP6548686B2 JP6548686B2 (en) | 2019-07-24 |
Family
ID=64017919
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017067092A Active JP6548686B2 (en) | 2017-03-30 | 2017-03-30 | Image comparison device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6548686B2 (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114201637A (en) * | 2021-12-14 | 2022-03-18 | 平安付科技服务有限公司 | Similar picture searching method, device, equipment and storage medium |
| KR102479976B1 (en) * | 2021-11-15 | 2022-12-20 | 국방과학연구소 | Change detection apparatus and method for detecting changes between different aerial photographs |
| CN116533465A (en) * | 2023-05-05 | 2023-08-04 | 道县三湘源电子科技有限公司 | Injection molding part water gap cutting equipment and cutting method |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102516747B1 (en) | 2019-09-30 | 2023-04-03 | 주식회사 엘지화학 | Polypropylene based composite |
| JP7414540B2 (en) | 2020-01-15 | 2024-01-16 | 本田技研工業株式会社 | Probability acquisition device and probability acquisition method |
| KR20220135280A (en) | 2021-03-29 | 2022-10-07 | 주식회사 엘지화학 | Polypropylene based composite |
| KR20220135270A (en) | 2021-03-29 | 2022-10-07 | 주식회사 엘지화학 | Polypropylene based composite |
| KR20220135279A (en) | 2021-03-29 | 2022-10-07 | 주식회사 엘지화학 | Polypropylene based composite |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005149144A (en) * | 2003-11-14 | 2005-06-09 | Konica Minolta Holdings Inc | Object detection device, object detection method, and recording medium |
| JP2005228062A (en) * | 2004-02-13 | 2005-08-25 | Omron Corp | Inspection method and inspection apparatus |
| JP2016194779A (en) * | 2015-03-31 | 2016-11-17 | セコム株式会社 | Object detection device |
-
2017
- 2017-03-30 JP JP2017067092A patent/JP6548686B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005149144A (en) * | 2003-11-14 | 2005-06-09 | Konica Minolta Holdings Inc | Object detection device, object detection method, and recording medium |
| JP2005228062A (en) * | 2004-02-13 | 2005-08-25 | Omron Corp | Inspection method and inspection apparatus |
| JP2016194779A (en) * | 2015-03-31 | 2016-11-17 | セコム株式会社 | Object detection device |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102479976B1 (en) * | 2021-11-15 | 2022-12-20 | 국방과학연구소 | Change detection apparatus and method for detecting changes between different aerial photographs |
| CN114201637A (en) * | 2021-12-14 | 2022-03-18 | 平安付科技服务有限公司 | Similar picture searching method, device, equipment and storage medium |
| CN116533465A (en) * | 2023-05-05 | 2023-08-04 | 道县三湘源电子科技有限公司 | Injection molding part water gap cutting equipment and cutting method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6548686B2 (en) | 2019-07-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6548686B2 (en) | Image comparison device | |
| JP7092615B2 (en) | Shadow detector, shadow detection method, shadow detection program, learning device, learning method, and learning program | |
| CN109598794B (en) | Construction method of three-dimensional GIS dynamic model | |
| JP6352208B2 (en) | 3D model processing apparatus and camera calibration system | |
| JP4451307B2 (en) | How to classify objects in a scene | |
| JP2020021300A (en) | Fire monitoring device, fire monitoring system, and program for fire monitoring device | |
| JPWO2016199244A1 (en) | Object recognition device and object recognition system | |
| JP6240116B2 (en) | Object detection device | |
| US11037014B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
| CN110910379B (en) | Incomplete detection method and device | |
| KR101381580B1 (en) | Method and system for detecting position of vehicle in image of influenced various illumination environment | |
| CN112053397B (en) | Image processing method, device, electronic device and storage medium | |
| JP2019029935A (en) | Image processing system and control method thereof | |
| JP7092616B2 (en) | Object detection device, object detection method, and object detection program | |
| CN105787870A (en) | Graphic image splicing fusion system | |
| CN107862713A (en) | Video camera deflection for poll meeting-place detects method for early warning and module in real time | |
| JP2007130329A (en) | Appearance inspection method by image | |
| JPH06308256A (en) | Cloudy fog detecting method | |
| JP6687659B2 (en) | Area classifier | |
| JP7194534B2 (en) | Object detection device, image processing device, object detection method, image processing method, and program | |
| JP6133700B2 (en) | Image sensor | |
| JPWO2018110377A1 (en) | Video surveillance device | |
| JP6664078B2 (en) | Three-dimensional intrusion detection system and three-dimensional intrusion detection method | |
| JP6687658B2 (en) | Area classifier | |
| JP2017055242A (en) | Color correction device, color correction method and computer program for color correction |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190322 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190402 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190514 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190611 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190625 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6548686 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |