[go: up one dir, main page]

JP2018173914A - Image processing system, imaging apparatus, learning model creation method, information processing apparatus - Google Patents

Image processing system, imaging apparatus, learning model creation method, information processing apparatus Download PDF

Info

Publication number
JP2018173914A
JP2018173914A JP2017073011A JP2017073011A JP2018173914A JP 2018173914 A JP2018173914 A JP 2018173914A JP 2017073011 A JP2017073011 A JP 2017073011A JP 2017073011 A JP2017073011 A JP 2017073011A JP 2018173914 A JP2018173914 A JP 2018173914A
Authority
JP
Japan
Prior art keywords
image
abnormality
cluster
learning
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017073011A
Other languages
Japanese (ja)
Other versions
JP6905850B2 (en
Inventor
亜沙美 岡田
Asami Okada
亜沙美 岡田
二見 聡
Satoshi Futami
聡 二見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2017073011A priority Critical patent/JP6905850B2/en
Publication of JP2018173914A publication Critical patent/JP2018173914A/en
Application granted granted Critical
Publication of JP6905850B2 publication Critical patent/JP6905850B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】設置後早期に異常検出が可能になる画像処理システムを提供すること。【解決手段】撮像装置10が撮像した画像から異常検出を行う画像処理システム100であって、異なる設置場所に設置された複数の第一の撮像装置から前記画像を取得する画像取得手段31、32と、特徴が類似する前記画像をそれぞれクラスタに分類する分類手段33と、前記クラスタに分類された前記画像を学習して異常を検出する異常判定手段を前記クラスタごとに構築する学習手段34と、前記第一の撮像装置とは異なる設置場所に設置された第二の撮像装置が撮像した前記画像と類似する前記画像が分類された前記クラスタを判定し、該クラスタから構築された前記異常判定手段を決定する決定手段35と、を有する。【選択図】図2PROBLEM TO BE SOLVED: To provide an image processing system capable of detecting an abnormality at an early stage after installation. An image processing system 100 that detects an abnormality from an image captured by an image pickup device (10), and image acquisition means (31, 32) for acquiring the image from a plurality of first image pickup devices installed at different installation locations. A classification means 33 that classifies the images having similar characteristics into clusters, and a learning means 34 that learns the images classified into the clusters and constructs an abnormality determination means for detecting an abnormality for each cluster. The abnormality determination means constructed from the cluster is determined by determining the cluster in which the image similar to the image captured by the second image pickup device installed at an installation location different from the first image pickup apparatus is classified. It has a determination means 35 for determining the above. [Selection diagram] Fig. 2

Description

本発明は、画像処理システム、撮像装置、学習モデル作成方法、及び、情報処理装置に関する。   The present invention relates to an image processing system, an imaging apparatus, a learning model creation method, and an information processing apparatus.

監視カメラなどの撮像装置により映像を撮像して記録しておき、関係者が後で映像を確認して異常の有無やどのような異常があったのかを確認する監視方法が知られている。しかし、関係者としては映像を確認する必要性に気づかないと映像を確認できない場合もあり、事後的にしか映像から異常の有無を確認できなかった。また、関係者が映像を全て見ないと異常の有無を確認できない。   There is known a monitoring method in which a video is captured and recorded by an imaging device such as a monitoring camera, and a related person checks the video later to check whether there is an abnormality and what kind of abnormality has occurred. However, there are cases in which the person concerned cannot confirm the image unless he / she notices the necessity of confirming the image, and can only confirm the presence or absence of abnormality from the image after the fact. In addition, the presence or absence of an abnormality cannot be confirmed unless the person concerned sees all the images.

このため、リアルタイムに映像を解析して異常を検出する技術が考案されている(例えば、特許文献1参照。)。異常検出とは、日常起こりうる正常な状態から逸脱した現象を検出することをいう。特許文献1には、カメラが撮像した画像を収集する前に不審者判定を行い対象となる画像のみを送信することで輻輳を抑制する方法が開示されている。   For this reason, a technique for analyzing an image in real time to detect an abnormality has been devised (for example, see Patent Document 1). Abnormality detection refers to detecting a phenomenon that deviates from a normal state that can occur every day. Patent Document 1 discloses a method for suppressing congestion by performing suspicious person determination before collecting images captured by a camera and transmitting only the target image.

しかし、特許文献1は事前に登録された住人以外が検出された場合に異常であると判定する技術であり、登録内容が適切でないと異常の検出結果も正確でなくなるおそれがある。   However, Patent Document 1 is a technique for determining that an abnormality is detected when a person other than a registered resident is detected. If the registered content is not appropriate, the abnormality detection result may not be accurate.

このような不都合に対し、情報処理装置が機械学習により正常な種々の映像を学習しておき、カメラが設置された場所で撮像した画像から異常検出する技術が考案されている(例えば、特許文献2参照。)。特許文献2には、オンライン学習部で絞られた情報の中から更に学習実行者又は学習エージェントにより情報を選択させることで学習に適した情報を選別する方法が開示されている。   For such inconvenience, a technique has been devised in which an information processing apparatus learns various normal videos by machine learning and detects an abnormality from an image captured at a place where a camera is installed (for example, Patent Documents). 2). Patent Document 2 discloses a method of selecting information suitable for learning by further selecting information by a learner or learning agent from information narrowed down by an online learning unit.

特開2013−222216号公報JP 2013-222216 A 特開2016−173682号公報Japanese Patent Laid-Open No. 2006-173682

しかしながら、従来の技術では、新たに設置されたカメラが異常検出を行うには設置場所で正常な画像を学習する必要があるため、設置後すぐに異常判定を開始することが困難であるという問題があった。例えば、画像処理システムが機械学習した学習モデルを使って不審者を検出する場合、カメラが撮像するシーンに合わせた学習モデルが必要であるが、新たに設置されたカメラには学習に使用する画像データが存在しないため、学習に使用する画像が蓄積されるまでは異常判定できない。   However, with the conventional technology, it is necessary to learn a normal image at the installation location in order for the newly installed camera to detect an abnormality, so it is difficult to start abnormality determination immediately after installation. was there. For example, when a suspicious person is detected using a learning model that has been machine-learned by an image processing system, a learning model that matches the scene captured by the camera is required, but an image that is used for learning is newly installed in the camera. Since there is no data, an abnormality cannot be determined until images used for learning are accumulated.

本発明は、上記課題に鑑み、設置後早期に異常検出が可能になる画像処理システムを提供することを目的とする。   In view of the above problems, an object of the present invention is to provide an image processing system capable of detecting an abnormality early after installation.

本発明は、撮像装置が撮像した画像から異常検出を行う画像処理システムであって、異なる設置場所に設置された複数の第一の撮像装置から前記画像を取得する画像取得手段と、特徴が類似する前記画像をそれぞれクラスタに分類する分類手段と、前記クラスタに分類された前記画像を学習して異常を検出する異常判定手段を前記クラスタごとに構築する学習手段と、前記第一の撮像装置とは異なる設置場所に設置された第二の撮像装置が撮像した前記画像と類似する前記画像が分類された前記クラスタを判定し、該クラスタから構築された前記異常判定手段を決定する決定手段と、を有する。   The present invention is an image processing system that detects an abnormality from an image captured by an imaging device, and has features similar to those of an image acquisition unit that acquires the image from a plurality of first imaging devices installed at different installation locations. Classifying means for classifying the images into clusters, learning means for learning the images classified into the clusters and detecting abnormality for each cluster, learning means, and the first imaging device, Determining the cluster into which the image similar to the image captured by the second imaging device installed at a different installation location is classified, and determining means for determining the abnormality determination means constructed from the cluster; Have

本発明によれば、設置後早期に異常検出が可能になる画像処理システムを提供することができる。   According to the present invention, it is possible to provide an image processing system capable of detecting an abnormality early after installation.

機械学習による画像の学習と異常検出を説明する図の一例である。It is an example of the figure explaining the learning of the image by machine learning, and abnormality detection. 画像処理の概略を説明する図の一例である。It is an example of the figure explaining the outline of image processing. 画像処理システムのシステム構成図の一例である。1 is an example of a system configuration diagram of an image processing system. カメラ装置のハードウェア構成図の一例である。It is an example of the hardware block diagram of a camera apparatus. 情報処理装置の概略的なハードウェア構成を示したブロック図である。It is the block diagram which showed the schematic hardware constitutions of information processing apparatus. 画像処理システムが備える各機能を図示した機能ブロック図の一例である。It is an example of the functional block diagram which illustrated each function with which an image processing system is provided. クラスタリングの処理手順を示す流れ図の一例である。It is an example of the flowchart which shows the process sequence of clustering. クラスタ設定部が局所的特徴量と大域的特徴量を抽出する手順を示す流れ図を示す。The flowchart which shows the procedure in which a cluster setting part extracts a local feature-value and a global feature-value is shown. K-means法による分類を模式的に示す図である。It is a figure which shows the classification | category by a K-means method typically. クラスタリングを説明する図の一例である。It is an example of the figure explaining clustering. 分離度Rを説明する図の一例である。It is an example of the figure explaining the isolation | separation degree R. FIG. SAEの学習方法を説明する図の一例である。It is an example of the figure explaining the learning method of SAE. 画像から異常の有無を判定する学習モデルを模式的に示す図である。It is a figure which shows typically the learning model which determines the presence or absence of abnormality from an image. 図13の学習の手順をより詳細に説明する図の一例である。It is an example of the figure explaining the procedure of learning of FIG. 13 in detail. 異常判定に関する情報処理装置の機能ブロック図の一例である。It is an example of the functional block diagram of the information processing apparatus regarding abnormality determination. 既存設置場所の異常検出を模式的に説明する図の一例である。It is an example of the figure which illustrates the abnormality detection of the existing installation place typically. 新規設置場所の異常検出を模式的に説明する図の一例である。It is an example of the figure which illustrates the abnormality detection of a new installation place typically. 判定結果処理部が行う処理を模式的に説明する図の一例である。It is an example of the figure which illustrates typically the processing which a judgment result processing part performs. カメラ装置が異常を判定する場合の構成を説明する図の一例である。It is an example of the figure explaining a structure in case a camera apparatus determines abnormality.

以下、本発明を実施するため形態の一例として、画像処理システム及び画像処理システムが行う学習モデル作成方法等について図面を参照しながら説明する。   Hereinafter, as an example of an embodiment for carrying out the present invention, an image processing system and a learning model creation method performed by the image processing system will be described with reference to the drawings.

<異常検出の具体例>
本実施形態を説明するに当たって、異常検出の具体例を説明する。異常とは、日常起こりうる正常から逸脱した現象を言う。
<Specific examples of abnormality detection>
In describing this embodiment, a specific example of abnormality detection will be described. Abnormality is a phenomenon that deviates from normal that can occur on a daily basis.

図1(a)は機械学習による正常な画像6の学習を説明する図の一例である。
(1)異常を含まない大量の画像6(正常な画像6)が用意される。この画像6は動画であるものとする。異常を含まないとは、写っている内容が警報の対象とならないことをいう。正常かどうかはカメラが設置された場所と写っている対象によって異なる。例えば、歩行者が写っている画像6では歩行者が歩行する画像が正常な画像であり、壁を乗り越えたりする画像6は異常である。また、車が写っている画像6では人が乗降したり車が停止、駐車、発進したりする画像6が正常な画像6であり、ドアロックを解除する行動が写った画像6は異常である。自転車の場合も車と同様に正常と異常で異なる画像が得られる。
(2)学習部34は、ディープラーニングやSVM(サポートベクトルマシン)などの機械学習を使って正常な画像6に写っている対象の形状及び動きが正常な範囲を学習し、学習モデルを構築する。学習モデルとはこの正常な範囲を推定したものであり、入力される対象の形状及び動きが正常か否かを出力する。
(3)学習モデルの一例を説明する。例えば、歩行者が写っている画像6では、背景が静止しているのに対し歩行者が動くので学習部34は歩行者の姿勢及び移動速度等を自動で生成する。そして、この歩行者の姿勢及び移動速度等の正常な範囲を推定する。なお、学習部34にとって歩行者という教師信号等は不要であり、動くモノが歩行者(人)であるという認識は必要でない。学習部34はある形状(ここでは歩行者)の正常な行動パターン(ここでは移動速度)はこのようなものであると数値化するに過ぎない。
FIG. 1A is an example of a diagram illustrating learning of a normal image 6 by machine learning.
(1) A large amount of images 6 (normal images 6) that do not include an abnormality are prepared. This image 6 is assumed to be a moving image. “Not including an abnormality” means that the contents shown are not subject to warning. Whether it is normal or not depends on the location where the camera is installed and the subject. For example, in the image 6 in which the pedestrian is shown, the image in which the pedestrian walks is a normal image, and the image 6 that gets over the wall is abnormal. In addition, in the image 6 showing the car, the image 6 in which a person gets on and off, the car stops, parks, and starts is a normal image 6, and the image 6 that shows the action to release the door lock is abnormal. . In the case of a bicycle, images different from normal and abnormal can be obtained as in a car.
(2) The learning unit 34 uses a machine learning such as deep learning or SVM (support vector machine) to learn a range in which the shape and motion of the target in the normal image 6 are normal, and constructs a learning model. . The learning model is an estimation of this normal range, and outputs whether the shape and movement of the input target are normal.
(3) An example of a learning model will be described. For example, in the image 6 showing a pedestrian, the pedestrian moves while the background is stationary, so the learning unit 34 automatically generates the pedestrian's posture, moving speed, and the like. And normal ranges, such as this pedestrian's attitude | position and moving speed, are estimated. Note that the learning unit 34 does not need a teacher signal such as a pedestrian, and does not need to recognize that the moving object is a pedestrian (person). The learning unit 34 merely quantifies a normal behavior pattern (moving speed here) of a certain shape (here, a pedestrian) as such.

図1(b)は識別装置5が行う異常判定を説明する図の一例である。
(4)異常な画像6として人が壁を乗り越える画像6が撮像される。人が壁を乗り越えることは少なく正常な画像6に含まれていない。
(5)識別装置5は(3)で作成した学習モデルと比較することで異常判定を行う。
(6)例えば、人の姿勢の一致度が20%、移動速度の一致度が60%のように判定される。正常な画像6との一致度が低い場合、識別装置5は異常の可能性が高いと判定する。
FIG. 1B is an example of a diagram illustrating the abnormality determination performed by the identification device 5.
(4) An image 6 in which a person gets over the wall is captured as an abnormal image 6. A person rarely gets over the wall and is not included in the normal image 6.
(5) The identification device 5 performs abnormality determination by comparing with the learning model created in (3).
(6) For example, it is determined that the degree of coincidence of human postures is 20% and the degree of coincidence of moving speeds is 60%. When the degree of coincidence with the normal image 6 is low, the identification device 5 determines that the possibility of abnormality is high.

このように、正常な大量の画像6を学習部34が学習することで、人が判定した場合と同様に画像6を異常であると判定する識別装置を構築できる。このため、本実施形態の画像処理システムは、侵入者が施設に侵入する前にリアルタイムに異常を検出して、警備員を派遣するなどの適切な対応が可能になる。   As described above, the learning unit 34 learns a large amount of normal images 6, so that it is possible to construct an identification device that determines that the image 6 is abnormal as in the case where a person makes a determination. For this reason, the image processing system according to the present embodiment can appropriately respond such as detecting an abnormality in real time before the intruder enters the facility and dispatching a guard.

しかしながら、一方で、正常な大量の画像6を学習するまでは異常の有無を判定できない。上記のように、画像6が正常かどうかはカメラが設置された場所と写っている対象等によって異なるため、他のカメラが学習に使用した正常な画像6を新規に設置されたカメラの学習にそのまま転用しても、適切な学習モデルが構築されるとは限らない。   However, on the other hand, the presence or absence of abnormality cannot be determined until a large amount of normal images 6 are learned. As described above, whether or not the image 6 is normal differs depending on the location where the camera is installed and the object that is captured, so that the normal image 6 used for learning by other cameras can be used for learning a newly installed camera. Even if diverted as it is, an appropriate learning model is not always constructed.

<本実施形態の画像処理の概略>
そこで、本実施形態の画像処理システムは、既存の多数の設置場所から収集した画像6を類似するシーンでクラスタリングして学習し、新規の設置場所の画像6とシーンが類似する学習モデルを新規の設置場所の学習モデルに使用する。既存設置場所の学習モデルを使用できるので、新規の設置場所にカメラが設置された直後から監視を開始できる。
<Outline of Image Processing of this Embodiment>
Therefore, the image processing system according to the present embodiment learns by clustering the images 6 collected from a large number of existing installation locations with similar scenes, and a new learning model whose scenes are similar to the images 6 of the new installation locations. Used for the learning model of the installation location. Since the learning model of the existing installation location can be used, monitoring can be started immediately after the camera is installed at the new installation location.

図2は、本実施形態の画像処理の概略を説明する図の一例である。以下、カメラ装置の設置前の準備フェーズと、新規のカメラ装置が撮像した画像6による異常判定フェーズに分けて説明する。   FIG. 2 is an example of a diagram for explaining the outline of the image processing of the present embodiment. The following description will be divided into a preparation phase before installation of the camera device and an abnormality determination phase based on the image 6 captured by the new camera device.

・準備フェーズ
(1)すでに、カメラ装置10の複数の既存設置場所8a、8b、8c、8d…等がある。複数ある既存設置場所8を区別する場合は符号8にアルファベットを付けて説明する(既存設置場所の数は特に問わない)。これらのカメラ装置10(第一の撮像装置の一例)が撮像した画像6が画像蓄積部32に蓄積される。画像蓄積部32には全ての既存設置場所8のカメラ装置10が撮像した画像6が蓄積される。
(2)クラスタ設定部33は蓄積された画像6を類似するシーンごとにクラスタリングする。クラスタリングにより、例えばカメラ装置10の設置場所及び写っている対象が類似している画像が同じクラスタに分類される。
(3)機械学習部1〜n
機械学習部1〜nはクラスタリングされた正常な画像6を機械学習する。図2では機械学習部1〜nがクラスタの数(n個)だけあるが、機械学習部1〜nは最小で1つあればよい。機械学習部1〜nはそれぞれ学習モデルを構築する。各学習モデルは異常判定部36にて使用される。
(4)次に、クラスタ判定部35は、新規設置場所7のカメラ装置10(第二の撮像装置の一例)が撮像する画像6が、既存設置場所8の画像6が分類されたどのクラスタに分類されるかを判定し、分類先のクラスタの学習モデルを適用すると決定する。このように、新規に設置されたカメラ装置10に適切な学習モデルを設置された直後から決定できる。
Preparation phase (1) There are already a plurality of existing installation locations 8a, 8b, 8c, 8d. When distinguishing a plurality of existing installation locations 8, an explanation will be given by adding an alphabetical character to the reference numeral 8 (the number of existing installation locations is not particularly limited). An image 6 captured by these camera devices 10 (an example of a first imaging device) is stored in the image storage unit 32. The image storage unit 32 stores the images 6 captured by the camera devices 10 at all the existing installation locations 8.
(2) The cluster setting unit 33 clusters the stored images 6 for each similar scene. By clustering, for example, images where the installation location of the camera device 10 and the captured object are similar are classified into the same cluster.
(3) Machine learning units 1 to n
The machine learning units 1 to n perform machine learning on the clustered normal images 6. In FIG. 2, there are as many machine learning units 1 to n as the number of clusters (n), but it is sufficient that there is at least one machine learning unit 1 to n. Each of the machine learning units 1 to n constructs a learning model. Each learning model is used in the abnormality determination unit 36.
(4) Next, the cluster determination unit 35 selects the cluster in which the image 6 captured by the camera device 10 (an example of the second imaging device) at the new installation location 7 is classified as the image 6 at the existing installation location 8. It is determined whether it is classified, and it is determined to apply the learning model of the cluster to be classified. Thus, it can be determined immediately after the appropriate learning model is installed in the newly installed camera device 10.

・異常判定フェーズ
(5)既存設置場所8のカメラ装置10に対応する異常判定部36は、学習モデルを使って画像6が正常か異常かを判定する。例えば、既存設置場所8aに適した学習モデルは、既存設置場所8aの画像6のクラスタリング結果によって自動的に決まる。図2で機械学習部1の学習モデルが既存設置場所8aと8bに提供されているのは、既存設置場所8aと8bの画像6が同じクラスタにクラスタリングされたことを表している。
(6)新規設置場所7のカメラ装置10に対応する異常判定部36も、(4)で決定された学習モデルを使って画像6が正常か異常かを判定する。
(7)判定結果処理部37は、各異常判定部36から異常の有無の判定結果を取得し、警備員の派遣の指示を行ったり、顧客に画像6を送信したりする。
Abnormality determination phase (5) The abnormality determination unit 36 corresponding to the camera device 10 at the existing installation location 8 determines whether the image 6 is normal or abnormal using the learning model. For example, a learning model suitable for the existing installation location 8a is automatically determined by the clustering result of the image 6 of the existing installation location 8a. The fact that the learning model of the machine learning unit 1 is provided to the existing installation locations 8a and 8b in FIG. 2 indicates that the images 6 of the existing installation locations 8a and 8b are clustered into the same cluster.
(6) The abnormality determination unit 36 corresponding to the camera device 10 at the new installation location 7 also determines whether the image 6 is normal or abnormal using the learning model determined in (4).
(7) The determination result processing unit 37 acquires the determination result of the presence / absence of an abnormality from each abnormality determination unit 36, instructs the dispatch of guards, or transmits the image 6 to the customer.

このように、新規に設置されたカメラ装置10の画像6が既存設置場所8の画像と類似するクラスタにクラスタリングされることで、既存設置場所8のカメラ装置10の画像6から学習された学習モデルを利用できるので、新規のカメラ装置10が設置された直後から異常の有無を判定可能になる。また、既存設置場所8についても、1つの設置場所の画像から学習された学習モデルより適切な学習モデルを作れる可能性がある。   In this way, the learning model learned from the image 6 of the camera device 10 at the existing installation location 8 is obtained by clustering the image 6 of the newly installed camera device 10 into a cluster similar to the image of the existing installation location 8. Therefore, it is possible to determine whether there is an abnormality immediately after the new camera device 10 is installed. Also, for the existing installation location 8, there is a possibility that a more appropriate learning model can be created than the learning model learned from the image of one installation location.

<用語について>
クラスタとはかたまりを意味し、本実施形態ではシーンが類似する画像の集まりである。クラスタの他、クラス、グループ、カテゴリ、などと称してもよい。
<Terminology>
A cluster means a cluster. In this embodiment, the cluster is a collection of images having similar scenes. In addition to clusters, they may be referred to as classes, groups, categories, and the like.

学習とは、人間が行っている学習能力と同様の機能をコンピュータで実現するため、データから有用な規則、ルール、知識表現、又は判定基準などを抽出することをいう。   Learning refers to extracting useful rules, rules, knowledge expressions, criteria, or the like from data in order to realize the same functions as the learning ability performed by humans with a computer.

<システム構成例>
図3は、画像処理システム100のシステム構成図の一例を示す。画像処理システム100は、ネットワークNを介して接続されたカメラ装置10と情報処理装置30とを主に有する。1つの既存設置場所8には1台以上のカメラ装置10が設置されている。「既存」とはすでに学習に十分な数の画像6が撮像されている設置場所であることをいう。また、新規設置場所7にも1台以上のカメラ装置10が設置されている。新規設置場所7とは、過去にはカメラ装置10がなく新たにカメラ装置10が設置された場所である。
<System configuration example>
FIG. 3 shows an example of a system configuration diagram of the image processing system 100. The image processing system 100 mainly includes a camera device 10 and an information processing device 30 connected via a network N. One or more camera devices 10 are installed in one existing installation location 8. “Existing” means an installation location where a sufficient number of images 6 have already been captured. One or more camera devices 10 are also installed in the new installation place 7. The new installation place 7 is a place where the camera apparatus 10 is newly installed without the camera apparatus 10 in the past.

カメラ装置10は毎秒数枚以上の画像6を撮像する撮像装置であり、いわゆる動画の撮像が可能である。既存設置場所又は新規設置場所は、主に第三者の侵入が監視されうる場所である。例えば、施設の周辺、個人邸宅の周辺、駐車場、山林、臨海地域、立ち入り禁止区域などが挙げられるがこれらに制限されるものではない。また、屋外に限られず、施設、オフィス、個人邸宅、ホテル、店舗、研究所、倉庫、工場などの屋内に設置される場合もある。   The camera device 10 is an imaging device that captures several or more images 6 per second, and can capture a so-called moving image. An existing installation site or a new installation site is a place where intrusion of a third party can be mainly monitored. Examples include, but are not limited to, facilities, personal residences, parking lots, forests, coastal areas, and restricted areas. Moreover, it is not limited to the outdoors, but may be installed indoors such as facilities, offices, private residences, hotels, stores, research laboratories, warehouses, factories, and the like.

カメラ装置10は撮像する機能だけでなく動体を検出する画像処理機能等を有していることが好ましいが、本実施形態では必須でない。カメラ装置10は、毎秒数枚以上の画像6を撮像して、監視センターに送信する。   The camera device 10 preferably has not only a function for capturing an image but also an image processing function for detecting a moving object, but is not essential in the present embodiment. The camera device 10 captures several images 6 per second and transmits them to the monitoring center.

ネットワークNは、カメラ装置10の設置場所に敷設されている電話回線、LAN、LANをインターネットに接続するプロバイダのプロバイダネットワーク、及び、回線事業者が提供する回線等により構築されている。ネットワークNが複数のLANを有する場合、ネットワークNはWANと呼ばれ、インターネットが含まれる場合がある。ネットワークNは有線又は無線のどちらで構築されてもよく、また、有線と無線が組み合わされていてもよい。また、カメラ装置10が、3G、4G、5G、LTE(Long Term Revolution)などの無線の公衆回線網に接続する場合は、有線の電話回線やLANを介さずにプロバイダネットワークに接続することができる。   The network N is constructed by a telephone line, a LAN, a provider network of a provider that connects the LAN to the Internet, a line provided by a line operator, and the like that are installed at the installation location of the camera device 10. When the network N has a plurality of LANs, the network N is called WAN and may include the Internet. The network N may be constructed by either wired or wireless, and wired and wireless may be combined. Further, when the camera apparatus 10 is connected to a wireless public line network such as 3G, 4G, 5G, LTE (Long Term Revolution), etc., it can be connected to a provider network without going through a wired telephone line or LAN. .

監視センター9には情報処理装置30が設置されている。情報処理装置30は学習モデルを構築したり、異常判定を行ったりする。異常であるとの判定結果は、画像6と共に顧客の携帯端末に送信されたり、監視員の端末に送信されたりする。顧客や監視員は異常であると判定された画像6を確認して、必要であれば警備員を設置場所に派遣したり警察に通報したりする。   An information processing device 30 is installed in the monitoring center 9. The information processing apparatus 30 constructs a learning model or performs abnormality determination. The determination result that it is abnormal is transmitted together with the image 6 to the customer's mobile terminal or transmitted to the monitor's terminal. The customer or the monitor checks the image 6 determined to be abnormal, and if necessary, dispatches a guard to the installation location or reports to the police.

情報処理装置30は、一般的なコンピュータ、PC(Personal Computer)、サーバなどとよばれる装置である。図3では説明の便宜上、一台の情報処理装置30を示したが、情報処理装置30は一台とは限らず、本実施形態で説明される機能を複数の情報処理装置30が分担して有していてもよい。   The information processing apparatus 30 is an apparatus called a general computer, a PC (Personal Computer), a server, or the like. In FIG. 3, for convenience of explanation, one information processing apparatus 30 is shown. However, the information processing apparatus 30 is not limited to one, and a plurality of information processing apparatuses 30 share the functions described in this embodiment. You may have.

<ハードウェア構成例>
<<カメラ装置のハードウェア構成例>>
図4は、カメラ装置10のハードウェア構成図の一例である。カメラ装置10は、撮像部101、画像処理IC103、ROM105、CPU106、RAM107、及び、通信装置108を有している。
<Hardware configuration example>
<< Example hardware configuration of camera device >>
FIG. 4 is an example of a hardware configuration diagram of the camera apparatus 10. The camera device 10 includes an imaging unit 101, an image processing IC 103, a ROM 105, a CPU 106, a RAM 107, and a communication device 108.

撮像部101は、レンズ、絞り、シャッター(メカ・電子)、CMOSやCCDなどの固体撮像素子、及び、メモリ等を有するカメラである。画像6は白黒でもカラーでもよい、撮像部101はCPU106からの制御により定期的に所定範囲を撮像し、画像6を画像処理IC103に送出する。画像処理IC103は、画像6に動体を検出する画像処理を施す集積回路である。   The imaging unit 101 is a camera having a lens, a diaphragm, a shutter (mechanical / electronic), a solid-state imaging device such as a CMOS or a CCD, and a memory. The image 6 may be monochrome or color. The imaging unit 101 periodically captures a predetermined range under the control of the CPU 106 and sends the image 6 to the image processing IC 103. The image processing IC 103 is an integrated circuit that performs image processing for detecting a moving object on the image 6.

CPU106は、RAM107を作業メモリにしてROM105に記憶されたプログラムを実行し、カメラ装置10の全体を制御する。すなわち、撮像部101による撮像を制御する。また、通信装置108を制御して監視センター9に画像6を送信したりする。   The CPU 106 controls the entire camera device 10 by executing a program stored in the ROM 105 using the RAM 107 as a working memory. That is, the imaging by the imaging unit 101 is controlled. Further, the communication device 108 is controlled to transmit the image 6 to the monitoring center 9.

通信装置108は、ネットワークインタフェースやイーサネット(登録商標)カードと呼ばれ、ネットワークに接続する機能を提供する。無線LANのアクセスポイントや携帯電話網の基地局に接続してもよい。   The communication device 108 is called a network interface or an Ethernet (registered trademark) card, and provides a function of connecting to a network. You may connect to the access point of a wireless LAN, or the base station of a mobile telephone network.

<<情報処理装置30のハードウェア構成例>>
図5は、情報処理装置30の概略的なハードウェア構成を示したブロック図である。情報処理装置30は、概ねパーソナル・コンピュータ、ワークステーション又はアプライアンス・サーバとして実装することができる。情報処理装置30は、CPU201と、CPU201が使用するデータの高速アクセスを可能とするメモリ202とを備える。CPU201及びメモリ202は、システム・バス203を介して、情報処理装置30の他のデバイス又はドライバ、例えば、グラフィックス・ドライバ204及びネットワーク・ドライバ(NIC:Network Interface Card)205へと接続されている。
<< Hardware configuration example of information processing apparatus 30 >>
FIG. 5 is a block diagram illustrating a schematic hardware configuration of the information processing apparatus 30. The information processing apparatus 30 can be generally implemented as a personal computer, a workstation, or an appliance server. The information processing apparatus 30 includes a CPU 201 and a memory 202 that enables high-speed access to data used by the CPU 201. The CPU 201 and the memory 202 are connected to other devices or drivers of the information processing apparatus 30, for example, a graphics driver 204 and a network driver (NIC: Network Interface Card) 205 via a system bus 203. .

LCD(表示装置)206は、グラフィックス・ドライバ204に接続されて、CPU201による処理結果をモニタする。LCD206にはタッチパネルが一体に配置されていてもよい。この場合、ユーザは操作手段として指を使って情報処理装置30を操作できる。   An LCD (display device) 206 is connected to the graphics driver 204 and monitors the processing result of the CPU 201. A touch panel may be integrally disposed on the LCD 206. In this case, the user can operate the information processing apparatus 30 using a finger as an operation means.

また、ネットワーク・ドライバ205は、トランスポート層レベル及び物理層レベルで情報処理装置30をネットワークNへと接続して、カメラ装置10等とのセッションを確立させている。   The network driver 205 connects the information processing apparatus 30 to the network N at the transport layer level and the physical layer level to establish a session with the camera apparatus 10 and the like.

システム・バス203には、更にI/Oバス・ブリッジ207が接続されている。I/Oバス・ブリッジ207の下流側には、PCIなどのI/Oバス208を介して、IDE、ATA、ATAPI、シリアルATA、SCSI、USBなどにより、HDD209などの記憶装置が接続されている。HDD209の代わりに又はHDD209と共にSSD(Solid State Drive)を有していてもよい。   An I / O bus bridge 207 is further connected to the system bus 203. On the downstream side of the I / O bus bridge 207, a storage device such as an HDD 209 is connected by an IDE, ATA, ATAPI, serial ATA, SCSI, USB, etc. via an I / O bus 208 such as PCI. . Instead of the HDD 209 or together with the HDD 209, an SSD (Solid State Drive) may be included.

HDD209は情報処理装置30の全体を制御するプログラム209pを記憶している。情報処理装置30はプログラム209pを実行することで、監視員の操作を受け付けたり学習したりする。プログラム209pは、プログラムを配信するサーバから配信される他、USBメモリや光記憶媒体などの可搬性の記憶媒体に記憶された状態で配布されてもよい。   The HDD 209 stores a program 209p for controlling the entire information processing apparatus 30. The information processing apparatus 30 executes the program 209p to accept or learn the operation of the supervisor. The program 209p may be distributed in a state of being stored in a portable storage medium such as a USB memory or an optical storage medium in addition to being distributed from a server that distributes the program.

また、I/Oバス208には、USBなどのバスを介して、キーボード及びマウス(ポインティング・デバイスと呼ばれる)などの入力装置210が接続され、オペレータによる入力及び指令を受け付けている。   An input device 210 such as a keyboard and a mouse (referred to as a pointing device) is connected to the I / O bus 208 via a bus such as a USB, and receives inputs and commands from an operator.

情報処理装置30はクラウドコンピューティングに対応していてもよい。クラウドコンピューティングとは、特定ハードウェア資源が意識されずにネットワーク上のリソースが利用される利用形態をいう。この場合、図5に示したハードウェア構成は、1つの筐体に収納されていたり一まとまりの装置として備えられていたりする必要はなく、情報処理装置30が備えていることが好ましいハード的な要素を示す。   The information processing apparatus 30 may support cloud computing. Cloud computing refers to a usage pattern in which resources on a network are used without being aware of specific hardware resources. In this case, the hardware configuration shown in FIG. 5 does not need to be housed in a single housing or provided as a single device, and is preferably provided in the information processing device 30. Indicates an element.

<画像処理システム100の機能構成例>
図6は、画像処理システム100が備える各機能を図示した機能ブロック図の一例である。なお、図6では、学習モデルの構築に関する機能を主に説明する。また、各設置場所でカメラ装置10の機能は共通であるか、又は、異なっていても本実施形態の説明には支障がないとする。このため、図6ではカメラ装置10を1つだけ示す。
<Functional Configuration Example of Image Processing System 100>
FIG. 6 is an example of a functional block diagram illustrating each function provided in the image processing system 100. In FIG. 6, functions related to the construction of the learning model are mainly described. Further, it is assumed that the function of the camera apparatus 10 is common in each installation place or that there is no problem in the description of the present embodiment even if the functions are different. For this reason, only one camera device 10 is shown in FIG.

<<カメラ装置の機能構成>>
カメラ装置10は、画像取得部11、画像処理部12、及び通信部13を有している。これらの各機能は図4に示したCPU106がプログラムを実行してカメラ装置10のハードウェアと協働することで実現される機能又は手段である。ハード的又はソフト的に実現される機能を明確に区別する必要はなく、これらの機能の一部又は全てがICなどのハードウェア回路により実現されてもよい。
<< Functional configuration of camera device >>
The camera device 10 includes an image acquisition unit 11, an image processing unit 12, and a communication unit 13. Each of these functions is a function or means realized by the CPU 106 shown in FIG. 4 executing a program and cooperating with the hardware of the camera apparatus 10. It is not necessary to clearly distinguish functions implemented in hardware or software, and some or all of these functions may be implemented by a hardware circuit such as an IC.

また、カメラ装置10は、図4に示したROM又はRAM107により構築される記憶部19を有している。記憶部19には画像DB191が構築されている。画像DB191は、カメラ装置10が直接有していなくてもよく、カメラ装置10がアクセス可能なネットワーク上の任意の場所にあればよい。   Further, the camera device 10 has a storage unit 19 constructed by the ROM or RAM 107 shown in FIG. An image DB 191 is constructed in the storage unit 19. The image DB 191 does not have to be directly included in the camera apparatus 10 and may be in any place on the network that the camera apparatus 10 can access.

画像取得部11は、異常の有無に関係なく定期的に画像6を取得する(撮像する)。十分に短い時間間隔で撮像することで動画を撮像できる。なお、撮像間隔は必ずしも一定でなくよく、時間帯や動体検知結果等で撮像間隔を変更してもよい。画像取得部11は、図4のCPU106がプログラムを実行し撮像部101を制御すること等により実現される。   The image acquisition unit 11 periodically acquires (images) the image 6 regardless of whether there is an abnormality. Moving images can be captured by capturing images at sufficiently short time intervals. Note that the imaging interval is not necessarily constant, and the imaging interval may be changed according to a time zone, a moving object detection result, or the like. The image acquisition unit 11 is realized by the CPU 106 in FIG. 4 executing a program and controlling the imaging unit 101.

画像処理部12は、クラスタリングに有効な画像処理を行う。例えば、画像6の輝度の平均や撮像時刻から撮像時刻が日中か夜間を判定し各画像6にラベルとして添付する。あるいは、ノイズ除去、トリミング、高解像度化などの処理を行ってもよい。画像処理部12は、撮像された画像6を画像DB191に記憶する。画像DB191では古い画像6から上書きされ常に一定の新しい画像6が保持されている。画像処理部12は、図4のCPU106がプログラムを実行すること等により実現される。   The image processing unit 12 performs image processing effective for clustering. For example, it is determined whether the imaging time is daytime or nighttime from the average luminance or the imaging time of the image 6 and attached to each image 6 as a label. Alternatively, processing such as noise removal, trimming, and higher resolution may be performed. The image processing unit 12 stores the captured image 6 in the image DB 191. In the image DB 191, an old image 6 is overwritten and a constant new image 6 is always held. The image processing unit 12 is realized by the CPU 106 in FIG. 4 executing a program or the like.

通信部13は、画像DB191に記憶された画像6を情報処理装置30に送信する。異常検出のリアルタイム性を保証するため、記憶された画像6はすぐに情報処理装置30に送信することが好ましい。このため、通信部13は継続的に画像6を情報処理装置30に送信するが、一定量の画像6が蓄積されてからまとめて送信してもよい。通信部13は、図4のCPU106がプログラムを実行して通信装置108を制御すること等により実現される。   The communication unit 13 transmits the image 6 stored in the image DB 191 to the information processing apparatus 30. In order to guarantee the real-time property of abnormality detection, it is preferable to immediately transmit the stored image 6 to the information processing apparatus 30. For this reason, the communication unit 13 continuously transmits the images 6 to the information processing device 30. However, the communication unit 13 may transmit the images 6 together after a certain amount of the images 6 is accumulated. The communication unit 13 is realized by the CPU 106 in FIG. 4 executing a program and controlling the communication device 108.

<<情報処理装置の機能構成>>
情報処理装置30は、通信部31、画像蓄積部32、クラスタ設定部33、学習部34、及び、クラスタ判定部35を有している。これらの各機能は図5に示したCPU201がプログラム209pを実行して情報処理装置30のハードウェアと協働することで実現される機能又は手段である。ハード的又はソフト的に実現される機能を明確に区別する必要はなく、これらの機能の一部又は全てがICなどのハードウェア回路により実現されてもよい。
<< Functional configuration of information processing equipment >>
The information processing apparatus 30 includes a communication unit 31, an image storage unit 32, a cluster setting unit 33, a learning unit 34, and a cluster determination unit 35. These functions are functions or means realized by the CPU 201 shown in FIG. 5 executing the program 209p and cooperating with the hardware of the information processing apparatus 30. It is not necessary to clearly distinguish functions implemented in hardware or software, and some or all of these functions may be implemented by a hardware circuit such as an IC.

また、情報処理装置30は、図5に示したメモリ202又はHDD209より構築される記憶部39を有している。記憶部39には画像蓄積DB391及び学習モデルDB392が構築されている。これらDBは、情報処理装置30が直接有していなくてもよく、情報処理装置30がアクセス可能なネットワーク上の任意の場所にあればよい。   The information processing apparatus 30 includes a storage unit 39 constructed from the memory 202 or the HDD 209 illustrated in FIG. In the storage unit 39, an image accumulation DB 391 and a learning model DB 392 are constructed. These DBs do not have to be directly held by the information processing apparatus 30 and may be located at any location on the network accessible by the information processing apparatus 30.

通信部31は、カメラ装置10から画像6を受信する。通信部31は図5に示したCPU201がプログラム209pを実行してネットワーク・ドライバ205を制御すること等により実現される。   The communication unit 31 receives the image 6 from the camera device 10. The communication unit 31 is realized by the CPU 201 illustrated in FIG. 5 executing the program 209p to control the network driver 205, and the like.

画像蓄積部32は、通信部31が受信した画像6をカメラ装置10の識別情報(設置場所に1台しかカメラ装置10がない場合は設置場所の識別情報でもよい)に対応付けて画像蓄積DB391に記憶する。画像蓄積部32は図5に示したCPU201がプログラム209pを実行すること等により実現される。   The image storage unit 32 associates the image 6 received by the communication unit 31 with the identification information of the camera device 10 (or the identification information of the installation location when there is only one camera device 10 at the installation location). To remember. The image storage unit 32 is realized by the CPU 201 shown in FIG. 5 executing the program 209p.

クラスタ設定部33は、画像蓄積DB391に蓄積された画像6から特徴量を抽出し、特徴量を用いて各カメラ装置10から送信された画像6をシーンが類似したクラスタにクラスタリングする。シーンとは、画像6が撮像される広義の場面ということができる。例えば、駐車場に設置されたカメラ装置10の画像は異なる駐車場の画像6でもシーンが似ている可能性が高い。クラスタリングの際、最良のクラスタ数の決定を行う。また、日中と夜間では特徴が異なる傾向が強いため、同じカメラ装置10の画像6でも日中と夜間で別々にクラスタが分けられる可能性が高い。更に上記のラベルを使えば確実に日中と夜間で別々にクラスタにクラスタリングできる。クラスタ設定部33は図5に示したCPU201がプログラム209pを実行すること等により実現される。   The cluster setting unit 33 extracts feature amounts from the images 6 stored in the image storage DB 391, and clusters the images 6 transmitted from the respective camera devices 10 into clusters having similar scenes using the feature amounts. The scene can be said to be a broad scene where the image 6 is captured. For example, the image of the camera device 10 installed in a parking lot is likely to be similar in the image 6 of a different parking lot. When clustering, the best number of clusters is determined. In addition, since there is a strong tendency for the features to be different between daytime and nighttime, there is a high possibility that even in the image 6 of the same camera device 10, clusters will be divided separately during the daytime and nighttime. Furthermore, if the above label is used, it can be surely clustered into clusters separately during the day and at night. The cluster setting unit 33 is realized by the CPU 201 shown in FIG. 5 executing the program 209p.

学習部34は、更に機械学習部1、機械学習部2,…、機械学習部n(nは自然数)を有している。機械学習部1〜nの1〜nはクラスタリングにより形成されるクラスタの数(n個)に対応している。しかしながら、1つの機械学習部(例えば機械学習部1)が全てのクラスタの画像6を学習してもよく、機械学習部1〜nは1つでもよい。機械学習部1は学習により構築した学習モデルC1を学習モデルDB392に記憶させ、機械学習部2は学習により構築した学習モデルC2を学習モデルDB392に記憶させ、機械学習部nは学習により構築した学習モデルCnを学習モデルDB392に記憶させる。以下では、説明の便宜上、単に「学習部34」が学習モデルを構築すると説明する場合がある。学習部34は図5に示したCPU201がプログラム209pを実行すること等により実現される。   The learning unit 34 further includes a machine learning unit 1, machine learning units 2,..., A machine learning unit n (n is a natural number). 1 to n of the machine learning units 1 to n correspond to the number (n) of clusters formed by clustering. However, one machine learning unit (for example, the machine learning unit 1) may learn the images 6 of all the clusters, and there may be one machine learning unit 1 to n. The machine learning unit 1 stores the learning model C1 constructed by learning in the learning model DB 392, the machine learning unit 2 stores the learning model C2 constructed by learning in the learning model DB 392, and the machine learning unit n performs learning constructed by learning. The model Cn is stored in the learning model DB 392. Hereinafter, for convenience of explanation, there may be a case where the “learning unit 34” simply constructs a learning model. The learning unit 34 is realized by the CPU 201 illustrated in FIG. 5 executing the program 209p.

クラスタ判定部35は、クラスタ設定部33が生成したクラスタのうち新規設置場所7のカメラ装置10が撮像する画像6がクラスタリングされるクラスタを判定する。例えば、特徴量が最も近いクラスタを選択する。カメラ装置10と学習モデル(クラスタ)の対応は学習モデルDB392に登録される。カメラ装置10が日中か夜間のラベルを付さない場合でも、日中と夜間で特徴量が異なることを利用して日中と夜間のそれぞれで対応するクラスタを判定することが好ましい。なお、画像6が日中に撮像されたのか、夜間に撮像されたのかは情報処理装置30側でも判定可能である。クラスタ判定部35は図5に示したCPU201がプログラム209pを実行すること等により実現される。   The cluster determination unit 35 determines a cluster on which the image 6 captured by the camera device 10 at the new installation location 7 is clustered from the clusters generated by the cluster setting unit 33. For example, the cluster having the closest feature quantity is selected. The correspondence between the camera device 10 and the learning model (cluster) is registered in the learning model DB 392. Even when the camera apparatus 10 does not attach a label for daytime or nighttime, it is preferable to determine a cluster corresponding to each of daytime and nighttime by using the fact that the feature amount is different between daytime and nighttime. Note that whether the image 6 was captured during the day or at night can also be determined by the information processing apparatus 30 side. The cluster determination unit 35 is realized by the CPU 201 illustrated in FIG. 5 executing the program 209p.

また、クラスタ判定部35は、既存設置場所8aのカメラ装置10が撮像する画像6がクラスタリングされるクラスタを判定する。この場合も、クラスタ判定部35は日中と夜間のそれぞれで対応するクラスタを判定することが好ましい。   Further, the cluster determination unit 35 determines a cluster in which the images 6 captured by the camera device 10 at the existing installation location 8a are clustered. Also in this case, it is preferable that the cluster determination unit 35 determines a corresponding cluster in the daytime and at night.

Figure 2018173914
表1は、学習モデルDB392に格納される情報を模式的に示す。学習モデルDB392は、クラスタIDに対応付けて、学習モデル、カメラID、及び、日中/夜間の各項目を有する。クラスタIDは、最終的にクラスタリングされた各クラスタを特定する情報である。IDはIdentificationの略であり識別子や識別情報という意味である。IDは複数の対象から、ある特定の対象を一意的に区別するために用いられる名称、符号、文字列、数値又はこれらのうち1つ以上の組み合わせをいう。他のIDについても同様である。カメラIDは各カメラ装置10を特定する情報であり、学習モデルと対応付けられている。日中/夜間の項目は各カメラ装置10の日中の画像6と夜間の画像6のそれぞれがどの学習モデルと最も近いかを示す。これにより、既存設置場所8及び新規設置場所7の各カメラ装置10が撮像した画像6をどの学習モデルで異常判定すればよいか決定される。
Figure 2018173914
Table 1 schematically shows information stored in the learning model DB 392. The learning model DB 392 has items of learning model, camera ID, and daytime / nighttime in association with the cluster ID. The cluster ID is information for identifying each cluster finally clustered. ID is an abbreviation for Identification and means an identifier or identification information. ID refers to a name, a code, a character string, a numerical value, or a combination of one or more of these used to uniquely distinguish a specific target from a plurality of targets. The same applies to other IDs. The camera ID is information for specifying each camera device 10 and is associated with a learning model. The item of daytime / nighttime indicates which learning model is closest to each of the daytime image 6 and the nighttime image 6 of each camera device 10. Thereby, it is determined which learning model should be used to determine whether the image 6 captured by each camera device 10 at the existing installation location 8 and the new installation location 7 is abnormal.

<クラスタリングの必要性>
クラスタリングの必要性を説明する。まず前提として、カメラ装置10が設置される設置場所の種類は限定的であり、その場所で考えられる正常行動(歩行者等の行動パターン)も限定されるとしてよい。表2は各設置場所の正常行動の一例を示す。
<Necessity of clustering>
Explain the necessity of clustering. First, as a premise, the types of installation locations where the camera device 10 is installed are limited, and normal behavior (behavior patterns such as pedestrians) conceivable at the locations may also be limited. Table 2 shows an example of normal behavior at each installation location.

Figure 2018173914
表2に示すように、設置場所が駐車場、家の玄関、建物外周のそれぞれで正常行動は幾つかに限定される。このため、画像6をクラスタリングすることで特徴が類似した画像を集めることができ、類似した画像から学習モデルを構築することで、異常判定の精度を向上できると期待できる。
Figure 2018173914
As shown in Table 2, normal behavior is limited to several in each of the installation locations of the parking lot, the entrance of the house, and the outer periphery of the building. For this reason, it can be expected that images having similar features can be collected by clustering the images 6 and the accuracy of abnormality determination can be improved by constructing a learning model from the similar images.

<クラスタリングの処理>
次に、図7を用いてクラスタリングについて詳細に説明する。図7は、クラスタリングの処理手順を示す流れ図の一例である。以下、図7の各ステップを順番に説明する。
<Clustering process>
Next, clustering will be described in detail with reference to FIG. FIG. 7 is an example of a flowchart showing a clustering processing procedure. Hereafter, each step of FIG. 7 is demonstrated in order.

(S1)
クラスタ設定部33は各画像6からノイズを除去した背景画像を取得する。ノイズの除去には、例えば公知の平滑化フィルタを使用すればよい。
(S1)
The cluster setting unit 33 acquires a background image from which noise has been removed from each image 6. For example, a known smoothing filter may be used to remove noise.

(S2)
クラスタ設定部33は背景画像から局所的特徴量及び大域的特徴量を抽出する。局所的特徴量及び大域的特徴量について表3を用いて説明する。
(S2)
The cluster setting unit 33 extracts local feature values and global feature values from the background image. The local feature value and the global feature value will be described with reference to Table 3.

Figure 2018173914
表3は、局所的特徴量と大域的特徴量の利用目的と判定できないことがそれぞれまとめられたものである。局所的特徴量では画像6の一部(局所)の特徴が得られるが、シーンを分類することが得意でない。例えば、車が何台かあっても道路なのか駐車場なのかの特徴が得られない。大域的特徴量はベランダなのか駐車場なのかという画像全体の特徴が得られるが、駐車場と住宅のガレージを分類できない可能性がある。
Figure 2018173914
Table 3 summarizes that the purpose of use of local feature values and global feature values cannot be determined. With the local feature amount, a part (local) feature of the image 6 can be obtained, but it is not good at classifying the scene. For example, even if there are several cars, the feature of whether it is a road or a parking lot cannot be obtained. Global features can be obtained from the overall image of whether it is a veranda or a parking lot, but there is a possibility that parking and residential garages cannot be classified.

このように、局所的特徴量と大域的特徴量は補完する関係にあるため、シーンを適切に分類するには局所的特徴量と大域的特徴量の両方を抽出することが有効である。   Thus, since the local feature quantity and the global feature quantity have a complementary relationship, it is effective to extract both the local feature quantity and the global feature quantity in order to appropriately classify the scene.

図8は、クラスタ設定部33が局所的特徴量と大域的特徴量を抽出する手順を示す流れ図を示す。   FIG. 8 is a flowchart showing a procedure by which the cluster setting unit 33 extracts local feature values and global feature values.

S2-1:まず、クラスタ設定部33は局所的特徴量を検出する。本実施形態では局所的特徴量の一例としてSIFT(Scale-Invariant Feature Transform)特徴量を取得する。SIFT特徴量は、スケールスペースを使った照明変化や回転、拡大、縮小に頑強な特徴量であり、1つの画像6から128次元の複数の特徴点を取得できる。クラスタ設定部33はまずキーポイントを検出する。キーポイントは、スケールが変わっても画像6上に特徴的に現れる点である。検出には、解像度の異なるガウシアンフィルターを段階的に適用して解像度の異なる画像6を作成し、DoG(Difference of Gaussian)画像の極値を探索する。探索で得られた局所領域の中心部分がキーポイントである。   S2-1: First, the cluster setting unit 33 detects a local feature amount. In the present embodiment, a SIFT (Scale-Invariant Feature Transform) feature quantity is acquired as an example of a local feature quantity. The SIFT feature quantity is a feature quantity that is robust to illumination change, rotation, enlargement, and reduction using a scale space, and a plurality of 128-dimensional feature points can be acquired from one image 6. The cluster setting unit 33 first detects a key point. The key point is a point that appears characteristically on the image 6 even if the scale changes. For detection, an Gaussian filter with different resolutions is applied step by step to create an image 6 with different resolutions, and an extreme value of a DoG (Difference of Gaussian) image is searched. The central part of the local area obtained by the search is a key point.

S2-2:次に、クラスタ設定部33は、キーポイントの近傍に対し濃度の勾配の強さと勾配の向きを検出する(特徴を抽出する)。各キーポイントの勾配の強さと勾配がSIFT特徴量である。クラスタ設定部33は分類対象の全ての画像6についてSIFT特徴量を算出する。   S2-2: Next, the cluster setting unit 33 detects the strength of the density gradient and the direction of the gradient with respect to the vicinity of the key point (extracts features). The gradient strength and gradient of each key point are SIFT feature values. The cluster setting unit 33 calculates SIFT feature values for all the images 6 to be classified.

S2-3:次に、クラスタ設定部33は分類対象の全ての画像6について局所的特徴量を分類する。全ての画像6とは既存設置場所8の全ての画像6である。   S2-3: Next, the cluster setting unit 33 classifies the local feature amounts for all the images 6 to be classified. All the images 6 are all the images 6 of the existing installation place 8.

図9(a)はK-means法による分類を模式的に示す。図9(a)は3次元で各特徴点を示すが、実際は128次元(SIFT特徴量)×画像一枚から得られた特徴点数×画像枚数、の次元を有する。図9(a)の1つの点が1つの特徴点を表す。K-means法では、任意に与えられたクラスタ数の各クラスタに各特徴点を分類する。まず、クラスタ数kは、以下の式で算出される。
クラスタ数k=√{128次元(SIFT特徴量)×画像一枚から得られた特徴点数×画像枚数}
次に、クラスタ設定部33は、このクラスタ数のクラスタに全ての画像6を分類する。クラスタの初期の重心をランダムに与え、各特徴点を最も近い重心のクラスタに振り分け、重心を再計算し、再度、各特徴点を最も近い重心のクラスタに振り分る処理をクラスタ間の移動が無くなるまで繰り返す。図9(b)は3つのクラスタ71に分類された各特徴点を模式的に示す。
FIG. 9A schematically shows classification by the K-means method. FIG. 9A shows each feature point in three dimensions, but actually has dimensions of 128 dimensions (SIFT feature value) × number of feature points obtained from one image × number of images. One point in FIG. 9A represents one feature point. In the K-means method, each feature point is classified into each cluster having an arbitrarily given number of clusters. First, the cluster number k is calculated by the following equation.
Number of clusters k = √ {128 dimensions (SIFT feature amount) × number of feature points obtained from one image × number of images}
Next, the cluster setting unit 33 classifies all the images 6 into clusters of this number of clusters. The initial center of gravity of the cluster is randomly assigned, each feature point is assigned to the cluster with the nearest center of gravity, the center of gravity is recalculated, and the process of assigning each feature point to the cluster with the nearest center of gravity is performed again. Repeat until there is no more. FIG. 9B schematically shows each feature point classified into three clusters 71.

S2-4:次に、クラスタ設定部33は、visual
wordsを決定することで量子化する。すなわち、各クラスタの中心(重心)をvisual words72に決定する。これにより、クラスタ数であるk個のvisual wordsが特定される。図9(c)には一例としてk=3とした場合の3つのvisual words72を模式的に示す。visual words72の数はクラスタ数と同じであり、各visual words72の次元数は128次元(SIFT特徴量)×画像一枚から得られた特徴点数×画像枚数である。
S2-4: Next, the cluster setting unit 33
Quantize by determining words. That is, the center (center of gravity) of each cluster is determined as visual words 72. Thereby, k visual words which are the number of clusters are specified. FIG. 9C schematically shows three visual words 72 when k = 3 as an example. The number of visual words 72 is the same as the number of clusters, and the number of dimensions of each visual word 72 is 128 dimensions (SIFT feature amount) × number of feature points obtained from one image × number of images.

S2-5:次に、クラスタ設定部33は、visual
words72を次元とする特徴ベクトルにクラスタリング対象の全ての画像6を変換する。1つの画像6の各局所特徴量について一番近いvisual words72を検索し、そのvisual words72に投票する。これにより、1つの画像6のヒストグラムがえられる。図9(d)にヒストグラムを模式的に示す。図9(d)の横軸はvisual wordsであり、縦軸はある画像6において各visual wordsに最も近いと判定された局所的特徴(SIFT特徴量)の数である。このヒストグラムが各画像6の特徴ベクトルになる。
S2-5: Next, the cluster setting unit 33
All images 6 to be clustered are converted into feature vectors having words 72 as a dimension. The closest visual words 72 are searched for each local feature amount of one image 6 and voted for the visual words 72. Thereby, a histogram of one image 6 is obtained. FIG. 9D schematically shows a histogram. The horizontal axis of FIG. 9D is visual words, and the vertical axis is the number of local features (SIFT feature amounts) determined to be closest to each visual word in an image 6. This histogram becomes a feature vector of each image 6.

S2-6:次に、クラスタ設定部33は大域的特徴量を検出する。本実施形態では大域的特徴量の一例としてGIST特徴量を取得する。GIST特徴量は、画像6を小領域に区切り、それらの小領域に対し様々な方向及び周波数のガボールフィルターを適用してシーン情報を記述する特徴量であり、960次元の特徴を有する。GIST特徴量は1枚の画像6から1つ求められるので、ヒストグラムの作成は不要である。   S2-6: Next, the cluster setting unit 33 detects a global feature amount. In the present embodiment, a GIST feature value is acquired as an example of a global feature value. The GIST feature amount is a feature amount that describes scene information by dividing the image 6 into small regions and applying Gabor filters of various directions and frequencies to the small regions, and has 960-dimensional features. Since one GIST feature value is obtained from one image 6, it is not necessary to create a histogram.

S2-7:次に、クラスタ設定部33は、局所的特徴量と大域的特徴量を合体して最終的な特徴量を生成する。したがって、次元数はvisual wordsの数+960次元となる。   S2-7: Next, the cluster setting unit 33 combines the local feature quantity and the global feature quantity to generate a final feature quantity. Therefore, the number of dimensions is the number of visual words + 960 dimensions.

S2-8:クラスタ設定部33は特徴量を出力する。   S2-8: The cluster setting unit 33 outputs the feature amount.

(S3、S4)
次に、クラスタ設定部33は、特徴量をn個のクラスタにクラスタリングする。ここで、n個は固定された値ではなく、最良のクラスタ数が動的に決定される。
(S3, S4)
Next, the cluster setting unit 33 clusters the feature amounts into n clusters. Here, n is not a fixed value, and the best number of clusters is dynamically determined.

図10は、クラスタリングを説明する図の一例である。図10(a)はステップS2で特徴量に変換された各画像6の集合を模式的に示している。計算を容易にするため、画像6は1つのカメラ装置10に対し1枚でよい。   FIG. 10 is an example of a diagram illustrating clustering. FIG. 10A schematically shows a set of each image 6 converted into a feature amount in step S2. In order to facilitate the calculation, one image 6 is required for one camera device 10.

クラスタリングには局所的特徴量の分類に使用したK-means法を用いる他、ガウシアンミクスチャーモデルを利用したEMアルゴリズム、又は、LDA(Latent Dirichlet Allocation)等の方法を使用してもよい。なお、K-means法とEMアルゴリズムではクラスタ数を決定できない(適宜、与える必要がある)。これに対し、LDAではクラスタリングとクラスタ数を同時に決定することができる。本実施形態では、K-means法、又は、EMアルゴリズムによりクラスタリングされた例として、後述するStacked Auto Encoderを用いて最適なクラスタ数を決定する。   For clustering, in addition to the K-means method used for the classification of local features, an EM algorithm using a Gaussian mixture model or a method such as LDA (Latent Dirichlet Allocation) may be used. Note that the number of clusters cannot be determined by the K-means method and the EM algorithm (need to be given as appropriate). On the other hand, with LDA, clustering and the number of clusters can be determined simultaneously. In the present embodiment, as an example of clustering by the K-means method or the EM algorithm, the optimum number of clusters is determined using a Stacked Auto Encoder described later.

最良のクラスタ数を決定するため、クラスタ設定部33はクラスタ数iを変えてクラスタリングを行う。図10ではi=5,6,100のクラスタが模式的に示されている。クラスタ設定部33は、クラスタ数をi=5〜100としてクラスタリングを行う。図10(b)はクラスタ数をi=5、6及び100のクラスタリングの結果を模式的に示す。   In order to determine the best number of clusters, the cluster setting unit 33 performs clustering by changing the number of clusters i. In FIG. 10, clusters of i = 5, 6, 100 are schematically shown. The cluster setting unit 33 performs clustering with the number of clusters i = 5 to 100. FIG. 10B schematically shows the results of clustering with the number of clusters i = 5, 6 and 100.

クラスタ数の設定の際は、クラスタ数iを1つずつ大きくしてもよいし、クラスタ数iを例えば10ずつ大きくし分離度がよくなるクラスタ数の周辺でより小さくクラスタ数iを変えて評価してもよい。   When setting the number of clusters, the number of clusters i may be increased by one, or the number of clusters i may be increased by, for example, 10 and evaluated by changing the number of clusters i to be smaller around the number of clusters where the degree of separation is improved. May be.

クラスタ数を評価するためクラスタ判定部35はクラスタリングを行うごとに分離度Rを算出する。図11は分離度Rを説明する図の一例である。本実施例では分離度Rの算出のため一例としてSAE(Stacked Auto Encoder)を利用する。図11ではクラスタ数i=4の場合を例にして説明する。クラスタリングでそれぞれのクラスタに2500枚の画像6が分類されたとする。クラスタの画像6の一部(例えば2000枚)を学習に使用し、残り(例えば500枚)を識別に使用する。   In order to evaluate the number of clusters, the cluster determination unit 35 calculates the degree of separation R every time clustering is performed. FIG. 11 is an example of a diagram illustrating the degree of separation R. In this embodiment, SAE (Stacked Auto Encoder) is used as an example for calculating the degree of separation R. In FIG. 11, a case where the number of clusters i = 4 will be described as an example. Assume that 2500 images 6 are classified into each cluster by clustering. A part of the cluster images 6 (for example, 2000) is used for learning, and the rest (for example, 500) is used for identification.

図12はSAEの学習方法を説明する図の一例である。まず、オートエンコーダ(Auto Encoder)とは、特徴を圧縮しても元のパターンへ復元が可能な特徴表現力があるネットワークをいう。したがって、オートエンコーダは特徴を圧縮して学習することができ、学習がうまくいくと入力層のデータが圧縮されても復元できる。SAEは、オートエンコーダが組み合わされた(積み重ねられた)ネットワークである。図12(a)はSAEの一例であり、図12(b)(c)(d)はオートエンコーダの一例である。通常、中間層が2層以上あると、不適切な極小解に収束してしまい誤差逆伝播がうまくいかない(これを勾配消失問題という)。SAEではこれを2層連続して計算するのではなくて、1層ずつ積み上げていくことで勾配消失問題に陥りにくくする。SAEの学習がうまくいくとSAEは画像6を復元できる。ただし、SAEは異常画像が入力された場合は復元できないので、画像6は正常な画像のみであるとする。   FIG. 12 is an example of a diagram illustrating a SAE learning method. First, an auto encoder is a network having a feature expression capability that can be restored to the original pattern even if the features are compressed. Therefore, the auto encoder can learn by compressing the features, and if the learning is successful, it can be restored even if the data in the input layer is compressed. SAE is a network in which auto encoders are combined (stacked). 12A is an example of SAE, and FIGS. 12B, 12C, and 12D are examples of an auto encoder. Normally, if there are two or more intermediate layers, the solution converges to an inappropriate minimum solution, and error back-propagation does not work (this is called the gradient disappearance problem). In SAE, this is not calculated in two consecutive layers, but is piled up one layer at a time, making it difficult to fall into the gradient disappearance problem. If the SAE learning is successful, the SAE can restore the image 6. However, since the SAE cannot be restored when an abnormal image is input, it is assumed that the image 6 is only a normal image.

図12(a)に示すように入力層x、隠れ層y、隠れ層z、出力層sにかけて特徴(ノード)が減少することが特徴の圧縮に相当し、出力層s、隠れ層z´、隠れ層y´、入力層x´にかけてノード数が元に戻ることが元のパターンへの復元に相当する。SAEでこのようなニューラルネットワークのパラメータを学習する場合、図12(b)に示すオートエンコーダで、入力層xと隠れ層yの間のパラメータ(重み)を学習する。   As shown in FIG. 12A, the feature (node) decreases over the input layer x, the hidden layer y, the hidden layer z, and the output layer s, which corresponds to the compression of the feature, and the output layer s, the hidden layer z ′, Returning the number of nodes to the hidden layer y ′ and the input layer x ′ corresponds to restoration to the original pattern. When learning such a neural network parameter by SAE, a parameter (weight) between the input layer x and the hidden layer y is learned by the auto encoder shown in FIG.

次に、図12(a)の隠れ層yと隠れ層zのパラメータ(重み)を得るために、図12(b)のyを復元するように、図12(c)に示すオートエンコーダで隠れ層yと隠れ層zのパラメータ(重み)を学習する。次に、図12(a)の隠れ層zと出力層sのパラメータ(重み)を得るために、図12(c)のzを復元するように、図12(d)に示すオートエンコーダで隠れ層zと出力層sのパラメータ(重み)を学習する。以上で、図12(a)のSAEのパラメータ(重み)が学習される。   Next, in order to obtain the parameters (weights) of the hidden layer y and hidden layer z in FIG. 12A, the auto encoder shown in FIG. 12C hides the y in FIG. The parameters (weights) of the layer y and the hidden layer z are learned. Next, in order to obtain the parameters (weights) of the hidden layer z and the output layer s shown in FIG. 12A, the auto encoder shown in FIG. The parameters (weights) of the layer z and the output layer s are learned. Thus, the SAE parameters (weights) in FIG. 12A are learned.

図11に戻って説明する。識別用の500枚の画像6をx、SAEを関数f()で表してSAEの出力をf(x)とする。スコアSを以下で定義する。iはクラスタの番号である。スコアSは画像6の特徴量の空間におけるL2ノルム(距離)の二乗である。   Returning to FIG. The 500 images for identification 6 are represented by x, the SAE is represented by a function f (), and the SAE output is represented by f (x). Score S is defined below. i is the number of the cluster. The score S is the square of the L2 norm (distance) in the feature amount space of the image 6.

Figure 2018173914
この計算を各クラスタから抽出した1枚の画像6に対して行う。Sciは学習がうまくいくほど小さくなる。
Figure 2018173914
This calculation is performed on one image 6 extracted from each cluster. S ci becomes smaller as learning is successful.

次に、全クラスタの分離度Rを次のように定義する。   Next, the separation degree R of all clusters is defined as follows.

Figure 2018173914
学習がうまくいくこととクラスタリングがうまくいくことは相関するので、分離度Rが小さい方が好ましい。したがって、クラスタ設定部33は幾つかクラスタ数iを変えて分離度Rを算出し、分離度Rが最も小さい時のクラスタ数iでクラスタリングすると判定する。つまり、各クラスタのスコアSを合計した値が最も小さくなるようにクラスタ数を決定する
なお、SAE以外でクラスタ数を決定する方法としては、AIC(Akaike’s Information Criterion)、BIC(Bayesian Information Criterion)などがある。
Figure 2018173914
Since good learning and good clustering are correlated, it is preferable that the degree of separation R is small. Accordingly, the cluster setting unit 33 calculates the degree of separation R by changing the number of clusters i, and determines that clustering is performed with the number of clusters i when the degree of separation R is the smallest. In other words, the number of clusters is determined so that the total value of the scores S of each cluster becomes the smallest. Note that methods other than SAE for determining the number of clusters include AIC (Akaike's Information Criterion), BIC (Bayesian Information Criterion), etc. There is.

(S5)
次に、学習部34は、クラスタリングされた画像6から異常判定するための学習モデルを作成する。異常判定するため、学習部34は正常な画像6のみを学習する。
(S5)
Next, the learning unit 34 creates a learning model for determining an abnormality from the clustered image 6. In order to determine abnormality, the learning unit 34 learns only the normal image 6.

図13は画像6から異常の有無を判定する学習モデルを模式的に示す。本実施形態では一例としてディープラーニングとSVMを組み合わせた学習モデルを説明する。図13に示すように、ディープラーニングのための多層パーセプトロンの入力層301には1つの画像6が均等に分割されたパッチ領域が入力される。学習フェーズでは出力層303に画像6が正常であることを意味する値(例えば1)が入力される。多層パーセプトロンにおいて入力層301と中間層302と出力層303の重みの学習には誤差逆伝播法が用いられることが一般的である。なお、出力層303のノードの数は、画像6の特徴を適切に抽出できる数として適宜、設計される。出力層303の各ノードの出力値は動体の特徴を表す値に数値化されるが詳細は図14で説明する。   FIG. 13 schematically shows a learning model for determining the presence / absence of an abnormality from the image 6. In this embodiment, a learning model that combines deep learning and SVM will be described as an example. As shown in FIG. 13, a patch region in which one image 6 is equally divided is input to an input layer 301 of a multilayer perceptron for deep learning. In the learning phase, a value (for example, 1) indicating that the image 6 is normal is input to the output layer 303. In the multilayer perceptron, the error back propagation method is generally used for learning the weights of the input layer 301, the intermediate layer 302, and the output layer 303. Note that the number of nodes in the output layer 303 is appropriately designed as a number that can appropriately extract the features of the image 6. The output value of each node of the output layer 303 is digitized into a value representing the characteristics of the moving object. Details will be described with reference to FIG.

SVM305は本来2クラス判別を行う教師付き学習のアルゴリズムであるが、SVMは1クラスSVMとしても利用可能である。1クラスSVMでは、2クラス判別がデータの高密度領域を推定する領域判別問題に置き換えられるので、教師信号が不要になる。サポートベクトルの算出にはラグランジュの未定定数法が使用されるが詳細は省略する。図に示すように正常な特徴ベクトルの領域を特定できるため、この領域から外れるほど異常の可能性が高いと異常判定部36が判定できる。   The SVM 305 is originally a supervised learning algorithm that performs 2-class discrimination, but the SVM can also be used as a 1-class SVM. In the 1-class SVM, the 2-class discrimination is replaced with an area discrimination problem for estimating a high-density area of data, so that a teacher signal is unnecessary. Lagrange's undetermined constant method is used to calculate the support vector, but the details are omitted. Since the normal feature vector region can be identified as shown in the figure, the abnormality determination unit 36 can determine that the possibility of abnormality is high as the region deviates from this region.

なお、学習はステップS3でクラスタリングされた同じクラスタの画像6ごとに行われる。したがって、シーンごとに正常であることを学習した学習モデルが得られる。   Note that learning is performed for each image 6 of the same cluster clustered in step S3. Therefore, a learning model that learns that each scene is normal can be obtained.

図14は、図13の学習の手順をより詳細に説明する図の一例である。図14(a)は各クラスタ71の複数の画像6を模式的に示す。図14(a)のクラスタ71はいずれも駐車場の画像6が分類されるクラスタであるが、車の移動、歩行などのシーンごとにクラスタリングされている。なお、それぞれ正常行動のみの画像6である。図14(b)に示すように、学習部34は1枚の画像6をパッチ領域(縦横均等に分割)に分割し、図13に示した多層パーセプトロンの入力層301に入力する。パッチ領域に分割することで、シーンの構造を考慮する必要がなくなるという利点がある。例えば、出庫する車はどちらの方向から移動しても同じ特徴になる。図14(b)では移動中の車が写っているパッチ領域304を太枠で示した。パッチ領域ごとに特徴抽出した場合、車などが動くと、同じ車が異なる画像6の異なるパッチ領域で検出される。したがって、学習部34は抽出された特徴量により同じ車を異なる画像間で追跡することができる。   FIG. 14 is an example of a diagram for explaining the learning procedure of FIG. 13 in more detail. FIG. 14A schematically shows a plurality of images 6 of each cluster 71. Each of the clusters 71 in FIG. 14A is a cluster into which the parking lot images 6 are classified, and is clustered for each scene such as a car movement or walking. In addition, each is an image 6 of only normal behavior. As shown in FIG. 14B, the learning unit 34 divides one image 6 into patch regions (divided vertically and horizontally), and inputs it to the input layer 301 of the multilayer perceptron shown in FIG. Dividing into patch areas has the advantage that it is not necessary to consider the structure of the scene. For example, the car to be delivered has the same characteristics regardless of which direction it moves. In FIG. 14B, the patch area 304 in which the moving car is shown is indicated by a thick frame. When features are extracted for each patch area, the same car is detected in different patch areas of different images 6 when the car moves. Therefore, the learning unit 34 can track the same vehicle between different images based on the extracted feature amount.

学習部34は、多層パーセプトロンの出力層303から得られた特徴量から時刻tの画像6の各パッチ領域の特徴量を取得し、時刻t−1,t−2…などの過去の画像6の特徴量とマッチングする。これにより、車がどのパッチ領域に移動したか判定できる。例えば、1つ前の画像6(動画の1フレーム)では左端のパッチ領域にあった車が右に1パッチ領域移動したことが分かる。以上から、図14(c)に示すように、移動している車の形状(特徴量)、及び、動き(移動速度)を数値化できる。車の形状を表す特徴量はディープラーニングにより抽出される。移動速度は、nパッチ領域/1画像、nパッチ領域/1秒、nメートル/1秒、などのように扱いやすい単位で算出すればよい。このように形状(特徴量)、及び、動き(移動速度)が数値化されSVM305に入力される。異常が発生する場合は何らかの動きがあるので、動体が検出されている(移動速度がゼロより大きい)パッチ領域のみから特徴を抽出すればよい。   The learning unit 34 acquires the feature amount of each patch area of the image 6 at the time t from the feature amount obtained from the output layer 303 of the multilayer perceptron, and the past image 6 such as the times t-1, t-2,. Matches with feature quantity. Thereby, it can be determined to which patch area the vehicle has moved. For example, in the previous image 6 (one frame of the moving image), it can be seen that the car in the leftmost patch area has moved one patch area to the right. From the above, as shown in FIG. 14C, the shape (feature amount) and the movement (movement speed) of the moving car can be quantified. The feature quantity representing the shape of the car is extracted by deep learning. The moving speed may be calculated in an easy-to-handle unit such as n patch area / 1 image, n patch area / 1 second, n meter / 1 second, and the like. In this way, the shape (feature amount) and the movement (movement speed) are digitized and input to the SVM 305. If an abnormality occurs, there is some movement, so it is only necessary to extract features from the patch area where a moving object is detected (moving speed is greater than zero).

学習部34は以上のようにしてクラスタごとに全ての画像6を学習し学習モデルC1〜Cnを作成する。   The learning unit 34 learns all the images 6 for each cluster as described above, and creates learning models C1 to Cn.

<異常検出時の機能について>
学習モデルC1〜Cnが得られると、情報処理装置30は動画に対し異常判定を開始する。図15は、異常判定に関する情報処理装置30の機能ブロック図の一例である。図15の情報処理装置30は通信部31、異常判定部36(区別する場合異常判定部1〜nという)、異常判定部x及び判定結果処理部37を有する。まず、異常判定部1〜nは、それぞれ学習モデルC1〜Cnを有している。nは図7のステップS3、S4のクラスタ数である。クラスタ判定部35はそれぞれの既存設置場所8の画像6から局所的特徴量と大域的特徴量を求めることで既存設置場所8の画像6が最も近いクラスタを決定できる。クラスタと既存設置場所8(カメラID)の対応は表1に示した。既存設置場所8と学習モデルの対応付けは、異常判定の開始前に1回行えばよい。
<About functions when an abnormality is detected>
When the learning models C1 to Cn are obtained, the information processing apparatus 30 starts abnormality determination for the moving image. FIG. 15 is an example of a functional block diagram of the information processing apparatus 30 regarding abnormality determination. The information processing apparatus 30 of FIG. 15 includes a communication unit 31, an abnormality determination unit 36 (referred to as abnormality determination units 1 to n when distinguished), an abnormality determination unit x, and a determination result processing unit 37. First, the abnormality determination units 1 to n have learning models C1 to Cn, respectively. n is the number of clusters in steps S3 and S4 in FIG. The cluster determination unit 35 can determine the cluster having the closest image 6 of the existing installation location 8 by obtaining the local feature value and the global feature value from the image 6 of each existing installation location 8. Table 1 shows the correspondence between the cluster and the existing installation location 8 (camera ID). The association between the existing installation location 8 and the learning model may be performed once before the abnormality determination is started.

通信部31は、学習モデルC1〜CnとカメラIDの対応に基づいて、各既存設置場所8から送信された画像6を異常判定部1〜nに割り振る。この時、日中か夜間かのラベルを参照し、日中用の異常判定部36又は夜間用の異常判定部36に割り振ることが更に好ましい。新規設置場所7と学習モデルの対応付けは、異常判定の開始前に1回行えばよい。   The communication unit 31 allocates the images 6 transmitted from the respective existing installation locations 8 to the abnormality determination units 1 to n based on the correspondence between the learning models C1 to Cn and the camera ID. At this time, it is more preferable to refer to the label for daytime or nighttime and assign it to the daytime abnormality determination unit 36 or the nighttime abnormality determination unit 36. The association between the new installation location 7 and the learning model may be performed once before the abnormality determination is started.

異常判定部xは、新規設置場所7のカメラの画像6を異常判定する。異常判定部xは学習モデルCxを有している。同様に、クラスタ判定部35は新規設置場所7の画像6から局所的特徴量と大域的特徴量を求めることで新規設置場所7の画像6が最も近いクラスタを決定できる。日中と夜間の判別も異常判定部1〜nと同様でよい。   The abnormality determination unit x determines abnormality of the image 6 of the camera at the new installation location 7. The abnormality determination unit x has a learning model Cx. Similarly, the cluster determination unit 35 can determine the cluster having the closest image 6 of the new installation location 7 by obtaining the local feature value and the global feature value from the image 6 of the new installation location 7. The discrimination between daytime and nighttime may be the same as that of the abnormality determination units 1 to n.

異常判定部1〜n及び異常判定部xは割り当てられている学習モデルを使用して正常な画像6にどれだけ近いかを示す確度を算出する。確度は例えば0〜1の値を取り、正常に近いほど高い値となる。   The abnormality determination units 1 to n and the abnormality determination unit x calculate the accuracy indicating how close to the normal image 6 using the assigned learning model. The accuracy takes a value of 0 to 1, for example, and the closer to normal, the higher the accuracy.

判定結果処理部37は、異常判定部1〜n及び異常判定部xが算出する確度を取得し、異常があるか否かを判定する。例えば、確度が閾値未満の場合に異常があると判定すればよい。異常があると判定した場合、警備員の派遣や顧客へ異常がある旨を通知したりする。   The determination result processing unit 37 acquires the accuracy calculated by the abnormality determination units 1 to n and the abnormality determination unit x, and determines whether there is an abnormality. For example, what is necessary is just to determine with abnormality, when accuracy is less than a threshold value. If it is determined that there is an abnormality, a security guard is dispatched or the customer is notified that there is an abnormality.

<既存設置場所の異常検出>
図16は既存設置場所8の異常検出を模式的に説明する図の一例である。図16では既存設置場所8aを例にするが、他の既存設置場所8も同様である。
(1)クラスタ判定部35は、既存設置場所8aのカメラ装置10が撮像した画像6をクラスタリングすることで、日中と夜間それぞれの画像6に適した学習モデルを判定する。
(2)異常検出の開始後、既存設置場所8aのカメラ装置10は動画を情報処理装置30に送信する。動画には日中又は夜間のラベルが付与されているものとする。情報処理装置30が日中又は夜間を判定してもよい。
(3)既存設置場所8aに対応する異常判定部36は、既存設置場所8の日中又は夜間に割り当てられた学習モデルを使って、画像6の異常の有無を判定する。
(4)異常判定部36による判定結果(確度)は判定結果処理部37に送出される。
<Abnormality detection of existing installation location>
FIG. 16 is an example of a diagram for schematically explaining the abnormality detection of the existing installation place 8. In FIG. 16, the existing installation location 8a is taken as an example, but the same is true for other existing installation locations 8.
(1) The cluster determination unit 35 determines a learning model suitable for the daytime and nighttime images 6 by clustering the images 6 captured by the camera device 10 at the existing installation location 8a.
(2) After the start of abnormality detection, the camera device 10 at the existing installation location 8a transmits a moving image to the information processing device 30. It is assumed that the movie has a day or night label. The information processing apparatus 30 may determine daytime or nighttime.
(3) The abnormality determination unit 36 corresponding to the existing installation location 8a determines whether there is an abnormality in the image 6 using a learning model assigned to the existing installation location 8 during the day or at night.
(4) The determination result (accuracy) by the abnormality determination unit 36 is sent to the determination result processing unit 37.

このように、既存設置場所8aの画像6に対しても、クラスタリングされた画像6から作成された学習モデルを使って異常判定することができるので、より精度よく異常判定することが可能になる。   As described above, the abnormality determination can be performed on the image 6 of the existing installation location 8a by using the learning model created from the clustered image 6, so that the abnormality determination can be performed with higher accuracy.

<新規設置場所の異常検出>
図17は新規設置場所7の異常検出を模式的に説明する図の一例である。
(1)クラスタ判定部35は、新規設置場所7のカメラ装置10が撮像した画像6をクラスタリングすることで、日中と夜間それぞれの画像6に適した学習モデルを判定する。
(2)異常検出の開始後、新規設置場所7のカメラ装置10は動画を情報処理装置30に送信する。動画には日中又は夜間のラベルが付与されているものとする。情報処理装置30が日中又は夜間を判定してもよい。
(3)新規設置場所7の異常判定部36は、新規設置場所7の日中又は夜間に割り当てられた学習モデルを使って、画像6の異常の有無を判定する。
(4)異常判定部36による判定結果(確度)は判定結果処理部37に送出される。
<Abnormality detection of new installation location>
FIG. 17 is an example of a diagram for schematically explaining the abnormality detection of the new installation place 7.
(1) The cluster determination unit 35 determines the learning model suitable for the daytime and nighttime images 6 by clustering the images 6 captured by the camera device 10 at the new installation location 7.
(2) After the start of abnormality detection, the camera device 10 at the new installation location 7 transmits a moving image to the information processing device 30. It is assumed that the movie has a day or night label. The information processing apparatus 30 may determine daytime or nighttime.
(3) The abnormality determination unit 36 of the new installation location 7 determines whether there is an abnormality in the image 6 using a learning model assigned to the new installation location 7 during the day or at night.
(4) The determination result (accuracy) by the abnormality determination unit 36 is sent to the determination result processing unit 37.

このように、新規設置場所7にカメラ装置10が新たに設置された場合、既存設置場所8の画像6をクラスタリングして得た学習モデルを使って異常判定することができるので、カメラ装置10が新たに設置された当初から、精度よく異常判定することが可能になる。   As described above, when the camera device 10 is newly installed at the new installation location 7, an abnormality can be determined using the learning model obtained by clustering the images 6 of the existing installation location 8. It is possible to accurately determine an abnormality from the beginning when it is newly installed.

<判定結果の処理例>
図18を用いて判定結果処理部37の処理について説明する。図18は、判定結果処理部37が行う処理を模式的に説明する図の一例である。
(1)上記のように画像6が異常判定部36に入力される。異常判定部36は、異常の判定結果と共にカメラ装置10の設置場所に関する情報(例えば、顧客IDや顧客名)及び異常の判定に用いた動画を判定結果処理部37に送出する。
(2)判定結果処理部37は異常の判定結果と閾値を比較し、異常の可能性が高いか否かを判定する。異常の可能性が高いと判定した場合、少なくとも動画の一部と判定結果を顧客及び警備員に送信する。送信の前に監視員が目視で動画を確認することがより好ましい。なお、送信先は、警備員を派遣する司令塔となるガードセンター、警備員が常駐している待機所、現地周辺の警備員、顧客、などである。
<Example of determination result processing>
The process of the determination result processing unit 37 will be described with reference to FIG. FIG. 18 is an example of a diagram schematically illustrating processing performed by the determination result processing unit 37.
(1) The image 6 is input to the abnormality determination unit 36 as described above. The abnormality determination unit 36 sends information regarding the installation location of the camera device 10 (for example, a customer ID and a customer name) and a moving image used for the determination of the abnormality to the determination result processing unit 37 together with the abnormality determination result.
(2) The determination result processing unit 37 compares the abnormality determination result with a threshold value to determine whether or not there is a high possibility of abnormality. When it is determined that the possibility of abnormality is high, at least a part of the moving image and the determination result are transmitted to the customer and the guard. More preferably, the monitoring person visually confirms the moving image before transmission. The transmission destination is a guard center serving as a control tower for dispatching security guards, a waiting area where security guards are stationed, guards around the site, customers, and the like.

図18では、顧客又は警備員等が有する携帯端末74a、74bの画面例が示されている。携帯端末74aの画面には「異常度80%」というメッセージ401、動画表示欄402、及び、動画の再生ボタン403等が表示されている。顧客や警備員はメッセージや動画を目視して適切な対応を取ることができる。携帯端末74bには複数のカメラ装置10のうち1つのカメラ装置10が強調して表示されている。このように、1つの設置場所に複数のカメラ装置10が設置されている場合、どのカメラ装置10で異常が検出されたかを表示することで、顧客や警備員は異常の発生場所を特定しやすくなる。
(3)顧客や警備員は必要に応じて警察に通報したり、警備員が現地に赴いて確認したりする。警備員が現地に赴いたが正常であった場合、警備員はその旨を判定結果処理部37に通知する(フィードバックする)。通知の際は、携帯端末74a、74bに送信された動画(又はこの動画を特定できる情報)を判定結果処理部37に送信する。学習部34はこの動画が正常であることを教師信号にして学習できるため、異常検出の精度を向上させることができる。
FIG. 18 shows a screen example of the mobile terminals 74a and 74b possessed by a customer or a guard. On the screen of the portable terminal 74a, a message 401 “abnormality 80%”, a moving image display field 402, a moving image playback button 403, and the like are displayed. Customers and security guards can take appropriate actions by viewing messages and videos. One camera device 10 among the plurality of camera devices 10 is highlighted and displayed on the portable terminal 74b. In this way, when a plurality of camera devices 10 are installed at one installation location, by displaying which camera device 10 has detected the abnormality, it is easy for customers and security guards to identify the location where the abnormality has occurred. Become.
(3) Customers and security guards report to the police as necessary, or security guards visit the site to check. If the security guard has visited the site but is normal, the security guard notifies the judgment result processing section 37 (feedback) to that effect. At the time of notification, the moving image (or information that can identify the moving image) transmitted to the mobile terminals 74 a and 74 b is transmitted to the determination result processing unit 37. Since the learning unit 34 can learn from the teacher signal that the moving image is normal, the accuracy of abnormality detection can be improved.

<カメラ装置における学習モデルの利用方法>
本実施形態では監視センターで異常を判定していたが、カメラ装置10が異常を判定することも可能である。
<How to use a learning model in a camera device>
In this embodiment, the monitoring center determines an abnormality, but the camera device 10 can also determine an abnormality.

図19(a)は新規設置場所7のカメラ装置10が学習モデルCxを使用して異常判定する手順を示す。
(1)新規設置場所7のカメラ装置10は画像6を撮像する。少なくとも1枚の画像6があればよく動画である必要はない。
(2)カメラ装置10は画像6を情報処理装置30に送信する。
(3)情報処理装置30は画像6を記憶しておく。
(4)情報処理装置30は新規設置場所7の画像6がどのクラスタに当てはまるかを判定する。
(5)情報処理装置30は当てはまると判定した学習モデルCxをカメラ装置10に送信する。カメラ装置10はこの学習モデルCxを使って異常判定するので、異常判定フェーズでは動画を情報処理装置30に送信する必要がない。
FIG. 19A shows a procedure in which the camera device 10 at the new installation location 7 determines an abnormality using the learning model Cx.
(1) The camera device 10 at the new installation location 7 captures the image 6. If there is at least one image 6, it does not have to be a moving image.
(2) The camera device 10 transmits the image 6 to the information processing device 30.
(3) The information processing apparatus 30 stores the image 6.
(4) The information processing apparatus 30 determines to which cluster the image 6 of the new installation location 7 is applicable.
(5) The information processing apparatus 30 transmits the learning model Cx determined to be applicable to the camera apparatus 10. Since the camera apparatus 10 determines an abnormality using the learning model Cx, it is not necessary to transmit a moving image to the information processing apparatus 30 in the abnormality determination phase.

図19(b)は新規設置場所7のカメラ装置10が撮像した画像6を使用して異常判定する手順を示す。新規設置場所7のカメラ装置10もある程度の時間が経過すると、学習に十分な画像6を撮像することができる。
(1)新規設置場所7のカメラ装置10は画像6を撮像する。異常判定するための画像6であるため、複数の画像6(動画)であることが好ましい。
(2)カメラ装置10は画像6を情報処理装置30に送信する。
(3)情報処理装置30は複数の画像6を記憶しておく。
(4)情報処理装置30はある程度の画像6が蓄積されると正常な画像6を学習し学習モデルCx(Ver2.0)を作成する。
(5)情報処理装置30は作成した学習モデルCx(Ver2.0)を新規設置場所7のカメラ装置10に送信する。
(6)カメラ装置10はこの学習モデルCx(Ver2.0)を使って異常判定することができる。元の学習モデルCxと併用してもよい。併用する場合、元の学習モデルCxと学習モデルCx(Ver2.0)の一方でも異常と判定した場合、異常を監視センターに送信する。これにより失報を低減できる。
FIG. 19B shows a procedure for determining an abnormality using the image 6 captured by the camera device 10 at the new installation location 7. When a certain amount of time has passed, the camera device 10 at the new installation location 7 can capture an image 6 sufficient for learning.
(1) The camera device 10 at the new installation location 7 captures the image 6. Since it is the image 6 for judging abnormality, it is preferable that it is the some image 6 (moving image).
(2) The camera device 10 transmits the image 6 to the information processing device 30.
(3) The information processing apparatus 30 stores a plurality of images 6.
(4) When a certain amount of image 6 is accumulated, the information processing apparatus 30 learns the normal image 6 and creates a learning model Cx (Ver 2.0).
(5) The information processing apparatus 30 transmits the created learning model Cx (Ver 2.0) to the camera apparatus 10 at the new installation location 7.
(6) The camera device 10 can determine the abnormality using the learning model Cx (Ver 2.0). You may use together with the original learning model Cx. When using together, when it is judged that one of the original learning model Cx and the learning model Cx (Ver 2.0) is abnormal, the abnormality is transmitted to the monitoring center. This can reduce false alarms.

図19で説明したように、新規設置場所7のカメラ装置10は設置された直後から異常判定が可能であり、時間が経過すると設置された場所で撮像した画像6の学習モデルで異常判定できる。   As described with reference to FIG. 19, the camera device 10 at the new installation location 7 can determine the abnormality immediately after installation, and can determine the abnormality with the learning model of the image 6 captured at the installation location after a lapse of time.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.

本実施形態では画像6に基づく異常検出が行われたが、情報処理装置30は音を識別して異常を検出することも可能である。この場合、カメラ装置10は音を集音するマイク等を有している。カメラ装置10が収集した音データは画像6と共に情報処理装置30に送信される。情報処理装置30は正常な音データを学習しておき、異常か否かを判定する。この場合も、新規設置場所7への設置の直後から異常を検出できる。   In the present embodiment, abnormality detection based on the image 6 is performed, but the information processing apparatus 30 can also detect abnormality by identifying sound. In this case, the camera device 10 has a microphone or the like that collects sound. The sound data collected by the camera device 10 is transmitted to the information processing device 30 together with the image 6. The information processing apparatus 30 learns normal sound data and determines whether or not it is abnormal. Also in this case, an abnormality can be detected immediately after the installation at the new installation place 7.

また、図2のシステム構成図ではカメラ装置10と情報処理装置30が別体であるが、図19にて説明したように、カメラ装置10と情報処理装置30は一体でもよい。   In the system configuration diagram of FIG. 2, the camera device 10 and the information processing device 30 are separate bodies. However, as described with reference to FIG. 19, the camera device 10 and the information processing device 30 may be integrated.

また、同じ場所のカメラ装置10でも日中と夜間の画像は異なるクラスタに分類され得ることを説明したが、より細かく時間帯ごとに異なるクラスタに分類されてもよい。また、天候、季節ごとに異なるクラスタに分類されてもよい。このように、クラスタ設定部33はカメラ装置10が画像を撮像する環境に応じて各画像を適切なクラスタに分類できる。   In addition, it has been described that the daytime and nighttime images can be classified into different clusters even in the camera device 10 in the same place, but may be more finely classified into different clusters for each time zone. Moreover, you may classify | categorize into a different cluster for every weather and a season. Thus, the cluster setting unit 33 can classify each image into an appropriate cluster according to the environment in which the camera device 10 captures an image.

また、図6、15などの構成例は、カメラ装置10と情報処理装置30による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。カメラ装置10と情報処理装置30の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。   6 and 15 are divided according to main functions in order to facilitate understanding of processing by the camera apparatus 10 and the information processing apparatus 30. The present invention is not limited by the way of dividing the processing unit or the name. The processing of the camera device 10 and the information processing device 30 can be divided into more processing units according to the processing content. Moreover, it can also divide | segment so that one process unit may contain many processes.

また、図6,15では情報処理装置30が一台であるが、同じ情報処理装置30が複数台、存在してもよいし、複数の情報処理装置30に図6,15の機能が分散されていてもよい。   6 and 15, there is one information processing device 30, but there may be a plurality of the same information processing devices 30, and the functions of FIGS. 6 and 15 are distributed to the plurality of information processing devices 30. It may be.

なお、通信部31,画像蓄積部32は画像取得手段の一例であり、クラスタ設定部33は分類手段の一例であり、学習部34は学習手段の一例であり、異常判定部36は異常判定手段の一例であり、学習モデルCx(Ver2.0)を用いた異常判定部36は第二の異常判定手段の一例であり、クラスタ判定部35は決定手段の一例である。   The communication unit 31 and the image storage unit 32 are an example of an image acquisition unit, the cluster setting unit 33 is an example of a classification unit, the learning unit 34 is an example of a learning unit, and the abnormality determination unit 36 is an abnormality determination unit. The abnormality determination unit 36 using the learning model Cx (Ver 2.0) is an example of a second abnormality determination unit, and the cluster determination unit 35 is an example of a determination unit.

6 :画像
7 :新規設置場所
8 :既存設置場所
9 :監視センター
10 :カメラ装置
30 :情報処理装置
100 :画像処理システム
6: Image 7: New installation location 8: Existing installation location 9: Monitoring center 10: Camera device 30: Information processing device 100: Image processing system

Claims (11)

撮像装置が撮像した画像から異常検出を行う画像処理システムであって、
異なる設置場所に設置された複数の第一の撮像装置から前記画像を取得する画像取得手段と、
特徴が類似する前記画像をそれぞれクラスタに分類する分類手段と、
前記クラスタに分類された前記画像を学習して異常を検出する異常判定手段を前記クラスタごとに構築する学習手段と、
前記第一の撮像装置とは異なる設置場所に設置された第二の撮像装置が撮像した前記画像と類似する前記第一の撮像装置の画像が分類された前記クラスタを判定し、該クラスタに分類された前記画像から構築された前記異常判定手段を決定する決定手段と、
を有する画像処理システム。
An image processing system for detecting an abnormality from an image captured by an imaging device,
Image acquisition means for acquiring the image from a plurality of first imaging devices installed at different installation locations;
Classification means for classifying the images having similar features into clusters,
Learning means for learning, for each cluster, an abnormality determination means for learning the image classified into the clusters and detecting an abnormality;
The cluster in which the image of the first imaging device similar to the image captured by the second imaging device installed at a different installation location from the first imaging device is classified is determined and classified into the cluster Determining means for determining the abnormality determining means constructed from the image that has been made;
An image processing system.
前記決定手段が決定した前記異常判定手段は、前記第二の撮像装置が撮像した前記画像から異常検出を行う請求項1に記載の画像処理システム。   The image processing system according to claim 1, wherein the abnormality determination unit determined by the determination unit performs abnormality detection from the image captured by the second imaging device. 前記分類手段は、前記第一の撮像装置が撮像した前記画像から局所的特徴量及び大域的特徴量を抽出し、局所的特徴量及び大域的特徴量が類似する前記画像を、前記設置場所にかかわらず同じ前記クラスタに分類する請求項1又は2に記載の画像処理システム。   The classification means extracts a local feature amount and a global feature amount from the image captured by the first imaging device, and the image having a similar local feature amount and global feature amount is used as the installation location. The image processing system according to claim 1, wherein the image processing system is classified into the same cluster regardless. 前記分類手段は、局所的特徴量及び大域的特徴量が抽出された画像をいくつかの数の前記クラスタに分類し、分類が適切なほど小さくなる分離度を算出し、
前記分離度が最も小さくなる前記数を決定し、前記数の前記クラスタに前記第一の撮像装置が撮像した前記画像を分類する請求項3に記載の画像処理システム。
The classification means classifies the images from which local feature values and global feature values have been extracted into several clusters, and calculates a degree of separation that decreases as the classification becomes appropriate.
The image processing system according to claim 3, wherein the number having the smallest degree of separation is determined, and the images captured by the first imaging device are classified into the number of the clusters.
前記分類手段は、Stacked
Auto Encoderにより構築したニューラルネットワークに入力した前記第一の撮像装置が撮像した前記画像と、前記ニューラルネットワークが出力した出力値の差を前記クラスタごとに算出し、各クラスタの前記差を合計した値が最も小さくなるように前記数を決定する請求項4に記載の画像処理システム。
The classification means is Stacked
The difference between the image captured by the first imaging device input to the neural network constructed by the Auto Encoder and the output value output by the neural network is calculated for each cluster, and the sum of the differences of each cluster The image processing system according to claim 4, wherein the number is determined so as to be the smallest.
前記分類手段は、同じ前記設置場所の前記第一の撮像装置が撮像した前記画像を、該画像が撮像された環境に応じて異なる前記クラスタに分類し、
前記学習手段は、前記環境に応じて異なる前記クラスタに分類された前記画像から前記異常判定手段を構築する請求項1〜5のいずれか1項に記載の画像処理システム。
The classification means classifies the images captured by the first imaging device at the same installation location into different clusters according to the environment in which the images are captured,
The image processing system according to claim 1, wherein the learning unit constructs the abnormality determination unit from the images classified into the different clusters according to the environment.
前記学習手段は、領域に分割された前記画像の特徴をディープラーニングで抽出し、
前記領域の特徴に基づき前記画像に写っている対象の形状と動きを数値化し、
前記対象の形状と動きを正常であると分類する前記異常判定手段をSVM(サポートベクトルマシン)で構築する請求項1〜5のいずれか1項に記載の画像処理システム。
The learning means extracts features of the image divided into regions by deep learning,
Quantify the shape and movement of the object in the image based on the characteristics of the region,
The image processing system according to claim 1, wherein the abnormality determination unit that classifies the shape and movement of the object as normal is constructed by an SVM (support vector machine).
異なる設置場所に設置された複数の他の撮像装置から画像を取得する画像取得手段と、
特徴が類似する前記画像をそれぞれクラスタに分類する分類手段と、
前記クラスタに分類された前記画像を学習して異常を検出する異常判定手段を前記クラスタごとに構築する学習手段と、を有する情報処理装置から学習モデルを取得して、
撮像した画像から異常検出を行う撮像装置であって、
前記画像を前記情報処理装置に送信して、前記画像の特徴が類似する前記画像が分類された前記クラスタから構築された前記異常判定手段を取得し、
前記情報処理装置から取得した前記異常判定手段により撮像した画像の異常判定を行うことを特徴とする撮像装置。
Image acquisition means for acquiring images from a plurality of other imaging devices installed in different installation locations;
Classification means for classifying the images having similar features into clusters,
A learning model that learns the image classified into the clusters and detects abnormality for each cluster to learn abnormality is acquired from the information processing apparatus,
An imaging device that detects an abnormality from a captured image,
Transmitting the image to the information processing device, obtaining the abnormality determination means constructed from the cluster into which the images with similar image characteristics are classified;
An imaging apparatus, wherein abnormality determination is performed on an image captured by the abnormality determination unit acquired from the information processing apparatus.
前記撮像装置が撮像した画像から構築された第二の異常判定手段を前記情報処理装置から取得し、
前記第二の異常判定手段と前記異常判定手段の両方で異常判定を行うことを特徴とする請求項8に記載の撮像装置。
Obtaining from the information processing device a second abnormality determination means constructed from an image captured by the imaging device;
The imaging apparatus according to claim 8, wherein the abnormality determination is performed by both the second abnormality determination unit and the abnormality determination unit.
撮像装置が撮像した画像から異常検出を行う画像処理システムが行う学習モデル作成方法であって、
画像取得手段が、異なる設置場所に設置された複数の第一の撮像装置から前記画像を取得するステップと、
分類手段が、特徴が類似する前記画像をそれぞれクラスタに分類するステップと、
学習手段が、前記クラスタに分類された前記画像を学習して異常を検出する異常判定手段を前記クラスタごとに構築するステップと、
決定手段が、前記第一の撮像装置とは異なる設置場所に設置された第二の撮像装置が撮像した前記画像と類似する前記画像が分類された前記クラスタを判定し、該クラスタから構築された前記異常判定手段を決定するステップと、
を有する学習モデル作成方法。
A learning model creation method performed by an image processing system that detects an abnormality from an image captured by an imaging device,
An image acquiring means acquiring the image from a plurality of first imaging devices installed at different installation locations;
A classifying unit classifying the images having similar features into clusters, respectively;
Learning means for learning the image classified into the cluster and constructing an abnormality determination means for detecting an abnormality for each cluster;
The determining means determines the cluster into which the image similar to the image captured by the second imaging device installed at a different installation location from the first imaging device is classified, and is constructed from the cluster Determining the abnormality determining means;
A learning model creation method.
撮像装置が撮像した画像から異常検出を行う学習モデルを作成する情報処理装置であって、
異なる設置場所に設置された複数の第一の撮像装置から前記画像を取得する画像取得手段と、
特徴が類似する前記画像をそれぞれクラスタに分類する分類手段と、
前記クラスタに分類された前記画像を学習して異常を検出する異常判定手段を前記クラスタごとに構築する学習手段と、
前記第一の撮像装置とは異なる設置場所に設置された第二の撮像装置が撮像した前記画像と類似する前記画像が分類された前記クラスタを判定し、該クラスタから構築された前記異常判定手段を決定する決定手段と、
を有する情報処理装置。
An information processing apparatus that creates a learning model for detecting an abnormality from an image captured by an imaging apparatus,
Image acquisition means for acquiring the image from a plurality of first imaging devices installed at different installation locations;
Classification means for classifying the images having similar features into clusters,
Learning means for learning, for each cluster, an abnormality determination means for learning the image classified into the clusters and detecting an abnormality;
The anomaly judging means constructed by judging the cluster into which the image similar to the image taken by the second imaging device installed at a different installation location from the first imaging device is classified, and constructed from the cluster A determination means for determining
An information processing apparatus.
JP2017073011A 2017-03-31 2017-03-31 Image processing system, imaging device, learning model creation method, information processing device Active JP6905850B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017073011A JP6905850B2 (en) 2017-03-31 2017-03-31 Image processing system, imaging device, learning model creation method, information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017073011A JP6905850B2 (en) 2017-03-31 2017-03-31 Image processing system, imaging device, learning model creation method, information processing device

Publications (2)

Publication Number Publication Date
JP2018173914A true JP2018173914A (en) 2018-11-08
JP6905850B2 JP6905850B2 (en) 2021-07-21

Family

ID=64107841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017073011A Active JP6905850B2 (en) 2017-03-31 2017-03-31 Image processing system, imaging device, learning model creation method, information processing device

Country Status (1)

Country Link
JP (1) JP6905850B2 (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019074837A (en) * 2017-10-13 2019-05-16 ホーチキ株式会社 Abnormality determination system, monitor, abnormality determination method, and program
WO2019235161A1 (en) * 2018-06-04 2019-12-12 日本電信電話株式会社 Data analysis system and data analysis method
JP2020077337A (en) * 2018-11-09 2020-05-21 セコム株式会社 Image surveillance system
JP2020077328A (en) * 2018-11-09 2020-05-21 セコム株式会社 Store device
JP2020091527A (en) * 2018-12-03 2020-06-11 株式会社チームボックス Monitoring device, monitoring system, monitoring method, and monitoring program
JP2020120276A (en) * 2019-01-24 2020-08-06 株式会社リクルート Monitoring device and drone
JP2020126306A (en) * 2019-02-01 2020-08-20 日産自動車株式会社 Image processing method, image processing device and object recognition method
JP2020129775A (en) * 2019-02-12 2020-08-27 オムロン株式会社 Image license device, image license method, and image license program
WO2020184005A1 (en) * 2019-03-14 2020-09-17 Navier株式会社 Image processing learning program, image processing program, image processing device, and image processing system
JP2020160608A (en) * 2019-03-25 2020-10-01 株式会社日立製作所 Abnormality detection system
WO2020213106A1 (en) * 2019-04-17 2020-10-22 Nec Corporation Image processing apparatus, image processing method and non-transitoty computer readable medium
WO2020218157A1 (en) * 2019-04-25 2020-10-29 国立大学法人静岡大学 Prediction system, prediction method, and prediction program
KR20210040546A (en) * 2019-10-04 2021-04-14 에스케이텔레콤 주식회사 Method and Apparatus for Detecting Anomaly from Security Video
JP2021077486A (en) * 2019-11-06 2021-05-20 パナソニックIpマネジメント株式会社 Illumination device, illumination control system, and, stadium
WO2021095351A1 (en) * 2019-11-13 2021-05-20 アイシースクウェアパートナーズ株式会社 Monitoring device, monitoring method, and program
JP2021170204A (en) * 2020-04-15 2021-10-28 株式会社Ridge−i Information processor, information processing method, and information processing program
JP2022003765A (en) * 2019-12-16 2022-01-11 Assest株式会社 Danger level determination program
CN113992778A (en) * 2021-09-30 2022-01-28 紫光展锐(重庆)科技有限公司 Equipment detection method and device, chip and module equipment
WO2022038705A1 (en) * 2020-08-19 2022-02-24 日本電気株式会社 Reference state deciding device, state determination system, reference state deciding method, and non-transitory computer readable medium
JP2022137959A (en) * 2021-03-09 2022-09-22 三菱電機株式会社 Entrance monitoring device, entrance monitoring system and entrance monitoring program
JP2022191288A (en) * 2019-01-18 2022-12-27 日本電気株式会社 Information processing equipment
JP2023168733A (en) * 2022-05-16 2023-11-29 東京電力ホールディングス株式会社 Intruder detection system and program
US11854187B2 (en) 2020-10-13 2023-12-26 Mitsubishi Electric Corporation Model generation device, abnormality determination device, abnormality determination system, model generation method, and recording medium
JP2025049002A (en) * 2023-09-21 2025-04-03 ソフトバンクグループ株式会社 system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008001889A1 (en) * 2006-06-29 2008-01-03 Fujitsu Limited Color classifying method, color recognizing method, color classifying device, color recognizing device, color recognizing system, computer program, and recording medium
JP2012243196A (en) * 2011-05-23 2012-12-10 Morpho Inc Image identification device, image identification method, image identification program and recording medium
JP2012252507A (en) * 2011-06-02 2012-12-20 Panasonic Corp Personal attribute estimation system, personal attribute estimation device and personal attribute estimation method
JP2015176283A (en) * 2014-03-14 2015-10-05 オムロン株式会社 Event detection apparatus and event detection method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008001889A1 (en) * 2006-06-29 2008-01-03 Fujitsu Limited Color classifying method, color recognizing method, color classifying device, color recognizing device, color recognizing system, computer program, and recording medium
JP2012243196A (en) * 2011-05-23 2012-12-10 Morpho Inc Image identification device, image identification method, image identification program and recording medium
JP2012252507A (en) * 2011-06-02 2012-12-20 Panasonic Corp Personal attribute estimation system, personal attribute estimation device and personal attribute estimation method
JP2015176283A (en) * 2014-03-14 2015-10-05 オムロン株式会社 Event detection apparatus and event detection method

Cited By (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019074837A (en) * 2017-10-13 2019-05-16 ホーチキ株式会社 Abnormality determination system, monitor, abnormality determination method, and program
JP7001419B2 (en) 2017-10-13 2022-01-19 ホーチキ株式会社 Abnormality judgment system, monitoring device, abnormality judgment method, and program
WO2019235161A1 (en) * 2018-06-04 2019-12-12 日本電信電話株式会社 Data analysis system and data analysis method
JP2019211942A (en) * 2018-06-04 2019-12-12 日本電信電話株式会社 Data analysis system and data analysis method
JP7106997B2 (en) 2018-06-04 2022-07-27 日本電信電話株式会社 Data analysis system and data analysis method
JP7198052B2 (en) 2018-11-09 2022-12-28 セコム株式会社 image surveillance system
JP2020077337A (en) * 2018-11-09 2020-05-21 セコム株式会社 Image surveillance system
JP2020077328A (en) * 2018-11-09 2020-05-21 セコム株式会社 Store device
JP7161920B2 (en) 2018-11-09 2022-10-27 セコム株式会社 store equipment
JP2020091527A (en) * 2018-12-03 2020-06-11 株式会社チームボックス Monitoring device, monitoring system, monitoring method, and monitoring program
JP2022191288A (en) * 2019-01-18 2022-12-27 日本電気株式会社 Information processing equipment
US12333862B2 (en) 2019-01-18 2025-06-17 Nec Corporation Information processing device
US12175798B2 (en) 2019-01-18 2024-12-24 Nec Corporation Information processing device
JP7416165B2 (en) 2019-01-18 2024-01-17 日本電気株式会社 information processing equipment
US12183122B2 (en) 2019-01-18 2024-12-31 Nec Corporation Information processing device
JP7267756B2 (en) 2019-01-24 2023-05-02 株式会社リクルート Surveillance equipment and drones
JP2020120276A (en) * 2019-01-24 2020-08-06 株式会社リクルート Monitoring device and drone
JP7169894B2 (en) 2019-02-01 2022-11-11 日産自動車株式会社 Image processing method, image processing device, and object recognition method
JP2020126306A (en) * 2019-02-01 2020-08-20 日産自動車株式会社 Image processing method, image processing device and object recognition method
JP2020129775A (en) * 2019-02-12 2020-08-27 オムロン株式会社 Image license device, image license method, and image license program
JP7212257B2 (en) 2019-02-12 2023-01-25 オムロン株式会社 Surveillance system, image licensing method, and image usage licensing program
WO2020184005A1 (en) * 2019-03-14 2020-09-17 Navier株式会社 Image processing learning program, image processing program, image processing device, and image processing system
CN112868048A (en) * 2019-03-14 2021-05-28 纳维株式会社 Image processing learning program, image processing program, information processing device, and image processing system
JP2020149471A (en) * 2019-03-14 2020-09-17 Navier株式会社 Image processing learning program, image processing program, information processing device and image processing system
JP2020160608A (en) * 2019-03-25 2020-10-01 株式会社日立製作所 Abnormality detection system
WO2020213106A1 (en) * 2019-04-17 2020-10-22 Nec Corporation Image processing apparatus, image processing method and non-transitoty computer readable medium
JP7279817B2 (en) 2019-04-17 2023-05-23 日本電気株式会社 Image processing device, image processing method and image processing program
US12217490B2 (en) 2019-04-17 2025-02-04 Nec Corporation Image processing apparatus, image processing method and non-transitory computer readable medium
JP2022528491A (en) * 2019-04-17 2022-06-13 日本電気株式会社 Image processing device, image processing method and image processing program
JP7452879B2 (en) 2019-04-25 2024-03-19 国立大学法人静岡大学 Prediction system, prediction method, and prediction program
WO2020218157A1 (en) * 2019-04-25 2020-10-29 国立大学法人静岡大学 Prediction system, prediction method, and prediction program
JPWO2020218157A1 (en) * 2019-04-25 2020-10-29
KR102332183B1 (en) 2019-10-04 2021-12-01 에스케이텔레콤 주식회사 Method and Apparatus for Detecting Anomaly from Security Video
KR102276086B1 (en) 2019-10-04 2021-07-12 에스케이텔레콤 주식회사 Method and Apparatus for Detecting Anomaly from Security Video
KR20210082412A (en) * 2019-10-04 2021-07-05 에스케이텔레콤 주식회사 Method and Apparatus for Detecting Anomaly from Security Video
KR20210040546A (en) * 2019-10-04 2021-04-14 에스케이텔레콤 주식회사 Method and Apparatus for Detecting Anomaly from Security Video
JP2021077486A (en) * 2019-11-06 2021-05-20 パナソニックIpマネジメント株式会社 Illumination device, illumination control system, and, stadium
JP7653615B2 (en) 2019-11-06 2025-03-31 パナソニックIpマネジメント株式会社 Lighting device, lighting control system, and stadium
JP2021077295A (en) * 2019-11-13 2021-05-20 尚範 伊達 Monitoring device, monitoring method, and program
WO2021095351A1 (en) * 2019-11-13 2021-05-20 アイシースクウェアパートナーズ株式会社 Monitoring device, monitoring method, and program
CN115004269A (en) * 2019-11-13 2022-09-02 株式会社计数技研 Monitoring device, monitoring method, and program
CN115004269B (en) * 2019-11-13 2024-04-16 株式会社计数技研 Monitoring device, monitoring method and program
JP2022003765A (en) * 2019-12-16 2022-01-11 Assest株式会社 Danger level determination program
JP7667546B2 (en) 2019-12-16 2025-04-23 Assest株式会社 Hazard Identification Program
JP2022003758A (en) * 2019-12-16 2022-01-11 Assest株式会社 Danger level determination program
JP7714183B2 (en) 2019-12-16 2025-07-29 Assest株式会社 Hazard Identification Program
JP6994224B2 (en) 2020-04-15 2022-01-14 株式会社Ridge-i Information processing equipment, information processing methods and information processing programs
JP2021170204A (en) * 2020-04-15 2021-10-28 株式会社Ridge−i Information processor, information processing method, and information processing program
WO2022038705A1 (en) * 2020-08-19 2022-02-24 日本電気株式会社 Reference state deciding device, state determination system, reference state deciding method, and non-transitory computer readable medium
JP7491383B2 (en) 2020-08-19 2024-05-28 日本電気株式会社 Reference state determination device, reference state determination method, and program
JPWO2022038705A1 (en) * 2020-08-19 2022-02-24
US12380667B2 (en) 2020-08-19 2025-08-05 Nec Corporation Reference state deciding device, state determination system, reference state deciding method, and non-transitory computer readable medium
US11854187B2 (en) 2020-10-13 2023-12-26 Mitsubishi Electric Corporation Model generation device, abnormality determination device, abnormality determination system, model generation method, and recording medium
JP2022137959A (en) * 2021-03-09 2022-09-22 三菱電機株式会社 Entrance monitoring device, entrance monitoring system and entrance monitoring program
JP7692709B2 (en) 2021-03-09 2025-06-16 三菱電機株式会社 Entrance monitoring device, entrance monitoring system, and entrance monitoring program
CN113992778B (en) * 2021-09-30 2023-12-26 紫光展锐(重庆)科技有限公司 Equipment detection method, device, chip and module equipment
CN113992778A (en) * 2021-09-30 2022-01-28 紫光展锐(重庆)科技有限公司 Equipment detection method and device, chip and module equipment
JP2023168733A (en) * 2022-05-16 2023-11-29 東京電力ホールディングス株式会社 Intruder detection system and program
JP2025049002A (en) * 2023-09-21 2025-04-03 ソフトバンクグループ株式会社 system

Also Published As

Publication number Publication date
JP6905850B2 (en) 2021-07-21

Similar Documents

Publication Publication Date Title
JP6905850B2 (en) Image processing system, imaging device, learning model creation method, information processing device
CN112132045B (en) Community personnel abnormal behavior monitoring scheme based on computer vision
CN110428522B (en) Intelligent security system of wisdom new town
US9928423B2 (en) Efficient retrieval of anomalous events with priority learning
US20030058111A1 (en) Computer vision based elderly care monitoring system
CN109154976A (en) System and method for training object classifiers via machine learning
CN107644190A (en) Pedestrian&#39;s monitoring method and device
KR102260123B1 (en) Apparatus for Sensing Event on Region of Interest and Driving Method Thereof
KR102397837B1 (en) An apparatus and a system for providing a security surveillance service based on edge computing and a method for operating them
EP2798578A2 (en) Clustering-based object classification
KR20220000226A (en) A system for providing a security surveillance service based on edge computing
CN111553305B (en) System and method for identifying illegal videos
CN112330742A (en) Method and device for recording activity routes of key personnel in public area
KR20220000221A (en) A camera apparatus for providing a intelligent security surveillance service based on edge computing
KR20240044162A (en) Hybrid unmanned store management platform based on self-supervised and multi-camera
WO2022059223A1 (en) Video analyzing system and video analyzing method
JP6739119B6 (en) Risk determination program and system
JP6739115B1 (en) Risk judgment program and system
KR20220000216A (en) An apparatus for providing a security surveillance service based on deep learning distributed processing
KR20220000424A (en) Edge Computing Based Intelligent Security Surveillance Camera System
CN116563793A (en) A fine-grained crowd analysis method based on passive WiFi perception
JP2020102135A (en) Tracking system, tracking processing method, and program
KR20220031258A (en) A method for providing active security control service based on learning data corresponding to counseling event
KR20220031266A (en) An apparatus for providing active security control services using machine learning of monitoring equipment information and security control consulting information andusing
KR20220000202A (en) A method for operating of intelligent security surveillance device based on deep learning distributed processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210628

R150 Certificate of patent or registration of utility model

Ref document number: 6905850

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350