[go: up one dir, main page]

JP2018173914A - 画像処理システム、撮像装置、学習モデル作成方法、情報処理装置 - Google Patents

画像処理システム、撮像装置、学習モデル作成方法、情報処理装置 Download PDF

Info

Publication number
JP2018173914A
JP2018173914A JP2017073011A JP2017073011A JP2018173914A JP 2018173914 A JP2018173914 A JP 2018173914A JP 2017073011 A JP2017073011 A JP 2017073011A JP 2017073011 A JP2017073011 A JP 2017073011A JP 2018173914 A JP2018173914 A JP 2018173914A
Authority
JP
Japan
Prior art keywords
image
abnormality
cluster
learning
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017073011A
Other languages
English (en)
Other versions
JP6905850B2 (ja
Inventor
亜沙美 岡田
Asami Okada
亜沙美 岡田
二見 聡
Satoshi Futami
聡 二見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2017073011A priority Critical patent/JP6905850B2/ja
Publication of JP2018173914A publication Critical patent/JP2018173914A/ja
Application granted granted Critical
Publication of JP6905850B2 publication Critical patent/JP6905850B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】設置後早期に異常検出が可能になる画像処理システムを提供すること。【解決手段】撮像装置10が撮像した画像から異常検出を行う画像処理システム100であって、異なる設置場所に設置された複数の第一の撮像装置から前記画像を取得する画像取得手段31、32と、特徴が類似する前記画像をそれぞれクラスタに分類する分類手段33と、前記クラスタに分類された前記画像を学習して異常を検出する異常判定手段を前記クラスタごとに構築する学習手段34と、前記第一の撮像装置とは異なる設置場所に設置された第二の撮像装置が撮像した前記画像と類似する前記画像が分類された前記クラスタを判定し、該クラスタから構築された前記異常判定手段を決定する決定手段35と、を有する。【選択図】図2

Description

本発明は、画像処理システム、撮像装置、学習モデル作成方法、及び、情報処理装置に関する。
監視カメラなどの撮像装置により映像を撮像して記録しておき、関係者が後で映像を確認して異常の有無やどのような異常があったのかを確認する監視方法が知られている。しかし、関係者としては映像を確認する必要性に気づかないと映像を確認できない場合もあり、事後的にしか映像から異常の有無を確認できなかった。また、関係者が映像を全て見ないと異常の有無を確認できない。
このため、リアルタイムに映像を解析して異常を検出する技術が考案されている(例えば、特許文献1参照。)。異常検出とは、日常起こりうる正常な状態から逸脱した現象を検出することをいう。特許文献1には、カメラが撮像した画像を収集する前に不審者判定を行い対象となる画像のみを送信することで輻輳を抑制する方法が開示されている。
しかし、特許文献1は事前に登録された住人以外が検出された場合に異常であると判定する技術であり、登録内容が適切でないと異常の検出結果も正確でなくなるおそれがある。
このような不都合に対し、情報処理装置が機械学習により正常な種々の映像を学習しておき、カメラが設置された場所で撮像した画像から異常検出する技術が考案されている(例えば、特許文献2参照。)。特許文献2には、オンライン学習部で絞られた情報の中から更に学習実行者又は学習エージェントにより情報を選択させることで学習に適した情報を選別する方法が開示されている。
特開2013−222216号公報 特開2016−173682号公報
しかしながら、従来の技術では、新たに設置されたカメラが異常検出を行うには設置場所で正常な画像を学習する必要があるため、設置後すぐに異常判定を開始することが困難であるという問題があった。例えば、画像処理システムが機械学習した学習モデルを使って不審者を検出する場合、カメラが撮像するシーンに合わせた学習モデルが必要であるが、新たに設置されたカメラには学習に使用する画像データが存在しないため、学習に使用する画像が蓄積されるまでは異常判定できない。
本発明は、上記課題に鑑み、設置後早期に異常検出が可能になる画像処理システムを提供することを目的とする。
本発明は、撮像装置が撮像した画像から異常検出を行う画像処理システムであって、異なる設置場所に設置された複数の第一の撮像装置から前記画像を取得する画像取得手段と、特徴が類似する前記画像をそれぞれクラスタに分類する分類手段と、前記クラスタに分類された前記画像を学習して異常を検出する異常判定手段を前記クラスタごとに構築する学習手段と、前記第一の撮像装置とは異なる設置場所に設置された第二の撮像装置が撮像した前記画像と類似する前記画像が分類された前記クラスタを判定し、該クラスタから構築された前記異常判定手段を決定する決定手段と、を有する。
本発明によれば、設置後早期に異常検出が可能になる画像処理システムを提供することができる。
機械学習による画像の学習と異常検出を説明する図の一例である。 画像処理の概略を説明する図の一例である。 画像処理システムのシステム構成図の一例である。 カメラ装置のハードウェア構成図の一例である。 情報処理装置の概略的なハードウェア構成を示したブロック図である。 画像処理システムが備える各機能を図示した機能ブロック図の一例である。 クラスタリングの処理手順を示す流れ図の一例である。 クラスタ設定部が局所的特徴量と大域的特徴量を抽出する手順を示す流れ図を示す。 K-means法による分類を模式的に示す図である。 クラスタリングを説明する図の一例である。 分離度Rを説明する図の一例である。 SAEの学習方法を説明する図の一例である。 画像から異常の有無を判定する学習モデルを模式的に示す図である。 図13の学習の手順をより詳細に説明する図の一例である。 異常判定に関する情報処理装置の機能ブロック図の一例である。 既存設置場所の異常検出を模式的に説明する図の一例である。 新規設置場所の異常検出を模式的に説明する図の一例である。 判定結果処理部が行う処理を模式的に説明する図の一例である。 カメラ装置が異常を判定する場合の構成を説明する図の一例である。
以下、本発明を実施するため形態の一例として、画像処理システム及び画像処理システムが行う学習モデル作成方法等について図面を参照しながら説明する。
<異常検出の具体例>
本実施形態を説明するに当たって、異常検出の具体例を説明する。異常とは、日常起こりうる正常から逸脱した現象を言う。
図1(a)は機械学習による正常な画像6の学習を説明する図の一例である。
(1)異常を含まない大量の画像6(正常な画像6)が用意される。この画像6は動画であるものとする。異常を含まないとは、写っている内容が警報の対象とならないことをいう。正常かどうかはカメラが設置された場所と写っている対象によって異なる。例えば、歩行者が写っている画像6では歩行者が歩行する画像が正常な画像であり、壁を乗り越えたりする画像6は異常である。また、車が写っている画像6では人が乗降したり車が停止、駐車、発進したりする画像6が正常な画像6であり、ドアロックを解除する行動が写った画像6は異常である。自転車の場合も車と同様に正常と異常で異なる画像が得られる。
(2)学習部34は、ディープラーニングやSVM(サポートベクトルマシン)などの機械学習を使って正常な画像6に写っている対象の形状及び動きが正常な範囲を学習し、学習モデルを構築する。学習モデルとはこの正常な範囲を推定したものであり、入力される対象の形状及び動きが正常か否かを出力する。
(3)学習モデルの一例を説明する。例えば、歩行者が写っている画像6では、背景が静止しているのに対し歩行者が動くので学習部34は歩行者の姿勢及び移動速度等を自動で生成する。そして、この歩行者の姿勢及び移動速度等の正常な範囲を推定する。なお、学習部34にとって歩行者という教師信号等は不要であり、動くモノが歩行者(人)であるという認識は必要でない。学習部34はある形状(ここでは歩行者)の正常な行動パターン(ここでは移動速度)はこのようなものであると数値化するに過ぎない。
図1(b)は識別装置5が行う異常判定を説明する図の一例である。
(4)異常な画像6として人が壁を乗り越える画像6が撮像される。人が壁を乗り越えることは少なく正常な画像6に含まれていない。
(5)識別装置5は(3)で作成した学習モデルと比較することで異常判定を行う。
(6)例えば、人の姿勢の一致度が20%、移動速度の一致度が60%のように判定される。正常な画像6との一致度が低い場合、識別装置5は異常の可能性が高いと判定する。
このように、正常な大量の画像6を学習部34が学習することで、人が判定した場合と同様に画像6を異常であると判定する識別装置を構築できる。このため、本実施形態の画像処理システムは、侵入者が施設に侵入する前にリアルタイムに異常を検出して、警備員を派遣するなどの適切な対応が可能になる。
しかしながら、一方で、正常な大量の画像6を学習するまでは異常の有無を判定できない。上記のように、画像6が正常かどうかはカメラが設置された場所と写っている対象等によって異なるため、他のカメラが学習に使用した正常な画像6を新規に設置されたカメラの学習にそのまま転用しても、適切な学習モデルが構築されるとは限らない。
<本実施形態の画像処理の概略>
そこで、本実施形態の画像処理システムは、既存の多数の設置場所から収集した画像6を類似するシーンでクラスタリングして学習し、新規の設置場所の画像6とシーンが類似する学習モデルを新規の設置場所の学習モデルに使用する。既存設置場所の学習モデルを使用できるので、新規の設置場所にカメラが設置された直後から監視を開始できる。
図2は、本実施形態の画像処理の概略を説明する図の一例である。以下、カメラ装置の設置前の準備フェーズと、新規のカメラ装置が撮像した画像6による異常判定フェーズに分けて説明する。
・準備フェーズ
(1)すでに、カメラ装置10の複数の既存設置場所8a、8b、8c、8d…等がある。複数ある既存設置場所8を区別する場合は符号8にアルファベットを付けて説明する(既存設置場所の数は特に問わない)。これらのカメラ装置10(第一の撮像装置の一例)が撮像した画像6が画像蓄積部32に蓄積される。画像蓄積部32には全ての既存設置場所8のカメラ装置10が撮像した画像6が蓄積される。
(2)クラスタ設定部33は蓄積された画像6を類似するシーンごとにクラスタリングする。クラスタリングにより、例えばカメラ装置10の設置場所及び写っている対象が類似している画像が同じクラスタに分類される。
(3)機械学習部1〜n
機械学習部1〜nはクラスタリングされた正常な画像6を機械学習する。図2では機械学習部1〜nがクラスタの数(n個)だけあるが、機械学習部1〜nは最小で1つあればよい。機械学習部1〜nはそれぞれ学習モデルを構築する。各学習モデルは異常判定部36にて使用される。
(4)次に、クラスタ判定部35は、新規設置場所7のカメラ装置10(第二の撮像装置の一例)が撮像する画像6が、既存設置場所8の画像6が分類されたどのクラスタに分類されるかを判定し、分類先のクラスタの学習モデルを適用すると決定する。このように、新規に設置されたカメラ装置10に適切な学習モデルを設置された直後から決定できる。
・異常判定フェーズ
(5)既存設置場所8のカメラ装置10に対応する異常判定部36は、学習モデルを使って画像6が正常か異常かを判定する。例えば、既存設置場所8aに適した学習モデルは、既存設置場所8aの画像6のクラスタリング結果によって自動的に決まる。図2で機械学習部1の学習モデルが既存設置場所8aと8bに提供されているのは、既存設置場所8aと8bの画像6が同じクラスタにクラスタリングされたことを表している。
(6)新規設置場所7のカメラ装置10に対応する異常判定部36も、(4)で決定された学習モデルを使って画像6が正常か異常かを判定する。
(7)判定結果処理部37は、各異常判定部36から異常の有無の判定結果を取得し、警備員の派遣の指示を行ったり、顧客に画像6を送信したりする。
このように、新規に設置されたカメラ装置10の画像6が既存設置場所8の画像と類似するクラスタにクラスタリングされることで、既存設置場所8のカメラ装置10の画像6から学習された学習モデルを利用できるので、新規のカメラ装置10が設置された直後から異常の有無を判定可能になる。また、既存設置場所8についても、1つの設置場所の画像から学習された学習モデルより適切な学習モデルを作れる可能性がある。
<用語について>
クラスタとはかたまりを意味し、本実施形態ではシーンが類似する画像の集まりである。クラスタの他、クラス、グループ、カテゴリ、などと称してもよい。
学習とは、人間が行っている学習能力と同様の機能をコンピュータで実現するため、データから有用な規則、ルール、知識表現、又は判定基準などを抽出することをいう。
<システム構成例>
図3は、画像処理システム100のシステム構成図の一例を示す。画像処理システム100は、ネットワークNを介して接続されたカメラ装置10と情報処理装置30とを主に有する。1つの既存設置場所8には1台以上のカメラ装置10が設置されている。「既存」とはすでに学習に十分な数の画像6が撮像されている設置場所であることをいう。また、新規設置場所7にも1台以上のカメラ装置10が設置されている。新規設置場所7とは、過去にはカメラ装置10がなく新たにカメラ装置10が設置された場所である。
カメラ装置10は毎秒数枚以上の画像6を撮像する撮像装置であり、いわゆる動画の撮像が可能である。既存設置場所又は新規設置場所は、主に第三者の侵入が監視されうる場所である。例えば、施設の周辺、個人邸宅の周辺、駐車場、山林、臨海地域、立ち入り禁止区域などが挙げられるがこれらに制限されるものではない。また、屋外に限られず、施設、オフィス、個人邸宅、ホテル、店舗、研究所、倉庫、工場などの屋内に設置される場合もある。
カメラ装置10は撮像する機能だけでなく動体を検出する画像処理機能等を有していることが好ましいが、本実施形態では必須でない。カメラ装置10は、毎秒数枚以上の画像6を撮像して、監視センターに送信する。
ネットワークNは、カメラ装置10の設置場所に敷設されている電話回線、LAN、LANをインターネットに接続するプロバイダのプロバイダネットワーク、及び、回線事業者が提供する回線等により構築されている。ネットワークNが複数のLANを有する場合、ネットワークNはWANと呼ばれ、インターネットが含まれる場合がある。ネットワークNは有線又は無線のどちらで構築されてもよく、また、有線と無線が組み合わされていてもよい。また、カメラ装置10が、3G、4G、5G、LTE(Long Term Revolution)などの無線の公衆回線網に接続する場合は、有線の電話回線やLANを介さずにプロバイダネットワークに接続することができる。
監視センター9には情報処理装置30が設置されている。情報処理装置30は学習モデルを構築したり、異常判定を行ったりする。異常であるとの判定結果は、画像6と共に顧客の携帯端末に送信されたり、監視員の端末に送信されたりする。顧客や監視員は異常であると判定された画像6を確認して、必要であれば警備員を設置場所に派遣したり警察に通報したりする。
情報処理装置30は、一般的なコンピュータ、PC(Personal Computer)、サーバなどとよばれる装置である。図3では説明の便宜上、一台の情報処理装置30を示したが、情報処理装置30は一台とは限らず、本実施形態で説明される機能を複数の情報処理装置30が分担して有していてもよい。
<ハードウェア構成例>
<<カメラ装置のハードウェア構成例>>
図4は、カメラ装置10のハードウェア構成図の一例である。カメラ装置10は、撮像部101、画像処理IC103、ROM105、CPU106、RAM107、及び、通信装置108を有している。
撮像部101は、レンズ、絞り、シャッター(メカ・電子)、CMOSやCCDなどの固体撮像素子、及び、メモリ等を有するカメラである。画像6は白黒でもカラーでもよい、撮像部101はCPU106からの制御により定期的に所定範囲を撮像し、画像6を画像処理IC103に送出する。画像処理IC103は、画像6に動体を検出する画像処理を施す集積回路である。
CPU106は、RAM107を作業メモリにしてROM105に記憶されたプログラムを実行し、カメラ装置10の全体を制御する。すなわち、撮像部101による撮像を制御する。また、通信装置108を制御して監視センター9に画像6を送信したりする。
通信装置108は、ネットワークインタフェースやイーサネット(登録商標)カードと呼ばれ、ネットワークに接続する機能を提供する。無線LANのアクセスポイントや携帯電話網の基地局に接続してもよい。
<<情報処理装置30のハードウェア構成例>>
図5は、情報処理装置30の概略的なハードウェア構成を示したブロック図である。情報処理装置30は、概ねパーソナル・コンピュータ、ワークステーション又はアプライアンス・サーバとして実装することができる。情報処理装置30は、CPU201と、CPU201が使用するデータの高速アクセスを可能とするメモリ202とを備える。CPU201及びメモリ202は、システム・バス203を介して、情報処理装置30の他のデバイス又はドライバ、例えば、グラフィックス・ドライバ204及びネットワーク・ドライバ(NIC:Network Interface Card)205へと接続されている。
LCD(表示装置)206は、グラフィックス・ドライバ204に接続されて、CPU201による処理結果をモニタする。LCD206にはタッチパネルが一体に配置されていてもよい。この場合、ユーザは操作手段として指を使って情報処理装置30を操作できる。
また、ネットワーク・ドライバ205は、トランスポート層レベル及び物理層レベルで情報処理装置30をネットワークNへと接続して、カメラ装置10等とのセッションを確立させている。
システム・バス203には、更にI/Oバス・ブリッジ207が接続されている。I/Oバス・ブリッジ207の下流側には、PCIなどのI/Oバス208を介して、IDE、ATA、ATAPI、シリアルATA、SCSI、USBなどにより、HDD209などの記憶装置が接続されている。HDD209の代わりに又はHDD209と共にSSD(Solid State Drive)を有していてもよい。
HDD209は情報処理装置30の全体を制御するプログラム209pを記憶している。情報処理装置30はプログラム209pを実行することで、監視員の操作を受け付けたり学習したりする。プログラム209pは、プログラムを配信するサーバから配信される他、USBメモリや光記憶媒体などの可搬性の記憶媒体に記憶された状態で配布されてもよい。
また、I/Oバス208には、USBなどのバスを介して、キーボード及びマウス(ポインティング・デバイスと呼ばれる)などの入力装置210が接続され、オペレータによる入力及び指令を受け付けている。
情報処理装置30はクラウドコンピューティングに対応していてもよい。クラウドコンピューティングとは、特定ハードウェア資源が意識されずにネットワーク上のリソースが利用される利用形態をいう。この場合、図5に示したハードウェア構成は、1つの筐体に収納されていたり一まとまりの装置として備えられていたりする必要はなく、情報処理装置30が備えていることが好ましいハード的な要素を示す。
<画像処理システム100の機能構成例>
図6は、画像処理システム100が備える各機能を図示した機能ブロック図の一例である。なお、図6では、学習モデルの構築に関する機能を主に説明する。また、各設置場所でカメラ装置10の機能は共通であるか、又は、異なっていても本実施形態の説明には支障がないとする。このため、図6ではカメラ装置10を1つだけ示す。
<<カメラ装置の機能構成>>
カメラ装置10は、画像取得部11、画像処理部12、及び通信部13を有している。これらの各機能は図4に示したCPU106がプログラムを実行してカメラ装置10のハードウェアと協働することで実現される機能又は手段である。ハード的又はソフト的に実現される機能を明確に区別する必要はなく、これらの機能の一部又は全てがICなどのハードウェア回路により実現されてもよい。
また、カメラ装置10は、図4に示したROM又はRAM107により構築される記憶部19を有している。記憶部19には画像DB191が構築されている。画像DB191は、カメラ装置10が直接有していなくてもよく、カメラ装置10がアクセス可能なネットワーク上の任意の場所にあればよい。
画像取得部11は、異常の有無に関係なく定期的に画像6を取得する(撮像する)。十分に短い時間間隔で撮像することで動画を撮像できる。なお、撮像間隔は必ずしも一定でなくよく、時間帯や動体検知結果等で撮像間隔を変更してもよい。画像取得部11は、図4のCPU106がプログラムを実行し撮像部101を制御すること等により実現される。
画像処理部12は、クラスタリングに有効な画像処理を行う。例えば、画像6の輝度の平均や撮像時刻から撮像時刻が日中か夜間を判定し各画像6にラベルとして添付する。あるいは、ノイズ除去、トリミング、高解像度化などの処理を行ってもよい。画像処理部12は、撮像された画像6を画像DB191に記憶する。画像DB191では古い画像6から上書きされ常に一定の新しい画像6が保持されている。画像処理部12は、図4のCPU106がプログラムを実行すること等により実現される。
通信部13は、画像DB191に記憶された画像6を情報処理装置30に送信する。異常検出のリアルタイム性を保証するため、記憶された画像6はすぐに情報処理装置30に送信することが好ましい。このため、通信部13は継続的に画像6を情報処理装置30に送信するが、一定量の画像6が蓄積されてからまとめて送信してもよい。通信部13は、図4のCPU106がプログラムを実行して通信装置108を制御すること等により実現される。
<<情報処理装置の機能構成>>
情報処理装置30は、通信部31、画像蓄積部32、クラスタ設定部33、学習部34、及び、クラスタ判定部35を有している。これらの各機能は図5に示したCPU201がプログラム209pを実行して情報処理装置30のハードウェアと協働することで実現される機能又は手段である。ハード的又はソフト的に実現される機能を明確に区別する必要はなく、これらの機能の一部又は全てがICなどのハードウェア回路により実現されてもよい。
また、情報処理装置30は、図5に示したメモリ202又はHDD209より構築される記憶部39を有している。記憶部39には画像蓄積DB391及び学習モデルDB392が構築されている。これらDBは、情報処理装置30が直接有していなくてもよく、情報処理装置30がアクセス可能なネットワーク上の任意の場所にあればよい。
通信部31は、カメラ装置10から画像6を受信する。通信部31は図5に示したCPU201がプログラム209pを実行してネットワーク・ドライバ205を制御すること等により実現される。
画像蓄積部32は、通信部31が受信した画像6をカメラ装置10の識別情報(設置場所に1台しかカメラ装置10がない場合は設置場所の識別情報でもよい)に対応付けて画像蓄積DB391に記憶する。画像蓄積部32は図5に示したCPU201がプログラム209pを実行すること等により実現される。
クラスタ設定部33は、画像蓄積DB391に蓄積された画像6から特徴量を抽出し、特徴量を用いて各カメラ装置10から送信された画像6をシーンが類似したクラスタにクラスタリングする。シーンとは、画像6が撮像される広義の場面ということができる。例えば、駐車場に設置されたカメラ装置10の画像は異なる駐車場の画像6でもシーンが似ている可能性が高い。クラスタリングの際、最良のクラスタ数の決定を行う。また、日中と夜間では特徴が異なる傾向が強いため、同じカメラ装置10の画像6でも日中と夜間で別々にクラスタが分けられる可能性が高い。更に上記のラベルを使えば確実に日中と夜間で別々にクラスタにクラスタリングできる。クラスタ設定部33は図5に示したCPU201がプログラム209pを実行すること等により実現される。
学習部34は、更に機械学習部1、機械学習部2,…、機械学習部n(nは自然数)を有している。機械学習部1〜nの1〜nはクラスタリングにより形成されるクラスタの数(n個)に対応している。しかしながら、1つの機械学習部(例えば機械学習部1)が全てのクラスタの画像6を学習してもよく、機械学習部1〜nは1つでもよい。機械学習部1は学習により構築した学習モデルC1を学習モデルDB392に記憶させ、機械学習部2は学習により構築した学習モデルC2を学習モデルDB392に記憶させ、機械学習部nは学習により構築した学習モデルCnを学習モデルDB392に記憶させる。以下では、説明の便宜上、単に「学習部34」が学習モデルを構築すると説明する場合がある。学習部34は図5に示したCPU201がプログラム209pを実行すること等により実現される。
クラスタ判定部35は、クラスタ設定部33が生成したクラスタのうち新規設置場所7のカメラ装置10が撮像する画像6がクラスタリングされるクラスタを判定する。例えば、特徴量が最も近いクラスタを選択する。カメラ装置10と学習モデル(クラスタ)の対応は学習モデルDB392に登録される。カメラ装置10が日中か夜間のラベルを付さない場合でも、日中と夜間で特徴量が異なることを利用して日中と夜間のそれぞれで対応するクラスタを判定することが好ましい。なお、画像6が日中に撮像されたのか、夜間に撮像されたのかは情報処理装置30側でも判定可能である。クラスタ判定部35は図5に示したCPU201がプログラム209pを実行すること等により実現される。
また、クラスタ判定部35は、既存設置場所8aのカメラ装置10が撮像する画像6がクラスタリングされるクラスタを判定する。この場合も、クラスタ判定部35は日中と夜間のそれぞれで対応するクラスタを判定することが好ましい。
Figure 2018173914
表1は、学習モデルDB392に格納される情報を模式的に示す。学習モデルDB392は、クラスタIDに対応付けて、学習モデル、カメラID、及び、日中/夜間の各項目を有する。クラスタIDは、最終的にクラスタリングされた各クラスタを特定する情報である。IDはIdentificationの略であり識別子や識別情報という意味である。IDは複数の対象から、ある特定の対象を一意的に区別するために用いられる名称、符号、文字列、数値又はこれらのうち1つ以上の組み合わせをいう。他のIDについても同様である。カメラIDは各カメラ装置10を特定する情報であり、学習モデルと対応付けられている。日中/夜間の項目は各カメラ装置10の日中の画像6と夜間の画像6のそれぞれがどの学習モデルと最も近いかを示す。これにより、既存設置場所8及び新規設置場所7の各カメラ装置10が撮像した画像6をどの学習モデルで異常判定すればよいか決定される。
<クラスタリングの必要性>
クラスタリングの必要性を説明する。まず前提として、カメラ装置10が設置される設置場所の種類は限定的であり、その場所で考えられる正常行動(歩行者等の行動パターン)も限定されるとしてよい。表2は各設置場所の正常行動の一例を示す。
Figure 2018173914
表2に示すように、設置場所が駐車場、家の玄関、建物外周のそれぞれで正常行動は幾つかに限定される。このため、画像6をクラスタリングすることで特徴が類似した画像を集めることができ、類似した画像から学習モデルを構築することで、異常判定の精度を向上できると期待できる。
<クラスタリングの処理>
次に、図7を用いてクラスタリングについて詳細に説明する。図7は、クラスタリングの処理手順を示す流れ図の一例である。以下、図7の各ステップを順番に説明する。
(S1)
クラスタ設定部33は各画像6からノイズを除去した背景画像を取得する。ノイズの除去には、例えば公知の平滑化フィルタを使用すればよい。
(S2)
クラスタ設定部33は背景画像から局所的特徴量及び大域的特徴量を抽出する。局所的特徴量及び大域的特徴量について表3を用いて説明する。
Figure 2018173914
表3は、局所的特徴量と大域的特徴量の利用目的と判定できないことがそれぞれまとめられたものである。局所的特徴量では画像6の一部(局所)の特徴が得られるが、シーンを分類することが得意でない。例えば、車が何台かあっても道路なのか駐車場なのかの特徴が得られない。大域的特徴量はベランダなのか駐車場なのかという画像全体の特徴が得られるが、駐車場と住宅のガレージを分類できない可能性がある。
このように、局所的特徴量と大域的特徴量は補完する関係にあるため、シーンを適切に分類するには局所的特徴量と大域的特徴量の両方を抽出することが有効である。
図8は、クラスタ設定部33が局所的特徴量と大域的特徴量を抽出する手順を示す流れ図を示す。
S2-1:まず、クラスタ設定部33は局所的特徴量を検出する。本実施形態では局所的特徴量の一例としてSIFT(Scale-Invariant Feature Transform)特徴量を取得する。SIFT特徴量は、スケールスペースを使った照明変化や回転、拡大、縮小に頑強な特徴量であり、1つの画像6から128次元の複数の特徴点を取得できる。クラスタ設定部33はまずキーポイントを検出する。キーポイントは、スケールが変わっても画像6上に特徴的に現れる点である。検出には、解像度の異なるガウシアンフィルターを段階的に適用して解像度の異なる画像6を作成し、DoG(Difference of Gaussian)画像の極値を探索する。探索で得られた局所領域の中心部分がキーポイントである。
S2-2:次に、クラスタ設定部33は、キーポイントの近傍に対し濃度の勾配の強さと勾配の向きを検出する(特徴を抽出する)。各キーポイントの勾配の強さと勾配がSIFT特徴量である。クラスタ設定部33は分類対象の全ての画像6についてSIFT特徴量を算出する。
S2-3:次に、クラスタ設定部33は分類対象の全ての画像6について局所的特徴量を分類する。全ての画像6とは既存設置場所8の全ての画像6である。
図9(a)はK-means法による分類を模式的に示す。図9(a)は3次元で各特徴点を示すが、実際は128次元(SIFT特徴量)×画像一枚から得られた特徴点数×画像枚数、の次元を有する。図9(a)の1つの点が1つの特徴点を表す。K-means法では、任意に与えられたクラスタ数の各クラスタに各特徴点を分類する。まず、クラスタ数kは、以下の式で算出される。
クラスタ数k=√{128次元(SIFT特徴量)×画像一枚から得られた特徴点数×画像枚数}
次に、クラスタ設定部33は、このクラスタ数のクラスタに全ての画像6を分類する。クラスタの初期の重心をランダムに与え、各特徴点を最も近い重心のクラスタに振り分け、重心を再計算し、再度、各特徴点を最も近い重心のクラスタに振り分る処理をクラスタ間の移動が無くなるまで繰り返す。図9(b)は3つのクラスタ71に分類された各特徴点を模式的に示す。
S2-4:次に、クラスタ設定部33は、visual
wordsを決定することで量子化する。すなわち、各クラスタの中心(重心)をvisual words72に決定する。これにより、クラスタ数であるk個のvisual wordsが特定される。図9(c)には一例としてk=3とした場合の3つのvisual words72を模式的に示す。visual words72の数はクラスタ数と同じであり、各visual words72の次元数は128次元(SIFT特徴量)×画像一枚から得られた特徴点数×画像枚数である。
S2-5:次に、クラスタ設定部33は、visual
words72を次元とする特徴ベクトルにクラスタリング対象の全ての画像6を変換する。1つの画像6の各局所特徴量について一番近いvisual words72を検索し、そのvisual words72に投票する。これにより、1つの画像6のヒストグラムがえられる。図9(d)にヒストグラムを模式的に示す。図9(d)の横軸はvisual wordsであり、縦軸はある画像6において各visual wordsに最も近いと判定された局所的特徴(SIFT特徴量)の数である。このヒストグラムが各画像6の特徴ベクトルになる。
S2-6:次に、クラスタ設定部33は大域的特徴量を検出する。本実施形態では大域的特徴量の一例としてGIST特徴量を取得する。GIST特徴量は、画像6を小領域に区切り、それらの小領域に対し様々な方向及び周波数のガボールフィルターを適用してシーン情報を記述する特徴量であり、960次元の特徴を有する。GIST特徴量は1枚の画像6から1つ求められるので、ヒストグラムの作成は不要である。
S2-7:次に、クラスタ設定部33は、局所的特徴量と大域的特徴量を合体して最終的な特徴量を生成する。したがって、次元数はvisual wordsの数+960次元となる。
S2-8:クラスタ設定部33は特徴量を出力する。
(S3、S4)
次に、クラスタ設定部33は、特徴量をn個のクラスタにクラスタリングする。ここで、n個は固定された値ではなく、最良のクラスタ数が動的に決定される。
図10は、クラスタリングを説明する図の一例である。図10(a)はステップS2で特徴量に変換された各画像6の集合を模式的に示している。計算を容易にするため、画像6は1つのカメラ装置10に対し1枚でよい。
クラスタリングには局所的特徴量の分類に使用したK-means法を用いる他、ガウシアンミクスチャーモデルを利用したEMアルゴリズム、又は、LDA(Latent Dirichlet Allocation)等の方法を使用してもよい。なお、K-means法とEMアルゴリズムではクラスタ数を決定できない(適宜、与える必要がある)。これに対し、LDAではクラスタリングとクラスタ数を同時に決定することができる。本実施形態では、K-means法、又は、EMアルゴリズムによりクラスタリングされた例として、後述するStacked Auto Encoderを用いて最適なクラスタ数を決定する。
最良のクラスタ数を決定するため、クラスタ設定部33はクラスタ数iを変えてクラスタリングを行う。図10ではi=5,6,100のクラスタが模式的に示されている。クラスタ設定部33は、クラスタ数をi=5〜100としてクラスタリングを行う。図10(b)はクラスタ数をi=5、6及び100のクラスタリングの結果を模式的に示す。
クラスタ数の設定の際は、クラスタ数iを1つずつ大きくしてもよいし、クラスタ数iを例えば10ずつ大きくし分離度がよくなるクラスタ数の周辺でより小さくクラスタ数iを変えて評価してもよい。
クラスタ数を評価するためクラスタ判定部35はクラスタリングを行うごとに分離度Rを算出する。図11は分離度Rを説明する図の一例である。本実施例では分離度Rの算出のため一例としてSAE(Stacked Auto Encoder)を利用する。図11ではクラスタ数i=4の場合を例にして説明する。クラスタリングでそれぞれのクラスタに2500枚の画像6が分類されたとする。クラスタの画像6の一部(例えば2000枚)を学習に使用し、残り(例えば500枚)を識別に使用する。
図12はSAEの学習方法を説明する図の一例である。まず、オートエンコーダ(Auto Encoder)とは、特徴を圧縮しても元のパターンへ復元が可能な特徴表現力があるネットワークをいう。したがって、オートエンコーダは特徴を圧縮して学習することができ、学習がうまくいくと入力層のデータが圧縮されても復元できる。SAEは、オートエンコーダが組み合わされた(積み重ねられた)ネットワークである。図12(a)はSAEの一例であり、図12(b)(c)(d)はオートエンコーダの一例である。通常、中間層が2層以上あると、不適切な極小解に収束してしまい誤差逆伝播がうまくいかない(これを勾配消失問題という)。SAEではこれを2層連続して計算するのではなくて、1層ずつ積み上げていくことで勾配消失問題に陥りにくくする。SAEの学習がうまくいくとSAEは画像6を復元できる。ただし、SAEは異常画像が入力された場合は復元できないので、画像6は正常な画像のみであるとする。
図12(a)に示すように入力層x、隠れ層y、隠れ層z、出力層sにかけて特徴(ノード)が減少することが特徴の圧縮に相当し、出力層s、隠れ層z´、隠れ層y´、入力層x´にかけてノード数が元に戻ることが元のパターンへの復元に相当する。SAEでこのようなニューラルネットワークのパラメータを学習する場合、図12(b)に示すオートエンコーダで、入力層xと隠れ層yの間のパラメータ(重み)を学習する。
次に、図12(a)の隠れ層yと隠れ層zのパラメータ(重み)を得るために、図12(b)のyを復元するように、図12(c)に示すオートエンコーダで隠れ層yと隠れ層zのパラメータ(重み)を学習する。次に、図12(a)の隠れ層zと出力層sのパラメータ(重み)を得るために、図12(c)のzを復元するように、図12(d)に示すオートエンコーダで隠れ層zと出力層sのパラメータ(重み)を学習する。以上で、図12(a)のSAEのパラメータ(重み)が学習される。
図11に戻って説明する。識別用の500枚の画像6をx、SAEを関数f()で表してSAEの出力をf(x)とする。スコアSを以下で定義する。iはクラスタの番号である。スコアSは画像6の特徴量の空間におけるL2ノルム(距離)の二乗である。
Figure 2018173914
この計算を各クラスタから抽出した1枚の画像6に対して行う。Sciは学習がうまくいくほど小さくなる。
次に、全クラスタの分離度Rを次のように定義する。
Figure 2018173914
学習がうまくいくこととクラスタリングがうまくいくことは相関するので、分離度Rが小さい方が好ましい。したがって、クラスタ設定部33は幾つかクラスタ数iを変えて分離度Rを算出し、分離度Rが最も小さい時のクラスタ数iでクラスタリングすると判定する。つまり、各クラスタのスコアSを合計した値が最も小さくなるようにクラスタ数を決定する
なお、SAE以外でクラスタ数を決定する方法としては、AIC(Akaike’s Information Criterion)、BIC(Bayesian Information Criterion)などがある。
(S5)
次に、学習部34は、クラスタリングされた画像6から異常判定するための学習モデルを作成する。異常判定するため、学習部34は正常な画像6のみを学習する。
図13は画像6から異常の有無を判定する学習モデルを模式的に示す。本実施形態では一例としてディープラーニングとSVMを組み合わせた学習モデルを説明する。図13に示すように、ディープラーニングのための多層パーセプトロンの入力層301には1つの画像6が均等に分割されたパッチ領域が入力される。学習フェーズでは出力層303に画像6が正常であることを意味する値(例えば1)が入力される。多層パーセプトロンにおいて入力層301と中間層302と出力層303の重みの学習には誤差逆伝播法が用いられることが一般的である。なお、出力層303のノードの数は、画像6の特徴を適切に抽出できる数として適宜、設計される。出力層303の各ノードの出力値は動体の特徴を表す値に数値化されるが詳細は図14で説明する。
SVM305は本来2クラス判別を行う教師付き学習のアルゴリズムであるが、SVMは1クラスSVMとしても利用可能である。1クラスSVMでは、2クラス判別がデータの高密度領域を推定する領域判別問題に置き換えられるので、教師信号が不要になる。サポートベクトルの算出にはラグランジュの未定定数法が使用されるが詳細は省略する。図に示すように正常な特徴ベクトルの領域を特定できるため、この領域から外れるほど異常の可能性が高いと異常判定部36が判定できる。
なお、学習はステップS3でクラスタリングされた同じクラスタの画像6ごとに行われる。したがって、シーンごとに正常であることを学習した学習モデルが得られる。
図14は、図13の学習の手順をより詳細に説明する図の一例である。図14(a)は各クラスタ71の複数の画像6を模式的に示す。図14(a)のクラスタ71はいずれも駐車場の画像6が分類されるクラスタであるが、車の移動、歩行などのシーンごとにクラスタリングされている。なお、それぞれ正常行動のみの画像6である。図14(b)に示すように、学習部34は1枚の画像6をパッチ領域(縦横均等に分割)に分割し、図13に示した多層パーセプトロンの入力層301に入力する。パッチ領域に分割することで、シーンの構造を考慮する必要がなくなるという利点がある。例えば、出庫する車はどちらの方向から移動しても同じ特徴になる。図14(b)では移動中の車が写っているパッチ領域304を太枠で示した。パッチ領域ごとに特徴抽出した場合、車などが動くと、同じ車が異なる画像6の異なるパッチ領域で検出される。したがって、学習部34は抽出された特徴量により同じ車を異なる画像間で追跡することができる。
学習部34は、多層パーセプトロンの出力層303から得られた特徴量から時刻tの画像6の各パッチ領域の特徴量を取得し、時刻t−1,t−2…などの過去の画像6の特徴量とマッチングする。これにより、車がどのパッチ領域に移動したか判定できる。例えば、1つ前の画像6(動画の1フレーム)では左端のパッチ領域にあった車が右に1パッチ領域移動したことが分かる。以上から、図14(c)に示すように、移動している車の形状(特徴量)、及び、動き(移動速度)を数値化できる。車の形状を表す特徴量はディープラーニングにより抽出される。移動速度は、nパッチ領域/1画像、nパッチ領域/1秒、nメートル/1秒、などのように扱いやすい単位で算出すればよい。このように形状(特徴量)、及び、動き(移動速度)が数値化されSVM305に入力される。異常が発生する場合は何らかの動きがあるので、動体が検出されている(移動速度がゼロより大きい)パッチ領域のみから特徴を抽出すればよい。
学習部34は以上のようにしてクラスタごとに全ての画像6を学習し学習モデルC1〜Cnを作成する。
<異常検出時の機能について>
学習モデルC1〜Cnが得られると、情報処理装置30は動画に対し異常判定を開始する。図15は、異常判定に関する情報処理装置30の機能ブロック図の一例である。図15の情報処理装置30は通信部31、異常判定部36(区別する場合異常判定部1〜nという)、異常判定部x及び判定結果処理部37を有する。まず、異常判定部1〜nは、それぞれ学習モデルC1〜Cnを有している。nは図7のステップS3、S4のクラスタ数である。クラスタ判定部35はそれぞれの既存設置場所8の画像6から局所的特徴量と大域的特徴量を求めることで既存設置場所8の画像6が最も近いクラスタを決定できる。クラスタと既存設置場所8(カメラID)の対応は表1に示した。既存設置場所8と学習モデルの対応付けは、異常判定の開始前に1回行えばよい。
通信部31は、学習モデルC1〜CnとカメラIDの対応に基づいて、各既存設置場所8から送信された画像6を異常判定部1〜nに割り振る。この時、日中か夜間かのラベルを参照し、日中用の異常判定部36又は夜間用の異常判定部36に割り振ることが更に好ましい。新規設置場所7と学習モデルの対応付けは、異常判定の開始前に1回行えばよい。
異常判定部xは、新規設置場所7のカメラの画像6を異常判定する。異常判定部xは学習モデルCxを有している。同様に、クラスタ判定部35は新規設置場所7の画像6から局所的特徴量と大域的特徴量を求めることで新規設置場所7の画像6が最も近いクラスタを決定できる。日中と夜間の判別も異常判定部1〜nと同様でよい。
異常判定部1〜n及び異常判定部xは割り当てられている学習モデルを使用して正常な画像6にどれだけ近いかを示す確度を算出する。確度は例えば0〜1の値を取り、正常に近いほど高い値となる。
判定結果処理部37は、異常判定部1〜n及び異常判定部xが算出する確度を取得し、異常があるか否かを判定する。例えば、確度が閾値未満の場合に異常があると判定すればよい。異常があると判定した場合、警備員の派遣や顧客へ異常がある旨を通知したりする。
<既存設置場所の異常検出>
図16は既存設置場所8の異常検出を模式的に説明する図の一例である。図16では既存設置場所8aを例にするが、他の既存設置場所8も同様である。
(1)クラスタ判定部35は、既存設置場所8aのカメラ装置10が撮像した画像6をクラスタリングすることで、日中と夜間それぞれの画像6に適した学習モデルを判定する。
(2)異常検出の開始後、既存設置場所8aのカメラ装置10は動画を情報処理装置30に送信する。動画には日中又は夜間のラベルが付与されているものとする。情報処理装置30が日中又は夜間を判定してもよい。
(3)既存設置場所8aに対応する異常判定部36は、既存設置場所8の日中又は夜間に割り当てられた学習モデルを使って、画像6の異常の有無を判定する。
(4)異常判定部36による判定結果(確度)は判定結果処理部37に送出される。
このように、既存設置場所8aの画像6に対しても、クラスタリングされた画像6から作成された学習モデルを使って異常判定することができるので、より精度よく異常判定することが可能になる。
<新規設置場所の異常検出>
図17は新規設置場所7の異常検出を模式的に説明する図の一例である。
(1)クラスタ判定部35は、新規設置場所7のカメラ装置10が撮像した画像6をクラスタリングすることで、日中と夜間それぞれの画像6に適した学習モデルを判定する。
(2)異常検出の開始後、新規設置場所7のカメラ装置10は動画を情報処理装置30に送信する。動画には日中又は夜間のラベルが付与されているものとする。情報処理装置30が日中又は夜間を判定してもよい。
(3)新規設置場所7の異常判定部36は、新規設置場所7の日中又は夜間に割り当てられた学習モデルを使って、画像6の異常の有無を判定する。
(4)異常判定部36による判定結果(確度)は判定結果処理部37に送出される。
このように、新規設置場所7にカメラ装置10が新たに設置された場合、既存設置場所8の画像6をクラスタリングして得た学習モデルを使って異常判定することができるので、カメラ装置10が新たに設置された当初から、精度よく異常判定することが可能になる。
<判定結果の処理例>
図18を用いて判定結果処理部37の処理について説明する。図18は、判定結果処理部37が行う処理を模式的に説明する図の一例である。
(1)上記のように画像6が異常判定部36に入力される。異常判定部36は、異常の判定結果と共にカメラ装置10の設置場所に関する情報(例えば、顧客IDや顧客名)及び異常の判定に用いた動画を判定結果処理部37に送出する。
(2)判定結果処理部37は異常の判定結果と閾値を比較し、異常の可能性が高いか否かを判定する。異常の可能性が高いと判定した場合、少なくとも動画の一部と判定結果を顧客及び警備員に送信する。送信の前に監視員が目視で動画を確認することがより好ましい。なお、送信先は、警備員を派遣する司令塔となるガードセンター、警備員が常駐している待機所、現地周辺の警備員、顧客、などである。
図18では、顧客又は警備員等が有する携帯端末74a、74bの画面例が示されている。携帯端末74aの画面には「異常度80%」というメッセージ401、動画表示欄402、及び、動画の再生ボタン403等が表示されている。顧客や警備員はメッセージや動画を目視して適切な対応を取ることができる。携帯端末74bには複数のカメラ装置10のうち1つのカメラ装置10が強調して表示されている。このように、1つの設置場所に複数のカメラ装置10が設置されている場合、どのカメラ装置10で異常が検出されたかを表示することで、顧客や警備員は異常の発生場所を特定しやすくなる。
(3)顧客や警備員は必要に応じて警察に通報したり、警備員が現地に赴いて確認したりする。警備員が現地に赴いたが正常であった場合、警備員はその旨を判定結果処理部37に通知する(フィードバックする)。通知の際は、携帯端末74a、74bに送信された動画(又はこの動画を特定できる情報)を判定結果処理部37に送信する。学習部34はこの動画が正常であることを教師信号にして学習できるため、異常検出の精度を向上させることができる。
<カメラ装置における学習モデルの利用方法>
本実施形態では監視センターで異常を判定していたが、カメラ装置10が異常を判定することも可能である。
図19(a)は新規設置場所7のカメラ装置10が学習モデルCxを使用して異常判定する手順を示す。
(1)新規設置場所7のカメラ装置10は画像6を撮像する。少なくとも1枚の画像6があればよく動画である必要はない。
(2)カメラ装置10は画像6を情報処理装置30に送信する。
(3)情報処理装置30は画像6を記憶しておく。
(4)情報処理装置30は新規設置場所7の画像6がどのクラスタに当てはまるかを判定する。
(5)情報処理装置30は当てはまると判定した学習モデルCxをカメラ装置10に送信する。カメラ装置10はこの学習モデルCxを使って異常判定するので、異常判定フェーズでは動画を情報処理装置30に送信する必要がない。
図19(b)は新規設置場所7のカメラ装置10が撮像した画像6を使用して異常判定する手順を示す。新規設置場所7のカメラ装置10もある程度の時間が経過すると、学習に十分な画像6を撮像することができる。
(1)新規設置場所7のカメラ装置10は画像6を撮像する。異常判定するための画像6であるため、複数の画像6(動画)であることが好ましい。
(2)カメラ装置10は画像6を情報処理装置30に送信する。
(3)情報処理装置30は複数の画像6を記憶しておく。
(4)情報処理装置30はある程度の画像6が蓄積されると正常な画像6を学習し学習モデルCx(Ver2.0)を作成する。
(5)情報処理装置30は作成した学習モデルCx(Ver2.0)を新規設置場所7のカメラ装置10に送信する。
(6)カメラ装置10はこの学習モデルCx(Ver2.0)を使って異常判定することができる。元の学習モデルCxと併用してもよい。併用する場合、元の学習モデルCxと学習モデルCx(Ver2.0)の一方でも異常と判定した場合、異常を監視センターに送信する。これにより失報を低減できる。
図19で説明したように、新規設置場所7のカメラ装置10は設置された直後から異常判定が可能であり、時間が経過すると設置された場所で撮像した画像6の学習モデルで異常判定できる。
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
本実施形態では画像6に基づく異常検出が行われたが、情報処理装置30は音を識別して異常を検出することも可能である。この場合、カメラ装置10は音を集音するマイク等を有している。カメラ装置10が収集した音データは画像6と共に情報処理装置30に送信される。情報処理装置30は正常な音データを学習しておき、異常か否かを判定する。この場合も、新規設置場所7への設置の直後から異常を検出できる。
また、図2のシステム構成図ではカメラ装置10と情報処理装置30が別体であるが、図19にて説明したように、カメラ装置10と情報処理装置30は一体でもよい。
また、同じ場所のカメラ装置10でも日中と夜間の画像は異なるクラスタに分類され得ることを説明したが、より細かく時間帯ごとに異なるクラスタに分類されてもよい。また、天候、季節ごとに異なるクラスタに分類されてもよい。このように、クラスタ設定部33はカメラ装置10が画像を撮像する環境に応じて各画像を適切なクラスタに分類できる。
また、図6、15などの構成例は、カメラ装置10と情報処理装置30による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。カメラ装置10と情報処理装置30の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
また、図6,15では情報処理装置30が一台であるが、同じ情報処理装置30が複数台、存在してもよいし、複数の情報処理装置30に図6,15の機能が分散されていてもよい。
なお、通信部31,画像蓄積部32は画像取得手段の一例であり、クラスタ設定部33は分類手段の一例であり、学習部34は学習手段の一例であり、異常判定部36は異常判定手段の一例であり、学習モデルCx(Ver2.0)を用いた異常判定部36は第二の異常判定手段の一例であり、クラスタ判定部35は決定手段の一例である。
6 :画像
7 :新規設置場所
8 :既存設置場所
9 :監視センター
10 :カメラ装置
30 :情報処理装置
100 :画像処理システム

Claims (11)

  1. 撮像装置が撮像した画像から異常検出を行う画像処理システムであって、
    異なる設置場所に設置された複数の第一の撮像装置から前記画像を取得する画像取得手段と、
    特徴が類似する前記画像をそれぞれクラスタに分類する分類手段と、
    前記クラスタに分類された前記画像を学習して異常を検出する異常判定手段を前記クラスタごとに構築する学習手段と、
    前記第一の撮像装置とは異なる設置場所に設置された第二の撮像装置が撮像した前記画像と類似する前記第一の撮像装置の画像が分類された前記クラスタを判定し、該クラスタに分類された前記画像から構築された前記異常判定手段を決定する決定手段と、
    を有する画像処理システム。
  2. 前記決定手段が決定した前記異常判定手段は、前記第二の撮像装置が撮像した前記画像から異常検出を行う請求項1に記載の画像処理システム。
  3. 前記分類手段は、前記第一の撮像装置が撮像した前記画像から局所的特徴量及び大域的特徴量を抽出し、局所的特徴量及び大域的特徴量が類似する前記画像を、前記設置場所にかかわらず同じ前記クラスタに分類する請求項1又は2に記載の画像処理システム。
  4. 前記分類手段は、局所的特徴量及び大域的特徴量が抽出された画像をいくつかの数の前記クラスタに分類し、分類が適切なほど小さくなる分離度を算出し、
    前記分離度が最も小さくなる前記数を決定し、前記数の前記クラスタに前記第一の撮像装置が撮像した前記画像を分類する請求項3に記載の画像処理システム。
  5. 前記分類手段は、Stacked
    Auto Encoderにより構築したニューラルネットワークに入力した前記第一の撮像装置が撮像した前記画像と、前記ニューラルネットワークが出力した出力値の差を前記クラスタごとに算出し、各クラスタの前記差を合計した値が最も小さくなるように前記数を決定する請求項4に記載の画像処理システム。
  6. 前記分類手段は、同じ前記設置場所の前記第一の撮像装置が撮像した前記画像を、該画像が撮像された環境に応じて異なる前記クラスタに分類し、
    前記学習手段は、前記環境に応じて異なる前記クラスタに分類された前記画像から前記異常判定手段を構築する請求項1〜5のいずれか1項に記載の画像処理システム。
  7. 前記学習手段は、領域に分割された前記画像の特徴をディープラーニングで抽出し、
    前記領域の特徴に基づき前記画像に写っている対象の形状と動きを数値化し、
    前記対象の形状と動きを正常であると分類する前記異常判定手段をSVM(サポートベクトルマシン)で構築する請求項1〜5のいずれか1項に記載の画像処理システム。
  8. 異なる設置場所に設置された複数の他の撮像装置から画像を取得する画像取得手段と、
    特徴が類似する前記画像をそれぞれクラスタに分類する分類手段と、
    前記クラスタに分類された前記画像を学習して異常を検出する異常判定手段を前記クラスタごとに構築する学習手段と、を有する情報処理装置から学習モデルを取得して、
    撮像した画像から異常検出を行う撮像装置であって、
    前記画像を前記情報処理装置に送信して、前記画像の特徴が類似する前記画像が分類された前記クラスタから構築された前記異常判定手段を取得し、
    前記情報処理装置から取得した前記異常判定手段により撮像した画像の異常判定を行うことを特徴とする撮像装置。
  9. 前記撮像装置が撮像した画像から構築された第二の異常判定手段を前記情報処理装置から取得し、
    前記第二の異常判定手段と前記異常判定手段の両方で異常判定を行うことを特徴とする請求項8に記載の撮像装置。
  10. 撮像装置が撮像した画像から異常検出を行う画像処理システムが行う学習モデル作成方法であって、
    画像取得手段が、異なる設置場所に設置された複数の第一の撮像装置から前記画像を取得するステップと、
    分類手段が、特徴が類似する前記画像をそれぞれクラスタに分類するステップと、
    学習手段が、前記クラスタに分類された前記画像を学習して異常を検出する異常判定手段を前記クラスタごとに構築するステップと、
    決定手段が、前記第一の撮像装置とは異なる設置場所に設置された第二の撮像装置が撮像した前記画像と類似する前記画像が分類された前記クラスタを判定し、該クラスタから構築された前記異常判定手段を決定するステップと、
    を有する学習モデル作成方法。
  11. 撮像装置が撮像した画像から異常検出を行う学習モデルを作成する情報処理装置であって、
    異なる設置場所に設置された複数の第一の撮像装置から前記画像を取得する画像取得手段と、
    特徴が類似する前記画像をそれぞれクラスタに分類する分類手段と、
    前記クラスタに分類された前記画像を学習して異常を検出する異常判定手段を前記クラスタごとに構築する学習手段と、
    前記第一の撮像装置とは異なる設置場所に設置された第二の撮像装置が撮像した前記画像と類似する前記画像が分類された前記クラスタを判定し、該クラスタから構築された前記異常判定手段を決定する決定手段と、
    を有する情報処理装置。
JP2017073011A 2017-03-31 2017-03-31 画像処理システム、撮像装置、学習モデル作成方法、情報処理装置 Active JP6905850B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017073011A JP6905850B2 (ja) 2017-03-31 2017-03-31 画像処理システム、撮像装置、学習モデル作成方法、情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017073011A JP6905850B2 (ja) 2017-03-31 2017-03-31 画像処理システム、撮像装置、学習モデル作成方法、情報処理装置

Publications (2)

Publication Number Publication Date
JP2018173914A true JP2018173914A (ja) 2018-11-08
JP6905850B2 JP6905850B2 (ja) 2021-07-21

Family

ID=64107841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017073011A Active JP6905850B2 (ja) 2017-03-31 2017-03-31 画像処理システム、撮像装置、学習モデル作成方法、情報処理装置

Country Status (1)

Country Link
JP (1) JP6905850B2 (ja)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019074837A (ja) * 2017-10-13 2019-05-16 ホーチキ株式会社 異常判定システム、監視装置、異常判定方法、及びプログラム
WO2019235161A1 (ja) * 2018-06-04 2019-12-12 日本電信電話株式会社 データ分析システムおよびデータ分析方法
JP2020077337A (ja) * 2018-11-09 2020-05-21 セコム株式会社 画像監視システム
JP2020077328A (ja) * 2018-11-09 2020-05-21 セコム株式会社 店舗装置
JP2020091527A (ja) * 2018-12-03 2020-06-11 株式会社チームボックス モニタリング装置、モニタリングシステム、モニタリング方法及びモニタリングプログラム
JP2020120276A (ja) * 2019-01-24 2020-08-06 株式会社リクルート 監視装置及びドローン
JP2020126306A (ja) * 2019-02-01 2020-08-20 日産自動車株式会社 画像処理方法、画像処理装置及び物体認識方法
JP2020129775A (ja) * 2019-02-12 2020-08-27 オムロン株式会社 画像利用許諾装置、画像利用許諾方法、および画像利用許諾プログラム
WO2020184005A1 (ja) * 2019-03-14 2020-09-17 Navier株式会社 画像処理学習プログラム、画像処理プログラム、情報処理装置及び画像処理システム
JP2020160608A (ja) * 2019-03-25 2020-10-01 株式会社日立製作所 異常検知システム
WO2020213106A1 (en) * 2019-04-17 2020-10-22 Nec Corporation Image processing apparatus, image processing method and non-transitoty computer readable medium
WO2020218157A1 (ja) * 2019-04-25 2020-10-29 国立大学法人静岡大学 予測システム、予測方法、および予測プログラム
KR20210040546A (ko) * 2019-10-04 2021-04-14 에스케이텔레콤 주식회사 보안 비디오에 대한 어노말리 검출장치 및 방법
JP2021077486A (ja) * 2019-11-06 2021-05-20 パナソニックIpマネジメント株式会社 照明装置、照明制御システム、及び、スタジアム
WO2021095351A1 (ja) * 2019-11-13 2021-05-20 アイシースクウェアパートナーズ株式会社 監視装置、監視方法、及びプログラム
JP2021170204A (ja) * 2020-04-15 2021-10-28 株式会社Ridge−i 情報処理装置、情報処理方法及び情報処理プログラム
JP2022003765A (ja) * 2019-12-16 2022-01-11 Assest株式会社 危険度判別プログラム
CN113992778A (zh) * 2021-09-30 2022-01-28 紫光展锐(重庆)科技有限公司 一种设备检测的方法、装置、芯片及模组设备
WO2022038705A1 (ja) * 2020-08-19 2022-02-24 日本電気株式会社 基準状態決定装置、状態判定システム、基準状態決定方法、及び非一時的なコンピュータ可読媒体
JP2022137959A (ja) * 2021-03-09 2022-09-22 三菱電機株式会社 入場監視装置、入場監視システムおよび入場監視プログラム
JP2022191288A (ja) * 2019-01-18 2022-12-27 日本電気株式会社 情報処理装置
JP2023168733A (ja) * 2022-05-16 2023-11-29 東京電力ホールディングス株式会社 侵入者検知システム及びプログラム
US11854187B2 (en) 2020-10-13 2023-12-26 Mitsubishi Electric Corporation Model generation device, abnormality determination device, abnormality determination system, model generation method, and recording medium
JP2025049002A (ja) * 2023-09-21 2025-04-03 ソフトバンクグループ株式会社 システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008001889A1 (en) * 2006-06-29 2008-01-03 Fujitsu Limited Color classifying method, color recognizing method, color classifying device, color recognizing device, color recognizing system, computer program, and recording medium
JP2012243196A (ja) * 2011-05-23 2012-12-10 Morpho Inc 画像識別装置、画像識別方法、画像識別プログラム及び記録媒体
JP2012252507A (ja) * 2011-06-02 2012-12-20 Panasonic Corp 人物属性推定システム、人物属性推定装置、及び人物属性推定方法
JP2015176283A (ja) * 2014-03-14 2015-10-05 オムロン株式会社 事象検出装置および事象検出方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008001889A1 (en) * 2006-06-29 2008-01-03 Fujitsu Limited Color classifying method, color recognizing method, color classifying device, color recognizing device, color recognizing system, computer program, and recording medium
JP2012243196A (ja) * 2011-05-23 2012-12-10 Morpho Inc 画像識別装置、画像識別方法、画像識別プログラム及び記録媒体
JP2012252507A (ja) * 2011-06-02 2012-12-20 Panasonic Corp 人物属性推定システム、人物属性推定装置、及び人物属性推定方法
JP2015176283A (ja) * 2014-03-14 2015-10-05 オムロン株式会社 事象検出装置および事象検出方法

Cited By (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019074837A (ja) * 2017-10-13 2019-05-16 ホーチキ株式会社 異常判定システム、監視装置、異常判定方法、及びプログラム
JP7001419B2 (ja) 2017-10-13 2022-01-19 ホーチキ株式会社 異常判定システム、監視装置、異常判定方法、及びプログラム
WO2019235161A1 (ja) * 2018-06-04 2019-12-12 日本電信電話株式会社 データ分析システムおよびデータ分析方法
JP2019211942A (ja) * 2018-06-04 2019-12-12 日本電信電話株式会社 データ分析システムおよびデータ分析方法
JP7106997B2 (ja) 2018-06-04 2022-07-27 日本電信電話株式会社 データ分析システムおよびデータ分析方法
JP7198052B2 (ja) 2018-11-09 2022-12-28 セコム株式会社 画像監視システム
JP2020077337A (ja) * 2018-11-09 2020-05-21 セコム株式会社 画像監視システム
JP2020077328A (ja) * 2018-11-09 2020-05-21 セコム株式会社 店舗装置
JP7161920B2 (ja) 2018-11-09 2022-10-27 セコム株式会社 店舗装置
JP2020091527A (ja) * 2018-12-03 2020-06-11 株式会社チームボックス モニタリング装置、モニタリングシステム、モニタリング方法及びモニタリングプログラム
JP2022191288A (ja) * 2019-01-18 2022-12-27 日本電気株式会社 情報処理装置
US12333862B2 (en) 2019-01-18 2025-06-17 Nec Corporation Information processing device
US12175798B2 (en) 2019-01-18 2024-12-24 Nec Corporation Information processing device
JP7416165B2 (ja) 2019-01-18 2024-01-17 日本電気株式会社 情報処理装置
US12183122B2 (en) 2019-01-18 2024-12-31 Nec Corporation Information processing device
JP7267756B2 (ja) 2019-01-24 2023-05-02 株式会社リクルート 監視装置及びドローン
JP2020120276A (ja) * 2019-01-24 2020-08-06 株式会社リクルート 監視装置及びドローン
JP7169894B2 (ja) 2019-02-01 2022-11-11 日産自動車株式会社 画像処理方法、画像処理装置及び物体認識方法
JP2020126306A (ja) * 2019-02-01 2020-08-20 日産自動車株式会社 画像処理方法、画像処理装置及び物体認識方法
JP2020129775A (ja) * 2019-02-12 2020-08-27 オムロン株式会社 画像利用許諾装置、画像利用許諾方法、および画像利用許諾プログラム
JP7212257B2 (ja) 2019-02-12 2023-01-25 オムロン株式会社 監視システム、画像利用許諾方法、および画像利用許諾プログラム
WO2020184005A1 (ja) * 2019-03-14 2020-09-17 Navier株式会社 画像処理学習プログラム、画像処理プログラム、情報処理装置及び画像処理システム
CN112868048A (zh) * 2019-03-14 2021-05-28 纳维株式会社 图像处理学习程序、图像处理程序、信息处理装置以及图像处理系统
JP2020149471A (ja) * 2019-03-14 2020-09-17 Navier株式会社 画像処理学習プログラム、画像処理プログラム、情報処理装置及び画像処理システム
JP2020160608A (ja) * 2019-03-25 2020-10-01 株式会社日立製作所 異常検知システム
WO2020213106A1 (en) * 2019-04-17 2020-10-22 Nec Corporation Image processing apparatus, image processing method and non-transitoty computer readable medium
JP7279817B2 (ja) 2019-04-17 2023-05-23 日本電気株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US12217490B2 (en) 2019-04-17 2025-02-04 Nec Corporation Image processing apparatus, image processing method and non-transitory computer readable medium
JP2022528491A (ja) * 2019-04-17 2022-06-13 日本電気株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP7452879B2 (ja) 2019-04-25 2024-03-19 国立大学法人静岡大学 予測システム、予測方法、および予測プログラム
WO2020218157A1 (ja) * 2019-04-25 2020-10-29 国立大学法人静岡大学 予測システム、予測方法、および予測プログラム
JPWO2020218157A1 (ja) * 2019-04-25 2020-10-29
KR102332183B1 (ko) 2019-10-04 2021-12-01 에스케이텔레콤 주식회사 보안 비디오에 대한 어노말리 검출장치 및 방법
KR102276086B1 (ko) 2019-10-04 2021-07-12 에스케이텔레콤 주식회사 보안 비디오에 대한 어노말리 검출장치 및 방법
KR20210082412A (ko) * 2019-10-04 2021-07-05 에스케이텔레콤 주식회사 보안 비디오에 대한 어노말리 검출장치 및 방법
KR20210040546A (ko) * 2019-10-04 2021-04-14 에스케이텔레콤 주식회사 보안 비디오에 대한 어노말리 검출장치 및 방법
JP2021077486A (ja) * 2019-11-06 2021-05-20 パナソニックIpマネジメント株式会社 照明装置、照明制御システム、及び、スタジアム
JP7653615B2 (ja) 2019-11-06 2025-03-31 パナソニックIpマネジメント株式会社 照明装置、照明制御システム、及び、スタジアム
JP2021077295A (ja) * 2019-11-13 2021-05-20 尚範 伊達 監視装置、監視方法、及びプログラム
WO2021095351A1 (ja) * 2019-11-13 2021-05-20 アイシースクウェアパートナーズ株式会社 監視装置、監視方法、及びプログラム
CN115004269A (zh) * 2019-11-13 2022-09-02 株式会社计数技研 监视装置、监视方法及程序
CN115004269B (zh) * 2019-11-13 2024-04-16 株式会社计数技研 监视装置、监视方法及程序
JP2022003765A (ja) * 2019-12-16 2022-01-11 Assest株式会社 危険度判別プログラム
JP7667546B2 (ja) 2019-12-16 2025-04-23 Assest株式会社 危険度判別プログラム
JP2022003758A (ja) * 2019-12-16 2022-01-11 Assest株式会社 危険度判別プログラム
JP7714183B2 (ja) 2019-12-16 2025-07-29 Assest株式会社 危険度判別プログラム
JP6994224B2 (ja) 2020-04-15 2022-01-14 株式会社Ridge-i 情報処理装置、情報処理方法及び情報処理プログラム
JP2021170204A (ja) * 2020-04-15 2021-10-28 株式会社Ridge−i 情報処理装置、情報処理方法及び情報処理プログラム
WO2022038705A1 (ja) * 2020-08-19 2022-02-24 日本電気株式会社 基準状態決定装置、状態判定システム、基準状態決定方法、及び非一時的なコンピュータ可読媒体
JP7491383B2 (ja) 2020-08-19 2024-05-28 日本電気株式会社 基準状態決定装置、基準状態決定方法、及びプログラム
JPWO2022038705A1 (ja) * 2020-08-19 2022-02-24
US12380667B2 (en) 2020-08-19 2025-08-05 Nec Corporation Reference state deciding device, state determination system, reference state deciding method, and non-transitory computer readable medium
US11854187B2 (en) 2020-10-13 2023-12-26 Mitsubishi Electric Corporation Model generation device, abnormality determination device, abnormality determination system, model generation method, and recording medium
JP2022137959A (ja) * 2021-03-09 2022-09-22 三菱電機株式会社 入場監視装置、入場監視システムおよび入場監視プログラム
JP7692709B2 (ja) 2021-03-09 2025-06-16 三菱電機株式会社 入場監視装置、入場監視システムおよび入場監視プログラム
CN113992778B (zh) * 2021-09-30 2023-12-26 紫光展锐(重庆)科技有限公司 一种设备检测的方法、装置、芯片及模组设备
CN113992778A (zh) * 2021-09-30 2022-01-28 紫光展锐(重庆)科技有限公司 一种设备检测的方法、装置、芯片及模组设备
JP2023168733A (ja) * 2022-05-16 2023-11-29 東京電力ホールディングス株式会社 侵入者検知システム及びプログラム
JP2025049002A (ja) * 2023-09-21 2025-04-03 ソフトバンクグループ株式会社 システム

Also Published As

Publication number Publication date
JP6905850B2 (ja) 2021-07-21

Similar Documents

Publication Publication Date Title
JP6905850B2 (ja) 画像処理システム、撮像装置、学習モデル作成方法、情報処理装置
CN112132045B (zh) 一种基于计算机视觉的小区人员异常行为监控方案
CN110428522B (zh) 一种智慧新城的智能安防系统
US9928423B2 (en) Efficient retrieval of anomalous events with priority learning
US20030058111A1 (en) Computer vision based elderly care monitoring system
CN109154976A (zh) 通过机器学习训练对象分类器的系统和方法
CN107644190A (zh) 行人监控方法和装置
KR102260123B1 (ko) 지역내 이벤트감지장치 및 그 장치의 구동방법
KR102397837B1 (ko) 엣지 컴퓨팅 기반 보안 감시 서비스 제공 장치, 시스템 및 그 동작 방법
EP2798578A2 (en) Clustering-based object classification
KR20220000226A (ko) 엣지 컴퓨팅 기반 지능형 보안 감시 서비스 제공 시스템
CN111553305B (zh) 一种违章视频识别系统和方法
CN112330742A (zh) 公共区域重点人员活动路线记录方法及装置
KR20220000221A (ko) 엣지 컴퓨팅 기반 지능형 보안 감시 카메라 장치
KR20240044162A (ko) 자가학습 및 다중 카메라 기반 하이브리드 무인매장 관리 시스템
WO2022059223A1 (ja) 映像解析システムおよび映像解析方法
JP6739119B6 (ja) 危険度判別プログラム及びシステム
JP6739115B1 (ja) 危険度判別プログラム及びシステム
KR20220000216A (ko) 딥러닝 분산 처리 기반 지능형 보안 감시 서비스 제공 장치
KR20220000424A (ko) 엣지 컴퓨팅 기반 지능형 보안 감시 카메라 시스템
CN116563793A (zh) 一种基于被动式WiFi感知的细粒度人群分析方法
JP2020102135A (ja) 追跡システム、追跡処理方法、及びプログラム
KR20220031258A (ko) 상담 이벤트에 대응되는 학습 데이터 기반 능동형 보안관제 서비스 제공 방법
KR20220031266A (ko) 감시장비의 감시정보와 보안 관제 상담 정보의 기계학습을 이용한 능동형 보안관제 서비스 제공 장치
KR20220000202A (ko) 딥러닝 분산 처리 기반 지능형 보안 감시 장치의 동작방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210628

R150 Certificate of patent or registration of utility model

Ref document number: 6905850

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350