JP2004064438A - Monitoring system and monitoring method - Google Patents
Monitoring system and monitoring method Download PDFInfo
- Publication number
- JP2004064438A JP2004064438A JP2002220204A JP2002220204A JP2004064438A JP 2004064438 A JP2004064438 A JP 2004064438A JP 2002220204 A JP2002220204 A JP 2002220204A JP 2002220204 A JP2002220204 A JP 2002220204A JP 2004064438 A JP2004064438 A JP 2004064438A
- Authority
- JP
- Japan
- Prior art keywords
- information
- video
- image
- monitoring
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明はカメラ等で撮影した映像に含まれる物体を監視する監視システム及び監視方法に関する。
【0002】
【従来の技術】
従来、監視システムは専用の機器から構成されているので、システム構成機器を接続するために高価な専用回線が必要であるとともに、監視員が目視によって監視業務を行っていたため、道路や発電所をはじめとしたインフラ施設や大規模工場等専用機器や監視員のコストがかかってもよいような用途を中心に使われていた。
【0003】
しかし、近年の社会情勢の不安定さや、空き巣や車上荒らしをはじめとするテロ等の犯罪の増加から、低価格な監視システムの需要が急増している。このような需要に応じて、民生用機器を使用することのできる、あるいはインターネット等の公衆回線を利用することのできる監視システムが数多く発表されている。
【0004】
【発明が解決しようとする課題】
ところが、上記の新監視システムにおいても、異常検出のための監視業務は従来と同じく目視によって行なわれており、監視員の負担は以前として大きかった。特に、小規模な監視システムでは専任の監視員を配置することはコスト的に難しく、目視による異常検出をカメラの全作動時間に渡って行うことができないという状況が多い。
【0005】
本発明の目的は監視員による目視の常時監視を必要としない監視システム及び監視方法を提供することにある。
【0006】
【課題を解決するための手段】
上記した課題を解決し目的を達成するために、本発明は以下に示す手段を用いている。
【0007】
映像に含まれる物体を監視するシステムであって、
映像から物体を特定する物体情報を抽出する抽出手段と、
前記抽出手段により抽出された物体情報に基づいて検索条件に合致する物体を検索する検索手段と、
前記検索手段により検索された物体が少なくとも1フレーム以上映っている映像を再生表示する表示手段と、
を具備する監視システム。
【0008】
映像に含まれる物体を監視する方法であって、
映像から物体を特定する物体情報を抽出するステップと、
抽出された物体情報に基づいて検索条件に合致する物体を検索するステップと、
検索された物体が少なくとも1フレーム以上映っている映像を再生表示するステップと、
を具備する監視方法。
【0009】
本発明は、映像中に含まれる物体を特定する物体情報を抽出し、物体情報に基づいて監視対象となる物体を検索し、検索された物体が少なくとも1フレーム以上映っている映像を再生表示することにより、監視員が目視によって常時、異常検出する必要がなくなる。このため、多数のカメラを一台の端末にて監視する際も、端末上の検索において検索条件に合致した物体のみを監視すればよく、監視の効率が大幅にアップする。また、リアルタイムで監視を行なえない場合でも、物体の映像と物体情報とを保存しておくことで、物体の映像の頭出しの必要がなく物体の映像を自動的に表示できる。
【0010】
【発明の実施の形態】
以下、図面を参照して本発明による監視システム及び監視方法の実施形態を説明する。
【0011】
第1実施形態
図1は本発明の第1実施形態に係る監視システムの構成を示す図である。本システムは映像入力部101、物体抽出部102、物体情報蓄積部103、映像蓄積部104、物体検索部105、映像表示部106を備えている。これらの各部は汎用の信号線、通信回線を介して接続される。なお、物体抽出部102、物体検索部105はハードウェアとしてではなく、ソフトウェアとして実現してもよい。
【0012】
映像入力部101は例えばビデオカメラや一定時間毎に撮影するディジタル静止画カメラ等で構成される。映像入力部101は説明の便宜上1台しか示さないが、多数設けられていてもよい。
【0013】
物体抽出部102は映像入力部101より映像信号を受け取り、映像中に映っている物体を抽出し、抽出した物体を特定できる物体情報(図4参照)を作成し、物体情報蓄積部103に送信する。物体情報は、物体の形状や軌跡等の動き特徴量を記述する時空間領域情報、物体の色やテクスチャ等画像特徴量を記述する代表画像情報、物体の名称や分類やカメラ番号等属性特徴量を記述する属性情報のうち少なくとも1つからなる。ここで、物体とは映像中におけるひとかたまりの領域部分であり、例えば人、動物、車、道、川等、あるいはその一部(人の顔、車のタイヤ)等、あるいはその集合(人の列、車の渋滞)等監視すべきものとして把握できるものならどのようなものでもよい。物体の抽出は映像を表示する画面上でユーザが手入力によって行なってもよいし、背景差分法、フレーム間差分法、ステレオ視、テンプレートマッチング、カラーヒストグラムによる抽出等画像処理によって行って自動的に行なっても良い。また、赤外線カメラや人感センサ等他の外部機器を利用して行なっても良い。また、これらの手法を組み合わせて物体抽出を行なっても良い。
【0014】
物体情報蓄積部103は物体抽出部102にて作成した物体情報を蓄積保存するものであり、例えばハードディスクや光ディスク、半導体メモリ等で構成される。
【0015】
映像蓄積部104は映像入力部101より映像信号を受け取り、映像信号を蓄積保存するものであり、例えばハードディスクや光ディスク、半導体メモリ、ビデオテープレコーダ等で構成される。蓄積する映像信号は物体が1フレーム以上映っているものであればよく、映像入力部101より受け取った映像信号すべてを保存してもよいし、物体抽出部102から物体の時空間領域情報を受け取り、物体が存在する時間間隔だけの映像信号を保存してもよい。
【0016】
映像蓄積部104は蓄積データ量を減らすためになんらかの間引きや圧縮を行なってもよい。例えば、フレームレートを落としたり、MPEG−2やMPEG−4等の映像圧縮フォーマットに変換して保存することによって、同じ容量でより多くの映像信号を蓄積することができる。
【0017】
物体情報として時空間領域情報や属性情報が作成されている場合は、これらの物体情報に従い映像信号になんらかの加工をして保存してもよい。例えば、時空間領域情報を利用して物体周辺のみを切り抜いた映像信号をつくりそれを保存したり、物体輪郭を指定した色の線で縁取りしたり、物体の軌跡を指定の色で記入したり、物体以外の部分の輝度を落としたり塗りつぶす等の加工を施したりしてもよい。また、属性情報を利用して物体の分類、名称、特徴量を文字情報として映像にスーパーインポーズしたり、統計量を表示してもよい。両者を組み合わせて属性情報の特徴量によって物体部分の加工の方法を切り替えたりしてもよい。
【0018】
物体検索部105は物体情報蓄積部103に保存されている物体情報からユーザが指定した検索条件に該当する物体情報を検索する。検索条件はあらかじめ登録しておいてもよいし、検索毎にユーザが入力してもよい。あらかじめ登録されていた複数の検索条件からユーザが検索毎に選択する等、上記の方法を組み合わせてもよい。
【0019】
ユーザは検索結果(の物体情報)に基づいて監視すべき1つもしくは複数の物体を指定する。物体を指定すると、指定物体ID、再生開始時刻、再生終了時刻等が記述された再生情報を映像蓄積部104に送信し、当該再生情報で指定される物体の映像信号を映像表示部106に送信させる。
【0020】
検索条件は、例えば物体の色、テクスチャ等の画像特徴量に関する条件、軌跡、存在時間、形状、大きさ等動き特徴量に関する条件、分類、名称、カメラ番号、撮影日時等属性特徴量に関する条件等、物体情報に関するものならどのようなものでもよい。また、複数の条件をAND、OR、NOT等論理演算子で結合して利用しても良い。
【0021】
映像表示部106は映像蓄積部104から受け取った物体の映像信号を再生表示するためのものであり、例えばCRT等である。再生表示する際には、物体情報蓄積部103から当該物体の物体情報を読み込み、物体情報中の時空間領域情報や属性情報を利用して、物体の映像に何らかの加工を施してもよい。例えば、時空間領域情報を利用して物体周辺のみを切り抜いて保存したり、物体輪郭を縁取りしたり、物体以外の部分の輝度を落としたり塗りつぶす等の加工を施したり、属性情報を利用して物体の分類や名称を映像にスーパーインポーズしたり、特徴量によって加工の方法を切り替えたりしてもよい。
【0022】
また、複数の物体の映像を同時に見られるように物体の映像同士を合成してもよい。
【0023】
映像入力部101が複数ある場合は、映像入力部101の数だけ物体抽出部102および物体情報蓄積部103を用意してもいいし、1つの物体抽出部102および物体情報蓄積部103にて複数の映像入力部101からの入力を処理してもよいし、これらの組み合わせでもよい。
【0024】
次に、本実施形態の作用を説明する。図2は物体の抽出処理の流れの一例を表したフローチャートを示す。抽出処理は1フレーム毎や一定時間毎等のある時間間隔毎に実行される。
【0025】
ステップS21で、カメラ等の映像入力部101から映像信号を入力する(映像入力ステップ)。
【0026】
ステップS22で、映像入力が存在するかどうかを判定する(映像入力判定ステップ)。映像入力が存在しなければ、物体の抽出処理は終了する。映像入力があると、ステップS23で物体の抽出を行う。
【0027】
物体抽出ステップS23では、映像入力ステップS21で入力された映像信号から物体を抽出する。物体の抽出は映像表示画面上でユーザが手入力によって行なってもよいし、背景差分法、フレーム間差分法、ステレオ視、テンプレートマッチング、カラーヒストグラムによる抽出等の画像処理によって自動的に行なっても良い。また、赤外線カメラや人感センサ等の他の外部機器を用いて行なっても良い。また、ユーザによる入力、画像処理、外部機器を組み合わせて物体抽出を行なっても良い。
【0028】
ステップS24では、物体抽出ステップS23で抽出した物体の時空間領域情報、代表画像情報、属性情報の少なくとも1つを作成し、これらを物体情報(図3参照)として保存蓄積する(物体情報蓄積ステップ)。
【0029】
ステップS25では、映像入力ステップS21で取得した映像信号を蓄積保存する(映像蓄積ステップ)。映像蓄積ステップS25は映像入力ステップS21の直後に実行してもよいが、物体情報の作成、蓄積後に実行することにより、物体情報蓄積ステップS24で生成した物体情報を利用して、映像に何らかの加工を施すことができる。例えば、時空間領域情報を利用して物体周辺のみを切り抜いて保存したり、物体輪郭を縁取りしたり、物体以外の部分の輝度を落としたり塗りつぶす等の加工を施したり、属性情報を利用して物体の分類や名称をスーパーインポーズしたり、特徴量によって加工の方法を切り替えたりすることができる。
【0030】
図3に物体情報蓄積部103に蓄積される物体情報のデータ構造の一例を示す。図3に示されるように、物体情報は物体ID401、先頭時刻402、終了時刻403、時空間領域情報404、代表画像情報407、属性情報408で構成される。時空間領域情報404は形状フラグ405と動きデータ406で構成され、属性情報408は1つ以上の属性名409と属性値410にて構成される。
【0031】
これらのデータは1つのファイルとしてまとまっていてもいいし、別々のファイルに分かれていてもいい。また、時空間領域情報404、代表画像情報405、属性情報406はそれぞれ省略することもできるし、複数持っていてもいい。時空間領域情報404、代表画像情報405、属性情報406の並び順もどのようであってもよい。
【0032】
物体ID401は、抽出された物体を区別するために一意につけられる識別番号である。
【0033】
先頭時刻402および終了時刻403は、それぞれ物体がはじめて出現した時刻と最後に消失した時刻である。
【0034】
時空間領域情報404は、物体が存在する時空間的な領域情報を保持するもので、物体が存在する時間およびその位置や形状が分かるようなものであればどのようなものであってもよい。例えば、物体が存在するところを“1”、そうでないところを“0”とした動画像で表すアルファマップを利用してもいいし、MPEG−7のSpatioTemporal Locatorのようなデータ形式を利用してもよい。SpatioTemporal Locatorは映像中の各フレームの物体形状を矩形、楕円もしくは任意頂点数の多角形で近似し、物体の動きや形状変化を近似矩形や近似楕円の外接矩形や近似多角形の各頂点の時間方向の軌跡として表わし、頂点軌跡をスプライン関数で近似し、その近似関数のパラメータとして表すFigure Trajectoryと、任意の1フレームにおける物体形状を矩形、楕円もしくは任意頂点数の多角形で近似し、これを参照図形として、物体の動きや形状変化を参照図形からのアフィン変換等の変換パラメータによって表わし、変換パラメータの時間方向の軌跡をスプライン関数で近似し、その近似関数のパラメータとして表すParameter Trajectoryのいずれかがある。SpatioTemporal Locatorはアルファマップより遥かに少ないデータ量で、物体形状やその動きをあらわすことができるという特徴がある。
【0035】
形状フラグ405は、時空間領域情報がどのような形式で保存されているかを示すためのフラグである。アルファマップやSpatioTemporal Locatorのようなデータ形式や、物体の形状、特徴量軌跡の関数近似方法等が記述される。
【0036】
動きデータ406は、時空間領域の動きのデータである。アルファマップであれば動画像データ、SpatioTemporal Locatorであれば関数近似した関数パラメータである。
【0037】
代表画像情報407は、物体が存在する1フレームもしくは複数フレームの画像情報である。これはユーザが目視によって物体を指定するときのための情報であり、BMPやJPEG等の画像情報や映像信号の当該フレームを示すポインタ等である。画像情報は当該フレームの画像全体でもいいし、その一部でもいい。例えば、当該フレームにおける位置および形状が分かっているときは、画像から物体周辺のみを切り抜いて代表画像情報としてもよい。また、物体領域以外の輝度を落としたり、物体輪郭を縁取りする等画像になんらかの加工を施してもよい。
【0038】
代表画像情報とするフレームは、当該物体が判別しやすいフレームであればどのフレームを取り出してきてもよい。例えば物体の存在する時間期間の中心時刻を代表フレームとする等の方法がある。
【0039】
属性情報408は、物体がどのような特徴をもっているかを記述するためのものである。例えば、物体が車であるか人であるか動物であるか等の分類や、色や形や大きさ等の特徴量や、映像信号と同時に取得された音声やセンサ等の外部機器情報や、関連する情報へのリンク等が記述される。
【0040】
属性情報408は、1つ以上の属性名409と属性値410で構成される。属性名409と属性値410は1対1に対応している。属性名409および属性値410はどのような形式で記述されていてもよい。例えば、国際標準であるMPEG−7形式や各種データベース形式やテキスト形式等が使用できる。
【0041】
図4は、物体の検索処理の流れの一例を表したフローチャートを示す。処理は物体検索毎に実行される。
【0042】
ステップS31では、物体の検索条件を入力する(検索条件入力ステップ)。検索条件はあらかじめ登録しておいてもよいし、検索毎にユーザが手入力してもよい。あらかじめ登録されていた複数の検索条件からユーザが検索毎に選択する等、上記の方法を組み合わせてもよい。
【0043】
ステップS32では、物体情報蓄積部103に蓄積されている各物体情報と入力された検索条件を比べ、物体情報が検索条件に合致するかどうか判定する(物体情報マッチングステップ)。合致していると判定された物体の代表画像情報や属性情報をCRT等に表示したりログに残したりして、ユーザが検索結果を閲覧できるようにする。
【0044】
ステップS33では、物体情報蓄積部103に蓄積されている全物体情報についてマッチングが行われたかどうかを判定する(マッチング終了判定ステップ)。全物体情報の判定が終了するまでステップS32とステップS33が繰り返される。
【0045】
ステップS34では、検索条件に合致した物体のうちのどの物体の映像信号を再生するかを指定する(物体指定ステップ)。基本的には検索結果を閲覧したユーザが物体の映像を再生する物体を指定するが、検索結果が少ない場合や検索結果のうち最新の時刻の物体の映像を常に見たい場合等は、システムが自動的に指定してもよい。
【0046】
指定は1つの物体でも複数の物体でもよく、同時にそれぞれの物体の映像信号について再生開始時刻、再生終了時刻、再生オプションを指定することができる。これらの情報は物体再生情報(図5参照)として物体の映像信号再生時に使用される。再生オプションには物体輪郭を縁取りする等の特殊効果方法や、複数の映像信号再生時にどのように物体の映像信号を再生するか等を指定することができる。
【0047】
ステップS35では、物体指定ステップS34で指定した物体再生情報を利用し、当該物体の映像信号をCRT等に再生表示する(映像再生ステップ)。再生時には物体情報の再生開始時刻、再生終了時刻、再生オプションに基づいて映像信号を加工し表示する
図5に映像信号の再生時に指定される物体再生情報のデータ構造の一例を示す。図5に示されるように物体再生情報は指定物体ID501、再生開始時刻502、再生終了時刻503、再生オプション504で構成される。1つの物体再生情報で複数の物体を指定する際には指定物体ID501、再生開始時刻502、再生終了時刻503、再生オプション504がそれぞれ複数になる。
【0048】
指定物体ID501は、再生表示する物体を識別するために一意につけられる識別番号である。指定物体IDは図4の物体情報における物体ID401と同じものであり、物体IDを指定することによって物体の映像を一意に指定することができる。
【0049】
再生開始時刻502は、当該物体の映像を再生する際の開始時刻である。省略した際は物体の出現時刻(物体情報内の先頭時刻402)から再生する。
【0050】
再生終了時刻503は、当該物体の映像を再生する際の終了時刻である。省略した際は物体の消失時刻(物体情報内の終了時刻403)まで再生する。
【0051】
再生オプション504は、物体の映像をどのように再生するかのオプションである。再生オプション404には例えば画面サイズ、再生レート、物体縁取り等の特殊効果等を指定することができる。また、複数物体を指定した際には、複数物体を一画面に入れて再生したり、順番に指定したりする等複数物体の再生方法も指定することができる。
【0052】
以上説明したように本実施形態によれば、カメラ等の映像入力部101で取得した映像中に含まれる人や車等の物体を特定する時空間領域情報、代表画像情報、属性情報の少なくとも1つ以上で構成される物体情報を物体抽出部102にて抽出し、抽出された物体情報を利用して監視対象となる物体を検索し、検索された物体が少なくとも1フレーム以上映っている映像である物体の映像を再生表示する。
【0053】
これにより、監視員が目視によって常時、異常検出する必要がなくなる。多数のカメラを一台の端末にて監視する際も、端末上の検索においてマッチした物体のみをチェックすればよく、監視の効率が大幅にアップする。また、リアルタイムで監視を行なえないような場合でも、物体の映像と物体情報を保存しておくことで映像の頭出しの必要なく監視を行うことができる。
【0054】
本発明は上述した実施形態に限定されず、種々変形して実施可能である。例えば、本発明は、コンピュータに所定の手段を実行させるための、コンピュータを所定の手段として機能させるための、あるいはコンピュータに所定の機能を実現させるためのプログラムを記録したコンピュータ読取り可能な記録媒体としても実施することもできる。
【0055】
【発明の効果】
以上説明したように本発明によれば、映像中に含まれる物体の物体情報を利用して監視対象となる物体を検索し、当該の物体の映像を再生表示することが可能となる。これにより全映像を目視することなく監視業務を行うことができ、監視業務の大幅な効率化が可能となる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る監視システムの構成の一例を示すブロック図。
【図2】同実施形態における物体の抽出処理手順の一例を表したフローチャート。
【図3】同実施形態における物体情報のデータ構造の一例を示す図。
【図4】同実施形態における物体の検索処理手順の一例を表したフローチャート。
【図5】同実施形態における物体再生情報のデータ構造の一例を示す図。
【符号の説明】
101…映像入力部
102…物体抽出部
103…物体情報蓄積部
104…映像蓄積部
105…物体検索部
106…映像表示部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a monitoring system and a monitoring method for monitoring an object included in an image captured by a camera or the like.
[0002]
[Prior art]
Conventionally, the monitoring system is composed of dedicated equipment, so expensive dedicated lines are needed to connect the system components, and because monitoring personnel have been conducting monitoring work visually, roads and power plants have to be monitored. It was mainly used for infrastructure facilities, large-scale factories, and other specialized equipment and applications that could require the cost of a supervisor.
[0003]
However, the demand for low-cost surveillance systems is rapidly increasing due to the recent instability of social situations and the increase in crimes such as terrorism such as burglars and vandalism. In response to such demands, there have been published many monitoring systems that can use consumer devices or use a public line such as the Internet.
[0004]
[Problems to be solved by the invention]
However, even in the above-described new monitoring system, the monitoring work for detecting an abnormality is performed visually as in the past, and the burden on the monitoring personnel was large as before. In particular, in a small-scale monitoring system, it is difficult to arrange a dedicated monitoring person in terms of cost, and in many cases, visual abnormality detection cannot be performed over the entire operation time of the camera.
[0005]
An object of the present invention is to provide a monitoring system and a monitoring method that do not require visual monitoring by a monitor at all times.
[0006]
[Means for Solving the Problems]
In order to solve the above problems and achieve the object, the present invention uses the following means.
[0007]
A system for monitoring an object included in a video,
Extracting means for extracting object information for specifying the object from the video,
Search means for searching for an object that matches a search condition based on the object information extracted by the extraction means,
Display means for reproducing and displaying a video in which the object searched for by the search means is shown in at least one frame,
A monitoring system comprising:
[0008]
A method of monitoring an object included in a video,
Extracting object information identifying the object from the video;
Searching for an object that matches the search condition based on the extracted object information;
Reproducing and displaying an image in which the searched object is reflected in at least one frame;
A monitoring method comprising:
[0009]
The present invention extracts object information that specifies an object included in a video, searches for an object to be monitored based on the object information, and reproduces and displays a video in which the searched object is reflected in at least one frame. As a result, it is not necessary for the observer to always visually detect the abnormality. For this reason, even when monitoring a large number of cameras with one terminal, it is only necessary to monitor only objects that match the search conditions in the search on the terminal, and the efficiency of monitoring is greatly improved. Even when monitoring cannot be performed in real time, by storing the image of the object and the object information, the image of the object can be automatically displayed without the need to search for the image of the object.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of a monitoring system and a monitoring method according to the present invention will be described with reference to the drawings.
[0011]
First Embodiment FIG. 1 is a diagram showing a configuration of a monitoring system according to a first embodiment of the present invention. The system includes a
[0012]
The
[0013]
The
[0014]
The object
[0015]
The
[0016]
The
[0017]
If spatio-temporal region information or attribute information has been created as object information, the video signal may be subjected to some processing in accordance with the object information and stored. For example, using the spatio-temporal area information, create and save a video signal that is cut out only around the object, border the object outline with a specified color line, write the trajectory of the object with a specified color Alternatively, processing such as lowering the brightness of a portion other than the object or painting out the portion may be performed. In addition, the classification, the name, and the feature amount of the object may be superimposed on the video as character information using the attribute information, or the statistics may be displayed. A combination of the two may be used to switch the method of processing the object part depending on the feature amount of the attribute information.
[0018]
The
[0019]
The user designates one or more objects to be monitored based on (the object information of) the search result. When an object is designated, the reproduction information describing the designated object ID, the reproduction start time, the reproduction end time, and the like is transmitted to the
[0020]
The search conditions include, for example, conditions relating to image features such as the color and texture of the object, conditions relating to movement features such as trajectory, existence time, shape and size, conditions relating to attribute features such as classification, name, camera number, and shooting date and time. Anything may be used as long as it relates to object information. Further, a plurality of conditions may be combined and used by a logical operator such as AND, OR, NOT, and the like.
[0021]
The
[0022]
Also, the images of the objects may be combined so that the images of a plurality of objects can be viewed simultaneously.
[0023]
When there are a plurality of
[0024]
Next, the operation of the present embodiment will be described. FIG. 2 is a flowchart illustrating an example of the flow of the object extraction process. The extraction process is executed at certain time intervals such as every frame or every certain time.
[0025]
In step S21, a video signal is input from the
[0026]
In step S22, it is determined whether a video input exists (video input determination step). If there is no video input, the object extraction processing ends. If there is a video input, an object is extracted in step S23.
[0027]
In the object extraction step S23, an object is extracted from the video signal input in the video input step S21. The object may be extracted manually by the user on the video display screen or automatically by image processing such as background subtraction, inter-frame difference, stereo vision, template matching, color histogram extraction, and the like. good. Further, it may be performed by using another external device such as an infrared camera or a human sensor. In addition, object extraction may be performed by combining user input, image processing, and external devices.
[0028]
In step S24, at least one of spatio-temporal region information, representative image information, and attribute information of the object extracted in the object extraction step S23 is created and stored as object information (see FIG. 3) (object information storage step). ).
[0029]
In step S25, the video signal acquired in the video input step S21 is stored and stored (video storage step). The image storage step S25 may be executed immediately after the image input step S21. However, the image storage step S25 is executed after the object information is created and stored, so that the object information generated in the object information storage step S24 is used to perform some processing on the image. Can be applied. For example, using the spatio-temporal area information to cut out and save only the periphery of the object, trimming the outline of the object, performing processing such as reducing or filling the brightness of parts other than the object, and using attribute information It is possible to superimpose the classification and name of the object, and to switch the processing method depending on the feature amount.
[0030]
FIG. 3 shows an example of the data structure of the object information stored in the object
[0031]
These data may be collected as one file or may be divided into separate files. Further, the
[0032]
The
[0033]
The
[0034]
The spatio-
[0035]
The
[0036]
The
[0037]
The
[0038]
Any frame may be extracted as the representative image information as long as the object can be easily identified. For example, there is a method in which a center time of a time period in which an object exists is set as a representative frame.
[0039]
The
[0040]
The
[0041]
FIG. 4 is a flowchart illustrating an example of the flow of an object search process. The process is executed for each object search.
[0042]
In step S31, search conditions for an object are input (search condition input step). Search conditions may be registered in advance, or may be manually input by the user for each search. The above methods may be combined such that the user selects for each search from a plurality of search conditions registered in advance.
[0043]
In step S32, each object information stored in the object
[0044]
In step S33, it is determined whether or not matching has been performed for all object information stored in the object information storage unit 103 (matching end determination step). Steps S32 and S33 are repeated until the determination of all object information is completed.
[0045]
In step S34, it is specified which of the objects that match the search condition is to reproduce the video signal (object specifying step). Basically, the user who browsed the search result specifies the object to play the image of the object, but if there are few search results or if you always want to see the image of the object at the latest time among the search results, the system It may be specified automatically.
[0046]
The specification may be a single object or a plurality of objects, and the reproduction start time, the reproduction end time, and the reproduction option can be simultaneously specified for the video signal of each object. These pieces of information are used as object reproduction information (see FIG. 5) when reproducing a video signal of an object. In the reproduction option, it is possible to specify a special effect method such as edging an object outline, and how to reproduce a video signal of an object when reproducing a plurality of video signals.
[0047]
In step S35, the video signal of the object is reproduced and displayed on a CRT or the like using the object reproduction information specified in the object specification step S34 (video reproduction step). At the time of reproduction, a video signal is processed and displayed based on the reproduction start time, reproduction end time, and reproduction option of the object information. FIG. 5 shows an example of a data structure of the object reproduction information designated at the time of reproducing the video signal. As shown in FIG. 5, the object reproduction information includes a designated
[0048]
The designated
[0049]
The reproduction start
[0050]
The
[0051]
The
[0052]
As described above, according to the present embodiment, at least one of spatiotemporal region information, representative image information, and attribute information for specifying an object such as a person or a car included in a video acquired by the
[0053]
Thus, it is not necessary for the observer to always visually detect the abnormality. Even when monitoring a large number of cameras with one terminal, it is sufficient to check only the matching objects in the search on the terminal, and the monitoring efficiency is greatly improved. Even in a case where monitoring cannot be performed in real time, it is possible to perform monitoring without having to search for a video by storing the video of the object and the object information.
[0054]
The present invention is not limited to the embodiments described above, and can be implemented with various modifications. For example, the present invention provides a computer-readable recording medium on which a program for causing a computer to execute predetermined means, causing a computer to function as predetermined means, or causing a computer to realize predetermined functions is recorded. Can also be implemented.
[0055]
【The invention's effect】
As described above, according to the present invention, it is possible to search for an object to be monitored using object information of an object included in a video and reproduce and display the video of the object. As a result, the monitoring operation can be performed without viewing all the images, and the efficiency of the monitoring operation can be greatly increased.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an example of a configuration of a monitoring system according to an embodiment of the present invention.
FIG. 2 is an exemplary flowchart illustrating an example of an object extraction processing procedure according to the embodiment.
FIG. 3 is an exemplary view showing an example of a data structure of object information in the embodiment.
FIG. 4 is an exemplary flowchart illustrating an example of an object search processing procedure according to the embodiment.
FIG. 5 is an exemplary view showing an example of a data structure of object reproduction information in the embodiment.
[Explanation of symbols]
101
Claims (9)
映像から物体を特定する物体情報を抽出する抽出手段と、
前記抽出手段により抽出された物体情報に基づいて検索条件に合致する物体を検索する検索手段と、
前記検索手段により検索された物体が少なくとも1フレーム以上映っている映像を再生表示する表示手段と、
を具備する監視システム。A system for monitoring an object included in a video,
Extracting means for extracting object information for specifying the object from the video,
Search means for searching for an object that matches a search condition based on the object information extracted by the extraction means,
Display means for reproducing and displaying a video in which the object searched for by the search means is shown in at least one frame,
A monitoring system comprising:
前記検索手段は前記時空間領域情報、代表画像情報、属性情報の少なくとも1つを利用して物体を検索する請求項1記載の監視システム。The object information is at least one of spatio-temporal region information describing the shape and motion of the object, representative image information describing image features such as color and texture of the object, and attribute information describing the classification and feature of the object. With
The monitoring system according to claim 1, wherein the search unit searches for an object using at least one of the spatiotemporal area information, the representative image information, and the attribute information.
映像から物体を特定する物体情報を抽出するステップと、
抽出された物体情報に基づいて検索条件に合致する物体を検索するステップと、
検索された物体が少なくとも1フレーム以上映っている映像を再生表示するステップと、
を具備する監視方法。A method of monitoring an object included in a video,
Extracting object information identifying the object from the video;
Searching for an object that matches the search condition based on the extracted object information;
Reproducing and displaying an image in which the searched object is reflected in at least one frame;
A monitoring method comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002220204A JP2004064438A (en) | 2002-07-29 | 2002-07-29 | Monitoring system and monitoring method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002220204A JP2004064438A (en) | 2002-07-29 | 2002-07-29 | Monitoring system and monitoring method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2004064438A true JP2004064438A (en) | 2004-02-26 |
Family
ID=31940901
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2002220204A Pending JP2004064438A (en) | 2002-07-29 | 2002-07-29 | Monitoring system and monitoring method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2004064438A (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007184853A (en) * | 2006-01-10 | 2007-07-19 | Mitsubishi Electric Corp | Video recording system |
| WO2009054119A1 (en) * | 2007-10-26 | 2009-04-30 | Panasonic Corporation | Situation judging device, situation judging method, situation judging program, abnormality judging device, abnormality judging method, abnormality judging program, and congestion estimating device |
| US7627199B2 (en) | 2006-04-06 | 2009-12-01 | Mitsubishi Electric Corporation | Image surveillance/retrieval system |
| JP2013037710A (en) * | 2012-09-20 | 2013-02-21 | Casio Comput Co Ltd | Image management device and program |
| JP2016165157A (en) * | 2016-06-14 | 2016-09-08 | パナソニックIpマネジメント株式会社 | Video surveillance system |
| US9779308B2 (en) | 2012-11-14 | 2017-10-03 | Panasonic Intellectual Property Management Co., Ltd. | Video monitoring system |
| JP2018164311A (en) * | 2018-07-10 | 2018-10-18 | オリンパス株式会社 | Imaging apparatus, communication equipment, imaging method, display method, imaging program, and display program |
-
2002
- 2002-07-29 JP JP2002220204A patent/JP2004064438A/en active Pending
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007184853A (en) * | 2006-01-10 | 2007-07-19 | Mitsubishi Electric Corp | Video recording system |
| US7627199B2 (en) | 2006-04-06 | 2009-12-01 | Mitsubishi Electric Corporation | Image surveillance/retrieval system |
| WO2009054119A1 (en) * | 2007-10-26 | 2009-04-30 | Panasonic Corporation | Situation judging device, situation judging method, situation judging program, abnormality judging device, abnormality judging method, abnormality judging program, and congestion estimating device |
| US8472715B2 (en) | 2007-10-26 | 2013-06-25 | Panasonic Corporation | Situation determining apparatus, situation determining method, situation determining program, abnormality determining apparatus, abnormality determining method, abnormality determining program, and congestion estimating apparatus |
| US8655078B2 (en) | 2007-10-26 | 2014-02-18 | Panasonic Corporation | Situation determining apparatus, situation determining method, situation determining program, abnormality determining apparatus, abnormality determining method, abnormality determining program, and congestion estimating apparatus |
| JP2013037710A (en) * | 2012-09-20 | 2013-02-21 | Casio Comput Co Ltd | Image management device and program |
| US9779308B2 (en) | 2012-11-14 | 2017-10-03 | Panasonic Intellectual Property Management Co., Ltd. | Video monitoring system |
| JP2016165157A (en) * | 2016-06-14 | 2016-09-08 | パナソニックIpマネジメント株式会社 | Video surveillance system |
| JP2018164311A (en) * | 2018-07-10 | 2018-10-18 | オリンパス株式会社 | Imaging apparatus, communication equipment, imaging method, display method, imaging program, and display program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR100896949B1 (en) | Image Monitoring System for Object Identification | |
| US11082668B2 (en) | System and method for electronic surveillance | |
| CN101631237B (en) | Video monitoring data storing and managing system | |
| US9560323B2 (en) | Method and system for metadata extraction from master-slave cameras tracking system | |
| CN107071342B (en) | A kind of anomalous event automatic push and monitoring method and system based on historical operation | |
| CN100446558C (en) | Video generation processing device and video generation processing method | |
| CN105677694B (en) | Video recording device supporting intelligent search and intelligent search method | |
| CN107004271B (en) | Display method, display apparatus, electronic device, computer program product, and storage medium | |
| US20100011297A1 (en) | Method and system for generating index pictures for video streams | |
| US10116910B2 (en) | Imaging apparatus and method of providing imaging information | |
| US20030122941A1 (en) | Video capture device | |
| US9883193B2 (en) | Coding scheme for identifying spatial locations of events within video image data | |
| CN101425133A (en) | Human image retrieval system | |
| CN107615758A (en) | Track servicing unit, tracking accessory system and tracking householder method | |
| US10192119B2 (en) | Generating a summary video sequence from a source video sequence | |
| JP2010136032A (en) | Video monitoring system | |
| JP2010009134A (en) | Image processing system, image processing method, and program | |
| CN105323657B (en) | Imaging apparatus and method for providing video summaries | |
| KR101858663B1 (en) | Intelligent image analysis system | |
| EP2770733A1 (en) | A system and method to create evidence of an incident in video surveillance system | |
| WO2018122895A1 (en) | Image processing device, image processing method, image processing program, and image monitoring system | |
| CN110740290B (en) | Monitoring video preview method and device | |
| JP2009171472A (en) | Network video monitoring system and monitoring device | |
| JP2019050553A (en) | Image processing apparatus, image providing apparatus, control method thereof and program | |
| JP2004064438A (en) | Monitoring system and monitoring method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20051108 |
|
| A131 | Notification of reasons for refusal |
Effective date: 20051115 Free format text: JAPANESE INTERMEDIATE CODE: A131 |
|
| A521 | Written amendment |
Effective date: 20060116 Free format text: JAPANESE INTERMEDIATE CODE: A523 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060214 |