JP2016009896A - Video monitoring system, and video retrieval method of video monitoring system - Google Patents
Video monitoring system, and video retrieval method of video monitoring system Download PDFInfo
- Publication number
- JP2016009896A JP2016009896A JP2014127859A JP2014127859A JP2016009896A JP 2016009896 A JP2016009896 A JP 2016009896A JP 2014127859 A JP2014127859 A JP 2014127859A JP 2014127859 A JP2014127859 A JP 2014127859A JP 2016009896 A JP2016009896 A JP 2016009896A
- Authority
- JP
- Japan
- Prior art keywords
- video
- video data
- monitoring
- data
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、監視エリアに複数設置された監視カメラが撮像した映像データをまとめて記録し、監視対象の人物などが撮像された映像データを検索して再生表示させる映像監視システムと、その映像監視システムで実行される映像検索方法に関するものである。 The present invention relates to a video monitoring system that records video data captured by a plurality of monitoring cameras installed in a monitoring area, searches video data captured by a person to be monitored, and displays the video data, and the video monitoring thereof. The present invention relates to a video search method executed in the system.
一般に映像監視システムでは、監視カメラが撮像した監視エリアの映像を記録装置で記録し、記録された映像から被監視人物などが撮像された映像を検索し、監視モニタに出力して再生表示を行う。このような映像監視システムにおいて、映像から被監視人物を検索する従来の方法には、撮像日時を指定する検索方法や、動き検知や顔検出といったセンサを併用して得られる被監視人物の情報を映像と関連付けて、当該情報を含む映像を検索する検索方法などがある。 In general, in a video surveillance system, a video of a surveillance area captured by a surveillance camera is recorded by a recording device, a video captured of a monitored person or the like is searched from the recorded video, and output to a surveillance monitor for playback display. . In such a video surveillance system, conventional methods for searching for a monitored person from video include a search method for specifying an imaging date and time, and information on a monitored person obtained by using sensors such as motion detection and face detection. There is a search method for searching for a video including the information in association with the video.
また、特許文献1で示される映像監視技術は、監視エリアに俯瞰カメラと注視カメラの2種類のカメラを複数設置し、俯瞰カメラ及び注視カメラの撮像映像から得られる被監視人物の位置情報及びイベント情報に従って、被監視人物を最適に撮像するように、映像監視装置が複数の注視カメラを選択し撮像の向きや倍率等を制御することにより、被監視人物の挙動や顔が分かる映像を撮像し、監視映像を生成して再生表示するものである。
In addition, the video monitoring technique disclosed in
従来の映像監視システムでは、所望の監視光景を撮像した監視カメラの映像に被監視人物の顔が撮像されているとは限らないため、顔検出センサを用いても必ずしも当該映像から被監視人物を見つけ出すことが出来ない虞がある。また、動き検知センサは人物以外の動きを検知することがあるため、動き検知した情報を含む映像の数が膨大になってしまうと考えられる。従って、所望の監視光景において被監視人物が分かる映像を検索するのに、ある程度絞り込まれた映像の中から1つずつ再生して確認を行う必要があり、多大な時間を要してしまう問題がある。 In the conventional video surveillance system, the face of the monitored person is not always captured in the video of the monitoring camera that captures the desired surveillance scene. Therefore, even if a face detection sensor is used, the monitored person is not necessarily captured from the video. There is a possibility that it cannot be found. Further, since the motion detection sensor may detect a motion other than a person, it is considered that the number of videos including the motion detected information becomes enormous. Therefore, in order to search for a video in which a person to be monitored can be understood in a desired monitoring scene, it is necessary to reproduce and check one by one from videos that have been narrowed down to a certain extent, which requires a lot of time. is there.
また、特許文献1の映像監視技術では、被監視人物が分かる映像を撮像するのに、映像監視装置が、俯瞰カメラと注視カメラの2種類のカメラから得られる刻々と変化する情報に基づいて、複数の注視カメラを選択し撮像の向きや倍率等を制御する複雑な処理を行う必要がある。また、当該処理に伴い、注視カメラには、映像監視装置からの制御に対応した制御信号の入出力が可能な専用のカメラを使用する必要がある。このため、複雑な処理を実行できる演算処理能力の高い映像監視装置及び複数の専用のカメラを導入し運用するのに要するコストが高くなってしまう問題がある。
Further, in the video surveillance technology of
本発明は上述の問題を解決するためになされたものであり、複数設置された監視カメラが固定的に撮像した映像を記録した記録装置が、例えば被監視人物といった監視対象の存在と、例えば被監視人物の顔といった監視対象の特徴とが分かる撮像映像を短時間で検索し、複雑な処理を行う高コストな装置を要せずに所望の監視光景を含む監視映像を再生表示できる、映像監視システムを提供することを目的とする。 The present invention has been made to solve the above-described problem, and a recording apparatus that records images fixedly picked up by a plurality of installed monitoring cameras can detect the presence of a monitoring target such as a monitored person, Video monitoring that can quickly search for captured images that show the characteristics of the monitoring target, such as the face of the person being monitored, and can reproduce and display the monitoring video including the desired monitoring scene without the need for expensive equipment that performs complex processing. The purpose is to provide a system.
本発明は、監視エリアを撮像する複数の監視カメラと、前記監視カメラが撮像した映像データ及び前記映像データの撮像日時を記録する記録装置と、前記映像データの検索条件を入力する入力装置と、前記記録装置が出力した前記映像データを再生表示する監視モニタと、前記映像データから監視対象の存在を検知し、前記監視エリアでの位置情報である存在検知位置座標を出力して前記映像データに関連付ける存在検知手段と、前記映像データから監視対象の特徴を検出し、前記監視エリアでの位置情報である特徴検出位置座標を出力して前記映像データに関連付ける特徴検出手段と、を有する映像監視システムであって、前記記録装置は、前記映像データに関連付けられた前記存在検知位置座標及び前記特徴検出位置座標があるかどうかを判定する位置座標判定手段と、前記複数の監視カメラが撮像した前記映像データのうち、前記検索条件を満たす第1監視カメラの第1映像データを検索する第1映像検索手段と、前記複数の監視カメラが撮像した前記映像データのうち、前記撮像日時と、前記第1映像データの前記撮像日時との時間差が所定時間以下であり、前記特徴検出位置座標と、前記第1映像データの前記存在検知位置座標との間の距離が所定距離以下である、第2監視カメラの第2映像データを検索する第2映像検索手段と、検索した前記映像データを前記監視モニタに出力する映像出力手段と、を有する、ことを特徴とする映像監視システムである。 The present invention includes a plurality of monitoring cameras that image a monitoring area, video data captured by the monitoring camera and a recording device that records the imaging date and time of the video data, an input device that inputs search conditions for the video data, A monitoring monitor that reproduces and displays the video data output by the recording device, detects the presence of a monitoring target from the video data, and outputs presence detection position coordinates that are position information in the monitoring area to the video data. A video monitoring system comprising: a presence detection unit for associating; and a feature detection unit for detecting a feature of a monitoring target from the video data and outputting a feature detection position coordinate as positional information in the monitoring area to associate with the video data The recording apparatus determines whether the presence detection position coordinates and the feature detection position coordinates associated with the video data are present. Position coordinate determination means for determining; first video search means for searching for first video data of a first monitoring camera satisfying the search condition among the video data captured by the plurality of monitoring cameras; and the plurality of monitoring Of the video data captured by the camera, a time difference between the imaging date and time and the imaging date and time of the first video data is a predetermined time or less, the feature detection position coordinates, and the presence detection of the first video data Second video search means for searching for the second video data of the second surveillance camera, wherein the distance between the position coordinates is equal to or less than a predetermined distance, video output means for outputting the searched video data to the monitor monitor, It is a video surveillance system characterized by having.
また、本発明は、監視エリアを撮像する複数の監視カメラと、前記監視カメラが撮像した映像データ及び前記映像データの撮像日時を記録する記録装置と、前記映像データの検索条件を入力する入力装置と、前記記録装置が出力した前記映像データを再生表示する監視モニタと、を有する映像監視システムにおいて実行される映像検索方法であって、前記映像データから監視対象の存在を検知し、前記監視エリアでの位置情報である存在検知位置座標を出力して前記映像データに関連付ける存在検知工程と、前記映像データから監視対象の特徴を検出し、前記監視エリアでの位置情報である特徴検出位置座標を出力して前記映像データに関連付ける特徴検出工程と、前記映像データに関連付けられた前記存在検知位置座標及び前記特徴検出位置座標があるかどうかを判定する位置座標判定工程と、前記複数の監視カメラが撮像した前記映像データのうち、前記検索条件を満たす第1監視カメラの第1映像データを検索する第1映像検索工程と、前記複数の監視カメラが撮像した前記映像データのうち、前記撮像日時と、前記第1映像データの前記撮像日時との時間差が所定時間以下であり、前記特徴検出位置座標と、前記第1映像データの前記存在検知位置座標との間の距離が所定距離以下である、第2監視カメラの第2映像データを検索する第2映像検索工程と、検索した前記映像データを前記監視モニタに出力する映像出力工程と、を有し、位置座標判定工程、第1映像検索工程、第2映像検索工程、映像出力工程は、記録装置において実行されることを特徴とする映像監視システムの映像検索方法である。 In addition, the present invention provides a plurality of monitoring cameras that capture an image of a monitoring area, video data captured by the monitoring camera, a recording device that records imaging date and time of the video data, and an input device that inputs search conditions for the video data And a monitoring monitor that reproduces and displays the video data output from the recording device, and a video search method that is executed in a video monitoring system that detects the presence of a monitoring target from the video data, and A presence detection step of outputting presence detection position coordinates, which is position information at the position, and associating it with the video data; detecting a feature to be monitored from the video data; and detecting feature detection position coordinates as position information in the monitoring area. A feature detection step of outputting and associating with the video data; and the presence detection position coordinates and the feature detection position associated with the video data A position coordinate determination step of determining whether or not there is a coordinate; and a first video search step of searching for the first video data of the first monitoring camera satisfying the search condition among the video data captured by the plurality of monitoring cameras And the time difference between the imaging date and time and the imaging date and time of the first video data among the video data captured by the plurality of surveillance cameras is a predetermined time or less, the feature detection position coordinates, and the first A second video search step of searching for second video data of a second monitoring camera, wherein the distance between the presence detection position coordinates of the video data is equal to or less than a predetermined distance, and the searched video data is output to the monitoring monitor An image output process, wherein the position coordinate determination process, the first image search process, the second image search process, and the image output process are executed in a recording apparatus. Temu is a video search method.
本発明によれば、監視エリアに複数設置した監視カメラより伝送された、撮像映像及び撮像日時等の映像に関する情報を記録した記録装置が、例えば被監視人物といった監視対象の存在を検知した位置座標と、例えば被監視人物の顔といった監視対象の特徴を検出した位置座標を撮像映像より取得し、これら2つの位置座標を含む撮像映像が近い日時にあり、また2つの位置座標が監視エリア上で近い位置にあるかどうかを判定することで、同一の又は異なる監視カメラからの撮像映像に含まれるこれら2つの位置座標に関わる監視対象が同一のものであるかどうかを判断することが可能となる。その結果として、複数の監視カメラが固定的に撮像した撮像映像より監視対象の存在を検知することで、近い日時にあって当該監視対象の特徴を含む、同一の又は異なる監視カメラからの撮像映像を短時間で検索でき、複雑な処理を行う高コストな装置を要せずに、所望の監視光景を含む監視映像を再生表示できる効果が得られる。 According to the present invention, the position coordinates at which the recording device that records information related to the image such as the imaged image and the imaged date and time transmitted from a plurality of monitoring cameras installed in the monitoring area detects the presence of the monitoring target such as a monitored person, for example. For example, the position coordinates at which the feature of the monitoring target such as the face of the monitored person is detected are acquired from the captured image, and the captured image including these two position coordinates is close to the date and time, and the two position coordinates are on the monitoring area. By determining whether or not they are close to each other, it is possible to determine whether or not the monitoring targets related to these two position coordinates included in the captured images from the same or different monitoring cameras are the same. . As a result, by detecting the presence of the monitoring target from the captured images captured by a plurality of monitoring cameras, the captured images from the same or different monitoring cameras at close dates and including the characteristics of the monitoring target Can be retrieved in a short time, and an effect of reproducing and displaying a surveillance video including a desired surveillance scene without requiring a high-cost apparatus for performing complicated processing can be obtained.
実施の形態1.
図1は、映像監視システムの概略を示すブロック図である。映像監視システムは、監視エリア101、監視室102、監視カメラ103、入力装置104、記録装置105及び監視モニタ106で構成される。
FIG. 1 is a block diagram showing an outline of a video surveillance system. The video monitoring system includes a
監視エリア101は、映像監視システムが監視の対象とするエリアである。監視エリア101にいる被監視人物108は、映像監視システムの監視対象である。
The
監視室102は、監視エリア101から離れた位置に設けられた部屋であり、記録装置105、入力装置104及び監視モニタ106を備える。監視室102では、監視業務員109が監視カメラ103で撮像した映像を監視モニタ106に再生表示し、監視エリア101の状況を監視している。
The
監視カメラ103は、監視エリア101に複数設置されて、監視エリア101にいる被監視人物108を撮像するための撮像装置である。監視カメラ103は、撮像した映像から、被監視人物108の特徴を検出する機能と、被監視人物108の存在を検知する機能とを備える。被監視人物108の特徴を検出する機能とは、例えば顔検出などである。また、被監視人物108の存在を検知する機能とは、例えば動き検知や音検知、赤外線検知などである。
A plurality of
ここで、顔検出機能では、例えば固有顔を利用した顔認識手法などがある。動き検知機能では、時間経過に伴い撮像映像に生じる部分的な変化によって動きを検知し、監視エリア101での位置情報を取得する。音検知機能では、マイクの指向性を利用することによって、音を検知した位置情報を取得する。また、赤外線検知機能では、監視エリア101での設置位置を予め登録した赤外線検知器が熱を検知することによって、監視対象の位置情報を取得する。尚、本発明では、位置情報は、監視エリア101を撮像した映像における位置座標とし、位置座標によって監視エリア101での位置を特定する。
Here, the face detection function includes, for example, a face recognition method using a unique face. In the motion detection function, a motion is detected by a partial change that occurs in a captured image with time, and position information in the
入力装置104は、記録装置105に接続され、監視業務員109が所望の映像を得るために入力した検索条件を、再生要求信号410として記録装置105に送信する装置である。検索条件としては、例えば複数ある監視カメラ103のうち所望の監視光景を撮像している監視カメラ103や、複数の監視カメラ103の検索順序、また撮像日時や、監視エリア101において監視したい場所などが考えられる。また、これらの検索条件のうち1以上を指定できるとしても良い。
The
記録装置105は、複数の監視カメラ103と接続し、各監視カメラ103が送信する撮像映像、撮像日時、及び被監視人物108に関する位置座標などをまとめて受信し、記録媒体107に記録する装置である。記録媒体107は、記録装置105の内部又は外部に設けられた、例えばハードディスクやメモリカード等の記憶デバイスである。また記録装置105は、入力装置104から再生要求信号410を受信すると、記録媒体107に記録された映像から、監視業務員109が所望する映像を検索し、また必要に応じて映像を合成し、監視モニタ106に出力する。
The
監視モニタ106は、記録装置105が出力した映像を、再生表示するための映像音声出力装置である。
The
図2は、監視カメラ103の機能部と、各機能部で授受されるデータの流れを示すブロック図である。監視カメラ103は、映像撮像部201、特徴検出部202、存在検知部203、データ管理部204及びデータ送信部205で構成される。
FIG. 2 is a block diagram illustrating the functional units of the
尚、監視カメラ103の各機能部を繋ぐ矢印のうち、実線で表されるものは映像データ206の流れを示し、一点鎖線で表されるものはメタデータ207の流れを示す。メタデータ207は、映像データ206を撮像した日時である日時データや、映像データ206から得られる位置座標を指す。
Of the arrows connecting the functional units of the
映像撮像部201は、監視カメラ103が映像を撮像するための機能部である。映像撮像部201は、日時データとともに、撮像した映像をフレーム単位の映像データ206として、データ管理部204に出力する。
The
特徴検出部202は、映像データ206から、被監視人物108の特徴を検出した位置座標を、データ管理部204に出力する機能部である。本発明では、特徴検出部202が出力する位置座標を特徴検出位置座標と呼ぶ。
The
存在検知部203は、映像データ206から、被監視人物108の存在を検知した位置座標を、データ管理部204に出力する機能部である。本発明では、存在検知部203が出力する位置座標を存在検知位置座標と呼ぶ。
The
データ管理部204は、映像撮像部201が出力する映像データ206及び日時データ、並びに特徴検出部202及び存在検知部203が出力する各位置座標を管理する機能部である。データ管理部204は、映像撮像部201から受けた映像データ206を、特徴検出部202及び存在検知部203に引き渡し、各位置座標を取得する。また、データ管理部204は、映像データ206と、日時データ及び各位置座標からなるメタデータ207とを、予め設定されるタイミングでデータ送信部205に出力する。
The
データ送信部205は、データ管理部204が出力する映像データ206及びメタデータ207を、記録装置105に送信する機能部である。
The
図3は、記録装置105の記録に関する機能部と、各機能部で授受されるデータの流れを示すブロック図である。
FIG. 3 is a block diagram showing functional units related to recording of the
図3の記録装置105は、映像データ受信部301、メタデータ受信部302、データ解析部303、特徴画像切り出し部304、特徴画像データ管理部305及び位置座標データ管理部306で構成される。また、記録装置105の記録媒体107は、映像データ記録部307、日時データ記録部308、特徴画像データ記録部309及び位置座標データ記録部310の記憶領域に区分され、各機能部が扱う情報を記録している。
3 includes a video
尚、記録装置105の各機能部及び各記憶領域を繋ぐ矢印のうち、実線で表されるものは、映像データ206又は特徴画像データの流れを示し、一点差線で表されるものは、日時データや各位置座標のメタデータ207の流れを示す。メタデータ207は、映像データ206を撮像した日時である日時データや、映像データ206から得られる位置座標を指す。
Of the arrows connecting the respective functional units and the storage areas of the
映像データ受信部301は、監視カメラ103が送信した映像データ206を受信する機能部である。
The video
メタデータ受信部302は、監視カメラ103が送信した、メタデータ207を受信する機能部である。
The
データ解析部303は、映像データ受信部301が受信した映像データ206及びメタデータ受信部302が受信したメタデータ207を解析し、各機能部又は記録媒体107の各記憶領域に各種情報を出力する機能部である。また、データ解析部303は、映像データ受信部301から受け取った映像データ206を映像データ記録部307に、メタデータ受信部302から受け取ったメタデータ207のうち、日時データを日時データ記録部308に記録する。
The
特徴画像切り出し部304は、データ解析部303から映像データ206と特徴検出位置座標を受けて、特徴検出位置座標をもとに映像データ206から特徴画像データを切り出す機能部である。切り出した特徴画像データは、特徴画像データ管理部305に出力する。
The feature
特徴画像データ管理部305は、特徴画像切り出し部304から特徴画像データを受けて、特徴画像データ記録部309に記録する機能部である。
The feature image
位置座標データ管理部306は、データ解析部303から特徴検出位置座標及び存在検知位置座標を受けて、位置座標データ記録部310に記録する機能部である。
The position coordinate
図4は、記録装置105の再生に関する機能部と、各機能部で授受されるデータの流れを示すブロック図である。
FIG. 4 is a block diagram showing functional units related to reproduction of the
図4の記録装置105は、再生要求受信部401、再生要求解析部402、検索処理部403、映像検索部404、位置座標データ照合部405、特徴画像データ検索部406、映像合成部407及び映像表示部408で構成される。また、記録装置105は、各監視カメラ103が撮像した映像データ206の位置座標を関連付ける、カメラ連携テーブル409を保持している。
4 includes a reproduction
尚、記録装置105の各機能部及び各記憶領域を繋ぐ矢印のうち、実線で表されるものは、映像データ206又は特徴画像データの流れを示し、一点差線で表されるものは、日時データや各位置座標のメタデータ207の流れを示す。メタデータ207は、映像データ206を撮像した日時である日時データや、映像データ206から得られる位置座標を指す。
Of the arrows connecting the respective functional units and the storage areas of the
再生要求受信部401は、入力装置104からの再生要求信号410を受信する機能部である。
The reproduction
再生要求解析部402は、再生要求受信部401が受信した再生要求信号410の内容から、監視業務員109が再生表示したい映像データ206の検索条件を解析する機能部である。
The reproduction
検索処理部403は、再生要求解析部402が解析した検索条件に従って、各機能部を制御し、記録媒体107から映像データ206及び特徴画像データを取得させる機能部である。また、検索処理部403は、カメラ連携テーブル409の初期値を設定すると共に、設定された値を参照して、各監視カメラ103が撮像した映像データ206の位置座標におけるオフセット情報を取得する。カメラ連携テーブル409については、後の図4で説明する。
The
映像検索部404は、検索処理部403が指定した映像Indexに対応する映像データ206を、映像データ記録部307から取得して出力する機能部である。映像Indexについては、後の図4で説明する。
The
位置座標データ照合部405は、検索処理部403が指定する映像Indexに関連付けられた、特徴画像Index、特徴画像位置座標及び存在検知位置座標を、位置座標データ記録部310から取得して出力する機能部である。また、位置座標データ照合部405は、ある映像データ206に関連付けられた存在検知位置座標と、別の映像データ206に関連付けられた特徴検出位置座標とを比較し、存在検知位置座標と特徴検出位置座標との間の距離が所定距離以下であるかどうかを判定する。ここでの判定については、後の図7で説明する。
The position coordinate
特徴画像データ検索部406は、検索処理部403が指定した特徴画像Indexに対応する特徴画像データを、特徴画像データ記録部309から取得して出力する機能部である。特徴画像Indexについては、後の図4で説明する。
The feature image
映像合成部407は、映像検索部404が出力した映像データ206に、特徴画像データ検索部406が出力した特徴画像データを重畳表示させて合成し、再生表示映像データ411を生成する機能部である。生成した再生表示映像データ411は、映像表示部408に出力する。また、映像合成部407は、映像データ206に特徴画像データを合成せずにそのまま出力する場合もある。映像データ206又は再生表示映像データ411のいずれを出力するかについては、後の図13で説明する。
The
映像表示部408は、映像合成部407から受けた映像データ206又は再生表示映像データ411を、監視モニタ106に送信する機能部である。
The
図5〜8は、記録装置105の記録媒体107を区分した記憶領域である、映像データ記録部307、日時データ記録部308、特徴画像データ記録部309及び位置座標データ記録部310のそれぞれの構成を示す。
5 to 8 are storage areas into which the
記録媒体107の各記憶領域のデータは、監視カメラ103で区別して記録されており、映像データ206の記録と検索は監視カメラ103の区別を単位に行われる。図5〜8では、n台の監視カメラ103を監視カメラC1〜Cnと表す。
Data in each storage area of the
また、記録媒体107の各記憶領域に共通の検索Indexは、映像データ206を検索する時に、撮像した監視カメラC1〜Cnを特定すると共に、検索順序を指定するために割り当てられる1以上の整数値である。検索Indexを示す変数にはiを用いる。尚、図5〜8は、未だ検索Indexに値が設定されていない状態を示している。検索Indexへの値の設定については図10で説明する。
The search index common to each storage area of the
図5は、映像データ記録部307に記録されたデータの構成を示す図である。
FIG. 5 is a diagram showing a configuration of data recorded in the video
映像データ記録部307は、データ解析部303によって、監視カメラC1〜Cnが撮像した映像データ206を識別する映像Indexを対応付けて記録している。ここで、同じ監視カメラ103で撮像した映像データ206を識別するための映像Indexには変数jを用いる。また、監視カメラ103で区別すると共に、映像データ206を識別する映像Indexは、検索Indexの変数i及び映像Indexの変数jを用いて、映像Index(i,j)と表す。同様に、監視カメラ103で区別した映像データ206は、検索Indexの変数i及び映像Indexの変数jを用いて、映像データ(i,j)と表す。
In the video
図6は、日時データ記録部308に記録されたデータの構成を示す図である。
FIG. 6 is a diagram illustrating a configuration of data recorded in the date / time
日時データ記録部308は、データ解析部303によって、監視カメラC1〜Cnが撮像した各映像データ206と対応した映像Indexに、各映像データ206を撮像した日時である日時データを関連付けて記録している。日時データを、検索Indexの変数i及び映像Indexの変数jを用いて、日時データ(i,j)と表す。
The date / time
図7は、特徴画像データ記録部309に記録されたデータの構成を示す図である。
FIG. 7 is a diagram illustrating a configuration of data recorded in the feature image
特徴画像データ記録部309は、特徴画像データ管理部305によって、特徴画像切り出し部304が映像データ206から切り出した特徴画像データに、特徴画像データを区別するための特徴画像Indexを対応付けて記録している。ここで、同じ監視カメラ103で撮像した映像データ206を識別するための特徴画像Indexには変数にはkを用いる。また、また、監視カメラ103で区別すると共に、特徴画像データを識別する特徴画像Indexは、検索Indexの変数i及び特徴画像Indexの変数kを用いて、特徴画像Index(i,k)と表す。同様に、監視カメラ103で区別した特徴画像データは、検索Indexの変数i及び特徴画像Indexの変数kを用いて、特徴画像データ(i,k)と表す。
The feature image
図8は、位置座標データ記録部310に記録されたデータの構成を示す図である。
FIG. 8 is a diagram illustrating a configuration of data recorded in the position coordinate
位置座標データ記録部310は、位置座標データ管理部306によって、監視カメラC1〜Cnが撮像した各映像データ206と対応した映像Indexに、特徴画像Index、特徴検出位置座標及び存在検知位置座標を関連付けて記録している。ここで、特徴検出位置座標の位置座標を(fx,fy)で示し、存在検知位置座標の位置座標を(ex,ey)で示す。また、特徴検出位置座標及び存在検知位置座標を、検索Indexの変数i及び映像Indexの変数jを用いて、特徴検出位置座標(i,j)及び存在検知位置座標(i,j)と表す。
The position coordinate
尚、撮像映像に複数の被監視人物108が映る場合に、1つの映像データ及びその映像Indexに、複数の特徴画像Index、特徴検出位置座標及び存在検知位置座標を関連付けることも可能であるが、本発明では、1つの映像データにはそれぞれ1つの特徴画像Index、特徴検出位置座標及び存在検知位置座標が関連付けられるものとして説明する。
When a plurality of monitored
図9は、カメラ連携テーブル409に設定されたデータの構成を示す。 FIG. 9 shows the configuration of data set in the camera cooperation table 409.
カメラ連携テーブル409の1行目を例に取ると、監視カメラC1〜Cnのうち、監視カメラC1を主監視カメラとし、その他の監視カメラC2〜Cnを副監視カメラF1〜Fn−1としている。このカメラ連携テーブル409の1行目では、主監視カメラC1が撮像した映像データ206と、副監視カメラF1〜Fn−1が撮像した各映像データ206との、位置座標におけるオフセット情報が予め設定されている。その他の行では、監視カメラC2〜cnを主監視カメラとした、副監視カメラF1〜Fn−1とのオフセット情報が設定されている。このオフセット情報を用いることで、任意の主監視カメラを基準として、それぞれの副監視カメラが撮像した映像データ206を、主監視カメラの視点に座標変換することができる。オフセット情報を用いて座標変換を行う過程については、後の図5で説明する。
Taking the first line of the camera linkage table 409 as an example, of the monitoring cameras C1 to Cn, the monitoring camera C1 is the main monitoring camera, and the other monitoring cameras C2 to Cn are the sub monitoring cameras F1 to Fn-1. In the first row of the camera linkage table 409, offset information in position coordinates between the
また、カメラ連携テーブル409では、最初に映像データ206の検索を開始する主監視カメラの選択と、副監視カメラF1〜Fn−1を検索する順序である検索Indexの設定を行う。監視カメラC1を主監視カメラとして以下に説明する。
Further, in the camera cooperation table 409, the selection of the primary monitoring camera that starts the search of the
先ず、カメラ連携テーブル409から、最初に検索する監視カメラC1が主監視カメラに対応している行を選択し、検索開始監視カメラの欄に印付ける。図9のカメラ連携テーブル409では1行目が該当する。カメラ連携テーブル409の1行目には、主監視カメラの監視カメラC1に続いて、副監視カメラF1〜Fn−1に対応した監視カメラC2〜Cnが並んでいる。 First, from the camera cooperation table 409, the row corresponding to the main monitoring camera for the monitoring camera C1 to be searched first is selected and marked in the search start monitoring camera column. The first line corresponds to the camera cooperation table 409 in FIG. In the first row of the camera linkage table 409, monitoring cameras C2 to Cn corresponding to the sub monitoring cameras F1 to Fn-1 are arranged next to the monitoring camera C1 of the main monitoring camera.
次に、カメラ連携テーブル409の1行目の監視カメラC2〜Cnと列対応する、カメラ連携テーブル409の最下段にある検索Indexに検索順序を設定する。図9では、監視カメラC2、C3・・・Cnに対応する検索Indexを、i=2、3・・・nとしている。尚、主監視カメラは最初に検索されるため、監視カメラC1の検索Indexはi=1となる。 Next, the search order is set in the search index at the bottom of the camera cooperation table 409 corresponding to the columns of the monitoring cameras C2 to Cn in the first row of the camera cooperation table 409. In FIG. 9, the search index corresponding to the surveillance cameras C2, C3... Cn is set to i = 2, 3,. Since the main monitoring camera is searched first, the search index of the monitoring camera C1 is i = 1.
上述のように設定したカメラ連携テーブル409を参照することで、記録装置105は、監視カメラC1〜Cnが撮像した映像データ206を順次検索することができる。
By referring to the camera cooperation table 409 set as described above, the
尚、カメラ連携テーブル409における、検索開始監視カメラの選択と検索Indexの設定は、入力装置104からの再生要求信号410に含まれる検索条件の内容により決まるものであり、再生要求信号410を受信したときに、検索処理部403によって設定される。再生要求信号410を受信したときの処理は、後の図7で説明する。
The selection of the search start monitoring camera and the setting of the search index in the camera cooperation table 409 are determined by the contents of the search condition included in the playback request signal 410 from the
図10は、カメラ連携テーブル409での設定が記録媒体107の各記憶領域に反映される対応を示す図である。
FIG. 10 is a diagram illustrating the correspondence in which the settings in the camera cooperation table 409 are reflected in each storage area of the
カメラ連携テーブル409に、検索開始監視カメラ及び検索Indexが設定されると、検索処理部403によって、映像データ記録部307、日時データ記録部308、特徴画像データ記録部309及び位置座標データ記録部310の検索Indexに対し設定が反映される。
When the search start monitoring camera and the search index are set in the camera linkage table 409, the
図11(a)〜(c)は、カメラ連携テーブル409に設定されたオフセット情報を用いて、監視エリア101にある一方の監視カメラ103で撮像した映像データ206を、もう一方の監視カメラ103で撮像した映像データ206に座標変換を行う過程を示す図である。
11A to 11C, the
図11(a)は、監視エリア101の対角線上に2台の監視カメラ1101、1102を設置した模式図である。ここで、監視カメラ1101は主監視カメラであり、監視カメラ1102は副監視カメラであるとする。
FIG. 11A is a schematic diagram in which two monitoring cameras 1101 and 1102 are installed on the diagonal line of the
図11(b)は、主監視カメラ1101から監視エリア101にいる被監視人物108を撮像した映像データ1103を示す図である。
FIG. 11B is a diagram illustrating video data 1103 obtained by imaging the monitored
映像データ1103に映る監視エリア101の四隅を左上隅から時計回りに点A1、点B1、点C1及び点D1とし、点A1と点B1との間隔をX、点A1と点D1との間隔をYとする。ここで、点A1を位置座標の原点として、点A1〜点D1を座標(x,y)で表すと、原点A1(x,y)=(0,0)、点B1(x,y)=(X,0)、点C1(x,y)=(X,Y)及び点D1(x,y)=(0,Y)となる。このように位置座標を設定した映像データ1103において、被監視人物108の位置を点Pとすると、主監視カメラ1101が備える、被監視人物108の特徴を検出する機能と被監視人物108の存在を検知する機能によって、被監視人物108の位置座標である特徴検出位置座標と存在検知位置座標は、ともに点P(x,y)=(x1,y1)として特定される。
The four corners of the
図11(c)は、副監視カメラ1102から監視エリア101にいる被監視人物108を撮像した映像データ1104を示す図である。
FIG. 11C is a diagram showing video data 1104 obtained by imaging the monitored
映像データ1103と同様に、映像データ1104に映る監視エリア101の四隅を左上隅から時計回りに点A2、点B2、点C2及び点D2とし、点A2と点B2との間隔をX、点A2と点D2との間隔をYとする。ここで、点A2を位置座標の原点として、点A2〜点D2を座標(x,y)で表すと、原点A2(x,y)=(0,0)、点B2(x,y)=(X,0)、点C2(x,y)=(X,Y)及び点D2(x,y)=(0,Y)となる。このように位置座標を設定した映像データ1104において、被監視人物108の位置を点Sとすると、副監視カメラ1102が備える、被監視人物108の特徴を検出する機能と被監視人物108の存在を検知する機能によって、被監視人物108の位置座標である特徴検出位置座標と存在検知位置座標はともに、点S(x,y)=(x2,y2)として特定される。
As with the video data 1103, the four corners of the
ところで、主監視カメラ1101及び副監視カメラ1102によって特定される位置座標の点P(x1,y1)及び点S(x2,y2)は、監視エリア101での同じ場所を指している。そこで、副監視カメラ1102で撮像した映像データ1104の点S(x2,y2)を、主監視カメラ1101で撮像した映像データ1103の視点から見た点P(x1,y1)に置き換えることを試みる。
Incidentally, the point P (x1, y1) and the point S (x2, y2) of the position coordinates specified by the main monitoring camera 1101 and the sub-monitoring camera 1102 indicate the same place in the
ここで、カメラ連携テーブル409に予め設定された、主監視カメラ1101に対する副監視カメラ1102のオフセット情報は、x=X−x2及びy=y2とする。このオフセット情報を用いて、副監視カメラ1102で撮像した点S(x2,y2)を主監視カメラ1101で撮像した点P(x1,y1)に座標変換した、点S_offsetを算出すると、点S_offset(X−x2,y2)と表すことができる。 Here, the offset information of the sub-monitoring camera 1102 with respect to the main monitoring camera 1101 preset in the camera cooperation table 409 is x = X−x2 and y = y2. Using this offset information, when the point S_offset obtained by coordinate conversion of the point S (x2, y2) imaged by the sub-monitoring camera 1102 to the point P (x1, y1) imaged by the main monitoring camera 1101 is calculated, the point S_offset ( X-x2, y2).
上述の通り、任意の監視カメラ103で撮像した映像データ206の位置座標は、カメラ連携テーブル409のオフセット情報を用いることで、他の監視カメラ103からの視点での位置座標に置き換えることができる。
As described above, the position coordinates of the
図12は、記録装置105が、監視カメラ103から映像データ206及びメタデータ207を受信し、記録媒体107に記録するまでの処理を示すフローチャート図である。
FIG. 12 is a flowchart illustrating processing until the
処理S1201では、記録装置105が、監視カメラ103から映像データ206及びメタデータ207を受信する。その後、処理S1202に進む。
In process S <b> 1201, the
処理S1202では、データ解析部303が、監視カメラ103から受信したメタデータ207に特徴検出位置座標が含まれるかどうかを解析する。特徴検出位置座標が含まれるならば、処理S1203に進む。特徴検出位置座標が含まれないならば、処理S1205に進む。
In process S1202, the
処理S1203では、位置座標データ管理部306が、特徴検出位置座標を位置座標データ記録部310に記録する。その後、処理S1204に進む。
In step S1203, the position coordinate
処理S1204では、特徴画像データ管理部305が、特徴画像切り出し部304から特徴画像データを受けて、特徴画像データを特徴画像データ記録部309に記録する。その後、処理S1206に進む。
In step S1204, the feature image
処理S1205では、位置座標データ管理部306が、メタデータ207に特徴検出位置座標が含まれないため、特徴検出位置座標を(fx,fy)=(0,0)と設定して位置座標データ記録部310に記録する。その後、処理S1206に進む。
In step S1205, the position coordinate
処理S1206では、データ解析部303が、監視カメラ103から受信したメタデータ207に存在検知位置座標が含まれるかどうかを解析する。存在検知位置座標が含まれるならば、処理S1207に進む。存在検知位置座標が含まれないならば、処理S1208に進む。
In step S1206, the
処理S1207では、位置座標データ管理部306が、存在検知位置座標を位置座標データ記録部310に記録する。その後、処理を終了する。
In step S1207, the position coordinate
処理S1208では、位置座標データ管理部306が、監視カメラ103から受信したメタデータ207に存在検知位置座標が含まれないため、存在検知位置座標を(ex,ey)=(0,0)と設定して位置座標データ記録部310に記録する。その後、処理を終了する。
In step S1208, the position coordinate
図13は、記録装置105が、入力装置104から入力した検索条件をもとに映像データ206を検索し、監視モニタ106に出力するまでの処理を示すフローチャート図である。
FIG. 13 is a flowchart illustrating processing until the
図13では、監視カメラ103の台数をnとし、検索Indexの値iを、初期値1から最大nまで1ずつ増加させながら、カメラ連携テーブル409に設定された検索Indexの順に、監視カメラ103が撮像した映像データ206を検索していく。このときの検索Indexが値iとなる監視カメラ103を、監視カメラ(i)と表す。
In FIG. 13, the number of the
処理S1301では、再生要求受信部401が、入力装置104からの再生要求信号410を受信する。その後、処理S1302に進む。
In process S1301, the reproduction
処理S1302では、再生要求解析部402が、受信した再生要求信号410の内容から、再生表示したい映像データ206の検索条件を解析する。検索条件としては、例えば映像データ206を最初に検索する監視カメラ103、複数ある監視カメラ103の検索順序、撮像日時、監視エリア101での例えば位置座標といった場所を示す情報、及びこれらの情報の組み合わせ等が考えられる。処理S1302では、検索条件として、最初に検索する監視カメラ103、複数ある監視カメラ103の検索順序及び撮像日時が指定されたものとする。その後、処理S1303に進む。
In step S1302, the reproduction
処理S1303では、検索Indexの変数iを初期値1に設定する。その後、処理S1304に進む。
In process S1303, the variable i of the search index is set to the
処理S1304では、検索処理部403は、再生要求信号410において最初に検索する監視カメラ103として指定されたものを、カメラ連携テーブル409での検索開始監視カメラに選択し、検索Indexにi=1を設定する。また、検索処理部403は、再生要求信号410で指定された監視カメラ103の検索順序を、カメラ連携テーブル409での各監視カメラ103の検索Indexに設定する。仮に、再生要求信号410の検索条件に、検索開始監視カメラや検索順序の指定がなければ、映像監視システムで予め決まる値を設定する。その後、処理S1305に進む。
In process S1304, the
処理S1305では、検索処理部403が直接又は他の機能部を制御して、カメラ連携テーブル409に設定された各監視カメラ103と検索Indexとの対応を、記録媒体107の映像データ記録部307、日時データ記録部308、特徴画像データ記録部309及び位置座標データ記録部310に反映し設定する。その後、処理S1306に進む。
In process S1305, the
処理S1306では、記録媒体107から、検索Indexがi=1の監視カメラ(1)に関連付けられた映像Index(1,j)のうち、検索条件に合うものを検索し取得する。ここでは、検索条件に日時が含まれるため、日時データ記録部308を検索する。また、検索条件に監視エリア101での位置情報が含まれる場合には、位置座標データ記録部310を検索する。その後、処理S1307に進む。
In step S1306, the video index (1, j) associated with the monitoring camera (1) whose search index is i = 1 is searched for and acquired from the
処理S1307では、位置座標データ記録部310から、処理S1306で取得した映像Index(1,j)に関連付けられた、特徴検出位置座標(1,j)及び存在検知位置座標(1,j)を検索し取得する。その後、処理S1308に進む。
In the process S1307, the feature detection position coordinate (1, j) and the presence detection position coordinate (1, j) associated with the video Index (1, j) acquired in the process S1306 are searched from the position coordinate
処理S1308では、取得した特徴検出位置座標(1,j)が(0,0)であるかどうか判定する。特徴検出位置座標が(0,0)とは、処理S1306で取得した映像Index(1,j)に関連付けられた映像データ(1,j)からは、被監視人物108の特徴が検出されなかったことを示す。特徴検出位置座標(1,j)が(0,0)であれば処理S1309に進む。特徴検出位置座標(1,j)が(0,0)でなければ処理S1319に進む。
In process S1308, it is determined whether or not the acquired feature detection position coordinate (1, j) is (0, 0). The feature detection position coordinate is (0, 0). The feature of the monitored
処理S1309では、取得した存在検知位置座標(1,j)が(0,0)であるかどうか判定する。存在検知位置座標(1,j)が(0,0)とは、処理S1306で取得した映像Index(1,j)に関連付けられた映像データ(1,j)からは、被監視人物108の存在が検知されなかったことを示す。存在検知位置座標(1,j)が(0,0)でなければ処理S1310に進む。存在検知位置座標(1,j)が(0,0)であれば処理S1319に進む。
In process S1309, it is determined whether or not the acquired presence detection position coordinate (1, j) is (0, 0). The presence detection position coordinate (1, j) is (0, 0) is the presence of the monitored
処理S1310はループ処理であり、処理S1311から処理S1314までの処理を適宜、繰り返し行う。ループの始端にある繰り返し条件は、検索Indexの変数iの開始値をi=2、終了値をi=監視カメラ台数n−1とし、ループの終端から始端に戻るごとに変数iに1ずつ加算することを示す。この繰り返し条件に従って、変数iに対応する監視カメラ(i)が撮像した映像データ(i,j)のうち、映像Index(1,j)で検知された被監視人物108の特徴が検出されたものを検索する。尚、変数iが終了値を超えた場合は、特徴を検出した映像データ206が検索されなかったとして、映像Index(1,j)に対応する映像データ(1,j)を再生表示させるため、処理S1319に進む。
The process S1310 is a loop process, and the processes from the process S1311 to the process S1314 are repeated as appropriate. The repetition condition at the beginning of the loop is that the search index variable i has a start value i = 2 and an end value i = number of surveillance cameras n-1, and is added to the variable i by 1 each time the loop returns to the start end. Indicates to do. According to this repetition condition, among the video data (i, j) captured by the monitoring camera (i) corresponding to the variable i, the feature of the monitored
処理S1311では、日時データ記録部308から、処理S1306で取得した映像Index(1,j)との撮像日時の時間差が所定時間以下である映像Index(i,j)を検索し取得する。ここでの所定時間とは、例えば1秒を指す。その後、処理S1312に進む。
In process S1311, the video index (i, j) in which the time difference of the imaging date and time from the video index (1, j) acquired in process S1306 is equal to or less than a predetermined time is retrieved from the date
処理S1312では、位置座標データ記録部310から、処理S1311で取得した映像Index(i,j)に関連付けられた、特徴検出位置座標(i,j)を取得する。その後、処理S1313に進む。
In process S1312, the feature detection position coordinate (i, j) associated with the video Index (i, j) acquired in process S1311 is acquired from the position coordinate
処理S1313では、処理S1312で取得した特徴検出位置座標(i,j)が(0,0)であるかどうかを判定する。特徴検出位置座標(i,j)が(0,0)であれば処理S1310のループ処理の始端に戻り、他の監視カメラ103が撮像した映像データ206を検索する。特徴検出位置座標(i,j)が(0,0)でなければ処理S1314に進む。
In process S1313, it is determined whether or not the feature detection position coordinates (i, j) acquired in process S1312 are (0, 0). If the feature detection position coordinate (i, j) is (0, 0), the process returns to the beginning of the loop processing in step S1310, and the
処理S1314では、カメラ連携テーブル409を参照し、主監視カメラの監視カメラ(1)を基準として、処理S1312で取得した特徴検出位置座標(i,j)を座標変換する。その後、処理S1315に進む。 In process S1314, the camera cooperation table 409 is referred to, and the feature detection position coordinates (i, j) acquired in process S1312 are coordinate-converted with reference to the monitoring camera (1) of the main monitoring camera. Then, it progresses to process S1315.
処理S1315では、処理S1314で座標変換した特徴検出位置座標(i,j)と、処理S1307で取得した存在検知位置座標(1,j)との間の距離が所定距離以下であるかどうかを判定する。ここで、所定距離とはシステムで任意に設定されるものとする。特徴検出位置座標(i,j)と存在検知位置座標(1,j)との間の距離が所定距離以下となる場合は処理S1316に進む。特徴検出位置座標(i,j)と存在検知位置座標(1,j)との間の距離が所定距離以下とならない場合は処理S1310のループ処理の始端に戻る。 In process S1315, it is determined whether or not the distance between the feature detection position coordinate (i, j) transformed in process S1314 and the presence detection position coordinate (1, j) acquired in process S1307 is equal to or smaller than a predetermined distance. To do. Here, the predetermined distance is arbitrarily set by the system. If the distance between the feature detection position coordinates (i, j) and the presence detection position coordinates (1, j) is equal to or less than the predetermined distance, the process proceeds to step S1316. If the distance between the feature detection position coordinates (i, j) and the presence detection position coordinates (1, j) is not less than or equal to the predetermined distance, the process returns to the start of the loop process in step S1310.
処理S1316では、位置座標データ記録部310から、映像Index(i,j)に関連付けられた特徴画像Index(i,k)を取得する。その後、処理S1317に進む。
In process S1316, the feature image Index (i, k) associated with the video index (i, j) is acquired from the position coordinate
処理S1317では、特徴画像データ記録部309から、処理S1316で取得した特徴画像Index(i,k)に対応付けられた特徴画像データ(i,k)を検索し取得する。その後、処理S1318に進む。
In process S1317, the feature image data (i, k) associated with the feature image Index (i, k) acquired in process S1316 is retrieved and acquired from the feature image
処理S1318では、映像データ記録部307から、映像Index(1,j)に対応付けられた映像データ(1,j)を検索して取得し、映像データ(1,j)に対して、処理S1317で取得した特徴画像データ(i,k)を重畳表示して合成した再生表示映像データ411を生成する。映像データ(1,j)に特徴画像データ(i,k)を重畳表示させる位置は、例えば存在検知位置座標(1,j)を中心とした所定距離からなる領域にかからない位置とする。その後、処理S1319に進む。
In the process S1318, the video data (1, j) associated with the video index (1, j) is searched and acquired from the video
処理S1319では、処理S1308で被監視人物108の特徴を検出した、処理S1309で被監視人物108の特徴の検出も存在の検知もしなかった、又は処理S1310でループ処理の繰り返し条件を超過した、いずれかの場合であれば、映像データ(1,j)を監視モニタ106に出力する。いずれの場合にもならず、処理S1318を経た場合であれば、処理S1318で生成した再生表示映像データ411を監視モニタ106に出力する。その後、処理を終了する。
In the process S1319, the feature of the monitored
尚、上述のように、映像データ206に複数の被監視人物108が映っており、映像Indexに複数の特徴画像Indexが関連付けられる場合には、例えば映像Indexが最初に検索した監視カメラ(1)のものであれば、処理S1319に進み、映像Indexに対応する映像データ206を出力する。また、映像Indexが最初に検索した監視カメラ(1)のものでなければ、処理S1312で複数の特徴画像Indexを取得し、処理S1318で各々の特徴画像Indexに対応する特徴画像データを映像データ206に重畳表示して合成し、処理S1319で複数の特徴画像データを合成した再生表示映像データ411を出力する。
As described above, when a plurality of monitored
図14は、記録装置105が出力した再生表示映像データ411を、監視モニタ106で再生表示させた画面表示例の図である。
FIG. 14 is a diagram illustrating a screen display example in which the reproduction display video data 411 output from the
被監視人物1401は、図13の処理S1318において、映像データ(1,j)での存在検知位置座標(1,j)に映る被監視人物108である。特徴画像データ1402は、図13の処理S1318において、映像データ(1,j)に重畳表示させた被監視人物1401の特徴画像データ(i,k)である。
The monitored
実施の形態1によれば、監視エリア101に複数設置した監視カメラ103より伝送された、撮像映像及び撮像日時等の情報を記録した記録装置105が、被監視人物108の存在を検知した存在検知位置座標と、被監視人物108の特徴を検出した特徴検出位置座標を映像データ206より取得し、これら2つの位置座標を含む映像データ206が近い日時にあり、また2つの位置座標が監視エリア101上で近い位置にあるかどうかを判定することで、同一の又は異なる監視カメラ103からの撮像映像に含まれるこれら2つの位置座標に関わる被監視人物108が同一であるかどうかを判断することが可能となる。その結果として、複数の監視カメラ103が固定的に撮像した撮像映像より被監視人物108の存在を検知することで、近い日時にあって当該被監視人物108の特徴を含む、同一の又は異なる監視カメラ103からの映像データ206を短時間で検索でき、複雑な処理を行う高コストな装置を要せずに、所望の監視光景を含む再生表示映像データ411を再生表示できる効果が得られる。
According to the first embodiment, the
また、実施の形態1によれば、記録装置105が、検索した2つの映像データ206のうち、所望の監視光景とは異なる映像データ206より特徴画像データを切り出し、所望の監視光景の映像データ206に例えば重畳表示して合成した再生表示映像データ411を生成し、再生表示させることが可能となる。その結果として、記録装置105が2つの映像データ206を検索した場合に、所望の監視光景において被監視人物108の存在と特徴とが分かり易くまとまった1つの再生表示映像データ411として再生表示できる効果が得られる。
Further, according to the first embodiment, the
また、実施の形態1によれば、最初に検索した監視カメラ103の映像データ206から被監視人物108の特徴が検出されず、存在のみ検知された場合に、他の監視カメラ103の映像データ206から当該被監視人物108の特徴画像データを取得し、最初に検索した監視カメラ103の映像データ206に特徴画像データを合成した再生表示映像データ411を生成して再生表示させることが可能となる。その結果として、最初に検索した監視カメラ103の映像データ206よりも、被監視人物108の特徴が良く分かる別の監視カメラ103が撮像した映像データ206が見つかったとしても、最初の監視カメラ103からの監視光景を保ったままで、被監視人物108の存在と特徴が分かる再生表示映像データ411を再生表示できる効果が得られる。
Further, according to the first embodiment, when the feature of the monitored
また、実施の形態1によれば、最初に検索した監視カメラ103の映像データ206に被監視人物108の特徴が検出できれば、そのまま再生表示映像データ411として監視モニタ106に表示させることが可能となる。その結果として、最初に検索した監視カメラ103の映像データ206が、被監視人物108の存在と特徴が分かるものであれば、その後の合成等の処理を行わずにそのまま再生表示できる効果が得られる。
Further, according to the first embodiment, if the feature of the monitored
また、実施の形態1によれば、監視カメラ103に、特徴検出機能と存在検知機能とを実装させて、監視カメラ103の側で被監視人物108の特徴検出位置座標と存在検知位置座標とを得ることが可能となる。その結果として、記録装置105の側に特徴検出機能と存在検知機能とを実装させ、被監視人物108の各位置座標を算出させる必要がなくなり、記録装置105の処理負荷を軽減できる効果が得られる。
Further, according to the first embodiment, the feature detection function and the presence detection function are implemented in the
また、実施の形態1によれば、入力装置104から、監視カメラ103、撮像日時及び監視エリア101での位置若しくは領域を示す情報の少なくとも1つを検索条件として指定して、記録装置105が記録した映像データ206を検索することが可能となる。その結果として、監視業務員109が監視したい光景、日時及び監視エリアでの場所を検索条件として任意に指定でき、条件に関連のある映像データ206を検索できる効果が得られる。
Further, according to the first embodiment, the
実施の形態2.
実施の形態1では、監視カメラ103の側で、特徴検出機能及び存在検知機能を実装しており、これらの機能を用いて被監視人物108の特徴検出位置座標及び存在検知位置座標を得て、記録装置105に送信していた。実施の形態2は、監視カメラ1501では特徴検出機能及び存在検知機能を実装せずに、記録装置105の側で、被監視人物108の特徴検出位置座標及び存在検知位置座標を得る。
In the first embodiment, the feature detection function and the presence detection function are implemented on the
図15は、監視カメラ1501の機能部と、各機能部で授受されるデータの流れを示すブロック図である。図2と同じ符号を振られたものは、実施の形態1と同様であるため説明を省略する。
FIG. 15 is a block diagram illustrating the functional units of the
監視カメラ1501は、図2の監視カメラ103から、撮像した映像データ206をもとに被監視人物108の特徴を検出する特徴検出部202及び被監視人物108の存在を検知する存在検知部203を除いたものである。
The
図16は、記録装置1601の記録に関する機能部と、各機能部で授受されるデータの流れを示すブロック図である。図3と同じ符号を振られたものは、実施の形態1と同様であるため説明を省略する。 FIG. 16 is a block diagram showing functional units related to recording of the recording device 1601 and the flow of data exchanged between the functional units. The components denoted by the same reference numerals as those in FIG. 3 are the same as those in the first embodiment, and thus the description thereof is omitted.
記録装置1601は、図3の記録装置105に、撮像した映像データ206をもとに被監視人物108の特徴を検出する特徴検出部1602及び被監視人物108の存在を検知する存在検知部1603を実装させたものである。
The recording device 1601 includes a
特徴検出部1602は、データ解析部303から映像データ206を受け取り、特徴検出位置座標を出力する。データ解析部303は、実施の形態1と同様に、受け取った特徴検出位置座標を、特徴画像切り出し部304及び位置座標データ管理部306に出力する。
The
存在検知部1603は、データ解析部303から映像データ206を受け取り、監視対象位置座標を出力する。データ解析部303は、実施の形態1と同様に、受け取った監視対象位置座標を、位置座標データ管理部306に出力する。
The
実施の形態2によれば、
記録装置1601に、特徴検出機能と存在検知機能とを実装させて、記録装置1601の側で被監視人物108の特徴検出位置座標と存在検知位置座標とを得ることが可能となる。その結果として、各々の監視カメラ1501に特徴検出機能と存在検知機能とを実装させ、被監視人物108の各位置座標を算出させる必要がなくなり、監視カメラ1501の構成を簡略化してコスト削減を図れる効果が得られる。
According to the second embodiment,
By installing the feature detection function and the presence detection function in the recording device 1601, it is possible to obtain the feature detection position coordinates and the presence detection position coordinates of the monitored
101 監視エリア
102 監視室
103、1501 監視カメラ
104 入力装置
105、1601 記録装置
106 監視モニタ
107 記録媒体
108 被監視人物
109 監視業務員
201 映像撮像部
202、1602 特徴検出部
203、1603 存在検知部
204 データ管理部
205 データ送信部
206 映像データ
207 メタデータ
301 映像データ受信部
302 メタデータ受信部
303 データ解析部
304 特徴画像切り出し部
305 特徴画像データ管理部
306 位置座標データ管理部
307 映像データ記録部
308 日時データ記録部
309 特徴画像データ記録部
310 位置座標データ記録部
401 再生要求受信部
402 再生要求解析部
403 検索処理部
404 映像検索部
405 位置座標データ照合部
406 特徴画像データ検索部
407 映像合成部
408 映像表示部
409 カメラ連携テーブル
410 再生要求信号
411 再生表示映像データ
1101 主監視カメラ
1102 副監視カメラ
1103 主監視カメラによる映像データ
1104 副監視カメラによる映像データ
1401 再生表示映像データに映る被監視人物
1402 再生表示映像データに重畳表示させる特徴画像データ
101
Claims (8)
前記監視カメラが撮像した映像データ及び前記映像データの撮像日時を記録する記録装置と、
前記映像データの検索条件を入力する入力装置と、
前記記録装置が出力した前記映像データを再生表示する監視モニタと、
前記映像データから監視対象の存在を検知し、前記監視エリアでの位置情報である存在検知位置座標を出力して前記映像データに関連付ける存在検知手段と、
前記映像データから監視対象の特徴を検出し、前記監視エリアでの位置情報である特徴検出位置座標を出力して前記映像データに関連付ける特徴検出手段と、
を有する映像監視システムであって、
前記記録装置は、
前記映像データに関連付けられた前記存在検知位置座標及び前記特徴検出位置座標があるかどうかを判定する位置座標判定手段と、
前記複数の監視カメラが撮像した前記映像データのうち、前記検索条件を満たす第1監視カメラの第1映像データを検索する第1映像検索手段と、
前記複数の監視カメラが撮像した前記映像データのうち、前記撮像日時と、前記第1映像データの前記撮像日時との時間差が所定時間以下であり、前記特徴検出位置座標と、前記第1映像データの前記存在検知位置座標との間の距離が所定距離以下である、第2監視カメラの第2映像データを検索する第2映像検索手段と、
検索した前記映像データを前記監視モニタに出力する映像出力手段と、
を有する、
ことを特徴とする映像監視システム。 A plurality of surveillance cameras for imaging the surveillance area;
A recording device for recording the video data captured by the surveillance camera and the imaging date and time of the video data;
An input device for inputting search conditions for the video data;
A monitor for reproducing and displaying the video data output by the recording device;
Presence detection means for detecting the presence of a monitoring target from the video data, outputting presence detection position coordinates, which are position information in the monitoring area, and associating with the video data;
A feature detection unit that detects a feature of a monitoring target from the video data, outputs a feature detection position coordinate that is position information in the monitoring area, and associates the feature detection position coordinate with the video data;
A video surveillance system comprising:
The recording device comprises:
Position coordinate determination means for determining whether or not there is the presence detection position coordinate and the feature detection position coordinate associated with the video data;
First video search means for searching for first video data of a first surveillance camera that satisfies the search condition from among the video data captured by the plurality of surveillance cameras;
Among the video data captured by the plurality of monitoring cameras, a time difference between the imaging date and time and the imaging date and time of the first video data is equal to or less than a predetermined time, the feature detection position coordinates, and the first video data A second video search means for searching for second video data of the second surveillance camera, wherein a distance between the presence detection position coordinates is equal to or less than a predetermined distance;
Video output means for outputting the searched video data to the monitoring monitor;
Having
A video surveillance system characterized by that.
前記特徴検出手段によって検出した特徴を前記映像データから切り出し、特徴画像データとして出力する特徴画像データ切り出し手段と、
前記特徴画像データ切り出し手段により前記第2映像データから切り出した前記特徴画像データを、前記第1映像データに合成した第3映像データを生成する映像合成手段と、
をさらに有し、
前記映像出力手段は、前記第1映像データ又は前記第3映像データを前記監視モニタに出力する
ことを特徴とする請求項1に記載の映像監視システム。 The recording device comprises:
A feature image data cutout unit for cutting out the feature detected by the feature detection unit from the video data and outputting it as feature image data;
Video synthesizing means for generating third video data obtained by synthesizing the characteristic image data cut out from the second video data by the feature image data cutting out means with the first video data;
Further comprising
2. The video monitoring system according to claim 1, wherein the video output means outputs the first video data or the third video data to the monitoring monitor.
前記位置座標判定手段によって、前記第1映像データには前記特徴検出位置座標がなく、前記存在検知位置座標があると判定した場合に、
前記映像合成手段によって、前記第3映像データを生成し、
前記映像出力手段よって、前記第3映像データを前記監視モニタに出力する、
ことを特徴とする請求項2に記載の映像監視システム。 The recording device comprises:
When it is determined by the position coordinate determining means that the first video data does not have the feature detection position coordinates and has the presence detection position coordinates,
Generating the third video data by the video synthesizing means;
Outputting the third video data to the monitoring monitor by the video output means;
The video surveillance system according to claim 2.
前記位置座標判定手段によって、前記第1映像データには前記存在検知位置座標及び前記特徴検出位置座標があると判定した場合に、
前記映像出力手段よって、前記第1映像データを前記監視モニタに出力する、
ことを特徴とする請求項2または3のいずれかに記載の映像監視システム。 The recording device comprises:
When it is determined by the position coordinate determination means that the first video data has the presence detection position coordinates and the feature detection position coordinates,
Outputting the first video data to the monitoring monitor by the video output means;
The video surveillance system according to claim 2, wherein the video surveillance system is a video surveillance system.
前記存在検知手段及び前記特徴検出手段によって、
撮像した前記映像データの前記存在検知位置座標及び前記特徴検出位置座標を、前記記録装置に出力する、
ことを特徴とする請求項1から4のいずれかに記載の映像監視システム。 The surveillance camera has the presence detection unit and the feature detection unit,
By the presence detection means and the feature detection means,
Outputting the presence detection position coordinates and the feature detection position coordinates of the imaged image data to the recording device;
The video surveillance system according to claim 1, wherein the video surveillance system is a video surveillance system.
前記存在検知手段及び前記特徴検出手段によって、
前記監視カメラが撮像した前記映像データから、前記存在検知位置座標及び前記特徴検出位置座標を出力する、
ことを特徴とする請求項1から4のいずれかに記載の映像監視システム。 The recording apparatus includes the presence detection unit and the feature detection unit,
By the presence detection means and the feature detection means,
From the video data captured by the monitoring camera, the presence detection position coordinates and the feature detection position coordinates are output.
The video surveillance system according to claim 1, wherein the video surveillance system is a video surveillance system.
前記監視カメラ、前記撮像日時及び前記監視エリアでの位置若しくは領域を示す情報の少なくとも1つを指定する条件である
ことを特徴とする請求項1から6のいずれかに記載の映像監視システム。 The search condition is:
The video surveillance system according to claim 1, wherein the video surveillance system is a condition for designating at least one of information indicating the monitoring camera, the imaging date and time, and the position or area in the monitoring area.
前記監視カメラが撮像した映像データ及び前記映像データの撮像日時を記録する記録装置と、
前記映像データの検索条件を入力する入力装置と、
前記記録装置が出力した前記映像データを再生表示する監視モニタと、
を有する映像監視システムにおいて実行される映像検索方法であって、
前記映像データから監視対象の存在を検知し、前記監視エリアでの位置情報である存在検知位置座標を出力して前記映像データに関連付ける存在検知工程と、
前記映像データから監視対象の特徴を検出し、前記監視エリアでの位置情報である特徴検出位置座標を出力して前記映像データに関連付ける特徴検出工程と、
前記映像データに関連付けられた前記存在検知位置座標及び前記特徴検出位置座標があるかどうかを判定する位置座標判定工程と、
前記複数の監視カメラが撮像した前記映像データのうち、前記検索条件を満たす第1監視カメラの第1映像データを検索する第1映像検索工程と、
前記複数の監視カメラが撮像した前記映像データのうち、前記撮像日時と、前記第1映像データの前記撮像日時との時間差が所定時間以下であり、前記特徴検出位置座標と、前記第1映像データの前記存在検知位置座標との間の距離が所定距離以下である、第2監視カメラの第2映像データを検索する第2映像検索工程と、
検索した前記映像データを前記監視モニタに出力する映像出力工程と、
を有し、
位置座標判定工程、第1映像検索工程、第2映像検索工程、映像出力工程は、記録装置において実行される
ことを特徴とする映像監視システムの映像検索方法。 A plurality of surveillance cameras for imaging the surveillance area;
A recording device for recording the video data captured by the surveillance camera and the imaging date and time of the video data;
An input device for inputting search conditions for the video data;
A monitor for reproducing and displaying the video data output by the recording device;
A video search method executed in a video surveillance system having:
A presence detection step of detecting the presence of a monitoring target from the video data, outputting presence detection position coordinates, which are position information in the monitoring area, and associating with the video data;
A feature detection step of detecting a feature to be monitored from the video data, outputting feature detection position coordinates, which are location information in the monitoring area, and associating the feature with the video data;
A position coordinate determination step for determining whether or not there is the presence detection position coordinate and the feature detection position coordinate associated with the video data;
A first video search step of searching for the first video data of the first surveillance camera satisfying the search condition among the video data captured by the plurality of surveillance cameras;
Among the video data captured by the plurality of monitoring cameras, a time difference between the imaging date and time and the imaging date and time of the first video data is equal to or less than a predetermined time, the feature detection position coordinates, and the first video data A second video search step of searching for the second video data of the second surveillance camera, wherein a distance between the presence detection position coordinates is less than a predetermined distance;
A video output step of outputting the searched video data to the monitoring monitor;
Have
A video search method for a video surveillance system, wherein a position coordinate determination step, a first video search step, a second video search step, and a video output step are executed in a recording apparatus.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014127859A JP2016009896A (en) | 2014-06-23 | 2014-06-23 | Video monitoring system, and video retrieval method of video monitoring system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014127859A JP2016009896A (en) | 2014-06-23 | 2014-06-23 | Video monitoring system, and video retrieval method of video monitoring system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2016009896A true JP2016009896A (en) | 2016-01-18 |
Family
ID=55227212
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014127859A Pending JP2016009896A (en) | 2014-06-23 | 2014-06-23 | Video monitoring system, and video retrieval method of video monitoring system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2016009896A (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018067837A (en) * | 2016-10-20 | 2018-04-26 | 株式会社日立国際電気 | Video surveillance system |
| JP2019210137A (en) * | 2018-06-08 | 2019-12-12 | 株式会社日立ビルシステム | Elevator system and elevator group management control method |
| CN111402286A (en) * | 2018-12-27 | 2020-07-10 | 杭州海康威视系统技术有限公司 | Target tracking method, device and system and electronic equipment |
| CN113554602A (en) * | 2021-06-30 | 2021-10-26 | 西安翔迅科技有限责任公司 | Fan variable-pitch bearing monitoring method |
| JP2023001996A (en) * | 2021-06-22 | 2023-01-10 | 三菱電機株式会社 | Supervisory control device |
-
2014
- 2014-06-23 JP JP2014127859A patent/JP2016009896A/en active Pending
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018067837A (en) * | 2016-10-20 | 2018-04-26 | 株式会社日立国際電気 | Video surveillance system |
| JP2019210137A (en) * | 2018-06-08 | 2019-12-12 | 株式会社日立ビルシステム | Elevator system and elevator group management control method |
| JP7078461B2 (en) | 2018-06-08 | 2022-05-31 | 株式会社日立ビルシステム | Elevator system and elevator group management control method |
| CN111402286A (en) * | 2018-12-27 | 2020-07-10 | 杭州海康威视系统技术有限公司 | Target tracking method, device and system and electronic equipment |
| CN111402286B (en) * | 2018-12-27 | 2024-04-02 | 杭州海康威视系统技术有限公司 | Target tracking method, device and system and electronic equipment |
| JP2023001996A (en) * | 2021-06-22 | 2023-01-10 | 三菱電機株式会社 | Supervisory control device |
| CN113554602A (en) * | 2021-06-30 | 2021-10-26 | 西安翔迅科技有限责任公司 | Fan variable-pitch bearing monitoring method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11397502B2 (en) | Systems and methods for bulk redaction of recorded data | |
| EP2923487B1 (en) | Method and system for metadata extraction from master-slave cameras tracking system | |
| US10043079B2 (en) | Method and apparatus for providing multi-video summary | |
| US9406342B2 (en) | Imaging apparatus and method of providing imaging information | |
| US10999556B2 (en) | System and method of video capture and search optimization | |
| WO2015072631A1 (en) | Image processing apparatus and method | |
| KR20180022568A (en) | Information processing apparatus, method thereof, and computer readable storage medium | |
| JP6415061B2 (en) | Display control apparatus, control method, and program | |
| JP2016009896A (en) | Video monitoring system, and video retrieval method of video monitoring system | |
| KR101212082B1 (en) | Image Recognition Apparatus and Vison Monitoring Method thereof | |
| JP2004187115A (en) | Monitoring systems and programs | |
| US10719543B2 (en) | Information processing apparatus, information processing method, and program | |
| JP6980379B2 (en) | Information processing equipment, information processing methods and programs | |
| JP6661312B2 (en) | Monitoring system, information processing method and program | |
| KR101698864B1 (en) | Media Being Recorded with the Program Executing Method for Detecting Image Using Metadata | |
| JP2014236315A (en) | IMAGING DEVICE, IMAGE PROCESSING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGE PROCESSING DEVICE CONTROL METHOD, PROGRAM | |
| JP2020129763A (en) | Video reproduction device, video reproduction method, and program | |
| JP5665380B2 (en) | Image processing apparatus, image processing apparatus control method, program, and recording medium | |
| JP2013232056A (en) | Display device, system, information processing method, and program | |
| JP7099687B2 (en) | Video surveillance system and its method and processing equipment | |
| JP2013029591A (en) | Image display device, image display method and program | |
| JP2010278600A (en) | Image processing device | |
| JP2006325236A (en) | Image data retrieval method and apparatus in surveillance recording apparatus |