[go: up one dir, main page]

JP2016009896A - Video monitoring system, and video retrieval method of video monitoring system - Google Patents

Video monitoring system, and video retrieval method of video monitoring system Download PDF

Info

Publication number
JP2016009896A
JP2016009896A JP2014127859A JP2014127859A JP2016009896A JP 2016009896 A JP2016009896 A JP 2016009896A JP 2014127859 A JP2014127859 A JP 2014127859A JP 2014127859 A JP2014127859 A JP 2014127859A JP 2016009896 A JP2016009896 A JP 2016009896A
Authority
JP
Japan
Prior art keywords
video
video data
monitoring
data
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014127859A
Other languages
Japanese (ja)
Inventor
顕仁 菊地
Akihito Kikuchi
顕仁 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2014127859A priority Critical patent/JP2016009896A/en
Publication of JP2016009896A publication Critical patent/JP2016009896A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a video monitoring system capable of enabling a recording device to retrieve a captured video image from which the presence of a monitoring target and features of the monitoring target are known, reproducing and displaying a monitoring video image including desired monitoring scene without requiring a high-cost device that performed complicated processing, the video monitoring system including the recording device which records information of captured video images or the like transmitted from a plurality of monitoring cameras installed in a monitoring area.SOLUTION: In a video monitoring system, a position coordinate detecting the presence of the monitoring target and a position coordinate detecting the features of the monitoring target are acquired from the captured video images of the monitoring cameras, and the recording device determines whether dates of the captured video images including the two position coordinates are close and whether positions of the two position coordinates are close on the monitoring area, thereby determining whether the monitoring targets relating to the two position coordinates including the captured video images from the same or different monitoring cameras are identical. A video image retrieval method to be implemented in the video monitoring system is also disclosed.

Description

本発明は、監視エリアに複数設置された監視カメラが撮像した映像データをまとめて記録し、監視対象の人物などが撮像された映像データを検索して再生表示させる映像監視システムと、その映像監視システムで実行される映像検索方法に関するものである。 The present invention relates to a video monitoring system that records video data captured by a plurality of monitoring cameras installed in a monitoring area, searches video data captured by a person to be monitored, and displays the video data, and the video monitoring thereof. The present invention relates to a video search method executed in the system.

一般に映像監視システムでは、監視カメラが撮像した監視エリアの映像を記録装置で記録し、記録された映像から被監視人物などが撮像された映像を検索し、監視モニタに出力して再生表示を行う。このような映像監視システムにおいて、映像から被監視人物を検索する従来の方法には、撮像日時を指定する検索方法や、動き検知や顔検出といったセンサを併用して得られる被監視人物の情報を映像と関連付けて、当該情報を含む映像を検索する検索方法などがある。 In general, in a video surveillance system, a video of a surveillance area captured by a surveillance camera is recorded by a recording device, a video captured of a monitored person or the like is searched from the recorded video, and output to a surveillance monitor for playback display. . In such a video surveillance system, conventional methods for searching for a monitored person from video include a search method for specifying an imaging date and time, and information on a monitored person obtained by using sensors such as motion detection and face detection. There is a search method for searching for a video including the information in association with the video.

また、特許文献1で示される映像監視技術は、監視エリアに俯瞰カメラと注視カメラの2種類のカメラを複数設置し、俯瞰カメラ及び注視カメラの撮像映像から得られる被監視人物の位置情報及びイベント情報に従って、被監視人物を最適に撮像するように、映像監視装置が複数の注視カメラを選択し撮像の向きや倍率等を制御することにより、被監視人物の挙動や顔が分かる映像を撮像し、監視映像を生成して再生表示するものである。 In addition, the video monitoring technique disclosed in Patent Document 1 installs a plurality of two types of cameras, a bird's-eye camera and a gaze camera, in a monitoring area, and the position information and events of the monitored person obtained from the captured images of the bird's-eye camera and the gaze camera. According to the information, the video surveillance device selects a plurality of gaze cameras and controls the direction and magnification of the imaging so as to optimally capture the monitored person. The monitoring video is generated and reproduced and displayed.

特開2013−168757号公報JP 2013-168757 A 特開2007−164718号公報JP 2007-164718 A 特開2007−267294号公報JP 2007-267294 A 特開2012−49774号公報JP 2012-49774 A

従来の映像監視システムでは、所望の監視光景を撮像した監視カメラの映像に被監視人物の顔が撮像されているとは限らないため、顔検出センサを用いても必ずしも当該映像から被監視人物を見つけ出すことが出来ない虞がある。また、動き検知センサは人物以外の動きを検知することがあるため、動き検知した情報を含む映像の数が膨大になってしまうと考えられる。従って、所望の監視光景において被監視人物が分かる映像を検索するのに、ある程度絞り込まれた映像の中から1つずつ再生して確認を行う必要があり、多大な時間を要してしまう問題がある。 In the conventional video surveillance system, the face of the monitored person is not always captured in the video of the monitoring camera that captures the desired surveillance scene. Therefore, even if a face detection sensor is used, the monitored person is not necessarily captured from the video. There is a possibility that it cannot be found. Further, since the motion detection sensor may detect a motion other than a person, it is considered that the number of videos including the motion detected information becomes enormous. Therefore, in order to search for a video in which a person to be monitored can be understood in a desired monitoring scene, it is necessary to reproduce and check one by one from videos that have been narrowed down to a certain extent, which requires a lot of time. is there.

また、特許文献1の映像監視技術では、被監視人物が分かる映像を撮像するのに、映像監視装置が、俯瞰カメラと注視カメラの2種類のカメラから得られる刻々と変化する情報に基づいて、複数の注視カメラを選択し撮像の向きや倍率等を制御する複雑な処理を行う必要がある。また、当該処理に伴い、注視カメラには、映像監視装置からの制御に対応した制御信号の入出力が可能な専用のカメラを使用する必要がある。このため、複雑な処理を実行できる演算処理能力の高い映像監視装置及び複数の専用のカメラを導入し運用するのに要するコストが高くなってしまう問題がある。 Further, in the video surveillance technology of Patent Document 1, in order to capture a video that the monitored person can understand, the video surveillance device is based on information that changes every moment obtained from two types of cameras, an overhead camera and a gaze camera. It is necessary to perform a complicated process of selecting a plurality of gaze cameras and controlling the imaging direction, magnification, and the like. In addition, it is necessary to use a dedicated camera capable of inputting / outputting a control signal corresponding to the control from the video monitoring apparatus as the gaze camera. For this reason, there is a problem in that the cost required to install and operate a video surveillance apparatus with high arithmetic processing capability capable of executing complex processing and a plurality of dedicated cameras is increased.

本発明は上述の問題を解決するためになされたものであり、複数設置された監視カメラが固定的に撮像した映像を記録した記録装置が、例えば被監視人物といった監視対象の存在と、例えば被監視人物の顔といった監視対象の特徴とが分かる撮像映像を短時間で検索し、複雑な処理を行う高コストな装置を要せずに所望の監視光景を含む監視映像を再生表示できる、映像監視システムを提供することを目的とする。 The present invention has been made to solve the above-described problem, and a recording apparatus that records images fixedly picked up by a plurality of installed monitoring cameras can detect the presence of a monitoring target such as a monitored person, Video monitoring that can quickly search for captured images that show the characteristics of the monitoring target, such as the face of the person being monitored, and can reproduce and display the monitoring video including the desired monitoring scene without the need for expensive equipment that performs complex processing. The purpose is to provide a system.

本発明は、監視エリアを撮像する複数の監視カメラと、前記監視カメラが撮像した映像データ及び前記映像データの撮像日時を記録する記録装置と、前記映像データの検索条件を入力する入力装置と、前記記録装置が出力した前記映像データを再生表示する監視モニタと、前記映像データから監視対象の存在を検知し、前記監視エリアでの位置情報である存在検知位置座標を出力して前記映像データに関連付ける存在検知手段と、前記映像データから監視対象の特徴を検出し、前記監視エリアでの位置情報である特徴検出位置座標を出力して前記映像データに関連付ける特徴検出手段と、を有する映像監視システムであって、前記記録装置は、前記映像データに関連付けられた前記存在検知位置座標及び前記特徴検出位置座標があるかどうかを判定する位置座標判定手段と、前記複数の監視カメラが撮像した前記映像データのうち、前記検索条件を満たす第1監視カメラの第1映像データを検索する第1映像検索手段と、前記複数の監視カメラが撮像した前記映像データのうち、前記撮像日時と、前記第1映像データの前記撮像日時との時間差が所定時間以下であり、前記特徴検出位置座標と、前記第1映像データの前記存在検知位置座標との間の距離が所定距離以下である、第2監視カメラの第2映像データを検索する第2映像検索手段と、検索した前記映像データを前記監視モニタに出力する映像出力手段と、を有する、ことを特徴とする映像監視システムである。 The present invention includes a plurality of monitoring cameras that image a monitoring area, video data captured by the monitoring camera and a recording device that records the imaging date and time of the video data, an input device that inputs search conditions for the video data, A monitoring monitor that reproduces and displays the video data output by the recording device, detects the presence of a monitoring target from the video data, and outputs presence detection position coordinates that are position information in the monitoring area to the video data. A video monitoring system comprising: a presence detection unit for associating; and a feature detection unit for detecting a feature of a monitoring target from the video data and outputting a feature detection position coordinate as positional information in the monitoring area to associate with the video data The recording apparatus determines whether the presence detection position coordinates and the feature detection position coordinates associated with the video data are present. Position coordinate determination means for determining; first video search means for searching for first video data of a first monitoring camera satisfying the search condition among the video data captured by the plurality of monitoring cameras; and the plurality of monitoring Of the video data captured by the camera, a time difference between the imaging date and time and the imaging date and time of the first video data is a predetermined time or less, the feature detection position coordinates, and the presence detection of the first video data Second video search means for searching for the second video data of the second surveillance camera, wherein the distance between the position coordinates is equal to or less than a predetermined distance, video output means for outputting the searched video data to the monitor monitor, It is a video surveillance system characterized by having.

また、本発明は、監視エリアを撮像する複数の監視カメラと、前記監視カメラが撮像した映像データ及び前記映像データの撮像日時を記録する記録装置と、前記映像データの検索条件を入力する入力装置と、前記記録装置が出力した前記映像データを再生表示する監視モニタと、を有する映像監視システムにおいて実行される映像検索方法であって、前記映像データから監視対象の存在を検知し、前記監視エリアでの位置情報である存在検知位置座標を出力して前記映像データに関連付ける存在検知工程と、前記映像データから監視対象の特徴を検出し、前記監視エリアでの位置情報である特徴検出位置座標を出力して前記映像データに関連付ける特徴検出工程と、前記映像データに関連付けられた前記存在検知位置座標及び前記特徴検出位置座標があるかどうかを判定する位置座標判定工程と、前記複数の監視カメラが撮像した前記映像データのうち、前記検索条件を満たす第1監視カメラの第1映像データを検索する第1映像検索工程と、前記複数の監視カメラが撮像した前記映像データのうち、前記撮像日時と、前記第1映像データの前記撮像日時との時間差が所定時間以下であり、前記特徴検出位置座標と、前記第1映像データの前記存在検知位置座標との間の距離が所定距離以下である、第2監視カメラの第2映像データを検索する第2映像検索工程と、検索した前記映像データを前記監視モニタに出力する映像出力工程と、を有し、位置座標判定工程、第1映像検索工程、第2映像検索工程、映像出力工程は、記録装置において実行されることを特徴とする映像監視システムの映像検索方法である。 In addition, the present invention provides a plurality of monitoring cameras that capture an image of a monitoring area, video data captured by the monitoring camera, a recording device that records imaging date and time of the video data, and an input device that inputs search conditions for the video data And a monitoring monitor that reproduces and displays the video data output from the recording device, and a video search method that is executed in a video monitoring system that detects the presence of a monitoring target from the video data, and A presence detection step of outputting presence detection position coordinates, which is position information at the position, and associating it with the video data; detecting a feature to be monitored from the video data; and detecting feature detection position coordinates as position information in the monitoring area. A feature detection step of outputting and associating with the video data; and the presence detection position coordinates and the feature detection position associated with the video data A position coordinate determination step of determining whether or not there is a coordinate; and a first video search step of searching for the first video data of the first monitoring camera satisfying the search condition among the video data captured by the plurality of monitoring cameras And the time difference between the imaging date and time and the imaging date and time of the first video data among the video data captured by the plurality of surveillance cameras is a predetermined time or less, the feature detection position coordinates, and the first A second video search step of searching for second video data of a second monitoring camera, wherein the distance between the presence detection position coordinates of the video data is equal to or less than a predetermined distance, and the searched video data is output to the monitoring monitor An image output process, wherein the position coordinate determination process, the first image search process, the second image search process, and the image output process are executed in a recording apparatus. Temu is a video search method.

本発明によれば、監視エリアに複数設置した監視カメラより伝送された、撮像映像及び撮像日時等の映像に関する情報を記録した記録装置が、例えば被監視人物といった監視対象の存在を検知した位置座標と、例えば被監視人物の顔といった監視対象の特徴を検出した位置座標を撮像映像より取得し、これら2つの位置座標を含む撮像映像が近い日時にあり、また2つの位置座標が監視エリア上で近い位置にあるかどうかを判定することで、同一の又は異なる監視カメラからの撮像映像に含まれるこれら2つの位置座標に関わる監視対象が同一のものであるかどうかを判断することが可能となる。その結果として、複数の監視カメラが固定的に撮像した撮像映像より監視対象の存在を検知することで、近い日時にあって当該監視対象の特徴を含む、同一の又は異なる監視カメラからの撮像映像を短時間で検索でき、複雑な処理を行う高コストな装置を要せずに、所望の監視光景を含む監視映像を再生表示できる効果が得られる。 According to the present invention, the position coordinates at which the recording device that records information related to the image such as the imaged image and the imaged date and time transmitted from a plurality of monitoring cameras installed in the monitoring area detects the presence of the monitoring target such as a monitored person, for example. For example, the position coordinates at which the feature of the monitoring target such as the face of the monitored person is detected are acquired from the captured image, and the captured image including these two position coordinates is close to the date and time, and the two position coordinates are on the monitoring area. By determining whether or not they are close to each other, it is possible to determine whether or not the monitoring targets related to these two position coordinates included in the captured images from the same or different monitoring cameras are the same. . As a result, by detecting the presence of the monitoring target from the captured images captured by a plurality of monitoring cameras, the captured images from the same or different monitoring cameras at close dates and including the characteristics of the monitoring target Can be retrieved in a short time, and an effect of reproducing and displaying a surveillance video including a desired surveillance scene without requiring a high-cost apparatus for performing complicated processing can be obtained.

本発明の実施の形態1に係る、映像監視システムの概略を示すブロック図である。It is a block diagram which shows the outline of the video surveillance system based on Embodiment 1 of this invention. 監視カメラの機能部と、各機能部で授受されるデータの流れを示すブロック図である。It is a block diagram which shows the flow of the data transmitted / received by the function part of a surveillance camera, and each function part. 記録装置の記録に関する機能部と、各機能部で授受されるデータの流れを示すブロック図である。It is a block diagram which shows the flow of the data transmitted / received by the function part regarding recording of a recording device, and each function part. 記録装置の再生に関する機能部と、各機能部で授受されるデータの流れを示すブロック図である。It is a block diagram which shows the function part regarding the reproduction | regeneration of a recording device, and the flow of the data transmitted / received by each function part. 映像データ記録部に記録されたデータの構成を示す図である。It is a figure which shows the structure of the data recorded on the video data recording part. 日時データ記録部に記録されたデータの構成を示す図である。It is a figure which shows the structure of the data recorded on the date data recording part. 特徴画像データ記録部に記録されたデータの構成を示す図である。It is a figure which shows the structure of the data recorded on the characteristic image data recording part. 位置座標データ記録部に記録されたデータの構成を示す図である。It is a figure which shows the structure of the data recorded on the position coordinate data recording part. カメラ連携テーブルに設定されたデータの構成を示す図である。It is a figure which shows the structure of the data set to the camera cooperation table. カメラ連携テーブルでの設定が記録媒体の各記憶領域に反映される対応を示す図である。It is a figure which shows the response | compatibility by which the setting in a camera cooperation table is reflected in each storage area of a recording medium. 図11(a)監視エリアの対角線上に2台の監視カメラを設置した模式図である。図11(b)主監視カメラから監視エリアにいる被監視人物を撮像した映像データを示す図である。図11(c)副監視カメラから監視エリアにいる被監視人物を撮像した映像データを示す図である。FIG. 11A is a schematic diagram in which two surveillance cameras are installed on the diagonal line of the surveillance area. FIG. 11B is a diagram showing video data obtained by imaging the monitored person in the monitoring area from the main monitoring camera. FIG. 11C is a diagram showing video data obtained by imaging the monitored person in the monitoring area from the sub-monitoring camera. 記録装置が監視カメラから映像データ及びメタデータを受信し、記録媒体に記録するまでの処理を示すフローチャート図である。It is a flowchart figure which shows a process until a recording device receives video data and metadata from a surveillance camera, and records them on a recording medium. 記録装置が入力装置から入力した検索条件をもとに映像データを検索し、監視モニタに出力するまでの処理を示すフローチャート図である。It is a flowchart figure which shows the process until it searches video data based on the search conditions which the recording device input from the input device, and outputs it to a monitoring monitor. 記録装置が出力した再生表示映像データを、監視モニタで再生表示させた画面表示例の図である。It is a figure of the example of a screen display which reproduced-displayed the reproduction | regeneration display video data which the recording device output on the monitoring monitor. 本発明の実施の形態2に係る、監視カメラの機能部と、各機能部で授受されるデータの流れを示すブロック図である。It is a block diagram which shows the flow of the data transmitted / received by the function part of a surveillance camera based on Embodiment 2 of this invention, and each function part. 記録装置の記録に関する機能部と、各機能部で授受されるデータの流れを示すブロック図である。It is a block diagram which shows the flow of the data transmitted / received by the function part regarding recording of a recording device, and each function part.

実施の形態1.
図1は、映像監視システムの概略を示すブロック図である。映像監視システムは、監視エリア101、監視室102、監視カメラ103、入力装置104、記録装置105及び監視モニタ106で構成される。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing an outline of a video surveillance system. The video monitoring system includes a monitoring area 101, a monitoring room 102, a monitoring camera 103, an input device 104, a recording device 105, and a monitoring monitor 106.

監視エリア101は、映像監視システムが監視の対象とするエリアである。監視エリア101にいる被監視人物108は、映像監視システムの監視対象である。 The monitoring area 101 is an area to be monitored by the video monitoring system. The monitored person 108 in the monitoring area 101 is a monitoring target of the video monitoring system.

監視室102は、監視エリア101から離れた位置に設けられた部屋であり、記録装置105、入力装置104及び監視モニタ106を備える。監視室102では、監視業務員109が監視カメラ103で撮像した映像を監視モニタ106に再生表示し、監視エリア101の状況を監視している。 The monitoring room 102 is a room provided at a position away from the monitoring area 101 and includes a recording device 105, an input device 104, and a monitoring monitor 106. In the monitoring room 102, the monitoring worker 109 reproduces and displays the image captured by the monitoring camera 103 on the monitoring monitor 106 to monitor the status of the monitoring area 101.

監視カメラ103は、監視エリア101に複数設置されて、監視エリア101にいる被監視人物108を撮像するための撮像装置である。監視カメラ103は、撮像した映像から、被監視人物108の特徴を検出する機能と、被監視人物108の存在を検知する機能とを備える。被監視人物108の特徴を検出する機能とは、例えば顔検出などである。また、被監視人物108の存在を検知する機能とは、例えば動き検知や音検知、赤外線検知などである。 A plurality of monitoring cameras 103 are installed in the monitoring area 101 and are imaging devices for imaging the monitored person 108 in the monitoring area 101. The monitoring camera 103 has a function of detecting the characteristics of the monitored person 108 from the captured video and a function of detecting the presence of the monitored person 108. The function of detecting the characteristics of the monitored person 108 is, for example, face detection. The function for detecting the presence of the monitored person 108 includes, for example, motion detection, sound detection, infrared detection, and the like.

ここで、顔検出機能では、例えば固有顔を利用した顔認識手法などがある。動き検知機能では、時間経過に伴い撮像映像に生じる部分的な変化によって動きを検知し、監視エリア101での位置情報を取得する。音検知機能では、マイクの指向性を利用することによって、音を検知した位置情報を取得する。また、赤外線検知機能では、監視エリア101での設置位置を予め登録した赤外線検知器が熱を検知することによって、監視対象の位置情報を取得する。尚、本発明では、位置情報は、監視エリア101を撮像した映像における位置座標とし、位置座標によって監視エリア101での位置を特定する。 Here, the face detection function includes, for example, a face recognition method using a unique face. In the motion detection function, a motion is detected by a partial change that occurs in a captured image with time, and position information in the monitoring area 101 is acquired. In the sound detection function, the position information where the sound is detected is acquired by using the directivity of the microphone. Further, in the infrared detection function, the position information of the monitoring target is acquired by detecting heat by an infrared detector in which the installation position in the monitoring area 101 is registered in advance. In the present invention, the position information is the position coordinates in the image obtained by imaging the monitoring area 101, and the position in the monitoring area 101 is specified by the position coordinates.

入力装置104は、記録装置105に接続され、監視業務員109が所望の映像を得るために入力した検索条件を、再生要求信号410として記録装置105に送信する装置である。検索条件としては、例えば複数ある監視カメラ103のうち所望の監視光景を撮像している監視カメラ103や、複数の監視カメラ103の検索順序、また撮像日時や、監視エリア101において監視したい場所などが考えられる。また、これらの検索条件のうち1以上を指定できるとしても良い。 The input device 104 is a device that is connected to the recording device 105 and transmits a search condition input by the monitoring operator 109 to obtain a desired video as a reproduction request signal 410 to the recording device 105. The search conditions include, for example, the monitoring camera 103 that is capturing a desired monitoring scene among the plurality of monitoring cameras 103, the search order of the plurality of monitoring cameras 103, the imaging date and time, the location to be monitored in the monitoring area 101, and the like. Conceivable. One or more of these search conditions may be designated.

記録装置105は、複数の監視カメラ103と接続し、各監視カメラ103が送信する撮像映像、撮像日時、及び被監視人物108に関する位置座標などをまとめて受信し、記録媒体107に記録する装置である。記録媒体107は、記録装置105の内部又は外部に設けられた、例えばハードディスクやメモリカード等の記憶デバイスである。また記録装置105は、入力装置104から再生要求信号410を受信すると、記録媒体107に記録された映像から、監視業務員109が所望する映像を検索し、また必要に応じて映像を合成し、監視モニタ106に出力する。 The recording device 105 is connected to a plurality of monitoring cameras 103, receives collectively the captured images transmitted by each monitoring camera 103, the imaging date and time, the position coordinates related to the monitored person 108, and records them on the recording medium 107. is there. The recording medium 107 is a storage device such as a hard disk or a memory card provided inside or outside the recording apparatus 105. Further, when the recording device 105 receives the reproduction request signal 410 from the input device 104, the recording device 105 searches the video recorded on the recording medium 107 for the video desired by the monitoring operator 109, and synthesizes the video as necessary. Output to the monitor 106.

監視モニタ106は、記録装置105が出力した映像を、再生表示するための映像音声出力装置である。 The monitor 106 is a video / audio output device for reproducing and displaying the video output from the recording device 105.

図2は、監視カメラ103の機能部と、各機能部で授受されるデータの流れを示すブロック図である。監視カメラ103は、映像撮像部201、特徴検出部202、存在検知部203、データ管理部204及びデータ送信部205で構成される。 FIG. 2 is a block diagram illustrating the functional units of the monitoring camera 103 and the flow of data exchanged between the functional units. The monitoring camera 103 includes a video imaging unit 201, a feature detection unit 202, a presence detection unit 203, a data management unit 204, and a data transmission unit 205.

尚、監視カメラ103の各機能部を繋ぐ矢印のうち、実線で表されるものは映像データ206の流れを示し、一点鎖線で表されるものはメタデータ207の流れを示す。メタデータ207は、映像データ206を撮像した日時である日時データや、映像データ206から得られる位置座標を指す。 Of the arrows connecting the functional units of the monitoring camera 103, the solid lines indicate the flow of the video data 206, and the dashed lines indicate the flow of the metadata 207. The metadata 207 indicates date and time data that is the date and time when the video data 206 was imaged, and position coordinates obtained from the video data 206.

映像撮像部201は、監視カメラ103が映像を撮像するための機能部である。映像撮像部201は、日時データとともに、撮像した映像をフレーム単位の映像データ206として、データ管理部204に出力する。 The video imaging unit 201 is a functional unit for the surveillance camera 103 to capture a video. The video imaging unit 201 outputs the captured video together with the date / time data to the data management unit 204 as video data 206 for each frame.

特徴検出部202は、映像データ206から、被監視人物108の特徴を検出した位置座標を、データ管理部204に出力する機能部である。本発明では、特徴検出部202が出力する位置座標を特徴検出位置座標と呼ぶ。 The feature detection unit 202 is a functional unit that outputs, to the data management unit 204, the position coordinates where the feature of the monitored person 108 is detected from the video data 206. In the present invention, the position coordinates output by the feature detection unit 202 are referred to as feature detection position coordinates.

存在検知部203は、映像データ206から、被監視人物108の存在を検知した位置座標を、データ管理部204に出力する機能部である。本発明では、存在検知部203が出力する位置座標を存在検知位置座標と呼ぶ。 The presence detection unit 203 is a functional unit that outputs the position coordinates where the presence of the monitored person 108 is detected from the video data 206 to the data management unit 204. In the present invention, the position coordinates output by the presence detection unit 203 are referred to as presence detection position coordinates.

データ管理部204は、映像撮像部201が出力する映像データ206及び日時データ、並びに特徴検出部202及び存在検知部203が出力する各位置座標を管理する機能部である。データ管理部204は、映像撮像部201から受けた映像データ206を、特徴検出部202及び存在検知部203に引き渡し、各位置座標を取得する。また、データ管理部204は、映像データ206と、日時データ及び各位置座標からなるメタデータ207とを、予め設定されるタイミングでデータ送信部205に出力する。 The data management unit 204 is a functional unit that manages the video data 206 and date / time data output from the video imaging unit 201 and the position coordinates output from the feature detection unit 202 and the presence detection unit 203. The data management unit 204 passes the video data 206 received from the video imaging unit 201 to the feature detection unit 202 and the presence detection unit 203, and acquires each position coordinate. Further, the data management unit 204 outputs the video data 206 and the metadata 207 including date / time data and each position coordinate to the data transmission unit 205 at a preset timing.

データ送信部205は、データ管理部204が出力する映像データ206及びメタデータ207を、記録装置105に送信する機能部である。 The data transmission unit 205 is a functional unit that transmits the video data 206 and metadata 207 output from the data management unit 204 to the recording apparatus 105.

図3は、記録装置105の記録に関する機能部と、各機能部で授受されるデータの流れを示すブロック図である。 FIG. 3 is a block diagram showing functional units related to recording of the recording apparatus 105 and the flow of data exchanged between the functional units.

図3の記録装置105は、映像データ受信部301、メタデータ受信部302、データ解析部303、特徴画像切り出し部304、特徴画像データ管理部305及び位置座標データ管理部306で構成される。また、記録装置105の記録媒体107は、映像データ記録部307、日時データ記録部308、特徴画像データ記録部309及び位置座標データ記録部310の記憶領域に区分され、各機能部が扱う情報を記録している。 3 includes a video data receiving unit 301, a metadata receiving unit 302, a data analyzing unit 303, a feature image clipping unit 304, a feature image data managing unit 305, and a position coordinate data managing unit 306. The recording medium 107 of the recording device 105 is divided into storage areas of a video data recording unit 307, a date / time data recording unit 308, a feature image data recording unit 309, and a position coordinate data recording unit 310, and information handled by each functional unit. It is recorded.

尚、記録装置105の各機能部及び各記憶領域を繋ぐ矢印のうち、実線で表されるものは、映像データ206又は特徴画像データの流れを示し、一点差線で表されるものは、日時データや各位置座標のメタデータ207の流れを示す。メタデータ207は、映像データ206を撮像した日時である日時データや、映像データ206から得られる位置座標を指す。 Of the arrows connecting the respective functional units and the storage areas of the recording apparatus 105, the solid line indicates the flow of the video data 206 or the characteristic image data, and the dotted line indicates the date and time. A flow of data and metadata 207 of each position coordinate is shown. The metadata 207 indicates date and time data that is the date and time when the video data 206 was imaged, and position coordinates obtained from the video data 206.

映像データ受信部301は、監視カメラ103が送信した映像データ206を受信する機能部である。 The video data receiving unit 301 is a functional unit that receives the video data 206 transmitted by the monitoring camera 103.

メタデータ受信部302は、監視カメラ103が送信した、メタデータ207を受信する機能部である。 The metadata receiving unit 302 is a functional unit that receives the metadata 207 transmitted by the monitoring camera 103.

データ解析部303は、映像データ受信部301が受信した映像データ206及びメタデータ受信部302が受信したメタデータ207を解析し、各機能部又は記録媒体107の各記憶領域に各種情報を出力する機能部である。また、データ解析部303は、映像データ受信部301から受け取った映像データ206を映像データ記録部307に、メタデータ受信部302から受け取ったメタデータ207のうち、日時データを日時データ記録部308に記録する。 The data analysis unit 303 analyzes the video data 206 received by the video data reception unit 301 and the metadata 207 received by the metadata reception unit 302, and outputs various types of information to each storage unit of each functional unit or recording medium 107. It is a functional part. In addition, the data analysis unit 303 stores the video data 206 received from the video data reception unit 301 in the video data recording unit 307, and out of the metadata 207 received from the metadata reception unit 302, the date / time data is stored in the date / time data recording unit 308. Record.

特徴画像切り出し部304は、データ解析部303から映像データ206と特徴検出位置座標を受けて、特徴検出位置座標をもとに映像データ206から特徴画像データを切り出す機能部である。切り出した特徴画像データは、特徴画像データ管理部305に出力する。 The feature image cutout unit 304 is a functional unit that receives the video data 206 and the feature detection position coordinates from the data analysis unit 303 and cuts out feature image data from the video data 206 based on the feature detection position coordinates. The extracted feature image data is output to the feature image data management unit 305.

特徴画像データ管理部305は、特徴画像切り出し部304から特徴画像データを受けて、特徴画像データ記録部309に記録する機能部である。 The feature image data management unit 305 is a functional unit that receives feature image data from the feature image cutout unit 304 and records it in the feature image data recording unit 309.

位置座標データ管理部306は、データ解析部303から特徴検出位置座標及び存在検知位置座標を受けて、位置座標データ記録部310に記録する機能部である。 The position coordinate data management unit 306 is a functional unit that receives the feature detection position coordinates and the presence detection position coordinates from the data analysis unit 303 and records them in the position coordinate data recording unit 310.

図4は、記録装置105の再生に関する機能部と、各機能部で授受されるデータの流れを示すブロック図である。 FIG. 4 is a block diagram showing functional units related to reproduction of the recording apparatus 105 and the flow of data exchanged between the functional units.

図4の記録装置105は、再生要求受信部401、再生要求解析部402、検索処理部403、映像検索部404、位置座標データ照合部405、特徴画像データ検索部406、映像合成部407及び映像表示部408で構成される。また、記録装置105は、各監視カメラ103が撮像した映像データ206の位置座標を関連付ける、カメラ連携テーブル409を保持している。 4 includes a reproduction request receiving unit 401, a reproduction request analyzing unit 402, a search processing unit 403, a video searching unit 404, a position coordinate data collating unit 405, a feature image data searching unit 406, a video synthesizing unit 407, and a video. The display unit 408 is configured. Further, the recording apparatus 105 holds a camera cooperation table 409 that associates the position coordinates of the video data 206 captured by each monitoring camera 103.

尚、記録装置105の各機能部及び各記憶領域を繋ぐ矢印のうち、実線で表されるものは、映像データ206又は特徴画像データの流れを示し、一点差線で表されるものは、日時データや各位置座標のメタデータ207の流れを示す。メタデータ207は、映像データ206を撮像した日時である日時データや、映像データ206から得られる位置座標を指す。 Of the arrows connecting the respective functional units and the storage areas of the recording apparatus 105, the solid line indicates the flow of the video data 206 or the characteristic image data, and the dotted line indicates the date and time. A flow of data and metadata 207 of each position coordinate is shown. The metadata 207 indicates date and time data that is the date and time when the video data 206 was imaged, and position coordinates obtained from the video data 206.

再生要求受信部401は、入力装置104からの再生要求信号410を受信する機能部である。 The reproduction request receiving unit 401 is a functional unit that receives the reproduction request signal 410 from the input device 104.

再生要求解析部402は、再生要求受信部401が受信した再生要求信号410の内容から、監視業務員109が再生表示したい映像データ206の検索条件を解析する機能部である。 The reproduction request analysis unit 402 is a functional unit that analyzes the search condition of the video data 206 that the monitoring operator 109 desires to reproduce and display from the content of the reproduction request signal 410 received by the reproduction request reception unit 401.

検索処理部403は、再生要求解析部402が解析した検索条件に従って、各機能部を制御し、記録媒体107から映像データ206及び特徴画像データを取得させる機能部である。また、検索処理部403は、カメラ連携テーブル409の初期値を設定すると共に、設定された値を参照して、各監視カメラ103が撮像した映像データ206の位置座標におけるオフセット情報を取得する。カメラ連携テーブル409については、後の図4で説明する。 The search processing unit 403 is a functional unit that controls each functional unit according to the search condition analyzed by the reproduction request analyzing unit 402 and acquires the video data 206 and the feature image data from the recording medium 107. In addition, the search processing unit 403 sets initial values of the camera cooperation table 409 and refers to the set values to acquire offset information at the position coordinates of the video data 206 captured by each monitoring camera 103. The camera cooperation table 409 will be described later with reference to FIG.

映像検索部404は、検索処理部403が指定した映像Indexに対応する映像データ206を、映像データ記録部307から取得して出力する機能部である。映像Indexについては、後の図4で説明する。 The video search unit 404 is a functional unit that acquires the video data 206 corresponding to the video index designated by the search processing unit 403 from the video data recording unit 307 and outputs it. The video index will be described later with reference to FIG.

位置座標データ照合部405は、検索処理部403が指定する映像Indexに関連付けられた、特徴画像Index、特徴画像位置座標及び存在検知位置座標を、位置座標データ記録部310から取得して出力する機能部である。また、位置座標データ照合部405は、ある映像データ206に関連付けられた存在検知位置座標と、別の映像データ206に関連付けられた特徴検出位置座標とを比較し、存在検知位置座標と特徴検出位置座標との間の距離が所定距離以下であるかどうかを判定する。ここでの判定については、後の図7で説明する。 The position coordinate data collating unit 405 acquires a feature image index, a feature image position coordinate, and a presence detection position coordinate associated with the video index specified by the search processing unit 403 from the position coordinate data recording unit 310 and outputs the function image index. Part. Further, the position coordinate data collating unit 405 compares the presence detection position coordinate associated with one video data 206 with the feature detection position coordinate associated with another video data 206, and the presence detection position coordinate and the feature detection position. It is determined whether the distance between the coordinates is equal to or less than a predetermined distance. This determination will be described later with reference to FIG.

特徴画像データ検索部406は、検索処理部403が指定した特徴画像Indexに対応する特徴画像データを、特徴画像データ記録部309から取得して出力する機能部である。特徴画像Indexについては、後の図4で説明する。 The feature image data search unit 406 is a functional unit that acquires and outputs the feature image data corresponding to the feature image index designated by the search processing unit 403 from the feature image data recording unit 309. The feature image index will be described later with reference to FIG.

映像合成部407は、映像検索部404が出力した映像データ206に、特徴画像データ検索部406が出力した特徴画像データを重畳表示させて合成し、再生表示映像データ411を生成する機能部である。生成した再生表示映像データ411は、映像表示部408に出力する。また、映像合成部407は、映像データ206に特徴画像データを合成せずにそのまま出力する場合もある。映像データ206又は再生表示映像データ411のいずれを出力するかについては、後の図13で説明する。 The video composition unit 407 is a functional unit that generates the reproduction display video data 411 by superimposing the feature image data output by the feature image data search unit 406 on the video data 206 output by the video search unit 404 and combining the feature image data. . The generated reproduction display video data 411 is output to the video display unit 408. Further, the video composition unit 407 may output the video data 206 as it is without synthesizing the feature image data. Which of the video data 206 and the reproduction display video data 411 is output will be described later with reference to FIG.

映像表示部408は、映像合成部407から受けた映像データ206又は再生表示映像データ411を、監視モニタ106に送信する機能部である。 The video display unit 408 is a functional unit that transmits the video data 206 or the reproduction display video data 411 received from the video synthesis unit 407 to the monitoring monitor 106.

図5〜8は、記録装置105の記録媒体107を区分した記憶領域である、映像データ記録部307、日時データ記録部308、特徴画像データ記録部309及び位置座標データ記録部310のそれぞれの構成を示す。 5 to 8 are storage areas into which the recording medium 107 of the recording apparatus 105 is divided, which are configurations of a video data recording unit 307, a date / time data recording unit 308, a feature image data recording unit 309, and a position coordinate data recording unit 310, respectively. Indicates.

記録媒体107の各記憶領域のデータは、監視カメラ103で区別して記録されており、映像データ206の記録と検索は監視カメラ103の区別を単位に行われる。図5〜8では、n台の監視カメラ103を監視カメラC1〜Cnと表す。 Data in each storage area of the recording medium 107 is recorded by being discriminated by the monitoring camera 103, and recording and searching of the video data 206 are performed in units of discrimination of the monitoring camera 103. 5 to 8, the n monitoring cameras 103 are represented as monitoring cameras C1 to Cn.

また、記録媒体107の各記憶領域に共通の検索Indexは、映像データ206を検索する時に、撮像した監視カメラC1〜Cnを特定すると共に、検索順序を指定するために割り当てられる1以上の整数値である。検索Indexを示す変数にはiを用いる。尚、図5〜8は、未だ検索Indexに値が設定されていない状態を示している。検索Indexへの値の設定については図10で説明する。 The search index common to each storage area of the recording medium 107 is an integer value of 1 or more that is assigned to specify the search order and specify the captured monitoring cameras C1 to Cn when searching the video data 206. It is. I is used as a variable indicating the search index. 5 to 8 show a state where no value is set in the search index yet. Setting of a value for the search index will be described with reference to FIG.

図5は、映像データ記録部307に記録されたデータの構成を示す図である。 FIG. 5 is a diagram showing a configuration of data recorded in the video data recording unit 307.

映像データ記録部307は、データ解析部303によって、監視カメラC1〜Cnが撮像した映像データ206を識別する映像Indexを対応付けて記録している。ここで、同じ監視カメラ103で撮像した映像データ206を識別するための映像Indexには変数jを用いる。また、監視カメラ103で区別すると共に、映像データ206を識別する映像Indexは、検索Indexの変数i及び映像Indexの変数jを用いて、映像Index(i,j)と表す。同様に、監視カメラ103で区別した映像データ206は、検索Indexの変数i及び映像Indexの変数jを用いて、映像データ(i,j)と表す。 In the video data recording unit 307, the data analysis unit 303 records a video index identifying video data 206 captured by the monitoring cameras C1 to Cn in association with each other. Here, the variable j is used for the video index for identifying the video data 206 captured by the same monitoring camera 103. A video index that is identified by the surveillance camera 103 and that identifies the video data 206 is represented as a video index (i, j) using a variable i of the search index and a variable j of the video index. Similarly, the video data 206 distinguished by the monitoring camera 103 is represented as video data (i, j) using the variable i of the search index and the variable j of the video index.

図6は、日時データ記録部308に記録されたデータの構成を示す図である。 FIG. 6 is a diagram illustrating a configuration of data recorded in the date / time data recording unit 308.

日時データ記録部308は、データ解析部303によって、監視カメラC1〜Cnが撮像した各映像データ206と対応した映像Indexに、各映像データ206を撮像した日時である日時データを関連付けて記録している。日時データを、検索Indexの変数i及び映像Indexの変数jを用いて、日時データ(i,j)と表す。 The date / time data recording unit 308 records the date / time data, which is the date / time when each video data 206 is captured, in association with the video index corresponding to each video data 206 captured by the monitoring cameras C1 to Cn by the data analysis unit 303. Yes. The date / time data is represented as date / time data (i, j) using the variable i of the search index and the variable j of the video index.

図7は、特徴画像データ記録部309に記録されたデータの構成を示す図である。 FIG. 7 is a diagram illustrating a configuration of data recorded in the feature image data recording unit 309.

特徴画像データ記録部309は、特徴画像データ管理部305によって、特徴画像切り出し部304が映像データ206から切り出した特徴画像データに、特徴画像データを区別するための特徴画像Indexを対応付けて記録している。ここで、同じ監視カメラ103で撮像した映像データ206を識別するための特徴画像Indexには変数にはkを用いる。また、また、監視カメラ103で区別すると共に、特徴画像データを識別する特徴画像Indexは、検索Indexの変数i及び特徴画像Indexの変数kを用いて、特徴画像Index(i,k)と表す。同様に、監視カメラ103で区別した特徴画像データは、検索Indexの変数i及び特徴画像Indexの変数kを用いて、特徴画像データ(i,k)と表す。 The feature image data recording unit 309 records the feature image data for distinguishing the feature image data in association with the feature image data extracted from the video data 206 by the feature image clipping unit 304 by the feature image data management unit 305. ing. Here, k is used as a variable for the feature image Index for identifying the video data 206 captured by the same monitoring camera 103. In addition, the feature image Index that is distinguished by the monitoring camera 103 and identifies the feature image data is represented as a feature image Index (i, k) by using a variable i of the search index and a variable k of the feature image index. Similarly, the feature image data distinguished by the monitoring camera 103 is represented as feature image data (i, k) using the variable i of the search index and the variable k of the feature image index.

図8は、位置座標データ記録部310に記録されたデータの構成を示す図である。 FIG. 8 is a diagram illustrating a configuration of data recorded in the position coordinate data recording unit 310.

位置座標データ記録部310は、位置座標データ管理部306によって、監視カメラC1〜Cnが撮像した各映像データ206と対応した映像Indexに、特徴画像Index、特徴検出位置座標及び存在検知位置座標を関連付けて記録している。ここで、特徴検出位置座標の位置座標を(fx,fy)で示し、存在検知位置座標の位置座標を(ex,ey)で示す。また、特徴検出位置座標及び存在検知位置座標を、検索Indexの変数i及び映像Indexの変数jを用いて、特徴検出位置座標(i,j)及び存在検知位置座標(i,j)と表す。 The position coordinate data recording unit 310 associates the feature image index, the feature detection position coordinate, and the presence detection position coordinate with the video index corresponding to each video data 206 captured by the monitoring cameras C1 to Cn by the position coordinate data management unit 306. Is recorded. Here, the position coordinates of the feature detection position coordinates are indicated by (fx, fy), and the position coordinates of the presence detection position coordinates are indicated by (ex, ey). Also, the feature detection position coordinates and the presence detection position coordinates are expressed as feature detection position coordinates (i, j) and presence detection position coordinates (i, j) using the variable i of the search index and the variable j of the video index.

尚、撮像映像に複数の被監視人物108が映る場合に、1つの映像データ及びその映像Indexに、複数の特徴画像Index、特徴検出位置座標及び存在検知位置座標を関連付けることも可能であるが、本発明では、1つの映像データにはそれぞれ1つの特徴画像Index、特徴検出位置座標及び存在検知位置座標が関連付けられるものとして説明する。 When a plurality of monitored persons 108 are shown in the captured video, it is possible to associate a plurality of feature images, feature detection position coordinates, and presence detection position coordinates with one video data and the video index. In the present invention, description will be made assuming that one video image data is associated with one feature image index, feature detection position coordinates, and presence detection position coordinates.

図9は、カメラ連携テーブル409に設定されたデータの構成を示す。 FIG. 9 shows the configuration of data set in the camera cooperation table 409.

カメラ連携テーブル409の1行目を例に取ると、監視カメラC1〜Cnのうち、監視カメラC1を主監視カメラとし、その他の監視カメラC2〜Cnを副監視カメラF1〜Fn−1としている。このカメラ連携テーブル409の1行目では、主監視カメラC1が撮像した映像データ206と、副監視カメラF1〜Fn−1が撮像した各映像データ206との、位置座標におけるオフセット情報が予め設定されている。その他の行では、監視カメラC2〜cnを主監視カメラとした、副監視カメラF1〜Fn−1とのオフセット情報が設定されている。このオフセット情報を用いることで、任意の主監視カメラを基準として、それぞれの副監視カメラが撮像した映像データ206を、主監視カメラの視点に座標変換することができる。オフセット情報を用いて座標変換を行う過程については、後の図5で説明する。 Taking the first line of the camera linkage table 409 as an example, of the monitoring cameras C1 to Cn, the monitoring camera C1 is the main monitoring camera, and the other monitoring cameras C2 to Cn are the sub monitoring cameras F1 to Fn-1. In the first row of the camera linkage table 409, offset information in position coordinates between the video data 206 captured by the main monitoring camera C1 and the video data 206 captured by the sub-monitoring cameras F1 to Fn-1 is set in advance. ing. In the other rows, offset information with the sub-monitoring cameras F1 to Fn-1 in which the monitoring cameras C2 to cn are the main monitoring cameras is set. By using this offset information, the video data 206 captured by each sub-surveillance camera can be coordinate-converted to the viewpoint of the main surveillance camera with an arbitrary main surveillance camera as a reference. The process of performing coordinate conversion using the offset information will be described later with reference to FIG.

また、カメラ連携テーブル409では、最初に映像データ206の検索を開始する主監視カメラの選択と、副監視カメラF1〜Fn−1を検索する順序である検索Indexの設定を行う。監視カメラC1を主監視カメラとして以下に説明する。 Further, in the camera cooperation table 409, the selection of the primary monitoring camera that starts the search of the video data 206 first and the setting of the search index that is the order in which the secondary monitoring cameras F1 to Fn-1 are searched are performed. The monitoring camera C1 will be described below as a main monitoring camera.

先ず、カメラ連携テーブル409から、最初に検索する監視カメラC1が主監視カメラに対応している行を選択し、検索開始監視カメラの欄に印付ける。図9のカメラ連携テーブル409では1行目が該当する。カメラ連携テーブル409の1行目には、主監視カメラの監視カメラC1に続いて、副監視カメラF1〜Fn−1に対応した監視カメラC2〜Cnが並んでいる。 First, from the camera cooperation table 409, the row corresponding to the main monitoring camera for the monitoring camera C1 to be searched first is selected and marked in the search start monitoring camera column. The first line corresponds to the camera cooperation table 409 in FIG. In the first row of the camera linkage table 409, monitoring cameras C2 to Cn corresponding to the sub monitoring cameras F1 to Fn-1 are arranged next to the monitoring camera C1 of the main monitoring camera.

次に、カメラ連携テーブル409の1行目の監視カメラC2〜Cnと列対応する、カメラ連携テーブル409の最下段にある検索Indexに検索順序を設定する。図9では、監視カメラC2、C3・・・Cnに対応する検索Indexを、i=2、3・・・nとしている。尚、主監視カメラは最初に検索されるため、監視カメラC1の検索Indexはi=1となる。 Next, the search order is set in the search index at the bottom of the camera cooperation table 409 corresponding to the columns of the monitoring cameras C2 to Cn in the first row of the camera cooperation table 409. In FIG. 9, the search index corresponding to the surveillance cameras C2, C3... Cn is set to i = 2, 3,. Since the main monitoring camera is searched first, the search index of the monitoring camera C1 is i = 1.

上述のように設定したカメラ連携テーブル409を参照することで、記録装置105は、監視カメラC1〜Cnが撮像した映像データ206を順次検索することができる。 By referring to the camera cooperation table 409 set as described above, the recording apparatus 105 can sequentially search the video data 206 captured by the monitoring cameras C1 to Cn.

尚、カメラ連携テーブル409における、検索開始監視カメラの選択と検索Indexの設定は、入力装置104からの再生要求信号410に含まれる検索条件の内容により決まるものであり、再生要求信号410を受信したときに、検索処理部403によって設定される。再生要求信号410を受信したときの処理は、後の図7で説明する。 The selection of the search start monitoring camera and the setting of the search index in the camera cooperation table 409 are determined by the contents of the search condition included in the playback request signal 410 from the input device 104, and the playback request signal 410 is received. Sometimes set by the search processing unit 403. Processing when the reproduction request signal 410 is received will be described later with reference to FIG.

図10は、カメラ連携テーブル409での設定が記録媒体107の各記憶領域に反映される対応を示す図である。 FIG. 10 is a diagram illustrating the correspondence in which the settings in the camera cooperation table 409 are reflected in each storage area of the recording medium 107.

カメラ連携テーブル409に、検索開始監視カメラ及び検索Indexが設定されると、検索処理部403によって、映像データ記録部307、日時データ記録部308、特徴画像データ記録部309及び位置座標データ記録部310の検索Indexに対し設定が反映される。 When the search start monitoring camera and the search index are set in the camera linkage table 409, the search processing unit 403 causes the video data recording unit 307, the date / time data recording unit 308, the feature image data recording unit 309, and the position coordinate data recording unit 310. The setting is reflected to the search index.

図11(a)〜(c)は、カメラ連携テーブル409に設定されたオフセット情報を用いて、監視エリア101にある一方の監視カメラ103で撮像した映像データ206を、もう一方の監視カメラ103で撮像した映像データ206に座標変換を行う過程を示す図である。 11A to 11C, the video data 206 captured by one monitoring camera 103 in the monitoring area 101 using the offset information set in the camera cooperation table 409 is displayed by the other monitoring camera 103. It is a figure which shows the process of performing coordinate conversion to the image | video data 206 imaged.

図11(a)は、監視エリア101の対角線上に2台の監視カメラ1101、1102を設置した模式図である。ここで、監視カメラ1101は主監視カメラであり、監視カメラ1102は副監視カメラであるとする。 FIG. 11A is a schematic diagram in which two monitoring cameras 1101 and 1102 are installed on the diagonal line of the monitoring area 101. Here, it is assumed that the monitoring camera 1101 is a main monitoring camera and the monitoring camera 1102 is a sub-monitoring camera.

図11(b)は、主監視カメラ1101から監視エリア101にいる被監視人物108を撮像した映像データ1103を示す図である。 FIG. 11B is a diagram illustrating video data 1103 obtained by imaging the monitored person 108 in the monitoring area 101 from the main monitoring camera 1101.

映像データ1103に映る監視エリア101の四隅を左上隅から時計回りに点A1、点B1、点C1及び点D1とし、点A1と点B1との間隔をX、点A1と点D1との間隔をYとする。ここで、点A1を位置座標の原点として、点A1〜点D1を座標(x,y)で表すと、原点A1(x,y)=(0,0)、点B1(x,y)=(X,0)、点C1(x,y)=(X,Y)及び点D1(x,y)=(0,Y)となる。このように位置座標を設定した映像データ1103において、被監視人物108の位置を点Pとすると、主監視カメラ1101が備える、被監視人物108の特徴を検出する機能と被監視人物108の存在を検知する機能によって、被監視人物108の位置座標である特徴検出位置座標と存在検知位置座標は、ともに点P(x,y)=(x1,y1)として特定される。 The four corners of the monitoring area 101 shown in the video data 1103 are point A1, point B1, point C1, and point D1 clockwise from the upper left corner. The distance between the points A1 and B1 is X, and the distance between the points A1 and D1. Y. Here, when the point A1 is the origin of the position coordinates and the points A1 to D1 are represented by the coordinates (x, y), the origin A1 (x, y) = (0, 0) and the point B1 (x, y) = (X, 0), point C1 (x, y) = (X, Y) and point D1 (x, y) = (0, Y). In the video data 1103 in which the position coordinates are set in this way, if the position of the monitored person 108 is a point P, the function of the main monitoring camera 1101 for detecting the characteristics of the monitored person 108 and the presence of the monitored person 108 are shown. The feature detection position coordinates and the presence detection position coordinates, which are the position coordinates of the monitored person 108, are both specified as a point P (x, y) = (x1, y1) by the detection function.

図11(c)は、副監視カメラ1102から監視エリア101にいる被監視人物108を撮像した映像データ1104を示す図である。 FIG. 11C is a diagram showing video data 1104 obtained by imaging the monitored person 108 in the monitoring area 101 from the sub-monitoring camera 1102.

映像データ1103と同様に、映像データ1104に映る監視エリア101の四隅を左上隅から時計回りに点A2、点B2、点C2及び点D2とし、点A2と点B2との間隔をX、点A2と点D2との間隔をYとする。ここで、点A2を位置座標の原点として、点A2〜点D2を座標(x,y)で表すと、原点A2(x,y)=(0,0)、点B2(x,y)=(X,0)、点C2(x,y)=(X,Y)及び点D2(x,y)=(0,Y)となる。このように位置座標を設定した映像データ1104において、被監視人物108の位置を点Sとすると、副監視カメラ1102が備える、被監視人物108の特徴を検出する機能と被監視人物108の存在を検知する機能によって、被監視人物108の位置座標である特徴検出位置座標と存在検知位置座標はともに、点S(x,y)=(x2,y2)として特定される。 As with the video data 1103, the four corners of the monitoring area 101 shown in the video data 1104 are point A2, point B2, point C2, and point D2 clockwise from the upper left corner, and the intervals between the points A2 and B2 are X and point A2. And the distance between the point D2 and Y. Here, when the point A2 is the origin of the position coordinates and the points A2 to D2 are represented by the coordinates (x, y), the origin A2 (x, y) = (0, 0) and the point B2 (x, y) = (X, 0), point C2 (x, y) = (X, Y) and point D2 (x, y) = (0, Y). In the video data 1104 in which the position coordinates are set in this way, when the position of the monitored person 108 is a point S, the function of detecting the feature of the monitored person 108 and the presence of the monitored person 108 provided in the sub-monitoring camera 1102 are shown. By the detection function, both the feature detection position coordinates and the presence detection position coordinates, which are the position coordinates of the monitored person 108, are specified as a point S (x, y) = (x2, y2).

ところで、主監視カメラ1101及び副監視カメラ1102によって特定される位置座標の点P(x1,y1)及び点S(x2,y2)は、監視エリア101での同じ場所を指している。そこで、副監視カメラ1102で撮像した映像データ1104の点S(x2,y2)を、主監視カメラ1101で撮像した映像データ1103の視点から見た点P(x1,y1)に置き換えることを試みる。 Incidentally, the point P (x1, y1) and the point S (x2, y2) of the position coordinates specified by the main monitoring camera 1101 and the sub-monitoring camera 1102 indicate the same place in the monitoring area 101. Therefore, an attempt is made to replace the point S (x2, y2) of the video data 1104 captured by the sub-monitoring camera 1102 with the point P (x1, y1) viewed from the viewpoint of the video data 1103 captured by the main monitoring camera 1101.

ここで、カメラ連携テーブル409に予め設定された、主監視カメラ1101に対する副監視カメラ1102のオフセット情報は、x=X−x2及びy=y2とする。このオフセット情報を用いて、副監視カメラ1102で撮像した点S(x2,y2)を主監視カメラ1101で撮像した点P(x1,y1)に座標変換した、点S_offsetを算出すると、点S_offset(X−x2,y2)と表すことができる。 Here, the offset information of the sub-monitoring camera 1102 with respect to the main monitoring camera 1101 preset in the camera cooperation table 409 is x = X−x2 and y = y2. Using this offset information, when the point S_offset obtained by coordinate conversion of the point S (x2, y2) imaged by the sub-monitoring camera 1102 to the point P (x1, y1) imaged by the main monitoring camera 1101 is calculated, the point S_offset ( X-x2, y2).

上述の通り、任意の監視カメラ103で撮像した映像データ206の位置座標は、カメラ連携テーブル409のオフセット情報を用いることで、他の監視カメラ103からの視点での位置座標に置き換えることができる。 As described above, the position coordinates of the video data 206 captured by an arbitrary monitoring camera 103 can be replaced with the position coordinates at the viewpoint from another monitoring camera 103 by using the offset information of the camera cooperation table 409.

図12は、記録装置105が、監視カメラ103から映像データ206及びメタデータ207を受信し、記録媒体107に記録するまでの処理を示すフローチャート図である。 FIG. 12 is a flowchart illustrating processing until the recording apparatus 105 receives the video data 206 and the metadata 207 from the monitoring camera 103 and records them on the recording medium 107.

処理S1201では、記録装置105が、監視カメラ103から映像データ206及びメタデータ207を受信する。その後、処理S1202に進む。 In process S <b> 1201, the recording apparatus 105 receives video data 206 and metadata 207 from the monitoring camera 103. Then, it progresses to process S1202.

処理S1202では、データ解析部303が、監視カメラ103から受信したメタデータ207に特徴検出位置座標が含まれるかどうかを解析する。特徴検出位置座標が含まれるならば、処理S1203に進む。特徴検出位置座標が含まれないならば、処理S1205に進む。 In process S1202, the data analysis unit 303 analyzes whether the feature detection position coordinates are included in the metadata 207 received from the monitoring camera 103. If the feature detection position coordinates are included, the process proceeds to step S1203. If the feature detection position coordinates are not included, the process proceeds to step S1205.

処理S1203では、位置座標データ管理部306が、特徴検出位置座標を位置座標データ記録部310に記録する。その後、処理S1204に進む。 In step S1203, the position coordinate data management unit 306 records the feature detection position coordinates in the position coordinate data recording unit 310. Then, it progresses to process S1204.

処理S1204では、特徴画像データ管理部305が、特徴画像切り出し部304から特徴画像データを受けて、特徴画像データを特徴画像データ記録部309に記録する。その後、処理S1206に進む。 In step S1204, the feature image data management unit 305 receives the feature image data from the feature image cutout unit 304 and records the feature image data in the feature image data recording unit 309. Then, it progresses to process S1206.

処理S1205では、位置座標データ管理部306が、メタデータ207に特徴検出位置座標が含まれないため、特徴検出位置座標を(fx,fy)=(0,0)と設定して位置座標データ記録部310に記録する。その後、処理S1206に進む。 In step S1205, the position coordinate data management unit 306 sets the feature detection position coordinates as (fx, fy) = (0, 0) and records the position coordinate data because the metadata 207 does not include the feature detection position coordinates. Recorded in the unit 310. Then, it progresses to process S1206.

処理S1206では、データ解析部303が、監視カメラ103から受信したメタデータ207に存在検知位置座標が含まれるかどうかを解析する。存在検知位置座標が含まれるならば、処理S1207に進む。存在検知位置座標が含まれないならば、処理S1208に進む。 In step S1206, the data analysis unit 303 analyzes whether the presence detection position coordinates are included in the metadata 207 received from the monitoring camera 103. If the presence detection position coordinates are included, the process proceeds to step S1207. If the presence detection position coordinates are not included, the process proceeds to step S1208.

処理S1207では、位置座標データ管理部306が、存在検知位置座標を位置座標データ記録部310に記録する。その後、処理を終了する。 In step S1207, the position coordinate data management unit 306 records the presence detection position coordinates in the position coordinate data recording unit 310. Thereafter, the process ends.

処理S1208では、位置座標データ管理部306が、監視カメラ103から受信したメタデータ207に存在検知位置座標が含まれないため、存在検知位置座標を(ex,ey)=(0,0)と設定して位置座標データ記録部310に記録する。その後、処理を終了する。 In step S1208, the position coordinate data management unit 306 sets the presence detection position coordinate as (ex, ey) = (0, 0) because the metadata 207 received from the monitoring camera 103 does not include the presence detection position coordinate. And recorded in the position coordinate data recording unit 310. Thereafter, the process ends.

図13は、記録装置105が、入力装置104から入力した検索条件をもとに映像データ206を検索し、監視モニタ106に出力するまでの処理を示すフローチャート図である。 FIG. 13 is a flowchart illustrating processing until the recording device 105 searches the video data 206 based on the search condition input from the input device 104 and outputs the video data 206 to the monitoring monitor 106.

図13では、監視カメラ103の台数をnとし、検索Indexの値iを、初期値1から最大nまで1ずつ増加させながら、カメラ連携テーブル409に設定された検索Indexの順に、監視カメラ103が撮像した映像データ206を検索していく。このときの検索Indexが値iとなる監視カメラ103を、監視カメラ(i)と表す。 In FIG. 13, the number of the monitoring cameras 103 is n, and the monitoring camera 103 sets the search index value i in increments of 1 from the initial value 1 to the maximum n in order of the search indexes set in the camera linkage table 409. The captured video data 206 is searched. The surveillance camera 103 whose search index at this time is the value i is represented as surveillance camera (i).

処理S1301では、再生要求受信部401が、入力装置104からの再生要求信号410を受信する。その後、処理S1302に進む。 In process S1301, the reproduction request receiving unit 401 receives the reproduction request signal 410 from the input device 104. Then, it progresses to process S1302.

処理S1302では、再生要求解析部402が、受信した再生要求信号410の内容から、再生表示したい映像データ206の検索条件を解析する。検索条件としては、例えば映像データ206を最初に検索する監視カメラ103、複数ある監視カメラ103の検索順序、撮像日時、監視エリア101での例えば位置座標といった場所を示す情報、及びこれらの情報の組み合わせ等が考えられる。処理S1302では、検索条件として、最初に検索する監視カメラ103、複数ある監視カメラ103の検索順序及び撮像日時が指定されたものとする。その後、処理S1303に進む。 In step S1302, the reproduction request analysis unit 402 analyzes the search condition for the video data 206 desired to be reproduced and displayed from the content of the received reproduction request signal 410. As the search conditions, for example, the monitoring camera 103 that first searches the video data 206, the search order of the plurality of monitoring cameras 103, the imaging date and time, information indicating a location such as position coordinates in the monitoring area 101, and a combination of these information Etc. are considered. In process S1302, it is assumed that the search order of the first monitoring camera 103 and the plurality of monitoring cameras 103 and the imaging date and time are specified as the search conditions. Then, it progresses to process S1303.

処理S1303では、検索Indexの変数iを初期値1に設定する。その後、処理S1304に進む。 In process S1303, the variable i of the search index is set to the initial value 1. Then, it progresses to process S1304.

処理S1304では、検索処理部403は、再生要求信号410において最初に検索する監視カメラ103として指定されたものを、カメラ連携テーブル409での検索開始監視カメラに選択し、検索Indexにi=1を設定する。また、検索処理部403は、再生要求信号410で指定された監視カメラ103の検索順序を、カメラ連携テーブル409での各監視カメラ103の検索Indexに設定する。仮に、再生要求信号410の検索条件に、検索開始監視カメラや検索順序の指定がなければ、映像監視システムで予め決まる値を設定する。その後、処理S1305に進む。 In process S1304, the search processing unit 403 selects the camera designated as the monitoring camera 103 to be searched first in the reproduction request signal 410 as the search start monitoring camera in the camera cooperation table 409, and sets i = 1 to the search index. Set. In addition, the search processing unit 403 sets the search order of the monitoring cameras 103 specified by the reproduction request signal 410 to the search index of each monitoring camera 103 in the camera cooperation table 409. If there is no designation of the search start monitoring camera or the search order in the search condition of the reproduction request signal 410, a value determined in advance by the video monitoring system is set. Then, it progresses to process S1305.

処理S1305では、検索処理部403が直接又は他の機能部を制御して、カメラ連携テーブル409に設定された各監視カメラ103と検索Indexとの対応を、記録媒体107の映像データ記録部307、日時データ記録部308、特徴画像データ記録部309及び位置座標データ記録部310に反映し設定する。その後、処理S1306に進む。 In process S1305, the search processing unit 403 directly or controls other functional units, and the correspondence between each monitoring camera 103 set in the camera cooperation table 409 and the search index is determined based on the video data recording unit 307 of the recording medium 107, The date and time data recording unit 308, the feature image data recording unit 309, and the position coordinate data recording unit 310 are reflected and set. Then, it progresses to process S1306.

処理S1306では、記録媒体107から、検索Indexがi=1の監視カメラ(1)に関連付けられた映像Index(1,j)のうち、検索条件に合うものを検索し取得する。ここでは、検索条件に日時が含まれるため、日時データ記録部308を検索する。また、検索条件に監視エリア101での位置情報が含まれる場合には、位置座標データ記録部310を検索する。その後、処理S1307に進む。 In step S1306, the video index (1, j) associated with the monitoring camera (1) whose search index is i = 1 is searched for and acquired from the recording medium 107 that meets the search condition. Here, since the search condition includes the date and time, the date and time data recording unit 308 is searched. If the search condition includes position information in the monitoring area 101, the position coordinate data recording unit 310 is searched. Then, it progresses to process S1307.

処理S1307では、位置座標データ記録部310から、処理S1306で取得した映像Index(1,j)に関連付けられた、特徴検出位置座標(1,j)及び存在検知位置座標(1,j)を検索し取得する。その後、処理S1308に進む。 In the process S1307, the feature detection position coordinate (1, j) and the presence detection position coordinate (1, j) associated with the video Index (1, j) acquired in the process S1306 are searched from the position coordinate data recording unit 310. And get. Then, it progresses to process S1308.

処理S1308では、取得した特徴検出位置座標(1,j)が(0,0)であるかどうか判定する。特徴検出位置座標が(0,0)とは、処理S1306で取得した映像Index(1,j)に関連付けられた映像データ(1,j)からは、被監視人物108の特徴が検出されなかったことを示す。特徴検出位置座標(1,j)が(0,0)であれば処理S1309に進む。特徴検出位置座標(1,j)が(0,0)でなければ処理S1319に進む。 In process S1308, it is determined whether or not the acquired feature detection position coordinate (1, j) is (0, 0). The feature detection position coordinate is (0, 0). The feature of the monitored person 108 is not detected from the video data (1, j) associated with the video index (1, j) acquired in step S1306. It shows that. If the feature detection position coordinate (1, j) is (0, 0), the process proceeds to step S1309. If the feature detection position coordinate (1, j) is not (0, 0), the process proceeds to step S1319.

処理S1309では、取得した存在検知位置座標(1,j)が(0,0)であるかどうか判定する。存在検知位置座標(1,j)が(0,0)とは、処理S1306で取得した映像Index(1,j)に関連付けられた映像データ(1,j)からは、被監視人物108の存在が検知されなかったことを示す。存在検知位置座標(1,j)が(0,0)でなければ処理S1310に進む。存在検知位置座標(1,j)が(0,0)であれば処理S1319に進む。 In process S1309, it is determined whether or not the acquired presence detection position coordinate (1, j) is (0, 0). The presence detection position coordinate (1, j) is (0, 0) is the presence of the monitored person 108 from the video data (1, j) associated with the video index (1, j) acquired in step S1306. Indicates that was not detected. If the presence detection position coordinate (1, j) is not (0, 0), the process proceeds to step S1310. If the presence detection position coordinate (1, j) is (0, 0), the process proceeds to step S1319.

処理S1310はループ処理であり、処理S1311から処理S1314までの処理を適宜、繰り返し行う。ループの始端にある繰り返し条件は、検索Indexの変数iの開始値をi=2、終了値をi=監視カメラ台数n−1とし、ループの終端から始端に戻るごとに変数iに1ずつ加算することを示す。この繰り返し条件に従って、変数iに対応する監視カメラ(i)が撮像した映像データ(i,j)のうち、映像Index(1,j)で検知された被監視人物108の特徴が検出されたものを検索する。尚、変数iが終了値を超えた場合は、特徴を検出した映像データ206が検索されなかったとして、映像Index(1,j)に対応する映像データ(1,j)を再生表示させるため、処理S1319に進む。 The process S1310 is a loop process, and the processes from the process S1311 to the process S1314 are repeated as appropriate. The repetition condition at the beginning of the loop is that the search index variable i has a start value i = 2 and an end value i = number of surveillance cameras n-1, and is added to the variable i by 1 each time the loop returns to the start end. Indicates to do. According to this repetition condition, among the video data (i, j) captured by the monitoring camera (i) corresponding to the variable i, the feature of the monitored person 108 detected by the video index (1, j) is detected. Search for. When the variable i exceeds the end value, the video data (1, j) corresponding to the video index (1, j) is reproduced and displayed on the assumption that the video data 206 having detected the feature is not searched. It progresses to process S1319.

処理S1311では、日時データ記録部308から、処理S1306で取得した映像Index(1,j)との撮像日時の時間差が所定時間以下である映像Index(i,j)を検索し取得する。ここでの所定時間とは、例えば1秒を指す。その後、処理S1312に進む。 In process S1311, the video index (i, j) in which the time difference of the imaging date and time from the video index (1, j) acquired in process S1306 is equal to or less than a predetermined time is retrieved from the date data recording unit 308. The predetermined time here refers to 1 second, for example. Then, it progresses to process S1312.

処理S1312では、位置座標データ記録部310から、処理S1311で取得した映像Index(i,j)に関連付けられた、特徴検出位置座標(i,j)を取得する。その後、処理S1313に進む。 In process S1312, the feature detection position coordinate (i, j) associated with the video Index (i, j) acquired in process S1311 is acquired from the position coordinate data recording unit 310. Then, it progresses to process S1313.

処理S1313では、処理S1312で取得した特徴検出位置座標(i,j)が(0,0)であるかどうかを判定する。特徴検出位置座標(i,j)が(0,0)であれば処理S1310のループ処理の始端に戻り、他の監視カメラ103が撮像した映像データ206を検索する。特徴検出位置座標(i,j)が(0,0)でなければ処理S1314に進む。 In process S1313, it is determined whether or not the feature detection position coordinates (i, j) acquired in process S1312 are (0, 0). If the feature detection position coordinate (i, j) is (0, 0), the process returns to the beginning of the loop processing in step S1310, and the video data 206 captured by another monitoring camera 103 is searched. If the feature detection position coordinate (i, j) is not (0, 0), the process proceeds to step S1314.

処理S1314では、カメラ連携テーブル409を参照し、主監視カメラの監視カメラ(1)を基準として、処理S1312で取得した特徴検出位置座標(i,j)を座標変換する。その後、処理S1315に進む。 In process S1314, the camera cooperation table 409 is referred to, and the feature detection position coordinates (i, j) acquired in process S1312 are coordinate-converted with reference to the monitoring camera (1) of the main monitoring camera. Then, it progresses to process S1315.

処理S1315では、処理S1314で座標変換した特徴検出位置座標(i,j)と、処理S1307で取得した存在検知位置座標(1,j)との間の距離が所定距離以下であるかどうかを判定する。ここで、所定距離とはシステムで任意に設定されるものとする。特徴検出位置座標(i,j)と存在検知位置座標(1,j)との間の距離が所定距離以下となる場合は処理S1316に進む。特徴検出位置座標(i,j)と存在検知位置座標(1,j)との間の距離が所定距離以下とならない場合は処理S1310のループ処理の始端に戻る。 In process S1315, it is determined whether or not the distance between the feature detection position coordinate (i, j) transformed in process S1314 and the presence detection position coordinate (1, j) acquired in process S1307 is equal to or smaller than a predetermined distance. To do. Here, the predetermined distance is arbitrarily set by the system. If the distance between the feature detection position coordinates (i, j) and the presence detection position coordinates (1, j) is equal to or less than the predetermined distance, the process proceeds to step S1316. If the distance between the feature detection position coordinates (i, j) and the presence detection position coordinates (1, j) is not less than or equal to the predetermined distance, the process returns to the start of the loop process in step S1310.

処理S1316では、位置座標データ記録部310から、映像Index(i,j)に関連付けられた特徴画像Index(i,k)を取得する。その後、処理S1317に進む。 In process S1316, the feature image Index (i, k) associated with the video index (i, j) is acquired from the position coordinate data recording unit 310. Then, it progresses to process S1317.

処理S1317では、特徴画像データ記録部309から、処理S1316で取得した特徴画像Index(i,k)に対応付けられた特徴画像データ(i,k)を検索し取得する。その後、処理S1318に進む。 In process S1317, the feature image data (i, k) associated with the feature image Index (i, k) acquired in process S1316 is retrieved and acquired from the feature image data recording unit 309. Then, it progresses to process S1318.

処理S1318では、映像データ記録部307から、映像Index(1,j)に対応付けられた映像データ(1,j)を検索して取得し、映像データ(1,j)に対して、処理S1317で取得した特徴画像データ(i,k)を重畳表示して合成した再生表示映像データ411を生成する。映像データ(1,j)に特徴画像データ(i,k)を重畳表示させる位置は、例えば存在検知位置座標(1,j)を中心とした所定距離からなる領域にかからない位置とする。その後、処理S1319に進む。 In the process S1318, the video data (1, j) associated with the video index (1, j) is searched and acquired from the video data recording unit 307, and the process S1317 is performed on the video data (1, j). Reproduced display video data 411 is generated by superimposing and synthesizing the feature image data (i, k) acquired in step (b). The position at which the feature image data (i, k) is superimposed and displayed on the video data (1, j) is, for example, a position that does not cover a region having a predetermined distance centered on the presence detection position coordinate (1, j). Then, it progresses to process S1319.

処理S1319では、処理S1308で被監視人物108の特徴を検出した、処理S1309で被監視人物108の特徴の検出も存在の検知もしなかった、又は処理S1310でループ処理の繰り返し条件を超過した、いずれかの場合であれば、映像データ(1,j)を監視モニタ106に出力する。いずれの場合にもならず、処理S1318を経た場合であれば、処理S1318で生成した再生表示映像データ411を監視モニタ106に出力する。その後、処理を終了する。 In the process S1319, the feature of the monitored person 108 is detected in the process S1308, the feature of the monitored person 108 is neither detected nor detected in the process S1309, or the loop processing repetition condition is exceeded in the process S1310. In such a case, the video data (1, j) is output to the monitor 106. In any case, if the process S1318 is performed, the reproduction display video data 411 generated in the process S1318 is output to the monitor 106. Thereafter, the process ends.

尚、上述のように、映像データ206に複数の被監視人物108が映っており、映像Indexに複数の特徴画像Indexが関連付けられる場合には、例えば映像Indexが最初に検索した監視カメラ(1)のものであれば、処理S1319に進み、映像Indexに対応する映像データ206を出力する。また、映像Indexが最初に検索した監視カメラ(1)のものでなければ、処理S1312で複数の特徴画像Indexを取得し、処理S1318で各々の特徴画像Indexに対応する特徴画像データを映像データ206に重畳表示して合成し、処理S1319で複数の特徴画像データを合成した再生表示映像データ411を出力する。 As described above, when a plurality of monitored persons 108 are shown in the video data 206 and a plurality of feature images Index are associated with the video Index, for example, the monitoring camera (1) searched first by the video Index. If so, the process advances to step S1319 to output video data 206 corresponding to the video index. If the video index is not the one of the surveillance camera (1) searched for first, a plurality of feature images Index is acquired in processing S1312, and feature image data corresponding to each feature image index is acquired in processing video S206 in processing S1318. In step S1319, reproduction display video data 411 obtained by combining a plurality of feature image data is output.

図14は、記録装置105が出力した再生表示映像データ411を、監視モニタ106で再生表示させた画面表示例の図である。 FIG. 14 is a diagram illustrating a screen display example in which the reproduction display video data 411 output from the recording device 105 is reproduced and displayed on the monitoring monitor 106.

被監視人物1401は、図13の処理S1318において、映像データ(1,j)での存在検知位置座標(1,j)に映る被監視人物108である。特徴画像データ1402は、図13の処理S1318において、映像データ(1,j)に重畳表示させた被監視人物1401の特徴画像データ(i,k)である。 The monitored person 1401 is the monitored person 108 shown in the presence detection position coordinate (1, j) in the video data (1, j) in the process S1318 of FIG. The feature image data 1402 is the feature image data (i, k) of the monitored person 1401 that is superimposed and displayed on the video data (1, j) in step S1318 of FIG.

実施の形態1によれば、監視エリア101に複数設置した監視カメラ103より伝送された、撮像映像及び撮像日時等の情報を記録した記録装置105が、被監視人物108の存在を検知した存在検知位置座標と、被監視人物108の特徴を検出した特徴検出位置座標を映像データ206より取得し、これら2つの位置座標を含む映像データ206が近い日時にあり、また2つの位置座標が監視エリア101上で近い位置にあるかどうかを判定することで、同一の又は異なる監視カメラ103からの撮像映像に含まれるこれら2つの位置座標に関わる被監視人物108が同一であるかどうかを判断することが可能となる。その結果として、複数の監視カメラ103が固定的に撮像した撮像映像より被監視人物108の存在を検知することで、近い日時にあって当該被監視人物108の特徴を含む、同一の又は異なる監視カメラ103からの映像データ206を短時間で検索でき、複雑な処理を行う高コストな装置を要せずに、所望の監視光景を含む再生表示映像データ411を再生表示できる効果が得られる。 According to the first embodiment, the recording device 105 that records information such as the captured video and the captured date and time transmitted from the plurality of monitoring cameras 103 installed in the monitoring area 101 detects the presence of the monitored person 108. The position coordinates and the feature detection position coordinates for detecting the characteristics of the monitored person 108 are acquired from the video data 206, and the video data 206 including these two position coordinates are close to each other, and the two position coordinates are the monitoring area 101. By determining whether or not they are close to each other, it is possible to determine whether or not the monitored person 108 related to these two position coordinates included in the captured images from the same or different monitoring cameras 103 is the same. It becomes possible. As a result, by detecting the presence of the monitored person 108 from the captured images captured by the plurality of monitoring cameras 103, the same or different monitoring including the characteristics of the monitored person 108 at a near date and time The video data 206 from the camera 103 can be searched in a short time, and the reproduction display video data 411 including a desired monitoring scene can be reproduced and displayed without requiring an expensive device that performs complicated processing.

また、実施の形態1によれば、記録装置105が、検索した2つの映像データ206のうち、所望の監視光景とは異なる映像データ206より特徴画像データを切り出し、所望の監視光景の映像データ206に例えば重畳表示して合成した再生表示映像データ411を生成し、再生表示させることが可能となる。その結果として、記録装置105が2つの映像データ206を検索した場合に、所望の監視光景において被監視人物108の存在と特徴とが分かり易くまとまった1つの再生表示映像データ411として再生表示できる効果が得られる。 Further, according to the first embodiment, the recording apparatus 105 cuts out the feature image data from the searched video data 206 from the video data 206 different from the desired monitoring scene, and the video data 206 of the desired monitoring scene. For example, it is possible to generate reproduction display video data 411 synthesized by superimposing and reproducing and displaying the data. As a result, when the recording device 105 searches for two pieces of video data 206, it is possible to reproduce and display as one piece of reproduced display video data 411 in which the presence and characteristics of the monitored person 108 are easily understood in a desired monitoring scene. Is obtained.

また、実施の形態1によれば、最初に検索した監視カメラ103の映像データ206から被監視人物108の特徴が検出されず、存在のみ検知された場合に、他の監視カメラ103の映像データ206から当該被監視人物108の特徴画像データを取得し、最初に検索した監視カメラ103の映像データ206に特徴画像データを合成した再生表示映像データ411を生成して再生表示させることが可能となる。その結果として、最初に検索した監視カメラ103の映像データ206よりも、被監視人物108の特徴が良く分かる別の監視カメラ103が撮像した映像データ206が見つかったとしても、最初の監視カメラ103からの監視光景を保ったままで、被監視人物108の存在と特徴が分かる再生表示映像データ411を再生表示できる効果が得られる。 Further, according to the first embodiment, when the feature of the monitored person 108 is not detected from the video data 206 of the surveillance camera 103 searched for first, and only the presence is detected, the video data 206 of the other surveillance cameras 103 is detected. Thus, it is possible to acquire feature image data of the monitored person 108, generate playback display video data 411 in which the feature image data is synthesized with the video data 206 of the surveillance camera 103 searched first, and display the playback display video data 411. As a result, even if the video data 206 captured by another monitoring camera 103 in which the characteristics of the monitored person 108 are better understood than the video data 206 of the monitoring camera 103 searched first, the first monitoring camera 103 Thus, it is possible to reproduce and display the reproduction display video data 411 in which the presence and characteristics of the monitored person 108 can be recognized while maintaining the monitoring scene.

また、実施の形態1によれば、最初に検索した監視カメラ103の映像データ206に被監視人物108の特徴が検出できれば、そのまま再生表示映像データ411として監視モニタ106に表示させることが可能となる。その結果として、最初に検索した監視カメラ103の映像データ206が、被監視人物108の存在と特徴が分かるものであれば、その後の合成等の処理を行わずにそのまま再生表示できる効果が得られる。 Further, according to the first embodiment, if the feature of the monitored person 108 can be detected in the video data 206 of the monitoring camera 103 searched first, it can be displayed on the monitoring monitor 106 as the reproduction display video data 411 as it is. . As a result, if the video data 206 of the surveillance camera 103 that is searched first can understand the presence and characteristics of the monitored person 108, an effect can be obtained that can be reproduced and displayed as it is without performing subsequent processing such as composition. .

また、実施の形態1によれば、監視カメラ103に、特徴検出機能と存在検知機能とを実装させて、監視カメラ103の側で被監視人物108の特徴検出位置座標と存在検知位置座標とを得ることが可能となる。その結果として、記録装置105の側に特徴検出機能と存在検知機能とを実装させ、被監視人物108の各位置座標を算出させる必要がなくなり、記録装置105の処理負荷を軽減できる効果が得られる。 Further, according to the first embodiment, the feature detection function and the presence detection function are implemented in the monitoring camera 103, and the feature detection position coordinates and the presence detection position coordinates of the monitored person 108 are obtained on the monitoring camera 103 side. Can be obtained. As a result, it is not necessary to install the feature detection function and the presence detection function on the recording apparatus 105 side, and to calculate each position coordinate of the monitored person 108, and the processing load of the recording apparatus 105 can be reduced. .

また、実施の形態1によれば、入力装置104から、監視カメラ103、撮像日時及び監視エリア101での位置若しくは領域を示す情報の少なくとも1つを検索条件として指定して、記録装置105が記録した映像データ206を検索することが可能となる。その結果として、監視業務員109が監視したい光景、日時及び監視エリアでの場所を検索条件として任意に指定でき、条件に関連のある映像データ206を検索できる効果が得られる。 Further, according to the first embodiment, the recording device 105 records from the input device 104 by specifying at least one of the monitoring camera 103, the imaging date and time, and information indicating the position or area in the monitoring area 101 as a search condition. The retrieved video data 206 can be searched. As a result, it is possible to arbitrarily specify the scene, the date and time, and the location in the monitoring area to be monitored by the monitoring operator 109 as search conditions, and the video data 206 related to the conditions can be searched.

実施の形態2.
実施の形態1では、監視カメラ103の側で、特徴検出機能及び存在検知機能を実装しており、これらの機能を用いて被監視人物108の特徴検出位置座標及び存在検知位置座標を得て、記録装置105に送信していた。実施の形態2は、監視カメラ1501では特徴検出機能及び存在検知機能を実装せずに、記録装置105の側で、被監視人物108の特徴検出位置座標及び存在検知位置座標を得る。
Embodiment 2. FIG.
In the first embodiment, the feature detection function and the presence detection function are implemented on the monitoring camera 103 side, and the feature detection position coordinates and the presence detection position coordinates of the monitored person 108 are obtained using these functions. It was transmitted to the recording device 105. In the second embodiment, the monitoring camera 1501 does not implement the feature detection function and the presence detection function, and obtains the feature detection position coordinates and the presence detection position coordinates of the monitored person 108 on the recording device 105 side.

図15は、監視カメラ1501の機能部と、各機能部で授受されるデータの流れを示すブロック図である。図2と同じ符号を振られたものは、実施の形態1と同様であるため説明を省略する。 FIG. 15 is a block diagram illustrating the functional units of the monitoring camera 1501 and the flow of data exchanged between the functional units. The components denoted by the same reference numerals as those in FIG. 2 are the same as those in the first embodiment, and thus the description thereof is omitted.

監視カメラ1501は、図2の監視カメラ103から、撮像した映像データ206をもとに被監視人物108の特徴を検出する特徴検出部202及び被監視人物108の存在を検知する存在検知部203を除いたものである。 The monitoring camera 1501 includes a feature detection unit 202 that detects the characteristics of the monitored person 108 based on the captured video data 206 and a presence detection unit 203 that detects the presence of the monitored person 108 from the monitoring camera 103 of FIG. Excluded.

図16は、記録装置1601の記録に関する機能部と、各機能部で授受されるデータの流れを示すブロック図である。図3と同じ符号を振られたものは、実施の形態1と同様であるため説明を省略する。 FIG. 16 is a block diagram showing functional units related to recording of the recording device 1601 and the flow of data exchanged between the functional units. The components denoted by the same reference numerals as those in FIG. 3 are the same as those in the first embodiment, and thus the description thereof is omitted.

記録装置1601は、図3の記録装置105に、撮像した映像データ206をもとに被監視人物108の特徴を検出する特徴検出部1602及び被監視人物108の存在を検知する存在検知部1603を実装させたものである。 The recording device 1601 includes a feature detection unit 1602 that detects the feature of the monitored person 108 based on the captured video data 206 and a presence detection unit 1603 that detects the presence of the monitored person 108 in the recording device 105 of FIG. It is implemented.

特徴検出部1602は、データ解析部303から映像データ206を受け取り、特徴検出位置座標を出力する。データ解析部303は、実施の形態1と同様に、受け取った特徴検出位置座標を、特徴画像切り出し部304及び位置座標データ管理部306に出力する。 The feature detection unit 1602 receives the video data 206 from the data analysis unit 303 and outputs the feature detection position coordinates. Similar to the first embodiment, the data analysis unit 303 outputs the received feature detection position coordinates to the feature image cutout unit 304 and the position coordinate data management unit 306.

存在検知部1603は、データ解析部303から映像データ206を受け取り、監視対象位置座標を出力する。データ解析部303は、実施の形態1と同様に、受け取った監視対象位置座標を、位置座標データ管理部306に出力する。 The presence detection unit 1603 receives the video data 206 from the data analysis unit 303 and outputs the monitoring target position coordinates. Similarly to the first embodiment, the data analysis unit 303 outputs the received monitoring target position coordinates to the position coordinate data management unit 306.

実施の形態2によれば、
記録装置1601に、特徴検出機能と存在検知機能とを実装させて、記録装置1601の側で被監視人物108の特徴検出位置座標と存在検知位置座標とを得ることが可能となる。その結果として、各々の監視カメラ1501に特徴検出機能と存在検知機能とを実装させ、被監視人物108の各位置座標を算出させる必要がなくなり、監視カメラ1501の構成を簡略化してコスト削減を図れる効果が得られる。
According to the second embodiment,
By installing the feature detection function and the presence detection function in the recording device 1601, it is possible to obtain the feature detection position coordinates and the presence detection position coordinates of the monitored person 108 on the recording device 1601 side. As a result, it is not necessary to install the feature detection function and the presence detection function in each monitoring camera 1501, and to calculate the position coordinates of the monitored person 108, thereby simplifying the configuration of the monitoring camera 1501 and reducing costs. An effect is obtained.

101 監視エリア
102 監視室
103、1501 監視カメラ
104 入力装置
105、1601 記録装置
106 監視モニタ
107 記録媒体
108 被監視人物
109 監視業務員
201 映像撮像部
202、1602 特徴検出部
203、1603 存在検知部
204 データ管理部
205 データ送信部
206 映像データ
207 メタデータ
301 映像データ受信部
302 メタデータ受信部
303 データ解析部
304 特徴画像切り出し部
305 特徴画像データ管理部
306 位置座標データ管理部
307 映像データ記録部
308 日時データ記録部
309 特徴画像データ記録部
310 位置座標データ記録部
401 再生要求受信部
402 再生要求解析部
403 検索処理部
404 映像検索部
405 位置座標データ照合部
406 特徴画像データ検索部
407 映像合成部
408 映像表示部
409 カメラ連携テーブル
410 再生要求信号
411 再生表示映像データ
1101 主監視カメラ
1102 副監視カメラ
1103 主監視カメラによる映像データ
1104 副監視カメラによる映像データ
1401 再生表示映像データに映る被監視人物
1402 再生表示映像データに重畳表示させる特徴画像データ
101 Monitoring Area 102 Monitoring Room 103, 1501 Monitoring Camera 104 Input Device 105, 1601 Recording Device 106 Monitoring Monitor 107 Recording Medium 108 Monitored Person 109 Monitoring Worker 201 Video Imaging Unit 202, 1602 Feature Detection Unit 203, 1603 Presence Detection Unit 204 Data management unit 205 Data transmission unit 206 Video data 207 Metadata 301 Video data reception unit 302 Metadata reception unit 303 Data analysis unit 304 Feature image clipping unit 305 Feature image data management unit 306 Position coordinate data management unit 307 Video data recording unit 308 Date / time data recording unit 309 Feature image data recording unit 310 Position coordinate data recording unit 401 Playback request receiving unit 402 Playback request analysis unit 403 Search processing unit 404 Video search unit 405 Position coordinate data matching unit 406 Feature image data detection Section 407 Video composition section 408 Video display section 409 Camera linkage table 410 Playback request signal 411 Playback display video data 1101 Primary monitoring camera 1102 Secondary monitoring camera 1103 Video data 1104 by primary monitoring camera Video data 1401 by secondary monitoring camera 1401 Playback display video data Monitored person 1402 to be reflected Feature image data to be displayed superimposed on playback display video data

Claims (8)

監視エリアを撮像する複数の監視カメラと、
前記監視カメラが撮像した映像データ及び前記映像データの撮像日時を記録する記録装置と、
前記映像データの検索条件を入力する入力装置と、
前記記録装置が出力した前記映像データを再生表示する監視モニタと、
前記映像データから監視対象の存在を検知し、前記監視エリアでの位置情報である存在検知位置座標を出力して前記映像データに関連付ける存在検知手段と、
前記映像データから監視対象の特徴を検出し、前記監視エリアでの位置情報である特徴検出位置座標を出力して前記映像データに関連付ける特徴検出手段と、
を有する映像監視システムであって、
前記記録装置は、
前記映像データに関連付けられた前記存在検知位置座標及び前記特徴検出位置座標があるかどうかを判定する位置座標判定手段と、
前記複数の監視カメラが撮像した前記映像データのうち、前記検索条件を満たす第1監視カメラの第1映像データを検索する第1映像検索手段と、
前記複数の監視カメラが撮像した前記映像データのうち、前記撮像日時と、前記第1映像データの前記撮像日時との時間差が所定時間以下であり、前記特徴検出位置座標と、前記第1映像データの前記存在検知位置座標との間の距離が所定距離以下である、第2監視カメラの第2映像データを検索する第2映像検索手段と、
検索した前記映像データを前記監視モニタに出力する映像出力手段と、
を有する、
ことを特徴とする映像監視システム。
A plurality of surveillance cameras for imaging the surveillance area;
A recording device for recording the video data captured by the surveillance camera and the imaging date and time of the video data;
An input device for inputting search conditions for the video data;
A monitor for reproducing and displaying the video data output by the recording device;
Presence detection means for detecting the presence of a monitoring target from the video data, outputting presence detection position coordinates, which are position information in the monitoring area, and associating with the video data;
A feature detection unit that detects a feature of a monitoring target from the video data, outputs a feature detection position coordinate that is position information in the monitoring area, and associates the feature detection position coordinate with the video data;
A video surveillance system comprising:
The recording device comprises:
Position coordinate determination means for determining whether or not there is the presence detection position coordinate and the feature detection position coordinate associated with the video data;
First video search means for searching for first video data of a first surveillance camera that satisfies the search condition from among the video data captured by the plurality of surveillance cameras;
Among the video data captured by the plurality of monitoring cameras, a time difference between the imaging date and time and the imaging date and time of the first video data is equal to or less than a predetermined time, the feature detection position coordinates, and the first video data A second video search means for searching for second video data of the second surveillance camera, wherein a distance between the presence detection position coordinates is equal to or less than a predetermined distance;
Video output means for outputting the searched video data to the monitoring monitor;
Having
A video surveillance system characterized by that.
前記記録装置は、
前記特徴検出手段によって検出した特徴を前記映像データから切り出し、特徴画像データとして出力する特徴画像データ切り出し手段と、
前記特徴画像データ切り出し手段により前記第2映像データから切り出した前記特徴画像データを、前記第1映像データに合成した第3映像データを生成する映像合成手段と、
をさらに有し、
前記映像出力手段は、前記第1映像データ又は前記第3映像データを前記監視モニタに出力する
ことを特徴とする請求項1に記載の映像監視システム。
The recording device comprises:
A feature image data cutout unit for cutting out the feature detected by the feature detection unit from the video data and outputting it as feature image data;
Video synthesizing means for generating third video data obtained by synthesizing the characteristic image data cut out from the second video data by the feature image data cutting out means with the first video data;
Further comprising
2. The video monitoring system according to claim 1, wherein the video output means outputs the first video data or the third video data to the monitoring monitor.
前記記録装置は、
前記位置座標判定手段によって、前記第1映像データには前記特徴検出位置座標がなく、前記存在検知位置座標があると判定した場合に、
前記映像合成手段によって、前記第3映像データを生成し、
前記映像出力手段よって、前記第3映像データを前記監視モニタに出力する、
ことを特徴とする請求項2に記載の映像監視システム。
The recording device comprises:
When it is determined by the position coordinate determining means that the first video data does not have the feature detection position coordinates and has the presence detection position coordinates,
Generating the third video data by the video synthesizing means;
Outputting the third video data to the monitoring monitor by the video output means;
The video surveillance system according to claim 2.
前記記録装置は、
前記位置座標判定手段によって、前記第1映像データには前記存在検知位置座標及び前記特徴検出位置座標があると判定した場合に、
前記映像出力手段よって、前記第1映像データを前記監視モニタに出力する、
ことを特徴とする請求項2または3のいずれかに記載の映像監視システム。
The recording device comprises:
When it is determined by the position coordinate determination means that the first video data has the presence detection position coordinates and the feature detection position coordinates,
Outputting the first video data to the monitoring monitor by the video output means;
The video surveillance system according to claim 2, wherein the video surveillance system is a video surveillance system.
前記監視カメラは、前記存在検知手段及び前記特徴検出手段を有し、
前記存在検知手段及び前記特徴検出手段によって、
撮像した前記映像データの前記存在検知位置座標及び前記特徴検出位置座標を、前記記録装置に出力する、
ことを特徴とする請求項1から4のいずれかに記載の映像監視システム。
The surveillance camera has the presence detection unit and the feature detection unit,
By the presence detection means and the feature detection means,
Outputting the presence detection position coordinates and the feature detection position coordinates of the imaged image data to the recording device;
The video surveillance system according to claim 1, wherein the video surveillance system is a video surveillance system.
前記記録装置は、前記存在検知手段及び前記特徴検出手段を有し、
前記存在検知手段及び前記特徴検出手段によって、
前記監視カメラが撮像した前記映像データから、前記存在検知位置座標及び前記特徴検出位置座標を出力する、
ことを特徴とする請求項1から4のいずれかに記載の映像監視システム。
The recording apparatus includes the presence detection unit and the feature detection unit,
By the presence detection means and the feature detection means,
From the video data captured by the monitoring camera, the presence detection position coordinates and the feature detection position coordinates are output.
The video surveillance system according to claim 1, wherein the video surveillance system is a video surveillance system.
前記検索条件は、
前記監視カメラ、前記撮像日時及び前記監視エリアでの位置若しくは領域を示す情報の少なくとも1つを指定する条件である
ことを特徴とする請求項1から6のいずれかに記載の映像監視システム。
The search condition is:
The video surveillance system according to claim 1, wherein the video surveillance system is a condition for designating at least one of information indicating the monitoring camera, the imaging date and time, and the position or area in the monitoring area.
監視エリアを撮像する複数の監視カメラと、
前記監視カメラが撮像した映像データ及び前記映像データの撮像日時を記録する記録装置と、
前記映像データの検索条件を入力する入力装置と、
前記記録装置が出力した前記映像データを再生表示する監視モニタと、
を有する映像監視システムにおいて実行される映像検索方法であって、
前記映像データから監視対象の存在を検知し、前記監視エリアでの位置情報である存在検知位置座標を出力して前記映像データに関連付ける存在検知工程と、
前記映像データから監視対象の特徴を検出し、前記監視エリアでの位置情報である特徴検出位置座標を出力して前記映像データに関連付ける特徴検出工程と、
前記映像データに関連付けられた前記存在検知位置座標及び前記特徴検出位置座標があるかどうかを判定する位置座標判定工程と、
前記複数の監視カメラが撮像した前記映像データのうち、前記検索条件を満たす第1監視カメラの第1映像データを検索する第1映像検索工程と、
前記複数の監視カメラが撮像した前記映像データのうち、前記撮像日時と、前記第1映像データの前記撮像日時との時間差が所定時間以下であり、前記特徴検出位置座標と、前記第1映像データの前記存在検知位置座標との間の距離が所定距離以下である、第2監視カメラの第2映像データを検索する第2映像検索工程と、
検索した前記映像データを前記監視モニタに出力する映像出力工程と、
を有し、
位置座標判定工程、第1映像検索工程、第2映像検索工程、映像出力工程は、記録装置において実行される
ことを特徴とする映像監視システムの映像検索方法。
A plurality of surveillance cameras for imaging the surveillance area;
A recording device for recording the video data captured by the surveillance camera and the imaging date and time of the video data;
An input device for inputting search conditions for the video data;
A monitor for reproducing and displaying the video data output by the recording device;
A video search method executed in a video surveillance system having:
A presence detection step of detecting the presence of a monitoring target from the video data, outputting presence detection position coordinates, which are position information in the monitoring area, and associating with the video data;
A feature detection step of detecting a feature to be monitored from the video data, outputting feature detection position coordinates, which are location information in the monitoring area, and associating the feature with the video data;
A position coordinate determination step for determining whether or not there is the presence detection position coordinate and the feature detection position coordinate associated with the video data;
A first video search step of searching for the first video data of the first surveillance camera satisfying the search condition among the video data captured by the plurality of surveillance cameras;
Among the video data captured by the plurality of monitoring cameras, a time difference between the imaging date and time and the imaging date and time of the first video data is equal to or less than a predetermined time, the feature detection position coordinates, and the first video data A second video search step of searching for the second video data of the second surveillance camera, wherein a distance between the presence detection position coordinates is less than a predetermined distance;
A video output step of outputting the searched video data to the monitoring monitor;
Have
A video search method for a video surveillance system, wherein a position coordinate determination step, a first video search step, a second video search step, and a video output step are executed in a recording apparatus.
JP2014127859A 2014-06-23 2014-06-23 Video monitoring system, and video retrieval method of video monitoring system Pending JP2016009896A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014127859A JP2016009896A (en) 2014-06-23 2014-06-23 Video monitoring system, and video retrieval method of video monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014127859A JP2016009896A (en) 2014-06-23 2014-06-23 Video monitoring system, and video retrieval method of video monitoring system

Publications (1)

Publication Number Publication Date
JP2016009896A true JP2016009896A (en) 2016-01-18

Family

ID=55227212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014127859A Pending JP2016009896A (en) 2014-06-23 2014-06-23 Video monitoring system, and video retrieval method of video monitoring system

Country Status (1)

Country Link
JP (1) JP2016009896A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018067837A (en) * 2016-10-20 2018-04-26 株式会社日立国際電気 Video surveillance system
JP2019210137A (en) * 2018-06-08 2019-12-12 株式会社日立ビルシステム Elevator system and elevator group management control method
CN111402286A (en) * 2018-12-27 2020-07-10 杭州海康威视系统技术有限公司 Target tracking method, device and system and electronic equipment
CN113554602A (en) * 2021-06-30 2021-10-26 西安翔迅科技有限责任公司 Fan variable-pitch bearing monitoring method
JP2023001996A (en) * 2021-06-22 2023-01-10 三菱電機株式会社 Supervisory control device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018067837A (en) * 2016-10-20 2018-04-26 株式会社日立国際電気 Video surveillance system
JP2019210137A (en) * 2018-06-08 2019-12-12 株式会社日立ビルシステム Elevator system and elevator group management control method
JP7078461B2 (en) 2018-06-08 2022-05-31 株式会社日立ビルシステム Elevator system and elevator group management control method
CN111402286A (en) * 2018-12-27 2020-07-10 杭州海康威视系统技术有限公司 Target tracking method, device and system and electronic equipment
CN111402286B (en) * 2018-12-27 2024-04-02 杭州海康威视系统技术有限公司 Target tracking method, device and system and electronic equipment
JP2023001996A (en) * 2021-06-22 2023-01-10 三菱電機株式会社 Supervisory control device
CN113554602A (en) * 2021-06-30 2021-10-26 西安翔迅科技有限责任公司 Fan variable-pitch bearing monitoring method

Similar Documents

Publication Publication Date Title
US11397502B2 (en) Systems and methods for bulk redaction of recorded data
EP2923487B1 (en) Method and system for metadata extraction from master-slave cameras tracking system
US10043079B2 (en) Method and apparatus for providing multi-video summary
US9406342B2 (en) Imaging apparatus and method of providing imaging information
US10999556B2 (en) System and method of video capture and search optimization
WO2015072631A1 (en) Image processing apparatus and method
KR20180022568A (en) Information processing apparatus, method thereof, and computer readable storage medium
JP6415061B2 (en) Display control apparatus, control method, and program
JP2016009896A (en) Video monitoring system, and video retrieval method of video monitoring system
KR101212082B1 (en) Image Recognition Apparatus and Vison Monitoring Method thereof
JP2004187115A (en) Monitoring systems and programs
US10719543B2 (en) Information processing apparatus, information processing method, and program
JP6980379B2 (en) Information processing equipment, information processing methods and programs
JP6661312B2 (en) Monitoring system, information processing method and program
KR101698864B1 (en) Media Being Recorded with the Program Executing Method for Detecting Image Using Metadata
JP2014236315A (en) IMAGING DEVICE, IMAGE PROCESSING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGE PROCESSING DEVICE CONTROL METHOD, PROGRAM
JP2020129763A (en) Video reproduction device, video reproduction method, and program
JP5665380B2 (en) Image processing apparatus, image processing apparatus control method, program, and recording medium
JP2013232056A (en) Display device, system, information processing method, and program
JP7099687B2 (en) Video surveillance system and its method and processing equipment
JP2013029591A (en) Image display device, image display method and program
JP2010278600A (en) Image processing device
JP2006325236A (en) Image data retrieval method and apparatus in surveillance recording apparatus