[go: up one dir, main page]

JP2018170574A - Monitoring system - Google Patents

Monitoring system Download PDF

Info

Publication number
JP2018170574A
JP2018170574A JP2017065009A JP2017065009A JP2018170574A JP 2018170574 A JP2018170574 A JP 2018170574A JP 2017065009 A JP2017065009 A JP 2017065009A JP 2017065009 A JP2017065009 A JP 2017065009A JP 2018170574 A JP2018170574 A JP 2018170574A
Authority
JP
Japan
Prior art keywords
priority
unit
monitor
monitoring
fixed camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017065009A
Other languages
Japanese (ja)
Other versions
JP6941458B2 (en
Inventor
秀行 青木
Hideyuki Aoki
秀行 青木
高橋 哲也
Tetsuya Takahashi
哲也 高橋
拓朗 田中
Takuro Tanaka
拓朗 田中
青木 文男
Fumio Aoki
文男 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2017065009A priority Critical patent/JP6941458B2/en
Publication of JP2018170574A publication Critical patent/JP2018170574A/en
Application granted granted Critical
Publication of JP6941458B2 publication Critical patent/JP6941458B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】監視エリアの映像に関する処理の負荷を小さくしたときに監視が不十分になることを抑制すること。【解決手段】監視員端末情報取得部201は、監視エリアの映像を撮影する各監視員端末10の位置情報を取得し、監視エリアにいる監視員の位置情報を取得する。固定カメラ情報取得部202は、監視エリアの映像を撮影する各固定カメラ40の位置情報を取得する。優先度判定部203は、取得された各撮影装置の位置情報と、取得された監視員の位置情報とに基づいて、複数の撮影装置(監視員端末10及び固定カメラ40)のそれぞれの優先度を判定する。処理決定部204は、監視エリアを撮影する映像に関する処理を、その映像を撮影する撮影装置について判定された優先度に応じて決定する。【選択図】図4PROBLEM TO BE SOLVED: To prevent insufficient monitoring when the processing load related to a video in a monitoring area is reduced. SOLUTION: A watchman terminal information acquisition unit 201 acquires the position information of each watchman terminal 10 that captures an image of a watch area, and acquires the position information of a watchman in the watch area. The fixed camera information acquisition unit 202 acquires the position information of each fixed camera 40 that captures the image of the monitoring area. The priority determination unit 203 sets the priority of each of the plurality of photographing devices (observer terminal 10 and fixed camera 40) based on the acquired position information of each photographing device and the acquired position information of the observer. To judge. The processing determination unit 204 determines the processing related to the image for photographing the monitoring area according to the priority determined for the photographing device for photographing the image. [Selection diagram] FIG. 4

Description

本発明は、監視を支援する技術に関する。   The present invention relates to a technique for supporting monitoring.

監視を支援する技術がある。例えば特許文献1には、映像信号の範囲に異常の発生を知らせる信号を検知したカメラ装置の映像信号を他のカメラ装置に優先して処理する技術が開示されている。   There are technologies that support monitoring. For example, Patent Document 1 discloses a technique for preferentially processing a video signal of a camera device that detects a signal notifying the occurrence of an abnormality in the range of the video signal over other camera devices.

特開平11−331818号公報JP-A-11-331818

複数の監視カメラが撮影した映像を用いて監視エリアを監視する場合、それらの映像についての通信や異常検出のための画像処理等の負荷が過大になると、処理が遅延して異常事象の発生に気付くのが遅れるおそれがある。かといって、それらの負荷を小さくすると、映像の画質が低くなったり映像に対する画像処理の所要時間が長くなったりして、監視が不十分になることがある。
そこで、本発明は、監視エリアの映像に関する処理の負荷を小さくしたときに監視が不十分になることを抑制することを目的とする。
When monitoring a surveillance area using videos taken by multiple surveillance cameras, if the load of image processing for communication or abnormality detection of those videos becomes excessive, processing will be delayed and an abnormal event may occur. It may be late to notice. However, if these loads are reduced, the image quality of the video may be lowered or the time required for image processing on the video may be increased, and monitoring may be insufficient.
Therefore, an object of the present invention is to suppress monitoring from becoming insufficient when the processing load relating to video in a monitoring area is reduced.

上記目的を達成するために、本発明は、監視エリアの映像を撮影する各撮影装置の位置情報を取得する第1取得手段と、前記監視エリアにいる監視者の位置情報を取得する第2取得手段と、取得された前記各撮影装置の位置情報及び前記監視者の位置情報に基づいて、前記撮影装置の優先度を判定する判定手段と、前記撮影装置について判定された前記優先度に応じて前記映像に関する処理を決定する決定手段とを備える監視システムを提供する。   In order to achieve the above object, the present invention provides a first acquisition unit that acquires position information of each imaging device that captures an image of a monitoring area, and a second acquisition that acquires position information of a monitor in the monitoring area. According to means, determination means for determining the priority of the imaging device based on the acquired positional information of each imaging device and the positional information of the supervisor, and the priority determined for the imaging device There is provided a monitoring system comprising: a determination unit that determines processing related to the video.

上記の監視システムにおいて、前記判定手段は、前記監視者と第1の位置関係にある第1撮影装置の優先度を、前記監視者と第1の位置関係にない場合に比べて低くしてもよい。
上記の監視システムにおいて、前記監視エリア内で発生した異常事象の発生場所を特定する特定手段を備え、前記判定手段は、特定された前記発生場所と第2の位置関係にある第2撮影装置の優先度を、当該発生場所と第2の位置関係にない場合に比べて高くしてもよい。
In the monitoring system, the determination unit may lower the priority of the first imaging device that is in the first positional relationship with the monitor compared to the case where the priority is not in the first positional relationship with the monitor. Good.
In the above monitoring system, the monitoring system includes a specifying unit that specifies a place where the abnormal event occurred in the monitoring area, and the determination unit includes a second imaging device that is in a second positional relationship with the specified generation place. The priority may be higher than that in the case where the priority is not in the second positional relationship with the occurrence location.

上記の監視システムにおいて、前記判定手段は、前記第2撮影装置が前記監視者と前記第1の位置関係にある場合、当該第2撮影装置の優先度を、前記監視者と前記第1の位置関係にない場合に比べて低くしなくてもよい。
上記の監視システムにおいて、前記判定手段は、前記第2撮影装置の優先度を、他の撮影装置に比べて低くしなくてもよい。
In the monitoring system, when the second imaging device is in the first positional relationship with the observer, the determination unit determines the priority of the second imaging device based on the priority of the second imaging device and the first position. It is not necessary to make it lower than when it is not related.
In the monitoring system, the determination unit may not lower the priority of the second imaging device compared to other imaging devices.

上記の監視システムにおいて、前記判定手段は、前記第1撮影装置の優先度を、前記監視者と前記第1の位置関係にない他の撮影装置に比べて低くしてもよい。
上記の監視システムにおいて、前記判定手段は、前記第1の位置関係にある前記監視者の人数が多いほど前記第1撮影装置の優先度を低くしてもよい。
In the monitoring system, the determination unit may lower the priority of the first imaging device compared to other imaging devices that are not in the first positional relationship with the monitor.
In the above monitoring system, the determination unit may lower the priority of the first imaging device as the number of the monitoring personnel in the first positional relationship increases.

本発明によれば、監視エリアの映像に関する処理の負荷を小さくしたときに監視が不十分になることを抑制することができる。   ADVANTAGE OF THE INVENTION According to this invention, it can suppress that monitoring becomes inadequate when the load of the process regarding the image | video of a monitoring area is made small.

実施例に係る監視システムの全体構成を表す図The figure showing the whole structure of the monitoring system which concerns on an Example 監視員に装着された監視員端末を表す図A figure showing the monitor terminal attached to the monitor 監視員端末のハードウェア構成を表す図A diagram showing the hardware configuration of an observer terminal 監視システムが実現する機能構成を表す図Diagram showing the functional configuration realized by the monitoring system 撮影用パラメータテーブルの一例を表す図The figure showing an example of the parameter table for photography 画像処理用パラメータテーブルの一例を表す図The figure showing an example of the parameter table for image processing 優先度処理における各装置の動作手順の一例を表す図The figure showing an example of the operation procedure of each apparatus in priority processing

[1]実施例
図1は実施例に係る監視システム1の全体構成を表す。監視システム1は、監視エリアにおける監視を支援するシステムである。監視エリアには監視員が配置されて現場での監視を行う。また、監視員を支援するためのオペレータが監視センタに常駐し、監視員と連絡を取りながら監視エリア内の状況について情報を提供したり監視すべき場所を指示したりする。監視システム1は、主としてこれら監視員及びオペレータによって利用される。
[1] Embodiment FIG. 1 shows an overall configuration of a monitoring system 1 according to an embodiment. The monitoring system 1 is a system that supports monitoring in a monitoring area. A monitoring person is assigned to the monitoring area to perform on-site monitoring. In addition, an operator for supporting the monitor is resident in the monitoring center, and provides information about the situation in the monitoring area and instructs a place to be monitored while contacting the monitor. The monitoring system 1 is mainly used by these monitoring personnel and operators.

監視システム1は、ネットワーク2と、イントラネット3と、複数の監視員端末10と、監視センタサーバ装置20と、オペレータ端末30と、複数の固定カメラ40とを備える。ネットワーク2は、移動体通信網及びインターネット等を含む通信システムであり、自システムに接続される装置同士のデータのやり取りを仲介する。ネットワーク2は、移動体通信を行う基地局及び無線LAN(Local Area Network)通信を行うアクセスポイント等の無線通信装置を備える。ネットワーク2には、監視員端末10及び固定カメラ40がこれらの無線通信装置と無線通信を行うことにより接続される。   The monitoring system 1 includes a network 2, an intranet 3, a plurality of monitor terminals 10, a monitoring center server device 20, an operator terminal 30, and a plurality of fixed cameras 40. The network 2 is a communication system including a mobile communication network and the Internet, and mediates exchange of data between devices connected to the own system. The network 2 includes a base station that performs mobile communication and a wireless communication device such as an access point that performs wireless local area network (LAN) communication. The supervisor terminal 10 and the fixed camera 40 are connected to the network 2 by performing wireless communication with these wireless communication devices.

イントラネット3は、例えばLAN及びWAN(Wide Area Network)を含む通信システムであり、自システムに接続される装置同士のデータのやり取りを仲介する。イントラネット3は、ネットワーク2に接続されている。また、イントラネット3には、監視センタサーバ装置20及びオペレータ端末30が接続されている。なお、イントラネット3との接続は有線通信及び無線通信のどちらでもよい。   The intranet 3 is a communication system including, for example, a LAN and a WAN (Wide Area Network), and mediates data exchange between devices connected to the own system. The intranet 3 is connected to the network 2. A monitoring center server device 20 and an operator terminal 30 are connected to the intranet 3. The connection with the intranet 3 may be either wired communication or wireless communication.

固定カメラ40は、監視エリアの現場に設置されて周囲の映像、すなわち監視エリアの映像を撮影する装置であり、本発明の「撮影装置」の一例である。本発明でいう「映像」には、静止画像及び動画像のどちらも含まれ得るが、以下では動画像である場合を説明する。固定カメラ40は、撮影した映像を監視センタサーバ装置20に送信する。なお、映像を送信するとは、映像を示すデータを送信することを意味する。以下でも、各種の情報に対して送信等の処理を行うことは、それらの情報を示すデータに対して処理を行うことを意味する。   The fixed camera 40 is a device that is installed at the site of the monitoring area and captures surrounding images, that is, images of the monitoring area, and is an example of the “imaging device” of the present invention. The “video” referred to in the present invention can include both still images and moving images. Hereinafter, the case of moving images will be described. The fixed camera 40 transmits the captured video to the monitoring center server device 20. Note that transmitting video means transmitting data indicating the video. In the following, performing processing such as transmission on various types of information means performing processing on data indicating the information.

固定カメラ40は、映像の撮影に関連する撮影関連処理において、解像度(画素数)、フレームレート、画像伝送レート(伝送速度)、圧縮率、圧縮方式等の設定事項を変更できる機能を有している。設定事項とは、コンピュータが処理(この例では撮影関連処理)を実行する際の動作の詳細な態様(どのようにその処理を行うか)を規定するために定められる情報のことであり、パラメータとも呼ばれる。   The fixed camera 40 has a function capable of changing setting items such as resolution (number of pixels), frame rate, image transmission rate (transmission speed), compression rate, compression method, etc. in shooting-related processing related to video shooting. Yes. The setting items are information that is defined in order to define the detailed mode of operation (how to perform the process) when the computer executes the process (in this example, the shooting-related process). Also called.

以下では撮影関連処理で用いられる前述した各設定事項のことを「撮影用パラメータ」という。固定カメラ40は、定められた撮影用パラメータに基づいて撮影関連処理を行う。例えば解像度(画素数)が640×480=約30.7万画素と定められていれば、固定カメラ40は、画素数が640×480の映像を撮影する。   Hereinafter, each of the setting items used in the shooting-related processing is referred to as “shooting parameter”. The fixed camera 40 performs shooting-related processing based on the set shooting parameters. For example, if the resolution (number of pixels) is determined to be 640 × 480 = about 307,000 pixels, the fixed camera 40 captures an image with the number of pixels of 640 × 480.

固定カメラ40は、例えば、撮影開始時は予め定められた初期の撮影用パラメータ又は前回の撮影終了時の撮影用パラメータに基づいて撮影関連処理を行う。また、固定カメラ40は、外部装置(本実施例では監視センタサーバ装置20)から使用する撮影用パラメータを指示されると、指示された撮影用パラメータに基づいて撮影関連処理を行う。また、固定カメラ40は、パン・チルト・ズーム機能を有し、オペレータ端末30や監視員端末10からの遠隔操作により制御可能としてもよい。   For example, the fixed camera 40 performs a shooting-related process at the start of shooting based on a predetermined initial shooting parameter or a shooting parameter at the end of the previous shooting. In addition, when the fixed camera 40 is instructed by the external device (in this embodiment, the monitoring center server device 20) the shooting parameter to be used, the fixed camera 40 performs a shooting-related process based on the instructed shooting parameter. The fixed camera 40 may have a pan / tilt / zoom function and may be controlled by remote operation from the operator terminal 30 or the monitor terminal 10.

固定カメラ40が送信した映像は、監視センタの画面に表示され、オペレータはその画面を見ながら監視エリアの状況を確認する。映像が高画質であるほど詳細な状況まで確認することができるが、高画質な映像はデータ量も多いので、固定カメラ40が行う無線通信に遅延が生じやすくなる。そこで、監視システム1においては、全ての映像の画質を高くするのではなく、監視エリアにおいて優先度が高い撮影装置の映像の画質を、他の映像よりも高くする。   The video transmitted by the fixed camera 40 is displayed on the screen of the monitoring center, and the operator confirms the status of the monitoring area while viewing the screen. The more detailed the video, the more detailed the situation can be confirmed. However, since the high-quality video has a large amount of data, the wireless communication performed by the fixed camera 40 is likely to be delayed. Therefore, in the monitoring system 1, the image quality of the imaging device having a high priority in the monitoring area is set higher than that of the other images, instead of increasing the image quality of all the videos.

監視員端末10は、監視エリアの現場に配置される監視員が所持して持ち運ぶ端末である。監視員端末10は、例えばスマートフォンであるが、本システム専用に作られた端末であってもよい。
図2は監視員に装着された監視員端末10を表す。図2では、監視員A1が端末ケース5を身体に固定している。端末ケース5は、監視員端末10を格納する入れ物であり、バンドにより監視員の身体(詳細には胸部)に固定されている。
The supervisor terminal 10 is a terminal that is carried and carried by a supervisor arranged at the site of the surveillance area. The supervisor terminal 10 is, for example, a smartphone, but may be a terminal made exclusively for this system.
FIG. 2 shows the monitor terminal 10 attached to the monitor. In FIG. 2, the supervisor A1 fixes the terminal case 5 to the body. The terminal case 5 is a container for storing the monitor terminal 10, and is fixed to the body (in detail, the chest) of the monitor by a band.

監視員端末10は、周囲の映像、すなわち監視エリアの映像を撮影する撮影手段を備えている。監視員端末10は本発明の「撮影装置」の一例でもある。端末ケース5は、自ケースに監視員端末10が格納された場合に撮影手段のレンズの位置する部分が透明になっている(孔が空いていてもよい)。監視員の胸部に装着された監視員端末10は、監視員の前方の映像を撮影する。   The supervisor terminal 10 is provided with photographing means for photographing the surrounding video, that is, the video of the monitoring area. The supervisor terminal 10 is also an example of the “imaging device” of the present invention. In the terminal case 5, when the supervisor terminal 10 is stored in the own case, a portion where the lens of the photographing unit is located is transparent (a hole may be formed). The monitor terminal 10 attached to the chest of the monitor takes a video in front of the monitor.

監視員端末10の撮影手段は、上述した撮影用パラメータを変更できる機能を有する。この撮影用パラメータも、固定カメラ40と同様に、監視センタサーバ装置20によって決定される。また、監視員端末10は、GPS(Global Positioning System)等の自装置の位置の測定手段も備えている。監視員端末10は、撮影手段が撮影した映像と、測位手段による位置の測定結果とを監視センタサーバ装置20に送信する。   The photographing means of the monitor terminal 10 has a function capable of changing the above-described photographing parameters. The photographing parameters are also determined by the monitoring center server device 20 as with the fixed camera 40. The supervisor terminal 10 is also provided with a measuring means for measuring the position of the own device such as a GPS (Global Positioning System). The supervisor terminal 10 transmits the video imaged by the imaging means and the position measurement result by the positioning means to the monitoring center server device 20.

監視センタサーバ装置20は、監視エリアの監視状況を管理するための各種の処理を実行する情報処理装置である。監視センタサーバ装置20は、例えば、送信されてきた映像に対して画像処理を行い、監視エリアでの異常事象の発生を検出する。ここでいう異常事象とは、監視エリアにおいて発生する事象のうち、周囲の人の安全を脅かしたり迷惑になったりするなどの理由で、監視員が何らかの対応(関係者への連絡や事態を収束するための対処など)を行う対象となる事象のことであり、単に異常又は事案と呼ばれることもある。   The monitoring center server device 20 is an information processing device that executes various processes for managing the monitoring status of the monitoring area. For example, the monitoring center server device 20 performs image processing on the transmitted video and detects the occurrence of an abnormal event in the monitoring area. An abnormal event here refers to an event that occurs in the monitoring area, which threatens the safety of surrounding people or is annoyed by the monitoring personnel (for example, convergence of the communication with related parties and the situation) Event, etc.), and may simply be called an abnormality or a case.

具体的には、例えば、不審者の出現、不審物の発見、立ち入り禁止エリアへの立ち入り、道路への飛び出し、怪我人の発生、事故の発生及びケンカの発生等が異常事象に含まれる。監視センタサーバ装置20は、異常事象の発生を検出すると、その旨を示す報知情報をオペレータ端末30に送信することで、オペレータへの報知を行う。   Specifically, for example, the appearance of a suspicious person, the discovery of a suspicious object, the entry to a prohibited entry area, the jump to the road, the occurrence of an injured person, the occurrence of an accident, the occurrence of a fight, etc. are included in the abnormal events. When the monitoring center server device 20 detects the occurrence of an abnormal event, the monitoring center server device 20 notifies the operator by transmitting notification information indicating that fact to the operator terminal 30.

オペレータ端末30は、監視センタのオペレータによって使用される端末である。オペレータ端末30は、監視センタサーバ装置20から送信されてきた報知情報を例えば表示手段に表示することで、監視エリアでの異常事象の発生をオペレータに報知する。この報知によって異常事象の発生に気付いたオペレータは、異常事象の発生を監視の責任者に伝えたり、監視員と連絡を取って、発生した異常事象への対応を指示したりする。   The operator terminal 30 is a terminal used by the operator of the monitoring center. The operator terminal 30 notifies the operator of the occurrence of an abnormal event in the monitoring area by displaying notification information transmitted from the monitoring center server device 20 on, for example, a display unit. The operator who notices the occurrence of the abnormal event by this notification notifies the person in charge of the monitoring of the occurrence of the abnormal event, or contacts the monitor to instruct the response to the generated abnormal event.

監視センタサーバ装置20には、監視エリア内を撮影する全ての固定カメラ40及び監視員端末10から映像が送信されてくるため、全ての映像に対して画像処理に用いるリソース(CPU((Central Processing Unit))及びメモリ等)を均等に割り当てると、1つの映像当たりのリソース量が少なくなる。その結果、仮に異常事象が発生してもそれを検出するまでに要する時間が長くなり、異常事象への対応が遅くなるおそれがある。   The monitoring center server device 20 receives images from all the fixed cameras 40 and the monitor terminal 10 that take images in the monitoring area. Therefore, the resources (CPU (Central Processing) used for image processing for all the images are transmitted to the monitoring center server device 20. Unit)) and memory etc. are allocated equally, the amount of resources per video is reduced. As a result, even if an abnormal event occurs, the time required to detect it becomes longer, and the response to the abnormal event may be delayed.

対応の遅れをなくすためには、全ての映像に十分な量のリソースを割り当てることが望ましいが、費用等の制限からそこまでのリソースを用意することは難しい。そこで、監視システム1においては、監視エリア内の重要な箇所を撮影した映像に他の映像よりもリソース量を多く割り当てて、重要な箇所における異常事象の発生をより早く検出できるようにする。そして、そのための画像処理に関する設定事項(パラメータ)が、監視センタサーバ装置20によって決定される。この設定事項のことを以下では「画像処理用パラメータ」という。   In order to eliminate the delay in the response, it is desirable to allocate a sufficient amount of resources to all the videos, but it is difficult to prepare the resources up to that because of cost limitations. In view of this, in the monitoring system 1, a larger amount of resources is assigned to a video obtained by capturing an important part in the monitoring area than other videos, so that the occurrence of an abnormal event at the important part can be detected earlier. Then, setting items (parameters) related to image processing for that purpose are determined by the monitoring center server device 20. This setting item is hereinafter referred to as “image processing parameter”.

図3は監視員端末10のハードウェア構成を表す。監視員端末10は、プロセッサ11と、メモリ12と、ストレージ13と、通信装置14と、入力装置15と、出力装置16と、撮影装置17と、測位装置18とを備えるコンピュータである。プロセッサ11は、CPU等を備え、オペレーティングシステムを動作させてコンピュータ全体を制御する機能を有するデバイスである。プロセッサ11は、プログラム及びデータ等をストレージ13及び通信装置14からメモリ12に読み出し、これらに従って各種の処理を実行する。   FIG. 3 shows the hardware configuration of the supervisor terminal 10. The supervisor terminal 10 is a computer including a processor 11, a memory 12, a storage 13, a communication device 14, an input device 15, an output device 16, an imaging device 17, and a positioning device 18. The processor 11 is a device that includes a CPU and the like and has a function of operating an operating system to control the entire computer. The processor 11 reads a program, data, and the like from the storage 13 and the communication device 14 to the memory 12, and executes various processes according to these.

メモリ12は、プロセッサ11が読み取り可能なデータを記憶する機能を有する記録デバイスであり、例えばROM(Read Only Memory)及びRAM(Random Access Memory)等である。ストレージ13は、プロセッサ11が読み取り可能なデータを記憶する機能を有する記録デバイスであり、例えばハードディスクドライブ及びフラッシュメモリ等である。通信装置14は、有線ネットワーク又は/及び無線ネットワークを介してコンピュータ間の通信を行う機能を有する通信デバイスである。監視員端末10においては、通信装置14が、例えば移動体通信又は無線LANの規格に準拠した無線通信を行う。   The memory 12 is a recording device having a function of storing data that can be read by the processor 11, and is a ROM (Read Only Memory), a RAM (Random Access Memory), or the like, for example. The storage 13 is a recording device having a function of storing data that can be read by the processor 11, and is, for example, a hard disk drive or a flash memory. The communication device 14 is a communication device having a function of performing communication between computers via a wired network and / or a wireless network. In the monitor terminal 10, the communication device 14 performs wireless communication based on, for example, mobile communication or wireless LAN standards.

入力装置15は、外部からの入力を受け付ける機能を有する入力デバイスである。監視員端末10においては、入力装置15が、例えばタッチセンサ、ボタン及びマイクロフォン等を備える。出力装置16は、外部への出力を実施する機能を有する出力デバイスである。監視員端末10においては、出力装置16が、ディスプレイを備え、入力装置15のタッチセンサ及び出力装置16のディスプレイが一体となってタッチスクリーンを構成する。   The input device 15 is an input device having a function of receiving input from the outside. In the monitor terminal 10, the input device 15 includes, for example, a touch sensor, a button, a microphone, and the like. The output device 16 is an output device having a function of performing output to the outside. In the supervisor terminal 10, the output device 16 includes a display, and the touch sensor of the input device 15 and the display of the output device 16 constitute a touch screen.

撮影装置17は、周囲の映像を撮影するデバイスである。撮影装置17は、上述した撮影用パラメータに基づいて映像を撮影し、撮影した映像をプロセッサ11に供給する。測位装置18は、例えば、GPS衛星からの信号を用いて自身の位置を測定し、測定した位置を示す位置情報(緯度及び経度を示す情報)をプロセッサ11に供給する。   The imaging device 17 is a device that captures surrounding video. The imaging device 17 captures a video based on the above-described shooting parameters, and supplies the captured video to the processor 11. For example, the positioning device 18 measures its own position using a signal from a GPS satellite, and supplies position information (information indicating latitude and longitude) indicating the measured position to the processor 11.

監視センタサーバ装置20は、プロセッサと、メモリと、ストレージと、通信装置とを備えるコンピュータである。これらはいずれも、図3に表す同名の各装置と機能が共通するデバイスである。監視センタサーバ装置20においては、通信装置が、有線LANの規格に準拠した有線通信を行う(無線通信を行ってもよい)。   The monitoring center server device 20 is a computer including a processor, a memory, a storage, and a communication device. These are all devices having the same functions as the devices of the same name shown in FIG. In the monitoring center server device 20, the communication device performs wired communication conforming to the standard of wired LAN (wireless communication may be performed).

オペレータ端末30は、プロセッサと、メモリと、ストレージと、通信装置と、入力装置と、出力装置とを備えるコンピュータである。これらはいずれも、図3に表す同名の各装置と機能が共通するデバイスである。オペレータ端末30においては、通信装置が、有線LANの規格に準拠した有線通信を行い(無線通信を行ってもよい)、また、入力装置が、キーボード、マウス及びマイクロフォン等を備える。   The operator terminal 30 is a computer that includes a processor, a memory, a storage, a communication device, an input device, and an output device. These are all devices having the same functions as the devices of the same name shown in FIG. In the operator terminal 30, the communication device performs wired communication based on the standard of the wired LAN (wireless communication may be performed), and the input device includes a keyboard, a mouse, a microphone, and the like.

固定カメラ40は、プロセッサと、メモリと、ストレージと、通信装置と、撮影装置とを備えるコンピュータである。これらはいずれも、図3に表す同名の各装置と機能が共通するデバイスである。   The fixed camera 40 is a computer including a processor, a memory, a storage, a communication device, and a photographing device. These are all devices having the same functions as the devices of the same name shown in FIG.

監視システム1が備える各装置のプロセッサがプログラムを実行して各部を制御することで、以下に述べる機能が実現される。
図4は監視システム1が実現する機能構成を表す。なお、図4では、監視員端末10及び固定カメラ40がそれぞれ1つしか表されていないが、他の監視員端末10及び固定カメラ40も同じ機能構成を備えている。
The functions described below are realized by the processor of each device included in the monitoring system 1 executing a program to control each unit.
FIG. 4 shows a functional configuration realized by the monitoring system 1. In FIG. 4, only one observer terminal 10 and one fixed camera 40 are shown, but the other observer terminals 10 and fixed cameras 40 also have the same functional configuration.

監視員端末10は、測位部101と、位置情報送信部102と、撮影部103と、映像送信部104と、撮影動作制御部105とを備える。監視センタサーバ装置20は、監視員端末情報取得部201と、固定カメラ情報取得部202と、優先度判定部203と、処理決定部204と、撮影指示部205と、画像処理動作制御部206と、画像処理部207と、報知部208と、発生場所特定部209とを備える。オペレータ端末30は、報知情報表示部301を備える。固定カメラ40は、撮影部401と、映像送信部402と、撮影動作制御部403とを備える。   The monitor terminal 10 includes a positioning unit 101, a position information transmission unit 102, a photographing unit 103, a video transmission unit 104, and a photographing operation control unit 105. The monitoring center server device 20 includes a monitor terminal information acquisition unit 201, a fixed camera information acquisition unit 202, a priority determination unit 203, a processing determination unit 204, a photographing instruction unit 205, and an image processing operation control unit 206. , An image processing unit 207, a notification unit 208, and an occurrence location specifying unit 209. The operator terminal 30 includes a notification information display unit 301. The fixed camera 40 includes an imaging unit 401, a video transmission unit 402, and an imaging operation control unit 403.

監視員端末10の測位部101は、自装置の位置を繰り返し測定する。測位部101は、例えば、一定時間の間隔(1秒毎など)で自装置の位置を測定し、測定した位置を示す位置情報を位置情報送信部102に供給する。位置情報送信部102は、測位部101により測定された自装置の位置を示す位置情報を監視センタサーバ装置20に送信する。監視員端末10は自装置を識別する情報として装置ID(Identification)を記憶している。位置情報送信部102は、位置情報が供給される度にその位置情報を装置IDと共に監視センタサーバ装置20に送信する。   The positioning unit 101 of the monitor terminal 10 repeatedly measures the position of the own device. For example, the positioning unit 101 measures the position of its own device at regular time intervals (such as every second) and supplies position information indicating the measured position to the position information transmission unit 102. The position information transmission unit 102 transmits position information indicating the position of the own device measured by the positioning unit 101 to the monitoring center server device 20. The monitor terminal 10 stores a device ID (Identification) as information for identifying the device itself. The position information transmission unit 102 transmits the position information together with the apparatus ID to the monitoring center server apparatus 20 every time the position information is supplied.

撮影部103は、自装置の周囲の映像を撮影する。撮影部103は、後述する撮影動作制御部105により制御されて、定められた撮影用パラメータ(解像度、フレームレート)に基づいて撮影を行う。撮影部103は、映像を撮影しながら、並行して、撮影済みの映像を映像送信部104に供給する。映像送信部104は、撮影部103により撮影された自装置の周囲の映像を監視センタサーバ装置20に送信する。   The imaging unit 103 captures a video around the device. The photographing unit 103 is controlled by a photographing operation control unit 105 described later, and performs photographing based on predetermined photographing parameters (resolution, frame rate). The imaging unit 103 supplies the captured video to the video transmission unit 104 in parallel while capturing the video. The video transmission unit 104 transmits the video around the own device captured by the imaging unit 103 to the monitoring center server device 20.

映像送信部104は、後述する撮影動作制御部105により制御されて、定められた撮影用パラメータ(画像伝送レート)に基づいて映像を送信する。また、映像送信部104は、自装置の装置IDを含むメタデータを映像に付与して送信する。撮影部103及び映像送信部104は、ストリーミングの技術を用いて映像の撮影及び送信を並行して行う。撮影部103及び映像送信部104は、このようにして監視エリアの映像を撮影する撮影関連処理を行う。   The video transmission unit 104 is controlled by a shooting operation control unit 105 described later, and transmits a video based on a predetermined shooting parameter (image transmission rate). In addition, the video transmission unit 104 adds metadata including the device ID of the own device to the video and transmits the video. The imaging unit 103 and the video transmission unit 104 perform video imaging and transmission in parallel using streaming technology. The imaging unit 103 and the video transmission unit 104 perform imaging-related processing for imaging the video in the monitoring area in this way.

撮影動作制御部105は、撮影部103及び映像送信部104による撮影に関する動作を制御する。撮影動作制御部105は、例えば、予め定められた初期の撮影用パラメータ(解像度、フレームレート及び画像伝送レート等の初期値)を記憶しておき、その撮影用パラメータを用いて撮影関連処理を行うよう撮影部103及び映像送信部104を制御する。   The shooting operation control unit 105 controls operations related to shooting by the shooting unit 103 and the video transmission unit 104. The shooting operation control unit 105 stores, for example, predetermined initial shooting parameters (initial values such as resolution, frame rate, and image transmission rate), and performs shooting-related processing using the shooting parameters. The imaging unit 103 and the video transmission unit 104 are controlled.

固定カメラ40の撮影部401は、自カメラの周囲の映像を撮影する。映像送信部402は、撮影部401により撮影された自カメラの周囲の映像を監視センタサーバ装置20に送信する。撮影動作制御部403は、撮影部401及び映像送信部402による撮影に関する動作を制御する。撮影部401、映像送信部402、撮影動作制御部403は、監視員端末10の撮影部103、映像送信部104、撮影動作制御部105と同じ機能である。   The imaging unit 401 of the fixed camera 40 captures an image around the own camera. The video transmission unit 402 transmits the video around the own camera photographed by the photographing unit 401 to the monitoring center server device 20. The shooting operation control unit 403 controls operations related to shooting by the shooting unit 401 and the video transmission unit 402. The imaging unit 401, the video transmission unit 402, and the imaging operation control unit 403 have the same functions as the imaging unit 103, the video transmission unit 104, and the imaging operation control unit 105 of the supervisor terminal 10.

監視センタサーバ装置20の監視員端末情報取得部201は、監視員端末10の位置情報送信部102から送信されてきた位置情報及び装置IDと、監視員端末10の映像送信部104から送信されてきた映像及び装置IDとを、この装置IDが示す監視員端末10に関する情報(監視員端末情報)として取得する。つまり、監視員端末情報取得部201は、監視エリアの映像を撮影する各撮影装置(監視員端末10)の位置情報を取得する手段であり、本発明の「第1取得手段」の一例である。   The supervisor terminal information acquisition unit 201 of the monitoring center server device 20 receives the position information and device ID transmitted from the positional information transmitter 102 of the supervisor terminal 10 and the video transmitter 104 of the supervisor terminal 10. The acquired video and device ID are acquired as information (monitorer terminal information) regarding the monitor terminal 10 indicated by the device ID. That is, the supervisor terminal information acquisition unit 201 is means for acquiring position information of each imaging device (monitorer terminal 10) that captures video in the monitoring area, and is an example of the “first acquisition means” in the present invention. .

また、監視員端末10は監視員に装着されているから、監視員端末10の位置情報は監視員の位置情報とみなすことができる。つまり、監視員端末情報取得部201は、監視エリアにいる監視員の位置情報を取得する手段でもあり、本発明の「第2取得手段」の一例である。監視員端末情報取得部201は、取得した監視員端末情報を優先度判定部203及び画像処理部207に供給する。   Further, since the monitor terminal 10 is attached to the monitor, the position information of the monitor terminal 10 can be regarded as the position information of the monitor. That is, the monitor terminal information acquisition unit 201 is also a unit that acquires the position information of the monitor in the monitoring area, and is an example of the “second acquisition unit” in the present invention. The monitor terminal information acquisition unit 201 supplies the acquired monitor terminal information to the priority determination unit 203 and the image processing unit 207.

固定カメラ情報取得部202は、固定カメラ40の映像送信部402から送信されてきた映像及び装置IDを、この装置IDが示す固定カメラ40に関する情報(固定カメラ情報)として取得する。また、固定カメラ情報取得部202は、装置IDとその装置IDが示す固定カメラ40の位置情報とを対応付けたリストである位置情報リストを記憶している。これらの位置情報は、該当する固定カメラ40の設置時等に、設置位置の緯度経度情報等を測定して取得しておく。固定カメラ情報取得部202は、取得した装置IDに位置情報リストで対応付けられている位置情報を、固定カメラ情報として取得する。   The fixed camera information acquisition unit 202 acquires the video and device ID transmitted from the video transmission unit 402 of the fixed camera 40 as information (fixed camera information) related to the fixed camera 40 indicated by the device ID. Further, the fixed camera information acquisition unit 202 stores a position information list that is a list in which a device ID and position information of the fixed camera 40 indicated by the device ID are associated with each other. These pieces of position information are obtained by measuring the latitude and longitude information of the installation position when the corresponding fixed camera 40 is installed. The fixed camera information acquisition unit 202 acquires position information associated with the acquired device ID in the position information list as fixed camera information.

つまり、固定カメラ情報取得部202は、監視エリアの映像を撮影する各撮影装置(固定カメラ40)の位置情報を取得する手段であり、本発明の「第1取得手段」の一例である。なお、各固定カメラ40が、自装置の位置情報を記憶しておき、その位置情報を映像と共に送信して、固定カメラ情報取得部202がその映像及び位置情報を固定カメラ情報として取得してもよい。固定カメラ情報取得部202は、取得した固定カメラ情報を優先度判定部203及び画像処理部207に供給する。   That is, the fixed camera information acquisition unit 202 is a unit that acquires position information of each imaging device (fixed camera 40) that captures video in the monitoring area, and is an example of the “first acquisition unit” of the present invention. Each fixed camera 40 stores the position information of its own device, transmits the position information together with the video, and the fixed camera information acquisition unit 202 acquires the video and the position information as the fixed camera information. Good. The fixed camera information acquisition unit 202 supplies the acquired fixed camera information to the priority determination unit 203 and the image processing unit 207.

優先度判定部203は、監視員端末情報取得部201及び固定カメラ情報取得部202により取得された各撮影装置の位置情報と、監視員端末情報取得部201により取得された監視員の位置情報とに基づいて、複数の撮影装置(監視員端末10及び固定カメラ40)のそれぞれの優先度を判定する。優先度判定部203は本発明の「判定手段」の一例である。監視システム1においては、この優先度が高い撮影装置ほど、監視の観点で重要な映像を撮影しているとみなし、その映像から監視エリアの状況を把握しやすくしたり、異常事象の発生を早く見つけられるようにしたりする。   The priority determination unit 203 includes the position information of each photographing apparatus acquired by the monitor terminal information acquisition unit 201 and the fixed camera information acquisition unit 202, and the position information of the monitor acquired by the monitor terminal information acquisition unit 201. Based on the above, the priority of each of the plurality of imaging devices (monitor terminal 10 and fixed camera 40) is determined. The priority determination unit 203 is an example of the “determination unit” in the present invention. In the monitoring system 1, it is considered that the higher the priority of the imaging device, the more important video is taken from the viewpoint of monitoring, and it is easier to grasp the situation of the monitoring area from the video, or the occurrence of the abnormal event is accelerated. To be found.

優先度判定部203は、本実施例では、監視員端末10についての優先度と、固定カメラ40についての優先度を別々に判定する。以下ではまず、固定カメラ40の優先度の判定方法として、3つの判定方法について説明する。撮影装置の優先度は、一例として「1」から「5」までの5段階で表せられるものとする(ここでは「1」が最も優先度が高いものとする)。   In this embodiment, the priority determination unit 203 determines the priority for the monitor terminal 10 and the priority for the fixed camera 40 separately. In the following, first, three determination methods will be described as methods for determining the priority of the fixed camera 40. As an example, the priority of the photographing apparatus can be expressed in five stages from “1” to “5” (here, “1” has the highest priority).

第1の判定方法では、優先度判定部203は、監視員と第1の位置関係にある固定カメラ40の優先度を、当該固定カメラ40が監視員と第1の位置関係にない場合の優先度に比べて低くする。この場合の固定カメラ40のように監視員と第1の位置関係にある撮影装置は本発明の「第1撮影装置」の一例である。第1の位置関係とは、例えば、固定カメラ40が監視員から所定の距離(例えば10m)の範囲にある位置関係又は監視員が固定カメラ40から所定の距離の範囲にある位置関係である。   In the first determination method, the priority determination unit 203 determines the priority of the fixed camera 40 that is in the first positional relationship with the monitor, and the priority when the fixed camera 40 is not in the first positional relationship with the monitor. Lower than the degree. The imaging device in the first positional relationship with the monitor like the fixed camera 40 in this case is an example of the “first imaging device” in the present invention. The first positional relationship is, for example, a positional relationship in which the fixed camera 40 is within a predetermined distance (for example, 10 m) from the monitor or a positional relationship in which the monitor is within a predetermined distance from the fixed camera 40.

つまり、優先度判定部203は、監視員が近くにいる固定カメラ40の優先度を、監視員が近くにいない場合に比べて低くする。例えば或る監視エリアにおいては、3台の固定カメラ40の初期の優先度が設置場所の重要度に応じて「2」、「3」、「4」にそれぞれ定められているものとする。優先度判定部203は、第1の判定方法を用いた場合、例えば監視員が近くにいない場合において優先度が「2」の固定カメラ40について、当該固定カメラ40から所定の距離の範囲内に監視員が進入し、当該固定カメラ40が監視員と第1の位置関係になった場合、監視員と第1の位置関係にない場合の優先度(つまり「2」)よりも低い「3」又はそれ以下の優先度をその固定カメラ40の優先度とする。   That is, the priority determination unit 203 lowers the priority of the fixed camera 40 in which the monitor is close compared to the case where the monitor is not close. For example, in a certain monitoring area, it is assumed that the initial priorities of the three fixed cameras 40 are respectively set to “2”, “3”, and “4” according to the importance of the installation location. For example, when the first determination method is used, the priority determination unit 203 sets the fixed camera 40 with a priority “2” within a predetermined distance from the fixed camera 40 when the monitor is not nearby. When the observer enters and the fixed camera 40 is in the first positional relationship with the observer, “3” is lower than the priority (that is, “2”) when the first camera is not in the first positional relationship with the observer. Alternatively, the priority lower than that is set as the priority of the fixed camera 40.

第2の判定方法では、優先度判定部203は、監視員と第1の位置関係にある固定カメラ40の優先度を、監視員と第1の位置関係にない固定カメラ40の優先度に比べて低く判定する。例えば前述した監視エリアにおいて、優先度が「2」の固定カメラ40が監視員と第1の位置関係にあり、優先度が「4」の固定カメラ40が監視員と第1の位置関係になかったとすると、優先度判定部203は、第2の判定方法を用いて、前者の固定カメラ40の優先度を後者の固定カメラ40の優先度(「4」)よりも低い「5」と判定する。   In the second determination method, the priority determination unit 203 compares the priority of the fixed camera 40 that is in the first positional relationship with the observer with the priority of the fixed camera 40 that is not in the first positional relationship with the observer. And judge low. For example, in the monitoring area described above, the fixed camera 40 with the priority “2” is in the first positional relationship with the monitor, and the fixed camera 40 with the priority “4” is not in the first positional relationship with the monitor. If so, the priority determination unit 203 uses the second determination method to determine that the priority of the former fixed camera 40 is “5”, which is lower than the priority (“4”) of the latter fixed camera 40. .

なお、この場合に、第1の判定方法だけを用いれば、優先度判定部203は、優先度が「2」であった前者の固定カメラ40の優先度を、「5」と判定してもよいが、「2」よりも低ければよいので、「3」又は「4」と判定してもよい。一方、優先度が「4」の固定カメラ40が監視員と第1の位置関係にあり、優先度が「2」の固定カメラ40が監視員と第1の位置関係になかったとすると、優先度判定部203は、第2の判定方法だけを用いた場合、前者の固定カメラ40の優先度(「4」)が後者の固定カメラ40の優先度(「2」)よりも既に低いため、そのまま変更せずに「4」と判定してもよい。   In this case, if only the first determination method is used, the priority determination unit 203 may determine that the priority of the former fixed camera 40 having the priority “2” is “5”. However, since it may be lower than “2”, it may be determined as “3” or “4”. On the other hand, if the fixed camera 40 with the priority “4” is in the first positional relationship with the monitor, and the fixed camera 40 with the priority “2” is not in the first positional relationship with the monitor, the priority is When only the second determination method is used, the determination unit 203 has the priority (“4”) of the former fixed camera 40 that is already lower than the priority (“2”) of the latter fixed camera 40. You may determine with "4", without changing.

第3の判定方法では、優先度判定部203は、第1の位置関係にある監視員の人数が多い固定カメラ40ほど優先度を低く判定する。例えば前述した監視エリアにおいて、優先度判定部203は、優先度が「2」の固定カメラ40が1人の監視員と第1の位置関係にある場合にはその固定カメラ40の優先度を「3」と判定し、その固定カメラ40が2人の監視員と第1の位置関係にある場合にはその固定カメラ40の優先度を「4」と判定する。   In the third determination method, the priority determination unit 203 determines a lower priority for the fixed camera 40 having a larger number of monitoring personnel in the first positional relationship. For example, in the monitoring area described above, when the fixed camera 40 with the priority “2” is in the first positional relationship with one monitor, the priority determination unit 203 sets the priority of the fixed camera 40 to “ If the fixed camera 40 is in the first positional relationship with the two monitoring personnel, the priority of the fixed camera 40 is determined as “4”.

いずれの判定方法でも、優先度をそれ以上低くできない場合(例えば優先度が「5」の固定カメラ40が監視員と第1の位置関係にある場合)には、優先度判定部203は、最も低い優先度を判定する。優先度判定部203は、第1の判定方法及び第2の判定方法のうちのいずれか又は両方を用いて判定を行い、それに加えて第3の判定方法も用いて判定を行ってもよい。   In any of the determination methods, when the priority cannot be lowered any further (for example, when the fixed camera 40 with the priority “5” is in the first positional relationship with the monitor), the priority determination unit 203 is the most Determine low priority. The priority determination unit 203 may perform determination using one or both of the first determination method and the second determination method, and may also perform determination using a third determination method.

上記では固定カメラ40の優先度の判定方法について説明したが、監視員端末10についても優先度を判定方法するようにしてもよい。監視員端末10の場合、最低でも1人の監視員が第1の位置関係になるため、監視員端末10を装着している監視員は存在しないものとして判定する。即ち、監視員端末10と、当該監視員端末10を装着している監視員以外の別の監視員との位置関係で判定するようにしてよい。この場合に、別の監視員が監視員端末10を装着しているか否かは問わない。   Although the method for determining the priority of the fixed camera 40 has been described above, the method for determining the priority may also be used for the supervisor terminal 10. In the case of the monitor terminal 10, since at least one monitor is in the first positional relationship, it is determined that there is no monitor wearing the monitor terminal 10. That is, the determination may be made based on the positional relationship between the monitor terminal 10 and another monitor other than the monitor wearing the monitor terminal 10. In this case, it does not matter whether another monitor is wearing the monitor terminal 10 or not.

優先度判定部203は、上述した固定カメラ40の場合と同様に、第1から第3の判定方法を用いて監視員端末10の優先度を判定する。優先度判定部203は、例えば一定時間毎(10秒毎など)に、全ての撮影装置について上記のとおり判定を行う。優先度判定部203は、判定した優先度を、判定対象の撮影装置の装置IDに対応付けて処理決定部204に供給する。   Similar to the case of the fixed camera 40 described above, the priority determination unit 203 determines the priority of the supervisor terminal 10 using the first to third determination methods. The priority determination unit 203 performs determination as described above for all the imaging devices, for example, at regular time intervals (for example, every 10 seconds). The priority determination unit 203 supplies the determined priority to the process determination unit 204 in association with the apparatus ID of the determination target imaging apparatus.

処理決定部204は、監視エリアを撮影する映像に関する処理を、その映像を撮影する撮影装置について判定された優先度に応じて決定する。処理決定部204は本発明の「決定手段」の一例である。映像に関する処理とは、本実施例では、上述した撮影関連処理と、異常事象を検出するための映像に対する画像処理である。処理決定部204による処理の決定とは、映像に関する処理をどのようにして行うかを決定するということである。   The process determining unit 204 determines the process related to the video for capturing the monitoring area according to the priority determined for the imaging device that captures the video. The process determination unit 204 is an example of the “determination unit” in the present invention. In the present embodiment, the video-related processing is the above-described shooting-related processing and image processing for video for detecting an abnormal event. The process determination by the process determination unit 204 is to determine how to perform the process related to the video.

処理決定部204は、撮影関連処理であれば、例えば高画質な処理を行うか、低画質な処理を行うかを決定する。また、処理決定部204は、画像処理であれば、例えばリソース(CPU及びメモリ等)を十分用いた処理を行うか、リソースを節約した処理を行うかを決定する。処理決定部204は、これらの決定を、より具体的には、上述した撮影用パラメータを決定し又は画像処理用パラメータを決定することで行う。   If it is a photographing related process, the process determining unit 204 determines, for example, whether to perform high-quality processing or low-quality processing. In the case of image processing, the process determination unit 204 determines whether to perform a process that sufficiently uses resources (such as a CPU and a memory) or a process that saves resources. More specifically, the process determination unit 204 performs these determinations by determining the above-described shooting parameters or determining the image processing parameters.

処理決定部204は、撮影関連処理については、優先度と撮影用パラメータとを対応付けた撮影用パラメータテーブルを用いて決定を行う。
図5は撮影用パラメータテーブルの一例を表す。この撮影用パラメータテーブルでは、「1」、「2」、「3」、「4」、「5」という優先度に、「192万画素(1600×1200)」、「155.5万画素(1440×1080)」、「122.9万画素(1280×960)」、「78.6万画素(1024×768)」、「30.7万画素(640×480)」という解像度(画素数)が対応付けられている。
The process determining unit 204 determines the shooting-related process using a shooting parameter table in which priority and shooting parameters are associated with each other.
FIG. 5 shows an example of a shooting parameter table. In this shooting parameter table, the priority of “1”, “2”, “3”, “4”, “5” is assigned to “192,000,000 pixels (1600 × 1200)”, “155,550,000 pixels (1440). × 1080) ”,“ 122.9 million pixels (1280 × 960) ”,“ 786,000 pixels (1024 × 768) ”, and“ 307,000 pixels (640 × 480) ”. It is associated.

処理決定部204は、優先度判定部203から供給された優先度に撮影用パラメータテーブルで対応付けられている解像度(画素数)を、共に供給された装置IDが示す撮影装置が撮影関連処理で用いる撮影用パラメータとして決定する。処理決定部204は、決定した撮影用パラメータを決定対象の撮影装置の装置IDと共に撮影指示部205に供給する。   The processing determination unit 204 is configured to perform the imaging-related processing when the imaging device indicated by the device ID supplied together with the resolution (number of pixels) associated with the priority supplied from the priority determination unit 203 in the imaging parameter table. It is determined as a shooting parameter to be used. The process determining unit 204 supplies the determined shooting parameter to the shooting instruction unit 205 together with the apparatus ID of the shooting apparatus to be determined.

図5に表す撮影用パラメータテーブルは、優先度が高いほど解像度を高く(画素数を多く)している。他にも、例えば、優先度が高いほどフレームレートを高くしてもよいし、優先度が高いほど画像サイズを大きくしてもよいし、優先度が高いほど画像伝送レートを高く(伝送速度を速く)してもよい。また、優先度が高いほど圧縮率を低くし又は圧縮率の低い圧縮方式を選択してもよい。   In the shooting parameter table shown in FIG. 5, the higher the priority, the higher the resolution (the number of pixels). In addition, for example, the higher the priority, the higher the frame rate may be, the higher the priority, the larger the image size, and the higher the priority, the higher the image transmission rate (the transmission speed may be increased). (Fast). Alternatively, a compression method with a lower compression ratio or a lower compression ratio may be selected as the priority is higher.

いずれの場合も、処理決定部204は、撮影関連処理により得られた映像が送信される際の単位時間当たりの送信データ量を優先度に応じて決定し、詳細には、優先度が高いほどその単位時間当たりの送信データ量が多くなる撮影用パラメータ(解像度、フレームレート及び画像サイズ等)を決定する。これにより、撮影装置の優先度が高いほど、表示される際の映像の画質が高くなり、映像を拡大したときに細部を明瞭に表示したり、映像内の人や物の動きを滑らかにしたりすることができる。   In any case, the process determining unit 204 determines the amount of transmission data per unit time when the video obtained by the shooting-related process is transmitted according to the priority. Specifically, the higher the priority, the higher the priority. The shooting parameters (resolution, frame rate, image size, etc.) that increase the amount of transmission data per unit time are determined. As a result, the higher the priority of the shooting device, the higher the image quality of the displayed image, and when the image is enlarged, details are clearly displayed, and the movement of people and objects in the image is smoothed. can do.

また、処理決定部204は、画像処理については、優先度とリソース量とを対応付けた画像処理用パラメータテーブルを用いて決定を行う。
図6は画像処理用パラメータテーブルの一例を表す。この画像処理用パラメータテーブルでは、「1」、「2」、「3」、「4」、「5」という優先度に、「5コア」、「4コア」、「3コア」、「2コア」、「1コア」というリソース量(CPUのコア数)が対応付けられている。
In addition, the process determination unit 204 determines image processing using an image processing parameter table in which priority levels and resource amounts are associated with each other.
FIG. 6 shows an example of an image processing parameter table. In this image processing parameter table, “5 cores”, “4 cores”, “3 cores”, “2 cores” are assigned to the priorities of “1”, “2”, “3”, “4”, “5”. ”And“ 1 core ”are associated with each other (the number of CPU cores).

処理決定部204は、優先度判定部203から供給された優先度に画像処理用パラメータテーブルで対応付けられているリソース量(CPUのコア数)を、共に供給された装置IDが示す撮影装置が画像処理で用いる画像処理用パラメータとして決定する。処理決定部204は、決定した画像処理用パラメータを決定対象の撮影装置の装置IDと共に画像処理動作制御部206に供給する。   The processing determination unit 204 is a camera that indicates the resource amount (the number of CPU cores) associated with the priority supplied from the priority determination unit 203 in the image processing parameter table by the device ID supplied together. It is determined as an image processing parameter used in image processing. The process determining unit 204 supplies the determined image processing parameters to the image processing operation control unit 206 together with the device ID of the imaging device to be determined.

図6に表す画像処理用パラメータテーブルは、優先度が高いほどリソース量であるコア数を多くしているが、それ以外にも、例えば、優先度が高いほど使用可能なメモリの記憶領域を大きくしてもよい。また、異常事象の検出のための画像処理は繰り返し行われるが、優先度が高いほどその画像処理の間隔を短くしても(つまり画像処理の頻度を高くしても)よい。   In the image processing parameter table shown in FIG. 6, the higher the priority, the larger the number of cores as the resource amount. In addition, for example, the higher the priority, the larger the memory area that can be used. May be. Further, the image processing for detecting the abnormal event is repeated, but the higher the priority, the shorter the interval of the image processing (that is, the higher the frequency of the image processing).

いずれの場合も、処理決定部204は、優先度に応じて画像処理を決定する、すなわち、画像処理をどのように行うかを決定する。詳細には、処理決定部204は、画像処理が行われる際に単位時間当たりに処理されるデータ量を優先度に応じて決定する。上記の各例においては、処理決定部204は、優先度が高いほどその単位時間当たりに処理されるデータ量が多くなる画像処理用パラメータ(リソース量、画像処理の間隔及び頻度等)を決定する。   In any case, the process determining unit 204 determines image processing according to the priority, that is, how to perform image processing. Specifically, the process determination unit 204 determines the amount of data processed per unit time when image processing is performed according to the priority. In each of the above examples, the processing determination unit 204 determines image processing parameters (resource amount, image processing interval and frequency, etc.) that increase the amount of data processed per unit time as the priority is higher. .

これにより、撮影装置の優先度が高いほど、映像のデータ量が同じであれば画像処理に要する時間が短くなる。その結果、撮影装置の優先度を一律にする場合に比べて、優先度の高い撮影装置の映像、すなわち監視の観点で重要な映像ほど、その映像からの異常事象の発生の検出をより迅速に行うことができる。   Thus, the higher the priority of the photographing device, the shorter the time required for image processing if the video data amount is the same. As a result, in comparison with the case where the priority of the image capturing device is uniform, the image of the image capturing device with a higher priority, that is, the image that is important from the viewpoint of monitoring, can be detected more quickly from the image. It can be carried out.

撮影指示部205は、処理決定部204により決定された撮影関連処理の実行を撮影装置に指示する。撮影指示部205は、処理決定部204から供給された撮影用パラメータを用いることを指示する指示データを生成し、生成した指示データを共に供給された装置IDが示す撮影装置(監視員端末10又は固定カメラ40)に送信する。例えば監視員端末10であれば、撮影動作制御部105が、送信されてきた指示データが示す撮影用パラメータを用いるよう撮影部103及び映像送信部104を制御することで、撮影指示部205から指示された撮影関連処理を実行する。   The imaging instruction unit 205 instructs the imaging apparatus to execute the imaging related process determined by the process determination unit 204. The imaging instruction unit 205 generates instruction data instructing to use the imaging parameter supplied from the processing determination unit 204, and the imaging device (monitorer terminal 10 or To the fixed camera 40). For example, in the case of the monitor terminal 10, the imaging operation control unit 105 controls the imaging unit 103 and the video transmission unit 104 to use the imaging parameter indicated by the transmitted instruction data, thereby instructing from the imaging instruction unit 205. Executed shooting related processing.

画像処理動作制御部206は、処理決定部204により決定された画像処理を実行するよう画像処理部207の動作を制御する。画像処理動作制御部206は、処理決定部204から供給された画像処理用パラメータ及び装置IDを画像処理部207に供給し、その装置IDと共に供給された映像についての画像処理を、その画像処理用パラメータを用いて行うよう画像処理の動作を制御する。   The image processing operation control unit 206 controls the operation of the image processing unit 207 so as to execute the image processing determined by the processing determination unit 204. The image processing operation control unit 206 supplies the image processing parameters and the device ID supplied from the processing determination unit 204 to the image processing unit 207, and performs image processing on the video supplied together with the device ID for the image processing. The image processing operation is controlled so as to be performed using parameters.

画像処理部207は、監視員端末情報取得部201及び固定カメラ情報取得部202により取得された撮影装置(監視員端末10及び固定カメラ40)の映像に対して画像処理を行う。画像処理部207は、例えば、特開2002−262282号公報に開示された監視対象区域の画像から異常を検出する技術及び特開2012−004720号公報に開示された映像データから特定の人物の異常行動を検出する技術等を応用して、撮影された監視エリアの映像を解析して異常事象の発生を検出する。   The image processing unit 207 performs image processing on the video of the imaging device (the monitor terminal 10 and the fixed camera 40) acquired by the monitor terminal information acquisition unit 201 and the fixed camera information acquisition unit 202. For example, the image processing unit 207 detects an abnormality from a monitoring target area image disclosed in Japanese Patent Application Laid-Open No. 2002-262282 and an abnormality of a specific person from video data disclosed in Japanese Patent Application Laid-Open No. 2012-004720. Applying technology for detecting behavior, etc., the video of the monitored area is analyzed to detect the occurrence of an abnormal event.

画像処理部207は、画像処理により異常事象の発生を検出すると、その旨と検出に用いた映像を撮影した撮影装置の装置IDとを示す情報を報知部208に供給する。報知部208は、この情報を受け取ると、例えば、異常事象が発生した旨と装置IDとを示す報知情報を生成してオペレータ端末30に送信する。オペレータ端末30の報知情報表示部301は、送信されてきた報知情報を表示する。オペレータは、こうして表示された報知情報を見て異常事象の発生に気付き、監視員と連絡を取って異常事象に対処する。   When the occurrence of an abnormal event is detected by image processing, the image processing unit 207 supplies information indicating the fact and the device ID of the imaging device that has captured the video used for the detection to the notification unit 208. Upon receiving this information, for example, the notification unit 208 generates notification information indicating that an abnormal event has occurred and the device ID, and transmits the notification information to the operator terminal 30. The notification information display unit 301 of the operator terminal 30 displays the transmitted notification information. The operator notices the occurrence of the abnormal event by looking at the notification information displayed in this manner, and contacts the monitor to deal with the abnormal event.

画像処理部207は、上記検出を行うと、検出に用いた映像を撮影した撮影装置から取得された監視員端末情報又は固定カメラ情報を発生場所特定部209に供給する。発生場所特定部209は、監視エリア内で発生した異常事象の発生場所を特定する。発生場所特定部209は本発明の「特定手段」の一例である。   When the image processing unit 207 performs the above detection, the image processing unit 207 supplies the monitor location information or the fixed camera information acquired from the image capturing apparatus that captured the video used for the detection to the generation location specifying unit 209. The occurrence location identifying unit 209 identifies the occurrence location of the abnormal event that occurred in the monitoring area. The occurrence location specifying unit 209 is an example of the “specifying means” in the present invention.

発生場所特定部209は、本実施例では、画像処理部207から供給された監視員端末情報又は固定カメラ情報に含まれている位置情報が示す位置、すなわち異常事象の発生の検出に用いられた映像を撮影した撮影装置の位置を、異常事象の発生場所として特定する。なお、発生場所の特定方法はこれに限らない。例えば、各固定カメラ40の撮影範囲が決まっている場合に、発生場所特定部209は、その撮影範囲の中心を示す位置情報を装置IDに対応付けて記憶しておく。   In this embodiment, the occurrence location specifying unit 209 is used to detect the position indicated by the position information included in the monitor terminal information or the fixed camera information supplied from the image processing unit 207, that is, the occurrence of an abnormal event. The position of the photographing device that has photographed the video is specified as the occurrence location of the abnormal event. Note that the method of identifying the occurrence location is not limited to this. For example, when the shooting range of each fixed camera 40 is determined, the occurrence location specifying unit 209 stores position information indicating the center of the shooting range in association with the device ID.

発生場所特定部209は、画像処理部207から供給された固定カメラ情報に含まれている装置IDに対応付けて記憶している位置情報が示す位置を、異常事象の発生場所として特定してもよい。また、各撮影装置が自装置の撮影手段の光軸の向きを検出して監視員端末情報又は固定カメラ情報に含めて送信してくる場合に、発生場所特定部209は、異常事象の発生の検出に用いられた映像を撮影した撮影装置の位置からその光軸の向きに所定の距離だけ移動した位置を発生場所として特定してもよい。発生場所特定部209は、特定した発生場所を示す発生場所情報を優先度判定部203に供給する。   The occurrence location identifying unit 209 may identify the location indicated by the location information stored in association with the device ID included in the fixed camera information supplied from the image processing unit 207 as the occurrence location of the abnormal event. Good. In addition, when each imaging device detects the direction of the optical axis of the imaging means of its own device and transmits it in the supervisor terminal information or the fixed camera information, the occurrence location identifying unit 209 causes the occurrence of an abnormal event. You may specify as a generation | occurrence | production location the position which moved only the predetermined distance to the direction of the optical axis from the position of the imaging device which image | photographed the image | video used for the detection. The occurrence location identifying unit 209 supplies the occurrence location information indicating the identified occurrence location to the priority determination unit 203.

画像処理部207が異常事象の発生を検出した場合の優先度の判定方法として、さらに3つの判定方法を説明する。以下では固定カメラ40の優先度を判定する場合を説明する。第4の判定方法では、優先度判定部203は、発生場所特定部209により特定された発生場所と第2の位置関係にある固定カメラ40の優先度を、その発生場所と第2の位置関係にない場合に比べて高く判定する。この場合の固定カメラ40のように異常事象の発生場所と第2の位置関係にある撮影装置は本発明の「第2撮影装置」の一例である。   Three more determination methods will be described as priority determination methods when the image processing unit 207 detects the occurrence of an abnormal event. The case where the priority of the fixed camera 40 is determined will be described below. In the fourth determination method, the priority determination unit 203 determines the priority of the fixed camera 40 in the second positional relationship with the generation location specified by the generation location specifying unit 209, and the generation location and the second positional relationship. Higher than the case where it is not. The imaging device having the second positional relationship with the occurrence location of the abnormal event like the fixed camera 40 in this case is an example of the “second imaging device” in the present invention.

第2の位置関係とは、例えば、第1の位置関係と同様に、固定カメラ40が異常事象の発生場所から所定の距離(例えば10m)の範囲にある位置関係又は異常事象の発生場所が固定カメラ40から所定の距離の範囲にある位置関係である。つまり、優先度判定部203は、異常事象の発生場所の近くの固定カメラ40の優先度を、異常事象の発生場所が遠かった場合に比べて高くする。   The second positional relationship is, for example, a fixed positional relationship or an abnormal event occurrence location where the fixed camera 40 is within a predetermined distance (for example, 10 m) from the occurrence location of the abnormal event, as in the first positional relationship. The positional relationship is within a predetermined distance from the camera 40. That is, the priority determination unit 203 increases the priority of the fixed camera 40 near the occurrence location of the abnormal event as compared with the case where the occurrence location of the abnormal event is far.

優先度判定部203は、第4の判定方法を用いた場合、例えば上述した或る監視エリアにおいて優先度が「3」の固定カメラ40が異常事象の発生場所と第2の位置関係にある場合、異常事象の発生場所と第2の位置関係にない場合の優先度(つまり「3」)よりも高い「2」又は「1」という優先度をその固定カメラ40の優先度として判定する。なお、この固定カメラ40は、異常事象発生の検出に用いられた映像を撮影したものである場合もあるが、異常事象を撮影はしていないが発生場所の近くに設置されていた固定カメラ40の場合もある。   When the fourth determination method is used, the priority determination unit 203, for example, in the case where the fixed camera 40 with the priority “3” is in the second positional relationship with the occurrence location of the abnormal event in the certain monitoring area described above, for example. The priority “2” or “1”, which is higher than the priority (that is, “3”) when the abnormal event is not in the second positional relationship, is determined as the priority of the fixed camera 40. Note that the fixed camera 40 may be a photograph of a video used to detect the occurrence of an abnormal event, but the fixed camera 40 that is not photographed of an abnormal event but is installed near the place of occurrence. In some cases.

第5の判定方法が用いられる場合、その前提として、第1の判定方法が用いられているものとする。その上で、優先度判定部203は、発生場所特定部209により特定された発生場所と第2の位置関係にある固定カメラ40が監視者と第1の位置関係にある場合、その固定カメラ40の優先度を、監視者と第1の位置関係にない場合に比べて低くしない。つまり、優先度判定部203は、通常は、監視員が近くにいる固定カメラ40の優先度を、監視員が近くにいない場合に比べて低くするが、異常事象の発生場所が近い場合には、その例外として、優先度を低くしないようにする。   When the fifth determination method is used, it is assumed that the first determination method is used as the premise. In addition, when the fixed camera 40 in the second positional relationship with the generation location specified by the generation location specifying unit 209 is in the first positional relationship with the monitor, the priority determination unit 203 determines the fixed camera 40. Is not set lower than the case of not having the first positional relationship with the observer. In other words, the priority determination unit 203 normally lowers the priority of the fixed camera 40 where the monitor is close compared to when the monitor is not close, but when the place where the abnormal event occurs is close As an exception, do not lower the priority.

例えば前述した優先度が「3」の固定カメラ40が監視員と第1の位置関係にある場合、通常なら優先度を低くして「4」以下にするところ、異常事象の発生場所と第2の位置関係にもあるので、優先度判定部203は、第5の判定方法を用いて、その優先度を監視員と第1の位置関係にない場合の「3」よりも低くしない、すなわち「3」又はそれよりも高い優先度と判定する。   For example, when the fixed camera 40 with the priority “3” is in the first positional relationship with the monitor, the priority is lowered to “4” or less in the normal state. Therefore, the priority determination unit 203 uses the fifth determination method so that the priority is not lower than “3” that is not in the first positional relationship with the monitor, that is, “ 3 ”or higher priority.

なお、優先度判定部203は、第1の判定方法に加えて第4の判定方法を前提として用いてもよい。その場合に、前述した優先度が「3」の固定カメラ40が監視員と第1の位置関係にあり且つ異常事象の発生場所と第2の位置関係にもあるものとする。その場合、優先度判定部203は、その固定カメラ40が監視員と第1の位置関係にない場合に比べて優先度を低くせず、且つ、その固定カメラ40が異常事象の発生場所と第2の位置関係にない場合に比べて優先度を高くする。要するに、優先度判定部203は、例えば固定カメラ40の優先度が「3」であったなら、それよりも高い「2」又は「1」をその固定カメラ40の優先度として判定する。   Note that the priority determination unit 203 may use the fourth determination method as a premise in addition to the first determination method. In this case, it is assumed that the above-described fixed camera 40 with the priority “3” is in the first positional relationship with the monitor and also in the second positional relationship with the place where the abnormal event occurs. In that case, the priority determination unit 203 does not lower the priority as compared with the case where the fixed camera 40 is not in the first positional relationship with the observer, and the fixed camera 40 determines whether the abnormal event has occurred. The priority is increased as compared with the case where the positional relationship is not two. In short, if the priority of the fixed camera 40 is “3”, for example, the priority determination unit 203 determines “2” or “1” higher than that as the priority of the fixed camera 40.

第6の判定方法も、前提として、第1の判定方法が用いられているものとする。その上で、優先度判定部203は、発生場所特定部209により特定された発生場所と第2の位置関係にある固定カメラ40の優先度を、他の撮影装置に比べて低くしない。例えば優先度が「4」の固定カメラ40が異常事象の発生場所と第2の位置関係にあり、優先度が「2」の固定カメラ40が異常事象の発生場所と第2の位置関係にないとする。   The sixth determination method is also based on the assumption that the first determination method is used. In addition, the priority determination unit 203 does not lower the priority of the fixed camera 40 in the second positional relationship with the generation location identified by the generation location identification unit 209 compared to other imaging devices. For example, the fixed camera 40 with the priority “4” is in the second positional relationship with the occurrence location of the abnormal event, and the fixed camera 40 with the priority “2” is not in the second positional relationship with the occurrence location of the abnormal event. And

その場合、優先度判定部203は、第6の判定方法を用いて、前者の固定カメラ40の優先度を後者の固定カメラ40の優先度である「2」又はそれよりも高い「1」と判定する。なお、この例において、異常事象の発生場所と第2の位置関係にある固定カメラ40が他にも存在する場合、優先度判定部203は、第6の判定方法を用いて、異常事象の発生場所と第2の位置関係にある複数の固定カメラ40の優先度をいずれも「2」又は「1」と判定する(互いに相手の優先度よりも低くならないから)。   In that case, the priority determination unit 203 uses the sixth determination method to set the priority of the former fixed camera 40 to “2” that is the priority of the latter fixed camera 40 or “1” that is higher than that. judge. In this example, when there is another fixed camera 40 in the second positional relationship with the occurrence location of the abnormal event, the priority determination unit 203 uses the sixth determination method to generate the abnormal event. The priority of the plurality of fixed cameras 40 in the second positional relationship with the place is determined to be “2” or “1” (because they are not lower than the priority of the other party).

また、優先度が「2」の固定カメラ40が異常事象の発生場所と第2の位置関係にあり、優先度が「4」の固定カメラ40が異常事象の発生場所と第2の位置関係にないとする。その場合、優先度判定部203は、第6の判定方法を用いると、前者の固定カメラ40の優先度が後者の固定カメラ40の優先度よりも既に高いので、そのまま「2」と判定してもよいし、優先度を高くして「1」と判定してもよい。なお、第6の判定方法だけでなく第4の判定方法も用いる場合は、優先度を高くして「1」と判定する。   The fixed camera 40 with the priority “2” has a second positional relationship with the occurrence location of the abnormal event, and the fixed camera 40 with the priority “4” has the second positional relationship with the occurrence location of the abnormal event. Suppose not. In this case, when the sixth determination method is used, the priority determination unit 203 determines “2” as it is because the priority of the former fixed camera 40 is already higher than the priority of the latter fixed camera 40. Alternatively, the priority may be increased to determine “1”. When not only the sixth determination method but also the fourth determination method is used, the priority is increased and the determination is “1”.

監視システム1が備える各装置は、上記構成に基づいて、監視エリアを撮影する映像に関する処理を、各撮影装置の優先度に基づいて行う優先度処理を行う。
図7は優先度処理における各装置の動作手順の一例を表す。この動作手順は、例えば、各装置の電源が投入されて監視エリアにおける監視が開始されることを契機に開始される。まず、監視員端末10(測位部101)が、自装置の位置を測定する(ステップS11)。次に、監視員端末10(位置情報送信部102)は、測定された自装置の位置を示す位置情報を監視センタサーバ装置20に送信する(ステップS12)。
Based on the above configuration, each device included in the monitoring system 1 performs priority processing that performs processing related to video for capturing a monitoring area based on the priority of each imaging device.
FIG. 7 shows an example of the operation procedure of each device in the priority processing. This operation procedure is started when, for example, each device is powered on and monitoring in the monitoring area is started. First, the supervisor terminal 10 (positioning unit 101) measures the position of its own device (step S11). Next, the monitor terminal 10 (position information transmission unit 102) transmits position information indicating the measured position of the own apparatus to the monitoring center server apparatus 20 (step S12).

また、監視員端末10(撮影部103)は、自装置の周囲の映像を撮影する(ステップS13)。次に、監視員端末10(映像送信部104)は、撮影された自装置の周囲の映像を監視センタサーバ装置20に送信する(ステップS14)。監視センタサーバ装置20(監視員端末情報取得部201)は、監視員端末10から送信されてきた位置情報及び映像を監視員端末情報として取得する(ステップS15)。   In addition, the supervisor terminal 10 (imaging unit 103) captures a video around the device (step S13). Next, the supervisor terminal 10 (video transmission unit 104) transmits the captured video around the device itself to the monitoring center server device 20 (step S14). The monitoring center server device 20 (monitorer terminal information acquisition unit 201) acquires the position information and video transmitted from the monitor terminal 10 as the monitor terminal information (step S15).

固定カメラ40(撮影部401)は、自装置の周囲の映像を撮影する(ステップS21)。次に、固定カメラ40(映像送信部402)は、撮影された自装置の周囲の映像を監視センタサーバ装置20に送信する(ステップS22)。監視センタサーバ装置20(固定カメラ情報取得部202)は、固定カメラ40から送信されてきた映像と、その固定カメラ40の位置情報とを固定カメラ情報として取得する(ステップS23)。ステップS11〜S15と、S21〜S23との各動作群は、並行して繰り返し行われる。   The fixed camera 40 (shooting unit 401) shoots a video around the device (step S21). Next, the fixed camera 40 (video transmission unit 402) transmits the captured video around the device itself to the monitoring center server device 20 (step S22). The monitoring center server device 20 (fixed camera information acquisition unit 202) acquires the video transmitted from the fixed camera 40 and the position information of the fixed camera 40 as fixed camera information (step S23). Each operation group of steps S11 to S15 and S21 to S23 is repeatedly performed in parallel.

監視センタサーバ装置20(画像処理部207)は、取得された撮影装置(監視員端末10及び固定カメラ40)の映像に対して画像処理を行い、監視エリア内での異常事象の発生を検出する(ステップS31)。監視センタサーバ装置20(発生場所特定部209)は、異常事象の発生が検出された場合に、その異常事象の発生場所を特定する(ステップS32)。ステップS31及びS32の動作は、異常事象の発生が検出されない場合は行われない。   The monitoring center server device 20 (image processing unit 207) performs image processing on the acquired video of the imaging device (monitorer terminal 10 and fixed camera 40), and detects the occurrence of an abnormal event in the monitoring area. (Step S31). When the occurrence of an abnormal event is detected, the monitoring center server device 20 (occurrence location specifying unit 209) specifies the occurrence location of the abnormal event (step S32). The operations of steps S31 and S32 are not performed when the occurrence of an abnormal event is not detected.

監視センタサーバ装置20(優先度判定部203)は、取得された各撮影装置の位置情報と、異常事象の発生が検出された場合には特定されたその発生場所とに基づいて、複数の撮影装置(監視員端末10及び固定カメラ40)のそれぞれの優先度を判定する(ステップS41)。次に、監視センタサーバ装置20(処理決定部204)は、監視エリアを撮影する映像に関する処理を、その映像を撮影する撮影装置について判定された優先度に応じて決定する(ステップS42)。   The monitoring center server device 20 (priority determination unit 203) performs a plurality of photographing based on the acquired position information of each photographing device and the occurrence location specified when the occurrence of the abnormal event is detected. The respective priorities of the devices (monitorer terminal 10 and fixed camera 40) are determined (step S41). Next, the monitoring center server device 20 (processing determination unit 204) determines processing related to the video for capturing the monitoring area according to the priority determined for the imaging device for capturing the video (step S42).

続いて、監視センタサーバ装置20(撮影指示部205)は、決定された撮影関連処理の実行を撮影装置に指示するための指示データを生成して(ステップS43)、その指示データを撮影装置(この例では監視員端末10)に送信する(ステップS44)。監視員端末10(撮影動作制御部105)は、受け取った指示データが示す指示のとおりに、自装置の撮影に関する動作を制御する(ステップS45)。また、監視センタサーバ装置20(画像処理動作制御部206)は、決定された画像処理を実行するように、自装置が行う画像処理の動作を制御する(ステップS46)。   Subsequently, the monitoring center server device 20 (imaging instruction unit 205) generates instruction data for instructing the imaging device to execute the determined imaging-related process (step S43), and the instruction data is transmitted to the imaging device ( In this example, it is transmitted to the supervisor terminal 10) (step S44). The monitor terminal 10 (imaging operation control unit 105) controls the operation related to the imaging of the own device in accordance with the instruction indicated by the received instruction data (step S45). Further, the monitoring center server device 20 (image processing operation control unit 206) controls the image processing operation performed by the own device so as to execute the determined image processing (step S46).

複数の撮影装置が撮影した映像を用いて監視エリアを監視する場合、上述した映像に関する処理の負荷(通信や異常検出のための画像処理等の負荷)が過大になると、処理に遅延が生じてしまい、異常事象への対応の遅れに繋がるおそれがある。それを避けるためは、映像に関する処理の負荷を小さくするとよいが、負荷を小さくすると、映像の画質が低くなったり画像処理の所要時間が長くなったりして、その映像が映す監視エリアの監視が不十分になることがある。   When monitoring a monitoring area using videos captured by a plurality of imaging devices, if the processing load related to the above-described video (loading such as image processing for communication or abnormality detection) becomes excessive, processing is delayed. This may lead to a delay in response to an abnormal event. In order to avoid this, it is better to reduce the processing load on the video. However, if the load is reduced, the image quality of the video will be lowered or the time required for image processing will be increased. It may be insufficient.

本実施例では、監視員が近くにいて(第1の位置関係にあって)周辺の監視が十分に行われている撮影装置の優先度を低くしているので(第1の判定方法)、撮影装置の優先度を低くして監視エリアの映像に関する処理の負荷を小さくしたときに監視が不十分になることを、監視員の位置に関係なく優先度を判定する場合に比べて抑制することができる。また、監視員が近くにいる撮影装置の優先度を監視員が近くにいない(第1の位置関係にない)撮影装置よりも低くするので(第2の判定方法)、監視員が近くにいない撮影装置の映像に関する処理が、監視員が近くにいる撮影装置の映像に関する処理よりも迅速に行われるようにすることができる。   In this embodiment, since the monitoring device is close (in the first positional relationship), the priority of the imaging device in which the surroundings are sufficiently monitored is lowered (first determination method). Suppressing the fact that monitoring becomes inadequate when the priority of the imaging device is lowered to reduce the processing load related to the video in the monitoring area, compared to when priority is determined regardless of the position of the observer Can do. Moreover, since the priority of the imaging device in which the monitoring person is nearby is set lower than that of the imaging apparatus in which the monitoring person is not nearby (not in the first positional relationship) (second determination method), the monitoring person is not nearby. The processing related to the video of the imaging device can be performed more quickly than the processing related to the video of the imaging device near the monitor.

また、本実施例では、近くにいる監視員が多い撮影装置ほど優先度を低くするので(第3の判定方法)、近くにいる監視員の人数に関わらず優先度が一律な場合に比べて、監視員が近くにいない撮影装置の映像に関する処理が、監視員が近くにいる撮影装置の映像に関する処理よりもより迅速に行われるようにすることができる。また、異常事象の発生場所の近くにある(第2の位置関係にある)撮影装置の優先度を高くするので(第4の判定方法)、優先度を一律にする場合に比べて、異常事象の発生場所及びその付近の監視を強化することができる。   Also, in this embodiment, the priority is lower for a photographing apparatus with more nearby monitoring personnel (third determination method), so that the priority is uniform regardless of the number of nearby monitoring personnel. The processing related to the video of the imaging device where the monitor is not nearby can be performed more quickly than the processing related to the video of the imaging device where the monitor is nearby. In addition, since the priority of the imaging apparatus near the place where the abnormal event occurs (in the second positional relationship) is increased (fourth determination method), the abnormal event is compared with the case where the priority is uniform. It is possible to strengthen the monitoring of the occurrence location and its vicinity.

また、本実施例では、異常事象の発生場所の近くにある撮影装置の近くに監視員がいても、その優先度を監視員が近くにいない場合に比べて低くしないので(第5の判定方法)、この優先度を低くする場合に比べて、異常事象の発生場所及びその付近の監視が不十分になることを抑制することができる。また、異常事象の発生場所に近い撮影装置の優先度をそうでない撮影装置に比べて低くしないので(第6の判定方法)、異常事象の発生場所に近い撮影装置の映像に関する処理が、そうでない撮影装置の映像に関する処理よりも迅速か少なくとも同等の速さで行われるようにすることができる。   Further, in this embodiment, even if there is a monitor near the imaging device near the place where the abnormal event occurs, the priority is not lowered compared to the case where the monitor is not close (fifth determination method). ), It is possible to suppress insufficient monitoring of the location where the abnormal event occurs and the vicinity thereof, as compared with the case where the priority is lowered. In addition, since the priority of the imaging device close to the place where the abnormal event occurs is not lower than that of the imaging device that does not (the sixth determination method), the processing related to the image of the imaging device close to the place where the abnormal event occurs is not so. The processing can be performed more quickly or at least at the same speed as the processing related to the image of the photographing apparatus.

[2]変形例
上述した実施例は本発明の実施の一例に過ぎず、以下のように変形させてもよい。また、実施例及び各変形例は、必要に応じて組み合わせて実施してもよい。
[2] Modifications The above-described embodiments are merely examples of the present invention, and may be modified as follows. Moreover, you may implement an Example and each modification in combination as needed.

[2−1]映像内の監視員の人数
優先度の判定の際に、撮影装置の映像に映っている監視員の人数を考慮してもよい。例えば、画像処理部207が、取得された撮影装置(監視員端末10及び固定カメラ40)の映像に対して画像処理を行い、その映像に映っている監視員の人数を判定する。画像処理部207は、例えば監視員の制服の形及び色等の特徴を示す情報を記憶しておき、周知のマッチング技術を用いて映像内の監視員を抽出し、その人数を判定する。
[2-1] Number of observers in video When determining the priority, the number of observers shown in the video of the imaging device may be taken into account. For example, the image processing unit 207 performs image processing on the acquired video of the imaging device (the supervisor terminal 10 and the fixed camera 40), and determines the number of supervisors shown in the video. For example, the image processing unit 207 stores information indicating features such as the shape and color of the uniform of the monitor, extracts the monitor in the video using a known matching technique, and determines the number of the monitor.

画像処理部207は、判定した人数を、判定対象の映像を撮影した撮影装置の装置IDと共に優先度判定部203に供給する。優先度判定部203は、画像処理部207により判定された監視員の人数が多い撮影装置ほど優先度を低くする。この判定方法は、監視員の人数の求め方は異なるが、それ以外は第3の判定方法と共通している。本変形例によれば、監視員端末10のように位置の測定が可能な端末を所持していない監視員の人数も考慮して優先度を判定することができる。   The image processing unit 207 supplies the determined number of people to the priority determination unit 203 together with the device ID of the image capturing device that has captured the determination target video. The priority determination unit 203 lowers the priority of an imaging device having a larger number of monitoring personnel determined by the image processing unit 207. This determination method is the same as the third determination method except that the method for obtaining the number of observers is different. According to this modification, the priority can be determined in consideration of the number of monitoring personnel who do not have a terminal capable of measuring the position, such as the monitoring personnel terminal 10.

[2−2]監視員への指示
異常事象の発生場所に監視員を向かわせる指示をオペレータに代わって装置が行ってもよい。例えば、監視センタサーバ装置20が、図4に表す各部に加えて監視員所在判定部と、指示処理実行部とを備える。
[2-2] Instruction to the supervisor The apparatus may give an instruction to send the supervisor to the place where the abnormal event occurs instead of the operator. For example, the monitoring center server device 20 includes a monitoring member location determination unit and an instruction processing execution unit in addition to the units illustrated in FIG.

監視員所在判定部には、発生場所特定部209から発生場所情報が、監視員端末情報取得部201から監視員端末情報が供給される。監視員所在判定部は、供給されたこれらの情報が表す発生場所と監視員の位置とに基づき、異常事象の発生場所と上述した第2の位置関係にある監視員の有無を判定する。監視員所在判定部は、そのような監視員がいないと判定すると、発生場所情報を指示処理実行部に供給する。   The occurrence location information is supplied from the occurrence location specifying unit 209 and the monitor terminal information is supplied from the monitor terminal information acquisition unit 201 to the monitor location determination unit. The monitor location determination unit determines the presence or absence of a monitor who is in the second positional relationship with the occurrence location of the abnormal event based on the occurrence location represented by the supplied information and the position of the monitor. When it is determined that there is no such monitor, the monitor location determination unit supplies the occurrence location information to the instruction processing execution unit.

指示処理実行部は、監視員所在判定部により第2の位置関係にある監視員がいないと判定された場合に、その発生場所に監視員を向かわせる指示を行うための処理を実行する。指示処理実行部は、監視員所在判定部から発生場所情報が供給されると、そのような監視員がいないと判定されたと判断し、その発生場所情報が示す発生場所とそこへ向かうことを指示する指示データを生成して各監視員端末10に送信する。   The instruction process execution unit executes a process for giving an instruction to direct the monitor to the place of occurrence when the monitor position determination unit determines that there is no monitor having the second positional relationship. When the occurrence location information is supplied from the monitor location determination unit, the instruction processing execution unit determines that it is determined that there is no such monitor, and instructs the occurrence location indicated by the occurrence location information and to go there Instruction data to be generated is transmitted to each monitor terminal 10.

監視員端末10は、指示データを受け取ると、その指示データが示す指示及び異常事象の発生場所を表示する。これを見た監視員は、表示された発生場所に向かう指示がされたことを認識する。これにより、例えば異常事象の発生時にオペレータによる指示が何かの事情で遅れることがあっても、その異常事象の発生場所に監視員を向かわせることができる。   Upon receiving the instruction data, the monitor terminal 10 displays the instruction indicated by the instruction data and the occurrence location of the abnormal event. The observer who has seen this recognizes that an instruction to go to the displayed occurrence location has been given. As a result, for example, even if an instruction from the operator is delayed due to some circumstances when an abnormal event occurs, the supervisor can be directed to the place where the abnormal event occurs.

[2−3]位置関係
第1及び第2の位置関係は、上述したものに限らない。例えば、監視員と第1の位置関係にある固定カメラ40として、固定カメラ40の撮影範囲の中心から所定の距離の範囲に監視員がいる関係又は監視員から所定の距離の範囲に固定カメラ40の撮影範囲の中心が含まれる関係であってもよい。また、固定カメラ40の撮影範囲に監視員がいる関係であってもよい。
[2-3] Positional relationship The first and second positional relationships are not limited to those described above. For example, as the fixed camera 40 in the first positional relationship with the monitor, the fixed camera 40 is in a relationship where the monitor is within a predetermined distance from the center of the shooting range of the fixed camera 40 or within a predetermined distance from the monitor. The relationship may include the center of the shooting range. Further, a relationship in which a monitor is present in the shooting range of the fixed camera 40 may be used.

また、固定カメラ40が設置されている区画に監視員がいる関係又は監視員がいる区画に固定カメラ40が設置されている関係であってもよい。この区画は、例えば街の区画や建物内の区画、監視エリア内の状況や環境に合わせて設定された区画などである。区画の形は、四角形でもよいし、街や建物、通り、通路などの形に合わせた凹凸のある形であってもよい。以上の位置関係は、異常事象の発生場所と撮影装置との第2の位置関係について適用してもよい。   Moreover, the relationship where the monitoring camera is installed in the section where the fixed camera 40 is installed or the relationship where the fixed camera 40 is installed in the section where the monitoring staff is installed may be used. This section is, for example, a town section, a section in a building, or a section set in accordance with the situation or environment in the monitoring area. The shape of the section may be a quadrangle, or may be a shape with irregularities adapted to the shape of a city, building, street, passage, or the like. The above positional relationship may be applied to the second positional relationship between the place where the abnormal event occurs and the imaging device.

いずれの場合も、撮影装置と監視員が第1の位置関係になっていれば、その撮影装置が撮影する監視エリアの領域をその監視員が監視できるよう(常時でなくともすぐに監視できる状態)になっていればよい。また、異常事象の発生場所と撮影装置が第2の位置関係になっていれば、その発生場所及び(又は)その周辺をその撮影装置が撮影できるよう(常時でなくともカメラの向きを変えれば監視できる状態)になっていればよい。   In either case, if the imaging device and the monitor are in the first positional relationship, the monitor can monitor the area of the monitoring area captured by the imaging device (a state in which monitoring is possible immediately, if not always) ). Also, if the location where the abnormal event occurs and the imaging device are in the second positional relationship, the imaging device can capture the location and / or its surroundings (if the camera direction is changed, not always) It is only necessary to be able to monitor.

[2−4]画像処理用パラメータ
処理決定部204は、実施例とは異なる画像処理用パラメータを決定してもよい。例えば、処理決定部204は、複数の映像に対する画像処理が順番に行われる場合に、その順番を画像処理用パラメータとして、優先度に応じて決定する。処理決定部204は、例えば、優先度が高い撮影装置の映像ほど先に画像処理が行われるよう順番を決定する。
[2-4] Image Processing Parameter The processing determining unit 204 may determine an image processing parameter different from that in the embodiment. For example, when the image processing for a plurality of videos is sequentially performed, the processing determination unit 204 determines the order as an image processing parameter according to the priority. For example, the processing determination unit 204 determines the order in which the image processing of the imaging device with higher priority is performed earlier.

なお、画像処理の順番以外にも、処理決定部204は、映像に対する画像処理の終了時間が変化する画像処理用パラメータを優先度に応じて決定してもよい。いずれの場合も、撮影装置の優先度が高いほど、その映像に対する画像処理が早く終わるので、その撮影装置の撮影範囲で発生した異常事象にオペレータ等がより早く気付くことができる。   In addition to the order of image processing, the process determining unit 204 may determine an image processing parameter that changes the end time of image processing for a video according to priority. In either case, the higher the priority of the imaging device, the earlier the image processing for the video ends, so that an operator or the like can notice an abnormal event that has occurred in the imaging range of the imaging device earlier.

[2−5]撮影装置
上記の実施例では、監視エリアの映像を撮影する撮影装置として監視員端末10及び固定カメラ40が用いられたが、どちらか一方だけが用いられてもよい。その場合でも、上記の各判定方法で優先度が判定されることで、映像に関する処理の負荷を小さくしたときに監視が不十分になることを抑制したり、異常事象の発生場所及びその付近の監視を強化したりすることができる。
[2-5] Shooting Device In the above embodiment, the monitor terminal 10 and the fixed camera 40 are used as the shooting device for shooting the video in the monitoring area, but only one of them may be used. Even in that case, the priority is determined by each of the determination methods described above, so that it is possible to suppress insufficient monitoring when the processing load on the video is reduced, Monitoring can be enhanced.

[2−6]優先度
優先度は、上記の各例とは異なる表し方をしてもよい。例えば「Lv1、Lv2、・・」や「A、B、C、・・」、「高、中、低」など、指標としての上限関係を表す記号や文字、図形などが用いられてもよい。要するに、撮影装置の優先度が高いものと低いものとを判別できれば、どのように表された優先度が用いられてもよい。
[2-6] Priority Priority may be expressed differently from the above examples. For example, “Lv1, Lv2,...”, “A, B, C,. In short, the priority expressed in any way may be used as long as the priority of the photographing device can be determined as high and low.

[2−7]監視エリアの監視者
上記の実施例では、監視エリアに配置された監視員が監視エリアの現場で監視の役割を果たす監視者であったが、これに限らない。例えば、監視エリア内で働く監視員以外のスタッフが監視者であってもよい。スタッフとは、具体的には、例えばマラソン会場が監視エリアである場合、会場の案内員、コース整理員、給水スタッフ、観客の誘導員などであり、スタジアム等が監視エリアである場合、監視員に相当する警備員の他、チケットの販売員、店舗の店員、清掃員などである。また、人間に限らず、例えば監視用のカメラが内蔵された自走式のロボットやドローン、監視員端末を装着した動物(警察犬のように訓練された犬等)などであってもよい。
[2-7] Surveillant in the monitoring area In the above-described embodiment, the supervisor arranged in the surveillance area is a supervisor who plays a role of monitoring in the field of the surveillance area, but is not limited thereto. For example, the staff other than the supervisor working in the surveillance area may be the supervisor. Specifically, for example, when a marathon venue is a monitoring area, the staff is a venue guide, a course organizer, a water supply staff, a spectator guide, etc., and when a stadium or the like is a monitoring area, In addition to security guards equivalent to the above, they are ticket sales, store clerk, and cleaning staff. Moreover, it is not limited to a human being, but may be, for example, a self-propelled robot or drone with a built-in monitoring camera, an animal (such as a dog trained like a police dog) equipped with a monitor terminal.

[2−8]各機能を実現する装置
図4等に表す機能を実現する装置は、上述した各装置に限らない。例えば、監視センタサーバ装置が入力装置及び出力装置を備えておいて、オペレータ端末30が備える各部を実現してもよい。また、反対に、監視センタサーバ装置20が備える各部をオペレータ端末が実現してもよい。また、監視センタサーバ装置が実現する機能を、複数の情報処理装置が分担して実現してもよい。例えば、第1装置が監視員端末情報取得部201から優先度判定部203までの機能を実現し、第2装置が処理決定部204から発生場所特定部209までの機能を実現するという具合である。いずれの場合も、監視システムが備える装置全体で、上述した機能を実現していればよい。
[2-8] Apparatus that Implements Each Function The apparatus that implements the functions illustrated in FIG. 4 and the like is not limited to the above-described apparatuses. For example, the monitoring center server device may include an input device and an output device, and each unit included in the operator terminal 30 may be realized. On the contrary, the operator terminal may realize each unit included in the monitoring center server device 20. Further, a function realized by the monitoring center server device may be realized by sharing a plurality of information processing devices. For example, the first device realizes the function from the supervisor terminal information acquisition unit 201 to the priority determination unit 203, and the second device realizes the function from the processing determination unit 204 to the occurrence location specifying unit 209. . In any case, the above-described functions may be realized by the entire apparatus included in the monitoring system.

[2−9]指示の自動化
実施例では、オペレータ端末30を使用するオペレータが監視員に対して指示を行ったが、将来は、この指示を含むオペレータの作業が自動化されてもよい。例えば、AI(Artificial Intelligence、人工知能)を活用して、監視員端末10からの投稿情報が示す事案の情報取得位置に最も近い監視員を選定して、選定した監視員に必要な情報(事案の発生場所を示す情報等)を伝達する。このように、一定のルールに基づく処理で実現可能な作業については、自動化されてもよい。
[2-9] Automation of instruction In the embodiment, an operator who uses the operator terminal 30 gives an instruction to the monitoring staff. However, in the future, an operator's work including this instruction may be automated. For example, by utilizing AI (Artificial Intelligence), a monitor closest to the information acquisition position of the case indicated by the posted information from the monitor terminal 10 is selected, and information (case) required for the selected monitor is selected. Information indicating the location of the occurrence). In this way, work that can be realized by processing based on certain rules may be automated.

[2−10]発明のカテゴリ
本発明は、監視員端末10、監視センタサーバ装置20、オペレータ端末30及び固定カメラ40という各装置の他、それらの装置を備える監視システムとしても捉えられる。また、本発明は、各装置が実施する処理を実現するための情報処理方法としても捉えられる。また、各装置を制御するコンピュータを機能させるためのプログラムとしても捉えられる。このプログラムは、それを記憶させた光ディスク等の記録媒体の形態で提供されてもよいし、インターネット等のネットワークを介してコンピュータにダウンロードさせ、それをインストールして利用可能にするなどの形態で提供されてもよい。
[2-10] Category of Invention The present invention can be understood as a monitoring system including these devices, in addition to the devices such as the supervisor terminal 10, the monitoring center server device 20, the operator terminal 30, and the fixed camera 40. The present invention can also be understood as an information processing method for realizing processing performed by each device. It can also be understood as a program for causing a computer that controls each device to function. This program may be provided in the form of a recording medium such as an optical disk in which it is stored, or may be provided in the form of being downloaded to a computer via a network such as the Internet, installed and made available for use. May be.

1…監視システム、10…監視員端末、20…監視センタサーバ装置、30…オペレータ端末、40…固定カメラ、101…測位部、102…位置情報送信部、103…撮影部、104…映像送信部、105…撮影動作制御部、201…監視員端末情報取得部、202…固定カメラ情報取得部、203…優先度判定部、204…処理決定部、205…撮影指示部、206…画像処理動作制御部、207…画像処理部、208…報知部、209…発生場所特定部、301…報知情報表示部、401…撮影部、402…映像送信部、403…撮影動作制御部。 DESCRIPTION OF SYMBOLS 1 ... Monitoring system, 10 ... Monitoring terminal, 20 ... Monitoring center server apparatus, 30 ... Operator terminal, 40 ... Fixed camera, 101 ... Positioning part, 102 ... Position information transmission part, 103 ... Shooting part, 104 ... Video transmission part , 105 ... shooting operation control unit, 201 ... monitor terminal information acquisition unit, 202 ... fixed camera information acquisition unit, 203 ... priority determination unit, 204 ... process determination unit, 205 ... shooting instruction unit, 206 ... image processing operation control 207 ... Image processing unit, 208 ... Notification unit, 209 ... Generation location specifying unit, 301 ... Notification information display unit, 401 ... Shooting unit, 402 ... Video transmission unit, 403 ... Shooting operation control unit.

Claims (7)

監視エリアの映像を撮影する各撮影装置の位置情報を取得する第1取得手段と、
前記監視エリアにいる監視者の位置情報を取得する第2取得手段と、
取得された前記各撮影装置の位置情報及び前記監視者の位置情報に基づいて、前記撮影装置の優先度を判定する判定手段と、
前記撮影装置について判定された前記優先度に応じて前記映像に関する処理を決定する決定手段と
を備える監視システム。
First acquisition means for acquiring position information of each imaging device that captures video in the monitoring area;
Second acquisition means for acquiring position information of a monitor in the monitoring area;
Determination means for determining the priority of the imaging device based on the acquired location information of each imaging device and the position information of the supervisor;
A monitoring system comprising: a determining unit that determines processing related to the video according to the priority determined for the photographing apparatus.
前記判定手段は、前記監視者と第1の位置関係にある第1撮影装置の優先度を、前記監視者と第1の位置関係にない場合に比べて低くする
請求項1に記載の監視システム。
The monitoring system according to claim 1, wherein the determination unit lowers the priority of the first imaging device that is in a first positional relationship with the monitor as compared to a case where the priority is not in the first positional relationship with the monitor. .
前記監視エリア内で発生した異常事象の発生場所を特定する特定手段を備え、
前記判定手段は、特定された前記発生場所と第2の位置関係にある第2撮影装置の優先度を、当該発生場所と第2の位置関係にない場合に比べて高くする
請求項2に記載の監視システム。
Comprising identifying means for identifying the occurrence location of an abnormal event that occurred in the monitoring area;
The determination unit increases the priority of the second imaging device that is in the second positional relationship with the identified occurrence location as compared to a case where the priority is not in the second positional relationship with the occurrence location. Monitoring system.
前記判定手段は、前記第2撮影装置が前記監視者と前記第1の位置関係にある場合、当該第2撮影装置の優先度を、前記監視者と前記第1の位置関係にない場合に比べて低くしない
請求項3に記載の監視システム。
When the second imaging device is in the first positional relationship with the monitor, the determination unit sets the priority of the second imaging device in comparison with the case where the priority is not in the first positional relationship with the monitor. The monitoring system according to claim 3.
前記判定手段は、前記第2撮影装置の優先度を、他の撮影装置に比べて低くしない
請求項3又は4に記載の監視システム。
The monitoring system according to claim 3 or 4, wherein the determination unit does not lower the priority of the second imaging device compared to other imaging devices.
前記判定手段は、前記第1撮影装置の優先度を、前記監視者と前記第1の位置関係にない他の撮影装置に比べて低くする
請求項2から5のいずれか1項に記載の監視システム。
The monitoring according to any one of claims 2 to 5, wherein the determination unit lowers the priority of the first imaging device as compared with other imaging devices that are not in the first positional relationship with the monitor. system.
前記判定手段は、前記第1の位置関係にある前記監視者の人数が多いほど前記第1撮影装置の優先度を低くする
請求項2から6のいずれか1項に記載の監視システム。
The monitoring system according to any one of claims 2 to 6, wherein the determination unit lowers the priority of the first imaging device as the number of the monitoring personnel in the first positional relationship increases.
JP2017065009A 2017-03-29 2017-03-29 Monitoring system Active JP6941458B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017065009A JP6941458B2 (en) 2017-03-29 2017-03-29 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017065009A JP6941458B2 (en) 2017-03-29 2017-03-29 Monitoring system

Publications (2)

Publication Number Publication Date
JP2018170574A true JP2018170574A (en) 2018-11-01
JP6941458B2 JP6941458B2 (en) 2021-09-29

Family

ID=64020541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017065009A Active JP6941458B2 (en) 2017-03-29 2017-03-29 Monitoring system

Country Status (1)

Country Link
JP (1) JP6941458B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020086504A (en) * 2018-11-15 2020-06-04 日本電気株式会社 Image processing apparatus, image processing method and program
JP2021099690A (en) * 2019-12-23 2021-07-01 横河電機株式会社 Apparatus, system, method, and program
JP2025051681A (en) * 2023-09-22 2025-04-04 ソフトバンクグループ株式会社 system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006132029A1 (en) * 2005-06-07 2006-12-14 Matsushita Electric Industrial Co., Ltd. Monitoring system, monitoring method, and camera terminal
JP2007221693A (en) * 2006-02-20 2007-08-30 Mitsubishi Electric Corp Video surveillance system and video concentrator
JP2012029725A (en) * 2010-07-28 2012-02-16 Kita Denshi Corp Game parlor monitoring system
JP2017017488A (en) * 2015-06-30 2017-01-19 キヤノン株式会社 Surveillance system, imaging control method, and program
JP2017028561A (en) * 2015-07-24 2017-02-02 セコム株式会社 Image monitoring system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006132029A1 (en) * 2005-06-07 2006-12-14 Matsushita Electric Industrial Co., Ltd. Monitoring system, monitoring method, and camera terminal
JP2007221693A (en) * 2006-02-20 2007-08-30 Mitsubishi Electric Corp Video surveillance system and video concentrator
JP2012029725A (en) * 2010-07-28 2012-02-16 Kita Denshi Corp Game parlor monitoring system
JP2017017488A (en) * 2015-06-30 2017-01-19 キヤノン株式会社 Surveillance system, imaging control method, and program
JP2017028561A (en) * 2015-07-24 2017-02-02 セコム株式会社 Image monitoring system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020086504A (en) * 2018-11-15 2020-06-04 日本電気株式会社 Image processing apparatus, image processing method and program
JP7387981B2 (en) 2018-11-15 2023-11-29 日本電気株式会社 Image processing device, image processing method, program
JP2021099690A (en) * 2019-12-23 2021-07-01 横河電機株式会社 Apparatus, system, method, and program
JP7211353B2 (en) 2019-12-23 2023-01-24 横河電機株式会社 Apparatus, system, method and program
JP2025051681A (en) * 2023-09-22 2025-04-04 ソフトバンクグループ株式会社 system

Also Published As

Publication number Publication date
JP6941458B2 (en) 2021-09-29

Similar Documents

Publication Publication Date Title
JP7444228B2 (en) program
DK2815389T3 (en) SYSTEMS AND PROCEDURES FOR PROVIDING EMERGENCY RESOURCES
US20170278367A1 (en) System and method for overlap detection in surveillance camera network
KR20110093040A (en) Subject monitoring device and method
JP7146416B2 (en) Information processing device, information processing system, information processing method, and program
KR101005568B1 (en) Intelligent security system
JP2017204838A (en) Information processing apparatus and information processing method
JP2009159448A (en) Object detecting apparatus, and object detecting method
JP6941458B2 (en) Monitoring system
JP2016123004A (en) Imaging apparatus installation support apparatus, imaging apparatus installation support method, and video recording / reproducing apparatus
KR101842564B1 (en) Focus image surveillant method for multi images, Focus image managing server for the same, Focus image surveillant system for the same, Computer program for the same and Recording medium storing computer program for the same
JP6842968B2 (en) Monitoring system
JP6941457B2 (en) Monitoring system
KR101280353B1 (en) Event notification system of condition using mobile device
KR101332820B1 (en) Object tracking system and method, object management apparatus and driving method thereof, photographing apparatus and driving method thereof
JP6720010B2 (en) Information processing apparatus, information processing method, and program
WO2023162016A1 (en) Monitoring system, monitoring device, monitoring method, and recording medium
JP7164575B2 (en) Safety management system
JP6807247B2 (en) Monitoring system and monitoring method
KR20190114223A (en) Surveillance system and operation method thereof
JP6877176B2 (en) Monitoring system
JP6921550B2 (en) Monitoring system and monitoring method
JP2020102677A (en) Information processing device, information processing method, and program
JP6903451B2 (en) Monitoring system and monitoring method
JP6854150B2 (en) Monitoring system and monitoring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210906

R150 Certificate of patent or registration of utility model

Ref document number: 6941458

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250