[go: up one dir, main page]

JP2024065688A - Surveillance camera system and program - Google Patents

Surveillance camera system and program Download PDF

Info

Publication number
JP2024065688A
JP2024065688A JP2022174681A JP2022174681A JP2024065688A JP 2024065688 A JP2024065688 A JP 2024065688A JP 2022174681 A JP2022174681 A JP 2022174681A JP 2022174681 A JP2022174681 A JP 2022174681A JP 2024065688 A JP2024065688 A JP 2024065688A
Authority
JP
Japan
Prior art keywords
person
log
image
shooting
map data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022174681A
Other languages
Japanese (ja)
Inventor
俊平 玉置
Shunpei Tamaoki
英宣 尾形
Hidenori Ogata
義久 田中
Yoshihisa Tanaka
萌 戸谷
Moe Totani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2022174681A priority Critical patent/JP2024065688A/en
Publication of JP2024065688A publication Critical patent/JP2024065688A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

To enable easy grasping of next movement destination of a person reflected in an image of a confirmation object.SOLUTION: A monitoring camera system photographs a person existed in a monitoring area by using a plurality of photographing devices. An identification portion 212 identifies a person included in a plurality of image data photographed by the plurality of photographing devices. A storage portion 202 stores: a map data including an installation place of the plurality of photographing devices in the monitoring area; a plurality of image data photographed by the plurality of photographing devices; and a time sequence log data that is associated with an identification result of a person included in each image data and a photographing device that photographs the image data. A display portion 205 displays a movement destination of the person onto the map data on the basis of the installation place of the other photographing device photographing the person in sequence of a first photographing device while displaying the image data obtained by photographing the person by the first photographing device.SELECTED DRAWING: Figure 2

Description

本発明は、監視領域を監視する技術に関する。 The present invention relates to a technology for monitoring a monitoring area.

従来、カメラで撮影した映像を記録し、記録映像を再生可能な監視カメラシステムがある。また、記録映像に写っている人物の巡回経路をマップ上に表示する技術が知られている(例えば特許文献1)。 Conventionally, there are surveillance camera systems that can record images captured by cameras and play back the recorded images. There is also known technology that displays on a map the patrol route of a person captured in the recorded images (for example, Patent Document 1).

特開2018-32950号公報JP 2018-32950 A

記録映像を再生することで撮影された人物の存在は確認できるが、その人物の移動先を再生映像から把握することは容易でない。また、特許文献1に記載の技術のように、人物の詳細な移動経路を示す動線を地図データ上に表示すると、人物の動きによっては動線が重なったり入り乱れたりするため、撮影装置により撮影された人物の次の移動先を把握し難いという問題があった。 Although the presence of the person captured on the video can be confirmed by playing back the recorded video, it is not easy to determine the person's destination from the played back video. Furthermore, when a traffic line showing the detailed route of a person's movement is displayed on map data, as in the technology described in Patent Document 1, the traffic lines may overlap or become mixed up depending on the person's movements, making it difficult to determine the next destination of the person captured by the camera.

本発明は、確認対象の画像に写る人物の次の移動先を容易に把握できるようにすることを目的とする。 The purpose of the present invention is to make it easy to determine the next destination of a person appearing in an image to be confirmed.

本発明の一態様は、複数の撮影装置を用いて監視領域に存在する人物を撮影する監視カメラシステムであって、前記複数の撮影装置が撮影した複数の画像データに含まれる前記人物を識別する識別部と、前記監視領域における前記複数の撮影装置の設置場所を含む地図データと、前記複数の撮影装置が撮影した前記複数の画像データと、前記画像データに含まれる人物の識別結果及び当該画像データを撮影した撮影装置を紐づけた時系列のログデータとを記憶する記憶部と、前記複数の撮影装置に含まれる第1の撮影装置が前記人物を撮影した画像データを表示するとともに、前記第1の撮影装置の次に当該人物を撮影した第2の撮影装置の設置場所に基づいて当該人物の移動先を前記地図データ上に表示する表示部と、を備える監視カメラシステムを提供する。 One aspect of the present invention provides a surveillance camera system that uses multiple image capture devices to capture images of people in a surveillance area, the surveillance camera system comprising: an identification unit that identifies the person included in multiple image data captured by the multiple image capture devices; a memory unit that stores map data including the locations of the multiple image capture devices in the surveillance area, the multiple image data captured by the multiple image capture devices, and chronological log data linking the identification results of the person included in the image data and the image capture devices that captured the image data; and a display unit that displays image data of the person captured by a first image capture device included in the multiple image capture devices, and displays the person's destination on the map data based on the location of a second image capture device that captured the person after the first image capture device.

前記表示部は、前記第1の撮影装置の設置場所と前記第2の撮影装置の設置場所との関係に応じて動きが異なるアイコンを前記地図データ上に表示することで、前記人物の移動先を表してもよい。 The display unit may indicate the destination of the person by displaying an icon on the map data that moves differently depending on the relationship between the installation location of the first image capture device and the installation location of the second image capture device.

前記表示部は、前記第1の撮影装置の撮影範囲から前記第2の撮影装置の撮影範囲に向かう方向に前記アイコンを直線移動させてもよい。 The display unit may move the icon in a straight line from the imaging range of the first imaging device toward the imaging range of the second imaging device.

前記地図データは、第1の監視領域の第1の地図データと、第2の監視領域の第2の地図データとを含み、前記表示部は、前記第1の撮影装置の設置場所と前記第2の撮影装置の設置場所とが同一の地図データに含まれる場合、前記第1の撮影装置と前記第2の撮影装置との設置場所の位置関係に応じた方向に移動する前記アイコンを前記地図データ上に表示し、前記第1の撮影装置の設置場所と前記第2の撮影装置の設置場所とが異なる地図データに含まれる場合、前記第1の監視領域と前記第2の監視領域との位置関係に応じた方向に移動する前記アイコンを前記地図データ上に表示してもよい。 The map data includes first map data of a first monitoring area and second map data of a second monitoring area, and the display unit may display, when the installation location of the first photographing device and the installation location of the second photographing device are included in the same map data, the icon that moves in a direction corresponding to the positional relationship between the installation locations of the first photographing device and the second photographing device on the map data, and when the installation location of the first photographing device and the installation location of the second photographing device are included in different map data, the icon that moves in a direction corresponding to the positional relationship between the first monitoring area and the second monitoring area on the map data.

前記表示部は、さらに前記人物が前記第1の撮影装置に撮影されてから前記第2の撮影装置に撮影されるまでに要する時間に応じて、表示する前記アイコンの動きを異ならせてもよい。 The display unit may further vary the movement of the icon displayed depending on the time it takes for the person to be photographed by the first imaging device and then by the second imaging device.

前記表示部は、第1のアイコンを用いて前記人物の移動先を表示するとともに、前記複数の撮影装置の各々の設置場所を、第2のアイコンを用いて識別可能に表示し、前記人物を撮影した前記撮影装置の設置場所と、前記人物を撮影していない他の撮影装置の設置場所とを、前記第2のアイコンを用いて区別して表示してもよい。 The display unit may display the destination of the person using a first icon, and may display the installation locations of the plurality of image capture devices in an identifiable manner using a second icon, and may distinguish between the installation location of the image capture device that captured the person and the installation locations of other image capture devices that did not capture the person using the second icon.

前記監視カメラシステムは、利用者による前記ログデータの選択を受け付ける操作部を、さらに備え、前記表示部は、前記選択されたログデータに紐づいた前記第1の撮影装置の前記画像データを表示するとともに、当該ログデータに紐づいた前記人物を前記第1の撮影装置の次に撮影した前記第2の撮影装置を特定し、特定した第2の撮影装置の設置場所に基づいて前記人物の移動先を前記地図データ上に表示してもよい。 The surveillance camera system may further include an operation unit that accepts a user's selection of the log data, and the display unit may display the image data of the first imaging device linked to the selected log data, identify the second imaging device that captured the person linked to the log data next after the first imaging device, and display the person's destination on the map data based on the installation location of the identified second imaging device.

本発明の別の態様は、複数の撮影装置を用いて監視領域に存在する人物を撮影するコンピュータに、前記複数の撮影装置が撮影した複数の画像データに含まれる前記人物を識別するステップと、前記監視領域における前記複数の撮影装置の設置場所を含む地図データと、前記複数の撮影装置が撮影した前記複数の画像データと、前記画像データに含まれる人物の識別結果及び当該画像データを撮影した撮影装置を紐づけた時系列のログデータとを記憶するステップと、前記複数の撮影装置に含まれる第1の撮影装置が前記人物を撮影した画像データを表示するとともに、前記第1の撮影装置の次に当該人物を撮影した第2の撮影装置の設置場所に基づいて当該人物の移動先を前記地図データ上に表示するステップと、を実行させるためのプログラムを提供する。 Another aspect of the present invention provides a program for causing a computer that uses multiple image capture devices to capture images of a person in a monitored area to execute the steps of identifying the person included in multiple image data captured by the multiple image capture devices, storing map data including the locations of the multiple image capture devices in the monitored area, the multiple image data captured by the multiple image capture devices, and chronological log data linking the results of identifying the person included in the image data and the image capture devices that captured the image data, and displaying image data of the person captured by a first image capture device included in the multiple image capture devices, and displaying the person's destination on the map data based on the location of a second image capture device that captured the person after the first image capture device.

本発明のさらに別の態様は、複数の撮影装置を用いて監視領域に存在する人物を撮影する監視カメラシステムであって、前記複数の撮影装置が撮影した複数の画像データに含まれる前記人物を識別する識別部と、前記監視領域における前記複数の撮影装置の設置場所を含む地図データと、前記画像データに含まれる人物の識別結果及び当該画像データを撮影した撮影装置を紐づけた時系列のログデータとを記憶する記憶部と、利用者による前記ログデータの選択を受け付ける操作部と、前記選択されたログデータに紐づいた第1の撮影装置の設置場所と、当該ログデータに紐づいた前記人物を前記第1の撮影装置の次に撮影した第2の撮影装置の設置場所とに基づいて、前記第1の撮影装置の撮影範囲から前記第2の撮影装置の撮影範囲に向かう方向に直線移動するアイコンを前記地図データ上に表示することで前記人物の移動先を表す表示部と、を備える監視カメラシステムを提供する。 Yet another aspect of the present invention provides a surveillance camera system that uses multiple image capture devices to capture images of people in a surveillance area, the surveillance camera system comprising: an identification unit that identifies the person included in multiple image data captured by the multiple image capture devices; a storage unit that stores map data including the locations of the multiple image capture devices in the surveillance area, and time-series log data linking the identification results of the person included in the image data and the image capture devices that captured the image data; an operation unit that accepts a user's selection of the log data; and a display unit that displays an icon that moves linearly from the capture range of the first image capture device to the capture range of the second image capture device on the map data based on the location of the first image capture device linked to the selected log data and the location of the second image capture device that captured the person linked to the log data after the first image capture device, thereby indicating the destination of the person.

本発明によれば、確認対象の画像に写る人物の次の移動先を容易に把握することができる。 The present invention makes it easy to determine the next destination of a person appearing in an image to be confirmed.

実施形態に係る監視カメラシステムの構成の一例を示す図である。1 is a diagram illustrating an example of a configuration of a surveillance camera system according to an embodiment. 監視装置の構成の一例を示す図である。FIG. 2 illustrates an example of a configuration of a monitoring device. ログリストの一例を示す図である。FIG. 13 is a diagram illustrating an example of a log list. 監視装置の画像解析処理の一例を示すフローチャートである。13 is a flowchart illustrating an example of an image analysis process of the monitoring device. 監視装置の表示処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of a display process of the monitoring device. 設定画面の一例を示す図である。FIG. 13 illustrates an example of a setting screen. ログ表示画面の一例を示す図である。FIG. 13 is a diagram illustrating an example of a log display screen. 変更後の対象撮影ログを示すログ表示画面の一例を示す図である。FIG. 13 is a diagram showing an example of a log display screen showing a changed target shooting log. 変更後の対象撮影ログを示すログ表示画面の一例を示す図である。FIG. 13 is a diagram showing an example of a log display screen showing a changed target shooting log. 変更後の対象撮影ログを示すログ表示画面の一例を示す図である。FIG. 13 is a diagram showing an example of a log display screen showing a changed target shooting log. 変更後の対象撮影ログを示すログ表示画面の一例を示す図である。FIG. 13 is a diagram showing an example of a log display screen showing a changed target shooting log.

1.構成
図1は、実施形態に係る監視カメラシステム1の構成の一例を示す図である。監視カメラシステム1は、複数の撮影装置10を用いて監視領域45に存在する人物を撮影し、不審者の侵入や従業員の動きなどを監視する。監視カメラシステム1は、複数の撮影装置10と、監視装置20とを備える。複数の撮影装置10と監視装置20とは、監視区画40に設置され、ネットワーク30を介して接続されている。監視区画40は、例えば監視対象の建物などの物件である。監視区画40は、複数の監視領域45を有する。複数の監視領域45は、例えば監視対象の建物における異なるフロア、又は異なる部屋である。各監視領域45には、少なくとも一つの複数の撮影装置10が設置される。監視装置20は、例えば監視対象の建物内の管理室に設置される。ネットワーク30は、例えば監視区画40内に構築されたLAN(Local Area Network)などの通信ネットワークであり、複数の撮影装置10と監視装置20とをデータ通信可能に接続する。なお、監視装置20は監視区画40の外にあってもよく、複数の監視区画40に設置される複数の撮影装置10とデータ通信してもよい。
1. Configuration FIG. 1 is a diagram showing an example of the configuration of a surveillance camera system 1 according to an embodiment. The surveillance camera system 1 uses a plurality of imaging devices 10 to capture images of people present in a surveillance area 45, and monitors the intrusion of suspicious people and the movement of employees. The surveillance camera system 1 includes a plurality of imaging devices 10 and a surveillance device 20. The plurality of imaging devices 10 and the surveillance device 20 are installed in a surveillance area 40 and connected via a network 30. The surveillance area 40 is, for example, a property such as a building to be monitored. The surveillance area 40 has a plurality of surveillance areas 45. The plurality of surveillance areas 45 are, for example, different floors or different rooms in a surveillance building. At least one of the plurality of imaging devices 10 is installed in each surveillance area 45. The surveillance device 20 is, for example, installed in a management room in a surveillance building. The network 30 is, for example, a communication network such as a LAN (Local Area Network) constructed in the surveillance area 40, and connects the plurality of imaging devices 10 and the surveillance device 20 so that data communication is possible. The monitoring device 20 may be located outside the monitoring area 40 and may perform data communication with a plurality of image capturing devices 10 installed in a plurality of monitoring areas 40 .

撮影装置10は、監視領域45の画像データを撮影し、この画像データを監視装置20に送信する。撮影装置10は、例えば90度カメラや全方位カメラなどの広角レンズを搭載したネットワークカメラである。画像データは、例えば動画データである。ただし、画像データは、動画データに限定されず、静止画データであってもよい。撮影装置10は、例えば24時間撮影を行い、撮影した画像データを記憶する。そして、撮影装置10は、所定の契機に応じて、この画像データを監視装置20に送信する。 The imaging device 10 captures image data of the monitoring area 45 and transmits this image data to the monitoring device 20. The imaging device 10 is, for example, a network camera equipped with a wide-angle lens such as a 90-degree camera or an omnidirectional camera. The image data is, for example, video data. However, the image data is not limited to video data and may be still image data. The imaging device 10 captures images for, for example, 24 hours a day and stores the captured image data. The imaging device 10 then transmits this image data to the monitoring device 20 in response to a specified trigger.

監視装置20は、撮影装置10により撮影された画像データに基づいて利用者が監視領域45を監視するために用いられる。監視装置20は、例えば汎用のコンピュータである。監視装置20は、撮影装置10から受信した画像データを表示する。また、監視装置20は、この画像データとともに、この画像データに含まれる人物を撮影した撮影装置10の設置場所を地図データ上に識別可能に表示する。撮影装置10に人物が撮影されたということは、その撮影装置10の撮影範囲内にこの人物が存在していたことを示す。したがって、人物を撮影した撮影装置10の設置場所を地図データ上に識別可能に表示することにより、利用者は、監視領域45において人物がどのように移動したかを把握することができる。 The monitoring device 20 is used by a user to monitor the monitoring area 45 based on image data captured by the imaging device 10. The monitoring device 20 is, for example, a general-purpose computer. The monitoring device 20 displays image data received from the imaging device 10. The monitoring device 20 also displays, together with the image data, the location of the imaging device 10 that captured the person included in the image data in an identifiable manner on map data. The fact that a person was captured by the imaging device 10 indicates that the person was present within the imaging range of the imaging device 10. Therefore, by identifiable display on map data of the location of the imaging device 10 that captured the person, the user can understand how the person moved within the monitoring area 45.

なお、図1に示される例では、監視装置20は、一つの監視区画40内の複数の監視領域45を監視するために用いられているが、複数の監視区画40内の複数の監視領域45を監視するために用いられてもよい。この場合、監視装置20は、複数の監視区画40内の複数の監視領域45に設置された複数の撮影装置10に接続され、これらの撮影装置10により撮影された画像データを受信する。 In the example shown in FIG. 1, the monitoring device 20 is used to monitor multiple monitoring areas 45 in one monitoring section 40, but it may be used to monitor multiple monitoring areas 45 in multiple monitoring sections 40. In this case, the monitoring device 20 is connected to multiple image capture devices 10 installed in multiple monitoring areas 45 in multiple monitoring sections 40, and receives image data captured by these image capture devices 10.

図2は、監視装置20の構成の一例を示す図である。監視装置20は、制御部201と、記憶部202と、通信部203と、操作部204と、表示部205とを備える。監視装置20の各部は、バスを介して接続されている。 FIG. 2 is a diagram showing an example of the configuration of the monitoring device 20. The monitoring device 20 includes a control unit 201, a storage unit 202, a communication unit 203, an operation unit 204, and a display unit 205. The various units of the monitoring device 20 are connected via a bus.

制御部201は、監視装置20の各部の制御及び各種の処理を行う。制御部201は、例えば1又は複数のCPU(Central Processing Unit)などのプロセッサを含む。記憶部202は、制御部201により用いられる各種のプログラム及びデータを記憶する。記憶部202は、例えばRAM(Random Access Memory)、ROM(Read Only Memory)などのメモリと、HDD(Hard Disk Drive)、SSD(Solid State Drive)などのストレージとを含む。記憶部202には、監視装置20の機能を実現させるためのプログラムと、複数の地図データと、複数の撮影装置10の設置場所を示す位置情報とが記憶される。複数の地図データは、それぞれ異なる監視領域45における撮影装置10の設置場所を含む。 The control unit 201 controls each part of the monitoring device 20 and performs various processes. The control unit 201 includes a processor such as one or more CPUs (Central Processing Units). The storage unit 202 stores various programs and data used by the control unit 201. The storage unit 202 includes memories such as RAM (Random Access Memory) and ROM (Read Only Memory), and storage such as HDD (Hard Disk Drive) and SSD (Solid State Drive). The storage unit 202 stores programs for realizing the functions of the monitoring device 20, multiple map data, and location information indicating the installation locations of multiple imaging devices 10. The multiple map data each include the installation locations of the imaging devices 10 in a different monitoring area 45.

通信部203は、監視装置20をネットワーク30に接続するための通信インターフェースである。通信部203は、ネットワーク30を介して複数の撮影装置10とデータ通信を行う。操作部204は、例えばキーボード及びマウスであり、利用者による操作を受け付ける。表示部205は、例えば液晶ディスプレイであり、記憶部202に記憶された地図データ上に、撮影装置10により撮影された画像データと、この画像データに含まれる人物を撮影した撮影装置10の設置場所とを表示する。 The communication unit 203 is a communication interface for connecting the monitoring device 20 to the network 30. The communication unit 203 performs data communication with multiple image capture devices 10 via the network 30. The operation unit 204 is, for example, a keyboard and mouse, and accepts operations by a user. The display unit 205 is, for example, a liquid crystal display, and displays, on the map data stored in the memory unit 202, image data captured by the image capture device 10 and the installation location of the image capture device 10 that captured the person included in the image data.

制御部201は、取得部211と、識別部212と、作成部213と、表示制御部214として機能する。これらの機能は、制御部201が記憶部202に記憶されたプログラムを実行して、制御部201が演算を行い又は監視装置20の各部を制御することにより実現されるソフトウェアモジュールである。ただし、これらの機能の少なくとも一部は、電子回路の組み合わせにより実現されるハードウェアモジュールであってもよい。 The control unit 201 functions as an acquisition unit 211, an identification unit 212, a creation unit 213, and a display control unit 214. These functions are software modules that are realized by the control unit 201 executing a program stored in the storage unit 202 and the control unit 201 performing calculations or controlling each part of the monitoring device 20. However, at least some of these functions may be hardware modules that are realized by a combination of electronic circuits.

取得部211は、複数の撮影装置10により撮影された複数の画像データを取得し、記憶部202に記憶させる。各画像データには、撮影装置IDと、撮影日時とが含まれる。撮影装置IDは、画像データを撮影した撮影装置10を一意に識別する情報である。撮影日時は、撮影装置10により画像データが撮影された日時である。撮影日時には撮影時刻が含まれる。 The acquisition unit 211 acquires multiple image data captured by multiple image capture devices 10, and stores them in the storage unit 202. Each image data includes a capture device ID and a capture date and time. The capture device ID is information that uniquely identifies the capture device 10 that captured the image data. The capture date and time is the date and time when the image data was captured by the capture device 10. The capture date and time includes the capture time.

識別部212は、取得部211により取得された複数の画像データに画像処理を施して、これらの画像データに含まれる人物を識別する。ここでいう「人物を識別」とは、人物を見分けることをいう。人物の識別は、一の人物と他の人物とを区別できればよく、必ずしもその人物が誰であるかまでは特定しなくてもよい。画像処理には、例えば人物検出処理と、人物識別処理と、人物追跡処理とが含まれる。 The identification unit 212 performs image processing on the multiple image data acquired by the acquisition unit 211 to identify the people contained in the image data. Here, "identifying a person" refers to distinguishing between people. Identifying a person only requires distinguishing one person from another, and does not necessarily require identifying who that person is. Image processing includes, for example, person detection processing, person identification processing, and person tracking processing.

人物検出処理は、画像データから人物を検出する処理である。人物検出処理は、例えば背景差分法などの既知の方法を用いて行われる。 The person detection process is a process for detecting people from image data. The person detection process is performed using a known method, such as background subtraction.

人物識別処理は、人物検出処理により検出された人物を識別する処理である。人物識別処理は、例えば顔画像認識技術を利用して行われる。他の例として、人物識別処理は、服装や歩き方などの外見的特徴を用いて行われてもよい。 The person identification process is a process for identifying a person detected by the person detection process. The person identification process is performed, for example, using face image recognition technology. As another example, the person identification process may be performed using external characteristics such as clothing and walking style.

また、予め登録された人物については、さらに個人特定処理が行われてもよい。個人特定処理は、人物識別処理により識別された人物について個人を特定する処理である。個人特定処理は、例えば顔画像認識技術を利用して行われる。例えば監視装置20には、従業員などの既知の人物の顔画像データと、その人物のユーザ名のセットとが予め登録される。識別部212は、予め登録された顔画像データの中から人物識別処理により識別された人物の顔画像データとマッチングする顔画像データ及びそのユーザ名を抽出し、人物識別処理により識別された人物をこのユーザ名の人物として特定する。なお、予め登録された人物以外の人物については、未登録の利用者として認識される。他の例として、個人特定処理は、ユーザ認証システムと連携して行われてもよい。例えばユーザ認証システムは、指紋、虹彩などの生体情報、又はIC(Integrated Circuit)カードを用いて従業員などの既知の人物のユーザ認証を行う。撮影装置10は、ユーザ認証を行う人物を撮影する。識別部212は、ユーザ認証システムからユーザ認証の結果を取得する。このユーザ認証の結果には、認証された人物のユーザ名が含まれる。識別部212は、このユーザ認証の結果に基づいて、撮影装置10により撮影されたユーザ認証を行う人物を、ユーザ認証により認証されたユーザ名の人物として特定する。 In addition, a personal identification process may be further performed on a person registered in advance. The personal identification process is a process for identifying an individual for a person identified by the person identification process. The personal identification process is performed, for example, using face image recognition technology. For example, face image data of a known person such as an employee and a set of the user name of the person are registered in advance in the monitoring device 20. The identification unit 212 extracts face image data and the user name that match the face image data of the person identified by the person identification process from the face image data registered in advance, and identifies the person identified by the person identification process as the person with this user name. Note that a person other than the person registered in advance is recognized as an unregistered user. As another example, the personal identification process may be performed in cooperation with a user authentication system. For example, the user authentication system performs user authentication of a known person such as an employee using biometric information such as a fingerprint or iris, or an IC (Integrated Circuit) card. The photographing device 10 photographs the person to be authenticated. The identification unit 212 obtains the result of the user authentication from the user authentication system. The result of the user authentication includes the user name of the authenticated person. Based on the result of this user authentication, the identification unit 212 identifies the person undergoing user authentication who was photographed by the photographing device 10 as the person with the user name authenticated by the user authentication.

人物追跡処理は、人物識別処理により識別された人物を追跡する処理である。人物追跡処理は、例えば領域特徴追跡法、特徴点追跡法などの既知の方法を用いて行われる。上述した顔認識技術を利用した人物識別処理では、画像データに含まれる人物の顔が正面を向いていない場合には、人物を認識することができない。そのため、撮影装置10により撮影された人物の顔が横又は後ろを向いている期間においては、人物が認識されない。しかし、人物追跡処理を行うことにより、撮影装置10により撮影された人物の顔が横又は後ろを向いている期間であっても、撮影装置10により撮影された人物を認識することができる。ただし、人物追跡処理は必須ではない。例えば人物検出処理、並びに顔画像認識技術を利用した人物識別処理及び個人特定処理だけが行われてもよい。 The person tracking process is a process for tracking a person identified by the person identification process. The person tracking process is performed using a known method such as an area feature tracking method or a feature point tracking method. In the person identification process using the face recognition technology described above, if the face of a person included in image data is not facing forward, the person cannot be recognized. Therefore, during a period in which the face of a person photographed by the photographing device 10 is facing to the side or backward, the person is not recognized. However, by performing the person tracking process, the person photographed by the photographing device 10 can be recognized even during a period in which the face of the person photographed by the photographing device 10 is facing to the side or backward. However, the person tracking process is not essential. For example, only the person detection process, and the person identification process and individual specification process using face image recognition technology may be performed.

作成部213は、識別部212により識別された人物毎にログリスト221(本発明に係るログデータの一例)を作成し、記憶部202に記憶させる。ログリスト221は、識別部212により識別された各人物がいつ、どの撮影装置10により撮影されたかを示す撮影履歴である。なおログリスト221は人物毎ではなく、撮影装置10毎に作成してもよい。この場合、作成部213は、撮影装置10毎に、どの人物がいつ撮影されたかを示す撮影履歴を作成する。ログリスト221は、撮影日時に基づいて時系列に沿って作成される。すなわち、ログリスト221は、撮影装置10により撮影された画像データに含まれる人物の識別結果及び当該画像データを撮影した撮影装置10を紐づけた時系列のデータである。 The creation unit 213 creates a log list 221 (an example of log data according to the present invention) for each person identified by the identification unit 212, and stores it in the storage unit 202. The log list 221 is a shooting history indicating when and by which imaging device 10 each person identified by the identification unit 212 was photographed. The log list 221 may be created for each imaging device 10, not for each person. In this case, the creation unit 213 creates a shooting history indicating when each person was photographed for each imaging device 10. The log list 221 is created in chronological order based on the shooting date and time. In other words, the log list 221 is chronological data linking the identification result of the person included in the image data photographed by the imaging device 10 and the imaging device 10 that photographed the image data.

図3は、ログリスト221の一例を示す図である。図3では、ユーザXのログリスト221が示される。ログリスト221には、複数の撮影ログが含まれる。各撮影ログには、撮影日時と、撮影装置IDと、ユーザ名と、画像データとが含まれる。撮影日時及び撮影装置IDは、画像データに含まれる。なお、図3に示される例では、撮影日時は、日、時、及び分という単位により示されているが、さらに秒という単位を用いて示されてもよい。ユーザ名は、識別部212により特定された人物のユーザ名である。なお、識別部212により個人が特定されなかった人物のユーザ名については、未登録であることを示すユーザ名が用いられる。 Figure 3 is a diagram showing an example of the log list 221. In Figure 3, the log list 221 of user X is shown. The log list 221 includes multiple shooting logs. Each shooting log includes the shooting date and time, the shooting device ID, the user name, and image data. The shooting date and time and the shooting device ID are included in the image data. In the example shown in Figure 3, the shooting date and time are shown in units of days, hours, and minutes, but may also be shown in units of seconds. The user name is the user name of the person identified by the identification unit 212. For the user name of a person who has not been identified by the identification unit 212, a user name indicating that the person is not registered is used.

なお、ログリスト221には、必ずしも人物を撮影した履歴を示す全ての撮影ログが含まれなくてもよい。例えば或る期間において、同一人物が同一の撮影装置10により連続して撮影された場合、この期間の最初の撮影ログ及び最後の撮影ログについてはログリスト221に含まれる。一方、これらの間の撮影ログについては、30分などの所定の時間間隔の撮影ログだけが含まれ、その他の撮影ログについては削除されるか、所定の時間間隔の撮影ログに集約されてもよい。なお、最初及び最後のみを撮影ログとして残すのではなく、同一人物を撮影し続けた時間全てを撮影ログとして残し、ログリスト上でも9時10分~9時40分のように撮影し続けた時間を表示してもよい。 Note that the log list 221 does not necessarily have to include all shooting logs that indicate the history of photographing a person. For example, if the same person is photographed continuously by the same photographing device 10 during a certain period of time, the first shooting log and the last shooting log of this period will be included in the log list 221. On the other hand, for the shooting logs in between, only shooting logs for a predetermined time interval, such as 30 minutes, will be included, and the other shooting logs may be deleted or consolidated into shooting logs for a predetermined time interval. Note that instead of leaving only the first and last as shooting logs, the entire time the same person was photographed may be left as shooting logs, and the log list may display the time during which shooting was continued, such as 9:10 to 9:40.

図2に戻り、表示制御部214は、記憶部202に記憶された地図データ上に、作成部213により撮影されたログリスト221に含まれる表示対象となる対象撮影ログを重ねて、表示部205に表示させる。後述するが、対象撮影ログとは図6の設定画面250にて利用者がログを確認するために選択した撮影ログである。地図データには、記憶部202に記憶された撮影装置10の位置情報に基づいて、その地図データにより示される監視領域45に設置された各撮影装置10の設置場所がカメラアイコン311を用いて識別可能に表示される。そのため、地図データが各撮影装置10の設置位置を示す位置情報として用いられても良い。なお、ここでいう「アイコン」とは、対象を記号化した図形をいい、操作の用に供される画像でなくてもよい。また、設定画面250にて利用者に選択された人物である対象人物を撮影した撮影装置10の設置場所と対象人物を撮影していない撮影装置10の設置場所とは、カメラアイコン311の外観を異ならせることにより区別して表示される。カメラアイコン311は、本発明に係る第2のアイコンの一例である。 Returning to FIG. 2, the display control unit 214 displays the target shooting log to be displayed, which is included in the log list 221 captured by the creation unit 213, on the map data stored in the storage unit 202 on the display unit 205. As will be described later, the target shooting log is a shooting log selected by the user to check the log on the setting screen 250 of FIG. 6. In the map data, the installation locations of each of the shooting devices 10 installed in the monitoring area 45 indicated by the map data are displayed identifiable using the camera icon 311 based on the location information of the shooting device 10 stored in the storage unit 202. Therefore, the map data may be used as location information indicating the installation location of each of the shooting devices 10. Note that the "icon" here refers to a figure that symbolizes the target, and does not have to be an image used for operation. In addition, the installation locations of the shooting devices 10 that have captured the target person, who is a person selected by the user on the setting screen 250, and the installation locations of the shooting devices 10 that have not captured the target person are displayed in a distinguishable manner by making the appearance of the camera icon 311 different. The camera icon 311 is an example of a second icon according to the present invention.

また、表示制御部214は、記憶部202に記憶された複数の画像データのうち、撮影装置10が対象人物を撮影した画像データを地図データ上に表示させる。本実施例では、動画データから切り出したサムネイル画像312を地図データ上に表示させる例を説明する。表示制御部214は、まずはこの画像データのサムネイル画像312を表示させ、利用者の操作に応じてこの画像データを再生させる。画像データ及びサムネイル画像312はいずれも、本発明に係る撮影装置10により撮影された画像データの一例である。 The display control unit 214 also displays, on the map data, image data of a target person captured by the imaging device 10, from among the multiple image data stored in the storage unit 202. In this embodiment, an example will be described in which a thumbnail image 312 cut out from video data is displayed on the map data. The display control unit 214 first displays the thumbnail image 312 of this image data, and plays this image data in response to a user operation. Both the image data and the thumbnail image 312 are examples of image data captured by the imaging device 10 according to the present invention.

さらに、表示制御部214は、記憶部202に記憶された複数の撮影装置10の位置情報及びログリスト221に含まれる撮影日時に基づいて、上述した撮影装置10が対象人物を撮影した画像データとともに、この撮影装置10の次に対象人物を撮影した撮影装置10の設置場所に基づいて、人物アイコン313を用いて対象人物の移動先を地図データ上に表示させる。画像データと人物アイコン313とは、同一の画面において同一の地図データ上に併せて表示される。人物アイコン313は、人物を示すアイコンである。人物アイコン313は、本発明に係る第1のアイコンの一例である。表示制御部214は、表示対象となる画像データを撮影した撮影装置10の設置場所と、この画像データに含まれる対象人物を次に撮影した撮影装置10の設置場所との関係に応じて人物アイコン313の動きを異ならせたアニメーションの表示を行う。 Furthermore, based on the location information of the multiple image capture devices 10 stored in the storage unit 202 and the image capture date and time included in the log list 221, the display control unit 214 uses a person icon 313 to display the destination of the target person on the map data based on the installation location of the image capture device 10 that next captured the target person after the image capture device 10, along with image data of the target person captured by the image capture device 10 described above. The image data and the person icon 313 are displayed together on the same map data on the same screen. The person icon 313 is an icon that indicates a person. The person icon 313 is an example of a first icon according to the present invention. The display control unit 214 displays an animation in which the movement of the person icon 313 differs depending on the relationship between the installation location of the image capture device 10 that captured the image data to be displayed and the installation location of the image capture device 10 that next captured the target person included in the image data.

例えばこれらの撮影装置10が異なる撮影装置10であり、且つこれらの撮影装置10の設置場所が同一の地図データにより示される場合、対象人物は表示中の地図データにより示される監視領域45において一の撮影装置10の撮影範囲から他の撮影装置10の撮影範囲に移動したことを示す。この場合、表示制御部214は、表示中の地図データにより示される監視領域45において、対象人物が一の撮影装置10の撮影範囲から他の撮影装置10の撮影範囲に向かう方向に移動したことを示す人物アイコン313を動かすアニメーションを表示させる。 For example, if these image capture devices 10 are different image capture devices 10 and the locations of these image capture devices 10 are indicated by the same map data, the target person is shown to have moved from the image capture range of one image capture device 10 to the image capture range of another image capture device 10 in the monitoring area 45 indicated by the currently displayed map data. In this case, the display control unit 214 displays an animation of a moving person icon 313 indicating that the target person has moved from the image capture range of one image capture device 10 toward the image capture range of another image capture device 10 in the monitoring area 45 indicated by the currently displayed map data.

また、これらの撮影装置10が同一の撮影装置10である場合、対象人物はこの撮影装置10の撮影範囲に滞在していることを示す。この場合、表示制御部214は、対象人物がこの撮影装置10の撮影範囲に滞在していることを示す人物アイコン313を動かすアニメーションを表示させる。 In addition, if these image capture devices 10 are the same image capture device 10, it indicates that the target person is staying within the image capture range of this image capture device 10. In this case, the display control unit 214 displays an animation of moving the person icon 313 indicating that the target person is staying within the image capture range of this image capture device 10.

さらに、これらの撮影装置10が異なる撮影装置10であり、且つこれらの撮影装置10の設置場所が異なる地図データにより示される場合、対象人物は一の撮影装置10の撮影範囲から表示中の地図データにより示される監視領域45とは異なる監視領域45に移動したことを示す。この場合、表示制御部214は、対象人物が一の撮影装置10の撮影範囲から表示中の地図データにより示される監視領域45とは異なる監視領域45の方に移動したことを示す人物アイコン313を動かすアニメーションを表示させる。 Furthermore, if these image capture devices 10 are different image capture devices 10 and the locations of these image capture devices 10 are indicated by different map data, it indicates that the target person has moved from the image capture range of one image capture device 10 to a monitoring area 45 different from the monitoring area 45 indicated by the currently displayed map data. In this case, the display control unit 214 displays an animation of moving the person icon 313 indicating that the target person has moved from the image capture range of one image capture device 10 to a monitoring area 45 different from the monitoring area 45 indicated by the currently displayed map data.

2.動作
2.1 画像解析処理
図4は、監視装置20の画像解析処理の一例を示すフローチャートである。画像解析処理では、撮影装置10により撮影された人物が識別され、人物毎に撮影ログが作成される。画像解析処理は、操作部204を用いた利用者の操作に応じて開始されてもよいし、所定のタイミングで開始されてもよい。
2. Operation 2.1 Image analysis processing Fig. 4 is a flowchart showing an example of image analysis processing of the monitoring device 20. In the image analysis processing, a person photographed by the imaging device 10 is identified, and a shooting log is created for each person. The image analysis processing may be started in response to an operation by a user using the operation unit 204, or may be started at a predetermined timing.

ステップS11において、取得部211は、複数の撮影装置10により撮影された複数の画像データを取得し、これらの画像データを記憶部202に記憶させる。例えば取得部211は、操作部204を用いた利用者の操作に応じて、複数の撮影装置10に画像データの取得要求を送信する。この取得要求に応じて複数の撮影装置10から複数の画像データが送信されると、取得部211はこれらの画像データを受信し、記憶部202に記憶させる。 In step S11, the acquisition unit 211 acquires multiple image data captured by multiple image capture devices 10, and stores the image data in the storage unit 202. For example, the acquisition unit 211 transmits an acquisition request for image data to the multiple image capture devices 10 in response to a user's operation using the operation unit 204. When multiple image data are transmitted from the multiple image capture devices 10 in response to this acquisition request, the acquisition unit 211 receives the image data and stores it in the storage unit 202.

ステップS12において、識別部212は、ステップS11において受信された複数の画像データに画像処理を施して、これらの画像データに含まれる人物を識別する。まず、識別部212は、複数の画像データから人物を検出する人物検出処理を行う。続いて、識別部212は、人物検出処理により検出された人物を識別する人物識別処理を行う。また、識別部212は、予め登録された人物については、人物識別処理により識別された人物について個人を特定する個人特定処理を行う。さらに、識別部212は、人物識別処理により識別された人物を追跡する人物追跡処理を行う。これにより、複数の撮影装置10により撮影された人物が識別される。 In step S12, the identification unit 212 performs image processing on the multiple image data received in step S11 to identify people included in the image data. First, the identification unit 212 performs person detection processing to detect people from the multiple image data. Next, the identification unit 212 performs person identification processing to identify people detected by the person detection processing. Furthermore, for people registered in advance, the identification unit 212 performs individual identification processing to identify individuals identified by the person identification processing. Furthermore, the identification unit 212 performs person tracking processing to track people identified by the person identification processing. In this way, people photographed by the multiple image capture devices 10 are identified.

ステップS13において、作成部213は、ステップS12において行われた画像処理の結果を用いてログリスト221を作成し、記憶部202に記憶させる。例えば2022年10月1日9時00分に撮影装置10Aにより撮影された画像データからユーザXが認識された場合、図3に示されるように、ログリスト221には、撮影日時「2022年10月1日9時00分」と、撮影装置ID「撮影装置10A」と、ユーザ名「ユーザX」と、この画像データとを含む撮影ログが追加される。また、2022年10月1日9時10分に撮影装置10Bにより撮影された画像データからユーザXが認識された場合、ログリスト221には、撮影日時「2022年10月1日9時10分」と、撮影装置ID「撮影装置10B」と、ユーザ名「ユーザX」と、その画像データとを含む撮影ログが追加される。 In step S13, the creation unit 213 creates a log list 221 using the results of the image processing performed in step S12, and stores the log list 221 in the storage unit 202. For example, if user X is recognized from image data captured by the image capture device 10A at 9:00 on October 1, 2022, as shown in FIG. 3, a shooting log including the shooting date and time "October 1, 2022, 9:00", the image capture device ID "image capture device 10A", the user name "user X", and the image data is added to the log list 221. Also, if user X is recognized from image data captured by the image capture device 10B at 9:10 on October 1, 2022, a shooting log including the shooting date and time "October 1, 2022, 9:10", the image capture device ID "image capture device 10B", the user name "user X", and the image data is added to the log list 221.

2.2 表示処理
図5は、監視装置20の表示処理の一例を示すフローチャートである。表示処理では、上述した画像解析処理において作成された撮影ログが地図データ上に表示される。表示処理は、例えば利用者が操作部204を用いて表示処理の実行を指示する操作を行うと、この操作に応じて開始される。
2.2 Display Processing Fig. 5 is a flowchart showing an example of the display processing of the monitoring device 20. In the display processing, the shooting log created in the above-mentioned image analysis processing is displayed on the map data. The display processing is started in response to, for example, a user performing an operation to instruct execution of the display processing using the operation unit 204.

ステップS21において、表示制御部214は、表示処理の実行を指示する操作が行われると、まず表示処理の各種条件を設定するための設定画面250を表示部205に表示させる。図6は、設定画面250の一例を示す図である。図6(a)に示されるように、設定画面250は、人物選択領域260と、期間指定領域270と、リスト表示領域280とが含まれる。人物選択領域260は、監視対象となる対象人物を選択する操作を受け付ける。期間指定領域270は、表示対象となる対象期間を指定する操作を受け付ける。リスト表示領域280には、対象期間における対象人物の撮影ログのログリスト281が表示される。 In step S21, when an operation is performed to instruct execution of the display process, the display control unit 214 first causes the display unit 205 to display a setting screen 250 for setting various conditions for the display process. FIG. 6 is a diagram showing an example of the setting screen 250. As shown in FIG. 6(a), the setting screen 250 includes a person selection area 260, a period designation area 270, and a list display area 280. The person selection area 260 accepts an operation to select a target person to be monitored. The period designation area 270 accepts an operation to designate a target period to be displayed. The list display area 280 displays a log list 281 of the shooting logs of the target person during the target period.

ステップS22において、利用者が操作部204を用いて監視対象となる対象人物を選択する操作を行うと、操作部204はこの操作を受け付ける。図6(a)に示されるように、設定画面250の人物選択領域260には、選択画面ボタン261が含まれる。利用者が操作部204を用いて選択画面ボタン261を押すと、表示部205には図6(b)に示される選択画面262が表示される。この選択画面262は、図6(a)に示される設定画面250の上に重ねて表示されてもよいし、設定画面250に代えて又は設定画面250と並べて表示されてもよい。なお、設定画面250は、複数ユーザが混在する全ログリストを時系列に沿って表示し、ログリスト281にユーザ名とセットで顔画像を表示してもよい。この場合、ログリスト281上に表示された撮影ログを選択する操作を行うと、選択された撮影ログが対象撮影ログとなりステップS24へ進む。 In step S22, when the user performs an operation to select a target person to be monitored using the operation unit 204, the operation unit 204 accepts this operation. As shown in FIG. 6(a), the person selection area 260 of the setting screen 250 includes a selection screen button 261. When the user presses the selection screen button 261 using the operation unit 204, the selection screen 262 shown in FIG. 6(b) is displayed on the display unit 205. This selection screen 262 may be displayed superimposed on the setting screen 250 shown in FIG. 6(a), or may be displayed in place of or alongside the setting screen 250. Note that the setting screen 250 may display an entire log list in chronological order, in which multiple users are mixed, and may display a face image in a set with the user name in the log list 281. In this case, when an operation to select a shooting log displayed on the log list 281 is performed, the selected shooting log becomes the target shooting log, and the process proceeds to step S24.

選択画面262には、人物リスト263と、決定ボタン264とが含まれる。人物リスト263は、上述した画像解析処理において識別された人物の一覧である。人物リスト263には、人物の顔画像と、その人物のユーザ名とのセットが複数含まれる。なお、上述した画像解析処理において個人が特定されなかった人物のユーザ名については、その人物の特徴から同一人物であると識別された未登録ユーザ毎に区別して「未登録ユーザ#1」などの未登録であることを示すユーザ名が用いられ、付与される。決定ボタン264は、人物の選択を決定する操作を受け付ける。利用者は、人物リスト263の中から監視対象となる対象人物を選択する操作を行った後、決定ボタン264を押す。例えば対象人物がユーザXである場合、利用者は、操作部204を用いて人物リスト263の中からユーザXを選択し、決定ボタン264を押す。これにより、ユーザXが対象人物として選択される。 The selection screen 262 includes a person list 263 and a decision button 264. The person list 263 is a list of people identified in the image analysis process described above. The person list 263 includes multiple sets of a person's face image and the user name of the person. For the user name of a person who was not identified in the image analysis process described above, a user name indicating that the person is unregistered, such as "unregistered user #1", is used and assigned to each unregistered user who was identified as the same person based on the characteristics of the person. The decision button 264 accepts an operation to decide the selection of a person. The user performs an operation to select a target person to be monitored from the person list 263, and then presses the decision button 264. For example, if the target person is user X, the user uses the operation unit 204 to select user X from the person list 263 and presses the decision button 264. As a result, user X is selected as the target person.

ステップS23において、利用者が操作部204を用いて表示対象となる対象期間を指定する操作を行うと、操作部204はこの操作を受け付ける。図6(a)に示されるように、設定画面250の期間指定領域270には、入力領域271と、決定ボタン272とが含まれる。入力領域271は、対象期間を入力する操作を受け付ける。決定ボタン272は、対象期間を決定する操作を受け付ける。例えば対象期間が2022年10月1日7時00分から2022年10月1日19時00分である場合、利用者は、操作部204を用いて入力領域271にこれらの日時を入力し、決定ボタン272を押す。これにより、2022年10月1日7時00分から2022年10月1日19時00分までの期間が対象期間に指定される。 In step S23, when the user performs an operation to specify the target period to be displayed using the operation unit 204, the operation unit 204 accepts this operation. As shown in FIG. 6(a), the period specification area 270 of the setting screen 250 includes an input area 271 and a decision button 272. The input area 271 accepts an operation to input the target period. The decision button 272 accepts an operation to decide the target period. For example, if the target period is from 7:00 on October 1, 2022 to 19:00 on October 1, 2022, the user inputs these dates and times into the input area 271 using the operation unit 204 and presses the decision button 272. As a result, the period from 7:00 on October 1, 2022 to 19:00 on October 1, 2022 is specified as the target period.

ステップS24において、表示制御部214は、設定画面250のリスト表示領域280に、対象期間における対象人物の撮影ログのログリスト281を表示する。ここでは、対象人物がユーザXであり、対象期間が2022年10月1日7時00分から2022年10月1日19時00分までの期間である場合を例に挙げて説明する。この場合、図3に示されるユーザXのログリスト221から、撮影日時が2022年10月1日7時00分から2022年10月1日19時00分までの期間に含まれる撮影ログが抽出される。ログリスト281は、抽出された撮影ログに含まれる撮影日時、撮影装置ID、及びユーザ名のセットを時系列に沿って並べることにより構成され、複数の撮影装置10が対象人物を撮影した順番を示す。 In step S24, the display control unit 214 displays a log list 281 of the shooting logs of the target person during the target period in the list display area 280 of the setting screen 250. Here, an example will be described in which the target person is user X and the target period is from 7:00 on October 1, 2022 to 19:00 on October 1, 2022. In this case, shooting logs whose shooting dates and times are included in the period from 7:00 on October 1, 2022 to 19:00 on October 1, 2022 are extracted from the log list 221 of user X shown in FIG. 3. The log list 281 is constructed by chronologically arranging the sets of shooting dates and times, shooting device IDs, and user names included in the extracted shooting logs, and indicates the order in which the target person was photographed by multiple shooting devices 10.

ステップS25において、利用者が操作部204を用いて表示対象となる対象撮影ログを選択する操作を行うと、操作部204はこの操作を受け付ける。図6(a)に示されるように、設定画面250のリスト表示領域280には、表示ボタン291が含まれる。表示ボタン291は、対象撮影ログの表示を指示する操作を受け付ける。例えば2022年10月1日9時00分に撮影装置10AがユーザXを撮影した撮影ログを閲覧したい場合、利用者は、操作部204を用いて、該当するNo.1の撮影ログを選択し、表示ボタン291を押す。これにより、No.1の撮影ログが対象撮影ログとして選択される。 In step S25, when the user uses the operation unit 204 to perform an operation to select the target shooting log to be displayed, the operation unit 204 accepts this operation. As shown in FIG. 6(a), the list display area 280 of the setting screen 250 includes a display button 291. The display button 291 accepts an operation to instruct the display of the target shooting log. For example, if the user wants to view the shooting log in which the shooting device 10A captured a picture of user X at 9:00 on October 1, 2022, the user uses the operation unit 204 to select the corresponding shooting log No. 1 and presses the display button 291. As a result, the shooting log No. 1 is selected as the target shooting log.

ステップS26において、表示制御部214は、表示ボタン291が押されると、ステップS25において選択された対象撮影ログを示すログ表示画面300を表示部205に表示させる。図7は、ログ表示画面300の一例を示す図である。ここでは、対象撮影ログが図6に示されるNo.1の撮影ログである例を挙げて説明する。この場合、ログ表示画面300には、記憶部202に記憶された複数の地図データのうち、No.1の撮影ログに対応する撮影装置10Aの設置場所を示す地図データが表示される。例えば撮影装置10Aが1階に設置されている場合、ログ表示画面300には1階の地図データが表示される。 In step S26, when the display button 291 is pressed, the display control unit 214 causes the display unit 205 to display a log display screen 300 showing the target shooting log selected in step S25. FIG. 7 is a diagram showing an example of the log display screen 300. Here, an example will be described in which the target shooting log is the shooting log No. 1 shown in FIG. 6. In this case, the log display screen 300 displays map data showing the installation location of the camera device 10A corresponding to the shooting log No. 1, among the multiple map data stored in the storage unit 202. For example, if the camera device 10A is installed on the first floor, the log display screen 300 displays the map data for the first floor.

この地図データ上には、記憶部202に記憶された複数の撮影装置10の位置情報に基づいて、複数の撮影装置10の設置場所を示す複数のカメラアイコン311が表示される。ここで、複数の撮影装置10のうち、図6に示されるログリスト281に含まれるNo.1~No.5の撮影ログに対応する撮影装置10A~10Cは、対象期間において対象人物であるユーザXを撮影している。したがって、撮影装置10A~10Cのカメラアイコン311A~311Cは不透明な濃色で表示される。さらに、対象撮影ログであるNo.1の撮影ログに対応する撮影装置10Aのカメラアイコン311Aは、他のカメラアイコン311とは異なる色で強調表示される。図7に示される例においては、撮影装置10A、10B、及び10Cは、それぞれ、本発明に係る第1の撮影装置、第2の撮影装置、及び第3の撮影装置の一例である。一方、複数の撮影装置10のうち撮影装置10A~10C以外の撮影装置10は、対象期間において対象人物であるユーザXを撮影していない。したがって、撮影装置10A~10C以外の撮影装置10の設置場所を示す、カメラアイコン311A~311C以外のカメラアイコン311は半透明色で表示される。このように、対象人物であるユーザXを撮影した撮影装置10A~10Cのカメラアイコン311A~311Cと、ユーザXを撮影していない他の撮影装置10のカメラアイコン311とは、区別して表示される。 On this map data, multiple camera icons 311 indicating the installation locations of the multiple image capture devices 10 are displayed based on the location information of the multiple image capture devices 10 stored in the storage unit 202. Here, among the multiple image capture devices 10, the image capture devices 10A to 10C corresponding to the image capture logs No. 1 to No. 5 included in the log list 281 shown in FIG. 6 are capturing images of the target person, user X, during the target period. Therefore, the camera icons 311A to 311C of the image capture devices 10A to 10C are displayed in opaque dark colors. Furthermore, the camera icon 311A of the image capture device 10A corresponding to the image capture log No. 1, which is the target image capture log, is highlighted in a color different from the other camera icons 311. In the example shown in FIG. 7, the image capture devices 10A, 10B, and 10C are examples of the first image capture device, the second image capture device, and the third image capture device, respectively, according to the present invention. Meanwhile, among the multiple image capture devices 10, none of the image capture devices 10 other than the image capture devices 10A-10C captured images of the target person, user X, during the target period. Therefore, the camera icons 311 other than the camera icons 311A-311C, which indicate the installation locations of the image capture devices 10 other than the image capture devices 10A-10C, are displayed in a semi-transparent color. In this way, the camera icons 311A-311C of the image capture devices 10A-10C that captured images of the target person, user X, are displayed to be distinguished from the camera icons 311 of the other image capture devices 10 that did not capture images of user X.

また、カメラアイコン311Aの近傍には、NO.1の撮影ログに対応する画像データ、すなわち撮影装置10Aにより2022年10月1日9時00分に撮影された画像データのサムネイル画像312-1が表示される。この画像データには、ユーザXが含まれる。なお、ここでいう「近傍」とは、対象の位置からの距離が所定値より小さい範囲をいう。「近傍」は、対象と関連することが認識できる範囲であればよく、例えば撮影装置10の撮影範囲であってもよい。サムネイル画像312-1は、例えば画像データに含まれる開始位置の静止画である。画像データを全て閲覧したい場合、利用者は、操作部204を用いて画像データの再生を指示する操作を行う。この操作が行われると、例えば大きな画面で画像データを閲覧できるように、ログ表示画面300とは別の画面において画像データが再生される。他の例として、サムネイル画像312-1の中で画像データが再生されてもよい。 Also, near the camera icon 311A, a thumbnail image 312-1 of image data corresponding to the shooting log No. 1, that is, image data captured by the shooting device 10A at 9:00 on October 1, 2022, is displayed. This image data includes user X. Note that "nearby" here refers to a range where the distance from the position of the target is smaller than a predetermined value. "Nearby" may be a range that can be recognized as being related to the target, and may be, for example, the shooting range of the shooting device 10. The thumbnail image 312-1 is, for example, a still image of the start position included in the image data. When the user wants to view all the image data, the user performs an operation to instruct playback of the image data using the operation unit 204. When this operation is performed, the image data is played on a screen other than the log display screen 300 so that the image data can be viewed on a large screen, for example. As another example, the image data may be played in the thumbnail image 312-1.

さらに、カメラアイコン311Aの近傍には、人物アイコン313が表示される。人物アイコン313は、対象撮影ログであるNo.1の撮影ログに対応する撮影装置10Aの設置場所と、その次のNo.2の撮影ログに対応する撮影装置10Bの設置場所との位置関係に応じた方向に移動するアニメーションを行う。次の撮影ログは、ログリスト281に含まれる対象期間において対象人物を撮影した複数の撮影ログのうち、対象撮影ログの撮影日時よりも後の期間において最も早い撮影日時を含む撮影ログである。次の撮影ログは、ログリスト281に含まれる撮影日時に基づいて決定される。また、ログリスト281に含まれる撮影装置IDに基づいて、対象撮影ログに対応する撮影装置10の次に対象人物を撮影した撮影装置10、すなわち対象撮影ログの次の撮影ログに対応する撮影装置10が特定される。次の撮影装置10の特定は、例えば表示制御部214又は表示部205により行われる。撮影装置10Aと撮影装置10Bとはいずれも例えば1階に設置されており、同一の地図データにより示される。この場合、表示制御部214は、図7に示されるように、No.1の撮影ログに対応する撮影装置10Aの撮影範囲から次のNo.2の撮影ログに対応する撮影装置10Bの撮影範囲に向かう方向に人物アイコン313を直線移動させる。例えば、表示制御部214は、カメラアイコン311Aとカメラアイコン311Bを直線で結んだ地図データ上に表示しない線分上を、地図データに表示された障害物(ドア、壁など)を無視して人物アイコン313を直線移動させる。対象人物を撮影した撮影装置10の設置場所によって人物アイコン313に異なる動きをさせるため、利用者は、この人物アイコン313のアニメーションを見ることにより、対象人物が、撮影装置10Aの撮影範囲から撮影装置10Bの撮影範囲に移動したことが分かる。 Furthermore, a person icon 313 is displayed near the camera icon 311A. The person icon 313 performs an animation of moving in a direction according to the positional relationship between the installation location of the photographing device 10A corresponding to the photographing log No. 1, which is the target photographing log, and the installation location of the photographing device 10B corresponding to the next photographing log No. 2. The next photographing log is a photographing log that includes the earliest photographing date and time in a period after the photographing date and time of the target photographing log among the multiple photographing logs that photographed the target person during the target period included in the log list 281. The next photographing log is determined based on the photographing date and time included in the log list 281. In addition, based on the photographing device ID included in the log list 281, the photographing device 10 that photographed the target person next to the photographing device 10 corresponding to the target photographing log, that is, the photographing device 10 corresponding to the next photographing log of the target photographing log, is specified. The next photographing device 10 is specified, for example, by the display control unit 214 or the display unit 205. Both the photographing device 10A and the photographing device 10B are installed on the first floor, for example, and are shown by the same map data. In this case, as shown in FIG. 7, the display control unit 214 moves the person icon 313 in a straight line from the shooting range of the image capture device 10A corresponding to the No. 1 shooting log toward the shooting range of the image capture device 10B corresponding to the next No. 2 shooting log. For example, the display control unit 214 moves the person icon 313 in a straight line on a line segment that does not appear on the map data, connecting the camera icons 311A and 311B with a straight line, ignoring obstacles (doors, walls, etc.) displayed in the map data. Since the person icon 313 moves differently depending on the installation location of the image capture device 10 that captured the target person, the user can see by watching the animation of the person icon 313 that the target person has moved from the shooting range of the image capture device 10A to the shooting range of the image capture device 10B.

図5に戻り、ステップS27において、表示制御部214は、対象撮影ログが変更されたか否かを判定する。図7に示されるように、ログ表示画面300には、「次へ」ボタン321と、「前へ」ボタン322と、「最初へ」ボタン323と、「最後へ」ボタン324とが含まれる。「次へ」ボタン321は、対象撮影ログを現在選択されている撮影ログの次の撮影ログに変更する操作を受け付ける。「前へ」ボタン322は、対象撮影ログを現在選択されている撮影ログの前の撮影ログに変更する操作を受け付ける。「最初へ」ボタン323は、対象撮影ログをログリスト281に含まれる最初の撮影ログに変更する操作を受け付ける。「最後へ」ボタン324は、対象撮影ログをログリスト281に含まれる最後の撮影ログに変更する操作を受け付ける。例えば次の撮影ログを閲覧したい場合、利用者は、操作部204を用いて「次へ」ボタン321を押す。「次へ」ボタン321が押されると、表示制御部214は、対象撮影ログが次の撮影ログに変更されたと判定し(ステップS27の判定がYES)、ステップS26に戻り、変更後の対象撮影ログに基づいてステップS26の処理を行う。 Returning to FIG. 5, in step S27, the display control unit 214 determines whether the target shooting log has been changed. As shown in FIG. 7, the log display screen 300 includes a "Next" button 321, a "Previous" button 322, a "Go to the beginning" button 323, and a "Go to the end" button 324. The "Next" button 321 accepts an operation to change the target shooting log to the shooting log next to the currently selected shooting log. The "Previous" button 322 accepts an operation to change the target shooting log to the shooting log previous to the currently selected shooting log. The "Go to the beginning" button 323 accepts an operation to change the target shooting log to the first shooting log included in the log list 281. The "Go to the end" button 324 accepts an operation to change the target shooting log to the last shooting log included in the log list 281. For example, when the user wants to view the next shooting log, the user presses the "Next" button 321 using the operation unit 204. When the "Next" button 321 is pressed, the display control unit 214 determines that the target shooting log has been changed to the next shooting log (YES in step S27), returns to step S26, and performs the processing of step S26 based on the changed target shooting log.

図8は、変更後の対象撮影ログを示すログ表示画面301の一例を示す図である。ここでは、対象撮影ログが図6に示されるNo.2の撮影ログに変更された場合を例に挙げて説明する。なお、図7に示されるログ表示画面300と同じ構成要素については、同一の符号を付してその説明を省略する。ログ表示画面301には、No.2の撮影ログに対応する撮影装置10Bの設置場所を示す地図データが表示される。ただし、上述したように撮影装置10Aの設置場所と撮影装置10Bの設置場所とは同一の地図データにより示されるため、ログ表示画面301に含まれる地図データは、図7に示されるログ表示画面300に含まれる地図データと同一である。 Figure 8 is a diagram showing an example of a log display screen 301 showing the target shooting log after the change. Here, an example will be described in which the target shooting log has been changed to the shooting log No. 2 shown in Figure 6. Note that the same components as those in the log display screen 300 shown in Figure 7 are given the same reference numerals and their description will be omitted. The log display screen 301 displays map data showing the installation location of the imaging device 10B corresponding to the shooting log No. 2. However, since the installation locations of the imaging devices 10A and 10B are shown by the same map data as described above, the map data included in the log display screen 301 is the same as the map data included in the log display screen 300 shown in Figure 7.

また、No.2の撮影ログに対応する撮影装置10Bのカメラアイコン311Bが他のカメラアイコン311とは異なる色で強調表示される。なお、カメラアイコン311Aを含む他のカメラアイコン311は強調表示されない。さらに、カメラアイコン311Bの近傍には、No.2の撮影ログに含まれる画像データ、すなわち撮影装置10Bにより2022年10月1日9時10分に撮影された画像データのサムネイル画像312-2が表示される。この画像データには、ユーザXが含まれる。 The camera icon 311B of the image capture device 10B corresponding to the No. 2 shooting log is highlighted in a color different from the other camera icons 311. The other camera icons 311, including the camera icon 311A, are not highlighted. Furthermore, a thumbnail image 312-2 of the image data included in the No. 2 shooting log, that is, the image data captured by the image capture device 10B at 9:10 on Oct. 1, 2022, is displayed near the camera icon 311B. This image data includes user X.

さらに、カメラアイコン311Bの近傍には、人物アイコン313が表示される。図6に示される例では、対象撮影ログであるNo.2の撮影ログの次の撮影ログはNo.3の撮影ログである。図6に示されるように、No.2の撮影ログに対応する撮影装置10Bと、その次のNo.3の撮影ログに対応する撮影装置10Bとは、同一の撮影装置10である。この場合、表示制御部214は、図8に示されるように人物アイコン313をジャンプさせるアニメーションを表示させる。利用者は、この人物アイコン313のアニメーションを見ることにより、対象人物が撮影装置10Bの撮影範囲に滞在していたことが分かる。 Furthermore, a person icon 313 is displayed near the camera icon 311B. In the example shown in FIG. 6, the next shooting log after the target shooting log No. 2 is No. 3. As shown in FIG. 6, the camera device 10B corresponding to the No. 2 shooting log and the next camera device 10B corresponding to the No. 3 shooting log are the same camera device 10. In this case, the display control unit 214 displays an animation of the person icon 313 jumping as shown in FIG. 8. By watching the animation of the person icon 313, the user can see that the target person has stayed within the shooting range of the camera device 10B.

図5に戻り、ステップS27において利用者が操作部204を用いて再び「次へ」ボタン321を押すと、表示制御部214は、対象撮影ログが次の撮影ログに変更されたと判定し(ステップS27の判定がYES)、ステップS26に戻り、変更後の対象撮影ログに基づいてステップS26の処理を行う。 Returning to FIG. 5, when the user presses the "Next" button 321 again using the operation unit 204 in step S27, the display control unit 214 determines that the target shooting log has been changed to the next shooting log (YES in step S27), returns to step S26, and performs the processing of step S26 based on the changed target shooting log.

図9は、変更後の対象撮影ログを示すログ表示画面302の一例を示す図である。ここでは、対象撮影ログが図6に示されるNo.3の撮影ログに変更された場合を例に挙げて説明する。なお、図8に示されるログ表示画面301と同じ構成要素については、同一の符号を付してその説明を省略する。ログ表示画面302には、No.3の撮影ログに対応する撮影装置10Bの設置場所を示す地図データが表示される。ログ表示画面302に含まれる地図データは、図8に示されるログ表示画面301に含まれる地図データと同一である。 Figure 9 is a diagram showing an example of a log display screen 302 showing the target shooting log after the change. Here, an example will be described in which the target shooting log has been changed to shooting log No. 3 shown in Figure 6. Note that the same components as those in the log display screen 301 shown in Figure 8 are given the same reference numerals and their description will be omitted. Map data showing the installation location of the shooting device 10B corresponding to the shooting log No. 3 is displayed on the log display screen 302. The map data included in the log display screen 302 is the same as the map data included in the log display screen 301 shown in Figure 8.

また、No.3の撮影ログに対応する撮影装置10Bのカメラアイコン311Bが他のカメラアイコン311とは異なる色で強調表示される。なお、カメラアイコン311B以外のカメラアイコン311は強調表示されない。さらに、カメラアイコン311Bの近傍には、No.3の撮影ログに含まれる画像データ、すなわち2022年10月1日9時40分に撮影装置10Bにより撮影された画像データのサムネイル画像312-3が表示される。この画像データには、ユーザXが含まれる。 The camera icon 311B of the image capture device 10B corresponding to the No. 3 shooting log is highlighted in a color different from the other camera icons 311. Note that the camera icons 311 other than the camera icon 311B are not highlighted. Furthermore, a thumbnail image 312-3 of the image data included in the No. 3 shooting log, that is, the image data captured by the image capture device 10B at 9:40 on Oct. 1, 2022, is displayed near the camera icon 311B. This image data includes user X.

さらに、カメラアイコン311Bの近傍には、人物アイコン313が表示される。図6に示される例では、対象撮影ログであるNo.3の撮影ログの次の撮影ログはNo.4である。No.3の撮影ログに対応する撮影装置10Bと、その次のNo.4の撮影ログに対応する撮影装置10Cとはいずれも1階に設置されているため、撮影装置10Bの設置場所と撮影装置10Cの設置場所とは同一の地図データにより示される。この場合、表示制御部214は、図9に示されるように、No.3の撮影ログに対応する撮影装置10Bの撮影範囲から次のNo.4の撮影ログに対応する撮影装置10Cの撮影範囲に向かう方向に人物アイコン313を直線移動させる。図9に示される例においては、撮影装置10B及び10Cは、それぞれ、本発明に係る第1の撮影装置及び第2の撮影装置の一例である。利用者は、この人物アイコン313のアニメーションを見ることにより、対象人物が、撮影装置10Bの撮影範囲から撮影装置10Cの撮影範囲に移動したことが分かる。 Furthermore, a person icon 313 is displayed near the camera icon 311B. In the example shown in FIG. 6, the next shooting log after the target shooting log No. 3 is No. 4. The camera device 10B corresponding to the shooting log No. 3 and the camera device 10C corresponding to the next shooting log No. 4 are both installed on the first floor, so the installation locations of the camera device 10B and the camera device 10C are indicated by the same map data. In this case, as shown in FIG. 9, the display control unit 214 moves the person icon 313 in a straight line in the direction from the shooting range of the camera device 10B corresponding to the shooting log No. 3 to the shooting range of the camera device 10C corresponding to the next shooting log No. 4. In the example shown in FIG. 9, the camera devices 10B and 10C are examples of the first and second camera devices according to the present invention, respectively. By viewing the animation of this person icon 313, the user can see that the target person has moved from the shooting range of image capture device 10B to the shooting range of image capture device 10C.

図5に戻り、ステップS27において利用者により再び「次へ」ボタン321が押されると、表示制御部214は、対象撮影ログが次の撮影ログに変更されたと判定し(ステップS27の判定がYES)、ステップS26に戻り、変更後の対象撮影ログに基づいてステップS26の処理を行う。 Returning to FIG. 5, when the user presses the "Next" button 321 again in step S27, the display control unit 214 determines that the target shooting log has been changed to the next shooting log (YES in step S27), returns to step S26, and performs the processing of step S26 based on the changed target shooting log.

図10は、変更後の対象撮影ログを示すログ表示画面303の一例を示す図である。ここでは、対象撮影ログが図6に示されるNo.4の撮影ログに変更された場合を例に挙げて説明する。なお、図9に示されるログ表示画面302と同じ構成要素については、同一の符号を付してその説明を省略する。ログ表示画面303には、No.4の撮影ログに対応する撮影装置10Cの設置場所を示す地図データが表示される。ただし、上述したように、撮影装置10Bと撮影装置10Cとは同一の地図データにより示されるため、ログ表示画面303に含まれる地図データは、図9に示されるログ表示画面302に含まれる地図データと同一である。 Figure 10 is a diagram showing an example of a log display screen 303 showing the target shooting log after the change. Here, an example will be described in which the target shooting log has been changed to shooting log No. 4 shown in Figure 6. Note that the same components as those in the log display screen 302 shown in Figure 9 are given the same reference numerals and their description will be omitted. Map data showing the installation location of the camera 10C corresponding to the shooting log No. 4 is displayed on the log display screen 303. However, as described above, the camera 10B and the camera 10C are shown by the same map data, so the map data included in the log display screen 303 is the same as the map data included in the log display screen 302 shown in Figure 9.

また、No.4の撮影ログに対応する撮影装置10Cのカメラアイコン311Cが他のカメラアイコン311とは異なる色で強調表示される。なお、カメラアイコン311Bを含む他のカメラアイコン311は強調表示されない。さらに、カメラアイコン311Cの近傍には、No.4の撮影ログに含まれる画像データ、すなわち2022年10月1日10時00分に撮影装置10Cにより撮影された画像データのサムネイル画像312-4が表示される。この画像データには、ユーザXが含まれる。 The camera icon 311C of the image capture device 10C corresponding to the No. 4 shooting log is highlighted in a color different from the other camera icons 311. The other camera icons 311, including the camera icon 311B, are not highlighted. Furthermore, a thumbnail image 312-4 of the image data included in the No. 4 shooting log, that is, the image data captured by the image capture device 10C at 10:00 on Oct. 1, 2022, is displayed near the camera icon 311C. This image data includes user X.

さらに、カメラアイコン311Cの近傍には、人物アイコン313が表示される。図6に示される例では、対象撮影ログであるNo.4の撮影ログの次の撮影ログはNo.5である。No.4の撮影ログに対応する撮影装置10Cは例えば1階に設置されているのに対し、その次のNo.5の撮影ログに対応する撮影装置10Dは例えば2階に設置されている。そのため、撮影装置10Cの設置場所は1階の地図データにより示され、撮影装置10Dの設置場所は2階の地図データにより示される。1階の地図データ及び2階の地図データは、それぞれ、第1の地図データ及び第2の地図データの一例である。1階の監視領域45及び2階の監視領域45は、それぞれ、本発明に係る第1の監視領域及び第2の監視領域の一例である。このように、撮影装置10Cの設置場所と撮影装置10Dの設置場所とが異なる地図データにより示される場合、表示制御部214は、これらの地図データにより示される監視領域45の位置関係に応じた方向に人物アイコン313が移動するアニメーションを表示させる。2階の監視領域45は、1階の監視領域45の上方に位置する。したがって、表示制御部214は、図10に示されるように、撮影装置10Cの設置範囲から上方に移動した後、人物アイコン313が徐々に小さくなったり、消えていくといったフェードアウトするアニメーションを表示させる。図10に示される例においては、撮影装置10C及び10Dは、それぞれ、本発明に係る第1の撮影装置及び第2の撮影装置の一例である。利用者は、この人物アイコン313のアニメーションを見ることにより、対象人物が、撮影装置10Cの撮影範囲から、表示中の地図データにより示される監視領域45より上方に位置する他の監視領域45に移動したことが分かる。 Furthermore, a person icon 313 is displayed near the camera icon 311C. In the example shown in FIG. 6, the next shooting log after the target shooting log No. 4 is No. 5. The camera 10C corresponding to the shooting log No. 4 is installed on the first floor, for example, while the camera 10D corresponding to the next shooting log No. 5 is installed on the second floor, for example. Therefore, the installation location of the camera 10C is indicated by the map data of the first floor, and the installation location of the camera 10D is indicated by the map data of the second floor. The map data of the first floor and the map data of the second floor are examples of the first map data and the second map data, respectively. The monitoring area 45 of the first floor and the monitoring area 45 of the second floor are examples of the first monitoring area and the second monitoring area according to the present invention, respectively. In this way, when the installation location of the image capture device 10C and the installation location of the image capture device 10D are indicated by different map data, the display control unit 214 displays an animation in which the person icon 313 moves in a direction according to the positional relationship of the monitoring area 45 indicated by these map data. The monitoring area 45 of the second floor is located above the monitoring area 45 of the first floor. Therefore, as shown in FIG. 10, the display control unit 214 displays an animation in which the person icon 313 gradually becomes smaller or disappears after moving upward from the installation range of the image capture device 10C. In the example shown in FIG. 10, the image capture devices 10C and 10D are examples of the first image capture device and the second image capture device, respectively, according to the present invention. By watching the animation of the person icon 313, the user can understand that the target person has moved from the shooting range of the image capture device 10C to another monitoring area 45 located above the monitoring area 45 indicated by the displayed map data.

図5に戻り、ステップS27において利用者により再び「次へ」ボタン321が押されると、表示制御部214は、対象撮影ログが次の撮影ログに変更されたと判定し(ステップS27の判定がYES)、ステップS26に戻り、変更後の対象撮影ログに基づいてステップS26の処理を行う。 Returning to FIG. 5, when the user presses the "Next" button 321 again in step S27, the display control unit 214 determines that the target shooting log has been changed to the next shooting log (YES in step S27), returns to step S26, and performs the processing of step S26 based on the changed target shooting log.

図11は、変更後の対象撮影ログを示すログ表示画面304の一例を示す図である。ここでは、対象撮影ログが図6に示されるNo.5の撮影ログに変更された場合を例に挙げて説明する。なお、図10に示されるログ表示画面303と同じ構成要素については、同一の符号を付してその説明を省略する。ログ表示画面304には、No.5の撮影ログに対応する撮影装置10Dの設置場所を示す地図データが表示される。例えば撮影装置10Dが2階に設置されている場合には、2階の地図データが表示される。上述したように、撮影装置10Cと撮影装置10Dとは異なる地図データにより示されるため、ログ表示画面304には、図10に示されるログ表示画面303に含まれる地図データとは異なる地図データが表示される。 Figure 11 is a diagram showing an example of a log display screen 304 showing the target shooting log after the change. Here, an example will be described in which the target shooting log has been changed to the shooting log No. 5 shown in Figure 6. The same components as those in the log display screen 303 shown in Figure 10 are given the same reference numerals and their description will be omitted. The log display screen 304 displays map data showing the installation location of the camera device 10D corresponding to the shooting log No. 5. For example, if the camera device 10D is installed on the second floor, the map data for the second floor is displayed. As described above, the camera devices 10C and 10D are displayed by different map data, so the log display screen 304 displays map data different from the map data included in the log display screen 303 shown in Figure 10.

また、No.5の撮影ログに対応する撮影装置10Dのカメラアイコン311Dが他のカメラアイコン311とは異なる色で強調表示される。なお、ログ表示画面304に含まれるカメラアイコン311D以外のカメラアイコン311は、対象人物であるユーザXを撮影していない撮影装置10の設置場所を示すため、半透明色で表示される。さらに、カメラアイコン311Dの近傍には、No.5の撮影ログに含まれる画像データ、すなわち2022年10月1日10時10分に撮影装置10Dにより撮影された画像データのサムネイル画像312-5が表示される。この画像データには、ユーザXが含まれる。 The camera icon 311D of the image capture device 10D corresponding to the No. 5 image capture log is highlighted in a color different from the other camera icons 311. The camera icons 311 other than the camera icon 311D included in the log display screen 304 are displayed in a semi-transparent color to indicate the installation locations of the image capture devices 10 that have not captured the target person, user X. Furthermore, a thumbnail image 312-5 of the image data included in the No. 5 image capture log, i.e., the image data captured by the image capture device 10D at 10:10 on October 1, 2022, is displayed near the camera icon 311D. This image data includes user X.

さらに、カメラアイコン311Dの近傍には、人物アイコン313が表示される。図6に示される例では、対象撮影ログであるNo.5の撮影ログはログリスト281に含まれる最後の撮影ログである。この場合、表示制御部214は、撮影装置10Dの撮影範囲において停止する人物アイコン313を表示させる。利用者は、この停止する人物アイコン313を見ることにより、対象期間における最後の撮影ログが表示されたことが分かる。 Furthermore, a person icon 313 is displayed near the camera icon 311D. In the example shown in FIG. 6, the target shooting log, shooting log No. 5, is the last shooting log included in the log list 281. In this case, the display control unit 214 displays a person icon 313 that stops in the shooting range of the imaging device 10D. By looking at this stopped person icon 313, the user can tell that the last shooting log in the target period has been displayed.

図11に示されるように、ログ表示画面304には閉じるボタン325が含まれる。閉じるボタン325は、ログ表示画面304を閉じる操作を受け付ける。利用者が操作部204を用いてこの閉じるボタン325を押すと、表示制御部214は、図5に示されるステップS27において対象撮影ログが変更されていないと判定するとともに(ステップS27の判定がNO)、ステップS28において撮影ログの表示を終了すると判定し(ステップS28の判定がYES)、ログ表示画面300を閉じてこの表示処理を終了する。 As shown in FIG. 11, the log display screen 304 includes a close button 325. The close button 325 accepts an operation to close the log display screen 304. When the user presses this close button 325 using the operation unit 204, the display control unit 214 determines that the target shooting log has not been changed in step S27 shown in FIG. 5 (determination in step S27 is NO), and determines in step S28 that the display of the shooting log is to be ended (determination in step S28 is YES), and closes the log display screen 300 to end this display process.

以上説明した実施形態によれば、地図データ上に一の撮影装置10が対象人物を撮影した画像データとともに、一の撮影装置10の撮影範囲から、その次に対象人物を撮影した他の撮影装置10の撮影範囲へと向かう方向に移動する人物アイコン313が表示されるため、利用者は一の撮影装置10により撮影された対象人物の画像データを確認すると同時に次の移動先を容易に把握できる。また、対象人物の実際の移動経路を示す動線を表示するのではなく、対象人物を撮影した撮影装置10の設置場所に基づいて対象人物の移動が表現されるため、利用者は対象人物の移動先を容易に視認することができる。さらに、一の撮影装置10の撮影範囲から他の撮影装置10の撮影範囲へと向かう方向に人物アイコン313が直線移動するアニメーションが表示されるため、対象人物の詳細な移動経路を示す動線が地図データ上に表示される構成に比べて、利用者は対象人物の移動先を容易に視認することができる。 According to the embodiment described above, the image data of the target person captured by one of the image capture devices 10 is displayed on the map data together with the person icon 313 moving from the capture range of the one image capture device 10 toward the capture range of the other image capture device 10 that next captured the target person, so that the user can easily grasp the next destination while checking the image data of the target person captured by the one image capture device 10. In addition, since the movement of the target person is expressed based on the installation location of the image capture device 10 that captured the target person, rather than displaying a flow line showing the actual movement path of the target person, the user can easily visually confirm the destination of the target person. Furthermore, since an animation of the person icon 313 moving in a straight line in the direction from the capture range of the one image capture device 10 toward the capture range of the other image capture device 10 is displayed, the user can easily visually confirm the destination of the target person compared to a configuration in which a flow line showing the detailed movement path of the target person is displayed on the map data.

さらに、対象人物を撮影した一の撮影装置10の設置場所とその次に対象人物を撮影した他の撮影装置10の設置場所とが同一の地図データにより示されるか否かによって人物アイコン313が異なる動きを行うアニメーションが表示されるため、利用者はこれらの撮影装置10の設置場所の関係を直感的に把握することができる。さらに、対象人物を撮影した一の撮影装置10の設置場所と次に対象人物を撮影した他の撮影装置10の設置場所とが異なる地図データにより示される場合には、これらの地図データにより示される監視領域45の位置関係に応じた方向に人物アイコン313が移動するアニメーションが表示されるため、利用者は対象人物の次の移動先を直感的に把握することができる。さらに、地図データ上において、対象人物を撮影した撮影装置10のカメラアイコン311と対象人物を撮影していない撮影装置10のカメラアイコン311とが区別して表示されるため、利用者は対象人物がどのように移動したかを容易に把握することができる。 In addition, depending on whether the installation location of one photographing device 10 that photographed the target person and the installation location of another photographing device 10 that photographed the target person next are indicated by the same map data, an animation is displayed in which the person icon 313 moves differently, so the user can intuitively understand the relationship between the installation locations of these photographing devices 10. Furthermore, if the installation location of one photographing device 10 that photographed the target person and the installation location of another photographing device 10 that photographed the target person next are indicated by different map data, an animation is displayed in which the person icon 313 moves in a direction according to the positional relationship of the monitoring area 45 indicated by these map data, so the user can intuitively understand the next destination of the target person. Furthermore, on the map data, the camera icon 311 of the photographing device 10 that photographed the target person and the camera icon 311 of the photographing device 10 that did not photograph the target person are displayed separately, so the user can easily understand how the target person has moved.

3.変形例
本発明は、上述した実施形態に限定されない。上述した実施形態は、以下の例のように変形して実施されてもよい。このとき、以下の2以上の変形例が組み合わせて用いられてもよい。
3. Modifications The present invention is not limited to the above-described embodiment. The above-described embodiment may be modified as in the following examples. In this case, two or more of the following modifications may be used in combination.

上述した実施形態において、表示制御部214は、地図データ上に対象人物の滞在時間又は移動時間を表示させてもよい。滞在時間は、対象人物が一の撮影装置10の撮影範囲内に滞在している時間である。一例として、滞在時間は、或る撮影装置10に対応する対象撮影ログの撮影日時から、この撮影装置10に対応する次の撮影ログの撮影日時までの時間を計数することにより求められる。図6に示される例では、No.2の撮影ログに対応する撮影装置10Bと、No.3の撮影ログに対応する撮影装置10Bとは同一である。この場合、No.2の撮影ログの撮影日時である2022年10月1日9時10分からNo.3の撮影ログの撮影日時である2022年10月1日9時40分までの30分が滞在時間となる。そして、図8に示されるログ表示画面301において、カメラアイコン311Bの近傍又はサムネイル画像312-2の近傍に30分という滞在時間が表示される。他の例として、滞在時間は、対象人物が同一の撮影装置10により連続して撮影された時間でもよい。例えば対象人物であるユーザXが13時00分から16時00分まで連続して同一の撮影装置10により撮影された場合、滞在時間は3時間となる。滞在時間は、例えば対象撮影ログに対応する撮影装置10のカメラアイコン311の近傍又はサムネイル画像312の近傍に表示される。 In the above-described embodiment, the display control unit 214 may display the target person's stay time or movement time on the map data. The stay time is the time that the target person stays within the shooting range of one shooting device 10. As an example, the stay time is obtained by counting the time from the shooting date and time of the target shooting log corresponding to a certain shooting device 10 to the shooting date and time of the next shooting log corresponding to this shooting device 10. In the example shown in FIG. 6, the shooting device 10B corresponding to the shooting log No. 2 is the same as the shooting device 10B corresponding to the shooting log No. 3. In this case, the stay time is 30 minutes from 9:10 on October 1, 2022, which is the shooting date and time of the shooting log No. 2, to 9:40 on October 1, 2022, which is the shooting date and time of the shooting log No. 3. Then, on the log display screen 301 shown in FIG. 8, a stay time of 30 minutes is displayed near the camera icon 311B or near the thumbnail image 312-2. As another example, the stay time may be the time during which the target person is continuously photographed by the same image capture device 10. For example, if the target person, user X, is continuously photographed by the same image capture device 10 from 13:00 to 16:00, the stay time is 3 hours. The stay time is displayed, for example, near the camera icon 311 or near the thumbnail image 312 of the image capture device 10 corresponding to the target photography log.

移動時間は、対象人物が一の撮影装置10に撮影されてから他の撮影装置10に撮影されるまでに要する時間である。移動時間は、一の撮影装置10に対応する対象撮影ログの撮影日時から他の撮影装置10に対応する次の撮影ログの撮影日時までの時間を計数することにより求められる。図6に示される例では、NO.1の撮影ログに対応する撮影装置10Aと、No.2の撮影ログに対応する撮影装置10Bとは異なる。この場合、No.1の撮影ログの撮影日時である2022年10月1日9時00分からNo.2の撮影ログの撮影日時である2022年10月1日9時10分までの10分が移動時間となる。そして、図7に示されるログ表示画面300において、カメラアイコン311Aの近傍又はサムネイル画像312-1の近傍に10分という移動時間が表示される。また、滞在時間又は移動時間は、5分などの所定時間以上の場合に限り、表示されてもよい。この変形例によれば、利用者は対象人物の滞在時間又は移動時間を容易に把握することができる。 The travel time is the time required for a target person to be photographed by one photographing device 10 and then photographed by another photographing device 10. The travel time is calculated by counting the time from the photographing date and time of the target photographing log corresponding to one photographing device 10 to the photographing date and time of the next photographing log corresponding to the other photographing device 10. In the example shown in FIG. 6, the photographing device 10A corresponding to the photographing log No. 1 is different from the photographing device 10B corresponding to the photographing log No. 2. In this case, the travel time is 10 minutes from 9:00 on October 1, 2022, which is the photographing date and time of the photographing log No. 1, to 9:10 on October 1, 2022, which is the photographing date and time of the photographing log No. 2. Then, on the log display screen 300 shown in FIG. 7, a travel time of 10 minutes is displayed near the camera icon 311A or near the thumbnail image 312-1. In addition, the stay time or travel time may be displayed only when it is a predetermined time or more, such as 5 minutes. This variation allows users to easily understand the target person's stay or travel time.

上述した実施形態において、表示制御部214は、対象人物の移動時間に応じて、表示する人物アイコン313の動きを異ならせてもよい。移動時間は、上述したように、対象人物が一の撮影装置10に撮影されてから他の撮影装置10に撮影されるまでに要する時間である。例えば移動時間が長いほど、表示制御部214は人物アイコン313の移動速度を遅くしてもよい。この変形例によれば、利用者は対象人物の移動時間を直感的に把握することができる。 In the above-described embodiment, the display control unit 214 may vary the movement of the person icon 313 displayed depending on the movement time of the target person. As described above, the movement time is the time required from when the target person is photographed by one image capture device 10 until he or she is photographed by another image capture device 10. For example, the longer the movement time, the slower the display control unit 214 may move the person icon 313. According to this modified example, the user can intuitively grasp the movement time of the target person.

上述した実施形態において、人物アイコン313のアニメーションは上述した例に限定されず、対象人物の次の移動先が識別可能なアニメーションであればよい。例えば対象撮影ログに対応する一の撮影装置10の設置場所と次の撮影ログに対応する他の撮影装置10の設置場所とが同一の地図データにより示される場合、人物アイコン313のアニメーションは、一の撮影装置10の設置場所から他の撮影装置10の設置場所の方に移動したことを示す動きを行うアニメーションであれば、どのようなアニメーションでもよい。また、対象撮影ログに対応する撮影装置10と次の撮影ログに対応する撮影装置10とが同一である場合、人物アイコン313のアニメーションは、その撮影装置10の撮影範囲に滞在していることを示す動きを行うアニメーションであれば、どのようなアニメーションでもよい。例えば人物アイコン313が座る動きをするアニメーションでもよいし、撮影装置10の設置場所をぐるぐる回る動きをするアニメーションでもよい。さらに、対象撮影ログに対応する一の撮影装置10の設置場所と次の撮影ログに対応する他の撮影装置10の設置場所とが異なる地図データにより示される場合、人物アイコン313のアニメーションは、対象人物が表示中の地図データにより示される監視領域45とは異なる監視領域45の方に移動したことを示す動きを行うアニメーションであれば、どのようなアニメーションでもよい。例えば人物アイコン313のアニメーションは、異なる地図データにより示される監視領域45の位置関係に拘わらず、所定の方向に移動した後、フェードアウトするアニメーションでもよい。この変形例に係る構成であっても、利用者は、撮影装置10により撮影された人物の次の移動先を容易に把握することができる。 In the above embodiment, the animation of the person icon 313 is not limited to the above example, and may be any animation that allows the target person's next destination to be identified. For example, when the installation location of one photographing device 10 corresponding to the target photographing log and the installation location of another photographing device 10 corresponding to the next photographing log are indicated by the same map data, the animation of the person icon 313 may be any animation that moves to indicate that the person has moved from the installation location of the one photographing device 10 to the installation location of the other photographing device 10. Also, when the photographing device 10 corresponding to the target photographing log and the photographing device 10 corresponding to the next photographing log are the same, the animation of the person icon 313 may be any animation that moves to indicate that the person is staying within the photographing range of the photographing device 10. For example, the animation of the person icon 313 may be an animation of the person icon 313 sitting down, or an animation of the person icon 313 moving around the installation location of the photographing device 10. Furthermore, when the installation location of one image capture device 10 corresponding to the target image capture log and the installation location of another image capture device 10 corresponding to the next image capture log are indicated by different map data, the animation of the person icon 313 may be any animation that indicates that the target person has moved toward a monitoring area 45 different from the monitoring area 45 indicated by the currently displayed map data. For example, the animation of the person icon 313 may be an animation that fades out after moving in a predetermined direction, regardless of the positional relationship of the monitoring area 45 indicated by the different map data. Even with the configuration according to this modified example, the user can easily grasp the next destination of the person captured by the image capture device 10.

上述した実施形態において、複数の撮影装置10の撮影範囲が重複する場合には、同一の撮影日時において対象人物が複数の撮影装置10により撮影される場合がある。ここでは、撮影装置10Aの撮影範囲と撮影装置10Bの撮影範囲とが重複する場合を例に挙げて説明する。例えば撮影装置10Aは、2022年10月2日9時00分から2022年10月2日9時11分までの期間、ユーザXを撮影する。撮影装置10Bは、2022年10月2日9時10分から2022年10月2日9時15分までの期間、ユーザXを撮影する。この場合、2022年10月2日9時10分から2022年10月1日9時11分までの期間、ユーザXは撮影装置10Aと撮影装置10Bの両方に撮影されていたことになるが、ログリスト281に含まれる2022年10月2日9時10分の撮影ログは、撮影装置10BがユーザXを撮影したことを示すものであってもよい。他の例として、ログリスト281に含まれる2022年10月2日9時10分の撮影ログは、撮影装置10AがユーザXを撮影したことを示すものであってもよい。この変形例によれば、同一の撮影日時において対象人物が複数の撮影装置10により撮影された場合でも、適切な撮影ログを表示することができる。 In the above-described embodiment, when the shooting ranges of multiple image capture devices 10 overlap, a target person may be captured by multiple image capture devices 10 at the same shooting date and time. Here, an example is described in which the shooting ranges of image capture devices 10A and 10B overlap. For example, image capture device 10A captures user X from 9:00 on October 2, 2022 to 9:11 on October 2, 2022. Image capture device 10B captures user X from 9:10 on October 2, 2022 to 9:15 on October 2, 2022. In this case, user X will have been photographed by both image capture device 10A and image capture device 10B during the period from 9:10 on October 2, 2022 to 9:11 on October 1, 2022, but the image capture log for 9:10 on October 2, 2022 included in log list 281 may indicate that image capture device 10B photographed user X. As another example, the image capture log for 9:10 on October 2, 2022 included in log list 281 may indicate that image capture device 10A photographed user X. According to this modified example, even if a target person is photographed by multiple image capture devices 10 at the same shooting date and time, an appropriate image capture log can be displayed.

上述した実施形態において、狭い空間に複数台の撮影装置10が設置された場合において、対象人物がこれらの撮影装置10により撮影されたときに、これらの撮影装置10の設置場所間の移動を示す人物アイコン313のアニメーションは表示されなくてもよい。これは、狭い空間内の撮影装置10の設置場所の移動を示す人物アイコン313のアニメーションを表示すると、表示が煩雑になるためである。この変形例によれば、狭い空間に複数台の撮影装置10が設置された場合において、対象人物がこれらの撮影装置10により撮影されたときに、表示が煩雑になるのを防ぐことができる。 In the above-described embodiment, when multiple image capture devices 10 are installed in a small space, animation of the person icon 313 indicating movement between the locations of the image capture devices 10 does not need to be displayed when a target person is captured by these image capture devices 10. This is because displaying animation of the person icon 313 indicating movement between the locations of the image capture devices 10 within a small space would result in a cluttered display. According to this modified example, when multiple image capture devices 10 are installed in a small space, it is possible to prevent the display from becoming cluttered when a target person is captured by these image capture devices 10.

上述した実施形態において、対象人物は複数選択されてもよい。この場合、対象人物によって色や形などの外観が異なる人物アイコン313が表示されてもよい。この変形例によれば、利用者は、撮影装置10により撮影された複数の人物について次の移動先を容易に把握することができる。 In the above-described embodiment, multiple target persons may be selected. In this case, a person icon 313 with a different appearance, such as color or shape, may be displayed depending on the target person. According to this modification, the user can easily grasp the next destination of multiple people photographed by the photographing device 10.

上述した実施形態において、対象人物の移動先を表す表示は、人物アイコン313を用いた表示に限定されない。人物アイコン313に代えて、対象人物が対象撮影ログに対応する一の撮影装置10の撮影範囲から次の撮影ログに対応する他の撮影装置10の撮影範囲に向かう方向に移動したことを示す線や矢印等のオブジェクトが用いられてもよい。この変形例に係る構成であっても、利用者は、撮影装置10により撮影された人物の次の移動先を容易に把握することができる。 In the above-described embodiment, the display showing the destination of the target person is not limited to a display using the person icon 313. Instead of the person icon 313, an object such as a line or arrow may be used to indicate that the target person has moved from the shooting range of one image capture device 10 corresponding to the target shooting log toward the shooting range of another image capture device 10 corresponding to the next shooting log. Even with the configuration related to this modified example, the user can easily grasp the next destination of the person photographed by the image capture device 10.

上述した実施形態において、人物アイコン313は必ずしも表示されなくてもよい。対象人物の移動先を表す表示は、人物アイコン313に代えて、撮影装置10のカメラアイコン311を用いて行われてもよい。例えば対象撮影ログに対応する一の撮影装置10の設置場所と次の撮影ログに対応する他の撮影装置10の設置場所とが同一の地図データにより示される場合、他の撮影装置10の設置場所を示すカメラアイコン311は、点滅表示されてもよい。また、対象撮影ログに対応する一の撮影装置10の設置場所と次の撮影ログに対応する他の撮影装置10の設置場所とが異なる地図データにより示される場合、一の撮影装置10の設置場所を示すカメラアイコン311が点滅表示されてもよい。この変形例に係る構成であっても、利用者は、撮影装置10により撮影された人物の次の移動先を容易に把握することができる。 In the above-described embodiment, the person icon 313 does not necessarily have to be displayed. The display showing the destination of the target person may be performed using the camera icon 311 of the photographing device 10 instead of the person icon 313. For example, when the installation location of one photographing device 10 corresponding to the target photographing log and the installation location of another photographing device 10 corresponding to the next photographing log are indicated by the same map data, the camera icon 311 indicating the installation location of the other photographing device 10 may be displayed in a blinking manner. Also, when the installation location of one photographing device 10 corresponding to the target photographing log and the installation location of another photographing device 10 corresponding to the next photographing log are indicated by different map data, the camera icon 311 indicating the installation location of one photographing device 10 may be displayed in a blinking manner. Even with the configuration according to this modified example, the user can easily grasp the next destination of the person photographed by the photographing device 10.

上述した実施形態において、対象撮影ログに対応する撮影装置10のカメラアイコン311を強調表示する方法は、色の変更に限定されない。例えばカメラアイコン311の形や大きさを変更してもよいし、カメラアイコン311に付加情報を付加してもよい。この変形例に係る構成であっても、利用者は、対象撮影ログに対応する撮影装置10の設置場所を容易に把握することができる。 In the above-described embodiment, the method of highlighting the camera icon 311 of the photographing device 10 corresponding to the target photographing log is not limited to changing the color. For example, the shape or size of the camera icon 311 may be changed, or additional information may be added to the camera icon 311. Even with the configuration related to this modified example, the user can easily grasp the installation location of the photographing device 10 corresponding to the target photographing log.

上述した実施形態において、対象期間に撮影された人物の中から対象人物を選択する操作が行われてもよい。例えば利用者は、まず操作部204を用いて対象期間を指定する操作を行う。続いて、対象期間において複数の撮影装置10により撮影された画像データに含まれる人物について図6(b)に示されるような人物リストが表示部205に表示される。利用者は、操作部204を用いて、この人物リストの中から対象人物を選択する操作を行う。この変形例によれば、利用者は、対象期間において複数の撮影装置10により撮影された人物の中から対象人物を選択することができる。他の例として、対象人物を選択する操作は行われなくてもよい。例えば利用者は、操作部204を用いて撮影日時と撮影装置10を指定する操作を行う。この操作により指定された撮影日時において指定された撮影装置10により撮影された画像データに含まれる人物が対象人物となってもよい。画像データに複数の人物が含まれる場合、複数の人物が対象人物となってもよい。この変形例によれば、対象人物を選択する利用者の操作の負担を軽減することができる。 In the above-described embodiment, an operation may be performed to select a target person from among people photographed during a target period. For example, the user first performs an operation to specify the target period using the operation unit 204. Next, a person list as shown in FIG. 6B is displayed on the display unit 205 for people included in image data photographed by multiple image capture devices 10 during the target period. The user performs an operation to select a target person from this person list using the operation unit 204. According to this modified example, the user can select a target person from among people photographed by multiple image capture devices 10 during the target period. As another example, an operation to select a target person may not be performed. For example, the user performs an operation to specify the photographing date and time and the image capture device 10 using the operation unit 204. A person included in image data photographed by the specified image capture device 10 at the photographing date and time specified by this operation may be the target person. When multiple people are included in the image data, multiple people may be the target person. According to this modified example, the burden of the operation on the user to select a target person can be reduced.

上述した実施形態において、対象期間を指定する操作は必ずしも行われなくてもよい。例えば撮影日時が最も古い撮影ログが対象撮影ログとなってもよい。この変形例によれば、対象期間を指定する利用者の操作の負担を軽減することができる。 In the above-described embodiment, the operation of specifying the target period does not necessarily have to be performed. For example, the shooting log with the oldest shooting date and time may be the target shooting log. According to this modified example, the operational burden on the user of specifying the target period can be reduced.

上述した実施形態において、ログリスト281は必ずしも表示されなくてもよい。例えば対象期間において対象人物が撮影された複数の撮影ログのうち、撮影日時が最も古い撮影ログが対象撮影ログとなってもよい。この変形例によれば、対象撮影ログを指定する利用者の操作の負担を軽減することができる。 In the above-described embodiment, the log list 281 does not necessarily have to be displayed. For example, among multiple shooting logs in which the target person was photographed during the target period, the shooting log with the oldest shooting date and time may become the target shooting log. According to this modified example, it is possible to reduce the operational burden on the user who specifies the target shooting log.

上述した実施形態において、対象期間において対象人物が撮影された複数の撮影ログが、利用者の操作を介さずに順番に表示されてもよい。例えば対象期間において対象人物が撮影された複数の撮影ログのうち、撮影日時が最も古い撮影ログが表示される。この撮影ログが表示される際、この撮影ログに含まれる画像データが自動的に再生される。そして、この画像データの再生が終了すると、次の撮影ログが表示される。このように、対象期間において対象人物が撮影された複数の撮影ログが、利用者の操作を介さずに順番に表示される。この変形例によれば、対象撮影ログを変更する利用者の操作の負担を軽減することができる。 In the above-described embodiment, multiple shooting logs in which the target person was photographed during the target period may be displayed in sequence without user operation. For example, of multiple shooting logs in which the target person was photographed during the target period, the shooting log with the oldest shooting date and time is displayed. When this shooting log is displayed, the image data contained in this shooting log is automatically played. Then, when the playback of this image data ends, the next shooting log is displayed. In this way, multiple shooting logs in which the target person was photographed during the target period are displayed in sequence without user operation. According to this modified example, the operational burden on the user to change the target shooting log can be reduced.

上述した実施形態において、対象人物を撮影した画像データは必ずしも表示されなくてもよい。例えば地図データ上に、カメラアイコン311と人物アイコン313だけが表示されてもよい。この変形例に係る構成であっても、利用者は、撮影装置10により撮影された人物の次の移動先を容易に把握することができる。 In the above-described embodiment, image data of the target person does not necessarily need to be displayed. For example, only the camera icon 311 and the person icon 313 may be displayed on the map data. Even with this modified configuration, the user can easily understand the next destination of the person photographed by the photographing device 10.

上述した実施形態において、地図データは二次元の地図データであってもよいし、三次元の地図データであってもよい。また、地図データは、監視領域を模した簡単な線図などであってもよい。この変形例に係る構成であっても、利用者は、対象撮影ログに対応する撮影装置10の設置場所を容易に把握することができる。 In the above-described embodiment, the map data may be two-dimensional map data or three-dimensional map data. The map data may also be a simple line drawing that represents the monitoring area. Even with this modified configuration, the user can easily grasp the installation location of the imaging device 10 that corresponds to the target imaging log.

上述した実施形態において、監視カメラシステム1において各機能の主体は例示であり、この例に限定されない。監視装置20の少なくとも一部の機能をクラウドサーバなどの外部装置が有してもよい。例えば外部装置は、監視装置20からログリスト221を受信して記憶し、監視装置20において撮影ログを表示する際に、対象撮影ログを監視装置20に送信してもよい。 In the above-described embodiment, the subject of each function in the surveillance camera system 1 is an example, and is not limited to this example. At least some of the functions of the surveillance device 20 may be possessed by an external device such as a cloud server. For example, the external device may receive and store the log list 221 from the surveillance device 20, and transmit the target shooting log to the surveillance device 20 when displaying the shooting log on the surveillance device 20.

上述した実施形態において、監視カメラシステム1の動作は上述した例に限定されない。監視カメラシステム1の処理手順は、矛盾の無い限り、順序が入れ替えられてもよい。また、監視カメラシステム1の一部の処理手順が省略されてもよい。 In the above-described embodiment, the operation of the surveillance camera system 1 is not limited to the above-described example. The order of the processing steps of the surveillance camera system 1 may be changed as long as there is no contradiction. In addition, some of the processing steps of the surveillance camera system 1 may be omitted.

本発明の別の形態は、監視カメラシステム1、撮影装置10、及び監視装置20のうち少なくともいずれかにおいて行われる処理のステップを有する方法を提供してもよい。また、本発明のさらに別の形態は、撮影装置10又は監視装置20において実行されるプログラムを提供してもよい。このプログラムは、コンピュータが読み取り可能な記録媒体に記憶されて提供されてもよいし、インターネットなどを介したダウンロードによって提供されてもよい。 Another aspect of the present invention may provide a method having processing steps performed in at least one of the surveillance camera system 1, the image capture device 10, and the surveillance device 20. Furthermore, yet another aspect of the present invention may provide a program executed in the image capture device 10 or the surveillance device 20. This program may be provided by being stored in a computer-readable recording medium, or may be provided by downloading via the Internet, etc.

1:監視カメラシステム、10:撮影装置、20:監視装置、201:制御部、202:記憶部、203:通信部、204:操作部、205:表示部、211:取得部、212:識別部、213:作成部、214:表示制御部 1: Surveillance camera system, 10: Shooting device, 20: Surveillance device, 201: Control unit, 202: Storage unit, 203: Communication unit, 204: Operation unit, 205: Display unit, 211: Acquisition unit, 212: Identification unit, 213: Creation unit, 214: Display control unit

Claims (9)

複数の撮影装置を用いて監視領域に存在する人物を撮影する監視カメラシステムであって、
前記複数の撮影装置が撮影した複数の画像データに含まれる前記人物を識別する識別部と、
前記監視領域における前記複数の撮影装置の設置場所を含む地図データと、前記複数の撮影装置が撮影した前記複数の画像データと、前記画像データに含まれる人物の識別結果及び当該画像データを撮影した撮影装置を紐づけた時系列のログデータとを記憶する記憶部と、
前記複数の撮影装置に含まれる第1の撮影装置が前記人物を撮影した画像データを表示するとともに、前記第1の撮影装置の次に当該人物を撮影した第2の撮影装置の設置場所に基づいて当該人物の移動先を前記地図データ上に表示する表示部と、
を備える監視カメラシステム。
A surveillance camera system that uses a plurality of imaging devices to capture images of people in a surveillance area,
an identification unit for identifying the person included in the plurality of image data captured by the plurality of image capture devices;
a storage unit that stores map data including locations of the plurality of image capturing devices in the surveillance area, the plurality of image data captured by the plurality of image capturing devices, and chronological log data linking a person identification result included in the image data with the image capturing device that captured the image data;
a display unit that displays image data of the person captured by a first camera included in the plurality of camera devices, and displays a destination of the person on the map data based on an installation location of a second camera that captured an image of the person next to the first camera;
A surveillance camera system comprising:
前記表示部は、前記第1の撮影装置の設置場所と前記第2の撮影装置の設置場所との関係に応じて動きが異なるアイコンを前記地図データ上に表示することで、前記人物の移動先を表す
請求項1に記載の監視カメラシステム。
The surveillance camera system according to claim 1 , wherein the display unit indicates the destination of the person by displaying, on the map data, an icon whose movement differs depending on a relationship between the installation location of the first photographing device and the installation location of the second photographing device.
前記表示部は、前記第1の撮影装置の撮影範囲から前記第2の撮影装置の撮影範囲に向かう方向に前記アイコンを直線移動させる
請求項2に記載の監視カメラシステム。
The surveillance camera system according to claim 2 , wherein the display unit moves the icon linearly in a direction from a shooting range of the first image capturing device to a shooting range of the second image capturing device.
前記地図データは、第1の監視領域の第1の地図データと、第2の監視領域の第2の地図データとを含み、
前記表示部は、
前記第1の撮影装置の設置場所と前記第2の撮影装置の設置場所とが同一の地図データに含まれる場合、前記第1の撮影装置と前記第2の撮影装置との設置場所の位置関係に応じた方向に移動する前記アイコンを前記地図データ上に表示し、
前記第1の撮影装置の設置場所と前記第2の撮影装置の設置場所とが異なる地図データに含まれる場合、前記第1の監視領域と前記第2の監視領域との位置関係に応じた方向に移動する前記アイコンを前記地図データ上に表示する
請求項2に記載の監視カメラシステム。
the map data includes first map data for a first monitoring area and second map data for a second monitoring area;
The display unit is
When the installation location of the first photographing device and the installation location of the second photographing device are included in the same map data, the icon moving in a direction corresponding to a positional relationship between the installation locations of the first photographing device and the second photographing device is displayed on the map data;
The surveillance camera system according to claim 2, wherein when the installation location of the first photographing device and the installation location of the second photographing device are included in different map data, the icon moving in a direction according to the positional relationship between the first monitoring area and the second monitoring area is displayed on the map data.
前記表示部は、さらに前記人物が前記第1の撮影装置に撮影されてから前記第2の撮影装置に撮影されるまでに要する時間に応じて、表示する前記アイコンの動きを異ならせる
請求項2に記載の監視カメラシステム。
The surveillance camera system according to claim 2 , wherein the display unit further changes the movement of the icon displayed depending on the time required from when the person is photographed by the first photographing device to when the person is photographed by the second photographing device.
前記表示部は、第1のアイコンを用いて前記人物の移動先を表示するとともに、前記複数の撮影装置の各々の設置場所を、第2のアイコンを用いて識別可能に表示し、前記人物を撮影した前記撮影装置の設置場所と、前記人物を撮影していない他の撮影装置の設置場所とを、前記第2のアイコンを用いて区別して表示する
請求項1に記載の監視カメラシステム。
2. The surveillance camera system of claim 1, wherein the display unit displays the destination of the person using a first icon, and identifiably displays the installation locations of each of the plurality of camera devices using a second icon, and distinguishes between the installation location of the camera device that captured the person and the installation locations of other camera devices that did not capture the person using the second icon.
利用者による前記ログデータの選択を受け付ける操作部を、さらに備え、
前記表示部は、前記選択されたログデータに紐づいた前記第1の撮影装置の前記画像データを表示するとともに、当該ログデータに紐づいた前記人物を前記第1の撮影装置の次に撮影した前記第2の撮影装置を特定し、特定した第2の撮影装置の設置場所に基づいて前記人物の移動先を前記地図データ上に表示する
請求項1に記載の監視カメラシステム。
An operation unit that accepts a selection of the log data by a user,
2. The surveillance camera system according to claim 1, wherein the display unit displays the image data of the first photographing device linked to the selected log data, identifies the second photographing device that photographed the person linked to the log data next after the first photographing device, and displays the person's destination on the map data based on the installation location of the identified second photographing device.
複数の撮影装置を用いて監視領域に存在する人物を撮影するコンピュータに、
前記複数の撮影装置が撮影した複数の画像データに含まれる前記人物を識別するステップと、
前記監視領域における前記複数の撮影装置の設置場所を含む地図データと、前記複数の撮影装置が撮影した前記複数の画像データと、前記画像データに含まれる人物の識別結果及び当該画像データを撮影した撮影装置を紐づけた時系列のログデータとを記憶するステップと、
前記複数の撮影装置に含まれる第1の撮影装置が前記人物を撮影した画像データを表示するとともに、前記第1の撮影装置の次に当該人物を撮影した第2の撮影装置の設置場所に基づいて当該人物の移動先を前記地図データ上に表示するステップと、
を実行させるためのプログラム。
A computer that uses a plurality of image capturing devices to capture images of people present in a surveillance area,
identifying the person included in the plurality of image data captured by the plurality of image capture devices;
storing map data including locations of the plurality of image capturing devices in the monitoring area, the plurality of image data captured by the plurality of image capturing devices, and time-series log data linking a person identification result included in the image data with the image capturing device that captured the image data;
displaying image data of the person captured by a first camera included in the plurality of camera devices, and displaying a destination of the person on the map data based on an installation location of a second camera that captured an image of the person next to the first camera;
A program for executing.
複数の撮影装置を用いて監視領域に存在する人物を撮影する監視カメラシステムであって、
前記複数の撮影装置が撮影した複数の画像データに含まれる前記人物を識別する識別部と、
前記監視領域における前記複数の撮影装置の設置場所を含む地図データと、前記画像データに含まれる人物の識別結果及び当該画像データを撮影した撮影装置を紐づけた時系列のログデータとを記憶する記憶部と、
利用者による前記ログデータの選択を受け付ける操作部と、
前記選択されたログデータに紐づいた第1の撮影装置の設置場所と、当該ログデータに紐づいた前記人物を前記第1の撮影装置の次に撮影した第2の撮影装置の設置場所とに基づいて、前記第1の撮影装置の撮影範囲から前記第2の撮影装置の撮影範囲に向かう方向に直線移動するアイコンを前記地図データ上に表示することで前記人物の移動先を表す表示部と、
を備える監視カメラシステム。
A surveillance camera system that uses a plurality of imaging devices to capture images of people in a surveillance area,
an identification unit for identifying the person included in the plurality of image data captured by the plurality of image capture devices;
a storage unit that stores map data including locations of the plurality of image capture devices in the surveillance area, and chronological log data linking a person identification result included in the image data with the image capture device that captured the image data;
an operation unit that accepts a selection of the log data by a user;
a display unit that displays an icon moving in a straight line from a photographing range of the first photographing device to a photographing range of the second photographing device on the map data, based on an installation location of a first photographing device linked to the selected log data and an installation location of a second photographing device that photographed the person linked to the log data after the first photographing device; and
A surveillance camera system comprising:
JP2022174681A 2022-10-31 2022-10-31 Surveillance camera system and program Pending JP2024065688A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022174681A JP2024065688A (en) 2022-10-31 2022-10-31 Surveillance camera system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022174681A JP2024065688A (en) 2022-10-31 2022-10-31 Surveillance camera system and program

Publications (1)

Publication Number Publication Date
JP2024065688A true JP2024065688A (en) 2024-05-15

Family

ID=91064317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022174681A Pending JP2024065688A (en) 2022-10-31 2022-10-31 Surveillance camera system and program

Country Status (1)

Country Link
JP (1) JP2024065688A (en)

Similar Documents

Publication Publication Date Title
US10019877B2 (en) Apparatus and methods for the semi-automatic tracking and examining of an object or an event in a monitored site
US10719946B2 (en) Information processing apparatus, method thereof, and computer-readable storage medium
JP6399356B2 (en) Tracking support device, tracking support system, and tracking support method
JP5954106B2 (en) Information processing apparatus, information processing method, program, and information processing system
JP4984728B2 (en) Subject collation device and subject collation method
JP5774506B2 (en) Video surveillance system
KR101530255B1 (en) Cctv system having auto tracking function of moving target
CN107251552A (en) Track servicing unit, tracking accessory system and tracking householder method
JP2014153813A (en) Information process device, information process method, program and information process system
WO2018198373A1 (en) Video monitoring system
US20110096994A1 (en) Similar image retrieval system and similar image retrieval method
JP6396682B2 (en) Surveillance camera system
JP6268497B2 (en) Security system and person image display method
CN100583999C (en) Apparatus and method for processing images and apparatus and method for processing reproduced images
JP3770180B2 (en) Object monitoring device
JP2005234765A (en) Image acquisition device and search device
JP6214762B2 (en) Image search system, search screen display method
JP4808139B2 (en) Monitoring system
JP4985742B2 (en) Imaging system, method and program
JP2018195992A (en) Person group tracking device and person group tracking method
JP4722537B2 (en) Monitoring device
JP2024065688A (en) Surveillance camera system and program
JP2003255442A (en) Monitoring device, monitoring method and monitoring program
JP2004158950A (en) Automatic recording video generation system, automatic recording video generation method, automatic recording video generation program, and recording medium for automatic recording video generation program
JP6297739B1 (en) Property information server

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20250512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20260129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20260203