[go: up one dir, main page]

JP2011014059A - Behavior analysis system and behavior analysis method - Google Patents

Behavior analysis system and behavior analysis method Download PDF

Info

Publication number
JP2011014059A
JP2011014059A JP2009159485A JP2009159485A JP2011014059A JP 2011014059 A JP2011014059 A JP 2011014059A JP 2009159485 A JP2009159485 A JP 2009159485A JP 2009159485 A JP2009159485 A JP 2009159485A JP 2011014059 A JP2011014059 A JP 2011014059A
Authority
JP
Japan
Prior art keywords
person
frame
time
photographing
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009159485A
Other languages
Japanese (ja)
Inventor
Taro Yamamoto
太郎 山本
Katsumi Takahashi
克巳 高橋
Koji Senda
浩司 千田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009159485A priority Critical patent/JP2011014059A/en
Publication of JP2011014059A publication Critical patent/JP2011014059A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Image Processing (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To analyze behavior of a person, without invading one's privacy.SOLUTION: A photographic device extracts numerical values representing features of persons in a photographed image, as feature quantity data and encrypts the data. Then, the photographic device transmits the encrypted feature quantity data, prescribed relevant information, and a photographic device identifier, specifically given to the photographic device, to a collation device. The collation device stores the encrypted feature quantity data, relevant information, and the photographic device identifier into a feature quantity database and performs matching of the feature quantity data encrypted, as it is, at an arbitrary time and a person identifier is put out for every person on the basis of the matching. Then, the collation device creates a behavior database, including a set of relevant information and the photographic identifier for each person identifier.

Description

本発明は、行動分析システムおよび行動分析方法に関する。   The present invention relates to a behavior analysis system and a behavior analysis method.

近年、ビデオカメラで撮影した映像に基づいて当該映像に写っている人物の特徴を表す数値を特徴量データとして抽出する技術が考えられている。このような特徴量データを複数生成しておき、それらを比較することで、ビデオカメラで撮影した人物が特定の人物であるかどうかを判断できる(例えば、特許文献1参照。)。   2. Description of the Related Art In recent years, a technique for extracting, as feature amount data, a numerical value that represents the characteristics of a person shown in a video based on a video captured by a video camera has been considered. By generating a plurality of such feature amount data and comparing them, it is possible to determine whether or not the person photographed with the video camera is a specific person (for example, see Patent Document 1).

なお、特許文献1に開示された技術においては、人物を認証する際の基準となる特徴量データを抽出するために人物をあらかじめ撮影し、撮影した映像から抽出した特徴量データを管理会社の管理サーバへあらかじめ記憶しておく。そして、大学や病院などの任意の施設内の扉に定点設置されたビデオカメラで撮影した人物の映像を管理サーバへ送信する。すると、管理サーバは、送信されてきた映像から抽出した特徴量データと、あらかじめ記憶している特徴量データとを比較する。この比較の結果、これらの特徴量データが一致した場合、扉を解錠する。   In the technique disclosed in Patent Document 1, a person is photographed in advance in order to extract feature quantity data that serves as a reference for authenticating the person, and the feature quantity data extracted from the photographed video is managed by a management company. Store in the server in advance. Then, the video of a person photographed by a video camera installed at a fixed point on a door in an arbitrary facility such as a university or a hospital is transmitted to the management server. Then, the management server compares the feature amount data extracted from the transmitted video with the feature amount data stored in advance. As a result of this comparison, when these feature data match, the door is unlocked.

特開2009−098814号公報JP 2009-098814 A

人物を撮影した場合、撮影目的を損なわない範囲内で、その人物のプライバシーに十分な注意を払うことが必要となる。特許文献1に開示された技術の例では、管理会社は、最低限、施設の訪問者に対する入場管理だけを行うことができればよい。   When a person is photographed, it is necessary to pay sufficient attention to the privacy of the person within a range that does not impair the photographing purpose. In the example of the technique disclosed in Patent Document 1, the management company only needs to be able to perform at least entrance management for visitors to the facility.

しかし、この技術においては、管理会社に所属する者(例えば、管理サーバの管理者)は、管理サーバにあらかじめ記憶されている特徴量データや、ビデオカメラで撮影されて管理サーバへ送信されてきた映像を見ることができてしまう。   However, in this technique, a person who belongs to a management company (for example, an administrator of a management server) has been photographed by a feature server stored in advance in the management server or captured by a video camera and transmitted to the management server. You can see the video.

そのため、撮影目的を損なわない範囲内で、ビデオカメラで撮影された人物のプライバシーを十分保護することができないという問題点がある。   Therefore, there is a problem that the privacy of a person photographed with a video camera cannot be sufficiently protected within a range that does not impair the photographing purpose.

本発明は、上述した課題を解決する行動分析システムおよび行動分析方法を提供することを目的とする。   An object of the present invention is to provide a behavior analysis system and a behavior analysis method that solve the above-described problems.

上記課題を解決するために、本発明の行動分析システムは、映像を撮影する撮影装置と、前記撮影装置で撮影された人物を特定する照合装置とを有して成る行動分析システムにおいて、前記撮影装置は、前記映像から該映像に写り込んだ人物の特徴を表す数値を特徴量データとして抽出し、該特徴量データを暗号化し、該暗号化された特徴量データと前記人物の行動に付随する所定の関連情報と当該撮影装置を固有に識別するための撮影装置識別子とを前記照合装置へ送信し、前記照合装置は、前記撮影装置から送信されてきた暗号化済み特徴量データおよび関連情報と撮影装置識別子を受信し、当該照合装置が有する特徴量データベースに格納し、任意の時点で、暗号化したまま前記特徴量データのマッチングを行い、該マッチングに基づいてユニークな前記人物ごとに当該人物を固有に識別するための人物識別子を払い出し、該人物識別子ごとにまとまった関連情報と撮影装置識別子の組のリストを持つ行動データベースを作成または追記・更新することを特徴とする。   In order to solve the above-described problem, the behavior analysis system of the present invention is a behavior analysis system including a photographing device for photographing a video and a collation device for identifying a person photographed by the photographing device. The apparatus extracts, as feature data, a numerical value representing a person's feature reflected in the video from the video, encrypts the feature data, and accompanies the encrypted feature data and the person's action. Predetermined related information and an imaging device identifier for uniquely identifying the imaging device are transmitted to the verification device, and the verification device transmits the encrypted feature amount data and the related information transmitted from the imaging device. The imaging device identifier is received, stored in the feature amount database of the matching device, and the feature amount data is matched with being encrypted at an arbitrary time, and based on the matching A unique identifier for identifying the person for each unique person, and creating or appending / updating an action database having a list of associated information and a set of photographing device identifiers for each person identifier. It is characterized by.

また、本発明の行動分析システムにおいては、前記撮影装置は、前記映像として、静止画を所定の時間間隔で撮影し、該静止画から前記特徴量データを抽出してもよい。   In the behavior analysis system of the present invention, the photographing device may photograph a still image as the video at a predetermined time interval and extract the feature amount data from the still image.

また、本発明の行動分析システムにおいては、前記撮影装置は、前記映像から前記特徴量データを抽出した場合、該特徴量データに付随する人物が当該撮影装置の撮影範囲外から該撮影範囲内に入った時刻であるフレームイン時刻と、該撮影範囲内に存在している人物が前記撮影範囲から外れた時刻であるフレームアウト時刻とを該映像から抽出し、該フレームイン時刻と該フレームアウト時刻とを前記関連情報として前記照合装置へ送信してもよい。   In the behavior analysis system of the present invention, when the imaging device extracts the feature amount data from the video, a person associated with the feature amount data is within the imaging range from outside the imaging range of the imaging device. A frame-in time that is a time when the person enters and a frame-out time that is a time when a person existing in the shooting range is out of the shooting range are extracted from the video, and the frame-in time and the frame-out time are extracted. May be transmitted to the verification device as the related information.

また、本発明の行動分析システムにおいては、前記撮影装置は、前記フレームイン時刻と前記フレームアウト時刻との少なくとも一方を前記映像から抽出して前記関連情報として前記照合装置へ送信してもよい。   In the behavior analysis system of the present invention, the imaging device may extract at least one of the frame-in time and the frame-out time from the video and transmit the extracted information to the verification device as the related information.

また、本発明の行動分析システムにおいては、前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームイン時刻における前記位置と前記フレームアウト時刻における前記位置とを前記関連情報として前記照合装置へ送信してもよい。   Further, in the behavior analysis system of the present invention, the imaging device calculates a position where the person is reflected in the video, and calculates the position at the frame-in time and the position at the frame-out time. You may transmit to the said collation apparatus as related information.

また、本発明の行動分析システムにおいては、前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームイン時刻における前記位置とその直後における前記位置とを前記関連情報として前記照合装置へ送信してもよい。   In the behavior analysis system of the present invention, the photographing device calculates a position where the person is reflected in the video, and the position at the frame-in time and the position immediately after the position are the related information. May be transmitted to the verification device.

また、本発明の行動分析システムにおいては、前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームアウト時刻における前記位置とその直前における前記位置とを前記関連情報として前記照合装置へ送信してもよい。   In the behavior analysis system of the present invention, the photographing device calculates a position where the person is reflected in the video, and the position at the frame-out time and the position immediately before the position are the related information. May be transmitted to the verification device.

上記課題を解決するために、本発明の行動分析方法は、映像を撮影する撮影装置と、前記撮影装置で撮影された人物を特定する照合装置とを有して成る行動分析システムにおける行動分析方法であって、前記撮影装置が、前記映像から該映像に写り込んだ人物の特徴を表す数値を特徴量データとして抽出する特徴量抽出処理と、前記撮影装置が、該特徴量データを暗号化する処理と、前記撮影装置が、該暗号化された特徴量データと前記人物の行動に付随する所定の関連情報と当該撮影装置を固有に識別するための撮影装置識別子とを前記照合装置へ送信する送信処理と、前記照合装置が、前記撮影装置から送信されてきた暗号化済み特徴量データおよび関連情報と撮影装置識別子を受信し、当該照合装置が有する特徴量データベースに格納する処理と、前記照合装置が、任意の時点で、暗号化したまま前記特徴量データのマッチングを行う処理と、前記照合装置が、前記マッチングに基づいてユニークな前記人物ごとに当該人物を固有に識別するための人物識別子を払い出す処理と、前記照合装置が、前記人物識別子ごとにまとまった関連情報と撮影装置識別子の組のリストを持つ行動データベースを作成または追記・更新する処理とを有することを特徴とする。   In order to solve the above-mentioned problem, a behavior analysis method of the present invention is a behavior analysis method in a behavior analysis system including a photographing device for photographing a video and a matching device for identifying a person photographed by the photographing device. The image capturing device extracts a feature value extraction process that extracts, as feature amount data, a numerical value representing a feature of a person reflected in the image from the image, and the image capturing device encrypts the feature amount data. Processing, and the imaging device transmits the encrypted feature amount data, predetermined related information associated with the action of the person, and an imaging device identifier for uniquely identifying the imaging device to the verification device In the transmission process, the collation device receives the encrypted feature amount data and the related information and the photographing device identifier transmitted from the photographing device, and stores them in the feature amount database of the collation device. A process for matching the feature amount data in an encrypted state at an arbitrary time, and the collation apparatus uniquely identifies the person for each unique person based on the matching. A process of paying out a person identifier for identification, and a process in which the collation device creates, adds, or updates a behavior database having a list of sets of related information and photographing device identifiers collected for each person identifier. It is characterized by.

また、本発明の行動分析方法においては、前記撮影装置が、前記映像として、静止画を所定の時間間隔で撮影する処理を有し、前記特徴量抽出処理では、前記静止画から前記特徴量データを抽出してもよい。   Further, in the behavior analysis method of the present invention, the photographing apparatus has a process of photographing a still image as the video at a predetermined time interval. In the feature amount extraction process, the feature amount data is extracted from the still image. May be extracted.

また、本発明の行動分析方法においては、前記撮影装置が、前記映像から前記特徴量データを抽出した場合、該特徴量データに付随する人物が当該撮影装置の撮影範囲外から該撮影範囲内に入った時刻であるフレームイン時刻を該映像から抽出する処理と、前記撮影装置が、前記撮影範囲内に存在している人物が前記撮影範囲から外れた時刻であるフレームアウト時刻を前記映像から抽出する処理とを有し、前記送信処理では、前記フレームイン時刻と前記フレームアウト時刻とを前記関連情報として前記照合装置へ送信してもよい。   In the behavior analysis method of the present invention, when the imaging device extracts the feature amount data from the video, a person associated with the feature amount data is within the imaging range from outside the imaging range of the imaging device. A process of extracting from the video a frame-in time that is an incoming time, and a frame-out time from which the person who is present in the shooting range is out of the shooting range is extracted from the video In the transmission process, the frame-in time and the frame-out time may be transmitted to the verification device as the related information.

また、本発明の行動分析方法においては、前記送信処理では、前記フレームイン時刻と前記フレームアウト時刻との少なくとも一方を前記映像から抽出して前記関連情報として前記照合装置へ送信してもよい。   In the behavior analysis method of the present invention, in the transmission process, at least one of the frame-in time and the frame-out time may be extracted from the video and transmitted as the related information to the verification device.

また、本発明の行動分析方法においては、前記撮影装置が、前記フレームイン時刻における前記映像内の前記人物が写り込んでいる位置を算出する処理と、前記撮影装置が、前記フレームアウト時刻における前記映像内の前記人物が写り込んでいる位置を算出する処理とを有し、前記送信処理では、前記フレームイン時刻における前記位置と、前記フレームアウト時刻における前記位置とを前記関連情報として前記照合装置へ送信してもよい。   Further, in the behavior analysis method of the present invention, the photographing apparatus calculates a position where the person in the video at the frame-in time is reflected, and the photographing apparatus performs the process at the frame-out time. The position of the person in the video is calculated, and in the transmission process, the position at the frame-in time and the position at the frame-out time are used as the related information as the matching device. May be sent to.

また、本発明の行動分析方法においては、前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームイン時刻における前記位置とその直後における前記位置とを前記関連情報として前記照合装置へ送信してもよい。   In the behavior analysis method of the present invention, the photographing device calculates a position where the person is reflected in the video, and the position at the frame-in time and the position immediately after the position are the related information. May be transmitted to the verification device.

また、本発明の行動分析方法においては、前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームアウト時刻における前記位置とその直前における前記位置とを前記関連情報として前記照合装置へ送信してもよい。   In the behavior analysis method of the present invention, the imaging device calculates a position where the person is reflected in the video, and the position at the frame-out time and the position immediately before the position are related information. May be transmitted to the verification device.

本発明によれば、人物のプライバシーを侵害することなく当該人物の行動を分析することができる。   According to the present invention, the behavior of the person can be analyzed without infringing on the privacy of the person.

本発明の実施形態に従った行動分析システムの構成を示す図である。It is a figure which shows the structure of the behavior analysis system according to embodiment of this invention. 図1に示した撮影装置の構成を示す図である。It is a figure which shows the structure of the imaging device shown in FIG. 図1に示した照合装置の構成を示す図である。It is a figure which shows the structure of the collation apparatus shown in FIG. 特徴量データベースのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of a feature-value database. 行動データベースのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of an action database. 撮影装置が、撮影した映像から抽出した特徴量データを暗号化して照合装置へ送信するときの動作を示すフローチャートである。It is a flowchart which shows operation | movement when an imaging device encrypts the feature-value data extracted from the image | photographed image | video, and transmits to a collation apparatus. 照合装置が、撮影装置から送信されてきた暗号化済み特徴量データを受信した後の動作を示すフローチャートである。It is a flowchart which shows operation | movement after a collation apparatus receives the encrypted feature-value data transmitted from the imaging device.

以下、本発明の実施形態に従った行動分析システム(行動分析方法を含む)を説明する。   Hereinafter, a behavior analysis system (including a behavior analysis method) according to an embodiment of the present invention will be described.

まず、本行動分析システムの全体構成を説明する。   First, the overall configuration of the behavior analysis system will be described.

図1に示すように、この行動分析システムには、複数の撮影装置1−1〜1−2と、照合装置2と、行動データベース231と、単一または複数の分析装置3とが設けられている。撮影装置1−1、1−2と照合装置2と行動データベース231と分析装置3とのそれぞれは、通信機能を有する。この例では、撮影装置1−1、1−2のそれぞれと照合装置2とが通信可能に接続されるとともに、照合装置2と行動データベース231、行動データベース231と分析装置3とが通信可能に接続されている。   As shown in FIG. 1, the behavior analysis system includes a plurality of imaging devices 1-1 to 1-2, a verification device 2, a behavior database 231, and a single or a plurality of analysis devices 3. Yes. Each of the imaging devices 1-1, 1-2, the verification device 2, the behavior database 231, and the analysis device 3 has a communication function. In this example, each of the photographing devices 1-1 and 1-2 and the collation device 2 are communicably connected, and the collation device 2 and the behavior database 231, and the behavior database 231 and the analysis device 3 are communicably connected. Has been.

なお、本行動分析システムが具備する撮影装置の台数や設置場所は任意でよい。例えば、複数の出入口が設けられた任意の場所において、各出入口に撮影装置を1台ずつ設置してもよい。   Note that the number and location of the imaging devices included in the behavior analysis system may be arbitrary. For example, one photographing device may be installed at each entrance / exit at an arbitrary place where a plurality of entrances / exits are provided.

また、撮影装置1−1、1−2のそれぞれには、当該撮影装置を固有に識別するための「撮影装置識別子」が付与されている。本実施形態では、撮影装置1−1に付与されている撮影装置識別子がID1−1であり、撮影装置1−2に付与されている撮影装置識別子がID1−2である場合を例に挙げて説明する。   In addition, each of the image capturing apparatuses 1-1 and 1-2 is given a “photographing apparatus identifier” for uniquely identifying the image capturing apparatus. In the present embodiment, the case where the photographing device identifier assigned to the photographing device 1-1 is ID1-1 and the photographing device identifier assigned to the photographing device 1-2 is ID1-2. explain.

また、撮影装置1−1、1−2のそれぞれは、撮影した映像に基づいて、その映像に写っている人物の特徴を表す数値を「特徴量データ」として抽出する。各撮影装置1−1、1−2が撮影する映像は動画と静止画とのどちらであってもよいが、本実施形態では、各撮影装置1−1、1−2が映像として動画を撮影する場合を例に挙げて説明する。   In addition, each of the image capturing apparatuses 1-1 and 1-2 extracts, as “feature data”, a numerical value representing the characteristics of a person shown in the image based on the captured image. The video captured by each of the imaging devices 1-1 and 1-2 may be either a moving image or a still image, but in this embodiment, each of the imaging devices 1-1 and 1-2 captures a video as a video. An example of the case will be described.

なお、「特徴量データ」の例としては、撮影装置1−1、1−2で撮影した人物の顔の輪郭を示す数値、目、鼻、口などの任意の構成要素の所定方向の大きさ、目、鼻、口などの各構成要素間の距離などが挙げられる。   Examples of the “feature data” include numerical values indicating the outline of the face of a person photographed by the photographing apparatuses 1-1 and 1-2, and the size of an arbitrary constituent element such as eyes, nose, and mouth in a predetermined direction. , Distances between components such as eyes, nose and mouth.

さらに、撮影装置1−1、1−2のそれぞれは、抽出した特徴量データを暗号化する。ここで、本実施形態の暗号化アルゴリズムは、準同型暗号など、暗号化したまま演算を行うことが可能なものを用いることとする。   Furthermore, each of the photographing apparatuses 1-1 and 1-2 encrypts the extracted feature data. Here, as the encryption algorithm of the present embodiment, an algorithm that can be operated while encrypted, such as a homomorphic encryption, is used.

また、撮影装置1−1、1−2のそれぞれは、撮影した映像から、当該撮影装置が撮影した人物の行動に付随する所定の情報である「関連情報」を抽出する。   In addition, each of the image capturing apparatuses 1-1 and 1-2 extracts “related information” that is predetermined information associated with the action of the person captured by the image capturing apparatus from the captured image.

この関連情報は、撮影装置1−1、1−2が撮影した人物の行動や属性を示す情報であれば任意の情報でよい。本実施形態では、関連情報が、「フレームイン時刻」と「フレームアウト時刻」とである場合を例に挙げて説明する。   This related information may be any information as long as it is information indicating the behavior and attributes of the person photographed by the photographing apparatuses 1-1 and 1-2. In the present embodiment, the case where the related information is “frame-in time” and “frame-out time” will be described as an example.

なお、ここでいう「フレームイン時刻」とは、ある人物が撮影装置1−1、1−2の撮影範囲外から撮影範囲内に入った時刻のことを指す。   Here, the “frame-in time” refers to the time when a certain person enters the shooting range from outside the shooting range of the shooting apparatuses 1-1 and 1-2.

また、「フレームアウト時刻」とは、当該撮影範囲内に存在する人物が撮影範囲から外れた時刻のことを指す。   The “frame-out time” refers to a time when a person existing in the shooting range is out of the shooting range.

そして、撮影装置1−1、1−2のそれぞれは、「暗号化済み特徴量データ」である暗号化された特徴量データと、撮影装置識別子と、関連情報とを照合装置2へ送信する。   Then, each of the imaging devices 1-1 and 1-2 transmits the encrypted feature amount data that is “encrypted feature amount data”, the imaging device identifier, and the related information to the verification device 2.

照合装置2は、図3を用いて説明する「特徴量データベース23」を有している。   The collation apparatus 2 has a “feature amount database 23” described with reference to FIG.

照合装置2は、撮影装置1−1、1−2から送信されてきた「暗号化された特徴量データ」と撮影装置識別子および関連情報(この例では、フレームイン時刻、フレームアウト時刻)を対応付けて特徴量データベース23へ記憶する。   The collation device 2 corresponds to the “encrypted feature data” transmitted from the photographing devices 1-1 and 1-2, the photographing device identifier, and related information (in this example, frame-in time and frame-out time). Then, it is stored in the feature amount database 23.

また、照合装置2は、ある程度特徴量データベース23にデータが蓄積された時点などを含む「任意の時点」で、特徴量データベース23中の任意のデータセットと他のデータセットの間で、暗号化された特徴量データのマッチングをそれぞれ暗号化したまま実施してもよい。   Further, the collation device 2 performs encryption between an arbitrary data set in the feature amount database 23 and another data set at an “arbitrary time point” including a time point when data is accumulated in the feature amount database 23 to some extent. The matching of the feature data that has been performed may be performed while being encrypted.

ここで、「任意の時点」の例としては、特徴量データベース23に記憶されているデータ量が所定の基準データ量と同じになった時点や、撮影装置1−1〜1−2から送信されてきた新たな暗号化済み特徴量データを受信部21が受信した時点などが挙げられる。   Here, as an example of “arbitrary time point”, the time point when the data amount stored in the feature amount database 23 becomes the same as a predetermined reference data amount, or transmitted from the photographing devices 1-1 to 1-2. For example, a point in time when the receiving unit 21 receives new encrypted feature data.

そして、マッチしたデータセットには、共通の人物識別子を払い出し(つまり、同一の人物識別子の割当)、行動データベース231に対して一つの人物識別子によって紐付けられた撮影装置識別子と関連情報の単一または複数の組を追記する処理を、マッチしないデータセットが存在する限り、対象データセットを変えて繰り返す。   Then, a common person identifier is paid out to the matched data set (that is, assignment of the same person identifier), and the photographing apparatus identifier associated with the action database 231 by one person identifier and a single related information Alternatively, the process of adding a plurality of sets is repeated while changing the target data set as long as there is a data set that does not match.

撮影装置1−1、1−2からデータ(暗号化済み特徴量データと関連情報と撮影装置識別子)が送信されてきた時点で、そのデータセットと特徴量データベース23中のデータセットの間で暗号化したままのマッチングを行い、一人分のデータセット集合を行動データベースに追記することとしてもよい。   When data (encrypted feature amount data, related information, and image capturing device identifier) is transmitted from the image capturing devices 1-1 and 1-2, encryption is performed between the data set and the data set in the feature amount database 23. It is also possible to perform matching as it is and add a set of data sets for one person to the behavior database.

人物識別子の払い出しについては、マッチングの度に新しく払い出してもよいし、以前の払い出し結果(つまり、以前に割り当てた人物識別子)を特徴量データベース23中の各データセットで格納しておき、それを再利用することとしてもよい。   Regarding the payout of the person identifier, a new payout may be made for each matching, or the previous payout result (that is, the previously assigned person identifier) is stored in each data set in the feature amount database 23, It may be reused.

なお、本実施形態において、照合装置2が、特徴量データベース23中の複数のデータ、あるいは撮影装置1−1、1−2から送信されてきた「暗号化された特徴量データ」と特徴量データベース23に格納されているデータ集合とでマッチングを行う方法としては、暗号化されている数値または数値化した文字列に対する論理計算を、当該数値を暗号化したままの状態で実行することが可能な秘匿回路計算が一例として挙げられる。   In the present embodiment, the collation device 2 uses a plurality of data in the feature amount database 23 or “encrypted feature amount data” and feature amount database transmitted from the photographing devices 1-1 and 1-2. As a method of performing matching with the data set stored in 23, it is possible to execute a logical calculation on an encrypted numeric value or a digitized character string while the numeric value is still encrypted. An example is a secret circuit calculation.

分析装置3は、照合装置2が行動データベース231へアクセス可能であり、その行動データベース231から関連情報(この例では、フレームイン時刻、フレームアウト時刻)と撮影装置識別子との対応付を読出す。   The analysis device 3 allows the verification device 2 to access the behavior database 231, and reads the association between the related information (in this example, frame-in time and frame-out time) and the imaging device identifier from the behavior database 231.

そして、分析装置3は、読出した関連情報と撮影装置識別子とに基づいて、撮影装置1−1、1−2のうちのある人物を撮影した撮影装置や、その人物が当該撮影装置の前に現れた時刻や立ち去った時刻、その人物が当該撮影装置を通り過ぎたときの速度などの分析処理を実行する。   Then, the analysis device 3 captures a person in the photographing apparatuses 1-1 and 1-2 based on the read related information and the photographing apparatus identifier, or the person is in front of the photographing apparatus. Analysis processing such as the time of appearance, the time of leaving, and the speed when the person passes the imaging device is executed.

以下、撮影装置1−1〜1−2の構成について、図2を参照して説明する。なお、撮影装置1−1〜1−2は互いに同じ構成を有するため、以下では、撮影装置1−1を例に挙げて説明する。   Hereinafter, the configuration of the imaging devices 1-1 to 1-2 will be described with reference to FIG. Since the photographing apparatuses 1-1 to 1-2 have the same configuration, the photographing apparatus 1-1 will be described below as an example.

図2に示すように、撮影装置1−1には、撮影部11と、特徴量抽出部12と、暗号化部13と、関連情報抽出部14と、送信部15とが設けられている。   As shown in FIG. 2, the photographing apparatus 1-1 includes a photographing unit 11, a feature amount extraction unit 12, an encryption unit 13, a related information extraction unit 14, and a transmission unit 15.

撮影部11は、人物を含む任意の被写体が写り込んだ映像を撮影するとともに、その映像の撮影時刻を当該映像に付与する。そして、撮影部11は、撮影時刻が付与された映像を特徴量抽出部12へ出力する。なお、撮影部11の一例としては、一般的なビデオカメラなどが有する撮影機構が挙げられる。   The photographing unit 11 shoots a video in which an arbitrary subject including a person is reflected, and assigns the shooting time of the video to the video. Then, the photographing unit 11 outputs the video with the photographing time to the feature amount extracting unit 12. An example of the photographing unit 11 is a photographing mechanism included in a general video camera.

特徴量抽出部12は、撮影部11から出力されてきた映像に写り込んだ人物を識別する。なお、映像に写り込んだ人物を識別する方法は任意でよい。   The feature amount extraction unit 12 identifies a person reflected in the video output from the imaging unit 11. Note that any method may be used for identifying a person shown in the video.

例えば、特徴量抽出部12は、撮影部11から出力されてきた映像内の輝度変化に基づいて人物を示すエッジを検出することで、当該人物を識別してもよい。なお、エッジの検出に用いるフィルタは、例えば、ソーベルフィルタなどの任意のフィルタでよい。   For example, the feature amount extraction unit 12 may identify the person by detecting an edge indicating the person based on a luminance change in the video output from the imaging unit 11. The filter used for edge detection may be an arbitrary filter such as a Sobel filter, for example.

また、例えば、特徴量抽出部12は、撮影部11から出力されてきた映像のうちから人物の候補を示すパターンを検出するパターンマッチングにより、当該映像に写り込んだ人物を識別してもよい。   Further, for example, the feature amount extraction unit 12 may identify a person reflected in the video by pattern matching that detects a pattern indicating a candidate for a person from the video output from the imaging unit 11.

特徴量抽出部12は、採用した人物識別の方法に依存したタイミングで映像から、識別した人物の特徴を表す数値を特徴量データとして抽出し、その特徴量データを暗号化部13へ出力する。   The feature amount extraction unit 12 extracts, as feature amount data, a numerical value representing the identified person's feature from the video at a timing depending on the employed person identification method, and outputs the feature amount data to the encryption unit 13.

暗号化部13は、特徴量抽出部12から出力されてきた特徴量データを暗号化する。そして、暗号化部13は、暗号化した特徴量データを送信部15へ出力する。   The encryption unit 13 encrypts the feature amount data output from the feature amount extraction unit 12. Then, the encryption unit 13 outputs the encrypted feature amount data to the transmission unit 15.

なお、本実施形態では、照合装置2は、それぞれ暗号化された複数の特徴量データを暗号化された状態のままで比較する。そのため、暗号化部13は、暗号化されたままの状態で照合装置2が比較できる形式に特徴量データを暗号化可能な方法であれば、任意の方法を用いてよい。   Note that in the present embodiment, the collation device 2 compares a plurality of pieces of encrypted feature amount data while being encrypted. For this reason, the encryption unit 13 may use any method as long as it can encrypt the feature data in a format that can be compared with the verification device 2 in the encrypted state.

例えば、暗号化部13は、文献Aに開示されているように、Paillier暗号を用いて、二進数表記した桁ごとに特徴量データを暗号化する方法を用いてもよい(文献A:Berry Schoenmakers、Pim Tuyls、 「Practical Two-Party Computation Based on the Conditional Gate,」、Proc. of ASIACRYPT 2004, pp.119-136, Spring-Verlag, 2004.)。   For example, as disclosed in Document A, the encryption unit 13 may use a method of encrypting feature amount data for each digit expressed in binary numbers using Paillier encryption (Document A: Berry Schoenmakers). Pim Tuyls, “Practical Two-Party Computation Based on the Conditional Gate,” Proc. Of ASIACRYPT 2004, pp.119-136, Spring-Verlag, 2004.).

関連情報抽出部14は、撮影部11から出力されてきた映像に写り込んだ人物を識別した場合、その人物が当該撮影装置1−1の撮影範囲外から該撮影範囲内に入ってきたかどうかを判別する。   When the related information extraction unit 14 identifies a person reflected in the video output from the imaging unit 11, it is determined whether the person has entered the imaging range from outside the imaging range of the imaging apparatus 1-1. Determine.

この判別の結果、その人物が撮影装置1−1の撮影範囲外から当該撮影範囲内に入ってきたと判別した場合、その時刻をフレームイン時刻として抽出する。   As a result of this determination, when it is determined that the person has entered the shooting range from outside the shooting range of the shooting device 1-1, the time is extracted as the frame-in time.

一方、関連情報抽出部14は、人物が撮影装置1−1の撮影範囲外から当該撮影範囲内に入ってきていないと判別した場合、この撮影範囲内に存在している人物が撮影範囲から外れたかどうかを判別する。   On the other hand, if the related information extraction unit 14 determines that the person has not entered the imaging range from outside the imaging range of the imaging device 1-1, the person existing in the imaging range is out of the imaging range. To determine whether

この判別の結果、撮影範囲内に存在している人物が撮影範囲から外れたと判別した場合、その時刻をフレームアウト時刻として抽出する。   As a result of this determination, when it is determined that a person existing in the shooting range is out of the shooting range, the time is extracted as a frame-out time.

ところで、撮影範囲に人物が入っているかどうかの判定タイミングや特徴量データ・関連情報抽出のタイミングは、必ずしもリアルタイムである必要はなく、録画データに対して解析を行っても構わない。   By the way, the timing for determining whether or not a person is in the shooting range and the timing for extracting feature amount data / related information are not necessarily real time, and the recorded data may be analyzed.

そして、関連情報抽出部14は、抽出したフレームイン時刻およびフレームアウト時刻を、関連情報として送信部15へ出力する。   Then, the related information extraction unit 14 outputs the extracted frame-in time and frame-out time to the transmission unit 15 as related information.

送信部15は、関連情報抽出部14から出力されてきた関連情報と、暗号化部13から出力されてきた暗号化済み特徴量データとを、撮影装置1−1を固有に識別するための撮影装置識別子(この例では、ID1−1)とともに照合装置2へ送信する。   The transmission unit 15 captures the related information output from the related information extraction unit 14 and the encrypted feature amount data output from the encryption unit 13 to uniquely identify the imaging device 1-1. It transmits to the collation apparatus 2 with an apparatus identifier (in this example, ID1-1).

つぎに、照合装置2の構成について、図3を参照して説明する。   Next, the configuration of the verification device 2 will be described with reference to FIG.

図3に示すように、照合装置2には、受信部21と、照合部22と、特徴量データベース23とが設けられている。   As shown in FIG. 3, the collation device 2 is provided with a receiving unit 21, a collation unit 22, and a feature amount database 23.

受信部21は、撮影装置1−1、1−2からそれぞれ送信されてきた、ある人物の暗号化された特徴量データと、その人物の行動に付随する所定の関連情報(この例では、フレームイン時刻、フレームアウト時刻)と、撮影装置識別子とを照合部22へ出力する。   The reception unit 21 encrypts feature data of a certain person transmitted from each of the photographing apparatuses 1-1 and 1-2, and predetermined related information (in this example, a frame) associated with the action of the person. In time and frame out time) and the imaging device identifier are output to the collation unit 22.

照合部22は、受信部21から出力されてきた暗号化済み特徴量データと関連情報および撮影装置識別子を一つのデータセットとして、特徴量データベース23に格納する。   The collation unit 22 stores the encrypted feature amount data output from the reception unit 21, the related information, and the imaging device identifier in the feature amount database 23 as one data set.

また、特徴量データベース23に十分な量のデータセットが格納されたときなど任意のタイミングで、照合部22は、特徴量データベース23に格納されたデータセットの名寄せを、暗号化された特徴量データをキーとして、暗号化したまま行い、人物単位で人物識別子を払い出し(つまり、人物識別子の割当)、人物識別子と、暗号化された特徴量データを除くデータセット(関連情報と撮影装置識別子)の集合を行動データベース231に追記する。   Further, at any timing such as when a sufficient amount of data sets are stored in the feature amount database 23, the collation unit 22 identifies the data sets stored in the feature amount database 23 with encrypted feature amount data. The key is used as a key and is encrypted, and a person identifier is paid out in units of persons (that is, assignment of person identifiers), and a data set (related information and photographing apparatus identifier) excluding the person identifier and encrypted feature data is stored. The set is added to the behavior database 231.

なお、この名寄せ(マッチング)は、対象となる特徴量データのそれぞれが暗号化された状態のままで行われる。   Note that this name identification (matching) is performed while the target feature data is encrypted.

例えば、照合部22は、文献Bに開示されているように、二進数で表記した上で桁ごとに暗号化された数値に対する任意の論理演算を、当該数値を利用者が認識可能な形式に変換することなく実行できる秘匿回路計算を行うことにより、暗号化したままの名寄せが可能となる(文献B:G.Yamamoto, K.Chida, A.Nasciment, K.Suzuki, and S.Uchiyama, Efficient, non-optimistic secure circuit evaluation based on the ElGamal encryption, WISA 2005, Lecture Notes in Computer Science, pp.328-343, Spring-Verlag, 2005.)。   For example, as disclosed in Document B, the collation unit 22 converts an arbitrary logical operation on a numerical value expressed in binary numbers and encrypted for each digit into a format that allows the user to recognize the numerical value. By performing a secret circuit calculation that can be executed without conversion, it is possible to identify names as they are encrypted (reference B: G. Yamamoto, K. Chida, A. Nasciment, K. Suzuki, and S. Uchiyama, Efficient , non-optimistic secure circuit evaluation based on the ElGamal encryption, WISA 2005, Lecture Notes in Computer Science, pp.328-343, Spring-Verlag, 2005.).

図4に示すように、特徴量データベース23は、照合部22によって書き込まれた暗号化済み特徴量データと関連情報と撮影装置識別子とを対応付けて格納する。   As illustrated in FIG. 4, the feature database 23 stores the encrypted feature data written by the collation unit 22, related information, and an imaging device identifier in association with each other.

また、図5に示すように、行動データベース231は、照合部22によって書き込まれた人物識別子と、関連情報と撮影装置識別子の複数の組とを対応付けて格納する。   As shown in FIG. 5, the behavior database 231 stores the person identifier written by the collation unit 22 and a plurality of sets of related information and imaging device identifiers in association with each other.

分析装置3が直接、特徴量データベース23と通信できず、行動データベース231とのみ通信できるようにした理由は、特徴量データは暗号化されているとはいえ、撮影装置1−1、1−2で撮影された人物の特徴を特定することが可能な情報を含むため、この人物に付随する個人情報が撮影目的以外の目的で、分析者などに不要に漏洩してしまうことを回避する観点からである。   The reason why the analysis device 3 cannot communicate directly with the feature database 23 and can communicate with only the behavior database 231 is that although the feature data is encrypted, the imaging devices 1-1 and 1-2 From the viewpoint of avoiding personal information accompanying this person from being unnecessarily leaked to an analyst or the like for purposes other than shooting purposes. It is.

但し、特殊な例として、照合装置2が分析装置3を兼ねる場合は、撮影装置1−1の所有者の許諾を得ることを前提として、直接、特徴量データベース23を参照して、分析を行っても構わない。   However, as a special example, when the collation device 2 also serves as the analysis device 3, the analysis is performed by directly referring to the feature amount database 23 on the assumption that the owner of the imaging device 1-1 is obtained. It doesn't matter.

つぎに、上記構成を有する行動分析システムの動作を説明する。   Next, the operation of the behavior analysis system having the above configuration will be described.

まず、撮影装置1−1、1−2が、撮影した映像から抽出した特徴量データを暗号化して照合装置2へ送信する動作について、図6を参照して説明する。なお、撮影装置1−1〜1−2は互いに同じ動作を行うため、以下では、撮影装置1−1を例に挙げて説明する。   First, an operation in which the image capturing apparatuses 1-1 and 1-2 encrypt feature amount data extracted from captured images and transmit the encrypted data to the collation apparatus 2 will be described with reference to FIG. In addition, since the imaging devices 1-1 to 1-2 perform the same operation, the imaging device 1-1 will be described below as an example.

まず、図6に示すステップ41にて、撮影装置1−1が有する撮影部11は、人物を含む任意の被写体が写り込んだ映像を撮影する。また、撮影部11は、その映像の撮影時刻を当該映像に付与する。   First, in step 41 shown in FIG. 6, the photographing unit 11 included in the photographing apparatus 1-1 photographs an image in which an arbitrary subject including a person is reflected. In addition, the shooting unit 11 gives the shooting time of the video to the video.

すると、ステップ42にて、関連情報抽出部14は、ある人物が当該撮影装置1−1の撮影範囲外からこの撮影範囲内に入ってきたかどうかを判別する。   Then, in step 42, the related information extraction unit 14 determines whether a certain person has entered the imaging range from outside the imaging range of the imaging apparatus 1-1.

この判別の結果、その人物が撮影装置1−1の撮影範囲外から当該撮影範囲内に入ってきたと判別した場合、ステップ43として、その撮影時刻をフレームイン時刻として抽出する。   As a result of the determination, if it is determined that the person has entered the shooting range from outside the shooting range of the shooting device 1-1, the shooting time is extracted as a frame-in time in step 43.

また、ステップ44にて、特徴量抽出部12は、撮影部11から出力されてきた映像に写り込んだ人物を任意のタイミングで識別し、ステップ45にて、識別した人物の特徴を表す数値を特徴量データとして抽出し、その特徴量データを暗号化部13へ出力する。   Further, in step 44, the feature amount extraction unit 12 identifies a person reflected in the video output from the photographing unit 11 at an arbitrary timing, and in step 45, a numerical value representing the characteristic of the identified person is obtained. The feature amount data is extracted, and the feature amount data is output to the encryption unit 13.

ステップ46にて、暗号化部13は特徴量データの暗号化を行い、暗号化された特徴量データを送信部15へ出力する。   In step 46, the encryption unit 13 encrypts the feature amount data and outputs the encrypted feature amount data to the transmission unit 15.

なお、暗号化部13は、例えば、上述した文献Bに開示されているように、秘匿回路計算用の暗号を用いて、これらの特徴量データを暗号化する。   Note that the encryption unit 13 encrypts the feature amount data using, for example, encryption for the secret circuit calculation as disclosed in the above-described document B.

ターゲットとなる人物が当該撮影範囲内に入ってきていなければ、ステップ42を繰り返す。   If the target person is not within the shooting range, step 42 is repeated.

次に、ステップ47にて、関連情報抽出部14は、撮影範囲内に存在している人物が撮影範囲から外れたかどうかを判別する。   Next, in step 47, the related information extraction unit 14 determines whether or not a person existing in the shooting range is out of the shooting range.

この判別の結果、撮影範囲内に存在している人物が撮影範囲から外れたと判別した場合、ステップ48にてその撮影時刻をフレームアウト時刻として抽出する。そして、関連情報抽出部14は、抽出したフレームイン時刻およびフレームアウト時刻を、関連情報として送信部15へ出力する。   As a result of the determination, if it is determined that the person existing in the shooting range is out of the shooting range, the shooting time is extracted as a frame-out time in step 48. Then, the related information extraction unit 14 outputs the extracted frame-in time and frame-out time to the transmission unit 15 as related information.

すると、ステップ49にて、送信部15は、関連情報抽出部14から出力されてきた関連情報と、暗号化部13から暗号化された特徴量データとを、当該撮影装置1−1を固有に識別するための撮影装置識別子(この例では、ID1−1)とともに照合装置2へ送信する。   Then, in step 49, the transmission unit 15 uniquely identifies the relevant information output from the related information extraction unit 14 and the feature amount data encrypted from the encryption unit 13 for the imaging device 1-1. It transmits to the collation apparatus 2 with the imaging device identifier (ID1-1 in this example) for identification.

以上で、撮影装置1−1が、撮影した映像から抽出した特徴量データを暗号化して照合装置2へ送信する一連の動作が終了する。   Thus, a series of operations in which the photographing apparatus 1-1 encrypts the feature amount data extracted from the photographed video and transmits it to the collation apparatus 2 ends.

つぎに、照合装置2が、撮影装置1−1、1−2から送信されてきた暗号化済み特徴量データと関連情報および撮影装置識別装置を受信した後の動作について、図7を参照して説明する。   Next, the operation after the collation device 2 receives the encrypted feature amount data, the related information, and the photographing device identification device transmitted from the photographing devices 1-1 and 1-2, with reference to FIG. explain.

まず、照合装置2が有する受信部21は、撮影装置1−1、1−2からそれぞれ送信されてきた、ある人物の暗号化された特徴量データと、その人物の行動に付随する所定の関連情報(この例では、フレームイン時刻、フレームアウト時刻)と、撮影装置識別子とを照合部22へ出力する。   First, the receiving unit 21 included in the collation device 2 includes encrypted feature data of a certain person transmitted from the photographing apparatuses 1-1 and 1-2, and a predetermined association associated with the action of the person. Information (in this example, frame-in time and frame-out time) and the imaging device identifier are output to the collation unit 22.

すると、図7に示すステップ51にて、照合部22は、受信部21から出力されてきた暗号化済み特徴量データと、関連情報および撮影装置識別子とを関連付けて、特徴量データベース23に格納する。   Then, in step 51 shown in FIG. 7, the collation unit 22 associates the encrypted feature amount data output from the reception unit 21 with the related information and the imaging device identifier and stores them in the feature amount database 23. .

ステップ51の処理を1回以上の任意の回数繰り返した後、「任意の時点」にて、照合部22は、ステップ52として、特徴量データベース23中の任意の一つのデータセットを対象とし、暗号化された特徴量データをキーとして、他のデータセット集合とのマッチングを、暗号化したまま実施する。   After the process of step 51 is repeated any number of times one or more times, at “any time point”, the collation unit 22 performs encryption on any one data set in the feature amount database 23 as a step 52. Matching with other data set sets is performed with encryption using the converted feature data as a key.

この結果、ステップ53として、マッチングしたデータセット集合に対して、行動データベース231にて人物を識別するための、人物識別子を照合部22が払い出す。   As a result, in step 53, the collation unit 22 pays out a person identifier for identifying the person in the behavior database 231 with respect to the matched data set set.

そして、ステップ54として、その人物識別子とマッチングしたデータセット集合から暗号化した特徴量データを除いたものを行動データベースに追記する。   Then, in step 54, the data set set matching the person identifier excluding the encrypted feature data is added to the action database.

ステップ55として、過去に対象としたデータセットおよびそれとマッチングしたデータセットを除くデータセット集合が残っていれば、その残りを対象として、ステップ52〜54を繰り返す。   As step 55, if there remains a data set set excluding a data set targeted in the past and a data set matched therewith, steps 52 to 54 are repeated for the remaining data set.

特徴量データベース23中のすべてのデータセットについて名寄せが完了した段階で、照合装置2は、処理を終了する。   At the stage where name identification is completed for all data sets in the feature amount database 23, the collation apparatus 2 ends the processing.

なお、分析装置3は、当該分析装置3がアクセス可能な行動データベース231を参照し、人物が移動した軌跡である動線などの分析処理を実行する。   The analysis device 3 refers to the behavior database 231 accessible by the analysis device 3 and executes analysis processing such as a flow line that is a trajectory of the movement of the person.

以上で、照合装置2が、撮影装置1−1、1−2から送信されてきた暗号化済み特徴量データと関連情報および撮影装置識別装置を受信した後の一連の動作が終了する。   Thus, a series of operations after the collation device 2 receives the encrypted feature amount data, the related information, and the photographing device identification device transmitted from the photographing devices 1-1 and 1-2 are completed.

以上説明したように、本発明によれば、複数のビデオカメラにより人物を撮影し、その人物がどのカメラの前にいつ現れいつ去ったのかといった動線分析を行うにあたり、映像の状態ではなく、他の人物の特徴と数値で比較することのできる特徴量データに変換した上で暗号化を行い、暗号化されたまま特徴量データを用いて名寄せした後に分析を行える。   As described above, according to the present invention, a person is photographed by a plurality of video cameras, and in performing a flow line analysis such as when the person appears before and when the person leaves, not the state of the image, Encryption is performed after conversion into feature data that can be numerically compared with the characteristics of other persons, and analysis can be performed after name identification is performed using the feature data as encrypted.

これにより、人物のプライバシーを侵害することなく当該人物の行動を分析することが可能となる。   This makes it possible to analyze the person's behavior without infringing on the person's privacy.

具体的には、複数の撮影装置1−1、1−2でそれぞれ撮影された同一人物の映像を収集する名寄せなどによる当該人物のプライバシーの侵害や、撮影された人物に付随する個人情報の漏洩を回避することが可能となる。   Specifically, infringement of the privacy of the person by collecting names of the same person photographed by the plurality of photographing apparatuses 1-1 and 1-2, or leakage of personal information accompanying the photographed person Can be avoided.

なお、複数の出入口が設けられた任意の場所(例えば、展示会場)において、出入口のそれぞれに撮影装置を設置しておくことにより、撮影された人物の個人情報を保護しつつ、その場所を訪れた人物がどの入口から入りどの出口から出たのかを特定したり、当該場所に滞在していた時間を特定したりすることが可能となる。   In addition, in any place (for example, exhibition hall) where a plurality of entrances / exits are provided, a photographing device is installed at each entrance / exit so that the personal information of the photographed person is protected and the place is visited. It is possible to specify from which entrance the person has entered and from which exit, and to specify the time spent at the place.

なお、本発明の要旨を逸脱しない範囲で各種の変形が可能である。   Various modifications can be made without departing from the scope of the present invention.

撮影装置1−1、1−2には、映像として動画を撮影するビデオカメラに限らず、映像として静止画を撮影するスチルカメラを用いてもよい。この場合、撮影装置1−1、1−2が具備する撮影部11は、所定の時間間隔で静止画を撮影して特徴量抽出部12へ出力する。そして、特徴量抽出部12は、所定の時間間隔で出力されてきた静止画に基づいて、その静止画に写り込んだ人物の特徴量を算出すればよい。   The photographing devices 1-1 and 1-2 are not limited to video cameras that shoot moving images as images, but may be still cameras that shoot still images as images. In this case, the imaging units 11 included in the imaging apparatuses 1-1 and 1-2 capture still images at predetermined time intervals and output them to the feature amount extraction unit 12. Then, the feature amount extraction unit 12 may calculate the feature amount of the person captured in the still image based on the still image output at a predetermined time interval.

関連情報抽出部14は、フレームイン時刻とフレームアウト時刻との両方ではなく、フレームイン時刻とフレームアウト時刻とのどちらか一方だけを抽出するようにしてもよい。   The related information extraction unit 14 may extract only one of the frame-in time and the frame-out time instead of both the frame-in time and the frame-out time.

また、関連情報抽出部14は、映像に写り込んだ人物の位置を算出するように構成してもよい。そして、関連情報抽出部14は、フレームイン時刻における映像に写り込んだ人物の位置と、フレームアウト時刻における映像に写り込んだ当該人物の位置とを、関連情報のうちの1情報として照合装置2へ送信する。そして、照合装置2が有する特徴量データベース23は、フレームイン時刻やフレームアウト時刻とともに軌跡を対応付けて格納する。   Further, the related information extraction unit 14 may be configured to calculate the position of a person reflected in the video. Then, the related information extraction unit 14 uses the position of the person reflected in the video at the frame-in time and the position of the person reflected in the video at the frame-out time as one piece of the related information as the matching device 2. Send to. And the feature-value database 23 which the collation apparatus 2 has associates and stores a locus | trajectory with frame-in time and frame-out time.

また、撮影装置1−1、1−2は、映像内の人物が写り込んでいる位置を算出し、フレームイン時刻における位置とその直後における位置とを関連情報として照合装置2へ送信してもよい。   Also, the photographing devices 1-1 and 1-2 may calculate the position where the person in the video is reflected, and transmit the position at the frame-in time and the position immediately after that to the matching device 2 as related information. Good.

また、撮影装置1−1、1−2は、映像内の人物が写り込んでいる位置を算出し、フレームアウト時刻における位置とその直前における位置とを関連情報として照合装置2へ送信してもよい。   Also, the photographing apparatuses 1-1 and 1-2 may calculate the position where the person in the video is reflected, and transmit the position at the frame-out time and the position immediately before it to the matching apparatus 2 as related information. Good.

また、関連情報抽出部14は、撮影された人物が行った行動を推測するように構成されていてもよい。   Further, the related information extraction unit 14 may be configured to infer the action taken by the photographed person.

また、関連情報抽出部14は、映像データから、また、撮影装置1−1、1−2がマイクを備えている場合はそのマイクに入力された人物の音声データから、あるいは各種センサデータから、既存技術を用いて、人物が有する性別や年齢などの属性情報を推測し、それら推測した属性情報を関連情報として、送信部15経由で、照合装置2へ送信してもよい。この場合、照合装置2は、フレームイン時刻やフレームアウト時刻とともにこれら推測した属性情報を対応付けて特徴量データベース23に格納する。そして、分析装置3は、行動データベース231に格納されている推測した属性情報を用いて、その他関連情報と対応付けて各種分析を行う。   In addition, the related information extracting unit 14 is obtained from video data, and when the photographing apparatuses 1-1 and 1-2 are provided with microphones, from voice data of a person input to the microphones, or from various sensor data. Using existing technology, attribute information such as gender and age of a person may be estimated, and the estimated attribute information may be transmitted as related information to the verification device 2 via the transmission unit 15. In this case, the collation device 2 stores the estimated attribute information together with the frame-in time and the frame-out time in the feature amount database 23 in association with each other. Then, the analysis apparatus 3 performs various analyzes in association with other related information using the estimated attribute information stored in the behavior database 231.

さらに、本発明においては、複数の人物が自由にフレームインやフレームアウトする状況で、それぞれの人物を識別して追跡する技術として既存の技術を利用することを想定しているが、場合によっては、定期的に、あるいはフレームインの直後やフレームアウトの直前など特別な契機において、撮影装置1−1、1−2が、特徴量データを複数回抽出するという実施形態も考えられる。   Furthermore, in the present invention, it is assumed that the existing technology is used as a technology for identifying and tracking each person in a situation where a plurality of persons freely frame in and out, but in some cases Also, an embodiment in which the photographing apparatuses 1-1 and 1-2 extract feature amount data a plurality of times regularly or at special occasions such as immediately after frame-in or immediately before frame-out is also conceivable.

以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明の要旨を逸脱しない範囲で当業者が理解し得る各種の変形が可能である。   The present invention has been described above with reference to the embodiments, but the present invention is not limited to the above embodiments. Various modifications that can be understood by those skilled in the art can be made to the configuration and details of the present invention without departing from the gist of the present invention.

1−1、1−2 撮影装置
11 撮影部
12 特徴量抽出部
13 暗号化部
14 関連情報抽出部
15 送信部
2 照合装置
21 受信部
22 照合部
23 特徴量データベース
231 行動データベース
3 分析装置
1-1, 1-2 Imaging device 11 Imaging unit 12 Feature amount extraction unit 13 Encryption unit 14 Related information extraction unit 15 Transmission unit 2 Verification unit 21 Reception unit 22 Verification unit 23 Feature amount database 231 Behavioral database 3 Analysis device

Claims (14)

映像を撮影する撮影装置と、前記撮影装置で撮影された人物を特定する照合装置とを有して成る行動分析システムにおいて、
前記撮影装置は、前記映像から該映像に写り込んだ人物の特徴を表す数値を特徴量データとして抽出し、該特徴量データを暗号化し、該暗号化された特徴量データと前記人物の行動に付随する所定の関連情報と当該撮影装置を固有に識別するための撮影装置識別子とを前記照合装置へ送信し、
前記照合装置は、前記撮影装置から送信されてきた暗号化済み特徴量データおよび関連情報と撮影装置識別子を受信し、当該照合装置が有する特徴量データベースに格納し、任意の時点で、暗号化したまま前記特徴量データのマッチングを行い、該マッチングに基づいてユニークな前記人物ごとに当該人物を固有に識別するための人物識別子を払い出し、該人物識別子ごとにまとまった関連情報と撮影装置識別子の組のリストを持つ行動データベースを作成または追記・更新することを特徴とする行動分析システム。
In a behavior analysis system comprising a photographing device for photographing a video and a verification device for identifying a person photographed by the photographing device,
The photographing device extracts, as feature data, a numerical value representing a feature of a person reflected in the video from the video, encrypts the feature data, and adds the encrypted feature data and the action of the person. Transmitting accompanying predetermined related information and an imaging device identifier for uniquely identifying the imaging device to the verification device;
The collation device receives the encrypted feature amount data and the related information and the photographing device identifier transmitted from the photographing device, stores them in the feature amount database of the collation device, and encrypts them at an arbitrary time point The feature amount data is matched, a person identifier for uniquely identifying the person is paid out for each unique person based on the matching, and a set of related information and a photographing apparatus identifier collected for each person identifier A behavior analysis system characterized by creating, appending, and updating a behavior database having a list.
請求項1に記載の行動分析システムにおいて、
前記撮影装置は、前記映像として、静止画を所定の時間間隔で撮影し、該静止画から前記特徴量データを抽出することを特徴とする行動分析システム。
The behavior analysis system according to claim 1,
The behavioral analysis system is characterized in that the photographing device photographs a still image as the video at a predetermined time interval and extracts the feature amount data from the still image.
請求項1または2に記載の行動分析システムにおいて、
前記撮影装置は、前記映像から前記特徴量データを抽出した場合、該特徴量データに付随する人物が当該撮影装置の撮影範囲外から該撮影範囲内に入った時刻であるフレームイン時刻と、該撮影範囲内に存在している人物が前記撮影範囲から外れた時刻であるフレームアウト時刻とを該映像から抽出し、該フレームイン時刻と該フレームアウト時刻とを前記関連情報として前記照合装置へ送信することを特徴とする行動分析システム。
The behavior analysis system according to claim 1 or 2,
When the feature amount data is extracted from the video, the photographing device has a frame-in time that is a time when a person attached to the feature amount data enters the photographing range from outside the photographing range of the photographing device; A frame-out time that is a time when a person existing in the shooting range is out of the shooting range is extracted from the video, and the frame-in time and the frame-out time are transmitted to the verification device as the related information. A behavior analysis system characterized by
請求項3に記載の行動分析システムにおいて、
前記撮影装置は、前記フレームイン時刻と前記フレームアウト時刻との少なくとも一方を前記映像から抽出して前記関連情報として前記照合装置へ送信することを特徴とする行動分析システム。
The behavior analysis system according to claim 3,
The photographing apparatus extracts at least one of the frame-in time and the frame-out time from the video and transmits the extracted information as the related information to the collation device.
請求項3に記載の行動分析システムにおいて、
前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームイン時刻における前記位置と前記フレームアウト時刻における前記位置とを前記関連情報として前記照合装置へ送信することを特徴とする行動分析システム。
The behavior analysis system according to claim 3,
The imaging device calculates a position where the person is reflected in the video, and transmits the position at the frame-in time and the position at the frame-out time as the related information to the verification device. Characteristic behavior analysis system.
請求項4に記載の行動分析システムにおいて、
前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームイン時刻における前記位置とその直後における前記位置とを前記関連情報として前記照合装置へ送信することを特徴とする行動分析システム。
The behavior analysis system according to claim 4,
The photographing apparatus calculates a position where the person is reflected in the video, and transmits the position at the frame-in time and the position immediately after the position as the related information to the verification apparatus. Behavior analysis system.
請求項4に記載の行動分析システムにおいて、
前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームアウト時刻における前記位置とその直前における前記位置とを前記関連情報として前記照合装置へ送信することを特徴とする行動分析システム。
The behavior analysis system according to claim 4,
The photographing device calculates a position where the person is reflected in the video, and transmits the position at the frame-out time and the position immediately before the position as the related information to the matching device. Behavior analysis system.
映像を撮影する撮影装置と、前記撮影装置で撮影された人物を特定する照合装置とを有して成る行動分析システムにおける行動分析方法であって、
前記撮影装置が、前記映像から該映像に写り込んだ人物の特徴を表す数値を特徴量データとして抽出する特徴量抽出処理と、
前記撮影装置が、該特徴量データを暗号化する処理と、
前記撮影装置が、該暗号化された特徴量データと前記人物の行動に付随する所定の関連情報と当該撮影装置を固有に識別するための撮影装置識別子とを前記照合装置へ送信する送信処理と、
前記照合装置が、前記撮影装置から送信されてきた暗号化済み特徴量データおよび関連情報と撮影装置識別子を受信し、当該照合装置が有する特徴量データベースに格納する処理と、
前記照合装置が、任意の時点で、暗号化したまま前記特徴量データのマッチングを行う処理と、
前記照合装置が、前記マッチングに基づいてユニークな前記人物ごとに当該人物を固有に識別するための人物識別子を払い出す処理と、
前記照合装置が、前記人物識別子ごとにまとまった関連情報と撮影装置識別子の組のリストを持つ行動データベースを作成または追記・更新する処理とを有することを特徴とする行動分析方法。
A behavior analysis method in a behavior analysis system comprising a photographing device for photographing a video and a matching device for identifying a person photographed by the photographing device,
A feature amount extraction process in which the photographing apparatus extracts, as feature amount data, a numerical value representing a feature of a person reflected in the image from the image;
A process in which the photographing apparatus encrypts the feature data;
A transmission process in which the imaging device transmits the encrypted feature value data, predetermined related information accompanying the action of the person, and an imaging device identifier for uniquely identifying the imaging device to the verification device; ,
The collation device receives encrypted feature amount data and related information transmitted from the photographing device and a photographing device identifier, and stores them in a feature amount database of the collation device;
Processing for matching the feature amount data while the encryption device is encrypted at an arbitrary time; and
A process in which the verification device pays out a person identifier for uniquely identifying the person for each unique person based on the matching;
The behavior analysis method, characterized in that the verification device includes processing for creating, appending, or updating a behavior database having a list of sets of related information and photographing device identifiers collected for each person identifier.
請求項8に記載の行動分析方法において、
前記撮影装置が、前記映像として、静止画を所定の時間間隔で撮影する処理を有し、
前記特徴量抽出処理では、前記静止画から前記特徴量データを抽出することを特徴とする行動分析方法。
The behavior analysis method according to claim 8,
The photographing device has a process of photographing a still image at a predetermined time interval as the video,
In the feature amount extraction process, the feature amount data is extracted from the still image.
請求項8または9に記載の行動分析方法において、
前記撮影装置が、前記映像から前記特徴量データを抽出した場合、該特徴量データに付随する人物が当該撮影装置の撮影範囲外から該撮影範囲内に入った時刻であるフレームイン時刻を該映像から抽出する処理と、
前記撮影装置が、前記撮影範囲内に存在している人物が前記撮影範囲から外れた時刻であるフレームアウト時刻を前記映像から抽出する処理とを有し、
前記送信処理では、前記フレームイン時刻と前記フレームアウト時刻とを前記関連情報として前記照合装置へ送信することを特徴とする行動分析方法。
The behavior analysis method according to claim 8 or 9,
When the imaging device extracts the feature amount data from the video, a frame-in time that is a time when a person accompanying the feature amount data enters the imaging range from outside the imaging range of the imaging device is Processing to extract from
The imaging device has a process of extracting from the video a frame-out time that is a time when a person existing in the imaging range is out of the imaging range,
In the transmission process, the frame-in time and the frame-out time are transmitted as the related information to the verification device.
請求項10に記載の行動分析方法において、
前記送信処理では、前記フレームイン時刻と前記フレームアウト時刻との少なくとも一方を前記映像から抽出して前記関連情報として前記照合装置へ送信することを特徴とする行動分析方法。
The behavior analysis method according to claim 10,
In the transmission process, at least one of the frame-in time and the frame-out time is extracted from the video and transmitted to the verification device as the related information.
請求項10に記載の行動分析方法において、
前記撮影装置が、前記フレームイン時刻における前記映像内の前記人物が写り込んでいる位置を算出する処理と、
前記撮影装置が、前記フレームアウト時刻における前記映像内の前記人物が写り込んでいる位置を算出する処理とを有し、
前記送信処理では、前記フレームイン時刻における前記位置と、前記フレームアウト時刻における前記位置とを前記関連情報として前記照合装置へ送信することを特徴とする行動分析方法。
The behavior analysis method according to claim 10,
A process in which the photographing device calculates a position where the person in the image is captured at the frame-in time;
The imaging device has a process of calculating a position where the person in the video is captured at the frame-out time,
In the transmission process, the position at the frame-in time and the position at the frame-out time are transmitted as the related information to the verification device.
請求項11に記載の行動分析方法において、
前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームイン時刻における前記位置とその直後における前記位置とを前記関連情報として前記照合装置へ送信することを特徴とする行動分析方法。
The behavior analysis method according to claim 11,
The photographing apparatus calculates a position where the person is reflected in the video, and transmits the position at the frame-in time and the position immediately after the position as the related information to the verification apparatus. To analyze behavior.
請求項11に記載の行動分析方法において、
前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームアウト時刻における前記位置とその直前における前記位置とを前記関連情報として前記照合装置へ送信することを特徴とする行動分析方法。
The behavior analysis method according to claim 11,
The photographing device calculates a position where the person is reflected in the video, and transmits the position at the frame-out time and the position immediately before the position as the related information to the matching device. To analyze behavior.
JP2009159485A 2009-07-06 2009-07-06 Behavior analysis system and behavior analysis method Pending JP2011014059A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009159485A JP2011014059A (en) 2009-07-06 2009-07-06 Behavior analysis system and behavior analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009159485A JP2011014059A (en) 2009-07-06 2009-07-06 Behavior analysis system and behavior analysis method

Publications (1)

Publication Number Publication Date
JP2011014059A true JP2011014059A (en) 2011-01-20

Family

ID=43592850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009159485A Pending JP2011014059A (en) 2009-07-06 2009-07-06 Behavior analysis system and behavior analysis method

Country Status (1)

Country Link
JP (1) JP2011014059A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8376401B2 (en) 2010-01-27 2013-02-19 Tk Holdings Inc. Airbag
WO2013102972A1 (en) * 2012-01-05 2013-07-11 日本電気株式会社 Person feature value extraction system, image-capturing terminal, server, and method for extracting person feature value
JP2014071610A (en) * 2012-09-28 2014-04-21 Keyware Solutions Inc Data processing apparatus, name identification processing method, and computer program
JP2014164549A (en) * 2013-02-26 2014-09-08 Kddi Corp Subject collation device, subject collection method and program
JP2016071639A (en) * 2014-09-30 2016-05-09 日本電信電話株式会社 Monitoring information sharing system, collation device, monitoring device, and program
WO2024053183A1 (en) * 2022-09-08 2024-03-14 株式会社Jvcケンウッド Person search device and person search method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003189295A (en) * 2001-12-17 2003-07-04 Cec:Kk Surveillance camera system and information providing system using the same
JP2005242775A (en) * 2004-02-27 2005-09-08 Omron Corp Gate system
JP2006197442A (en) * 2005-01-17 2006-07-27 Tatsumi Denshi Kogyo Kk Automatic photography preparation device, automatic photography preparation method, and printing medium
JP2006209585A (en) * 2005-01-31 2006-08-10 Mitsubishi Electric Corp Crime prevention system
JP2006236255A (en) * 2005-02-28 2006-09-07 Mitsubishi Electric Corp Person tracking device and person tracking system
JP2008027286A (en) * 2006-07-24 2008-02-07 Mitsubishi Electric Corp Personal authentication system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003189295A (en) * 2001-12-17 2003-07-04 Cec:Kk Surveillance camera system and information providing system using the same
JP2005242775A (en) * 2004-02-27 2005-09-08 Omron Corp Gate system
JP2006197442A (en) * 2005-01-17 2006-07-27 Tatsumi Denshi Kogyo Kk Automatic photography preparation device, automatic photography preparation method, and printing medium
JP2006209585A (en) * 2005-01-31 2006-08-10 Mitsubishi Electric Corp Crime prevention system
JP2006236255A (en) * 2005-02-28 2006-09-07 Mitsubishi Electric Corp Person tracking device and person tracking system
JP2008027286A (en) * 2006-07-24 2008-02-07 Mitsubishi Electric Corp Personal authentication system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8376401B2 (en) 2010-01-27 2013-02-19 Tk Holdings Inc. Airbag
WO2013102972A1 (en) * 2012-01-05 2013-07-11 日本電気株式会社 Person feature value extraction system, image-capturing terminal, server, and method for extracting person feature value
JPWO2013102972A1 (en) * 2012-01-05 2015-05-11 日本電気株式会社 Person feature amount extraction system, imaging terminal, server, and person feature amount extraction method
JP2014071610A (en) * 2012-09-28 2014-04-21 Keyware Solutions Inc Data processing apparatus, name identification processing method, and computer program
JP2014164549A (en) * 2013-02-26 2014-09-08 Kddi Corp Subject collation device, subject collection method and program
JP2016071639A (en) * 2014-09-30 2016-05-09 日本電信電話株式会社 Monitoring information sharing system, collation device, monitoring device, and program
WO2024053183A1 (en) * 2022-09-08 2024-03-14 株式会社Jvcケンウッド Person search device and person search method
JP2024038653A (en) * 2022-09-08 2024-03-21 株式会社Jvcケンウッド Person search device and person search method

Similar Documents

Publication Publication Date Title
JP6760420B2 (en) Information output device, information output system, information output method and program
JP7196893B2 (en) Face matching system, face matching method, and program
CN107862773A (en) Can reservation type recognition of face gate inhibition guest system and method
JP6273185B2 (en) Monitoring information sharing system, monitoring apparatus and program
CN105912908A (en) Infrared-based real person living body identity verification method
CN101404107A (en) Internet bar monitoring and warning system based on human face recognition technology
US20210006558A1 (en) Method, apparatus and system for performing authentication using face recognition
WO2018180588A1 (en) Facial image matching system and facial image search system
JP2011014059A (en) Behavior analysis system and behavior analysis method
JP7400862B2 (en) information processing equipment
CN113870999A (en) Remote disease intelligent diagnosis system and auxiliary diagnosis method based on algorithm, medical image and block chain
CN105930780A (en) Near infrared and micro expression based living body identity verification method
JP2017151832A (en) Wait time calculation system
JP5423740B2 (en) Video providing apparatus, video using apparatus, video providing system, video providing method, and computer program
JP7069854B2 (en) Monitoring system and server equipment
JP7048147B2 (en) Search system, search device, terminal device, search method, and program
CN112712026B (en) Identification method, face registration method, computer equipment and storage medium
WO2020093757A1 (en) Risk detection method, apparatus and system based on background collaboration
KR20220126932A (en) Blockchain-based image forgery prevention system and method and computer program for the same
KR20100013100A (en) Apparatus for protecting image
CN119068589B (en) A door access control system based on motion sensor
JP7685947B2 (en) Unauthorized user authentication device, unauthorized user authentication method, and unauthorized user authentication system
US20250139976A1 (en) Image processing apparatus, image processing method, and storage medium
JP2006155402A (en) Security system
JP2017085202A (en) Image storage system, image storage method and computer program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110616

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110909

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20130304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130702

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140114