JP2011014059A - Behavior analysis system and behavior analysis method - Google Patents
Behavior analysis system and behavior analysis method Download PDFInfo
- Publication number
- JP2011014059A JP2011014059A JP2009159485A JP2009159485A JP2011014059A JP 2011014059 A JP2011014059 A JP 2011014059A JP 2009159485 A JP2009159485 A JP 2009159485A JP 2009159485 A JP2009159485 A JP 2009159485A JP 2011014059 A JP2011014059 A JP 2011014059A
- Authority
- JP
- Japan
- Prior art keywords
- person
- frame
- time
- photographing
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Time Recorders, Dirve Recorders, Access Control (AREA)
- Image Processing (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、行動分析システムおよび行動分析方法に関する。 The present invention relates to a behavior analysis system and a behavior analysis method.
近年、ビデオカメラで撮影した映像に基づいて当該映像に写っている人物の特徴を表す数値を特徴量データとして抽出する技術が考えられている。このような特徴量データを複数生成しておき、それらを比較することで、ビデオカメラで撮影した人物が特定の人物であるかどうかを判断できる(例えば、特許文献1参照。)。 2. Description of the Related Art In recent years, a technique for extracting, as feature amount data, a numerical value that represents the characteristics of a person shown in a video based on a video captured by a video camera has been considered. By generating a plurality of such feature amount data and comparing them, it is possible to determine whether or not the person photographed with the video camera is a specific person (for example, see Patent Document 1).
なお、特許文献1に開示された技術においては、人物を認証する際の基準となる特徴量データを抽出するために人物をあらかじめ撮影し、撮影した映像から抽出した特徴量データを管理会社の管理サーバへあらかじめ記憶しておく。そして、大学や病院などの任意の施設内の扉に定点設置されたビデオカメラで撮影した人物の映像を管理サーバへ送信する。すると、管理サーバは、送信されてきた映像から抽出した特徴量データと、あらかじめ記憶している特徴量データとを比較する。この比較の結果、これらの特徴量データが一致した場合、扉を解錠する。 In the technique disclosed in Patent Document 1, a person is photographed in advance in order to extract feature quantity data that serves as a reference for authenticating the person, and the feature quantity data extracted from the photographed video is managed by a management company. Store in the server in advance. Then, the video of a person photographed by a video camera installed at a fixed point on a door in an arbitrary facility such as a university or a hospital is transmitted to the management server. Then, the management server compares the feature amount data extracted from the transmitted video with the feature amount data stored in advance. As a result of this comparison, when these feature data match, the door is unlocked.
人物を撮影した場合、撮影目的を損なわない範囲内で、その人物のプライバシーに十分な注意を払うことが必要となる。特許文献1に開示された技術の例では、管理会社は、最低限、施設の訪問者に対する入場管理だけを行うことができればよい。 When a person is photographed, it is necessary to pay sufficient attention to the privacy of the person within a range that does not impair the photographing purpose. In the example of the technique disclosed in Patent Document 1, the management company only needs to be able to perform at least entrance management for visitors to the facility.
しかし、この技術においては、管理会社に所属する者(例えば、管理サーバの管理者)は、管理サーバにあらかじめ記憶されている特徴量データや、ビデオカメラで撮影されて管理サーバへ送信されてきた映像を見ることができてしまう。 However, in this technique, a person who belongs to a management company (for example, an administrator of a management server) has been photographed by a feature server stored in advance in the management server or captured by a video camera and transmitted to the management server. You can see the video.
そのため、撮影目的を損なわない範囲内で、ビデオカメラで撮影された人物のプライバシーを十分保護することができないという問題点がある。 Therefore, there is a problem that the privacy of a person photographed with a video camera cannot be sufficiently protected within a range that does not impair the photographing purpose.
本発明は、上述した課題を解決する行動分析システムおよび行動分析方法を提供することを目的とする。 An object of the present invention is to provide a behavior analysis system and a behavior analysis method that solve the above-described problems.
上記課題を解決するために、本発明の行動分析システムは、映像を撮影する撮影装置と、前記撮影装置で撮影された人物を特定する照合装置とを有して成る行動分析システムにおいて、前記撮影装置は、前記映像から該映像に写り込んだ人物の特徴を表す数値を特徴量データとして抽出し、該特徴量データを暗号化し、該暗号化された特徴量データと前記人物の行動に付随する所定の関連情報と当該撮影装置を固有に識別するための撮影装置識別子とを前記照合装置へ送信し、前記照合装置は、前記撮影装置から送信されてきた暗号化済み特徴量データおよび関連情報と撮影装置識別子を受信し、当該照合装置が有する特徴量データベースに格納し、任意の時点で、暗号化したまま前記特徴量データのマッチングを行い、該マッチングに基づいてユニークな前記人物ごとに当該人物を固有に識別するための人物識別子を払い出し、該人物識別子ごとにまとまった関連情報と撮影装置識別子の組のリストを持つ行動データベースを作成または追記・更新することを特徴とする。 In order to solve the above-described problem, the behavior analysis system of the present invention is a behavior analysis system including a photographing device for photographing a video and a collation device for identifying a person photographed by the photographing device. The apparatus extracts, as feature data, a numerical value representing a person's feature reflected in the video from the video, encrypts the feature data, and accompanies the encrypted feature data and the person's action. Predetermined related information and an imaging device identifier for uniquely identifying the imaging device are transmitted to the verification device, and the verification device transmits the encrypted feature amount data and the related information transmitted from the imaging device. The imaging device identifier is received, stored in the feature amount database of the matching device, and the feature amount data is matched with being encrypted at an arbitrary time, and based on the matching A unique identifier for identifying the person for each unique person, and creating or appending / updating an action database having a list of associated information and a set of photographing device identifiers for each person identifier. It is characterized by.
また、本発明の行動分析システムにおいては、前記撮影装置は、前記映像として、静止画を所定の時間間隔で撮影し、該静止画から前記特徴量データを抽出してもよい。 In the behavior analysis system of the present invention, the photographing device may photograph a still image as the video at a predetermined time interval and extract the feature amount data from the still image.
また、本発明の行動分析システムにおいては、前記撮影装置は、前記映像から前記特徴量データを抽出した場合、該特徴量データに付随する人物が当該撮影装置の撮影範囲外から該撮影範囲内に入った時刻であるフレームイン時刻と、該撮影範囲内に存在している人物が前記撮影範囲から外れた時刻であるフレームアウト時刻とを該映像から抽出し、該フレームイン時刻と該フレームアウト時刻とを前記関連情報として前記照合装置へ送信してもよい。 In the behavior analysis system of the present invention, when the imaging device extracts the feature amount data from the video, a person associated with the feature amount data is within the imaging range from outside the imaging range of the imaging device. A frame-in time that is a time when the person enters and a frame-out time that is a time when a person existing in the shooting range is out of the shooting range are extracted from the video, and the frame-in time and the frame-out time are extracted. May be transmitted to the verification device as the related information.
また、本発明の行動分析システムにおいては、前記撮影装置は、前記フレームイン時刻と前記フレームアウト時刻との少なくとも一方を前記映像から抽出して前記関連情報として前記照合装置へ送信してもよい。 In the behavior analysis system of the present invention, the imaging device may extract at least one of the frame-in time and the frame-out time from the video and transmit the extracted information to the verification device as the related information.
また、本発明の行動分析システムにおいては、前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームイン時刻における前記位置と前記フレームアウト時刻における前記位置とを前記関連情報として前記照合装置へ送信してもよい。 Further, in the behavior analysis system of the present invention, the imaging device calculates a position where the person is reflected in the video, and calculates the position at the frame-in time and the position at the frame-out time. You may transmit to the said collation apparatus as related information.
また、本発明の行動分析システムにおいては、前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームイン時刻における前記位置とその直後における前記位置とを前記関連情報として前記照合装置へ送信してもよい。 In the behavior analysis system of the present invention, the photographing device calculates a position where the person is reflected in the video, and the position at the frame-in time and the position immediately after the position are the related information. May be transmitted to the verification device.
また、本発明の行動分析システムにおいては、前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームアウト時刻における前記位置とその直前における前記位置とを前記関連情報として前記照合装置へ送信してもよい。 In the behavior analysis system of the present invention, the photographing device calculates a position where the person is reflected in the video, and the position at the frame-out time and the position immediately before the position are the related information. May be transmitted to the verification device.
上記課題を解決するために、本発明の行動分析方法は、映像を撮影する撮影装置と、前記撮影装置で撮影された人物を特定する照合装置とを有して成る行動分析システムにおける行動分析方法であって、前記撮影装置が、前記映像から該映像に写り込んだ人物の特徴を表す数値を特徴量データとして抽出する特徴量抽出処理と、前記撮影装置が、該特徴量データを暗号化する処理と、前記撮影装置が、該暗号化された特徴量データと前記人物の行動に付随する所定の関連情報と当該撮影装置を固有に識別するための撮影装置識別子とを前記照合装置へ送信する送信処理と、前記照合装置が、前記撮影装置から送信されてきた暗号化済み特徴量データおよび関連情報と撮影装置識別子を受信し、当該照合装置が有する特徴量データベースに格納する処理と、前記照合装置が、任意の時点で、暗号化したまま前記特徴量データのマッチングを行う処理と、前記照合装置が、前記マッチングに基づいてユニークな前記人物ごとに当該人物を固有に識別するための人物識別子を払い出す処理と、前記照合装置が、前記人物識別子ごとにまとまった関連情報と撮影装置識別子の組のリストを持つ行動データベースを作成または追記・更新する処理とを有することを特徴とする。 In order to solve the above-mentioned problem, a behavior analysis method of the present invention is a behavior analysis method in a behavior analysis system including a photographing device for photographing a video and a matching device for identifying a person photographed by the photographing device. The image capturing device extracts a feature value extraction process that extracts, as feature amount data, a numerical value representing a feature of a person reflected in the image from the image, and the image capturing device encrypts the feature amount data. Processing, and the imaging device transmits the encrypted feature amount data, predetermined related information associated with the action of the person, and an imaging device identifier for uniquely identifying the imaging device to the verification device In the transmission process, the collation device receives the encrypted feature amount data and the related information and the photographing device identifier transmitted from the photographing device, and stores them in the feature amount database of the collation device. A process for matching the feature amount data in an encrypted state at an arbitrary time, and the collation apparatus uniquely identifies the person for each unique person based on the matching. A process of paying out a person identifier for identification, and a process in which the collation device creates, adds, or updates a behavior database having a list of sets of related information and photographing device identifiers collected for each person identifier. It is characterized by.
また、本発明の行動分析方法においては、前記撮影装置が、前記映像として、静止画を所定の時間間隔で撮影する処理を有し、前記特徴量抽出処理では、前記静止画から前記特徴量データを抽出してもよい。 Further, in the behavior analysis method of the present invention, the photographing apparatus has a process of photographing a still image as the video at a predetermined time interval. In the feature amount extraction process, the feature amount data is extracted from the still image. May be extracted.
また、本発明の行動分析方法においては、前記撮影装置が、前記映像から前記特徴量データを抽出した場合、該特徴量データに付随する人物が当該撮影装置の撮影範囲外から該撮影範囲内に入った時刻であるフレームイン時刻を該映像から抽出する処理と、前記撮影装置が、前記撮影範囲内に存在している人物が前記撮影範囲から外れた時刻であるフレームアウト時刻を前記映像から抽出する処理とを有し、前記送信処理では、前記フレームイン時刻と前記フレームアウト時刻とを前記関連情報として前記照合装置へ送信してもよい。 In the behavior analysis method of the present invention, when the imaging device extracts the feature amount data from the video, a person associated with the feature amount data is within the imaging range from outside the imaging range of the imaging device. A process of extracting from the video a frame-in time that is an incoming time, and a frame-out time from which the person who is present in the shooting range is out of the shooting range is extracted from the video In the transmission process, the frame-in time and the frame-out time may be transmitted to the verification device as the related information.
また、本発明の行動分析方法においては、前記送信処理では、前記フレームイン時刻と前記フレームアウト時刻との少なくとも一方を前記映像から抽出して前記関連情報として前記照合装置へ送信してもよい。 In the behavior analysis method of the present invention, in the transmission process, at least one of the frame-in time and the frame-out time may be extracted from the video and transmitted as the related information to the verification device.
また、本発明の行動分析方法においては、前記撮影装置が、前記フレームイン時刻における前記映像内の前記人物が写り込んでいる位置を算出する処理と、前記撮影装置が、前記フレームアウト時刻における前記映像内の前記人物が写り込んでいる位置を算出する処理とを有し、前記送信処理では、前記フレームイン時刻における前記位置と、前記フレームアウト時刻における前記位置とを前記関連情報として前記照合装置へ送信してもよい。 Further, in the behavior analysis method of the present invention, the photographing apparatus calculates a position where the person in the video at the frame-in time is reflected, and the photographing apparatus performs the process at the frame-out time. The position of the person in the video is calculated, and in the transmission process, the position at the frame-in time and the position at the frame-out time are used as the related information as the matching device. May be sent to.
また、本発明の行動分析方法においては、前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームイン時刻における前記位置とその直後における前記位置とを前記関連情報として前記照合装置へ送信してもよい。 In the behavior analysis method of the present invention, the photographing device calculates a position where the person is reflected in the video, and the position at the frame-in time and the position immediately after the position are the related information. May be transmitted to the verification device.
また、本発明の行動分析方法においては、前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームアウト時刻における前記位置とその直前における前記位置とを前記関連情報として前記照合装置へ送信してもよい。 In the behavior analysis method of the present invention, the imaging device calculates a position where the person is reflected in the video, and the position at the frame-out time and the position immediately before the position are related information. May be transmitted to the verification device.
本発明によれば、人物のプライバシーを侵害することなく当該人物の行動を分析することができる。 According to the present invention, the behavior of the person can be analyzed without infringing on the privacy of the person.
以下、本発明の実施形態に従った行動分析システム(行動分析方法を含む)を説明する。 Hereinafter, a behavior analysis system (including a behavior analysis method) according to an embodiment of the present invention will be described.
まず、本行動分析システムの全体構成を説明する。 First, the overall configuration of the behavior analysis system will be described.
図1に示すように、この行動分析システムには、複数の撮影装置1−1〜1−2と、照合装置2と、行動データベース231と、単一または複数の分析装置3とが設けられている。撮影装置1−1、1−2と照合装置2と行動データベース231と分析装置3とのそれぞれは、通信機能を有する。この例では、撮影装置1−1、1−2のそれぞれと照合装置2とが通信可能に接続されるとともに、照合装置2と行動データベース231、行動データベース231と分析装置3とが通信可能に接続されている。
As shown in FIG. 1, the behavior analysis system includes a plurality of imaging devices 1-1 to 1-2, a
なお、本行動分析システムが具備する撮影装置の台数や設置場所は任意でよい。例えば、複数の出入口が設けられた任意の場所において、各出入口に撮影装置を1台ずつ設置してもよい。 Note that the number and location of the imaging devices included in the behavior analysis system may be arbitrary. For example, one photographing device may be installed at each entrance / exit at an arbitrary place where a plurality of entrances / exits are provided.
また、撮影装置1−1、1−2のそれぞれには、当該撮影装置を固有に識別するための「撮影装置識別子」が付与されている。本実施形態では、撮影装置1−1に付与されている撮影装置識別子がID1−1であり、撮影装置1−2に付与されている撮影装置識別子がID1−2である場合を例に挙げて説明する。 In addition, each of the image capturing apparatuses 1-1 and 1-2 is given a “photographing apparatus identifier” for uniquely identifying the image capturing apparatus. In the present embodiment, the case where the photographing device identifier assigned to the photographing device 1-1 is ID1-1 and the photographing device identifier assigned to the photographing device 1-2 is ID1-2. explain.
また、撮影装置1−1、1−2のそれぞれは、撮影した映像に基づいて、その映像に写っている人物の特徴を表す数値を「特徴量データ」として抽出する。各撮影装置1−1、1−2が撮影する映像は動画と静止画とのどちらであってもよいが、本実施形態では、各撮影装置1−1、1−2が映像として動画を撮影する場合を例に挙げて説明する。 In addition, each of the image capturing apparatuses 1-1 and 1-2 extracts, as “feature data”, a numerical value representing the characteristics of a person shown in the image based on the captured image. The video captured by each of the imaging devices 1-1 and 1-2 may be either a moving image or a still image, but in this embodiment, each of the imaging devices 1-1 and 1-2 captures a video as a video. An example of the case will be described.
なお、「特徴量データ」の例としては、撮影装置1−1、1−2で撮影した人物の顔の輪郭を示す数値、目、鼻、口などの任意の構成要素の所定方向の大きさ、目、鼻、口などの各構成要素間の距離などが挙げられる。 Examples of the “feature data” include numerical values indicating the outline of the face of a person photographed by the photographing apparatuses 1-1 and 1-2, and the size of an arbitrary constituent element such as eyes, nose, and mouth in a predetermined direction. , Distances between components such as eyes, nose and mouth.
さらに、撮影装置1−1、1−2のそれぞれは、抽出した特徴量データを暗号化する。ここで、本実施形態の暗号化アルゴリズムは、準同型暗号など、暗号化したまま演算を行うことが可能なものを用いることとする。 Furthermore, each of the photographing apparatuses 1-1 and 1-2 encrypts the extracted feature data. Here, as the encryption algorithm of the present embodiment, an algorithm that can be operated while encrypted, such as a homomorphic encryption, is used.
また、撮影装置1−1、1−2のそれぞれは、撮影した映像から、当該撮影装置が撮影した人物の行動に付随する所定の情報である「関連情報」を抽出する。 In addition, each of the image capturing apparatuses 1-1 and 1-2 extracts “related information” that is predetermined information associated with the action of the person captured by the image capturing apparatus from the captured image.
この関連情報は、撮影装置1−1、1−2が撮影した人物の行動や属性を示す情報であれば任意の情報でよい。本実施形態では、関連情報が、「フレームイン時刻」と「フレームアウト時刻」とである場合を例に挙げて説明する。 This related information may be any information as long as it is information indicating the behavior and attributes of the person photographed by the photographing apparatuses 1-1 and 1-2. In the present embodiment, the case where the related information is “frame-in time” and “frame-out time” will be described as an example.
なお、ここでいう「フレームイン時刻」とは、ある人物が撮影装置1−1、1−2の撮影範囲外から撮影範囲内に入った時刻のことを指す。 Here, the “frame-in time” refers to the time when a certain person enters the shooting range from outside the shooting range of the shooting apparatuses 1-1 and 1-2.
また、「フレームアウト時刻」とは、当該撮影範囲内に存在する人物が撮影範囲から外れた時刻のことを指す。 The “frame-out time” refers to a time when a person existing in the shooting range is out of the shooting range.
そして、撮影装置1−1、1−2のそれぞれは、「暗号化済み特徴量データ」である暗号化された特徴量データと、撮影装置識別子と、関連情報とを照合装置2へ送信する。
Then, each of the imaging devices 1-1 and 1-2 transmits the encrypted feature amount data that is “encrypted feature amount data”, the imaging device identifier, and the related information to the
照合装置2は、図3を用いて説明する「特徴量データベース23」を有している。
The
照合装置2は、撮影装置1−1、1−2から送信されてきた「暗号化された特徴量データ」と撮影装置識別子および関連情報(この例では、フレームイン時刻、フレームアウト時刻)を対応付けて特徴量データベース23へ記憶する。
The
また、照合装置2は、ある程度特徴量データベース23にデータが蓄積された時点などを含む「任意の時点」で、特徴量データベース23中の任意のデータセットと他のデータセットの間で、暗号化された特徴量データのマッチングをそれぞれ暗号化したまま実施してもよい。
Further, the
ここで、「任意の時点」の例としては、特徴量データベース23に記憶されているデータ量が所定の基準データ量と同じになった時点や、撮影装置1−1〜1−2から送信されてきた新たな暗号化済み特徴量データを受信部21が受信した時点などが挙げられる。
Here, as an example of “arbitrary time point”, the time point when the data amount stored in the
そして、マッチしたデータセットには、共通の人物識別子を払い出し(つまり、同一の人物識別子の割当)、行動データベース231に対して一つの人物識別子によって紐付けられた撮影装置識別子と関連情報の単一または複数の組を追記する処理を、マッチしないデータセットが存在する限り、対象データセットを変えて繰り返す。
Then, a common person identifier is paid out to the matched data set (that is, assignment of the same person identifier), and the photographing apparatus identifier associated with the
撮影装置1−1、1−2からデータ(暗号化済み特徴量データと関連情報と撮影装置識別子)が送信されてきた時点で、そのデータセットと特徴量データベース23中のデータセットの間で暗号化したままのマッチングを行い、一人分のデータセット集合を行動データベースに追記することとしてもよい。
When data (encrypted feature amount data, related information, and image capturing device identifier) is transmitted from the image capturing devices 1-1 and 1-2, encryption is performed between the data set and the data set in the
人物識別子の払い出しについては、マッチングの度に新しく払い出してもよいし、以前の払い出し結果(つまり、以前に割り当てた人物識別子)を特徴量データベース23中の各データセットで格納しておき、それを再利用することとしてもよい。
Regarding the payout of the person identifier, a new payout may be made for each matching, or the previous payout result (that is, the previously assigned person identifier) is stored in each data set in the
なお、本実施形態において、照合装置2が、特徴量データベース23中の複数のデータ、あるいは撮影装置1−1、1−2から送信されてきた「暗号化された特徴量データ」と特徴量データベース23に格納されているデータ集合とでマッチングを行う方法としては、暗号化されている数値または数値化した文字列に対する論理計算を、当該数値を暗号化したままの状態で実行することが可能な秘匿回路計算が一例として挙げられる。
In the present embodiment, the
分析装置3は、照合装置2が行動データベース231へアクセス可能であり、その行動データベース231から関連情報(この例では、フレームイン時刻、フレームアウト時刻)と撮影装置識別子との対応付を読出す。
The
そして、分析装置3は、読出した関連情報と撮影装置識別子とに基づいて、撮影装置1−1、1−2のうちのある人物を撮影した撮影装置や、その人物が当該撮影装置の前に現れた時刻や立ち去った時刻、その人物が当該撮影装置を通り過ぎたときの速度などの分析処理を実行する。
Then, the
以下、撮影装置1−1〜1−2の構成について、図2を参照して説明する。なお、撮影装置1−1〜1−2は互いに同じ構成を有するため、以下では、撮影装置1−1を例に挙げて説明する。 Hereinafter, the configuration of the imaging devices 1-1 to 1-2 will be described with reference to FIG. Since the photographing apparatuses 1-1 to 1-2 have the same configuration, the photographing apparatus 1-1 will be described below as an example.
図2に示すように、撮影装置1−1には、撮影部11と、特徴量抽出部12と、暗号化部13と、関連情報抽出部14と、送信部15とが設けられている。
As shown in FIG. 2, the photographing apparatus 1-1 includes a photographing
撮影部11は、人物を含む任意の被写体が写り込んだ映像を撮影するとともに、その映像の撮影時刻を当該映像に付与する。そして、撮影部11は、撮影時刻が付与された映像を特徴量抽出部12へ出力する。なお、撮影部11の一例としては、一般的なビデオカメラなどが有する撮影機構が挙げられる。
The photographing
特徴量抽出部12は、撮影部11から出力されてきた映像に写り込んだ人物を識別する。なお、映像に写り込んだ人物を識別する方法は任意でよい。
The feature
例えば、特徴量抽出部12は、撮影部11から出力されてきた映像内の輝度変化に基づいて人物を示すエッジを検出することで、当該人物を識別してもよい。なお、エッジの検出に用いるフィルタは、例えば、ソーベルフィルタなどの任意のフィルタでよい。
For example, the feature
また、例えば、特徴量抽出部12は、撮影部11から出力されてきた映像のうちから人物の候補を示すパターンを検出するパターンマッチングにより、当該映像に写り込んだ人物を識別してもよい。
Further, for example, the feature
特徴量抽出部12は、採用した人物識別の方法に依存したタイミングで映像から、識別した人物の特徴を表す数値を特徴量データとして抽出し、その特徴量データを暗号化部13へ出力する。
The feature
暗号化部13は、特徴量抽出部12から出力されてきた特徴量データを暗号化する。そして、暗号化部13は、暗号化した特徴量データを送信部15へ出力する。
The
なお、本実施形態では、照合装置2は、それぞれ暗号化された複数の特徴量データを暗号化された状態のままで比較する。そのため、暗号化部13は、暗号化されたままの状態で照合装置2が比較できる形式に特徴量データを暗号化可能な方法であれば、任意の方法を用いてよい。
Note that in the present embodiment, the
例えば、暗号化部13は、文献Aに開示されているように、Paillier暗号を用いて、二進数表記した桁ごとに特徴量データを暗号化する方法を用いてもよい(文献A:Berry Schoenmakers、Pim Tuyls、 「Practical Two-Party Computation Based on the Conditional Gate,」、Proc. of ASIACRYPT 2004, pp.119-136, Spring-Verlag, 2004.)。
For example, as disclosed in Document A, the
関連情報抽出部14は、撮影部11から出力されてきた映像に写り込んだ人物を識別した場合、その人物が当該撮影装置1−1の撮影範囲外から該撮影範囲内に入ってきたかどうかを判別する。
When the related
この判別の結果、その人物が撮影装置1−1の撮影範囲外から当該撮影範囲内に入ってきたと判別した場合、その時刻をフレームイン時刻として抽出する。 As a result of this determination, when it is determined that the person has entered the shooting range from outside the shooting range of the shooting device 1-1, the time is extracted as the frame-in time.
一方、関連情報抽出部14は、人物が撮影装置1−1の撮影範囲外から当該撮影範囲内に入ってきていないと判別した場合、この撮影範囲内に存在している人物が撮影範囲から外れたかどうかを判別する。
On the other hand, if the related
この判別の結果、撮影範囲内に存在している人物が撮影範囲から外れたと判別した場合、その時刻をフレームアウト時刻として抽出する。 As a result of this determination, when it is determined that a person existing in the shooting range is out of the shooting range, the time is extracted as a frame-out time.
ところで、撮影範囲に人物が入っているかどうかの判定タイミングや特徴量データ・関連情報抽出のタイミングは、必ずしもリアルタイムである必要はなく、録画データに対して解析を行っても構わない。 By the way, the timing for determining whether or not a person is in the shooting range and the timing for extracting feature amount data / related information are not necessarily real time, and the recorded data may be analyzed.
そして、関連情報抽出部14は、抽出したフレームイン時刻およびフレームアウト時刻を、関連情報として送信部15へ出力する。
Then, the related
送信部15は、関連情報抽出部14から出力されてきた関連情報と、暗号化部13から出力されてきた暗号化済み特徴量データとを、撮影装置1−1を固有に識別するための撮影装置識別子(この例では、ID1−1)とともに照合装置2へ送信する。
The
つぎに、照合装置2の構成について、図3を参照して説明する。
Next, the configuration of the
図3に示すように、照合装置2には、受信部21と、照合部22と、特徴量データベース23とが設けられている。
As shown in FIG. 3, the
受信部21は、撮影装置1−1、1−2からそれぞれ送信されてきた、ある人物の暗号化された特徴量データと、その人物の行動に付随する所定の関連情報(この例では、フレームイン時刻、フレームアウト時刻)と、撮影装置識別子とを照合部22へ出力する。
The
照合部22は、受信部21から出力されてきた暗号化済み特徴量データと関連情報および撮影装置識別子を一つのデータセットとして、特徴量データベース23に格納する。
The
また、特徴量データベース23に十分な量のデータセットが格納されたときなど任意のタイミングで、照合部22は、特徴量データベース23に格納されたデータセットの名寄せを、暗号化された特徴量データをキーとして、暗号化したまま行い、人物単位で人物識別子を払い出し(つまり、人物識別子の割当)、人物識別子と、暗号化された特徴量データを除くデータセット(関連情報と撮影装置識別子)の集合を行動データベース231に追記する。
Further, at any timing such as when a sufficient amount of data sets are stored in the
なお、この名寄せ(マッチング)は、対象となる特徴量データのそれぞれが暗号化された状態のままで行われる。 Note that this name identification (matching) is performed while the target feature data is encrypted.
例えば、照合部22は、文献Bに開示されているように、二進数で表記した上で桁ごとに暗号化された数値に対する任意の論理演算を、当該数値を利用者が認識可能な形式に変換することなく実行できる秘匿回路計算を行うことにより、暗号化したままの名寄せが可能となる(文献B:G.Yamamoto, K.Chida, A.Nasciment, K.Suzuki, and S.Uchiyama, Efficient, non-optimistic secure circuit evaluation based on the ElGamal encryption, WISA 2005, Lecture Notes in Computer Science, pp.328-343, Spring-Verlag, 2005.)。
For example, as disclosed in Document B, the
図4に示すように、特徴量データベース23は、照合部22によって書き込まれた暗号化済み特徴量データと関連情報と撮影装置識別子とを対応付けて格納する。
As illustrated in FIG. 4, the
また、図5に示すように、行動データベース231は、照合部22によって書き込まれた人物識別子と、関連情報と撮影装置識別子の複数の組とを対応付けて格納する。
As shown in FIG. 5, the
分析装置3が直接、特徴量データベース23と通信できず、行動データベース231とのみ通信できるようにした理由は、特徴量データは暗号化されているとはいえ、撮影装置1−1、1−2で撮影された人物の特徴を特定することが可能な情報を含むため、この人物に付随する個人情報が撮影目的以外の目的で、分析者などに不要に漏洩してしまうことを回避する観点からである。
The reason why the
但し、特殊な例として、照合装置2が分析装置3を兼ねる場合は、撮影装置1−1の所有者の許諾を得ることを前提として、直接、特徴量データベース23を参照して、分析を行っても構わない。
However, as a special example, when the
つぎに、上記構成を有する行動分析システムの動作を説明する。 Next, the operation of the behavior analysis system having the above configuration will be described.
まず、撮影装置1−1、1−2が、撮影した映像から抽出した特徴量データを暗号化して照合装置2へ送信する動作について、図6を参照して説明する。なお、撮影装置1−1〜1−2は互いに同じ動作を行うため、以下では、撮影装置1−1を例に挙げて説明する。
First, an operation in which the image capturing apparatuses 1-1 and 1-2 encrypt feature amount data extracted from captured images and transmit the encrypted data to the
まず、図6に示すステップ41にて、撮影装置1−1が有する撮影部11は、人物を含む任意の被写体が写り込んだ映像を撮影する。また、撮影部11は、その映像の撮影時刻を当該映像に付与する。
First, in
すると、ステップ42にて、関連情報抽出部14は、ある人物が当該撮影装置1−1の撮影範囲外からこの撮影範囲内に入ってきたかどうかを判別する。
Then, in
この判別の結果、その人物が撮影装置1−1の撮影範囲外から当該撮影範囲内に入ってきたと判別した場合、ステップ43として、その撮影時刻をフレームイン時刻として抽出する。
As a result of the determination, if it is determined that the person has entered the shooting range from outside the shooting range of the shooting device 1-1, the shooting time is extracted as a frame-in time in
また、ステップ44にて、特徴量抽出部12は、撮影部11から出力されてきた映像に写り込んだ人物を任意のタイミングで識別し、ステップ45にて、識別した人物の特徴を表す数値を特徴量データとして抽出し、その特徴量データを暗号化部13へ出力する。
Further, in
ステップ46にて、暗号化部13は特徴量データの暗号化を行い、暗号化された特徴量データを送信部15へ出力する。
In
なお、暗号化部13は、例えば、上述した文献Bに開示されているように、秘匿回路計算用の暗号を用いて、これらの特徴量データを暗号化する。
Note that the
ターゲットとなる人物が当該撮影範囲内に入ってきていなければ、ステップ42を繰り返す。
If the target person is not within the shooting range,
次に、ステップ47にて、関連情報抽出部14は、撮影範囲内に存在している人物が撮影範囲から外れたかどうかを判別する。
Next, in
この判別の結果、撮影範囲内に存在している人物が撮影範囲から外れたと判別した場合、ステップ48にてその撮影時刻をフレームアウト時刻として抽出する。そして、関連情報抽出部14は、抽出したフレームイン時刻およびフレームアウト時刻を、関連情報として送信部15へ出力する。
As a result of the determination, if it is determined that the person existing in the shooting range is out of the shooting range, the shooting time is extracted as a frame-out time in
すると、ステップ49にて、送信部15は、関連情報抽出部14から出力されてきた関連情報と、暗号化部13から暗号化された特徴量データとを、当該撮影装置1−1を固有に識別するための撮影装置識別子(この例では、ID1−1)とともに照合装置2へ送信する。
Then, in
以上で、撮影装置1−1が、撮影した映像から抽出した特徴量データを暗号化して照合装置2へ送信する一連の動作が終了する。
Thus, a series of operations in which the photographing apparatus 1-1 encrypts the feature amount data extracted from the photographed video and transmits it to the
つぎに、照合装置2が、撮影装置1−1、1−2から送信されてきた暗号化済み特徴量データと関連情報および撮影装置識別装置を受信した後の動作について、図7を参照して説明する。
Next, the operation after the
まず、照合装置2が有する受信部21は、撮影装置1−1、1−2からそれぞれ送信されてきた、ある人物の暗号化された特徴量データと、その人物の行動に付随する所定の関連情報(この例では、フレームイン時刻、フレームアウト時刻)と、撮影装置識別子とを照合部22へ出力する。
First, the receiving
すると、図7に示すステップ51にて、照合部22は、受信部21から出力されてきた暗号化済み特徴量データと、関連情報および撮影装置識別子とを関連付けて、特徴量データベース23に格納する。
Then, in
ステップ51の処理を1回以上の任意の回数繰り返した後、「任意の時点」にて、照合部22は、ステップ52として、特徴量データベース23中の任意の一つのデータセットを対象とし、暗号化された特徴量データをキーとして、他のデータセット集合とのマッチングを、暗号化したまま実施する。
After the process of
この結果、ステップ53として、マッチングしたデータセット集合に対して、行動データベース231にて人物を識別するための、人物識別子を照合部22が払い出す。
As a result, in
そして、ステップ54として、その人物識別子とマッチングしたデータセット集合から暗号化した特徴量データを除いたものを行動データベースに追記する。
Then, in
ステップ55として、過去に対象としたデータセットおよびそれとマッチングしたデータセットを除くデータセット集合が残っていれば、その残りを対象として、ステップ52〜54を繰り返す。
As
特徴量データベース23中のすべてのデータセットについて名寄せが完了した段階で、照合装置2は、処理を終了する。
At the stage where name identification is completed for all data sets in the
なお、分析装置3は、当該分析装置3がアクセス可能な行動データベース231を参照し、人物が移動した軌跡である動線などの分析処理を実行する。
The
以上で、照合装置2が、撮影装置1−1、1−2から送信されてきた暗号化済み特徴量データと関連情報および撮影装置識別装置を受信した後の一連の動作が終了する。
Thus, a series of operations after the
以上説明したように、本発明によれば、複数のビデオカメラにより人物を撮影し、その人物がどのカメラの前にいつ現れいつ去ったのかといった動線分析を行うにあたり、映像の状態ではなく、他の人物の特徴と数値で比較することのできる特徴量データに変換した上で暗号化を行い、暗号化されたまま特徴量データを用いて名寄せした後に分析を行える。 As described above, according to the present invention, a person is photographed by a plurality of video cameras, and in performing a flow line analysis such as when the person appears before and when the person leaves, not the state of the image, Encryption is performed after conversion into feature data that can be numerically compared with the characteristics of other persons, and analysis can be performed after name identification is performed using the feature data as encrypted.
これにより、人物のプライバシーを侵害することなく当該人物の行動を分析することが可能となる。 This makes it possible to analyze the person's behavior without infringing on the person's privacy.
具体的には、複数の撮影装置1−1、1−2でそれぞれ撮影された同一人物の映像を収集する名寄せなどによる当該人物のプライバシーの侵害や、撮影された人物に付随する個人情報の漏洩を回避することが可能となる。 Specifically, infringement of the privacy of the person by collecting names of the same person photographed by the plurality of photographing apparatuses 1-1 and 1-2, or leakage of personal information accompanying the photographed person Can be avoided.
なお、複数の出入口が設けられた任意の場所(例えば、展示会場)において、出入口のそれぞれに撮影装置を設置しておくことにより、撮影された人物の個人情報を保護しつつ、その場所を訪れた人物がどの入口から入りどの出口から出たのかを特定したり、当該場所に滞在していた時間を特定したりすることが可能となる。 In addition, in any place (for example, exhibition hall) where a plurality of entrances / exits are provided, a photographing device is installed at each entrance / exit so that the personal information of the photographed person is protected and the place is visited. It is possible to specify from which entrance the person has entered and from which exit, and to specify the time spent at the place.
なお、本発明の要旨を逸脱しない範囲で各種の変形が可能である。 Various modifications can be made without departing from the scope of the present invention.
撮影装置1−1、1−2には、映像として動画を撮影するビデオカメラに限らず、映像として静止画を撮影するスチルカメラを用いてもよい。この場合、撮影装置1−1、1−2が具備する撮影部11は、所定の時間間隔で静止画を撮影して特徴量抽出部12へ出力する。そして、特徴量抽出部12は、所定の時間間隔で出力されてきた静止画に基づいて、その静止画に写り込んだ人物の特徴量を算出すればよい。
The photographing devices 1-1 and 1-2 are not limited to video cameras that shoot moving images as images, but may be still cameras that shoot still images as images. In this case, the
関連情報抽出部14は、フレームイン時刻とフレームアウト時刻との両方ではなく、フレームイン時刻とフレームアウト時刻とのどちらか一方だけを抽出するようにしてもよい。
The related
また、関連情報抽出部14は、映像に写り込んだ人物の位置を算出するように構成してもよい。そして、関連情報抽出部14は、フレームイン時刻における映像に写り込んだ人物の位置と、フレームアウト時刻における映像に写り込んだ当該人物の位置とを、関連情報のうちの1情報として照合装置2へ送信する。そして、照合装置2が有する特徴量データベース23は、フレームイン時刻やフレームアウト時刻とともに軌跡を対応付けて格納する。
Further, the related
また、撮影装置1−1、1−2は、映像内の人物が写り込んでいる位置を算出し、フレームイン時刻における位置とその直後における位置とを関連情報として照合装置2へ送信してもよい。
Also, the photographing devices 1-1 and 1-2 may calculate the position where the person in the video is reflected, and transmit the position at the frame-in time and the position immediately after that to the
また、撮影装置1−1、1−2は、映像内の人物が写り込んでいる位置を算出し、フレームアウト時刻における位置とその直前における位置とを関連情報として照合装置2へ送信してもよい。
Also, the photographing apparatuses 1-1 and 1-2 may calculate the position where the person in the video is reflected, and transmit the position at the frame-out time and the position immediately before it to the
また、関連情報抽出部14は、撮影された人物が行った行動を推測するように構成されていてもよい。
Further, the related
また、関連情報抽出部14は、映像データから、また、撮影装置1−1、1−2がマイクを備えている場合はそのマイクに入力された人物の音声データから、あるいは各種センサデータから、既存技術を用いて、人物が有する性別や年齢などの属性情報を推測し、それら推測した属性情報を関連情報として、送信部15経由で、照合装置2へ送信してもよい。この場合、照合装置2は、フレームイン時刻やフレームアウト時刻とともにこれら推測した属性情報を対応付けて特徴量データベース23に格納する。そして、分析装置3は、行動データベース231に格納されている推測した属性情報を用いて、その他関連情報と対応付けて各種分析を行う。
In addition, the related
さらに、本発明においては、複数の人物が自由にフレームインやフレームアウトする状況で、それぞれの人物を識別して追跡する技術として既存の技術を利用することを想定しているが、場合によっては、定期的に、あるいはフレームインの直後やフレームアウトの直前など特別な契機において、撮影装置1−1、1−2が、特徴量データを複数回抽出するという実施形態も考えられる。 Furthermore, in the present invention, it is assumed that the existing technology is used as a technology for identifying and tracking each person in a situation where a plurality of persons freely frame in and out, but in some cases Also, an embodiment in which the photographing apparatuses 1-1 and 1-2 extract feature amount data a plurality of times regularly or at special occasions such as immediately after frame-in or immediately before frame-out is also conceivable.
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明の要旨を逸脱しない範囲で当業者が理解し得る各種の変形が可能である。 The present invention has been described above with reference to the embodiments, but the present invention is not limited to the above embodiments. Various modifications that can be understood by those skilled in the art can be made to the configuration and details of the present invention without departing from the gist of the present invention.
1−1、1−2 撮影装置
11 撮影部
12 特徴量抽出部
13 暗号化部
14 関連情報抽出部
15 送信部
2 照合装置
21 受信部
22 照合部
23 特徴量データベース
231 行動データベース
3 分析装置
1-1, 1-2
Claims (14)
前記撮影装置は、前記映像から該映像に写り込んだ人物の特徴を表す数値を特徴量データとして抽出し、該特徴量データを暗号化し、該暗号化された特徴量データと前記人物の行動に付随する所定の関連情報と当該撮影装置を固有に識別するための撮影装置識別子とを前記照合装置へ送信し、
前記照合装置は、前記撮影装置から送信されてきた暗号化済み特徴量データおよび関連情報と撮影装置識別子を受信し、当該照合装置が有する特徴量データベースに格納し、任意の時点で、暗号化したまま前記特徴量データのマッチングを行い、該マッチングに基づいてユニークな前記人物ごとに当該人物を固有に識別するための人物識別子を払い出し、該人物識別子ごとにまとまった関連情報と撮影装置識別子の組のリストを持つ行動データベースを作成または追記・更新することを特徴とする行動分析システム。 In a behavior analysis system comprising a photographing device for photographing a video and a verification device for identifying a person photographed by the photographing device,
The photographing device extracts, as feature data, a numerical value representing a feature of a person reflected in the video from the video, encrypts the feature data, and adds the encrypted feature data and the action of the person. Transmitting accompanying predetermined related information and an imaging device identifier for uniquely identifying the imaging device to the verification device;
The collation device receives the encrypted feature amount data and the related information and the photographing device identifier transmitted from the photographing device, stores them in the feature amount database of the collation device, and encrypts them at an arbitrary time point The feature amount data is matched, a person identifier for uniquely identifying the person is paid out for each unique person based on the matching, and a set of related information and a photographing apparatus identifier collected for each person identifier A behavior analysis system characterized by creating, appending, and updating a behavior database having a list.
前記撮影装置は、前記映像として、静止画を所定の時間間隔で撮影し、該静止画から前記特徴量データを抽出することを特徴とする行動分析システム。 The behavior analysis system according to claim 1,
The behavioral analysis system is characterized in that the photographing device photographs a still image as the video at a predetermined time interval and extracts the feature amount data from the still image.
前記撮影装置は、前記映像から前記特徴量データを抽出した場合、該特徴量データに付随する人物が当該撮影装置の撮影範囲外から該撮影範囲内に入った時刻であるフレームイン時刻と、該撮影範囲内に存在している人物が前記撮影範囲から外れた時刻であるフレームアウト時刻とを該映像から抽出し、該フレームイン時刻と該フレームアウト時刻とを前記関連情報として前記照合装置へ送信することを特徴とする行動分析システム。 The behavior analysis system according to claim 1 or 2,
When the feature amount data is extracted from the video, the photographing device has a frame-in time that is a time when a person attached to the feature amount data enters the photographing range from outside the photographing range of the photographing device; A frame-out time that is a time when a person existing in the shooting range is out of the shooting range is extracted from the video, and the frame-in time and the frame-out time are transmitted to the verification device as the related information. A behavior analysis system characterized by
前記撮影装置は、前記フレームイン時刻と前記フレームアウト時刻との少なくとも一方を前記映像から抽出して前記関連情報として前記照合装置へ送信することを特徴とする行動分析システム。 The behavior analysis system according to claim 3,
The photographing apparatus extracts at least one of the frame-in time and the frame-out time from the video and transmits the extracted information as the related information to the collation device.
前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームイン時刻における前記位置と前記フレームアウト時刻における前記位置とを前記関連情報として前記照合装置へ送信することを特徴とする行動分析システム。 The behavior analysis system according to claim 3,
The imaging device calculates a position where the person is reflected in the video, and transmits the position at the frame-in time and the position at the frame-out time as the related information to the verification device. Characteristic behavior analysis system.
前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームイン時刻における前記位置とその直後における前記位置とを前記関連情報として前記照合装置へ送信することを特徴とする行動分析システム。 The behavior analysis system according to claim 4,
The photographing apparatus calculates a position where the person is reflected in the video, and transmits the position at the frame-in time and the position immediately after the position as the related information to the verification apparatus. Behavior analysis system.
前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームアウト時刻における前記位置とその直前における前記位置とを前記関連情報として前記照合装置へ送信することを特徴とする行動分析システム。 The behavior analysis system according to claim 4,
The photographing device calculates a position where the person is reflected in the video, and transmits the position at the frame-out time and the position immediately before the position as the related information to the matching device. Behavior analysis system.
前記撮影装置が、前記映像から該映像に写り込んだ人物の特徴を表す数値を特徴量データとして抽出する特徴量抽出処理と、
前記撮影装置が、該特徴量データを暗号化する処理と、
前記撮影装置が、該暗号化された特徴量データと前記人物の行動に付随する所定の関連情報と当該撮影装置を固有に識別するための撮影装置識別子とを前記照合装置へ送信する送信処理と、
前記照合装置が、前記撮影装置から送信されてきた暗号化済み特徴量データおよび関連情報と撮影装置識別子を受信し、当該照合装置が有する特徴量データベースに格納する処理と、
前記照合装置が、任意の時点で、暗号化したまま前記特徴量データのマッチングを行う処理と、
前記照合装置が、前記マッチングに基づいてユニークな前記人物ごとに当該人物を固有に識別するための人物識別子を払い出す処理と、
前記照合装置が、前記人物識別子ごとにまとまった関連情報と撮影装置識別子の組のリストを持つ行動データベースを作成または追記・更新する処理とを有することを特徴とする行動分析方法。 A behavior analysis method in a behavior analysis system comprising a photographing device for photographing a video and a matching device for identifying a person photographed by the photographing device,
A feature amount extraction process in which the photographing apparatus extracts, as feature amount data, a numerical value representing a feature of a person reflected in the image from the image;
A process in which the photographing apparatus encrypts the feature data;
A transmission process in which the imaging device transmits the encrypted feature value data, predetermined related information accompanying the action of the person, and an imaging device identifier for uniquely identifying the imaging device to the verification device; ,
The collation device receives encrypted feature amount data and related information transmitted from the photographing device and a photographing device identifier, and stores them in a feature amount database of the collation device;
Processing for matching the feature amount data while the encryption device is encrypted at an arbitrary time; and
A process in which the verification device pays out a person identifier for uniquely identifying the person for each unique person based on the matching;
The behavior analysis method, characterized in that the verification device includes processing for creating, appending, or updating a behavior database having a list of sets of related information and photographing device identifiers collected for each person identifier.
前記撮影装置が、前記映像として、静止画を所定の時間間隔で撮影する処理を有し、
前記特徴量抽出処理では、前記静止画から前記特徴量データを抽出することを特徴とする行動分析方法。 The behavior analysis method according to claim 8,
The photographing device has a process of photographing a still image at a predetermined time interval as the video,
In the feature amount extraction process, the feature amount data is extracted from the still image.
前記撮影装置が、前記映像から前記特徴量データを抽出した場合、該特徴量データに付随する人物が当該撮影装置の撮影範囲外から該撮影範囲内に入った時刻であるフレームイン時刻を該映像から抽出する処理と、
前記撮影装置が、前記撮影範囲内に存在している人物が前記撮影範囲から外れた時刻であるフレームアウト時刻を前記映像から抽出する処理とを有し、
前記送信処理では、前記フレームイン時刻と前記フレームアウト時刻とを前記関連情報として前記照合装置へ送信することを特徴とする行動分析方法。 The behavior analysis method according to claim 8 or 9,
When the imaging device extracts the feature amount data from the video, a frame-in time that is a time when a person accompanying the feature amount data enters the imaging range from outside the imaging range of the imaging device is Processing to extract from
The imaging device has a process of extracting from the video a frame-out time that is a time when a person existing in the imaging range is out of the imaging range,
In the transmission process, the frame-in time and the frame-out time are transmitted as the related information to the verification device.
前記送信処理では、前記フレームイン時刻と前記フレームアウト時刻との少なくとも一方を前記映像から抽出して前記関連情報として前記照合装置へ送信することを特徴とする行動分析方法。 The behavior analysis method according to claim 10,
In the transmission process, at least one of the frame-in time and the frame-out time is extracted from the video and transmitted to the verification device as the related information.
前記撮影装置が、前記フレームイン時刻における前記映像内の前記人物が写り込んでいる位置を算出する処理と、
前記撮影装置が、前記フレームアウト時刻における前記映像内の前記人物が写り込んでいる位置を算出する処理とを有し、
前記送信処理では、前記フレームイン時刻における前記位置と、前記フレームアウト時刻における前記位置とを前記関連情報として前記照合装置へ送信することを特徴とする行動分析方法。 The behavior analysis method according to claim 10,
A process in which the photographing device calculates a position where the person in the image is captured at the frame-in time;
The imaging device has a process of calculating a position where the person in the video is captured at the frame-out time,
In the transmission process, the position at the frame-in time and the position at the frame-out time are transmitted as the related information to the verification device.
前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームイン時刻における前記位置とその直後における前記位置とを前記関連情報として前記照合装置へ送信することを特徴とする行動分析方法。 The behavior analysis method according to claim 11,
The photographing apparatus calculates a position where the person is reflected in the video, and transmits the position at the frame-in time and the position immediately after the position as the related information to the verification apparatus. To analyze behavior.
前記撮影装置は、前記映像内の前記人物が写り込んでいる位置を算出し、前記フレームアウト時刻における前記位置とその直前における前記位置とを前記関連情報として前記照合装置へ送信することを特徴とする行動分析方法。 The behavior analysis method according to claim 11,
The photographing device calculates a position where the person is reflected in the video, and transmits the position at the frame-out time and the position immediately before the position as the related information to the matching device. To analyze behavior.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009159485A JP2011014059A (en) | 2009-07-06 | 2009-07-06 | Behavior analysis system and behavior analysis method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009159485A JP2011014059A (en) | 2009-07-06 | 2009-07-06 | Behavior analysis system and behavior analysis method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2011014059A true JP2011014059A (en) | 2011-01-20 |
Family
ID=43592850
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2009159485A Pending JP2011014059A (en) | 2009-07-06 | 2009-07-06 | Behavior analysis system and behavior analysis method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2011014059A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8376401B2 (en) | 2010-01-27 | 2013-02-19 | Tk Holdings Inc. | Airbag |
| WO2013102972A1 (en) * | 2012-01-05 | 2013-07-11 | 日本電気株式会社 | Person feature value extraction system, image-capturing terminal, server, and method for extracting person feature value |
| JP2014071610A (en) * | 2012-09-28 | 2014-04-21 | Keyware Solutions Inc | Data processing apparatus, name identification processing method, and computer program |
| JP2014164549A (en) * | 2013-02-26 | 2014-09-08 | Kddi Corp | Subject collation device, subject collection method and program |
| JP2016071639A (en) * | 2014-09-30 | 2016-05-09 | 日本電信電話株式会社 | Monitoring information sharing system, collation device, monitoring device, and program |
| WO2024053183A1 (en) * | 2022-09-08 | 2024-03-14 | 株式会社Jvcケンウッド | Person search device and person search method |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003189295A (en) * | 2001-12-17 | 2003-07-04 | Cec:Kk | Surveillance camera system and information providing system using the same |
| JP2005242775A (en) * | 2004-02-27 | 2005-09-08 | Omron Corp | Gate system |
| JP2006197442A (en) * | 2005-01-17 | 2006-07-27 | Tatsumi Denshi Kogyo Kk | Automatic photography preparation device, automatic photography preparation method, and printing medium |
| JP2006209585A (en) * | 2005-01-31 | 2006-08-10 | Mitsubishi Electric Corp | Crime prevention system |
| JP2006236255A (en) * | 2005-02-28 | 2006-09-07 | Mitsubishi Electric Corp | Person tracking device and person tracking system |
| JP2008027286A (en) * | 2006-07-24 | 2008-02-07 | Mitsubishi Electric Corp | Personal authentication system |
-
2009
- 2009-07-06 JP JP2009159485A patent/JP2011014059A/en active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003189295A (en) * | 2001-12-17 | 2003-07-04 | Cec:Kk | Surveillance camera system and information providing system using the same |
| JP2005242775A (en) * | 2004-02-27 | 2005-09-08 | Omron Corp | Gate system |
| JP2006197442A (en) * | 2005-01-17 | 2006-07-27 | Tatsumi Denshi Kogyo Kk | Automatic photography preparation device, automatic photography preparation method, and printing medium |
| JP2006209585A (en) * | 2005-01-31 | 2006-08-10 | Mitsubishi Electric Corp | Crime prevention system |
| JP2006236255A (en) * | 2005-02-28 | 2006-09-07 | Mitsubishi Electric Corp | Person tracking device and person tracking system |
| JP2008027286A (en) * | 2006-07-24 | 2008-02-07 | Mitsubishi Electric Corp | Personal authentication system |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8376401B2 (en) | 2010-01-27 | 2013-02-19 | Tk Holdings Inc. | Airbag |
| WO2013102972A1 (en) * | 2012-01-05 | 2013-07-11 | 日本電気株式会社 | Person feature value extraction system, image-capturing terminal, server, and method for extracting person feature value |
| JPWO2013102972A1 (en) * | 2012-01-05 | 2015-05-11 | 日本電気株式会社 | Person feature amount extraction system, imaging terminal, server, and person feature amount extraction method |
| JP2014071610A (en) * | 2012-09-28 | 2014-04-21 | Keyware Solutions Inc | Data processing apparatus, name identification processing method, and computer program |
| JP2014164549A (en) * | 2013-02-26 | 2014-09-08 | Kddi Corp | Subject collation device, subject collection method and program |
| JP2016071639A (en) * | 2014-09-30 | 2016-05-09 | 日本電信電話株式会社 | Monitoring information sharing system, collation device, monitoring device, and program |
| WO2024053183A1 (en) * | 2022-09-08 | 2024-03-14 | 株式会社Jvcケンウッド | Person search device and person search method |
| JP2024038653A (en) * | 2022-09-08 | 2024-03-21 | 株式会社Jvcケンウッド | Person search device and person search method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6760420B2 (en) | Information output device, information output system, information output method and program | |
| JP7196893B2 (en) | Face matching system, face matching method, and program | |
| CN107862773A (en) | Can reservation type recognition of face gate inhibition guest system and method | |
| JP6273185B2 (en) | Monitoring information sharing system, monitoring apparatus and program | |
| CN105912908A (en) | Infrared-based real person living body identity verification method | |
| CN101404107A (en) | Internet bar monitoring and warning system based on human face recognition technology | |
| US20210006558A1 (en) | Method, apparatus and system for performing authentication using face recognition | |
| WO2018180588A1 (en) | Facial image matching system and facial image search system | |
| JP2011014059A (en) | Behavior analysis system and behavior analysis method | |
| JP7400862B2 (en) | information processing equipment | |
| CN113870999A (en) | Remote disease intelligent diagnosis system and auxiliary diagnosis method based on algorithm, medical image and block chain | |
| CN105930780A (en) | Near infrared and micro expression based living body identity verification method | |
| JP2017151832A (en) | Wait time calculation system | |
| JP5423740B2 (en) | Video providing apparatus, video using apparatus, video providing system, video providing method, and computer program | |
| JP7069854B2 (en) | Monitoring system and server equipment | |
| JP7048147B2 (en) | Search system, search device, terminal device, search method, and program | |
| CN112712026B (en) | Identification method, face registration method, computer equipment and storage medium | |
| WO2020093757A1 (en) | Risk detection method, apparatus and system based on background collaboration | |
| KR20220126932A (en) | Blockchain-based image forgery prevention system and method and computer program for the same | |
| KR20100013100A (en) | Apparatus for protecting image | |
| CN119068589B (en) | A door access control system based on motion sensor | |
| JP7685947B2 (en) | Unauthorized user authentication device, unauthorized user authentication method, and unauthorized user authentication system | |
| US20250139976A1 (en) | Image processing apparatus, image processing method, and storage medium | |
| JP2006155402A (en) | Security system | |
| JP2017085202A (en) | Image storage system, image storage method and computer program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20110616 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110909 |
|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20130304 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130419 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130507 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130702 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140114 |