[go: up one dir, main page]

JP2013150171A - Recording device, recording system and recording method - Google Patents

Recording device, recording system and recording method Download PDF

Info

Publication number
JP2013150171A
JP2013150171A JP2012009297A JP2012009297A JP2013150171A JP 2013150171 A JP2013150171 A JP 2013150171A JP 2012009297 A JP2012009297 A JP 2012009297A JP 2012009297 A JP2012009297 A JP 2012009297A JP 2013150171 A JP2013150171 A JP 2013150171A
Authority
JP
Japan
Prior art keywords
video
specific object
recording
information
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012009297A
Other languages
Japanese (ja)
Inventor
Takeshi Kuroki
剛 黒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012009297A priority Critical patent/JP2013150171A/en
Publication of JP2013150171A publication Critical patent/JP2013150171A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

【課題】人の行動内容を高い精度で記録することを目的とする。
【解決手段】撮影装置で撮影した映像を入力し、映像から特定物体を検出し、撮影された映像と、検出された特定物体の情報と、を関連付け、検出された特定物体の情報を用いて認識ルールを設定し、設定された認識ルールに従って、前記認識ルールを設定する際に用いた特定物体の情報と関連付けられた映像に対して映像認識処理を行い、映像認識結果を記録する。
【選択図】図5
An object of the present invention is to record the details of human behavior with high accuracy.
An image captured by an imaging device is input, a specific object is detected from the image, the captured image is associated with information on the detected specific object, and the detected information on the specific object is used. A recognition rule is set, and according to the set recognition rule, a video recognition process is performed on the video associated with the information on the specific object used when setting the recognition rule, and the video recognition result is recorded.
[Selection] Figure 5

Description

本発明は、記録装置、記録システム及び記録方法に関する。   The present invention relates to a recording apparatus, a recording system, and a recording method.

人々が生活する中での行動の記録を取りたい場合、家計簿や日記等が利用されている。こうした記録はコンピュータ上で取られる場合においても記憶や発行されたレシートに従って手動で行われているのが普通であり、この手間が多くの人々が行動を記録を取ろうとする上での障害になっている。   A household account book, diary, etc. are used to record the behavior of people during their lives. Even when these records are taken on a computer, they are usually made manually according to the stored and issued receipts, which is an obstacle to many people trying to record their actions. ing.

こうした障害を取り除くため、非特許文献1に記されるシステムが研究されている。このシステムは、頭部にカメラを装着して装着者の手元の行動を撮影し、撮影された映像を解析して装着者の行動を記録する、というものである。   In order to remove such obstacles, a system described in Non-Patent Document 1 has been studied. In this system, a camera is attached to the head, the behavior of the wearer is photographed, the photographed image is analyzed, and the behavior of the wearer is recorded.

EYEWATCHME − 3D Hand and object tracking for inside out activity analysis, IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2009.EYEWATCHME-3D Hand and object tracking for insight out activity analysis, IEEE Computer Society Conferencing on Computer Vision and Pattern Recognition 9 Rapid Object Detection Using a Boosted Cascade of Simple Features, Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2001.Rapid Object Detection Using a Boosted Cascade of Simple Features, Proceedings of the 2001, IEEE Computer Society Conference on Computer Vision and Cognition.

非特許文献1に示されるシステムでは、装着者の行動を記録するために、常時カメラを働かせて撮影を行う必要がある。また、撮影した映像のすべてを解析して、どのような行動がなされたかの認識を行う必要がある。   In the system shown in Non-Patent Document 1, it is necessary to always perform shooting by operating a camera in order to record the behavior of the wearer. In addition, it is necessary to analyze all the captured images and recognize what actions have been taken.

しかしながら、常時撮影を行ってしまうと、撮影を行うカメラのバッテリーの消耗が激しくなってしまう。また、装着者がどのような文脈にいるのかがシステムにはわからないため、撮影された装着者の行動を全てのありうる行動の何れかに分類しなければならず、また、行動の切れ目がどこにあるかも認識しなければならない。また、撮影される物も、世の中のありとあらゆる物体の何れかに分類することが必要である。このことは、装着者の行動の分類の難度を高め、分類の精度を落としてしまう。   However, if photographing is always performed, the battery of the camera that performs photographing becomes extremely exhausted. In addition, since the system does not know what context the wearer is in, the action of the photographed wearer must be classified as one of all possible actions, and where the break of action is You must also recognize it. In addition, it is necessary to classify an object to be photographed as one of all kinds of objects in the world. This increases the difficulty of classifying the wearer's behavior and lowers the accuracy of the classification.

本発明はこのような問題点に鑑みなされたもので、人の行動内容を高い精度で記録することを目的とする。   The present invention has been made in view of such problems, and an object of the present invention is to record human action content with high accuracy.

上記目的は、以下の装置若しくは方法によって達成される。   The above object is achieved by the following apparatus or method.

即ち、
撮影装置で撮影した映像を入力する入力手段と、
前記映像から特定物体を検出する検出手段と、
前記入力された映像と、前記検出された特定物体の情報と、を関連付ける関連付け手段と、
前記検出された特定物体の情報を用いて認識ルールを設定する設定手段と、
前記設定された認識ルールに従って、前記認識ルールを設定する際に用いた特定物体の情報と関連付けられた映像に対する映像認識処理を行い、映像認識結果を記録する映像認識結果記録手段と、
を有することを特徴とする記録装置。
That is,
An input means for inputting video shot by the photographing device;
Detecting means for detecting a specific object from the video;
Associating means for associating the input video with the information of the detected specific object;
Setting means for setting a recognition rule using information of the detected specific object;
In accordance with the set recognition rule, a video recognition result recording unit that performs video recognition processing on a video associated with information on a specific object used when setting the recognition rule, and records a video recognition result;
A recording apparatus comprising:

若しくは、入力手段が、撮影装置で撮影した映像を入力する入力ステップと、
検出手段が、前記映像から特定物体を検出する検出ステップと、
関連付け手段が、前記入力された映像と、前記検出された特定物体の情報と、を関連付ける関連付けステップと、
設定手段が、前記検出された特定物体の情報を用いて認識ルールを設定する設定ステップと、
映像認識結果記録手段が、前記設定された認識ルールに従って、前記認識ルールを設定する際に用いた特定物体の情報と関連付けられた映像に対する映像認識処理を行い、映像認識結果を記録する映像認識結果記録ステップと、
を含むことを特徴とする記録方法。
Or an input step in which the input means inputs the video imaged by the imaging device;
A detecting step for detecting a specific object from the video;
An associating unit associating the input video with the information on the detected specific object;
A setting step in which a setting means sets a recognition rule using information on the detected specific object;
A video recognition result in which video recognition result recording means performs video recognition processing on the video associated with the information of the specific object used when setting the recognition rule according to the set recognition rule, and records the video recognition result Recording step;
A recording method comprising:

また、上記目的は、以下のシステム若しくは方法によって達成される。   Moreover, the said objective is achieved by the following systems or methods.

即ち、撮影装置と、サーバ装置と、を含む記録システムであって、
前記撮影装置は、
映像を撮影する撮影手段と、
前記映像から特定物体を検出する検出手段と、
前記サーバ装置に、前記撮影された映像と、前記検出された特定物体の情報と、を送信する送信手段と
を有し、
前記サーバ装置は、
前記撮影装置より、前記送信された映像と、前記送信された特定物体の情報と、を受信する受信手段と、
前記受信された映像と、前記受信された特定物体の情報と、を関連付ける関連付け手段と、
前記受信された特定物体の情報を用いて認識ルールを設定する設定手段と、
前記設定された認識ルールに従って、前記認識ルールを設定する際に用いた特定物体の情報と関連付けられた映像に対する映像認識処理を行い、映像認識結果を記録する映像認識結果記録手段と、
を有することを特徴とする記録システム。
That is, a recording system including a photographing device and a server device,
The imaging device
Photographing means for photographing images;
Detecting means for detecting a specific object from the video;
The server device includes transmission means for transmitting the captured video and the information of the detected specific object,
The server device
Receiving means for receiving the transmitted video and the transmitted information on the specific object from the imaging device;
Association means for associating the received video with the received information on the specific object;
Setting means for setting a recognition rule using the received information on the specific object;
In accordance with the set recognition rule, a video recognition result recording unit that performs video recognition processing on a video associated with information on a specific object used when setting the recognition rule, and records a video recognition result;
A recording system comprising:

若しくは、撮影装置の撮影手段が、映像を撮影する撮影ステップと、
前記撮影装置の検出手段が、前記映像から特定物体を検出する検出ステップと、
前記撮影装置の送信手段が、サーバ装置に、前記撮影された映像と、前記検出された特定物体の情報と、を送信する送信ステップと、
前記サーバ装置の受信手段が、前記撮影装置より、前記送信された映像と、前記送信された特定物体の情報と、を受信する受信ステップと、
前記サーバ装置の記録手段が、前記受信された映像と、前記受信された特定物体の情報と、を関連付ける関連付けステップと、
前記サーバ装置の設定手段が、前記受信された特定物体の情報を用いて認識ルールを設定する設定ステップと、
前記サーバ装置の映像認識結果記録手段が、前記設定された認識ルールに従って、前記認識ルールを設定する際に用いた特定物体の情報と関連付けられた映像に対する映像認識処理を行い、映像認識結果を記録する映像認識結果記録ステップと
を含むことを特徴とする記録方法。
Alternatively, a photographing step in which the photographing means of the photographing device photographs a video,
A detecting step of detecting a specific object from the video by the detecting means of the photographing apparatus;
A transmission step in which the transmission unit of the imaging device transmits the captured video and the information of the detected specific object to a server device;
A receiving step in which the receiving unit of the server device receives the transmitted video and the transmitted information on the specific object from the imaging device;
An association step in which the recording means of the server device associates the received video with the received information on the specific object;
A setting step in which the setting unit of the server device sets a recognition rule using the received information on the specific object;
The video recognition result recording means of the server device performs video recognition processing on the video associated with the information on the specific object used when setting the recognition rule according to the set recognition rule, and records the video recognition result And a video recognition result recording step.

本発明によれば、人の行動内容を高い精度で記録することができる。   According to the present invention, it is possible to record a person's action content with high accuracy.

行動の記録システムにおいて、映像を記録する流れを概略的に示した図である。It is the figure which showed roughly the flow which records an image | video in the action recording system. 行動の記録システムにおいて、映像認識を行い、行動を記録する流れを概略的に示した図である。It is the figure which showed roughly the flow which performs video recognition and records an action in the action recording system. 装着型デバイスの形態の具体例を示した図である。It is the figure which showed the specific example of the form of a mounting | wearing type device. 利用者が生活の中で記録したい行動に関連する物体を示した図である。It is the figure which showed the object relevant to the action which a user wants to record in life. 装着型デバイス701の構成を示した図である。FIG. 3 is a diagram showing a configuration of a wearable device 701. 装着型デバイス701がどのように撮影を行うかの手順を記したフローチャートである。10 is a flowchart describing a procedure of how the wearable device 701 performs shooting. 装着型デバイス701がどのように撮影された映像の認識を行うかの手順を記したフローチャートである。10 is a flowchart illustrating a procedure of how the wearable device 701 recognizes a captured image. 鏡像の記録の処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the process of recording of a mirror image. 体温の記録の処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the recording process of body temperature. 服用の記録の処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the recording process of taking. 記録システムのシステム構成等の一例を示した図である。It is the figure which showed an example of the system configuration etc. of a recording system.

以下、本発明の実施形態について図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<実施形態1>
本実施形態による行動の記録システムは、撮像部を持ち、記録対象者の行動を映像で記録する。また、生活の中で記録対象者が用いる特定の物体を何らかの手段で検出し、撮影された映像と関連付けて記録する。更に、撮影した映像を分析して行動の記録を作成する際に、検出した物体に応じて異なる認識ルールを用いて映像認識を行い、映像認識結果を行動の記録としてメモリ等にデータベースとして記録する。
<Embodiment 1>
The action recording system according to the present embodiment has an imaging unit and records the action of the person to be recorded as a video. In addition, a specific object used by the person to be recorded in life is detected by some means, and recorded in association with the captured video. Furthermore, when creating a behavior record by analyzing the captured video, video recognition is performed using different recognition rules depending on the detected object, and the video recognition result is recorded as a database in a memory or the like as a behavior record. .

図1は、行動の記録システムにおいて、映像を記録する流れを概略的に示した図である。   FIG. 1 is a diagram schematically showing a flow of recording video in an action recording system.

S901では、行動記録が開始されると、映像を撮影して記録が行われる(入力)。   In S901, when action recording is started, video is taken and recorded (input).

S902では、何らかの手段で特定物体が検出される。   In S902, a specific object is detected by some means.

S903では、撮影映像と検出された特定物体の情報が関連付けてメモリ等に記録される。   In S903, the captured image and the information of the detected specific object are associated and recorded in a memory or the like.

図2は、行動の記録システムにおいて、映像認識を行い、行動を記録する流れを概略的に示した図である。   FIG. 2 is a diagram schematically showing a flow of performing action recognition and recording actions in the action recording system.

S101では、映像認識が開始されると、検出された特定物体の情報に応じて映像の認識ルールが設定される。   In S101, when video recognition is started, a video recognition rule is set according to the information on the detected specific object.

S102では、設定された映像の認識ルールに従った、前記特定物体の情報が関連付けられた撮影映像に対する映像認識処理が行われる。   In S102, a video recognition process is performed on the captured video associated with the information on the specific object according to the set video recognition rule.

S103では、映像認識結果がデータベースとしてメモリ等に記録される(映像認識結果記録)。   In S103, the video recognition result is recorded in a memory or the like as a database (video recognition result recording).

以下、処理等をより具体的に説明する。本実施形態では、健康管理のために用いられるカメラ付きの身体装着型デバイスについて記述する。この装着型デバイスを用いることで、利用者は、日頃の生活の中で健康管理に関わる、飲薬等といった行動を、メモを取ることなしに自動的に記録していくことができる。   Hereinafter, the processing and the like will be described more specifically. In the present embodiment, a body-mounted device with a camera used for health care is described. By using this wearable device, the user can automatically record behaviors related to health management, such as medication, in daily life without taking notes.

図3は、本実施形態における装着型デバイスの外観を示したものである。図3では、ペンダント型のデバイス701や利用者は耳かけ型のデバイス702等を装着する。ペンダント型のデバイス701と耳かけ型のデバイス702との形態は異なるが、何れも同じ機能を持ったデバイスであり、同様の動作を行う。なお、デバイスの形態はこれに限定されるものではなく、撮像部を備え、利用者の前方の空間が常に撮像部の視界に入り、利用者と共に移動されるものであればどのような形態でもよい。以下では、利用者がペンダント型の装着型デバイス701を装着したものとして説明を行う。   FIG. 3 shows the appearance of the wearable device in the present embodiment. In FIG. 3, the pendant device 701 and the user wear an ear-mounted device 702 and the like. Although the pendant device 701 and the ear-mounted device 702 are different in form, both are devices having the same function and perform the same operation. Note that the form of the device is not limited to this, and any form may be used as long as it has an imaging unit, and the space in front of the user always enters the field of view of the imaging unit and moves with the user. Good. In the following description, it is assumed that the user wears the pendant wearable device 701.

図4は、本実施形態において、利用者が生活の中で記録したい行動に関連する物体を示した図である。図4における鏡801は、利用者が日常的に使用しているものである。鏡801には、ユニークなIDを持ったRFIDタグ811が予め付けられている。802は体温計であり、利用者が体温を測りたい際に利用されるものである。体温計802には、ユニークなIDを持ったRFIDタグ812が予め付けられている。803は薬瓶であり、利用者が常用している薬が入れられた半透明の入れ物である。薬瓶803には、ユニークなIDを持ったRFIDタグ813が予め付けられている。   FIG. 4 is a diagram showing objects related to actions that the user wants to record in his / her life in the present embodiment. The mirror 801 in FIG. 4 is used daily by the user. An RFID tag 811 having a unique ID is attached to the mirror 801 in advance. A thermometer 802 is used when a user wants to measure body temperature. An RFID tag 812 having a unique ID is attached to the thermometer 802 in advance. Reference numeral 803 denotes a medicine bottle, which is a translucent container in which medicines commonly used by users are placed. An RFID tag 813 having a unique ID is attached to the medicine bottle 803 in advance.

本実施形態で示される装着型デバイス701は、図4に示されている、3つの物体に関連した行為を記録する。即ち、装着型デバイス701の利用者が鏡801を利用したとき、鏡に映る利用者の顔画像と、その日時とを記録する。この記録を取ることで、毎日の利用者の顔画像を継続的に記録することができ、装着型デバイス701の外部の健康管理システムでその画像を利用することができる。同様に、利用者が体温を測った場合にその体温と日時とを、薬を摂取した場合にその日時を、記録して外部の健康管理システムで利用することができる。   The wearable device 701 shown in this embodiment records actions related to the three objects shown in FIG. That is, when the user of the wearable device 701 uses the mirror 801, the user's face image reflected in the mirror and the date and time are recorded. By taking this record, the daily facial image of the user can be continuously recorded, and the image can be used in the health management system outside the wearable device 701. Similarly, when a user measures body temperature, the body temperature and date / time can be recorded, and when a user takes medicine, the date / time can be recorded and used by an external health management system.

なお、本実施形態において特定物体検出部101は、特定物体に添付されたRFIDタグと装着型デバイス701に内蔵されたRFIDタグリーダーとから構成されるものとした。しかしこれは特定の物体を非接触で検出できる構成であればどのようなもので構成されてもよく、例えば装着型デバイス701に内蔵されたカメラが特定物体に添付された二次元コードを撮影し、そのIDを取得するという構成であってもよい。   In the present embodiment, the specific object detection unit 101 includes an RFID tag attached to the specific object and an RFID tag reader built in the wearable device 701. However, this may be configured as long as it can detect a specific object without contact. For example, a camera built in the wearable device 701 captures a two-dimensional code attached to the specific object. The ID may be acquired.

図5は、本実施形態における装着型デバイス701の構成を示した図である。以下、図面に従って、本実施形態における装着型デバイス701の構成について説明する。   FIG. 5 is a diagram showing the configuration of the wearable device 701 in the present embodiment. Hereinafter, the configuration of the wearable device 701 in the present embodiment will be described with reference to the drawings.

特定物体検出部101は、利用者が利用する1つ以上の特定の物体を検出する。本実施形態において、特定の物体とは図4に示された鏡801、体温計802及び薬瓶803である。本実施形態において特定物体検出部101は、鏡、体温計及び薬瓶にそれぞれ一つずつ貼りつけられたRFIDタグと、装着型デバイス701に内蔵されたRFIDタグリーダーによって構成される。RFIDタグは、無電源で動作し、RFIDタグリーダーから固有のID情報が読み出される。電子タグリーダーの読み取り範囲は装着型デバイス701の前面方向に設定され、読み取り距離は60cm程度に設定されている。この設定により、装着型デバイス701を付けた利用者が特定物体を手にする場合には、その特定物体に付けられた電子タグのID情報が読み出される。そのため、装着型デバイス701は内蔵する撮像部の視界にある特定物体の種類を特定することができる。   The specific object detection unit 101 detects one or more specific objects used by the user. In the present embodiment, the specific objects are the mirror 801, the thermometer 802, and the medicine bottle 803 shown in FIG. In this embodiment, the specific object detection unit 101 includes an RFID tag that is attached to each of a mirror, a thermometer, and a medicine bottle, and an RFID tag reader that is built in the wearable device 701. The RFID tag operates with no power supply, and unique ID information is read from the RFID tag reader. The reading range of the electronic tag reader is set in the front direction of the wearable device 701, and the reading distance is set to about 60 cm. With this setting, when the user wearing the wearable device 701 holds a specific object, the ID information of the electronic tag attached to the specific object is read. Therefore, the wearable device 701 can specify the type of the specific object in the field of view of the built-in imaging unit.

なお、本実施形態において、特定物体検出部101は、特定物体に添付されたRFIDタグと装着型デバイス701に内蔵されたRFIDタグリーダーとから構成されるものとした。しかしこれは特定の物体を非接触で検出できる構成であればどのようなもので構成されてもよく、例えば装着型デバイス701に内蔵されたカメラが特定物体に添付された二次元コードを撮影し、そのIDを取得するという構成であってもよい。   In the present embodiment, the specific object detection unit 101 includes an RFID tag attached to the specific object and an RFID tag reader built in the wearable device 701. However, this may be configured as long as it can detect a specific object without contact. For example, a camera built in the wearable device 701 captures a two-dimensional code attached to the specific object. The ID may be acquired.

撮像部102は、装着型デバイス701に内蔵されたカメラモジュールから構成される。撮像部102は動画を撮影することができる。撮像部102の撮影範囲は装着型デバイス701に内蔵されたRFIDタグリーダーの読み出し範囲と同程度の角度に調整されている。   The imaging unit 102 includes a camera module built in the wearable device 701. The imaging unit 102 can capture a moving image. The imaging range of the imaging unit 102 is adjusted to an angle approximately equal to the reading range of the RFID tag reader built in the wearable device 701.

記録部103は、特定物体検出部101の検出した特定物体ID情報と、撮像部102の撮影した動画とを関連付け記録する。記録部103は、フラッシュメモリ等で構成される。   The recording unit 103 records the specific object ID information detected by the specific object detection unit 101 and the moving image captured by the imaging unit 102 in association with each other. The recording unit 103 is configured by a flash memory or the like.

映像認識部104は、記録部103に格納されている動画の内容を映像認識し、認識結果をメモリ等に記憶されているデータベース106に格納する。映像認識部104は、装着型デバイス701に内蔵されたマイクロプロセッサがプログラムを実行することによって実現される。   The video recognition unit 104 recognizes the content of the moving image stored in the recording unit 103 and stores the recognition result in the database 106 stored in a memory or the like. The video recognition unit 104 is realized by a microprocessor built in the wearable device 701 executing a program.

認識ルール設定部105は、映像認識部104が動画を認識してメモリ等に記憶されているデータベース106に認識結果を格納する際の、認識ルールを設定する。認識ルール設定部105は、装着型デバイス701に内蔵されたマイクロプロセッサがプログラムを実行することによって実現される。   The recognition rule setting unit 105 sets a recognition rule when the video recognition unit 104 recognizes a moving image and stores the recognition result in the database 106 stored in a memory or the like. The recognition rule setting unit 105 is realized when a microprocessor built in the wearable device 701 executes a program.

データベース106は、映像認識部104で認識された結果である。データベース106は、フラッシュメモリ等のメモリに記憶されるが、デジタル情報を記録できる媒体であればどのようなもので構成されてもよく、例えばハードディスク等のメモリに記憶されてもよい。   The database 106 is a result recognized by the video recognition unit 104. The database 106 is stored in a memory such as a flash memory. However, the database 106 may be any medium as long as it can record digital information. For example, the database 106 may be stored in a memory such as a hard disk.

図6は、本実施形態において、装着型デバイス701がどのように撮影を行うかの手順を記したフローチャートである。図6に記した手順は、装着型デバイス701に内蔵されたコントロール基盤と、基盤上のマイクロプロセッサがプログラムを実行することによって実現される。以下、図6を参照しながら、装着型デバイス701が撮影を行う手順について説明する。   FIG. 6 is a flowchart showing a procedure of how the wearable device 701 performs shooting in the present embodiment. The procedure described in FIG. 6 is realized by a control board built in the wearable device 701 and a microprocessor on the board executing a program. Hereinafter, the procedure for the wearable device 701 to perform shooting will be described with reference to FIG.

S201では、装着型デバイス701の電源が入れられると、特定物体検出部101が、特定物体に添付されたタグを認識しているかどうか判定される。タグが認識されていればS202に、されていなければS204に進む。   In S201, when the wearable device 701 is turned on, it is determined whether the specific object detection unit 101 recognizes the tag attached to the specific object. If the tag is recognized, the process proceeds to S202, and if not, the process proceeds to S204.

S202では、装着型デバイス701が撮影中であるかどうかが判定される。既に撮影中である場合にはS201に、そうでなければS203に進む。   In S202, it is determined whether the wearable device 701 is shooting. If it is already shooting, the process proceeds to S201, and if not, the process proceeds to S203.

S203では、撮像部102の動画撮影が始められ、記録部103に撮影された動画が録画されていく。この際、記録される動画と対にして、検出されているタグの情報、またその時点での日時の情報も記録部103に記録される。撮影が開始されると、S201に進む。   In S203, moving image shooting by the imaging unit 102 is started, and the moving image shot in the recording unit 103 is recorded. At this time, the detected tag information and the date and time information at that time are also recorded in the recording unit 103 in a pair with the recorded moving image. When shooting is started, the process proceeds to S201.

S204では、装着型デバイス701が撮影中であるかどうかが判定される。撮影中である場合にはS205に、そうでなければS201に進む。   In S204, it is determined whether the wearable device 701 is shooting. If shooting is in progress, the process proceeds to S205, and if not, the process proceeds to S201.

S205では、撮影開始時点から30秒が経過しているかどうかが判定される。この判定は、タグが読み取り範囲の限界にある場合に、細切れの映像が多数撮影されることがないように行われる。30秒が経過していればS206に、経過していなければS201に進む。   In S205, it is determined whether or not 30 seconds have elapsed since the photographing start time. This determination is performed so that a large number of sliced images are not captured when the tag is at the limit of the reading range. If 30 seconds have elapsed, the process proceeds to S206, and if not, the process proceeds to S201.

S206では、撮影が中止される。   In S206, shooting is stopped.

以上、図6のフローチャートに示される手順を実行することで、利用者の近辺に特定物体がある場合にのみ撮影を行う装着型デバイス701を実現することができ、したがって、利用者が特定物体を手に取って利用している際に撮影を行うことが可能となる。   As described above, by executing the procedure shown in the flowchart of FIG. 6, it is possible to realize the wearable device 701 that performs imaging only when there is a specific object in the vicinity of the user. It is possible to take a picture while using it in the hand.

図7は、本実施形態において、装着型デバイス701がどのように撮影された映像の認識を行うかの手順を記したフローチャートである。図7に記した手順は、装着型デバイス701に内蔵されたマイクロプロセッサがプログラムを実行することによって実現される。以下、図7を参照しながら、装着型デバイス701が映像の認識を行う手順について説明する。   FIG. 7 is a flowchart showing a procedure of how the wearable device 701 recognizes a captured image in this embodiment. The procedure shown in FIG. 7 is realized by the microprocessor built in the wearable device 701 executing a program. Hereinafter, a procedure in which the wearable device 701 recognizes an image will be described with reference to FIG.

S301では、装着型デバイス701の電源が入れられると、映像認識部104が、記録部103に格納されている動画のうち、最初に撮影され、なお、かつ、まだ映像認識が終わっていない動画を取りだす。また、認識ルール設定部105が、記録部103から動画と対にして記録されたタグの情報を取りだす。S301において、映像認識がなされていない動画が存在しない場合は、新たな動画が記録されるまでS301で待機される。   In S <b> 301, when the wearable device 701 is turned on, the video recognition unit 104 first captures a moving image stored in the recording unit 103 and has not yet been recognized. Take it out. In addition, the recognition rule setting unit 105 extracts tag information recorded as a pair from the recording unit 103 with the moving image. If there is no moving image that has not been recognized in S301, the process waits in S301 until a new moving image is recorded.

S302では、認識ルール設定部105が、タグの情報を使って、動画が撮影された際にどの特定物体が検出されていたのかを判定する。タグ情報が、鏡801に添付されたタグ情報と一致するのであればS303に、体温計802に添付されたタグ情報と一致するのであればS304に、薬瓶803に添付されたタグ情報と一致するのであればS305に進む。   In S302, the recognition rule setting unit 105 uses the tag information to determine which specific object has been detected when the moving image is captured. If the tag information matches the tag information attached to the mirror 801, the tag information attached to the medicine bottle 803 is matched to S303 if it matches the tag information attached to the thermometer 802. If so, the process proceeds to S305.

S303では、鏡像を記録する。   In S303, a mirror image is recorded.

図8は、鏡像の記録の処理の流れを示したフローチャートである。図8に従い、鏡像の記録の処理の流れに付いて説明する。鏡像の記録では、装着型デバイス701の利用者が鏡を利用しているときの、鏡に映る利用者の顔画像を抜き出す処理を行う。   FIG. 8 is a flowchart showing a flow of mirror image recording processing. The flow of the mirror image recording process will be described with reference to FIG. In recording a mirror image, a process of extracting a face image of the user reflected in the mirror when the user of the wearable device 701 uses the mirror is performed.

S401では、録画されている動画の各フレームについて、顔認識処理が行われる。また、顔が検出されたフレームについて、顔が大きく映っていればいるほど高くなるスコアが付けられる。この顔認識処理は画像中から顔を検出することができる方法であればどのような方法でなされてもよいが、例えば非特許文献2に示されるViola−Jones 顔検出器を用いて実現してもよい。   In S401, face recognition processing is performed for each frame of the recorded moving image. In addition, for a frame in which a face is detected, a higher score is assigned as the face is larger. This face recognition process may be performed by any method that can detect a face from an image. For example, the face recognition process is realized by using a Viola-Jones face detector shown in Non-Patent Document 2. Also good.

S402では、顔が検出されたフレームについて、顔が正面を向いていればいるほど高くなるスコアが付けられる。この処理は顔の向きを検出できる方法であればどのような方法でなされてもよいが、例えば顔の向きに応じた顔検出器を予め複数用意し、適用することで実現することができる。   In S402, a higher score is assigned to the frame in which the face is detected as the face faces the front. This process may be performed by any method as long as it can detect the orientation of the face. For example, a plurality of face detectors corresponding to the orientation of the face are prepared and applied in advance.

S403では、S401及びS402で算出したスコアの合計を比較し、このスコアが最大となるフレームが選び出される。この選び出したフレームから、顔が含まれる矩形で画像が切り出される。この切り出した顔画像と、顔画像が撮影された時間と、は対にしてデータベース106に記録される。   In S403, the sum of the scores calculated in S401 and S402 is compared, and the frame having the maximum score is selected. From the selected frame, an image is cut out with a rectangle including a face. The cut face image and the time when the face image was taken are recorded in the database 106 as a pair.

以上の手順により、映像認識部104が鏡に映る利用者の顔画像を切り出し、撮影された日時と共にデータベース106に記録される。なお、本実施形態では、顔検出器によって利用者の顔画像の切り出しを行うものとしたが、その他の処理により顔画像の切り出しを行うものとしてよい。例えば、鏡の輪郭領域をエッジ検出等の手段により検出し、鏡領域内でのみ顔検出器を働かせるものとしてよい。また、顔検出後に顔認証による個人の特定手順を加えて、装着型デバイス701の利用者の顔が映っていると確認される時点でのみ顔画像の切り出しを行うものとしてよい。   Through the above procedure, the image recognition unit 104 cuts out the face image of the user reflected in the mirror and records it in the database 106 together with the date and time when the image was taken. In the present embodiment, the face image of the user is cut out by the face detector, but the face image may be cut out by other processing. For example, the contour region of the mirror may be detected by means such as edge detection, and the face detector may be used only within the mirror region. Further, an individual identification procedure by face authentication may be added after face detection, and the face image may be cut out only when it is confirmed that the face of the user of the wearable device 701 is reflected.

S304では、体温を記録する。   In S304, the body temperature is recorded.

図9は、体温の記録の処理の流れを示したフローチャートである。図9に従い、体温の記録の処理の流れに付いて説明する。体温の記録では、装着型デバイス701の利用者が体温計を利用した後の、測定された体温情報を記録する処理を行う。   FIG. 9 is a flowchart showing the flow of the body temperature recording process. The flow of the body temperature recording process will be described with reference to FIG. In the recording of the body temperature, the user of the wearable device 701 performs a process of recording the measured body temperature information after using the thermometer.

S501では、録画された映像の撮影シーケンスの最後のフレームから、体温計の検出処理が行われる。この処理は体温計を検出できる方法であればどのような方法でなされてもよく、例えば非特許文献1に示されるような、予め与えられた体温計の3Dモデルを用いたオブジェクト検出及びトラッキング手法によって実現することができる。本実施形態では、予めタグ情報によって画面内に体温計が映っている可能性が高いということがわかっているため、体温計の3Dモデルのみを用いてオブジェクト検出及びトラッキングを行えばよい。体温計が検出されたフレームが見つかった場合、S502に進む。   In S501, the thermometer detection process is performed from the last frame of the recorded sequence of the recorded video. This process may be performed by any method that can detect a thermometer. For example, as shown in Non-Patent Document 1, it is realized by an object detection and tracking method using a 3D model of a thermometer provided in advance. can do. In the present embodiment, it is known in advance that there is a high possibility that the thermometer is reflected in the screen based on the tag information. Therefore, the object detection and tracking may be performed using only the 3D model of the thermometer. When the frame in which the thermometer is detected is found, the process proceeds to S502.

S502では、画像中の検出された体温計の領域内に、温度表示部の領域が検出されるかどうかが判定される。この処理は温度表示部を検出できる方法であればどのような方法でなされてもよく、例えばS501で用いられる手法と同じ手法で実現することができる。温度表示部が検出された場合、S503に進む。温度表示部が利用者から見て反対側にある等して、温度表示部が検出されない場合、S501に進む。   In S502, it is determined whether or not the region of the temperature display unit is detected within the region of the detected thermometer in the image. This process may be performed by any method as long as the temperature display unit can be detected. For example, the process can be realized by the same method as that used in S501. When the temperature display unit is detected, the process proceeds to S503. If the temperature display unit is not detected because the temperature display unit is on the opposite side as viewed from the user, the process proceeds to S501.

S503では、画像中の検出された温度表示部の領域内の、体温表示の読み取りが行われる。この読み取りはOCR(Optical Character Recognition)技術によって行われる。例えばS501で3Dモデルを用いたオブジェクト検出及びトラッキングを行う場合には、カメラに対する体温計の相対的な三次元位置・姿勢が明らかになっている。そのため、その情報を生かして体温表示領域の画像に変換処理を適用することで、OCRの精度をより高めることができる。OCRの結果、体温表示が読み取れた場合、読み取った体温情報とその時点での時間とが対になってデータベース106に記録され、体温の記録の処理は終了する。体温表示が読みとれなかった場合には、S501に進む。   In step S503, the body temperature display in the detected temperature display area in the image is read. This reading is performed by an OCR (Optical Character Recognition) technique. For example, when performing object detection and tracking using a 3D model in S501, the relative three-dimensional position / posture of the thermometer with respect to the camera has been clarified. Therefore, the accuracy of OCR can be further improved by applying the conversion process to the image of the body temperature display region using the information. When the body temperature display is read as a result of the OCR, the body temperature information thus read and the time at that time are paired and recorded in the database 106, and the body temperature recording process ends. If the body temperature display cannot be read, the process proceeds to S501.

以上の手順により、映像認識部104が体温計の体温表示を読み取り、撮影された日時と共にデータベース106に記録される。   Through the above procedure, the image recognition unit 104 reads the temperature display of the thermometer and records it in the database 106 together with the date and time when the image was taken.

S305は、服用を記録する。   In S305, the dose is recorded.

図10は、服用の記録の処理の流れを示したフローチャートである。以下、図10に従い、服用の記録の処理の流れに付いて説明する。服用の記録では、装着型デバイス701の利用者が薬瓶内の薬を服用した時間の記録、及び薬瓶中に残されている薬の量を記録する処理を行う。   FIG. 10 is a flowchart showing the flow of processing for taking a dose. In the following, the flow of processing for taking a dose will be described with reference to FIG. In the medication recording, a process of recording the time when the user of the wearable device 701 took the medicine in the medicine bottle and the amount of medicine remaining in the medicine bottle is performed.

S601では、録画された映像の撮影シーケンスの最後のフレームから、画面に対して直立している薬瓶の検出処理が行われる。直立した薬瓶に限定して検出処理を行うのは、後述のS602の処理において薬の残量を把握しやすくするためである。この処理は薬瓶を検出できる方法であればどのような方法でなされてもよく、例えば非特許文献1に示されるような、予め与えられた薬瓶の3Dモデルを用いたオブジェクト検出及びトラッキング手法によって実現することができる。本実施形態では、予めタグ情報によって画面内に薬瓶が映っている可能性が高いということがわかっているため、薬瓶の3Dモデルのみを用いてオブジェクト検出及びトラッキングを行えばよい。直立している薬瓶が検出されたフレームが見つかった場合、S602に進む。   In S601, a detection process of a medicine bottle standing upright with respect to the screen is performed from the last frame of the recording sequence of the recorded video. The reason why the detection process is limited to the upright medicine bottle is to make it easier to grasp the remaining amount of medicine in the process of S602 described later. This process may be performed by any method that can detect a medicine bottle. For example, as shown in Non-Patent Document 1, an object detection and tracking method using a 3D model of a medicine bottle given in advance. Can be realized. In this embodiment, since it is known in advance that there is a high possibility that a medicine bottle appears in the screen based on tag information, object detection and tracking may be performed using only the 3D model of the medicine bottle. If a frame in which an upright medicine bottle is detected is found, the process proceeds to S602.

S602では、薬瓶中の残量の認識処理が行われる。この処理は薬瓶中の薬の残量を検出できる方法であればどのような方法でなされてもよく、例えば、薬の色を用いて画像中の薬瓶の領域内で色検出処理を行い、薬瓶内に占める薬の色の領域の割合を求める方法で残量を把握することができる。この際、薬瓶が直立しているため、画像の下方向が重力方向であるということを考慮し、薬瓶の一番下に接続している領域を薬の部分として判断することができる。薬の残量が検出されたら、読み取った薬の残量とその時点での時間とが対になってデータベース106に記録され、服用の記録の処理は終了する。   In S602, a process for recognizing the remaining amount in the medicine bottle is performed. This process may be performed by any method that can detect the remaining amount of the medicine in the medicine bottle. For example, the color detection process is performed in the area of the medicine bottle in the image using the medicine color. The remaining amount can be grasped by a method of obtaining the ratio of the drug color area in the medicine bottle. At this time, since the medicine bottle stands upright, the region connected to the bottom of the medicine bottle can be determined as the medicine portion in consideration that the lower direction of the image is the direction of gravity. When the remaining amount of medicine is detected, the read remaining amount of medicine and the time at that time are paired and recorded in the database 106, and the process of recording medication is completed.

以上の手順により、映像認識部104が薬瓶中の残量を把握し、撮影された日時と共にデータベース106に記録される。   Through the above procedure, the image recognition unit 104 grasps the remaining amount in the medicine bottle and records it in the database 106 together with the date and time when the image was taken.

以上、実施形態1について説明した。本実施形態に記述された身体装着型デバイスを装着することで、日々の生活の中で、自動的に健康管理のための記録を取っていくことが可能になる。   The first embodiment has been described above. By wearing the body-mounted device described in the present embodiment, it becomes possible to automatically take a record for health management in daily life.

なお、本実施形態では、健康管理のために装着型デバイスを用いているが、この装着型デバイスの用途はこれにとどまらず、物を利用する様々な行為の記録に用いることができる。例えば、財布にRFIDタグを付け、そのRFIDタグが検出された場合に、財布に関わる行為の認識を行う認識ルールを適用することで、財布の利用履歴を自動的に記録していくことができる。また、他にも、所有する携帯電話の利用履歴を記録したり、冷蔵庫の中身を記録したり、鞄の中身を記録したり、哺乳瓶による授乳を記録したり、印鑑による押印の記録を行ったり、医療器具の利用履歴を記録したり等といったことができる。   In the present embodiment, the wearable device is used for health management. However, the wearable device is not limited to this application, and can be used for recording various actions using objects. For example, when an RFID tag is attached to a wallet and the RFID tag is detected, the usage history of the wallet can be automatically recorded by applying a recognition rule for recognizing an action related to the wallet. . In addition, record the usage history of your mobile phone, record the contents of the refrigerator, record the contents of the bag, record breastfeeding, and record the seal with a seal. Or record the usage history of the medical device.

また、本実施形態では、時間と映像認識の結果とをデータベースに記録しているが、装着型デバイスにGPS等の位置検出装置を備え、位置も合わせて記録するものとしてもよい。   In this embodiment, the time and the result of video recognition are recorded in the database. However, the wearable device may be provided with a position detection device such as GPS, and the position may be recorded together.

また、本実施形態では、全ての処理を装着型デバイス内で行っているが、認識処理等といった処理の一部を、無線ネットワークを介してサーバ側に置き、装着型デバイスから情報を送信して処理を行うものとしてもよい。そして、装着型デバイスとサーバ装置とは無線通信を介して送受信を行う様にしてもよい。図11は、そのような構成を示したブロック図である。この構成においては、装着型デバイス701に無線送信部201が追加され、撮像部102が撮影した映像及び特定物体検出部101の検出した特定物体ID情報が無線通信を介して送信される。無線送信された情報は無線受信部202を含むサーバ装置で受信される。サーバ装置は、記録部103、映像認識部104、認識ルール設定部105、データベース106を含む。この構成において、それぞれのブロックが行う処理及び処理の流れは、既述のものと同一である。   In this embodiment, all processing is performed in the wearable device. However, a part of the processing such as recognition processing is placed on the server side via the wireless network, and information is transmitted from the wearable device. It is good also as what performs a process. The wearable device and the server device may perform transmission / reception via wireless communication. FIG. 11 is a block diagram showing such a configuration. In this configuration, the wireless transmission unit 201 is added to the wearable device 701, and the video captured by the imaging unit 102 and the specific object ID information detected by the specific object detection unit 101 are transmitted via wireless communication. The wirelessly transmitted information is received by the server device including the wireless reception unit 202. The server device includes a recording unit 103, a video recognition unit 104, a recognition rule setting unit 105, and a database 106. In this configuration, the processing performed by each block and the flow of processing are the same as those already described.

また、本実施形態では、特定物体に対応した映像認識ルールが予め定められており、また、特定物体と、特定物体が検出された際の映像認識ルールとの組み合わせも定められているものとした。しかしながらこれは可変のものとして構成されてもよく、例えば、映像認識ルールをコンピュータ上のエディタを使って作れるものとしてよい。また、特定物体と映像認識ルールとの組み合わせも、コンピュータ上のエディタを使って予め作れるものとしてよい。   In the present embodiment, the video recognition rule corresponding to the specific object is determined in advance, and the combination of the specific object and the video recognition rule when the specific object is detected is also determined. . However, this may be configured to be variable, for example, video recognition rules may be created using an editor on a computer. A combination of a specific object and a video recognition rule may be created in advance using an editor on a computer.

<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

以上、上述した各実施形態によれば、人の行動内容を高い精度で記録することができる。   As mentioned above, according to each embodiment mentioned above, a person's action content can be recorded with high accuracy.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

101 特定物体検出部、102 撮像部、103 記録部、104 映像認識部、105 認識ルール設定部、106 データベース 101 specific object detection unit, 102 imaging unit, 103 recording unit, 104 video recognition unit, 105 recognition rule setting unit, 106 database

Claims (12)

撮影装置で撮影した映像を入力する入力手段と、
前記映像から特定物体を検出する検出手段と、
前記入力された映像と、前記検出された特定物体の情報と、を関連付ける関連付け手段と、
前記検出された特定物体の情報を用いて認識ルールを設定する設定手段と、
前記設定された認識ルールに従って、前記認識ルールを設定する際に用いた特定物体の情報と関連付けられた映像に対する映像認識処理を行い、映像認識結果を記録する映像認識結果記録手段と、
を有することを特徴とする記録装置。
An input means for inputting video shot by the photographing device;
Detecting means for detecting a specific object from the video;
Associating means for associating the input video with the information of the detected specific object;
Setting means for setting a recognition rule using information of the detected specific object;
In accordance with the set recognition rule, a video recognition result recording unit that performs video recognition processing on a video associated with information on a specific object used when setting the recognition rule, and records a video recognition result;
A recording apparatus comprising:
前記記録装置は、身体装着型のデバイスであることを特徴とする請求項1に記載の記録装置。   The recording apparatus according to claim 1, wherein the recording apparatus is a body-mounted device. 前記検出手段は、特定物体に貼られた電子タグを電子タグリーダーで読み取ることによって前記特定物体を検出することを特徴とする請求項1又は2に記載の記録装置。   The recording apparatus according to claim 1, wherein the detection unit detects the specific object by reading an electronic tag attached to the specific object with an electronic tag reader. 前記設定手段は、前記検出手段で検出された特定物体の情報に応じて、鏡像を認識する認識ルール、体温を認識する認識ルール、薬の服用を認識する認識ルールの何れかを設定することを特徴とする請求項1乃至3何れか1項に記載の記録装置。   The setting means sets any one of a recognition rule for recognizing a mirror image, a recognition rule for recognizing body temperature, and a recognition rule for recognizing medication taking according to information on a specific object detected by the detection means. The recording apparatus according to claim 1, wherein the recording apparatus is a recording apparatus. 撮影装置と、サーバ装置と、を含む記録システムであって、
前記撮影装置は、
映像を撮影する撮影手段と、
前記映像から特定物体を検出する検出手段と、
前記サーバ装置に、前記撮影された映像と、前記検出された特定物体の情報と、を送信する送信手段と
を有し、
前記サーバ装置は、
前記撮影装置より、前記送信された映像と、前記送信された特定物体の情報と、を受信する受信手段と、
前記受信された映像と、前記受信された特定物体の情報と、を関連付ける関連付け手段と、
前記受信された特定物体の情報を用いて認識ルールを設定する設定手段と、
前記設定された認識ルールに従って、前記認識ルールを設定する際に用いた特定物体の情報と関連付けられた映像に対する映像認識処理を行い、映像認識結果を記録する映像認識結果記録手段と、
を有することを特徴とする記録システム。
A recording system including an imaging device and a server device,
The imaging device
Photographing means for photographing images;
Detecting means for detecting a specific object from the video;
The server device includes transmission means for transmitting the captured video and the information of the detected specific object,
The server device
Receiving means for receiving the transmitted video and the transmitted information on the specific object from the imaging device;
Association means for associating the received video with the received information on the specific object;
Setting means for setting a recognition rule using the received information on the specific object;
In accordance with the set recognition rule, a video recognition result recording unit that performs video recognition processing on a video associated with information on a specific object used when setting the recognition rule, and records a video recognition result;
A recording system comprising:
前記撮影装置は、身体装着型のデバイスであることを特徴とする請求項5に記載の記録システム。   The recording system according to claim 5, wherein the photographing apparatus is a body-mounted device. 前記検出手段は、特定物体に貼られた電子タグを電子タグリーダーで読み取ることによって前記特定物体を検出することを特徴とする請求項5又は6に記載の記録システム。   The recording system according to claim 5 or 6, wherein the detection unit detects the specific object by reading an electronic tag attached to the specific object with an electronic tag reader. 前記設定手段は、前記検出手段で検出された特定物体の情報に応じて、鏡像を認識する認識ルール、体温を認識する認識ルール、薬の服用を認識する認識ルールの何れかを設定することを特徴とする請求項5乃至7何れか1項に記載の記録システム。   The setting means sets any one of a recognition rule for recognizing a mirror image, a recognition rule for recognizing body temperature, and a recognition rule for recognizing medication taking according to information on a specific object detected by the detection means. The recording system according to claim 5, wherein the recording system is a recording system. 前記撮影装置と前記サーバ装置とは、無線通信を介して、送受信を行うことを特徴とする請求項5乃至8の何れか1項に記載の記録システム。   The recording system according to claim 5, wherein the photographing apparatus and the server apparatus perform transmission / reception via wireless communication. 入力手段が、撮影装置で撮影した映像を入力する入力ステップと、
検出手段が、前記映像から特定物体を検出する検出ステップと、
関連付け手段が、前記入力された映像と、前記検出された特定物体の情報と、を関連付ける関連付けステップと、
設定手段が、前記検出された特定物体の情報を用いて認識ルールを設定する設定ステップと、
映像認識結果記録手段が、前記設定された認識ルールに従って、前記認識ルールを設定する際に用いた特定物体の情報と関連付けられた映像に対する映像認識処理を行い、映像認識結果を記録する映像認識結果記録ステップと、
を含むことを特徴とする記録方法。
An input step in which the input means inputs the video imaged by the imaging device;
A detecting step for detecting a specific object from the video;
An associating unit associating the input video with the information on the detected specific object;
A setting step in which a setting means sets a recognition rule using information on the detected specific object;
A video recognition result in which video recognition result recording means performs video recognition processing on the video associated with the information of the specific object used when setting the recognition rule according to the set recognition rule, and records the video recognition result Recording step;
A recording method comprising:
撮影装置の撮影手段が、映像を撮影する撮影ステップと、
前記撮影装置の検出手段が、前記映像から特定物体を検出する検出ステップと、
前記撮影装置の送信手段が、サーバ装置に、前記撮影された映像と、前記検出された特定物体の情報と、を送信する送信ステップと、
前記サーバ装置の受信手段が、前記撮影装置より、前記送信された映像と、前記送信された特定物体の情報と、を受信する受信ステップと、
前記サーバ装置の記録手段が、前記受信された映像と、前記受信された特定物体の情報と、を関連付ける関連付けステップと、
前記サーバ装置の設定手段が、前記受信された特定物体の情報を用いて認識ルールを設定する設定ステップと、
前記サーバ装置の映像認識結果記録手段が、前記設定された認識ルールに従って、前記認識ルールを設定する際に用いた特定物体の情報と関連付けられた映像に対する映像認識処理を行い、映像認識結果を記録する映像認識結果記録ステップと
を含むことを特徴とする記録方法。
A photographing step in which the photographing means of the photographing device photographs a video;
A detecting step of detecting a specific object from the video by the detecting means of the photographing apparatus;
A transmission step in which the transmission unit of the imaging device transmits the captured video and the information of the detected specific object to a server device;
A receiving step in which the receiving unit of the server device receives the transmitted video and the transmitted information on the specific object from the imaging device;
An association step in which the recording means of the server device associates the received video with the received information on the specific object;
A setting step in which the setting unit of the server device sets a recognition rule using the received information on the specific object;
The video recognition result recording means of the server device performs video recognition processing on the video associated with the information on the specific object used when setting the recognition rule according to the set recognition rule, and records the video recognition result And a video recognition result recording step.
請求項10又は11に記載の記録方法の各ステップを、コンピュータに実行させるためのプログラム。   The program for making a computer perform each step of the recording method of Claim 10 or 11.
JP2012009297A 2012-01-19 2012-01-19 Recording device, recording system and recording method Pending JP2013150171A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012009297A JP2013150171A (en) 2012-01-19 2012-01-19 Recording device, recording system and recording method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012009297A JP2013150171A (en) 2012-01-19 2012-01-19 Recording device, recording system and recording method

Publications (1)

Publication Number Publication Date
JP2013150171A true JP2013150171A (en) 2013-08-01

Family

ID=49047270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012009297A Pending JP2013150171A (en) 2012-01-19 2012-01-19 Recording device, recording system and recording method

Country Status (1)

Country Link
JP (1) JP2013150171A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018163552A (en) * 2017-03-27 2018-10-18 日本電気株式会社 Face authentication device, face authentication method, and face authentication program
CN113469305A (en) * 2021-06-11 2021-10-01 杭州华量软件有限公司 Method and system for drawing movement track of facial shield

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018163552A (en) * 2017-03-27 2018-10-18 日本電気株式会社 Face authentication device, face authentication method, and face authentication program
US10878222B2 (en) 2017-03-27 2020-12-29 Nec Corporation Face authentication device having database with small storage capacity
US11176356B2 (en) 2017-03-27 2021-11-16 Nec Corporation Face authentication device having database with small storage capacity
US11321552B2 (en) 2017-03-27 2022-05-03 Nec Corporation Face authentication device having database with small storage capacity
US11380130B2 (en) 2017-03-27 2022-07-05 Nec Corporation Face authentication device having database with small storage capacity
CN113469305A (en) * 2021-06-11 2021-10-01 杭州华量软件有限公司 Method and system for drawing movement track of facial shield
CN113469305B (en) * 2021-06-11 2024-03-22 杭州华量软件有限公司 Method and system for drawing moving track of face shielding

Similar Documents

Publication Publication Date Title
US10900943B2 (en) Method, apparatus and system for food intake and physical activity assessment
KR101569268B1 (en) Acquisition System and Method of Iris image for iris recognition by using facial component distance
CN105612533B (en) Liveness detection method, liveness detection system, and computer program product
CN105184246B (en) Living body detection method and living body detection system
US8644614B2 (en) Image processing apparatus, image processing method, and storage medium
WO2017181769A1 (en) Facial recognition method, apparatus and system, device, and storage medium
Zayed Human activity recognition for surveillance applications
JP6800820B2 (en) People flow analysis method, people flow analyzer, and people flow analysis system
US11695903B2 (en) Method for detecting event of object by using wearable device and management server operating same
CN105224924A (en) Living body faces recognition methods and device
US11647167B2 (en) Wearable device for performing detection of events by using camera module and wireless communication device
JP7113013B2 (en) Subject head tracking
CN109214301A (en) Control method and device based on recognition of face and gesture identification
KR20200138921A (en) Apparatus and method for identifying pharmaceutical
JP2020194493A (en) Monitoring system for nursing-care apparatus or hospital and monitoring method
JP2003263641A (en) Mobile analyzer
CN106303401B (en) Video monitoring method, equipment and system thereof and video monitoring method based on shopping mall
JP2013046135A (en) Image providing apparatus, image utilization apparatus, image providing system, image providing method, and computer program
WO2015131571A1 (en) Method and terminal for implementing image sequencing
JP2013150171A (en) Recording device, recording system and recording method
JP2004127285A (en) Image recognition device, image recognition processing method, and image recognition program
CN115210754A (en) Accessibility determination device, accessibility determination method, and program
JP2009043176A (en) vending machine
KR20200090055A (en) Apparatus for collecting beauty information, and system for providing beauty care service including the same
US20250087021A1 (en) Wearable device and behavior evaluation system