JP2013150171A - Recording device, recording system and recording method - Google Patents
Recording device, recording system and recording method Download PDFInfo
- Publication number
- JP2013150171A JP2013150171A JP2012009297A JP2012009297A JP2013150171A JP 2013150171 A JP2013150171 A JP 2013150171A JP 2012009297 A JP2012009297 A JP 2012009297A JP 2012009297 A JP2012009297 A JP 2012009297A JP 2013150171 A JP2013150171 A JP 2013150171A
- Authority
- JP
- Japan
- Prior art keywords
- video
- specific object
- recording
- information
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
【課題】人の行動内容を高い精度で記録することを目的とする。
【解決手段】撮影装置で撮影した映像を入力し、映像から特定物体を検出し、撮影された映像と、検出された特定物体の情報と、を関連付け、検出された特定物体の情報を用いて認識ルールを設定し、設定された認識ルールに従って、前記認識ルールを設定する際に用いた特定物体の情報と関連付けられた映像に対して映像認識処理を行い、映像認識結果を記録する。
【選択図】図5An object of the present invention is to record the details of human behavior with high accuracy.
An image captured by an imaging device is input, a specific object is detected from the image, the captured image is associated with information on the detected specific object, and the detected information on the specific object is used. A recognition rule is set, and according to the set recognition rule, a video recognition process is performed on the video associated with the information on the specific object used when setting the recognition rule, and the video recognition result is recorded.
[Selection] Figure 5
Description
本発明は、記録装置、記録システム及び記録方法に関する。 The present invention relates to a recording apparatus, a recording system, and a recording method.
人々が生活する中での行動の記録を取りたい場合、家計簿や日記等が利用されている。こうした記録はコンピュータ上で取られる場合においても記憶や発行されたレシートに従って手動で行われているのが普通であり、この手間が多くの人々が行動を記録を取ろうとする上での障害になっている。 A household account book, diary, etc. are used to record the behavior of people during their lives. Even when these records are taken on a computer, they are usually made manually according to the stored and issued receipts, which is an obstacle to many people trying to record their actions. ing.
こうした障害を取り除くため、非特許文献1に記されるシステムが研究されている。このシステムは、頭部にカメラを装着して装着者の手元の行動を撮影し、撮影された映像を解析して装着者の行動を記録する、というものである。 In order to remove such obstacles, a system described in Non-Patent Document 1 has been studied. In this system, a camera is attached to the head, the behavior of the wearer is photographed, the photographed image is analyzed, and the behavior of the wearer is recorded.
非特許文献1に示されるシステムでは、装着者の行動を記録するために、常時カメラを働かせて撮影を行う必要がある。また、撮影した映像のすべてを解析して、どのような行動がなされたかの認識を行う必要がある。 In the system shown in Non-Patent Document 1, it is necessary to always perform shooting by operating a camera in order to record the behavior of the wearer. In addition, it is necessary to analyze all the captured images and recognize what actions have been taken.
しかしながら、常時撮影を行ってしまうと、撮影を行うカメラのバッテリーの消耗が激しくなってしまう。また、装着者がどのような文脈にいるのかがシステムにはわからないため、撮影された装着者の行動を全てのありうる行動の何れかに分類しなければならず、また、行動の切れ目がどこにあるかも認識しなければならない。また、撮影される物も、世の中のありとあらゆる物体の何れかに分類することが必要である。このことは、装着者の行動の分類の難度を高め、分類の精度を落としてしまう。 However, if photographing is always performed, the battery of the camera that performs photographing becomes extremely exhausted. In addition, since the system does not know what context the wearer is in, the action of the photographed wearer must be classified as one of all possible actions, and where the break of action is You must also recognize it. In addition, it is necessary to classify an object to be photographed as one of all kinds of objects in the world. This increases the difficulty of classifying the wearer's behavior and lowers the accuracy of the classification.
本発明はこのような問題点に鑑みなされたもので、人の行動内容を高い精度で記録することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to record human action content with high accuracy.
上記目的は、以下の装置若しくは方法によって達成される。 The above object is achieved by the following apparatus or method.
即ち、
撮影装置で撮影した映像を入力する入力手段と、
前記映像から特定物体を検出する検出手段と、
前記入力された映像と、前記検出された特定物体の情報と、を関連付ける関連付け手段と、
前記検出された特定物体の情報を用いて認識ルールを設定する設定手段と、
前記設定された認識ルールに従って、前記認識ルールを設定する際に用いた特定物体の情報と関連付けられた映像に対する映像認識処理を行い、映像認識結果を記録する映像認識結果記録手段と、
を有することを特徴とする記録装置。
That is,
An input means for inputting video shot by the photographing device;
Detecting means for detecting a specific object from the video;
Associating means for associating the input video with the information of the detected specific object;
Setting means for setting a recognition rule using information of the detected specific object;
In accordance with the set recognition rule, a video recognition result recording unit that performs video recognition processing on a video associated with information on a specific object used when setting the recognition rule, and records a video recognition result;
A recording apparatus comprising:
若しくは、入力手段が、撮影装置で撮影した映像を入力する入力ステップと、
検出手段が、前記映像から特定物体を検出する検出ステップと、
関連付け手段が、前記入力された映像と、前記検出された特定物体の情報と、を関連付ける関連付けステップと、
設定手段が、前記検出された特定物体の情報を用いて認識ルールを設定する設定ステップと、
映像認識結果記録手段が、前記設定された認識ルールに従って、前記認識ルールを設定する際に用いた特定物体の情報と関連付けられた映像に対する映像認識処理を行い、映像認識結果を記録する映像認識結果記録ステップと、
を含むことを特徴とする記録方法。
Or an input step in which the input means inputs the video imaged by the imaging device;
A detecting step for detecting a specific object from the video;
An associating unit associating the input video with the information on the detected specific object;
A setting step in which a setting means sets a recognition rule using information on the detected specific object;
A video recognition result in which video recognition result recording means performs video recognition processing on the video associated with the information of the specific object used when setting the recognition rule according to the set recognition rule, and records the video recognition result Recording step;
A recording method comprising:
また、上記目的は、以下のシステム若しくは方法によって達成される。 Moreover, the said objective is achieved by the following systems or methods.
即ち、撮影装置と、サーバ装置と、を含む記録システムであって、
前記撮影装置は、
映像を撮影する撮影手段と、
前記映像から特定物体を検出する検出手段と、
前記サーバ装置に、前記撮影された映像と、前記検出された特定物体の情報と、を送信する送信手段と
を有し、
前記サーバ装置は、
前記撮影装置より、前記送信された映像と、前記送信された特定物体の情報と、を受信する受信手段と、
前記受信された映像と、前記受信された特定物体の情報と、を関連付ける関連付け手段と、
前記受信された特定物体の情報を用いて認識ルールを設定する設定手段と、
前記設定された認識ルールに従って、前記認識ルールを設定する際に用いた特定物体の情報と関連付けられた映像に対する映像認識処理を行い、映像認識結果を記録する映像認識結果記録手段と、
を有することを特徴とする記録システム。
That is, a recording system including a photographing device and a server device,
The imaging device
Photographing means for photographing images;
Detecting means for detecting a specific object from the video;
The server device includes transmission means for transmitting the captured video and the information of the detected specific object,
The server device
Receiving means for receiving the transmitted video and the transmitted information on the specific object from the imaging device;
Association means for associating the received video with the received information on the specific object;
Setting means for setting a recognition rule using the received information on the specific object;
In accordance with the set recognition rule, a video recognition result recording unit that performs video recognition processing on a video associated with information on a specific object used when setting the recognition rule, and records a video recognition result;
A recording system comprising:
若しくは、撮影装置の撮影手段が、映像を撮影する撮影ステップと、
前記撮影装置の検出手段が、前記映像から特定物体を検出する検出ステップと、
前記撮影装置の送信手段が、サーバ装置に、前記撮影された映像と、前記検出された特定物体の情報と、を送信する送信ステップと、
前記サーバ装置の受信手段が、前記撮影装置より、前記送信された映像と、前記送信された特定物体の情報と、を受信する受信ステップと、
前記サーバ装置の記録手段が、前記受信された映像と、前記受信された特定物体の情報と、を関連付ける関連付けステップと、
前記サーバ装置の設定手段が、前記受信された特定物体の情報を用いて認識ルールを設定する設定ステップと、
前記サーバ装置の映像認識結果記録手段が、前記設定された認識ルールに従って、前記認識ルールを設定する際に用いた特定物体の情報と関連付けられた映像に対する映像認識処理を行い、映像認識結果を記録する映像認識結果記録ステップと
を含むことを特徴とする記録方法。
Alternatively, a photographing step in which the photographing means of the photographing device photographs a video,
A detecting step of detecting a specific object from the video by the detecting means of the photographing apparatus;
A transmission step in which the transmission unit of the imaging device transmits the captured video and the information of the detected specific object to a server device;
A receiving step in which the receiving unit of the server device receives the transmitted video and the transmitted information on the specific object from the imaging device;
An association step in which the recording means of the server device associates the received video with the received information on the specific object;
A setting step in which the setting unit of the server device sets a recognition rule using the received information on the specific object;
The video recognition result recording means of the server device performs video recognition processing on the video associated with the information on the specific object used when setting the recognition rule according to the set recognition rule, and records the video recognition result And a video recognition result recording step.
本発明によれば、人の行動内容を高い精度で記録することができる。 According to the present invention, it is possible to record a person's action content with high accuracy.
以下、本発明の実施形態について図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<実施形態1>
本実施形態による行動の記録システムは、撮像部を持ち、記録対象者の行動を映像で記録する。また、生活の中で記録対象者が用いる特定の物体を何らかの手段で検出し、撮影された映像と関連付けて記録する。更に、撮影した映像を分析して行動の記録を作成する際に、検出した物体に応じて異なる認識ルールを用いて映像認識を行い、映像認識結果を行動の記録としてメモリ等にデータベースとして記録する。
<Embodiment 1>
The action recording system according to the present embodiment has an imaging unit and records the action of the person to be recorded as a video. In addition, a specific object used by the person to be recorded in life is detected by some means, and recorded in association with the captured video. Furthermore, when creating a behavior record by analyzing the captured video, video recognition is performed using different recognition rules depending on the detected object, and the video recognition result is recorded as a database in a memory or the like as a behavior record. .
図1は、行動の記録システムにおいて、映像を記録する流れを概略的に示した図である。 FIG. 1 is a diagram schematically showing a flow of recording video in an action recording system.
S901では、行動記録が開始されると、映像を撮影して記録が行われる(入力)。 In S901, when action recording is started, video is taken and recorded (input).
S902では、何らかの手段で特定物体が検出される。 In S902, a specific object is detected by some means.
S903では、撮影映像と検出された特定物体の情報が関連付けてメモリ等に記録される。 In S903, the captured image and the information of the detected specific object are associated and recorded in a memory or the like.
図2は、行動の記録システムにおいて、映像認識を行い、行動を記録する流れを概略的に示した図である。 FIG. 2 is a diagram schematically showing a flow of performing action recognition and recording actions in the action recording system.
S101では、映像認識が開始されると、検出された特定物体の情報に応じて映像の認識ルールが設定される。 In S101, when video recognition is started, a video recognition rule is set according to the information on the detected specific object.
S102では、設定された映像の認識ルールに従った、前記特定物体の情報が関連付けられた撮影映像に対する映像認識処理が行われる。 In S102, a video recognition process is performed on the captured video associated with the information on the specific object according to the set video recognition rule.
S103では、映像認識結果がデータベースとしてメモリ等に記録される(映像認識結果記録)。 In S103, the video recognition result is recorded in a memory or the like as a database (video recognition result recording).
以下、処理等をより具体的に説明する。本実施形態では、健康管理のために用いられるカメラ付きの身体装着型デバイスについて記述する。この装着型デバイスを用いることで、利用者は、日頃の生活の中で健康管理に関わる、飲薬等といった行動を、メモを取ることなしに自動的に記録していくことができる。 Hereinafter, the processing and the like will be described more specifically. In the present embodiment, a body-mounted device with a camera used for health care is described. By using this wearable device, the user can automatically record behaviors related to health management, such as medication, in daily life without taking notes.
図3は、本実施形態における装着型デバイスの外観を示したものである。図3では、ペンダント型のデバイス701や利用者は耳かけ型のデバイス702等を装着する。ペンダント型のデバイス701と耳かけ型のデバイス702との形態は異なるが、何れも同じ機能を持ったデバイスであり、同様の動作を行う。なお、デバイスの形態はこれに限定されるものではなく、撮像部を備え、利用者の前方の空間が常に撮像部の視界に入り、利用者と共に移動されるものであればどのような形態でもよい。以下では、利用者がペンダント型の装着型デバイス701を装着したものとして説明を行う。
FIG. 3 shows the appearance of the wearable device in the present embodiment. In FIG. 3, the
図4は、本実施形態において、利用者が生活の中で記録したい行動に関連する物体を示した図である。図4における鏡801は、利用者が日常的に使用しているものである。鏡801には、ユニークなIDを持ったRFIDタグ811が予め付けられている。802は体温計であり、利用者が体温を測りたい際に利用されるものである。体温計802には、ユニークなIDを持ったRFIDタグ812が予め付けられている。803は薬瓶であり、利用者が常用している薬が入れられた半透明の入れ物である。薬瓶803には、ユニークなIDを持ったRFIDタグ813が予め付けられている。
FIG. 4 is a diagram showing objects related to actions that the user wants to record in his / her life in the present embodiment. The
本実施形態で示される装着型デバイス701は、図4に示されている、3つの物体に関連した行為を記録する。即ち、装着型デバイス701の利用者が鏡801を利用したとき、鏡に映る利用者の顔画像と、その日時とを記録する。この記録を取ることで、毎日の利用者の顔画像を継続的に記録することができ、装着型デバイス701の外部の健康管理システムでその画像を利用することができる。同様に、利用者が体温を測った場合にその体温と日時とを、薬を摂取した場合にその日時を、記録して外部の健康管理システムで利用することができる。
The
なお、本実施形態において特定物体検出部101は、特定物体に添付されたRFIDタグと装着型デバイス701に内蔵されたRFIDタグリーダーとから構成されるものとした。しかしこれは特定の物体を非接触で検出できる構成であればどのようなもので構成されてもよく、例えば装着型デバイス701に内蔵されたカメラが特定物体に添付された二次元コードを撮影し、そのIDを取得するという構成であってもよい。
In the present embodiment, the specific
図5は、本実施形態における装着型デバイス701の構成を示した図である。以下、図面に従って、本実施形態における装着型デバイス701の構成について説明する。
FIG. 5 is a diagram showing the configuration of the
特定物体検出部101は、利用者が利用する1つ以上の特定の物体を検出する。本実施形態において、特定の物体とは図4に示された鏡801、体温計802及び薬瓶803である。本実施形態において特定物体検出部101は、鏡、体温計及び薬瓶にそれぞれ一つずつ貼りつけられたRFIDタグと、装着型デバイス701に内蔵されたRFIDタグリーダーによって構成される。RFIDタグは、無電源で動作し、RFIDタグリーダーから固有のID情報が読み出される。電子タグリーダーの読み取り範囲は装着型デバイス701の前面方向に設定され、読み取り距離は60cm程度に設定されている。この設定により、装着型デバイス701を付けた利用者が特定物体を手にする場合には、その特定物体に付けられた電子タグのID情報が読み出される。そのため、装着型デバイス701は内蔵する撮像部の視界にある特定物体の種類を特定することができる。
The specific
なお、本実施形態において、特定物体検出部101は、特定物体に添付されたRFIDタグと装着型デバイス701に内蔵されたRFIDタグリーダーとから構成されるものとした。しかしこれは特定の物体を非接触で検出できる構成であればどのようなもので構成されてもよく、例えば装着型デバイス701に内蔵されたカメラが特定物体に添付された二次元コードを撮影し、そのIDを取得するという構成であってもよい。
In the present embodiment, the specific
撮像部102は、装着型デバイス701に内蔵されたカメラモジュールから構成される。撮像部102は動画を撮影することができる。撮像部102の撮影範囲は装着型デバイス701に内蔵されたRFIDタグリーダーの読み出し範囲と同程度の角度に調整されている。
The
記録部103は、特定物体検出部101の検出した特定物体ID情報と、撮像部102の撮影した動画とを関連付け記録する。記録部103は、フラッシュメモリ等で構成される。
The
映像認識部104は、記録部103に格納されている動画の内容を映像認識し、認識結果をメモリ等に記憶されているデータベース106に格納する。映像認識部104は、装着型デバイス701に内蔵されたマイクロプロセッサがプログラムを実行することによって実現される。
The
認識ルール設定部105は、映像認識部104が動画を認識してメモリ等に記憶されているデータベース106に認識結果を格納する際の、認識ルールを設定する。認識ルール設定部105は、装着型デバイス701に内蔵されたマイクロプロセッサがプログラムを実行することによって実現される。
The recognition
データベース106は、映像認識部104で認識された結果である。データベース106は、フラッシュメモリ等のメモリに記憶されるが、デジタル情報を記録できる媒体であればどのようなもので構成されてもよく、例えばハードディスク等のメモリに記憶されてもよい。
The
図6は、本実施形態において、装着型デバイス701がどのように撮影を行うかの手順を記したフローチャートである。図6に記した手順は、装着型デバイス701に内蔵されたコントロール基盤と、基盤上のマイクロプロセッサがプログラムを実行することによって実現される。以下、図6を参照しながら、装着型デバイス701が撮影を行う手順について説明する。
FIG. 6 is a flowchart showing a procedure of how the
S201では、装着型デバイス701の電源が入れられると、特定物体検出部101が、特定物体に添付されたタグを認識しているかどうか判定される。タグが認識されていればS202に、されていなければS204に進む。
In S201, when the
S202では、装着型デバイス701が撮影中であるかどうかが判定される。既に撮影中である場合にはS201に、そうでなければS203に進む。
In S202, it is determined whether the
S203では、撮像部102の動画撮影が始められ、記録部103に撮影された動画が録画されていく。この際、記録される動画と対にして、検出されているタグの情報、またその時点での日時の情報も記録部103に記録される。撮影が開始されると、S201に進む。
In S203, moving image shooting by the
S204では、装着型デバイス701が撮影中であるかどうかが判定される。撮影中である場合にはS205に、そうでなければS201に進む。
In S204, it is determined whether the
S205では、撮影開始時点から30秒が経過しているかどうかが判定される。この判定は、タグが読み取り範囲の限界にある場合に、細切れの映像が多数撮影されることがないように行われる。30秒が経過していればS206に、経過していなければS201に進む。 In S205, it is determined whether or not 30 seconds have elapsed since the photographing start time. This determination is performed so that a large number of sliced images are not captured when the tag is at the limit of the reading range. If 30 seconds have elapsed, the process proceeds to S206, and if not, the process proceeds to S201.
S206では、撮影が中止される。 In S206, shooting is stopped.
以上、図6のフローチャートに示される手順を実行することで、利用者の近辺に特定物体がある場合にのみ撮影を行う装着型デバイス701を実現することができ、したがって、利用者が特定物体を手に取って利用している際に撮影を行うことが可能となる。
As described above, by executing the procedure shown in the flowchart of FIG. 6, it is possible to realize the
図7は、本実施形態において、装着型デバイス701がどのように撮影された映像の認識を行うかの手順を記したフローチャートである。図7に記した手順は、装着型デバイス701に内蔵されたマイクロプロセッサがプログラムを実行することによって実現される。以下、図7を参照しながら、装着型デバイス701が映像の認識を行う手順について説明する。
FIG. 7 is a flowchart showing a procedure of how the
S301では、装着型デバイス701の電源が入れられると、映像認識部104が、記録部103に格納されている動画のうち、最初に撮影され、なお、かつ、まだ映像認識が終わっていない動画を取りだす。また、認識ルール設定部105が、記録部103から動画と対にして記録されたタグの情報を取りだす。S301において、映像認識がなされていない動画が存在しない場合は、新たな動画が記録されるまでS301で待機される。
In S <b> 301, when the
S302では、認識ルール設定部105が、タグの情報を使って、動画が撮影された際にどの特定物体が検出されていたのかを判定する。タグ情報が、鏡801に添付されたタグ情報と一致するのであればS303に、体温計802に添付されたタグ情報と一致するのであればS304に、薬瓶803に添付されたタグ情報と一致するのであればS305に進む。
In S302, the recognition
S303では、鏡像を記録する。 In S303, a mirror image is recorded.
図8は、鏡像の記録の処理の流れを示したフローチャートである。図8に従い、鏡像の記録の処理の流れに付いて説明する。鏡像の記録では、装着型デバイス701の利用者が鏡を利用しているときの、鏡に映る利用者の顔画像を抜き出す処理を行う。
FIG. 8 is a flowchart showing a flow of mirror image recording processing. The flow of the mirror image recording process will be described with reference to FIG. In recording a mirror image, a process of extracting a face image of the user reflected in the mirror when the user of the
S401では、録画されている動画の各フレームについて、顔認識処理が行われる。また、顔が検出されたフレームについて、顔が大きく映っていればいるほど高くなるスコアが付けられる。この顔認識処理は画像中から顔を検出することができる方法であればどのような方法でなされてもよいが、例えば非特許文献2に示されるViola−Jones 顔検出器を用いて実現してもよい。 In S401, face recognition processing is performed for each frame of the recorded moving image. In addition, for a frame in which a face is detected, a higher score is assigned as the face is larger. This face recognition process may be performed by any method that can detect a face from an image. For example, the face recognition process is realized by using a Viola-Jones face detector shown in Non-Patent Document 2. Also good.
S402では、顔が検出されたフレームについて、顔が正面を向いていればいるほど高くなるスコアが付けられる。この処理は顔の向きを検出できる方法であればどのような方法でなされてもよいが、例えば顔の向きに応じた顔検出器を予め複数用意し、適用することで実現することができる。 In S402, a higher score is assigned to the frame in which the face is detected as the face faces the front. This process may be performed by any method as long as it can detect the orientation of the face. For example, a plurality of face detectors corresponding to the orientation of the face are prepared and applied in advance.
S403では、S401及びS402で算出したスコアの合計を比較し、このスコアが最大となるフレームが選び出される。この選び出したフレームから、顔が含まれる矩形で画像が切り出される。この切り出した顔画像と、顔画像が撮影された時間と、は対にしてデータベース106に記録される。
In S403, the sum of the scores calculated in S401 and S402 is compared, and the frame having the maximum score is selected. From the selected frame, an image is cut out with a rectangle including a face. The cut face image and the time when the face image was taken are recorded in the
以上の手順により、映像認識部104が鏡に映る利用者の顔画像を切り出し、撮影された日時と共にデータベース106に記録される。なお、本実施形態では、顔検出器によって利用者の顔画像の切り出しを行うものとしたが、その他の処理により顔画像の切り出しを行うものとしてよい。例えば、鏡の輪郭領域をエッジ検出等の手段により検出し、鏡領域内でのみ顔検出器を働かせるものとしてよい。また、顔検出後に顔認証による個人の特定手順を加えて、装着型デバイス701の利用者の顔が映っていると確認される時点でのみ顔画像の切り出しを行うものとしてよい。
Through the above procedure, the
S304では、体温を記録する。 In S304, the body temperature is recorded.
図9は、体温の記録の処理の流れを示したフローチャートである。図9に従い、体温の記録の処理の流れに付いて説明する。体温の記録では、装着型デバイス701の利用者が体温計を利用した後の、測定された体温情報を記録する処理を行う。
FIG. 9 is a flowchart showing the flow of the body temperature recording process. The flow of the body temperature recording process will be described with reference to FIG. In the recording of the body temperature, the user of the
S501では、録画された映像の撮影シーケンスの最後のフレームから、体温計の検出処理が行われる。この処理は体温計を検出できる方法であればどのような方法でなされてもよく、例えば非特許文献1に示されるような、予め与えられた体温計の3Dモデルを用いたオブジェクト検出及びトラッキング手法によって実現することができる。本実施形態では、予めタグ情報によって画面内に体温計が映っている可能性が高いということがわかっているため、体温計の3Dモデルのみを用いてオブジェクト検出及びトラッキングを行えばよい。体温計が検出されたフレームが見つかった場合、S502に進む。 In S501, the thermometer detection process is performed from the last frame of the recorded sequence of the recorded video. This process may be performed by any method that can detect a thermometer. For example, as shown in Non-Patent Document 1, it is realized by an object detection and tracking method using a 3D model of a thermometer provided in advance. can do. In the present embodiment, it is known in advance that there is a high possibility that the thermometer is reflected in the screen based on the tag information. Therefore, the object detection and tracking may be performed using only the 3D model of the thermometer. When the frame in which the thermometer is detected is found, the process proceeds to S502.
S502では、画像中の検出された体温計の領域内に、温度表示部の領域が検出されるかどうかが判定される。この処理は温度表示部を検出できる方法であればどのような方法でなされてもよく、例えばS501で用いられる手法と同じ手法で実現することができる。温度表示部が検出された場合、S503に進む。温度表示部が利用者から見て反対側にある等して、温度表示部が検出されない場合、S501に進む。 In S502, it is determined whether or not the region of the temperature display unit is detected within the region of the detected thermometer in the image. This process may be performed by any method as long as the temperature display unit can be detected. For example, the process can be realized by the same method as that used in S501. When the temperature display unit is detected, the process proceeds to S503. If the temperature display unit is not detected because the temperature display unit is on the opposite side as viewed from the user, the process proceeds to S501.
S503では、画像中の検出された温度表示部の領域内の、体温表示の読み取りが行われる。この読み取りはOCR(Optical Character Recognition)技術によって行われる。例えばS501で3Dモデルを用いたオブジェクト検出及びトラッキングを行う場合には、カメラに対する体温計の相対的な三次元位置・姿勢が明らかになっている。そのため、その情報を生かして体温表示領域の画像に変換処理を適用することで、OCRの精度をより高めることができる。OCRの結果、体温表示が読み取れた場合、読み取った体温情報とその時点での時間とが対になってデータベース106に記録され、体温の記録の処理は終了する。体温表示が読みとれなかった場合には、S501に進む。
In step S503, the body temperature display in the detected temperature display area in the image is read. This reading is performed by an OCR (Optical Character Recognition) technique. For example, when performing object detection and tracking using a 3D model in S501, the relative three-dimensional position / posture of the thermometer with respect to the camera has been clarified. Therefore, the accuracy of OCR can be further improved by applying the conversion process to the image of the body temperature display region using the information. When the body temperature display is read as a result of the OCR, the body temperature information thus read and the time at that time are paired and recorded in the
以上の手順により、映像認識部104が体温計の体温表示を読み取り、撮影された日時と共にデータベース106に記録される。
Through the above procedure, the
S305は、服用を記録する。 In S305, the dose is recorded.
図10は、服用の記録の処理の流れを示したフローチャートである。以下、図10に従い、服用の記録の処理の流れに付いて説明する。服用の記録では、装着型デバイス701の利用者が薬瓶内の薬を服用した時間の記録、及び薬瓶中に残されている薬の量を記録する処理を行う。
FIG. 10 is a flowchart showing the flow of processing for taking a dose. In the following, the flow of processing for taking a dose will be described with reference to FIG. In the medication recording, a process of recording the time when the user of the
S601では、録画された映像の撮影シーケンスの最後のフレームから、画面に対して直立している薬瓶の検出処理が行われる。直立した薬瓶に限定して検出処理を行うのは、後述のS602の処理において薬の残量を把握しやすくするためである。この処理は薬瓶を検出できる方法であればどのような方法でなされてもよく、例えば非特許文献1に示されるような、予め与えられた薬瓶の3Dモデルを用いたオブジェクト検出及びトラッキング手法によって実現することができる。本実施形態では、予めタグ情報によって画面内に薬瓶が映っている可能性が高いということがわかっているため、薬瓶の3Dモデルのみを用いてオブジェクト検出及びトラッキングを行えばよい。直立している薬瓶が検出されたフレームが見つかった場合、S602に進む。 In S601, a detection process of a medicine bottle standing upright with respect to the screen is performed from the last frame of the recording sequence of the recorded video. The reason why the detection process is limited to the upright medicine bottle is to make it easier to grasp the remaining amount of medicine in the process of S602 described later. This process may be performed by any method that can detect a medicine bottle. For example, as shown in Non-Patent Document 1, an object detection and tracking method using a 3D model of a medicine bottle given in advance. Can be realized. In this embodiment, since it is known in advance that there is a high possibility that a medicine bottle appears in the screen based on tag information, object detection and tracking may be performed using only the 3D model of the medicine bottle. If a frame in which an upright medicine bottle is detected is found, the process proceeds to S602.
S602では、薬瓶中の残量の認識処理が行われる。この処理は薬瓶中の薬の残量を検出できる方法であればどのような方法でなされてもよく、例えば、薬の色を用いて画像中の薬瓶の領域内で色検出処理を行い、薬瓶内に占める薬の色の領域の割合を求める方法で残量を把握することができる。この際、薬瓶が直立しているため、画像の下方向が重力方向であるということを考慮し、薬瓶の一番下に接続している領域を薬の部分として判断することができる。薬の残量が検出されたら、読み取った薬の残量とその時点での時間とが対になってデータベース106に記録され、服用の記録の処理は終了する。
In S602, a process for recognizing the remaining amount in the medicine bottle is performed. This process may be performed by any method that can detect the remaining amount of the medicine in the medicine bottle. For example, the color detection process is performed in the area of the medicine bottle in the image using the medicine color. The remaining amount can be grasped by a method of obtaining the ratio of the drug color area in the medicine bottle. At this time, since the medicine bottle stands upright, the region connected to the bottom of the medicine bottle can be determined as the medicine portion in consideration that the lower direction of the image is the direction of gravity. When the remaining amount of medicine is detected, the read remaining amount of medicine and the time at that time are paired and recorded in the
以上の手順により、映像認識部104が薬瓶中の残量を把握し、撮影された日時と共にデータベース106に記録される。
Through the above procedure, the
以上、実施形態1について説明した。本実施形態に記述された身体装着型デバイスを装着することで、日々の生活の中で、自動的に健康管理のための記録を取っていくことが可能になる。 The first embodiment has been described above. By wearing the body-mounted device described in the present embodiment, it becomes possible to automatically take a record for health management in daily life.
なお、本実施形態では、健康管理のために装着型デバイスを用いているが、この装着型デバイスの用途はこれにとどまらず、物を利用する様々な行為の記録に用いることができる。例えば、財布にRFIDタグを付け、そのRFIDタグが検出された場合に、財布に関わる行為の認識を行う認識ルールを適用することで、財布の利用履歴を自動的に記録していくことができる。また、他にも、所有する携帯電話の利用履歴を記録したり、冷蔵庫の中身を記録したり、鞄の中身を記録したり、哺乳瓶による授乳を記録したり、印鑑による押印の記録を行ったり、医療器具の利用履歴を記録したり等といったことができる。 In the present embodiment, the wearable device is used for health management. However, the wearable device is not limited to this application, and can be used for recording various actions using objects. For example, when an RFID tag is attached to a wallet and the RFID tag is detected, the usage history of the wallet can be automatically recorded by applying a recognition rule for recognizing an action related to the wallet. . In addition, record the usage history of your mobile phone, record the contents of the refrigerator, record the contents of the bag, record breastfeeding, and record the seal with a seal. Or record the usage history of the medical device.
また、本実施形態では、時間と映像認識の結果とをデータベースに記録しているが、装着型デバイスにGPS等の位置検出装置を備え、位置も合わせて記録するものとしてもよい。 In this embodiment, the time and the result of video recognition are recorded in the database. However, the wearable device may be provided with a position detection device such as GPS, and the position may be recorded together.
また、本実施形態では、全ての処理を装着型デバイス内で行っているが、認識処理等といった処理の一部を、無線ネットワークを介してサーバ側に置き、装着型デバイスから情報を送信して処理を行うものとしてもよい。そして、装着型デバイスとサーバ装置とは無線通信を介して送受信を行う様にしてもよい。図11は、そのような構成を示したブロック図である。この構成においては、装着型デバイス701に無線送信部201が追加され、撮像部102が撮影した映像及び特定物体検出部101の検出した特定物体ID情報が無線通信を介して送信される。無線送信された情報は無線受信部202を含むサーバ装置で受信される。サーバ装置は、記録部103、映像認識部104、認識ルール設定部105、データベース106を含む。この構成において、それぞれのブロックが行う処理及び処理の流れは、既述のものと同一である。
In this embodiment, all processing is performed in the wearable device. However, a part of the processing such as recognition processing is placed on the server side via the wireless network, and information is transmitted from the wearable device. It is good also as what performs a process. The wearable device and the server device may perform transmission / reception via wireless communication. FIG. 11 is a block diagram showing such a configuration. In this configuration, the
また、本実施形態では、特定物体に対応した映像認識ルールが予め定められており、また、特定物体と、特定物体が検出された際の映像認識ルールとの組み合わせも定められているものとした。しかしながらこれは可変のものとして構成されてもよく、例えば、映像認識ルールをコンピュータ上のエディタを使って作れるものとしてよい。また、特定物体と映像認識ルールとの組み合わせも、コンピュータ上のエディタを使って予め作れるものとしてよい。 In the present embodiment, the video recognition rule corresponding to the specific object is determined in advance, and the combination of the specific object and the video recognition rule when the specific object is detected is also determined. . However, this may be configured to be variable, for example, video recognition rules may be created using an editor on a computer. A combination of a specific object and a video recognition rule may be created in advance using an editor on a computer.
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
以上、上述した各実施形態によれば、人の行動内容を高い精度で記録することができる。 As mentioned above, according to each embodiment mentioned above, a person's action content can be recorded with high accuracy.
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.
101 特定物体検出部、102 撮像部、103 記録部、104 映像認識部、105 認識ルール設定部、106 データベース 101 specific object detection unit, 102 imaging unit, 103 recording unit, 104 video recognition unit, 105 recognition rule setting unit, 106 database
Claims (12)
前記映像から特定物体を検出する検出手段と、
前記入力された映像と、前記検出された特定物体の情報と、を関連付ける関連付け手段と、
前記検出された特定物体の情報を用いて認識ルールを設定する設定手段と、
前記設定された認識ルールに従って、前記認識ルールを設定する際に用いた特定物体の情報と関連付けられた映像に対する映像認識処理を行い、映像認識結果を記録する映像認識結果記録手段と、
を有することを特徴とする記録装置。 An input means for inputting video shot by the photographing device;
Detecting means for detecting a specific object from the video;
Associating means for associating the input video with the information of the detected specific object;
Setting means for setting a recognition rule using information of the detected specific object;
In accordance with the set recognition rule, a video recognition result recording unit that performs video recognition processing on a video associated with information on a specific object used when setting the recognition rule, and records a video recognition result;
A recording apparatus comprising:
前記撮影装置は、
映像を撮影する撮影手段と、
前記映像から特定物体を検出する検出手段と、
前記サーバ装置に、前記撮影された映像と、前記検出された特定物体の情報と、を送信する送信手段と
を有し、
前記サーバ装置は、
前記撮影装置より、前記送信された映像と、前記送信された特定物体の情報と、を受信する受信手段と、
前記受信された映像と、前記受信された特定物体の情報と、を関連付ける関連付け手段と、
前記受信された特定物体の情報を用いて認識ルールを設定する設定手段と、
前記設定された認識ルールに従って、前記認識ルールを設定する際に用いた特定物体の情報と関連付けられた映像に対する映像認識処理を行い、映像認識結果を記録する映像認識結果記録手段と、
を有することを特徴とする記録システム。 A recording system including an imaging device and a server device,
The imaging device
Photographing means for photographing images;
Detecting means for detecting a specific object from the video;
The server device includes transmission means for transmitting the captured video and the information of the detected specific object,
The server device
Receiving means for receiving the transmitted video and the transmitted information on the specific object from the imaging device;
Association means for associating the received video with the received information on the specific object;
Setting means for setting a recognition rule using the received information on the specific object;
In accordance with the set recognition rule, a video recognition result recording unit that performs video recognition processing on a video associated with information on a specific object used when setting the recognition rule, and records a video recognition result;
A recording system comprising:
検出手段が、前記映像から特定物体を検出する検出ステップと、
関連付け手段が、前記入力された映像と、前記検出された特定物体の情報と、を関連付ける関連付けステップと、
設定手段が、前記検出された特定物体の情報を用いて認識ルールを設定する設定ステップと、
映像認識結果記録手段が、前記設定された認識ルールに従って、前記認識ルールを設定する際に用いた特定物体の情報と関連付けられた映像に対する映像認識処理を行い、映像認識結果を記録する映像認識結果記録ステップと、
を含むことを特徴とする記録方法。 An input step in which the input means inputs the video imaged by the imaging device;
A detecting step for detecting a specific object from the video;
An associating unit associating the input video with the information on the detected specific object;
A setting step in which a setting means sets a recognition rule using information on the detected specific object;
A video recognition result in which video recognition result recording means performs video recognition processing on the video associated with the information of the specific object used when setting the recognition rule according to the set recognition rule, and records the video recognition result Recording step;
A recording method comprising:
前記撮影装置の検出手段が、前記映像から特定物体を検出する検出ステップと、
前記撮影装置の送信手段が、サーバ装置に、前記撮影された映像と、前記検出された特定物体の情報と、を送信する送信ステップと、
前記サーバ装置の受信手段が、前記撮影装置より、前記送信された映像と、前記送信された特定物体の情報と、を受信する受信ステップと、
前記サーバ装置の記録手段が、前記受信された映像と、前記受信された特定物体の情報と、を関連付ける関連付けステップと、
前記サーバ装置の設定手段が、前記受信された特定物体の情報を用いて認識ルールを設定する設定ステップと、
前記サーバ装置の映像認識結果記録手段が、前記設定された認識ルールに従って、前記認識ルールを設定する際に用いた特定物体の情報と関連付けられた映像に対する映像認識処理を行い、映像認識結果を記録する映像認識結果記録ステップと
を含むことを特徴とする記録方法。 A photographing step in which the photographing means of the photographing device photographs a video;
A detecting step of detecting a specific object from the video by the detecting means of the photographing apparatus;
A transmission step in which the transmission unit of the imaging device transmits the captured video and the information of the detected specific object to a server device;
A receiving step in which the receiving unit of the server device receives the transmitted video and the transmitted information on the specific object from the imaging device;
An association step in which the recording means of the server device associates the received video with the received information on the specific object;
A setting step in which the setting unit of the server device sets a recognition rule using the received information on the specific object;
The video recognition result recording means of the server device performs video recognition processing on the video associated with the information on the specific object used when setting the recognition rule according to the set recognition rule, and records the video recognition result And a video recognition result recording step.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012009297A JP2013150171A (en) | 2012-01-19 | 2012-01-19 | Recording device, recording system and recording method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012009297A JP2013150171A (en) | 2012-01-19 | 2012-01-19 | Recording device, recording system and recording method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2013150171A true JP2013150171A (en) | 2013-08-01 |
Family
ID=49047270
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012009297A Pending JP2013150171A (en) | 2012-01-19 | 2012-01-19 | Recording device, recording system and recording method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2013150171A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018163552A (en) * | 2017-03-27 | 2018-10-18 | 日本電気株式会社 | Face authentication device, face authentication method, and face authentication program |
| CN113469305A (en) * | 2021-06-11 | 2021-10-01 | 杭州华量软件有限公司 | Method and system for drawing movement track of facial shield |
-
2012
- 2012-01-19 JP JP2012009297A patent/JP2013150171A/en active Pending
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018163552A (en) * | 2017-03-27 | 2018-10-18 | 日本電気株式会社 | Face authentication device, face authentication method, and face authentication program |
| US10878222B2 (en) | 2017-03-27 | 2020-12-29 | Nec Corporation | Face authentication device having database with small storage capacity |
| US11176356B2 (en) | 2017-03-27 | 2021-11-16 | Nec Corporation | Face authentication device having database with small storage capacity |
| US11321552B2 (en) | 2017-03-27 | 2022-05-03 | Nec Corporation | Face authentication device having database with small storage capacity |
| US11380130B2 (en) | 2017-03-27 | 2022-07-05 | Nec Corporation | Face authentication device having database with small storage capacity |
| CN113469305A (en) * | 2021-06-11 | 2021-10-01 | 杭州华量软件有限公司 | Method and system for drawing movement track of facial shield |
| CN113469305B (en) * | 2021-06-11 | 2024-03-22 | 杭州华量软件有限公司 | Method and system for drawing moving track of face shielding |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10900943B2 (en) | Method, apparatus and system for food intake and physical activity assessment | |
| KR101569268B1 (en) | Acquisition System and Method of Iris image for iris recognition by using facial component distance | |
| CN105612533B (en) | Liveness detection method, liveness detection system, and computer program product | |
| CN105184246B (en) | Living body detection method and living body detection system | |
| US8644614B2 (en) | Image processing apparatus, image processing method, and storage medium | |
| WO2017181769A1 (en) | Facial recognition method, apparatus and system, device, and storage medium | |
| Zayed | Human activity recognition for surveillance applications | |
| JP6800820B2 (en) | People flow analysis method, people flow analyzer, and people flow analysis system | |
| US11695903B2 (en) | Method for detecting event of object by using wearable device and management server operating same | |
| CN105224924A (en) | Living body faces recognition methods and device | |
| US11647167B2 (en) | Wearable device for performing detection of events by using camera module and wireless communication device | |
| JP7113013B2 (en) | Subject head tracking | |
| CN109214301A (en) | Control method and device based on recognition of face and gesture identification | |
| KR20200138921A (en) | Apparatus and method for identifying pharmaceutical | |
| JP2020194493A (en) | Monitoring system for nursing-care apparatus or hospital and monitoring method | |
| JP2003263641A (en) | Mobile analyzer | |
| CN106303401B (en) | Video monitoring method, equipment and system thereof and video monitoring method based on shopping mall | |
| JP2013046135A (en) | Image providing apparatus, image utilization apparatus, image providing system, image providing method, and computer program | |
| WO2015131571A1 (en) | Method and terminal for implementing image sequencing | |
| JP2013150171A (en) | Recording device, recording system and recording method | |
| JP2004127285A (en) | Image recognition device, image recognition processing method, and image recognition program | |
| CN115210754A (en) | Accessibility determination device, accessibility determination method, and program | |
| JP2009043176A (en) | vending machine | |
| KR20200090055A (en) | Apparatus for collecting beauty information, and system for providing beauty care service including the same | |
| US20250087021A1 (en) | Wearable device and behavior evaluation system |