JP7750598B2 - Behavior recognition device, behavior recognition method, and program - Google Patents
Behavior recognition device, behavior recognition method, and programInfo
- Publication number
- JP7750598B2 JP7750598B2 JP2021205370A JP2021205370A JP7750598B2 JP 7750598 B2 JP7750598 B2 JP 7750598B2 JP 2021205370 A JP2021205370 A JP 2021205370A JP 2021205370 A JP2021205370 A JP 2021205370A JP 7750598 B2 JP7750598 B2 JP 7750598B2
- Authority
- JP
- Japan
- Prior art keywords
- behavior
- target object
- motion
- information
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Description
技術分野は、振舞を認識する振舞認識装置、振舞認識方法、及びプログラムに関する。 The technical field relates to behavior recognition devices, behavior recognition methods, and programs that recognize behavior.
振舞を認識した結果を用いて適切な処理を実行する装置は、人の振舞を認識する精度が向上するほど適切な処理が実行できる。ところが、人の振舞は人によって異なるので、単純な照合処理だけでは振舞を認識することは困難である。 Devices that use the results of behavior recognition to execute appropriate processing can execute more appropriate processing as the accuracy of human behavior recognition improves. However, because human behavior varies from person to person, it is difficult to recognize behavior through simple matching alone.
関連する技術として、特許文献1には、人の行動を検知できるシステムが提案されている。特許文献1のシステムによれば、空間内に存在する複数のオブジェクトにそれぞれ設けられた複数のRFID(Radio Frequency Identification)タグと、空間内を移動するユーザが携帯する携帯装置と、携帯装置からRFIDタグの情報を受けて処理を行う処理部とを備えている。 As a related technology, Patent Document 1 proposes a system that can detect human behavior. The system in Patent Document 1 includes multiple RFID (Radio Frequency Identification) tags attached to multiple objects present in a space, a portable device carried by a user moving within the space, and a processing unit that receives and processes information from the RFID tags from the portable device.
処理部は、まず、ユーザの特定の振舞に対応する行動パターンを予め記憶し、行動パターンに含まれる順序対(特徴)がユーザの行動ログに含まれている回数を計数する。次に、処理部は、回数に基づき特徴ポイントを算出し、特徴ポイントを閾値と比較することにより、行動パターンに対応する特定の振舞を検知する。 The processing unit first pre-stores behavior patterns corresponding to specific user behaviors and counts the number of times ordered pairs (features) included in the behavior patterns are included in the user's behavior log. Next, the processing unit calculates feature points based on the number of times and compares the feature points with a threshold to detect specific behaviors corresponding to the behavior patterns.
しかしながら、特許文献1では、空間内を移動するユーザが携帯しているRFIDリーダを用いて、オフィス、学校、店舗、家庭などの空間に存在する、電気製品又は照明などのスイッチ、鞄、携帯電話機、財布などのオブジェクトに設けられたRFIDタグから情報を受信しているが、時系列に取得した画像を用いていない。 However, in Patent Document 1, an RFID reader carried by a user moving through a space is used to receive information from RFID tags attached to objects such as switches for electrical appliances or lights, bags, mobile phones, and wallets present in spaces such as offices, schools, stores, and homes, but images acquired in a time series are not used.
また、特許文献1では、振舞を行うときにユーザが触れた二つ以上のオブジェクトの組み合わせと、触れた順とを表す順序対を用いている。そして、特許文献1では、行動パターンに含まれる順序対が行動ログに現れる回数を計数し、行動ログに現れた順序対の回数に基づき特徴ポイントを算出し、特徴ポイントを予め定められた閾値と比較して、行動パターンに対応する振舞を決定する。 Patent Document 1 also uses ordered pairs that represent combinations of two or more objects touched by a user when performing a behavior, and the order in which they were touched. Patent Document 1 then counts the number of times an ordered pair included in a behavior pattern appears in a behavior log, calculates feature points based on the number of times the ordered pair appears in the behavior log, and compares the feature points with a predetermined threshold to determine the behavior corresponding to the behavior pattern.
したがって、二つのオブジェクトが利用できない場合、例えば、人が椅子から立ち上がる振舞、人が立ち止まって通話する振舞などは、特許文献1の技術を用いても認識することができない。 Therefore, if two objects are not available, for example, behaviors such as a person standing up from a chair or a person stopping to talk on a phone call cannot be recognized even using the technology in Patent Document 1.
一つの側面として、物体の振舞を精度よく認識する、振舞認識装置、振舞認識方法、及びプログラムを提供することを目的とする。 One aspect of this is to provide a behavior recognition device, a behavior recognition method, and a program that accurately recognize the behavior of an object.
上記目的を達成するため、一つの側面における振舞認識装置は、
時系列に取得した画像に含まれる対象物体に対応する対象物体画像を用いて、前記対象物体画像ごとに前記対象物体の動作を推定する、推定部と、
同じ前記推定した動作があらかじめ設定された回数連続した場合、前記対象物体の動作を、前記推定した動作に確定し、前記対象物体の動作が確定した順番が、前記対象物体の一連の動作を表す振舞ごとにあらかじめ設定された動作が遷移する順番と一致した場合、順番が一致した振舞を前記対象物体の振舞と確定する、振舞確定部と、
を有することを特徴とする。
In order to achieve the above object, a behavior recognition device in one aspect includes:
an estimation unit that estimates a motion of a target object for each target object image by using target object images corresponding to the target object included in images acquired in time series;
a behavior determination unit that, when the same estimated behavior occurs consecutively a preset number of times, determines the behavior of the target object to be the estimated behavior, and, when the order in which the target object's behaviors are determined matches the order in which predetermined behaviors transition for each behavior representing a series of behaviors of the target object, determines the behavior with the matching order as the behavior of the target object;
The present invention is characterized by having the following.
また、上記目的を達成するため、一つの側面における振舞認識方法は、
時系列に取得した画像に含まれる対象物体に対応する対象物体画像を用いて、前記対象物体画像ごとに前記対象物体の動作を推定する、推定ステップと、
同じ前記推定した動作があらかじめ設定された回数連続した場合、前記対象物体の動作を、前記推定した動作に確定し、前記対象物体の動作が確定した順番が、前記対象物体の一連の動作を表す振舞ごとにあらかじめ設定された動作が遷移する順番と一致した場合、順番が一致した振舞を前記対象物体の振舞と確定する、振舞確定ステップと、
を有することを特徴とする。
In order to achieve the above object, a behavior recognition method in one aspect includes:
an estimation step of estimating a motion of a target object for each target object image using target object images corresponding to the target object included in images acquired in time series;
a behavior determination step of determining the behavior of the target object as the estimated behavior when the same estimated behavior occurs consecutively a predetermined number of times, and determining the behavior with the matching order as the behavior of the target object when the order in which the target object's behaviors are determined matches the order in which predetermined behaviors transition for each behavior representing a series of behaviors of the target object;
The present invention is characterized by having the following.
さらに、上記目的を達成するため、一つの側面におけるプログラムは、
時系列に取得した画像に含まれる対象物体に対応する対象物体画像を用いて、前記対象物体画像ごとに前記対象物体の動作を推定する、推定ステップと、
同じ前記推定した動作があらかじめ設定された回数連続した場合、前記対象物体の動作を、前記推定した動作に確定し、前記対象物体の動作が確定した順番が、前記対象物体の一連の動作を表す振舞ごとにあらかじめ設定された動作が遷移する順番と一致した場合、順番が一致した振舞を前記対象物体の振舞と確定する、振舞確定ステップと、
を実行させることを特徴とする。
Furthermore, in order to achieve the above object, the program in one aspect comprises:
an estimation step of estimating a motion of a target object for each target object image using target object images corresponding to the target object included in images acquired in time series;
a behavior determination step of determining the behavior of the target object as the estimated behavior when the same estimated behavior occurs consecutively a predetermined number of times, and determining the behavior with the matching order as the behavior of the target object when the order in which the target object's behaviors are determined matches the order in which predetermined behaviors transition for each behavior representing a series of behaviors of the target object;
The present invention is characterized in that the following is executed.
一つの側面として、物体の振舞を精度よく認識することができる。 One aspect is that it can accurately recognize the behavior of objects.
はじめに、以降で説明する実施形態の理解を容易にするために概要を説明する。人の振舞を認識した結果を用いて適切な処理を実行する装置は、人の振舞を精度よく認識できるほど適切な処理が実行できるようになる。すなわち、人の振舞を精度よく認識できれば様々な応用が可能となる。 First, an overview will be provided to facilitate understanding of the embodiments described below. A device that uses the results of recognizing human behavior to perform appropriate processing will be able to perform appropriate processing the more accurately it can recognize human behavior. In other words, being able to accurately recognize human behavior will enable a variety of applications.
具体的には、人の振舞を認識して支援をする装置、人がジェスチャーを認識してコマンド操作をする装置、スポーツを行う人のフォーム(例えば、野球などの投球フォーム、ゴルフなどのスイングフォームなど)を認識して指摘する装置などに応用が可能である。 Specific applications include devices that recognize and provide assistance to people's behavior, devices that recognize people's gestures and allow them to perform command operations, and devices that recognize and point out the form of people playing sports (for example, pitching form in baseball, swing form in golf, etc.).
さらに、人以外の物体、すなわち動物、ロボットなどの振舞を認識し、認識結果を用いて処理を実行する装置に対しても応用が可能である。 Furthermore, it can also be applied to devices that recognize the behavior of non-human objects, such as animals and robots, and perform processing using the recognition results.
振舞とは、人、動物、ロボットなどの物体が行う一連の動作を表す。人の振舞には、例えば、椅子から立ち上がる、立ち止まって通話をする、コップを持って飲み物を飲む、鞄を置いて立ち去る、ベッドから起き上がるなどの振舞がある。 Behavior refers to a series of actions performed by an object such as a person, animal, or robot. Examples of human behavior include standing up from a chair, stopping to talk on the phone, picking up a cup to drink, putting down a bag and walking away, and getting up from bed.
振舞は、上述したように物体の一連の動作であるので、一つ以上の動作を所定の順で行うものと見做せる。例えば、椅子から立ち上がる振舞の場合、人は、座っている動作、中腰の動作、立っている動作を、順に行っていると見做せる。 As mentioned above, a behavior is a series of movements of an object, so it can be considered as one or more movements performed in a specific order. For example, when standing up from a chair, a person can be considered to be performing the movements of sitting, squatting, and standing, in that order.
立ち止まって通話をする振舞の場合、人は、歩いている動作、通信機器の操作をする動作、通信機器で通話する動作、通信機器の操作をする動作を、順に行っていると見做せる。通信機器は、例えば、スマートフォンなどが考えられる。 When a person is standing still and talking on a phone, the actions of the person can be considered to be walking, operating a communication device, talking on the communication device, and operating another communication device, in that order. The communication device could be, for example, a smartphone.
しかし、振舞を構成する動作それぞれに要する時間は、人ごと、周辺環境などによりまちまちである。したがって単純な照合処理だけで認識できない。 However, the time required for each action that makes up a behavior varies depending on the person, the surrounding environment, etc. Therefore, it cannot be recognized by simple matching processing alone.
このようなプロセスを経て、発明者は、人、動物、ロボットなどの物体の振舞を精度よく認識するための課題を見出し、それとともに係る課題を解決する手段を導出するに至った。 Through this process, the inventors have identified the challenges involved in accurately recognizing the behavior of objects such as people, animals, and robots, and have also derived means to solve these challenges.
すなわち、発明者は、振舞を、あらかじめ決められた複数の異なる動作が、あらかじめ決められた順に行われると見做せるので、動作とその順番を用いることで、動作に要する時間に係わらず振舞を認識できる手段を導出するに至った。その結果、人、動物、ロボットなどの物体の振舞を精度よく認識できる。 In other words, the inventors have devised a method for recognizing behavior regardless of the time required for an action by considering the actions and their order as a sequence of multiple, predetermined actions performed in a predetermined order. As a result, the behavior of objects such as people, animals, and robots can be recognized with high accuracy.
以下、図面を参照して実施形態について説明する。なお、以下で説明する図面において、同一の機能又は対応する機能を有する要素には同一の符号を付し、その繰り返しの説明は省略することもある。 Embodiments will be described below with reference to the drawings. Note that in the drawings described below, elements having the same or corresponding functions will be given the same reference numerals, and repeated explanations may be omitted.
(実施形態)
図1を用いて、実施形態における振舞認識装置10の構成について説明する。図1は、振舞認識装置の一例を説明するための図である。
(Embodiment)
The configuration of a behavior recognition device 10 according to an embodiment will be described with reference to Fig. 1. Fig. 1 is a diagram illustrating an example of a behavior recognition device.
[装置構成]
図1に示す振舞認識装置10は、物体の振舞を精度よく認識する装置である。また、図1に示すように、振舞認識装置10は、推定部11と、振舞確定部12とを有する。
[Device configuration]
1 is a device for accurately recognizing the behavior of an object. As shown in FIG. 1, the behavior recognition device 10 includes an estimation unit 11 and a behavior determination unit 12.
推定部11は、時系列に取得した画像に含まれる対象物体に対応する対象物体画像を用いて、対象物体画像ごとに対象物体の動作を推定する。対象物体画像は、全てのフレームを用いてもよいし、所定の間隔でフレームを選択して用いてもよい。 The estimation unit 11 estimates the movement of a target object for each target object image using target object images corresponding to the target object contained in images acquired in time series. All frames of the target object images may be used, or frames selected at predetermined intervals may be used.
振舞確定部12は、同じ推定した動作が、あらかじめ設定された回数連続した場合、対象物体の動作を、推定した動作に確定する。さらに、振舞確定部12は、対象物体の動作が確定した順番が、対象物体の一連の動作を表す振舞ごとにあらかじめ設定された動作が遷移する順番と一致した場合、順番が一致した振舞を対象物体の振舞と確定する。 When the same estimated behavior occurs a predetermined number of times in succession, the behavior determination unit 12 determines the behavior of the target object as the estimated behavior. Furthermore, when the order in which the target object's behaviors are determined matches the order in which the predetermined behaviors transition for each behavior representing a series of behaviors of the target object, the behavior determination unit 12 determines the behavior with the matching order as the behavior of the target object.
回数(動作確定閾値)は、動作の誤推定率に基づいて決定する。回数は、例えば、実験、シミュレーションなどにより決定する。例えば、人が早い動作をした場合でも、同じ動作が数フレーム続くため、動作確定閾値の設定は有効である。 The number of times (motion confirmation threshold) is determined based on the rate of motion error estimation. The number of times is determined, for example, through experiments or simulations. For example, even when a person makes a fast motion, the same motion continues for several frames, so setting a motion confirmation threshold is effective.
このように、実施形態によれば、振舞に要する時間が異なっても、振舞を精度よく認識できる。図2A、図2Bを用いて具体的に説明する。図2Aは、人が椅子から立ち上がる振舞を説明するための図である。図2Bは、立ち止まって通話する振舞を説明するための図である。 As such, according to this embodiment, behavior can be recognized with high accuracy even if the time required for the behavior varies. A specific explanation will be given using Figures 2A and 2B. Figure 2A is a diagram illustrating the behavior of a person standing up from a chair. Figure 2B is a diagram illustrating the behavior of a person standing still and talking on a phone.
図2Aの例の場合、まず、推定部11は、時系列に画像を取得し、取得した順番に、人の動作を推定する。すなわち、座っている動作、中腰の動作、立っている動作を推定する。 In the example of Figure 2A, the estimation unit 11 first acquires images in chronological order and estimates the person's movements in the order they were acquired. That is, it estimates sitting, crouching, and standing movements.
次に、振舞確定部12は、同じ推定した動作があらかじめ設定された回数(動作確定閾値)、例えば、二回連続した場合、推定した動作に確定する。図2Aの例では、座っている動作が三回、中腰の動作が二回、立っている動作が三回、推定されているので、座っている動作、中腰の動作、立っている動作であると確定する。 Next, the behavior determination unit 12 determines the estimated movement if the same estimated movement occurs a preset number of times (movement determination threshold), for example, twice in a row. In the example of Figure 2A, the sitting movement is estimated three times, the squatting movement is estimated two times, and the standing movement is estimated three times, so the movements are determined to be sitting, squatting, and standing.
次に、振舞確定部12は、確定した動作と、確定した動作の順番が、人が椅子から立ち上がる振舞として、あらかじめ設定された動作が遷移する順番、すなわち座っている動作、中腰の動作、立っている動作と一致したので、人が椅子から立ち上がる振舞であると確定する。 Next, the behavior determination unit 12 determines that the behavior is a person standing up from a chair because the determined behavior and the order of the determined behaviors match the order of transition of predetermined actions for the behavior of a person standing up from a chair, i.e., sitting, squatting, and standing.
図2Bの例では、人が立ち止まって通話する振舞を認識するために、まず、振舞確定部12は、時系列に複数の画像を取得し、取得した順番に、人の動作を推定する。すなわち、歩いている動作、通信機器の操作をする動作、通信機器で通話する動作、通信機器の操作をする動作を推定する。 In the example of Figure 2B, to recognize the behavior of a person standing still while talking on a phone, the behavior determination unit 12 first acquires multiple images in chronological order and estimates the person's actions in the order they are acquired. That is, it estimates the actions of walking, operating a communication device, talking on a communication device, and operating a communication device.
次に、振舞確定部12は、同じ推定した動作があらかじめ設定された回数(動作確定閾値)、例えば、図2Bの例では二回連続した場合、推定した動作に確定する。図2Bの例では、歩いている動作は二回、通信機器の操作をする動作は二回、通信機器で通話する動作は三回、推定されているので、歩いている動作、通信機器の操作をする動作、通信機器で通話する動作であると確定する。 Next, the behavior determination unit 12 determines the estimated behavior when the same estimated behavior is repeated a preset number of times (behavior determination threshold), for example, twice in succession in the example of Figure 2B. In the example of Figure 2B, the behavior of walking is estimated twice, the behavior of operating a communication device is estimated twice, and the behavior of talking on a communication device is estimated three times, so the behaviors are determined to be walking, operating a communication device, and talking on a communication device, respectively.
次に、振舞確定部12は、確定した動作と、確定した動作の順番が、人が立ち止まって通話する振舞として、あらかじめ設定された動作が遷移する順番、すなわち歩いている動作、通信機器の操作をする動作、通信機器で通話する動作と一致したので、人が立ち止まって通話する振舞であると確定する。 Next, the behavior determination unit 12 determines that the behavior is that of a person stopping and talking on a phone because the determined actions and the order of the determined actions match the order of transition of pre-set actions for the behavior of a person stopping and talking on a phone, i.e., the action of walking, the action of operating a communication device, and the action of talking on the communication device.
上述したことから分かるように、動作に要する時間が人により異なった場合でも、時間の長さによらず動作を確定し、確定した動作と、確定した動作の順番によって振舞を認識できるので、振舞を精度よく認識できる。 As can be seen from the above, even if the time required to perform an action varies from person to person, the action can be determined regardless of the length of time, and behavior can be recognized based on the determined actions and the order in which they were performed, allowing for accurate behavior recognition.
[システム構成]
図3を用いて、実施形態における振舞認識装置10の構成をより具体的に説明する。図3は、振舞認識装置を有するシステムの一例を説明するための図である。
[System configuration]
The configuration of the behavior recognition device 10 in the embodiment will be described in more detail with reference to Fig. 3. Fig. 3 is a diagram illustrating an example of a system including a behavior recognition device.
図3に示すように、実施形態におけるシステム100は、振舞認識装置10と、撮像装置20と、情報処理装置30とを有している。 As shown in FIG. 3, the system 100 in this embodiment includes a behavior recognition device 10, an imaging device 20, and an information processing device 30.
振舞認識装置10は、例えば、CPU(Central Processing Unit)、又はFPGA(Field-Programmable Gate Array)などのプログラマブルなデバイス、又はGPU(Graphics Processing Unit)、又はそれらのうちのいずれか一つ以上を搭載した回路、サーバコンピュータ、パーソナルコンピュータ、モバイル端末などの情報処理装置である。 The behavior recognition device 10 is, for example, a CPU (Central Processing Unit), a programmable device such as an FPGA (Field-Programmable Gate Array), a GPU (Graphics Processing Unit), or a circuit equipped with one or more of these, or an information processing device such as a server computer, personal computer, or mobile terminal.
撮像装置20は、時系列に撮像した二次元画像又は三次元画像を振舞認識装置10に出力する。撮像装置20は、例えば、カメラ、又は、カメラとLiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)を搭載した装置である。なお、カメラとしては、例えば、単眼カメラ(例えば、広角カメラ、魚眼カメラ、全天球カメラなど)、複眼カメラ(例えば、ステレオカメラ、マルチカメラなど)、RGB-Dカメラ(例えば、深度カメラ、ToFカメラなど)などが考えられる。 The imaging device 20 outputs two-dimensional or three-dimensional images captured in time series to the behavior recognition device 10. The imaging device 20 is, for example, a camera, or a device equipped with a camera and LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging). Possible cameras include, for example, monocular cameras (e.g., wide-angle cameras, fisheye cameras, omnidirectional cameras), compound-eye cameras (e.g., stereo cameras, multi-cameras), and RGB-D cameras (e.g., depth cameras, ToF cameras).
情報処理装置30は、振舞を認識した結果(振舞情報)を振舞認識装置10から取得し、取得した振舞情報を用いて、あらかじめ決められた処理を実行する。情報処理装置30は、例えば、人の振舞を認識して支援をする装置、人がジェスチャーを認識してコマンド操作をする装置、スポーツを行う人のフォーム(例えば、野球などの投球フォーム、ゴルフなどのスイングフォームなど)を認識して指摘する装置などである。 The information processing device 30 acquires the behavior recognition results (behavior information) from the behavior recognition device 10 and executes predetermined processing using the acquired behavior information. The information processing device 30 is, for example, a device that recognizes human behavior and provides assistance, a device that recognizes human gestures and allows commands to be operated, or a device that recognizes and indicates the form of a person playing a sport (for example, pitching form in baseball, swing form in golf, etc.).
情報処理装置30は、例えば、CPU、又はFPGAなどのプログラマブルなデバイス、又はGPU、又はそれらのうちのいずれか一つ以上を搭載した回路、サーバコンピュータ、パーソナルコンピュータ、モバイル端末などの情報処理装置である。 The information processing device 30 is, for example, a CPU, a programmable device such as an FPGA, a GPU, or a circuit equipped with one or more of these, or an information processing device such as a server computer, a personal computer, or a mobile terminal.
図3の例では、振舞認識装置10、撮像装置20、情報処理装置30を別々に表したが、振舞認識装置10と、撮像装置20と、情報処理装置30とを一つの装置としてもよい。また、振舞認識装置10と、撮像装置20とを一つの装置としてもよい。 In the example of Figure 3, the behavior recognition device 10, imaging device 20, and information processing device 30 are shown separately, but the behavior recognition device 10, imaging device 20, and information processing device 30 may be combined into a single device. Also, the behavior recognition device 10 and imaging device 20 may be combined into a single device.
振舞認識装置について説明する。振舞認識装置10は、前処理部13と、推定部11と、振舞確定部12と、通知部16とを有している。 The behavior recognition device 10 will now be described. The behavior recognition device 10 includes a preprocessing unit 13, an estimation unit 11, a behavior determination unit 12, and a notification unit 16.
前処理部13は、撮像装置20が撮像した画像を、後段の処理で、動作と振舞を効率よく認識できるように、画像を加工する。具体的には、まず、前処理部13は、撮像装置20がリアルタイムで時系列に撮像した画像、又は、記憶装置(不図示)から過去に時系列に撮像した画像を取得する。 The pre-processing unit 13 processes the images captured by the imaging device 20 so that movements and behaviors can be efficiently recognized in subsequent processing. Specifically, the pre-processing unit 13 first acquires images captured in real time by the imaging device 20 in chronological order, or images captured in the past in chronological order from a storage device (not shown).
次に、前処理部13は、取得した画像を、既存技術を用いて、振舞認識がし易い画像に変換する。既存技術は、例えば、コントラスト調整、ノイズ除去などの処理である。 Next, the pre-processing unit 13 uses existing technology to convert the acquired image into an image that is easier to recognize behavior. Existing technology includes processes such as contrast adjustment and noise removal.
推定部11は、人、動物、ロボットなどの振舞の対象となる対象物体に対応する対象物体画像を用いて、対象物体画像ごとに対象物体の動作を推定する。推定部11は、物体情報抽出部14と、動作推定部15とを有する。 The estimation unit 11 uses target object images corresponding to target objects, such as people, animals, and robots, whose behaviors are the subject of the target object, to estimate the movement of the target object for each target object image. The estimation unit 11 includes an object information extraction unit 14 and a movement estimation unit 15.
物体情報抽出部14は、前処理部13から取得した画像から、対象物体に関する情報を抽出する。具体的には、まず、物体情報抽出部14は、前処理部13から画像を取得する。また、物体情報抽出部14は、既存技術により、対象物体画像から対象物体に関する情報と、対象物体以外に関する情報とを抽出する。既存技術は、例えば、Deep Learningによる物体認識、パターンマッチングなどの処理である。 The object information extraction unit 14 extracts information about the target object from the image acquired from the pre-processing unit 13. Specifically, the object information extraction unit 14 first acquires the image from the pre-processing unit 13. The object information extraction unit 14 then uses existing technology to extract information about the target object and information about things other than the target object from the target object image. Examples of existing technology include deep learning-based object recognition and pattern matching.
例えば、対象物体が人の場合、人に関する情報は、人の骨格座標、顔情報などである。人以外に関する情報は、対象物体画像に撮像されている人以外の物体の名称、位置などを表す情報である。 For example, if the target object is a person, information about the person includes the person's skeletal coordinates, facial information, etc. Information about non-human objects is information indicating the name, position, etc. of objects other than humans captured in the target object image.
なお、人に関する情報(対象物体の情報)を抽出する処理と、人以外に関する情報(対象物体以外の情報)を抽出する処理は、並列に実行してもよいし、いずれかの処理を先に実行してもよい。 Note that the process of extracting information about people (information about target objects) and the process of extracting information about non-people (information other than target objects) may be performed in parallel, or one of the processes may be performed first.
動作推定部15は、対象物体に関する情報、又は、対象物体に関する情報と対象物体以外に関する情報とを用いて、対象物体画像ごとに対象物体の動作を推定する。具体的には、まず、動作推定部15は、物体情報抽出部14から、対象物体に関する情報、又は、対象物体に関する情報と対象物体以外に関する情報を取得する。 The motion estimation unit 15 estimates the motion of the target object for each target object image using information about the target object, or information about the target object and information about things other than the target object. Specifically, the motion estimation unit 15 first obtains information about the target object, or information about the target object and information about things other than the target object, from the object information extraction unit 14.
次に、動作推定部15は、対象物体に関する情報、又は、対象物体に関する情報と対象物体以外に関する情報とを用いて、対象物体画像ごとに対象物体の動作を推定する。その後、動作推定部15は、推定した対象物体の動作を表す動作情報を、振舞確定部12へ出力する。 Next, the movement estimation unit 15 estimates the movement of the target object for each target object image using information about the target object, or information about the target object and information about things other than the target object. The movement estimation unit 15 then outputs movement information representing the estimated movement of the target object to the behavior determination unit 12.
動作の推定は、例えば、対象物体が人の場合、人の骨格情報を利用したマッチング処理、時系列学習による動き分類などの、既存技術を利用して、対象物体画像(フレーム)ごとに動作を推定する。なお、時系列学習による動き分類によって対象物体の動作を推定する場合、過去数フレームの人の認識結果、物体認識の結果を利用してもよい。 For example, when the target object is a person, movement estimation is performed for each target object image (frame) using existing technologies such as matching processing using human skeletal information and movement classification using time-series learning. Note that when estimating the target object's movement using movement classification using time-series learning, the results of person recognition and object recognition from the past few frames may also be used.
人の骨格情報を利用したマッチング処理は、あらかじめ登録しておいた複数の骨格情報(例えば、骨格座標三点の角度の組み合わせなど)を用いてマッチング処理をする。例えば、右手首、右肘、右肩の三点の角度と、右手首、首、右肘の三点の角度とを用いて、腕を伸ばしているか曲げている状態かを用意し、類似度を計算してマッチングする。 Matching processes using human skeletal information use multiple pieces of skeletal information (for example, combinations of the angles of three skeletal coordinate points) that have been registered in advance. For example, the angles of the right wrist, right elbow, and right shoulder, and the angles of the right wrist, neck, and right elbow are used to determine whether the arm is outstretched or bent, and similarity is calculated for matching.
時系列学習による動き分類の処理は、骨格情報から動きの特徴を表す特徴量を抽出し、RNN(Recurrent Neural Network)系の機械学習モデルで学習することで、ごく短時間の動き(振舞のような秒単位にまたがる動きではなく、数フレームぐらいの短時間の動き)を分類する。 Movement classification using time series learning extracts features that represent the characteristics of movement from skeletal information and trains them using an RNN (Recurrent Neural Network) machine learning model to classify very short periods of movement (short periods of movement of a few frames, rather than movements that span seconds like behavior).
動作情報は、例えば、座っている、中腰、歩いている、立っている、スマホを操作している、通話している、コップを持っている、コップから飲み物を飲んでいる、鞄を持って歩いている、鞄を置いている、ベッドに寝ている、ベッドに腰かけているなどの、振舞を構成する動作を識別する情報である。 Motion information is information that identifies the movements that make up a behavior, such as sitting, squatting, walking, standing, operating a smartphone, talking on the phone, holding a cup, drinking from a cup, walking with a bag, putting down the bag, sleeping in bed, sitting on a bed, etc.
図4は、動作情報の一例を説明するための図である。図4の例では、動作それぞれに、動作情報「1」から「12」が関連付けられている。 Figure 4 is a diagram illustrating an example of action information. In the example of Figure 4, each action is associated with action information "1" to "12."
振舞確定部12は、推定した動作があらかじめ設定された回数(動作確定閾値)連続した場合、対象物体の動作を、推定した動作に確定する。 When the estimated movement occurs consecutively a preset number of times (movement confirmation threshold), the behavior determination unit 12 determines that the movement of the target object is the estimated movement.
具体的には、まず、振舞確定部12は、推定部11から動作情報を取得する。次に、振舞確定部12は、同じ動作情報が、あらかじめ設定された回数(動作確定閾値)連続した場合、対象物体の動作を、推定した動作に確定する。 Specifically, first, the behavior determination unit 12 acquires movement information from the estimation unit 11. Next, if the same movement information appears consecutively a predetermined number of times (movement determination threshold), the behavior determination unit 12 determines the movement of the target object to be the estimated movement.
その後、振舞確定部12は、動作が確定した順番が、対象物体の一連の動作を表す振舞ごとに、あらかじめ設定された動作が遷移する順番と一致した場合、順番が一致した振舞を対象物体の振舞と確定する。 Then, if the order in which the actions are determined matches the order in which the actions transition, which is preset for each behavior representing a series of actions of the target object, the behavior determination unit 12 determines that the behavior with the matching order is the behavior of the target object.
具体的には、まず、振舞確定部12は、動作推定部15から確定した動作情報を取得する。次に、振舞確定部12は、確定した動作情報と、確定した動作情報を取得した順番とを用いて、振舞判定情報を参照し、一致する振舞を検出する。 Specifically, first, the behavior determination unit 12 acquires confirmed movement information from the movement estimation unit 15. Next, the behavior determination unit 12 refers to the behavior determination information using the confirmed movement information and the order in which the confirmed movement information was acquired, and detects a matching behavior.
図5は、振舞判定情報の一例を説明するための図である。図5の例では、振舞判定情報は、振舞と、振舞を識別するための振舞情報と、動作の順番を表す情報(動作順番)とが関連付けられている。図5の例では、振舞情報は、振舞それぞれに「A」から「F」が関連付けられている。動作順番は、振舞それぞれに、振舞を認識するために用いる動作の順番(動作情報を確定した順番)を表す情報が関連付けられている。 Figure 5 is a diagram illustrating an example of behavior determination information. In the example of Figure 5, the behavior determination information associates a behavior, behavior information for identifying the behavior, and information indicating the order of actions (action order). In the example of Figure 5, the behavior information associates "A" to "F" with each behavior. The action order associates each behavior with information indicating the order of actions used to recognize the behavior (the order in which the action information was determined).
通知部16は、検出した振舞を表す情報を情報処理装置30へ出力する。具体的には、通知部16は、まず、振舞確定部12から、検出した振舞を表す情報を取得する。 The notification unit 16 outputs information representing the detected behavior to the information processing device 30. Specifically, the notification unit 16 first obtains information representing the detected behavior from the behavior determination unit 12.
次に、通知部16は、振舞それぞれに関連付けられたあらかじめ設定された優先度に応じて、振舞を利用者に通知するか否かを決定する。通知部16は、例えば、優先度の高い振舞だけを情報処理装置30へ出力する。優先度は、あらかじめ決定した任意の優先度を設定する。優先度は、例えば、実験、シミュレーションなどにより決定する。 Next, the notification unit 16 determines whether or not to notify the user of the behavior, based on the predetermined priority associated with each behavior. For example, the notification unit 16 outputs only behaviors with high priority to the information processing device 30. The priority is set to an arbitrary, predetermined priority. The priority is determined, for example, through experiments, simulations, etc.
(変形例1)
図6は、変形例1における振舞確定部の説明をするための図である。図6の例では、振舞確定部12は、動作確定部61(61A、61B、61C)を有している。なお、動作確定部61の個数は三個に限定されない。振舞を確定する動作の個数により決定される。
(Variation 1)
Fig. 6 is a diagram for explaining the behavior determination unit in Modification 1. In the example of Fig. 6, the behavior determination unit 12 has action determination units 61 (61A, 61B, 61C). The number of action determination units 61 is not limited to three. It is determined by the number of actions for which the behavior is determined.
動作確定部61(61A、61B、61C)それぞれは、状態管理部62(62A、62B、62C)と、カウンタ63(63A、63B、63C)を有する。 Each operation determination unit 61 (61A, 61B, 61C) has a status management unit 62 (62A, 62B, 62C) and a counter 63 (63A, 63B, 63C).
状態管理部62(62A、62B、62C)は、動作ごとにあらかじめ設定された動作情報を取得した場合にカウンタのカウント値を加算し、あらかじめ設定された動作情報以外の動作情報を取得した場合にはノイズ許容値に応じてカウント値を減算し、カウント値があらかじめ設定された動作確定閾値になった場合、対象物体の動作を、推定した動作と確定する。 The status management unit 62 (62A, 62B, 62C) increments the counter's count value when it acquires preset motion information for each motion, and decrements the count value according to the noise tolerance when it acquires motion information other than the preset motion information. When the count value reaches a preset motion confirmation threshold, it confirms the motion of the target object as the estimated motion.
変形例1では、動作確定閾値と、ノイズ許容値とを設定する。変形例において、動作確定閾値は、対象物体の動作を確定するための値である。ノイズ許容値は、ノイズの取得を何回まで許容するかを表す値である。 In variant 1, a motion confirmation threshold and a noise tolerance value are set. In this variant, the motion confirmation threshold is a value used to confirm the motion of the target object. The noise tolerance value is a value that indicates the maximum number of times noise acquisition is permitted.
図7は、変形例1の振舞の動作確定の遷移を説明するための図である。図7の例では、初期状態と、動作情報「1」「2」「4」に対応する動作状態1、2、4が示されている。なお、各カウンタのカウント値は、初期状態において0である。 Figure 7 is a diagram illustrating the transition of behavioral confirmation in Variation 1. The example in Figure 7 shows the initial state and operation states 1, 2, and 4 corresponding to operation information "1," "2," and "4." Note that the count value of each counter is 0 in the initial state.
動作状態1は、状態1T_1(カウント値=1の状態)と状態1C(カウント値=2の状態)とを有する。なお、状態管理部62A(動作状態1)では、動作確定閾値(状態の数量(段数)に相当)は2に設定されている。また、ノイズ許容値は1に設定されている。 Operation state 1 has state 1T_1 (state where count value = 1) and state 1C (state where count value = 2). In state management unit 62A (operation state 1), the operation confirmation threshold (corresponding to the number of states (number of stages)) is set to 2. The noise tolerance value is also set to 1.
動作状態2は、状態2T_1(カウント値=1の状態)と状態2C(カウント値=2の状態)とを有する。なお、状態管理部62B(動作状態2)では、動作確定閾値は2に設定されている。また、ノイズ許容値は1に設定されている。 Operation state 2 has state 2T_1 (count value = 1) and state 2C (count value = 2). In state management unit 62B (operation state 2), the operation determination threshold is set to 2. The noise tolerance is also set to 1.
動作状態4は、状態4T_1(カウント値=1の状態)と状態4C(カウント値=2の状態)とを有する。なお、状態管理部62C(動作状態4)では、動作確定閾値は4に設定されている。また、ノイズ許容値は1に設定されている。 Operation state 4 has state 4T_1 (count value = 1) and state 4C (count value = 2). In state management unit 62C (operation state 4), the operation determination threshold is set to 4. The noise tolerance is also set to 1.
図7の例では、まず、動作情報「1」を一回取得すると、初期状態から状態1T_1に遷移する。次に、動作情報「1」を二回取得すると、状態1Cに遷移して、動作1を確定する。すなわち、動作状態1に対応するカウント値が2になると、動作1を確定する。 In the example in Figure 7, first, when operation information "1" is acquired once, the system transitions from the initial state to state 1T_1. Next, when operation information "1" is acquired twice, the system transitions to state 1C, and operation 1 is confirmed. In other words, when the count value corresponding to operation state 1 becomes 2, operation 1 is confirmed.
次に、動作1が確定した後、動作情報「2」を一回取得すると、動作状態1から状態2T_1に遷移する。次に、動作情報「2」を二回取得すると、状態2Cに遷移して、動作2を確定する。すなわち、動作状態2に対応するカウント値が2になると、動作2を確定する。 Next, after action 1 is confirmed, if action information "2" is acquired once, the system transitions from action state 1 to state 2T_1. Next, if action information "2" is acquired twice, the system transitions to state 2C and action 2 is confirmed. In other words, when the count value corresponding to action state 2 reaches 2, action 2 is confirmed.
次に、動作1、2が確定した後、動作情報「4」を一回取得すると、動作状態2から状態4T_1に遷移する。次に、動作情報「4」を二回取得すると、状態4Cに遷移して、動作4を確定する。すなわち、動作状態4に対応するカウント値が2になると、動作4を確定する。 Next, after actions 1 and 2 are confirmed, if action information "4" is acquired once, the system transitions from action state 2 to state 4T_1. Next, if action information "4" is acquired twice, the system transitions to state 4C and action 4 is confirmed. In other words, when the count value corresponding to action state 4 reaches 2, action 4 is confirmed.
その後、振舞確定部12は、動作が確定した順番が、対象物体の一連の動作を表す振舞ごとに、あらかじめ設定された動作が遷移する順番と一致した場合、順番が一致した振舞を対象物体の振舞と確定する。なお、各カウンタのカウント値は、初期状態において0である。 Then, if the order in which the actions are determined matches the order in which the actions transition, which is preset for each action representing a series of actions of the target object, the behavior determination unit 12 determines the behavior with the matching order as the behavior of the target object. Note that the count value of each counter is initially 0.
図8は、変形例1のノイズの影響の低減を説明するための図である。図8に示す順番で動作情報を取得したと想定する。その場合、図8の例では、動作1が確定した後、動作情報「2」を一回取得すると、動作状態1から状態2T_1に遷移する。 Figure 8 is a diagram illustrating the reduction of the effects of noise in variant 1. Assume that the motion information is acquired in the order shown in Figure 8. In this case, in the example of Figure 8, once motion 1 is confirmed and motion information "2" is acquired once, the motion state transitions from state 1 to state 2T_1.
次に、動作情報「2」を二回取得すると、状態2Cに遷移して動作2を確定する。しかし、図8の例では、次に、ノイズである動作情報「6」を取得する。その場合、動作情報が「2」又は「4」でないため、状態2T_1に遷移する。 Next, if motion information "2" is acquired twice, the system transitions to state 2C and confirms motion 2. However, in the example of Figure 8, motion information "6", which is noise, is then acquired. In this case, since the motion information is not "2" or "4", the system transitions to state 2T_1.
次に、図8の例では、再度動作情報「2」を取得するので、状態4Cに遷移する。その後、動作情報「4」を取得するので、動作状態2から状態4T_1に遷移する。 Next, in the example of Figure 8, operation information "2" is acquired again, causing a transition to state 4C. After that, operation information "4" is acquired, causing a transition from operation state 2 to state 4T_1.
変形例1によれば、誤推定された動作情報を取得した場合(ノイズを取得した場合)でも、振舞を精度よく認識できる。したがって、変形例1によれば、誤推定された動作情報を取得した場合(ノイズを取得した場合)でも、振舞を精度よく認識できる。 According to variant 1, behavior can be recognized with high accuracy even when erroneously estimated motion information is acquired (when noise is acquired). Therefore, according to variant 1, behavior can be recognized with high accuracy even when erroneously estimated motion information is acquired (when noise is acquired).
ただし、図8の例では、ノイズ許容値が1であるので、ノイズを二回連続して取得すると、初期状態に遷移してカウント値を0にする。 However, in the example in Figure 8, the noise tolerance value is 1, so if noise is detected twice in a row, the system will transition to the initial state and the count value will be set to 0.
(変形例2)
図9は、変形例2の振舞の動作確定の遷移を説明するための図である。図9の例では、初期状態と、動作情報「1」「2」「4」に対応する動作状態1、2、4が示されている。
(Variation 2)
Fig. 9 is a diagram for explaining the transition of the action determination of the behavior in Modification 2. In the example of Fig. 9, an initial state and action states 1, 2, and 4 corresponding to action information "1", "2", and "4" are shown.
動作状態1は、状態1T_1(カウント値=1の状態)と、状態1T_2(カウント値=2の状態)と、状態1C(カウント値=3の状態)とを有する。なお、状態管理部62A(動作状態1)では、動作確定閾値(状態の数量(段数)に相当)は3に設定されている。また、ノイズ許容値は2に設定されている。 Operation state 1 has state 1T_1 (state where count value = 1), state 1T_2 (state where count value = 2), and state 1C (state where count value = 3). In state management unit 62A (operation state 1), the operation confirmation threshold (corresponding to the number of states (number of stages)) is set to 3. The noise tolerance value is also set to 2.
動作状態2は、状態2T_1(カウント値=1の状態)と、状態2T_2(カウント値=2の状態)と、状態2C(カウント値=3の状態)とを有する。なお、状態管理部62B(動作状態2)では、動作確定閾値は3に設定されている。また、ノイズ許容値は2に設定されている。 Operation state 2 has state 2T_1 (count value = 1), state 2T_2 (count value = 2), and state 2C (count value = 3). In state management unit 62B (operation state 2), the operation determination threshold is set to 3. The noise tolerance is also set to 2.
動作状態4は、状態4T_1(カウント値=1の状態)と、状態4T_2(カウント値=2の状態)と、状態4C(カウント値=3の状態)とを有する。なお、状態管理部62C(動作状態4)では、動作確定閾値は3に設定されている。また、ノイズ許容値は2に設定されている。 Operation state 4 has state 4T_1 (count value = 1), state 4T_2 (count value = 2), and state 4C (count value = 3). In state management unit 62C (operation state 4), the operation determination threshold is set to 3. The noise tolerance is also set to 2.
図9の例では、まず、動作情報「1」を一回取得すると、初期状態から状態1T_1に遷移する。次に、動作情報「1」を二回取得すると、状態1T_1から状態1T_2に遷移する。次に、動作情報「1」を三回取得すると、状態1Cに遷移して、動作1を確定する。 In the example of Figure 9, first, when operation information "1" is acquired once, the system transitions from the initial state to state 1T_1. Next, when operation information "1" is acquired twice, the system transitions from state 1T_1 to state 1T_2. Next, when operation information "1" is acquired three times, the system transitions to state 1C, and operation 1 is confirmed.
次に、動作1が確定した後、動作情報「2」を一回取得すると、動作状態1から状態2T_1に遷移する。次に、動作情報「2」を二回取得すると、状態2T_1から状態2T_2に遷移する。次に、動作情報「2」を三回取得すると、状態2Cに遷移して、動作2を確定する。 Next, after action 1 is confirmed, if action information "2" is acquired once, the system will transition from action state 1 to state 2T_1. Next, if action information "2" is acquired twice, the system will transition from state 2T_1 to state 2T_2. Next, if action information "2" is acquired three times, the system will transition to state 2C and action 2 will be confirmed.
次に、動作1、2が確定した後、動作情報「4」を一回取得すると、動作状態2から状態4T_1にする。次に、動作情報「4」を二回取得すると、状態4T_1から状態4T_2に遷移する。次に、動作情報「4」を三回取得すると、状態4Cに遷移して、動作4を確定する。 Next, after actions 1 and 2 are confirmed, if action information "4" is acquired once, the state changes from action state 2 to state 4T_1. Next, if action information "4" is acquired twice, the state transitions from state 4T_1 to state 4T_2. Next, if action information "4" is acquired three times, the state transitions to state 4C, and action 4 is confirmed.
図10は、変形例2のノイズの影響の低減を説明するための図である。図10に示す順番で動作情報を取得したと想定する。その場合、動作1が確定した後、動作情報「2」を一回取得すると、動作状態1から状態2T_1に遷移する。 Figure 10 is a diagram illustrating the reduction of the effects of noise in variant 2. Assume that the motion information is acquired in the order shown in Figure 10. In this case, once motion 1 is confirmed and motion information "2" is acquired once, the motion state transitions from state 1 to state 2T_1.
次に、動作情報「2」を二回取得すると状態2T_1に遷移し、動作情報「2」を二回取得すると状態2Cに遷移し動作2を確定する。しかし、図10の例では、次に、ノイズである動作情報「5」を二回連続して取得する。その場合、動作情報が「2」又は「4」でないため、状態2T_2、状態2T_1に遷移する。 Next, if motion information "2" is acquired twice, the system transitions to state 2T_1, and if motion information "2" is acquired twice, the system transitions to state 2C and confirms motion 2. However, in the example of Figure 10, motion information "5", which is noise, is then acquired twice in a row. In this case, since the motion information is not "2" or "4", the system transitions to state 2T_2 and then state 2T_1.
しかし、図10の例では、再度動作情報「2」を二回連続して取得した後、動作情報「4」を取得するので、動作状態2から状態4T_1に遷移する。したがって、変形例2によれば、誤推定された動作情報を取得した場合(ノイズを取得した場合)でも、振舞を精度よく認識できる。 However, in the example of Figure 10, after acquiring motion information "2" twice in succession, motion information "4" is acquired, resulting in a transition from motion state 2 to state 4T_1. Therefore, according to variant example 2, even when erroneously estimated motion information is acquired (when noise is acquired), behavior can be recognized with high accuracy.
ただし、図10の例では、ノイズ許容値が2であるので、ノイズを三回連続して取得すると、初期状態に遷移してカウント値を0にする。 However, in the example in Figure 10, the noise tolerance value is 2, so if noise is detected three times in a row, the system will transition to the initial state and the count value will be set to 0.
(変形例3)
図11は、変形例3の振舞の動作確定の遷移を説明するための図である。図11の例では、初期状態と、動作情報「1」「2」「4」に対応する動作状態1、2、4が示されている。
(Variation 3)
Fig. 11 is a diagram for explaining the transition of the action determination of the behavior in Modification 3. In the example of Fig. 11, an initial state and action states 1, 2, and 4 corresponding to action information "1", "2", and "4" are shown.
動作状態1は、状態1T_1(カウント値=1の状態)と、状態1T_2(カウント値=2の状態)と、状態1C(カウント値=3の状態)とを有する。なお、状態管理部62A(動作状態1)では、動作確定閾値(状態の数量(段数)に相当)は3に設定されている。また、ノイズ許容値は1に設定されている。したがって、カウンタがどの状態であっても、状態1T_1(カウント値=1の状態)に遷移する。 Operating state 1 has state 1T_1 (count value = 1), state 1T_2 (count value = 2), and state 1C (count value = 3). In state management unit 62A (operating state 1), the operation determination threshold (corresponding to the number of states (number of stages)) is set to 3. The noise tolerance is also set to 1. Therefore, regardless of the state of the counter, it will transition to state 1T_1 (count value = 1).
動作状態2は、状態2T_1(カウント値=1の状態)と、状態2T_2(カウント値=2の状態)と、状態2C(カウント値=3の状態)とを有する。なお、状態管理部62B(動作状態2)では、動作確定閾値は3に設定されている。また、ノイズ許容値は1に設定されている。したがって、カウンタがどの状態であっても、状態2T_1(カウント値=1の状態)に遷移する。 Operating state 2 has state 2T_1 (count value = 1), state 2T_2 (count value = 2), and state 2C (count value = 3). In state management unit 62B (operating state 2), the operation determination threshold is set to 3. The noise tolerance is also set to 1. Therefore, regardless of the state of the counter, it will transition to state 2T_1 (count value = 1).
動作状態4は、状態4T_1(カウント値=1の状態)と、状態4T_2(カウント値=2の状態)と、状態4C(カウント値=3の状態)とを有する。なお、状態管理部62C(動作状態4)では、動作確定閾値は3に設定されている。また、ノイズ許容値は1に設定されている。したがって、カウンタがどの状態であっても、状態4T_1(カウント値=1の状態)に遷移する。 Operating state 4 has state 4T_1 (count value = 1), state 4T_2 (count value = 2), and state 4C (count value = 3). In state management unit 62C (operating state 4), the operation determination threshold is set to 3. The noise tolerance is also set to 1. Therefore, regardless of the state of the counter, it will transition to state 4T_1 (count value = 1).
図11の例では、まず、動作情報「1」を一回取得すると、初期状態から状態1T_1に遷移する。次に、動作情報「1」を二回取得すると、状態1T_1から状態1T_2に遷移する。次に、動作情報「1」を三回取得すると、状態1Cに遷移して、動作1を確定する。 In the example of Figure 11, first, when operation information "1" is acquired once, the system transitions from the initial state to state 1T_1. Next, when operation information "1" is acquired twice, the system transitions from state 1T_1 to state 1T_2. Next, when operation information "1" is acquired three times, the system transitions to state 1C, and operation 1 is confirmed.
次に、動作1が確定した後、動作情報「2」を一回取得すると、動作状態1から状態2T_1に遷移する。次に、動作情報「2」を二回取得すると、状態2T_1から状態2T_2に遷移する。次に、動作情報「2」を三回取得すると、状態2Cに遷移して、動作2を確定する。 Next, after action 1 is confirmed, if action information "2" is acquired once, the system will transition from action state 1 to state 2T_1. Next, if action information "2" is acquired twice, the system will transition from state 2T_1 to state 2T_2. Next, if action information "2" is acquired three times, the system will transition to state 2C and action 2 will be confirmed.
次に、動作1、2が確定した後、動作情報「4」を一回取得すると、動作状態2から状態4T_1にする。次に、動作情報「4」を二回取得すると、状態4T_1から状態4T_2に遷移する。次に、動作情報「4」を三回取得すると、状態4Cに遷移して、動作4を確定する。 Next, after actions 1 and 2 are confirmed, if action information "4" is acquired once, the state changes from action state 2 to state 4T_1. Next, if action information "4" is acquired twice, the state transitions from state 4T_1 to state 4T_2. Next, if action information "4" is acquired three times, the state transitions to state 4C, and action 4 is confirmed.
したがって、変形例3によれば、誤推定された動作情報を取得した場合(ノイズを取得した場合)でも、振舞を精度よく認識できる。 Therefore, according to variant example 3, behavior can be recognized with high accuracy even when erroneously estimated motion information is acquired (when noise is acquired).
(変形例4)
図12は、複数の振舞を確定する処理を並列して実行する構成を説明するための図である。図12の例では、振舞A、振舞B、振舞Cを並列に実行して、振舞A、振舞B、振舞Cを確定する時間を短縮する。
(Variation 4)
12 is a diagram illustrating a configuration for executing processes for determining multiple behaviors in parallel. In the example of FIG. 12, behaviors A, B, and C are executed in parallel to reduce the time required to determine behaviors A, B, and C.
図12の例では、振舞Aの振舞確定部12Aは、上述したように動作確定部61A、61B、61Cを有している。振舞Bの振舞確定部12Bは、動作確定部61D、61E、61Fを有している。振舞Cの振舞確定部12Cは、動作確定部61D、61E、61F、61Dを有している。 In the example of Figure 12, the behavior determination unit 12A for behavior A has operation determination units 61A, 61B, and 61C as described above. The behavior determination unit 12B for behavior B has operation determination units 61D, 61E, and 61F. The behavior determination unit 12C for behavior C has operation determination units 61D, 61E, 61F, and 61D.
動作確定部61Aは、座っている動作(動作1)を確定する。動作確定部61Bは、中腰の動作(動作2)を確定する。動作確定部61Cは、立っている動作(動作4)を確定する。 The movement determination unit 61A determines the sitting movement (movement 1). The movement determination unit 61B determines the crouching movement (movement 2). The movement determination unit 61C determines the standing movement (movement 4).
動作確定部61Dは、歩いている動作(動作3)を確定する。動作確定部61Eは、スマホを操作している動作(動作5)を確定する。動作確定部61Fは、通話している動作(動作6)を確定する。 The action confirmation unit 61D confirms the action of walking (action 3). The action confirmation unit 61E confirms the action of operating a smartphone (action 5). The action confirmation unit 61F confirms the action of talking on a phone (action 6).
したがって、変形例4によれば、複数の振舞認識を並列に実行することで、短時間で認証ができる。ただし、並列に実行させる振舞確定部12の個数、振舞の種類は、図12の例に限定されない。 Therefore, according to variant example 4, authentication can be completed in a short time by performing multiple behavior recognitions in parallel. However, the number of behavior determination units 12 and the types of behaviors that are performed in parallel are not limited to the example in Figure 12.
[装置動作]
次に、実施形態と変形例1から4における振舞認識装置の動作について図13を用いて説明する。図13は、振舞認識装置の動作の一例を説明するための図である。以下の説明においては、適宜図を参酌する。また、実施形態と変形例1から4では、振舞認識装置を動作させることによって、振舞認識方法が実施される。よって、実施形態における振舞認識方法の説明は、以下の振舞認識装置の動作説明に代える。
[Device operation]
Next, the operation of the behavior recognition device in the embodiment and modified examples 1 to 4 will be described with reference to FIG. 13 . FIG. 13 is a diagram for explaining an example of the operation of the behavior recognition device. In the following description, the diagram will be referred to as appropriate. Furthermore, in the embodiment and modified examples 1 to 4, the behavior recognition method is implemented by operating the behavior recognition device. Therefore, the description of the behavior recognition method in the embodiment will be replaced by the following description of the operation of the behavior recognition device.
図13に示すように、まず、前処理部13は、撮像装置20がリアルタイムで時系列に撮像した画像、又は、記憶装置(不図示)から過去に時系列に撮像した画像を取得する(ステップA1)。 As shown in FIG. 13, first, the pre-processing unit 13 acquires images captured in real time by the imaging device 20, or images captured in past time series from a storage device (not shown) (step A1).
次に、前処理部13は、撮像装置20が撮像した画像を、後段の処理で、動作と振舞を効率よく認識できるように、画像を加工する(ステップA2)。 Next, the pre-processing unit 13 processes the image captured by the imaging device 20 so that movements and behaviors can be efficiently recognized in subsequent processing (step A2).
次に、物体情報抽出部14は、前処理部13から取得した画像から、対象物体に関する情報を抽出する(ステップA3)。具体的には、ステップA3において、物体情報抽出部14は、既存技術により、対象物体画像から対象物体に関する情報と、対象物体以外に関する情報とを抽出する。 Next, the object information extraction unit 14 extracts information about the target object from the image acquired from the preprocessing unit 13 (step A3). Specifically, in step A3, the object information extraction unit 14 uses existing technology to extract information about the target object and information about things other than the target object from the target object image.
次に、動作推定部15は、対象物体に関する情報、又は、対象物体に関する情報と対象物体以外に関する情報とを用いて、対象物体画像ごとに対象物体の動作を推定する(ステップA4)。 Next, the movement estimation unit 15 estimates the movement of the target object for each target object image using information about the target object, or information about the target object and information about things other than the target object (step A4).
具体的には、ステップA4において、動作推定部15は、対象物体に関する情報、又は、対象物体に関する情報と対象物体以外に関する情報とを用いて、対象物体画像ごとに対象物体の動作を推定する。 Specifically, in step A4, the movement estimation unit 15 estimates the movement of the target object for each target object image using information about the target object, or information about the target object and information about something other than the target object.
次に、振舞確定部12は、推定した動作があらかじめ設定された回数(動作確定閾値)連続した場合、対象物体の動作を、推定した動作に確定する(ステップA5)。 Next, if the estimated movement occurs consecutively a preset number of times (movement confirmation threshold), the behavior determination unit 12 determines the movement of the target object to be the estimated movement (step A5).
具体的には、ステップA5において、振舞確定部12は、確定した動作情報と、確定した動作情報を取得した順番とを用いて、振舞判定情報を参照し、一致する振舞を検出する。なお、ステップA5においては、上述した変形例1から4に示した処理を実行して、振舞を確定してもよい。 Specifically, in step A5, the behavior determination unit 12 uses the determined operation information and the order in which the determined operation information was acquired to refer to the behavior determination information and detect a matching behavior. Note that in step A5, the behavior may be determined by executing the processes shown in Variations 1 to 4 described above.
次に、通知部16は、検出した振舞を表す情報を情報処理装置30へ出力する(ステップA6)。具体的には、ステップA6において、通知部16は、振舞それぞれに関連付けられたあらかじめ設定された優先度に応じて、振舞を利用者に通知するか否かを決定する。通知部16は、例えば、優先度の高い振舞だけを情報処理装置30へ出力する。 Next, the notification unit 16 outputs information representing the detected behavior to the information processing device 30 (step A6). Specifically, in step A6, the notification unit 16 determines whether to notify the user of the behavior, depending on the pre-set priority associated with each behavior. The notification unit 16 outputs, for example, only behaviors with high priority to the information processing device 30.
[実施形態及び変形例1から4の効果]
実施形態によれば、振舞を、あらかじめ決められた複数の異なる動作が、あらかじめ決められた順に行われると見做せるので、動作とその順番を用いることで、動作に要する時間に係わらず振舞を認識できる。
[Effects of the embodiment and modifications 1 to 4]
According to the embodiment, a behavior can be considered as a plurality of different predetermined actions performed in a predetermined order, and by using the actions and their order, the behavior can be recognized regardless of the time required for the actions.
また、変形例1から4によれば、誤推定された動作情報を取得した場合(ノイズを取得した場合)でも、振舞を精度よく認識できる。 Furthermore, according to variants 1 to 4, behavior can be recognized with high accuracy even when erroneously estimated motion information is acquired (when noise is acquired).
[プログラム]
実施形態及び変形例1から4におけるプログラムは、コンピュータに、図13に示すステップA1からA6を実行させるプログラムであればよい。このプログラムをコンピュータにインストールし、実行することによって、実施形態及び変形例1から4における振舞認識装置と振舞認識方法とを実現することができる。この場合、コンピュータのプロセッサは、前処理部13、推定部11(物体情報抽出部14、動作推定部15)、振舞確定部12、通知部16として機能し、処理を行なう。
[program]
The program in the embodiment and modifications 1 to 4 may be a program that causes a computer to execute steps A1 to A6 shown in Fig. 13. By installing and executing this program in a computer, the behavior recognition device and behavior recognition method in the embodiment and modifications 1 to 4 can be realized. In this case, the processor of the computer functions as a preprocessing unit 13, an estimation unit 11 (object information extraction unit 14, motion estimation unit 15), a behavior determination unit 12, and a notification unit 16, and performs processing.
また、実施形態及び変形例1から4におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されてもよい。この場合は、例えば、各コンピュータが、それぞれ、前処理部13、推定部11(物体情報抽出部14、動作推定部15)、振舞確定部12、通知部16のいずれかとして機能してもよい。 Furthermore, the programs in the embodiment and variants 1 to 4 may be executed by a computer system constructed by multiple computers. In this case, for example, each computer may function as one of the preprocessing unit 13, estimation unit 11 (object information extraction unit 14, motion estimation unit 15), behavior determination unit 12, and notification unit 16.
[物理構成]
ここで、実施形態及び変形例1から4におけるプログラムを実行することによって、振舞認識装置を実現するコンピュータについて図14を用いて説明する。図14は、実施形態及び変形例1から4における振舞認識装置を実現するコンピュータの一例を示すブロック図である。
[Physical configuration]
Here, a computer that realizes the behavior recognition device by executing the program in the embodiment and modifications 1 to 4 will be described with reference to Fig. 14. Fig. 14 is a block diagram showing an example of a computer that realizes the behavior recognition device in the embodiment and modifications 1 to 4.
図14に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU、又はFPGAを備えていてもよい。 As shown in FIG. 14, the computer 110 includes a CPU (Central Processing Unit) 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader/writer 116, and a communication interface 117. These components are connected to each other via a bus 121 so that they can communicate data with each other. Note that the computer 110 may include a GPU or FPGA in addition to or instead of the CPU 111.
CPU111は、記憶装置113に格納された、実施形態及び変形例1から4におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)などの揮発性の記憶装置である。また、実施形態及び変形例1から4におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、実施形態及び変形例1から4におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであってもよい。なお、記録媒体120は、不揮発性記録媒体である。 The CPU 111 performs various calculations by expanding the programs (codes) in the embodiments and variants 1 to 4 stored in the storage device 113 into the main memory 112 and executing them in a predetermined order. The main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory). The programs in the embodiments and variants 1 to 4 are provided in a state stored on a computer-readable recording medium 120. The programs in the embodiments and variants 1 to 4 may also be distributed over the Internet connected via the communication interface 117. The recording medium 120 is a non-volatile recording medium.
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリなどの半導体記憶装置があげられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。 Specific examples of the storage device 113 include a hard disk drive and semiconductor storage devices such as flash memory. The input interface 114 mediates data transmission between the CPU 111 and input devices 118 such as a keyboard and mouse. The display controller 115 is connected to the display device 119 and controls the display on the display device 119.
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。 The data reader/writer 116 mediates data transmission between the CPU 111 and the recording medium 120, reads programs from the recording medium 120, and writes the processing results of the computer 110 to the recording medium 120. The communication interface 117 mediates data transmission between the CPU 111 and other computers.
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)などの汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)などの磁気記録媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記録媒体があげられる。 Specific examples of the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), magnetic recording media such as flexible disks, and optical recording media such as CD-ROMs (Compact Disk Read Only Memory).
なお、実施形態及び変形例1から4における振舞認識装置は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。さらに、振舞認識装置は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。 Note that the behavior recognition device in the embodiment and variants 1 to 4 can also be realized using hardware corresponding to each part, rather than a computer on which a program is installed. Furthermore, the behavior recognition device may be partially realized by a program and the remaining part by hardware.
[付記]
以上の実施形態に関し、更に以下の付記を開示する。上述した実施形態及び変形例1から4の一部又は全部は、以下に記載する(付記1)から(付記9)により表現することができるが、以下の記載に限定されるものではない。
[Note]
The following supplementary notes are further disclosed regarding the above-described embodiments: Part or all of the above-described embodiments and Modifications 1 to 4 can be expressed by (Supplementary Note 1) to (Supplementary Note 9) described below, but are not limited to the following descriptions.
(付記1)
時系列に取得した画像に含まれる対象物体に対応する対象物体画像を用いて、前記対象物体画像ごとに前記対象物体の動作を推定する、推定部と、
同じ前記推定した動作があらかじめ設定された回数連続した場合、前記対象物体の動作を、前記推定した動作に確定し、前記対象物体の動作が確定した順番が、前記対象物体の一連の動作を表す振舞ごとにあらかじめ設定された動作が遷移する順番と一致した場合、順番が一致した振舞を前記対象物体の振舞と確定する、振舞確定部と、
を有する振舞認識装置。
(Appendix 1)
an estimation unit that estimates a motion of a target object for each target object image by using target object images corresponding to the target object included in images acquired in time series;
a behavior determination unit that, when the same estimated behavior occurs consecutively a preset number of times, determines the behavior of the target object to be the estimated behavior, and, when the order in which the target object's behaviors are determined matches the order in which predetermined behaviors transition for each behavior representing a series of behaviors of the target object, determines the behavior with the matching order as the behavior of the target object;
A behavior recognition device having the above.
(付記2)
付記1に記載の振舞認識装置であって、
前記振舞確定部は、動作ごとにあらかじめ設定された動作情報を取得した場合にカウンタのカウント値を加算し、あらかじめ設定された前記動作情報以外の動作情報を取得した場合にはノイズ許容値に応じて前記カウント値を減算し、前記カウント値があらかじめ設定された動作確定閾値になった場合、前記対象物体の動作を、推定した動作と確定する
振舞認識装置。
(Appendix 2)
2. The behavior recognition device according to claim 1,
The behavior determination unit increments a count value of a counter when it acquires predetermined motion information for each motion, subtracts the count value according to a noise tolerance value when it acquires motion information other than the predetermined motion information, and determines the motion of the target object as an estimated motion when the count value reaches a predetermined motion determination threshold.
(付記3)
付記1又は2に記載の振舞認識装置であって、
あらかじめ設定した優先度に応じて、前記振舞を利用者に通知するか否かを決定する、通知部
を有する振舞認識装置。
(Appendix 3)
3. The behavior recognition device according to claim 1,
A behavior recognition device having a notification unit that determines whether or not to notify a user of the behavior according to a preset priority.
(付記4)
コンピュータが、
時系列に取得した画像に含まれる対象物体に対応する対象物体画像を用いて、前記対象物体画像ごとに前記対象物体の動作を推定する、推定ステップと、
同じ前記推定した動作があらかじめ設定された回数連続した場合、前記対象物体の動作を、前記推定した動作に確定し、前記対象物体の動作が確定した順番が、前記対象物体の一連の動作を表す振舞ごとにあらかじめ設定された動作が遷移する順番と一致した場合、順番が一致した振舞を前記対象物体の振舞と確定する、振舞確定ステップと、
を実行する振舞認識方法。
(Appendix 4)
The computer
an estimation step of estimating a motion of a target object for each target object image using target object images corresponding to the target object included in images acquired in time series;
a behavior determination step of determining the behavior of the target object as the estimated behavior when the same estimated behavior occurs consecutively a predetermined number of times, and determining the behavior with the matching order as the behavior of the target object when the order in which the target object's behaviors are determined matches the order in which predetermined behaviors transition for each behavior representing a series of behaviors of the target object;
A behavior recognition method that performs
(付記5)
付記4に記載の振舞認識方法であって、
前記振舞確定ステップは、動作ごとにあらかじめ設定された動作情報を取得した場合にカウンタのカウント値を加算し、あらかじめ設定された前記動作情報以外の動作情報を取得した場合にはノイズ許容値に応じて前記カウント値を減算し、前記カウント値があらかじめ設定された動作確定閾値になった場合、前記対象物体の動作を、推定した動作と確定する
振舞認識方法。
(Appendix 5)
5. The behavior recognition method according to claim 4, further comprising:
The behavior determination step increments a count value of a counter when predetermined motion information for each motion is acquired, decrements the count value according to a noise tolerance when motion information other than the predetermined motion information is acquired, and determines the motion of the target object as an estimated motion when the count value reaches a predetermined motion determination threshold.
(付記6)
付記4又は5に記載の振舞認識方法であって、
あらかじめ設定した優先度に応じて、前記振舞を利用者に通知するか否かを決定する、通知部
を有する振舞認識方法。
(Appendix 6)
6. The behavior recognition method according to claim 4 or 5,
A behavior recognition method comprising: a notification unit that determines whether or not to notify a user of the behavior according to a preset priority.
(付記7)
コンピュータに、
時系列に取得した画像に含まれる対象物体に対応する対象物体画像を用いて、前記対象物体画像ごとに前記対象物体の動作を推定する、推定ステップと、
同じ前記推定した動作があらかじめ設定された回数連続した場合、前記対象物体の動作を、前記推定した動作に確定し、前記対象物体の動作が確定した順番が、前記対象物体の一連の動作を表す振舞ごとにあらかじめ設定された動作が遷移する順番と一致した場合、順番が一致した振舞を前記対象物体の振舞と確定する、振舞確定ステップと、
を実行させるプログラム。
(Appendix 7)
On the computer,
an estimation step of estimating a motion of a target object for each target object image using target object images corresponding to the target object included in images acquired in time series;
a behavior determination step of determining the behavior of the target object as the estimated behavior when the same estimated behavior occurs consecutively a predetermined number of times, and determining the behavior with the matching order as the behavior of the target object when the order in which the target object's behaviors are determined matches the order in which predetermined behaviors transition for each behavior representing a series of behaviors of the target object;
A program that executes the following.
(付記8)
付記7に記載のプログラムであって、
前記振舞確定ステップは、動作ごとにあらかじめ設定された動作情報を取得した場合にカウンタのカウント値を加算し、あらかじめ設定された前記動作情報以外の動作情報を取得した場合にはノイズ許容値に応じて前記カウント値を減算し、前記カウント値があらかじめ設定された動作確定閾値になった場合、前記対象物体の動作を、推定した動作と確定する
プログラム。
(Appendix 8)
8. The program of claim 7,
The behavior determination step is a program that adds a count value of a counter when predetermined motion information is acquired for each motion, subtracts the count value according to a noise tolerance value when motion information other than the predetermined motion information is acquired, and determines the motion of the target object as an estimated motion when the count value reaches a predetermined motion determination threshold.
(付記9)
付記7又は8に記載のプログラムであって、
あらかじめ設定した優先度に応じて、前記振舞を利用者に通知するか否かを決定する、通知ステップ
を実行させるプログラム。
(Appendix 9)
9. The program according to claim 7 or 8,
a notification step for determining whether or not to notify the user of the behavior according to a preset priority.
以上、実施形態を参照して発明を説明したが、発明は上述した実施形態に限定されるものではない。発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 The invention has been described above with reference to embodiments, but the invention is not limited to the above-described embodiments. Various modifications that would be understandable to a person skilled in the art can be made to the configuration and details of the invention within the scope of the invention.
上述した記載によれば、物体の振舞を精度よく認識することができる。また、物体の振舞を認識することが必要な分野において有用である。 The above description makes it possible to accurately recognize the behavior of an object. It is also useful in fields where it is necessary to recognize the behavior of an object.
10 振舞認識装置
11 推定部
12、12A、12B、12C 振舞確定部
13 前処理部
14 物体情報抽出部
15 動作推定部
16 通知部
20 撮像装置
30 情報処理装置
61、61A、61B、61C、61D、61E、61F 動作確定部
62、62A、62B、62C 状態管理部
63、63A、63B、63C カウンタ
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
REFERENCE SIGNS LIST 10 Behavior recognition device 11 Estimation unit 12, 12A, 12B, 12C Behavior determination unit 13 Preprocessing unit 14 Object information extraction unit 15 Action estimation unit 16 Notification unit 20 Imaging device 30 Information processing device 61, 61A, 61B, 61C, 61D, 61E, 61F Action determination unit 62, 62A, 62B, 62C Status management unit 63, 63A, 63B, 63C Counter 110 Computer 111 CPU
112 Main memory 113 Storage device 114 Input interface 115 Display controller 116 Data reader/writer 117 Communication interface 118 Input device 119 Display device 120 Recording medium 121 Bus
Claims (6)
同じ前記推定した動作があらかじめ設定された回数連続した場合、前記対象物体の動作を、前記推定した動作に確定し、前記対象物体の動作が確定した順番が、前記対象物体の一連の動作を表す振舞ごとにあらかじめ設定された動作が遷移する順番と一致した場合、順番が一致した振舞を前記対象物体の振舞と確定する、振舞確定手段と、を有し、
前記振舞確定手段は、動作ごとにあらかじめ設定された動作情報を取得した場合にカウンタのカウント値を加算し、あらかじめ設定された前記動作情報以外の動作情報を取得した場合にはノイズ許容値に応じて前記カウント値を減算し、前記カウント値があらかじめ設定された動作確定閾値になった場合、前記対象物体の動作を、推定した動作と確定する
振舞認識装置。 an estimation means for estimating a motion of a target object for each target object image by using target object images corresponding to the target object included in images acquired in time series;
a behavior determination means for determining the behavior of the target object as the estimated behavior when the same estimated behavior occurs a predetermined number of times in succession, and determining the behavior with the matching order as the behavior of the target object when the order in which the target object's behaviors are determined matches the order in which predetermined behaviors transition for each behavior representing a series of behaviors of the target object ;
The behavior determination means increments a count value of a counter when it acquires predetermined motion information for each motion, decrements the count value according to a noise tolerance value when it acquires motion information other than the predetermined motion information, and determines the motion of the target object as an estimated motion when the count value reaches a predetermined motion determination threshold.
Behavior recognizer.
あらかじめ設定した優先度に応じて、前記振舞を利用者に通知するか否かを決定する、通知手段
を有する振舞認識装置。 The behavior recognition device according to claim 1 ,
A behavior recognition device having a notification means for determining whether or not to notify a user of the behavior according to a preset priority.
同じ前記推定した動作があらかじめ設定された回数連続した場合、前記対象物体の動作を、前記推定した動作に確定し、前記対象物体の動作が確定した順番が、前記対象物体の一連の動作を表す振舞ごとにあらかじめ設定された動作が遷移する順番と一致した場合、順番が一致した振舞を前記対象物体の振舞と確定し、
さらに、動作ごとにあらかじめ設定された動作情報を取得した場合にカウンタのカウント値を加算し、あらかじめ設定された前記動作情報以外の動作情報を取得した場合にはノイズ許容値に応じて前記カウント値を減算し、前記カウント値があらかじめ設定された動作確定閾値になった場合、前記対象物体の動作を、推定した動作と確定する
振舞認識方法。 using target object images corresponding to the target object included in the images acquired in time series, estimating a movement of the target object for each of the target object images;
When the same estimated action is performed a predetermined number of times in succession, the action of the target object is determined to be the estimated action, and when the order in which the actions of the target object are determined matches the order in which actions that are preset for each behavior representing a series of actions of the target object transition, the behavior with the matching order is determined to be the behavior of the target object;
Furthermore, when predetermined motion information for each motion is acquired, the count value of the counter is incremented, and when motion information other than the predetermined motion information is acquired, the count value is decremented according to a noise tolerance value, and when the count value reaches a predetermined motion determination threshold, the motion of the target object is determined to be the estimated motion.
Behavioral recognition methods.
あらかじめ設定した優先度に応じて、前記振舞を利用者に通知するか否かを決定する
振舞認識方法。 The behavior recognition method according to claim 3 ,
A behavior recognition method that determines whether or not to notify a user of the behavior according to a preset priority.
時系列に取得した画像に含まれる対象物体に対応する対象物体画像を用いて、前記対象物体画像ごとに前記対象物体の動作を推定させ、
同じ前記推定した動作があらかじめ設定された回数連続した場合、前記対象物体の動作を、前記推定した動作に確定させ、前記対象物体の動作が確定した順番が、前記対象物体の一連の動作を表す振舞ごとにあらかじめ設定された動作が遷移する順番と一致した場合、順番が一致した振舞を前記対象物体の振舞と確定させ、
さらに、動作ごとにあらかじめ設定された動作情報を取得した場合にカウンタのカウント値を加算させ、あらかじめ設定された前記動作情報以外の動作情報を取得した場合にはノイズ許容値に応じて前記カウント値を減算させ、前記カウント値があらかじめ設定された動作確定閾値になった場合、前記対象物体の動作を、推定した動作と確定させる
プログラム。 On the computer,
using target object images corresponding to the target object included in the images acquired in time series, estimating the motion of the target object for each of the target object images;
When the same estimated action is performed a predetermined number of times in succession, the action of the target object is determined to be the estimated action; when the order in which the actions of the target object are determined matches the order in which actions preset for each behavior representing a series of actions of the target object transition, the behavior with the matching order is determined to be the behavior of the target object ;
Furthermore, when predetermined motion information for each motion is acquired, the count value of the counter is incremented, and when motion information other than the predetermined motion information is acquired, the count value is decremented according to a noise tolerance value. When the count value reaches a predetermined motion determination threshold, the motion of the target object is determined to be the estimated motion.
program.
あらかじめ設定した優先度に応じて、前記振舞を利用者に通知するか否かを決定させる
プログラム。 6. The program according to claim 5 ,
A program that determines whether or not to notify the user of the behavior according to a preset priority.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021205370A JP7750598B2 (en) | 2021-12-17 | 2021-12-17 | Behavior recognition device, behavior recognition method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021205370A JP7750598B2 (en) | 2021-12-17 | 2021-12-17 | Behavior recognition device, behavior recognition method, and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023090420A JP2023090420A (en) | 2023-06-29 |
| JP7750598B2 true JP7750598B2 (en) | 2025-10-07 |
Family
ID=86936903
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021205370A Active JP7750598B2 (en) | 2021-12-17 | 2021-12-17 | Behavior recognition device, behavior recognition method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7750598B2 (en) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005215927A (en) | 2004-01-29 | 2005-08-11 | Mitsubishi Heavy Ind Ltd | Behavior recognition system |
| JP2010036762A (en) | 2008-08-06 | 2010-02-18 | Denso Corp | Device for estimating behavior and program |
| WO2016199748A1 (en) | 2015-06-11 | 2016-12-15 | コニカミノルタ株式会社 | Motion detection system, motion detection device, motion detection method, and motion detection program |
| JP2021135898A (en) | 2020-02-28 | 2021-09-13 | 富士通株式会社 | Behavior recognition method, behavior recognition program and behavior recognition device |
-
2021
- 2021-12-17 JP JP2021205370A patent/JP7750598B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005215927A (en) | 2004-01-29 | 2005-08-11 | Mitsubishi Heavy Ind Ltd | Behavior recognition system |
| JP2010036762A (en) | 2008-08-06 | 2010-02-18 | Denso Corp | Device for estimating behavior and program |
| WO2016199748A1 (en) | 2015-06-11 | 2016-12-15 | コニカミノルタ株式会社 | Motion detection system, motion detection device, motion detection method, and motion detection program |
| JP2021135898A (en) | 2020-02-28 | 2021-09-13 | 富士通株式会社 | Behavior recognition method, behavior recognition program and behavior recognition device |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2023090420A (en) | 2023-06-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Majumder et al. | Vision and inertial sensing fusion for human action recognition: A review | |
| Jalal et al. | Real-time life logging via a depth silhouette-based human activity recognition system for smart home services | |
| US20180211104A1 (en) | Method and device for target tracking | |
| US9098740B2 (en) | Apparatus, method, and medium detecting object pose | |
| Shan et al. | 3D human action segmentation and recognition using pose kinetic energy | |
| US9349218B2 (en) | Method and apparatus for controlling augmented reality | |
| Wang et al. | Hidden‐Markov‐models‐based dynamic hand gesture recognition | |
| US20160217198A1 (en) | User management method and apparatus | |
| JP6007682B2 (en) | Image processing apparatus, image processing method, and program | |
| EP3286679A1 (en) | Method and system for identifying a human or machine | |
| Arivazhagan et al. | Human action recognition from RGB-D data using complete local binary pattern | |
| WO2015186436A1 (en) | Image processing device, image processing method, and image processing program | |
| CN102375970A (en) | Identity authentication method based on face and authentication apparatus thereof | |
| EP2899706B1 (en) | Method and system for analyzing human behavior in an intelligent surveillance system | |
| WO2019000817A1 (en) | Control method and electronic equipment for hand gesture recognition | |
| KR101762010B1 (en) | Method of modeling a video-based interactive activity using the skeleton posture datset | |
| Zerrouki et al. | Automatic classification of human body postures based on the truncated SVD | |
| CN107340861B (en) | Gesture recognition method and device thereof | |
| CN111160251A (en) | Living body identification method and device | |
| Chua et al. | Vision-based hand grasping posture recognition in drinking activity | |
| KR20200046152A (en) | Face recognition method and face recognition apparatus | |
| KR20230093191A (en) | Method for recognizing joint by error type, server | |
| JP7750598B2 (en) | Behavior recognition device, behavior recognition method, and program | |
| WO2016171923A1 (en) | Method and system for identifying a human or machine | |
| KR20160113966A (en) | Method and apparatus for recognizing action |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20241101 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250612 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250702 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250818 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250826 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250918 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7750598 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |