[go: up one dir, main page]

JP2014068714A - Joint angle measuring system - Google Patents

Joint angle measuring system Download PDF

Info

Publication number
JP2014068714A
JP2014068714A JP2012215531A JP2012215531A JP2014068714A JP 2014068714 A JP2014068714 A JP 2014068714A JP 2012215531 A JP2012215531 A JP 2012215531A JP 2012215531 A JP2012215531 A JP 2012215531A JP 2014068714 A JP2014068714 A JP 2014068714A
Authority
JP
Japan
Prior art keywords
joint
information
skeleton
angle
joint angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012215531A
Other languages
Japanese (ja)
Inventor
Eijiro Adachi
栄治郎 安達
Taku Masuda
卓 増田
Junichi Mizusawa
純一 水澤
Naofumi Kitsunezaki
直文 狐崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kitasato Institute
Original Assignee
Kitasato Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kitasato Institute filed Critical Kitasato Institute
Priority to JP2012215531A priority Critical patent/JP2014068714A/en
Publication of JP2014068714A publication Critical patent/JP2014068714A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】より簡易に被験者が,指定された関節を自らの意志で,開く・閉じる動作を行って関節角度を測定できるシステムを提供する。
【解決手段】被験者の撮像画像データと,前記撮像画像データの各画素の深度情報と,仮想三次元空間における前記被験者のスケルトン(骨格)情報とを生成する深度情報付き撮像部と,前記スケルトン(骨格)において特定され、可動域を測定する関節に繋がれる2辺の空間ベクトル情報を生成し,前記2辺の空間ベクトル情報を基に前記関節の角度を計算する関節角度計算部を有する。
【選択図】図1
The present invention provides a system in which a subject can measure a joint angle by opening and closing a specified joint with his own will.
An imaging unit with depth information for generating captured image data of a subject, depth information of each pixel of the captured image data, and skeleton (skeleton) information of the subject in a virtual three-dimensional space, and the skeleton ( A joint angle calculation unit that generates space vector information of two sides that are specified in the skeleton) and that is connected to a joint whose range of motion is measured, and calculates an angle of the joint based on the space vector information of the two sides.
[Selection] Figure 1

Description

本発明は,リハビリ・トレーニングの効果を確認する目的で,被験者の関節角度を自動で把握可能とする関節角度測定システムに関する。   The present invention relates to a joint angle measurement system capable of automatically grasping a joint angle of a subject for the purpose of confirming the effect of rehabilitation training.

これまで,医療機関でのリハビリ医療において,リハビリ・トレーニングの効果を確認する際は,介助者が角度計を持って,直接被験者の関節部分に当ててマニュアルで関節角度(ROM:関節可動域)を測定していた。ROMのマニュアル測定では,介助者が測定対象となる関節近傍に大きな角度計を添え予め指定された作業手順に従って測定を行う。   Until now, in rehabilitation medical care at medical institutions, when checking the effects of rehabilitation training, an assistant has an angle meter and directly touches the subject's joint part to manually joint angle (ROM: joint range of motion) Was measuring. In the manual measurement of ROM, the assistant attaches a large angle meter near the joint to be measured and performs the measurement according to the work procedure specified in advance.

一方,従来技術として,リハビリテーション患者のROMの検査/訓練に関し,短時間で正確な測定ができる関節可動域検査訓練システムが提案されている(特許文献1)。   On the other hand, as a conventional technique, there has been proposed a joint range-of-motion inspection training system that can perform accurate measurement in a short time with respect to ROM inspection / training of rehabilitation patients (Patent Document 1).

かかる提案された関節可動域検査訓練システムでは,2台以上のビデオカメラを備え,測定対象(被験者)を撮影し,その撮影映像をデジタル化した信号を,計算機を用いて解析する。これにより,測定対象に付けられたそれぞれ色の異なる複数のマーカ(身体位置)の空間位置を求めることができる。   The proposed joint range-of-motion inspection training system includes two or more video cameras, images a measurement target (subject), and analyzes a digitized signal using a computer. As a result, the spatial positions of a plurality of markers (body positions) with different colors attached to the measurement object can be obtained.

ROM測定においては,可動域を測定したい関節に対してその関節の周囲にそれぞれ色の異なるマーカを貼り付けることにより,関節の動きに応じた周辺部位の動きを追跡することができる。さらに,予め関節の周辺に取り付けるべきマーカの空間位置から関節角度を算出する算出式が定義されている。   In the ROM measurement, the movement of the peripheral part according to the movement of the joint can be tracked by pasting a marker having a different color around the joint to which the movable range is to be measured. Furthermore, a calculation formula for calculating a joint angle from a spatial position of a marker to be attached around the joint is defined in advance.

したがって,関節角度算出手段により,その算出式に身体部位置計測手段が求めたマーカの空間位置を代入することにより実際の関節角度を求めるという技術である。   Therefore, the joint angle calculation means calculates the actual joint angle by substituting the spatial position of the marker obtained by the body part position measurement means into the calculation formula.

特開2002−584号公報JP 2002-584 A

上記特許文献1に記載のシステムでは,複数台のビデオカメラを用いている。また被験者の撮像画像をデジタル画像に変換して,身体部位をデジタル画像から抽出する処理を必要とする。さらに,関節毎に予め定義された身体部位の組み合わせと関節角度と算出式を定義しておくことが必要である。   In the system described in Patent Document 1, a plurality of video cameras are used. Moreover, the process which converts the picked-up image of a test subject into a digital image and extracts a body part from a digital image is required. Furthermore, it is necessary to define a combination of body parts, a joint angle, and a calculation formula that are defined in advance for each joint.

この様に,従来の介助者によりマニュアルにより測定する方法では,大きな角度計を被験者に添えて測定し,且つ測定の都度測定結果を記録していくことが必要である。また,特許文献1に記載のシステムでは,装置が大がかりとなる。   As described above, in the method of manually measuring by a conventional assistant, it is necessary to measure with a large angle meter attached to the subject and record the measurement result every time the measurement is performed. In the system described in Patent Document 1, the apparatus becomes a large scale.

かかる従来技術に鑑みて,本願発明の目的は,より簡易に被験者が,指定された関節を自らの意志で,開く・閉じる動作を行ってリアルタイムに表示される関節角度を被験者及び介助者が測定できるシステムを提供することにある。   In view of such prior art, the object of the present invention is to make it easier for the subject and the assistant to measure the joint angle displayed in real time by opening and closing the specified joint with his own will. It is to provide a system that can.

上記課題を達成する本発明に従う関節角度測定システムの第1の側面は, 被験者の撮像画像データと,前記撮像画像データの各画素の深度情報と,仮想三次元空間における前記被験者のスケルトン(骨格)情報とを生成する深度情報付き撮像部と,前記深度情報付き撮像部から得られるスケルトン(骨格)情報において特定され、可動域を測定する関節に繋がれる2辺の空間ベクトル情報を生成し,前記2辺の空間ベクトル情報に基づき前記関節の角度を計算する関節角度計算部を有することを特徴とする。   The first aspect of the joint angle measurement system according to the present invention that achieves the above-described object is that the subject's captured image data, depth information of each pixel of the captured image data, and the subject's skeleton (skeleton) in a virtual three-dimensional space An imaging unit with depth information for generating information, and skeleton (skeleton) information obtained from the imaging unit with depth information, and generating space vector information of two sides connected to a joint for measuring a range of motion, It has a joint angle calculation part which calculates the angle of the joint based on space vector information of two sides.

上記課題を達成する本発明に従う関節角度測定システムは,前記第1の側面において,前記関節角度計算部は,前記スケルトン(骨格)情報を表示し、表示されるスケルトン(骨格)情報において,前記可動域を測定する関節を特定可能なディスプレイ部を有し,前記関節角度計算部は、前記特定される可動域を測定する関節と前記関節に繋がれる2辺の対応関係を,前記深度情報付き撮像部から得られる深度情報に基づき,前記2辺の空間ベクトル情報を生成し,前記2辺の空間ベクトル情報に基づき前記関節の角度を計算し、前記計算された関節の角度を前記ディスプレイ部に表示させるCPUを有することを特徴とする。   In the joint angle measurement system according to the present invention that achieves the above-mentioned object, in the first aspect, the joint angle calculation unit displays the skeleton (skeleton) information, and in the displayed skeleton (skeleton) information, the movable A display unit capable of specifying a joint for measuring a region, wherein the joint angle calculation unit captures the correspondence between the joint for measuring the specified movable range and the two sides connected to the joint with the depth information Generating space vector information of the two sides based on depth information obtained from the unit, calculating an angle of the joint based on the space vector information of the two sides, and displaying the calculated angle of the joint on the display unit It is characterized by having a CPU to be operated.

上記課題を達成する本発明に従う関節角度測定システムは,前記において,前記関節角度計算部は、所定の時間の後に計算した関節の角度の最大値と最小値とを記憶するメモリを有し、前記所定の時間の後に計算した関節の角度の最大値を最小値を基に前記ディスプレイに,前記関節可動域の変化を表示することを特徴とする。   In the joint angle measurement system according to the present invention that achieves the above object, in the above, the joint angle calculation unit includes a memory that stores a maximum value and a minimum value of a joint angle calculated after a predetermined time, A change in the range of motion of the joint is displayed on the display based on a minimum value of a joint angle calculated after a predetermined time.

上記課題を達成する本発明に従う関節角度測定システムは,前記において,さらに,前記CPUは,前記ディスプレイに,前記表示されるスケルトン(骨格)情報において,表示面上で可動域を測定する関節の特定に関連して,リハビリメニューを表示させ,前記リハビリメニューから選択される検査項目に対応して,正しくない関節の動きに対して警告表示を行うことを特徴とする。   In the joint angle measurement system according to the present invention that achieves the above-described object, the CPU further specifies the joint that measures the range of motion on the display surface in the skeleton information displayed on the display. The rehabilitation menu is displayed, and a warning is displayed for an incorrect joint movement corresponding to the examination item selected from the rehabilitation menu.

また,上記課題を達成する本発明に従う関節角度測定システムは,前記それぞれの特徴において,前記関節角度計算部は、前記計算される角度の情報を遠隔地に転送する手段を有することを特徴とする。   Moreover, the joint angle measuring system according to the present invention that achieves the above-described object is characterized in that, in each of the above features, the joint angle calculation unit includes means for transferring the calculated angle information to a remote place. .

上記課題を達成する本発明に従う関節角度測定システムは,特定の態様として,前記一の側面において,前記深度付き撮像部は、被験者の撮像画像データと,前記撮像画像データの各画素の深度情報と,仮想三次元空間における前記被験者のスケルトン(骨格)情報とをリアルタイムに生成し、前記関節角度計算部は、前記可動域を測定する関節に繋がれる2辺の空間ベクトル情報をリアルタイムに生成し,前記2辺の空間ベクトル情報に基づき前記関節の角度をリアルタイムに計算することを特徴とする。   The joint angle measurement system according to the present invention that achieves the above-described object is, as a specific aspect, in the one aspect, the imaging unit with depth includes captured image data of a subject, depth information of each pixel of the captured image data, and , Generating the subject's skeleton information in a virtual three-dimensional space in real time, and the joint angle calculation unit generates, in real time, space vector information of two sides connected to the joint for measuring the movable range, The angle of the joint is calculated in real time based on the space vector information of the two sides.

上記課題を達成する本発明に従う関節角度測定システムは,前記特定の態様において,前記深度付き撮像部は、被験者の撮像画像データと,前記撮像画像データの各画素の深度情報と,仮想三次元空間における前記被験者のスケルトン(骨格)情報とをリアルタイムに生成し、前記関節角度計算部は、前記可動域を測定する関節に繋がれる2辺の空間ベクトル情報をリアルタイムに生成し,前記2辺の空間ベクトル情報に基づき前記関節の角度をリアルタイムに計算し、前記ディスプレイは前記リアルタイムに計算された関節の角度をリアルタイムに表示することを特徴とする。   In the specific aspect, the joint angle measurement system according to the present invention that achieves the above-described object is such that the imaging unit with depth includes captured image data of a subject, depth information of each pixel of the captured image data, and a virtual three-dimensional space. The skeleton (skeleton) information of the subject is generated in real time, and the joint angle calculation unit generates space vector information of two sides connected to the joint for measuring the movable range in real time, and the space of the two sides The joint angle is calculated in real time based on vector information, and the display displays the joint angle calculated in real time in real time.

さらに,上記課題を達成する本発明に従う関節角度測定システムは,前記特定の態様において,前記深度付き撮像部は、被験者の撮像画像データと,前記撮像画像データの各画素の深度情報と,仮想三次元空間における前記被験者のスケルトン(骨格)情報とをリアルタイムに生成し、前記関節角度計算部は、前記可動域を測定する関節に繋がれる2辺の空間ベクトル情報をリアルタイムに生成し,前記2辺の空間ベクトル情報に基づき前記関節の角度をリアルタイムに計算し、前記計算される角度の情報を遠隔地に転送する手段は前記計算される角度の情報をリアルタイムに遠隔地に転送させることを特徴とする。   Furthermore, the joint angle measurement system according to the present invention that achieves the above-described object is that, in the specific aspect, the imaging unit with depth includes captured image data of a subject, depth information of each pixel of the captured image data, and virtual tertiary. The skeleton (skeleton) information of the subject in the original space is generated in real time, and the joint angle calculation unit generates space vector information of two sides connected to the joint for measuring the movable range in real time, and the two sides The angle of the joint is calculated in real time based on the space vector information and the means for transferring the calculated angle information to the remote location is configured to transfer the calculated angle information to the remote location in real time. To do.

本発明の第1の側面によれば,測定中に測定項目やROMの最大角度,最小角度などを自動で記録することができる。したがって,介助者が記録に伴う作業量を軽減できる。   According to the first aspect of the present invention, it is possible to automatically record the measurement items, the maximum angle and the minimum angle of the ROM during the measurement. Therefore, the amount of work for the assistant can be reduced.

また、ディスプレイを組み合わせることにより、記録データからリハビリ・トレーニングの効果を容易に確認することが可能になる。   Further, by combining the display, it is possible to easily confirm the effect of rehabilitation training from the recorded data.

また,測定データを遠隔地に送信し、遠隔地に設置した表示システムと組み合わせることで,理学療法士のいない施設において,遠隔診断支援システムの機能の一環としてリハビリ・トレーニングの効果を容易に確認することができる。   In addition, by transmitting measurement data to a remote location and combining it with a display system installed at a remote location, the effectiveness of rehabilitation training can be easily confirmed as part of the function of the remote diagnosis support system in a facility without a physical therapist be able to.

本発明に従うリアルタイム関節角度表示システムの一実施例概念図である。1 is a conceptual diagram of an embodiment of a real-time joint angle display system according to the present invention. 関節角度測定装置の構成例を示す図である。It is a figure which shows the structural example of a joint angle measuring apparatus. スケルトン(骨格)モデルの一例を示す図である。It is a figure which shows an example of a skeleton (skeleton) model. 図2に示す構成の関節角度測定装置により実行される処理フローである。It is a processing flow performed by the joint angle measuring apparatus having the configuration shown in FIG. 関節角度測定装置のディスプレイに表示される2フィールドの内の第1のフィールドの表示例である。It is an example of a display of the 1st field of 2 fields displayed on the display of a joint angle measuring device. ディスプレイに表示される2フィールドの内の第2のフィールドの表示例である。It is an example of a display of the 2nd field of 2 fields displayed on a display. リハビリを行うメニュー表示を説明する図である。It is a figure explaining the menu display which performs rehabilitation. ディスプレイの第1のフィールドの画像表示エリアに表示される骨格の表示の一部である。It is a part of the display of the skeleton displayed in the image display area of the first field of the display. リハビリ項目の測定中における,ディスプレイの第2フィールドの一例である。It is an example of the 2nd field of a display in the time of measurement of a rehabilitation item.

以下図面に従い,本発明の実施例を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は,本発明に従う関節角度測定システムの一実施例概念図である。   FIG. 1 is a conceptual diagram of an embodiment of a joint angle measurement system according to the present invention.

関節角度測定システムの基本的構成は,深度情報付撮像部1と,関節角度計算部2を接続して構成される。接続部1と計算部2とは1つの基板上に統合されていてもよいし、深度情報付撮像部1と関節角度計算部2が各々独立した装置であり、インターフェース回線3で接続される構成であってもよい。   The basic configuration of the joint angle measurement system is configured by connecting an imaging unit 1 with depth information and a joint angle calculation unit 2. The connection unit 1 and the calculation unit 2 may be integrated on one board, or the imaging unit 1 with depth information and the joint angle calculation unit 2 are independent devices, and are connected by an interface line 3. It may be.

深度情報付撮像部1は,一定周期(フレーム毎)に背景を含む被験者100の撮影画像データと,撮影画像の各ピクセルにおける深度情報(Z方向の大きさ)と,撮影画像において被験者100の像を推定し,推定される被験者100の像から対応するスケルトン(骨格)モデル情報を生成出力する。   The imaging unit with depth information 1 is the captured image data of the subject 100 including the background at a constant period (for each frame), the depth information (size in the Z direction) at each pixel of the captured image, and the image of the subject 100 in the captured image. , And corresponding skeleton model information is generated and output from the estimated image of the subject 100.

深度情報は、深度情報付撮像部1の撮像面の法線方向の被験者100までの距離を表し、スケルトン(骨格)モデル情報は、深度情報から推定して得られる三次元の情報であり、推定情報であるという意味で仮想三次元空間上の情報である。   The depth information represents the distance to the subject 100 in the normal direction of the imaging surface of the imaging unit 1 with depth information, and the skeleton model information is three-dimensional information obtained by estimation from the depth information. It is information in a virtual three-dimensional space in the sense that it is information.

かかるスケルトン(骨格)モデル情報を含む撮影画像及び深度情報を出力情報として生成する既存装置の一例として,米国Microsoft Corporationのゲーム端末Xbox 360(登録商標)あるいは,パーソナルコンピュータに使用される入力端末機器であるKinect(登録商標)を用いることができる。   As an example of an existing device that generates captured image and depth information including the skeleton model information as output information, a game terminal Xbox 360 (registered trademark) of US Microsoft Corporation or an input terminal device used for a personal computer. Some Kinect (R) can be used.

関節角度計算部2は,一般的なパーソナルコンピュータ相当の機能を有する情報処理装置である。図2にその構成例を示す。   The joint angle calculation unit 2 is an information processing apparatus having a function equivalent to a general personal computer. FIG. 2 shows an example of the configuration.

関節角度計算部2は,主処理部としてCPU20を有する。CPU20は,HDD等の記憶装置21に格納されるOS(オペレーションシステム)に基づき,本発明機能を実現するアプリケーションプログラム(同様に記憶装置21に格納されている)を実行する。   The joint angle calculation unit 2 includes a CPU 20 as a main processing unit. The CPU 20 executes an application program (also stored in the storage device 21) that implements the functions of the present invention based on an OS (operation system) stored in the storage device 21 such as an HDD.

先の深度情報付撮像部1から関節角度計算部2に送られる一定周期(フレーム毎)の撮影画像データと,画像のピクセル対応の深度情報と,被験者100のスケルトン(骨格)モデル情報を,入出力インタフェース22を通して入力する。   The captured image data of a fixed period (for each frame) sent from the imaging unit 1 with depth information to the joint angle calculation unit 2, depth information corresponding to the pixels of the image, and skeleton model information of the subject 100 are input. Input through the output interface 22.

関節角度計算部2は,入力された撮影画像データ及びスケルトン(骨格)モデル情報をビデオ信号に変換して,ビデオメモリ23に描画し,ディスプレイ24に表示する。深度情報とスケルトン(骨格)モデル情報は,同時にRAM25に保存される。   The joint angle calculation unit 2 converts the input captured image data and skeleton (skeleton) model information into a video signal, draws it in the video memory 23, and displays it on the display 24. The depth information and the skeleton model information are stored in the RAM 25 at the same time.

さらに,理学療法士のいない施設で測定が行われる場合にあっては,モデム、LANアダプタ、電光・光電変換機などの通信装置27を通してデータを送り,遠隔地の理学療法士に診断を求める遠隔支援システムを構築することも可能である。   Further, when measurement is performed in a facility without a physical therapist, data is transmitted through a communication device 27 such as a modem, a LAN adapter, an electric / photoelectric converter, etc., and a remote physical therapist is requested for diagnosis. It is also possible to build a support system.

図1に戻り,深度情報付撮像部1についてその構成を更に説明する。   Returning to FIG. 1, the configuration of the imaging unit 1 with depth information will be further described.

図1に示す深度情報付撮像部1は,一定周期(フレーム毎)に被験者100の撮影画像と,画像のピクセル対応の深度情報(Z軸座標)と,被験者100の骨格モデル情報を出力する上記米国Microsoft Corporationの端末装置Kinect(登録商標)に類似の概念構成ブロック図として示されている。   The imaging unit 1 with depth information shown in FIG. 1 outputs the captured image of the subject 100, the depth information (Z-axis coordinates) corresponding to the pixel of the image, and the skeleton model information of the subject 100 at a constant period (every frame). It is shown as a conceptual block diagram similar to a terminal device Kinect (registered trademark) of Microsoft Corporation.

図1において,深度情報付撮像部1の撮像カメラ10は,被験者100を含む所定範囲の像を撮像する撮像部である。制御部13の制御により赤外線放射部11より赤外線を放射し,被験者100から反射される赤外線を赤外線検知部12で検知する。撮像カメラ10からの撮像画像データ,及び赤外線検知部12で検知する反射赤外線は,制御部13に入力される。   In FIG. 1, the imaging camera 10 of the imaging unit 1 with depth information is an imaging unit that captures an image of a predetermined range including the subject 100. Under the control of the control unit 13, infrared rays are emitted from the infrared radiation unit 11, and infrared rays reflected from the subject 100 are detected by the infrared detection unit 12. Captured image data from the imaging camera 10 and reflected infrared rays detected by the infrared detection unit 12 are input to the control unit 13.

制御部13は,メモリ14に格納される制御プログラムを実行することにより,撮像カメラ10からの撮像画像データ,及び赤外線検知部12で検知される反射赤外線に基づき,仮想の三次元空間を生成し,一定周期(一フレーム)毎に撮像画角内で仮想三次元空間画像の各ピクセル対応に,距離(深度)情報(Z軸方向[被験者100側に向かう方向]の大きさ)を生成する。   The control unit 13 generates a virtual three-dimensional space based on the captured image data from the imaging camera 10 and the reflected infrared rays detected by the infrared detection unit 12 by executing a control program stored in the memory 14. , Distance (depth) information (Z-axis direction [direction toward the subject 100 side]) is generated for each pixel of the virtual three-dimensional space image within the imaging angle of view for every fixed period (one frame).

さらに,深度情報から撮像画角に対応する仮想三次元空間における被写体像を所定のスケルトン(骨格)モデルに当てはめたスケルトン(骨格)モデル情報を生成する。   Furthermore, skeleton (skeleton) model information is generated by applying a subject image in a virtual three-dimensional space corresponding to the imaging angle of view to a predetermined skeleton (skeleton) model from the depth information.

ここで,深度情報付撮像部1は,通常の平面画像を撮像するWEBカメラなどと比較して以下の点で優れている。   Here, the imaging unit with depth information 1 is superior to the WEB camera that captures a normal planar image in the following points.

平面画像を撮像するWEBカメラを用いる名場合,例えば腕の肘関節の可動範囲を計測するには,画像処理で腕を識別し平面画像データを基に関節角度の計算が可能である。   In the case of using a WEB camera that captures a planar image, for example, in order to measure the movable range of the elbow joint of the arm, the arm is identified by image processing, and the joint angle can be calculated based on the planar image data.

しかし,奥行き方向の距離情報が欠如しているために,測定対象の肘が成す角度を正確に画像処理から計算可能とする前提条件は,肘の成す角度の平面をカメラレンズ面に平行にすることが求められる。これに対して,図1に示す深度情報付撮像部1では,各画素対応に奥行き距離情報(Z軸座標)を測定して関節角度測定装置2に通知するため,3次元座標で各関節の空間座標を把握することができる。   However, since the distance information in the depth direction is missing, the precondition that the angle formed by the elbow to be measured can be accurately calculated from image processing is that the plane of the angle formed by the elbow is parallel to the camera lens surface. Is required. On the other hand, the imaging unit 1 with depth information shown in FIG. 1 measures depth distance information (Z-axis coordinates) corresponding to each pixel and notifies the joint angle measuring device 2 of the depth distance information. The spatial coordinates can be grasped.

これにより,平面カメラに比較してより正確な角度計算が可能である。   Thereby, more accurate angle calculation is possible compared with a plane camera.

図3は,深度情報付撮像部1で得られる上記スケルトン(骨格)モデルの一例を示す図であり,複数の骨格構成要素と,骨格構成要素を結ぶ接続部で表されている。   FIG. 3 is a diagram showing an example of the skeleton (skeleton) model obtained by the imaging unit 1 with depth information, and is represented by a plurality of skeleton constituent elements and connecting portions connecting the skeleton constituent elements.

すなわち,人体を構成する体幹,上肢,下肢を概念する構成要素を辺30,31等で表し,構成要素である辺30,31等を接続する黒丸の接続部32(32,32)を,関節を概念して示している。 That is, constituent elements conceptually representing the trunk, upper limbs, and lower limbs constituting the human body are represented by sides 30, 31 and the like, and black circle connecting portions 32 (32 1 , 32 2 ) connecting the sides 30, 31 etc., which are constituent elements Is shown with the concept of joints.

例えば,構成要素として,辺30,31は,それぞれ前腕部と上腕部に対応付けし,接続部32は,辺30,31即ち,前腕部と上腕部を繋ぐ関節(肘関節)に対応付けされている。   For example, as components, the sides 30 and 31 are associated with the forearm portion and the upper arm portion, respectively, and the connection portion 32 is associated with the sides 30 and 31, that is, a joint (elbow joint) connecting the forearm portion and the upper arm portion. ing.

そして,被写体(被験者)の大きさに対応して,接続部32(32,32)間の辺30,31等の長さが変えられ被験者100のスケルトン(骨格)が特定される。 Then, in accordance with the size of the subject (subject), the lengths of the sides 30, 31 and the like between the connection portions 32 (32 1 , 32 2 ) are changed, and the skeleton (skeleton) of the subject 100 is specified.

それぞれの接続部32は,仮想3次元空間における三次元座標(X,Y,Z)を有し,被験者100が動くとそれぞれの接続部32の三次元座標(X,Y,Z)が変更される。同時に,それぞれの構成要素(前腕部に対応する辺30,上腕部に対応する辺31等)は特定された長さを有し,両端の接続部32,32(関節に相当)の三次元座標(X,Y,Z)の変化に対応して,仮想3次元空間における構成要素の位置及び角度が変化する。 Each connection part 32 has three-dimensional coordinates (X, Y, Z) in the virtual three-dimensional space, and when the subject 100 moves, the three-dimensional coordinates (X, Y, Z) of each connection part 32 are changed. The At the same time, each component (side 30 corresponding to the forearm, side 31 corresponding to the upper arm, etc.) has a specified length, and the tertiary of the connecting portions 32 1 and 32 2 (corresponding to joints) at both ends. Corresponding to the change of the original coordinates (X, Y, Z), the position and angle of the component in the virtual three-dimensional space change.

図4は,かかる図2に示す構成の関節角度測計算部2により実行される処理フローである。   FIG. 4 is a processing flow executed by the joint angle measurement calculation unit 2 having the configuration shown in FIG.

まず,深度情報付撮像部1で生成され,入出力インタフェース22を通してRAM25に一旦保持された深度情報とスケルトン(骨格)情報を一フレーム毎に取得する(ステップS1)。 次いで,得られたスケルトン(骨格)情報をビデオRAM23に描画し,スケルトン(骨格)画像をディスプレイ24上に表示する(ステップS2)。   First, depth information and skeleton information generated by the imaging unit 1 with depth information and temporarily held in the RAM 25 through the input / output interface 22 are acquired for each frame (step S1). Next, the obtained skeleton (skeleton) information is drawn on the video RAM 23, and a skeleton (skeleton) image is displayed on the display 24 (step S2).

図5は,関節角度計算部2のディスプレイ24の表示の例である。ディスプレイ24の表示は,一画面に2フィールドの情報表示エリアを有し,図5に示す表示は,2フィールドの情報表示エリアの内の一つの表示エリアである。   FIG. 5 is an example of display on the display 24 of the joint angle calculation unit 2. The display 24 has a two-field information display area on one screen, and the display shown in FIG. 5 is one of the two-field information display areas.

この表示エリアは,画像表示エリア50と,入力ボタン表示エリア51を有する。入力ボタン表示エリア51のそれぞれのボタン指定により対応する入力信号が,入出力インタフェース26を通して,関節角度計算部2に入力され,CPU20に送られ,対応する制御がCPU20により実行される。   This display area has an image display area 50 and an input button display area 51. An input signal corresponding to each button designation in the input button display area 51 is input to the joint angle calculation unit 2 through the input / output interface 26, sent to the CPU 20, and corresponding control is executed by the CPU 20.

画像表示エリア50の表示は,入力ボタン表示エリア51の背景表示ボタン52の切り替えにより,背景画像上にスケルトン(骨格)画像を表示するか,背景画像を表示せずにスケルトン(骨格)画像のみを表示するかの切り替えが可能である。図5に示す例では,背景画像を表示せずにスケルトン(骨格)画像のみを表示している。   The image display area 50 can be displayed by switching the background display button 52 in the input button display area 51 to display a skeleton image on the background image, or to display only the skeleton image without displaying the background image. The display can be switched. In the example shown in FIG. 5, only the skeleton image is displayed without displaying the background image.

図6は,上記2フィールドの内の第2のフィールドの表示例であり,「画面を参照して測定する関節を選んで下さい」等の被験者100又は介助者に対する操作指示メッセージが表示される。   FIG. 6 is a display example of the second field of the above two fields, and displays an operation instruction message for the subject 100 or an assistant such as “Please select a joint to be measured with reference to the screen”.

図5に示すディスプレイ24に表示した骨格情報は,測定対象となる接続部32即ち関節と,接続部32に対応する測定内容(測定メニュー)が選択できる表示が行われる。   The skeleton information displayed on the display 24 shown in FIG. 5 is displayed so that the connection part 32, that is, the joint to be measured and the measurement content (measurement menu) corresponding to the connection part 32 can be selected.

すなわち,被験者100又は介助者は,図6に示す第2のフィールドのメッセージ表示に従って,ディスプレイ24に表示される図5のスケルトン(骨格)画像を観察して,被験者100の測定すべきROM(関節可動域)に対応する関節部分,例えば図5において肩型関節部53を,画面上のカーソルを移動して特定することができる(ステップS3)。   That is, the subject 100 or the assistant observes the skeleton (skeleton) image of FIG. 5 displayed on the display 24 according to the message display of the second field shown in FIG. The joint portion corresponding to the movable range), for example, the shoulder joint portion 53 in FIG. 5 can be identified by moving the cursor on the screen (step S3).

すなわち,画面上のカーソルを移動して被験者100自身により特定された測定すべきROMに対応する部分の情報が,入出力インタフェース26を介して関節角度測定装置2に入力される。   That is, information on a portion corresponding to the ROM to be measured specified by the subject 100 by moving the cursor on the screen is input to the joint angle measuring device 2 via the input / output interface 26.

測定すべきROMに対応する部分の情報が入力されると特定された肩関節部53に対応して行われる予め設定されたリハビリの種類を示すメニュー(測定項目)が表示される。   When information of a portion corresponding to the ROM to be measured is input, a menu (measurement item) indicating a preset type of rehabilitation performed corresponding to the identified shoulder joint portion 53 is displayed.

図7は,リハビリを行うメニュー表示を説明する図であり,図5に示すスケルトン(骨格)画像のみを拡大して示している。   FIG. 7 is a diagram for explaining a menu display for performing rehabilitation, and shows only the skeleton (skeleton) image shown in FIG. 5 in an enlarged manner.

すなわち,図5において肩関節部53を特定すると,その近傍にリハビリを行うメニュー表示54として,例えば屈曲・伸展,外転・内転,及び外旋・内旋の三種の測定項目が表示される。   That is, when the shoulder joint portion 53 is specified in FIG. 5, for example, three measurement items of flexion / extension, abduction / addition, and abduction / internal rotation are displayed as a menu display 54 for performing rehabilitation in the vicinity thereof. .

「屈曲・伸展」の測定項目にカーソルを合わせて特定すると,肩関節部53を中心とする,2辺の空間ベクトル情報を生成する(ステップS4)。   When the cursor is placed on the “flexion / extension” measurement item and specified, space vector information of two sides centering on the shoulder joint 53 is generated (step S4).

これにより,図7に示す様に,肩関節部53で接続される肩甲骨部53と上腕部53を特定し,上腕部53の曲げ,伸ばしに対応して角度の測定が可能となる(ステップS5)。 Thus, as shown in FIG. 7, to identify the scapula 53 1 and the upper arm portion 53 2 which are connected by a shoulder joint 53, the bending of the upper arm 53 2, enables the angle of the measured corresponding to stretch and (Step S5).

ここで,図7において,棒状の表示55は,リハビリメニューに対応して決められた基準指標を示している。すなわち,肩関節部53が,この基準指標55を基準にどれだけの角度で曲げられるかの基準となる位置(角度0℃)を意味している。   Here, in FIG. 7, a bar-shaped display 55 indicates a reference index determined corresponding to the rehabilitation menu. That is, it means a position (angle 0 ° C.) serving as a reference for how much the shoulder joint portion 53 can be bent with reference to the reference index 55.

ついで,上記に特定されたリハビリ項目に従って,関節部が動かされると深度付撮像部1が被験者の撮像画像データと、撮像画像データの各画素の深度情報と、仮想三次元空間における被験者のスケルトン情報とを生成し、関節角度計算部2に送る。関節角度計算部2は送られた情報を基に可動域を測定する関節に繋がれる2辺の空間ベクトル情報を生成し、生成された2辺の空間ベクトル情報に基づき関節部の角度を計算して数値,骨格形状などの情報をディスプレイ24に表示が行われる(ステップS5)。   Next, when the joint is moved according to the rehabilitation items specified above, the imaging unit with depth 1 captures the captured image data of the subject, the depth information of each pixel of the captured image data, and the skeleton information of the subject in the virtual three-dimensional space. Are sent to the joint angle calculator 2. The joint angle calculation unit 2 generates space vector information of two sides connected to the joint whose range of motion is measured based on the sent information, and calculates the angle of the joint unit based on the generated space vector information of the two sides. Information such as numerical values and skeleton shape is displayed on the display 24 (step S5).

なお,一実施例において,ステップS1乃至5の処理は全てリアルタイムに行われる。   Note that in one embodiment, the processes of steps S1 to S5 are all performed in real time.

図8は,ディスプレイ24の第1のフィールドの画像表示エリア50に表示される骨格の表示の一部であって,特定された肩関節部53について,リハビリ項目に従い,上腕部57を動かす角度に対応した状態を順次示している(図8(1)〜(3))。   FIG. 8 shows a part of the display of the skeleton displayed in the image display area 50 of the first field of the display 24. The identified shoulder joint 53 is at an angle to move the upper arm 57 according to the rehabilitation item. The corresponding states are shown sequentially (FIGS. 8 (1) to (3)).

角度表示56は,動かす角度に対応して基準指標55を基点として,面積が広狭に変化して,被験者100に容易に角度が認識可能にされている。   In the angle display 56, the area changes in a wide and narrow manner with the reference index 55 as a base point corresponding to the moving angle, so that the subject 100 can easily recognize the angle.

ここで,特定したリハビリ項目の意図する腕の動きと異なる方向に腕を動かす場合は,図8(4)に示すように,上腕部57の表示を警告する表示(例えば赤色に表示する)が行われる。   Here, when the arm is moved in a direction different from the intended movement of the arm specified by the specified rehabilitation item, as shown in FIG. 8 (4), a display warning the upper arm 57 (for example, displayed in red) is displayed. Done.

上記の表示は,ROM測定終了(ステップS6,Yes)まで,フレーム毎に継続する(ステップS7)。   The above display continues for each frame until the end of the ROM measurement (step S6, Yes) (step S7).

図9は,リハビリ項目の測定中における,ディスプレイ24の第2フィールドの一例である。   FIG. 9 is an example of the second field of the display 24 during the measurement of the rehabilitation item.

右方屈曲伸展検査において,肩関節部53が動かされる現在角度の表示と動かされた角度の最大値と最小値が画面上に表示されている。かかる表示は,図5に示す入力ボタン表示エリア51の対応するボタンを入力指定することにより切り替わる。   In the rightward bending extension test, the current angle at which the shoulder joint portion 53 is moved and the maximum and minimum values of the moved angle are displayed on the screen. Such display is switched by inputting and specifying the corresponding button in the input button display area 51 shown in FIG.

上記した様に,本発明により,被験者の間接可動域を自動で取得することができる。ディスプレイ24がある実施例ではさらに、被験者及び介助者ともに,ディスプレイ24に表示された数値及び,画像表示によって関節角度の変化を知ることができる。一実施例においては、被験者の関節の動きに合わせてリアルタイムにディスプレイ24に測定値を表示することができる。被験者は,自ら意図して関節を動かす努力が即座に角度表示に反映するので,本発明の適用により,関節可動範囲(ROM)を広げることを目的とするリハビリ治療の効果を高めることが期待される。   As described above, according to the present invention, the indirect range of motion of the subject can be automatically acquired. Further, in the embodiment having the display 24, both the subject and the assistant can know the change of the joint angle by the numerical value displayed on the display 24 and the image display. In one embodiment, the measurement value can be displayed on the display 24 in real time in accordance with the movement of the subject's joint. Since the subject's intentional effort to move the joint is immediately reflected in the angle display, the application of the present invention is expected to enhance the effect of rehabilitation treatment aimed at expanding the joint movable range (ROM). The

1 深度情報付き撮像装置
2 関節角度測定装置(情報処理装置)
3 インタフェース回線
10 撮像カメラ
11 赤外線放射部
12 赤外線検知部
13 制御部
14 メモリ
20 CPU
21 記憶装置
22,26 入出力インタフェース
23 ビデオRAM
24 ディスプレイ
25 RAM
27 通信装置
1 Imaging device with depth information 2 Joint angle measuring device (information processing device)
3 Interface line 10 Imaging camera 11 Infrared radiation unit 12 Infrared detection unit 13 Control unit 14 Memory 20 CPU
21 Storage devices 22, 26 Input / output interface 23 Video RAM
24 display 25 RAM
27 Communication device

Claims (8)

被験者の撮像画像データと,前記撮像画像データの各画素の深度情報と,仮想三次元空間における前記被験者のスケルトン(骨格)情報とを生成する深度情報付き撮像部と,
前記深度情報付き撮像部から得られるスケルトン(骨格)情報において特定され、可動域を測定する関節に繋がれる2辺の空間ベクトル情報を生成し,前記2辺の空間ベクトル情報に基づき前記関節の角度を計算する関節角度計算部を有する,
ことを特徴とする関節角度測定システム。
An imaging unit with depth information that generates captured image data of the subject, depth information of each pixel of the captured image data, and skeleton information of the subject in a virtual three-dimensional space;
Two-sided space vector information that is specified in the skeleton (skeletal) information obtained from the imaging unit with depth information and is connected to the joint for measuring the range of motion is generated, and the angle of the joint based on the two-sided space vector information A joint angle calculation unit for calculating
A joint angle measuring system characterized by that.
請求項1において,
前記関節角度計算部は,
前記スケルトン(骨格)情報を表示し、表示されるスケルトン(骨格)情報において,前記可動域を測定する関節を特定可能なディスプレイ部を有し,
前記関節角度計算部は、前記特定される可動域を測定する関節と前記関節に繋がれる2辺の対応関係を,前記深度情報付き撮像部から得られる深度情報に基づき,前記2辺の空間ベクトル情報を生成し,前記2辺の空間ベクトル情報に基づき前記関節の角度を計算し、前記計算された関節の角度を前記ディスプレイ部に表示させるCPUを有する
ことを特徴とする関節角度測定システム。
In claim 1,
The joint angle calculator
The skeleton (skeleton) information is displayed, and the displayed skeleton (skeleton) information has a display unit that can identify the joint that measures the range of motion.
The joint angle calculation unit, based on the depth information obtained from the imaging unit with depth information, shows the correspondence between the joint that measures the specified range of motion and the two sides connected to the joint. A CPU that generates information, calculates an angle of the joint based on the space vector information of the two sides, and displays the calculated angle of the joint on the display unit;
A joint angle measuring system characterized by that.
請求項2において,
前記関節角度計算部は、所定の時間の後に計算した関節の角度の最大値と最小値とを記憶するメモリを有し、前記所定の時間の後に計算した関節の角度の最大値を最小値を基に前記ディスプレイに,前記関節可動域の変化を表示することを特徴とする関節角度測定システム。
In claim 2,
The joint angle calculation unit has a memory for storing a maximum value and a minimum value of a joint angle calculated after a predetermined time, and the maximum value of the joint angle calculated after the predetermined time is set as a minimum value. A joint angle measuring system characterized in that a change in the joint range of motion is displayed on the display.
請求項2において,
前記CPUは,前記ディスプレイに,前記表示されるスケルトン(骨格)情報において,表示面上で可動域を測定する関節の特定に関連して,リハビリメニューを表示させ,
前記リハビリメニューから選択される検査項目に対応して,正しくない関節の動きに対して警告表示を行う
ことを特徴とする関節角度測定システム。
In claim 2,
The CPU causes the display to display a rehabilitation menu in connection with the specification of the joint that measures the range of motion on the display surface in the displayed skeleton information.
A joint angle measurement system that displays a warning for an incorrect joint movement corresponding to an inspection item selected from the rehabilitation menu.
請求項1〜4のいずれかに1項において,
前記関節角度計算部は、前記計算される角度の情報を遠隔地に転送する手段を有する,関節角度測定システム。
In any one of Claims 1-4,
The joint angle calculation unit has a means for transferring information of the calculated angle to a remote place.
請求項1において、前記深度付き撮像部は、被験者の撮像画像データと,前記撮像画像データの各画素の深度情報と,仮想三次元空間における前記被験者のスケルトン(骨格)情報とをリアルタイムに生成し、
前記関節角度計算部は、前記可動域を測定する関節に繋がれる2辺の空間ベクトル情報をリアルタイムに生成し,前記2辺の空間ベクトル情報に基づき前記関節の角度をリアルタイムに計算する
ことを特徴とする関節角度測定システム。
In Claim 1, the said imaging part with depth produces | generates the test subject's picked-up image data, the depth information of each pixel of the said picked-up image data, and the said test subject's skeleton (skeleton) information in virtual three-dimensional space in real time. ,
The joint angle calculation unit generates, in real time, space vector information of two sides connected to the joint that measures the range of motion, and calculates the angle of the joint in real time based on the space vector information of the two sides. A joint angle measurement system.
請求項2〜4のいずれか1項において、
前記深度付き撮像部は、被験者の撮像画像データと,前記撮像画像データの各画素の深度情報と,仮想三次元空間における前記被験者のスケルトン(骨格)情報とをリアルタイムに生成し、
前記関節角度計算部は、前記可動域を測定する関節に繋がれる2辺の空間ベクトル情報をリアルタイムに生成し,前記2辺の空間ベクトル情報に基づき前記関節の角度をリアルタイムに計算し、
前記ディスプレイは前記リアルタイムに計算された関節の角度をリアルタイムに表示する
ことを特徴とする関節角度測定システム。
In any one of Claims 2-4,
The imaging unit with depth generates in real time the captured image data of the subject, the depth information of each pixel of the captured image data, and the skeleton information of the subject in a virtual three-dimensional space,
The joint angle calculation unit generates space vector information of two sides connected to the joint for measuring the range of motion in real time, calculates the angle of the joint in real time based on the space vector information of the two sides,
The joint angle measurement system characterized in that the display displays the joint angle calculated in real time in real time.
請求項5において、
前記深度付き撮像部は、被験者の撮像画像データと,前記撮像画像データの各画素の深度情報と,仮想三次元空間における前記被験者のスケルトン(骨格)情報とをリアルタイムに生成し、
前記関節角度計算部は、前記可動域を測定する関節に繋がれる2辺の空間ベクトル情報をリアルタイムに生成し,前記2辺の空間ベクトル情報に基づき前記関節の角度をリアルタイムに計算し、
前記計算される角度の情報を遠隔地に転送する手段は前記計算される角度の情報をリアルタイムに遠隔地に転送させる
ことを特徴とする関節角度測定システム。
In claim 5,
The imaging unit with depth generates in real time the captured image data of the subject, the depth information of each pixel of the captured image data, and the skeleton information of the subject in a virtual three-dimensional space,
The joint angle calculation unit generates space vector information of two sides connected to the joint for measuring the range of motion in real time, calculates the angle of the joint in real time based on the space vector information of the two sides,
The joint angle measurement system characterized in that the means for transferring the calculated angle information to the remote location allows the calculated angle information to be transferred to the remote location in real time.
JP2012215531A 2012-09-28 2012-09-28 Joint angle measuring system Pending JP2014068714A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012215531A JP2014068714A (en) 2012-09-28 2012-09-28 Joint angle measuring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012215531A JP2014068714A (en) 2012-09-28 2012-09-28 Joint angle measuring system

Publications (1)

Publication Number Publication Date
JP2014068714A true JP2014068714A (en) 2014-04-21

Family

ID=50744547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012215531A Pending JP2014068714A (en) 2012-09-28 2012-09-28 Joint angle measuring system

Country Status (1)

Country Link
JP (1) JP2014068714A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015210109A (en) * 2014-04-24 2015-11-24 富士通株式会社 Measuring apparatus, measuring method and measuring program
JP2015211765A (en) * 2014-05-02 2015-11-26 富士通株式会社 Apparatus, method and program for measuring movable range
JP2017080200A (en) * 2015-10-29 2017-05-18 キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing method, and program
JP2017080202A (en) * 2015-10-29 2017-05-18 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method and program
US20170251953A1 (en) 2016-03-07 2017-09-07 Fujitsu Limited Measurement apparatus, method and non-transitory computer-readable recording medium
KR101788960B1 (en) * 2016-02-24 2017-10-23 서울대학교산학협력단 Automatic Measuring System for Range of Motion and Automatic Measuring Method for range of Motion Using the Same
JPWO2016208290A1 (en) * 2015-06-26 2017-11-09 Necソリューションイノベータ株式会社 Measuring apparatus and measuring method
JPWO2016208291A1 (en) * 2015-06-26 2018-03-22 Necソリューションイノベータ株式会社 Measuring apparatus and measuring method
KR20190023628A (en) * 2017-08-29 2019-03-08 안영샘 Apparatus for measuring range of motion, method thereof and computer recordable medium storing program to perform the method
KR20190029874A (en) * 2017-09-13 2019-03-21 주식회사 엑스바디 Apparatus and method of realtime gait examination using infrared camera
KR102108405B1 (en) * 2019-08-23 2020-05-08 박하연 System for measuring body information, posture information and range of motion and method thereof
JPWO2018087853A1 (en) * 2016-11-09 2020-05-28 株式会社システムフレンド Stereoscopic image generation system, stereoscopic image generation method, and stereoscopic image generation program
JP2021503340A (en) * 2017-11-16 2021-02-12 ブラスト モーション インコーポレイテッドBlast Motion Inc. How to judge joint stress from sensor data
JPWO2021131738A1 (en) * 2019-12-27 2021-07-01
JP2022501103A (en) * 2018-09-19 2022-01-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Devices, systems and methods for providing skeletal models

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06142083A (en) * 1992-03-10 1994-05-24 Masatoshi Hara Physical activity alarm device
JPH10149445A (en) * 1996-11-19 1998-06-02 Image Joho Kagaku Kenkyusho Body motion analysis visualization device
JP2002000584A (en) * 2000-06-16 2002-01-08 Matsushita Electric Ind Co Ltd Joint range of motion training system
JP2005279192A (en) * 2004-03-31 2005-10-13 Shinichiro Takasugi Device for rehabilitation, and program for rehabilitation
JP2006026092A (en) * 2004-07-15 2006-02-02 Matsushita Electric Ind Co Ltd Acceleration information transmitting device, body motion analysis device, and body motion analysis method
JP2006514366A (en) * 2003-02-11 2006-04-27 株式会社ソニー・コンピュータエンタテインメント Real-time motion capture method and apparatus
JP2006187469A (en) * 2005-01-06 2006-07-20 Seiko Instruments Inc Exercise intensity evaluation apparatus
WO2007102537A1 (en) * 2006-03-07 2007-09-13 Osaka University Posture estimating device and method
JP2008282110A (en) * 2007-05-09 2008-11-20 Univ Of Tokyo Method and apparatus for acquiring joint structure of object
JP2009539455A (en) * 2006-06-09 2009-11-19 ユニヴェルシテ ジョセフ フーリエ Method and apparatus for postural symmetry rehabilitation and / or correction in static or dynamic states
WO2010138582A2 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Real time retargeting of skeletal data to game avatar
JP2011172633A (en) * 2010-02-23 2011-09-08 Lassic Co Ltd Rehabilitation support system and rehabilitation support program
JP2011177265A (en) * 2010-02-26 2011-09-15 Ishida Co Ltd Rehabilitation aid apparatus
JP2012048362A (en) * 2010-08-25 2012-03-08 Kddi Corp Device and method for human body pose estimation, and computer program
WO2012039467A1 (en) * 2010-09-22 2012-03-29 パナソニック株式会社 Exercise assistance system
JP2012098812A (en) * 2010-10-29 2012-05-24 Kddi Corp Human body posture estimation apparatus, human body posture estimation method and computer program
JP2012120647A (en) * 2010-12-07 2012-06-28 Alpha Co Posture detection system
JP2012120648A (en) * 2010-12-07 2012-06-28 Alpha Co Posture detection apparatus

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06142083A (en) * 1992-03-10 1994-05-24 Masatoshi Hara Physical activity alarm device
JPH10149445A (en) * 1996-11-19 1998-06-02 Image Joho Kagaku Kenkyusho Body motion analysis visualization device
JP2002000584A (en) * 2000-06-16 2002-01-08 Matsushita Electric Ind Co Ltd Joint range of motion training system
JP2006514366A (en) * 2003-02-11 2006-04-27 株式会社ソニー・コンピュータエンタテインメント Real-time motion capture method and apparatus
JP2005279192A (en) * 2004-03-31 2005-10-13 Shinichiro Takasugi Device for rehabilitation, and program for rehabilitation
JP2006026092A (en) * 2004-07-15 2006-02-02 Matsushita Electric Ind Co Ltd Acceleration information transmitting device, body motion analysis device, and body motion analysis method
JP2006187469A (en) * 2005-01-06 2006-07-20 Seiko Instruments Inc Exercise intensity evaluation apparatus
WO2007102537A1 (en) * 2006-03-07 2007-09-13 Osaka University Posture estimating device and method
JP2009539455A (en) * 2006-06-09 2009-11-19 ユニヴェルシテ ジョセフ フーリエ Method and apparatus for postural symmetry rehabilitation and / or correction in static or dynamic states
JP2008282110A (en) * 2007-05-09 2008-11-20 Univ Of Tokyo Method and apparatus for acquiring joint structure of object
WO2010138582A2 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Real time retargeting of skeletal data to game avatar
JP2011172633A (en) * 2010-02-23 2011-09-08 Lassic Co Ltd Rehabilitation support system and rehabilitation support program
JP2011177265A (en) * 2010-02-26 2011-09-15 Ishida Co Ltd Rehabilitation aid apparatus
JP2012048362A (en) * 2010-08-25 2012-03-08 Kddi Corp Device and method for human body pose estimation, and computer program
WO2012039467A1 (en) * 2010-09-22 2012-03-29 パナソニック株式会社 Exercise assistance system
JP2012098812A (en) * 2010-10-29 2012-05-24 Kddi Corp Human body posture estimation apparatus, human body posture estimation method and computer program
JP2012120647A (en) * 2010-12-07 2012-06-28 Alpha Co Posture detection system
JP2012120648A (en) * 2010-12-07 2012-06-28 Alpha Co Posture detection apparatus

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015210109A (en) * 2014-04-24 2015-11-24 富士通株式会社 Measuring apparatus, measuring method and measuring program
JP2015211765A (en) * 2014-05-02 2015-11-26 富士通株式会社 Apparatus, method and program for measuring movable range
JPWO2016208291A1 (en) * 2015-06-26 2018-03-22 Necソリューションイノベータ株式会社 Measuring apparatus and measuring method
JPWO2016208290A1 (en) * 2015-06-26 2017-11-09 Necソリューションイノベータ株式会社 Measuring apparatus and measuring method
JP2017080200A (en) * 2015-10-29 2017-05-18 キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing method, and program
JP2017080202A (en) * 2015-10-29 2017-05-18 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method and program
KR101788960B1 (en) * 2016-02-24 2017-10-23 서울대학교산학협력단 Automatic Measuring System for Range of Motion and Automatic Measuring Method for range of Motion Using the Same
US10470688B2 (en) 2016-03-07 2019-11-12 Fujitsu Limited Measurement apparatus, method and non-transitory computer-readable recording medium
US20170251953A1 (en) 2016-03-07 2017-09-07 Fujitsu Limited Measurement apparatus, method and non-transitory computer-readable recording medium
JP2021128794A (en) * 2016-11-09 2021-09-02 株式会社システムフレンド Stereoscopic image generation system, stereoscopic image generation method, and stereoscopic image generation program
JPWO2018087853A1 (en) * 2016-11-09 2020-05-28 株式会社システムフレンド Stereoscopic image generation system, stereoscopic image generation method, and stereoscopic image generation program
KR101967997B1 (en) 2017-08-29 2019-04-10 안영샘 Apparatus for measuring range of motion, method thereof and computer recordable medium storing program to perform the method
KR20190023628A (en) * 2017-08-29 2019-03-08 안영샘 Apparatus for measuring range of motion, method thereof and computer recordable medium storing program to perform the method
KR20190029874A (en) * 2017-09-13 2019-03-21 주식회사 엑스바디 Apparatus and method of realtime gait examination using infrared camera
KR102030606B1 (en) * 2017-09-13 2019-11-08 주식회사 엑스바디 Apparatus and method of realtime gait examination using infrared camera
JP2021503340A (en) * 2017-11-16 2021-02-12 ブラスト モーション インコーポレイテッドBlast Motion Inc. How to judge joint stress from sensor data
JP7372966B2 (en) 2018-09-19 2023-11-01 コーニンクレッカ フィリップス エヌ ヴェ Device, system, method of operating the device, and computer program for providing a skeletal model
JP2022501103A (en) * 2018-09-19 2022-01-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Devices, systems and methods for providing skeletal models
US12150753B2 (en) 2018-09-19 2024-11-26 Koninklijke Philips N.V. Device, system and method for providing a skeleton model
KR102108405B1 (en) * 2019-08-23 2020-05-08 박하연 System for measuring body information, posture information and range of motion and method thereof
US11998316B2 (en) 2019-08-23 2024-06-04 Ha Yeon Park System and method for measuring body information, posture information, and range of motion
WO2021131738A1 (en) * 2019-12-27 2021-07-01 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
JPWO2021131738A1 (en) * 2019-12-27 2021-07-01
JP7501543B2 (en) 2019-12-27 2024-06-18 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
US12067677B2 (en) 2019-12-27 2024-08-20 Sony Group Corporation Information processing apparatus, information processing method, and computer-readable storage medium

Similar Documents

Publication Publication Date Title
JP2014068714A (en) Joint angle measuring system
CN109009211B (en) Intelligent equipment, ultrasonic detection-based method and device
JP6198857B2 (en) Method and system for performing three-dimensional image formation
CN107016717B (en) System and method for a fluoroscopic view of a patient
Seo et al. A comparative study of in-field motion capture approaches for body kinematics measurement in construction
KR101656940B1 (en) System For Measuring Range Of Joint Movement Using Inertial Measurement Unit
US9008442B2 (en) Information processing apparatus, information processing method, and computer program
US9974618B2 (en) Method for determining an imaging specification and image-assisted navigation as well as device for image-assisted navigation
JP2017010327A (en) Information processing apparatus, information processing method, and program
JP2015186531A (en) Action information processing device and program
KR20140003265A (en) Method for measuring movement angle of joint
JP7798283B2 (en) Method and apparatus for calibrating a multi-camera system based on human pose
JP2022043264A (en) Exercise evaluation system
US11422625B2 (en) Proxy controller suit with optional dual range kinematics
CN106256394A (en) The training devices of mixing motion capture and system
WO2018087853A1 (en) Stereoscopic image generation system, stereoscopic image generation method, and stereoscopic image generation program
JP2002000584A (en) Joint range of motion training system
Callejas-Cuervo et al. Capture and analysis of biomechanical signals with inertial and magnetic sensors as support in physical rehabilitation processes
CN112790760A (en) Three-dimensional motion attitude capturing method, device, processing equipment and system
CN112069873A (en) LeapMotion gesture recognition-based screen control system and method
CN118252529A (en) Ultrasonic scanning method, device and system, electronic equipment and storage medium
CN105912117A (en) Motion state capture method and system
JP2014117409A (en) Method and apparatus for measuring body joint position
CN116309712B (en) A functional motion analysis system and method based on depth camera
JP4667900B2 (en) 3D analysis method from 2D image and system to execute it

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150526

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150910

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161020

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170307