[go: up one dir, main page]

JP2005111178A - Motion training display system - Google Patents

Motion training display system Download PDF

Info

Publication number
JP2005111178A
JP2005111178A JP2003352704A JP2003352704A JP2005111178A JP 2005111178 A JP2005111178 A JP 2005111178A JP 2003352704 A JP2003352704 A JP 2003352704A JP 2003352704 A JP2003352704 A JP 2003352704A JP 2005111178 A JP2005111178 A JP 2005111178A
Authority
JP
Japan
Prior art keywords
data
motion
training
unit
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003352704A
Other languages
Japanese (ja)
Inventor
Shinpei Hibiya
新平 日比谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2003352704A priority Critical patent/JP2005111178A/en
Publication of JP2005111178A publication Critical patent/JP2005111178A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To constitute a system for learning a desired motion by generating a human body model of a person based on his or her personal information such as height, weight, muscular strength or the like, visually displaying a difference between the desired and actual motions, thereafter generating a training plan suited to the person and display the same. <P>SOLUTION: The motion training system comprises a human body model generating portion 4 for generating a human body model based on the personal information of a trainee's physical characteristic, a motion data track portion 5 for extracting motion data from the moving images of the trainee and storing the same therein, a data integration portion 71 for generating the motion of a human body based on the data in the human body model generating portion 4 and the motion data track portion 5, a motion database 6 for storing model motions therein, a desired motion selecting portion 1 for selecting data in the motion database 6, and a display 8 for displaying image data in the data integration portion 71 and the motion database 6. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は所望の動作(スポーツ選手の動作、健常者の動作等)を習得対象として想定して、その動作を実行するためのトレーニングを支援することが可能な動作トレーニング表示システムに関する。   The present invention relates to an operation training display system capable of supporting training for executing a desired operation (operation of a sports player, operation of a healthy person, etc.) as an object of acquisition.

所望の動きを実際に体験するためのシステムとしては疑似体験システム(特開平10−340039)がある。このシステムは体験者の各関節にアクチュエータをつけ、所望の動きの関節可動域を設定し、実際に所望の動きを体験することが出来る。   As a system for actually experiencing a desired movement, there is a simulated experience system (Japanese Patent Laid-Open No. 10-340039). In this system, an actuator is attached to each joint of the experience person, a desired range of motion of the joint can be set, and the desired motion can be actually experienced.

また、トレーニング方法を提示するシステムとしては、ゴルフ練習目標達成システム(特開2002−248187)がある。このシステムは筋力、体力などの個人情報から練習目標を設定し、運動練習時の実際のフォームと練習目標を比較し、達成度評価を行うことが出来る。   As a system for presenting a training method, there is a golf practice target achievement system (Japanese Patent Laid-Open No. 2002-248187). This system can set practice targets based on personal information such as muscle strength and physical strength, and can compare the actual form and practice goals during exercise exercises to evaluate achievement.

また、運動者のスイングフォームを診断して、基準となるスイングフォームと比較し、その差を極力少なくできるように運動者に適切なアドバイスを与えるシステムとして、スイングフォーム診断装置(特開平3−12180)が提案されている。
特開平10−340039号公報 特開2002−248187号公報 特開平3−12180号公報
Further, as a system for diagnosing an athlete's swing form, comparing it with a reference swing form, and giving appropriate advice to the athlete so that the difference can be minimized, a swing form diagnostic apparatus (Japanese Patent Laid-Open No. 3-12180). ) Has been proposed.
JP-A-10-340039 JP 2002-248187 A Japanese Patent Laid-Open No. 3-12180

しかし、これらのシステムには次のような問題点がある。特許文献1の疑似体験システムは体験者にアクチュエータを装着させ、実際に所望の動きを体験させるため、所望の動きの関節可動域が、体験者の関節可動域よりも広い場合は体験者に過大な負担を強いることになり、最悪の場合、障害を生じる可能性がある。さらに、アクチュエータを装着することによるわずらわしさも生じる。特許文献2のゴルフ練習目標達成システムはゴルフに特化したものであり、かつ、トレーニング効果シミュレーションは行えない。また、どちらのシステムも3次元で表示することがなく、視覚的に目標動作と実際の動作の違いを把握しにくい。特許文献3のスイングフォーム診断装置は、体験者の身長、体重、筋力などの身体特性の個人情報を利用するものではない。   However, these systems have the following problems. The pseudo-experience system of Patent Document 1 allows an experiencer to attach an actuator and actually experience a desired movement. Therefore, if the range of motion of the desired motion is wider than the range of motion of the experiencer, the experience is excessive. Will be burdensome, and in the worst case, it may cause trouble. Furthermore, the troublesomeness caused by mounting the actuator also occurs. The golf practice target attainment system of Patent Document 2 is specialized for golf, and training effect simulation cannot be performed. Moreover, neither system displays in three dimensions, and it is difficult to visually grasp the difference between the target action and the actual action. The swing form diagnostic apparatus of Patent Document 3 does not use personal information of physical characteristics such as the height, weight, and muscle strength of the experience person.

この発明は上述の点に鑑みてなされたものであり、身長、体重、筋力などの個人情報に基づいて個人の人体モデルを生成し、所望の動作と自身の実際の動作の違いを視覚的に示した上で、個人に適したトレーニングプランを生成し、提示することが可能で、かつ、その効果をシミュレーションし、提示することが可能なシステムを構築し、提供することを課題とする。   The present invention has been made in view of the above points, and generates a personal human body model based on personal information such as height, weight, muscle strength, etc., and visually shows the difference between the desired motion and its own actual motion. It is an object of the present invention to construct and provide a system capable of generating and presenting a training plan suitable for an individual and simulating and presenting the effect thereof.

本発明の動作トレーニング表示システムは、上記の課題を解決するために、図1に示すように、運動の練習対象者の身長、体重、筋力などの身体特性の個人情報に基づいて人体モデルを生成する人体モデル生成部4と、練習対象者の運動画像からモーションデータを抽出し、記憶するモーションデータトラック部5と、前記人体モデル生成部4とモーションデータトラック部5のデータにより人体モデルの動作を生成するデータ統合部71と、模範的動作を記憶するモーションデータベース6と、モーションデータベース6のデータを選択する所望動作選択部1と、前記データ統合部71の映像データと前記モーションデータベース6の映像データを表示する表示部8とを備えることを特徴とするものである。   In order to solve the above problems, the motion training display system of the present invention generates a human body model based on personal information of physical characteristics such as height, weight, muscle strength, etc. of a person to be exercised as shown in FIG. The human body model generation unit 4, the motion data is extracted from the exercise image of the person to be trained, and the motion data track unit 5 is stored. The data of the human body model generation unit 4 and the motion data track unit 5 is used to determine the operation of the human body model. A data integration unit 71 to be generated, a motion database 6 that stores exemplary motions, a desired operation selection unit 1 that selects data in the motion database 6, video data of the data integration unit 71, and video data of the motion database 6 And a display unit 8 for displaying.

請求項1の発明によれば、練習対象者は自身の身体特性を反映させた現在の動きと所望の動きの模範動作の表示とを見比べることが可能となる。
請求項2の発明によれば、所望の動きの模範動作も練習対象者の体型と整合がとれる形に補正されるので、練習対象者は、模範動作を自身の身体特性に置き換えて現在の動作と見比べることが出来、より直感的に修正点を把握できる。
According to the first aspect of the present invention, the person to be practiced can compare the current movement reflecting his / her physical characteristics with the display of the model movement of the desired movement.
According to the second aspect of the present invention, the model movement of the desired movement is also corrected so as to be consistent with the body shape of the person to be practiced. Can be compared, and the correction point can be grasped more intuitively.

請求項3の発明によれば、練習対象者は模範動作と自身の動作の違いを具体的に認識することが可能になる。
請求項4の発明によれば、個人の身体特性に最適なトレーニングプランを提示することができる。
According to the invention of claim 3, the person to be practiced can specifically recognize the difference between the model action and the own action.
According to the invention of claim 4, it is possible to present a training plan that is optimal for the individual's physical characteristics.

請求項5の発明によれば、提示されたトレーニングプランを練習対象者が実行した場合の効果をシミュレーションして表示することで、練習対象者は肉体がどのように変化していくかを視覚的に捉えることが可能となり、トレーニングに対する意欲を持つことが可能となる。
請求項6の発明によれば、練習対象者は過去の動きと現在の動きを比較することが出来、練習の進歩度合いを確かめることが可能となる。
According to the invention of claim 5, by simulating and displaying the effect when the exercise target person executes the presented training plan, the exercise object person visually shows how the body changes. It becomes possible to have a motivation for training.
According to the invention of claim 6, the person to be practiced can compare the past movement with the current movement, and can confirm the progress of the practice.

請求項7の発明によれば、システムを使用する練習対象者がトレーニング後の個人情報をフィードバックすることにより、ひとりひとりに対して最適なトレーニングプランの提案が可能になる。つまり、効果シミュレーション実行部とトレーニングデータベースを練習対象者個人用にカスタマイズすることができ、より効果的なトレーニング提案、精度の高い予測を行うことが可能となる。
請求項8の発明によれば、練習対象者がシステム全体を所持していなくても、インターネットを介すことで簡単に動作トレーニングを行うことが可能となる。
According to the seventh aspect of the present invention, it is possible to propose an optimal training plan for each person by feeding back personal information after training by a training subject who uses the system. In other words, the effect simulation execution unit and the training database can be customized for the individual subject to practice, and more effective training proposals and highly accurate predictions can be performed.
According to the eighth aspect of the present invention, even if the person to be practiced does not have the entire system, the operation training can be easily performed through the Internet.

次にこの発明の実施の形態について説明する。この発明の実施の形態を図1に示す。図1の動作トレーニング表示システムは、入力装置として、所望動作選択部1、体型データ入力部2、モーションデータ入力部3、模範動画入力部13、トレーニング後情報入力部16を有する。入力装置はパーソナルコンピュータのキーボード、マウスでもよいし、体型、体力等の測定装置でもかまわない。動画の入力にはUSB接続されたCCDカメラを用いても良いし、デジタルビデオカメラで撮影された動画ファイルを記録媒体又はケーブルを介して読み込んでも良い。また、演算装置はコンピュータであり、人体モデル生成部4、モーションデータトラック部5、モーションデータベース6、データ統合部71、72、モーション補正部9、データ比較部10、トレーニングデータベース11、効果シミュレーション実行部12、モーションデータトラック部14、履歴データベース15、修正部17、課金データ記憶部18、支払いデータ記憶部19で構成される。さらに、表示装置は表示部8からなる。また、入力装置、表示装置はユーザ側、演算装置はサーバ側に存在する。ユーザ側装置はインターネット接続機能をもつパーソナルコンピュータ等で構成され、サーバ側から送信されるデータを保持する機能を有している。   Next, an embodiment of the present invention will be described. An embodiment of the present invention is shown in FIG. The motion training display system of FIG. 1 includes a desired motion selection unit 1, a body shape data input unit 2, a motion data input unit 3, an exemplary video input unit 13, and a post-training information input unit 16 as input devices. The input device may be a keyboard or mouse of a personal computer, or may be a measuring device for body shape, physical strength and the like. For input of moving images, a CCD camera connected via USB may be used, or a moving image file shot by a digital video camera may be read via a recording medium or a cable. The computing device is a computer, and the human body model generation unit 4, the motion data track unit 5, the motion database 6, the data integration units 71 and 72, the motion correction unit 9, the data comparison unit 10, the training database 11, and the effect simulation execution unit. 12, a motion data track unit 14, a history database 15, a correction unit 17, an accounting data storage unit 18, and a payment data storage unit 19. Further, the display device includes a display unit 8. The input device and the display device exist on the user side, and the arithmetic device exists on the server side. The user side device is composed of a personal computer or the like having an Internet connection function, and has a function of holding data transmitted from the server side.

ユーザ側に設けられた入力装置により入力された情報はインターネットを介してサーバ側に送信される。なお、ユーザ側装置はLAN上に接続されていても良く、その場合、LANからルータを介してインターネットに情報が送受される。インターネットの接続形態は特に限定するものではないが、動画の送受信をストレスなく実行できるようにブロードバンド接続とすることが好ましい。   Information input by an input device provided on the user side is transmitted to the server side via the Internet. Note that the user side device may be connected to the LAN, and in this case, information is transmitted to and received from the LAN via the router. The connection form of the Internet is not particularly limited, but is preferably a broadband connection so that transmission / reception of moving images can be performed without stress.

まず、サーバ側に設けられた人体モデル生成部4は、図2、図3に示すように、複数の関節を持った標準的な人体形状(標準人体モデル)を格納しており、その標準人体モデルを体型データ入力部2から入力された体型データに基づいて補正することで、人体モデルを作成する。図3に人体モデル生成部4での人体モデル作成のイメージを示す。あらかじめ用意された標準人体モデルに、自分自身の顔写真や身長、体重、胸囲等の体型データ、年齢、性別、身体特性、服装等の画像データを付加することで、自分自身の分身人形をコンピュータ上に生成する。   First, as shown in FIGS. 2 and 3, the human body model generation unit 4 provided on the server side stores a standard human body shape (standard human body model) having a plurality of joints. A human body model is created by correcting the model based on the body shape data input from the body shape data input unit 2. FIG. 3 shows an image of human body model creation in the human body model generation unit 4. By adding your own face photograph, body type data such as height, weight, chest circumference, image data such as age, sex, body characteristics, clothes, etc. to a standard human body model prepared in advance, you can create your own doll Generate on top.

次にモーションデータトラック部5はモーションデータ入力部3から入力された動画像からモーションデータを抽出する。具体的な方法としては動画像の中から各関節点などの特徴点を選択し、その特徴点間の関係(位置、回転角度、回転方向の時系列)データをフレームごとに抽出する。このフレームレートは任意で変更することができる。より正確なデータを必要とする場合にはフレームレートを高くすればよいし、大まかでよければ低くすればよい。   Next, the motion data track unit 5 extracts motion data from the moving image input from the motion data input unit 3. As a specific method, feature points such as each joint point are selected from the moving image, and the relationship between the feature points (time series of position, rotation angle, and rotation direction) is extracted for each frame. This frame rate can be arbitrarily changed. If more accurate data is required, the frame rate may be increased, and if rough, it may be decreased.

図4はモーションデータトラック部5の概要を示す説明図である。フレームレート設定部では、動画像から複数の静止画を抽出するためのフレームレートを設定する。例えば、毎秒30フレーム、15フレーム、10フレーム、5フレーム、3フレーム、2フレーム、1フレームのなかから選択できるようにしておく。必要な精度に応じてフレームレートを選択し、モーションデータ入力部3から動画像を入力する。入力された動画像を選択されたフレームレートで分析して、複数フレームの静止画を抽出する。抽出された各画像に対して、画像認識のための前処理(背景画像除去、ノイズ除去、輪郭線強調、等の処理)を実行する。各画像から関節点などの特徴点を抽出し、各特徴点にラベリングを施す。複数の画像間で特徴点の対応関係を分析し、特徴点間の関係を抽出する。これにより、特徴点の位置、相互の回転速度、回転方向の時系列データが得られる。   FIG. 4 is an explanatory diagram showing an outline of the motion data track unit 5. The frame rate setting unit sets a frame rate for extracting a plurality of still images from a moving image. For example, 30 frames, 15 frames, 10 frames, 5 frames, 3 frames, 2 frames, and 1 frame can be selected per second. A frame rate is selected according to the required accuracy, and a moving image is input from the motion data input unit 3. The input moving image is analyzed at a selected frame rate to extract a plurality of frames of still images. Preprocessing for image recognition (processing such as background image removal, noise removal, contour enhancement, etc.) is performed on each extracted image. Feature points such as joint points are extracted from each image, and each feature point is labeled. The correspondence relationship between feature points is analyzed among a plurality of images, and the relationship between feature points is extracted. Thereby, time-series data of the position of the feature point, the mutual rotation speed, and the rotation direction can be obtained.

なお、モーションデータ抽出のアルゴリズムは図示されたものに限定されるものではなく、市販のソフトウェアを適宜利用してもかまわない。動画像からモーションデータを抽出するソフトウェアとしては、例えば、株式会社ジースポートの「krops」という商品がある。   The motion data extraction algorithm is not limited to that shown in the figure, and commercially available software may be used as appropriate. As software for extracting motion data from a moving image, for example, there is a product called “krops” of GSPORT Co., Ltd.

人体モデル生成部4で生成された人体モデル、モーションデータトラック部5で生成されたモーションデータはともにデータ統合部71に出力される。データ統合部71の概要を図5に示す。データ統合部71では二つのデータが統合され、人体モデルの各関節に、対応するモーションデータが割り当てられる。すなわち、人体モデル生成部4で生成された人体モデル(人体の各パーツの長さ・太さ・形状データ等)に、モーションデータトラック部5で生成されたモーションデータ(各関節の位置、各関節間の回転角度、回転方向の時系列データ)を割り当てて、動きのある人体モデルの映像データを作成する。この映像データは3次元データとして作成され、任意の視点から観察した2次元画像として表示する。表示部8を有するユーザ側装置からはインターネットを介して3次元の映像を観察する視点に関する情報が送られてくるので、その視点から観察した2次元画像のデータがインターネットを介して表示部8に送信される。また、データ統合部71で作成された人体モデルの映像データはデータ比較部10にも出力される。   Both the human body model generated by the human body model generation unit 4 and the motion data generated by the motion data track unit 5 are output to the data integration unit 71. An outline of the data integration unit 71 is shown in FIG. In the data integration unit 71, the two data are integrated, and corresponding motion data is assigned to each joint of the human body model. That is, the human body model generated by the human body model generation unit 4 (length, thickness, shape data, etc. of each part of the human body) is added to the motion data generated by the motion data track unit 5 (position of each joint, each joint). Video data of a moving human body model is created by assigning the rotation angle and the rotation time series). This video data is created as three-dimensional data and displayed as a two-dimensional image observed from an arbitrary viewpoint. Since the user side device having the display unit 8 sends information about the viewpoint of observing the three-dimensional video via the Internet, the data of the two-dimensional image observed from the viewpoint is transmitted to the display unit 8 via the Internet. Sent. In addition, the video data of the human body model created by the data integration unit 71 is also output to the data comparison unit 10.

モーションデータベース6にはプロスポーツ選手や、健常者のモーションデータ(各関節の位置、各関節間の回転角度、回転方向の時系列データ)が保存されている。ユーザは所望動作選択部1を操作することでその中から所望の動作を選択することが可能となる。選択されたモーションデータはモーション補正部9に出力される。   The motion database 6 stores motion data (positions of joints, rotation angles between joints, time series data of rotation directions) of professional athletes and healthy persons. The user can select a desired action from the desired action selection unit 1 by operating it. The selected motion data is output to the motion correction unit 9.

モーション補正部9はユーザの体型データに基づき、モーションデータを補正するものである。モーション補正部9の概要を図6に示す。モーションデータベース6から読み出された補正前のモーションデータがモーション補正部9に入力されると、モーション補正部9はユーザの体型データを入力し、体型データの各関節点間の相対位置データを比較することで、模範動作のモーションデータを個人ごとのデータに補正する。例えば、ユーザの首から腰までの長さが、模範動作のモーションデータのそれと違う場合には、モーションデータの首から腰までの相対位置データを補正する。   The motion correction unit 9 corrects the motion data based on the user's body shape data. An outline of the motion correction unit 9 is shown in FIG. When the uncorrected motion data read from the motion database 6 is input to the motion correction unit 9, the motion correction unit 9 inputs the user's body shape data and compares the relative position data between the joint points of the body shape data. By doing so, the motion data of the model movement is corrected to individual data. For example, when the length from the neck to the waist of the user is different from that of the motion data of the exemplary motion, the relative position data from the neck to the waist of the motion data is corrected.

体型にあまり違いがない場合には回転角度、方向は補正しない。それに対し、体型があまりにも違う場合はその違いも考慮し、モーションデータの回転角度、回転方向も補正する。例えば、ユーザが太めの体格で、模範動作のモーションデータを抽出された人間が痩せ型の体格だった場合、ユーザの人体モデルに補正無しで模範動作のモーションデータを統合すると、体の一部が体の中にめり込む恐れがある。そのため、統合した際に人体モデルの各部位が他の部位にめり込んでいるかどうかの判定を行い、モーションデータの回転角度、回転方向の補正を行う。補正されたデータはデータ比較部10へ出力される。   If there is no significant difference in body shape, the rotation angle and direction are not corrected. On the other hand, if the body shape is too different, the difference is taken into account and the rotation angle and direction of the motion data are corrected. For example, if the user has a thick physique and the human whose model motion data has been extracted has a lean physique, if the motion data of the model motion is integrated into the user's human body model without correction, a part of the body There is a risk of sinking into the body. Therefore, it is determined whether or not each part of the human body model is embedded in another part when integrated, and the rotation angle and the rotation direction of the motion data are corrected. The corrected data is output to the data comparison unit 10.

データ比較部10の概要を図8に示す。データ比較部10はデータ統合部71から入力される、ユーザの人体モデルとユーザの現在のモーションデータとの統合データと、データ統合部72から入力されるユーザの人体モデルと所望の動作の模範動作データとの統合データを比較分析するものである。ここではまず、各関節の回転角度、回転方向の時系列データの違いを抽出する。その後、その違いの原因として考えられるもの(筋力の違い、柔軟性の違いなど)を各関節の角加速度や回転角度から演算し、分析する。比較分析されたデータは表示部8に入力され、修正点を赤く点滅表示したり、2つの動画を重ねて表示することで動作の修正点や時間的違いを練習対象者に視覚的に理解させることが出来る。また、どこの筋力、柔軟性が足りないかを、その部位を赤く表示することで示す。そのイメージ図を図14(a)に示す。   An outline of the data comparison unit 10 is shown in FIG. The data comparison unit 10 receives the integrated data of the user's human body model and the user's current motion data input from the data integration unit 71, the user's human body model input from the data integration unit 72, and an exemplary operation of the desired operation This is a comparative analysis of integrated data. Here, first, the difference between the rotation angle and rotation time series data of each joint is extracted. After that, the possible causes (differences in muscle strength, differences in flexibility, etc.) are calculated from the angular acceleration and rotation angle of each joint and analyzed. The comparatively analyzed data is input to the display unit 8, and the correction points are displayed blinking in red, or the two moving images are displayed in an overlapping manner so that the exercise subject can visually understand the correction points and time differences. I can do it. In addition, it indicates where the muscle strength and flexibility are insufficient by displaying the part in red. The image is shown in FIG.

図14(a)に示す「比較」のボタンを操作すると、現状のユーザの動作と、模範動作が並べて表示される。これらは動画として表示され、画面左下隅のGUIを用いて任意の視点から観察可能とされている。具体的には、視点位置を前後左右に移動させたり、視線方向を左右に回転させたり、仰角・俯角を変えることで、3次元的に任意の視点から動作を観察できるようになっている。なお、図14(a)では現状のユーザの動作について、修正を要する部位を丸印で示しているが、現実の商品では修正を要する部位が赤く点滅表示される。以上の処理はリアルタイムで行われ、練習対象者は模範動作との違いをリアルタイムに知ることが出来る。   When the “Compare” button shown in FIG. 14A is operated, the current user action and the model action are displayed side by side. These are displayed as moving images and can be observed from an arbitrary viewpoint using the GUI in the lower left corner of the screen. Specifically, the movement can be observed from an arbitrary viewpoint three-dimensionally by moving the viewpoint position back and forth, left and right, rotating the line-of-sight direction to the left and right, and changing the elevation angle and depression angle. In FIG. 14 (a), with regard to the current operation of the user, the part requiring correction is indicated by a circle, but in the actual product, the part requiring correction is blinked in red. The above processing is performed in real time, and the subject of training can know the difference from the model operation in real time.

さらに、模範動作を行う人間よりユーザの体型の方が太い場合はどこの肉を落とせばよいかを模範動作からの補正具合を演算し、その部分を赤く表示する。その動作を図7に示す。これは図6に示した太め・痩せ型などの体型の比較によるモーションデータの各関節点の回転角度、回転方向の補正の処理をより詳細に示したものである。比較する部位の総数をNとし、部位n=1,2,…,Nについて、体型を比較する。部位nについて、体型の違いが基準以上であれば、体型の違いに応じてモーションデータの各関節点の回転角度、回転方向を補正する。そして、その模範動作からの補正具合が基準以上であれば、その部位nについては体型要補正部位として記憶する。これにより、補正後のモーションデータを作成するときに、体型要補正部位のリストも同時に作成できる。   Further, when the user's body is thicker than the person performing the exemplary action, the correction degree from the exemplary action is calculated as to which meat should be dropped, and the portion is displayed in red. The operation is shown in FIG. This shows in more detail the process of correcting the rotation angle and the rotation direction of each joint point of the motion data by comparing the body types such as the thick type and the thin type shown in FIG. The total number of parts to be compared is N, and the body types of parts n = 1, 2,. For the part n, if the difference in body type is greater than or equal to the reference, the rotation angle and rotation direction of each joint point in the motion data are corrected according to the difference in body type. If the degree of correction from the exemplary action is equal to or greater than the reference, the part n is stored as a body type correction required part. As a result, when the corrected motion data is created, a list of body part correction sites can be created at the same time.

すべての修正点のリストは図14(b)に示すように、表示部8の別画面でテキスト形式で表示され、練習対象者はすべての修正点を簡単に把握することが出来る。例えば、各関節の角速度の違いから“筋力”の違いを分析し、「腹筋が不足しています」のように表示される。また、各関節の回転角度の違いから“柔軟性”の違いを分析し、「膝の柔軟性が足りません」のように表示される。さらに、模範動作からの補正具合に応じて体型要補正箇所が「腹回りのダイエットが必要です」のように表示される。また、「肘をあと30度曲げる」のように、動作修正のための具体的なアドバイスがテキスト表示される。比較分析されたデータはトレーニングデータベース11にも送信される。   As shown in FIG. 14B, the list of all correction points is displayed in a text format on another screen of the display unit 8, so that the subject of training can easily grasp all the correction points. For example, the difference in “muscle strength” is analyzed from the difference in angular velocity of each joint, and it is displayed as “abdominal muscle is insufficient”. Also, the difference in “flexibility” is analyzed from the difference in the rotation angle of each joint, and it is displayed as “Insufficient knee flexibility”. In addition, the body part requiring correction is displayed as “Abdomen diet is required” according to the correction from the model action. Also, specific advice for correcting the operation is displayed in text, such as “bend the elbow 30 degrees more”. The comparatively analyzed data is also transmitted to the training database 11.

トレーニングデータベース11は体のさまざまな部位の筋力トレーニング方法や、ストレッチ方法、ダイエット方法をモーションデータとして記録し、かつ、そのプランを記録している。図14(a)に示す「トレーニングプラン」のボタンを操作すると、サーバにトレーニングプラン要求の指令が送られて、トレーニングデータベース11はデータ比較部10から入力される修正点比較分析データに対し、そのトレーニングプランを検索し、データ統合部71に送る。データ統合部71ではトレーニングモーションデータと人体データを統合し、表示部8に送信する。表示部8では送信されてきたトレーニング方法を動画としてディスプレイに表示し、トレーニングプランはテキストで表示する。また、トレーニングプランのデータは効果シミュレーション実行部12にも出力される。   The training database 11 records muscular strength training methods, stretch methods, and diet methods of various parts of the body as motion data, and records the plans. When the “training plan” button shown in FIG. 14 (a) is operated, a training plan request command is sent to the server, and the training database 11 applies the correction point comparison analysis data input from the data comparison unit 10. The training plan is retrieved and sent to the data integration unit 71. In the data integration unit 71, the training motion data and the human body data are integrated and transmitted to the display unit 8. The display unit 8 displays the transmitted training method on the display as a moving image, and displays the training plan as text. The training plan data is also output to the effect simulation execution unit 12.

トレーニングデータベース11によるトレーニングプランの作成プロセスを図9に例示する。データ比較部10から入力される修正点比較分析データ、つまり、筋力、柔軟性の足りない部位、体型要補正部位のリストを入力し、そのなかから1つの部位を選択する。その部位の筋力が足りないのであれば、筋力トレーニング方法を検索し、出力する。また、その部位の柔軟性が足りないのであれば、その部位のストレッチ方法を検索し、出力する。また、その部位は体型の補正を要するのであれば、その部位のダイエット方法を検索し、出力する。同じ処理をリストのすべての部位について実行する。これにより、トレーニングプランが作成され、図14(b)に示すように、表示部8の別画面で「一日目:腹筋30回×4セット、二日目:…」のようにテキストで表示される。また、トレーニング方法は図14(a)に示すように動画として表示される。このトレーニング方法の動画についても、画面直下のGUIを用いて任意の視点から観察可能とされている。   A training plan creation process by the training database 11 is illustrated in FIG. The correction point comparison analysis data input from the data comparison unit 10, that is, a list of muscle strength, a portion with insufficient flexibility, and a body shape correction required portion are input, and one portion is selected from the list. If the muscle strength of the part is insufficient, a strength training method is searched and output. Further, if the flexibility of the part is insufficient, the method of stretching the part is searched and output. Also, if the body part needs to be corrected, the diet method for that part is retrieved and output. The same process is performed for all parts of the list. As a result, a training plan is created and displayed as text on the separate screen of the display unit 8 as shown in FIG. 14 (b), such as “first day: 30 times abdominal muscles × 4 sets, second day:. Is done. The training method is displayed as a moving image as shown in FIG. A moving image of this training method can also be observed from an arbitrary viewpoint using a GUI directly below the screen.

効果シミュレーション実行部12はトレーニングデータベース11から入力されるトレーニングプランのデータに対して、その効果をシミュレーションする。つまり、このプランに従いトレーニングを行うと、任意の時期にどのように体型や動作が変形しているかをシミュレーションし、その体型データ、モーションデータを作成する。それらのデータはデータ統合部71に送られ、練習対象者の人体モデルと統合された後、表示部8に送られ、図14(c)に示すように、現状のユーザの動作と、練習後に予測されるユーザの動作と、模範動作とが並べて表示される。これらは動画として表示され、画面左下隅のGUIを用いて任意の視点から観察可能とされている。   The effect simulation execution unit 12 simulates the effect on the training plan data input from the training database 11. In other words, when training is performed according to this plan, it simulates how the body shape and movement are deformed at an arbitrary time, and the body shape data and motion data are created. These data are sent to the data integration unit 71, integrated with the human body model of the person to be practiced, and then sent to the display unit 8, as shown in FIG. 14 (c). Predicted user actions and model actions are displayed side by side. These are displayed as moving images and can be observed from an arbitrary viewpoint using the GUI in the lower left corner of the screen.

効果シミュレーション実行部12の処理内容を図10に例示する。図14(a)に示す「効果予測」のボタンを押すと、トレーニングデータベース11からトレーニング方法、ストレッチ方法、ダイエット方法などのトレーニングプランのデータを取得する。また、練習対象者の年齢、性別、体型などの情報を取得する。また、図14(a)の「何日後?」の欄に設定されたシミュレーションの期間を取得する。シミュレーションする部位を1つ選択し、その部位が筋力トレーニングの対象であれば、練習対象者の年齢、性別などに応じて予め統計データに基づいて作成された予測計算式により、トレーニング方法×期間に応じた筋力アップの効果を予測計算する。そして、筋力アップ後のモーションデータの角速度を増加方向に補正することで、トレーニング後に動作がシャープになる変化がシミュレーションされる。   The processing content of the effect simulation execution part 12 is illustrated in FIG. When the “effect prediction” button shown in FIG. 14A is pressed, training plan data such as a training method, a stretching method, and a diet method are acquired from the training database 11. In addition, information such as age, gender, and body type of the subject is acquired. Also, the simulation period set in the column “How many days later?” In FIG. If one part to be simulated is selected, and that part is a target for strength training, the training method x period is calculated using a prediction calculation formula created based on statistical data in advance according to the age, sex, etc. of the person to be trained. Predict and calculate the effect of increasing strength. Then, by correcting the angular velocity of the motion data after increasing strength in the increasing direction, a change in which the operation becomes sharp after training is simulated.

同様に、シミュレーションする部位がストレッチの対象であれば、練習対象者の年齢、性別などに応じて予め統計データに基づいて作成された予測計算式により、ストレッチ方法×期間に応じた柔軟性アップの効果を予測計算する。そして、柔軟性アップ後のモーションデータの回転角度を増加方向に補正することで、トレーニング後の動作が大振りになる変化がシミュレーションされる。   Similarly, if the part to be simulated is the subject of stretching, a prediction calculation formula created based on statistical data in advance according to the age, sex, etc. of the person to be trained will increase the flexibility according to the stretching method × period Predict the effect. Then, by correcting the rotation angle of the motion data after increasing the flexibility in the increasing direction, a change in which the operation after the training becomes large is simulated.

また、シミュレーションする部位がダイエットの対象であれば、練習対象者の年齢、性別などに応じて予め統計データに基づいて作成された予測計算式により、ダイエット方法×期間に応じたダイエット効果を予測計算する。そして、ダイエット後の人体モデルのパーツの太さを減少方向に補正することで、ダイエット後の体型がスマートになる変化がシミュレーションされる。以上の処理をすべての部位について繰り返すことで、全体として、どのように体型や動作が変形するかをシミュレーションする。   In addition, if the part to be simulated is a diet target, predictive calculation of the diet effect according to the diet method × period using the prediction formula created based on statistical data in advance according to the age, sex, etc. of the subject To do. Then, by correcting the thickness of the part of the human body model after the diet in a decreasing direction, a change in which the body shape after the diet becomes smart is simulated. By repeating the above processing for all the parts, it is simulated how the body shape and movement are deformed as a whole.

モーションデータトラック部14はユーザ側に設けられた模範動画入力部13から入力される動画をモーションデータに変換する。そのデータはモーションデータベース6に入力され、モーションデータベース6を随時更新することが可能となる。   The motion data track unit 14 converts the moving image input from the model moving image input unit 13 provided on the user side into motion data. The data is input to the motion database 6, and the motion database 6 can be updated as needed.

履歴データベース15はデータ統合部71から入力される人体データ、モーションデータを関連付けて記憶し、ユーザ側の所望動作選択部1にそのデータが呼び出されたときに、データ比較部10に出力する。この機能があることで、練習者は以前の自分の動き、体型と現在の動き、体型を比較することが出来、その進歩度合いを確認することが出来る。また、効果シミュレーション結果と実際の状態がかけはなれている場合は提示されたトレーニングプランを見直すため、そのデータを修正部17に送る。   The history database 15 stores the human body data and motion data input from the data integration unit 71 in association with each other, and outputs the data to the data comparison unit 10 when the data is called by the desired motion selection unit 1 on the user side. With this function, the practitioner can compare his / her previous movement, body shape with current movement, body shape, and confirm the degree of progress. If the effect simulation result and the actual state are different from each other, the data is sent to the correction unit 17 in order to review the presented training plan.

修正部17は履歴データベース15からの情報と、ユーザがトレーニング後情報入力部16を操作して入力したトレーニング後情報とを比較し、そのデータから、効果シミュレーション実行部12とトレーニングデータベース11を修正する。そうすることで、より練習対象者個人にあった練習プラン、効果シミュレーションが可能となる。   The correction unit 17 compares the information from the history database 15 with the post-training information input by the user operating the post-training information input unit 16, and corrects the effect simulation execution unit 12 and the training database 11 from the data. . By doing so, it is possible to perform practice plans and effect simulations that are more suited to the individual subject to practice.

図11を用いて修正部17の機能を説明する。図中の比較部は、上述のデータ比較部10の機能を示しており、模範動作とトレーニング「前」の練習者の体型・体力・動作を比較することで、トレーニングプラン(1次)を作成する。図中の効果シミュレータは、上述の効果シミュレーション実行部12に対応しており、トレーニングプラン(1次)から所定期間後の練習者の体型・体力・動作をシミュレーションする。実際にトレーニングしてみると、トレーニング「後」の練習者の体型・体力・動作がシミュレーション結果とずれていることがある。そこで、所望のトレーニング効果が得られるように、模範動作、トレーニング「前」の練習者の体型・体力・動作なども考慮に入れて、より適切なトレーニングプラン(2次)を作成する。また、適確な効果予測ができるように、効果シミュレータの予測計算式のパラメータを修正する。以上の処理は繰り返し行なうようにして、3次、4次、…のトレーニングプランを作成できるようにしても良い。   The function of the correction unit 17 will be described with reference to FIG. The comparison unit in the figure shows the functions of the data comparison unit 10 described above, and the training plan (primary) is created by comparing the model movements, physical fitness, and movements of the trainer before training To do. The effect simulator in the figure corresponds to the effect simulation execution unit 12 described above, and simulates the body shape, physical strength, and movement of the practitioner after a predetermined period from the training plan (primary). When you actually train, the body shape, physical strength, and movement of the trainer after training may be different from the simulation results. Therefore, in order to obtain a desired training effect, a more appropriate training plan (secondary) is created in consideration of the model motion, the body shape, physical strength, motion, etc. of the trainer before training. In addition, the parameter of the prediction calculation formula of the effect simulator is corrected so that the effect can be predicted accurately. The above processing may be repeated so that a third, fourth,... Training plan can be created.

以上説明したシステムの大部分はサーバ側に設けられており、Java(登録商標)script等のネットワーク対応型のプログラムを使用することにより、ユーザ側からの要求にしたがって、必要な情報のみをネットワークを介して配信することが可能となる。そのため、ユーザ側のマシンの記憶容量や、演算能力が小さくても高度な3次元CGを利用することも可能である。また、ネットワークを介すことで、システムを利用する場所や時間の制限がない上、サーバ側でデータが更新されると各ユーザはリアルタイムで最新のデータを入手することが可能となる。   Most of the systems described above are provided on the server side. By using a network-compatible program such as Java (registered trademark) script, only the necessary information is transferred to the network according to the request from the user side. It becomes possible to deliver via. Therefore, it is possible to use advanced three-dimensional CG even if the storage capacity of the machine on the user side and the computing capacity are small. Further, through the network, there are no restrictions on the place and time for using the system, and when the data is updated on the server side, each user can obtain the latest data in real time.

ここで、モーションデータベース6やトレーニングデータベース11の更新・提供はサーバ運営事業者に限らず、ネットワーク上で自由に参加できるデータ提供者が自社所属のダンサーやスポーツ選手のモーションデータやトレーニングデータを提供できるようにしても良い。モーションデータベース6、トレーニングデータベース11は必ずしもサーバの設置されている場所に設置されている必要はなく、サーバの監視下で利用可能であればネットワーク上の任意の場所に配置されていてもよい。このようにモーションデータ、トレーニングデータ、人体データの提供者を広く募ることにより、豊富なデータを利用できる環境をすみやかに構築することが可能となる。   Here, the update and provision of the motion database 6 and the training database 11 are not limited to server operators, and data providers who can participate freely on the network can provide motion data and training data of dancers and athletes belonging to the company. You may do it. The motion database 6 and the training database 11 do not necessarily have to be installed at the location where the server is installed, and may be arranged at any location on the network as long as they can be used under the monitoring of the server. In this way, by widely recruiting providers of motion data, training data, and human body data, it becomes possible to quickly construct an environment where abundant data can be used.

この場合、データの質を高く保つために、データ提供者が提供したデータがユーザに利用された場合には、ユーザに対して課金し、徴収した収益の全部あるいは一部をデータ提供者に対して支払うこととする。具体的にはユーザがモーションデータベース6、データ比較部10、トレーニングデータベース11、効果シミュレーション実行部12を使用した際に課金する。図1において、「¥」の記号を付した部分は、ユーザがこれらの機能を使用するか否か選択可能としていることを意味する。サーバにはユーザに対して課金するためのデータを記憶する課金データ記憶部18と、データ提供者に対して代償を支払うためのデータを記憶する支払いデータ記憶部19を設置する。データ提供者がデータを登録してから一定期間がたった後、データの利用頻度を調べ、利用頻度が少なかったデータに対しては削除するなどの対策をとれば、データの質を常に高く保つことが可能となる。   In this case, in order to keep the quality of the data high, when the data provided by the data provider is used by the user, the user is charged and all or part of the collected revenue is provided to the data provider. To pay. Specifically, the user is charged when using the motion database 6, the data comparison unit 10, the training database 11, and the effect simulation execution unit 12. In FIG. 1, the part with the symbol “¥” means that the user can select whether or not to use these functions. The server is provided with a billing data storage unit 18 that stores data for billing the user, and a payment data storage unit 19 that stores data for paying a price to the data provider. After a certain period of time has passed since the data provider registered the data, check the frequency of use of the data, and take measures such as deleting data that has been used infrequently. Is possible.

図12にデータの利用頻度を調べるためのアルゴリズムを例示する。ユーザがサーバにログインすると、ユーザIDとパスワードにより利用者を識別する。ユーザがデータ提供者であれば、図1の模範動画入力部13が操作されたときに、モーションデータトラック部14を動作させて、模範動画をモーションデータベース6に取り込んで、その模範動画の利用頻度に初期値(例えば、0回)を書き込む。ユーザが練習対象者であれば、図1の所望動作選択部1が操作されて、モーションデータベース6の模範動画が利用されたときに、その模範動画の利用頻度を+1する。これにより、個々の模範動画ごとに利用頻度をカウントすることができる。   FIG. 12 exemplifies an algorithm for examining the data usage frequency. When the user logs in to the server, the user is identified by the user ID and password. If the user is a data provider, when the exemplary moving image input unit 13 of FIG. 1 is operated, the motion data track unit 14 is operated to load the exemplary moving image into the motion database 6 and the use frequency of the exemplary moving image. An initial value (for example, 0 times) is written in. If the user is a person to be practiced, when the desired motion selection unit 1 in FIG. 1 is operated and the model moving image in the motion database 6 is used, the usage frequency of the model moving image is incremented by one. Thereby, the usage frequency can be counted for each model video.

図13は支払いデータ記憶部19の構成例を示している。サーバのコンピュータのタイマーにより時間をカウントし、一定時間が経過するごとにタイマー割込が発生するようにしておく。タイマー割込が発生すると、期間カウンタを+1する。期間カウンタの値が基準値未満であれば、割込を終了する。期間カウンタの値が基準値以上であれば、期間カウンタをリセットし、モーションデータベース6に登録されている模範動画を1つ選択する。その模範動画の利用頻度を取得し、利用頻度×単価の計算式により支払いデータを計算し、データ提供者にメールで通知する。利用頻度が所定回数未満であれば、利用頻度が少なかったとして、その模範動画はモーションデータベース6から削除し、その旨をデータ提供者にメールで通知する。利用頻度が所定回数以上であれば、利用頻度のカウント値をリセットする。以上の処理をすべての模範動画について繰り返した後、割込を終了する。   FIG. 13 shows a configuration example of the payment data storage unit 19. The time is counted by a timer of the server computer, and a timer interrupt is generated every time a fixed time elapses. When a timer interrupt occurs, the period counter is incremented by one. If the value of the period counter is less than the reference value, the interrupt is terminated. If the value of the period counter is equal to or greater than the reference value, the period counter is reset and one model moving image registered in the motion database 6 is selected. The usage frequency of the model video is acquired, payment data is calculated by a calculation formula of usage frequency × unit price, and the data provider is notified by email. If the usage frequency is less than the predetermined number of times, the model video is deleted from the motion database 6 and the data provider is notified by e-mail because the usage frequency is low. If the usage frequency is greater than or equal to the predetermined number, the usage frequency count value is reset. After the above process is repeated for all model videos, the interrupt is terminated.

なお、図12のフローで新たな模範動画がモーションデータベース6に登録されたときに、利用頻度の初期値を0と設定する代わりに、図13のフローにおいて削除対象とならない所定回数(>0)を初期値として設定しておけば、登録後まもない模範動画が利用頻度が少ないとして削除されることはないし、登録後一定期間が経過したときに、登録の代償としてのイニシャル・ペイメントを支払うことができる。   When a new model video is registered in the motion database 6 in the flow of FIG. 12, instead of setting the initial value of the usage frequency to 0, a predetermined number of times (> 0) that is not a deletion target in the flow of FIG. Is set as the initial value, model videos that have not yet been registered will not be deleted because they are not used frequently, and initial payment as a price for registration will be paid when a certain period of time has passed after registration. be able to.

練習対象者に課金するためのデータを記憶する課金データ記憶部18の構成例については図示を省略するが、特定の機能を利用するためのボタンをユーザが操作したときに、その機能は課金される旨をユーザに表示する機能と、その表示を見たユーザが課金を承認するボタンを操作したときに、その機能の利用単価をユーザの課金データに加算する機能とを少なくとも有して構成される。なお、月ごとに課金データの明細をユーザにメール送信する機能を付加してもよい。   The configuration example of the billing data storage unit 18 that stores data for billing the subject is omitted from illustration, but when the user operates a button for using a specific function, the function is charged. And a function for adding the unit price of the function to the user's billing data when the user who sees the display operates a button for approving the billing. The Note that a function may be added in which the details of the billing data are sent to the user by month by email.

データ提供者に支払う報酬または練習対象者から徴収する利用料は、ネットワーク上または現実世界で通用するポイントであってもかまわない。   The reward paid to the data provider or the usage fee collected from the subject of training may be a point that is valid on the network or in the real world.

図示されたアルゴリズムはあくまでも例示であり、特許請求の範囲に記載された範囲内で同等の機能を達成できるものであれば、任意のアルゴリズムを用いることができることは言うまでも無い。   The illustrated algorithm is merely an example, and it goes without saying that an arbitrary algorithm can be used as long as an equivalent function can be achieved within the scope of the claims.

本発明は健康機械器具やリハビリ用品等の製造・販売業を営む者が自社製品の購入者を対象にトレーニング効果の予測・評価を行なう用途や、各種スポーツ用品の製造・販売業を営む者が購入者を対象にプロ選手のフォームを習得できるサービスを提供する用途、あるいは、音楽配信事業を営む者がCD購入者を対象として人気歌手の振り付けを習得できるサービスを提供する用途などに利用できる。   The present invention is intended for use by a person engaged in the manufacture / sales of health machinery and rehabilitation equipment to predict / evaluate training effects for purchasers of its own products, and a person engaged in the manufacture / sales of various sporting goods. It can be used for a purpose of providing a service for acquiring a professional player's form for a purchaser or a service for providing a service for a person who operates a music distribution business to learn the choreography of a popular singer for a CD purchaser.

本発明の一実施形態の構成を示す説明図である。It is explanatory drawing which shows the structure of one Embodiment of this invention. 本発明で用いる人体モデル生成部の概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the human body model production | generation part used by this invention. 本発明で用いる人体モデル生成部による人体モデル生成の原理説明図である。It is principle explanatory drawing of the human body model production | generation by the human body model production | generation part used by this invention. 本発明で用いるモーションデータトラック部の概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the motion data track part used by this invention. 本発明で用いるデータ統合部の概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the data integration part used by this invention. 本発明で用いるモーション補正部の概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the motion correction part used by this invention. 本発明で用いるモーション補正部の要部構成を示す説明図である。It is explanatory drawing which shows the principal part structure of the motion correction part used by this invention. 本発明で用いるデータ比較部の概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the data comparison part used by this invention. 本発明で用いるトレーニングデータベースの機能を示す説明図である。It is explanatory drawing which shows the function of the training database used by this invention. 本発明で用いる効果シミュレーション実行部の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the effect simulation execution part used by this invention. 本発明で用いる修正部の機能を示す説明図である。It is explanatory drawing which shows the function of the correction part used by this invention. 本発明で用いる模範動画入力部と所望動作選択部の動作説明図である。It is operation | movement explanatory drawing of the model moving image input part used by this invention, and a desired operation | movement selection part. 本発明で用いる支払いデータ記憶部の動作説明図である。It is operation | movement explanatory drawing of the payment data memory | storage part used by this invention. 本発明で用いる表示部のインターフェースのイメージを示す説明図である。It is explanatory drawing which shows the image of the interface of the display part used by this invention.

符号の説明Explanation of symbols

1 所望動作選択部
2 体型データ入力部
3 モーションデータ入力部
4 人体モデル生成部
5 モーションデータトラック部
6 モーションデータベース
71 データ統合部
72 データ統合部
8 表示部
9 モーション補正部
10 データ比較部
11 トレーニングデータベース
12 効果シミュレーション実行部
13 模範動画入力部
14 モーションデータトラック部
15 履歴データベース
16 トレーニング後情報入力部
17 修正部
18 課金データ記憶部
19 支払いデータ記憶部
DESCRIPTION OF SYMBOLS 1 Desired motion selection part 2 Body type data input part 3 Motion data input part 4 Human body model production | generation part 5 Motion data track part 6 Motion database 71 Data integration part 72 Data integration part 8 Display part 9 Motion correction part 10 Data comparison part 11 Training database DESCRIPTION OF SYMBOLS 12 Effect simulation execution part 13 Model moving image input part 14 Motion data track part 15 History database 16 Information input part after training 17 Correction part 18 Billing data storage part 19 Payment data storage part

Claims (8)

運動の練習対象者の身長、体重、筋力などの身体特性の個人情報に基づいて人体モデルを生成する人体モデル生成部と、
練習対象者の運動画像からモーションデータを抽出し、記憶するモーションデータトラック部と、
前記人体モデル生成部とモーションデータトラック部のデータにより人体モデルの動作を生成するデータ統合部と、
模範的動作を記憶するモーションデータベースと、
モーションデータベースのデータを選択する所望動作選択部と、
前記データ統合部の映像データと前記モーションデータベースの映像データを表示する表示部とを備えることを特徴とする動作トレーニング表示システム。
A human body model generation unit that generates a human body model based on personal information of physical characteristics such as height, weight, muscle strength, etc. of a person to be exercised;
A motion data track section for extracting and storing motion data from the exercise image of the person to be practiced,
A data integration unit for generating an action of the human body model based on the data of the human body model generation unit and the motion data track unit;
A motion database that stores exemplary actions;
A desired motion selection unit for selecting data of the motion database;
An operation training display system comprising: video data of the data integration unit and a display unit for displaying video data of the motion database.
請求項1において、前記人体モデル生成部の情報に基づき、前記モーションデータベースのデータを補正するモーション補正部を設けたことを特徴とする動作トレーニング表示システム。 The motion training display system according to claim 1, further comprising a motion correction unit that corrects the data of the motion database based on information of the human body model generation unit. 請求項1又は2において、前記データ統合部のデータとモーションデータベースのデータを比較するデータ比較部を有することを特徴とする動作トレーニング表示システム。 3. The motion training display system according to claim 1, further comprising a data comparison unit that compares data of the data integration unit and data of a motion database. 請求項3において、データ比較部による比較結果のデータとトレーニングプランとを対応付けたトレーニングデータベースを有し、比較結果のデータに応じてトレーニングデータベースを検索し、トレーニングデータベースから出力されたトレーニングプランを表示部において表示することを特徴とする動作トレーニング表示システム。 4. The training database according to claim 3, comprising a training database that associates the data of the comparison result by the data comparison unit with the training plan, searches the training database according to the data of the comparison result, and displays the training plan output from the training database. An operation training display system characterized by displaying in a department. 請求項4において、前記トレーニングデータベースから出力されるトレーニングプランのデータと練習対象者の個人情報とからトレーニングの効果予測データを作成する効果シミュレーション実行部を備え、効果予測データを前記表示部において表示することを特徴とする動作トレーニング表示システム。 5. The apparatus according to claim 4, further comprising an effect simulation execution unit that creates training effect prediction data from training plan data output from the training database and personal information of a person to be practiced, and displays the effect prediction data on the display unit. A motion training display system characterized by that. 請求項1〜6のいずれかにおいて、前記データ統合部から出力されたデータを履歴として記憶し、前記所望動作選択部から履歴を選択された際には前記データ比較部に出力する履歴データベースを備えることを特徴とする動作トレーニング表示システム。 The history database according to claim 1, further comprising: a history database that stores data output from the data integration unit as a history and outputs the history to the data comparison unit when the history is selected from the desired operation selection unit. A motion training display system characterized by that. 請求項5又は6において、トレーニング後の練習対象者の個人情報あるいは運動画像を入力するトレーニング後情報入力部と、入力されたトレーニング後情報を効果予測データと比較して、トレーニングデータベースと効果シミュレーション実行部を修正する修正部を備えることを特徴とする動作トレーニング表示システム。 The training database and the effect simulation execution according to claim 5 or 6, wherein the training information input unit for inputting the personal information or the exercise image of the training subject after training, and comparing the input training information with the effect prediction data An operation training display system comprising a correcting unit for correcting the unit. 請求項1〜7のいずれかにおいて、練習対象者の体型データ入力部、モーションデータ入力部、および表示部をクライアント側に有し、それ以外をサーバ側に有することを特徴とする動作トレーニング表示システム。 The motion training display system according to any one of claims 1 to 7, further comprising a body data input unit, a motion data input unit, and a display unit of a subject to be practiced on a client side, and the others on a server side. .
JP2003352704A 2003-10-10 2003-10-10 Motion training display system Pending JP2005111178A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003352704A JP2005111178A (en) 2003-10-10 2003-10-10 Motion training display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003352704A JP2005111178A (en) 2003-10-10 2003-10-10 Motion training display system

Publications (1)

Publication Number Publication Date
JP2005111178A true JP2005111178A (en) 2005-04-28

Family

ID=34543556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003352704A Pending JP2005111178A (en) 2003-10-10 2003-10-10 Motion training display system

Country Status (1)

Country Link
JP (1) JP2005111178A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006320424A (en) * 2005-05-17 2006-11-30 Tama Tlo Kk Action teaching apparatus and method
JP2008073339A (en) * 2006-09-22 2008-04-03 Npo Jukunen Taiiku Daigaku Research Center Exercise effect prediction system, exercise effect prediction program, and exercise effect prediction method
KR101031469B1 (en) 2010-12-31 2011-04-26 (주) 골프존 Golf content providing device and golf content providing system, virtual golf simulation device using the same, golf content providing method and virtual golf simulation method
JP2011123411A (en) * 2009-12-14 2011-06-23 Emprie Technology Development LLC Motion analyzer and motion analyzing method
JP2013111449A (en) * 2011-12-01 2013-06-10 Canon Inc Video generating apparatus and method, and program
JP2015509772A (en) * 2012-02-14 2015-04-02 ピクスフォーマンス・スポーツ・ゲーエムベーハーPixformance Sports Gmbh Fitness apparatus and method for automatically confirming the correct execution of a fitness exercise
JP2016131040A (en) * 2016-04-05 2016-07-21 ソニー株式会社 Information processor, information processing method and computer program
JP2017146577A (en) * 2016-02-15 2017-08-24 日本電信電話株式会社 Technical support device, method, program and system
CN109173159A (en) * 2018-08-16 2019-01-11 湖南曼纽科医疗科技有限公司 A kind of muscle health management system and its control method
JP2019020670A (en) * 2017-07-21 2019-02-07 前田建設工業株式会社 Experienced operation teaching system
JP2019197344A (en) * 2018-05-09 2019-11-14 惇史 尾崎 General-purpose body movement support system, general-purpose body movement support transaction management system, and general-purpose body movement support method
CN111275339A (en) * 2020-01-20 2020-06-12 北京驭胜晏然体育文化有限公司 Indoor snow sliding teaching action analysis and correction method and system and readable storage medium
US10768778B2 (en) 2012-12-25 2020-09-08 Sony Corporation Information processing apparatus, information processing method, and computer program
CN114121214A (en) * 2020-08-26 2022-03-01 丰田自动车株式会社 Training system, training method, and program
JP2022122511A (en) * 2021-02-10 2022-08-23 株式会社PocketRD Training management system, training management method and training management program
CN116616751A (en) * 2023-05-26 2023-08-22 南京信息工程大学 The Method of Using KINECT to Realize the Health Management of NAO Robot
JP2024016117A (en) * 2010-11-10 2024-02-06 ナイキ イノベイト シーブイ Systems and methods for measuring and displaying athletic activity on a time-based basis
JP2025044287A (en) * 2023-09-19 2025-04-01 ソフトバンクグループ株式会社 system

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006320424A (en) * 2005-05-17 2006-11-30 Tama Tlo Kk Action teaching apparatus and method
JP2008073339A (en) * 2006-09-22 2008-04-03 Npo Jukunen Taiiku Daigaku Research Center Exercise effect prediction system, exercise effect prediction program, and exercise effect prediction method
US8113843B2 (en) 2009-12-14 2012-02-14 Empire Technology Development Llc Apparatus for analyzing operations and method for analyzing operations
JP2011123411A (en) * 2009-12-14 2011-06-23 Emprie Technology Development LLC Motion analyzer and motion analyzing method
JP2024016117A (en) * 2010-11-10 2024-02-06 ナイキ イノベイト シーブイ Systems and methods for measuring and displaying athletic activity on a time-based basis
JP7715783B2 (en) 2010-11-10 2025-07-30 ナイキ イノベイト シーブイ Systems and methods for measuring and displaying time-based athletic activity
CN103328053B (en) * 2010-12-31 2016-10-26 高尔纵株式会社 Golf training content providing device, system and method
CN103328053A (en) * 2010-12-31 2013-09-25 高夫准株式会社 Apparatus for providing golf content, system for providing golf content using same, apparatus for virtual golf simulation, method for providing golf content, and method for virtual golf simulation
KR101031469B1 (en) 2010-12-31 2011-04-26 (주) 골프존 Golf content providing device and golf content providing system, virtual golf simulation device using the same, golf content providing method and virtual golf simulation method
JP2013111449A (en) * 2011-12-01 2013-06-10 Canon Inc Video generating apparatus and method, and program
JP2015509772A (en) * 2012-02-14 2015-04-02 ピクスフォーマンス・スポーツ・ゲーエムベーハーPixformance Sports Gmbh Fitness apparatus and method for automatically confirming the correct execution of a fitness exercise
US10607067B2 (en) 2012-02-14 2020-03-31 Pixformance Sports Gmbh Fitness device and method for automatically checking for the correct performance of a fitness exercise
US10768778B2 (en) 2012-12-25 2020-09-08 Sony Corporation Information processing apparatus, information processing method, and computer program
US10891015B2 (en) 2012-12-25 2021-01-12 Sony Corporation Information processing apparatus, information processing method, and computer program
JP2017146577A (en) * 2016-02-15 2017-08-24 日本電信電話株式会社 Technical support device, method, program and system
JP2016131040A (en) * 2016-04-05 2016-07-21 ソニー株式会社 Information processor, information processing method and computer program
JP2019020670A (en) * 2017-07-21 2019-02-07 前田建設工業株式会社 Experienced operation teaching system
JP7122090B2 (en) 2017-07-21 2022-08-19 前田建設工業株式会社 Skilled motion teaching system
JP2019197344A (en) * 2018-05-09 2019-11-14 惇史 尾崎 General-purpose body movement support system, general-purpose body movement support transaction management system, and general-purpose body movement support method
CN109173159A (en) * 2018-08-16 2019-01-11 湖南曼纽科医疗科技有限公司 A kind of muscle health management system and its control method
CN111275339A (en) * 2020-01-20 2020-06-12 北京驭胜晏然体育文化有限公司 Indoor snow sliding teaching action analysis and correction method and system and readable storage medium
CN114121214A (en) * 2020-08-26 2022-03-01 丰田自动车株式会社 Training system, training method, and program
JP2022122511A (en) * 2021-02-10 2022-08-23 株式会社PocketRD Training management system, training management method and training management program
CN116616751A (en) * 2023-05-26 2023-08-22 南京信息工程大学 The Method of Using KINECT to Realize the Health Management of NAO Robot
JP2025044287A (en) * 2023-09-19 2025-04-01 ソフトバンクグループ株式会社 system

Similar Documents

Publication Publication Date Title
US20240157197A1 (en) Method and system for human motion analysis and instruction
Mungoli Exploring the technological benefits of VR in physical fitness
Velloso et al. Qualitative activity recognition of weight lifting exercises
US11037369B2 (en) Virtual or augmented reality rehabilitation
JP2005111178A (en) Motion training display system
KR100772497B1 (en) Golf Clinic System and Its Operation Method
US8428357B2 (en) Systems and methods for performance training
CN103596626B (en) The scoring method of jog mode diagnostic system and jog mode
JP7492722B2 (en) Exercise evaluation system
Zago et al. Multi-segmental movements as a function of experience in karate
CN112288766B (en) Motion evaluation method, device, system and storage medium
US20240382806A1 (en) Method and system for human motion analysis and instruction
WO2011086466A1 (en) Apparatus and method for detecting and classifying so as to be able to evaluate and self-evaluate exercises
KR102050559B1 (en) Customized health management system considering genetic specificity
KR20110112523A (en) Monitoring exercise prescription system to provide personalized exercise program
KR20220098064A (en) User customized exercise method and system
JP6999543B2 (en) Interactive Skills Frameworks and methods configured to enable analysis of physically performed skills, including application to distribution of training content.
JP6978811B1 (en) Training management system, training management method and training management program
KR20220088862A (en) Quantified motion feedback system
JP7792138B2 (en) Teaching Support System
Outram et al. Test-retest reliability of segment kinetic energy measures in the golf swing
Korableva et al. Evaluation of Physical Exercise Performance Using Deep Learning Methods
Liebermann et al. Video-based technologies
WO2024159402A1 (en) An activity tracking apparatus and system
EP4606439A1 (en) Information processing method, information processing device, and computer-readable non-transitory storage medium