JP2023008679A - Information providing method, information providing program, and marking support system - Google Patents
Information providing method, information providing program, and marking support system Download PDFInfo
- Publication number
- JP2023008679A JP2023008679A JP2021112417A JP2021112417A JP2023008679A JP 2023008679 A JP2023008679 A JP 2023008679A JP 2021112417 A JP2021112417 A JP 2021112417A JP 2021112417 A JP2021112417 A JP 2021112417A JP 2023008679 A JP2023008679 A JP 2023008679A
- Authority
- JP
- Japan
- Prior art keywords
- technique
- feature amount
- skeleton
- difference
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】技の認識結果に関する情報提供の品質向上を実現すること。【解決手段】情報提供方法では、技認識用の機械学習モデルに入力された骨格情報から前記技認識用の機械学習モデルが出力する技に対応する特徴量を算出し、算出された特徴量と、前記技認識用の機械学習モデルの訓練に用いられた骨格情報の訓練データのうち前記技と同一の技のラベルが付与された訓練データから求まる特徴量との差分を算出し、算出された特徴量の差分を出力する、処理をコンピュータが実行する。【選択図】図6[Problem] To improve the quality of information provision regarding the results of technique recognition. [Solution] In the information provision method, a computer executes a process of calculating a feature amount corresponding to a technique output by a machine learning model for technique recognition from skeletal information input to the machine learning model for technique recognition, calculating a difference between the calculated feature amount and a feature amount obtained from training data of skeletal information used to train the machine learning model for technique recognition that is labeled with the same technique as the technique, and outputting the calculated feature amount difference. [Selected Figure] Figure 6
Description
本発明は、情報提供技術に関する。 The present invention relates to information provision technology.
人物の姿勢認識や行動認識が各種の分野で利用されている。例えば、体操競技を例に挙げれば、現状の採点方法は複数の審判による目視で行われているが、器具の進化やトレーニング方法の改善により、動きの複雑化を伴う技の高度化が進み、審判による技の認識が困難となる場面が増加している。この結果、審判ごとに選手の採点結果が異なるなど採点の公平性や正確性の維持に懸念が生じている。 Human posture recognition and action recognition are used in various fields. Taking gymnastics as an example, the current scoring method is based on visual observation by multiple referees. The number of situations where it is difficult for referees to recognize techniques is increasing. As a result, there are concerns about maintaining the fairness and accuracy of scoring, such as the scoring results of athletes differing for each referee.
このような背景から、3次元のレーザセンサにより選手の3次元点群データを取得し、選手の骨格情報の検出、選手により実施された技の認識を実行して技の認識結果に関する情報を提供することで、審判の採点を支援する採点支援システムが提案されている。 Against this background, we acquire 3D point cloud data of athletes using a 3D laser sensor, detect the athlete's skeletal information, recognize the techniques performed by the athlete, and provide information on the recognition results of the techniques. A scoring support system has been proposed that assists referees in scoring.
例えば、採点支援システムでは、技の認識結果に関する情報提供の一環として、技の認識に用いられる機械学習モデルが出力する尤度が提供されている。これにより、1つの側面として、機械学習モデルが不正解の技のラベルを出力している可能性が高い場面、例えば過検知や誤検知などの場面で自動採点のミスに注意を喚起する。 For example, in a scoring support system, the likelihood output by a machine learning model used for skill recognition is provided as part of providing information on skill recognition results. As an aspect, this draws attention to mistakes in automatic scoring in situations where there is a high possibility that the machine learning model is outputting a label for an incorrect technique, such as an over-detection or a false detection.
しかしながら、上記の尤度は、以下に説明する通り、技の認識結果に関する情報提供の品質として十分なものであるとは限らない一面がある。 However, as will be described below, the above likelihood is not always sufficient as the quality of providing information on the recognition result of the trick.
すなわち、上記の尤度は、機械学習モデルの訓練時に訓練データとして用いられる骨格情報と、採点などの場面で入力される骨格情報との差に対応するものに過ぎず、真の確からしさとは一致しない。特に、機械学習モデルが分類するクラスの種類が多いほど、さらには、機械学習モデルによる分類精度に個人差が与える影響が大きいほど、上記の尤度と真の確からしさは一致しづらくなる。例えば、機械学習モデルが出力する尤度が低い場合でもラベルが正解である場合もあれば、機械学習モデルが出力する尤度が高い場合でもラベルが不正解である場合もある。加えて、機械学習モデルによる判断プロセスは、人間と異なるものであってブラックボックスである場合があるので、機械学習モデルが出力する尤度を提供したとしても人への説明に適さない一面もある。 In other words, the above likelihood simply corresponds to the difference between the skeletal information used as training data when training the machine learning model and the skeletal information input in situations such as scoring. It does not match. In particular, the greater the number of types of classes classified by the machine learning model, and the greater the impact of individual differences on the classification accuracy of the machine learning model, the more difficult it is for the likelihood and true likelihood to match. For example, the label may be correct even if the likelihood output by the machine learning model is low, and the label may be incorrect even if the likelihood output by the machine learning model is high. In addition, the decision process by machine learning models is different from that of humans and may be a black box, so even if the likelihood output by machine learning models is provided, there is also an aspect that is not suitable for explanation to humans. .
1つの側面では、技の認識結果に関する情報提供の品質向上を実現できる情報提供方法、情報提供プログラム及び採点支援システムを提供することを目的とする。 An object of one aspect is to provide an information providing method, an information providing program, and a scoring support system capable of improving the quality of providing information on skill recognition results.
一態様にかかる情報提供方法では、技認識用の機械学習モデルに入力された骨格情報から前記技認識用の機械学習モデルが出力する技に対応する特徴量を算出し、算出された特徴量と、前記技認識用の機械学習モデルの訓練に用いられた骨格情報の訓練データのうち前記技と同一の技のラベルが付与された訓練データから求まる特徴量との差分を算出し、算出された特徴量の差分を出力する、処理をコンピュータが実行する。 In an information providing method according to one aspect, a feature amount corresponding to a technique output by the machine learning model for technique recognition is calculated from skeleton information input to the machine learning model for technique recognition, and the calculated feature amount and , out of the training data of the skeleton information used for training the machine learning model for the technique recognition, the difference between the feature amount obtained from the training data labeled with the same technique as the technique is calculated. A computer executes a process of outputting the difference of the feature amounts.
一実施形態によれば、技の認識結果に関する情報提供の品質向上を実現できる。 According to one embodiment, it is possible to improve the quality of providing information on the recognition results of tricks.
以下、添付図面を参照して本願に係る情報提供方法、情報提供プログラム及び採点支援システムの実施例について説明する。各実施例には、あくまで1つの例や側面を示すに過ぎず、このような例示により数値や機能の範囲、利用シーンなどは限定されない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Hereinafter, embodiments of an information providing method, an information providing program, and a scoring support system according to the present application will be described with reference to the accompanying drawings. Each embodiment merely shows one example or one aspect, and such examples do not limit the numerical values, the range of functions, the usage scene, and the like. Further, each embodiment can be appropriately combined within a range that does not contradict the processing contents.
<システム構成>
図1は、採点支援システムの構成例を示す図である。図1に示す採点支援システム1は、被写体である演技者3の3次元データを取得し、骨格認識や技認識などを通じて演技者3により実施される技の採点を支援するものである。
<System configuration>
FIG. 1 is a diagram showing a configuration example of a scoring support system. A
このような技の例として、体操競技における演技を挙げるが、フィギュアスケートにおける演技の他、各種のスポーツにおける動作、例えば野球のスイングやサッカーのシュートなども技の範疇に含まれてよい。 As an example of such a technique, a performance in gymnastics will be given, but in addition to performance in figure skating, movements in various sports, such as a baseball swing and a soccer shoot, may also be included in the category of techniques.
図1に示すように、採点支援システム1には、3Dレーザセンサ5と、サーバ装置10と、クライアント端末30とが含まれ得る。
As shown in FIG. 1 , the
3D(Three-Dimensional)レーザセンサ5は、赤外線レーザ等を用いて対象物までの距離、いわゆる深度を走査点に対応する画素ごとに測定するセンサ装置の一例である。例えば、3Dレーザセンサ5の例として、深度画像カメラやLIDAR(Light Detection and Ranging)技術を用いたレーザセンサ、例えばMEMS(Micro-Electro-Mechanical Systems)ミラー型のレーザセンサであってよい。
The 3D (Three-Dimensional)
サーバ装置10は、各種のサービスを提供するコンピュータの一例である。あくまで一例として、サーバ装置10は、図1に示すように、骨格認識機能7、技認識機能8および採点支援機能9がパッケージ化された採点支援サービスを提供する。例えば、骨格認識機能7は、3Dレーザセンサ5により測定される深度画像を用いて、演技者3の骨格部位、例えば関節の位置などの骨格情報を検出する機能を提供する。技認識機能8は、骨格認識機能7による骨格認識で得られる骨格情報の時系列データを用いて、演技者3により実施される技を認識する機能を提供する。採点支援機能9は、技認識機能8による技認識結果に基づいて採点を支援する機能を提供する。
The
これら骨格認識機能7、技認識機能8および採点支援機能9を実現するパッケージソフトウェアを任意のコンピュータに実行させることにより、上記の採点支援サービスが提供され得る。例えば、サーバ装置10は、SaaS(Software as a Service)型のアプリケーションとして実装することで、骨格認識機能7、技認識機能8および採点支援機能9をクラウドサービスとして提供することができる。この他、サーバ装置10は、骨格認識機能7、技認識機能8および採点支援機能9をオンプレミスに提供するサーバとして実装することもできる。
By causing an arbitrary computer to execute package software that realizes the skeleton recognition function 7, the technique recognition function 8, and the
クライアント端末30は、上記のサービスの提供を受けるコンピュータの一例である。このようなクライアント端末30は、上記のサービスのユーザのあくまで一例として、体操競技の関係者、例えば審判員や演技者3のトレーナなどにより使用される。例えば、クライアント端末30は、パーソナルコンピュータなどのデスクトップ型のコンピュータなどであってよい。この他、クライアント端末30は、ラップトップ型のコンピュータや携帯端末装置、ウェアラブル端末などの汎用の情報処理装置に限らず、HMI(Human Machine Interface)などが採点支援用にカスタマイズされたものであってもよい。
The
なお、図1には、骨格認識機能7、技認識機能8および採点支援機能9がパッケージ化されて提供される例を挙げたが、各機能がモジュール化されて提供されてもよい。この場合、骨格認識機能7、技認識機能8および採点支援機能9の各々は、異なるコンピュータにより実現されてよく、また、同一のベンダまたは異なるベンダにより提供されてよい。
Note that FIG. 1 shows an example in which the skeleton recognition function 7, the technique recognition function 8, and the
<骨格認識機能>
図2は、骨格認識機能7を示す模式図である。図2に示すように、骨格認識機能7は、あくまで一例として、機械学習モデルを用いる骨格認識とフィッティングとを組みわせたハイブリッド方式により実現できる。
<Skeleton recognition function>
FIG. 2 is a schematic diagram showing the skeleton recognition function 7. As shown in FIG. As shown in FIG. 2, the skeleton recognition function 7 can be realized by a hybrid system that combines skeleton recognition using a machine learning model and fitting, just as an example.
例えば、骨格認識には、深度画像を入力として3D骨格座標の推定値を出力する機械学習モデル7m、例えばCNN(Convolutional Neural Network)系のニューラルネットワークを用いることができる。ここで言う「3D骨格座標」とは、頭や肩、背骨、肘、手首、腰、膝、足首などといった関節が3次元空間上で位置する座標を指し、「骨格情報」の一例に対応し得る。 For example, for skeletal recognition, a machine learning model 7m, such as a CNN (Convolutional Neural Network) neural network, which inputs depth images and outputs estimated values of 3D skeletal coordinates, can be used. The "3D skeletal coordinates" referred to here refer to the coordinates at which joints such as the head, shoulders, spine, elbows, wrists, hips, knees, and ankles are positioned in a three-dimensional space, and correspond to an example of "skeletal information." obtain.
このような機械学習モデル7mの訓練には、深度画像および正解ラベルの3D骨格座標が対応付けられた訓練データを含むデータセット7TRを用いることができる。例えば、訓練データは、体操競技の3D骨格座標からコンピュータグラフィックス等により深度画像を生成することにより用意できる。このようなデータセットの下、学習フェイズでは、深度画像を機械学習モデル7mの説明変数とし、ラベルを機械学習モデル7mの目的変数とし、任意の機械学習のアルゴリズム、例えばディープラーニングなどにしたがって機械学習モデル7mを訓練できる。例えば、深度画像が入力された機械学習モデル7mが出力する3D骨格座標の推定値と、正解ラベルの3D骨格座標との損失に基づいて機械学習モデル7mのパラメータが更新される。これにより、訓練済みの機械学習モデル7Mが得られる。推論フェイズでは、体操器具や演技者3自身によるオクルージョンを克服するように設置された多視点の3Dレーザセンサ5A~5Nから出力される多視点の深度画像を機械学習モデル7Mへ入力する。このように多視点の深度画像が入力された機械学習モデル7Mは、演技者3の3D骨格座標を出力する。 For training such a machine learning model 7m, a data set 7TR including training data in which depth images and 3D skeletal coordinates of correct labels are associated can be used. For example, the training data can be prepared by generating depth images using computer graphics or the like from 3D skeletal coordinates for gymnastics. Under such a data set, in the learning phase, the depth image is used as an explanatory variable for the machine learning model 7m, the label is used as the objective variable for the machine learning model 7m, and any machine learning algorithm, such as deep learning, is used for machine learning. Model 7m can be trained. For example, the parameters of the machine learning model 7m are updated based on the loss between the estimated value of the 3D skeleton coordinates output by the machine learning model 7m to which the depth image is input and the 3D skeleton coordinates of the correct labels. This yields a trained machine learning model 7M. In the inference phase, multi-viewpoint depth images output from multi-viewpoint 3D laser sensors 5A to 5N installed so as to overcome occlusion by the gymnastics equipment and the performer 3 himself are input to the machine learning model 7M. The machine learning model 7M to which the multi-viewpoint depth images are input in this way outputs the 3D skeleton coordinates of the performer 3 .
フィッティングでは、機械学習モデル7Mの3D骨格座標の出力や前フレームにおけるフィッティング結果などを初期値とし、多視点の深度画像が統合された3D点群に人体モデルを当てはめる。例えば、3D点群の座標と人体モデルの表面座標との一致度を示す評価関数(尤度)を定義し、最も尤度が高くなる関節角度を最適化により求めることで、3D骨格座標を決定する。 In the fitting, the output of the 3D skeleton coordinates of the machine learning model 7M, the fitting result in the previous frame, etc. are used as initial values, and the human body model is applied to the 3D point cloud in which the multi-viewpoint depth images are integrated. For example, by defining an evaluation function (likelihood) that indicates the degree of matching between the coordinates of the 3D point cloud and the surface coordinates of the human body model, and optimizing the joint angle with the highest likelihood, the 3D skeleton coordinates are determined. do.
3Dレーザセンサ5および骨格認識機能7により、マーカレスで演技者3の動きの3次元計測を実行する3Dセンシングが実現される。
The
<技認識機能>
図3は、技認識機能8を示す模式図である。図3に示すように、技認識機能8は、3D骨格座標の時系列データを入力として体操競技における技名を出力する機械学習モデル8m、例えばCNN系のニューラルネットワークにより実現できる。
<Technique recognition function>
FIG. 3 is a schematic diagram showing the technique recognition function 8. As shown in FIG. As shown in FIG. 3, the technique recognition function 8 can be realized by a
このような機械学習モデル8mの訓練には、3D骨格座標の時系列データおよび正解ラベルの技名が対応付けられた訓練データを含むデータセット8TRを用いることができる。例えば、訓練データには、体操競技で演技が実演された3D骨格座標の時系列データを用いることができる。このようなデータセットの下、学習フェイズでは、3D骨格座標を機械学習モデル8mの説明変数とし、ラベルを機械学習モデル8mの目的変数とし、任意の機械学習のアルゴリズム、例えばディープラーニングなどにしたがって機械学習モデル8mを訓練できる。例えば、3D骨格座標の時系列データが入力された機械学習モデル8mが出力する技名の推定値と、正解ラベルの技名との損失に基づいて機械学習モデル8mのパラメータが更新される。これにより、訓練済みの機械学習モデル8Mが得られる。推論フェイズでは、骨格認識機能7による骨格認識で得られた3D骨格座標の時系列データを機械学習モデル8Mへ入力する。このように3D骨格座標の時系列データが入力された機械学習モデル8Mは、演技者3により実施された技名を技の認識結果として出力する。この際、技の認識結果に関する情報として、技名とルールや採点規則とを照合することにより識別できる情報、例えば技のグループ名や技の難易度、難易度評価点などを含めて出力することもできる。
For training such a
<採点支援機能>
採点支援機能9は、骨格認識機能7による3D骨格座標、技認識機能8による技認識結果またはこれらの組合せに基づいて体操競技の関係者に対する情報提供を実行できる。例えば、採点支援機能9は、体操競技の関係者の一例に対応する審判員向けのユーザインタフェイスの例として、図4に示すマルチアングルビューや図5に示す自動採点ビューなどを提供できる。このような採点支援機能9がWebアプリケーションにより実現されることで、クライアント端末30上で動作するブラウザを介して図4に示すマルチアングルビューや図5に示す自動採点ビューなどを提供できる。
<Scoring support function>
The
図4は、マルチアングルビューの一例を示す図である。図4に示すように、マルチアングルビュー400には、3Dレーザセンサ5が深度画像を取得するフレームごとに当該フレームにおける演技者3の3D骨格座標がモデル化された骨格モデルが正面や側面、平面、自由視点などの複数の視点で表示される。このように複数の視点で骨格モデルを表示するか否かは、タブ410およびタブ420に対する操作で切り替えることができる。例えば、“Multi”のタブ410が選択中である場合、図4に示す通り、演技者3の骨格モデルが複数の視点ごとに表示される。その一方で、“Single”のタブ420が選択中である場合、指定の視点に対応する演技者3の骨格モデルが表示される。さらに、マルチアングルビュー400では、シークバー430上でスライダ430Aをスライドさせることにより、演技者3の骨格モデルを表示させるフレームを指定させることもできる。このようなマルチアングルビュー400によれば、採点基準の1つとなり得る演技者3の関節角度を詳細に確認させることができる。
FIG. 4 is a diagram showing an example of a multi-angle view. As shown in FIG. 4, in the
図5は、自動採点ビューの一例を示す図である。図5に示すように、自動採点ビュー500には、骨格モデルビュー510および自動採点テーブル520が含まれる。例えば、骨格モデルビュー510には、ユーザ指定のアングルにおける演技者3の3D骨格座標がモデル化された骨格モデルが表示される。この骨格モデルビュー510に演技者3の骨格モデルを表示させるフレームは、シークバー530上でスライダ530Aをスライドさせることにより指定させることができる。また、自動採点テーブル520には、技の認識結果が時系列に表示される。同図の例で言えば、自動採点ビュー500のウィンドウの縦方向、すなわち上方向から下方向へ向けて、技名、技のグループ番号、技の難易度および難易度価値点が時系列に表示される。このように各技の情報が個別に表示される他、全演技のDスコアの採点結果がさらに表示される。ここで、図5には、Dスコアのタブ540が選択中である例が示されているが、Eスコアのタブ550が選択された場合、全演技のEスコアの採点結果の表示に切り替えることができる。このような自動採点ビュー500によれば、審判業務の負担を軽減できる。
FIG. 5 is a diagram showing an example of an automatic scoring view. As shown in FIG. 5,
これらマルチアングルビューや自動採点ビューに加えて、技の認識結果に関する情報提供の一環として、技認識に用いられる機械学習モデル8Mが出力する技の尤度が提供され得る。これにより、機械学習モデル8Mが不正解の技のラベルを出力している可能性が高い場面、例えば過検知や誤検知などの場面で自動採点のミスに注意を喚起する側面がある。 In addition to the multi-angle view and the automatic scoring view, the likelihood of the technique output by the machine learning model 8M used for technique recognition can be provided as part of providing information on the technique recognition result. This has the aspect of calling attention to mistakes in automatic scoring in situations where there is a high possibility that the machine learning model 8M is outputting a label for an incorrect technique, for example, in situations such as over-detection or mis-detection.
なお、図4や図5では、技の認識結果に関する情報提供の例として、審判向けのコンテンツを例に挙げたが、情報提供の対象は審判員に限定されない。例えば、トレーナ向け、あるいはエンターテイメント向けのコンテンツを提供することとしてもかまわない。 In FIGS. 4 and 5, content for referees is used as an example of providing information on the recognition results of tricks, but the target of information provision is not limited to referees. For example, content for trainers or entertainment may be provided.
<課題の一側面>
上記の機械学習モデル8Mが出力する尤度は、以下に説明する通り、技の認識結果に関する情報提供の品質として十分なものであるとは限らない一面がある。
<One aspect of the challenge>
As will be described below, the likelihood output by the machine learning model 8M is not always of sufficient quality as the quality of providing information on the recognition result of the technique.
すなわち、上記の尤度は、機械学習モデル8Mの訓練時に訓練データとして用いられる骨格情報と、採点などの場面で入力される骨格情報との差に対応するものに過ぎず、真の確からしさとは一致しない。特に、機械学習モデル8Mが分類するクラスの種類が多いほど、さらには、機械学習モデル8Mによる分類精度に個人差が与える影響が大きいほど、上記の尤度と真の確からしさは一致しづらくなる。例えば、機械学習モデル8Mが出力する尤度が低い場合でもラベルが正解である場合もあれば、機械学習モデル8Mが出力する尤度が高い場合でもラベルが不正解である場合もある。加えて、機械学習モデル8Mによる判断プロセスは、人間と異なるものであってブラックボックスである場合があるので、機械学習モデル8Mが出力する尤度を提供したとしても人への説明に適さない一面もある。 In other words, the likelihood described above merely corresponds to the difference between the skeletal information used as training data when training the machine learning model 8M and the skeletal information input in situations such as scoring. do not match. In particular, the greater the number of types of classes classified by the machine learning model 8M, and the greater the impact of individual differences on the classification accuracy of the machine learning model 8M, the more difficult it is for the likelihood and true likelihood to match. . For example, the label may be correct even if the likelihood output by the machine learning model 8M is low, and the label may be incorrect even if the likelihood output by the machine learning model 8M is high. In addition, the judgment process by the machine learning model 8M is different from humans and may be a black box, so even if the likelihood output by the machine learning model 8M is provided, it is not suitable for explanation to humans. There is also
<サーバ装置10の構成>
そこで、本実施例では、技の認識結果に関する情報提供の品質向上を実現できる情報提供機能を有するサーバ装置10の機能的構成について説明する。図6は、実施例1に係るサーバ装置10の機能構成例を示すブロック図である。図6には、サーバ装置10が有する機能に対応するブロックが模式化されている。
<Configuration of
Therefore, in this embodiment, a functional configuration of the
図6に示すように、サーバ装置10は、通信インタフェイス部11と、記憶部13と、制御部15とを有する。なお、図6には、上記の情報提供機能を含む採点支援サービスに関連する機能部が図示されているが、一部の機能に対応するモジュールが異なるコンピュータ、あるいは仮想マシンで動作することを妨げない。また、図6に示す機能部に限らず、既存のコンピュータがデフォルトまたはオプションで装備する機能がサーバ装置10に備わることとしてもよい。
As shown in FIG. 6 , the
通信インタフェイス部11は、他の装置、例えば3Dレーザセンサ5やクライアント端末30などとの間で通信制御を行う通信制御部の一例に対応する。あくまで一例として、通信インタフェイス部11は、LAN(Local Area Network)カードなどのネットワークインターフェイスカードにより実現され得る。1つの側面として、通信インタフェイス部11は、3Dレーザセンサ5から深度画像をフレーム単位で受け付けたり、また、技認識結果に関する情報をクライアント端末30へ出力したりする。
The communication interface unit 11 corresponds to an example of a communication control unit that controls communication with other devices such as the
記憶部13は、各種のデータを記憶する機能部である。あくまで一例として、記憶部13は、ストレージ、例えば内部、外部または補助のストレージにより実現される。例えば、記憶部13は、機械学習モデル8Mの生成に用いられた訓練データのデータセット8TRを記憶する。このデータセット8TR以外にも、記憶部13は、機械学習モデル7Mの生成に用いられた訓練データのデータセット7TR、3D骨格座標、技認識結果、あるいは自動採点結果などの各種のデータを記憶することができる。
The
制御部15は、サーバ装置10の全体制御を行う処理部である。例えば、制御部15は、ハードウェアプロセッサにより実現される。図6に示すように、制御部15は、取得部15Aと、骨格認識部15Bと、技認識部15Cと、特徴量算出部15Dと、特徴量差分算出部15Eと、採点支援部15Fとを有する。
The
取得部15Aは、深度画像を取得する処理部である。あくまで一例として、取得部15Aは、多視点の3Dレーザセンサ5A~5Nから出力される多視点の深度画像をフレーム単位で取得することができる。ここで、取得部15Aが深度画像を取得する情報ソースは、任意の情報ソースであってよく、ネットワークNWを介する通信に限定されない。例えば、取得部15Aは、サーバ装置10が有するストレージ、あるいはサーバ装置10に着脱可能なリムーバブルメディア、例えばメモリカードやUSB(Universal Serial Bus)メモリなどから深度画像を取得することとしてもよい。
The
骨格認識部15Bは、骨格認識を実行する処理部である。骨格認識部15Bは、図1に示す骨格認識機能7に対応し得る。一実施形態として、骨格認識部15Bは、図2に示された訓練済みの機械学習モデル7Mを演技者3の骨格認識に用いることができる。例えば、骨格認識部15Bは、取得部15Aにより深度画像の新規のフレームが取得された場合、当該新規のフレームに対応する多視点の深度画像を機械学習モデル7Mへ入力する。そして、骨格認識部15Bは、多視点の深度画像が入力された機械学習モデル7Mから出力される演技者3の3D骨格座標の推定値を技認識部15Cへ出力する。
The skeleton recognition unit 15B is a processing unit that executes skeleton recognition. The skeleton recognition unit 15B can correspond to the skeleton recognition function 7 shown in FIG. As one embodiment, the skeleton recognition unit 15B can use the trained machine learning model 7M shown in FIG. For example, when the
技認識部15Cは、技認識を実行する処理部である。技認識部15Cは、図1に示す技認識機能8に対応し得る。一実施形態として、技認識部15Cは、図3に示された訓練済みの機械学習モデル8Mを演技者3の技認識に用いることができる。例えば、技認識部15Cは、骨格認識部15Bにより新規のフレームに対応する3D骨格座標が出力された場合、当該新規のフレームから遡って特定の数のフレーム分の3D骨格座標の時系列データを機械学習モデル8Mへ入力する。そして、技認識部15Cは、3D骨格座標の時系列データが入力された機械学習モデル8Mから出力される演技者3の技認識結果を特徴量算出部15Dへ出力する。 The technique recognition unit 15C is a processing unit that executes technique recognition. The technique recognition unit 15C can correspond to the technique recognition function 8 shown in FIG. As one embodiment, the technique recognition unit 15C can use the trained machine learning model 8M shown in FIG. For example, when the skeleton recognition unit 15B outputs the 3D skeleton coordinates corresponding to a new frame, the technique recognition unit 15C acquires the time-series data of the 3D skeleton coordinates for a specific number of frames from the new frame. Input to machine learning model 8M. Then, the technique recognition unit 15C outputs the technique recognition result of the performer 3, which is output from the machine learning model 8M to which the time-series data of the 3D skeleton coordinates is input, to the feature amount calculation unit 15D.
特徴量算出部15Dは、技に関する特徴量を算出する処理部である。一実施形態として、特徴量算出部15Dは、技認識部15Cにより技が認識された場合、例えば機械学習モデル8Mが出力するラベルが未検出、すなわち技なしでない場合、処理を起動できる。例えば、特徴量算出部15Dは、技認識部15Cにより認識された技の採点項目ごとに当該採点項目に対応する特徴量を算出する。すなわち、技の種類によって採点規則で定められた採点項目の種類や数が異なり得るので、技ごとに異なる種類および異なる数の特徴量が算出される。例えば、「前後開脚とび」を例に挙げれば、前後開脚、前膝角度およびジャンプ高さなどの特徴量が算出される。また、「前後開脚輪とび」を例に挙げれば、前後開脚、前膝角度およびジャンプ高さの特徴量に加えて、後脚の高さや上半身の反り角度などの特徴量がさらに算出される。例えば、特徴量算出部15Dは、技の採点項目に対応する特徴量ごとに、機械学習モデル8Mに入力された3D骨格座標の時系列データのうち、当該特徴量の算出に用いるフレームを特定して当該フレームにおける3D骨格座標から特徴量を算出する。 The feature amount calculation unit 15D is a processing unit that calculates feature amounts related to techniques. As an embodiment, the feature amount calculation unit 15D can start processing when a technique is recognized by the technique recognition unit 15C, for example, when the label output by the machine learning model 8M is not detected, that is, when there is no technique. For example, the feature amount calculation unit 15D calculates a feature amount corresponding to each scoring item of the technique recognized by the technique recognizing unit 15C. That is, since the type and number of scoring items defined by the scoring rule may differ depending on the type of technique, different types and different numbers of feature values are calculated for each technique. For example, in the case of “forward-backward split leg jump”, feature amounts such as back-and-forth leg spread, front knee angle, and jump height are calculated. In addition, taking the example of "front and back split wheel jump", in addition to the front and rear split legs, the front knee angle and the jump height, the feature values such as the height of the back legs and the warp angle of the upper body are further calculated. be. For example, the feature amount calculation unit 15D specifies a frame to be used for calculating the feature amount from the time-series data of the 3D skeleton coordinates input to the machine learning model 8M for each feature amount corresponding to the scoring item of the technique. Then, the feature amount is calculated from the 3D skeleton coordinates in the frame.
特徴量差分算出部15Eは、技認識に用いられた入力データおよび技の認識結果に対応する訓練データの間で特徴量の差分を算出する処理部である。例えば、入力データの特徴量として、特徴量算出部15Dにより算出された特徴量が用いられる。一方、訓練データの特徴量として、機械学習モデル8Mの生成に用いられたデータセット8TRのうち、技認識部15Cにより認識された技と同一技のラベルが付与された訓練データに対応する3D骨格座標の時系列データから算出された特徴量が用いられる。なお、訓練データの特徴量については、オンデマンドで特徴量算出部15Dに算出させることもできるが、事前に算出しておいた特徴量をプリセットとして用いることができる。 The feature amount difference calculation unit 15E is a processing unit that calculates a feature amount difference between the input data used for technique recognition and the training data corresponding to the technique recognition result. For example, the feature amount calculated by the feature amount calculation unit 15D is used as the feature amount of the input data. On the other hand, as a feature quantity of the training data, a 3D skeleton corresponding to the training data labeled with the same technique as the technique recognized by the technique recognition unit 15C in the data set 8TR used to generate the machine learning model 8M. A feature amount calculated from time-series data of coordinates is used. Note that the feature amount of the training data can be calculated by the feature amount calculation unit 15D on demand, but the feature amount calculated in advance can be used as a preset.
より詳細には、特徴量差分算出部15Eは、技認識部15Cにより認識された技と同一技のラベルが付与されたL個の訓練データごと、および、技認識部15Cにより認識された技の採点項目の数に対応するK種類の特徴量ごとに、特徴量の差分を算出する。このように算出される特徴量の差分は、その値がゼロに近いほど入力データおよび訓練データの間で採点項目に対応する特徴量の距離が小さい、あるいは特徴量の類似度が高いことを意味し得る。つまり、特徴量の差分の値が小さいほど、訓練データに付与されたラベルの技に対応する採点項目にしたがって当該技が実施されている可能性が高まる。それ故、体操競技における採点規則にしたがって技が実施されている尤もらしさを数値化できる。この結果、技が実施されている真の確からしさを表現すると共に人の判断プロセスに適合する指標を提供できる。 More specifically, the feature amount difference calculation unit 15E calculates the number of L pieces of training data labeled with the same technique as the technique recognized by the technique recognition unit 15C and the technique recognized by the technique recognition unit 15C. A feature amount difference is calculated for each of K kinds of feature amounts corresponding to the number of scoring items. The difference between the feature amounts calculated in this way means that the closer the value is to zero, the smaller the distance of the feature amount corresponding to the scoring item between the input data and the training data, or the higher the similarity of the feature amounts. can. That is, the smaller the value of the difference between the feature amounts, the higher the possibility that the technique is performed according to the scoring item corresponding to the technique labeled with the training data. Therefore, it is possible to quantify the likelihood that the technique is performed according to the scoring rules in gymnastics. As a result, it is possible to provide an index that expresses the true likelihood that the technique is being performed and that is suitable for the human judgment process.
さらに、特徴量差分算出部15Eは、上記の特徴量の差分から特徴量の尤度を算出する。以下、特徴量の尤度のことを指して「特徴量尤度」と記載する場合がある。あくまで一例として、特徴量尤度は、特徴量の差分を特定の数値範囲、例えば0~1の範囲へ正規化することにより算出することができる。この際、1に近づくほど特徴量が尤もらしい一方で0に近づくほど特徴量が尤もらしくない特徴量尤度に正規化する側面から、特徴量の差分の逆数をとることもできる。 Further, the feature quantity difference calculation unit 15E calculates the likelihood of the feature quantity from the difference in the feature quantity. Hereinafter, the likelihood of a feature amount may be referred to as a "feature amount likelihood". As just one example, the feature quantity likelihood can be calculated by normalizing the feature quantity difference to a specific numerical range, for example, a range of 0-1. At this time, the reciprocal of the difference of the feature amounts can be obtained from the aspect of normalization to the feature amount likelihood that the closer to 1 the more likely the feature amount is and the closer to 0 the less likely the feature amount is.
このようにK種類の特徴量尤度が算出された後、特徴量差分算出部15Eは、K種類の特徴量尤度を代表する1つの代表値、例えば統計値を技の尤度として算出することができる。以下、技の尤度のことを指して「技尤度」と記載する場合がある。あくまで一例として、K種類の特徴量尤度の最小値を技尤度として導出することができる。この他、K種類の特徴量尤度の相加平均や加重平均などの平均値、あるいはK種類の特徴量尤度の中央値などを技尤度として導出することとしてもよい。このような技尤度をL個の訓練データごとに算出することにより、特徴量差分算出部15Eは、L個の技尤度を算出する。 After the K types of feature quantity likelihoods are calculated in this way, the feature quantity difference calculating unit 15E calculates one representative value representing the K types of feature quantity likelihoods, for example, a statistical value, as the skill likelihood. be able to. Hereinafter, the likelihood of a technique may be referred to as "technique likelihood". As an example, the minimum value of K types of feature quantity likelihoods can be derived as the technique likelihood. In addition, an average value such as an arithmetic average or a weighted average of K types of feature quantity likelihoods, or a median value of K types of feature quantity likelihoods may be derived as skill likelihoods. By calculating such a skill likelihood for each of L pieces of training data, the feature quantity difference calculating unit 15E calculates L pieces of skill likelihood.
採点支援部15Fは、採点を支援する処理部である。採点支援部15Fは、図1に示す採点支援機能9に対応し得る。1つの側面として、採点支援部15Fは、図4に示されたマルチアングルビュー400や図5に示された自動採点ビュー500をクライアント端末30に表示させることができる。他の側面として、採点支援部15Fは、技認識結果に関する情報提供の一環として、特徴量差分算出部15Eにより算出された特徴量尤度や技尤度をクライアント端末30に提供できる。例えば、採点支援部15Fは、特徴量差分算出部15Eにより算出されたL個の技尤度のうち最小の技尤度を抽出すると共に、最小の技尤度に対応する訓練データから算出されたK種類の特徴量尤度を抽出する。その上で、採点支援部15Fは、最小の技尤度、あるいは最小の技尤度に対応する訓練データから算出されたK種類の特徴量尤度をクライアント端末30に表示させる。
The
図7は、採点支援ビューの一例を示す図である。図7に示すように、採点支援ビュー700には、演技者3の3D骨格座標がモデル化された骨格モデルを表示する骨格モデルビュー710が含まれる。この骨格モデルビュー710に演技者3の骨格モデルを表示させるフレームは、シークバー720上のスライダ720Aの位置に応じて連動させることができる。図7の例で言えば、シークバー720上のスライダ720Aの位置に対応するフレームで実施中である技「前脚を曲げ伸ばした前後開脚とび」の骨格モデルが骨格モデルビュー710に表示されている。
FIG. 7 is a diagram showing an example of the scoring support view. As shown in FIG. 7, the scoring
さらに、シークバー720上のスライダ720Aの位置に応じて、演技者3により実施される演技を時系列に表示するシンボルバー730の表示が連動する。例えば、シークバー720上のスライダ720Aの位置に対応するフレームで実施中である技と、その前後で実施される技とが時系列に並べて表示される。図7の例で言えば、「ロンダート」、「後方伸身宙返り、両足着台」、「片足立ち1回ターン」、「前脚を曲げ伸ばした前後開脚とび」および「シソンヌ」の各技のシンボルが横方向、例えば左方向から右方向へ並べて表示される。
Furthermore, according to the position of the
さらに、シンボルバー730に含まれるシンボルには、当該シンボルに対応する技尤度が対応付けて表示される。図7の例で言えば、シンボル「ロンダート」の下部には、技尤度「0.91」が表示され、シンボル「後方伸身宙返り、両足着台」の下部には、技尤度「0.99」が表示され、シンボル「片足立ち1回ターン」の下部には、技尤度「0.87」が表示されている。さらに、シンボル「前脚を曲げ伸ばした前後開脚とび」の下部には、技尤度「0.25」が表示され、シンボル「シソンヌ」の下部には、技尤度「0.85」が表示されている。
Furthermore, symbols included in the
ここで、シンボルバー730に表示されるシンボルや技尤度のうち、特定の条件を満たすシンボルまたは技尤度の表示形態と、他のシンボルまたは他の技尤度の表示形態とが区別される。例えば、技尤度が閾値以下である場合、あるいはシンボルバー730内で技尤度が最低である場合のいずれかの条件に該当するシンボルや技尤度を強調表示させることができる。図7の例で言えば、シンボル「前脚を曲げ伸ばした前後開脚とび」がハッチングで表示されると共に、その技尤度のフォントが太字で表示されている。
Here, among the symbols and technique likelihoods displayed on the
このようなシンボルバー730によれば、技認識結果のうち過検知や誤検知のおそれが他の技よりも高い「前脚を曲げ伸ばした前後開脚とび」の注目度を高めることができる。この結果、「前脚を曲げ伸ばした前後開脚とび」の自動採点ミスに注意を喚起できる。これにより、例えば、「前脚を曲げ伸ばした前後開脚とび」と動きが類似する「前後開脚とび」と誤検知されていないかなどの推定やその確認などの対処も可能となる。
According to the
図8は、トレーニング支援ビューの一例を示す図である。図8に示すように、トレーニング支援ビュー800には、図7に示された骨格モデルビュー710、シークバー720、スライダ720Aおよびシンボルバー730と同様のGUIコンポーネントに加えて、特徴量尤度リスト810がさらに含まれる。
FIG. 8 is a diagram showing an example of a training assistance view. As shown in FIG. 8, the
このような特徴量尤度リスト810には、シークバー720上のスライダ720Aの位置に対応するフレームで実施中である技の採点項目に対応する種類の特徴量に関する特徴量尤度がリスト化されて表示される。
The feature
図8の例で言えば、実施中の技が「前脚を曲げ伸ばした前後開脚とび」である側面から、特徴量尤度リスト810には、前後開脚「0.88」、前膝角度「0.25」およびジャンプ高さ「0.98」の3つの特徴量尤度1~3が表示される。
In the example of FIG. 8, from the side where the technique being performed is "front-back split leg jump with front leg bent and straightened", the feature
さらに、3つの特徴量尤度1~3のうち、前膝角度「0.25」が他の特徴量尤度よりも相対的に低い、あるいは0~1の数値範囲において定め得る閾値、例えば0.4よりも低いという条件を満たすことから強調表示される。
Furthermore, among the three
このような特徴量尤度リスト810によれば、技認識結果「前脚を曲げ伸ばした前後開脚とび」と合わせて、前膝角度が「0.25」という相対的および絶対的に低い値であることを演技者3やそのトレーナなどに提示できる。これにより、「前脚を曲げ伸ばした前後開脚とび」の採点規則で定められた通りの前脚の曲げ伸ばしが不十分であるという改善点のサジェスチョンが可能となる。
According to the feature
<処理の流れ>
図9は、実施例1に係る情報提供処理の手順を示すフローチャートである。図9に示す処理は、あくまで一例として、深度画像の新規のフレームが取得された場合に開始できる。図9に示すように、骨格認識部15Bは、取得部15Aにより取得された深度画像を機械学習モデル7Mへ入力することにより、演技者3の3D骨格座標の推定値を機械学習モデル7Mに出力させることで、骨格認識を実行する(ステップS101)。
<Process flow>
FIG. 9 is a flowchart illustrating the procedure of information provision processing according to the first embodiment. The process illustrated in FIG. 9 may begin, by way of example only, when a new frame of depth images is acquired. As shown in FIG. 9, the skeleton recognition unit 15B inputs the depth image acquired by the
続いて、技認識部15Cは、新規のフレームから遡って特定数のフレーム分の3D骨格座標の時系列データを機械学習モデル8Mへ入力することにより、演技者3の技認識結果を機械学習モデル8Mに出力させることで、技認識を実行する(ステップS102)。 Subsequently, the technique recognition unit 15C inputs the time-series data of the 3D skeleton coordinates for a specific number of frames retroactively from the new frame to the machine learning model 8M, thereby recognizing the technique recognition result of the performer 3 as the machine learning model. By causing 8M to output, technique recognition is executed (step S102).
このとき、ステップS102の技認識で技が認識された場合、例えば機械学習モデル8Mが出力するラベルが未検出、すなわち技なしでない場合(ステップS103Yes)、特徴量算出部15Dは、次のような処理を実行する。すなわち、特徴量算出部15Dは、ステップS102の技認識で認識された技の採点項目に対応するK種類の特徴量を算出する(ステップS104)。 At this time, if the technique is recognized in the technique recognition of step S102, for example, if the label output by the machine learning model 8M is not detected, that is, if there is no technique (Yes in step S103), the feature amount calculation unit 15D performs the following Execute the process. That is, the feature amount calculation unit 15D calculates K kinds of feature amounts corresponding to the scoring items of the technique recognized in the technique recognition of step S102 (step S104).
そして、特徴量差分算出部15Eは、ステップS102の技認識で認識された技と同一技のラベルが付与された訓練データの個数Lに対応する回数の分、ステップS105からステップS107までの処理を繰り返すループ処理1を開始する。なお、ここでは、ループ処理が行われる例を挙げるが、訓練データの個数LごとにステップS105からステップS107の処理が並列して行われてもよい。
Then, the feature amount difference calculation unit 15E repeats the processing from step S105 to step S107 the number of times corresponding to the number L of training data to which the label of the same technique as the technique recognized in the technique recognition in step S102 is assigned.
さらに、特徴量差分算出部15Eは、ステップS102の技認識で認識された技の採点項目の数に対応する特徴量の種類数Kに対応する回数の分、ステップS105およびステップS106の処理を繰り返すループ処理2を開始する。なお、ここでも、特徴量の種類数KごとにステップS105およびステップS106の処理が並列して行われてもよい。 Further, the feature amount difference calculation unit 15E repeats the processing of steps S105 and S106 for the number of times corresponding to the number of feature amount types K corresponding to the number of scoring items of the technique recognized in the technique recognition of step S102. Loop processing 2 is started. Also here, the processing of steps S105 and S106 may be performed in parallel for each type number K of feature amounts.
すなわち、特徴量差分算出部15Eは、技認識に用いられた入力データおよび技の認識結果に対応する訓練データの間で特徴量の差分を算出する(ステップS105)。例えば、入力データの特徴量として、ステップS104で算出された特徴量が用いられる。一方、訓練データの特徴量として、機械学習モデル8Mの生成に用いられたデータセット8TRのうち、ステップS102の技認識で認識された技と同一技のラベルが付与された訓練データに対応する3D骨格座標の時系列データから算出された特徴量が用いられる。 That is, the feature amount difference calculating unit 15E calculates the feature amount difference between the input data used for the technique recognition and the training data corresponding to the technique recognition result (step S105). For example, the feature amount calculated in step S104 is used as the feature amount of the input data. On the other hand, as a feature value of the training data, a 3D model corresponding to the training data labeled with the same technique as the technique recognized in the technique recognition in step S102 in the data set 8TR used to generate the machine learning model 8M. A feature amount calculated from the time-series data of the skeletal coordinates is used.
続いて、特徴量差分算出部15Eは、ステップS105で算出された特徴量の差分から特徴量尤度を算出する(ステップS106)。 Subsequently, the feature quantity difference calculator 15E calculates a feature quantity likelihood from the feature quantity difference calculated in step S105 (step S106).
このようなループ処理2が繰り返されることにより、特徴量の種類数Kごとに特徴量尤度を得ることができる。ループ処理2が終了すると、特徴量差分算出部15Eは、K種類の特徴量尤度を代表する1つの代表値、例えば最小値を技尤度として算出する(ステップS107)。さらに、ループ処理1が繰り返されることにより、訓練データの個数Lごとに技尤度を得ることができる。
By repeating such loop processing 2, the feature quantity likelihood can be obtained for each of the number K of types of feature quantities. When the loop process 2 ends, the feature amount difference calculation unit 15E calculates one representative value representing the K types of feature amount likelihoods, for example, the minimum value, as the skill likelihood (step S107). Furthermore, by repeating the
ループ処理1が終了すると、採点支援部15Fは、ループ処理1で得られたL個の技尤度のうち最小の技尤度と、最小の技尤度に対応する訓練データから算出されたK種類の特徴量尤度をクライアント端末30に表示させ(ステップS108)、処理を終了する。
When the
<効果の一側面>
上述してきたように、本実施例に係るサーバ装置10は、技認識用の機械学習モデルに入力された骨格情報から求まる特徴量と、技認識用の機械学習モデルが出力する技と同一の技に関する訓練データの骨格情報から求まる特徴量との差分を提供する。このため、技が実施されている真の確からしさを表現すると共に人の判断プロセスに適合する指標を情報提供できる。したがって、本実施例に係るサーバ装置10によれば、技の認識結果に関する情報提供の品質向上を実現できる。
<One aspect of the effect>
As described above, the
さて、上記の実施例1では、技認識で認識された技と同一技のラベルが付与された訓練データの個数Lごとに特徴量の差分、ひいては特徴量尤度や技尤度を算出する例を挙げたが、必ずしもL個の訓練データごとに特徴量の差分などを算出せずともよい。 Now, in the above-described first embodiment, there is an example in which the feature value difference, and thus the feature value likelihood and the skill likelihood are calculated for each number L of training data to which the label of the same skill as the skill recognized in the skill recognition is given. However, it is not always necessary to calculate the difference of the feature amount for each of the L pieces of training data.
すなわち、特徴量の算出時には、技認識で認識される技によって採点項目が異なるので、算出対象とする特徴量の種類を識別したり、特徴量の種類ごとに3D骨格座標の時系列データの中から特徴量の算出に用いるフレームを特定したりといった処理が行われる。 In other words, when calculating the feature amount, the scoring items differ depending on the technique recognized by the technique recognition. A process such as specifying a frame to be used for calculating a feature amount is performed from the frame.
このような処理負荷を軽減する側面から、本実施例では、技認識に用いられた入力データおよび技の認識結果に対応する訓練データの間で3D骨格座標の差分を算出し、差分が最小である訓練データを特徴量の差分の算出対象として絞り込む応用例を説明する。 From the aspect of reducing such processing load, in this embodiment, the difference in 3D skeleton coordinates is calculated between the input data used for technique recognition and the training data corresponding to the technique recognition result. An application example will be described in which certain training data is narrowed down as an object for calculating the difference of the feature quantity.
図10は、実施例2に係るサーバ装置20の機能構成例を示す図である。図10では、図6に示されたサーバ装置10と同様の機能を有する機能部には同一の符号を付し、その説明を省略することとする。図10に示すように、サーバ装置20は、図6に示すサーバ装置10と比べて、制御部25が骨格差分算出部25Aをさらに有する点で異なる。
FIG. 10 is a diagram illustrating a functional configuration example of the server device 20 according to the second embodiment. In FIG. 10, functional units having the same functions as those of the
骨格差分算出部25Aは、3D骨格座標の差分を算出する処理部である。以下、3D骨格座標の差分のことを指して「骨格差分」と記載する場合がある。
The skeleton
あくまで一例として、骨格差分算出部25Aは、技認識部15Cにより技が認識された場合、例えば機械学習モデル8Mが出力するラベルが未検出、すなわち技なしでない場合、処理を起動できる。
By way of example only, the skeleton
例えば、骨格差分算出部25Aは、技認識に用いられた入力データおよび技の認識結果に対応する訓練データの間で3D骨格座標の差分を算出する。例えば、入力データとして、骨格認識部15Bによる骨格認識で得られた3D骨格座標の時系列データ、別観点から言えば技認識部15Cによる技認識に用いられた3D骨格座標の時系列データが用いられる。一方、訓練データとして、機械学習モデル8Mの生成に用いられたデータセット8TRのうち、技認識部15Cにより認識された技と同一技のラベルが付与された訓練データに対応する3D骨格座標の時系列データが用いられる。
For example, the skeleton
より詳細には、骨格差分算出部25Aは、技認識部15Cにより認識された技と同一技のラベルが付与されたL個の訓練データごとに、次のような処理を実行する。すなわち、骨格差分算出部25Aは、入力データおよび訓練データの間で3D骨格座標の時系列データのフレーム数が異なる場合、両者のフレーム数を統一する。このように入力データおよび訓練データの間でフレーム数を統一する場合、多い方のフレーム数を少ない方のフレーム数に合わせることもできれば、少ない方のフレーム数を多い方のフレーム数に合わせることもできる。例えば、少ない方のフレーム数を多い方のフレーム数に合わせる場合、不足分のフレームを補間するリサンプリングが必要となる。その一方で、多い方のフレーム数を少ない方のフレーム数に合わせる場合、超過分のフレームを間引くだけでよい。このような側面から、骨格差分算出部25Aは、入力データおよび訓練データのうち、フレーム数が多い方の3D骨格座標の時系列データから超過分のフレーム数に対応する3D骨格座標を間引くことにより、両者のフレーム数を統一する。
More specifically, the skeleton
フレーム数の統一後、骨格差分算出部25Aは、統一されたM個のフレームごと、および、骨格モデルに定義される関節の数Nごとに、入力データおよび訓練データの間で3D骨格座標の差分、すなわち骨格差分を算出する。ここで求める「差分」は、絶対値であってもよいし、二乗値であってもよい。N個の関節ごとに骨格差分が算出されると、骨格差分算出部25Aは、N個の骨格差分の合計値を算出する。その後、M個のフレームごとにN個の骨格差分の合計値が算出されると、骨格差分算出部25Aは、M個のフレーム分のN個の骨格差分の合計値から平均値を算出する。このようにN個分の骨格差分の平均値を代表値として算出することにより、L個の訓練データごとに訓練データおよび入力データの間で統一されるフレーム数Mが異なる場合でも、L個の訓練データの間でフレーム数の調整を不要化できる。そして、L個の訓練データごとにN個分の骨格差分の平均値が算出されると、骨格差分算出部25Aは、L個の訓練データのうちN個分の骨格差分の平均値が最小である訓練データを選択する。
After unifying the number of frames, the skeletal
これにより、L個の訓練データのうち、入力データからの距離が最小であるか、あるいは入力データに対する類似度が最高である訓練データを絞り込むことができる。 As a result, among the L pieces of training data, the training data having the shortest distance from the input data or having the highest degree of similarity to the input data can be narrowed down.
図11は、実施例2に係る情報提供処理の手順を示すフローチャートである。図11に示す処理も、あくまで一例として、深度画像の新規のフレームが取得された場合に開始できる。図11に示すように、骨格認識部15Bは、取得部15Aにより取得された深度画像を機械学習モデル7Mへ入力することにより、演技者3の3D骨格座標の推定値を機械学習モデル7Mに出力させることで、骨格認識を実行する(ステップS101)。
FIG. 11 is a flowchart illustrating the procedure of information provision processing according to the second embodiment. The process illustrated in FIG. 11 can also be started, by way of example only, when a new frame of the depth image is acquired. As shown in FIG. 11, the skeleton recognition unit 15B inputs the depth image acquired by the
続いて、技認識部15Cは、新規のフレームから遡って特定数のフレーム分の3D骨格座標の時系列データを機械学習モデル8Mへ入力することにより、演技者3の技認識結果を機械学習モデル8Mに出力させることで、技認識を実行する(ステップS102)。 Subsequently, the technique recognition unit 15C inputs the time-series data of the 3D skeleton coordinates for a specific number of frames retroactively from the new frame to the machine learning model 8M, thereby recognizing the technique recognition result of the performer 3 as the machine learning model. By causing 8M to output, technique recognition is executed (step S102).
このとき、ステップS102の技認識で技が認識された場合、例えば機械学習モデル8Mが出力するラベルが未検出、すなわち技なしでない場合(ステップS103Yes)、骨格差分算出部25Aは、次のような処理を実行する。
At this time, if the technique is recognized in the technique recognition of step S102, for example, if the label output by the machine learning model 8M is not detected, that is, if the technique is not absent (Yes in step S103), the skeleton
すなわち、骨格差分算出部25Aは、ステップS102の技認識で認識された技と同一技のラベルが付与された訓練データの個数Lに対応する回数の分、ステップS201からステップS204までの処理を繰り返すループ処理11を開始する。なお、ここでは、ループ処理が行われる例を挙げるが、訓練データの個数LごとにステップS201からステップS204までの処理が並列して行われてもよい。
That is, the skeleton
骨格差分算出部25Aは、入力データおよび訓練データのうち、フレーム数が多い方の3D骨格座標の時系列データから超過分のフレーム数に対応する3D骨格座標を間引くことにより、両者のフレーム数を統一する(ステップS201)。なお、入力データおよび訓練データの間でフレーム数が同一である場合、ステップS201の処理はスキップできる。
The skeleton
その後、骨格差分算出部25Aは、ステップS201で統一されたフレームの数Mに対応する回数の分、ステップS202およびステップS203の処理を繰り返すループ処理12を開始する。なお、ここでは、ループ処理が行われる例を挙げるが、フレームの数MごとにステップS202およびステップS203の処理が並列して行われてもよい。
Thereafter, the skeleton
さらに、骨格差分算出部25Aは、骨格モデルに定義される関節の数Nに対応する回数の分、ステップS202の処理を繰り返すループ処理13を開始する。なお、ここでは、ループ処理が行われる例を挙げるが、関節の数NごとにステップS202の処理が並列して行われてもよい。
Further, the skeleton
すなわち、骨格差分算出部25Aは、入力データおよび訓練データの間で3D骨格座標の差分、すなわち骨格差分を算出する(ステップS202)。このようなループ処理13が繰り返されることにより、N個の関節ごとに骨格差分を得ることができる。
That is, the skeleton
ループ処理13が終了すると、骨格差分算出部25Aは、N個の骨格差分の合計値を算出する(ステップS203)。このようなループ処理12が繰り返されることにより、M個のフレームごとにN個の骨格差分の合計値を得ることができる。
When the
ループ処理12が終了すると、骨格差分算出部25Aは、M個のフレーム分のN個の骨格差分の合計値から平均値を算出する(ステップS204)。このようなループ処理11が繰り返されることにより、L個の訓練データごとにN個分の骨格差分の平均値を得ることができる。
When loop processing 12 ends, the skeleton
そして、ループ処理11が終了すると、骨格差分算出部25Aは、L個の訓練データのうちN個分の骨格差分の平均値が最小である訓練データを選択する(ステップS205)。
Then, when the loop process 11 ends, the skeleton
その後、ステップS102の技認識で認識された技の採点項目に対応する特徴量の種類数Kに対応する回数の分、ステップS206からステップS208までの処理を繰り返すループ処理14を開始する。なお、ここでは、ループ処理が行われる例を挙げるが、特徴量の種類数KごとにステップS206からステップS208までの処理が並列して行われてもよい。 After that, a loop process 14 is started in which the processes from step S206 to step S208 are repeated a number of times corresponding to the number K of feature amount types corresponding to the scoring items of the technique recognized in the technique recognition in step S102. Note that although an example of loop processing is described here, the processing from step S206 to step S208 may be performed in parallel for each type number K of feature amounts.
すなわち、特徴量算出部15Dは、ステップS102の技認識で認識された技の採点項目に対応する特徴量を算出する(ステップS206)。 That is, the feature amount calculation unit 15D calculates the feature amount corresponding to the scoring item of the technique recognized in the technique recognition of step S102 (step S206).
そして、特徴量差分算出部15Eは、技認識に用いられた入力データおよびステップS205で選択された訓練データの間で特徴量の差分を算出する(ステップS207)。例えば、入力データの特徴量として、ステップS206で算出された特徴量が用いられる。一方、訓練データの特徴量として、機械学習モデル8Mの生成に用いられたデータセット8TRのうち、ステップS205で選択された訓練データに対応する3D骨格座標の時系列データから算出された特徴量が用いられる。 Then, the feature amount difference calculating unit 15E calculates the feature amount difference between the input data used for technique recognition and the training data selected in step S205 (step S207). For example, the feature amount calculated in step S206 is used as the feature amount of the input data. On the other hand, as the feature amount of the training data, the feature amount calculated from the time-series data of the 3D skeletal coordinates corresponding to the training data selected in step S205 in the data set 8TR used to generate the machine learning model 8M is Used.
続いて、特徴量差分算出部15Eは、ステップS207で算出された特徴量の差分から特徴量尤度を算出する(ステップS208)。 Subsequently, the feature quantity difference calculation unit 15E calculates a feature quantity likelihood from the feature quantity difference calculated in step S207 (step S208).
このようなループ処理14が繰り返されることにより、特徴量の種類数Kごとに特徴量尤度を得ることができる。ループ処理14が終了すると、特徴量差分算出部15Eは、K種類の特徴量尤度を代表する1つの代表値、例えば最小値を技尤度として算出する(ステップS209)。 By repeating such a loop process 14, it is possible to obtain the feature amount likelihood for each of the number K of types of feature amounts. When the loop process 14 ends, the feature amount difference calculation unit 15E calculates one representative value representing the K types of feature amount likelihoods, for example, the minimum value, as the technique likelihood (step S209).
最後に、採点支援部15Fは、ステップS209で算出された技尤度と、ループ処理14で得られたK種類の特徴量尤度をクライアント端末30に表示させ(ステップS210)、処理を終了する。
Finally, the
上述してきたように、本実施例に係るサーバ装置20は、上記の実施例1に係るサーバ装置10と同様、技認識に用いられた入力データおよび技の認識結果に対応する訓練データの間で当該技の採点項目に対応する特徴量の差分を算出して出力する。このため、技が実施されている真の確からしさを表現すると共に人の判断プロセスに適合する指標を提供できる。したがって、本実施例に係るサーバ装置20においても、技の認識結果に関する情報提供の品質向上を実現できる。
As described above, in the server device 20 according to the present embodiment, similar to the
さらに、本実施例に係るサーバ装置20は、技認識に用いられた入力データおよび技の認識結果に対応する訓練データの間で3D骨格座標の差分を算出し、差分が最小である訓練データを特徴量の差分の算出対象として絞り込む。このため、本実施例に係るサーバ装置20によれば、算出対象とする特徴量の種類を識別したり、特徴量の種類ごとに3D骨格座標の時系列データの中から特徴量の算出に用いるフレームを特定したりといった処理の負荷を削減できる。 Further, the server device 20 according to the present embodiment calculates the difference in 3D skeleton coordinates between the input data used for technique recognition and the training data corresponding to the technique recognition result, and selects the training data with the smallest difference. Narrow down the calculation target of the difference of the feature amount. For this reason, according to the server device 20 according to the present embodiment, it is possible to identify the type of feature amount to be calculated, and use the time-series data of the 3D skeleton coordinates for each type of feature amount to calculate the feature amount. It is possible to reduce the load of processing such as frame identification.
さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。 Although embodiments of the disclosed apparatus have been described so far, the present invention may be embodied in various forms other than the embodiments described above. Therefore, other embodiments included in the present invention will be described below.
<訓練データ>
上記の実施例1では、図9に示すステップS102の技認識で認識された技と同一技のラベルが付与されたL個の訓練データごとに特徴量尤度および技尤度を算出する例を挙げた。また、上記の実施例2では、図11に示すステップS102の技認識で認識された技と同一技のラベルが付与されたL個の訓練データごとに骨格差分を算出する例を挙げた。これらの算出対象は、必ずしもL個の訓練データとせずともよい。
<Training data>
In the above-described first embodiment, an example of calculating the feature quantity likelihood and the technique likelihood for each of L pieces of training data labeled with the same technique as the technique recognized in the technique recognition in step S102 shown in FIG. mentioned. Further, in the above-described second embodiment, an example of calculating a skeleton difference for each of L pieces of training data labeled with the same technique as the technique recognized in the technique recognition in step S102 shown in FIG. 11 was given. These calculation targets do not necessarily have to be the L pieces of training data.
あくまで一例として、L個の訓練データの間で3D骨格座標の統計値、例えば相加平均や加重平均などを算出することによりL個の訓練データを代表する1つの訓練データを生成し、生成された訓練データを算出対象に用いることができる。他の一例として、L個の訓練データから抽出され得る訓練データのペアごとに3D骨格座標の差分を算出し、全ペアのうち3D骨格座標の差分が最大である訓練データのペアを算出対象に用いることもできる。 As an example only, one training data representative of the L training data is generated by calculating a statistical value of the 3D skeleton coordinates, such as an arithmetic average or a weighted average, among the L training data. It is possible to use the training data obtained for calculation. As another example, the difference in 3D skeleton coordinates is calculated for each pair of training data that can be extracted from L training data, and the pair of training data having the largest difference in 3D skeleton coordinates among all pairs is used as the calculation target. can also be used.
<骨格差分>
上記の実施例2では、L個の訓練データから1つの訓練データに絞り込む側面から骨格差分を用いる例を挙げたが、図11に示すステップS205で選択された骨格差分は、ステップS210で出力される技尤度や特徴量尤度と共に出力することができる。
<Skeleton difference>
In the above-described second embodiment, an example of using skeleton differences from the aspect of narrowing down L training data to one training data was given, but the skeleton differences selected in step S205 shown in FIG. can be output together with the technique likelihood and feature likelihood.
このような骨格差分の情報提供により、以下のように、技尤度や特徴量尤度のみでは不十分な状況にも対応できる。例えば、座った姿勢から前方へ回転し倒立してそのままさらに前方へ回転し座った姿勢になる「前転」という技を例に挙げる。この技の特徴量としては、「足が着いた状態で始まる」、「180°回転」、「手をついた倒立姿勢になる」、「180°回転」、「足が着いた状態で終わる」という特徴量になる。これに対して、何かしらの技を失敗して平均台から落下する際に頭から落ちることを避けるためとっさに平均台を掴み、くるりと1回転して落ちる、という状況も発生し得る。この場合、状況によっては、足が着いた状態から落下し、180°回転した付近で平均台を掴み、さらに180°回転して、足を着くというように、技尤度や特徴量尤度を比較すると前転と類似する動きになる場合がある。このような場合でも、上記の骨格差分には、技失敗時と前転時との間で差が現れ易いので、技失敗時と前転時との識別に用いることができる。 By providing such skeleton difference information, as described below, it is possible to cope with situations in which the skill likelihood and the feature quantity likelihood alone are insufficient. For example, take a technique called ``forward roll'', which rotates forward from a sitting position, stands upside down, and then rotates further forward to a sitting position. The feature values of this technique are: "starts with feet on", "rotates 180 degrees", "stands upside down with hands on", "rotates 180 degrees", and "ends with feet on". is a feature quantity. On the other hand, there may be a situation in which the player suddenly grabs the balance beam to avoid falling headfirst from the balance beam due to a failure in some trick, and then makes a full turn and falls. In this case, depending on the situation, the technique likelihood and the feature quantity likelihood may be calculated by falling from the state where the feet are on the ground, grabbing the balance beam in the vicinity of 180° rotation, rotating 180° again, and landing on the feet. When compared, it may become a movement similar to a forward roll. Even in such a case, since a difference is likely to appear in the skeletal difference between when the technique fails and when the forward roll is performed, it can be used to distinguish between when the technique fails and when the forward roll is performed.
<分散および統合>
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されておらずともよい。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、取得部15A、骨格認識部15B、技認識部15C、特徴量算出部15D、特徴量差分算出部15Eまたは採点支援部15Fをサーバ装置10の外部装置としてネットワーク経由で接続するようにしてもよい。また、取得部15A、骨格認識部15B、技認識部15C、骨格差分算出部25A、特徴量算出部15D、特徴量差分算出部15Eまたは採点支援部15Fをサーバ装置20の外部装置としてネットワーク経由で接続するようにしてもよい。また、取得部15A、骨格認識部15B、技認識部15C、特徴量算出部15D、特徴量差分算出部15Eまたは採点支援部15Fを別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記のサーバ装置10の機能を実現するようにしてもよい。また、取得部15A、骨格認識部15B、技認識部15C、骨格差分算出部25A、特徴量算出部15D、特徴量差分算出部15E又は採点支援部15Fを別の装置がそれぞれ有し、ネットワーク接続されて協働することで、サーバ装置20の機能を実現してもよい。
<Decentralization and integration>
Also, each component of each illustrated device may not necessarily be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured. For example, the
<ハードウェア構成>
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図12を用いて、実施例1及び実施例2と同様の機能を有する情報提供プログラムを実行するコンピュータの一例について説明する。
<Hardware configuration>
Moreover, various processes described in the above embodiments can be realized by executing a prepared program on a computer such as a personal computer or a work station. Therefore, an example of a computer that executes an information providing program having functions similar to those of the first and second embodiments will be described below with reference to FIG.
図12は、ハードウェア構成例を示す図である。図12に示すように、コンピュータ100は、操作部110aと、スピーカ110bと、カメラ110cと、ディスプレイ120と、通信部130とを有する。さらに、このコンピュータ100は、CPU150と、ROM160と、HDD170と、RAM180とを有する。これら110~180の各部はバス140を介して接続される。
FIG. 12 is a diagram illustrating a hardware configuration example. As shown in FIG. 12, the computer 100 has an operation section 110a, a
HDD170には、図12に示すように、上記の実施例1で示された取得部15A、骨格認識部15B、技認識部15C、特徴量算出部15D、特徴量差分算出部15E及び採点支援部15Fと同様の機能を発揮する情報提供プログラム170aが記憶され得る。また、HDD170には、上記の実施例2に示す取得部15A、骨格認識部15B、技認識部15C、骨格差分算出部25A、特徴量算出部15D、特徴量差分算出部15E及び採点支援部15Fと同様の機能を発揮する情報提供プログラム170aが記憶され得る。この情報提供プログラム170aは、図6または図10に示す各構成要素と同様、統合又は分離してもよい。すなわち、HDD170には、必ずしも上記の実施例1~2で示した全てのデータが格納されずともよく、処理に用いるデータがHDD170に格納されればよい。
As shown in FIG. 12, the HDD 170 includes the
このような環境の下、CPU150は、HDD170から情報提供プログラム170aを読み出した上でRAM180へ展開する。この結果、情報提供プログラム170aは、図12に示すように、情報提供プロセス180aとして機能する。この情報提供プロセス180aは、RAM180が有する記憶領域のうち情報提供プロセス180aに割り当てられた領域にHDD170から読み出した各種データを展開し、展開された各種データを用いて各種の処理を実行する。例えば、情報提供プロセス180aが実行する処理の一例として、図9や図11に示す処理などが含まれ得る。なお、CPU150では、必ずしも上記の実施例1で示した全ての処理部が動作せずともよく、実行対象とする処理に対応する処理部が仮想的に実現されればよい。
Under such an environment, the
なお、上記の情報提供プログラム170aは、必ずしも最初からHDD170やROM160に記憶されておらずともかまわない。例えば、コンピュータ100に挿入されるフレキシブルディスク、いわゆるFD、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に情報提供プログラム170aを記憶させる。そして、コンピュータ100がこれらの可搬用の物理媒体から情報提供プログラム170aを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ100に接続される他のコンピュータまたはサーバ装置などに情報提供プログラム170aを記憶させておく。このように記憶された情報提供プログラム170aをコンピュータ100にダウンロードさせた上で実行させるようにしてもよい。
The
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。 The following notes are further disclosed with respect to the embodiments including the above examples.
(付記1)技認識用の機械学習モデルに入力された骨格情報から前記技認識用の機械学習モデルが出力する技に対応する特徴量を算出し、
算出された特徴量と、前記技認識用の機械学習モデルの訓練に用いられた骨格情報の訓練データのうち前記技と同一の技のラベルが付与された訓練データから求まる特徴量との差分を算出し、
算出された特徴量の差分を出力する、
処理をコンピュータが実行することを特徴とする情報提供方法。
(Appendix 1) calculating a feature value corresponding to a technique output by the machine learning model for technique recognition from the skeleton information input to the machine learning model for technique recognition;
The difference between the calculated feature amount and the feature amount obtained from the training data labeled with the same technique as the technique among the training data of the skeleton information used for training the machine learning model for the technique recognition is calculated. calculate,
Output the difference of the calculated feature amount,
A method of providing information characterized in that processing is executed by a computer.
(付記2)前記技認識用の機械学習モデルに入力された骨格情報と、前記技認識用の機械学習モデルが出力する技と同一の技のラベルが付与された複数の訓練データとの間で骨格差分を算出する処理を前記コンピュータがさらに実行し、
前記特徴量の差分を算出する処理は、前記複数の訓練データのうち前記骨格差分が最小である一の訓練データから求まる特徴量と、前記特徴量を算出する処理で算出された特徴量との差分を算出する処理を含む、
ことを特徴とする付記1に記載の情報提供方法。
(Appendix 2) Between the skeleton information input to the machine learning model for technique recognition and a plurality of training data with the same technique label as the technique output by the machine learning model for technique recognition The computer further executes a process of calculating a skeleton difference,
The process of calculating the feature amount difference is performed by comparing the feature amount obtained from one of the plurality of training data having the smallest skeleton difference and the feature amount calculated in the feature amount calculation process. Including processing to calculate the difference,
The information providing method according to
(付記3)前記骨格差分を算出する処理は、前記技認識用の機械学習モデルに入力された骨格情報と、前記複数の訓練データから算出される骨格情報の統計値との間で前記骨格差分を算出する処理を含む、
ことを特徴とする付記2に記載の情報提供方法。
(Appendix 3) The process of calculating the skeleton difference is performed by comparing the skeleton information input to the machine learning model for technique recognition and the statistical value of the skeleton information calculated from the plurality of training data. Including the process of calculating
The information providing method according to appendix 2, characterized by:
(付記4)前記骨格差分を算出する処理は、前記複数の訓練データから抽出される訓練データのペアごとに骨格差分を算出し、各ペアのうち前記骨格差分が最大であるペアの訓練データと、前記技認識用の機械学習モデルに入力された骨格情報との間で前記骨格差分を算出する処理を含む、
ことを特徴とする付記2に記載の情報提供方法。
(Additional remark 4) In the process of calculating the skeletal difference, the skeletal difference is calculated for each pair of training data extracted from the plurality of training data, and the pair of training data having the largest skeletal difference among the pairs is calculated. , a process of calculating the skeleton difference between the skeleton information input to the machine learning model for technique recognition,
The information providing method according to appendix 2, characterized by:
(付記5)前記出力する処理は、前記特徴量の差分が正規化された特徴量の尤度を出力する処理を含む、
ことを特徴とする付記1に記載の情報提供方法。
(Appendix 5) The outputting process includes a process of outputting the likelihood of the feature amount in which the difference of the feature amount is normalized.
The information providing method according to
(付記6)前記特徴量を算出する処理は、前記技認識用の機械学習モデルが出力する技に対応する特徴量の種類ごとに前記特徴量を算出する処理を含み、
前記特徴量の差分を算出する処理は、前記特徴量の種類ごとに前記特徴量の差分を算出する処理を含み、
前記出力する処理は、前記特徴量の種類ごとに前記特徴量の差分が正規化された複数の特徴量の尤度を代表する統計値を出力する処理を含む、
ことを特徴とする付記1に記載の情報提供方法。
(Appendix 6) The process of calculating the feature amount includes a process of calculating the feature amount for each type of feature amount corresponding to the technique output by the machine learning model for technique recognition,
The process of calculating the difference in the feature amount includes a process of calculating the difference in the feature amount for each type of the feature amount,
The outputting process includes outputting a statistical value representing the likelihood of a plurality of feature amounts obtained by normalizing the feature amount difference for each type of the feature amount,
The information providing method according to
(付記7)技認識用の機械学習モデルに入力された骨格情報から前記技認識用の機械学習モデルが出力する技に対応する特徴量を算出し、
算出された特徴量と、前記技認識用の機械学習モデルの訓練に用いられた骨格情報の訓練データのうち前記技と同一の技のラベルが付与された訓練データから求まる特徴量との差分を算出し、
算出された特徴量の差分を出力する、
処理をコンピュータに実行させることを特徴とする情報提供プログラム。
(Appendix 7) calculating a feature value corresponding to the technique output by the machine learning model for technique recognition from the skeleton information input to the machine learning model for technique recognition;
The difference between the calculated feature amount and the feature amount obtained from the training data labeled with the same technique as the technique among the training data of the skeleton information used for training the machine learning model for the technique recognition is calculated. calculate,
Output the difference of the calculated feature amount,
An information providing program characterized by causing a computer to execute processing.
(付記8)前記技認識用の機械学習モデルに入力された骨格情報と、前記技認識用の機械学習モデルが出力する技と同一の技のラベルが付与された複数の訓練データとの間で骨格差分を算出する処理を前記コンピュータにさらに実行させ、
前記特徴量の差分を算出する処理は、前記複数の訓練データのうち前記骨格差分が最小である一の訓練データから求まる特徴量と、前記特徴量を算出する処理で算出された特徴量との差分を算出する処理を含む、
ことを特徴とする付記7に記載の情報提供プログラム。
(Appendix 8) Between the skeleton information input to the machine learning model for technique recognition and a plurality of training data labeled with the same technique as the technique output by the machine learning model for technique recognition causing the computer to further execute a process of calculating a skeleton difference;
The process of calculating the feature amount difference is performed by comparing the feature amount obtained from one of the plurality of training data having the smallest skeleton difference and the feature amount calculated in the feature amount calculation process. Including processing to calculate the difference,
The information providing program according to Supplementary Note 7, characterized by:
(付記9)前記骨格差分を算出する処理は、前記技認識用の機械学習モデルに入力された骨格情報と、前記複数の訓練データから算出される骨格情報の統計値との間で前記骨格差分を算出する処理を含む、
ことを特徴とする付記8に記載の情報提供プログラム。
(Appendix 9) The process of calculating the skeleton difference is performed by comparing the skeleton information input to the machine learning model for technique recognition and the statistical value of the skeleton information calculated from the plurality of training data. Including the process of calculating
The information providing program according to appendix 8, characterized by:
(付記10)前記骨格差分を算出する処理は、前記複数の訓練データから抽出される訓練データのペアごとに骨格差分を算出し、各ペアのうち前記骨格差分が最大であるペアの訓練データと、前記技認識用の機械学習モデルに入力された骨格情報との間で前記骨格差分を算出する処理を含む、
ことを特徴とする付記8に記載の情報提供プログラム。
(Supplementary Note 10) The process of calculating the skeletal difference calculates the skeletal difference for each pair of training data extracted from the plurality of training data. , a process of calculating the skeleton difference between the skeleton information input to the machine learning model for technique recognition,
The information providing program according to appendix 8, characterized by:
(付記11)前記出力する処理は、前記特徴量の差分が正規化された特徴量の尤度を出力する処理を含む、
ことを特徴とする付記7に記載の情報提供プログラム。
(Appendix 11) The process of outputting includes a process of outputting the likelihood of the feature amount obtained by normalizing the difference of the feature amount.
The information providing program according to Supplementary Note 7, characterized by:
(付記12)前記特徴量を算出する処理は、前記技認識用の機械学習モデルが出力する技に対応する特徴量の種類ごとに前記特徴量を算出する処理を含み、
前記特徴量の差分を算出する処理は、前記特徴量の種類ごとに前記特徴量の差分を算出する処理を含み、
前記出力する処理は、前記特徴量の種類ごとに前記特徴量の差分が正規化された複数の特徴量の尤度を代表する統計値を出力する処理を含む、
ことを特徴とする付記7に記載の情報提供プログラム。
(Appendix 12) The process of calculating the feature amount includes a process of calculating the feature amount for each type of feature amount corresponding to the technique output by the machine learning model for technique recognition,
The process of calculating the difference in the feature amount includes a process of calculating the difference in the feature amount for each type of the feature amount,
The outputting process includes outputting a statistical value representing the likelihood of a plurality of feature amounts obtained by normalizing the feature amount difference for each type of the feature amount,
The information providing program according to Supplementary Note 7, characterized by:
(付記13)深度画像を取得するセンサ装置と、
前記深度画像に対する骨格認識を実行する骨格認識部と、前記骨格認識で得られる骨格情報を技認識用の機械学習モデルに入力することにより技を認識する技認識部と、前記技認識用の機械学習モデルに入力された骨格情報から前記技認識用の機械学習モデルが出力する技に対応する特徴量を算出する特徴量算出部と、算出された特徴量と、前記技認識用の機械学習モデルの訓練に用いられた骨格情報の訓練データのうち前記技と同一の技のラベルが付与された訓練データから求まる特徴量との差分を算出する特徴量差分算出部と、算出された特徴量の差分をクライアント端末へ出力する情報出力部と、を有するサーバ装置と、
を有することを特徴とする採点支援システム。
(Appendix 13) A sensor device that acquires a depth image;
a skeleton recognition unit that performs skeleton recognition on the depth image; a technique recognition unit that recognizes a technique by inputting the skeleton information obtained by the skeleton recognition into a machine learning model for technique recognition; and the technique recognition machine. A feature amount calculation unit that calculates a feature amount corresponding to a technique output by the machine learning model for technique recognition from skeleton information input to the learning model, and the calculated feature amount and the machine learning model for technique recognition. A feature amount difference calculation unit that calculates the difference between the feature amount obtained from the training data labeled with the same technique as the above technique among the training data of the skeleton information used in the training of , and the calculated feature amount of the a server device having an information output unit that outputs the difference to a client terminal;
A scoring support system characterized by having:
(付記14)前記技認識用の機械学習モデルに入力された骨格情報と、前記技認識用の機械学習モデルが出力する技と同一の技のラベルが付与された複数の訓練データとの間で骨格差分を算出する骨格差分算出部を前記サーバ装置がさらに有し、
前記特徴量差分算出部は、前記複数の訓練データのうち前記骨格差分が最小である一の訓練データから求まる特徴量と、前記特徴量を算出する処理で算出された特徴量との差分を算出する、ことを特徴とする付記13に記載の採点支援システム。
(Appendix 14) Between the skeleton information input to the machine learning model for technique recognition and a plurality of training data having the same technique label as the technique output by the machine learning model for technique recognition The server device further has a skeleton difference calculation unit that calculates a skeleton difference,
The feature amount difference calculation unit calculates a difference between a feature amount obtained from one of the plurality of training data having the smallest skeleton difference and the feature amount calculated in the process of calculating the feature amount. The scoring support system according to
(付記15)前記骨格差分算出部は、前記技認識用の機械学習モデルに入力された骨格情報と、前記複数の訓練データから算出される骨格情報の統計値との間で前記骨格差分を算出する、ことを特徴とする付記14に記載の採点支援システム。 (Appendix 15) The skeleton difference calculation unit calculates the skeleton difference between skeleton information input to the machine learning model for technique recognition and statistical values of skeleton information calculated from the plurality of training data. 15. The scoring support system according to Supplementary Note 14, characterized by:
(付記16)前記骨格差分算出部は、前記複数の訓練データから抽出される訓練データのペアごとに骨格差分を算出し、各ペアのうち前記骨格差分が最大であるペアの訓練データと、前記技認識用の機械学習モデルに入力された骨格情報との間で前記骨格差分を算出する、ことを特徴とする付記14に記載の採点支援システム。 (Supplementary Note 16) The skeleton difference calculation unit calculates a skeleton difference for each pair of training data extracted from the plurality of training data, and the pair of training data having the largest skeleton difference among the pairs, and the 15. The scoring support system according to Supplementary note 14, wherein the skeleton difference is calculated between skeleton information input to a machine learning model for technique recognition.
(付記17)前記情報出力部は、前記特徴量の差分が正規化された特徴量の尤度を出力する、ことを特徴とする付記13に記載の採点支援システム。
(Supplementary note 17) The scoring support system according to
(付記18)前記特徴量算出部は、前記技認識用の機械学習モデルが出力する技に対応する特徴量の種類ごとに前記特徴量を算出し、
前記特徴量差分算出部は、前記特徴量の種類ごとに前記特徴量の差分を算出し、
前記情報出力部は、前記特徴量の種類ごとに前記特徴量の差分が正規化された複数の特徴量の尤度を代表する統計値を出力する、ことを特徴とする付記13に記載の採点支援システム。
(Appendix 18) The feature amount calculation unit calculates the feature amount for each type of feature amount corresponding to the technique output by the machine learning model for technique recognition,
The feature amount difference calculation unit calculates the difference between the feature amounts for each type of the feature amount,
The scoring according to
1 採点支援システム
3 演技者
5 3Dレーザセンサ
10 サーバ装置
11 通信インタフェイス部
13 記憶部
15 制御部
15A 取得部
15B 骨格認識部
15C 技認識部
15D 特徴量算出部
15E 特徴量差分算出部
15F 採点支援部
1 Scoring support system 3
Claims (8)
算出された特徴量と、前記技認識用の機械学習モデルの訓練に用いられた骨格情報の訓練データのうち前記技と同一の技のラベルが付与された訓練データから求まる特徴量との差分を算出し、
算出された特徴量の差分を出力する、
処理をコンピュータが実行することを特徴とする情報提供方法。 calculating a feature amount corresponding to a technique output by the machine learning model for technique recognition from skeleton information input to the machine learning model for technique recognition;
The difference between the calculated feature amount and the feature amount obtained from the training data labeled with the same technique as the technique among the training data of the skeleton information used for training the machine learning model for the technique recognition is calculated. calculate,
Output the difference of the calculated feature amount,
A method of providing information characterized in that processing is executed by a computer.
前記特徴量の差分を算出する処理は、前記複数の訓練データのうち前記骨格差分が最小である一の訓練データから求まる特徴量と、前記特徴量を算出する処理で算出された特徴量との差分を算出する処理を含む、
ことを特徴とする請求項1に記載の情報提供方法。 Calculate a skeleton difference between the skeleton information input to the machine learning model for technique recognition and a plurality of training data labeled with the same technique as the technique output by the machine learning model for technique recognition. The computer further executes a process to
The process of calculating the feature amount difference is performed by comparing the feature amount obtained from one of the plurality of training data having the smallest skeleton difference and the feature amount calculated in the feature amount calculation process. Including processing to calculate the difference,
2. The information providing method according to claim 1, characterized by:
ことを特徴とする請求項2に記載の情報提供方法。 The process of calculating the skeleton difference is a process of calculating the skeleton difference between the skeleton information input to the machine learning model for technique recognition and the statistical value of the skeleton information calculated from the plurality of training data. including,
3. The information providing method according to claim 2, characterized by:
ことを特徴とする請求項2に記載の情報提供方法。 The process of calculating the skeleton difference calculates the skeleton difference for each pair of training data extracted from the plurality of training data, and calculates the training data of the pair having the largest skeleton difference among the pairs, and the technique recognition data. including a process of calculating the skeleton difference between the skeleton information input to the machine learning model for
3. The information providing method according to claim 2, characterized by:
ことを特徴とする請求項1~4のいずれか1つに記載の情報提供方法。 The process of outputting includes a process of outputting the likelihood of the feature amount obtained by normalizing the difference of the feature amount,
The information providing method according to any one of claims 1 to 4, characterized in that:
前記特徴量の差分を算出する処理は、前記特徴量の種類ごとに前記特徴量の差分を算出する処理を含み、
前記出力する処理は、前記特徴量の種類ごとに前記特徴量の差分が正規化された複数の特徴量の尤度を代表する統計値を出力する処理を含む、
ことを特徴とする請求項1~4のいずれか1つに記載の情報提供方法。 The process of calculating the feature amount includes a process of calculating the feature amount for each type of feature amount corresponding to the technique output by the machine learning model for technique recognition,
The process of calculating the difference in the feature amount includes a process of calculating the difference in the feature amount for each type of the feature amount,
The outputting process includes outputting a statistical value representing the likelihood of a plurality of feature amounts obtained by normalizing the feature amount difference for each type of the feature amount,
The information providing method according to any one of claims 1 to 4, characterized in that:
算出された特徴量と、前記技認識用の機械学習モデルの訓練に用いられた骨格情報の訓練データのうち前記技と同一の技のラベルが付与された訓練データから求まる特徴量との差分を算出し、
算出された特徴量の差分を出力する、
処理をコンピュータに実行させることを特徴とする情報提供プログラム。 calculating a feature amount corresponding to a technique output by the machine learning model for technique recognition from skeleton information input to the machine learning model for technique recognition;
The difference between the calculated feature amount and the feature amount obtained from the training data labeled with the same technique as the technique among the training data of the skeleton information used for training the machine learning model for the technique recognition is calculated. calculate,
Output the difference of the calculated feature amount,
An information providing program characterized by causing a computer to execute processing.
前記深度画像に対する骨格認識を実行する骨格認識部と、前記骨格認識で得られる骨格情報を技認識用の機械学習モデルに入力することにより技を認識する技認識部と、前記技認識用の機械学習モデルに入力された骨格情報から前記技認識用の機械学習モデルが出力する技に対応する特徴量を算出する特徴量算出部と、算出された特徴量と、前記技認識用の機械学習モデルの訓練に用いられた骨格情報の訓練データのうち前記技と同一の技のラベルが付与された訓練データから求まる特徴量との差分を算出する特徴量差分算出部と、算出された特徴量の差分をクライアント端末へ出力する情報出力部と、を有するサーバ装置と、
を有することを特徴とする採点支援システム。 a sensor device that acquires a depth image;
a skeleton recognition unit that performs skeleton recognition on the depth image; a technique recognition unit that recognizes a technique by inputting the skeleton information obtained by the skeleton recognition into a machine learning model for technique recognition; and the technique recognition machine. A feature amount calculation unit that calculates a feature amount corresponding to a technique output by the machine learning model for technique recognition from skeleton information input to the learning model, and the calculated feature amount and the machine learning model for technique recognition. A feature amount difference calculation unit that calculates the difference between the feature amount obtained from the training data labeled with the same technique as the above technique among the training data of the skeleton information used in the training of , and the calculated feature amount of the a server device having an information output unit that outputs the difference to a client terminal;
A scoring support system characterized by having:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021112417A JP7658200B2 (en) | 2021-07-06 | 2021-07-06 | Information provision method, information provision program, and scoring support system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021112417A JP7658200B2 (en) | 2021-07-06 | 2021-07-06 | Information provision method, information provision program, and scoring support system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023008679A true JP2023008679A (en) | 2023-01-19 |
| JP7658200B2 JP7658200B2 (en) | 2025-04-08 |
Family
ID=85112380
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021112417A Active JP7658200B2 (en) | 2021-07-06 | 2021-07-06 | Information provision method, information provision program, and scoring support system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7658200B2 (en) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018070414A1 (en) * | 2016-10-11 | 2018-04-19 | 富士通株式会社 | Motion recognition device, motion recognition program, and motion recognition method |
| WO2018069985A1 (en) * | 2016-10-11 | 2018-04-19 | 富士通株式会社 | Scoring support program, scoring support apparatus, and scoring support method |
| WO2018211571A1 (en) * | 2017-05-15 | 2018-11-22 | 富士通株式会社 | Performance display program, performance display method, and performance display device |
| JP2021048917A (en) * | 2019-09-20 | 2021-04-01 | 国立大学法人 筑波大学 | Motion learning device, control unit and program |
-
2021
- 2021-07-06 JP JP2021112417A patent/JP7658200B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018070414A1 (en) * | 2016-10-11 | 2018-04-19 | 富士通株式会社 | Motion recognition device, motion recognition program, and motion recognition method |
| WO2018069985A1 (en) * | 2016-10-11 | 2018-04-19 | 富士通株式会社 | Scoring support program, scoring support apparatus, and scoring support method |
| WO2018211571A1 (en) * | 2017-05-15 | 2018-11-22 | 富士通株式会社 | Performance display program, performance display method, and performance display device |
| JP2021048917A (en) * | 2019-09-20 | 2021-04-01 | 国立大学法人 筑波大学 | Motion learning device, control unit and program |
Non-Patent Citations (2)
| Title |
|---|
| JEONGEUN SHIN ET AL.: "A study on motion analysis of an artistic gymnastics by using dynamic image processing - for a devel", 2008 IEEE INTERNATIONAL CONFERENCE ON SYSTEMS, MAN AND CYBERNETICS, JPN7025000711, 12 October 2008 (2008-10-12), US, ISSN: 0005534154 * |
| 岩田 あきほ: "深層学習モデルを用いたフィギュアスケートにおけるステップシークエンスのエレメント認識", 情報処理学会 研究報告 コンシューマ・デバイス&システム(CDS), JPN6025006748, 22 September 2020 (2020-09-22), pages 1 - 8, ISSN: 0005534153 * |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7658200B2 (en) | 2025-04-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Chaudhari et al. | Yog-guru: Real-time yoga pose correction system using deep learning methods | |
| Andriluka et al. | 2d human pose estimation: New benchmark and state of the art analysis | |
| JP6082101B2 (en) | Body motion scoring device, dance scoring device, karaoke device, and game device | |
| US10186041B2 (en) | Apparatus and method for analyzing golf motion | |
| US20200179759A1 (en) | Display method, information processing apparatus, and computer-readable recording medium | |
| JP7235133B2 (en) | Exercise recognition method, exercise recognition program, and information processing apparatus | |
| CN105228709A (en) | For the signal analysis of duplicate detection and analysis | |
| US12315299B2 (en) | Motion recognition method, non-transitory computer-readable recording medium and information processing apparatus | |
| JP7790522B2 (en) | Program, tracking method, and tracking device | |
| JP7272470B2 (en) | Exercise recognition method, exercise recognition program, and information processing apparatus | |
| Shahjalal et al. | An approach to automate the scorecard in cricket with computer vision and machine learning | |
| JPWO2018122956A1 (en) | Sports motion analysis support system, method and program | |
| WO2020145224A1 (en) | Video processing device, video processing method and video processing program | |
| JP2020119097A (en) | User attribute estimation device and user attribute estimation method | |
| JP2023008679A (en) | Information providing method, information providing program, and marking support system | |
| US20250014212A1 (en) | Image processing apparatus, image processing method, and non-transitory storage medium | |
| KR101861096B1 (en) | Method and apparatus for controlling information displayed on screen by recognizing hand gesture of user | |
| JP2018055619A (en) | Image display device | |
| WO2022208859A1 (en) | Skill recognition method, skill recognition apparatus, and gymnastics scoring support system | |
| US20250029363A1 (en) | Image processing system, image processing method, and non-transitory computer-readable medium | |
| WO2023047621A1 (en) | Information processing system, information processing method, and program | |
| US12343138B2 (en) | AI powered mobility assessment system | |
| JP2023003929A (en) | Skeleton Recognition Method, Skeleton Recognition Program, and Gymnastics Scoring Support System | |
| Connolly et al. | Automated identification of trampoline skills using computer vision extracted pose estimation | |
| CN119206852A (en) | Image processing device, image processing method, storage medium and computer program product |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240404 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250129 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250225 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250310 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7658200 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |