[go: up one dir, main page]

JP7585761B2 - Program, performance evaluation device, and performance evaluation method - Google Patents

Program, performance evaluation device, and performance evaluation method Download PDF

Info

Publication number
JP7585761B2
JP7585761B2 JP2020208260A JP2020208260A JP7585761B2 JP 7585761 B2 JP7585761 B2 JP 7585761B2 JP 2020208260 A JP2020208260 A JP 2020208260A JP 2020208260 A JP2020208260 A JP 2020208260A JP 7585761 B2 JP7585761 B2 JP 7585761B2
Authority
JP
Japan
Prior art keywords
evaluation
information
performance
tempo
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020208260A
Other languages
Japanese (ja)
Other versions
JP2022095117A (en
Inventor
博巳 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020208260A priority Critical patent/JP7585761B2/en
Publication of JP2022095117A publication Critical patent/JP2022095117A/en
Application granted granted Critical
Publication of JP7585761B2 publication Critical patent/JP7585761B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、楽器演奏を評価する技術に関する。 The present invention relates to a technology for evaluating musical instrument performance.

楽器の演奏を評価するシステムが開発されている。特許文献1と特許文献2は、鍵盤楽器の演奏を上面から撮影し、撮影された演奏と模範の演奏とを比較して評価するシステムを開示している。特許文献1のシステムでは、手の位置、傾き、又は幅についての評価が行われている。一方、特許文献2のシステムでは、演奏の指使いが正しいかどうかの評価が行われている。 Systems have been developed to evaluate musical instrument performance. Patent Documents 1 and 2 disclose systems that photograph a keyboard instrument performance from above and compare the photographed performance with a model performance to evaluate the performance. The system in Patent Document 1 evaluates the position, inclination, or width of the hands. Meanwhile, the system in Patent Document 2 evaluates whether the fingering used in performance is correct.

特開2006-091633号公報JP 2006-091633 A 特開2002-182553号公報JP 2002-182553 A

特許文献1と2ではいずれも、演奏のテンポについては言及していない。本発明は、このような課題を解決するためになされたものであり、その目的は、所望のテンポで行われた演奏を評価するための技術を提供することである。 Neither Patent Document 1 nor Patent Document 2 mentions the tempo of the performance. The present invention has been made to solve this problem, and its purpose is to provide a technique for evaluating a performance that is performed at a desired tempo.

本開示のプログラムは、コンピュータに、ユーザが所望する演奏のテンポである指定テンポを特定可能なテンポ情報を取得するテンポ情報取得処理と、評価対象の楽曲について、前記指定テンポで演奏する場合における演奏の評価基準を表す基準情報と、前記ユーザによる前記楽曲の演奏を表すユーザ演奏情報とを比較することにより、前記ユーザによる演奏に関する評価を含む評価情報を生成する評価処理と、を実行させる。 The program disclosed herein causes a computer to execute a tempo information acquisition process that acquires tempo information capable of identifying a designated tempo, which is the tempo desired by the user for performance, and an evaluation process that generates evaluation information including an evaluation of the performance by the user by comparing, for a piece of music to be evaluated, standard information that represents the evaluation standard for a performance when played at the designated tempo with user performance information that represents the performance of the piece of music by the user.

本開示の演奏評価装置は、ユーザが所望する演奏のテンポである指定テンポを特定可能なテンポ情報を取得するテンポ情報取得部と、評価対象の楽曲について、前記指定テンポで演奏する場合における演奏の評価基準を表す基準情報と、前記ユーザによる前記楽曲の演奏を表すユーザ演奏情報とを比較することにより、前記ユーザによる演奏に関する評価を含む評価情報を生成する評価部と、を有する。 The performance evaluation device disclosed herein has a tempo information acquisition unit that acquires tempo information capable of identifying a designated tempo, which is the tempo of performance desired by the user, and an evaluation unit that generates evaluation information including an evaluation of the performance by the user by comparing, for a piece of music to be evaluated, standard information that represents a performance evaluation standard when the piece is played at the designated tempo with user performance information that represents the performance of the piece of music by the user.

本開示の演奏評価方法は、コンピュータによって実行される。当該方法は、ユーザが所望する演奏のテンポである指定テンポを特定可能なテンポ情報を取得するテンポ情報取得ステップと、評価対象の楽曲について、前記指定テンポで演奏する場合における演奏の評価基準を表す基準情報と、前記ユーザによる前記楽曲の演奏を表すユーザ演奏情報とを比較することにより、前記ユーザによる演奏に関する評価を含む評価情報を生成する評価ステップと、を有する。 The performance evaluation method disclosed herein is executed by a computer. The method includes a tempo information acquisition step of acquiring tempo information capable of identifying a designated tempo, which is a performance tempo desired by a user, and an evaluation step of generating evaluation information including an evaluation of the performance by the user by comparing, for a piece of music to be evaluated, standard information representing a performance evaluation standard when the piece is played at the designated tempo with user performance information representing the performance of the piece of music by the user.

本発明によれば、所望のテンポで行われた演奏を評価するための技術が提供される。 The present invention provides a technique for evaluating a performance performed at a desired tempo.

実施形態1の演奏評価装置の概要を例示する図である。1 is a diagram illustrating an example of an overview of a performance evaluation device according to a first embodiment; 実施形態1の演奏評価装置の機能構成を例示するブロック図である。1 is a block diagram illustrating a functional configuration of a performance evaluation device according to a first embodiment. 演奏評価装置を実現するコンピュータのハードウエア構成を例示するブロック図である。1 is a block diagram illustrating an example of the hardware configuration of a computer that realizes a performance evaluation device. カメラの位置と姿勢を例示する図である。FIG. 2 is a diagram illustrating an example of the position and orientation of a camera. 手の関節点と関節線を例示する図である。FIG. 2 is a diagram illustrating an example of joint points and joint lines of a hand. 指関節の高さの算出方法を例示する図である。FIG. 13 is a diagram illustrating a method for calculating the height of a finger joint. 関節線間の角の大きさの算出方法を例示する図である。13 is a diagram illustrating a method for calculating the size of an angle between joint lines; FIG. 手首の高さを算出する方法を例示する図である。FIG. 13 is a diagram illustrating a method for calculating the height of the wrist. 手上面の高さを算出する方法を例示する図である。11 is a diagram illustrating a method for calculating the height of the hand upper surface. FIG. 手首の角度を算出する方法を例示する図である。11 is a diagram illustrating a method for calculating a wrist angle. FIG. 打鍵の深さの算出方法を例示する図である。FIG. 13 is a diagram illustrating a method for calculating the depth of a keystroke. 演奏評価装置の利用態様を例示する図である。FIG. 1 is a diagram illustrating an example of a usage mode of a performance evaluation device. 実施形態1の演奏評価装置によって実行される処理の流れを例示するフローチャートである。4 is a flowchart illustrating a process executed by the performance evaluation device of the first embodiment. テンポ指定画面を例示する図である。FIG. 13 is a diagram illustrating an example of a tempo designation screen. 基準情報をテーブル形式で例示する図である。FIG. 11 is a diagram illustrating an example of reference information in a table format. 対象楽曲を指定する指定画面を例示する図である。FIG. 13 is a diagram illustrating an example of a designation screen for designating a target song. ユーザ演奏情報をテーブル形式で例示する図である。11 is a diagram illustrating an example of user performance information in a table format. FIG. 項目情報ごとに評価スコアの算出を行う処理の流れを例示するフローチャートである。13 is a flowchart illustrating a process of calculating an evaluation score for each item information item. 評価情報の一例をテーブル形式で例示する図である。FIG. 11 is a diagram illustrating an example of evaluation information in a table format. 演奏時点ごとに統計スコアを示す評価情報を例示する図である。13 is a diagram illustrating an example of evaluation information showing a statistical score for each performance time point. FIG. 評価項目ごとに統計スコアを示す評価情報を例示する図である。FIG. 13 is a diagram illustrating an example of evaluation information indicating a statistical score for each evaluation item. 統計スコアを部分範囲ごとかつ評価項目ごとに示す評価情報を例示する図である。13 is a diagram illustrating an example of evaluation information indicating statistical scores for each partial range and for each evaluation item. FIG. グループごとに集計された評価スコアの統計値を例示する図である。FIG. 13 is a diagram illustrating an example of statistical values of evaluation scores tallied for each group. 評価結果画面を例示する第1の図である。FIG. 11 is a first diagram illustrating an evaluation result screen. 評価結果画面を例示する第2の図である。FIG. 2 is a second diagram illustrating an example of the evaluation result screen.

以下では、本開示の実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。また、特に説明しない限り、所定値や閾値などといった予め定められている値は、その値を利用する装置からアクセス可能な記憶装置などに予め格納されている。 Below, an embodiment of the present disclosure will be described in detail with reference to the drawings. In each drawing, the same or corresponding elements are given the same reference numerals, and duplicate explanations will be omitted as necessary for clarity of explanation. Furthermore, unless otherwise specified, predetermined values such as predetermined values and threshold values are stored in advance in a storage device accessible from a device that uses the values.

[実施形態1]
<概要>
図1は、実施形態1の演奏評価装置2000の概要を例示する図である。図1は、演奏評価装置2000の理解を容易にするために演奏評価装置2000の動作の一例を概念的に示す図であり、演奏評価装置2000の動作は図1に示されているものに限定されない。
[Embodiment 1]
<Overview>
Fig. 1 is a diagram illustrating an example of an outline of a performance evaluation device 2000 according to embodiment 1. Fig. 1 is a diagram conceptually illustrating an example of the operation of the performance evaluation device 2000 to facilitate understanding of the performance evaluation device 2000, and the operation of the performance evaluation device 2000 is not limited to that shown in Fig. 1.

演奏評価装置2000は、ユーザ60が行った楽器演奏の評価を表す評価情報30を生成する。ここで、ユーザ60によって演奏される楽器を対象楽器70と呼ぶ。対象楽器70は、例えば、ピアノ、オルガン、又はシンセサイザーなどといった鍵盤楽器である。ただし、対象楽器70は鍵盤楽器には限定されない。 The performance evaluation device 2000 generates evaluation information 30 that represents an evaluation of an instrument performance performed by a user 60. Here, the instrument played by the user 60 is called a target instrument 70. The target instrument 70 is, for example, a keyboard instrument such as a piano, an organ, or a synthesizer. However, the target instrument 70 is not limited to a keyboard instrument.

演奏評価装置2000は、ユーザ60によって行われた実際の演奏を、所定の基準と比較することにより、評価情報30を生成する。その比較は、1つ以上の評価項目について行われる。ここで、ユーザ60は、評価対象の楽曲の演奏の評価を行う際、演奏のテンポを指定することができる。以下、評価対象の楽曲を対象楽曲と呼ぶ。また、指定された演奏のテンポを指定テンポと呼ぶ。 The performance evaluation device 2000 generates evaluation information 30 by comparing the actual performance given by the user 60 with a predetermined standard. The comparison is performed for one or more evaluation items. Here, the user 60 can specify the tempo of the performance when evaluating the performance of the piece of music to be evaluated. Hereinafter, the piece of music to be evaluated is referred to as the target piece of music. Also, the specified tempo of the performance is referred to as the specified tempo.

上述した態様で演奏の評価を行うために、演奏評価装置2000は、テンポ情報100、基準情報40、及びユーザ演奏情報50を利用する。テンポ情報100は、指定テンポを特定可能な情報である。基準情報40は、対象楽曲について、テンポ情報100に示されている指定テンポで演奏する場合における演奏の評価基準を示す。言い換えれば、基準情報40は、テンポ情報100に示されている指定テンポで演奏する場合について、どのタイミングでどのような演奏をすべきかを示す。例えば基準情報40は、複数の評価項目それぞれについて、演奏時点と、その演奏時点における演奏についての理想の項目値を示す。ユーザ演奏情報50は、ユーザによる対象楽曲の実際の演奏を表す情報である。言い換えれば、ユーザ演奏情報50は、対象楽曲について、ユーザ60がどのタイミングでどのような演奏を行ったのかを示す。例えばユーザ演奏情報50は、複数の評価項目それぞれについて、演奏時点と、その演奏時点におけるユーザ60の演奏についての項目値(実測値)を示す。 To evaluate the performance in the above-mentioned manner, the performance evaluation device 2000 uses tempo information 100, reference information 40, and user performance information 50. The tempo information 100 is information that can identify the specified tempo. The reference information 40 indicates the evaluation standard for the performance when the target song is played at the specified tempo indicated in the tempo information 100. In other words, the reference information 40 indicates what kind of performance should be performed at what timing when the target song is played at the specified tempo indicated in the tempo information 100. For example, the reference information 40 indicates the performance time and the ideal item value for the performance at that performance time for each of multiple evaluation items. The user performance information 50 is information that represents the actual performance of the target song by the user. In other words, the user performance information 50 indicates what kind of performance the user 60 performed at what timing for the target song. For example, the user performance information 50 indicates the performance time and the item value (actual value) for the performance of the user 60 at that performance time for each of multiple evaluation items.

演奏評価装置2000は、基準情報40とユーザ演奏情報50とを比較することで、評価情報30を生成する。例えば後述するように、演奏評価装置2000は、複数の時点それぞれについて、基準情報40が示す項目値とユーザ演奏情報50が示す項目値とを比較することで、基準情報40とユーザ演奏情報50との間の一致度合いを特定し、その一致度合いを表す評価情報30を生成する。 The performance evaluation device 2000 generates evaluation information 30 by comparing the reference information 40 with the user performance information 50. For example, as described below, the performance evaluation device 2000 identifies the degree of match between the reference information 40 and the user performance information 50 by comparing item values indicated by the reference information 40 with item values indicated by the user performance information 50 for each of a number of time points, and generates evaluation information 30 that indicates the degree of match.

ここで、図1では、基準情報40とユーザ演奏情報50が演奏評価装置2000の外部から取得されるケースを例示している。しかしながら、後述するように、基準情報40やユーザ演奏情報50は演奏評価装置2000の内部で生成されてもよい。基準情報40やユーザ演奏情報50の取得方法や生成方法についての詳細は後述する。 Here, FIG. 1 illustrates an example in which the reference information 40 and the user performance information 50 are obtained from outside the performance evaluation device 2000. However, as described below, the reference information 40 and the user performance information 50 may be generated inside the performance evaluation device 2000. The method of obtaining and generating the reference information 40 and the user performance information 50 will be described in detail below.

<作用効果の一例>
本実施形態の演奏評価装置2000によれば、対象楽曲について、指定テンポで演奏された場合における評価基準を表す基準情報40が取得される。そして、当該基準情報40と、ユーザ60による実際の演奏の結果を表すユーザ演奏情報50とを比較することにより、ユーザ60による対象楽曲の演奏が評価される。このことから、演奏評価装置2000によれば、所望のテンポで行われた対象楽曲の演奏についての評価を行うことができる。よって、ユーザ60は、対象楽曲を所望のテンポで演奏し、当該演奏についての評価を得ることができる。
<Examples of effects>
According to the performance evaluation device 2000 of this embodiment, reference information 40 is acquired that represents an evaluation standard when the target piece of music is performed at a specified tempo. Then, the reference information 40 is compared with user performance information 50 that represents the result of the actual performance by the user 60, thereby evaluating the performance of the target piece of music by the user 60. Thus, according to the performance evaluation device 2000, it is possible to evaluate a performance of the target piece of music performed at a desired tempo. Thus, the user 60 can play the target piece of music at a desired tempo and receive an evaluation of the performance.

例えばユーザ60は、演奏のテンポを徐々に上げながら対象楽曲の練習を行うことができる。まずユーザ60は、標準のテンポよりも遅いテンポで、対象楽曲の演奏の練習を行う。そして、当該テンポを指定した演奏評価装置2000による評価において十分に高い評価(例えば、目標として設定した評価以上の評価)を得られるようになったら、ユーザ60は、テンポを少し速くしてさらに対象楽曲の練習を行う。このような練習及び評価を、テンポを速くしながら繰り返すことにより、ユーザ60は、標準のテンポやそれよりも速いテンポで、対象楽曲について評価の高い演奏を行うことができるようになる。 For example, user 60 can practice the target song while gradually increasing the tempo of the performance. First, user 60 practices playing the target song at a tempo slower than the standard tempo. Then, when the user 60 is able to receive a sufficiently high evaluation (e.g., an evaluation higher than the evaluation set as a target) in the evaluation by the performance evaluation device 2000 specifying that tempo, user 60 speeds up the tempo a little and practices the target song further. By repeating this practice and evaluation while increasing the tempo, user 60 will be able to perform the target song at the standard tempo or a tempo faster, and receive high evaluation.

以下、本実施形態の演奏評価装置2000について、より詳細に説明する。 The performance evaluation device 2000 of this embodiment is described in more detail below.

<機能構成の例>
図2は、実施形態1の演奏評価装置2000の機能構成を例示するブロック図である。この例において、演奏評価装置2000は、テンポ情報取得部2020及び評価部2040を有する。テンポ情報取得部2020は、テンポ情報100を取得する。評価部2040は、テンポ情報100に示されている指定テンポに対応する基準情報40と、ユーザ演奏情報50とを比較することにより、評価情報30を生成する。
<Example of functional configuration>
2 is a block diagram illustrating an example of the functional configuration of a performance evaluation device 2000 of embodiment 1. In this example, the performance evaluation device 2000 has a tempo information acquisition unit 2020 and an evaluation unit 2040. The tempo information acquisition unit 2020 acquires tempo information 100. The evaluation unit 2040 generates evaluation information 30 by comparing reference information 40 corresponding to a designated tempo indicated in the tempo information 100 with user performance information 50.

<ハードウエア構成の例>
演奏評価装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、演奏評価装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
<Example of hardware configuration>
Each functional component of the performance evaluation device 2000 may be realized by hardware that realizes each functional component (e.g., a hardwired electronic circuit, etc.), or may be realized by a combination of hardware and software (e.g., a combination of an electronic circuit and a program that controls it, etc.). Below, a further explanation will be given of the case where each functional component of the performance evaluation device 2000 is realized by a combination of hardware and software.

図3は、演奏評価装置2000を実現するコンピュータ1000のハードウエア構成を例示するブロック図である。コンピュータ1000は、任意のコンピュータである。例えばコンピュータ1000は、PC(Personal Computer)やサーバマシンなどといった、据え置き型のコンピュータである。その他にも例えば、コンピュータ1000は、スマートフォンやタブレット端末などといった可搬型のコンピュータである。その他にも例えば、コンピュータ1000は、カメラ10であってもよい。その他にも例えば、ユーザ60によって演奏される楽器が電子楽器である場合、コンピュータ1000は、当該楽器に内蔵されているコンピュータであってもよい。 Figure 3 is a block diagram illustrating an example of the hardware configuration of a computer 1000 that realizes the performance evaluation device 2000. The computer 1000 is any computer. For example, the computer 1000 is a stationary computer such as a PC (Personal Computer) or a server machine. In other examples, the computer 1000 is a portable computer such as a smartphone or a tablet terminal. In other examples, the computer 1000 may be a camera 10. In other examples, if the instrument played by the user 60 is an electronic instrument, the computer 1000 may be a computer built into the instrument.

コンピュータ1000は、演奏評価装置2000を実現するために設計された専用のコンピュータであってもよいし、汎用のコンピュータであってもよい。例えば、コンピュータ1000に対して所定のアプリケーションをインストールすることにより、コンピュータ1000で、演奏評価装置2000の各機能が実現される。上記アプリケーションは、演奏評価装置2000の機能構成部を実現するためのプログラムで構成される。 The computer 1000 may be a dedicated computer designed to realize the performance evaluation device 2000, or may be a general-purpose computer. For example, by installing a specific application on the computer 1000, the computer 1000 realizes each function of the performance evaluation device 2000. The application is composed of a program for realizing the functional components of the performance evaluation device 2000.

コンピュータ1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。 The computer 1000 has a bus 1020, a processor 1040, a memory 1060, a storage device 1080, an input/output interface 1100, and a network interface 1120. The bus 1020 is a data transmission path through which the processor 1040, the memory 1060, the storage device 1080, the input/output interface 1100, and the network interface 1120 transmit and receive data to each other. However, the method of connecting the processor 1040 and the like to each other is not limited to a bus connection.

プロセッサ1040は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は FPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。 The processor 1040 is a processor such as a central processing unit (CPU), a graphics processing unit (GPU), or a field-programmable gate array (FPGA). The memory 1060 is a main storage device realized using a random access memory (RAM) or the like. The storage device 1080 is an auxiliary storage device realized using a hard disk, a solid state drive (SSD), a memory card, or a read only memory (ROM) or the like.

入出力インタフェース1100は、コンピュータ1000と入出力デバイスとを接続するためのインタフェースである。ネットワークインタフェース1120は、コンピュータ1000をネットワークに接続するためのインタフェースである。このネットワークは、LAN(Local Area Network)であってもよいし、WAN(Wide Area Network)であってもよい。 The input/output interface 1100 is an interface for connecting the computer 1000 to an input/output device. The network interface 1120 is an interface for connecting the computer 1000 to a network. This network may be a LAN (Local Area Network) or a WAN (Wide Area Network).

ストレージデバイス1080は、演奏評価装置2000の各機能構成部を実現するプログラム(前述したアプリケーションを実現するプログラム)を記憶している。プロセッサ1040は、このプログラムをメモリ1060に読み出して実行することで、演奏評価装置2000の各機能構成部を実現する。 The storage device 1080 stores a program that realizes each functional component of the performance evaluation device 2000 (a program that realizes the application described above). The processor 1040 reads this program into the memory 1060 and executes it to realize each functional component of the performance evaluation device 2000.

演奏評価装置2000は、1つのコンピュータ1000で実現されてもよいし、複数のコンピュータ1000で実現されてもよい。後者の場合において、各コンピュータ1000の構成は同一である必要はなく、それぞれ異なるものとすることができる。 The performance evaluation device 2000 may be realized by one computer 1000, or may be realized by multiple computers 1000. In the latter case, the configuration of each computer 1000 does not need to be the same, and can be different from each other.

<評価項目について>
ユーザ60による演奏は、複数の評価項目について評価される。評価項目には、演奏の良し悪しが反映される任意の項目を採用することができる。こうような評価項目には、例えば、音の特徴(音の強さや長さなど)に関するものが含まれる。その他にも例えば、評価項目には、演奏した際の手や指の形、指使い、及び演奏された際の対象楽器の形状などが含まれる。ここで、指使いとは、打鍵された鍵盤と指の対応付けの正しさを意味する。また、演奏された際の対象楽器の形状とは、例えば鍵盤楽器であれば指で打鍵した際の鍵盤の角度や深さを意味する。
<Evaluation items>
The performance by the user 60 is evaluated based on a number of evaluation items. The evaluation items may be any items that reflect the quality of the performance. Such evaluation items include, for example, items related to sound characteristics (such as sound intensity and duration). Other evaluation items include, for example, the shape of the hands and fingers when playing, fingering, and the shape of the target instrument when played. Here, fingering refers to the correctness of the correspondence between the pressed keys and the fingers. Furthermore, the shape of the target instrument when played refers to, for example, the angle and depth of the keys when pressed with the fingers in the case of a keyboard instrument.

音の特徴に関する事項が評価項目に含まれる場合、例えば、ユーザ60の演奏を録音するレコーダが設置され、当該レコーダによって生成された音声データを利用して演奏の評価が行われる。ただし、音声データは、後述するカメラによってビデオデータと共に生成されてもよい。言い換えればこの場合、カメラがレコーダとしての役割も持つことになる。例えばカメラが、ビデオデータと音声データとを含むビデオファイルを生成する場合、当該ビデオデータに含まれる音声データを利用して、音の特徴の評価(音の良し悪しの評価)をすることができる。 When items related to sound characteristics are included in the evaluation items, for example, a recorder is installed to record the performance of user 60, and the performance is evaluated using the audio data generated by the recorder. However, the audio data may be generated together with the video data by a camera, which will be described later. In other words, in this case, the camera also plays the role of a recorder. For example, when the camera generates a video file containing video data and audio data, the audio data included in the video data can be used to evaluate the sound characteristics (evaluate whether the sound is good or bad).

その他にも例えば、対象楽器70に、対象楽器70を用いて行われた演奏についての演奏データを生成する機能が設けられていてもよい。演奏データは、例えば、MIDI(登録商標)(Musical Instrument Digital Interface)データなどである。このように対象楽器70によって演奏データが生成される場合、この演奏データを用いて、音の特徴の評価を行うことができる。 For example, the target instrument 70 may be provided with a function for generating performance data for a performance given using the target instrument 70. The performance data may be, for example, MIDI (registered trademark) (Musical Instrument Digital Interface) data. When performance data is generated by the target instrument 70 in this way, the performance data can be used to evaluate the characteristics of the sound.

視覚的な情報を利用して評価可能な項目が評価項目に含まれる場合、例えば、ユーザ60の演奏を撮像するようにカメラが設置され、当該カメラによって生成されたビデオデータを利用して、ユーザ60の演奏の評価が行われる。このような評価項目は、例えば、演奏した際の手や指の形、指使い、及び演奏された際の対象楽器の形状などである。ユーザ60の演奏を左右それぞれの手について評価する場合、例えば、ユーザ60の左手が手前に来る位置に設置されるカメラと、ユーザ60の右手が手前に来る位置に設置されるカメラの双方を設けることが好適である。 When the evaluation items include items that can be evaluated using visual information, for example, a camera is installed to capture the performance of user 60, and the performance of user 60 is evaluated using the video data generated by the camera. Such evaluation items include, for example, the shape of the hands and fingers when playing, the fingering, and the shape of the target instrument when played. When evaluating the performance of user 60 for both the left and right hands, for example, it is preferable to provide both a camera installed in a position where the left hand of user 60 is in front, and a camera installed in a position where the right hand of user 60 is in front.

図4は、ユーザ60の演奏を撮像するカメラ10の位置と姿勢を例示する図である。図4(a)は対象楽器70を平面視した図であり、図4(b)は対象楽器70を正面視した図である。図4では、対象楽器70の鍵盤の長手方向をx軸方向とし、対象楽器70の鍵盤の短手方向をy軸方向とし、鉛直方向をz軸方向としている。 Figure 4 is a diagram illustrating the position and orientation of the camera 10 capturing an image of a performance by a user 60. Figure 4(a) is a plan view of the target instrument 70, and Figure 4(b) is a front view of the target instrument 70. In Figure 4, the longitudinal direction of the keys of the target instrument 70 is the x-axis direction, the transverse direction of the keys of the target instrument 70 is the y-axis direction, and the vertical direction is the z-axis direction.

カメラ10-1は、少なくともユーザ60の左手の指の側面を左側から(右手よりも左手の方が手前に来る方向から)撮影するように設置される。図4において、カメラ10-1は、+x方向に対象楽器70を見下ろすように設置されている。 Camera 10-1 is placed so as to capture at least the side of the fingers of the user's 60 left hand from the left side (from a direction in which the left hand is closer to the viewer than the right hand). In FIG. 4, camera 10-1 is placed so as to look down on the target musical instrument 70 in the +x direction.

一方、カメラ10-2は、少なくともユーザ60の右手の指の側面を右側から(左手よりも右手の方が手前に来る方向から)撮影できるように設置される。図4において、カメラ10-2は、-x方向に対象楽器70を見下ろすように設置されている。 On the other hand, camera 10-2 is placed so that it can capture at least the side of the fingers of the user's 60 right hand from the right side (from a direction in which the right hand is closer to the viewer than the left hand). In FIG. 4, camera 10-2 is placed so as to look down on the target musical instrument 70 in the -x direction.

カメラ10の撮影方向は、図4に示す例に限定されない。例えば、カメラ10-1とカメラ10-2の撮影方向の水平成分は、x軸と完全に平行である必要はなく、y軸方向の成分を含んでもよい。 The shooting direction of camera 10 is not limited to the example shown in FIG. 4. For example, the horizontal components of the shooting directions of camera 10-1 and camera 10-2 do not need to be completely parallel to the x-axis, and may include a component in the y-axis direction.

カメラ10の具体的な設置位置や設置姿勢は、ユーザによって任意に決められてもよいし、予め定められていてもよい。前者の場合、カメラ10は、楽器上や楽器の周辺に、ユーザ60の演奏を側面から撮影できる位置及び姿勢で設置される。 The specific installation position and orientation of the camera 10 may be determined arbitrarily by the user or may be determined in advance. In the former case, the camera 10 is installed on or around the instrument in a position and orientation that allows the performance of the user 60 to be captured from the side.

一方、カメラ10の設置位置や設置姿勢が予め定められている場合、例えば、対象楽器の所定の位置に設置可能であり、なおかつ、カメラ10を所定の姿勢で設置可能な器具が利用される。この器具は、対象楽器が提供(販売やリースなど)される段階で対象楽器に設置されていてもよいし、対象楽器の提供後に設置されてもよい(例えば、別売りのアタッチメントとして提供され、ユーザによって設置される)。 On the other hand, if the installation position and orientation of the camera 10 are predetermined, for example, an apparatus is used that can be installed at a predetermined position on the target instrument and that can install the camera 10 in a predetermined orientation. This apparatus may be installed on the target instrument when the target instrument is provided (for example, sold or leased), or may be installed after the target instrument is provided (for example, provided as a separately sold attachment and installed by the user).

その他にも例えば、カメラ10によって生成されるビデオデータを見ながら、カメラ10の設置位置及び設置姿勢を調整することで、カメラ10を所定の位置及び姿勢に設置してもよい。例えば、対象楽器の所定の位置に所定の参照マークを設けておく。そして、対象楽器に設けられている参照マークをカメラ10で撮影し、カメラ10から得られるビデオデータを見ながら、参照マークが所定の位置、サイズ、及び形状でカメラ10に撮影されるように、カメラ10の位置及び姿勢を調整する。 Alternatively, for example, the camera 10 may be installed at a predetermined position and attitude by adjusting the installation position and attitude of the camera 10 while viewing the video data generated by the camera 10. For example, a predetermined reference mark is provided at a predetermined position on the target instrument. Then, the reference mark provided on the target instrument is photographed by the camera 10, and while viewing the video data obtained from the camera 10, the position and attitude of the camera 10 are adjusted so that the reference mark is photographed by the camera 10 at a predetermined position, size, and shape.

なお、上述した例では、カメラ10-1とカメラ10-2で互いに異なる手を撮像することとしているが、必ずしもそのようにする必要はない。例えば、カメラ10-1で左手の指の一部及び右手の指の一部を撮像し、カメラ10-2で左手と右手それぞれの残りの指を撮像するようにする。言い換えれば、カメラ10-1から得られるビデオデータ20を左手の指の一部及び右手の指の一部の評価に利用し、カメラ10-2から得られるビデオデータ20を左手と右手それぞれの残りの指の評価に利用する。より具体的な例としては、カメラ10-1から得られるビデオデータ20を、左手の中指、薬指、及び小指、並びに右手の親指及び人差し指の評価に利用し、カメラ10-2から得られるビデオデータ20を、左手の親指と人差し指、並びに右手の中指、薬指、及び小指の評価に利用するようにする。このようにすることで、一方の手が他方の手の撮像においての障害物になってしまうことにより、1つのカメラ10だけでは1つの手の全ての指を撮像できない場合であっても、2つのカメラ10から得られるビデオデータ20を利用することで、左右全ての指の評価を行うことができる。 In the above example, the cameras 10-1 and 10-2 are set to capture images of different hands, but this is not necessarily required. For example, the camera 10-1 captures images of some of the fingers of the left hand and some of the fingers of the right hand, and the camera 10-2 captures images of the remaining fingers of the left and right hands. In other words, the video data 20 obtained from the camera 10-1 is used to evaluate some of the fingers of the left hand and some of the fingers of the right hand, and the video data 20 obtained from the camera 10-2 is used to evaluate the remaining fingers of the left and right hands. As a more specific example, the video data 20 obtained from the camera 10-1 is used to evaluate the middle finger, ring finger, and little finger of the left hand and the thumb and index finger of the right hand, and the video data 20 obtained from the camera 10-2 is used to evaluate the thumb and index finger of the left hand and the middle finger, ring finger, and little finger of the right hand. In this way, even if one camera 10 is unable to capture all the fingers of one hand because one hand is an obstacle to capturing the image of the other hand, it is possible to evaluate all the fingers on both the left and right hands by using the video data 20 obtained from the two cameras 10.

また、演奏の評価に利用するカメラ10の数は2つに限定されない。例えば、ユーザ60の演奏を片方の手のみについて評価する場合、評価する手を撮影可能なカメラ10を1つ設けるようにしてもよい。その他にも例えば、同一の手を異なる俯角で撮影するように、右手と左手それぞれについて複数のカメラ10を用意してもよい。 The number of cameras 10 used to evaluate a performance is not limited to two. For example, if the performance of the user 60 is to be evaluated for only one hand, one camera 10 capable of photographing the hand to be evaluated may be provided. Alternatively, for example, multiple cameras 10 may be provided for each of the right and left hands so that the same hand is photographed at different angles of depression.

カメラ10は、ユーザ60の演奏を撮影してビデオデータを生成することができる任意のカメラである。カメラ10は、ユーザの楽器演奏を撮影するための専用のカメラであってもよいし、汎用のカメラ(例えば、スマートフォンに設けられているカメラなど)であってもよい。 Camera 10 is any camera capable of capturing a performance by user 60 and generating video data. Camera 10 may be a dedicated camera for capturing a user's performance of a musical instrument, or may be a general-purpose camera (such as a camera provided on a smartphone).

例えばカメラ10は、入出力インタフェース1100又はネットワークインタフェース1120を介して、演奏評価装置2000を実現するコンピュータ1000と接続される。ただし、コンピュータ1000は、カメラ10によって生成されたビデオデータを取得できればよく、カメラ10と通信可能に接続されていなくてもよい。演奏評価装置2000がビデオデータを取得する方法については後述する。また、カメラ10で演奏評価装置2000が実現されてもよい。すなわち、カメラ10に設けられているコンピュータ(例えば、SoC(System on Chip)などの半導体チップ)で演奏評価装置2000が実現される。 For example, the camera 10 is connected to a computer 1000 that realizes the performance evaluation device 2000 via the input/output interface 1100 or the network interface 1120. However, the computer 1000 only needs to be able to acquire the video data generated by the camera 10, and does not need to be communicatively connected to the camera 10. The method by which the performance evaluation device 2000 acquires the video data will be described later. The performance evaluation device 2000 may also be realized by the camera 10. That is, the performance evaluation device 2000 is realized by a computer (for example, a semiconductor chip such as a SoC (System on Chip)) provided in the camera 10.

ここで、前述したように、その評価のためにビデオデータが利用されうる評価項目には、手や指の形に関する評価項目などが含まれる。これらの評価項目の項目値は、例えば、手の関節点や関節線を利用して算出される。関節点とは、関節の位置を表す点である。関節線とは、互いに隣接する関節点を結ぶ直線である。また、指先と、指先に一番近い関節(すなわち、第1関節)の関節点とを結ぶ直線も、関節線として扱う。図5は、手の関節点と関節線を例示する図である。図5において、関節点は丸印で表されている。 As mentioned above, evaluation items for which video data can be used for evaluation include evaluation items related to the shape of the hand and fingers. The item values of these evaluation items are calculated using, for example, the joint points and joint lines of the hand. A joint point is a point that indicates the position of a joint. A joint line is a straight line that connects adjacent joint points. In addition, a straight line that connects a fingertip and the joint point of the joint closest to the fingertip (i.e., the first joint) is also treated as a joint line. Figure 5 is a diagram illustrating examples of hand joint points and joint lines. In Figure 5, the joint points are represented by circles.

以下、手の関節点や関節線に基づいて項目値が算出される評価項目について、その具体例をいくつか例示する。 Below are some specific examples of evaluation items whose item values are calculated based on the hand joint points and joint lines.

<<指関節の高さ>>
「指関節の高さ」は、指の関節の高さ方向の位置を表す評価項目である。演奏評価装置2000が評価に利用する関節点は、全ての関節点であってもよいし、一部のみであってもよい。
<<Knuckle height>>
The "height of finger joints" is an evaluation item that indicates the position of the finger joints in the height direction. The joint points used by the performance evaluation device 2000 for evaluation may be all of the joint points or only some of them.

例えば指関節の高さは、指の関節点と基準面との位置関係で定まる。例えば基準面は、鍵盤の上面によって定まる。例えば、打鍵されていない通常時における鍵盤の上面が、基準面として扱われる。その他にも例えば、最も下まで押し下げられた状態における鍵盤の上面が、基準面として扱われてもよい。指関節の高さを算出する具体的な方法には、様々な方法を利用できる。 For example, the height of a finger joint is determined by the positional relationship between the finger joint point and a reference plane. For example, the reference plane is determined by the top surface of the keyboard. For example, the top surface of the keyboard when it is normally not being pressed is treated as the reference plane. Alternatively, for example, the top surface of the key when it is pressed all the way down may be treated as the reference plane. Various methods can be used as the specific method for calculating the finger joint height.

指関節の高さは、打鍵している状態の指について算出されることが好ましい。ただし、打鍵していない状態の指についても、指関節の高さが算出されてもよい。 The height of the finger joints is preferably calculated for fingers that are typing. However, the height of the finger joints may also be calculated for fingers that are not typing.

図6は、指関節の高さの算出方法を例示する図である。説明を容易にするため、図6では、ビデオフレーム22のうち、指110及び指110で打鍵されているキー120の周辺の画像領域のみが図示されている。 Figure 6 is a diagram illustrating a method for calculating the height of a finger joint. For ease of explanation, Figure 6 shows only the image area of the video frame 22 surrounding the finger 110 and the key 120 being pressed by the finger 110.

図6では、基準面の位置を表すために、基準線130が利用されている。基準線130は、指110が置かれているキー120の隣のキーのうち、カメラ10からより遠い方のキーの長辺と重なる直線である。なお、基準線としては、打鍵されていない状態におけるキー120の上面の長辺を利用することが好適である。また、基準面の位置を表す方法は、基準線130を用いる方法に限定されない。例えば、キー120の隣のキーのうち、カメラ10により近い方のキーの長辺を、基準面の位置を表す基準線として利用してもよい。 In FIG. 6, a reference line 130 is used to indicate the position of the reference plane. The reference line 130 is a straight line that overlaps with the long side of the key adjacent to the key 120 on which the finger 110 is placed, which is farther from the camera 10. Note that it is preferable to use the long side of the top surface of the key 120 in an undepressed state as the reference line. Furthermore, the method of indicating the position of the reference plane is not limited to the method using the reference line 130. For example, the long side of the key adjacent to the key 120, which is closer to the camera 10, may be used as the reference line indicating the position of the reference plane.

図6(a)と(b)は、指関節の高さの算出方法として、互いに異なる方法を示している。図6(a)において、関節点Xの高さは、線分XAの長さで表されている。点Aは、関節点Xからビデオフレーム22の垂直方向下向きへ延ばした直線と基準線130との交点である。一方、図6(b)において、関節点Xの高さは、線分XBの長さで表されている。点Bは、関節点Xから基準線130に対して下ろした垂線の足である。 Figures 6(a) and (b) show different methods for calculating the height of a finger joint. In Figure 6(a), the height of joint point X is represented by the length of line segment XA. Point A is the intersection of a line extending vertically downward from joint point X in video frame 22 and reference line 130. On the other hand, in Figure 6(b), the height of joint point X is represented by the length of line segment XB. Point B is the foot of a perpendicular line drawn from joint point X to reference line 130.

なお、図6の例では、カメラ10が手の側面を斜め上から撮像するように設置されている。この場合、ビデオフレーム22の垂直方向や、図6(b)において基準線130に下ろした垂線の方向は、実世界における鉛直方向とは異なる。しかしながら、図6に示したように、「指関節の高さ」という評価項目の項目値は、実世界の鉛直方向における高さではなく、鉛直方向の成分が含まれる方向(すなわち、水平方向ではない方向)について、関節点から基準面までの距離を表していればよい。なお、この点については、後述する「手首の高さ」についても同様である。 In the example of FIG. 6, the camera 10 is set up so as to capture the side of the hand from diagonally above. In this case, the vertical direction of the video frame 22 and the direction of the perpendicular line drawn to the reference line 130 in FIG. 6(b) are different from the vertical direction in the real world. However, as shown in FIG. 6, the item value of the evaluation item "finger joint height" does not represent the height in the vertical direction in the real world, but only needs to represent the distance from the joint point to the reference plane in a direction that includes a vertical component (i.e., a direction that is not horizontal). The same applies to "wrist height" described below.

ただし、演奏評価装置2000は、指関節の高さとして、実世界の鉛直方向における高さを扱ってもよい。この場合、例えば演奏評価装置2000は、ビデオフレーム22上の2次元座標系(以下、画像座標系)における指関節の位置と基準面から、実世界の3次元座標系(以下、ワールド座標系)における指関節の位置と基準面を算出することで、ワールド座標系における指関節の高さを算出する。 However, the performance evaluation device 2000 may treat the height of the finger joint as the height in the vertical direction in the real world. In this case, for example, the performance evaluation device 2000 calculates the position and reference plane of the finger joint in a three-dimensional coordinate system of the real world (hereinafter, world coordinate system) from the position and reference plane of the finger joint in a two-dimensional coordinate system (hereinafter, image coordinate system) on the video frame 22, thereby calculating the height of the finger joint in the world coordinate system.

2次元座標系の座標から3次元座標系の座標への変換は、例えば、ステレオ視やデプスカメラを利用することで実現できる。前者の場合、ユーザ60の演奏を左方から撮影するカメラ10と右方から撮影するカメラ10をそれぞれ2つずつ設けておく。そして、ユーザ60の右手の指関節の高さの算出には、ユーザ60を右方から撮影する2つのカメラ10それぞれから得られたビデオフレーム22を利用して、ワールド座標系上の指関節の高さを算出する。デプスカメラを利用する場合、ビデオフレーム22上の各ピクセルについて、撮影された物体までの距離が分かる。そのため、1つのビデオフレーム22における指関節の2次元座標から、ワールド座標系における指関節の3次元座標を特定することができる。 The conversion from the coordinates in the two-dimensional coordinate system to the coordinates in the three-dimensional coordinate system can be realized, for example, by using stereo vision or a depth camera. In the former case, two cameras 10 are provided to capture the performance of the user 60 from the left and two cameras 10 to capture the performance from the right. Then, to calculate the height of the finger joints on the right hand of the user 60, the height of the finger joints on the world coordinate system is calculated using the video frames 22 obtained from each of the two cameras 10 capturing the image of the user 60 from the right. When a depth camera is used, the distance to the captured object is known for each pixel on the video frame 22. Therefore, the three-dimensional coordinates of the finger joints in the world coordinate system can be determined from the two-dimensional coordinates of the finger joints in one video frame 22.

なお、ワールド座標系を定めるためには、ワールド座標系の基準となる所定のマーク(サイズと形状のマーク)を対象楽器の所定の位置に設けておくことが好適である。なお、サイズと形状が既知のマークをカメラで撮影することにより、カメラから得られる画像上の2次元座標系とワールド座標系との関係を定める技術には、既存の技術を利用することができる。 In order to determine the world coordinate system, it is preferable to provide a predetermined mark (a mark of a certain size and shape) that serves as a reference for the world coordinate system at a predetermined position on the target instrument. Note that existing technology can be used to determine the relationship between the two-dimensional coordinate system on the image obtained from the camera and the world coordinate system by photographing a mark of known size and shape with a camera.

<<関節線間の角の大きさ>>
「関節線間の角の大きさ」とは、共通の端点を持つ2つの関節線によって成される角の大きさを表す評価項目である。図7は、関節線間の角の大きさの算出方法を例示する図である。説明を容易にするため、図7では、ビデオフレーム22のうち、指110の周辺の画像領域のみが図示されている。なお、関節線間の角の大きさは、打鍵している状態の指について算出されることが好ましい。ただし、打鍵していない状態の指についても、関節線間の角の大きさが算出されてもよい。
<<The size of the angle between the joint lines>>
The "magnitude of angle between joint lines" is an evaluation item that represents the magnitude of an angle formed by two joint lines having a common end point. FIG. 7 is a diagram illustrating a method for calculating the magnitude of an angle between joint lines. For ease of explanation, FIG. 7 illustrates only an image area around a finger 110 in a video frame 22. Note that it is preferable that the magnitude of the angle between joint lines is calculated for a finger in a typing state. However, the magnitude of the angle between joint lines may also be calculated for a finger in a non-typing state.

図7において、関節点Cと関節点Dは互いに隣接する関節点であり、これらの関節点を結ぶ直線が関節線CDである。同様に、関節点Dと関節点Eも互いに隣接する関節点であり、これらの関節点を結ぶ直線が関節線DEである。そして、これらの関節線CDと関節線DEの成す角の大きさはαである。そこで、例えばこの値αを、関節線CDと関節線DEの成す角の大きさという評価項目の項目値として利用できる。また、関節線Eと指先の点Fとを結ぶ関節線EFをさらに利用し、関節線DEと関節線EFの成す角の大きさという評価項目がさらに設けられてもよい。 In FIG. 7, joint point C and joint point D are adjacent joint points, and the straight line connecting these joint points is joint line CD. Similarly, joint point D and joint point E are adjacent joint points, and the straight line connecting these joint points is joint line DE. The magnitude of the angle formed by joint line CD and joint line DE is α. Therefore, for example, this value α can be used as the item value of the evaluation item of the magnitude of the angle formed by joint line CD and joint line DE. Furthermore, by further using joint line EF connecting joint line E and fingertip point F, an evaluation item of the magnitude of the angle formed by joint line DE and joint line EF may be further set.

その他にも例えば、2つの関節線の成す角の大きさという項目の項目値として、前述したワールド座標系においてこれら2つの関節線によって成される角の大きさが用いられてもよい。この場合、演奏評価装置2000は、ビデオフレーム22上の各指関節の座標をワールド座標系上の座標に変換することで、ワールド座標系における2つの関節線を特定する。こうすることで、ワールド座標系において2つの関節線が成す角の大きさを特定することができる。 For example, the value of the item "angle between two joint lines" may be the size of the angle between these two joint lines in the world coordinate system described above. In this case, the performance evaluation device 2000 identifies the two joint lines in the world coordinate system by converting the coordinates of each finger joint on the video frame 22 into coordinates in the world coordinate system. In this way, it is possible to identify the size of the angle between the two joint lines in the world coordinate system.

<<手首の高さ>>
「手首の高さ」は、手首の高さ方向の位置を表す評価項目である。例えば手首の高さは、手首の関節点と基準面との位置関係で定まる。この基準面には、指関節の高さを定める基準面と同じものを利用できる。なお、手首の高さは、少なくとも1つの指で打鍵が行われている状態の手について算出されることが好ましい。ただし、いずれの指でも打鍵が行われていない状態の手についても、手首の高さが算出されてもよい。
<<Wrist height>>
"Wrist height" is an evaluation item that indicates the position of the wrist in the height direction. For example, the wrist height is determined by the positional relationship between the wrist joint point and a reference plane. This reference plane can be the same as the reference plane that determines the height of the finger joints. Note that the wrist height is preferably calculated for a hand in a state where at least one finger is typing. However, the wrist height may also be calculated for a hand in a state where none of the fingers are typing.

図8は、手首の高さを算出する方法を例示する図である。説明を容易にするため、図8では、ビデオフレーム22のうち、手140及び手140が打鍵しているキーの周辺の画像領域のみが図示されている。 Figure 8 illustrates a method for calculating wrist height. For ease of explanation, Figure 8 shows only the image area of the video frame 22 surrounding the hand 140 and the key that the hand 140 is typing.

図8において、手140の手首の関節点はYである。また、図8では、基準面の位置を表すために、基準線150が利用されている。基準線150は打鍵されているキー160の隣のキーのうち、カメラ10からより遠い方の長辺と重なる直線である。なお、指関節の高さを算出するケースと同様に、基準線としては、打鍵されていない状態におけるそのキーの上面の長辺を利用することも可能である。また、基準線に利用するキーは、カメラ10に最も近い指が打鍵するキーや隣のキーに限定されない。 In FIG. 8, the wrist joint point of the hand 140 is Y. Also, in FIG. 8, a reference line 150 is used to indicate the position of the reference plane. The reference line 150 is a straight line that overlaps with the long side of the key adjacent to the pressed key 160 that is farther from the camera 10. As in the case of calculating the height of the finger joints, it is also possible to use the long side of the top surface of the key when it is not being pressed as the reference line. Also, the key used for the reference line is not limited to the key pressed by the finger closest to the camera 10 or the adjacent key.

図8(a)と(b)は、手首の高さの算出方法として、互いに異なる方法を示している。図8(a)において、手首の高さは、線分YGの距離で定められている。点Gは、手首の関節点Yからビデオフレーム22の垂直方向下向きに下ろした直線と基準線150の交点である。一方、図8(b)において、手首の高さは、線分YHの距離で定められている。点Hは、手首の関節点Yから基準線150に下ろした垂線の足である。 Figures 8(a) and (b) show different methods for calculating wrist height. In Figure 8(a), the wrist height is determined by the distance of line segment YG. Point G is the intersection of a line drawn vertically downward from wrist joint point Y on video frame 22 and reference line 150. On the other hand, in Figure 8(b), the wrist height is determined by the distance of line segment YH. Point H is the foot of the perpendicular line drawn from wrist joint point Y to reference line 150.

なお、演奏評価装置2000は、指関節の高さと同様に、手首の高さについても、実世界の鉛直方向における高さを扱ってもよい。具体的には、演奏評価装置2000は、画像座標系における手首の位置と基準面から、ワールド座標系における手首の位置と基準面を特定する。そして、ワールド座標系における手首の位置から基準面までの距離が、手首の高さとして扱われる。 The performance evaluation device 2000 may also treat the wrist height as the height in the vertical direction in the real world, in the same way as the finger joint height. Specifically, the performance evaluation device 2000 identifies the wrist position and reference plane in the world coordinate system from the wrist position and reference plane in the image coordinate system. Then, the distance from the wrist position to the reference plane in the world coordinate system is treated as the wrist height.

<<手上面の高さ>>
「手上面の高さ」は、手の上面の高さ方向の位置を表す評価項目である。例えば手上面の高さは、中指の第3関節点(図5参照)と基準面との位置関係で定まる。この基準面には、指関節の高さを定める基準面と同じものを利用できる。なお、手上面の高さは、少なくとも1つの指で打鍵が行われている状態の手について算出されることが好ましい。ただし、いずれの指でも打鍵が行われていない状態の手についても、手上面の高さが算出されてもよい。
<<Hand top height>>
"Height of the hand top surface" is an evaluation item that indicates the position of the hand top surface in the height direction. For example, the height of the hand top surface is determined by the positional relationship between the third joint point of the middle finger (see FIG. 5) and a reference plane. This reference plane can be the same as the reference plane that determines the height of the finger joints. Note that the height of the hand top surface is preferably calculated for a hand in a state where at least one finger is typing. However, the height of the hand top surface may also be calculated for a hand in a state where none of the fingers are typing.

図9は、手上面の高さを算出する方法を例示する図である。ここで、図9に示されている手140、鍵盤、及び基準線150は、図8に示されているものと同じである。また、図9において、手140の上面の位置は、手140の中指の第3関節点である点Wで表されている。 Figure 9 is a diagram illustrating a method for calculating the height of the hand's upper surface. Here, the hand 140, keyboard, and reference line 150 shown in Figure 9 are the same as those shown in Figure 8. Also, in Figure 9, the position of the upper surface of the hand 140 is represented by point W, which is the third joint point of the middle finger of the hand 140.

図9(a)と(b)は、手上面の高さの算出方法として、互いに異なる方法を示している。図9(a)において、手上面の高さは、線分WKの距離で定められている。点Kは、手上面Wからビデオフレーム22の垂直方向下向きに下ろした直線と基準線150の交点である。一方、図9(b)において、手上面の高さは、線分WLの距離で定められている。点Lは、手上面Wから基準線150に下ろした垂線の足である。 Figures 9(a) and (b) show different methods for calculating the height of the upper surface of the hand. In Figure 9(a), the height of the upper surface of the hand is determined by the distance of line segment WK. Point K is the intersection of a straight line drawn vertically downward from the upper surface of the hand W in the video frame 22 and the reference line 150. On the other hand, in Figure 9(b), the height of the upper surface of the hand is determined by the distance of line segment WL. Point L is the foot of the perpendicular line drawn from the upper surface of the hand W to the reference line 150.

なお、演奏評価装置2000は、指関節や手首の高さと同様に、手上面の高さについても、実世界の鉛直方向における高さを扱ってもよい。具体的には、演奏評価装置2000は、画像座標系における手上面の位置と基準面から、ワールド座標系における手上面の位置と基準面を特定する。そして、ワールド座標系における手上面の位置から基準面までの距離が、手上面の高さとして扱われる。 The performance evaluation device 2000 may also treat the height of the top surface of the hand as the height in the vertical direction in the real world, just as it does for the height of the finger joints and wrist. Specifically, the performance evaluation device 2000 identifies the position of the top surface of the hand and the reference plane in the world coordinate system from the position of the top surface of the hand and the reference plane in the image coordinate system. Then, the distance from the position of the top surface of the hand in the world coordinate system to the reference plane is treated as the height of the top surface of the hand.

<<手首の角度>>
「手首の角度」は、手首の曲がり具合を表す評価項目である。手首の角度は、例えば、腕の姿勢を表す直線と手の上面の姿勢を表す直線とが成す角の大きさで定めることができる。なお、手首の角度は、少なくとも1つの指で打鍵が行われている状態の手について算出されることが好ましい。ただし、いずれの指でも打鍵が行われていない状態の手についても、手首の角度が算出されてもよい。
<<Wrist angle>>
"Wrist angle" is an evaluation item that indicates the degree of bending of the wrist. The wrist angle can be determined, for example, by the size of the angle formed by a line representing the posture of the arm and a line representing the posture of the top surface of the hand. Note that it is preferable that the wrist angle is calculated for a hand in a state in which at least one finger is typing. However, the wrist angle may also be calculated for a hand in a state in which none of the fingers is typing.

図10は、手首の角度を算出する方法を例示する図である。説明を容易にするため、図10では、ビデオフレーム22のうち、手140の周辺の画像領域のみが図示されている。手首の角度は、直線170と直線180とが成す角の大きさβで表される。直線170は、腕の姿勢を表す直線である。一方、直線180は、手の上面の姿勢を表す直線である。 Figure 10 is a diagram illustrating a method for calculating the wrist angle. For ease of explanation, in Figure 10, only the image area around the hand 140 is shown in the video frame 22. The wrist angle is represented by the magnitude β of the angle formed by lines 170 and 180. Line 170 is a line that represents the posture of the arm. On the other hand, line 180 is a line that represents the posture of the upper surface of the hand.

例えば直線170は、ビデオフレーム22から腕の上面を表すエッジを検出し、当該エッジ上の任意の2点を結んだり、当該エッジ上の3点以上を利用して直線フィッティングを行ったりすることによって得ることができる。直線180も同様に、ビデオフレーム22から手の上面を表すエッジを検出し、当該エッジ上の任意の2点を結んだり、当該エッジ上の3点以上を利用して直線フィッティングを行ったりすることにより、得ることができる。 For example, straight line 170 can be obtained by detecting an edge representing the upper surface of the arm from video frame 22, and connecting any two points on the edge, or performing straight line fitting using three or more points on the edge. Straight line 180 can be obtained similarly by detecting an edge representing the upper surface of the hand from video frame 22, and connecting any two points on the edge, or performing straight line fitting using three or more points on the edge.

なお、手首の角度についても、ワールド座標系における角度が利用されてもよい。この場合、例えば演奏評価装置2000は、ワールド座標系について、腕の姿勢を表す直線と手の上面の姿勢を表す直線を算出し、これらの直線が成す角度を、手首の角度として算出する。また、ワールド座標系において、腕の姿勢や手の上面の姿勢は、直線ではなく平面で表されてもよい。この場合、これら2つの平面の成す角度を、手首の角度として扱うことができる。 Note that angles in the world coordinate system may also be used for the wrist angle. In this case, for example, the performance evaluation device 2000 calculates a line representing the arm posture and a line representing the posture of the top of the hand in the world coordinate system, and calculates the angle between these lines as the wrist angle. Also, in the world coordinate system, the arm posture and the top of the hand posture may be represented by planes rather than lines. In this case, the angle between these two planes can be treated as the wrist angle.

<<打鍵の深さ>>
「打鍵の深さ」は、演奏の際にキーが押される度合いを表す評価項目である。打鍵の深さは、通常時のキーと打鍵時のキーとの位置関係で表すことができる。
<<Keystroke Depth>>
"Keystroke depth" is an evaluation item that indicates the degree to which a key is pressed when playing. Keystroke depth can be expressed as the relative position of a key when pressed compared to when it is normally pressed.

図11は、打鍵の深さの算出方法を例示する図である。説明を容易にするため、図11では、ビデオフレーム22のうち、キー190の周辺の画像領域のみが図示されている。 Figure 11 is a diagram illustrating a method for calculating the depth of a keystroke. For ease of explanation, only the image area of the video frame 22 surrounding the key 190 is shown in Figure 11.

キー190は、打鍵されているキーである。線分200は、通常時(打鍵されていない状態)におけるキー190の上面の長辺のうち、カメラ10からより遠い方の長辺を表している。一方、線分210は、打鍵されている状態におけるキー190の上面の長辺のうち、カメラ10からより遠い方の長辺を表している。なお、線分200は、打鍵されているキー190の隣のキーでカメラ10からより遠い方のキーの上面の長辺としてもよい。 Key 190 is the key that is being pressed. Line segment 200 represents the long side of the top surface of key 190 that is farther from camera 10 in the normal state (when not being pressed). On the other hand, line segment 210 represents the long side of the top surface of key 190 that is farther from camera 10 in the pressed state. Note that line segment 200 may also represent the long side of the top surface of the key next to key 190 that is being pressed and that is farther from camera 10.

図11(a)と(b)は、打鍵の深さについて、互いに異なる算出方法を例示している。図11(a)において、打鍵の深さは、線分200と線分210の成す角の大きさで表されている。一方、図11(b)において、打鍵の深さは、直線IJの長さで表されている。点Iは線分200の端点のうち、ユーザ60の身体に近い方の端点である。また、点Jは、線分210の端点のうち、ユーザ60の身体により近い方の端点である。 Figures 11(a) and (b) show different examples of calculation methods for keystroke depth. In Figure 11(a), the keystroke depth is represented by the size of the angle between line segment 200 and line segment 210. Meanwhile, in Figure 11(b), the keystroke depth is represented by the length of line IJ. Point I is the end point of line segment 200 that is closer to the body of user 60. Point J is the end point of line segment 210 that is closer to the body of user 60.

なお、打鍵の深さについても、ワールド座標系上の値が利用されてもよい。例えば演奏評価装置2000は、画像座標系における線分200と線分210をワールド座標系における線分に変換し、これらの線分の成す角の大きさや端点間の距離を、打鍵の深さの項目値として利用する。また、利用する点は端点には限定されず、相似の関係に基づき、線分200と線分210の任意の点を利用してもよい。 Note that values in the world coordinate system may also be used for the keystroke depth. For example, the performance evaluation device 2000 converts the line segments 200 and 210 in the image coordinate system into line segments in the world coordinate system, and uses the size of the angle between these line segments and the distance between their endpoints as item values for the keystroke depth. Furthermore, the points used are not limited to the endpoints, and any point on the line segments 200 and 210 may be used based on the similarity relationship.

<演奏評価装置2000の利用態様の例>
演奏評価装置2000の理解を容易にするため、演奏評価装置2000の利用態様を例示する。なお、ここで説明する利用態様は例示であり、演奏評価装置2000の具体的な利用態様はここで説明する例に限定されない。例えば、演奏データからその項目値を算出可能な評価項目のみを扱う場合には、カメラ10が利用されなくてもよい。
<Examples of Usage of the Performance Evaluation Device 2000>
To facilitate understanding of the performance evaluation device 2000, an example of how the performance evaluation device 2000 is used will be described. Note that the usage described here is merely an example, and the specific usage of the performance evaluation device 2000 is not limited to the example described here. For example, when dealing with only evaluation items whose item values can be calculated from performance data, the camera 10 does not need to be used.

図12は、演奏評価装置2000の利用態様を例示する図である。図12(a)において、演奏評価装置2000は、ユーザ60によって操作される携帯端末(ユーザ端末62)で実現されている。例えば前述した、演奏評価装置2000の各機能構成部を実現するためのプログラムをユーザ端末62にインストールすることにより、ユーザ端末62で演奏評価装置2000を実現することが考えられる。 Fig. 12 is a diagram illustrating an example of how the performance evaluation device 2000 can be used. In Fig. 12(a), the performance evaluation device 2000 is realized by a mobile terminal (user terminal 62) operated by a user 60. For example, it is conceivable that the performance evaluation device 2000 can be realized by the user terminal 62 by installing a program for realizing each of the functional components of the performance evaluation device 2000 described above into the user terminal 62.

ユーザ端末62は、ユーザ60が対象楽器70を演奏している様子を左から撮影するカメラ10と、ユーザ60が対象楽器70を演奏している様子を右から撮影するカメラ10のそれぞれから、ビデオデータ20を取得する。また、ユーザ端末62は、対象楽器70から演奏データ72を取得する。前述したように、演奏データ72は MIDI(登録商標)データなどである。そして、ユーザ端末62は、取得したビデオデータ20と演奏データ72を解析することでユーザ演奏情報50を生成し、そのユーザ演奏情報50を基準情報40と比較することで、評価情報30を生成する。 The user terminal 62 acquires video data 20 from the camera 10 that captures the user 60 playing the target instrument 70 from the left, and from the camera 10 that captures the user 60 playing the target instrument 70 from the right. The user terminal 62 also acquires performance data 72 from the target instrument 70. As described above, the performance data 72 is MIDI (registered trademark) data or the like. The user terminal 62 then generates user performance information 50 by analyzing the acquired video data 20 and performance data 72, and generates evaluation information 30 by comparing the user performance information 50 with reference information 40.

一方、図12(b)において、演奏評価装置2000は、ユーザ端末62からのリクエストを受け付けて動作するサーバマシン80で実現されている。この利用態様において、ユーザ端末62は、演奏評価装置2000を利用するためのインタフェースとして利用される。具体的には、ユーザ端末62は、2つのカメラ10からビデオデータ20を取得する。また、ユーザ端末62は、対象楽器70から演奏データ72を取得する。そして、ユーザ端末62からサーバマシン80に対し、ビデオデータ20と演奏データ72が送信される。例えばビデオデータ20と演奏データ72は、ユーザ60の演奏の評価を依頼するリクエストに添付される。サーバマシン80は、取得したビデオデータ20と演奏データ72を解析してユーザ演奏情報50を生成し、そのユーザ演奏情報50を基準情報40と比較することで、評価情報30を生成する。そして、サーバマシン80は、評価情報30を含むレスポンスをユーザ端末62に送信する。 On the other hand, in FIG. 12(b), the performance evaluation device 2000 is realized by a server machine 80 that operates upon receiving a request from a user terminal 62. In this usage mode, the user terminal 62 is used as an interface for using the performance evaluation device 2000. Specifically, the user terminal 62 acquires video data 20 from the two cameras 10. The user terminal 62 also acquires performance data 72 from the target instrument 70. The video data 20 and performance data 72 are then transmitted from the user terminal 62 to the server machine 80. For example, the video data 20 and performance data 72 are attached to a request for an evaluation of the performance of the user 60. The server machine 80 analyzes the acquired video data 20 and performance data 72 to generate user performance information 50, and generates evaluation information 30 by comparing the user performance information 50 with the reference information 40. The server machine 80 then transmits a response including the evaluation information 30 to the user terminal 62.

<処理の流れ>
図13は、実施形態1の演奏評価装置2000によって実行される処理の流れを例示するフローチャートである。テンポ情報取得部2020はテンポ情報100を取得する(S102)。評価部2040は、テンポ情報100に示されている指定テンポに対応する基準情報40を取得する(S104)。評価部2040は、ユーザ演奏情報50を取得する(S106)。評価部2040は、基準情報40とユーザ演奏情報50を利用して評価情報30を生成する(S108)。
<Processing flow>
13 is a flow chart illustrating the flow of processing executed by the performance evaluation device 2000 of the first embodiment. The tempo information acquisition unit 2020 acquires the tempo information 100 (S102). The evaluation unit 2040 acquires the reference information 40 corresponding to the designated tempo indicated in the tempo information 100 (S104). The evaluation unit 2040 acquires the user performance information 50 (S106). The evaluation unit 2040 generates the evaluation information 30 using the reference information 40 and the user performance information 50 (S108).

なお、演奏評価装置2000によって実行される処理の流れは図13に示したものに限定されない。例えば、ユーザ演奏情報50の取得(S106)は、テンポ情報100の取得(S102)や基準情報40の取得(S104)よりも前に実行されてもよい。また、これらの処理が並行して行われてもよい。 The process flow executed by the performance evaluation device 2000 is not limited to that shown in FIG. 13. For example, the acquisition of the user performance information 50 (S106) may be executed before the acquisition of the tempo information 100 (S102) or the acquisition of the reference information 40 (S104). Furthermore, these processes may be executed in parallel.

<テンポ情報100の取得:S102>
テンポ情報取得部2020はテンポ情報100を取得する。例えばテンポ情報100は、ユーザ入力に応じて取得される。すなわち、テンポ情報取得部2020は、ユーザ入力によって指定されたテンポを特定可能なテンポ情報100を取得する。
<Acquisition of tempo information 100: S102>
The tempo information acquisition unit 2020 acquires tempo information 100. For example, the tempo information 100 is acquired in response to a user input. That is, the tempo information acquisition unit 2020 acquires tempo information 100 that can identify the tempo specified by the user input.

この場合、例えばテンポ情報取得部2020は、指定テンポを入力するための画面(以下、テンポ指定画面)が、ユーザによって操作可能な端末のディスプレイ装置に表示されるようにする。例えばこのディスプレイ装置は、演奏評価装置2000の機能を実現するアプリケーションがインストールされているコンピュータ(ユーザ端末62や対象楽器70など)に設けられているタッチパネルディスプレイに表示される。なお、指定テンポの指定を行うユーザは任意の人物でよく、演奏者であるユーザ60でなくてもよい。テンポ情報取得部2020は、当該画面に対するユーザ入力の結果を示す情報を、テンポ情報100として取得する。 In this case, for example, the tempo information acquisition unit 2020 causes a screen for inputting the designated tempo (hereinafter, the tempo designation screen) to be displayed on a display device of a terminal that can be operated by the user. For example, this display device is displayed on a touch panel display provided on a computer (such as the user terminal 62 or the target instrument 70) on which an application that realizes the functions of the performance evaluation device 2000 is installed. Note that the user who designates the designated tempo may be any person and does not have to be the user 60 who is the performer. The tempo information acquisition unit 2020 acquires information indicating the result of the user's input on the screen as tempo information 100.

図14は、テンポ指定画面90を例示する図である。図14(a)の例において、ユーザは、具体的な数値を入力することで、指定テンポを入力する。この場合、テンポ情報100は、ユーザによって入力された具体的な数値(すなわち、指定テンポを表す具体的な数値)を示す。そのため、テンポ情報取得部2020は、テンポ情報100に示されている値を、指定テンポとして特定する。 FIG. 14 is a diagram illustrating an example of a tempo designation screen 90. In the example of FIG. 14(a), the user inputs the designated tempo by inputting a specific numerical value. In this case, the tempo information 100 indicates the specific numerical value input by the user (i.e., the specific numerical value representing the designated tempo). Therefore, the tempo information acquisition unit 2020 identifies the value indicated in the tempo information 100 as the designated tempo.

一方、図14(b)の例では、指定テンポの複数の選択肢が表示されており、この中から1つを選択することにより、指定テンポの入力が行われる。具体的には、図14(b)では、「通常」、「やや遅い」、及び「遅い」の3通りのテンポのうちの1つを選択することができる。この場合、テンポ情報100は、指定テンポを特定可能な情報として、ユーザによって選択された選択肢を示す。テンポ情報取得部2020は、テンポ情報100に示されている情報に基づいて、指定テンポを特定する。 On the other hand, in the example of FIG. 14(b), multiple options for the designated tempo are displayed, and the designated tempo is input by selecting one of them. Specifically, in FIG. 14(b), one of three tempos, "normal", "slightly slow", and "slow", can be selected. In this case, tempo information 100 indicates the option selected by the user as information that can identify the designated tempo. The tempo information acquisition unit 2020 identifies the designated tempo based on the information indicated in the tempo information 100.

例えばテンポ情報取得部2020は、対象楽曲に対応する通常テンポを特定し、当該通常テンポとテンポ情報100に示されている選択肢とに基づいて、指定テンポを特定する。なお、対象楽曲に対応する通常テンポは、例えば、対象楽曲の識別情報に対応づけて、演奏評価装置2000からアクセス可能な記憶装置に予め格納しておく。また、「やや遅い」などといった相対的なテンポについては、通常のテンポに対する比率を予め定めておく。 For example, the tempo information acquisition unit 2020 identifies a normal tempo corresponding to the target song, and identifies a specified tempo based on the normal tempo and the options shown in the tempo information 100. Note that the normal tempo corresponding to the target song is stored in advance in a storage device accessible from the performance evaluation device 2000, for example, in association with the identification information of the target song. In addition, for relative tempos such as "slightly slow," a ratio to the normal tempo is determined in advance.

例えば図14(b)において、「やや遅い」が通常のテンポの 2/3 のテンポであり、「遅い」が通常のテンポの 1/2 のテンポであるとする。また、対象楽曲の通常のテンポが 120BPM(Beats Per Minute)であるとする。この場合、「やや遅い」と「遅い」に対応するテンポはそれぞれ、80BPM と 60BPM となる。そこでテンポ情報取得部2020は、「通常」が選択された場合には 120BPM を指定テンポとして特定し、「やや遅い」が選択された場合には 80BPM を指定テンポとして特定し、「遅い」が選択された場合には 60BPM を指定テンポとして特定する。 For example, in FIG. 14(b), "slightly slow" is 2/3 the normal tempo, and "slow" is 1/2 the normal tempo. Also, assume that the normal tempo of the target song is 120 BPM (Beats Per Minute). In this case, the tempos corresponding to "slightly slow" and "slow" are 80 BPM and 60 BPM, respectively. Therefore, the tempo information acquisition unit 2020 specifies 120 BPM as the designated tempo when "normal" is selected, specifies 80 BPM as the designated tempo when "slightly slow" is selected, and specifies 60 BPM as the designated tempo when "slow" is selected.

なお、テンポ情報取得部2020は、図14(b)のテンポ指定画面90に、各選択肢に対応する具体的なテンポの値(例えば前述した 120BPM、80BPM、及び 60BPM)を含めてもよい。この場合、テンポ情報取得部2020は、テンポ指定画面90を生成する前に、対象楽曲の通常のテンポを特定する。また、テンポ情報取得部2020は、対象楽曲の通常のテンポに基づいて、各選択肢に対応するテンポを特定する。 The tempo information acquisition unit 2020 may include specific tempo values (e.g., the above-mentioned 120 BPM, 80 BPM, and 60 BPM) corresponding to each option in the tempo designation screen 90 of FIG. 14(b). In this case, the tempo information acquisition unit 2020 identifies the normal tempo of the target song before generating the tempo designation screen 90. The tempo information acquisition unit 2020 also identifies the tempo corresponding to each option based on the normal tempo of the target song.

<基準情報40の取得:S104>
評価部2040は基準情報40を取得する(S104)。基準情報40は、所定の楽曲に関し、各評価項目について基準となる項目値を示す情報である。基準となる項目値とは、例えば、講師などの上級者による演奏を解析することで得られる、理想的な項目値である。以下、基準情報40の生成のために演奏を行う人物を、模範演奏者と呼ぶ。基準情報40は、評価可能な楽曲それぞれについて予め生成され、演奏評価装置2000からアクセス可能な記憶装置に格納されている。
<Acquisition of Reference Information 40: S104>
The evaluation unit 2040 acquires the reference information 40 (S104). The reference information 40 is information indicating reference item values for each evaluation item for a given piece of music. The reference item values are ideal item values obtained, for example, by analyzing the performance of an advanced player such as a lecturer. Hereinafter, the person who performs to generate the reference information 40 is referred to as a model performer. The reference information 40 is generated in advance for each piece of music that can be evaluated, and is stored in a storage device accessible from the performance evaluation device 2000.

基準情報40は、各評価項目の項目値を時系列で示す時系列データである。より具体的には、基準情報40は、「演奏時点、その演奏時点における演奏についての各評価項目の項目値」という組み合わせを、複数の演奏時点それぞれについて示す。基準情報40に示される各演奏時点は、例えば、少なくとも1つの音が演奏される時点である。すなわちこの場合、基準情報40は、少なくとも1つの音が演奏される各時点について、その時点における演奏がどのように行われるべきであるかの基準を示す。 The reference information 40 is time-series data that indicates the item values of each evaluation item in a time series. More specifically, the reference information 40 indicates, for each of a plurality of performance time points, a combination of "performance time point, item value of each evaluation item for the performance at that performance time point." Each performance time point indicated in the reference information 40 is, for example, a time point at which at least one note is played. That is, in this case, the reference information 40 indicates, for each time point at which at least one note is played, the standard for how the performance should be performed at that time point.

なお、演奏時点の起点(値が0の時点)は、例えば、楽曲の開始時点である。楽曲の開始時点は、例えば、当該楽曲において最初に演奏(打鍵など)が行われる時点である。以下、特に断らない限り、基準情報40に示されている演奏時点の起点は、楽曲の開始時点であるとする。 The starting point of the performance time (the point when the value is 0) is, for example, the start point of a piece of music. The start point of a piece of music is, for example, the point when the piece of music is first played (such as a keystroke). Hereinafter, unless otherwise specified, the starting point of the performance time indicated in the reference information 40 is assumed to be the start point of the piece of music.

図15は、基準情報40をテーブル形式で例示する図である。基準情報40は、演奏時点42ごとに項目情報44を有する。項目情報44は、対応する演奏時点における演奏について、評価項目46と項目値48とのペアを評価項目ごとに示す。評価項目46は、評価項目を特定する識別情報(例えば評価項目の名称)を示す。項目値48は、対応する評価項目の項目値を示す。 FIG. 15 is a diagram illustrating an example of the criteria information 40 in table format. The criteria information 40 has item information 44 for each performance time point 42. The item information 44 indicates, for each evaluation item, a pair of an evaluation item 46 and an item value 48 for the performance at the corresponding performance time point. The evaluation item 46 indicates identification information (e.g., the name of the evaluation item) that specifies the evaluation item. The item value 48 indicates the item value of the corresponding evaluation item.

ここで、各項目情報44に対応する演奏時点42は、演奏のテンポによって異なる。例えば、120BPM のテンポで時点 t1 に演奏される音は、60BPM のテンポでは時点 2*t1 に演奏されることになる。そのため、同一の楽曲であっても、指定テンポごとに利用すべき基準情報40が異なることになる。 The performance time 42 corresponding to each item of information 44 differs depending on the tempo of the performance. For example, a sound played at time t1 with a tempo of 120 BPM will be played at time 2*t1 with a tempo of 60 BPM. Therefore, even for the same piece of music, the reference information 40 to be used will differ for each specified tempo.

そこで例えば、対象楽曲ごとに、対応するテンポがそれぞれ異なる複数の基準情報40を予め用意しておく。この場合、評価部2040は、対象楽曲について用意されている複数の基準情報40の中から、指定テンポに対応する基準情報40を取得する。例えば、楽曲M1の演奏を評価する際に指定可能なテンポが 120BPM、80BPM、及び60BPM の3通りであるとする。そして、テンポ情報100に基づいて特定された指定テンポが 80BPM であったとする。この場合、評価部2040は、楽曲M1について用意されている3つの基準情報40のうち、80BPM のテンポに対応する基準情報40を取得する。 Therefore, for example, multiple pieces of reference information 40 corresponding to different tempos are prepared in advance for each target song. In this case, the evaluation unit 2040 acquires the reference information 40 corresponding to the specified tempo from the multiple pieces of reference information 40 prepared for the target song. For example, suppose that there are three tempos that can be designated when evaluating the performance of song M1: 120 BPM, 80 BPM, and 60 BPM. Also, suppose that the designated tempo identified based on the tempo information 100 is 80 BPM. In this case, the evaluation unit 2040 acquires the reference information 40 corresponding to the tempo of 80 BPM from the three pieces of reference information 40 prepared for song M1.

その他にも例えば、対象楽曲ごとに基準情報40を1つ用意しておき、指定テンポに合わせて演奏時点42の値を補正してもよい。例えば、対象楽曲ごとに、通常のテンポで演奏した場合における基準情報40が予め用意される。この場合、基準情報40には、通常のテンポを示す情報がさらに含まれる。評価部2040は、対象楽曲について取得した基準情報40が示す各演奏時点42を、テンポ情報100を用いて特定される指定テンポと基準情報40が示す通常のテンポとの比率に基づいて補正することで、通常のテンポに対応する基準情報40を、指定テンポに対応する基準情報40に変換する。こうすることで、指定テンポに対応する基準情報40を取得することができる。 Alternatively, for example, one piece of reference information 40 may be prepared for each target song, and the value of the performance time point 42 may be corrected to match the specified tempo. For example, reference information 40 for when the target song is played at the normal tempo is prepared in advance for each target song. In this case, the reference information 40 further includes information indicating the normal tempo. The evaluation unit 2040 converts the reference information 40 corresponding to the normal tempo into reference information 40 corresponding to the specified tempo by correcting each performance time point 42 indicated by the reference information 40 acquired for the target song based on the ratio between the designated tempo identified using the tempo information 100 and the normal tempo indicated by the reference information 40. In this way, it is possible to acquire the reference information 40 corresponding to the specified tempo.

例えば前述したように、120BPM のテンポで時点 t1 に演奏される音は、60BPM のテンポでは時点 2*t1 に演奏されることになる。すなわち、これを一般化すると、基準のテンポを r1[BPM] と表し、指定テンポを r2[BPM] と表せば、テンポ r1 に対応する基準情報40が示す各演奏時点を r1/r2 倍することにより、テンポ r1 に対応する基準情報40をテンポ r2 に対応する基準情報40に変換することができる。 For example, as mentioned above, a sound played at time t1 at a tempo of 120 BPM will be played at time 2*t1 at a tempo of 60 BPM. In other words, if we generalize this and express the reference tempo as r1 [BPM] and the specified tempo as r2 [BPM], then by multiplying each performance time point indicated by the reference information 40 corresponding to tempo r1 by r1/r2, the reference information 40 corresponding to tempo r1 can be converted to the reference information 40 corresponding to tempo r2.

なお、このように基準情報40を補正することで指定テンポに対応する基準情報40を得る場合においても、対象楽曲ごとに、テンポがそれぞれ異なる複数の基準情報40が用意されてもよい。この場合、例えば評価部2040は、指定テンポに対応する基準情報40が予め用意されていれば、その基準情報40を利用する。一方、指定テンポに対応する基準情報40が予め用意されていない場合、評価部2040は、複数の基準情報40の中から、指定テンポに最も近いテンポに対応する基準情報40を特定し、当該基準情報40に対して上述した補正をすることにより、指定テンポに対応する基準情報40を生成する。このように、指定テンポにより近いテンポに対応する基準情報40を補正するようにすることで、補正によって生じうる誤差をできる限り小さくすることができる。 Note that even when obtaining reference information 40 corresponding to the specified tempo by correcting the reference information 40 in this manner, multiple pieces of reference information 40 with different tempos may be prepared for each target song. In this case, for example, if reference information 40 corresponding to the specified tempo is prepared in advance, the evaluation unit 2040 uses that reference information 40. On the other hand, if reference information 40 corresponding to the specified tempo is not prepared in advance, the evaluation unit 2040 identifies, from the multiple pieces of reference information 40, the reference information 40 corresponding to the tempo closest to the specified tempo, and performs the above-mentioned correction on that reference information 40 to generate reference information 40 corresponding to the specified tempo. In this way, by correcting the reference information 40 corresponding to the tempo closest to the specified tempo, it is possible to minimize errors that may occur due to the correction.

例えば楽曲M1について、60BPM に対応する基準情報40と 120BPMに対応する基準情報40の2つが予め用意されているとする。また、100BPM というテンポが指定されたとする。この場合、評価部2040は、指定テンポにより近い 120BPM に対応する基準情報40を補正することで、100BPM に対応する基準情報40を生成する。なお、テンポの近さは、対比するテンポの比率で特定することが好適である。例えば上述の例の場合、60BPM と 100BPM の近さは 5/3(=100/60)となり、100BPM と 120BPM の近さは 6/5(=120/100)となる。 For example, for song M1, two pieces of reference information 40 are prepared in advance: one corresponding to 60 BPM, and the other corresponding to 120 BPM. Also, assume that a tempo of 100 BPM is specified. In this case, the evaluation unit 2040 generates reference information 40 corresponding to 100 BPM by correcting the reference information 40 corresponding to 120 BPM, which is closer to the specified tempo. Note that it is preferable to specify the closeness of the tempos by the ratio of the contrasting tempos. For example, in the above example, the closeness between 60 BPM and 100 BPM is 5/3 (=100/60), and the closeness between 100 BPM and 120 BPM is 6/5 (=120/100).

<<対象楽曲の特定>>
ここで、対象楽曲についての基準情報40を取得するためには、対象楽曲を特定する必要がある。また、前述したように、ユーザによって指定されるテンポが相対的なテンポである場合、対象楽曲の通常のテンポを把握する必要があるため、対象楽曲の特定が必要となる。そこで演奏評価装置2000は、対象楽曲の特定を行う。
<<Identifying target songs>>
Here, in order to obtain the reference information 40 about the target piece of music, it is necessary to identify the target piece of music. Furthermore, as described above, if the tempo specified by the user is a relative tempo, it is necessary to know the normal tempo of the target piece of music, and therefore it is necessary to identify the target piece of music. Therefore, the performance evaluation device 2000 identifies the target piece of music.

演奏評価装置2000が対象楽曲を特定する方法は様々である。例えば演奏評価装置2000は、対象楽曲を指定するユーザ入力を受け付ける。なお、対象楽曲の指定を行うユーザは任意の人物でよく、演奏者であるユーザ60でなくてもよい。 There are various methods by which the performance evaluation device 2000 identifies the target song. For example, the performance evaluation device 2000 accepts a user input specifying the target song. Note that the user who specifies the target song may be any person, and does not have to be the user 60 who is the performer.

図16は、対象楽曲を指定する指定画面(楽曲指定画面300)を例示する図である。楽曲指定画面300は、テンポ指定画面90と同様に、ユーザによって操作可能な端末のディスプレイ装置に表示される。楽曲指定画面300は、検索エリア310、楽曲選択エリア320、及び評価範囲指定エリア330を含む。検索エリア310は、曲名や属性(ジャンルなど)などの検索ワードを用いて、対象楽曲を検索するための入力インタフェースである。 Figure 16 is a diagram illustrating a designation screen (song designation screen 300) for designating a target song. Like the tempo designation screen 90, the song designation screen 300 is displayed on a display device of a terminal that can be operated by the user. The song designation screen 300 includes a search area 310, a song selection area 320, and an evaluation range designation area 330. The search area 310 is an input interface for searching for a target song using search words such as the song title or attributes (genre, etc.).

なお、対象楽曲の検索は、検索ワードを用いた検索に限定されない。例えば評価部2040は、対象楽曲の音声データを取得し、音声データで楽曲のデータベースを検索することで、対象楽曲を特定してもよい。 The search for the target song is not limited to a search using a search word. For example, the evaluation unit 2040 may identify the target song by acquiring audio data of the target song and searching a song database using the audio data.

検索の結果は、楽曲選択エリア320に表示される。ユーザは、楽曲選択エリア320に表示された楽曲のうちの1つを選択することで、対象楽曲を指定する。図16の例では、「楽曲F」という楽曲が選択されている。なお、検索が行われる前において、楽曲選択エリア320には、候補の楽曲が表示されてもよいし、表示されなくてもよい。前者の場合、例えば楽曲選択エリア320には、対象楽曲として選択可能な全ての楽曲が表示される。その他にも例えば、楽曲選択エリア320には、対象楽曲として選択されたことがある楽曲のリスト(すなわち、これまでの履歴)が表示されるようにしてもよい。 The search results are displayed in the song selection area 320. The user specifies the target song by selecting one of the songs displayed in the song selection area 320. In the example of FIG. 16, the song "Song F" is selected. Note that before the search is performed, candidate songs may or may not be displayed in the song selection area 320. In the former case, for example, the song selection area 320 displays all songs that can be selected as target songs. Alternatively, for example, the song selection area 320 may display a list of songs that have been selected as target songs (i.e., the history to date).

評価範囲指定エリア330は、楽曲の一部のみを評価の対象としたい場合に利用される。この例では、開始位置と終了位置の双方を指定することができる。以下、評価対象として選択される楽曲の一部を、「評価範囲」と呼ぶ。 The evaluation range designation area 330 is used when it is desired to evaluate only a portion of a song. In this example, both the start and end positions can be specified. Hereinafter, the portion of the song selected to be evaluated is referred to as the "evaluation range."

評価範囲を指定する具体的な方法は様々である。例えば、楽曲を予め複数のセクション(イントロやサビなど)に分割しておき、ユーザ入力で1つ以上のセクションを評価範囲として指定できるようにする。このように評価範囲をセクション単位で指定できるようにする場合、基準情報40には、各項目情報44がどのセクションに含まれるのかを特定できる情報が含まれる。例えば、基準情報40は、対応する楽曲に含まれる全てのセクションそれぞれについて、「セクションの名称、そのセクションの開始時点、そのセクションの終了時点」という情報をさらに含む。そして、評価範囲がセクション単位で指定された場合、評価部2040は、対象楽曲の基準情報40に含まれる項目情報44のうち、評価範囲の最初のセクションの開始時点から、評価範囲の最後のセクションの終了時点の範囲に含まれる各項目情報44を、評価に利用する。 There are various specific methods for specifying the evaluation range. For example, a song is divided into multiple sections (such as an intro and a chorus) in advance, and one or more sections can be specified as the evaluation range by user input. When the evaluation range can be specified on a section-by-section basis in this way, the reference information 40 includes information that can identify which section each piece of item information 44 is included in. For example, the reference information 40 further includes information such as "the name of the section, the start time of the section, and the end time of the section" for each of all sections included in the corresponding song. Then, when the evaluation range is specified on a section-by-section basis, the evaluation unit 2040 uses, for the evaluation, each piece of item information 44 included in the reference information 40 of the target song that is included in the range from the start time of the first section of the evaluation range to the end time of the last section of the evaluation range.

評価範囲を指定する方法は、セクションを指定する方法に限定されない。例えば、評価範囲は、小節単位で指定されてもよい。このように小節単位で評価範囲を指定する場合、基準情報40には、各項目情報44がどの小節に含まれるかを特定可能な情報が含まれる。例えば基準情報40は、対応する楽曲に含まれる全ての小節それぞれについて、「小節番号、その小節の開始時点、その小節の終了時点」という情報をさらに含む。そして、評価範囲が小節単位で指定された場合、評価部2040は、対象楽曲の基準情報40に含まれる項目情報44のうち、評価範囲の最初の小節の開始時点から、評価範囲の最後の小節の終了時点の範囲に含まれる各項目情報44を、評価に利用する。 The method of specifying the evaluation range is not limited to the method of specifying a section. For example, the evaluation range may be specified on a measure-by-measure basis. When the evaluation range is specified on a measure-by-measure basis in this way, the reference information 40 includes information that can identify which measure each item information 44 is included in. For example, the reference information 40 further includes information such as "measure number, start time of the measure, and end time of the measure" for each of all measures included in the corresponding song. Then, when the evaluation range is specified on a measure-by-measure basis, the evaluation unit 2040 uses, for the evaluation, each item information 44 included in the reference information 40 of the target song that is included in the range from the start time of the first measure of the evaluation range to the end time of the last measure of the evaluation range.

ただし、小節の長さが一定である楽曲の場合、1つの小節の長さが分かれば、小節番号から時間への変換が可能である。そのため、小節の長さが一定である楽曲を扱う場合には、各小節の時間範囲ではなく、1つの小節の長さを基準情報40に含めてもよい。この場合、評価部2040は、基準情報40が示す1つの小節の長さを用いて、評価範囲の最初の小節の開始時点と、評価範囲の最後の小節の終了時間を算出する。そして、評価部2040は、当該開始時点から終了時点までの範囲に演奏時点42が含まれる項目情報44を、評価範囲に含まれる項目情報44として特定して、評価に利用する。 However, for music in which the measures are of constant length, it is possible to convert the measure number into time if the length of one measure is known. Therefore, when dealing with music in which the measures are of constant length, the length of one measure may be included in the reference information 40, rather than the time range of each measure. In this case, the evaluation unit 2040 uses the length of one measure indicated by the reference information 40 to calculate the start time of the first measure in the evaluation range and the end time of the last measure in the evaluation range. The evaluation unit 2040 then identifies item information 44 whose performance time 42 falls within the range from the start time to the end time as item information 44 included in the evaluation range, and uses this for the evaluation.

なお、このように対象楽曲の一部のみが評価対象となる場合において、指定テンポに対応する基準情報40を得るために、予め用意されている基準情報40の補正が行われるとする。この場合、評価部2040は、基準情報40の全体ではなく、評価範囲に対応する部分のみを補正すればよい。 In this case where only a portion of the target song is evaluated, the previously prepared reference information 40 is corrected to obtain reference information 40 that corresponds to the specified tempo. In this case, the evaluation unit 2040 does not need to correct the entire reference information 40, but only the portion that corresponds to the evaluation range.

楽曲指定画面300は、さらに、評価に関する種々の条件を指定可能な入力インタフェースを含んでいてもよい。例えば評価の条件としては、ユーザ60の年齢層が挙げられる。ユーザ60の年齢層は、例えば、「大人」と「子供」のいずれか一方である。また、「幼児」や「小学生」などのように、さらに詳細な指定が可能であってもよい。このようにユーザ60の年齢層を指定可能とする場合、年齢層ごとに基準情報40を用意することが好適である。これは、演奏者の年齢層に応じて手の大きさが異なり、その差異が評価値に影響を与えるためである。 The song selection screen 300 may further include an input interface that allows various conditions related to the evaluation to be specified. For example, an evaluation condition may be the age group of the user 60. The age group of the user 60 may be, for example, either "adult" or "child". In addition, more detailed specifications may be possible, such as "toddler" or "elementary school student". When the age group of the user 60 can be specified in this way, it is preferable to prepare reference information 40 for each age group. This is because the hand size differs depending on the age group of the performer, and this difference affects the evaluation value.

評価の条件の他の例としては、楽器の種類が挙げられる。例えば楽器の種類は、「アコースティックピアノ」、「電子ピアノ」、「パイプオルガン」、「電子オルガン」、又は「シンセサイザー」などである。このように楽器の種類を指定可能とする場合、楽器の種類ごとに基準情報40を用意することが好適である。これは、楽器の種類によって鍵盤の堅さ(打鍵に必要な力)が異なり、その差異が評価値に影響を与えるためである。 Another example of an evaluation condition is the type of instrument. For example, the types of instruments may be "acoustic piano," "electronic piano," "pipe organ," "electronic organ," or "synthesizer." When the type of instrument can be specified in this way, it is preferable to prepare reference information 40 for each type of instrument. This is because the hardness of the keys (the force required to strike the keys) differs depending on the type of instrument, and this difference affects the evaluation value.

なお、評価の条件を指定するための入力インタフェースは、楽曲指定画面300とは別の画面として提供されてもよい。 The input interface for specifying the evaluation conditions may be provided as a screen separate from the song selection screen 300.

また、楽曲指定画面300とテンポ指定画面90が一つの画面に統合されてもよい。すなわち、楽曲指定画面300の中にテンポを指定するエリアが含まれてもよい。 In addition, the music selection screen 300 and the tempo selection screen 90 may be integrated into a single screen. In other words, the music selection screen 300 may include an area for specifying the tempo.

<<基準情報40の生成方法>>
例えば基準情報40は、模範演奏者による演奏が記録されたビデオデータ20や演奏データ72を解析することで生成することができる。ここで、基準情報40の生成を行う装置を、基準情報生成装置と呼ぶ。基準情報生成装置は、演奏評価装置2000と同一のコンピュータで実現されてもよいし、異なるコンピュータで実現されてもよい。
<<Method of generating reference information 40>>
For example, the reference information 40 can be generated by analyzing the video data 20 in which a performance by a model performer is recorded, or the performance data 72. Here, a device that generates the reference information 40 is called a reference information generating device. The reference information generating device may be realized by the same computer as the performance evaluation device 2000, or may be realized by a different computer.

基準情報40を生成するための模範演奏を行う場合、模範演奏者は、演奏のテンポを指定する入力を行う。基準情報生成装置は、生成する基準情報40に、指定されたテンポを示す情報を含める。 When performing a model performance to generate reference information 40, the model performer inputs information specifying the tempo of the performance. The reference information generating device includes information indicating the specified tempo in the reference information 40 that it generates.

手や指の形など、視覚的な情報を用いて評価可能な評価項目についての基準情報40を生成する場合、基準情報生成装置は、ビデオデータ20を利用して基準情報40を生成する。具体的には、基準情報生成装置は、模範演奏者によって行われた演奏が記録されたビデオデータ20を取得し、当該ビデオデータ20に含まれるビデオフレーム22から、打鍵が行われたビデオフレーム22をそれぞれ抽出する。さらに、基準情報生成装置は、抽出されたビデオフレーム22を解析して、各評価項目についての項目値を算出する。そして、基準情報生成装置は、抽出された各ビデオフレーム22について、当該ビデオフレーム22に対応する演奏時点と、当該ビデオフレーム22から得られた項目情報(「評価項目、項目値」の複数のペア)とを対応づけることにより、基準情報40を生成する。 When generating reference information 40 for evaluation items that can be evaluated using visual information such as the shape of hands and fingers, the reference information generating device generates the reference information 40 using video data 20. Specifically, the reference information generating device acquires video data 20 in which a performance performed by a model performer is recorded, and extracts each of the video frames 22 in which a keystroke is performed from the video frames 22 included in the video data 20. Furthermore, the reference information generating device analyzes the extracted video frames 22 to calculate item values for each evaluation item. Then, for each extracted video frame 22, the reference information generating device generates the reference information 40 by associating the performance time point corresponding to the video frame 22 with the item information obtained from the video frame 22 (multiple pairs of "evaluation item, item value").

ビデオフレーム22から各評価項目の項目値を算出するために、基準情報生成装置は、ビデオフレーム22に対して画像解析を行う。具体的には、基準情報生成装置は、各評価項目の項目値を算出するために必要な情報をビデオフレーム22から抽出する。さらに基準情報生成装置は、抽出した情報を用いて、各評価項目の項目値を算出する。そして、基準情報生成装置は、各ビデオフレーム22について、そのビデオフレーム22に対応する演奏時点と、そのビデオフレーム22を用いて各評価項目について算出した項目値との組み合わせを示すユーザ演奏情報50を生成する。 To calculate the item value of each evaluation item from the video frame 22, the reference information generating device performs image analysis on the video frame 22. Specifically, the reference information generating device extracts information necessary to calculate the item value of each evaluation item from the video frame 22. The reference information generating device further calculates the item value of each evaluation item using the extracted information. Then, for each video frame 22, the reference information generating device generates user performance information 50 indicating a combination of the performance time point corresponding to that video frame 22 and the item value calculated for each evaluation item using that video frame 22.

ビデオフレーム22から各評価項目の項目値を算出する方法には、図6から図11を用いて前述した種々の方法を利用できる。項目値の算出に必要な情報は、例えば、各指の指関節の位置、各手の手首の位置、前述した種々の基準線、腕の姿勢を表す直線又は手の上面の姿勢を表す直線などである。 The various methods described above with reference to Figures 6 to 11 can be used to calculate the item values of each evaluation item from the video frame 22. Information required to calculate the item values includes, for example, the positions of the knuckles of each finger, the wrist positions of each hand, the various reference lines described above, a line representing the posture of the arm, or a line representing the posture of the top surface of the hand.

例えば指関節の高さを算出する場合、基準情報生成装置は、ビデオフレーム22から、各指関節を検出し、その位置を特定する。また、基準情報生成装置は、各指が置かれているキーを検出し、そのキーに基づいて前述した基準線を特定する。そして、基準情報生成装置は、特定した指関節の位置と基準線に基づき、指関節の高さを算出する。 For example, when calculating the height of finger joints, the reference information generating device detects each finger joint from the video frame 22 and identifies its position. The reference information generating device also detects the key on which each finger is placed and identifies the aforementioned reference line based on that key. The reference information generating device then calculates the height of the finger joints based on the identified finger joint positions and reference line.

関節線間の角の大きさを算出する場合、基準情報生成装置は、ビデオフレーム22から、各指関節を検出し、その位置を特定する。そして、これらの指関節の位置から定めることができる複数の関節線について、互いに共通の指関節を持つ2つの関節線のペアごとに、関節線間の成す角の大きさを算出する。 When calculating the size of the angle between joint lines, the reference information generating device detects each finger joint from the video frame 22 and identifies its position. Then, for multiple joint lines that can be determined from the positions of these finger joints, the device calculates the size of the angle between each pair of two joint lines that share a common finger joint.

手首の高さを算出する場合、基準情報生成装置は、ビデオフレーム22から、手首の位置を表す関節を検出し、その位置を特定する。また、基準情報生成装置は、基準線を定めるための手が置かれているキーを特定することで、基準線を特定する。そして、基準情報生成装置は、特定した手首の位置と基準線に基づいて、手首の高さを算出する。 When calculating the wrist height, the reference information generating device detects the joint that represents the wrist position from the video frame 22 and identifies its position. The reference information generating device also identifies the key on which the hand is placed to determine the reference line, thereby identifying the reference line. The reference information generating device then calculates the wrist height based on the identified wrist position and reference line.

手上面の高さを算出する場合、基準情報生成装置は、ビデオフレーム22から、手上面の位置(例えば、中指の第3関節点の位置)を特定する。また、基準情報生成装置は、基準線の特定を行う。基準線の特定方法は、手首の高さを算出するケースと同様とすることができる。そして、基準情報生成装置は、特定した手上面の位置と基準線に基づいて、手上面の高さを算出する。 When calculating the height of the upper surface of the hand, the reference information generating device identifies the position of the upper surface of the hand (e.g., the position of the third joint point of the middle finger) from the video frame 22. The reference information generating device also identifies a reference line. The method of identifying the reference line can be the same as in the case of calculating the height of the wrist. The reference information generating device then calculates the height of the upper surface of the hand based on the identified position of the upper surface of the hand and the reference line.

手首の角度を算出する場合、基準情報生成装置は、ビデオフレーム22から、手と腕を検出して、手の上面の姿勢を表す直線と、腕の姿勢を表す直線を特定する。そして、基準情報生成装置は、これらの直線を用いて、手首の角度を算出する。 When calculating the wrist angle, the reference information generating device detects the hand and arm from the video frame 22 and identifies a straight line representing the posture of the top surface of the hand and a straight line representing the posture of the arm. The reference information generating device then uses these straight lines to calculate the wrist angle.

打鍵の深さを算出する場合、基準情報生成装置は、ビデオフレーム22から、打鍵されているキーを検出する。そして、基準情報生成装置は、検出した各キーに関し、打鍵されている状態と通常時のそれぞれについて、キーの上面の長辺のうち、カメラ10から遠い方の長辺を表す線分を算出する。そして、基準情報生成装置は、これらの線分を用いて、各キーの打鍵の深さを算出する。なお、キーの通常時についての情報は、そのキーが打鍵されていないタイミングのビデオフレーム22において、そのキーの上辺の線分から得るか、又はそのキーが打鍵されているタイミングのビデオフレーム22において、そのキーの隣のキーであってカメラ10から遠い方のキーの上辺の線分から得ることができる。 When calculating the keystroke depth, the reference information generating device detects the key being pressed from the video frame 22. Then, for each detected key, the reference information generating device calculates a line segment representing the long side of the top surface of the key that is farther from the camera 10 in both the pressed state and the normal state. The reference information generating device then uses these line segments to calculate the keystroke depth of each key. Note that information about the normal state of a key can be obtained from the line segment on the top side of the key in the video frame 22 when the key is not pressed, or from the line segment on the top side of the key next to the key that is farther from the camera 10 in the video frame 22 when the key is pressed.

なお、前述したように、各項目値の算出には、ワールド座標系を利用してもよい。この場合、基準情報生成装置は、前述したように、ビデオフレーム22から検出した情報(指関節の位置など)をワールド座標系上の情報に変換した上で、項目値の算出を行う。 As described above, the world coordinate system may be used to calculate each item value. In this case, the reference information generating device converts the information detected from the video frame 22 (such as the position of the finger joints) into information in the world coordinate system, as described above, and then calculates the item value.

指使いも、ビデオデータ20を利用して特定される。具体的には、基準情報生成装置は、ビデオフレーム22から、打鍵されたキーと、そのキーを打鍵した指を検出し、その検出結果に基づいて基準情報40を生成する。演奏時点42は、上記ビデオフレーム22に対応する演奏時点を示す。評価項目46は、「指使い」という評価項目の名称と、検出されたキーに対応する音の識別情報とを示す。項目値48は、検出された指の識別情報を示す。 Fingering is also identified using the video data 20. Specifically, the reference information generating device detects the pressed key and the finger that pressed that key from the video frame 22, and generates reference information 40 based on the detection results. Performance time 42 indicates the performance time corresponding to the video frame 22. Evaluation item 46 indicates the name of the evaluation item "fingering" and the identification information of the note corresponding to the detected key. Item value 48 indicates the identification information of the detected finger.

なお、打鍵されたキーをビデオフレーム22から特定できるようにするためには、例えば事前に、キーの識別情報と、ビデオフレーム22上においてそのキーを表す画像領域の位置との対応付けを表す情報を作成しておく。この情報を参照することにより、打鍵されたキーのビデオフレーム22上の位置から、そのキーの識別情報を特定することができる。 In order to be able to identify the pressed key from the video frame 22, for example, information is created in advance that represents the correspondence between the identification information of the key and the position of the image area representing that key on the video frame 22. By referring to this information, it is possible to identify the identification information of the pressed key from the position of that key on the video frame 22.

ここで、ビデオフレーム22を利用して基準情報40を生成するためには、そのビデオフレーム22に対応する演奏時点を特定する必要がある。例えば前述したように、演奏時点が、対象楽曲において最初に演奏(打鍵)が行われる時点を基準とする相対的な時点で表されるとする。この場合、例えば基準情報生成装置は、取得したビデオデータ20に含まれるビデオフレーム22のうち、最初の演奏を表すビデオフレーム22の生成時点を、基準時点とする。他のビデオフレーム22については、基準情報生成装置は、演奏時点を特定したいビデオフレーム22の生成時点と基準時点を表すビデオフレーム22の生成時点との差分、及びカメラ10のフレームレートに基づいて、演奏時点を特定したいビデオフレーム22の生成時点を演奏時点に変換する。 Here, in order to generate reference information 40 using a video frame 22, it is necessary to identify the performance time corresponding to that video frame 22. For example, as described above, the performance time is expressed as a relative time based on the time when the first performance (keystroke) is performed in the target song. In this case, for example, the reference information generating device sets the generation time of the video frame 22 representing the first performance among the video frames 22 included in the acquired video data 20 as the reference time. For the other video frames 22, the reference information generating device converts the generation time of the video frame 22 for which the performance time is to be identified to the performance time based on the difference between the generation time of the video frame 22 for which the performance time is to be identified and the generation time of the video frame 22 representing the reference time, and the frame rate of the camera 10.

対象楽曲において最初に演奏が行われる時点を特定する方法は、最初の演奏を表すビデオフレーム22の生成時点を利用する方法に限られない。例えば、模範演奏者が対象楽曲を演奏する際、演奏開始のタイミングや演奏のテンポの把握が容易になるように、メトロノームの音が出力されるようにする。この場合、基準情報生成装置は、当該メトロノームの音に基づいて、対象楽曲の演奏時点を特定してもよい。 The method of identifying the time when the target song is first played is not limited to using the time when the video frame 22 representing the first performance is generated. For example, when the model performer plays the target song, the sound of a metronome can be output so that the timing of the start of the performance and the tempo of the performance can be easily understood. In this case, the reference information generating device can identify the time when the target song is first played based on the sound of the metronome.

例えば、対象楽曲が 4/4 拍子の曲である場合、メトロノームの音が4回鳴った後に、模範演奏者が演奏を開始するようにする。この場合、4回目のメトロノームの音が鳴った時点を ta、メトロノームの音の時間間隔を i とおけば、時点 ta+i を、最初に演奏が行われる時点として特定することができる。 For example, if the target piece is in 4/4 time, the model performer will start playing after the metronome has sounded four times. In this case, if the time when the fourth metronome sound is called ta and the time interval between the metronome sounds is called i, the time ta+i can be identified as the time when the first performance will take place.

なお、メトロノームの音は、基準情報生成装置から出力されてもよいし、それ以外(例えば、機械式のメトロノーム)から出力されてもよい。後者の場合、基準情報生成装置は、メトロノームの音が記録された音声データを利用して、メトロノームの音が鳴った時点やメトロノームの音の時間間隔などの特定を行う。 The metronome sound may be output from the reference information generating device, or from something else (e.g., a mechanical metronome). In the latter case, the reference information generating device uses audio data in which the metronome sound is recorded to determine the time when the metronome sound is generated and the time interval between metronome sounds.

音の特徴に関する評価項目についての基準情報40を生成する場合、例えば基準情報生成装置は、模範演奏者による演奏が記録された演奏データ72を利用する。演奏データ72には、演奏された各音について、演奏時点、音の識別情報、及び音の各種の特徴(強さや長さなど)を特定可能な情報が含まれる。なお、MIDI(登録商標)の用語では、音の識別情報及び音の強さはそれぞれ、「ノートナンバー」及び「ベロシティ」と呼ばれる。 When generating reference information 40 for evaluation items related to sound characteristics, for example, the reference information generating device uses performance data 72 in which a performance by a model performer is recorded. The performance data 72 includes information that can identify the time of performance, sound identification information, and various sound characteristics (strength, duration, etc.) for each sound played. In MIDI (registered trademark) terminology, sound identification information and sound strength are called "note number" and "velocity," respectively.

演奏データ72を利用して基準情報40を生成する場合、例えば基準情報生成装置は、取得した演奏データ72から、演奏された各音について、演奏時点、その音のノートナンバー、及びその音のベロシティという情報を抽出することにより、音の強さに関する基準情報40のレコードを生成することができる。同様に、基準情報生成装置は、取得した演奏データ72から、演奏された各音について、演奏時点、その音のノートナンバー、その音の長さという情報を抽出することにより、音の長さに関する基準情報40のレコードを生成することができる。 When generating reference information 40 using performance data 72, for example, the reference information generating device can generate a record of reference information 40 regarding sound intensity by extracting, from the acquired performance data 72, information about each played note, such as the playing time, the note number, and the velocity of that note. Similarly, the reference information generating device can generate a record of reference information 40 regarding sound duration by extracting, from the acquired performance data 72, information about each played note, such as the playing time, the note number, and the duration of that note.

演奏データとして MIDI(登録商標)データを利用するケースについて、さらに具体的に説明する。MIDI(登録商標)データにおいて、特定の音の出力と停止はそれぞれ、その音を鳴らすことを表すノートオンのメッセージと、その音を止めることを表すノートオフのメッセージとで表される。音の強さは、ノートオンのメッセージに示されているベロシティの値で特定することができる。一方、音の長さは、ノートオンのメッセージの演奏時点とノートオフのメッセージの演奏時点との差分で特定することができる。 A more specific explanation will be given of the case where MIDI (registered trademark) data is used as performance data. In MIDI (registered trademark) data, the output and stopping of a specific sound are represented by a note-on message, which indicates that the sound is to be played, and a note-off message, which indicates that the sound is to be stopped. The strength of the sound can be specified by the velocity value indicated in the note-on message. Meanwhile, the length of the sound can be specified by the difference between the time when the note-on message is played and the time when the note-off message is played.

その他にも例えば、基準情報生成装置は、模範演奏者による演奏が記録されたビデオデータ20を取得し、当該ビデオデータ20を利用して、音の特徴に関する基準情報40を生成してもよい。ここで、音の強さに影響を与える演奏の外見上の特徴として、打鍵の速さがある。具体的には、打鍵の速さが速いほど、音の強さは強くなる。そこで基本情報生成装置は、ビデオデータ20を解析することで、模範演奏者によって行われた各打鍵について、「打鍵時点(演奏時点)、打鍵された音の識別情報、打鍵の速さ」を特定する。これにより、演奏された各音の強さに関して、基準情報40を生成することができる。なお、演奏時点は、打鍵動作の開始時点で表されてもよいし、打鍵動作の終了時点で表されてもよい。 For another example, the reference information generating device may obtain video data 20 in which a performance by a model performer is recorded, and use the video data 20 to generate reference information 40 regarding sound characteristics. Here, one of the external characteristics of the performance that affects the sound intensity is the speed of keystrokes. Specifically, the faster the keystroke speed, the stronger the sound intensity. Thus, by analyzing the video data 20, the basic information generating device identifies the "keystroke time (performance time), identification information of the keystroke sound, and keystroke speed" for each keystroke performed by the model performer. This makes it possible to generate reference information 40 regarding the intensity of each sound played. Note that the performance time may be represented as the start or end of the keystroke action.

あるキーが押された時の打鍵の速さは、例えば、打鍵動作の開始時点 ts と打鍵動作の終了時点 te との差分の逆数 1/(te-ts) で表すことができる。打鍵動作の開始時点は、打鍵動作の開始を表すビデオフレーム22(キーが下がり始めたビデオフレーム22)の生成時点で表すことができる。同様に、打鍵動作の終了時点は、打鍵動作の終了を表すビデオフレーム22(キーが最も下まで下がったビデオフレーム22)の生成時点で表すことができる。 The speed at which a key is pressed can be expressed, for example, as the reciprocal of the difference between the start time ts of the keystroke and the end time te of the keystroke, 1/(te-ts). The start time of the keystroke can be expressed as the generation time of the video frame 22 that represents the start of the keystroke (the video frame 22 at which the key begins to move down). Similarly, the end time of the keystroke can be expressed as the generation time of the video frame 22 that represents the end of the keystroke (the video frame 22 at which the key has moved all the way down).

その他にも例えば、音の強さに影響を与える演奏の外見上の特徴として、打鍵の深さがある。具体的には、打鍵の深さが深いほど、音が大きくなる。また、楽器の種類によっては、一定量以上の深さまで打鍵しないと音が出ないものもある。そこで基本情報生成装置は、ビデオデータ20を解析することで、模範演奏者によって行われた各打鍵について、「打鍵時点(演奏時点)、打鍵された音の識別情報、打鍵の深さ」を特定する。これにより、演奏された各音の強さに関して、基準情報40を生成することができる。なお、演奏時点は、打鍵動作の開始時点で表されてもよいし、打鍵動作の終了時点で表されてもよい。また、打鍵の深さは、実施形態1の図11で説明した通り、基準線の角度や基準点間の線分の長さなどを利用して表すことができる。 Another example of an external characteristic of a performance that affects the strength of a sound is the depth of keystrokes. Specifically, the deeper the keystroke, the louder the sound. In addition, some types of musical instruments do not produce sound unless the key is struck to a certain depth. The basic information generating device analyzes the video data 20 to identify the "keystroke time (play time), identification information of the struck sound, and keystroke depth" for each keystroke performed by the model performer. This makes it possible to generate reference information 40 regarding the strength of each sound played. The play time may be represented as the start or end of the keystroke. In addition, the depth of keystrokes can be represented using the angle of the reference line and the length of the line segment between the reference points, as described in FIG. 11 of the first embodiment.

なお、音の強さに関する基準情報40には、打鍵の速さと打鍵の深さのいずれか一方のみが示されていてもよいし、双方が示されていてもよい。 Note that the reference information 40 regarding sound intensity may indicate only either the keystroke speed or the keystroke depth, or may indicate both.

ビデオデータ20を利用して音の長さを特定する場合、例えば、キーが押された時点とキーが離された時点との差分として特定することができる。そこで基準情報生成装置は、ビデオデータ20を解析することで、模範演奏者によって行われた各打鍵について、「打鍵時点(演奏時点)、打鍵された音の識別情報、キーが離された時点」を特定する。これにより、演奏された各音の長さに関して、基準情報40を生成することができる。 When the video data 20 is used to determine the length of a sound, it can be determined, for example, as the difference between the time when a key is pressed and the time when the key is released. The reference information generating device analyzes the video data 20 to determine, for each keystroke performed by the model performer, the "time when the key was pressed (time when the performance was performed), the identification information of the pressed sound, and the time when the key was released." This makes it possible to generate reference information 40 regarding the length of each sound played.

基準情報40の生成には、複数の模範演奏者それぞれの演奏から得られる情報が利用されてもよい。例えば、基準情報生成装置は、前述した流れで複数の模範演奏者それぞれについて基準情報40を生成した後、生成された複数の基準情報40に統計処理を施すことにより、演奏の評価に利用する基準情報40を生成する。例えば、複数の人物それぞれについて得られた項目値の統計値(平均値など)を利用することが考えられる。 Information obtained from the performances of multiple model performers may be used to generate the reference information 40. For example, the reference information generating device generates reference information 40 for each of multiple model performers in the manner described above, and then performs statistical processing on the multiple pieces of generated reference information 40 to generate reference information 40 to be used in evaluating the performances. For example, it is conceivable to use statistics (such as average values) of item values obtained for each of multiple people.

<ユーザ演奏情報50の取得:S106>
評価部2040はユーザ演奏情報50を取得する(S106)。ユーザ演奏情報50は、ユーザ60によって行われた対象楽曲の演奏について、複数の演奏時点それぞれに対応づけて、当該演奏時点における評価項目と項目値との組み合わせを示す。
<Acquisition of user performance information 50: S106>
The evaluation unit 2040 acquires the user performance information 50 (S106). The user performance information 50 indicates, for a performance of the target piece of music performed by the user 60, a combination of evaluation items and item values at each of a plurality of performance times, in association with each of the performance times.

図17は、ユーザ演奏情報50をテーブル形式で例示する図である。図17に示すユーザ演奏情報50の構成は、図15に示した基準情報40の構成と同様である。具体的には、ユーザ演奏情報50は、演奏時点52ごとに項目情報54を有する。項目情報54は、対応する演奏時点における演奏について、評価項目56と項目値58とのペアを評価項目ごとに示す。評価項目56は、評価項目を特定する識別情報(例えば評価項目の名称)を示す。項目値58は、対応する評価項目の項目値を示す。 Figure 17 is a diagram illustrating an example of user performance information 50 in table format. The configuration of the user performance information 50 shown in Figure 17 is the same as the configuration of the reference information 40 shown in Figure 15. Specifically, the user performance information 50 has item information 54 for each performance time point 52. The item information 54 indicates, for each evaluation item, a pair of an evaluation item 56 and an item value 58 for the performance at the corresponding performance time point. The evaluation item 56 indicates identification information that specifies the evaluation item (e.g., the name of the evaluation item). The item value 58 indicates the item value of the corresponding evaluation item.

ユーザ演奏情報50の生成は、演奏評価装置2000によって行われてもよいし、演奏評価装置2000以外の他の装置によって行われてもよい。前者の場合、例えば演奏評価装置2000は、ユーザ60による演奏をカメラ10で撮像することで生成されたビデオデータ20や、ユーザ60によって行われた演奏を表す演奏データ72を取得し、これらを解析することで、ユーザ演奏情報50の生成を行う。ここで、ビデオデータ20を利用してユーザ演奏情報50を生成する方法は、ビデオデータ20を利用して基準情報40を生成する方法と同様である。また、演奏データ72を利用してユーザ演奏情報50を生成する方法は、演奏データ72を利用して基準情報40を生成する方法と同様である。 The generation of the user performance information 50 may be performed by the performance evaluation device 2000, or may be performed by a device other than the performance evaluation device 2000. In the former case, for example, the performance evaluation device 2000 acquires video data 20 generated by capturing a performance by the user 60 with the camera 10, and performance data 72 representing the performance given by the user 60, and analyzes these to generate the user performance information 50. Here, the method of generating the user performance information 50 using the video data 20 is the same as the method of generating the reference information 40 using the video data 20. Also, the method of generating the user performance information 50 using the performance data 72 is the same as the method of generating the reference information 40 using the performance data 72.

ここで、ビデオデータ20を利用した基準情報の生成に関し、演奏開始のタイミングや演奏のテンポの把握を容易にするために、メトロノームの音を利用してもよいことを上述した。この点、ユーザ60が対象楽曲の演奏を行う際にも、メトロノームの音が利用されてもよい。この場合、評価部2040は、当該メトロノームの音を利用して、ユーザ60によって最初に演奏が行われた時点(すなわち、ユーザ演奏情報50における時点0)を特定することができる。 As mentioned above, when generating reference information using the video data 20, the sound of a metronome may be used to make it easier to grasp the timing of the start of performance and the tempo of the performance. In this regard, the sound of a metronome may also be used when the user 60 plays the target song. In this case, the evaluation unit 2040 can use the sound of the metronome to identify the time when the user 60 first performed the song (i.e., time 0 in the user performance information 50).

例えば対象楽曲が 4/4 拍子の曲である場合、ユーザ60は、メトロノームの音が4回鳴ってから演奏を開始する。こうすることで、ユーザ60は、演奏開始の正しいタイミングを容易に把握することができる。特に、評価範囲が対象楽曲の途中から始まる場合、楽曲の最初から演奏を行うケースと比較し、演奏の入りが難しい可能性がある。この点、メトロノームの音を聴いてから演奏を開始するようにすることで、より自然に演奏を開始することが可能となる。 For example, if the target song is in 4/4 time, user 60 starts playing after the metronome sounds four times. This allows user 60 to easily grasp the correct timing to start playing. In particular, if the evaluation range starts in the middle of the target song, it may be more difficult to start playing compared to playing from the beginning of the song. In this regard, by starting playing after listening to the metronome sound, it becomes possible to start playing more naturally.

なお、メトロノームの音は、ユーザ60が演奏を行っている間も出力され続けるようにしてもよい。こうすることで、演奏のテンポを正しく保ちながら演奏することが容易となる。ただし、演奏のテンポを評価したい場合もあるため、演奏中にはメトロノーム音が鳴らないように設定できてもよい。 The metronome sound may be set to continue to be output while the user 60 is performing. This makes it easier to maintain the correct tempo while performing. However, since there may be cases where the tempo of the performance needs to be evaluated, it may be possible to set the metronome sound not to be output while playing.

メトロノームの音は、演奏評価装置2000から出力されてもよいし、それ以外(例えば、機械式のメトロノーム)から出力されてもよい。前者の場合、演奏評価装置2000は、メトロノームのテンポを、テンポ情報100に示されている指定テンポに設定する。 The metronome sound may be output from the performance evaluation device 2000, or may be output from something else (e.g., a mechanical metronome). In the former case, the performance evaluation device 2000 sets the tempo of the metronome to the specified tempo indicated in the tempo information 100.

評価部2040がビデオデータ20を取得する方法には、様々な方法を利用できる。例えば、演奏評価装置2000がカメラ10以外のコンピュータで実現される場合、評価部2040は、カメラ10から送信されるビデオデータ20を受信したり、ビデオデータ20が格納されている記憶装置にアクセスしてビデオデータ20を読み出したりすることにより、ビデオデータ20を取得する。なお、ビデオデータ20が格納されている記憶装置は、カメラ10の内部と外部のどちらに設けられていてもよい。演奏評価装置2000がカメラ10で実現される場合、評価部2040は、演奏評価装置2000の内部(例えばストレージデバイス1080)に格納されているビデオデータ20を読み出すことで、ビデオデータ20を取得する。 The evaluation unit 2040 can use various methods to acquire the video data 20. For example, when the performance evaluation device 2000 is realized by a computer other than the camera 10, the evaluation unit 2040 acquires the video data 20 by receiving the video data 20 transmitted from the camera 10 or by accessing a storage device in which the video data 20 is stored and reading the video data 20. Note that the storage device in which the video data 20 is stored may be provided either inside or outside the camera 10. When the performance evaluation device 2000 is realized by the camera 10, the evaluation unit 2040 acquires the video data 20 by reading the video data 20 stored inside the performance evaluation device 2000 (e.g., the storage device 1080).

演奏データ72を取得する方法についても、様々な方法を利用できる。例えば評価部2040は、演奏データ72を生成した装置(対象楽器70など)によって送信される演奏データ72を受信したり、演奏データ72が格納されている記憶装置にアクセスして演奏データ72を読み出したりすることにより、演奏データ72を取得する。 Various methods can be used to acquire the performance data 72. For example, the evaluation unit 2040 acquires the performance data 72 by receiving the performance data 72 transmitted by a device (such as the target musical instrument 70) that generated the performance data 72, or by accessing a storage device in which the performance data 72 is stored and reading out the performance data 72.

ユーザ演奏情報50の生成が演奏評価装置2000以外の他の装置で行われる場合、評価部2040は、当該他の装置によって生成されたユーザ演奏情報50を取得する。その取得方法についても、様々な方法を利用できる。例えば評価部2040は、ユーザ演奏情報50を生成した装置から送信されるユーザ演奏情報50を受信したり、ユーザ演奏情報50が格納されている記憶装置にアクセスしてユーザ演奏情報50を読み出したりすることにより、ユーザ演奏情報50を取得する。 When the user performance information 50 is generated by a device other than the performance evaluation device 2000, the evaluation unit 2040 acquires the user performance information 50 generated by the other device. Various methods can be used for this acquisition. For example, the evaluation unit 2040 acquires the user performance information 50 by receiving the user performance information 50 transmitted from the device that generated the user performance information 50, or by accessing a storage device in which the user performance information 50 is stored and reading out the user performance information 50.

<評価情報30の生成:S108>
評価部2040は、基準情報40とユーザ演奏情報50を利用して、評価情報30を生成する。具体的には、評価部2040は、基準情報40に含まれる項目情報44とユーザ演奏情報50に含まれる項目情報54との対応付けを行い、互いに対応する項目情報44と項目情報54とを比較する。互いに対応する項目情報44と項目情報54は、演奏時点が互いに一致又は近い情報であり、互いに同じ演奏動作(打鍵など)を表すべき情報である。より具体的には、例えば評価部2040は、互いに対応する項目情報44と項目情報54について、評価項目ごとに、項目値の一致度合いを表す評価スコアを算出する。そして、評価部2040は、算出した評価スコアを利用して、評価情報30を生成する。なお、評価スコアの算出方法や、評価スコアを利用して評価情報30を生成する方法については後述する。
<Generation of evaluation information 30: S108>
The evaluation unit 2040 generates the evaluation information 30 using the reference information 40 and the user performance information 50. Specifically, the evaluation unit 2040 associates the item information 44 included in the reference information 40 with the item information 54 included in the user performance information 50, and compares the item information 44 and the item information 54 that correspond to each other. The corresponding item information 44 and the item information 54 are pieces of information that correspond to each other at the same or close performance time points, and should represent the same performance action (keystroke, etc.). More specifically, for example, the evaluation unit 2040 calculates an evaluation score that indicates the degree of agreement of the item values for each evaluation item for the corresponding item information 44 and the item information 54. Then, the evaluation unit 2040 generates the evaluation information 30 using the calculated evaluation score. Note that a method for calculating the evaluation score and a method for generating the evaluation information 30 using the evaluation score will be described later.

<<処理の流れ>>
図18は、項目情報44ごとに評価スコアの算出を行う処理の流れを例示するフローチャートである。ループ処理L1は、基準情報40に含まれる各項目情報44を対象に実行されるループ処理である。S202において、評価部2040は、全ての項目情報44を対象としてループ処理L1を実行したか否かを判定する。既に全ての項目情報44を対象としてループ処理L1を実行した場合、図18の処理は終了する。一方、まだループ処理L1の対象としていない項目情報44が1つ以上存在する場合、評価部2040は、その中から項目情報44を1つ選択する。例えば評価部2040は、対応する演奏時点42が早い項目情報44から順に、ループ処理L1の対象として選択していく。S202で選択された項目情報44を、項目情報44-iと表記する。
<<Process flow>>
FIG. 18 is a flow chart illustrating a process flow for calculating an evaluation score for each item information 44. The loop process L1 is a loop process executed for each item information 44 included in the reference information 40. In S202, the evaluation unit 2040 judges whether or not the loop process L1 has been executed for all the item information 44. If the loop process L1 has already been executed for all the item information 44, the process of FIG. 18 ends. On the other hand, if there is one or more item information 44 that has not yet been the target of the loop process L1, the evaluation unit 2040 selects one item information 44 from among them. For example, the evaluation unit 2040 selects the item information 44 as the target of the loop process L1 in order from the item information 44 whose corresponding performance time 42 is the earliest. The item information 44 selected in S202 is denoted as item information 44-i.

評価部2040は、ユーザ演奏情報50に含まれる項目情報54の中から、項目情報44-iに対応する項目情報54を特定する(S204)。例えば評価部2040は、ユーザ演奏情報50に示されている演奏時点52の中から、項目情報44-iに対応する演奏時点42に最も近いものを特定する。そして、評価部2040は、特定した演奏時点52に対応する項目情報54を、項目情報44-iに対応する項目情報54として特定する。 The evaluation unit 2040 identifies the item information 54 that corresponds to the item information 44-i from among the item information 54 included in the user performance information 50 (S204). For example, the evaluation unit 2040 identifies the performance time 52 that is closest to the performance time 42 that corresponds to the item information 44-i from among the performance times 52 indicated in the user performance information 50. The evaluation unit 2040 then identifies the item information 54 that corresponds to the identified performance time 52 as the item information 54 that corresponds to the item information 44-i.

評価部2040は、特定した項目情報54と項目情報44-iを比較することで、評価項目ごとに評価スコアを算出する(S206)。S208はループ処理L1の終端であるため、図18の処理はS202に進む。 The evaluation unit 2040 calculates an evaluation score for each evaluation item by comparing the identified item information 54 with the item information 44-i (S206). Since S208 is the end of the loop process L1, the process in FIG. 18 proceeds to S202.

なお、項目情報44-iに対応する演奏時点42との差分が所定値以下である演奏時点52が存在しない場合(言い換えれば、当該演奏時点42と、当該演奏時点42と最も近い演奏時点52との差分が所定値より大きい場合)、評価部2040は、項目情報44-iに対応する項目情報54が存在しないと判定して、その項目情報44-iについてはS206を実行しないようにしてもよい。これは例えば、ユーザ60による演奏において音が欠落している場合などに起こりうる。 Note that if there is no performance time 52 whose difference from the performance time 42 corresponding to the item information 44-i is equal to or less than a predetermined value (in other words, if the difference between the performance time 42 and the performance time 52 closest to the performance time 42 is greater than a predetermined value), the evaluation unit 2040 may determine that there is no item information 54 corresponding to the item information 44-i, and may not execute S206 for that item information 44-i. This may occur, for example, when a sound is missing in the performance by the user 60.

<<評価スコアの算出方法>>
評価スコアは、対象の評価項目について、項目情報54に示されている項目値58と項目情報44に示されている項目値48との一致度合いを表す。例えば、評価項目ごとに、評価スコアを算出するための評価式を予め用意しておく。評価式には、対象の評価項目について、項目情報44の項目値48が示す値と、項目情報54の項目値58が示す値とが入力される。そして、評価式は、入力された値に所定の演算を施すことにより、評価スコアを出力する。
<<How the evaluation score is calculated>>
The evaluation score represents the degree of agreement between item value 58 indicated in item information 54 and item value 48 indicated in item information 44 for a target evaluation item. For example, an evaluation formula for calculating an evaluation score is prepared in advance for each evaluation item. The value indicated by item value 48 in item information 44 and the value indicated by item value 58 in item information 54 for a target evaluation item are input into the evaluation formula. The evaluation formula then outputs an evaluation score by performing a predetermined calculation on the input values.

例えば評価式は、項目値48と項目値58との差分や、項目値48に対する項目値58の比率などを表す値を出力する。なお、差分や比率は、標準化されてもよい。 For example, the evaluation formula outputs a value that represents the difference between item value 48 and item value 58, or the ratio of item value 58 to item value 48. The difference or ratio may be standardized.

その他にも例えば、評価式は、項目値48に基づいて定まる許容範囲に項目値58が含まれるか否かの判定結果を出力するように構成されてもよい。例えば許容範囲として、「項目値48が示す値±20%(項目値48が示す値の 0.8 倍以上、項目値48が示す値の 1.2 倍以下)」などといった範囲を定めておく。評価式は、項目値48と項目値58を取得し、項目値48に基づいて許容範囲に項目値58が含まれるか否かを判定する。そして、評価式は、その判定結果を表す値(例えば、許容範囲に含まれていれば1、含まれていなければ0)を出力する。 For example, the evaluation formula may be configured to output a determination result as to whether or not item value 58 is included in an allowable range determined based on item value 48. For example, the allowable range may be determined to be "the value indicated by item value 48 ±20% (0.8 times or more the value indicated by item value 48, and 1.2 times or less the value indicated by item value 48)." The evaluation formula acquires item value 48 and item value 58, and determines whether or not item value 58 is included in the allowable range based on item value 48. The evaluation formula then outputs a value that represents the determination result (for example, 1 if it is included in the allowable range, 0 if it is not included).

その他にも例えば、項目値48に基づいて複数の数値範囲を定めることにより、ユーザ60の演奏をランクで評価してもよい。例えば、「項目値48が示す値±20%」という数値範囲A、「項目値48が示す値±40%で、数値範囲Aの外側」という数値範囲B、及び「数値範囲Bの外側」という数値範囲Cが定められているとする。この場合、項目値58が数値範囲Aに含まれる場合は最も評価が高く、項目値58が数値範囲Bに含まれる場合はその次に評価が高く、項目値58が数値範囲Cに含まれる場合は最も評価が低くなる。そこで、このような評価の高さを表すランクを、各数値範囲に割り当てる。例えば、より評価が高い数値範囲に対して、より小さい自然数で表されるランクを割り当てる。前述の例では、数値範囲AからCそれぞれに、1、2、及び3というランクが割り当てられる。 Alternatively, for example, a number of numerical ranges may be defined based on the item value 48, and the performance of the user 60 may be evaluated with a rank. For example, assume that a numerical range A of "±20% of the value indicated by the item value 48," a numerical range B of "±40% of the value indicated by the item value 48, outside numerical range A," and a numerical range C of "outside numerical range B" are defined. In this case, when the item value 58 is included in numerical range A, the evaluation is the highest, when the item value 58 is included in numerical range B, the evaluation is the second highest, and when the item value 58 is included in numerical range C, the evaluation is the lowest. Thus, a rank representing such a high evaluation is assigned to each numerical range. For example, a rank represented by a smaller natural number is assigned to a numerical range with a higher evaluation. In the above example, ranks 1, 2, and 3 are assigned to the numerical ranges A to C, respectively.

このようにランクで評価を行う場合、評価式は、項目値48と項目値58を取得し、上記複数の数値範囲の中から、項目値58が含まれる数値範囲を特定する。そして、評価式は、特定した数値範囲に対応するランクを出力する。例えば前述した例において、項目値58が数値範囲Bに含まれる場合には、「2」というランクが出力される。 When performing an evaluation using ranks in this manner, the evaluation formula acquires item value 48 and item value 58, and identifies the numerical range that includes item value 58 from among the multiple numerical ranges. The evaluation formula then outputs a rank that corresponds to the identified numerical range. For example, in the example described above, if item value 58 is included in numerical range B, a rank of "2" is output.

指使いについての評価スコアは、基準情報40に示されている指使いと、ユーザ演奏情報50に示されている指使いとが一致しているかどうかの判定結果を表す。すなわち、互いに対応する項目情報44と項目情報54とについて、評価部2040は、項目値48に示されている指の識別情報と、項目値58に示されている指の識別情報とが一致するか否かを判定し、その判定結果を表す評価スコアを生成する。例えば、評価スコアは、指使いが一致する場合には「1」を示し、指使いが一致しない場合には「0」を示す。 The evaluation score for fingering represents the result of the determination as to whether the fingering shown in the reference information 40 matches the fingering shown in the user performance information 50. That is, for corresponding item information 44 and item information 54, the evaluation unit 2040 determines whether the finger identification information shown in item value 48 matches the finger identification information shown in item value 58, and generates an evaluation score that represents the result of the determination. For example, the evaluation score indicates "1" if the fingering matches, and indicates "0" if the fingering does not match.

<<評価スコアを用いた評価情報30の生成>>
評価部2040は、評価スコアを利用して、評価情報30を生成する。例えば評価部2040は、算出された評価スコアを全て示す評価情報30を生成する。より具体的には、評価部2040は、対象楽曲において打鍵が行われる時点(演奏時点42)ごとに、その時点に対応する項目情報44と項目情報54とを比較することで生成された「評価項目、評価スコア」のペアを複数示す評価情報30を生成する。
<<Generation of Evaluation Information 30 Using Evaluation Scores>>
The evaluation unit 2040 uses the evaluation scores to generate evaluation information 30. For example, the evaluation unit 2040 generates evaluation information 30 indicating all of the calculated evaluation scores. More specifically, the evaluation unit 2040 generates evaluation information 30 indicating a plurality of pairs of "evaluation item, evaluation score" generated by comparing item information 44 and item information 54 corresponding to each time point (performance time point 42) at which a key is struck in the target song.

図19は、評価情報30の一例をテーブル形式で例示する図である。図19に示すテーブルを、テーブル400と表記する。テーブル400は、演奏時点402及び評価結果404を示す。評価結果404は、評価項目406と評価スコア408のペアを示す。評価スコア408は、対応する演奏時点402におけるユーザ60の演奏について、対応する評価項目406についての評価スコアを示す。 Figure 19 is a diagram illustrating an example of evaluation information 30 in table format. The table shown in Figure 19 is denoted as table 400. Table 400 shows a performance time 402 and an evaluation result 404. The evaluation result 404 shows a pair of evaluation item 406 and evaluation score 408. The evaluation score 408 shows the evaluation score for the corresponding evaluation item 406 for the performance of the user 60 at the corresponding performance time 402.

その他にも例えば、評価部2040は、評価スコアを種々の方法で集計することで、評価情報30を生成してもよい。例えば評価部2040は、演奏時点ごとに、その演奏時点に対応する項目情報54について算出された評価スコアの統計値(平均値など)を算出する。この場合、各時点における演奏について、その演奏の総合的な評価を表すスコアが得られる。以下、評価スコアの統計値を、統計スコアと表記する。評価項目ごとに重要度が異なる場合、統計スコアは、評価項目ごとの重要度を考慮した値(例えば重み付き平均)であってもよい。 For example, the evaluation unit 2040 may generate the evaluation information 30 by aggregating the evaluation scores in various ways. For example, the evaluation unit 2040 calculates, for each performance time point, a statistical value (such as an average value) of the evaluation scores calculated for the item information 54 corresponding to that performance time point. In this case, a score representing an overall evaluation of the performance at each time point is obtained. Hereinafter, the statistical value of the evaluation score is referred to as the statistical score. When the importance of each evaluation item differs, the statistical score may be a value that takes into account the importance of each evaluation item (for example, a weighted average).

図20は、演奏時点ごとに統計スコアを示す評価情報30を例示する図である。図20に示すテーブルを、テーブル500と表記する。テーブル500は、演奏時点502と統計スコア504というペアを示す。統計スコア504は、対応する演奏時点502について算出された複数の評価スコアの統計値である。 Figure 20 is a diagram illustrating evaluation information 30 showing a statistical score for each performance time point. The table shown in Figure 20 is denoted as table 500. Table 500 shows pairs of performance time points 502 and statistical scores 504. Statistical scores 504 are statistical values of multiple evaluation scores calculated for the corresponding performance time points 502.

評価スコアの集計は、評価項目ごとに行われてもよい。すなわち、評価部2040は、評価項目ごとに、その評価項目について算出された複数の演奏時点それぞれの評価スコアの統計値を算出する。この場合、ユーザ60の演奏の総合的な評価が、評価項目ごとに示される。 The evaluation scores may be tallied for each evaluation item. That is, the evaluation unit 2040 calculates, for each evaluation item, a statistical value of the evaluation scores calculated for each evaluation item at multiple performance points. In this case, an overall evaluation of the user 60's performance is shown for each evaluation item.

図21は、評価項目ごとに統計スコアを示す評価情報30を例示する図である。図21に示すテーブルを、テーブル600と表記する。テーブル600は、評価項目602と統計スコア604というペアを示す。統計スコア604は、対応する評価項目602について算出された複数の評価スコアの統計値である。 FIG. 21 is a diagram illustrating an example of evaluation information 30 indicating a statistical score for each evaluation item. The table shown in FIG. 21 is denoted as table 600. Table 600 indicates a pair of evaluation item 602 and statistical score 604. Statistical score 604 is a statistical value of multiple evaluation scores calculated for the corresponding evaluation item 602.

図21の例では、評価スコアごとの集計が評価範囲全体で行われている。しかしながら、評価スコアごとの集計は、評価範囲に含まれる複数の部分範囲ごとに行われてもよい。例えば部分範囲はセクションや小節である。部分範囲ごとに集計を行う場合、基準情報40に、各部分範囲を特定できる情報(例えば、セクションを特定できる情報)を含めておく。評価部2040は、基準情報40を参照して各部分範囲を特定することで、各評価スコアを部分範囲ごとにグループ分けする。そして、評価部2040は、部分範囲ごとに、評価スコアの集計(例えば、統計スコアの算出)を行う。 In the example of FIG. 21, the evaluation scores are tallied for the entire evaluation range. However, the evaluation scores may be tallied for multiple partial ranges included in the evaluation range. For example, the partial ranges are sections or measures. When tallying for each partial range, the reference information 40 includes information that can identify each partial range (for example, information that can identify a section). The evaluation unit 2040 identifies each partial range with reference to the reference information 40, and thereby groups the evaluation scores for each partial range. The evaluation unit 2040 then tallies the evaluation scores for each partial range (for example, calculates a statistical score).

図22は、統計スコアを部分範囲ごとかつ評価項目ごとに示す評価情報30を例示する図である。図22に示すテーブルをテーブル700と表記する。テーブル700は、部分範囲702及び評価結果704を含む。評価結果704は、評価項目706及び統計スコア708を含む。統計スコア708は、対応する部分範囲702に含まれる演奏時点について算出された評価スコアのうち、対応する評価項目706についての評価スコアから算出した統計値を示す。 FIG. 22 is a diagram illustrating evaluation information 30 that indicates statistical scores for each subrange and for each evaluation item. The table shown in FIG. 22 is denoted as table 700. Table 700 includes subranges 702 and evaluation results 704. Evaluation results 704 include evaluation items 706 and statistical scores 708. Statistical scores 708 indicate statistical values calculated from the evaluation scores for the corresponding evaluation items 706, out of the evaluation scores calculated for the performance time points included in the corresponding subranges 702.

評価項目を複数のグループに分類できる場合、評価スコアの集計は、評価項目のグループごとに行われてもよい。例えば、手に関する評価項目は、右手に関する評価項目と左手に関する評価項目に分類できる。また、指に関する評価項目の評価スコアは、親指、人差し指、中指、薬指、及び小指それぞれについての評価スコアに分類できる。 When evaluation items can be classified into multiple groups, the evaluation scores may be tallied for each group of evaluation items. For example, evaluation items related to the hand can be classified into evaluation items related to the right hand and evaluation items related to the left hand. Furthermore, evaluation scores for evaluation items related to the fingers can be classified into evaluation scores for each of the thumb, index finger, middle finger, ring finger, and little finger.

図23は、グループごとに集計された評価スコアの統計値を例示する図である。図23に示すテーブルをテーブル800と呼ぶ。テーブル800は、演奏時点802と評価結果804を含む。そして、評価結果804は、項目グループ806と評価スコア808を含む。評価スコア808は、対応する演奏時点802における演奏について、項目グループ806に属する各評価項目の評価スコアの統計値を示す。 Figure 23 is a diagram illustrating an example of the statistical values of the evaluation scores tallied for each group. The table shown in Figure 23 is called table 800. Table 800 includes a performance time 802 and an evaluation result 804. The evaluation result 804 includes an item group 806 and an evaluation score 808. The evaluation score 808 indicates the statistical values of the evaluation scores of each evaluation item belonging to the item group 806 for the performance at the corresponding performance time 802.

なお、このようにグループごとに評価スコアを集計するケースについても、演奏時点ごとではなく、評価範囲全体や部分範囲ごとに統計スコアが算出されてもよい。 In this way, even in cases where evaluation scores are tallied for each group, statistical scores may be calculated for the entire evaluation range or a partial range, rather than for each performance time point.

<<テンポずれの検出>>
評価部2040は、基準情報40とユーザ演奏情報50とを比較することで、演奏のテンポがずれていること(以下、テンポずれ)を検出してもよい。「演奏のテンポがずれる」とは、演奏される音の順序は正しいものの、演奏時点が理想の時点からずれていることを意味する。
<<Detection of tempo deviation>>
The evaluation unit 2040 may detect a deviation in the tempo of the performance (hereinafter, tempo deviation) by comparing the reference information 40 with the user performance information 50. "A deviation in the tempo of the performance" means that the order of the notes being played is correct, but the playing time is deviated from the ideal time.

ユーザ60が対象楽曲を正しいテンポで演奏できていない場合、ユーザ60の習熟度が、手や指の形の評価や音の特徴の評価などのような詳細な評価を行えるレベルにまで達していないと言える。そのため、これらの評価を行う前に、より遅いテンポで練習を行って、テンポずれが起こらないようにするための練習を行うことが好適である。そこで評価部2040は、テンポずれを検出したら、テンポを遅くして練習することを促すメッセージを出力するようにしてもよい。 If user 60 cannot play the target piece of music at the correct tempo, it can be said that user 60's proficiency has not reached a level where detailed evaluations such as evaluation of the shape of the hands and fingers and evaluation of the characteristics of the sound can be performed. Therefore, before performing these evaluations, it is preferable to practice at a slower tempo to prevent tempo deviations from occurring. Therefore, when the evaluation unit 2040 detects a tempo deviation, it may output a message encouraging the user to practice at a slower tempo.

評価部2040がテンポずれを検出する方法は任意である。例えば評価部2040は、時間軸を複数のブロックに区切り、ブロックごとに、基準情報40に示されている音と、ユーザ演奏情報50に示されている音とを比較する。ここで、或るブロックにおいて、基準情報40に示されている複数の音と、ユーザ演奏情報50に示されている複数の音とが、音の種類と順番の双方について一致している一方で、演奏時点がずれている場合、テンポずれが発生していると言える。例えば、或るブロックにおいて、基準情報40とユーザ演奏情報50の双方において、「ドレミファ」という4つの音がこの順序で演奏されているとする。この状況において、基準情報40とユーザ演奏情報50との間で、いずれか1つ以上の音の演奏時点がずれている(例えば、演奏時点の差分が所定値以上である)場合、テンポずれが発生しているといえる。そこで評価部2040は、ブロックごとに基準情報40とユーザ演奏情報50とを比較し、上述した状況を検することにより、テンポずれを検出する。 The method by which the evaluation unit 2040 detects a tempo deviation is arbitrary. For example, the evaluation unit 2040 divides the time axis into a number of blocks, and compares the sounds shown in the reference information 40 and the sounds shown in the user performance information 50 for each block. Here, if the multiple sounds shown in the reference information 40 and the multiple sounds shown in the user performance information 50 match in both the type and order of the sounds in a certain block, but the performance times are different, it can be said that a tempo deviation has occurred. For example, in a certain block, it is assumed that the four sounds "do-re-mi-fa" are played in this order in both the reference information 40 and the user performance information 50. In this situation, if the performance times of any one or more sounds are different between the reference information 40 and the user performance information 50 (for example, the difference in the performance times is a predetermined value or more), it can be said that a tempo deviation has occurred. Therefore, the evaluation unit 2040 detects a tempo deviation by comparing the reference information 40 and the user performance information 50 for each block and examining the above-mentioned situation.

<評価情報30の出力>
演奏評価装置2000は、任意の方法で評価情報30の出力を行う。例えば演奏評価装置2000は、評価情報30を記憶装置に格納する。その他にも例えば、演奏評価装置2000は、評価情報30をディスプレイ装置に表示させる。その他にも例えば、演奏評価装置2000は、評価情報30を他の装置に送信してもよい。例えば、演奏評価装置2000が、ユーザ端末62からビデオデータ20を受信して動作するサーバマシン80として実現される場合(図12(b)参照)、演奏評価装置2000は、評価情報30をユーザ端末62に対して送信する。そして、ユーザ端末62において、種々の方法で評価情報30の閲覧が行われる。
<Output of evaluation information 30>
The performance evaluation device 2000 outputs the evaluation information 30 in an arbitrary manner. For example, the performance evaluation device 2000 stores the evaluation information 30 in a storage device. As another example, the performance evaluation device 2000 displays the evaluation information 30 on a display device. As another example, the performance evaluation device 2000 may transmit the evaluation information 30 to another device. For example, when the performance evaluation device 2000 is realized as a server machine 80 that operates by receiving video data 20 from a user terminal 62 (see FIG. 12(b)), the performance evaluation device 2000 transmits the evaluation information 30 to the user terminal 62. Then, the evaluation information 30 can be viewed in various ways on the user terminal 62.

なお、演奏評価装置2000は、評価情報30をそのまま出力する代わりに、評価情報30を適宜加工して出力してもよい。例えば演奏評価装置2000は、評価情報30を利用して評価結果画面を生成し、当該評価結果画面をディスプレイ装置に表示させる。 In addition, instead of outputting the evaluation information 30 as is, the performance evaluation device 2000 may process the evaluation information 30 as appropriate and output it. For example, the performance evaluation device 2000 uses the evaluation information 30 to generate an evaluation result screen and displays the evaluation result screen on a display device.

図24は、評価結果画面を例示する第1の図である。図24の評価結果画面900は、評価情報30から生成されたグラフを示す。この例では、統計スコアがセクションごとかつ評価項目ごとに算出されている。また、この例では、評価項目ごとに、統計スコアの時間遷移が折れ線グラフで表されている。 Figure 24 is a first diagram illustrating an example of an evaluation result screen. The evaluation result screen 900 in Figure 24 shows a graph generated from the evaluation information 30. In this example, a statistical score is calculated for each section and for each evaluation item. Also, in this example, the time progression of the statistical score for each evaluation item is represented by a line graph.

また、図24では、特に悪い評価を表す統計スコアが強調表示されている。具体的には、統計スコアの閾値が一点鎖線で示されており、当該閾値より小さい統計スコアが、ドット柄のマークで強調表示されている。なお、同様の方法で、特に良い評価を表す統計スコアを強調表示してもよい。具体的には、所定の閾値よりも大きい統計スコアが強調表示されるようにする。 In addition, in FIG. 24, statistical scores that represent particularly poor evaluations are highlighted. Specifically, the threshold value for the statistical scores is indicated by a dashed line, and statistical scores that are smaller than the threshold value are highlighted with a dotted mark. Note that statistical scores that represent particularly good evaluations may be highlighted in a similar manner. Specifically, statistical scores that are larger than a predetermined threshold value are highlighted.

図25は、評価結果画面を例示する第2の図である。図25の評価結果画面1300は、評価情報30から生成されたグラフを示す。この例では、統計スコアが、演奏に使用された指ごとかつ評価項目ごとに算出されている。 Figure 25 is a second diagram illustrating an example of an evaluation result screen. The evaluation result screen 1300 in Figure 25 shows a graph generated from the evaluation information 30. In this example, a statistical score is calculated for each finger used in playing and for each evaluation item.

このように演奏に使用された指ごとに各評価項目の項目値を集計することにより、例えば、手や指ごとの癖を把握することが容易になる。例えば、図25のグラフを見ると、評価項目AとBのいずれについても、左手を使用した演奏のスコアが、右手を使用した演奏のスコアよりも低いことが分かる。そのため、左手による演奏の技術を向上させるべきであることが分かる。 In this way, by tallying up the item values of each evaluation item for each finger used in playing, it becomes easier to understand, for example, the habits of each hand or finger. For example, looking at the graph in Figure 25, we can see that for both evaluation items A and B, the scores for performances using the left hand are lower than the scores for performances using the right hand. This shows that the technique of playing with the left hand should be improved.

その他にも例えば、図25のグラフを見ると、右手と左手のどちらについても、小指を使用した演奏のスコアが、それ以外の指を使用した演奏のスコアよりも低いことが分かる。そのため、小指による演奏の技術を向上させるべきであることが分かる。 For example, the graph in Figure 25 shows that for both the right and left hands, the scores for playing using the little finger are lower than the scores for playing using the other fingers. This shows that the technique of playing with the little finger should be improved.

演奏評価装置2000は、ユーザ60の演奏と模範演奏者の演奏について、3次元的な手の形のモデリング映像を生成し、当該映像を含む画面を出力したり、当該映像のビデオデータを記憶装置に格納したりしてもよい。ユーザ60の演奏についての手のモデリング映像は、ユーザ演奏情報50から得られる各指や手首の関節点などの情報に基づいて生成することができる。同様に、模範演奏者についての手のモデリング映像は、基準情報40から得られる各指や手首の関節点などの情報に基づいて生成することができる。 The performance evaluation device 2000 may generate three-dimensional hand shape modeling images for the performance of the user 60 and the performance of the model performer, and output a screen including the images, or store the video data of the images in a storage device. The hand modeling images for the performance of the user 60 can be generated based on information such as the joint points of each finger and wrist obtained from the user performance information 50. Similarly, the hand modeling images for the model performer can be generated based on information such as the joint points of each finger and wrist obtained from the reference information 40.

演奏評価装置2000は、当該モデリング映像と共に評価情報30を出力することが好適である。ここで、各評価項目についての評価結果は、モデリング映像において当該評価項目に関連する部分と対応づけて示されることが好適である。例えば、手首の高さについての評価結果は、対応する手首の付近に表示させる。同様に、各指の関節点についての評価結果は、対応する指の付近に表示させる。 It is preferable that the performance evaluation device 2000 outputs the evaluation information 30 together with the modeling image. Here, it is preferable that the evaluation result for each evaluation item is shown in association with a portion of the modeling image related to the evaluation item. For example, the evaluation result for the wrist height is displayed near the corresponding wrist. Similarly, the evaluation result for each finger joint point is displayed near the corresponding finger.

このように手のモデリング映像と共に評価情報30を見せることにより、ユーザ60が模範演奏者と自分の演奏との違いを視覚によって直感的に把握できる。そのため、ユーザ60が、修正すべき(練習すべき)点を容易に認識できるようになる。 By showing the evaluation information 30 along with the hand modeling video in this way, the user 60 can intuitively visually grasp the differences between the model performer's performance and his or her own. This allows the user 60 to easily recognize the points that need to be corrected (practiced).

上記実施形態において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 In the above embodiment, the program can be stored and supplied to the computer using various types of non-transitory computer readable media. The non-transitory computer readable media includes various types of tangible storage media. Examples of the non-transitory computer readable media include magnetic recording media (e.g., flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (e.g., magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R/Ws, semiconductor memories (e.g., mask ROMs, PROMs (Programmable ROMs), EPROMs (Erasable PROMs), flash ROMs, and RAMs (Random Access Memory). The program may also be supplied to the computer by various types of transitory computer readable media. Examples of the transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The transitory computer readable media can supply the program to the computer via wired communication paths such as electric wires and optical fibers, or wireless communication paths.

以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 The present invention has been described above with reference to the embodiment, but the present invention is not limited to the above embodiment. Various modifications that can be understood by a person skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

10 カメラ
20 ビデオデータ
30 評価情報
40 基準情報
42 演奏時点
44 項目情報
46 評価項目
48 項目値
50 ユーザ演奏情報
52 演奏時点
54 項目情報
56 評価項目
58 項目値
60 ユーザ
62 ユーザ端末
70 対象楽器
72 演奏データ
80 サーバマシン
90 テンポ指定画面
100 テンポ情報
110 指
120 キー
130 基準線
140 手
150 基準線
160 キー
170 直線
180 直線
190 キー
200 線分
210 線分
300 楽曲指定画面
310 検索エリア
320 楽曲選択エリア
330 評価範囲指定エリア
400 テーブル
402 演奏時点
404 評価結果
406 評価項目
408 評価スコア
500 テーブル
502 演奏時点
504 統計スコア
600 テーブル
602 評価項目
604 統計スコア
700 テーブル
702 部分範囲
704 評価結果
706 評価項目
708 統計スコア
800 テーブル
802 演奏時点
804 評価結果
806 項目グループ
808 評価スコア
900 評価結果画面
1000 コンピュータ
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージデバイス
1100 入出力インタフェース
1120 ネットワークインタフェース
1300 評価結果画面
2000 演奏評価装置
2020 テンポ情報取得部
2040 評価部
10 Camera 20 Video data 30 Evaluation information 40 Reference information 42 Playing time 44 Item information 46 Evaluation item 48 Item value 50 User performance information 52 Playing time 54 Item information 56 Evaluation item 58 Item value 60 User 62 User terminal 70 Target instrument 72 Performance data 80 Server machine 90 Tempo designation screen 100 Tempo information 110 Finger 120 Key 130 Reference line 140 Hand 150 Reference line 160 Key 170 Straight line 180 Straight line 190 Key 200 Line segment 210 Line segment 300 Song designation screen 310 Search area 320 Song selection area 330 Evaluation range designation area 400 Table 402 Playing time 404 Evaluation result 406 Evaluation item 408 Evaluation score 500 Table 502 Playing time 504 Statistical score 600 Table 602 Evaluation item 604 Statistical score 700 Table 702 Partial range 704 Evaluation result 706 Evaluation item 708 Statistical score 800 Table 802 Performance time 804 Evaluation result 806 Item group 808 Evaluation score 900 Evaluation result screen 1000 Computer 1020 Bus 1040 Processor 1060 Memory 1080 Storage device 1100 Input/output interface 1120 Network interface 1300 Evaluation result screen 2000 Performance evaluation device 2020 Tempo information acquisition unit 2040 Evaluation unit

Claims (4)

コンピュータに、
ユーザが所望する演奏のテンポである指定テンポを特定可能なテンポ情報を取得するテンポ情報取得処理と、
評価対象の楽曲について、前記指定テンポで演奏する場合における演奏の評価基準を表す基準情報と、前記ユーザによる前記楽曲の演奏を表すユーザ演奏情報とを比較することにより、前記ユーザによる演奏に関する評価を含む評価情報を生成する評価処理と、を実行させるプログラムであって、
楽曲ごとに、複数のテンポそれぞれに対応づけて、そのテンポでその楽曲を演奏する場合における演奏の評価基準を表す前記基準情報が用意されており、
前記評価処理は、前記評価対象の楽曲について用意されている複数の基準情報の中から、前記指定テンポに対応する前記基準情報を取得し、前記取得した基準情報を利用して前記評価情報を生成するプログラム
On the computer,
A tempo information acquisition process for acquiring tempo information capable of identifying a designated tempo, which is a performance tempo desired by a user;
an evaluation process for generating evaluation information including an evaluation of a performance by the user by comparing standard information, which indicates a standard for evaluating a performance when the performance is performed at the specified tempo, with user performance information, which indicates a performance of the musical piece by the user,
the standard information is prepared for each piece of music in association with a plurality of tempos, the standard information indicating a standard for evaluating a performance when the piece of music is performed at each tempo;
The evaluation process is a program for obtaining standard information corresponding to the specified tempo from a plurality of standard information prepared for the piece of music to be evaluated, and generating the evaluation information using the obtained standard information .
楽曲ごとに、特定のテンポに対応づけて、そのテンポでその楽曲を演奏する場合における演奏の評価基準を表す前記基準情報が用意されており、
前記評価処理は、
前記評価対象の楽曲について、前記特定のテンポを示す情報と、前記基準情報とを取得し、
前記特定のテンポと前記指定テンポとの違いに基づいて、前記取得した基準情報を、前記指定テンポで前記評価対象の楽曲を演奏する場合における評価基準を表す前記基準情報に変換し、
前記変換によって得られた前記基準情報を利用して前記評価情報を生成する、請求項1に記載のプログラム。
the standard information is prepared for each piece of music in association with a specific tempo, the standard information indicating a standard for evaluating a performance when the piece of music is performed at that tempo;
The evaluation process includes:
acquiring information indicating the specific tempo and the reference information for the piece of music to be evaluated;
converting the acquired reference information into reference information that represents an evaluation standard when the piece of music to be evaluated is played at the specified tempo based on a difference between the specific tempo and the specified tempo;
The program according to claim 1 , further comprising: generating the evaluation information by utilizing the reference information obtained by the conversion.
ユーザが所望する演奏のテンポである指定テンポを特定可能なテンポ情報を取得するテンポ情報取得部と、
評価対象の楽曲について、前記指定テンポで演奏する場合における演奏の評価基準を表す基準情報と、前記ユーザによる前記楽曲の演奏を表すユーザ演奏情報とを比較することにより、前記ユーザによる演奏に関する評価を含む評価情報を生成する評価部と、を有し、
楽曲ごとに、複数のテンポそれぞれに対応づけて、そのテンポでその楽曲を演奏する場合における演奏の評価基準を表す前記基準情報が用意されており、
前記評価部は、前記評価対象の楽曲について用意されている複数の基準情報の中から、前記指定テンポに対応する前記基準情報を取得し、前記取得した基準情報を利用して前記評価情報を生成する演奏評価装置。
a tempo information acquisition unit for acquiring tempo information capable of identifying a designated tempo, which is a performance tempo desired by a user;
an evaluation unit that generates evaluation information including an evaluation of the performance by the user by comparing standard information that indicates a standard for evaluating a performance when the musical piece is played at the specified tempo with user performance information that indicates the performance of the musical piece by the user,
the standard information is prepared for each piece of music in association with a plurality of tempos, the standard information indicating a standard for evaluating a performance when the piece of music is performed at each tempo;
The evaluation unit acquires standard information corresponding to the specified tempo from a plurality of standard information prepared for the piece of music to be evaluated, and generates the evaluation information using the acquired standard information .
コンピュータによって実行される演奏評価方法であって、
ユーザが所望する演奏のテンポである指定テンポを特定可能なテンポ情報を取得するテンポ情報取得ステップと、
評価対象の楽曲について、前記指定テンポで演奏する場合における演奏の評価基準を表す基準情報と、前記ユーザによる前記楽曲の演奏を表すユーザ演奏情報とを比較することにより、前記ユーザによる演奏に関する評価を含む評価情報を生成する評価ステップと、を有し、
楽曲ごとに、複数のテンポそれぞれに対応づけて、そのテンポでその楽曲を演奏する場合における演奏の評価基準を表す前記基準情報が用意されており、
前記評価ステップは、前記評価対象の楽曲について用意されている複数の基準情報の中から、前記指定テンポに対応する前記基準情報を取得し、前記取得した基準情報を利用して前記評価情報を生成する演奏評価方法。

A computer-implemented performance evaluation method, comprising the steps of:
a tempo information acquisition step of acquiring tempo information capable of identifying a designated tempo, which is a performance tempo desired by a user;
an evaluation step of generating evaluation information including an evaluation of the performance by the user by comparing, for a piece of music to be evaluated, standard information that indicates a standard for evaluating a performance when the piece of music is performed at the specified tempo with user performance information that indicates a performance of the piece of music by the user;
the standard information is prepared for each piece of music in correspondence with a plurality of tempos, the standard information indicating a standard for evaluating a performance when the piece of music is performed at each tempo;
The evaluation step is a performance evaluation method in which standard information corresponding to the specified tempo is obtained from a plurality of standard information prepared for the piece of music to be evaluated, and the evaluation information is generated using the obtained standard information .

JP2020208260A 2020-12-16 2020-12-16 Program, performance evaluation device, and performance evaluation method Active JP7585761B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020208260A JP7585761B2 (en) 2020-12-16 2020-12-16 Program, performance evaluation device, and performance evaluation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020208260A JP7585761B2 (en) 2020-12-16 2020-12-16 Program, performance evaluation device, and performance evaluation method

Publications (2)

Publication Number Publication Date
JP2022095117A JP2022095117A (en) 2022-06-28
JP7585761B2 true JP7585761B2 (en) 2024-11-19

Family

ID=82162844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020208260A Active JP7585761B2 (en) 2020-12-16 2020-12-16 Program, performance evaluation device, and performance evaluation method

Country Status (1)

Country Link
JP (1) JP7585761B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009104097A (en) 2007-10-05 2009-05-14 Yamaha Corp Scoring device and program
JP2012532340A (en) 2009-07-02 2012-12-13 ザ ウェイ オブ エイチ, インコーポレイテッド Music education system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3058051B2 (en) * 1995-04-27 2000-07-04 ヤマハ株式会社 Musical amusement system
JP4628725B2 (en) * 2004-08-30 2011-02-09 株式会社河合楽器製作所 Tempo information output device, tempo information output method, computer program for tempo information output, touch information output device, touch information output method, and computer program for touch information output
JP5744368B2 (en) * 2012-06-30 2015-07-08 株式会社第一興商 Auxiliary tempo output system for karaoke performance tempo change
JP6584230B2 (en) * 2015-08-27 2019-10-02 株式会社コルグ Performance practice support device and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009104097A (en) 2007-10-05 2009-05-14 Yamaha Corp Scoring device and program
JP2012532340A (en) 2009-07-02 2012-12-13 ザ ウェイ オブ エイチ, インコーポレイテッド Music education system

Also Published As

Publication number Publication date
JP2022095117A (en) 2022-06-28

Similar Documents

Publication Publication Date Title
US10825432B2 (en) Smart detecting and feedback system for smart piano
Wanderley Quantitative analysis of non-obvious performer gestures
Yin et al. Digital violin tutor: an integrated system for beginning violin learners
US11557269B2 (en) Information processing method
CN113674565B (en) Teaching system and method for piano teaching
US20220335974A1 (en) Multimedia music creation using visual input
US20190051275A1 (en) Method for providing accompaniment based on user humming melody and apparatus for the same
Goebl et al. Quantitative methods: Motion analysis, audio analysis, and continuous response techniques
JP2020046500A (en) Information processing apparatus, information processing method and information processing program
JP2008170685A (en) Voice evaluation device and karaoke device
JP6481319B2 (en) Music score display apparatus and music score display method
Kyriakou et al. Virtual instrument performances (vip): A comprehensive review
JP2007256617A (en) Musical piece practice device and musical piece practice system
CN114170868A (en) Intelligent piano training method and system
JP7585761B2 (en) Program, performance evaluation device, and performance evaluation method
JP7540264B2 (en) Program, performance evaluation device, and performance evaluation method
US11398212B2 (en) Intelligent accompaniment generating system and method of assisting a user to play an instrument in a system
Papiotis A computational approach to studying interdependence in string quartet performance
Antoshchuk et al. Creating an Interactive Musical Experience for a Concert Hall.
KR102490769B1 (en) Method and device for evaluating ballet movements based on ai using musical elements
JP2022053852A (en) Program, performance evaluation device, and performance evaluation method
Quested et al. Polyphonic note tracking using multimodal retrieval of musical events
Kyriakou et al. Multi‐Modal Instrument Performances (MMIP): A Musical Database
Akbari claVision: visual automatic piano music transcription
Schramm et al. Audiovisual tool for solfège assessment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241021

R150 Certificate of patent or registration of utility model

Ref document number: 7585761

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150