[go: up one dir, main page]

JP2018159900A - Performance evaluation system - Google Patents

Performance evaluation system Download PDF

Info

Publication number
JP2018159900A
JP2018159900A JP2017058499A JP2017058499A JP2018159900A JP 2018159900 A JP2018159900 A JP 2018159900A JP 2017058499 A JP2017058499 A JP 2017058499A JP 2017058499 A JP2017058499 A JP 2017058499A JP 2018159900 A JP2018159900 A JP 2018159900A
Authority
JP
Japan
Prior art keywords
evaluation
performance
unit
song
acoustic signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017058499A
Other languages
Japanese (ja)
Inventor
正也 加納
Masaya Kano
正也 加納
佑城 ▲吉▼岡
佑城 ▲吉▼岡
Yuki Yoshioka
小林 伸之
Nobuyuki Kobayashi
伸之 小林
大樹 倉光
Hiroki Kuramitsu
大樹 倉光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2017058499A priority Critical patent/JP2018159900A/en
Publication of JP2018159900A publication Critical patent/JP2018159900A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an evaluation system capable of outputting a simulation of a performance to which a high evaluation is given.SOLUTION: A system 1 includes: a plurality of evaluation parts 41, 42 each configured to evaluate with respect to a performance which includes at least one of singing or instrument play while associating with the time or segment of the performance; a storage part 60 configured to store the evaluations; and an acquisition part 204 configured to acquire a piece of effect data associated with the evaluation of performance to a terminal apparatus 20 to which an acoustic signal included in the performance is newly input from the storage part 60. The terminal apparatus 20 is configured so that, when an acoustic signal which is included in the performance is newly input, the effect associated with the effect data is given to the acoustic signal at the time or segment which is associated with the evaluation.SELECTED DRAWING: Figure 1

Description

本発明は、パフォーマンスの評価装置に関する。   The present invention relates to a performance evaluation apparatus.

歌唱などパフォーマンスの評価する技術としては、例えばカラオケの採点技術としては、歌唱の音高や音量などを、採点の基準(模範)となるリファレンスデータと比較し、その差が小さいほど高い評価を与える内容が知られている(例えば、特許文献1参照)。   As a technique for evaluating performance such as singing, for example, as a karaoke scoring technique, the pitch and volume of the singing are compared with reference data that serves as a scoring standard (example), and the higher the difference, the higher the evaluation The contents are known (see, for example, Patent Document 1).

特開2016−29429号公報JP 2016-29429 A

ところで、上記技術では、歌唱が客観的に評価されるが、実際における歌唱の巧拙は、リファレンスデータで規定される模範に沿っている否かだけで決まるわけではない。例えば、模範から外れた歌唱でも、人を感動させることができたり、唸らせたりすることできる場合がある。このような場合、人によっては高い評価とされるべきであるが、このような歌唱は、模範から外れるので、上記技術によれば低い評価となってしまう。   By the way, in the above technique, the singing is objectively evaluated, but the actual skill of the singing is not determined only by whether or not it follows the example prescribed by the reference data. For example, even a song that is out of the example may be able to impress or inspire people. In such a case, although it should be high evaluation depending on a person, since such a song deviates from a model, according to the said technique, it will become low evaluation.

一方で、高い評価が与えられると考えられる歌唱方法を模擬して出力することができれば、高い満足度が得られる。ここでは、歌唱について説明したが、楽器の演奏など、表現としてのパフォーマンスを評価する場合についても同様なことが言える。
本発明は、このような事情に鑑みてなされたものであり、その目的の一つは、高い評価が与えられたパフォーマンスを模擬して出力する技術を提供することにある。
On the other hand, if a singing method considered to be highly evaluated can be simulated and output, high satisfaction can be obtained. Although singing has been described here, the same can be said for evaluating performance as an expression, such as playing a musical instrument.
The present invention has been made in view of such circumstances, and one of its purposes is to provide a technique for simulating and outputting a performance that has been highly evaluated.

上記目的を達成するために、本発明の一態様に係るパフォーマンス評価装置は、歌唱または演奏の少なくとも一方を含むパフォーマンスに対し、当該パフォーマンスの時間または区間に対応付けて評価する評価部と、前記評価部による評価を前記パフォーマンス別に蓄積する蓄積部と、パフォーマンスに含まれる音響信号が新たに入力された端末装置に、当該パフォーマンスの評価を前記蓄積部から読み出して提供する提供部と、を具備し、前記端末装置は、新たにパフォーマンスに含まれる音響信号が入力された場合、当該音響信号に、当該パフォーマンスに対する評価に対応付けられた演出効果を当該評価に対応付けられた時間または区間で施す。   In order to achieve the above object, a performance evaluation apparatus according to an aspect of the present invention includes an evaluation unit that evaluates a performance including at least one of singing or playing in association with a time or a section of the performance, and the evaluation An accumulating unit that accumulates evaluations by unit according to the performance, and a provision unit that reads and provides the performance evaluation from the accumulating unit to a terminal device in which an acoustic signal included in the performance is newly input, When the acoustic signal newly included in the performance is newly input, the terminal device applies a production effect associated with the evaluation for the performance to the acoustic signal for a time or interval associated with the evaluation.

実施形態に係るシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the system which concerns on embodiment. 評価データを説明するための図である。It is a figure for demonstrating evaluation data. 効果データを説明するための図である。It is a figure for demonstrating effect data. パフォーマンスの評価装置として機能する場合の構成を示す図である。It is a figure which shows the structure in the case of functioning as a performance evaluation apparatus. パフォーマンスの評価動作を示すフローチャートである。It is a flowchart which shows performance evaluation operation | movement. パフォーマンスの演出装置として機能する場合の構成を示す図である。It is a figure which shows the structure in the case of functioning as a performance production apparatus.

以下、本発明の実施形態について図面を参照して説明する。
図1は、実施形態に係るシステム1の構成を示すブロック図である。この図においてシステム1は、2つの機能を有する。詳細には、システム1は、歌唱などのパフォーマンスを評価する評価装置としての機能と、パフォーマンスに効果を付与する演出装置としての機能を有する。
システム1において、端末装置20は、例えばコンピューターであり、所定のアプリケーションプログラムを実行することによって、入力部202、取得部204および効果付与部206の機能が実現される。
なお、説明の便宜上、パフォーマンスとして、歌唱者10による歌唱を例にとって説明する。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration of a system 1 according to the embodiment. In this figure, the system 1 has two functions. Specifically, the system 1 has a function as an evaluation device that evaluates performance such as singing and a function as an effect device that gives an effect to the performance.
In the system 1, the terminal device 20 is a computer, for example, and the functions of the input unit 202, the acquisition unit 204, and the effect applying unit 206 are realized by executing a predetermined application program.
For convenience of explanation, as a performance, singing by the singer 10 will be described as an example.

入力部202は、歌唱者10が歌唱したときの音響信号を入力してネットワーク30に出力する。一方、取得部204は、ネットワーク30を介して評価データを取得し、効果付与部206は、歌唱者10による音響信号に、取得された評価データにしたがった効果を付与する。
なお、効果付与部206によって効果が付与された信号は、スピーカー208によって放音される。また、ネットワーク30は、典型的にはインターネットである。
The input unit 202 inputs an acoustic signal when the singer 10 sings and outputs it to the network 30. On the other hand, the acquisition unit 204 acquires evaluation data via the network 30, and the effect imparting unit 206 imparts an effect according to the acquired evaluation data to the acoustic signal from the singer 10.
Note that the signal to which the effect is imparted by the effect imparting unit 206 is emitted by the speaker 208. The network 30 is typically the Internet.

当該ネットワーク30には、端末装置20のほか、評価部41、42および蓄積部60が接続される。
このうち、評価部41は、図の例では、オペレーター51によって操作されるコンピューターである。オペレーター51は、例えば音楽教室などの先生のような音楽に関する専門家であり、ネットワーク30を介して供給された音響信号に基づく歌唱を実際に聴いて、当該歌唱を主観的に評価し、その評価結果を評価部41に入力する。評価部42も同様なオペレーター52によって操作されるコンピューターである。オペレーター52も、ネットワーク30を介して供給された音響信号に基づく歌唱を実際に聴いて、当該歌唱を主観的に判断し、その評価結果を評価部42に入力する
なお、オペレーター51、52を例えばSNS(Social Networking Service)の会員としても良い。
In addition to the terminal device 20, evaluation units 41 and 42 and a storage unit 60 are connected to the network 30.
Among these, the evaluation part 41 is a computer operated by the operator 51 in the example of a figure. The operator 51 is a music specialist such as a teacher in a music classroom, for example, and listens to a song based on an acoustic signal supplied via the network 30 and subjectively evaluates the song. The result is input to the evaluation unit 41. The evaluation unit 42 is a computer operated by a similar operator 52. The operator 52 also actually listens to a song based on the acoustic signal supplied via the network 30, and subjectively determines the song, and inputs the evaluation result to the evaluation unit 42. You may be a member of SNS (Social Networking Service).

図2の上欄は、オペレーター51が評価結果を入力したことにより作成された評価データの一例である。
この図に示される評価データAは、ある歌唱についての評価内容が、評価(1)、評価(2)、評価(3)というように、開始点から終了点までにわたって時系列で記録される。なお、ここでいう評価内容には、例えば「いいね」など、オペレーター51(または52)の主観的な判断に基づくものであり、歌唱における経過時間(または区間)に対応付けられて指定される。
一方、図2の中欄は、別のオペレーター52が入力した評価結果を入力したことにより作成された評価データの一例である。この図に示される評価データBは、同じ曲の歌唱についての評価内容ではあるが、違う地点において評価(5)、評価(6)が対応付けられている。
The upper column of FIG. 2 is an example of evaluation data created by the operator 51 inputting an evaluation result.
In the evaluation data A shown in this figure, the evaluation contents of a certain song are recorded in time series from the start point to the end point, such as evaluation (1), evaluation (2), and evaluation (3). The evaluation content here is based on the subjective judgment of the operator 51 (or 52) such as “Like”, and is specified in association with the elapsed time (or section) in the singing. .
On the other hand, the middle column of FIG. 2 is an example of evaluation data created by inputting an evaluation result input by another operator 52. The evaluation data B shown in this figure is the evaluation content for the singing of the same song, but the evaluation (5) and the evaluation (6) are associated with each other at different points.

システム1は、評価部41および42の2つを有するが、実際には、評価部は、3機以上で多数設けられる。このように評価部を多数設けることによって、同じ1つの歌唱に対して多数の評価結果が得られることになる。なお、評価部が少数であっても、異なる複数のオペレーターが1つの歌唱に対して評価結果を入力する構成でも、同様に多数の評価結果が得られる。   Although the system 1 includes two evaluation units 41 and 42, in reality, a large number of evaluation units are provided with three or more units. By providing a large number of evaluation units in this way, a large number of evaluation results can be obtained for the same single song. Even if the number of evaluation units is small, even in a configuration in which different operators input evaluation results for one song, a large number of evaluation results can be obtained.

蓄積部60は、同じ1つの歌唱に対する評価データを蓄積する。
この蓄積の態様としては、例えばオペレーター51の評価結果による評価データAと、オペレーター52の評価結果による評価データBとを、図2の下欄に示されるように、各評価内容を時系列の順で配列させた評価データCとすることなどが考えられる。なお、このような場合に、同じ時間において複数の評価内容が重なることもあり得る。
The accumulation unit 60 accumulates evaluation data for the same single song.
As an accumulation mode, for example, evaluation data A based on the evaluation result of the operator 51 and evaluation data B based on the evaluation result of the operator 52 are arranged in the order of time series as shown in the lower column of FIG. It can be considered that the evaluation data C is arranged as described above. In such a case, a plurality of evaluation contents may overlap at the same time.

蓄積部60は、同じ歌唱に対して評価データを蓄積した場合に、当該蓄積結果に対応して効果データを作成する。この効果データは、図3に示されるように、例えば、評価内容に対応する効果内容を自時系列で配列させたものである。
評価内容がオペレーターによる主観的判断を伴うデータであるのに対し、効果内容は、評価内容が与えられた部分の歌唱がどのようなものであるのかを客観的に規定したデータである。
例えば、蓄積部60は、評価内容が与えられた時間(区間)の音響信号を、模範となるリファレンスレータと比較して、その差がどのように変動したのかを規定するデータの集合体を作成する。このため、同じ曲を別人が後日歌唱した場合に、当該歌唱信号に、当該効果データで規定される変動を効果として、同じ時間(区間)にて付与して、放音させると、先に評価内容が与えられた歌唱法に類似させることができる。
When the accumulation unit 60 accumulates evaluation data for the same song, the accumulation unit 60 creates effect data corresponding to the accumulation result. As shown in FIG. 3, the effect data is obtained by arranging effect contents corresponding to evaluation contents in a time series.
Whereas the content of the evaluation is data accompanied by subjective judgment by the operator, the content of the effect is data that objectively defines what kind of singing of the portion to which the content of evaluation is given.
For example, the storage unit 60 compares the acoustic signal of the time (section) for which the evaluation content is given with an exemplary referenceator, and creates a collection of data that defines how the difference fluctuated. To do. For this reason, when another person sings the same song at a later date, when the sound signal is given to the singing signal as an effect at the same time (section) and the sound is emitted, the evaluation is performed first. The content can be made similar to the singing method.

一方、蓄積部60は、評価データを蓄積した後、同じ曲の音響信号が端末装置20に入力される場合に、当該音響信号(曲)に対応した効果データを読み出し、ネットワーク30を介して当該端末装置20に供給する。   On the other hand, after accumulating the evaluation data, the accumulating unit 60 reads out the effect data corresponding to the acoustic signal (song) when the acoustic signal of the same song is input to the terminal device 20, and It is supplied to the terminal device 20.

次に、システム1について、まず、評価装置として機能する場合の動作について説明する。   Next, the operation of the system 1 when functioning as an evaluation device will be described first.

図4は、システム1において評価装置として機能する場合の構成を示す図であり、図1における取得部204および効果付与部206の機能が失効した(当該ブロックを用いない)状態となっている。
歌唱者10は、図示せぬパネルを用いて、曲名(曲番)を入力して、歌唱を行う。この際、アカペラでも良いし、カラオケ演奏を伴っても良い。入力部202は、歌唱者10による歌唱の音響信号を、曲名に対応付けてネットワーク30に出力し、オペレーター51、52は、当該音響信号を聴いて、次のようにして当該歌唱を評価する。
FIG. 4 is a diagram illustrating a configuration in the case where the system 1 functions as an evaluation apparatus, and the functions of the acquisition unit 204 and the effect imparting unit 206 in FIG. 1 have expired (the block is not used).
The singer 10 sings by inputting a song name (song number) using a panel (not shown). At this time, a cappella or karaoke performance may be accompanied. The input unit 202 outputs the acoustic signal of the song performed by the singer 10 to the network 30 in association with the song name, and the operators 51 and 52 listen to the acoustic signal and evaluate the song as follows.

図5は、評価部41(42)での評価動作を示すフローチャートである。
なお、この評価動作は、コンピューターである評価部41(42)において、例えば所定のプログラムによって実行される。
まず、オペレーター51(52)は、音響信号を聴いて歌唱の地点(区間)を指定しつつ評価内容を入力する(ステップSa1)。例えば、評価部41(42)は、歌唱の開始点から終了点までをバーグラフで表示させておき、オペレーター51(52)が、当該バーグラフのうち、「いいね」と評価すべき歌唱の地点(区間)をタッチ操作することで指定する。評価部41は、曲名に対応付けて当該地点の評価を記録する。これにより、当該地点の1箇所に評価内容が対応付けられる。
FIG. 5 is a flowchart showing the evaluation operation in the evaluation unit 41 (42).
This evaluation operation is executed by, for example, a predetermined program in the evaluation unit 41 (42) which is a computer.
First, the operator 51 (52) listens to an acoustic signal and inputs evaluation contents while designating a singing point (section) (step Sa1). For example, the evaluation unit 41 (42) displays from the start point to the end point of the singing in a bar graph, and the operator 51 (52) of the singing to be evaluated as “Like” in the bar graph. Specify by touching a point (section). The evaluation unit 41 records the evaluation of the point in association with the song name. Thereby, the evaluation content is associated with one place of the point.

次に、評価部41(42)は、評価終了が指示されたか否かを判別する(ステップSa2)。具体的には、評価部41(42)は、評価継続のボタン、および、評価終了のボタンをそれぞれ表示させておき、評価終了のボタンがオペレーター51(52)によってタッチされたか否か等を判断する。   Next, the evaluation unit 41 (42) determines whether or not an end of evaluation has been instructed (step Sa2). Specifically, the evaluation unit 41 (42) displays an evaluation continuation button and an evaluation end button, respectively, and determines whether or not the evaluation end button has been touched by the operator 51 (52). To do.

評価終了が指示されなければ(ステップSaの判別結果が「No」であれば)、評価部41(42)は、ステップSa1に戻して次の評価内容の入力に備える。評価終了が指示されていれば(ステップSaの判別結果が「Yes」であれば)、評価部41(42)は、入力された評価内容のすべてを各演奏地点に対応付け、さらに曲名に対応付けて蓄積部60に供給して(ステップSa3)、評価動作を終了させる。
なお、蓄積部60では、曲名に対応付けられた評価データが評価部41(42)から供給されたときに、当該評価データがすでに記録されていれば、図2の下欄に示されるように蓄積し、曲名に対応付けられた評価データが存在しなければ、当該評価データをそのまま記録する。
このように、当該歌唱に対する評価データが曲毎に、蓄積部60に順次蓄積される。
If the end of the evaluation is not instructed (if the determination result in step Sa is “No”), the evaluation unit 41 (42) returns to step Sa1 to prepare for the input of the next evaluation content. If the end of the evaluation is instructed (if the determination result in step Sa is “Yes”), the evaluation unit 41 (42) associates all of the input evaluation contents with each performance point and further corresponds to the song name. Then, the data is supplied to the storage unit 60 (step Sa3), and the evaluation operation is terminated.
In the storage unit 60, when the evaluation data associated with the song title is supplied from the evaluation unit 41 (42), if the evaluation data has already been recorded, as shown in the lower column of FIG. If there is no evaluation data stored and associated with the song name, the evaluation data is recorded as it is.
Thus, the evaluation data for the song is sequentially stored in the storage unit 60 for each song.

評価データが蓄積された状態において所定の条件を充足したとき、例えば所定数分の評価データを蓄積したとき、蓄積部60は、当該評価データに対応する効果データを作成して。   When a predetermined condition is satisfied in a state where the evaluation data is accumulated, for example, when a predetermined number of pieces of evaluation data are accumulated, the accumulation unit 60 creates effect data corresponding to the evaluation data.

図6は、システム1において演出装置として機能する場合の構成を示す図であり、図1における入力部202、評価部41および42の機能が失効した状態となっている。歌唱者10は、図示せぬパネルを用いて、曲名(曲番)を入力すると、当該曲名がネットワーク30を介して蓄積部60に供給される。なお、ここでの歌唱者10は、評価装置として機能させる場合の歌唱者10と同一人物であっても良いし、別人であっても良い。
蓄積部60は、当該曲名に対応する効果データを検索し、あれば当該効果データを、ネットワーク30を介して取得部204に供給する。取得部204は、当該効果データを効果付与部206にセットする。効果付与部206は、歌唱者10による歌唱の音響信号を入力すると、当該音響信号に対し、上記効果データで規定される効果を、当該効果データで規定される時間(区間)に付与する。なお、スピーカー208は、効果が付与された信号に基づいて放音する。
FIG. 6 is a diagram showing a configuration when the system 1 functions as a rendering device, and the functions of the input unit 202 and the evaluation units 41 and 42 in FIG. When the singer 10 inputs a song title (song number) using a panel (not shown), the song title is supplied to the storage unit 60 via the network 30. Here, the singer 10 may be the same person as the singer 10 when functioning as an evaluation device, or may be a different person.
The storage unit 60 searches for the effect data corresponding to the song title, and if there is, supplies the effect data to the acquisition unit 204 via the network 30. The acquisition unit 204 sets the effect data in the effect applying unit 206. When the acoustic signal of the singing by the singer 10 is input, the effect imparting unit 206 imparts the effect defined by the effect data to the acoustic signal for the time (section) defined by the effect data. Note that the speaker 208 emits sound based on the signal to which the effect is given.

この演出装置の機能によれば、新たに歌唱する場合に、当該歌唱に対し、すでに作成された効果データで規定される効果が付与されてスピーカー208から放音される。ここで、新たに歌唱する歌唱者は、評価データを作成した歌唱者であるか、別人であるかを問わない。
評価データを作成した歌唱者が新たに歌唱する場合とは、例えば評価データを作成しているときは練習であったが、新たに歌唱するときは本番である場合を想定している。
本番では、緊張のために、練習のようにうまく歌えない場合がある。そのような場合でも、練習のときに評価された内容の効果が、本番時での歌唱に付与されるので、スピーカー208から放音される歌唱を、練習時の歌唱に類似させることができる。
一方、評価データを作成した歌唱者とは別人が新たに歌唱する場合、すでに評価を得ている内容の効果が、当該別人による歌唱に付与されるので、スピーカー208から放音される歌唱を、評価を得ている歌唱に類似させることができる。
According to the function of this effect device, when a new song is sung, the effect specified by the already created effect data is given to the song and the sound is emitted from the speaker 208. Here, the singer who newly sings does not ask whether it is a singer who created evaluation data or another person.
The case where the singer who created the evaluation data sings is a practice when, for example, the evaluation data is created, but the case where the singer newly sings is a performance.
In production, due to tension, it may not sing as well as practice. Even in such a case, since the effect of the content evaluated at the time of practice is given to the song at the time of performance, the song emitted from the speaker 208 can be made similar to the song at the time of practice.
On the other hand, when another person sings newly from the singer who created the evaluation data, the effect of the content that has already been evaluated is given to the singing by the other person. It can be made similar to a song that has been evaluated.

なお、上記システム1において、評価部41(42)は、歌唱を、オペレーター51(52)により主観的に判断するとしたが、例えば、音響信号に含まれる拍手や歓声などのレベルがしきい値以上であるか否かによって客観的に判断する構成としても良い。   In the system 1, the evaluation unit 41 (42) subjectively determines the singing by the operator 51 (52). For example, the level of applause or cheer included in the acoustic signal is greater than or equal to a threshold value. It is good also as a structure judged objectively by whether it is.

また、入力部202に歌唱に伴う音響信号を入力する構成としたが、歌唱以外の、例えばギター、バイオリン、ピアノなどの演奏に伴う音を音響信号として入力する構成としても良い。この構成によれば、新たに演奏する場合、当該演奏に伴う演奏音に、すでに評価を得ている内容の効果が付与されるので、スピーカー208から放音される演奏音を、評価を得ている演奏に類似させることができる。演奏音と歌唱音との双方を含んでも良い。すなわち、パフォーマンスとは、歌唱または演奏との少なくとも一方を含む表現である。   Moreover, although it was set as the structure which inputs the acoustic signal accompanying a song to the input part 202, it is good also as a structure which inputs the sound accompanying performances, such as a guitar, a violin, a piano other than a song, as an acoustic signal. According to this configuration, when a new performance is performed, the performance sound that accompanies the performance is given to the performance sound that accompanies the performance, so that the performance sound emitted from the speaker 208 is evaluated. You can resemble the performance you are playing. Both performance sound and singing sound may be included. That is, the performance is an expression including at least one of singing or playing.

1…システム、20…端末装置、41、42…評価部、60…蓄積部、202…入力部、204…取得部、206…効果付与部。
DESCRIPTION OF SYMBOLS 1 ... System, 20 ... Terminal device, 41, 42 ... Evaluation part, 60 ... Accumulation part, 202 ... Input part, 204 ... Acquisition part, 206 ... Effect provision part.

Claims (1)

歌唱または演奏の少なくとも一方を含むパフォーマンスに対し、当該パフォーマンスの時間または区間に対応付けて評価する評価部と、
前記評価部による評価を蓄積する蓄積部と、
パフォーマンスに含まれる音響信号が新たに入力された端末装置に、当該パフォーマンスの評価に対応付けられた効果データを蓄積部から取得する取得部204と、
を具備し、
前記端末装置は、新たにパフォーマンスに含まれる音響信号が入力された場合、当該音響信号に、当該効果データに対応付けられた効果を当該評価に対応付けられた時間または区間で施す
パフォーマンスの評価装置。
For a performance that includes at least one of singing or performance, an evaluation unit that evaluates in association with the time or section of the performance,
An accumulation unit for accumulating evaluations by the evaluation unit;
An acquisition unit 204 that acquires, from a storage unit, effect data associated with an evaluation of the performance to a terminal device in which an acoustic signal included in the performance is newly input;
Comprising
When the terminal device newly receives an acoustic signal included in the performance, the terminal device performs an effect associated with the effect data on the acoustic signal for a time or interval associated with the evaluation. .
JP2017058499A 2017-03-24 2017-03-24 Performance evaluation system Pending JP2018159900A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017058499A JP2018159900A (en) 2017-03-24 2017-03-24 Performance evaluation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017058499A JP2018159900A (en) 2017-03-24 2017-03-24 Performance evaluation system

Publications (1)

Publication Number Publication Date
JP2018159900A true JP2018159900A (en) 2018-10-11

Family

ID=63796615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017058499A Pending JP2018159900A (en) 2017-03-24 2017-03-24 Performance evaluation system

Country Status (1)

Country Link
JP (1) JP2018159900A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI873849B (en) * 2023-09-13 2025-02-21 中華電信股份有限公司 System and method for singing technique recognition and computer program product for implementing the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI873849B (en) * 2023-09-13 2025-02-21 中華電信股份有限公司 System and method for singing technique recognition and computer program product for implementing the same

Similar Documents

Publication Publication Date Title
P. McPherson et al. The problem of the second performer: Building a community around an augmented piano
US9286808B1 (en) Electronic method for guidance and feedback on musical instrumental technique
CN108257588B (en) Music composing method and device
JP5346114B1 (en) Educational device and method for music expression and music performance evaluation device
Ghamsari et al. Combining musical tasks and improvisation in evaluating novel digital musical instruments
JP2014206697A (en) Performance evaluation device, performance evaluation method, and program
CN111354325B (en) Automatic word and song creation system and method thereof
JP2013024967A (en) Display device, method for controlling the device, and program
JP2018159900A (en) Performance evaluation system
US10002541B1 (en) Musical modification method
JP6693176B2 (en) Lyrics generation device and lyrics generation method
JP2015087617A (en) Device and method for generating guide vocal of karaoke
KR100894866B1 (en) Piano lessons using animation and evaluation system using sound waves
JP5708730B2 (en) Musical performance device and musical performance processing program
Jaime et al. A new multiformat rhythm game for music tutoring
JP2018159901A (en) Performance representation device
Hiebert Listening to the Piano Pedal: Acoustics and Pedagogy in Late Nineteenth-Century Contexts
CN105551472A (en) Music score generation method with fingering marks and system thereof
Pinch et al. Instruments and innovation
CN110189732B (en) A method for automatically teaching musical instruments and singing by using computer software
JP2017173641A (en) Score display control device and program
JP2013231881A (en) Karaoke scoring system
JP7571804B2 (en) Information processing system, electronic musical instrument, information processing method, and machine learning system
JP2016050974A (en) Karaoke scoring system
Miguel Experimental creative practice at the piano: a case study

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200923

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210427

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210614

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211116