[go: up one dir, main page]

JP2022036359A - Music production device, terminal device, music production method, program, and recording medium - Google Patents

Music production device, terminal device, music production method, program, and recording medium Download PDF

Info

Publication number
JP2022036359A
JP2022036359A JP2020112781A JP2020112781A JP2022036359A JP 2022036359 A JP2022036359 A JP 2022036359A JP 2020112781 A JP2020112781 A JP 2020112781A JP 2020112781 A JP2020112781 A JP 2020112781A JP 2022036359 A JP2022036359 A JP 2022036359A
Authority
JP
Japan
Prior art keywords
sound source
data
source data
unit
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020112781A
Other languages
Japanese (ja)
Other versions
JP7026412B1 (en
Inventor
敏秀 金
Binshu Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JE International Corp
Original Assignee
JE International Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JE International Corp filed Critical JE International Corp
Priority to JP2020112781A priority Critical patent/JP7026412B1/en
Application granted granted Critical
Publication of JP7026412B1 publication Critical patent/JP7026412B1/en
Publication of JP2022036359A publication Critical patent/JP2022036359A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

To provide a music production device which allows a plurality of players or singers to play or sing to create one piece of music.SOLUTION: A music production device (server 1) includes: a karaoke supply part 22; a sound source acquisition part 24; a selection part 25; and a mixing execution part 26. The karaoke supply part supplies karaoke data for each part of the music to the outside (terminal devices 2 which individual users possess). The sound source acquisition part acquires and accumulates sound source data for each part, which the individual users play and corresponds to the karaoke data, from each terminal device. The selection part selects representative sound source data which represents the part from the sound source data which the sound source acquisition part acquires. The mixing execution part generates final sound source data being sound source data including the plurality of parts by mixing the representative sound source data which the selection part selects on the plurality of parts constituting the music.SELECTED DRAWING: Figure 1

Description

本発明は、楽曲制作装置、端末装置、楽曲制作方法、プログラム、および記録媒体に関する。 The present invention relates to a music production device, a terminal device, a music production method, a program, and a recording medium.

インターネットを用いた仕組みを用いることにより、シンガー(歌手)あるいは楽器演奏者が、コラボレーションして楽曲の演奏を行うことが試みられている。 It is attempted that a singer (singer) or a musical instrument player collaborates to play a musical piece by using a mechanism using the Internet.

例えば、特許文献1には、マイクによってキャプチャーされたオーディオおよびカラオケ演奏に関連した楽曲オーディオと、キャプチャーされたビデオを組み合わせて、カラオケ演奏の組み合わされた記録を作成する技術が記載されている。特許文献1に記載されている技術では、多数のデジタルダウンロードジュークボックスをネットワークで接続している。特許文献1の段落0082には、「歌手は、例えば、ビートとの共時性、期待されるノートやピッチからのズレ、および/または、観衆の反応、測定された拍手、KJ、他の公認の人からの客観的な評価、ゲストの判断のような量的な尺度、適切な測定装置を介して決定された量的な尺度に基づいて、ランキングされるか、得点が与えられる。」ことが記載されている。また、特許文献1の段落0085には、「カラオケジュークボックスは、楽曲音楽メディアをレンダリングする一方で、インバウンド演奏オーディオを重ねるために、リアルタイム音楽ミキシングおよび操作装置を提供する。これら2つのオーディオストリームは、オリジナルの音楽と会場でキャプチャーされたオーディオとを含む混合オーディオファイルを生成するためのミキシングアレンジによって、混合される。」ことが記載されている。 For example, Patent Document 1 describes a technique for creating a combined recording of a karaoke performance by combining the audio captured by a microphone and the music audio related to the karaoke performance with the captured video. In the technique described in Patent Document 1, a large number of digital download jukeboxes are connected by a network. Paragraph 882 of Patent Document 1 states, "Singer is, for example, synchronism with the beat, expected note or pitch deviation, and / or audience reaction, measured applause, KJ, or other official recognition. It is ranked or scored based on an objective evaluation from a person, a quantitative scale such as a guest's judgment, or a quantitative scale determined through an appropriate measuring device. " Is described. Further, in paragraph 805 of Patent Document 1, "Karaoke jukebox provides a real-time music mixing and operation device for superimposing inbound performance audio while rendering music music media. These two audio streams are provided. , Mixed by a mixing karaoke to generate a mixed audio file containing the original music and the audio captured at the venue. "

特開2018-136547号公報Japanese Unexamined Patent Publication No. 2018-136547

しかしながら、特許文献1に記載された技術では、予め収録されたオーディオ(特許文献1の段落0085に記載の「楽曲音楽メディア」)と、リアルタイムで演奏されるオーディオ(特許文献1の段落0085に記載の「インバウンド演奏オーディオ」)とのミキシングを行うのみである。つまり、背景技術では、例えば相互に見知らぬ複数のシンガーあるいは演奏者が、演奏して1つの楽曲を作り上げるということはできない。 However, in the technique described in Patent Document 1, pre-recorded audio (“musical music media” described in paragraph 805 of Patent Document 1) and audio played in real time (described in paragraph 805 of Patent Document 1). It only mixes with the "inbound performance audio"). That is, in the background technique, for example, it is not possible for a plurality of singers or performers who are unknown to each other to perform to create one song.

本発明は、上記の課題の認識に基づいて行なわれたものであり、複数のシンガーあるいは演奏者が、ネットワーク等を介して1つの楽曲を作り上げることのできる楽曲制作装置、端末装置、楽曲制作方法、プログラム、および記録媒体を提供しようとするものである。 The present invention has been made based on the recognition of the above-mentioned problems, and is a music production device, a terminal device, and a music production method capable of allowing a plurality of singers or performers to create one music via a network or the like. , Programs, and recording media.

[1]上記の課題を解決するため、本発明の一態様による楽曲制作装置は、楽曲のパートごとのカラオケデータを外部に提供するカラオケ提供部と、前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得部と、前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択部と、前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行部とを具備する。 [1] In order to solve the above problems, the music production device according to one aspect of the present invention has a karaoke providing unit that provides karaoke data for each part of the music to the outside, and a sound source for each part corresponding to the karaoke data. About each of a sound source acquisition unit that acquires and accumulates data, a selection unit that selects representative sound source data representing the part from the sound source data acquired by the sound source acquisition unit, and a plurality of parts that compose the music. It includes a mixing execution unit that creates final sound source data that is sound source data including the plurality of parts by mixing the representative sound source data selected by the selection unit.

[2]また、本発明の一態様は、上記の楽曲制作装置において、前記パートは、前記楽曲を構成するための楽器のパートまたは歌唱のパートであるというものである。 [2] Further, one aspect of the present invention is that in the above-mentioned music production apparatus, the part is a musical instrument part or a singing part for composing the music.

[3]また、本発明の一態様は、上記の楽曲制作装置において、前記音源取得部は、前記パートごとの前記音源データを、前記パートごとに独立のタイミングで取得する。 [3] Further, in one aspect of the present invention, in the music production apparatus, the sound source acquisition unit acquires the sound source data for each part at independent timings for each part.

[4]また、本発明の一態様は、上記の楽曲制作装置において、前記楽曲の前記パートごとの楽譜データを外部に提供する楽譜提供部、をさらに備え、前記音源取得部は、前記楽譜データにも対応する前記パートごとの前記音源データを取得するものである。 [4] Further, in one aspect of the present invention, the music production apparatus further includes a music score providing unit for providing music score data for each part of the music to the outside, and the sound source acquisition unit includes the music score data. Also, the sound source data for each part corresponding to the above is acquired.

[5]また、本発明の一態様は、上記の楽曲制作装置において、前記選択部は、前記音源データにおける音程および拍子と、正解の音程および拍子と、を比較することによって、前記音源データの前記正解を基準としたときの正確さを表す評価結果である機械評価と、前記音源データに関して審査員の端末装置から受信した評価結果である審査員評価と、前記音源データに関してユーザーの端末装置から受信した評価結果であるユーザー評価と、前記音源データに関してユーザーの端末装置から送信された「いいね」の数を評価結果とした「いいね」数と、前記音源データがユーザーの端末装置で再生された回数を評価結果とした再生回数と、前記音源データがユーザーの端末装置で再生された時間の総計を評価結果とした再生時間と、の少なくともいずれかの評価結果に基づいて、前記パートを代表する前記代表音源データを選択するものである。 [5] Further, in one aspect of the present invention, in the music production apparatus, the selection unit compares the pitch and beat of the sound source data with the correct pitch and beat of the sound source data. Machine evaluation, which is an evaluation result indicating accuracy when the correct answer is used as a reference, auditor evaluation, which is an evaluation result received from the auditor's terminal device regarding the sound source data, and user's terminal device regarding the sound source data. The user evaluation, which is the received evaluation result, the number of "likes", which is the number of "likes" transmitted from the user's terminal device regarding the sound source data, and the sound source data are played back on the user's terminal device. The part is based on at least one of the evaluation results of the number of times of reproduction based on the number of times of evaluation and the reproduction time of the total time of the sound source data being reproduced on the user's terminal device. The representative sound source data is selected.

[6]また、本発明の一態様は、上記の楽曲制作装置において、前記選択部は、前記機械評価と、前記審査員評価と、前記ユーザー評価と、前記「いいね」数と、前記再生回数と、前記再生時間とのうちの、すくなくとも2つの評価に基づいて総合評価を算出し、算出された前記総合評価に基づいて、前記パートを代表する前記代表音源データを選択するというものである。 [6] Further, in one aspect of the present invention, in the music production apparatus, the selection unit has the machine evaluation, the judge evaluation, the user evaluation, the number of "likes", and the reproduction. A comprehensive evaluation is calculated based on at least two evaluations of the number of times and the playback time, and the representative sound source data representing the part is selected based on the calculated comprehensive evaluation. ..

[7]また、本発明の一態様は、上記の楽曲制作装置において、前記音源データは、前記カラオケデータを提供した先の端末装置のユーザーの演奏または歌唱を収録したサウンドのデータであり、前記選択部は、前記端末装置から取得した前記音源データのみの中から、前記パートを代表する前記代表音源データを選択するものである。 [7] Further, in one aspect of the present invention, in the music production device, the sound source data is sound data recording the performance or singing of the user of the terminal device to which the karaoke data is provided. The selection unit selects the representative sound source data representing the part from only the sound source data acquired from the terminal device.

[8]また、本発明の一態様は、上記の楽曲制作装置において、前記カラオケデータは、パート間の再生同期のための同期信号を含んでおり、前記音源データは、前記カラオケデータが含んでいた前記同期信号を引き継いで持つものであり、前記ミキシング実行部は、前記代表音源データが持つ前記同期信号に基づいて前記パート間の再生同期をとりながら複数の前記代表音源データをミキシングするものである。 [8] Further, in one aspect of the present invention, in the music production apparatus, the karaoke data includes a synchronization signal for playback synchronization between parts, and the sound source data includes the karaoke data. The mixing execution unit inherits and has the synchronization signal, and the mixing execution unit mixes a plurality of the representative sound source data while performing reproduction synchronization between the parts based on the synchronization signal of the representative sound source data. be.

[9]また、本発明の一態様は、上記の楽曲制作装置において、前記ミキシング実行部は、作成した前記最終音源データを、インターネットを介して送信可能とするものである。 [9] Further, in one aspect of the present invention, in the above-mentioned music production apparatus, the mixing execution unit enables the created final sound source data to be transmitted via the Internet.

[10]また、本発明の一態様は、カラオケ提供部が、楽曲のパートごとのカラオケデータを外部に提供するカラオケ提供過程と、音源取得部が、前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得過程と、選択部が、前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択過程と、ミキシング実行部が、前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行過程とを含む楽曲制作方法である。 [10] Further, one aspect of the present invention is a karaoke providing process in which the karaoke providing unit provides karaoke data for each part of the music to the outside, and a sound source acquisition unit provides a sound source for each part corresponding to the karaoke data. The sound source acquisition process of acquiring and accumulating data, the selection process of selecting the representative sound source data representing the part from the sound source data acquired by the sound source acquisition unit, and the mixing execution unit of the music. Music production including a mixing execution process of creating final sound source data which is sound source data including the plurality of parts by mixing the representative sound source data selected by the selection unit for each of the plurality of parts constituting the above. The method.

[11]また、本発明の一態様は、楽曲のパートごとのカラオケデータを外部に提供するカラオケ提供部と、前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得部と、前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択部と、前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行部とを具備する楽曲制作装置、としてコンピューターを機能させるプログラムである。 [11] Further, one aspect of the present invention is a karaoke providing unit that provides karaoke data for each part of a song to the outside, and a sound source acquisition unit that acquires and stores sound source data for each part corresponding to the karaoke data. And the selection unit that selects representative sound source data representing the part from the sound source data acquired by the sound source acquisition unit, and the representative sound source data selected by the selection unit for each of the plurality of parts constituting the music. It is a program that makes a computer function as a music production device including a mixing execution unit that creates final sound source data which is sound source data including the plurality of parts by mixing.

[12]また、本発明の一態様は、楽曲のパートごとのカラオケデータを外部に提供するカラオケ提供部と、前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得部と、前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択部と、前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行部と、を具備する楽曲制作装置、としてコンピューターを機能させるプログラムを記録した、コンピューター読み取り可能な記録媒体である。 [12] Further, one aspect of the present invention is a karaoke providing unit that provides karaoke data for each part of a song to the outside, and a sound source acquisition unit that acquires and stores sound source data for each part corresponding to the karaoke data. The representative sound source data selected by the selection unit for each of the selection unit for selecting the representative sound source data representing the part from the sound source data acquired by the sound source acquisition unit and the plurality of parts constituting the music. A computer-readable record that records a program that causes the computer to function as a music production device, including a mixing execution unit that creates final sound source data that is sound source data including the plurality of parts by mixing. It is a medium.

[13]また、本発明の一態様は、カラオケデータと楽譜データとを受信するデータ受信部と、前記カラオケデータをサウンドとして提示するとともに、前記楽譜データに基づく楽譜を視覚情報として画面に提示する提示部と、前記提示部による前記カラオケデータの提示に合わせて外部から取得したサウンドを音源データとして記録するサウンド記録部と、前記音源データを評価して機械評価データを出力する評価部と、前記音源データおよび前記機械評価データを送信するデータ送信部とを具備する端末装置である。 [13] Further, in one aspect of the present invention, a data receiving unit that receives karaoke data and score data, the karaoke data is presented as sound, and a score based on the score data is presented on the screen as visual information. The presentation unit, a sound recording unit that records sound acquired from the outside in accordance with the presentation of the karaoke data by the presentation unit as sound source data, an evaluation unit that evaluates the sound source data and outputs machine evaluation data, and the above. It is a terminal device including a data transmission unit for transmitting sound source data and the machine evaluation data.

本発明によれば、楽曲制作装置は、パートごとの音源データを取得して、それらの音源データの中から選択された代表音源データのみを用いて、最終音源データを作成することができる。 According to the present invention, the music production apparatus can acquire sound source data for each part and create final sound source data using only representative sound source data selected from those sound source data.

本発明によれば、楽曲制作装置は、ユーザーが自分のパートの音源データを制作して楽曲制作装置に送信するだけで、すべてのパートをも含めた全体の最終音源データを作成することができる。また、このように制作された最終音源データを、一般に対して公開することができる。 According to the present invention, the music production device can create the entire final sound source data including all the parts only by the user producing the sound source data of his / her own part and transmitting it to the music production device. .. In addition, the final sound source data produced in this way can be disclosed to the general public.

本発明の実施形態によるシステム(特に、サーバー装置)の概略機能構成を示すブロック図である。It is a block diagram which shows the schematic functional structure of the system (particularly, a server apparatus) by embodiment of this invention. 同実施形態による端末装置の概略機能構成を示すブロック図である。It is a block diagram which shows the schematic functional structure of the terminal apparatus by the same embodiment. 同実施形態によるデータベース内の管理情報記憶部が持つ楽曲管理テーブルの構成の例を示す概略図である。It is a schematic diagram which shows the example of the structure of the music management table which the management information storage part in a database by the same embodiment has. 同実施形態によるデータベース内のカラオケ記憶部が持つカラオケテーブル(MRテーブル)の構成の例を示す概略図である。It is a schematic diagram which shows the example of the structure of the karaoke table (MR table) which the karaoke storage part in the database by the same embodiment has. 同実施形態によるデータベース内の楽譜記憶部が持つ楽譜テーブルの構成の例を示す概略図である。It is a schematic diagram which shows the example of the structure of the musical score table which the musical score storage part in the database by the same embodiment has. 同実施形態によるデータベース内の取得音源記憶部が持つ取得音源テーブルの構成の例を示す概略図である。It is a schematic diagram which shows the example of the structure of the acquisition sound source table which the acquisition sound source storage part in the database by the same embodiment has. 同実施形態によるデータベース内の管理情報記憶部が持つ音源評価テーブルの構成の例を示す概略図である。It is a schematic diagram which shows the example of the structure of the sound source evaluation table which the management information storage part in a database by the same embodiment has. 同実施形態によるデータベース内の管理情報記憶部が持つ選択音源テーブルの構成の例を示す概略図である。It is a schematic diagram which shows the example of the structure of the selection sound source table which the management information storage part in a database by the same embodiment has. 同実施形態によるデータベース内の最終音源記憶部が持つ最終音源テーブルの構成の例を示す概略図である。It is a schematic diagram which shows the example of the structure of the final sound source table which the final sound source storage part in the database by the same embodiment has. 同実施形態によるサーバー装置が最終音源を制作するまでの処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process until the server apparatus of the same embodiment produces a final sound source. 同実施形態における本実施形態のサーバー装置や端末装置などの各装置の内部構成の例を示すブロック図である。It is a block diagram which shows the example of the internal structure of each device such as a server device and a terminal device of this embodiment in the same embodiment.

次に、図面を参照しながら、本発明の実施形態について説明する。 Next, an embodiment of the present invention will be described with reference to the drawings.

以下で説明する実施形態では、サーバー装置1が、特定の楽曲について、スケジュールを決めて、端末装置2のユーザーからの音源を募集する。音源を募集する際に、サーバー装置1は、パートごとの音源を募集する。ここで、パートとは、楽器ごと(ヴォーカルを含む)の演奏等の分担を指す。なお、1種類の楽器が、複数のパートを持つ場合(例えば、リードギターと、サイドギターなど)もある。上記の募集のために、サーバー装置1は、パートごとの、楽譜とカラオケとを提供する。サーバー装置1は、楽譜データとカラオケデータとを端末装置2に対して送信することができる。端末装置2は、サーバー装置1から受信した楽譜データに基づいて楽譜を画面等に表示する。また、端末装置2は、サーバー装置1から受信したカラオケデータに基づいて、カラオケ(MR)の再生を行う。カラオケのサウンドは、例えば端末装置2に接続されたスピーカーやイヤフォン等から出力され得る。端末装置2は、ユーザーが演奏する楽器や、ユーザーが歌う歌(ヴォーカル)の、サウンドを収録し、音源データとして記録する。端末装置2は、サーバー装置1の募集に応じて、音源データをサーバー装置1に送信する。サーバー装置1は、多数の端末装置2から送られる音源データを収集し、蓄積する。サーバー装置1は、特定の楽曲のパートごとに、音源データを評価する。サーバー装置1は、評価の高い音源データをミキシングして、最終音源データを作成する。 In the embodiment described below, the server device 1 determines a schedule for a specific musical piece and solicits sound sources from users of the terminal device 2. When soliciting sound sources, the server device 1 solicits sound sources for each part. Here, the part refers to the division of performance of each instrument (including vocals). In some cases, one type of instrument has a plurality of parts (for example, a lead guitar and a side guitar). For the above recruitment, the server device 1 provides a score and karaoke for each part. The server device 1 can transmit the score data and the karaoke data to the terminal device 2. The terminal device 2 displays the score on a screen or the like based on the score data received from the server device 1. Further, the terminal device 2 reproduces karaoke (MR) based on the karaoke data received from the server device 1. The karaoke sound can be output from, for example, a speaker or earphone connected to the terminal device 2. The terminal device 2 records the sounds of the musical instrument played by the user and the song (vocal) sung by the user, and records the sound as sound source data. The terminal device 2 transmits the sound source data to the server device 1 in response to the solicitation of the server device 1. The server device 1 collects and stores sound source data sent from a large number of terminal devices 2. The server device 1 evaluates sound source data for each part of a specific musical piece. The server device 1 mixes highly evaluated sound source data to create final sound source data.

なお、端末装置2を使用するユーザーたちが、演奏等を収録する際に、他の端末装置2のユーザーと同期を取る必要はない。端末装置2のユーザーは、各々の独立のタイミング、好きなタイミングで演奏等を行い、音源データをサーバー装置1に送信してよい。後述するように、楽曲における複数のパート間の同期は、ミキシング処理時に行われる。また、端末装置2のユーザー同士が、予め示し合わせて同一の楽曲に関する音源データを投稿する必要もない。個々の端末装置2のユーザーは、他の端末装置2のユーザーが楽曲のどのパートを担当するかを意識することなく、自らの希望するパートの音源データを投稿することができる。 It should be noted that the users of the terminal device 2 do not need to synchronize with the users of the other terminal devices 2 when recording the performance or the like. The user of the terminal device 2 may perform a performance or the like at each independent timing or at a desired timing, and transmit the sound source data to the server device 1. As will be described later, synchronization between a plurality of parts in a musical piece is performed during the mixing process. Further, it is not necessary for the users of the terminal device 2 to post sound source data related to the same music by showing them in advance. The user of each terminal device 2 can post the sound source data of the part desired by the user of the other terminal device 2 without being conscious of which part of the music the user of the other terminal device 2 is in charge of.

上で述べた「音源データ」は、各パートの音を収録したデータであり、端末装置2からサーバー装置1に送られ、サーバー装置1において蓄積されるものである。また、「最終音源データ」は、上記の各パートの音源データをミキシングして作成されたデータである。「最終音源データ」は、特定の楽曲の、例えば全パートの音源データをミキシングして作成されたものである。 The "sound source data" described above is data in which the sound of each part is recorded, is sent from the terminal device 2 to the server device 1, and is stored in the server device 1. The "final sound source data" is data created by mixing the sound source data of each of the above parts. The "final sound source data" is created by mixing the sound source data of a specific music piece, for example, all parts.

本実施形態で使用する用語のうち、XMLは、拡張可能なマーク付け言語(Extensible Markup Language)を意味する。また、MRは、Music Recordedの略である。MRは、いわゆるカラオケである。また、サウンド(sound)は、空気等の媒体の振動によって生じる聴覚の内容である。サウンドは、日本語では「音」あるいは「音声」などとも呼ばれる。本実施形態において、サウンドは、主に楽音である。本実施形態におけるサウンドは、楽器演奏による音や、人の歌唱による音や、コンピューター(シンセサイザー)を用いて合成された音を含んでよい。 Among the terms used in this embodiment, XML means an extensible markup language. MR is an abbreviation for Music Recorded. MR is so-called karaoke. Further, sound is the content of hearing generated by the vibration of a medium such as air. Sound is also called "sound" or "voice" in Japanese. In this embodiment, the sound is mainly a musical tone. The sound in the present embodiment may include a sound produced by playing a musical instrument, a sound produced by a person singing, or a sound synthesized by using a computer (synthesizer).

図1は、本実施形態によるシステムの概略機能構成を示すブロック図である。図示するように、このシステムは、サーバー装置1と、端末装置2とを、通信で接続して構成される。サーバー装置1は、「楽曲制作装置」とも呼ばれる。サーバー装置(楽曲制作装置)1は、端末インターフェース部10と、音源募集機能部21と、カラオケ提供部22と、楽譜提供部23と、音源取得部24と、選択部25と、ミキシング実行部26と、データベース30とを含んで構成される。これらの各機能部は、例えば、コンピューターと、プログラムとで実現することが可能である。また、各機能部は、必要に応じて、記憶手段を有する。記憶手段は、例えば、プログラム上の変数や、プログラムの実行によりアロケーションされるメモリーである。また、必要に応じて、磁気ハードディスク装置やソリッドステートドライブ(SSD)といった不揮発性の記憶手段を用いるようにしてもよい。また、各機能部の少なくとも一部の機能を、プログラムではなく専用の電子回路として実現してもよい。 FIG. 1 is a block diagram showing a schematic functional configuration of a system according to the present embodiment. As shown in the figure, this system is configured by connecting the server device 1 and the terminal device 2 by communication. The server device 1 is also referred to as a "music production device". The server device (music production device) 1 includes a terminal interface unit 10, a sound source recruitment function unit 21, a karaoke providing unit 22, a score providing unit 23, a sound source acquisition unit 24, a selection unit 25, and a mixing execution unit 26. And the database 30 are included. Each of these functional units can be realized by, for example, a computer and a program. In addition, each functional unit has a storage means, if necessary. The storage means is, for example, a variable on the program or a memory allocated by executing the program. Further, if necessary, a non-volatile storage means such as a magnetic hard disk device or a solid state drive (SSD) may be used. Further, at least a part of the functions of each functional unit may be realized not as a program but as a dedicated electronic circuit.

端末インターフェース部10は、端末装置2に対するインターフェースの機能を持つ。具体的には、端末インターフェース部10は、端末装置2に対して各種データ(カラオケデータや楽譜データを含む)を送信したり、端末装置2から各種データ(音源データおよび関連するデータ)を受信したりする。 The terminal interface unit 10 has a function of an interface to the terminal device 2. Specifically, the terminal interface unit 10 transmits various data (including karaoke data and score data) to the terminal device 2, and receives various data (sound source data and related data) from the terminal device 2. Or something.

音源募集機能部21は、端末装置2に対し手、音源を募集する旨の情報を提示する。具体的には、音源募集機能部21は、端末装置2で表示するための募集情報を、端末装置2に対して送信する。 The sound source solicitation function unit 21 presents information to the terminal device 2 to solicit hands and sound sources. Specifically, the sound source recruitment function unit 21 transmits the recruitment information to be displayed on the terminal device 2 to the terminal device 2.

カラオケ提供部22は、楽曲のパート(楽器やヴォーカル)ごとのカラオケデータを外部に提供する。カラオケ提供部22は、そのカラオケデータを、データベース30のカラオケ記憶部31から読み出して外部に提供する。具体的には、カラオケ提供部22は、カラオケデータを、端末装置2に送信する。上記の通り、パートとは、楽曲を構成するための楽器のパートまたは歌唱のパートである。 The karaoke providing unit 22 provides karaoke data for each part (musical instrument or vocal) of the music to the outside. The karaoke providing unit 22 reads the karaoke data from the karaoke storage unit 31 of the database 30 and provides the karaoke data to the outside. Specifically, the karaoke providing unit 22 transmits the karaoke data to the terminal device 2. As described above, a part is a musical instrument part or a singing part for composing a musical piece.

楽譜提供部23は、楽曲のパートごとの楽譜データを外部に提供する。具体的には、楽譜提供部23は、楽譜データを、データベース30の楽譜記憶部32から読み出す。また、楽譜提供部23は、楽譜データを、端末装置2に対して送信することができる。 The score providing unit 23 provides score data for each part of the music to the outside. Specifically, the score providing unit 23 reads the score data from the score storage unit 32 of the database 30. Further, the score providing unit 23 can transmit the score data to the terminal device 2.

音源取得部24は、前記カラオケデータに対応するパートごとの音源データを取得して、蓄積する。音源取得部24が取得する音源データは、前記楽譜データにも対応するものである。具体的には、音源取得部24は、音源データを端末装置2から受信する。また、音源取得部24は、取得した音源データを、データベース30の取得音源記憶部33に書き込む。また、音源取得部24は、端末装置から、その音源データの機械評価の結果を受信して、データベース30の管理情報記憶部35に書き込むことができる。 The sound source acquisition unit 24 acquires and stores sound source data for each part corresponding to the karaoke data. The sound source data acquired by the sound source acquisition unit 24 also corresponds to the musical score data. Specifically, the sound source acquisition unit 24 receives the sound source data from the terminal device 2. Further, the sound source acquisition unit 24 writes the acquired sound source data in the acquisition sound source storage unit 33 of the database 30. Further, the sound source acquisition unit 24 can receive the result of machine evaluation of the sound source data from the terminal device and write it in the management information storage unit 35 of the database 30.

なお、音源取得部24は、パートごとの音源データを、パートごとに独立のタイミングで取得することができる。また、音源取得部24は、個々の端末装置2から、それぞれの端末装置2ごとに独立のタイミングで、音源データを取得することができる。つまり、端末装置2側のユーザーは、他の端末装置2のユーザーとの間で、音源データを作成するタイミングや、音源データを投稿するタイミングを、同期したり調節したりする必要がない。 The sound source acquisition unit 24 can acquire sound source data for each part at independent timings for each part. Further, the sound source acquisition unit 24 can acquire sound source data from each terminal device 2 at independent timings for each terminal device 2. That is, the user on the terminal device 2 side does not need to synchronize or adjust the timing of creating the sound source data and the timing of posting the sound source data with the user of the other terminal device 2.

選択部25は、楽曲ごと且つパートごとに、最終音源に取り込むための音源データを選択する。具体的には、選択部25は、音源データごとの評価の情報を収集し、データベース30内の管理情報記憶部35に書き込む。また、選択部25は、収集した評価の情報に基づき、総合評価のポイントを算出する。例えば、選択部25は、複数の評価項目の数値の加重和(または加重平均)を算出して、総合評価のポイントとする。このときの評価項目ごとの重み値は、予め設定しておく。あるいは、機械学習等の手法を用いて、重み値の集合を予め最適化しておいてもよい。選択部25は、算出した総合評価のポイントを、管理情報記憶部35に書き込む。 The selection unit 25 selects sound source data to be captured in the final sound source for each song and each part. Specifically, the selection unit 25 collects evaluation information for each sound source data and writes it in the management information storage unit 35 in the database 30. In addition, the selection unit 25 calculates points for comprehensive evaluation based on the collected evaluation information. For example, the selection unit 25 calculates a weighted sum (or weighted average) of numerical values of a plurality of evaluation items and uses them as points for comprehensive evaluation. The weight value for each evaluation item at this time is set in advance. Alternatively, a set of weight values may be optimized in advance by using a method such as machine learning. The selection unit 25 writes the calculated comprehensive evaluation points in the management information storage unit 35.

選択部25が選択するのは、ミキシング実行部26によって用いられる、パートごとの代表である代表音源データである。つまり、選択部25によって選択された音源データは、代表音源データと呼ばれる。選択部25は、楽曲のパートごとに、代表音源データを選択する。 The selection unit 25 selects representative sound source data that is representative of each part used by the mixing execution unit 26. That is, the sound source data selected by the selection unit 25 is called representative sound source data. The selection unit 25 selects representative sound source data for each part of the music.

選択部25が総合評価を算出する際の計算式の一例は、次の通りである。
計算式:
総合評価のポイント=100×
(W1×機械評価のポイント/機械評価の基準値
+W2×審査員評価のポイント/審査員評価の基準値
+W3×ユーザー評価のポイント/ユーザー評価の基準値
+W4×いいね数/いいね数の基準値
+W5×再生回数/再生回数の基準値
+W6×再生時間(秒数)/再生時間(秒数)の基準値)
An example of the calculation formula when the selection unit 25 calculates the comprehensive evaluation is as follows.
a formula:
Comprehensive evaluation points = 100 ×
(W1 x machine evaluation point / machine evaluation standard value + W2 x judge evaluation point / judge evaluation standard value + W3 x user evaluation point / user evaluation standard value + W4 x number of likes / like number standard Value + W5 x number of playbacks / reference value for number of playbacks + W6 x reference value for playback time (number of seconds) / playback time (number of seconds))

上記の数式において、例えば、機械評価のポイントと、審査員評価のポイントと、ユーザー評価のポイントを、それぞれ、0以上且つ100以下の数値とする。
また、機械評価の基準値と、審査員評価の基準値と、ユーザー評価の基準値を、それぞれ、100とする。また、いいね数の基準値と、再生回数の基準とを、適宜定められる数値(例えば、1000)とする。また、再生時間(秒数)の基準値を、適宜定められる数値(例えば、72000[秒]など)とする。また、W1、W2、W3、W4、W5、W6はそれぞれ重み係数であり、例えば、W1+W2+W3+W4+W5+W6=1とする。
In the above formula, for example, the points of machine evaluation, the points of judge evaluation, and the points of user evaluation are set to numerical values of 0 or more and 100 or less, respectively.
Further, the reference value of the machine evaluation, the reference value of the judge evaluation, and the reference value of the user evaluation are set to 100, respectively. Further, the reference value of the number of likes and the reference value of the number of reproductions are set to appropriately determined numerical values (for example, 1000). Further, the reference value of the reproduction time (seconds) is set to an appropriately determined numerical value (for example, 72000 [seconds] or the like). Further, W1, W2, W3, W4, W5, and W6 are weight coefficients, respectively, and for example, W1 + W2 + W3 + W4 + W5 + W6 = 1.

なお、総合評価の算出方法は、ここに例示した方法に限られない。例えば、総合評価は、重み付け平均値ではなくてもよい。また、例えば、総合評価は、算術演算によって求められるものでなくてもよい。 The calculation method of the comprehensive evaluation is not limited to the method exemplified here. For example, the overall evaluation does not have to be a weighted average value. Further, for example, the comprehensive evaluation does not have to be obtained by arithmetic calculation.

つまり、選択部25は、
(1)音源データにおける音程および拍子と、正解の音程および拍子と、を比較することによって、音源データの正解を基準としたときの正確さを表す評価結果である機械評価、
(2)音源データに関して審査員の端末装置から受信した評価結果である審査員評価、
(3)音源データに関してユーザーの端末装置から受信した評価結果であるユーザー評価、
(4)音源データに関してユーザーの端末装置から送信された「いいね」の数を評価結果とした「いいね」数、
(5)音源データがユーザーの端末装置で再生された回数を評価結果とした再生回数、
(6)音源データがユーザーの端末装置で再生された時間の総計を評価結果とした再生時間、
の少なくともいずれかの評価結果に基づいて、パートを代表する代表音源データを選択する。
That is, the selection unit 25
(1) Machine evaluation, which is an evaluation result showing accuracy when the correct answer of the sound source data is used as a reference by comparing the pitch and time signature of the sound source data with the pitch and time signature of the correct answer.
(2) Judge's evaluation, which is the evaluation result received from the judge's terminal device regarding the sound source data.
(3) User evaluation, which is an evaluation result received from the user's terminal device regarding sound source data.
(4) The number of "likes", which is the evaluation result of the number of "likes" transmitted from the user's terminal device regarding the sound source data.
(5) The number of playbacks, which is the evaluation result of the number of times the sound source data has been played back on the user's terminal device.
(6) Playback time based on the total time that the sound source data was played back on the user's terminal device as the evaluation result.
The representative sound source data representing the part is selected based on the evaluation result of at least one of the above.

また、選択部25は、機械評価と、審査員評価と、ユーザー評価と、「いいね」数と、再生回数と、再生時間とのうちの、すくなくとも2つの評価に基づいて総合評価を算出してよい。選択部25は、算出された前記総合評価に基づいて、パートを代表する代表音源データを選択する。 In addition, the selection unit 25 calculates the overall evaluation based on at least two evaluations of the machine evaluation, the judge evaluation, the user evaluation, the number of "likes", the number of playbacks, and the playback time. It's okay. The selection unit 25 selects representative sound source data representing the part based on the calculated comprehensive evaluation.

音源データは、カラオケデータを提供した先の端末装置2のユーザーの演奏または歌唱を収録したサウンドのデータであってよい。選択部25は、端末装置2から取得した音源データのみの中から、各パートを代表する前記代表音源データを選択するようにしてもよい。 The sound source data may be sound data recording the performance or singing of the user of the terminal device 2 to which the karaoke data is provided. The selection unit 25 may select the representative sound source data representing each part from only the sound source data acquired from the terminal device 2.

ミキシング実行部26は、楽曲を構成する複数のパートのそれぞれについて選択部25が選択した代表音源データをミキシングすることによって、複数のパートを含んだ音源データである最終音源データを作成する。なお、ミキシング実行部26は、作成した最終音源データを、インターネットを介して送信可能となるようにしてもよい。 The mixing execution unit 26 creates final sound source data that is sound source data including the plurality of parts by mixing the representative sound source data selected by the selection unit 25 for each of the plurality of parts constituting the music. The mixing execution unit 26 may enable the created final sound source data to be transmitted via the Internet.

データベース30は、データを記憶し、管理する機能を持つ。データベース30は、例えば、リレーショナルデータモデルを採用したデータベース管理システム(DBMS)を用いて実現することができる。データベース30が保持するデータの構成については、別の図を参照しながら、後で説明する。 The database 30 has a function of storing and managing data. The database 30 can be realized, for example, by using a database management system (DBMS) that employs a relational data model. The structure of the data held by the database 30 will be described later with reference to another figure.

図1にも示すように、上記のデータベース30は、カラオケ記憶部31と、楽譜記憶部32と、取得音源記憶部33と、最終音源記憶部34と、管理情報記憶部35とを含んで構成される。 As shown in FIG. 1, the database 30 includes a karaoke storage unit 31, a score storage unit 32, an acquisition sound source storage unit 33, a final sound source storage unit 34, and a management information storage unit 35. Will be done.

カラオケ記憶部31は、カラオケのデータを記憶する。カラオケのデータは、特定の楽曲の、特定のパート用の、カラオケ演奏のサウンドデータである。つまり、カラオケのデータは、当該パート(楽器あるいはヴォーカル)以外の演奏の音を収録したデータである。サウンドデータは、例えば、WAV形式、MPEG形式等の形式で表現されるデータである。カラオケ記憶部31は、カラオケのデータを、曲IDおよびパートIDに関連付けて記憶する。なお、カラオケは、MR(music recorded,ミュージックレコーデッド)とも呼ばれる。 The karaoke storage unit 31 stores karaoke data. The karaoke data is the sound data of the karaoke performance for a specific part of a specific music. That is, the karaoke data is data that records the sounds of performances other than the relevant part (musical instrument or vocal). The sound data is data expressed in a format such as a WAV format or an MPEG format. The karaoke storage unit 31 stores the karaoke data in association with the song ID and the part ID. Karaoke is also called MR (music recorded, music recorded).

なお、1つの楽曲の各パート用のカラオケデータは、同期再生が可能なデータである。例えば、各パート用のカラオケデータのサンプリング周波数は、他のパートのサンプリング周波数と完全に一致している。また、各パート用のカラオケデータが、内部に同期信号を持っていてもよい。カラオケデータの演奏に基づいて収録される音源データも、同様に同期再生可能なものとしてよい。各パートの音源データも、内部に同期信号を持ってもよい。これにより、1つの楽曲の各パートの音源データ(端末装置2からサーバー装置1に送信されるデータ)は、他のパートと同期再生することが可能となる。したがって、ミキシング実行部26が複数のパートの音源データをミキシングする場合にも、パート間の同期を行うことが可能である。 The karaoke data for each part of one song is data that can be played back synchronously. For example, the sampling frequency of the karaoke data for each part completely matches the sampling frequency of the other parts. Further, the karaoke data for each part may have a synchronization signal inside. The sound source data recorded based on the performance of the karaoke data may be similarly playable in synchronization. The sound source data of each part may also have a synchronization signal internally. As a result, the sound source data (data transmitted from the terminal device 2 to the server device 1) of each part of one song can be played back in synchronization with the other parts. Therefore, even when the mixing execution unit 26 mixes the sound source data of a plurality of parts, it is possible to synchronize the parts.

つまり、カラオケデータは、パート間の再生同期のための同期信号を含んでいる。音源データは、カラオケデータが含んでいた同期信号を引き継いで持つものであってもよい。ミキシング実行部26は、代表音源データが持つ同期信号に基づいてパート間の再生同期をとりながら複数の代表音源データをミキシングしてよい。 That is, the karaoke data includes a synchronization signal for playback synchronization between parts. The sound source data may take over the synchronization signal included in the karaoke data. The mixing execution unit 26 may mix a plurality of representative sound source data while maintaining reproduction synchronization between the parts based on the synchronization signal of the representative sound source data.

楽譜記憶部32は、楽譜のデータを記憶する。楽譜のデータは、特定の楽曲の、特定のパート用の、音階や、リズムや、休符や、その他の演奏のための情報を含むものである。典型的には楽譜は、五線譜で表現され得る情報あるいはそれと等価な情報を持つ。しかしながら、楽器等によっては、楽譜が五線譜以外で表わされるものであってもよい。楽譜記憶部32は、上記のような楽譜のデータを、曲IDおよびパートIDに関連付けて記憶する。 The score storage unit 32 stores score data. Musical score data includes information for a particular piece of music, for a particular part, scales, rhythms, rests, and other performances. Typically, a musical score has information that can be expressed in a staff notation or equivalent information. However, depending on the musical instrument or the like, the score may be represented by something other than the staff notation. The musical score storage unit 32 stores the musical score data as described above in association with the song ID and the part ID.

取得音源記憶部33は、サーバー装置1が端末装置2から取得した音源データを記憶するものである。音源データとは、カラオケデータや楽譜データに基づいて、端末装置2側で収録されたサウンドのデータである。音源データは、楽曲の各パートの演奏あるいは歌唱のサウンドを表す。音源データは、端末装置2のユーザー等が行った特定のパートの演奏あるいは歌唱を収録したものである。 The acquired sound source storage unit 33 stores the sound source data acquired by the server device 1 from the terminal device 2. The sound source data is sound data recorded on the terminal device 2 side based on karaoke data and musical score data. The sound source data represents the sound of the performance or singing of each part of the music. The sound source data is a recording of a performance or singing of a specific part performed by a user or the like of the terminal device 2.

最終音源記憶部34は、選択部25が選択した代表の音源データをミキシング処理した結果である最終音源のデータを記憶する。選択部25によって選択された代表の音源データは、楽曲の各パートを代表する音源データである。 The final sound source storage unit 34 stores the data of the final sound source, which is the result of mixing processing of the representative sound source data selected by the selection unit 25. The representative sound source data selected by the selection unit 25 is sound source data representing each part of the musical piece.

管理情報記憶部35は、楽曲および音源データに関する管理情報を記憶する。管理情報記憶部35が記憶するデータは、楽曲の曲名に関するデータや、端末装置2から投稿された音源データごとの評価結果のデータを含む。 The management information storage unit 35 stores management information regarding music and sound source data. The data stored in the management information storage unit 35 includes data related to the song title of the music and evaluation result data for each sound source data posted from the terminal device 2.

図2は、端末装置2の概略機能構成を示すブロック図である。図示するように、端末装置2は、データ送受信部51と、提示部61と、サウンド記録部62と、評価部63と、表示部71と、サウンド出力部72と、サウンド入力部73とを含んで構成される。端末装置2が持つ各機能部もまた、例えば、コンピューターと、プログラムとを用いて実現することが可能である。また、各機能部は、必要に応じて、記憶手段を有する。記憶手段は、例えば、プログラム上の変数や、プログラムの実行によりアロケーションされるメモリーである。また、必要に応じて、磁気ハードディスク装置やソリッドステートドライブ(SSD)といった不揮発性の記憶手段を用いるようにしてもよい。また、各機能部の少なくとも一部の機能を、プログラムではなく専用の電子回路として実現してもよい。端末装置2は、例えば、PCや、タブレット端末や、スマートフォンや、腕時計型端末といった装置と、それらの装置上で稼働するプログラムとで実現され得る。端末装置2を構成する各機能部の機能は、次の通りである。 FIG. 2 is a block diagram showing a schematic functional configuration of the terminal device 2. As shown in the figure, the terminal device 2 includes a data transmission / reception unit 51, a presentation unit 61, a sound recording unit 62, an evaluation unit 63, a display unit 71, a sound output unit 72, and a sound input unit 73. Consists of. Each functional unit included in the terminal device 2 can also be realized by using, for example, a computer and a program. In addition, each functional unit has a storage means, if necessary. The storage means is, for example, a variable on the program or a memory allocated by executing the program. Further, if necessary, a non-volatile storage means such as a magnetic hard disk device or a solid state drive (SSD) may be used. Further, at least a part of the functions of each functional unit may be realized not as a program but as a dedicated electronic circuit. The terminal device 2 can be realized by, for example, a device such as a PC, a tablet terminal, a smartphone, or a wristwatch-type terminal, and a program running on those devices. The functions of each functional unit constituting the terminal device 2 are as follows.

データ送受信部51は、通信による外部装置とのデータの送受信を行う。具体的には、データ送受信部51は、サーバー装置1から送信されるデータを受信したり、サーバー装置に対してデータを送信したりする。データ送受信部51がサーバー装置1から受信するデータは、カラオケデータや楽譜データを含む。データ送受信部51がサーバー装置1に対して送信するデータは、楽曲の特定のパートの音源データや、音源データに関する評価データ(評価部63による評価結果)を含む。 The data transmission / reception unit 51 transmits / receives data to / from an external device by communication. Specifically, the data transmission / reception unit 51 receives the data transmitted from the server device 1 and transmits the data to the server device. The data received by the data transmission / reception unit 51 from the server device 1 includes karaoke data and score data. The data transmitted by the data transmission / reception unit 51 to the server device 1 includes sound source data of a specific part of the music and evaluation data related to the sound source data (evaluation result by the evaluation unit 63).

つまり、データ送受信部51は、カラオケデータと楽譜データとを受信するデータ受信部として機能する。また、データ送受信部51は、音源データおよび機械評価データ(評価部63による評価結果)を送信するデータ送信部としても機能する。 That is, the data transmission / reception unit 51 functions as a data reception unit for receiving karaoke data and musical score data. The data transmission / reception unit 51 also functions as a data transmission unit for transmitting sound source data and machine evaluation data (evaluation result by the evaluation unit 63).

提示部61は、サーバー装置1から受信したカラオケデータや楽譜データをユーザーに提示する。提示部61は、カラオケデータに基づくサウンドを、サウンド出力部72に出力させる。また、提示部61は、楽譜データに基づく楽譜等を、表示部71に表示させる。提示部61が提示する情報に基づいて、端末装置2のユーザーは、歌唱や楽器の演奏等を行うことができる。つまり、提示部61は、カラオケデータをサウンドとして提示するとともに、楽譜データに基づく楽譜を視覚情報として画面に提示する。 The presentation unit 61 presents the karaoke data and the score data received from the server device 1 to the user. The presentation unit 61 causes the sound output unit 72 to output a sound based on the karaoke data. Further, the presentation unit 61 causes the display unit 71 to display a score or the like based on the score data. Based on the information presented by the presentation unit 61, the user of the terminal device 2 can sing, play a musical instrument, or the like. That is, the presentation unit 61 presents the karaoke data as sound and presents the score based on the score data on the screen as visual information.

サウンド記録部62は、サウンド入力部73から入力されるサウンドを記録する。サウンド記録部62は、サウンドを適切に符号化し、WAV形式やMPEG形式等のデータとして記録する。サウンド記録部62は、具体的には、楽曲の特定のパートの演奏ないしは歌唱のサウンドを、音源データとして記録する。つまり、サウンド記録部62は、提示部61によるカラオケデータの提示に合わせて外部から取得したサウンドを音源データとして記録する。 The sound recording unit 62 records the sound input from the sound input unit 73. The sound recording unit 62 appropriately encodes the sound and records it as data in WAV format, MPEG format, or the like. Specifically, the sound recording unit 62 records the sound of the performance or singing of a specific part of the music as sound source data. That is, the sound recording unit 62 records the sound acquired from the outside as sound source data in accordance with the presentation of the karaoke data by the presentation unit 61.

評価部63は、音源データ(端末装置2のユーザーによる楽器演奏や歌唱等を収録したデータ)の機械評価を行う。評価部63は、機械評価の結果のデータ(機械評価データとも呼ぶ)を出力する。機械評価の結果のデータは、例えば音源データを投稿する際などに、サーバー装置1側に渡されて、サーバー装置1側で保存され得る。具体的には、評価部63は、例えば、音程の正確さや、拍子の正確さに基づいて、音源データの機械評価を行う。評価部63は、例えば、楽譜データに基づく正解の音程および拍子等と、収録された音源データの音程および拍子等とを比較し、両者間の距離等に基づく評価を行う。両者の距離が近い程、評価部63はその音源データに高い評価(演奏や歌唱が上手であることを表す)を付与する。逆に両者の距離が遠い程、評価部63はその音源データに低い評価(演奏や歌唱が上手ではないことを表す)を付与する。その一例として、評価部63は、楽譜データ内の所定の評価箇所のタイミングにおいて、両者の音程や拍子等を比較する。 The evaluation unit 63 performs machine evaluation of sound source data (data recording musical instrument performance, singing, etc. by the user of the terminal device 2). The evaluation unit 63 outputs data (also referred to as machine evaluation data) as a result of machine evaluation. The data of the result of the machine evaluation can be passed to the server device 1 side and stored on the server device 1 side, for example, when posting sound source data. Specifically, the evaluation unit 63 performs mechanical evaluation of the sound source data based on, for example, the accuracy of the pitch and the accuracy of the time signature. The evaluation unit 63 compares, for example, the pitch and time signature of the correct answer based on the score data with the pitch and time signature of the recorded sound source data, and evaluates based on the distance between the two. The closer the distance between the two, the higher the evaluation (indicating that the performance or singing is good) is given to the sound source data by the evaluation unit 63. On the contrary, the farther the distance between the two is, the lower the evaluation (indicating that the performance or singing is not good) is given to the sound source data by the evaluation unit 63. As an example, the evaluation unit 63 compares the pitch, time signature, etc. of the two at the timing of a predetermined evaluation point in the score data.

表示部71は、端末装置2が持つ表示デバイス(液晶表示器等)を用いて、視覚的に情報を表示する。表示部71は、例えば、楽譜データに基づく楽譜を表示する。 The display unit 71 visually displays information by using a display device (liquid crystal display or the like) possessed by the terminal device 2. The display unit 71 displays, for example, a score based on the score data.

サウンド出力部72は、スピーカーやイヤフォン等からサウンドを出力する。サウンド出力部72は、例えば、カラオケデータに基づくカラオケサウンドを出力する。 The sound output unit 72 outputs sound from a speaker, earphones, or the like. The sound output unit 72 outputs, for example, a karaoke sound based on karaoke data.

サウンド入力部73は、外部からサウンドを取得するものである。サウンド入力部73は、マイクロフォンを含んで構成される。あるいは、サウンド入力部73は、外部のマイクロフォンに接続される。 The sound input unit 73 acquires sound from the outside. The sound input unit 73 includes a microphone. Alternatively, the sound input unit 73 is connected to an external microphone.

次に、図3、図4、図5、図6、図7、図8、図9を参照しながら、データベース30が保持するデータの構成について説明する。 Next, the structure of the data held by the database 30 will be described with reference to FIGS. 3, 4, 5, 6, 6, 7, 8, and 9.

図3は、データベース30内の管理情報記憶部35が持つ楽曲管理テーブルの構成の例を示す概略図である。図示するように、楽曲管理テーブルは、2次元の表形式のデータであり、曲IDと、曲名のデータ項目を持つ。楽曲管理テーブルのデータの意味は、次の通りである。 FIG. 3 is a schematic diagram showing an example of the configuration of the music management table included in the management information storage unit 35 in the database 30. As shown in the figure, the music management table is two-dimensional tabular data, and has a music ID and music title data items. The meanings of the data in the music management table are as follows.

曲IDは、楽曲を一意に識別するための識別情報である。曲IDは、重複しない。曲IDは、楽曲管理テーブルの主キーである。 The song ID is identification information for uniquely identifying the song. The song IDs do not overlap. The song ID is the primary key of the song management table.

曲名は、楽曲のタイトルである。曲名は、重複してもよい。 The song title is the title of the song. The song titles may be duplicated.

図示するデータ例では、第1行目の曲IDは「T123456」であり、その曲名は「真夜中のディスタンス」である。他の行のデータについても、同様に、楽曲管理テーブルは、曲IDと曲名とを関連付けている。 In the illustrated data example, the song ID of the first line is "T123456", and the song name is "Midnight Distance". Similarly, for the data in the other rows, the music management table associates the music ID with the music title.

図4は、データベース30内のカラオケ記憶部31が持つカラオケテーブル(MRテーブル)の構成の例を示す概略図である。図示するように、カラオケテーブルは、2次元の表形式のデータであり、曲IDと、パートIDと、パートと、カラオケのデータ項目を持つ。カラオケテーブルのデータの意味は、次の通りである。 FIG. 4 is a schematic diagram showing an example of the configuration of a karaoke table (MR table) included in the karaoke storage unit 31 in the database 30. As shown in the figure, the karaoke table is two-dimensional tabular data, and has a song ID, a part ID, a part, and karaoke data items. The meanings of the karaoke table data are as follows.

曲IDは、楽曲管理テーブルの説明において述べたとおりである。 The song ID is as described in the description of the song management table.

パートIDは、楽曲内におけるパートを一意に識別するための識別情報である。1つの楽曲に、通常、複数のパートが含まれる。1つのパートは、通常、1種類の楽器あるいはヴォーカルのためのものである。ある楽器あるいはヴォーカルに関する複数のパートが存在してもよい(例えば、リードギターと、サイドギターなど)。 The part ID is identification information for uniquely identifying a part in a musical piece. A piece of music usually contains a plurality of parts. One part is usually for one type of instrument or vocal. There may be multiple parts of an instrument or vocal (eg lead guitar and side guitar).

パートは、そのパートを言葉で示すデータである。パートの例は、「キーボード」、「ドラムス」、「パーカッション」、「ベース」、「ギター」、「サキソフォン」、「トランペット」、「ヴォーカル」等である。 A part is data that indicates the part in words. Examples of parts are "keyboard", "drums", "percussion", "bass", "guitar", "saxophone", "trumpet", "vocals" and the like.

カラオケのデータは、カラオケ演奏を収録したサウンドデータである。カラオケのデータは、各パート用に存在する。カラオケのデータは、通常、対象とするパートの演奏等を含まない演奏を収録したものである。カラオケのデータが、楽器等のカラオケ演奏以外に、対象とするパートの演奏を補助するための音(例えば、拍子を表す音)等を含んでいてもよい。 Karaoke data is sound data recording karaoke performances. Karaoke data exists for each part. The karaoke data is usually a recording of a performance that does not include the performance of the target part. In addition to the karaoke performance of a musical instrument or the like, the karaoke data may include a sound for assisting the performance of the target part (for example, a sound representing a time signature) or the like.

図示するデータ例では、第1行目のデータの、曲IDは「P123458」、パートIDは「P1001」、パートの名称は「ヴォーカル1」である。また、1行目のデータのカラオケの項目には、当該パート用のカラオケサウンドのデータが格納されている。他の行のデータも同様に、特定の楽曲の特定のパートについて、曲ID、パートID、パートに関連付けて、カラオケのデータが保持されている。 In the illustrated data example, the song ID is "P123458", the part ID is "P1001", and the part name is "vocal 1" in the data of the first line. Further, the karaoke sound data for the part is stored in the karaoke item of the data in the first line. Similarly, the data in the other rows holds the karaoke data in association with the song ID, the part ID, and the part for the specific part of the specific music.

図5は、データベース30内の楽譜記憶部32が持つ楽譜テーブルの構成の例を示す概略図である。図示するように、楽譜テーブルは、2次元の表形式のデータであり、曲IDと、パートIDと、パートと、楽譜のデータ項目を持つ。楽譜テーブルのデータの意味は、次の通りである。 FIG. 5 is a schematic diagram showing an example of the configuration of the score table included in the score storage unit 32 in the database 30. As shown in the figure, the score table is two-dimensional tabular data, and has a song ID, a part ID, a part, and a score data item. The meanings of the data in the score table are as follows.

曲IDと、パートIDと、パートの各データ項目は、カラオケテーブル(図4)に関して説明した通りである。 The song ID, the part ID, and each data item of the part are as described with respect to the karaoke table (FIG. 4).

楽譜のデータは、端末装置2の画面に楽譜等の情報を表示するためのデータである。楽譜のデータの形式は、適宜、設計され得る。一例として、XMLを用いて楽譜のデータを構成するようにしてもよい。楽譜は、画面上において、例えば五線譜を用いて表示される。ただし、五線譜以外の形式の楽譜を表示するようにしても良い。楽譜のデータは、音階の情報、リズムの情報、休符の情報や、その他の演奏等のための情報をふくむ。 The score data is data for displaying information such as a score on the screen of the terminal device 2. The format of the musical score data can be designed as appropriate. As an example, XML may be used to construct musical score data. The score is displayed on the screen using, for example, a staff notation. However, a score in a format other than the staff notation may be displayed. The musical score data includes scale information, rhythm information, rest information, and other information for playing.

図示するデータ例では、第1行目のデータの、曲IDは「P123458」、パートIDは「P1001」、パートの名称は「ヴォーカル1」である。また、1行目のデータの楽譜の項目には、当該パート用の楽譜の情報を表すデータが格納されている。他の行のデータも同様に、特定の楽曲の特定のパートについて、曲ID、パートID、パートに関連付けて、楽譜のデータが保持されている。 In the illustrated data example, the song ID is "P123458", the part ID is "P1001", and the part name is "vocal 1" in the data of the first line. Further, in the item of the score of the data in the first line, data representing the information of the score for the part is stored. Similarly, the data in the other rows holds the data of the musical score in association with the song ID, the part ID, and the part for the specific part of the specific music.

図6は、データベース30内の取得音源記憶部33が持つ取得音源テーブルの構成の例を示す概略図である。図示するように、取得音源テーブルは、2次元の表形式のデータであり、曲IDと、パートIDと、ユーザーIDと、取得日時と、音源IDと、取得音源のデータ項目を持つ。取得音源テーブルのデータの意味は、次の通りである。 FIG. 6 is a schematic diagram showing an example of the configuration of the acquired sound source table included in the acquired sound source storage unit 33 in the database 30. As shown in the figure, the acquired sound source table is two-dimensional tabular data, and has a song ID, a part ID, a user ID, an acquisition date and time, a sound source ID, and data items of the acquired sound source. The meanings of the data in the acquired sound source table are as follows.

曲IDおよびパートIDについては、既に説明した通りである。 The song ID and part ID are as described above.

ユーザーIDは、その音源データを投稿したユーザーのIDである。ユーザーIDは、端末装置2を使用する多数のユーザーのそれぞれを一意に識別するための識別情報である。ユーザーが異なれば、ユーザーIDも異なる。 The user ID is the ID of the user who posted the sound source data. The user ID is identification information for uniquely identifying each of a large number of users who use the terminal device 2. Different users have different user IDs.

取得日時は、サーバー装置1がその音源データを取得した日時である。取得日時は、ユーザーがその音源データを投稿した日時と同一であってよい。取得日時は、例えば、「YYYY/MM/DD hh:mm:ss」(年月日、時分秒)の形式で表わされる。 The acquisition date and time is the date and time when the server device 1 acquired the sound source data. The acquisition date and time may be the same as the date and time when the user posted the sound source data. The acquisition date and time is expressed in the format of, for example, "YYYY / MM / DD hh: mm: ss" (year / month / day, hour / minute / second).

音源IDは、音源データを一意に識別するための識別情報である。ユーザーが音源データを投稿したときに、その音源データに対して音源IDが割り振られる。 The sound source ID is identification information for uniquely identifying the sound source data. When the user posts the sound source data, the sound source ID is assigned to the sound source data.

取得音源は、ユーザーが投降した音源データそのものである。取得音源の項目には、例えばMPEG形式やWAV形式などの形式で符号化されたサウンドのデータが格納される。 The acquired sound source is the sound source data itself surrendered by the user. In the item of the acquired sound source, sound data encoded in a format such as an MPEG format or a WAV format is stored.

図示するデータ例では、第1行目のデータの、曲IDは「T123458」、パートIDは「P1001」、ユーザーIDは「U980001」、取得日時は「2020/06/25 16:01:38」、割り振られた音源IDは「D112901」である。また、第1行目のデータの取得音源の欄には、これらの曲ID、パートID、ユーザーID、取得日時、音源IDに関連付けられた音源データが格納されている。この音源データは、例えばWAV形式やMPEG形式などといった形式のデータである。他の行のデータも、特定の楽曲の特定のパートに関して、ユーザーが投稿した音源データ、およびそれに関連するデータを保持している。 In the illustrated data example, the song ID is "T123458", the part ID is "P1001", the user ID is "U980001", and the acquisition date and time is "2020/06/25 16:01:38" in the data of the first line. , The assigned sound source ID is "D112901". Further, in the column of the acquired sound source of the data in the first line, the sound source data associated with these song IDs, part IDs, user IDs, acquisition dates and times, and sound source IDs are stored. This sound source data is data in a format such as a WAV format or an MPEG format. The data in the other rows also holds the sound source data posted by the user and the related data with respect to a specific part of a specific music.

図7は、データベース30内の管理情報記憶部35が持つ音源評価テーブルの構成の例を示す概略図である。図示するように、音源評価テーブルは、2次元の表形式のデータであり、音源IDと、機械評価と、審査員評価と、ユーザー評価と、いいね数と、再生回数と、再生時間と、総合評価のデータ項目を持つ。音源評価テーブルのデータの意味は、次の通りである。 FIG. 7 is a schematic diagram showing an example of the configuration of the sound source evaluation table included in the management information storage unit 35 in the database 30. As shown in the figure, the sound source evaluation table is two-dimensional tabular data, and includes sound source ID, machine evaluation, judge evaluation, user evaluation, number of likes, number of playbacks, and playback time. Has data items for comprehensive evaluation. The meanings of the data in the sound source evaluation table are as follows.

音源IDは、既に説明した通りである。音源評価テーブルは、音源IDによって、他のテーブルと関連付けられる。音源評価テーブルは、ユーザーが投稿した各音源の評価についてのデータを保持する。 The sound source ID is as described above. The sound source evaluation table is associated with other tables by the sound source ID. The sound source evaluation table holds data about the evaluation of each sound source posted by the user.

機械評価と、審査員評価と、ユーザー評価と、いいね数と、再生回数と、再生時間と、総合評価の項目は、それぞれ、評価項目ごとのデータを格納する領域である。機械評価は、機械(コンピューターとプログラム)による評価を表す。機械評価は、具体的には、端末装置2の評価部63が出力した評価データを格納するものであってよい。なお、機械評価は、端末装置2の評価部63の代わりに、サーバー装置1内で算出した機械評価の結果を格納するものであってもよい。審査員評価は、審査員が自身の端末装置等からサーバー装置1に送信した評価結果のデータを格納するものである。ユーザー評価は、審査員ではなく、一般のユーザーが端末装置2からサーバー装置1に送信した評価結果のデータを格納するものである。いいね数(FAV数)の項目は、一般のユーザーたちが、例えば端末装置2でその音源データを再生したときなどに、「いいね」ボタンを押した回数の合計を表すデータを格納する。再生回数の項目は、一般のユーザーたちが、例えば端末装置2で、その音源データを再生した回数の合計を表すデータを格納する。再生時間の項目は、一般のユーザーたちが、例えば端末装置2でその音源データを再生したときの、再生時間(例えば、秒数等で表わされる)の総和を表すデータを格納する。総合評価の項目には、例えば選択部25が、他の評価項目(機械評価や、審査員評価や、ユーザー評価や、いいね数や、再生回数や、再生時間など)のデータを基に算出した総合評価のポイントのデータを格納する。 Machine evaluation, judge evaluation, user evaluation, number of likes, number of playbacks, playback time, and comprehensive evaluation items are areas for storing data for each evaluation item, respectively. Machine evaluation represents evaluation by a machine (computer and program). Specifically, the machine evaluation may store the evaluation data output by the evaluation unit 63 of the terminal device 2. The machine evaluation may store the result of the machine evaluation calculated in the server device 1 instead of the evaluation unit 63 of the terminal device 2. The auditor evaluation stores the evaluation result data transmitted by the auditor from his / her own terminal device or the like to the server device 1. The user evaluation stores the evaluation result data transmitted from the terminal device 2 to the server device 1 by a general user, not a judge. The item of the number of likes (number of FAVs) stores data representing the total number of times a general user presses the "like" button, for example, when the sound source data is played back on the terminal device 2. The item of the number of times of reproduction stores data representing the total number of times that general users have reproduced the sound source data on, for example, the terminal device 2. The reproduction time item stores data representing the total reproduction time (for example, expressed in seconds or the like) when a general user reproduces the sound source data on the terminal device 2, for example. For the items of the comprehensive evaluation, for example, the selection unit 25 calculates based on the data of other evaluation items (machine evaluation, judge evaluation, user evaluation, number of likes, number of views, playback time, etc.). Stores the data of the points of the comprehensive evaluation.

なお、機械評価や、審査員評価や、ユーザー評価や、いいね数や、再生回数や、再生時間や、総合評価のデータは、例えば、数値のデータであってよい。機械評価や、審査員評価や、ユーザー評価や、いいね数や、再生回数や、再生時間や、総合評価のデータは、サーバー装置1が受信したデータあるいは信号や、それらを統計的に処理した結果のデータであってよい。 The data of the machine evaluation, the judge evaluation, the user evaluation, the number of likes, the number of reproductions, the reproduction time, and the comprehensive evaluation may be, for example, numerical data. The machine evaluation, the judge evaluation, the user evaluation, the number of likes, the number of playbacks, the playback time, and the comprehensive evaluation data are the data or signals received by the server device 1 and statistically processed them. It may be the resulting data.

図示するデータ例では、第1行目のデータの音源IDは「D112901」である。第1行目のデータは、この「D112901」の音源データの評価情報を持つものである。図示するように第1行目のデータにおいて、機械評価は70、審査員評価は73、ユーザー評価は81、いいね数は808、再生回数は1123、再生時間の総計は20:04:34(20時間04分34秒)である。また、第1行目のデータに関して選択部25が算出した総合評価の値は、69.66である。他の行についても、同様に、音源データごとの評価情報が保持されている。 In the illustrated data example, the sound source ID of the data in the first row is "D112901". The data in the first row has evaluation information of the sound source data of this "D112901". As shown in the figure, in the data in the first row, the machine evaluation is 70, the judge evaluation is 73, the user evaluation is 81, the number of likes is 808, the number of playbacks is 1123, and the total playback time is 20:04:34 ( 20 hours 04 minutes 34 seconds). The value of the comprehensive evaluation calculated by the selection unit 25 with respect to the data in the first row is 69.66. Similarly, evaluation information for each sound source data is held in the other rows.

図8は、データベース30内の管理情報記憶部35が持つ選択音源テーブルの構成の例を示す概略図である。図示するように、選択音源テーブルは、2次元の表形式のデータであり、曲IDと、パートIDと、ユーザーIDと、音源IDのデータ項目を持つ。選択音源テーブルのデータの意味は、次の通りである。選択音源テーブルは、サーバー装置1が募集することによって集められた音源データの中から、選択部25が選択した音源データについての情報を保持するものである。 FIG. 8 is a schematic diagram showing an example of the configuration of the selected sound source table included in the management information storage unit 35 in the database 30. As shown in the figure, the selected sound source table is two-dimensional tabular data, and has data items of a song ID, a part ID, a user ID, and a sound source ID. The meanings of the data in the selected sound source table are as follows. The selected sound source table holds information about the sound source data selected by the selection unit 25 from the sound source data collected by the server device 1.

曲IDとパートIDとは、既に説明した通りである。曲IDとパートIDとを複合することにより、特定の楽曲の特定のパートが表される。 The song ID and the part ID are as described above. By combining the song ID and the part ID, a specific part of a specific song is represented.

音源IDは、曲IDとパートIDとの組合せに関連付けられるものである。選択音源テーブルにおける音源IDは、特定の楽曲の特定のパートの音源データの中から、選択部25が選択した音源データを特定する情報である。この選択音源テーブルにおける音源IDは、取得音源テーブル(図6)における音源IDや、音源評価テーブル(図7)における音源IDと関連付けられ得るものである。 The sound source ID is associated with the combination of the song ID and the part ID. The sound source ID in the selected sound source table is information for specifying the sound source data selected by the selection unit 25 from the sound source data of the specific part of the specific music. The sound source ID in the selected sound source table can be associated with the sound source ID in the acquired sound source table (FIG. 6) and the sound source ID in the sound source evaluation table (FIG. 7).

ユーザーIDは、その音源データを投稿したユーザーを一意に識別するための識別情報である。 The user ID is identification information for uniquely identifying the user who posted the sound source data.

図示するデータ例では、第1行目から第4行目までのデータの曲IDはいずれも「T123458」である。また、第1行目のデータに関して、パートIDは「P1001」、ユーザーIDは「U980123」、音源IDは「D112923」である。他の行のデータも同様に、曲IDとパートIDとユーザーIDと音源IDとの関連の情報を保持している。 In the illustrated data example, the song IDs of the data from the first row to the fourth row are all "T123458". Further, regarding the data in the first row, the part ID is "P1001", the user ID is "U980123", and the sound source ID is "D112923". Similarly, the data in the other rows holds information related to the song ID, the part ID, the user ID, and the sound source ID.

図9は、データベース30内の最終音源記憶部34が持つ最終音源テーブルの構成の例を示す概略図である。図示するように、最終音源テーブルは、2次元の表形式のデータであり、曲IDと、制作日時と、最終音源のデータ項目を持つ。最終音源テーブルのデータの意味は、次の通りである。 FIG. 9 is a schematic diagram showing an example of the configuration of the final sound source table of the final sound source storage unit 34 in the database 30. As shown in the figure, the final sound source table is two-dimensional tabular data, and has a song ID, a production date and time, and data items of the final sound source. The meanings of the data in the final sound source table are as follows.

曲IDは、既に説明したように、楽曲を一意に識別するための識別情報である。 The song ID is identification information for uniquely identifying the song, as described above.

制作日時は、そdの楽曲に関する最終音源が制作された日時を表すものである。制作日時は、例えば、「YYYY/MM/DD hh:mm:ss」(年月日、時分秒)の形式で表わされる。 The production date and time represents the date and time when the final sound source related to the music of the d was produced. The production date and time is expressed in the format of, for example, "YYYY / MM / DD hh: mm: ss" (year, month, day, hour, minute, second).

最終音源は、その楽曲に関して制作された音源のデータを格納する項目である。最終音源のデータは、例えばWAV形式やMPEG形式などの所定の符号化方式によってあらわされるものである。最終音源のデータは、ミキシング実行部26が、複数の音源データをミキシングして作成するものである。つまり、ミキシング実行部26が、目的とする楽曲について、選択音源テーブル(図8)に記録されている各パートの音源IDに基づいて特定される音源データをミキシング処理することにより、この最終音源のデータが作成される。 The final sound source is an item for storing the data of the sound source produced for the music. The data of the final sound source is represented by a predetermined coding method such as WAV format or MPEG format. The data of the final sound source is created by the mixing execution unit 26 by mixing a plurality of sound source data. That is, the mixing execution unit 26 mixes the sound source data specified based on the sound source ID of each part recorded in the selected sound source table (FIG. 8) for the target music, so that the final sound source of the final sound source is obtained. The data is created.

図示するデータ例では、第1行目のデータの、曲IDは「T123456」、制作日時は「2020/06/21 19:00:00」(2020年06月21日 19時00分00秒)である。また、最終音源の項目は、その曲の最終音源のデータが格納されている。最終音源のデータは、例えば、WAV形式あるいはMPEG形式等のデータである。 In the illustrated data example, the song ID of the data in the first line is "T123456", and the production date and time is "2020/06/21 19:00:00" (June 21, 2020 19:00:00). Is. Further, in the item of the final sound source, the data of the final sound source of the song is stored. The data of the final sound source is, for example, data in WAV format or MPEG format.

図10は、サーバー装置1が最終音源を制作するまでの処理の手順を示すフローチャートである。以下、このフローチャートに沿って説明する。 FIG. 10 is a flowchart showing a processing procedure until the server device 1 produces a final sound source. Hereinafter, it will be described according to this flowchart.

ステップS11において、サーバー装置1は、特定の楽曲についての楽譜のデータおよびカラオケのデータを準備する。具体的には、管理者の操作等により、音源募集機能部21は、その楽曲のカラオケのデータを、データベース30内のカラオケ記憶部31に書き込む。また、音源募集機能部21は、その楽曲の楽譜のデータを、データベース30内の楽譜記憶部32に書き込む。 In step S11, the server device 1 prepares musical score data and karaoke data for a specific musical piece. Specifically, the sound source recruitment function unit 21 writes the karaoke data of the music into the karaoke storage unit 31 in the database 30 by the operation of the administrator or the like. Further, the sound source recruitment function unit 21 writes the musical score data of the music into the musical score storage unit 32 in the database 30.

ステップS12において、音源募集機能部21は、音源の募集を開始する。具体的には、音源募集機能部21は、予めスケジュールされた日時が到来するのを待つ。その日時が到来すると、音源募集機能部21は、音源募集の情報を掲載したウェブページを送信可能な状態とする。そのウェブページには、楽曲の曲目や、募集するパートや、音源の締切日時などの情報が掲載される。そのウェブページから、パートごとのカラオケデータおよび楽譜データをダウンロードすることが可能なように設定される。そのウェブページが公開されると、端末装置2は、そのウェブページを参照して、カラオケデータおよび楽譜データをダウンロードすることが可能になる。実際には、カラオケ提供部22が、データベース30内のカラオケ記憶部31から読み出したカラオケデータを、端末装置2に送信することができる。また、楽譜提供部23が、データベース30内の楽譜記憶部32から読み出した楽譜データを、端末装置2に送信することができる。 In step S12, the sound source recruitment function unit 21 starts recruiting sound sources. Specifically, the sound source recruitment function unit 21 waits for a pre-scheduled date and time to arrive. When that date and time arrives, the sound source recruitment function unit 21 makes it possible to send a web page containing information on sound source recruitment. Information such as the song title, the part to be recruited, and the deadline date and time of the sound source is posted on the web page. It is set so that karaoke data and score data for each part can be downloaded from the web page. When the web page is published, the terminal device 2 can refer to the web page and download the karaoke data and the score data. Actually, the karaoke providing unit 22 can transmit the karaoke data read from the karaoke storage unit 31 in the database 30 to the terminal device 2. Further, the score providing unit 23 can transmit the score data read from the score storage unit 32 in the database 30 to the terminal device 2.

端末装置2は、サーバー装置1から取得した、特定の楽曲の特定のパート用の、カラオケデータおよび楽譜データを、ユーザーに対して提示する。端末装置2は、その楽曲のそのパートのサウンドを収録し、音源データを作成する。具体的には、端末装置2のユーザーは、カラオケデータの演奏に合わせて、また楽譜データを見ながら、楽器を演奏し、あるいはヴォーカルとして楽曲の歌を歌い、端末装置2に接続されたマイクロフォン等を用いてそのサウンドを録音する。端末装置2は、作成したその音源データを、サーバー装置1に送信する。サーバー装置1側の音源取得部24は、端末装置2から送られた音源を取得し、データベース30内の取得音源記憶部33に書き込む。なお、音源取得部24は、取得した音源を、曲ID、パートID、ユーザーID、取得日時と関連付ける形で、上記の取得音源のデータを、取得音源記憶部33に書き込む。また、音源取得部24は、音源データに固有のID(音源ID)を付与し、その音源IDを、取得音源記憶部33に書き込む。 The terminal device 2 presents the karaoke data and the score data for a specific part of the specific music acquired from the server device 1 to the user. The terminal device 2 records the sound of the part of the music and creates sound source data. Specifically, the user of the terminal device 2 plays a musical instrument or sings a song as a vocal while watching the score data and playing the karaoke data, and the microphone connected to the terminal device 2 or the like. Record the sound using. The terminal device 2 transmits the created sound source data to the server device 1. The sound source acquisition unit 24 on the server device 1 side acquires the sound source sent from the terminal device 2 and writes it in the acquisition sound source storage unit 33 in the database 30. The sound source acquisition unit 24 writes the data of the acquired sound source in the acquisition sound source storage unit 33 in a form in which the acquired sound source is associated with the song ID, the part ID, the user ID, and the acquisition date and time. Further, the sound source acquisition unit 24 assigns a unique ID (sound source ID) to the sound source data, and writes the sound source ID in the acquisition sound source storage unit 33.

端末装置2の評価部63は、収録された音源データの評価を行う。評価部63は、個々の音源データに対応付けて、機械評価の結果を算出する。機械評価のポイントは、例えば、数値で表わされる。端末装置2は、上記の音源データに関連付けて、機械評価のポイントのデータを、サーバー装置1に対して送信する。サーバー装置1側の音源取得部24は、この機械評価のポイントのデータを受信する。音源取得部24は、当該音源データの音源IDと関連付ける形で、上記の機械評価のポイント(数値)を、管理情報記憶部35内に書き込む。 The evaluation unit 63 of the terminal device 2 evaluates the recorded sound source data. The evaluation unit 63 calculates the result of machine evaluation in association with each sound source data. The points of machine evaluation are expressed, for example, numerically. The terminal device 2 transmits the data of the point of machine evaluation to the server device 1 in association with the above sound source data. The sound source acquisition unit 24 on the server device 1 side receives the data of the point of this machine evaluation. The sound source acquisition unit 24 writes the above-mentioned machine evaluation points (numerical values) in the management information storage unit 35 in a form associated with the sound source ID of the sound source data.

ステップS13において、音源募集機能部21は、音源の募集を終了する。具体的には、音源募集機能部21は、予めスケジュールされた日時が到来するのを待つ。その日時が到来すると、音源募集機能部21は、音源募集の情報を掲載したウェブページに、締切日時が過ぎたことを表す情報を掲載する。これにより、端末装置2は、当該募集に対する応募の音源データを送信することができなくなる。また、サーバー装置1側の音源取得部24は、当該募集に関する音源データの取得を停止する。 In step S13, the sound source recruitment function unit 21 ends the recruitment of sound sources. Specifically, the sound source recruitment function unit 21 waits for a pre-scheduled date and time to arrive. When the date and time arrives, the sound source recruitment function unit 21 posts information indicating that the deadline has passed on the web page containing the sound source recruitment information. As a result, the terminal device 2 cannot transmit the sound source data of the application for the recruitment. Further, the sound source acquisition unit 24 on the server device 1 side stops the acquisition of the sound source data related to the recruitment.

音源募集終了後に、選択部25は、サーバー装置1が上記募集に関連して取得した音源データの評価を開始する。選択部25は、審査員による評価ポイントを、例えば審査員の端末装置等から受け取り、管理情報記憶部35内の審査員評価の欄に書き込む。また、選択部25は、一般ユーザーによる評価ポイントを、例えば一般のユーザーの端末装置等から受け取り、管理情報記憶部35内のユーザー評価の欄に書き込む。また、選択部25は、一般ユーザーらが付けた「いいね」の数をカウントし、その「いいね数」を、管理情報記憶部35内の「いいね数」の欄に書き込む。例えば、一般ユーザーの端末装置等から「いいね」を付与する情報がサーバー装置1に届く都度、選択部25は、管理情報記憶部35内の「いいね数」の値をカウントアップする。また、選択部25は、それぞれの音源データが再生された回数をカウントする。具体的には、例えば一般ユーザーの端末装置等から特定の音源データを再生したことを表す情報がサーバー装置1に届く都度、選択部25は、管理情報記憶部35内の再生回数の値をカウントアップする。また、選択部25は、それぞれの音源データが再生されたトータルの時間を計測する。具体的には、例えば一般ユーザーの端末装置等から特定の音源データを再生したことを表す情報がサーバー装置1に届いた場合に、選択部25は、各再生における再生時間の長さの情報を端末装置2から取得する。選択部25は、管理情報記憶部35内の再生時間の値に、今回の再生時間を加算して更新する。このようにして、音源データを評価するための情報が、データベース30内に蓄積されていく。 After the sound source recruitment is completed, the selection unit 25 starts the evaluation of the sound source data acquired by the server device 1 in connection with the recruitment. The selection unit 25 receives the evaluation points by the auditor from, for example, the terminal device of the auditor and writes them in the auditor evaluation column in the management information storage unit 35. Further, the selection unit 25 receives the evaluation points by the general user from, for example, the terminal device of the general user, and writes the evaluation points in the user evaluation column in the management information storage unit 35. Further, the selection unit 25 counts the number of "likes" given by general users, and writes the "likes" in the "likes" column in the management information storage unit 35. For example, each time the information to give a "like" arrives at the server device 1 from the terminal device of a general user, the selection unit 25 counts up the value of the "like number" in the management information storage unit 35. Further, the selection unit 25 counts the number of times each sound source data has been reproduced. Specifically, for example, each time information indicating that specific sound source data has been reproduced from a terminal device of a general user reaches the server device 1, the selection unit 25 counts the value of the number of reproductions in the management information storage unit 35. Up. Further, the selection unit 25 measures the total time during which each sound source data is reproduced. Specifically, for example, when information indicating that specific sound source data has been reproduced arrives at the server device 1 from a terminal device of a general user or the like, the selection unit 25 displays information on the length of the reproduction time in each reproduction. Obtained from the terminal device 2. The selection unit 25 adds and updates the current reproduction time to the value of the reproduction time in the management information storage unit 35. In this way, the information for evaluating the sound source data is accumulated in the database 30.

選択部25は、評価を締め切る前にも、その時点での最新のデータに基づいて、総合評価のポイントの途中経過を算出してもよい。また、選択部25は、評価を締め切る前にも、適宜、音源データのランキング情報を作成して、端末装置2側に送信するようにしてもよい。また、選択部25は人気ユーザーが作成した音源データの情報を、端末装置2側に送信するようにしてもよい。 Even before the evaluation is closed, the selection unit 25 may calculate the progress of the points of the comprehensive evaluation based on the latest data at that time. Further, the selection unit 25 may appropriately create ranking information of the sound source data and transmit it to the terminal device 2 side even before the evaluation is closed. Further, the selection unit 25 may transmit the information of the sound source data created by the popular user to the terminal device 2 side.

上記のランキング情報は、例えば、楽曲別の、あるいは楽曲別且つパート別の、評価項目ごとのポイント、あるいは総合評価のポイントに基づくランキングである。なお、評価項目ごとのポイントとは、機械評価、審査員評価、ユーザー評価、いいね数、再生回数、再生時間といった項目ごとのポイントの数値である。選択部25が生成したこれらのランキングの情報を、サーバー装置1から端末装置2に送ることにより、端末装置2の画面には、ランキング情報が表示される。また、選択部25は、「人気ユーザー」に属するユーザーIDの情報を予め持っておく。また、「人気ユーザー」に属するユーザーIDの情報は、適宜更新するようにしてよい。選択部25は、音源データに関連付けられたユーザーIDの情報に基づいて、そのような人気ユーザーによる音源データを紹介するための画面の情報を作成する。選択部25が作成した、人気ユーザーによる音源データを紹介する情報を、サーバー装置1から端末装置2に送ることにより、端末装置2の画面には、人気ユーザーによる音源データの投稿を紹介する情報が表示される。端末装置2のユーザーは、そのようなランキング情報や、人気ユーザーの音源データの情報を見て、特定の音源データを再生することができる。端末装置2は、こういった特定の音源データが再生されたときに、「いいね」の情報や、その音源データの評価情報(端末装置2のユーザーによる評価)や、再生回数をカウントするための情報や、再生時間を加算するための情報を、サーバー装置1に送信できる。 The above ranking information is, for example, a ranking based on points for each evaluation item or points for comprehensive evaluation for each song, or for each song and part. The points for each evaluation item are numerical values of points for each item such as machine evaluation, judge evaluation, user evaluation, number of likes, number of plays, and play time. By sending the ranking information generated by the selection unit 25 from the server device 1 to the terminal device 2, the ranking information is displayed on the screen of the terminal device 2. Further, the selection unit 25 has information on the user ID belonging to the "popular user" in advance. In addition, the information of the user ID belonging to the "popular user" may be updated as appropriate. The selection unit 25 creates screen information for introducing the sound source data by such a popular user based on the information of the user ID associated with the sound source data. By sending the information for introducing the sound source data by the popular user created by the selection unit 25 from the server device 1 to the terminal device 2, the information for introducing the posting of the sound source data by the popular user is displayed on the screen of the terminal device 2. Is displayed. The user of the terminal device 2 can play back specific sound source data by looking at such ranking information and information on sound source data of popular users. The terminal device 2 counts "like" information, evaluation information of the sound source data (evaluation by the user of the terminal device 2), and the number of playbacks when such specific sound source data is played. Information and information for adding the reproduction time can be transmitted to the server device 1.

ステップS14において、選択部25は、特定の楽曲についての評価を締め切る。具体的には、選択部25は、予めスケジュールされた日時が到来するのを待つ。その日時が到来すると、選択部25は、新たな評価を締め切る。これにより、評価のためのデータは、少なくとも一旦は凍結される。つまり、データベース30の管理情報記憶部35内の、機械評価、審査員評価、ユーザー評価、いいね数、再生回数、再生時間といったデータは、少なくとも一旦は更新されなくなる。選択部25は、これらのデータが更新されなくなるように、データベース30を制御する。 In step S14, the selection unit 25 closes the evaluation of the specific music. Specifically, the selection unit 25 waits for a pre-scheduled date and time to arrive. When that date and time arrives, the selection unit 25 closes the new evaluation. This freezes the data for evaluation at least once. That is, the data such as the machine evaluation, the judge evaluation, the user evaluation, the number of likes, the number of reproductions, and the reproduction time in the management information storage unit 35 of the database 30 are not updated at least once. The selection unit 25 controls the database 30 so that these data are not updated.

ステップS15において、選択部25は、特定の楽曲についての音源データの総合評価を実施する。具体的には、選択部25は、音源データごとに、機械評価、審査員評価、ユーザー評価、いいね数、再生回数、再生時間といった評価項目ごとのポイントの数値に基づいて、総合評価のポイントを算出する。選択部25は、これら複数の評価項目のポイント数値の加重和(または加重平均)を算出して、総合評価のポイントとする。このときの評価項目ごとの重み値については、既に説明した通りである。選択部25は、制作対象とする楽曲の、パートごとに、総合評価のポイントのランキング情報を作成する。選択部25は、その楽曲の、パートごとの、総合評価の上位の音源データを、選択して採用する。例えば、選択部25は、パートごとの総合評価の最上位の音源データを、選択してよい。あるいは、選択部25は、パートごとの総合評価の最上位以外の音源データを、選択してもよい。 In step S15, the selection unit 25 carries out a comprehensive evaluation of sound source data for a specific musical piece. Specifically, the selection unit 25 is a point of comprehensive evaluation for each sound source data based on numerical values of points for each evaluation item such as machine evaluation, judge evaluation, user evaluation, number of likes, number of playbacks, and playback time. Is calculated. The selection unit 25 calculates a weighted sum (or weighted average) of the point values of these plurality of evaluation items and uses them as points for comprehensive evaluation. The weight values for each evaluation item at this time are as described above. The selection unit 25 creates ranking information of points for comprehensive evaluation for each part of the music to be produced. The selection unit 25 selects and adopts the sound source data of the music having a higher overall evaluation for each part. For example, the selection unit 25 may select the sound source data at the highest level of the comprehensive evaluation for each part. Alternatively, the selection unit 25 may select sound source data other than the highest level of the comprehensive evaluation for each part.

ステップS16において、ミキシング実行部26は、制作対象としている楽曲の、各パートの音源データのミキシング処理を行う。前述の通り、音源データは、パート間で同期可能であるように構成されている。ミキシング実行部26は、各パートの音源データを再生するとともに、パート間の同期を取りながらミキシング処理を行っていく。このとき、ミキシング実行部26は、複数のパートの音源データを、ミキシングして、1つのチャンネルの音源データ(最終音源データ)になるようにしてもよい。また、ミキシング実行部26は、各パートの音源データが音像空間内の所定の位置に配置されるようにしながら、2チャンネル、5.1チャンネル、あるいは22.2チャンネルなどといったマルチチャンネルの音源データ(最終音源データ)になるようにしてもよい。また、ミキシング実行部26は、各パートの音源データがそれぞれ独立のチャンネルのデータになるように、マルチチャンネルの音源データ(最終音源データ)を作成してもよい。なお、複数の音源データをミキシングする処理自体は、既存技術により実行可能である。 In step S16, the mixing execution unit 26 performs mixing processing of the sound source data of each part of the music to be produced. As described above, the sound source data is configured to be synchronized between the parts. The mixing execution unit 26 reproduces the sound source data of each part and performs the mixing process while synchronizing the parts. At this time, the mixing execution unit 26 may mix the sound source data of a plurality of parts to obtain the sound source data (final sound source data) of one channel. Further, the mixing execution unit 26 has a multi-channel sound source data (2 channels, 5.1 channels, 22.2 channels, etc.) while ensuring that the sound source data of each part is arranged at a predetermined position in the sound image space. It may be the final sound source data). Further, the mixing execution unit 26 may create multi-channel sound source data (final sound source data) so that the sound source data of each part becomes the data of independent channels. The process itself of mixing a plurality of sound source data can be executed by the existing technique.

上記のようにして、ミキシング実行部26は、ミキシング処理により、最終音源データを作成し、データベース30の最終音源記憶部34に書き込む。最終音源データは、選択部25によって選択された音源データを基に作成されたものである。言い換えれば、最終音源データは、評価値(総合評価値)の高い音源データをミキシングして作成されたものである。 As described above, the mixing execution unit 26 creates the final sound source data by the mixing process and writes it in the final sound source storage unit 34 of the database 30. The final sound source data is created based on the sound source data selected by the selection unit 25. In other words, the final sound source data is created by mixing sound source data with a high evaluation value (comprehensive evaluation value).

ステップS17において、ミキシング実行部26は、最終音源の配信を開始する。具体的には、ミキシング実行部26は、予めスケジュールされた日時が到来するのを待つ。その日時が到来すると、ミキシング実行部26は、最終音源データを送信可能な状態にする。これにより、端末装置2は、例えば所定の最終音源データを聴取するためのウェブページからのリンクに基づいて、最終音源データをダウンロードし、あるいは最終音源データをストリーム配信によって受信し、再生することができる。このように、端末装置2のユーザーは、評価の高い演奏(ヴォーカルを含む)による最終音源を、楽しむことが可能となる。 In step S17, the mixing execution unit 26 starts distribution of the final sound source. Specifically, the mixing execution unit 26 waits for a predetermined date and time to arrive. When that date and time arrives, the mixing execution unit 26 makes the final sound source data available for transmission. As a result, the terminal device 2 can download the final sound source data or receive and play the final sound source data by stream distribution, for example, based on a link from a web page for listening to a predetermined final sound source data. can. In this way, the user of the terminal device 2 can enjoy the final sound source by the highly evaluated performance (including vocals).

なお、上記の処理手順では、1つの楽曲についての最終音源データの生成までの手順を説明した。しかしながら、サーバー装置1が、複数の楽曲について、音源データの募集や、音源データの選択や、ミキシング処理や、最終音源データの提供等を同時に並行して進めてもよい。 In the above processing procedure, the procedure up to the generation of the final sound source data for one musical piece has been described. However, the server device 1 may simultaneously proceed with solicitation of sound source data, selection of sound source data, mixing processing, provision of final sound source data, and the like for a plurality of songs.

図11は、本実施形態のサーバー装置1や端末装置2などの各装置の内部構成の例を示すブロック図である。各装置は、コンピューターを用いて実現され得る。図示するように、そのコンピューターは、中央処理装置901と、RAM902と、入出力ポート903と、入出力デバイス904や905等と、バス906と、を含んで構成される。コンピューター自体は、既存技術を用いて実現可能である。中央処理装置901は、RAM902等から読み込んだプログラムに含まれる命令を実行する。中央処理装置901は、各命令にしたがって、RAM902にデータを書き込んだり、RAM902からデータを読み出したり、算術演算や論理演算を行ったりする。RAM902は、データやプログラムを記憶する。RAM902に含まれる各要素は、アドレスを持ち、アドレスを用いてアクセスされ得るものである。なお、RAMは、「ランダムアクセスメモリー」の略である。入出力ポート903は、中央処理装置901が外部の入出力デバイス等とデータのやり取りを行うためのポートである。入出力デバイス904や905は、入出力デバイスである。入出力デバイス904や905は、入出力ポート903を介して中央処理装置901との間でデータをやりとりする。バス906は、コンピューター内部で使用される共通の通信路である。例えば、中央処理装置901は、バス906を介してRAM902のデータを読んだり書いたりする。また、例えば、中央処理装置901は、バス906を介して入出力ポートにアクセスする。 FIG. 11 is a block diagram showing an example of the internal configuration of each device such as the server device 1 and the terminal device 2 of the present embodiment. Each device can be realized using a computer. As shown in the figure, the computer includes a central processing unit 901, a RAM 902, an input / output port 903, input / output devices 904 and 905, and a bus 906. The computer itself can be realized using existing technology. The central processing unit 901 executes an instruction included in a program read from RAM 902 or the like. The central processing unit 901 writes data to RAM 902, reads data from RAM 902, and performs arithmetic operations and logical operations according to each instruction. The RAM 902 stores data and programs. Each element contained in the RAM 902 has an address and can be accessed using the address. RAM is an abbreviation for "random access memory". The input / output port 903 is a port for the central processing unit 901 to exchange data with an external input / output device or the like. The input / output devices 904 and 905 are input / output devices. The input / output devices 904 and 905 exchange data with the central processing unit 901 via the input / output ports 903. Bus 906 is a common communication path used inside a computer. For example, the central processing unit 901 reads and writes data in the RAM 902 via the bus 906. Further, for example, the central processing unit 901 accesses the input / output port via the bus 906.

なお、上述した実施形態におけるサーバー装置1や端末装置2の少なくとも一部の機能をコンピューターのプログラムで実現することができる。その場合、この機能を実現するためのプログラムをコンピューター読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピューターシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピューターシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM、DVD-ROM、USBメモリー等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、一時的に、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。 It should be noted that at least a part of the functions of the server device 1 and the terminal device 2 in the above-described embodiment can be realized by a computer program. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by a computer system and executed. The term "computer system" as used herein includes hardware such as an OS and peripheral devices. The "computer-readable recording medium" is a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, a DVD-ROM, or a USB memory, or a storage device such as a hard disk built in a computer system. That means. Furthermore, a "computer-readable recording medium" is a device that temporarily and dynamically holds a program, such as a communication line when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In that case, it may include a program that holds a program for a certain period of time, such as a volatile memory inside a computer system that is a server or a client. Further, the above-mentioned program may be for realizing a part of the above-mentioned functions, and may be further realized for realizing the above-mentioned functions in combination with a program already recorded in the computer system.

以上、実施形態を説明したが、本発明はさらに次のような変形例でも実施することが可能である。 Although the embodiments have been described above, the present invention can be further implemented in the following modifications.

第1変形例:上記の実施形態では、音源データの機械評価を、端末装置2内の評価部63が起こっていた。変形例として、音源データの機械評価を、サーバー装置1内で行うようにしても良い。この場合、端末装置2から送信される音源データを、音源取得部24が受信してデータベース30の取得音源記憶部33に記憶させる。サーバー装置1内の評価部は、取得音源記憶部33に書き込まれている音源データの機械評価を行う。そして、評価部は、機械評価の結果のデータを、管理情報記憶部35の音源評価テーブル(図7)に書き込む。 First modification: In the above embodiment, the evaluation unit 63 in the terminal device 2 is performing the machine evaluation of the sound source data. As a modification, the machine evaluation of the sound source data may be performed in the server device 1. In this case, the sound source data transmitted from the terminal device 2 is received by the sound source acquisition unit 24 and stored in the acquisition sound source storage unit 33 of the database 30. The evaluation unit in the server device 1 performs machine evaluation of the sound source data written in the acquired sound source storage unit 33. Then, the evaluation unit writes the data of the result of the machine evaluation in the sound source evaluation table (FIG. 7) of the management information storage unit 35.

第2変形例:上記の実施形態では、サーバー装置1は、楽器あるいはヴォーカルのパートごとに音源データを募集した。また端末装置2は、楽器あるいはヴォーカルのパートごとの音源データを投稿した。つまり、1つのパートは、1種類の楽器あるいはヴォーカルに対応していた。本変形例では、1つのパートが、複数種類の楽器の演奏を含むものであってもよい。また、1つのパートが、楽器の演奏と、ヴォーカルの歌唱との、両方を含んでいてもよい。 Second variant example: In the above embodiment, the server device 1 solicits sound source data for each musical instrument or vocal part. Further, the terminal device 2 posted the sound source data for each musical instrument or vocal part. In other words, one part corresponded to one kind of instrument or vocal. In this modification, one part may include the performance of a plurality of types of musical instruments. Also, one part may include both playing an instrument and singing vocals.

第3変形例:上記の実施形態では、サーバー装置1の音源取得部24は、パートごとの複数の音源データを、相互に独立のタイミングで取得していた。本変形例では、音源取得部24は、特定の楽曲について、あるいは特定のパートについて、複数の端末装置2から一斉に音源データを取得する。 Third modification: In the above embodiment, the sound source acquisition unit 24 of the server device 1 acquires a plurality of sound source data for each part at mutually independent timings. In this modification, the sound source acquisition unit 24 acquires sound source data from a plurality of terminal devices 2 all at once for a specific musical piece or a specific part.

第4変形例:上記の実施形態では、サーバー装置1の選択部25は、端末装置2から取得した音源データのみの中から、パートを代表する代表音源データを選択していた。本変形例では、選択部25は、楽曲内の少なくとも1つのパートについて、端末装置2から投稿された音源データの中からだけではなく、サーバー装置1側で予め準備しておいた音源データ(投稿された音源データではなく、予め準備されたプロの演奏の音源データを、代表音源データとして選択してもよい。また、サーバー装置1は、楽曲内の少なくとも1つのパートについて、端末装置2のユーザーから音源データを募集せず、予め準備しておいた音源データ(例えば、プロの演奏の音源データ)を、代表音源データとして選択してもよい。 Fourth Modification Example: In the above embodiment, the selection unit 25 of the server device 1 selects the representative sound source data representing the part from only the sound source data acquired from the terminal device 2. In this modification, the selection unit 25 performs not only the sound source data posted from the terminal device 2 but also the sound source data (posted) prepared in advance on the server device 1 side for at least one part in the music. The sound source data of a professional performance prepared in advance may be selected as the representative sound source data instead of the prepared sound source data. Further, the server device 1 may use the terminal device 2 for at least one part in the music. The sound source data prepared in advance (for example, the sound source data of a professional performance) may be selected as the representative sound source data without soliciting the sound source data from.

第5変形例:カラオケデータや音源データが、パート間の再生同期のための情報を特に含んでいなくてもよい。カラオケデータや音源データは、所定のサンプリング周波数でサンプリングして収録されており、再生する状況においてそのサンプリング周波数を再現できていれば、パート間で、十分に小さい誤差で同期することも可能である。 Fifth modification: The karaoke data and the sound source data do not have to include information for playback synchronization between parts. Karaoke data and sound source data are sampled and recorded at a predetermined sampling frequency, and if the sampling frequency can be reproduced in the playback situation, it is possible to synchronize the parts with a sufficiently small error. ..

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and includes designs and the like within a range that does not deviate from the gist of the present invention.

本発明は、例えば、多数のユーザーがインターネット等の通信ネットワークを介して音楽の演奏を楽しむためのシステムに利用することができる。但し、本発明の利用範囲はここに例示したものには限られない。 The present invention can be used, for example, in a system for a large number of users to enjoy playing music via a communication network such as the Internet. However, the scope of use of the present invention is not limited to those exemplified here.

1 サーバー装置(楽曲制作装置)
2 端末装置
10 端末インターフェース部
21 音源募集機能部
22 カラオケ提供部
23 楽譜提供部
24 音源取得部
25 選択部
26 ミキシング実行部
30 データベース
31 カラオケ記憶部
32 楽譜記憶部
33 取得音源記憶部
34 最終音源記憶部
35 管理情報記憶部
51 データ送受信部(データ受信部、データ送信部)
61 提示部
62 サウンド記録部
63 評価部
71 表示部
72 サウンド出力部
73 サウンド入力部
901 中央処理装置
902 RAM
903 入出力ポート
904,905 入出力デバイス
906 バス
1 Server device (music production device)
2 Terminal device 10 Terminal interface section 21 Sound source recruitment function section 22 Karaoke provider section 23 Score provider section 24 Sound source acquisition section 25 Selection section 26 Mixing execution section 30 Database 31 Karaoke storage section 32 Score storage section 33 Acquisition sound source storage section 34 Final sound source storage Unit 35 Management information storage unit 51 Data transmission / reception unit (data reception unit, data transmission unit)
61 Presentation unit 62 Sound recording unit 63 Evaluation unit 71 Display unit 72 Sound output unit 73 Sound input unit 901 Central processing unit 902 RAM
903 I / O ports 904,905 I / O devices 906 buses

音源募集機能部21は、端末装置2に対し、音源を募集する旨の情報を提示する。具体的には、音源募集機能部21は、端末装置2で表示するための募集情報を、端末装置2に対して送信する。 The sound source recruitment function unit 21 presents information to the terminal device 2 to the effect that a sound source is recruited. Specifically, the sound source recruitment function unit 21 transmits the recruitment information to be displayed on the terminal device 2 to the terminal device 2.

取得音源は、ユーザーが投稿した音源データそのものである。取得音源の項目には、例えばMPEG形式やWAV形式などの形式で符号化されたサウンドのデータが格納される。 The acquired sound source is the sound source data itself posted by the user. In the item of the acquired sound source, sound data encoded in a format such as an MPEG format or a WAV format is stored.

制作日時は、そ楽曲に関する最終音源が制作された日時を表すものである。制作日時は、例えば、「YYYY/MM/DD hh:mm:ss」(年月日、時分秒)の形式で表わされる。 The production date and time represents the date and time when the final sound source related to the music was produced. The production date and time is expressed in the format of, for example, "YYYY / MM / DD hh: mm: ss" (year, month, day, hour, minute, second).

Claims (13)

楽曲のパートごとのカラオケデータを外部に提供するカラオケ提供部と、
前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得部と、
前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択部と、
前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行部と、
を具備する楽曲制作装置。
The karaoke provider that provides karaoke data for each part of the song to the outside,
A sound source acquisition unit that acquires and stores sound source data for each part corresponding to the karaoke data, and
A selection unit that selects representative sound source data representing the part from the sound source data acquired by the sound source acquisition unit, and a selection unit.
A mixing execution unit that creates final sound source data that is sound source data including the plurality of parts by mixing the representative sound source data selected by the selection unit for each of the plurality of parts constituting the music.
A music production device equipped with.
前記パートは、前記楽曲を構成するための楽器のパートまたは歌唱のパートである、
請求項1に記載の楽曲制作装置。
The part is a musical instrument part or a singing part for composing the music.
The music production device according to claim 1.
前記音源取得部は、前記パートごとの前記音源データを、前記パートごとに独立のタイミングで取得する、
請求項1または2に記載の楽曲制作装置。
The sound source acquisition unit acquires the sound source data for each part at independent timings for each part.
The music production device according to claim 1 or 2.
前記楽曲の前記パートごとの楽譜データを外部に提供する楽譜提供部、
をさらに備え、
前記音源取得部は、前記楽譜データにも対応する前記パートごとの前記音源データを取得する、
請求項1から3までのいずれか一項に記載の楽曲制作装置。
A score providing unit that provides score data for each part of the music to the outside.
Further prepare
The sound source acquisition unit acquires the sound source data for each part corresponding to the score data.
The music production device according to any one of claims 1 to 3.
前記選択部は、
前記音源データにおける音程および拍子と、正解の音程および拍子と、を比較することによって、前記音源データの前記正解を基準としたときの正確さを表す評価結果である機械評価と、
前記音源データに関して審査員の端末装置から受信した評価結果である審査員評価と、
前記音源データに関してユーザーの端末装置から受信した評価結果であるユーザー評価と、
前記音源データに関してユーザーの端末装置から送信された「いいね」の数を評価結果とした「いいね」数と、
前記音源データがユーザーの端末装置で再生された回数を評価結果とした再生回数と、
前記音源データがユーザーの端末装置で再生された時間の総計を評価結果とした再生時間と、
の少なくともいずれかの評価結果に基づいて、前記パートを代表する前記代表音源データを選択する、
請求項1から4までのいずれか一項に記載の楽曲制作装置。
The selection unit is
Machine evaluation, which is an evaluation result showing the accuracy of the sound source data when the correct answer is used as a reference, by comparing the pitch and time signature of the sound source data with the pitch and time signature of the correct answer.
The judge's evaluation, which is the evaluation result received from the judge's terminal device regarding the sound source data,
The user evaluation, which is the evaluation result received from the user's terminal device with respect to the sound source data,
The number of "likes" based on the number of "likes" transmitted from the user's terminal device regarding the sound source data, and the number of "likes"
The number of times the sound source data has been played back on the user's terminal device as the evaluation result, and the number of times the sound source data has been played back.
The playback time based on the total time that the sound source data was played back on the user's terminal device as the evaluation result, and
The representative sound source data representing the part is selected based on the evaluation result of at least one of the above.
The music production device according to any one of claims 1 to 4.
前記選択部は、前記機械評価と、前記審査員評価と、前記ユーザー評価と、前記「いいね」数と、前記再生回数と、前記再生時間とのうちの、すくなくとも2つの評価に基づいて総合評価を算出し、算出された前記総合評価に基づいて、前記パートを代表する前記代表音源データを選択する、
請求項5に記載の楽曲制作装置。
The selection unit is comprehensive based on at least two evaluations of the machine evaluation, the judge evaluation, the user evaluation, the number of "likes", the number of reproductions, and the reproduction time. The evaluation is calculated, and the representative sound source data representing the part is selected based on the calculated comprehensive evaluation.
The music production device according to claim 5.
前記音源データは、前記カラオケデータを提供した先の端末装置のユーザーの演奏または歌唱を収録したサウンドのデータであり、
前記選択部は、前記端末装置から取得した前記音源データのみの中から、前記パートを代表する前記代表音源データを選択する、
請求項1から6までのいずれか一項に記載の楽曲制作装置。
The sound source data is sound data recording the performance or singing of the user of the terminal device to which the karaoke data is provided.
The selection unit selects the representative sound source data representing the part from only the sound source data acquired from the terminal device.
The music production device according to any one of claims 1 to 6.
前記カラオケデータは、パート間の再生同期のための同期信号を含んでおり、
前記音源データは、前記カラオケデータが含んでいた前記同期信号を引き継いで持つものであり、
前記ミキシング実行部は、前記代表音源データが持つ前記同期信号に基づいて前記パート間の再生同期をとりながら複数の前記代表音源データをミキシングする、
請求項1から7までのいずれか一項に記載の楽曲制作装置。
The karaoke data includes a synchronization signal for playback synchronization between parts.
The sound source data inherits and has the synchronization signal included in the karaoke data.
The mixing execution unit mixes a plurality of the representative sound source data while maintaining reproduction synchronization between the parts based on the synchronization signal of the representative sound source data.
The music production device according to any one of claims 1 to 7.
前記ミキシング実行部は、作成した前記最終音源データを、インターネットを介して送信可能とする、
請求項1から8までのいずれか一項に記載の楽曲制作装置。
The mixing execution unit makes it possible to transmit the created final sound source data via the Internet.
The music production device according to any one of claims 1 to 8.
カラオケ提供部が、楽曲のパートごとのカラオケデータを外部に提供するカラオケ提供過程と、
音源取得部が、前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得過程と、
選択部が、前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択過程と、
ミキシング実行部が、前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行過程と、
を含む楽曲制作方法。
The karaoke provision process in which the karaoke provision department provides karaoke data for each part of the music to the outside,
The sound source acquisition process in which the sound source acquisition unit acquires and accumulates the sound source data for each part corresponding to the karaoke data, and
A selection process in which the selection unit selects representative sound source data representing the part from the sound source data acquired by the sound source acquisition unit.
The mixing execution unit mixes the representative sound source data selected by the selection unit for each of the plurality of parts constituting the music, thereby creating the final sound source data which is the sound source data including the plurality of parts. Execution process and
Music production method including.
楽曲のパートごとのカラオケデータを外部に提供するカラオケ提供部と、
前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得部と、
前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択部と、
前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行部と、
を具備する楽曲制作装置、としてコンピューターを機能させるプログラム。
The karaoke provider that provides karaoke data for each part of the song to the outside,
A sound source acquisition unit that acquires and stores sound source data for each part corresponding to the karaoke data, and
A selection unit that selects representative sound source data representing the part from the sound source data acquired by the sound source acquisition unit, and a selection unit.
A mixing execution unit that creates final sound source data that is sound source data including the plurality of parts by mixing the representative sound source data selected by the selection unit for each of the plurality of parts constituting the music.
A program that makes a computer function as a music production device equipped with.
楽曲のパートごとのカラオケデータを外部に提供するカラオケ提供部と、
前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得部と、
前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択部と、
前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行部と、
を具備する楽曲制作装置、としてコンピューターを機能させるプログラムを記録した、コンピューター読み取り可能な記録媒体。
The karaoke provider that provides karaoke data for each part of the song to the outside,
A sound source acquisition unit that acquires and stores sound source data for each part corresponding to the karaoke data, and
A selection unit that selects representative sound source data representing the part from the sound source data acquired by the sound source acquisition unit, and a selection unit.
A mixing execution unit that creates final sound source data that is sound source data including the plurality of parts by mixing the representative sound source data selected by the selection unit for each of the plurality of parts constituting the music.
A computer-readable recording medium that records a program that makes the computer function as a music production device.
カラオケデータと楽譜データとを受信するデータ受信部と、
前記カラオケデータをサウンドとして提示するとともに、前記楽譜データに基づく楽譜を視覚情報として画面に提示する提示部と、
前記提示部による前記カラオケデータの提示に合わせて外部から取得したサウンドを音源データとして記録するサウンド記録部と、
前記音源データを評価して機械評価データを出力する評価部と、
前記音源データおよび前記機械評価データを送信するデータ送信部と、
を具備する端末装置。
A data receiver that receives karaoke data and score data,
A presentation unit that presents the karaoke data as sound and presents a score based on the score data as visual information on the screen.
A sound recording unit that records sound acquired from the outside as sound source data in accordance with the presentation of the karaoke data by the presentation unit, and a sound recording unit.
An evaluation unit that evaluates the sound source data and outputs machine evaluation data,
A data transmission unit that transmits the sound source data and the machine evaluation data,
A terminal device comprising.
JP2020112781A 2020-06-30 2020-06-30 Music production equipment, terminal equipment, music production methods, programs, and recording media Expired - Fee Related JP7026412B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020112781A JP7026412B1 (en) 2020-06-30 2020-06-30 Music production equipment, terminal equipment, music production methods, programs, and recording media

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020112781A JP7026412B1 (en) 2020-06-30 2020-06-30 Music production equipment, terminal equipment, music production methods, programs, and recording media

Publications (2)

Publication Number Publication Date
JP7026412B1 JP7026412B1 (en) 2022-02-28
JP2022036359A true JP2022036359A (en) 2022-03-08

Family

ID=80493530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020112781A Expired - Fee Related JP7026412B1 (en) 2020-06-30 2020-06-30 Music production equipment, terminal equipment, music production methods, programs, and recording media

Country Status (1)

Country Link
JP (1) JP7026412B1 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297136A (en) * 2001-03-30 2002-10-11 Casio Comput Co Ltd Music composition device, music distribution system and program
JP2003280669A (en) * 2002-03-25 2003-10-02 Xing Inc Method and device for providing music work
JP2010003372A (en) * 2008-06-20 2010-01-07 Pioneer Electronic Corp Content reproducing apparatus, information distributing server, content reproducing method, information distributing method, content reproducing program, information distributing program, and computer readable recording medium
JP2012018282A (en) * 2010-07-07 2012-01-26 Cellius Inc Musical performance file management device, musical performance file reproduction device, and musical performance file reproduction method
JP2013135310A (en) * 2011-12-26 2013-07-08 Sony Corp Information processor, information processing method, program, recording medium, and information processing system
JP2014048470A (en) * 2012-08-31 2014-03-17 Brother Ind Ltd Music reproduction device, music reproduction system, and music reproduction method
JP2014153516A (en) * 2013-02-07 2014-08-25 Pioneer Electronic Corp Determination device
KR20170050235A (en) * 2015-10-30 2017-05-11 에스케이플래닛 주식회사 User equipment, service providing device, access point, system for providing sound source information comprising the same, control method thereof and computer readable medium having computer program recorded thereon
CN109147807A (en) * 2018-06-05 2019-01-04 安克创新科技股份有限公司 A sound range balance method, device and system based on deep learning

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297136A (en) * 2001-03-30 2002-10-11 Casio Comput Co Ltd Music composition device, music distribution system and program
JP2003280669A (en) * 2002-03-25 2003-10-02 Xing Inc Method and device for providing music work
JP2010003372A (en) * 2008-06-20 2010-01-07 Pioneer Electronic Corp Content reproducing apparatus, information distributing server, content reproducing method, information distributing method, content reproducing program, information distributing program, and computer readable recording medium
JP2012018282A (en) * 2010-07-07 2012-01-26 Cellius Inc Musical performance file management device, musical performance file reproduction device, and musical performance file reproduction method
JP2013135310A (en) * 2011-12-26 2013-07-08 Sony Corp Information processor, information processing method, program, recording medium, and information processing system
JP2014048470A (en) * 2012-08-31 2014-03-17 Brother Ind Ltd Music reproduction device, music reproduction system, and music reproduction method
JP2014153516A (en) * 2013-02-07 2014-08-25 Pioneer Electronic Corp Determination device
KR20170050235A (en) * 2015-10-30 2017-05-11 에스케이플래닛 주식회사 User equipment, service providing device, access point, system for providing sound source information comprising the same, control method thereof and computer readable medium having computer program recorded thereon
CN109147807A (en) * 2018-06-05 2019-01-04 安克创新科技股份有限公司 A sound range balance method, device and system based on deep learning

Also Published As

Publication number Publication date
JP7026412B1 (en) 2022-02-28

Similar Documents

Publication Publication Date Title
US12217621B2 (en) Facilitating a social network of a group of performers
US11282486B2 (en) Real-time integration and review of musical performances streamed from remote locations
US8138409B2 (en) Interactive music training and entertainment system
US7772480B2 (en) Interactive music training and entertainment system and multimedia role playing game platform
US20100095829A1 (en) Rehearsal mix delivery
US20240212655A1 (en) System, method, and non-transitory computer-readable storage medium for collaborating on a musical composition over a communication network
CN102037486A (en) System for learning and mixing music
US20100082768A1 (en) Providing components for multimedia presentations
US20020144587A1 (en) Virtual music system
US20150003812A1 (en) Method for collaborative creation of shareable secondary digital media programs
US20020144588A1 (en) Multimedia data file
Owusu-Poku Ghanaian highlife sound recordings of the 1970s: the legacy of Francis Kwakye and the Ghana Film Studio
Clauhs et al. The DAW revolution
Bates Mixing for parlak and bowing for a büyük ses: the aesthetics of arranged traditional music in Turkey
Pejrolo Creative Sequencing Techniques for Music Production: A Practical Guide to Logic, Digital Performer, Cubase and Pro Tools
JP2012018282A (en) Musical performance file management device, musical performance file reproduction device, and musical performance file reproduction method
JP2007193273A (en) Karaoke system with performance guide function
JP5622679B2 (en) Karaoke equipment
JP7026412B1 (en) Music production equipment, terminal equipment, music production methods, programs, and recording media
JP2018155936A (en) Sound data edition method
JP2023113579A (en) Method for separating and resynthesizing sound source data, and sound source providing system for karaoke accompaniment
Müller et al. Computational methods for melody and voice processing in music recordings (Dagstuhl seminar 19052)
Friedlander China's" newer value" pop: Rock-and-roll and technology on the new long march
JP4173291B2 (en) Karaoke device that can play a singing instruction program
JP7632589B2 (en) Content data processing method and content data processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200630

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200717

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201008

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210301

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210301

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210309

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210316

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20210528

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20210601

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20211109

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20211214

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220118

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220207

R150 Certificate of patent or registration of utility model

Ref document number: 7026412

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees