JP2022036359A - Music production device, terminal device, music production method, program, and recording medium - Google Patents
Music production device, terminal device, music production method, program, and recording medium Download PDFInfo
- Publication number
- JP2022036359A JP2022036359A JP2020112781A JP2020112781A JP2022036359A JP 2022036359 A JP2022036359 A JP 2022036359A JP 2020112781 A JP2020112781 A JP 2020112781A JP 2020112781 A JP2020112781 A JP 2020112781A JP 2022036359 A JP2022036359 A JP 2022036359A
- Authority
- JP
- Japan
- Prior art keywords
- sound source
- data
- source data
- unit
- evaluation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
Description
本発明は、楽曲制作装置、端末装置、楽曲制作方法、プログラム、および記録媒体に関する。 The present invention relates to a music production device, a terminal device, a music production method, a program, and a recording medium.
インターネットを用いた仕組みを用いることにより、シンガー(歌手)あるいは楽器演奏者が、コラボレーションして楽曲の演奏を行うことが試みられている。 It is attempted that a singer (singer) or a musical instrument player collaborates to play a musical piece by using a mechanism using the Internet.
例えば、特許文献1には、マイクによってキャプチャーされたオーディオおよびカラオケ演奏に関連した楽曲オーディオと、キャプチャーされたビデオを組み合わせて、カラオケ演奏の組み合わされた記録を作成する技術が記載されている。特許文献1に記載されている技術では、多数のデジタルダウンロードジュークボックスをネットワークで接続している。特許文献1の段落0082には、「歌手は、例えば、ビートとの共時性、期待されるノートやピッチからのズレ、および/または、観衆の反応、測定された拍手、KJ、他の公認の人からの客観的な評価、ゲストの判断のような量的な尺度、適切な測定装置を介して決定された量的な尺度に基づいて、ランキングされるか、得点が与えられる。」ことが記載されている。また、特許文献1の段落0085には、「カラオケジュークボックスは、楽曲音楽メディアをレンダリングする一方で、インバウンド演奏オーディオを重ねるために、リアルタイム音楽ミキシングおよび操作装置を提供する。これら2つのオーディオストリームは、オリジナルの音楽と会場でキャプチャーされたオーディオとを含む混合オーディオファイルを生成するためのミキシングアレンジによって、混合される。」ことが記載されている。 For example, Patent Document 1 describes a technique for creating a combined recording of a karaoke performance by combining the audio captured by a microphone and the music audio related to the karaoke performance with the captured video. In the technique described in Patent Document 1, a large number of digital download jukeboxes are connected by a network. Paragraph 882 of Patent Document 1 states, "Singer is, for example, synchronism with the beat, expected note or pitch deviation, and / or audience reaction, measured applause, KJ, or other official recognition. It is ranked or scored based on an objective evaluation from a person, a quantitative scale such as a guest's judgment, or a quantitative scale determined through an appropriate measuring device. " Is described. Further, in paragraph 805 of Patent Document 1, "Karaoke jukebox provides a real-time music mixing and operation device for superimposing inbound performance audio while rendering music music media. These two audio streams are provided. , Mixed by a mixing karaoke to generate a mixed audio file containing the original music and the audio captured at the venue. "
しかしながら、特許文献1に記載された技術では、予め収録されたオーディオ(特許文献1の段落0085に記載の「楽曲音楽メディア」)と、リアルタイムで演奏されるオーディオ(特許文献1の段落0085に記載の「インバウンド演奏オーディオ」)とのミキシングを行うのみである。つまり、背景技術では、例えば相互に見知らぬ複数のシンガーあるいは演奏者が、演奏して1つの楽曲を作り上げるということはできない。 However, in the technique described in Patent Document 1, pre-recorded audio (“musical music media” described in paragraph 805 of Patent Document 1) and audio played in real time (described in paragraph 805 of Patent Document 1). It only mixes with the "inbound performance audio"). That is, in the background technique, for example, it is not possible for a plurality of singers or performers who are unknown to each other to perform to create one song.
本発明は、上記の課題の認識に基づいて行なわれたものであり、複数のシンガーあるいは演奏者が、ネットワーク等を介して1つの楽曲を作り上げることのできる楽曲制作装置、端末装置、楽曲制作方法、プログラム、および記録媒体を提供しようとするものである。 The present invention has been made based on the recognition of the above-mentioned problems, and is a music production device, a terminal device, and a music production method capable of allowing a plurality of singers or performers to create one music via a network or the like. , Programs, and recording media.
[1]上記の課題を解決するため、本発明の一態様による楽曲制作装置は、楽曲のパートごとのカラオケデータを外部に提供するカラオケ提供部と、前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得部と、前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択部と、前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行部とを具備する。 [1] In order to solve the above problems, the music production device according to one aspect of the present invention has a karaoke providing unit that provides karaoke data for each part of the music to the outside, and a sound source for each part corresponding to the karaoke data. About each of a sound source acquisition unit that acquires and accumulates data, a selection unit that selects representative sound source data representing the part from the sound source data acquired by the sound source acquisition unit, and a plurality of parts that compose the music. It includes a mixing execution unit that creates final sound source data that is sound source data including the plurality of parts by mixing the representative sound source data selected by the selection unit.
[2]また、本発明の一態様は、上記の楽曲制作装置において、前記パートは、前記楽曲を構成するための楽器のパートまたは歌唱のパートであるというものである。 [2] Further, one aspect of the present invention is that in the above-mentioned music production apparatus, the part is a musical instrument part or a singing part for composing the music.
[3]また、本発明の一態様は、上記の楽曲制作装置において、前記音源取得部は、前記パートごとの前記音源データを、前記パートごとに独立のタイミングで取得する。 [3] Further, in one aspect of the present invention, in the music production apparatus, the sound source acquisition unit acquires the sound source data for each part at independent timings for each part.
[4]また、本発明の一態様は、上記の楽曲制作装置において、前記楽曲の前記パートごとの楽譜データを外部に提供する楽譜提供部、をさらに備え、前記音源取得部は、前記楽譜データにも対応する前記パートごとの前記音源データを取得するものである。 [4] Further, in one aspect of the present invention, the music production apparatus further includes a music score providing unit for providing music score data for each part of the music to the outside, and the sound source acquisition unit includes the music score data. Also, the sound source data for each part corresponding to the above is acquired.
[5]また、本発明の一態様は、上記の楽曲制作装置において、前記選択部は、前記音源データにおける音程および拍子と、正解の音程および拍子と、を比較することによって、前記音源データの前記正解を基準としたときの正確さを表す評価結果である機械評価と、前記音源データに関して審査員の端末装置から受信した評価結果である審査員評価と、前記音源データに関してユーザーの端末装置から受信した評価結果であるユーザー評価と、前記音源データに関してユーザーの端末装置から送信された「いいね」の数を評価結果とした「いいね」数と、前記音源データがユーザーの端末装置で再生された回数を評価結果とした再生回数と、前記音源データがユーザーの端末装置で再生された時間の総計を評価結果とした再生時間と、の少なくともいずれかの評価結果に基づいて、前記パートを代表する前記代表音源データを選択するものである。 [5] Further, in one aspect of the present invention, in the music production apparatus, the selection unit compares the pitch and beat of the sound source data with the correct pitch and beat of the sound source data. Machine evaluation, which is an evaluation result indicating accuracy when the correct answer is used as a reference, auditor evaluation, which is an evaluation result received from the auditor's terminal device regarding the sound source data, and user's terminal device regarding the sound source data. The user evaluation, which is the received evaluation result, the number of "likes", which is the number of "likes" transmitted from the user's terminal device regarding the sound source data, and the sound source data are played back on the user's terminal device. The part is based on at least one of the evaluation results of the number of times of reproduction based on the number of times of evaluation and the reproduction time of the total time of the sound source data being reproduced on the user's terminal device. The representative sound source data is selected.
[6]また、本発明の一態様は、上記の楽曲制作装置において、前記選択部は、前記機械評価と、前記審査員評価と、前記ユーザー評価と、前記「いいね」数と、前記再生回数と、前記再生時間とのうちの、すくなくとも2つの評価に基づいて総合評価を算出し、算出された前記総合評価に基づいて、前記パートを代表する前記代表音源データを選択するというものである。 [6] Further, in one aspect of the present invention, in the music production apparatus, the selection unit has the machine evaluation, the judge evaluation, the user evaluation, the number of "likes", and the reproduction. A comprehensive evaluation is calculated based on at least two evaluations of the number of times and the playback time, and the representative sound source data representing the part is selected based on the calculated comprehensive evaluation. ..
[7]また、本発明の一態様は、上記の楽曲制作装置において、前記音源データは、前記カラオケデータを提供した先の端末装置のユーザーの演奏または歌唱を収録したサウンドのデータであり、前記選択部は、前記端末装置から取得した前記音源データのみの中から、前記パートを代表する前記代表音源データを選択するものである。 [7] Further, in one aspect of the present invention, in the music production device, the sound source data is sound data recording the performance or singing of the user of the terminal device to which the karaoke data is provided. The selection unit selects the representative sound source data representing the part from only the sound source data acquired from the terminal device.
[8]また、本発明の一態様は、上記の楽曲制作装置において、前記カラオケデータは、パート間の再生同期のための同期信号を含んでおり、前記音源データは、前記カラオケデータが含んでいた前記同期信号を引き継いで持つものであり、前記ミキシング実行部は、前記代表音源データが持つ前記同期信号に基づいて前記パート間の再生同期をとりながら複数の前記代表音源データをミキシングするものである。 [8] Further, in one aspect of the present invention, in the music production apparatus, the karaoke data includes a synchronization signal for playback synchronization between parts, and the sound source data includes the karaoke data. The mixing execution unit inherits and has the synchronization signal, and the mixing execution unit mixes a plurality of the representative sound source data while performing reproduction synchronization between the parts based on the synchronization signal of the representative sound source data. be.
[9]また、本発明の一態様は、上記の楽曲制作装置において、前記ミキシング実行部は、作成した前記最終音源データを、インターネットを介して送信可能とするものである。 [9] Further, in one aspect of the present invention, in the above-mentioned music production apparatus, the mixing execution unit enables the created final sound source data to be transmitted via the Internet.
[10]また、本発明の一態様は、カラオケ提供部が、楽曲のパートごとのカラオケデータを外部に提供するカラオケ提供過程と、音源取得部が、前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得過程と、選択部が、前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択過程と、ミキシング実行部が、前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行過程とを含む楽曲制作方法である。 [10] Further, one aspect of the present invention is a karaoke providing process in which the karaoke providing unit provides karaoke data for each part of the music to the outside, and a sound source acquisition unit provides a sound source for each part corresponding to the karaoke data. The sound source acquisition process of acquiring and accumulating data, the selection process of selecting the representative sound source data representing the part from the sound source data acquired by the sound source acquisition unit, and the mixing execution unit of the music. Music production including a mixing execution process of creating final sound source data which is sound source data including the plurality of parts by mixing the representative sound source data selected by the selection unit for each of the plurality of parts constituting the above. The method.
[11]また、本発明の一態様は、楽曲のパートごとのカラオケデータを外部に提供するカラオケ提供部と、前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得部と、前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択部と、前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行部とを具備する楽曲制作装置、としてコンピューターを機能させるプログラムである。 [11] Further, one aspect of the present invention is a karaoke providing unit that provides karaoke data for each part of a song to the outside, and a sound source acquisition unit that acquires and stores sound source data for each part corresponding to the karaoke data. And the selection unit that selects representative sound source data representing the part from the sound source data acquired by the sound source acquisition unit, and the representative sound source data selected by the selection unit for each of the plurality of parts constituting the music. It is a program that makes a computer function as a music production device including a mixing execution unit that creates final sound source data which is sound source data including the plurality of parts by mixing.
[12]また、本発明の一態様は、楽曲のパートごとのカラオケデータを外部に提供するカラオケ提供部と、前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得部と、前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択部と、前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行部と、を具備する楽曲制作装置、としてコンピューターを機能させるプログラムを記録した、コンピューター読み取り可能な記録媒体である。 [12] Further, one aspect of the present invention is a karaoke providing unit that provides karaoke data for each part of a song to the outside, and a sound source acquisition unit that acquires and stores sound source data for each part corresponding to the karaoke data. The representative sound source data selected by the selection unit for each of the selection unit for selecting the representative sound source data representing the part from the sound source data acquired by the sound source acquisition unit and the plurality of parts constituting the music. A computer-readable record that records a program that causes the computer to function as a music production device, including a mixing execution unit that creates final sound source data that is sound source data including the plurality of parts by mixing. It is a medium.
[13]また、本発明の一態様は、カラオケデータと楽譜データとを受信するデータ受信部と、前記カラオケデータをサウンドとして提示するとともに、前記楽譜データに基づく楽譜を視覚情報として画面に提示する提示部と、前記提示部による前記カラオケデータの提示に合わせて外部から取得したサウンドを音源データとして記録するサウンド記録部と、前記音源データを評価して機械評価データを出力する評価部と、前記音源データおよび前記機械評価データを送信するデータ送信部とを具備する端末装置である。 [13] Further, in one aspect of the present invention, a data receiving unit that receives karaoke data and score data, the karaoke data is presented as sound, and a score based on the score data is presented on the screen as visual information. The presentation unit, a sound recording unit that records sound acquired from the outside in accordance with the presentation of the karaoke data by the presentation unit as sound source data, an evaluation unit that evaluates the sound source data and outputs machine evaluation data, and the above. It is a terminal device including a data transmission unit for transmitting sound source data and the machine evaluation data.
本発明によれば、楽曲制作装置は、パートごとの音源データを取得して、それらの音源データの中から選択された代表音源データのみを用いて、最終音源データを作成することができる。 According to the present invention, the music production apparatus can acquire sound source data for each part and create final sound source data using only representative sound source data selected from those sound source data.
本発明によれば、楽曲制作装置は、ユーザーが自分のパートの音源データを制作して楽曲制作装置に送信するだけで、すべてのパートをも含めた全体の最終音源データを作成することができる。また、このように制作された最終音源データを、一般に対して公開することができる。 According to the present invention, the music production device can create the entire final sound source data including all the parts only by the user producing the sound source data of his / her own part and transmitting it to the music production device. .. In addition, the final sound source data produced in this way can be disclosed to the general public.
次に、図面を参照しながら、本発明の実施形態について説明する。 Next, an embodiment of the present invention will be described with reference to the drawings.
以下で説明する実施形態では、サーバー装置1が、特定の楽曲について、スケジュールを決めて、端末装置2のユーザーからの音源を募集する。音源を募集する際に、サーバー装置1は、パートごとの音源を募集する。ここで、パートとは、楽器ごと(ヴォーカルを含む)の演奏等の分担を指す。なお、1種類の楽器が、複数のパートを持つ場合(例えば、リードギターと、サイドギターなど)もある。上記の募集のために、サーバー装置1は、パートごとの、楽譜とカラオケとを提供する。サーバー装置1は、楽譜データとカラオケデータとを端末装置2に対して送信することができる。端末装置2は、サーバー装置1から受信した楽譜データに基づいて楽譜を画面等に表示する。また、端末装置2は、サーバー装置1から受信したカラオケデータに基づいて、カラオケ(MR)の再生を行う。カラオケのサウンドは、例えば端末装置2に接続されたスピーカーやイヤフォン等から出力され得る。端末装置2は、ユーザーが演奏する楽器や、ユーザーが歌う歌(ヴォーカル)の、サウンドを収録し、音源データとして記録する。端末装置2は、サーバー装置1の募集に応じて、音源データをサーバー装置1に送信する。サーバー装置1は、多数の端末装置2から送られる音源データを収集し、蓄積する。サーバー装置1は、特定の楽曲のパートごとに、音源データを評価する。サーバー装置1は、評価の高い音源データをミキシングして、最終音源データを作成する。
In the embodiment described below, the server device 1 determines a schedule for a specific musical piece and solicits sound sources from users of the
なお、端末装置2を使用するユーザーたちが、演奏等を収録する際に、他の端末装置2のユーザーと同期を取る必要はない。端末装置2のユーザーは、各々の独立のタイミング、好きなタイミングで演奏等を行い、音源データをサーバー装置1に送信してよい。後述するように、楽曲における複数のパート間の同期は、ミキシング処理時に行われる。また、端末装置2のユーザー同士が、予め示し合わせて同一の楽曲に関する音源データを投稿する必要もない。個々の端末装置2のユーザーは、他の端末装置2のユーザーが楽曲のどのパートを担当するかを意識することなく、自らの希望するパートの音源データを投稿することができる。
It should be noted that the users of the
上で述べた「音源データ」は、各パートの音を収録したデータであり、端末装置2からサーバー装置1に送られ、サーバー装置1において蓄積されるものである。また、「最終音源データ」は、上記の各パートの音源データをミキシングして作成されたデータである。「最終音源データ」は、特定の楽曲の、例えば全パートの音源データをミキシングして作成されたものである。
The "sound source data" described above is data in which the sound of each part is recorded, is sent from the
本実施形態で使用する用語のうち、XMLは、拡張可能なマーク付け言語(Extensible Markup Language)を意味する。また、MRは、Music Recordedの略である。MRは、いわゆるカラオケである。また、サウンド(sound)は、空気等の媒体の振動によって生じる聴覚の内容である。サウンドは、日本語では「音」あるいは「音声」などとも呼ばれる。本実施形態において、サウンドは、主に楽音である。本実施形態におけるサウンドは、楽器演奏による音や、人の歌唱による音や、コンピューター(シンセサイザー)を用いて合成された音を含んでよい。 Among the terms used in this embodiment, XML means an extensible markup language. MR is an abbreviation for Music Recorded. MR is so-called karaoke. Further, sound is the content of hearing generated by the vibration of a medium such as air. Sound is also called "sound" or "voice" in Japanese. In this embodiment, the sound is mainly a musical tone. The sound in the present embodiment may include a sound produced by playing a musical instrument, a sound produced by a person singing, or a sound synthesized by using a computer (synthesizer).
図1は、本実施形態によるシステムの概略機能構成を示すブロック図である。図示するように、このシステムは、サーバー装置1と、端末装置2とを、通信で接続して構成される。サーバー装置1は、「楽曲制作装置」とも呼ばれる。サーバー装置(楽曲制作装置)1は、端末インターフェース部10と、音源募集機能部21と、カラオケ提供部22と、楽譜提供部23と、音源取得部24と、選択部25と、ミキシング実行部26と、データベース30とを含んで構成される。これらの各機能部は、例えば、コンピューターと、プログラムとで実現することが可能である。また、各機能部は、必要に応じて、記憶手段を有する。記憶手段は、例えば、プログラム上の変数や、プログラムの実行によりアロケーションされるメモリーである。また、必要に応じて、磁気ハードディスク装置やソリッドステートドライブ(SSD)といった不揮発性の記憶手段を用いるようにしてもよい。また、各機能部の少なくとも一部の機能を、プログラムではなく専用の電子回路として実現してもよい。
FIG. 1 is a block diagram showing a schematic functional configuration of a system according to the present embodiment. As shown in the figure, this system is configured by connecting the server device 1 and the
端末インターフェース部10は、端末装置2に対するインターフェースの機能を持つ。具体的には、端末インターフェース部10は、端末装置2に対して各種データ(カラオケデータや楽譜データを含む)を送信したり、端末装置2から各種データ(音源データおよび関連するデータ)を受信したりする。
The
音源募集機能部21は、端末装置2に対し手、音源を募集する旨の情報を提示する。具体的には、音源募集機能部21は、端末装置2で表示するための募集情報を、端末装置2に対して送信する。
The sound source
カラオケ提供部22は、楽曲のパート(楽器やヴォーカル)ごとのカラオケデータを外部に提供する。カラオケ提供部22は、そのカラオケデータを、データベース30のカラオケ記憶部31から読み出して外部に提供する。具体的には、カラオケ提供部22は、カラオケデータを、端末装置2に送信する。上記の通り、パートとは、楽曲を構成するための楽器のパートまたは歌唱のパートである。
The
楽譜提供部23は、楽曲のパートごとの楽譜データを外部に提供する。具体的には、楽譜提供部23は、楽譜データを、データベース30の楽譜記憶部32から読み出す。また、楽譜提供部23は、楽譜データを、端末装置2に対して送信することができる。
The
音源取得部24は、前記カラオケデータに対応するパートごとの音源データを取得して、蓄積する。音源取得部24が取得する音源データは、前記楽譜データにも対応するものである。具体的には、音源取得部24は、音源データを端末装置2から受信する。また、音源取得部24は、取得した音源データを、データベース30の取得音源記憶部33に書き込む。また、音源取得部24は、端末装置から、その音源データの機械評価の結果を受信して、データベース30の管理情報記憶部35に書き込むことができる。
The sound
なお、音源取得部24は、パートごとの音源データを、パートごとに独立のタイミングで取得することができる。また、音源取得部24は、個々の端末装置2から、それぞれの端末装置2ごとに独立のタイミングで、音源データを取得することができる。つまり、端末装置2側のユーザーは、他の端末装置2のユーザーとの間で、音源データを作成するタイミングや、音源データを投稿するタイミングを、同期したり調節したりする必要がない。
The sound
選択部25は、楽曲ごと且つパートごとに、最終音源に取り込むための音源データを選択する。具体的には、選択部25は、音源データごとの評価の情報を収集し、データベース30内の管理情報記憶部35に書き込む。また、選択部25は、収集した評価の情報に基づき、総合評価のポイントを算出する。例えば、選択部25は、複数の評価項目の数値の加重和(または加重平均)を算出して、総合評価のポイントとする。このときの評価項目ごとの重み値は、予め設定しておく。あるいは、機械学習等の手法を用いて、重み値の集合を予め最適化しておいてもよい。選択部25は、算出した総合評価のポイントを、管理情報記憶部35に書き込む。
The
選択部25が選択するのは、ミキシング実行部26によって用いられる、パートごとの代表である代表音源データである。つまり、選択部25によって選択された音源データは、代表音源データと呼ばれる。選択部25は、楽曲のパートごとに、代表音源データを選択する。
The
選択部25が総合評価を算出する際の計算式の一例は、次の通りである。
計算式:
総合評価のポイント=100×
(W1×機械評価のポイント/機械評価の基準値
+W2×審査員評価のポイント/審査員評価の基準値
+W3×ユーザー評価のポイント/ユーザー評価の基準値
+W4×いいね数/いいね数の基準値
+W5×再生回数/再生回数の基準値
+W6×再生時間(秒数)/再生時間(秒数)の基準値)
An example of the calculation formula when the
a formula:
Comprehensive evaluation points = 100 ×
(W1 x machine evaluation point / machine evaluation standard value + W2 x judge evaluation point / judge evaluation standard value + W3 x user evaluation point / user evaluation standard value + W4 x number of likes / like number standard Value + W5 x number of playbacks / reference value for number of playbacks + W6 x reference value for playback time (number of seconds) / playback time (number of seconds))
上記の数式において、例えば、機械評価のポイントと、審査員評価のポイントと、ユーザー評価のポイントを、それぞれ、0以上且つ100以下の数値とする。
また、機械評価の基準値と、審査員評価の基準値と、ユーザー評価の基準値を、それぞれ、100とする。また、いいね数の基準値と、再生回数の基準とを、適宜定められる数値(例えば、1000)とする。また、再生時間(秒数)の基準値を、適宜定められる数値(例えば、72000[秒]など)とする。また、W1、W2、W3、W4、W5、W6はそれぞれ重み係数であり、例えば、W1+W2+W3+W4+W5+W6=1とする。
In the above formula, for example, the points of machine evaluation, the points of judge evaluation, and the points of user evaluation are set to numerical values of 0 or more and 100 or less, respectively.
Further, the reference value of the machine evaluation, the reference value of the judge evaluation, and the reference value of the user evaluation are set to 100, respectively. Further, the reference value of the number of likes and the reference value of the number of reproductions are set to appropriately determined numerical values (for example, 1000). Further, the reference value of the reproduction time (seconds) is set to an appropriately determined numerical value (for example, 72000 [seconds] or the like). Further, W1, W2, W3, W4, W5, and W6 are weight coefficients, respectively, and for example, W1 + W2 + W3 + W4 + W5 + W6 = 1.
なお、総合評価の算出方法は、ここに例示した方法に限られない。例えば、総合評価は、重み付け平均値ではなくてもよい。また、例えば、総合評価は、算術演算によって求められるものでなくてもよい。 The calculation method of the comprehensive evaluation is not limited to the method exemplified here. For example, the overall evaluation does not have to be a weighted average value. Further, for example, the comprehensive evaluation does not have to be obtained by arithmetic calculation.
つまり、選択部25は、
(1)音源データにおける音程および拍子と、正解の音程および拍子と、を比較することによって、音源データの正解を基準としたときの正確さを表す評価結果である機械評価、
(2)音源データに関して審査員の端末装置から受信した評価結果である審査員評価、
(3)音源データに関してユーザーの端末装置から受信した評価結果であるユーザー評価、
(4)音源データに関してユーザーの端末装置から送信された「いいね」の数を評価結果とした「いいね」数、
(5)音源データがユーザーの端末装置で再生された回数を評価結果とした再生回数、
(6)音源データがユーザーの端末装置で再生された時間の総計を評価結果とした再生時間、
の少なくともいずれかの評価結果に基づいて、パートを代表する代表音源データを選択する。
That is, the
(1) Machine evaluation, which is an evaluation result showing accuracy when the correct answer of the sound source data is used as a reference by comparing the pitch and time signature of the sound source data with the pitch and time signature of the correct answer.
(2) Judge's evaluation, which is the evaluation result received from the judge's terminal device regarding the sound source data.
(3) User evaluation, which is an evaluation result received from the user's terminal device regarding sound source data.
(4) The number of "likes", which is the evaluation result of the number of "likes" transmitted from the user's terminal device regarding the sound source data.
(5) The number of playbacks, which is the evaluation result of the number of times the sound source data has been played back on the user's terminal device.
(6) Playback time based on the total time that the sound source data was played back on the user's terminal device as the evaluation result.
The representative sound source data representing the part is selected based on the evaluation result of at least one of the above.
また、選択部25は、機械評価と、審査員評価と、ユーザー評価と、「いいね」数と、再生回数と、再生時間とのうちの、すくなくとも2つの評価に基づいて総合評価を算出してよい。選択部25は、算出された前記総合評価に基づいて、パートを代表する代表音源データを選択する。
In addition, the
音源データは、カラオケデータを提供した先の端末装置2のユーザーの演奏または歌唱を収録したサウンドのデータであってよい。選択部25は、端末装置2から取得した音源データのみの中から、各パートを代表する前記代表音源データを選択するようにしてもよい。
The sound source data may be sound data recording the performance or singing of the user of the
ミキシング実行部26は、楽曲を構成する複数のパートのそれぞれについて選択部25が選択した代表音源データをミキシングすることによって、複数のパートを含んだ音源データである最終音源データを作成する。なお、ミキシング実行部26は、作成した最終音源データを、インターネットを介して送信可能となるようにしてもよい。
The mixing
データベース30は、データを記憶し、管理する機能を持つ。データベース30は、例えば、リレーショナルデータモデルを採用したデータベース管理システム(DBMS)を用いて実現することができる。データベース30が保持するデータの構成については、別の図を参照しながら、後で説明する。
The
図1にも示すように、上記のデータベース30は、カラオケ記憶部31と、楽譜記憶部32と、取得音源記憶部33と、最終音源記憶部34と、管理情報記憶部35とを含んで構成される。
As shown in FIG. 1, the
カラオケ記憶部31は、カラオケのデータを記憶する。カラオケのデータは、特定の楽曲の、特定のパート用の、カラオケ演奏のサウンドデータである。つまり、カラオケのデータは、当該パート(楽器あるいはヴォーカル)以外の演奏の音を収録したデータである。サウンドデータは、例えば、WAV形式、MPEG形式等の形式で表現されるデータである。カラオケ記憶部31は、カラオケのデータを、曲IDおよびパートIDに関連付けて記憶する。なお、カラオケは、MR(music recorded,ミュージックレコーデッド)とも呼ばれる。
The
なお、1つの楽曲の各パート用のカラオケデータは、同期再生が可能なデータである。例えば、各パート用のカラオケデータのサンプリング周波数は、他のパートのサンプリング周波数と完全に一致している。また、各パート用のカラオケデータが、内部に同期信号を持っていてもよい。カラオケデータの演奏に基づいて収録される音源データも、同様に同期再生可能なものとしてよい。各パートの音源データも、内部に同期信号を持ってもよい。これにより、1つの楽曲の各パートの音源データ(端末装置2からサーバー装置1に送信されるデータ)は、他のパートと同期再生することが可能となる。したがって、ミキシング実行部26が複数のパートの音源データをミキシングする場合にも、パート間の同期を行うことが可能である。
The karaoke data for each part of one song is data that can be played back synchronously. For example, the sampling frequency of the karaoke data for each part completely matches the sampling frequency of the other parts. Further, the karaoke data for each part may have a synchronization signal inside. The sound source data recorded based on the performance of the karaoke data may be similarly playable in synchronization. The sound source data of each part may also have a synchronization signal internally. As a result, the sound source data (data transmitted from the
つまり、カラオケデータは、パート間の再生同期のための同期信号を含んでいる。音源データは、カラオケデータが含んでいた同期信号を引き継いで持つものであってもよい。ミキシング実行部26は、代表音源データが持つ同期信号に基づいてパート間の再生同期をとりながら複数の代表音源データをミキシングしてよい。
That is, the karaoke data includes a synchronization signal for playback synchronization between parts. The sound source data may take over the synchronization signal included in the karaoke data. The mixing
楽譜記憶部32は、楽譜のデータを記憶する。楽譜のデータは、特定の楽曲の、特定のパート用の、音階や、リズムや、休符や、その他の演奏のための情報を含むものである。典型的には楽譜は、五線譜で表現され得る情報あるいはそれと等価な情報を持つ。しかしながら、楽器等によっては、楽譜が五線譜以外で表わされるものであってもよい。楽譜記憶部32は、上記のような楽譜のデータを、曲IDおよびパートIDに関連付けて記憶する。
The
取得音源記憶部33は、サーバー装置1が端末装置2から取得した音源データを記憶するものである。音源データとは、カラオケデータや楽譜データに基づいて、端末装置2側で収録されたサウンドのデータである。音源データは、楽曲の各パートの演奏あるいは歌唱のサウンドを表す。音源データは、端末装置2のユーザー等が行った特定のパートの演奏あるいは歌唱を収録したものである。
The acquired sound
最終音源記憶部34は、選択部25が選択した代表の音源データをミキシング処理した結果である最終音源のデータを記憶する。選択部25によって選択された代表の音源データは、楽曲の各パートを代表する音源データである。
The final sound
管理情報記憶部35は、楽曲および音源データに関する管理情報を記憶する。管理情報記憶部35が記憶するデータは、楽曲の曲名に関するデータや、端末装置2から投稿された音源データごとの評価結果のデータを含む。
The management
図2は、端末装置2の概略機能構成を示すブロック図である。図示するように、端末装置2は、データ送受信部51と、提示部61と、サウンド記録部62と、評価部63と、表示部71と、サウンド出力部72と、サウンド入力部73とを含んで構成される。端末装置2が持つ各機能部もまた、例えば、コンピューターと、プログラムとを用いて実現することが可能である。また、各機能部は、必要に応じて、記憶手段を有する。記憶手段は、例えば、プログラム上の変数や、プログラムの実行によりアロケーションされるメモリーである。また、必要に応じて、磁気ハードディスク装置やソリッドステートドライブ(SSD)といった不揮発性の記憶手段を用いるようにしてもよい。また、各機能部の少なくとも一部の機能を、プログラムではなく専用の電子回路として実現してもよい。端末装置2は、例えば、PCや、タブレット端末や、スマートフォンや、腕時計型端末といった装置と、それらの装置上で稼働するプログラムとで実現され得る。端末装置2を構成する各機能部の機能は、次の通りである。
FIG. 2 is a block diagram showing a schematic functional configuration of the
データ送受信部51は、通信による外部装置とのデータの送受信を行う。具体的には、データ送受信部51は、サーバー装置1から送信されるデータを受信したり、サーバー装置に対してデータを送信したりする。データ送受信部51がサーバー装置1から受信するデータは、カラオケデータや楽譜データを含む。データ送受信部51がサーバー装置1に対して送信するデータは、楽曲の特定のパートの音源データや、音源データに関する評価データ(評価部63による評価結果)を含む。
The data transmission /
つまり、データ送受信部51は、カラオケデータと楽譜データとを受信するデータ受信部として機能する。また、データ送受信部51は、音源データおよび機械評価データ(評価部63による評価結果)を送信するデータ送信部としても機能する。
That is, the data transmission /
提示部61は、サーバー装置1から受信したカラオケデータや楽譜データをユーザーに提示する。提示部61は、カラオケデータに基づくサウンドを、サウンド出力部72に出力させる。また、提示部61は、楽譜データに基づく楽譜等を、表示部71に表示させる。提示部61が提示する情報に基づいて、端末装置2のユーザーは、歌唱や楽器の演奏等を行うことができる。つまり、提示部61は、カラオケデータをサウンドとして提示するとともに、楽譜データに基づく楽譜を視覚情報として画面に提示する。
The
サウンド記録部62は、サウンド入力部73から入力されるサウンドを記録する。サウンド記録部62は、サウンドを適切に符号化し、WAV形式やMPEG形式等のデータとして記録する。サウンド記録部62は、具体的には、楽曲の特定のパートの演奏ないしは歌唱のサウンドを、音源データとして記録する。つまり、サウンド記録部62は、提示部61によるカラオケデータの提示に合わせて外部から取得したサウンドを音源データとして記録する。
The
評価部63は、音源データ(端末装置2のユーザーによる楽器演奏や歌唱等を収録したデータ)の機械評価を行う。評価部63は、機械評価の結果のデータ(機械評価データとも呼ぶ)を出力する。機械評価の結果のデータは、例えば音源データを投稿する際などに、サーバー装置1側に渡されて、サーバー装置1側で保存され得る。具体的には、評価部63は、例えば、音程の正確さや、拍子の正確さに基づいて、音源データの機械評価を行う。評価部63は、例えば、楽譜データに基づく正解の音程および拍子等と、収録された音源データの音程および拍子等とを比較し、両者間の距離等に基づく評価を行う。両者の距離が近い程、評価部63はその音源データに高い評価(演奏や歌唱が上手であることを表す)を付与する。逆に両者の距離が遠い程、評価部63はその音源データに低い評価(演奏や歌唱が上手ではないことを表す)を付与する。その一例として、評価部63は、楽譜データ内の所定の評価箇所のタイミングにおいて、両者の音程や拍子等を比較する。
The
表示部71は、端末装置2が持つ表示デバイス(液晶表示器等)を用いて、視覚的に情報を表示する。表示部71は、例えば、楽譜データに基づく楽譜を表示する。
The
サウンド出力部72は、スピーカーやイヤフォン等からサウンドを出力する。サウンド出力部72は、例えば、カラオケデータに基づくカラオケサウンドを出力する。
The
サウンド入力部73は、外部からサウンドを取得するものである。サウンド入力部73は、マイクロフォンを含んで構成される。あるいは、サウンド入力部73は、外部のマイクロフォンに接続される。
The
次に、図3、図4、図5、図6、図7、図8、図9を参照しながら、データベース30が保持するデータの構成について説明する。
Next, the structure of the data held by the
図3は、データベース30内の管理情報記憶部35が持つ楽曲管理テーブルの構成の例を示す概略図である。図示するように、楽曲管理テーブルは、2次元の表形式のデータであり、曲IDと、曲名のデータ項目を持つ。楽曲管理テーブルのデータの意味は、次の通りである。
FIG. 3 is a schematic diagram showing an example of the configuration of the music management table included in the management
曲IDは、楽曲を一意に識別するための識別情報である。曲IDは、重複しない。曲IDは、楽曲管理テーブルの主キーである。 The song ID is identification information for uniquely identifying the song. The song IDs do not overlap. The song ID is the primary key of the song management table.
曲名は、楽曲のタイトルである。曲名は、重複してもよい。 The song title is the title of the song. The song titles may be duplicated.
図示するデータ例では、第1行目の曲IDは「T123456」であり、その曲名は「真夜中のディスタンス」である。他の行のデータについても、同様に、楽曲管理テーブルは、曲IDと曲名とを関連付けている。 In the illustrated data example, the song ID of the first line is "T123456", and the song name is "Midnight Distance". Similarly, for the data in the other rows, the music management table associates the music ID with the music title.
図4は、データベース30内のカラオケ記憶部31が持つカラオケテーブル(MRテーブル)の構成の例を示す概略図である。図示するように、カラオケテーブルは、2次元の表形式のデータであり、曲IDと、パートIDと、パートと、カラオケのデータ項目を持つ。カラオケテーブルのデータの意味は、次の通りである。
FIG. 4 is a schematic diagram showing an example of the configuration of a karaoke table (MR table) included in the
曲IDは、楽曲管理テーブルの説明において述べたとおりである。 The song ID is as described in the description of the song management table.
パートIDは、楽曲内におけるパートを一意に識別するための識別情報である。1つの楽曲に、通常、複数のパートが含まれる。1つのパートは、通常、1種類の楽器あるいはヴォーカルのためのものである。ある楽器あるいはヴォーカルに関する複数のパートが存在してもよい(例えば、リードギターと、サイドギターなど)。 The part ID is identification information for uniquely identifying a part in a musical piece. A piece of music usually contains a plurality of parts. One part is usually for one type of instrument or vocal. There may be multiple parts of an instrument or vocal (eg lead guitar and side guitar).
パートは、そのパートを言葉で示すデータである。パートの例は、「キーボード」、「ドラムス」、「パーカッション」、「ベース」、「ギター」、「サキソフォン」、「トランペット」、「ヴォーカル」等である。 A part is data that indicates the part in words. Examples of parts are "keyboard", "drums", "percussion", "bass", "guitar", "saxophone", "trumpet", "vocals" and the like.
カラオケのデータは、カラオケ演奏を収録したサウンドデータである。カラオケのデータは、各パート用に存在する。カラオケのデータは、通常、対象とするパートの演奏等を含まない演奏を収録したものである。カラオケのデータが、楽器等のカラオケ演奏以外に、対象とするパートの演奏を補助するための音(例えば、拍子を表す音)等を含んでいてもよい。 Karaoke data is sound data recording karaoke performances. Karaoke data exists for each part. The karaoke data is usually a recording of a performance that does not include the performance of the target part. In addition to the karaoke performance of a musical instrument or the like, the karaoke data may include a sound for assisting the performance of the target part (for example, a sound representing a time signature) or the like.
図示するデータ例では、第1行目のデータの、曲IDは「P123458」、パートIDは「P1001」、パートの名称は「ヴォーカル1」である。また、1行目のデータのカラオケの項目には、当該パート用のカラオケサウンドのデータが格納されている。他の行のデータも同様に、特定の楽曲の特定のパートについて、曲ID、パートID、パートに関連付けて、カラオケのデータが保持されている。 In the illustrated data example, the song ID is "P123458", the part ID is "P1001", and the part name is "vocal 1" in the data of the first line. Further, the karaoke sound data for the part is stored in the karaoke item of the data in the first line. Similarly, the data in the other rows holds the karaoke data in association with the song ID, the part ID, and the part for the specific part of the specific music.
図5は、データベース30内の楽譜記憶部32が持つ楽譜テーブルの構成の例を示す概略図である。図示するように、楽譜テーブルは、2次元の表形式のデータであり、曲IDと、パートIDと、パートと、楽譜のデータ項目を持つ。楽譜テーブルのデータの意味は、次の通りである。
FIG. 5 is a schematic diagram showing an example of the configuration of the score table included in the
曲IDと、パートIDと、パートの各データ項目は、カラオケテーブル(図4)に関して説明した通りである。 The song ID, the part ID, and each data item of the part are as described with respect to the karaoke table (FIG. 4).
楽譜のデータは、端末装置2の画面に楽譜等の情報を表示するためのデータである。楽譜のデータの形式は、適宜、設計され得る。一例として、XMLを用いて楽譜のデータを構成するようにしてもよい。楽譜は、画面上において、例えば五線譜を用いて表示される。ただし、五線譜以外の形式の楽譜を表示するようにしても良い。楽譜のデータは、音階の情報、リズムの情報、休符の情報や、その他の演奏等のための情報をふくむ。
The score data is data for displaying information such as a score on the screen of the
図示するデータ例では、第1行目のデータの、曲IDは「P123458」、パートIDは「P1001」、パートの名称は「ヴォーカル1」である。また、1行目のデータの楽譜の項目には、当該パート用の楽譜の情報を表すデータが格納されている。他の行のデータも同様に、特定の楽曲の特定のパートについて、曲ID、パートID、パートに関連付けて、楽譜のデータが保持されている。 In the illustrated data example, the song ID is "P123458", the part ID is "P1001", and the part name is "vocal 1" in the data of the first line. Further, in the item of the score of the data in the first line, data representing the information of the score for the part is stored. Similarly, the data in the other rows holds the data of the musical score in association with the song ID, the part ID, and the part for the specific part of the specific music.
図6は、データベース30内の取得音源記憶部33が持つ取得音源テーブルの構成の例を示す概略図である。図示するように、取得音源テーブルは、2次元の表形式のデータであり、曲IDと、パートIDと、ユーザーIDと、取得日時と、音源IDと、取得音源のデータ項目を持つ。取得音源テーブルのデータの意味は、次の通りである。
FIG. 6 is a schematic diagram showing an example of the configuration of the acquired sound source table included in the acquired sound
曲IDおよびパートIDについては、既に説明した通りである。 The song ID and part ID are as described above.
ユーザーIDは、その音源データを投稿したユーザーのIDである。ユーザーIDは、端末装置2を使用する多数のユーザーのそれぞれを一意に識別するための識別情報である。ユーザーが異なれば、ユーザーIDも異なる。
The user ID is the ID of the user who posted the sound source data. The user ID is identification information for uniquely identifying each of a large number of users who use the
取得日時は、サーバー装置1がその音源データを取得した日時である。取得日時は、ユーザーがその音源データを投稿した日時と同一であってよい。取得日時は、例えば、「YYYY/MM/DD hh:mm:ss」(年月日、時分秒)の形式で表わされる。 The acquisition date and time is the date and time when the server device 1 acquired the sound source data. The acquisition date and time may be the same as the date and time when the user posted the sound source data. The acquisition date and time is expressed in the format of, for example, "YYYY / MM / DD hh: mm: ss" (year / month / day, hour / minute / second).
音源IDは、音源データを一意に識別するための識別情報である。ユーザーが音源データを投稿したときに、その音源データに対して音源IDが割り振られる。 The sound source ID is identification information for uniquely identifying the sound source data. When the user posts the sound source data, the sound source ID is assigned to the sound source data.
取得音源は、ユーザーが投降した音源データそのものである。取得音源の項目には、例えばMPEG形式やWAV形式などの形式で符号化されたサウンドのデータが格納される。 The acquired sound source is the sound source data itself surrendered by the user. In the item of the acquired sound source, sound data encoded in a format such as an MPEG format or a WAV format is stored.
図示するデータ例では、第1行目のデータの、曲IDは「T123458」、パートIDは「P1001」、ユーザーIDは「U980001」、取得日時は「2020/06/25 16:01:38」、割り振られた音源IDは「D112901」である。また、第1行目のデータの取得音源の欄には、これらの曲ID、パートID、ユーザーID、取得日時、音源IDに関連付けられた音源データが格納されている。この音源データは、例えばWAV形式やMPEG形式などといった形式のデータである。他の行のデータも、特定の楽曲の特定のパートに関して、ユーザーが投稿した音源データ、およびそれに関連するデータを保持している。 In the illustrated data example, the song ID is "T123458", the part ID is "P1001", the user ID is "U980001", and the acquisition date and time is "2020/06/25 16:01:38" in the data of the first line. , The assigned sound source ID is "D112901". Further, in the column of the acquired sound source of the data in the first line, the sound source data associated with these song IDs, part IDs, user IDs, acquisition dates and times, and sound source IDs are stored. This sound source data is data in a format such as a WAV format or an MPEG format. The data in the other rows also holds the sound source data posted by the user and the related data with respect to a specific part of a specific music.
図7は、データベース30内の管理情報記憶部35が持つ音源評価テーブルの構成の例を示す概略図である。図示するように、音源評価テーブルは、2次元の表形式のデータであり、音源IDと、機械評価と、審査員評価と、ユーザー評価と、いいね数と、再生回数と、再生時間と、総合評価のデータ項目を持つ。音源評価テーブルのデータの意味は、次の通りである。
FIG. 7 is a schematic diagram showing an example of the configuration of the sound source evaluation table included in the management
音源IDは、既に説明した通りである。音源評価テーブルは、音源IDによって、他のテーブルと関連付けられる。音源評価テーブルは、ユーザーが投稿した各音源の評価についてのデータを保持する。 The sound source ID is as described above. The sound source evaluation table is associated with other tables by the sound source ID. The sound source evaluation table holds data about the evaluation of each sound source posted by the user.
機械評価と、審査員評価と、ユーザー評価と、いいね数と、再生回数と、再生時間と、総合評価の項目は、それぞれ、評価項目ごとのデータを格納する領域である。機械評価は、機械(コンピューターとプログラム)による評価を表す。機械評価は、具体的には、端末装置2の評価部63が出力した評価データを格納するものであってよい。なお、機械評価は、端末装置2の評価部63の代わりに、サーバー装置1内で算出した機械評価の結果を格納するものであってもよい。審査員評価は、審査員が自身の端末装置等からサーバー装置1に送信した評価結果のデータを格納するものである。ユーザー評価は、審査員ではなく、一般のユーザーが端末装置2からサーバー装置1に送信した評価結果のデータを格納するものである。いいね数(FAV数)の項目は、一般のユーザーたちが、例えば端末装置2でその音源データを再生したときなどに、「いいね」ボタンを押した回数の合計を表すデータを格納する。再生回数の項目は、一般のユーザーたちが、例えば端末装置2で、その音源データを再生した回数の合計を表すデータを格納する。再生時間の項目は、一般のユーザーたちが、例えば端末装置2でその音源データを再生したときの、再生時間(例えば、秒数等で表わされる)の総和を表すデータを格納する。総合評価の項目には、例えば選択部25が、他の評価項目(機械評価や、審査員評価や、ユーザー評価や、いいね数や、再生回数や、再生時間など)のデータを基に算出した総合評価のポイントのデータを格納する。
Machine evaluation, judge evaluation, user evaluation, number of likes, number of playbacks, playback time, and comprehensive evaluation items are areas for storing data for each evaluation item, respectively. Machine evaluation represents evaluation by a machine (computer and program). Specifically, the machine evaluation may store the evaluation data output by the
なお、機械評価や、審査員評価や、ユーザー評価や、いいね数や、再生回数や、再生時間や、総合評価のデータは、例えば、数値のデータであってよい。機械評価や、審査員評価や、ユーザー評価や、いいね数や、再生回数や、再生時間や、総合評価のデータは、サーバー装置1が受信したデータあるいは信号や、それらを統計的に処理した結果のデータであってよい。 The data of the machine evaluation, the judge evaluation, the user evaluation, the number of likes, the number of reproductions, the reproduction time, and the comprehensive evaluation may be, for example, numerical data. The machine evaluation, the judge evaluation, the user evaluation, the number of likes, the number of playbacks, the playback time, and the comprehensive evaluation data are the data or signals received by the server device 1 and statistically processed them. It may be the resulting data.
図示するデータ例では、第1行目のデータの音源IDは「D112901」である。第1行目のデータは、この「D112901」の音源データの評価情報を持つものである。図示するように第1行目のデータにおいて、機械評価は70、審査員評価は73、ユーザー評価は81、いいね数は808、再生回数は1123、再生時間の総計は20:04:34(20時間04分34秒)である。また、第1行目のデータに関して選択部25が算出した総合評価の値は、69.66である。他の行についても、同様に、音源データごとの評価情報が保持されている。
In the illustrated data example, the sound source ID of the data in the first row is "D112901". The data in the first row has evaluation information of the sound source data of this "D112901". As shown in the figure, in the data in the first row, the machine evaluation is 70, the judge evaluation is 73, the user evaluation is 81, the number of likes is 808, the number of playbacks is 1123, and the total playback time is 20:04:34 ( 20 hours 04
図8は、データベース30内の管理情報記憶部35が持つ選択音源テーブルの構成の例を示す概略図である。図示するように、選択音源テーブルは、2次元の表形式のデータであり、曲IDと、パートIDと、ユーザーIDと、音源IDのデータ項目を持つ。選択音源テーブルのデータの意味は、次の通りである。選択音源テーブルは、サーバー装置1が募集することによって集められた音源データの中から、選択部25が選択した音源データについての情報を保持するものである。
FIG. 8 is a schematic diagram showing an example of the configuration of the selected sound source table included in the management
曲IDとパートIDとは、既に説明した通りである。曲IDとパートIDとを複合することにより、特定の楽曲の特定のパートが表される。 The song ID and the part ID are as described above. By combining the song ID and the part ID, a specific part of a specific song is represented.
音源IDは、曲IDとパートIDとの組合せに関連付けられるものである。選択音源テーブルにおける音源IDは、特定の楽曲の特定のパートの音源データの中から、選択部25が選択した音源データを特定する情報である。この選択音源テーブルにおける音源IDは、取得音源テーブル(図6)における音源IDや、音源評価テーブル(図7)における音源IDと関連付けられ得るものである。
The sound source ID is associated with the combination of the song ID and the part ID. The sound source ID in the selected sound source table is information for specifying the sound source data selected by the
ユーザーIDは、その音源データを投稿したユーザーを一意に識別するための識別情報である。 The user ID is identification information for uniquely identifying the user who posted the sound source data.
図示するデータ例では、第1行目から第4行目までのデータの曲IDはいずれも「T123458」である。また、第1行目のデータに関して、パートIDは「P1001」、ユーザーIDは「U980123」、音源IDは「D112923」である。他の行のデータも同様に、曲IDとパートIDとユーザーIDと音源IDとの関連の情報を保持している。 In the illustrated data example, the song IDs of the data from the first row to the fourth row are all "T123458". Further, regarding the data in the first row, the part ID is "P1001", the user ID is "U980123", and the sound source ID is "D112923". Similarly, the data in the other rows holds information related to the song ID, the part ID, the user ID, and the sound source ID.
図9は、データベース30内の最終音源記憶部34が持つ最終音源テーブルの構成の例を示す概略図である。図示するように、最終音源テーブルは、2次元の表形式のデータであり、曲IDと、制作日時と、最終音源のデータ項目を持つ。最終音源テーブルのデータの意味は、次の通りである。
FIG. 9 is a schematic diagram showing an example of the configuration of the final sound source table of the final sound
曲IDは、既に説明したように、楽曲を一意に識別するための識別情報である。 The song ID is identification information for uniquely identifying the song, as described above.
制作日時は、そdの楽曲に関する最終音源が制作された日時を表すものである。制作日時は、例えば、「YYYY/MM/DD hh:mm:ss」(年月日、時分秒)の形式で表わされる。 The production date and time represents the date and time when the final sound source related to the music of the d was produced. The production date and time is expressed in the format of, for example, "YYYY / MM / DD hh: mm: ss" (year, month, day, hour, minute, second).
最終音源は、その楽曲に関して制作された音源のデータを格納する項目である。最終音源のデータは、例えばWAV形式やMPEG形式などの所定の符号化方式によってあらわされるものである。最終音源のデータは、ミキシング実行部26が、複数の音源データをミキシングして作成するものである。つまり、ミキシング実行部26が、目的とする楽曲について、選択音源テーブル(図8)に記録されている各パートの音源IDに基づいて特定される音源データをミキシング処理することにより、この最終音源のデータが作成される。
The final sound source is an item for storing the data of the sound source produced for the music. The data of the final sound source is represented by a predetermined coding method such as WAV format or MPEG format. The data of the final sound source is created by the mixing
図示するデータ例では、第1行目のデータの、曲IDは「T123456」、制作日時は「2020/06/21 19:00:00」(2020年06月21日 19時00分00秒)である。また、最終音源の項目は、その曲の最終音源のデータが格納されている。最終音源のデータは、例えば、WAV形式あるいはMPEG形式等のデータである。 In the illustrated data example, the song ID of the data in the first line is "T123456", and the production date and time is "2020/06/21 19:00:00" (June 21, 2020 19:00:00). Is. Further, in the item of the final sound source, the data of the final sound source of the song is stored. The data of the final sound source is, for example, data in WAV format or MPEG format.
図10は、サーバー装置1が最終音源を制作するまでの処理の手順を示すフローチャートである。以下、このフローチャートに沿って説明する。 FIG. 10 is a flowchart showing a processing procedure until the server device 1 produces a final sound source. Hereinafter, it will be described according to this flowchart.
ステップS11において、サーバー装置1は、特定の楽曲についての楽譜のデータおよびカラオケのデータを準備する。具体的には、管理者の操作等により、音源募集機能部21は、その楽曲のカラオケのデータを、データベース30内のカラオケ記憶部31に書き込む。また、音源募集機能部21は、その楽曲の楽譜のデータを、データベース30内の楽譜記憶部32に書き込む。
In step S11, the server device 1 prepares musical score data and karaoke data for a specific musical piece. Specifically, the sound source
ステップS12において、音源募集機能部21は、音源の募集を開始する。具体的には、音源募集機能部21は、予めスケジュールされた日時が到来するのを待つ。その日時が到来すると、音源募集機能部21は、音源募集の情報を掲載したウェブページを送信可能な状態とする。そのウェブページには、楽曲の曲目や、募集するパートや、音源の締切日時などの情報が掲載される。そのウェブページから、パートごとのカラオケデータおよび楽譜データをダウンロードすることが可能なように設定される。そのウェブページが公開されると、端末装置2は、そのウェブページを参照して、カラオケデータおよび楽譜データをダウンロードすることが可能になる。実際には、カラオケ提供部22が、データベース30内のカラオケ記憶部31から読み出したカラオケデータを、端末装置2に送信することができる。また、楽譜提供部23が、データベース30内の楽譜記憶部32から読み出した楽譜データを、端末装置2に送信することができる。
In step S12, the sound source
端末装置2は、サーバー装置1から取得した、特定の楽曲の特定のパート用の、カラオケデータおよび楽譜データを、ユーザーに対して提示する。端末装置2は、その楽曲のそのパートのサウンドを収録し、音源データを作成する。具体的には、端末装置2のユーザーは、カラオケデータの演奏に合わせて、また楽譜データを見ながら、楽器を演奏し、あるいはヴォーカルとして楽曲の歌を歌い、端末装置2に接続されたマイクロフォン等を用いてそのサウンドを録音する。端末装置2は、作成したその音源データを、サーバー装置1に送信する。サーバー装置1側の音源取得部24は、端末装置2から送られた音源を取得し、データベース30内の取得音源記憶部33に書き込む。なお、音源取得部24は、取得した音源を、曲ID、パートID、ユーザーID、取得日時と関連付ける形で、上記の取得音源のデータを、取得音源記憶部33に書き込む。また、音源取得部24は、音源データに固有のID(音源ID)を付与し、その音源IDを、取得音源記憶部33に書き込む。
The
端末装置2の評価部63は、収録された音源データの評価を行う。評価部63は、個々の音源データに対応付けて、機械評価の結果を算出する。機械評価のポイントは、例えば、数値で表わされる。端末装置2は、上記の音源データに関連付けて、機械評価のポイントのデータを、サーバー装置1に対して送信する。サーバー装置1側の音源取得部24は、この機械評価のポイントのデータを受信する。音源取得部24は、当該音源データの音源IDと関連付ける形で、上記の機械評価のポイント(数値)を、管理情報記憶部35内に書き込む。
The
ステップS13において、音源募集機能部21は、音源の募集を終了する。具体的には、音源募集機能部21は、予めスケジュールされた日時が到来するのを待つ。その日時が到来すると、音源募集機能部21は、音源募集の情報を掲載したウェブページに、締切日時が過ぎたことを表す情報を掲載する。これにより、端末装置2は、当該募集に対する応募の音源データを送信することができなくなる。また、サーバー装置1側の音源取得部24は、当該募集に関する音源データの取得を停止する。
In step S13, the sound source
音源募集終了後に、選択部25は、サーバー装置1が上記募集に関連して取得した音源データの評価を開始する。選択部25は、審査員による評価ポイントを、例えば審査員の端末装置等から受け取り、管理情報記憶部35内の審査員評価の欄に書き込む。また、選択部25は、一般ユーザーによる評価ポイントを、例えば一般のユーザーの端末装置等から受け取り、管理情報記憶部35内のユーザー評価の欄に書き込む。また、選択部25は、一般ユーザーらが付けた「いいね」の数をカウントし、その「いいね数」を、管理情報記憶部35内の「いいね数」の欄に書き込む。例えば、一般ユーザーの端末装置等から「いいね」を付与する情報がサーバー装置1に届く都度、選択部25は、管理情報記憶部35内の「いいね数」の値をカウントアップする。また、選択部25は、それぞれの音源データが再生された回数をカウントする。具体的には、例えば一般ユーザーの端末装置等から特定の音源データを再生したことを表す情報がサーバー装置1に届く都度、選択部25は、管理情報記憶部35内の再生回数の値をカウントアップする。また、選択部25は、それぞれの音源データが再生されたトータルの時間を計測する。具体的には、例えば一般ユーザーの端末装置等から特定の音源データを再生したことを表す情報がサーバー装置1に届いた場合に、選択部25は、各再生における再生時間の長さの情報を端末装置2から取得する。選択部25は、管理情報記憶部35内の再生時間の値に、今回の再生時間を加算して更新する。このようにして、音源データを評価するための情報が、データベース30内に蓄積されていく。
After the sound source recruitment is completed, the
選択部25は、評価を締め切る前にも、その時点での最新のデータに基づいて、総合評価のポイントの途中経過を算出してもよい。また、選択部25は、評価を締め切る前にも、適宜、音源データのランキング情報を作成して、端末装置2側に送信するようにしてもよい。また、選択部25は人気ユーザーが作成した音源データの情報を、端末装置2側に送信するようにしてもよい。
Even before the evaluation is closed, the
上記のランキング情報は、例えば、楽曲別の、あるいは楽曲別且つパート別の、評価項目ごとのポイント、あるいは総合評価のポイントに基づくランキングである。なお、評価項目ごとのポイントとは、機械評価、審査員評価、ユーザー評価、いいね数、再生回数、再生時間といった項目ごとのポイントの数値である。選択部25が生成したこれらのランキングの情報を、サーバー装置1から端末装置2に送ることにより、端末装置2の画面には、ランキング情報が表示される。また、選択部25は、「人気ユーザー」に属するユーザーIDの情報を予め持っておく。また、「人気ユーザー」に属するユーザーIDの情報は、適宜更新するようにしてよい。選択部25は、音源データに関連付けられたユーザーIDの情報に基づいて、そのような人気ユーザーによる音源データを紹介するための画面の情報を作成する。選択部25が作成した、人気ユーザーによる音源データを紹介する情報を、サーバー装置1から端末装置2に送ることにより、端末装置2の画面には、人気ユーザーによる音源データの投稿を紹介する情報が表示される。端末装置2のユーザーは、そのようなランキング情報や、人気ユーザーの音源データの情報を見て、特定の音源データを再生することができる。端末装置2は、こういった特定の音源データが再生されたときに、「いいね」の情報や、その音源データの評価情報(端末装置2のユーザーによる評価)や、再生回数をカウントするための情報や、再生時間を加算するための情報を、サーバー装置1に送信できる。
The above ranking information is, for example, a ranking based on points for each evaluation item or points for comprehensive evaluation for each song, or for each song and part. The points for each evaluation item are numerical values of points for each item such as machine evaluation, judge evaluation, user evaluation, number of likes, number of plays, and play time. By sending the ranking information generated by the
ステップS14において、選択部25は、特定の楽曲についての評価を締め切る。具体的には、選択部25は、予めスケジュールされた日時が到来するのを待つ。その日時が到来すると、選択部25は、新たな評価を締め切る。これにより、評価のためのデータは、少なくとも一旦は凍結される。つまり、データベース30の管理情報記憶部35内の、機械評価、審査員評価、ユーザー評価、いいね数、再生回数、再生時間といったデータは、少なくとも一旦は更新されなくなる。選択部25は、これらのデータが更新されなくなるように、データベース30を制御する。
In step S14, the
ステップS15において、選択部25は、特定の楽曲についての音源データの総合評価を実施する。具体的には、選択部25は、音源データごとに、機械評価、審査員評価、ユーザー評価、いいね数、再生回数、再生時間といった評価項目ごとのポイントの数値に基づいて、総合評価のポイントを算出する。選択部25は、これら複数の評価項目のポイント数値の加重和(または加重平均)を算出して、総合評価のポイントとする。このときの評価項目ごとの重み値については、既に説明した通りである。選択部25は、制作対象とする楽曲の、パートごとに、総合評価のポイントのランキング情報を作成する。選択部25は、その楽曲の、パートごとの、総合評価の上位の音源データを、選択して採用する。例えば、選択部25は、パートごとの総合評価の最上位の音源データを、選択してよい。あるいは、選択部25は、パートごとの総合評価の最上位以外の音源データを、選択してもよい。
In step S15, the
ステップS16において、ミキシング実行部26は、制作対象としている楽曲の、各パートの音源データのミキシング処理を行う。前述の通り、音源データは、パート間で同期可能であるように構成されている。ミキシング実行部26は、各パートの音源データを再生するとともに、パート間の同期を取りながらミキシング処理を行っていく。このとき、ミキシング実行部26は、複数のパートの音源データを、ミキシングして、1つのチャンネルの音源データ(最終音源データ)になるようにしてもよい。また、ミキシング実行部26は、各パートの音源データが音像空間内の所定の位置に配置されるようにしながら、2チャンネル、5.1チャンネル、あるいは22.2チャンネルなどといったマルチチャンネルの音源データ(最終音源データ)になるようにしてもよい。また、ミキシング実行部26は、各パートの音源データがそれぞれ独立のチャンネルのデータになるように、マルチチャンネルの音源データ(最終音源データ)を作成してもよい。なお、複数の音源データをミキシングする処理自体は、既存技術により実行可能である。
In step S16, the mixing
上記のようにして、ミキシング実行部26は、ミキシング処理により、最終音源データを作成し、データベース30の最終音源記憶部34に書き込む。最終音源データは、選択部25によって選択された音源データを基に作成されたものである。言い換えれば、最終音源データは、評価値(総合評価値)の高い音源データをミキシングして作成されたものである。
As described above, the mixing
ステップS17において、ミキシング実行部26は、最終音源の配信を開始する。具体的には、ミキシング実行部26は、予めスケジュールされた日時が到来するのを待つ。その日時が到来すると、ミキシング実行部26は、最終音源データを送信可能な状態にする。これにより、端末装置2は、例えば所定の最終音源データを聴取するためのウェブページからのリンクに基づいて、最終音源データをダウンロードし、あるいは最終音源データをストリーム配信によって受信し、再生することができる。このように、端末装置2のユーザーは、評価の高い演奏(ヴォーカルを含む)による最終音源を、楽しむことが可能となる。
In step S17, the mixing
なお、上記の処理手順では、1つの楽曲についての最終音源データの生成までの手順を説明した。しかしながら、サーバー装置1が、複数の楽曲について、音源データの募集や、音源データの選択や、ミキシング処理や、最終音源データの提供等を同時に並行して進めてもよい。 In the above processing procedure, the procedure up to the generation of the final sound source data for one musical piece has been described. However, the server device 1 may simultaneously proceed with solicitation of sound source data, selection of sound source data, mixing processing, provision of final sound source data, and the like for a plurality of songs.
図11は、本実施形態のサーバー装置1や端末装置2などの各装置の内部構成の例を示すブロック図である。各装置は、コンピューターを用いて実現され得る。図示するように、そのコンピューターは、中央処理装置901と、RAM902と、入出力ポート903と、入出力デバイス904や905等と、バス906と、を含んで構成される。コンピューター自体は、既存技術を用いて実現可能である。中央処理装置901は、RAM902等から読み込んだプログラムに含まれる命令を実行する。中央処理装置901は、各命令にしたがって、RAM902にデータを書き込んだり、RAM902からデータを読み出したり、算術演算や論理演算を行ったりする。RAM902は、データやプログラムを記憶する。RAM902に含まれる各要素は、アドレスを持ち、アドレスを用いてアクセスされ得るものである。なお、RAMは、「ランダムアクセスメモリー」の略である。入出力ポート903は、中央処理装置901が外部の入出力デバイス等とデータのやり取りを行うためのポートである。入出力デバイス904や905は、入出力デバイスである。入出力デバイス904や905は、入出力ポート903を介して中央処理装置901との間でデータをやりとりする。バス906は、コンピューター内部で使用される共通の通信路である。例えば、中央処理装置901は、バス906を介してRAM902のデータを読んだり書いたりする。また、例えば、中央処理装置901は、バス906を介して入出力ポートにアクセスする。
FIG. 11 is a block diagram showing an example of the internal configuration of each device such as the server device 1 and the
なお、上述した実施形態におけるサーバー装置1や端末装置2の少なくとも一部の機能をコンピューターのプログラムで実現することができる。その場合、この機能を実現するためのプログラムをコンピューター読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピューターシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピューターシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM、DVD-ROM、USBメモリー等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、一時的に、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
It should be noted that at least a part of the functions of the server device 1 and the
以上、実施形態を説明したが、本発明はさらに次のような変形例でも実施することが可能である。 Although the embodiments have been described above, the present invention can be further implemented in the following modifications.
第1変形例:上記の実施形態では、音源データの機械評価を、端末装置2内の評価部63が起こっていた。変形例として、音源データの機械評価を、サーバー装置1内で行うようにしても良い。この場合、端末装置2から送信される音源データを、音源取得部24が受信してデータベース30の取得音源記憶部33に記憶させる。サーバー装置1内の評価部は、取得音源記憶部33に書き込まれている音源データの機械評価を行う。そして、評価部は、機械評価の結果のデータを、管理情報記憶部35の音源評価テーブル(図7)に書き込む。
First modification: In the above embodiment, the
第2変形例:上記の実施形態では、サーバー装置1は、楽器あるいはヴォーカルのパートごとに音源データを募集した。また端末装置2は、楽器あるいはヴォーカルのパートごとの音源データを投稿した。つまり、1つのパートは、1種類の楽器あるいはヴォーカルに対応していた。本変形例では、1つのパートが、複数種類の楽器の演奏を含むものであってもよい。また、1つのパートが、楽器の演奏と、ヴォーカルの歌唱との、両方を含んでいてもよい。
Second variant example: In the above embodiment, the server device 1 solicits sound source data for each musical instrument or vocal part. Further, the
第3変形例:上記の実施形態では、サーバー装置1の音源取得部24は、パートごとの複数の音源データを、相互に独立のタイミングで取得していた。本変形例では、音源取得部24は、特定の楽曲について、あるいは特定のパートについて、複数の端末装置2から一斉に音源データを取得する。
Third modification: In the above embodiment, the sound
第4変形例:上記の実施形態では、サーバー装置1の選択部25は、端末装置2から取得した音源データのみの中から、パートを代表する代表音源データを選択していた。本変形例では、選択部25は、楽曲内の少なくとも1つのパートについて、端末装置2から投稿された音源データの中からだけではなく、サーバー装置1側で予め準備しておいた音源データ(投稿された音源データではなく、予め準備されたプロの演奏の音源データを、代表音源データとして選択してもよい。また、サーバー装置1は、楽曲内の少なくとも1つのパートについて、端末装置2のユーザーから音源データを募集せず、予め準備しておいた音源データ(例えば、プロの演奏の音源データ)を、代表音源データとして選択してもよい。
Fourth Modification Example: In the above embodiment, the
第5変形例:カラオケデータや音源データが、パート間の再生同期のための情報を特に含んでいなくてもよい。カラオケデータや音源データは、所定のサンプリング周波数でサンプリングして収録されており、再生する状況においてそのサンプリング周波数を再現できていれば、パート間で、十分に小さい誤差で同期することも可能である。 Fifth modification: The karaoke data and the sound source data do not have to include information for playback synchronization between parts. Karaoke data and sound source data are sampled and recorded at a predetermined sampling frequency, and if the sampling frequency can be reproduced in the playback situation, it is possible to synchronize the parts with a sufficiently small error. ..
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and includes designs and the like within a range that does not deviate from the gist of the present invention.
本発明は、例えば、多数のユーザーがインターネット等の通信ネットワークを介して音楽の演奏を楽しむためのシステムに利用することができる。但し、本発明の利用範囲はここに例示したものには限られない。 The present invention can be used, for example, in a system for a large number of users to enjoy playing music via a communication network such as the Internet. However, the scope of use of the present invention is not limited to those exemplified here.
1 サーバー装置(楽曲制作装置)
2 端末装置
10 端末インターフェース部
21 音源募集機能部
22 カラオケ提供部
23 楽譜提供部
24 音源取得部
25 選択部
26 ミキシング実行部
30 データベース
31 カラオケ記憶部
32 楽譜記憶部
33 取得音源記憶部
34 最終音源記憶部
35 管理情報記憶部
51 データ送受信部(データ受信部、データ送信部)
61 提示部
62 サウンド記録部
63 評価部
71 表示部
72 サウンド出力部
73 サウンド入力部
901 中央処理装置
902 RAM
903 入出力ポート
904,905 入出力デバイス
906 バス
1 Server device (music production device)
2
61
903 I / O ports 904,905 I /
音源募集機能部21は、端末装置2に対して、音源を募集する旨の情報を提示する。具体的には、音源募集機能部21は、端末装置2で表示するための募集情報を、端末装置2に対して送信する。
The sound source
取得音源は、ユーザーが投稿した音源データそのものである。取得音源の項目には、例えばMPEG形式やWAV形式などの形式で符号化されたサウンドのデータが格納される。 The acquired sound source is the sound source data itself posted by the user. In the item of the acquired sound source, sound data encoded in a format such as an MPEG format or a WAV format is stored.
制作日時は、その楽曲に関する最終音源が制作された日時を表すものである。制作日時は、例えば、「YYYY/MM/DD hh:mm:ss」(年月日、時分秒)の形式で表わされる。 The production date and time represents the date and time when the final sound source related to the music was produced. The production date and time is expressed in the format of, for example, "YYYY / MM / DD hh: mm: ss" (year, month, day, hour, minute, second).
Claims (13)
前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得部と、
前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択部と、
前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行部と、
を具備する楽曲制作装置。 The karaoke provider that provides karaoke data for each part of the song to the outside,
A sound source acquisition unit that acquires and stores sound source data for each part corresponding to the karaoke data, and
A selection unit that selects representative sound source data representing the part from the sound source data acquired by the sound source acquisition unit, and a selection unit.
A mixing execution unit that creates final sound source data that is sound source data including the plurality of parts by mixing the representative sound source data selected by the selection unit for each of the plurality of parts constituting the music.
A music production device equipped with.
請求項1に記載の楽曲制作装置。 The part is a musical instrument part or a singing part for composing the music.
The music production device according to claim 1.
請求項1または2に記載の楽曲制作装置。 The sound source acquisition unit acquires the sound source data for each part at independent timings for each part.
The music production device according to claim 1 or 2.
をさらに備え、
前記音源取得部は、前記楽譜データにも対応する前記パートごとの前記音源データを取得する、
請求項1から3までのいずれか一項に記載の楽曲制作装置。 A score providing unit that provides score data for each part of the music to the outside.
Further prepare
The sound source acquisition unit acquires the sound source data for each part corresponding to the score data.
The music production device according to any one of claims 1 to 3.
前記音源データにおける音程および拍子と、正解の音程および拍子と、を比較することによって、前記音源データの前記正解を基準としたときの正確さを表す評価結果である機械評価と、
前記音源データに関して審査員の端末装置から受信した評価結果である審査員評価と、
前記音源データに関してユーザーの端末装置から受信した評価結果であるユーザー評価と、
前記音源データに関してユーザーの端末装置から送信された「いいね」の数を評価結果とした「いいね」数と、
前記音源データがユーザーの端末装置で再生された回数を評価結果とした再生回数と、
前記音源データがユーザーの端末装置で再生された時間の総計を評価結果とした再生時間と、
の少なくともいずれかの評価結果に基づいて、前記パートを代表する前記代表音源データを選択する、
請求項1から4までのいずれか一項に記載の楽曲制作装置。 The selection unit is
Machine evaluation, which is an evaluation result showing the accuracy of the sound source data when the correct answer is used as a reference, by comparing the pitch and time signature of the sound source data with the pitch and time signature of the correct answer.
The judge's evaluation, which is the evaluation result received from the judge's terminal device regarding the sound source data,
The user evaluation, which is the evaluation result received from the user's terminal device with respect to the sound source data,
The number of "likes" based on the number of "likes" transmitted from the user's terminal device regarding the sound source data, and the number of "likes"
The number of times the sound source data has been played back on the user's terminal device as the evaluation result, and the number of times the sound source data has been played back.
The playback time based on the total time that the sound source data was played back on the user's terminal device as the evaluation result, and
The representative sound source data representing the part is selected based on the evaluation result of at least one of the above.
The music production device according to any one of claims 1 to 4.
請求項5に記載の楽曲制作装置。 The selection unit is comprehensive based on at least two evaluations of the machine evaluation, the judge evaluation, the user evaluation, the number of "likes", the number of reproductions, and the reproduction time. The evaluation is calculated, and the representative sound source data representing the part is selected based on the calculated comprehensive evaluation.
The music production device according to claim 5.
前記選択部は、前記端末装置から取得した前記音源データのみの中から、前記パートを代表する前記代表音源データを選択する、
請求項1から6までのいずれか一項に記載の楽曲制作装置。 The sound source data is sound data recording the performance or singing of the user of the terminal device to which the karaoke data is provided.
The selection unit selects the representative sound source data representing the part from only the sound source data acquired from the terminal device.
The music production device according to any one of claims 1 to 6.
前記音源データは、前記カラオケデータが含んでいた前記同期信号を引き継いで持つものであり、
前記ミキシング実行部は、前記代表音源データが持つ前記同期信号に基づいて前記パート間の再生同期をとりながら複数の前記代表音源データをミキシングする、
請求項1から7までのいずれか一項に記載の楽曲制作装置。 The karaoke data includes a synchronization signal for playback synchronization between parts.
The sound source data inherits and has the synchronization signal included in the karaoke data.
The mixing execution unit mixes a plurality of the representative sound source data while maintaining reproduction synchronization between the parts based on the synchronization signal of the representative sound source data.
The music production device according to any one of claims 1 to 7.
請求項1から8までのいずれか一項に記載の楽曲制作装置。 The mixing execution unit makes it possible to transmit the created final sound source data via the Internet.
The music production device according to any one of claims 1 to 8.
音源取得部が、前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得過程と、
選択部が、前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択過程と、
ミキシング実行部が、前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行過程と、
を含む楽曲制作方法。 The karaoke provision process in which the karaoke provision department provides karaoke data for each part of the music to the outside,
The sound source acquisition process in which the sound source acquisition unit acquires and accumulates the sound source data for each part corresponding to the karaoke data, and
A selection process in which the selection unit selects representative sound source data representing the part from the sound source data acquired by the sound source acquisition unit.
The mixing execution unit mixes the representative sound source data selected by the selection unit for each of the plurality of parts constituting the music, thereby creating the final sound source data which is the sound source data including the plurality of parts. Execution process and
Music production method including.
前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得部と、
前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択部と、
前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行部と、
を具備する楽曲制作装置、としてコンピューターを機能させるプログラム。 The karaoke provider that provides karaoke data for each part of the song to the outside,
A sound source acquisition unit that acquires and stores sound source data for each part corresponding to the karaoke data, and
A selection unit that selects representative sound source data representing the part from the sound source data acquired by the sound source acquisition unit, and a selection unit.
A mixing execution unit that creates final sound source data that is sound source data including the plurality of parts by mixing the representative sound source data selected by the selection unit for each of the plurality of parts constituting the music.
A program that makes a computer function as a music production device equipped with.
前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得部と、
前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択部と、
前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行部と、
を具備する楽曲制作装置、としてコンピューターを機能させるプログラムを記録した、コンピューター読み取り可能な記録媒体。 The karaoke provider that provides karaoke data for each part of the song to the outside,
A sound source acquisition unit that acquires and stores sound source data for each part corresponding to the karaoke data, and
A selection unit that selects representative sound source data representing the part from the sound source data acquired by the sound source acquisition unit, and a selection unit.
A mixing execution unit that creates final sound source data that is sound source data including the plurality of parts by mixing the representative sound source data selected by the selection unit for each of the plurality of parts constituting the music.
A computer-readable recording medium that records a program that makes the computer function as a music production device.
前記カラオケデータをサウンドとして提示するとともに、前記楽譜データに基づく楽譜を視覚情報として画面に提示する提示部と、
前記提示部による前記カラオケデータの提示に合わせて外部から取得したサウンドを音源データとして記録するサウンド記録部と、
前記音源データを評価して機械評価データを出力する評価部と、
前記音源データおよび前記機械評価データを送信するデータ送信部と、
を具備する端末装置。 A data receiver that receives karaoke data and score data,
A presentation unit that presents the karaoke data as sound and presents a score based on the score data as visual information on the screen.
A sound recording unit that records sound acquired from the outside as sound source data in accordance with the presentation of the karaoke data by the presentation unit, and a sound recording unit.
An evaluation unit that evaluates the sound source data and outputs machine evaluation data,
A data transmission unit that transmits the sound source data and the machine evaluation data,
A terminal device comprising.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020112781A JP7026412B1 (en) | 2020-06-30 | 2020-06-30 | Music production equipment, terminal equipment, music production methods, programs, and recording media |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020112781A JP7026412B1 (en) | 2020-06-30 | 2020-06-30 | Music production equipment, terminal equipment, music production methods, programs, and recording media |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP7026412B1 JP7026412B1 (en) | 2022-02-28 |
| JP2022036359A true JP2022036359A (en) | 2022-03-08 |
Family
ID=80493530
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020112781A Expired - Fee Related JP7026412B1 (en) | 2020-06-30 | 2020-06-30 | Music production equipment, terminal equipment, music production methods, programs, and recording media |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7026412B1 (en) |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002297136A (en) * | 2001-03-30 | 2002-10-11 | Casio Comput Co Ltd | Music composition device, music distribution system and program |
| JP2003280669A (en) * | 2002-03-25 | 2003-10-02 | Xing Inc | Method and device for providing music work |
| JP2010003372A (en) * | 2008-06-20 | 2010-01-07 | Pioneer Electronic Corp | Content reproducing apparatus, information distributing server, content reproducing method, information distributing method, content reproducing program, information distributing program, and computer readable recording medium |
| JP2012018282A (en) * | 2010-07-07 | 2012-01-26 | Cellius Inc | Musical performance file management device, musical performance file reproduction device, and musical performance file reproduction method |
| JP2013135310A (en) * | 2011-12-26 | 2013-07-08 | Sony Corp | Information processor, information processing method, program, recording medium, and information processing system |
| JP2014048470A (en) * | 2012-08-31 | 2014-03-17 | Brother Ind Ltd | Music reproduction device, music reproduction system, and music reproduction method |
| JP2014153516A (en) * | 2013-02-07 | 2014-08-25 | Pioneer Electronic Corp | Determination device |
| KR20170050235A (en) * | 2015-10-30 | 2017-05-11 | 에스케이플래닛 주식회사 | User equipment, service providing device, access point, system for providing sound source information comprising the same, control method thereof and computer readable medium having computer program recorded thereon |
| CN109147807A (en) * | 2018-06-05 | 2019-01-04 | 安克创新科技股份有限公司 | A sound range balance method, device and system based on deep learning |
-
2020
- 2020-06-30 JP JP2020112781A patent/JP7026412B1/en not_active Expired - Fee Related
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002297136A (en) * | 2001-03-30 | 2002-10-11 | Casio Comput Co Ltd | Music composition device, music distribution system and program |
| JP2003280669A (en) * | 2002-03-25 | 2003-10-02 | Xing Inc | Method and device for providing music work |
| JP2010003372A (en) * | 2008-06-20 | 2010-01-07 | Pioneer Electronic Corp | Content reproducing apparatus, information distributing server, content reproducing method, information distributing method, content reproducing program, information distributing program, and computer readable recording medium |
| JP2012018282A (en) * | 2010-07-07 | 2012-01-26 | Cellius Inc | Musical performance file management device, musical performance file reproduction device, and musical performance file reproduction method |
| JP2013135310A (en) * | 2011-12-26 | 2013-07-08 | Sony Corp | Information processor, information processing method, program, recording medium, and information processing system |
| JP2014048470A (en) * | 2012-08-31 | 2014-03-17 | Brother Ind Ltd | Music reproduction device, music reproduction system, and music reproduction method |
| JP2014153516A (en) * | 2013-02-07 | 2014-08-25 | Pioneer Electronic Corp | Determination device |
| KR20170050235A (en) * | 2015-10-30 | 2017-05-11 | 에스케이플래닛 주식회사 | User equipment, service providing device, access point, system for providing sound source information comprising the same, control method thereof and computer readable medium having computer program recorded thereon |
| CN109147807A (en) * | 2018-06-05 | 2019-01-04 | 安克创新科技股份有限公司 | A sound range balance method, device and system based on deep learning |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7026412B1 (en) | 2022-02-28 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12217621B2 (en) | Facilitating a social network of a group of performers | |
| US11282486B2 (en) | Real-time integration and review of musical performances streamed from remote locations | |
| US8138409B2 (en) | Interactive music training and entertainment system | |
| US7772480B2 (en) | Interactive music training and entertainment system and multimedia role playing game platform | |
| US20100095829A1 (en) | Rehearsal mix delivery | |
| US20240212655A1 (en) | System, method, and non-transitory computer-readable storage medium for collaborating on a musical composition over a communication network | |
| CN102037486A (en) | System for learning and mixing music | |
| US20100082768A1 (en) | Providing components for multimedia presentations | |
| US20020144587A1 (en) | Virtual music system | |
| US20150003812A1 (en) | Method for collaborative creation of shareable secondary digital media programs | |
| US20020144588A1 (en) | Multimedia data file | |
| Owusu-Poku | Ghanaian highlife sound recordings of the 1970s: the legacy of Francis Kwakye and the Ghana Film Studio | |
| Clauhs et al. | The DAW revolution | |
| Bates | Mixing for parlak and bowing for a büyük ses: the aesthetics of arranged traditional music in Turkey | |
| Pejrolo | Creative Sequencing Techniques for Music Production: A Practical Guide to Logic, Digital Performer, Cubase and Pro Tools | |
| JP2012018282A (en) | Musical performance file management device, musical performance file reproduction device, and musical performance file reproduction method | |
| JP2007193273A (en) | Karaoke system with performance guide function | |
| JP5622679B2 (en) | Karaoke equipment | |
| JP7026412B1 (en) | Music production equipment, terminal equipment, music production methods, programs, and recording media | |
| JP2018155936A (en) | Sound data edition method | |
| JP2023113579A (en) | Method for separating and resynthesizing sound source data, and sound source providing system for karaoke accompaniment | |
| Müller et al. | Computational methods for melody and voice processing in music recordings (Dagstuhl seminar 19052) | |
| Friedlander | China's" newer value" pop: Rock-and-roll and technology on the new long march | |
| JP4173291B2 (en) | Karaoke device that can play a singing instruction program | |
| JP7632589B2 (en) | Content data processing method and content data processing device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200630 |
|
| A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200630 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200717 |
|
| A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200728 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200806 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200811 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201008 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201201 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210301 |
|
| C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210301 |
|
| A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210309 |
|
| C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210316 |
|
| A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20210528 |
|
| C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20210601 |
|
| C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20211109 |
|
| C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20211214 |
|
| C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20220118 |
|
| C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20220118 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220207 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7026412 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| LAPS | Cancellation because of no payment of annual fees |