[go: up one dir, main page]

JP2004347959A - Music reproducing device, distribution server, control method of music reproducing device, control program and recording medium - Google Patents

Music reproducing device, distribution server, control method of music reproducing device, control program and recording medium Download PDF

Info

Publication number
JP2004347959A
JP2004347959A JP2003146266A JP2003146266A JP2004347959A JP 2004347959 A JP2004347959 A JP 2004347959A JP 2003146266 A JP2003146266 A JP 2003146266A JP 2003146266 A JP2003146266 A JP 2003146266A JP 2004347959 A JP2004347959 A JP 2004347959A
Authority
JP
Japan
Prior art keywords
music
audio data
audio
data
distribution server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003146266A
Other languages
Japanese (ja)
Inventor
Yoshihisa Takeda
能久 武田
Naoya Koga
直哉 古賀
Akira Inoue
明 井上
Kazuyoshi Sukai
和義 須貝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2003146266A priority Critical patent/JP2004347959A/en
Publication of JP2004347959A publication Critical patent/JP2004347959A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a music reproducing device which provides full of interest, a distribution server which distributes voice data to the music reproducing device, a control method of the music reproducing device, a control program of the music reproducing device and a recording medium. <P>SOLUTION: The music reproducing device which reproduces music is provided with a storage section 130 which stores a plurality of voice data corresponding to voice being dramatized in a disc jockey manner. Under the control of a control section 110, voice being dramatized in the disc jockey manner is outputted based on any one of the voice data among the plurality of voice data with the timing matched with the reproducing of a music. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は、楽曲を再生する楽曲再生装置、楽曲再生装置に音声用データを配信する配信サーバ、楽曲再生装置の制御方法、楽曲再生装置の制御プログラム及び記録媒体に関する。
【0002】
【従来の技術】
一般に、楽曲を再生する楽曲再生装置が知られている(例えば、特許文献1参照)。この種の楽曲再生装置では、楽曲データが記憶される記録媒体を備えるのが一般的である。そして、使用者が記憶された楽曲データの中から聴きたい楽曲の楽曲データを選択することで、楽曲データが再生されるようになっている楽曲再生装置が知られている。
【0003】
【特許文献1】
特開平11−306740号公報
【0004】
【発明が解決しようとする課題】
ところで、上記楽曲再生装置は、ただひたすら楽曲を再生するものであり、使用者にとって面白みがなく、すぐに飽きられてしまう等、興趣性に欠けるものであった。
【0005】
本発明は上述した事情に鑑みてなされたものであり、興趣性の向上を図る楽曲再生装置、楽曲再生装置に音声用データを配信する配信サーバ、楽曲再生装置の制御方法、楽曲再生装置の制御プログラム及び記録媒体を提供することを目的とする。
【0006】
【課題を解決するための手段】
請求項1に記載の発明は、楽曲を再生する楽曲再生装置において、ディスクジョッキ風に脚色された音声に対応する音声用データを複数記憶する記憶手段と、楽曲の再生に合わせたタイミングで、前記複数の音声用データのうちいずれかの音声用データに基づいてディスクジョッキ風に脚色された音声を出力する音声出力手段とを備えたことを特徴とするものである。
【0007】
請求項2に記載の発明は、請求項1に記載の発明において、前記記憶手段は、前記音声用データを、楽曲と対応付けて記憶し、前記音声出力手段は、楽曲の再生に合わせたタイミングで、再生する楽曲に対応付けられた前記音声用データに基づいて音声を出力することを特徴とするものである。
【0008】
請求項3に記載の発明は、請求項1に記載の発明において、前記音声出力手段は、前記複数の音声用データの中からランダムに選択した音声用データに基づいて音声を出力することを特徴とするものである。
【0009】
請求項4に記載の発明は、請求項2に記載の発明において、楽曲に関する文書情報を取得する取得手段を備え、前記音声出力手段は、取得した文書情報の中から、楽曲に対応した音声用情報を抽出し、この抽出された音声用情報に基づいて音声用データを生成することを特徴とするものである。
【0010】
請求項5に記載の発明は、請求項1乃至3のいずれか一項に記載の発明において、前記音声用データが、配信サーバにより配信されることを特徴とするものである。
【0011】
請求項6に記載の発明は、請求項1乃至3のいずれか一項に記載の発明において、前記音声用データとして、配信サーバにより配信された最新の音声用データを用いることを特徴とするものである。
【0012】
請求項7に記載の発明は、請求項1乃至6のいずれか一項に記載の発明において、前記音声出力手段は、前記音声用データに基づいて音声合成し、音声出力することを特徴とするものである。
【0013】
請求項8に記載の発明は、配信サーバにおいて、楽曲に関する文書情報を取得する取得手段を備え、取得した文書情報の中から、楽曲に対応した音声用情報を抽出し、この抽出された音声用情報に基づいて音声用データを生成し、配信することを特徴とするものである。
【0014】
請求項9に記載の発明は、請求項8に記載の発明において、前記音声用データを、楽曲と対応付けて配信することを特徴とするものである。
【0015】
請求項10に記載の発明は、楽曲を再生する楽曲再生装置の制御方法において、ディスクジョッキ風に脚色された音声に対応する音声用データを複数記憶する第1過程と、楽曲の再生に合わせたタイミングで、前記複数の音声用データのうちいずれかの音声用データに基づいてディスクジョッキ風に脚色された音声を出力する第2過程とを備えたことを特徴とするものである。
【0016】
請求項11に記載の発明は、楽曲を再生する楽曲再生装置をコンピュータにより制御するための制御プログラムにおいて、ディスクジョッキ風に脚色された音声に対応する音声用データを複数記憶させ、楽曲の再生に合わせたタイミングで、前記複数の音声用データのうちいずれかの音声用データに基づいてディスクジョッキ風に脚色された音声を出力させることを特徴とするものである。
【0017】
請求項12に記載の発明は、記録媒体が請求項11に記載の制御プログラムを記録したことを特徴とするものである。
【0018】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態を詳述する。以下に示す実施形態は、本発明の一態様を示すものであり、この発明を限定するものではなく、本発明の範囲内で任意に変更可能である。
【0019】
図1は、本実施形態に係る楽曲再生装置を含む通信システムの概要構成を示す図である。また、図2は、本実施形態に係る配信サーバの概要構成を示す図である。
【0020】
図1において、通信システム1は、楽曲データや音声用データを配信する配信サーバ10と、複数の楽曲再生装置100とから構成される。なお、同図には、配信サーバ10と楽曲再生装置100とを、各々1台ずつ例示しているが、その台数は任意である。ここで、楽曲データは、例えば、MP3(MPEG Audio Layer−3)方式、WMA(Windows(登録商標) Media Audio)方式等により圧縮符号化されたデータやPCM(Pulse Code Modulation)方式等、符号化されたデータである。また、音声用データは、テキストデータである。
【0021】
楽曲再生装置100は、自動車などの車両に設置され、使用者(例えば、運転者)の指示に応じて配信サーバ10から楽曲データや音声用データを取得し、この取得した楽曲データや音声用データを再生する。
【0022】
この楽曲再生装置100は、制御部110と、通信装置120と、記憶部130とを備えている。制御部110は、CPU、ROM、RAMなどを備え、楽曲再生装置100の各部を制御する。
【0023】
通信装置120は、ネットワーク4に接続された各種端末装置とデータ通信するものである。より具体的には、通信装置120は、例えば携帯電話機あるいは無線LAN通信装置(Local Area Network)などの移動通信装置に相当し、無線通信網3を介して当該無線通信網3あるいはインターネット2に接続された各種端末とデータ通信する。本実施形態では、この通信装置120は、特に配信サーバ10とデータ通信することで、この配信サーバ10から楽曲データや音声用データを受信する。
【0024】
記憶部130は、HDD(Hard Disk Drive)などの主記憶装置を備え、制御部110が実行する各種制御プログラム、楽曲データ、音声用データ、対話用のテキストデータ、地図データ及び各種テーブルなどが記憶される。記憶部130には、図3に示すように、楽曲の曲名データと、音声用データとを対応付けた音声用データテーブル200が記憶されている。例えば、「赤とんぼ」を示す曲名データには、「私が小学4年生の時…」のディスクジョッキ風に脚色された音声に対応する音声用データが対応付けられている。また、記憶部130には、曲名データと楽曲データとを対応付けた楽曲データテーブル(不図示)が記憶されている。
【0025】
ここで、ディスクジョッキ風に脚色された音声とは、ディスクジョッキが楽曲の再生前、楽曲の再生中、或いは楽曲の再生後に視聴者等に話すような内容や話し方(口調や方言等)、ディスクジョッキが発声するような音色の音声のことである。つまり、ディスクジョッキ風に脚色された音声は、曲紹介に関する音声、ラジオ番組等の司会者が話すような内容や話し方の音声、ラジオ番組等の司会者が発声するような音色の音声、楽曲を流す娯楽施設等で実際のディスクジョッキが話すような内容や話し方の音声、このディスクジョッキが発声するような音色の音声である。
【0026】
楽曲再生部140は、制御部110の制御の下、記憶部130に記憶された楽曲データを再生し、アナログ音声信号をミキサ141に出力する。
【0027】
アンプ142は、ミキサ141からのアナログ音声信号を増幅してスピーカ143に出力する。スピーカ143は、アンプ142から入力されたアナログ音声信号に応じて放音する。
【0028】
マイク150は、収音装置であり、本実施形態では、使用者が発した音声を収音し、アナログ音声信号をアンプ151に出力する。アンプ151は、入力されたアナログ音声信号を増幅してA/D変換器152に出力する。
【0029】
A/D変換器152は、入力されたアナログ音声信号をデジタル音声信号に変換し、VR153に出力する。
【0030】
VR(Voice Recognition:音声認識部)153は、入力されたデジタル音声信号に基づいて音声認識処理を実行し、その認識結果を制御部110に出力する。
【0031】
また、操作部154は、各種の指示する押下式ボタンなどの各種操作子を備え、これら操作子の操作を制御部110に通知する。
【0032】
TTS(Text To Speech:音声変換部)160は、制御部110の制御の下、記憶部130に記憶されたテキストデータに基づいて音声合成処理を実行し、そのテキストデータのテキストを読み上げるデジタル音声信号を生成する。このTTS160は、男声又は女声などの複数種類の声色でデジタル音声信号を生成する機能を具備し、使用者が予め設定した声色でデジタル音声信号を生成する。
【0033】
D/A変換器161は、入力されたデジタル音声信号をアナログ音声信号に変換し、ミキサ141を介してアンプ142に出力する。これにより、この楽曲再生装置100は、スピーカ143から楽曲又は音声を出力する。
【0034】
環境情報取得部170は、この車両の運転時の環境に関する情報(以下、環境情報という。)を取得し、制御部110に出力する。この環境情報取得部170は、車両周辺の天気及び車両の走行状況に関する情報を取得するセンサ部171と、現在時刻を計時する時刻計時部172と、車両の位置情報を取得するGPS(Global Positioning System)部173とを有している。
【0035】
より具体的には、センサ部171は、車両の天気に関するものとして、照度、湿度、ワイパー動作速度を検出する複数のセンサを備え、また、車両の走行状況に関するものとして、車速パルスを検出するセンサを備えている。また、時刻計時部172は、リアルタイムクロックが適用され、GPS部173は、図示を省略したGPSアンテナを介してGPS衛星からの電波を受信して車両の現在位置を算出する。本実施形態では、制御部110が、センサ部171の出力に基づいて、車両周辺の天気が、晴れ、曇り、雨、雪のいずれかに該当するかを検出すると共に、車両の走行状況が渋滞か否かを検出する。また、制御部110は、時刻計時部172が計時した時刻に基づいて、現在の時間帯が、朝、昼、夜のいずれに該当するかを検出する。さらに、制御部110は、GPS部173が算出した位置情報に基づいて記憶部130に記憶された地図データを参照し、車両の場所が、市街地、田舎、山、川、海のいずれに該当するかを検出する。なお、本実施形態で用いる地図データは、市街地、田舎、山、川、海の位置を示す情報を含んでおり、制御部110が、位置情報で示される位置が、いずれの位置及びその近辺に属するかを判別することで、車両の場所を特定する。
【0036】
配信サーバ10は、一般的なコンピュータシステムから構成され、楽曲データをネットワーク4を介して楽曲再生装置100に配信するものである。この配信サーバ10は、複数の楽曲データ、及び複数の楽曲データに対応する複数の音声用データを蓄積(記憶)するデータベース11を備え、インターネット2及び無線通信網3を経由して楽曲データや音声用データを楽曲再生装置100に配信する。図2中、配信サーバ10における制御部12は、CPUなどから構成され、配信サーバ10の各部を制御する。
【0037】
通信部13は、インターネット2に接続されており、制御部12の制御の下、インターネット2に接続される端末から楽曲に関する文書情報を取得できるようになっている。また、通信部13は、制御部12の制御の下、インターネット2及び無線通信網3(図1)を経由して楽曲データや音声用データを楽曲再生装置100(図1)に配信する。
【0038】
ここで、文書情報とは、曲紹介記事のテキストデータ、新聞記事のテキストデータ、歌手等の記事のテキストデータ、楽曲データを記録した記録媒体(例えば、CD)や楽曲データそのものの売り上げ順位の記事のテキストデータである。
【0039】
プログラム記憶部14は、HDDなどの主記憶装置を備え、制御部12が実行する各種制御プログラムが記憶される。各種制御プログラムには、制御部12を、インターネット2上の各種端末から通信部13を介して文書情報(テキストデータ)を取得するように機能させる第1制御プログラムや、制御部12を、取得した文書情報の中から楽曲に対応した音声用情報を抽出し、この抽出された音声用情報に基づいて音声用データを生成するように機能させる第2制御プログラムが含まれる。
【0040】
つまり、第1制御プログラムは、制御部12を、インターネット2に接続された各種端末やサーバに格納されている文書情報の内、操作者によって入力されたキーワードを含む文書情報を取得するように機能する検索エンジンである。また、第2制御プログラムは、制御部12を、取得した文書情報にテキストマイニング処理を施すように機能させる要約エンジンである。
【0041】
テキストマイニング処理とは、取得した文書情報(テキストデータ)を対象として、文書情報に含まれる音声用情報(単語データや語句データ)を取得して要約文を生成する処理である。
【0042】
本実施形態では、楽曲再生装置100は、楽曲の再生に合わせたタイミングで、複数の音声用データのうちいずれかの音声用データに基づいてディスクジョッキ風に脚色された音声を出力する。
【0043】
より具体的には、楽曲再生装置100は、楽曲の再生前、つまり、楽曲の再生に先立って、複数の音声用データのうちいずれかの音声用データに基づいてディスクジョッキ風に脚色された音声を出力する。
【0044】
以下、楽曲再生装置100の制御動作について図4に示すフローチャートを参照しながら説明する。
【0045】
まず、制御部110は、操作部154が操作されたか否かを判断する(ステップS1)。つまり、制御部110は、操作部154における楽曲再生を示す押下式ボタンが押下されたか否かを判断している。この操作部154が操作されていない場合(ステップS1;No)、制御部110は、操作部154が操作されるのを待ち受ける。
【0046】
操作部154が操作された場合(ステップS1;Yes)、楽曲再生装置100は、操作者との対話によって再生する楽曲を決定する。具体的に説明すると、まず、制御部110の制御の下、記憶部130から読み出された対話用のテキストデータにおける曲選択を促すテキストデータが、TTS160で音声合成され、D/A変換器161でアナログ音声信号に変換され、ミキサ141及びアンプ142を介し音声としてスピーカ143から出力される(ステップS2)。つまり、楽曲再生装置100は、音声で曲選択を催促する。
【0047】
次に、制御部110は、マイク150を介して音声信号が入力されたか否かを判断する(ステップS3)。マイク150を介して音声信号が入力されていない場合(ステップS3;No)、制御部110は、マイク150を介して音声信号が入力されるのを待ち受ける。
【0048】
マイク150を介して音声信号が入力された場合(ステップS3;Yes)、音声信号が、アンプ151、A/D変換器152を通じ、VR153にて音声認識される。そして、制御部110は、その音声認識結果(つまり曲名を示すデータ)と一致する曲名データを、記憶部130に記憶されている楽曲データテーブル(不図示)から検索する(ステップS4)。
【0049】
そして、制御部110は、この検索の結果、音声認識結果と一致する曲名データがあったか否かを判断する(ステップS5)。
【0050】
音声認識結果と一致する曲名データがあった場合(ステップS5;Yes)、制御部110は、曲名データに対応する楽曲データを再生する楽曲データに設定する。
【0051】
そして、制御部110は、話題に関する複数のモードのうち、どのモードが使用者により選択されたかを判断する(ステップS6)。
【0052】
話題に関する複数のモードとしては、「曲紹介」のモードと「曲紹介以外」のモードとが設定されている。「曲紹介以外」のモードとしては、「家族で聞きたい話」のモードや「元気の出る話」のモード等が設定されている。
【0053】
各モードには、それぞれ異なる複数の音声用データが対応している。具体的に説明すると、「曲紹介」のモードには、音声用データテーブル200(図3)における楽曲に対応した音声用データが対応している。また、「家族で聞きたい話」のモードには、このモードに合致するような内容の複数の音声用データが対応している。更に、「元気の出る話」のモードには、このモードに合致するような内容の複数の音声用データが対応している。つまり、記憶部130には、各モード別に複数の音声用データが記憶されている。
【0054】
このモードの選択は、使用者と楽曲再生装置100との対話により行われる。具体的に説明すると、制御部110は、モードの選択を促す音声を出力するために、記憶部130から対話用のテキストデータにおけるモードの選択を促すためのテキストデータを読み出し、TTS160に送る。これによって、TTS160、D/A変換器161、ミキサ141及びアンプ142が動作し、スピーカ143により音声が出力される。ついで、制御部110は、音声信号の入力を待ち受け、音声信号の入力があった場合、音声信号が、アンプ151、A/D変換器152を通じ、VR153にて音声認識される。そして、制御部110は、その音声認識結果と一致するモードに設定する。
【0055】
次に、制御部110は、使用者によって選択されたモードに対応する複数の音声用データのうち、いずれかの音声用データに基づいてディスクジョッキ風に脚色された音声を出力するために、記憶部130から音声用データを読み出し、TTS160に送る。これによって、TTS160、D/A変換器161、ミキサ141及びアンプ142が動作し、スピーカ143により音声が出力される(ステップS7)。次いで、制御部110は、楽曲を再生するように、記憶部130から楽曲データを読み出し、楽曲再生部140に送る。これによって、楽曲再生部140、ミキサ141及びアンプ142が動作し、スピーカ143により楽曲が出力される(ステップS8)。
【0056】
ステップS5において、音声認識結果と一致する曲名データがなかった場合(ステップS5;No)、制御部110は、一致しなかったことを音声出力するために、記憶部130から対話用のテキストデータにおける一致しないことを通知するためのテキストデータを読み出し、TTS160に送る。これによって、TTS160、D/A変換器161、ミキサ141及びアンプ142が動作し、スピーカ143により音声が出力される(ステップS9)。
【0057】
そして、制御部110は、通信装置120を介して配信サーバ10に、音声認識結果(曲名データ)に対応する楽曲データがデータベース11にあるか確認する。この確認の結果、音声認識結果に対応する楽曲データがデータベース11にある場合、楽曲再生装置100は、配信サーバ10に楽曲データを要求し、この要求を受信した配信サーバ10は、データベース11から対応する楽曲データを読み出して楽曲再生装置100に配信する。楽曲再生装置100の制御部110は、配信サーバ10から楽曲データを取得するように通信装置120を制御し、取得した楽曲データを、記憶部130に記憶するように制御する(ステップS10)。
【0058】
つまり、楽曲再生装置100は、使用者の選曲に関する入力に対して該当する楽曲データが記憶部130に格納されていなかった場合、配信サーバ10から選曲した楽曲データをダウンロードするようにしている。
【0059】
例えば、「A」の楽曲を聴きたいと使用者が音声入力したが、記憶部130に「A」に該当する楽曲がない場合、楽曲再生装置100は、配信サーバ10へ問い合わせし、ダウンロードできるか否かを確認し、ダウンロードする。
【0060】
これによって、楽曲再生装置100の記憶部130に選曲した楽曲データが自動的に記憶されるので、操作者のニーズに合った再生動作が可能となる。
【0061】
なお、楽曲データの配信の要求は、使用者が操作部154を操作したときに行われるようにしてもよい。
【0062】
次に、ステップS7におけるモード別の再生処理動作について詳細に説明する。
【0063】
図5は、「曲紹介」のモードが選択された場合の再生処理動作を示すフローチャートである。
【0064】
制御部110の制御の下、再生する楽曲(つまり、音声入力された曲名)に対応付けられた音声用データに基づいて音声が出力される(ステップS11)。より詳細に説明すると、制御部110は、ステップS4における音声認識結果(つまり曲名を示すデータ)と一致する曲名データを、記憶部130に記憶されている音声用データテーブル200(図3)から検索する。次いで、制御部110は、音声認識結果と一致する曲名データに対応する音声用データを記憶部130から読み出し、TTS160に送る。これによって、TTS160、D/A変換器161、ミキサ141及びアンプ142が動作し、スピーカ143により音声が出力される。
【0065】
例えば、図3を参照して説明すると、「さくら」の曲名を使用者が音声入力した場合、この「さくら」の曲名データに対応する「お父さんと、…」の音声用データが楽曲再生装置100によって読み上げられることになる。
【0066】
これによって、あたかもディスクジョッキが発話しているかのように楽曲に合った音声が出力されるので、面白みが増し、興趣性が向上する。
【0067】
図6は、「曲紹介以外」のモード、例えば、「家族で聞きたい話」のモードや「元気の出る話」のモード等が選択された場合の再生処理動作を示すフローチャートである。
【0068】
制御部110は、使用者によって選択されたモードに対応する複数の音声用データの中からランダムに音声用データを選択する(ステップS21)。これによって、「家族で聞きたい話」のモードが選択されている場合は、このモードに対応する複数の音声用データの中からランダムに音声用データが選択され、「元気の出る話」のモードが選択されている場合は、このモードに対応する複数の音声用データの中からランダムに音声用データが選択されることとなる。
【0069】
次に、制御部110の制御の下、選択した音声用データに基づいて音声が出力される(ステップS22)。より詳細に説明すると、制御部110は、選択した音声用データを記憶部130から読み出し、TTS160に送る。これによって、TTS160、D/A変換器161、ミキサ141及びアンプ142が動作し、スピーカ143により音声が出力される。
【0070】
これによって、使用者の希望に即した内容の音声があたかもディスクジョッキが発話しているかのように出力されるので、面白みが増し、興趣性が向上する。
【0071】
以上、複数のモードのうち、いずれか1つのモードを選択するようにしている。そして、複数のモードのうち、少なくとも1つのモード(「曲紹介」のモード)は、再生する楽曲に対応付けられた音声用データに基づいて音声を出力するモードであり、残りのモード(「曲紹介以外」のモード)は、当該モードに対応する複数の音声用データの中からランダムに音声用データを選択し、この選択した音声用データに基づいて音声を出力するモードである。
【0072】
さて、配信サーバ10は、楽曲再生装置100に音声用データを配信するようになっている。図7の通信のシーケンス図を参照しながら楽曲再生装置100及び配信サーバ10の通信動作について具体的に説明する。ここで、「曲紹介」のモードに対応する音声用データテーブルを更新する場合について説明する。
【0073】
まず、配信サーバ10において、新たにデータベース11の音声用データテーブルが更新されたものとする(ステップS31)。ここで、この音声用データテーブルは、図3に示したように、曲名データと音声用データとを対応付けたものである。
【0074】
そして、配信サーバ10は、最新の音声用データテーブルを配信すべく、音声用データテーブルのバージョン情報とともに更新を促す通知を楽曲再生装置100に送信する(ステップS32)。
【0075】
この通知を受信した楽曲再生装置100は、受信した音声用データのバージョン情報と、記憶部130に記憶されている音声用データテーブル200(図3)のバージョン情報とを比較し、古いバージョンの音声用データテーブル200が記憶部130に記憶されている場合は、配信サーバ10に対して、更新を要求する(ステップS33)。
【0076】
この要求を受けた配信サーバ10は、最新の音声用データテーブルを配信する(ステップS34)。
【0077】
そして、最新の音声用データテーブルを取得した楽曲再生装置100は、制御部110の制御の下、記憶部130の音声用データテーブル200を更新する。
【0078】
ここで、「曲紹介」のモードに対応する音声用データテーブルを更新する場合について説明したが、これに限らず、「曲紹介以外」のモードに対応する音声用データを更新する場合に適用することも可能である。この場合も同様に、音声用データのバージョン情報とともに更新を促す通知を楽曲再生装置100に送信し、楽曲再生装置100は、受信した音声用データのバージョン情報と、記憶部130に記憶されている音声用データのバージョン情報とを比較し、古いバージョンの音声用データが記憶部130に記憶されている場合は、配信サーバ10に対して、更新を要求するようにすればよい。
【0079】
このように、最新の音声用データを楽曲再生装置100が自動的に取得できるので、違った内容の音声を聞くことができる。従って、直ぐに飽きるようなことはなく、興趣性が向上するものである。
【0080】
次に、配信サーバ10の音声用データの更新動作について説明する。
【0081】
配信サーバ10の制御部12は、プログラム記憶部14に記憶されている制御プログラムに基づいて、インターネット2に接続される端末やサーバから通信部13を介し、文書情報(テキストデータ)を取得するようになっている。そして、制御部12は、取得した文書情報の中から、楽曲に対応した音声用情報を抽出し、この抽出された音声用情報に基づいて音声用データを生成し、配信するようにしている。
【0082】
以下、図8の配信サーバ10における音声用データの更新動作を示すフローチャートを参照しながら配信サーバ10の動作について詳細に説明する。
【0083】
まず、操作者は、検索エンジンを起動させる操作を行う。そして、操作者によって不図示の入力装置から楽曲に関するキーワードが入力された場合(ステップS41)、制御部12は、インターネット2に接続される端末やサーバから通信部13を介し、キーワードを含む文書情報(テキストデータ)を取得(ダウンロード)する(ステップS42)。
【0084】
そして、操作者は、要約エンジンを起動させる。これによって、制御部12は、この文書情報にテキストマイニング処理を施し、音声用データを生成する(ステップS43)。
【0085】
制御部12は、生成した音声用データを、データベース11に記憶されている音声用データテーブルに、追加又は更新する(ステップS44)。この場合、追加又は更新された音声用データは、楽曲データ(つまり曲名データ)に対応付けられて記憶されている。このようにして、楽曲に対応する音声用データが生成されるので、面白みが増し、興趣性が向上する。
【0086】
以上、本実施の形態によれば、楽曲の再生に先立って、複数の音声用データのうちいずれかの音声用データに基づいてディスクジョッキ風に脚色された音声を出力するようにしたことにより、自分が選曲した曲に対してあたかもディスクジョッキが話をしているかのように音声が出力されるので、面白みが増し、興趣性が向上する。
【0087】
また、本実施の形態によれば、この楽曲再生装置が車両に搭載されているので、あたかもディスクジョッキが話をしているかのように音声が出力されることによって、長時間にわたる運転や渋滞時に苛々感を緩和することができる。
【0088】
また、本実施の形態によれば、複数の音声用データにおけるそれぞれの音声用データを、楽曲と対応付けて音声用データテーブル200として記憶部130に記憶され、使用者が「曲紹介」のモードを選択した場合、再生する楽曲に対応付けられた音声用データに基づいて音声が出力されることから、楽曲にマッチした音声が出力されるので、面白みが増し、興趣性が向上する。
【0089】
また、本実施の形態によれば、「曲紹介以外」のモードを選択した場合、そのモードに対応した複数の音声用データからいずれかの音声用データがランダム選択され、この音声用データに基づいて音声が出力されることから、そのときの使用者の気分に合った音声が出力されるので、使用者が飽きることはなく、興趣性が向上する。
【0090】
また、本実施形態によれば、音声用データとして、配信サーバ10により配信された最新の音声用データが用いられているので、同じ内容を何度も音声出力するのを回避でき、使用者が飽きることはなく、興趣性が向上する。
【0091】
以上、一実施形態に基づいて本発明を説明したが、本発明は、これに限定されるものではない。
【0092】
例えば、上記実施形態では、音声用データとしてテキストデータである場合について説明したが、これに限るものではなく、実際の音声信号をデータに変換したものであってもよい。
【0093】
また、上記実施形態では、配信サーバにおいて、操作者の入力操作によってデータベースの音声用データを更新する場合について説明したが、配信サーバにおいて、制御部の制御の下、定期的に音声用データを更新する場合であってもよい。この場合、配信サーバは、最新の音声用データを、定期的に楽曲再生装置に配信することとなる。
【0094】
また、上記実施形態では、話題に関するモードを選択する場合について説明したが、モードで分類しない場合であってもよい。この場合、音声を出力するために選択される音声用データは、楽曲に対応していてもよいし、ランダムであってもよい。
【0095】
また、上記実施形態では、配信サーバが、インターネット上の端末やサーバから文書情報を取得し、この取得した文書情報の中から、楽曲に対応した音声用情報を抽出し、この抽出された音声用情報に基づいて音声用データを生成する場合について説明したが、楽曲再生装置が、インターネット上の端末やサーバから文書情報を取得し、この取得した文書情報の中から、楽曲に対応した音声用情報を抽出し、この抽出された音声用情報に基づいて音声用データを生成する場合であってもよい。この場合、楽曲再生装置の記憶部には、この処理を制御部に行わせる制御プログラムを記憶させておけばよい。特に、この制御プログラムは、文書情報にテキストマイニング処理を施し、音声用データを生成するように制御部を機能させるものであるのが好ましい。
【0096】
また、上記実施形態では、楽曲の再生に合わせたタイミングとして、楽曲の再生前であるとしたが、楽曲の再生に合わせたタイミングは、楽曲の再生前、楽曲の再生中、楽曲の再生後のいずれかのタイミングであってもよい。つまり、音声用データに基づく音声出力の開始のタイミングが、楽曲の再生前、楽曲の再生中、楽曲の再生後のいずれであってもよい。そして、音声用データに基づく音声出力の開始のタイミングが、楽曲の再生前である場合、音声用データに基づく音声出力の終了が、楽曲の再生前であってもよいし、楽曲の再生中であってもよい。
【0097】
【発明の効果】
本発明によれば、面白みのある音声を出力して興趣性を向上させることできる。
【図面の簡単な説明】
【図1】本実施形態に係る楽曲再生装置を含む通信システムの概要構成を示す図である。
【図2】本実施形態に係る配信サーバの概要構成を示す図である。
【図3】音声用データテーブルを示す図である。
【図4】楽曲再生装置の制御動作を示すフローチャートである。
【図5】楽曲再生装置の再生処理動作を示すフローチャートである。
【図6】楽曲再生装置の再生処理動作を示すフローチャートである。
【図7】楽曲再生装置及び配信サーバの通信動作を示すシーケンス図である。
【図8】配信サーバにおける音声用データの更新動作を示すフローチャートである。
【符号の説明】
1 通信システム
10 配信サーバ
11 データベース
100 楽曲再生装置
110 制御部
120 通信装置
130 記憶部
140 楽曲再生部
143 スピーカ
153 VR
160 TTS
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a music reproducing apparatus for reproducing music, a distribution server for distributing audio data to the music reproducing apparatus, a control method for the music reproducing apparatus, a control program for the music reproducing apparatus, and a recording medium.
[0002]
[Prior art]
2. Description of the Related Art Generally, a music reproducing apparatus that reproduces music is known (for example, see Patent Document 1). In general, this type of music reproducing apparatus includes a recording medium for storing music data. There is known a music reproducing apparatus in which music data is reproduced by selecting music data of a music to be listened to from a stored music data by a user.
[0003]
[Patent Document 1]
JP-A-11-306740
[0004]
[Problems to be solved by the invention]
By the way, the above-mentioned music reproducing apparatus merely reproduces music, and has no interest in the user, for example, it is not interesting for the user and is immediately tired of the user.
[0005]
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and has a music reproducing apparatus for improving amusement, a distribution server for distributing audio data to the music reproducing apparatus, a control method of the music reproducing apparatus, and a control of the music reproducing apparatus. It is intended to provide a program and a recording medium.
[0006]
[Means for Solving the Problems]
According to a first aspect of the present invention, in the music reproducing apparatus for reproducing music, the storage means for storing a plurality of audio data corresponding to the sound adapted in the style of a disc mug; And sound output means for outputting a sound adapted in a disc-jugular style based on any one of the plurality of sound data.
[0007]
According to a second aspect of the present invention, in the first aspect of the present invention, the storage unit stores the audio data in association with a song, and the audio output unit outputs a timing corresponding to the reproduction of the song. And outputting a sound based on the sound data associated with the music to be reproduced.
[0008]
According to a third aspect of the present invention, in the first aspect of the present invention, the audio output means outputs audio based on audio data randomly selected from the plurality of audio data. It is assumed that.
[0009]
According to a fourth aspect of the present invention, in the second aspect of the present invention, there is provided an acquisition unit for acquiring document information relating to the music, and the audio output unit is configured to output, for the audio corresponding to the music, from the acquired document information. Information is extracted, and audio data is generated based on the extracted audio information.
[0010]
The invention described in claim 5 is the invention according to any one of claims 1 to 3, wherein the audio data is distributed by a distribution server.
[0011]
The invention according to claim 6 is the invention according to any one of claims 1 to 3, wherein the latest audio data distributed by a distribution server is used as the audio data. It is.
[0012]
According to a seventh aspect of the present invention, in the first aspect of the present invention, the voice output unit performs voice synthesis based on the voice data and outputs the voice. Things.
[0013]
According to an eighth aspect of the present invention, in the distribution server, there is provided an acquisition unit for acquiring document information on music, and audio information corresponding to the music is extracted from the acquired document information. It is characterized by generating and delivering audio data based on information.
[0014]
According to a ninth aspect of the present invention, in the invention according to the eighth aspect, the audio data is distributed in association with music.
[0015]
According to a tenth aspect of the present invention, in the control method of the music reproducing apparatus for reproducing the music, the first step of storing a plurality of audio data corresponding to the sound which is adapted in a disc jug style is adapted to the reproduction of the music. A second step of outputting, at a timing, a sound that is adapted in a disk-jug style based on any one of the plurality of sound data.
[0016]
According to an eleventh aspect of the present invention, in a control program for controlling a music reproducing apparatus that reproduces music by a computer, a plurality of audio data corresponding to sounds that are adapted in a disc-jug style are stored, and the reproduction of the music is performed. At the combined timing, a sound that is adapted in the style of a disc mug is output based on any one of the plurality of audio data.
[0017]
According to a twelfth aspect of the invention, a recording medium records the control program according to the eleventh aspect.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The embodiments described below show one aspect of the present invention, and do not limit the present invention, and can be arbitrarily changed within the scope of the present invention.
[0019]
FIG. 1 is a diagram illustrating a schematic configuration of a communication system including a music playback device according to the present embodiment. FIG. 2 is a diagram illustrating a schematic configuration of the distribution server according to the present embodiment.
[0020]
1, a communication system 1 includes a distribution server 10 that distributes music data and audio data, and a plurality of music playback devices 100. Although FIG. 1 illustrates the distribution server 10 and the music playback device 100 one by one, the number is arbitrary. Here, the music data is encoded, for example, by data compressed and encoded by the MP3 (MPEG Audio Layer-3) system, WMA (Windows (registered trademark) Media Audio) system, or the like, or by the PCM (Pulse Code Modulation) system. Data. The audio data is text data.
[0021]
The music reproducing apparatus 100 is installed in a vehicle such as an automobile, acquires music data and audio data from the distribution server 10 in accordance with an instruction of a user (for example, a driver), and acquires the acquired music data and audio data. To play.
[0022]
The music reproducing device 100 includes a control unit 110, a communication device 120, and a storage unit 130. The control unit 110 includes a CPU, a ROM, a RAM, and the like, and controls each unit of the music reproducing device 100.
[0023]
The communication device 120 performs data communication with various terminal devices connected to the network 4. More specifically, the communication device 120 corresponds to a mobile communication device such as a mobile phone or a wireless LAN communication device (Local Area Network), and is connected to the wireless communication network 3 or the Internet 2 via the wireless communication network 3. Data communication with the various terminals. In the present embodiment, the communication device 120 receives music data and audio data from the distribution server 10 by performing data communication particularly with the distribution server 10.
[0024]
The storage unit 130 includes a main storage device such as an HDD (Hard Disk Drive), and stores various control programs executed by the control unit 110, music data, audio data, text data for conversation, map data, various tables, and the like. Is done. As shown in FIG. 3, the storage unit 130 stores an audio data table 200 in which music title data of music is associated with audio data. For example, the song name data indicating “red dragonfly” is associated with audio data corresponding to a voice that is adapted to a disc-jugated style of “when I am a fourth grader…”. The storage unit 130 stores a music data table (not shown) in which music title data and music data are associated with each other.
[0025]
Here, the sound that is adapted in the style of a disc jug refers to the content and manner of speaking (such as tone and dialect) that the disc mug speaks to a viewer before, during, or after the music is played, or the disc. It is a sound with a tone like a mug. In other words, the sound that is adapted to the style of a disc mug is the sound related to the introduction of a song, the content or style of speech spoken by a moderator such as a radio program, the sound or the music that the moderator of a radio program speaks. The sound and the sound of the content and manner of speaking by an actual disc mug in a flowing entertainment facility or the like, and the sound of the tone that this disc mug utters.
[0026]
The music reproduction unit 140 reproduces the music data stored in the storage unit 130 under the control of the control unit 110, and outputs an analog audio signal to the mixer 141.
[0027]
Amplifier 142 amplifies the analog audio signal from mixer 141 and outputs the amplified signal to speaker 143. The speaker 143 emits sound in accordance with the analog audio signal input from the amplifier 142.
[0028]
The microphone 150 is a sound collection device. In the present embodiment, the microphone 150 collects a sound emitted by a user and outputs an analog sound signal to the amplifier 151. Amplifier 151 amplifies the input analog audio signal and outputs it to A / D converter 152.
[0029]
The A / D converter 152 converts the input analog audio signal into a digital audio signal and outputs the digital audio signal to the VR 153.
[0030]
VR (Voice Recognition: voice recognition unit) 153 executes voice recognition processing based on the input digital voice signal, and outputs the recognition result to control unit 110.
[0031]
The operation unit 154 includes various operators such as push-down buttons for giving various instructions, and notifies the control unit 110 of operations of these operators.
[0032]
A TTS (Text To Speech: voice conversion unit) 160 executes a voice synthesis process based on the text data stored in the storage unit 130 under the control of the control unit 110, and reads out a text of the text data. Generate The TTS 160 has a function of generating a digital voice signal in a plurality of types of voices such as a male voice or a female voice, and generates a digital voice signal in a voice preset by a user.
[0033]
The D / A converter 161 converts the input digital audio signal into an analog audio signal, and outputs the analog audio signal to the amplifier 142 via the mixer 141. Thereby, the music reproducing device 100 outputs music or voice from the speaker 143.
[0034]
The environment information acquisition unit 170 acquires information on the environment during driving of the vehicle (hereinafter, referred to as environment information) and outputs the information to the control unit 110. The environment information acquisition unit 170 includes a sensor unit 171 that acquires information about the weather around the vehicle and the traveling state of the vehicle, a time clock unit 172 that measures the current time, and a GPS (Global Positioning System) that acquires position information of the vehicle. ) Section 173.
[0035]
More specifically, the sensor unit 171 includes a plurality of sensors for detecting illuminance, humidity, and a wiper operation speed as to the weather of the vehicle, and a sensor to detect a vehicle speed pulse as to the running condition of the vehicle. It has. A real-time clock is applied to the time counting unit 172, and the GPS unit 173 receives a radio wave from a GPS satellite via a GPS antenna (not shown) and calculates the current position of the vehicle. In the present embodiment, the control unit 110 detects whether the weather around the vehicle corresponds to sunny, cloudy, rainy, or snow based on the output of the sensor unit 171, and determines whether the running condition of the vehicle is congested. Is detected. Further, control unit 110 detects whether the current time zone corresponds to morning, noon, or night based on the time measured by time counting unit 172. Further, the control unit 110 refers to the map data stored in the storage unit 130 based on the position information calculated by the GPS unit 173, and the location of the vehicle corresponds to any one of an urban area, a countryside, a mountain, a river, and the sea. Detect. Note that the map data used in the present embodiment includes information indicating the locations of the city, the country, the mountains, the river, and the sea, and the control unit 110 determines that the position indicated by the position information is any position and its vicinity. The location of the vehicle is identified by determining whether the vehicle belongs.
[0036]
The distribution server 10 is composed of a general computer system, and distributes music data to the music reproducing device 100 via the network 4. The distribution server 10 includes a database 11 for storing (storing) a plurality of music data and a plurality of audio data corresponding to the plurality of music data, and stores the music data and voice data via the Internet 2 and the wireless communication network 3. Is transmitted to the music reproducing apparatus 100. 2, a control unit 12 in the distribution server 10 is configured by a CPU and the like, and controls each unit of the distribution server 10.
[0037]
The communication unit 13 is connected to the Internet 2 and can acquire document information on music from a terminal connected to the Internet 2 under the control of the control unit 12. The communication unit 13 distributes music data and audio data to the music reproduction device 100 (FIG. 1) via the Internet 2 and the wireless communication network 3 (FIG. 1) under the control of the control unit 12.
[0038]
Here, the document information is text data of a song introduction article, text data of a newspaper article, text data of an article such as a singer, a recording medium (for example, a CD) on which music data is recorded, and an article of a sales order of the music data itself. Is text data.
[0039]
The program storage unit 14 includes a main storage device such as an HDD, and stores various control programs executed by the control unit 12. The various control programs include a first control program that causes the control unit 12 to function to obtain document information (text data) from various terminals on the Internet 2 via the communication unit 13 and a control unit 12. A second control program is included that extracts audio information corresponding to a musical piece from the document information, and functions to generate audio data based on the extracted audio information.
[0040]
That is, the first control program causes the control unit 12 to acquire document information including a keyword input by the operator from document information stored in various terminals or servers connected to the Internet 2. Is a search engine. The second control program is a summarization engine that causes the control unit 12 to perform a text mining process on the acquired document information.
[0041]
The text mining process is a process of acquiring speech information (word data or phrase data) included in the document information and generating a summary sentence for the acquired document information (text data).
[0042]
In the present embodiment, the music reproducing device 100 outputs a sound adapted in a disc-jug style based on one of the plurality of audio data at the timing corresponding to the reproduction of the music.
[0043]
More specifically, the music reproducing apparatus 100 performs a sound generated in a disc-jugular manner based on any one of the plurality of audio data before the music is reproduced, that is, prior to the reproduction of the music. Is output.
[0044]
Hereinafter, the control operation of the music playback device 100 will be described with reference to the flowchart shown in FIG.
[0045]
First, the control unit 110 determines whether the operation unit 154 has been operated (step S1). That is, the control unit 110 determines whether or not the push-down button indicating the music playback on the operation unit 154 has been pressed. When the operation unit 154 is not operated (Step S1; No), the control unit 110 waits for the operation unit 154 to be operated.
[0046]
When the operation unit 154 is operated (Step S1; Yes), the music reproducing device 100 determines a music to be reproduced through an interaction with the operator. More specifically, first, under the control of the control unit 110, text data for prompting selection of a song in the text data for conversation read from the storage unit 130 is subjected to voice synthesis in the TTS 160, and the D / A converter 161 is used. Is converted into an analog audio signal, and is output from the speaker 143 as audio via the mixer 141 and the amplifier 142 (step S2). That is, the music reproducing device 100 prompts the user to select a music by voice.
[0047]
Next, control unit 110 determines whether or not an audio signal has been input via microphone 150 (step S3). When an audio signal is not input via the microphone 150 (Step S3; No), the control unit 110 waits for an audio signal to be input via the microphone 150.
[0048]
When a voice signal is input via the microphone 150 (Step S3; Yes), the voice signal is recognized by the VR 153 through the amplifier 151 and the A / D converter 152. Then, the control unit 110 searches the song data table (not shown) stored in the storage unit 130 for song title data that matches the voice recognition result (that is, data indicating the song title) (step S4).
[0049]
Then, as a result of this search, the control unit 110 determines whether or not there is song name data that matches the voice recognition result (step S5).
[0050]
If there is song name data that matches the voice recognition result (step S5; Yes), the control unit 110 sets song data corresponding to the song title data to song data to be reproduced.
[0051]
Then, control unit 110 determines which mode is selected by the user from the plurality of modes related to the topic (step S6).
[0052]
As a plurality of modes related to the topic, a mode of “song introduction” and a mode of “other than song introduction” are set. As the modes other than "introduction to songs", a mode of "a story that the family wants to hear", a mode of a "sound that energizes", and the like are set.
[0053]
Each mode corresponds to a plurality of different audio data. More specifically, the "song introduction" mode corresponds to audio data corresponding to a song in the audio data table 200 (FIG. 3). Also, a plurality of voice data having contents matching this mode correspond to the "story to be heard by family" mode. Further, a plurality of voice data having contents matching this mode are supported in the mode of "speaking well". That is, the storage unit 130 stores a plurality of audio data for each mode.
[0054]
The selection of this mode is performed by a dialog between the user and the music reproducing apparatus 100. More specifically, the control unit 110 reads text data for prompting mode selection in the text data for dialogue from the storage unit 130 and outputs the text data to the TTS 160 to output a voice prompting mode selection. As a result, the TTS 160, the D / A converter 161, the mixer 141, and the amplifier 142 operate, and sound is output from the speaker 143. Next, the control unit 110 waits for the input of the audio signal, and when the audio signal is input, the audio signal is recognized by the VR 153 through the amplifier 151 and the A / D converter 152. Then, control unit 110 sets a mode that matches the speech recognition result.
[0055]
Next, the control unit 110 stores, in order to output a sound that has been adapted in a disc-jug style based on any one of the plurality of audio data corresponding to the mode selected by the user, The voice data is read from the unit 130 and sent to the TTS 160. As a result, the TTS 160, the D / A converter 161, the mixer 141, and the amplifier 142 operate, and sound is output from the speaker 143 (step S7). Next, the control unit 110 reads out the music data from the storage unit 130 and sends it to the music reproduction unit 140 so as to reproduce the music. As a result, the music reproducing unit 140, the mixer 141, and the amplifier 142 operate, and the music is output from the speaker 143 (step S8).
[0056]
In step S5, when there is no song name data that matches the voice recognition result (step S5; No), the control unit 110 outputs from the storage unit 130 the text data for dialogue from the storage unit 130 in order to output a voice that the match did not occur. The text data for notifying that they do not match is read and sent to the TTS 160. As a result, the TTS 160, the D / A converter 161, the mixer 141, and the amplifier 142 operate, and sound is output from the speaker 143 (step S9).
[0057]
Then, the control unit 110 checks with the distribution server 10 via the communication device 120 whether or not the song data corresponding to the voice recognition result (song name data) is in the database 11. As a result of this check, when the music data corresponding to the voice recognition result is in the database 11, the music reproducing device 100 requests the distribution server 10 for the music data, and the distribution server 10 that has received this request, The music data to be read is read and distributed to the music reproducing device 100. The control unit 110 of the music reproduction device 100 controls the communication device 120 to acquire the music data from the distribution server 10 and controls the acquired music data to be stored in the storage unit 130 (step S10).
[0058]
In other words, the music reproducing device 100 downloads the selected music data from the distribution server 10 when the corresponding music data is not stored in the storage unit 130 in response to the user's input regarding the music selection.
[0059]
For example, when the user wants to listen to the music of “A” by voice input, but there is no music corresponding to “A” in the storage unit 130, the music reproduction device 100 inquires the distribution server 10 to determine whether the music can be downloaded. Check if it is, and download.
[0060]
As a result, the selected music data is automatically stored in the storage unit 130 of the music playback device 100, so that a reproduction operation that meets the needs of the operator can be performed.
[0061]
The request for distribution of the music data may be made when the user operates the operation unit 154.
[0062]
Next, the reproduction processing operation for each mode in step S7 will be described in detail.
[0063]
FIG. 5 is a flowchart showing the playback processing operation when the "song introduction" mode is selected.
[0064]
Under the control of the control unit 110, audio is output based on audio data associated with the music to be reproduced (that is, the name of the input music) (step S11). More specifically, the control unit 110 searches the audio data table 200 (FIG. 3) stored in the storage unit 130 for music title data that matches the voice recognition result (that is, data indicating the music title) in step S4. I do. Next, the control unit 110 reads from the storage unit 130 audio data corresponding to the song name data that matches the audio recognition result, and sends the data to the TTS 160. As a result, the TTS 160, the D / A converter 161, the mixer 141, and the amplifier 142 operate, and sound is output from the speaker 143.
[0065]
For example, referring to FIG. 3, when the user voice-inputs the song name of “Sakura”, the audio data of “Dad,...” Corresponding to the song name data of “Sakura” is the song reproducing device 100. Will be read aloud.
[0066]
As a result, a sound suitable for the music is output as if the disc jug is speaking, thereby increasing the fun and the interest.
[0067]
FIG. 6 is a flowchart showing a reproduction processing operation when a mode other than "tune introduction", for example, a mode of "a story to be listened to by a family", a mode of a "sound that energizes" or the like is selected.
[0068]
The control unit 110 randomly selects audio data from a plurality of audio data corresponding to the mode selected by the user (step S21). As a result, when the "story to be heard by family" mode is selected, the voice data is randomly selected from a plurality of voice data corresponding to this mode, and the Is selected, audio data is randomly selected from a plurality of audio data corresponding to this mode.
[0069]
Next, under the control of the control unit 110, a sound is output based on the selected sound data (step S22). More specifically, the control unit 110 reads the selected audio data from the storage unit 130 and sends the data to the TTS 160. As a result, the TTS 160, the D / A converter 161, the mixer 141, and the amplifier 142 operate, and sound is output from the speaker 143.
[0070]
As a result, the sound having the content corresponding to the user's request is output as if the disc mug is uttering, so that the fun is increased and the interest is improved.
[0071]
As described above, any one of the plurality of modes is selected. At least one of the plurality of modes ("Song introduction" mode) is a mode for outputting sound based on audio data associated with the music to be reproduced, and the remaining modes ("Song introduction"). The mode other than introduction) is a mode in which audio data is randomly selected from a plurality of audio data corresponding to the mode, and audio is output based on the selected audio data.
[0072]
The distribution server 10 distributes audio data to the music reproduction device 100. The communication operation of the music reproduction device 100 and the distribution server 10 will be specifically described with reference to the communication sequence diagram of FIG. Here, a case in which the audio data table corresponding to the “song introduction” mode is updated will be described.
[0073]
First, it is assumed that the audio data table of the database 11 is newly updated in the distribution server 10 (step S31). Here, as shown in FIG. 3, the audio data table associates song title data with audio data.
[0074]
Then, the distribution server 10 transmits a notification urging the updating together with the version information of the audio data table to the music reproducing apparatus 100 in order to distribute the latest audio data table (step S32).
[0075]
The music reproducing device 100 that has received this notification compares the version information of the received audio data with the version information of the audio data table 200 (FIG. 3) stored in the storage unit 130, and When the data table 200 is stored in the storage unit 130, the distribution server 10 requests the distribution server 10 to update (step S33).
[0076]
Upon receiving this request, the distribution server 10 distributes the latest audio data table (step S34).
[0077]
Then, the music reproducing device 100 that has acquired the latest audio data table updates the audio data table 200 in the storage unit 130 under the control of the control unit 110.
[0078]
Here, the case of updating the audio data table corresponding to the “song introduction” mode has been described, but the present invention is not limited to this, and is applied to the case of updating the audio data corresponding to the “other than song introduction” mode. It is also possible. Also in this case, similarly, a notification urging an update together with the version information of the audio data is transmitted to the music reproducing apparatus 100, and the music reproducing apparatus 100 stores the received audio data version information and the storage unit 130. By comparing the version information of the audio data with the version information of the audio data, if an old version of the audio data is stored in the storage unit 130, the update may be requested to the distribution server 10.
[0079]
As described above, since the music reproducing apparatus 100 can automatically acquire the latest audio data, it is possible to listen to audio having different contents. Therefore, the user does not get bored immediately, and the interest is improved.
[0080]
Next, an operation of updating the audio data of the distribution server 10 will be described.
[0081]
The control unit 12 of the distribution server 10 acquires document information (text data) from a terminal or server connected to the Internet 2 via the communication unit 13 based on a control program stored in the program storage unit 14. It has become. Then, the control unit 12 extracts audio information corresponding to the music from the acquired document information, generates audio data based on the extracted audio information, and distributes the data.
[0082]
Hereinafter, the operation of the distribution server 10 will be described in detail with reference to a flowchart showing the operation of updating the audio data in the distribution server 10 of FIG.
[0083]
First, the operator performs an operation for starting the search engine. When the operator inputs a keyword related to music from an input device (not shown) (step S <b> 41), the control unit 12 transmits the document information including the keyword from a terminal or server connected to the Internet 2 via the communication unit 13. (Text data) is acquired (downloaded) (step S42).
[0084]
Then, the operator activates the summary engine. As a result, the control unit 12 performs a text mining process on the document information to generate audio data (step S43).
[0085]
The control unit 12 adds or updates the generated voice data to the voice data table stored in the database 11 (step S44). In this case, the added or updated audio data is stored in association with the music data (that is, music name data). In this way, the audio data corresponding to the music is generated, which makes the music more interesting and more interesting.
[0086]
As described above, according to the present embodiment, prior to the reproduction of the music, by outputting a sound that is adapted in a disc mug style based on any one of the plurality of audio data, Since the sound is output as if the disc mug is talking to the music selected by the user, the fun is increased and the interest is improved.
[0087]
In addition, according to the present embodiment, since the music reproducing device is mounted on the vehicle, the sound is output as if the disc mug is talking, so that during a long driving or traffic jam. The irritability can be reduced.
[0088]
Further, according to the present embodiment, each of the plurality of audio data in the plurality of audio data is stored in the storage unit 130 as the audio data table 200 in association with the music, and the user is provided with the “music introduction” mode. When is selected, the audio is output based on the audio data associated with the music to be reproduced, so that the audio that matches the music is output, thereby increasing the interest and the interest.
[0089]
Further, according to the present embodiment, when a mode other than “tune introduction” is selected, any one of the audio data is randomly selected from a plurality of audio data corresponding to the mode, and based on this audio data, Since the sound is output, the sound that matches the mood of the user at that time is output, so that the user is not tired and the interest is improved.
[0090]
Further, according to the present embodiment, since the latest audio data distributed by the distribution server 10 is used as the audio data, it is possible to prevent the same content from being output many times as audio, and the user can use the audio data. You will not get tired and your interest will improve.
[0091]
As described above, the present invention has been described based on one embodiment, but the present invention is not limited to this.
[0092]
For example, in the above-described embodiment, the case where text data is used as audio data has been described. However, the present invention is not limited to this, and actual audio signals may be converted into data.
[0093]
In the above embodiment, the case where the distribution server updates the audio data in the database by the input operation of the operator has been described. However, the distribution server periodically updates the audio data under the control of the control unit. May be performed. In this case, the distribution server periodically distributes the latest audio data to the music playback device.
[0094]
Further, in the above-described embodiment, the case where the mode related to the topic is selected has been described. In this case, the audio data selected to output the audio may correspond to the music or may be random.
[0095]
In the above embodiment, the distribution server acquires the document information from the terminal or the server on the Internet, extracts the audio information corresponding to the music from the acquired document information, and Although the case where audio data is generated based on the information has been described, the music reproducing device acquires the document information from a terminal or a server on the Internet, and, from the acquired document information, the audio information corresponding to the music. May be extracted, and audio data may be generated based on the extracted audio information. In this case, a control program that causes the control unit to perform this processing may be stored in the storage unit of the music playback device. In particular, it is preferable that the control program causes the control unit to perform a text mining process on the document information and generate audio data.
[0096]
Further, in the above embodiment, the timing corresponding to the reproduction of the music is before the reproduction of the music, but the timing corresponding to the reproduction of the music is before the reproduction of the music, during the reproduction of the music, or after the reproduction of the music. Any timing may be used. That is, the timing of starting the audio output based on the audio data may be before the music is reproduced, during the music is reproduced, or after the music is reproduced. When the start of the audio output based on the audio data is before the reproduction of the music, the end of the audio output based on the audio data may be before the reproduction of the music, or during the reproduction of the music. There may be.
[0097]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, an interesting audio | voice can be output and an interestingness can be improved.
[Brief description of the drawings]
FIG. 1 is a diagram showing a schematic configuration of a communication system including a music playback device according to an embodiment.
FIG. 2 is a diagram illustrating a schematic configuration of a distribution server according to the embodiment.
FIG. 3 is a diagram showing an audio data table.
FIG. 4 is a flowchart showing a control operation of the music reproducing apparatus.
FIG. 5 is a flowchart showing a playback processing operation of the music playback device.
FIG. 6 is a flowchart showing a playback processing operation of the music playback device.
FIG. 7 is a sequence diagram illustrating a communication operation between the music reproduction device and the distribution server.
FIG. 8 is a flowchart showing an operation of updating the audio data in the distribution server.
[Explanation of symbols]
1 Communication system
10 Distribution server
11 Database
100 Music playback device
110 control unit
120 communication device
130 storage unit
140 Music playback unit
143 Speaker
153 VR
160 TTS

Claims (12)

楽曲を再生する楽曲再生装置において、
ディスクジョッキ風に脚色された音声に対応する音声用データを複数記憶する記憶手段と、
楽曲の再生に合わせたタイミングで、前記複数の音声用データのうちいずれかの音声用データに基づいてディスクジョッキ風に脚色された音声を出力する音声出力手段とを備えたことを特徴とする楽曲再生装置。
In a music reproducing apparatus for reproducing music,
Storage means for storing a plurality of audio data corresponding to the sound which is adapted to a disc jug style,
Audio output means for outputting, at a timing corresponding to the reproduction of the music, audio that is adapted in a disc-jug style based on any of the audio data among the plurality of audio data. Playback device.
請求項1に記載の楽曲再生装置において、
前記記憶手段は、前記音声用データを、楽曲と対応付けて記憶し、
前記音声出力手段は、楽曲の再生に合わせたタイミングで、再生する楽曲に対応付けられた前記音声用データに基づいて音声を出力することを特徴とする楽曲再生装置。
The music reproducing device according to claim 1,
The storage means stores the audio data in association with music.
The music reproducing device, wherein the audio output unit outputs a sound at a timing corresponding to the reproduction of the music, based on the audio data associated with the music to be reproduced.
請求項1に記載の楽曲再生装置において、
前記音声出力手段は、前記複数の音声用データの中からランダムに選択した音声用データに基づいて音声を出力することを特徴とする楽曲再生装置。
The music reproducing device according to claim 1,
The music reproducing device according to claim 1, wherein the audio output means outputs audio based on audio data randomly selected from the plurality of audio data.
請求項2に記載の楽曲再生装置において、
楽曲に関する文書情報を取得する取得手段を備え、
前記音声出力手段は、取得した文書情報の中から、楽曲に対応した音声用情報を抽出し、この抽出された音声用情報に基づいて音声用データを生成することを特徴とする楽曲再生装置。
The music reproducing device according to claim 2,
An acquisition unit for acquiring document information on the music,
The music reproducing device, wherein the audio output means extracts audio information corresponding to the music from the acquired document information, and generates audio data based on the extracted audio information.
請求項1乃至3のいずれか一項に記載の楽曲再生装置において、
前記音声用データが、配信サーバにより配信されることを特徴とする楽曲再生装置。
The music playback device according to claim 1, wherein
A music reproducing apparatus, wherein the audio data is distributed by a distribution server.
請求項1乃至3のいずれか一項に記載の楽曲再生装置において、
前記音声用データとして、配信サーバにより配信された最新の音声用データを用いることを特徴とする楽曲再生装置。
The music playback device according to claim 1, wherein
A music reproducing apparatus, wherein the latest audio data distributed by a distribution server is used as the audio data.
請求項1乃至6のいずれか一項に記載の楽曲再生装置において、
前記音声出力手段は、前記音声用データに基づいて音声合成し、音声出力することを特徴とする楽曲再生装置。
The music playback device according to claim 1, wherein
The music reproducing device, wherein the audio output means synthesizes a voice based on the voice data and outputs the voice.
楽曲に関する文書情報を取得する取得手段を備え、取得した文書情報の中から、楽曲に対応した音声用情報を抽出し、この抽出された音声用情報に基づいて音声用データを生成し、配信することを特徴とする配信サーバ。Acquiring means for acquiring document information related to a song, extracting audio information corresponding to the song from the acquired document information, generating and distributing audio data based on the extracted audio information. A distribution server, characterized in that: 請求項8に記載の配信サーバにおいて、
前記音声用データを、楽曲と対応付けて配信することを特徴とする配信サーバ。
The distribution server according to claim 8,
A distribution server for distributing the audio data in association with music.
楽曲を再生する楽曲再生装置の制御方法において、
ディスクジョッキ風に脚色された音声に対応する音声用データを複数記憶する第1過程と、
楽曲の再生に合わせたタイミングで、前記複数の音声用データのうちいずれかの音声用データに基づいてディスクジョッキ風に脚色された音声を出力する第2過程とを備えたことを特徴とする楽曲再生装置の制御方法。
In a control method of a music reproducing apparatus for reproducing music,
A first process of storing a plurality of voice data corresponding to voices adapted in a disc mug style;
A second step of outputting, at a timing corresponding to the reproduction of the music, a sound adapted in a disc-jug style based on one of the plurality of audio data, based on one of the audio data. A method for controlling a playback device.
楽曲を再生する楽曲再生装置をコンピュータにより制御するための制御プログラムにおいて、
ディスクジョッキ風に脚色された音声に対応する音声用データを複数記憶させ、
楽曲の再生に合わせたタイミングで、前記複数の音声用データのうちいずれかの音声用データに基づいてディスクジョッキ風に脚色された音声を出力させることを特徴とする楽曲再生装置の制御プログラム。
In a control program for controlling a music playback device for playing music by a computer,
Store a plurality of audio data corresponding to the sound that was adapted in the style of a disc mug,
A control program for a music reproducing apparatus, characterized by outputting, at a timing corresponding to the reproduction of a music, a sound adapted in a disc-jug style based on any one of the plurality of audio data.
請求項11に記載の制御プログラムを記録したことを特徴とする記録媒体。A recording medium on which the control program according to claim 11 is recorded.
JP2003146266A 2003-05-23 2003-05-23 Music reproducing device, distribution server, control method of music reproducing device, control program and recording medium Pending JP2004347959A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003146266A JP2004347959A (en) 2003-05-23 2003-05-23 Music reproducing device, distribution server, control method of music reproducing device, control program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003146266A JP2004347959A (en) 2003-05-23 2003-05-23 Music reproducing device, distribution server, control method of music reproducing device, control program and recording medium

Publications (1)

Publication Number Publication Date
JP2004347959A true JP2004347959A (en) 2004-12-09

Family

ID=33533175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003146266A Pending JP2004347959A (en) 2003-05-23 2003-05-23 Music reproducing device, distribution server, control method of music reproducing device, control program and recording medium

Country Status (1)

Country Link
JP (1) JP2004347959A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011209570A (en) * 2010-03-30 2011-10-20 Yamaha Corp Karaoke device
JP2019504353A (en) * 2016-01-04 2019-02-14 グレースノート インコーポレイテッド Generation and distribution of playlists with music and stories with relevant atmosphere

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09146579A (en) * 1995-11-22 1997-06-06 Matsushita Electric Ind Co Ltd Music player
JPH1031494A (en) * 1996-07-16 1998-02-03 Sony Corp Karaoke equipment
JPH10274997A (en) * 1997-03-31 1998-10-13 Sanyo Electric Co Ltd Document reading-aloud device
JP2000010574A (en) * 1998-06-19 2000-01-14 Victor Co Of Japan Ltd Karaoke sing-along machine
JP2000039897A (en) * 1998-07-24 2000-02-08 Victor Co Of Japan Ltd Text speech synthesizer
JP2000067054A (en) * 1998-08-17 2000-03-03 Nippon Telegr & Teleph Corp <Ntt> Attribute expression extraction method and apparatus, and recording medium storing attribute expression extraction program
JP2001005821A (en) * 1999-06-18 2001-01-12 Nippon Telegr & Teleph Corp <Ntt> Topic-type summary generation apparatus, topic-type summary generation method, and computer-readable recording medium recording the method
JP2001343990A (en) * 2000-03-30 2001-12-14 Fujitsu Ltd Text information reading apparatus, music / sound reproducing apparatus, medium, and program incorporating the same
JP2002278985A (en) * 2001-03-19 2002-09-27 Toshiba Corp Item information database creation system, item information database creation method and program
JP2003036089A (en) * 2001-07-24 2003-02-07 Matsushita Electric Ind Co Ltd Text speech synthesis method and text speech synthesis apparatus

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09146579A (en) * 1995-11-22 1997-06-06 Matsushita Electric Ind Co Ltd Music player
JPH1031494A (en) * 1996-07-16 1998-02-03 Sony Corp Karaoke equipment
JPH10274997A (en) * 1997-03-31 1998-10-13 Sanyo Electric Co Ltd Document reading-aloud device
JP2000010574A (en) * 1998-06-19 2000-01-14 Victor Co Of Japan Ltd Karaoke sing-along machine
JP2000039897A (en) * 1998-07-24 2000-02-08 Victor Co Of Japan Ltd Text speech synthesizer
JP2000067054A (en) * 1998-08-17 2000-03-03 Nippon Telegr & Teleph Corp <Ntt> Attribute expression extraction method and apparatus, and recording medium storing attribute expression extraction program
JP2001005821A (en) * 1999-06-18 2001-01-12 Nippon Telegr & Teleph Corp <Ntt> Topic-type summary generation apparatus, topic-type summary generation method, and computer-readable recording medium recording the method
JP2001343990A (en) * 2000-03-30 2001-12-14 Fujitsu Ltd Text information reading apparatus, music / sound reproducing apparatus, medium, and program incorporating the same
JP2002278985A (en) * 2001-03-19 2002-09-27 Toshiba Corp Item information database creation system, item information database creation method and program
JP2003036089A (en) * 2001-07-24 2003-02-07 Matsushita Electric Ind Co Ltd Text speech synthesis method and text speech synthesis apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011209570A (en) * 2010-03-30 2011-10-20 Yamaha Corp Karaoke device
JP2019504353A (en) * 2016-01-04 2019-02-14 グレースノート インコーポレイテッド Generation and distribution of playlists with music and stories with relevant atmosphere
US10706099B2 (en) 2016-01-04 2020-07-07 Gracenote, Inc. Generating and distributing playlists with music and stories having related moods
US11017021B2 (en) 2016-01-04 2021-05-25 Gracenote, Inc. Generating and distributing playlists with music and stories having related moods
US11061960B2 (en) 2016-01-04 2021-07-13 Gracenote, Inc. Generating and distributing playlists with related music and stories
US11868396B2 (en) 2016-01-04 2024-01-09 Gracenote, Inc. Generating and distributing playlists with related music and stories
US11921779B2 (en) 2016-01-04 2024-03-05 Gracenote, Inc. Generating and distributing a replacement playlist

Similar Documents

Publication Publication Date Title
US7529676B2 (en) Audio device control device, audio device control method, and program
US8199937B2 (en) Contents reproduction apparatus and method thereof
US7227071B2 (en) Music search system
US9794423B2 (en) Query by humming for ringtone search and download
US6975938B2 (en) Driving plan producing device and method, and navigation apparatus
JP2004086189A (en) Music search system
US9922631B2 (en) Car karaoke
US9959089B2 (en) Mobile audio player with individualized radio program
JP2005300772A (en) Musical piece information introduction system
US20180197532A1 (en) Audio content censoring in vehicle infotainment system
KR20040077784A (en) Music retrieval system for joining in with the retrieved piece of music
JP2001356779A (en) Music data distributing method
JP2002311986A (en) Navigator
JP2004347959A (en) Music reproducing device, distribution server, control method of music reproducing device, control program and recording medium
JP2004348895A (en) Onboard reproducing device and its control method, and control program and recording medium
JP2007164497A (en) Preference estimation apparatus and controller
JP2007334685A (en) Content retrieval device and content retrieval method, and program
JP2006293697A5 (en)
JP2007094751A (en) Agent system, information provision device and terminal device
JP6858567B2 (en) Information output device and information output method
JP4793243B2 (en) Music playback device, music playback method, and program
JP2006276560A (en) Music playback device and music playback method
JP2004342189A (en) Audio playback device and audio playback method
JP2006221314A (en) Reproduction controller and reproduction control method
JP2005167866A (en) Apparatus and method of recording data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090602