JP7538581B1 - Voice generation device, voice generation system, and computer program - Google Patents
Voice generation device, voice generation system, and computer program Download PDFInfo
- Publication number
- JP7538581B1 JP7538581B1 JP2024534764A JP2024534764A JP7538581B1 JP 7538581 B1 JP7538581 B1 JP 7538581B1 JP 2024534764 A JP2024534764 A JP 2024534764A JP 2024534764 A JP2024534764 A JP 2024534764A JP 7538581 B1 JP7538581 B1 JP 7538581B1
- Authority
- JP
- Japan
- Prior art keywords
- sound
- information storage
- data
- sound information
- code
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Devices For Supply Of Signal Current (AREA)
Abstract
入力された文字データや記号データ及びこれらの組み合わせに対してリズムの変化を有する音声フレーズを生成し、当該音声フレーズに種々のコンテンツデータを関連付けて提供することコンテンツデータが入力されると、対応する音声データを生成する音声生成装置であって、以下の構成を備えることを特徴とする音声生成装置。1音を構成する音名コードに対応する第一の音属性コード、複数音を構成する音名コードに対応する第二の音属性コード及び第三の音属性コードの少なくとも一方にコンテンツデータを関連付けてパケットデータを生成する。前記パケットデータに対応する前記音名コードで構成される前記音声データを生成する処理を行う。A voice generation device that generates voice phrases having rhythmic changes for input character data, symbol data, and combinations thereof, and associates various content data with the voice phrases and provides them.When content data is input, the voice generation device generates corresponding voice data, the voice generation device being characterized by having the following configuration:Generates packet data by associating content data with at least one of a first note attribute code corresponding to a pitch name code constituting one tone, and a second note attribute code and a third note attribute code corresponding to pitch name codes constituting multiple tones.Performs processing to generate the voice data composed of the pitch name code corresponding to the packet data.
Description
この発明は、音声生成装置、音声生成システム及びコンピュータプログラムに関する。 The present invention relates to a voice generation device, a voice generation system and a computer program.
今日の情報通信社会において、入力した文字情報を所定の言語体系で音声出力する音声変換方法や、特定の情報に対して、当該特定の情報であると識別することができる固有の表現生成方法等が種々提案されている。 In today's information and communications society, various methods have been proposed, such as speech conversion methods that output input text information as speech in a specified language system, and methods for generating unique expressions that can identify specific information.
特許文献1には、発明者による音声生成装置、音声生成方法及びプログラムが提案されている。特許文献1によれば、日本語による文字データから、当該日本語の言語的意味を持った音楽フレーズを生成することができる。In
特許文献1で提案されている発明では、入力された日本語1文字に対して2音の音符コードを抽出して音声データを生成するため、当該音声データに係る音楽フレーズは全体としてリズムの変化がない平坦なものとなっている。そこで、所定のリズムを有する音楽フレーズを生成することが課題となっていた。In the invention proposed in
この発明は、入力された文字データや記号データ及びこれらの組み合わせに対してリズムの変化を有する音声フレーズを生成し、当該音声フレーズに種々のコンテンツデータを関連付けて提供することを目的とする。The object of this invention is to generate audio phrases with rhythmic changes for input character data, symbol data, and combinations thereof, and to provide the audio phrases by associating them with various content data.
[1]
コンテンツデータが入力されると、対応する音声データを生成する音声生成装置であって、
以下の構成を備えることを特徴とする音声生成装置。
(1)以下の構成で構築されるパケットデータが記憶手段に記憶されている。
(a)(n+2)個(n≧1)の音情報記憶スロットからなる(n+2)音1拍を一単位とする音情報記憶領域
(b)1音を構成する音名コードに対応する第一の音属性コードが、1番目の前記音情報記憶スロットに設定される。
(c)(n+2)個未満の複数音を構成する音名コードに対応する第二の音属性コードが、以下の条件で前記音情報記憶スロットに設定される。
(c1)前記1番目の音情報記憶スロットに設定される。
(c2)n=1の場合、2番目又は3番目の音情報記憶スロットに設定される。
(c3)n≧2の場合、偶数番目、奇数番目及び(n+2)番目の音情報記憶スロットの中から選択される一つの前記音情報記憶スロットに設定される。
(c4)n≧2の場合、さらに、偶数番目、奇数番目及び(n+2)番目の前記音情報記憶スロットの中から選択される複数の前記音情報記憶スロットの組み合わせに設定される。
(d)(n+2)個の音を構成する音名コードに対応する第三の音属性コードが、すべての前記音情報記憶スロットに設定される。
(2)以下の手順に従って、入力された前記コンテンツデータに対応する(n+2)音1拍を一単位とする音声データを生成する音声生成手段
(a)入力された前記コンテンツデータを前記第一の音属性コード、前記第二の音属性コード及び前記第三の音属性コードの少なくとも一方と関連付けて前記パケットデータを生成する処理を行う。
(b)前記パケットデータに対応する前記音名コードで構成される前記音声データを生成する処理を行う。
[1]
A voice generating device that, when content data is input, generates corresponding voice data,
A voice generating device comprising the following configuration.
(1) Packet data constructed as follows is stored in a storage means.
(a) a sound information storage area consisting of (n+2) (n≧1) sound information storage slots, with one (n+2) sound beat being one unit; (b) a first sound attribute code corresponding to a pitch name code constituting one sound is set in the first sound information storage slot.
(c) A second note attribute code corresponding to a note name code constituting a plurality of notes less than (n+2) is set in the note information storage slot under the following conditions:
(c1) It is set in the first sound information storage slot.
(c2) When n=1, the second or third sound information storage slot is set.
(c3) In the case where n≧2, it is set to one of the sound information storage slots selected from the even-numbered, odd-numbered, and (n+2)-th sound information storage slots.
(c4) In the case where n≧2, it is further set to a combination of a plurality of the sound information storage slots selected from the even-numbered, odd-numbered and (n+2)-th sound information storage slots.
(d) A third note attribute code corresponding to a note name code constituting the (n+2) notes is set in all of the note information storage slots.
(2) A sound generation means for generating sound data in which one unit of (n+2) sound beats corresponds to the input content data, according to the following procedure: (a) A process for generating the packet data by associating the input content data with at least one of the first sound attribute code, the second sound attribute code, and the third sound attribute code.
(b) performing a process of generating the voice data composed of the pitch name code corresponding to the packet data;
[2]
コンテンツデータが入力されると、対応する音声データを生成する音声生成装置と、前記音声データを前記音声生成装置から受信する受信端末と、を備える音声生成システムであって、
以下の構成を備えることを特徴とする音声生成システム。
(1)前記音声生成装置は、以下の構成で構築されるパケットデータを記憶している記憶手段を備えている。
(a)(n+2)個(n≧1)の音情報記憶スロットからなる(n+2)音1拍を一単位とする音情報記憶領域
(b)1音を構成する音名コードに対応する第一の音属性コードが、1番目の前記音情報記憶スロットに設定される。
(c)(n+2)個未満の複数音を構成する音名コードに対応する第二の音属性コードが、以下の条件で前記音情報記憶スロットに設定される。
(c1)前記1番目の音情報記憶スロットに設定される。
(c2)n=1の場合、2番目又は3番目の音情報記憶スロットに設定される。
(c3)n≧2の場合、偶数番目、奇数番目及び(n+2)番目の音情報記憶スロットの中から選択される一つの前記音情報記憶スロットに設定される。
(c4)n≧2の場合、さらに、偶数番目、奇数番目及び(n+2)番目の前記音情報記憶スロットの中から選択される複数の前記音情報記憶スロットの組み合わせに設定される。
(d)(n+2)個の音を構成する音名コードに対応する第三の音属性コードが、すべての前記音情報記憶スロットに設定される。
(2)前記音声生成装置は、以下の手順に従って、入力された前記コンテンツデータに対応する(n+2)音1拍を一単位とする音声データを生成する音声生成手段を備えている。
(a)入力された前記コンテンツデータを前記第一の音属性コード、前記第二の音属性コード及び前記第三の音属性コードの少なくとも一方と関連付けて前記パケットデータを生成する処理を行う。
(b)前記パケットデータに対応する前記音名コードで構成される前記音声データを生成する処理を行う。
(3)前記音声生成装置は、前記生成された音声データを出力する音声データ出力手段を備える。
(4)前記受信端末は、前記生成された音声データを、前記コンテンツデータに変換するデータ変換手段を備える。
[2]
A voice generation system including: a voice generation device that generates corresponding voice data when content data is input; and a receiving terminal that receives the voice data from the voice generation device,
1. A voice generation system comprising the following configuration.
(1) The voice generating device includes a storage means for storing packet data constructed as follows:
(a) a sound information storage area consisting of (n+2) (n≧1) sound information storage slots, with one (n+2) sound beat being one unit; (b) a first sound attribute code corresponding to a pitch name code constituting one sound is set in the first sound information storage slot.
(c) A second note attribute code corresponding to a note name code constituting a plurality of notes less than (n+2) is set in the note information storage slot under the following conditions:
(c1) It is set in the first sound information storage slot.
(c2) When n=1, the second or third sound information storage slot is set.
(c3) In the case where n≧2, it is set to one of the sound information storage slots selected from the even-numbered, odd-numbered, and (n+2)-th sound information storage slots.
(c4) In the case where n≧2, it is further set to a combination of a plurality of the sound information storage slots selected from the even-numbered, odd-numbered and (n+2)-th sound information storage slots.
(d) A third note attribute code corresponding to a note name code constituting the (n+2) notes is set in all of the note information storage slots.
(2) The sound generating device includes a sound generating means for generating sound data with (n+2) sound beats as one unit, which corresponds to the input content data, according to the following procedure.
(a) performing a process of generating the packet data by associating the input content data with at least one of the first sound attribute code, the second sound attribute code, and the third sound attribute code;
(b) performing a process of generating the voice data composed of the pitch name code corresponding to the packet data;
(3) The voice generating device includes a voice data output unit that outputs the generated voice data.
(4) The receiving terminal includes a data conversion means for converting the generated voice data into the content data.
この発明によれば、入力された文字データや記号データ及びこれらの組み合わせに対してリズムの変化を有する音声フレーズを生成し、当該音声フレーズに種々のコンテンツデータを関連付けて提供することができる。 According to this invention, audio phrases having rhythmic changes can be generated for input character data, symbol data, and combinations thereof, and various content data can be associated with the audio phrases and provided.
以下、添付図面を参照して本発明の実施形態の一例を説明する。本実施形態の一態様である音声生成装置は、文字データ、記号データ、画像データ、映像データ又はこれらの組み合わせからなるコンテンツデータ(以下、「入力データ」ということがある。)に対応する音声データを生成する機器又はサーバである。An example of an embodiment of the present invention will now be described with reference to the accompanying drawings. The voice generation device, which is one aspect of this embodiment, is a device or server that generates voice data corresponding to content data (hereinafter sometimes referred to as "input data") consisting of character data, symbol data, image data, video data, or a combination of these.
本実施形態の音声生成装置による音声生成プロセスとしては以下の態様を例示できる。
・本実施形態の音声生成装置が入力データを受け付け、対応する音声データを生成及び出力する態様
・本実施形態の音声生成装置が入力データを受け付け、対応する音声データを生成し、当該音声データを受信端末である外部の出力機器又は装置に送信し出力させる態様
・外部の入力機器又は装置から入力データを本実施形態の音声生成装置が受信し、対応する音声データを生成及び出力する態様
・外部の入力機器又は装置から入力データを本実施形態の音声生成装置が受信し、対応する音声データを生成し、当該音声データを受信端末である外部の出力機器又は装置に送信し出力させる態様
本実施形態では、文字データには日本語のかな文字や他の言語体系の文字のデータが含まれ、記号データには、濁点、半濁点、長音、句読点、数字及びその他の記号のデータが含まれるものとして説明する。
The voice generation process by the voice generation device of this embodiment can be exemplified as follows.
- A mode in which the voice generation device of this embodiment accepts input data, and generates and outputs corresponding voice data.- A mode in which the voice generation device of this embodiment accepts input data, generates corresponding voice data, and transmits the voice data to an external output device or device that is a receiving terminal for output.- A mode in which the voice generation device of this embodiment receives input data from an external input device or device, and generates and outputs corresponding voice data.- A mode in which the voice generation device of this embodiment receives input data from an external input device or device, generates corresponding voice data, and transmits the voice data to an external output device or device that is a receiving terminal for output. In this embodiment, it is described that character data includes data for Japanese kana characters and characters in other language systems, and symbol data includes data for voiced consonants, handakuten consonants, long vowels, punctuation marks, numbers, and other symbols.
また、本実施形態には、この実施形態で説明する音声生成システムとしてコンピュータを機能させるコンピュータプログラムを含む。 This embodiment also includes a computer program that causes a computer to function as the voice generation system described in this embodiment.
本実施形態で説明する音声生成装置及び受信端末には本実施形態の音声生成システムによる音声生成サービスに係るアプリケーションソフトウェアがインストールされている。このアプリケーションソフトウェアを実行することで、入力データに対応する音声データを生成し出力すること及び音声データから入力データへの変換処理ができる。The voice generation device and receiving terminal described in this embodiment have application software installed related to the voice generation service provided by the voice generation system of this embodiment. By executing this application software, it is possible to generate and output voice data corresponding to input data, and to convert voice data into input data.
[音声生成装置]
本実施形態の音声生成装置1はパーソナルコンピュータ、スマートフォン、タブレット、等の端末機器や、ミュージックシーケンサー、MIDIコントローラ、シンセサイザー、ミュージックワークステーション、等のMIDIデータやオーディオデータを扱える電子機器や、サーバ装置である。
[Speech generating device]
The
ハードウェア構成として図1(a)に示すように、各種コンピュータプログラムの実行及び演算処理を行うCPU2、RAM、ROMといった各種データを記憶するメモリ3、内蔵ストレージ等の補助記憶装置4、MIDIケーブル等の有線接続や、インターネット通信網、無線通信規格で定められている無線通信網によるネットワーク接続、等の通信手段を介して外部の入力機器及び出力機器との間で各種情報を送受信する通信モジュール5、マウス、キーボード、タッチパネル等の入力装置6及び液晶ディスプレイ、スピーカ等の出力装置7を備えている。As shown in FIG. 1(a), the hardware configuration includes a
また、音声生成装置1はソフトウェア構成として図1(b)に示すように、データ入力部101、データ受信部102、記憶部103、音声データ生成部105及び音声データ出力部106を備えている。CPU2及びメモリ3等が協働することでこれらの処理部による情報処理が制御される。
As shown in Fig. 1(b), the software configuration of the
データ入力部101は、例えば事業者等のデータ入力者が音声生成装置1を上記端末機器や電子機器として使用する際に、コンテンツデータの入力ウインドウを表示画面に表示し、入力データを受け付ける処理を行う。
When a data inputter, such as a business operator, uses the
データ受信部102は、上述した外部の入力機器又は装置から送信される入力データを受信する処理を行う。なお、上記外部の入力機器又は装置は、パーソナルコンピュータ、スマートフォン、タブレット、等の端末機器や、ミュージックシーケンサー、MIDIコントローラ、シンセサイザー、ミュージックワークステーション、等のMIDIデータやオーディオデータを扱える電子機器である。The
記憶部103には、パケットデータ17が記憶されている。本実施形態のパケットデータ17は、(n+2)個(n≧1)の音情報記憶スロットからなる(n+2)音1拍を一単位とする音情報記憶領域を備えている。パケットデータ17の構成例を以下に示す。The
(パケットデータの構成例1)
図2に示すn=1の例では、パケットデータ17は、3つの音情報記憶スロット10a、10b、10cからなる3音1拍を一単位とする音情報記憶領域9を備えている。
(Packet Data Configuration Example 1)
In the example of n=1 shown in FIG. 2, the
一番目の音情報記憶スロット10aには、図3(a)に示すような1音マトリクス11aが設定されている。
The first sound
1音マトリクス11aは、1音に対応する変換コード12を10通り設定可能なマトリクスとなっている。図2(b)、(c)及び図3(a)に示すように、一番目の音情報記憶スロット10aに、1音に対応する第一の音属性コード(1音属性コード)13を0から9の10種類の変換コード12を用いて10通り設定することができる。以下、変換コード12が設定されていない音情報記憶スロット10には休符を表す休符コードが設定される。
The one-
第一の音属性コード13に音名コード16が関連付けられる。例えば図2(d)に示すように、一番目の音情報記憶スロット10aに設定されている第一の音属性コード13「0」に音名「ド(C)」を表す音名コード16が関連付けられる。A
一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bの組み合わせ又は一番目の音情報記憶スロット10aと三番目の音情報記憶スロット10cの組み合わせには、図3(b)に示すような2音マトリクス11bが設定されている。
For the combination of the first sound
2音マトリクス11bは、2音に対応する変換コード12を200通り設定可能なマトリクスとなっている。図2(b)、(c)及び図3(b)に示すように、一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bの組み合わせ及び一番目の音情報記憶スロット10aと三番目の音情報記憶スロット10cの組み合わせに、2音に対応する第二の音属性コード(2音属性コード)14を0から9の10種類の変換コード12を用いて200通り設定することができる。The two-
第二の音属性コード14に音名コード16が関連付けられる。例えば図2(d)に示すように、一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bの組み合わせに設定されている第二の音属性コード14「24」に音名「ミソ(EG)」を表す二つの音名コード16が関連付けられる。A
一番目の音情報記憶スロット10a、二番目の音情報記憶スロット10b及び三番目の音情報記憶スロット10cの組み合わせには、図3(c)に示すような3音マトリクス11cが設定されている。
A three-
3音マトリクス11cは、3音に対応する変換コード12を1000通り設定可能なマトリクスとなっている。図2(b)、(c)及び図3(c)に示すように、一番目の音情報記憶スロット10a、二番目の音情報記憶スロット10b及び三番目の音情報記憶スロット10cの組み合わせに、3音を表す第三の音属性コード(3音属性コード)15を0から9の10種類の変換コード12を用いて1000通り設定することができる。
The three-
第三の音属性コード15に音名コード16が関連付けられる。例えば図2(d)に示すように、一番目の音情報記憶スロット10a、二番目の音情報記憶スロット10b及び三番目の音情報記憶スロット10cの組み合わせに設定されている第三の音属性コード15「015」に音名「ドレラ(CDA)」を表す三つの音名コード16が関連付けられる。A
上記第一の音属性コード13、第二の音属性コード14及び第三の音属性コード15の少なくとも一方にコンテンツデータが関連付けられたパケットデータ17が記憶部103に記憶される。
以上から、n=1の場合、パケットデータ17は以下の構成で構築され、1210種類のコンテンツデータを設定することができる。
(a)3つの音情報記憶スロット10からなる3音1拍を一単位とする音情報記憶領域9
(b)1音を構成する音名コードに対応する第一の音属性コード13が、1番目の音情報記憶スロット10aに設定される。
(c)2音を構成する音名コードに対応する第二の音属性コード14が、以下の音情報記憶スロット10に設定される。
(c1)1番目の音情報記憶スロット10a
(c2)2番目の音情報記憶スロット10b又は3番目の音情報記憶スロット10c
(d)3音を構成する音名コードに対応する第三の音属性コード15が、音情報記憶スロット10a、10b、10cに設定される。
From the above, when n=1, the
(a) A sound
(b) A first
(c) A second
(c1) First sound
(c2) The second sound
(d) A third
(パケットデータの構成例2)
図4に示すn=2の例では、パケットデータ17は、4つの音情報記憶スロット10からなる4音1拍を一単位とする音情報記憶領域9を備えている。
(Packet Data Configuration Example 2)
In the example of n=2 shown in FIG. 4, the
一番目の音情報記憶スロット10aには、図5(a)に示すような1音マトリクス11aが設定されている。
The first sound
1音マトリクス11aは、1音に対応する変換コード12を10通り設定可能なマトリクスとなっている。図4(b)、(c)及び図5(a)に示すように、一番目の音情報記憶スロット10aに、1音に対応する第一の音属性コード(1音属性コード)13を0から9の10種類の変換コード12を用いて10通り設定することができる。
The one-
第一の音属性コード13に音名コード16が関連付けられる。例えば図4(d)に示すように、一番目の音情報記憶スロット10aに設定されている第一の音属性コード13「0」に音名「ド(C)」を表す音名コード16が関連付けられる。A
一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bの組み合わせ、一番目の音情報記憶スロット10aと三番目の音情報記憶スロット10cの組み合わせ又は一番目の音情報記憶スロット10aと四番目の音情報記憶スロット10dの組み合わせには、それぞれ図5(b)に示すような2音マトリクス11bが設定されている。
For the combination of the first sound
2音マトリクス11bは、2音に対応する変換コード12を300通り設定可能なマトリクスとなっている。図4(b)、(c)及び図5(b)に示すように、一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bの組み合わせ、一番目の音情報記憶スロット10aと三番目の音情報記憶スロット10cの組み合わせ及び一番目の音情報記憶スロット10aと四番目の音情報記憶スロット10dの組み合わせに、2音に対応する第二の音属性コード(2音属性コード)14aを0から9の10種類の変換コード12を用いて300通り設定することができる。
The two-
第二の音属性コード14aに音名コード16が関連付けられる。例えば図4(d)に示すように、一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bの組み合わせに設定されている第二の音属性コード14a「24」に音名「ミソ(EG)」を表す二つの音名コード16が関連付けられる。The second
一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bと三番目の音情報記憶スロット10cの組み合わせ、一番目の音情報記憶スロット10aと三番目の音情報記憶スロット10cと四番目の音情報記憶スロット10dの組み合わせ又は一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10b及び四番目の音情報記憶スロット10dには、それぞれ図5(c)に示すような3音マトリクス11cが設定されている。
A three-
3音マトリクス11cは、3音に対応する変換コード12を3000通り設定可能なマトリクスとなっている。例えば図4(b)、(c)及び図5(c)に示すように、一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bと三番目の音情報記憶スロット10cの組み合わせ、一番目の音情報記憶スロット10aと三番目の音情報記憶スロット10cと四番目の音情報記憶スロット10dの組み合わせ及び一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bと四番目の音情報記憶スロット10dの組み合わせに、3音に対応する第二の音属性コード(3音属性コード)14bを0から9の10種類の変換コード12を用いて3000通り設定することができる。
The three-
第二の音属性コード14bに音名コード16が関連付けられる。例えば図4(d)に示すように、一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bと三番目の音情報記憶スロット10cの組み合わせに設定されている第二の音属性コード14b「015」に音名「ドレラ(CDA)」を表す三つの音名コード16が関連付けられる。
The second
一番目の音情報記憶スロット10a、二番目の音情報記憶スロット10b、三番目の音情報記憶スロット10c及び四番目の音情報記憶スロット10dの組み合わせには、図5(d)に示すような4音マトリクス11dが設定されている。
A four-
4音マトリクス11dは、4音に対応する変換コード12を10000通り設定可能なマトリクスとなっている。図4(b)、(c)及び図5(d)に示すように、一番目の音情報記憶スロット10a、二番目の音情報記憶スロット10b、三番目の音情報記憶スロット10c及び四番目の音情報記憶スロット10dの組み合わせに、4音に対応する第三の音属性コード(4音属性コード)15を0から9の10種類の変換コード12を用いて10000通り設定することができる。
The four-
第三の音属性コード15に音名コード16が関連付けられる。例えば、図4(d)に示すように、一番目の音情報記憶スロット10a、二番目の音情報記憶スロット10b、三番目の音情報記憶スロット10c及び四番目の音情報記憶スロット10dの組み合わせに設定されている第三の音属性コード15「0153」に音名「ドレラファ(CDAF)」を表す4つの音名コード16が関連付けられる。A
上記第一の音属性コード13、第二の音属性コード14a、14b及び第三の音属性コード15の少なくとも一方にコンテンツデータが関連付けられたパケットデータ17が記憶部103に記憶される。
以上から、n=2の場合、パケットデータ17は以下の構成で構築され、13310種類のコンテンツデータを設定することができる。
(a)4つの音情報記憶スロット10からなる4音1拍を一単位とする音情報記憶領域9
(b)1音を構成する音名コードに対応する第一の音属性コード13が、1番目の音情報記憶スロット10aに設定される。
(c)2音及び3音を構成する音名コードに対応する第二の音属性コード14a、14bが、以下の音情報記憶スロット10に設定される。
(c1)1番目の音情報記憶スロット10a
(c2)2番目(偶数番目)の音情報記憶スロット10b又は3番目(奇数番目)の音情報記憶スロット10c
(c3)2番目(偶数番目)の音情報記憶スロット10b、3番目(奇数番目)の音情報記憶スロット10c及び4番目((n+2)番目)の音情報記憶スロット10dの中から選択される複数の音情報記憶スロット10
(d)4音を構成する音名コードに対応する第三の音属性コード15が、音情報記憶スロット10a、10b、10c、10dに設定される。
From the above, when n=2, the
(a) A sound
(b) A first
(c) Second
(c1) First sound
(c2) The second (even-numbered) sound
(c3) A plurality of sound information storage slots 10 selected from the second (even-numbered) sound
(d) The third
また、パケットデータの構成例1及び構成例2から、n≧2の場合、パケットデータ17は以下の構成で構築されることとなる。
(a)(n+2)個の音情報記憶スロット10からなる(n+2)音1拍を一単位とする音情報記憶領域9
(b)1音を構成する音名コードに対応する第一の音属性コード13が、1番目の音情報記憶スロット10aに設定される。
(c)(n+2)個未満の複数音を構成する音名コードに対応する第二の音属性コード14が、以下の音情報記憶スロット10に設定される。
(c1)1番目の音情報記憶スロット10a
(c2)偶数番目の音情報記憶スロット10、奇数番目の音情報記憶スロット10及び(n+2)番目の音情報記憶スロット10の中から選択される一つの音情報記憶スロット10
(c3)上記(c2)のほか、偶数番目の音情報記憶スロット10、奇数番目の音情報記憶スロット10及び(n+2)番目の音情報記憶スロット10の中から選択される複数の音情報記憶スロット10の組み合わせ
(d)(n+2)音を構成する音名コードに対応する第三の音属性コード15が、すべての音情報記憶スロット10に設定される。
Moreover, from the packet data configuration examples 1 and 2, when n≧2, the
(a) A sound
(b) A first
(c) A second
(c1) First sound
(c2) One sound information storage slot 10 selected from the even-numbered sound information storage slots 10, the odd-numbered sound information storage slots 10, and the (n+2)-th sound information storage slot 10
(c3) In addition to the above (c2), a combination of a plurality of sound information storage slots 10 selected from an even-numbered sound information storage slot 10, an odd-numbered sound information storage slot 10, and an (n+2)-th sound information storage slot 10. (d) A third
(パケットデータの構成例3)
図6-図8に示す例では、パケットデータ17は、4つの音情報記憶スロット10からなる4音1拍を一単位とする音情報記憶領域9を備えている。
(Packet Data Configuration Example 3)
In the example shown in FIG. 6 to FIG. 8, the
一番目の音情報記憶スロット10aには、1音マトリクス11aが設定されている。
A one-
1音マトリクス11aは、1音に対応する変換コード12を25通り設定可能なマトリクスとなっている。具体的には、一番目の音情報記憶スロット10aに、1音に対応する第一の音属性コード(1音属性コード)13を図6(b)に示す25種類の変換コード12を用いて25通り設定することができる。The one-
また、第一の音属性コード13が設定されたパケットデータ17には、図7に示すようにパターンコード20「a」が付与される。パターンコード20は第一の音属性コード13、第二の音属性コード14及び第三の音属性コード15の4つの音情報記憶スロット10への設定パターンを表す。
In addition, the
第一の音属性コード13は、図7に示すように一番目の音情報記憶スロット10aに設定されるので、パターンコード20は1種類となる。
The first
第一の音属性コード13に音名コード16が関連付けられる。例えば図6(b)及び図7に示すように、一番目の音情報記憶スロット10aに設定されている第一の音属性コード13「1」に音名「ド(C)」を表す音名コード16が関連付けられる。A
一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bの組み合わせ、一番目の音情報記憶スロット10aと三番目の音情報記憶スロット10cの組み合わせ又は一番目の音情報記憶スロット10aと四番目の音情報記憶スロット10dの組み合わせには、2音マトリクス11bが設定されている。A two-
2音マトリクス11bは、2音に対応する変換コード12を1875通り設定可能なマトリクスとなっている。具体的には、一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bの組み合わせ、一番目の音情報記憶スロット10aと三番目の音情報記憶スロット10cの組み合わせ及び一番目の音情報記憶スロット10aと四番目の音情報記憶スロット10dの組み合わせに、2音に対応する第二の音属性コード(2音属性コード)14aを図6(b)に示す25種類の変換コード12を用いて1875(625×3)通り設定することができる。The two-
また、第二の音属性コード14aが設定されたパケットデータ17には、図7に示すようにパターンコード20「b」、「c」、「d」の何れかが付与される。
In addition,
第二の音属性コード14aは、図7に示すように一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bの組み合わせ、一番目の音情報記憶スロット10aと三番目の音情報記憶スロット10cの組み合わせ又は一番目の音情報記憶スロット10aと四番目の音情報記憶スロット10dの組み合わせに設定されるので、パターンコード20は3種類となる。
The second
第二の音属性コード14aに音名コード16が関連付けられる。例えば図6(b)及び図7に示すように、一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bの組み合わせに設定されている第二の音属性コード14a「12」に音名「ドド#(CC#)」を表す二つの音名コード16が関連付けられる。
The second
一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bと三番目の音情報記憶スロット10cの組み合わせ、一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10b及び四番目の音情報記憶スロット10d又は一番目の音情報記憶スロット10aと三番目の音情報記憶スロット10cと四番目の音情報記憶スロット10dの組み合わせには、3音マトリクス11cが設定されている。A three-
3音マトリクス11cは、3音に対応する変換コード12を46875通り設定可能なマトリクスとなっている。具体的には、一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bと三番目の音情報記憶スロット10cの組み合わせ、一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bと四番目の音情報記憶スロット10dの組み合わせ及び一番目の音情報記憶スロット10aと三番目の音情報記憶スロット10cと四番目の音情報記憶スロット10dの組み合わせに、3音に対応する第二の音属性コード(3音属性コード)14bを図6(b)に示す25種類の変換コード12を用いて46875(15625×3)通り設定することができる。
The three-
また、第二の音属性コード14bが設定されたパケットデータ17には、図7に示すようにパターンコード20「e」、「f」、「g」の何れかが付与される。
In addition,
第二の音属性コード14bは、図7に示すように一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bと三番目の音情報記憶スロット10cの組み合わせ、一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bと四番目の音情報記憶スロット10dの組み合わせ又は一番目の音情報記憶スロット10aと三番目の音情報記憶スロット10c及び四番目の音情報記憶スロット10dの組み合わせに設定されるので、パターンコード20は3種類となる。
The second
第二の音属性コード14bに音名コード16が関連付けられる。例えば図6(b)及び図7に示すように、一番目の音情報記憶スロット10aと二番目の音情報記憶スロット10bと三番目の音情報記憶スロット10cの組み合わせに設定されている第二の音属性コード14b「123」に音名「ドド#レ(CC#D)」を表す三つの音名コード16が関連付けられる。
The second
一番目の音情報記憶スロット10a、二番目の音情報記憶スロット10b、三番目の音情報記憶スロット10c及び四番目の音情報記憶スロット10dの組み合わせには、4音マトリクス11dが設定されている。
A four-
4音マトリクス11dは、4音に対応する変換コード12を390625通り設定可能なマトリクスとなっている。具体的には、一番目の音情報記憶スロット10a、二番目の音情報記憶スロット10b、三番目の音情報記憶スロット10c及び四番目の音情報記憶スロット10dの組み合わせに、4音に対応する第三の音属性コード(4音属性コード)15を図6(b)に示す25種類の変換コード12を用いて390625通り設定することができる。The four-
第三の音属性コード15に音名コード16が関連付けられる。例えば、図6(b)及び図7に示すように、一番目の音情報記憶スロット10a、二番目の音情報記憶スロット10b、三番目の音情報記憶スロット10c及び四番目の音情報記憶スロット10dの組み合わせに設定されている第三の音属性コード15「1234」に音名「ドド#レレ#(CC#DD#」を表す4つの音名コード16が関連付けられる。
A
また、第三の音属性コード15が設定されたパケットデータ17には、図7に示すようにパターンコード20「h」が付与される。
In addition,
第三の音属性コード15は、図7に示すように一番目の音情報記憶スロット10a、二番目の音情報記憶スロット10b、三番目の音情報記憶スロット10c及び四番目の音情報記憶スロット10dの組み合わせに設定されるので、パターンコード20は1種類となる。
The third
上記第一の音属性コード13、第二の音属性コード14a、14b及び第三の音属性コード15の少なくとも一方にコンテンツデータが関連付けられたパケットデータ17が記憶部103に記憶される。この構成例のパケットデータ17では、439400種類のコンテンツデータを設定することができる。
また、この構成例では、パターンコード20と第一の音属性コード13の組み合わせ、パターンコード20と第二の音属性コード14a、14bの組み合わせ又はパターンコード20と第三の音属性コード15の組み合わせにフレーズコード21が付与され、複数のフレーズコード21がサウンドID22として設定されている。
In addition, in this configuration example, a
図8に示す例では、3つのフレーズコード21をサウンドID22として設定している。これにより、フレーズコード21の数と音名コード16が固定された特定のメロディをサウンドID22として設定することができる。In the example shown in Figure 8, three
(パケットデータの構成例4)
この構成例では、上記構成例1から構成例3で説明したパケットデータに係る音情報記憶領域に、別のパケットデータに係る音声情報記憶領域が設定されている。
(Packet Data Configuration Example 4)
In this configuration example, a voice information storage area relating to another packet data is set in the sound information storage area relating to the packet data described in the above configuration examples 1 to 3.
図9に示す例では、1音マトリクス11a、2音マトリクス11b及び3音マトリクス11cが設定されている音情報記憶領域9を備える3つのパケットデータ17a、17b、17cが階層化されている。図9では、以下の階層構造が形成されている。
・パケットデータ17aに係る音情報記憶領域9aの各音情報記憶スロット10に、パケットデータ17bに係る音情報記憶領域9bが設定されている。
・パケットデータ17bに係る音情報記憶領域9bの各音情報記憶スロット10に、パケットデータ17cに係る音情報記憶領域9cが設定されている。
In the example shown in Fig. 9, three
A sound
A sound
このような構成によりメロディによる情報のツリー化、情報のインデックス化が可能となる。 This type of structure makes it possible to organize information into a tree by melody and index the information.
上記と同様の効果が得られるのであれば、1音マトリクス11a、2音マトリクス11b、3音マトリクス11c及び4音マトリクス11dが設定されている音情報記憶領域9を備える4つのパケットデータ17a、17b、17c、17dを階層化してもよい。この場合、以下の階層構造が形成される。
・パケットデータ17aに係る音情報記憶領域9aの各音情報記憶スロット10に、パケットデータ17bに係る音情報記憶領域9bが設定される。
・パケットデータ17bに係る音情報記憶領域9bの各音情報記憶スロット10に、パケットデータ17cに係る音情報記憶領域9cが設定される。
・パケットデータ17cに係る音情報記憶領域9cの各音情報記憶スロット10に、パケットデータ17dに係る音情報記憶領域9dが設定される。
If the same effect as above can be obtained, the four
A sound
A sound
A sound information storage area 9d related to packet data 17d is set in each sound information storage slot 10 of the sound
音声データ生成部105は、入力データに対応する音声データを生成する処理を行う。本実施形態では以下のように入力データを処理して音声データを生成する。The voice
(1)パケットデータ17が、上記パケットデータの構成例1で説明した1音マトリクス11a、2音マトリクス11b及び3音マトリクス11cで構成されている場合、入力データは第一の音属性コード13、第二の音属性コード14及び第三の音属性コード15の少なくとも一方と関連付けられる。
(1) When
例えば、図10に示すように、文字データ「Thank you」が入力された場合、以下の処理が行われる。For example, as shown in Figure 10, when the character data "Thank you" is input, the following processing is performed.
(a1)文字データ「T」、「n」及び「o」がそれぞれパケットデータ17の一番目の音情報記憶スロット10aに割り当てられ、1音に対応する第一の音属性コード13「0」、「6」及び「2」と関連付けられる。
(a1) The character data "T", "n" and "o" are each assigned to the first sound
(a2)文字データ「h」、「k」及び「u」がそれぞれパケットデータ17の一番目の音情報記憶スロット10a及び二番目の音情報記憶スロット10bに割り当てられ、2音に対応する第二の音属性コード14「12」、「78」及び「34」と関連付けられる。
(a2) The character data "h", "k" and "u" are assigned to the first sound
(a3)文字データ「a」及び「y」がそれぞれパケットデータ17の一番目の音情報記憶スロット10a、二番目の音情報記憶スロット10b及び三番目の音情報記憶スロット10cに割り当てられ、3音に対応する第三の音属性コード15「345」及び「901」と関連付けられる。
上記のほか、以下の処理を行うことができる。
(a3) The character data "a" and "y" are assigned to the first sound
In addition to the above, the following processing can be performed.
(b1)一番目、四番目、七番目のパケットデータ17の一番目の音情報記憶スロット10aに、それぞれ1音に対応する第一の音属性コード13「0」、「6」及び「2」が設定される。(b1) The first
(b2)二番目、五番目、八番目のパケットデータ17の一番目の音情報記憶スロット10a及び二番目の音情報記憶スロット10bに、それぞれ2音に対応する第二の音属性コード14「12」、「78」及び「34」が設定される。
(b2) The second
(b3)三番目、六番目のパケットデータ17の一番目の音情報記憶スロット10a、二番目の音情報記憶スロット10b及び三番目の音情報記憶スロット10cに、それぞれ3音に対応する第三の音属性コード15「345」及び「901」が設定される。
(b3) A third
(b4)第一の音属性コード13、第二の音属性コード14及び第三の音属性コード15の組み合わせ「0 12 345 6 78 901 2 34」に「Thank you」が関連付けられる。
(b4) "Thank you" is associated with the combination "0 12 345 6 78 901 2 34" of the first
音声データ生成部105は、上記関連付けられた音属性コードで構成される一乃至複数の音声データを生成する処理を行う。The audio
例えば、図2(b)及び図10に示すように、第一の音属性コード13「0」、「6」、「2」に対応する「C(ド)」、「B(シ)」、「E(ミ)」と、第二の音属性コード14「12」、「78」、「34」に対応する「DE(レミ)」、「C2D2(ド2レ2)」、「FG(ファソ)」と、第三の音属性コード15「345」、「901」に対応する「FGA(ファソラ)」、「E2CD(ミ2ドレ)」を表す音名コード16で構成される3音1拍で8フレーズの音声データ19を生成する処理を行う。For example, as shown in Figures 2(b) and 10, processing is performed to generate eight phrases of
(2)パケットデータ17が、上記パケットデータの構成例3で説明した1音マトリクス11a、2音マトリクス11b、3音マトリクス11c及び4音マトリクス11dで構成され、上記パケットデータの構成例4で説明したパケットデータに係る音情報記憶領域の各音情報記憶スロット10に、別のパケットデータに係る音声情報記憶領域が設定されている場合、入力データは、階層化されている音情報記憶領域の第一の音属性コード13、第二の音属性コード14及び第三の音属性コード15の少なくとも一方と関連付けられる。(2) When
図11に示す例では、1音マトリクス11a、2音マトリクス11b、3音マトリクス11c及び4音マトリクス11dが設定されている音情報記憶領域9を備える2つのパケットデータ17a、17bが階層化されている。第一階層目のパケットデータ17aに係る音情報記憶領域9aの音情報記憶スロット10aに、第二階層目のパケットデータ17bに係る音情報記憶領域9bが設定されている。In the example shown in Figure 11, two
また、第一階層目の各パケットデータ17aには図7に示すパターンコード20「g」、「b」、「h」及びフレーズコード21「g359」、「b13」、「hKMNW」が付与され、3つのフレーズコード21をサウンドID22として設定している。さらに、第二階層目のパケットデータ17bには図7に示すパターンコード20「d」及びフレーズコード21「d4P」が付与されている。
Moreover, each
この場合において、例えばローマ字及び記号の組み合わせで構成される所定のWebサイトのアドレスや、商品へのリンク先のアドレスが入力されると、以下の処理が行われる。In this case, when the address of a specific website consisting of a combination of Roman letters and symbols, or the address of a link to a product, is entered, the following processing is carried out.
(a1)Webサイトのアドレスのうち、文字データ「www.」の部分が第一階層目の一番目のパケットデータ17aの一番目の音情報記憶スロット10a、三番目の音情報記憶スロット10c及び四番目の音情報記憶スロット10dに割り当てられ、3音に対応する第二の音属性コード14b「359」と関連付けられる。
(a1) Of the website address, the character data "www." is assigned to the first sound
(a2)Webサイトのアドレスのうち、文字データ「XYZ.」の部分が第一階層目の二番目のパケットデータ17aの一番目の音情報記憶スロット10a及び二番目の音情報記憶スロット10bに割り当てられ、2音に対応する第二の音属性コード14a「13」と関連付けられる。
(a2) Of the website address, the character data "XYZ." portion is assigned to the first sound
(a3)Webサイトのアドレスのうち、文字データ「co.jp」の部分が第一階層目の三番目のパケットデータ17aの一番目の音情報記憶スロット10a、二番目の音情報記憶スロット10b、三番目の音情報記憶スロット10c及び四番目の音情報記憶スロット10dに割り当てられ、4音に対応する第三の音属性コード15「KMNW」と関連付けられる。
(a3) Of the website address, the character data "co.jp" portion is assigned to the first sound
(a4)HPからのリンク先となる商品情報のページのアドレスのうち、文字データ「/pro」の部分が第二階層目のパケットデータ17bの一番目の音情報記憶スロット10a及び四番目の音情報記憶スロット10dに割り当てられ、2音に対応する第二の音属性コード14a「4P」と関連付けられる。
上記のほか、以下の処理を行うことができる。
(a4) Of the address of the product information page that is the link destination from the HP, the character data portion "/pro" is assigned to the first sound
In addition to the above, the following processing can be performed.
(b1)第一階層目の第二の音属性コード14a、14b及び第三の音属性コード15の組み合わせ「359 13 KMNW」にWebサイトのアドレス「www.XYZ.co.jp」が関連付けられる。
(b1) The combination of second
(b2)第二階層目の第二の音属性コード14a「4P」に商品情報のページのアドレスのうち、文字データ「/pro」の部分が関連付けられる。
(b2) The second
音声データ生成部105は、上記関連付けられた音属性コードで構成される一乃至複数の音声データを生成する処理を行う。The audio
例えば、図6(b)及び図11に示すように、第二の音属性コード14b「359」に対応する「DEG#(レミソ#)」と、第二の音属性コード14a「13」に対応する「CD(ドレ)」と、第三の音属性コード15「KMNW」に対応する「ABC2A2(ラシド2ラ2)」を表す音名コード16で構成される4音1拍で3フレーズの音声データ19aと、第二の音属性コード14a「4P」に対応する「D#D2(レ#レ2)」を生成する処理を行う。
For example, as shown in FIG. 6B and FIG. 11, the process is performed to generate
図11の例では、ある事業者のHPを4音1拍で3フレーズのパケットデータ17aからなる音声データ19aで表し、これをサウンドID22として固定化している。また、リンク先となる商品情報のページを4音1拍で1フレーズのパケットデータ17bからなる音声データ19bで表し、これをサウンドID22に紐づけている。In the example of Figure 11, a company's website is represented by
そこで、図13に示すように、ある事業者XYZのHPを想起させる音声データ19をサウンドID22として設定し、上記HPからのリンク先となる種々のページを表す音声データ19をフレーズコード21として設定することで、情報を音声で階層化することができる。また、音声データ19をサウンドID22として設定することで特定の者を識別するサウンドのドメインが付与されたことになる。
As shown in Figure 13, by setting
音声データ出力部106は、音声データ生成部105が生成した音声データ19を音声で出力する処理を行う。なお、音声データ19を出力する際に入力データを表示画面に表示することもできる。The audio
[受信端末]
本実施形態の受信端末8はパーソナルコンピュータ、スマートフォン、タブレット、等の端末機器である。
[Receiving device]
The receiving
ハードウェア構成として図1(a)に示すように、各種コンピュータプログラムの実行及び演算処理を行うCPU2、RAM、ROMといった各種データを記憶するメモリ3、内蔵ストレージ等の補助記憶装置4、インターネット通信網、無線通信規格で定められている無線通信網によるネットワーク接続、等の通信手段を介して外部の音声生成装置1との間で各種情報を送受信する通信モジュール5、マウス、キーボード、タッチパネル、マイクロフォン等の入力装置6及び液晶ディスプレイ、スピーカ等の出力装置7を備えている。As shown in FIG. 1(a), the hardware configuration includes a
また、受信端末8はソフトウェア構成として図1(c)に示すように、データ受信部801、記憶部802及びデータ変換部803を備えている。CPU2及びメモリ3等が協働することでこれらの処理部による情報処理が制御される。
As shown in FIG. 1(c), the receiving
データ受信部801は、音声生成装置1から出力される音声データ19を受信する処理を行う。
The
記憶部802には、パケットデータ17が記憶されている。パケットデータ17の構成については音声生成装置1での説明と同様であるので省略する。
データ変換部803は、受信した音声データ19を音声生成装置1で入力されたコンテンツデータに変換する処理を行う。
The
The
例えば、音声データ19が図10に示す「C(ド)」、「DE(レミ)」、「FGA(ファソラ)」、「B(シ)」、「C2D2(ド2レ2)」、「E2CD(ミ2ドレ)」「E(ミ)」、「FG(ファソ)」、で構成される3音1拍で8フレーズの音声データ19の場合、各音の音名コード16に設定されている第一の音属性コード13「0」、「6」、「2」と、第二の音属性コード14「12」、「78」、「34」と、第三の音属性コード15「345」、「901」を判別し、各音属性コードが関連付けられている「Thank you」の文字データに変換する処理を行う。For example, in the case of
また、例えば、音声データ19が図11に示す「DEG#(レミソ#)」、「CD(ドレ)」、「ABC2A2(ラシド2ラ2)」、「D#D2(レ#レ2)」で構成される4音1拍で4フレーズの音声データ19a、19bの場合、パケットデータ17aに設定されているサウンドID22のフレーズコード21と、パケットデータ17bに付与されているフレーズコード21から各音の音名コード16に設定されている第二の音属性コード14b「359」と、第二の音属性コード14a「13」と、第三の音属性コード15「KMNW」と、第二の音属性コード14a「4P」を判別し、各音属性コードが関連付けられている「www.XYZ.co.jp」のページ内容に変換する処理を行う。
In addition, for example, in the case where the
これら変換された情報は、受信端末8のディスプレイに表示される。
The converted information is displayed on the display of the receiving
[音声生成システムによる処理フロー]
図11―図14を参照して、本実施形態の一態様である音声生成システムによる処理フローを説明する。この処理フローでは、一例としてコンビニエンスストアの所定の場所にタブレットである音声生成装置1が設置され、来店したユーザが所有する受信端末8であるスマートフォンで、音声生成装置1で生成された音声データを受信しコンテンツを表示する態様を説明する。また、パケットデータ17について、上記パケットデータの構成例3、4を組み合わせたものとして説明する。
[Processing flow by the voice generation system]
A process flow of the voice generation system according to one aspect of the present embodiment will be described with reference to Figures 11 to 14. In this process flow, as an example, a
(S101)
音声生成装置1では、データ受信部102は、上述した外部の入力機器又は装置から送信される入力データとして例えば、「16時から飲み物1割引き!」を内容とするXYZのHP、対象商品一覧ページ、対象商品の割引ページを受信する処理を行う。
(S101)
In the
(S102)
音声データ生成部105は以下の処理を行う。
図11に示すように、第一階層目の一番目のパケットデータ17aの一番目の音情報記憶スロット10a、三番目の音情報記憶スロット10c及び四番目の音情報記憶スロット10dに、3音に対応する第二の音属性コード14b「359」を設定する。
第一階層目の二番目のパケットデータ17aの一番目の音情報記憶スロット10a及び二番目の音情報記憶スロット10bに、2音に対応する第二の音属性コード14a「13」を設定する。
第一階層目の三番目のパケットデータ17aの一番目の音情報記憶スロット10a、二番目の音情報記憶スロット10b、三番目の音情報記憶スロット10c及び四番目の音情報記憶スロット10dに、4音に対応する第三の音属性コード15「KMNW」を設定する。
第一階層目の各パケットデータ17aに図7に示すパターンコード20「g」、「b」、「h」及びフレーズコード21「g359」、「b13」、「hKMNW」を付与し、3つのフレーズコード21をサウンドID22として設定する。
第一階層目の第二の音属性コード14a、14bと第三の音属性コード15の組み合わせ「359 13 KMNW」に、入力データ18aであるWebサイトのアドレス「www.XYZ.co.jp」を関連付ける。
図11に示すように、第二階層目のパケットデータ17bの一番目の音情報記憶スロット10a及び四番目の音情報記憶スロット10dに、2音に対応する第二の音属性コード14a「4P」を設定する。なお、第一階層目の一番目のパケットデータ17aの一番目の音情報記憶スロット10aに、第二階層目のパケットデータ17bに係る音情報記憶領域9bが設定されている。
第二階層目のパケットデータ17bに図7に示すパターンコード20「d」及びフレーズコード21「d4P」を付与し、このフレーズコード21をサウンドID22に紐づける。
第二階層目の第二の音属性コード14a「4P」に、入力データ18bであるHPからのリンク先となる対象商品一覧ページのアドレスのうち、文字データ「/pro」の部分を関連付ける。
図12に示すように、第三階層目のパケットデータ17cの一番目の音情報記憶スロット10a及び三番目の音情報記憶スロット10cに、2音に対応する第二の音属性コード14a「VK」を設定する。なお、第二階層目のパケットデータ17bの一番目の音情報記憶スロット10aに、第三階層目のパケットデータ17cに係る音情報記憶領域9cが設定されている。
第三階層目のパケットデータ17cに図7に示すパターンコード20「c」及びフレーズコード21「cVK」を付与し、このフレーズコード21をサウンドID22に紐づける。
第三階層目の第二の音属性コード14a「VK」に、入力データ18cである上記対象商品一覧ページからのリンク先となる対象商品の割引ページのアドレスのうち、文字データ「/a-discount」の部分を関連付ける。
(S102)
The voice
As shown in Figure 11, the second
The second
The third
Each
The combination "359 13 KMNW" of the second
11, the second
A
The second
12, the second
The
The second
(S103)
音声データ生成部105はさらに以下の処理を行う。
第一階層目の第二の音属性コード14b「359」に対応する「DEG#(レミソ#)」と、第二の音属性コード14a「13」に対応する「CD(ドレ)」と、第三の音属性コード15「KMNW」に対応する「ABC2A2(ラシド2ラ2)」を表す音名コード16で構成される4音1拍で3フレーズの音声データ19aを生成する。
第二階層目の第二の音属性コード14a「4P」に対応する「D#D2(レ#レ2)」を表す音名コード16で構成される4音1拍で1フレーズの音声データ19bを生成する。
第三階層目の第二の音属性コード14a「VK」に対応する「G#2A(ソ#2ラ)」を表す音名コード16で構成される4音1拍で1フレーズの音声データ19cを生成する。
(S103)
The voice
Three phrases of
(S104)
音声データ出力部106は、音声データ生成部105が生成した音声データ19a、19b、19cを所定の期間、所定のタイミングで出力する処理を行う。例えば16時から17時で、1分間隔で音声データ19を出力する。
(S104)
The voice
(S105)
上記コンビニエンスストアに来店したユーザは、受信端末8を操作して上記アプリケーションソフトウェアを実行すると、データ受信部801が音声データ19a、19b、19cを受信する。
(S105)
When a user visits the convenience store and operates the receiving
(S106)
データ変換部803は以下の処理を行う。
パケットデータ17aに設定されているサウンドID22のフレーズコード21から各音の音名コード16に設定されている第二の音属性コード14b「359」と、第二の音属性コード14a「13」と、第三の音属性コード15「KMNW」を判別し、各音属性コードが関連付けられている「www.XYZ.co.jp」のページ内容に変換する処理を行う。
パケットデータ17bに付与されているフレーズコード21から各音の音名コード16に設定されている第二の音属性コード14a「4P」を判別し、第二の音属性コード14aが関連付けられている「www.XYZ.co.jp/pro/list」のページ内容に変換する処理を行う。
パケットデータ17cに付与されているフレーズコード21から各音の音名コード16に設定されている第二の音属性コード14a「VK」を判別し、第二の音属性コード14aが関連付けられている「www.XYZ.co.jp/pro/list/a-discount」のページ内容に変換する処理を行う。
(S106)
The
The second
The second
The second
(S107)
変換された上記Webサイトや、対象商品一覧ページ、対象商品の割引ページが表示画面に表示され、上記ユーザはこれらのコンテンツの閲覧、利用等することができる。
(S107)
The converted website, the target product list page, and the target product discount page are displayed on the display screen, and the user can view and use these contents.
以上、本実施形態では、音属性コードを含む均一の時間軸を有する音情報記憶スロットで音情報記憶領域を構成しているので、情報のメロディ化及びメロディの情報化が可能となり、これら情報のエンコード及びデコードが可能となっている。As described above, in this embodiment, the sound information storage area is composed of sound information storage slots having a uniform time axis including sound attribute codes, making it possible to convert information into melodies and melodies into information, and making it possible to encode and decode this information.
特に、エンコード及びデコードする際に上記パケットデータが階層化(レイヤー化)されていることで、メロディによる情報のツリー化、インデックス化が可能となり、極めて多数の情報にアクセスすることが可能となる。In particular, the packet data is hierarchically organized (layered) when it is encoded and decoded, which makes it possible to organize and index information into a tree by melody, making it possible to access a huge amount of information.
そして、文字データ、記号データ、画像データ、映像データ又はこれらの組み合わせの少なくとも一方からなるコンテンツデータをメロディ化しているので、このメロディを受信端末で受信すれば当該メロディに紐づけされた具体的情報へ瞬時にアクセスすることができる。 The content data, which is composed of at least one of character data, symbol data, image data, video data or a combination of these, is converted into a melody, so that when this melody is received by a receiving terminal, the specific information linked to the melody can be instantly accessed.
本実施形態に係る音声生成装置、音声生成システム及びコンピュータプログラムは、以下の活用例によって産業上の利用可能性に資するものとなっている。
・音楽言語体系の提供に活用
・メロディによる各種情報の提供に活用
・メロディによるインターネットに連動したアクセス情報の提供に活用
・音情報記憶スロットの事業者への提供に活用
・ラジオ、TV、公共交通機関等における音声による広告媒体に活用
・メロディのライセンス提供に活用
・情報のアーカイブ化に活用
・事業者専用の音声暗号に活用
The voice generation device, the voice generation system, and the computer program according to the present embodiment contribute to industrial applicability through the following application examples.
・Used to provide a musical language system ・Used to provide various information through melodies ・Used to provide access information linked to the Internet through melodies ・Used to provide sound information storage slots to businesses ・Used for audio advertising media in radio, TV, public transportation, etc. ・Used to license melodies ・Used to archive information ・Used as audio encryption for businesses
例えば本実施形態に係る音声生成システムにおいて、政府や官公庁、各地方自治体等のHPを特定するパケットデータ17を複数準備し、これらをサウンドID22として設定する。
サウンドID22に紐づくフレーズコード21に各種情報を関連付ける。
上記サウンドID22及びフレーズコード21からなる音声データ19を、各地域に設置されている防災スピーカで出力する。
地域住民は受信端末8であるスマートフォンを操作して音声データ19を受信する。
受信端末8には、上記音声データ19から変換された緊急情報(災害情報など)が表示される。
For example, in the voice generation system according to this embodiment, a plurality of
Various information is associated with the
The
Local residents receive the
The receiving
このような活用例によって災害等の緊急事態時に一例として以下の効果が発揮される。
・災害等の現場周辺の個別地区情報等の言葉では伝えきれない情報を、音声データを用いて瞬時に提供、利用することができる。
・外国語での情報の提供、利用も可能である。
・停電下においても情報の取得が可能である。
Such use cases can have the following effects in the event of a disaster or other emergency.
- Information that cannot be conveyed in words, such as information about individual areas around the site of a disaster, can be instantly provided and used using voice data.
・Information can also be provided and used in foreign languages.
- Information can be obtained even during a power outage.
9 音情報記憶領域
10a-10d 音情報記憶スロット
11 n音マトリクス
11a 1音マトリクス
11b 2音マトリクス
11c 3音マトリクス
11d 4音マトリクス
12 変換コード
13 第一の音属性コード
14 第二の音属性コード
15 第三の音属性コード
16 音名コード
17 パケットデータ
18 入力データ
19 音声データ
20 パターンコード
21 フレーズコード
22 サウンドID
9 Sound
Claims (6)
以下の構成を備えることを特徴とする音声生成装置。
(1)以下の構成で構築されるパケットデータが記憶手段に記憶されている。
(a)(n+2)個(n≧1)の音情報記憶スロットからなる(n+2)音1拍を一単位とする音情報記憶領域
(b)1音を構成する音名コードに対応する第一の音属性コードが、1番目の前記音情報記憶スロットに設定される。
(c)(n+2)個未満の複数音を構成する音名コードに対応する第二の音属性コードが、以下の条件で前記音情報記憶スロットに設定される。
(c1)前記1番目の音情報記憶スロットに設定される。
(c2)n=1の場合、2番目又は3番目の音情報記憶スロットに設定される。
(c3)n≧2の場合、偶数番目、奇数番目及び(n+2)番目の音情報記憶スロットの中から選択される一つの前記音情報記憶スロットに設定される。
(c4)n≧2の場合、さらに、偶数番目、奇数番目及び(n+2)番目の前記音情報記憶スロットの中から選択される複数の前記音情報記憶スロットの組み合わせに設定される。
(d)(n+2)個の音を構成する音名コードに対応する第三の音属性コードが、すべての前記音情報記憶スロットに設定される。
(2)以下の手順に従って、入力された前記コンテンツデータに対応する(n+2)音1拍を一単位とする音声データを生成する音声生成手段
(a)入力された前記コンテンツデータを前記第一の音属性コード、前記第二の音属性コード及び前記第三の音属性コードの少なくとも一方と関連付けて前記パケットデータを生成する処理を行う。
(b)前記パケットデータに対応する前記音名コードで構成される前記音声データを生成する処理を行う。 A voice generating device that, when content data is input, generates corresponding voice data,
A voice generating device comprising the following configuration.
(1) Packet data constructed as follows is stored in a storage means.
(a) a sound information storage area consisting of (n+2) (n≧1) sound information storage slots, with one (n+2) sound beat being one unit; (b) a first sound attribute code corresponding to a pitch name code constituting one sound is set in the first sound information storage slot.
(c) A second note attribute code corresponding to a note name code constituting a plurality of notes less than (n+2) is set in the note information storage slot under the following conditions:
(c1) It is set in the first sound information storage slot.
(c2) When n=1, the second or third sound information storage slot is set.
(c3) In the case where n≧2, it is set to one of the sound information storage slots selected from the even-numbered, odd-numbered, and (n+2)-th sound information storage slots.
(c4) In the case where n≧2, it is further set to a combination of a plurality of the sound information storage slots selected from the even-numbered, odd-numbered and (n+2)-th sound information storage slots.
(d) A third note attribute code corresponding to a note name code constituting the (n+2) notes is set in all of the note information storage slots.
(2) A sound generation means for generating sound data in which one unit of (n+2) sound beats corresponds to the input content data, according to the following procedure: (a) A process for generating the packet data by associating the input content data with at least one of the first sound attribute code, the second sound attribute code, and the third sound attribute code.
(b) performing a process of generating the voice data composed of the pitch name code corresponding to the packet data;
(1)(e)前記パケットデータには、前記第一の音属性コード、前記第二の音属性コード及び前記第三の音属性コードの前記音情報記憶スロットへの設定パターンを表すパターンコードが付与される。
(f)前記パターンコードと、前記第一の音属性コード、前記第二の音属性コード又は前記第三の音属性コードの組み合わせをフレーズコードとし、複数の前記フレーズコードがサウンドIDとして設定される。 The voice generating device according to claim 1 , further comprising:
(1) (e) A pattern code representing a setting pattern of the first sound attribute code, the second sound attribute code, and the third sound attribute code in the sound information storage slot is added to the packet data.
(f) A combination of the pattern code and the first sound attribute code, the second sound attribute code, or the third sound attribute code is defined as a phrase code, and a plurality of the phrase codes are set as sound IDs.
(1)(e)複数の前記パケットデータが階層化され、一のパケットデータに係る前記音情報記憶領域に、他のパケットデータに係る前記音情報記憶領域が設定されている。
(2)(c)入力された前記コンテンツデータを、何れかの階層の前記パケットデータに設定されている前記第一の音属性コード、前記第二の音属性コード及び前記第三の音属性コードの少なくとも一方と関連付ける処理を行う。 The voice generating device according to claim 1 , further comprising:
(1) (e) A plurality of the packet data are hierarchically organized, and the sound information storage area relating to one packet data is set to the sound information storage area relating to another packet data.
(2) (c) A process is performed to associate the input content data with at least one of the first sound attribute code, the second sound attribute code, and the third sound attribute code set in the packet data of any one of the layers.
(3)前記生成された音声データを出力する音声データ出力手段 4. The voice generating device according to claim 1, further comprising:
(3) a voice data output means for outputting the generated voice data
以下の構成を備えることを特徴とする音声生成システム。
(1)前記音声生成装置は、以下の構成で構築されるパケットデータを記憶している記憶手段を備えている。
(a)(n+2)個(n≧1)の音情報記憶スロットからなる(n+2)音1拍を一単位とする音情報記憶領域
(b)1音を構成する音名コードに対応する第一の音属性コードが、1番目の前記音情報記憶スロットに設定される。
(c)(n+2)個未満の複数音を構成する音名コードに対応する第二の音属性コードが、以下の条件で前記音情報記憶スロットに設定される。
(c1)前記1番目の音情報記憶スロットに設定される。
(c2)n=1の場合、2番目又は3番目の音情報記憶スロットに設定される。
(c3)n≧2の場合、偶数番目、奇数番目及び(n+2)番目の音情報記憶スロットの中から選択される一つの前記音情報記憶スロットに設定される。
(c4)n≧2の場合、さらに、偶数番目、奇数番目及び(n+2)番目の前記音情報記憶スロットの中から選択される複数の前記音情報記憶スロットの組み合わせに設定される。
(d)(n+2)個の音を構成する音名コードに対応する第三の音属性コードが、すべての前記音情報記憶スロットに設定される。
(2)前記音声生成装置は、以下の手順に従って、入力された前記コンテンツデータに対応する(n+2)音1拍を一単位とする音声データを生成する音声生成手段を備えている。
(a)入力された前記コンテンツデータを前記第一の音属性コード、前記第二の音属性コード及び前記第三の音属性コードの少なくとも一方と関連付けて前記パケットデータを生成する処理を行う。
(b)前記パケットデータに対応する前記音名コードで構成される前記音声データを生成する処理を行う。
(3)前記音声生成装置は、前記生成された音声データを出力する音声データ出力手段を備える。
(4)前記受信端末は、前記生成された音声データを、前記コンテンツデータに変換するデータ変換手段を備える。 A voice generation system including: a voice generation device that generates corresponding voice data when content data is input; and a receiving terminal that receives the voice data from the voice generation device,
1. A voice generation system comprising the following configuration.
(1) The voice generating device includes a storage means for storing packet data constructed as follows:
(a) a sound information storage area consisting of (n+2) (n≧1) sound information storage slots, with one (n+2) sound beat being one unit; (b) a first sound attribute code corresponding to a pitch name code constituting one sound is set in the first sound information storage slot.
(c) A second note attribute code corresponding to a note name code constituting a plurality of notes less than (n+2) is set in the note information storage slot under the following conditions:
(c1) It is set in the first sound information storage slot.
(c2) When n=1, the second or third sound information storage slot is set.
(c3) In the case where n≧2, it is set to one of the sound information storage slots selected from the even-numbered, odd-numbered, and (n+2)-th sound information storage slots.
(c4) In the case where n≧2, it is further set to a combination of a plurality of the sound information storage slots selected from the even-numbered, odd-numbered and (n+2)-th sound information storage slots.
(d) A third note attribute code corresponding to a note name code constituting the (n+2) notes is set in all of the note information storage slots.
(2) The sound generating device includes a sound generating means for generating sound data with (n+2) sound beats as one unit, which corresponds to the input content data, according to the following procedure.
(a) performing a process of generating the packet data by associating the input content data with at least one of the first sound attribute code, the second sound attribute code, and the third sound attribute code;
(b) performing a process of generating the voice data composed of the pitch name code corresponding to the packet data;
(3) The voice generating device includes a voice data output unit that outputs the generated voice data.
(4) The receiving terminal includes a data conversion means for converting the generated voice data into the content data.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023047639 | 2023-03-24 | ||
JP2023047639 | 2023-03-24 | ||
PCT/JP2024/011134 WO2024203766A1 (en) | 2023-03-24 | 2024-03-21 | Audio generation device, audio generation system, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7538581B1 true JP7538581B1 (en) | 2024-08-22 |
JPWO2024203766A1 JPWO2024203766A1 (en) | 2024-10-03 |
Family
ID=92424489
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024534764A Active JP7538581B1 (en) | 2023-03-24 | 2024-03-21 | Voice generation device, voice generation system, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7538581B1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006513448A (en) * | 2003-01-07 | 2006-04-20 | マドウェイブス・リミテッド | System and method for portable speech synthesis |
JP2011133882A (en) * | 2009-11-27 | 2011-07-07 | Media Flats Co Ltd | Video with sound synthesis system, and video with sound synthesis method |
US20120312145A1 (en) * | 2011-06-09 | 2012-12-13 | Ujam Inc. | Music composition automation including song structure |
JP2014224976A (en) * | 2013-04-15 | 2014-12-04 | 清 宮浦 | Voice generation device, voice generation method and program |
WO2018021519A1 (en) * | 2016-07-29 | 2018-02-01 | 宮浦清 | Music education assistance system |
JP2019507389A (en) * | 2015-12-23 | 2019-03-14 | ハーモニクス ミュージック システムズ,インコーポレイテッド | Apparatus, system and method for generating music |
-
2024
- 2024-03-21 JP JP2024534764A patent/JP7538581B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006513448A (en) * | 2003-01-07 | 2006-04-20 | マドウェイブス・リミテッド | System and method for portable speech synthesis |
JP2011133882A (en) * | 2009-11-27 | 2011-07-07 | Media Flats Co Ltd | Video with sound synthesis system, and video with sound synthesis method |
US20120312145A1 (en) * | 2011-06-09 | 2012-12-13 | Ujam Inc. | Music composition automation including song structure |
JP2014224976A (en) * | 2013-04-15 | 2014-12-04 | 清 宮浦 | Voice generation device, voice generation method and program |
JP2019507389A (en) * | 2015-12-23 | 2019-03-14 | ハーモニクス ミュージック システムズ,インコーポレイテッド | Apparatus, system and method for generating music |
WO2018021519A1 (en) * | 2016-07-29 | 2018-02-01 | 宮浦清 | Music education assistance system |
Also Published As
Publication number | Publication date |
---|---|
JPWO2024203766A1 (en) | 2024-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Graham et al. | Evaluating OpenAI's Whisper ASR: Performance analysis across diverse accents and speaker traits | |
Tymoczko | The geometry of musical chords | |
US10535042B2 (en) | Methods of offering guidance on common language usage utilizing a hashing function consisting of a hash triplet | |
CN100517333C (en) | Information processing device and method and program | |
JP2001519043A (en) | Text normalization using context-free grammar | |
US20120269344A1 (en) | Methods and apparatus for creating music melodies | |
CN1855223B (en) | Audio font output device, font database, and language input front end processor | |
JP7538581B1 (en) | Voice generation device, voice generation system, and computer program | |
Garani et al. | An algorithmic approach to South Indian classical music | |
US20130000465A1 (en) | Systems and methods for transforming character strings and musical input | |
WO2024203766A1 (en) | Audio generation device, audio generation system, and computer program | |
JP2019124940A (en) | Voice synthesis data generation device, voice synthesis data generation method, and voice synthesis system | |
RU2113726C1 (en) | Computer equipment for reading of printed text | |
Yatsko | Zonal text processing | |
JP2004302660A (en) | Question answer system, its method and program | |
JP2024067675A (en) | Electronic equipment, voice generation method, voice generation system, and computer program | |
Bonnasse‐Gahot | Efficient communication in written and performed music | |
JP2007333849A (en) | Teaching material learning support system | |
Tompo et al. | Musical and Extra-Musical Texts in Christian Worship (Based on Marco Demarinis' Semantic Theory) | |
Dalhoum et al. | Computer-generated music using grammatical evolution | |
Turner | Eight short mathematical compositions constructed by similarity | |
Shepherd | Score analysis | |
Singh et al. | Can Rhyme Consistency Score be used as a Feature in Stylistics? A Statistical Endeavour with Hindi Poetry | |
JP2009086597A (en) | Text-to-speech conversion service system and method | |
French | BLAND: Piano Sonatas 9+ 10; Nouveau Rag. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240611 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20240611 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240730 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240802 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7538581 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |