JP2509523B2 - Vehicle audio output device - Google Patents
Vehicle audio output deviceInfo
- Publication number
- JP2509523B2 JP2509523B2 JP5179795A JP17979593A JP2509523B2 JP 2509523 B2 JP2509523 B2 JP 2509523B2 JP 5179795 A JP5179795 A JP 5179795A JP 17979593 A JP17979593 A JP 17979593A JP 2509523 B2 JP2509523 B2 JP 2509523B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- data
- recording
- rule
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Navigation (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Description
【0001】[0001]
【産業上の利用分野】本発明は、車両両音声出力装置に
係り、詳細には、ナビゲーションにおける音声案内を行
うための車両用音声出力装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle voice output device, and more particularly to a vehicle voice output device for providing voice guidance in navigation.
【0002】[0002]
【従来の技術】近年、地理に不案内な運転者に対して目
的地まで経路誘導を行うナビゲーション装置の開発が盛
んに行われている。このナビゲーション装置では、目的
地までの経路や、目的地まで誘導するために必要な各地
点での進行方向の指示をCRT等のディスプレイに表示
ようにしている。運転者は、このディスプレイを逐次見
ることによって、自分が進むべき進路情報を得ることが
できる。2. Description of the Related Art In recent years, a navigation device for guiding a route to a destination for a driver who is not guided by geography has been actively developed. In this navigation device, the route to the destination and the direction of travel at each point necessary for guiding the destination are displayed on a display such as a CRT. The driver can obtain route information to be taken by looking at the display sequentially.
【0003】そこで、従来、CRT等のディスプレイ上
に画像情報を出力することによって経路誘導する他に、
音声によっても経路誘導を行うボイスナビゲーション装
置が提案されている。すなわち、音声出力用のスピーカ
を配置し、例えば、車両が次の交差点で右折すべきであ
ると判断した場合、「次の交差点を右方向です」といっ
た音声をスピーカから出力するようにしている。この場
合、運転者は、視線を前方視界からディスプレイへと移
動させることなく、聴覚を通じて進路情報を得ることが
できるので、装置による誘導指示の確認を容易に行うこ
とが可能になる。Therefore, conventionally, in addition to guiding the route by outputting image information on a display such as a CRT,
A voice navigation device that guides a route by voice has also been proposed. That is, a speaker for voice output is arranged, and for example, when it is determined that the vehicle should make a right turn at the next intersection, the speaker outputs a voice saying "the next intersection is in the right direction". In this case, the driver can obtain the route information through hearing without moving the line of sight from the front field of view to the display, so that the driver can easily confirm the guidance instruction.
【0004】[0004]
【発明が解決しようとする課題】ところが、このような
ボイスナビゲーション装置では、音声による案内内容を
聞き逃す場合があり、認知率を低下させていた。この場
合、案内音声のうちキーワードとなる部分の認識が特に
重要で、この部分を聞き逃すと全体が認識できず、結果
として認知率が低下していた。However, in such a voice navigation device, there is a case where the user fails to hear the guidance contents by voice, which reduces the recognition rate. In this case, it is particularly important to recognize the part of the guidance voice that is the keyword, and if this part is missed, the whole part cannot be recognized, and as a result, the recognition rate is lowered.
【0005】そこで本発明の目的は、ナビゲーションに
おける音声による案内内容の認知率を向上させることの
できる車両用音声出力装置を提供することにある。Therefore, an object of the present invention is to provide a vehicle voice output device capable of improving the recognition rate of voice guidance contents in navigation.
【0006】[0006]
【課題を解決するための手段】請求項1記載の発明で
は、音声により走行案内を行う車輌用音声案内装置に於
いて、規則合成方式による音声データを記憶する第1の
記憶手段と、録音編集方式による音声データを記憶する
第2の記憶手段と、出力すべき案内音声のうち、経路を
理解するためのキーワードを特定部分として選択する選
択手段と、この選択手段で選択された特定部分について
前記第1の記憶手段に記憶された規則合成方式による音
声データを組み込み、特定部分以外の部分について前記
第2の記憶字手段に記憶された録音編集方式の音声デー
タを組み込むことで案内音声を作成する第1の案内音声
作成手段と、この第1の案内音声作成手段で作成された
案内音声のうち、規則合成方式による音声データに、録
音編集方式による音声データとの区別を強調するための
チューニングデータを組み込んで編集する第2の案内音
声作成手段と、この第2の案内音声作成手段で編集され
た案内音声を出力する音声出力手段、とを車輌用音声案
内装置に具備させて前記目的を達成する。請求項2記載
の発明では、請求項1に記載の車輌用音声案内装置にお
いて、前記選択手段が選択する特定部分を交差点、地
名、数字、重要な情報を含むキーワードとする。請求項
3に記載の発明では、請求項1に記載の車輌用音声案内
装置において、前記第2の案内音声作成手段は、強調が
必要な部分を再生時に音量を多くする、発声を強くす
る、強調する単語間の間隔を略一定にする、録音部分と
規則部分の音声速度を変える、処理のうち少なくとも1
つの処理を行うチューニングデータを規則合成方式によ
る音声データに組み込む。請求項4に記載の発明では、
請求項4に記載の発明では、請求項1に記載の車輌用音
声案内装置において、前記第2の案内音声作成手段は、
発声時に抑揚を略一定にする、出力する音声の長さが長
い場合、除々に音声速度を早くしていく、処理の少なく
とも一方の処理を行うチューニングデータを規則合成方
式による音声データに組み込む。 According to a first aspect of the present invention, in a voice guidance device for a vehicle that guides a vehicle by voice, there is provided a first storage means for storing voice data according to a rule synthesis method, and a recording edit. second storage means for storing the audio data by the method of the guidance speech to be output, the path
Selection means for selecting a keyword for understanding the specific portion, the selected specific part of this selection means
Sound by the rule synthesis method stored in the first storage means
Incorporate voice data, and for the parts other than the specific part,
The voice data of the recording and editing method stored in the second memory character means.
Guide voice that creates guide voice by embedding data
Created by the creating means and the first guidance voice creating means
Of the guidance voice, it is recorded in the voice data by the rule synthesis method.
To emphasize the distinction from the audio data by the sound editing method
A second guide sound that incorporates and edits tuning data
Edited by voice creation means and this second guidance voice creation means
The above-mentioned object is achieved by providing the vehicle voice guidance device with the voice output means for outputting the guidance voice. In the second aspect of the present invention, the voice guidance device for vehicle tanks according to claim 1, to a specific part of the selection means selects an intersection, place names, numbers, and keywords containing important information. Claim
According to the invention described in claim 3, the vehicle voice guidance according to claim 1.
In the device, the second guide voice creating means
Increase volume when playing necessary parts, increase vocalization
The recorded part, which keeps the interval between emphasized words almost constant.
At least one of the processes for changing the voice speed of the rule part
Tuning data that performs one process is created by the rule composition method.
Embedded in audio data. The inventions of claim 4,
In the invention according to claim 4, the vehicle sound according to claim 1
In the voice guidance device, the second guidance voice creating means is
The length of the output voice is long, which makes the intonation almost constant during vocalization.
If not, increase the voice speed gradually, less processing
A rule synthesis method for tuning data that performs either process
Incorporated in the voice data by the formula.
【0007】[0007]
【作用】本発明の車輌用音声案内装置では、第1の記憶
手段によって規則合成方式による音声データが記憶さ
れ、第2の記憶手段によって録音編集方式による音声デ
ータが記憶される。そして、案内音声を出力する場合
に、選択手段によって経路を理解するためのキーワード
を特定部分として選択し、この選択に対応して、特定部
分について規則合成方式による音声データを組み込み、
特定部分以外の部分について録音編集方式の音声データ
を組み込むことで案内音声を作成し、作成された案内音
声のうち、規則合成方式による音声データに、録音編集
方式による音声データとの区別を強調するためのチュー
ニングデータを組み込んで編集する。編集された案内音
声は、音声出力手段で出力される。[Action] In the voice guidance device for vehicle tanks of the present invention, audio data by the rule synthesizing method by the first memory means is stored, the audio data is stored by the record edit mode by the second storage means. Then, when outputting the guidance voice, the keyword for understanding the route by the selecting means
Is selected as the specific part, and in response to this selection, the specific part
For each minute, incorporate the voice data by the rule synthesis method,
Audio data of the recording and editing method for parts other than the specified part
Create a guide voice by incorporating the
Of voices, record and edit to voice data by rule synthesis method
Tues for emphasizing the distinction from audio data by method.
Editing data by incorporating training data. The edited guide voice is output by the voice output means.
【0008】[0008]
【実施例】以下、本発明の音声出力装置における一実施
例を図1ないし図7を参照して詳細に説明する。図1は
本実施例の音声出力装置の構成を示すブロック図であ
る。この図に示すように、音声出力装置は、音声合成処
理装置11と、この音声合成処理装置11に接続された
スピーカ17とを備えている。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of an audio output device of the present invention will be described in detail below with reference to FIGS. FIG. 1 is a block diagram showing the configuration of the audio output device of this embodiment. As shown in this figure, the voice output device includes a voice synthesis processing device 11 and a speaker 17 connected to the voice synthesis processing device 11.
【0009】音声合成処理装置11は、ナビゲーション
における音声による案内内容のうちの重要な情報を含む
強調部分を規則合成方式によって音声出力するために必
要な規則合成方式の音声データを記憶する第1の記憶手
段およびナビゲーションにおける音声による案内内容の
うちの非強調部分を録音編集方式によって音声出力する
ために必要な録音編集方式の音声データを記憶する第2
の記憶手段としての記憶装置12を備えている。The voice synthesis processing device 11 stores the voice data of the rule synthesis method necessary for outputting the emphasized part of the guidance content by voice in the navigation, which includes important information, by the rule synthesis method. Second, storing the voice data of the recording / editing method necessary for outputting the voice of the non-emphasized portion of the voice guidance content in the storage means and the navigation by the recording / editing method
The storage device 12 is provided as a storage unit.
【0010】また、ナビゲーションにおける音声による
案内内容である目的音声の出力依頼を受け付け、目的音
声のパラメタを処理するパラメタ受付処理部13と、こ
のパラメタ受付処理部13で受け付けた目的音声のパラ
メタに基づいて、記憶装置12から音声データを読み込
む音声読み込み部14と、この音声読み込み部14で読
み込んだ音声データを合成して一次目的音声のデータを
生成し、これにチューニングデータを組み込んで二次目
的音声のデータを編集する音声合成処理部15と、この
音声合成処理部15で編集した二次目的音声のデータを
D/A(ディジタル/アナログ)変換してスピーカ17
に出力するD/A変換部16とを備えている。Further, based on the parameter reception processing unit 13 that receives an output request for the target voice that is the guidance content by voice in the navigation and processes the parameters of the target voice, and the parameter of the target voice received by the parameter reception processing unit 13. The voice reading unit 14 that reads the voice data from the storage device 12 and the voice data read by the voice reading unit 14 are combined to generate the data of the primary target voice, and the tuning data is incorporated into this to generate the secondary target voice. Voice synthesis processing unit 15 for editing the data of the above, and the speaker 17 by D / A (digital / analog) converting the data of the secondary target voice edited by this voice synthesis processing unit 15.
And a D / A conversion unit 16 for outputting to.
【0011】スピーカ17は、音声出力手段として機能
し、D/A変換部16の出力を入力して案内内容を示す
音声を出力する。なお、目的音声の出力依頼20は、ナ
ビゲーション装置が実行するプログラム中のサブルーチ
ンやナビゲーション装置からのタスクによって、音声合
成処理装置11に入力される。The speaker 17 functions as a voice output means, inputs the output of the D / A converter 16 and outputs a voice indicating the contents of the guidance. The target voice output request 20 is input to the voice synthesis processing device 11 by a subroutine in a program executed by the navigation device or a task from the navigation device.
【0012】音声合成処理装置11は、CPU(中央処
理装置)、ROM(リード・オンリ・メモリ)およびR
AM(ランダム・アクセス・メモリ)を含むコンピュー
タで構成され、RAMをワーキングエリアとして、RO
Mに格納されたプログラムを実行することによって、パ
ラメタ受付処理部13、音声読み込み部14および音声
合成処理部15を実現している。The voice synthesis processing device 11 includes a CPU (central processing unit), a ROM (read only memory) and an R.
It consists of a computer including AM (Random Access Memory), and uses RAM as a working area.
The parameter reception processing unit 13, the voice reading unit 14, and the voice synthesis processing unit 15 are realized by executing the program stored in M.
【0013】また、記憶装置12は、記憶媒体としてハ
ードディスク、CD、ROM、ICカード等を有し、こ
れらの記憶媒体に音声データが格納されて、音声データ
ベースが構成されている。音声データは、図2に示すよ
うに、ヘッダ部分21と音声データ部22とからなるフ
ォーマットで記憶媒体に格納されている。ヘッダ部分2
1は、音声データの管理情報、すなわち、登録個数、イ
ンデックスコード一覧(コード番号−ファイル名称−フ
ァイル番号対応テーブル)を有している。音声データ部
22は、音声データ情報、すなわち、50音音声、各種
固定フォーマット音声、アクセントレイアウトテーブル
を有している。Further, the storage device 12 has a hard disk, a CD, a ROM, an IC card and the like as a storage medium, and voice data is stored in these storage media to form a voice database. As shown in FIG. 2, the voice data is stored in the storage medium in a format including a header portion 21 and a voice data portion 22. Header part 2
Reference numeral 1 has audio data management information, that is, a registered number and an index code list (code number-file name-file number correspondence table). The voice data unit 22 has voice data information, that is, Japanese syllabary, various fixed format voices, and an accent layout table.
【0014】次に、図3および図7を参照して本実施例
の動作について説明する。図3はナビゲーションにおけ
る音声出力の処理を示すフローチャートである。この動
作では、ナビゲーション装置によって現在地を獲得し
(ステップ101)、音声出力する地点からの距離を獲
得し(ステップ102)、音声を出力する地点に来たか
否かを判断する(ステップ103)。音声を出力する地
点に来ていない場合(ステップ;N)は音声出力処理を
終了する。音声を出力する地点に来た場合(ステップ;
Y)は、サブルーチン「録音+規則処理」を実行し(ス
テップ104)、音声を出力して(ステップ105)、
音声出力処理を終了する。Next, the operation of this embodiment will be described with reference to FIGS. 3 and 7. FIG. 3 is a flowchart showing a voice output process in navigation. In this operation, the current position is acquired by the navigation device (step 101), the distance from the audio output point is acquired (step 102), and it is determined whether or not the audio output point has been reached (step 103). When the voice output point is not reached (step; N), the voice output process ends. When you come to the point where you want to output the voice (step;
Y) executes a subroutine "recording + rule processing" (step 104), outputs a voice (step 105),
The voice output process ends.
【0015】図4は、図3における「録音+規則処理」
の内容を示すフローチャートである。この処理では、ま
ず、パラメタ受付処理部13で、目的音声の属性を示す
パラメタデータを獲得し(ステップ111)、次に、こ
のパラメタデータを基に、音声読み込み部14によっ
て、記憶装置12の記憶媒体から目的音声の録音部分の
データを取り出し(ステップ112)、さらに、記憶媒
体から目的音声の規則部分のデータを取り出す(ステッ
プ113)。次に、音声合成処理部15で、目的音声の
データフォーマットに録音部分のデータと規則部分のデ
ータを組み込み、一次目的音声のデータを生成する(ス
テップ114)。次に、パラメタデータを基に、一次目
的音声のデータにアクセントやポーズ等のチューニング
データを組み込んで編集し、二次目的音声のデータを生
成する(ステップ115)。そして、この二次目的音声
のデータを、D/A変換部16でアナログ信号に変換し
て、スピーカ17へ送り、処理を終了する。FIG. 4 shows "recording + rule processing" in FIG.
It is a flowchart which shows the content of. In this process, first, the parameter reception processing unit 13 acquires the parameter data indicating the attribute of the target voice (step 111), and then, based on the parameter data, the voice reading unit 14 stores the data in the storage device 12. The data of the recorded portion of the target voice is taken out from the medium (step 112), and the data of the ruled portion of the target voice is taken out from the storage medium (step 113). Next, the voice synthesis processing unit 15 incorporates the data of the recording portion and the data of the regular portion into the data format of the target voice to generate the data of the primary target voice (step 114). Next, based on the parameter data, tuning data such as accent and pause is incorporated into the data of the primary target voice and edited to generate the data of the secondary target voice (step 115). Then, the data of the secondary target voice is converted into an analog signal by the D / A conversion unit 16 and sent to the speaker 17, and the processing is ended.
【0016】なお、規則部分のデータとは、ナビゲーシ
ョンにおける音声による案内内容のうちの強調部分を規
則合成方式によって音声出力するために必要な規則合成
方式の音声データの意味であり、録音部分のデータと
は、ナビゲーションにおける音声による案内内容のうち
の非強調部分を録音編集方式によって音声出力するため
に必要な録音編集方式の音声データの意味である。規則
部分のデータは、およそ、意味的に強調の必要度が高
い、例えば地名、交差点名、距離等の数字、左右等の非
定型部分が相当する。録音部分のデータは、およそ、意
味的に強調の必要度が低く、運転者が聞き流しても問題
のない部分、多くは定型部分が相当する。Note that the data of the rule portion means the voice data of the rule synthesizing method necessary for outputting the emphasized portion of the guidance contents by the voice in the navigation by the rule synthesizing method, and the data of the recording portion. The meaning of the voice data of the recording / editing method necessary for outputting the voice of the non-emphasized portion of the guidance content by the voice in the navigation by the recording / editing method. The data of the rule part corresponds to a place name, an intersection name, a number such as a distance, and an atypical part such as left and right, which is highly required to be emphasized semantically. The data of the recorded portion has a low need of emphasis in terms of meaning, and it corresponds to a portion where there is no problem even if the driver listens to it, and in most cases, a fixed portion.
【0017】次に、図5ないし図7を参照して、図4の
「録音+規則処理」の内容を具体例に沿って説明する。
ここでは、目的音声のデータの例として、以下の3つの
例を用いる。 例1:「この先 300 メートルを 右方向です」 例2:「この先 神田明神下 を 左方向です」 例3:「およそ 2キロメートル 道なりです」Next, with reference to FIGS. 5 to 7, the contents of the “recording + rule processing” of FIG. 4 will be described along with a concrete example.
Here, the following three examples are used as examples of the target voice data. Example 1: “Turning 300 meters to the right” Example 2: “Taking Kanda Myojinshita to the left” Example 3: “About 2 kilometers along the road”
【0018】この目的音声データのうち、録音部分のデ
ータは、図5(a)〜(c)に示すよう、例1では「こ
の先」、「メートルを」および「方向です」の各データ
ブロックであり、例2では「この先」、「を」および
「方向です」の各データブロックであり、例3では「お
よそ」、「キロメートル」および「道なりです」の各デ
ータブロックである。図4のステップ112では、これ
らの録音部分の各データブロックを記憶装置12の記憶
媒体から取り出す。Of the target voice data, the data of the recording portion is, as shown in FIGS. 5 (a) to (c), in each of the data blocks of "this point", "meter" and "direction" in Example 1. Yes, in Example 2, it is each data block of "this ahead", "to" and "it is direction", and in Example 3, it is each data block of "approximately", "km", and "it is a road". In step 112 of FIG. 4, each data block of these recorded portions is taken out from the storage medium of the storage device 12.
【0019】また、目的音声データのうち、規則部分の
データは、図6(a)〜(c)に示すよう、例1では
「さ」、「ん」、「びゃ」、「く」、「み」および
「ぎ」の各データブロックであり、例2では「か」、
「ん」、「だ」、「みょ」、「う」、「じ」、「ん」、
「し」、「た」、「ひ」、「だ」および「り」の各デー
タブロックであり、例3では「に」の各データブロック
である。図4のステップ113では、これらの規則部分
の各データブロックを記憶装置12の記憶媒体から取り
出す。In the target voice data, the data of the rule part is "sa", "n", "bya", "ku", "in" in Example 1 as shown in FIGS. 6 (a) to 6 (c). "" And "Gi" data blocks. In Example 2, "ka",
"N", "da", "myo", "u", "ji", "n",
The data blocks are “shi”, “ta”, “hi”, “da” and “ri”, and in the example 3, they are “ni” data blocks. In step 113 of FIG. 4, each data block of these rule parts is taken out from the storage medium of the storage device 12.
【0020】図4のステップ114では、要求されたパ
ラメタデータに従って、ステップ113およびステップ
114で読み出した録音部分および規則部分の各データ
ブロックを図7に示すように並べ替え、一次目的音声の
データを生成する。なお、図7(a)〜(c)はそれぞ
れ例1〜3に対応している。In step 114 of FIG. 4, the data blocks of the recording portion and the rule portion read in step 113 and step 114 are rearranged as shown in FIG. 7 according to the requested parameter data, and the data of the primary target voice is obtained. To generate. 7A to 7C correspond to Examples 1 to 3, respectively.
【0021】図4のステップ115では、必要に応じ
て、一次目的音声のデータに対してアクセントやポーズ
等のチューニングデータを組み込む。アクセントデータ
は、例えば以下のような処理を行うためのデータであ
る。 1.強調が必要な部分を再生時に音量を少々大きくす
る。 2.発声を強くする。 3.強調する単語間の間隔を略一定にする。 4.発声時に抑揚を略一定にする。 5.録音部分と規則部分の音声音声速度を変える。 6.出力する音声の長さが長い場合、除々に音声速度を
早くしていく。In step 115 of FIG. 4, tuning data such as accents and pauses are incorporated into the data of the primary target voice, if necessary. The accent data is data for performing the following processing, for example. 1. Increase the volume a little when playing the part that needs emphasis. 2. Make your voice stronger. 3. Make the intervals between emphasized words almost constant. 4. Make the intonation almost constant during vocalization. 5. The voice speed of the recording part and the rule part is changed. 6. When the length of the output voice is long, the voice speed is gradually increased.
【0022】なお、上述のようなアクセントデータの組
み込みを、半固定のパターンとして自動的に行うように
しても良い。The incorporation of the accent data as described above may be automatically performed as a semi-fixed pattern.
【0023】また、日本語には音声を等間隔で区切って
数えるときの単位があって、これをモーラと呼んでい
る。簡単に言えば、仮名一文字で表される音のことであ
る。日本語〔東京方言(ここでは標準語に近いと言う意
味)など〕ではモーラの境目でアクセントの上がり下が
りがあり、俳句、和歌などではモーラの数を数えること
によって韻律を整えている。図8は地名名称の場合の東
京方言アクセントのチューニングの例である。In addition, Japanese has a unit for counting voices at equal intervals, which is called a mora. Simply put, it is a sound that is represented by a single kana character. In Japanese [Tokyo dialect (meaning that it is close to the standard language, etc.)], the accents rise and fall at the border of mora, and in haiku and waka, the prosody is adjusted by counting the number of mora. FIG. 8 shows an example of tuning the Tokyo dialect accent in the case of a place name.
【0024】以上説明したように、本実施例では、ナビ
ゲーションにおける音声による案内内容のうちの地名等
の重要な情報を含む強調部分を規則合成方式による音声
によって出力し、非強調部分を録音編集方式による音声
によって出力するようにしている。規則合成方式では各
音節をゆっくり区切って合成するので、運転者は強調部
分の内容を正確に認識し易くなる。また、上記アクセン
トデータの組み込みにより、強調する単語間の間隔を略
一定にすることによって、前後の単語と単語の音が結合
して本来の意味とは異なる意味の音に聞こえてしまうと
いったような問題を避けることができ、運転者は強調部
分の内容を正確に認識し易くなる。また、規則合成方式
による音声は、録音編集方式による音声に比べて区切り
が明瞭な発音であるため、運転者はかえって強調部分に
注意を引きつけられる。このようにして、本実施例によ
れば、ナビゲーションにおける音声による案内内容のう
ちの重要な情報を含む強調部分を特に強調して音声を出
力することができるので、ナビゲーションにおける音声
による案内内容の認知率を向上させることができ、ナビ
ゲーションによって運転者を的確に誘導することが可能
となる。なお、ナビゲーションにおける音声による案内
内容を、規則合成方式と録音再生方式の一方のみを用い
て出力した場合には、案内内容の全体が同じ調子で出力
されるため、重要な情報を特に強調することはできな
い。As described above, in this embodiment, the emphasized portion including important information such as a place name in the audio guidance contents in the navigation is output by the voice by the rule synthesizing method, and the non-emphasized portion is recorded and edited. It outputs by the voice. In the rule synthesizing method, each syllable is slowly divided and synthesized, so that the driver can easily recognize the content of the emphasized portion accurately. In addition, by incorporating the above accent data, the intervals between the emphasized words are made substantially constant, and the sounds of the preceding and following words and the words are combined so that a sound with a meaning different from the original meaning sounds. The problem can be avoided, and the driver can easily recognize the contents of the emphasized portion accurately. In addition, the voice by the rule synthesis method has a clear pronunciation as compared with the voice by the recording and editing method, so that the driver can rather pay attention to the emphasized portion. In this way, according to the present embodiment, it is possible to particularly emphasize the emphasized portion including important information of the voice guidance content in the navigation and output the voice, and thus the recognition of the voice guidance content in the navigation is recognized. The rate can be improved, and the driver can be accurately guided by the navigation. Note that if the guidance content by voice in navigation is output using only one of the rule synthesis method and the recording / playback method, the entire guidance content is output in the same tone, so emphasize important information in particular. I can't.
【0025】また、録音編集方式は発声が流暢であるが
音声データの量が多く必要となり、一方、規則合成方式
は音声データの量が少なくて済むが音質が悪い。本実施
例では、ナビゲーションにおける音声による案内内容の
うちの強調部分を規則合成方式による音声によって出力
し、非強調部分を録音編集方式による音声によって出力
するようにしたので、全てを録音編集方式による音声で
出力する場合に比べて音声データの量を少なくすること
ができ、音声データの記憶容量を少なくすることがで
き、また、全てを規則合成方式による音声で出力する場
合のように案内内容全体が聞き難くなることがない。Further, the recording / editing method is fluent in utterance but requires a large amount of voice data. On the other hand, the rule synthesizing method requires a small amount of voice data but has poor sound quality. In the present embodiment, the emphasized portion of the guidance contents by the voice in the navigation is output by the voice of the rule synthesis method, and the non-emphasized portion is output by the voice of the recording / editing method. It is possible to reduce the amount of voice data and the storage capacity of voice data compared to the case of outputting in all. It will not be hard to hear.
【0026】[0026]
【発明の効果】以上説明したように本発明によれば、ナ
ビゲーションにおける音声案内のうち、経路を理解する
ためのキーワードを特定部分として選択し、特定部分に
ついて規則合成方式による音声データを組み込み、特定
部分以外の部分について録音編集方式の音声データを組
み込むことで案内音声を作成し、更に、規則合成方式に
よる音声データに、録音編集方式による音声データとの
区別を強調するためのチューニングデータを組み込んで
編集するようにしたので、案内内容の認知率を向上させ
ることができる。As described above, according to the present invention, the route can be understood among the voice guidance in navigation.
Select a keyword for
Incorporate and specify voice data by the rule synthesis method
Create audio data of the recording and editing method for parts other than parts.
Create a guide voice by embedding, and then use the rule synthesis method
According to the voice data by the recording and editing method
Incorporating tuning data to emphasize the distinction
Since it is edited, the recognition rate of the guidance content can be improved.
【図1】本発明の一実施例の音声出力装置の構成を示す
ブロック図である。FIG. 1 is a block diagram showing a configuration of an audio output device according to an embodiment of the present invention.
【図2】図1の記憶装置によって記憶される音声データ
のフォーマットを示す説明図である。2 is an explanatory diagram showing a format of audio data stored by the storage device of FIG. 1. FIG.
【図3】本発明の一実施例における音声出力処理を示す
フローチャートである。FIG. 3 is a flowchart showing a voice output process according to an embodiment of the present invention.
【図4】図3の音声出力処理における「録音+規則処
理」を示すフローチャートである。FIG. 4 is a flowchart showing “recording + rule processing” in the voice output processing of FIG.
【図5】図4の「録音+規則処理」における録音部分の
データの読み込みの動作を説明するための説明図であ
る。5 is an explanatory diagram for explaining a data reading operation of a recording portion in the "recording + rule processing" of FIG. 4;
【図6】図4の「録音+規則処理」における規則部分の
データの読み込みの動作を説明するための説明図であ
る。FIG. 6 is an explanatory diagram for explaining an operation of reading data of a rule part in “recording + rule process” of FIG. 4;
【図7】図4の「録音+規則処理」における録音部分と
規則部分のデータの組み込みの動作を説明するための説
明図である。FIG. 7 is an explanatory diagram for explaining an operation of incorporating data of a recording portion and a regulation portion in the “recording + rule processing” of FIG.
【図8】地名名称の場合の東京方言アクセントのチュー
ニングについての説明図である。FIG. 8 is an explanatory diagram of tuning of the Tokyo dialect accent in the case of a place name name.
11 音声合成処理装置 12 記憶装置 13 パラメタ受付処理部 14 音声読み込み部 15 音声合成処理部 16 D/A変換部 17 スピーカ 11 voice synthesis processing device 12 storage device 13 parameter reception processing unit 14 voice reading unit 15 voice synthesis processing unit 16 D / A conversion unit 17 speaker
Claims (4)
内装置に於いて、 規則合成方式による音声データを記憶する第1の記憶手
段と、 録音編集方式による音声データを記憶する第2の記憶手
段と、 出力すべき案内音声のうち、経路を理解するためのキー
ワードを特定部分として選択する選択手段と、この選択手段で選択された特定部分について前記第1の
記憶手段に記憶された規則合成方式による音声データを
組み込み、特定部分以外の部分について前記第2の記憶
字手段に記憶された録音編集方式の音声データを組み込
むことで案内音声を作成する第1の案内音声作成手段
と、 この第1の案内音声作成手段で作成された案内音声のう
ち、規則合成方式による音声データに、録音編集方式に
よる音声データとの区別を強調するためのチューニング
データを組み込んで編集する第2の案内音声作成手段
と、 この第2の案内音声作成手段で編集された案内 音声を出
力する音声出力手段とを具備することを特徴とする車輌
用音声案内装置。1. A vehicle voice guidance device for guiding a vehicle by voice, comprising: first storage means for storing voice data according to a rule synthesis method; and second storage means for storing voice data according to a recording / editing method. And the key to understand the route among the guidance voices that should be output.
Selection means for selecting a word as a particular part, the selected specific part of this selection means the first
The voice data by the rule synthesis method stored in the storage means
The second memory for the parts other than the built-in and specific parts
Incorporate the audio data of the recording and editing method stored in the writing means
First guide voice creating means for creating a guide voice
And the guide voice generated by the first guide voice generating means.
Then, for the voice data by the rule synthesis method, the recording editing method
Tuning to emphasize the distinction from voice data
Second guidance voice creating means for incorporating and editing data
And a voice output unit for outputting the guide voice edited by the second guide voice generating unit .
点、地名、数字等、重要な情報を含むキーワードである
ことを特徴とする請求項1に記載の車輌用音声案内装
置。2. The vehicle voice guidance device according to claim 1, wherein the specific portion selected by the selection means is a keyword including important information such as an intersection, a place name, and a number.
ータを規則合成方式による音声データに組み込むことを
特徴とする請求項1に記載の車輌用音声案内装置。 3. The second guide voice creating means increases the volume of a portion requiring emphasis at the time of reproduction , strengthens utterance, makes an interval between emphasized words substantially constant, and makes a recording portion and a regular portion. Tuning data that changes at least one of the processing
Data into the voice data by the rule synthesis method.
The vehicle voice guidance device according to claim 1, wherein the voice guidance device is for vehicle use.
していく、 処理の少なくとも一方の処理を行うチューニングデータ
を規則方式による音声データに組み込むことを特徴とす
る請求項1に記載の車輌用音声案内装置。 4. The second guide voice creating means keeps the intonation substantially constant during utterance, and gradually increases the voice speed when the length of the output voice is long.
Tuning data to be going, at least one of the processing of the processing and
Is incorporated into the audio data by the rule method.
The vehicle voice guidance device according to claim 1.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP5179795A JP2509523B2 (en) | 1993-06-25 | 1993-06-25 | Vehicle audio output device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP5179795A JP2509523B2 (en) | 1993-06-25 | 1993-06-25 | Vehicle audio output device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH0712581A JPH0712581A (en) | 1995-01-17 |
| JP2509523B2 true JP2509523B2 (en) | 1996-06-19 |
Family
ID=16072033
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP5179795A Expired - Fee Related JP2509523B2 (en) | 1993-06-25 | 1993-06-25 | Vehicle audio output device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2509523B2 (en) |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007256456A (en) * | 2006-03-22 | 2007-10-04 | Denso It Laboratory Inc | Content providing apparatus and content providing method |
| JP2010175717A (en) * | 2009-01-28 | 2010-08-12 | Mitsubishi Electric Corp | Speech synthesizer |
| JP5758713B2 (en) * | 2011-06-22 | 2015-08-05 | 株式会社日立製作所 | Speech synthesis apparatus, navigation apparatus, and speech synthesis method |
| JP5853746B2 (en) * | 2012-02-08 | 2016-02-09 | 株式会社デンソー | Audio output device and audio output system |
| US10571293B2 (en) | 2016-03-29 | 2020-02-25 | Mitsubishi Electric Corporation | Speech guidance device and speech guidance method |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS5952710A (en) * | 1982-09-20 | 1984-03-27 | Mitsubishi Electric Corp | Travel guide device |
| JPH01191900A (en) * | 1988-01-28 | 1989-08-01 | Toshiba Corp | Voice response device |
| JPH0419799A (en) * | 1990-05-15 | 1992-01-23 | Matsushita Electric Works Ltd | Voice synthesizing device |
-
1993
- 1993-06-25 JP JP5179795A patent/JP2509523B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JPH0712581A (en) | 1995-01-17 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4563106B2 (en) | In-vehicle device and audio output method thereof | |
| JPH08212228A (en) | Abstract sentence creating device and abstract voice creating device | |
| US6148285A (en) | Allophonic text-to-speech generator | |
| EP0936597B1 (en) | Storage medium having electronic circuits, and voice synthesizer having the storage medium | |
| JP2509523B2 (en) | Vehicle audio output device | |
| JPH09325796A (en) | Document reading aloud device | |
| JP2007086316A (en) | Speech synthesis apparatus, speech synthesis method, speech synthesis program, and computer-readable storage medium storing speech synthesis program | |
| JP3518898B2 (en) | Speech synthesizer | |
| JP4409279B2 (en) | Speech synthesis apparatus and speech synthesis program | |
| JP3513988B2 (en) | Navigation system | |
| JPH0419799A (en) | Voice synthesizing device | |
| JPS6184771A (en) | voice input device | |
| JP3060276B2 (en) | Speech synthesizer | |
| JPH07210194A (en) | Audio output device | |
| JPH0549998B2 (en) | ||
| JP4648878B2 (en) | Style designation type speech synthesis method, style designation type speech synthesis apparatus, program thereof, and storage medium thereof | |
| JP3201329B2 (en) | Speech synthesizer | |
| JPH07200554A (en) | Text-to-speech device | |
| US20070219799A1 (en) | Text to speech synthesis system using syllables as concatenative units | |
| JP3409292B2 (en) | Speech synthesis data generator | |
| JPH06119144A (en) | Document reading device | |
| JP3432336B2 (en) | Speech synthesizer | |
| JP3404776B2 (en) | Signal playback device | |
| JPS5991497A (en) | Voice synthesization output unit | |
| JPH0934490A (en) | Speech synthesizer, speech synthesizing method, navigation system, and recording medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090416 Year of fee payment: 13 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090416 Year of fee payment: 13 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100416 Year of fee payment: 14 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110416 Year of fee payment: 15 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120416 Year of fee payment: 16 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130416 Year of fee payment: 17 |
|
| LAPS | Cancellation because of no payment of annual fees |