JP2003288339A - Voice conversion device, voice conversion method, program, and medium - Google Patents
Voice conversion device, voice conversion method, program, and mediumInfo
- Publication number
- JP2003288339A JP2003288339A JP2002014834A JP2002014834A JP2003288339A JP 2003288339 A JP2003288339 A JP 2003288339A JP 2002014834 A JP2002014834 A JP 2002014834A JP 2002014834 A JP2002014834 A JP 2002014834A JP 2003288339 A JP2003288339 A JP 2003288339A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- unit
- language
- translation
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Abstract
(57)【要約】
【課題】 持ち運びが容易で簡単に操作することができ
る音声通訳装置の実現。
【解決手段】 音声入出力装置102、画像出力装置1
03、1個以上のボタン106と画像指示装置105、
ユーザによって入力される原言語に関するデータを目的
言語に関するデータへ音声言語的に変換し、前記音声入
出力装置102と前記画像出力装置103に前記出力デ
ータを出力する演算制御装置101、前記演算制御装置
101に前記処理の手順を指示するプログラムとデータ
を保持する外部大容量不揮発性記憶装置104と、前記
演算制御装置101が外部機器と前記プログラムとデー
タを交換するための外部データ入出力端子107と、必
要な電源を供給する電源装置108によって構成する。
(57) [Summary] [Problem] To realize a voice translator that is easy to carry and can be easily operated. SOLUTION: Audio input / output device 102, image output device 1
03, one or more buttons 106 and the image pointing device 105,
An arithmetic and control unit 101 for converting data on a source language input by a user into data on a target language in a speech linguistic manner and outputting the output data to the voice input / output device 102 and the image output device 103; An external large-capacity nonvolatile storage device 104 for holding a program and data for instructing the processing procedure to 101, an external data input / output terminal 107 for the arithmetic and control unit 101 to exchange data with the external device for the program, , A power supply device 108 for supplying necessary power.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、例えば、音声入力
された原言語の発声を目的言語に変換して音声出力する
音声変換装置、音声変換方法、プログラム、及び媒体に
関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to, for example, a voice conversion device, a voice conversion method, a program, and a medium for converting a voice-input utterance of a source language into a target language and outputting the voice.
【0002】[0002]
【従来の技術】音声通訳技術は、高性能なワークステー
ションやパーソナルコンピュータによる使用を前提とし
たソフトウェアとして開発され、仮に、旅行会話などに
会話の範囲を限定した場合、その性能は実用的なレベル
まで到達している。しかし、音声通訳装置として、一般
のユーザが日常的に使用するためには、海外旅行等に簡
単に携行できる程度の大きさのハードウェアと、簡単に
操作ができるユーザインタフェースを設計し、同等の機
能のソフトウェアをそのハードウェアに移植する必要が
ある。2. Description of the Related Art Voice interpretation technology was developed as software intended for use by high-performance workstations and personal computers. If the range of conversation is limited to travel conversations, the performance will be at a practical level. Has reached. However, as a voice interpreter, in order for a general user to use it on a daily basis, hardware that is large enough to be easily carried on an overseas trip, etc., and a user interface that can be easily operated are designed and equivalent Functional software needs to be ported to that hardware.
【0003】従来は、B5サイズ程度のノート型パーソナ
ルコンピュータに対して音声通訳ソフトウェアを移植す
る作業が進められてきた。Conventionally, the work of porting voice interpreting software to a notebook personal computer of B5 size has been underway.
【0004】一方、近年のハードウェア技術の進歩によ
って、携帯可能な小型の情報機器を用いて、主に海外旅
行で使用する会話を対象として、音声入力による翻訳機
能が実現できるようになった。この様な他の従来技術と
しての翻訳機能は双方向であり、例えば日本語から英語
への変換機能と、英語から日本語への変換機能の両方を
備える。On the other hand, recent advances in hardware technology have made it possible to realize a translation function by voice input, mainly for conversations used in overseas travels, using a small portable information device. Such other conventional translation function is bidirectional, and has both a conversion function from Japanese to English and a conversion function from English to Japanese, for example.
【0005】この様な他の従来技術の発明としては、外
国語翻訳装置(特開平8−77176号公報参照)や音
声入力翻訳装置(特開平8−278972号公報参照)
がある。これらの発明では、言語の異なる2人が1台の
機器を対面形式で使用して対話ができるように、機器の
形状や表示部の配置、その内容が決定されている。Other prior art inventions described above include a foreign language translation device (see Japanese Unexamined Patent Publication No. 8-77176) and a voice input translation device (see Japanese Unexamined Patent Publication No. 8-278972).
There is. In these inventions, the shape of the device, the arrangement of the display unit, and the contents thereof are determined so that two people of different languages can use one device in a face-to-face manner for conversation.
【0006】[0006]
【発明が解決しようとする課題】しかしながら、B5サイ
ズ程度のノート型パーソナルコンピュータは、ユーザが
簡単に携行して様々な場所で利用できる大きさではな
い。また、普通のキーボードやマウスで操作しなければ
ならないために、ユーザインタフェースとしても使い易
い形態ではない。さらに音声認識に必要とされるCPU性
能やワーキングメモリの容量といった計算資源の量は、
一般に認識対象語彙の大きさに比例する。However, the notebook personal computer of B5 size is not large enough for the user to carry around and use in various places. In addition, since it has to be operated with an ordinary keyboard or mouse, it is not easy to use as a user interface. Furthermore, the amount of computational resources such as CPU performance and working memory capacity required for speech recognition is
Generally, it is proportional to the size of the vocabulary to be recognized.
【0007】小型のハードウェアでは計算資源が限られ
るので、音声通訳装置として必要十分な単語を認識対象
語彙として実装することが困難であり、音声通訳装置と
しての利用価値が低くなるという課題があった。以上が
上記従来技術についての課題である(第1の課題)。Since small hardware has a limited computational resource, it is difficult to implement necessary and sufficient words as a speech interpreter as a recognition target vocabulary, and there is a problem that the utility value of the speech interpreter becomes low. It was The above is the subject of the above-mentioned conventional technique (first subject).
【0008】次に、上記他の従来技術についての課題を
説明する(第2の課題)。Next, the problems of the above other prior art will be described (second problem).
【0009】即ち、上記他の従来技術の翻訳装置におい
て、衣服のポケットに入るような小型の情報機器で、そ
の表示領域の解像度が小さい場合には、2人の利用者に
必要な情報をすべて表示することはできない。そのた
め、翻訳装置としての使い勝手が低下するという課題が
あった。また、複数の表示部を実装すると消費電力が増
加して翻訳装置の稼働時間が短くなるという課題もあっ
た。また、翻訳装置は2人の利用者の発声を排他的に扱
わないので、発声が重なると音声認識の認識率が低下し
て翻訳装置としての性能が低下するという課題もあっ
た。That is, in the above-mentioned other prior art translation apparatus, when a small information device that fits in a pocket of clothes and its display area has a small resolution, all the information necessary for two users is obtained. It cannot be displayed. Therefore, there is a problem that usability as a translation device is reduced. Further, there is a problem that mounting a plurality of display units increases power consumption and shortens the operation time of the translation apparatus. In addition, since the translation device does not exclusively deal with the utterances of two users, there is a problem that if the utterances overlap each other, the recognition rate of the voice recognition is lowered and the performance as the translation device is lowered.
【0010】本発明は、上記従来の音声通訳装置のこの
様な第1の課題を考慮し、従来に比べてより一層小型化
が可能であり、操作も簡単に出来得る音声変換装置、音
声変換方法、プログラム、及び媒体を提供することを目
的とする。In consideration of the first problem of the above-mentioned conventional voice interpreter, the present invention can be further downsized as compared with the conventional voice interpreter, and the voice converter and voice converter can be easily operated. It is intended to provide a method, a program, and a medium.
【0011】又、本発明は、上記従来の翻訳装置のこの
様な第2の課題を考慮し、従来に比べて表示内容につい
ての使用性の向上を図る事が出来る音声変換装置、音声
変換方法、プログラム、及び媒体を提供することを目的
とする。Further, in consideration of the second problem of the above-mentioned conventional translation apparatus, the present invention makes it possible to improve the usability of the display contents as compared with the conventional speech conversion apparatus and speech conversion method. , Programs, and media are provided.
【0012】[0012]
【課題を解決するための手段】第1の本発明(請求項1
記載の本発明に対応)は、第1の言語の音声を入力する
ための音声入力手段と、前記入力された音声を音声認識
するための音声認識手段と、前記音声の認識結果に対応
する、前記第1の言語の一つ又は複数の単語列を抽出
し、表示する第1の抽出・表示手段と、前記表示された
単語列から、第2の言語への変換対象となる予定の何れ
かの単語列を選定するための変換対象選定手段と、前記
選定された単語列の全部又は一部が特定された際、その
特定された内容に対応する用語の候補を抽出し、表示す
る第2の抽出・表示手段と、前記表示された前記候補か
ら何れかの候補を選定するための候補選定手段と、前記
選定された単語列と、前記選定された候補とに基づい
て、前記第2の言語への変換対象を決定し、その決定さ
れた変換対象を前記第2の言語の音声言語に変換する変
換手段と、を備えた音声変換装置である。[Means for Solving the Problems] The first invention (Claim 1)
(Corresponding to the present invention described) corresponds to a voice input unit for inputting a voice of a first language, a voice recognition unit for voice recognition of the input voice, and a recognition result of the voice. Any one of first extraction / display means for extracting and displaying one or a plurality of word strings in the first language, and a conversion target from the displayed word string to a second language And a conversion target selecting means for selecting the word string, and when all or part of the selected word string is specified, a term candidate corresponding to the specified content is extracted and displayed. Of the second candidate based on the extraction / display means, the candidate selection means for selecting one of the displayed candidates, the selected word string, and the selected candidate. The conversion target to the language is determined, and the determined conversion target is the first Conversion means for converting the audio language of the language, a speech conversion system having a.
【0013】又、第2の本発明(請求項2記載の本発明
に対応)は、前記第1の抽出・表示手段は、前記選定の
対象となる複数の単語列と、前記選定された単語列と
を、それぞれ予め定められた領域に表示するための表示
画面を備えた表示部を有しており、前記第2の抽出・表
示手段は、前記用語の候補を、前記表示画面の一部の領
域にウインドウ状に重ねて表示する手段である上記第1
の本発明の音声変換装置である。According to a second aspect of the present invention (corresponding to the present invention according to claim 2), the first extracting / displaying means includes a plurality of word strings to be selected and the selected words. And a column having a display screen for displaying each of the columns in a predetermined area, and the second extracting / displaying unit includes the term candidates as a part of the display screen. Which is means for displaying in a window-like manner on the area of
Is a voice conversion device of the present invention.
【0014】又、第3の本発明(請求項3記載の本発明
に対応)は、前記第1の抽出・表示手段は、前記選定さ
れた単語列を前記表示画面上に表示する際、前記単語列
の一部に対して、前記対応する用語の候補の表示が可能
である旨の情報をも付加して表示する手段である上記第
2の本発明の音声変換装置である。According to a third aspect of the present invention (corresponding to the present invention according to claim 3), when the first extracting / displaying means displays the selected word string on the display screen, The voice conversion device according to the second aspect of the present invention, which is a means for displaying a part of a word string by adding information indicating that the corresponding word candidates can be displayed.
【0015】又、第4の本発明(請求項4記載の本発明
に対応)は、前記付加された情報が表示されている前記
単語列の一部を、前記表示画面上で特定するための画面
表示特定手段を備えた上記第3の本発明の音声変換装置
である。Further, a fourth aspect of the present invention (corresponding to the present invention according to claim 4) is for identifying a part of the word string in which the added information is displayed on the display screen. It is a voice conversion device according to the third aspect of the present invention, which is provided with screen display specifying means.
【0016】又、第5の本発明(請求項5記載の本発明
に対応)は、前記変換手段は、前記単語列の内、前記特
定された前記一部を、前記選定された候補の用語に置き
換えた結果を、前記変換対象として決定する上記第1の
本発明の音声変換装置である。Further, in a fifth aspect of the present invention (corresponding to the present invention according to claim 5), the converting means defines the specified part of the word string as the selected candidate term. Is the speech conversion apparatus according to the first aspect of the present invention, in which the result of replacement is determined as the conversion target.
【0017】又、第6の本発明(請求項6記載の本発明
に対応)は、第1の言語の音声を入力する音声入力ステ
ップと、前記入力された音声を音声認識するための音声
認識ステップと、前記音声の認識結果に対応する、前記
第1の言語の一つ又は複数の単語列を抽出し、表示する
第1の抽出・表示ステップと、前記表示された単語列か
ら、第2の言語への変換対象となる予定の何れかの単語
列を選定するための変換対象選定ステップと、前記選定
された単語列の全部又は一部が特定された際、その特定
された内容に対応する用語の候補を抽出し、表示する第
2の抽出・表示ステップと、前記表示された前記候補か
ら何れかの候補を選定するための候補選定ステップと、
前記選定された単語列と、前記選定された候補とに基づ
いて、前記第2の言語への変換対象を決定し、その決定
された変換対象を前記第2の言語の音声言語に変換する
変換ステップと、を備えた音声変換方法である。Further, a sixth aspect of the present invention (corresponding to the present invention according to claim 6) is a voice input step of inputting a voice of the first language, and voice recognition for recognizing the input voice. A first extracting / displaying step of extracting and displaying one or a plurality of word strings of the first language corresponding to the voice recognition result, and a second extracting step from the displayed word strings. Conversion target selection step for selecting any word string that is to be converted into the language, and when all or part of the selected word string is specified, the specified content is supported A second extraction / display step of extracting and displaying a candidate of a term to be displayed, and a candidate selection step of selecting one of the displayed candidates from the displayed candidates.
A conversion for determining a conversion target to the second language based on the selected word string and the selected candidate, and converting the determined conversion target to a speech language of the second language. And a voice conversion method including steps.
【0018】又、第7の本発明(請求項7記載の本発明
に対応)は、上記第1〜5の何れか一つの本発明の音声
変換装置の、前記音声認識手段と、前記第1の表示・抽
出手段と、前記変換対象選定手段と、前記第2の表示・
抽出手段と、前記候補選定手段と、前記変換手段との全
部又は一部としてコンピュータを機能させるためのプロ
グラムである。A seventh aspect of the present invention (corresponding to the present invention according to claim 7) is the voice recognition means and the first aspect of the voice conversion device according to any one of the first to fifth aspects of the present invention. Display / extraction means, the conversion target selection means, and the second display /
It is a program for causing a computer to function as all or a part of the extraction means, the candidate selection means, and the conversion means.
【0019】又、第8の本発明(請求項8記載の本発明
に対応)は、上記第6の本発明の音声変換方法の、前記
音声認識ステップと、前記第1の表示・抽出ステップ
と、前記変換対象選定ステップと、前記第2の表示・抽
出ステップと、前記候補選定ステップと、前記変換ステ
ップとの全部又は一部をコンピュータに実行させるため
のプログラムである。An eighth aspect of the present invention (corresponding to the present invention according to claim 8) includes the voice recognition step and the first display / extraction step of the voice conversion method according to the sixth aspect of the present invention. A program for causing a computer to execute all or part of the conversion target selection step, the second display / extraction step, the candidate selection step, and the conversion step.
【0020】又、第9の本発明(請求項9記載の本発明
に対応)は、上記第7の本発明のプログラムを担持した
媒体であって、コンピュータにより処理可能なことを特
徴とする媒体である。A ninth aspect of the present invention (corresponding to the present invention according to claim 9) is a medium carrying the program according to the seventh aspect of the present invention, characterized in that it can be processed by a computer. Is.
【0021】又、第10の本発明(請求項10記載の本
発明に対応)は、上記第8の本発明のプログラムを担持
した媒体であって、コンピュータにより処理可能なこと
を特徴とする媒体である。A tenth aspect of the present invention (corresponding to the present invention according to claim 10) is a medium carrying the program according to the eighth aspect of the present invention, characterized in that it can be processed by a computer. Is.
【0022】以上の構成により、上記本発明では、例え
ば、ユーザが片手で持ってボタンやタッチパネルで簡単
に操作できる小型のハードウェアを提供することが可能
である。そして、例えば、音声通訳すべき用例文中に含
まれる単語をクラス化して保持し、クラスを代表する少
数の単語のみ認識対象語彙として音声認識部に実装する
ことが可能である。クラスを代表する単語を含む文が発
声されると、その単語を含む用例を検索してユーザに提
示することが可能である。通常、ユーザは所望の用例を
選択して翻訳音声を出力させる。しかし必要があれば、
ユーザはその単語をクラス内の他の単語に置換して翻訳
音声を出力させればよい。例えば、日本語で「アスピリ
ンはありますか」と入力したい場合には、単語「アスピ
リン」が属するクラスを代表する単語「薬」に置き換え
て、日本語で「何か薬はありますか」と発声し、その後
「薬」の部分を「アスピリン」に置き換えればよい。こ
のような段階的な操作によって、大規模な認識対象語彙
を実装することなく、音声通訳装置としての利用価値は
維持される。With the above arrangement, the present invention can provide, for example, a small piece of hardware that a user can hold with one hand and easily operate with a button or a touch panel. Then, for example, it is possible to classify and hold the words included in the example sentences to be voice-interpreted, and install only a small number of words representing the class in the voice recognition unit as the recognition target vocabulary. When a sentence including a word representing a class is uttered, an example including the word can be retrieved and presented to the user. Usually, the user selects a desired example and outputs a translated voice. But if necessary,
The user may replace the word with another word in the class and output the translated voice. For example, if you want to enter "Do you have aspirin?" In Japanese, replace it with the word "medicine" that represents the class to which the word "aspirin" belongs, and say "Do you have any drug?" In Japanese. , And then replace "drug" with "aspirin". By such a stepwise operation, the utility value as a voice interpreter is maintained without implementing a large-scale recognition target vocabulary.
【0023】第11の本発明(請求項11記載の本発明
に対応)は、第1又は第2の言語の音声を入力するため
の入力部と、(1)前記入力部から前記第1の言語の音
声を受け取った場合、それを音声認識し、且つ、所定の
制御指示に基づいて、(1−a)前記音声認識された前
記第1の言語の表記データを出力する、又は(1−b)
前記音声認識された認識結果に基づいて決定される変換
対象を前記第2の言語に変換し、その変換後の言語の少
なくとも表記データを出力し、(2)前記入力部から前
記第2の言語の音声を受け取った場合、それを音声認識
し、且つ、所定の制御指示に基づいて、(2−a)前記
音声認識された前記第2の言語の表記データを出力す
る、又は(2−b)前記音声認識された認識結果に基づ
いて決定される変換対象を前記第1の言語に変換し、そ
の変換後の言語の少なくとも表記データを出力する翻訳
部と、前記翻訳部の前記変換対象の決定を支援するため
の支援部と、前記翻訳部から出力される前記変換後の言
語の前記表記データを、前記所定の制御指示に基づいて
表示するための表示部と、前記所定の制御指示を、少な
くとも前記翻訳部及び前記表示部に対して行う制御部
と、を備えた音声変換装置である。An eleventh aspect of the present invention (corresponding to the present invention according to claim 11) is an input section for inputting a voice of a first or second language, and (1) the first section from the input section. When a voice of a language is received, the voice is recognized, and (1-a) the voice-recognized notation data of the first language is output based on a predetermined control instruction, or (1- b)
A conversion target determined based on the recognition result obtained by the voice recognition is converted into the second language, at least notation data of the converted language is output, and (2) the second language is input from the input unit. When the voice is received, the voice is recognized, and (2-a) the voice-recognized notation data of the second language is output based on a predetermined control instruction, or (2-b) ) A translation unit that converts the conversion target determined based on the recognition result obtained by the voice recognition into the first language and outputs at least notation data of the converted language, and a translation unit of the translation unit. A support unit for supporting the determination, a display unit for displaying the notation data in the converted language output from the translation unit based on the predetermined control instruction, and the predetermined control instruction. , At least the translation department And a control unit which performs relative to the display section, a speech conversion system having a.
【0024】又、第12の本発明(請求項12記載の本
発明に対応)は、前記第1の言語を使用する利用者と、
前記第2の言語を使用する他の利用者との対話の際に前
記入力部により入力された音声に基づいた前記表記デー
タを逐次保持して、履歴情報として前記表示部に出力す
るための対話履歴管理部を備えた上記第11の本発明の
音声変換装置である。A twelfth aspect of the present invention (corresponding to the present invention according to claim 12) is a user who uses the first language,
Dialogue for sequentially holding the notation data based on the voice input by the input unit at the time of dialogue with another user who uses the second language, and outputting it as history information to the display unit. It is the speech conversion apparatus according to the eleventh aspect of the present invention, which includes a history management unit.
【0025】又、第13の本発明(請求項13記載の本
発明に対応)は、前記第1の言語から第2の言語、又は
前記第2の言語から第1の言語への何れの翻訳が前記音
声翻訳部により行われるべきかの翻訳方向を決定するた
めの情報を検出する言語変換方向検出部を備え、前記制
御部は、前記検出結果に基づいて、前記音声翻訳部に対
して前記翻訳方向を指定し、かつ、前記入力部を制御す
る上記第11の本発明の音声変換装置である。The thirteenth invention (corresponding to the invention of claim 13) is any translation from the first language to the second language or from the second language to the first language. Is provided with a language conversion direction detection unit that detects information for determining a translation direction that should be performed by the speech translation unit, and the control unit, based on the detection result, the speech translation unit to the speech translation unit. The speech conversion apparatus according to the eleventh aspect of the present invention, which specifies a translation direction and controls the input unit.
【0026】又、第14の本発明(請求項14記載の本
発明に対応)は、前記制御部の前記入力部に対する制御
とは、前記入力部が複数の音声入力部によって構成され
る場合に、発声する利用者の音声を最も良く集音する前
記音声入力部を選択することである上記第13の本発明
の音声変換装置である。In the fourteenth aspect of the present invention (corresponding to the present invention according to claim 14), the control of the input section by the control section means that the input section is composed of a plurality of voice input sections. The voice conversion device according to the thirteenth aspect of the present invention, which is to select the voice input unit that most collects the voice of the user who speaks.
【0027】又、第15の本発明(請求項5記載の本発
明に対応)は、前記制御部は、前記翻訳方向に応じて、
前記表示部の表示内容を、その表示部の表示画面を基準
として実質上180度回転するように制御することを特
徴とする上記第13の本発明の音声変換装置である。Further, in a fifteenth aspect of the present invention (corresponding to the present invention according to claim 5), the control section responds to the translation direction according to the translation direction.
The speech conversion apparatus according to the thirteenth aspect of the present invention, wherein the display content of the display unit is controlled so as to rotate substantially 180 degrees with respect to the display screen of the display unit.
【0028】又、第16の本発明(請求項16記載の本
発明に対応)は、前記言語変換方向検出部は、ボタンス
イッチで構成されており、発声する利用者が前記ボタン
スイッチを押して翻訳方向を選択する構成である上記第
13の本発明の音声変換装置である。According to a sixteenth aspect of the present invention (corresponding to the present invention according to claim 16), the language conversion direction detecting section is composed of a button switch, and a user who speaks presses the button switch to translate. It is the audio conversion device according to the thirteenth aspect of the present invention, which is configured to select a direction.
【0029】又、第17の本発明(請求項17記載の本
発明に対応)は、前記言語変換方向検出部は、可動式の
マイクの音響的指向性の最も良い方向を検出する角度セ
ンサーで構成されており、発声する利用者がマイクの方
向を変えて前記翻訳方向を選択する上記第13の本発明
の音声入力翻訳装置である。According to a seventeenth aspect of the present invention (corresponding to the present invention according to claim 17), the language conversion direction detecting section is an angle sensor for detecting a direction having the best acoustic directivity of the movable microphone. The speech input translation device according to the thirteenth aspect of the present invention, which is configured so that a speaking user changes the direction of a microphone to select the translation direction.
【0030】又、第18の本発明(請求項18記載の本
発明に対応)は、前記言語変換方向検出部は、前記音声
変換装置の内部に設置されたジャイロセンサーで構成さ
れており、発声する利用者が前記音声変換装置を手に持
つ位置で前記翻訳方向を選択する上記第13の本発明の
音声変換装置である。In the eighteenth aspect of the present invention (corresponding to the present invention according to claim 18), the language conversion direction detection section is constituted by a gyro sensor installed inside the voice conversion device, The voice conversion device according to the thirteenth aspect of the present invention, wherein the user selects the translation direction at a position where the user holds the voice conversion device.
【0031】又、第19の本発明(請求項19記載の本
発明に対応)は、前記言語変換方向検出部は、マイクア
レーユニットで構成される入力部の、音源方向検出装置
によって構成されており、発声する利用者の前記マイク
アレーユニットに対する発声位置で翻訳方向を選択する
上記第13の本発明の音声変換装置である。In the nineteenth aspect of the present invention (corresponding to the present invention according to claim 19), the language conversion direction detecting section is constituted by a sound source direction detecting device of an input section constituted by a microphone array unit. The speech conversion apparatus according to the thirteenth aspect of the present invention, wherein the translation direction is selected according to the vocalization position of the user who speaks with respect to the microphone array unit.
【0032】又、第20の本発明(請求項20記載の本
発明に対応)は、第1又は第2の言語の音声を入力し、
出力する音声入力ステップと、(1)前記音声入力ステ
ップにより出力された前記第1の言語の音声を受け取っ
た場合、それを音声認識し、且つ、所定の制御指示に基
づいて、(1−a)前記音声認識された前記第1の言語
の表記データを出力する、又は(1−b)前記音声認識
された認識結果に基づいて決定される変換対象を前記第
2の言語に変換し、その変換後の言語の少なくとも表記
データを出力し、(2)前記音声入力ステップにより出
力された前記第2の言語の音声を受け取った場合、それ
を音声認識し、且つ、所定の制御指示に基づいて、(2
−a)前記音声認識された前記第2の言語の表記データ
を出力する、又は(2−b)前記音声認識された認識結
果に基づいて決定される変換対象を前記第1の言語に変
換し、その変換後の言語の少なくとも表記データを出力
する翻訳ステップと、前記翻訳ステップでの前記変換対
象の決定を支援するための支援ステップと、前記翻訳ス
テップにより出力される前記変換後の言語の前記表記デ
ータを、前記所定の制御指示に基づいて表示するための
表示ステップと、前記所定の制御指示を、少なくとも前
記翻訳ステップ及び前記表示ステップに対して行う制御
ステップと、を備えた音声変換方法である。The twentieth present invention (corresponding to the present invention according to claim 20) inputs the voice of the first or second language,
When the voice input step of outputting and (1) the voice of the first language output by the voice input step is received, the voice is recognized, and based on a predetermined control instruction, (1-a ) Outputting the voice-recognized notation data of the first language, or (1-b) converting a conversion target determined based on the recognition result of the voice recognition into the second language, and When at least notation data of the converted language is output, and (2) when the voice of the second language output by the voice input step is received, it is voice-recognized and based on a predetermined control instruction. , (2
-A) outputting the speech-recognized notation data of the second language, or (2-b) converting the conversion target determined based on the recognition result of the speech recognition into the first language. A translation step of outputting at least notation data of the converted language, a support step of supporting the determination of the conversion target in the translation step, and the conversion of the converted language output by the translation step. A voice conversion method comprising: a display step for displaying notation data based on the predetermined control instruction; and a control step of performing the predetermined control instruction on at least the translation step and the display step. is there.
【0033】又、第21の本発明(請求項21記載の本
発明に対応)は、上記第11〜19の何れか一つの本発
明の音声変換装置の、前記翻訳部と、前記支援部と、前
記表示部と、前記対話履歴管理部との全部又は一部とし
てコンピュータを機能させるためのプログラムである。The 21st aspect of the present invention (corresponding to the present invention according to claim 21) is that the translation section and the support section of the speech conversion apparatus according to any one of the 11th to 19th aspects of the present invention. A program for causing a computer to function as all or a part of the display unit and the dialogue history management unit.
【0034】又、第22の本発明(請求項22記載の本
発明に対応)は、上記第20の本発明の音声変換方法
の、前記翻訳ステップと、前記支援ステップと、前記表
示ステップと、前記対話履歴管ステップとの全部又は一
部をコンピュータに実行させるためのプログラムであ
る。The 22nd aspect of the present invention (corresponding to the invention of claim 22) is the translation step, the support step, and the display step of the speech conversion method according to the 20th aspect of the invention. It is a program for causing a computer to execute all or part of the dialogue history management step.
【0035】又、第23の本発明(請求項23記載の本
発明に対応)は、上記第21の本発明のプログラムを担
持した媒体であって、コンピュータにより処理可能なこ
とを特徴とする媒体である。The twenty-third aspect of the present invention (corresponding to the present invention according to claim 23) is a medium carrying the program according to the twenty-first aspect of the present invention, characterized in that it can be processed by a computer. Is.
【0036】又、第24の本発明(請求項24記載の本
発明に対応)は、上記第22の本発明のプログラムを担
持した媒体であって、コンピュータにより処理可能なこ
とを特徴とする媒体である。A twenty-fourth aspect of the present invention (corresponding to the present invention according to claim 24) is a medium carrying the program according to the twenty-second aspect of the present invention, characterized in that it can be processed by a computer. Is.
【0037】上記本発明の構成によれば、例えば、音声
変換装置としてユーザが片手で持ってボタンやタッチパ
ネルで簡単に操作できるものを用いる。そして、対面す
る2人の使用者(一方の使用者が、第1の言語を使用
し、他方の使用者が第2の言語を使用する)が、操作権
限を手動で獲得する手段、あるいは、操作権限を手動で
相手に与える手段、あるいは、自動的に獲得する手段を
追加して、どちらに操作権限があるかを明示的に示し、
かつ、その使用者が操作しやすい表示と入力手段を提供
する。これにより、例えば、表示電力を増加させること
なく、従来に比べて表示内容についての使用性の向上を
図る事が出来る。According to the above configuration of the present invention, for example, a voice conversion device that the user holds with one hand and can easily operate with a button or a touch panel is used. Then, two facing users (one user uses the first language and the other user uses the second language), or means for manually obtaining the operation authority, or By adding a method of manually giving the operation authority to the other party or a method of automatically acquiring it, it is explicitly shown which one has the operation authority,
Moreover, a display and an input means that the user can easily operate are provided. Thereby, for example, the usability of the display content can be improved as compared with the conventional case without increasing the display power.
【0038】[0038]
【発明の実施の形態】以下に、本発明の音声変換装置の
一実施の形態の音声通訳装置の構成及び動作について、
図面を参照しながら述べるとともに、本発明の音声変換
方法の動作も同時に説明する。BEST MODE FOR CARRYING OUT THE INVENTION The configuration and operation of a speech interpreter according to an embodiment of the speech conversion apparatus of the present invention will be described below.
Along with the description with reference to the drawings, the operation of the voice conversion method of the present invention will also be described.
【0039】図1は、本実施の形態の音声通訳装置のハ
ードウェア構成を示すブロック図である。FIG. 1 is a block diagram showing the hardware configuration of the speech interpreting apparatus of this embodiment.
【0040】音声入出力装置102はユーザの原言語に
よる発声を受け取り、目的言語に通訳された音声を出力
する。画像出力装置103は、本通訳装置が通訳すべき
原言語の用例を表示する。画像指示装置105およびボ
タン106は、画像出力装置103に表示された用例を
ユーザに選択させるため使用する。演算制御装置101
は、音声入出力装置102と画像指示装置105とボタ
ン106から入力される原言語に関するデータを目的言
語に関するデータへ音声言語的に変換し、音声入出力装
置102と画像出力装置103に出力する。外部大容量
不揮発性記憶装置104は、演算制御装置101に処理
の手順を指示するプログラムとデータを保持する。ま
た、外部データ入出力端子107は、演算制御装置10
1が外部機器とプログラムやデータを交換するために使
用する。電源装置108は、演算制御装置101を駆動
するために必要な電源を供給する。The voice input / output device 102 receives the user's utterance in the original language and outputs the voice translated into the target language. The image output device 103 displays an example of the source language to be translated by the interpreter. The image indicating device 105 and the button 106 are used to allow the user to select the example displayed on the image output device 103. Arithmetic control device 101
Converts the data related to the source language input from the voice input / output device 102, the image instruction device 105, and the button 106 into data regarding the target language in a voice linguistic manner, and outputs the data to the voice input / output device 102 and the image output device 103. The external large-capacity non-volatile storage device 104 holds a program and data for instructing the arithmetic and control unit 101 about a processing procedure. The external data input / output terminal 107 is connected to the arithmetic and control unit 10
1 is used to exchange programs and data with external devices. The power supply device 108 supplies power necessary for driving the arithmetic and control unit 101.
【0041】ここで、本発明の音声入力手段は、音声入
力装置102に対応し、本発明の第1の抽出・表示手
段、及び第2の抽出・表示手段は、画像出力装置103
と演算制御装置101等を含む構成部分に対応する。
又、本発明の画面表示特定手段は、画像指示装置105
及びボタン106に対応する。又、本発明の第1の言語
が、本実施の形態での原言語に対応し、本発明の第2の
言語が、本実施の形態での目的言語に対応する。Here, the voice input means of the present invention corresponds to the voice input device 102, and the first extraction / display means and the second extraction / display means of the present invention are the image output device 103.
And the components including the arithmetic and control unit 101 and the like.
Further, the screen display specifying means of the present invention is the image indicating device 105.
And button 106. Further, the first language of the present invention corresponds to the source language of the present embodiment, and the second language of the present invention corresponds to the target language of the present embodiment.
【0042】演算制御装置101に、PC/AT互換のマザ
ーボードを使用した具体的な構成例を図2に示す。音声
入出力装置203はマザーボード201のUSB端子を利
用して接続する。画像出力装置204はマザーボード2
01のデジタルRGBインタフェース端子を利用して接続
する。外部大容量不揮発性記憶装置104には2.5イン
チのハードディスクドライブ202を使用し、マザーボ
ード201とIDEインタフェースで接続する。このハー
ドディスクドライブの替わりにフラッシュメモリディス
クを使用してもよい。また、電源装置108にはLi-ion
2次電池208を使用し、+5Vおよび+12Vの電圧をマザ
ーボード201に供給する。マザーボード201の入出
力端子の中で、アナログディスプレイ出力端子、ローカ
ルエリアネットワーク端子、キーボード接続端子を引き
出し、外部データ入出力端子207を構成する。FIG. 2 shows a concrete example of the configuration in which a PC / AT compatible mother board is used for the arithmetic and control unit 101. The voice input / output device 203 is connected using the USB terminal of the motherboard 201. The image output device 204 is the mother board 2
Connect using the 01 digital RGB interface terminal. A 2.5-inch hard disk drive 202 is used as the external large-capacity nonvolatile storage device 104, and is connected to the mother board 201 through an IDE interface. A flash memory disk may be used instead of this hard disk drive. In addition, the power supply device 108 has a Li-ion
A secondary battery 208 is used to supply + 5V and + 12V voltages to the motherboard 201. Among the input / output terminals of the motherboard 201, an analog display output terminal, a local area network terminal, and a keyboard connection terminal are drawn out to form an external data input / output terminal 207.
【0043】画像出力装置204の詳細な構成を図3に
示す。冷陰極線管のバックライトが背面に実装された表
示面積が4インチ、解像度がVGAのLCDユニット301に
対し、マザーボード302のデジタルRGBインタフェー
スの中から18ビットを使用して接続する。また、映像
の同期信号とバックライトの制御信号も接続する。A detailed structure of the image output device 204 is shown in FIG. A backlight of a cold cathode ray tube is mounted on the back surface to connect to an LCD unit 301 having a display area of 4 inches and a resolution of VGA using 18 bits from a digital RGB interface of a motherboard 302. Also, a video synchronization signal and a backlight control signal are connected.
【0044】画像指示装置205およびボタン206の
詳細な構成を図4に示す。3.8インチの感圧式タッチ
パネル402をタッチパネルコントローラ401に接続
し、指示位置のX座標とY座標をRS232C規格のシリアルデ
ータに変換してマザーボード405のシリアル端子COM1
に接続する。ボタン403とボタン404は、それぞれ
タッチパネルコントローラ401に接続され、ボタンの
ONまたはOFFの情報は指示位置の情報に付加される。マ
ザーボード405に実装されるタッチパネルコントロー
ラ401のデバイスドライバ・ソフトウェアによって受
信されたシリアルデータは解読され、ボタン403はマ
ザーボード405にマウスを接続したときの左ボタン
に、ボタン404は右ボタンに相当するようにマウスク
リックイベントが発生する。FIG. 4 shows the detailed structure of the image pointing device 205 and the button 206. The 3.8-inch pressure-sensitive touch panel 402 is connected to the touch panel controller 401, and the X and Y coordinates of the indicated position are converted into RS232C standard serial data and the serial terminal COM1 of the motherboard 405 is converted.
Connect to. The buttons 403 and 404 are connected to the touch panel controller 401, and
The information of ON or OFF is added to the information of the designated position. The serial data received by the device driver software of the touch panel controller 401 mounted on the motherboard 405 is decoded, and the button 403 corresponds to the left button when the mouse is connected to the motherboard 405 and the button 404 corresponds to the right button. A mouse click event occurs.
【0045】音声入出力装置203の詳細な構成を図5
に示す。USBオーディオインタフェース504は入力さ
れるアナログ音声をデジタルデータに変換してマザーボ
ード505に送信し、マザーボード505(図2の20
1に対応)から送信されるデジタルデータをアナログ音
声に変換する。デジタルデータの送受信にはUSBインタ
フェースを使用する。アナログ音声の収集にはマイク5
03を使用する。また、USBインタフェース504の出
力はオーディオアンプ502によって増幅し、スピーカ
501から出力する。なお、USBオーディオインタフェ
ース504の替わりに、マザーボード505に実装され
ているオーディオインタフェースを使用してもよい。The detailed structure of the voice input / output device 203 is shown in FIG.
Shown in. The USB audio interface 504 converts the input analog voice into digital data and transmits the digital data to the motherboard 505.
(Corresponding to 1) is converted to analog voice. USB interface is used for sending and receiving digital data. Microphone 5 for collecting analog voice
Use 03. The output of the USB interface 504 is amplified by the audio amplifier 502 and output from the speaker 501. An audio interface mounted on the motherboard 505 may be used instead of the USB audio interface 504.
【0046】図2の構成を、ユーザが片手で持つことが
可能な筐体に実装した例の斜視図を図6、および、その
三面図を図7(a)〜図7(c)に示す。主筐体601
には、画像指示装置205と画像表示装置204とボタ
ン205が実装されている。603および604はそれ
ぞれ、ボタン403およびボタン404に相当する。副
筐体602には、音声入出力装置203が実装されてい
る。本通訳装置を利用しない場合は、画像表示装置20
4の表示面を副筐体602が覆って保護する。FIG. 6 shows a perspective view of an example in which the configuration of FIG. 2 is mounted in a housing that can be held by a user with one hand, and three views thereof are shown in FIGS. 7 (a) to 7 (c). . Main housing 601
An image instruction device 205, an image display device 204, and a button 205 are mounted on the. Reference numerals 603 and 604 correspond to the button 403 and the button 404, respectively. The voice input / output device 203 is mounted on the sub-housing 602. If the interpreter is not used, the image display device 20
The sub-casing 602 covers and protects the display surface of No. 4.
【0047】本通訳装置を利用する場合は、図8のよう
に副筐体802を音声入出力装置203(マイク80
3)の指向性の方向がユーザの顔を向く所定の位置まで
移動させてから利用する。その三面図を図9(a)〜図
9(c)に示す。すなわち副筐体802に実装されたス
ピーカ804がユーザ方向を向くまで持ち上げ、さらに
マイク803も同じく持ち上げる。この状態でタッチパ
ネル付LCD805が使用可能になる。When this interpreter is used, the sub-housing 802 is connected to the voice input / output device 203 (microphone 80 as shown in FIG. 8).
It is used after the directivity direction of 3) is moved to a predetermined position facing the user's face. The three views are shown in FIGS. 9 (a) to 9 (c). That is, the speaker 804 mounted on the sub-housing 802 is lifted until it faces the user, and the microphone 803 is also lifted. In this state, the LCD 805 with a touch panel can be used.
【0048】図10(a)〜図10(c)に主筐体60
1に対する実装の様子を示す。4インチVGALCDユニット
301とタッチパネル402は重ねられ、タッチパネル
付LCD1005として実装される。図11(a)〜図1
1(c)に副筐体602に対する実装の様子を示す。The main housing 60 is shown in FIGS. 10 (a) to 10 (c).
The state of implementation for 1 is shown. The 4-inch VGA LCD unit 301 and the touch panel 402 are stacked and mounted as a touch panel LCD 1005. 11A to FIG.
1 (c) shows how the sub-housing 602 is mounted.
【0049】図12に本発明のプログラムとデータの実
施の形態であるソフトウェア構成図を示す。図12にお
いて、1201は各構成要素に指示を行い、各構成要素
からのデータの流れを制御する制御部、1202は制御
部1201からの情報の表示や、ユーザからの入力を制
御部1201に送るGUI(Graphical User Interface)
部、1203は制御部1201からの指示によりユーザ
の音声を収録する音声入力部、1204は音声入力部か
ら送られるユーザの音声を連続音声認識する音声認識
部、1205は原言語と目的言語の用例の対応を保持す
る用例データベース、1206は用例データベース12
05において、クラス化されている単語を保持する単語
クラス辞書、1207は制御部1201から送られてく
る音声認識結果から、用例データベース1205を参照
して用例の選択を行う用例選択部、1208は制御部1
201からの指示に従って、用例選択部1207により
選択された用例の中からクラス化された単語の選択を行
う単語選択部、1209は制御部1201により指定さ
れたクラス化された単語に変わることが可能である単語
を単語クラス辞書1206を参照することにより、代替
単語を選択する代替単語選択部、1210は制御部12
01により指定された用例を用例データベース1205
および単語クラス辞書1206を参照することにより目
的言語に変換する言語変換部、1211は制御部より指
定された目的言語による用例文を音声合成して出力する
音声合成部で構成する。尚、ここで、用例データベース
1205〜言語変換部1210をまとめて翻訳部122
0と呼ぶ。FIG. 12 shows a software configuration diagram as an embodiment of the program and data of the present invention. In FIG. 12, a control unit 1201 gives an instruction to each component and controls the flow of data from each component, and 1202 displays information from the control unit 1201 and sends an input from the user to the control unit 1201. GUI (Graphical User Interface)
Unit 1203, a voice input unit that records the user's voice according to an instruction from the control unit 1201, 1204 is a voice recognition unit that continuously recognizes the user's voice sent from the voice input unit, and 1205 is an example of a source language and a target language. The example database 1206 that holds the correspondence of
In 05, a word class dictionary holding the words that have been classified into classes 1207, an example selection unit 1208 that selects an example from the voice recognition result sent from the control unit 1201 by referring to the example database 1205. Part 1
In accordance with an instruction from 201, a word selection unit that selects a classified word from the examples selected by the example selection unit 1207, 1209 can be changed to the classified word specified by the control unit 1201. An alternative word selecting unit for selecting an alternative word by referring to the word class dictionary 1206 for the word
The example database 1205 specified by 01
A language conversion unit for converting the target language into a target language by referring to the word class dictionary 1206 and a speech synthesis unit 1211 for synthesizing and outputting an example sentence in the target language designated by the control unit. Here, the example database 1205 to the language conversion unit 1210 are collectively referred to as the translation unit 122.
Call it 0.
【0050】ここで、本発明の音声認識手段は、音声認
識部1204に対応し、本発明の変換対象選定手段は、
用例選択部1207等に対応する。又、本発明の画面表
示特定手段は、単語選択部1208等に対応し、本発明
の候補選定手段は、代替単語選択部1209等に対応す
る。又、本発明の変換手段は、言語変換部1210と音
声合成部1211などを含む構成部分に対応する。Here, the voice recognition means of the present invention corresponds to the voice recognition section 1204, and the conversion target selection means of the present invention is
It corresponds to the example selection unit 1207 and the like. The screen display specifying means of the present invention corresponds to the word selecting section 1208 and the like, and the candidate selecting means of the present invention corresponds to the alternative word selecting section 1209 and the like. Further, the conversion means of the present invention corresponds to a component including a language conversion unit 1210, a voice synthesis unit 1211 and the like.
【0051】図14に、用例データベース1205の具
体例を示す。用例は対話の1文に対応しており、各用例
において予め定められた情報(原言語の構成要素、構成
要素の依存関係)とともに、原言語と目的言語の対応を
保持している。<>で囲まれた原言語の単語は、クラス
化された単語であることを示す。クラス化された単語
は、同じクラスの単語と置き換えることが可能であるこ
とを示す。FIG. 14 shows a specific example of the example database 1205. The example corresponds to one sentence of the dialogue, and holds the correspondence between the source language and the target language, together with the information (components of the source language and the dependency relationship of the components) that is predetermined in each example. Source language words enclosed in <> indicate that they are classified words. Classified words indicate that they can be replaced with words of the same class.
【0052】図15に単語クラス辞書1206の具体例
を示す。ここで、クラスとは「果物」のように抽象度の
高い単語のことであり、クラスに属する単語とは、「り
んご」や「みかん」のようにクラスの具体的な実体を表
現する単語である。なお、クラス化の抽象度は、音声認
識部1204の性能に応じて変更することにより、効率
的に用例選択を行うことが可能である。また、クラスを
階層化して単語クラス辞書1206を構成してもよい。FIG. 15 shows a concrete example of the word class dictionary 1206. Here, a class is a word with a high degree of abstraction such as “fruit”, and a word that belongs to a class is a word that expresses a concrete entity of the class such as “apple” or “mandarin orange”. is there. Note that the classifying abstraction degree can be changed according to the performance of the voice recognition unit 1204, so that the example selection can be efficiently performed. Further, the word class dictionary 1206 may be constructed by classifying the classes into hierarchies.
【0053】図16にタッチパネル付LCD805に表示
されたGUI部1202の詳細を示す。1601は翻訳の
方向を指定する翻訳方向指定部、1603は音声認識部
1204により認識された音声認識結果を表示する音声
認識結果表示部、1604は用例選択部1207によ
り、選択された用例文を表示する用例候補表示部、16
05はユーザにより指定された用例を表示する用例選択
結果表示部、1606は言語変換部が目的言語に変換し
た用例を表示する翻訳結果表示部、1607、1608
はそれぞれボタン806、ボタン807に相当し、ユー
ザによる入力を行う。また、タッチパネル付LCD805
に対して、ユーザはポインティング入力を行うことが可
能である。FIG. 16 shows details of the GUI unit 1202 displayed on the LCD 805 with a touch panel. Reference numeral 1601 is a translation direction designating section for designating a translation direction, 1603 is a voice recognition result display section for displaying the voice recognition result recognized by the voice recognition section 1204, and 1604 is a case example selected by the example selecting section 1207. Example candidate display unit, 16
Reference numeral 05 is an example selection result display section for displaying an example specified by the user, 1606 is a translation result display section for displaying an example converted into the target language by the language conversion section, 1607, 1608.
Correspond to buttons 806 and 807, respectively, and are input by the user. Also, LCD with touch panel 805
On the other hand, the user can make a pointing input.
【0054】図13は本発明のソフトウェアのフローチ
ャートである。1301は翻訳の方向を選択するステッ
プ、1302はマイク803で音声を入力し音声認識を
行うステップ、1303は音声認識結果に基づいて用例
データベース1205から用例を検索するステップ、1
304は検索した用例からユーザが用例の選択を行うス
テップ、1305はステップ1304で選択した用例を
修正するか、または翻訳を行うかを決定するステップ、
1306はステップ1304で選択した用例において修
正する単語を選択するステップ、1307はステップ1
306で選択した修正する単語に置き換え可能な単語の
一覧を出力するステップ、1308はステップ1307
で出力した単語の一覧からユーザが希望する単語を選択
するステップ、1309はステップ1308により変更
した単語に用例を置き換えるステップ。1310はステ
ップ1305により決定された用例文を目的言語に変換
するステップ、1311は、ステップ1309により目
的言語に変換された用例を音声合成し、スピーカ804
から出力するステップである。FIG. 13 is a flowchart of the software of the present invention. 1301 is a step of selecting a translation direction, 1302 is a step of inputting a voice with a microphone 803 to perform voice recognition, 1303 is a step of searching an example database 1205 based on the voice recognition result, 1
304 is a step in which the user selects an example from the searched examples, and 1305 is a step in which it is determined whether the example selected in step 1304 is modified or translated.
1306 is a step of selecting a word to be corrected in the example selected in step 1304, and 1307 is a step 1
The step of outputting a list of words that can be replaced with the word to be modified selected in 306, 1308 is step 1307.
The step of selecting a word desired by the user from the list of words output in step 1309, and the step 1309 of replacing the example with the word changed in step 1308. 1310 is a step of converting the example sentence determined in step 1305 into the target language, and 1311 is voice synthesis of the example sentence converted into the target language in step 1309, and the speaker 804.
This is the step to output from.
【0055】以下、本発明のソフトウェアの動作を図1
3のフローチャートと、図17から図25のタッチパネ
ル付LCD805に表示されるGUI部1202の表示内容を
参照しながら説明する。一例として、ユーザが「アスピ
リンはありますか」という文を翻訳したい場合について
説明する。具体的には、ユーザは「薬はありますか」と
入力してから、「薬」の部分を「アスピリン」に置き換
える操作を行う。本発明では、タッチパネルとボタンを
利用して2種類の入力操作が可能であるので、以下では
タッチパネル入力、ボタン入力の順で説明する。The operation of the software of the present invention will be described below with reference to FIG.
3 and the display contents of the GUI unit 1202 displayed on the LCD 805 with a touch panel shown in FIGS. 17 to 25. As an example, a case where the user wants to translate the sentence "Are you aspirin?" Specifically, the user inputs "Is there any medicine?", And then replaces "medicine" with "aspirin". In the present invention, two types of input operations can be performed using the touch panel and the buttons, so in the following, touch panel input and button input will be described in order.
【0056】タッチパネル入力の場合のステップ130
1からステップ1303までのGUI部1202の表示内
容を図17に示す。ステップ1301では、ユーザは翻
訳方向指定部1701をタッチパネル入力によりクリッ
クし日英方向の翻訳を指定する。この時、GUI部120
2は翻訳方向を制御部1201に送信し、制御部120
1は音声入力部1203に音声入力を指示する。ユーザ
はマイク803を用いて「何か薬はありますか」と発声
する。音声入力部1203は、入力された音声を音声認
識部1204に送信する。ステップ1302では、音声
認識部1204が指定された翻訳方向に対応する音声認
識を行い、誤認識を含んだ認識結果「7日薬はあります
か」を制御部1201に送信したとする。制御部120
1は、音声認識結果をGUI部1202、および用例選択
部1207に送信する。GUI部1202は送信された音
声認識結果を認識結果表示部1702に表示する。一
方、ステップ1303では、用例選択部1207が音声
認識結果に基づき、以下の方法で用例を検索し、検索さ
れた用例を制御部1201に送信する。Step 130 for touch panel input
FIG. 17 shows the display contents of the GUI unit 1202 from 1 to step 1303. In step 1301, the user clicks on the translation direction designating section 1701 by touch panel input and designates the translation in the Japanese-English direction. At this time, the GUI unit 120
2 transmits the translation direction to the control unit 1201, and the control unit 120
1 instructs the voice input unit 1203 to input voice. The user uses the microphone 803 to say "Is there any medicine?" The voice input unit 1203 transmits the input voice to the voice recognition unit 1204. In step 1302, it is assumed that the voice recognition unit 1204 performs voice recognition corresponding to the designated translation direction, and transmits the recognition result including erroneous recognition "Is there a 7-day drug?" To the control unit 1201. Control unit 120
1 transmits the voice recognition result to the GUI unit 1202 and the example selecting unit 1207. The GUI unit 1202 displays the transmitted voice recognition result on the recognition result display unit 1702. On the other hand, in step 1303, the example selection unit 1207 searches for an example by the following method based on the voice recognition result, and transmits the searched example to the control unit 1201.
【0057】用例選択部1207は、「7日薬はありま
すか」という音声認識結果から、用例データベース12
05で定義されている重要語の集合として、「7日」,
「薬」,「あり」を抽出する。The example selection unit 1207 selects the example database 12 from the voice recognition result of "Is there any drug for 7 days?"
As a set of important words defined in 05, "7 days",
"Medical" and "Yes" are extracted.
【0058】ここで、「7日」はクラス化された単語<
日数>に帰属し、「薬」はクラス化された単語<薬>に
帰属する。「あり」はいかなるクラス化された単語にも
帰属しない。Here, "7 days" is a classified word <
Days> and “drug” belongs to the classified word <drug>. "Yes" does not belong to any classified word.
【0059】用例選択部1207は、図14の構成要素
の依存関係を順次確認し、依存関係が1つ以上成立する
用例の中で、成立数が多い用例から順に選択する。例え
ば、用例番号1の用例については、重要語の上記集合の
中に「かかり」が存在しないので依存関係の成立数は0
である。用例番号2の用例については、重要語の上記集
合の中に「何か」が存在しないので、構成要素の依存関
係の中で、(1→2)は成立しないが、(2→3)は成
立する(図14参照)。したがって、依存関係の成立数
は1である。The example selection unit 1207 sequentially confirms the dependency relationships of the constituent elements in FIG. 14, and selects one from the examples having the largest number of relationships among the examples in which one or more dependency relationships are satisfied. For example, with regard to the example of the example number 1, since there is no "hang" in the above set of important words, the number of established dependencies is 0.
Is. As for the example of example number 2, since "something" does not exist in the above set of important words, (1 → 2) does not hold in the dependency relation of the component, but (2 → 3) It holds (see FIG. 14). Therefore, the number of established dependencies is one.
【0060】用例選択部1207が、依存関係の成立数
が1以上の用例を用例データベース1205の中から選
択するように設計すると、図14で用例番号1の用例は
選択されず、用例番号2の用例は選択される。重要語の
集合の中に「何か」が存在しないので、選択された用例
番号2の用例については、
・「薬はありますか」という表記を出力する。If the example selecting unit 1207 is designed to select from the example database 1205 in which the number of dependency relationships established is 1 or more, the example of example number 1 is not selected in FIG. The example is selected. Since "something" does not exist in the set of important words, for the selected example of example number 2, output the notation "Do you have medicine?".
【0061】以下の説明では、用例データベース120
5の中の他の用例、
・「薬ですか」
・「薬です」が上記と同様に選択されたとして説明す
る。In the following description, the example database 120
It is assumed that the other examples in 5, "Is this medicine?" And "It is medicine" are selected in the same manner as above.
【0062】制御部1201は、用例選択部1207か
ら送信された用例文をGUI部1202に送信する。GUI部
1202は、選択された用例文を用例候補表示部170
3に表示する。The control unit 1201 sends the example sentence sent from the example selecting unit 1207 to the GUI unit 1202. The GUI unit 1202 displays the selected example sentence in the example candidate display unit 170.
Display in 3.
【0063】ステップ1304のGUI部1202の表示
内容を図18に示す。ステップ1304では、用例候補
表示部1703に表示されている用例候補の中からタッ
チパネル入力で1801をクリックすることにより、ユ
ーザは自分が発声した文章を同じ文意の用例「薬はあり
ますか」を選択する。この時、GUI部1202は選択さ
れた用例文を制御部1201に送信する。The display contents of the GUI unit 1202 in step 1304 are shown in FIG. In step 1304, the user selects the example “Is there any medicine?” With the same meaning from the sentence uttered by the user by clicking 1801 on the touch panel input from the example candidates displayed in the example candidate display portion 1703. To do. At this time, the GUI unit 1202 transmits the selected example sentence to the control unit 1201.
【0064】ステップ1305のGUI部1202の表示
内容を図19に示す。ステップ1305では、GUI部1
202は用例結果表示部1901に選択された用例文を
表示し、用例候補表示部1902をクリアする。その
後、用例を決定し翻訳を行うか、用例を修正してクラス
化された単語を代替可能な単語で置き換えるかを選択す
る。この時、ユーザは用例結果表示部1901をタッチ
パネルでクリックすることにより、用例を決定すること
が可能である。決定された用例は制御部1201に送信
される。また、ユーザは用例結果表示部1901をタッ
チパネルでダブルクリックすることにより、用例中の単
語を置き換えるモードに移行することが可能である。The display contents of the GUI unit 1202 in step 1305 are shown in FIG. In step 1305, the GUI unit 1
202 displays the selected example sentence on the example result display section 1901 and clears the example candidate display section 1902. Then, choose to determine and translate the example, or modify the example to replace the classified word with a substitutable word. At this time, the user can determine the example by clicking the example result display unit 1901 on the touch panel. The determined example is transmitted to the control unit 1201. In addition, the user can double-click the example result display portion 1901 on the touch panel to shift to the mode in which the words in the example are replaced.
【0065】ステップ1305で用例を決定した場合の
GUI部1202の表示内容を図20に示す。ステップ1
310で、制御部1201は、ユーザが決定した用例
「薬はありますか」を言語変換部1210に送信する。
言語変換部1210は、用例データベース1205を用
いて目的言語「Any medicine」に変換し、変換結果を制
御部1201に送信する。制御部1201では、変換結
果をGUI部1202、および音声合成部1211に送信
する。ステップ1311では、GUI部1202は、変換
結果を通訳結果表示部2001に表示する。一方、音声
合成部1211は、変換結果を音声合成してスピーカ8
04から出力する。When the example is determined in step 1305
The display contents of the GUI unit 1202 are shown in FIG. Step 1
In 310, the control unit 1201 transmits the example “Is there any medicine?” Decided by the user to the language conversion unit 1210.
The language conversion unit 1210 converts the target language “Any medicine” using the example database 1205 and transmits the conversion result to the control unit 1201. The control unit 1201 transmits the conversion result to the GUI unit 1202 and the voice synthesis unit 1211. In step 1311, the GUI unit 1202 displays the conversion result on the interpretation result display unit 2001. On the other hand, the voice synthesizing unit 1211 performs voice synthesis on the conversion result to produce the speaker 8
Output from 04.
【0066】ステップ1306のGUI部1202の表示
内容を図21に示す。ステップ1306では、ユーザが
ステップ1305で、単語選択モードを選択した場合
に、変更する単語を選択する。この時、制御部1201
は、単語選択部1208に単語選択を指示する。単語選
択部1208は、用例の中からクラス化されている単語
「薬」を抽出し、制御部1201に送信する。制御部1
201は、GUI部1202に単語を送信し、GUI部120
2は、用例結果表示部2101に表示されている「薬」
に下線を引きユーザに変更可能な単語であることを表示
する。ユーザはタッチパネル入力で、修正したい単語
「薬」をクリックする。GUI部1202は、選択された
単語を制御部1201に送信する。FIG. 21 shows the display contents of the GUI unit 1202 in step 1306. In step 1306, when the user selects the word selection mode in step 1305, the word to be changed is selected. At this time, the control unit 1201
Instructs the word selection unit 1208 to select a word. The word selection unit 1208 extracts the word “medicine” that is classified into classes from the examples, and sends it to the control unit 1201. Control unit 1
201 transmits the word to the GUI unit 1202, and the GUI unit 120
2 is “medicine” displayed in the example result display portion 2101
Is underlined to indicate to the user that the word can be changed. The user clicks the word "medicine" to be corrected by touch panel input. The GUI unit 1202 transmits the selected word to the control unit 1201.
【0067】ステップ1307のGUI部1202の表示
内容を図22に示す。ステップ1307では、ステップ
1306によりユーザに指定された単語「薬」の代替単
語の一覧を表示する。制御部1201はユーザが指定し
た単語「薬」を代替単語選択部1209に送信する。代
替単語選択部1209は、図15に示す単語クラス辞書
1206を参照し、ユーザが指定した単語「薬」と同じ
クラスの単語
・「アスピリン」
・「かぜ薬」
・「トローチ」
・「胃腸薬」
を抽出し、制御部1201に送信する。制御部1201
は、GUI部1202に代替単語の一覧を送信し、GUI部1
202は、リストウィンドウ2201に代替単語の一覧
を表示する。FIG. 22 shows the display contents of the GUI unit 1202 in step 1307. In step 1307, a list of alternative words for the word “medicine” designated by the user in step 1306 is displayed. The control unit 1201 transmits the word “medicine” designated by the user to the alternative word selection unit 1209. The alternative word selection unit 1209 refers to the word class dictionary 1206 shown in FIG. 15, and refers to a word in the same class as the word “medicine” specified by the user • “aspirin” • “cold drug” • “troche” • “gastrointestinal drug” Is extracted and transmitted to the control unit 1201. Control unit 1201
Sends a list of alternative words to the GUI unit 1202, and the GUI unit 1
202 displays a list of alternative words in a list window 2201.
【0068】ステップ1308のGUI部1202の表示
内容を図23に示す。ステップ1308は、リストウィ
ンドウ2201に示された代替単語一覧の中から希望す
る単語を選択する。この時、GUI部1202はユーザの
タッチパネル入力によりユーザの希望する代替単語23
01をクリックすることにより代替単語「アスピリン」
を取得し、制御部1201に送信する。FIG. 23 shows the display contents of the GUI unit 1202 in step 1308. In step 1308, the desired word is selected from the alternative word list shown in the list window 2201. At this time, the GUI unit 1202 uses the user's touch panel input to input the alternative word 23 desired by the user.
Alternate word "Aspirin" by clicking 01
Is acquired and transmitted to the control unit 1201.
【0069】ステップ1309のGUI部1202の表示
内容を図24に示す。ステップ1309は、指定された
代替単語「アスピリン」により用例を「アスピリンはあ
りますか」に変更する。その後、GUI部1202は、用
例結果表示部2401に表示されている用例を「アスピ
リンはありますか」に変更して表示する。そして、ステ
ップ1305に戻る。The display contents of the GUI unit 1202 in step 1309 are shown in FIG. In step 1309, the example is changed to "Is there aspirin?" By the designated alternative word "Aspirin". After that, the GUI unit 1202 changes the example displayed in the example result display unit 2401 to “Are you aspirin?” And displays it. Then, the process returns to step 1305.
【0070】図25は、ステップ1305からステップ
1308を繰り返し、ユーザがステップ1305で用例
決定を選択し、「アスピリンはありますか」を目的言語
「Any aspirin」に変換し、合成音声を出力するときのG
UI部1202の表示内容である。In FIG. 25, steps 1305 to 1308 are repeated, and when the user selects the example decision in step 1305, “Is there aspirin?” Is converted into the target language “Any aspirin” and the synthesized speech is output. G
This is the display content of the UI unit 1202.
【0071】次に、ボタン入力の場合の場合について説
明する。以下の説明では、SW1はボタン806、SW2はボ
タン807にそれぞれ物理的に相当する。Next, the case of button input will be described. In the following description, SW1 physically corresponds to the button 806 and SW2 physically corresponds to the button 807.
【0072】ステップ1301からステップ1303ま
でのGUI部1202の表示内容を図17に示す。ステッ
プ1301では、SW1をクリックことにより日英方向の
翻訳を指定し、SW2をクリックすることにより英日方向
の翻訳を指定する。この場合SW1をクリックすることに
より日英方向の翻訳を指定する。この時、GUI部120
2は翻訳方向を制御部1201に送信し、制御部120
1は音声入力部1203に音声入力を指示する。ユーザ
はマイクロホン803を用いて「何か薬はありますか」
と発声する。音声入力部1203は、入力された音声を
音声認識部1204に送信する。ステップ1302で
は、音声認識部1204が指定された翻訳方向に対応す
る音声認識を行い、誤認識を含んだ認識結果「7日薬は
ありますか」を制御部1201に送信したとする。制御
部1201は、音声認識結果をGUI部1202、および
用例選択部1207に送信する。GUI部1202は送信
された音声認識結果を認識結果表示部1702に表示す
る。一方、ステップ1303では、用例選択部1207
が音声認識結果に基づいて、用例を制御部1201に送
信する。FIG. 17 shows the display contents of the GUI unit 1202 from step 1301 to step 1303. In step 1301, SW1 is clicked to specify the Japanese-English translation, and SW2 is clicked to specify the English-Japanese translation. In this case, click SW1 to specify Japanese-English translation. At this time, the GUI unit 120
2 transmits the translation direction to the control unit 1201, and the control unit 120
1 instructs the voice input unit 1203 to input voice. The user uses the microphone 803 to ask, "Is there any medicine?"
I say. The voice input unit 1203 transmits the input voice to the voice recognition unit 1204. In step 1302, it is assumed that the voice recognition unit 1204 performs voice recognition corresponding to the designated translation direction, and transmits the recognition result including erroneous recognition "Is there a 7-day drug?" To the control unit 1201. The control unit 1201 transmits the voice recognition result to the GUI unit 1202 and the example selection unit 1207. The GUI unit 1202 displays the transmitted voice recognition result on the recognition result display unit 1702. On the other hand, in step 1303, the example selection unit 1207
Transmits an example to the control unit 1201 based on the voice recognition result.
【0073】用例選択部1207は、「7日薬はありま
すか」という音声認識結果から、用例データベース12
05で定義されている重要語の集合として、「7日」,
「薬」,「あり」を抽出する。The example selection unit 1207 selects the example database 12 from the voice recognition result of "Is there any medicine for 7 days?"
As a set of important words defined in 05, "7 days",
"Medical" and "Yes" are extracted.
【0074】ここで、「7日」はクラス化された単語<
日数>に帰属し、「薬」はクラス化された単語<薬>に
帰属する。「あり」はいかなるクラス化された単語にも
帰属しない。Here, "7 days" is a classified word <
Days> and “drug” belongs to the classified word <drug>. "Yes" does not belong to any classified word.
【0075】用例選択部1207は、図14の構成要素
の依存関係を順次確認し、依存関係が1つ以上成立する
用例の中で、成立数が多い用例から順に選択する。例え
ば、用例番号1の用例については、重要語の上記集合の
中に「かかり」が存在しないので依存関係の成立数は0
である。用例番号2の用例については、重要語の上記集
合の中に「何か」が存在しないので、構成要素の依存関
係の中で、(1→2)は成立しないが、(2→3)は成
立する(図14参照)。したがって、依存関係の成立数
は1である。The example selecting unit 1207 sequentially confirms the dependency relationships of the constituent elements in FIG. 14, and selects one from the examples having the largest number of relationships among the examples in which one or more dependency relationships are satisfied. For example, with regard to the example of the example number 1, since there is no "hang" in the above set of important words, the number of established dependencies is 0.
Is. As for the example of example number 2, since "something" does not exist in the above set of important words, (1 → 2) does not hold in the dependency relation of the component, but (2 → 3) It holds (see FIG. 14). Therefore, the number of established dependencies is one.
【0076】用例選択部1207が、依存関係の成立数
が1以上の用例を用例データベース1205の中から選
択するように設計すると、図14で用例番号1の用例は
選択されず、用例番号2の用例は選択される。重要語の
集合の中に「何か」が存在しないので、選択された用例
番号2の用例については、・「薬はありますか」という
表記を出力する。When the example selecting unit 1207 is designed to select from the example database 1205 in which the number of dependency relationships established is 1 or more, the example of the example number 1 in FIG. The example is selected. Since "something" does not exist in the set of important words, the notation "Do you have medicine?" Is output for the selected example of Example No. 2.
【0077】以下の説明では、用例データベース120
5の中の他の用例、
・「薬ですか」
・「薬です」
が上記と同様に選択されたとして説明する。In the following description, the example database 120
Other examples in 5, "Is this medicine?" And "It is medicine" are selected as described above.
【0078】制御部1201は、用例選択部1207か
ら送信された用例文をGUI部1202に送信する。GUI部
1202は、選択された用例文を用例候補表示部170
3に表示する。The control unit 1201 sends the example sentence sent from the example selecting unit 1207 to the GUI unit 1202. The GUI unit 1202 displays the selected example sentence in the example candidate display unit 170.
Display in 3.
【0079】ステップ1304のGUI部1202の表示
内容を図18に示す。ステップ1304では、用例候補
表示部1604に表示されている用例候補の中からボタ
ン入力により、ユーザは自分が発声した文章を同じ文意
の用例「薬はありますか」を選択する。選択方法は、SW
1をクリックすることにより指定される行が一行上に移
動し、またSW2をクリックすることにより、指定される
行が一行下に移動する。用例を選択する場合には、SW1
をダブルクリックすることにより選択する。この時、GU
I部1202は選択された用例文を制御部1201に送
信する。The display contents of the GUI unit 1202 in step 1304 are shown in FIG. In step 1304, the user selects the example “Is there any medicine?” Having the same sentence meaning from the sentence uttered by the user by button input from the example candidates displayed in the example candidate display portion 1604. The selection method is SW
Clicking 1 moves the specified line up one line, and clicking SW2 moves the specified line down one line. SW1 to select an example
Select by double-clicking on. At this time, GU
The I unit 1202 transmits the selected example sentence to the control unit 1201.
【0080】ステップ1305のGUI部1202の表示
内容を図19に示す。ステップ1305では、GUI部1
202は用例結果表示部1901に選択された用例文を
表示し、用例候補表示部1902をクリアする。その
後、用例を決定し翻訳を行うか、用例を修正してクラス
化された単語を代替可能な単語で置き換えるかを選択す
る。この時、ユーザはボタン入力でSW2をクリックする
ことにより、用例を決定することが可能である。決定さ
れた用例は制御部1201に送信される。また、ボタン
入力でSW1をクリックすることにより、用例中の単語の
置き換えモードに移行することが可能であり、制御部1
201に送信される。The display contents of the GUI unit 1202 in step 1305 are shown in FIG. In step 1305, the GUI unit 1
202 displays the selected example sentence on the example result display section 1901 and clears the example candidate display section 1902. Then, choose to determine and translate the example, or modify the example to replace the classified word with a substitutable word. At this time, the user can determine the example by clicking SW2 with a button input. The determined example is transmitted to the control unit 1201. It is also possible to switch to the word replacement mode in the example by clicking SW1 with a button input.
201 is transmitted.
【0081】ステップ1305で用例を決定した場合の
GUI部1202の表示内容を図20に示す。ステップ1
310で、制御部1201は、ユーザが決定した用例
「薬はありますか」を言語変換部1210に送信する。
言語変換部1210は、用例データベース1205を用
いて目的言語「Any medicine」に変換し、変換結果を制
御部1201に送信する。制御部1201では、変換結
果をGUI部1202、および音声合成部1211に送信
する。ステップ1311では、GUI部1202は、変換
結果を通訳結果表示部2001に表示する。一方、音声
合成部1211は、変換結果を音声合成してスピーカ8
04から出力する。When the example is determined in step 1305
The display contents of the GUI unit 1202 are shown in FIG. Step 1
In 310, the control unit 1201 transmits the example “Is there any medicine?” Decided by the user to the language conversion unit 1210.
The language conversion unit 1210 converts the target language “Any medicine” using the example database 1205 and transmits the conversion result to the control unit 1201. The control unit 1201 transmits the conversion result to the GUI unit 1202 and the voice synthesis unit 1211. In step 1311, the GUI unit 1202 displays the conversion result on the interpretation result display unit 2001. On the other hand, the voice synthesizing unit 1211 performs voice synthesis on the conversion result to produce the speaker 8
Output from 04.
【0082】ステップ1306のGUI部1202の表示
内容を図21に示す。ステップ1306では、ユーザが
ステップ1305で、単語選択モードを選択した場合
に、変更する単語を選択する。この時、制御部1201
は、単語選択部1208に単語選択を指示する。単語選
択部1208は、用例の中からクラス化されている単語
「薬」を抽出し、制御部1201に送信する。制御部1
201は、GUI部1202に単語を送信し、GUI部120
2は、用例結果表示部2101に表示されている「薬」
に下線を引きユーザに変更可能な単語であることを表示
する。ユーザはボタン入力で、修正したい単語「薬」を
選択する。すなわち、SW1をクリックすることにより1単
語左に移動し、SW2をクリックすることにより1単語右に
移動する。また、SW1をダブルクリックすることにより
修正単語を選択することが可能である。GUI部1202
は、選択された単語を制御部1201に送信する。FIG. 21 shows the display contents of the GUI unit 1202 at step 1306. In step 1306, when the user selects the word selection mode in step 1305, the word to be changed is selected. At this time, the control unit 1201
Instructs the word selection unit 1208 to select a word. The word selection unit 1208 extracts the word “medicine” that is classified into classes from the examples, and sends it to the control unit 1201. Control unit 1
201 transmits the word to the GUI unit 1202, and the GUI unit 120
2 is “medicine” displayed in the example result display portion 2101
Is underlined to indicate to the user that the word can be changed. The user selects the word "medicine" to be corrected by button input. That is, clicking SW1 moves left one word, and clicking SW2 moves right one word. In addition, it is possible to select the correction word by double-clicking SW1. GUI unit 1202
Transmits the selected word to the control unit 1201.
【0083】ステップ1307のGUI部1202の表示
内容を図22に示す。ステップ1307では、ステップ
1306によりユーザに指定された単語「薬」の代替単
語の一覧を表示する。制御部1201はユーザが指定し
た単語「薬」を代替単語選択部1209に送信する。代
替単語選択部1209は、図15に示す単語クラス辞書
1206を参照し、ユーザが指定した単語「薬」と同一
クラスの単語
・「アスピリン」
・「かぜ薬」
・「トローチ」
・「胃腸薬」
を抽出し、制御部1201に送信する。制御部1201
は、GUI部1202に代替単語の一覧を送信し、GUI部1
202は、リストウィンドウ2201に代替単語の一覧
を表示する。FIG. 22 shows the display contents of the GUI unit 1202 in step 1307. In step 1307, a list of alternative words for the word “medicine” designated by the user in step 1306 is displayed. The control unit 1201 transmits the word “medicine” designated by the user to the alternative word selection unit 1209. The alternative word selection unit 1209 refers to the word class dictionary 1206 shown in FIG. 15, and refers to the word “medicine” designated by the user, the same class of words as “aspirin”, “cold medicine”, “troche”, and “gastrointestinal medicine”. Is extracted and transmitted to the control unit 1201. Control unit 1201
Sends a list of alternative words to the GUI unit 1202, and the GUI unit 1
202 displays a list of alternative words in a list window 2201.
【0084】ステップ1308のGUI部1202の表示
内容を図23に示す。ステップ1308は、リストウィ
ンドウ2201に示された代替単語一覧の中から希望す
る単語を選択する。この時、GUI部1202はユーザの
ボタン入力によりユーザの希望する代替単語「アスピリ
ン」を取得し、制御部1201に送信する。入力方法
は、SW1をクリックすることにより、1単語上の単語にカ
ーソルが移動し、SW2をクリックすることにより、1単語
下の単語にカーソルが移動する。単語を選択するとき
は、SW1をダブルクリックすることにより選択すること
が可能である。FIG. 23 shows the display contents of the GUI unit 1202 in step 1308. In step 1308, the desired word is selected from the alternative word list shown in the list window 2201. At this time, the GUI unit 1202 acquires the alternative word “aspirin” desired by the user by the button input by the user, and transmits it to the control unit 1201. As for the input method, clicking SW1 moves the cursor to the word one word above, and clicking SW2 moves the cursor to the word one word below. To select a word, double-click on SW1 to select it.
【0085】ステップ1309のGUI部1202の表示
内容を図24に示す。ステップ1309は、指定された
代替単語「アスピリン」により用例を「アスピリンはあ
りますか」に変更する。その後、GUI部1202は、用
例結果表示部2401に表示されている用例を「アスピ
リンはありますか」に変更して表示する。そして、ステ
ップ1305に戻る。The display contents of the GUI unit 1202 at step 1309 are shown in FIG. In step 1309, the example is changed to "Is there aspirin?" By the designated alternative word "Aspirin". After that, the GUI unit 1202 changes the example displayed in the example result display unit 2401 to “Are you aspirin?” And displays it. Then, the process returns to step 1305.
【0086】図25は、ステップ1305からステップ
1308を繰り返し、ユーザがステップ1305で、用
例決定を選択し、「アスピリンはありますか」を目的言
語「Any aspirin」に変換し、合成音声を出力するとき
のGUI部1202の表示内容である。In FIG. 25, when step 1305 to step 1308 are repeated, and the user selects example decision in step 1305 to convert “Are you aspirin?” Into the target language “Any aspirin” and output the synthesized voice. Is the display content of the GUI unit 1202.
【0087】なお、以上の説明では、GUI部1202に
対するユーザの入力をタッチパネル入力、ボタン入力の
それぞれに限定して説明したが、音声認識処理を用いて
音声で単語や用例を選択決定することも可能である。ま
た、タッチパネル、ボタン、音声の各入力モダリティを
組み合わせて操作することも可能である。また、一例と
して日本語と英語を取り上げたが、中国語など他の言語
についても同様に実施可能であり、本発明は言語に依存
しない。In the above description, the user's input to the GUI unit 1202 is limited to touch panel input and button input, but it is also possible to select and determine words and examples by voice using voice recognition processing. It is possible. It is also possible to operate by combining input modalities of a touch panel, buttons, and voice. Moreover, although Japanese and English are taken as an example, the present invention can be implemented in other languages such as Chinese in a similar manner, and the present invention does not depend on the language.
【0088】又、本発明の単語列は、上記実施の形態で
は、複数の単語から構成された文章の場合を例にして説
明したが、これに限らず例えば、「こんにちは」の様に
一つの単語から構成されていても良い。[0088] Also, the word sequence of the present invention, in the above embodiment has been described with the case of a sentence including a plurality of words, for example not limited to this, one like the "Hello" It may consist of words.
【0089】又、本発明の第1の抽出・表示手段と、第
2の抽出・表示手段は、上記実施の形態では、同一の表
示装置により実現する場合について説明したが、これに
限らず例えば、それぞれ独立した表示装置により実現す
る構成としても良い。Further, although the first extraction / display means and the second extraction / display means of the present invention are realized by the same display device in the above-mentioned embodiment, the present invention is not limited to this. Alternatively, the configuration may be realized by independent display devices.
【0090】以上説明した様に、本発明の一例である音
声通訳装置は、音声による入力に基づいて用例を選択
し、翻訳を行う音声通訳装置であって、前記音声通訳装
置のハードウェアが、音声のモダリティとして音声入出
力装置を備え、画像のモダリティとして画像出力装置を
備え、接触モダリティとして1個以上のボタンと画像指
示装置を備え、ユーザによって前記音声入出力装置と前
記画像指示装置と前記ボタンから入力される原言語に関
するデータを目的言語に関するデータへ音声言語的に変
換し、前記音声入出力装置と前記画像出力装置に前記出
力データを出力する演算制御装置と、前記演算制御装置
に前記処理の手順を指示するプログラムとデータを保持
する外部大容量不揮発性記憶装置と、前記演算制御装置
が外部機器と前記プログラムとデータを交換するための
外部データ入出力端子と、前記演算制御装置を駆動する
ために必要な電源を供給する電源装置によって構成され
ることを特徴とする音声通訳装置である。As described above, the voice interpreter, which is an example of the present invention, is a voice interpreter that selects an example based on an input by voice and translates, and the hardware of the voice interpreter is: A voice input / output device is provided as a voice modality, an image output device is provided as an image modality, one or more buttons and an image pointing device are provided as a contact modality, and the voice input / output device, the image pointing device, and the An arithmetic and control unit for converting data on a source language input from a button into data on a target language in a linguistic manner, and outputting the output data to the voice input / output device and the image output device; An external large-capacity non-volatile storage device that holds a program and data that instruct a processing procedure, and the arithmetic and control unit are connected to an external device and And the external data input and output terminals for exchanging grams and data, a voice interpreting device characterized by being constituted by a power supply for supplying power necessary for driving the arithmetic and control unit.
【0091】又、他の一例は、上記演算制御装置として
PC/AT互換のマザーボードを使用することを特徴とする
上記音声通訳装置である。Another example is the above arithmetic and control unit.
The above audio interpreter is characterized by using a PC / AT compatible motherboard.
【0092】又、他の一例は、上記の外部大容量不揮発
性記憶装置として、2.5インチ以下のハードディスクド
ライブを使用することを特徴とする上記音声通訳装置で
ある。Another example is the voice interpreter characterized in that a hard disk drive of 2.5 inches or less is used as the external large capacity nonvolatile memory device.
【0093】又、他の一例は、上記外部大容量不揮発性
記憶装置として、フラッシュメモリディスクを使用する
ことを特徴とする上記音声通訳装置である。Another example is the voice interpreter characterized in that a flash memory disk is used as the external large capacity nonvolatile memory device.
【0094】又、他の一例は、上記画像出力装置とし
て、解像度の縦方向が240ドット以上、かつ、横方向
が240ドット以上の液晶表示装置を使用することを特
徴とする上記音声通訳装置である。Another example is a voice interpreter characterized in that a liquid crystal display device having a resolution of 240 dots or more in the vertical direction and 240 dots or more in the horizontal direction is used as the image output device. is there.
【0095】又、他の一例は、上記ボタンとしては、2
個の機械式ボタンを使用し、上記マザーボードにマウス
を接続したときのマウスボタンに機能的に相当させるこ
とを特徴とする上記音声通訳装置である。In another example, the button is 2
The above voice interpreter is characterized in that it uses a single mechanical button and is functionally equivalent to a mouse button when a mouse is connected to the motherboard.
【0096】又、他の一例は、上記画像指示装置として
は、上記液晶表示装置の表示面と同等の大きさ、もしく
は前期表示面を包含する大きさのタッチパネルを使用す
ることを特徴とする上記音声通訳装置である。In another example, as the image pointing device, a touch panel having the same size as the display surface of the liquid crystal display device or the size including the display screen of the previous period is used. It is a voice interpreter.
【0097】又、他の一例は、上記外部データ入出力端
子は、上記マザーボードの入出力端子の中の、キーボー
ド接続端子、アナログディスプレイ出力端子、ローカル
エリアネットワーク端子を利用することを特徴とする上
記音声通訳装置である。In another example, the external data input / output terminal uses a keyboard connection terminal, an analog display output terminal, or a local area network terminal among the input / output terminals of the motherboard. It is a voice interpreter.
【0098】又、他の一例は、上記音声入出力装置は、
上記マザーボードのUSB端子を通じてアナログ音声デー
タとデジタル音声データを入出力するUSBオーディオイ
ンタフェースと、ユーザの発声を収集して前記USBオー
ディオインタフェースに与えるマイクと、前記USBオー
ディオインタフェースの出力を増幅するオーディオアン
プと、前記オーディオアンプに接続されるスピーカによ
って構成することを特徴とする上記音声通訳装置であ
る。In another example, the voice input / output device is
A USB audio interface that inputs and outputs analog audio data and digital audio data through the USB terminal of the motherboard, a microphone that collects user's utterances and gives the USB audio interface, and an audio amplifier that amplifies the output of the USB audio interface. The audio interpreting device is characterized in that it is configured by a speaker connected to the audio amplifier.
【0099】又、他の一例は、上記音声入出力装置は、
上記マザーボードのオーディオインタフェースと、ユー
ザの発声を収集して前記オーディオインタフェースに与
えるマイクと、前記オーディオインタフェースの出力を
増幅するオーディオアンプと、前記オーディオアンプに
接続されるスピーカによって構成することを特徴とする
上記音声通訳装置である。In another example, the voice input / output device is
The audio interface of the motherboard, a microphone that collects user's utterances and gives the audio interface to the audio interface, an audio amplifier that amplifies the output of the audio interface, and a speaker connected to the audio amplifier. It is the voice interpreter.
【0100】又、他の一例は、上記電源装置は、リチウ
ムイオン2次電池によって構成されることを特徴とする
上記音声通訳装置である。Another example is the voice interpreting device, wherein the power supply device is composed of a lithium ion secondary battery.
【0101】又、他の一例は、上記音声通訳装置は、ユ
ーザが片手に持つことが可能で、かつ、前記片手の親指
によってボタンを容易に操作することが可能で、かつ、
他方の手で画像指示装置を操作することが可能で、か
つ、画像表示装置の表示面の法線の方向と、音声入出力
装置の指向性の方向が前記ユーザの顔に容易に向くよう
にデザインされていることを特徴とする上記音声通訳装
置である。In another example, the voice interpreter can be held by the user in one hand, and the button can be easily operated by the thumb of the one hand.
The image pointing device can be operated with the other hand, and the direction of the normal line of the display surface of the image display device and the direction of the directivity of the audio input / output device can easily face the user's face. The voice interpreter is characterized in that it is designed.
【0102】又、他の一例は、上記音声通訳装置は、ボ
タンと画像指示装置と画像表示装置が実装される主筐体
と、音声入出力装置が実装される副筐体によって構成さ
れ、前記音声通訳装置を利用しない場合は前記画像表示
装置の表示面を前記副筐体が覆って保護し、かつ、前記
音声通訳装置を利用する場合は前記副筐体を前記音声入
出力装置の指向性の方向がユーザの顔を向く所定の位置
まで移動させてから利用することを特徴とする上記音声
通訳装置である。In another example, the voice interpreting device is composed of a main casing in which buttons, an image indicating device and an image display device are mounted, and a sub casing in which a voice input / output device is mounted. When the voice interpreter is not used, the display surface of the image display device is covered and protected by the sub-housing, and when the voice interpreter is used, the sub-housing is directed to the voice input / output device. The voice interpreter is characterized in that the voice interpreter is used after being moved to a predetermined position where the direction of is facing the user's face.
【0103】又、本発明の一例は、音声による入力に基
づいて用例を選択し、翻訳を行う音声通訳装置におい
て、前記音声通訳装置のソフトウェアが、ユーザとの入
出力を行うGUI部と、音声を入力して音声認識を行う原
言語入力部と、前記原言語入力部から入力された原言語
から目的言語への翻訳を行う翻訳部と、前記翻訳部によ
り翻訳された目的言語を音声合成して出力する音声合成
部と、前記原言語入力部と前記GUI部と前記翻訳部と前
記音声合成部を制御する制御部で構成されることを特徴
とする音声通訳装置である。Further, according to an example of the present invention, in a voice interpreter for selecting an example based on voice input and performing translation, the software of the voice interpreter has a GUI unit for inputting and outputting with a user, and a voice. , A source language input unit for performing voice recognition, a translation unit for translating the source language input from the source language input unit into a target language, and a target language translated by the translation unit for voice synthesis. A speech interpreting device comprising: a speech synthesizing unit for outputting the speech, a source language input unit, the GUI unit, the translation unit, and a control unit for controlling the speech synthesizing unit.
【0104】又、他の一例は、上記用例としては、対話
における1文を単位とすることを特徴とする上記音声通
訳装置である。Another example is the above speech interpreter, characterized in that one sentence in a dialogue is used as a unit.
【0105】又、他の一例は、上記用例としては、旅行
会話において使用される頻度が高い文型を保持すること
を特徴とする上記音声通訳装置である。Another example is the above-mentioned voice interpreting device, which is characterized by holding a sentence pattern that is frequently used in travel conversation.
【0106】又、他の一例は、上記用例に含まれる単語
は、前記単語を置き換えることが可能な関連のある単語
と共にクラス化されていることを特徴とする上記音声通
訳装置である。Further, another example is the above speech interpreting device, wherein the words included in the above example are classified together with related words that can replace the words.
【0107】又、他の一例は、上記原言語入力部は、制
御部からの指示により音声入力を行う音声入力部と、前
記音声入力部から入力される音声に対して連続音声認識
を行って単語列に変換する音声認識部で構成されること
を特徴とする上記音声通訳装置である。In another example, the source language input section performs a continuous voice recognition on a voice input section that inputs a voice according to an instruction from the control section and a voice input from the voice input section. The above speech interpreter is characterized in that it is composed of a speech recognition unit for converting into a word string.
【0108】又、他の一例は、上記翻訳部は、原言語と
目的言語の用例の対応を保持する用例データベースと、
前記用例データベースに含まれる単語のクラス情報を保
持する単語クラス辞書と、原言語入力部からの入力に基
づいて、前記用例データベースから該当する用例を選択
する用例選択部と、前記用例選択部により選択された用
例の中から修正する単語を選択する単語選択部と、前記
単語選択部により選択された単語と置き換えることが可
能な単語を前記単語クラス辞書から選択する代替単語選
択部と、決定された用例に基づいて前記用例データベー
スにより目的言語に変換する言語変換部によって構成す
ることを特徴とする上記音声通訳装置である。In another example, the translation unit includes an example database that holds correspondence between examples of the source language and the target language.
A word class dictionary that holds class information of words included in the example database; an example selection unit that selects the corresponding example from the example database based on an input from a source language input unit; and a selection made by the example selection unit. A word selecting unit that selects a word to be corrected from the selected examples, and an alternative word selecting unit that selects a word that can replace the word selected by the word selecting unit from the word class dictionary, The speech interpreting device is characterized in that it is configured by a language conversion unit that converts the target language into the target language based on the example database.
【0109】又、他の一例は、上記GUI部は、表示部に
翻訳の方向を指定する翻訳方向指定部と、原言語入力部
により出力される音声認識結果を表示する音声認識結果
表示部と、前記用例選択部により用例データベースから
選択された用例を表示する用例候補表示部と、ユーザに
より選択された用例を表示する用例結果表示部と、言語
変換部により出力される目的言語の用例を出力する通訳
結果表示部で構成されることを特徴とする上記音声通訳
装置である。In another example, the GUI section includes a translation direction designating section for designating a translation direction on the display section, and a speech recognition result display section for displaying a speech recognition result output by the source language input section. , An example candidate display section for displaying an example selected from the example database by the example selection section, an example result display section for displaying an example selected by the user, and an example of the target language output by the language conversion section The above-mentioned voice interpreting device is characterized by comprising an interpreting result display unit.
【0110】又、他の一例は、上記GUI部は、ユーザが
用例を用例候補表示部に表示された用例の中から選択す
る場合に、希望する前記用例をタッチパネル操作または
ボタン操作によって選択すること特徴とする上記音声通
訳装置である。As another example, when the user selects an example from the examples displayed in the example candidate display section, the GUI section selects the desired example by touch panel operation or button operation. It is the above-mentioned voice interpreting device characterized.
【0111】又、他の一例は、上記単語選択部は、1個
以上の修正可能な単語をユーザに提示する場合に、GUI
部の用例結果表示部の修正可能な単語に印を付加するこ
とを特徴とする上記音声通訳装置である。In another example, the word selection unit displays the GUI when one or more correctable words are presented to the user.
The above-mentioned voice interpreting device is characterized in that a mark is added to a modifiable word in the example result display section of the section.
【0112】又、他の一例は、上記修正可能な単語の印
は、前記単語に下線を引く、または、前記単語を反転表
示する、または、前記単語を太字にする、または、前記
単語を点滅表示することを特徴とする上記音声通訳装置
である。Further, as another example, the mark of the correctable word is underlined, highlighted, highlighted, or made blinking. The above-mentioned voice interpreting device is characterized by displaying.
【0113】又、他の一例は、上記単語選択部は、ユー
ザが修正単語を選択するときに、GUI部をタッチパネル
操作、または、ボタン操作、または、音声認識による音
声操作で決定することを特徴とする上記音声通訳装置で
ある。In another example, when the user selects a correction word, the word selection unit determines the GUI unit by touch panel operation, button operation, or voice operation by voice recognition. The above voice interpreter.
【0114】又、他の一例は、上記代替単語選択部は、
代替単語を選択する場合に、前記代替単語選択部が単語
クラス辞書を用いて代替候補一覧を取得し、GUI部によ
って前記代替候補一覧をリスト状に並べて表示すること
を特徴とする上記音声通訳装置である。In another example, the alternative word selection unit is
When selecting an alternative word, the alternative word selecting unit acquires an alternative candidate list using a word class dictionary, and displays the alternative candidate list arranged in a list form by a GUI unit. Is.
【0115】又、他の一例は、上記代替候補一覧から代
替候補を選択する場合は、GUI部のタッチパネル操作、
または、ボタン操作、または、音声認識による音声操作
によって前記代替候補を選択することを特徴とする上記
音声通訳装置である。In another example, when selecting an alternative candidate from the alternative candidate list, touch panel operation of the GUI unit,
Alternatively, the above-mentioned voice interpretation device is characterized in that the alternative candidate is selected by a button operation or a voice operation by voice recognition.
【0116】又、他の一例は、上記GUI部は、ユーザが
希望する用例に変更することができた場合、タッチパネ
ル操作、または、ボタン操作によって用例を決定し、上
記言語変換部によって目的言語に翻訳を行い、上記音声
合成部によって前記用例の合成音声を出力することを特
徴とする上記音声通訳装置である。In another example, when the GUI section can be changed to an example desired by the user, the example is determined by touch panel operation or button operation, and the language conversion section sets the target language. The above speech interpreter is characterized by performing translation and outputting the synthesized speech of the example by the speech synthesis unit.
【0117】以上述べたところから明らかなように、小
型のハードウェアは音声通訳装置として、ユーザが海外
旅行に出かけるときに無理なく携行することができる。
また、そのユーザインタフェースは片手で簡単に操作す
ることができるのでショッピングやレストランなど、様
々なシーンで容易に利用することができる。さらに、ク
ラスを代表する単語を用いて音声を入力し、用例を確定
した後、同じクラスの関連する単語と置き換えることが
できるので、少ない認識対象語彙でも音声通訳装置とし
ての利用価値が低下しない。As is clear from the above description, the small-sized hardware can be carried as a voice interpreter without difficulty when the user goes on an overseas trip.
Moreover, since the user interface can be easily operated with one hand, it can be easily used in various scenes such as shopping and restaurants. Furthermore, since a voice can be input using a word representative of a class and the example can be determined and then replaced with a related word of the same class, the utility value of the voice interpreter does not decrease even with a small recognition target vocabulary.
【0118】次に、上記従来技術における上記第2の課
題を解決するための、本願発明の音声変換装置の一実施
の形態の音声入力翻訳装置について、図面を参照しなが
ら説明する。Next, a speech input translation apparatus according to an embodiment of the speech conversion apparatus of the present invention for solving the above-mentioned second problem in the prior art will be described with reference to the drawings.
【0119】本実施の形態の構成を図26に示す。The structure of this embodiment is shown in FIG.
【0120】同図に示す様に、音声入力部4101、翻
訳支援部4108、音声翻訳部4102、表示部410
3、音声出力部4107によって基本的な音声翻訳機能
を実現する。As shown in the figure, a voice input unit 4101, a translation support unit 4108, a voice translation unit 4102, a display unit 410.
3. The voice output unit 4107 realizes a basic voice translation function.
【0121】ここで、本実施の形態の装置内部の構成に
ついては、上記実施の形態において既に説明済みである
ので、ここでは詳細な説明は省略する。Here, the internal structure of the apparatus of this embodiment has already been described in the above embodiment, and therefore detailed description is omitted here.
【0122】尚、本実施の形態の構成(図26参照)
と、例えば図12に示した構成との対応関係は次の通り
である。図26の音声入力部4101は、図12の音声
入力部1203と対応し、音声翻訳部4102は翻訳部
1220及び音声認識部1204等に対応する。又、翻
訳支援部4108及び表示部4103はGUI部120
2等に対応し、音声出力部4107は音声合成部121
1等に対応する。The configuration of this embodiment (see FIG. 26)
The following is the correspondence relationship between the above and the configuration shown in FIG. 12, for example. The voice input unit 4101 in FIG. 26 corresponds to the voice input unit 1203 in FIG. 12, and the voice translation unit 4102 corresponds to the translation unit 1220, the voice recognition unit 1204, and the like. The translation support unit 4108 and the display unit 4103 are the GUI unit 120.
2 and the like, the voice output unit 4107 has a voice synthesis unit 121.
It corresponds to 1 etc.
【0123】次に、本実施の形態の特有の構成部分につ
いて述べる。Next, the peculiar components of this embodiment will be described.
【0124】図26において、言語変換方向制御部41
05は2人の利用者の、どちらに翻訳装置の操作権限が
あるかを決定し、音声入力部4101の入力形態を制御
し、音声翻訳部4102に対して翻訳方向を指定し、表
示部4103の表示内容を指示する。ここで、2人の利
用者の内、一方は日本語(本発明の第1の言語に対応)
を使用し、他方は英語(本発明の第2の言語に対応)を
使用するものとする。In FIG. 26, the language conversion direction control unit 41
Reference numeral 05 determines which of the two users has the operation authority of the translation device, controls the input form of the voice input unit 4101, specifies the translation direction for the voice translation unit 4102, and displays the display unit 4103. Specify the display content of. Here, one of the two users is Japanese (corresponding to the first language of the present invention)
, And the other uses English (corresponding to the second language of the present invention).
【0125】言語変換方向検出部4104は、言語変換
方向制御部4105が操作権限のある利用者を決定する
ために必要な情報を収集する。対話管理部4106は、
表示部4103に表示される翻訳対を逐次保持し、それ
を用いて、利用者の間で交わされた対話の履歴として、
何れか一方の言語で表示部4103に表示する(図29
参照)。The language conversion direction detection unit 4104 collects information necessary for the language conversion direction control unit 4105 to determine the user who has the operation authority. The dialogue management unit 4106
The translation pairs displayed on the display unit 4103 are sequentially held, and by using the translation pairs, as a history of dialogues between users,
It is displayed on the display unit 4103 in either one of the languages (FIG. 29).
reference).
【0126】以下の例では、図27等を参照しながら、
日本語と英語についての翻訳装置の動作について説明す
るとともに、本発明の音声変換方法の一実施の形態につ
いても同時に述べる。In the following example, referring to FIG.
The operation of the translation device for Japanese and English will be described, and at the same time, an embodiment of the speech conversion method of the present invention will be described.
【0127】ここで、例えば、図27に示す様に、翻訳
装置を挟んで、図中の下方側に日本語の利用者、上方側
に英語の利用者が互いに向き合っているものとする。Here, as shown in FIG. 27, for example, it is assumed that a Japanese user faces the lower side of the figure and an English user faces the upper side of the translator with the translation device sandwiched therebetween.
【0128】図27の音声入力翻訳装置は、言語変換方
向検出部4104がボタンである音声入力翻訳装置であ
る。初期状態として言語変換方向制御部4105は日本
語から英語への変換方向を指示していると仮定する。入
力部4101はマイク4202とマイク4206で構成
されるが、日本語の入力をするためにマイク4206の
入力は遮断される。利用者は音声入力ボタン4201を
押してから入力部4101のマイク4202に向かって
発声する(例えば「くすりはありませんか」)。発声し
た音声は音声翻訳部4102で翻訳される。The speech input translation device of FIG. 27 is a speech input translation device in which the language conversion direction detecting unit 4104 is a button. As an initial state, it is assumed that the language conversion direction control unit 4105 is instructing the conversion direction from Japanese to English. The input unit 4101 includes a microphone 4202 and a microphone 4206, but the input of the microphone 4206 is blocked in order to input Japanese. The user presses the voice input button 4201 and then speaks into the microphone 4202 of the input unit 4101 (for example, "Are there any medicines?"). The uttered voice is translated by the voice translation unit 4102.
【0129】尚、翻訳部4102における翻訳の動作
は、上記実施の形態において図14等を参照して説明し
ているので、ここでは、詳細な説明は省略するが、概要
は以下の通りである。The translation operation in the translation unit 4102 has been described in the above embodiment with reference to FIG. 14 and the like, so a detailed description will be omitted here, but the outline is as follows. .
【0130】音声翻訳部4102は、音声入力部410
1から日本語の音声を受け取った場合、それを音声認識
し、その認識結果に対応する、日本語の一つ又は複数の
単語列を抽出し、表示部4103に用例候補として表示
する。The voice translation unit 4102 has a voice input unit 410.
When a Japanese voice is received from 1, the voice recognition is performed, and one or a plurality of Japanese word strings corresponding to the recognition result are extracted and displayed on the display unit 4103 as an example candidate.
【0131】即ち、表示部4103の用例候補選択ウィ
ンドウ4203に用例候補が表示されて(例えば、「薬
ですか」、「薬はありますか」、「薬です」の3個の用
例)、翻訳支援部4108を用いて利用者がその中から
1つを選択すると(例えばタッチパネルで選択)、用例
結果ウィンドウ4204に選択された用例が表示されて
(例えば「薬はありますか」)、用例を翻訳した英語の
テキストが音声出力部4107から発声される(例え
ば"Do you have medicine?")。表示部4103から対
話管理部4106に翻訳対が送られる(例えば、(「薬
はありますか」, "Do you have medicine?")という翻訳
対)。相手の答えを求めるために、相手に翻訳装置の操
作を促す場合は、言語変換方向検出部4104であるボ
タン4205を押す。That is, the example candidates are displayed in the example candidate selection window 4203 of the display unit 4103 (for example, "Is this medicine?", "Is there any medicine?", "Is the medicine" three examples), and translation support is provided. When the user selects one of them using the section 4108 (for example, touch panel selection), the selected example is displayed in the example result window 4204 (for example, "Do you have medicine?"), And translated the example. English text is uttered from the voice output unit 4107 (for example, "Do you have medicine?"). The translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example, the translation pair "(Do you have medicine?", "Do you have medicine?")). To prompt the other party to operate the translation device in order to obtain the other party's answer, the button 4205 which is the language conversion direction detecting unit 4104 is pressed.
【0132】言語変換方向制御部4105は言語変換方
向検出部4104からの情報に基づき、音声翻訳部41
02と表示部4103に対して英語から日本語への変換
方向を指示する。表示部4103の表示内容は、対面の
英語の利用者が使いやすいように図28のように180
°回転して、英語の表示になる。入力部4101は、英
語の入力をするためにマイク4307の入力が遮断さ
れ、マイク4303が有効になる。対話履歴ウィンドウ
4301には、対話管理部4106から翻訳対の英語の
方が表示される。具体的には、翻訳対として、例えば、
「薬はありますか」と "Do you have medicine?"とから
なる翻訳対と、「はい」と"Yes, I do."とからなる翻訳
対が対話管理部4106に保持されている場合、図29
に示す対話履ウィンドウ4401には、(日):「薬は
ありますか?」、(英):「はい」が表示される。利用
者は音声入力ボタン4302を押してから入力部410
1のマイク4303に向かって発声する(例えば"Yes,
certainly")。発声した音声は音声翻訳部4102で翻
訳される。The language conversion direction control unit 4105, based on the information from the language conversion direction detection unit 4104, the speech translation unit 41.
02 and the display unit 4103 are instructed in the direction of conversion from English to Japanese. The display content of the display unit 4103 is 180 as shown in FIG. 28 so that it can be easily used by facing English users.
Rotate to display in English. The input unit 4101 blocks the input of the microphone 4307 in order to input English, and the microphone 4303 is enabled. In the dialogue history window 4301, the translation manager 4106 displays the English translation pair. Specifically, as a translation pair, for example,
If the translation pair consisting of "Do you have medicine?" And "Do you have medicine?" And the translation pair consisting of "Yes" and "Yes, I do." 29
In the dialogue window 4401 shown in (4), (Sun): “Is there any medicine?” And (English): “Yes” are displayed. The user presses the voice input button 4302 and then the input unit 410
Speak into the first microphone 4303 (for example, "Yes,
certainly "). The uttered voice is translated by the voice translation unit 4102.
【0133】尚、翻訳部4102における翻訳の動作
は、上記実施の形態において図14等を参照して説明し
ているので、ここでは、詳細な説明は省略するが、概要
は以下の通りである。The translation operation in the translation unit 4102 has been described in the above embodiment with reference to FIG. 14 and the like, so a detailed description is omitted here, but the outline is as follows. .
【0134】音声翻訳部4102は、音声入力部410
1から英語の音声を受け取った場合、それを音声認識
し、その認識結果に対応する、英語の一つ又は複数の単
語列を抽出し、表示部4103に用例候補として表示す
る。The voice translation unit 4102 has a voice input unit 410.
When an English voice is received from 1, the voice is recognized, one or a plurality of English word strings corresponding to the recognition result are extracted, and displayed on the display unit 4103 as an example candidate.
【0135】即ち、表示部4103の用例候補選択ウィ
ンドウ4304に候補が表示されて(例えば、"Yes, I
do."、"Surely."、"Certainly."の3個の用例)、翻訳
支援部4108を用いて利用者がその中から1つを選択
すると(例えばタッチパネルで選択)、用例結果ウィン
ドウ4305に選択された用例が表示されて(例えば"Y
es, I do.")、用例を翻訳した日本語のテキストが音声
出力部4107から発声される(例えば「はい。」)。
表示部4103から対話管理部4106に翻訳対が送ら
れる(例えば、(「はい」, "Yes, I do.")という翻訳
対)。相手の答えを求めるために、相手に翻訳装置の操
作を促す場合は、言語変換方向検出部4104であるボ
タン4306を押す。That is, the candidates are displayed in the example candidate selection window 4304 of the display unit 4103 (for example, "Yes, I
do. "," Surely. ", and" Certainly. "), and when the user selects one of them using the translation support unit 4108 (for example, touch panel selection), the example result window 4305 is displayed. The selected example is displayed (eg "Y
es, I do. "), Japanese text translated from the example is uttered from the voice output unit 4107 (for example," Yes. ").
A translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example, a translation pair of (“Yes”, “Yes, I do.”)). To prompt the other party to operate the translation device in order to obtain the other party's answer, the button 4306, which is the language conversion direction detection unit 4104, is pressed.
【0136】言語変換方向制御部4105は言語変換方
向検出部4104からの情報に基づき、音声翻訳部41
02と表示部4103に対して日本語から英語への変換
方向を指示する。表示部4103の表示内容は、対面の
日本語の利用者が使いやすいように図29のように18
0°回転して、日本語の表示になる。入力部4101
は、日本語の入力をするためにマイク4405の入力が
遮断され、マイク4403が有効になる。対話履歴ウィ
ンドウ4401には、対話管理部4106から翻訳対の
日本語の方が表示される。利用者は音声入力ボタン44
02を押してから入力部4101のマイク4403に向
かって発声する(例えば「ありがとうございます」)。
発声した音声は音声翻訳部4102で翻訳される。The language conversion direction control unit 4105, based on the information from the language conversion direction detection unit 4104, the speech translation unit 41.
02 and the display unit 4103 are instructed in the direction of conversion from Japanese to English. The display content of the display unit 4103 is 18 as shown in FIG. 29 so that it can be easily used by facing Japanese users.
The display will be in Japanese by rotating it by 0 °. Input unit 4101
In order to input Japanese, the input of the microphone 4405 is cut off and the microphone 4403 is enabled. In the dialogue history window 4401, the translation manager 4106 displays the Japanese translation pair. The user uses the voice input button 44
After pressing 02, speak into the microphone 4403 of the input unit 4101 (for example, "Thank you").
The uttered voice is translated by the voice translation unit 4102.
【0137】尚、翻訳部4102における翻訳の動作
は、上記実施の形態において図14等を参照して説明し
ているので、ここでは、詳細な説明は省略するが、概要
は以下の通りである。The translation operation in the translation unit 4102 has been described in the above embodiment with reference to FIG. 14 and the like, so a detailed description is omitted here, but the outline is as follows. .
【0138】即ち、表示部4103の用例候補選択ウィ
ンドウ4413に候補が表示されて(例えば、「ありが
とう。」の1個の用例)、翻訳支援部4108を用いて
利用者がその中から1つを選択すると(例えばタッチパ
ネルで選択)、用例結果ウィンドウ4414に選択され
た用例が表示されて(例えば「ありがとう。」)、用例
を翻訳した日本語のテキストが音声出力部4107から
発声される(例えば"Thank you.")。表示部4103か
ら対話管理部4106に翻訳対が送られる(例えば、
(「ありがとう」, "Thank you.")という翻訳対)。さら
に相手の答えを求めるために、相手に翻訳装置の操作を
促す場合は、言語変換方向検出部4104であるボタン
4404を押す。That is, candidates are displayed in the example candidate selection window 4413 of the display unit 4103 (for example, one example of "Thank you."), And the user uses the translation support unit 4108 to select one of them. When selected (for example, selected with the touch panel), the selected example is displayed in the example result window 4414 (for example, "Thank you."), And the Japanese text translated from the example is uttered from the voice output unit 4107 (for example, " Thank you. "). The translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example,
(The translation pair "Thank you", "Thank you."). Further, in order to prompt the partner to operate the translation device in order to obtain the answer from the partner, the button 4404, which is the language conversion direction detection unit 4104, is pressed.
【0139】図30の音声入力翻訳装置は、言語変換方
向検出部4104がマイク4501の傾斜角度センサー
4502である音声入力翻訳装置である。すなわち、マ
イク4501が日本語の利用者の方に傾斜しているか、
英語の利用者の方に傾斜しているかを判断するために角
度センサー4502を用いている。図30の状態では言
語変換方向制御部4105は日本語から英語への変換方
向を指示している。利用者は音声入力ボタン4503を
押してから入力部4101のマイク4501に向かって
発声する(例えば「くすりはありませんか」)。発声し
た音声は音声翻訳部4102で翻訳される。The speech input translation device of FIG. 30 is a speech input translation device in which the language conversion direction detection unit 4104 is the tilt angle sensor 4502 of the microphone 4501. That is, whether the microphone 4501 is tilted toward the Japanese user,
An angle sensor 4502 is used to determine if the English user is leaning. In the state of FIG. 30, the language conversion direction control unit 4105 indicates the conversion direction from Japanese to English. After pressing the voice input button 4503, the user speaks into the microphone 4501 of the input unit 4101 (for example, "Are there any medicines?"). The uttered voice is translated by the voice translation unit 4102.
【0140】尚、翻訳部4102における翻訳の動作
は、上記実施の形態において図14等を参照して説明し
ているので、ここでは、詳細な説明は省略するが、概要
は以下の通りである。The translation operation in the translation unit 4102 has been described in the above embodiment with reference to FIG. 14 and the like, so a detailed description is omitted here, but the outline is as follows. .
【0141】即ち、表示部4103の用例候補選択ウィ
ンドウ4504に候補が表示されて(例えば、「薬です
か」「薬はありますか」「薬です」の3個の用例)、翻
訳支援部4108を用いて利用者がその中から1つを選
択すると(例えばタッチパネルで選択)、用例結果ウィ
ンドウ4505に選択された用例が表示されて(例えば
「薬はありますか」)、用例を翻訳した英語のテキスト
が音声出力部4107から発声される(例えば"Do you
have medicine?")。表示部4103から対話管理部4
106に翻訳対が送られる(例えば、(「薬はあります
か」, "Do you have medicine?")という翻訳対)。相手
の答えを求めるために、相手に翻訳装置の操作を促す場
合は、マイク4501を英語の利用者の方に向ける。That is, the candidates are displayed in the example candidate selection window 4504 of the display unit 4103 (for example, "Is this a drug?""Is there a drug?""It is a drug"), and the translation support unit 4108 is displayed. When the user selects one of them (using the touch panel, for example), the selected example is displayed in the example result window 4505 (for example, "Do you have any medicine?"), And the translated English text of the example. Is uttered from the voice output unit 4107 (for example, "Do you
have medicine? "). From the display unit 4103 to the dialogue management unit 4
The translation pair is sent to 106 (eg, the translation pair "(Do you have medicine?", "Do you have medicine?")). In order to ask the partner to operate the translation device in order to obtain the answer from the partner, the microphone 4501 is turned toward the English user.
【0142】言語変換方向制御部4105は言語変換方
向検出部4104からの情報に基づき、音声翻訳部41
02と表示部4103に対して英語から日本語への変換
方向を指示する。表示部4103の表示内容は、対面の
英語の利用者が使いやすいように図31のように180
°回転して、英語の表示になる。対話履歴ウィンドウ4
601には、対話管理部4106から翻訳対の英語の方
が表示される。利用者は音声入力ボタン4602を押し
てから入力部4101のマイク4603に向かって発声
する(例えば"Yes, certainly")。発声した音声は音声
翻訳部4102で翻訳される。The language conversion direction control unit 4105, based on the information from the language conversion direction detection unit 4104, the speech translation unit 41.
02 and the display unit 4103 are instructed in the direction of conversion from English to Japanese. The display content of the display unit 4103 is 180 as shown in FIG. 31 so that it can be easily used by facing English users.
Rotate to display in English. Dialog history window 4
In 601 the translation manager 4106 displays the English translation pair. After pressing the voice input button 4602, the user speaks into the microphone 4603 of the input unit 4101 (for example, “Yes, certainly”). The uttered voice is translated by the voice translation unit 4102.
【0143】尚、翻訳部4102における翻訳の動作
は、上記実施の形態において図14等を参照して説明し
ているので、ここでは、詳細な説明は省略するが、概要
は以下の通りである。The translation operation in the translation unit 4102 has been described in the above embodiment with reference to FIG. 14 and the like, so a detailed description is omitted here, but the outline is as follows. .
【0144】即ち、表示部4103の用例候補選択ウィ
ンドウ4604に候補が表示されて(例えば、"Yes, I
do."、"Surely."、"Certainly."の3個の用例)、翻訳
支援部4108を用いて利用者がその中から1つを選択
すると(例えばタッチパネルで選択)、用例結果ウィン
ドウ4605に選択された用例が表示されて(例えば"Y
es, I do.")、用例を翻訳した日本語のテキストが音声
出力部4107から発声される(例えば「はい。」)。
表示部4103から対話管理部4106に翻訳対が送ら
れる(例えば、(「はい」, "Yes, I do.")という翻訳
対)。相手の答えを求めるために、マイク4603を日
本語の利用者の方へ向ける。That is, the candidates are displayed in the example candidate selection window 4604 of the display unit 4103 (for example, "Yes, I
do. "," Surely. ", and" Certainly. "), when the user selects one of them using the translation support unit 4108 (for example, touch panel selection), an example result window 4605 appears. The selected example is displayed (eg "Y
es, I do. "), Japanese text translated from the example is uttered from the voice output unit 4107 (for example," Yes. ").
A translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example, a translation pair of (“Yes”, “Yes, I do.”)). Aim the microphone 4603 toward the Japanese user to seek the answer of the other party.
【0145】言語変換方向制御部4105は言語変換方
向検出部4104からの情報に基づき、音声翻訳部41
02と表示部4103に対して日本語から英語への変換
方向を指示する。表示部4103の表示内容は、対面の
日本語の利用者が使いやすいように図32のように18
0°回転して、日本語の表示になる。対話履歴ウィンド
ウ4701には、対話管理部4106から翻訳対の日本
語の方が表示される。利用者は音声入力ボタン4702
を押してから入力部4101のマイク4703に向かっ
て発声する(例えば「ありがとうございます」)。発声
した音声は音声翻訳部4102で翻訳される。The language conversion direction control unit 4105, based on the information from the language conversion direction detection unit 4104, the speech translation unit 41.
02 and the display unit 4103 are instructed in the direction of conversion from Japanese to English. The display content of the display unit 4103 is 18 as shown in FIG. 32 so that it can be easily used by facing Japanese users.
The display will be in Japanese by rotating it by 0 °. In the dialogue history window 4701, the translation manager 4106 displays the Japanese translation pair. The user inputs a voice input button 4702
After pressing, speak into the microphone 4703 of the input unit 4101 (for example, "Thank you"). The uttered voice is translated by the voice translation unit 4102.
【0146】尚、翻訳部4102における翻訳の動作
は、上記実施の形態において図14等を参照して説明し
ているので、ここでは、詳細な説明は省略するが、概要
は以下の通りである。Since the translation operation in the translation unit 4102 has been described in the above embodiment with reference to FIG. 14 and the like, a detailed description thereof will be omitted here, but the outline is as follows. .
【0147】即ち、表示部4103の用例候補選択ウィ
ンドウ4704に候補が表示されて(例えば、「ありが
とう。」の1個の用例)、翻訳支援部4108を用いて
利用者がその中から1つを選択すると(例えばタッチパ
ネルで選択)、用例結果ウィンドウ4705に選択され
た用例が表示されて(例えば「ありがとう。」)、用例
を翻訳した日本語のテキストが音声出力部4107から
発声される(例えば"Thank you.")。表示部4103か
ら対話管理部4106に翻訳対が送られる(例えば、
(「ありがとう」, "Thank you.")という翻訳対)。さら
に相手の答えを求めるために、相手に翻訳装置の操作を
促す場合は、マイク4703を英語の利用者の方に向け
る。That is, the candidates are displayed in the example candidate selection window 4704 of the display unit 4103 (for example, one example of "Thank you."), And the user uses the translation support unit 4108 to select one of them. When selected (for example, selected on the touch panel), the selected example is displayed in the example result window 4705 (for example, "Thank you."), And Japanese text translated from the example is uttered from the voice output unit 4107 (for example, " Thank you. "). The translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example,
(The translation pair "Thank you", "Thank you."). Furthermore, in order to ask the other party to operate the translation device in order to obtain the other party's answer, the microphone 4703 is turned to the English user.
【0148】図33の音声入力翻訳装置は、言語変換方
向検出部4104が本体の傾きを検出するジャイロセン
サー4801である音声入力翻訳装置である。ジャイロ
センサーの状態で言語変換方向制御部4105は日本語
から英語への変換方向を指示していると仮定する。入力
部4101はマイク4802とマイク4803で構成さ
れるが、日本語の入力をするためにマイク4803の入
力は遮断される。利用者は音声入力ボタン4804を押
してから入力部4101のマイク4802に向かって発
声する(例えば「くすりはありませんか」)。発声した
音声は音声翻訳部4102で翻訳される。The speech input translation device of FIG. 33 is a speech input translation device in which the language conversion direction detection unit 4104 is a gyro sensor 4801 for detecting the inclination of the main body. It is assumed that the language conversion direction control unit 4105 is instructing the conversion direction from Japanese to English in the state of the gyro sensor. The input unit 4101 includes a microphone 4802 and a microphone 4803, but the input of the microphone 4803 is blocked in order to input Japanese. After pressing the voice input button 4804, the user speaks into the microphone 4802 of the input unit 4101 (for example, "Are there any medicines?"). The uttered voice is translated by the voice translation unit 4102.
【0149】尚、翻訳部4102における翻訳の動作
は、上記実施の形態において図14等を参照して説明し
ているので、ここでは、詳細な説明は省略するが、概要
は以下の通りである。The translation operation in the translation unit 4102 has been described in the above embodiment with reference to FIG. 14 and the like, so a detailed description will be omitted here, but the outline is as follows. .
【0150】即ち、表示部4103の用例候補選択ウィ
ンドウ4805に候補が表示されて(例えば、「薬です
か」「薬はありますか」「薬です」の3個の用例)、翻
訳支援部4108を用いて利用者がその中から1つを選
択すると(例えばタッチパネルで選択)、用例結果ウィ
ンドウ4806に選択された用例が表示されて(例えば
「薬はありますか」)、用例を翻訳した英語のテキスト
が音声出力部4107から発声される(例えば"Do you
have medicine?")。表示部4103から対話管理部4
106に翻訳対が送られる(例えば、(「薬はあります
か」, "Do you have medicine?")という翻訳対)。相手
の答えを求めるために、相手に翻訳装置の操作を促す場
合は、音声翻訳装置を相手に差し出してさかさまになる
ように相手に手に持ってもらう。That is, the candidates are displayed in the example candidate selection window 4805 of the display unit 4103 (for example, the three examples of “Is this a drug?”, “Is there a drug?” And “Is a drug”). When the user selects one of them (using the touch panel, for example), the selected example will be displayed in the example result window 4806 (eg, "Is there any medicine?"), And the translated English text of the example. Is uttered from the voice output unit 4107 (for example, "Do you
have medicine? "). From the display unit 4103 to the dialogue management unit 4
The translation pair is sent to 106 (eg, the translation pair "(Do you have medicine?", "Do you have medicine?")). When urging the other party to operate the translation device in order to obtain the answer from the other party, the other person holds the voice translation device in an upside-down manner by holding it over.
【0151】言語変換方向制御部4105はジャイロセ
ンサー4901からの情報に基づき、音声翻訳部410
2と表示部4103に対して英語から日本語への変換方
向を指示する。表示部4103の表示内容は、対面の英
語の利用者が使いやすいように図34のように180°
回転して、英語の表示になる。入力部4101は、英語
の入力をするためにマイク4902の入力が遮断され、
マイク4903が有効になる。対話履歴ウィンドウ49
04には、対話管理部4106から翻訳対の英語の方が
表示される。利用者は音声入力ボタン4905を押して
から入力部4101のマイク4903に向かって発声す
る(例えば"Yes, certainly")。発声した音声は音声翻
訳部4102で翻訳される。The language conversion direction control unit 4105, based on the information from the gyro sensor 4901, the speech translation unit 410.
2 and the display unit 4103 are instructed in the conversion direction from English to Japanese. The display content of the display unit 4103 is 180 ° as shown in FIG. 34 so that it can be easily used by facing English users.
It turns to display in English. The input unit 4101 blocks the input of the microphone 4902 in order to input English,
The microphone 4903 is activated. Dialog history window 49
In 04, the translation manager 4106 displays the English translation pair. After pressing the voice input button 4905, the user speaks into the microphone 4903 of the input unit 4101 (for example, "Yes, certainly"). The uttered voice is translated by the voice translation unit 4102.
【0152】尚、翻訳部4102における翻訳の動作
は、上記実施の形態において図14等を参照して説明し
ているので、ここでは、詳細な説明は省略するが、概要
は以下の通りである。The translation operation in the translation unit 4102 has been described in the above embodiment with reference to FIG. 14 and the like, so a detailed description is omitted here, but the outline is as follows. .
【0153】即ち、表示部4103の用例候補選択ウィ
ンドウ4906に候補が表示されて(例えば、"Yes, I
do."、"Surely."、"Certainly."の3個の用例)、翻訳
支援部4108を用いて利用者がその中から1つを選択
すると(例えばタッチパネルで選択)、用例結果ウィン
ドウ4907に選択された用例が表示されて(例えば"Y
es, I do.")、用例を翻訳した日本語のテキストが音声
出力部4107から発声される(例えば「はい。」)。
表示部4103から対話管理部4106に翻訳対が送ら
れる(例えば、(「はい」, "Yes, I do.")という翻訳
対)。相手の答えを求めるために、相手に翻訳装置の操
作を促す場合は、音声翻訳装置を相手に差し出してさか
さまになるように相手に手に持ってもらう。That is, the candidates are displayed in the example candidate selection window 4906 of the display unit 4103 (for example, "Yes, I
do. "," Surely. ", and" Certainly. "), and when the user selects one of them using the translation support unit 4108 (for example, touch panel selection), the example result window 4907 is displayed. The selected example is displayed (eg "Y
es, I do. "), Japanese text translated from the example is uttered from the voice output unit 4107 (for example," Yes. ").
A translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example, a translation pair of (“Yes”, “Yes, I do.”)). When urging the other party to operate the translation device in order to obtain the answer from the other party, the other person holds the voice translation device in an upside-down manner by holding it over.
【0154】言語変換方向制御部4105はジャイロセ
ンサー5001からの情報に基づき、音声翻訳部410
2と表示部4103に対して日本語から英語への変換方
向を指示する。表示部4103の表示内容は、対面の日
本語の利用者が使いやすいように図35のように180
°回転して、日本語の表示になる。入力部4101は、
日本語の入力をするためにマイク5002の入力が遮断
され、マイク5003が有効になる。対話履歴ウィンド
ウ5004には、対話管理部4106から翻訳対の日本
語の方が表示される。利用者は音声入力ボタン5005
を押してから入力部4101のマイク5003に向かっ
て発声する(例えば「ありがとうございます」)。発声
した音声は音声翻訳部4102で翻訳される。The language conversion direction control unit 4105, based on the information from the gyro sensor 5001, the speech translation unit 410.
2 and the display unit 4103 are instructed in the direction of conversion from Japanese to English. The display content of the display unit 4103 is 180 as shown in FIG. 35 so that it can be easily used by facing Japanese users.
Rotate to display in Japanese. The input unit 4101 is
In order to input Japanese, the input of the microphone 5002 is blocked and the microphone 5003 is activated. In the dialogue history window 5004, the translation manager 4106 displays the Japanese translation pair. The user clicks the voice input button 5005
After pressing, speak into the microphone 5003 of the input unit 4101 (for example, "Thank you"). The uttered voice is translated by the voice translation unit 4102.
【0155】尚、翻訳部4102における翻訳の動作
は、上記実施の形態において図14等を参照して説明し
ているので、ここでは、詳細な説明は省略するが、概要
は以下の通りである。The translation operation in translation section 4102 has been described in the above embodiment with reference to FIG. 14 and the like, so a detailed description is omitted here, but the outline is as follows. .
【0156】即ち、表示部4103の用例候補選択ウィ
ンドウ5006に候補が表示されて(例えば、「ありが
とう。」の1個の用例)、翻訳支援部4108を用いて
利用者がその中から1つを選択すると(例えばタッチパ
ネルで選択)、用例結果ウィンドウ5007に選択され
た用例が表示されて(例えば「ありがとう。」)、用例
を翻訳した日本語のテキストが音声出力部4107から
発声される(例えば"Thank you.")。表示部4103か
ら対話管理部4106に翻訳対が送られる(例えば、
(「ありがとう」, "Thank you.")という翻訳対)。さら
に相手の答えを求めるために、相手に翻訳装置の操作を
促す場合は、音声翻訳装置を相手に差し出してさかさま
になるように相手に手に持ってもらう。That is, the candidates are displayed in the example candidate selection window 5006 of the display unit 4103 (for example, one example of "Thank you."), And the user uses the translation support unit 4108 to select one of them. When selected (for example, selected on the touch panel), the selected example is displayed in the example result window 5007 (for example, "Thank you."), And Japanese text translated from the example is uttered from the voice output unit 4107 (for example, " Thank you. "). The translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example,
(The translation pair "Thank you", "Thank you."). Further, in order to ask the partner to operate the translation device in order to obtain the answer, the voice translation device is presented to the partner and the partner holds it upside down.
【0157】図36の音声入力翻訳装置は、入力部41
01と言語変換方向検出部4104が音源の方向を検出
可能なマイクアレーユニット5101である音声入力翻
訳装置である。マイクアレーユニット5101は、音源
の方向を特定してから、指向性の鋭い集音を行う機能を
持つものであり、一般的に幾何学的に配置される複数の
マイクユニットと各マイクユニットからの出力をデジタ
ル信号処理して1つの出力に変換する演算装置によって
構成される。The speech input translation device of FIG. 36 has an input unit 41.
01 and the language conversion direction detection unit 4104 are a microphone input unit 5101 capable of detecting the direction of a sound source. The microphone array unit 5101 has a function of performing sound collection with sharp directivity after specifying the direction of the sound source, and generally includes a plurality of microphone units geometrically arranged and a plurality of microphone units from each microphone unit. It is composed of an arithmetic unit which processes an output by digital signal processing and converts it into one output.
【0158】日本語の利用者が発声を開始すると(例え
ば「あの、」)、マイクアレーユニット5101は発声
者の音声の方向を検出し、発声可能状態となる。発声可
能状態でない間は表示部4103の背景色が利用者に注
意を促す色で(例えば赤色)、発生可能状態になると許
可を与えられた色になる(例えば緑色)。マイクアレー
ユニット5101の情報に基づき言語変換方向制御部4
105は日本語から英語への変換方向を指示する。発生
可能状態で、利用者が発声すると(例えば「くすりはあ
りませんか」)、発声した音声は音声翻訳部4102で
翻訳される。When a Japanese user starts uttering (eg, "Ano,"), the microphone array unit 5101 detects the direction of the utterer's voice, and becomes utterable. The background color of the display unit 4103 is a color that calls the user's attention while not in the utterable state (for example, red), and becomes a color for which permission has been given when the utterable state is (for example, green). Language conversion direction control unit 4 based on the information of the microphone array unit 5101
Reference numeral 105 indicates the direction of conversion from Japanese to English. When the user utters in a state in which it can be generated (for example, “Are there any medicines?”), The uttered voice is translated by the voice translation unit 4102.
【0159】尚、翻訳部4102における翻訳の動作
は、上記実施の形態において図14等を参照して説明し
ているので、ここでは、詳細な説明は省略するが、概要
は以下の通りである。The translation operation in the translation unit 4102 has been described in the above embodiment with reference to FIG. 14 and the like, so a detailed description is omitted here, but the outline is as follows. .
【0160】即ち、表示部4103の用例候補選択ウィ
ンドウ5102に候補が表示されて(例えば、「薬です
か」「薬はありますか」「薬です」の3個の用例)、翻
訳支援部4108を用いて利用者がその中から1つを選
択すると(例えばタッチパネルで選択)、用例結果ウィ
ンドウ5103に選択された用例が表示されて(例えば
「薬はありますか」)、用例を翻訳した英語のテキスト
が音声出力部4107から発声される(例えば"Do you
have medicine?")。表示部4103から対話管理部4
106に翻訳対が送られる(例えば、(「薬はあります
か」, "Do you have medicine?")という翻訳対)。That is, the candidates are displayed in the example candidate selection window 5102 of the display unit 4103 (for example, three examples of “Is this a drug?”, “Is there a drug?” And “Is a drug”). When the user selects one of them (using the touch panel, for example), the selected example is displayed in the example result window 5103 (eg, "Do you have any medicine?"), And the English text that translates the example. Is uttered from the voice output unit 4107 (for example, "Do you
have medicine? "). From the display unit 4103 to the dialogue management unit 4
The translation pair is sent to 106 (eg, the translation pair "(Do you have medicine?", "Do you have medicine?")).
【0161】相手が答えるために発声を開始すると(例
えば"Hmm,")、マイクアレーユニット5201は発声者
の音声の方向を検出し、発声可能状態となる。言語変換
方向制御部4105はマイクアレーユニット5201か
らの情報に基づき、音声翻訳部4102と表示部410
3に対して英語から日本語への変換方向を指示する。表
示部4103の表示内容は、対面の英語の利用者が使い
やすいように図37のように180°回転して、英語の
表示になる。対話履歴ウィンドウ5202には、対話管
理部4106から翻訳対の英語の方が表示される。発声
可能状態で、英語の利用者が発声すると(例えば"Yes,
certainly")、発声した音声は音声翻訳部4102で翻
訳される。When the other party starts speaking to answer (for example, "Hmm,"), the microphone array unit 5201 detects the direction of the voice of the speaker and becomes ready to speak. The language conversion direction control unit 4105, based on the information from the microphone array unit 5201, the voice translation unit 4102 and the display unit 410.
Instruct 3 to change the direction from English to Japanese. The display content of the display unit 4103 is rotated by 180 ° as shown in FIG. 37 so that it is easy for a facing English user to use, and the display is in English. In the dialogue history window 5202, the translation manager 4106 displays the English translation pair. When an English user speaks while speaking is possible (for example, "Yes,
certainly "), the uttered voice is translated by the voice translation unit 4102.
【0162】尚、翻訳部4102における翻訳の動作
は、上記実施の形態において図14等を参照して説明し
ているので、ここでは、詳細な説明は省略するが、概要
は以下の通りである。The translation operation in the translation unit 4102 has been described in the above embodiment with reference to FIG. 14 and the like, so a detailed description is omitted here, but the outline is as follows. .
【0163】即ち、表示部4103の用例候補選択ウィ
ンドウ5203に候補が表示されて(例えば、"Yes, I
do."、"Surely."、"Certainly."の3個の用例)、翻訳
支援部4108を用いて利用者がその中から1つを選択
すると(例えばタッチパネルで選択)、用例結果ウィン
ドウ5204に選択された用例が表示されて(例えば"Y
es, I do.")、用例を翻訳した日本語のテキストが音声
出力部4107から発声される(例えば「はい。」)。
表示部4103から対話管理部4106に翻訳対が送ら
れる(例えば、(「はい」, "Yes, I do.")という翻訳
対)。That is, the candidates are displayed in the example candidate selection window 5203 of the display unit 4103 (for example, "Yes, I
do. "," Surely. ", and" Certainly. "), and when the user selects one of them using the translation support unit 4108 (for example, touch panel selection), the example result window 5204 is displayed. The selected example is displayed (eg "Y
es, I do. "), Japanese text translated from the example is uttered from the voice output unit 4107 (for example," Yes. ").
A translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example, a translation pair of (“Yes”, “Yes, I do.”)).
【0164】相手が答えるために発声を開始すると(例
えば「あ、」)、マイクアレーユニット5301は発声
者の音声の方向を検出し、発声可能状態となる。言語変
換方向制御部4105はマイクアレーユニット5301
からの情報に基づき、音声翻訳部4102と表示部41
03に対して日本語から英語への変換方向を指示する。
表示部4103の表示内容は、対面の日本語の利用者が
使いやすいように図38のように180°回転して、日
本語の表示になる。対話履歴ウィンドウ5302には、
対話管理部4106から翻訳対の日本語の方が表示され
る。発生可能状態で、利用者が発声すると(例えば「あ
りがとう」)、発声した音声は音声翻訳部4102で翻
訳される。When the other party starts speaking to answer (for example, "A"), the microphone array unit 5301 detects the direction of the voice of the speaker and becomes ready to speak. The language conversion direction control unit 4105 is a microphone array unit 5301.
Based on the information from the voice translation unit 4102 and the display unit 41.
The direction of conversion from Japanese to English is instructed to 03.
The display content of the display unit 4103 is rotated by 180 ° as shown in FIG. 38 so that it is easy for the facing Japanese user to use, and the display is in Japanese. In the dialogue history window 5302,
The dialogue management unit 4106 displays the Japanese translation pair. When the user utters in a state where the utterance is possible (for example, “thank you”), the uttered voice is translated by the voice translation unit 4102.
【0165】尚、翻訳部4102における翻訳の動作
は、上記実施の形態において図14等を参照して説明し
ているので、ここでは、詳細な説明は省略するが、概要
は以下の通りである。The translation operation in the translation unit 4102 has been described in the above embodiment with reference to FIG. 14 and the like, so a detailed description is omitted here, but the outline is as follows. .
【0166】即ち、表示部4103の用例候補選択ウィ
ンドウ5303に候補が表示されて(例えば、「ありが
とう。」の1個の用例)、翻訳支援部4108を用いて
利用者がその中から1つを選択すると(例えばタッチパ
ネルで選択)、用例結果ウィンドウ5304に選択され
た用例が表示されて(例えば「ありがとう。」)、用例
を翻訳した日本語のテキストが音声出力部4107から
発声される(例えば"Thank you.")。表示部4103か
ら対話管理部4106に翻訳対が送られる(例えば、
(「ありがとう」, "Thank you.")という翻訳対)。That is, the candidates are displayed in the example candidate selection window 5303 of the display unit 4103 (for example, one example of "Thank you."), And the user uses the translation support unit 4108 to select one of them. When selected (for example, selected on the touch panel), the selected example is displayed in the example result window 5304 (for example, "Thank you."), And Japanese text translated from the example is uttered from the voice output unit 4107 (for example, " Thank you. "). The translation pair is sent from the display unit 4103 to the dialogue management unit 4106 (for example,
(The translation pair "Thank you", "Thank you.").
【0167】なお、タッチパネル、ボタン、音声の各入
力モダリティを組み合わせたり、ボタンをタッチパネル
で置換して操作することも可能である。また、一例とし
て日本語と英語を取り上げたが、中国語など他の言語に
ついても同様に実施可能であり、本発明は言語に依存し
ない。It is also possible to combine the input modalities of the touch panel, the button, and the voice, or replace the button with the touch panel for operation. Moreover, although Japanese and English are taken as an example, the present invention can be implemented in other languages such as Chinese in a similar manner, and the present invention does not depend on the language.
【0168】以上述べたことから明らかなように、上記
構成によれば、表示部に一方の言語の操作画面が全面に
表示されるので、小さい表示部であっても翻訳装置の使
い勝手が維持される。また、画面の内容から操作権限が
どちらにあるのかが理解しやすく、2人の発声が重なる
ことがない。したがって、音声認識の認識率が低下せ
ず、翻訳装置としての性能が低下しない。As is clear from the above description, according to the above configuration, since the operation screen of one language is displayed on the entire surface of the display unit, the usability of the translation apparatus is maintained even if the display unit is small. It Further, it is easy to understand which of the operation authorities is given from the contents of the screen, and the utterances of the two people do not overlap. Therefore, the recognition rate of voice recognition does not decrease, and the performance of the translation device does not decrease.
【0169】尚、上記実施の形態では、第2の言語につ
いては、翻訳結果の表示とともに、音声出力も行う場合
について説明したが、これに限らず例えば、翻訳結果の
表示のみの構成でも良い。In the above embodiment, the case where the translation result is displayed and the voice is output in the second language has been described. However, the present invention is not limited to this. For example, the translation result may be displayed.
【0170】又、上記実施の形態では、2人の利用者
が、翻訳装置を挟んで対面する形で同装置を使用する場
合について説明したが、これに限らず例えば、2人が並
んで同装置を使用する構成としても良い。Further, in the above embodiment, the case where two users use the same device so as to face each other with the translation device interposed between them is described, but the present invention is not limited to this and, for example, two users are arranged side by side. It may be configured to use the device.
【0171】具体的には、図39、図40に示す構成と
なる。これらの図に示す通り、第1の言語(例えば、日
本語)の利用者は、音声入力ボタン4201aを使用
し、第2の言語(例えば、英語)の利用者は、音声入力
ボタン4201bを使用する。この構成では、マイク5
501が装置の上部中央に一つ設けられている。この場
合にも上記構成と同様の効果発揮する。Specifically, the configuration shown in FIGS. 39 and 40 is obtained. As shown in these figures, the user of the first language (for example, Japanese) uses the voice input button 4201a, and the user of the second language (for example, English) uses the voice input button 4201b. To do. In this configuration, the microphone 5
One 501 is provided in the upper center of the device. Also in this case, the same effect as that of the above-described configuration is exhibited.
【0172】又、上記実施の形態では、例えば、図2
7、図28に示す様に用例結果を翻訳対象とする場合に
ついて説明したが、これに限らず例えば、用例結果ウィ
ンドウ4204に表示された単語列の中から、ユーザに
より指定された単語の代替単語の一覧を表示して、その
代替単語の中から、所望の単語を選択し、その選択結果
を反映したものを翻訳対象とする構成でも良い。即ち、
この場合の構成は、図21〜図24で述べた構成を、図
27等に示す構成に適用したものである。In the above embodiment, for example, as shown in FIG.
7, the case where the example result is to be translated has been described, but the present invention is not limited to this, and for example, from the word string displayed in the example result window 4204, the alternative word of the word specified by the user. May be displayed, a desired word may be selected from the alternative words, and the one reflecting the selection result may be the translation target. That is,
The configuration in this case is obtained by applying the configuration described in FIGS. 21 to 24 to the configuration shown in FIG. 27 and the like.
【0173】具体的には、図41〜図44に示す構成と
なる。即ち、用例結果ウィンドウ4204aに表示され
た単語列の中から、ユーザにより指定(図41)された
単語の代替単語の一覧を表示して(図42)、その代替
単語の中から、所望の単語として例えば、アスピリンの
単語2301を選択し(図43)、その選択結果を反映
した用例結果を用例結果ウィンドウ4204aに表示し
て(図44)、それを翻訳対象とするものである。その
後の翻訳動作等は、図28等に示した内容と同じであ
る。これにより翻訳対象の幅がより広がり使用性が向上
する。Specifically, it has the configuration shown in FIGS. That is, a list of alternative words of the word designated by the user (FIG. 41) is displayed from the word string displayed in the example result window 4204a (FIG. 42), and the desired word is selected from the alternative words. For example, the word 2301 of aspirin is selected (FIG. 43), the example result reflecting the selection result is displayed in the example result window 4204a (FIG. 44), and it is set as the translation target. The subsequent translation operation and the like are the same as those shown in FIG. As a result, the range of objects to be translated becomes wider and usability is improved.
【0174】本発明は、上述した本発明の音声変換装置
の全部又は一部の手段(又は、素子、回路、部等)の機
能をコンピュータにより実行させるためのプログラムで
あって、コンピュータと協働して動作するプログラムで
ある。The present invention is a program for causing a computer to execute the functions of all or part of the means (or elements, circuits, units, etc.) of the above-described voice conversion device of the present invention, and cooperates with the computer. It is a program that operates by doing.
【0175】又、本発明は、上述した本発明の音声変換
方法の全部又は一部のステップ(又は、工程、動作、作
用等)の動作をコンピュータにより実行させるためのプ
ログラムであって、コンピュータと協働して動作するプ
ログラムである。Further, the present invention is a program for causing a computer to execute all or some of the steps (or steps, operations, actions, etc.) of the above-described voice conversion method of the present invention. It is a program that works together.
【0176】又、本発明は、上述した本発明の音声変換
方法の全部又は一部のステップの全部又は一部の動作を
コンピュータにより実行させるためのプログラムを担持
した媒体であり、コンピュータにより読み取り可能且
つ、読み取られた前記プログラムが前記コンピュータと
協動して前記動作を実行する媒体である。Further, the present invention is a medium carrying a program for causing a computer to execute all or some of the operations of all or some of the steps of the voice conversion method of the present invention described above, which is readable by the computer. The read program is a medium that executes the operation in cooperation with the computer.
【0177】又、本発明は、上述した本発明の音声変換
装置の全部又は一部の手段の全部又は一部の機能をコン
ピュータにより実行させるためのプログラムを担持した
媒体であり、コンピュータにより読み取り可能且つ、読
み取られた前記プログラムが前記コンピュータと協動し
て前記機能を実行する媒体である。Further, the present invention is a medium carrying a program for causing a computer to execute all or some of the functions of all or some of the means of the above-described voice conversion apparatus of the present invention, which is readable by the computer. The read program is a medium that executes the function in cooperation with the computer.
【0178】又、本発明の一部の手段(又は、装置、素
子、回路、部等)、本発明の一部のステップ(又は、工
程、動作、作用等)とは、それらの複数の手段又はステ
ップの内の、幾つかの手段又はステップを意味し、ある
いは、一つの手段又はステップの内の、一部の機能又は
一部の動作を意味するものである。Further, some means (or devices, elements, circuits, sections, etc.) of the present invention, and some steps (or steps, operations, actions, etc.) of the present invention are those plural means. Also, it means some means or steps in a step, or means some functions or some operations in one means or steps.
【0179】又、本発明の一部の装置(又は、素子、回
路、部等)とは、それらの複数の装置の内の、幾つかの
装置を意味し、あるいは、一つの装置の内の、一部の手
段(又は、素子、回路、部等)を意味し、あるいは、一
つの手段の内の、一部の機能を意味するものである。Further, a part of the device (or element, circuit, part, etc.) of the present invention means some of the plurality of devices, or one of the devices. Means a part of means (or an element, a circuit, a part, etc.) or means a part of the function of one means.
【0180】又、本発明のプログラムの一利用形態は、
コンピュータにより読み取り可能な記録媒体に記録さ
れ、コンピュータと協働して動作する態様であっても良
い。Further, one usage form of the program of the present invention is as follows:
It may be recorded in a computer-readable recording medium and operate in cooperation with the computer.
【0181】又、本発明のプログラムの一利用形態は、
伝送媒体中を伝送し、コンピュータにより読みとられ、
コンピュータと協働して動作する態様であっても良い。Further, one usage form of the program of the present invention is:
Transmitted through a transmission medium, read by a computer,
It may be a mode of operating in cooperation with a computer.
【0182】又、本発明のデータ構造としては、データ
ベース、データフォーマット、データテーブル、データ
リスト、データの種類などを含む。Further, the data structure of the present invention includes a database, a data format, a data table, a data list, a data type and the like.
【0183】又、記録媒体としては、ROM等が含ま
れ、伝送媒体としては、インターネット等の伝送媒体、
光・電波・音波等が含まれる。Further, the recording medium includes a ROM or the like, and the transmission medium is a transmission medium such as the Internet,
Light, radio waves, sound waves, etc. are included.
【0184】又、上述した本発明のコンピュータは、C
PU等の純然たるハードウェアに限らず、ファームウェ
アや、OS、更に周辺機器を含むものであっても良い。The computer of the present invention described above is C
The hardware is not limited to pure hardware such as PU, but may include firmware, OS, and peripheral devices.
【0185】尚、以上説明した様に、本発明の構成は、
ソフトウェア的に実現しても良いし、ハードウェア的に
実現しても良い。As described above, the structure of the present invention is
It may be realized by software or hardware.
【0186】[0186]
【発明の効果】以上述べたことから明らかなように本発
明は、従来に比べてより一層小型化が可能であり、操作
も簡単に出来得るという長所を有する。As is clear from the above description, the present invention has the advantages that it can be made smaller than conventional ones and can be easily operated.
【0187】又、本発明は、従来に比べて表示内容につ
いての使用性の向上を図る事が出来るという長所を有す
る。Further, the present invention has an advantage that the usability of display contents can be improved as compared with the prior art.
【図1】本発明の一実施の形態の音声通訳装置のハード
ウェア構成を示すブロック図FIG. 1 is a block diagram showing a hardware configuration of a voice interpreter according to an embodiment of the present invention.
【図2】PC/AT互換のマザーボードを使用した場合の図
1の詳細なブロック図[Figure 2] Detailed block diagram of Figure 1 when using a PC / AT compatible motherboard.
【図3】画像出力装置204の詳細なブロック図FIG. 3 is a detailed block diagram of an image output device 204.
【図4】画像指示装置205およびボタン206の詳細
なブロック図FIG. 4 is a detailed block diagram of an image pointing device 205 and a button 206.
【図5】音声入出力装置203の詳細なブロック図FIG. 5 is a detailed block diagram of a voice input / output device 203.
【図6】音声通訳装置を利用しないときの筐体の全体図FIG. 6 is an overall view of a casing when a voice interpreter is not used
【図7】(a)は図6に示す音声通訳装置の詳細な構造
を示す正面図
(b)は図6に示す音声通訳装置の詳細な構造を示す側
面図
(c)は図6に示す音声通訳装置の詳細な構造を示す平
面図7 (a) is a front view showing the detailed structure of the voice interpreter shown in FIG. 6; FIG. 7 (b) is a side view showing the detailed structure of the voice interpreter shown in FIG. 6; Plan view showing the detailed structure of the voice interpreter
【図8】音声通訳装置を利用するときの筐体の全体図FIG. 8 is an overall view of a casing when using a voice interpreter.
【図9】(a)は図8に示す音声通訳装置の詳細な構造
を示す正面図
(b)は図8に示す音声通訳装置の詳細な構造を示す側
面図
(c)は図8に示す音声通訳装置の詳細な構造を示す平
面図9 (a) is a front view showing the detailed structure of the voice interpreter shown in FIG. 8; FIG. 9 (b) is a side view showing the detailed structure of the voice interpreter shown in FIG. 8; Plan view showing the detailed structure of the voice interpreter
【図10】(a)は主筐体801に図2の各構成要素を
実装する方法を示すための正面図
(b)は主筐体801に図2の各構成要素を実装する方
法を示すための側面図
(c)は主筐体801に図2の各構成要素を実装する方
法を示すための平面図10A is a front view for showing a method of mounting each component of FIG. 2 in a main housing 801, and FIG. 10B is a front view showing a method of mounting each component of FIG. 2 in a main housing 801. 2C is a plan view for showing a method of mounting each component of FIG. 2 in the main housing 801.
【図11】(a)は副筐体802に図2の各構成要素を
実装する方法を示すための正面図
(b)は副筐体802に図2の各構成要素を実装する方
法を示すための側面図
(c)は副筐体802に図2の各構成要素を実装する方
法を示すための平面図11A is a front view for showing a method of mounting each constituent element of FIG. 2 in a sub-housing 802, and FIG. 11B is a front view showing a method of mounting each constituent element of FIG. 2 in a sub-housing 802. 2C is a plan view for showing a method of mounting each component of FIG. 2 in the sub-housing 802.
【図12】本発明の一実施の形態の音声通訳装置のソフ
トウェアの構成を示すブロック図FIG. 12 is a block diagram showing a software configuration of a voice interpreter according to an embodiment of the present invention.
【図13】ソフトウェアの処理の流れを示すフローチャ
ートFIG. 13 is a flowchart showing the flow of software processing.
【図14】用例データベース1205の内容の一例を示
す図FIG. 14 is a diagram showing an example of the contents of an example database 1205.
【図15】単語クラス辞書1206の内容の一例を示す
図FIG. 15 is a diagram showing an example of contents of a word class dictionary 1206.
【図16】GUI部1202の表示内容を示す図FIG. 16 is a diagram showing the display contents of the GUI unit 1202.
【図17】ステップ1301から1303までのGUI部
1202の表示内容を示す図FIG. 17 is a diagram showing the display contents of the GUI unit 1202 from steps 1301 to 1303.
【図18】ステップ1304の処理におけるGUI部12
02の表示内容を示す図FIG. 18 is a GUI unit 12 in the process of step 1304.
Figure showing the display contents of 02
【図19】ステップ1305の処理におけるGUI部12
02の表示内容を示す図FIG. 19 is a GUI unit 12 in the process of step 1305.
Figure showing the display contents of 02
【図20】ステップ1310から1311までの処理に
おけるGUI部1202の表示内容を示す図FIG. 20 is a diagram showing the display contents of the GUI unit 1202 in the processing of steps 1310 to 1311.
【図21】ステップ1306の処理におけるGUI部12
02の表示内容を示す図FIG. 21 is a GUI unit 12 in the process of step 1306.
Figure showing the display contents of 02
【図22】ステップ1307の処理におけるGUI部12
02の表示内容を示す図FIG. 22 is a GUI unit 12 in the process of step 1307.
Figure showing the display contents of 02
【図23】ステップ1308の処理におけるGUI部12
02の表示内容を示す図FIG. 23 is a GUI unit 12 in the process of step 1308.
Figure showing the display contents of 02
【図24】ステップ1309の処理におけるGUI部12
02の表示内容を示す図FIG. 24 is a GUI unit 12 in the process of step 1309.
Figure showing the display contents of 02
【図25】ステップ1310から1311までの処理に
おけるGUI部1202の表示内容を示す図FIG. 25 is a diagram showing the display contents of the GUI unit 1202 in the processing from steps 1310 to 1311.
【図26】本発明の一実施の形態の音声入力翻訳装置の
構成を示すブロック図FIG. 26 is a block diagram showing a configuration of a speech input translation device according to an embodiment of the present invention.
【図27】言語変換方向検出部4104がボタンである
音声翻訳装置の日本語の利用を示す図FIG. 27 is a diagram showing use of Japanese in a speech translation device in which the language conversion direction detection unit 4104 is a button.
【図28】言語変換方向検出部4104がボタンである
音声翻訳装置の英語の利用を示す図FIG. 28 is a diagram showing the use of English in a speech translation device in which the language conversion direction detection unit 4104 is a button.
【図29】言語変換方向検出部4104がボタンである
音声翻訳装置の日本語の利用を示す図FIG. 29 is a diagram showing use of Japanese in a speech translation device in which the language conversion direction detection unit 4104 is a button.
【図30】言語変換方向検出部4104がマイク軸の角
度センサーである音声翻訳装置の日本語の利用を示す図FIG. 30 is a diagram showing the use of Japanese in a speech translation device in which the language conversion direction detection unit 4104 is a microphone axis angle sensor.
【図31】言語変換方向検出部4104がマイク軸の角
度センサーである音声翻訳装置の英語の利用を示す図FIG. 31 is a diagram showing the use of English in a speech translation device in which the language conversion direction detection unit 4104 is an angle sensor for a microphone axis.
【図32】言語変換方向検出部4104がマイク軸の角
度センサーである音声翻訳装置の日本語の利用を示す図FIG. 32 is a diagram showing the use of Japanese in a speech translation device in which the language conversion direction detection unit 4104 is an angle sensor of a microphone axis.
【図33】言語変換方向検出部4104がジャイロセン
サーである音声翻訳装置の日本語の利用を示す図FIG. 33 is a diagram showing the use of Japanese in a speech translation device in which the language conversion direction detection unit 4104 is a gyro sensor.
【図34】言語変換方向検出部4104がジャイロセン
サーである音声翻訳装置の英語の利用を示す図FIG. 34 is a diagram showing the use of English in a speech translation device in which the language conversion direction detection unit 4104 is a gyro sensor.
【図35】言語変換方向検出部4104がジャイロセン
サーである音声翻訳装置の日本語の利用を示す図FIG. 35 is a diagram showing the use of Japanese in a speech translation device in which the language conversion direction detection unit 4104 is a gyro sensor.
【図36】入力部4101と言語変換方向検出部410
4がマイクアレーユニットである音声翻訳装置の日本語
の利用を示す図FIG. 36 is an input unit 4101 and a language conversion direction detection unit 410.
FIG. 4 is a diagram showing the use of Japanese in a voice translation device in which 4 is a microphone array unit.
【図37】入力部4101と言語変換方向検出部410
4がマイクアレーユニットである音声翻訳装置の英語の
利用を示す図FIG. 37 is an input unit 4101 and a language conversion direction detection unit 410.
FIG. 4 is a diagram showing the use of a speech translation device in which English is a microphone array unit in English.
【図38】入力部4101と言語変換方向検出部410
4がマイクアレーユニットである音声翻訳装置の日本語
の利用を示す図FIG. 38 is an input unit 4101 and a language conversion direction detection unit 410.
FIG. 4 is a diagram showing the use of Japanese in a voice translation device in which 4 is a microphone array unit.
【図39】本発明の別の実施の形態の音声翻訳装置の日
本語の利用を説明するための図FIG. 39 is a diagram for explaining the use of Japanese in a speech translation device according to another embodiment of the present invention.
【図40】本発明の別の実施の形態の音声翻訳装置の英
語の利用を説明するための図FIG. 40 is a diagram for explaining the use of English in the speech translation apparatus according to another embodiment of the present invention.
【図41】本発明の更に別の実施の形態の音声翻訳装置
の日本語の利用における代替単語の機能を説明するため
の図FIG. 41 is a diagram for explaining the function of alternative words in the use of Japanese in the speech translation apparatus according to yet another embodiment of the present invention.
【図42】本発明の更に別の実施の形態の音声翻訳装置
の日本語の利用における代替単語の機能を説明するため
の図FIG. 42 is a diagram for explaining a function of an alternative word in using Japanese in a speech translation apparatus according to still another embodiment of the present invention.
【図43】本発明の更に別の実施の形態の音声翻訳装置
の日本語の利用における代替単語の機能を説明するため
の図FIG. 43 is a diagram for explaining the function of an alternative word in the use of Japanese in the speech translation apparatus according to yet another embodiment of the present invention.
【図44】本発明の更に別の実施の形態の音声翻訳装置
の日本語の利用における代替単語の機能を説明するため
の図FIG. 44 is a diagram for explaining the function of an alternative word in the use of Japanese in the speech translation apparatus according to yet another embodiment of the present invention.
101 演算制御装置
102 音声入出力装置
103 画像出力装置
104 外部大容量不揮発性記憶装置
105 画像指示装置
106 ボタン
107 外部データ入出力端子
108 電源装置
201 マザーボード
202 2.5インチハードディスクドライブ
203 音声入出力装置
204 画像出力装置
205 画像指示装置
206 ボタン
207 外部データ出力端子
208 Li-ion2次電池
301 バックライト付4インチVGALCDユニット
302 マザーボード
401 タッチパネルコントローラ
402 3.8インチ感圧式タッチパネル
403 ボタン
404 ボタン
405 マザーボード
501 スピーカ
502 オーディオアンプ
503 マイク
504 USBオーディオデバイス
505 マザーボード
601 主筐体
602 副筐体
603 ボタン
604 ボタン
701 正面図
702 右側面図
703 上面図
801 主筐体
802 副筐体
803 マイク
804 スピーカ
805 タッチパネル付LCD
901 正面図
902 右側面図
903 上面図
1001 正面図
1002 右側面図
1003 上面図
1004 マザーボード
1005 タッチパネル付LCD
1006 2.5インチハードディスクドライブ
1007 ボタン
1008 ボタン
1101 正面図
1102 右側面図
1103 上面図
1104 マイク
1105 スピーカ
1106 USBオーディオデバイス
1107 オーディオアンプ
1201 制御部
1202 GUI部
1203 音声入力部
1204 音声認識部
1205 用例データベース
1206 単語クラス辞書
1207 用例選択部
1208 単語選択部
1209 代替単語選択部
1210 言語変換部
1211 音声合成部
1301 翻訳の方向を決定するステップ
1302 音声認識を行うステップ
1303 用例データベースから用例を検索するステッ
プ
1304 用例を選択するステップ
1305 用例を決定するか修正するかを判断するステ
ップ
1306 修正する単語を決定するステップ
1307 代替単語一覧を取得するステップ
1308 代替単語を決定するステップ
1309 用例を修正するステップ
1310 言語変換を行うステップ
1311 音声合成部を行うステップ
1601 翻訳方向指定部
1602 翻訳方向指定部
1603 認識結果表示部
1604 用例候補表示部
1605 用例結果表示部
1606 通訳結果表示部
1607 ボタンSW1
1608 ボタンSW2
1701 翻訳方向指定部
1702 認識結果表示部
1703 用例候補表示部
1801 選択された用例
1901 用例結果表示部
1902 用例候補表示部
2001 通訳結果表示部
2101 用例結果表示部
2201 リストウィンドウ
2301 選択された代替単語
2401 用例結果表示部
4105 言語変換方向制御部
4106 対話履歴管理部
4104 言語変換方向検出部101 arithmetic control device 102 audio input / output device 103 image output device 104 external large-capacity non-volatile storage device 105 image instruction device 106 button 107 external data input / output terminal 108 power supply device 201 motherboard 202 2.5 inch hard disk drive 203 audio input / output device 204 image output device 205 image instruction device 206 button 207 external data output terminal 208 Li-ion secondary battery 301 4 inch VGA LCD unit with backlight 302 motherboard 401 touch panel controller 402 3.8 inch pressure sensitive touch panel 403 button 404 button 405 motherboard 501 speaker 502 Audio amplifier 503 Microphone 504 USB audio device 505 Motherboard 601 Main casing 602 Sub casing 603 Button 604 Button 701 Front view 02 Right side view 703 Top view 801 Main case 802 Sub case 803 Microphone 804 Speaker 805 Touch panel LCD 901 Front view 902 Right side view 903 Top view 1001 Front view 1002 Right side view 1003 Top view 1004 Motherboard 1005 Touch panel LCD 1006 2.5 inch hard disk drive 1007 button 1008 button 1101 front view 1102 right side view 1103 top view 1104 microphone 1105 speaker 1106 USB audio device 1107 audio amplifier 1201 control unit 1202 GUI unit 1203 voice input unit 1204 voice recognition unit 1205 example database 1206 words Class dictionary 1207 Example selection unit 1208 Word selection unit 1209 Alternative word selection unit 1210 Language conversion unit 1211 Speech synthesis unit 1301 Translation direction Step 1302 to make a decision Step 1303 to perform voice recognition Step 1304 to retrieve an example from an example database Step 1305 Step 1305 to decide an example or decide whether to correct it Step 1306 Determine a word to be corrected Step 1307 Alternative word list Step 1308 to acquire Step 1308 to determine alternative words 1309 To modify example 1313 To perform language conversion Step 1311 To perform speech synthesis section 1601 Translation direction designation section 1602 Translation direction designation section 1603 Recognition result display section 1604 Example candidate display section 1605 Example result display section 1606 Interpretation result display section 1607 Button SW1 1608 Button SW2 1701 Translation direction designation section 1702 Recognition result display section 1703 Example candidate display section 1801 Selected example 1901 Example result Radical 113 1902 example candidate display unit 2001 interpretation result display unit 2101 example result display unit 2201 list window 2301 selected alternative words 2401 example result display unit 4105 language conversion direction controller 4106 dialogue history manager 4104 language conversion direction detector
フロントページの続き (72)発明者 松井 謙二 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 ▲ひろ▼瀬 良文 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 前川 英嗣 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 芳澤 伸一 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 5B091 CA22 CB12 CB24 CB32 DA01 DA11 5D015 AA05 KK02 KK04 LL05 LL11 5D045 AB03 Continued front page (72) Inventor Kenji Matsui 1006 Kadoma, Kadoma-shi, Osaka Matsushita Electric Sangyo Co., Ltd. (72) Inventor ▲ Hiro ▼ Yoshifumi Se 1006 Kadoma, Kadoma-shi, Osaka Matsushita Electric Sangyo Co., Ltd. (72) Inventor Eiji Maekawa 1006 Kadoma, Kadoma-shi, Osaka Matsushita Electric Sangyo Co., Ltd. (72) Inventor Shinichi Yoshizawa 1006 Kadoma, Kadoma-shi, Osaka Matsushita Electric Sangyo Co., Ltd. F term (reference) 5B091 CA22 CB12 CB24 CB32 DA01 DA11 5D015 AA05 KK02 KK04 LL05 LL11 5D045 AB03
Claims (24)
入力手段と、 前記入力された音声を音声認識するための音声認識手段
と、 前記音声の認識結果に対応する、前記第1の言語の一つ
又は複数の単語列を抽出し、表示する第1の抽出・表示
手段と、 前記表示された単語列から、第2の言語への変換対象と
なる予定の何れかの単語列を選定するための変換対象選
定手段と、 前記選定された単語列の全部又は一部が特定された際、
その特定された内容に対応する用語の候補を抽出し、表
示する第2の抽出・表示手段と、 前記表示された前記候補から何れかの候補を選定するた
めの候補選定手段と、 前記選定された単語列と、前記選定された候補とに基づ
いて、前記第2の言語への変換対象を決定し、その決定
された変換対象を前記第2の言語の音声言語に変換する
変換手段と、を備えた音声変換装置。1. A voice input unit for inputting a voice of a first language, a voice recognition unit for voice recognition of the input voice, and a first voice recognition unit corresponding to a recognition result of the voice. First extraction / display means for extracting and displaying one or a plurality of word strings of a language, and any word string which is to be converted from the displayed word string into a second language. Conversion target selection means for selecting, and when all or part of the selected word string is specified,
Second extraction / display means for extracting and displaying a term candidate corresponding to the specified content; candidate selecting means for selecting one of the displayed candidates; and A conversion means for determining a conversion target to the second language based on the selected word string and the selected candidate, and converting the determined conversion target to a spoken language of the second language. Voice conversion device equipped with.
の対象となる複数の単語列と、前記選定された単語列と
を、それぞれ予め定められた領域に表示するための表示
画面を備えた表示部を有しており、 前記第2の抽出・表示手段は、前記用語の候補を、前記
表示画面の一部の領域にウインドウ状に重ねて表示する
手段である請求項1記載の音声変換装置。2. The first extraction / display means has a display screen for displaying a plurality of word strings to be selected and the selected word strings in predetermined areas. 2. The display unit according to claim 1, further comprising: a display unit provided, wherein the second extraction / display unit is a unit that displays the term candidates by overlapping them in a window shape in a partial area of the display screen. Voice converter.
された単語列を前記表示画面上に表示する際、前記単語
列の一部に対して、前記対応する用語の候補の表示が可
能である旨の情報をも付加して表示する手段である請求
項2記載の音声変換装置。3. The first extracting / displaying unit, when displaying the selected word string on the display screen, displays a candidate of the corresponding term for a part of the word string. 3. The voice conversion device according to claim 2, which is a means for adding and displaying information indicating that it is possible.
記単語列の一部を、前記表示画面上で特定するための画
面表示特定手段を備えた請求項3記載の音声変換装置。4. The voice conversion device according to claim 3, further comprising screen display specifying means for specifying, on the display screen, a part of the word string in which the added information is displayed.
特定された前記一部を、前記選定された候補の用語に置
き換えた結果を、前記変換対象として決定する請求項1
記載の音声変換装置。5. The conversion means determines a result of replacing the specified part of the word string with the selected candidate term as the conversion target.
The voice conversion device described.
テップと、 前記入力された音声を音声認識するための音声認識ステ
ップと、 前記音声の認識結果に対応する、前記第1の言語の一つ
又は複数の単語列を抽出し、表示する第1の抽出・表示
ステップと、 前記表示された単語列から、第2の言語への変換対象と
なる予定の何れかの単語列を選定するための変換対象選
定ステップと、 前記選定された単語列の全部又は一部が特定された際、
その特定された内容に対応する用語の候補を抽出し、表
示する第2の抽出・表示ステップと、 前記表示された前記候補から何れかの候補を選定するた
めの候補選定ステップと、 前記選定された単語列と、前記選定された候補とに基づ
いて、前記第2の言語への変換対象を決定し、その決定
された変換対象を前記第2の言語の音声言語に変換する
変換ステップと、を備えた音声変換方法。6. A voice input step of inputting a voice of a first language, a voice recognition step of voice-recognizing the input voice, and a voice recognition step of the first language corresponding to a recognition result of the voice. A first extraction / display step of extracting and displaying one or a plurality of word strings, and selecting one of the word strings that is to be converted into the second language from the displayed word strings. A conversion target selection step for, when all or part of the selected word string is specified,
A second extraction / display step of extracting and displaying a candidate for a term corresponding to the specified content; a candidate selecting step for selecting any candidate from the displayed candidates; A conversion step of determining a conversion target to the second language based on the selected word string and the selected candidate, and converting the determined conversion target to a spoken language of the second language. Voice conversion method with.
変換装置の、前記音声認識手段と、前記第1の表示・抽
出手段と、前記変換対象選定手段と、前記第2の表示・
抽出手段と、前記候補選定手段と、前記変換手段との全
部又は一部としてコンピュータを機能させるためのプロ
グラム。7. The speech recognition apparatus according to claim 1, wherein the speech recognition unit, the first display / extraction unit, the conversion target selection unit, and the second unit. display·
A program for causing a computer to function as all or a part of the extraction means, the candidate selection means, and the conversion means.
声認識ステップと、前記第1の表示・抽出ステップと、
前記変換対象選定ステップと、前記第2の表示・抽出ス
テップと、前記候補選定ステップと、前記変換ステップ
との全部又は一部をコンピュータに実行させるためのプ
ログラム。8. A voice conversion method according to claim 6, wherein the voice recognition step, the first display / extraction step,
A program for causing a computer to execute all or part of the conversion target selection step, the second display / extraction step, the candidate selection step, and the conversion step.
体であって、コンピュータにより処理可能な媒体。9. A medium carrying the program according to claim 7, which can be processed by a computer.
媒体であって、コンピュータにより処理可能な媒体。10. A medium carrying the program according to claim 8, which can be processed by a computer.
ための入力部と、 (1)前記入力部から前記第1の言語の音声を受け取っ
た場合、それを音声認識し、且つ、所定の制御指示に基
づいて、(1-a)前記音声認識された前記第1の言語の表
記データを出力する、又は(1-b)前記音声認識された認
識結果に基づいて決定される変換対象を前記第2の言語
に変換し、その変換後の言語の少なくとも表記データを
出力し、(2)前記入力部から前記第2の言語の音声を
受け取った場合、それを音声認識し、且つ、所定の制御
指示に基づいて、(2-a)前記音声認識された前記第2の
言語の表記データを出力する、又は(2-b)前記音声認識
された認識結果に基づいて決定される変換対象を前記第
1の言語に変換し、その変換後の言語の少なくとも表記
データを出力する翻訳部と、 前記翻訳部の前記変換対象の決定を支援するための支援
部と、 前記翻訳部から出力される前記変換後の言語の前記表記
データを、前記所定の制御指示に基づいて表示するため
の表示部と、 前記所定の制御指示を、少なくとも前記翻訳部及び前記
表示部に対して行う制御部と、を備えた音声変換装置。11. An input unit for inputting a voice of a first or a second language, and (1) when the voice of the first language is received from the input unit, the voice is recognized, and Based on a predetermined control instruction, (1-a) output the voice-recognized notation data of the first language, or (1-b) conversion determined based on the voice-recognized recognition result. The target is converted into the second language, at least the written data in the converted language is output, and (2) when the voice of the second language is received from the input unit, the voice is recognized, and , (2-a) outputting the voice-recognized notation data of the second language based on a predetermined control instruction, or (2-b) determining based on the voice-recognized recognition result. The conversion target is converted into the first language, and at least notation data in the converted language A translation unit to output, a support unit for assisting the translation unit in determining the conversion target, the notation data in the translated language output from the translation unit, based on the predetermined control instruction. A voice conversion device comprising: a display unit for displaying; and a control unit for performing the predetermined control instruction to at least the translation unit and the display unit.
前記第2の言語を使用する他の利用者との対話の際に前
記入力部により入力された音声に基づいた前記表記デー
タを逐次保持して、履歴情報として前記表示部に出力す
るための対話履歴管理部を備えた請求項11に記載の音
声変換装置。12. A user who uses the first language,
Dialogue for sequentially holding the notation data based on the voice input by the input unit at the time of dialogue with another user who uses the second language, and outputting it as history information to the display unit. The voice conversion device according to claim 11, further comprising a history management unit.
前記第2の言語から第1の言語への何れの翻訳が前記音
声翻訳部により行われるべきかの翻訳方向を決定するた
めの情報を検出する言語変換方向検出部を備え、 前記制御部は、前記検出結果に基づいて、前記音声翻訳
部に対して前記翻訳方向を指定し、かつ、前記入力部を
制御する請求項11に記載の音声変換装置。13. A translation direction for determining which translation from the first language to the second language or from the second language to the first language should be performed by the speech translation unit. The language conversion direction detection part which detects information is provided, The said control part designates the said translation direction with respect to the said speech translation part based on the said detection result, and controls the said input part. The voice conversion device described.
とは、前記入力部が複数の音声入力部によって構成され
る場合に、発声する利用者の音声を最も良く集音する前
記音声入力部を選択することである請求項13記載の音
声変換装置。14. The control of the input unit of the control unit means, when the input unit is composed of a plurality of voice input units, the voice input unit that most collects the voice of the user who speaks. The voice conversion device according to claim 13, wherein the voice conversion device is selected.
て、前記表示部の表示内容を、その表示部の表示画面を
基準として実質上180度回転するように制御する請求
項13記載の音声変換装置。15. The voice according to claim 13, wherein the control unit controls the display content of the display unit to rotate substantially 180 degrees based on the display screen of the display unit according to the translation direction. Converter.
イッチで構成されており、発声する利用者が前記ボタン
スイッチを押して翻訳方向を選択する構成である請求項
13記載の音声変換装置。16. The voice conversion device according to claim 13, wherein the language conversion direction detection unit is configured by a button switch, and a user who speaks presses the button switch to select a translation direction.
マイクの音響的指向性の最も良い方向を検出する角度セ
ンサーで構成されており、発声する利用者がマイクの方
向を変えて前記翻訳方向を選択する請求項13記載の音
声入力翻訳装置。17. The language conversion direction detection unit is composed of an angle sensor for detecting the direction of the movable microphone having the best acoustic directivity, and the user speaking changes the direction of the microphone to perform the translation. 14. The voice input translation device according to claim 13, wherein a direction is selected.
変換装置の内部に設置されたジャイロセンサーで構成さ
れており、発声する利用者が前記音声変換装置を手に持
つ位置で前記翻訳方向を選択する請求項13記載の音声
変換装置。18. The language conversion direction detection unit is composed of a gyro sensor installed inside the voice conversion device, and the translation direction is set at a position where a uttering user holds the voice conversion device in his hand. The voice conversion device according to claim 13, which is selected.
レーユニットで構成される入力部の、音源方向検出装置
によって構成されており、発声する利用者の前記マイク
アレーユニットに対する発声位置で翻訳方向を選択する
請求項13記載の音声変換装置。19. The language conversion direction detection unit is configured by a sound source direction detection device of an input unit configured by a microphone array unit, and the translation direction is determined by a utterance position of a user who speaks with respect to the microphone array unit. The voice conversion device according to claim 13, which is selected.
出力する音声入力ステップと、 (1)前記音声入力ステップにより出力された前記第1
の言語の音声を受け取った場合、それを音声認識し、且
つ、所定の制御指示に基づいて、(1−a)前記音声認
識された前記第1の言語の表記データを出力する、又は
(1−b)前記音声認識された認識結果に基づいて決定
される変換対象を前記第2の言語に変換し、その変換後
の言語の少なくとも表記データを出力し、(2)前記音
声入力ステップにより出力された前記第2の言語の音声
を受け取った場合、それを音声認識し、且つ、所定の制
御指示に基づいて、(2−a)前記音声認識された前記
第2の言語の表記データを出力する、又は(2−b)前
記音声認識された認識結果に基づいて決定される変換対
象を前記第1の言語に変換し、その変換後の言語の少な
くとも表記データを出力する翻訳ステップと、 前記翻訳ステップでの前記変換対象の決定を支援するた
めの支援ステップと、 前記翻訳ステップにより出力される前記変換後の言語の
前記表記データを、前記所定の制御指示に基づいて表示
するための表示ステップと、 前記所定の制御指示を、少なくとも前記翻訳ステップ及
び前記表示ステップに対して行う制御ステップと、を備
えた音声変換方法。20. Input voice of the first or second language,
A voice input step for outputting; (1) the first voice output by the voice input step;
When the voice of the language is received, the voice is recognized, and based on a predetermined control instruction, (1-a) the voice-recognized notation data of the first language is output, or (1 -B) converting a conversion target determined based on the recognition result obtained by the voice recognition into the second language, outputting at least notation data of the converted language, and (2) outputting the voice by the voice input step. When the received voice of the second language is received, it is voice-recognized, and (2-a) the notation data of the voice-recognized second language is output based on a predetermined control instruction. Or (2-b) a translation step of converting the conversion target determined based on the recognition result of the voice recognition into the first language and outputting at least notation data in the converted language, The above in the translation step A support step for supporting the determination of the conversion target, a display step for displaying the notation data in the converted language output by the translation step based on the predetermined control instruction, the predetermined A voice conversion method comprising: a control step of giving a control instruction to at least the translation step and the display step.
の音声変換装置の、前記翻訳部と、前記支援部と、前記
表示部と、前記対話履歴管理部との全部又は一部として
コンピュータを機能させるためのプログラム。21. As the whole or a part of the translation unit, the support unit, the display unit, and the dialogue history management unit of the voice conversion device according to any one of claims 11 to 19. A program for operating a computer.
記翻訳ステップと、前記支援ステップと、前記表示ステ
ップと、前記対話履歴管ステップとの全部又は一部をコ
ンピュータに実行させるためのプログラム。22. A program for causing a computer to execute all or part of the translation step, the support step, the display step, and the dialogue history management step of the voice conversion method according to claim 20.
した媒体であって、コンピュータにより処理可能な媒
体。23. A medium carrying the program according to claim 21, which can be processed by a computer.
した媒体であって、コンピュータにより処理可能な媒
体。24. A medium carrying the program according to claim 22, which can be processed by a computer.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002014834A JP3974412B2 (en) | 2001-01-24 | 2002-01-23 | Audio converter |
Applications Claiming Priority (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001-15383 | 2001-01-24 | ||
| JP2001015383 | 2001-01-24 | ||
| JP2002012931 | 2002-01-22 | ||
| JP2002-12931 | 2002-01-22 | ||
| JP2002014834A JP3974412B2 (en) | 2001-01-24 | 2002-01-23 | Audio converter |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004329646A Division JP3926365B2 (en) | 2001-01-24 | 2004-11-12 | Audio converter |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2003288339A true JP2003288339A (en) | 2003-10-10 |
| JP2003288339A5 JP2003288339A5 (en) | 2005-07-14 |
| JP3974412B2 JP3974412B2 (en) | 2007-09-12 |
Family
ID=29255015
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2002014834A Expired - Lifetime JP3974412B2 (en) | 2001-01-24 | 2002-01-23 | Audio converter |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3974412B2 (en) |
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2005101235A1 (en) * | 2004-04-12 | 2005-10-27 | Matsushita Electric Industrial Co., Ltd. | Dialogue support device |
| WO2006001204A1 (en) * | 2004-06-23 | 2006-01-05 | Matsushita Electric Industrial Co., Ltd. | Automatic translation device and automatic translation method |
| JP2006059017A (en) * | 2004-08-18 | 2006-03-02 | Matsushita Electric Ind Co Ltd | Translation device |
| WO2006040969A1 (en) * | 2004-10-08 | 2006-04-20 | Matsushita Electric Industrial Co., Ltd. | Dialog support device |
| WO2006040971A1 (en) * | 2004-10-08 | 2006-04-20 | Matsushita Electric Industrial Co., Ltd. | Dialog support device |
| WO2007004391A1 (en) * | 2005-07-06 | 2007-01-11 | Matsushita Electric Industrial Co., Ltd. | Conversation support apparatus |
| US7512538B2 (en) | 2005-07-13 | 2009-03-31 | Panasonic Corporation | Dialog supporting device |
| KR101269883B1 (en) | 2010-12-20 | 2013-06-07 | 하인크코리아(주) | Method for learning word and apparatus thereof |
| US9524295B2 (en) | 2006-10-26 | 2016-12-20 | Facebook, Inc. | Simultaneous translation of open domain lectures and speeches |
| US9753918B2 (en) | 2008-04-15 | 2017-09-05 | Facebook, Inc. | Lexicon development via shared translation database |
| JP2018081239A (en) * | 2016-11-17 | 2018-05-24 | 富士通株式会社 | Voice processing method, voice processing device, and voice processing program |
| JP2020160429A (en) * | 2019-03-25 | 2020-10-01 | パナソニック株式会社 | Voice translator, voice translation method and its program |
| US11222185B2 (en) | 2006-10-26 | 2022-01-11 | Meta Platforms, Inc. | Lexicon development via shared translation database |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106409285A (en) * | 2016-11-16 | 2017-02-15 | 杭州联络互动信息科技股份有限公司 | Method and apparatus for intelligent terminal device to identify language type according to voice data |
-
2002
- 2002-01-23 JP JP2002014834A patent/JP3974412B2/en not_active Expired - Lifetime
Cited By (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN1942875B (en) * | 2004-04-12 | 2010-05-26 | 松下电器产业株式会社 | dialog support device |
| WO2005101235A1 (en) * | 2004-04-12 | 2005-10-27 | Matsushita Electric Industrial Co., Ltd. | Dialogue support device |
| US7650283B2 (en) | 2004-04-12 | 2010-01-19 | Panasonic Corporation | Dialogue supporting apparatus |
| WO2006001204A1 (en) * | 2004-06-23 | 2006-01-05 | Matsushita Electric Industrial Co., Ltd. | Automatic translation device and automatic translation method |
| JP2006059017A (en) * | 2004-08-18 | 2006-03-02 | Matsushita Electric Ind Co Ltd | Translation device |
| WO2006040969A1 (en) * | 2004-10-08 | 2006-04-20 | Matsushita Electric Industrial Co., Ltd. | Dialog support device |
| WO2006040971A1 (en) * | 2004-10-08 | 2006-04-20 | Matsushita Electric Industrial Co., Ltd. | Dialog support device |
| US7346515B2 (en) | 2004-10-08 | 2008-03-18 | Matsushita Electric Industrial Co., Ltd. | Dialog supporting apparatus |
| US7835914B2 (en) | 2004-10-08 | 2010-11-16 | Panasonic Corporation | Dialog supporting apparatus |
| US7752051B2 (en) | 2004-10-08 | 2010-07-06 | Panasonic Corporation | Dialog supporting apparatus that selects similar dialog histories for utterance prediction |
| WO2007004391A1 (en) * | 2005-07-06 | 2007-01-11 | Matsushita Electric Industrial Co., Ltd. | Conversation support apparatus |
| US7562006B2 (en) | 2005-07-06 | 2009-07-14 | Panasonic Corporation | Dialog supporting device |
| US7512538B2 (en) | 2005-07-13 | 2009-03-31 | Panasonic Corporation | Dialog supporting device |
| US9524295B2 (en) | 2006-10-26 | 2016-12-20 | Facebook, Inc. | Simultaneous translation of open domain lectures and speeches |
| US9830318B2 (en) | 2006-10-26 | 2017-11-28 | Facebook, Inc. | Simultaneous translation of open domain lectures and speeches |
| US11222185B2 (en) | 2006-10-26 | 2022-01-11 | Meta Platforms, Inc. | Lexicon development via shared translation database |
| US11972227B2 (en) | 2006-10-26 | 2024-04-30 | Meta Platforms, Inc. | Lexicon development via shared translation database |
| US9753918B2 (en) | 2008-04-15 | 2017-09-05 | Facebook, Inc. | Lexicon development via shared translation database |
| KR101269883B1 (en) | 2010-12-20 | 2013-06-07 | 하인크코리아(주) | Method for learning word and apparatus thereof |
| JP2018081239A (en) * | 2016-11-17 | 2018-05-24 | 富士通株式会社 | Voice processing method, voice processing device, and voice processing program |
| JP2020160429A (en) * | 2019-03-25 | 2020-10-01 | パナソニック株式会社 | Voice translator, voice translation method and its program |
| JP7429107B2 (en) | 2019-03-25 | 2024-02-07 | パナソニックホールディングス株式会社 | Speech translation device, speech translation method and its program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP3974412B2 (en) | 2007-09-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN1369834B (en) | voice conversion device | |
| CN104380375B (en) | Devices for extracting information from conversations | |
| US9411801B2 (en) | General dictionary for all languages | |
| US9053098B2 (en) | Insertion of translation in displayed text consisting of grammatical variations pertaining to gender, number and tense | |
| US9640181B2 (en) | Text editing with gesture control and natural speech | |
| JP3974412B2 (en) | Audio converter | |
| CN1100300C (en) | character input device | |
| US20140081619A1 (en) | Photography Recognition Translation | |
| JP2010049699A (en) | Integrated keypad system | |
| JP2009205579A (en) | Speech translation device and program | |
| US6952676B2 (en) | Voice recognition peripheral device | |
| JP6150268B2 (en) | Word registration apparatus and computer program therefor | |
| JP2002116796A (en) | Voice processor and method for voice processing and storage medium | |
| JP2000200275A (en) | Translator, recording medium | |
| KR20080045142A (en) | Method and computer readable medium for entering text into a computing system via a navigation interface | |
| JPWO2005101235A1 (en) | Dialogue support device | |
| CN102414994A (en) | Input processing method of mobile terminal and device for performing same | |
| JP3926365B2 (en) | Audio converter | |
| KR20140146785A (en) | Electronic device and method for converting between audio and text | |
| CN1875400B (en) | Information processing device and information processing method | |
| US20050268231A1 (en) | Method and device for inputting Chinese phrases | |
| JP7109498B2 (en) | voice input device | |
| CN106873798A (en) | For the method and apparatus of output information | |
| JP2004118720A (en) | Translation apparatus, translation method, and translation program | |
| JP2011034441A (en) | Notation conversion device, method of the same and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041006 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041112 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061205 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070202 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070220 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070316 |
|
| A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20070510 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070522 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070614 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 3974412 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100622 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100622 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110622 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120622 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120622 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130622 Year of fee payment: 6 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| EXPY | Cancellation because of completion of term |