[go: up one dir, main page]

JPH08129476A - Voice data input device - Google Patents

Voice data input device

Info

Publication number
JPH08129476A
JPH08129476A JP6267766A JP26776694A JPH08129476A JP H08129476 A JPH08129476 A JP H08129476A JP 6267766 A JP6267766 A JP 6267766A JP 26776694 A JP26776694 A JP 26776694A JP H08129476 A JPH08129476 A JP H08129476A
Authority
JP
Japan
Prior art keywords
voice
data
input
item
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6267766A
Other languages
Japanese (ja)
Inventor
Masaaki Hanaoka
正明 花岡
Masahiro Yamagishi
正浩 山岸
Masaki Fukazawa
正樹 深沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KITSUSEI COMTEC KK
Original Assignee
KITSUSEI COMTEC KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KITSUSEI COMTEC KK filed Critical KITSUSEI COMTEC KK
Priority to JP6267766A priority Critical patent/JPH08129476A/en
Publication of JPH08129476A publication Critical patent/JPH08129476A/en
Pending legal-status Critical Current

Links

Landscapes

  • Automatic Analysis And Handling Materials Therefor (AREA)

Abstract

PURPOSE: To perform data input by only voice by a person who performs the data input without watching a screen by performing a voice output of data classified by items and commands for which voice confirmations are performed by a voice synthesis, inputting the item data inputted by voice input in the item, displaying the data and processing the data in accordance with the command inputted by voice. CONSTITUTION: An uttered voice is inputted with a microphone 2, a voice recognition is performed for the voice in a voice recognition synthesizing device 3, and the recognized word resulted is delivered to an operating system by a code system. With this delivery, a voice synthesis is performed for the recognized word, the data classified by items and a command and the synthesized one is delivered to a worker by voice from a headphone 1. If the delivered word is the coment data classified by items, the data is inputted in the system and the data is displayed on the item of the screen on a display device 7. If the delivered word is the command, a processing is performed in accordance with the command. As a result, when a data input is performed, the data input can be performed by only voice without watching the screen.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、音声データ入力装置に
関するものである。特に、音声のみによるデータ入力に
際し有効な音声データ入力装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice data input device. In particular, the present invention relates to a voice data input device which is effective when inputting data only by voice.

【0002】[0002]

【従来の技術】従来のデータ処理において、データの入
力は、表示装置の画面上に、入力が必要な項目を表示
し、その表示された各項目に対してキーボードからデー
タを入力する等の会話形式で行われることが多かった。
この場合、データ入力を行う者は、データ入力中、キー
ボードから手を離すことができず、また、画面から目を
離すことができない。このため、作業を行いながらデー
タの入力を行う場合、作業を一時的に中断して入力する
か、またはデータを入力するための人間を別に用意し
て、その人にデータ入力をしてもらう必要があった。
2. Description of the Related Art In conventional data processing, data input is a conversation such as displaying items that need to be input on the screen of a display device and inputting data from the keyboard for each of the displayed items. It was often done in a format.
In this case, the person who inputs the data cannot release the hand from the keyboard or the eyes from the screen during the data input. For this reason, when performing data input while performing work, it is necessary to temporarily interrupt work and enter data, or prepare a person to enter data separately and have that person enter the data. was there.

【0003】また、音声認識技術が発達してきたので、
データ入力を音声で入力することが考えられる。しか
し、データ入力においては、画面で入力する項目等を確
かめながら入力することを前提としていることが多いの
で、音声入力に完全に置き換えることが難しかった。
Since voice recognition technology has been developed,
It is conceivable to input data by voice. However, in data input, it is often premised that the user inputs items while confirming the items to be input on the screen, and it has been difficult to completely replace with voice input.

【0004】[0004]

【発明が解決しようとする課題】本発明は、データ入力
する際に、データ入力を行う者が画面を見ずに、音声の
みでデータ入力することができる音声データ入力装置を
提供することである。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a voice data input device which allows a person who inputs data to input data only by voice without looking at the screen when inputting data. .

【0005】[0005]

【課題を解決するための手段】上記目的のため、本発明
は、項目別データを音声で入力する音声データ入力装置
において、音声を入力する音声入力手段および音声を出
力する音声出力手段と、入力された項目データを表示す
る表示手段と、音声入力された項目別データおよびコマ
ンドを音声認識する手段と、音声認識された項目別デー
タおよびコマンドを音声合成で音声出力する手段と、音
声入力された項目データをその項目に入力・表示する手
段と、音声入力されたコマンドに従った処理を行う手段
とを有することを特徴とする音声データ入力装置であ
る。
To achieve the above object, the present invention provides a voice data input device for inputting voice by itemized data, a voice input device for inputting voice, a voice output device for outputting voice, and an input. Means for displaying the itemized data that has been input, a means for recognizing the voice-inputted itemized data and commands by voice, a means for outputting the voiced itemized data and commands by voice synthesis, and a voice input A voice data input device comprising: means for inputting / displaying item data in the item; and means for performing processing in accordance with a voice input command.

【0006】[0006]

【作用】本発明においては、データ入力に関することを
全て音声で入力でき、また、入力の確認も音声で応答さ
れるので、データ入力するとき、他の作業を中断するこ
となく行うことができる。
In the present invention, all data input can be input by voice, and the confirmation of the input is also answered by voice. Therefore, when inputting data, other work can be performed without interruption.

【0007】[0007]

【実施例】以下、図面を用いて、本発明の実施例を説明
する。
Embodiments of the present invention will be described below with reference to the drawings.

【0008】本発明を病理検査支援システムに適用した
もので説明する。しかし、本発明を病理検査支援システ
ムに限るものではなく、データ入力する際に使用するこ
とができるものである。
The present invention will be described by applying it to a pathological examination support system. However, the present invention is not limited to the pathological examination support system and can be used when data is input.

【0009】さて、病理検査では、その報告書作成、デ
ータベース構築、データの分析等のために、コンピュー
タを用いた病理検査支援システムが望まれていた。しか
し、そのデータの入力をどのように行うのかが問題であ
った。病理検査の作業は、顕微鏡を見ながら行う必要が
ある。したがって、顕微鏡を見ながら得られる所見のデ
ータ入力が容易にできれば、データの発生と同時にデー
タが入力されているので、報告書の作成やデータベース
の構築も容易になる。
In the pathological examination, a pathological examination support system using a computer has been desired in order to prepare a report, construct a database, analyze data, and the like. However, the problem was how to input the data. It is necessary to perform the work of pathological examination while looking at the microscope. Therefore, if it is possible to easily input the data of the findings obtained while observing the microscope, the data is input at the same time as the data is generated, so that it is easy to create the report and the database.

【0010】しかし、顕微鏡の作業を行うと同時に、顕
微鏡から目を離すことなく、データ入力することは今ま
でのシステムではできなかった。本発明は、顕微鏡を見
ながらデータ入力が全て音声で行えるので、作業の効率
化を図ることができる。
However, it was not possible with conventional systems to input data without taking an eye off the microscope while working on the microscope. According to the present invention, since all data can be inputted by voice while looking at the microscope, the work efficiency can be improved.

【0011】図1に本システムのシステム構成が示され
ている。図1において、1はヘッドフォン(イヤフォン
等)、2はマイクロフォンで、これで音声を入力した
り、システムからの音声応答を聞くことができる。3
は、本発明のデータ入力に用いる音声認識合成装置で、
ヘッドフォン1やマイクロフォン2に接続されて、音声
を認識してコードとして入力したり、音声応答するため
の音声合成を行う。4はCPU,5はメモリ、6は表示
装置インターフェース、7は表示装置、8はキーボー
ド、マウスのインターフェース、9はキーボード、10
がマウス、11はディスク装置等の外部記憶装置で、こ
れらでコンピュータ・システムを構成している。なお、
このコンピュータシステムには、図示していないプリン
タ等も接続されている。
FIG. 1 shows the system configuration of this system. In FIG. 1, reference numeral 1 is a headphone (earphone or the like), and 2 is a microphone with which a voice can be input and a voice response from the system can be heard. Three
Is a speech recognition synthesizer used for data input of the present invention,
It is connected to the headphone 1 and the microphone 2 to recognize a voice and input it as a code, or perform voice synthesis for a voice response. 4 is a CPU, 5 is a memory, 6 is a display device interface, 7 is a display device, 8 is a keyboard / mouse interface, 9 is a keyboard, 10
Is a mouse, and 11 is an external storage device such as a disk device, which constitutes a computer system. In addition,
A printer and the like (not shown) are also connected to this computer system.

【0012】上記のコンピュータシステムで、音声によ
る病理検査支援システムへのデータ入力について、図2
を用いて説明する。
Regarding the data input to the pathological examination support system by voice in the above computer system, FIG.
Will be explained.

【0013】まず、作業者が、顕微鏡を見ながら病理所
見やコマンドを発声する(S21)。この発声された音
声は、マイクロフォン2により音声入力されて、音声認
識合成装置3で音声認識され(S23)、その結果の認
識単語(病理所見データやコマンド)がコードの形式で
OS(オペレーティング・システム)に伝えられる(S
25)。これと共に、認識された単語は、確認のため、
音声合成してヘッドフォン1から音声で作業者に伝えら
れる(S26)。OSからアプリケーション・プログラ
ムである病理検査支援システムに認識された単語(病理
所見データやコマンド)が伝えられる(S27)。病理
検査支援システムでは、送られて来た単語が、病理所見
データであれば、そのデータをシステムに入力して、表
示装置7上の画面のその項目に表示する(S28)。送
られて来た単語がコマンドであれば、そのコマンドに従
った処理を行う(S29)。
First, the operator utters a pathological finding or command while looking at the microscope (S21). The uttered voice is input by the microphone 2 and recognized by the voice recognition / synthesis device 3 (S23), and the resulting recognition word (pathological finding data or command) is in the form of an OS (operating system). ) (S
25). Along with this, the recognized words are
The voice is synthesized and transmitted to the operator by voice from the headphones 1 (S26). The recognized words (pathological finding data and commands) are transmitted from the OS to the pathological examination support system, which is an application program (S27). In the pathological examination support system, if the sent word is pathological finding data, the data is input to the system and displayed in the item on the screen of the display device 7 (S28). If the sent word is a command, processing according to the command is performed (S29).

【0014】なお、この病理検査支援システムに対し
て、キーボードやマウス等による通常のデータ入力(病
理所見データやコマンド)も当然可能である(S3
0)。
It should be noted that normal data input (pathological finding data and commands) can be naturally performed on the pathological examination support system using a keyboard, a mouse or the like (S3).
0).

【0015】さて、音声認識合成装置3の動作を図3に
示すフローチャートで詳しく説明する。マイクロフォン
2から音声が入力されると、A/D変換して音声波形を
デジタル化する(S31)。このデジタル化した音声波
形と、音声認識合成装置3に記憶している音声パターン
とを比較する(S32)。この比較にはHMM(Hidden
Markov Model )等の方法が用いられる。一致する音声
パターンが存在する(S33)と、一致した音声パター
ンに対応する単語を出力する(S34)。出力された単
語は、入力順序や数字等の属性に関する簡単な文法チェ
ックを行い(S35)、チェックをパスした単語を認識
単語とする。そして、認識した単語に対応する音声を合
成して、確認のためにヘッドフォン1にエコーバックす
る(S36)。認識した単語に対応するコードをシステ
ム側に出力する(S37)。
Now, the operation of the speech recognition / synthesis device 3 will be described in detail with reference to the flowchart shown in FIG. When a voice is input from the microphone 2, the voice waveform is digitized by A / D conversion (S31). The digitized voice waveform is compared with the voice pattern stored in the voice recognition / synthesis device 3 (S32). For this comparison, HMM (Hidden
Markov Model) method is used. When the matched voice pattern exists (S33), the word corresponding to the matched voice pattern is output (S34). The output word is subjected to a simple grammatical check regarding attributes such as input order and numbers (S35), and the word that has passed the check is set as a recognition word. Then, the voice corresponding to the recognized word is synthesized and echoed back to the headphone 1 for confirmation (S36). The code corresponding to the recognized word is output to the system side (S37).

【0016】この病理検査支援システムで用いられるコ
マンドや病理所見データについて説明する。
The commands and pathological finding data used in this pathological examination support system will be described.

【0017】図4に、顕微鏡を見ながら所見を入力する
ために、表示装置7上に表示されている入力画面を示
す。40は、このデータ入力の対象を記した表題であ
る。41は、システムに登録されているデータを表示す
るための欄である。42は、これから登録すべきデータ
を入力する欄である。43〜46は、入力すべき各デー
タ項目(フィールド)を示している。このシステムで
は、「所見(finding )」43,「Grd(grade )」
44,「部位(sight )」45,「修飾語(qualifier
)」46等の項目がある。47は、アイコンで、これ
をマウスでポイントすることにより、そこに記載されて
いるコマンドが実行される。なお、そこに記載されてい
るキーボード上のキーを押下しても、そのコマンドが実
行される。また、48は行の下に表示されるカーソル
で、データ入力中の行を示している。また、入力対象項
目は、反転表示やカーソルの点滅表示で区別されてい
る。
FIG. 4 shows an input screen displayed on the display device 7 for inputting a finding while looking at the microscope. 40 is a title describing the object of this data input. Reference numeral 41 is a column for displaying data registered in the system. 42 is a field for inputting data to be registered. 43-46 have shown each data item (field) which should be input. In this system, "finding" 43, "Grd (grade)"
44, “site” 45, “qualifier”
) ”46 and the like. Reference numeral 47 denotes an icon, and by pointing this with the mouse, the command described therein is executed. In addition, even if the key on the keyboard described there is pressed, the command is executed. Reference numeral 48 is a cursor displayed below the line, which indicates the line in which data is being input. Further, the input target items are distinguished by reverse display or blinking display of the cursor.

【0018】この表示画面上の各項目に、音声でデータ
入力する場合を説明する。イヌの肝臓(liver )を顕微
鏡で観察しながら、所見を入力する。現在カーソルがあ
る入力中の行の所見の項目にまず入力する。音声で「De
generation,fatty(脂肪変成)」と発声すると、これが
音声認識されて、この所見の項目にこの単語が表示され
る。認識された単語は、ヘッドフォンに音声合成された
単語が応答されるので、何が音声認識されたか確認でき
る。この場合のように、2語の単語を1項目に入力する
こともできる。次にその所見の程度(Grd)を数字で
入力する。例えば「severe」と発声すると、この「seve
re」が「3」に変換されて対応する項目に表示される。
A case where data is input by voice to each item on the display screen will be described. Input observations while observing the dog's liver with a microscope. First, type in the finding item of the current line where the cursor is. In voice
generation, fatty "is recognized and this word is displayed in the item of this finding. As for the recognized word, the speech-synthesized word is responded to the headphone, so that it is possible to confirm what was recognized as the speech. As in this case, two words can be input in one item. Next, the degree (Grd) of the finding is input as a number. For example, if you say "severe",
“Re” is converted to “3” and displayed in the corresponding item.

【0019】誤って入力した場合は、コマンドの「clea
r 」を入力すると、その項目に入力された単語が消去さ
れる。また入力対象となる項目を移動する場合は、移動
先の項目を発声する(入力対象の項目を発声する)とこ
れがコマンドとなり、その項目に移動する。例えば「gr
ade ]と発声すると、入力対象が「Grd」の項目に移
る。
If you make a mistake, enter the command "clea
Entering "r" erases the word entered in that item. In addition, when moving an item to be input, when the user moves to the item to be moved (speaks the item to be input), this becomes a command and moves to that item. For example, "gr
ade], the input target moves to the item "Grd".

【0020】次の所見を入力する場合は、コマンドの
「finding add 」を発声すると、次の行の入力に移る。
When inputting the next finding, when the command "finding add" is uttered, the process moves to the input of the next line.

【0021】また、入力が終了すると、入力された複数
の行を登録する場合(図4の41の欄に移す場合)は、
「entry 」と発声する。すると今まで入力欄42にあっ
た行が、登録の欄41に移る。
When the input is completed and a plurality of input lines are to be registered (moved to the column 41 in FIG. 4),
Say "entry". Then, the line that has been in the input field 42 until now is moved to the registration field 41.

【0022】ここで、顕微鏡の観察を長く行って、どの
項目が入力対象になっているのか分からなくなることが
ある。この場合は、「where field 」と発声すると、例
えば「grade 」とヘッドフォンに応答があり、入力対象
の項目がわかる。この「where field 」のコマンドの処
理を図5に示す。
Here, it may happen that the user observes the microscope for a long time and cannot know which item is the input target. In this case, when uttering "where field", for example, "grade" is returned to the headphones, and the item to be input is known. The processing of this "where field" command is shown in FIG.

【0023】「where field 」と発声すると、音声認識
合成回路3で音声認識され、その単語が病理検査支援シ
ステムに送られる。病理検査支援システムでは、送られ
た単語がコマンドであるので、そのコマンドの処理を行
う。図5は、ここからの処理が示されている。「where
field 」の処理は、システム内の入力対象項目の位置を
記憶している所から、入力対象項目位置を読み出す(S
51)。この位置を項目名(例えば「grade 」)に変更
して(S52)、音声認識合成装置3に送る(S5
3)。音声認識合成装置3で、項目名を音声合成してヘ
ッドフォン1におくる。作業者は、音声で「grade 」と
聞こえるので、入力対象項目が分かる。
When uttering "where field", the voice recognition and synthesis circuit 3 recognizes the voice and sends the word to the pathological examination support system. Since the sent word is a command in the pathological examination support system, the command is processed. FIG. 5 shows the processing from here. "Where
In the processing of "field", the position of the input target item is read from the position where the position of the input target item is stored in the system (S
51). This position is changed to the item name (for example, "grade") (S52) and sent to the voice recognition / synthesis device 3 (S5).
3). The voice recognition synthesizing device 3 synthesizes the item name by voice and brings it to the headphones 1. The operator hears "grade" in the voice, and thus can know the input target item.

【0024】上記の実施例は、病理検査支援システムで
説明したが、本発明は、項目別のデータを音声入力で行
う全てのシステムに適用できる。
Although the above embodiment has been described with respect to the pathological examination support system, the present invention can be applied to all systems in which itemized data is input by voice.

【0025】[0025]

【発明の効果】本発明では、音声認識合成装置を用いる
ことにより、データ入力を画面を見ずに、全て音声で行
うことができる。このため、作業を行いながら、その作
業を中断することなく作業に関連するデータを入力する
ことができる。
According to the present invention, by using the voice recognition / synthesis apparatus, data input can be performed entirely by voice without looking at the screen. Therefore, while performing work, it is possible to input data related to the work without interrupting the work.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のシステム構成を示す図である。FIG. 1 is a diagram showing a system configuration of the present invention.

【図2】音声認識の動作を説明するフローチャートであ
る。
FIG. 2 is a flowchart illustrating a voice recognition operation.

【図3】本発明のデータ入力の動作を説明するフローチ
ャートである。
FIG. 3 is a flowchart for explaining a data input operation of the present invention.

【図4】本発明の表示画面を示す図である。FIG. 4 is a diagram showing a display screen of the present invention.

【図5】本発明のコマンドの内「where fiel
d」の動作を説明するフローチャートである。
FIG. 5 shows a command “where field” of the commands of the present invention.
7 is a flowchart for explaining the operation of "d".

【符号の説明】[Explanation of symbols]

1 ヘッドフォン(イヤフォン等) 2 マイクロフォン 3 音声認識合成装置 4 CPU 5 メモリ 6 表示装置インターフェース 7 表示装置 8 キーボード、マウスのインターフェース 9 キーボード 10 マウス 11 ディスク装置等の外部記憶装置 1 Headphones (earphones etc.) 2 Microphone 3 Voice recognition / synthesis device 4 CPU 5 Memory 6 Display device interface 7 Display device 8 Keyboard / mouse interface 9 Keyboard 10 Mouse 11 External storage device such as disk device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G10L 3/00 551 L 561 D // G01N 35/00 A ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G10L 3/00 551 L 561 D // G01N 35/00 A

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 項目別データを音声で入力する音声デー
タ入力装置において、 音声を入力する音声入力手段および音声を出力する音声
出力手段と、 入力された項目データを表示する表示手段と、 音声入力された項目別データおよびコマンドを音声認識
する手段と、 音声認識された項目別データおよびコマンドを音声合成
で音声出力する手段と、 前記音声入力された項目データをその項目に入力・表示
する手段と、 前記音声入力されたコマンドに従った処理を行う手段と
を有することを特徴とする音声データ入力装置。
1. A voice data input device for inputting itemized data by voice, a voice input means for inputting voice and a voice output means for outputting voice, a display means for displaying the input item data, and a voice input. Means for recognizing voiced itemized data and commands, means for voice-outputting the voiced itemized data and commands by voice synthesis, and means for inputting / displaying the voice-inputted item data on the item And a means for performing processing according to the voice input command, the voice data input device.
【請求項2】 前記コマンドに項目移動のコマンドが含
まれていることを特徴とする請求項1記載の音声データ
入力装置。
2. The voice data input device according to claim 1, wherein the command includes an item movement command.
【請求項3】 前記項目移動のコマンドは項目名を指定
することを特徴とする請求項2記載の音声データ入力装
置。
3. The voice data input device according to claim 2, wherein the item movement command specifies an item name.
【請求項4】 前記コマンドに入力対象項目を確認する
コマンドが含まれていることを特徴とする請求項1〜3
いずれか1項記載の音声データ入力装置。
4. The command according to claim 1, wherein the command includes a command for confirming an input target item.
The voice data input device according to claim 1.
【請求項5】 前記入力対象項目を確認するコマンド
は、入力対象項目を音声で応答することを特徴とする請
求項4記載の音声データ入力装置。
5. The voice data input device according to claim 4, wherein the command for confirming the input target item responds by voice to the input target item.
【請求項6】 病理検査支援システムに適用したことを
特徴とする請求項1〜5いずれか1項記載の音声データ
入力装置。
6. The voice data input device according to claim 1, which is applied to a pathological examination support system.
JP6267766A 1994-10-31 1994-10-31 Voice data input device Pending JPH08129476A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6267766A JPH08129476A (en) 1994-10-31 1994-10-31 Voice data input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6267766A JPH08129476A (en) 1994-10-31 1994-10-31 Voice data input device

Publications (1)

Publication Number Publication Date
JPH08129476A true JPH08129476A (en) 1996-05-21

Family

ID=17449293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6267766A Pending JPH08129476A (en) 1994-10-31 1994-10-31 Voice data input device

Country Status (1)

Country Link
JP (1) JPH08129476A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7165034B2 (en) 2001-03-22 2007-01-16 Canon Kabushiki Kaisha Information processing apparatus and method, and program
WO2008032594A1 (en) * 2006-08-28 2008-03-20 Tokyo Electric Power Company Computer-executable program, method, and processing device
JP2016134127A (en) * 2015-01-22 2016-07-25 株式会社アドバンスト・メディア Electronic record recording support apparatus and electronic record recording support method
JP2018059727A (en) * 2016-10-03 2018-04-12 溝口 さとし System for preventing specimen confusion in pathological diagnosis
JP2021139829A (en) * 2020-03-09 2021-09-16 東京電力ホールディングス株式会社 Chemical analysis support device, chemical analysis support program, and chemical analysis support method
WO2022168433A1 (en) * 2021-02-08 2022-08-11 株式会社日立ハイテク Automatic analysis device and automatic analysis system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7165034B2 (en) 2001-03-22 2007-01-16 Canon Kabushiki Kaisha Information processing apparatus and method, and program
WO2008032594A1 (en) * 2006-08-28 2008-03-20 Tokyo Electric Power Company Computer-executable program, method, and processing device
JP2016134127A (en) * 2015-01-22 2016-07-25 株式会社アドバンスト・メディア Electronic record recording support apparatus and electronic record recording support method
JP2018059727A (en) * 2016-10-03 2018-04-12 溝口 さとし System for preventing specimen confusion in pathological diagnosis
JP2021139829A (en) * 2020-03-09 2021-09-16 東京電力ホールディングス株式会社 Chemical analysis support device, chemical analysis support program, and chemical analysis support method
WO2022168433A1 (en) * 2021-02-08 2022-08-11 株式会社日立ハイテク Automatic analysis device and automatic analysis system
JPWO2022168433A1 (en) * 2021-02-08 2022-08-11

Similar Documents

Publication Publication Date Title
KR100549482B1 (en) Information processing apparatus, information processing method, and computer readable storage medium for storing a program
JP3943492B2 (en) How to improve dictation and command distinction
US7684985B2 (en) Techniques for disambiguating speech input using multimodal interfaces
US9239829B2 (en) Speech recognition device
JP3962763B2 (en) Dialogue support device
US7548859B2 (en) Method and system for assisting users in interacting with multi-modal dialog systems
US9177545B2 (en) Recognition dictionary creating device, voice recognition device, and voice synthesizer
JP2002116796A (en) Voice processor and method for voice processing and storage medium
JP5628749B2 (en) Interpretation method using interpreter terminal and mutual communication between interpreter terminals
US20050228671A1 (en) System and method for utilizing speech recognition to efficiently perform data indexing procedures
JP2000250677A (en) Multimodal interface device and multimodal interface method
JPH07222248A (en) Method of using voice information in portable information terminals
JPWO2006097975A1 (en) Speech recognition program
JP2000075887A (en) Pattern recognition device, method and system
JPH08129476A (en) Voice data input device
WO2017135214A1 (en) Speech translation system, speech translation method, and speech translation program
JPH08339288A (en) Information processing apparatus and control method thereof
JP2006011641A (en) Information input method and apparatus
Gupta et al. Desktop voice assistant
JP2003157095A (en) Speech recognition apparatus and method, and program
JP2015052743A (en) Information processing apparatus, information processing apparatus control method, and program
TWI582756B (en) A method of switching input mode, a mobile communication device, and a computer readable medium
JP2000207166A (en) Device and method for voice input
JPS60146327A (en) Computer conversation method
JP7703156B1 (en) Information provision support method and system using generative AI