JP2008180801A - Automatic answering apparatus and method - Google Patents
Automatic answering apparatus and method Download PDFInfo
- Publication number
- JP2008180801A JP2008180801A JP2007012882A JP2007012882A JP2008180801A JP 2008180801 A JP2008180801 A JP 2008180801A JP 2007012882 A JP2007012882 A JP 2007012882A JP 2007012882 A JP2007012882 A JP 2007012882A JP 2008180801 A JP2008180801 A JP 2008180801A
- Authority
- JP
- Japan
- Prior art keywords
- sentence
- word
- dependency
- analysis
- words
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Abstract
【課題】自然言語対話において、音声認識や文章解析での誤りに対して、それらを訂正する対話を自然な形の対話の一部に組み込み、入力の誤りを訂正しながら対話を適切に進行させる対話処理が可能な自動回答装置を提供することを目的とする。
【解決手段】本発明の自動回答装置は、音声認識された文を形態素解析する形態素解析手段と、前記形態素解析された文中の品詞が一定の条件を満たす語を取り出す語抽出手段と、前記抽出された各語について他の語との共起度の和を求める共起度和計算手段と、前記共起度の和の数値が所定の閾値より低い単語を音声認識誤りの語と判定する閾値判定手段と、音声認識誤りと判定された語がある場合に訂正文を作成する訂正文作成手段から構成される。
【選択図】図2
[PROBLEMS] In a natural language dialogue, a dialogue that corrects errors in speech recognition and sentence analysis is incorporated in a part of a natural dialogue, and the dialogue proceeds appropriately while correcting an input error. An object is to provide an automatic answering apparatus capable of interactive processing.
An automatic answering apparatus according to the present invention includes a morpheme analysis unit that performs morpheme analysis on a speech-recognized sentence, a word extraction unit that extracts a word that satisfies a certain part of speech in the sentence subjected to the morpheme analysis, and the extraction A co-occurrence degree calculating means for obtaining the sum of co-occurrence degrees with other words for each word that has been made, and a threshold value for determining a word whose sum of co-occurrence degrees is lower than a predetermined threshold value as a speech recognition error word The determination means and correction sentence creation means for creating a correction sentence when there is a word determined to be a speech recognition error.
[Selection] Figure 2
Description
本発明は、音声認識および文章解析の誤り訂正機能を有する自動回答装置に関する。 The present invention relates to an automatic answering apparatus having an error correction function for speech recognition and sentence analysis.
今日、インターネットや電子メールの利用により、パソコンが家庭の中に急速に普及してきている。パソコンを操作する際、ユーザはキーボードやマウスを使ってパソコンと対話するが、人間同士の対話とは違い、ユーザがキーボードでコマンドを入力したり、マウスでクリックするなどしてパソコンに要求を伝え、パソコンはその要求にしたがって処理をし、その結果を表示するというように、その対話方法は何も知らない初心者にとってはまだまだ困難なものと言える。パソコンを操作する上で、こうした基本的な技術や知識すら必要とせずに、誰でも容易かつ手軽にパソコンと対話するには、やはり人間が用いる自然言語でコンピュータと対話でき、さらに、入力インターフェースとしてキーボードではなく音声認識を用いることが望ましい。
そこで、適切な対話を行うための音声認識方法が、特開2003−015688号公報に開示されている。
Today, the use of the Internet and e-mail is rapidly spreading personal computers in homes. When operating a computer, the user interacts with the computer using a keyboard and mouse, but unlike human interaction, the user communicates a request to the computer by entering a command with the keyboard or clicking with the mouse. The personal computer processes according to the request and displays the result, so it can be said that it is still difficult for beginners who do not know anything about the interaction method. In order to interact with a computer easily and easily, anyone can interact with a computer in the natural language used by humans without using even these basic skills and knowledge to operate the computer. It is desirable to use speech recognition instead of a keyboard.
Therefore, a speech recognition method for performing an appropriate dialogue is disclosed in Japanese Patent Laid-Open No. 2003-015688.
本発明の音声認識方法は、入力した単語の音声データと単語辞書内の音声パターンとの類似度を計算し、類似度の高い順に複数の音声パターンを単語認識候補とし、前記単語認識候補を音声で出力することにより入力操作の確認を行う際に、類似度が基準よりも高いか低いかによって出力される音声の表現内容を変えることを特徴するものである。
前記背景技術の音声認識方法によれば、入力した単語の音声データと単語辞書内の音声パターンとの類似度の計算は、通常はゼロから9999通りの計算結果が得られ、得点数が高いほど類似度が高くなる。そこで、例えば3000点を基準として、3000点以下の場合には誤認識の可能性が高くなり、3000点を越えると誤認識の可能性が低くなることが経験的に知られているので、この点数を基準としてトークバックによる表現内容を変えることにより、ユーザは、装置がきちんと判断を行っていると理解し、装置に対する信頼性を高めることができる。 According to the speech recognition method of the background art, the similarity between the input word speech data and the speech pattern in the word dictionary is usually calculated from zero to 9999 calculation results, and the higher the score, the higher the score. Similarity increases. Therefore, for example, it is empirically known that the probability of misrecognition increases when 3000 points or less, with 3000 points as a reference, and the possibility of misrecognition decreases when 3000 points are exceeded. By changing the content of the talkback expression based on the score, the user can understand that the device is making a proper decision, and can increase the reliability of the device.
しかしながら、背景技術の音声認識方法では、音声パターンの類似度の計算が単語辞書内の範囲での誤認識の判定に限定されるという課題を有する。また、音声による自然言語対話を行うためには、入力された音声を音声認識部で文字情報に変換し、入力解析部で文章解析し、問題解決部で応答情報収集や対話制御処理などにより応答内容を決定し、発話生成部で生成した応答文を音声出力部を用いて出力するといった処理が必要である。このとき、音声認識部では認識誤り、入力解析部では文章解析誤りが起こる可能性があり、これらの誤りによって問題解決に失敗してしまい、適切な応答が困難になるという問題がある。
ここで、音声による自然言語対話を実現する際に生じる音声認識誤り及び文章解析誤りについて、以下に説示する。
However, the background art speech recognition method has a problem that the calculation of the similarity of speech patterns is limited to the determination of erroneous recognition within a range in the word dictionary. In order to conduct a natural language conversation using speech, the input speech is converted into text information by the speech recognition unit, the sentence is analyzed by the input analysis unit, and the response is collected by response information collection and dialogue control processing by the problem solving unit. Processing is required in which the content is determined and the response sentence generated by the utterance generation unit is output using the voice output unit. At this time, there is a possibility that a recognition error occurs in the speech recognition unit and a sentence analysis error occurs in the input analysis unit, which causes a problem in that the solution to the problem fails and an appropriate response becomes difficult.
Here, speech recognition errors and sentence analysis errors that occur when realizing a natural language conversation using speech will be described below.
[1.音声認識誤り]
キーボードを使った文字入力では、誤字・脱字、仮名漢字変換誤り等の文字を打ち間違えたり文法的な間違いがあったときには、ユーザが入力前にある程度訂正して入力することができるが、音声入力では思いつくままに発話したものがそのまま認識され、入力されてしまうので、認識誤りや文法誤りなどを含む可能性が高くなる。音声認識に誤りがあると、次の文章解析でも誤った入力に基づいた解析で誤りが拡大してしまい、問題解決に大きな障害となる。以下に音声認識誤りの例を示す。
発話文:電源が入りません。
認識結果:電源がはよません。
音声認識の誤り方には以下のようなものがある。
[1. Speech recognition error]
When inputting characters using the keyboard, if there is a typo or grammatical error such as a typo or omission, or a kana-kanji conversion error, the user can input it with some correction before entering it. Then, what is uttered as it is thought is recognized and input as it is, so there is a high possibility of including recognition errors and grammatical errors. If there is an error in speech recognition, the error will be enlarged in the analysis based on the wrong input even in the next sentence analysis, which will be a major obstacle to solving the problem. The following are examples of speech recognition errors.
Spoken sentence: The power does not turn on.
Recognition result: The power supply does not work.
There are the following ways of speech recognition errors.
(1)音声認識の誤りによる誤認識として、ユーザの発音やマイクの不調が原因で音の 一部ないしは全部がなかった場合。 (1) When there is no or part of the sound due to user's pronunciation or microphone malfunction as misrecognition due to voice recognition error.
(2)音素列に混入した雑音音素による誤認識として、ユーザの意図していない発声や 周囲の雑音により誤認識が起きた場合。 (2) The case where misrecognition occurs due to unintentional utterance or ambient noise as a misrecognition due to noise phonemes mixed in the phoneme string.
(3)似た音素の誤認識として、母音が同じ音で、音素が似ているため誤認識が起きた 場合。 (3) The case of misrecognition of similar phonemes due to the same vowel sound and similar phonemes.
(4)音素列の不適切な区切りによる誤認識として、音声を単語に変換するときに単語 の境界を間違ってしまった場合や、例えば1つの語の発声の途中に空白が入った 場合。 (4) Misrecognition due to improper separation of phoneme strings, such as when a word boundary is mistaken when converting speech to a word, or when there is a blank in the middle of the utterance of one word.
(5)同音異義語の変換の誤りの場合。 (5) In case of conversion error of homonyms.
[2.文章解析誤り]
文章解析としては、形態素解析、構文解析、意味解析、文脈解析、談話解析などがあげられる。現在、形態素解析、構文解析はかなりの技術が確立しており、日本語の構文解析としては係り受け解析がよく使われている。形態素解析器ではJUMAN、ChaSen、MeCab、係り受け解析器ではKNP、CaboChaなどが広く利用されている。これらはかなりの精度で処理するが、誤りも少なくない。質問応答といったような意味のある対話をしようとすると、形態素解析、構文解析に続いて、意味解析なども行わなければならない。形態素解析で誤ると構文解析に影響し、構文解析で誤ると意味解析に影響するため、これらの精度がかなり高いとは言え、現実に起こる誤りを無視することはできない
図10にCaboChaでの解析誤りの例を示す。この例では「メールの」は「最初の」に係っているが、文の意味を考えると「メールの」は「設定法を」に係るはずである。係り受け解析の誤りは、一般に文が「連体修飾語句」、「挿入句」「従属節」、「並列構造」の要素を持つとき起こりやすい。
[2. Sentence analysis error]
Examples of sentence analysis include morphological analysis, syntactic analysis, semantic analysis, context analysis, and discourse analysis. At present, considerable technology has been established for morphological analysis and syntax analysis, and dependency analysis is often used as Japanese syntax analysis. JUMAN, ChaSen, MeCab are widely used for morphological analyzers, and KNP, CaboCha, etc. are widely used for dependency analyzers. These are processed with considerable accuracy, but there are many errors. When trying to make meaningful conversations such as question answering, morphological analysis and syntactic analysis must be followed by semantic analysis. An error in morphological analysis affects syntactic analysis, and an error in syntactic analysis affects semantic analysis, so even though these precisions are quite high, errors that actually occur cannot be ignored. An example of an error is shown. In this example, “mail” is related to “first”, but considering the meaning of the sentence, “mail” should be related to “setting method”. In general, dependency analysis errors are likely to occur when a sentence has elements of “link modifier”, “insert phrase”, “subordinate clause”, and “parallel structure”.
なお、音声認識と文章解析で共通して問題なのが、それぞれの精度を上げたとしてもそれ単体では100%の精度は得られないだろうという点である。なぜなら、自然言語は本来曖昧さを含むものであり、意味や文脈を考慮しなければ、音声認識や形態素解析、構文解析時には決定できない部分が残るからである。また、人間が自由に入力できる以上、入力文自体が文法的に間違っている可能性もある。よって、自然言語対話には、対話をしながらこれらの誤りを訂正する仕組みが必要となる。そして、音声対話システムを実現するにあたっては、それぞれの誤りに対する誤り訂正機能が必要である。 A common problem in speech recognition and sentence analysis is that even if each accuracy is increased, it will not be possible to obtain 100% accuracy by itself. This is because natural language inherently contains ambiguity, and there is a part that cannot be determined during speech recognition, morphological analysis, or syntactic analysis without considering the meaning and context. In addition, as long as humans can input freely, the input sentence itself may be grammatically incorrect. Therefore, natural language dialogue requires a mechanism for correcting these errors while conducting dialogue. In order to realize a spoken dialogue system, an error correction function for each error is required.
本発明は、前記課題を解決するためになされたものであり、自然言語対話において、音声認識や文章解析での誤りに対して、それらを訂正する対話を自然な形の対話の一部に組み込み、入力の誤りを訂正しながら対話を適切に進行させる対話処理が可能な自動回答装置を提供することを目的とする。 The present invention has been made to solve the above-mentioned problems, and in natural language dialogue, dialogue that corrects errors in speech recognition and sentence analysis is incorporated into a part of the dialogue in a natural form. An object of the present invention is to provide an automatic answering apparatus capable of performing dialogue processing for appropriately proceeding dialogue while correcting an input error.
[対話の制御]
話し手が聞き手に対してどのような発話で情報を伝達すべきかという原則として、一般的に以下に示すGriceの公準が知られている。(1)量の公準として、過不足のない情報を伝える。(2)質の公準として、根拠のある真実や真であると思うことを告げる。(3)関係の公準として、話し手と聞き手のお互いの関連した事柄を話す。(4)様態の公準として、 明瞭に簡潔に順序立てて話す。これを誤り訂正の対話での発話に当てはめ、次のよう考える。(1a)量の公準に対応して、音声認識や文章解析の誤りを訂正するために必要であると判断する情報を過不足なく伝える。(2a)質の公準に対応して、入力文について、音声認識や文章解析の誤りではない、または誤りであると判断できた部分を告げる。(3a)関係の公準に対応して、入力文に対する音声認識、文章解析の誤りについて話す。(4a)様態の公準に対応して、入力文のどの部分に対して、誤りと判断しているかがはっきりと伝わるように話す。
[Interaction Control]
As a principle of how the speaker should transmit information to the listener, the following Grice standard is generally known. (1) As an official quantity, convey information without excess or deficiency. (2) As a quality standard, state that you believe that there is grounded truth or truth. (3) Talk about the relationship between the speaker and the listener as a related standard. (4) Speak clearly and concisely in order as a standard for the mode. This is applied to the utterance in the error correction dialogue and considered as follows. (1a) Corresponding to the official amount of information, information that is judged to be necessary for correcting errors in speech recognition and sentence analysis is conveyed without excess or deficiency. (2a) Corresponding to the quality standard, the part of the input sentence that is not an error in speech recognition or sentence analysis or that can be determined to be an error is reported. (3a) Talk about errors in speech recognition and sentence analysis for input sentences in accordance with the related norms. (4a) In correspondence with the official state of the mode, speak so that it can be clearly communicated to which part of the input sentence it is judged as an error.
本発明における誤り訂正対話では、上述の条件を満たすように発話を作成する。例えば、「電源がはよません」という音声認識の誤りに対して、入力文を全部用いて「電源がはよませんといいましたか?」「電源がはよまないのですか?」等の発話は量の公準や質の公準を満たさない、この場合、正しいと判断される「電源が」を用いて「電源がどうしました?」「電源がなにですか?」等の発話が望ましい。 In the error correction dialogue according to the present invention, an utterance is created so as to satisfy the above-mentioned conditions. For example, in response to an error in voice recognition such as “I do n’t have a power supply”, I use all of the input sentences to say “Did you say the power supply is OK?” “Is the power supply not good?” The utterances such as "does not meet the norm of quantity or quality", in this case, the utterance such as "What was the power supply?" And "What is the power supply?" Is desirable.
(1)本発明に係る自動回答装置は、入力された文を形態素解析する形態素解析手段と、前記形態素解析された文中の品詞が一定の条件を満たす語を取り出す語抽出手段と、前記抽出された各語について他の語との共起度の和を求める共起度和計算手段と、前記共起度の和の数値が所定の閾値より低い単語を入力誤りの語と判定する閾値判定手段と、入力誤りと判定された語がある場合に訂正文を作成する訂正文作成手段から構成される。ここで、「入力された文」とは、例えば、音声入力後に音声認識された文、キーボード等により書かれた文などを含む。「入力誤り」とは、例えば、音声認識の誤り、書かれた文の誤りなどを含む。なお、書かれた文の誤りとは、誤字・脱字、仮名漢字変換誤りなどがある。「前記形態素解析された文中の品詞が一定の条件を満たす語」の品詞が一定の条件を満たす場合とは、名詞、動詞、形容詞のもので非自立でなく数でもない語などを含む。また、「訂正文」とは、認識誤りがある場合の言い直し要求文、言い直し要求文に対する確認文、言い直し要求に従って語が置換された入力誤りの訂正文を含む。
これにより、音声認識等による入力における対話文中の不自然な単語の存在を簡易かつ正確に発見、訂正することができる。また、音声認識の誤りの判定において、統計的な処理がなされるため、話者との対話からの文例数が増加するに従って、共起度の和の数値の信頼性も増加し、入力誤りの訂正の精度も向上する。
(1) An automatic answering apparatus according to the present invention includes a morpheme analyzing unit that performs morphological analysis on an input sentence, a word extracting unit that extracts words that satisfy a certain condition in a part of speech in the sentence subjected to the morpheme analysis, and the extracted A co-occurrence degree calculation means for obtaining the sum of co-occurrence degrees with other words for each word, and a threshold determination means for judging a word whose numerical value of the sum of co-occurrence degrees is lower than a predetermined threshold as an input error word And a corrected sentence creating means for creating a corrected sentence when there is a word determined to be an input error. Here, the “input sentence” includes, for example, a sentence that has been voice-recognized after voice input, a sentence written by a keyboard, and the like. The “input error” includes, for example, a voice recognition error, a written sentence error, and the like. Note that errors in written sentences include typographical errors and omissions, and kana-kanji conversion errors. The case where the part of speech of “the word in which the part of speech in the sentence subjected to morphological analysis satisfies a certain condition” satisfies a certain condition includes a word that is a noun, a verb, an adjective and is not independent and is not a number. The “corrected sentence” includes a rephrase request sentence when there is a recognition error, a confirmation sentence for the restatement request sentence, and an input error correction sentence in which words are replaced according to the restatement request.
This makes it possible to easily and accurately find and correct the presence of an unnatural word in a dialogue sentence in an input by speech recognition or the like. In addition, since statistical processing is performed in determining speech recognition errors, the reliability of the numerical value of the sum of co-occurrence levels increases as the number of example sentences from dialogue with the speaker increases, and The accuracy of correction is also improved.
(2)本発明に係る自動応答装置は、入力された文を形態素解析する形態素解析手段と、前記形態素解析された文中の品詞が一定の条件を満たす語を取り出す語抽出手段と、前記抽出された各語について他の語との共起度の和を求める共起度和計算手段と、前記共起度の和の数値が所定の閾値より低い単語を入力誤りの語と判定する閾値判定手段と、入力誤りと判定された語がある場合に訂正文を作成する訂正文作成手段と、前記訂正文に訂正前の文と比較して異なった語があるか否かを判定する訂正文比較判定手段と、訂正文に誤りがあるか否かを判定するYes/No判定手段から構成される。なお、「入力された文」、「入力誤り」、「前記形態素解析された文中の品詞が一定の条件を満たす語」の品詞が一定の条件を満たす場合および「訂正文」については、上述の記載と同様である。
これにより、音声認識等の入力の誤りに対して、それらを訂正する対話を自然な形の対話の一部に組み込み、音声認識等の入力の誤りを訂正しながら対話を適切に進行させることができる。
(2) The automatic response device according to the present invention includes a morpheme analyzing unit that performs morphological analysis on an input sentence, a word extracting unit that extracts words that satisfy a certain condition in a part of speech in the sentence subjected to the morpheme analysis, and the extracted A co-occurrence degree calculation means for obtaining the sum of co-occurrence degrees with other words for each word, and a threshold determination means for judging a word whose numerical value of the sum of co-occurrence degrees is lower than a predetermined threshold as an input error word A corrected sentence creating means for creating a corrected sentence when there is a word determined to be an input error, and a corrected sentence comparison for determining whether the corrected sentence has a different word compared to the sentence before correction It is comprised from the determination means and the Yes / No determination means which determines whether there is an error in a correction sentence. In the case where the part of speech of “input sentence”, “input error”, “word in which the part of speech in the sentence subjected to morphological analysis satisfies a certain condition” satisfies a certain condition and “corrected sentence”, Same as described.
As a result, dialogues that correct input errors such as speech recognition can be incorporated into a part of the natural dialogue, and the dialogue can be appropriately advanced while correcting input errors such as speech recognition. it can.
(3)本発明に係る自動回答装置は必要に応じて、前記訂正文は、共起度を計算した語のうち入力誤りと判定された語の1つ前の語までの訂正前の文と回答文末尾の語・句に着目して作成したテンプレートを使って訂正文を作成する手段を含むものである。
これにより、入力文のどこで認識誤りが起こったかがはっきり分かる。また、入力の誤りに対して、それらを訂正する対話を自然な形の対話の一部に組み込み、入力の誤りを訂正しながら対話を適切に進行させることができる。
(3) In the automatic answering apparatus according to the present invention, if necessary, the corrected sentence is a sentence before correction up to the word one word before the word determined to be input error among the words for which the co-occurrence degree is calculated. This includes means for creating a corrected sentence using a template created by paying attention to the word / phrase at the end of the answer sentence.
This clearly shows where the recognition error occurred in the input sentence. In addition, it is possible to incorporate a dialogue for correcting an input error into a part of a natural dialogue, and to appropriately advance the dialogue while correcting the input error.
(4)本発明に係る自動回答装置は、入力された文を係り受け解析する係り受け解析手段と、前記係り受け解析された文中の品詞が一定の条件を満たす1の語を取り出す語抽出手段と、前記抽出された1の語と他の語の組についての係り受け度を求める係り受け度計算手段と、前記組同士の係り受け度の大小関係を判定する係り受け関係判定手段と、前記係り受け度の低い語の組に係り受け訂正文を作成する係り受け訂正文作成手段から構成される。ここで、「入力された文」とは、例えば、音声入力後に音声認識された文、キーボード等により書かれた文などを含む。「前記文中の品詞が一定の条件を満たす1の語を取り出す語」の品詞が一定の条件を満たす場合とは、名詞、動詞、形容詞のもので非自立でなく数でもない語などを含む。また、「係り受け訂正文」は、話者に対する係り受け確認文、係り受け確認文の話者からの確認を受けて訂正された訂正文を含む。
これにより、対話文中の不自然な単語の係り受けの存在を簡易かつ正確に発見、訂正することができる。文章解析の誤りの判定において、統計的な処理がなされるため、話者との対話からの文例数が増加するに従って、係り受け度の数値の信頼性も増加し、文章解析誤りの訂正の精度も向上する。
(4) An automatic answering apparatus according to the present invention includes dependency analysis means for dependency analysis of an input sentence, and word extraction means for extracting one word whose part of speech in the dependency analyzed sentence satisfies a certain condition. A dependency degree calculating means for obtaining a dependency degree for the extracted set of one word and another word, a dependency relation determining means for determining a magnitude relation of the dependency degree between the pairs, It consists of dependency correction sentence creation means for creating a dependency correction sentence for a set of words having a low dependency degree. Here, the “input sentence” includes, for example, a sentence that has been voice-recognized after voice input, a sentence written by a keyboard, and the like. The case where the part-of-speech of “a word from which one part-of-speech in a sentence satisfies a certain condition” satisfies a certain condition includes nouns, verbs, adjectives that are non-independent and not numbers. Further, the “dependency correction sentence” includes a dependency confirmation sentence for the speaker, and a correction sentence that has been corrected upon confirmation from the speaker of the dependency confirmation sentence.
As a result, it is possible to easily and accurately find and correct the presence of an unnatural word dependency in a dialogue sentence. Since statistical processing is performed in determining sentence analysis errors, the reliability of dependency numerical values increases as the number of sentence examples from dialogue with the speaker increases, and the accuracy of correcting sentence analysis errors Will also improve.
(5)本発明に係る自動回答装置は、入力された文を係り受け解析する係り受け解析手段と、前記文中の品詞が一定の条件を満たす1の語を取り出す語抽出手段と、前記1の語と他の語の組を作り係り受け度を求める係り受け度計算手段と、前記組同士の係り受け度の大小関係を判定する係り受け関係判定手段と、係り受け度の低い語の組に係り受け訂正文を作成する係り受け訂正文作成手段と、前記係り受け訂正文が誤りであるか否かを判定するYes/No判定手段から構成される。なお、「入力された文」、「前記文中の品詞が一定の条件を満たす1の語を取り出す語」の品詞が一定の条件を満たす場合および「係り受け訂正文」については、前述の記載と同様である。
これにより、文章解析の誤りに対して、それらを訂正する対話を自然な形の対話の一部に組み込み、入力の誤りを訂正しながら対話を適切に進行させることができる。
(5) An automatic answering apparatus according to the present invention includes dependency analysis means for dependency analysis of an inputted sentence, word extraction means for extracting one word whose part of speech in the sentence satisfies a certain condition, A dependency calculation unit for creating a combination of a word and another word to obtain dependency, a dependency relationship determination unit for determining the magnitude relationship of the dependency between the pairs, and a set of words having a low dependency It is composed of dependency correction text creating means for creating a dependency correction text and a Yes / No determination means for determining whether or not the dependency correction text is an error. In the case where the part of speech of the “input sentence”, “the word in which the part of speech in the sentence extracts one word that satisfies a certain condition” satisfies the certain condition and “the dependency correction sentence”, It is the same.
Thereby, it is possible to incorporate a dialogue for correcting the sentence analysis errors into a part of the natural dialogue, and to appropriately advance the dialogue while correcting the input error.
(6)本発明に係る自動回答装置は必要に応じて、前記係り受け訂正文は、係り受け度を計算した語のうち文章解析誤りと判定された語より大きな係り受け度の語と回答文末尾の語・句に着目して作成したテンプレートを使って訂正文を作成する手段を含むものである。
これにより、入力文のどこで文章解析誤りが起こったかがはっきり分かる。また、文章解析の誤りに対して、それらを訂正する対話を自然な形の対話の一部に組み込み、入力の誤りを訂正しながら対話を適切に進行させることができる。
(6) In the automatic answering apparatus according to the present invention, if necessary, the dependency correction sentence is a word having a larger dependency degree and a response sentence than words determined to be sentence analysis errors among words for which the dependency degree is calculated. This includes means for creating a corrected sentence using a template created by paying attention to the last word / phrase.
This clearly shows where the sentence analysis error occurred in the input sentence. Moreover, it is possible to incorporate a dialogue for correcting errors in sentence analysis into a part of a natural dialogue, and to appropriately advance the dialogue while correcting an input error.
(7)本発明に係る自動回答プログラムは、入力された文を形態素解析する形態素解析手順と、前記形態素解析された文中の品詞が一定の条件を満たす語を取り出す語抽出手順と、前記抽出された各語について他の語との共起度の和を求める共起度和計算手順と、前記共起度の和の数値が所定の閾値より低い単語を入力誤りの語と判定する閾値判定手順と、入力誤りと判定された語がある場合に訂正文を作成する訂正文作成手順としてコンピュータを機能させるものである。 (7) The automatic answer program according to the present invention includes a morpheme analysis procedure for morphological analysis of an input sentence, a word extraction procedure for extracting words that satisfy a certain condition in the part of speech in the sentence subjected to the morpheme analysis, and the extracted A co-occurrence degree calculation procedure for obtaining the sum of co-occurrence degrees with other words for each word, and a threshold determination procedure for determining a word whose sum of co-occurrence degrees is lower than a predetermined threshold as an input error word The computer is caused to function as a corrected sentence creation procedure for creating a corrected sentence when there is a word determined to be an input error.
(8)本発明に係る自動回答方法は、入力された文を形態素解析する形態素解析ステップと、前記形態素解析された文中の品詞が一定の条件を満たす語を取り出す語抽出ステップと、前記抽出された各語について他の語との共起度の和を求める共起度和計算ステップと、前記共起度の和の数値が所定の閾値より低い単語を入力誤りの語と判定する閾値判定ステップと、入力誤りと判定された語がある場合に訂正文を作成する訂正文作成ステップから構成されるものである。 (8) The automatic answering method according to the present invention includes a morpheme analysis step for morphological analysis of an input sentence, a word extraction step for extracting a word that satisfies a certain part of speech in the sentence subjected to the morpheme analysis, and the extracted A co-occurrence degree calculation step for obtaining the sum of co-occurrence degrees with other words for each word, and a threshold determination step for determining a word whose numerical value of the sum of co-occurrence degrees is lower than a predetermined threshold as an input error word And a corrected sentence creating step for creating a corrected sentence when there is a word determined to be an input error.
(9)本発明に係る自動回答プログラムは、入力された文を係り受け解析する係り受け解析手順と、前記係り受け解析された文中の品詞が一定の条件を満たす1の語を取り出す語抽出手順と、前記抽出された1の語と他の語の組についての係り受け度を求める係り受け度計算手順と、前記組同士の係り受け度の大小関係を判定する係り受け関係判定手順と、前記係り受け度の低い語の組に係り受け訂正文を作成する係り受け訂正文作成手順としてコンピュータを機能させるものである。 (9) An automatic answer program according to the present invention includes a dependency analysis procedure for dependency analysis of an input sentence, and a word extraction procedure for extracting one word in which the part of speech in the dependency analyzed sentence satisfies a certain condition. A dependency degree calculation procedure for obtaining a dependency degree for the extracted set of one word and another word, a dependency relationship determination procedure for determining a magnitude relation of the dependency degree between the pairs, The computer is caused to function as a dependency correction sentence creation procedure for creating a dependency correction sentence for a set of words having a low dependency degree.
(10)本発明に係る自動回答方法は、入力された文を係り受け解析する係り受け解析ステップと、前記係り受け解析された文中の品詞が一定の条件を満たす1の語を取り出す語抽出ステップと、前記抽出された1の語と他の語の組についての係り受け度を求める係り受け度計算ステップと、前記組同士の係り受け度の大小関係を判定する係り受け関係判定ステップと、前記係り受け度の低い語の組に係り受け訂正文を作成する係り受け訂正文作成ステップから構成されるものである。
これら前記の発明の概要は、本発明に必須となる特徴を列挙したものではなく、これら複数の特徴のサブコンビネーションも発明となり得る。
(10) An automatic answering method according to the present invention includes a dependency analysis step of performing dependency analysis on an input sentence, and a word extraction step of extracting one word in which the part of speech in the dependency analyzed sentence satisfies a certain condition. A dependency level calculating step for determining a dependency level for the pair of the extracted one word and another word, a dependency relationship determination step for determining a magnitude relationship of the dependency level between the sets, This is composed of a dependency correction sentence creation step for creating a dependency correction sentence for a set of words having a low dependency degree.
These outlines of the invention do not enumerate the features essential to the present invention, and a sub-combination of these features can also be an invention.
(本発明の第1の実施形態)
ここで、本発明は多くの異なる形態で実施可能である。したがって、下記の実施形態の記載内容のみで解釈すべきではない。
実施形態では、主に装置について説明するが、所謂当業者であれば明らかな通り、本発明は、コンピュータで使用可能なプログラムとしても実施できる。また、本発明では、ハードウェア、ソフトウェア、または、ソフトウェア及びハードウェアの実施形態で実施可能である。プログラムは、ハードディスク、CD―ROM、DVD−ROM、光記憶装置または磁気記憶装置等の任意のコンピュータ可読媒体に記録できる。さらに、プログラムはネットワークを介した他のコンピュータに記録することが出来る。
(First embodiment of the present invention)
Here, the present invention can be implemented in many different forms. Therefore, it should not be interpreted only by the description of the following embodiment.
In the embodiment, the apparatus will be mainly described. However, as is apparent to those skilled in the art, the present invention can also be implemented as a program usable on a computer. Further, the present invention can be implemented in hardware, software, or software and hardware embodiments. The program can be recorded on any computer-readable medium such as a hard disk, CD-ROM, DVD-ROM, optical storage device, or magnetic storage device. Furthermore, the program can be recorded on another computer via a network.
本発明に係る第1の実施形態では、対話のドメインとして、パソコン技術サポートを行うコールセンターでの質問応答を一例として取上げ、メールコールセンターでの約3年間の実務により集計された約35,000件の質問および回答のメールデータから取得したドメイン知識などを適用して誤り訂正を対話で行う対話処理について適用する。 In the first embodiment according to the present invention, as an example of a dialogue domain, a question and answer at a call center that provides personal computer technical support is taken as an example, and about 35,000 cases totaled by about 3 years of practice at a mail call center are collected. It applies to interactive processing that performs error correction interactively by applying domain knowledge obtained from email data of questions and answers.
[1.ハードウェア構成図.]
図1に本発明の第1の実施形態における自動回答装置のハードウェア構成図を示す。コンピュータ1は、例えば、CPU(Central processing Unit)2、メインメモリ3、HDD(Hard Disk Drive)4、ビデオカード5、マウス6、キーボード7、光学ディスク8等により構成される。なお、音声認識に必要な入力装置としてマイク、出力装置としてスピーカなどを外部接続することができる。また、音声認識エンジンとしては、市販のPC用音声認識ソフトウェアを使用することができる。対話方式は、音声のみだけでなく画像なども使うマルチモーダル対話方式を利用することができる。
[1. Hardware configuration diagram.]
FIG. 1 shows a hardware configuration diagram of an automatic answering apparatus according to the first embodiment of the present invention. The
[2.ブロック構成図]
図2に本発明の第1の実施形態における自動回答装置のブロック構成図を示す。話者の音声データは、音声入力部10から入力される。入力された音声データは、音声記憶部20に記憶される。ここで、音声記憶部20は、メインメモリ3やHDD4等が稼動する。なお、記録は、磁気記憶、光記憶、半導体記憶等で行うこともできる。そして、音声記憶部20から読み出された音声データは、音声認識部30において認識され、入力解析部50において文章解析される。音声データは、音声認識誤りや文章解析誤りがない場合に問題解決部70に送られる。問題解決部70では、話者からの質問文に対して適切な回答文を選択する。適切な回答文の音声データは、発話生成部80、音声出力部90において処理される。なお、音声データに限らず、キーボード等で書かれた文のデータも処理することができる。
[2. Block diagram]
FIG. 2 is a block diagram of the automatic answering apparatus according to the first embodiment of the present invention. The voice data of the speaker is input from the
[2.1 音声認識誤りの訂正]
音声認識において誤りがある場合には、音声認識誤りの訂正を行うために誤認識訂正部40で処理が行われる。音声認識の誤りを訂正する対話は、語の共起を使って誤りがあるかどうかの判定をし、誤りがある場合は対話の制御に基づく応答として、言い直しを要求するという手法をとる。なお、音声認識だけでなく、書かれた文に対する誤りも同様に訂正することができる。
[2.1 Correction of speech recognition errors]
If there is an error in speech recognition, the error
まず、誤認識判定部41においては、音声データが形態素解析部411、誤認識語抽出部412、共起度和計算部413、閾値計算部414に送られ、音声認識に誤りがあるか否かを判定する。
First, in the
具体的な例では、約16,500件のメールデータから質問文を抽出し、46,224文について、形態素解析器MeCabを用いて形態素解析を行い、品詞が名詞、動詞、形容詞のもので非自立語ではなく、かつ数でない語の同文中での他の語と共起度Cを調べたところ、13,942語についての共起度が得られた。ここで、1文中において、ある語aの他の語bとの共起度C(a,b)は、全質問文中の共起頻度cf(a,b)、語aと共起した語の数cn(a)を用いて、次式のように定義する。 In a specific example, a question sentence is extracted from about 16,500 mail data, morphological analysis is performed on 46,224 sentences using a morphological analyzer MeCab, and parts of speech are nouns, verbs, and adjectives. Examining the co-occurrence degree C with other words in the same sentence of words that are not independent words but not numbers, the co-occurrence degree for 13,942 words was obtained. Here, in one sentence, the co-occurrence degree C (a, b) of a word a with another word b is the co-occurrence frequency cf (a, b) in all question sentences and the word co-occurring with the word a. Using the number cn (a), it is defined as:
この値は語aの他の語bとの同じ文中での出現しやすさを表しているので、入力文中の各語xについて、文中の他の語Wiとの共起度の和
Since this value represents the ease of appearance in the same sentence with another word b from the word a, the sum of co-occurrence degrees with other words Wi in the sentence for each word x in the input sentence
を求めると、C(x)が低いものは、音声認識誤りによって発話とは違う語が認識された可能性が高く、逆にC(x)が高いものは、正確に認識できている可能性が高いと推測できる。
When C (x) is low, there is a high possibility that a word different from the utterance is recognized due to a speech recognition error, and conversely, a case where C (x) is high may be correctly recognized. Can be estimated.
そこで、音声認識された質問文を形態素解析部411が形態素解析し、誤認識語抽出部412において品詞が名詞、動詞、形容詞のもので非自立ではなく、かつ数でない語を取り出す。共起度和計算部413が取り出した各語について他の語との共起度の和C(x)を前述の方法で計算し、閾値計算部414が共起度の和の数値が閾値より低い語を認識誤りの語と判定する。なお、閾値は便宜的に0.01とするが、統計処理における経験的な数値を適用することもできる。
Therefore, the
一例として「パソコンの動作がとても遅い」という入力文に対しては、形態素解析の結果が図3のようになり、品詞が名詞、動詞、形容詞で非自立ではなく、かつ数でない「パソコン」「動作」「遅い」が取り出される。「パソコン」について他の2語との共起度の和を計算すると、
C(パソコン)=C(パソコン、動作)+C(パソコン、遅い)
=0.139954790
となり、同様に「動作」「遅い」についても計算すると、
C(動作)=0.0892583680999173
C(遅い)=0.0764621645888845
という結果になる。この場合どの値も閾値以上なので、正しく認識された語と判断できる。
As an example, for the input sentence “Personal computer is very slow”, the result of the morphological analysis is as shown in FIG. 3, and the part of speech is a noun, verb, adjective and is not independent, and is not a number. “Operation” and “Slow” are extracted. When calculating the sum of the co-occurrence of the “computer” with the other two words,
C (PC) = C (PC, operation) + C (PC, slow)
= 0.139954790
Similarly, when calculating “motion” and “slow”,
C (operation) = 0.08925836809999173
C (slow) = 0.07646221645888845
Result. In this case, since any value is equal to or greater than the threshold value, it can be determined that the word is correctly recognized.
音声認識の誤りの判定においては、統計的な処理がなされるため、話者との対話からの文例数が増加するに従って、共起度の和の数値の信頼性も増加し、音声認識誤りの精度も向上する。
誤認識判定部41により認識誤りがあると判定された場合に、訂正文作成部42、訂正文比較判定部43及び誤認識Y/N判定部44において行われる処理について以下に説示する。
Since the voice recognition error is judged statistically, the reliability of the sum of the co-occurrence levels increases as the number of example sentences from the dialogue with the speaker increases. Accuracy is also improved.
Processing performed in the corrected
音声認識誤りと判定された語がある場合は、訂正文作成部42が言い直し要求文を作成する。言い直しでは、余計な音声認識誤りを避けるために、正しく認識できた語の再入力を排し、誤り部分を含み、できるだけ前の入力より短い文であるほうがよい。よって作成する要求文は、質問のどこで認識誤りが起こったかがはっきり分かるものである必要がある。そこで、共起度を計算した語のうち、誤りと判定された語の1つ前の語までの入力文を使い、その後ろに「何ですか?」等と付け加えて言い直し要求文を作成する。また、誤りと判定された語の1つ前の語の品詞が名詞の場合、その直後に助詞がある時は言い直し要求文が自然な形になるようにその後も付け加える。
If there is a word determined to be a speech recognition error, the corrected
例えば「検索ワードの履歴を削除する方法を教えて下さい」という発話が「検索ワードの履歴を作物方法を教えて下さい」と誤認識された場合、図4に示すように形態素解析され、C(作物)=0.0になり名詞「作物」が誤りと判定されるので、「作物」の1つ前の語までの入力文「検索ワードの履歴」と名詞「履歴」の直後の助詞「を」使って、「検索ワードの履歴の何をですか?」という言い直し要求文が作成される。この言い直し要求文には、例えば「検索ワードの履歴がどうしましたか?」等、対話の制御に従って決まる色々な表現がある。この言い直し要求文に従って言い直された入力文を、訂正文比較判定部43が元の入力文と比較し、誤りと判定されていた語が異なっていた場合は訂正文作成部42が語を置換して訂正文を作成し、対話を次に進める。同じ場合はその語だけを使って「ですか?」または「と言いましたか?」と付け加えてYes/Noで返事ができる確認文を訂正文作成部42が作成する。ここで、言い直し要求文や確認文における文末表現をテンプレート化することもできる。誤認識Y/N判定部44において返事がYESであればそのまま対話を次に進め、Noであれば言い直し要求文からやり直す。
For example, if the utterance “Tell me how to delete the search word history” is misrecognized as “Tell me how to crop the search word history”, it is morphologically analyzed as shown in FIG. Crop) = 0.0 and the noun “Crop” is judged to be wrong. ”Is used to create a rephrasing request sentence“ What is in the search word history? ”. This restatement request sentence has various expressions that are determined according to the control of the dialogue, such as “How did the search word history change?”. The corrected sentence comparison /
図5に本発明の第1の実施形態に係る自動回答装置の音声認識誤りの訂正対話例を示す。
まず、ユーザ(話者)が、「文字を入力している途中にいきなり文字がへんてこなところに飛びます」と音声入力する。しかし、システム(コンピュータ1)が「文字を入力してる途中にいきなり文字がへんでもなところに飛びます」と誤認識する。そこで、システム(コンピュータ1)が「文字を入力してる途中にいきなり文字が何ですか?」と言い直し要求文を作成する。ユーザ(話者)が「変なところに飛びます」と訂正文を音声入力する。その結果、システム(コンピュータ1)が「文字を入力してる途中にいきなり文字が変なところに飛びます」と音声入力文を訂正することができる。
FIG. 5 shows an example of a speech recognition error correction dialogue of the automatic answering apparatus according to the first embodiment of the present invention.
First, the user (speaker) inputs a voice as “a character suddenly jumps to a complicated place while inputting characters”. However, the system (computer 1) mistakenly recognizes that “the character suddenly jumps to the wrong place in the middle of inputting the character”. Therefore, the system (computer 1) creates a request sentence by rephrasing “What is the character suddenly in the middle of inputting the character?”. A user (speaker) inputs a corrected sentence by voice, “Jump to a strange place”. As a result, the system (computer 1) can correct the voice input sentence “The character suddenly jumps to a strange place in the middle of inputting the character”.
[2.2 文章解析誤りの訂正]
文章解析において誤りがある場合には、文章解析誤りの訂正を行うために誤解析訂正部60で処理が行われる。文章解析誤りの訂正については、語の係り受け度を使って、入力文の係り受け解析結果で誤りの可能性がある係り受け関係を探し、見つかった場合は係り受けを確認するという手法をとる。その方法を以下に詳説する。
[2.2 Correction of sentence analysis errors]
If there is an error in the sentence analysis, the error
まず、誤解析判定部61においては、音声データが係り受け解析部611、誤解析語抽出部612、係り受け度計算部613、係り受け関係判定部614で処理され、文章解析に誤りがあるかを判定する。
First, in the
具体的な例を挙げると、質問文46,224文に対して、係り受け解析器CaboChaを用いて係り受け解析を行った。その解析結果から、品詞が名詞、動詞、形容詞、のもので非自立ではなく、かつ数でない語について、ある語aが語bに係っているとき、語aの語bとの係りやすさを係り受け度D(a,b)として調べた。係り受け度D(a,b)は全質問中で語aと語bが係り受け関係として出現した頻度df(a,b)、aと係り受け関係になった語の数dn(a)を用いて、次式のように定義する。 As a specific example, dependency analysis was performed on the question sentences 46 and 224 using the dependency analyzer CaboCha. From the analysis result, when a word a is related to the word b for a word that is part of a noun, a verb, or an adjective and is not independent and is not a number, it is easy to relate to the word b of the word a. Was determined as the degree of dependency D (a, b). The dependency degree D (a, b) is a frequency df (a, b) in which the words a and b appear as a dependency relationship in all questions, and the number dn (a) of the words in the dependency relationship with a. And defined as:
このとき語aの品詞が名詞で、その直後に助詞cがあるときは、語bに助詞cを加えて考え、助詞が違う係り受け関係は別のものとして扱った。D(a,b)は語a(まはた語aと助詞c)の語bとの係りやすさを表しているので、入力文を係り受け解析したときに、D(a,b)が低いものは、係り受け解析が誤っている可能性があり、逆にD(a,b)が高いものは、正確に係り受け解析ができている可能性が高いと推測できる。
At this time, when the part of speech of the word a is a noun, and there is a particle c immediately thereafter, the particle c is added to the word b, and the dependency relationship with different particles is treated as different. Since D (a, b) represents the ease with which the word a (or the word a and the particle c) is related to the word b, when the input sentence is subjected to dependency analysis, D (a, b) is A low value may indicate that the dependency analysis is erroneous, and conversely, a high value of D (a, b) can be estimated to have a high possibility that the dependency analysis is correctly performed.
前述のように係り受け解析は誤っている可能性があるので、この値を過度に信用することはできないが、大量の文を解析して、頻度を調べているので、係り受け解析の精度から言って誤りが大量に出てくることはないと期待して、どの語を係り受け解析誤りの訂正対象にするかの判断材料として使う。 As described above, dependency analysis may be wrong, so this value cannot be overly trusted, but since the frequency is examined by analyzing a large number of sentences, the accuracy of dependency analysis In other words, it expects that a large number of errors will not appear, and it is used as a decision material for determining which words are subject to correction of analysis errors.
係り受け解析部611が入力文を係り受け解析し、誤解析語抽出部612が入力文の各文節に対して、品詞が名詞、動詞、形容詞のもので非自立、数でない語を取り出す、このとき、文節内で名詞が連続しているときは、名詞として1つにまとめ、名詞の後に動詞「する」があるものは合わせて動詞とする。また、名詞の後に助詞があるものはその助詞も取り出しておく。さらにその文節が係っている文節内でも同様に名詞、動詞、形容詞の語を取り出し、係り受けの組を作る。係り受け度計算部613が係り受けの組について、前述の係り受け度D(a,b)を求め、さらに係り受け関係判定部614が語aの文中に出てくる他の語WiとのD(a、Wi)が存在する際は語aと語bの係り受けを確認するような発話を行う。
The
例えば、「メールの最初の設定が分からない」という入力に対しては、図6に示す係り受け解析の結果となり、D(メールの,最初),D(最初の,設定)、D(設定が,分かる)が計算される。「メールの」に対してはD(メールの,設定)、D(メールの,分かる)が計算され、
D(メールの,最初) =0.0
D(メールの,設定) =0.0177993527508091
D(メールの,分かる)=0.0
となり、「メールの」が「設定に」係るほうが係り受け度が大きいことが分かる。
For example, for an input of “I do not know the initial setting of mail”, the result of dependency analysis shown in FIG. 6 is obtained, and D (first of mail), D (first, setting), D (setting is , Understand) is calculated. For "email", D (email setting) and D (email understanding) are calculated,
D (first of mail) = 0.0
D (setting of mail) = 0.01777993527508091
D (I understand mail) = 0.0
Thus, it can be seen that the degree of dependency is higher when “Mail” is related to “Setting”.
文章解析の誤りの判定においては、統計的な処理がなされるため、話者との対話からの文例数が増加するに従って、係り受け関係の数値の信頼性も増加し、文章解析識誤りの精度も向上する。 誤解析判定部41により解析誤りがあると判定された場合に、係り受け文作成部62及び誤解析Y/N判定部63において処理される内容を以下に示す。
Since sentence analysis errors are statistically processed, as the number of sentence examples from conversations with speakers increases, the reliability of dependency-related numerical values also increases, and the accuracy of sentence analysis errors increases. Will also improve. The contents processed in the dependency
前述の係り受け解析より「メールの」が「設定に」係るほうが係り受け度が大きいことから「メールの最初ですか?」というYes/Noで返事ができる確認文を係り受け文作成部62が作成する。誤解析Y/N判定部63が返事がYesであればそのまま次の対話へ、Noの場合は「メールの設定です」といった訂正を含む返事ならば「メールの」係り先を「設定」に直して次の対話へ進む。訂正を含まない返事ならば、メールの係り受け度の高かった「設定」を用い、「メールの設定ですか?」という確認文を係り受け文作成部62が作成する。
Since the dependency level is higher when “Mail” is “Setting” than the dependency analysis described above, the dependency
図7に本発明の第1の実施形態に係る自動回答装置の文章解析誤りの訂正対話例を示す。
まず、ユーザ(話者)が、「子供がインストールしてあったアプリケーションを削除してしまった」と音声入力する。しかし、システム(コンピュータ1)が、音声認識後の文章解析において、「子供が」が「インストールする」に係るという解析結果を出す。そこで、システム(コンピュータ1)が「子供がインストールしてあったのですか?」と係り受けの確認文を作成する。ユーザ(話者)が「子供が削除してしまったんです」と確認文を音声入力する。その結果、システム(コンピュータ1)が「子供が」の係り先を「削除する」に訂正を行う。
FIG. 7 shows an example of a dialogue for correcting a sentence analysis error in the automatic answering apparatus according to the first embodiment of the present invention.
First, the user (speaker) inputs a voice saying that the application that the child has installed has been deleted. However, the system (computer 1) gives an analysis result that “children” relate to “install” in the sentence analysis after speech recognition. Therefore, the system (computer 1) creates a dependency confirmation message, "Is the child installed?" The user (speaker) inputs the confirmation sentence “Sound has been deleted” by voice. As a result, the system (computer 1) corrects the “children” relationship to “delete”.
[3.フローシート]
図8及び図9に本発明の第1の実施形態における自動回答装置のフローシートを示す。話者は、マイク等から音声を入力する(S100)。メインメモリ3やHDD4等の音声記憶部20が音声を記憶する(S200)。CPU2が記憶された音声の中から1文章を取り出す(S300)。音声認識部30が音声を認識する(S400)。誤認識判定部41が音声認識に誤りがあるか否かを判定する(S500)。音声認識に誤りがない場合には、入力解析部50が入力解析を行う(S600)。
[3. Flow sheet]
8 and 9 show a flow sheet of the automatic answering apparatus according to the first embodiment of the present invention. The speaker inputs voice from a microphone or the like (S100). The
音声認識に誤りがある場合に訂正文作成部42が言い直し要求文を作成する(S501)。音声出力部90が言い直し要求文を音声出力する(S502)。話者は言い直し要求文に対して、言い直し文の音声入力をする(S503)。音声認識部30が言い直し文の音声認識をする(S504)。訂正文比較判定部43が元の入力文との比較を行い(S505)、語が異なっているか否かの判定をする(S506)。語が異なっている場合は、訂正文作成部が語の置換を行い訂正文を作成する(S507)。語が異なっていない場合は、訂正文文作成部42が確認文を作成する(S508)。音声出力部90が音声出力をする(S509)。話者は確認文に対してYes又はNoの音声入力をする(S510)。音声認識部30がYes又はNoの音声認識をする(S511)。誤認識Y/N判定部44がYes又はNoの判定を行う(S512)。Noの場合には訂正文作成部42が言い直し要求文を改めて作成する(S501)。Yesの場合には入力解析部50が入力解析を行う(S600)。
When there is an error in the speech recognition, the corrected
誤解析判定部61が係り受けに誤りがあるか否かを判定する(S700)。係り受けに誤りがある場合に係り受け文作成部62が係り受け確認文を作成する(S701)。音声出力部90が係り受け確認文を音声出力する(S702)。話者は係り受け確認文に対して、Yes又はNoの音声入力をする(S703)。音声認識部30がYes又はNoの音声認識をする(S704)。誤解析Y/N判定部63がYes又はNoの判定を行う(S705)。Noの場合には係り受け文作成部62が係り受け確認文を改めて作成する(S701)。Yesの場合には、係り受け文作成部62が係り受け訂正文を作成する(S706)。そして、入力解析部50が改めて入力解析を行う(S600)。
The error
係り受けに誤りがない場合は、入力解析部60が次の文章があるか否かを判定する(S800)。次の文章がある場合には、音声認識部30が1文章を取り出す(S300)。次の文章がない場合には、問題解決部70が返答バターンの抽出を行う(S900)。音声出力部90が音声出力する(S1000)。
なお、上述の記載の音声に該当する部分は、音声だけに限られず、キーボード等で書かれた文なども含むものとする。
If there is no error in the dependency, the
It should be noted that the portion corresponding to the voice described above is not limited to the voice, but includes a sentence written with a keyboard or the like.
以上の前記各実施形態により本発明を説明したが、本発明の技術的範囲は実施形態に記載の範囲には限定されず、これら各実施形態に多様な変更又は改良を加えることが可能である。そして、かような変更又は改良を加えた実施の形態も本発明の技術的範囲に含まれる。このことは、特許請求の範囲及び課題を解決する手段からも明らかなことである。 Although the present invention has been described with the above embodiments, the technical scope of the present invention is not limited to the scope described in the embodiments, and various modifications or improvements can be added to these embodiments. . And embodiment which added such a change or improvement is also contained in the technical scope of the present invention. This is apparent from the claims and the means for solving the problems.
1 コンピュータ
2 CPU
3 メインメモリ
4 HDD
5 ビデオカード
6 マウス
7 キーボード
8 光学ディスク
10 音声入力部
20 音声記憶部
30 音声認識部
40 誤認識訂正部
41 誤認識判定部
42 訂正文作成部
43 訂正文比較判定部
44 誤認識Y/N判定部
50 入力解析部
60 誤解析訂正部
61 誤解析判定部
62 係り受け文作成部
63 誤解析Y/N判定部
70 問題解決部
80 発話生成部
90 音声出力部
411 形態素解析部
412 誤認識語抽出部
413 共起度和計算部
414 閾値計算部
611 係り受け解析部
612 誤解析語抽出部
613 係り受け度計算部
614 係り受け関係判定部
1 Computer 2 CPU
3 Main memory 4 HDD
5 Video Card 6
Claims (10)
前記形態素解析された文中の品詞が一定の条件を満たす語を取り出す語抽出手段と、
前記抽出された各語について他の語との共起度の和を求める共起度和計算手段と、
前記共起度の和の数値が所定の閾値より低い単語を入力誤りの語と判定する閾値判定手段と、
入力誤りと判定された語がある場合に訂正文を作成する訂正文作成手段
から構成される自動回答装置。 Morphological analysis means for morphological analysis of the input sentence;
Word extraction means for extracting words satisfying a certain condition in parts of speech in the sentence subjected to morphological analysis;
A co-occurrence degree sum calculating means for obtaining a sum of co-occurrence degrees with other words for each of the extracted words;
Threshold value determination means for determining a word whose sum of co-occurrence degrees is lower than a predetermined threshold value as an input error word;
An automatic answering device comprising corrected sentence creating means for creating a corrected sentence when there is a word determined to be an input error.
前記形態素解析された文中の品詞が一定の条件を満たす語を取り出す語抽出手段と、
前記抽出された各語について他の語との共起度の和を求める共起度和計算手段と、
前記共起度の和の数値が所定の閾値より低い単語を入力誤りの語と判定する閾値判定手段と、
入力誤りと判定された語がある場合に訂正文を作成する訂正文作成手段と、
前記訂正文に訂正前の文と比較して異なった語があるか否かを判定する訂正文比較判定手段と、
訂正文に誤りがあるか否かを判定するYes/No判定手段から構成される自動回答装置。 Morphological analysis means for morphological analysis of the input sentence;
Word extraction means for extracting words satisfying a certain condition in parts of speech in the sentence subjected to morphological analysis;
A co-occurrence degree sum calculating means for obtaining a sum of co-occurrence degrees with other words for each of the extracted words;
Threshold value determination means for determining a word whose sum of co-occurrence degrees is lower than a predetermined threshold value as an input error word;
A corrected sentence creating means for creating a corrected sentence when there is a word determined to be an input error;
A corrected sentence comparison judging means for judging whether or not the corrected sentence has a different word compared to the sentence before correction;
An automatic answering device comprising Yes / No determining means for determining whether or not there is an error in a corrected sentence.
前記係り受け解析された文中の品詞が一定の条件を満たす1の語を取り出す語抽出手段と、
前記抽出された1の語と他の語の組についての係り受け度を求める係り受け度計算手段と、
前記組同士の係り受け度の大小関係を判定する係り受け関係判定手段と、
前記係り受け度の低い語の組に係り受け訂正文を作成する係り受け訂正文作成手段
から構成される自動回答装置。 Dependency analysis means for dependency analysis of input sentences;
Word extracting means for extracting one word whose part of speech in the dependency analyzed sentence satisfies a certain condition;
A dependency degree calculating means for obtaining a dependency degree for the set of one extracted word and another word;
Dependency relationship determination means for determining the magnitude relationship of the dependency level between the groups;
An automatic answering device comprising dependency correction sentence creating means for creating a dependency correction sentence for a set of words having a low dependency degree.
前記文中の品詞が一定の条件を満たす1の語を取り出す語抽出手段と、
前記1の語と他の語の組を作り係り受け度を求める係り受け度計算手段と、
前記組同士の係り受け度の大小関係を判定する係り受け関係判定手段と、
係り受け度の低い語の組に係り受け訂正文を作成する係り受け訂正文作成手段と、
前記係り受け訂正文が誤りであるか否かを判定するYes/No判定手段
から構成される自動回答装置。 Dependency analysis means for dependency analysis of input sentences;
Word extraction means for extracting one word whose part of speech in the sentence satisfies a certain condition;
A dependency calculation means for making a set of the one word and another word to obtain a dependency;
Dependency relationship determination means for determining the magnitude relationship of the dependency level between the groups;
A dependency correction sentence creating means for creating a dependency correction sentence for a set of words having low dependency;
An automatic answering device comprising Yes / No determination means for determining whether or not the dependency correction text is an error.
前記形態素解析された文中の品詞が一定の条件を満たす語を取り出す語抽出手順と、
前記抽出された各語について他の語との共起度の和を求める共起度和計算手順と、
前記共起度の和の数値が所定の閾値より低い単語を入力誤りの語と判定する閾値判定手順と、
入力誤りと判定された語がある場合に訂正文を作成する訂正文作成手順
としてコンピュータを機能させる自動回答プログラム。 A morphological analysis procedure for morphological analysis of the input sentence;
A word extraction procedure for extracting words satisfying a certain condition in parts of speech in the sentence subjected to morphological analysis;
A co-occurrence degree sum calculation procedure for obtaining a sum of co-occurrence degrees with other words for each extracted word;
A threshold value determination procedure for determining a word whose sum of co-occurrence degrees is lower than a predetermined threshold value as an input error word;
An automatic answer program that causes a computer to function as a corrected sentence creation procedure for creating a corrected sentence when there is a word determined to be an input error.
前記形態素解析された文中の品詞が一定の条件を満たす語を取り出す語抽出ステップと、
前記抽出された各語について他の語との共起度の和を求める共起度和計算ステップと、
前記共起度の和の数値が所定の閾値より低い単語を入力誤りの語と判定する閾値判定ステップと、
入力誤りと判定された語がある場合に訂正文を作成する訂正文作成ステップ
から構成される自動回答方法。 A morphological analysis step for morphological analysis of the input sentence;
A word extraction step for extracting words satisfying a certain condition for part of speech in the sentence subjected to morphological analysis;
A co-occurrence degree sum calculating step for obtaining a sum of co-occurrence degrees with other words for each extracted word;
A threshold value determining step for determining a word whose sum of co-occurrence degrees is lower than a predetermined threshold value as an input error word;
An automatic answering method comprising a corrected sentence creating step for creating a corrected sentence when there is a word determined to be an input error.
前記係り受け解析された文中の品詞が一定の条件を満たす1の語を取り出す語抽出手順と、
前記抽出された1の語と他の語の組についての係り受け度を求める係り受け度計算手順と、
前記組同士の係り受け度の大小関係を判定する係り受け関係判定手順と、
前記係り受け度の低い語の組に係り受け訂正文を作成する係り受け訂正文作成手順
としてコンピュータを機能させる自動回答プログラム。 A dependency analysis procedure for dependency analysis of input sentences;
A word extraction procedure for extracting one word in which the part of speech in the dependency analyzed sentence satisfies a certain condition;
A dependency degree calculation procedure for obtaining a dependency degree for the set of one extracted word and another word;
A dependency relationship determination procedure for determining the magnitude relationship of the dependency between the groups;
An automatic answer program for causing a computer to function as a dependency correction sentence creation procedure for creating a dependency correction sentence for a group of words having a low dependency degree.
前記係り受け解析された文中の品詞が一定の条件を満たす1の語を取り出す語抽出ステップと、
前記抽出された1の語と他の語の組についての係り受け度を求める係り受け度計算ステップと、
前記組同士の係り受け度の大小関係を判定する係り受け関係判定ステップと、
前記係り受け度の低い語の組に係り受け訂正文を作成する係り受け訂正文作成ステップ
から構成される自動回答方法。 A dependency analysis step for dependency analysis of the input sentence;
A word extracting step of extracting one word in which the part of speech in the dependency analyzed condition satisfies a certain condition;
A dependency degree calculating step for obtaining a dependency degree for the set of the extracted one word and another word;
A dependency relationship determination step for determining the magnitude relationship of the dependency between the groups;
An automatic answering method comprising a dependency correction sentence creation step of creating a dependency correction sentence for a set of words having a low dependency degree.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007012882A JP5044783B2 (en) | 2007-01-23 | 2007-01-23 | Automatic answering apparatus and method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007012882A JP5044783B2 (en) | 2007-01-23 | 2007-01-23 | Automatic answering apparatus and method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2008180801A true JP2008180801A (en) | 2008-08-07 |
| JP5044783B2 JP5044783B2 (en) | 2012-10-10 |
Family
ID=39724766
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007012882A Active JP5044783B2 (en) | 2007-01-23 | 2007-01-23 | Automatic answering apparatus and method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5044783B2 (en) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012027065A (en) * | 2010-07-20 | 2012-02-09 | Nippon Telegr & Teleph Corp <Ntt> | Voice recognition method and apparatus for two-channel voice, and program |
| JP2012173432A (en) * | 2011-02-18 | 2012-09-10 | Toshiba Corp | Voice interactive device and voice interactive method |
| JP2014224860A (en) * | 2013-05-15 | 2014-12-04 | 日本放送協会 | Error correction model learning device and program |
| JP2019023674A (en) * | 2017-07-24 | 2019-02-14 | 株式会社システック | Voice input device dealing with excess sound mixture |
| JP2019046019A (en) * | 2017-08-31 | 2019-03-22 | ヤフー株式会社 | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM |
| JP2020516994A (en) * | 2017-03-29 | 2020-06-11 | 北京捜狗科技▲発▼展有限公司 | Text editing method, device and electronic device |
| CN113761843A (en) * | 2020-06-01 | 2021-12-07 | 华为技术有限公司 | Voice editing method, electronic device and computer readable storage medium |
| WO2023100291A1 (en) * | 2021-12-01 | 2023-06-08 | 日本電信電話株式会社 | Language processing device, language processing method, and program |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS6456498A (en) * | 1987-08-27 | 1989-03-03 | Matsushita Electric Industrial Co Ltd | Voice recognition |
| JPH096389A (en) * | 1995-06-22 | 1997-01-10 | Seiko Epson Corp | Voice recognition interactive processing method and voice recognition interactive device |
| JP2000250589A (en) * | 1999-03-04 | 2000-09-14 | Atr Interpreting Telecommunications Res Lab | Speech recognition error correction device |
| JP2002366543A (en) * | 2001-06-06 | 2002-12-20 | Matsushita Electric Ind Co Ltd | Document creation system |
| JP2003316386A (en) * | 2002-04-24 | 2003-11-07 | Toshiba Corp | Speech recognition method, speech recognition apparatus, and speech recognition program |
| JP2004021028A (en) * | 2002-06-18 | 2004-01-22 | Toyota Central Res & Dev Lab Inc | Voice interaction device and voice interaction program |
| JP2004045900A (en) * | 2002-07-12 | 2004-02-12 | Toyota Central Res & Dev Lab Inc | Voice interaction device and program |
| JP2006053470A (en) * | 2004-08-16 | 2006-02-23 | Nippon Telegr & Teleph Corp <Ntt> | Spoken dialogue sequence state notation method, program, and spoken dialogue apparatus |
-
2007
- 2007-01-23 JP JP2007012882A patent/JP5044783B2/en active Active
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS6456498A (en) * | 1987-08-27 | 1989-03-03 | Matsushita Electric Industrial Co Ltd | Voice recognition |
| JPH096389A (en) * | 1995-06-22 | 1997-01-10 | Seiko Epson Corp | Voice recognition interactive processing method and voice recognition interactive device |
| JP2000250589A (en) * | 1999-03-04 | 2000-09-14 | Atr Interpreting Telecommunications Res Lab | Speech recognition error correction device |
| JP2002366543A (en) * | 2001-06-06 | 2002-12-20 | Matsushita Electric Ind Co Ltd | Document creation system |
| JP2003316386A (en) * | 2002-04-24 | 2003-11-07 | Toshiba Corp | Speech recognition method, speech recognition apparatus, and speech recognition program |
| JP2004021028A (en) * | 2002-06-18 | 2004-01-22 | Toyota Central Res & Dev Lab Inc | Voice interaction device and voice interaction program |
| JP2004045900A (en) * | 2002-07-12 | 2004-02-12 | Toyota Central Res & Dev Lab Inc | Voice interaction device and program |
| JP2006053470A (en) * | 2004-08-16 | 2006-02-23 | Nippon Telegr & Teleph Corp <Ntt> | Spoken dialogue sequence state notation method, program, and spoken dialogue apparatus |
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012027065A (en) * | 2010-07-20 | 2012-02-09 | Nippon Telegr & Teleph Corp <Ntt> | Voice recognition method and apparatus for two-channel voice, and program |
| JP2012173432A (en) * | 2011-02-18 | 2012-09-10 | Toshiba Corp | Voice interactive device and voice interactive method |
| JP2014224860A (en) * | 2013-05-15 | 2014-12-04 | 日本放送協会 | Error correction model learning device and program |
| JP2020516994A (en) * | 2017-03-29 | 2020-06-11 | 北京捜狗科技▲発▼展有限公司 | Text editing method, device and electronic device |
| JP2019023674A (en) * | 2017-07-24 | 2019-02-14 | 株式会社システック | Voice input device dealing with excess sound mixture |
| JP2019046019A (en) * | 2017-08-31 | 2019-03-22 | ヤフー株式会社 | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM |
| JP7080609B2 (en) | 2017-08-31 | 2022-06-06 | ヤフー株式会社 | Information processing equipment, information processing methods, and information processing programs |
| CN113761843A (en) * | 2020-06-01 | 2021-12-07 | 华为技术有限公司 | Voice editing method, electronic device and computer readable storage medium |
| CN113761843B (en) * | 2020-06-01 | 2023-11-28 | 华为技术有限公司 | Voice editing method, electronic device and computer readable storage medium |
| WO2023100291A1 (en) * | 2021-12-01 | 2023-06-08 | 日本電信電話株式会社 | Language processing device, language processing method, and program |
| JPWO2023100291A1 (en) * | 2021-12-01 | 2023-06-08 | ||
| JP7772085B2 (en) | 2021-12-01 | 2025-11-18 | Ntt株式会社 | Language processing device, language processing method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5044783B2 (en) | 2012-10-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7580838B2 (en) | Automatic insertion of non-verbalized punctuation | |
| KR100996817B1 (en) | Generation of Large Graphoneme Units Using Mutual Information Criteria for Text-to-Speech Conversion | |
| JP5044783B2 (en) | Automatic answering apparatus and method | |
| US9501470B2 (en) | System and method for enriching spoken language translation with dialog acts | |
| US7412387B2 (en) | Automatic improvement of spoken language | |
| US7949536B2 (en) | Intelligent speech recognition of incomplete phrases | |
| US20090313019A1 (en) | Emotion recognition apparatus | |
| JP2001100781A (en) | Audio processing device, audio processing method, and recording medium | |
| KR102450823B1 (en) | User-customized interpretation apparatus and method | |
| CN101114447A (en) | Speech translation device and method | |
| KR20050076697A (en) | Automatic speech recognition learning using user corrections | |
| CN116933806A (en) | Concurrent translation system and concurrent translation terminal | |
| JP4818683B2 (en) | How to create a language model | |
| US10248649B2 (en) | Natural language processing apparatus and a natural language processing method | |
| JP2004226881A (en) | Conversation system and conversation processing program | |
| Catania et al. | Automatic Speech Recognition: Do Emotions Matter? | |
| JP5136512B2 (en) | Response generating apparatus and program | |
| Pugazhenthi et al. | AI-Driven Voice Inputs for Speech Engine Testing in Conversational Systems | |
| US6772116B2 (en) | Method of decoding telegraphic speech | |
| US20240420680A1 (en) | Simultaneous and multimodal rendering of abridged and non-abridged translations | |
| JP2003162524A (en) | Language processor | |
| Wang et al. | Second language speech recognition using multiple-pass decoding with lexicon represented by multiple reduced phoneme sets. | |
| JP2009198871A (en) | Voice interaction apparatus | |
| JP2001013992A (en) | Voice understanding device | |
| Ma et al. | Recognize foreign low-frequency words with similar pairs |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090925 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110415 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110426 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110621 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110802 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111003 |
|
| A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20111130 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120619 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |