JP2005275601A - Information retrieval system by voice - Google Patents
Information retrieval system by voice Download PDFInfo
- Publication number
- JP2005275601A JP2005275601A JP2004085341A JP2004085341A JP2005275601A JP 2005275601 A JP2005275601 A JP 2005275601A JP 2004085341 A JP2004085341 A JP 2004085341A JP 2004085341 A JP2004085341 A JP 2004085341A JP 2005275601 A JP2005275601 A JP 2005275601A
- Authority
- JP
- Japan
- Prior art keywords
- search
- information
- voice
- user
- item
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】利用者の発声内容から、検索項目にあらわれない利用者の要求を把握し、要求に応じた検索結果を提示するための検索を可能とする技術を提供する。
【解決手段】音声による情報検索システムは、情報検索を希望する利用者の発声内容を含む音声データから、検索項目に対するキーワードとなる認識語を抽出する検索項目抽出部と、音声データから利用者の感情に係る感情情報を抽出する音声情報抽出部と、認識語及び感情情報から、少なくとも1つの検索項目に対する検索条件を含む検索式を生成して出力する検索制御部とを含む。
【選択図】図1Provided is a technique that enables a search for presenting a search result corresponding to a request by grasping a user's request that does not appear in a search item from the utterance content of the user.
A speech information retrieval system includes a retrieval item extraction unit that extracts a recognition word that is a keyword for a retrieval item from speech data including a utterance content of a user who desires information retrieval, and a user's speech from the speech data. A voice information extraction unit that extracts emotion information related to emotion; and a search control unit that generates and outputs a search expression including a search condition for at least one search item from the recognized word and the emotion information.
[Selection] Figure 1
Description
ボイスポータルなど音声応答を利用して、利用者の希望する検索条件を入力し、情報を提供する音声応答サービス分野に関する。 The present invention relates to a voice response service field in which a search condition desired by a user is input by using a voice response such as a voice portal and information is provided.
近年、音声認識、音声合成、音声対話のような音声応答関連分野の技術的発達が著しい。音声応答サービスとは、音声関連技術を備えたシステムと利用者とが対話を行なうことによりシステムが利用者に対し、様々なサービスを提供するサービスである。代表的な音声応答サービスは、利用者がパソコンや電話から音声を用いてシステムにアクセスし、サービスを受けることができる、ボイスポータルである。 In recent years, technological development in speech response related fields such as speech recognition, speech synthesis, and speech dialogue has been remarkable. The voice response service is a service in which the system provides various services to the user through a dialogue between the system having the voice-related technology and the user. A typical voice response service is a voice portal that allows a user to access the system using voice from a personal computer or telephone and receive the service.
例えばWWW(World Wide Web)等を使用して、インターネットの検索エンジンでWebサイトを検索する場合、以下のような方法が取られてきた。
(1)検索条件の全ての項目を満たすデータのみを検索、表示する。
(2)検索条件に対して、予め設定された範囲を有効として、範囲内のデータを含めて検索する。
For example, in the case of searching a Web site with an Internet search engine using WWW (World Wide Web) or the like, the following methods have been taken.
(1) Search and display only data satisfying all items of the search condition.
(2) With respect to the search condition, a preset range is validated and a search is performed including data within the range.
また、評価結果の提示方法として、検索条件に重みづけをして評価を行ない、検索結果
に対して総合点を設け、総合点の高い順で検索された項目(アイテム)を提示する方法が一般的である(例えば、特許文献1)。
Also, as a method of presenting the evaluation results, a method is generally used in which the search conditions are weighted and evaluated, comprehensive points are provided for the search results, and items (items) searched in descending order of the comprehensive points are presented. (For example, Patent Document 1).
従来の音声応答システムにおいても、従来のWEB等での検索エンジンで使用される方法が一般的に用いられてきた。 Also in a conventional voice response system, a method used in a conventional search engine such as WEB has been generally used.
また、音声独自の検索しにくさを取り除く手段を含む技術として、例えば、音声応答時に得られる付属語を使用し、項目間の優先度変更などを実施する技術(例えば、特許文献
2)、及び、利用者の発話以外の周囲の状況から、情報検索を効率良く行うための情報を
抽出する技術(例えば、特許文献3)がある。
Web検索などでは、利用者が検索条件を目視しながら、設定したい検索条件を一度に設定することができる。このため、検索条件の設定、追加、変更を容易に行うことができる。また、項目間の重み付けの設定や、検索条件の範囲設定、1項目2条件の設定なども比較的容易に行なうことができる。 In Web search or the like, a user can set search conditions to be set at a time while viewing the search conditions. For this reason, it is possible to easily set, add, and change search conditions. In addition, setting of weighting between items, setting of search condition range, setting of one item and two conditions can be performed relatively easily.
しかしながら、音声応答システムにおいては、検索条件の設定が音声対話で行なわれる。このため、検索条件に関し、以下のような、音声独自の困難性が生じる。
(1)検索条件を視覚で確認することができない。また、一度に設定できる項目がWeb検索に比べて少ない。(2)重み付け、範囲設定、1項目2条件のような細かい検索条件の設定が困難である。(3)設定項目の読み上げによる確認などが行われるので、設定に時間がかかる。
However, in the voice response system, the search condition is set by voice dialogue. For this reason, the following voice-specific difficulties arise regarding the search conditions.
(1) The search condition cannot be visually confirmed. Also, fewer items can be set at a time than Web search. (2) It is difficult to set fine search conditions such as weighting, range setting, and one item / two conditions. (3) Since confirmation is performed by reading out setting items, it takes time to set.
特に、従来の音声応答システムによる検索では、利用者からの要求に応じた検索条件(
検索キーワードそのもの)と、予め定められている検索条件の緩和条件(検索対象データを検索条件に合致するものとしてヒットさせる範囲を定める基準)と、予め定められた検索
項目間の重み付け(項目を重視する順位)に基づいて、検索が行われていた。このように、予め定められた緩和条件及び重み付けが用いられていたため、利用者の意図が緩和条件や重み付けと十分に合致しない場合には、利用者が所望の検索結果を得ることができない場合があった。この場合には、再度の検索条件設定が必要となり、利用者が所望の検索結果を得るのに時間を要する可能性があった。
In particular, in the search by the conventional voice response system, the search condition according to the request from the user (
Search keywords themselves), relaxation conditions for predetermined search conditions (standards for determining the range to hit the search target data as matching the search conditions), and weighting between predetermined search items (emphasis on items) The search was performed on the basis of the ranking. As described above, since the predetermined relaxation conditions and weighting are used, if the user's intention does not sufficiently match the relaxation conditions and weighting, the user may not be able to obtain a desired search result. there were. In this case, it is necessary to set search conditions again, and it may take time for the user to obtain a desired search result.
本発明の目的は、上述した問題を解決するために、利用者の発声内容から、利用者の要求を把握し、要求に応じた検索結果を提示するための検索を可能とする音声による情報検索システムを提供することである。 In order to solve the above-described problems, an object of the present invention is to search information for grasping a user's request from the content of the user's utterance and presenting a search result according to the request. Is to provide a system.
本発明は、上述した目的を達成するため、以下の構成を採用する。すなわち、本発明は、 情報検索を希望する利用者の発声内容を含む音声データから、検索項目に対するキーワードとなる認識語を抽出する検索項目抽出部と、
前記音声データから利用者の感情に係る感情情報を抽出する音声情報抽出部と、
前記認識語及び感情情報から、少なくとも1つの検索項目に対する検索条件を含む検索式を生成して出力する検索制御部と、
を含む音声による情報検索システムである。
The present invention adopts the following configuration in order to achieve the above-described object. That is, the present invention provides a search item extraction unit that extracts a recognition word that is a keyword for a search item from voice data including a utterance content of a user who desires an information search,
A voice information extraction unit that extracts emotion information related to a user's emotion from the voice data;
A search control unit that generates and outputs a search expression including a search condition for at least one search item from the recognized word and emotion information;
Is a voice information retrieval system including
本発明によれば、検索のキーワードとしての認識語のみならず、利用者の感情情報を元にした検索条件を含む検索式が設定される。従って、感情情報から利用者の要求を把握し、利用者の要求に応じた検索結果を提示するための検索が可能となる。 According to the present invention, not only a recognition word as a search keyword but also a search expression including a search condition based on user emotion information is set. Therefore, it is possible to perform a search for grasping a user's request from emotion information and presenting a search result according to the user's request.
好ましくは、本発明による情報検索システムは、前記検索制御部が、前記感情情報に基づいて、検索に係る複数の検索項目に対する重み付け値を決定し、
前記重み付け値を格納する格納部と、
前記検索式に合致する少なくとも1つの検索結果データを受け取った場合に、前記格納部に格納された重み付け値を用いて、各検索結果データに対する評価を行う検索結果評価部とをさらに含む。
Preferably, in the information search system according to the present invention, the search control unit determines weight values for a plurality of search items related to the search based on the emotion information,
A storage unit for storing the weight values;
And a search result evaluation unit that evaluates each search result data using the weighting value stored in the storage unit when at least one search result data matching the search formula is received.
このようにすれば、検索結果評価部が、設定された重み付けを用いた検索結果データの評価を行い、複数の検索結果データを受け取った場合に、これらの中から、利用者の要求に応じた検索結果を抽出し、提供することが可能となる。 In this way, when the search result evaluation unit evaluates the search result data using the set weighting and receives a plurality of search result data, the search result evaluation unit responds to the user's request from these. Search results can be extracted and provided.
好ましくは、本発明による情報検索システムは、前記音声情報抽出部が、(1)利用者の声の大きさ,(2)音声データに含まれる無音時間の長さ,(3)前記認識語として認識されない単語としての不要語,(4)音声データ中の利用者の発声内容に含まれる未知語の割合、の少なくとも1つを示す情報を、前記感情情報として抽出する。 Preferably, in the information search system according to the present invention, the voice information extraction unit includes (1) a loudness of a user's voice, (2) a length of silent time included in voice data, and (3) a recognition word. Information indicating at least one of unnecessary words as unrecognized words and (4) the ratio of unknown words contained in the utterance content of the user in the voice data is extracted as the emotion information.
また、本発明は、上述した情報検索システムと同様の特徴を持つ、情報検索方法、プログラム、及びこのプログラムを記録したコンピュータ読み取り可能な記録媒体として特定することが可能である。 Further, the present invention can be specified as an information search method, a program, and a computer-readable recording medium on which the program is recorded, having the same characteristics as the information search system described above.
本発明によれば、利用者の発声内容から、利用者の要求を把握し、要求に応じた検索結果を得るための検索を可能とする音声による情報検索システムを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the information search system by the audio | voice which enables the search for grasping | ascertaining a user's request | requirement from a user's utterance content and obtaining the search result according to a request | requirement can be provided.
以下、図面を参照して本発明の実施形態を説明する。実施形態の構成は例示であり、本発明は実施の形態の構成に限定されない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The configuration of the embodiment is an exemplification, and the present invention is not limited to the configuration of the embodiment.
〔第1実施形態〕
〈システム構成〉
最初に、本発明による音声応答システムの第1実施形態について説明する。図1は、本発明による音声応答システムの実施形態を示す。図1で示される音声応答システムは、例として、検索項目抽出部2と、検索制御部3と、検索条件蓄積部4と、データ蓄積部8と、検索結果評価部9と、メッセージ合成部10と、音声情報抽出部12とを備える検索装置14と、検索装置14に接続される音声入力部1及びメッセージ出力部11とを備える。
[First Embodiment]
<System configuration>
First, a first embodiment of the voice response system according to the present invention will be described. FIG. 1 shows an embodiment of a voice response system according to the present invention. The voice response system shown in FIG. 1 includes, for example, a search
音声入力部1は、マイクロフォンを含む音声入力装置を用いて構成される。音声入力部1と、検索装置13との間は、ネットワークによって接続されていてもよい。この場合、音声入力部1として、パソコン(PC),ワークステーション(WS),PDA(Personal Digital Assistants),及び電話機のような音声通信(送信)機能を持つ機器を適用すること
ができる。
The
また、メッセージ出力部11は、スピーカを含む音声出力装置を用いて構成される。メッセージ出力部11と検索装置13との間は、ネットワークによって接続されていてもよい。この場合、メッセージ出力部11として、PC,WS,PDA,及び電話機のような音声通信(受信)機能を持つ機器を適用することができる。また、メッセージ出力部11は、ディスプレイ装置のような情報をテキストや画像で示す表示装置を含んでいても良い。
The
以上より、音声入力部1及びメッセージ出力部11は、音声入力装置及び音声出力装置を持つ、PC,WS,PDA,電話機(固定電話機及び携帯電話機)を用いて構成することができる。音声入力部1及びメッセージ出力部11は、検索装置14側で用意されるものであっても良く、利用者側で用意されるものであっても良い。
As described above, the
音声入力部1には、音声検索を行うための利用者の音声が入力される。音声入力部1は、入力された音声に対応する音声データを生成し、検索項目抽出部2及び音声情報抽出部12に与える。
The
検索項目抽出部2は、音声入力部1から入力される音声データに対する音声認識処理を行い、予め登録されている検索項目に対応するキーワードを認識語として認識するように構成されている。検索項目抽出部2は、認識語として抽出したキーワードのテキストデータを検索制御部3に与える。検索項目抽出部2として、既存の音声認識エンジンを適用することができる。
The search
音声情報抽出部12は、音声入力部1から入力される音声データに対する音声認識処理,音量測定,無音時間の測定などを行い、利用者の話し方(感情)に係るデータを抽出する。例えば、音声情報抽出部12は、音声データ(利用者の発声内容)中の声が比較的大きい部分、発声内容中の沈黙(無音時間)の長さ(間合い)、利用者の要求内容ではない単語(キ
ーワード(認識語)の抽出に不要な単語:「不要語(ストップワード)」と称する)、音声認
識システムに登録されていない単語(「未知語」と呼ばれる)などを利用者の感情情報として抽出し、抽出された感情情報を検索制御部3に与える。
The voice
検索条件蓄積部4は、情報検索に必要な複数の検索項目に対応する検索条件(キーワー
ド)5と、検索条件の緩和条件(キーワードと完全一致しないが条件に合致するデータとしてヒットさせる範囲を定める基準)6と、検索項目間の重み付け(検索にあたってどの項目
を重視するかの基準)7とを利用者毎に蓄積する。また、検索条件蓄積部4は、利用者毎
の音声情報反映基準13を蓄積する。
The search
検索制御部3は、検索条件蓄積部4に蓄積された検索条件5、緩和条件6、及び重み付け7と、検索項目抽出部2から入力される認識語(キーワード)と、音声情報抽出部12から得られる感情情報とに基づいて、情報検索に適用する検索方法データを生成し、データ蓄積部8に与える。
The
具体的には、検索制御部3は、検索項目抽出部2から得られるキーワードそのものを、このキーワードに対応する検索項目の検索条件としてそのまま設定する。また、検索制御部3は、音声情報抽出部12から感情情報が得られている場合には、その感情情報の内容に応じた緩和条件及び/又は重み付けを決定する。このとき、検索制御部3は、(1)キーワードが自由な対話とシナリオを持つ対話とのどちらにより得られたか、(2)キーワードが何回目の音声入力により得られたか、などを重み付けの決定要素として考慮することができる。
Specifically, the
このとき、既に設定されている緩和条件及び/又は重み付けがある場合には、これらの内容(設定値)が変更される。このようにして、検索制御部3は、キーワード及び感情情報を用いて最終的に得られる各検索項目の検索条件,緩和条件を検索方法データとして生成する。そして、検索制御部3は、検索方法データを、データ蓄積部8に与える。
At this time, if there are already set relaxation conditions and / or weights, these contents (setting values) are changed. In this way, the
データ蓄積部8は、検索対象のデータを蓄積している。データ蓄積部8は、検索制御部3から与えられる検索方法データにより指定される検索条件及び緩和条件に合致するデータを検索し、検索結果のデータを検索結果評価部9に与える。
The
検索結果評価部9は、データ蓄積部8から得られる検索結果の評価を、検索条件蓄積部4に蓄積された重み付け7及び音声情報反映基準13に基づいて行い、その評価結果が反映された検索結果をメッセージ合成部10に対して出力する。すなわち、検索結果評価部9は、重み付け7及び音声情報反映基準13に基づき、データ蓄積部8から受け取った検索結果から出力すべき検索結果を選出し、選出した検索結果をメッセージ合成部10に対して出力する。
The search
メッセージ合成部10は、利用者の状況に応じた様々な音声メッセージをメッセージ出力部に与える。例えば、メッセージ合成部は、音声応答システムの利用に係るガイダンス(案内)メッセージをメッセージ出力部11に与える。また、メッセージ合成部10は、検索結果評価部9から検索結果を受け取った場合には、検索結果を説明する音声などとの合成処理を行い、合成の結果として得られるメッセージをメッセージ出力部11に対して出力する。
The
メッセージ出力部11は、メッセージの音声を外部に出力する。利用者は、メッセージ出力部11から出力されるメッセージを聞くことができる。利用者は、メッセージ出力部11から出力される音声ガイダンスや問い合わせのメッセージに対して、音声入力部1を用いて回答(音声入力)を行うことができる。また、利用者はメッセージ出力部11から検索結果を受け取ることができる。
The
なお、上述した検索装置14では、例えば、検索結果評価部9が、評価結果に基づき、さらなる検索が必要と判断する場合には、検索結果の代わりに、さらなる検索条件の入力を促すメッセージが利用者に与えられる。これに対し、利用者がさらなる検索条件を音声入力すると、この検索条件に対する検索及び評価が行われる。検索結果評価部9は、さらなる評価結果を行い、検索結果を利用者に提供する条件が満たされると、検索結果をメッ
セージ合成部10に与える。
In the
検索装置14は、パソコン(PC)、ワークステーション(WS)のような、CPU(Central Processing Unit),主記憶(RAM(Random Access Memory)等),補助記憶(ROM(Read Only Memory),EEPROM(Electrically Erasable Programmable Read-Only Memory),ハードディスク等),及び通信インタフェースを備え、さらに、必要に応じて入力装
置(キーボード,ボタン,ポインティングデバイス(例えばマウス)等)、及び出力装置(デ
ィスプレイ、プリンタ等)を備える汎用又は専用の情報処理装置(コンピュータ)を用いて
構成することができる。
The
検索項目抽出部2,検索制御部3,検索結果評価部9,メッセージ合成部10のそれぞれが持つ機能、及びデータ蓄積部8の検索機能は、例えば、CPUが補助記憶に記憶されたプログラムを主記憶にロードして実行することにより実現される。あるいは、これらの各部は、これらが持つ機能を実現するためのASIC(Application Specific Integrated
Circuit)のようなハードウェアチップにより実現することも可能である。
The functions of each of the search
It can also be realized by a hardware chip such as Circuit).
また、データ蓄積部8において蓄積されるデータの蓄積領域として、検索装置14内の補助記憶や、検索装置14とネットワークを通じて接続されるファイルサーバのようなネットワーク上に位置する記憶領域を適用することができる。また、データ蓄積部8は、検索装置14とネットワークを介して接続され、検索装置14から与えられる検索方法データに対する検索結果を検索装置に返す外部装置として構成することも可能である。
Further, as a storage area of data stored in the
また、検索条件蓄積部4として、RAM、EEPROM、ハードディスクのような記憶装置を適用することができる。
Further, as the search
次に、図1に示したような音声応答システムが不動産の賃貸物件情報検索サービスに適用される場合において、「家賃」、「間取り」、「最寄駅」、「最寄駅からの所要時間」、及び「ペット可」の5つの検索項目に対する検索条件を設定して物件を検索する場合を例として説明する。 Next, when the voice response system as shown in FIG. 1 is applied to the rental property information search service for real estate, “Rent”, “Room layout”, “Nearest station”, “Time required from the nearest station” ”And“ pet allowed ”will be described as an example in which search conditions are set for five search items and a property is searched.
図2は、賃貸物件情報の検索サービスにおける対話例を示す。図2には、利用者が、検索サービスシステムに対し、電話をかけて対話を行う例が示されている。図2において、利用者がシステムに対して電話をかけると、システムから「どのような物件をお探しでしょうか?」との音声による質問が利用者に与えられる。 FIG. 2 shows an example of dialogue in the rental property information search service. FIG. 2 shows an example in which a user makes a telephone conversation with the search service system. In FIG. 2, when a user calls the system, the system gives a voice question “What kind of property are you looking for?” To the user.
このとき、利用者が、例えば「ワンルームで、(間)えーっと、8万円くらい」との回答をシステムに返す。このとき、システムは、この回答に基づく検索を行う。このとき得られる検索結果が、利用者に検索結果を提示する条件を満たしていない場合には、システムは、例えば、「他に条件はありますか?」との質問を利用者に与える。この質問に対し、利用者が「新宿駅あたりでお願いします」との回答をシステムに返す。 At this time, the user returns, for example, a reply “for example, one room, (between) about 80,000 yen” to the system. At this time, the system performs a search based on this answer. If the search result obtained at this time does not satisfy the condition for presenting the search result to the user, the system gives the user a question “Is there any other condition?”, For example. In response to this question, the user returns an answer “Please do around Shinjuku Station” to the system.
すると、システムは、利用者から得た回答に基づいて、対応する物件を検索する。そして、検索が終了し、検索結果を利用者に提示する条件が満たされると、システムは、「ご希望の物件が**件になりました。物件をご案内致します」との、検索結果の音声メッセージを利用者に返す。このような対話がシステムと利用者との間で行われる。以下、このような対話を通じて行われる情報検索について詳細に説明する。 Then, the system searches for a corresponding property based on the answer obtained from the user. When the search is completed and the conditions for presenting the search results to the user are satisfied, the system will display a search result saying that the desired property has been **. Return a voice message to the user. Such a dialogue takes place between the system and the user. Hereinafter, information retrieval performed through such dialogue will be described in detail.
図3は、本発明に係る音声応答システム(検索装置14)による情報検索の流れを示すフローチャートである。図3に示すフローは、検索装置14の利用者が、電話などの音声入力部1を用いて検索装置14にアクセスすることによって開始する。
FIG. 3 is a flowchart showing a flow of information search by the voice response system (search device 14) according to the present invention. The flow shown in FIG. 3 starts when the user of the
最初に、検索装置14は、利用者に対し、検索条件について、自由な音声入力を行うことを促す問合せを実施する(ステップS01)。例えば、検索装置14は、利用者に対し、検索希望の項目の種類や項目数を自由に音声入力することを促す案内メッセージをメッセージ出力部11を介して利用者に与える。このとき、例えば、図2に示す「どのような物件をお探しでしょうか」のような、問い合わせのメッセージが利用者に与えられる。
First, the
次に、検索装置14は、利用者からの回答に係る音声データを音声入力部1を介して受け取る(ステップS02)。このとき、検索装置14は、例えば、図2に示す「ワンルームで、(沈黙)えーっと、8万円くらい」との発声に基づく音声データを受け取る。
Next, the
すると、検索装置14は、検索項目抽出部2で、音声データに含まれるキーワードを抽出し、検索制御部3で、抽出されたキーワードに基づく検索条件を設定する(ステップS
03)。図2の例では、例えば、回答中の「ワンルーム」が間取りに対する検索条件とし
て設定されるとともに「8万円」が家賃に対する検索条件として設定される。
Then, the
03). In the example of FIG. 2, for example, “One Room” in the answer is set as a search condition for the floor plan, and “80,000 yen” is set as a search condition for the rent.
また、検索装置14は、利用者の回答の特徴を解析する(ステップS04)。すなわち、音声情報抽出部12が、回答に係る音声データ、すなわち回答時の利用者の発声内容(話
し方)から、例えば(1)回答時の声の大きさ、(2)回答の行われるタイミング、及び(3)
不要語、(4)回答を未知語が占める割合のような感情情報を抽出する。
Further, the
Unnecessary words, (4) Emotion information such as the ratio of unknown words in answers is extracted.
続いて、検索制御部3が、音声情報抽出部12による抽出結果に基づいて、検索項目に対する緩和条件や重み付けを設定する(ステップS03)。このとき、検索制御部3は、回答の行われた問い合わせ(回答を得るために行った問い合わせの内容)を、緩和条件や重み付けの変更に適用することもできる。
Subsequently, the
図2に示す例では、例えば、回答中の「8万円くらい」の「くらい」が、不要語として抽出され、家賃に対する検索条件「8万円」を緩和する(ヒットする範囲を広げる)要素として用いられ、これに基づく緩和条件が設定される。 In the example shown in FIG. 2, for example, “about” of “about 80,000 yen” in the answer is extracted as an unnecessary word, and the search condition “80,000 yen” for rent is relaxed (expanding the hit range). And a relaxation condition based on this is set.
次に、検索装置14は、検索対象データの評価を行う。すなわち、検索制御部3がステップS03及びS04で設定された検索条件及び緩和条件をデータ蓄積部8に与え、データ蓄積部8は、検索条件及び緩和条件に合致するデータを検索結果として検索結果評価部9に与える。検索結果評価部9は、検索結果を受け取ると、検索条件蓄積部4に設定されている音声情報反映基準13を用いて検索結果を評価を行う。
Next, the
次に、検索装置14は、情報提供/検索続行の確認処理を行う(ステップS06、S0
7)。すなわち、検索装置14は、検索結果評価部9による検索結果の評価に基づき、検
索結果情報を利用者に提供するか、あるいは検索を続行するかの総合的な判断を行う。このような判断は、例えば、検索結果評価部9や検索制御部3で行うことができる。
Next, the
7). That is, based on the evaluation of the search result by the search
判断の結果、情報提供を行う場合(S07;Yes)には、ステップS12に処理が進み、情報提供処理が行われ、検索結果情報がメッセージ合成部10及びメッセージ出力部11を介して利用者に提供される。
If information is provided as a result of the determination (S07; Yes), the process proceeds to step S12, the information providing process is performed, and the search result information is transmitted to the user via the
これに対し、検索を続行すると判断される場合(S07;No)には、検索装置14は、利用者の状況を解析する(ステップS08)。例えば、検索制御部3や検索装置14内の他の部位において、前回の回答で検索条件が得られていない検索項目(未決定検索条件)の有無を判断する(ステップS09)。
On the other hand, when it is determined that the search is continued (S07; No), the
未決定の検索条件がある場合(S09;Yes)には、処理がステップS01に戻り、さらなる自由な回答を求める問い合わせが行われる。図2に示す例では、「他に条件はありますか」との問い合わせが行われる。これに対し、例えば、「新宿あたりで、お願いします」との回答が得られる。 If there is an undetermined search condition (S09; Yes), the process returns to step S01, and an inquiry for further free answer is made. In the example shown in FIG. 2, an inquiry “Is there any other condition?” Is made. On the other hand, for example, an answer “Please do around Shinjuku” is obtained.
一方、未決定の検索条件がない場合(S09;No)には、検索条件の各検索項目に対する問い合わせが利用者に対して行われる。問い合わせに対する利用者からの回答が得られると(ステップS11)、処理がステップS03に進む。 On the other hand, when there is no undetermined search condition (S09; No), an inquiry about each search item of the search condition is made to the user. When an answer from the user to the inquiry is obtained (step S11), the process proceeds to step S03.
以下、上述したような流れにおける処理を詳細に説明する。
(1)データの蓄積
最初に、情報検索を実施するためのデータの蓄積について説明する。検索の対象となる検索対象データは、データ蓄積部8に予め登録されている。
Hereinafter, the process in the flow as described above will be described in detail.
(1) Accumulation of data First, the accumulation of data for performing information retrieval will be described. Search target data to be searched is registered in the
また、検索装置14の検索条件蓄積部4には、検索及びその評価にあたって必要となる情報として、(1)物件を案内する件数、(2)評価を行う各項目間の重み付け(初期値)
、(3)各項目の検索条件に対する、検索対象データを評価する関数(初期状態)、(4)利用者の入力した検索条件と、重み付けや関数を利用して物件情報への総合評価を行う関数、及び(5) 利用者の希望に近いと判断する閾値(総合評価閾値)が、予め登録されてい
る。これらの情報(1)〜(5)は、検索結果評価部9による処理に利用される音声情報反映基準13を構成する情報として取り扱われる。
Further, the search
, (3) A function (initial state) that evaluates the search target data for the search conditions of each item, (4) A comprehensive evaluation of the property information using the search conditions entered by the user, weights and functions Functions and (5) threshold values (total evaluation threshold values) that are determined to be close to the user's wishes are registered in advance. These pieces of information (1) to (5) are handled as information constituting the audio information reflection standard 13 used for processing by the search
図4は、物件を案内する件数の設定例を示す。図4には、物件の案内件数を登録するテーブルが示されている。このテーブルには、件数の例示として、“10”が設定されている。案内件数は適宜の値を設定することができる。図4に示すようなテーブルは、検索条件蓄積部4上に作成することができる。
FIG. 4 shows a setting example of the number of cases for guiding a property. FIG. 4 shows a table for registering the number of property guides. In this table, “10” is set as an example of the number of cases. An appropriate value can be set for the number of guidance cases. A table as shown in FIG. 4 can be created on the search
図5は、評価を行う各項目間の重み付け(初期値)の例を示す。図5には、評価を行うための複数の項目(ここでは、「家賃」、「間取り」、「最寄り駅」、「最寄り駅までの所要時間」、「ペット可」)に対する検索条件、緩和条件、及び重み付けを登録するためのテーブルが示されている。 FIG. 5 shows an example of weighting (initial value) between items to be evaluated. FIG. 5 shows search conditions and relaxation conditions for a plurality of items for evaluation (here, “rent”, “room layout”, “nearest station”, “time required to nearest station”, “pet allowed”). And a table for registering weights.
図5に示す例では、テーブルは、項目(検索項目)、検索条件、緩和条件、重み付けを要素とする1以上のレコードで構成されている。このテーブルに登録される検索条件、緩和条件、重み付けは、それぞれ、利用者の検索要求に対する検索条件5,緩和条件6,重み付け7として取り扱われる。このようなテーブルは、検索条件蓄積部4上に作成することができる。
In the example illustrated in FIG. 5, the table includes one or more records having items (search items), search conditions, relaxation conditions, and weights as elements. The search conditions, relaxation conditions, and weights registered in this table are handled as
図5に示す例では、重み付けの初期値として、「家賃」、「間取り」、「最寄り駅」、「最寄り駅までの所用時間」の各項目に対し、“3”,“2”,“2”,“1”が設定されている。なお、初期状態では、例えば、各項目の検索条件として“未設定”が設定され、緩和条件として“なし”が設定される。 In the example shown in FIG. 5, “3”, “2”, “2” are set as initial values of the weights for the items “rent”, “room layout”, “nearest station”, and “time required to the nearest station”. "," 1 "is set. In the initial state, for example, “not set” is set as the search condition for each item, and “none” is set as the relaxation condition.
図6は、各項目の検索条件に対する、検索対象データを評価する評価関数(初期状態)の例を示す。図6には、検索項目“家賃”に対する評価関数の例が示されている。図6に示す評価関数のパラメータは、検索項目に対応する属性値(ここでは家賃の金額)と利用者の満足度である。 FIG. 6 shows an example of an evaluation function (initial state) for evaluating search target data with respect to the search condition of each item. FIG. 6 shows an example of an evaluation function for the search item “rent”. The parameters of the evaluation function shown in FIG. 6 are an attribute value (here, the amount of rent) corresponding to the search item and the satisfaction level of the user.
検索時に利用者によって指定される家賃に対する満足度が基準値とされる。指定家賃に対して、家賃が安すぎても、高すぎても満足度が小となる。具体的には、指定家賃よりも
家賃が安ければ、徐々に満足度が減少する。一方、指定家賃よりも家賃が高くなると、急激に満足度が低下する。このような評価関数は、項目毎に用意され、検索条件蓄積部4に登録することができる。
Satisfaction with the rent specified by the user at the time of search is used as the reference value. Satisfaction is low if the rent is too low or too high for the designated rent. Specifically, if the rent is lower than the designated rent, the satisfaction level gradually decreases. On the other hand, when the rent is higher than the designated rent, the satisfaction level is drastically reduced. Such an evaluation function is prepared for each item and can be registered in the search
各項目の検索条件に対する検索対象データを評価する関数として、項目の属性に応じた4種類のパターン(二値型、離散値型、対象型連続関数、非対象型連続関数)が用意され、検索条件蓄積部4に登録される。これらの評価関数により、各項目に対する利用者の満足度の数値化が行われる。
Four types of patterns (binary type, discrete value type, target type continuous function, non-target type continuous function) corresponding to the item attributes are prepared as functions for evaluating the search target data for each item search condition. Registered in the
図7は、検索対象データの評価関数のパターンを示す。図7(A)は、二値型の評価関数パターンを示し、図7(B)は、離散値型の評価関数パターンを示し、図7(C)は、対称型連続関数の評価関数パターンを示し、図7(D)は、非対称型連続関数の評価関数パターンを示す。 FIG. 7 shows a pattern of the evaluation function of the search target data. 7A shows a binary evaluation function pattern, FIG. 7B shows a discrete evaluation function pattern, and FIG. 7C shows a symmetric continuous function evaluation function pattern. FIG. 7 (D) shows an evaluation function pattern of an asymmetric continuous function.
二値型は、図7(A)に示すように、“満足(条件が満たされる)”と“不満足(条件が満
たされない)”との一方の値がとられる。例えば、“ペットを飼うことができる/できな
い”のような検索項目が、二値型に該当する。
As shown in FIG. 7A, the binary type takes one value of “satisfied (condition is satisfied)” and “unsatisfied (condition is not satisfied)”. For example, a search item such as “Can / cannot keep a pet” corresponds to a binary type.
離散値型は、図7(B)に示すように、飛び飛びの値を有し、項目について指定される値(基準値)に近くなるほど満足度が高くなる。例えば、“最寄り駅”のような検索項目が、離散値型に該当する。 As shown in FIG. 7B, the discrete value type has a jump value, and the degree of satisfaction increases as the value becomes closer to the value (reference value) specified for the item. For example, a search item such as “nearest station” corresponds to a discrete value type.
対称型連続関数型では、図7(C)に示すように、項目に対して指定される値(基準値)から遠くなるに従って、左右対称に満足度が減少する。例えば、“最寄駅からの所要時間”のような検索項目が、対称型連続関数に該当する。 In the symmetric continuous function type, as shown in FIG. 7C, the degree of satisfaction decreases symmetrically as the distance from the value (reference value) specified for the item increases. For example, a search item such as “required time from the nearest station” corresponds to a symmetric continuous function.
非対象型連続関数型では、図7(D)に示すように、項目に対して指定される値(基準値)から遠くなるに従って、左右非対称に満足度が減少する。例えば、“家賃”のような検索項目が、非対称連続関数型に該当する。 In the non-objective continuous function type, as shown in FIG. 7D, the degree of satisfaction decreases asymmetrically with distance from the value (reference value) specified for the item. For example, a search item such as “rent” corresponds to the asymmetric continuous function type.
上述したような4つのパターンの評価関数によって、それぞれの検索項目に対し、入力された検索項目から多少ずれても許容される範囲(基本許容範囲)が定義される。これらの評価関数は、例えば、市場調査のようなサンプル収集によって得られる統計値を元に作成することができる。 By the evaluation functions of the four patterns as described above, a permissible range (basic permissible range) is defined for each search item even if it slightly deviates from the input search item. These evaluation functions can be created based on statistical values obtained by sample collection such as market research.
図8は、利用者の入力した検索条件と、重み付け及び評価関数を利用して物件情報への総合評価を行う関数の例を示す。図8(A)に示す式は、基本の総合評価式である。この基本総合評価式では、各項目の重み付けと満足度との積の合計点が総合評価点として扱われる。 FIG. 8 shows an example of a function that performs comprehensive evaluation on property information using a search condition input by a user, weighting, and an evaluation function. The formula shown in FIG. 8A is a basic comprehensive evaluation formula. In this basic comprehensive evaluation formula, the total score of the products of weighting and satisfaction of each item is treated as a comprehensive evaluation score.
図8(B)に示す式は、二値型の項目の満足度を重視した総合評価である。この総合評価式では、二値型の項目を除く各項目の重み付けと満足度との積の合計点に、二値型の項目に対する重み付けと満足度との積が積算された値が総合評価点として扱われる。 The formula shown in FIG. 8B is a comprehensive evaluation that places importance on the satisfaction of binary type items. In this comprehensive evaluation formula, the total score of the product of the weight and satisfaction of each item excluding the binary type item is added to the total score of the product of the weight and satisfaction of the binary type item. Are treated as
図8に示すような総合評価関数(総合評価点算出式)として、予想される検索項目間のバランスを考慮して、様々なバランスを持つ複数の算出式を予め用意することができる。このとき、検索結果評価部9は、複数の総合評価点算出式の中から、任意の算出式を選択し、評価に使用するように構成することができる。
As a comprehensive evaluation function (comprehensive evaluation score calculation formula) as shown in FIG. 8, a plurality of calculation formulas having various balances can be prepared in advance in consideration of a balance between expected search items. At this time, the search
例えば、検索結果評価部9は、設定された重み付け値のうち、重み付け値がもっとも大
きい検索項目(最大の重み付け値を持つ複数の検索項目がある場合には、所定の優先順位
に従って項目間の順位が決定される)が評価にもっとも大きく反映されるような算出式(例えば、図8(B)に示す式)を自動的に選択する。
For example, the search
あるいは、検索結果評価部9は、入力装置24から入力され、入力制御部22を介して検索条件蓄積部4に格納される算出式の指定データに従って、指定された算出式を用いて検索対象データの総合評価を行うように構成することもできる。
Alternatively, the search
図9は、利用者の希望に近いと判断する閾値(総合評価閾値)の例を示す。図9には、総合評価閾値が登録されるテーブルが示されている。総合評価閾値は、数値で表現することができ、所望の値が総合評価閾値として設定される。 FIG. 9 shows an example of threshold values (total evaluation threshold values) that are determined to be close to the user's wishes. FIG. 9 shows a table in which the comprehensive evaluation threshold is registered. The comprehensive evaluation threshold value can be expressed by a numerical value, and a desired value is set as the comprehensive evaluation threshold value.
(2)検索項目の抽出
次に、検索項目の抽出について説明する。検索装置14の検索項目抽出部2は、音声入力部1に入力された音声に対応する音声データを受け取る。検索項目抽出部2は、音声認識処理により、検索項目に対応するキーワードを認識語として抽出する。
(2) Extraction of search items Next, extraction of search items will be described. The search
図10は、検索項目抽出部2による処理の説明図である。図10(A)に示すように、利用者が「ワンルームで、(間(沈黙))えーっと、8万円くらい」との回答を行い、このような音声データが検索項目抽出部2に入力された場合を仮定する。この場合、検索項目抽出部2は、「ワンルーム」と「8万円」とをキーワード(認識語)として抽出し、認識語のデータを検索制御部3に与える。
FIG. 10 is an explanatory diagram of processing by the search
また、検索項目抽出部2は、例えば、図10(B)に示すような、利用者による「新宿あたりで、お願いします」との発話に対応する音声データを受け取った場合には、この音声データから「新宿」を認識語として抽出し、認識語のデータを検索制御部3に与える。
Further, for example, when the search
(3)感情情報の抽出
次に、感情情報の抽出処理について説明する。音声情報抽出部12は、利用者から入力された回答の音声データから感情情報(利用者の話し方情報)を抽出する。図11は、音声情報の抽出処理の説明図である。
(3) Emotion Information Extraction Next, emotion information extraction processing will be described. The voice
音声情報抽出部12は、(1)回答時の声の大きさ、(2)回答の行われるタイミング(無
言(沈黙)の時間)、(3)不要語、(4)未知語の割合のような認識語以外の情報から取得で
きるデータを感情情報として抽出する。
The voice
例えば、音声情報抽出部12は、図11(A)に示すような、「ワンルームで、(沈黙)えーっと、8万円くらい」との利用者の発話の音声データを受け取った場合には、「ワンルーム」及び「8万円」が比較的大きな声で発声されたことを示す情報を得る。
For example, when the voice
一般に、利用者が回答を行う場合、重要な情報を相手に十分に認識してもらうために、重要な情報を比較的大きな声で発話する傾向にあるからである。この場合における「ワンルーム」及び「8万円」は、それぞれ希望する間取り及び家賃を示す重要な情報であるため、これらは大きな声で発声される。 This is because, in general, when a user makes a reply, important information tends to be uttered in a relatively loud voice so that the other party can fully recognize the important information. In this case, “one room” and “80,000 yen” are important information indicating the desired floor plan and rent, respectively, so they are uttered loudly.
また、音声情報抽出部12は、「ワンルームで」と「えーっと」との間に沈黙があったことを回答のタイミングに係る情報として抽出する。また、音声情報抽出部12は、「えーっと」及び「くらい」のそれぞれを、不要語として抽出する。
Also, the voice
また、音声情報抽出部12は、図11(B)に示すような「新宿あたりで、お願いします
」との利用者の発話の音声データを受け取った場合には、「新宿」が比較的大きな声で発声されたことを示す情報を得る。また、音声情報抽出部12は、「あたりで」及び「お願いします」のそれぞれを、不要語として取得する。
In addition, when the voice
このとき、音声情報抽出部12は、問い合わせを行ってから「新宿あたりで・・・」の回答が得られるまでの時間(無音時間)を、回答のタイミングに係る感情情報として取得することもできる。音声情報抽出部12は、音声データ(利用者の発声内容)から抽出された感情情報を検索制御部3に渡す。
At this time, the voice
(4)検索条件及び緩和条件の設定
検索項目抽出部2で抽出される認識語(キーワード)は、検索制御部3において、そのまま検索条件として設定される。例えば、図10に示す音声データの例で抽出されるキーワード「ワンルーム」は、検索項目「間取り」に対する検索条件として設定される。また、キーワード「8万円」は、検索項目「家賃」に対する検索条件として設定される。さらに、キーワード「新宿」は、検索項目「最寄り駅」に対する検索条件として設定される。
(4) Setting Search Conditions and Relaxation Conditions The recognition words (keywords) extracted by the search
一方、検索制御部3は、音声情報抽出部12で抽出される感情情報に基づいて検索条件に対する緩和条件を設定する(検索条件を緩和する)。例えば、利用者の回答から「8万円くらい」のような「くらい」という金額の程度又は範囲を示す不要語が得られている場合には、検索制御部3は、8万円前後が利用者の希望の家賃であると判断し、例えば、6〜9万円を家賃に対する緩和条件として設定する(図13(A)に示す緩和条件を参照)。なお、「くらい(ぐらい)」に相当する不要語として、「だいたい」,「おおよそ」,「約」などがある。
On the other hand, the
また、利用者の回答から、「新宿あたり」における「あたり」のような地理的な範囲を示す不要語が得られている場合には、検索制御部3は、新宿駅付近が利用者の希望の最寄り駅であると判断し、例えば、新宿駅を中心した同一沿線上の隣接駅(大久保駅、代々木
駅)の全てを、最寄り駅に対する緩和条件として設定する(図13(B)に示す緩和条件を参照)。なお、「あたり」に相当する不要語として、「付近」,「近辺」,「くらい(ぐらい)」などがある。
In addition, when an unnecessary word indicating a geographical range such as “around” in “around Shinjuku” is obtained from the user's answer, the
検索制御部3は、緩和条件の内容を予め与えられた条件に従って決定する。このとき、検索制御部3は、上述した緩和条件の内容を、検索に対応する評価関数を用いて決定することができる。例えば、家賃であれば、8万円を基準値とした場合に得られる家賃の評価関数において、満足度が所定の値(例えば80%)以上となる場合の最小及び最大値をとることで、「6〜9万円」のような緩和条件を設定することができる。また、検索制御部3は、最寄り駅について、新宿駅を基準値とする評価関数から、所定の満足度を満たす駅(
例えば隣接駅)を、緩和条件として設定することができる。
The
For example, an adjacent station) can be set as the relaxation condition.
(5)重み付けへの反映
検索制御部3は、感情情報に基づいて、検索結果を評価するための検索項目に対する重み付けを変更する。検索条件蓄積部4には、各検索項目に対する重み付けの初期値として、例えば、図5の例に示すような、「家賃」」,「間取り」,「最寄り駅」,「最寄り駅までの所要時間」に対する値が予め設定される。このような初期値は、通常の社会通念やアンケートなどのサンプル収集により得られた統計値を元に設定することができる。
(5) Reflection in weighting The
検索制御部3は、感情情報を受け取ると、その感情情報に基づいて、感情情報を重み付けに反映するか否かの判定、すなわち、回答に含まれる検索項目に対する重み付けの値を変更するか否かの判定を行う。
When the
図12(A)は、感情情報に基づいて検索項目「家賃」に対する重み付け値を小さくする場合の判定例を示し、図12(B)は、感情情報に基づいて検索項目「間取り」に対する重み付け値を大きくする場合の判定例を示す。 FIG. 12A shows a determination example in the case where the weighting value for the search item “rent” is reduced based on emotion information, and FIG. 12B shows the weighting value for the search item “room layout” based on emotion information. An example of determination when increasing the value is shown.
図12(A)には、回答の受付が開始されてから、沈黙(無音時間)の後、「えーっと、7万円くらいかな」との回答が得られた例が示されている。この場合、検索制御部3は、例えば、次のような判定を行う。
FIG. 12 (A) shows an example in which a reply “Well, about 70,000 yen” was obtained after silence (silence time) after acceptance of the reply was started. In this case, the
回答の受付が開始されてから無音時間があるので、検索制御部3は、利用者が悩んでいると判定する。また、「7万円」という認識語(キーワード)の前後に「えーっと」や「くらいかな」との不要語がついているので、検索制御部3は、利用者が「7万円」という金額を強く希望していないと判定する。さらに、検索制御部3は、「7万円」という発声の音量が利用者又は一般的な通常会話の平均的な音量よりも小さい場合には、利用者が「7万円」という金額を重視していないと判定する。そして、検索制御部3は、これらの判断結果を総合的に判断し、「家賃」に対する現在の重み付けの値を小さくすべきと判断する。
Since there is a silent time since the reception of the answer is started, the
一方、図12(B)には、回答の受付が開始されてから、沈黙(無音時間)の後、「3LDK!」と強い口調の回答が得られた例が示されている。この場合、検索制御部3は、例えば、次のような判定を行う。
On the other hand, FIG. 12B shows an example in which an answer with a strong tone such as “3LDK!” Is obtained after silence (silence time) after acceptance of the answer is started. In this case, the
無音時間があるので、検索制御部3は、利用者が悩んでいると判定する。しかし、「3LDK」とのキーワードの前後には不要語がない(断定的に述べられている)ので、検索制御部3は、利用者が「3LDK」を望んでいると判定する。さらに、「3LDK」との発声が、平均的な音量よりも大きい場合には、検索制御部3は、利用者が「3LDK」を強く希望していると判定する。検索制御部3は、これらの判定結果を総合的に判断し、この場合は「間取り」に対する現在の重み付けの値を大きくすべきと判断する。
Since there is silent time, the
検索制御部3は、上述したような重み付けを変更するか否かの判断結果に基づいて、検索条件蓄積部4に設定されている重み付けを変更する。このとき、検索制御部3は、回答(検索項目)の入力回数や、回答を得るための条件(自由な検索条件設定か否か)を考慮することができる。
The
図13(A)は、図3に示すような「ワンルームで、(沈黙)えーっと、8万円くらい」という1回目の回答が音声入力された場合における重み付けの反映例を示し、図13(B)は、図3に示すような「新宿あたりで、お願いします」という2回目の回答が音声入力された場合における重み付けの反映例を示す。但し、各検索項目に対する重み付けの初期値として、図5に示すような値が設定されているものとする。また、これらの回答は、自由な検索条件の入力が可能な状況で得られたものとする。 FIG. 13A shows an example of weighting reflection in the case where the first response “One room, (silence) Well, about 80,000 yen” is input as shown in FIG. ) Shows a reflection example of weighting in the case where a second response “Please give me around Shinjuku” as shown in FIG. 3 is inputted by voice. However, it is assumed that values as shown in FIG. 5 are set as initial weighting values for each search item. These answers are obtained in a situation where free search conditions can be input.
図13(A)に示すように、1回目の回答が入力された場合には、「ワンルーム」及び「8万円」という検索項目「間取り」及び「家賃」に対するキーワードが得られる。この場合、検索制御部3は、「くらい」という「8万円」に付属する不要語より、「家賃」の緩和条件として「6〜9万円」を設定する。これに対し、「ワンルーム」は断定的に述べられているので、緩和条件は設定されない。
As shown in FIG. 13A, when the first response is input, keywords for the search items “room layout” and “rent” such as “one room” and “80,000 yen” are obtained. In this case, the
続いて、検索制御部3は、「家賃」について、この回答が最初の回答であり、最初の回答では、利用者が特に重要視しているキーワードが入力される傾向があることを考慮して、「家賃」に対する重み付け値に1を加算(+1)すると判断する。
Subsequently, the
続いて、検索制御部3は、「8万円」という回答が自由な条件設定下で得られたものであることを考慮し、「家賃」に対する重み付け値に1を加算(+1)すると判断する。一方、検索制御部3は、「えーっと」との家賃に対する言いよどみがあることを考慮して、重み付け値から1を減算(−1)すると判断する。これらの判断結果に基づいて、検索制御部3は、「家賃」に対する現在の重み付けの登録値(ここでは、初期値=3)を、(1+1−
1)+3=4に変更する。
Subsequently, the
1) Change to + 3 = 4.
一方、検索制御部3は、「間取り」について、この回答が最初の回答であることを考慮して、「間取り」に対する重み付け値に1を加算すると判断する。また、「ワンルーム」という検索条件が自由な音声入力の環境下で入力されたことを考慮して、重み付け値に1を加算すると判断する。これらの判断結果に基づいて、検索制御部3は、「間取り」に対する現在の重み付けの登録値(ここでは、初期値=2)を、(1+1)+2=4に変更する。
On the other hand, the
なお、1回目の回答では、検索項目「最寄り駅」及び「最寄り駅までの所要時間」に対するキーワードは入力されていない。このため、検索制御部3は、これらの検索項目に対する処理は行わない。
In the first response, keywords for the search items “nearest station” and “required time to nearest station” are not input. For this reason, the
図13(B)に示すように、2回目の回答が入力された場合には、「新宿(駅)」という検索項目「最寄り駅」に対するキーワードが得られる。この場合、検索制御部3は、「あたり」という「新宿」に付属する不要語より、例えば、「最寄り駅」の緩和条件として「大久保駅、代々木駅・・・」のような新宿駅を中心として同一沿線上に存する新宿駅の隣接駅の全てを設定する。
As shown in FIG. 13B, when a second response is input, a keyword for the search item “nearest station” “Shinjuku (station)” is obtained. In this case, the
検索制御部3は、2回目以降の回答に含まれる検索条件は利用者が重視していないとの前提に基づき、重み付けに1を加算するか否かを考慮しない。但し、2回目以降の回答に含まれる検索条件が自由に検索条件を入力できる条件下で得られた場合には、重み付け値に1を加算する。
The
従って、検索制御部3は、2回目の回答に含まれる検索項目「最寄り駅」について、自由な入力環境下で入力されたことを考慮して重み付け値に1を加算すると判断する。また、「新宿」の前に言いよどみに相当する不要語がないことから、重み付け値に対するマイナスポイントはない。従って、検索制御部3は、「最寄り駅」に対する現在の重み付けの登録値(ここでは、初期値=2)を、1+2=3に変更する。
Accordingly, the
なお、2回目の回答では、「家賃」、「間取り」、「最寄り駅までの所要時間」に対するキーワード(検索条件)は入力されていない。従って、検索制御部3は、これらの検索項目に対する処理は行わない。
In the second response, keywords (search conditions) for “rent”, “room layout”, and “time required to the nearest station” are not entered. Therefore, the
(6)評価関数に対する緩和条件の反映
検索制御部3は、回答の音声データに基づいて緩和条件を設定した検索項目が発声すると、その検索項目の評価関数に対し緩和条件を反映する。上述したように、検索条件蓄積部4は、音声情報反映基準13の一つとして、各検索項目に対する評価関数を格納している。
(6) Reflection of Relaxation Condition on Evaluation Function When the search item for which the relaxation condition is set based on the voice data of the answer is uttered, the
初期状態(利用者の検索要求が発声する前)では、サンプルデータの統計値等に基づく基本の評価関数が登録された状態となっている。この基本の評価関数における値(検索項目
に対応する値)に対する満足度は、全ての利用者に一致するものではない。
In an initial state (before a user search request is made), a basic evaluation function based on statistical values of sample data is registered. Satisfaction with the value (the value corresponding to the search item) in this basic evaluation function does not match all users.
図14は、評価関数に対する緩和条件の反映例を示す説明図である。図14には、検索
項目「最寄り駅」に対する評価関数が示されている。この例における基本の評価関数(細
線で示す)は、利用者が希望する駅でなければならない二次関数となっている(希望駅の隣接駅では利用者の満足度が零になる)。
FIG. 14 is an explanatory diagram showing an example of reflection of the relaxation condition for the evaluation function. FIG. 14 shows an evaluation function for the search item “nearest station”. The basic evaluation function (indicated by a thin line) in this example is a quadratic function that must be a station desired by the user (the user's satisfaction is zero at a station adjacent to the desired station).
これに対し、利用者が隣接駅でも許容する場合(隣接駅が緩和条件として設定された場
合)を仮定する。この場合、隣接駅に対する利用者の満足度は零にならない。従って、検
索制御部3は、希望駅の次々駅(隣接駅の次の駅)における利用者の満足度が零となるように、評価関数を変更する。従って、評価関数は、図14の太線で示すような二次関数となる。
On the other hand, it is assumed that the user permits at an adjacent station (when the adjacent station is set as a relaxation condition). In this case, the user's satisfaction with the adjacent station is not zero. Therefore, the
なお、「最寄り駅」に対して新たな緩和条件が設定された場合において、評価関数と緩和条件が一致しない場合には、さらなる評価関数の修正(緩和条件の反映)が行われる。このように、検索制御部3は、緩和条件が設定される毎に、対応する評価関数との整合性をチェックし、少なくとも緩和条件が満たされる範囲の満足度が零とならないように、評価関数の修正を行う。
When a new relaxation condition is set for the “nearest station” and the evaluation function and the relaxation condition do not match, further correction of the evaluation function (reflection of the relaxation condition) is performed. In this way, each time the relaxation condition is set, the
(7)検索
検索制御部3は、回答に含まれるキーワード及び感情情報に基づいて検索条件及び緩和条件を設定すると、これらの検索条件及び緩和条件と、検索項目間のアンド条件やオア条件に係るデータ(利用者によって予め設定される)とに基づく検索式を作成し、検索式を検索方法データとしてデータ蓄積部8に与える。
(7) Search When the
検索方法データは、キーワードが入力された各検索項目について、緩和条件があれば緩和条件を、緩和条件がなければ検索条件を含み、これらの検索条件及び/又は緩和条件がそれぞれアンド条件又はオア条件で結ばれている。 The search method data includes, for each search item in which a keyword is entered, a relaxation condition if there is a relaxation condition, and a search condition if there is no relaxation condition. These search conditions and / or relaxation conditions are AND conditions or OR conditions, respectively. It is tied with.
検索制御部3は、検索、すなわち検索方法データ(検索式)の付与を、所定の検索開始ルールに従って行うことができる。例えば、回答が得られる毎に、検索制御部3が検索方法データを出力するように構成することができる。この場合、例えば、図13(A)に示す検索条件及び緩和条件に基づく検索と、図13(B)に示す検索条件及び緩和条件に基づく検索とが行われる。
The
あるいは、検索制御部3は、回答数が所定回数に達した時点での検索条件及び緩和条件を検索方法データとして出力するように構成することができる。例えば、図13に示す1回目及び2回目の回答で得られた検索条件及び緩和条件を含む検索方法データを出力するように検索制御部3を構成することができる。
Alternatively, the
あるいは、検索制御部3は、入力が必須である全ての検索項目に対するキーワードが入力された時点、又は全ての検索項目に対するキーワードが入力された時点で検索方法データを生成し出力するように構成することができる。これらの検索開始ルールは適宜設定可能である。
Alternatively, the
データ蓄積部8は、検索方法データ(検索式)を受け取ると、検索式を満たす検索対象データ(検索式にヒットする検索対象データ)を、検索対象データとしての物件情報を蓄積したデータベースから抽出し、検索結果として出力する。物件情報は、「家賃」,「間取り」,「最寄り駅」,「最寄り駅までの所要時間」,「ペット可/不可」を要素とするレコードを持つ。検索結果は、検索結果評価部9に与えられる。
Upon receiving the search method data (search formula), the
(8)検索物件の評価
検索結果評価部9は、データ蓄積部8から出力される検索結果を受け取ると、検索結果
に含まれる個々の物件データについて、検索条件蓄積部4に設定されている検索項目の重み付け,評価関数,総合評価関数,及び総合評価閾値を用いて評価を行う。
(8) Evaluation of Search Property When the search
図15は、検索結果評価部9による物件情報の総合判断例(満足度)を示す。図15(A)は、総合判断の前提となる、各検索項目に対する緩和条件(検索条件),物件の値,満足度,重み付け値を示す表である。図15(B)は、総合評価点の計算例を示し、図15(C)は、評価基準を満たすか否かの判定結果を示す。
FIG. 15 shows an example of comprehensive judgment (satisfaction) of property information by the search
図15(A)に示す表において、検索項目は、「家賃」,「間取り」,「最寄り駅」,「最寄り駅までの所要時間」であり、緩和条件(検索条件)は、それぞれ「6〜9万円」,「ワンルーム」,「新宿」,「なし」,「なし」である。また、重み付けの値は、それぞれ、“3”,“2”,“2”,“1”,“5”である。また、図15(A)に示す表では、家賃「7.6万円」,間取り「ワンルーム」,最寄り駅「新宿」との各値を持つ物件情報が検索結果の一つとして得られた場合を示している。 In the table shown in FIG. 15A, the search items are “rent”, “room layout”, “nearest station”, “time required to the nearest station”, and the relaxation conditions (search conditions) are “6˜ They are "90,000 yen", "One room", "Shinjuku", "None", and "None". The weighting values are “3”, “2”, “2”, “1”, and “5”, respectively. In addition, in the table shown in FIG. 15 (A), when the property information having the values of rent “76,000 yen”, floor plan “one room”, and nearest station “Shinjuku” is obtained as one of the search results. Is shown.
検索結果評価部9は、緩和条件に対応する物件の値についての満足度を、対応する評価関数を用いて求める。図15(A)に示す例では、物件情報の家賃,間取り,及び最寄り駅の各値について、それぞれ“98”,“100”,“100”の満足度[%]が得られたことが示されている。なお、緩和条件のない検索項目には、満足度“100”が与えられる。
The search
次に、検索結果評価部9は、音声情報反映基準13の一つとして予め用意されている総合評価関数を用いて、この物件情報に対する総合評価点を算出する。ここでは、総合評価関数(総合評価点の算出式)として、図15(B)に示すような、各項目の重み付け値と満足度との積を足し合わせる式を用いる。その結果、検索結果評価部9は、総合評価点として1294点を算出する。
Next, the search
次に、検索結果評価部9は、予め用意されている総合評価閾値(総合評価点基準値)と総合評価点とを対比し、総合評価点が総合評価閾値以上か(又は上回るか)否かを判定する。ここでは、総合評価閾値として例えば“1000点”が予め登録されている。検索結果評価部9は、総合評価点が総合評価閾値以上である(又は上回る)場合には、この物件情報を評価基準を満たす物件情報と判断し、利用者に提供すべき物件情報として扱う。これに対し、物件情報が評価基準を満たさない場合には、その物件情報は、利用者に提供されることなく廃棄される。図15(A)に示す物件情報は、図15(C)に示すように、総合評価閾値よりも大きいので、評価基準を満たす物件情報として扱われる。
Next, the search
評価には、満足度でなく、求める条件(希望値)からどれだけ離れているか、を示す乖離度を評価値として使用することもできる。この場合、評価関数は、希望値を基準とする乖離度を示す関数となる。 In the evaluation, the degree of divergence indicating how far away from the required condition (desired value) can be used as the evaluation value instead of the satisfaction level. In this case, the evaluation function is a function indicating the degree of deviation based on the desired value.
検索結果評価部9が、データ蓄積部8から出力された全ての物件情報に対する評価処理をし終わると、検索結果評価部9又は検索制御部3によって、情報提供を行って検索を終了するか、検索をさらに続行するかの総合的な判断を行う。例えば、検索結果評価部9によって、評価基準を満たす物件情報が、予め登録された物件案内件数(例えば10,図4
参照)に達している場合には、情報提供を行うと判断する。
When the search
It is determined that information will be provided.
このとき、物件案内件数は、情報提供を行う物件情報の上限値として扱われ、物件情報の数が物件案内件数以下であれば、これらの物件情報の全てが提供され、評価基準を満たす物件情報が物件案内件数以上であれば、総合評価点が高い順で物件案内件数と同じ数の物件情報が提供される。但し、物件案内件数が情報提供を行う物件情報の数の最低値とし
て扱われ、物件案内件数以上の評価基準を満たす全ての物件情報が提供されるようにしても良い。
At this time, the number of property guides is treated as the upper limit of the property information to be provided, and if the number of property information is less than or equal to the number of property guides, all of these property information is provided and property information that satisfies the evaluation criteria If the number of property guides is greater than or equal to the number of property guides, the same number of property information as the number of property guides is provided in descending order of overall evaluation score. However, the number of property guides may be handled as the minimum value of the number of property information to be provided, and all property information that satisfies the evaluation standard more than the number of property guides may be provided.
(9)検索結果の提示
評価基準を満たす物件情報は、利用者に提供される。このとき、物件情報は、音声で利用者に提供されるようにしても良く、テキストや画像データとして提供され、利用者が持つディスプレイに表示されるようにしても良い。
(9) Presentation of search results Property information that satisfies the evaluation criteria is provided to the user. At this time, the property information may be provided to the user by voice, or may be provided as text or image data and displayed on a display held by the user.
検索結果は、例えば、(1)全ての検索条件に合致した物件、(2)検索条件を緩和して得られた物件の順で提供することができる。このとき、全ての検索条件(緩和条件ではなく)を満たす物件数が、物件案内件数以上の場合、当該物件の中から、検索条件の値に近い順で、提示を行う。 Search results can be provided in the order of, for example, (1) a property that matches all search conditions, and (2) a property obtained by relaxing the search conditions. At this time, if the number of properties satisfying all the search conditions (not the relaxation conditions) is equal to or greater than the number of property guides, the properties are presented in the order close to the value of the search conditions.
これに対し、全ての検索条件を満たす物件が物件案内件数に満たなかった場合は、全ての検索条件に合致した物件を、検索条件に近いものから順に提示し、その後、検索条件を緩和して得られた物件から、重み付けの高い項目に合致した物件から順に提示を行う。以上によって、利用者が望む検索結果が、最小限の言葉を入力することにより得られる。 On the other hand, if the number of properties that satisfy all the search conditions is less than the number of property guides, the properties that match all the search conditions are presented in order from the closest to the search conditions, and then the search conditions are relaxed. From the obtained property, presentation is made in order from the property that matches the item with higher weight. As described above, the search result desired by the user can be obtained by inputting a minimum number of words.
図16は、検索結果表示例(全ての検索条件に合致した物件を表示)を示す。図16には、「10万円くらいの1LDK」が検索条件であり、且つ物件案内件数が8である場合における検索結果として、全ての検索条件を満たす8件の物件情報が「条件にあった物件」として提示される例が示されている。ここでは、検索条件に近い順として、家賃が10万円に近い順で物件情報が提示されている。 FIG. 16 shows a search result display example (displays properties that match all search conditions). In FIG. 16, “1LDK of about 100,000 yen” is the search condition, and as the search result when the number of the property guides is 8, eight property information satisfying all the search conditions is “the condition is An example presented as “Property” is shown. Here, the property information is presented in the order close to 100,000 yen as the order close to the search condition.
図17は、検索結果表示例(検索条件を緩和して得られた物件を表示)を示す。図17には、「8万円くらいの1LDK」が検索条件であり、且つ物件案内件数が8である場合における検索結果として、全ての検索条件を満たす3件の物件情報が「条件にあった物件」として提示され、その後に緩和条件を満たす5件の物件情報が「次におすすめする物件」提示される例が示されている。 FIG. 17 shows a search result display example (displaying a property obtained by relaxing search conditions). In FIG. 17, “1LDK of about 80,000 yen” is a search condition, and as a search result when the number of property guides is 8, three property information satisfying all the search conditions is “the condition is An example is shown in which five pieces of property information that are presented as “property” and then satisfy the relaxation conditions are presented as “next recommended property”.
〈検索条件のカスタマイズ〉
次に、各検索項目の評価に用いる評価関数の規定方法について説明する。検索条件蓄積部4に格納されている各検索項目の評価に用いる評価関数は、パラメータを使用して規定することができる。
<Customize search conditions>
Next, a method for defining an evaluation function used for evaluating each search item will be described. An evaluation function used for evaluating each search item stored in the search
図18及び図19は、検索項目の評価関数の規定方法の説明図である。図18には、各項目の評価範囲を規定するための評価関数の基準モデルが示されている。図18において、評価関数は、一方の軸(x軸)を項目に対応する属性値が設定され、他方の軸(y軸)に満足度が設定されている。基準モデルは、属性値の希望値を満足度の基準値(満足度100
%)とした場合において、所定の満足度(%)に対する設定値を、希望値に対してどのくら
いの大きさとすることができるかを設定可能となっている。
18 and 19 are explanatory diagrams of a method for defining an evaluation function for search items. FIG. 18 shows a reference model of an evaluation function for defining the evaluation range of each item. In FIG. 18, in the evaluation function, an attribute value corresponding to an item is set on one axis (x-axis), and a satisfaction level is set on the other axis (y-axis). The reference model sets the desired value of the attribute value to the satisfaction reference value (
%), It is possible to set how much the set value for the predetermined satisfaction (%) can be set with respect to the desired value.
図18に示す例では、基準モデルは、属性値が希望値をもつときのy軸に平行な直線に対して左右対称な二次関数であり、満足度0%,50%,及び90%における設定値の初期値を有している。具体的には、属性値の設定値が希望値の0.8倍及び1.2倍のときに満足度が90%となる。また、属性値の設定値が希望値の0.4倍及び1.6倍のときに満足度が50%となる。そして、属性値の設定値が希望値の0.0倍及び2.0倍のときに満足度が0%となる。 In the example shown in FIG. 18, the reference model is a quadratic function that is symmetrical with respect to a straight line parallel to the y-axis when the attribute value has a desired value, and the satisfaction level is 0%, 50%, and 90%. It has an initial setting value. Specifically, the satisfaction level is 90% when the set value of the attribute value is 0.8 times and 1.2 times the desired value. The satisfaction level is 50% when the set value of the attribute value is 0.4 times and 1.6 times the desired value. The satisfaction level is 0% when the set value of the attribute value is 0.0 times and 2.0 times the desired value.
検索装置14は、検索条件蓄積部4に格納されている各項目の評価関数の基準モデル(
評価関数設定画面)を出力装置(ディスプレイ(表示装置))23に表示する表示制御部21
と、入力装置(キーボードやポインティングデバイス(マウス)等)24から入力される情報を受け付けて評価関数に対する調整処理を行い、再び検索条件蓄積部4に格納する評価関数調整部(入力制御部)22とを備えている。
The
And an evaluation function adjustment unit (input control unit) 22 that receives information input from an input device (keyboard, pointing device (mouse), etc.) 24, performs adjustment processing on the evaluation function, and stores it in the search
検索装置14の管理者(オペレータ)は、入力装置24及び出力装置(ディスプレイ)23を操作することによって、各項目の評価関数の基準モデル(評価関数設定画面)を、ディスプレイのスクリーン上に呼び出すことができる。
The administrator (operator) of the
評価関数設定画面は、予め用意された満足値(0%,50%,90%)に対する属性値の設定値の入力フォームを有しており、管理者は、属性値を設定(設定値を変更)することで、評価関数を所望の形状に変更(調整)することができる。 The evaluation function setting screen has an input form for setting the attribute value for the satisfaction value (0%, 50%, 90%) prepared in advance, and the administrator sets the attribute value (changes the setting value) ), The evaluation function can be changed (adjusted) to a desired shape.
図19には、属性値が希望値より大きい場合における満足度0%,50%及び90%に対する各属性値の設定値(属性パラメータ)を、それぞれ、希望値の1.4倍、2.2倍及び4.0倍に変更した場合が示されている。これによって、評価関数の形状は、破線で示されるように変更される。
FIG. 19 shows the setting values (attribute parameters) of the respective attribute values for
なお、基準モデルとして、図18に示すようなモデルを例示した。これに対し、基準モデルが設定値にかかわらず満足度が100%の直線で構成され、ある属性値を希望値と規定するとともに、属性値に対する満足度を設定することで、所望の曲線を有する評価関数を生成することもできる。 A model as shown in FIG. 18 is illustrated as the reference model. On the other hand, the reference model is composed of a straight line having a satisfaction level of 100% regardless of the set value, defines a certain attribute value as a desired value, and has a desired curve by setting the satisfaction level for the attribute value. An evaluation function can also be generated.
〈不要語の利用例〉
次に、第1実施形態の他の実施形態として、不要語を感情情報の一部として利用する例について図20,21及び22を用いて説明する。
<Use examples of unnecessary words>
Next, as another embodiment of the first embodiment, an example in which an unnecessary word is used as a part of emotion information will be described with reference to FIGS.
図20には、第1の利用例が示されている。図20(A)に示す対話例のように、システム(検索装置14)から「どのような物件をお探しですか」との問い合わせが与えられ、利用者が問い合わせに対し、「ワンルームで、えっと8万円くらい」との回答を返した場合を仮定する。 FIG. 20 shows a first usage example. As shown in the dialogue example shown in FIG. 20 (A), the system (search device 14) gives an inquiry “What kind of property are you looking for?” Assume that the answer is “approx. 80,000 yen”.
この場合、利用者の回答に対する検索項目抽出部2及び音声情報抽出部12による処理が行われ、検索制御部3で、利用者の発話(発声)内容の分析が行われる。この分析において、「ワンルームで、えっと8万円くらい」との回答は、図20(B)に示すように単語に分割される。これによって、「ワンルーム」,「で、」,「えっと」,「8万円」,及び「くらい。」の複数の単語が得られる。このとき、「ワンルーム」及び「8万円」が認識語1,2として認識され、「で、」、「えっと」及び「くらい。」は、不要語A,B及びCとしてそれぞれ認識される。
In this case, processing by the search
検索制御部3は、上記した認識結果に従って、検索条件を設定する。図20(C)に示す表には、図20(B)における認識結果に基づく認識項目名(図5の検索項目に相当)と、認識結果(図5の検索条件に相当)と、検索条件(図5の緩和条件に相当)とが示されている。
The
検索制御部3は、認識項目に対する認識結果及び検索条件を設定する。例えば、図20(C)に示すように、検索制御部3は、認識項目名「家賃」について、認識語2「8万円」に基づいて、認識結果(検索条件)「8万円」を設定する。このとき、検索制御部3は、認識語2の後に発声された不要語C「くらい。」に基づき、断定的な家賃の指定ではないと判断する(「くらい」という範囲を示す付属語であるので)。そして、「8万円」の上下の近辺値(例えば6〜9万円)を家賃の検索条件(緩和条件)として設定する。
The
また、検索制御部3は、認識語1「ワンルーム」より、認識項目「間取り」に対する認識結果(検索条件)として「ワンルーム」を設定する。このとき、検索制御部3は、認識語1の後に発声された不要語A「で、」に基づき、断定的な指定と判断する(不要語Aは、
範囲を示す言葉ではないので)。従って、検索制御部3は、「間取り」に対する検索条件(緩和条件)として「ワンルーム」自体を設定する。
Further, the
(It ’s not a range word). Accordingly, the
図21には、第2の利用例が示されている。図21(A)に示す対話例のように、システム(検索装置14)から「どのような物件をお探しですか」との問い合わせが与えられ、利用者が「えー、新宿あたりで駅から5分以内」との回答を返した場合を仮定する。 FIG. 21 shows a second usage example. As in the dialog example shown in FIG. 21A, the system (search device 14) gives an inquiry “What kind of property are you looking for?” Assume that the response “within minutes” is returned.
この場合、利用者の回答に対する検索項目抽出部2及び音声情報抽出部12による処理が行われ、検索制御部3で、利用者の発話(発声)内容の分析が行われる。この分析において、「えー、新宿あたりで駅から5分以内」との回答は、図21(B)に示すように単語に分割される。これによって、「えー」,「新宿」,「あたりで」,「駅から」,及び「5分以内」の複数の単語が得られる。このとき、「新宿」及び「5分以内」が認識語1,2として認識され、「えー、」,「あたりで、」及び「駅から」は、不要語A,B及びCとしてそれぞれ認識される。
In this case, processing by the search
なお、「以内」は、範囲を示す言葉であるが、属性値の上限を示す言葉であるので、認識語として抽出及び認識される。その他に、「以上」のような下限を示す言葉も属性値としての言葉とともに認識語として抽出及び認識される。このような認識は、認識語(キー
ワード)の登録内容に依存する。
In addition, “within” is a word indicating a range, but is a word indicating an upper limit of an attribute value, and thus is extracted and recognized as a recognized word. In addition, a word indicating a lower limit such as “above” is extracted and recognized as a recognized word together with a word as an attribute value. Such recognition depends on the registered contents of the recognition word (keyword).
検索制御部3は、上記した認識結果に従って、検索条件を設定する。図21(C)に示す表には、図21(B)における認識結果に基づく認識項目名(図5の検索項目に相当)と、認識結果(図5の検索条件に相当)と、検索条件(図5の緩和条件に相当)とが示されている。
The
検索制御部3は、認識項目に対する認識結果及び検索条件を設定する。例えば、図21(C)に示すように、検索制御部3は、認識項目名「最寄り駅」について、認識語1「新宿」に基づいて、認識結果(検索条件)「新宿」を設定する。このとき、検索制御部3は、認識語1の後に発声された不要語B「あたりで、」に基づき、断定的な最寄り駅の指定ではないと判断する(「あたり」という範囲を示す付属語であるので)。この場合、検索制御部3は、新宿駅の隣接駅を「最寄り駅」の検索条件(緩和条件)に採用する。
The
また、検索制御部3は、認識語2「5分以内」より、認識項目「最寄り駅までの所要時間」に対する認識結果(検索条件)として「5分以内」を設定する。このとき、検索制御部3は、認識語2の発声から断定的な指定と判断する(認識語2の後に不要語がない。など)。従って、検索制御部3は、「最寄り駅までの所要時間」に対する検索条件(緩和条件)として、「5分以内」自体を設定する。
The
図22は、不要語に基づいて検索条件が設定される場合の例を示す表である。図22には、検索項目「家賃」,「間取り」,「最寄り駅」,及び「最寄り駅までの所要時間」のそれぞれに対する認識語(キーワード)に付加される不要語の例と、その不要語が付加されている場合における検索条件(緩和条件)の設定例を示す表が示されている。 FIG. 22 is a table showing an example when search conditions are set based on unnecessary words. FIG. 22 shows examples of unnecessary words added to the recognition words (keywords) for the search items “rent”, “room layout”, “nearest station”, and “time required to the nearest station”, and the unnecessary words. A table showing an example of setting search conditions (relaxation conditions) when is added is shown.
〈未知語(不要語)、無音(沈黙)に基づく重み付けルール〉
次に、未知語、及び無音(沈黙時間)による重み付けルールについて説明する。図23(
A)は、未知語による重み付けルールの例を示す表であり、図23(B)は、無音による重
み付けルールの例を示す表であり、図23(C)は、無音による重みづけの例を示す説明図
である。
<Weighting rules based on unknown words (unnecessary words) and silence (silence)>
Next, weighting rules based on unknown words and silence (silence time) will be described. FIG.
A) is a table showing an example of a weighting rule based on unknown words, FIG. 23B is a table showing an example of a weighting rule based on silence, and FIG. 23C is an example of weighting based on silence. It is explanatory drawing shown.
図23(A)には、未知語に対する重み付けのルールとして、条件(場面及び詳細条件)と、重み付けの調整対象と、重み付けの変更値と、理由とが示されている。例えば、条件として、回答が最初の問い合わせか2回目以降かについて区分けされ、さらに、詳細条件として、未知語の割合が全認識語(音声認識処理を行った発声内容)の70%以上か50%以上かに区分けされている。さらに、調整対象として、未知語と同じ発声の中から認識された希望条件(キーワードに対応する項目)が設定されており、重み付け値として、負の値がそれぞれ設定されている。負の値であるのは、利用者が迷いながら発声した可能性が高いからである。 FIG. 23A shows conditions (scenes and detailed conditions), weight adjustment targets, weight change values, and reasons as weighting rules for unknown words. For example, whether the answer is the first inquiry or the second or later is classified as a condition, and further, as a detailed condition, the ratio of unknown words is 70% or more or 50% of all recognized words (the content of utterances subjected to speech recognition processing). It is divided into the above. Furthermore, desired conditions (items corresponding to keywords) recognized from the same utterance as the unknown word are set as adjustment targets, and negative values are respectively set as weighting values. The negative value is because there is a high possibility that the user uttered while hesitating.
図23(B)に示す例では、利用者発声(回答)中に2以上の検索条件(キーワード)が含まれている場合において、(1)検索条件間に2秒以上の無音時間(沈黙)があるとき、(2)検索条件間に1秒より長く2秒より短い無音時間があるときを条件として、重み付けの調整が行われる。 In the example shown in FIG. 23B, when two or more search conditions (keywords) are included in the user utterance (answer), (1) silence period (silence) of 2 seconds or more between the search conditions. When there is, (2) weighting is adjusted on condition that there is a silence period longer than 1 second and shorter than 2 seconds between search conditions.
上記した調整条件(1)及び(2)では、無音時間の直後の検索条件(検索項目)が、重み付けの調整対象となる。そして、調整条件(1)及び(2)に対し、利用者が検索条件の発声を迷った可能性があることを理由として、それぞれ、重み付け調整値“−2”,“−1”が用意されている。 In the above-described adjustment conditions (1) and (2), the search condition (search item) immediately after the silent period is a weighting adjustment target. For the adjustment conditions (1) and (2), the weight adjustment values “−2” and “−1” are prepared because the user may have lost the utterance of the search condition. ing.
例えば、図23(C)に示すように、回答から、認識語1,不要語A,認識語2,及び不要語Bが認識され、且つ認識語と不要語Aとの間に無音時間が検出された場合では、検索制御部3は、無音時間が調整条件(1)を満たす、調整条件(2)を満たす、調整条件(1)及び(2)を満たさない(無音時間が1秒未満)、のいずれであるかを判断し、調整条件(1)及び(2)の一方が満たされれば、認識語2に対応する検索条件を対象として、規定された重み付け調整を行う。
For example, as shown in FIG. 23C,
さらに、図23(B)に示すように、例えば、(3)回答の発声の前に2秒以上の無音時間がある場合を条件として、重み付けの調整が行われる。調整条件(3)では、利用者発声(
回答)に含まれる全ての検索条件(検索項目)が重み付けの調整対象となる。そして、希望
条件が明確に決まらないまま発声を始めた可能性があり、検索条件の希望が断定的でないとの判断を理由として、重み付け調整値“−1”が用意されている。検索制御部3は、調整条件(3)が満たされる場合には、回答に含まれる全ての検索条件について、重み付けの調整(−1)を行う。
Furthermore, as shown in FIG. 23B, for example, (3) weight adjustment is performed on the condition that there is a silence period of 2 seconds or more before the answer is uttered. In adjustment condition (3), user utterance (
All search conditions (search items) included in (Answer) are subject to weight adjustment. The weight adjustment value “−1” is prepared for the reason that it is possible that the utterance has started without the desired condition being clearly determined and the determination that the desired search condition is not assertive. When the adjustment condition (3) is satisfied, the
〈第1実施形態の作用及び効果〉
以上説明したように、検索装置14によれば、検索項目抽出部2で検索項目に対応するキーワードを抽出するだけでなく、音声情報抽出部12で利用者の話し方に係る感情情報を抽出する。そして、検索制御部3が感情情報に基づいて検索条件の緩和条件を設定する。これによって、利用者の意図を反映した緩和条件での検索が可能となる。従って、利用者が緩和条件の入力を特に意識しなくてすむ。
<Operation and Effect of First Embodiment>
As described above, according to the
また、検索装置14によれば、検索制御部3が感情情報(言いよどみや無音時間等)に基づいて各項目に対する重み付けを決定(変更)する。各検索項目に対する重み付け値は、検索結果評価部9において、評価関数とともに、データ蓄積部8から検索された各検索データ(物件情報)に対する評価に使用される。これによって、利用者の感情情報から得られる利用者の意図が反映された情報を利用者に提供することができる。
Further, according to the
また、検索制御部3は、回答が初回の回答である場合には、この回答に含まれる検索条
件について重み付け値を調整する。さらに、検索制御部3は、回答入力が自由な音声入力環境化で行われている場合には、このような環境下で入力された検索条件に対する重み付けを調整する。そして、重み付け値は、上述したように、検索データの評価に使用される。これによって、利用者の回答状況が反映された情報を利用者に提供することができる。
In addition, when the answer is the first answer, the
また、検索装置14によれば、評価関数の作成支援機能を有し、評価関数設定画面を管理者に提供するので、検索装置14の管理者が各項目に対する評価関数を設定登録したり変更したりする場合における負担が軽減される。
In addition, since the
〔第2実施形態〕
第1実施形態では、一般的に捕らえられる音声情報評価基準13を使用して検索されたデータに対する評価を行っている。これに対し、検索装置14において個人毎に蓄積される音声情報を用いて、より個々の利用者の感情をきめ細かく把握して、検索へのフィードバックを行うことができる。第2実施形態は、個人毎の音声情報を用いて検索結果の評価を行う例について説明する。
[Second Embodiment]
In the first embodiment, the retrieved data is evaluated using the generally-acquired speech
図24は、第2実施形態による音声応答システム(情報検索システム)の構成例を示す図である。図24において、図1に示した第1実施形態と同様の構成については、同一の符号を付し、説明を省略する。また、図25は、個人属性情報(個人情報)を用いた重み付けの設定例を示す図である。 FIG. 24 is a diagram illustrating a configuration example of a voice response system (information retrieval system) according to the second embodiment. In FIG. 24, the same components as those in the first embodiment shown in FIG. FIG. 25 is a diagram illustrating a setting example of weighting using personal attribute information (personal information).
図24において、第2実施形態における検索装置14Aは、個人属性蓄積部15をさらに備えている。個人属性蓄積部15は、音声情報抽出部12及び検索制御部3と接続されており、音声情報抽出部12から抽出される感情情報に基づく個人属性情報を蓄積する。個人属性蓄積部15に蓄積される個人属性情報は、検索条件蓄積部4に蓄積される重み付け7として利用され、音声情報反映基準13の一つとして利用される。なお、個人属性蓄積部15は、検索装置14が備える記憶媒体上に作成される。
In FIG. 24, the
第2実施形態において、検索条件蓄積部4におけるデータの蓄積、及び検索項目抽出部2による検索条件の抽出は、第1実施形態と同様の処理が行われる。これに対し、音声情報抽出部12による音声情報の抽出処理では、音声情報抽出部12は、音声情報入力部1から入力される音声データを受けとると、この音声データの声紋パターンを、個人属性蓄積部15に登録されている声紋パターンと照合し、音声データの発声者(個人、すなわち
利用者)を識別する。
In the second embodiment, data storage in the search
個人の声紋パターンは、例えば、その個人が情報検索システムを最初に利用した場合に得られる音声データ中から作成され、個人情報蓄積部15に、その個人の個人情報と関連づけて登録される。なお、個人の識別に対し、発信者番号を用いる方法(利用者の発信者
番号(例えば、電話番号)から利用者を特定する方法)を適用することもできる。音声情報
抽出部12は、個人を識別すると、その後は、第1実施形態で説明した処理と同様の処理を行う。
The personal voiceprint pattern is created from, for example, voice data obtained when the individual uses the information search system for the first time, and is registered in the personal information storage unit 15 in association with the personal information of the individual. Note that a method of using a caller number (a method of specifying a user from a caller number of a user (for example, a telephone number)) can also be applied to individual identification. After identifying the individual, the voice
検索制御部3は、第1実施形態と同様に、音声データからの感情情報の抽出結果に基づいて、検索項目の重み付け値を変更する。但し、第2実施形態では、第1実施形態で説明したような一般的に用意される重み付け値の初期値ではなく、個人属性蓄積部15にて個人毎に用意された重み付け情報(個人情報)を用いて、重み付け値を決定(変更)する。
Similar to the first embodiment, the
図25には、個人に対して用意された重み付け値の設定例が示されている。個人情報蓄積部15には、図25(1)に示すような、個人情報の初期値が登録される。初期状態では、「家賃」,「間取り」,「最寄り駅」,「最寄り駅までの所要時間」,及び「ペット可
/不可」の各検索項目毎に、一般的な重み付け値として、例えば“3”,“2”,“2”,“1”,“5”の重み付け値がそれぞれ設定されている(図25(1))。
FIG. 25 shows a setting example of weight values prepared for individuals. In the personal information storage unit 15, initial values of personal information as shown in FIG. 25 (1) are registered. In the initial state, for example, “3” is set as a general weighting value for each search item of “rent”, “room layout”, “closest station”, “time required to the nearest station”, and “pet allowed / impossible”. “,” “2,” “2,” “1,” and “5” are set respectively (FIG. 25 (1)).
その後、個人が、検索装置14Aを用いて1回目の検索の利用を行った場合には、個人情報の初期値が個人情報蓄積部15から読み出される。検索制御部3は、その回答の内容(感情情報、回答状況等)に基づいて、個人情報蓄積部15から読み出された個人情報(各
検索項目の重み付け値)を、変更する。変更方法自体は、第1実施形態と同様である。例
えば、図25(2)に示されるように、個人情報蓄積部15から読み出された各検索項目の重み付け値が“5”,“4”,“2”,“1”,“5”に変更される。
Thereafter, when the individual uses the first search using the
その後、回答から得られた検索条件による情報検索が行われ、検索結果の評価が、変更された重み付け値に基づいて、第1実施形態と同様に行われる。その後、各検索項目について、例えば、最初の重み付け値(変更前の重み付け値)と、変更後の重み付け値との平均値が算出され、各検索項目の平均値が、新たな重み付け値(個人情報)として、個人情報蓄積部15に登録される(図23(3)参照)。なお、新たな重み付け値の算出方法として、平均値の算出と異なる算出方法を適用することもできる。 Thereafter, information search is performed based on the search condition obtained from the answer, and the evaluation of the search result is performed in the same manner as in the first embodiment based on the changed weighting value. Thereafter, for each search item, for example, an average value of the first weighting value (the weighting value before the change) and the weighting value after the change is calculated, and the average value of each search item is changed to a new weighting value (personal information ) Is registered in the personal information storage unit 15 (see FIG. 23 (3)). Note that a calculation method different from the calculation of the average value can be applied as a new weighting value calculation method.
その後、個人の2回目以降の利用においては、1回目の利用と同様の方法により、回答に含まれる感情情報及び回答状況に基づく重み付け値の変更が行われ(図25(4))、検索終了後に、各検索項目の重み付け値の平均値が、新たな個人用の重み付け値として個人情報蓄積部15に登録される(図25(5))。 Thereafter, in the second and subsequent use of the individual, the weighting value is changed based on the emotion information included in the answer and the answer status by the same method as in the first use (FIG. 25 (4)), and the search ends. Later, the average value of the weight values of each search item is registered in the personal information storage unit 15 as a new personal weight value (FIG. 25 (5)).
第2実施形態によれば、第1実施形態が、変更対象の重み付け値として、一般的に用意された値を使用するのに対し、個人毎に用意される重み付け値(個人情報)を変更対象として重み付け値の変更(調整)を行う。すなわち、個人の属性(感情)が予め反映された重み付け値に対する調整が行われる。従って、第1実施形態に比べて、検索結果の評価に個人の意図を強く反映することができ、個人が適切な検索結果(情報提供)を受けることが可能となる。 According to the second embodiment, the first embodiment uses a generally prepared value as a weighting value to be changed, whereas a weighting value (personal information) prepared for each individual is to be changed. The weight value is changed (adjusted) as follows. That is, an adjustment is made to the weighting value in which the individual attribute (emotion) is reflected in advance. Therefore, compared with the first embodiment, the intention of the individual can be strongly reflected in the evaluation of the search result, and the individual can receive an appropriate search result (information provision).
〔第3実施形態〕
次に、第3実施形態として、音声情報抽出部12によって取得される音声情報を、検索への反映のみならず、検索時に提供するナビゲーションへフィードバックする例について説明する。図26は、第3実施形態のシステム構成図であり、音声情報を結果評価とナビゲーションとの双方への適用する例を示す。なお、第3実施形態において、第1実施形態と同様の構成については、同じ符号を付し、説明を省略する。
[Third Embodiment]
Next, as a third embodiment, an example in which audio information acquired by the audio
図26において、検索装置14Bは、第1実施形態において説明した構成(図1参照)に加えて、シナリオデータ蓄積部16と、ナビゲーション処理部17とをさらに備える。ナビゲーション処理部17は、シナリオデータ蓄積部16に蓄積されるシナリオデータに従って、情報検索のナビゲーションを行う。
26, the
すなわち、ナビゲーション処理部17は、入力状態解析部18と、シナリオ解析部19とを備えている。入力状態解析部18は、音声情報抽出部12で抽出される感情情報を受け取り、利用者の回答に対する確信度を求める。シナリオ解析部19は、シナリオデータ蓄積部16にシナリオデータとして予め登録されているナビゲーションメッセージ情報から適切なものを選択し、メッセージ合成部10に与える。これによって、利用者の確信度に応じたナビゲーションメッセージを利用者に与えることができ、且つ現時点での検索条件で検索を行うか否かを決定することができる。
That is, the
図27(A)−(C)は、追加の検索項目を利用者に尋ねる場合における、シナリオデータ
蓄積部16に登録されているナビゲーションメッセージ情報の例を示す。図27(A)には、確信度が“強い確信”を示す場合におけるナビゲーションメッセージ(ナビゲーション
1)として、「では、このまま検索結果をご案内致します」とのメッセージが示されてい
る。
FIGS. 27A to 27C show examples of navigation message information registered in the scenario
図27(B)には、確信度が“普通の確信”を示す場合におけるナビゲーションメッセージ(ナビゲーション2)として、「他に条件はありますか」とのメッセージが示されている。図27(C)には、確信度が“弱い確信”を示す場合におけるナビゲーションメッセージ(ナビゲーション3)として、「XXからYY(「XX」及び「YY」は任意の値を示す)の範囲でお探ししましょうか」とのメッセージが示されている。 FIG. 27B shows a message “Is there other conditions?” As a navigation message (navigation 2) when the certainty level indicates “ordinary certainty”. FIG. 27C shows a navigation message (navigation 3) when the certainty level indicates “weak belief” in the range of “XX to YY (“ XX ”and“ YY ”indicate arbitrary values). "Let's look for it" message.
図28は、音声情報(感情情報)から利用者の確信度を求める方法(確信度の数値化)の例を示す。図28(A)に示されるように、音声情報抽出部12は、第1実施形態と同様に、音声入力部1から入力される音声データから、声の大きさ、無音時間、不要語などの感情情報を抽出し、入力状態解析部18に与える。
FIG. 28 shows an example of a method of calculating the user's certainty from voice information (emotion information) (quantification of certainty). As shown in FIG. 28 (A), the voice
入力状態解析部18は、図28(B)に示されるような、確信度の初期値(この例では“
5”)を有している。入力状態解析部18は、感情情報が入力されると、例えば、図29(A)及び(B)に示されるような、利用者の音声情報による確信度増減のルールに従って、
声の大きさ、無音時間、不要語に対する確信度の増減値(予め規定されている)を求める。入力状態解析部18は、このようなルールに係る情報を予め有している。
As shown in FIG. 28B, the input state analysis unit 18 sets the initial value of the certainty factor (in this example, “
When the emotion information is input, the input state analysis unit 18 increases or decreases the certainty factor based on the user's voice information as shown in FIGS. 29 (A) and (B), for example. According to the rules of
Increase / decrease values (defined in advance) for certainty levels for loudness, silent time, and unnecessary words. The input state analysis unit 18 has information related to such rules in advance.
図29(A)には、声の大きさに基づく確信度増減のルールの例が示されている。この例では、検出された音声が所定の基準音声と比較され、基準音声に対する該音声の音量の比率が所定値(確信度減少閾値)以下であれば確信度が減少し、所定値(確信度上昇閾値)以上であれば確信度が増加するように構成されている。 FIG. 29A shows an example of a rule for increasing or decreasing the certainty factor based on the loudness of the voice. In this example, the detected sound is compared with a predetermined reference sound, and if the ratio of the volume of the sound to the reference sound is equal to or less than a predetermined value (certainty reduction threshold), the certainty factor decreases and the predetermined value (the certainty factor) If it is equal to or higher than the (rising threshold), the certainty factor is increased.
図29(A)に示される例では、例えば、検出された認識語の音声が基準音声と比較された場合において、該音声の音量が基準音声の60%以下である場合には、確信度の値が確信度調整値だけ減少する。例えば、確信度が“−2”される。利用者が迷った可能性があるからである。 In the example shown in FIG. 29 (A), for example, when the sound of the detected recognition word is compared with the reference sound and the volume of the sound is 60% or less of the reference sound, The value decreases by the confidence adjustment value. For example, the certainty factor is “−2”. This is because the user may be lost.
一方、該音声の音量が基準音声の120%以上である場合には、確信度の値が確信度調整値だけ増加する。例えば、確信度が“+2”される。利用者が確信を持っていると思われるからである。 On the other hand, when the volume of the sound is 120% or more of the reference sound, the certainty value increases by the certainty adjustment value. For example, the certainty factor is “+2”. This is because the user seems to be confident.
図29(B)には、無音時間に基づく確信度増減のルールの例が示されている。この例では、2個目以降の条件間に所定の長さの無音時間があったこと、及び、入力音声の全体の前に所定の長さの無音時間があったことが検出され、これらが検出した場合には、それぞれ、確信度が減少するように構成されている。 FIG. 29B shows an example of a rule for increasing or decreasing the certainty factor based on the silent time. In this example, it was detected that there was a predetermined length of silence between the second and subsequent conditions, and that there was a predetermined length of silence before the entire input speech. When detected, the certainty factor is configured to decrease.
図29(B)に示す例では、条件間に1秒以上の無音時間が検出された場合には、確信度が減少する(現在の確信度の値から“−1”される)。利用者が迷った可能性があるからである。また、音声入力の受付が開始されてから音声が入力される前に無音時間が2秒以上あったことが検出された場合には、確信度が減少する(現在の確信度の値から1が減じら
れる)。希望条件が明確に決まらずに発生を始めた可能性があり、条件の希望は断定的で
はないと判断できるからである。
In the example shown in FIG. 29B, when a silent time of 1 second or longer is detected between conditions, the certainty factor decreases ("-1" from the current certainty factor value). This is because the user may be lost. In addition, when it is detected that the silent period has been 2 seconds or more before the voice is input after the reception of the voice input is started, the certainty factor decreases (1 from the current certainty factor value). Reduced). This is because the desired condition may have started without being clearly determined, and it can be determined that the desired condition is not assertive.
図28(B)に戻って、入力状態解析部18は、例えば、認識語に対する声の大きさが小さい場合、現在の確信度から2を減じる。また、入力状態解析部18は、例えば、回答の
タイミングが最先の場合(無音時間の直後に認識語は発声されている場合)には、現在の確信度に1を加える。さらに、入力状態解析部18は、迷いを示す不要語(例えば、「えっ
と」,「そうだな」、「うーん」)が存在する場合には、現在の確信度から不要語の個数
だけ減じる。
Returning to FIG. 28B, the input state analysis unit 18
これによって、入力状態解析部18は、例えば、図28(B)に示されるように、予め規定された感情情報の要素(例えば、声の大きさ、無音時間(回答のタイミング)、及び不要
語)について、それぞれ、増減値“−2”,“+1”,及び“−1”を得る。そして、入
力状態解析部18は、確信度の初期値(現在の確信度の値)“5”を“3”に変更(調整)する。調整された確信度は、入力状態解析部18からシナリオ解析部19に与えられる。
Thereby, the input state analysis unit 18, for example, as shown in FIG. 28 (B), elements of emotion information specified in advance (for example, loudness, silent time (answer timing), and unnecessary words ), Increase / decrease values “−2”, “+1”, and “−1” are obtained, respectively. Then, the input state analysis unit 18 changes (adjusts) the initial value of the certainty factor (current certainty factor value) “5” to “3”. The adjusted certainty factor is given from the input state analysis unit 18 to the
シナリオ解析部(確信レベル取得部及びナビゲーションメッセージ選択部に相当)19は、入力状態解析部18から与えられる確信度の値に基づいて、確信の度合い(レベル)を判断する。例えば、シナリオ解析部19は、確信度値に対応するレベルの閾値(基準値)を有している。例えば、“強い”,“普通”及び“弱い”からなる3つのレベルが用意されている場合には、確信度に対するレベルを求めるための(レベル数−1)個の基準値が用意される。
The scenario analysis unit (corresponding to the confidence level acquisition unit and the navigation message selection unit) 19 determines the degree of confidence (level) based on the confidence value provided from the input state analysis unit 18. For example, the
図27に示すように、“強い確信”,“普通の確信”,及び“弱い確信”の3つのレベルが用意されている場合には、例えば、確信度の基準値として、“8”及び“3”が用意される。そして、シナリオ解析部19は、得られた確信度(図28の例では“3”)と各基準値とを対比して、確信のレベルを求める。
As shown in FIG. 27, when three levels of “strong belief”, “ordinary belief”, and “weak belief” are prepared, for example, “8” and “ 3 "is prepared. Then, the
図30は、シナリオ解析部19が確信のレベルを求めるための判断基準例を示す。図30に示す例では、確信度の値が8以上であれば、強い確信と判断される。また、確信度の値が3以下であれば、弱い確信と判断される。そして、確信度の値が3を上回り且つ8未満であれば、普通の確信と判断される。
FIG. 30 shows an example of a criterion for the
シナリオ解析部19は、確信のレベルを求めると、図27に示したような、シナリオデータ蓄積部16に蓄積されているナビゲーションメッセージの中から確信のレベルに対応するメッセージを読み出し、メッセージ合成部10に与える。これによって、確信のレベルに応じたナビゲーションメッセージが、利用者とシステム(検索装置14B)との対話において、利用者に提供される。
When the
第3実施形態によれば、利用者の回答から得られる感情情報から利用者の確信のレベルが求められ、このレベルに応じたナビゲーションメッセージが利用者に提供される。例えば、利用者が回答に強い確信を持つと認められる場合には、その時点で検索条件の入力を終了することができる。これによって、短時間で情報の検索を提供することが可能となる。 According to the third embodiment, the user's confidence level is obtained from the emotion information obtained from the user's answer, and a navigation message corresponding to this level is provided to the user. For example, when it is recognized that the user has strong confidence in the answer, the input of the search condition can be terminated at that time. This makes it possible to provide information retrieval in a short time.
また、確信のレベルが普通や弱いと認められる場合には、他の検索条件を求めたり、検索の提案を行ったりすることで、最終的に利用者に提供される情報に、利用者の意図(感
情)が反映することができる。従って、短時間で的確な検索結果を利用者に提供すること
が可能となる。
In addition, if the level of confidence is recognized as normal or weak, by searching for other search conditions or making a search suggestion, the user's intention (Emotion) can be reflected. Therefore, accurate search results can be provided to the user in a short time.
以上説明した第1〜第3実施形態における構成は、本発明の目的を逸脱しない範囲内で、適宜組み合わせることができる。 The configurations in the first to third embodiments described above can be appropriately combined without departing from the object of the present invention.
〔実施形態の効果〕
以上説明した第1〜第3実施形態によれば、音声検索の分野で、以下の効果を期待する
ことができる。(A)視覚で検索項目を確認したり、一度に多数の検索項目を設定しなくとも、的確な検索結果が提示される。(B)利用者が、重み付け、範囲設定、1項目2条件のような細かい検索条件の設定を意識しなくとも、システム(検索装置)が自動で設定を行い、検索結果を提示する。(C)利用者が設定項目の読み上げのような最小限の設定(音声入
力)を行なえば、自分に必要な結果を短時間で得ることができる。(D)検索項目の優先度
や緩和項目の選択に限定されず、評価関数を使用して適切な検索結果を得ることができる。
[Effect of the embodiment]
According to the first to third embodiments described above, the following effects can be expected in the field of voice search. (A) Accurate search results can be presented without visually confirming search items or setting many search items at once. (B) Even if the user is not conscious of setting fine search conditions such as weighting, range setting, and 1
さらに、副次的な効果として、次の効果を得ることができる。(E)的確な検索が行なわれることにより、本システムを有する検索サービスへのアクセスが上昇する。(F)的確なお勧め情報の提示により、検索結果である商品の販売拡大に繋げることができる。 Furthermore, the following effects can be obtained as a secondary effect. (E) By performing an accurate search, access to a search service having this system increases. (F) By presenting accurate recommended information, it is possible to lead to an increase in sales of products as search results.
〔その他〕
上述した本発明の実施形態は、以下の発明を開示する。なお、以下に示す発明は、必要に応じて適宜組み合わせることができる。
[Others]
The above-described embodiment of the present invention discloses the following invention. In addition, the invention shown below can be combined suitably as needed.
(付記1) 情報検索を希望する利用者の音声データから、検索項目に対するキーワードとなる認識語を抽出する検索項目抽出部と、
前記音声データから利用者の感情に係る感情情報を抽出する音声情報抽出部と、
前記認識語及び感情情報から、少なくとも1つの検索項目に対する検索条件を含む検索式を生成して出力する検索制御部と、
を含む音声による情報検索システム。(1)
(Supplementary Note 1) A search item extraction unit that extracts a recognition word as a keyword for a search item from voice data of a user who desires an information search;
A voice information extraction unit that extracts emotion information related to a user's emotion from the voice data;
A search control unit that generates and outputs a search expression including a search condition for at least one search item from the recognized word and emotion information;
Information retrieval system using voice. (1)
(付記2) 前記検索制御部は、前記感情情報に基づいて、検索に係る複数の検索項目に対する重み付け値を決定し、
前記重み付け値を格納する格納部と、
前記検索式に合致する少なくとも1つの検索結果データを受け取った場合に、前記格納部に格納された重み付け値を用いて、各検索結果データに対する評価を行う検索結果評価部とをさらに含む
付記1記載の音声による情報検索システム。(2)
(Additional remark 2) The said search control part determines the weighting value with respect to the some search item which concerns on search based on the said emotion information,
A storage unit for storing the weight values;
(付記3) 前記検索制御部は、さらに、前記音声データが得られたときの状況に基づいて、前記複数の検索項目に対する重み付け値を決定する
付記2記載の音声による情報検索システム。
(Additional remark 3) The said search control part is an information search system by the voice of
(付記4) 前記音声情報抽出部は、(1)利用者の声の大きさ,(2)音声データに含まれる無音時間の長さ,(3)前記認識語として認識されない単語としての不要語,(4)音声データ中の利用者の発声内容に含まれる未知語の割合、の少なくとも1つを示す情報を、前記感情情報として抽出する、
付記1〜3のいずれかに記載の音声による情報検索システム。(3)
(Supplementary Note 4) The voice information extraction unit includes (1) loudness of the user's voice, (2) length of silent time included in the voice data, and (3) an unnecessary word as a word that is not recognized as the recognized word. , (4) information indicating at least one of the ratios of unknown words included in the utterance content of the user in the voice data is extracted as the emotion information.
The information search system by voice according to any one of
(付記5) 前記検索制御部は、前記音声情報抽出部で所定値よりも小さい大きさの利用者のキーワードに対する声の大きさが抽出された場合には、このキーワードに対応する検索項目の重み付け値を小さくする
付記4記載の音声による情報検索システム。
(Supplementary Note 5) When the voice information extraction unit extracts a voice level for a keyword of a user whose volume is smaller than a predetermined value, the search control unit weights the search item corresponding to the keyword. The information search system by voice according to the
(付記6) 前記検索制御部は、前記感情情報に基づいて、前記キーワードに対する発声が断定的に行われていることが認められる場合には、このキーワードに対応する検索項目の重み付け値を大きくする、
付記4又は5記載の音声による情報検索システム。
(Additional remark 6) When it is recognized that utterance with respect to the said keyword is performed decisively based on the said emotion information, the said search control part increases the weighting value of the search item corresponding to this keyword. ,
The information search system by voice according to
(付記7) 前記検索制御部は、前記音声情報抽出部で前記音声データに含まれる2つのキーワードの間に所定時間より長い無音時間が検出された場合には、後ろ側のキーワードに対応する検索項目の重み付け値を小さくする
付記4〜6のいずれかに記載の音声による情報検索システム。
(Supplementary Note 7) When the voice information extraction unit detects a silent time longer than a predetermined time between two keywords included in the voice data, the search control unit searches for a keyword corresponding to the rear side. The information search system by voice according to any one of
(付記8) 前記検索制御部は、前記音声情報抽出部で前記音声データに含まれる最初の発声の前に所定時間より長い無音時間が検出された場合には、この音声データに含まれる全てのキーワードに対応する検索項目の重み付け値をそれぞれ小さくする、
付記4〜7のいずれかに記載の音声による情報検索システム。
(Additional remark 8) When the silence information longer than predetermined time is detected before the first utterance included in the said audio | voice data in the said audio | voice information extraction part, the said search control part is all the audio | voice data included in this audio | voice data Decrease the weight of each search item corresponding to the keyword,
The information search system by voice according to any one of
(付記9) 前記検索制御部は、前記音声情報抽出部で前記キーワードで特定される検索項目の属性値に対する範囲又は程度を示す不要語が抽出された場合には、このキーワードで特定される属性値が緩和された検索条件を作成する、
付記4〜8のいずれかに記載の音声による情報検索システム。
(Additional remark 9) When the said search control part extracts the unnecessary word which shows the range or grade with respect to the attribute value of the search item specified by the said keyword in the said audio | voice information extraction part, the attribute specified by this keyword Create search criteria with relaxed values,
The information search system by voice according to any one of
(付記10) 前記検索制御部は、前記音声情報抽出部で利用者が悩んでいることを示す不要語が前記キーワードの前及び/又は後ろで抽出された場合には、このキーワードに対応する検索項目の重み付け値を小さくする、
付記4〜9のいずれかに記載の音声による情報検索システム。
(Additional remark 10) The said search control part is a search corresponding to this keyword, when the unnecessary word which shows that the user is troubled in the said voice information extraction part is extracted before and / or after the said keyword. Decrease the item weight value,
The information search system by voice according to any one of
(付記11) 前記検索制御部は、前記音声情報抽出部で抽出された利用者の発声内容に含まれる未知語の割合が所定値を越える場合には、この発声内容に含まれるキーワードに対応する検索項目の重み付け値を小さくする
付記4〜10のいずれかに記載の音声による情報検索システム。
(Additional remark 11) The said search control part respond | corresponds to the keyword contained in this utterance content, when the ratio of the unknown word contained in the user's utterance content extracted by the said audio | voice information extraction part exceeds a predetermined value. The information search system by voice according to any one of
(付記12) 前記格納部は、各検索項目に対する評価関数をさらに格納し、
前記検索結果評価部は、前記重み付け値と前記評価関数とに基づいて前記検索データに対する評価を行う
付記2〜11のいずれかに記載の音声による情報検索システム。
(Supplementary Note 12) The storage unit further stores an evaluation function for each search item,
The search information evaluation unit according to any one of
(付記13) 前記検索結果評価部は、検索項目の属性に応じた評価関数パターンを有する評価関数を用いて前記評価を行う
付記12記載の音声による情報検索システム。
(Additional remark 13) The said search result evaluation part is an information search system by voice of
(付記14) 前記検索結果評価部は、検索式に含まれる検索項目毎に、検索項目に応じた評価関数を用いて、検索結果データが持つ検索項目の属性値に対する利用者の満足度、又は利用者が希望する属性値からの乖離度を求め、求められた検索項目毎の満足度又は乖離度と前記重み付け値とを用いて検索結果データに対する総合評価点を求め、この総合評価点が所定の閾値以上、又はこの所定の閾値を上回る検索結果データを、前記利用者に提供すべき検索結果データとして抽出する
付記12記載の音声による情報検索システム。
(Additional remark 14) The said search result evaluation part uses the evaluation function according to a search item for every search item contained in a search formula, The user satisfaction with respect to the attribute value of the search item which search result data have, or The degree of divergence from the attribute value desired by the user is obtained, and an overall evaluation score for the search result data is obtained using the degree of satisfaction or divergence for each of the obtained search items and the weighting value. The information search system by voice according to
(付記15) 前記格納部に格納された評価関数を表示装置に表示する表示制御部と、
前記表示装置に表示される評価関数を用いて入力される前記満足度又は乖離度に対する検索項目の属性値を受け付けて前記評価関数を調整し、前記格納部に格納する評価関数調整部と、
をさらに含む付記13記載の音声による情報検索システム。
(Supplementary Note 15) A display control unit that displays the evaluation function stored in the storage unit on a display device;
An evaluation function adjustment unit that accepts an attribute value of a search item for the satisfaction or divergence input using the evaluation function displayed on the display device, adjusts the evaluation function, and stores the evaluation function in the storage unit;
The information search system by voice according to
(付記16) 前記検索結果評価部は、複数の検索項目間の評価のバランスが考慮された
複数の前記総合評価点の算出式の中から、所定の条件を満たす算出式を用いて前記総合評価点を算出する
付記14又は15記載の音声による情報検索システム。
(Additional remark 16) The said search result evaluation part uses the calculation formula which satisfy | fills predetermined conditions from the calculation formulas of the said total evaluation score in which the balance of evaluation between several search items was considered. The information search system by voice according to
(付記17) 利用者毎に用意された各検索項目に対する重み付け値を格納する個人情報格納部をさらに含み、
前記検索制御部は、前記感情情報に基づいて検索項目の重み付け値を決定する場合に、個人情報格納部に格納されている検索の利用者に対応する重み付け値を増減する
付記2〜16のいずれかに記載の音声による情報検索システム。
(Additional remark 17) The personal information storage part which stores the weighting value with respect to each search item prepared for every user is further included,
When the search control unit determines the weighting value of the search item based on the emotion information, any one of the
(付記18) 前記検索制御部によって増減された重み付け値が反映された重み付け値で前記個人情報格納部に格納された前記利用者の重み付け値を更新する手段をさらに含む
付記17記載の音声による情報検索システム。
(Supplementary note 18) The voice information according to
(付記19) 前記音声情報抽出部で抽出される感情情報に基づいて、利用者の発話内容に対する確信のレベルを求める確信レベル取得部と、
前記確信のレベルに応じて用意された検索に係るナビゲーションメッセージを選択し、利用者に提供するために出力するナビゲーションメッセージ選択部と
をさらに含む付記1〜18のいずれかに記載の音声による情報検索システム。
(Supplementary note 19) Based on the emotion information extracted by the voice information extraction unit, a belief level acquisition unit for obtaining a belief level with respect to the utterance content of the user;
The information search by voice according to any one of
(付記20) 前記ナビゲーションメッセージ選択部は、前記確信のレベルに応じて、検索条件の入力を終了することを示すナビゲーションメッセージを選択して出力する
付記19記載の音声による情報検索システム。
(Supplementary note 20) The voice information search system according to
(付記21) 前記ナビゲーションメッセージ選択部は、前記確信のレベルに応じて、他の検索条件の入力を促すナビゲーションメッセージを選択して出力する
付記19又は20記載の音声による情報検索システム。
(Supplementary note 21) The voice information search system according to
(付記22) 前記ナビゲーションメッセージ選択部は、前記確信のレベルに応じて、所定の検索項目について、所定の範囲での検索を確認するためのナビゲーションメッセージを選択して出力する
付記19〜21記載の音声による情報検索システム。
(Additional remark 22) The said navigation message selection part selects and outputs the navigation message for confirming the search in a predetermined range about a predetermined | prescribed search item according to the said confidence level, Additional remarks 19-21 Information retrieval system by voice.
(付記23) コンピュータが、
情報検索を希望する利用者の音声データから、検索項目に対するキーワードとなる認識語を抽出し、
前記音声データから利用者の感情に係る感情情報を抽出し、
前記認識語及び感情情報から、少なくとも1つの検索項目に対する検索条件を含む検索式を生成して出力する、
ことを含む音声による情報検索方法。(4)
(Supplementary note 23)
From the voice data of users who want to search for information, we extract the recognition words that are keywords for the search items,
Extracting emotion information related to the user's emotion from the voice data,
Generating and outputting a search expression including a search condition for at least one search item from the recognition word and emotion information;
Information retrieval method using voice. (4)
(付記24) コンピュータに、
情報検索を希望する利用者の音声データから、検索項目に対するキーワードとなる認識語を抽出するステップと、
前記音声データから利用者の感情に係る感情情報を抽出するステップと、
前記認識語及び感情情報から、少なくとも1つの検索項目に対する検索条件を含む検索式を生成して出力するステップと、
を実行させるプログラム又はこのプログラムを記録したコンピュータ読み取り可能な記録媒体。(5)
(Supplementary Note 24)
Extracting a recognition word as a keyword for a search item from voice data of a user who desires information search;
Extracting emotion information relating to the user's emotion from the voice data;
Generating and outputting a search expression including a search condition for at least one search item from the recognition word and emotion information;
Or a computer-readable recording medium on which the program is recorded. (5)
1 音声入力部
2 検索項目抽出部
3 検索制御部
4 検索条件蓄積部(格納部)
8 データ蓄積部
9 検索結果評価部
10 メッセージ合成部
11 メッセージ出力部
14 検索装置(情報検索システム)
15 個人属性蓄積部(個人情報格納部)
16 シナリオデータ蓄積部
17 ナビゲーション処理部
18 入力状態解析部
19 シナリオ解析部(確信度取得部、ナビゲーションメッセージ選択部)
21 表示制御部
22 評価関数調整部(入力制御部)
23 ディスプレイ(表示装置)
24 入力装置
DESCRIPTION OF
8
15 Personal attribute storage (Personal information storage)
16 Scenario
21
23 Display (display device)
24 input devices
Claims (5)
前記音声データから利用者の感情に係る感情情報を抽出する音声情報抽出部と、
前記認識語及び感情情報から、少なくとも1つの検索項目に対する検索条件を含む検索式を生成して出力する検索制御部と、
を含む音声による情報検索システム。 A search item extraction unit for extracting a recognition word as a keyword for a search item from voice data of a user who desires information search;
A voice information extraction unit that extracts emotion information related to a user's emotion from the voice data;
A search control unit that generates and outputs a search expression including a search condition for at least one search item from the recognized word and emotion information;
Information retrieval system using voice.
前記重み付け値を格納する格納部と、
前記検索式に合致する少なくとも1つの検索結果データを受け取った場合に、前記格納部に格納された重み付け値を用いて、各検索結果データに対する評価を行う検索結果評価部と
をさらに含む請求項1記載の音声による情報検索システム。 The search control unit determines weight values for a plurality of search items related to the search based on the emotion information,
A storage unit for storing the weight values;
The search result evaluation part which evaluates with respect to each search result data using the weighting value stored in the said storage part when the at least 1 search result data matching the said search expression is received. Information retrieval system using written voice.
請求項1又は2記載の音声による情報検索システム。 The voice information extracting unit includes (1) loudness of the user's voice, (2) the length of silent time included in the voice data, (3) an unnecessary word as a word that is not recognized as the recognized word, (4) Information indicating at least one of the ratios of unknown words included in the utterance content of the user in the voice data is extracted as the emotion information.
The information search system by voice according to claim 1 or 2.
情報検索を希望する利用者の音声データから、検索項目に対するキーワードとなる認識語を抽出し、
前記音声データから利用者の感情に係る感情情報を抽出し、
前記認識語及び感情情報から、少なくとも1つの検索項目に対する検索条件を含む検索式を生成して出力する、
ことを含む音声による情報検索方法。 Computer
From the voice data of users who want to search for information, we extract the recognition words that are keywords for the search items,
Extracting emotion information related to the user's emotion from the voice data,
Generating and outputting a search expression including a search condition for at least one search item from the recognition word and emotion information;
Information retrieval method using voice.
情報検索を希望する利用者の音声データから、検索項目に対するキーワードとなる認識語を抽出するステップと、
前記音声データから利用者の感情に係る感情情報を抽出するステップと、
前記認識語及び感情情報から、少なくとも1つの検索項目に対する検索条件を含む検索式を生成して出力するステップと、
を実行させるプログラム。 On the computer,
Extracting a recognition word as a keyword for a search item from voice data of a user who desires information search;
Extracting emotion information relating to the user's emotion from the voice data;
Generating and outputting a search expression including a search condition for at least one search item from the recognition word and emotion information;
A program that executes
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004085341A JP2005275601A (en) | 2004-03-23 | 2004-03-23 | Information retrieval system by voice |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004085341A JP2005275601A (en) | 2004-03-23 | 2004-03-23 | Information retrieval system by voice |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2005275601A true JP2005275601A (en) | 2005-10-06 |
Family
ID=35175241
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004085341A Withdrawn JP2005275601A (en) | 2004-03-23 | 2004-03-23 | Information retrieval system by voice |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2005275601A (en) |
Cited By (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB2427109A (en) * | 2005-05-30 | 2006-12-13 | Kyocera Corp | Associating emotion type with a word in a speech synthesis system |
| JP2008021216A (en) * | 2006-07-14 | 2008-01-31 | Fujitsu Ltd | Information retrieval system |
| JP2009294790A (en) * | 2008-06-03 | 2009-12-17 | Denso Corp | System for providing information for vehicle |
| JP2011028460A (en) * | 2009-07-24 | 2011-02-10 | J&K Car Electronics Corp | Information retrieval device, control method, and program |
| JP2011248020A (en) * | 2010-05-25 | 2011-12-08 | Sony Corp | Search device, search method, and program |
| JP2013101226A (en) * | 2011-11-08 | 2013-05-23 | Kyocera Document Solutions Inc | Real estate property information provision support device |
| JP2014153715A (en) * | 2013-02-07 | 2014-08-25 | Samsung Electronics Co Ltd | Portable terminal with voice talk function and voice talk method thereof |
| JP2018045320A (en) * | 2016-09-12 | 2018-03-22 | ヤフー株式会社 | Information processing apparatus, information processing method, and program |
| WO2018061839A1 (en) * | 2016-09-29 | 2018-04-05 | 株式会社村田製作所 | Transmission device, transmission method, and transmission program |
| JP2018190413A (en) * | 2017-05-02 | 2018-11-29 | ネイバー コーポレーションNAVER Corporation | Method and system for processing user command to adjust and provide operation of device and content provision range by grasping presentation method of user speech |
| JP2019174846A (en) * | 2016-12-30 | 2019-10-10 | グーグル エルエルシー | Feedback controller for data transmissions |
| WO2021000497A1 (en) * | 2019-07-03 | 2021-01-07 | 平安科技(深圳)有限公司 | Retrieval method and apparatus, and computer device and storage medium |
| JP7246626B1 (en) | 2022-11-15 | 2023-03-28 | 株式会社マイクロネット | Property search system and property search method |
| JP7370118B1 (en) | 2023-07-25 | 2023-10-27 | amptalk株式会社 | Information processing device, information processing method, and program |
-
2004
- 2004-03-23 JP JP2004085341A patent/JP2005275601A/en not_active Withdrawn
Cited By (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB2427109A (en) * | 2005-05-30 | 2006-12-13 | Kyocera Corp | Associating emotion type with a word in a speech synthesis system |
| GB2427109B (en) * | 2005-05-30 | 2007-08-01 | Kyocera Corp | Audio output apparatus, document reading method, and mobile terminal |
| US8065157B2 (en) | 2005-05-30 | 2011-11-22 | Kyocera Corporation | Audio output apparatus, document reading method, and mobile terminal |
| JP2008021216A (en) * | 2006-07-14 | 2008-01-31 | Fujitsu Ltd | Information retrieval system |
| JP2009294790A (en) * | 2008-06-03 | 2009-12-17 | Denso Corp | System for providing information for vehicle |
| US8190434B2 (en) | 2008-06-03 | 2012-05-29 | Denso Corporation | Apparatus for providing information for vehicle |
| JP2011028460A (en) * | 2009-07-24 | 2011-02-10 | J&K Car Electronics Corp | Information retrieval device, control method, and program |
| JP2011248020A (en) * | 2010-05-25 | 2011-12-08 | Sony Corp | Search device, search method, and program |
| JP2013101226A (en) * | 2011-11-08 | 2013-05-23 | Kyocera Document Solutions Inc | Real estate property information provision support device |
| JP2014153715A (en) * | 2013-02-07 | 2014-08-25 | Samsung Electronics Co Ltd | Portable terminal with voice talk function and voice talk method thereof |
| JP2018045320A (en) * | 2016-09-12 | 2018-03-22 | ヤフー株式会社 | Information processing apparatus, information processing method, and program |
| WO2018061839A1 (en) * | 2016-09-29 | 2018-04-05 | 株式会社村田製作所 | Transmission device, transmission method, and transmission program |
| JPWO2018061839A1 (en) * | 2016-09-29 | 2019-06-27 | 株式会社村田製作所 | Transmission apparatus, transmission method and transmission program |
| JP2019174846A (en) * | 2016-12-30 | 2019-10-10 | グーグル エルエルシー | Feedback controller for data transmissions |
| JP2018190413A (en) * | 2017-05-02 | 2018-11-29 | ネイバー コーポレーションNAVER Corporation | Method and system for processing user command to adjust and provide operation of device and content provision range by grasping presentation method of user speech |
| WO2021000497A1 (en) * | 2019-07-03 | 2021-01-07 | 平安科技(深圳)有限公司 | Retrieval method and apparatus, and computer device and storage medium |
| JP7246626B1 (en) | 2022-11-15 | 2023-03-28 | 株式会社マイクロネット | Property search system and property search method |
| JP2024071817A (en) * | 2022-11-15 | 2024-05-27 | 株式会社マイクロネット | Property search system and property search method |
| JP7370118B1 (en) | 2023-07-25 | 2023-10-27 | amptalk株式会社 | Information processing device, information processing method, and program |
| JP2025017486A (en) * | 2023-07-25 | 2025-02-06 | amptalk株式会社 | Information processing device, information processing method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20230206940A1 (en) | Method of and system for real time feedback in an incremental speech input interface | |
| US10623573B2 (en) | Personalized support routing based on paralinguistic information | |
| US8332224B2 (en) | System and method of supporting adaptive misrecognition conversational speech | |
| US20160372116A1 (en) | Voice authentication and speech recognition system and method | |
| JP5024154B2 (en) | Association apparatus, association method, and computer program | |
| US7415415B2 (en) | Computer generated prompting | |
| US20160307571A1 (en) | Conversation analysis device, conversation analysis method, and program | |
| US20080240379A1 (en) | Automatic retrieval and presentation of information relevant to the context of a user's conversation | |
| AU2016216737A1 (en) | Voice Authentication and Speech Recognition System | |
| CN110990685A (en) | Voice search method, voice search device, voice search storage medium and voice search device based on voiceprint | |
| JP2005275601A (en) | Information retrieval system by voice | |
| US12243517B1 (en) | Utterance endpointing in task-oriented conversational systems | |
| JP2012194245A (en) | Speech recognition device, speech recognition method and speech recognition program | |
| US11582174B1 (en) | Messaging content data storage | |
| KR101891495B1 (en) | Method and computer device for controlling a display to display conversational response candidates to a user utterance input, and computer readable recording medium | |
| KR20190065194A (en) | METHOD AND APPARATUS FOR GENERATING READING DOCUMENT Of MINUTES | |
| JP4143541B2 (en) | Method and system for non-intrusive verification of speakers using behavior models | |
| JP2005242891A (en) | Case search program | |
| US11837251B2 (en) | Virtual counseling system and counseling method using the same | |
| JP5589426B2 (en) | Content providing system, content providing method, and content providing program | |
| CN114582373B (en) | Method and device for identifying emotion of user in man-machine conversation | |
| KR20240134671A (en) | Conversation providing method and Conversation providing DEVICE | |
| KR102296503B1 (en) | System for collecting learning data | |
| CN119887090A (en) | Anti-fraud propaganda method, system, storage medium and electronic equipment | |
| CN121144472A (en) | Method, apparatus, program product and storage medium for dialogue with delivery capacity |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070605 |