[go: up one dir, main page]

JP2005275601A - Information retrieval system by voice - Google Patents

Information retrieval system by voice Download PDF

Info

Publication number
JP2005275601A
JP2005275601A JP2004085341A JP2004085341A JP2005275601A JP 2005275601 A JP2005275601 A JP 2005275601A JP 2004085341 A JP2004085341 A JP 2004085341A JP 2004085341 A JP2004085341 A JP 2004085341A JP 2005275601 A JP2005275601 A JP 2005275601A
Authority
JP
Japan
Prior art keywords
search
information
voice
user
item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004085341A
Other languages
Japanese (ja)
Inventor
Yayoi Nakamura
やよい 中村
Shingo Suzumori
信吾 鈴森
Taku Yoshida
卓 吉田
Noritaka Kajisaki
紀貴 梶崎
Kazuhiko Nakamura
和彦 中村
Daisuke Nagai
大輔 永井
Koji Yamamoto
幸二 山本
Hideo Ueno
英雄 上野
Toshihiro Ide
敏博 井手
Hiroshi Sugitani
浩 杉谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2004085341A priority Critical patent/JP2005275601A/en
Publication of JP2005275601A publication Critical patent/JP2005275601A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】利用者の発声内容から、検索項目にあらわれない利用者の要求を把握し、要求に応じた検索結果を提示するための検索を可能とする技術を提供する。
【解決手段】音声による情報検索システムは、情報検索を希望する利用者の発声内容を含む音声データから、検索項目に対するキーワードとなる認識語を抽出する検索項目抽出部と、音声データから利用者の感情に係る感情情報を抽出する音声情報抽出部と、認識語及び感情情報から、少なくとも1つの検索項目に対する検索条件を含む検索式を生成して出力する検索制御部とを含む。
【選択図】図1
Provided is a technique that enables a search for presenting a search result corresponding to a request by grasping a user's request that does not appear in a search item from the utterance content of the user.
A speech information retrieval system includes a retrieval item extraction unit that extracts a recognition word that is a keyword for a retrieval item from speech data including a utterance content of a user who desires information retrieval, and a user's speech from the speech data. A voice information extraction unit that extracts emotion information related to emotion; and a search control unit that generates and outputs a search expression including a search condition for at least one search item from the recognized word and the emotion information.
[Selection] Figure 1

Description

ボイスポータルなど音声応答を利用して、利用者の希望する検索条件を入力し、情報を提供する音声応答サービス分野に関する。   The present invention relates to a voice response service field in which a search condition desired by a user is input by using a voice response such as a voice portal and information is provided.

近年、音声認識、音声合成、音声対話のような音声応答関連分野の技術的発達が著しい。音声応答サービスとは、音声関連技術を備えたシステムと利用者とが対話を行なうことによりシステムが利用者に対し、様々なサービスを提供するサービスである。代表的な音声応答サービスは、利用者がパソコンや電話から音声を用いてシステムにアクセスし、サービスを受けることができる、ボイスポータルである。   In recent years, technological development in speech response related fields such as speech recognition, speech synthesis, and speech dialogue has been remarkable. The voice response service is a service in which the system provides various services to the user through a dialogue between the system having the voice-related technology and the user. A typical voice response service is a voice portal that allows a user to access the system using voice from a personal computer or telephone and receive the service.

例えばWWW(World Wide Web)等を使用して、インターネットの検索エンジンでWebサイトを検索する場合、以下のような方法が取られてきた。
(1)検索条件の全ての項目を満たすデータのみを検索、表示する。
(2)検索条件に対して、予め設定された範囲を有効として、範囲内のデータを含めて検索する。
For example, in the case of searching a Web site with an Internet search engine using WWW (World Wide Web) or the like, the following methods have been taken.
(1) Search and display only data satisfying all items of the search condition.
(2) With respect to the search condition, a preset range is validated and a search is performed including data within the range.

また、評価結果の提示方法として、検索条件に重みづけをして評価を行ない、検索結果
に対して総合点を設け、総合点の高い順で検索された項目(アイテム)を提示する方法が一般的である(例えば、特許文献1)。
Also, as a method of presenting the evaluation results, a method is generally used in which the search conditions are weighted and evaluated, comprehensive points are provided for the search results, and items (items) searched in descending order of the comprehensive points are presented. (For example, Patent Document 1).

従来の音声応答システムにおいても、従来のWEB等での検索エンジンで使用される方法が一般的に用いられてきた。   Also in a conventional voice response system, a method used in a conventional search engine such as WEB has been generally used.

また、音声独自の検索しにくさを取り除く手段を含む技術として、例えば、音声応答時に得られる付属語を使用し、項目間の優先度変更などを実施する技術(例えば、特許文献
2)、及び、利用者の発話以外の周囲の状況から、情報検索を効率良く行うための情報を
抽出する技術(例えば、特許文献3)がある。
特開平03−118662号公報 特開平01−263823号公報 特開2000−20090号公報
In addition, as a technique including means for removing difficulty in searching unique to voice, for example, a technique for changing priority among items using an attached word obtained at the time of voice response (for example, Patent Document 2), and There is a technique (for example, Patent Document 3) that extracts information for efficient information retrieval from surrounding situations other than the user's utterance.
Japanese Patent Laid-Open No. 03-118662 Japanese Patent Laid-Open No. 01-263823 JP 2000-20090 A

Web検索などでは、利用者が検索条件を目視しながら、設定したい検索条件を一度に設定することができる。このため、検索条件の設定、追加、変更を容易に行うことができる。また、項目間の重み付けの設定や、検索条件の範囲設定、1項目2条件の設定なども比較的容易に行なうことができる。   In Web search or the like, a user can set search conditions to be set at a time while viewing the search conditions. For this reason, it is possible to easily set, add, and change search conditions. In addition, setting of weighting between items, setting of search condition range, setting of one item and two conditions can be performed relatively easily.

しかしながら、音声応答システムにおいては、検索条件の設定が音声対話で行なわれる。このため、検索条件に関し、以下のような、音声独自の困難性が生じる。
(1)検索条件を視覚で確認することができない。また、一度に設定できる項目がWeb検索に比べて少ない。(2)重み付け、範囲設定、1項目2条件のような細かい検索条件の設定が困難である。(3)設定項目の読み上げによる確認などが行われるので、設定に時間がかかる。
However, in the voice response system, the search condition is set by voice dialogue. For this reason, the following voice-specific difficulties arise regarding the search conditions.
(1) The search condition cannot be visually confirmed. Also, fewer items can be set at a time than Web search. (2) It is difficult to set fine search conditions such as weighting, range setting, and one item / two conditions. (3) Since confirmation is performed by reading out setting items, it takes time to set.

特に、従来の音声応答システムによる検索では、利用者からの要求に応じた検索条件(
検索キーワードそのもの)と、予め定められている検索条件の緩和条件(検索対象データを検索条件に合致するものとしてヒットさせる範囲を定める基準)と、予め定められた検索
項目間の重み付け(項目を重視する順位)に基づいて、検索が行われていた。このように、予め定められた緩和条件及び重み付けが用いられていたため、利用者の意図が緩和条件や重み付けと十分に合致しない場合には、利用者が所望の検索結果を得ることができない場合があった。この場合には、再度の検索条件設定が必要となり、利用者が所望の検索結果を得るのに時間を要する可能性があった。
In particular, in the search by the conventional voice response system, the search condition according to the request from the user (
Search keywords themselves), relaxation conditions for predetermined search conditions (standards for determining the range to hit the search target data as matching the search conditions), and weighting between predetermined search items (emphasis on items) The search was performed on the basis of the ranking. As described above, since the predetermined relaxation conditions and weighting are used, if the user's intention does not sufficiently match the relaxation conditions and weighting, the user may not be able to obtain a desired search result. there were. In this case, it is necessary to set search conditions again, and it may take time for the user to obtain a desired search result.

本発明の目的は、上述した問題を解決するために、利用者の発声内容から、利用者の要求を把握し、要求に応じた検索結果を提示するための検索を可能とする音声による情報検索システムを提供することである。   In order to solve the above-described problems, an object of the present invention is to search information for grasping a user's request from the content of the user's utterance and presenting a search result according to the request. Is to provide a system.

本発明は、上述した目的を達成するため、以下の構成を採用する。すなわち、本発明は、 情報検索を希望する利用者の発声内容を含む音声データから、検索項目に対するキーワードとなる認識語を抽出する検索項目抽出部と、
前記音声データから利用者の感情に係る感情情報を抽出する音声情報抽出部と、
前記認識語及び感情情報から、少なくとも1つの検索項目に対する検索条件を含む検索式を生成して出力する検索制御部と、
を含む音声による情報検索システムである。
The present invention adopts the following configuration in order to achieve the above-described object. That is, the present invention provides a search item extraction unit that extracts a recognition word that is a keyword for a search item from voice data including a utterance content of a user who desires an information search,
A voice information extraction unit that extracts emotion information related to a user's emotion from the voice data;
A search control unit that generates and outputs a search expression including a search condition for at least one search item from the recognized word and emotion information;
Is a voice information retrieval system including

本発明によれば、検索のキーワードとしての認識語のみならず、利用者の感情情報を元にした検索条件を含む検索式が設定される。従って、感情情報から利用者の要求を把握し、利用者の要求に応じた検索結果を提示するための検索が可能となる。   According to the present invention, not only a recognition word as a search keyword but also a search expression including a search condition based on user emotion information is set. Therefore, it is possible to perform a search for grasping a user's request from emotion information and presenting a search result according to the user's request.

好ましくは、本発明による情報検索システムは、前記検索制御部が、前記感情情報に基づいて、検索に係る複数の検索項目に対する重み付け値を決定し、
前記重み付け値を格納する格納部と、
前記検索式に合致する少なくとも1つの検索結果データを受け取った場合に、前記格納部に格納された重み付け値を用いて、各検索結果データに対する評価を行う検索結果評価部とをさらに含む。
Preferably, in the information search system according to the present invention, the search control unit determines weight values for a plurality of search items related to the search based on the emotion information,
A storage unit for storing the weight values;
And a search result evaluation unit that evaluates each search result data using the weighting value stored in the storage unit when at least one search result data matching the search formula is received.

このようにすれば、検索結果評価部が、設定された重み付けを用いた検索結果データの評価を行い、複数の検索結果データを受け取った場合に、これらの中から、利用者の要求に応じた検索結果を抽出し、提供することが可能となる。   In this way, when the search result evaluation unit evaluates the search result data using the set weighting and receives a plurality of search result data, the search result evaluation unit responds to the user's request from these. Search results can be extracted and provided.

好ましくは、本発明による情報検索システムは、前記音声情報抽出部が、(1)利用者の声の大きさ,(2)音声データに含まれる無音時間の長さ,(3)前記認識語として認識されない単語としての不要語,(4)音声データ中の利用者の発声内容に含まれる未知語の割合、の少なくとも1つを示す情報を、前記感情情報として抽出する。   Preferably, in the information search system according to the present invention, the voice information extraction unit includes (1) a loudness of a user's voice, (2) a length of silent time included in voice data, and (3) a recognition word. Information indicating at least one of unnecessary words as unrecognized words and (4) the ratio of unknown words contained in the utterance content of the user in the voice data is extracted as the emotion information.

また、本発明は、上述した情報検索システムと同様の特徴を持つ、情報検索方法、プログラム、及びこのプログラムを記録したコンピュータ読み取り可能な記録媒体として特定することが可能である。   Further, the present invention can be specified as an information search method, a program, and a computer-readable recording medium on which the program is recorded, having the same characteristics as the information search system described above.

本発明によれば、利用者の発声内容から、利用者の要求を把握し、要求に応じた検索結果を得るための検索を可能とする音声による情報検索システムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the information search system by the audio | voice which enables the search for grasping | ascertaining a user's request | requirement from a user's utterance content and obtaining the search result according to a request | requirement can be provided.

以下、図面を参照して本発明の実施形態を説明する。実施形態の構成は例示であり、本発明は実施の形態の構成に限定されない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The configuration of the embodiment is an exemplification, and the present invention is not limited to the configuration of the embodiment.

〔第1実施形態〕
〈システム構成〉
最初に、本発明による音声応答システムの第1実施形態について説明する。図1は、本発明による音声応答システムの実施形態を示す。図1で示される音声応答システムは、例として、検索項目抽出部2と、検索制御部3と、検索条件蓄積部4と、データ蓄積部8と、検索結果評価部9と、メッセージ合成部10と、音声情報抽出部12とを備える検索装置14と、検索装置14に接続される音声入力部1及びメッセージ出力部11とを備える。
[First Embodiment]
<System configuration>
First, a first embodiment of the voice response system according to the present invention will be described. FIG. 1 shows an embodiment of a voice response system according to the present invention. The voice response system shown in FIG. 1 includes, for example, a search item extraction unit 2, a search control unit 3, a search condition storage unit 4, a data storage unit 8, a search result evaluation unit 9, and a message synthesis unit 10. And a search device 14 including the voice information extraction unit 12, and a voice input unit 1 and a message output unit 11 connected to the search device 14.

音声入力部1は、マイクロフォンを含む音声入力装置を用いて構成される。音声入力部1と、検索装置13との間は、ネットワークによって接続されていてもよい。この場合、音声入力部1として、パソコン(PC),ワークステーション(WS),PDA(Personal Digital Assistants),及び電話機のような音声通信(送信)機能を持つ機器を適用すること
ができる。
The voice input unit 1 is configured using a voice input device including a microphone. The voice input unit 1 and the search device 13 may be connected by a network. In this case, as the voice input unit 1, a device having a voice communication (transmission) function such as a personal computer (PC), a workstation (WS), a PDA (Personal Digital Assistants), and a telephone can be applied.

また、メッセージ出力部11は、スピーカを含む音声出力装置を用いて構成される。メッセージ出力部11と検索装置13との間は、ネットワークによって接続されていてもよい。この場合、メッセージ出力部11として、PC,WS,PDA,及び電話機のような音声通信(受信)機能を持つ機器を適用することができる。また、メッセージ出力部11は、ディスプレイ装置のような情報をテキストや画像で示す表示装置を含んでいても良い。   The message output unit 11 is configured using an audio output device including a speaker. The message output unit 11 and the search device 13 may be connected by a network. In this case, a device having a voice communication (reception) function such as a PC, WS, PDA, and telephone can be applied as the message output unit 11. The message output unit 11 may include a display device that displays information such as a display device in text or an image.

以上より、音声入力部1及びメッセージ出力部11は、音声入力装置及び音声出力装置を持つ、PC,WS,PDA,電話機(固定電話機及び携帯電話機)を用いて構成することができる。音声入力部1及びメッセージ出力部11は、検索装置14側で用意されるものであっても良く、利用者側で用意されるものであっても良い。   As described above, the voice input unit 1 and the message output unit 11 can be configured using a PC, WS, PDA, and telephone (a fixed phone and a mobile phone) having a voice input device and a voice output device. The voice input unit 1 and the message output unit 11 may be prepared on the search device 14 side or may be prepared on the user side.

音声入力部1には、音声検索を行うための利用者の音声が入力される。音声入力部1は、入力された音声に対応する音声データを生成し、検索項目抽出部2及び音声情報抽出部12に与える。   The voice input unit 1 receives a user's voice for voice search. The voice input unit 1 generates voice data corresponding to the input voice and gives it to the search item extraction unit 2 and the voice information extraction unit 12.

検索項目抽出部2は、音声入力部1から入力される音声データに対する音声認識処理を行い、予め登録されている検索項目に対応するキーワードを認識語として認識するように構成されている。検索項目抽出部2は、認識語として抽出したキーワードのテキストデータを検索制御部3に与える。検索項目抽出部2として、既存の音声認識エンジンを適用することができる。   The search item extraction unit 2 is configured to perform voice recognition processing on the voice data input from the voice input unit 1 and recognize a keyword corresponding to a search item registered in advance as a recognition word. The search item extraction unit 2 gives the search control unit 3 text data of keywords extracted as recognition words. As the search item extraction unit 2, an existing speech recognition engine can be applied.

音声情報抽出部12は、音声入力部1から入力される音声データに対する音声認識処理,音量測定,無音時間の測定などを行い、利用者の話し方(感情)に係るデータを抽出する。例えば、音声情報抽出部12は、音声データ(利用者の発声内容)中の声が比較的大きい部分、発声内容中の沈黙(無音時間)の長さ(間合い)、利用者の要求内容ではない単語(キ
ーワード(認識語)の抽出に不要な単語:「不要語(ストップワード)」と称する)、音声認
識システムに登録されていない単語(「未知語」と呼ばれる)などを利用者の感情情報として抽出し、抽出された感情情報を検索制御部3に与える。
The voice information extraction unit 12 performs voice recognition processing, sound volume measurement, silence time measurement, and the like on the voice data input from the voice input unit 1, and extracts data related to the user's speech (emotion). For example, the voice information extraction unit 12 is not a portion where the voice in the voice data (content of the user's utterance) is relatively loud, the length of silence (silence time) in the utterance content, and the content requested by the user. User emotion information such as words (unnecessary words for extracting keywords (recognized words): called “unnecessary words (stop words)”), words not registered in the speech recognition system (called “unknown words”), etc. And the extracted emotion information is given to the search control unit 3.

検索条件蓄積部4は、情報検索に必要な複数の検索項目に対応する検索条件(キーワー
ド)5と、検索条件の緩和条件(キーワードと完全一致しないが条件に合致するデータとしてヒットさせる範囲を定める基準)6と、検索項目間の重み付け(検索にあたってどの項目
を重視するかの基準)7とを利用者毎に蓄積する。また、検索条件蓄積部4は、利用者毎
の音声情報反映基準13を蓄積する。
The search condition accumulating unit 4 determines a search condition (keyword) 5 corresponding to a plurality of search items necessary for information search and a search condition relaxation condition (a range to be hit as data that does not completely match the keyword but matches the condition. (Reference) 6 and weighting between search items (standard of which items are emphasized in search) 7 are stored for each user. In addition, the search condition accumulation unit 4 accumulates the voice information reflection reference 13 for each user.

検索制御部3は、検索条件蓄積部4に蓄積された検索条件5、緩和条件6、及び重み付け7と、検索項目抽出部2から入力される認識語(キーワード)と、音声情報抽出部12から得られる感情情報とに基づいて、情報検索に適用する検索方法データを生成し、データ蓄積部8に与える。   The search control unit 3 includes a search condition 5, a relaxation condition 6, and a weight 7 stored in the search condition storage unit 4, a recognition word (keyword) input from the search item extraction unit 2, and a voice information extraction unit 12. Based on the obtained emotion information, search method data to be applied to information search is generated and given to the data storage unit 8.

具体的には、検索制御部3は、検索項目抽出部2から得られるキーワードそのものを、このキーワードに対応する検索項目の検索条件としてそのまま設定する。また、検索制御部3は、音声情報抽出部12から感情情報が得られている場合には、その感情情報の内容に応じた緩和条件及び/又は重み付けを決定する。このとき、検索制御部3は、(1)キーワードが自由な対話とシナリオを持つ対話とのどちらにより得られたか、(2)キーワードが何回目の音声入力により得られたか、などを重み付けの決定要素として考慮することができる。   Specifically, the search control unit 3 sets the keyword itself obtained from the search item extraction unit 2 as it is as a search condition for the search item corresponding to this keyword. In addition, when emotion information is obtained from the voice information extraction unit 12, the search control unit 3 determines relaxation conditions and / or weights according to the content of the emotion information. At this time, the search control unit 3 determines weights such as (1) whether the keyword is obtained by a free dialogue or a dialogue having a scenario, and (2) how many times the keyword is obtained by voice input. It can be considered as an element.

このとき、既に設定されている緩和条件及び/又は重み付けがある場合には、これらの内容(設定値)が変更される。このようにして、検索制御部3は、キーワード及び感情情報を用いて最終的に得られる各検索項目の検索条件,緩和条件を検索方法データとして生成する。そして、検索制御部3は、検索方法データを、データ蓄積部8に与える。   At this time, if there are already set relaxation conditions and / or weights, these contents (setting values) are changed. In this way, the search control unit 3 generates search conditions and relaxation conditions for each search item finally obtained using the keyword and emotion information as search method data. Then, the search control unit 3 gives the search method data to the data storage unit 8.

データ蓄積部8は、検索対象のデータを蓄積している。データ蓄積部8は、検索制御部3から与えられる検索方法データにより指定される検索条件及び緩和条件に合致するデータを検索し、検索結果のデータを検索結果評価部9に与える。   The data storage unit 8 stores search target data. The data storage unit 8 searches for data that matches the search condition and the relaxation condition specified by the search method data given from the search control unit 3, and gives the search result data to the search result evaluation unit 9.

検索結果評価部9は、データ蓄積部8から得られる検索結果の評価を、検索条件蓄積部4に蓄積された重み付け7及び音声情報反映基準13に基づいて行い、その評価結果が反映された検索結果をメッセージ合成部10に対して出力する。すなわち、検索結果評価部9は、重み付け7及び音声情報反映基準13に基づき、データ蓄積部8から受け取った検索結果から出力すべき検索結果を選出し、選出した検索結果をメッセージ合成部10に対して出力する。   The search result evaluation unit 9 evaluates the search result obtained from the data storage unit 8 based on the weighting 7 and the voice information reflection reference 13 stored in the search condition storage unit 4, and the search result reflecting the evaluation result The result is output to the message synthesis unit 10. That is, the search result evaluation unit 9 selects a search result to be output from the search result received from the data storage unit 8 based on the weighting 7 and the voice information reflection standard 13, and sends the selected search result to the message synthesis unit 10. Output.

メッセージ合成部10は、利用者の状況に応じた様々な音声メッセージをメッセージ出力部に与える。例えば、メッセージ合成部は、音声応答システムの利用に係るガイダンス(案内)メッセージをメッセージ出力部11に与える。また、メッセージ合成部10は、検索結果評価部9から検索結果を受け取った場合には、検索結果を説明する音声などとの合成処理を行い、合成の結果として得られるメッセージをメッセージ出力部11に対して出力する。   The message synthesis unit 10 gives various voice messages according to the user's situation to the message output unit. For example, the message synthesis unit gives a guidance (guidance) message related to the use of the voice response system to the message output unit 11. In addition, when the message synthesis unit 10 receives the search result from the search result evaluation unit 9, the message synthesis unit 10 performs a synthesis process with a voice or the like explaining the search result, and sends a message obtained as a result of the synthesis to the message output unit 11. Output.

メッセージ出力部11は、メッセージの音声を外部に出力する。利用者は、メッセージ出力部11から出力されるメッセージを聞くことができる。利用者は、メッセージ出力部11から出力される音声ガイダンスや問い合わせのメッセージに対して、音声入力部1を用いて回答(音声入力)を行うことができる。また、利用者はメッセージ出力部11から検索結果を受け取ることができる。   The message output unit 11 outputs the voice of the message to the outside. The user can listen to the message output from the message output unit 11. The user can make an answer (voice input) to the voice guidance or inquiry message output from the message output unit 11 using the voice input unit 1. Further, the user can receive the search result from the message output unit 11.

なお、上述した検索装置14では、例えば、検索結果評価部9が、評価結果に基づき、さらなる検索が必要と判断する場合には、検索結果の代わりに、さらなる検索条件の入力を促すメッセージが利用者に与えられる。これに対し、利用者がさらなる検索条件を音声入力すると、この検索条件に対する検索及び評価が行われる。検索結果評価部9は、さらなる評価結果を行い、検索結果を利用者に提供する条件が満たされると、検索結果をメッ
セージ合成部10に与える。
In the search device 14 described above, for example, when the search result evaluation unit 9 determines that further search is necessary based on the evaluation result, a message that prompts input of further search conditions is used instead of the search result. Given to a person. On the other hand, when the user inputs a further search condition by voice, search and evaluation for the search condition are performed. The search result evaluation unit 9 performs a further evaluation result, and gives a search result to the message synthesis unit 10 when a condition for providing the search result to the user is satisfied.

検索装置14は、パソコン(PC)、ワークステーション(WS)のような、CPU(Central Processing Unit),主記憶(RAM(Random Access Memory)等),補助記憶(ROM(Read Only Memory),EEPROM(Electrically Erasable Programmable Read-Only Memory),ハードディスク等),及び通信インタフェースを備え、さらに、必要に応じて入力装
置(キーボード,ボタン,ポインティングデバイス(例えばマウス)等)、及び出力装置(デ
ィスプレイ、プリンタ等)を備える汎用又は専用の情報処理装置(コンピュータ)を用いて
構成することができる。
The search device 14 includes a CPU (Central Processing Unit), a main memory (RAM (Random Access Memory), etc.), an auxiliary memory (ROM (Read Only Memory)), an EEPROM (such as a personal computer (PC) and a workstation (WS)). Electrically Erasable Programmable Read-Only Memory), hard disk, etc.) and communication interface, and input devices (keyboard, buttons, pointing device (eg mouse)), and output devices (display, printer, etc.) as necessary Can be configured using a general-purpose or dedicated information processing apparatus (computer).

検索項目抽出部2,検索制御部3,検索結果評価部9,メッセージ合成部10のそれぞれが持つ機能、及びデータ蓄積部8の検索機能は、例えば、CPUが補助記憶に記憶されたプログラムを主記憶にロードして実行することにより実現される。あるいは、これらの各部は、これらが持つ機能を実現するためのASIC(Application Specific Integrated
Circuit)のようなハードウェアチップにより実現することも可能である。
The functions of each of the search item extraction unit 2, the search control unit 3, the search result evaluation unit 9, and the message synthesis unit 10 and the search function of the data storage unit 8 are, for example, a program stored in the auxiliary memory by the CPU. This is realized by loading it into memory and executing it. Alternatively, each of these units has an ASIC (Application Specific Integrated) for realizing the functions of these units.
It can also be realized by a hardware chip such as Circuit).

また、データ蓄積部8において蓄積されるデータの蓄積領域として、検索装置14内の補助記憶や、検索装置14とネットワークを通じて接続されるファイルサーバのようなネットワーク上に位置する記憶領域を適用することができる。また、データ蓄積部8は、検索装置14とネットワークを介して接続され、検索装置14から与えられる検索方法データに対する検索結果を検索装置に返す外部装置として構成することも可能である。   Further, as a storage area of data stored in the data storage unit 8, an auxiliary storage in the search device 14 or a storage area located on a network such as a file server connected to the search device 14 through the network is applied. Can do. The data storage unit 8 can also be configured as an external device that is connected to the search device 14 via a network and returns search results for search method data provided from the search device 14 to the search device.

また、検索条件蓄積部4として、RAM、EEPROM、ハードディスクのような記憶装置を適用することができる。   Further, as the search condition storage unit 4, a storage device such as a RAM, an EEPROM, or a hard disk can be applied.

次に、図1に示したような音声応答システムが不動産の賃貸物件情報検索サービスに適用される場合において、「家賃」、「間取り」、「最寄駅」、「最寄駅からの所要時間」、及び「ペット可」の5つの検索項目に対する検索条件を設定して物件を検索する場合を例として説明する。   Next, when the voice response system as shown in FIG. 1 is applied to the rental property information search service for real estate, “Rent”, “Room layout”, “Nearest station”, “Time required from the nearest station” ”And“ pet allowed ”will be described as an example in which search conditions are set for five search items and a property is searched.

図2は、賃貸物件情報の検索サービスにおける対話例を示す。図2には、利用者が、検索サービスシステムに対し、電話をかけて対話を行う例が示されている。図2において、利用者がシステムに対して電話をかけると、システムから「どのような物件をお探しでしょうか?」との音声による質問が利用者に与えられる。   FIG. 2 shows an example of dialogue in the rental property information search service. FIG. 2 shows an example in which a user makes a telephone conversation with the search service system. In FIG. 2, when a user calls the system, the system gives a voice question “What kind of property are you looking for?” To the user.

このとき、利用者が、例えば「ワンルームで、(間)えーっと、8万円くらい」との回答をシステムに返す。このとき、システムは、この回答に基づく検索を行う。このとき得られる検索結果が、利用者に検索結果を提示する条件を満たしていない場合には、システムは、例えば、「他に条件はありますか?」との質問を利用者に与える。この質問に対し、利用者が「新宿駅あたりでお願いします」との回答をシステムに返す。   At this time, the user returns, for example, a reply “for example, one room, (between) about 80,000 yen” to the system. At this time, the system performs a search based on this answer. If the search result obtained at this time does not satisfy the condition for presenting the search result to the user, the system gives the user a question “Is there any other condition?”, For example. In response to this question, the user returns an answer “Please do around Shinjuku Station” to the system.

すると、システムは、利用者から得た回答に基づいて、対応する物件を検索する。そして、検索が終了し、検索結果を利用者に提示する条件が満たされると、システムは、「ご希望の物件が**件になりました。物件をご案内致します」との、検索結果の音声メッセージを利用者に返す。このような対話がシステムと利用者との間で行われる。以下、このような対話を通じて行われる情報検索について詳細に説明する。   Then, the system searches for a corresponding property based on the answer obtained from the user. When the search is completed and the conditions for presenting the search results to the user are satisfied, the system will display a search result saying that the desired property has been **. Return a voice message to the user. Such a dialogue takes place between the system and the user. Hereinafter, information retrieval performed through such dialogue will be described in detail.

図3は、本発明に係る音声応答システム(検索装置14)による情報検索の流れを示すフローチャートである。図3に示すフローは、検索装置14の利用者が、電話などの音声入力部1を用いて検索装置14にアクセスすることによって開始する。   FIG. 3 is a flowchart showing a flow of information search by the voice response system (search device 14) according to the present invention. The flow shown in FIG. 3 starts when the user of the search device 14 accesses the search device 14 using the voice input unit 1 such as a telephone.

最初に、検索装置14は、利用者に対し、検索条件について、自由な音声入力を行うことを促す問合せを実施する(ステップS01)。例えば、検索装置14は、利用者に対し、検索希望の項目の種類や項目数を自由に音声入力することを促す案内メッセージをメッセージ出力部11を介して利用者に与える。このとき、例えば、図2に示す「どのような物件をお探しでしょうか」のような、問い合わせのメッセージが利用者に与えられる。   First, the search device 14 makes an inquiry that prompts the user to perform free voice input for the search condition (step S01). For example, the search device 14 gives the user a guidance message for prompting the user to freely input the type and number of items desired to be searched via the message output unit 11. At this time, for example, an inquiry message such as “What kind of property are you looking for?” Shown in FIG. 2 is given to the user.

次に、検索装置14は、利用者からの回答に係る音声データを音声入力部1を介して受け取る(ステップS02)。このとき、検索装置14は、例えば、図2に示す「ワンルームで、(沈黙)えーっと、8万円くらい」との発声に基づく音声データを受け取る。   Next, the search device 14 receives the voice data related to the answer from the user via the voice input unit 1 (step S02). At this time, for example, the search device 14 receives voice data based on the utterance “One room, (silence) Well, about 80,000 yen” shown in FIG.

すると、検索装置14は、検索項目抽出部2で、音声データに含まれるキーワードを抽出し、検索制御部3で、抽出されたキーワードに基づく検索条件を設定する(ステップS
03)。図2の例では、例えば、回答中の「ワンルーム」が間取りに対する検索条件とし
て設定されるとともに「8万円」が家賃に対する検索条件として設定される。
Then, the search device 14 uses the search item extraction unit 2 to extract keywords included in the voice data, and the search control unit 3 sets search conditions based on the extracted keywords (step S).
03). In the example of FIG. 2, for example, “One Room” in the answer is set as a search condition for the floor plan, and “80,000 yen” is set as a search condition for the rent.

また、検索装置14は、利用者の回答の特徴を解析する(ステップS04)。すなわち、音声情報抽出部12が、回答に係る音声データ、すなわち回答時の利用者の発声内容(話
し方)から、例えば(1)回答時の声の大きさ、(2)回答の行われるタイミング、及び(3)
不要語、(4)回答を未知語が占める割合のような感情情報を抽出する。
Further, the search device 14 analyzes the feature of the user's answer (step S04). That is, the voice information extraction unit 12 uses, for example, (1) loudness at the time of answering, (2) timing at which the answer is made, based on voice data related to the answer, that is, the utterance content (speaking method) of the user at the time of answering, And (3)
Unnecessary words, (4) Emotion information such as the ratio of unknown words in answers is extracted.

続いて、検索制御部3が、音声情報抽出部12による抽出結果に基づいて、検索項目に対する緩和条件や重み付けを設定する(ステップS03)。このとき、検索制御部3は、回答の行われた問い合わせ(回答を得るために行った問い合わせの内容)を、緩和条件や重み付けの変更に適用することもできる。   Subsequently, the search control unit 3 sets relaxation conditions and weights for the search items based on the extraction result by the voice information extraction unit 12 (step S03). At this time, the search control unit 3 can also apply the inquiry for which an answer has been made (the contents of the inquiry made to obtain the answer) to a change in relaxation conditions or weighting.

図2に示す例では、例えば、回答中の「8万円くらい」の「くらい」が、不要語として抽出され、家賃に対する検索条件「8万円」を緩和する(ヒットする範囲を広げる)要素として用いられ、これに基づく緩和条件が設定される。   In the example shown in FIG. 2, for example, “about” of “about 80,000 yen” in the answer is extracted as an unnecessary word, and the search condition “80,000 yen” for rent is relaxed (expanding the hit range). And a relaxation condition based on this is set.

次に、検索装置14は、検索対象データの評価を行う。すなわち、検索制御部3がステップS03及びS04で設定された検索条件及び緩和条件をデータ蓄積部8に与え、データ蓄積部8は、検索条件及び緩和条件に合致するデータを検索結果として検索結果評価部9に与える。検索結果評価部9は、検索結果を受け取ると、検索条件蓄積部4に設定されている音声情報反映基準13を用いて検索結果を評価を行う。   Next, the search device 14 evaluates search target data. That is, the search control unit 3 gives the search condition and the relaxation condition set in steps S03 and S04 to the data storage unit 8, and the data storage unit 8 evaluates the search result using the data that matches the search condition and the relaxation condition as a search result. Part 9 is given. When the search result evaluation unit 9 receives the search result, the search result evaluation unit 9 evaluates the search result using the voice information reflection standard 13 set in the search condition storage unit 4.

次に、検索装置14は、情報提供/検索続行の確認処理を行う(ステップS06、S0
7)。すなわち、検索装置14は、検索結果評価部9による検索結果の評価に基づき、検
索結果情報を利用者に提供するか、あるいは検索を続行するかの総合的な判断を行う。このような判断は、例えば、検索結果評価部9や検索制御部3で行うことができる。
Next, the search device 14 performs an information provision / search continuation confirmation process (steps S06, S0).
7). That is, based on the evaluation of the search result by the search result evaluation unit 9, the search device 14 makes a comprehensive determination as to whether to provide the search result information to the user or to continue the search. Such a determination can be made by, for example, the search result evaluation unit 9 or the search control unit 3.

判断の結果、情報提供を行う場合(S07;Yes)には、ステップS12に処理が進み、情報提供処理が行われ、検索結果情報がメッセージ合成部10及びメッセージ出力部11を介して利用者に提供される。   If information is provided as a result of the determination (S07; Yes), the process proceeds to step S12, the information providing process is performed, and the search result information is transmitted to the user via the message synthesis unit 10 and the message output unit 11. Provided.

これに対し、検索を続行すると判断される場合(S07;No)には、検索装置14は、利用者の状況を解析する(ステップS08)。例えば、検索制御部3や検索装置14内の他の部位において、前回の回答で検索条件が得られていない検索項目(未決定検索条件)の有無を判断する(ステップS09)。   On the other hand, when it is determined that the search is continued (S07; No), the search device 14 analyzes the situation of the user (step S08). For example, it is determined whether or not there is a search item (undecided search condition) for which the search condition is not obtained in the previous answer in other parts in the search control unit 3 or the search device 14 (step S09).

未決定の検索条件がある場合(S09;Yes)には、処理がステップS01に戻り、さらなる自由な回答を求める問い合わせが行われる。図2に示す例では、「他に条件はありますか」との問い合わせが行われる。これに対し、例えば、「新宿あたりで、お願いします」との回答が得られる。   If there is an undetermined search condition (S09; Yes), the process returns to step S01, and an inquiry for further free answer is made. In the example shown in FIG. 2, an inquiry “Is there any other condition?” Is made. On the other hand, for example, an answer “Please do around Shinjuku” is obtained.

一方、未決定の検索条件がない場合(S09;No)には、検索条件の各検索項目に対する問い合わせが利用者に対して行われる。問い合わせに対する利用者からの回答が得られると(ステップS11)、処理がステップS03に進む。   On the other hand, when there is no undetermined search condition (S09; No), an inquiry about each search item of the search condition is made to the user. When an answer from the user to the inquiry is obtained (step S11), the process proceeds to step S03.

以下、上述したような流れにおける処理を詳細に説明する。
(1)データの蓄積
最初に、情報検索を実施するためのデータの蓄積について説明する。検索の対象となる検索対象データは、データ蓄積部8に予め登録されている。
Hereinafter, the process in the flow as described above will be described in detail.
(1) Accumulation of data First, the accumulation of data for performing information retrieval will be described. Search target data to be searched is registered in the data storage unit 8 in advance.

また、検索装置14の検索条件蓄積部4には、検索及びその評価にあたって必要となる情報として、(1)物件を案内する件数、(2)評価を行う各項目間の重み付け(初期値)
、(3)各項目の検索条件に対する、検索対象データを評価する関数(初期状態)、(4)利用者の入力した検索条件と、重み付けや関数を利用して物件情報への総合評価を行う関数、及び(5) 利用者の希望に近いと判断する閾値(総合評価閾値)が、予め登録されてい
る。これらの情報(1)〜(5)は、検索結果評価部9による処理に利用される音声情報反映基準13を構成する情報として取り扱われる。
Further, the search condition storage unit 4 of the search device 14 includes (1) the number of articles to be guided as information necessary for the search and its evaluation, and (2) the weight between the items to be evaluated (initial value).
, (3) A function (initial state) that evaluates the search target data for the search conditions of each item, (4) A comprehensive evaluation of the property information using the search conditions entered by the user, weights and functions Functions and (5) threshold values (total evaluation threshold values) that are determined to be close to the user's wishes are registered in advance. These pieces of information (1) to (5) are handled as information constituting the audio information reflection standard 13 used for processing by the search result evaluation unit 9.

図4は、物件を案内する件数の設定例を示す。図4には、物件の案内件数を登録するテーブルが示されている。このテーブルには、件数の例示として、“10”が設定されている。案内件数は適宜の値を設定することができる。図4に示すようなテーブルは、検索条件蓄積部4上に作成することができる。   FIG. 4 shows a setting example of the number of cases for guiding a property. FIG. 4 shows a table for registering the number of property guides. In this table, “10” is set as an example of the number of cases. An appropriate value can be set for the number of guidance cases. A table as shown in FIG. 4 can be created on the search condition storage unit 4.

図5は、評価を行う各項目間の重み付け(初期値)の例を示す。図5には、評価を行うための複数の項目(ここでは、「家賃」、「間取り」、「最寄り駅」、「最寄り駅までの所要時間」、「ペット可」)に対する検索条件、緩和条件、及び重み付けを登録するためのテーブルが示されている。   FIG. 5 shows an example of weighting (initial value) between items to be evaluated. FIG. 5 shows search conditions and relaxation conditions for a plurality of items for evaluation (here, “rent”, “room layout”, “nearest station”, “time required to nearest station”, “pet allowed”). And a table for registering weights.

図5に示す例では、テーブルは、項目(検索項目)、検索条件、緩和条件、重み付けを要素とする1以上のレコードで構成されている。このテーブルに登録される検索条件、緩和条件、重み付けは、それぞれ、利用者の検索要求に対する検索条件5,緩和条件6,重み付け7として取り扱われる。このようなテーブルは、検索条件蓄積部4上に作成することができる。   In the example illustrated in FIG. 5, the table includes one or more records having items (search items), search conditions, relaxation conditions, and weights as elements. The search conditions, relaxation conditions, and weights registered in this table are handled as search conditions 5, relaxation conditions 6, and weights 7 for the user's search request, respectively. Such a table can be created on the search condition storage unit 4.

図5に示す例では、重み付けの初期値として、「家賃」、「間取り」、「最寄り駅」、「最寄り駅までの所用時間」の各項目に対し、“3”,“2”,“2”,“1”が設定されている。なお、初期状態では、例えば、各項目の検索条件として“未設定”が設定され、緩和条件として“なし”が設定される。   In the example shown in FIG. 5, “3”, “2”, “2” are set as initial values of the weights for the items “rent”, “room layout”, “nearest station”, and “time required to the nearest station”. "," 1 "is set. In the initial state, for example, “not set” is set as the search condition for each item, and “none” is set as the relaxation condition.

図6は、各項目の検索条件に対する、検索対象データを評価する評価関数(初期状態)の例を示す。図6には、検索項目“家賃”に対する評価関数の例が示されている。図6に示す評価関数のパラメータは、検索項目に対応する属性値(ここでは家賃の金額)と利用者の満足度である。   FIG. 6 shows an example of an evaluation function (initial state) for evaluating search target data with respect to the search condition of each item. FIG. 6 shows an example of an evaluation function for the search item “rent”. The parameters of the evaluation function shown in FIG. 6 are an attribute value (here, the amount of rent) corresponding to the search item and the satisfaction level of the user.

検索時に利用者によって指定される家賃に対する満足度が基準値とされる。指定家賃に対して、家賃が安すぎても、高すぎても満足度が小となる。具体的には、指定家賃よりも
家賃が安ければ、徐々に満足度が減少する。一方、指定家賃よりも家賃が高くなると、急激に満足度が低下する。このような評価関数は、項目毎に用意され、検索条件蓄積部4に登録することができる。
Satisfaction with the rent specified by the user at the time of search is used as the reference value. Satisfaction is low if the rent is too low or too high for the designated rent. Specifically, if the rent is lower than the designated rent, the satisfaction level gradually decreases. On the other hand, when the rent is higher than the designated rent, the satisfaction level is drastically reduced. Such an evaluation function is prepared for each item and can be registered in the search condition storage unit 4.

各項目の検索条件に対する検索対象データを評価する関数として、項目の属性に応じた4種類のパターン(二値型、離散値型、対象型連続関数、非対象型連続関数)が用意され、検索条件蓄積部4に登録される。これらの評価関数により、各項目に対する利用者の満足度の数値化が行われる。   Four types of patterns (binary type, discrete value type, target type continuous function, non-target type continuous function) corresponding to the item attributes are prepared as functions for evaluating the search target data for each item search condition. Registered in the condition storage unit 4. By these evaluation functions, the user's satisfaction with respect to each item is quantified.

図7は、検索対象データの評価関数のパターンを示す。図7(A)は、二値型の評価関数パターンを示し、図7(B)は、離散値型の評価関数パターンを示し、図7(C)は、対称型連続関数の評価関数パターンを示し、図7(D)は、非対称型連続関数の評価関数パターンを示す。   FIG. 7 shows a pattern of the evaluation function of the search target data. 7A shows a binary evaluation function pattern, FIG. 7B shows a discrete evaluation function pattern, and FIG. 7C shows a symmetric continuous function evaluation function pattern. FIG. 7 (D) shows an evaluation function pattern of an asymmetric continuous function.

二値型は、図7(A)に示すように、“満足(条件が満たされる)”と“不満足(条件が満
たされない)”との一方の値がとられる。例えば、“ペットを飼うことができる/できな
い”のような検索項目が、二値型に該当する。
As shown in FIG. 7A, the binary type takes one value of “satisfied (condition is satisfied)” and “unsatisfied (condition is not satisfied)”. For example, a search item such as “Can / cannot keep a pet” corresponds to a binary type.

離散値型は、図7(B)に示すように、飛び飛びの値を有し、項目について指定される値(基準値)に近くなるほど満足度が高くなる。例えば、“最寄り駅”のような検索項目が、離散値型に該当する。   As shown in FIG. 7B, the discrete value type has a jump value, and the degree of satisfaction increases as the value becomes closer to the value (reference value) specified for the item. For example, a search item such as “nearest station” corresponds to a discrete value type.

対称型連続関数型では、図7(C)に示すように、項目に対して指定される値(基準値)から遠くなるに従って、左右対称に満足度が減少する。例えば、“最寄駅からの所要時間”のような検索項目が、対称型連続関数に該当する。   In the symmetric continuous function type, as shown in FIG. 7C, the degree of satisfaction decreases symmetrically as the distance from the value (reference value) specified for the item increases. For example, a search item such as “required time from the nearest station” corresponds to a symmetric continuous function.

非対象型連続関数型では、図7(D)に示すように、項目に対して指定される値(基準値)から遠くなるに従って、左右非対称に満足度が減少する。例えば、“家賃”のような検索項目が、非対称連続関数型に該当する。   In the non-objective continuous function type, as shown in FIG. 7D, the degree of satisfaction decreases asymmetrically with distance from the value (reference value) specified for the item. For example, a search item such as “rent” corresponds to the asymmetric continuous function type.

上述したような4つのパターンの評価関数によって、それぞれの検索項目に対し、入力された検索項目から多少ずれても許容される範囲(基本許容範囲)が定義される。これらの評価関数は、例えば、市場調査のようなサンプル収集によって得られる統計値を元に作成することができる。   By the evaluation functions of the four patterns as described above, a permissible range (basic permissible range) is defined for each search item even if it slightly deviates from the input search item. These evaluation functions can be created based on statistical values obtained by sample collection such as market research.

図8は、利用者の入力した検索条件と、重み付け及び評価関数を利用して物件情報への総合評価を行う関数の例を示す。図8(A)に示す式は、基本の総合評価式である。この基本総合評価式では、各項目の重み付けと満足度との積の合計点が総合評価点として扱われる。   FIG. 8 shows an example of a function that performs comprehensive evaluation on property information using a search condition input by a user, weighting, and an evaluation function. The formula shown in FIG. 8A is a basic comprehensive evaluation formula. In this basic comprehensive evaluation formula, the total score of the products of weighting and satisfaction of each item is treated as a comprehensive evaluation score.

図8(B)に示す式は、二値型の項目の満足度を重視した総合評価である。この総合評価式では、二値型の項目を除く各項目の重み付けと満足度との積の合計点に、二値型の項目に対する重み付けと満足度との積が積算された値が総合評価点として扱われる。   The formula shown in FIG. 8B is a comprehensive evaluation that places importance on the satisfaction of binary type items. In this comprehensive evaluation formula, the total score of the product of the weight and satisfaction of each item excluding the binary type item is added to the total score of the product of the weight and satisfaction of the binary type item. Are treated as

図8に示すような総合評価関数(総合評価点算出式)として、予想される検索項目間のバランスを考慮して、様々なバランスを持つ複数の算出式を予め用意することができる。このとき、検索結果評価部9は、複数の総合評価点算出式の中から、任意の算出式を選択し、評価に使用するように構成することができる。   As a comprehensive evaluation function (comprehensive evaluation score calculation formula) as shown in FIG. 8, a plurality of calculation formulas having various balances can be prepared in advance in consideration of a balance between expected search items. At this time, the search result evaluation unit 9 can be configured to select an arbitrary calculation formula from a plurality of total evaluation score calculation formulas and use it for the evaluation.

例えば、検索結果評価部9は、設定された重み付け値のうち、重み付け値がもっとも大
きい検索項目(最大の重み付け値を持つ複数の検索項目がある場合には、所定の優先順位
に従って項目間の順位が決定される)が評価にもっとも大きく反映されるような算出式(例えば、図8(B)に示す式)を自動的に選択する。
For example, the search result evaluation unit 9 has a search item having the largest weighting value among the set weighting values (if there are a plurality of search items having the largest weighting value, the ranking between items according to a predetermined priority order). Is calculated automatically (for example, the equation shown in FIG. 8B) is automatically selected.

あるいは、検索結果評価部9は、入力装置24から入力され、入力制御部22を介して検索条件蓄積部4に格納される算出式の指定データに従って、指定された算出式を用いて検索対象データの総合評価を行うように構成することもできる。   Alternatively, the search result evaluation unit 9 inputs the search target data using the specified calculation formula according to the calculation formula specification data input from the input device 24 and stored in the search condition storage unit 4 via the input control unit 22. It can also comprise so that comprehensive evaluation of this may be performed.

図9は、利用者の希望に近いと判断する閾値(総合評価閾値)の例を示す。図9には、総合評価閾値が登録されるテーブルが示されている。総合評価閾値は、数値で表現することができ、所望の値が総合評価閾値として設定される。   FIG. 9 shows an example of threshold values (total evaluation threshold values) that are determined to be close to the user's wishes. FIG. 9 shows a table in which the comprehensive evaluation threshold is registered. The comprehensive evaluation threshold value can be expressed by a numerical value, and a desired value is set as the comprehensive evaluation threshold value.

(2)検索項目の抽出
次に、検索項目の抽出について説明する。検索装置14の検索項目抽出部2は、音声入力部1に入力された音声に対応する音声データを受け取る。検索項目抽出部2は、音声認識処理により、検索項目に対応するキーワードを認識語として抽出する。
(2) Extraction of search items Next, extraction of search items will be described. The search item extraction unit 2 of the search device 14 receives audio data corresponding to the audio input to the audio input unit 1. The search item extraction unit 2 extracts a keyword corresponding to the search item as a recognition word by voice recognition processing.

図10は、検索項目抽出部2による処理の説明図である。図10(A)に示すように、利用者が「ワンルームで、(間(沈黙))えーっと、8万円くらい」との回答を行い、このような音声データが検索項目抽出部2に入力された場合を仮定する。この場合、検索項目抽出部2は、「ワンルーム」と「8万円」とをキーワード(認識語)として抽出し、認識語のデータを検索制御部3に与える。   FIG. 10 is an explanatory diagram of processing by the search item extraction unit 2. As shown in FIG. 10 (A), the user responds with “One room, (between (silence)) Well, about 80,000 yen”, and such voice data is input to the search item extraction unit 2. Assuming that In this case, the search item extraction unit 2 extracts “one room” and “80,000 yen” as keywords (recognized words), and provides the search control unit 3 with data of recognized words.

また、検索項目抽出部2は、例えば、図10(B)に示すような、利用者による「新宿あたりで、お願いします」との発話に対応する音声データを受け取った場合には、この音声データから「新宿」を認識語として抽出し、認識語のデータを検索制御部3に与える。   Further, for example, when the search item extraction unit 2 receives voice data corresponding to the utterance “Please do so around Shinjuku” by the user as shown in FIG. “Shinjuku” is extracted from the data as a recognized word, and the data of the recognized word is given to the search control unit 3.

(3)感情情報の抽出
次に、感情情報の抽出処理について説明する。音声情報抽出部12は、利用者から入力された回答の音声データから感情情報(利用者の話し方情報)を抽出する。図11は、音声情報の抽出処理の説明図である。
(3) Emotion Information Extraction Next, emotion information extraction processing will be described. The voice information extraction unit 12 extracts emotion information (user's speech information) from the voice data of the answer input by the user. FIG. 11 is an explanatory diagram of audio information extraction processing.

音声情報抽出部12は、(1)回答時の声の大きさ、(2)回答の行われるタイミング(無
言(沈黙)の時間)、(3)不要語、(4)未知語の割合のような認識語以外の情報から取得で
きるデータを感情情報として抽出する。
The voice information extraction unit 12 is as follows: (1) loudness at the time of answering, (2) timing of answering (silent time), (3) unnecessary words, (4) ratio of unknown words Data that can be acquired from information other than simple recognition words is extracted as emotion information.

例えば、音声情報抽出部12は、図11(A)に示すような、「ワンルームで、(沈黙)えーっと、8万円くらい」との利用者の発話の音声データを受け取った場合には、「ワンルーム」及び「8万円」が比較的大きな声で発声されたことを示す情報を得る。   For example, when the voice information extraction unit 12 receives voice data of a user's utterance such as “One room, (silence) Well, about 80,000 yen” as shown in FIG. Information indicating that the “room” and “80,000 yen” were uttered in a relatively loud voice is obtained.

一般に、利用者が回答を行う場合、重要な情報を相手に十分に認識してもらうために、重要な情報を比較的大きな声で発話する傾向にあるからである。この場合における「ワンルーム」及び「8万円」は、それぞれ希望する間取り及び家賃を示す重要な情報であるため、これらは大きな声で発声される。   This is because, in general, when a user makes a reply, important information tends to be uttered in a relatively loud voice so that the other party can fully recognize the important information. In this case, “one room” and “80,000 yen” are important information indicating the desired floor plan and rent, respectively, so they are uttered loudly.

また、音声情報抽出部12は、「ワンルームで」と「えーっと」との間に沈黙があったことを回答のタイミングに係る情報として抽出する。また、音声情報抽出部12は、「えーっと」及び「くらい」のそれぞれを、不要語として抽出する。   Also, the voice information extraction unit 12 extracts that there is a silence between “in the one room” and “Em” as information related to the timing of the answer. Also, the voice information extraction unit 12 extracts “Ett” and “about” as unnecessary words.

また、音声情報抽出部12は、図11(B)に示すような「新宿あたりで、お願いします
」との利用者の発話の音声データを受け取った場合には、「新宿」が比較的大きな声で発声されたことを示す情報を得る。また、音声情報抽出部12は、「あたりで」及び「お願いします」のそれぞれを、不要語として取得する。
In addition, when the voice information extraction unit 12 receives voice data of the user's utterance “Please do around Shinjuku” as shown in FIG. 11B, “Shinjuku” is relatively large. Information indicating that the voice is spoken is obtained. In addition, the voice information extraction unit 12 acquires “around” and “please” as unnecessary words.

このとき、音声情報抽出部12は、問い合わせを行ってから「新宿あたりで・・・」の回答が得られるまでの時間(無音時間)を、回答のタイミングに係る感情情報として取得することもできる。音声情報抽出部12は、音声データ(利用者の発声内容)から抽出された感情情報を検索制御部3に渡す。   At this time, the voice information extraction unit 12 can also acquire the time (silence time) from when the inquiry is made until the answer “around Shinjuku” is obtained as emotion information related to the timing of the answer. . The voice information extraction unit 12 passes the emotion information extracted from the voice data (the content of the user's utterance) to the search control unit 3.

(4)検索条件及び緩和条件の設定
検索項目抽出部2で抽出される認識語(キーワード)は、検索制御部3において、そのまま検索条件として設定される。例えば、図10に示す音声データの例で抽出されるキーワード「ワンルーム」は、検索項目「間取り」に対する検索条件として設定される。また、キーワード「8万円」は、検索項目「家賃」に対する検索条件として設定される。さらに、キーワード「新宿」は、検索項目「最寄り駅」に対する検索条件として設定される。
(4) Setting Search Conditions and Relaxation Conditions The recognition words (keywords) extracted by the search item extraction unit 2 are set as search conditions as they are in the search control unit 3. For example, the keyword “one room” extracted in the audio data example shown in FIG. 10 is set as a search condition for the search item “room layout”. The keyword “80,000 yen” is set as a search condition for the search item “rent”. Further, the keyword “Shinjuku” is set as a search condition for the search item “nearest station”.

一方、検索制御部3は、音声情報抽出部12で抽出される感情情報に基づいて検索条件に対する緩和条件を設定する(検索条件を緩和する)。例えば、利用者の回答から「8万円くらい」のような「くらい」という金額の程度又は範囲を示す不要語が得られている場合には、検索制御部3は、8万円前後が利用者の希望の家賃であると判断し、例えば、6〜9万円を家賃に対する緩和条件として設定する(図13(A)に示す緩和条件を参照)。なお、「くらい(ぐらい)」に相当する不要語として、「だいたい」,「おおよそ」,「約」などがある。   On the other hand, the search control unit 3 sets a relaxation condition for the search condition based on the emotion information extracted by the voice information extraction unit 12 (relaxes the search condition). For example, when an unnecessary word indicating the degree or range of the amount of “about” such as “about 80,000 yen” is obtained from the user's answer, the search control unit 3 uses about 80,000 yen For example, 60 to 90,000 yen is set as a relaxation condition for the rent (see the relaxation condition shown in FIG. 13A). Note that unnecessary words corresponding to “about” include “approximately”, “approximately”, “about”, and the like.

また、利用者の回答から、「新宿あたり」における「あたり」のような地理的な範囲を示す不要語が得られている場合には、検索制御部3は、新宿駅付近が利用者の希望の最寄り駅であると判断し、例えば、新宿駅を中心した同一沿線上の隣接駅(大久保駅、代々木
駅)の全てを、最寄り駅に対する緩和条件として設定する(図13(B)に示す緩和条件を参照)。なお、「あたり」に相当する不要語として、「付近」,「近辺」,「くらい(ぐらい)」などがある。
In addition, when an unnecessary word indicating a geographical range such as “around” in “around Shinjuku” is obtained from the user's answer, the search control unit 3 requests that the vicinity of Shinjuku station is requested by the user. For example, all the adjacent stations (Okubo Station, Yoyogi Station) on the same line around Shinjuku Station are set as relaxation conditions for the nearest station (relaxation shown in Fig. 13 (B)) See conditions). Note that unnecessary words corresponding to “around” include “near”, “near”, and “about”.

検索制御部3は、緩和条件の内容を予め与えられた条件に従って決定する。このとき、検索制御部3は、上述した緩和条件の内容を、検索に対応する評価関数を用いて決定することができる。例えば、家賃であれば、8万円を基準値とした場合に得られる家賃の評価関数において、満足度が所定の値(例えば80%)以上となる場合の最小及び最大値をとることで、「6〜9万円」のような緩和条件を設定することができる。また、検索制御部3は、最寄り駅について、新宿駅を基準値とする評価関数から、所定の満足度を満たす駅(
例えば隣接駅)を、緩和条件として設定することができる。
The search control unit 3 determines the content of the relaxation condition according to a predetermined condition. At this time, the search control unit 3 can determine the content of the above-described relaxation condition using an evaluation function corresponding to the search. For example, in the case of rent, in the rent evaluation function obtained when 80,000 yen is set as the reference value, by taking the minimum and maximum values when the satisfaction level is equal to or higher than a predetermined value (for example, 80%), Relaxation conditions such as “60 to 90,000 yen” can be set. In addition, the search control unit 3 uses the evaluation function with Shinjuku Station as a reference value for the nearest station, and the station (
For example, an adjacent station) can be set as the relaxation condition.

(5)重み付けへの反映
検索制御部3は、感情情報に基づいて、検索結果を評価するための検索項目に対する重み付けを変更する。検索条件蓄積部4には、各検索項目に対する重み付けの初期値として、例えば、図5の例に示すような、「家賃」」,「間取り」,「最寄り駅」,「最寄り駅までの所要時間」に対する値が予め設定される。このような初期値は、通常の社会通念やアンケートなどのサンプル収集により得られた統計値を元に設定することができる。
(5) Reflection in weighting The search control unit 3 changes the weighting for the search item for evaluating the search result based on the emotion information. In the search condition storage unit 4, as initial values of weighting for each search item, for example, “Rent”, “Room layout”, “Nearest station”, “Time required to the nearest station” as shown in the example of FIG. ”Is preset. Such initial values can be set on the basis of statistical values obtained by collecting samples such as ordinary social conventions and questionnaires.

検索制御部3は、感情情報を受け取ると、その感情情報に基づいて、感情情報を重み付けに反映するか否かの判定、すなわち、回答に含まれる検索項目に対する重み付けの値を変更するか否かの判定を行う。   When the search control unit 3 receives the emotion information, the search control unit 3 determines whether to reflect the emotion information in the weight based on the emotion information, that is, whether to change the weight value for the search item included in the answer. Judgment is made.

図12(A)は、感情情報に基づいて検索項目「家賃」に対する重み付け値を小さくする場合の判定例を示し、図12(B)は、感情情報に基づいて検索項目「間取り」に対する重み付け値を大きくする場合の判定例を示す。   FIG. 12A shows a determination example in the case where the weighting value for the search item “rent” is reduced based on emotion information, and FIG. 12B shows the weighting value for the search item “room layout” based on emotion information. An example of determination when increasing the value is shown.

図12(A)には、回答の受付が開始されてから、沈黙(無音時間)の後、「えーっと、7万円くらいかな」との回答が得られた例が示されている。この場合、検索制御部3は、例えば、次のような判定を行う。   FIG. 12 (A) shows an example in which a reply “Well, about 70,000 yen” was obtained after silence (silence time) after acceptance of the reply was started. In this case, the search control unit 3 performs the following determination, for example.

回答の受付が開始されてから無音時間があるので、検索制御部3は、利用者が悩んでいると判定する。また、「7万円」という認識語(キーワード)の前後に「えーっと」や「くらいかな」との不要語がついているので、検索制御部3は、利用者が「7万円」という金額を強く希望していないと判定する。さらに、検索制御部3は、「7万円」という発声の音量が利用者又は一般的な通常会話の平均的な音量よりも小さい場合には、利用者が「7万円」という金額を重視していないと判定する。そして、検索制御部3は、これらの判断結果を総合的に判断し、「家賃」に対する現在の重み付けの値を小さくすべきと判断する。   Since there is a silent time since the reception of the answer is started, the search control unit 3 determines that the user is worried. In addition, since the unnecessary words such as “Et” and “Waka Kana” are attached before and after the recognition word (keyword) of “70,000 yen”, the search control unit 3 allows the user to set the amount of “70,000 yen”. Judge that it is not strongly hoped. Furthermore, when the volume of the utterance “70,000 yen” is smaller than the average volume of the user or general normal conversation, the search control unit 3 places importance on the amount of money “70,000 yen”. Judge that it is not. The search control unit 3 comprehensively determines these determination results, and determines that the current weighting value for “rent” should be reduced.

一方、図12(B)には、回答の受付が開始されてから、沈黙(無音時間)の後、「3LDK!」と強い口調の回答が得られた例が示されている。この場合、検索制御部3は、例えば、次のような判定を行う。   On the other hand, FIG. 12B shows an example in which an answer with a strong tone such as “3LDK!” Is obtained after silence (silence time) after acceptance of the answer is started. In this case, the search control unit 3 performs the following determination, for example.

無音時間があるので、検索制御部3は、利用者が悩んでいると判定する。しかし、「3LDK」とのキーワードの前後には不要語がない(断定的に述べられている)ので、検索制御部3は、利用者が「3LDK」を望んでいると判定する。さらに、「3LDK」との発声が、平均的な音量よりも大きい場合には、検索制御部3は、利用者が「3LDK」を強く希望していると判定する。検索制御部3は、これらの判定結果を総合的に判断し、この場合は「間取り」に対する現在の重み付けの値を大きくすべきと判断する。   Since there is silent time, the search control unit 3 determines that the user is worried. However, since there is no unnecessary word before and after the keyword “3LDK” (stated assertively), the search control unit 3 determines that the user wants “3LDK”. Furthermore, when the utterance “3LDK” is larger than the average volume, the search control unit 3 determines that the user strongly desires “3LDK”. The search control unit 3 comprehensively determines these determination results, and in this case, determines that the current weighting value for the “room layout” should be increased.

検索制御部3は、上述したような重み付けを変更するか否かの判断結果に基づいて、検索条件蓄積部4に設定されている重み付けを変更する。このとき、検索制御部3は、回答(検索項目)の入力回数や、回答を得るための条件(自由な検索条件設定か否か)を考慮することができる。   The search control unit 3 changes the weight set in the search condition storage unit 4 based on the determination result of whether or not to change the weight as described above. At this time, the search control unit 3 can consider the number of answers (search items) input and conditions for obtaining the answers (whether or not free search conditions are set).

図13(A)は、図3に示すような「ワンルームで、(沈黙)えーっと、8万円くらい」という1回目の回答が音声入力された場合における重み付けの反映例を示し、図13(B)は、図3に示すような「新宿あたりで、お願いします」という2回目の回答が音声入力された場合における重み付けの反映例を示す。但し、各検索項目に対する重み付けの初期値として、図5に示すような値が設定されているものとする。また、これらの回答は、自由な検索条件の入力が可能な状況で得られたものとする。   FIG. 13A shows an example of weighting reflection in the case where the first response “One room, (silence) Well, about 80,000 yen” is input as shown in FIG. ) Shows a reflection example of weighting in the case where a second response “Please give me around Shinjuku” as shown in FIG. 3 is inputted by voice. However, it is assumed that values as shown in FIG. 5 are set as initial weighting values for each search item. These answers are obtained in a situation where free search conditions can be input.

図13(A)に示すように、1回目の回答が入力された場合には、「ワンルーム」及び「8万円」という検索項目「間取り」及び「家賃」に対するキーワードが得られる。この場合、検索制御部3は、「くらい」という「8万円」に付属する不要語より、「家賃」の緩和条件として「6〜9万円」を設定する。これに対し、「ワンルーム」は断定的に述べられているので、緩和条件は設定されない。   As shown in FIG. 13A, when the first response is input, keywords for the search items “room layout” and “rent” such as “one room” and “80,000 yen” are obtained. In this case, the search control unit 3 sets “60 to 90,000 yen” as the relaxation condition of “rent” from the unnecessary word attached to “80,000 yen” of “about”. On the other hand, since “one room” is stated assertively, no relaxation condition is set.

続いて、検索制御部3は、「家賃」について、この回答が最初の回答であり、最初の回答では、利用者が特に重要視しているキーワードが入力される傾向があることを考慮して、「家賃」に対する重み付け値に1を加算(+1)すると判断する。   Subsequently, the search control unit 3 considers that this answer is the first answer for “rent”, and that the keyword that the user particularly emphasizes tends to be input in the first answer. It is determined that 1 is added (+1) to the weighting value for “rent”.

続いて、検索制御部3は、「8万円」という回答が自由な条件設定下で得られたものであることを考慮し、「家賃」に対する重み付け値に1を加算(+1)すると判断する。一方、検索制御部3は、「えーっと」との家賃に対する言いよどみがあることを考慮して、重み付け値から1を減算(−1)すると判断する。これらの判断結果に基づいて、検索制御部3は、「家賃」に対する現在の重み付けの登録値(ここでは、初期値=3)を、(1+1−
1)+3=4に変更する。
Subsequently, the search control unit 3 considers that the answer “80,000 yen” is obtained under free condition settings, and determines that 1 is added (+1) to the weighting value for “rent”. . On the other hand, the search control unit 3 determines that 1 is subtracted (−1) from the weighting value in consideration of the stagnation of the “rent” rent. Based on these determination results, the search control unit 3 uses the current weighted registration value for “rent” (here, initial value = 3) as (1 + 1−
1) Change to + 3 = 4.

一方、検索制御部3は、「間取り」について、この回答が最初の回答であることを考慮して、「間取り」に対する重み付け値に1を加算すると判断する。また、「ワンルーム」という検索条件が自由な音声入力の環境下で入力されたことを考慮して、重み付け値に1を加算すると判断する。これらの判断結果に基づいて、検索制御部3は、「間取り」に対する現在の重み付けの登録値(ここでは、初期値=2)を、(1+1)+2=4に変更する。
On the other hand, the search control unit 3 determines that “1” is added to the weighting value for “room layout” in consideration of the fact that this answer is the first answer for “room layout”. Further, it is determined that 1 is added to the weighting value in consideration that the search condition “one room” is input in a free voice input environment. Based on these determination results, the search control unit 3 changes the current weighted registration value (here, initial value = 2) to “room layout” to (1 + 1) + 2 = 4.

なお、1回目の回答では、検索項目「最寄り駅」及び「最寄り駅までの所要時間」に対するキーワードは入力されていない。このため、検索制御部3は、これらの検索項目に対する処理は行わない。   In the first response, keywords for the search items “nearest station” and “required time to nearest station” are not input. For this reason, the search control unit 3 does not perform processing for these search items.

図13(B)に示すように、2回目の回答が入力された場合には、「新宿(駅)」という検索項目「最寄り駅」に対するキーワードが得られる。この場合、検索制御部3は、「あたり」という「新宿」に付属する不要語より、例えば、「最寄り駅」の緩和条件として「大久保駅、代々木駅・・・」のような新宿駅を中心として同一沿線上に存する新宿駅の隣接駅の全てを設定する。   As shown in FIG. 13B, when a second response is input, a keyword for the search item “nearest station” “Shinjuku (station)” is obtained. In this case, the search control unit 3 focuses on Shinjuku Station such as “Okubo Station, Yoyogi Station ...” as a relaxation condition of “Nearest Station”, for example, from an unnecessary word attached to “Shinjuku” called “around”. Set all the stations adjacent to Shinjuku Station on the same line.

検索制御部3は、2回目以降の回答に含まれる検索条件は利用者が重視していないとの前提に基づき、重み付けに1を加算するか否かを考慮しない。但し、2回目以降の回答に含まれる検索条件が自由に検索条件を入力できる条件下で得られた場合には、重み付け値に1を加算する。   The search control unit 3 does not consider whether or not to add 1 to the weighting based on the assumption that the search condition included in the second and subsequent answers is not emphasized by the user. However, when the search condition included in the second and subsequent answers is obtained under conditions where the search condition can be freely input, 1 is added to the weighting value.

従って、検索制御部3は、2回目の回答に含まれる検索項目「最寄り駅」について、自由な入力環境下で入力されたことを考慮して重み付け値に1を加算すると判断する。また、「新宿」の前に言いよどみに相当する不要語がないことから、重み付け値に対するマイナスポイントはない。従って、検索制御部3は、「最寄り駅」に対する現在の重み付けの登録値(ここでは、初期値=2)を、1+2=3に変更する。   Accordingly, the search control unit 3 determines that 1 is added to the weighting value in consideration of the fact that the search item “nearest station” included in the second answer is input in a free input environment. In addition, since there is no unnecessary word corresponding to stagnation before “Shinjuku”, there is no negative point for the weighting value. Accordingly, the search control unit 3 changes the current weighted registration value (here, initial value = 2) for “nearest station” to 1 + 2 = 3.

なお、2回目の回答では、「家賃」、「間取り」、「最寄り駅までの所要時間」に対するキーワード(検索条件)は入力されていない。従って、検索制御部3は、これらの検索項目に対する処理は行わない。   In the second response, keywords (search conditions) for “rent”, “room layout”, and “time required to the nearest station” are not entered. Therefore, the search control unit 3 does not perform processing for these search items.

(6)評価関数に対する緩和条件の反映
検索制御部3は、回答の音声データに基づいて緩和条件を設定した検索項目が発声すると、その検索項目の評価関数に対し緩和条件を反映する。上述したように、検索条件蓄積部4は、音声情報反映基準13の一つとして、各検索項目に対する評価関数を格納している。
(6) Reflection of Relaxation Condition on Evaluation Function When the search item for which the relaxation condition is set based on the voice data of the answer is uttered, the search control unit 3 reflects the relaxation condition on the evaluation function of the search item. As described above, the search condition accumulation unit 4 stores an evaluation function for each search item as one of the voice information reflection criteria 13.

初期状態(利用者の検索要求が発声する前)では、サンプルデータの統計値等に基づく基本の評価関数が登録された状態となっている。この基本の評価関数における値(検索項目
に対応する値)に対する満足度は、全ての利用者に一致するものではない。
In an initial state (before a user search request is made), a basic evaluation function based on statistical values of sample data is registered. Satisfaction with the value (the value corresponding to the search item) in this basic evaluation function does not match all users.

図14は、評価関数に対する緩和条件の反映例を示す説明図である。図14には、検索
項目「最寄り駅」に対する評価関数が示されている。この例における基本の評価関数(細
線で示す)は、利用者が希望する駅でなければならない二次関数となっている(希望駅の隣接駅では利用者の満足度が零になる)。
FIG. 14 is an explanatory diagram showing an example of reflection of the relaxation condition for the evaluation function. FIG. 14 shows an evaluation function for the search item “nearest station”. The basic evaluation function (indicated by a thin line) in this example is a quadratic function that must be a station desired by the user (the user's satisfaction is zero at a station adjacent to the desired station).

これに対し、利用者が隣接駅でも許容する場合(隣接駅が緩和条件として設定された場
合)を仮定する。この場合、隣接駅に対する利用者の満足度は零にならない。従って、検
索制御部3は、希望駅の次々駅(隣接駅の次の駅)における利用者の満足度が零となるように、評価関数を変更する。従って、評価関数は、図14の太線で示すような二次関数となる。
On the other hand, it is assumed that the user permits at an adjacent station (when the adjacent station is set as a relaxation condition). In this case, the user's satisfaction with the adjacent station is not zero. Therefore, the search control unit 3 changes the evaluation function so that the user's satisfaction at the station after the desired station (the station next to the adjacent station) becomes zero. Therefore, the evaluation function is a quadratic function as shown by the thick line in FIG.

なお、「最寄り駅」に対して新たな緩和条件が設定された場合において、評価関数と緩和条件が一致しない場合には、さらなる評価関数の修正(緩和条件の反映)が行われる。このように、検索制御部3は、緩和条件が設定される毎に、対応する評価関数との整合性をチェックし、少なくとも緩和条件が満たされる範囲の満足度が零とならないように、評価関数の修正を行う。   When a new relaxation condition is set for the “nearest station” and the evaluation function and the relaxation condition do not match, further correction of the evaluation function (reflection of the relaxation condition) is performed. In this way, each time the relaxation condition is set, the search control unit 3 checks the consistency with the corresponding evaluation function, and at least the satisfaction of the range where the relaxation condition is satisfied does not become zero. Make corrections.

(7)検索
検索制御部3は、回答に含まれるキーワード及び感情情報に基づいて検索条件及び緩和条件を設定すると、これらの検索条件及び緩和条件と、検索項目間のアンド条件やオア条件に係るデータ(利用者によって予め設定される)とに基づく検索式を作成し、検索式を検索方法データとしてデータ蓄積部8に与える。
(7) Search When the search control unit 3 sets the search condition and the relaxation condition based on the keyword and emotion information included in the answer, the search control unit 3 relates to the search condition and the relaxation condition, and the AND condition or the OR condition between the search items. A search formula based on data (preset by the user) is created, and the search formula is given to the data storage unit 8 as search method data.

検索方法データは、キーワードが入力された各検索項目について、緩和条件があれば緩和条件を、緩和条件がなければ検索条件を含み、これらの検索条件及び/又は緩和条件がそれぞれアンド条件又はオア条件で結ばれている。   The search method data includes, for each search item in which a keyword is entered, a relaxation condition if there is a relaxation condition, and a search condition if there is no relaxation condition. These search conditions and / or relaxation conditions are AND conditions or OR conditions, respectively. It is tied with.

検索制御部3は、検索、すなわち検索方法データ(検索式)の付与を、所定の検索開始ルールに従って行うことができる。例えば、回答が得られる毎に、検索制御部3が検索方法データを出力するように構成することができる。この場合、例えば、図13(A)に示す検索条件及び緩和条件に基づく検索と、図13(B)に示す検索条件及び緩和条件に基づく検索とが行われる。   The search control unit 3 can perform a search, that is, assign search method data (search formula) according to a predetermined search start rule. For example, the search control unit 3 can be configured to output search method data each time an answer is obtained. In this case, for example, a search based on the search condition and the relaxation condition shown in FIG. 13A and a search based on the search condition and the relaxation condition shown in FIG. 13B are performed.

あるいは、検索制御部3は、回答数が所定回数に達した時点での検索条件及び緩和条件を検索方法データとして出力するように構成することができる。例えば、図13に示す1回目及び2回目の回答で得られた検索条件及び緩和条件を含む検索方法データを出力するように検索制御部3を構成することができる。   Alternatively, the search control unit 3 can be configured to output the search condition and the relaxation condition when the number of answers reaches a predetermined number as search method data. For example, the search control unit 3 can be configured to output search method data including the search condition and the relaxation condition obtained in the first and second answers shown in FIG.

あるいは、検索制御部3は、入力が必須である全ての検索項目に対するキーワードが入力された時点、又は全ての検索項目に対するキーワードが入力された時点で検索方法データを生成し出力するように構成することができる。これらの検索開始ルールは適宜設定可能である。   Alternatively, the search control unit 3 is configured to generate and output search method data at the time when keywords for all search items for which input is essential are input, or when keywords for all search items are input. be able to. These search start rules can be set as appropriate.

データ蓄積部8は、検索方法データ(検索式)を受け取ると、検索式を満たす検索対象データ(検索式にヒットする検索対象データ)を、検索対象データとしての物件情報を蓄積したデータベースから抽出し、検索結果として出力する。物件情報は、「家賃」,「間取り」,「最寄り駅」,「最寄り駅までの所要時間」,「ペット可/不可」を要素とするレコードを持つ。検索結果は、検索結果評価部9に与えられる。   Upon receiving the search method data (search formula), the data storage unit 8 extracts the search target data satisfying the search formula (search target data hitting the search formula) from the database storing the property information as the search target data. And output as search results. The property information has a record having elements of “rent”, “room layout”, “nearest station”, “time required to nearest station”, and “pet allowed / not allowed”. The search result is given to the search result evaluation unit 9.

(8)検索物件の評価
検索結果評価部9は、データ蓄積部8から出力される検索結果を受け取ると、検索結果
に含まれる個々の物件データについて、検索条件蓄積部4に設定されている検索項目の重み付け,評価関数,総合評価関数,及び総合評価閾値を用いて評価を行う。
(8) Evaluation of Search Property When the search result evaluation unit 9 receives the search result output from the data storage unit 8, the search result storage unit 4 sets the search condition storage unit 4 for individual property data included in the search result. Evaluation is performed using item weights, evaluation functions, comprehensive evaluation functions, and comprehensive evaluation thresholds.

図15は、検索結果評価部9による物件情報の総合判断例(満足度)を示す。図15(A)は、総合判断の前提となる、各検索項目に対する緩和条件(検索条件),物件の値,満足度,重み付け値を示す表である。図15(B)は、総合評価点の計算例を示し、図15(C)は、評価基準を満たすか否かの判定結果を示す。   FIG. 15 shows an example of comprehensive judgment (satisfaction) of property information by the search result evaluation unit 9. FIG. 15A is a table showing relaxation conditions (search conditions), property values, satisfaction levels, and weight values for each search item, which are preconditions for comprehensive judgment. FIG. 15B shows a calculation example of the comprehensive evaluation score, and FIG. 15C shows a determination result as to whether or not the evaluation criterion is satisfied.

図15(A)に示す表において、検索項目は、「家賃」,「間取り」,「最寄り駅」,「最寄り駅までの所要時間」であり、緩和条件(検索条件)は、それぞれ「6〜9万円」,「ワンルーム」,「新宿」,「なし」,「なし」である。また、重み付けの値は、それぞれ、“3”,“2”,“2”,“1”,“5”である。また、図15(A)に示す表では、家賃「7.6万円」,間取り「ワンルーム」,最寄り駅「新宿」との各値を持つ物件情報が検索結果の一つとして得られた場合を示している。   In the table shown in FIG. 15A, the search items are “rent”, “room layout”, “nearest station”, “time required to the nearest station”, and the relaxation conditions (search conditions) are “6˜ They are "90,000 yen", "One room", "Shinjuku", "None", and "None". The weighting values are “3”, “2”, “2”, “1”, and “5”, respectively. In addition, in the table shown in FIG. 15 (A), when the property information having the values of rent “76,000 yen”, floor plan “one room”, and nearest station “Shinjuku” is obtained as one of the search results. Is shown.

検索結果評価部9は、緩和条件に対応する物件の値についての満足度を、対応する評価関数を用いて求める。図15(A)に示す例では、物件情報の家賃,間取り,及び最寄り駅の各値について、それぞれ“98”,“100”,“100”の満足度[%]が得られたことが示されている。なお、緩和条件のない検索項目には、満足度“100”が与えられる。   The search result evaluation unit 9 obtains the satisfaction level of the property value corresponding to the relaxation condition using the corresponding evaluation function. In the example shown in FIG. 15A, it is shown that satisfaction [%] of “98”, “100”, and “100” is obtained for each value of the rent, the floor plan, and the nearest station of the property information. Has been. It should be noted that satisfaction level “100” is given to a search item having no relaxation condition.

次に、検索結果評価部9は、音声情報反映基準13の一つとして予め用意されている総合評価関数を用いて、この物件情報に対する総合評価点を算出する。ここでは、総合評価関数(総合評価点の算出式)として、図15(B)に示すような、各項目の重み付け値と満足度との積を足し合わせる式を用いる。その結果、検索結果評価部9は、総合評価点として1294点を算出する。   Next, the search result evaluation unit 9 calculates a comprehensive evaluation score for the property information by using a comprehensive evaluation function prepared in advance as one of the voice information reflection criteria 13. Here, as the comprehensive evaluation function (computation formula for the comprehensive evaluation score), a formula as shown in FIG. 15B is used for adding the products of the weight values and the satisfaction levels of the respective items. As a result, the search result evaluation unit 9 calculates 1294 points as the overall evaluation points.

次に、検索結果評価部9は、予め用意されている総合評価閾値(総合評価点基準値)と総合評価点とを対比し、総合評価点が総合評価閾値以上か(又は上回るか)否かを判定する。ここでは、総合評価閾値として例えば“1000点”が予め登録されている。検索結果評価部9は、総合評価点が総合評価閾値以上である(又は上回る)場合には、この物件情報を評価基準を満たす物件情報と判断し、利用者に提供すべき物件情報として扱う。これに対し、物件情報が評価基準を満たさない場合には、その物件情報は、利用者に提供されることなく廃棄される。図15(A)に示す物件情報は、図15(C)に示すように、総合評価閾値よりも大きいので、評価基準を満たす物件情報として扱われる。   Next, the search result evaluation unit 9 compares the comprehensive evaluation threshold (total evaluation score reference value) prepared in advance with the comprehensive evaluation score, and whether or not the comprehensive evaluation score is equal to or greater than (or exceeds) the comprehensive evaluation threshold. Determine. Here, for example, “1000 points” is registered in advance as the comprehensive evaluation threshold. When the comprehensive evaluation score is equal to or greater than (or exceeds) the overall evaluation threshold, the search result evaluation unit 9 determines that the property information is property information that satisfies the evaluation criteria, and treats the property information as property information to be provided to the user. On the other hand, when the property information does not satisfy the evaluation standard, the property information is discarded without being provided to the user. Since the property information shown in FIG. 15A is larger than the comprehensive evaluation threshold as shown in FIG. 15C, it is treated as property information that satisfies the evaluation criteria.

評価には、満足度でなく、求める条件(希望値)からどれだけ離れているか、を示す乖離度を評価値として使用することもできる。この場合、評価関数は、希望値を基準とする乖離度を示す関数となる。   In the evaluation, the degree of divergence indicating how far away from the required condition (desired value) can be used as the evaluation value instead of the satisfaction level. In this case, the evaluation function is a function indicating the degree of deviation based on the desired value.

検索結果評価部9が、データ蓄積部8から出力された全ての物件情報に対する評価処理をし終わると、検索結果評価部9又は検索制御部3によって、情報提供を行って検索を終了するか、検索をさらに続行するかの総合的な判断を行う。例えば、検索結果評価部9によって、評価基準を満たす物件情報が、予め登録された物件案内件数(例えば10,図4
参照)に達している場合には、情報提供を行うと判断する。
When the search result evaluation unit 9 finishes the evaluation process for all the property information output from the data storage unit 8, the search result evaluation unit 9 or the search control unit 3 provides information and ends the search, Make a comprehensive decision on whether to continue the search. For example, the search result evaluation unit 9 stores property information satisfying the evaluation criteria in advance as the number of property guides registered in advance (for example, 10, FIG. 4).
It is determined that information will be provided.

このとき、物件案内件数は、情報提供を行う物件情報の上限値として扱われ、物件情報の数が物件案内件数以下であれば、これらの物件情報の全てが提供され、評価基準を満たす物件情報が物件案内件数以上であれば、総合評価点が高い順で物件案内件数と同じ数の物件情報が提供される。但し、物件案内件数が情報提供を行う物件情報の数の最低値とし
て扱われ、物件案内件数以上の評価基準を満たす全ての物件情報が提供されるようにしても良い。
At this time, the number of property guides is treated as the upper limit of the property information to be provided, and if the number of property information is less than or equal to the number of property guides, all of these property information is provided and property information that satisfies the evaluation criteria If the number of property guides is greater than or equal to the number of property guides, the same number of property information as the number of property guides is provided in descending order of overall evaluation score. However, the number of property guides may be handled as the minimum value of the number of property information to be provided, and all property information that satisfies the evaluation standard more than the number of property guides may be provided.

(9)検索結果の提示
評価基準を満たす物件情報は、利用者に提供される。このとき、物件情報は、音声で利用者に提供されるようにしても良く、テキストや画像データとして提供され、利用者が持つディスプレイに表示されるようにしても良い。
(9) Presentation of search results Property information that satisfies the evaluation criteria is provided to the user. At this time, the property information may be provided to the user by voice, or may be provided as text or image data and displayed on a display held by the user.

検索結果は、例えば、(1)全ての検索条件に合致した物件、(2)検索条件を緩和して得られた物件の順で提供することができる。このとき、全ての検索条件(緩和条件ではなく)を満たす物件数が、物件案内件数以上の場合、当該物件の中から、検索条件の値に近い順で、提示を行う。   Search results can be provided in the order of, for example, (1) a property that matches all search conditions, and (2) a property obtained by relaxing the search conditions. At this time, if the number of properties satisfying all the search conditions (not the relaxation conditions) is equal to or greater than the number of property guides, the properties are presented in the order close to the value of the search conditions.

これに対し、全ての検索条件を満たす物件が物件案内件数に満たなかった場合は、全ての検索条件に合致した物件を、検索条件に近いものから順に提示し、その後、検索条件を緩和して得られた物件から、重み付けの高い項目に合致した物件から順に提示を行う。以上によって、利用者が望む検索結果が、最小限の言葉を入力することにより得られる。   On the other hand, if the number of properties that satisfy all the search conditions is less than the number of property guides, the properties that match all the search conditions are presented in order from the closest to the search conditions, and then the search conditions are relaxed. From the obtained property, presentation is made in order from the property that matches the item with higher weight. As described above, the search result desired by the user can be obtained by inputting a minimum number of words.

図16は、検索結果表示例(全ての検索条件に合致した物件を表示)を示す。図16には、「10万円くらいの1LDK」が検索条件であり、且つ物件案内件数が8である場合における検索結果として、全ての検索条件を満たす8件の物件情報が「条件にあった物件」として提示される例が示されている。ここでは、検索条件に近い順として、家賃が10万円に近い順で物件情報が提示されている。   FIG. 16 shows a search result display example (displays properties that match all search conditions). In FIG. 16, “1LDK of about 100,000 yen” is the search condition, and as the search result when the number of the property guides is 8, eight property information satisfying all the search conditions is “the condition is An example presented as “Property” is shown. Here, the property information is presented in the order close to 100,000 yen as the order close to the search condition.

図17は、検索結果表示例(検索条件を緩和して得られた物件を表示)を示す。図17には、「8万円くらいの1LDK」が検索条件であり、且つ物件案内件数が8である場合における検索結果として、全ての検索条件を満たす3件の物件情報が「条件にあった物件」として提示され、その後に緩和条件を満たす5件の物件情報が「次におすすめする物件」提示される例が示されている。   FIG. 17 shows a search result display example (displaying a property obtained by relaxing search conditions). In FIG. 17, “1LDK of about 80,000 yen” is a search condition, and as a search result when the number of property guides is 8, three property information satisfying all the search conditions is “the condition is An example is shown in which five pieces of property information that are presented as “property” and then satisfy the relaxation conditions are presented as “next recommended property”.

〈検索条件のカスタマイズ〉
次に、各検索項目の評価に用いる評価関数の規定方法について説明する。検索条件蓄積部4に格納されている各検索項目の評価に用いる評価関数は、パラメータを使用して規定することができる。
<Customize search conditions>
Next, a method for defining an evaluation function used for evaluating each search item will be described. An evaluation function used for evaluating each search item stored in the search condition accumulation unit 4 can be defined using a parameter.

図18及び図19は、検索項目の評価関数の規定方法の説明図である。図18には、各項目の評価範囲を規定するための評価関数の基準モデルが示されている。図18において、評価関数は、一方の軸(x軸)を項目に対応する属性値が設定され、他方の軸(y軸)に満足度が設定されている。基準モデルは、属性値の希望値を満足度の基準値(満足度100
%)とした場合において、所定の満足度(%)に対する設定値を、希望値に対してどのくら
いの大きさとすることができるかを設定可能となっている。
18 and 19 are explanatory diagrams of a method for defining an evaluation function for search items. FIG. 18 shows a reference model of an evaluation function for defining the evaluation range of each item. In FIG. 18, in the evaluation function, an attribute value corresponding to an item is set on one axis (x-axis), and a satisfaction level is set on the other axis (y-axis). The reference model sets the desired value of the attribute value to the satisfaction reference value (satisfaction 100
%), It is possible to set how much the set value for the predetermined satisfaction (%) can be set with respect to the desired value.

図18に示す例では、基準モデルは、属性値が希望値をもつときのy軸に平行な直線に対して左右対称な二次関数であり、満足度0%,50%,及び90%における設定値の初期値を有している。具体的には、属性値の設定値が希望値の0.8倍及び1.2倍のときに満足度が90%となる。また、属性値の設定値が希望値の0.4倍及び1.6倍のときに満足度が50%となる。そして、属性値の設定値が希望値の0.0倍及び2.0倍のときに満足度が0%となる。   In the example shown in FIG. 18, the reference model is a quadratic function that is symmetrical with respect to a straight line parallel to the y-axis when the attribute value has a desired value, and the satisfaction level is 0%, 50%, and 90%. It has an initial setting value. Specifically, the satisfaction level is 90% when the set value of the attribute value is 0.8 times and 1.2 times the desired value. The satisfaction level is 50% when the set value of the attribute value is 0.4 times and 1.6 times the desired value. The satisfaction level is 0% when the set value of the attribute value is 0.0 times and 2.0 times the desired value.

検索装置14は、検索条件蓄積部4に格納されている各項目の評価関数の基準モデル(
評価関数設定画面)を出力装置(ディスプレイ(表示装置))23に表示する表示制御部21
と、入力装置(キーボードやポインティングデバイス(マウス)等)24から入力される情報を受け付けて評価関数に対する調整処理を行い、再び検索条件蓄積部4に格納する評価関数調整部(入力制御部)22とを備えている。
The search device 14 is a reference model of the evaluation function of each item stored in the search condition storage unit 4 (
Display control unit 21 for displaying evaluation function setting screen) on output device (display (display device)) 23
And an evaluation function adjustment unit (input control unit) 22 that receives information input from an input device (keyboard, pointing device (mouse), etc.) 24, performs adjustment processing on the evaluation function, and stores it in the search condition storage unit 4 again. And.

検索装置14の管理者(オペレータ)は、入力装置24及び出力装置(ディスプレイ)23を操作することによって、各項目の評価関数の基準モデル(評価関数設定画面)を、ディスプレイのスクリーン上に呼び出すことができる。   The administrator (operator) of the search device 14 operates the input device 24 and the output device (display) 23 to call the reference model (evaluation function setting screen) of the evaluation function for each item on the display screen. Can do.

評価関数設定画面は、予め用意された満足値(0%,50%,90%)に対する属性値の設定値の入力フォームを有しており、管理者は、属性値を設定(設定値を変更)することで、評価関数を所望の形状に変更(調整)することができる。   The evaluation function setting screen has an input form for setting the attribute value for the satisfaction value (0%, 50%, 90%) prepared in advance, and the administrator sets the attribute value (changes the setting value) ), The evaluation function can be changed (adjusted) to a desired shape.

図19には、属性値が希望値より大きい場合における満足度0%,50%及び90%に対する各属性値の設定値(属性パラメータ)を、それぞれ、希望値の1.4倍、2.2倍及び4.0倍に変更した場合が示されている。これによって、評価関数の形状は、破線で示されるように変更される。   FIG. 19 shows the setting values (attribute parameters) of the respective attribute values for satisfaction levels 0%, 50% and 90% when the attribute value is larger than the desired value, 1.4 times the desired value, 2.2 The case of changing to double and 4.0 times is shown. Thereby, the shape of the evaluation function is changed as indicated by the broken line.

なお、基準モデルとして、図18に示すようなモデルを例示した。これに対し、基準モデルが設定値にかかわらず満足度が100%の直線で構成され、ある属性値を希望値と規定するとともに、属性値に対する満足度を設定することで、所望の曲線を有する評価関数を生成することもできる。   A model as shown in FIG. 18 is illustrated as the reference model. On the other hand, the reference model is composed of a straight line having a satisfaction level of 100% regardless of the set value, defines a certain attribute value as a desired value, and has a desired curve by setting the satisfaction level for the attribute value. An evaluation function can also be generated.

〈不要語の利用例〉
次に、第1実施形態の他の実施形態として、不要語を感情情報の一部として利用する例について図20,21及び22を用いて説明する。
<Use examples of unnecessary words>
Next, as another embodiment of the first embodiment, an example in which an unnecessary word is used as a part of emotion information will be described with reference to FIGS.

図20には、第1の利用例が示されている。図20(A)に示す対話例のように、システム(検索装置14)から「どのような物件をお探しですか」との問い合わせが与えられ、利用者が問い合わせに対し、「ワンルームで、えっと8万円くらい」との回答を返した場合を仮定する。   FIG. 20 shows a first usage example. As shown in the dialogue example shown in FIG. 20 (A), the system (search device 14) gives an inquiry “What kind of property are you looking for?” Assume that the answer is “approx. 80,000 yen”.

この場合、利用者の回答に対する検索項目抽出部2及び音声情報抽出部12による処理が行われ、検索制御部3で、利用者の発話(発声)内容の分析が行われる。この分析において、「ワンルームで、えっと8万円くらい」との回答は、図20(B)に示すように単語に分割される。これによって、「ワンルーム」,「で、」,「えっと」,「8万円」,及び「くらい。」の複数の単語が得られる。このとき、「ワンルーム」及び「8万円」が認識語1,2として認識され、「で、」、「えっと」及び「くらい。」は、不要語A,B及びCとしてそれぞれ認識される。   In this case, processing by the search item extraction unit 2 and the voice information extraction unit 12 is performed on the user's answer, and the search control unit 3 analyzes the utterance (utterance) content of the user. In this analysis, the reply “One room, about 80,000 yen” is divided into words as shown in FIG. As a result, a plurality of words “one room”, “de”, “um”, “80,000 yen”, and “about” are obtained. At this time, “one room” and “80,000 yen” are recognized as recognition words 1 and 2, and “de”, “um” and “about” are recognized as unnecessary words A, B and C, respectively. .

検索制御部3は、上記した認識結果に従って、検索条件を設定する。図20(C)に示す表には、図20(B)における認識結果に基づく認識項目名(図5の検索項目に相当)と、認識結果(図5の検索条件に相当)と、検索条件(図5の緩和条件に相当)とが示されている。   The search control unit 3 sets search conditions according to the above recognition result. 20C includes a recognition item name (corresponding to the search item in FIG. 5) based on the recognition result in FIG. 20B, a recognition result (corresponding to the search condition in FIG. 5), and a search condition. (Corresponding to the relaxation conditions in FIG. 5).

検索制御部3は、認識項目に対する認識結果及び検索条件を設定する。例えば、図20(C)に示すように、検索制御部3は、認識項目名「家賃」について、認識語2「8万円」に基づいて、認識結果(検索条件)「8万円」を設定する。このとき、検索制御部3は、認識語2の後に発声された不要語C「くらい。」に基づき、断定的な家賃の指定ではないと判断する(「くらい」という範囲を示す付属語であるので)。そして、「8万円」の上下の近辺値(例えば6〜9万円)を家賃の検索条件(緩和条件)として設定する。   The search control unit 3 sets a recognition result and a search condition for the recognition item. For example, as shown in FIG. 20C, the search control unit 3 sets the recognition result (search condition) “80,000 yen” for the recognition item name “rent” based on the recognition word 2 “80,000 yen”. Set. At this time, the search control unit 3 determines that the rent is not definitively specified based on the unnecessary word C “about” uttered after the recognition word 2 (an additional word indicating a range of “about”). So). Then, the upper and lower neighborhood values (for example, 60 to 90,000 yen) of “80,000 yen” are set as the rent search condition (relaxation condition).

また、検索制御部3は、認識語1「ワンルーム」より、認識項目「間取り」に対する認識結果(検索条件)として「ワンルーム」を設定する。このとき、検索制御部3は、認識語1の後に発声された不要語A「で、」に基づき、断定的な指定と判断する(不要語Aは、
範囲を示す言葉ではないので)。従って、検索制御部3は、「間取り」に対する検索条件(緩和条件)として「ワンルーム」自体を設定する。
Further, the search control unit 3 sets “one room” as the recognition result (search condition) for the recognition item “room layout” from the recognition word 1 “one room”. At this time, the search control unit 3 determines a definitive designation based on the unnecessary word A “de” uttered after the recognized word 1 (the unnecessary word A is
(It ’s not a range word). Accordingly, the search control unit 3 sets “one room” itself as a search condition (relaxation condition) for “room layout”.

図21には、第2の利用例が示されている。図21(A)に示す対話例のように、システム(検索装置14)から「どのような物件をお探しですか」との問い合わせが与えられ、利用者が「えー、新宿あたりで駅から5分以内」との回答を返した場合を仮定する。   FIG. 21 shows a second usage example. As in the dialog example shown in FIG. 21A, the system (search device 14) gives an inquiry “What kind of property are you looking for?” Assume that the response “within minutes” is returned.

この場合、利用者の回答に対する検索項目抽出部2及び音声情報抽出部12による処理が行われ、検索制御部3で、利用者の発話(発声)内容の分析が行われる。この分析において、「えー、新宿あたりで駅から5分以内」との回答は、図21(B)に示すように単語に分割される。これによって、「えー」,「新宿」,「あたりで」,「駅から」,及び「5分以内」の複数の単語が得られる。このとき、「新宿」及び「5分以内」が認識語1,2として認識され、「えー、」,「あたりで、」及び「駅から」は、不要語A,B及びCとしてそれぞれ認識される。   In this case, processing by the search item extraction unit 2 and the voice information extraction unit 12 is performed on the user's answer, and the search control unit 3 analyzes the utterance (utterance) content of the user. In this analysis, the answer “Eh, within 5 minutes from Shinjuku station” is divided into words as shown in FIG. As a result, a plurality of words “e”, “Shinjuku”, “around”, “from the station”, and “within 5 minutes” are obtained. At this time, “Shinjuku” and “within 5 minutes” are recognized as recognition words 1 and 2, and “Eh,” “around,” and “from station” are recognized as unnecessary words A, B and C, respectively. The

なお、「以内」は、範囲を示す言葉であるが、属性値の上限を示す言葉であるので、認識語として抽出及び認識される。その他に、「以上」のような下限を示す言葉も属性値としての言葉とともに認識語として抽出及び認識される。このような認識は、認識語(キー
ワード)の登録内容に依存する。
In addition, “within” is a word indicating a range, but is a word indicating an upper limit of an attribute value, and thus is extracted and recognized as a recognized word. In addition, a word indicating a lower limit such as “above” is extracted and recognized as a recognized word together with a word as an attribute value. Such recognition depends on the registered contents of the recognition word (keyword).

検索制御部3は、上記した認識結果に従って、検索条件を設定する。図21(C)に示す表には、図21(B)における認識結果に基づく認識項目名(図5の検索項目に相当)と、認識結果(図5の検索条件に相当)と、検索条件(図5の緩和条件に相当)とが示されている。   The search control unit 3 sets search conditions according to the above recognition result. The table shown in FIG. 21C includes a recognition item name (corresponding to the search item in FIG. 5) based on the recognition result in FIG. 21B, a recognition result (corresponding to the search condition in FIG. 5), and a search condition. (Corresponding to the relaxation conditions in FIG. 5).

検索制御部3は、認識項目に対する認識結果及び検索条件を設定する。例えば、図21(C)に示すように、検索制御部3は、認識項目名「最寄り駅」について、認識語1「新宿」に基づいて、認識結果(検索条件)「新宿」を設定する。このとき、検索制御部3は、認識語1の後に発声された不要語B「あたりで、」に基づき、断定的な最寄り駅の指定ではないと判断する(「あたり」という範囲を示す付属語であるので)。この場合、検索制御部3は、新宿駅の隣接駅を「最寄り駅」の検索条件(緩和条件)に採用する。   The search control unit 3 sets a recognition result and a search condition for the recognition item. For example, as shown in FIG. 21C, the search control unit 3 sets a recognition result (search condition) “Shinjuku” for the recognition item name “closest station” based on the recognition word 1 “Shinjuku”. At this time, the search control unit 3 determines that it is not an affirmative designation of the nearest station based on the unnecessary word B “around” uttered after the recognized word 1 (an attached word indicating a range of “around”). So). In this case, the search control unit 3 employs the adjacent station of Shinjuku Station as a search condition (relaxation condition) for “nearest station”.

また、検索制御部3は、認識語2「5分以内」より、認識項目「最寄り駅までの所要時間」に対する認識結果(検索条件)として「5分以内」を設定する。このとき、検索制御部3は、認識語2の発声から断定的な指定と判断する(認識語2の後に不要語がない。など)。従って、検索制御部3は、「最寄り駅までの所要時間」に対する検索条件(緩和条件)として、「5分以内」自体を設定する。   The search control unit 3 sets “within 5 minutes” as the recognition result (search condition) for the recognition item “required time to the nearest station” from the recognition word 2 “within 5 minutes”. At this time, the search control unit 3 determines that the designation is definitive from the utterance of the recognized word 2 (there is no unnecessary word after the recognized word 2, etc.). Accordingly, the search control unit 3 sets “within 5 minutes” itself as a search condition (relaxation condition) for “time required to the nearest station”.

図22は、不要語に基づいて検索条件が設定される場合の例を示す表である。図22には、検索項目「家賃」,「間取り」,「最寄り駅」,及び「最寄り駅までの所要時間」のそれぞれに対する認識語(キーワード)に付加される不要語の例と、その不要語が付加されている場合における検索条件(緩和条件)の設定例を示す表が示されている。   FIG. 22 is a table showing an example when search conditions are set based on unnecessary words. FIG. 22 shows examples of unnecessary words added to the recognition words (keywords) for the search items “rent”, “room layout”, “nearest station”, and “time required to the nearest station”, and the unnecessary words. A table showing an example of setting search conditions (relaxation conditions) when is added is shown.

〈未知語(不要語)、無音(沈黙)に基づく重み付けルール〉
次に、未知語、及び無音(沈黙時間)による重み付けルールについて説明する。図23(
A)は、未知語による重み付けルールの例を示す表であり、図23(B)は、無音による重
み付けルールの例を示す表であり、図23(C)は、無音による重みづけの例を示す説明図
である。
<Weighting rules based on unknown words (unnecessary words) and silence (silence)>
Next, weighting rules based on unknown words and silence (silence time) will be described. FIG.
A) is a table showing an example of a weighting rule based on unknown words, FIG. 23B is a table showing an example of a weighting rule based on silence, and FIG. 23C is an example of weighting based on silence. It is explanatory drawing shown.

図23(A)には、未知語に対する重み付けのルールとして、条件(場面及び詳細条件)と、重み付けの調整対象と、重み付けの変更値と、理由とが示されている。例えば、条件として、回答が最初の問い合わせか2回目以降かについて区分けされ、さらに、詳細条件として、未知語の割合が全認識語(音声認識処理を行った発声内容)の70%以上か50%以上かに区分けされている。さらに、調整対象として、未知語と同じ発声の中から認識された希望条件(キーワードに対応する項目)が設定されており、重み付け値として、負の値がそれぞれ設定されている。負の値であるのは、利用者が迷いながら発声した可能性が高いからである。   FIG. 23A shows conditions (scenes and detailed conditions), weight adjustment targets, weight change values, and reasons as weighting rules for unknown words. For example, whether the answer is the first inquiry or the second or later is classified as a condition, and further, as a detailed condition, the ratio of unknown words is 70% or more or 50% of all recognized words (the content of utterances subjected to speech recognition processing). It is divided into the above. Furthermore, desired conditions (items corresponding to keywords) recognized from the same utterance as the unknown word are set as adjustment targets, and negative values are respectively set as weighting values. The negative value is because there is a high possibility that the user uttered while hesitating.

図23(B)に示す例では、利用者発声(回答)中に2以上の検索条件(キーワード)が含まれている場合において、(1)検索条件間に2秒以上の無音時間(沈黙)があるとき、(2)検索条件間に1秒より長く2秒より短い無音時間があるときを条件として、重み付けの調整が行われる。   In the example shown in FIG. 23B, when two or more search conditions (keywords) are included in the user utterance (answer), (1) silence period (silence) of 2 seconds or more between the search conditions. When there is, (2) weighting is adjusted on condition that there is a silence period longer than 1 second and shorter than 2 seconds between search conditions.

上記した調整条件(1)及び(2)では、無音時間の直後の検索条件(検索項目)が、重み付けの調整対象となる。そして、調整条件(1)及び(2)に対し、利用者が検索条件の発声を迷った可能性があることを理由として、それぞれ、重み付け調整値“−2”,“−1”が用意されている。   In the above-described adjustment conditions (1) and (2), the search condition (search item) immediately after the silent period is a weighting adjustment target. For the adjustment conditions (1) and (2), the weight adjustment values “−2” and “−1” are prepared because the user may have lost the utterance of the search condition. ing.

例えば、図23(C)に示すように、回答から、認識語1,不要語A,認識語2,及び不要語Bが認識され、且つ認識語と不要語Aとの間に無音時間が検出された場合では、検索制御部3は、無音時間が調整条件(1)を満たす、調整条件(2)を満たす、調整条件(1)及び(2)を満たさない(無音時間が1秒未満)、のいずれであるかを判断し、調整条件(1)及び(2)の一方が満たされれば、認識語2に対応する検索条件を対象として、規定された重み付け調整を行う。   For example, as shown in FIG. 23C, recognition word 1, unnecessary word A, recognition word 2, and unnecessary word B are recognized from the answer, and silent time is detected between the recognition word and unnecessary word A. In such a case, the search control unit 3 satisfies the adjustment time (1), satisfies the adjustment condition (2), does not satisfy the adjustment conditions (1) and (2) (the silence time is less than 1 second). If one of the adjustment conditions (1) and (2) is satisfied, a prescribed weighting adjustment is performed for the search condition corresponding to the recognition word 2.

さらに、図23(B)に示すように、例えば、(3)回答の発声の前に2秒以上の無音時間がある場合を条件として、重み付けの調整が行われる。調整条件(3)では、利用者発声(
回答)に含まれる全ての検索条件(検索項目)が重み付けの調整対象となる。そして、希望
条件が明確に決まらないまま発声を始めた可能性があり、検索条件の希望が断定的でないとの判断を理由として、重み付け調整値“−1”が用意されている。検索制御部3は、調整条件(3)が満たされる場合には、回答に含まれる全ての検索条件について、重み付けの調整(−1)を行う。
Furthermore, as shown in FIG. 23B, for example, (3) weight adjustment is performed on the condition that there is a silence period of 2 seconds or more before the answer is uttered. In adjustment condition (3), user utterance (
All search conditions (search items) included in (Answer) are subject to weight adjustment. The weight adjustment value “−1” is prepared for the reason that it is possible that the utterance has started without the desired condition being clearly determined and the determination that the desired search condition is not assertive. When the adjustment condition (3) is satisfied, the search control unit 3 performs weighting adjustment (−1) for all the search conditions included in the answer.

〈第1実施形態の作用及び効果〉
以上説明したように、検索装置14によれば、検索項目抽出部2で検索項目に対応するキーワードを抽出するだけでなく、音声情報抽出部12で利用者の話し方に係る感情情報を抽出する。そして、検索制御部3が感情情報に基づいて検索条件の緩和条件を設定する。これによって、利用者の意図を反映した緩和条件での検索が可能となる。従って、利用者が緩和条件の入力を特に意識しなくてすむ。
<Operation and Effect of First Embodiment>
As described above, according to the search device 14, not only the keyword corresponding to the search item is extracted by the search item extraction unit 2, but also the emotion information related to the user's way of speaking is extracted by the voice information extraction unit 12. And the search control part 3 sets the relaxation condition of search conditions based on emotion information. As a result, the search can be performed under the relaxed conditions reflecting the user's intention. Therefore, the user does not need to be particularly aware of the input of relaxation conditions.

また、検索装置14によれば、検索制御部3が感情情報(言いよどみや無音時間等)に基づいて各項目に対する重み付けを決定(変更)する。各検索項目に対する重み付け値は、検索結果評価部9において、評価関数とともに、データ蓄積部8から検索された各検索データ(物件情報)に対する評価に使用される。これによって、利用者の感情情報から得られる利用者の意図が反映された情報を利用者に提供することができる。   Further, according to the search device 14, the search control unit 3 determines (changes) the weighting for each item based on the emotion information (eg, stagnation and silence time). The weight value for each search item is used by the search result evaluation unit 9 for evaluation of each search data (property information) searched from the data storage unit 8 together with the evaluation function. Thus, information reflecting the user's intention obtained from the user's emotion information can be provided to the user.

また、検索制御部3は、回答が初回の回答である場合には、この回答に含まれる検索条
件について重み付け値を調整する。さらに、検索制御部3は、回答入力が自由な音声入力環境化で行われている場合には、このような環境下で入力された検索条件に対する重み付けを調整する。そして、重み付け値は、上述したように、検索データの評価に使用される。これによって、利用者の回答状況が反映された情報を利用者に提供することができる。
In addition, when the answer is the first answer, the search control unit 3 adjusts the weighting value for the search condition included in this answer. Furthermore, when the answer input is performed in a free voice input environment, the search control unit 3 adjusts the weighting for the search condition input in such an environment. The weighting value is used for evaluation of search data as described above. As a result, information reflecting the answer status of the user can be provided to the user.

また、検索装置14によれば、評価関数の作成支援機能を有し、評価関数設定画面を管理者に提供するので、検索装置14の管理者が各項目に対する評価関数を設定登録したり変更したりする場合における負担が軽減される。   In addition, since the search device 14 has an evaluation function creation support function and provides an evaluation function setting screen to the administrator, the administrator of the search device 14 sets, registers, or changes an evaluation function for each item. The burden in the event of a loss is reduced.

〔第2実施形態〕
第1実施形態では、一般的に捕らえられる音声情報評価基準13を使用して検索されたデータに対する評価を行っている。これに対し、検索装置14において個人毎に蓄積される音声情報を用いて、より個々の利用者の感情をきめ細かく把握して、検索へのフィードバックを行うことができる。第2実施形態は、個人毎の音声情報を用いて検索結果の評価を行う例について説明する。
[Second Embodiment]
In the first embodiment, the retrieved data is evaluated using the generally-acquired speech information evaluation standard 13. On the other hand, using the voice information stored for each individual in the search device 14, it is possible to grasp the emotions of individual users in detail and provide feedback to the search. 2nd Embodiment demonstrates the example which evaluates a search result using the audio | voice information for every individual.

図24は、第2実施形態による音声応答システム(情報検索システム)の構成例を示す図である。図24において、図1に示した第1実施形態と同様の構成については、同一の符号を付し、説明を省略する。また、図25は、個人属性情報(個人情報)を用いた重み付けの設定例を示す図である。   FIG. 24 is a diagram illustrating a configuration example of a voice response system (information retrieval system) according to the second embodiment. In FIG. 24, the same components as those in the first embodiment shown in FIG. FIG. 25 is a diagram illustrating a setting example of weighting using personal attribute information (personal information).

図24において、第2実施形態における検索装置14Aは、個人属性蓄積部15をさらに備えている。個人属性蓄積部15は、音声情報抽出部12及び検索制御部3と接続されており、音声情報抽出部12から抽出される感情情報に基づく個人属性情報を蓄積する。個人属性蓄積部15に蓄積される個人属性情報は、検索条件蓄積部4に蓄積される重み付け7として利用され、音声情報反映基準13の一つとして利用される。なお、個人属性蓄積部15は、検索装置14が備える記憶媒体上に作成される。   In FIG. 24, the search device 14 </ b> A according to the second embodiment further includes a personal attribute storage unit 15. The personal attribute storage unit 15 is connected to the voice information extraction unit 12 and the search control unit 3 and stores personal attribute information based on emotion information extracted from the voice information extraction unit 12. The personal attribute information stored in the personal attribute storage unit 15 is used as the weighting 7 stored in the search condition storage unit 4 and used as one of the audio information reflection standards 13. The personal attribute storage unit 15 is created on a storage medium included in the search device 14.

第2実施形態において、検索条件蓄積部4におけるデータの蓄積、及び検索項目抽出部2による検索条件の抽出は、第1実施形態と同様の処理が行われる。これに対し、音声情報抽出部12による音声情報の抽出処理では、音声情報抽出部12は、音声情報入力部1から入力される音声データを受けとると、この音声データの声紋パターンを、個人属性蓄積部15に登録されている声紋パターンと照合し、音声データの発声者(個人、すなわち
利用者)を識別する。
In the second embodiment, data storage in the search condition storage unit 4 and search condition extraction by the search item extraction unit 2 are performed in the same manner as in the first embodiment. On the other hand, in the voice information extraction process performed by the voice information extraction unit 12, when the voice information extraction unit 12 receives the voice data input from the voice information input unit 1, the voice print pattern of the voice data is stored as a personal attribute. The voice print pattern registered in the unit 15 is collated to identify the voice data utterer (individual, ie, user).

個人の声紋パターンは、例えば、その個人が情報検索システムを最初に利用した場合に得られる音声データ中から作成され、個人情報蓄積部15に、その個人の個人情報と関連づけて登録される。なお、個人の識別に対し、発信者番号を用いる方法(利用者の発信者
番号(例えば、電話番号)から利用者を特定する方法)を適用することもできる。音声情報
抽出部12は、個人を識別すると、その後は、第1実施形態で説明した処理と同様の処理を行う。
The personal voiceprint pattern is created from, for example, voice data obtained when the individual uses the information search system for the first time, and is registered in the personal information storage unit 15 in association with the personal information of the individual. Note that a method of using a caller number (a method of specifying a user from a caller number of a user (for example, a telephone number)) can also be applied to individual identification. After identifying the individual, the voice information extraction unit 12 performs the same processing as that described in the first embodiment.

検索制御部3は、第1実施形態と同様に、音声データからの感情情報の抽出結果に基づいて、検索項目の重み付け値を変更する。但し、第2実施形態では、第1実施形態で説明したような一般的に用意される重み付け値の初期値ではなく、個人属性蓄積部15にて個人毎に用意された重み付け情報(個人情報)を用いて、重み付け値を決定(変更)する。   Similar to the first embodiment, the search control unit 3 changes the weighting value of the search item based on the emotion information extraction result from the audio data. However, in the second embodiment, the weighting information (personal information) prepared for each individual in the personal attribute storage unit 15 is not the initial value of the weighting value generally prepared as described in the first embodiment. Is used to determine (change) the weighting value.

図25には、個人に対して用意された重み付け値の設定例が示されている。個人情報蓄積部15には、図25(1)に示すような、個人情報の初期値が登録される。初期状態では、「家賃」,「間取り」,「最寄り駅」,「最寄り駅までの所要時間」,及び「ペット可
/不可」の各検索項目毎に、一般的な重み付け値として、例えば“3”,“2”,“2”,“1”,“5”の重み付け値がそれぞれ設定されている(図25(1))。
FIG. 25 shows a setting example of weight values prepared for individuals. In the personal information storage unit 15, initial values of personal information as shown in FIG. 25 (1) are registered. In the initial state, for example, “3” is set as a general weighting value for each search item of “rent”, “room layout”, “closest station”, “time required to the nearest station”, and “pet allowed / impossible”. “,” “2,” “2,” “1,” and “5” are set respectively (FIG. 25 (1)).

その後、個人が、検索装置14Aを用いて1回目の検索の利用を行った場合には、個人情報の初期値が個人情報蓄積部15から読み出される。検索制御部3は、その回答の内容(感情情報、回答状況等)に基づいて、個人情報蓄積部15から読み出された個人情報(各
検索項目の重み付け値)を、変更する。変更方法自体は、第1実施形態と同様である。例
えば、図25(2)に示されるように、個人情報蓄積部15から読み出された各検索項目の重み付け値が“5”,“4”,“2”,“1”,“5”に変更される。
Thereafter, when the individual uses the first search using the search device 14 </ b> A, the initial value of the personal information is read from the personal information storage unit 15. The search control unit 3 changes the personal information (weighted value of each search item) read from the personal information storage unit 15 based on the contents of the answer (emotion information, answer status, etc.). The changing method itself is the same as in the first embodiment. For example, as shown in FIG. 25 (2), the weight values of the respective retrieval items read from the personal information storage unit 15 are “5”, “4”, “2”, “1”, “5”. Be changed.

その後、回答から得られた検索条件による情報検索が行われ、検索結果の評価が、変更された重み付け値に基づいて、第1実施形態と同様に行われる。その後、各検索項目について、例えば、最初の重み付け値(変更前の重み付け値)と、変更後の重み付け値との平均値が算出され、各検索項目の平均値が、新たな重み付け値(個人情報)として、個人情報蓄積部15に登録される(図23(3)参照)。なお、新たな重み付け値の算出方法として、平均値の算出と異なる算出方法を適用することもできる。   Thereafter, information search is performed based on the search condition obtained from the answer, and the evaluation of the search result is performed in the same manner as in the first embodiment based on the changed weighting value. Thereafter, for each search item, for example, an average value of the first weighting value (the weighting value before the change) and the weighting value after the change is calculated, and the average value of each search item is changed to a new weighting value (personal information ) Is registered in the personal information storage unit 15 (see FIG. 23 (3)). Note that a calculation method different from the calculation of the average value can be applied as a new weighting value calculation method.

その後、個人の2回目以降の利用においては、1回目の利用と同様の方法により、回答に含まれる感情情報及び回答状況に基づく重み付け値の変更が行われ(図25(4))、検索終了後に、各検索項目の重み付け値の平均値が、新たな個人用の重み付け値として個人情報蓄積部15に登録される(図25(5))。   Thereafter, in the second and subsequent use of the individual, the weighting value is changed based on the emotion information included in the answer and the answer status by the same method as in the first use (FIG. 25 (4)), and the search ends. Later, the average value of the weight values of each search item is registered in the personal information storage unit 15 as a new personal weight value (FIG. 25 (5)).

第2実施形態によれば、第1実施形態が、変更対象の重み付け値として、一般的に用意された値を使用するのに対し、個人毎に用意される重み付け値(個人情報)を変更対象として重み付け値の変更(調整)を行う。すなわち、個人の属性(感情)が予め反映された重み付け値に対する調整が行われる。従って、第1実施形態に比べて、検索結果の評価に個人の意図を強く反映することができ、個人が適切な検索結果(情報提供)を受けることが可能となる。   According to the second embodiment, the first embodiment uses a generally prepared value as a weighting value to be changed, whereas a weighting value (personal information) prepared for each individual is to be changed. The weight value is changed (adjusted) as follows. That is, an adjustment is made to the weighting value in which the individual attribute (emotion) is reflected in advance. Therefore, compared with the first embodiment, the intention of the individual can be strongly reflected in the evaluation of the search result, and the individual can receive an appropriate search result (information provision).

〔第3実施形態〕
次に、第3実施形態として、音声情報抽出部12によって取得される音声情報を、検索への反映のみならず、検索時に提供するナビゲーションへフィードバックする例について説明する。図26は、第3実施形態のシステム構成図であり、音声情報を結果評価とナビゲーションとの双方への適用する例を示す。なお、第3実施形態において、第1実施形態と同様の構成については、同じ符号を付し、説明を省略する。
[Third Embodiment]
Next, as a third embodiment, an example in which audio information acquired by the audio information extraction unit 12 is fed back to navigation provided at the time of search as well as reflected in the search will be described. FIG. 26 is a system configuration diagram of the third embodiment, showing an example in which audio information is applied to both result evaluation and navigation. Note that in the third embodiment, identical symbols are assigned to configurations similar to those in the first embodiment and descriptions thereof are omitted.

図26において、検索装置14Bは、第1実施形態において説明した構成(図1参照)に加えて、シナリオデータ蓄積部16と、ナビゲーション処理部17とをさらに備える。ナビゲーション処理部17は、シナリオデータ蓄積部16に蓄積されるシナリオデータに従って、情報検索のナビゲーションを行う。   26, the search device 14B further includes a scenario data storage unit 16 and a navigation processing unit 17 in addition to the configuration described in the first embodiment (see FIG. 1). The navigation processing unit 17 performs information retrieval navigation according to the scenario data stored in the scenario data storage unit 16.

すなわち、ナビゲーション処理部17は、入力状態解析部18と、シナリオ解析部19とを備えている。入力状態解析部18は、音声情報抽出部12で抽出される感情情報を受け取り、利用者の回答に対する確信度を求める。シナリオ解析部19は、シナリオデータ蓄積部16にシナリオデータとして予め登録されているナビゲーションメッセージ情報から適切なものを選択し、メッセージ合成部10に与える。これによって、利用者の確信度に応じたナビゲーションメッセージを利用者に与えることができ、且つ現時点での検索条件で検索を行うか否かを決定することができる。   That is, the navigation processing unit 17 includes an input state analysis unit 18 and a scenario analysis unit 19. The input state analysis unit 18 receives the emotion information extracted by the voice information extraction unit 12 and obtains a certainty factor for the user's answer. The scenario analysis unit 19 selects an appropriate piece of navigation message information registered in advance as scenario data in the scenario data storage unit 16 and gives it to the message synthesis unit 10. As a result, a navigation message corresponding to the certainty factor of the user can be given to the user, and it can be determined whether or not to perform a search with the current search conditions.

図27(A)−(C)は、追加の検索項目を利用者に尋ねる場合における、シナリオデータ
蓄積部16に登録されているナビゲーションメッセージ情報の例を示す。図27(A)には、確信度が“強い確信”を示す場合におけるナビゲーションメッセージ(ナビゲーション
1)として、「では、このまま検索結果をご案内致します」とのメッセージが示されてい
る。
FIGS. 27A to 27C show examples of navigation message information registered in the scenario data storage unit 16 when asking the user for additional search items. FIG. 27A shows a message “Now I will guide the search results as is” as a navigation message (navigation 1) when the certainty level indicates “strong confidence”.

図27(B)には、確信度が“普通の確信”を示す場合におけるナビゲーションメッセージ(ナビゲーション2)として、「他に条件はありますか」とのメッセージが示されている。図27(C)には、確信度が“弱い確信”を示す場合におけるナビゲーションメッセージ(ナビゲーション3)として、「XXからYY(「XX」及び「YY」は任意の値を示す)の範囲でお探ししましょうか」とのメッセージが示されている。   FIG. 27B shows a message “Is there other conditions?” As a navigation message (navigation 2) when the certainty level indicates “ordinary certainty”. FIG. 27C shows a navigation message (navigation 3) when the certainty level indicates “weak belief” in the range of “XX to YY (“ XX ”and“ YY ”indicate arbitrary values). "Let's look for it" message.

図28は、音声情報(感情情報)から利用者の確信度を求める方法(確信度の数値化)の例を示す。図28(A)に示されるように、音声情報抽出部12は、第1実施形態と同様に、音声入力部1から入力される音声データから、声の大きさ、無音時間、不要語などの感情情報を抽出し、入力状態解析部18に与える。   FIG. 28 shows an example of a method of calculating the user's certainty from voice information (emotion information) (quantification of certainty). As shown in FIG. 28 (A), the voice information extraction unit 12 is configured to obtain voice volume, silent time, unnecessary words, and the like from voice data input from the voice input unit 1 as in the first embodiment. Emotion information is extracted and provided to the input state analysis unit 18.

入力状態解析部18は、図28(B)に示されるような、確信度の初期値(この例では“
5”)を有している。入力状態解析部18は、感情情報が入力されると、例えば、図29(A)及び(B)に示されるような、利用者の音声情報による確信度増減のルールに従って、
声の大きさ、無音時間、不要語に対する確信度の増減値(予め規定されている)を求める。入力状態解析部18は、このようなルールに係る情報を予め有している。
As shown in FIG. 28B, the input state analysis unit 18 sets the initial value of the certainty factor (in this example, “
When the emotion information is input, the input state analysis unit 18 increases or decreases the certainty factor based on the user's voice information as shown in FIGS. 29 (A) and (B), for example. According to the rules of
Increase / decrease values (defined in advance) for certainty levels for loudness, silent time, and unnecessary words. The input state analysis unit 18 has information related to such rules in advance.

図29(A)には、声の大きさに基づく確信度増減のルールの例が示されている。この例では、検出された音声が所定の基準音声と比較され、基準音声に対する該音声の音量の比率が所定値(確信度減少閾値)以下であれば確信度が減少し、所定値(確信度上昇閾値)以上であれば確信度が増加するように構成されている。   FIG. 29A shows an example of a rule for increasing or decreasing the certainty factor based on the loudness of the voice. In this example, the detected sound is compared with a predetermined reference sound, and if the ratio of the volume of the sound to the reference sound is equal to or less than a predetermined value (certainty reduction threshold), the certainty factor decreases and the predetermined value (the certainty factor) If it is equal to or higher than the (rising threshold), the certainty factor is increased.

図29(A)に示される例では、例えば、検出された認識語の音声が基準音声と比較された場合において、該音声の音量が基準音声の60%以下である場合には、確信度の値が確信度調整値だけ減少する。例えば、確信度が“−2”される。利用者が迷った可能性があるからである。   In the example shown in FIG. 29 (A), for example, when the sound of the detected recognition word is compared with the reference sound and the volume of the sound is 60% or less of the reference sound, The value decreases by the confidence adjustment value. For example, the certainty factor is “−2”. This is because the user may be lost.

一方、該音声の音量が基準音声の120%以上である場合には、確信度の値が確信度調整値だけ増加する。例えば、確信度が“+2”される。利用者が確信を持っていると思われるからである。   On the other hand, when the volume of the sound is 120% or more of the reference sound, the certainty value increases by the certainty adjustment value. For example, the certainty factor is “+2”. This is because the user seems to be confident.

図29(B)には、無音時間に基づく確信度増減のルールの例が示されている。この例では、2個目以降の条件間に所定の長さの無音時間があったこと、及び、入力音声の全体の前に所定の長さの無音時間があったことが検出され、これらが検出した場合には、それぞれ、確信度が減少するように構成されている。   FIG. 29B shows an example of a rule for increasing or decreasing the certainty factor based on the silent time. In this example, it was detected that there was a predetermined length of silence between the second and subsequent conditions, and that there was a predetermined length of silence before the entire input speech. When detected, the certainty factor is configured to decrease.

図29(B)に示す例では、条件間に1秒以上の無音時間が検出された場合には、確信度が減少する(現在の確信度の値から“−1”される)。利用者が迷った可能性があるからである。また、音声入力の受付が開始されてから音声が入力される前に無音時間が2秒以上あったことが検出された場合には、確信度が減少する(現在の確信度の値から1が減じら
れる)。希望条件が明確に決まらずに発生を始めた可能性があり、条件の希望は断定的で
はないと判断できるからである。
In the example shown in FIG. 29B, when a silent time of 1 second or longer is detected between conditions, the certainty factor decreases ("-1" from the current certainty factor value). This is because the user may be lost. In addition, when it is detected that the silent period has been 2 seconds or more before the voice is input after the reception of the voice input is started, the certainty factor decreases (1 from the current certainty factor value). Reduced). This is because the desired condition may have started without being clearly determined, and it can be determined that the desired condition is not assertive.

図28(B)に戻って、入力状態解析部18は、例えば、認識語に対する声の大きさが小さい場合、現在の確信度から2を減じる。また、入力状態解析部18は、例えば、回答の
タイミングが最先の場合(無音時間の直後に認識語は発声されている場合)には、現在の確信度に1を加える。さらに、入力状態解析部18は、迷いを示す不要語(例えば、「えっ
と」,「そうだな」、「うーん」)が存在する場合には、現在の確信度から不要語の個数
だけ減じる。
Returning to FIG. 28B, the input state analysis unit 18 subtracts 2 from the current certainty factor, for example, when the loudness of the recognized word is small. The input state analysis unit 18 adds 1 to the current certainty factor, for example, when the answer timing is the earliest (when the recognized word is uttered immediately after the silent time). Furthermore, the input state analysis unit 18 subtracts the number of unnecessary words from the current certainty factor when there is an unnecessary word (for example, “Et”, “Soda”, “Um”) that indicates hesitation.

これによって、入力状態解析部18は、例えば、図28(B)に示されるように、予め規定された感情情報の要素(例えば、声の大きさ、無音時間(回答のタイミング)、及び不要
語)について、それぞれ、増減値“−2”,“+1”,及び“−1”を得る。そして、入
力状態解析部18は、確信度の初期値(現在の確信度の値)“5”を“3”に変更(調整)する。調整された確信度は、入力状態解析部18からシナリオ解析部19に与えられる。
Thereby, the input state analysis unit 18, for example, as shown in FIG. 28 (B), elements of emotion information specified in advance (for example, loudness, silent time (answer timing), and unnecessary words ), Increase / decrease values “−2”, “+1”, and “−1” are obtained, respectively. Then, the input state analysis unit 18 changes (adjusts) the initial value of the certainty factor (current certainty factor value) “5” to “3”. The adjusted certainty factor is given from the input state analysis unit 18 to the scenario analysis unit 19.

シナリオ解析部(確信レベル取得部及びナビゲーションメッセージ選択部に相当)19は、入力状態解析部18から与えられる確信度の値に基づいて、確信の度合い(レベル)を判断する。例えば、シナリオ解析部19は、確信度値に対応するレベルの閾値(基準値)を有している。例えば、“強い”,“普通”及び“弱い”からなる3つのレベルが用意されている場合には、確信度に対するレベルを求めるための(レベル数−1)個の基準値が用意される。   The scenario analysis unit (corresponding to the confidence level acquisition unit and the navigation message selection unit) 19 determines the degree of confidence (level) based on the confidence value provided from the input state analysis unit 18. For example, the scenario analysis unit 19 has a threshold value (reference value) at a level corresponding to the certainty value. For example, when three levels of “strong”, “normal”, and “weak” are prepared, (number of levels−1) reference values for obtaining a level for the certainty factor are prepared.

図27に示すように、“強い確信”,“普通の確信”,及び“弱い確信”の3つのレベルが用意されている場合には、例えば、確信度の基準値として、“8”及び“3”が用意される。そして、シナリオ解析部19は、得られた確信度(図28の例では“3”)と各基準値とを対比して、確信のレベルを求める。   As shown in FIG. 27, when three levels of “strong belief”, “ordinary belief”, and “weak belief” are prepared, for example, “8” and “ 3 "is prepared. Then, the scenario analysis unit 19 compares the obtained certainty factor (“3” in the example of FIG. 28) with each reference value to obtain a certainty level.

図30は、シナリオ解析部19が確信のレベルを求めるための判断基準例を示す。図30に示す例では、確信度の値が8以上であれば、強い確信と判断される。また、確信度の値が3以下であれば、弱い確信と判断される。そして、確信度の値が3を上回り且つ8未満であれば、普通の確信と判断される。   FIG. 30 shows an example of a criterion for the scenario analysis unit 19 to obtain the confidence level. In the example illustrated in FIG. 30, if the certainty value is 8 or more, it is determined that the certainty is strong. If the certainty value is 3 or less, it is determined that the certainty is weak. If the certainty value is greater than 3 and less than 8, it is determined that the certainty is normal.

シナリオ解析部19は、確信のレベルを求めると、図27に示したような、シナリオデータ蓄積部16に蓄積されているナビゲーションメッセージの中から確信のレベルに対応するメッセージを読み出し、メッセージ合成部10に与える。これによって、確信のレベルに応じたナビゲーションメッセージが、利用者とシステム(検索装置14B)との対話において、利用者に提供される。   When the scenario analysis unit 19 obtains the level of confidence, the scenario analysis unit 19 reads a message corresponding to the level of confidence from the navigation messages stored in the scenario data storage unit 16 as illustrated in FIG. To give. As a result, a navigation message corresponding to the level of confidence is provided to the user in the dialog between the user and the system (search device 14B).

第3実施形態によれば、利用者の回答から得られる感情情報から利用者の確信のレベルが求められ、このレベルに応じたナビゲーションメッセージが利用者に提供される。例えば、利用者が回答に強い確信を持つと認められる場合には、その時点で検索条件の入力を終了することができる。これによって、短時間で情報の検索を提供することが可能となる。   According to the third embodiment, the user's confidence level is obtained from the emotion information obtained from the user's answer, and a navigation message corresponding to this level is provided to the user. For example, when it is recognized that the user has strong confidence in the answer, the input of the search condition can be terminated at that time. This makes it possible to provide information retrieval in a short time.

また、確信のレベルが普通や弱いと認められる場合には、他の検索条件を求めたり、検索の提案を行ったりすることで、最終的に利用者に提供される情報に、利用者の意図(感
情)が反映することができる。従って、短時間で的確な検索結果を利用者に提供すること
が可能となる。
In addition, if the level of confidence is recognized as normal or weak, by searching for other search conditions or making a search suggestion, the user's intention (Emotion) can be reflected. Therefore, accurate search results can be provided to the user in a short time.

以上説明した第1〜第3実施形態における構成は、本発明の目的を逸脱しない範囲内で、適宜組み合わせることができる。   The configurations in the first to third embodiments described above can be appropriately combined without departing from the object of the present invention.

〔実施形態の効果〕
以上説明した第1〜第3実施形態によれば、音声検索の分野で、以下の効果を期待する
ことができる。(A)視覚で検索項目を確認したり、一度に多数の検索項目を設定しなくとも、的確な検索結果が提示される。(B)利用者が、重み付け、範囲設定、1項目2条件のような細かい検索条件の設定を意識しなくとも、システム(検索装置)が自動で設定を行い、検索結果を提示する。(C)利用者が設定項目の読み上げのような最小限の設定(音声入
力)を行なえば、自分に必要な結果を短時間で得ることができる。(D)検索項目の優先度
や緩和項目の選択に限定されず、評価関数を使用して適切な検索結果を得ることができる。
[Effect of the embodiment]
According to the first to third embodiments described above, the following effects can be expected in the field of voice search. (A) Accurate search results can be presented without visually confirming search items or setting many search items at once. (B) Even if the user is not conscious of setting fine search conditions such as weighting, range setting, and 1 item 2 conditions, the system (search device) automatically sets and presents the search results. (C) If the user performs a minimum setting (speech input) such as reading out setting items, the result necessary for him can be obtained in a short time. (D) Appropriate search results can be obtained using the evaluation function, without being limited to the priority of search items and the selection of relaxation items.

さらに、副次的な効果として、次の効果を得ることができる。(E)的確な検索が行なわれることにより、本システムを有する検索サービスへのアクセスが上昇する。(F)的確なお勧め情報の提示により、検索結果である商品の販売拡大に繋げることができる。   Furthermore, the following effects can be obtained as a secondary effect. (E) By performing an accurate search, access to a search service having this system increases. (F) By presenting accurate recommended information, it is possible to lead to an increase in sales of products as search results.

〔その他〕
上述した本発明の実施形態は、以下の発明を開示する。なお、以下に示す発明は、必要に応じて適宜組み合わせることができる。
[Others]
The above-described embodiment of the present invention discloses the following invention. In addition, the invention shown below can be combined suitably as needed.

(付記1) 情報検索を希望する利用者の音声データから、検索項目に対するキーワードとなる認識語を抽出する検索項目抽出部と、
前記音声データから利用者の感情に係る感情情報を抽出する音声情報抽出部と、
前記認識語及び感情情報から、少なくとも1つの検索項目に対する検索条件を含む検索式を生成して出力する検索制御部と、
を含む音声による情報検索システム。(1)
(Supplementary Note 1) A search item extraction unit that extracts a recognition word as a keyword for a search item from voice data of a user who desires an information search;
A voice information extraction unit that extracts emotion information related to a user's emotion from the voice data;
A search control unit that generates and outputs a search expression including a search condition for at least one search item from the recognized word and emotion information;
Information retrieval system using voice. (1)

(付記2) 前記検索制御部は、前記感情情報に基づいて、検索に係る複数の検索項目に対する重み付け値を決定し、
前記重み付け値を格納する格納部と、
前記検索式に合致する少なくとも1つの検索結果データを受け取った場合に、前記格納部に格納された重み付け値を用いて、各検索結果データに対する評価を行う検索結果評価部とをさらに含む
付記1記載の音声による情報検索システム。(2)
(Additional remark 2) The said search control part determines the weighting value with respect to the some search item which concerns on search based on the said emotion information,
A storage unit for storing the weight values;
Appendix 1 further includes a search result evaluation unit that evaluates each search result data using the weighting value stored in the storage unit when at least one search result data matching the search formula is received. Information retrieval system by voice. (2)

(付記3) 前記検索制御部は、さらに、前記音声データが得られたときの状況に基づいて、前記複数の検索項目に対する重み付け値を決定する
付記2記載の音声による情報検索システム。
(Additional remark 3) The said search control part is an information search system by the voice of Additional remark 2 which determines the weighting value with respect to these search items further based on the condition when the said audio | voice data were obtained.

(付記4) 前記音声情報抽出部は、(1)利用者の声の大きさ,(2)音声データに含まれる無音時間の長さ,(3)前記認識語として認識されない単語としての不要語,(4)音声データ中の利用者の発声内容に含まれる未知語の割合、の少なくとも1つを示す情報を、前記感情情報として抽出する、
付記1〜3のいずれかに記載の音声による情報検索システム。(3)
(Supplementary Note 4) The voice information extraction unit includes (1) loudness of the user's voice, (2) length of silent time included in the voice data, and (3) an unnecessary word as a word that is not recognized as the recognized word. , (4) information indicating at least one of the ratios of unknown words included in the utterance content of the user in the voice data is extracted as the emotion information.
The information search system by voice according to any one of appendices 1 to 3. (3)

(付記5) 前記検索制御部は、前記音声情報抽出部で所定値よりも小さい大きさの利用者のキーワードに対する声の大きさが抽出された場合には、このキーワードに対応する検索項目の重み付け値を小さくする
付記4記載の音声による情報検索システム。
(Supplementary Note 5) When the voice information extraction unit extracts a voice level for a keyword of a user whose volume is smaller than a predetermined value, the search control unit weights the search item corresponding to the keyword. The information search system by voice according to the supplementary note 4, which reduces the value.

(付記6) 前記検索制御部は、前記感情情報に基づいて、前記キーワードに対する発声が断定的に行われていることが認められる場合には、このキーワードに対応する検索項目の重み付け値を大きくする、
付記4又は5記載の音声による情報検索システム。
(Additional remark 6) When it is recognized that utterance with respect to the said keyword is performed decisively based on the said emotion information, the said search control part increases the weighting value of the search item corresponding to this keyword. ,
The information search system by voice according to appendix 4 or 5.

(付記7) 前記検索制御部は、前記音声情報抽出部で前記音声データに含まれる2つのキーワードの間に所定時間より長い無音時間が検出された場合には、後ろ側のキーワードに対応する検索項目の重み付け値を小さくする
付記4〜6のいずれかに記載の音声による情報検索システム。
(Supplementary Note 7) When the voice information extraction unit detects a silent time longer than a predetermined time between two keywords included in the voice data, the search control unit searches for a keyword corresponding to the rear side. The information search system by voice according to any one of appendices 4 to 6, wherein the weighting value of the item is reduced.

(付記8) 前記検索制御部は、前記音声情報抽出部で前記音声データに含まれる最初の発声の前に所定時間より長い無音時間が検出された場合には、この音声データに含まれる全てのキーワードに対応する検索項目の重み付け値をそれぞれ小さくする、
付記4〜7のいずれかに記載の音声による情報検索システム。
(Additional remark 8) When the silence information longer than predetermined time is detected before the first utterance included in the said audio | voice data in the said audio | voice information extraction part, the said search control part is all the audio | voice data included in this audio | voice data Decrease the weight of each search item corresponding to the keyword,
The information search system by voice according to any one of appendices 4 to 7.

(付記9) 前記検索制御部は、前記音声情報抽出部で前記キーワードで特定される検索項目の属性値に対する範囲又は程度を示す不要語が抽出された場合には、このキーワードで特定される属性値が緩和された検索条件を作成する、
付記4〜8のいずれかに記載の音声による情報検索システム。
(Additional remark 9) When the said search control part extracts the unnecessary word which shows the range or grade with respect to the attribute value of the search item specified by the said keyword in the said audio | voice information extraction part, the attribute specified by this keyword Create search criteria with relaxed values,
The information search system by voice according to any one of appendices 4 to 8.

(付記10) 前記検索制御部は、前記音声情報抽出部で利用者が悩んでいることを示す不要語が前記キーワードの前及び/又は後ろで抽出された場合には、このキーワードに対応する検索項目の重み付け値を小さくする、
付記4〜9のいずれかに記載の音声による情報検索システム。
(Additional remark 10) The said search control part is a search corresponding to this keyword, when the unnecessary word which shows that the user is troubled in the said voice information extraction part is extracted before and / or after the said keyword. Decrease the item weight value,
The information search system by voice according to any one of appendices 4 to 9.

(付記11) 前記検索制御部は、前記音声情報抽出部で抽出された利用者の発声内容に含まれる未知語の割合が所定値を越える場合には、この発声内容に含まれるキーワードに対応する検索項目の重み付け値を小さくする
付記4〜10のいずれかに記載の音声による情報検索システム。
(Additional remark 11) The said search control part respond | corresponds to the keyword contained in this utterance content, when the ratio of the unknown word contained in the user's utterance content extracted by the said audio | voice information extraction part exceeds a predetermined value. The information search system by voice according to any one of appendices 4 to 10, wherein the weight of the search item is reduced.

(付記12) 前記格納部は、各検索項目に対する評価関数をさらに格納し、
前記検索結果評価部は、前記重み付け値と前記評価関数とに基づいて前記検索データに対する評価を行う
付記2〜11のいずれかに記載の音声による情報検索システム。
(Supplementary Note 12) The storage unit further stores an evaluation function for each search item,
The search information evaluation unit according to any one of supplementary notes 2 to 11, wherein the search result evaluation unit evaluates the search data based on the weighting value and the evaluation function.

(付記13) 前記検索結果評価部は、検索項目の属性に応じた評価関数パターンを有する評価関数を用いて前記評価を行う
付記12記載の音声による情報検索システム。
(Additional remark 13) The said search result evaluation part is an information search system by voice of Additional remark 12 which performs the said evaluation using the evaluation function which has the evaluation function pattern according to the attribute of the search item.

(付記14) 前記検索結果評価部は、検索式に含まれる検索項目毎に、検索項目に応じた評価関数を用いて、検索結果データが持つ検索項目の属性値に対する利用者の満足度、又は利用者が希望する属性値からの乖離度を求め、求められた検索項目毎の満足度又は乖離度と前記重み付け値とを用いて検索結果データに対する総合評価点を求め、この総合評価点が所定の閾値以上、又はこの所定の閾値を上回る検索結果データを、前記利用者に提供すべき検索結果データとして抽出する
付記12記載の音声による情報検索システム。
(Additional remark 14) The said search result evaluation part uses the evaluation function according to a search item for every search item contained in a search formula, The user satisfaction with respect to the attribute value of the search item which search result data have, or The degree of divergence from the attribute value desired by the user is obtained, and an overall evaluation score for the search result data is obtained using the degree of satisfaction or divergence for each of the obtained search items and the weighting value. The information search system by voice according to appendix 12, wherein search result data that is equal to or greater than the threshold value or exceeds the predetermined threshold value is extracted as search result data to be provided to the user.

(付記15) 前記格納部に格納された評価関数を表示装置に表示する表示制御部と、
前記表示装置に表示される評価関数を用いて入力される前記満足度又は乖離度に対する検索項目の属性値を受け付けて前記評価関数を調整し、前記格納部に格納する評価関数調整部と、
をさらに含む付記13記載の音声による情報検索システム。
(Supplementary Note 15) A display control unit that displays the evaluation function stored in the storage unit on a display device;
An evaluation function adjustment unit that accepts an attribute value of a search item for the satisfaction or divergence input using the evaluation function displayed on the display device, adjusts the evaluation function, and stores the evaluation function in the storage unit;
The information search system by voice according to appendix 13, further comprising:

(付記16) 前記検索結果評価部は、複数の検索項目間の評価のバランスが考慮された
複数の前記総合評価点の算出式の中から、所定の条件を満たす算出式を用いて前記総合評価点を算出する
付記14又は15記載の音声による情報検索システム。
(Additional remark 16) The said search result evaluation part uses the calculation formula which satisfy | fills predetermined conditions from the calculation formulas of the said total evaluation score in which the balance of evaluation between several search items was considered. The information search system by voice according to Supplementary Note 14 or 15 for calculating points.

(付記17) 利用者毎に用意された各検索項目に対する重み付け値を格納する個人情報格納部をさらに含み、
前記検索制御部は、前記感情情報に基づいて検索項目の重み付け値を決定する場合に、個人情報格納部に格納されている検索の利用者に対応する重み付け値を増減する
付記2〜16のいずれかに記載の音声による情報検索システム。
(Additional remark 17) The personal information storage part which stores the weighting value with respect to each search item prepared for every user is further included,
When the search control unit determines the weighting value of the search item based on the emotion information, any one of the appendices 2 to 16 that increase or decrease the weighting value corresponding to the search user stored in the personal information storage unit Information retrieval system by voice as described in Crab.

(付記18) 前記検索制御部によって増減された重み付け値が反映された重み付け値で前記個人情報格納部に格納された前記利用者の重み付け値を更新する手段をさらに含む
付記17記載の音声による情報検索システム。
(Supplementary note 18) The voice information according to supplementary note 17, further comprising means for updating the weight value of the user stored in the personal information storage unit with a weight value reflecting the weight value increased or decreased by the search control unit. Search system.

(付記19) 前記音声情報抽出部で抽出される感情情報に基づいて、利用者の発話内容に対する確信のレベルを求める確信レベル取得部と、
前記確信のレベルに応じて用意された検索に係るナビゲーションメッセージを選択し、利用者に提供するために出力するナビゲーションメッセージ選択部と
をさらに含む付記1〜18のいずれかに記載の音声による情報検索システム。
(Supplementary note 19) Based on the emotion information extracted by the voice information extraction unit, a belief level acquisition unit for obtaining a belief level with respect to the utterance content of the user;
The information search by voice according to any one of appendices 1 to 18, further including a navigation message selection unit that selects a navigation message related to the search prepared according to the level of confidence and outputs the navigation message to provide to the user system.

(付記20) 前記ナビゲーションメッセージ選択部は、前記確信のレベルに応じて、検索条件の入力を終了することを示すナビゲーションメッセージを選択して出力する
付記19記載の音声による情報検索システム。
(Supplementary note 20) The voice information search system according to supplementary note 19, wherein the navigation message selection unit selects and outputs a navigation message indicating that the input of the search condition is terminated according to the level of confidence.

(付記21) 前記ナビゲーションメッセージ選択部は、前記確信のレベルに応じて、他の検索条件の入力を促すナビゲーションメッセージを選択して出力する
付記19又は20記載の音声による情報検索システム。
(Supplementary note 21) The voice information search system according to supplementary note 19 or 20, wherein the navigation message selection unit selects and outputs a navigation message that prompts input of another search condition according to the level of certainty.

(付記22) 前記ナビゲーションメッセージ選択部は、前記確信のレベルに応じて、所定の検索項目について、所定の範囲での検索を確認するためのナビゲーションメッセージを選択して出力する
付記19〜21記載の音声による情報検索システム。
(Additional remark 22) The said navigation message selection part selects and outputs the navigation message for confirming the search in a predetermined range about a predetermined | prescribed search item according to the said confidence level, Additional remarks 19-21 Information retrieval system by voice.

(付記23) コンピュータが、
情報検索を希望する利用者の音声データから、検索項目に対するキーワードとなる認識語を抽出し、
前記音声データから利用者の感情に係る感情情報を抽出し、
前記認識語及び感情情報から、少なくとも1つの検索項目に対する検索条件を含む検索式を生成して出力する、
ことを含む音声による情報検索方法。(4)
(Supplementary note 23)
From the voice data of users who want to search for information, we extract the recognition words that are keywords for the search items,
Extracting emotion information related to the user's emotion from the voice data,
Generating and outputting a search expression including a search condition for at least one search item from the recognition word and emotion information;
Information retrieval method using voice. (4)

(付記24) コンピュータに、
情報検索を希望する利用者の音声データから、検索項目に対するキーワードとなる認識語を抽出するステップと、
前記音声データから利用者の感情に係る感情情報を抽出するステップと、
前記認識語及び感情情報から、少なくとも1つの検索項目に対する検索条件を含む検索式を生成して出力するステップと、
を実行させるプログラム又はこのプログラムを記録したコンピュータ読み取り可能な記録媒体。(5)
(Supplementary Note 24)
Extracting a recognition word as a keyword for a search item from voice data of a user who desires information search;
Extracting emotion information relating to the user's emotion from the voice data;
Generating and outputting a search expression including a search condition for at least one search item from the recognition word and emotion information;
Or a computer-readable recording medium on which the program is recorded. (5)

本発明による情報検索システムの第1実施形態のシステム構成図1 is a system configuration diagram of a first embodiment of an information search system according to the present invention. 情報検索システムで実現される情報検索サービスにおいて行われるシステムと利用者の対話例を示す図The figure which shows the example of a user's interaction with the system performed in the information retrieval service realized by the information retrieval system 情報検索システムにおける情報検索を流れを示すフローチャートFlow chart showing the flow of information search in the information search system 物件を案内する件数の設定例を示す図A figure showing an example of setting the number of cases to guide a property 検索結果データの評価を行う検索項目間の重み付け(初期値)の例を示す表Table showing examples of weights (initial values) between search items for evaluating search result data 検索結果データの評価に使用される評価関数(初期状態)の例を示す図The figure which shows the example of the evaluation function (initial state) used for evaluation of search result data 評価関数のパターンの説明図Explanatory diagram of evaluation function pattern 総合評価を行う関数(総合評価算出式)の例を示す図Diagram showing an example of a function for comprehensive evaluation (comprehensive evaluation calculation formula) 総合評価閾値の例を示す図The figure which shows the example of comprehensive evaluation threshold キーワード(認識語)から取得できるデータの例を示す図Diagram showing examples of data that can be acquired from keywords (recognized words) キーワード(認識語)以外の情報から取得できるデータ(感情情報)の例を示す図Diagram showing examples of data (emotion information) that can be acquired from information other than keywords (recognition words) 感情情報に基づいて“重み付け”へ反映を行うか否かの判断例を示す図The figure which shows the example of judgment of whether to reflect to "weighting" based on emotion information 重み付けへの反映例を示す図Diagram showing an example of reflection to weight 緩和条件の評価関数への反映例を示す図Diagram showing an example of how relaxation conditions are reflected in the evaluation function 物件情報の総合判断例(満足度)を示す図Figure showing example of comprehensive judgment (satisfaction) of property information 検索結果の提示例(全ての検索条件に合致した物件を提示)を示す図Diagram showing search result presentation example (showing properties that match all search conditions) 検索結果の提示例(全ての検索条件に合致した物件を提示し、次いで検索条件の緩和により得られた物件を提示)を示す図Figure showing search result presentation example (showing properties that match all search conditions, and then presenting properties obtained by relaxing the search conditions) 項目毎の評価範囲の設定例を示す図Diagram showing an example of setting the evaluation range for each item 評価関数の属性パラメータの設定例を示す図The figure which shows the example of setting the attribute parameter of the evaluation function 不要語を感情情報の一部として利用する例(利用例1)の説明図Explanatory drawing of an example (use example 1) of using unnecessary words as part of emotion information 不要語を感情情報の一部として利用する例(利用例2)の説明図Explanatory drawing of an example (use example 2) of using unnecessary words as part of emotion information 不要語に基づいて検索条件(緩和条件)を決定する例を示す表Table showing an example of determining search conditions (relaxation conditions) based on unnecessary words 未知語又は無音時間に基づいて重み付けを設定するルールの例を示す図The figure which shows the example of the rule which sets weighting based on an unknown word or silence time 本発明による情報検索システムの第2実施形態(個人情報を使用した評価を行う)のシステム構成例を示す図The figure which shows the system configuration example of 2nd Embodiment (performing evaluation using personal information) of the information search system by this invention 個人情報を使用した重み付けの設定例を示す図The figure which shows the example of the setting of the weight using personal information 本発明による情報検索システムの第3実施形態(音声入力内容によるナビゲーション変更)のシステム構成例を示す図The figure which shows the system configuration example of 3rd Embodiment (navigation change by the content of voice input) of the information search system by this invention 登録されているナビゲーションメッセージの例を示す図Figure showing an example of registered navigation messages 利用者の確信度の数値化の例を示す図(確信度の取得方法を示す図)A figure showing an example of quantification of the user's confidence (a figure showing how to obtain confidence) 利用者の音声情報(感情情報)に基づく確信度増減のルールの例を示す図The figure which shows the example of the rule of certainty increase / decrease based on user's voice information (emotion information) 確信度に基づく確信のレベルの判断例を示す図The figure which shows the judgment example of the level of belief based on the belief degree

符号の説明Explanation of symbols

1 音声入力部
2 検索項目抽出部
3 検索制御部
4 検索条件蓄積部(格納部)
8 データ蓄積部
9 検索結果評価部
10 メッセージ合成部
11 メッセージ出力部
14 検索装置(情報検索システム)
15 個人属性蓄積部(個人情報格納部)
16 シナリオデータ蓄積部
17 ナビゲーション処理部
18 入力状態解析部
19 シナリオ解析部(確信度取得部、ナビゲーションメッセージ選択部)
21 表示制御部
22 評価関数調整部(入力制御部)
23 ディスプレイ(表示装置)
24 入力装置
DESCRIPTION OF SYMBOLS 1 Voice input part 2 Search item extraction part 3 Search control part 4 Search condition storage part (storage part)
8 Data storage unit 9 Search result evaluation unit 10 Message composition unit 11 Message output unit 14 Search device (information search system)
15 Personal attribute storage (Personal information storage)
16 Scenario data storage unit 17 Navigation processing unit 18 Input state analysis unit 19 Scenario analysis unit (confidence level acquisition unit, navigation message selection unit)
21 Display Control Unit 22 Evaluation Function Adjustment Unit (Input Control Unit)
23 Display (display device)
24 input devices

Claims (5)

情報検索を希望する利用者の音声データから、検索項目に対するキーワードとなる認識語を抽出する検索項目抽出部と、
前記音声データから利用者の感情に係る感情情報を抽出する音声情報抽出部と、
前記認識語及び感情情報から、少なくとも1つの検索項目に対する検索条件を含む検索式を生成して出力する検索制御部と、
を含む音声による情報検索システム。
A search item extraction unit for extracting a recognition word as a keyword for a search item from voice data of a user who desires information search;
A voice information extraction unit that extracts emotion information related to a user's emotion from the voice data;
A search control unit that generates and outputs a search expression including a search condition for at least one search item from the recognized word and emotion information;
Information retrieval system using voice.
前記検索制御部は、前記感情情報に基づいて、検索に係る複数の検索項目に対する重み付け値を決定し、
前記重み付け値を格納する格納部と、
前記検索式に合致する少なくとも1つの検索結果データを受け取った場合に、前記格納部に格納された重み付け値を用いて、各検索結果データに対する評価を行う検索結果評価部と
をさらに含む請求項1記載の音声による情報検索システム。
The search control unit determines weight values for a plurality of search items related to the search based on the emotion information,
A storage unit for storing the weight values;
The search result evaluation part which evaluates with respect to each search result data using the weighting value stored in the said storage part when the at least 1 search result data matching the said search expression is received. Information retrieval system using written voice.
前記音声情報抽出部は、(1)利用者の声の大きさ,(2)音声データに含まれる無音時間の長さ,(3)前記認識語として認識されない単語としての不要語,(4)音声データ中の利用者の発声内容に含まれる未知語の割合、の少なくとも1つを示す情報を、前記感情情報として抽出する、
請求項1又は2記載の音声による情報検索システム。
The voice information extracting unit includes (1) loudness of the user's voice, (2) the length of silent time included in the voice data, (3) an unnecessary word as a word that is not recognized as the recognized word, (4) Information indicating at least one of the ratios of unknown words included in the utterance content of the user in the voice data is extracted as the emotion information.
The information search system by voice according to claim 1 or 2.
コンピュータが、
情報検索を希望する利用者の音声データから、検索項目に対するキーワードとなる認識語を抽出し、
前記音声データから利用者の感情に係る感情情報を抽出し、
前記認識語及び感情情報から、少なくとも1つの検索項目に対する検索条件を含む検索式を生成して出力する、
ことを含む音声による情報検索方法。
Computer
From the voice data of users who want to search for information, we extract the recognition words that are keywords for the search items,
Extracting emotion information related to the user's emotion from the voice data,
Generating and outputting a search expression including a search condition for at least one search item from the recognition word and emotion information;
Information retrieval method using voice.
コンピュータに、
情報検索を希望する利用者の音声データから、検索項目に対するキーワードとなる認識語を抽出するステップと、
前記音声データから利用者の感情に係る感情情報を抽出するステップと、
前記認識語及び感情情報から、少なくとも1つの検索項目に対する検索条件を含む検索式を生成して出力するステップと、
を実行させるプログラム。
On the computer,
Extracting a recognition word as a keyword for a search item from voice data of a user who desires information search;
Extracting emotion information relating to the user's emotion from the voice data;
Generating and outputting a search expression including a search condition for at least one search item from the recognition word and emotion information;
A program that executes
JP2004085341A 2004-03-23 2004-03-23 Information retrieval system by voice Withdrawn JP2005275601A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004085341A JP2005275601A (en) 2004-03-23 2004-03-23 Information retrieval system by voice

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004085341A JP2005275601A (en) 2004-03-23 2004-03-23 Information retrieval system by voice

Publications (1)

Publication Number Publication Date
JP2005275601A true JP2005275601A (en) 2005-10-06

Family

ID=35175241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004085341A Withdrawn JP2005275601A (en) 2004-03-23 2004-03-23 Information retrieval system by voice

Country Status (1)

Country Link
JP (1) JP2005275601A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2427109A (en) * 2005-05-30 2006-12-13 Kyocera Corp Associating emotion type with a word in a speech synthesis system
JP2008021216A (en) * 2006-07-14 2008-01-31 Fujitsu Ltd Information retrieval system
JP2009294790A (en) * 2008-06-03 2009-12-17 Denso Corp System for providing information for vehicle
JP2011028460A (en) * 2009-07-24 2011-02-10 J&K Car Electronics Corp Information retrieval device, control method, and program
JP2011248020A (en) * 2010-05-25 2011-12-08 Sony Corp Search device, search method, and program
JP2013101226A (en) * 2011-11-08 2013-05-23 Kyocera Document Solutions Inc Real estate property information provision support device
JP2014153715A (en) * 2013-02-07 2014-08-25 Samsung Electronics Co Ltd Portable terminal with voice talk function and voice talk method thereof
JP2018045320A (en) * 2016-09-12 2018-03-22 ヤフー株式会社 Information processing apparatus, information processing method, and program
WO2018061839A1 (en) * 2016-09-29 2018-04-05 株式会社村田製作所 Transmission device, transmission method, and transmission program
JP2018190413A (en) * 2017-05-02 2018-11-29 ネイバー コーポレーションNAVER Corporation Method and system for processing user command to adjust and provide operation of device and content provision range by grasping presentation method of user speech
JP2019174846A (en) * 2016-12-30 2019-10-10 グーグル エルエルシー Feedback controller for data transmissions
WO2021000497A1 (en) * 2019-07-03 2021-01-07 平安科技(深圳)有限公司 Retrieval method and apparatus, and computer device and storage medium
JP7246626B1 (en) 2022-11-15 2023-03-28 株式会社マイクロネット Property search system and property search method
JP7370118B1 (en) 2023-07-25 2023-10-27 amptalk株式会社 Information processing device, information processing method, and program

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2427109A (en) * 2005-05-30 2006-12-13 Kyocera Corp Associating emotion type with a word in a speech synthesis system
GB2427109B (en) * 2005-05-30 2007-08-01 Kyocera Corp Audio output apparatus, document reading method, and mobile terminal
US8065157B2 (en) 2005-05-30 2011-11-22 Kyocera Corporation Audio output apparatus, document reading method, and mobile terminal
JP2008021216A (en) * 2006-07-14 2008-01-31 Fujitsu Ltd Information retrieval system
JP2009294790A (en) * 2008-06-03 2009-12-17 Denso Corp System for providing information for vehicle
US8190434B2 (en) 2008-06-03 2012-05-29 Denso Corporation Apparatus for providing information for vehicle
JP2011028460A (en) * 2009-07-24 2011-02-10 J&K Car Electronics Corp Information retrieval device, control method, and program
JP2011248020A (en) * 2010-05-25 2011-12-08 Sony Corp Search device, search method, and program
JP2013101226A (en) * 2011-11-08 2013-05-23 Kyocera Document Solutions Inc Real estate property information provision support device
JP2014153715A (en) * 2013-02-07 2014-08-25 Samsung Electronics Co Ltd Portable terminal with voice talk function and voice talk method thereof
JP2018045320A (en) * 2016-09-12 2018-03-22 ヤフー株式会社 Information processing apparatus, information processing method, and program
WO2018061839A1 (en) * 2016-09-29 2018-04-05 株式会社村田製作所 Transmission device, transmission method, and transmission program
JPWO2018061839A1 (en) * 2016-09-29 2019-06-27 株式会社村田製作所 Transmission apparatus, transmission method and transmission program
JP2019174846A (en) * 2016-12-30 2019-10-10 グーグル エルエルシー Feedback controller for data transmissions
JP2018190413A (en) * 2017-05-02 2018-11-29 ネイバー コーポレーションNAVER Corporation Method and system for processing user command to adjust and provide operation of device and content provision range by grasping presentation method of user speech
WO2021000497A1 (en) * 2019-07-03 2021-01-07 平安科技(深圳)有限公司 Retrieval method and apparatus, and computer device and storage medium
JP7246626B1 (en) 2022-11-15 2023-03-28 株式会社マイクロネット Property search system and property search method
JP2024071817A (en) * 2022-11-15 2024-05-27 株式会社マイクロネット Property search system and property search method
JP7370118B1 (en) 2023-07-25 2023-10-27 amptalk株式会社 Information processing device, information processing method, and program
JP2025017486A (en) * 2023-07-25 2025-02-06 amptalk株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
US20230206940A1 (en) Method of and system for real time feedback in an incremental speech input interface
US10623573B2 (en) Personalized support routing based on paralinguistic information
US8332224B2 (en) System and method of supporting adaptive misrecognition conversational speech
US20160372116A1 (en) Voice authentication and speech recognition system and method
JP5024154B2 (en) Association apparatus, association method, and computer program
US7415415B2 (en) Computer generated prompting
US20160307571A1 (en) Conversation analysis device, conversation analysis method, and program
US20080240379A1 (en) Automatic retrieval and presentation of information relevant to the context of a user&#39;s conversation
AU2016216737A1 (en) Voice Authentication and Speech Recognition System
CN110990685A (en) Voice search method, voice search device, voice search storage medium and voice search device based on voiceprint
JP2005275601A (en) Information retrieval system by voice
US12243517B1 (en) Utterance endpointing in task-oriented conversational systems
JP2012194245A (en) Speech recognition device, speech recognition method and speech recognition program
US11582174B1 (en) Messaging content data storage
KR101891495B1 (en) Method and computer device for controlling a display to display conversational response candidates to a user utterance input, and computer readable recording medium
KR20190065194A (en) METHOD AND APPARATUS FOR GENERATING READING DOCUMENT Of MINUTES
JP4143541B2 (en) Method and system for non-intrusive verification of speakers using behavior models
JP2005242891A (en) Case search program
US11837251B2 (en) Virtual counseling system and counseling method using the same
JP5589426B2 (en) Content providing system, content providing method, and content providing program
CN114582373B (en) Method and device for identifying emotion of user in man-machine conversation
KR20240134671A (en) Conversation providing method and Conversation providing DEVICE
KR102296503B1 (en) System for collecting learning data
CN119887090A (en) Anti-fraud propaganda method, system, storage medium and electronic equipment
CN121144472A (en) Method, apparatus, program product and storage medium for dialogue with delivery capacity

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070605