JP2011221591A - Map retrieval system - Google Patents
Map retrieval system Download PDFInfo
- Publication number
- JP2011221591A JP2011221591A JP2010086645A JP2010086645A JP2011221591A JP 2011221591 A JP2011221591 A JP 2011221591A JP 2010086645 A JP2010086645 A JP 2010086645A JP 2010086645 A JP2010086645 A JP 2010086645A JP 2011221591 A JP2011221591 A JP 2011221591A
- Authority
- JP
- Japan
- Prior art keywords
- data
- target data
- target
- extracted
- speech recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Telephonic Communication Services (AREA)
Abstract
【課題】受付者の経験と勘による判断に依存することがなく、短時間かつ少ない操作ステップで通報者の存在する候補地点を特定できる地図検索表示装置を得ることを目的とする。
【解決手段】音声認識処理装置1で文字データ化した音声認識情報と、地図検索装置6のデータベース8の目標物データとを、逐次参照することで、通報者2または受付者3の発する言葉に含まれる目標物データを自動抽出するとともに、抽出した目標物データのうち、最初に抽出された目標物データを基準データとし、2つ目以降に抽出された目標物データと基準データが既定値以内の距離に存在するものを絞り込み検索し、対象となる基準データを候補地点として表示するようにした。
【選択図】図1An object of the present invention is to provide a map search and display device that can identify a candidate point where a reporter is present in a short time and with few operation steps without depending on the experience and intuition of the receptionist.
The speech recognition information converted into character data by the speech recognition processing device 1 and the target data in the database 8 of the map search device 6 are sequentially referred to, so that the words uttered by the reporter 2 or the receptionist 3 are expressed. In addition to automatically extracting the target data included, the first target data extracted from the extracted target data is used as the reference data, and the target data and reference data extracted from the second onward are within the specified values. We narrowed down the search for existing data and displayed the target reference data as candidate points.
[Selection] Figure 1
Description
この発明は、110番などの緊急通報受付センターにおいて、通報者と受付者の双方あるいは一方の発する言葉を文字化したデータより、通報者の存在する候補地点を特定し、その候補地点の地図を表示するようにした地図検索システムに関するものである。 In the emergency call reception center such as No. 110, the present invention specifies a candidate point where the reporter is present from data obtained by characterizing the words uttered by the reporter and / or the receiver, and creates a map of the candidate point. The present invention relates to a map search system to be displayed.
従来の地図検索表示装置においては、通報者から聞き取った付近の目標地物の名称などから、受付者の判断にもとづいて目標物の分類や名称などを、あらかじめ準備された画面上の検索メニューと項目を選択することで、候補となる目標物を一覧検索表示し、一覧より該当する目標地物を探し出して選択することで、該当地点の地図を端末画面上に表示している。
また、音声認識を活用した従来技術としては、名称など完全に一致する唯一つの目標物を抽出することにより、対象となる目標地物の該当地点地図を表示しているものがある。(例えば、特許文献1参照)
In the conventional map search and display device, from the name of the nearby target feature heard from the whistleblower, the classification and name of the target based on the judgment of the receptionist, and a search menu on the screen prepared in advance By selecting an item, a list of candidate targets is displayed, and by searching for and selecting a target feature from the list, a map of the corresponding point is displayed on the terminal screen.
Further, as a conventional technique using voice recognition, there is a technique that displays a corresponding point map of a target feature that is a target by extracting only one target such as a name that completely matches. (For example, see Patent Document 1)
従来の地図検索表示装置は、通報者から聞き取った情報より目標物となりうる情報を抽出する作業が受付者の経験と勘による判断に依存するところが大であり、受付者によっては通報者の存在地点を特定するまでに時間が多くかかる場合がある。また、複数ステップの端末操作が必要であることも通報者の存在地点の特定までに時間がかかる要因となっているという問題点があった。 In conventional map search and display devices, the task of extracting information that can be a target from information heard from the reporter is largely dependent on the experience and intuition of the receiver, and depending on the receiver, the location of the reporter It may take a long time to identify. In addition, the necessity of a multi-step terminal operation has also been a problem that it takes time to specify the location of the reporter.
この発明は上記のような問題点を解決するためになされたものであり、音声認識技術を採用することで、通報者または受付者の発する言葉を文字化したデータより名称、種別、住所などの検索情報を自動抽出し、短時間かつ少ない操作ステップで通報者の存在する候補地点を特定できる地図検索表示装置を得ることを目的とする。 This invention has been made to solve the above-mentioned problems, and by adopting a voice recognition technology, the name, type, address, etc., can be obtained from data obtained by characterizing the words produced by the reporter or the receptionist. It is an object of the present invention to obtain a map search and display device that can automatically extract search information and identify candidate points where a reporter exists in a short time and with few operation steps.
この発明による地図検索システムは、入力された言葉を音声認識し文字データ化する音声認識処理装置と、音声認識結果から目標物データを抽出し該当する地点の地図を検索表示する地図検索装置とで構成され、上記地図検索装置は、名称、種別、住所などの目標物データを蓄積したデータベースを備え、上記音声認識処理装置で文字データ化した音声認識情報と、上記データベースのデータとを、逐次参照することで、入力された言葉に含まれる目標物データを自動抽出するとともに、抽出した目標物データのうち、最初に抽出された目標物データを基準データとし、2つ目以降に抽出された目標物データと基準データが既定値以内の距離に存在するものを絞り込み検索し、対象となる基準データを候補地点として表示するようにしたものである。 A map search system according to the present invention includes a speech recognition processing device that recognizes input words and converts them into character data, and a map search device that extracts target data from a speech recognition result and searches and displays a map of a corresponding point. The map search device includes a database storing target data such as names, types, and addresses, and sequentially refers to voice recognition information converted into character data by the voice recognition processing device and data in the database. In this way, the target data included in the input word is automatically extracted, and among the extracted target data, the first extracted target data is used as the reference data, and the target extracted after the second A search that narrows the object data and the reference data within a predetermined distance, and displays the target reference data as candidate points. A.
この発明による地図検索システムによれば、通報者または受付者の発する言葉を文字化したデータより名称、種別、住所などの検索情報を自動抽出し、短時間かつ少ない操作ステップで通報者の存在する候補地点を特定することができる。 According to the map search system of the present invention, search information such as name, type, address, etc. is automatically extracted from data obtained by characterizing the words of the reporter or the receptionist, and the reporter exists in a short time and with few operation steps. Candidate points can be identified.
実施の形態1.
以下、この発明の実施の形態1を図1に基づいて説明する。
図1において、音声認識処理装置1は、通報者2と受付者3の発する音声を入力する音声入力部4と、音声を文字データ化する音声認識処理部5と、文字データ化された音声認識情報を地図検索装置6に引き渡すための文字データ出力部7からなる。
地図検索装置6は、予め準備する目標物データベース8と、音声認識情報と目標物データベース8の各データを照合するための参照処理部9と、参照処理部9にて照合処理の結果得られる目標物データを元に候補地点となる目標物データを絞り込んで検索するための目標物データ検索処理部10と、候補地点の地図を画面上に表示するための表示モニタ11から構成される。
A first embodiment of the present invention will be described below with reference to FIG.
In FIG. 1, a speech
The
次に動作について説明する。
110番通報などにより通報者2から受付者3に掛けられた電話において、状況を確認するためにやり取りされるすべての発話内容は、音声認識処理装置1において逐次文字データ化され音声認識情報となって出力される。
音声認識情報は、地図検索装置6の目標物データベース8に蓄積されている各データと照合され、音声認識情報と合致する目標物データを全て抽出する。目標物データベース8は、名称、種別、住所、座標からなる表形式のデータ構造となっており、発話の都度出力される音声認識情報を目標物データベース8の各項目と照合され、音声認識情報と合致した目標物データとして、1つ目、2つ目、3つ目、・・・というふうに、順次、目標物データを取得する。
Next, the operation will be described.
In a phone call made from the
The voice recognition information is collated with each data stored in the
以下、目標物データ検索処理部10の動作を説明する。
音声認識情報と合致した目標物データのうち、最初の音声認識情報が固有名称でなく、一般名称または種別に合致するものであった場合、対象となる目標物データは複数件抽出される。この目標物データ群を基準データとする。
この実施の形態1の例示では、通報者2から「近くに学校があります。あとコンビニと郵便局らしい建物があります。」という通報を受けた場合を示している。この場合は、「学校」が基準データとなる。
Hereinafter, the operation of the target data
Among the target data that matches the voice recognition information, when the first voice recognition information is not a unique name but matches a general name or type, a plurality of target target data are extracted. This target object data group is set as reference data.
The example of the first embodiment shows a case where the
以下、図2にて目標物データ検索の詳細を説明する。
まず、上述のように、ステップ1で基準データとなる種別「学校」に該当する目標物データを抽出する。次いで、ステップ2で次の目標物データ「コンビニ」に該当する目標物データを抽出する。次いで、ステップ3でステップ1で抽出した全ての目標物データ「学校」のうち、ステップ2で抽出した目標物データ「コンビニ」が既定値以内の距離範囲に存在する目標物データ「学校」を絞り込んで抽出する。ステップ4で次の目標物データ「郵便局」に該当する目標物データを抽出する。ステップ5でステップ3で絞り込み抽出した全ての目標物データ「学校」のうち、ステップ4で抽出した目標物データ「郵便局」が既定値以内の距離範囲に存在する目標物「学校」を絞り込んで抽出する。上記ステップ4、ステップ5を繰り返し実施(ステップ6)し、基準データの目標物データ「学校」を絞り込む。
Details of the target data search will be described below with reference to FIG.
First, as described above, target data corresponding to the type “school” serving as reference data is extracted in
以上のように、先に抽出された複数の基準データに対して、2つ目の目標物データ群の各データを比較し、基準データとの距離が既定値以内の基準データを絞り込み検索する。以降、3つ目の音声認識情報、4つ目の音声認識情報についても、同様に基準データの絞り込み検索を実施する。この実施の形態1の例示では、2つ目の目標物データ群は「コンビニ」、3つ目の目標物データ群は「郵便局」となる。このように、候補となる基準データがどんどん絞り込まれて行く。 As described above, each piece of data of the second target object data group is compared with the plurality of pieces of reference data extracted earlier, and the reference data whose distance from the reference data is within a predetermined value is narrowed down and searched. Thereafter, the search for the reference data is similarly performed for the third voice recognition information and the fourth voice recognition information. In the example of the first embodiment, the second target data group is “convenience store”, and the third target data group is “post office”. In this way, candidate reference data is narrowed down more and more.
複数件まで絞り込めた場合には、候補一覧を画面上に表示し、このうち任意の1件を指定することで、該当地点の地図を表示モニタ11に表示する(ステップ7)ことができる。
なお、最終的に1件にまで絞り込まれた場合には、対象となる目標物データの座標をもとに、該当地点の地図を表示モニタ11に表示する。
上記動作により、受付者3は通報者2からの電話に応対し、必要な情報を聞き取ることにより、通報者2の位置する候補地点を自動的に見つけ出すことができ、場所特定に要する時間の短縮と、操作性の改善、場所特定精度の向上が図れる。
When narrowing down to a plurality of cases, a candidate list is displayed on the screen, and by designating any one of them, a map of the corresponding point can be displayed on the display monitor 11 (step 7).
In addition, when the number is finally narrowed down to one, a map of the corresponding point is displayed on the
By the above operation, the
実施の形態2.
なお、上記実施の形態1では、基準データに対して複数の目標物データ群が既定の距離範囲内に存在するものを抽出し、候補地点を見つけ出す場合の動作について述べたが、目標物データベースの各項目に対して、音声認識情報が住所に関する情報であった場合には、実施の形態1で説明した抽出する基準データ及び複数の目標物データ群の距離比較処理を行う前段階として、該当する住所情報を持つ目標物データに限定して検索を開始する。このようにすることで、目標物データ同士の距離比較を行うデータ数を予め絞り込むことができ、目標物データ抽出処理の高速化を図ることができる。
In the first embodiment, the operation when a plurality of target data groups exist within a predetermined distance range with respect to the reference data and the candidate points are found has been described. For each item, if the voice recognition information is information about an address, it corresponds as a step before performing the distance comparison processing between the reference data to be extracted and the plurality of target data groups described in the first embodiment. Search is limited to target data having address information. In this way, the number of data for comparing the distances between the target data can be narrowed down in advance, and the speed of the target data extraction process can be increased.
実施の形態3.
また、上記実施の形態1では、音声認識情報として抽出されたデータすべてを目標物データ抽出処理の対象とし、候補地点を見つけ出す場合の動作について述べたが、図3に示す画面例のように、音声認識情報のうち、個々の目標物データを絞り込み条件として使用するかどうかを自由に選択できるようにすることで、候補地点抽出の選択自由度を広げることができる。この図3の例では、基準データ「学校」と目標物データ「コンビニ」が選択されているが、目標物データ「郵便局」は除外して検索する場合を示している。このように自由度を持たせることで、目標物データを絞り込み過ぎた場合などに組み合わせ条件を緩和したりすることで対象となる目標物データの検索漏れを防止することができる。
In the first embodiment, all the data extracted as the speech recognition information is the target of the target data extraction process, and the operation in the case of finding the candidate point is described. However, as in the screen example shown in FIG. By making it possible to freely select whether or not to use individual target data as a narrowing-down condition in the speech recognition information, the degree of freedom for selecting candidate points can be expanded. In the example of FIG. 3, the reference data “school” and the target data “convenience store” are selected, but the target data “post office” is excluded and searched. By providing the degree of freedom in this way, it is possible to prevent omission of retrieval of target target data by relaxing the combination conditions when the target data is narrowed down too much.
1 音声認識処理装置、 2 通報者、 3 受付者、 4 音声入力部、 5 音声認識処理部、 6 地図検索装置、 7 文字データ出力部、 8 目標物データベース、 9 参照処理部、 10 目標物データ検索処理部、 11 表示モニタ。
DESCRIPTION OF
Claims (3)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010086645A JP2011221591A (en) | 2010-04-05 | 2010-04-05 | Map retrieval system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010086645A JP2011221591A (en) | 2010-04-05 | 2010-04-05 | Map retrieval system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2011221591A true JP2011221591A (en) | 2011-11-04 |
Family
ID=45038543
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010086645A Pending JP2011221591A (en) | 2010-04-05 | 2010-04-05 | Map retrieval system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2011221591A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN103226548A (en) * | 2012-01-30 | 2013-07-31 | 北京四维图新科技股份有限公司 | Search service method, search service device and search service system for Internet map |
| CN113012691A (en) * | 2019-12-18 | 2021-06-22 | 丰田自动车株式会社 | Agent device, agent system, and computer-readable storage medium |
| WO2023175768A1 (en) * | 2022-03-16 | 2023-09-21 | 日本電気株式会社 | Hearing assistance device, hearing assistance method, and computer-readable recording medium |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001331491A (en) * | 2000-05-22 | 2001-11-30 | Matsushita Electric Ind Co Ltd | Target object search method and target object search device |
| JP2002303530A (en) * | 2001-12-25 | 2002-10-18 | Aisin Aw Co Ltd | Navigation device |
| JP2006293037A (en) * | 2005-04-11 | 2006-10-26 | Fujitsu General Ltd | Reporting point identification device and reporting point identification method |
| JP2008171173A (en) * | 2007-01-11 | 2008-07-24 | Nippon Telegr & Teleph Corp <Ntt> | Document search method, apparatus, and program |
| JP2009239466A (en) * | 2008-03-26 | 2009-10-15 | Nec Corp | Telephone receiving system, telephone receiving method, program, and recording medium |
-
2010
- 2010-04-05 JP JP2010086645A patent/JP2011221591A/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001331491A (en) * | 2000-05-22 | 2001-11-30 | Matsushita Electric Ind Co Ltd | Target object search method and target object search device |
| JP2002303530A (en) * | 2001-12-25 | 2002-10-18 | Aisin Aw Co Ltd | Navigation device |
| JP2006293037A (en) * | 2005-04-11 | 2006-10-26 | Fujitsu General Ltd | Reporting point identification device and reporting point identification method |
| JP2008171173A (en) * | 2007-01-11 | 2008-07-24 | Nippon Telegr & Teleph Corp <Ntt> | Document search method, apparatus, and program |
| JP2009239466A (en) * | 2008-03-26 | 2009-10-15 | Nec Corp | Telephone receiving system, telephone receiving method, program, and recording medium |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN103226548A (en) * | 2012-01-30 | 2013-07-31 | 北京四维图新科技股份有限公司 | Search service method, search service device and search service system for Internet map |
| CN113012691A (en) * | 2019-12-18 | 2021-06-22 | 丰田自动车株式会社 | Agent device, agent system, and computer-readable storage medium |
| JP2021096710A (en) * | 2019-12-18 | 2021-06-24 | トヨタ自動車株式会社 | Agent device, agent system, and agent program |
| US11869488B2 (en) | 2019-12-18 | 2024-01-09 | Toyota Jidosha Kabushiki Kaisha | Agent device, agent system, and computer-readable storage medium |
| WO2023175768A1 (en) * | 2022-03-16 | 2023-09-21 | 日本電気株式会社 | Hearing assistance device, hearing assistance method, and computer-readable recording medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20180032526A1 (en) | Validating provided information in a conversation | |
| US20170010859A1 (en) | User interface system, user interface control device, user interface control method, and user interface control program | |
| US11423113B2 (en) | Contextual deep bookmarking | |
| US9229974B1 (en) | Classifying queries | |
| CN103760991B (en) | Physical input method and physical input device | |
| CN109933724B (en) | Knowledge search method, knowledge search system, question answering device, electronic equipment and storage medium | |
| US20130243249A1 (en) | Electronic device and method for recognizing image and searching for concerning information | |
| CN103092887B (en) | Electronic equipment and voice messaging thereof provide method | |
| CN105931642B (en) | Voice recognition method, device and system | |
| CN102968987A (en) | Speech recognition method and system | |
| CN109271533A (en) | A kind of multimedia document retrieval method | |
| CN107992523B (en) | Function option searching method of mobile application and terminal equipment | |
| US10347243B2 (en) | Apparatus and method for analyzing utterance meaning | |
| CN111198936B (en) | Voice search method and device, electronic equipment and storage medium | |
| CN107832035B (en) | Voice input method of intelligent terminal | |
| US11373638B2 (en) | Presentation assistance device for calling attention to words that are forbidden to speak | |
| JP2011221591A (en) | Map retrieval system | |
| US20040010410A1 (en) | System and method for processing voice command | |
| US8798996B2 (en) | Splitting term lists recognized from speech | |
| KR100919227B1 (en) | The method and apparatus for recognizing speech for navigation system | |
| CN109710735B (en) | Reading content recommendation method and electronic device based on multiple social channels | |
| CN101405693A (en) | Personal synergic filtering of multimodal inputs | |
| US20210165540A1 (en) | Information processing device, information processing method, and program | |
| JP2014178621A (en) | Information providing device and program | |
| JP5544003B2 (en) | Information search device, information search system, and information search method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120224 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130509 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130618 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130802 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130827 |