[go: up one dir, main page]

JP2011221591A - Map retrieval system - Google Patents

Map retrieval system Download PDF

Info

Publication number
JP2011221591A
JP2011221591A JP2010086645A JP2010086645A JP2011221591A JP 2011221591 A JP2011221591 A JP 2011221591A JP 2010086645 A JP2010086645 A JP 2010086645A JP 2010086645 A JP2010086645 A JP 2010086645A JP 2011221591 A JP2011221591 A JP 2011221591A
Authority
JP
Japan
Prior art keywords
data
target data
target
extracted
speech recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010086645A
Other languages
Japanese (ja)
Inventor
Makoto Nakamichi
誠 中道
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010086645A priority Critical patent/JP2011221591A/en
Publication of JP2011221591A publication Critical patent/JP2011221591A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】受付者の経験と勘による判断に依存することがなく、短時間かつ少ない操作ステップで通報者の存在する候補地点を特定できる地図検索表示装置を得ることを目的とする。
【解決手段】音声認識処理装置1で文字データ化した音声認識情報と、地図検索装置6のデータベース8の目標物データとを、逐次参照することで、通報者2または受付者3の発する言葉に含まれる目標物データを自動抽出するとともに、抽出した目標物データのうち、最初に抽出された目標物データを基準データとし、2つ目以降に抽出された目標物データと基準データが既定値以内の距離に存在するものを絞り込み検索し、対象となる基準データを候補地点として表示するようにした。
【選択図】図1
An object of the present invention is to provide a map search and display device that can identify a candidate point where a reporter is present in a short time and with few operation steps without depending on the experience and intuition of the receptionist.
The speech recognition information converted into character data by the speech recognition processing device 1 and the target data in the database 8 of the map search device 6 are sequentially referred to, so that the words uttered by the reporter 2 or the receptionist 3 are expressed. In addition to automatically extracting the target data included, the first target data extracted from the extracted target data is used as the reference data, and the target data and reference data extracted from the second onward are within the specified values. We narrowed down the search for existing data and displayed the target reference data as candidate points.
[Selection] Figure 1

Description

この発明は、110番などの緊急通報受付センターにおいて、通報者と受付者の双方あるいは一方の発する言葉を文字化したデータより、通報者の存在する候補地点を特定し、その候補地点の地図を表示するようにした地図検索システムに関するものである。   In the emergency call reception center such as No. 110, the present invention specifies a candidate point where the reporter is present from data obtained by characterizing the words uttered by the reporter and / or the receiver, and creates a map of the candidate point. The present invention relates to a map search system to be displayed.

従来の地図検索表示装置においては、通報者から聞き取った付近の目標地物の名称などから、受付者の判断にもとづいて目標物の分類や名称などを、あらかじめ準備された画面上の検索メニューと項目を選択することで、候補となる目標物を一覧検索表示し、一覧より該当する目標地物を探し出して選択することで、該当地点の地図を端末画面上に表示している。
また、音声認識を活用した従来技術としては、名称など完全に一致する唯一つの目標物を抽出することにより、対象となる目標地物の該当地点地図を表示しているものがある。(例えば、特許文献1参照)
In the conventional map search and display device, from the name of the nearby target feature heard from the whistleblower, the classification and name of the target based on the judgment of the receptionist, and a search menu on the screen prepared in advance By selecting an item, a list of candidate targets is displayed, and by searching for and selecting a target feature from the list, a map of the corresponding point is displayed on the terminal screen.
Further, as a conventional technique using voice recognition, there is a technique that displays a corresponding point map of a target feature that is a target by extracting only one target such as a name that completely matches. (For example, see Patent Document 1)

特開2009−239466号公報(図8、図9)JP 2009-239466 A (FIGS. 8 and 9)

従来の地図検索表示装置は、通報者から聞き取った情報より目標物となりうる情報を抽出する作業が受付者の経験と勘による判断に依存するところが大であり、受付者によっては通報者の存在地点を特定するまでに時間が多くかかる場合がある。また、複数ステップの端末操作が必要であることも通報者の存在地点の特定までに時間がかかる要因となっているという問題点があった。   In conventional map search and display devices, the task of extracting information that can be a target from information heard from the reporter is largely dependent on the experience and intuition of the receiver, and depending on the receiver, the location of the reporter It may take a long time to identify. In addition, the necessity of a multi-step terminal operation has also been a problem that it takes time to specify the location of the reporter.

この発明は上記のような問題点を解決するためになされたものであり、音声認識技術を採用することで、通報者または受付者の発する言葉を文字化したデータより名称、種別、住所などの検索情報を自動抽出し、短時間かつ少ない操作ステップで通報者の存在する候補地点を特定できる地図検索表示装置を得ることを目的とする。   This invention has been made to solve the above-mentioned problems, and by adopting a voice recognition technology, the name, type, address, etc., can be obtained from data obtained by characterizing the words produced by the reporter or the receptionist. It is an object of the present invention to obtain a map search and display device that can automatically extract search information and identify candidate points where a reporter exists in a short time and with few operation steps.

この発明による地図検索システムは、入力された言葉を音声認識し文字データ化する音声認識処理装置と、音声認識結果から目標物データを抽出し該当する地点の地図を検索表示する地図検索装置とで構成され、上記地図検索装置は、名称、種別、住所などの目標物データを蓄積したデータベースを備え、上記音声認識処理装置で文字データ化した音声認識情報と、上記データベースのデータとを、逐次参照することで、入力された言葉に含まれる目標物データを自動抽出するとともに、抽出した目標物データのうち、最初に抽出された目標物データを基準データとし、2つ目以降に抽出された目標物データと基準データが既定値以内の距離に存在するものを絞り込み検索し、対象となる基準データを候補地点として表示するようにしたものである。   A map search system according to the present invention includes a speech recognition processing device that recognizes input words and converts them into character data, and a map search device that extracts target data from a speech recognition result and searches and displays a map of a corresponding point. The map search device includes a database storing target data such as names, types, and addresses, and sequentially refers to voice recognition information converted into character data by the voice recognition processing device and data in the database. In this way, the target data included in the input word is automatically extracted, and among the extracted target data, the first extracted target data is used as the reference data, and the target extracted after the second A search that narrows the object data and the reference data within a predetermined distance, and displays the target reference data as candidate points. A.

この発明による地図検索システムによれば、通報者または受付者の発する言葉を文字化したデータより名称、種別、住所などの検索情報を自動抽出し、短時間かつ少ない操作ステップで通報者の存在する候補地点を特定することができる。   According to the map search system of the present invention, search information such as name, type, address, etc. is automatically extracted from data obtained by characterizing the words of the reporter or the receptionist, and the reporter exists in a short time and with few operation steps. Candidate points can be identified.

この発明の実施の形態1の構成を示すブロック図である。It is a block diagram which shows the structure of Embodiment 1 of this invention. 実施の形態1の目標物データ検索処理のフロー図である。FIG. 3 is a flowchart of target data search processing according to the first embodiment. 実施の形態3の動作画面例を示す図である。FIG. 10 is a diagram illustrating an example of an operation screen according to the third embodiment.

実施の形態1.
以下、この発明の実施の形態1を図1に基づいて説明する。
図1において、音声認識処理装置1は、通報者2と受付者3の発する音声を入力する音声入力部4と、音声を文字データ化する音声認識処理部5と、文字データ化された音声認識情報を地図検索装置6に引き渡すための文字データ出力部7からなる。
地図検索装置6は、予め準備する目標物データベース8と、音声認識情報と目標物データベース8の各データを照合するための参照処理部9と、参照処理部9にて照合処理の結果得られる目標物データを元に候補地点となる目標物データを絞り込んで検索するための目標物データ検索処理部10と、候補地点の地図を画面上に表示するための表示モニタ11から構成される。
Embodiment 1 FIG.
A first embodiment of the present invention will be described below with reference to FIG.
In FIG. 1, a speech recognition processing device 1 includes a speech input unit 4 that inputs speech uttered by a reporter 2 and a receiver 3, a speech recognition processing unit 5 that converts speech into character data, and speech recognition that is converted into character data. It consists of a character data output unit 7 for handing over information to the map search device 6.
The map search device 6 includes a target database 8 prepared in advance, a reference processing unit 9 for collating each data of the speech recognition information and the target database 8, and a target obtained as a result of the collation processing by the reference processing unit 9. A target data search processing unit 10 for narrowing down and searching for target data serving as candidate points based on the object data, and a display monitor 11 for displaying a map of candidate points on the screen.

次に動作について説明する。
110番通報などにより通報者2から受付者3に掛けられた電話において、状況を確認するためにやり取りされるすべての発話内容は、音声認識処理装置1において逐次文字データ化され音声認識情報となって出力される。
音声認識情報は、地図検索装置6の目標物データベース8に蓄積されている各データと照合され、音声認識情報と合致する目標物データを全て抽出する。目標物データベース8は、名称、種別、住所、座標からなる表形式のデータ構造となっており、発話の都度出力される音声認識情報を目標物データベース8の各項目と照合され、音声認識情報と合致した目標物データとして、1つ目、2つ目、3つ目、・・・というふうに、順次、目標物データを取得する。
Next, the operation will be described.
In a phone call made from the reporter 2 to the acceptor 3 by the 110th report or the like, all utterance contents exchanged for confirming the situation are sequentially converted into character data in the speech recognition processing device 1 and become speech recognition information. Is output.
The voice recognition information is collated with each data stored in the target database 8 of the map search device 6, and all target data matching the voice recognition information is extracted. The target database 8 has a tabular data structure consisting of name, type, address, and coordinates, and the speech recognition information output each time an utterance is collated with each item of the target database 8, As the matched target data, first, second, third,... Are sequentially acquired.

以下、目標物データ検索処理部10の動作を説明する。
音声認識情報と合致した目標物データのうち、最初の音声認識情報が固有名称でなく、一般名称または種別に合致するものであった場合、対象となる目標物データは複数件抽出される。この目標物データ群を基準データとする。
この実施の形態1の例示では、通報者2から「近くに学校があります。あとコンビニと郵便局らしい建物があります。」という通報を受けた場合を示している。この場合は、「学校」が基準データとなる。
Hereinafter, the operation of the target data search processing unit 10 will be described.
Among the target data that matches the voice recognition information, when the first voice recognition information is not a unique name but matches a general name or type, a plurality of target target data are extracted. This target object data group is set as reference data.
The example of the first embodiment shows a case where the reporter 2 receives a report “There is a school nearby. There is a convenience store and a post office-like building”. In this case, “school” is the reference data.

以下、図2にて目標物データ検索の詳細を説明する。
まず、上述のように、ステップ1で基準データとなる種別「学校」に該当する目標物データを抽出する。次いで、ステップ2で次の目標物データ「コンビニ」に該当する目標物データを抽出する。次いで、ステップ3でステップ1で抽出した全ての目標物データ「学校」のうち、ステップ2で抽出した目標物データ「コンビニ」が既定値以内の距離範囲に存在する目標物データ「学校」を絞り込んで抽出する。ステップ4で次の目標物データ「郵便局」に該当する目標物データを抽出する。ステップ5でステップ3で絞り込み抽出した全ての目標物データ「学校」のうち、ステップ4で抽出した目標物データ「郵便局」が既定値以内の距離範囲に存在する目標物「学校」を絞り込んで抽出する。上記ステップ4、ステップ5を繰り返し実施(ステップ6)し、基準データの目標物データ「学校」を絞り込む。
Details of the target data search will be described below with reference to FIG.
First, as described above, target data corresponding to the type “school” serving as reference data is extracted in step 1. Next, in step 2, target data corresponding to the next target data “convenience store” is extracted. Next, out of all the target data “school” extracted in step 1 in step 3, the target data “school” in which the target data “convenience store” extracted in step 2 is within a predetermined distance range is narrowed down. Extract with In step 4, target data corresponding to the next target data “post office” is extracted. Of all the target data “schools” extracted and refined in step 3 in step 5, the target “school” in which the target data “post office” extracted in step 4 is within a predetermined distance range is narrowed down. Extract. The above step 4 and step 5 are repeatedly performed (step 6), and the target data “school” of the reference data is narrowed down.

以上のように、先に抽出された複数の基準データに対して、2つ目の目標物データ群の各データを比較し、基準データとの距離が既定値以内の基準データを絞り込み検索する。以降、3つ目の音声認識情報、4つ目の音声認識情報についても、同様に基準データの絞り込み検索を実施する。この実施の形態1の例示では、2つ目の目標物データ群は「コンビニ」、3つ目の目標物データ群は「郵便局」となる。このように、候補となる基準データがどんどん絞り込まれて行く。   As described above, each piece of data of the second target object data group is compared with the plurality of pieces of reference data extracted earlier, and the reference data whose distance from the reference data is within a predetermined value is narrowed down and searched. Thereafter, the search for the reference data is similarly performed for the third voice recognition information and the fourth voice recognition information. In the example of the first embodiment, the second target data group is “convenience store”, and the third target data group is “post office”. In this way, candidate reference data is narrowed down more and more.

複数件まで絞り込めた場合には、候補一覧を画面上に表示し、このうち任意の1件を指定することで、該当地点の地図を表示モニタ11に表示する(ステップ7)ことができる。
なお、最終的に1件にまで絞り込まれた場合には、対象となる目標物データの座標をもとに、該当地点の地図を表示モニタ11に表示する。
上記動作により、受付者3は通報者2からの電話に応対し、必要な情報を聞き取ることにより、通報者2の位置する候補地点を自動的に見つけ出すことができ、場所特定に要する時間の短縮と、操作性の改善、場所特定精度の向上が図れる。
When narrowing down to a plurality of cases, a candidate list is displayed on the screen, and by designating any one of them, a map of the corresponding point can be displayed on the display monitor 11 (step 7).
In addition, when the number is finally narrowed down to one, a map of the corresponding point is displayed on the display monitor 11 based on the coordinates of target target data.
By the above operation, the receptionist 3 can answer the phone call from the reporter 2 and listen to necessary information to automatically find a candidate point where the reporter 2 is located, thereby reducing the time required for specifying the location. In addition, the operability can be improved and the location identification accuracy can be improved.

実施の形態2.
なお、上記実施の形態1では、基準データに対して複数の目標物データ群が既定の距離範囲内に存在するものを抽出し、候補地点を見つけ出す場合の動作について述べたが、目標物データベースの各項目に対して、音声認識情報が住所に関する情報であった場合には、実施の形態1で説明した抽出する基準データ及び複数の目標物データ群の距離比較処理を行う前段階として、該当する住所情報を持つ目標物データに限定して検索を開始する。このようにすることで、目標物データ同士の距離比較を行うデータ数を予め絞り込むことができ、目標物データ抽出処理の高速化を図ることができる。
Embodiment 2. FIG.
In the first embodiment, the operation when a plurality of target data groups exist within a predetermined distance range with respect to the reference data and the candidate points are found has been described. For each item, if the voice recognition information is information about an address, it corresponds as a step before performing the distance comparison processing between the reference data to be extracted and the plurality of target data groups described in the first embodiment. Search is limited to target data having address information. In this way, the number of data for comparing the distances between the target data can be narrowed down in advance, and the speed of the target data extraction process can be increased.

実施の形態3.
また、上記実施の形態1では、音声認識情報として抽出されたデータすべてを目標物データ抽出処理の対象とし、候補地点を見つけ出す場合の動作について述べたが、図3に示す画面例のように、音声認識情報のうち、個々の目標物データを絞り込み条件として使用するかどうかを自由に選択できるようにすることで、候補地点抽出の選択自由度を広げることができる。この図3の例では、基準データ「学校」と目標物データ「コンビニ」が選択されているが、目標物データ「郵便局」は除外して検索する場合を示している。このように自由度を持たせることで、目標物データを絞り込み過ぎた場合などに組み合わせ条件を緩和したりすることで対象となる目標物データの検索漏れを防止することができる。
Embodiment 3 FIG.
In the first embodiment, all the data extracted as the speech recognition information is the target of the target data extraction process, and the operation in the case of finding the candidate point is described. However, as in the screen example shown in FIG. By making it possible to freely select whether or not to use individual target data as a narrowing-down condition in the speech recognition information, the degree of freedom for selecting candidate points can be expanded. In the example of FIG. 3, the reference data “school” and the target data “convenience store” are selected, but the target data “post office” is excluded and searched. By providing the degree of freedom in this way, it is possible to prevent omission of retrieval of target target data by relaxing the combination conditions when the target data is narrowed down too much.

1 音声認識処理装置、 2 通報者、 3 受付者、 4 音声入力部、 5 音声認識処理部、 6 地図検索装置、 7 文字データ出力部、 8 目標物データベース、 9 参照処理部、 10 目標物データ検索処理部、 11 表示モニタ。   DESCRIPTION OF SYMBOLS 1 Voice recognition processing device, 2 Reporter, 3 Receiving person, 4 Voice input part, 5 Voice recognition processing part, 6 Map search device, 7 Character data output part, 8 Target object database, 9 Reference processing part, 10 Target object data Search processing unit, 11 display monitor.

Claims (3)

入力された言葉を音声認識し文字データ化する音声認識処理装置と、音声認識結果から目標物データを抽出し該当する地点の地図を検索表示する地図検索装置とで構成され、上記地図検索装置は、名称、種別、住所などの目標物データを蓄積したデータベースを備え、上記音声認識処理装置で文字データ化した音声認識情報と、上記データベースのデータとを、逐次参照することで、入力された言葉に含まれる目標物データを自動抽出するとともに、抽出した目標物データのうち、最初に抽出された目標物データを基準データとし、2つ目以降に抽出された目標物データと基準データが既定値以内の距離に存在するものを絞り込み検索し、対象となる基準データを候補地点として表示するようにした地図検索システム。   A speech recognition processing device that recognizes an input word and converts it into character data, and a map search device that extracts target data from the speech recognition result and searches and displays a map of the corresponding point. A database that stores target data such as names, types, addresses, etc., and the speech recognition information that has been converted into character data by the speech recognition processing device, and the data entered in the database by sequentially referring to the data in the database The target data included in the is automatically extracted, and the first target data extracted from the extracted target data is used as the reference data, and the second and subsequent target data and reference data are set as default values. A map search system that narrows down the search within the distance and displays the target reference data as candidate points. 上記音声認識処理装置により抽出した目標物データが、住所に関する情報であった場合に、候補地点の絞込み方法として該当する住所エリア内に存在する目標物データに限定して検索することを特徴とする請求項1記載の地図検索システム。   When the target data extracted by the voice recognition processing device is information related to an address, the search is limited to target data existing in the corresponding address area as a candidate point narrowing method. The map search system according to claim 1. 上記地図検索装置において、音声認識情報と目標物データの逐次参照処理によって得られる複数の目標物データに対して、個々の目標物データを絞り込み条件として使用するか否かを自由に選択でき、任意の目標物データを組み合わせた条件による候補地点の検索を可能とすることを特徴とする請求項1または請求項2に記載の地図検索システム。   In the map search device, whether or not to use each target data as a narrowing condition can be freely selected for a plurality of target data obtained by the sequential reference processing of the speech recognition information and target data. The map search system according to claim 1 or 2, wherein a candidate point can be searched based on a combination of the target data.
JP2010086645A 2010-04-05 2010-04-05 Map retrieval system Pending JP2011221591A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010086645A JP2011221591A (en) 2010-04-05 2010-04-05 Map retrieval system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010086645A JP2011221591A (en) 2010-04-05 2010-04-05 Map retrieval system

Publications (1)

Publication Number Publication Date
JP2011221591A true JP2011221591A (en) 2011-11-04

Family

ID=45038543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010086645A Pending JP2011221591A (en) 2010-04-05 2010-04-05 Map retrieval system

Country Status (1)

Country Link
JP (1) JP2011221591A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103226548A (en) * 2012-01-30 2013-07-31 北京四维图新科技股份有限公司 Search service method, search service device and search service system for Internet map
CN113012691A (en) * 2019-12-18 2021-06-22 丰田自动车株式会社 Agent device, agent system, and computer-readable storage medium
WO2023175768A1 (en) * 2022-03-16 2023-09-21 日本電気株式会社 Hearing assistance device, hearing assistance method, and computer-readable recording medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331491A (en) * 2000-05-22 2001-11-30 Matsushita Electric Ind Co Ltd Target object search method and target object search device
JP2002303530A (en) * 2001-12-25 2002-10-18 Aisin Aw Co Ltd Navigation device
JP2006293037A (en) * 2005-04-11 2006-10-26 Fujitsu General Ltd Reporting point identification device and reporting point identification method
JP2008171173A (en) * 2007-01-11 2008-07-24 Nippon Telegr & Teleph Corp <Ntt> Document search method, apparatus, and program
JP2009239466A (en) * 2008-03-26 2009-10-15 Nec Corp Telephone receiving system, telephone receiving method, program, and recording medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331491A (en) * 2000-05-22 2001-11-30 Matsushita Electric Ind Co Ltd Target object search method and target object search device
JP2002303530A (en) * 2001-12-25 2002-10-18 Aisin Aw Co Ltd Navigation device
JP2006293037A (en) * 2005-04-11 2006-10-26 Fujitsu General Ltd Reporting point identification device and reporting point identification method
JP2008171173A (en) * 2007-01-11 2008-07-24 Nippon Telegr & Teleph Corp <Ntt> Document search method, apparatus, and program
JP2009239466A (en) * 2008-03-26 2009-10-15 Nec Corp Telephone receiving system, telephone receiving method, program, and recording medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103226548A (en) * 2012-01-30 2013-07-31 北京四维图新科技股份有限公司 Search service method, search service device and search service system for Internet map
CN113012691A (en) * 2019-12-18 2021-06-22 丰田自动车株式会社 Agent device, agent system, and computer-readable storage medium
JP2021096710A (en) * 2019-12-18 2021-06-24 トヨタ自動車株式会社 Agent device, agent system, and agent program
US11869488B2 (en) 2019-12-18 2024-01-09 Toyota Jidosha Kabushiki Kaisha Agent device, agent system, and computer-readable storage medium
WO2023175768A1 (en) * 2022-03-16 2023-09-21 日本電気株式会社 Hearing assistance device, hearing assistance method, and computer-readable recording medium

Similar Documents

Publication Publication Date Title
US20180032526A1 (en) Validating provided information in a conversation
US20170010859A1 (en) User interface system, user interface control device, user interface control method, and user interface control program
US11423113B2 (en) Contextual deep bookmarking
US9229974B1 (en) Classifying queries
CN103760991B (en) Physical input method and physical input device
CN109933724B (en) Knowledge search method, knowledge search system, question answering device, electronic equipment and storage medium
US20130243249A1 (en) Electronic device and method for recognizing image and searching for concerning information
CN103092887B (en) Electronic equipment and voice messaging thereof provide method
CN105931642B (en) Voice recognition method, device and system
CN102968987A (en) Speech recognition method and system
CN109271533A (en) A kind of multimedia document retrieval method
CN107992523B (en) Function option searching method of mobile application and terminal equipment
US10347243B2 (en) Apparatus and method for analyzing utterance meaning
CN111198936B (en) Voice search method and device, electronic equipment and storage medium
CN107832035B (en) Voice input method of intelligent terminal
US11373638B2 (en) Presentation assistance device for calling attention to words that are forbidden to speak
JP2011221591A (en) Map retrieval system
US20040010410A1 (en) System and method for processing voice command
US8798996B2 (en) Splitting term lists recognized from speech
KR100919227B1 (en) The method and apparatus for recognizing speech for navigation system
CN109710735B (en) Reading content recommendation method and electronic device based on multiple social channels
CN101405693A (en) Personal synergic filtering of multimodal inputs
US20210165540A1 (en) Information processing device, information processing method, and program
JP2014178621A (en) Information providing device and program
JP5544003B2 (en) Information search device, information search system, and information search method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130802

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130827