[go: up one dir, main page]

JP2013003087A - Navigation device - Google Patents

Navigation device Download PDF

Info

Publication number
JP2013003087A
JP2013003087A JP2011137286A JP2011137286A JP2013003087A JP 2013003087 A JP2013003087 A JP 2013003087A JP 2011137286 A JP2011137286 A JP 2011137286A JP 2011137286 A JP2011137286 A JP 2011137286A JP 2013003087 A JP2013003087 A JP 2013003087A
Authority
JP
Japan
Prior art keywords
keyword
program
unit
processing unit
destination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011137286A
Other languages
Japanese (ja)
Inventor
Yoshinori Ueno
義典 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2011137286A priority Critical patent/JP2013003087A/en
Publication of JP2013003087A publication Critical patent/JP2013003087A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Instructional Devices (AREA)

Abstract

【課題】様々な場所において、番組から身近な目的地の候補を生成することが可能な技術を提供することを目的とする。
【解決手段】ナビゲーション装置は、放送波の受信信号から目的地の候補を生成する機能を備えたナビゲーション装置であって、目的地候補生成のためのキーワードデータを記憶するキーワードデータ部5と、処理部6と、目的地検索処理部11とを備える。処理部6は、キーワードデータに基づいて番組の受信信号に含まれる番組内キーワードを抽出する。目的地検索処理部11は、番組内キーワードに基づいて現在地付近に存在する番組内キーワードに対応する施設を目的地候補として生成する。
【選択図】図1
An object of the present invention is to provide a technique capable of generating familiar destination candidates from programs in various places.
A navigation device is a navigation device having a function of generating destination candidates from broadcast wave reception signals, a keyword data unit 5 for storing keyword data for generating destination candidates, and a processing Unit 6 and destination search processing unit 11. The processing unit 6 extracts an in-program keyword included in the received signal of the program based on the keyword data. The destination search processing unit 11 generates a facility corresponding to the in-program keyword existing near the current location as a destination candidate based on the in-program keyword.
[Selection] Figure 1

Description

本発明は、ナビゲーション装置に関するものであり、特に、放送波の受信信号から目的地の候補を生成する機能を備えたナビゲーション装置に関するものである。   The present invention relates to a navigation apparatus, and more particularly, to a navigation apparatus having a function of generating destination candidates from broadcast wave reception signals.

ユーザを目的地に誘導するナビゲーション装置には、ラジオやTVの放送波を受けて、番組の音声などを出力するものがある。このような装置のユーザは、番組を視聴している場合に、そこで紹介された施設を目的地としたいと思うことがある。しかし、これを実現しようとすると、ユーザは、その施設の住所、郵便番号、電話番号、名称などの情報を、覚える、書き留める、写真で撮るなどの作業に加えて、当該情報を目的地として装置に設定する作業を行わなければならず、手間がかかるものとなっていた。   Some navigation devices that guide users to their destinations receive radio and TV broadcast waves and output program audio and the like. When a user of such a device is watching a program, the user may want to use the facility introduced there as a destination. However, in order to realize this, the user can use the information as a destination in addition to tasks such as memorizing, writing down, taking a picture, etc., such as the address, postal code, telephone number, and name of the facility. It was necessary to carry out the setting work for this, which was troublesome.

そこで、このような手間を低減することができるように、特許文献1に開示の技術では、番組の放送波から、番組内で放送された言語情報を取得し、それを目的地の候補として自動生成している。   Therefore, in order to reduce such time and effort, the technology disclosed in Patent Document 1 acquires language information broadcast in the program from the broadcast wave of the program and automatically uses it as a destination candidate. Is generated.

特開2006−3259号公報JP 2006-3259 A

しかしながら、例えば、言語情報の取得対象とする番組が全国ネットの番組である場合には、そこで紹介される施設のほとんどが大都市であることから、地方で装置を使用するユーザにとっては、自動生成された目的地候補をほとんど利用することができないと考えられる。   However, for example, if the program whose language information is to be acquired is a nationwide network program, most of the facilities introduced there are large cities, so it is automatically generated for users who use devices in rural areas. It is considered that most of the candidate destinations cannot be used.

そこで、本発明は、上記のような問題点を鑑みてなされたものであり、様々な場所において、番組から身近な目的地の候補を生成することが可能な技術を提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a technology capable of generating familiar destination candidates from programs in various places. .

本発明に係るナビゲーション装置は、放送波の受信信号から目的地の候補を生成する機能を備えたナビゲーション装置であって、目的地候補生成のためのキーワードデータを記憶するキーワードデータ部と、前記キーワードデータに基づいて、番組の受信信号に含まれる番組内キーワードを抽出する処理部と、前記番組内キーワードに基づいて現在地付近に存在する前記番組内キーワードに対応する施設を目的地候補として生成する目的地検索処理部とを備える。   A navigation device according to the present invention is a navigation device having a function of generating destination candidates from broadcast wave reception signals, a keyword data section for storing keyword data for generating destination candidates, and the keyword A processing unit that extracts a keyword in a program included in a received signal of a program based on data, and a facility that generates a facility corresponding to the keyword in the program existing near the current location as a destination candidate based on the keyword in the program A ground search processing unit.

本発明によれば、現在地付近に存在する番組内キーワードに対応する施設を目的地候補として生成する。したがって、装置が大都市にあるか、地方にあるかにかかわらず、様々な場所において、番組から身近な目的地候補を生成することができる。   According to the present invention, a facility corresponding to an in-program keyword existing near the current location is generated as a destination candidate. Therefore, it is possible to generate familiar destination candidates from programs in various places regardless of whether the apparatus is in a large city or a local area.

実施の形態に係るカーナビゲーション装置の構成を示すブロック図である。It is a block diagram which shows the structure of the car navigation apparatus which concerns on embodiment. 実施の形態に係るカーナビゲーション装置が記憶している情報を示す図である。It is a figure which shows the information which the car navigation apparatus which concerns on embodiment has memorize | stored. 実施の形態に係るカーナビゲーション装置が記憶している情報を示す図である。It is a figure which shows the information which the car navigation apparatus which concerns on embodiment has memorize | stored. 実施の形態に係るカーナビゲーション装置が記憶している情報を示す図である。It is a figure which shows the information which the car navigation apparatus which concerns on embodiment has memorize | stored. 実施の形態に係るカーナビゲーション装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the car navigation apparatus which concerns on embodiment. 実施の形態に係るカーナビゲーション装置の動作を示す図である。It is a figure which shows operation | movement of the car navigation apparatus which concerns on embodiment. 実施の形態に係るカーナビゲーション装置の動作を示す図である。It is a figure which shows operation | movement of the car navigation apparatus which concerns on embodiment. 実施の形態に係るカーナビゲーション装置の動作を示す図である。It is a figure which shows operation | movement of the car navigation apparatus which concerns on embodiment. 実施の形態に係るカーナビゲーション装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the car navigation apparatus which concerns on embodiment. 実施の形態に係るカーナビゲーション装置の動作を示す図である。It is a figure which shows operation | movement of the car navigation apparatus which concerns on embodiment. 実施の形態に係るカーナビゲーション装置の動作を示す図である。It is a figure which shows operation | movement of the car navigation apparatus which concerns on embodiment.

<実施の形態>
本発明に係るナビゲーション装置は、カーナビゲーション装置であるものとして以下説明する。
<Embodiment>
The navigation device according to the present invention will be described below as a car navigation device.

図1は、本発明の実施の形態に係るカーナビゲーション装置の構成を示すブロック図である。図1に示すように、当該カーナビゲーション装置は、ラジオ放送受信部1と、TV放送受信部2と、スピーカーなどの音声出力部3と、ディスプレイなどの表示部4と、キーワードデータ部5と、処理部6と、記憶部7と、現在時刻検出部8と、現在位置検出部9と、地図データ部10と、目的地検索処理部11と、ユーザからの様々な操作を受け付ける操作部12と、操作部12が受け付けた操作などに基づいて各構成要素を統括的に制御する制御部13とを備える。なお、ここでは、処理部6は、音声認識部21と、画像認識部22と、認識情報処理部23とを備えている。   FIG. 1 is a block diagram showing a configuration of a car navigation apparatus according to an embodiment of the present invention. As shown in FIG. 1, the car navigation device includes a radio broadcast receiving unit 1, a TV broadcast receiving unit 2, an audio output unit 3 such as a speaker, a display unit 4 such as a display, a keyword data unit 5, A processing unit 6, a storage unit 7, a current time detection unit 8, a current position detection unit 9, a map data unit 10, a destination search processing unit 11, and an operation unit 12 that receives various operations from a user And a control unit 13 that comprehensively controls each component based on an operation received by the operation unit 12. Here, the processing unit 6 includes a voice recognition unit 21, an image recognition unit 22, and a recognition information processing unit 23.

以上のような構成からなる本実施の形態に係るカーナビゲーション装置は、ラジオやTVの放送波の受信信号から目的地の候補を生成する機能を備えている。しかも、大都市、地方を問わず、様々な場所において、番組から身近な目的地候補を生成することが可能となっている。以下、このようなカーナビゲーション装置について詳細に説明する。   The car navigation apparatus according to the present embodiment configured as described above has a function of generating destination candidates from radio wave and TV broadcast wave reception signals. Moreover, it is possible to generate familiar destination candidates from programs in various places regardless of large cities and regions. Hereinafter, such a car navigation apparatus will be described in detail.

ラジオ放送受信部1は、操作部12で指定されたラジオ番組について放送波を受信し、それに含まれる受信信号(音声信号)を取得する。ラジオ放送受信部1は、当該音声信号を音声出力部3及び音声認識部21に出力する。   The radio broadcast receiving unit 1 receives a broadcast wave for a radio program designated by the operation unit 12 and acquires a reception signal (audio signal) included therein. The radio broadcast receiving unit 1 outputs the audio signal to the audio output unit 3 and the audio recognition unit 21.

TV放送受信部2は、操作部12で指定されたTV番組について放送波を受信し、それに含まれる受信信号(音声信号及び映像信号)を取得する。TV放送受信部2は、当該音声信号を音声出力部3及び音声認識部21に出力し、当該映像信号を表示部4及び画像認識部22に出力する。   The TV broadcast receiving unit 2 receives broadcast waves for the TV program designated by the operation unit 12 and acquires reception signals (audio signals and video signals) included therein. The TV broadcast receiving unit 2 outputs the audio signal to the audio output unit 3 and the audio recognition unit 21, and outputs the video signal to the display unit 4 and the image recognition unit 22.

音声出力部3は、入力された音声信号に基づいて音声を出力する。これにより、ユーザが望むラジオ番組やTV番組の音声が出力される。なお、本実施の形態では、音声出力部3は、制御部13の制御により、ナビゲーションを行う際に用いられる音声情報なども出力可能となっている。   The audio output unit 3 outputs audio based on the input audio signal. Thereby, the sound of the radio program or TV program desired by the user is output. In the present embodiment, the audio output unit 3 can output audio information and the like used for navigation under the control of the control unit 13.

表示部4は、入力された映像信号に基づいて映像を表示する。これにより、ユーザが望むTV番組の映像が表示される。なお、本実施の形態では、表示部4は、制御部13の制御により、ナビゲーションを行う際に用いられる映像情報なども表示可能となっている。   The display unit 4 displays video based on the input video signal. Thereby, the video of the TV program desired by the user is displayed. In the present embodiment, the display unit 4 can also display video information and the like used for navigation under the control of the control unit 13.

キーワードデータ部5は、目的地候補生成のためのキーワードデータを記憶している。図2は、キーワードデータ部5に記憶されているキーワードデータの一例を示す図である。この図に示すように、本実施の形態でのキーワードデータは、大分類、中分類、小分類、施設という階層(ここでは4階層)に分類された複数のキーワードを含んでいる。なお、上位階層側(大分類側)の各キーワードは、対応する下位階層側(施設側)の複数のキーワードに共通する属性を示すものとなっており、ここでは、中分類は業種に対応し、小分類は料理名、商品名、設備名などに対応し、施設は店舗名などに対応している。また、少なくとも1階層が目的階層として規定されており、ここでは、業種に対応する中分類が目的階層として規定されているものとする。   The keyword data unit 5 stores keyword data for generating destination candidates. FIG. 2 is a diagram illustrating an example of keyword data stored in the keyword data unit 5. As shown in this figure, the keyword data in the present embodiment includes a plurality of keywords classified into the major classification, middle classification, small classification, and facility levels (here, four levels). Each keyword on the upper layer side (major classification side) indicates attributes common to the corresponding keywords on the lower layer side (facility side). Here, the middle classification corresponds to the type of business. The small classification corresponds to the name of a dish, the name of a product, the name of equipment, and the facility corresponds to the name of a store. In addition, at least one layer is defined as the target layer, and here, it is assumed that the medium classification corresponding to the business type is defined as the target layer.

図1に戻って、処理部6は、上述したように音声認識部21、画像認識部22及び認識情報処理部23を備えており、当該処理部6は、キーワードデータに基づいて、番組の受信信号に含まれる番組内キーワードを抽出する。次に、この処理部6の各構成要素について説明する。   Returning to FIG. 1, the processing unit 6 includes the voice recognition unit 21, the image recognition unit 22, and the recognition information processing unit 23 as described above. The processing unit 6 receives a program based on the keyword data. In-program keywords included in the signal are extracted. Next, each component of the processing unit 6 will be described.

認識部である音声認識部21は、ラジオ放送受信部1またはTV放送受信部2からの番組の受信信号(音声信号)が示す音声を解析し、当該音声に含まれる言語情報を抽出して、認識情報処理部23に出力する。後述するように、当該言語情報は、認識情報処理部23にて番組内キーワードの抽出処理に用いられることから、音声認識部21は、番組内キーワードの抽出処理に供するものとなっている。   The voice recognition unit 21 that is a recognition unit analyzes the voice indicated by the reception signal (sound signal) of the program from the radio broadcast receiving unit 1 or the TV broadcast receiving unit 2 and extracts language information included in the voice, Output to the recognition information processing unit 23. As will be described later, since the language information is used for the keyword extraction process within the program by the recognition information processing unit 23, the voice recognition unit 21 is used for the keyword extraction process within the program.

認識部である画像認識部22は、TV放送受信部2からの番組の受信信号(映像信号)が示す映像を解析し、当該映像に含まれる言語情報を抽出して、認識情報処理部23に出力する。つまり、画像認識部22は、番組内キーワードの抽出処理に供するものとなっている。   The image recognizing unit 22 as a recognizing unit analyzes the video indicated by the received signal (video signal) of the program from the TV broadcast receiving unit 2, extracts language information included in the video, and sends it to the recognition information processing unit 23. Output. That is, the image recognition unit 22 is used for the keyword extraction process in the program.

認識情報処理部23は、音声認識部21または画像認識部22で抽出された言語情報(以下「抽出言語情報」と呼ぶこともある)と、キーワードデータ部5のキーワードデータとに基づいて、番組内キーワードを抽出する。ここでは、抽出言語情報が、図2に示す複数のキーワードのいずれかと一致する場合に、認識情報処理部23は、当該抽出言語情報を番組内キーワードとする。   The recognition information processing unit 23 is configured to program based on the language information extracted by the voice recognition unit 21 or the image recognition unit 22 (hereinafter also referred to as “extracted language information”) and the keyword data of the keyword data unit 5. Extract keywords. Here, when the extracted language information matches any of the plurality of keywords shown in FIG. 2, the recognition information processing unit 23 sets the extracted language information as the in-program keyword.

また、認識情報処理部23は、番組内キーワードから、キーワードデータの階層に基づき、中分類のキーワードを特定キーワードとして特定する。詳細は後で説明するが、具体的には、認識情報処理部23は、番組内キーワードが中分類(目的階層)のキーワードと一致する場合には、当該キーワードを特定キーワードとして特定し、番組内キーワードが中分類(目的階層)以外の階層キーワードと一致する場合には、当該キーワードに対応する中分類のキーワードを特定キーワードとして特定する。   Further, the recognition information processing unit 23 identifies the middle-classified keyword as the specific keyword based on the keyword data hierarchy from the in-program keyword. Although details will be described later, specifically, the recognition information processing unit 23 specifies the keyword as a specific keyword when the keyword in the program matches the keyword in the middle classification (target hierarchy), and If the keyword matches a hierarchical keyword other than the middle classification (target hierarchy), the middle classification keyword corresponding to the keyword is specified as a specific keyword.

また、認識情報処理部23(処理部6)は、特定キーワードが特定された回数を、特定キーワードごとにカウントする。そして、認識情報処理部23(処理部6)は、以上の番組内キーワード、特定キーワード及び回数を、番組の識別情報である番組名に関連付けて記憶部7に記憶する。   Further, the recognition information processing unit 23 (processing unit 6) counts the number of times the specific keyword is specified for each specific keyword. Then, the recognition information processing unit 23 (processing unit 6) stores the above in-program keyword, specific keyword, and number of times in the storage unit 7 in association with the program name that is the program identification information.

図3は、記憶部7に記憶されている情報の一例を示す図である。「番組名」、「放送日時」及び「ジャンル」には、例えば受信信号に含まれる、番組の名称、放送日時及びジャンルの情報がそれぞれ格納される。「番組内キーワード」には、認識情報処理部23で抽出された番組内キーワードが格納される。「特定キーワード(中分類)」には、認識情報処理部23で特定された特定キーワードが格納される。つまり、記憶部7には、番組名(番組の識別情報)と特定キーワードとが対応して記憶されている。「特定回数」には、認識情報処理部23においてカウントされた回数が格納される。   FIG. 3 is a diagram illustrating an example of information stored in the storage unit 7. In “program name”, “broadcast date / time”, and “genre”, for example, information on the program name, broadcast date / time, and genre included in the received signal is stored. The “in-program keyword” stores the in-program keyword extracted by the recognition information processing unit 23. In the “specific keyword (medium category)”, the specific keyword specified by the recognition information processing unit 23 is stored. That is, the storage unit 7 stores a program name (program identification information) and a specific keyword in association with each other. In the “specific number of times”, the number of times counted by the recognition information processing unit 23 is stored.

図1に戻って、現在時刻検出部8は、例えばタイマーから構成され、現在時刻を検出する。   Returning to FIG. 1, the current time detection unit 8 includes a timer, for example, and detects the current time.

現在位置検出部9は、例えばGPS(Global Positioning System)、ヨーレートセンサ及び加速度センサから構成され、絶対座標(経度緯度)上における、カーナビゲーション装置の現在地を検出する。   The current position detection unit 9 includes, for example, a GPS (Global Positioning System), a yaw rate sensor, and an acceleration sensor, and detects the current location of the car navigation device on absolute coordinates (longitude / latitude).

地図データ部10には、絶対座標が付加された地図データと、施設に関する情報(例えば、施設の名称、施設に対応する中分類のキーワード、地図上での施設の座標位置などの情報)とが記憶されている。   The map data unit 10 includes map data to which absolute coordinates are added, and information about the facility (for example, information such as the name of the facility, a middle-class keyword corresponding to the facility, and the coordinate position of the facility on the map). It is remembered.

また、図4に示されるように、地図データ部10は、「大分類」のキーワード、「中分類」のキーワード及び「時間帯」が互いに紐付けされた情報も記憶している。このうち、「時間帯」には、中分類のキーワードが目的地として設定される可能性が高い時間帯が設定されている。ただし、コンビニなど、時刻を問わずに1日中設定される可能性が高い業種については、「指定なし」が「時間帯」に設定されている。なお、この図4では、1つの中分類のキーワードに対して1つの時間帯が設定されているが、これに限ったものではなく、複数の時間帯が設定されるものであってもよい。   As shown in FIG. 4, the map data unit 10 also stores information in which a keyword “major category”, a keyword “medium category”, and a “time zone” are associated with each other. Among these, the “time zone” is set to a time zone in which there is a high possibility that the middle class keyword is set as the destination. However, for industries that are highly likely to be set all day regardless of time, such as a convenience store, “not specified” is set to “time zone”. In FIG. 4, one time zone is set for one middle class keyword, but the present invention is not limited to this, and a plurality of time zones may be set.

目的地検索処理部11は、番組内キーワードに基づいて、現在地付近に存在する番組内キーワードに対応する施設を目的地候補として生成する。本実施の形態では、目的地検索処理部11は、認識情報処理部23で番組内キーワードに基づいて特定された特定キーワードに基づいて、目的地候補を生成する。   The destination search processing unit 11 generates a facility corresponding to the in-program keyword existing near the current location as a destination candidate based on the in-program keyword. In the present embodiment, the destination search processing unit 11 generates a destination candidate based on the specific keyword specified by the recognition information processing unit 23 based on the keyword in the program.

例えば、図3に示すように特定キーワードが記憶部7に記憶されている場合に、「番組a」が操作部12にて指定されると、目的地検索処理部11は、「番組a」に対応する「カレー屋」、「洋食」などの特定キーワードに基づいて、目的地候補を作成する。つまり、本実施の形態では、目的地検索処理部11は、操作部12により指定された番組に対応する記憶部7の特定キーワードに基づいて、目的地候補を生成するものとなっている。目的地検索処理部11で生成された目的地候補は、表示部4において表示される。   For example, as shown in FIG. 3, when a specific keyword is stored in the storage unit 7 and “program a” is designated by the operation unit 12, the destination search processing unit 11 sets “program a” to “program a”. Destination candidates are created based on specific keywords such as “curry shop” and “Western food”. That is, in the present embodiment, the destination search processing unit 11 generates destination candidates based on the specific keyword in the storage unit 7 corresponding to the program specified by the operation unit 12. The destination candidates generated by the destination search processing unit 11 are displayed on the display unit 4.

次に、以上の構成からなるカーナビゲーション装置の動作について説明する。   Next, the operation of the car navigation device having the above configuration will be described.

図5は、本実施の形態に係るカーナビゲーション装置が、特定キーワードを抽出・記憶する処理を示すフローチャートである。ここでは、前提として、ステップS1の前にTVがON、つまり、TV番組の音声及び映像が出力及び表示されており、視聴されている当該TV番組から、特定キーワードが抽出されるものとする。なお、ラジオがONしている場合も以下に説明する処理と同様の処理が行われるものとする。   FIG. 5 is a flowchart showing a process in which the car navigation device according to the present embodiment extracts and stores a specific keyword. Here, it is assumed that the TV is turned on before step S1, that is, the audio and video of the TV program are output and displayed, and the specific keyword is extracted from the TV program being viewed. Even when the radio is on, the same processing as described below is performed.

まず、ステップS1にて、受信信号に含まれる番組名、つまり、視聴されている番組名を取得する。アナログラジオ放送のように受信信号に番組名が含まれていない場合には、番組名の代わりにユーザが視聴していた時間帯を、カーナビゲーション装置が記憶する。   First, in step S1, the program name included in the received signal, that is, the name of the program being viewed is acquired. When the program name is not included in the received signal as in analog radio broadcasting, the car navigation device stores the time zone that the user was watching instead of the program name.

ステップS2にて、音声認識部21及び画像認識部22は、視聴されている番組の受信信号を解析し、ステップS3にて、それに含まれる言語情報を抽出する。   In step S2, the voice recognition unit 21 and the image recognition unit 22 analyze the received signal of the program being viewed, and in step S3, extract language information included therein.

ステップS4にて、認識情報処理部23は、ステップS3で抽出された言語情報が、キーワードデータ部5に記憶された図2に示すようなキーワードと一致する場合に、当該言語情報(キーワード)を番組内キーワードとして抽出する。そして、認識情報処理部23は、抽出した番組内キーワードが、図2に示すような「中分類」のキーワードと一致しているかを判定する。認識情報処理部23は、一致していると判定した場合には、当該中分類のキーワードを特定キーワードとして特定し、ステップS5にて記憶部7に記憶する。例えば図6のような映像が番組内で放送された場合には、当該映像内の文字テロップの「カフェ」が、図2に示す中分類のキーワードに設定されていることから、「カフェ」が特定キーワードとして特定され、図3に示す「特定キーワード」に記憶される。一方、ステップS4にて一致しないと判定された場合には、ステップS6に進む。   In step S4, when the language information extracted in step S3 matches the keyword as shown in FIG. 2 stored in the keyword data unit 5, the recognition information processing unit 23 uses the language information (keyword). Extracted as in-program keywords. Then, the recognition information processing unit 23 determines whether or not the extracted in-program keyword matches the “medium category” keyword as shown in FIG. If the recognition information processing unit 23 determines that they match, the recognition information processing unit 23 specifies the middle-category keyword as a specific keyword and stores it in the storage unit 7 in step S5. For example, when a video as shown in FIG. 6 is broadcast in a program, the character telop “cafe” in the video is set as the middle-category keyword shown in FIG. It is specified as a specific keyword and is stored in the “specific keyword” shown in FIG. On the other hand, if it is determined in step S4 that they do not match, the process proceeds to step S6.

ステップS6にて、認識情報処理部23は、ステップS4で一致しないと判定された番組内キーワードが、中分類以外の階層である「小分類」のキーワードと一致しているかを判定する。認識情報処理部23は、一致していると判定した場合には、ステップS7にて当該キーワードに対応する中分類のキーワードを特定キーワードとして特定し、ステップS5にて記憶部7に記憶する。例えば、図7のような音声が番組内で放送された場合には、当該音声内の「アイスクリーム」が、図2に示す小分類のキーワードに設定されていることから、「アイスクリーム」に対応する中分類のキーワードである「お菓子」が特定キーワードとして特定され、図3に示す「特定キーワード」に記憶される。一方、ステップS6にて一致しないと判定された場合には、ステップS8に進む。   In step S <b> 6, the recognition information processing unit 23 determines whether the in-program keyword determined not to match in step S <b> 4 matches the “small category” keyword that is a layer other than the middle category. If the recognition information processing unit 23 determines that they match, it identifies the middle-classified keyword corresponding to the keyword as a specific keyword in step S7, and stores it in the storage unit 7 in step S5. For example, when the sound as shown in FIG. 7 is broadcast in the program, “ice cream” in the sound is set as the small category keyword shown in FIG. The corresponding middle class keyword “candy” is specified as a specific keyword and stored in the “specific keyword” shown in FIG. On the other hand, if it is determined in step S6 that they do not match, the process proceeds to step S8.

ステップS8にて、認識情報処理部23は、ステップS6で一致しないと判定された番組内キーワードが、中分類以外の階層である「施設」のキーワードと一致しているかを判定する。認識情報処理部23は、一致していると判定した場合には、ステップS9にて当該キーワードに対応する中分類のキーワードを特定キーワードとして特定し、ステップS5にて記憶部7に記憶する。例えば、図8のような映像が番組内で放送された場合には、当該映像内の看板に記された「カレー店C1」が、図2に示す施設のキーワードに設定されていることから、「カレー店C1」に対応する中分類のキーワードである「カレー屋」が特定キーワードとして特定され、図3に示す「特定キーワード」に記憶される。一方、ステップS8にて一致しないと判定された場合には、ステップS1に戻り、後続の受信信号に対して上述と同様の処理が行われる。   In step S <b> 8, the recognition information processing unit 23 determines whether the keyword in the program determined not to match in step S <b> 6 matches the keyword of “facility” that is a layer other than the middle classification. If the recognition information processing unit 23 determines that they match, it identifies the middle-classified keyword corresponding to the keyword as a specific keyword in step S9, and stores it in the storage unit 7 in step S5. For example, when a video as shown in FIG. 8 is broadcast in the program, the “curry store C1” marked on the signboard in the video is set as the keyword of the facility shown in FIG. “Curry shop”, which is a middle class keyword corresponding to “curry store C1”, is specified as a specific keyword and stored in “specific keyword” shown in FIG. On the other hand, if it is determined in step S8 that they do not match, the process returns to step S1 and the same processing as described above is performed on the subsequent received signal.

ステップS5の後、ステップS10にてTVがOFFかを判定し、OFFであると判定した場合には処理を終了し、OFFでないと判定した場合にはステップS1に戻り、後続の受信信号に対して上述と同様の処理が行われる。   After step S5, it is determined in step S10 whether the TV is OFF. If it is determined that the TV is OFF, the process ends. If it is determined that the TV is not OFF, the process returns to step S1 and the subsequent received signal is processed. Thus, the same processing as described above is performed.

なお、ステップS1に戻って行われる再度の処理において、先に特定された特定キーワードが再び特定された場合には、認識情報処理部23は、その特定キーワードに対応する記憶部7の「特定回数」(図3)の数字を1つ増やす。   In the re-processing performed after returning to step S1, when the specific keyword specified earlier is specified again, the recognition information processing unit 23 stores the “specific number of times” in the storage unit 7 corresponding to the specific keyword. "(Figure 3) is incremented by one.

図9は、本実施の形態に係るカーナビゲーション装置が、特定キーワードに対応する施設を目的地候補として生成する処理を示すフローチャートである。   FIG. 9 is a flowchart showing a process in which the car navigation device according to the present embodiment generates a facility corresponding to a specific keyword as a destination candidate.

まず、ステップS21にて、目的地検索処理部11は、記憶部7の「特定キーワード」(図3)に、特定キーワードが記憶されているかを判定する。そして、当該判定結果に応じて、ステップS22またはステップS31に進み、目的地の探索方法を指定するための探索方法指定画面を表示部4に表示する。   First, in step S <b> 21, the destination search processing unit 11 determines whether or not a specific keyword is stored in the “specific keyword” (FIG. 3) in the storage unit 7. Then, according to the determination result, the process proceeds to step S22 or step S31, and a search method designation screen for designating a destination search method is displayed on the display unit 4.

図10は、当該探索方法指定画面の一例を示す図である。ここでは、目的地の探索方法の一例として、施設の住所、名称、電話からそれぞれ目的地を探索するモードに移行するための「住所」、「名称」及び「電話」ボタンと、現在地周辺、登録地点、過去に目的地とした地点からそれぞれ目的地を探索するモードに移行するための「周辺」、「登録」及び「履歴」ボタンと、自宅を目的地とする「自宅」ボタンと、「放送」ボタンとが示されている。   FIG. 10 is a diagram illustrating an example of the search method designation screen. Here, as an example of the destination search method, “Address”, “Name” and “Telephone” buttons for entering the destination search mode from the facility address, name, and telephone, the current location, and registration "Peripheral", "Registration" and "History" buttons for shifting to a destination search mode from a point that was previously set as a destination, a "Home" button for home, and "Broadcasting" "Button.

「放送」ボタンは、記憶部7の「特定キーワード」に記憶されている特定キーワードに基づいて目的地を探索するモードに移行するためのボタンである。本実施の形態では、ステップS21にて記憶部7に特定キーワードが記憶されていると判定された場合には、ステップS22にて図10に示すような「放送」ボタンを表示する探索方法指定画面を表示部4に表示し、ステップS23に進む。   The “broadcast” button is a button for shifting to a mode for searching for a destination based on a specific keyword stored in “specific keyword” of the storage unit 7. In this embodiment, if it is determined in step S21 that the specific keyword is stored in the storage unit 7, a search method designation screen for displaying a “broadcast” button as shown in FIG. 10 in step S22. Is displayed on the display unit 4, and the process proceeds to step S23.

一方、ステップS21にて記憶されていないと判定された場合には、ステップS31にて「放送」ボタンを非表示とする探索方法指定画面を表示部4に表示する。その後、例えば、「放送」ボタン以外の探索方法で目的地が決定されて当該目的地への誘導が行われ、処理が終了する。   On the other hand, if it is determined in step S21 that it is not stored, a search method designation screen for hiding the “broadcast” button is displayed on the display unit 4 in step S31. Thereafter, for example, the destination is determined by a search method other than the “broadcast” button, guidance to the destination is performed, and the process ends.

ステップS23にて、操作部12が「放送」ボタンの指定を受け付けると、記憶部7の「番組名」(図3)に格納された番組名が表示部4に表示される。図11の左側に、このときの番組名の表示例を示す。なお、この図に示す例では、現在時刻に近い番組名が、上から順に表示されている。   In step S23, when the operation unit 12 accepts the designation of the “broadcast” button, the program name stored in the “program name” (FIG. 3) of the storage unit 7 is displayed on the display unit 4. A display example of the program name at this time is shown on the left side of FIG. In the example shown in this figure, program names close to the current time are displayed in order from the top.

表示部4に表示されている番組名の中から、操作部12が番組名の指定を受け付けると、ステップS24にて、目的地検索処理部11は、当該指定された番組名に対応する特定キーワードを、記憶部7の「特定キーワード」(図3)から取得する。例えば、図3に示されるような情報が記憶部7に記憶されている場合に、操作部12にて「番組a」が指定されると、「カレー屋」〜「公共」、…が取得される。   When the operation unit 12 receives designation of a program name from among the program names displayed on the display unit 4, in step S24, the destination search processing unit 11 specifies a specific keyword corresponding to the designated program name. Is acquired from the “specific keyword” (FIG. 3) in the storage unit 7. For example, when information such as that shown in FIG. 3 is stored in the storage unit 7 and “program a” is designated by the operation unit 12, “curry shop” to “public”,... The

ステップS25にて、目的地検索処理部11は、ステップS24で取得した特定キーワードのうち、地図データ部10の「時間帯」(図4)が指定されて記憶されているキーワードがあるかを判定する。記憶されていないと判定した場合にはステップS26に進み、そうでない場合にはステップS27に進む。   In step S25, the destination search processing unit 11 determines whether there is a keyword stored with the “time zone” (FIG. 4) of the map data unit 10 specified among the specific keywords acquired in step S24. To do. If it is determined that it is not stored, the process proceeds to step S26, and if not, the process proceeds to step S27.

ステップS26にて、ステップS24の特定キーワード(例えば「カレー屋」)に対応する施設のうち、現在地付近の複数の施設(例えば「カレー屋C3」、「カレー屋C2」など)が地図データ部10から取得され、図11の右側に示されるように、それら施設が表示部4にてリスト形式で表示される。本実施の形態では、原則として、カーナビゲーション装置の現在地からの距離順に施設が表示される。なお、この図において距離の横に示される矢印は、カーナビゲーション装置を基準とした施設の方向(方角)を示す。   In step S26, among the facilities corresponding to the specific keyword (eg, “curry shop”) in step S24, a plurality of facilities (eg, “curry shop C3”, “curry shop C2”, etc.) near the current location are displayed in the map data section 10. As shown on the right side of FIG. 11, the facilities are displayed in a list format on the display unit 4. In this embodiment, in principle, facilities are displayed in order of distance from the current location of the car navigation device. In addition, the arrow shown next to the distance in this figure indicates the direction (direction) of the facility with respect to the car navigation device.

ステップS27に進んだ場合には、現在時刻検出部8は現在時刻を検出する。そして、ステップS28にて、目的地検索処理部11は、地図データ部10から、現在時刻が属している「時間帯」(図4)を特定し、ステップS24の特定キーワードのうち、当該「時間帯」に対応する「中分類のキーワード」と一致するキーワードを取得する。   If the process proceeds to step S27, the current time detection unit 8 detects the current time. In step S28, the destination search processing unit 11 specifies the “time zone” (FIG. 4) to which the current time belongs from the map data unit 10, and among the specific keywords in step S24, the “time” A keyword matching “medium class keyword” corresponding to “band” is acquired.

そして、同ステップS28にて、目的地検索処理部11は、当該取得したキーワードに対応する施設が、ステップS28の後に行われるステップS26にて表示部4に優先的に表示されるように、表示する施設の優先順位を変更する。   In step S28, the destination search processing unit 11 displays the facility corresponding to the acquired keyword so that it is preferentially displayed on the display unit 4 in step S26 performed after step S28. Change the priority of facilities to be used.

ここで、ステップS28を経由してステップS26を行う場合の処理の具体例について、図4に示されるような情報が地図データ部10に記憶され、ステップS24において「番組a」に対応する特定キーワードとして「カレー屋」と「カフェ・お菓子」とが取得されていた場合を例にして説明する。この場合において、操作部12が11時から14時までの間に指定操作を受け付けていた場合には、ステップS28にて「カレー屋」が取得され、一方、操作部12が14時から16時までの間に指定操作を受け付けていた場合には、ステップS28にて「カフェ・お菓子」が取得される。   Here, with respect to a specific example of processing in the case where step S26 is performed via step S28, information as shown in FIG. 4 is stored in the map data unit 10, and the specific keyword corresponding to “program a” in step S24. As an example, a case where “curry shop” and “cafe / sweets” have been acquired will be described. In this case, if the operation unit 12 has received a designation operation between 11:00 and 14:00, “curry shop” is acquired in step S28, while the operation unit 12 is acquired from 14:00 to 16:00. If the designated operation has been received until then, “cafe / candy” is acquired in step S28.

そして、図11の右側に示されるように、操作部12が11時から14時までの間に操作を受け付けていた場合には、ステップS26にて「カレー屋」の施設(店舗)が上位の候補地として表示部4にて表示され、一方、操作部12が14時から16時までの間に操作を受け付けていた場合には、ステップS26にて「カフェ・お菓子」の施設(店舗)が上位の候補地として表示部4にて表示される。   Then, as shown on the right side of FIG. 11, when the operation unit 12 has received an operation from 11:00 to 14:00, the “curry shop” facility (store) is in the upper rank in step S26. If it is displayed on the display unit 4 as a candidate site, and the operation unit 12 has received an operation between 14:00 and 16:00, the facility (store) of “cafe / sweets” in step S26. Is displayed on the display unit 4 as an upper candidate site.

ステップS26の後、ステップS29にて、表示部4に表示された施設の中から一つの施設が候補地として決定されたか否かを判定する。決定されたと判定した場合にはステップS30に進み、そうでない場合にはステップS28に戻る。   After step S26, in step S29, it is determined whether or not one facility is determined as a candidate site from the facilities displayed on the display unit 4. When it determines with having been determined, it progresses to step S30, and when that is not right, it returns to step S28.

ステップS30にて、現在地から、ステップS29で決定された候補地までのルートを探索し、そのルートに沿った誘導が、音声出力部3の音声や、表示部4の映像を用いて行われる。   In step S30, a route from the current location to the candidate location determined in step S29 is searched, and guidance along the route is performed using the audio of the audio output unit 3 and the video of the display unit 4.

以上のような本実施の形態に係るカーナビゲーション装置によれば、現在地付近に存在する番組内キーワードに対応する施設を目的地候補として生成する。したがって、装置が大都市にあるか、地方にあるかにかかわらず、様々な場所において放送された番組から身近な目的地候補を生成することができる。   According to the car navigation apparatus according to the present embodiment as described above, a facility corresponding to a keyword in a program existing near the current location is generated as a destination candidate. Therefore, it is possible to generate familiar destination candidates from programs broadcast in various places regardless of whether the apparatus is in a large city or a local area.

また、本実施の形態によれば、番組内キーワードに基づいて特定される特定キーワードに基づいて目的地候補を生成する。したがって、番組で紹介された施設(店舗)から遠く離れていても、当該施設と上位階層(業種など)が共通する施設が、目的地候補として生成される。よって、カーナビゲーション装置が地方に位置し、かつ、番組で紹介された施設が大都市に存在する場合であっても、目的地候補が生成される可能性を高めることができる。   Moreover, according to this Embodiment, the destination candidate is produced | generated based on the specific keyword specified based on the keyword in a program. Therefore, even if it is far away from the facility (store) introduced in the program, a facility having a common upper hierarchy (such as a business type) is generated as a destination candidate. Therefore, even when the car navigation device is located in a rural area and the facility introduced in the program exists in a large city, the possibility that a destination candidate is generated can be increased.

また、本実施の形態によれば、操作部12により指定された番組に対応する記憶部7の特定キーワードに基づいて、目的地候補を生成する。つまり、特定キーワードを記憶するので、視聴している番組の放送終了後において、当該番組から目的地候補を生成することができる。なお、本発明は、番組の放送波の受信とほぼ同時に目的地候補を生成するようにしてもよい。この場合において、視聴している番組の放送終了後に目的地候補を生成する必要がないのであれば、記憶部7は設けられなくてもよい。   Further, according to the present embodiment, the destination candidate is generated based on the specific keyword in the storage unit 7 corresponding to the program designated by the operation unit 12. That is, since the specific keyword is stored, a destination candidate can be generated from the program after the broadcast of the program being viewed ends. In the present invention, destination candidates may be generated almost simultaneously with reception of broadcast waves of a program. In this case, if it is not necessary to generate a destination candidate after the broadcast of the program being viewed ends, the storage unit 7 may not be provided.

また、本実施の形態によれば、目的地検索処理部11は、操作部12が所定の操作を受け付けた際の時刻に基づいて、表示部4に表示する施設の優先順位を変更する。したがって、操作した時刻に候補地とされる可能性が高い施設を優先的に紹介することができ、利便性を向上させることができる。   Moreover, according to this Embodiment, the destination search process part 11 changes the priority of the facility displayed on the display part 4 based on the time when the operation part 12 received predetermined | prescribed operation. Therefore, it is possible to preferentially introduce a facility that is highly likely to be a candidate site at the operated time, and it is possible to improve convenience.

なお、記憶部7における「特定回数」(図3)の値が大きい番組内キーワードに対応する施設が、ステップS28にて表示部4に優先的に表示されるようにしてもよい。つまり、目的地検索処理部11は、特定キーワードが特定された回数に基づいて、表示部4に表示する施設の優先順位を変更するものであってもよい。この場合には、番組内で放送された内容と関連性の高い施設(店舗)を上位の候補地として表示することができることから、番組を視聴したユーザが候補地に指定する可能性が高い施設を優先的に紹介することができ、利便性を向上させることができる。なお、目的地検索処理部11は、上述の時刻と当該回数とを組み合わせて当該優先順位を変更してもよい。   The facility corresponding to the keyword in the program having a large “specific number of times” (FIG. 3) in the storage unit 7 may be preferentially displayed on the display unit 4 in step S28. That is, the destination search processing unit 11 may change the priority order of the facilities displayed on the display unit 4 based on the number of times the specific keyword is specified. In this case, since a facility (store) that is highly relevant to the content broadcast in the program can be displayed as an upper candidate site, a facility that is likely to be designated as a candidate site by a user who has watched the program Can be preferentially introduced, and convenience can be improved. The destination search processing unit 11 may change the priority by combining the above-described time and the number of times.

また、以上においては、中分類〜施設のキーワードから特定キーワードを特定する場合について説明したが、大分類から特定キーワードを特定・制限するものであってもよい。また、図9に示したステップS27において特定キーワードが複数ある場合には、ステップS27とステップS28との間にて、一つの特定キーワードをユーザに指定させるようにしてもよい。   In the above description, the case where the specific keyword is specified from the middle classification to the facility keyword has been described. However, the specific keyword may be specified / restricted from the large classification. Further, when there are a plurality of specific keywords in step S27 shown in FIG. 9, one specific keyword may be specified by the user between step S27 and step S28.

また、以上の説明においては、カーナビゲーション装置は、ラジオ放送受信部1、TV放送受信部2を備えるものとしたが、これらは、カーナビゲーション装置に備えられずに、別装置であってもよい。   Further, in the above description, the car navigation device includes the radio broadcast reception unit 1 and the TV broadcast reception unit 2, but these may not be provided in the car navigation device but may be separate devices. .

また、以上の説明においては、本発明に係るナビゲーション装置はカーナビゲーション装置であるとしたが、ユーザを目的地に誘導する装置であればこれに限ったものではなく、例えば携帯電話またはPND(Portable Navigation Device)であってもよい。   In the above description, the navigation device according to the present invention is a car navigation device. However, the navigation device is not limited to this as long as it guides the user to the destination. For example, a mobile phone or a PND (Portable Navigation Device).

4 表示部、5 キーワードデータ部、6 処理部、7 記憶部、8 現在時刻検出部、10 地図データ部、11 目的地検索処理部、12 操作部、21 音声認識部、22 画像認識部、23 認識情報処理部。   4 Display section, 5 Keyword data section, 6 Processing section, 7 Storage section, 8 Current time detection section, 10 Map data section, 11 Destination search processing section, 12 Operation section, 21 Voice recognition section, 22 Image recognition section, 23 Recognition information processing unit.

Claims (6)

放送波の受信信号から目的地の候補を生成する機能を備えたナビゲーション装置であって、
目的地候補生成のためのキーワードデータを記憶するキーワードデータ部と、
前記キーワードデータに基づいて、番組の受信信号に含まれる番組内キーワードを抽出する処理部と、
前記番組内キーワードに基づいて、現在地付近に存在する前記番組内キーワードに対応する施設を目的地候補として生成する目的地検索処理部と
を備える、ナビゲーション装置。
A navigation device having a function of generating candidate destinations from broadcast wave reception signals,
A keyword data section for storing keyword data for generating destination candidates;
A processing unit for extracting a keyword in a program included in a received signal of a program based on the keyword data;
A navigation apparatus comprising: a destination search processing unit that generates a facility corresponding to the in-program keyword existing near the current location as a destination candidate based on the in-program keyword.
請求項1に記載のナビゲーション装置であって、
前記処理部は、
前記番組の受信信号に含まれる言語情報を抽出して、前記番組内キーワードの抽出処理に供する認識部を備える、ナビゲーション装置。
The navigation device according to claim 1,
The processor is
A navigation apparatus comprising: a recognition unit that extracts language information included in a reception signal of the program and uses the extracted language information in the program keyword extraction process.
請求項1または請求項2に記載のナビゲーション装置であって、
前記キーワードデータは、少なくとも1階層が目的階層として規定される、階層に分類された複数のキーワードを含み、
前記処理部は、
前記番組内キーワードから前記階層に基づき、前記目的階層のキーワードを特定キーワードとして特定する認識情報処理部を備え、
前記目的地検索処理部は、前記認識情報処理部で前記番組内キーワードに基づいて特定された前記特定キーワードに基づいて、前記目的地候補を生成する、ナビゲーション装置。
The navigation device according to claim 1 or 2, wherein
The keyword data includes a plurality of keywords classified into hierarchies in which at least one hierarchy is defined as a target hierarchy,
The processor is
A recognition information processing unit that identifies a keyword of the target hierarchy as a specific keyword based on the hierarchy from the in-program keyword;
The navigation device, wherein the destination search processing unit generates the destination candidate based on the specific keyword specified by the recognition information processing unit based on the keyword in the program.
請求項3に記載のナビゲーション装置であって、
前記番組の識別情報と前記特定キーワードとを対応させて記憶する記憶部と、
操作部と
をさらに備え、
前記目的地検索処理部は、前記操作部により指定された前記番組に対応する前記記憶部の前記特定キーワードに基づいて、前記目的地候補を生成する、ナビゲーション装置。
The navigation device according to claim 3,
A storage unit for storing the identification information of the program and the specific keyword in association with each other;
An operation unit,
The navigation device, wherein the destination search processing unit generates the destination candidate based on the specific keyword of the storage unit corresponding to the program specified by the operation unit.
請求項1乃至請求項3のいずれかに記載のナビゲーション装置であって、
操作部と、表示部と、時刻を検出する現在時刻検出部と
をさらに備え、
前記目的地検索処理部は、
前記操作部が所定の操作を受け付けた際の前記時刻に基づいて、前記表示部に表示する前記施設の優先順位を変更する、ナビゲーション装置。
A navigation device according to any one of claims 1 to 3,
An operation unit, a display unit, and a current time detection unit for detecting time;
The destination search processing unit
The navigation apparatus which changes the priority of the said facility displayed on the said display part based on the said time when the said operation part receives predetermined | prescribed operation.
請求項3に記載のナビゲーション装置であって、
表示部をさらに備え、
前記処理部は、前記特定キーワードが特定された回数を、前記特定キーワードごとにカウントし、
前記目的地検索処理部は、
前記回数に基づいて、前記表示部に表示する前記施設の優先順位を変更する、ナビゲーション装置。
The navigation device according to claim 3,
A display unit;
The processing unit counts the number of times the specific keyword is specified for each specific keyword,
The destination search processing unit
The navigation apparatus which changes the priority of the said facility displayed on the said display part based on the said frequency | count.
JP2011137286A 2011-06-21 2011-06-21 Navigation device Withdrawn JP2013003087A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011137286A JP2013003087A (en) 2011-06-21 2011-06-21 Navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011137286A JP2013003087A (en) 2011-06-21 2011-06-21 Navigation device

Publications (1)

Publication Number Publication Date
JP2013003087A true JP2013003087A (en) 2013-01-07

Family

ID=47671786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011137286A Withdrawn JP2013003087A (en) 2011-06-21 2011-06-21 Navigation device

Country Status (1)

Country Link
JP (1) JP2013003087A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016185540A1 (en) * 2015-05-18 2016-11-24 三菱電機株式会社 Moving-body navigation device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016185540A1 (en) * 2015-05-18 2016-11-24 三菱電機株式会社 Moving-body navigation device
JPWO2016185540A1 (en) * 2015-05-18 2017-08-31 三菱電機株式会社 Mobile navigation device

Similar Documents

Publication Publication Date Title
EP2728313B1 (en) Method of displaying objects on a navigation map
JP6885819B2 (en) Navigation devices and navigation systems
JP2007010368A (en) Navigation device, navigation method, and navigation program
CN102032908A (en) Navigation device and program
JP2015148582A (en) Guiding apparatus
JP2011185908A (en) Navigation system, and method for notifying information about destination
CN102867005A (en) Retrieving device, retrieving method and vehicle-mounted navigation apparatus
US7640241B2 (en) Sports information viewing method and apparatus for navigation system
WO2012132464A1 (en) Portable device, application launch method, and program
US20050197059A1 (en) Information processing system, terminal unit, recording device, information processing method, program thereof and recording medium storing the program
JP2011065526A (en) Operating system and operating method
JP2013003087A (en) Navigation device
JP4894336B2 (en) Intersection search device and intersection search method
JPWO2007099815A1 (en) Video processing device, communication terminal, point information search device, video processing method, point information notification method, point information search method, video processing program, point information notification program, point information search program, and computer-readable recording medium
US11238517B2 (en) Navigation server, navigation client and navigation system
JP2005004782A (en) Information processing system, information processing apparatus, information processing method, and portable information terminal apparatus
JP2010133904A (en) Device of searching for destination, program, and method of searching for destination
JP2003218718A (en) Information data utilizing system for digital broadcast, digital broadcast receiver used therefor, and information data acquiring method
JP2016011905A (en) Guide system, guide method, server, and electronic device
JP2011179977A (en) Navigation device, navigation method, and navigation program
JP2012068130A (en) Navigation device and navigation program
JP2017075968A (en) Display device
JP2007271277A (en) Navigation system, method and program
CN110069577B (en) Circuit planning method and device and electronic equipment
JP2011059038A (en) Apparatus, method and program for navigation

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902