[go: up one dir, main page]

JP2010019643A - Information terminal, navigation apparatus, and option display method - Google Patents

Information terminal, navigation apparatus, and option display method Download PDF

Info

Publication number
JP2010019643A
JP2010019643A JP2008179421A JP2008179421A JP2010019643A JP 2010019643 A JP2010019643 A JP 2010019643A JP 2008179421 A JP2008179421 A JP 2008179421A JP 2008179421 A JP2008179421 A JP 2008179421A JP 2010019643 A JP2010019643 A JP 2010019643A
Authority
JP
Japan
Prior art keywords
display
menu
display screen
information terminal
option
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008179421A
Other languages
Japanese (ja)
Inventor
Yusuke Oku
雄介 奥
Takashi Hosoya
高史 細谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008179421A priority Critical patent/JP2010019643A/en
Publication of JP2010019643A publication Critical patent/JP2010019643A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】常に2つの階層を表示することなく、ユーザによる意志決定が入力されなくても下位の階層を表示できる情報端末、ナビゲーション装置及び選択肢表示方法を提供すること。
【解決手段】接触位置を検出する接触位置検出手段24に操作手段が接触すると、表示装置21に表示された接触位置に対応する上位階層の選択肢101の下位階層の選択肢200が表示される情報端末50であって、操作手段22がタッチパネル24の前方の空間に近接したことを検出するセンサ23と、センサ23により操作手段22が上位階層の選択肢101に近接したことが検出された場合、当該選択肢101の下位階層の選択肢200を表示装置21に表示する表示制御手段31、32、33と、を有することを特徴とする。
【選択図】図1
To provide an information terminal, a navigation device, and an option display method capable of displaying a lower hierarchy without always displaying two hierarchies and inputting a decision by a user.
An information terminal that displays an option 200 in a lower hierarchy of an option 101 in an upper hierarchy corresponding to a contact position displayed on a display device 21 when an operation means contacts the contact position detection means 24 for detecting the contact position. 50, the sensor 23 that detects that the operating means 22 is close to the space in front of the touch panel 24, and the sensor 23 detects that the operating means 22 is close to the option 101 of the upper hierarchy. The display control means 31, 32, and 33 display the option 200 in the lower hierarchy of 101 on the display device 21.
[Selection] Figure 1

Description

本発明は、上位階層の選択肢の決定により、当該選択肢の下位階層の選択肢が決定可能となる情報端末、ナビゲーション装置及び選択肢表示方法に関する。   The present invention relates to an information terminal, a navigation apparatus, and an option display method that enable selection of a lower hierarchy of the option by determining an option of an upper hierarchy.

ナビゲーション装置などの車両情報端末には、施設の住所、郵便番号、電話番号、名称等のポイントデータや電話帳などの各種の情報が記憶されている。しかし、ユーザが住所などの施設を特定する情報までは把握していない場合があり、また、車両情報端末の表示装置は大きさに制限があるため、所望の情報へのアクセスが容易になるよう、例えば都道府県名、市町村名、町名等を、表示画面を見ながら順に絞りこんでいく、階層的な検索が可能となっている。   Vehicle information terminals such as navigation devices store various information such as point data such as facility addresses, postal codes, telephone numbers, names, and telephone books. However, there are cases where the user does not know the information specifying the facility such as an address, and the display device of the vehicle information terminal is limited in size, so that it is easy to access desired information. For example, it is possible to perform a hierarchical search by sequentially narrowing down prefecture names, city names, town names, etc. while looking at the display screen.

しかしながら、このように階層毎に表示画面を生成すると、階層の前後の関係の把握が困難になる場合がある。この点について、選択した階層と共に1つ前の階層を一表示画面に表示する技術が提案されている(例えば、特許文献1参照。)。図11は従来のナビゲーション装置が表示する表示画面の一例を示す。図11(a)は、左側の「アミューズメントホテル」が選択され、右側にアミューズメントホテルのリストとして「ホテルA〜ホテルF」が表示された一表示画面を示す。図11(a)の表示画面でユーザが「ホテルB」を選択すると、図11(b)に示すように表示画面の右半分が左側に移動する。そして、図11(c)に示すように表示画面の右半分には「ホテルB」の詳細情報が表示される。
特開平11−142171号公報
However, when the display screen is generated for each hierarchy in this way, it may be difficult to grasp the relationship before and after the hierarchy. With regard to this point, a technique has been proposed in which the previous hierarchy is displayed together with the selected hierarchy on one display screen (see, for example, Patent Document 1). FIG. 11 shows an example of a display screen displayed by a conventional navigation device. FIG. 11A shows one display screen in which “Amusement Hotel” on the left side is selected and “Hotel A to Hotel F” is displayed on the right side as a list of amusement hotels. When the user selects “Hotel B” on the display screen of FIG. 11A, the right half of the display screen moves to the left as shown in FIG. Then, as shown in FIG. 11C, detailed information of “Hotel B” is displayed on the right half of the display screen.
JP-A-11-142171

しかしながら、特許文献1記載のナビゲーション装置では、下位の階層を表示するためには必ず表示画面を操作(接触する)する必要があるという問題がある。例えば、図11(a)において「民宿」のメニューを表示するには左半分(元は右半分にあったとしても)の「民宿」を選択しなければならない。すなわち、選択するというユーザの「意志決定」を「入力」しなければ、下位の階層の表示画面を表示することはできない。   However, the navigation device described in Patent Document 1 has a problem in that it is necessary to operate (contact) the display screen in order to display lower layers. For example, in FIG. 11A, in order to display the “Minshuku” menu, the “half guesthouse” in the left half (even if it was originally in the right half) must be selected. In other words, the display screen of the lower hierarchy cannot be displayed unless the user's “decision” to be selected is “input”.

また、特許文献1記載のナビゲーション装置は、階層が深くなるとユーザの操作が増えるという問題がある。このナビゲーション装置は、上位の階層のメニューリストと、上位の階層のうちいずれか1つのメニューの下位の階層とを、一表示画面で表示するものでるが、「意志決定」の「入力」までは、下位の階層(右半分)から見たさらに下位の階層のメニューリストを表示することができない。図11(d)〜(g)は、住所の下位の階層を辿る際の表示画面の遷移例を示す。例えば、ユーザが「関東」→「東京」→「港区」と順に選択すると図11(g)の表示画面が表示される。しかし、ユーザが図11(g)の表示画面で目的の場所がないことに気づくと、図11(f)の表示画面に「戻る」必要が生じる場合がある(図11(g)の左半分から選択できない場合)。すなわち、上位と下位の階層を一表示画面に表示しても階層が深くなると、「意志決定」と「戻る」という2つの操作が必要になるという点では、一表示画面に1つの階層しか表示できないナビゲーション装置と同じである。   Further, the navigation device described in Patent Document 1 has a problem that the number of user operations increases when the hierarchy is deeper. This navigation device displays the menu list of the upper hierarchy and the lower hierarchy of any one of the upper hierarchies on one display screen, but until “input” of “decision decision” The menu list of the lower hierarchy as viewed from the lower hierarchy (right half) cannot be displayed. FIGS. 11D to 11G show transition examples of display screens when tracing a lower hierarchy of addresses. For example, when the user selects “Kanto” → “Tokyo” → “Minato Ward” in this order, the display screen of FIG. However, if the user notices that there is no target place on the display screen of FIG. 11G, it may be necessary to “return” to the display screen of FIG. 11F (the left half of FIG. 11G). If you can't choose from). In other words, even if the upper and lower levels are displayed on one display screen, if the level becomes deeper, only two levels of “decision” and “return” are required. It is the same as a navigation device that cannot.

また、特許文献1記載のナビゲーション装置は、常に2つの階層が表示されるため表示画面がメニューに占有されてしまうという問題があり、ユーザから見ると多くの選択肢の中から選択しなければならないため、操作性を低下させるおそれがある。   In addition, the navigation device described in Patent Document 1 has a problem that the display screen is occupied by the menu because two layers are always displayed, and the user must select from many options when viewed from the user. The operability may be reduced.

本発明は、上記課題に鑑み、常に2つの階層を表示することなく、ユーザによる意志決定が入力されなくても下位の階層を表示できる情報端末、ナビゲーション装置及び選択肢表示方法を提供することを目的とする。   SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is an object of the present invention to provide an information terminal, a navigation device, and an option display method capable of displaying a lower hierarchy without always displaying two hierarchies and inputting a decision by the user. And

上記課題に鑑み、本発明は、接触位置を検出する接触位置検出手段に操作手段が接触すると、表示装置に表示された接触位置に対応する上位階層の選択肢の下位階層の選択肢が表示される情報端末であって、操作手段が接触位置検出手段の前方の空間に近接したことを検出するセンサと、センサにより操作手段が上位階層の選択肢に近接したことが検出された場合、当該選択肢の下位階層の選択肢を表示装置に表示する表示制御手段と、を有することを特徴とする。   In view of the above problems, the present invention provides information in which, when an operation unit comes into contact with a contact position detection unit that detects a contact position, a lower-layer option of an upper-layer option corresponding to the contact position displayed on the display device is displayed. A terminal that detects that the operating means is close to the space in front of the contact position detecting means, and if the sensor detects that the operating means is close to an option on the upper hierarchy, the lower hierarchy of the option Display control means for displaying the above options on a display device.

常に2つの階層を表示することなく、ユーザによる意志決定が入力されなくても下位の階層を表示できる情報端末、ナビゲーション装置及び選択肢表示方法を提供することができる。   It is possible to provide an information terminal, a navigation device, and an option display method capable of displaying a lower hierarchy without always displaying two hierarchies and inputting a decision by the user.

以下、本発明を実施するための最良の形態について、図面を参照しながら実施例を挙げて説明する。   Hereinafter, the best mode for carrying out the present invention will be described with reference to the accompanying drawings.

図1は、情報端末50のディスプレイ21に表示される表示画面の一例を示す。本実施形態の情報端末50のディスプレイ21はいわゆるタッチパネル24を有し、タッチパネル24は、ユーザの指やユーザが所有した棒状のポインティングデバイスなど(以下、操作手段22という)が接触した接触位置を検出する。情報端末50には、接触位置に表示されたメニューに従い操作情報が入力される。また、情報端末50はタッチパネル24の他に、ディスプレイ21に接触する前に操作手段22の位置を検出するタッチ位置予測センサ23を有する。タッチ位置予測センサ23はディスプレイ21から所定距離内の操作手段22をその位置と共に検出する。   FIG. 1 shows an example of a display screen displayed on the display 21 of the information terminal 50. The display 21 of the information terminal 50 according to the present embodiment includes a so-called touch panel 24, which detects a contact position where a user's finger or a rod-shaped pointing device owned by the user (hereinafter referred to as an operation means 22) is in contact. To do. Operation information is input to the information terminal 50 according to the menu displayed at the contact position. In addition to the touch panel 24, the information terminal 50 includes a touch position prediction sensor 23 that detects the position of the operation unit 22 before touching the display 21. The touch position prediction sensor 23 detects the operation means 22 within a predetermined distance from the display 21 together with the position.

図1(a)ではメニューリスト100にメニュー101a〜101d(以下、区別しない場合メニュー101という)が表示されている。メニューリスト100が有するメニュー101a〜101dのいずれかにユーザが操作手段22を近づけると、情報端末50は、操作手段22が接触しようとしているメニュー101の下位階層のメニューリスト200を表示する。例えば、図1(b)では「ジャンル」というメニュー101cの下位階層のメニューリスト200aが表示されており、図1(c)では「メモリ」というメニュー101bの下位階層のメニューリスト200bが表示されている。操作手段22をメニューリスト100から離せば、下位階層のメニューリスト200a又は200b(区別しない場合、メニューリスト200という)も表示されなくなる。   In FIG. 1A, menus 101a to 101d (hereinafter referred to as menu 101 if not distinguished) are displayed in menu list 100. When the user brings the operation unit 22 close to any of the menus 101a to 101d included in the menu list 100, the information terminal 50 displays the menu list 200 at a lower hierarchy of the menu 101 that the operation unit 22 is trying to touch. For example, in FIG. 1B, a menu list 200a in the lower hierarchy of the menu 101c “genre” is displayed, and in FIG. 1C, a menu list 200b in the lower hierarchy of the menu 101b “memory” is displayed. Yes. If the operation means 22 is separated from the menu list 100, the lower-level menu list 200a or 200b (the menu list 200 if not distinguished) is not displayed.

したがって、ユーザが意志決定としてタッチパネル24に操作情報を入力することなく(接触することなく)、また、上位階層のメニューリスト100を常に表示したまま、操作手段22が接近した場合のみ下位階層のメニューリスト200を表示することができる。   Accordingly, the user does not input operation information to the touch panel 24 as decision making (without touching), and only when the operation means 22 approaches while the upper hierarchy menu list 100 is always displayed, the lower hierarchy menu. A list 200 can be displayed.

ユーザは操作手段22をメニューリスト100に接触させずに、ディスプレイ21上で移動させながら、下位階層のメニューリスト200を視認することができ、所望の下位階層のメニューリスト200を見つけたらその上位階層のメニュー101に操作手段22を接触させる。例えば、図1(c)で、「メモリ」というメニュー101bに操作手段22が接触した場合、図1(d)に示すように表示画面が遷移し、下位階層のメニューリスト200bの各メニュー200b1〜200b3が選択(接触)可能に表示される。   The user can visually recognize the lower-level menu list 200 while moving the operation means 22 on the display 21 without touching the menu list 100. When the user finds the desired lower-level menu list 200, the higher-level menu list 200 is displayed. The operation means 22 is brought into contact with the menu 101. For example, in FIG. 1C, when the operation unit 22 touches the menu 101b “memory”, the display screen changes as shown in FIG. 1D, and the menus 200b1 to 200b1 in the lower-level menu list 200b are displayed. 200b3 is displayed to be selectable (contactable).

このようにユーザは下位階層のメニューリスト200を確認した後に、上位階層のメニュー101に操作手段22を接触させて操作情報を入力するので、操作ミスを低減することができる。また、常に下位階層のメニューリスト200が表示されるわけではないので、表示画面を上下の階層のメニューリスト100、200で占有することもない。また、表示される下位階層のメニューリスト200を最小限に制限できるので、ユーザが混乱したり操作性が低下することもない。   In this way, after the user confirms the lower-level menu list 200, the operation information is input by bringing the operating means 22 into contact with the upper-level menu 101, so that operation errors can be reduced. In addition, since the lower-level menu list 200 is not always displayed, the display screen is not occupied by the upper and lower-level menu lists 100 and 200. In addition, since the displayed lower-level menu list 200 can be limited to a minimum, the user is not confused or the operability is not lowered.

なお、以下では、ユーザによる意志決定の入力を、操作手段22がタッチパネル24に接触すると表現し、(厳密には、操作手段22がタッチパネル24に接近したことも操作情報の入力となるが)操作手段22がタッチパネル24に接触した場合に操作情報が入力されると表現する。また、操作手段22をタッチ位置予測センサ23が検出することを、単に操作手段22がタッチパネル24に接近すると表現する。また、単に「メニュー」といった場合、メニュー全般をいう。   In the following, the decision input by the user is expressed as the operation means 22 touching the touch panel 24 (strictly speaking, the fact that the operation means 22 has approached the touch panel 24 is also the operation information input). It is expressed that operation information is input when the means 22 touches the touch panel 24. Further, the detection of the operation means 22 by the touch position prediction sensor 23 is simply expressed as that the operation means 22 approaches the touch panel 24. In addition, simply “menu” refers to the entire menu.

図2は、情報端末50のハードウェア構成図の一例を示す。情報端末50は、例えばナビゲーションシステムと一体に構成できるため、本実施形態ではナビECU(Electronic Control Unit)20により制御されるものとしたが、他のECUが制御してもよい。また、情報端末50は車載されている必要はなく、例えば、可搬型のPND(Personal Navigation Device)、PDA(Personal Digital Assistant)、携帯電話等を含み、適宜、車載して使用することができる。   FIG. 2 shows an example of a hardware configuration diagram of the information terminal 50. Since the information terminal 50 can be configured integrally with, for example, a navigation system, the information terminal 50 is controlled by a navigation ECU (Electronic Control Unit) 20 in the present embodiment, but may be controlled by another ECU. In addition, the information terminal 50 does not need to be mounted on the vehicle, and includes, for example, a portable PND (Personal Navigation Device), a PDA (Personal Digital Assistant), a mobile phone, and the like, and can be used as appropriate.

ナビECU20は、CAN(Controller Area Network)やLIN(Local Interconnect Network)等の車載LAN及び専用線を介して、GPS(Global Positioning System)受信機27、タッチ位置予測センサ23、ディスプレイ21、タッチパネル24、地図DB(Data Base)25及び通信装置26等と接続される。   The navigation ECU 20 includes a GPS (Global Positioning System) receiver 27, a touch position prediction sensor 23, a display 21, a touch panel 24, via an in-vehicle LAN such as a CAN (Controller Area Network) and a LIN (Local Interconnect Network) and a dedicated line. It is connected to a map DB (Data Base) 25, a communication device 26, and the like.

GPS受信機27は、GPS衛星から送信される電波の到達時間に基づき車両の現在位置(緯度・経度・標高)を検出する。ナビECU20は、GPS受信機27が検出した位置を起点に進行方向に走行距離を累積して車両の位置を高精度に推測する。また、地図DB25には、道路を交差点や所定間隔で区切るノードが緯度・経度に対応づけて記憶されており、ノードを道路に対応するリンクで結ぶことで道路網を表現している。地図DB25には、ガソリンスタンド、駐車場、公共施設など施設のポイントデータの位置が緯度・経度に対応づけて記憶されている。   The GPS receiver 27 detects the current position (latitude / longitude / altitude) of the vehicle based on the arrival time of radio waves transmitted from GPS satellites. The navigation ECU 20 accumulates the travel distance in the traveling direction from the position detected by the GPS receiver 27 and estimates the position of the vehicle with high accuracy. In the map DB 25, nodes that divide roads at intersections and at predetermined intervals are stored in association with latitudes and longitudes, and a road network is expressed by connecting the nodes with links corresponding to the roads. The map DB 25 stores the point data positions of facilities such as gas stations, parking lots, and public facilities in association with latitude and longitude.

通信装置26は、例えば携帯電話の基地局や無線LANのアクセスポイントを介して携帯電話等の通信事業者のデータサーバに接続し、所定の通信プロトコル(例えば、IP、TCP)に従いインターネットなどのネットワークを介して車外のサーバと種々の情報を送受信する。これにより、例えば車両の周囲の施設の情報、交通情報、地図情報等を取得することができる。なお、この他、テレビ放送、ラジオ放送、CD等の音楽再生及びDVD等の映像再生の機能を備えていてもよい。   The communication device 26 is connected to a data server of a carrier such as a mobile phone via a base station of a mobile phone or a wireless LAN access point, for example, and a network such as the Internet according to a predetermined communication protocol (for example, IP, TCP) Various information is transmitted / received to / from a server outside the vehicle via the. Thereby, for example, information on facilities around the vehicle, traffic information, map information, and the like can be acquired. In addition to this, a function of reproducing music such as television broadcast, radio broadcast, CD, and video such as DVD may be provided.

ディスプレイ21は表示画面を表示し、また、操作手段22の接触位置を検出するためのタッチパネル24を備えたHMI(Human Machine Interface)である。ディスプレイ21は、例えばセンタークラスターに収容された液晶、有機EL等のフラットパネルディスプレイであり、さらにHUD(Head Up Display)を備えていてもよい。また、タッチパネル24の他、キーボードや音声入力による操作情報の入力手段を備えていてもよい。タッチパネル24は、例えば透明電極を面状に配置して、抵抗膜方式や静電容量方式により接触位置に応じた電気信号が検出されること利用して、操作手段22の接触位置を検出する。なお、タッチパネル24が検出する接触位置は、同時に1つとは限らず2以上の接触位置を同時に検出することができる。   The display 21 is an HMI (Human Machine Interface) that displays a display screen and includes a touch panel 24 for detecting a contact position of the operation means 22. The display 21 is a flat panel display such as a liquid crystal or an organic EL housed in a center cluster, for example, and may further include a HUD (Head Up Display). Further, in addition to the touch panel 24, an operation information input means by a keyboard or voice input may be provided. The touch panel 24 detects the contact position of the operation means 22 by using, for example, a transparent electrode arranged in a planar shape and detecting an electric signal corresponding to the contact position by a resistance film method or a capacitance method. The touch position detected by the touch panel 24 is not limited to one at the same time, and two or more touch positions can be detected at the same time.

また、ディスプレイ21とタッチパネル24とが一体の例を示したが、タッチパネル24を別体又は着脱可能にし、タッチパネル24の接触位置を有線又は無線で情報端末50に送信してもよい。この場合、タッチパネル24側に次述するタッチ位置予測センサ23が備えられ、同様にタッチパネル24に接触することなく、ディスプレイ24に下位階層のメニューを表示することができる。   Moreover, although the example in which the display 21 and the touch panel 24 are integrated is shown, the touch panel 24 may be separated or detachable, and the contact position of the touch panel 24 may be transmitted to the information terminal 50 by wire or wirelessly. In this case, the touch position prediction sensor 23 described below is provided on the touch panel 24 side, and similarly, a lower-level menu can be displayed on the display 24 without touching the touch panel 24.

〔タッチ位置予測センサ23〕
タッチ位置予測センサ23について説明する。図3(a)は、タッチ位置予測センサ23の概略を模式的に説明する図の一例である。タッチ位置予測センサ23は、例えば赤外遮光方式によりタッチパネル24に近接した又はタッチパネル24から所定距離内の操作手段22の位置(以下、プレタッチ位置という)を検出する。この所定距離はタッチパネル24の面上で均一でなくてもよい。
[Touch position prediction sensor 23]
The touch position prediction sensor 23 will be described. FIG. 3A is an example of a diagram for schematically explaining the outline of the touch position prediction sensor 23. The touch position prediction sensor 23 detects the position of the operating means 22 (hereinafter referred to as a pre-touch position) that is close to the touch panel 24 or within a predetermined distance from the touch panel 24 by, for example, an infrared light shielding method. This predetermined distance may not be uniform on the surface of the touch panel 24.

タッチ位置予測センサ23は、ディスプレイ21の長手方向と短手方向にそれぞれ、直線状に配置された複数の赤外線投光器23aを有し、対向する長手方向と短手方向にそれぞれ直線状に配置された複数の受光センサ23bを有する。赤外線投光器23aと受光センサ23bは、それぞれディスプレイ21から数cm〜10cm程度離れた位置に配置されている。遮光物がなければ、赤外線投光器23aが照射した光は受光センサ23bに検出されるが、操作手段22が存在する場合、赤外線が遮光される。このため、操作手段22のプレタッチ位置は、長手方向と短手方向の受光センサ23bが赤外線を検出できない位置として特定される。   The touch position prediction sensor 23 has a plurality of infrared projectors 23a arranged linearly in the longitudinal direction and the short direction of the display 21, respectively, and arranged linearly in the opposing longitudinal direction and the short direction. It has a plurality of light receiving sensors 23b. The infrared projector 23a and the light receiving sensor 23b are respectively arranged at positions away from the display 21 by several cm to 10 cm. If there is no light blocking object, the light irradiated by the infrared projector 23a is detected by the light receiving sensor 23b, but when the operation means 22 is present, the infrared light is blocked. For this reason, the pre-touch position of the operation means 22 is specified as a position where the light receiving sensor 23b in the longitudinal direction and the short direction cannot detect infrared rays.

また、赤外線投光器23a及び受光センサ23bをそれぞれディスプレイ21に対し垂直方向に積層すれば、ディスプレイ21に対し垂直方向の操作手段22の位置を検出できる。   Further, if the infrared projector 23 a and the light receiving sensor 23 b are stacked in the direction perpendicular to the display 21, the position of the operating means 22 in the direction perpendicular to the display 21 can be detected.

図3(b)は、タッチ位置予測センサ23の別の一例を示す。図3のタッチ位置予測センサ23は、ディスプレイ21の各画素にそれぞれ光センサ23cを組み込み、各画素毎にディスプレイ21上の物体を撮影する。各画素の輝度や色情報により光センサ23cが検出する輝度情報は定まるとしてよいが、操作手段22が接近すると操作手段22の像により光センサ23cが検出する輝度情報が変化する。したがって、輝度情報に変化が現れた光センサ23cの位置に操作手段22が存在することが検出できる。なお、ディスプレイ21の外部に設けられたカメラにより操作手段22を撮影し、その位置を検出してもよい。   FIG. 3B shows another example of the touch position prediction sensor 23. The touch position prediction sensor 23 in FIG. 3 incorporates an optical sensor 23c in each pixel of the display 21, and photographs an object on the display 21 for each pixel. Although the luminance information detected by the optical sensor 23c may be determined by the luminance and color information of each pixel, the luminance information detected by the optical sensor 23c changes depending on the image of the operating means 22 when the operating means 22 approaches. Therefore, it can be detected that the operating means 22 is present at the position of the optical sensor 23c where the luminance information has changed. Note that the operation means 22 may be photographed by a camera provided outside the display 21 and the position thereof may be detected.

操作手段22の検出精度を向上させるため、操作手段22の先端部を照らす近赤外投光器を配置し、光センサ23cの感度を近赤外線の波長域にしてもよい。また、極短時間だけ表示画面の表示を中断する表示制御をサイクル時間毎に繰り返し、表示画面が表示されていない間に操作手段22を撮影してもよい。   In order to improve the detection accuracy of the operation means 22, a near-infrared projector that illuminates the tip of the operation means 22 may be arranged, and the sensitivity of the optical sensor 23c may be in the near-infrared wavelength region. Further, display control for interrupting display on the display screen for only a very short time may be repeated every cycle time, and the operation means 22 may be photographed while the display screen is not displayed.

なお、光センサ23cの場合、例えば、タッチパネル24に接触した際の操作手段22の大きさを検出しておき、その大きさを基準にして、像の大きさの変化からディスプレイ21に垂直方向の位置を検出することができる。また、図3(a)(b)のいずれの態様においても、同時に2つの操作手段22の位置を検出できる。   In the case of the optical sensor 23c, for example, the size of the operation means 22 when it touches the touch panel 24 is detected, and the vertical direction of the display 21 is determined from the change in the size of the image with reference to the size. The position can be detected. In any of the modes shown in FIGS. 3A and 3B, the positions of the two operating means 22 can be detected simultaneously.

〔情報端末50の詳細〕
図4は、情報端末50の機能ブロック図の一例を示す。ナビECU20は、CPU、ASIC(Application Specific Integrated Circuit)、入出力インターフェイス、レジスタ、メモリ、スイッチ素子(IGBT(Insulated Gate Bipolar Transistor)等)及びCANインターフェイス等を備えたコンピュータの一形態である。そして、CPUがメモリに記憶されたプログラムを実行するか、又は、ASIC等のハードウェアにより実現される、次表示画面決定部31、表示画面処理部32、入力・表示部33、タッチ予測位置検出部34を有する。また、ハードディスクドライブやフラッシュメモリ等の記憶媒体には表示画面情報記憶部36、システム状態情報記憶部35が実装されている。
[Details of information terminal 50]
FIG. 4 shows an example of a functional block diagram of the information terminal 50. The navigation ECU 20 is a form of a computer including a CPU, an ASIC (Application Specific Integrated Circuit), an input / output interface, a register, a memory, a switch element (IGBT (Insulated Gate Bipolar Transistor), etc.), a CAN interface, and the like. Then, the CPU executes a program stored in the memory, or is realized by hardware such as an ASIC, the next display screen determination unit 31, the display screen processing unit 32, the input / display unit 33, and the touch prediction position detection. Part 34. A display screen information storage unit 36 and a system state information storage unit 35 are mounted on a storage medium such as a hard disk drive or a flash memory.

タッチ予測位置検出部34は、タッチ位置予測センサ23が検出したプレタッチ位置からタッチパネル24に接触した際の接触位置(以下、タッチ予測位置という)を検出する。多くの場合、ディスプレイ21と平行な面においてプレタッチ位置とタッチ予測位置は一致するとしてよい。ユーザはメニュー101の真上から垂直方向にタッチパネル24に操作手段22を接近させることが多いので、プレタッチ位置がそのまま(多少は変動しても)タッチパネル24の接触位置となるからである。   The touch prediction position detection unit 34 detects a contact position (hereinafter referred to as a touch prediction position) when the touch panel 24 is touched from the pre-touch position detected by the touch position prediction sensor 23. In many cases, the pre-touch position and the predicted touch position may coincide with each other on a plane parallel to the display 21. This is because the user often causes the operation means 22 to approach the touch panel 24 in the vertical direction from directly above the menu 101, so that the pre-touch position becomes the contact position of the touch panel 24 as it is (even if it slightly fluctuates).

これに対し、操作手段22の移動(プレタッチ位置の変化)からタッチ予測位置を検出することもできる。例えば、ディスプレイ21に対し水平に操作手段22が移動した場合、移動方向にタッチ予測位置を予測することができる。図1(a)で、操作手段22がメニュー101aからメニュー101bの方向に移動した場合、操作手段22のプレタッチ位置が完全にメニュー101b位置まで到達しなくても、タッチ予測位置がメニュー101bの位置であると検出できる。すなわち、移動方向に最も近いメニュー101の位置をタッチ予測位置とすることができる。   On the other hand, the predicted touch position can be detected from the movement of the operation means 22 (change in the pre-touch position). For example, when the operation means 22 moves horizontally with respect to the display 21, the predicted touch position can be predicted in the moving direction. In FIG. 1A, when the operation means 22 moves from the menu 101a to the menu 101b, the predicted touch position is the position of the menu 101b even if the pre-touch position of the operation means 22 does not reach the menu 101b position completely. Can be detected. That is, the position of the menu 101 closest to the moving direction can be set as the predicted touch position.

また、ディスプレイ21に対し垂直方向に、操作手段22が離間していく場合、タッチ位置予測センサ23の検出範囲であっても、タッチ予測位置検出部34は、タッチ予測位置を未検出とすることができる。これにより、下位階層のメニューリスト200を表示画面から早期に消去することができる。   In addition, when the operation unit 22 moves away from the display 21 in the vertical direction, the predicted touch position detection unit 34 does not detect the predicted touch position even in the detection range of the touch position prediction sensor 23. Can do. Thereby, the lower-level menu list 200 can be deleted from the display screen at an early stage.

また、本実施形態ではどのメニュー101を操作手段22が操作しようとしているかを検出できればよいので、操作手段22がタッチ位置予測センサ23の検出範囲まで接近したら、メニュー101a〜101dのいずれかの位置をタッチ予測位置としてもよい。例えば、操作手段22が最も近いメニュー101の位置をタッチ予測位置とすることができる。この場合、操作手段22のタッチ予測位置をメニュー101の範囲に限定できるので、タッチ予測位置検出部34によるタッチ予測位置の検出が容易になる。なお、タッチ予測位置検出部34は、後述の表示画面処理部32からメニュー101の位置情報(例えば、矩形のメニュー101の4つの頂点の位置情報など)を取得している。   Further, in the present embodiment, it is only necessary to detect which menu 101 is operated by the operation unit 22. Therefore, when the operation unit 22 approaches the detection range of the touch position prediction sensor 23, the position of any of the menus 101 a to 101 d is changed. It is good also as a touch prediction position. For example, the position of the menu 101 that is closest to the operation means 22 can be set as the predicted touch position. In this case, since the predicted touch position of the operation unit 22 can be limited to the range of the menu 101, the predicted touch position can be easily detected by the predicted touch position detection unit 34. Note that the predicted touch position detection unit 34 acquires position information of the menu 101 (for example, position information of four vertices of the rectangular menu 101) from the display screen processing unit 32 described later.

入力・表示部33は、タッチパネル24が検出した接触位置と、操作手段22がタッチパネル24に接触した時に表示されているメニュー101の位置に基づき、ユーザの操作情報を取得する。例えば、図1の「メモリ」のメニュー101bが表示された状態で、メニュー101b上で接触位置が検出されると、入力・表示部33は「メモリ」に対応した操作情報を取得する。この場合、入力・表示部33は、「メモリ」の下位階層のメニューリスト200を表示するよう表示画面処理部32に要求する。なお、表示画面が遷移するだけでなく、操作情報が情報端末50の動作を要求する場合、入力・表示部33は、操作情報に応じた動作、例えば、道路地図表示、現在地の取得、目的地までの経路検索等の機能の実行をナビECU20に要求する。   The input / display unit 33 acquires user operation information based on the contact position detected by the touch panel 24 and the position of the menu 101 displayed when the operation unit 22 touches the touch panel 24. For example, when the contact position is detected on the menu 101b in the state where the “memory” menu 101b of FIG. 1 is displayed, the input / display unit 33 acquires operation information corresponding to “memory”. In this case, the input / display unit 33 requests the display screen processing unit 32 to display the menu list 200 in the lower hierarchy of “memory”. In addition to the transition of the display screen, when the operation information requests an operation of the information terminal 50, the input / display unit 33 performs an operation according to the operation information, for example, road map display, acquisition of the current location, destination The navigation ECU 20 is requested to execute a function such as route search up to.

また、入力・表示部33はシステム状態情報を生成しシステム情報記憶部35に記憶する。システム状態情報は、情報端末50の現在の状態を表す情報である。本実施形態では、特に、現在のディスプレイ21に表示されている表示画面の情報がシステム状態情報であるので、システム表示情報記憶部35には表示画面を識別する画面番号が記憶されている。画面番号により、その表示画面から遷移しうる表示画面を辿ることができる。   The input / display unit 33 generates system state information and stores it in the system information storage unit 35. The system state information is information representing the current state of the information terminal 50. In the present embodiment, in particular, since the information on the display screen currently displayed on the display 21 is system state information, the system display information storage unit 35 stores a screen number for identifying the display screen. A display screen that can transition from the display screen can be traced by the screen number.

表示画面処理部32は、表示画面情報記憶部36を参照して、現在の階層のメニューリスト100のみ、又は、現在の階層のメニューリスト100とその下位階層のメニューリスト200が表示された表示画面を生成する。   The display screen processing unit 32 refers to the display screen information storage unit 36 and displays only the menu list 100 at the current level or the menu list 100 at the current level and the menu list 200 at the lower level. Is generated.

なお、表示される情報はレイヤ構造になっていて、表示画面処理部32は、例えば路地地図のレイヤ、メニューリスト100のレイヤ、等をそれぞれ生成し、入力・表示部33はそれらを重畳して表示画面を表示する。   The displayed information has a layer structure, and the display screen processing unit 32 generates, for example, an alley map layer and a menu list 100 layer, respectively, and the input / display unit 33 superimposes them. Display the display screen.

図5(a)は表示画面情報記憶部36に記憶された画面構成情報の一例を示す図である。画面構成情報には、表示画面の画面番号に対応づけて、メニュー毎に、図形番号、左上又は中心などの所定の位置の位置情報、及び、メニューが含む文字情報が登録されている。図形番号はそのメニューの形状を指定する情報である。図5(b)に示すように、表示画面情報記憶部36には、各図形番号の形状情報が登録されている。図形番号毎にメニューの形状を特定するための大きさや色を決定する色情報が登録されている。図5(b)はメニューの形状が四角形の場合を示すが、同様に円形や楕円形のメニューを指定できる。   FIG. 5A is a diagram showing an example of screen configuration information stored in the display screen information storage unit 36. In the screen configuration information, a graphic number, position information at a predetermined position such as the upper left or center, and character information included in the menu are registered for each menu in association with the screen number of the display screen. The figure number is information for designating the shape of the menu. As shown in FIG. 5B, shape information of each figure number is registered in the display screen information storage unit 36. Color information for determining the size and color for specifying the shape of the menu is registered for each figure number. FIG. 5B shows a case where the menu has a square shape, but a circular or elliptical menu can be specified in the same manner.

図5(a)の文字情報は、メニューリスト100、200に表示される文字や記号である。この他、文字の色情報や大きさ(ポイント数)が含まれることが好ましい。   The character information in FIG. 5A is characters and symbols displayed in the menu lists 100 and 200. In addition, it is preferable that character color information and size (number of points) are included.

また、表示画面情報記憶手段36には、画面番号とメニュー番号毎に、下位階層の画面番号を対応づけた画面遷移情報が登録されている。図6(a)〜(c)は画面遷移情報の一例を示し、図6(a)は画面番号1の表示画面が有するメニュー1〜4に対応づけられた下位階層の表示画面の画面番号を、図6(b)は画面番号4の表示画面が有するメニュー1〜4に対応づけられた下位階層の表示画面の画面番号を、それぞれ示す。   In the display screen information storage unit 36, screen transition information in which screen numbers of lower layers are associated with each screen number and menu number is registered. FIGS. 6A to 6C show examples of screen transition information. FIG. 6A shows screen numbers of lower-level display screens associated with menus 1 to 4 included in the display screen with screen number 1. FIG. 6B shows the screen numbers of the lower-level display screens associated with the menus 1 to 4 included in the display screen with the screen number 4.

例えば、操作手段22が「画面番号1の表示画面においてメニュー3」に接触した場合、下位階層の表示画面として画面番号4の表示画面を生成すればよいことが分かる。同様に、操作手段22が「画面番号4の表示画面においてメニュー4」に接触すると、下位階層の表示画面として画面番号6の表示画面を生成すればよいことが分かる。   For example, when the operation means 22 touches “menu 3 on the display screen of screen number 1”, it can be understood that a display screen of screen number 4 may be generated as a lower-layer display screen. Similarly, when the operation means 22 touches “menu 4 on the display screen with screen number 4”, it can be seen that a display screen with screen number 6 may be generated as a lower-layer display screen.

図5(a)の画面構成情報に示すように、画面番号1のメニュー1〜4が図1(a)の表示画面に対応する場合、操作手段22が「ジャンル」のメニュー101c(メニュー3に相当)に接触すると、下位階層の「食べる」「買う」「泊まる」「遊ぶ」が表示される。   As shown in the screen configuration information of FIG. 5A, when the menus 1 to 4 with the screen number 1 correspond to the display screen of FIG. 1A, the operation means 22 is set to the “genre” menu 101c (menu 3). Contact), “eating”, “buying”, “staying”, and “playing” in the lower hierarchy are displayed.

次表示画面決定部31は、システム状態情報に登録された現在ディスプレイ21に表示されている表示画面の画面番号と、タッチ予測位置に基づき、操作手段22が接近したメニュー番号を決定する。そして、決定したメニュー番号に基づき画面遷移情報を参照して下位階層の表示画面の画面番号を決定する。下位階層の表示画面の画面番号の決定手順は、操作手段22がタッチパネル24に接触する場合と同様である。   The next display screen determination unit 31 determines the menu number to which the operation unit 22 has approached based on the screen number of the display screen currently displayed on the display 21 registered in the system state information and the predicted touch position. Then, the screen number of the lower-level display screen is determined by referring to the screen transition information based on the determined menu number. The procedure for determining the screen number of the lower-level display screen is the same as when the operation means 22 touches the touch panel 24.

例えば、操作手段22のタッチ予測位置が「画面番号1のメニュー3」の場合、次表示画面決定部31は画面番号4の表示画面を下位階層の表示画面に決定する。この場合、図1(b)に示したように、「食べる」「買う」「泊まる」「遊ぶ」のメニューリスト200aが表示される。   For example, when the predicted touch position of the operation unit 22 is “menu 3 of screen number 1”, the next display screen determination unit 31 determines the display screen of screen number 4 to be a lower-layer display screen. In this case, as shown in FIG. 1B, a menu list 200a of “eat” “buy” “stay” “play” is displayed.

最下位階層の表示画面について説明する。図6(c)に示すように最下位階層の表示画面には下位階層の画面番号が対応づけられていない。図6(c)では画面番号Zが最下位層の表示画面に相当し、例えば画面番号Zでメニュー1〜4に操作手段22が接触すると、ナビECU20はユーザが辿ったメニューの詳細情報を表示する。詳細情報は、例えば「電話番号」のメニュー101dから辿って表示された電話番号「01−2345−6789」、宿泊施設の住所や電話番号、エアコンの操作画面等である。   The display screen of the lowest hierarchy will be described. As shown in FIG. 6C, the screen number of the lower hierarchy is not associated with the display screen of the lowest hierarchy. In FIG. 6C, the screen number Z corresponds to the display screen of the lowest layer. For example, when the operation means 22 touches the menus 1 to 4 with the screen number Z, the navigation ECU 20 displays detailed information on the menu followed by the user. To do. The detailed information includes, for example, the telephone number “01-2345-6789” displayed by tracing from the “telephone number” menu 101d, the address and telephone number of the accommodation facility, and the operation screen of the air conditioner.

例えば、電話番号「01−2345−6789」に操作手段22が接触すると、ナビECU20はこの番号に電話をかけ、表示画面を発呼中のものに遷移させる。発呼中の表示画面は予め定められている。発呼後(又は発呼中でもよい)は、例えば画面番号Zの元の表示画面や予め定められた表示画面に遷移するので、以降は、画面遷移情報に従い、同様に表示画面を遷移させていくことができる。   For example, when the operation means 22 comes into contact with the telephone number “01-2345-6789”, the navigation ECU 20 makes a call to this number and changes the display screen to the calling one. The display screen during calling is determined in advance. After making a call (or during a call), for example, the display screen transitions to the original display screen of screen number Z or a predetermined display screen, and thereafter the display screen is similarly changed according to the screen transition information. be able to.

ところで、操作手段22により選択(接触)可能に表示されるメニューリスト100と、下位階層のメニューリスト200とでは、大きさ、輝度、色等の表示態様を変更して表示した方が、ユーザの視認性に優れ操作性が向上する。したがって、表示画面処理部32は、次表示画面決定部31から下位階層の表示画面の画面番号を通知された場合、各メニューを縮小したり、文字のポイント数を小さくしたり、輝度を小さくしたりして表示する。これにより、ユーザが誤って下位階層のメニューリスト200に操作手段22を接触させたり、ディスプレイ21が下位階層のメニューリスト200で占有されることを防止できる。   By the way, in the menu list 100 displayed so as to be selectable (contactable) by the operation means 22 and the menu list 200 in the lower hierarchy, it is preferable that the display mode such as size, brightness, color, etc. is changed and displayed. Excellent visibility and improved operability. Therefore, when the screen number of the lower layer display screen is notified from the next display screen determination unit 31, the display screen processing unit 32 reduces each menu, reduces the number of character points, or decreases the brightness. To display. As a result, it is possible to prevent the user from accidentally touching the operation means 22 with the lower-level menu list 200 or the display 21 being occupied by the lower-level menu list 200.

〔情報端末50の動作手順〕
図7は、情報端末50の動作手順の一例を示すフローチャート図である。図7のフローチャート図は、例えば情報端末50のスイッチがオンになるとスタートする。表示画面処理部32は、予め定められた最上位の表示画面の画面構成情報を読み出して表示画面を生成する(S10)。そして、入力・表示部33はその表示画面をディスプレイ21に表示する。システム状態情報記憶部35には、現在の表示画面の画面番号が記憶される。
[Operation procedure of information terminal 50]
FIG. 7 is a flowchart showing an example of the operation procedure of the information terminal 50. The flowchart in FIG. 7 starts when, for example, the information terminal 50 is switched on. The display screen processing unit 32 reads the screen configuration information of a predetermined top-level display screen and generates a display screen (S10). The input / display unit 33 displays the display screen on the display 21. The system state information storage unit 35 stores the screen number of the current display screen.

ディスプレイ21に表示画面を表示している間、タッチ位置予測センサ23は継続的にプレタッチ位置を検出し、タッチ予測位置検出部34はプレタッチ位置からタッチ予測位置を検出する(S20)。   While the display screen is displayed on the display 21, the touch position prediction sensor 23 continuously detects the pre-touch position, and the touch prediction position detection unit 34 detects the touch prediction position from the pre-touch position (S20).

ナビECU20はタッチ予測位置が検出されるか否かを判定し(S30)、タッチ予測位置が検出されない場合(S30のNo)は、操作手段22が検出範囲にないことになるので、ステップS20のタッチ予測位置の検出を継続する。   The navigation ECU 20 determines whether or not the predicted touch position is detected (S30). If the predicted touch position is not detected (No in S30), the operation means 22 is not in the detection range, so in step S20. Continue to detect the predicted touch position.

タッチ予測位置が検出された場合(S30のYes)、システム状態情報に登録された現在の表示画面の画面番号とタッチ予測位置に基づき、接触しようとしているメニュー番号を決定し、そのメニュー番号に基づき画面遷移情報を参照して下位階層の表示画面の画面番号を決定する(S40)。   When the predicted touch position is detected (Yes in S30), the menu number to be touched is determined based on the screen number of the current display screen registered in the system state information and the predicted touch position, and based on the menu number The screen number of the lower-level display screen is determined with reference to the screen transition information (S40).

画面遷移情報に下位階層の表示画面の画面番号が登録されていない場合があるので、表示画面処理部32は、表示すべき下位階層のメニューリスト200があるか否かを判定する(S50)。表示すべきメニューリスト200がない場合(S50のNo)、表示画面処理部32はステップS20に戻りプレタッチ位置の検出を繰り返す。   Since the screen number of the lower-level display screen may not be registered in the screen transition information, the display screen processing unit 32 determines whether there is a lower-level menu list 200 to be displayed (S50). When there is no menu list 200 to be displayed (No in S50), the display screen processing unit 32 returns to Step S20 and repeats the detection of the pre-touch position.

表示すべきメニューリスト200がある場合(S50のYes)、表示画面処理部32は、表示画面情報記憶部36からその表示画面の画面構成情報を読み出して、下位階層のメニューリスト200の表示画面を生成する(S60)。そして、入力・表示部33は、下位階層のメニューリスト200を現在の表示画面に表示する(S70)。新たなレイヤを重畳してもよいし、メニューリスト100と下位階層のメニューリスト200が含まれた表示画面で現在の表示画面を更新してもよい。   When there is the menu list 200 to be displayed (Yes in S50), the display screen processing unit 32 reads the screen configuration information of the display screen from the display screen information storage unit 36, and displays the display screen of the lower-level menu list 200. Generate (S60). Then, the input / display unit 33 displays the lower-level menu list 200 on the current display screen (S70). A new layer may be superimposed, or the current display screen may be updated with a display screen including the menu list 100 and the lower-level menu list 200.

ステップS70の後、又は、ステップS70に至るまでの間、入力・表示部33は操作手段22がタッチパネル24に接触したか否かを判定する(S80)。操作手段22がタッチパネル24に接触した場合(S80のYes)、入力・表示部33は接触位置を表示画面処理部32に通知するので、表示画面処理部32は、画面遷移情報に基づき接触位置にあるメニュー101の下位階層の表示画面の画面番号を決定し、その画面番号の表示画面を生成する(S90)。そして、入力・表示部33は表示画面を更新する(S100)。情報端末50は以上の処理を繰り返す。   After step S70 or until step S70, the input / display unit 33 determines whether or not the operating means 22 has touched the touch panel 24 (S80). When the operation unit 22 touches the touch panel 24 (Yes in S80), the input / display unit 33 notifies the display screen processing unit 32 of the contact position, so the display screen processing unit 32 sets the contact position based on the screen transition information. A screen number of a display screen of a lower hierarchy of a certain menu 101 is determined, and a display screen of the screen number is generated (S90). Then, the input / display unit 33 updates the display screen (S100). The information terminal 50 repeats the above processing.

〔次画面表示の例〕
・上位階層のメニューリスト100
これまでは、下位階層のメニューリスト200を表示したが、タッチ予測位置を利用して上位階層のメニューリスト100を表示することができる。図8(a)は、上位階層のメニューリスト100が表示された表示画面の一例を示す、図1(c)で操作手段22が「メモリ」のメニュー101bに接触すると、図1(d)に示す表示画面が表示された。図1(d)の表示画面では、上位階層「50音」「メモリ」「ジャンル」「電話番号」が表示されないが、操作手段22のタッチ予測位置が「戻る」メニュー102の位置に一致すると、現在の表示画面の上位階層のメニューリスト100が表示される。
[Example of next screen display]
・ Higher level menu list 100
Up to now, the menu list 200 of the lower hierarchy has been displayed, but the menu list 100 of the upper hierarchy can be displayed using the predicted touch position. FIG. 8A shows an example of a display screen on which the higher-level menu list 100 is displayed. When the operation unit 22 touches the “memory” menu 101b in FIG. 1C, FIG. The display screen shown is displayed. In the display screen of FIG. 1D, the upper hierarchy “50 sounds”, “memory”, “genre”, and “phone number” are not displayed, but when the predicted touch position of the operation means 22 matches the position of the “return” menu 102, A menu list 100 in the upper hierarchy of the current display screen is displayed.

上位階層のメニューリスト100の表示は、次表示画面決定部31が図6(a)〜(c)の画面遷移情報を下位階層から上位階層に辿ることで実現できる。この場合、タッチ予測位置は「戻る」メニュー102の位置であり、タッチ予測位置により「戻る」が検出された場合、次表示画面決定部31は上位階層のメニューリスト100を生成するよう表示画面処理部32に要求する。   The display of the menu list 100 of the upper hierarchy can be realized by the next display screen determining unit 31 tracing the screen transition information of FIGS. 6A to 6C from the lower hierarchy to the upper hierarchy. In this case, the predicted touch position is the position of the “return” menu 102, and when “return” is detected based on the predicted touch position, the next display screen determining unit 31 performs display screen processing so as to generate the menu list 100 of the upper hierarchy. Request to unit 32.

なお、図8(a)の現在の表示画面は、上位階層の「メモリ」のメニュー101bに操作手段22が接触して遷移したものであるので、上位階層のメニューリスト100の「メモリ」を強調してもよい。図8(a)では「メモリ」を2重線で囲んだが、例えば、輝度を大きくする、点滅する、等により強調することができる。これにより、上位階層で操作手段22が接触したメニュー101bをユーザが把握しやすくできる。   Note that the current display screen in FIG. 8A is a screen in which the operation unit 22 has been brought into contact with the upper-level “memory” menu 101b and transitioned, and therefore, “memory” in the upper-level menu list 100 is highlighted. May be. In FIG. 8A, the “memory” is surrounded by a double line, but can be emphasized by increasing the brightness, blinking, or the like. This makes it easier for the user to grasp the menu 101b with which the operation means 22 has contacted in the upper hierarchy.

・下位階層の更に下位階層のメニューリスト300
図1では下位階層のメニューリスト200を表示したが、下位階層のさらに下位階層(以下、孫階層という)のメニューリスト300を表示することができる。図8(b)は孫階層のメニューリスト300が表示された表示画面の一例を示す。「ジャンル」のメニュー101cの下位階層のメニューリスト200は、「食べる」「買う」「泊まる」「遊ぶ」である。そして、「遊ぶ」の下位階層のメニューリスト300は、例えば「遊園地」「水族館」「動物園」「プロ野球」である。
-A menu list 300 of a lower hierarchy below the lower hierarchy
Although the menu list 200 of the lower hierarchy is displayed in FIG. 1, a menu list 300 of a lower hierarchy (hereinafter referred to as a grandchild hierarchy) of the lower hierarchy can be displayed. FIG. 8B shows an example of a display screen on which the grandchild menu list 300 is displayed. The menu list 200 in the lower hierarchy of the “genre” menu 101c is “eat”, “buy”, “stay”, and “play”. The menu list 300 in the lower hierarchy of “play” is, for example, “amusement park”, “aquarium”, “zoo”, “professional baseball”.

なお、ユーザが下位階層のメニューリスト200aのうちどのメニュー200a1〜200a4に操作手段22を接触させるかは次表示画面決定部31に入力されないので、メニュー200a1〜200a4のどの下位階層のメニューリスト300を表示すればよいか不明である。そこで、次表示画面決定部31は、例えば、下位階層のメニューリスト200aの右又は左から順番にそのメニュー200a1〜200a4の更に下位階層のメニューリスト300を表示する。   Note that which menu 200a1 to 200a4 of the lower layer menu list 200a the user should contact with the operation means 22 is not input to the next display screen determination unit 31, and therefore which lower layer menu list 300 of the menus 200a1 to 200a4 is selected. It is unclear whether it should be displayed. Therefore, for example, the next display screen determination unit 31 displays the menu list 300 of the lower hierarchy of the menus 200a1 to 200a4 sequentially from the right or left of the menu list 200a of the lower hierarchy.

これにより、ユーザは1回もタッチパネル24にタッチすることなく、3階層のメニューリスト100、200、300を把握が容易になり、操作性を向上させることができる。   Accordingly, the user can easily grasp the three-level menu lists 100, 200, and 300 without touching the touch panel 24 once, and the operability can be improved.

なお、下位階層のメニューリスト200と孫階層のメニューリスト300の表示を同時に開始するとユーザが戸惑うおそれがあるので、例えば、下位階層のメニューリスト200を表示してから所定時間が経過したら孫階層のメニューリスト300を表示することが好適となる。時間差をもって孫階層のメニューリスト300が表示されれば、ユーザは下位階層と孫階層の関係を把握しやすい。   If the display of the lower-level menu list 200 and the grand-level menu list 300 is started at the same time, the user may be confused. For example, when a predetermined time elapses after the lower-level menu list 200 is displayed, It is preferable to display the menu list 300. If the grandchild menu list 300 is displayed with a time difference, the user can easily grasp the relationship between the lower hierarchy and the grandchild hierarchy.

孫階層のメニューリスト300は、次表示画面決定部31が図6(a)〜(c)の画面遷移情報を上位階層から下位階層に辿ることで実現できる。すなわち、下位階層までを表示する構成と同じ構成で実現できる。   The menu list 300 of the grandchild hierarchy can be realized by the next display screen determination unit 31 tracing the screen transition information of FIGS. 6A to 6C from the upper hierarchy to the lower hierarchy. That is, it is realizable with the same structure as the structure which displays to a lower hierarchy.

・動作内容の表示
これまではメニューリスト200を例に説明したが、本実施形態の情報端末50は、例えばメニュー101を操作した場合の情報端末50の動作内容を表示させることができる。情報端末50の動作内容とは例えば、「電話をかける」、「エアコンの温度を調整する」、「室内の照明を操作する」「音楽再生する」等である。
-Display of operation content The menu list 200 has been described above as an example, but the information terminal 50 of the present embodiment can display the operation content of the information terminal 50 when the menu 101 is operated, for example. The operation content of the information terminal 50 includes, for example, “calling”, “adjusting the temperature of the air conditioner”, “operating indoor lighting”, “playing music”, and the like.

図9(a)は「電話をかける」場合の動作内容の一例を、図9(b)は「エアコンの温度を調整する」場合の動作内容の一例をそれぞれ示す。タッチ予測位置が例えば「Bさん」の位置の場合、次表示画面決定部31は、操作手段22が「Bさん」の電話番号に接触した場合の情報端末50の動作内容401を表示する。動作内容401は、例えば画面番号とメニュー番号に対応づけて表示画面情報記憶部36に記憶されている。   FIG. 9A shows an example of the operation content when “calling”, and FIG. 9B shows an example of the operation content when “adjusting the temperature of the air conditioner”. When the predicted touch position is, for example, the position “Mr. B”, the next display screen determination unit 31 displays the operation content 401 of the information terminal 50 when the operation unit 22 contacts the telephone number “Mr. B”. The operation content 401 is stored in the display screen information storage unit 36 in association with, for example, a screen number and a menu number.

例えば、電話番号に操作手段22が接触した場合、情報端末50は「Bさん」を発呼するので、図9(a)では「電話をかける」という動作内容401が表示される。   For example, when the operation means 22 comes into contact with the telephone number, the information terminal 50 calls “Mr. B”, and therefore, the operation content 401 “make a call” is displayed in FIG. 9A.

また、図9(b)に示すように、タッチ予測位置が例えば、設定温度を上げることを意味する「△」のアイコンの位置の場合、次表示画面決定部31は、操作手段22が「△」に接触した場合の情報端末50の動作内容402を表示する。例えば、エアコンの設定画面で「△」を操作手段22が接触した場合、情報端末50は設定温度を高くするので、図9(b)では「設定温度23℃→23℃+0.5℃」という動作内容402が表示される。   Further, as shown in FIG. 9B, when the predicted touch position is, for example, the position of the “△” icon that means increasing the set temperature, the next display screen determining unit 31 has the operation means 22 that “△” The operation content 402 of the information terminal 50 when “ For example, when the operation means 22 touches “△” on the setting screen of the air conditioner, the information terminal 50 increases the set temperature, so that “set temperature 23 ° C. → 23 ° C. + 0.5 ° C.” in FIG. 9B. The operation content 402 is displayed.

ユーザが下位階層を辿っていくと、最下位階層のメニューよりもさらに下位にメニューがあると誤解して操作してしまう場合がある。この場合、メニューの操作に応じて情報端末50が動作してしまうので、その動作を取り消すための操作が新たに必要となる。しかし、本実施形態の情報端末50は、操作手段22をメニューに接近させただけで動作内容が表示されるので、動作の入力及び取り消すための操作を低減することができる。   When the user follows the lower hierarchy, the user may misunderstand that there is a menu further below the lowest hierarchy menu. In this case, since the information terminal 50 operates according to the menu operation, an operation for canceling the operation is newly required. However, the information terminal 50 according to the present embodiment displays the operation content only by bringing the operation means 22 close to the menu, so that the operation for inputting and canceling the operation can be reduced.

・メニューが表示されていない場合に表示される動作内容
これまでは、肉眼で目視可能に表示されたメニューに操作手段22を接近させてメニューリスト200又は動作内容を表示したが、選択可能なメニューは目視可能に表示されていなくてもよい。図10(a)は、選択可能なメニュー500a〜500c(以下、区別しない場合メニュー500という)と共に表示された道路地図の表示画面の一例を示す。図10(a)では道路地図の表示画面に対し操作できるメニュー500cが常に表示される。
-Operational contents displayed when menu is not displayed Up to now, the menu list 200 or the operation contents are displayed by bringing the operation means 22 close to the menu displayed visually with the naked eye. May not be visible. FIG. 10A shows an example of a road map display screen displayed together with selectable menus 500a to 500c (hereinafter referred to as menu 500 when not distinguished). In FIG. 10A, a menu 500c that can be operated on the road map display screen is always displayed.

これまで説明したように図10(a)の道路地図の表示画面に対し、本実施形態の情報端末50を適用すれば、メニュー500に操作手段22を接近させることでそのメニュー500の下位階層のメニューや動作内容を表示することができる。図10(a)では、「地点登録」のメニュー500bに対し「現在地を登録します」という動作内容403が表示されている。   As described above, if the information terminal 50 of this embodiment is applied to the road map display screen of FIG. 10A, the operation means 22 is brought close to the menu 500, so that Menus and operation details can be displayed. In FIG. 10A, an operation content 403 “Register your current location” is displayed for the “Register location” menu 500b.

これに対し、図10(b)に示すように、メニュー500を非表示にしても動作内容403を表示できる。図10(a)と同じ位置に操作手段22が接近すると、「地点登録」の「現在地を登録します」という動作内容403が表示される。動作内容403の表示と共に、メニュー500bを表示してもよい。   On the other hand, as shown in FIG. 10B, the operation content 403 can be displayed even if the menu 500 is not displayed. When the operating means 22 approaches the same position as in FIG. 10A, the operation content 403 “Register current location” of “Point registration” is displayed. The menu 500b may be displayed together with the display of the operation content 403.

したがって、メニュー500を非表示にできるので、道路地図の表示領域を広くとることができ、ユーザが操作手段22をディスプレイ21に接近させれば動作内容が表示されるので、操作方法が不明となることも防止できる。なお、図10では動作内容を例に説明したが、下位階層のメニューにも適用できる。   Therefore, since the menu 500 can be hidden, the display area of the road map can be widened, and the operation content is displayed when the user brings the operation means 22 close to the display 21. Therefore, the operation method becomes unknown. Can also be prevented. In FIG. 10, the operation content has been described as an example, but the present invention can also be applied to a lower-level menu.

メニュー500の表示の有無は、ユーザが設定できるようになっているため、情報端末50の使用方法を十分に把握したユーザはメニューを非表示にすればよいし、使い始めたばかりのユーザはメニュー500を表示することができる。また、例えば表示画面毎にユーザによるメニュー500の操作回数をカウントし、操作回数が十分に大きくなったらユーザの設定がなくてもメニューを非表示にしてもよい。   Since whether or not the menu 500 is displayed can be set by the user, a user who has fully grasped how to use the information terminal 50 may hide the menu, and a user who has just started using the menu 500 Can be displayed. Further, for example, the number of operations of the menu 500 by the user may be counted for each display screen, and the menu may be hidden even if there is no user setting when the number of operations is sufficiently large.

以上説明したように、本実施形態の情報端末50は、操作手段22がディスプレイ21に接近しただけで下位又は上位のメニューリスト100、200、300を表示できるので、操作手段22をメニューに接触させたり「戻る」操作が必要ないので、操作性を格段に向上できる。また、操作手段22が近接したメニューのメニューリスト100しか表示しないので、ユーザに不要な情報を与えるおそれもない。   As described above, the information terminal 50 according to the present embodiment can display the lower or upper menu list 100, 200, 300 only by the operation unit 22 approaching the display 21, so that the operation unit 22 is brought into contact with the menu. Or “return” operation is not required, and operability can be greatly improved. In addition, since the operation means 22 displays only the menu list 100 of the adjacent menu, there is no possibility of giving unnecessary information to the user.

情報端末のディスプレイに表示される表示画面の一例を示す図である。It is a figure which shows an example of the display screen displayed on the display of an information terminal. 情報端末のハードウェア構成図の一例である。It is an example of the hardware block diagram of an information terminal. タッチ位置予測センサの概略を模式的に説明する図の一例である。It is an example of the figure which illustrates the outline of a touch position prediction sensor typically. 情報端末の機能ブロック図の一例である。It is an example of the functional block diagram of an information terminal. 表示画面情報記憶部に記憶された画面構成情報の一例を示す図である。It is a figure which shows an example of the screen structure information memorize | stored in the display screen information storage part. 画面遷移情報の一例を示す図である。It is a figure which shows an example of screen transition information. 情報端末の動作手順の一例を示すフローチャート図である。It is a flowchart figure which shows an example of the operation | movement procedure of an information terminal. 上位階層のメニューリストが表示された表示画面の一例を示す図である。It is a figure which shows an example of the display screen on which the menu list of the upper hierarchy was displayed. 情報端末の動作内容の表示例を示す図である。It is a figure which shows the example of a display of the operation content of an information terminal. メニューと共に表示された道路地図の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the road map displayed with the menu. 従来のナビゲーション装置が表示する表示画面の一例を示す図である。It is a figure which shows an example of the display screen which the conventional navigation apparatus displays.

符号の説明Explanation of symbols

21 ディスプレイ
22 操作手段
23 タッチ位置予測センサ
24 タッチパネル
31 次表示画面決定部
32 表示画面処理部
33 入力・表示部
34 タッチ予測位置検出部
35 システム状態情報記憶部
36 表示画面情報記憶部
50 情報端末
DESCRIPTION OF SYMBOLS 21 Display 22 Operation means 23 Touch position prediction sensor 24 Touch panel 31 Next display screen determination part 32 Display screen processing part 33 Input / display part 34 Touch prediction position detection part 35 System state information storage part 36 Display screen information storage part 50 Information terminal

Claims (7)

接触位置を検出する接触位置検出手段に操作手段が接触すると、表示装置に表示された接触位置に対応する上位階層の選択肢の、下位階層の選択肢が表示される情報端末であって、
前記操作手段が前記接触位置検出手段の前方の空間に近接したことを検出するセンサと、
前記センサにより前記操作手段が上位階層の選択肢に近接したことが検出された場合、当該選択肢の下位階層の選択肢を前記表示装置に表示する表示制御手段と、
を有することを特徴とする情報端末。
When the operating means comes into contact with the contact position detecting means for detecting the contact position, the information terminal displays the lower hierarchy options of the upper hierarchy options corresponding to the contact positions displayed on the display device,
A sensor for detecting that the operating means is close to the space in front of the contact position detecting means;
When it is detected by the sensor that the operation means is close to an option on an upper hierarchy, display control means for displaying an option on a lower hierarchy of the option on the display device;
An information terminal comprising:
前記センサにより所定の選択肢に前記操作手段が近接したことが検出された場合、前記表示制御手段は、上位階層の選択肢を前記表示装置に表示する、
ことを特徴とする請求項1記載の情報端末。
When it is detected by the sensor that the operation means is close to a predetermined option, the display control means displays an upper-layer option on the display device.
The information terminal according to claim 1.
前記センサにより最下位階層の選択肢に前記操作手段が近接したことが検出された場合、前記表示制御手段は、下位階層でなく該選択肢を接触した場合の動作内容を前記表示装置に表示する、
ことを特徴とする請求項1記載の情報端末。
When it is detected by the sensor that the operation means is close to the option of the lowest hierarchy, the display control means displays the operation content when the option is touched instead of the lower hierarchy on the display device.
The information terminal according to claim 1.
前記表示装置に表示される選択肢は目視不能である、
ことを特徴とする請求項1又は3項記載の情報端末。
Options displayed on the display device are invisible.
The information terminal according to claim 1 or 3, characterized by the above.
当該情報端末は、車両に搭載されているか、少なくとも車載可能である、
ことを特徴とする請求項1〜4いずれか1項記載の情報端末。
The information terminal is mounted on the vehicle, or at least can be mounted on the vehicle.
The information terminal according to claim 1, wherein the information terminal is an information terminal.
請求項1〜5いずれか記載の情報端末と、
車両の現在位置を検出する位置検出手段と、を有し
前記表示装置には車両の現在位置と共に道路地図が表示される、
ことを特徴とするナビゲーション装置。
Information terminal according to any one of claims 1 to 5,
Position detection means for detecting the current position of the vehicle, and the road map is displayed together with the current position of the vehicle on the display device.
A navigation device characterized by that.
接触位置を検出する接触位置検出手段に操作手段が接触すると、表示装置に表示された接触位置に対応する上位階層の選択肢の、下位階層の選択肢が表示される選択肢表示方法であって、
センサが、前記操作手段が前記接触位置検出手段の前方の空間に近接したことを検出するステップと、
前記センサにより前記操作手段が上位階層の選択肢に近接したことが検出された場合、表示制御手段が、当該選択肢の下位階層の選択肢を前記表示装置に表示するステップと、
を有することを特徴とする選択肢表示方法。
When the operation means contacts the contact position detection means for detecting the contact position, an option display method for displaying the lower hierarchy options of the upper hierarchy options corresponding to the contact positions displayed on the display device,
A sensor detecting that the operating means approaches a space in front of the contact position detecting means;
When the sensor detects that the operation means is close to an option on the upper hierarchy, the display control means displays the option on the lower hierarchy of the option on the display device;
An option display method characterized by comprising:
JP2008179421A 2008-07-09 2008-07-09 Information terminal, navigation apparatus, and option display method Pending JP2010019643A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008179421A JP2010019643A (en) 2008-07-09 2008-07-09 Information terminal, navigation apparatus, and option display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008179421A JP2010019643A (en) 2008-07-09 2008-07-09 Information terminal, navigation apparatus, and option display method

Publications (1)

Publication Number Publication Date
JP2010019643A true JP2010019643A (en) 2010-01-28

Family

ID=41704710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008179421A Pending JP2010019643A (en) 2008-07-09 2008-07-09 Information terminal, navigation apparatus, and option display method

Country Status (1)

Country Link
JP (1) JP2010019643A (en)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134272A (en) * 2009-12-25 2011-07-07 Sony Corp Information processor, information processing method, and program
JP2012008954A (en) * 2010-06-28 2012-01-12 Brother Ind Ltd Input device, compound machine and input control program
EP2469396A2 (en) * 2010-12-27 2012-06-27 Sony Corporation Display control device, method and computer program product
WO2013063372A1 (en) * 2011-10-26 2013-05-02 Google Inc. Detecting object moving toward or away from a computing device
JP2013520727A (en) * 2010-02-19 2013-06-06 マイクロソフト コーポレーション Off-screen gestures for creating on-screen input
CN103593045A (en) * 2012-08-14 2014-02-19 富士施乐株式会社 Display control device, image forming apparatus, and display control method
JP2014092988A (en) * 2012-11-05 2014-05-19 Ntt Docomo Inc Terminal device, screen display method, hover position correction method, and program
JP2014232475A (en) * 2013-05-30 2014-12-11 京セラドキュメントソリューションズ株式会社 Display device, electronic apparatus, and image forming apparatus
JP2015028807A (en) * 2014-10-01 2015-02-12 株式会社リコー Operation display device and method
JP2016048557A (en) * 2015-09-18 2016-04-07 古野電気株式会社 Vessel information display device, vessel information display method and vessel information display program
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
JP2016099655A (en) * 2014-11-18 2016-05-30 コニカミノルタ株式会社 Image forming apparatus, control method of the same, and control program of the same
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
KR20160091889A (en) * 2013-10-01 2016-08-03 퀀텀 인터페이스, 엘엘씨 Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
US9411498B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Brush, carbon-copy, and fill gestures
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
JP2017037680A (en) * 2016-11-21 2017-02-16 富士ゼロックス株式会社 Display control device and program
JP2017041213A (en) * 2015-08-21 2017-02-23 ヤマハ株式会社 Synthetic sound editing device
US9671930B2 (en) 2011-04-27 2017-06-06 Furuno Electric Co., Ltd. Cross-application information display device, information display method for harmonizing display positions of menu items
JP2017142806A (en) * 2017-02-24 2017-08-17 富士ゼロックス株式会社 Display control device and program
US9946383B2 (en) 2014-03-14 2018-04-17 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
US9946370B2 (en) 2005-12-30 2018-04-17 Microsoft Technology Licensing, Llc Unintentional touch rejection
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
JP2019133692A (en) * 2019-03-12 2019-08-08 富士ゼロックス株式会社 Display control apparatus and program
US10503359B2 (en) 2012-11-15 2019-12-10 Quantum Interface, Llc Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
US10656750B2 (en) 2012-11-12 2020-05-19 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
US11205075B2 (en) 2018-01-10 2021-12-21 Quantum Interface, Llc Interfaces, systems and apparatuses for constructing 3D AR environment overlays, and methods for making and using same
US11221748B2 (en) 2014-06-04 2022-01-11 Quantum Interface, Llc Apparatuses for selection objects in Virtual or Augmented Reality environments
US11226714B2 (en) 2018-03-07 2022-01-18 Quantum Interface, Llc Systems, apparatuses, interfaces and implementing methods for displaying and manipulating temporal or sequential objects
US11775074B2 (en) 2014-10-01 2023-10-03 Quantum Interface, Llc Apparatuses, systems, and/or interfaces for embedding selfies into or onto images captured by mobile or wearable devices and method for implementing same

Cited By (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10019080B2 (en) 2005-12-30 2018-07-10 Microsoft Technology Licensing, Llc Unintentional touch rejection
US9946370B2 (en) 2005-12-30 2018-04-17 Microsoft Technology Licensing, Llc Unintentional touch rejection
US9952718B2 (en) 2005-12-30 2018-04-24 Microsoft Technology Licensing, Llc Unintentional touch rejection
JP2011134272A (en) * 2009-12-25 2011-07-07 Sony Corp Information processor, information processing method, and program
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US9411498B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Brush, carbon-copy, and fill gestures
US9857970B2 (en) 2010-01-28 2018-01-02 Microsoft Technology Licensing, Llc Copy and staple gestures
US10282086B2 (en) 2010-01-28 2019-05-07 Microsoft Technology Licensing, Llc Brush, carbon-copy, and fill gestures
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
JP2013520727A (en) * 2010-02-19 2013-06-06 マイクロソフト コーポレーション Off-screen gestures for creating on-screen input
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US9274682B2 (en) 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US10268367B2 (en) 2010-02-19 2019-04-23 Microsoft Technology Licensing, Llc Radial menus with bezel gestures
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US11055050B2 (en) 2010-02-25 2021-07-06 Microsoft Technology Licensing, Llc Multi-device pairing and combined display
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
JP2012008954A (en) * 2010-06-28 2012-01-12 Brother Ind Ltd Input device, compound machine and input control program
US9329776B2 (en) 2010-12-27 2016-05-03 Sony Corporation Display control device, method and computer program product
JP2012138012A (en) * 2010-12-27 2012-07-19 Sony Corp Display control device and method
EP2469396A2 (en) * 2010-12-27 2012-06-27 Sony Corporation Display control device, method and computer program product
US9671930B2 (en) 2011-04-27 2017-06-06 Furuno Electric Co., Ltd. Cross-application information display device, information display method for harmonizing display positions of menu items
WO2013063372A1 (en) * 2011-10-26 2013-05-02 Google Inc. Detecting object moving toward or away from a computing device
US9753613B2 (en) 2012-08-14 2017-09-05 Fuji Xerox Co., Ltd. Display control device with functionality in a response to an approaching object
CN107967113A (en) * 2012-08-14 2018-04-27 富士施乐株式会社 Display control unit, image forming apparatus and display control method
US20190346980A1 (en) 2012-08-14 2019-11-14 Fuji Xerox Co., Ltd. Non-transitory storage medium with functionality in response to an object and change in capacitance
US20170083191A1 (en) * 2012-08-14 2017-03-23 Fuji Xerox Co., Ltd. Display control device, image forming apparatus, display control method, and non-transitory computer readable medium
US11237701B2 (en) 2012-08-14 2022-02-01 Fujifilm Business Innovation Corp. Non-transitory storage medium with functionality in response to an object and change in capacitance
CN107967113B (en) * 2012-08-14 2021-10-26 富士胶片商业创新有限公司 Display control device, image forming apparatus, and display control method
US9529496B2 (en) 2012-08-14 2016-12-27 Fuji Xerox Co., Ltd. Display control device, image forming apparatus, display control method, and non-transitory computer readable medium
JP2014038444A (en) * 2012-08-14 2014-02-27 Fuji Xerox Co Ltd Display control device, and image forming apparatus and program
CN103593045A (en) * 2012-08-14 2014-02-19 富士施乐株式会社 Display control device, image forming apparatus, and display control method
CN109375852A (en) * 2012-08-14 2019-02-22 富士施乐株式会社 Display control unit, image forming apparatus and display control method
CN109375852B (en) * 2012-08-14 2022-06-07 富士胶片商业创新有限公司 Display control device, image forming apparatus, and display control method
CN103593045B (en) * 2012-08-14 2018-12-25 富士施乐株式会社 Display control device, image forming apparatus, and display control method
CN107967114A (en) * 2012-08-14 2018-04-27 富士施乐株式会社 Display control unit, image forming apparatus and display control method
US10552003B2 (en) 2012-08-14 2020-02-04 Fuji Xerox Co., Ltd. Non-transitory storage medium with functionality in response to an object within a distance of a displayed element
JP2014092988A (en) * 2012-11-05 2014-05-19 Ntt Docomo Inc Terminal device, screen display method, hover position correction method, and program
US10656750B2 (en) 2012-11-12 2020-05-19 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
US10503359B2 (en) 2012-11-15 2019-12-10 Quantum Interface, Llc Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
JP2014232475A (en) * 2013-05-30 2014-12-11 京セラドキュメントソリューションズ株式会社 Display device, electronic apparatus, and image forming apparatus
US10901578B2 (en) 2013-10-01 2021-01-26 Quantum Interface Llc Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
KR20160091889A (en) * 2013-10-01 2016-08-03 퀀텀 인터페이스, 엘엘씨 Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
JP2017500673A (en) * 2013-10-01 2017-01-05 クアンタム インターフェイス エルエルシー Selective attraction interface, systems and devices having such an interface, and methods of making and using the same
KR102352556B1 (en) * 2013-10-01 2022-01-18 퀀텀 인터페이스, 엘엘씨 Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
US9946383B2 (en) 2014-03-14 2018-04-17 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
US11221748B2 (en) 2014-06-04 2022-01-11 Quantum Interface, Llc Apparatuses for selection objects in Virtual or Augmented Reality environments
JP2015028807A (en) * 2014-10-01 2015-02-12 株式会社リコー Operation display device and method
US11775074B2 (en) 2014-10-01 2023-10-03 Quantum Interface, Llc Apparatuses, systems, and/or interfaces for embedding selfies into or onto images captured by mobile or wearable devices and method for implementing same
US10116812B2 (en) 2014-11-18 2018-10-30 Konica Minolta, Inc. Image forming apparatus, method for controlling the same, and non-transitory computer-readable data recording medium having control program stored thereon
JP2016099655A (en) * 2014-11-18 2016-05-30 コニカミノルタ株式会社 Image forming apparatus, control method of the same, and control program of the same
JP2017041213A (en) * 2015-08-21 2017-02-23 ヤマハ株式会社 Synthetic sound editing device
JP2016048557A (en) * 2015-09-18 2016-04-07 古野電気株式会社 Vessel information display device, vessel information display method and vessel information display program
JP2017037680A (en) * 2016-11-21 2017-02-16 富士ゼロックス株式会社 Display control device and program
JP2017142806A (en) * 2017-02-24 2017-08-17 富士ゼロックス株式会社 Display control device and program
US11205075B2 (en) 2018-01-10 2021-12-21 Quantum Interface, Llc Interfaces, systems and apparatuses for constructing 3D AR environment overlays, and methods for making and using same
US11663820B2 (en) 2018-01-10 2023-05-30 Quantum Interface Llc Interfaces, systems and apparatuses for constructing 3D AR environment overlays, and methods for making and using same
US11972609B2 (en) 2018-01-10 2024-04-30 Quantum Interface Llc Interfaces, systems and apparatuses for constructing 3D AR environment overlays, and methods for making and using same
US12530888B2 (en) 2018-01-10 2026-01-20 Quantum Interface Llc Interfaces, systems and apparatuses for constructing 3D AR environment overlays, and methods for making and using same
US11226714B2 (en) 2018-03-07 2022-01-18 Quantum Interface, Llc Systems, apparatuses, interfaces and implementing methods for displaying and manipulating temporal or sequential objects
US11550444B2 (en) 2018-03-07 2023-01-10 Quantum Interface Llc Systems, apparatuses, interfaces and implementing methods for displaying and manipulating temporal or sequential objects
JP2019133692A (en) * 2019-03-12 2019-08-08 富士ゼロックス株式会社 Display control apparatus and program

Similar Documents

Publication Publication Date Title
JP2010019643A (en) Information terminal, navigation apparatus, and option display method
KR100891099B1 (en) How to improve usability on touch screens and touch screens
JP5095321B2 (en) Sightseeing information display device, navigation device, and sightseeing information display system
TWI493956B (en) Mobile communication device with direction indicator and a method performed by a mobile communication device
US9250076B2 (en) Personal GPS navigation device
US9207096B2 (en) Map magnifier
US20120303268A1 (en) Adjustable destination icon in a map navigation tool
JP6885819B2 (en) Navigation devices and navigation systems
KR20150020850A (en) user terminal device for displaying map and method thereof
KR20170046675A (en) Providing in-navigation search results that reduce route disruption
BRPI0619558A2 (en) portable electronic device and method for presenting information
TW201741851A (en) Service display method, device, apparatus and system
WO2010030009A1 (en) Information processing device and information processing method
JP2008180786A (en) Navigation system and navigation device
US8723892B2 (en) Map display control apparatus, map display control method and computer readable medium
CN109029480B (en) Map application with improved navigation tool
CN107231472A (en) A kind of display methods and mobile terminal
JP7575416B2 (en) Map image display device
JP5229640B2 (en) Display device and program
JP2007279004A (en) Device and method for retrieving intersection
JP2009053149A (en) Map information generating device, navigation device, map information generating method and map image display device
JP2008096145A (en) Installation search device and installation search method
JP2006308295A (en) Navigation system
JP4168577B2 (en) Display device for navigation device, display method, and medium storing computer program for display processing
CN113535285A (en) Interface display method, device, equipment and storage medium