JP2017004338A - Display device - Google Patents
Display device Download PDFInfo
- Publication number
- JP2017004338A JP2017004338A JP2015118947A JP2015118947A JP2017004338A JP 2017004338 A JP2017004338 A JP 2017004338A JP 2015118947 A JP2015118947 A JP 2015118947A JP 2015118947 A JP2015118947 A JP 2015118947A JP 2017004338 A JP2017004338 A JP 2017004338A
- Authority
- JP
- Japan
- Prior art keywords
- object image
- contact position
- contact
- control unit
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 17
- 238000000034 method Methods 0.000 abstract description 56
- 230000004044 response Effects 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 42
- 238000012545 processing Methods 0.000 description 32
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 15
- 238000000926 separation method Methods 0.000 description 15
- 230000001133 acceleration Effects 0.000 description 3
- 210000003811 finger Anatomy 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Landscapes
- Navigation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、表示装置に関する。 The present invention relates to a display device.
本技術分野の背景技術として、特開2013−96809号公報がある(特許文献1)。この公報には、「リスト表示された複数の施設を地図画像上に表示させる機能を備えるナビゲーション装置において、前記施設のリスト及び前記地図画像を表示する表示部18と、前記リストを更新するリスト更新部17と、前記リストから所望の前記施設を選択する施設選択部17と、前記リストに表示された全ての前記施設を表示可能な前記地図画像の縮尺を演算する縮尺演算部16と、前記施設が選択されたとき、前記リストに表示された全ての前記施設を含む前記地図画像を、前記縮尺で前記表示部に表示させる制御を行う制御部11と、を備える。」と記載されている。
As background art of this technical field, there is JP 2013-96809 A (Patent Document 1). In this publication, “in a navigation apparatus having a function of displaying a plurality of facilities displayed in a list on a map image, a display unit 18 for displaying the list of facilities and the map image, and a list update for updating the list” Unit 17, a facility selection unit 17 that selects a desired facility from the list, a
上述した特許文献1に記載の表示装置(ナビゲーション装置)のように、タッチパネルを備え、タッチパネルにリスト等のオブジェクト画像を表示するものでは、タッチパネルを備える構成を利用した方法でオブジェクト画像を表示し、これによりユーザの利便性を向上したいとするニーズがある。
本発明は、上述した事情に鑑みてなされたものであり、タッチパネルを備える表示装置について、タッチパネルを備える構成を利用した方法でオブジェクト画像を表示することを目的とする。
As in the display device (navigation device) described in
The present invention has been made in view of the above-described circumstances, and an object of the present invention is to display an object image by a method using a configuration including a touch panel for a display device including a touch panel.
上記目的を達成するために、表示装置は、タッチパネルと、前記タッチパネルが接触操作された場合、接触操作された接触位置を検出し、また、前記タッチパネルにオブジェクト画像を表示する制御部と、を備え、前記制御部は、前記オブジェクト画像の表示領域に対応する領域に2箇所の接触位置を検出し、検出した2箇所の接触位置の少なくともいずれか一方の状態が所定の態様で変化した場合、接触位置の状態の変化に応じて、前記オブジェクト画像を立体的に傾けて表示することを特徴とする。 In order to achieve the above object, a display device includes a touch panel and a control unit that detects a contact position where the touch operation is performed when the touch panel is touched and displays an object image on the touch panel. The control unit detects two contact positions in an area corresponding to the display area of the object image, and when the state of at least one of the detected two contact positions changes in a predetermined manner, The object image is displayed in a three-dimensional tilt according to a change in the position state.
本発明によれば、タッチパネルを備える表示装置について、タッチパネルを備える構成を利用して、オブジェクト画像を表示できる。 ADVANTAGE OF THE INVENTION According to this invention, an object image can be displayed using a structure provided with a touch panel about a display apparatus provided with a touch panel.
以下、図面を参照して本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1(A)は、本実施形態に係る車載装置1(表示装置)の正面図である。
車載装置1は、車両のダッシュボード等に搭載される装置である。車載装置1は、後述するように、車両の現在位置を検出する自車位置検出を行う機能、地図上に車両の現在位置を表示する車両位置表示を行う機能、目的地までの経路を探索する経路探索を行う機能、及び、地図を表示して、地図上に目的地までの経路を表示し目的地までの経路を案内する経路案内を行う機能等を備える。
FIG. 1A is a front view of the in-vehicle device 1 (display device) according to the present embodiment.
The in-
図1(A)に示すように、車載装置1は、制御基板や、インターフェイスボード、電源回路等を収納する筐体10を備える。筐体10の正面には、タッチパネル11が設けられる。筐体10の正面において、タッチパネル11の下方には、パネル15が設けられる。パネル15の中央部には、CD(Compact Disc)や、DVD(Digital Versatile Disk)等のメディアを載置するトレイの出し入れが可能な挿入口14が設けられる。また、パネル15には、電源スイッチ12や、各種指示入力を行う入力スイッチ13、トレイの出し入れを指示するイジェクトスイッチ16等の操作スイッチSが設けられる。
As shown in FIG. 1A, the in-
以下の説明では、図1(A)の矢印で示すように、車載装置1を正面視したときに左に向かう方向を「左方向」とし、右に向かう方向を「右方向」とし、上に向かう方向を「上方向」とし、下に向かう方向を「下方向」とする。
In the following description, as indicated by an arrow in FIG. 1A, when the vehicle-mounted
図1(B)は、車載装置1の斜視図である。
以下の説明では、図1(B)の矢印で示すように、車載装置1の奥行き方向において、正面側に向かう方向を「前方向」とし、裏面側に向かう方向を「後方向」とする。
FIG. 1B is a perspective view of the in-
In the following description, as indicated by an arrow in FIG. 1B, in the depth direction of the in-
図2は、車載装置1の機能的構成を示すブロック図である。
図2に示すように、車載装置1は、制御部20と、記憶部21と、操作部22と、GPSユニット24と、相対方位検出ユニット25と、ビーコン受信ユニット26と、FM多重受信ユニット27と、メディア制御部28と、音声処理部29と、タッチパネル11と、を備える。
FIG. 2 is a block diagram illustrating a functional configuration of the in-
As shown in FIG. 2, the in-
制御部20は、CPUや、ROM、RAM、その他周辺回路等を備え、車載装置1の各部を制御する。制御部20は、例えば、CPUが、ROMが記憶する制御プログラムを読み出して実行する等、ハードウェアとソフトウェアとの協働により、車載装置1の各部を制御する。
The
記憶部21は、不揮発性メモリーを備え、各種データを記憶する。記憶部21は、地図データ211を記憶する。地図データ211は、道路の形状の描画に係る道路描画データや、地形等の背景の描画に係る背景描画データ、行政区画等の文字列の描画に係る文字列描画データ等の地図の表示に係る描画データを含む。また、地図データ211は、交差点等の道路網における結線点に対応するノードに関する情報を有するノード情報や、ノードとノードとの間に形成される道路に対応するリンクに関する情報を有するリンク情報等の経路の探索、及び、経路の案内に係る情報を含む。
The
操作部22は、操作スイッチSを備え、操作スイッチSに対する操作を検出し、操作に対応する信号を制御部20に出力する。制御部20は、操作部22から入力された信号に基づいて、操作に対応する処理を実行する。
The
GPSユニット24は、図示せぬGPSアンテナを介してGPS衛星からのGPS電波を受信し、GPS電波に重畳されたGPS信号から、車両の現在位置と進行方向とを演算により取得する。GPSユニット24は、取得結果を制御部20に出力する。
The
相対方位検出ユニット25は、ジャイロセンサと、加速度センサとを備える。ジャイロセンサは、例えば振動ジャイロにより構成され、車両の相対的な方位(例えば、ヨー軸方向の旋回量)を検出する。加速度センサは、車両に作用する加速度(例えば、進行方向に対する車両の傾き)を検出する。相対方位検出ユニット25は、検出結果を制御部20に出力する。
The relative
ビーコン受信ユニット26は、車両が走行する道路に設けられた電波ビーコンや光ビーコンが発する道路交通情報に係る電波を受信し、受信した電波に基づいて道路交通情報を生成し、生成した道路交通情報を制御部20に出力する。道路交通情報は、VICS(登録商標)(Vehicle Information and Communication System:道路交通情報通信システム)情報であり、渋滞に関する情報や、道路の交通規制に関する情報等を含む。
The
FM多重受信ユニット27は、FM多重放送波を受信して、道路交通情報を抽出し、制御部20に出力する。より詳細には、FM多重受信ユニット27は、FM多重専用チューナと、多重エンコーダと、を備えている。FM多重専用チューナは、FM多重放送を受信すると、FM多重信号を多重エンコーダに出力する。多重エンコーダは、FM多重専用チューナから入力されたFM多重信号を復号して道路交通情報を取得し、制御部20に出力する。
The FM
制御部20は、ビーコン受信ユニット26、又は、FM多重受信ユニット27から道路交通情報が入力された場合、タッチパネル11に、道路交通情報を含むポップアップ画像をポップアップにより表示する。
When the road traffic information is input from the
メディア制御部28は、挿入口14を介して筐体10に挿入されたCDや、DVD等のメディアを収納し、収納したメディアを駆動するドライブを備え、メディアから読み出した情報に基づいて音声データを生成し、制御部20に出力する。制御部20は、メディア制御部28から入力された音声データに基づいて音声信号を生成し、音声処理部29に出力する。
The
音声処理部29は、D/Aコンバータや、ボリューム回路、アンプ回路、スピーカー等を備え、制御部20の制御で、制御部20から入力された音声信号をD/Aコンバータによりデジタル/アナログ変換し、ボリューム回路により音量レベルを調整し、アンプ回路により増幅して、図示しないスピーカーから音声として出力する。
The
タッチパネル11は、表示パネル111と、タッチセンサ112と、圧力検出センサ113と、を備える。
The
表示パネル111は、液晶表示パネルや有機EL表示パネル等の表示装置である。制御部20は、表示パネル111に表示する画像の画像データをフレームメモリーFMに展開し、フレームメモリーに展開した画像データに基づいて、表示パネル111を駆動して、表示パネル111に画像を表示する。
The
タッチセンサ112は、タッチパネル11が接触操作された場合、接触操作された位置(以下、「接触位置」という。)を示す信号を制御部20に出力する。接触操作とは、手指の先等の指示体によりタッチパネル11の所定の位置が接触されて行われる操作をいう。なお、静電容量式のタッチパネル等では、当該タッチパネルに対する指示体の物理的な接触がない場合であっても、指示体が当該タッチパネルに近接したときに操作を検出するものがあるが、このような方法により検出される操作も本実施形態の接触操作の概念に含まれる。制御部20は、タッチセンサ112から接触位置を示す信号が入力された場合、入力された信号に基づいて、表示パネル111の表示領域の任意の位置を座標によって表すための所定の座標系における、接触位置の座標(以下、「接触位置座標」という。)を検出する。制御部20が、タッチセンサ112からの入力に基づいて、接触位置に係る接触位置座標を検出する処理は、「タッチパネルが接触操作された場合、接触操作された接触位置を検出する」処理に相当する。
When the
圧力検出センサ113は、タッチパネル11の接触位置が接触操作されている間、当該接触位置における接触操作の押下圧力を示す信号を制御部20に出力する。制御部20は、圧力検出センサ113から押下圧力を示す信号が入力された場合、入力された信号に基づいて、接触位置における接触操作の押下圧力を検出する。本実施形態では、制御部20は、接触位置における接触操作の押下圧力を、圧力レベルlv0〜圧力レベルlv3の4段階のレベルのいずれかとして検出する。圧力レベルlv0は、押下圧力が最も小さいレベルであり、圧力レベルlv3は、押下圧力が最も大きいレベルであり、圧力レベルlv0から圧力レベルlv3へ向かって、押下圧力の度合いが段階的に大きくなる。
The
なお、図2は、本願発明を理解容易にするために、車載装置1の機能構成を主な処理内容に応じて分類して示した概略図であり、車載装置1の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。また、各構成要素の処理は、1つのプログラムで実現されてもよいし、複数のプログラムで実現されてもよい。
Note that FIG. 2 is a schematic diagram showing the functional configuration of the in-
車載装置1は、車両の現在位置を検出する自車位置検出を行う機能、地図上に車両の現在位置を表示する車両位置表示を行う機能、目的地までの経路を探索する経路探索を行う機能、及び、地図を表示して、地図上に目的地までの経路を表示し、目的地までの経路を案内する経路案内を行う機能を備える。
The in-
自車位置検出に際し、制御部20は、GPSユニット24及び相対方位検出ユニット25からの入力、及び、地図データ211に基づいて、車両の現在位置を検出する。なお、車両の現在位置を検出する方法はどのような方法であってもよく、また、検出に際し、車速を示す情報等の本実施形態で例示する情報以外の情報を用いてもよい。また、車両位置表示に際し、制御部20は、地図データ211に基づいて、検出した現在位置を中心とした所定のスケールの地図をタッチパネル11に表示すると共に、検出した車両の現在位置を地図上に表示する。また、経路探索に際し、制御部20は、地図データ211に基づいて、検出した現在位置から、ユーザに設定された目的地に至る経路を探索する。また、経路案内に際し、制御部20は、目的地までの経路を地図上に表示すると共に、検出した車両の現在位置を地図上に表示し、目的地に至るまでの経路を案内する。
When detecting the vehicle position, the
ところで、車載装置1の制御部20は、タッチパネル11に、オブジェクト画像OGを表示する機能を有する。オブジェクト画像OGは、ユーザに、所定の情報を通知することを目的としてタッチパネル11の所定の表示領域に表示される画像である。制御部20は、タッチパネル11に地図を表示している場合、地図に重ねてオブジェクト画像OGを表示する。
以下、まず、オブジェクト画像OGについて、2つの例を挙げて説明する。
By the way, the
Hereinafter, first, the object image OG will be described with two examples.
<オブジェクト画像OGの1つ目の例>
図3は、オブジェクト画像OGの例であるガイド地点リストG1を示す図である。
ガイド地点リストG1は、目的地までの経路上に存在するガイド地点を、車両の現在位置に近い方から順番に簡易なリスト形式で表示する画像である。ガイド地点とは、交差点や、高速道路・有料道路への入り口等、目的地までの経路において、車両が当該経路を走行する際に、運転手が車両の走行を注意すべき地点のことである。
<First example of object image OG>
FIG. 3 is a diagram illustrating a guide point list G1 that is an example of the object image OG.
The guide point list G1 is an image that displays guide points that exist on the route to the destination in a simple list format in order from the closest to the current position of the vehicle. A guide point is a point where the driver should be careful about driving the vehicle when the vehicle travels along the route, such as an intersection or an entrance to a highway / toll road. .
経路案内中、制御部20は、所定の事象をトリガーとして自動で、又は、所定の手段によりガイド地点リストG1の表示の指示があったときに、地図データ211に基づいて、目的地までの経路上に存在するガイド地点に関する情報を取得する。次いで、制御部20は、取得したガイド地点に関する情報に基づいて、ガイド地点リストG1の画像データを生成し、生成した画像データを、フレームメモリーFMの所定の展開領域に、地図の画像データに重ねて展開することにより、ガイド地点リストG1を、タッチパネル11の所定の表示領域に表示する。
During route guidance, the
<オブジェクト画像OGの2つ目の例>
図4は、オブジェクト画像OGの例である道路施設表示画像G2を示す図である。
道路施設表示画像G2は、高速道路や、有料道路(以下、「高速道路等」という。)に存在するインターチェンジ、サービスエリア、パーキングエリア等の施設や構造物(以下、「施設等」という。)を、車両の現在位置に近い方から順番に簡易なリスト形式で表示する画像である。
<Second example of object image OG>
FIG. 4 is a diagram illustrating a road facility display image G2 that is an example of the object image OG.
The road facility display image G2 includes facilities and structures (hereinafter referred to as “facility etc.”) such as interchanges, service areas, parking areas, etc. existing on expressways and toll roads (hereinafter referred to as “express roads”). Are displayed in a simple list format in order from the side closer to the current position of the vehicle.
車両の走行中、制御部20は、車両が高速道路等を走行中か否かを監視する。制御部20は、車両が高速道路等を走行中の場合、所定の事象をトリガーとして自動で、又は、所定の手段により道路施設表示画像G2の表示の指示があったときに、地図データ211に基づいて、走行中の高速道路等に存在する施設等に関する情報を取得する。次いで、制御部20は、取得した施設等に関する情報に基づいて、道路施設表示画像G2の画像データを生成し、生成した画像データを、フレームメモリーFMの所定の展開領域に、地図の画像データに重ねて展開することにより、道路施設表示画像G2を、タッチパネル11の所定の表示領域に表示する。
While the vehicle is traveling, the
以上、オブジェクト画像OGについて、2つの例を挙げて説明したが、オブジェクト画像OGは例示した画像に限られない。すなわち、オブジェクト画像OGは、タッチパネル11の所定の表示領域に表示される画像であればよい。
The object image OG has been described with two examples, but the object image OG is not limited to the illustrated image. That is, the object image OG may be an image displayed in a predetermined display area of the
このように、車載装置1は、タッチパネル11に、オブジェクト画像OGを表示する機能を有する。そして、車載装置1は、タッチパネル11の特性を利用した以下の方法で、オブジェクト画像OGを表示し、オブジェクト画像OGの表示の方法に多様性をもたせ、ユーザの利便性を向上する。以下、オブジェクト画像OGの表示に関する車載装置1の動作について詳述する。
Thus, the in-
図5は、オブジェクト画像OGの表示に関する車載装置1の動作を示すフローチャートである。
図5のフローチャートの開始時点では、制御部20は、地図データ211に基づいて、車両の現在位置を中心とした所定の縮尺の地図をタッチパネル11に表示しているものとする。
FIG. 5 is a flowchart showing the operation of the in-
At the start of the flowchart in FIG. 5, it is assumed that the
図5に示すように、車載装置1の制御部20は、所定の事象をトリガーとして自動で、又は、ユーザの指示に基づいて、タッチパネル11に、地図に重ねて対応するオブジェクト画像OGを表示する(ステップSA1)。
As illustrated in FIG. 5, the
図6(A)は、ステップSA1の処理によって、地図に重ねて表示されたガイド地点リストG1(オブジェクト画像OG)の一例を示す図である。図6(A)で例示するガイド地点リストG1は、説明の便宜を考慮し、その内容を単純化し模式化している。以下では、適宜、図6(A)のガイド地点リストG1(オブジェクト画像OG)が、ステップSA1の処理によりタッチパネル11に表示されたものとして、説明を行う。
FIG. 6A is a diagram illustrating an example of the guide point list G1 (object image OG) displayed so as to be superimposed on the map by the process of step SA1. The guide point list G1 illustrated in FIG. 6A is simplified and modeled for convenience of explanation. In the following description, it is assumed that the guide point list G1 (object image OG) in FIG. 6A is displayed on the
なお、制御部20は、接触位置座標と、フレームメモリーFMの各ドットの座標との対応関係を管理しており、接触位置座標を、フレームメモリーFMのドットの座標に変換する機能を有する。また、制御部20は、フレームメモリーFMにおいて、オブジェクト画像OGを展開した領域を管理しており、所定の接触位置に接触操作が行われた場合、接触位置と、オブジェクト画像OGの表示領域との位置関係を認識できる。
The
オブジェクト画像OGの表示後、制御部20は、オブジェクト画像OGの外周に沿った1箇所の接触位置の移動があったか否かを監視し(ステップSA2)、当該移動があった場合(ステップSA2:YES)、オブジェクト画像OGを後述する立体的表示処理の対象として決定する(ステップSA3)。
After the display of the object image OG, the
図6(B)は、オブジェクト画像OGの外周に沿った1箇所の接触位置の移動の説明に利用する図である。
図6(B)の例では、オブジェクト画像OGの外周に沿った1箇所の接触位置の移動は、位置P1を起点として、位置P1→位置P2→位置P3→位置P4→位置P1の順に、オブジェクト画像OGを囲むように変移する接触位置の移動である。
FIG. 6B is a diagram used for explaining the movement of one contact position along the outer periphery of the object image OG.
In the example of FIG. 6B, the movement of one contact position along the outer periphery of the object image OG starts from the position P1, and starts from the position P1, the position P2, the position P3, the position P4, and the position P1 in this order. This is the movement of the contact position that changes so as to surround the image OG.
なお、オブジェクト画像OGの外周に沿った1箇所の接触位置の移動の起点は、図6(B)で例示した位置に対応する位置に限らずどの位置であってもよい。また、接触位置の移動方向も、図6(B)で例示した接触位位置の移動方向に対応する方向に限らずどの方向であってもよい。すなわち、オブジェクト画像OGの外周に沿った1箇所の接触位置の移動は、1箇所の接触位置が、オブジェクト画像OGを囲むように、オブジェクト画像OGの外周に沿って移動するものであれば、その形態を問わない。 Note that the starting point of the movement of one contact position along the outer periphery of the object image OG is not limited to the position corresponding to the position illustrated in FIG. 6B, and may be any position. Further, the moving direction of the contact position is not limited to the direction corresponding to the moving direction of the contact position illustrated in FIG. That is, the movement of one contact position along the outer periphery of the object image OG is as long as the one contact position moves along the outer periphery of the object image OG so as to surround the object image OG. Regardless of form.
ユーザは、図6(A)のガイド地点リストG1(オブジェクト画像OG)について、当該ガイド地点リストG1を後述する立体的表示処理の対象とすることを望む場合、図6(B)に示すように、例えば、自身の人差し指の指先により位置P1を接触操作した後、指先とタッチパネル11とが接触した状態を維持しつつ、指先を位置P1→位置P2→位置P3→位置P4→位置P1へと移動させる。
When the user wants to make the guide point list G1 of the guide point list G1 (object image OG) in FIG. 6A to be a target of a stereoscopic display process described later, as shown in FIG. 6B. For example, after touching position P1 with the fingertip of his / her own index finger, the fingertip is moved from position P1 → position P2 → position P3 → position P4 → position P1 while maintaining the state in which the fingertip and
このように、1のオブジェクト画像OGについて、後述する立体的表示処理の対象とすることを望む場合、ユーザは、当該1のオブジェクト画像OGに対応する所定の操作を行えばよい。このため、複数のオブジェクト画像OGがタッチパネル11に表示されている状態であっても、ユーザは、特定のオブジェクト画像OGを、後述する立体的表示処理の対象とすることができる。
In this way, when one object image OG is desired to be a target of stereoscopic display processing to be described later, the user may perform a predetermined operation corresponding to the one object image OG. For this reason, even in a state where a plurality of object images OG are displayed on the
なお、「オブジェクト画像OGの外周に沿った1箇所の接触位置の移動」は、「1箇所の接触位置の第1の態様での移動」に相当する。そして、オブジェクト画像OGの後述する立体的表示処理の対象とする「1箇所の接触位置の第1の態様での移動」は、例示したものに限らない。ただし、オブジェクト画像OGが偶発的に後述する立体的表示処理の対象となることを防止するため、例示した移動のように、ユーザが意図的に行った操作に基づく接触位置の移動であることが望ましい。 The “movement of one contact position along the outer periphery of the object image OG” corresponds to “movement of one contact position in the first mode”. The “movement of the one contact position in the first mode”, which is a target of a stereoscopic display process to be described later of the object image OG, is not limited to that illustrated. However, in order to prevent the object image OG from accidentally becoming a target of a stereoscopic display process to be described later, it may be a movement of the contact position based on an operation intentionally performed by the user like the illustrated movement. desirable.
また、立体的表示処理の対象としたオブジェクト画像OGについて、立体的表示処理の対象となったことをユーザが認識できるように、オブジェクト画像OGの外周を太線で表示する等の所定の装飾を施すようにしてもよい。 In addition, the object image OG that is the target of the three-dimensional display process is provided with a predetermined decoration such as displaying the outer periphery of the object image OG with a thick line so that the user can recognize that it is the target of the three-dimensional display process. You may do it.
ステップSA3で、オブジェクト画像OGを後述する立体的表示処理の対象として決定した後、制御部20は、立体的表示処理の対象としたオブジェクト画像OGの表示領域(以下、「オブジェクト画像表示領域」という。)に、2箇所の接触位置が検出されたか否かを監視する(ステップSA4)。
After determining the object image OG as a target for a stereoscopic display process to be described later in step SA3, the
図6(C)は、ステップSA4の処理の説明に用いる図である。
図6(C)の例の場合、ステップSA3において、制御部20は、ガイド地点リストG1(オブジェクト画像OG)の表示領域A1に、2箇所の接触位置(例えば、接触位置P5、及び、接触位置P6)が検出されたか否かを監視する。
FIG. 6C is a diagram used for explaining the processing in step SA4.
In the case of the example of FIG. 6C, in step SA3, the
ユーザは、例えば、図7に示すように、人差し指と、親指とを広げた状態で、人差し指の指先と、親指の指先で、オブジェクト画像表示領域を接触操作することにより、制御部20に2箇所の接触位置の検出を行わせる。
For example, as shown in FIG. 7, the user touches the object image display area with the fingertip of the index finger and the fingertip of the thumb in a state where the index finger and the thumb are spread, so that the
オブジェクト画像表示領域に、2箇所の接触位置が検出された場合(ステップSA4:YES)、制御部20は、動作モードを、立体的表示モードへと移行する(ステップSA5)。立体的表示モードとは、立体的表示処理の対象となったオブジェクト画像OGについて、ユーザによる所定の操作に応じて、オブジェクト画像OGを立体的に傾けて表示する動作モードである。なお、本実施形態では、立体的表示モードへの移行に際し、2箇所の接触位置に対する接触操作を必要とする。これは、例えば、タッチパネル11に表示されたアイコンを接触操作してアイコンを選択する操作等、1箇所の接触位置に対する接触操作と、立体的表示モードへの移行のための接触操作とを区別するためである。
When two contact positions are detected in the object image display area (step SA4: YES), the
立体的表示モードへ移行後、制御部20は、2箇所の接触位置のそれぞれの接触位置座標を検出する(ステップSA6)。
After shifting to the stereoscopic display mode, the
次いで、制御部20は、ステップSA6で取得した2箇所の接触位置の接触位置座標に基づいて、後に詳述する回動軸の軸方向を決定する(ステップSA7)。以下、ステップSA7の処理について詳述する。
Next, the
図8は、ステップSA7の処理について説明するため、オブジェクト画像表示領域と、当該領域における2箇所の接触位置とを示す図である。図8において、矢印で示す上下左右方向は、タッチパネル11の上下左右方向(図1(A)参照)に対応する方向である。
図8に示すように、オブジェクト画像表示領域に、座標(X1、Y1)の接触位置P7と、座標(X2、Y2)の接触位置P8が存在しているものとする。なお、タッチパネル11の表示領域の任意の位置を座標によって表すための所定の座標系は、x軸が、タッチパネル11の左右方向に対応する方向に延びる軸であり、y軸が、タッチパネル11の上下方向に対応する方向に延びる軸である。
FIG. 8 is a diagram illustrating the object image display area and the two contact positions in the area in order to explain the processing in step SA7. In FIG. 8, the up / down / left / right directions indicated by arrows are directions corresponding to the up / down / left / right directions of the touch panel 11 (see FIG. 1A).
As shown in FIG. 8, it is assumed that a contact position P7 at coordinates (X1, Y1) and a contact position P8 at coordinates (X2, Y2) exist in the object image display area. The predetermined coordinate system for representing an arbitrary position in the display area of the
図8の例の場合、ステップSA7において、制御部20は、接触位置P7と接触位置P8とのx軸方向(左右方向)の離間距離L1(|X1−X2|)を算出し、さらに、接触位置P7と接触位置P8とのy軸方向(上下方向)の離間距離L2(|Y1−Y2|)を算出する。
In the case of the example of FIG. 8, in step SA7, the
次いで、制御部20は、接触位置P7と接触位置P8とのx軸方向の離間距離(以下、「x軸方向離間距離」という。)と、接触位置P7と接触位置P8とのy軸方向の離間距離(以下、「y軸方向離間距離」という。)とを比較し、x軸方向離間距離の方が大きい場合は、後述する回動軸の軸方向を上下方向として決定し、x軸方向離間距離の方が大きくない場合は、後述する回動軸の軸方向を左右方向として決定する。
図8の例では、x軸方向離間距離(|X1−X2|)の方が、y軸方向離間距離(|Y1−Y2|)よりも大きく、制御部20は、回動軸の軸方向を上下方向として決定する。
Next, the
In the example of FIG. 8, the x-axis direction separation distance (| X1-X2 |) is larger than the y-axis direction separation distance (| Y1-Y2 |), and the
このように、ステップSA7において、制御部20は、2箇所の接触位置の左右方向における離間距離と、上下方向における離間距離とを比較し、左右方向の離間距離が大きい場合、回動軸の軸方向を上下方向として決定し、左右方向の離間距離が大きくない場合、回動軸の軸方向を左右方向として決定する。ユーザは、回動軸の軸方向を上下方向としたい場合は、2箇所の接触位置について、左右方向の離間距離を上下方向の離間距離よりも大きくし、一方、回動軸の軸方向を左右方向としたい場合は、2箇所の接触位置について、上下方向の離間距離を左右方向の離間距離よりも大きい。
In this way, in step SA7, the
次いで、制御部20は、立体的表示処理を実行する(ステップSA8)。
Next, the
図9は、立体的表示処理の詳細を示すフローチャートである。
なお、以下の図9を用いた説明では、説明の便宜のため、ステップSA8において、回動軸の軸方向が上下方向として決定されているものとする。
図9に示すように、制御部20は、圧力検出センサ113からの入力に基づいて、2箇所の接触位置のそれぞれの押下圧力を検出する(ステップSB1)。
FIG. 9 is a flowchart showing details of the stereoscopic display process.
In the following description with reference to FIG. 9, it is assumed that the axial direction of the rotation shaft is determined as the vertical direction in step SA8 for convenience of description.
As shown in FIG. 9, the
次いで、制御部20は、2箇所の接触位置のうち、押下圧力が大きい方の接触位置を特定する(ステップSB2)。
Next, the
次いで、制御部20は、押下圧力が大きい方の接触位置の押下圧力に基づいて、オブジェクト画像OGの表示状態を変化させる(ステップSB3)。以下、ステップSB3の処理について詳述する。
Next, the
図10は、ステップSB3の処理の説明に利用する図である。
図10において、図10(A)は、立体的表示処理が行われる前にタッチパネル11に表示されたオブジェクト画像OGを示す図である。図10(A)の例では、オブジェクト画像表示領域における2箇所の接触位置は接触位置P9、及び、接触位置P10である。また、図10(A)で例示するオブジェクト画像OGには、左右方向に並ぶ5つの文字「あ」によって構成される文字列「あああああ」が表示される。
以下、図10(A)に示すオブジェクト画像OGを、「通常オブジェクト画像」と表現する。
FIG. 10 is a diagram used for explaining the processing in step SB3.
In FIG. 10, FIG. 10A is a diagram illustrating the object image OG displayed on the
Hereinafter, the object image OG shown in FIG. 10A is expressed as a “normal object image”.
ステップSB3において、ステップSB2で押下圧力が大きいとして特定した接触位置が接触位置P10であり、接触位置P10における押下圧力の圧力レベルが「圧力レベルlv1」の場合、制御部20は、オブジェクト画像OGの状態を、図10(B)に示す状態とする。
以下、図10(B)に示すオブジェクト画像OGを、「第1オブジェクト画像」と表現する。
In step SB3, when the contact position identified as having a large pressing pressure in step SB2 is the contact position P10, and the pressure level of the pressing pressure at the contact position P10 is “pressure level lv1”, the
Hereinafter, the object image OG shown in FIG. 10B is expressed as a “first object image”.
詳述すると、制御部20は、回動軸(本例では、回動軸の軸方向は上下方向)の位置を、オブジェクト画像OGの左辺、右辺のうち、2つの接触位置のうち、押下圧力が大きくない方の接触位置の側の辺に対応する位置に設定する。図10(B)の例では、制御部20は、符号J1で示すように、回動軸の位置を、オブジェクト画像OGの左辺に設定する。
Specifically, the
次いで、制御部20は、回動軸を中心として、接触位置P10の側(押下圧力が大きい方の接触位置の側)が奥行き方向における後方向(図1(B)参照)に対応する方向(以下、単に「後方向」と表現する。)に変移するように、オブジェクト画像OGを仮想回動角度θ1だけ立体的に傾けて表示する。
なお、仮想回動角度は、第1オブジェクト画像、後述する第2オブジェクト画像、及び、後述する第3オブジェクト画像について、回動軸を中心とした見た目上の回動角度の違いを説明するために、オブジェクト画像OGが3次元空間に存在すると仮定した場合における回動軸を中心とした回動角度を便宜的に表す角度である。
Next, the
Note that the virtual rotation angle is for explaining the difference in the apparent rotation angle around the rotation axis for the first object image, the second object image described later, and the third object image described later. The rotation angle about the rotation axis when it is assumed that the object image OG exists in the three-dimensional space is an angle for convenience.
図10(B)において、枠W1は、通常オブジェクト画像(図10(A))の表示領域を示す枠である。図10(B)に示すように、第1オブジェクト画像は、回動軸を中心として通常オブジェクト画像が立体的に傾けて表現された画像であるため、第1オブジェクト画像の表示領域の面積は、通常オブジェクト画像の面積よりも小さい。具体的には、第1オブジェクト画像の表示領域の面積は、通常オブジェクト画像の面積よりも、図10(B)において斜線で示す領域Z1の分、小さくなる。これにより、領域Z1については、地図が表示された状態となり、タッチパネル11に表示される地図(ユーザが視認可能な地図)の面積を拡大することができ、ユーザの利便性が向上する。
In FIG. 10B, a frame W1 is a frame indicating the display area of the normal object image (FIG. 10A). As shown in FIG. 10B, since the first object image is an image that is expressed by three-dimensionally tilting the normal object image around the rotation axis, the area of the display area of the first object image is Usually smaller than the area of the object image. Specifically, the area of the display area of the first object image is smaller than the area of the normal object image by the area Z1 indicated by hatching in FIG. Thereby, about the area | region Z1, it will be in the state in which the map was displayed, the area of the map (map which a user can visually recognize) displayed on the
さらに、図10(A)と図10(B)との比較で明らかなとおり、第1オブジェクト画像が有する情報は、通常オブジェクト画像が有する情報と同一であり、通常オブジェクト画像と比較して欠損していない。具体的には、第1オブジェクト画像は、通常オブジェクト画像が情報として有する文字列「あああああ」と同じ情報を有する。これは、第1オブジェクト画像について、通常オブジェクト画像を立体的に傾けることによって表示することにより可能となるものである。 Furthermore, as is clear from a comparison between FIG. 10A and FIG. 10B, the information included in the first object image is the same as the information included in the normal object image, and is missing compared to the normal object image. Not. Specifically, the first object image has the same information as the character string “Ah Ah” that the normal object image has as information. This is possible by displaying the first object image by tilting the normal object image three-dimensionally.
このように、制御部20は、タッチパネル11に対するユーザの所定の操作に応じて、通常オブジェクト画像を第1オブジェクト画像へと変移させることにより、通常オブジェクト画像が有する情報を欠損させることなく、タッチパネル11において地図が表示される領域を拡大する。
In this manner, the
また、ステップSB3において、ステップSB2で押下圧力が大きいとして特定した接触位置が接触位置P10であり、接触位置P10における押下圧力の圧力レベルが「圧力レベルlv2」の場合、制御部20は、オブジェクト画像OGの状態を、図10(C)に示す状態とする。
以下、図10(C)に示すオブジェクト画像OGを、「第2オブジェクト画像」と表現する。
In step SB3, if the contact position identified as having a large pressing pressure in step SB2 is the contact position P10, and the pressure level of the pressing pressure at the contact position P10 is “pressure level lv2”, the
Hereinafter, the object image OG shown in FIG. 10C is expressed as a “second object image”.
詳述すると、制御部20は、第1オブジェクト画像の場合と同様、回動軸の位置をオブジェクト画像OGの左辺に設定する。次いで、制御部20は、回動軸を中心として、接触位置P10の側(押下圧力が大きい方の接触位置の側)が後方向に変移するように、オブジェクト画像OGを仮想回動角度θ2だけ立体的に傾けて表示する。仮想回動角度θ2の値は、仮想回動角度θ1の値よりも大きい。この結果、図10(C)に示すように、回動軸を中心とした見た目上の回動角度が第1オブジェクト画像よりも大きい第2オブジェクト画像が表示された状態となる。
More specifically, the
図10(B)と、図10(C)との比較で明らかなとおり、第2オブジェクト画像に係る仮想回動角度θ2は、第1オブジェクト画像に係る仮想回動角度θ1よりも大きいため、第2オブジェクト画像の表示領域と通常オブジェクト画像の表示領域との差分の領域Z2の面積は、第1オブジェクト画像の表示領域と通常オブジェクト画像の表示領域との差分の領域Z1(図10(B))よりも大きい。従って、第2オブジェクト画像が表示されている場合、第1オブジェクト画像が表示されている場合と比較して、タッチパネル11において地図が表示される領域が大きい。また、第2オブジェクト画像は、第1オブジェクト画像と同様、通常オブジェクト画像が有する情報と同一の情報を有し、欠損がない。
As is clear from a comparison between FIG. 10B and FIG. 10C, the virtual rotation angle θ2 related to the second object image is larger than the virtual rotation angle θ1 related to the first object image. The area Z2 of the difference between the display area of the two object images and the display area of the normal object image is the difference area Z1 between the display area of the first object image and the display area of the normal object image (FIG. 10B). Bigger than. Therefore, when the second object image is displayed, the area where the map is displayed on the
また、ステップSB3において、ステップSB2で押下圧力が大きいとして特定した接触位置が接触位置P10であり、接触位置P10における押下圧力の圧力レベルが「圧力レベルlv3」の場合、制御部20は、オブジェクト画像OGの状態を、図10(D)に示す状態とする。
以下、図10(D)に示すオブジェクト画像OGを、「第3オブジェクト画像」と表現する。
In step SB3, when the contact position specified as the pressing pressure is large in step SB2 is the contact position P10, and the pressure level of the pressing pressure at the contact position P10 is “pressure level lv3”, the
Hereinafter, the object image OG shown in FIG. 10D is expressed as a “third object image”.
詳述すると、制御部20は、第1オブジェクト画像の場合と同様、回動軸の位置をオブジェクト画像OGの左辺に設定する。次いで、制御部20は、回動軸を中心として、接触位置P10の側(押下圧力が大きい方の接触位置の側)が後方向に変移するように、オブジェクト画像OGを仮想回動角度θ3だけ立体的に傾けて表示する。仮想回動角度θ3の値は、仮想回動角度θ2の値よりも大きい。この結果、図10(D)に示すように、回動軸を中心とした見た目上の回動角度が第2オブジェクト画像よりも大きい第3オブジェクト画像が表示された状態となる。
More specifically, the
図10(C)と、図10(D)との比較で明らかなとおり、第3オブジェクト画像に係る仮想回動角度θ3は、第2オブジェクト画像に係る仮想回動角度θ2よりも大きいため、第3オブジェクト画像の表示領域と通常オブジェクト画像の表示領域との差分の領域Z3の面積は、第2オブジェクト画像の表示領域と通常オブジェクト画像の表示領域との差分の領域Z2(図10(C))よりも大きい。従って、第3オブジェクト画像が表示されている場合、第2オブジェクト画像が表示されている場合と比較して、タッチパネル11において地図が表示される領域が大きい。また、第3オブジェクト画像は、第1オブジェクト画像と同様、通常オブジェクト画像が有する情報と同一の情報を有し、欠損がない。
As is clear from a comparison between FIG. 10C and FIG. 10D, the virtual rotation angle θ3 related to the third object image is larger than the virtual rotation angle θ2 related to the second object image. The area Z3 of the difference between the display area of the three-object image and the display area of the normal object image is the area Z2 of the difference between the display area of the second object image and the display area of the normal object image (FIG. 10C). Bigger than. Therefore, when the third object image is displayed, the area where the map is displayed on the
ここで、図9のフローチャートに示すように、接触位置における押下圧力の検出(ステップSB1)、及び、接触位置における押下圧力に基づいてオブジェクト画像OGの状態を変化させる処理は、立体的表示処理が行われている間、継続して連続的に行われる。従って、図10の例において、オブジェクト画像OGは、接触位置P10における押下圧力の圧力レベルの変化に応じて、第1オブジェクト画像、第2オブジェクト画像、及び、第3オブジェクト画像の間で連続的に切り替わる。例えば、接触位置P10における押下圧力の圧力レベルが、圧力レベルlv1→圧力レベルlv2→圧力レベルlv3へと変化した場合、圧力レベルの変化に応じて、オブジェクト画像OGは、第1オブジェクト画像→第2オブジェクト画像→第3オブジェクト画像へと連続的に切り替わる。また例えば、接触位置P10における押下圧力の圧力レベルが、圧力レベルlv3→圧力レベルlv2→圧力レベルlv1へと変化した場合、圧力レベルの変化に応じて、オブジェクト画像OGは、第3オブジェクト画像→第2オブジェクト画像→第1オブジェクト画像へと連続的に切り替わる。 Here, as shown in the flowchart of FIG. 9, detection of the pressing pressure at the contact position (step SB1) and processing for changing the state of the object image OG based on the pressing pressure at the contact position are three-dimensional display processing. While it is being performed, it is continuously performed continuously. Therefore, in the example of FIG. 10, the object image OG is continuously between the first object image, the second object image, and the third object image in accordance with the change in the pressure level of the pressing pressure at the contact position P10. Switch. For example, when the pressure level of the pressing pressure at the contact position P10 changes from the pressure level lv1 → the pressure level lv2 → the pressure level lv3, the object image OG is changed from the first object image → the second according to the change in the pressure level. It is continuously switched from the object image to the third object image. Further, for example, when the pressure level of the pressing pressure at the contact position P10 changes from the pressure level lv3 → the pressure level lv2 → the pressure level lv1, the object image OG is changed from the third object image → the first level according to the change in the pressure level. The two-object image is continuously switched to the first object image.
これを踏まえ、ユーザは、第1オブジェクト画像が表示された状態において、オブジェクト画像OGの表示領域の面積をより小さくして、タッチパネル11における地図が表示される領域をより大きくすることを望む場合、接触位置P9に対する接触操作の状態を変化させないことにより接触位置P9における押下圧力を変化させずに、接触位置P10に対する接触操作を強めに行うことにより接触位置P10における押下圧力を増大させる。これにより、第1オブジェクト画像が、第2オブジェクト画像へと切り替わり、ユーザの要望が満たされることとなる。第2オブジェクト画像から第3オブジェクト画像への切り替えについても同様である。
Based on this, in the state where the first object image is displayed, the user desires to further reduce the area of the display area of the object image OG and increase the area where the map on the
ここで、本実施形態では、接触位置における押下圧力の増大に応じて、オブジェクト画像OGに係る仮想回動角度が増大し、オブジェクト画像OGの見た目上の傾きがより増大する。すなわち、ユーザが2箇所の接触位置のうちの一方を強く押せば押すほど、オブジェクト画像OGが、強く押された接触位置の側に大きく傾いた状態となる。このため、ユーザの操作と、表示されるオブジェクト画像OGの状態とに一体性が生まれ、ユーザの操作性がよく、また、ユーザがオブジェクト画像OGを立体的に傾ける際に、どのような操作をすればよいのかをイメージしやすい。 Here, in the present embodiment, the virtual rotation angle related to the object image OG increases as the pressing pressure at the contact position increases, and the apparent inclination of the object image OG further increases. That is, the stronger the user presses one of the two contact positions, the more the object image OG is inclined to the side of the strongly pressed contact position. For this reason, the user's operation and the state of the displayed object image OG are integrated, the user's operability is good, and what kind of operation is performed when the user tilts the object image OG in three dimensions. It is easy to imagine what to do.
なお、ステップSB3において、接触位置の押下圧力に応じて、オブジェクト画像OGの状態を変化させる際、制御部20は、例えば、以下の処理を実行する。例えば、制御部20は、通常オブジェクト画像の画像データを、所定の3次元座標系におけるポリゴンデータによって表す。次いで、制御部20は、既存の画像処理によって、所定の3次元座標系においてポリゴンデータを、回動軸を中心として押下圧力の圧力レベルに応じた回動角度だけ対応する方向に回動させた画像データを生成する。次いで、制御部20は、フレームメモリーFMに対して、既に展開されたオブジェクト画像OGの画像データに代えて、新たに生成した画像データを展開し、これにより、オブジェクト画像OGの状態を変化させる。なお、接触位置の押下圧力に応じて、オブジェクト画像OGの状態を変化させる方法は、例示した方法に限らず、どのような方法であってもよい。
In step SB3, when changing the state of the object image OG according to the pressing pressure at the contact position, the
以上、回動軸の軸方向が上下方向であり、回動軸がオブジェクト画像OGの左辺に位置する場合を例にして、ステップSB3の処理を説明したが、回動軸が上下方向でオブジェクト画像OGの右辺に位置する場合、回動軸が左右方向でオブジェクト画像の上辺に位置する場合、回動軸が左右方向でオブジェクト画像の下辺に位置する場合も、ステップSB3で説明した処理と同様の処理が行われ、押下圧力の大きい方の接触位置の押下圧力に応じて、オブジェクト画像OGの状態が変化する。 The processing of step SB3 has been described above by taking the case where the axis direction of the rotation axis is the vertical direction and the rotation axis is located on the left side of the object image OG as an example. The same processing as described in step SB3 is performed when the rotation axis is positioned on the right side of the OG, when the rotation axis is positioned on the upper side of the object image in the left-right direction, and when the rotation axis is positioned on the lower side of the object image in the left-right direction. Processing is performed, and the state of the object image OG changes according to the pressing pressure at the contact position with the larger pressing pressure.
図11(A)は、図6(A)に示すガイド地点リストG1が、立体的表示処理により傾いて表示された様子を示す図である。図11(A)の場合、回動軸の軸方向は上下方向であり、回動軸の位置は、ガイド地点リストG1の左辺である。図6(A)と図11(A)との比較で明らかなとおり、図11(A)では、情報の欠損を伴うことなく、地図が表示される領域(ユーザが視認可能な地図の表領域)が拡大して表示される。 FIG. 11A is a diagram showing a state where the guide point list G1 shown in FIG. 6A is displayed tilted by the three-dimensional display process. In the case of FIG. 11A, the axis direction of the rotation axis is the vertical direction, and the position of the rotation axis is the left side of the guide point list G1. As is clear from a comparison between FIG. 6A and FIG. 11A, in FIG. 11A, an area in which a map is displayed without a loss of information (a table area of a map that can be visually recognized by the user). ) Is enlarged.
図11(B)は、図6(A)に示すガイド地点リストG1が、立体的表示処理により傾いて表示された様子を示す図である。図11(B)の場合、回動軸の軸方向は左右方向であり、回動軸の位置は、ガイド地点リストG1の下辺である。図6(A)と図11(B)との比較で明らかなとおり、図11(B)では、情報の欠損を伴うことなく、地図が表示される領域(ユーザが視認可能な地図の表領域)が拡大して表示される。 FIG. 11B is a diagram showing a state where the guide point list G1 shown in FIG. 6A is displayed tilted by the three-dimensional display process. In the case of FIG. 11B, the axial direction of the rotation axis is the left-right direction, and the position of the rotation axis is the lower side of the guide point list G1. As is clear from a comparison between FIG. 6A and FIG. 11B, in FIG. 11B, an area where a map is displayed without a loss of information (a table area of a map visible to the user). ) Is enlarged.
さて、ステップSB3において、接触位置における押下圧力に応じて立体的に傾いたオブジェクト画像OGを表示した後、制御部20は、接触位置における接触操作が解除されたか否かを判別する(ステップSB4)。ステップSB4において、制御部20は、2箇所の接触位置のうち、1箇所でも接触操作が解除された場合、接触位置における接触操作が解除されたと判別する。
In step SB3, after displaying the object image OG that is three-dimensionally inclined according to the pressing pressure at the contact position, the
接触操作が解除された場合(ステップSB4:YES)、制御部20は、オブジェクト画像OGについて、立体的表示処理が行われる前にタッチパネル11に表示されていたオブジェクト画像OGを表示する(ステップSB5)。図10の例では、第1オブジェクト画像(図10(B))、第2オブジェクト画像(図10(C))、又は、第3オブジェクト画像(図10(D))が表示されている状態の場合、制御部20は、通常オブジェクト画像(図10(A))を表示する。
When the contact operation is released (step SB4: YES), the
次いで、制御部20は、立体的表示モードへの移行を停止し(ステップSB6)、立体的表示処理を終了する。
Next, the
一方、ステップSB4において、接触操作が解除されなかった場合(ステップSB4:NO)、制御部20は、2箇所の接触位置のうち、押下圧力が大きい方の接触位置が、タッチパネル11の表面上を任意の方向に、所定距離以上、移動したか否かを判別する(ステップSB7)。
On the other hand, when the contact operation is not released in step SB4 (step SB4: NO), the
図12は、ステップSB7の処理の説明に利用するため、オブジェクト画像表示領域における2箇所の接触位置P11、接触位置P12を示す図である。
図12において、接触位置P11よりも接触位置P12の方が、押下圧力が大きい場合において、制御部20は、例えば、接触位置P12が、所定距離よりも大きい距離LL離れた接触位置P12´へ移動した場合、ステップSB3において、2箇所の接触位置のうち、押下圧力が大きい方の接触位置が、タッチパネル11の表面上を任意の方向に、所定距離以上、移動したと判別する。
FIG. 12 is a diagram showing two contact positions P11 and P12 in the object image display area for use in explaining the processing in step SB7.
In FIG. 12, when the pressing pressure is greater at the contact position P12 than at the contact position P11, the
制御部20は、押下圧力が大きい方の接触位置が、タッチパネル11の表面上を任意の方向に、所定距離以上、移動してない場合(ステップSB7:NO)、処理手順をステップSB1へ戻す。この場合、制御部20により、再び、接触位置における押下圧力の検出が行われて、押下圧力の大きい方の接触位置の押下圧力に応じて、適宜、オブジェクト画像OGが立体的に傾けて表示される。
一方、制御部20は、押下圧力が大きい方の接触位置が、タッチパネル11の表面上を任意の方向に、所定距離以上、移動したことを検出した場合(ステップSB7:YES)、オブジェクト画像OGの状態を固定する(ステップSB8)。このステップSB8の処理後、制御部20は、接触位置に対する接触操作が解除された場合であっても、オブジェクト画像OGの状態を立体的表示処理が行われる前の状態に戻さず、オブジェクト画像OGの状態を固定して表示する。
On the other hand, when the
ユーザは、立体的表示処理により、立体的に傾いて表示された状態のオブジェクト画像OGについて、その状態を維持してオブジェクト画像OGを表示したいと望む場合、強く押下した方の接触位置に対する接触操作を、タッチパネル11の表面に沿って、所定距離以上、移動させる。これにより、接触位置の状態の変化、接触位置における押下圧力の変化にかかわらず、所定の仮想回動角度だけ立体的に傾いた状態を維持したままオブジェクト画像OGを表示させることができる。
When the user desires to display the object image OG while maintaining the state of the object image OG displayed in a three-dimensionally inclined manner by the three-dimensional display process, the user performs a touch operation on the contact position of the strongly pressed button. Is moved a predetermined distance or more along the surface of the
なお、「押下圧力が大きい方の接触位置によるタッチパネル11の表面上における任意の方向への所定距離以上の移動」は、「2箇所の接触位置の少なくともいずれか一方による第2の態様での移動」に相当する。そして、オブジェクト画像OGの表示の状態を固定するために行われる「2箇所の接触位置の少なくともいずれか一方による第2の態様での移動」は、例示したものに限らない。ただし、オブジェクト画像OGの状態が偶発的に固定されることを防止するため、例示した移動のように、ユーザが意図的に行った操作に基づく接触位置の移動であることが望ましい。
Note that “movement of a predetermined distance or more in an arbitrary direction on the surface of the
ステップSB8の処理を実行した後、制御部20は、2箇所の接触位置に対して接触操作が行われた状態で、いずれか一方の接触位置の押下圧力について、低い圧力レベルから高い圧力レベルへと変化したか否かを監視する(ステップSB9)。例えば、図12に示すように、2箇所の接触位置P11、接触位置P12が検出された状態において、接触位置P12における押下圧力が圧力レベルlv0から圧力レベルlv2へと変化した場合、ステップSB9で制御部20は、いずれか一方の接触位置の押下圧力が低い圧力レベルから高い圧力レベルへと変化したと判別する。
After executing the processing of step SB8, the
いずれか一方の接触位置の押下圧力が低い圧力レベルから高い圧力レベルへと変化したことを検出した場合(ステップSB9:YES)、制御部20は、オブジェクト画像OGの表示の状態の固定を解除し(ステップSB10)、処理手順をステップSB1に戻す。
When it is detected that the pressing pressure at one of the contact positions has changed from a low pressure level to a high pressure level (step SB9: YES), the
ユーザは、オブジェクト画像OGの表示の状態の固定を解除することを望む場合、2箇所の接触位置を接触操作した状態で、いずれか一方の接触位置に対する接触操作により押下を段階的に強める。このような簡易な操作を意図的に行うことにより、ユーザは、オブジェクト画像OGの表示の状態の固定を解除することができる。 When the user desires to release the fixation of the display state of the object image OG, the user gradually presses down the contact operation with respect to one of the contact positions in a state where the contact operation is performed at the two contact positions. By intentionally performing such a simple operation, the user can unlock the display state of the object image OG.
以上、立体的表示処理を説明したが、立体的表示処理の内容は、上記で説明した内容に限られるものではない。
以下、立体的表示処理の別の例について、図を用いて説明する。すなわち、立体的表示処理は、上記で説明した方法ではなく、以下で説明する方法で行われてもよい。
Although the stereoscopic display process has been described above, the contents of the stereoscopic display process are not limited to the contents described above.
Hereinafter, another example of the stereoscopic display processing will be described with reference to the drawings. That is, the three-dimensional display process may be performed by the method described below instead of the method described above.
図13は、オブジェクト画像OGの1つである曲リスト画像G3を示す図である。
制御部20は、メディアが、複数の楽曲が記録されたものである場合に、メディアから必要な情報を取得して、トラックごとの楽曲名を一覧表示した曲リスト画像G3を表示する機能を有する。
FIG. 13 is a diagram showing a music list image G3 that is one of the object images OG.
The
図13(A)は、立体的表示処理が行われる前にタッチパネル11に表示される曲リスト画像G3を示す図である。
FIG. 13A is a diagram showing a music list image G3 displayed on the
図13(A)に示す曲リスト画像G3が表示された状態のときに、図13(B)に示すように、2箇所の接触位置P13、接触位置P14に対してユーザが接触操作を行ったとする。この場合において、接触位置P14の押下圧力の方が、接触位置P13の押下圧力よりも大きいとする。 When the music list image G3 shown in FIG. 13A is displayed, as shown in FIG. 13B, the user performs a touch operation on the two contact positions P13 and P14. To do. In this case, it is assumed that the pressing pressure at the contact position P14 is larger than the pressing pressure at the contact position P13.
この場合、制御部20は、回動軸の軸方向を上下方向とし、回動軸の位置を接触位置P13と、接触位置P14の中心点Q1を通る位置とする。このように、本例では、制御部20は、軸方向が上下方向の回動軸について、その位置を、オブジェクト画像OGの左辺、又は、右辺とするのではなく、2箇所の接触位置の中心点を通る位置とする。
In this case, the
次いで、図13(B)に示すように、制御部20は、2箇所の接触位置の中心点を通る回動軸を中心として、押下圧力の大きい方の接触位置の押下圧力に応じて、曲リスト画像G3を立体的に傾けて表示する。さらに、制御部20は、立体的に傾ける前の曲リスト画像G3の表示領域と、立体的に傾けた後の曲リスト画像G3の表示領域との差分の領域に、曲に関する新たな情報を表示する。図13(B)の例では、制御部20は、領域R1に、再生中の楽曲に関する情報を表示する。
Next, as shown in FIG. 13B, the
このような態様でオブジェクト画像OGの表示が行われるため、以下の効果を奏する。すなわち、立体的に傾ける前と、立体的に傾けた後とで、オブジェクト画像OGが表示された領域を変更することなく、ユーザにとって有益な情報を、オブジェクト画像OGに新たに付加することができる。特に、立体的に傾ける前の情報を欠損させることなく、新たな情報を付加することが可能となる。 Since the object image OG is displayed in such a manner, the following effects are obtained. That is, information useful for the user can be newly added to the object image OG before and after the three-dimensional tilt without changing the area in which the object image OG is displayed. . In particular, new information can be added without losing information before being tilted three-dimensionally.
ユーザは、立体的に傾いたオブジェクト画像OGについて、その状態を維持したい場合は、図13(C)に示すように、押下圧力が大きい方の接触位置を、任意の方向(図13(C)では、矢印Y1に示す方向)に移動させる。制御部20は、上述した接触位置の移動を検出した場合、オブジェクト画像OGの状態を固定する。この結果、図13(D)に示すように、ユーザが接触位置に対する接触操作を解除した場合であっても、オブジェクト画像OGが立体的に傾いた状態が維持される。このような処理が行われるため、ユーザは、オブジェクト画像OGについて、簡易で意図的な操作を行うことにより、オブジェクト画像OGの立体的な傾きに応じて新たに表示された情報が表示された状態を維持できる。
When the user wants to maintain the state of the three-dimensionally tilted object image OG, as shown in FIG. 13C, the user can set the contact position with the larger pressing pressure in an arbitrary direction (FIG. 13C). Then, it is moved in the direction indicated by arrow Y1. When detecting the above-described movement of the contact position, the
以上説明したように、本実施形態に係る車載装置1(表示装置)は、タッチパネル11と、タッチパネル11が接触操作された場合、接触操作された接触位置を検出し、また、タッチパネル11にオブジェクト画像OGを表示する制御部20とを備える。制御部20は、オブジェクト画像OGの表示領域に対応する領域に2箇所の接触位置を検出し、検出した2箇所の接触位置の少なくともいずれか一方の状態が所定の態様で変化した場合、接触位置の状態の変化に応じて、オブジェクト画像OGを立体的に傾けて表示する。
この構成によれば、制御部20は、タッチパネル11に2箇所の接触操作が行われた場合、それぞれの接触操作に係る接触位置を検出できること、及び、接触位置の状態の変化を検出できることを利用して、接触位置の状態の変化に応じて、オブジェクト画像OGを立体的に傾けて表示することができる。このため、ユーザは、タッチパネル11に対して所定の操作を行うことにより、オブジェクト画像OGを立体的に傾けて表示させることができる。すなわち、上記構成によれば、車載装置1は、タッチパネル11を備える構成を利用して、オブジェクト画像OGを表示することができる。
As described above, the in-vehicle device 1 (display device) according to the present embodiment detects the touch position where the touch operation is performed when the
According to this configuration, when two touch operations are performed on the
また、本実施形態では、制御部20は、オブジェクト画像OGの表示領域に対応する領域で、1箇所の接触位置が第1の態様で移動したことを検出した場合、オブジェクト画像OGを、2箇所の接触位置の状態の変化に応じて立体的に傾けて表示する対象として決定する。
この構成によれば、ユーザは、特定のオブジェクト画像OGの表示領域に対応する領域に対して、1箇所の接触位置が第1の態様で移動する操作を行うことにより、当該特定のオブジェクト画像OGを、立体的表示処理の対象とすることができる。
Further, in the present embodiment, when the
According to this configuration, the user performs an operation of moving one contact position in the first mode on the area corresponding to the display area of the specific object image OG, thereby the specific object image OG. Can be the target of the stereoscopic display processing.
また、本実施形態では、制御部20は、オブジェクト画像OGの表示領域に対応する領域で、オブジェクト画像OGの外周に沿って1箇所の接触位置が移動したことを検出した場合、オブジェクト画像OGを、2箇所の接触位置の状態の変化に応じて立体的に傾けて表示する対象として決定する。
この構成によれば、ユーザが意図的に行った操作に基づいて、オブジェクト画像OGを立体的表示処理の対象とすることができ、オブジェクト画像OGが偶発的に立体的表示処理の対象となることを抑制できる。
In the present embodiment, when the
According to this configuration, the object image OG can be the target of the stereoscopic display process based on the operation intentionally performed by the user, and the object image OG is accidentally the target of the stereoscopic display process. Can be suppressed.
また、本実施形態では、制御部20は、接触位置の状態の変化に応じてオブジェクト画像OGを立体的に傾けて表示している際に、2箇所の接触位置の少なくともいずれか一方が第2の態様で移動したことを検出した場合、オブジェクト画像OGの状態を、接触位置が第2の態様で移動したことを検出したときの状態で固定する。
この構成によれば、ユーザは、タッチパネル11に対して所定の操作を行って、オブジェクト画像OGの状態を固定させることができる。
In the present embodiment, when the
According to this configuration, the user can perform a predetermined operation on the
また、本実施形態では、制御部20は、タッチパネル11に地図を表示し、地図に重ねて、オブジェクト画像OGを表示する。
この構成によれば、地図に重ねて表示されるオブジェクト画像OGの表示に関して、ユーザの利便性を向上できる。
Moreover, in this embodiment, the
According to this configuration, the convenience of the user can be improved with respect to the display of the object image OG displayed on the map.
また、本実施形態では、タッチパネル11は、接触位置における接触操作の押下圧力を示す信号を制御部20に出力する圧力検出センサ113を備える。制御部20は、圧力検出センサ113から入力された信号に基づいて、接触位置における接触操作の押下圧力を検出し、2箇所の接触位置の少なくともいずれか一方の押下圧力の変化に応じて、オブジェクト画像OGを立体的に傾けて表示する。
この構成によれば、接触位置における押下圧力の状態に応じて、オブジェクト画像OGを適切に立体的に傾けて表示できる。
In the present embodiment, the
According to this configuration, the object image OG can be appropriately tilted and displayed according to the state of the pressing pressure at the contact position.
また、本実施形態では、制御部20は、2箇所の接触位置のうち押下圧力が大きい方の接触位置の側が、当該接触位置の押下圧力の増大に応じて奥行き方向における後方向に変移するように、オブジェクト画像OGを立体的に傾けて表示する。
この構成によれば、ユーザの操作と、表示されるオブジェクト画像OGの状態とに一体性が生まれ、ユーザの操作性がよく、また、ユーザがオブジェクト画像OGを立体的に傾ける際に、どのような操作をすればよいのかをイメージしやすい。
In the present embodiment, the
According to this configuration, the user's operation and the state of the displayed object image OG are integrated, the user's operability is good, and how the user operates the object image OG in a three-dimensional manner. It is easy to imagine what to do.
なお、上述した実施の形態は、あくまでも本発明の一態様を示すものであり、本発明の範囲内で任意に変形および応用が可能である。 The above-described embodiment is merely an aspect of the present invention, and can be arbitrarily modified and applied within the scope of the present invention.
例えば、上述した実施形態では、タッチパネル11が圧力検出センサ113を有し、制御部20は、圧力検出センサ113からの入力に基づく押下圧力に応じて、オブジェクト画像OGを立体的に傾けて表示した。一方で、制御部20は、2箇所の接触位置の少なくともいずれか一方が第3の態様で移動したことを検出した場合、接触位置の移動に応じて、オブジェクト画像OGを立体的に傾けて表示してもよい。例えば、制御部20は、2箇所の接触位置のうち一方の接触位置が、他方の接触位置を中心として、タッチパネル11の表面上を回動するように移動した場合に、その回動角度に応じた仮想回動角度で、オブジェクト画像OGを立体的に傾けて表示してもよい。このように、接触位置における押下圧力ではなく、接触位置の移動に応じて、オブジェクト画像OGを立体的に傾けて表示することにより、タッチパネル11に圧力検出センサ113を設ける必要がなく、コストの削減等を図ることができる。
For example, in the above-described embodiment, the
また例えば、図で示したフローチャートの処理単位は、車載装置1の制御部20の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。制御部20の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、同様の処理が行えれば、上記のフローチャートの処理順序も、図示した例に限られるものではない。
Further, for example, the processing unit of the flowchart shown in the figure is divided according to the main processing contents in order to facilitate understanding of the processing of the
また上述した実施形態では、車載装置1が「表示装置」として機能したが、本発明は、車載された装置に限らず、タッチパネルを備える装置に広く適用可能である。
In the above-described embodiment, the in-
1 車載装置(表示装置)
11 タッチパネル
113 圧力検出センサ
20 制御部
OG オブジェクト画像
1 In-vehicle device (display device)
11
Claims (8)
前記タッチパネルが接触操作された場合、接触操作された接触位置を検出し、また、前記タッチパネルにオブジェクト画像を表示する制御部と、を備え、
前記制御部は、
前記オブジェクト画像の表示領域に対応する領域に2箇所の接触位置を検出し、検出した2箇所の接触位置の少なくともいずれか一方の状態が所定の態様で変化した場合、接触位置の状態の変化に応じて、前記オブジェクト画像を立体的に傾けて表示する
ことを特徴とする表示装置。 A touch panel;
When the touch panel is touch-operated, a control unit that detects a touch position touched and displays an object image on the touch panel,
The controller is
When two contact positions are detected in an area corresponding to the display area of the object image, and the state of at least one of the detected two contact positions changes in a predetermined manner, the change of the contact position state Accordingly, the object image is displayed in a three-dimensionally tilted manner.
前記オブジェクト画像の表示領域に対応する領域で、1箇所の接触位置が第1の態様で移動したことを検出した場合、前記オブジェクト画像を、2箇所の接触位置の状態の変化に応じて立体的に傾けて表示する対象として決定することを特徴とする請求項1に記載の表示装置。 The controller is
When it is detected that one contact position has moved in the first mode in an area corresponding to the display area of the object image, the object image is displayed in a three-dimensional manner according to a change in the state of the two contact positions. The display device according to claim 1, wherein the display device is determined as an object to be displayed while being tilted.
接触位置の状態の変化に応じて前記オブジェクト画像を立体的に傾けて表示している際に、2箇所の接触位置の少なくともいずれか一方が第2の態様で移動したことを検出した場合、前記オブジェクト画像の状態を、接触位置が第2の態様で移動したことを検出したときの状態で固定することを特徴とする請求項1に記載の表示装置。 The controller is
When it is detected that at least one of the two contact positions has moved in the second mode when the object image is displayed in a three-dimensional tilt according to a change in the state of the contact position, The display device according to claim 1, wherein the state of the object image is fixed in a state when it is detected that the contact position has moved in the second mode.
前記制御部は、
前記タッチパネルに地図を表示し、地図に重ねて、前記オブジェクト画像を表示することを特徴とする請求項1から4のいずれか1項に記載の表示装置。 Mounted on the vehicle,
The controller is
5. The display device according to claim 1, wherein a map is displayed on the touch panel, and the object image is displayed so as to overlap the map.
接触位置における接触操作の押下圧力を示す信号を前記制御部に出力する圧力検出センサを備え、
前記制御部は、
前記圧力検出センサから入力された信号に基づいて、接触位置における接触操作の押下圧力を検出し、
2箇所の接触位置の少なくともいずれか一方の押下圧力の変化に応じて、前記オブジェクト画像を立体的に傾けて表示する
ことを特徴とする請求項1に記載の表示装置 The touch panel
A pressure detection sensor that outputs a signal indicating the pressing pressure of the contact operation at the contact position to the control unit;
The controller is
Based on the signal input from the pressure detection sensor, the pressing pressure of the contact operation at the contact position is detected,
The display device according to claim 1, wherein the object image is displayed in a three-dimensional tilt according to a change in pressing pressure of at least one of the two contact positions.
2箇所の接触位置のうち押下圧力が大きい方の接触位置の側が、当該接触位置の押下圧力の増大に応じて奥行き方向における後方向に変移するように、前記オブジェクト画像を立体的に傾けて表示する
ことを特徴とする請求項6に記載の表示装置。 The controller is
The object image is displayed in a three-dimensional tilt so that the side of the contact position with the larger pressing pressure of the two contact positions shifts backward in the depth direction as the pressing pressure at the contact position increases. The display device according to claim 6.
2箇所の接触位置の少なくともいずれか一方が第3の態様で移動したことを検出した場合、接触位置の移動に応じて、前記オブジェクト画像を立体的に傾けて表示することを特徴とする請求項1に記載の表示装置。 The controller is
The object image is displayed in a three-dimensionally tilted manner according to the movement of the contact position when it is detected that at least one of the two contact positions has moved in the third mode. The display device according to 1.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015118947A JP2017004338A (en) | 2015-06-12 | 2015-06-12 | Display device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015118947A JP2017004338A (en) | 2015-06-12 | 2015-06-12 | Display device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2017004338A true JP2017004338A (en) | 2017-01-05 |
Family
ID=57751794
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015118947A Pending JP2017004338A (en) | 2015-06-12 | 2015-06-12 | Display device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2017004338A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020042674A (en) * | 2018-09-12 | 2020-03-19 | Zホールディングス株式会社 | Information display program, information display device, information display method, and delivery device |
| JP2023103577A (en) * | 2022-01-14 | 2023-07-27 | パイオニア株式会社 | Information display device, information display method, program, and storage medium |
Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006329678A (en) * | 2005-05-23 | 2006-12-07 | Denso Corp | In-vehicle navigation device |
| JP2010267079A (en) * | 2009-05-14 | 2010-11-25 | Canon Inc | Information processing apparatus, control method, and program |
| JP2012141739A (en) * | 2010-12-28 | 2012-07-26 | Toshiba Corp | Display control device and display control method |
| JP2012190215A (en) * | 2011-03-10 | 2012-10-04 | Sony Corp | Input processor, input processing method, and program |
| US20130127825A1 (en) * | 2011-07-28 | 2013-05-23 | Pushkar P. Joshi | Methods and Apparatus for Interactive Rotation of 3D Objects Using Multitouch Gestures |
| JP2013174598A (en) * | 2013-04-01 | 2013-09-05 | Alpine Electronics Inc | On-vehicle electronic system, display method and display program |
| JP2014097781A (en) * | 2012-11-13 | 2014-05-29 | Avisonic Technology Corp | Vehicular image system and display control method for vehicular image |
| JP2014139767A (en) * | 2012-12-20 | 2014-07-31 | Canon Marketing Japan Inc | Information processing device, control method therefor, and program |
| JP2014232415A (en) * | 2013-05-29 | 2014-12-11 | コニカミノルタ株式会社 | Display device, image processor and program |
| JP2015022625A (en) * | 2013-07-22 | 2015-02-02 | アルプス電気株式会社 | Input device |
-
2015
- 2015-06-12 JP JP2015118947A patent/JP2017004338A/en active Pending
Patent Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006329678A (en) * | 2005-05-23 | 2006-12-07 | Denso Corp | In-vehicle navigation device |
| JP2010267079A (en) * | 2009-05-14 | 2010-11-25 | Canon Inc | Information processing apparatus, control method, and program |
| JP2012141739A (en) * | 2010-12-28 | 2012-07-26 | Toshiba Corp | Display control device and display control method |
| JP2012190215A (en) * | 2011-03-10 | 2012-10-04 | Sony Corp | Input processor, input processing method, and program |
| US20130127825A1 (en) * | 2011-07-28 | 2013-05-23 | Pushkar P. Joshi | Methods and Apparatus for Interactive Rotation of 3D Objects Using Multitouch Gestures |
| JP2014097781A (en) * | 2012-11-13 | 2014-05-29 | Avisonic Technology Corp | Vehicular image system and display control method for vehicular image |
| JP2014139767A (en) * | 2012-12-20 | 2014-07-31 | Canon Marketing Japan Inc | Information processing device, control method therefor, and program |
| JP2013174598A (en) * | 2013-04-01 | 2013-09-05 | Alpine Electronics Inc | On-vehicle electronic system, display method and display program |
| JP2014232415A (en) * | 2013-05-29 | 2014-12-11 | コニカミノルタ株式会社 | Display device, image processor and program |
| JP2015022625A (en) * | 2013-07-22 | 2015-02-02 | アルプス電気株式会社 | Input device |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020042674A (en) * | 2018-09-12 | 2020-03-19 | Zホールディングス株式会社 | Information display program, information display device, information display method, and delivery device |
| JP2023103577A (en) * | 2022-01-14 | 2023-07-27 | パイオニア株式会社 | Information display device, information display method, program, and storage medium |
| JP7788865B2 (en) | 2022-01-14 | 2025-12-19 | パイオニア株式会社 | Information display device, information display method, program, and storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4678534B2 (en) | Navigation device and map scroll processing method | |
| US7788028B2 (en) | Navigation system | |
| CN100578150C (en) | Navigation device | |
| JP4783603B2 (en) | MAP DISPLAY DEVICE, MAP DISPLAY METHOD, MAP DISPLAY PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM | |
| JP2006315597A (en) | On-vehicle display device | |
| CN108431757B (en) | Vehicle-mounted device, display area segmentation method and computer-readable storage medium | |
| JP2006039745A (en) | Touch-panel type input device | |
| JP5421015B2 (en) | Map display device | |
| JP2006284218A (en) | Navigation device | |
| CN115004143B (en) | Display control device and display control method | |
| JP4609242B2 (en) | Operation control device | |
| JP5358215B2 (en) | Map display device | |
| CN114846439B (en) | Display control device and display control method | |
| JP2017004338A (en) | Display device | |
| JP2007042029A (en) | Display device and program | |
| JP4783075B2 (en) | Navigation device | |
| JP2008051538A (en) | Vehicle-mounted map display device | |
| JP4695957B2 (en) | Navigation device | |
| CN114830075B (en) | Display control device and display control method | |
| JP4897342B2 (en) | In-vehicle map display device | |
| JP4835494B2 (en) | Map display device | |
| JP5028043B2 (en) | In-vehicle information terminal | |
| JP4974479B2 (en) | Map display device | |
| JP2009250868A (en) | Navigation system | |
| JP5916690B2 (en) | Map display device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180419 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181211 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181212 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190206 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190723 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200204 |