[go: up one dir, main page]

JP2017004338A - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP2017004338A
JP2017004338A JP2015118947A JP2015118947A JP2017004338A JP 2017004338 A JP2017004338 A JP 2017004338A JP 2015118947 A JP2015118947 A JP 2015118947A JP 2015118947 A JP2015118947 A JP 2015118947A JP 2017004338 A JP2017004338 A JP 2017004338A
Authority
JP
Japan
Prior art keywords
object image
contact position
contact
control unit
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015118947A
Other languages
Japanese (ja)
Inventor
健太 安友
Kenta Yasutomo
健太 安友
八尋 隆生
Takao Yahiro
隆生 八尋
井口 福也
Fukunari Iguchi
福也 井口
加藤 寛
Hiroshi Kato
寛 加藤
真希 足立
Maki Adachi
真希 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2015118947A priority Critical patent/JP2017004338A/en
Publication of JP2017004338A publication Critical patent/JP2017004338A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To display an object image by a method using a configuration having a touch panel regarding a display device having a touch panel.SOLUTION: An on-vehicle device 1 includes a touch panel 11 and a controller 20 that detects a contact location subjected to contact operation when the touch panel 11 is subjected to contact operation and displays an object image on the touch panel 11. The controller 20 detects the contact location of two portions in an area corresponding to the display area of the object image to incline and display the object image in three dimensions in response to changes in the state of the contact location when the state of at least any one of detected contact location of two portions changes according to a prescribed aspect.SELECTED DRAWING: Figure 2

Description

本発明は、表示装置に関する。   The present invention relates to a display device.

本技術分野の背景技術として、特開2013−96809号公報がある(特許文献1)。この公報には、「リスト表示された複数の施設を地図画像上に表示させる機能を備えるナビゲーション装置において、前記施設のリスト及び前記地図画像を表示する表示部18と、前記リストを更新するリスト更新部17と、前記リストから所望の前記施設を選択する施設選択部17と、前記リストに表示された全ての前記施設を表示可能な前記地図画像の縮尺を演算する縮尺演算部16と、前記施設が選択されたとき、前記リストに表示された全ての前記施設を含む前記地図画像を、前記縮尺で前記表示部に表示させる制御を行う制御部11と、を備える。」と記載されている。   As background art of this technical field, there is JP 2013-96809 A (Patent Document 1). In this publication, “in a navigation apparatus having a function of displaying a plurality of facilities displayed in a list on a map image, a display unit 18 for displaying the list of facilities and the map image, and a list update for updating the list” Unit 17, a facility selection unit 17 that selects a desired facility from the list, a scale calculation unit 16 that calculates a scale of the map image that can display all the facilities displayed in the list, and the facility And a control unit 11 that performs control to display the map image including all the facilities displayed in the list on the display unit at the reduced scale when “is selected”.

特開2010−36620号公報JP 2010-36620 A

上述した特許文献1に記載の表示装置(ナビゲーション装置)のように、タッチパネルを備え、タッチパネルにリスト等のオブジェクト画像を表示するものでは、タッチパネルを備える構成を利用した方法でオブジェクト画像を表示し、これによりユーザの利便性を向上したいとするニーズがある。
本発明は、上述した事情に鑑みてなされたものであり、タッチパネルを備える表示装置について、タッチパネルを備える構成を利用した方法でオブジェクト画像を表示することを目的とする。
As in the display device (navigation device) described in Patent Document 1 described above, a device including a touch panel and displaying an object image such as a list on the touch panel displays the object image by a method using a configuration including the touch panel. Thus, there is a need to improve user convenience.
The present invention has been made in view of the above-described circumstances, and an object of the present invention is to display an object image by a method using a configuration including a touch panel for a display device including a touch panel.

上記目的を達成するために、表示装置は、タッチパネルと、前記タッチパネルが接触操作された場合、接触操作された接触位置を検出し、また、前記タッチパネルにオブジェクト画像を表示する制御部と、を備え、前記制御部は、前記オブジェクト画像の表示領域に対応する領域に2箇所の接触位置を検出し、検出した2箇所の接触位置の少なくともいずれか一方の状態が所定の態様で変化した場合、接触位置の状態の変化に応じて、前記オブジェクト画像を立体的に傾けて表示することを特徴とする。   In order to achieve the above object, a display device includes a touch panel and a control unit that detects a contact position where the touch operation is performed when the touch panel is touched and displays an object image on the touch panel. The control unit detects two contact positions in an area corresponding to the display area of the object image, and when the state of at least one of the detected two contact positions changes in a predetermined manner, The object image is displayed in a three-dimensional tilt according to a change in the position state.

本発明によれば、タッチパネルを備える表示装置について、タッチパネルを備える構成を利用して、オブジェクト画像を表示できる。   ADVANTAGE OF THE INVENTION According to this invention, an object image can be displayed using a structure provided with a touch panel about a display apparatus provided with a touch panel.

(A)は本実施形態に係る車載装置の正面図、(B)は車載装置の斜視図。(A) is a front view of the vehicle-mounted apparatus which concerns on this embodiment, (B) is a perspective view of a vehicle-mounted apparatus. 車載装置の機能的構成を示すブロック図。The block diagram which shows the functional structure of a vehicle-mounted apparatus. オブジェクト画像の一例であるガイド地点リストを示す図。The figure which shows the guide point list | wrist which is an example of an object image. オブジェクト画像の一例である道路施設表示画像を示す図。The figure which shows the road facility display image which is an example of an object image. 車載装置の動作を示すフローチャート。The flowchart which shows operation | movement of a vehicle-mounted apparatus. オブジェクト画像の一例であるガイド地点リストを示す図。The figure which shows the guide point list | wrist which is an example of an object image. 操作の一例を示す図。The figure which shows an example of operation. 図5のフローチャートのステップSA7の処理の説明に利用する図。The figure used for description of the process of step SA7 of the flowchart of FIG. 立体的表示処理の詳細を示す図。The figure which shows the detail of a three-dimensional display process. 立体的表示処理の説明のため、オブジェクト画像を示す図。The figure which shows an object image for description of a three-dimensional display process. オブジェクト画像の一例であるガイド地点リストを示す図。The figure which shows the guide point list | wrist which is an example of an object image. 図9のフローチャートのステップSB7の処理の説明に利用する図。The figure utilized for description of the process of step SB7 of the flowchart of FIG. 立体的表示処理の別の例の説明に利用する図。The figure utilized for description of another example of a three-dimensional display process.

以下、図面を参照して本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1(A)は、本実施形態に係る車載装置1(表示装置)の正面図である。
車載装置1は、車両のダッシュボード等に搭載される装置である。車載装置1は、後述するように、車両の現在位置を検出する自車位置検出を行う機能、地図上に車両の現在位置を表示する車両位置表示を行う機能、目的地までの経路を探索する経路探索を行う機能、及び、地図を表示して、地図上に目的地までの経路を表示し目的地までの経路を案内する経路案内を行う機能等を備える。
FIG. 1A is a front view of the in-vehicle device 1 (display device) according to the present embodiment.
The in-vehicle device 1 is a device mounted on a dashboard of a vehicle. As will be described later, the in-vehicle device 1 searches for a route to a destination, a function for detecting the current position of the vehicle, a function for displaying the current position of the vehicle on a map, and a function for displaying the current position of the vehicle. A function for performing a route search, a function for displaying a map, displaying a route to the destination on the map, and performing a route guidance for guiding the route to the destination are provided.

図1(A)に示すように、車載装置1は、制御基板や、インターフェイスボード、電源回路等を収納する筐体10を備える。筐体10の正面には、タッチパネル11が設けられる。筐体10の正面において、タッチパネル11の下方には、パネル15が設けられる。パネル15の中央部には、CD(Compact Disc)や、DVD(Digital Versatile Disk)等のメディアを載置するトレイの出し入れが可能な挿入口14が設けられる。また、パネル15には、電源スイッチ12や、各種指示入力を行う入力スイッチ13、トレイの出し入れを指示するイジェクトスイッチ16等の操作スイッチSが設けられる。   As shown in FIG. 1A, the in-vehicle device 1 includes a housing 10 that houses a control board, an interface board, a power supply circuit, and the like. A touch panel 11 is provided on the front surface of the housing 10. A panel 15 is provided below the touch panel 11 on the front surface of the housing 10. In the central portion of the panel 15, an insertion slot 14 is provided through which a tray on which a medium such as a CD (Compact Disc) or a DVD (Digital Versatile Disk) is placed can be taken in and out. Further, the panel 15 is provided with operation switches S such as a power switch 12, an input switch 13 for inputting various instructions, and an eject switch 16 for instructing insertion / removal of a tray.

以下の説明では、図1(A)の矢印で示すように、車載装置1を正面視したときに左に向かう方向を「左方向」とし、右に向かう方向を「右方向」とし、上に向かう方向を「上方向」とし、下に向かう方向を「下方向」とする。   In the following description, as indicated by an arrow in FIG. 1A, when the vehicle-mounted device 1 is viewed from the front, the direction toward the left is “left direction”, the direction toward the right is “right direction”, and The direction toward the “upward direction” is referred to as “downward direction”.

図1(B)は、車載装置1の斜視図である。
以下の説明では、図1(B)の矢印で示すように、車載装置1の奥行き方向において、正面側に向かう方向を「前方向」とし、裏面側に向かう方向を「後方向」とする。
FIG. 1B is a perspective view of the in-vehicle device 1.
In the following description, as indicated by an arrow in FIG. 1B, in the depth direction of the in-vehicle device 1, the direction toward the front side is referred to as “front direction”, and the direction toward the back side is referred to as “rear direction”.

図2は、車載装置1の機能的構成を示すブロック図である。
図2に示すように、車載装置1は、制御部20と、記憶部21と、操作部22と、GPSユニット24と、相対方位検出ユニット25と、ビーコン受信ユニット26と、FM多重受信ユニット27と、メディア制御部28と、音声処理部29と、タッチパネル11と、を備える。
FIG. 2 is a block diagram illustrating a functional configuration of the in-vehicle device 1.
As shown in FIG. 2, the in-vehicle device 1 includes a control unit 20, a storage unit 21, an operation unit 22, a GPS unit 24, a relative orientation detection unit 25, a beacon reception unit 26, and an FM multiplex reception unit 27. A media control unit 28, an audio processing unit 29, and a touch panel 11.

制御部20は、CPUや、ROM、RAM、その他周辺回路等を備え、車載装置1の各部を制御する。制御部20は、例えば、CPUが、ROMが記憶する制御プログラムを読み出して実行する等、ハードウェアとソフトウェアとの協働により、車載装置1の各部を制御する。   The control unit 20 includes a CPU, ROM, RAM, and other peripheral circuits, and controls each unit of the in-vehicle device 1. The control unit 20 controls each unit of the in-vehicle device 1 by cooperation of hardware and software, for example, the CPU reads and executes a control program stored in the ROM.

記憶部21は、不揮発性メモリーを備え、各種データを記憶する。記憶部21は、地図データ211を記憶する。地図データ211は、道路の形状の描画に係る道路描画データや、地形等の背景の描画に係る背景描画データ、行政区画等の文字列の描画に係る文字列描画データ等の地図の表示に係る描画データを含む。また、地図データ211は、交差点等の道路網における結線点に対応するノードに関する情報を有するノード情報や、ノードとノードとの間に形成される道路に対応するリンクに関する情報を有するリンク情報等の経路の探索、及び、経路の案内に係る情報を含む。   The storage unit 21 includes a nonvolatile memory and stores various data. The storage unit 21 stores map data 211. Map data 211 relates to the display of maps such as road drawing data relating to drawing of road shapes, background drawing data relating to drawing of backgrounds such as terrain, character string drawing data relating to drawing of character strings such as administrative districts, etc. Contains drawing data. Further, the map data 211 includes node information having information regarding nodes corresponding to connection points in road networks such as intersections, and link information having information regarding links corresponding to roads formed between the nodes. Information related to route search and route guidance is included.

操作部22は、操作スイッチSを備え、操作スイッチSに対する操作を検出し、操作に対応する信号を制御部20に出力する。制御部20は、操作部22から入力された信号に基づいて、操作に対応する処理を実行する。   The operation unit 22 includes an operation switch S, detects an operation on the operation switch S, and outputs a signal corresponding to the operation to the control unit 20. The control unit 20 executes a process corresponding to the operation based on the signal input from the operation unit 22.

GPSユニット24は、図示せぬGPSアンテナを介してGPS衛星からのGPS電波を受信し、GPS電波に重畳されたGPS信号から、車両の現在位置と進行方向とを演算により取得する。GPSユニット24は、取得結果を制御部20に出力する。   The GPS unit 24 receives GPS radio waves from GPS satellites via a GPS antenna (not shown), and acquires the current position and traveling direction of the vehicle by calculation from the GPS signals superimposed on the GPS radio waves. The GPS unit 24 outputs the acquisition result to the control unit 20.

相対方位検出ユニット25は、ジャイロセンサと、加速度センサとを備える。ジャイロセンサは、例えば振動ジャイロにより構成され、車両の相対的な方位(例えば、ヨー軸方向の旋回量)を検出する。加速度センサは、車両に作用する加速度(例えば、進行方向に対する車両の傾き)を検出する。相対方位検出ユニット25は、検出結果を制御部20に出力する。   The relative orientation detection unit 25 includes a gyro sensor and an acceleration sensor. The gyro sensor is constituted by, for example, a vibrating gyroscope and detects a relative direction of the vehicle (for example, a turning amount in the yaw axis direction). The acceleration sensor detects acceleration (for example, vehicle inclination with respect to the traveling direction) acting on the vehicle. The relative orientation detection unit 25 outputs the detection result to the control unit 20.

ビーコン受信ユニット26は、車両が走行する道路に設けられた電波ビーコンや光ビーコンが発する道路交通情報に係る電波を受信し、受信した電波に基づいて道路交通情報を生成し、生成した道路交通情報を制御部20に出力する。道路交通情報は、VICS(登録商標)(Vehicle Information and Communication System:道路交通情報通信システム)情報であり、渋滞に関する情報や、道路の交通規制に関する情報等を含む。   The beacon receiving unit 26 receives radio waves related to road traffic information generated by radio beacons and optical beacons provided on the road on which the vehicle is traveling, generates road traffic information based on the received radio waves, and generates the generated road traffic information. Is output to the control unit 20. The road traffic information is VICS (registered trademark) (Vehicle Information and Communication System) information, and includes information on traffic jams, information on road traffic regulations, and the like.

FM多重受信ユニット27は、FM多重放送波を受信して、道路交通情報を抽出し、制御部20に出力する。より詳細には、FM多重受信ユニット27は、FM多重専用チューナと、多重エンコーダと、を備えている。FM多重専用チューナは、FM多重放送を受信すると、FM多重信号を多重エンコーダに出力する。多重エンコーダは、FM多重専用チューナから入力されたFM多重信号を復号して道路交通情報を取得し、制御部20に出力する。   The FM multiplex receiving unit 27 receives FM multiplex broadcast waves, extracts road traffic information, and outputs the road traffic information to the control unit 20. More specifically, the FM multiplex receiving unit 27 includes an FM multiplex dedicated tuner and a multiplex encoder. When receiving the FM multiplex broadcast, the FM multiplex dedicated tuner outputs an FM multiplex signal to the multiplex encoder. The multiplex encoder acquires the road traffic information by decoding the FM multiplex signal input from the FM multiplex dedicated tuner, and outputs it to the control unit 20.

制御部20は、ビーコン受信ユニット26、又は、FM多重受信ユニット27から道路交通情報が入力された場合、タッチパネル11に、道路交通情報を含むポップアップ画像をポップアップにより表示する。   When the road traffic information is input from the beacon receiving unit 26 or the FM multiplex receiving unit 27, the control unit 20 displays a pop-up image including the road traffic information on the touch panel 11 by a pop-up.

メディア制御部28は、挿入口14を介して筐体10に挿入されたCDや、DVD等のメディアを収納し、収納したメディアを駆動するドライブを備え、メディアから読み出した情報に基づいて音声データを生成し、制御部20に出力する。制御部20は、メディア制御部28から入力された音声データに基づいて音声信号を生成し、音声処理部29に出力する。   The media control unit 28 includes a drive such as a CD or a DVD that is inserted into the housing 10 via the insertion slot 14 and drives the stored media, and is based on information read from the media. Is output to the control unit 20. The control unit 20 generates an audio signal based on the audio data input from the media control unit 28 and outputs the audio signal to the audio processing unit 29.

音声処理部29は、D/Aコンバータや、ボリューム回路、アンプ回路、スピーカー等を備え、制御部20の制御で、制御部20から入力された音声信号をD/Aコンバータによりデジタル/アナログ変換し、ボリューム回路により音量レベルを調整し、アンプ回路により増幅して、図示しないスピーカーから音声として出力する。   The audio processing unit 29 includes a D / A converter, a volume circuit, an amplifier circuit, a speaker, and the like, and the audio signal input from the control unit 20 is digital / analog converted by the D / A converter under the control of the control unit 20. The volume level is adjusted by a volume circuit, amplified by an amplifier circuit, and output from a speaker not shown.

タッチパネル11は、表示パネル111と、タッチセンサ112と、圧力検出センサ113と、を備える。   The touch panel 11 includes a display panel 111, a touch sensor 112, and a pressure detection sensor 113.

表示パネル111は、液晶表示パネルや有機EL表示パネル等の表示装置である。制御部20は、表示パネル111に表示する画像の画像データをフレームメモリーFMに展開し、フレームメモリーに展開した画像データに基づいて、表示パネル111を駆動して、表示パネル111に画像を表示する。   The display panel 111 is a display device such as a liquid crystal display panel or an organic EL display panel. The control unit 20 develops image data of an image to be displayed on the display panel 111 in the frame memory FM, drives the display panel 111 based on the image data developed in the frame memory, and displays an image on the display panel 111. .

タッチセンサ112は、タッチパネル11が接触操作された場合、接触操作された位置(以下、「接触位置」という。)を示す信号を制御部20に出力する。接触操作とは、手指の先等の指示体によりタッチパネル11の所定の位置が接触されて行われる操作をいう。なお、静電容量式のタッチパネル等では、当該タッチパネルに対する指示体の物理的な接触がない場合であっても、指示体が当該タッチパネルに近接したときに操作を検出するものがあるが、このような方法により検出される操作も本実施形態の接触操作の概念に含まれる。制御部20は、タッチセンサ112から接触位置を示す信号が入力された場合、入力された信号に基づいて、表示パネル111の表示領域の任意の位置を座標によって表すための所定の座標系における、接触位置の座標(以下、「接触位置座標」という。)を検出する。制御部20が、タッチセンサ112からの入力に基づいて、接触位置に係る接触位置座標を検出する処理は、「タッチパネルが接触操作された場合、接触操作された接触位置を検出する」処理に相当する。   When the touch panel 11 is touched, the touch sensor 112 outputs a signal indicating the touched position (hereinafter referred to as “contact position”) to the control unit 20. The contact operation refers to an operation performed when a predetermined position of the touch panel 11 is touched by an indicator such as a fingertip. Some capacitive touch panels and the like detect an operation when the indicator comes close to the touch panel even when there is no physical contact of the indicator with the touch panel. An operation detected by a simple method is also included in the concept of the contact operation of this embodiment. When a signal indicating a contact position is input from the touch sensor 112, the control unit 20 uses a predetermined coordinate system for expressing an arbitrary position in the display area of the display panel 111 by coordinates based on the input signal. The coordinates of the contact position (hereinafter referred to as “contact position coordinates”) are detected. The process in which the control unit 20 detects the contact position coordinates related to the contact position based on the input from the touch sensor 112 corresponds to the process of “detecting the contact position that has been touched when the touch panel is touched”. To do.

圧力検出センサ113は、タッチパネル11の接触位置が接触操作されている間、当該接触位置における接触操作の押下圧力を示す信号を制御部20に出力する。制御部20は、圧力検出センサ113から押下圧力を示す信号が入力された場合、入力された信号に基づいて、接触位置における接触操作の押下圧力を検出する。本実施形態では、制御部20は、接触位置における接触操作の押下圧力を、圧力レベルlv0〜圧力レベルlv3の4段階のレベルのいずれかとして検出する。圧力レベルlv0は、押下圧力が最も小さいレベルであり、圧力レベルlv3は、押下圧力が最も大きいレベルであり、圧力レベルlv0から圧力レベルlv3へ向かって、押下圧力の度合いが段階的に大きくなる。   The pressure detection sensor 113 outputs a signal indicating the pressing pressure of the contact operation at the contact position to the control unit 20 while the contact position of the touch panel 11 is being contacted. When a signal indicating the pressing pressure is input from the pressure detection sensor 113, the control unit 20 detects the pressing pressure of the contact operation at the contact position based on the input signal. In the present embodiment, the control unit 20 detects the pressing pressure of the contact operation at the contact position as one of four levels of pressure levels lv0 to lv3. The pressure level lv0 is the level at which the pressing pressure is the smallest, the pressure level lv3 is the level at which the pressing pressure is the largest, and the degree of the pressing pressure increases stepwise from the pressure level lv0 to the pressure level lv3.

なお、図2は、本願発明を理解容易にするために、車載装置1の機能構成を主な処理内容に応じて分類して示した概略図であり、車載装置1の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。また、各構成要素の処理は、1つのプログラムで実現されてもよいし、複数のプログラムで実現されてもよい。   Note that FIG. 2 is a schematic diagram showing the functional configuration of the in-vehicle device 1 classified according to main processing contents in order to facilitate understanding of the present invention. Accordingly, it can be classified into more components. Moreover, it can also classify | categorize so that one component may perform more processes. Further, the processing of each component may be executed by one hardware or may be executed by a plurality of hardware. Further, the processing of each component may be realized by one program or may be realized by a plurality of programs.

車載装置1は、車両の現在位置を検出する自車位置検出を行う機能、地図上に車両の現在位置を表示する車両位置表示を行う機能、目的地までの経路を探索する経路探索を行う機能、及び、地図を表示して、地図上に目的地までの経路を表示し、目的地までの経路を案内する経路案内を行う機能を備える。   The in-vehicle device 1 has a function of detecting the current position of the vehicle to detect the current position of the vehicle, a function of displaying the vehicle position to display the current position of the vehicle on a map, and a function of performing a route search to search for a route to the destination. And a function of displaying a map, displaying a route to the destination on the map, and performing route guidance for guiding the route to the destination.

自車位置検出に際し、制御部20は、GPSユニット24及び相対方位検出ユニット25からの入力、及び、地図データ211に基づいて、車両の現在位置を検出する。なお、車両の現在位置を検出する方法はどのような方法であってもよく、また、検出に際し、車速を示す情報等の本実施形態で例示する情報以外の情報を用いてもよい。また、車両位置表示に際し、制御部20は、地図データ211に基づいて、検出した現在位置を中心とした所定のスケールの地図をタッチパネル11に表示すると共に、検出した車両の現在位置を地図上に表示する。また、経路探索に際し、制御部20は、地図データ211に基づいて、検出した現在位置から、ユーザに設定された目的地に至る経路を探索する。また、経路案内に際し、制御部20は、目的地までの経路を地図上に表示すると共に、検出した車両の現在位置を地図上に表示し、目的地に至るまでの経路を案内する。   When detecting the vehicle position, the control unit 20 detects the current position of the vehicle based on the input from the GPS unit 24 and the relative direction detection unit 25 and the map data 211. Note that any method may be used for detecting the current position of the vehicle, and information other than the information exemplified in the present embodiment, such as information indicating the vehicle speed, may be used for detection. In addition, when displaying the vehicle position, the control unit 20 displays a map of a predetermined scale centered on the detected current position on the touch panel 11 based on the map data 211, and displays the detected current position of the vehicle on the map. indicate. In addition, when searching for a route, the control unit 20 searches for a route from the detected current position to the destination set by the user based on the map data 211. In route guidance, the control unit 20 displays the route to the destination on the map, displays the detected current position of the vehicle on the map, and guides the route to the destination.

ところで、車載装置1の制御部20は、タッチパネル11に、オブジェクト画像OGを表示する機能を有する。オブジェクト画像OGは、ユーザに、所定の情報を通知することを目的としてタッチパネル11の所定の表示領域に表示される画像である。制御部20は、タッチパネル11に地図を表示している場合、地図に重ねてオブジェクト画像OGを表示する。
以下、まず、オブジェクト画像OGについて、2つの例を挙げて説明する。
By the way, the control unit 20 of the in-vehicle device 1 has a function of displaying the object image OG on the touch panel 11. The object image OG is an image displayed in a predetermined display area of the touch panel 11 for the purpose of notifying the user of predetermined information. When the map is displayed on the touch panel 11, the control unit 20 displays the object image OG on the map.
Hereinafter, first, the object image OG will be described with two examples.

<オブジェクト画像OGの1つ目の例>
図3は、オブジェクト画像OGの例であるガイド地点リストG1を示す図である。
ガイド地点リストG1は、目的地までの経路上に存在するガイド地点を、車両の現在位置に近い方から順番に簡易なリスト形式で表示する画像である。ガイド地点とは、交差点や、高速道路・有料道路への入り口等、目的地までの経路において、車両が当該経路を走行する際に、運転手が車両の走行を注意すべき地点のことである。
<First example of object image OG>
FIG. 3 is a diagram illustrating a guide point list G1 that is an example of the object image OG.
The guide point list G1 is an image that displays guide points that exist on the route to the destination in a simple list format in order from the closest to the current position of the vehicle. A guide point is a point where the driver should be careful about driving the vehicle when the vehicle travels along the route, such as an intersection or an entrance to a highway / toll road. .

経路案内中、制御部20は、所定の事象をトリガーとして自動で、又は、所定の手段によりガイド地点リストG1の表示の指示があったときに、地図データ211に基づいて、目的地までの経路上に存在するガイド地点に関する情報を取得する。次いで、制御部20は、取得したガイド地点に関する情報に基づいて、ガイド地点リストG1の画像データを生成し、生成した画像データを、フレームメモリーFMの所定の展開領域に、地図の画像データに重ねて展開することにより、ガイド地点リストG1を、タッチパネル11の所定の表示領域に表示する。   During route guidance, the control unit 20 automatically routes to a destination based on the map data 211 when a predetermined event is triggered or when an instruction to display the guide point list G1 is given by a predetermined means. Get information about the guide points that exist above. Next, the control unit 20 generates image data of the guide point list G1 based on the acquired information on the guide points, and superimposes the generated image data on the map image data in a predetermined development area of the frame memory FM. The guide point list G <b> 1 is displayed in a predetermined display area of the touch panel 11.

<オブジェクト画像OGの2つ目の例>
図4は、オブジェクト画像OGの例である道路施設表示画像G2を示す図である。
道路施設表示画像G2は、高速道路や、有料道路(以下、「高速道路等」という。)に存在するインターチェンジ、サービスエリア、パーキングエリア等の施設や構造物(以下、「施設等」という。)を、車両の現在位置に近い方から順番に簡易なリスト形式で表示する画像である。
<Second example of object image OG>
FIG. 4 is a diagram illustrating a road facility display image G2 that is an example of the object image OG.
The road facility display image G2 includes facilities and structures (hereinafter referred to as “facility etc.”) such as interchanges, service areas, parking areas, etc. existing on expressways and toll roads (hereinafter referred to as “express roads”). Are displayed in a simple list format in order from the side closer to the current position of the vehicle.

車両の走行中、制御部20は、車両が高速道路等を走行中か否かを監視する。制御部20は、車両が高速道路等を走行中の場合、所定の事象をトリガーとして自動で、又は、所定の手段により道路施設表示画像G2の表示の指示があったときに、地図データ211に基づいて、走行中の高速道路等に存在する施設等に関する情報を取得する。次いで、制御部20は、取得した施設等に関する情報に基づいて、道路施設表示画像G2の画像データを生成し、生成した画像データを、フレームメモリーFMの所定の展開領域に、地図の画像データに重ねて展開することにより、道路施設表示画像G2を、タッチパネル11の所定の表示領域に表示する。   While the vehicle is traveling, the control unit 20 monitors whether the vehicle is traveling on an expressway or the like. When the vehicle is traveling on an expressway or the like, the control unit 20 automatically displays the map data 211 in response to an instruction to display the road facility display image G2 using a predetermined event as a trigger or by a predetermined means. Based on this, information on facilities and the like existing on a traveling highway or the like is acquired. Next, the control unit 20 generates image data of the road facility display image G2 based on the acquired information on the facility and the like, and converts the generated image data into a predetermined development area of the frame memory FM into map image data. The road facility display image G <b> 2 is displayed in a predetermined display area of the touch panel 11 by being developed in an overlapping manner.

以上、オブジェクト画像OGについて、2つの例を挙げて説明したが、オブジェクト画像OGは例示した画像に限られない。すなわち、オブジェクト画像OGは、タッチパネル11の所定の表示領域に表示される画像であればよい。   The object image OG has been described with two examples, but the object image OG is not limited to the illustrated image. That is, the object image OG may be an image displayed in a predetermined display area of the touch panel 11.

このように、車載装置1は、タッチパネル11に、オブジェクト画像OGを表示する機能を有する。そして、車載装置1は、タッチパネル11の特性を利用した以下の方法で、オブジェクト画像OGを表示し、オブジェクト画像OGの表示の方法に多様性をもたせ、ユーザの利便性を向上する。以下、オブジェクト画像OGの表示に関する車載装置1の動作について詳述する。   Thus, the in-vehicle device 1 has a function of displaying the object image OG on the touch panel 11. And the vehicle-mounted apparatus 1 displays the object image OG with the following method using the characteristic of the touch panel 11, gives the diversity of the display method of the object image OG, and improves a user's convenience. Hereinafter, the operation of the in-vehicle device 1 relating to the display of the object image OG will be described in detail.

図5は、オブジェクト画像OGの表示に関する車載装置1の動作を示すフローチャートである。
図5のフローチャートの開始時点では、制御部20は、地図データ211に基づいて、車両の現在位置を中心とした所定の縮尺の地図をタッチパネル11に表示しているものとする。
FIG. 5 is a flowchart showing the operation of the in-vehicle device 1 regarding the display of the object image OG.
At the start of the flowchart in FIG. 5, it is assumed that the control unit 20 displays a map of a predetermined scale centered on the current position of the vehicle on the touch panel 11 based on the map data 211.

図5に示すように、車載装置1の制御部20は、所定の事象をトリガーとして自動で、又は、ユーザの指示に基づいて、タッチパネル11に、地図に重ねて対応するオブジェクト画像OGを表示する(ステップSA1)。   As illustrated in FIG. 5, the control unit 20 of the in-vehicle device 1 displays a corresponding object image OG on the touch panel 11 so as to overlap with a map automatically based on a predetermined event or based on a user instruction. (Step SA1).

図6(A)は、ステップSA1の処理によって、地図に重ねて表示されたガイド地点リストG1(オブジェクト画像OG)の一例を示す図である。図6(A)で例示するガイド地点リストG1は、説明の便宜を考慮し、その内容を単純化し模式化している。以下では、適宜、図6(A)のガイド地点リストG1(オブジェクト画像OG)が、ステップSA1の処理によりタッチパネル11に表示されたものとして、説明を行う。   FIG. 6A is a diagram illustrating an example of the guide point list G1 (object image OG) displayed so as to be superimposed on the map by the process of step SA1. The guide point list G1 illustrated in FIG. 6A is simplified and modeled for convenience of explanation. In the following description, it is assumed that the guide point list G1 (object image OG) in FIG. 6A is displayed on the touch panel 11 by the process of step SA1 as appropriate.

なお、制御部20は、接触位置座標と、フレームメモリーFMの各ドットの座標との対応関係を管理しており、接触位置座標を、フレームメモリーFMのドットの座標に変換する機能を有する。また、制御部20は、フレームメモリーFMにおいて、オブジェクト画像OGを展開した領域を管理しており、所定の接触位置に接触操作が行われた場合、接触位置と、オブジェクト画像OGの表示領域との位置関係を認識できる。   The control unit 20 manages the correspondence between the contact position coordinates and the coordinates of each dot in the frame memory FM, and has a function of converting the contact position coordinates into the dot coordinates in the frame memory FM. Further, the control unit 20 manages an area where the object image OG is developed in the frame memory FM, and when a contact operation is performed at a predetermined contact position, the contact position and the display area of the object image OG are displayed. The positional relationship can be recognized.

オブジェクト画像OGの表示後、制御部20は、オブジェクト画像OGの外周に沿った1箇所の接触位置の移動があったか否かを監視し(ステップSA2)、当該移動があった場合(ステップSA2:YES)、オブジェクト画像OGを後述する立体的表示処理の対象として決定する(ステップSA3)。   After the display of the object image OG, the control unit 20 monitors whether or not there is a movement of one contact position along the outer periphery of the object image OG (step SA2), and if there is such a movement (step SA2: YES) ), The object image OG is determined as a target of a stereoscopic display process to be described later (step SA3).

図6(B)は、オブジェクト画像OGの外周に沿った1箇所の接触位置の移動の説明に利用する図である。
図6(B)の例では、オブジェクト画像OGの外周に沿った1箇所の接触位置の移動は、位置P1を起点として、位置P1→位置P2→位置P3→位置P4→位置P1の順に、オブジェクト画像OGを囲むように変移する接触位置の移動である。
FIG. 6B is a diagram used for explaining the movement of one contact position along the outer periphery of the object image OG.
In the example of FIG. 6B, the movement of one contact position along the outer periphery of the object image OG starts from the position P1, and starts from the position P1, the position P2, the position P3, the position P4, and the position P1 in this order. This is the movement of the contact position that changes so as to surround the image OG.

なお、オブジェクト画像OGの外周に沿った1箇所の接触位置の移動の起点は、図6(B)で例示した位置に対応する位置に限らずどの位置であってもよい。また、接触位置の移動方向も、図6(B)で例示した接触位位置の移動方向に対応する方向に限らずどの方向であってもよい。すなわち、オブジェクト画像OGの外周に沿った1箇所の接触位置の移動は、1箇所の接触位置が、オブジェクト画像OGを囲むように、オブジェクト画像OGの外周に沿って移動するものであれば、その形態を問わない。   Note that the starting point of the movement of one contact position along the outer periphery of the object image OG is not limited to the position corresponding to the position illustrated in FIG. 6B, and may be any position. Further, the moving direction of the contact position is not limited to the direction corresponding to the moving direction of the contact position illustrated in FIG. That is, the movement of one contact position along the outer periphery of the object image OG is as long as the one contact position moves along the outer periphery of the object image OG so as to surround the object image OG. Regardless of form.

ユーザは、図6(A)のガイド地点リストG1(オブジェクト画像OG)について、当該ガイド地点リストG1を後述する立体的表示処理の対象とすることを望む場合、図6(B)に示すように、例えば、自身の人差し指の指先により位置P1を接触操作した後、指先とタッチパネル11とが接触した状態を維持しつつ、指先を位置P1→位置P2→位置P3→位置P4→位置P1へと移動させる。   When the user wants to make the guide point list G1 of the guide point list G1 (object image OG) in FIG. 6A to be a target of a stereoscopic display process described later, as shown in FIG. 6B. For example, after touching position P1 with the fingertip of his / her own index finger, the fingertip is moved from position P1 → position P2 → position P3 → position P4 → position P1 while maintaining the state in which the fingertip and touch panel 11 are in contact with each other. Let

このように、1のオブジェクト画像OGについて、後述する立体的表示処理の対象とすることを望む場合、ユーザは、当該1のオブジェクト画像OGに対応する所定の操作を行えばよい。このため、複数のオブジェクト画像OGがタッチパネル11に表示されている状態であっても、ユーザは、特定のオブジェクト画像OGを、後述する立体的表示処理の対象とすることができる。   In this way, when one object image OG is desired to be a target of stereoscopic display processing to be described later, the user may perform a predetermined operation corresponding to the one object image OG. For this reason, even in a state where a plurality of object images OG are displayed on the touch panel 11, the user can make the specific object image OG a target of a stereoscopic display process described later.

なお、「オブジェクト画像OGの外周に沿った1箇所の接触位置の移動」は、「1箇所の接触位置の第1の態様での移動」に相当する。そして、オブジェクト画像OGの後述する立体的表示処理の対象とする「1箇所の接触位置の第1の態様での移動」は、例示したものに限らない。ただし、オブジェクト画像OGが偶発的に後述する立体的表示処理の対象となることを防止するため、例示した移動のように、ユーザが意図的に行った操作に基づく接触位置の移動であることが望ましい。   The “movement of one contact position along the outer periphery of the object image OG” corresponds to “movement of one contact position in the first mode”. The “movement of the one contact position in the first mode”, which is a target of a stereoscopic display process to be described later of the object image OG, is not limited to that illustrated. However, in order to prevent the object image OG from accidentally becoming a target of a stereoscopic display process to be described later, it may be a movement of the contact position based on an operation intentionally performed by the user like the illustrated movement. desirable.

また、立体的表示処理の対象としたオブジェクト画像OGについて、立体的表示処理の対象となったことをユーザが認識できるように、オブジェクト画像OGの外周を太線で表示する等の所定の装飾を施すようにしてもよい。   In addition, the object image OG that is the target of the three-dimensional display process is provided with a predetermined decoration such as displaying the outer periphery of the object image OG with a thick line so that the user can recognize that it is the target of the three-dimensional display process. You may do it.

ステップSA3で、オブジェクト画像OGを後述する立体的表示処理の対象として決定した後、制御部20は、立体的表示処理の対象としたオブジェクト画像OGの表示領域(以下、「オブジェクト画像表示領域」という。)に、2箇所の接触位置が検出されたか否かを監視する(ステップSA4)。   After determining the object image OG as a target for a stereoscopic display process to be described later in step SA3, the control unit 20 displays a display area of the object image OG that is a target of the stereoscopic display process (hereinafter referred to as “object image display area”). )), It is monitored whether or not two contact positions have been detected (step SA4).

図6(C)は、ステップSA4の処理の説明に用いる図である。
図6(C)の例の場合、ステップSA3において、制御部20は、ガイド地点リストG1(オブジェクト画像OG)の表示領域A1に、2箇所の接触位置(例えば、接触位置P5、及び、接触位置P6)が検出されたか否かを監視する。
FIG. 6C is a diagram used for explaining the processing in step SA4.
In the case of the example of FIG. 6C, in step SA3, the control unit 20 displays two contact positions (for example, the contact position P5 and the contact position) in the display area A1 of the guide point list G1 (object image OG). It is monitored whether or not P6) is detected.

ユーザは、例えば、図7に示すように、人差し指と、親指とを広げた状態で、人差し指の指先と、親指の指先で、オブジェクト画像表示領域を接触操作することにより、制御部20に2箇所の接触位置の検出を行わせる。   For example, as shown in FIG. 7, the user touches the object image display area with the fingertip of the index finger and the fingertip of the thumb in a state where the index finger and the thumb are spread, so that the control unit 20 has two locations. The contact position is detected.

オブジェクト画像表示領域に、2箇所の接触位置が検出された場合(ステップSA4:YES)、制御部20は、動作モードを、立体的表示モードへと移行する(ステップSA5)。立体的表示モードとは、立体的表示処理の対象となったオブジェクト画像OGについて、ユーザによる所定の操作に応じて、オブジェクト画像OGを立体的に傾けて表示する動作モードである。なお、本実施形態では、立体的表示モードへの移行に際し、2箇所の接触位置に対する接触操作を必要とする。これは、例えば、タッチパネル11に表示されたアイコンを接触操作してアイコンを選択する操作等、1箇所の接触位置に対する接触操作と、立体的表示モードへの移行のための接触操作とを区別するためである。   When two contact positions are detected in the object image display area (step SA4: YES), the control unit 20 shifts the operation mode to the stereoscopic display mode (step SA5). The stereoscopic display mode is an operation mode in which the object image OG is displayed in a three-dimensionally tilted manner in accordance with a predetermined operation by the user with respect to the object image OG that is the target of the stereoscopic display process. In the present embodiment, a contact operation with respect to two contact positions is required when shifting to the stereoscopic display mode. This distinguishes, for example, a contact operation for one contact position, such as an operation for selecting an icon by touching an icon displayed on the touch panel 11, and a contact operation for shifting to the stereoscopic display mode. Because.

立体的表示モードへ移行後、制御部20は、2箇所の接触位置のそれぞれの接触位置座標を検出する(ステップSA6)。   After shifting to the stereoscopic display mode, the control unit 20 detects the contact position coordinates of the two contact positions (step SA6).

次いで、制御部20は、ステップSA6で取得した2箇所の接触位置の接触位置座標に基づいて、後に詳述する回動軸の軸方向を決定する(ステップSA7)。以下、ステップSA7の処理について詳述する。   Next, the control unit 20 determines the axial direction of the rotation shaft, which will be described in detail later, based on the contact position coordinates of the two contact positions acquired in Step SA6 (Step SA7). Hereinafter, the process of step SA7 will be described in detail.

図8は、ステップSA7の処理について説明するため、オブジェクト画像表示領域と、当該領域における2箇所の接触位置とを示す図である。図8において、矢印で示す上下左右方向は、タッチパネル11の上下左右方向(図1(A)参照)に対応する方向である。
図8に示すように、オブジェクト画像表示領域に、座標(X1、Y1)の接触位置P7と、座標(X2、Y2)の接触位置P8が存在しているものとする。なお、タッチパネル11の表示領域の任意の位置を座標によって表すための所定の座標系は、x軸が、タッチパネル11の左右方向に対応する方向に延びる軸であり、y軸が、タッチパネル11の上下方向に対応する方向に延びる軸である。
FIG. 8 is a diagram illustrating the object image display area and the two contact positions in the area in order to explain the processing in step SA7. In FIG. 8, the up / down / left / right directions indicated by arrows are directions corresponding to the up / down / left / right directions of the touch panel 11 (see FIG. 1A).
As shown in FIG. 8, it is assumed that a contact position P7 at coordinates (X1, Y1) and a contact position P8 at coordinates (X2, Y2) exist in the object image display area. The predetermined coordinate system for representing an arbitrary position in the display area of the touch panel 11 by coordinates is an axis in which the x axis extends in a direction corresponding to the left and right direction of the touch panel 11, and the y axis is the top and bottom of the touch panel 11. An axis extending in a direction corresponding to the direction.

図8の例の場合、ステップSA7において、制御部20は、接触位置P7と接触位置P8とのx軸方向(左右方向)の離間距離L1(|X1−X2|)を算出し、さらに、接触位置P7と接触位置P8とのy軸方向(上下方向)の離間距離L2(|Y1−Y2|)を算出する。   In the case of the example of FIG. 8, in step SA7, the control unit 20 calculates a separation distance L1 (| X1-X2 |) between the contact position P7 and the contact position P8 in the x-axis direction (left-right direction), and further contact. A distance L2 (| Y1-Y2 |) in the y-axis direction (vertical direction) between the position P7 and the contact position P8 is calculated.

次いで、制御部20は、接触位置P7と接触位置P8とのx軸方向の離間距離(以下、「x軸方向離間距離」という。)と、接触位置P7と接触位置P8とのy軸方向の離間距離(以下、「y軸方向離間距離」という。)とを比較し、x軸方向離間距離の方が大きい場合は、後述する回動軸の軸方向を上下方向として決定し、x軸方向離間距離の方が大きくない場合は、後述する回動軸の軸方向を左右方向として決定する。
図8の例では、x軸方向離間距離(|X1−X2|)の方が、y軸方向離間距離(|Y1−Y2|)よりも大きく、制御部20は、回動軸の軸方向を上下方向として決定する。
Next, the controller 20 separates the contact position P7 and the contact position P8 in the x-axis direction distance (hereinafter referred to as “x-axis direction separation distance”) and the contact position P7 and the contact position P8 in the y-axis direction. When the separation distance (hereinafter referred to as “y-axis direction separation distance”) is compared, and the x-axis direction separation distance is larger, the axial direction of the rotation shaft described later is determined as the vertical direction, and the x-axis direction is determined. When the separation distance is not larger, the axial direction of the rotation shaft described later is determined as the left-right direction.
In the example of FIG. 8, the x-axis direction separation distance (| X1-X2 |) is larger than the y-axis direction separation distance (| Y1-Y2 |), and the control unit 20 determines the axial direction of the rotation shaft. Determine as the vertical direction.

このように、ステップSA7において、制御部20は、2箇所の接触位置の左右方向における離間距離と、上下方向における離間距離とを比較し、左右方向の離間距離が大きい場合、回動軸の軸方向を上下方向として決定し、左右方向の離間距離が大きくない場合、回動軸の軸方向を左右方向として決定する。ユーザは、回動軸の軸方向を上下方向としたい場合は、2箇所の接触位置について、左右方向の離間距離を上下方向の離間距離よりも大きくし、一方、回動軸の軸方向を左右方向としたい場合は、2箇所の接触位置について、上下方向の離間距離を左右方向の離間距離よりも大きい。   In this way, in step SA7, the control unit 20 compares the separation distance in the left-right direction of the two contact positions with the separation distance in the up-down direction. When the direction is determined as the vertical direction and the separation distance in the horizontal direction is not large, the axial direction of the rotation shaft is determined as the horizontal direction. When the user wants the axial direction of the rotation axis to be the vertical direction, the left-right direction separation distance is made larger than the vertical separation distance at the two contact positions, while the rotation axis direction is set to the left-right direction. When it is desired to set the direction, the vertical separation distance is larger than the horizontal separation distance at the two contact positions.

次いで、制御部20は、立体的表示処理を実行する(ステップSA8)。   Next, the control unit 20 performs a stereoscopic display process (step SA8).

図9は、立体的表示処理の詳細を示すフローチャートである。
なお、以下の図9を用いた説明では、説明の便宜のため、ステップSA8において、回動軸の軸方向が上下方向として決定されているものとする。
図9に示すように、制御部20は、圧力検出センサ113からの入力に基づいて、2箇所の接触位置のそれぞれの押下圧力を検出する(ステップSB1)。
FIG. 9 is a flowchart showing details of the stereoscopic display process.
In the following description with reference to FIG. 9, it is assumed that the axial direction of the rotation shaft is determined as the vertical direction in step SA8 for convenience of description.
As shown in FIG. 9, the control unit 20 detects the pressing pressures at the two contact positions based on the input from the pressure detection sensor 113 (step SB1).

次いで、制御部20は、2箇所の接触位置のうち、押下圧力が大きい方の接触位置を特定する(ステップSB2)。   Next, the control unit 20 specifies the contact position with the larger pressing pressure out of the two contact positions (step SB2).

次いで、制御部20は、押下圧力が大きい方の接触位置の押下圧力に基づいて、オブジェクト画像OGの表示状態を変化させる(ステップSB3)。以下、ステップSB3の処理について詳述する。   Next, the control unit 20 changes the display state of the object image OG based on the pressing pressure at the contact position with the higher pressing pressure (step SB3). Hereinafter, the process of step SB3 will be described in detail.

図10は、ステップSB3の処理の説明に利用する図である。
図10において、図10(A)は、立体的表示処理が行われる前にタッチパネル11に表示されたオブジェクト画像OGを示す図である。図10(A)の例では、オブジェクト画像表示領域における2箇所の接触位置は接触位置P9、及び、接触位置P10である。また、図10(A)で例示するオブジェクト画像OGには、左右方向に並ぶ5つの文字「あ」によって構成される文字列「あああああ」が表示される。
以下、図10(A)に示すオブジェクト画像OGを、「通常オブジェクト画像」と表現する。
FIG. 10 is a diagram used for explaining the processing in step SB3.
In FIG. 10, FIG. 10A is a diagram illustrating the object image OG displayed on the touch panel 11 before the stereoscopic display process is performed. In the example of FIG. 10A, the two contact positions in the object image display area are the contact position P9 and the contact position P10. In addition, in the object image OG illustrated in FIG. 10A, a character string “AAOH” composed of five characters “AA” arranged in the left-right direction is displayed.
Hereinafter, the object image OG shown in FIG. 10A is expressed as a “normal object image”.

ステップSB3において、ステップSB2で押下圧力が大きいとして特定した接触位置が接触位置P10であり、接触位置P10における押下圧力の圧力レベルが「圧力レベルlv1」の場合、制御部20は、オブジェクト画像OGの状態を、図10(B)に示す状態とする。
以下、図10(B)に示すオブジェクト画像OGを、「第1オブジェクト画像」と表現する。
In step SB3, when the contact position identified as having a large pressing pressure in step SB2 is the contact position P10, and the pressure level of the pressing pressure at the contact position P10 is “pressure level lv1”, the control unit 20 displays the object image OG. The state is the state shown in FIG.
Hereinafter, the object image OG shown in FIG. 10B is expressed as a “first object image”.

詳述すると、制御部20は、回動軸(本例では、回動軸の軸方向は上下方向)の位置を、オブジェクト画像OGの左辺、右辺のうち、2つの接触位置のうち、押下圧力が大きくない方の接触位置の側の辺に対応する位置に設定する。図10(B)の例では、制御部20は、符号J1で示すように、回動軸の位置を、オブジェクト画像OGの左辺に設定する。   Specifically, the control unit 20 determines the position of the rotation axis (in this example, the axial direction of the rotation axis is the vertical direction) as the pressing pressure of the two contact positions of the left side and the right side of the object image OG. It is set to a position corresponding to the side on the side of the contact position that is not large. In the example of FIG. 10B, the control unit 20 sets the position of the rotation axis to the left side of the object image OG, as indicated by reference numeral J1.

次いで、制御部20は、回動軸を中心として、接触位置P10の側(押下圧力が大きい方の接触位置の側)が奥行き方向における後方向(図1(B)参照)に対応する方向(以下、単に「後方向」と表現する。)に変移するように、オブジェクト画像OGを仮想回動角度θ1だけ立体的に傾けて表示する。
なお、仮想回動角度は、第1オブジェクト画像、後述する第2オブジェクト画像、及び、後述する第3オブジェクト画像について、回動軸を中心とした見た目上の回動角度の違いを説明するために、オブジェクト画像OGが3次元空間に存在すると仮定した場合における回動軸を中心とした回動角度を便宜的に表す角度である。
Next, the control unit 20 has a direction (refer to FIG. 1B) in which the side of the contact position P10 (the side of the contact position where the pressing pressure is larger) is centered on the rotation axis (see FIG. 1B). Hereinafter, the object image OG is displayed in a three-dimensionally tilted manner by the virtual rotation angle θ1 so as to shift to “rearward direction”.
Note that the virtual rotation angle is for explaining the difference in the apparent rotation angle around the rotation axis for the first object image, the second object image described later, and the third object image described later. The rotation angle about the rotation axis when it is assumed that the object image OG exists in the three-dimensional space is an angle for convenience.

図10(B)において、枠W1は、通常オブジェクト画像(図10(A))の表示領域を示す枠である。図10(B)に示すように、第1オブジェクト画像は、回動軸を中心として通常オブジェクト画像が立体的に傾けて表現された画像であるため、第1オブジェクト画像の表示領域の面積は、通常オブジェクト画像の面積よりも小さい。具体的には、第1オブジェクト画像の表示領域の面積は、通常オブジェクト画像の面積よりも、図10(B)において斜線で示す領域Z1の分、小さくなる。これにより、領域Z1については、地図が表示された状態となり、タッチパネル11に表示される地図(ユーザが視認可能な地図)の面積を拡大することができ、ユーザの利便性が向上する。   In FIG. 10B, a frame W1 is a frame indicating the display area of the normal object image (FIG. 10A). As shown in FIG. 10B, since the first object image is an image that is expressed by three-dimensionally tilting the normal object image around the rotation axis, the area of the display area of the first object image is Usually smaller than the area of the object image. Specifically, the area of the display area of the first object image is smaller than the area of the normal object image by the area Z1 indicated by hatching in FIG. Thereby, about the area | region Z1, it will be in the state in which the map was displayed, the area of the map (map which a user can visually recognize) displayed on the touch panel 11 can be expanded, and a user's convenience improves.

さらに、図10(A)と図10(B)との比較で明らかなとおり、第1オブジェクト画像が有する情報は、通常オブジェクト画像が有する情報と同一であり、通常オブジェクト画像と比較して欠損していない。具体的には、第1オブジェクト画像は、通常オブジェクト画像が情報として有する文字列「あああああ」と同じ情報を有する。これは、第1オブジェクト画像について、通常オブジェクト画像を立体的に傾けることによって表示することにより可能となるものである。   Furthermore, as is clear from a comparison between FIG. 10A and FIG. 10B, the information included in the first object image is the same as the information included in the normal object image, and is missing compared to the normal object image. Not. Specifically, the first object image has the same information as the character string “Ah Ah” that the normal object image has as information. This is possible by displaying the first object image by tilting the normal object image three-dimensionally.

このように、制御部20は、タッチパネル11に対するユーザの所定の操作に応じて、通常オブジェクト画像を第1オブジェクト画像へと変移させることにより、通常オブジェクト画像が有する情報を欠損させることなく、タッチパネル11において地図が表示される領域を拡大する。   In this manner, the control unit 20 changes the normal object image to the first object image in accordance with a user's predetermined operation on the touch panel 11, so that the information included in the normal object image is not lost. The area where the map is displayed is enlarged.

また、ステップSB3において、ステップSB2で押下圧力が大きいとして特定した接触位置が接触位置P10であり、接触位置P10における押下圧力の圧力レベルが「圧力レベルlv2」の場合、制御部20は、オブジェクト画像OGの状態を、図10(C)に示す状態とする。
以下、図10(C)に示すオブジェクト画像OGを、「第2オブジェクト画像」と表現する。
In step SB3, if the contact position identified as having a large pressing pressure in step SB2 is the contact position P10, and the pressure level of the pressing pressure at the contact position P10 is “pressure level lv2”, the control unit 20 displays the object image. The state of OG is the state shown in FIG.
Hereinafter, the object image OG shown in FIG. 10C is expressed as a “second object image”.

詳述すると、制御部20は、第1オブジェクト画像の場合と同様、回動軸の位置をオブジェクト画像OGの左辺に設定する。次いで、制御部20は、回動軸を中心として、接触位置P10の側(押下圧力が大きい方の接触位置の側)が後方向に変移するように、オブジェクト画像OGを仮想回動角度θ2だけ立体的に傾けて表示する。仮想回動角度θ2の値は、仮想回動角度θ1の値よりも大きい。この結果、図10(C)に示すように、回動軸を中心とした見た目上の回動角度が第1オブジェクト画像よりも大きい第2オブジェクト画像が表示された状態となる。   More specifically, the control unit 20 sets the position of the rotation axis to the left side of the object image OG as in the case of the first object image. Next, the control unit 20 converts the object image OG by the virtual rotation angle θ2 so that the side of the contact position P10 (the side of the contact position with the larger pressing pressure) shifts backward about the rotation axis. Display in a three-dimensional tilt. The value of the virtual rotation angle θ2 is larger than the value of the virtual rotation angle θ1. As a result, as shown in FIG. 10C, the second object image having a larger apparent rotation angle around the rotation axis than the first object image is displayed.

図10(B)と、図10(C)との比較で明らかなとおり、第2オブジェクト画像に係る仮想回動角度θ2は、第1オブジェクト画像に係る仮想回動角度θ1よりも大きいため、第2オブジェクト画像の表示領域と通常オブジェクト画像の表示領域との差分の領域Z2の面積は、第1オブジェクト画像の表示領域と通常オブジェクト画像の表示領域との差分の領域Z1(図10(B))よりも大きい。従って、第2オブジェクト画像が表示されている場合、第1オブジェクト画像が表示されている場合と比較して、タッチパネル11において地図が表示される領域が大きい。また、第2オブジェクト画像は、第1オブジェクト画像と同様、通常オブジェクト画像が有する情報と同一の情報を有し、欠損がない。   As is clear from a comparison between FIG. 10B and FIG. 10C, the virtual rotation angle θ2 related to the second object image is larger than the virtual rotation angle θ1 related to the first object image. The area Z2 of the difference between the display area of the two object images and the display area of the normal object image is the difference area Z1 between the display area of the first object image and the display area of the normal object image (FIG. 10B). Bigger than. Therefore, when the second object image is displayed, the area where the map is displayed on the touch panel 11 is larger than when the first object image is displayed. Further, the second object image has the same information as the normal object image and has no deficiency, like the first object image.

また、ステップSB3において、ステップSB2で押下圧力が大きいとして特定した接触位置が接触位置P10であり、接触位置P10における押下圧力の圧力レベルが「圧力レベルlv3」の場合、制御部20は、オブジェクト画像OGの状態を、図10(D)に示す状態とする。
以下、図10(D)に示すオブジェクト画像OGを、「第3オブジェクト画像」と表現する。
In step SB3, when the contact position specified as the pressing pressure is large in step SB2 is the contact position P10, and the pressure level of the pressing pressure at the contact position P10 is “pressure level lv3”, the control unit 20 displays the object image. The OG state is the state shown in FIG.
Hereinafter, the object image OG shown in FIG. 10D is expressed as a “third object image”.

詳述すると、制御部20は、第1オブジェクト画像の場合と同様、回動軸の位置をオブジェクト画像OGの左辺に設定する。次いで、制御部20は、回動軸を中心として、接触位置P10の側(押下圧力が大きい方の接触位置の側)が後方向に変移するように、オブジェクト画像OGを仮想回動角度θ3だけ立体的に傾けて表示する。仮想回動角度θ3の値は、仮想回動角度θ2の値よりも大きい。この結果、図10(D)に示すように、回動軸を中心とした見た目上の回動角度が第2オブジェクト画像よりも大きい第3オブジェクト画像が表示された状態となる。   More specifically, the control unit 20 sets the position of the rotation axis to the left side of the object image OG as in the case of the first object image. Next, the control unit 20 converts the object image OG by the virtual rotation angle θ3 so that the contact position P10 side (the contact position side with the larger pressing pressure) shifts backward about the rotation axis. Display in a three-dimensional tilt. The value of the virtual rotation angle θ3 is larger than the value of the virtual rotation angle θ2. As a result, as shown in FIG. 10D, the third object image having a larger apparent rotation angle around the rotation axis than the second object image is displayed.

図10(C)と、図10(D)との比較で明らかなとおり、第3オブジェクト画像に係る仮想回動角度θ3は、第2オブジェクト画像に係る仮想回動角度θ2よりも大きいため、第3オブジェクト画像の表示領域と通常オブジェクト画像の表示領域との差分の領域Z3の面積は、第2オブジェクト画像の表示領域と通常オブジェクト画像の表示領域との差分の領域Z2(図10(C))よりも大きい。従って、第3オブジェクト画像が表示されている場合、第2オブジェクト画像が表示されている場合と比較して、タッチパネル11において地図が表示される領域が大きい。また、第3オブジェクト画像は、第1オブジェクト画像と同様、通常オブジェクト画像が有する情報と同一の情報を有し、欠損がない。   As is clear from a comparison between FIG. 10C and FIG. 10D, the virtual rotation angle θ3 related to the third object image is larger than the virtual rotation angle θ2 related to the second object image. The area Z3 of the difference between the display area of the three-object image and the display area of the normal object image is the area Z2 of the difference between the display area of the second object image and the display area of the normal object image (FIG. 10C). Bigger than. Therefore, when the third object image is displayed, the area where the map is displayed on the touch panel 11 is larger than when the second object image is displayed. Further, the third object image has the same information as that of the normal object image and has no defect, like the first object image.

ここで、図9のフローチャートに示すように、接触位置における押下圧力の検出(ステップSB1)、及び、接触位置における押下圧力に基づいてオブジェクト画像OGの状態を変化させる処理は、立体的表示処理が行われている間、継続して連続的に行われる。従って、図10の例において、オブジェクト画像OGは、接触位置P10における押下圧力の圧力レベルの変化に応じて、第1オブジェクト画像、第2オブジェクト画像、及び、第3オブジェクト画像の間で連続的に切り替わる。例えば、接触位置P10における押下圧力の圧力レベルが、圧力レベルlv1→圧力レベルlv2→圧力レベルlv3へと変化した場合、圧力レベルの変化に応じて、オブジェクト画像OGは、第1オブジェクト画像→第2オブジェクト画像→第3オブジェクト画像へと連続的に切り替わる。また例えば、接触位置P10における押下圧力の圧力レベルが、圧力レベルlv3→圧力レベルlv2→圧力レベルlv1へと変化した場合、圧力レベルの変化に応じて、オブジェクト画像OGは、第3オブジェクト画像→第2オブジェクト画像→第1オブジェクト画像へと連続的に切り替わる。   Here, as shown in the flowchart of FIG. 9, detection of the pressing pressure at the contact position (step SB1) and processing for changing the state of the object image OG based on the pressing pressure at the contact position are three-dimensional display processing. While it is being performed, it is continuously performed continuously. Therefore, in the example of FIG. 10, the object image OG is continuously between the first object image, the second object image, and the third object image in accordance with the change in the pressure level of the pressing pressure at the contact position P10. Switch. For example, when the pressure level of the pressing pressure at the contact position P10 changes from the pressure level lv1 → the pressure level lv2 → the pressure level lv3, the object image OG is changed from the first object image → the second according to the change in the pressure level. It is continuously switched from the object image to the third object image. Further, for example, when the pressure level of the pressing pressure at the contact position P10 changes from the pressure level lv3 → the pressure level lv2 → the pressure level lv1, the object image OG is changed from the third object image → the first level according to the change in the pressure level. The two-object image is continuously switched to the first object image.

これを踏まえ、ユーザは、第1オブジェクト画像が表示された状態において、オブジェクト画像OGの表示領域の面積をより小さくして、タッチパネル11における地図が表示される領域をより大きくすることを望む場合、接触位置P9に対する接触操作の状態を変化させないことにより接触位置P9における押下圧力を変化させずに、接触位置P10に対する接触操作を強めに行うことにより接触位置P10における押下圧力を増大させる。これにより、第1オブジェクト画像が、第2オブジェクト画像へと切り替わり、ユーザの要望が満たされることとなる。第2オブジェクト画像から第3オブジェクト画像への切り替えについても同様である。   Based on this, in the state where the first object image is displayed, the user desires to further reduce the area of the display area of the object image OG and increase the area where the map on the touch panel 11 is displayed. The pressing pressure at the contact position P10 is increased by increasing the contact operation on the contact position P10 without changing the pressing pressure at the contact position P9 without changing the state of the contact operation on the contact position P9. As a result, the first object image is switched to the second object image, and the user's request is satisfied. The same applies to switching from the second object image to the third object image.

ここで、本実施形態では、接触位置における押下圧力の増大に応じて、オブジェクト画像OGに係る仮想回動角度が増大し、オブジェクト画像OGの見た目上の傾きがより増大する。すなわち、ユーザが2箇所の接触位置のうちの一方を強く押せば押すほど、オブジェクト画像OGが、強く押された接触位置の側に大きく傾いた状態となる。このため、ユーザの操作と、表示されるオブジェクト画像OGの状態とに一体性が生まれ、ユーザの操作性がよく、また、ユーザがオブジェクト画像OGを立体的に傾ける際に、どのような操作をすればよいのかをイメージしやすい。   Here, in the present embodiment, the virtual rotation angle related to the object image OG increases as the pressing pressure at the contact position increases, and the apparent inclination of the object image OG further increases. That is, the stronger the user presses one of the two contact positions, the more the object image OG is inclined to the side of the strongly pressed contact position. For this reason, the user's operation and the state of the displayed object image OG are integrated, the user's operability is good, and what kind of operation is performed when the user tilts the object image OG in three dimensions. It is easy to imagine what to do.

なお、ステップSB3において、接触位置の押下圧力に応じて、オブジェクト画像OGの状態を変化させる際、制御部20は、例えば、以下の処理を実行する。例えば、制御部20は、通常オブジェクト画像の画像データを、所定の3次元座標系におけるポリゴンデータによって表す。次いで、制御部20は、既存の画像処理によって、所定の3次元座標系においてポリゴンデータを、回動軸を中心として押下圧力の圧力レベルに応じた回動角度だけ対応する方向に回動させた画像データを生成する。次いで、制御部20は、フレームメモリーFMに対して、既に展開されたオブジェクト画像OGの画像データに代えて、新たに生成した画像データを展開し、これにより、オブジェクト画像OGの状態を変化させる。なお、接触位置の押下圧力に応じて、オブジェクト画像OGの状態を変化させる方法は、例示した方法に限らず、どのような方法であってもよい。   In step SB3, when changing the state of the object image OG according to the pressing pressure at the contact position, the control unit 20 executes, for example, the following process. For example, the control unit 20 represents the image data of the normal object image by polygon data in a predetermined three-dimensional coordinate system. Next, the control unit 20 rotates the polygon data in a predetermined three-dimensional coordinate system in a direction corresponding to the rotation angle corresponding to the pressure level of the pressing pressure around the rotation axis by the existing image processing. Generate image data. Next, the control unit 20 develops the newly generated image data in the frame memory FM instead of the image data of the already developed object image OG, thereby changing the state of the object image OG. Note that the method of changing the state of the object image OG according to the pressing pressure of the contact position is not limited to the exemplified method, and any method may be used.

以上、回動軸の軸方向が上下方向であり、回動軸がオブジェクト画像OGの左辺に位置する場合を例にして、ステップSB3の処理を説明したが、回動軸が上下方向でオブジェクト画像OGの右辺に位置する場合、回動軸が左右方向でオブジェクト画像の上辺に位置する場合、回動軸が左右方向でオブジェクト画像の下辺に位置する場合も、ステップSB3で説明した処理と同様の処理が行われ、押下圧力の大きい方の接触位置の押下圧力に応じて、オブジェクト画像OGの状態が変化する。   The processing of step SB3 has been described above by taking the case where the axis direction of the rotation axis is the vertical direction and the rotation axis is located on the left side of the object image OG as an example. The same processing as described in step SB3 is performed when the rotation axis is positioned on the right side of the OG, when the rotation axis is positioned on the upper side of the object image in the left-right direction, and when the rotation axis is positioned on the lower side of the object image in the left-right direction. Processing is performed, and the state of the object image OG changes according to the pressing pressure at the contact position with the larger pressing pressure.

図11(A)は、図6(A)に示すガイド地点リストG1が、立体的表示処理により傾いて表示された様子を示す図である。図11(A)の場合、回動軸の軸方向は上下方向であり、回動軸の位置は、ガイド地点リストG1の左辺である。図6(A)と図11(A)との比較で明らかなとおり、図11(A)では、情報の欠損を伴うことなく、地図が表示される領域(ユーザが視認可能な地図の表領域)が拡大して表示される。   FIG. 11A is a diagram showing a state where the guide point list G1 shown in FIG. 6A is displayed tilted by the three-dimensional display process. In the case of FIG. 11A, the axis direction of the rotation axis is the vertical direction, and the position of the rotation axis is the left side of the guide point list G1. As is clear from a comparison between FIG. 6A and FIG. 11A, in FIG. 11A, an area in which a map is displayed without a loss of information (a table area of a map that can be visually recognized by the user). ) Is enlarged.

図11(B)は、図6(A)に示すガイド地点リストG1が、立体的表示処理により傾いて表示された様子を示す図である。図11(B)の場合、回動軸の軸方向は左右方向であり、回動軸の位置は、ガイド地点リストG1の下辺である。図6(A)と図11(B)との比較で明らかなとおり、図11(B)では、情報の欠損を伴うことなく、地図が表示される領域(ユーザが視認可能な地図の表領域)が拡大して表示される。   FIG. 11B is a diagram showing a state where the guide point list G1 shown in FIG. 6A is displayed tilted by the three-dimensional display process. In the case of FIG. 11B, the axial direction of the rotation axis is the left-right direction, and the position of the rotation axis is the lower side of the guide point list G1. As is clear from a comparison between FIG. 6A and FIG. 11B, in FIG. 11B, an area where a map is displayed without a loss of information (a table area of a map visible to the user). ) Is enlarged.

さて、ステップSB3において、接触位置における押下圧力に応じて立体的に傾いたオブジェクト画像OGを表示した後、制御部20は、接触位置における接触操作が解除されたか否かを判別する(ステップSB4)。ステップSB4において、制御部20は、2箇所の接触位置のうち、1箇所でも接触操作が解除された場合、接触位置における接触操作が解除されたと判別する。   In step SB3, after displaying the object image OG that is three-dimensionally inclined according to the pressing pressure at the contact position, the control unit 20 determines whether or not the contact operation at the contact position has been released (step SB4). . In step SB4, the control unit 20 determines that the contact operation at the contact position is released when the contact operation is released even at one of the two contact positions.

接触操作が解除された場合(ステップSB4:YES)、制御部20は、オブジェクト画像OGについて、立体的表示処理が行われる前にタッチパネル11に表示されていたオブジェクト画像OGを表示する(ステップSB5)。図10の例では、第1オブジェクト画像(図10(B))、第2オブジェクト画像(図10(C))、又は、第3オブジェクト画像(図10(D))が表示されている状態の場合、制御部20は、通常オブジェクト画像(図10(A))を表示する。   When the contact operation is released (step SB4: YES), the control unit 20 displays the object image OG that is displayed on the touch panel 11 before the stereoscopic display process is performed on the object image OG (step SB5). . In the example of FIG. 10, the first object image (FIG. 10B), the second object image (FIG. 10C), or the third object image (FIG. 10D) is displayed. In this case, the control unit 20 displays a normal object image (FIG. 10A).

次いで、制御部20は、立体的表示モードへの移行を停止し(ステップSB6)、立体的表示処理を終了する。   Next, the control unit 20 stops the transition to the stereoscopic display mode (step SB6) and ends the stereoscopic display process.

一方、ステップSB4において、接触操作が解除されなかった場合(ステップSB4:NO)、制御部20は、2箇所の接触位置のうち、押下圧力が大きい方の接触位置が、タッチパネル11の表面上を任意の方向に、所定距離以上、移動したか否かを判別する(ステップSB7)。   On the other hand, when the contact operation is not released in step SB4 (step SB4: NO), the control unit 20 determines that the contact position with the larger pressing pressure out of the two contact positions is on the surface of the touch panel 11. It is determined whether or not it has moved in an arbitrary direction by a predetermined distance or more (step SB7).

図12は、ステップSB7の処理の説明に利用するため、オブジェクト画像表示領域における2箇所の接触位置P11、接触位置P12を示す図である。
図12において、接触位置P11よりも接触位置P12の方が、押下圧力が大きい場合において、制御部20は、例えば、接触位置P12が、所定距離よりも大きい距離LL離れた接触位置P12´へ移動した場合、ステップSB3において、2箇所の接触位置のうち、押下圧力が大きい方の接触位置が、タッチパネル11の表面上を任意の方向に、所定距離以上、移動したと判別する。
FIG. 12 is a diagram showing two contact positions P11 and P12 in the object image display area for use in explaining the processing in step SB7.
In FIG. 12, when the pressing pressure is greater at the contact position P12 than at the contact position P11, the control unit 20 moves, for example, the contact position P12 to a contact position P12 ′ separated by a distance LL larger than a predetermined distance. In this case, in step SB3, it is determined that the contact position with the larger pressing pressure out of the two contact positions has moved on the surface of the touch panel 11 in an arbitrary direction by a predetermined distance or more.

制御部20は、押下圧力が大きい方の接触位置が、タッチパネル11の表面上を任意の方向に、所定距離以上、移動してない場合(ステップSB7:NO)、処理手順をステップSB1へ戻す。この場合、制御部20により、再び、接触位置における押下圧力の検出が行われて、押下圧力の大きい方の接触位置の押下圧力に応じて、適宜、オブジェクト画像OGが立体的に傾けて表示される。   Control part 20 returns a processing procedure to Step SB1, when a contact position with a larger pressing pressure has not moved more than a predetermined distance on the surface of touch panel 11 in an arbitrary direction (Step SB7: NO). In this case, the control unit 20 detects the pressing pressure at the contact position again, and appropriately displays the object image OG in a three-dimensionally inclined manner according to the pressing pressure at the contact position with the larger pressing pressure. The

一方、制御部20は、押下圧力が大きい方の接触位置が、タッチパネル11の表面上を任意の方向に、所定距離以上、移動したことを検出した場合(ステップSB7:YES)、オブジェクト画像OGの状態を固定する(ステップSB8)。このステップSB8の処理後、制御部20は、接触位置に対する接触操作が解除された場合であっても、オブジェクト画像OGの状態を立体的表示処理が行われる前の状態に戻さず、オブジェクト画像OGの状態を固定して表示する。   On the other hand, when the control unit 20 detects that the contact position with the larger pressing pressure has moved in the arbitrary direction on the surface of the touch panel 11 by a predetermined distance or more (step SB7: YES), the control unit 20 reads the object image OG. The state is fixed (step SB8). After the process of step SB8, the control unit 20 does not return the state of the object image OG to the state before the stereoscopic display process is performed even when the contact operation on the contact position is released, and the object image OG. The state of is fixed and displayed.

ユーザは、立体的表示処理により、立体的に傾いて表示された状態のオブジェクト画像OGについて、その状態を維持してオブジェクト画像OGを表示したいと望む場合、強く押下した方の接触位置に対する接触操作を、タッチパネル11の表面に沿って、所定距離以上、移動させる。これにより、接触位置の状態の変化、接触位置における押下圧力の変化にかかわらず、所定の仮想回動角度だけ立体的に傾いた状態を維持したままオブジェクト画像OGを表示させることができる。   When the user desires to display the object image OG while maintaining the state of the object image OG displayed in a three-dimensionally inclined manner by the three-dimensional display process, the user performs a touch operation on the contact position of the strongly pressed button. Is moved a predetermined distance or more along the surface of the touch panel 11. As a result, the object image OG can be displayed while maintaining a three-dimensionally inclined state by a predetermined virtual rotation angle regardless of the change in the state of the contact position and the change in the pressing pressure at the contact position.

なお、「押下圧力が大きい方の接触位置によるタッチパネル11の表面上における任意の方向への所定距離以上の移動」は、「2箇所の接触位置の少なくともいずれか一方による第2の態様での移動」に相当する。そして、オブジェクト画像OGの表示の状態を固定するために行われる「2箇所の接触位置の少なくともいずれか一方による第2の態様での移動」は、例示したものに限らない。ただし、オブジェクト画像OGの状態が偶発的に固定されることを防止するため、例示した移動のように、ユーザが意図的に行った操作に基づく接触位置の移動であることが望ましい。   Note that “movement of a predetermined distance or more in an arbitrary direction on the surface of the touch panel 11 by the contact position with the larger pressing pressure” is “movement in the second mode by at least one of the two contact positions. Is equivalent to. The “movement in the second mode by at least one of the two contact positions” that is performed to fix the display state of the object image OG is not limited to that illustrated. However, in order to prevent the state of the object image OG from being accidentally fixed, it is desirable that the movement of the contact position is based on an operation intentionally performed by the user, such as the illustrated movement.

ステップSB8の処理を実行した後、制御部20は、2箇所の接触位置に対して接触操作が行われた状態で、いずれか一方の接触位置の押下圧力について、低い圧力レベルから高い圧力レベルへと変化したか否かを監視する(ステップSB9)。例えば、図12に示すように、2箇所の接触位置P11、接触位置P12が検出された状態において、接触位置P12における押下圧力が圧力レベルlv0から圧力レベルlv2へと変化した場合、ステップSB9で制御部20は、いずれか一方の接触位置の押下圧力が低い圧力レベルから高い圧力レベルへと変化したと判別する。   After executing the processing of step SB8, the control unit 20 performs the pressing operation at one of the contact positions from the low pressure level to the high pressure level in a state where the contact operation is performed on the two contact positions. It is monitored whether it has changed (step SB9). For example, as shown in FIG. 12, when the pressed pressure at the contact position P12 changes from the pressure level lv0 to the pressure level lv2 in the state where the two contact positions P11 and P12 are detected, control is performed at step SB9. The unit 20 determines that the pressing pressure at any one of the contact positions has changed from a low pressure level to a high pressure level.

いずれか一方の接触位置の押下圧力が低い圧力レベルから高い圧力レベルへと変化したことを検出した場合(ステップSB9:YES)、制御部20は、オブジェクト画像OGの表示の状態の固定を解除し(ステップSB10)、処理手順をステップSB1に戻す。   When it is detected that the pressing pressure at one of the contact positions has changed from a low pressure level to a high pressure level (step SB9: YES), the control unit 20 releases the fixation of the display state of the object image OG. (Step SB10), the processing procedure is returned to Step SB1.

ユーザは、オブジェクト画像OGの表示の状態の固定を解除することを望む場合、2箇所の接触位置を接触操作した状態で、いずれか一方の接触位置に対する接触操作により押下を段階的に強める。このような簡易な操作を意図的に行うことにより、ユーザは、オブジェクト画像OGの表示の状態の固定を解除することができる。   When the user desires to release the fixation of the display state of the object image OG, the user gradually presses down the contact operation with respect to one of the contact positions in a state where the contact operation is performed at the two contact positions. By intentionally performing such a simple operation, the user can unlock the display state of the object image OG.

以上、立体的表示処理を説明したが、立体的表示処理の内容は、上記で説明した内容に限られるものではない。
以下、立体的表示処理の別の例について、図を用いて説明する。すなわち、立体的表示処理は、上記で説明した方法ではなく、以下で説明する方法で行われてもよい。
Although the stereoscopic display process has been described above, the contents of the stereoscopic display process are not limited to the contents described above.
Hereinafter, another example of the stereoscopic display processing will be described with reference to the drawings. That is, the three-dimensional display process may be performed by the method described below instead of the method described above.

図13は、オブジェクト画像OGの1つである曲リスト画像G3を示す図である。
制御部20は、メディアが、複数の楽曲が記録されたものである場合に、メディアから必要な情報を取得して、トラックごとの楽曲名を一覧表示した曲リスト画像G3を表示する機能を有する。
FIG. 13 is a diagram showing a music list image G3 that is one of the object images OG.
The control unit 20 has a function of acquiring necessary information from the media and displaying a song list image G3 displaying a list of song names for each track when the media is a record of a plurality of songs. .

図13(A)は、立体的表示処理が行われる前にタッチパネル11に表示される曲リスト画像G3を示す図である。   FIG. 13A is a diagram showing a music list image G3 displayed on the touch panel 11 before the stereoscopic display process is performed.

図13(A)に示す曲リスト画像G3が表示された状態のときに、図13(B)に示すように、2箇所の接触位置P13、接触位置P14に対してユーザが接触操作を行ったとする。この場合において、接触位置P14の押下圧力の方が、接触位置P13の押下圧力よりも大きいとする。   When the music list image G3 shown in FIG. 13A is displayed, as shown in FIG. 13B, the user performs a touch operation on the two contact positions P13 and P14. To do. In this case, it is assumed that the pressing pressure at the contact position P14 is larger than the pressing pressure at the contact position P13.

この場合、制御部20は、回動軸の軸方向を上下方向とし、回動軸の位置を接触位置P13と、接触位置P14の中心点Q1を通る位置とする。このように、本例では、制御部20は、軸方向が上下方向の回動軸について、その位置を、オブジェクト画像OGの左辺、又は、右辺とするのではなく、2箇所の接触位置の中心点を通る位置とする。   In this case, the control unit 20 sets the axis direction of the rotation axis as the vertical direction, and sets the position of the rotation axis as a position passing through the contact position P13 and the center point Q1 of the contact position P14. Thus, in this example, the control unit 20 does not set the position of the rotation axis whose axial direction is the vertical direction as the left side or the right side of the object image OG, but the center of the two contact positions. The position passes through the point.

次いで、図13(B)に示すように、制御部20は、2箇所の接触位置の中心点を通る回動軸を中心として、押下圧力の大きい方の接触位置の押下圧力に応じて、曲リスト画像G3を立体的に傾けて表示する。さらに、制御部20は、立体的に傾ける前の曲リスト画像G3の表示領域と、立体的に傾けた後の曲リスト画像G3の表示領域との差分の領域に、曲に関する新たな情報を表示する。図13(B)の例では、制御部20は、領域R1に、再生中の楽曲に関する情報を表示する。   Next, as shown in FIG. 13B, the control unit 20 is bent according to the pressing pressure at the contact position with the larger pressing pressure, with the rotation axis passing through the center point of the two contact positions as the center. The list image G3 is displayed with a three-dimensional tilt. Further, the control unit 20 displays new information about the music in the difference area between the display area of the music list image G3 before the three-dimensional tilt and the display area of the music list image G3 after the three-dimensional tilt. To do. In the example of FIG. 13B, the control unit 20 displays information related to the music being played in the region R1.

このような態様でオブジェクト画像OGの表示が行われるため、以下の効果を奏する。すなわち、立体的に傾ける前と、立体的に傾けた後とで、オブジェクト画像OGが表示された領域を変更することなく、ユーザにとって有益な情報を、オブジェクト画像OGに新たに付加することができる。特に、立体的に傾ける前の情報を欠損させることなく、新たな情報を付加することが可能となる。   Since the object image OG is displayed in such a manner, the following effects are obtained. That is, information useful for the user can be newly added to the object image OG before and after the three-dimensional tilt without changing the area in which the object image OG is displayed. . In particular, new information can be added without losing information before being tilted three-dimensionally.

ユーザは、立体的に傾いたオブジェクト画像OGについて、その状態を維持したい場合は、図13(C)に示すように、押下圧力が大きい方の接触位置を、任意の方向(図13(C)では、矢印Y1に示す方向)に移動させる。制御部20は、上述した接触位置の移動を検出した場合、オブジェクト画像OGの状態を固定する。この結果、図13(D)に示すように、ユーザが接触位置に対する接触操作を解除した場合であっても、オブジェクト画像OGが立体的に傾いた状態が維持される。このような処理が行われるため、ユーザは、オブジェクト画像OGについて、簡易で意図的な操作を行うことにより、オブジェクト画像OGの立体的な傾きに応じて新たに表示された情報が表示された状態を維持できる。   When the user wants to maintain the state of the three-dimensionally tilted object image OG, as shown in FIG. 13C, the user can set the contact position with the larger pressing pressure in an arbitrary direction (FIG. 13C). Then, it is moved in the direction indicated by arrow Y1. When detecting the above-described movement of the contact position, the control unit 20 fixes the state of the object image OG. As a result, as shown in FIG. 13D, even when the user cancels the contact operation on the contact position, the object image OG is maintained in a three-dimensionally inclined state. Since such processing is performed, the user performs a simple and intentional operation on the object image OG, so that newly displayed information is displayed according to the three-dimensional inclination of the object image OG. Can be maintained.

以上説明したように、本実施形態に係る車載装置1(表示装置)は、タッチパネル11と、タッチパネル11が接触操作された場合、接触操作された接触位置を検出し、また、タッチパネル11にオブジェクト画像OGを表示する制御部20とを備える。制御部20は、オブジェクト画像OGの表示領域に対応する領域に2箇所の接触位置を検出し、検出した2箇所の接触位置の少なくともいずれか一方の状態が所定の態様で変化した場合、接触位置の状態の変化に応じて、オブジェクト画像OGを立体的に傾けて表示する。
この構成によれば、制御部20は、タッチパネル11に2箇所の接触操作が行われた場合、それぞれの接触操作に係る接触位置を検出できること、及び、接触位置の状態の変化を検出できることを利用して、接触位置の状態の変化に応じて、オブジェクト画像OGを立体的に傾けて表示することができる。このため、ユーザは、タッチパネル11に対して所定の操作を行うことにより、オブジェクト画像OGを立体的に傾けて表示させることができる。すなわち、上記構成によれば、車載装置1は、タッチパネル11を備える構成を利用して、オブジェクト画像OGを表示することができる。
As described above, the in-vehicle device 1 (display device) according to the present embodiment detects the touch position where the touch operation is performed when the touch panel 11 and the touch panel 11 are touched. And a control unit 20 that displays OG. The control unit 20 detects two contact positions in an area corresponding to the display area of the object image OG, and when the state of at least one of the detected two contact positions changes in a predetermined manner, the contact position The object image OG is displayed in a three-dimensional tilt according to the change in the state.
According to this configuration, when two touch operations are performed on the touch panel 11, the control unit 20 can detect a contact position according to each contact operation and can detect a change in the state of the contact position. Then, the object image OG can be displayed in a three-dimensional tilt according to the change in the state of the contact position. Therefore, the user can display the object image OG in a three-dimensional tilt by performing a predetermined operation on the touch panel 11. That is, according to the above configuration, the in-vehicle device 1 can display the object image OG using the configuration including the touch panel 11.

また、本実施形態では、制御部20は、オブジェクト画像OGの表示領域に対応する領域で、1箇所の接触位置が第1の態様で移動したことを検出した場合、オブジェクト画像OGを、2箇所の接触位置の状態の変化に応じて立体的に傾けて表示する対象として決定する。
この構成によれば、ユーザは、特定のオブジェクト画像OGの表示領域に対応する領域に対して、1箇所の接触位置が第1の態様で移動する操作を行うことにより、当該特定のオブジェクト画像OGを、立体的表示処理の対象とすることができる。
Further, in the present embodiment, when the control unit 20 detects that one contact position has moved in the first mode in an area corresponding to the display area of the object image OG, the control unit 20 displays two object images OG. This is determined as an object to be displayed in a three-dimensional tilt according to the change in the state of the contact position.
According to this configuration, the user performs an operation of moving one contact position in the first mode on the area corresponding to the display area of the specific object image OG, thereby the specific object image OG. Can be the target of the stereoscopic display processing.

また、本実施形態では、制御部20は、オブジェクト画像OGの表示領域に対応する領域で、オブジェクト画像OGの外周に沿って1箇所の接触位置が移動したことを検出した場合、オブジェクト画像OGを、2箇所の接触位置の状態の変化に応じて立体的に傾けて表示する対象として決定する。
この構成によれば、ユーザが意図的に行った操作に基づいて、オブジェクト画像OGを立体的表示処理の対象とすることができ、オブジェクト画像OGが偶発的に立体的表示処理の対象となることを抑制できる。
In the present embodiment, when the control unit 20 detects that one contact position has moved along the outer periphery of the object image OG in the region corresponding to the display region of the object image OG, the control unit 20 displays the object image OG. It is determined as an object to be displayed in a three-dimensional tilt according to the change in the state of the two contact positions.
According to this configuration, the object image OG can be the target of the stereoscopic display process based on the operation intentionally performed by the user, and the object image OG is accidentally the target of the stereoscopic display process. Can be suppressed.

また、本実施形態では、制御部20は、接触位置の状態の変化に応じてオブジェクト画像OGを立体的に傾けて表示している際に、2箇所の接触位置の少なくともいずれか一方が第2の態様で移動したことを検出した場合、オブジェクト画像OGの状態を、接触位置が第2の態様で移動したことを検出したときの状態で固定する。
この構成によれば、ユーザは、タッチパネル11に対して所定の操作を行って、オブジェクト画像OGの状態を固定させることができる。
In the present embodiment, when the control unit 20 displays the object image OG in a three-dimensional tilt according to the change in the state of the contact position, at least one of the two contact positions is the second. When it is detected that the object has moved in this manner, the state of the object image OG is fixed to the state when it is detected that the contact position has moved in the second manner.
According to this configuration, the user can perform a predetermined operation on the touch panel 11 to fix the state of the object image OG.

また、本実施形態では、制御部20は、タッチパネル11に地図を表示し、地図に重ねて、オブジェクト画像OGを表示する。
この構成によれば、地図に重ねて表示されるオブジェクト画像OGの表示に関して、ユーザの利便性を向上できる。
Moreover, in this embodiment, the control part 20 displays a map on the touch panel 11, and displays the object image OG on the map.
According to this configuration, the convenience of the user can be improved with respect to the display of the object image OG displayed on the map.

また、本実施形態では、タッチパネル11は、接触位置における接触操作の押下圧力を示す信号を制御部20に出力する圧力検出センサ113を備える。制御部20は、圧力検出センサ113から入力された信号に基づいて、接触位置における接触操作の押下圧力を検出し、2箇所の接触位置の少なくともいずれか一方の押下圧力の変化に応じて、オブジェクト画像OGを立体的に傾けて表示する。
この構成によれば、接触位置における押下圧力の状態に応じて、オブジェクト画像OGを適切に立体的に傾けて表示できる。
In the present embodiment, the touch panel 11 includes a pressure detection sensor 113 that outputs a signal indicating the pressing pressure of the contact operation at the contact position to the control unit 20. The control unit 20 detects the pressing pressure of the contact operation at the contact position based on the signal input from the pressure detection sensor 113, and changes the object according to the change in the pressing pressure of at least one of the two contact positions. The image OG is displayed in a three-dimensional tilt.
According to this configuration, the object image OG can be appropriately tilted and displayed according to the state of the pressing pressure at the contact position.

また、本実施形態では、制御部20は、2箇所の接触位置のうち押下圧力が大きい方の接触位置の側が、当該接触位置の押下圧力の増大に応じて奥行き方向における後方向に変移するように、オブジェクト画像OGを立体的に傾けて表示する。
この構成によれば、ユーザの操作と、表示されるオブジェクト画像OGの状態とに一体性が生まれ、ユーザの操作性がよく、また、ユーザがオブジェクト画像OGを立体的に傾ける際に、どのような操作をすればよいのかをイメージしやすい。
In the present embodiment, the control unit 20 causes the side of the contact position with the larger pressing pressure out of the two contact positions to shift backward in the depth direction in accordance with the increase of the pressing pressure at the contact position. The object image OG is displayed in a three-dimensional tilt.
According to this configuration, the user's operation and the state of the displayed object image OG are integrated, the user's operability is good, and how the user operates the object image OG in a three-dimensional manner. It is easy to imagine what to do.

なお、上述した実施の形態は、あくまでも本発明の一態様を示すものであり、本発明の範囲内で任意に変形および応用が可能である。   The above-described embodiment is merely an aspect of the present invention, and can be arbitrarily modified and applied within the scope of the present invention.

例えば、上述した実施形態では、タッチパネル11が圧力検出センサ113を有し、制御部20は、圧力検出センサ113からの入力に基づく押下圧力に応じて、オブジェクト画像OGを立体的に傾けて表示した。一方で、制御部20は、2箇所の接触位置の少なくともいずれか一方が第3の態様で移動したことを検出した場合、接触位置の移動に応じて、オブジェクト画像OGを立体的に傾けて表示してもよい。例えば、制御部20は、2箇所の接触位置のうち一方の接触位置が、他方の接触位置を中心として、タッチパネル11の表面上を回動するように移動した場合に、その回動角度に応じた仮想回動角度で、オブジェクト画像OGを立体的に傾けて表示してもよい。このように、接触位置における押下圧力ではなく、接触位置の移動に応じて、オブジェクト画像OGを立体的に傾けて表示することにより、タッチパネル11に圧力検出センサ113を設ける必要がなく、コストの削減等を図ることができる。   For example, in the above-described embodiment, the touch panel 11 includes the pressure detection sensor 113, and the control unit 20 displays the object image OG in a three-dimensional tilt according to the pressing pressure based on the input from the pressure detection sensor 113. . On the other hand, when the control unit 20 detects that at least one of the two contact positions has moved in the third mode, the control unit 20 displays the object image OG in a three-dimensional tilt according to the movement of the contact position. May be. For example, when the control unit 20 moves so that one of the two contact positions rotates on the surface of the touch panel 11 around the other contact position, the control unit 20 responds to the rotation angle. The object image OG may be displayed with a three-dimensional tilt at the virtual rotation angle. In this way, the object image OG is displayed in a three-dimensionally tilted manner according to the movement of the contact position instead of the pressing pressure at the contact position, so that it is not necessary to provide the pressure detection sensor 113 on the touch panel 11, thereby reducing cost Etc. can be achieved.

また例えば、図で示したフローチャートの処理単位は、車載装置1の制御部20の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。制御部20の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、同様の処理が行えれば、上記のフローチャートの処理順序も、図示した例に限られるものではない。   Further, for example, the processing unit of the flowchart shown in the figure is divided according to the main processing contents in order to facilitate understanding of the processing of the control unit 20 of the in-vehicle device 1. The present invention is not limited by the way of dividing the processing unit or the name. The processing of the control unit 20 can be divided into more processing units according to the processing content. Moreover, it can also divide | segment so that one process unit may contain many processes. In addition, as long as the same processing can be performed, the processing order of the above flowchart is not limited to the illustrated example.

また上述した実施形態では、車載装置1が「表示装置」として機能したが、本発明は、車載された装置に限らず、タッチパネルを備える装置に広く適用可能である。   In the above-described embodiment, the in-vehicle device 1 functions as a “display device”. However, the present invention is not limited to the in-vehicle device but can be widely applied to devices including a touch panel.

1 車載装置(表示装置)
11 タッチパネル
113 圧力検出センサ
20 制御部
OG オブジェクト画像
1 In-vehicle device (display device)
11 Touch Panel 113 Pressure Detection Sensor 20 Control Unit OG Object Image

Claims (8)

タッチパネルと、
前記タッチパネルが接触操作された場合、接触操作された接触位置を検出し、また、前記タッチパネルにオブジェクト画像を表示する制御部と、を備え、
前記制御部は、
前記オブジェクト画像の表示領域に対応する領域に2箇所の接触位置を検出し、検出した2箇所の接触位置の少なくともいずれか一方の状態が所定の態様で変化した場合、接触位置の状態の変化に応じて、前記オブジェクト画像を立体的に傾けて表示する
ことを特徴とする表示装置。
A touch panel;
When the touch panel is touch-operated, a control unit that detects a touch position touched and displays an object image on the touch panel,
The controller is
When two contact positions are detected in an area corresponding to the display area of the object image, and the state of at least one of the detected two contact positions changes in a predetermined manner, the change of the contact position state Accordingly, the object image is displayed in a three-dimensionally tilted manner.
前記制御部は、
前記オブジェクト画像の表示領域に対応する領域で、1箇所の接触位置が第1の態様で移動したことを検出した場合、前記オブジェクト画像を、2箇所の接触位置の状態の変化に応じて立体的に傾けて表示する対象として決定することを特徴とする請求項1に記載の表示装置。
The controller is
When it is detected that one contact position has moved in the first mode in an area corresponding to the display area of the object image, the object image is displayed in a three-dimensional manner according to a change in the state of the two contact positions. The display device according to claim 1, wherein the display device is determined as an object to be displayed while being tilted.
前記第1の態様は、前記オブジェクト画像の外周に沿って1箇所の接触位置が移動する態様であることを特徴とする請求項2に記載の表示装置。   The display device according to claim 2, wherein the first mode is a mode in which one contact position moves along the outer periphery of the object image. 前記制御部は、
接触位置の状態の変化に応じて前記オブジェクト画像を立体的に傾けて表示している際に、2箇所の接触位置の少なくともいずれか一方が第2の態様で移動したことを検出した場合、前記オブジェクト画像の状態を、接触位置が第2の態様で移動したことを検出したときの状態で固定することを特徴とする請求項1に記載の表示装置。
The controller is
When it is detected that at least one of the two contact positions has moved in the second mode when the object image is displayed in a three-dimensional tilt according to a change in the state of the contact position, The display device according to claim 1, wherein the state of the object image is fixed in a state when it is detected that the contact position has moved in the second mode.
車両に搭載され、
前記制御部は、
前記タッチパネルに地図を表示し、地図に重ねて、前記オブジェクト画像を表示することを特徴とする請求項1から4のいずれか1項に記載の表示装置。
Mounted on the vehicle,
The controller is
5. The display device according to claim 1, wherein a map is displayed on the touch panel, and the object image is displayed so as to overlap the map.
前記タッチパネルは、
接触位置における接触操作の押下圧力を示す信号を前記制御部に出力する圧力検出センサを備え、
前記制御部は、
前記圧力検出センサから入力された信号に基づいて、接触位置における接触操作の押下圧力を検出し、
2箇所の接触位置の少なくともいずれか一方の押下圧力の変化に応じて、前記オブジェクト画像を立体的に傾けて表示する
ことを特徴とする請求項1に記載の表示装置
The touch panel
A pressure detection sensor that outputs a signal indicating the pressing pressure of the contact operation at the contact position to the control unit;
The controller is
Based on the signal input from the pressure detection sensor, the pressing pressure of the contact operation at the contact position is detected,
The display device according to claim 1, wherein the object image is displayed in a three-dimensional tilt according to a change in pressing pressure of at least one of the two contact positions.
前記制御部は、
2箇所の接触位置のうち押下圧力が大きい方の接触位置の側が、当該接触位置の押下圧力の増大に応じて奥行き方向における後方向に変移するように、前記オブジェクト画像を立体的に傾けて表示する
ことを特徴とする請求項6に記載の表示装置。
The controller is
The object image is displayed in a three-dimensional tilt so that the side of the contact position with the larger pressing pressure of the two contact positions shifts backward in the depth direction as the pressing pressure at the contact position increases. The display device according to claim 6.
前記制御部は、
2箇所の接触位置の少なくともいずれか一方が第3の態様で移動したことを検出した場合、接触位置の移動に応じて、前記オブジェクト画像を立体的に傾けて表示することを特徴とする請求項1に記載の表示装置。
The controller is
The object image is displayed in a three-dimensionally tilted manner according to the movement of the contact position when it is detected that at least one of the two contact positions has moved in the third mode. The display device according to 1.
JP2015118947A 2015-06-12 2015-06-12 Display device Pending JP2017004338A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015118947A JP2017004338A (en) 2015-06-12 2015-06-12 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015118947A JP2017004338A (en) 2015-06-12 2015-06-12 Display device

Publications (1)

Publication Number Publication Date
JP2017004338A true JP2017004338A (en) 2017-01-05

Family

ID=57751794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015118947A Pending JP2017004338A (en) 2015-06-12 2015-06-12 Display device

Country Status (1)

Country Link
JP (1) JP2017004338A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020042674A (en) * 2018-09-12 2020-03-19 Zホールディングス株式会社 Information display program, information display device, information display method, and delivery device
JP2023103577A (en) * 2022-01-14 2023-07-27 パイオニア株式会社 Information display device, information display method, program, and storage medium

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006329678A (en) * 2005-05-23 2006-12-07 Denso Corp In-vehicle navigation device
JP2010267079A (en) * 2009-05-14 2010-11-25 Canon Inc Information processing apparatus, control method, and program
JP2012141739A (en) * 2010-12-28 2012-07-26 Toshiba Corp Display control device and display control method
JP2012190215A (en) * 2011-03-10 2012-10-04 Sony Corp Input processor, input processing method, and program
US20130127825A1 (en) * 2011-07-28 2013-05-23 Pushkar P. Joshi Methods and Apparatus for Interactive Rotation of 3D Objects Using Multitouch Gestures
JP2013174598A (en) * 2013-04-01 2013-09-05 Alpine Electronics Inc On-vehicle electronic system, display method and display program
JP2014097781A (en) * 2012-11-13 2014-05-29 Avisonic Technology Corp Vehicular image system and display control method for vehicular image
JP2014139767A (en) * 2012-12-20 2014-07-31 Canon Marketing Japan Inc Information processing device, control method therefor, and program
JP2014232415A (en) * 2013-05-29 2014-12-11 コニカミノルタ株式会社 Display device, image processor and program
JP2015022625A (en) * 2013-07-22 2015-02-02 アルプス電気株式会社 Input device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006329678A (en) * 2005-05-23 2006-12-07 Denso Corp In-vehicle navigation device
JP2010267079A (en) * 2009-05-14 2010-11-25 Canon Inc Information processing apparatus, control method, and program
JP2012141739A (en) * 2010-12-28 2012-07-26 Toshiba Corp Display control device and display control method
JP2012190215A (en) * 2011-03-10 2012-10-04 Sony Corp Input processor, input processing method, and program
US20130127825A1 (en) * 2011-07-28 2013-05-23 Pushkar P. Joshi Methods and Apparatus for Interactive Rotation of 3D Objects Using Multitouch Gestures
JP2014097781A (en) * 2012-11-13 2014-05-29 Avisonic Technology Corp Vehicular image system and display control method for vehicular image
JP2014139767A (en) * 2012-12-20 2014-07-31 Canon Marketing Japan Inc Information processing device, control method therefor, and program
JP2013174598A (en) * 2013-04-01 2013-09-05 Alpine Electronics Inc On-vehicle electronic system, display method and display program
JP2014232415A (en) * 2013-05-29 2014-12-11 コニカミノルタ株式会社 Display device, image processor and program
JP2015022625A (en) * 2013-07-22 2015-02-02 アルプス電気株式会社 Input device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020042674A (en) * 2018-09-12 2020-03-19 Zホールディングス株式会社 Information display program, information display device, information display method, and delivery device
JP2023103577A (en) * 2022-01-14 2023-07-27 パイオニア株式会社 Information display device, information display method, program, and storage medium
JP7788865B2 (en) 2022-01-14 2025-12-19 パイオニア株式会社 Information display device, information display method, program, and storage medium

Similar Documents

Publication Publication Date Title
JP4678534B2 (en) Navigation device and map scroll processing method
US7788028B2 (en) Navigation system
CN100578150C (en) Navigation device
JP4783603B2 (en) MAP DISPLAY DEVICE, MAP DISPLAY METHOD, MAP DISPLAY PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
JP2006315597A (en) On-vehicle display device
CN108431757B (en) Vehicle-mounted device, display area segmentation method and computer-readable storage medium
JP2006039745A (en) Touch-panel type input device
JP5421015B2 (en) Map display device
JP2006284218A (en) Navigation device
CN115004143B (en) Display control device and display control method
JP4609242B2 (en) Operation control device
JP5358215B2 (en) Map display device
CN114846439B (en) Display control device and display control method
JP2017004338A (en) Display device
JP2007042029A (en) Display device and program
JP4783075B2 (en) Navigation device
JP2008051538A (en) Vehicle-mounted map display device
JP4695957B2 (en) Navigation device
CN114830075B (en) Display control device and display control method
JP4897342B2 (en) In-vehicle map display device
JP4835494B2 (en) Map display device
JP5028043B2 (en) In-vehicle information terminal
JP4974479B2 (en) Map display device
JP2009250868A (en) Navigation system
JP5916690B2 (en) Map display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200204