[go: up one dir, main page]

JP2018101230A - Input system and input program - Google Patents

Input system and input program Download PDF

Info

Publication number
JP2018101230A
JP2018101230A JP2016246135A JP2016246135A JP2018101230A JP 2018101230 A JP2018101230 A JP 2018101230A JP 2016246135 A JP2016246135 A JP 2016246135A JP 2016246135 A JP2016246135 A JP 2016246135A JP 2018101230 A JP2018101230 A JP 2018101230A
Authority
JP
Japan
Prior art keywords
instruction
viewpoint
unit
user interface
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016246135A
Other languages
Japanese (ja)
Inventor
神谷 和宏
Kazuhiro Kamiya
和宏 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2016246135A priority Critical patent/JP2018101230A/en
Publication of JP2018101230A publication Critical patent/JP2018101230A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for improving convenience in an input system.SOLUTION: An input system includes a viewpoint detection unit for detecting a user viewpoint, an operation detection unit for detecting an operation done to an operation unit by a user, a display control unit for displaying a user interface screen to receive a plurality of instructions on a display unit, and an operation instruction receiving unit configured to enable the operation unit to receive all of the plurality of instructions when the viewpoint exists on the user interface screen but to enable the operation unit to receive only a part of the instructions when the viewpoint does not exist on the user interface screen, thereby setting the operation unit to receive the instructions.SELECTED DRAWING: Figure 1

Description

本発明は、入力システム、入力プログラムに関する。   The present invention relates to an input system and an input program.

従来、利用者が画面を視認しているか否かに応じて、画面表示等の態様を変えることが知られている。例えば特許文献1には、運転者が車両内の画面を視認していないと判定される場合に当該画面の輝度を下げることが記載されている。特許文献2には、運転者がナビゲーションシステムの表示部を視認している場合には当該表示部に表示された地図上に運転方向を提示し、表示部を視認していない場合には音声にて運転方向を案内することが記載されている。   2. Description of the Related Art Conventionally, it has been known to change a screen display or the like depending on whether a user is viewing a screen. For example, Patent Document 1 describes that when it is determined that the driver is not viewing the screen inside the vehicle, the brightness of the screen is lowered. In Patent Document 2, when the driver is viewing the display unit of the navigation system, the driving direction is presented on the map displayed on the display unit, and when the driver is not viewing the display unit, the voice is spoken. And guide the driving direction.

特開2008−292753号公報JP 2008-292753 A 特表2014−516181号公報Special table 2014-516181 gazette

ユーザインタフェース画面を表示する表示部とタッチパッド等の操作部とを用いて指示を入力する入力システムの場合、例えば、利用者は画面を視認しながら、画面内に表示されたボタン(当該指示に対応するボタン)にポインタやカーソル等を移動させ、当該ボタンを選択する、等の一連の操作を行う。しかしそれら一連の操作を行うためには上述のように利用者は画面を視認する必要がある。画面を視認しなくても操作部を介して指示が入力できることができれば、利便性が向上する。
本発明は、上記課題にかんがみてなされたもので、入力システムにおける利便性を向上させる技術の提供を目的とする。
In the case of an input system that inputs an instruction using a display unit that displays a user interface screen and an operation unit such as a touchpad, for example, the user can visually recognize the screen while viewing a button (in response to the instruction). A series of operations such as moving a pointer or cursor to the corresponding button) and selecting the button is performed. However, in order to perform these series of operations, the user needs to visually recognize the screen as described above. If an instruction can be input via the operation unit without visually recognizing the screen, convenience is improved.
The present invention has been made in view of the above problems, and an object thereof is to provide a technique for improving convenience in an input system.

上記の目的を達成するため、入力システムは、利用者の視点を検出する視点検出部と、操作部に対する利用者の操作を検出する操作検出部と、複数の指示を受け付けるためのユーザインタフェース画面を表示部に表示する表示制御部と、視点がユーザインタフェース画面上に存在する場合、複数の指示の全てを操作部によって受付可能に設定し、視点がユーザインタフェース画面上に存在しない場合、複数の指示の一部のみを操作部によって受付可能に設定し、操作部による指示を受け付ける操作指示受付部と、を備える。   In order to achieve the above object, the input system includes a viewpoint detection unit that detects a user's viewpoint, an operation detection unit that detects a user's operation on the operation unit, and a user interface screen that receives a plurality of instructions. When the display control unit to be displayed on the display unit and the viewpoint exist on the user interface screen, all of the plurality of instructions are set to be accepted by the operation unit, and when the viewpoint does not exist on the user interface screen, the plurality of instructions An operation instruction accepting unit that accepts an instruction from the operation unit.

さらに、上記の目的を達成するため、入力プログラムは、コンピュータを、利用者の視点を検出する視点検出部、操作部に対する利用者の操作を検出する操作検出部、複数の指示を受け付けるためのユーザインタフェース画面を表示部に表示する表示制御部、視点がユーザインタフェース画面上に存在する場合、複数の指示の全てを操作部によって受付可能に設定し、視点がユーザインタフェース画面上に存在しない場合、複数の指示の一部のみを操作部によって受付可能に設定し、操作部による指示を受け付ける操作指示受付部、として機能させる。   Furthermore, in order to achieve the above object, the input program includes a computer, a viewpoint detection unit that detects a user's viewpoint, an operation detection unit that detects a user's operation on the operation unit, and a user who receives a plurality of instructions. Display control unit that displays the interface screen on the display unit, if the viewpoint exists on the user interface screen, set all the multiple instructions to be accepted by the operation unit, and if the viewpoint does not exist on the user interface screen, multiple Only a part of the instruction is set to be receivable by the operation unit, and functions as an operation instruction reception unit that receives an instruction from the operation unit.

すなわち、入力システム、プログラムでは、ユーザインタフェース画面に視点が存在しない場合であっても、ユーザインタフェース画面に視点が存在する場合に受付可能な複数の指示のうちの一部の指示については、受付可能である。したがって、利用者は当該一部の指示については、ユーザインタフェース画面を視認することなく操作部を介して入力することが可能であり、利便性が向上する。なお、利用者はユーザインタフェース画面を視認することで、当該一部の指示を含む複数の指示を、操作部を介してそれぞれ入力することが可能である。そのため当該一部の指示や当該一部の指示以外の多様な指示を、利用者はユーザインタフェース画面を視認しながら操作部を介して入力することが可能である。   That is, in the input system and program, even if the viewpoint does not exist on the user interface screen, some of the instructions that can be accepted when the viewpoint exists on the user interface screen can be accepted. It is. Therefore, the user can input some of the instructions via the operation unit without visually recognizing the user interface screen, which improves convenience. The user can input a plurality of instructions including the part of the instructions via the operation unit by visually recognizing the user interface screen. Therefore, the user can input various instructions other than the partial instruction and the partial instruction via the operation unit while visually recognizing the user interface screen.

入力システムのブロック図である。It is a block diagram of an input system. 図2Aは画面例を示す図、図2Bは各指示の受付可否を示す図である。FIG. 2A is a diagram illustrating an example of a screen, and FIG. 2B is a diagram illustrating whether each instruction can be accepted. 図3Aは入力処理を示すフローチャート、図3Bは操作内容と処理との対応を示す図である。FIG. 3A is a flowchart showing input processing, and FIG. 3B is a diagram showing correspondence between operation contents and processing. 他の実施形態にかかる画面例を示す図。The figure which shows the example of a screen concerning other embodiment.

ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)入力システムの構成:
(2)入力処理:
(3)他の実施形態:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of input system:
(2) Input processing:
(3) Other embodiments:

(1)入力システムの構成:
図1は、本発明の一実施形態である入力システム10の構成を示すブロック図である。入力システム10は車両に搭載されている。入力システム10は、CPU、RAM、ROM等を備える制御部20を備えており、制御部20は、当該ROMや記録媒体30に記録された所望のプログラムを実行することができる。
(1) Configuration of input system:
FIG. 1 is a block diagram showing a configuration of an input system 10 according to an embodiment of the present invention. The input system 10 is mounted on a vehicle. The input system 10 includes a control unit 20 including a CPU, a RAM, a ROM, and the like, and the control unit 20 can execute a desired program recorded in the ROM or the recording medium 30.

本実施形態において、制御部20は、図示しないオーディオ制御プログラムや、空調制御プログラムや、ナビゲーションプログラム等を実行することができる。制御部20は、オーディオ制御プログラムを実行することにより、記録媒体30に記録された楽曲(トラック)を再生するオーディオ機能を実現することができる。また制御部20は、空調制御プログラムを実行することにより、車室内の温度調整を含む空調制御機能を実現することができる。   In the present embodiment, the control unit 20 can execute an audio control program (not shown), an air conditioning control program, a navigation program, and the like. The control unit 20 can realize an audio function for playing back a music (track) recorded on the recording medium 30 by executing an audio control program. Moreover, the control part 20 can implement | achieve the air-conditioning control function including the temperature adjustment of a vehicle interior by running an air-conditioning control program.

また制御部20は、ナビゲーションプログラムを実行することにより、ディスプレイ40に地図を表示し、図示しないGPS信号等に基づいて入力システム10が搭載された車両を指定の目的地まで誘導する経路案内機能を実現することができる。   Further, the control unit 20 displays a map on the display 40 by executing a navigation program, and has a route guidance function for guiding a vehicle equipped with the input system 10 to a designated destination based on a GPS signal (not shown). Can be realized.

本実施形態においては、以上のような各プログラムで実現される機能に関するユーザインタフェースを提供するため、制御部20は、図示しないROMや記録媒体30等に記録された入力プログラム21を実行する。入力プログラム21には、後述する入力処理が含まれる。入力プログラム21による処理を実行するため、車両は、ディスプレイ(表示部)40、タッチパッド41および視線検出センサ42を備えている。   In the present embodiment, the control unit 20 executes an input program 21 recorded in a ROM, a recording medium 30 or the like (not shown) in order to provide a user interface related to functions realized by the respective programs as described above. The input program 21 includes input processing described later. In order to execute processing by the input program 21, the vehicle includes a display (display unit) 40, a touch pad 41, and a line-of-sight detection sensor 42.

ディスプレイ40は、図示しないインタフェースを介して制御部20と接続されており、制御部20は、ディスプレイ40に対して制御信号を出力することにより、任意の座標を指定し、任意の画像をディスプレイ40に表示させることができる。タッチパッド41は、矩形平面の接触検出面を備えた入力デバイスであり、接触検出面に対して検出対象物が接触した位置を検出し、検出位置を示す座標を出力する。制御部20は、当該座標に基づいて接触位置を取得する。   The display 40 is connected to the control unit 20 via an interface (not shown). The control unit 20 outputs a control signal to the display 40 to designate arbitrary coordinates and display an arbitrary image on the display 40. Can be displayed. The touch pad 41 is an input device including a rectangular flat contact detection surface, detects a position where a detection target object is in contact with the contact detection surface, and outputs coordinates indicating the detection position. The control unit 20 acquires the contact position based on the coordinates.

視線検出センサ42は、赤外線出力部と少なくとも2個の赤外線カメラとを備えている。当該赤外線カメラは、運転者の顔を視野に含むように車室内の構造体(例えば、インストルメントパネルの壁面)に取り付けられている。赤外線カメラは、赤外線出力部から出力された赤外線によって撮影された利用者(運転者)の目の像に基づいて、目の位置および利用者の視線方向(ベクトル)を検出し、出力する。制御部20は、当該出力に基づいて、予め定義された3次元空間内で目の位置および視線方向を特定することができる。視線方向は、例えば、両眼のそれぞれにおいて設定された基準点と、眼球の動きに応じて位置が変化する動点とを結ぶ方向として取得され、他にも種々の方式が採用されてよい。また、両眼のそれぞれにおいて特定された視線方向の平均値等によって利用者の視線方向を1方向に特定することができるが、視線方向の特定方法も種々の方法が採用され得る。   The line-of-sight detection sensor 42 includes an infrared output unit and at least two infrared cameras. The infrared camera is attached to a vehicle interior structure (for example, a wall surface of an instrument panel) so as to include the driver's face in the field of view. The infrared camera detects and outputs an eye position and a user's line-of-sight direction (vector) based on an image of a user's (driver's) eye photographed by infrared rays output from the infrared output unit. Based on the output, the control unit 20 can specify the eye position and line-of-sight direction in a predefined three-dimensional space. The line-of-sight direction is acquired as, for example, a direction connecting a reference point set for each eye and a moving point whose position changes according to the movement of the eyeball, and various other methods may be employed. In addition, although the user's line-of-sight direction can be specified in one direction based on the average value of the line-of-sight directions specified in each of both eyes, various methods can be adopted as the method of specifying the line-of-sight direction.

以上の構成において、制御部20は、ディスプレイ40およびタッチパッド41をユーザインタフェースとして利用し、ユーザインタフェース画面を介して利用者による入力を受け付ける。このために入力プログラム21は、視点検出部21aと操作検出部21bと表示制御部21cと操作指示受付部21dとを備えている。   In the above configuration, the control unit 20 uses the display 40 and the touch pad 41 as a user interface, and receives input from the user via the user interface screen. For this purpose, the input program 21 includes a viewpoint detection unit 21a, an operation detection unit 21b, a display control unit 21c, and an operation instruction reception unit 21d.

視点検出部21aは、利用者の視点を検出する機能を制御部20に実現させるプログラムモジュールである。本実施形態においては、視点の検出領域となるディスプレイ40の位置が、車室内空間の位置を既定する3次元座標系によって予め特定されている。制御部20は、視線検出センサ42の出力に基づいて、利用者の目の位置および視線方向を取得し、画面の位置が規定された3次元座標系内で利用者の目の位置および視線方向を特定する。そして、当該目の位置から視線方向に延びる仮想的な線と、ディスプレイ40の表示面との交点を視点として特定する。画面上に視点が存在しない場合、例えば、視点が不定とされてもよいし、他の構造体(例えば、インストルメントパネル等)上に存在すると判定されても良い。   The viewpoint detection unit 21a is a program module that causes the control unit 20 to realize a function of detecting a user's viewpoint. In the present embodiment, the position of the display 40 serving as a viewpoint detection area is specified in advance by a three-dimensional coordinate system that defines the position of the vehicle interior space. The control unit 20 acquires the position and line-of-sight direction of the user's eyes based on the output of the line-of-sight detection sensor 42, and the position and line-of-sight direction of the user's eyes within the three-dimensional coordinate system in which the position of the screen is defined. Is identified. Then, an intersection point between a virtual line extending in the line-of-sight direction from the eye position and the display surface of the display 40 is specified as a viewpoint. When the viewpoint does not exist on the screen, for example, the viewpoint may be indefinite, or may be determined to exist on another structure (for example, an instrument panel or the like).

操作検出部21bは、タッチパッド41に対する利用者の操作を検出する機能を制御部20に実現させるプログラムモジュールである。制御部20は操作検出部21bの処理により、タッチパッド41から出力される信号に基づいて、利用者が接触したタッチパッド41上の座標を取得する。制御部20は、経時的な当該座標の変化に基づいて利用者の操作(タップ操作やなぞり操作等)を特定する。具体的には例えば、制御部20は、接触開始から接触完了までの間に検出された接触座標が接触開始座標を含む既定範囲内である操作をタップ操作と判断する。また制御部20は、接触開始から接触終了までの間に検出された接触座標が接触開始座標を含む既定範囲外となる操作をなぞり操作と判断する。なぞり操作には、所謂スワイプ操作やフリック操作が含まれる。なお、本明細書においては、接触開始から接触終了までを1操作という。   The operation detection unit 21 b is a program module that causes the control unit 20 to realize a function of detecting a user operation on the touch pad 41. Based on the signal output from the touch pad 41, the control unit 20 acquires the coordinates on the touch pad 41 touched by the user by the processing of the operation detection unit 21b. The control unit 20 specifies a user operation (such as a tap operation or a tracing operation) based on the change in the coordinates over time. Specifically, for example, the control unit 20 determines that the operation in which the contact coordinates detected between the contact start and the contact completion are within a predetermined range including the contact start coordinates is a tap operation. Further, the control unit 20 determines that the operation in which the contact coordinates detected between the start of contact and the end of contact are outside the predetermined range including the contact start coordinates is a tracing operation. The tracing operation includes so-called swipe operation and flick operation. In this specification, the operation from the start of contact to the end of contact is referred to as one operation.

表示制御部21cは、ディスプレイ40(表示部)にユーザインタフェース画面を表示する機能を制御部20に実現させるプログラムモジュールである。ユーザインタフェース画面を構成するオブジェクトを描画するための画像情報(ボタン(アイコン)描画情報や、文字描画情報、地図描画情報等)は予め表示情報30aとして記録媒体30に記録されている。   The display control unit 21c is a program module that causes the control unit 20 to realize a function of displaying a user interface screen on the display 40 (display unit). Image information (button (icon) drawing information, character drawing information, map drawing information, etc.) for drawing an object constituting the user interface screen is recorded in advance on the recording medium 30 as display information 30a.

例えば制御部20がオーディオ制御プログラムを実行すると、制御部20は表示情報30aを参照して、記録媒体30に記録されているトラックのリストや音量調整やトラック指定のためのボタン等を含むユーザインタフェース画面をRAMに記録する(描画する)。制御部20は、表示制御部21cの処理により、当該描画されたユーザインタフェース画面の情報を取得し、当該ユーザインタフェース画面を表示するための制御信号をディスプレイ40に対して出力する。この結果、オーディオ制御プログラムにおけるユーザインタフェース画面がディスプレイ40に表示される。   For example, when the control unit 20 executes the audio control program, the control unit 20 refers to the display information 30a, and includes a list of tracks recorded on the recording medium 30, a button for adjusting the volume, specifying a track, and the like. Record (draw) the screen in the RAM. The control unit 20 acquires information on the drawn user interface screen by the processing of the display control unit 21c, and outputs a control signal for displaying the user interface screen to the display 40. As a result, a user interface screen in the audio control program is displayed on the display 40.

図2Aは、オーディオ制御プログラムにおけるユーザインタフェース画面の一例としての画面40aを示している。画面40aには、音量アップボタンb1、音量ダウンボタンb2、トラックダウンボタンb3、トラックアップボタンb4、トラック指定ボタンb5(b51〜b56)が含まれている。トラック指定ボタンb5のそれぞれは、トラックリストの要素としての表示を兼ねている。また画面40aには音量レベルを示す音量インジケータviや、トラックリストの表示範囲を示すスクロールバーsbも含まれている。   FIG. 2A shows a screen 40a as an example of a user interface screen in the audio control program. The screen 40a includes a volume up button b1, a volume down button b2, a track down button b3, a track up button b4, and track designation buttons b5 (b51 to b56). Each of the track designation buttons b5 also serves as a display of a track list element. The screen 40a also includes a volume indicator vi indicating the volume level and a scroll bar sb indicating the display range of the track list.

音量アップボタンb1は音量アップ指示を受け付けるためのオブジェクトであり、音量ダウンボタンb2は音量ダウン指示を受け付けるためのオブジェクトである。トラックアップボタンb4は、再生対象トラックを現在再生中のトラックの次のトラック(トラックリスト内の並び順における次のトラック)に進めるトラックアップ指示を受け付けるためのオブジェクトである。トラックダウンボタンb3は、再生対象トラックを現在再生中のトラックの一つ前のトラックに戻す(あるいは現在再生中のトラックの曲頭から再生しなおす)トラックダウン指示を受け付けるためのオブジェクトである。トラック指定ボタンb5は、再生対象とするトラックを直接指定するトラック指定指示を受け付けるためのオブジェクトである。   The volume up button b1 is an object for receiving a volume up instruction, and the volume down button b2 is an object for receiving a volume down instruction. The track up button b4 is an object for receiving a track up instruction for advancing the reproduction target track to the next track (the next track in the arrangement order in the track list) of the currently reproduced track. The track down button b3 is an object for receiving a track down instruction for returning the reproduction target track to the track immediately before the currently reproduced track (or replaying from the beginning of the currently reproduced track). The track designation button b5 is an object for receiving a track designation instruction for directly designating a track to be reproduced.

また、画面40aには、カーソルCとポインタPとが表示される。ポインタPはタッチパッド41に対するなぞり操作に応じた画面40a内の任意の位置に移動し、当該任意の位置を指し示す図形である。カーソルCは、ポインタPが指し示しているボタンを他のボタンと識別可能に示す図形(例えばボタンの輪郭線と相似形の図形)である。カーソルCは、ポインタPの指し示す位置にボタンが表示されている場合に、当該ボタンに対して表示される。例えば、図2Aにおいては、トラック指定ボタンb5をポインタPが指し示しており、カーソルCがトラック指定ボタンb5に表示されていることを示している。ポインタPおよびカーソルCは、画面40aに視点が存在する場合に表示され画面40aに視点が存在しない場合には表示されなくてよい。   A cursor C and a pointer P are displayed on the screen 40a. The pointer P is a figure that moves to an arbitrary position in the screen 40a according to the tracing operation on the touch pad 41 and points to the arbitrary position. The cursor C is a figure (for example, a figure similar to the outline of the button) that can identify the button indicated by the pointer P from other buttons. The cursor C is displayed for the button when the button is displayed at the position indicated by the pointer P. For example, in FIG. 2A, the pointer P indicates the track designation button b5, and the cursor C is displayed on the track designation button b5. The pointer P and the cursor C are displayed when the viewpoint exists on the screen 40a, and may not be displayed when the viewpoint does not exist on the screen 40a.

操作指示受付部21dは、タッチパッド41に対してなされた操作による指示を受け付ける機能を制御部20に実現させるためのプログラムモジュールである。本実施形態では、操作指示受付部21dにより、利用者の視点がディスプレイ40に存在するか否かに応じて、受付可能な指示が異なるように制御される。視点が画面上に存在する場合、制御部20は、詳細操作モードで操作に応じた指示を受け付ける。一方、視点が画面に存在しない場合、制御部20は、簡易操作モードで操作に応じた指示を受け付ける。簡易操作モードにおいて受付可能な指示は、詳細操作モードにおいて受付可能な複数の指示のうちの一部である。   The operation instruction receiving unit 21d is a program module for causing the control unit 20 to realize a function of receiving an instruction by an operation performed on the touch pad 41. In this embodiment, the instruction that can be accepted is controlled by the operation instruction accepting unit 21d depending on whether or not the user's viewpoint exists on the display 40. When the viewpoint exists on the screen, the control unit 20 receives an instruction corresponding to the operation in the detailed operation mode. On the other hand, when the viewpoint does not exist on the screen, the control unit 20 receives an instruction according to the operation in the simple operation mode. The instructions that can be accepted in the simple operation mode are a part of a plurality of instructions that can be accepted in the detailed operation mode.

図2Bは、画面40aがディスプレイ40に表示されている場合の、各指示の受付可否をモード別に示す図である。同図に示すように、詳細操作モードでは、音量アップ指示、音量ダウン指示、トラックアップ指示、トラックダウン指示、トラック指定指示を受付可能に設定される。簡易操作モードでは、詳細操作モードで受付可能な指示のうち、音量アップ指示、音量ダウン指示、トラックアップ指示、トラックダウン指示のみが受付可能に設定される。このように本実施形態では、簡易操作モードにおいて受付可能な指示は、詳細操作モードにおいて受付可能な指示と同一種類の機能(すなわちオーディオ機能)に関する指示である。簡易操作モードにおいて受付可能な指示が詳細操作モードにおいて受付可能な指示と異なる種類の機能である場合と比較すると、利用者はユーザインタフェース画面を見ずに入力可能な指示を容易に推定できる。   FIG. 2B is a diagram showing whether or not each instruction can be accepted for each mode when the screen 40 a is displayed on the display 40. As shown in the figure, in the detailed operation mode, a volume up instruction, a volume down instruction, a track up instruction, a track down instruction, and a track designation instruction are set to be receivable. In the simple operation mode, among the instructions that can be accepted in the detailed operation mode, only a volume up instruction, a volume down instruction, a track up instruction, and a track down instruction are set to be accepted. As described above, in this embodiment, the instruction that can be accepted in the simple operation mode is an instruction related to the same type of function (that is, the audio function) as the instruction that can be accepted in the detailed operation mode. Compared with the case where the instructions that can be accepted in the simple operation mode are different types of functions from the instructions that can be accepted in the detailed operation mode, the user can easily estimate the instructions that can be input without looking at the user interface screen.

なお、詳細操作モードと簡易操作モードとでは、同じ指示を入力するための操作内容が異なる。具体的には、詳細操作モードにおいては、入力したい指示に対応するボタンにポインタPを移動させる操作(なぞり操作)と、ポインタPが当該ボタンを指し示している状態で当該ボタンの選択を決定する操作(タップ操作)の少なくとも2操作を行うことで当該ボタンに対応する指示を入力することができる。なお、タッチパッド41に対して接触を開始してから接触を終了するまでを1操作というものとする。また、ポインタPを目的のボタンの位置に移動させるためには、利用者は画面を視認する必要がある。   The detailed operation mode and the simple operation mode have different operation contents for inputting the same instruction. Specifically, in the detailed operation mode, an operation of moving the pointer P to a button corresponding to an instruction to be input (strapping operation), and an operation of determining selection of the button in a state where the pointer P points to the button. By performing at least two operations (tap operation), an instruction corresponding to the button can be input. Note that the operation from the start of contact with the touch pad 41 to the end of the contact is referred to as one operation. Further, in order to move the pointer P to the target button position, the user needs to visually recognize the screen.

一方、簡易操作モードでは、タッチパッド41の矩形平面の接触検出面上における予め決められた方向へのなぞり操作と受付可能な指示とが予め対応付けられている。具体的には、接触検出面を示す矩形領域において上辺、下辺、右辺、左辺が規定されている。タッチパッド41の接触検出面における上下左右は、ディスプレイ40において規定される上下左右にそれぞれ対応する。そして例えば、下辺から上辺に向かう方向であって上辺に対して直角(または略直角)に向かうなぞり操作(上方向へのなぞり操作)は、音量アップ指示に対応付けられている。このように、簡易操作モードでは予め決められた方向へのなぞり操作という1操作によって指示を入力することができる。したがって、簡易操作モードでは、詳細操作モードよりも簡易に指示を入力可能である。また、利用者は、タッチパッド41の接触検出面における上述の上下左右の方向を一旦把握することができれば、タッチパッド41の接触検出面やディスプレイ40の画面を視認しなくても、タッチパッド41の接触検出面上での予め決められた方向へのなぞり操作を行うことができる。   On the other hand, in the simple operation mode, a tracing operation in a predetermined direction on the rectangular contact detection surface of the touch pad 41 is associated with a receivable instruction in advance. Specifically, an upper side, a lower side, a right side, and a left side are defined in a rectangular region indicating a contact detection surface. The top, bottom, left, and right on the contact detection surface of the touch pad 41 correspond to the top, bottom, left, and right defined in the display 40, respectively. For example, a tracing operation (a tracing operation in the upward direction) that is a direction from the lower side to the upper side and that is perpendicular to (or substantially perpendicular to) the upper side is associated with a sound volume increase instruction. As described above, in the simple operation mode, an instruction can be input by one operation of a tracing operation in a predetermined direction. Therefore, in the simple operation mode, an instruction can be input more easily than in the detailed operation mode. Further, once the user can grasp the above-described up / down / left / right directions on the contact detection surface of the touch pad 41, the user can recognize the touch pad 41 without viewing the contact detection surface of the touch pad 41 or the screen of the display 40. It is possible to perform a tracing operation in a predetermined direction on the contact detection surface.

(2)入力処理:
次に、制御部20が実行する入力処理を、図3Aを参照しながら説明する。入力処理は、ディスプレイ40にユーザインタフェース画面が表示されている間、繰り返し制御部20によって実行される。入力処理が開始されると、制御部20は操作検出部21bの処理により、タッチパッド41に対する操作がなされたか否かを判定する(ステップS100)。ステップS100において操作がなされたと判定されなかった場合、制御部20は入力処理を終了する。
(2) Input processing:
Next, input processing executed by the control unit 20 will be described with reference to FIG. 3A. The input process is executed by the repetitive control unit 20 while the user interface screen is displayed on the display 40. When the input process is started, the control unit 20 determines whether or not an operation has been performed on the touch pad 41 by the process of the operation detection unit 21b (step S100). If it is not determined in step S100 that the operation has been performed, the control unit 20 ends the input process.

ステップS100において操作がなされたと判定された場合、制御部20は、視点検出部21aの処理により、利用者の視点を検出する(ステップS105)。本実施形態においては、視点が存在する位置がディスプレイ40の画面内であるか画面外であるかを少なくとも判定できる精度で検出できればよいが、画面内にある場合には画面内において視点が位置する座標を取得するようにしてもよい。   When it is determined in step S100 that the operation has been performed, the control unit 20 detects the viewpoint of the user by the processing of the viewpoint detection unit 21a (step S105). In the present embodiment, it is only necessary to be able to detect at least the accuracy with which it is possible to determine whether the position where the viewpoint exists is within the screen of the display 40 or outside the screen, but when the position is within the screen, the viewpoint is located within the screen. You may make it acquire a coordinate.

続いて制御部20は、操作指示受付部21dの処理により、視点が画面内に存在するか否かを判定する(ステップS110)。そして、ステップS110において視点が画面内に存在すると判定された場合に制御部20は、操作指示受付部21dの処理により、詳細操作モードで操作内容に応じた指示を受け付ける(ステップS115)。具体的には制御部20は、当該指示を受け付け、当該指示の内容を実現するための処理を実行する。ステップS110において視点が画面内に存在すると判定されなかった場合に制御部20は、操作指示受付部21dの処理により、簡易操作モードで操作内容に応じた指示を受け付ける(ステップS120)。具体的には制御部20は、当該指示を受け付け、当該指示の内容を実現するための処理を実行する。   Subsequently, the control unit 20 determines whether or not the viewpoint exists in the screen by the processing of the operation instruction receiving unit 21d (step S110). When it is determined in step S110 that the viewpoint exists in the screen, the control unit 20 receives an instruction corresponding to the operation content in the detailed operation mode by the process of the operation instruction receiving unit 21d (step S115). Specifically, the control unit 20 receives the instruction and executes a process for realizing the content of the instruction. When it is not determined in step S110 that the viewpoint exists in the screen, the control unit 20 receives an instruction corresponding to the operation content in the simple operation mode by the process of the operation instruction receiving unit 21d (step S120). Specifically, the control unit 20 receives the instruction and executes a process for realizing the content of the instruction.

次に、ステップS115およびステップS120における処理内容の具体例を説明する。図3Bは、図2Aに示す画面40aがディスプレイ40に表示されている場合に、ステップS115とステップS120において制御部20が実行する処理と操作との対応を示す図である。図2Aに示す画面40aがディスプレイ40に表示されている場合、ステップS115においては、図3Bに示す詳細操作モードで操作に応じた処理が実行される。具体的には、ステップS100で検出した操作の内容が、上下左右の4方向を含む任意の方向へのなぞり操作である場合、制御部20はなぞり操作の移動方向や移動量に応じた位置にポインタPを移動させる。   Next, specific examples of processing contents in steps S115 and S120 will be described. FIG. 3B is a diagram illustrating a correspondence between the processes executed by the control unit 20 in steps S115 and S120 when the screen 40a illustrated in FIG. 2A is displayed on the display 40. When the screen 40a shown in FIG. 2A is displayed on the display 40, in step S115, processing corresponding to the operation is executed in the detailed operation mode shown in FIG. 3B. Specifically, when the content of the operation detected in step S100 is a tracing operation in an arbitrary direction including four directions, up, down, left, and right, the control unit 20 moves to a position corresponding to the movement direction and movement amount of the tracing operation. The pointer P is moved.

ステップS100で検出された操作がタップである場合であって、その際のポインタPが音量アップボタンb1を指し示している場合、制御部20は、音量アップ指示を受け付け、オーディオ制御プログラムを実行して音量を1レベルアップさせる。また、制御部20は表示制御部21cの処理により、音量インジケータviを音量レベルに合わせて更新する。   If the operation detected in step S100 is a tap, and the pointer P at that time points to the volume up button b1, the control unit 20 receives a volume up instruction and executes the audio control program. Increase the volume by one level. Further, the control unit 20 updates the volume indicator vi according to the volume level by the processing of the display control unit 21c.

ステップS100で検出された操作がタップである場合であって、その際のポインタPが音量ダウンボタンb2を指し示している場合、制御部20は、音量ダウン指示を受け付け、オーディオ制御プログラムを実行して音量を1レベルダウンさせる。また、制御部20は表示制御部21cの処理により、音量インジケータviを音量レベルに合わせて更新する。   If the operation detected in step S100 is a tap, and the pointer P at that time points to the volume down button b2, the control unit 20 receives the volume down instruction and executes the audio control program. Decrease the volume by one level. Further, the control unit 20 updates the volume indicator vi according to the volume level by the processing of the display control unit 21c.

ステップS100で検出された操作がタップである場合であって、その際のポインタPがトラックアップボタンb4を指し示している場合、制御部20は、トラックアップ指示を受け付け、オーディオ制御プログラムを実行してトラックを進める。トラックアップ指示を受け付けたことに応じて、制御部20は、画面40aのトラックリストにおいて表示対象とするトラックの範囲や、スクロールバーsbを更新してもよい。   If the operation detected in step S100 is a tap and the pointer P at that time points to the track up button b4, the control unit 20 receives the track up instruction and executes the audio control program. Advance the track. In response to receiving the track up instruction, the control unit 20 may update the range of tracks to be displayed in the track list on the screen 40a and the scroll bar sb.

ステップS100で検出された操作がタップである場合であって、その際のポインタPがトラックダウンボタンb3を指し示している場合、制御部20は、トラックダウン指示を受け付け、オーディオ制御プログラムを実行してトラックを戻す。トラックダウン指示を受け付けたことに応じて、制御部20は、画面40aのトラックリストにおいて表示対象とするトラックの範囲や、スクロールバーsbを更新してもよい。   If the operation detected in step S100 is a tap and the pointer P at that time points to the track down button b3, the control unit 20 receives the track down instruction and executes the audio control program. Return the track. In response to receiving the track down instruction, the control unit 20 may update the range of tracks to be displayed in the track list on the screen 40a and the scroll bar sb.

ステップS100で検出された操作がタップである場合であって、その際のポインタPが上記以外のタップ操作に対応するオブジェクトを指し示している場合、制御部20は、当該オブジェクトに対応付けられた処理を実行する。例えば図2Aには図示されていない前画面に戻るボタンにポインタPがある状態でタップがなされた場合、制御部20は画面40aの一階層上の画面を画面40aに変わってディスプレイ40に表示する。ステップS100で検出された操作がタップである場合であって、その際のポインタPがタップ操作に対応するオブジェクトを指し示していない場合(例えば背景部分を指し示している場合)、制御部20は、タップ操作に応じた処理は実行しない。   When the operation detected in step S100 is a tap, and the pointer P at that time points to an object corresponding to a tap operation other than the above, the control unit 20 performs processing associated with the object. Execute. For example, when a tap is made with the pointer P on the button for returning to the previous screen (not shown in FIG. 2A), the control unit 20 displays the screen one level higher on the screen 40a on the display 40 instead of the screen 40a. . When the operation detected in step S100 is a tap, and the pointer P at that time does not point to an object corresponding to the tap operation (for example, when pointing to the background portion), the control unit 20 Processing according to the operation is not executed.

図2Aに示す画面40aがディスプレイ40に表示されている場合、ステップS120においては、図3Bに示す簡易操作モードで操作に応じた処理が実行される。具体的には、ステップS100で検出した操作の内容が、上方向へのなぞり操作である場合、制御部20は、音量アップ指示を受け付け、オーディオ制御プログラムを実行して音量を1レベルアップさせる。また制御部20は、表示制御部21cの処理により、音量インジケータviを音量レベルに合わせて更新する。   When the screen 40a shown in FIG. 2A is displayed on the display 40, in step S120, processing corresponding to the operation is executed in the simple operation mode shown in FIG. 3B. Specifically, when the content of the operation detected in step S100 is a tracing operation in the upward direction, the control unit 20 receives a volume up instruction and executes an audio control program to increase the volume by one level. Further, the control unit 20 updates the volume indicator vi according to the volume level by the processing of the display control unit 21c.

ステップS100で検出した操作が、下方向へのなぞり操作(上辺から下辺に向かう方向であって下辺に対して直角(または略直角)に向かうなぞり操作)である場合、制御部20は、音量ダウン指示を受け付け、オーディオ制御プログラムを実行して音量を1レベルダウンさせる。また制御部20は、表示制御部21cの処理により、音量インジケータviを音量レベルに合わせて更新する。   When the operation detected in step S100 is a downward tracing operation (a tracing operation in a direction from the upper side toward the lower side and perpendicular to (or substantially perpendicular to) the lower side), the control unit 20 reduces the volume. An instruction is received and the audio control program is executed to lower the volume by one level. Further, the control unit 20 updates the volume indicator vi according to the volume level by the processing of the display control unit 21c.

ステップS100で検出した操作が、右方向へのなぞり操作(左辺から右辺に向かう方向であって右辺に対して直角(または略直角)に向かうなぞり操作)である場合、制御部20は、トラックアップ指示を受け付け、オーディオ制御プログラムを実行してトラックを進める。トラックアップ指示を受け付けたことに応じて、制御部20は、画面40aのトラックリストにおいて表示対象とするトラックの範囲や、スクロールバーsbを更新してもよい。   When the operation detected in step S100 is a tracing operation in the right direction (a tracing operation in a direction from the left side to the right side and a right angle (or a substantially right angle) with respect to the right side), the control unit 20 performs the track-up operation. Accept instructions and run audio control program to advance track. In response to receiving the track up instruction, the control unit 20 may update the range of tracks to be displayed in the track list on the screen 40a and the scroll bar sb.

ステップS100で検出した操作が、左方向へのなぞり操作(右辺から左辺に向かう方向であって左辺に対して直角(または略直角)に向かうなぞり操作)である場合、制御部20は、トラックダウン指示を受け付け、オーディオ制御プログラムを実行してトラックを戻す。トラックダウン指示を受け付けたことに応じて、制御部20は、画面40aのトラックリストにおいて表示対象とするトラックの範囲や、スクロールバーsbを更新してもよい。   When the operation detected in step S100 is a leftward tracing operation (a tracing operation in a direction from the right side to the left side and perpendicular to (or substantially perpendicular to) the left side), the control unit 20 performs track down. Accept instructions and run audio control program to return track. In response to receiving the track down instruction, the control unit 20 may update the range of tracks to be displayed in the track list on the screen 40a and the scroll bar sb.

ステップS100で検出した操作が、上下左右4方向以外への任意の方向へのなぞり操作である場合、制御部20は、当該なぞり操作に応じた処理は実行しない。ステップS100で検出した操作が、タップ操作である場合、制御部20は、制御部20はタップ操作に応じた処理は実行しない。   When the operation detected in step S100 is a tracing operation in an arbitrary direction other than the four directions of up, down, left, and right, the control unit 20 does not execute processing according to the tracing operation. When the operation detected in step S100 is a tap operation, the control unit 20 does not execute a process corresponding to the tap operation.

以上のように、詳細操作モードにおいては、画面内のボタンを選択する場合、なぞり操作によって当該ボタンにポインタを移動させ、タップ操作によって当該ボタンの選択を決定するという2操作が必要であり、タップ操作によって選択を決定しようとする対象が利用者の意図通りのボタンであるか否かを、利用者はユーザインタフェース画面を視認して確認する必要がある。一方、簡易操作モードにおいては、受付可能な指示(音量調整や、再生対象トラックの変更)を入力するための操作は、利用者の画面の視認を要しない。さらに、それらの指示が受け付けられた結果を、利用者は聴覚によって確認することができる。すなわち、簡易操作モードにおいては、利用者は操作を行う際も、操作の結果を確認する際も、利用者は画面を視認する必要がない。したがって利用者は、例えば車両前方を見ながらであっても、タッチパッド41に対して予め決められた簡易な操作を行うことによって当該操作に対応する指示を入力することができるとともにその指示の結果を認識することができる。利用者はディスプレイ40に視線を移す必要がないため、利便性が向上する。   As described above, in the detailed operation mode, when selecting a button in the screen, two operations are required, that is, the pointer is moved to the button by a tracing operation and the selection of the button is determined by a tap operation. It is necessary for the user to visually check the user interface screen to determine whether or not the object whose selection is to be determined by the operation is a button as intended by the user. On the other hand, in the simple operation mode, an operation for inputting a receivable instruction (volume adjustment or change of a reproduction target track) does not require visual recognition of the user's screen. Furthermore, the user can confirm the result of accepting those instructions by hearing. That is, in the simple operation mode, the user does not need to visually recognize the screen when performing an operation or confirming the operation result. Therefore, for example, even while looking at the front of the vehicle, the user can input an instruction corresponding to the operation by performing a predetermined simple operation on the touch pad 41 and the result of the instruction. Can be recognized. Since the user does not need to move his / her line of sight to the display 40, convenience is improved.

また、ユーザインタフェース画面を視認しなくても入力可能な一部の指示を含む複数の指示を、利用者はユーザインタフェース画面を視認することで入力可能である。そのため当該一部の指示や当該一部の指示以外にも多様な指示にも対応可能なシステムを構成することができる。   In addition, the user can input a plurality of instructions including some instructions that can be input without visually recognizing the user interface screen by visually recognizing the user interface screen. Therefore, it is possible to configure a system that can deal with various instructions other than the partial instructions and the partial instructions.

(3)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、利用者の視点がユーザインタフェース画面上に存在する場合は複数の指示の全てを操作部によって受付可能とし、利用者の視点がユーザインタフェース画面上に存在しない場合は複数の指示の一部のみを操作部によって受付可能とする限りにおいて、他にも種々の実施形態を採用可能である。例えば、入力システム10は、各種のシステム、汎用コンピュータシステムに適用されていても良い。また、入力システム10は、複数の装置(例えば、クライアントとサーバ)によって実現されるシステムであっても良い。入力システム10は車両に搭載される構成に限定されない。
(3) Other embodiments:
The above embodiment is an example for carrying out the present invention. When the user's viewpoint exists on the user interface screen, all of a plurality of instructions can be received by the operation unit, and the user's viewpoint is the user interface. Various other embodiments can be adopted as long as only a part of a plurality of instructions can be received by the operation unit when they do not exist on the screen. For example, the input system 10 may be applied to various systems and general-purpose computer systems. The input system 10 may be a system realized by a plurality of devices (for example, a client and a server). The input system 10 is not limited to the configuration mounted on the vehicle.

さらに、入力システム10を構成する視点検出部21a、操作検出部21b、表示制御部21c、操作指示受付部21dの少なくとも一部が複数の装置に分かれて存在していても良い。例えば、操作検出部21bが、タッチパッド41内の制御部で実現されても良いし、視点検出部21aが視線検出センサ42内の制御部で実現されても良い。むろん、上述の実施形態の一部の構成が省略されてもよいし、処理の順序が変動または省略されてもよい。   Furthermore, at least a part of the viewpoint detection unit 21a, the operation detection unit 21b, the display control unit 21c, and the operation instruction reception unit 21d configuring the input system 10 may be divided into a plurality of devices. For example, the operation detection unit 21b may be realized by a control unit in the touch pad 41, or the viewpoint detection unit 21a may be realized by a control unit in the line-of-sight detection sensor 42. Of course, a part of the configuration of the above-described embodiment may be omitted, and the processing order may be changed or omitted.

上記実施形態は、オーディオ機能に関する画面が表示されている場合を例に挙げたが、この例以外にも様々な機能に関する画面が表示されている場合にも本発明を適用できる。例えば、経路探索機能に関する基本画面がディスプレイ40に表示されている場合を例に説明する。当該基本画面には、地図が表示されているとともに、目的地設定ボタンや探索条件設定ボタン等を含む様々なボタンが表示されている。ここで目的地設定ボタンは、目的地を設定するためのインタフェースを提供する目的地設定画面を表示するためのボタンである。探索条件設定ボタンは、距離優先や一般道路優先などの探索条件を設定するためのインタフェースを提供する探索条件設定画面を表示するためのボタンである。基本画面が表示されており、視点が基本画面に存在しない場合に、例えば、タップ操作がなされた場合、制御部20は自宅を目的地として設定するようにしてもよい。なお視点が基本画面に存在する場合、目的地を自宅に設定するためには、目的地設定ボタンにポインタを移動させて選択を決定し、目的地設定画面において自宅を示すボタンにポインタを移動させて選択を決定する、等の操作が必要である。なお目的地を自宅に設定する以外にも、視点が基本画面にない場合に予め決められた操作がなされると、当該操作に対応付けられた経路探索機能に関する他の処理が実行されてもよい。   In the above-described embodiment, the case where the screen related to the audio function is displayed is taken as an example. However, the present invention can be applied to the case where screens related to various functions other than this example are displayed. For example, the case where the basic screen regarding the route search function is displayed on the display 40 will be described as an example. On the basic screen, a map is displayed and various buttons including a destination setting button and a search condition setting button are displayed. Here, the destination setting button is a button for displaying a destination setting screen that provides an interface for setting the destination. The search condition setting button is a button for displaying a search condition setting screen that provides an interface for setting search conditions such as distance priority and general road priority. When the basic screen is displayed and the viewpoint does not exist on the basic screen, for example, when a tap operation is performed, the control unit 20 may set the home as the destination. If the viewpoint is on the basic screen, to set the destination as home, move the pointer to the destination setting button to determine the selection, and move the pointer to the button indicating home on the destination setting screen. It is necessary to perform operations such as determining the selection. In addition to setting the destination as home, when a predetermined operation is performed when the viewpoint is not on the basic screen, other processing related to the route search function associated with the operation may be executed. .

視点検出部は、利用者の視点を検出することができればよく、種々の構成を採用可能である。例えば、上述の実施形態のように、利用者の目を撮影するカメラの出力に基づいて利用者の目の動作を特定することにより視線を特定し、視線と予め特定されたディスプレイ画面との交点を始点と見なす構成等を採用可能である。検出対象となる目は1個であっても良いし、2個であっても良いが、精度を高めるためには検出対象の目は2個であることが好ましい。2個の目の視線が特定された場合における視点は、各目の視線に基づいて特定された各視点から統計的に特定されても良いし、利き目によるバイアスに基づいて視点が特定されても良い。さらに、視点は、少なくとも、利用者が視認している表示領域上で特定されれば良い。   The viewpoint detection unit only needs to be able to detect the viewpoint of the user, and various configurations can be employed. For example, as in the above-described embodiment, the line of sight is specified by specifying the movement of the user's eyes based on the output of the camera that captures the user's eyes, and the intersection of the line of sight and the previously specified display screen It is possible to adopt a configuration that regards as a starting point. The number of eyes to be detected may be one or two, but in order to improve accuracy, it is preferable that the number of eyes to be detected is two. The viewpoint when the eyes of two eyes are specified may be statistically specified from each viewpoint specified based on the eyes of each eye, or the viewpoint is specified based on the bias by the dominant eye. Also good. Furthermore, the viewpoint may be specified at least on the display area that the user is viewing.

操作検出部は、操作部に対する利用者の操作を検出することができればよく、種々の構成を採用可能である。例えば上記実施形態のように、タッチパッドに対する利用者の接触操作を検出する構成を採用してよい。検出対象の接触操作には、シングルタップ、ダブルタップ、ロングタップ、フリック、スワイプ、ピンチイン、ピンチアウト等が含まれてよい。利用者の操作は、利用者が装置を操る動作であり、利用者の体が物理的に装置に接触することによって行われる構成を採用可能である。この場合利用者の操作は、利用者の手によって行われることに限定されず、手以外の体の部位によって行われても良い。スタイラスペン等の接触を検出する構成であってもよい。なお、利用者の体が物理的に接触する動作以外にも、利用者の体を操作部に接近させる動作(近接センサを用いて利用者の体が操作部に接近したことを検出)等を検出する構成を採用してもよい。   The operation detection unit only needs to be able to detect a user operation on the operation unit, and various configurations can be employed. For example, as in the above-described embodiment, a configuration for detecting a user's touch operation on the touch pad may be employed. The touch operation of the detection target may include single tap, double tap, long tap, flick, swipe, pinch in, pinch out, and the like. The user's operation is an operation in which the user operates the apparatus, and it is possible to adopt a configuration that is performed when the user's body physically contacts the apparatus. In this case, the user's operation is not limited to being performed by the user's hand, and may be performed by a body part other than the hand. It may be configured to detect contact with a stylus pen or the like. In addition to the physical contact of the user's body, the operation of bringing the user's body closer to the operation unit (detecting the proximity of the user's body to the operation unit using a proximity sensor), etc. You may employ | adopt the structure to detect.

なお操作部には、タッチパッド以外の入力デバイスが採用されてもよい。当該入力デバイスは、カーソルやポインタを移動させて対象を仮選択する操作と、仮選択した対象の選択を決定する操作とが実現できるデバイスであってもよい。具体的には例えば、トラックボール、ホイールパッド、マウス、ジョグダイヤル、方向キーと決定キー、等が採用されてもよい。なお、対象の仮選択は、視点が当該対象に移動したことを検出した場合に実現されてもよい。   Note that an input device other than the touchpad may be employed for the operation unit. The input device may be a device that can realize an operation of temporarily selecting a target by moving a cursor or a pointer and an operation of determining selection of the temporarily selected target. Specifically, for example, a trackball, a wheel pad, a mouse, a jog dial, a direction key and a determination key, and the like may be employed. The temporary selection of the target may be realized when it is detected that the viewpoint has moved to the target.

表示制御部は、複数の指示を受け付けるためのユーザインタフェース画面を表示部に表示することができればよく、種々の構成を採用可能である。例えば、表示部には、本発明の対象とするユーザインタフェース画面以外のユーザインタフェース画面も同時に表示されていてもよい。表示部には、本発明の対象とするユーザインタフェース画面が複数同時に表示されていてもよい。また、表示部は単一のディスプレイで構成されてもよいし、複数のディスプレイで構成されてもよい。   The display control unit only needs to be able to display a user interface screen for receiving a plurality of instructions on the display unit, and various configurations can be employed. For example, a user interface screen other than the user interface screen targeted by the present invention may be displayed at the same time on the display unit. A plurality of user interface screens targeted by the present invention may be displayed simultaneously on the display unit. Further, the display unit may be configured by a single display or may be configured by a plurality of displays.

操作指示受付部は、視点がユーザインタフェース画面上に存在する場合、複数の指示の全てを操作部によって受付可能に設定し、視点がユーザインタフェース画面上に存在しない場合、複数の指示の一部のみを操作部によって受付可能に設定して、操作部による指示を受け付けることができればよい。ユーザインタフェース画面上に視点が存在しない場合に操作部に対してなされた操作の種類と指示との対応関係は、予め決められていればよく、どのような対応関係であってもよい。   The operation instruction reception unit sets all of a plurality of instructions to be receivable by the operation unit when the viewpoint exists on the user interface screen, and only a part of the plurality of instructions when the viewpoint does not exist on the user interface screen. Is set to be receivable by the operation unit, and an instruction from the operation unit may be received. The correspondence between the type of operation performed on the operation unit and the instruction when the viewpoint does not exist on the user interface screen may be determined in advance, and may be any correspondence.

例えば、視点がユーザインタフェース画面上に存在しない場合に受付可能な指示は、上記実施形態のように視点がユーザインタフェース画面上に存在する場合に受付可能な指示と同一種類の機能に関する指示であってもよいし、ユーザインタフェース画面に主として表示されている機能とは異なる種類の機能に関する指示であってもよい。後者としては例えば、経路案内機能の画面(例えば地図が表示されている画面)を表示中に、当該画面に視点が存在しない状態で上方向へのなぞり操作を行うことによって、経路案内機能とは異なるオーディオ機能に関する操作(例えば音量アップ)ができてもよい。なお、経路案内機能の画面が表示されている状態で、利用者が画面を見ながら操作することでオーディオ機能に関する操作を行うことができるように構成されている。例えば、経路案内機能の画面に、オーディオ設定画面を表示させるためのボタンが表示されていてもよい。利用者が当該ボタンにポインタを移動させる操作と当該ボタンの選択を決定する操作をすると、オーディオ設定画面が表示される。そして利用者は、オーディオ設定画面内の音量アップボタンにカーソルを移動させる操作と当該ボタンの選択を決定する操作をすることで音量アップ指示を入力することができてもよい。したがってこの場合の音量アップ指示は「複数の指示の一部」に相当する。   For example, the instruction that can be accepted when the viewpoint does not exist on the user interface screen is an instruction related to the same type of function as the instruction that can be accepted when the viewpoint exists on the user interface screen as in the above embodiment. Alternatively, it may be an instruction related to a function of a different type from the function mainly displayed on the user interface screen. As the latter, for example, when a route guidance function screen (for example, a screen on which a map is displayed) is being displayed, the route guidance function is performed by performing an upward tracing operation without a viewpoint on the screen. An operation related to a different audio function (for example, volume increase) may be performed. It should be noted that the user can perform operations related to the audio function by operating while viewing the screen while the route guidance function screen is displayed. For example, a button for displaying an audio setting screen may be displayed on the route guidance function screen. When the user performs an operation of moving the pointer to the button and an operation of determining selection of the button, an audio setting screen is displayed. Then, the user may be able to input a volume up instruction by performing an operation of moving the cursor to the volume up button in the audio setting screen and an operation of determining selection of the button. Therefore, the sound volume increase instruction in this case corresponds to “a part of a plurality of instructions”.

また、表示されている画面の内容にかかわらず、視点が画面に存在しない場合に、左方向へのなぞり操作または右方向へのなぞり操作によって、音量調整モードと空調調整モードとを切り換える構成であってもよい。そして、音量調整モードにおいて上方向へのなぞり操作または下方向へのなぞり操作がなされるとオーディオの音量をそれぞれアップまたはダウンし、空調調整モードにおいて上方向へのなぞり操作または下方向へのなぞり操作がなされると車室内の設定温度をそれぞれアップまたはダウンする構成であってもよい。   In addition, regardless of the contents of the displayed screen, when the viewpoint does not exist on the screen, the volume adjustment mode and the air conditioning adjustment mode are switched by a left drag operation or a right drag operation. May be. When the drag operation is performed in the upward or downward direction in the volume adjustment mode, the audio volume is increased or decreased. In the air conditioning mode, the upward or downward drag operation is performed. When the operation is performed, the configuration may be such that the set temperature in the passenger compartment is increased or decreased, respectively.

なお、表示部には単一のユーザインタフェース画面が表示されてもよいし、複数のユーザインタフェース画面が表示されてもよい。図4は、ディスプレイ40に、第一画面401、第二画面402、第三画面403が表示されていることを示している。例えば第一画面401にはオーディオ機能に関する画面(例:図2A)が表示されており、第二画面402には、経路探索機能に関する画面が表示されており、第三画面403には空調機能に関する画面が表示されている例を想定可能である。利用者はオーディオ機能に関しては第一画面401を視認しながらタッチパッド41を操作することでオーディオ機能に関する各種指示を入力することができる。また、経路探索機能については第二画面402を視認しながらタッチパッド41に対して操作を行うことで利用者は経路探索機能に関する各種指示を入力することができる。また、空調機能については第三画面403を視認しながらタッチパッド41に対して操作を行うことで利用者は空調機能に関する各種指示を入力することができる。   A single user interface screen may be displayed on the display unit, or a plurality of user interface screens may be displayed. FIG. 4 shows that the first screen 401, the second screen 402, and the third screen 403 are displayed on the display 40. For example, a screen related to the audio function (eg, FIG. 2A) is displayed on the first screen 401, a screen related to the route search function is displayed on the second screen 402, and a screen related to the air conditioning function is displayed on the third screen 403. An example in which a screen is displayed can be assumed. The user can input various instructions regarding the audio function by operating the touch pad 41 while visually recognizing the first screen 401. As for the route search function, the user can input various instructions regarding the route search function by operating the touch pad 41 while viewing the second screen 402. As for the air conditioning function, the user can input various instructions regarding the air conditioning function by operating the touch pad 41 while viewing the third screen 403.

図4の例において、利用者の視点がディスプレイ40に存在しない場合に予め決められた操作がタッチパッド41に対してなされた場合、例えば第一〜第三画面のうちのうちのいずれかアクティブな画面と同一種類の機能に関する指示が受付可能とされてもよい。アクティブな画面とは、例えば、視点がディスプレイ40の外に外れる直前に利用者が視認していた画面であってよい。アクティブな画面には、視点がディスプレイ40外に外れてもカーソルやポインタが表示されたままであってもよい。   In the example of FIG. 4, when a predetermined operation is performed on the touch pad 41 when the user's viewpoint does not exist on the display 40, for example, any one of the first to third screens is active. An instruction regarding the same type of function as the screen may be accepted. The active screen may be, for example, a screen that the user is viewing immediately before the viewpoint is outside the display 40. On the active screen, the cursor and the pointer may remain displayed even when the viewpoint is outside the display 40.

視点がユーザインタフェース画面上に存在する場合に操作部によって受付可能な指示は、利用者によるユーザインタフェース画面の視認を要する操作を含んでいてよい。視認を要する操作としては例えば、ポインタを移動させる操作以外にも、画面に表示されている地図自体をスクロールする(地図の表示範囲を変える)操作を想定してよい。   The instruction that can be accepted by the operation unit when the viewpoint is on the user interface screen may include an operation that requires the user to visually recognize the user interface screen. As an operation that requires visual recognition, for example, in addition to an operation of moving the pointer, an operation of scrolling the map itself displayed on the screen (changing the display range of the map) may be assumed.

視点がユーザインタフェース画面上に存在しない場合に操作部によって受付可能な指示は、利用者によるユーザインタフェース画面の視認を要しない操作によってなされるものであってよい。具体的には例えば空調機能の温度調整であれば、設定温度の変更指示が受け付けられた際にその旨を通知する音声を発生させる構成を採用することで、利用者は設定温度を変更できたことを認識することができる。あるいは、利用者は体感温度の変化によって設定温度の変更を認識可能である。   The instruction that can be accepted by the operation unit when the viewpoint does not exist on the user interface screen may be an operation that does not require the user to visually recognize the user interface screen. Specifically, for example, in the case of temperature adjustment of an air conditioning function, the user can change the set temperature by adopting a configuration that generates a sound to notify that when an instruction to change the set temperature is accepted. I can recognize that. Alternatively, the user can recognize the change in the set temperature based on the change in the sensible temperature.

視点がユーザインタフェース画面上に存在する場合に操作部によって受付可能な指示を入力するための2以上の操作は、なぞり操作とタップ操作とで構成されることに限定されない。2以上の操作はどのような操作の組み合わせであってもよい。2以上の操作の全てが利用者の視認を要する操作であってもよいし、その一部のみが視認を要する操作であってもよい。また、視点がユーザインタフェース画面上に存在しない場合に操作部によって受付可能な指示を入力するための1操作は、フリックやスワイプ等の1本の指等の指示具で行われる直線的ななぞり操作であることに限定されない。例えば、タッチパッドやホイールパッド上で時計回りのなぞり操作を行うことで音量アップ(あるいは温度アップ)指示を入力できてもよい。また、反時計回りのなぞり操作を行うことで音量ダウン(あるいは温度ダウン)指示を入力できてもよい。また例えば、タッチパッド上でピンチイン操作を行うことで音量ダウン指示を入力し、ピンチアウト操作をすることで音量アップ指示を入力できてもよい。   The two or more operations for inputting an instruction that can be accepted by the operation unit when the viewpoint exists on the user interface screen are not limited to being constituted by a tracing operation and a tap operation. Two or more operations may be any combination of operations. All of the two or more operations may be operations that require the user's visual recognition, or only some of them may be operations that require visual recognition. In addition, one operation for inputting an instruction that can be accepted by the operation unit when the viewpoint does not exist on the user interface screen is a linear tracing operation performed by an indicator such as a flick or swipe. It is not limited to being. For example, a volume up (or temperature up) instruction may be input by performing a clockwise tracing operation on a touch pad or a wheel pad. Further, it may be possible to input a sound volume down (or temperature down) instruction by performing a counterclockwise tracing operation. Further, for example, a volume down instruction may be input by performing a pinch-in operation on the touch pad, and a volume up instruction may be input by performing a pinch-out operation.

なお、上記実施形態では、簡易操作モードにおいて、特定の方向への1回のなぞり操作(例:フリック)に応じて音量を1レベル増減させる構成を示したが、特定の方向への1回のなぞり操作(例:スワイプ)の接触開始から接触終了までの時間や接触開始から接触終了までの距離に応じた程度で音量を増減させてもよい。具体的には、当該時間または当該距離が長いほど、音量の増減の程度を大きくするようにしてもよい。その場合、詳細操作モードにおいても、例えば音量アップボタンまたは音量ダウンボタンをロングタップ操作した時間に応じた程度で音量を増減するようにしてもよい。   In the above embodiment, in the simple operation mode, the configuration in which the volume is increased or decreased by one level according to one tracing operation (eg, flick) in a specific direction is shown. The volume may be increased or decreased by a degree corresponding to the time from the contact start to the contact end of the tracing operation (eg, swipe) or the distance from the contact start to the contact end. Specifically, the degree of increase / decrease in volume may be increased as the time or the distance is longer. In that case, in the detailed operation mode, for example, the volume may be increased or decreased according to the time for which the volume up button or the volume down button is long-tapped.

なお、視点がユーザインタフェース画面上に存在する場合に操作部によって受付可能な指示は、n+1以上(nは2以上の整数)の操作によってなされ、視点がユーザインタフェース画面上に存在しない場合に操作部によって受付可能な指示は、n以下の操作によってなされてもよい。この構成の場合、利用者は、ユーザインタフェース画面を見ない状態ではユーザインタフェース画面を見て操作する場合よりも少ない操作を操作部に対して行うことで、指示を入力することができる。   The instruction that can be accepted by the operation unit when the viewpoint exists on the user interface screen is made by an operation of n + 1 or more (n is an integer of 2 or more), and the operation unit when the viewpoint does not exist on the user interface screen. The instructions that can be accepted by may be performed by n or less operations. In the case of this configuration, the user can input an instruction by performing fewer operations on the operation unit than when viewing and operating the user interface screen without viewing the user interface screen.

また、操作検出部は、上記のように汎用的な指示の入力を可能とする入力デバイスの他にも、上記の操作部とは別に、特定の指示を入力するために設けられた専用操作部に対する利用者の操作を検出することができてもよく、種々の構成を採用可能である。専用操作部に対する操作としては、例えば、ボタンの押下、ジョグダイヤルの回転、ホイールパッドやタッチパッドに対する接触操作(回転接触操作でもよい)等を想定してよい。また、利用者の体を専用操作部に接近させる動作(近接センサを用いて利用者の体が専用操作部に接近したことを検出)等を検出する構成を採用してもよい。   In addition to the input device that enables general-purpose instruction input as described above, the operation detection unit is a dedicated operation unit provided to input a specific instruction separately from the above-described operation unit. It may be possible to detect the user's operation on the, and various configurations can be adopted. As operations for the dedicated operation unit, for example, pressing of a button, rotation of a jog dial, contact operation with a wheel pad or a touch pad (or rotation contact operation) may be assumed. Further, a configuration may be employed in which an operation of causing the user's body to approach the dedicated operation unit (detecting that the user's body has approached the dedicated operation unit using a proximity sensor) or the like may be employed.

専用操作部が設けられている場合に操作指示受付部は、専用操作部による特定の指示を受け付けることができてもよい。そして、視点がユーザインタフェース画面上に存在しない場合に操作部によって受付可能な指示は、特定の指示と同一であってもよい。この構成の場合、利用者は、専用操作部に対する操作によって入力可能な特定の指示を、ユーザインタフェース画面を見ない状態で操作部に対して操作を行うことによっても入力することができる。専用操作部として、具体的には例えば、ステアリング部に音量アップボタンや音量ダウンボタンが設けられていても良い。また例えば、インストルメントパネルに空調の設定温度のアップボタンやダウンボタンが設けられても良い。   When the dedicated operation unit is provided, the operation instruction receiving unit may be able to receive a specific instruction from the dedicated operation unit. The instruction that can be accepted by the operation unit when the viewpoint does not exist on the user interface screen may be the same as the specific instruction. In the case of this configuration, the user can also input a specific instruction that can be input by operating the dedicated operation unit by operating the operation unit without looking at the user interface screen. As the dedicated operation unit, specifically, for example, a volume up button or a volume down button may be provided in the steering unit. Further, for example, an up button or a down button for the air conditioning set temperature may be provided on the instrument panel.

また、視点がディスプレイ40の画面上に存在しない場合にタッチパッド41に対して操作を行う場合に受付可能な指示の内容を利用者に案内するようにしてもよい。当該案内はどのような態様で実現されてもよいが、例えば、視点がディスプレイ40に存在しない場合に車室内の設定温度をアップまたはダウンする指示を受付可能であることを示すために、インストルメントパネルに設けられた設定温度のアップボタンやダウンボタンを照明手段によって他のボタンと識別可能に照明するようにしてもよい。より具体的には、他のボタンとは異なる色で照明してよい。また例えば他のボタンが点灯によって照明されている場合に、対象のボタンについては点滅で照明するようにしてもよい。照明手段はボタンに設けられていても良いし、ボタンとは別に設けられていても良い。このような構成を備えることで、利用者は、車両前方を視認している間も視界の片隅に含まれる対象のボタンに対応する指示が入力可能であることを認識することができる。   In addition, when the viewpoint does not exist on the screen of the display 40, the contents of instructions that can be accepted when operating the touch pad 41 may be guided to the user. The guidance may be realized in any manner. For example, in order to indicate that an instruction to increase or decrease the set temperature in the passenger compartment can be accepted when the viewpoint does not exist on the display 40, an instrument is provided. You may make it illuminate the up button and down button of the preset temperature provided in the panel so that it can be distinguished from other buttons by an illumination means. More specifically, it may be illuminated with a different color from the other buttons. Further, for example, when another button is illuminated by lighting, the target button may be illuminated by blinking. The illumination means may be provided on the button, or may be provided separately from the button. With such a configuration, the user can recognize that an instruction corresponding to a target button included in one corner of the field of view can be input even while viewing the front of the vehicle.

さらに、本発明のように、利用者の視点がユーザインタフェース画面上に存在する場合は複数の指示の全てを操作部によって受付可能とし、利用者の視点がユーザインタフェース画面上に存在しない場合は複数の指示の一部のみを操作部によって受付可能とする手法は、プログラムや方法としても適用可能である。また、以上のようなシステム、プログラム、方法は、単独の装置として実現される場合もあれば、車両に備えられる各部と共有の部品を利用して実現される場合もあり、各種の態様を含むものである。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、システムを制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。   Further, as in the present invention, when the user's viewpoint exists on the user interface screen, all of the plurality of instructions can be received by the operation unit, and when the user's viewpoint does not exist on the user interface screen, the plurality of instructions can be received. The method of allowing only a part of the instruction to be accepted by the operation unit can also be applied as a program or method. In addition, the system, program, and method as described above may be realized as a single device, or may be realized using components shared with each part of the vehicle, and include various aspects. It is a waste. Further, some changes may be made as appropriate, such as a part of software and a part of hardware. Furthermore, the invention can be realized as a recording medium for a program for controlling the system. Of course, the software recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium to be developed in the future.

10…入力システム、20…制御部、21…入力プログラム、21a…視点検出部、21b…操作検出部、21c…表示制御部、21d…操作指示受付部、30…記録媒体、30a…表示情報、40…ディスプレイ、40a…画面、41…タッチパッド、42…視線検出センサ、401…第一画面、402…第二画面、403…第三画面、b1…音量アップボタン、b2…音量ダウンボタン、b3…トラックダウンボタン、b4…トラックアップボタン、b5…トラック指定ボタン、C…カーソル、P…ポインタ、sb…スクロールバー、vi…音量インジケータ   DESCRIPTION OF SYMBOLS 10 ... Input system, 20 ... Control part, 21 ... Input program, 21a ... View point detection part, 21b ... Operation detection part, 21c ... Display control part, 21d ... Operation instruction reception part, 30 ... Recording medium, 30a ... Display information, 40 ... Display, 40a ... Screen, 41 ... Touchpad, 42 ... Gaze detection sensor, 401 ... First screen, 402 ... Second screen, 403 ... Third screen, b1 ... Volume up button, b2 ... Volume down button, b3 ... Track down button, b4 ... Track up button, b5 ... Track designation button, C ... Cursor, P ... Pointer, sb ... Scroll bar, vi ... Volume indicator

Claims (6)

利用者の視点を検出する視点検出部と、
操作部に対する前記利用者の操作を検出する操作検出部と、
複数の指示を受け付けるためのユーザインタフェース画面を表示部に表示する表示制御部と、
前記視点が前記ユーザインタフェース画面上に存在する場合、複数の前記指示の全てを前記操作部によって受付可能に設定し、前記視点が前記ユーザインタフェース画面上に存在しない場合、複数の前記指示の一部のみを前記操作部によって受付可能に設定し、前記操作部による前記指示を受け付ける操作指示受付部と、
を備える入力システム。
A viewpoint detection unit that detects a user's viewpoint;
An operation detection unit for detecting an operation of the user on the operation unit;
A display control unit for displaying a user interface screen for receiving a plurality of instructions on the display unit;
When the viewpoint exists on the user interface screen, all of the plurality of instructions are set to be accepted by the operation unit, and when the viewpoint does not exist on the user interface screen, a part of the instructions An operation instruction accepting unit that accepts the instruction by the operation unit,
An input system comprising:
前記視点が前記ユーザインタフェース画面上に存在しない場合に前記操作部によって受付可能な前記指示は、前記視点が前記ユーザインタフェース画面上に存在する場合に前記操作部によって受付可能な前記指示と同一種類の機能に関する指示である、
請求項1に記載の入力システム。
The instruction that can be accepted by the operation unit when the viewpoint does not exist on the user interface screen is the same type as the instruction that can be accepted by the operation unit when the viewpoint exists on the user interface screen. Instructions about the function,
The input system according to claim 1.
前記視点が前記ユーザインタフェース画面上に存在する場合に前記操作部によって受付可能な前記指示は、前記利用者による前記ユーザインタフェース画面の視認を要する操作を含んでなされ、
前記視点が前記ユーザインタフェース画面上に存在しない場合に前記操作部によって受付可能な前記指示は、前記利用者による前記ユーザインタフェース画面の視認を要しない操作によってなされる、
請求項1または請求項2に記載の入力システム。
The instruction that can be accepted by the operation unit when the viewpoint exists on the user interface screen includes an operation that requires the user to visually recognize the user interface screen,
The instruction that can be accepted by the operation unit when the viewpoint does not exist on the user interface screen is made by an operation that does not require visual recognition of the user interface screen by the user.
The input system according to claim 1 or 2.
前記視点が前記ユーザインタフェース画面上に存在する場合に前記操作部によって受付可能な前記指示は、2以上の操作によってなされ、
前記視点が前記ユーザインタフェース画面上に存在しない場合に前記操作部によって受付可能な前記指示は、1操作によってなされる、
請求項1〜請求項3のいずれかに記載の入力システム。
The instruction that can be received by the operation unit when the viewpoint exists on the user interface screen is made by two or more operations,
The instruction that can be accepted by the operation unit when the viewpoint does not exist on the user interface screen is made by one operation.
The input system according to claim 1.
前記操作検出部は、特定の指示を入力するために設けられた専用操作部に対する操作を検出し、
前記操作指示受付部は、前記専用操作部による前記特定の指示を受け付け、
前記視点が前記ユーザインタフェース画面上に存在しない場合に前記操作部によって受付可能な前記指示は、前記特定の指示と同一である、
請求項1〜請求項4のいずれかに記載の入力システム。
The operation detection unit detects an operation for a dedicated operation unit provided for inputting a specific instruction,
The operation instruction receiving unit receives the specific instruction by the dedicated operation unit,
The instruction that can be accepted by the operation unit when the viewpoint does not exist on the user interface screen is the same as the specific instruction.
The input system according to claim 1.
コンピュータを、
利用者の視点を検出する視点検出部、
操作部に対する前記利用者の操作を検出する操作検出部、
複数の指示を受け付けるためのユーザインタフェース画面を表示部に表示する表示制御部、
前記視点が前記ユーザインタフェース画面上に存在する場合、複数の前記指示の全てを前記操作部によって受付可能に設定し、前記視点が前記ユーザインタフェース画面上に存在しない場合、複数の前記指示の一部のみを前記操作部によって受付可能に設定し、前記操作部による前記指示を受け付ける操作指示受付部、
としてコンピュータを機能させる入力プログラム。
Computer
A viewpoint detector that detects the user's viewpoint;
An operation detection unit for detecting an operation of the user on the operation unit;
A display control unit for displaying a user interface screen for receiving a plurality of instructions on the display unit;
When the viewpoint exists on the user interface screen, all of the plurality of instructions are set to be accepted by the operation unit, and when the viewpoint does not exist on the user interface screen, a part of the instructions An operation instruction accepting unit that accepts the instruction by the operation unit,
As an input program to make the computer function as.
JP2016246135A 2016-12-20 2016-12-20 Input system and input program Pending JP2018101230A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016246135A JP2018101230A (en) 2016-12-20 2016-12-20 Input system and input program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016246135A JP2018101230A (en) 2016-12-20 2016-12-20 Input system and input program

Publications (1)

Publication Number Publication Date
JP2018101230A true JP2018101230A (en) 2018-06-28

Family

ID=62714324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016246135A Pending JP2018101230A (en) 2016-12-20 2016-12-20 Input system and input program

Country Status (1)

Country Link
JP (1) JP2018101230A (en)

Similar Documents

Publication Publication Date Title
US9274619B2 (en) Input apparatus, input method, and input program
JP2019175449A (en) Information processing apparatus, information processing system, movable body, information processing method, and program
US10967737B2 (en) Input device for vehicle and input method
CN108108042B (en) Display device for vehicle and control method thereof
CN106458114A (en) Operating device for vehicles
JP6033465B2 (en) Display control device
US20250170891A1 (en) Information processing device and non-transitory, computer-readable recording medium therefor
US20250190103A1 (en) Information processing device and non-transitory, computer-readable recording medium therefor
JP6819539B2 (en) Gesture input device
JP2018097443A (en) Input system and input program
JP2018101230A (en) Input system and input program
JPWO2015083264A1 (en) Display control apparatus and display control method
JP6315443B2 (en) Input device, input detection method for multi-touch operation, and input detection program
JP2018092522A (en) Input system and input program
JP2018063521A (en) Display control system and display control program
JP2018063322A (en) Display control system and display control program
US12361759B2 (en) Control apparatus allowing a user to input operations
WO2020196561A1 (en) Operation device
JP2020160788A (en) Operation device
JP2018073311A (en) Operation input system and operation input program
JP2018073146A (en) Input correction system and input correction program
JP2018073147A (en) Display control system and display control program
JP2018073310A (en) Display system and display program
JP6696357B2 (en) Pointer control system and pointer control program
JP2020157926A (en) Control device and control system