[go: up one dir, main page]

JP2014071461A - User interface device, user interface method and program - Google Patents

User interface device, user interface method and program Download PDF

Info

Publication number
JP2014071461A
JP2014071461A JP2012214399A JP2012214399A JP2014071461A JP 2014071461 A JP2014071461 A JP 2014071461A JP 2012214399 A JP2012214399 A JP 2012214399A JP 2012214399 A JP2012214399 A JP 2012214399A JP 2014071461 A JP2014071461 A JP 2014071461A
Authority
JP
Japan
Prior art keywords
display
display device
user
state
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012214399A
Other languages
Japanese (ja)
Inventor
Yasuo Morinaga
康夫 森永
Masashi Tagaya
昌志 多賀谷
Masakatsu Tsukamoto
昌克 塚本
Sadanori Aoyagi
禎矩 青柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2012214399A priority Critical patent/JP2014071461A/en
Publication of JP2014071461A publication Critical patent/JP2014071461A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザが選択しようとするオブジェクトを予測し、指示体とオブジェクトとが重なる前にこのオブジェクトを選択できるようにする。
【解決手段】表示装置は、表示面141に画像を表示するとともに、指Fを表示面141に非接触により近接させて行う近接操作、及び、表示面141に指を接触させて行接触操作を検出可能である。表示装置は、点P1から点P2に指Fを移動させる近接操作を検出すると、点P2を中心とし、近接操作の操作方向(矢印B1方向)に広がる扇形の参照領域T1を特定する。そして、表示装置は、参照領域T1の弧Ar1に重なるオブジェクトI1を受付可能状態に設定する。表示装置は、オブジェクトI1を受付可能状態に設定した後は、オブジェクトI1の表示位置以外を指示する接触操作(例えば点P2を指示する接触操作)を検出した場合にも、オブジェクトI1をユーザの選択オブジェクトとして特定する。
【選択図】図6
A user predicts an object to be selected and allows the object to be selected before the pointer and the object overlap.
The display device displays an image on a display surface 141, performs a proximity operation performed by bringing a finger F close to the display surface 141 in a non-contact manner, and a line contact operation performed by bringing a finger into contact with the display surface 141. It can be detected. When the display device detects a proximity operation that moves the finger F from the point P1 to the point P2, the display device specifies a sector-shaped reference region T1 that extends around the point P2 in the operation direction (arrow B1 direction) of the proximity operation. Then, the display device sets the object I1 that overlaps the arc Ar1 of the reference area T1 to a receivable state. After the display device sets the object I1 to the acceptable state, the user can select the object I1 even when detecting a contact operation (for example, a contact operation indicating the point P2) that indicates a position other than the display position of the object I1. Identify as an object.
[Selection] Figure 6

Description

本発明は、ユーザインタフェースにおけるオブジェクトを選択する操作を検出する技術に関する。   The present invention relates to a technique for detecting an operation for selecting an object in a user interface.

スマートフォンやタブレット端末等の表示装置には、ユーザに選択されるオブジェクト(例えばアイコン画像)を表示し、タッチ操作等で選択されたオブジェクトに対応した機能を利用させるユーザインタフェースを備えたものがある。この種のユーザインタフェースでは、ユーザの指等の指示体とユーザが選択しようとするオブジェクトとが重なり、ユーザは、自身が選択しようとするオブジェクトが視認しにくくなることがある。これに対し、特許文献1,2は、ユーザが所望するオブジェクトを選択しやすくなるようにする技術を開示している。   Some display devices such as smartphones and tablet terminals include a user interface that displays an object (for example, an icon image) selected by a user and uses a function corresponding to the object selected by a touch operation or the like. In this type of user interface, an indicator such as a user's finger and an object to be selected by the user may overlap, and it may be difficult for the user to visually recognize the object to be selected by the user. On the other hand, Patent Literatures 1 and 2 disclose a technique that makes it easy for a user to select a desired object.

特許文献1は、指やスタイラスの位置に基づいて表示領域上にポインタを表示する場合に、ユーザの指等が最も近接した位置よりも予め設定した画素分だけずらした位置に、ポインタを表示することを開示している。特許文献2は、ユーザの指の接触又は近接を検出した位置にカーソルを表示させ、カーソルの先端に存在するオブジェクトを選択可能にすることを開示している。また、特許文献2は、ユーザの2本の指の移動を検知して、カーソルの回転又は拡大/縮小を行うことを開示している。   In Patent Document 1, when a pointer is displayed on a display area based on the position of a finger or a stylus, the pointer is displayed at a position shifted by a preset pixel from the position where the user's finger or the like is closest. It is disclosed. Patent Document 2 discloses that a cursor is displayed at a position where contact or proximity of a user's finger is detected, and an object existing at the tip of the cursor can be selected. Japanese Patent Application Laid-Open No. H10-228561 discloses that a cursor is rotated or enlarged / reduced by detecting the movement of a user's two fingers.

特開2009−26155号公報JP 2009-26155 A 特開2011−28524号公報JP 2011-28524 A

特許文献1,2に記載の発明では、ユーザの指等の指示体の現在位置と、カーソル(ポインタ)又は入力フォーカスを与えるオブジェクトの位置との関係を工夫して、ユーザが所望するオブジェクトを選択しやすくなるようにしている。
これに対し、本発明の目的は、ユーザが選択しようとするオブジェクトを予測し、指示体とオブジェクトとが重なる前にこのオブジェクトを選択できるようにすることである。
In the inventions described in Patent Documents 1 and 2, the user selects a desired object by devising the relationship between the current position of a pointer such as a user's finger and the position of an object that gives a cursor (pointer) or input focus. To make it easier to do.
On the other hand, an object of the present invention is to predict an object to be selected by the user so that the object can be selected before the indicator and the object overlap.

上述した課題を解決するため、本発明のユーザインタフェース装置は、表示面に画像を表示する表示部と、指示体を前記表示面に非接触により近接させて行う第1操作、及び、前記第1操作よりも前記指示体を前記表示面に近接させて行う第2操作をそれぞれ検出する操作検出部と、ユーザに選択されるオブジェクトを含む画像を前記表示面に表示するように、前記表示部を制御する表示制御部と、前記操作検出部により検出された前記第1操作の移動の軌跡に応じたオブジェクトを、ユーザによる選択を受け付け可能な第1状態に設定する第1設定部と、前記第1設定部がオブジェクトを前記第1状態に設定した後は、前記操作検出部により当該オブジェクトの表示位置以外を指示する前記第2操作が検出された場合にも、当該オブジェクトを、ユーザによる選択を受け付けた第2状態に設定する第2設定部とを備えることを特徴とする。   In order to solve the above-described problems, a user interface device according to the present invention includes a display unit that displays an image on a display surface, a first operation that is performed by bringing an indicator close to the display surface in a non-contact manner, and the first An operation detection unit that detects a second operation performed by bringing the indicator closer to the display surface than an operation, and the display unit that displays an image including an object selected by a user on the display surface. A display control unit to be controlled; a first setting unit that sets an object corresponding to a movement trajectory of the first operation detected by the operation detection unit to a first state in which selection by a user can be accepted; After the first setting unit sets the object in the first state, the object is detected even when the operation detection unit detects the second operation that indicates a position other than the display position of the object. And characterized in that it comprises a second setting unit that sets a second state of accepting the selection by the user.

本発明において、前記第1設定部は、前記第1操作の検出位置から前記第1操作の操作方向に位置するオブジェクトを前記第1状態に設定するようにしてもよい。
この発明において、前記第1設定部は、前記検出位置から前記操作方向に離れるにつれて広くなる参照領域を特定し、特定した参照領域に含まれるオブジェクトを前記第1状態に設定するようにしてもよい。
この発明において、前記第1設定部は、前記検出位置を中心として前記操作方向に所定角度で広がる扇形の参照領域を特定し、特定した参照領域の弧に重なるオブジェクトを前記第1状態に設定するようにしてもよい。
In the present invention, the first setting unit may set an object located in the operation direction of the first operation from the detection position of the first operation to the first state.
In this invention, the first setting unit may specify a reference area that becomes wider from the detection position in the operation direction, and set an object included in the specified reference area to the first state. .
In the present invention, the first setting unit specifies a fan-shaped reference area extending at a predetermined angle in the operation direction with the detection position as a center, and sets an object overlapping an arc of the specified reference area to the first state. You may do it.

本発明において、前記表示制御部は、前記第1設定部により前記第1状態に設定されたオブジェクトの表示態様を変更するようにしてもよい。   In the present invention, the display control unit may change the display mode of the object set in the first state by the first setting unit.

本発明のユーザインタフェース方法は、画像が表示される表示面に指示体を非接触により近接させて行う第1操作、及び、前記第1操作よりも前記指示体を前記表示面に近接させて行う第2操作をそれぞれ検出する操作検出ステップと、ユーザに選択されるオブジェクトを含む画像を前記表示面に表示する表示ステップと、前記操作検出ステップで検出した前記第1操作の移動の軌跡に応じたオブジェクトを、ユーザによる選択を受け付け可能な第1状態に設定する第1設定ステップと、前記第1設定ステップでオブジェクトを前記第1状態に設定した後は、前記操作検出ステップで当該オブジェクトの表示位置以外を指示する前記第2操作が検出された場合にも、当該オブジェクトを、ユーザによる選択を受け付けた第2状態に設定する第2設定ステップとを有する。   According to the user interface method of the present invention, a first operation is performed by bringing a pointer close to the display surface on which an image is displayed in a non-contact manner, and the pointer is moved closer to the display surface than the first operation. An operation detection step for detecting each of the second operations, a display step for displaying an image including an object selected by the user on the display surface, and a movement trajectory of the first operation detected in the operation detection step A first setting step for setting the object in a first state in which selection by the user can be accepted; and after setting the object in the first state in the first setting step, the display position of the object in the operation detection step Even when the second operation instructing other than the above is detected, the object is set to the second state in which selection by the user is accepted. And a setting step.

本発明のプログラムは、表示面に画像を表示する表示装置のコンピュータに、前記表示面に指示体を非接触により近接させて行う第1操作、及び、前記第1操作よりも前記指示体を前記表示面に近接させて行う第2操作をそれぞれ検出する操作検出ステップと、ユーザに選択されるオブジェクトを含む画像を前記表示面に表示するように、前記表示装置を制御する表示制御ステップと、前記操作検出ステップで検出した前記第1操作の移動の軌跡に応じたオブジェクトを、ユーザによる選択を受け付け可能な第1状態に設定する第1設定ステップと、前記第1設定ステップにおいてオブジェクトを前記第1状態に設定した後は、前記操作検出ステップで当該オブジェクトの表示位置以外を指示する前記第2操作が検出された場合にも、当該オブジェクトを、ユーザによる選択を受け付けた第2状態に設定する第2設定ステップ第2設定ステップとを実行させるためのプログラムである。   The program of the present invention includes: a first operation performed by bringing a pointer close to the display surface in a non-contact manner to a computer of a display device that displays an image on a display surface; and the pointer is more than the first operation. An operation detection step of detecting a second operation performed close to the display surface, a display control step of controlling the display device so as to display an image including an object selected by a user on the display surface, A first setting step for setting an object according to the movement trajectory of the first operation detected in the operation detection step to a first state in which selection by a user can be accepted, and an object in the first setting step is the first setting step. After the state is set, the operation detection step also detects the second operation that detects a position other than the display position of the object. The object is a program for executing a second setting step second setting step of setting the second state of accepting the selection by the user.

本発明によれば、ユーザが選択しようとするオブジェクトを予測し、指示体とオブジェクトとが重なる前にこのオブジェクトを選択できるようにすることができる。   According to the present invention, an object to be selected by the user can be predicted, and this object can be selected before the indicator and the object overlap.

表示装置のハードウェア構成を示すブロック図。The block diagram which shows the hardware constitutions of a display apparatus. 近接センサ及び接触センサを用いて特定可能な操作の説明図。Explanatory drawing of operation which can be specified using a proximity sensor and a contact sensor. オブジェクトを含む画面の説明図。Explanatory drawing of the screen containing an object. 表示装置の制御部の機能構成を示す機能ブロック図。The functional block diagram which shows the function structure of the control part of a display apparatus. 表示装置の処理の手順を示すフローチャート。The flowchart which shows the procedure of a process of a display apparatus. ユーザの操作及び表示装置の動作の説明図。Explanatory drawing of a user's operation and operation | movement of a display apparatus. 受付可能状態に設定されたオブジェクトを含む画面の説明図。Explanatory drawing of the screen containing the object set to the reception possible state. ユーザの操作及び表示装置の動作の説明図。Explanatory drawing of a user's operation and operation | movement of a display apparatus. 受付可能状態に設定されたオブジェクトを含む画面の説明図。Explanatory drawing of the screen containing the object set to the reception possible state. 参照領域の特定の手順の説明図(変形例2)。Explanatory drawing of the specific procedure of a reference area (modification 2). 参照領域の特定の手順の説明図(変形例4)。Explanatory drawing of the specific procedure of a reference area (modification 4). 参照領域の特定の手順の説明図(変形例5)。Explanatory drawing of the specific procedure of a reference area (modification 5).

以下、図面を参照しつつ本発明の実施形態を説明する。
図1は、表示装置10のハードウェア構成を示すブロック図である。図1に示すように、表示装置10は、制御部11と、操作部12と、通信部13と、表示部14と、記憶部15とを備える。
制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を有するマイクロコンピュータを備える。CPUは、ROMや記憶部15に記憶されたプログラムをRAMに読み出して実行することにより、表示装置10の各部を制御する。通信部13は、無線通信回路やアンテナを有し、ネットワークに接続して通信するためのインタフェースである。表示部14は、液晶パネル等の複数画素を配置した矩形の表示面141を有し、表示面141に画像を表示する。記憶部15は、例えばEEPROM(Electronically Erasable and Programmable ROM)やフラッシュメモリ等の記憶装置を備え、制御部11により実行されるプログラムを記憶する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a hardware configuration of the display device 10. As illustrated in FIG. 1, the display device 10 includes a control unit 11, an operation unit 12, a communication unit 13, a display unit 14, and a storage unit 15.
The control unit 11 includes a microcomputer having a central processing unit (CPU), a read only memory (ROM), and a random access memory (RAM). The CPU controls each unit of the display device 10 by reading a program stored in the ROM or the storage unit 15 into the RAM and executing the program. The communication unit 13 has a wireless communication circuit and an antenna, and is an interface for connecting to a network for communication. The display unit 14 has a rectangular display surface 141 in which a plurality of pixels such as a liquid crystal panel are arranged, and displays an image on the display surface 141. The storage unit 15 includes a storage device such as an EEPROM (Electronically Erasable and Programmable ROM) and a flash memory, and stores a program executed by the control unit 11.

操作部12は、近接センサ121及び接触センサ122を有し、ユーザに操作される操作装置である。近接センサ121は、ユーザの指(指先)が表示面141に非接触により近接している状態を検出するセンサである。近接センサ121は、例えば、静電容量の変化に応じてユーザの指の位置を検出する静電容量型のセンサであるが、超音波を用いる超音波センサや赤外光型のセンサ、電磁誘導を利用した高周波発振型、磁石を用いた磁気型のセンサ等を用いてもよく、センサの検出方式は特に問わない。接触センサ122は、ユーザの指が表示面141に接触している状態を検出するセンサである。接触センサ122は、例えば静電容量型のセンサであるが、抵抗膜型や赤外光型のセンサ等を用いてもよく、センサの検出方式は特に問わない。
近接センサ121及び接触センサ122は、ユーザの指で指示された位置を検出すると、検出した位置を示す位置情報を制御部11に供給する。ここで、近接センサ121及び接触センサ122が供給する位置情報を用いて特定可能な操作について説明する。
The operation unit 12 includes an proximity sensor 121 and a contact sensor 122 and is an operation device operated by a user. The proximity sensor 121 is a sensor that detects a state in which the user's finger (fingertip) is close to the display surface 141 in a non-contact manner. The proximity sensor 121 is, for example, a capacitance type sensor that detects the position of the user's finger according to a change in capacitance, but an ultrasonic sensor using an ultrasonic wave, an infrared light type sensor, electromagnetic induction, or the like. A high-frequency oscillation type using a magnet, a magnetic type sensor using a magnet, or the like may be used, and the detection method of the sensor is not particularly limited. The contact sensor 122 is a sensor that detects a state in which the user's finger is in contact with the display surface 141. The contact sensor 122 is, for example, a capacitance type sensor, but a resistance film type or infrared light type sensor may be used, and the detection method of the sensor is not particularly limited.
When the proximity sensor 121 and the contact sensor 122 detect the position designated by the user's finger, the proximity sensor 121 and the contact sensor 122 supply position information indicating the detected position to the control unit 11. Here, operations that can be specified using position information supplied by the proximity sensor 121 and the contact sensor 122 will be described.

図2は、近接センサ121及び接触センサ122が供給する位置情報を用いて特定可能な操作の説明図である。図2(a)は、表示装置10を正面から見た様子を表す図である。図2(b)は、表示装置10を側面側から見た様子を表す図である。
本実施形態では、図2(a)に示すように表示装置10を正面から見て、表示面141の上下方向における位置と、表示面141の左右方向における位置と、表示面141の法線方向における位置とを表す座標情報によって、近接センサ121及び接触センサ122の検出位置を示す位置情報を表す。
FIG. 2 is an explanatory diagram of operations that can be specified using position information supplied by the proximity sensor 121 and the contact sensor 122. FIG. 2A is a diagram illustrating a state in which the display device 10 is viewed from the front. FIG. 2B is a diagram illustrating a state in which the display device 10 is viewed from the side surface side.
In the present embodiment, as shown in FIG. 2A, when the display device 10 is viewed from the front, the position of the display surface 141 in the vertical direction, the position of the display surface 141 in the horizontal direction, and the normal direction of the display surface 141 The position information indicating the detection positions of the proximity sensor 121 and the contact sensor 122 is expressed by coordinate information indicating the position at.

図2(b)に「検出可能領域」と付して二点鎖線を用いて示した範囲のように、近接センサ121は、表示面141の法線方向に位置する空間領域を検出可能領域として、ユーザの指Fの位置を検出し、検出した位置を示す位置情報を供給する。近接センサ121が供給する位置情報によって特定される操作のことを、以下では「近接操作」(第1操作)という。接触センサ122は、表示面141に接触するユーザの指Fの位置を検出して、検出した位置を示す位置情報を供給する。接触センサ122が供給する位置情報によって特定される操作のことを、以下では「接触操作」(第2操作)という。接触操作は、近接操作よりも、ユーザの指Fを表示面141に近接させて行う操作に相当する。
なお、近接センサ121及び接触センサ122が位置を検出する指示体は、本実施形態ではユーザの指とするが、スタイラス等のユーザが手に持って動かす指示用の器具であってもよい。また、操作部12は、ユーザに操作される対象として、物理キー等の他の操作子を有していてもよい。また、本実施形態において、表示装置10は、近接操作を検出する近接センサ121と接触操作を検出する接触センサ122とを別個に備えているが、近接センサ121及び接触センサ122に代えて、近接操作及び接触操作を検出する単一のセンサを備えてもよい。
The proximity sensor 121 uses a spatial region located in the normal direction of the display surface 141 as a detectable region, as indicated by a two-dot chain line labeled “Detectable region” in FIG. The position of the user's finger F is detected, and position information indicating the detected position is supplied. The operation specified by the position information supplied by the proximity sensor 121 is hereinafter referred to as “proximity operation” (first operation). The contact sensor 122 detects the position of the user's finger F in contact with the display surface 141, and supplies position information indicating the detected position. The operation specified by the position information supplied by the contact sensor 122 is hereinafter referred to as “contact operation” (second operation). The contact operation corresponds to an operation performed by bringing the user's finger F closer to the display surface 141 than the proximity operation.
Note that the indicator whose position is detected by the proximity sensor 121 and the contact sensor 122 is a user's finger in the present embodiment, but may be an instruction instrument such as a stylus that the user moves with the hand. Further, the operation unit 12 may have another operation element such as a physical key as a target to be operated by the user. Further, in the present embodiment, the display device 10 includes the proximity sensor 121 that detects the proximity operation and the contact sensor 122 that detects the contact operation separately, but instead of the proximity sensor 121 and the contact sensor 122, the proximity device 121 You may provide the single sensor which detects operation and contact operation.

以上の構成を有する表示装置10は、前述の操作部12及び表示部14を用いて、GUI(Graphical User Interface)と呼ばれるユーザインタフェースを提供する。表示装置10は、ここではスマートフォンであり、図1に示す構成以外にも、撮影するためのカメラや音声の入出力を行うためのマイクロホン及びスピーカ等、通常のスマートフォンと共通の構成を有している。表示装置10は、スマートフォン以外の表示装置であってもよく、例えばタブレット型コンピュータや携帯電話機、携帯型ゲーム機、携帯型音楽プレーヤ、パーソナルコンピュータ、PDA(Personal Digital Assistant)等の、ユーザインタフェースを提供する他の表示装置であってもよい。   The display device 10 having the above configuration provides a user interface called GUI (Graphical User Interface) by using the operation unit 12 and the display unit 14 described above. The display device 10 is a smartphone here, and has a configuration common to that of a normal smartphone, such as a camera for shooting, a microphone and a speaker for inputting and outputting audio, in addition to the configuration shown in FIG. Yes. The display device 10 may be a display device other than a smartphone, and provides a user interface such as a tablet computer, a mobile phone, a portable game machine, a portable music player, a personal computer, or a PDA (Personal Digital Assistant). Other display devices may be used.

図3は、表示装置10が表示する画面の説明図である。
図3(a)に示す画面SCは、ユーザに選択されるオブジェクトI1〜I3を含む画面である。オブジェクトI1〜I3は、例えばハイパーリンクが設定されたアイコン画像であり、ユーザが接触操作で指示することによって選択することのできるオブジェクトである。本実施形態のオブジェクトは、アプリケーションプログラムに対応したアイコン画像等の他のアイコン画像であってもよいし、各種のソフトボタンやハイパーリンクが選択された文字列等であってもよい。このように本実施形態のオブジェクトは、ユーザに選択された場合に、表示装置10がこのオブジェクトに応じた特定の処理を行うものであればよい。表示装置10は、オブジェクトを指示する接触操作がユーザにより行われると、このオブジェクトを選択オブジェクトとして特定し、選択オブジェクトに応じた特定の処理を実行する。
なお、表示部14の表示面141に表示されるオブジェクトを含む画像(画面)はどのような画面であってもよい。また、表示画面に含まれるオブジェクトの数や位置、サイズ等も特定の態様に限定されない。
次に、表示装置10におけるユーザインタフェースに関わる機能の構成を説明する。
FIG. 3 is an explanatory diagram of a screen displayed by the display device 10.
A screen SC shown in FIG. 3A is a screen including objects I1 to I3 selected by the user. The objects I1 to I3 are icon images in which hyperlinks are set, for example, and are objects that can be selected by the user instructing by a touch operation. The object of this embodiment may be another icon image such as an icon image corresponding to an application program, or may be a character string or the like in which various soft buttons or hyperlinks are selected. Thus, the object of this embodiment should just be what the display apparatus 10 performs the specific process according to this object, when a user selects. When a user performs a touch operation that designates an object, the display device 10 identifies the object as a selected object and executes a specific process corresponding to the selected object.
The image (screen) including the object displayed on the display surface 141 of the display unit 14 may be any screen. In addition, the number, position, size, and the like of objects included in the display screen are not limited to a specific mode.
Next, a configuration of functions related to the user interface in the display device 10 will be described.

図4は、表示装置10の制御部11の機能構成を示す機能ブロック図である。図4に示すように、表示装置10の制御部11は、操作検出部111と、表示制御部112と、第1設定部113と、第2設定部114と、処理実行部115とに相当する機能を実現する。
操作検出部111は、ユーザにより表示面141に対して行われた近接操作及び接触操作を検出する。操作検出部111は、近接センサ121から供給された位置情報に基づいて、ユーザの近接操作を検出する。操作検出部111は、接触センサ122から供給された位置情報に基づいて、ユーザの接触操作を検出する。
FIG. 4 is a functional block diagram illustrating a functional configuration of the control unit 11 of the display device 10. As illustrated in FIG. 4, the control unit 11 of the display device 10 corresponds to an operation detection unit 111, a display control unit 112, a first setting unit 113, a second setting unit 114, and a process execution unit 115. Realize the function.
The operation detection unit 111 detects a proximity operation and a contact operation performed on the display surface 141 by the user. The operation detection unit 111 detects the proximity operation of the user based on the position information supplied from the proximity sensor 121. The operation detection unit 111 detects a user's contact operation based on the position information supplied from the contact sensor 122.

操作検出部111は、例えば、表示面141に表示されたオブジェクトの表示領域内の位置情報と、表示面141の水平方向におけるユーザの指の位置を示す位置情報とが一致した場合、この位置情報により特定される近接操作又は接触操作を、オブジェクトを指示する操作として検出する。また、操作検出部111は、表示面141に表示されたオブジェクトの表示領域内の位置情報と、表示面141の水平方向におけるユーザの指の位置を示す位置情報とが一致しなくとも、両位置情報が所定範囲内で一致した場合(例えば、オブジェクトの近傍に指が触れた場合)にも、オブジェクトを指示する操作として検出してもよい。この場合において、操作検出部111は、接触操作よりも近接操作の方を、オブジェクトを指示する操作として検出する範囲を広くしてもよい。   For example, when the position information in the display area of the object displayed on the display surface 141 matches the position information indicating the position of the user's finger in the horizontal direction on the display surface 141, the operation detection unit 111 matches this position information. The proximity operation or the contact operation specified by is detected as an operation for instructing the object. In addition, the operation detection unit 111 does not match the position information in the display area of the object displayed on the display surface 141 and the position information indicating the position of the user's finger in the horizontal direction on the display surface 141. Even when the information matches within a predetermined range (for example, when a finger touches the vicinity of the object), the operation may be detected as an instruction for the object. In this case, the operation detection unit 111 may expand the range in which the proximity operation is detected as an operation for instructing the object rather than the contact operation.

表示制御部112は、ユーザに選択される(つまりユーザが選択可能な)オブジェクトを含む画像を表示面141に表示するように、表示部14を制御する。   The display control unit 112 controls the display unit 14 to display an image including an object selected by the user (that is, selectable by the user) on the display surface 141.

第1設定部113は、表示面141に表示されたオブジェクトをユーザによる選択を受け付け可能な状態(以下、「受付可能状態」という。)に設定する。詳しくは後述するが、第1設定部113は、操作検出部111により検出された近接操作の移動の軌跡に応じたオブジェクトを受付可能状態(第1状態)に設定する。受付可能状態に設定されたオブジェクトは、いわば入力フォーカスが与えられた状態のオブジェクトである。   The first setting unit 113 sets the object displayed on the display surface 141 in a state where the selection by the user can be accepted (hereinafter referred to as “acceptable state”). As will be described in detail later, the first setting unit 113 sets an object corresponding to the locus of movement of the proximity operation detected by the operation detection unit 111 in a receivable state (first state). The object set to the acceptable state is an object in a state where the input focus is given.

第2設定部114は、第1設定部113がオブジェクトを受付可能状態に設定した後は、操作検出部111により接触操作が検出された場合に、このオブジェクトを、ユーザによる選択を受け付けた状態(以下、「選択状態」という。)に設定する。ここにおいて、第2設定部114は、受付可能状態のオブジェクトの表示位置以外(例えば、表示面141上のオブジェクトが配置されていない領域)を指示する接触操作が検出された場合にも、このオブジェクトを選択状態(第2状態)に設定する。選択状態に設定されたオブジェクトは、いわば入力フォーカスが与えられた後に実際にユーザに選択されたオブジェクトである。   After the first setting unit 113 sets the object in an acceptable state, the second setting unit 114 accepts the selection of the object by the user when a contact operation is detected by the operation detection unit 111 ( Hereinafter, it is referred to as “selected state”). Here, the second setting unit 114 also detects this object even when a contact operation that indicates a position other than the display position of the object in the acceptable state (for example, an area on the display surface 141 where the object is not arranged) is detected. Is set to the selected state (second state). The object set in the selected state is an object actually selected by the user after the input focus is given.

処理実行部115は、第2設定部114により選択状態に設定されたオブジェクト(以下、「選択オブジェクト」という。)に応じた処理を実行する。処理実行部115は、例えば、選択オブジェクトに対応する機能をユーザに利用させるための特定の処理を実行する。   The process execution unit 115 executes a process according to the object set to the selected state by the second setting unit 114 (hereinafter referred to as “selected object”). For example, the process execution unit 115 executes a specific process for causing the user to use a function corresponding to the selected object.

図5は、表示装置10がユーザインタフェースを提供するときの処理の手順を示すフローチャートである。表示装置10は、オブジェクトを含む画像を表示面141に表示させているときは、以下の処理ステップを繰り返し実行する。以下、表示装置10が図3に示す画面SCを表示させた場合の動作例を示しながら、表示装置10の動作説明を行う。図6は、画面SCが表示装置10において表示されているときのユーザの操作及び表示装置10の動作を説明する図である。
表示装置10は、近接センサ121から供給された位置情報に基づいて、近接操作を検出する(ステップS1)。表示装置10は、検出可能領域内の位置情報が近接センサ121から供給されると、近接操作を検出する。ここでは、表示装置10が、図6(a)に示すように、指Fにより点P1を指示する近接操作を検出したものとする。
FIG. 5 is a flowchart showing a processing procedure when the display device 10 provides a user interface. When the display device 10 displays an image including an object on the display surface 141, the display device 10 repeatedly executes the following processing steps. Hereinafter, the operation of the display device 10 will be described while showing an operation example when the display device 10 displays the screen SC shown in FIG. FIG. 6 is a diagram for explaining a user operation and an operation of the display device 10 when the screen SC is displayed on the display device 10.
The display device 10 detects a proximity operation based on the position information supplied from the proximity sensor 121 (step S1). When the position information in the detectable region is supplied from the proximity sensor 121, the display device 10 detects the proximity operation. Here, it is assumed that the display device 10 has detected a proximity operation that designates the point P1 with the finger F as shown in FIG.

次に、表示装置10は、指を移動させる近接操作を近接センサ121により検出したか否かを判断する(ステップS2)。表示装置10は、近接操作を連続して複数回検出した場合に、この複数の検出位置(例えば、検出位置の分布)に基づいて、ユーザの指を移動させる近接操作を検出する。本実施形態では、簡単のために、最新の近接操作とその1つ前の近接操作とに基づいて、表示装置10は指を移動させる近接操作を検出するものとする。
表示装置10は、未だ1点を指示する近接操作しか検出していないので(ステップS2;NO)、ステップS1の処理に戻る。そして、表示装置10は、ステップS1の処理で近接操作を検出する。ここでは、表示装置10は、図6(b)に示すように、指Fにより点P2を指示する近接操作を検出したものとする。
Next, the display device 10 determines whether or not a proximity operation for moving a finger is detected by the proximity sensor 121 (step S2). When the proximity operation is detected a plurality of times in succession, the display device 10 detects the proximity operation that moves the user's finger based on the plurality of detection positions (for example, distribution of detection positions). In this embodiment, for the sake of simplicity, it is assumed that the display device 10 detects a proximity operation for moving a finger based on the latest proximity operation and the previous proximity operation.
Since the display device 10 has only detected the proximity operation that designates one point (step S2; NO), the process returns to the process of step S1. And the display apparatus 10 detects proximity | contact operation by the process of step S1. Here, it is assumed that the display device 10 has detected a proximity operation that designates the point P2 with the finger F as shown in FIG.

次に、表示装置10は、ステップS2の処理で指を移動させる近接操作を検出したか否かを判断する。ここでは、表示装置10は、図6(b)に示すように、矢印B1の方向に指Fを移動させる近接操作を検出したと判断する(ステップS2;YES)。
なお、表示装置10は、2点の近接操作の検出位置に基づいて、指を移動させる近接操作の操作方向を特定する場合には、前回の検出位置から最新の検出位置を向く方向を操作方向とすればよい。また、表示装置10は、3点以上の近接操作の検出位置に基づいて、近接操作の操作方向を特定する場合には、操作方向の時間変化に基づいて、例えば平均となる操作方向を特定するとよい。表示装置10における、複数の近接操作の検出位置に基づいて操作方向を特定するための具体的な方法については特に問わない。
Next, the display device 10 determines whether or not a proximity operation for moving a finger is detected in the process of step S2. Here, as shown in FIG. 6B, the display device 10 determines that a proximity operation for moving the finger F in the direction of the arrow B1 has been detected (step S2; YES).
In the case where the display device 10 specifies the operation direction of the proximity operation in which the finger is moved based on the detection positions of the two proximity operations, the direction from the previous detection position to the latest detection position is the operation direction. And it is sufficient. Further, when specifying the operation direction of the proximity operation based on the detection positions of the proximity operation of three or more points, the display device 10 specifies, for example, the average operation direction based on the time change of the operation direction. Good. A specific method for specifying the operation direction based on the detection positions of a plurality of proximity operations on the display device 10 is not particularly limited.

次に、表示装置10は、ユーザにより行われた近接操作の移動の軌跡に基づいて参照領域を特定する(ステップS3)。ここでは、表示装置10は、近接操作の操作方向と最新の近接操作の検出位置とに応じて、図6(c)に斜線を付して表した参照領域T1を特定する。具体的に、表示装置10は、最新の近接操作の検出位置である点を中心とし、中心角がα[度](αは定数)であり、半径がr(rは定数)の扇形の領域を、参照領域として特定する。参照領域は、最新の近接操作の検出位置から近接操作の操作方向に引いた直線(言い換えれば、2つの検出位置を結ぶ直線)によって、中心角が2等分されるように定められる。ここでは、表示装置10は、点P2から近接操作が行われた操作方向(矢印B1の方向)に引いた直線L1によって中心角が2等分されるように、中心角がα[度]であり、半径がrである参照領域T1を特定する。図6(c)に示すように、参照領域T1は、オブジェクトI1,I3の一部を含み、且つ、弧Ar1にオブジェクトI1が重なっている。弧Ar1は、半径がrの円の円周の一部である。
なお、図6(c)や後で説明する図8(c)には、参照領域を図示しているが、実際には、表示面141には参照領域を意味する画像が表示されないものとする。また、α,rは、それぞれ設計段階等で決められた値であってもよいし、ユーザにより設定された値であってもよい。
Next, the display device 10 specifies a reference area based on the movement trajectory of the proximity operation performed by the user (step S3). Here, the display device 10 specifies the reference region T1 represented by hatching in FIG. 6C according to the operation direction of the proximity operation and the detection position of the latest proximity operation. Specifically, the display device 10 is centered on a point that is the detection position of the latest proximity operation, has a central angle of α [degree] (α is a constant), and a sector-shaped region having a radius of r (r is a constant). Is specified as a reference area. The reference area is determined so that the central angle is divided into two equal parts by a straight line (in other words, a straight line connecting two detection positions) drawn from the detection position of the latest proximity operation in the operation direction of the proximity operation. Here, the display device 10 has a central angle of α [degree] so that the central angle is divided into two equal parts by a straight line L1 drawn in the operation direction (direction of arrow B1) in which the proximity operation is performed from the point P2. A reference area T1 having a radius r is specified. As shown in FIG. 6C, the reference region T1 includes a part of the objects I1 and I3, and the object I1 overlaps the arc Ar1. The arc Ar1 is a part of the circumference of a circle having a radius r.
In FIG. 6C and FIG. 8C described later, the reference area is illustrated, but in actuality, an image representing the reference area is not displayed on the display surface 141. . Further, α and r may be values determined in the design stage or the like, or may be values set by the user.

次に、表示装置10は、ステップS3の処理で特定した参照領域の弧に重なるオブジェクトを受付可能状態に設定する(ステップS4)。ここにおいて、表示装置10は、ステップS3の処理で特定した参照領域T1の弧Ar1に重なっているオブジェクトI1を受付可能状態に設定する(つまり、オブジェクトI1に入力フォーカスを与えた状態とする)。一方で、表示装置10は、オブジェクトI2,I3が参照領域T1の弧Ar1と重なっていないので、オブジェクトI2,I3を受付可能状態に設定しない(つまり、オブジェクトI2、I3に入力フォーカスを与えた状態としない)。
なお、表示装置10は、単に参照領域の弧に重なっているオブジェクトを受付可能状態に設定するのではなく、重心等の所定位置が参照領域の弧に重なっているオブジェクトを受付可能状態に設定してもよい。
Next, the display device 10 sets an object that overlaps the arc of the reference area identified in the process of step S3 to be in a receivable state (step S4). Here, the display device 10 sets the object I1 that overlaps the arc Ar1 of the reference area T1 identified in the process of step S3 to a receivable state (that is, a state in which the input focus is given to the object I1). On the other hand, since the objects I2 and I3 do not overlap the arc Ar1 of the reference area T1, the display device 10 does not set the objects I2 and I3 to the acceptable state (that is, a state in which the input focus is given to the objects I2 and I3) And not).
Note that the display device 10 does not simply set an object that overlaps the arc of the reference area to be in a receivable state, but sets an object in which a predetermined position such as the center of gravity overlaps the arc of the reference area to be in a receivable state. May be.

次に、表示装置10は、受付可能状態に設定したオブジェクトの表示態様を変更する(ステップS5)。ここでは、表示装置10は、図7に示す画面SC1を表示させ、受付可能状態に設定したオブジェクトがどれであるかをユーザに明示するように、オブジェクトI1の表示態様を変更する。表示装置10は、例えば、オブジェクトの色や明るさ等の所定の表示態様を変更して、受付可能状態に設定したオブジェクトをユーザが視覚的に把握できるようにする。これ以外にも、表示装置10は、受付可能状態に設定したオブジェクトに所定の画像(マーク)を付してもよいし、オブジェクトのサイズを変更してもよい(例えば、拡大する)。   Next, the display device 10 changes the display mode of the object set to the acceptable state (step S5). Here, the display device 10 displays the screen SC1 shown in FIG. 7 and changes the display mode of the object I1 so as to clearly indicate to the user which object is set to the acceptable state. For example, the display device 10 changes a predetermined display mode such as the color and brightness of the object so that the user can visually grasp the object set in the acceptable state. In addition to this, the display device 10 may attach a predetermined image (mark) to the object set in the acceptable state, or may change (for example, enlarge) the size of the object.

次に、表示装置10は、いずれかのオブジェクトを受付可能状態に設定した後に、接触操作を検出したか否かを判断する(ステップS6)。ここでは、表示装置10は、いずれかのオブジェクトを受付可能状態に設定している期間において、表示面141上のオブジェクトが配置されていない位置、又は、このオブジェクトの表示位置を指示する接触操作を検出したか否かを判断する。   Next, the display device 10 determines whether or not a contact operation has been detected after setting any object to the acceptable state (step S6). Here, the display device 10 performs a contact operation for instructing the position where the object is not arranged on the display surface 141 or the display position of the object during a period in which any object is set in the acceptable state. It is determined whether or not it has been detected.

表示装置10は、オブジェクトを受付可能状態に設定した後に、接触操作を検出したと判断すると(ステップS6;YES)、そのオブジェクトを選択状態に設定して、選択オブジェクトを特定する(ステップS7)。例えば、表示装置10は、図7に示すように、点P2を指示する接触操作を検出した場合にも、オブジェクトI1を選択オブジェクトとして特定する。このように、ユーザは、表示装置10において受付可能状態に設定されたオブジェクトが、自身が接触操作で指示しようとしていたオブジェクトであることを確認すると、その場で接触操作を行うことで、このオブジェクトを接触操作で選択することができる。
なお、表示装置10は、いずれかのオブジェクトを受付可能状態に設定した場合に、他のオブジェクトを指示する接触操作を検出したときには、このオブジェクトを優先させて選択状態に設定してもよいし、受付可能状態に設定したオブジェクトを優先させて選択状態に設定してもよい。
If the display device 10 determines that a touch operation has been detected after setting the object in the acceptable state (step S6; YES), the display device 10 sets the object in the selected state and identifies the selected object (step S7). For example, as illustrated in FIG. 7, the display device 10 also identifies the object I1 as the selected object even when detecting a contact operation indicating the point P2. In this way, when the user confirms that the object set in the acceptable state on the display device 10 is the object that he / she is trying to instruct by the contact operation, the user performs the contact operation on the spot, thereby performing this object. Can be selected by a touch operation.
The display device 10 may set one of the objects in a selectable state with priority when detecting a contact operation instructing another object when one of the objects is set in a receivable state. The object set in the acceptable state may be set in the selected state with priority.

次に、表示装置10は、選択オブジェクトに応じた処理を実行する(ステップS8)。ここでは、表示装置10は、オブジェクトI1に応じた処理として、オブジェクトI1に設定されたハイパーリンクに応じたアクセス処理を行う。ここにおいて、表示装置10は、ステップS7の処理で選択オブジェクトを特定したか、又は、ステップS8の処理で選択オブジェクトに応じた処理を実行した場合にも、オブジェクトの受付可能状態の設定を解除する。
なお、表示装置10がステップS8の処理で実行する選択オブジェクトに応じた処理はどのようなものでもよい。表示装置10は、例えばURL(Uniform Resource Locator)を用いてハイパーリンクが設定されたオブジェクトが選択された場合には、そのURLに対応したwebページを表示面141に表示させる。また、表示装置10は、ユーザの入力データの送信を指示するためのオブジェクトが接触操作により選択された場合には、そのデータを通信部13により送信する。
Next, the display device 10 executes a process according to the selected object (step S8). Here, the display device 10 performs an access process corresponding to the hyperlink set in the object I1 as a process corresponding to the object I1. Here, the display device 10 cancels the setting of the acceptable state of the object even when the selected object is specified in the process of step S7 or when the process corresponding to the selected object is executed in the process of step S8. .
In addition, the process according to the selection object which the display apparatus 10 performs by the process of step S8 may be what. For example, when an object for which a hyperlink is set is selected using a URL (Uniform Resource Locator), the display device 10 displays a web page corresponding to the URL on the display surface 141. Further, when an object for instructing transmission of user input data is selected by a touch operation, the display device 10 transmits the data by the communication unit 13.

ところで、表示装置10は、ステップS6の処理で接触操作を検出していないと判断すると(ステップS6;NO)、ステップS9の処理に進む。そして、表示装置10は、静止している近接操作(つまり、ユーザが指を移動させない近接操作)を検出中であるか否かを判断する(ステップS9)。表示装置10は、同じ位置を指示する近接操作を検出し続けた場合には、静止している近接操作を検出中であると判断する(ステップS9;YES)。この場合、制御部11は、オブジェクトの受付可能状態の設定を維持したまま、ステップS6の処理に戻る。表示装置10は、ステップS9の処理で静止している近接操作を検出していないと判断した場合には(ステップS9;NO)、ステップS10の処理に進む。   By the way, if the display apparatus 10 determines that the contact operation is not detected in the process of step S6 (step S6; NO), the process proceeds to the process of step S9. Then, the display device 10 determines whether or not a stationary operation that is stationary (that is, a proximity operation in which the user does not move the finger) is being detected (step S9). If the display device 10 continues to detect the proximity operation that designates the same position, the display device 10 determines that the stationary proximity operation is being detected (step S9; YES). In this case, the control unit 11 returns to the process of step S6 while maintaining the setting of the object acceptable state. If the display device 10 determines that the proximity operation at rest is not detected in the process of step S9 (step S9; NO), the display device 10 proceeds to the process of step S10.

表示装置10は、近接操作の検出位置が変化したか否か、つまり、近接操作の検出位置が移動したか否かを判断する(ステップS10)。ステップS10での指を移動させる近接操作の検出方法は基本的にはステップS2の処理と同じでよいが、表示装置10は、近接操作を検出した位置が変化した場合には、指を移動させる近接操作を検出したと判断すればよい。表示装置10は、近接操作を検出した位置が変化したと判断すると(ステップS10;YES)、ステップS3の処理に戻る。そして、表示装置10は、処理ステップS3〜S5を実行して、受付可能状態に設定するオブジェクトを更新する。一方で、表示装置10は、近接操作を検出した位置が変化していない場合は(ステップS10;NO)、近接操作を検出しなくなったことを意味するので、ステップS1の処理に戻る。ステップS1の処理に戻った場合には、表示装置10は、オブジェクトの受付可能状態の設定を解除するとともに、ステップS5で変更した表示態様を元に戻す。
以上が、表示装置10の動作の説明である。
The display device 10 determines whether or not the detection position of the proximity operation has changed, that is, whether or not the detection position of the proximity operation has moved (step S10). The proximity operation detection method for moving the finger in step S10 may be basically the same as the processing in step S2, but the display device 10 moves the finger when the position where the proximity operation is detected changes. It may be determined that a proximity operation has been detected. When the display device 10 determines that the position where the proximity operation is detected has changed (step S10; YES), the display device 10 returns to the process of step S3. And the display apparatus 10 performs process step S3-S5, and updates the object set to a receivable state. On the other hand, if the position where the proximity operation is detected does not change (step S10; NO), the display device 10 means that the proximity operation is no longer detected, and the process returns to step S1. When returning to the process of step S1, the display device 10 cancels the setting of the object receivable state and restores the display mode changed in step S5.
The above is the description of the operation of the display device 10.

前述した表示装置10の動作説明では、表示装置10が、参照領域の弧に重なって位置するオブジェクトを1つだけ表示させていたが、参照領域の弧に重なって2つ以上のオブジェクトを表示させる場合もあると考えられる。この場合、表示装置10は、所定条件に従って、参照領域の弧に重なって2つ以上のオブジェクトから、いずれか1つのオブジェクトを受付可能状態に設定するとよい。この具体的条件は何でもよいが、例えば、表示装置10は、近接操作の位置から最も近いオブジェクトだけを受付可能状態に設定してもよいし、弧に重なる面積が最も大きいオブジェクトだけを受付可能状態に設定してもよい。また、表示装置10は、弧に重なる複数のオブジェクトを時系列的に切り替えながら、いずれか1つのオブジェクトを受付可能状態に設定してもよい。また、表示装置10は、2以上のオブジェクトを受付可能状態に設定してもよい場合には(例えば、複数のオブジェクトを同時選択できる場合)、参照領域に重なる2以上のオブジェクトを受付可能状態に設定してよい。   In the above description of the operation of the display device 10, the display device 10 displays only one object positioned so as to overlap the arc of the reference region, but displays two or more objects overlapping the arc of the reference region. It may be possible. In this case, the display device 10 may set any one object in an acceptable state from two or more objects overlapping the arc of the reference area according to a predetermined condition. The specific condition may be anything. For example, the display device 10 may set only an object closest to the position of the proximity operation to be acceptable, or only accept an object having the largest area overlapping the arc. May be set. In addition, the display device 10 may set any one object in a receivable state while switching a plurality of objects overlapping the arc in time series. Further, when two or more objects may be set in a receivable state (for example, when a plurality of objects can be selected simultaneously), the display device 10 is in a receivable state in which two or more objects overlapping the reference area are set. May be set.

ところで、表示装置10は、前述したように、ユーザにより行われた近接操作の移動の軌跡に応じて参照領域を特定する。よって、表示装置10において最新の近接操作の検出位置が同じであっても、近接操作の操作方向が異なれば、受付可能状態に設定するオブジェクトも異なることがある。
図8(a)に示すように、ユーザが点P3を指示する近接操作を行った後、図8(b)に示すように、矢印B2の方向に指Fを移動させて点P2を指示する近接操作を行った場合を考える。この点P2は、図6に示した点P2と同じ位置である。この場合、表示装置10は、ステップS3の処理で、図8(c)に示す参照領域T2を特定する。表示装置10は、前述した手順により、最新の近接操作の検出位置である点P2を中心とし、中心角がα[度]であり、半径がrの扇形の領域を、参照領域T2として特定する。参照領域T2は、点P2から近接操作が行われた方向(矢印B2の方向)に引いた直線L2によって中心角が2等分されるように定められる。よって、参照領域T2は、図8(c)に示すように、オブジェクトI2の一部を内側に含むとともに、弧Ar2がオブジェクトI2に重なっている。一方で、参照領域T2は、オブジェクトI1,I3を内側に含んでいない。
By the way, as described above, the display device 10 specifies the reference area according to the locus of movement of the proximity operation performed by the user. Therefore, even if the detection position of the latest proximity operation on the display device 10 is the same, if the operation direction of the proximity operation is different, the object set in the acceptable state may be different.
As shown in FIG. 8A, after the user performs a proximity operation that points to the point P3, as shown in FIG. 8B, the finger F is moved in the direction of the arrow B2 to point to the point P2. Consider a case where a proximity operation is performed. This point P2 is the same position as the point P2 shown in FIG. In this case, the display device 10 specifies the reference region T2 shown in FIG. 8C in the process of step S3. The display device 10 specifies, as the reference region T2, a fan-shaped region whose center angle is α [degrees] and whose radius is r with the point P2 that is the detection position of the latest proximity operation as the center by the above-described procedure. . The reference region T2 is determined such that the central angle is divided into two equal parts by a straight line L2 drawn from the point P2 in the direction in which the proximity operation is performed (direction of the arrow B2). Therefore, as shown in FIG. 8C, the reference region T2 includes a part of the object I2 inside, and the arc Ar2 overlaps the object I2. On the other hand, the reference region T2 does not include the objects I1 and I3 inside.

この場合、表示装置10は、ステップS4の処理では、オブジェクトI2を受付可能状態に設定する。そして、表示装置10は、ステップS5の処理では、図9に示す画面SC2を表示させ、オブジェクトI2の表示態様を変更する。そして、表示装置10は、オブジェクトI2を受付可能状態に設定した後に、接触操作を検出した場合には、オブジェクトI2を選択オブジェクトとして特定する。   In this case, the display device 10 sets the object I2 in a receivable state in the process of step S4. Then, in the process of step S5, the display device 10 displays the screen SC2 shown in FIG. 9 and changes the display mode of the object I2. When the display device 10 detects the contact operation after setting the object I2 to the acceptable state, the display device 10 identifies the object I2 as the selected object.

以上説明した実施形態のように、表示装置10は、ユーザにより指を移動させる近接操作が行われると、近接操作の移動の軌跡に応じて参照領域として特定し、参照領域の弧に重なるオブジェクトを受付可能状態に設定する。ここにおいて、表示装置10は、近接操作の検出位置を基準として、近接操作が行われた方向に位置するオブジェクトを受付可能状態に設定するので、ユーザがこれから接触操作で指示しようとしているオブジェクトを、近接操作の方法を参照して精度良く予測することができる。   As in the embodiment described above, when the proximity operation for moving the finger is performed by the user, the display device 10 identifies the reference region according to the movement trajectory of the proximity operation, and identifies an object that overlaps the arc of the reference region. Set to acceptable state. Here, the display device 10 sets the object located in the direction in which the proximity operation is performed to the receivable state with reference to the detection position of the proximity operation, so that the object that the user is about to instruct from the contact operation from now on, It is possible to predict accurately with reference to the method of the proximity operation.

また、表示装置10は、現在の近接操作の位置から扇形領域の半径に相当する距離だけ離れた位置にあるオブジェクト(つまり、参照領域の弧に重なるオブジェクト)を受付可能状態に設定するので、ユーザの指が実際にオブジェクトに重なる前に、このオブジェクトを受付可能状態に設定することができる。
また、表示装置10は、指の位置から離れるにつれて広くなる参照領域を特定するので、仮に、ユーザの指が移動する方向に変化した場合であっても、ユーザが操作しようとするオブジェクトを精度良く予測することができる。
以上の理由により、表示装置10によれば、ユーザの指とオブジェクトとが実際に重なる前に、このオブジェクトを選択するための接触操作を行うことを可能として、ユーザの操作性を高めることができる。
In addition, the display device 10 sets an object at a position away from the current proximity operation position by a distance corresponding to the radius of the fan-shaped area (that is, an object overlapping the arc of the reference area) to a receivable state. This object can be set to the acceptable state before the finger actually overlaps the object.
In addition, since the display device 10 specifies a reference area that becomes wider as the finger moves away from the finger position, even if the user's finger changes in the moving direction, the object that the user intends to operate is accurately displayed. Can be predicted.
For the above reasons, according to the display device 10, it is possible to perform a contact operation for selecting an object before the user's finger and the object are actually overlapped, thereby improving user operability. .

[変形例]
本発明は、上述した実施形態と異なる形態で実施することが可能である。本発明は、例えば、以下のような形態で実施することも可能である。また、以下に示す変形例は、各々を適宜に組み合わせてもよい。
(変形例1)
上述した実施形態において、表示装置10は、受付可能状態に設定したオブジェクトの表示態様を変更して、受付可能状態に設定したオブジェクトをユーザが視覚的に把握できるようにしていた。これに代えて、表示装置10は、受付可能状態に設定したオブジェクト以外のオブジェクトの色や明るさ、サイズ等の表示態様を変更して、受付可能状態に設定したオブジェクトをユーザが把握できるようにしてもよい。また、表示装置10は、受付可能状態に設定したオブジェクト、及び、それ以外のオブジェクトの双方の表示態様を変更させてもよい。
また、表示装置10は、ステップS3の処理で特定した参照領域を意味する画像を表示面141に表示するように、表示部14を制御してもよい。
[Modification]
The present invention can be implemented in a form different from the above-described embodiment. The present invention can also be implemented in the following forms, for example. Further, the following modifications may be combined as appropriate.
(Modification 1)
In the embodiment described above, the display device 10 changes the display mode of the object set to the acceptable state so that the user can visually grasp the object set to the acceptable state. Instead, the display device 10 changes the display mode such as the color, brightness, and size of objects other than the object set in the acceptable state so that the user can grasp the object set in the acceptable state. May be. Further, the display device 10 may change the display mode of both the object set to the acceptable state and the other objects.
Further, the display device 10 may control the display unit 14 so as to display an image indicating the reference area specified in the process of step S3 on the display surface 141.

(変形例2)
上述した実施形態では、表示装置10は、参照領域の弧に重なるオブジェクトを受付可能状態に設定していたが、参照領域に基づいて、これ以外のオブジェクトを受付可能状態に設定してもよい。図6の場合と同じように近接操作を検出した場合、表示装置10は、例えば図10に示すように、参照領域の内側に全体が含まれるオブジェクト(図10ではオブジェクトI4)を受付可能状態に設定してもよい。
このようにすれば、表示装置10は、サイズが比較的小さく、ユーザの指等によって全体が視認しにくくなりやすいオブジェクトだけを対象として、指とオブジェクトとが重なる前にこれを受付可能状態に設定することができる。
(Modification 2)
In the embodiment described above, the display device 10 sets the object that overlaps the arc of the reference area to the acceptable state, but may set other objects to the acceptable state based on the reference area. When the proximity operation is detected as in the case of FIG. 6, the display device 10 is in a state where it can accept an object (the object I4 in FIG. 10) that is entirely contained inside the reference area, for example, as shown in FIG. It may be set.
In this way, the display device 10 is set to a state in which it can be received before the finger and the object overlap, only for an object that is relatively small in size and is difficult to be visually recognized by the user's finger or the like. can do.

(変形例3)
表示装置10は、サイズが閾値未満であるオブジェクトのみを対象として、指とオブジェクトとが重なる前にこれを受付可能状態に設定してもよい。ここでは、表示装置10は、オブジェクトのサイズを面積によって特定してもよいし、別の方法でオブジェクトのサイズを特定してもよい。例えば、表示装置10は、オブジェクトが正方形又は長方形であれば一辺の長さ(例えば、最大の長さ)や、対角線の長さ等の、所定方向の長さによってオブジェクトのサイズを特定してもよい。また、表示装置10は、オブジェクトが円形であれば径方向の長さ(例えば、最大の長さ)でオブジェクトのサイズを特定してもよい。これ以外の形状であっても、表示装置10は、面積でなく任意の方向の長さによってサイズを特定してもよい。また、表示装置10は、面積と長さとによってオブジェクトのサイズを特定してもよい。
(Modification 3)
The display device 10 may set only the object whose size is less than the threshold value as a target before setting the finger and the object to overlap each other. Here, the display device 10 may specify the size of the object based on the area, or may specify the size of the object by another method. For example, if the object is a square or a rectangle, the display device 10 may specify the size of the object by the length in a predetermined direction such as the length of one side (for example, the maximum length) or the length of the diagonal line. Good. Further, if the object is circular, the display device 10 may specify the size of the object by the length in the radial direction (for example, the maximum length). Even if the shape is other than this, the display device 10 may specify the size not by the area but by the length in an arbitrary direction. Further, the display device 10 may specify the size of the object based on the area and the length.

(変形例4)
上述した実施形態において、表示装置10は、参照領域の半径をrで一定としていたが、このrを変化させる構成を有していてもよい。
表示装置10は、例えば、近接操作が行われた速度が大きいほど、参照領域の半径を大きくしてもよい。図11(a),(b)に示すように、近接操作が行われた速度が大きいほど、近接操作の2つの検出位置間の距離が大きくなる。よって、表示装置10は、近接操作の複数の検出位置同士の距離に基づいて、近接操作の速度を特定することができる。そして、表示装置10は、図11(a)に示すように、近接操作の速度が比較的大きい場合には、半径をr1という具合に比較的大きい半径として、サイズの大きい参照領域T31を特定する。この場合、表示装置10は、参照領域T31の弧Ar31に重なるオブジェクトを受付可能状態に設定する。一方で、表示装置10は、図11(b)に示すように、近接操作の速度が比較的小さい場合には、半径をr2(<r1)という具合に小さい半径として、サイズの大きい参照領域T32を特定する。この場合、表示装置10は、参照領域T32の弧Ar32に重なるオブジェクトを受付可能状態に設定する。
(Modification 4)
In the embodiment described above, the display device 10 has the radius of the reference region constant at r, but may have a configuration in which this r is changed.
For example, the display device 10 may increase the radius of the reference region as the speed at which the proximity operation is performed increases. As shown in FIGS. 11A and 11B, the greater the speed at which the proximity operation is performed, the greater the distance between the two detection positions of the proximity operation. Therefore, the display device 10 can specify the speed of the proximity operation based on the distance between the plurality of detection positions of the proximity operation. Then, as shown in FIG. 11A, when the speed of the proximity operation is relatively high, the display device 10 specifies the reference region T31 having a large size with the radius being a relatively large radius such as r1. . In this case, the display device 10 sets an object that overlaps the arc Ar31 of the reference area T31 to a receivable state. On the other hand, as shown in FIG. 11B, when the speed of the proximity operation is relatively small, the display device 10 sets the radius to a small radius such as r2 (<r1), and the reference region T32 having a large size. Is identified. In this case, the display device 10 sets an object that overlaps the arc Ar32 of the reference region T32 to a receivable state.

ユーザの近接操作の速度が大きいということは、ユーザが接触操作で指示しようとするオブジェクトまでの距離が比較的大きいと推測できる。反対に、ユーザの近接操作の速度が小さいということは、ユーザが接触操作で指示しようとするオブジェクトまでの距離が比較的小さいと推測できる。このような推測の下、表示装置10は、ユーザの近接操作の速度が大きいほど半径を大きくすれば、ユーザが選択しようとするオブジェクトを早期に予測して、このオブジェクトを受付可能状態に設定することができる。
また、表示装置10は、近接操作の速度を3段階以上で特定してもよく、この場合も、速度が大きいほど参照領域の半径を大きくするとよい。
If the speed of the proximity operation of the user is high, it can be estimated that the distance to the object that the user intends to instruct by the contact operation is relatively large. On the contrary, if the speed of the proximity operation of the user is low, it can be estimated that the distance to the object that the user intends to instruct by the touch operation is relatively small. Under such assumption, if the radius is increased as the speed of the user's proximity operation increases, the display device 10 predicts an object to be selected by the user at an early stage, and sets the object in an acceptable state. be able to.
Further, the display device 10 may specify the speed of the proximity operation in three or more stages. In this case, the radius of the reference region may be increased as the speed is increased.

(変形例5)
上述した実施形態において、表示装置10は、扇形の参照領域を特定していたが、他の形状の参照領域を特定してもよい。表示装置10は、図12に示すように、三角形の参照領域を特定してもよい。図6の場合と同じように近接操作を検出した場合、表示装置10は、点P2を頂点とした参照領域T4を特定する。参照領域T4は,点P2から近接操作の操作方向に延びる直線L1が、点P2を頂点とした角を2等分するように定められる。また、参照領域T4は、点P2に一致する頂点の角がα、この角を挟んで同じ長さの2辺がある三角形である。表示装置10は、参照領域T4において点P2に接していない辺sに重なるオブジェクトを受付可能状態に設定する。
(Modification 5)
In the embodiment described above, the display device 10 specifies the sector-shaped reference area, but may specify a reference area having another shape. As illustrated in FIG. 12, the display device 10 may specify a triangular reference region. When the proximity operation is detected as in the case of FIG. 6, the display device 10 specifies the reference region T4 with the point P2 as a vertex. The reference region T4 is defined such that a straight line L1 extending in the operation direction of the proximity operation from the point P2 bisects an angle with the point P2 as a vertex. Further, the reference region T4 is a triangle having an apex corner coincident with the point P2 and two sides having the same length across the corner. The display device 10 sets the object that overlaps the side s that is not in contact with the point P2 in the reference region T4 to be in a receivable state.

表示装置10は、これ以外の形状の参照領域を特定してもよいが、最新の近接操作の検出位置から離れるにつれて広くなる参照領域を特定すれば、仮にユーザの指が移動する方向が変化した場合であっても、ユーザが操作しようとするオブジェクトを精度良く予測することができる。表示装置10は、少なくとも、最新の近接操作の検出位置から離れるにつれて広くなる参照領域を特定すれば、ユーザの指とオブジェクトが重なる前にこのオブジェクトの接触操作による選択を可能にして、ユーザの操作性を高めることができる。ただし、表示装置10は、最新の近接操作の検出位置からの距離に関わらず幅が一定の参照領域を特定してもよい。   The display device 10 may specify a reference area having a shape other than this, but if a reference area that becomes wider as it moves away from the detection position of the latest proximity operation is specified, the direction in which the user's finger moves temporarily changes. Even in this case, it is possible to accurately predict the object that the user intends to operate. If the display device 10 specifies at least a reference region that becomes wider as it moves away from the detection position of the latest proximity operation, the display device 10 enables selection by a touch operation of the object before the user's finger and the object overlap with each other. Can increase the sex. However, the display device 10 may specify a reference region having a constant width regardless of the distance from the detection position of the latest proximity operation.

また、表示装置10は、ユーザの近接操作の位置を基準として参照領域を特定しなくてもよく、例えば、その位置から所定距離範囲内にある別の点を基準として参照領域を特定してもよい。また、表示装置10は、参照領域を特定することなく、近接操作の検出位置と、近接操作の操作方向とに応じた演算により、受付可能状態に設定するオブジェクトを決定してもよい。
また、表示装置10は参照領域の中心角(α[度])の大きさをどのように設定してもよい。また、表示装置10は最新の近接操作の検出位置から近接操作の操作方向に引いた直線によって中心角が2等分されない参照領域を特定してもよい。
Further, the display device 10 may not specify the reference area based on the position of the proximity operation of the user, for example, may specify the reference area based on another point within a predetermined distance range from the position. Good. Further, the display device 10 may determine an object to be set in the acceptable state by calculation according to the detection position of the proximity operation and the operation direction of the proximity operation without specifying the reference region.
Further, the display device 10 may set the size of the central angle (α [degree]) of the reference region in any way. Further, the display device 10 may specify a reference region in which the central angle is not divided into two equal parts by a straight line drawn in the operation direction of the proximity operation from the detection position of the latest proximity operation.

(変形例6)
上述した実施形態において、表示装置10は、近接操作で指示されたオブジェクト受付可能状態に設定した後に、接触操作を検出した場合に、このオブジェクトを選択オブジェクトとして特定していた。この接触操作に代えて、表示装置10は、オブジェクトを受付可能状態に設定するための近接操作よりも更に指をオブジェクトに近接させた、非接触の操作(第2操作)を検出した場合に、このオブジェクトを選択状態に設定して選択オブジェクトとして特定してもよい。この場合、表示装置10は、例えば、近接センサ121の検出可能領域のうち、表示面141からその法線方向に第1距離までの操作に応じて選択オブジェクトを特定すればよい。このように本発明の表示装置は、表示面141に指示体が接触した状態を検出する接触センサを備えていなくてもよい。
(Modification 6)
In the embodiment described above, the display device 10 specifies this object as a selected object when a contact operation is detected after setting the object receivable state instructed by the proximity operation. Instead of this contact operation, the display device 10 detects a non-contact operation (second operation) in which the finger is further brought closer to the object than the proximity operation for setting the object to the acceptable state. This object may be set in a selected state and specified as a selected object. In this case, for example, the display device 10 may specify the selected object in the detectable area of the proximity sensor 121 according to the operation from the display surface 141 to the first distance in the normal direction. Thus, the display device of the present invention may not include a contact sensor that detects a state in which the indicator is in contact with the display surface 141.

(変形例7)
また、本発明のユーザインタフェース装置は、少なくとも、オブジェクトを表示してから選択オブジェクトを特定するまでの処理を行うものであればよく、選択オブジェクトに応じた処理を行う処理装置とは独立して構成された装置であってもよい。
(Modification 7)
In addition, the user interface device of the present invention only needs to perform at least processing from displaying an object to specifying a selected object, and is configured independently of a processing device that performs processing according to the selected object. It may be a device.

(変形例8)
上述した実施形態において、表示装置10は、受付可能状態に設定したオブジェクトを、入力フォーカスを与えたオブジェクトのように扱っていた。カーソル(ポインタ)を用いてオブジェクトを選択するユーザインタフェースを適用した場合には、表示装置10は、カーソル(ポインタ)の位置を、強制的に受付可能状態に設定したオブジェクトを指示する位置に変更すればよい。また、表示装置10は、受付可能状態に設定したオブジェクトの位置を、ユーザの指の位置(例えば、最新の近接操作の検出位置)に変更して表示させてもよい。
(Modification 8)
In the above-described embodiment, the display device 10 treats an object set in the acceptable state as an object having an input focus. When a user interface that selects an object using a cursor (pointer) is applied, the display device 10 changes the position of the cursor (pointer) to a position that points to an object that is forcibly set to an acceptable state. That's fine. Further, the display device 10 may change and display the position of the object set to the acceptable state to the position of the user's finger (for example, the detection position of the latest proximity operation).

(変形例9)
上述した実施形態において、表示装置10の制御部11が実現する各機能は、複数のプログラムの組み合わせによって実現され、又は、複数のハードウェア資源の協働によって実現されうる。
また、本発明のユーザインタフェース装置は、コンピュータや制御部11が実行するプログラムやユーザインタフェース方法として把握することも可能である。
(Modification 9)
In the above-described embodiment, each function realized by the control unit 11 of the display device 10 can be realized by a combination of a plurality of programs, or can be realized by cooperation of a plurality of hardware resources.
Further, the user interface device of the present invention can be grasped as a program executed by the computer or the control unit 11 or a user interface method.

10…表示装置、11…制御部、111…操作検出部、112…表示制御部、113…第1設定部、114…第2設定部、115…処理実行部、12…操作部、121…近接センサ、122…接触センサ、13…通信部、14…表示部、141…表示面、15…記憶部 DESCRIPTION OF SYMBOLS 10 ... Display apparatus, 11 ... Control part, 111 ... Operation detection part, 112 ... Display control part, 113 ... 1st setting part, 114 ... 2nd setting part, 115 ... Processing execution part, 12 ... Operation part, 121 ... Proximity Sensor, 122 ... Contact sensor, 13 ... Communication unit, 14 ... Display unit, 141 ... Display surface, 15 ... Storage unit

Claims (7)

表示面に画像を表示する表示部と、
指示体を前記表示面に非接触により近接させて行う第1操作、及び、前記第1操作よりも前記指示体を前記表示面に近接させて行う第2操作をそれぞれ検出する操作検出部と、
ユーザに選択されるオブジェクトを含む画像を前記表示面に表示するように、前記表示部を制御する表示制御部と、
前記操作検出部により検出された前記第1操作の移動の軌跡に応じたオブジェクトを、ユーザによる選択を受け付け可能な第1状態に設定する第1設定部と、
前記第1設定部がオブジェクトを前記第1状態に設定した後は、前記操作検出部により当該オブジェクトの表示位置以外を指示する前記第2操作が検出された場合にも、当該オブジェクトを、ユーザによる選択を受け付けた第2状態に設定する第2設定部と
を備えることを特徴とするユーザインタフェース装置。
A display unit for displaying an image on the display surface;
A first operation performed by bringing the indicator close to the display surface in a non-contact manner, and an operation detection unit for detecting a second operation performed by bringing the indicator closer to the display surface rather than the first operation;
A display control unit for controlling the display unit so as to display an image including an object selected by a user on the display surface;
A first setting unit that sets an object corresponding to the movement locus of the first operation detected by the operation detection unit to a first state in which selection by a user can be accepted;
After the first setting unit sets the object to the first state, even when the operation detection unit detects the second operation indicating a position other than the display position of the object, the object is set by the user. A user interface device comprising: a second setting unit configured to set a second state in which selection has been accepted.
前記第1設定部は、
前記第1操作の検出位置から前記第1操作の操作方向に位置するオブジェクトを前記第1状態に設定する
ことを特徴とする請求項1に記載のユーザインタフェース装置。
The first setting unit includes:
The user interface device according to claim 1, wherein an object positioned in the operation direction of the first operation from the detection position of the first operation is set to the first state.
前記第1設定部は、
前記検出位置から前記操作方向に離れるにつれて広くなる参照領域を特定し、特定した参照領域に含まれるオブジェクトを前記第1状態に設定する
ことを特徴とする請求項2に記載のユーザインタフェース装置。
The first setting unit includes:
3. The user interface device according to claim 2, wherein a reference area that becomes wider from the detection position in the operation direction is specified, and an object included in the specified reference area is set to the first state.
前記第1設定部は、
前記検出位置を中心として前記操作方向に所定角度で広がる扇形の参照領域を特定し、特定した参照領域の弧に重なるオブジェクトを前記第1状態に設定する
ことを特徴とする請求項3に記載のユーザインタフェース装置。
The first setting unit includes:
The fan-shaped reference area that spreads at a predetermined angle in the operation direction with the detection position as a center is specified, and an object that overlaps an arc of the specified reference area is set in the first state. User interface device.
前記表示制御部は、
前記第1設定部により前記第1状態に設定されたオブジェクトの表示態様を変更する
ことを特徴とする請求項1から4のいずれか1項に記載のユーザインタフェース装置。
The display control unit
The user interface device according to any one of claims 1 to 4, wherein a display mode of the object set in the first state by the first setting unit is changed.
画像が表示される表示面に指示体を非接触により近接させて行う第1操作、及び、前記第1操作よりも前記指示体を前記表示面に近接させて行う第2操作をそれぞれ検出する操作検出ステップと、
ユーザに選択されるオブジェクトを含む画像を前記表示面に表示する表示ステップと、
前記操作検出ステップで検出した前記第1操作の移動の軌跡に応じたオブジェクトを、ユーザによる選択を受け付け可能な第1状態に設定する第1設定ステップと、
前記第1設定ステップでオブジェクトを前記第1状態に設定した後は、前記操作検出ステップで当該オブジェクトの表示位置以外を指示する前記第2操作が検出された場合にも、当該オブジェクトを、ユーザによる選択を受け付けた第2状態に設定する第2設定ステップと
を有するユーザインタフェース方法。
Operation for detecting a first operation performed by bringing the indicator close to the display surface on which an image is displayed in a non-contact manner and a second operation performed by bringing the indicator closer to the display surface rather than the first operation A detection step;
A display step of displaying an image including an object selected by the user on the display surface;
A first setting step of setting an object according to the movement trajectory of the first operation detected in the operation detection step to a first state in which selection by a user can be accepted;
After the object is set to the first state in the first setting step, even when the second operation that indicates a position other than the display position of the object is detected in the operation detection step, the object is set by the user. A user interface method comprising: a second setting step of setting a second state in which selection has been accepted.
表示面に画像を表示する表示装置のコンピュータに、
前記表示面に指示体を非接触により近接させて行う第1操作、及び、前記第1操作よりも前記指示体を前記表示面に近接させて行う第2操作をそれぞれ検出する操作検出ステップと、
ユーザに選択されるオブジェクトを含む画像を前記表示面に表示するように、前記表示装置を制御する表示制御ステップと、
前記操作検出ステップで検出した前記第1操作の移動の軌跡に応じたオブジェクトを、ユーザによる選択を受け付け可能な第1状態に設定する第1設定ステップと、
前記第1設定ステップにおいてオブジェクトを前記第1状態に設定した後は、前記操作検出ステップで当該オブジェクトの表示位置以外を指示する前記第2操作が検出された場合にも、当該オブジェクトを、ユーザによる選択を受け付けた第2状態に設定する第2設定ステップ第2設定ステップと
を実行させるためのプログラム。
In the computer of the display device that displays the image on the display surface,
An operation detection step of detecting a first operation performed by bringing the indicator close to the display surface in a non-contact manner, and a second operation performed by bringing the indicator closer to the display surface than the first operation;
A display control step of controlling the display device so as to display an image including an object selected by a user on the display surface;
A first setting step of setting an object according to the movement trajectory of the first operation detected in the operation detection step to a first state in which selection by a user can be accepted;
After the object is set to the first state in the first setting step, even if the second operation that indicates a position other than the display position of the object is detected in the operation detection step, the object is set by the user. A program for executing a second setting step and a second setting step for setting the second state in which selection has been accepted.
JP2012214399A 2012-09-27 2012-09-27 User interface device, user interface method and program Pending JP2014071461A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012214399A JP2014071461A (en) 2012-09-27 2012-09-27 User interface device, user interface method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012214399A JP2014071461A (en) 2012-09-27 2012-09-27 User interface device, user interface method and program

Publications (1)

Publication Number Publication Date
JP2014071461A true JP2014071461A (en) 2014-04-21

Family

ID=50746653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012214399A Pending JP2014071461A (en) 2012-09-27 2012-09-27 User interface device, user interface method and program

Country Status (1)

Country Link
JP (1) JP2014071461A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015215840A (en) * 2014-05-13 2015-12-03 シャープ株式会社 Information processing apparatus and input method
JP2015230693A (en) * 2014-06-06 2015-12-21 キヤノン株式会社 Information processing apparatus, input method, computer program, and recording medium
JP2016170613A (en) * 2015-03-12 2016-09-23 コニカミノルタ株式会社 Conference support device, conference support system, conference support program and conference support method
CN106471443A (en) * 2014-07-04 2017-03-01 捷豹路虎有限公司 For determining equipment and the method for intended target
JP2018081430A (en) * 2016-11-15 2018-05-24 富士ゼロックス株式会社 Image processing apparatus, image processing method, image processing system, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015215840A (en) * 2014-05-13 2015-12-03 シャープ株式会社 Information processing apparatus and input method
JP2015230693A (en) * 2014-06-06 2015-12-21 キヤノン株式会社 Information processing apparatus, input method, computer program, and recording medium
CN106471443A (en) * 2014-07-04 2017-03-01 捷豹路虎有限公司 For determining equipment and the method for intended target
JP2017525074A (en) * 2014-07-04 2017-08-31 ジャガー ランド ローバー リミテッドJaguar Land Rover Limited Apparatus and method for determining a desired target
JP2016170613A (en) * 2015-03-12 2016-09-23 コニカミノルタ株式会社 Conference support device, conference support system, conference support program and conference support method
JP2018081430A (en) * 2016-11-15 2018-05-24 富士ゼロックス株式会社 Image processing apparatus, image processing method, image processing system, and program

Similar Documents

Publication Publication Date Title
US10216407B2 (en) Display control apparatus, display control method and display control program
JP5798532B2 (en) User interface device, user interface method and program
US8780134B2 (en) Access to control of multiple editing effects
JPWO2015040861A1 (en) Electronic device, control method and program for electronic device
KR20110041915A (en) Data display method and terminal performing the same
EP2921947A1 (en) Device and method for controlling a display panel
CN103019577B (en) Method and device, control method and the control device of selecting object
US20180121076A1 (en) Drawing processing method, drawing program, and drawing device
US9280235B2 (en) Portable electronic device
KR20150007048A (en) Method for displaying in electronic device
JP2013143144A (en) Display device and method for selecting item thereof
JP2013143129A (en) Screen enlargement device and method in electronic apparatus having touch screen
JP2014071461A (en) User interface device, user interface method and program
US20140195935A1 (en) Information processing device, information processing method, and information processing program
KR102095039B1 (en) Apparatus and method for receiving touch input in an apparatus providing a touch interface
JP5782420B2 (en) User interface device, user interface method and program
JP6015183B2 (en) Information processing apparatus and program
JP2013137739A (en) Electronic apparatus, operation control method and program
JP6411067B2 (en) Information processing apparatus and input method
JP5972692B2 (en) User interface device, user interface method and program
CN104111771A (en) Information Processing Apparatus, Information Processing Method, Program, And Information Processing System
JP2014081733A (en) Portable electronic device
JP5769841B2 (en) Portable game device with touch panel display
JP6722239B2 (en) Information processing device, input method, and program
JP2015158759A (en) Function selection execution device, function selection execution method, and function selection execution program