JP6253861B1 - Touch gesture determination device, touch gesture determination method, touch gesture determination program, and touch panel input device - Google Patents
Touch gesture determination device, touch gesture determination method, touch gesture determination program, and touch panel input device Download PDFInfo
- Publication number
- JP6253861B1 JP6253861B1 JP2017540658A JP2017540658A JP6253861B1 JP 6253861 B1 JP6253861 B1 JP 6253861B1 JP 2017540658 A JP2017540658 A JP 2017540658A JP 2017540658 A JP2017540658 A JP 2017540658A JP 6253861 B1 JP6253861 B1 JP 6253861B1
- Authority
- JP
- Japan
- Prior art keywords
- touch
- touch gesture
- determination
- information
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
タッチジェスチャ判定装置110は、操作情報入力部11と、操作判定部12と、通知部13と、表示制御部14とを有し、操作判定部12は、表示部品入力判定部12aと、画面全体入力判定部12bと、操作モード切り替え判定部12cとを有し、画面全体入力判定部12bは、タッチジェスチャ操作が、ユーザがタッチパネルを見ずに行った動作であるか否かを判定するための判定条件の成立について判定するジェスチャ入力情報判定部122を有する。The touch gesture determination apparatus 110 includes an operation information input unit 11, an operation determination unit 12, a notification unit 13, and a display control unit 14. The operation determination unit 12 includes a display component input determination unit 12a and an entire screen. The entire screen input determination unit 12b includes an input determination unit 12b and an operation mode switching determination unit 12c for determining whether the touch gesture operation is an operation performed by the user without looking at the touch panel. It has a gesture input information determination unit 122 that determines whether the determination condition is satisfied.
Description
本発明は、タッチジェスチャ操作に対応する操作情報が入力され、入力された操作情報に基づく信号を出力するためのタッチジェスチャ判定装置、タッチジェスチャ判定方法、及びタッチジェスチャ判定プログラム、並びに、タッチジェスチャ操作を受け付け、タッチジェスチャ操作に基づく信号を出力するタッチパネル入力装置に関する。 The present invention relates to a touch gesture determination device, a touch gesture determination method, a touch gesture determination program, and a touch gesture operation for inputting operation information corresponding to a touch gesture operation and outputting a signal based on the input operation information. And a touch panel input device that outputs a signal based on a touch gesture operation.
タッチパネルを見ずにタッチパネルに表示されたキーボードを操作することにより情報を入力するための技術がある。特許文献1には、ユーザがタッチパネル上に入力基準点を設定すると、入力基準点の位置を基準に情報を入力するための仮想入力キーが表示される携帯情報端末及びその文字入力方法が開示されている。ユーザは、最初に親指でタッチパネル上の任意の位置をタッチすることで入力基準点を設定し、その後、入力基準点の位置を基準に配置された仮想入力キーを人差指等でタッチすることで文字、記号等を入力する。 There is a technique for inputting information by operating a keyboard displayed on a touch panel without looking at the touch panel. Patent Document 1 discloses a portable information terminal and a character input method for displaying a virtual input key for inputting information based on the position of the input reference point when the user sets an input reference point on the touch panel. ing. The user first sets an input reference point by touching an arbitrary position on the touch panel with the thumb, and then touches a virtual input key arranged based on the position of the input reference point with a forefinger or the like. Enter a symbol, etc.
しかしながら、特許文献1では、ユーザが仮想入力キーの配列を覚えていない場合、仮想入力キーが表示された後にタッチパネルを見る必要があり、完全にタッチパネルを見ずに情報を入力することが困難であった。 However, in Patent Document 1, when the user does not remember the virtual input key arrangement, it is necessary to view the touch panel after the virtual input key is displayed, and it is difficult to input information without completely viewing the touch panel. there were.
また、タッチパネルを見ずに行うタッチジェスチャ操作では、自分の指とタッチパネルとの位置関係を把握することが困難であるため、タッチパネルを見て行うタッチジェスチャ操作とは力加減、操作点などが異なる。しかし、タッチパネルはその違いを考慮せずに入力されたタッチジェスチャ操作を判定していたため、タッチパネルを見ずに行ったタッチジェスチャ操作が認識されないことがあった。 In addition, it is difficult to grasp the positional relationship between your finger and the touch panel in touch gesture operations that are performed without looking at the touch panel. . However, since the touch panel determines the input touch gesture operation without considering the difference, the touch gesture operation performed without looking at the touch panel may not be recognized.
本発明は、上記の問題点を解決するためになされたものであり、ユーザがタッチパネルを見ずに行ったタッチジェスチャ操作を、タッチパネルがタッチジェスチャ操作として容易に認識することを目的とする。 The present invention has been made to solve the above-described problems, and it is an object of the present invention to easily recognize a touch gesture operation performed by a user without looking at the touch panel as a touch gesture operation.
本発明の一態様に係るタッチジェスチャ判定装置は、画面に操作用画像を表示し、ユーザのタッチジェスチャ操作を受け付け、前記タッチジェスチャ操作に対応する操作情報を出力するタッチパネルから、前記操作情報を受け取り、前記操作情報に基づく出力情報を生成するタッチジェスチャ判定装置であって、前記操作情報に基づいて、前記タッチパネルの表示のための前記出力情報を生成する操作判定部と、前記出力情報を受け取り、前記タッチパネルに前記操作用画像として前記出力情報に応じた画像を表示させる表示制御部と、を有し、前記操作判定部は、前記タッチパネルの画面全体に対して行われたタッチジェスチャ操作に基づいて入力内容を識別する画面全体操作モードにおいて行われたタッチジェスチャ操作に対応する操作情報から前記出力情報を決定する画面全体入力判定部を有し、前記画面全体入力判定部は、前記操作情報から、前記タッチジェスチャ操作が前記画面全体操作モードにおいて前記ユーザが行った操作であるか否かを判定するための判定条件が満たされるか否かを判定し、前記判定条件が満たされる場合に前記タッチジェスチャ操作が前記画面全体操作モードにおける第1の操作であると判定し、前記判定条件は、予め定められた時間における前記タッチジェスチャ操作のタッチ数の変化とタッチ位置の移動量とに基づいて予め定められた条件であることを特徴とする。 A touch gesture determination apparatus according to an aspect of the present invention receives an operation image from a touch panel that displays an operation image on a screen, receives a user's touch gesture operation, and outputs operation information corresponding to the touch gesture operation. , a touch gesture determination apparatus for generating output information based on the operation information, based on the previous SL operation information, receives the operation determination unit, the output information for generating the output information for display of the touch panel A display control unit that displays an image according to the output information as the operation image on the touch panel, and the operation determination unit is based on a touch gesture operation performed on the entire screen of the touch panel. operation corresponding to the touch gesture operation performed in identifying the entire screen operation mode entry Te Has a whole screen input determination unit which determines the output information from the broadcast, the entire screen input determination unit, before Symbol operation information, in operation of the touch gesture operation is the user in the entire screen operation mode is carried out Oh whether determined for determining whether the determination condition for determining is satisfied, the determining that the touch gesture operation is the first operation in the entire screen operation mode when the determination condition is satisfied The determination condition is a condition determined in advance based on a change in the number of touches of the touch gesture operation and a movement amount of the touch position at a predetermined time .
本発明の他の態様に係るタッチジェスチャ判定方法は、画面に操作用画像を表示し、ユーザのタッチジェスチャ操作を受け付け、前記タッチジェスチャ操作に対応する操作情報を出力するタッチパネルから、前記操作情報を受け取り、前記操作情報に基づく出力情報を生成するタッチジェスチャ判定方法であって、前記操作情報に基づいて、前記タッチパネルの表示のための前記出力情報を生成する操作判定ステップと、前記出力情報を受け取り、前記タッチパネルに前記操作用画像として前記出力情報に応じた画像を表示させる表示制御ステップと、を有し、前記操作判定ステップは、前記タッチパネルの画面全体に対して行われたタッチジェスチャ操作に基づいて入力内容を識別する画面全体操作モードにおいて行われたタッチジェスチャ操作に対応する操作情報から前記出力情報を決定する画面全体入力判定ステップを有し、前記画面全体入力判定ステップは、前記操作情報から、前記タッチジェスチャ操作が前記画面全体操作モードにおいて前記ユーザが行った操作であるか否かを判定するための判定条件が満たされるか否かを判定し、前記判定条件が満たされる場合に前記タッチジェスチャ操作が前記画面全体操作モードにおける第1の操作であると判定する処理を含み、前記判定条件は、予め定められた時間における前記タッチジェスチャ操作のタッチ数の変化とタッチ位置の移動量とに基づいて予め定められた条件であることを特徴とする。 The touch gesture determination method according to another aspect of the present invention displays an operation image on a screen, accepts a user's touch gesture operation, and outputs the operation information from a touch panel that outputs operation information corresponding to the touch gesture operation. receiving, a touch gesture determination method of generating output information based on the operation information, based on the previous SL operation information, the operation determination step of generating the output information for display of the touch panel, the output information A display control step of receiving and displaying an image according to the output information as the operation image on the touch panel, wherein the operation determination step is performed by a touch gesture operation performed on the entire screen of the touch panel. Tatchijesuchi conducted in identifying entire screen operation mode input content based Has a whole screen input determination step of determining the output information from the operation information corresponding to the operation, the entire screen input determination step, before Symbol operation information, the touch gesture operation is the user in the entire screen operating mode went determination condition for determining whether steering Sakudea Luca whether it is determined whether or not fulfilled, the first operation the touch gesture operation when the determination condition is satisfied in the entire screen operating mode The determination condition is a condition determined in advance based on a change in the number of touches of the touch gesture operation and a movement amount of the touch position at a predetermined time. To do.
本発明の他の態様に係るタッチパネル入力装置は、画面に操作用画像を表示し、ユーザのタッチジェスチャ操作を受け付け、前記タッチジェスチャ操作に対応する操作情報を出力するタッチパネルと、前記操作情報を受け取り、前記操作情報に基づいて前記タッチパネルの表示を制御するタッチジェスチャ判定装置とを有するタッチパネル入力装置であって、前記タッチジェスチャ判定装置は、前記操作情報に基づいて、前記タッチパネルの表示のための出力情報を生成する操作判定部と、前記出力情報を受け取り、前記タッチパネルに前記操作用画像として前記出力情報に応じた画像を表示させる表示制御部と、を有し、前記操作判定部は、前記タッチパネルの画面全体に対して行われたタッチジェスチャ操作に基づいて入力内容を識別する画面全体操作モードにおいて行われたタッチジェスチャ操作に対応する操作情報から前記出力情報を決定する画面全体入力判定部を有し、前記画面全体入力判定部は、前記操作情報から、前記タッチジェスチャ操作が前記画面全体操作モードにおいて前記ユーザが行った操作であるか否かを判定するための判定条件が満たされるか否かを判定し、前記判定条件が満たされる場合に前記タッチジェスチャ操作が前記画面全体操作モードにおける第1の操作であると判定し、前記判定条件は、予め定められた時間における前記タッチジェスチャ操作のタッチ数の変化とタッチ位置の移動量とに基づいて予め定められた条件であることを特徴とする。 A touch panel input device according to another aspect of the present invention displays an operation image on a screen, receives a touch gesture operation of a user, outputs operation information corresponding to the touch gesture operation, and receives the operation information. A touch gesture determination device that controls a display of the touch panel based on the operation information, wherein the touch gesture determination device outputs an output for displaying the touch panel based on the operation information. An operation determination unit that generates information; and a display control unit that receives the output information and causes the touch panel to display an image corresponding to the output information as the operation image. The operation determination unit includes the touch panel Identifies input based on touch gesture operations performed on the entire screen Has a whole screen input determination unit which determines the output information from the operation information corresponding to the touch gesture operation performed in the entire screen operation mode, the entire screen input determination unit, before Symbol operation information, the touch gesture operation There is determined whether the determination condition for determining whether steering Sakudea Luca whether said user has performed in the entire screen operation mode is satisfied, the touch gesture operation when the determination condition is satisfied It is determined that the operation is the first operation in the entire screen operation mode , and the determination condition is predetermined based on a change in the number of touches of the touch gesture operation and a movement amount of the touch position in a predetermined time. It is a condition .
本発明によれば、ユーザがタッチパネルを見ずに行ったタッチジェスチャ操作を、タッチパネルがタッチジェスチャ操作として容易に認識することができる。 According to the present invention, a touch gesture operation performed by the user without looking at the touch panel can be easily recognized as a touch gesture operation by the touch panel.
以下に、本発明の実施の形態を、添付図面を参照しながら説明する。以下の説明において、タッチパネル入力装置は、タッチ式の操作用の画面(操作画面)を持つタッチパネルと、タッチパネルにおける操作情報を受け取るタッチジェスチャ判定装置とを具備する。 Embodiments of the present invention will be described below with reference to the accompanying drawings. In the following description, the touch panel input device includes a touch panel having a touch operation screen (operation screen) and a touch gesture determination device that receives operation information on the touch panel.
タッチパネル入力装置は、対象機器に搭載されることにより、又は、対象機器と通信可能に接続されることにより、対象機器としての電気機器の操作画面、対象機器としてのカメラの操作画面、対象機器としての工場設備の操作画面、対象機器としての自動車、船舶、航空機などに搭載される操作画面、対象機器としてのスマートフォン及びタブレット端末などの携帯情報端末の操作画面などに適用可能である。 When the touch panel input device is mounted on the target device or connected to be communicable with the target device, the operation screen of the electric device as the target device, the operation screen of the camera as the target device, and the target device The present invention can be applied to an operation screen of factory equipment, an operation screen mounted on a car, a ship, an aircraft, or the like as a target device, an operation screen of a portable information terminal such as a smartphone or a tablet terminal as a target device.
タッチパネル入力装置は、タッチパネルの操作画面からタッチジェスチャ操作(「タッチ操作」とも言う)によって入力された操作情報に基づく信号(例えば、選択値)を、タッチパネル入力装置を搭載した対象機器、又は、タッチパネル入力装置と通信可能な対象機器に提供することができる。 The touch panel input device uses a signal (for example, a selection value) based on operation information input by a touch gesture operation (also referred to as “touch operation”) from the operation screen of the touch panel as a target device equipped with the touch panel input device, or a touch panel. This can be provided to a target device that can communicate with the input device.
タッチパネルは、ユーザが行うタッチジェスチャ操作を受け付けるタッチジェスチャ入力手段である。また、タッチジェスチャ操作は、ユーザの指(又は、ユーザの手の平、又は、ユーザの指及び手の平)などの特定の動きによる情報入力操作である。タッチジェスチャ操作は、タッチパネルの操作画面を指で軽く叩く操作であるタップ、タッチパネルの操作画面を指ではじく操作であるフリック、タッチパネルの操作画面を指でなぞる操作(指を滑らす操作)であるスワイプを含むことができる。 The touch panel is a touch gesture input unit that receives a touch gesture operation performed by a user. The touch gesture operation is an information input operation by a specific movement such as the user's finger (or the user's palm, or the user's finger and palm). Touch gesture operation is tapping, which is an operation of tapping the operation screen of the touch panel with a finger, flicking, which is an operation of flicking the operation screen of the touch panel with a finger, and a swipe which is an operation of sliding the operation screen of the touch panel with a finger (sliding the finger). Can be included.
また、タッチジェスチャ操作は、タッチパネルにおける表示部品を指で引きずる操作であるドラッグ、タッチパネルの操作画面において複数本の指でつまみながら指の間隔を狭める操作であるピンチイン、タッチパネルの操作画面において複数本の指の間隔を広げる操作であるピンチアウトなどを含むことができる。 Touch gesture operations include dragging, which is an operation of dragging a display component on the touch panel with a finger, pinch-in, which is an operation of narrowing the interval between fingers while pinching with multiple fingers on the operation screen of the touch panel, and multiple touch gestures on the operation screen of the touch panel. It can include pinch out, which is an operation to increase the interval between fingers.
また、タッチジェスチャ操作は、2点以上のタッチでダイヤルを回転させるように操作するダイヤルジェスチャ、2点以上のタッチで指をタッチパネルに接触させたまま、指を上下左右に滑らせるように動かすスライダージェスチャなどを含むことができる。なお、タッチジェスチャ操作は、ペン型の入力補助具であるタッチペンを用いる操作をも含むことができる。 Touch gesture operation is a dial gesture that operates to rotate the dial with two or more touches, and a slider that moves the finger to slide up, down, left, or right while touching the touch panel with two or more touches It can include gestures and the like. Note that the touch gesture operation can include an operation using a touch pen which is a pen-type input auxiliary tool.
以下の説明において、ユーザが指を1本使ってタッチパネル上の1点をタッチしながら行うジェスチャを1点タッチ操作といい、ユーザが指を2本使ってタッチパネル上の2点をタッチしながら行うジェスチャ(例えば、ダイヤルジェスチャ)を2点タッチ操作といい、ユーザが指を3本使ってタッチパネル上の3点をタッチしながら行うジェスチャを3点タッチ操作という。 In the following description, a gesture performed while the user touches one point on the touch panel using one finger is referred to as a one-point touch operation, and the user performs two touches on the touch panel using two fingers. A gesture (for example, a dial gesture) is referred to as a two-point touch operation, and a gesture performed while the user touches three points on the touch panel using three fingers is referred to as a three-point touch operation.
実施の形態.
《1》構成
図1は、本発明の実施の形態に係るタッチパネル入力装置100の概略構成を示す機能ブロック図である。図2は、実施の形態における画面全体入力判定部12bの概略構成を示す機能ブロック図である。図1に示されるように、実施の形態に係るタッチパネル入力装置100は、タッチジェスチャ判定装置110と、タッチパネル130とを有している。タッチジェスチャ判定装置110は、実施の形態に係るタッチジェスチャ判定方法及び実施の形態に係るタッチジェスチャ判定プログラムを実行することができる装置である。Embodiment.
<< 1 >> Configuration FIG. 1 is a functional block diagram showing a schematic configuration of a touch
図1に示されるように、タッチパネル130は、ユーザによって行われるタッチジェスチャ操作を受け付け、タッチジェスチャ操作に対応する操作情報(以下、「タッチ情報」とも言う)A0を出力する操作パネル部132と、操作パネル部132と重ねて配置され、GUI(Graphical User Interface)画面などのような操作用画像を表示することができる表示パネル部131とを有している。表示パネル部131は、例えば、液晶ディスプレイである。
As shown in FIG. 1, the
図1に示されるように、タッチジェスチャ判定装置110は、操作情報入力部11と、操作判定部12と、表示制御部14とを有している。タッチジェスチャ判定装置110は、通知部13を有していてもよい。
As illustrated in FIG. 1, the touch
操作情報入力部11は、操作パネル部132から出力された操作情報(操作信号)A0を受け取る。操作情報入力部11は、受け取った操作情報A0に対応する入力情報A1を操作判定部12に出力する。入力情報A1は、操作情報A0に対応する情報であり、操作情報A0と同じ情報であってもよい。
The operation
操作判定部12は、操作情報入力部11から入力情報A1を受け取り、操作判定の結果である出力情報としての選択値A2を通知部13及び表示制御部14に対して出力する。操作判定部12から出力される選択値A2は、操作判定部12が入力情報A1を基に決定した選択値であり、この選択値A2を基に、タッチパネル入力装置100を搭載した装置のアプリケーションプログラム等が、機器制御などを行う。
The
操作判定部12は、受け取った入力情報A1から、ユーザによるタッチジェスチャ操作の種類及び内容を判定する。図1に示されるように、操作判定部12は、表示部品入力判定部12aと、画面全体入力判定部12bと、操作モード切り替え判定部12cとを有している。
The
表示部品入力判定部12aは、操作対象とする表示部品を画面内に表示した表示部品操作モードにおいて、画面に表示される表示部品に対するタッチ情報から入力内容を識別し、操作の受付及び選択値の決定を担う。
In the display component operation mode in which the display component to be operated is displayed on the screen, the display component
画面全体入力判定部12bは、画面全体を入力範囲として設定する画面全体操作モードにおいて、画面全体に対するタッチ情報から入力内容を識別し、操作の受付及び選択値の決定を担う。図2に示されるように、画面全体入力判定部12bは、パラメータ調整部121と、ジェスチャ入力情報判定部122とを有する。
The entire screen
タッチ情報の入力内容は、パラメータ調整部121と、ジェスチャ入力情報判定部122とにより識別する。パラメータ調整部121は、入力開始前の操作モードに応じてパラメータを調整し、ジェスチャ入力情報判定部122に調整したパラメータを渡す。
The input content of touch information is identified by the
ジェスチャ入力情報判定部122は、操作情報入力部11から受けとった入力情報A1と、パラメータ調整部121から受け取ったパラメータから、任意のパターンのジェスチャ入力を判定し、それに対応する選択値A2を決定する。ジェスチャ入力情報判定部122は、例えば、入力情報A1に対応するタッチジェスチャ操作が、1点タッチ操作であるか、2点タッチ操作かを判定し、判定されたタッチジェスチャ操作に対応する選択値A2を決定する。
The gesture input
ここで、従来では、2点タッチ操作であることを判定する場合、例えば、タップされている2点のそれぞれのタップ位置の座標が所定時間(A msec)以内に所定距離(B pixel)以上動かないことを判定条件として2点タッチ操作であることを判定していた。 Here, conventionally, when it is determined that the operation is a two-point touch operation, for example, the coordinates of the tap positions of the two tapped points are moved by a predetermined distance (B pixel) or more within a predetermined time (A msec). It was determined that the operation is a two-point touch operation with the absence of the determination condition.
しかし、タッチパネル130を見ずに操作をする時は、ユーザの指とタッチパネル130との位置関係がわからないため、上記判定条件だけでは判定できない可能性がある。したがって、タッチパネル130を見ずに行った2点タッチ操作であると判定するための判定条件を新たに設定することが望ましい。以下では、実施の形態に係るタッチジェスチャ判定装置110が、タッチパネル130を見ずに行った2点タッチ操作を判定するために新たに設定する判定条件について説明を行う。
However, when an operation is performed without looking at the
タッチパネル130を見ずに2点タッチしようとして手を伸ばすと、指の長さと手の向きの関係で、同時に2点タッチするのは困難である。したがって、1点でタッチパネル130を触ってから、2点でタッチし、離すときに1点タッチに戻って手を離すという流れになりやすい。また、タッチパネル130を見ずに操作を行う場合には、力加減がわからずに、タッチパネル130を押し込む操作も行いやすい。
If the hand is extended without touching the
そのため、タッチパネル130を見ずに行った2点タッチ操作であると判定するための判定条件の例として、例えば、以下の第1から第3の判定条件を設定する。第1から第3の判定条件は、所定時間(予め定められた時間)におけるタッチジェスチャ操作のタッチ数の変化又はタッチ位置の移動量に基づいて予め定められた条件である。第1から第3の判定条件は、パラメータ調整部121又はジェスチャ入力情報判定部122に記憶されることができる。
Therefore, for example, the following first to third determination conditions are set as examples of the determination conditions for determining that the two-point touch operation is performed without looking at the
第1の判定条件:2点タッチ操作中のタッチ位置が殆ど動かなかったとき(例えば、2点タッチ操作中のタッチ位置の所定時間(C0 msec:第1の時間)における移動量の合計が所定値(D0 pixel:第1の値)以下のとき)。
第2の判定条件:2点タッチ操作直前の1点タッチ操作のタッチ位置が殆ど動かなかったとき(例えば、2点タッチ操作直前の1点タッチ操作のタッチ位置の所定時間(C1 msec:第2の時間)における移動量が所定値(D1 pixel:第2の値)以下のとき)。
第3の判定条件:2点タッチ操作直後の1点タッチ操作のタッチ位置が殆ど動かなかったとき(例えば、2点タッチ操作直後の1点タッチ操作のタッチ位置の所定時間(C2 msec:第3の時間)における移動量が所定値(D2 pixel:第3の値)以下のとき)。First determination condition: When the touch position during the two-point touch operation hardly moves (for example, the total amount of movement in the predetermined time (C0 msec: first time) of the touch position during the two-point touch operation is predetermined) Value (D0 pixel: first value) or less).
Second determination condition: When the touch position of the one-point touch operation immediately before the two-point touch operation hardly moves (for example, a predetermined time of the touch position of the one-point touch operation immediately before the two-point touch operation (C1 msec: second When the movement amount in (time) is less than or equal to a predetermined value (D1 pixel: second value)).
Third determination condition: When the touch position of the one-point touch operation immediately after the two-point touch operation hardly moves (for example, a predetermined time of the touch position of the one-point touch operation immediately after the two-point touch operation (C2 msec: third (When the movement amount in (time) is equal to or smaller than a predetermined value (D2 pixel: third value)).
ジェスチャ入力情報判定部122は、上記の第1から第3の判定条件の全てが満たされた場合に、タッチジェスチャ操作がタッチパネルを見ずに行った2点タッチ操作(第1の動作)であると判定し、上記の第1から第3の判定条件の内のいずれか1つ以上の判定条件が満たされない場合に、タッチジェスチャ操作がタッチパネルを見ずに行った2点タッチ操作ではないと判定する。
The gesture input
ただし、判定条件として、他の判定条件を用いてもよい。例えば、タッチパネル130を見ずに2点タッチしようとして手を伸ばすと、タッチ位置を目視で確認する場合と比較して、タッチ位置を即座に確認できないため、長時間2点タッチを行いやすい。したがって、ジェスチャ入力情報判定部122は、以下の第4の判定条件を満たす場合に、タッチジェスチャ操作がタッチパネルを見ずに行った2点タッチ操作であると判定し、以下の第4の判定条件が満たされない場合に、タッチジェスチャ操作がタッチパネルを見ずに行った2点タッチ操作ではないと判定する。
However, other determination conditions may be used as the determination conditions. For example, if the hand is extended without touching the
第4の判定条件:長時間2点タッチで操作を続けたとき(例えば、2点タッチ操作継続時間が所定値(C4 msec:第4の時間)以上であるとき)。 Fourth determination condition: When the operation is continued for a long time by two-point touch (for example, when the two-point touch operation duration is a predetermined value (C4 msec: fourth time) or more).
操作モード切り替え判定部12cは、操作情報入力部11から受け取った入力情報A1から、入力情報A1に画面の操作モードの切り替えに関する情報が含まれるかを判定する。画面の操作モードには、操作対象とする表示部品を画面内に表示した表示部品操作モードと、画面全体を入力範囲として設定する画面全体操作モードが存在し、これらの操作モードを切り替えることができる。
The operation mode switching
操作モード切り替え判定部12cは、操作モードの切り替えに関する判定結果から、操作モードを切り替える。操作モード切り替え判定部12cが操作モードを切り替えることにより、操作画面の表示内容、入力方法、及び通知方法が切り替わる。
The operation mode switching
通知部13は、操作モード切り替え判定部12cの判定結果に従い、操作画面の通知方法を切り替え、また、操作判定部12により決定した選択値A2の情報を受け、操作の状況を通知する。通知部13は、選択値A2に従う通知内容の通知を発し、又は通知信号を出力する。
The
例えば、通知部13は、操作判定部12により受け取った入力情報A2に応じて、ユーザのタッチジェスチャ操作の状況を、例えば、音、画面表示、バイブレータによる振動、又はランプ点灯などで通知する。
For example, according to the input information A2 received by the
通知部13による通知が音による通知である場合には、通知部13は音声出力部としてのスピーカに通知信号を出力する。スピーカは、後述の図3に示される。通知部13による通知が画像表示である場合には、通知部13は通知情報A3を表示制御部14に送り、表示制御部14が通知情報A3に基づく画像信号A4をタッチパネル130の表示パネル部131に送信する。
When the notification by the
表示制御部14は、操作モード切り替え判定部12cの判定結果に従い、操作画面の表示内容を切り替え、また、操作判定部12により決定した選択値A2の情報を受け、操作結果を画面に反映する。図1に示されるように、表示制御部14は、タッチパネル130の表示パネル部131に表示される操作用画像の画像信号A4を表示パネル部131に対して出力する。
The
図3は、実施の形態に係るタッチパネル入力装置100のハードウェア(H/W)構成の一例を示す図である。図3に示されるように、実施の形態に係るタッチパネル入力装置100は、タッチパネル130と、プロセッサ301と、メモリ302と、スピーカ303とを有している。
FIG. 3 is a diagram illustrating an example of a hardware (H / W) configuration of the touch
図1に示されるタッチジェスチャ判定装置110は、ソフトウェアとしてのタッチジェスチャ判定プログラムを格納する記憶装置としてのメモリ302と、メモリ302に格納されたタッチジェスチャ判定プログラムを実行する情報処理部としてのプロセッサ301とを用いて(例えば、コンピュータにより)実現することができる。
A touch
この場合には、図1における構成要素11〜14は、図3においてタッチジェスチャ判定プログラムを実行するプロセッサ301に相当する。なお、図1に示されるタッチジェスチャ判定装置110の一部を、図2に示されるメモリ302と、タッチジェスチャ判定プログラムを実行するプロセッサ301とによって実現することもできる。
In this case, the
タッチパネル130は、複数の指の接触を検知し、タッチ情報(各指の識別番号、座標、及び接触状態)をプロセッサ301に送信する。プロセッサ301は、タッチパネル130から取得したタッチ情報をメモリ302に記憶し、メモリ302に蓄積したタッチの履歴情報を基に、操作画面、入力方法、及び通知方法を切り替える。
The
また、プロセッサ301は、メモリ302に記憶したタッチ情報から、画面全体に対する操作であるか、表示部品に対する操作であるかを判定し、それぞれの操作モードにおいて選択値を決定する。
Further, the
スピーカ303は、例えば、タッチジェスチャ操作状況をアナウンスなど音で通知する場合に使用される音出力部である。タッチパネル入力装置100は、スピーカ303に代えて、又は、追加の構成として、バイブレータ、ランプ、通知信号を無線送信するための送信装置などの追加の装置を備えてもよい。
The
図4(a)及び(b)は、実施の形態に係るタッチパネル入力装置100におけるタッチパネル130の画面及びタッチジェスチャ操作の一例を示す図である。図4(a)は、表示部品操作モードで表示する画面例401を示している。図4(a)に示されるように、画面例401には、選択値を直接選択するボタン402など、操作対象とする様々な部品が表示される。表示部品が表示される領域に対しタッチ入力することにより、対象の部品の操作が可能となる。
4A and 4B are diagrams illustrating an example of a screen of the
図4(b)は、画面全体操作モードで表示する画面例403を示している。図4(b)に示されるように、画面例403には、現在選択している選択値の表示404、又は画面切り替えのための操作指示を促す表示(例えば、後述するキャンセル領域405)などが示される。この画面での入力方法としては、たとえばタップ操作の回数、2点以上のタッチでダイヤルを回転させるようなジェスチャ(ダイヤルジェスチャ)などで情報を入力する。
FIG. 4B shows an
図4(b)の画面例403の下部には、「>>Cancel>>」を囲む矩形領域であるキャンセル領域405が示されている。キャンセル領域405を選択してスワイプする(予め決められた方向に指を左から右に滑らせる)ことにより、画面全体操作モードをキャンセルして、画面全体操作モードから表示部品操作モードの画面への切り替えを実行することができる。
A cancel
図5は、実施の形態におけるタッチジェスチャ判定装置110の動作(タッチジェスチャ判定方法)を示すフローチャートである。図5に示されるように、ステップST401において、ユーザは、表示部品操作モードでシステムを起動し、各処理部の初期化を実施する。
FIG. 5 is a flowchart illustrating an operation (touch gesture determination method) of the touch
次のステップST402において、操作モード切り替え判定部12cが、操作情報入力部11から入力されたタッチ情報を基に、画面全体操作モードへの切り替え入力を判定する。画面全体操作モードへの切り替え入力を受け付けた場合(ST402においてYES)、次のステップST403において、操作モードを遷移させ、画面全体操作モードにおける表示内容、入力方法、通知方法を切り替える。
In the next step ST402, the operation mode switching
次のステップST404において、ジェスチャ入力情報判定部122が、ユーザにより入力されたタッチ情報からジェスチャ入力に関する情報を識別し、それにより選択値A2を決定する。ユーザは、例えば、2点以上のタッチでダイヤルを回転させるようなジェスチャ(ダイヤルジェスチャ)などで情報を入力する。
In next step ST404, the gesture input
次のステップST405において、ステップST404で決定した選択値A2を表示制御部14に渡すことにより、表示内容を切り替え、操作内容を反映した画面を表示する。
In the next step ST405, the display value is switched by passing the selection value A2 determined in step ST404 to the
次のステップST406において、ステップST404で決定した選択値A2を通知部13に渡すことにより、通知内容を切り替え、操作結果後の状況の通知、操作を促すアナウンスを実施する。
In the next step ST406, the selection value A2 determined in step ST404 is passed to the
次のステップST407において、操作モード切り替え判定部12cが、操作情報入力部11から入力されたタッチ情報とタッチの履歴情報から、表示部品操作モードへの切り替え入力を判定する。
In the next step ST407, the operation mode switching
切り替え入力を検知した場合(ST407においてYES)は、次のステップST408において、表示部品操作モードに遷移し、初期起動時に表示した表示部品の操作画面に移行する。表示部品操作モードへの切り替え入力が無い場合は、切り替え入力を受け付けるまで、操作パネル部132に対するタッチ入力を受け付け、そして、それに応じて表示内容及び通知内容を切り替える。
If a switching input is detected (YES in ST407), in the next step ST408, the display component operation mode is entered, and the operation screen for the display component displayed at the initial startup is entered. When there is no switching input to the display component operation mode, the touch input to the
ステップST402の画面切り替えに関する入力判定において、入力内容が画面全体操作モードへの切り替えで無かった場合(ST402においてNO)、次のステップST709において、表示部品に対する入力判定を実施する。 In the input determination regarding the screen switching in step ST402, when the input content is not switching to the entire screen operation mode (NO in ST402), input determination for the display component is performed in the next step ST709.
表示部品操作モードにおける表示部品に対する入力の判定は、表示部品の操作範囲にタッチ入力座標が含まれるかにより判定する。表示部品の操作入力を検知した場合、次のステップST410で選択値A2の決定を、操作対象が表示部品でない場合はステップST402で再度タッチ入力の受付を実施する。 The determination of the input to the display component in the display component operation mode is performed based on whether the touch input coordinates are included in the operation range of the display component. When the operation input of the display component is detected, the selection value A2 is determined in the next step ST410. When the operation target is not the display component, the touch input is accepted again in step ST402.
次のステップST410において、表示部品入力判定部12aが操作情報入力部11から入力されたタッチ情報を基に、選択値A2を決定する。選択の例として、図3の各表示部品の表示画面の図に示すように、ボタンなど、固有の選択値を割り当てた表示部品を配置しておき、表示部品へのタッチ入力によりその選択値を決定する。
In next step ST410, the display component
次のステップST411において、ステップST410で決定した選択値A2を表示制御部14に渡すことにより、表示パネル部131の表示内容を切り替え、操作内容に対応する画面を表示する。
In the next step ST411, by passing the selection value A2 determined in step ST410 to the
次のステップST412において、ステップST410で決定した選択値A2を通知部13に渡すことにより、通知内容を切り替え、操作結果後の状況の通知、操作を促すアナウンスを実施する。
In the next step ST412, the selection value A2 determined in step ST410 is transferred to the
図6は、実施の形態におけるジェスチャ入力情報判定部122による2点タッチ操作判定処理の動作の一例を示すフローチャートである。以下では、ジェスチャ入力情報判定部122が、ユーザによるタッチジェスチャ操作を、ユーザがタッチパネルを見ずに行った2点タッチ操作と判定する処理の一例について説明する。
FIG. 6 is a flowchart illustrating an example of the operation of the two-point touch operation determination process by the gesture input
図6に示されるように、ジェスチャ入力情報判定部122は、ステップST501において、2点タッチ操作中の2点のタッチ位置のC0 msecにおける移動量の合計がD0 pixel以下であるかを判定する(第1の判定条件:2点タッチ操作中のタッチ位置が殆ど動かなかったとき)。
As shown in FIG. 6, in step ST501, the gesture input
C0 msec以内の移動量がD0 pixel以下であるとき(ステップST501においてYES)は、処理は、次のステップST502に進む。一方、C0 msec以内の移動量がD0 pixelより大きいとき(ステップST501においてNO)は、ステップST505に進み、ジェスチャ入力情報判定部122は、タッチジェスチャ操作はタッチパネルを見ずに行った2点タッチ操作ではないと判定する。
When the movement amount within C0 msec is equal to or less than D0 pixel (YES in step ST501), the process proceeds to next step ST502. On the other hand, when the movement amount within C0 msec is larger than D0 pixel (NO in step ST501), the process proceeds to step ST505, and the gesture input
ジェスチャ入力情報判定部122は、次のステップST502において、2点タッチ操作直前の1点タッチ操作のタッチ位置のC1 msecにおける移動量がD1 pixel以下であるかを判定する(第2の判定条件:2点タッチ操作直前の1点タッチ操作のタッチ位置が殆ど動かなかったとき)。
In the next step ST502, the gesture input
2点タッチ操作直前の1点タッチ操作のタッチ位置のC1 msecにおける移動量がD1 pixel以下であるとき(ステップST502においてYES)は、処理は、次のステップST503に進む。一方、2点タッチ操作直前の1点タッチ操作のタッチ位置のC1 msecにおける移動量がD1 pixelより大きいとき(ステップST502においてNO)は、ステップST505に進み、タッチジェスチャ操作はタッチパネルを見ずに行った2点タッチ操作ではないと判定する。 When the movement amount at C1 msec of the touch position of the one-point touch operation immediately before the two-point touch operation is equal to or less than D1 pixel (YES in step ST502), the process proceeds to next step ST503. On the other hand, when the movement amount in C1 msec of the touch position of the one-point touch operation immediately before the two-point touch operation is larger than D1 pixel (NO in step ST502), the process proceeds to step ST505, and the touch gesture operation is performed without looking at the touch panel. It is determined that this is not a two-point touch operation.
ジェスチャ入力情報判定部122は、次のステップST503において、2点タッチ操作直後の1点タッチ操作のタッチ位置のC2 msecにおける移動量がD2 pixel以下であるかを判定する(第3の判定条件:2点タッチ操作直後の1点タッチ操作のタッチ位置が殆ど動かなかったとき)。
In the next step ST503, the gesture input
2点タッチ操作直後の1点タッチ操作のタッチ位置のC2 msecにおける移動量がD2 pixel以下であるとき(ステップST503においてYES)は、ステップS504に進み、ジェスチャ入力情報判定部122は、タッチジェスチャ操作が、タッチパネルを見ずに行った2点タッチ操作であると判定する。
When the movement amount in C2 msec of the touch position of the one-point touch operation immediately after the two-point touch operation is equal to or less than D2 pixel (YES in step ST503), the process proceeds to step S504, and the gesture input
一方、2点タッチ操作直後の1点タッチ操作のタッチ位置のC2 msecにおける移動量がD2 pixelより大きいとき(ステップST503においてNO)は、ステップST505に進み、ジェスチャ入力情報判定部122は、タッチジェスチャ操作はタッチパネルを見ずに行った2点タッチ操作ではないと判定する。
On the other hand, when the movement amount in C2 msec of the touch position of the one-point touch operation immediately after the two-point touch operation is larger than D2 pixel (NO in step ST503), the process proceeds to step ST505, and the gesture input
以上のように、実施の形態におけるジェスチャ入力情報判定部122は、上記第1から第3の判定条件を全て満たすときに、当該タッチジェスチャ操作はタッチパネルを見ずに行った2点タッチ操作だと判定し、判定されたタッチジェスチャ操作に対応する選択値A2を決定する。
As described above, when the gesture input
一方、上記第1から第3の判定条件の内のいずれか1つ以上の判定条件を満たさないときには、ジェスチャ入力情報判定部122は、当該タッチジェスチャ操作はタッチパネルを見ずに行った2点タッチ操作ではないと判定し、判定されたタッチジェスチャ操作に対応する選択値A2を決定する。
On the other hand, when any one or more of the first to third determination conditions is not satisfied, the gesture input
なお、上記では、ジェスチャ入力情報判定部122は、上記第1から第3の判定条件の全てを満たすときにタッチジェスチャ操作をタッチパネルを見ずに行った2点タッチ操作と判定したが、上記第1から第3の判定条件の内の1つ以上を満たすときに、タッチジェスチャ操作をタッチパネルを見ずに行った2点タッチ操作と判定してもよい。
In the above description, the gesture input
例えば、上記第1の判定条件及び第2の判定条件を満たすときに、タッチジェスチャ操作をタッチパネルを見ずに行った2点タッチ操作と判定してもよい。また、タッチパネルを見ずに行った2点タッチ操作の判定条件に、他の条件を追加してもよい。また、タッチパネルを見ながら行った2点タッチ操作についても、上記第1から第3の判定条件を用いてもよい。 For example, when the first determination condition and the second determination condition are satisfied, the touch gesture operation may be determined as a two-point touch operation performed without looking at the touch panel. Further, another condition may be added to the determination condition for the two-point touch operation performed without looking at the touch panel. Also, the first to third determination conditions may be used for a two-point touch operation performed while looking at the touch panel.
図7は、実施の形態におけるジェスチャ入力情報判定部122による2点タップ判定処理の動作の他の例を示すフローチャートである。以下では、ジェスチャ入力情報判定部122が、タッチジェスチャ操作を、ユーザがタッチパネルを見ずに行った2点タッチ操作と判定する処理の他の例について説明する。
FIG. 7 is a flowchart illustrating another example of the operation of the two-point tap determination process performed by the gesture input
図7に示されるように、ジェスチャ入力情報判定部122は、ステップST601において、2点タッチ操作継続時間がC3 msec以上であるかを判定する(第4の判定条件:長時間2点タッチで操作を続けたとき)。
7, in step ST601, the gesture input
2点タッチ操作継続時間がC3 msec以上であるとき(ステップST601においてYES)は、ステップST602に進み、ジェスチャ入力情報判定部122は、タッチジェスチャ操作が2点タッチ操作であると判定する。
When the two-point touch operation continuation time is C3 msec or longer (YES in step ST601), the process proceeds to step ST602, and the gesture input
2点タッチ操作継続時間がC3 msec未満であるとき(ステップST601においてNO)は、ステップST603に進み、ジェスチャ入力情報判定部122は、タッチジェスチャ操作が2点タッチ操作ではないと判定する。
When the two-point touch operation duration is less than C3 msec (NO in step ST601), the process proceeds to step ST603, and the gesture input
《3》効果
以上のように、実施の形態に係るタッチジェスチャ判定装置110によれば、タッチパネルを見ずに2点タッチ操作を行うときのタッチジェスチャ操作の傾向から、タッチパネルを見ずに行った2点タッチ操作か否かを判定する第1から第3の判定条件(又は第4の判定条件)を設定し、ジェスチャ入力情報判定部122は、設定された第1から第3の判定条件(又は第4の判定条件)により当該タッチジェスチャ操作がタッチパネルを見ずに行った2点タッチ操作であるかを判定する。これにより、タッチパネルを見ながら行ったタッチジェスチャ操作と、タッチパネルを見ずに行ったタッチジェスチャ操作とを区別することができ、タッチパネルを見ずに行ったタッチジェスチャ操作を、タッチパネルが容易に認識することができる。<< 3 >> Effect As described above, according to the touch
《4》変形例
上記実施の形態に係るタッチジェスチャ判定装置110では、タッチパネルを見ずに行った2点タッチ操作について第1から第3の判定条件(又は第4の判定条件)により判定したが、実施の形態に係るタッチジェスチャ判定装置110が判定するタッチジェスチャ操作は2点タッチ操作に限定されない。例えば、タッチパネルを見ずに行った3点タッチ操作(3本の指をタッチして行う操作)について新たに判定条件を設定し、3点タッチ操作について判定してもよい。<< 4 >> Modification In the touch
11 操作情報入力部、 12 操作判定部、 12a 表示部品入力判定部、 12b 画面全体入力判定部、 13 通知部、 14 表示制御部、 100 タッチパネル入力装置、 110 タッチジェスチャ判定装置、 121 パラメータ調整部、 122 ジェスチャ入力情報判定部、 130 タッチパネル、 131 表示パネル部、 132 操作パネル部、 301 プロセッサ、 302 メモリ、 303 スピーカ、 A0 操作情報、 401,403 画面例、 405 キャンセル領域、 A1 入力情報、 A2 選択値、 A3 通知情報、 A4 操作判定情報。
DESCRIPTION OF
Claims (11)
前記操作情報に基づいて、前記タッチパネルの表示のための前記出力情報を生成する操作判定部と、
前記出力情報を受け取り、前記タッチパネルに前記操作用画像として前記出力情報に応じた画像を表示させる表示制御部と、を有し、
前記操作判定部は、前記タッチパネルの画面全体に対して行われたタッチジェスチャ操作に基づいて入力内容を識別する画面全体操作モードにおいて行われたタッチジェスチャ操作に対応する操作情報から前記出力情報を決定する画面全体入力判定部を有し、
前記画面全体入力判定部は、前記操作情報から、前記タッチジェスチャ操作が前記画面全体操作モードにおいて前記ユーザが行った操作であるか否かを判定するための判定条件が満たされるか否かを判定し、前記判定条件が満たされる場合に前記タッチジェスチャ操作が前記画面全体操作モードにおける第1の操作であると判定し、
前記判定条件は、予め定められた時間における前記タッチジェスチャ操作のタッチ数の変化とタッチ位置の移動量とに基づいて予め定められた条件である
ことを特徴とするタッチジェスチャ判定装置。 A touch gesture that displays an operation image on a screen, receives a touch gesture operation of a user, receives the operation information from a touch panel that outputs operation information corresponding to the touch gesture operation, and generates output information based on the operation information. A determination device ,
Based on the previous SL operation information, the operation determination unit configured to generate the output information for display of the touch panel,
A display control unit that receives the output information and causes the touch panel to display an image corresponding to the output information as the operation image;
The operation determination unit may determine the output information from the operation information corresponding to the touch gesture operation performed in identifying the entire screen operation mode input content based on the touch gesture operation performed on the entire screen of the touch panel A whole screen input determination unit
Whether the previous SL entire screen input judging unit, from the operation information, the determination condition for the touch gesture operation is determined whether steering Sakudea Luca whether said user has performed in the entire screen operation mode is satisfied And determining that the touch gesture operation is the first operation in the entire screen operation mode when the determination condition is satisfied ,
The touch gesture determination device , wherein the determination condition is a predetermined condition based on a change in the number of touches of the touch gesture operation and a movement amount of a touch position at a predetermined time .
ことを特徴とする請求項1に記載のタッチジェスチャ判定装置。 The touch gesture determination device according to claim 1 , wherein the first operation includes a two-point touch operation in which two fingers of the user simultaneously touch the touch panel.
前記2点タッチ操作中の2点のタッチ位置の予め定められた第1の時間における移動量の合計が予め定められた第1の値以下である条件である第1の判定条件、
前記2点タッチ操作直前の1点タッチ操作のタッチ位置の予め定められた第2の時間における移動量が予め定められた第2の値以下である条件である第2の判定条件、
及び前記2点タッチ操作直後の1点タッチ操作のタッチ位置の予め定められた第3の時間における移動量が予め定められた第3の値以下である条件である第3の判定条件、
の全てを含む
ことを特徴とする請求項2に記載のタッチジェスチャ判定装置。 The determination condition is as follows:
The first determination condition total movement amount is condition Ru first value Der below a predetermined in a first predetermined time of the touch position of the two points in the two-point touch operation,
Second determination condition amount of movement is condition Ru der following second predetermined value in the second predetermined time of the touch position of the 1-point touch operation of the two-point touch operation immediately before,
And the third determination condition amount of movement is condition Ru third value Der below a predetermined in a third predetermined time of the touch position of the 1-point touch operation immediately after the two-point touch operation,
The touch gesture determination device according to claim 2 , wherein the touch gesture determination device includes all of the above.
ことを特徴とする請求項1に記載のタッチジェスチャ判定装置。 The touch gesture determination device according to claim 1 , wherein the first operation includes a three-point touch operation in which three fingers of the user simultaneously touch the touch panel.
前記タッチパネルに前記操作用画像として表示された表示部品に対して行われたタッチジェスチャ操作に基づいて入力内容を識別する表示部品操作モードにおいて行われたタッチジェスチャ操作に対応する操作情報から前記出力情報を決定する表示部品入力判定部と、
前記表示部品操作モードと前記画面全体操作モードとを切り替える操作モード切り替え部と、をさらに有する
ことを特徴とする請求項1から4のいずれか1項に記載のタッチジェスチャ判定装置。 The operation determination unit is
The output information from operation information corresponding to the touch gesture operation performed in the display component operation mode for identifying the input content based on the touch gesture operation performed on the display component displayed as the operation image on the touch panel. A display component input determination unit for determining
The display component operating mode and touch gesture determination apparatus according to any one of claims 1 4, characterized by further having: an operation mode switching unit to switch between the entire screen operation mode.
ことを特徴とする請求項1から5のいずれか1項に記載のタッチジェスチャ判定装置。 It receives the operation information output from the touch panel, any one of claims 1 to 5, characterized by further comprising an operation information input unit that outputs input information corresponding to the operation information to the operation determining unit received The touch gesture determination device according to claim 1.
ことを特徴とする請求項1から6のいずれか1項に記載のタッチジェスチャ判定装置。 Issue a notice of notification content corresponding to the output information, or according to any one of claims 1 to 6, further comprising a notification unit for outputting a notification signal notification content in accordance with the output information Touch gesture determination device.
前記操作情報に基づいて、前記タッチパネルの表示のための前記出力情報を生成する操作判定ステップと、
前記出力情報を受け取り、前記タッチパネルに前記操作用画像として前記出力情報に応じた画像を表示させる表示制御ステップと、を有し、
前記操作判定ステップは、前記タッチパネルの画面全体に対して行われたタッチジェスチャ操作に基づいて入力内容を識別する画面全体操作モードにおいて行われたタッチジェスチャ操作に対応する操作情報から前記出力情報を決定する画面全体入力判定ステップを有し、
前記画面全体入力判定ステップは、前記操作情報から、前記タッチジェスチャ操作が前記画面全体操作モードにおいて前記ユーザが行った操作であるか否かを判定するための判定条件が満たされるか否かを判定し、前記判定条件が満たされる場合に前記タッチジェスチャ操作が前記画面全体操作モードにおける第1の操作であると判定する処理を含み、
前記判定条件は、予め定められた時間における前記タッチジェスチャ操作のタッチ数の変化とタッチ位置の移動量とに基づいて予め定められた条件である
ことを特徴とするタッチジェスチャ判定方法。 A touch gesture that displays an operation image on a screen, receives a touch gesture operation of a user, receives the operation information from a touch panel that outputs operation information corresponding to the touch gesture operation, and generates output information based on the operation information. A determination method comprising :
Based on the previous SL operation information, the operation determination step of generating the output information for display of the touch panel,
A display control step of receiving the output information and causing the touch panel to display an image according to the output information as the operation image;
The operation determining step includes determining said output information from the operation information corresponding to the touch gesture operation performed in identifying the entire screen operation mode input content based on the touch gesture operation performed on the entire screen of the touch panel A whole screen input determination step to
The entire screen input determination step, whether before Symbol operation information, the determination condition for the touch gesture operation is determined whether steering Sakudea Luca whether said user has performed in the entire screen operation mode is satisfied And determining that the touch gesture operation is the first operation in the entire screen operation mode when the determination condition is satisfied ,
The touch gesture determination method , wherein the determination condition is a predetermined condition based on a change in the number of touches of the touch gesture operation and a movement amount of a touch position at a predetermined time .
画面に操作用画像を表示し、ユーザのタッチジェスチャ操作を受け付け、前記タッチジェスチャ操作に対応する操作情報を出力するタッチパネルから、前記操作情報を受け取り、前記操作情報に基づく出力情報を生成するために、
前記操作情報に基づいて、前記タッチパネルの表示のための出力情報を生成する操作判定処理と、
前記出力情報を受け取り、前記タッチパネルに前記操作用画像として前記出力情報に応じた画像を表示させる表示制御処理と、を実行させ、
前記操作判定処理は、前記タッチパネルの画面全体に対して行われたタッチジェスチャ操作に基づいて入力内容を識別する画面全体操作モードにおいて行われたタッチジェスチャ操作に対応する操作情報から前記出力情報を決定する画面全体入力判定処理を有し、
前記画面全体入力判定処理は、前記操作情報から、前記タッチジェスチャ操作が前記画面全体操作モードにおいて前記ユーザが行った操作であるか否かを判定するための判定条件が満たされるか否かを判定し、前記判定条件が満たされる場合に前記タッチジェスチャ操作が前記画面全体操作モードにおける第1の操作であると判定する処理を含み、
前記判定条件は、予め定められた時間における前記タッチジェスチャ操作のタッチ数の変化とタッチ位置の移動量とに基づいて予め定められた条件である
ことを特徴とするタッチジェスチャ判定プログラム。 On the computer,
To display an operation image on the screen, accept a user's touch gesture operation, receive operation information from a touch panel that outputs operation information corresponding to the touch gesture operation, and generate output information based on the operation information ,
An operation determination process for generating output information for display on the touch panel based on the operation information;
Receiving the output information, and causing the touch panel to display an image according to the output information as the operation image,
The operation determination processing, determining the output information from the operation information corresponding to the touch gesture operation performed in identifying the entire screen operation mode input content based on the touch gesture operation performed on the entire screen of the touch panel The whole screen input judgment process to
The entire screen input determination process, whether or not the previous SL operation information, the determination condition for the touch gesture operation is determined whether steering Sakudea Luca whether said user has performed in the entire screen operation mode is satisfied And determining that the touch gesture operation is the first operation in the entire screen operation mode when the determination condition is satisfied ,
The touch gesture determination program , wherein the determination condition is a predetermined condition based on a change in the number of touches of the touch gesture operation and a movement amount of a touch position at a predetermined time .
前記操作情報を受け取り、前記操作情報に基づいて前記タッチパネルの表示を制御するタッチジェスチャ判定装置と
を有するタッチパネル入力装置であって、
前記タッチジェスチャ判定装置は、
前記操作情報に基づいて、前記タッチパネルの表示のための出力情報を生成する操作判定部と、
前記出力情報を受け取り、前記タッチパネルに前記操作用画像として前記出力情報に応じた画像を表示させる表示制御部と、を有し、
前記操作判定部は、前記タッチパネルの画面全体に対して行われたタッチジェスチャ操作に基づいて入力内容を識別する画面全体操作モードにおいて行われたタッチジェスチャ操作に対応する操作情報から前記出力情報を決定する画面全体入力判定部を有し、
前記画面全体入力判定部は、前記操作情報から、前記タッチジェスチャ操作が前記画面全体操作モードにおいて前記ユーザが行った操作であるか否かを判定するための判定条件が満たされるか否かを判定し、前記判定条件が満たされる場合に前記タッチジェスチャ操作が前記画面全体操作モードにおける第1の操作であると判定し、
前記判定条件は、予め定められた時間における前記タッチジェスチャ操作のタッチ数の変化とタッチ位置の移動量とに基づいて予め定められた条件である
ことを特徴とするタッチパネル入力装置。 A touch panel that displays an operation image on a screen, accepts a user's touch gesture operation, and outputs operation information corresponding to the touch gesture operation;
A touch gesture determination apparatus that receives the operation information and controls a display of the touch panel based on the operation information;
The touch gesture determination device includes:
An operation determination unit that generates output information for display on the touch panel based on the operation information;
A display control unit that receives the output information and causes the touch panel to display an image corresponding to the output information as the operation image;
The operation determination unit may determine the output information from the operation information corresponding to the touch gesture operation performed in identifying the entire screen operation mode input content based on the touch gesture operation performed on the entire screen of the touch panel A whole screen input determination unit
The entire screen input determination unit, whether or not the previous SL operation information, the determination condition for the touch gesture operation is determined whether steering Sakudea Luca whether said user has performed in the entire screen operation mode is satisfied And determining that the touch gesture operation is the first operation in the entire screen operation mode when the determination condition is satisfied ,
The touch panel input device , wherein the determination condition is a predetermined condition based on a change in the number of touches of the touch gesture operation and a movement amount of the touch position at a predetermined time .
前記タッチジェスチャ操作を受け付け、前記タッチジェスチャ操作に対応する操作情報を出力する操作パネル部と、前記操作パネル部と重ねて配置され、前記画面に前記操作用画像を表示する表示パネル部とを有する
ことを特徴とする請求項10に記載のタッチパネル入力装置。 The touch panel
An operation panel unit that receives the touch gesture operation and outputs operation information corresponding to the touch gesture operation, and a display panel unit that is arranged to overlap the operation panel unit and displays the operation image on the screen. The touch panel input device according to claim 10 .
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2017/010299 WO2018167860A1 (en) | 2017-03-15 | 2017-03-15 | Touch gesture determination device, touch gesture determination method, touch gesture determination program, and touch panel input device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP6253861B1 true JP6253861B1 (en) | 2017-12-27 |
| JPWO2018167860A1 JPWO2018167860A1 (en) | 2019-04-11 |
Family
ID=60860136
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017540658A Expired - Fee Related JP6253861B1 (en) | 2017-03-15 | 2017-03-15 | Touch gesture determination device, touch gesture determination method, touch gesture determination program, and touch panel input device |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP6253861B1 (en) |
| WO (1) | WO2018167860A1 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN115499533A (en) * | 2020-01-19 | 2022-12-20 | 华为技术有限公司 | A display method and electronic device |
| JP7549492B2 (en) * | 2020-09-08 | 2024-09-11 | 元路 小下 | Information processing device, information processing method, and program |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016533575A (en) * | 2013-11-01 | 2016-10-27 | インテル コーポレイション | Gaze-assisted touch screen input |
-
2017
- 2017-03-15 WO PCT/JP2017/010299 patent/WO2018167860A1/en not_active Ceased
- 2017-03-15 JP JP2017540658A patent/JP6253861B1/en not_active Expired - Fee Related
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016533575A (en) * | 2013-11-01 | 2016-10-27 | インテル コーポレイション | Gaze-assisted touch screen input |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2018167860A1 (en) | 2018-09-20 |
| JPWO2018167860A1 (en) | 2019-04-11 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7328182B2 (en) | IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE | |
| JP2019220237A (en) | Method and apparatus for providing character input interface | |
| US20150253870A1 (en) | Portable terminal | |
| JP6053332B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
| CN103197880B (en) | The method and apparatus that keyboard is shown in the terminal with touch-screen | |
| CN103123574B (en) | The method and apparatus that character is inputted in touch apparatus | |
| JP5522755B2 (en) | INPUT DISPLAY CONTROL DEVICE, THIN CLIENT SYSTEM, INPUT DISPLAY CONTROL METHOD, AND PROGRAM | |
| JP2012137837A (en) | Touch input processing device, information processing device and touch input control method | |
| CN102741794A (en) | Handling tactile inputs | |
| US10430071B2 (en) | Operation of a computing device functionality based on a determination of input means | |
| US20150091804A1 (en) | Technique for improving operability in switching character types in software keyboard | |
| US20170285908A1 (en) | User interface through rear surface touchpad of mobile device | |
| CN104133621A (en) | Display device, input control method and input control program | |
| WO2014034369A1 (en) | Display control device, thin-client system, display control method, and recording medium | |
| JP6253861B1 (en) | Touch gesture determination device, touch gesture determination method, touch gesture determination program, and touch panel input device | |
| WO2013077359A1 (en) | Electronic device, method of operating electronic device, and program | |
| KR101553119B1 (en) | User interface method and apparatus using successive touches | |
| JP5437899B2 (en) | Input device, input method, and input program | |
| JP2014238704A (en) | Input device, input method, and program | |
| JP6737239B2 (en) | Display device and display control program | |
| JP6227213B1 (en) | Touch gesture determination device, touch gesture determination method, touch gesture determination program, and touch panel input device | |
| JP2019070990A (en) | Display control device | |
| JP6210664B2 (en) | Information processing apparatus, control method therefor, program, and storage medium | |
| KR101397907B1 (en) | System, control method, and recording media for recognizing multi-touch | |
| JP7030529B2 (en) | Electronic devices, information processing methods, programs and storage media |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170731 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170731 |
|
| A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170731 |
|
| A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170904 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170912 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171018 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171031 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171128 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6253861 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |