[go: up one dir, main page]

JP2011076521A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2011076521A
JP2011076521A JP2009229481A JP2009229481A JP2011076521A JP 2011076521 A JP2011076521 A JP 2011076521A JP 2009229481 A JP2009229481 A JP 2009229481A JP 2009229481 A JP2009229481 A JP 2009229481A JP 2011076521 A JP2011076521 A JP 2011076521A
Authority
JP
Japan
Prior art keywords
information processing
finger
movement
display panel
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009229481A
Other languages
English (en)
Other versions
JP5458783B2 (ja
Inventor
Hideki Yamada
英樹 山田
Yoshinori Ohashi
良徳 大橋
Akihiko Kinoshita
明彦 木下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2009229481A priority Critical patent/JP5458783B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to BR112012006663A priority patent/BR112012006663A2/pt
Priority to RU2012111262/08A priority patent/RU2012111262A/ru
Priority to US13/497,984 priority patent/US10042386B2/en
Priority to PCT/JP2010/064770 priority patent/WO2011040165A1/ja
Priority to CN201080054318.8A priority patent/CN102640102B/zh
Priority to EP10820285.4A priority patent/EP2469386B1/en
Publication of JP2011076521A publication Critical patent/JP2011076521A/ja
Application granted granted Critical
Publication of JP5458783B2 publication Critical patent/JP5458783B2/ja
Priority to US16/025,690 priority patent/US10936011B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4852End-user interface for client configuration for modifying audio parameters, e.g. switching between mono and stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Position Input By Displaying (AREA)
  • Selective Calling Equipment (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザーによる自装置の操作状態を容易かつ正確に判定可能な、情報処理装置、情報処理方法およびプログラムを提供する。
【解決手段】表示パネル101aと、表示パネル上で移動される指Pを検出するタッチパネル101bと、所定の移動方向Ddを指定し、指定した移動方向Ddと、指定に従って表示パネル上で移動される指の移動方向Daの差異Δに基づいて、自装置の操作状態を判定する制御部103と、を備える。これにより、自装置を片手で操作している場合には、指定した移動方向と指の移動方向には、手の構造に起因して、操作に用いる指に応じた差異が生じ易くなる。一方、自装置を両手で操作している場合には、指定した移動方向と指の移動方向には、操作に用いる指に応じた差異が生じ難くなる。このため、移動方向の差異に基づいて、自装置の操作状態を判定することができる。
【選択図】図3

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。
近年、タッチパネルディスプレイを搭載した携帯型の情報処理装置が普及しつつある。ユーザーは、タッチパネルディスプレイに表示されるグラフィカル・ユーザー・インターフェイス(GUI)を通じて、所定の操作入力を行う。
ユーザーは、一般的に、利き手に装置を把持して利き手により、または利き手と異なる手に装置を把持して利き手により、タッチパネルに対して操作入力を行う。ここで、GUIの構成に応じては、例えば、一方の手により操作し易いが他方の手により操作し難い、または両手により操作し易いが片手により操作し難い等、操作状態に応じてタッチパネルの操作性が異なる場合がある。このため、情報処理装置の操作性が低下してしまう場合があった。
一方、従来の情報処理装置では、操作状態を予め設定しておき、設定に応じてGUIの構成を変更する場合がある。しかし、操作状態は、ユーザー毎に異なるし、片手操作と両手操作を併用する場合には、同一ユーザーでも異なってしまう。よって、操作状態を変更するたびに設定を変更せざるを得ず、ユーザーに煩雑な設定操作を課すことになってしまう。
そこで、本発明は、ユーザーによる自装置の操作状態を容易かつ正確に判定可能な、情報処理装置、情報処理方法およびプログラムを提供しようとするものである。
本発明の第1の実施形態によれば、表示パネルと、表示パネル上で移動される指を検出する検出部と、所定の移動方向を指定し、指定した移動方向と、指定に従って表示パネル上で移動される指の移動方向の差異に基づいて、自装置の操作状態を判定する判定部と、を備える、情報処理装置が提供される。
かかる構成によれば、指定した移動方向と、指定に従って表示パネル上で移動される指の移動方向の差異に基づいて、自装置の操作状態が判定される。自装置を片手で操作している場合には、指定した移動方向と指の移動方向には、手の構造に起因して、操作に用いる指に応じた差異が生じ易くなる。一方、自装置を両手で操作している場合には、指定した移動方向と指の移動方向には、操作に用いる指に応じた差異が生じ難くなる。このため、移動方向の差異に基づいて、自装置の操作状態を容易かつ正確に判定することができる。
上記判定部は、互いに異なる複数の移動方向を指定し、指定した各移動方向と、指定に従って表示パネル上で移動される指の各移動方向の差異に基づいて、自装置の操作状態を判定してもよい。ここで、判定部は、互いに直交する複数の移動方向を指定してもよい。
また、上記情報処理装置は、操作状態の判定結果に応じて、表示パネルの表示を制御する表示制御部をさらに備えてもよい。
また、上記判定部は、自装置を一方の手に把持して一方の手により操作している操作状態と、自装置を一方の手に把持して他方の手により操作している操作状態を判別してもよい。ここで、上記判定部は、自装置を左手に把持して左手により操作している操作状態と、自装置を右手に把持して右手により操作している操作状態を判別してもよい。
また、上記判定部は、指定に従って表示パネル上で移動される指の移動始点と移動終点の座標差に基づいて、指の移動方向を求めてもよい。
上記所定の移動方向は、表示パネルに対する上方向、下方向、左方向、右方向のいずれかの方向として指定されてもよい。
ここで、上記判定部は、表示パネルに対する移動方向を指定し、指定に従って表示パネル上で連続的に検出される指の移動軌跡から指の移動方向を求めてもよい。また、上記判定部は、表示パネルに対する移動方向を特定可能な2以上の点を指定し、指定に従って表示パネル上で一方の点と他方の点の間で離散的に検出される指の移動座標から指の移動方向を求めてもよい。
また、上記情報処理装置は、携帯情報端末(PDA)、携帯電話等、携帯型の情報処理装置であり、特に、電子機器を操作するリモートコントローラでもよい。
また、本発明の第2の実施形態によれば、情報処理装置によって、所定の移動方向を指定し、指定した移動方向と、指定に従って表示パネル上で移動される指の移動方向に基づいて、自装置の操作状態を判定する、情報処理方法が提供される。
また、本発明の第3の実施形態によれば、上記情報処理方法をコンピュータに実行させるためのプログラムが提供される。ここで、プログラムは、コンピュータ読取り可能な記録媒体を用いて提供されてもよく、通信手段を介して提供されてもよい。
本発明によれば、ユーザーによる自装置の操作状態を容易かつ正確に判定可能な、情報処理装置、情報処理方法およびプログラムを提供することができる。
本発明の一実施形態に係るリモートコントローラを含むリモートコントローラシステムを示す図である。 本発明の一実施形態に係るリモートコントローラの主要な機能構成を示すブロック図である。 リモートコントローラの動作を示すフロー図である。 リモートコントローラの動作を説明するための図である。 操作状態に応じたGUIの構成の変更例を示す図である。 操作状態に応じた指の移動状態を示す図である。 右手操作時に検出される指の移動方向を示す図である。 左手操作時に検出される指の移動方向を示す図である。 両手操作時に検出される指の移動方向を示す図である。 操作状態の判定処理の一例を示すフロー図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
以下では、本発明の一実施形態に係るリモートコントローラ100について説明する。ただし、本発明は、リモートコントローラ100に限らず、タッチパネルディスプレイ101を搭載した携帯情報端末(PDA)、携帯電話等、携帯型の情報処理装置にも同様に適用することができる。
[1.リモートコントローラシステムの構成]
図1は、本発明の一実施形態に係るリモートコントローラ100を含むリモートコントローラシステムを示す図である。図1に示すように、リモートコントローラシステムは、タッチパネルディスプレイ101を搭載したリモートコントローラ100、およびリモートコントローラ100を通じて操作されるテレビ10を含む。なお、テレビ10は、リモートコントローラ100を通じて操作される電子機器の一例である。
リモートコントローラシステムでは、少なくともリモートコントローラ100からテレビ10の方向に有線通信または無線通信が行われる。リモートコントローラ100−テレビ10間の通信は、直接的に行われてもよく、不図示のネットワーク等を介して間接的に行われてもよい。
リモートコントローラ100は、テレビ10を操作するための操作用アイコン等をタッチパネルディスプレイ101に表示する。アイコン選択等の操作入力が行われると、リモートコントローラ100は、操作入力に応じて所定の操作コマンドCをテレビ10に送信する。テレビ10は、操作コマンドCを受信し、操作コマンドCに応じて所定の動作Aを行う。
ユーザーは、通常、利き手によりリモートコントローラ100を把持して利き手によりタッチパネルディスプレイ101を操作し、または利き手と異なる手によりリモートコントローラ100を把持して利き手によりタッチパネルディスプレイ101を操作する。そして、リモートコントローラ100は、所定の時点でリモートコントローラ100の操作状態を判定し、操作用アイコン等、GUIの表示を変更する。
操作状態の判定に際して、リモートコントローラ100は、所定の移動方向Ddを指定し、指定に従ってタッチパネルディスプレイ101上で移動される指Pの移動方向Daを検出する。そして、リモートコントローラ100は、指定した移動方向Ddと、検出した移動方向Daの差異Δに基づいて、自装置の操作状態を判定する。
ここで、右手によりリモートコントローラ100を把持して右手の親指Pによりタッチパネルディスプレイ101を操作する場合について説明する。この場合、タッチパネルディスプレイ101上で(パネル面に平行して)親指Pを真直ぐ上方向Ddに移動させようとしても、右手の構造に起因して、親指の移動方向Daが右上方向に傾斜してしまう。よって、指定に従って移動される指Pの移動方向Daを検出し、指定した移動方向Ddと検出した移動方向Daの差異Δに基づいて、リモートコントローラ100の操作状態を判定することができる。
[2.リモートコントローラ100の構成]
図2は、本発明の実施形態に係るリモートコントローラ100の主要な機能構成を示すブロック図である。図2に示すように、リモートコントローラ100は、タッチパネルディスプレイ101、制御部103、メモリ105、通信部107を含む。
タッチパネルディスプレイ101は、表示パネル101aにタッチパネル101b(検出部)が積層された構成を有する。表示パネル101aとしては、液晶ディスプレイ(LCD)等が利用される。タッチパネル101bとしては、抵抗膜方式、静電容量方式、超音波方式、赤外線方式等のパネルが利用される。
タッチパネル101bは、パネル面に対する指Pの接触状態を検出する。なお、他の実施形態では、接触状態に代えてまたは接触状態に加えて、指Pの近接状態を検出してもよい。タッチパネル101bは、タッチパネル101bに指Pが接触した時点で接触信号を制御部103に供給し、タッチパネル101bから指Pが離れた時点で解除信号を制御部103に供給する。
また、タッチパネル101bは、タッチパネル101bに指Pが接触している間、接触位置に対応した座標信号を制御部103に供給する。ここで、座標信号は、タッチパネル101bに対する接触位置のX−Y座標を表している。なお、以下の説明では、タッチパネル101bの左右方向をX方向(左方向を−、右方向を+)、上下方向をY方向(上方向を+、下方向を−)として定義する。
制御部103は、CPU、RAM、ROM等を含み、CPUは、RAMを作業メモリとして用いて、ROMに格納されているプログラムを実行し、リモートコントローラ100の各部を制御する。プログラムは、リモートコントローラ100の操作状態を判定する判定部、および表示パネル101aの表示を制御する表示制御部として機能する。
メモリ105は、EEPROM等の不揮発性メモリであり、アイコンデータ、コマンド情報等を格納している。通信部107は、ユーザーによる操作入力に応じて、所定の操作コマンドCをテレビ10に送信する。
制御部103は、タッチパネル101bから供給された座標信号をデコードして座標データを生成し、座標データおよび接触/解除信号に基づいて、リモートコントローラ100の各部を制御する。制御部103は、ユーザーによる操作入力に応じて、操作入力に応じたコマンド情報をメモリ105から読み出し、通信部107に供給する。通信部107は、コマンド情報に基づいて、所定の操作コマンドCをテレビ10に送信する。
制御部103は、メモリ105に記憶されているアイコンデータを読出してGUI画面の表示データを生成し、表示データを表示パネル101aに供給する。表示パネル101aは、表示データに基づいてGUI画面を表示する。制御部103は、後述するように、リモートコントローラ100の操作状態に応じてアイコンの形状・配置等が変更されるように、GUI画面の表示データを生成する。
制御部103は、後述するように、所定の時点で所定の移動方向Ddを指定するメッセージMsgを生成し、ユーザーに通知する。なお、メッセージMsgは、表示パネル101aを用いて視覚的に通知されてもよく、不図示のスピーカを用いて聴覚的に通知されてもよい。
移動方向Ddは、例えば、タッチパネル101bに対して上方向、下方向、左方向、右方向のいずれかとして指定される。移動方向Ddは、タッチパネル101bに対する移動方向として指定される。この場合、例えば「表示画面に沿って指を真直ぐ上方向に移動して下さい。」というメッセージMsgが通知される。
また、移動方向Ddは、タッチパネル101bに対する移動方向を特定可能な2以上の点として指定されてもよい。この場合、例えば「表示画面の下端で任意の点を指で指示した後に、表示画面の上端でその点の真直ぐ上に位置する点を指で指示して下さい。」というメッセージMsgが通知される。
制御部103は、指定した移動方向Ddと、指定に従ってタッチパネル101b上で移動される指Pの移動方向Daの差異Δに基づいて、リモートコントローラ100の操作状態を判定する。そして、制御部103は、指定した移動方向Ddと検出した移動方向Daの差異Δに基づいて、リモートコントローラ100の操作状態を判定する。
移動方向を指定する場合、指Pの移動方向Daは、ドラッグ操作またはフリック動作に応じて、タッチパネル101b上で連続的に検出される指Pの移動軌跡から求められる。なお、ドラッグ動作とは、タッチパネル101bに指Pを接触させた状態で指Pを移動させる動作であり、フリック動作とは、タッチパネル101bを指Pで任意の方向に弾くような動作である。この場合、指Pの移動方向Daは、接触信号の検出時点の座標データ(移動始点)と、解除信号の検出直前の座標データ(移動終点)の座標差から求められる。
一方、移動方向を特定可能な点を指定する場合、指Pの移動方向Daは、ポインティング動作に応じて、タッチパネル101b上で一方の点と他方の点の間で離散的に検出される指Pの移動座標から求められる。ポインティング動作とは、タッチパネル101bの任意の点を指Pにより指示する動作である。この場合、指Pの移動方向Daは、一方の点に対するポインティングの検出時点の座標データ(移動始点)と、他方の点に対するポインティングの検出時点の座標データ(移動終点)の座標差から求められる。
[3.リモートコントローラ100の動作]
以下では、図3〜図5を参照しながら、リモートコントローラ100の動作について説明する。図3は、リモートコントローラ100の動作を示すフロー図である。図4は、リモートコントローラ100の動作を説明するための図である。図5は、操作状態に応じたGUIの構成の変更を示す図である。
図3に示すように、制御部103は、所定の時点が到来すると、操作状態の判定処理を開始する(ステップS101)。所定の時点は、所定の操作入力の時点でもよく、リモートコントローラ100の起動時等、所定の処理時点でもよい。
判定処理を開始すると、制御部103は、所定の移動方向Ddを指定するメッセージMsgをユーザーに通知する(S103)。例えば図4では、「表示画面に沿って指を真直ぐ上方向に移動して下さい。」というメッセージMsgが表示されている(状態ST4a)。
メッセージMsgが表示され、メッセージMsgに応じた操作入力が行われると、リモートコントローラ100は、操作入力を検出する(S105)。例えば図4では、ユーザーは、タッチパネル101b(タッチパネルディスプレイ101)上で右手の親指Pを真直ぐ上方向に移動しようとするが、右手の構造に起因して、指Pが僅かに右上方向に傾斜して移動されている(状態ST4b)。
操作入力が検出されると、制御部103は、指Pの移動始点M0と移動終点M1の座標差に基づいて、指Pの移動方向Daを求める(S107)。移動方向Daを求めると、制御部103は、指定した移動方向Ddと検出した移動方向Daの差異Δに基づいて、リモートコントローラ100の操作状態を判定する(S109)。操作状態としては、片手により操作している状態と、両手により操作している状態が判別され、さらに、左手により操作している状態と右手により操作している状態が判別される。ここで、操作状態を判定できた場合に、制御部103は、判定結果に応じてGUIの構成を変更する(S111)。
図5には、操作状態に応じたGUIの構成の変更例が示されている。状態ST5aが右手操作時の変更例であり、状態ST5bが両手操作時の変更例である。
右手操作時には、右手の親指Pによる操作性を向上させるために、少なくとも一部のアイコンがタッチパネル101bの右下側に移動される(状態ST5a)。図5では、チャンネル切替ボタンおよび音量調節ボタンが移動されている。ここで、移動されるアイコンは、操作頻度の高いアイコンでもよい。また、片手操作時の操作性を向上させるために、両手操作時に比して、少なくとも一部のアイコンのサイズが拡大されてもよい。
一方、両手操作時には、両手操作時の操作性を向上させるために、片手操作時に比して、多くのアイコンがタッチパネル101bに表示される(状態ST5b)。図5では、状態ST5aの場合に比して、多くのアイコンが表示されている。また、片手操作時に比して、少なくとも一部のアイコンのサイズが縮小されてもよい。
[4.操作状態の判定処理]
以下では、図6〜図8を参照しながら、操作状態の判定処理について説明する。図6は、操作状態に応じた指Pの移動状態を示す図である。図7A〜7Cは、右手操作時、左手操作時、両手操作時に検出される指Pの移動方向Daを示す図である。図8は、操作状態の判定処理の一例を示すフロー図である。
図6の状態ST6aに示すように、右手操作時には、リモートコントローラ100が右手に把持され、右手の親指Pの付け根部がリモートコントローラ100の右下に位置する。タッチパネル101b上で親指Pを移動させると、親指Pが付け根部を軸として動作することになる。よって、ユーザーが直線方向を意図して親指Pを移動させても、親指Pが付け根部を軸として円弧を描くように移動し易くなる。なお、左手操作時の移動状態も右手操作時の移動状態と同様に説明することができる。
一方、図6の状態ST6bに示すように、両手操作時には、リモートコントローラ100が一方の手(例えば左手)により把持され、他方の手(例えば右手)の人差し指P等がタッチパネル101b(タッチパネルディスプレイ101)上で移動される。ここで、他方の手の指Pは、リモートコントローラ100を把持している左手に関係せずに、タッチパネル101b上で自由に移動される。よって、ユーザーが直線方向を意図して人指し指Pを移動させると、人指し指Pが直線を描くように移動し易くなる。なお、図6では、移動操作の始点M0と終点M1でX方向の座標差ΔXが示されていないが、通常、僅かな座標差ΔXが生じうる。
図7Aには、右手操作時に検出される指Pの移動方向Daが示されている。この場合、上方向の移動操作を指定した場合には、移動方向Daが右方向に傾き(状態ST7Aa)、下方向の移動操作を指定した場合には、移動方向Daが左方向に傾き易くなる(状態ST7Ab)。また、左方向の移動操作を指定した場合には、移動方向Daが下方向に傾き(状態ST7Ac)、右方向の移動操作を指定した場合には、移動方向Daが上方向に傾き易くなる(状態ST7Ad)。
図7Bには、左手操作時に検出される指Pの移動方向Daが示されている。この場合、上方向の移動操作を指定した場合には、移動方向Daが左方向に傾き(状態ST7Ba)、下方向の移動操作を指定した場合には、移動方向Daが右方向に傾き易くなる(状態ST7Bb)。また、左方向の移動操作を指定した場合には、移動方向Daが上方向に傾き(状態ST7Bc)、右方向の移動操作を指定した場合には、移動方向Daが下方向に傾き易くなる(状態ST7Bd)。
図7Cには、両手操作時に検出される指Pの移動方向Daが示されている。この場合、上下左右いずれの方向の移動操作Ddを指定した場合でも、通常、指が指定した方向に移動されるので、移動方向Daが特定の方向に傾き難くなる(状態ST7Ca〜ST7Cd)。
図8には、操作状態の判定処理の一例が示されている。図8に示す判定処理では、制御部103は、まず、タッチパネル101bに対して上方向の移動操作をユーザーに促す(ステップS201)。
制御部103は、上方向の移動操作の始点M0と終点M1のX方向の座標差ΔX(終点座標−始点座標)の絶対値|ΔX|が第1の閾値未満Δth1であるかを判定する(S203)。そして、判定条件に該当すれば、制御部103は、両手操作であると判断する(S205)。
ステップS203の判定条件に該当しなければ、制御部103は、絶対値|ΔX|が第2の閾値Δth2(≧第1の閾値Δth1)以上であるかを判定する(S207)。ここで、閾値Δth2を用いて絶対値|ΔX|を判定することで、操作状態の誤判定が防止される。
そして、判定条件に該当すれば、制御部103は、座標差ΔXが正値であるかを判定する(S209)。そして、制御部103は、座標差ΔXが正値である場合に右手操作であると判断し(S211)、座標値ΔXが負値である場合に左手操作であると判断する(S213)。
一方、ステップS207の処理で、絶対値|ΔX|が閾値Δth2未満であると判定された場合に、制御部103は、タッチパネル101bに対して右方向の移動操作をユーザーに促す(S215)。
制御部103は、右方向の移動操作の始点座標M0と終点座標M1のY方向の座標差ΔY(終点座標−始点座標)の絶対値|ΔY|が第2の閾値Δth2以上であるかを判定する(S217)。ここでも、閾値Δth2を用いて絶対値|ΔY|を判定することで、操作状態の誤判定が防止される。
そして、判定条件に該当すれば、制御部103は、座標差ΔYが正値であるかを判定する(S219)。そして、制御部103は、座標差ΔYが正値である場合に右手操作であると判断し(S221)、座標値ΔYが負値である場合に左手操作であると判断する(S223)。
一方、ステップS217の処理で、絶対値|ΔY|が閾値Δth2未満であると判定された場合に、制御部103は、上方向および右方向の移動操作時の判定結果を組合せて操作状態を判定する。これにより、絶対値|ΔX|、|ΔY|が小さい場合でも、互いに異なる方向の移動操作時の判定結果を用いて操作状態を判定することができる。
制御部103は、X方向およびY方向の座標差ΔX、ΔYの両方が正値であるかを判定する(S225)。そして、制御部103は、判定条件に該当する場合に右手操作であると判断する(S227)。
一方、判定条件に該当しない場合、制御部103は、X方向およびY方向の座標差ΔX、ΔYの両方が負値であるかを判定する(S229)。そして、制御部103は、判定条件に該当する場合に左手操作であると判断し(S231)、判定条件に該当しない場合に判定不能であると判断する(S233)。
なお、上記例では、ステップS203の処理で第1の閾値Δth1を用いて両手操作を判定している。しかし、ステップS229の判定条件に該当しない場合に、判定不能であると判断する代わりに、両手操作であると判断してもよい。また、ステップS215の後に右方向の移動操作時のY方向の座標差ΔYの絶対値|ΔY|が閾値Δth1未満であるかを判定し、判定条件に該当する場合に、両手操作であると判断してもよい。
また、上記例では、上方向および右方向の移動操作時の判定結果を用いて操作状態を判定している。しかし、互いに異なる方向の移動操作であれば、例えば、上方向と下方向、上方向と左方向、左方向と右方向等、いずれの方向の移動操作の判定結果を用いてもよい。ただし、互いに直交する方向の移動操作の判定結果を用いた場合には、タッチパネル101bのアスペクト比に起因して、移動方向Dd、Daの差異Δが生じ易いので、操作状態を高い精度で判定することができる。
また、上記例では、ステップS225以降の処理で、上方向および右方向の移動操作時の判定結果を組合せて操作状態を判定しているが、ステップS217の処理で判定条件に該当しない場合に判定不能と判断してもよい。
また、上記例では、上方向の移動操作時の閾値と右方向の移動操作時の閾値として、同一の閾値Δth2を用いているが、例えばΔth2とΔth2´等、異なる閾値を用いてもよい。
[5.まとめ]
以上説明したように、本発明の一実施形態に係るリモートコントローラ100によれば、指定した移動方向Ddと、指定に従って表示パネル101a上で移動される指Pの移動方向Daの差異Δに基づいて、リモートコントローラ100の操作状態が判定される。リモートコントローラ100を片手で操作している場合には、指定した移動方向Ddと指Pの移動方向Daには、手の構造に起因して、操作に用いられる指Pに応じた差異Δが生じ易くなる。一方、リモートコントローラ100を両手で操作している場合には、指定した移動方向Ddと指Pの移動方向Daには、操作に用いられる指Pに応じた差異Δが生じ難くなる。このため、移動方向Dd、Daの差異Δに基づいて、リモートコントローラ100の操作状態を容易かつ正確に判定することができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、タッチパネル101bに対して上下左右の移動方向Ddが指定される場合について説明した。しかし、例えば、タッチパネル101bの対角線に沿って斜めの移動方向Ddが指定されてもよい。この場合、指定した対角線沿いの移動方向Ddと、検出した移動方向Daの差異Δ(角度差)に基づいて、リモートコントローラ100の操作状態を判定することができる。
また、上記実施形態では、タッチパネル101bに接触する指Pの移動方向Daを検出する場合について説明した。しかし、タッチパネル101に近接する指の移動方向Daを検出してもよい。
100 リモートコントローラ
101 タッチパネルディスプレイ
101a 表示パネル
101b タッチパネル
103 制御部
105 メモリ
107 通信部

Claims (14)

  1. 表示パネルと、
    前記表示パネル上で移動される指を検出する検出部と、
    所定の移動方向を指定し、前記指定した移動方向と、前記指定に従って前記表示パネル上で移動される指の移動方向の差異に基づいて、自装置の操作状態を判定する判定部と、
    を備える、情報処理装置。
  2. 前記判定部は、互いに異なる複数の移動方向を指定し、前記指定した各移動方向と、前記指定に従って前記表示パネル上で移動される指の各移動方向の差異に基づいて、自装置の操作状態を判定する、請求項1に記載の情報処理装置。
  3. 前記判定部は、互いに直交する複数の移動方向を指定する、請求項2に記載の情報処理装置。
  4. 操作状態の判定結果に応じて、前記表示パネルの表示を制御する表示制御部をさらに備える、請求項1に記載の情報処理装置。
  5. 前記判定部は、自装置を一方の手に把持して一方の手により操作している操作状態と、自装置を一方の手に把持して他方の手により操作している操作状態を判別する、請求項1に記載の情報処理装置。
  6. 前記判定部は、自装置を左手に把持して左手により操作している操作状態と、自装置を右手に把持して右手により操作している操作状態を判別する、請求項5に記載の情報処理装置。
  7. 前記判定部は、前記指定に従って前記表示パネル上で移動される指の移動始点と移動終点の座標差に基づいて、前記指の移動方向を求める、請求項1に記載の情報処理装置。
  8. 前記所定の移動方向は、前記表示パネルに対する上方向、下方向、左方向、右方向のいずれかの方向として指定される、請求項1に記載の情報処理装置。
  9. 前記判定部は、前記表示パネルに対する移動方向を指定し、前記指定に従って前記表示パネル上で連続的に検出される指の移動軌跡から前記指の移動方向を求める、請求項8に記載の情報処理装置。
  10. 前記判定部は、前記表示パネルに対する移動方向を特定可能な2以上の点を指定し、前記指定に従って前記表示パネル上で一方の点と他方の点の間で離散的に検出される指の移動座標から前記指の移動方向を求める、請求項8に記載の情報処理装置。
  11. 片手により操作可能な装置である、請求項1に記載の情報処理装置。
  12. 電子機器を操作するリモートコントローラである、請求項11に記載の情報処理装置。
  13. 情報処理装置によって、
    所定の移動方向を指定し、
    前記指定した移動方向と、前記指定に従って表示パネル上で移動される指の移動方向に基づいて、自装置の操作状態を判定する、情報処理方法。
  14. 情報処理装置によって、
    所定の移動方向を指定し、
    前記指定した移動方向と、前記指定に従って表示パネル上で移動される指の移動方向に基づいて、自装置の操作状態を判定する、情報処理方法をコンピュータに実行させるためのプログラム。
JP2009229481A 2009-10-01 2009-10-01 情報処理装置、情報処理方法およびプログラム Active JP5458783B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2009229481A JP5458783B2 (ja) 2009-10-01 2009-10-01 情報処理装置、情報処理方法およびプログラム
RU2012111262/08A RU2012111262A (ru) 2009-10-01 2010-08-31 Устройство обработки информации, способ обработки информации и программа
US13/497,984 US10042386B2 (en) 2009-10-01 2010-08-31 Information processing apparatus, information processing method, and program
PCT/JP2010/064770 WO2011040165A1 (ja) 2009-10-01 2010-08-31 情報処理装置、情報処理方法およびプログラム
BR112012006663A BR112012006663A2 (pt) 2009-10-01 2010-08-31 aparelho de processamento de informação, método de processamento de informação e programa
CN201080054318.8A CN102640102B (zh) 2009-10-01 2010-08-31 信息处理装置、信息处理方法
EP10820285.4A EP2469386B1 (en) 2009-10-01 2010-08-31 Information processing device, information processing method and program
US16/025,690 US10936011B2 (en) 2009-10-01 2018-07-02 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009229481A JP5458783B2 (ja) 2009-10-01 2009-10-01 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2011076521A true JP2011076521A (ja) 2011-04-14
JP5458783B2 JP5458783B2 (ja) 2014-04-02

Family

ID=43825996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009229481A Active JP5458783B2 (ja) 2009-10-01 2009-10-01 情報処理装置、情報処理方法およびプログラム

Country Status (7)

Country Link
US (2) US10042386B2 (ja)
EP (1) EP2469386B1 (ja)
JP (1) JP5458783B2 (ja)
CN (1) CN102640102B (ja)
BR (1) BR112012006663A2 (ja)
RU (1) RU2012111262A (ja)
WO (1) WO2011040165A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011138410A (ja) * 2009-12-28 2011-07-14 Sony Corp 操作方向判定装置、遠隔操作システム、操作方向判定方法およびプログラム
EP2541385A2 (en) 2011-06-29 2013-01-02 Sony Corporation Information processing apparatus, information processing method, program and remote control system
JP2013004087A (ja) * 2011-06-10 2013-01-07 Samsung Electronics Co Ltd ユーザの身体特性を考慮した動的ユーザインターフェース提供装置及び方法
JP2013105425A (ja) * 2011-11-16 2013-05-30 Clarion Co Ltd 入力装置
JP2013161332A (ja) * 2012-02-07 2013-08-19 Sharp Corp 情報処理装置、その制御方法およびその制御プログラム
JP2015018325A (ja) * 2013-07-09 2015-01-29 キヤノン株式会社 情報処理装置およびその制御方法、プログラム、記録媒体
JPWO2021255775A1 (ja) * 2020-06-15 2021-12-23
US12386415B2 (en) 2023-07-20 2025-08-12 Canon Kabushiki Kaisha Information processing apparatus for achieving cross reality, control method therefor, and storage medium storing control program therefor

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWM450762U (zh) * 2012-04-23 2013-04-11 shun-fu Luo 全新的一筆畫操作控制之裝置
TWM448713U (zh) * 2012-11-12 2013-03-11 shun-fu Luo 軌跡輸入及辨識操作控制之裝置
CN102970442A (zh) * 2012-12-06 2013-03-13 江苏诚迈科技有限公司 一种在智能触屏手机上处理来电的方法
CN105103110B (zh) * 2013-03-27 2018-07-27 日本电气株式会社 信息终端、显示控制方法和程序
WO2015024198A1 (zh) 2013-08-20 2015-02-26 华为技术有限公司 一种手持设备和在手持设备上实现输入区位置调整的方法
US9229612B2 (en) 2013-08-27 2016-01-05 Industrial Technology Research Institute Electronic device, controlling method for screen, and program storage medium thereof
KR102282498B1 (ko) * 2014-05-19 2021-07-27 삼성전자주식회사 디스플레이를 이용한 입력 처리 방법 및 장치
US9760758B2 (en) * 2015-12-30 2017-09-12 Synaptics Incorporated Determining which hand is being used to operate a device using a fingerprint sensor
CN108594995A (zh) * 2018-04-13 2018-09-28 广东小天才科技有限公司 一种基于手势识别的电子设备操作方法及电子设备
US11513604B2 (en) 2020-06-17 2022-11-29 Motorola Mobility Llc Selectable response options displayed based-on device grip position
US11595511B2 (en) 2020-07-30 2023-02-28 Motorola Mobility Llc Adaptive grip suppression within curved display edges
US11726734B2 (en) 2022-01-13 2023-08-15 Motorola Mobility Llc Configuring an external presentation device based on an impairment of a user
US12131009B2 (en) * 2022-01-13 2024-10-29 Motorola Mobility Llc Configuring an external presentation device based on user handedness

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10232735A (ja) * 1997-02-18 1998-09-02 Sharp Corp 情報機器の入力装置
JP2000347800A (ja) * 1999-06-03 2000-12-15 Alps Electric Co Ltd ポインティングカーソルの校正装置及びポインティングカーソルの校正方法
JP2004013705A (ja) * 2002-06-10 2004-01-15 Nec Corp ポインティングデバイスのセットアップ方法と該方法を記録した記録媒体および携帯端末
JP2004252715A (ja) * 2003-02-20 2004-09-09 Dainippon Printing Co Ltd 画像出力装置、プログラム、記録媒体、画面表示方法
JP2007264808A (ja) * 2006-03-27 2007-10-11 Nikon Corp 表示入力装置及び撮像装置
JP2008027183A (ja) * 2006-07-21 2008-02-07 Sharp Corp 情報処理装置
WO2009031214A1 (ja) * 2007-09-05 2009-03-12 Panasonic Corporation 携帯端末装置、及び表示制御方法
JP2009110286A (ja) * 2007-10-30 2009-05-21 Toshiba Corp 情報処理装置、ランチャー起動制御プログラムおよびランチャー起動制御方法
JP2009140368A (ja) * 2007-12-07 2009-06-25 Sony Corp 入力装置、表示装置、入力方法、表示方法及びプログラム
JP2009163278A (ja) * 2007-12-21 2009-07-23 Toshiba Corp 携帯型機器
WO2009090704A1 (ja) * 2008-01-18 2009-07-23 Panasonic Corporation 携帯端末
JP2009294725A (ja) * 2008-06-02 2009-12-17 Toshiba Corp 携帯端末

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1069346A (ja) * 1996-08-28 1998-03-10 Alps Electric Co Ltd 座標入力装置およびその制御方法
US6714221B1 (en) * 2000-08-03 2004-03-30 Apple Computer, Inc. Depicting and setting scroll amount
US20040204129A1 (en) * 2002-08-14 2004-10-14 Payne David M. Touch-sensitive user interface
US7565623B2 (en) 2004-04-30 2009-07-21 Microsoft Corporation System and method for selecting a view mode and setting
KR100608576B1 (ko) * 2004-11-19 2006-08-03 삼성전자주식회사 휴대 단말기 제어 장치 및 방법
JP3833228B2 (ja) * 2004-12-01 2006-10-11 任天堂株式会社 ゲーム装置およびゲームプログラム
US7932895B2 (en) * 2005-05-24 2011-04-26 Nokia Corporation Control of an electronic device using a gesture as an input
JPWO2006126310A1 (ja) * 2005-05-27 2008-12-25 シャープ株式会社 表示装置
US7480870B2 (en) * 2005-12-23 2009-01-20 Apple Inc. Indication of progress towards satisfaction of a user input condition
US7657849B2 (en) * 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
KR20070113025A (ko) * 2006-05-24 2007-11-28 엘지전자 주식회사 터치스크린 장치 및 이의 작동방법
US7941760B2 (en) * 2006-09-06 2011-05-10 Apple Inc. Soft keyboard display for a portable multifunction device
US20080055263A1 (en) * 2006-09-06 2008-03-06 Lemay Stephen O Incoming Telephone Call Management for a Portable Multifunction Device
RU63947U1 (ru) 2006-12-20 2007-06-10 Государственное образовательное учреждение высшего профессионального образования "Пермский государственный университет" Универсальное информационное устройство
US7872652B2 (en) * 2007-01-07 2011-01-18 Apple Inc. Application programming interfaces for synchronization
US7903115B2 (en) * 2007-01-07 2011-03-08 Apple Inc. Animations
US20090109183A1 (en) * 2007-10-30 2009-04-30 Bose Corporation Remote Control of a Display
US8395584B2 (en) * 2007-12-31 2013-03-12 Sony Corporation Mobile terminals including multiple user interfaces on different faces thereof configured to be used in tandem and related methods of operation
US9152309B1 (en) * 2008-03-28 2015-10-06 Google Inc. Touch screen locking and unlocking
JP4533943B2 (ja) * 2008-04-28 2010-09-01 株式会社東芝 情報処理装置、表示制御方法およびプログラム
GB2462579A (en) * 2008-06-10 2010-02-17 Sony Service Ct Touch screen display including proximity sensor
JP4632102B2 (ja) * 2008-07-17 2011-02-16 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
EP3654141A1 (en) * 2008-10-06 2020-05-20 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
KR101019335B1 (ko) * 2008-11-11 2011-03-07 주식회사 팬택 제스처를 이용한 이동단말의 어플리케이션 제어 방법 및 시스템
CN101770299B (zh) * 2008-12-26 2013-11-06 深圳富泰宏精密工业有限公司 导航键功能实现系统及方法
US8451238B2 (en) * 2009-09-02 2013-05-28 Amazon Technologies, Inc. Touch-screen user interface
US8531515B2 (en) * 2009-09-29 2013-09-10 Olympus Imaging Corp. Imaging apparatus
JP5370144B2 (ja) * 2009-12-28 2013-12-18 ソニー株式会社 操作方向判定装置、遠隔操作システム、操作方向判定方法およびプログラム
US20110231796A1 (en) * 2010-02-16 2011-09-22 Jose Manuel Vigil Methods for navigating a touch screen device in conjunction with gestures
US8810509B2 (en) * 2010-04-27 2014-08-19 Microsoft Corporation Interfacing with a computing application using a multi-digit sensor
US8933910B2 (en) * 2010-06-16 2015-01-13 Panasonic Intellectual Property Corporation Of America Information input apparatus, information input method, and program
US8698764B1 (en) * 2010-06-30 2014-04-15 Amazon Technologies, Inc. Dorsal touch input
KR20120040617A (ko) * 2010-10-19 2012-04-27 최재숙 방향성 센서와 무방향성 센서를 겸비한 포인팅 장치 및 포인팅 데이터 입력 방법
CN104799824B (zh) * 2011-06-24 2017-10-24 株式会社村田制作所 移动设备
JP5790203B2 (ja) * 2011-06-29 2015-10-07 ソニー株式会社 情報処理装置、情報処理方法、プログラム、および遠隔操作システム
US20130067366A1 (en) * 2011-09-14 2013-03-14 Microsoft Corporation Establishing content navigation direction based on directional user gestures
JP2013117885A (ja) * 2011-12-02 2013-06-13 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
US8863042B2 (en) * 2012-01-24 2014-10-14 Charles J. Kulas Handheld device with touch controls that reconfigure in response to the way a user operates the device
KR20140062233A (ko) * 2012-11-14 2014-05-23 삼성전자주식회사 휴대 단말기의 바로가기 잠금 해제 방법 및 장치

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10232735A (ja) * 1997-02-18 1998-09-02 Sharp Corp 情報機器の入力装置
JP2000347800A (ja) * 1999-06-03 2000-12-15 Alps Electric Co Ltd ポインティングカーソルの校正装置及びポインティングカーソルの校正方法
JP2004013705A (ja) * 2002-06-10 2004-01-15 Nec Corp ポインティングデバイスのセットアップ方法と該方法を記録した記録媒体および携帯端末
JP2004252715A (ja) * 2003-02-20 2004-09-09 Dainippon Printing Co Ltd 画像出力装置、プログラム、記録媒体、画面表示方法
JP2007264808A (ja) * 2006-03-27 2007-10-11 Nikon Corp 表示入力装置及び撮像装置
JP2008027183A (ja) * 2006-07-21 2008-02-07 Sharp Corp 情報処理装置
WO2009031214A1 (ja) * 2007-09-05 2009-03-12 Panasonic Corporation 携帯端末装置、及び表示制御方法
JP2009110286A (ja) * 2007-10-30 2009-05-21 Toshiba Corp 情報処理装置、ランチャー起動制御プログラムおよびランチャー起動制御方法
JP2009140368A (ja) * 2007-12-07 2009-06-25 Sony Corp 入力装置、表示装置、入力方法、表示方法及びプログラム
JP2009163278A (ja) * 2007-12-21 2009-07-23 Toshiba Corp 携帯型機器
WO2009090704A1 (ja) * 2008-01-18 2009-07-23 Panasonic Corporation 携帯端末
JP2009169820A (ja) * 2008-01-18 2009-07-30 Panasonic Corp 携帯端末
JP2009294725A (ja) * 2008-06-02 2009-12-17 Toshiba Corp 携帯端末

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011138410A (ja) * 2009-12-28 2011-07-14 Sony Corp 操作方向判定装置、遠隔操作システム、操作方向判定方法およびプログラム
JP2013004087A (ja) * 2011-06-10 2013-01-07 Samsung Electronics Co Ltd ユーザの身体特性を考慮した動的ユーザインターフェース提供装置及び方法
KR101824388B1 (ko) 2011-06-10 2018-02-01 삼성전자주식회사 사용자의 신체특성을 고려한 동적 사용자 인터페이스 제공 장치 및 방법
EP2541385A2 (en) 2011-06-29 2013-01-02 Sony Corporation Information processing apparatus, information processing method, program and remote control system
JP2013012021A (ja) * 2011-06-29 2013-01-17 Sony Corp 情報処理装置、情報処理方法、プログラム、および遠隔操作システム
JP2013105425A (ja) * 2011-11-16 2013-05-30 Clarion Co Ltd 入力装置
JP2013161332A (ja) * 2012-02-07 2013-08-19 Sharp Corp 情報処理装置、その制御方法およびその制御プログラム
JP2015018325A (ja) * 2013-07-09 2015-01-29 キヤノン株式会社 情報処理装置およびその制御方法、プログラム、記録媒体
JPWO2021255775A1 (ja) * 2020-06-15 2021-12-23
WO2021255775A1 (ja) * 2020-06-15 2021-12-23 三菱電機株式会社 表示制御装置および表示制御方法
JP7353491B2 (ja) 2020-06-15 2023-09-29 三菱電機株式会社 表示制御装置および表示制御方法
US12386415B2 (en) 2023-07-20 2025-08-12 Canon Kabushiki Kaisha Information processing apparatus for achieving cross reality, control method therefor, and storage medium storing control program therefor

Also Published As

Publication number Publication date
CN102640102B (zh) 2016-08-03
EP2469386A4 (en) 2014-03-05
BR112012006663A2 (pt) 2016-05-03
EP2469386B1 (en) 2019-03-20
US20120176336A1 (en) 2012-07-12
US20180314294A1 (en) 2018-11-01
WO2011040165A1 (ja) 2011-04-07
RU2012111262A (ru) 2013-10-27
US10042386B2 (en) 2018-08-07
JP5458783B2 (ja) 2014-04-02
CN102640102A (zh) 2012-08-15
EP2469386A1 (en) 2012-06-27
US10936011B2 (en) 2021-03-02

Similar Documents

Publication Publication Date Title
JP5458783B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5790203B2 (ja) 情報処理装置、情報処理方法、プログラム、および遠隔操作システム
US9733752B2 (en) Mobile terminal and control method thereof
JP6157885B2 (ja) 携帯端末装置の表示制御方法
KR20170062954A (ko) 사용자 단말장치 및 디스플레이 방법
JP2012190318A (ja) 電子機器
US20120297339A1 (en) Electronic device, control method, and storage medium storing control program
JP6508122B2 (ja) 操作入力装置、携帯端末及び操作入力方法
WO2014075470A1 (zh) 一种终端及终端屏幕显示信息控制方法
KR20140047515A (ko) 데이터 입력을 위한 전자 장치 및 그 운용 방법
JP6235349B2 (ja) タッチ操作機能付表示装置
JP2012155675A (ja) タッチパネル装置
US9244564B2 (en) Information processing apparatus touch panel display and control method therefor
CN103703435A (zh) 信息处理装置、信息处理方法和信息处理程序
CN105204754B (zh) 触摸屏的单手操作方法及装置
JP2009098990A (ja) 表示装置
US20190286322A1 (en) Information processing apparatus, program, and information processing system
WO2013080425A1 (ja) 入力装置、情報端末、入力制御方法、および入力制御プログラム
JP2015176311A (ja) 端末及び制御方法
JP2018032428A (ja) タッチ操作機能付表示装置およびタッチ入力の識別方法
JP2015133021A (ja) 端末、及び端末制御方法
US20070042805A1 (en) Communications device comprising a touch-sensitive display unit and an actuating element for selecting highlighted characters
JP5965001B2 (ja) 電子機器
JP2019153312A (ja) 操作入力装置、携帯端末及び操作入力方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131230

R151 Written notification of patent or utility model registration

Ref document number: 5458783

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250