[go: up one dir, main page]

JP2011248888A - デュアルスクリーン上のユーザジェスチャのための方法及びデュアルスクリーンデバイス - Google Patents

デュアルスクリーン上のユーザジェスチャのための方法及びデュアルスクリーンデバイス Download PDF

Info

Publication number
JP2011248888A
JP2011248888A JP2011115560A JP2011115560A JP2011248888A JP 2011248888 A JP2011248888 A JP 2011248888A JP 2011115560 A JP2011115560 A JP 2011115560A JP 2011115560 A JP2011115560 A JP 2011115560A JP 2011248888 A JP2011248888 A JP 2011248888A
Authority
JP
Japan
Prior art keywords
gesture
virtual keyboard
screen device
dual screen
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011115560A
Other languages
English (en)
Other versions
JP5730667B2 (ja
Inventor
S Bateman Steven
エス. ベイトマン スティーヴン
J Varavi John
ジェイ. ヴァラヴィ ジョン
S Adamson Peter
エス. アダムソン ピーター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2011248888A publication Critical patent/JP2011248888A/ja
Application granted granted Critical
Publication of JP5730667B2 publication Critical patent/JP5730667B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • G06F1/1692Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes the I/O peripheral being a secondary touch screen used as control interface, e.g. virtual buttons or sliders
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Digital Computer Display Output (AREA)

Abstract

【課題】ユーザのジェスチャは、デバイス上で動作する特定のオペレーティングシステム又はOSに結び付けられていることがある。デュアルスクリーンタッチパネルデバイスが実装され得る場合には、一つのスクリーンから他方のスクリーンへとアプリケーション又はウィンドウを簡単に動かすジェスチャを提供しない可能性がある。
【解決手段】オペレーティングシステムに依存しないジェスチャのための、デュアルスクリーンによって実装される方法であって:前記デュアルスクリーンデバイスの一つのスクリーンにおいて接触点を検出する接触点検出ステップ;オペレーティングシステムに依存しないジェスチャの存在を決定するジェスチャ決定ステップ;及び前記オペレーティングシステムに依存しないジェスチャに関連する動作を起動するジェスチャ起動ステップ;を有する方法を提供する。
【選択図】図2

Description

本願発明は、ユーザジェスチャのための方法及びデュアルスクリーンデバイスに関し、特に、オペレーティングシステムに依存しないジェスチャのためのデュアルスクリーンデバイスによって実装される方法及び該デュアルスクリーンデバイスに関する。
典型的なタッチスクリーンユーザインターフェースは、指のジェスチャを用いて実行される。そのような指のジェスチャは、タッチスクリーンユーザインターフェース上の単一の点へと分解される。その指のジェスチャ又は接触点が単一の点へと分解されることについて、その形状に関わらず、前記タッチスクリーンユーザインターフェースへと適用される。したがって、タッチスクリーンユーザインタフェース上で実行されるタッチジェスチャは点に制限される。そのような指のジェスチャは、点に制限されるため、タッチスクリーンインターフェースがタッチコマンド又は命令を理解するために、正確でなければならないことがある。
ユーザのジェスチャは、デバイス上で動作する特定のオペレーティングシステム又はOSに結び付けられていることがある。デュアルスクリーンタッチパネルデバイスが実装され得る場合には、一つのスクリーンから他方のスクリーンへとアプリケーション又はウィンドウを簡単に動かすジェスチャを提供しない可能性がある。
例えば、仮想キーボードを実装しているデュアルスクリーンラップトップにおいて、仮想キーボードが呼び出されると、スクリーンの一つに表示されることがある。仮想キーボードが呼び出される前に、1つ以上のアプリケーション又はウィンドウがそのスクリーン上で存在することがある。そのアプリケーションは、完全に消えるか覆われることがある。
特にアプリケーション又はウィンドウを移動するために、OSが提供するジェスチャが利用可能でない可能性がある。さらに、OSによって提供されるジェスチャは、仮想キーボードが消えた時、(再び)存在したままのアプリケーション又はウィンドウを処理しない可能性がある。
デュアルスクリーンデバイス向けの仮想キーボードには短所もある。ある仮想キーボードは、編集可能なフィールドがフォーカスを得るとすぐに表示される、ポップアップウィンドウであることがある。従って、ユーザが単にコンテンツを閲覧したい場合、仮想キーボードは邪魔になる。これによりユーザは、仮想キーボードが表示された後、手動で仮想キーボードを適当な位置に置く必要がある可能性がある。
そのような仮想キーボードは、定義済みのアプリケーションとして実行されることがある。仮想キーボードアプリケーションを呼び出したり閉じたりする特定のタッチジェスチャは存在しないこともある。さらに、仮想キーボードは、個人によって使用するために、適切に、センタリングされないこともある。言い換えると、一つの万能サイズのキーボードが提供されることがある。さらに、仮想キーボードは滑らかなので、タッチタイピストを支援するため、キーの位置を適切に認識するためのタクタイルエイドが何ら存在しないことがある。
上述した課題を解決し目的を達成するため、本発明にかかる方法は、オペレーティングシステムに依存しないジェスチャのための、デュアルスクリーンによって実装される方法であって:前記デュアルスクリーンデバイスの一つのスクリーンにおいて接触点を検出する接触点検出ステップ;オペレーティングシステムに依存しないジェスチャの存在を決定するジェスチャ決定ステップ;及び前記オペレーティングシステムに依存しないジェスチャに関連する動作を起動するジェスチャ起動ステップ;を有する。
また、上述した課題を解決し目的を達成するため、本発明にかかるデュアルスクリーンデバイスは、デュアルスクリーンデバイスであって:一つ以上のプロセッサ;前記プロセッサと連結しているメモリ;前記デュアルスクリーンデバイスの一つのスクリーンにおけるタッチ及び形状の情報を特定する接触点認識部;及び前記タッチと形状の情報を処理し、かつ、特定の形状を特定し、かつ、前記特定の形状をあるオペレーティングシステムに依存しないジェスチャへ関連付けるジェスチャ認識部;を有する。
さらに、上述した課題を解決し目的を達成するため、本発明にかかる方法は、デュアルスクリーンデバイスにおいて仮想キーボードを起動し、ウィンドウを移動する方法であって:複数の点及び形状に基づくジェスチャから前記仮想キーボードが関連付けられるキーボードに基づくジェスチャを特定するキーボードジェスチャ特定ステップ;前記ウィンドウを前記デュアルスクリーンデバイスの第一のスクリーンから第二のスクリーンへ移動するウィンドウ移動ステップ;前記第一のスクリーン上で前記仮想キーボードを起動するキーボード起動ステップ;及び前記キーボードに基づくジェスチャに関するタッチの位置に基づいて仮想キーボードをセンタリングするキーボード配置ステップを有する。
例示的なデュアルスクリーンデバイスと仮想キーボードの図である。 ジェスチャ認識を実装する例示的なデバイスのブロック図である。 ジェスチャの決定のプロセスのためのフローチャートである。 説明のための例示的な手のタッチジェスチャを示す図である。 説明のための例示的な手のタッチジェスチャを示す図である。 仮想キーボードとタクタイルエイドを備える例示的なデュアルスクリーンデバイスの図である。 多数のウィンドウ/アプリケーションと仮想キーボードを呼び出す例示的なデュアルスクリーンデバイスの図である。 仮想キーボードの呼び出しと、アクティブウィンドウの位置調整のプロセスのためのフローチャートである。
発明の詳細な説明は、添付されている図面への言及と共に記述される。図面において、参照番号の最も左の数字が、参照番号が最初に現れる図面を特定する。機能や構成要素に言及するための図面全体にわたって同一の番号が用いられる。
複数の実施形態は、カスタマイズ可能で、デバイスの使用モデルに固有のものであり、デバイス上で動作するオペレーティングシステム(OS)に依存しないジェスチャを用いるデュアルスクリーンタッチパネルデバイスの使い勝手を高めるものである。
いくつかの実施形態は、一つのスクリーンからもう一つのスクリーンへアプリケーションウィンドウを移動することを可能にするジェスチャを提供する。OSによって無視されるタッチデータを用いて、OSとのデフォルトのユーザインタラクションに影響を及ぼすことなく、ユーザエクスペリエンスを高めるためのカスタムジェスチャがデバイスに追加され得る。
いくつかの実装において、例えばラップトップなどのデュアルスクリーンタッチパネルデバイスは、ユーザがさらなるスクリーン空間を欲するとき、仮想キーボードを隠すことができる。ある典型的なOSは、通常、共通のタスクのためのキーボードショートカットを有することがあるため、仮想キーボードが使用されるとき、追加のジェスチャが必要とされることがある。
そのうえ、追加のジェスチャは、OSに組み込まれたジェスチャを変更することなく追加され得る。また追加のジェスチャは、動的にジェスチャ認識エンジンに追加され得る、ユーザ定義のカスタムジェスチャを可能にする。このことは、ジェスチャがOSを更新することなく付け足され又は取り去られることを可能にする。言い換えると、前記ジェスチャはOSに依存しない。
図1はデュアルスクリーンタッチパネルデバイス(以下デバイスという)102を表している。前記デバイス102はラップトップコンピュータ又は他のデバイスであっても良い。デバイス102は、上部のタッチパネル面又はB面104、及び、下部のタッチパネル面又はC面106の2つのタッチパネル面を含む。いくつかの実装において、面104及び106はユーザ向けの入力制御手段を提供し、ウィンドウとアプリケーションを表示する。
例えば従来のラップトップコンピュータなどのデバイスとは異なり、物理的なキーボードデバイスは提供されない。しかしながら、いくつかの実装においては、ユーザ入力のためにキーボードを実装することが望ましい。デバイス102は、呼び出される仮想キーボード108を提供する。さらに後で説明するように、仮想キーボード108は様々なジェスチャを実装することによって呼び出され、消去されることができる。
図2はデバイス102の例示的なアーキテクチャを表す。デバイス102は一つ以上のプロセッサ200、オペレーティングシステム又はOS202及びプロセッサ200に連結されたメモリ204を含めることができる。メモリ204は、RAM(Random Access Memory)、ROM(Read Only Memory)、外部メモリ及び外部メモリを含む(ただし必ずしもこれらに限定されない)様々なタイプのメモリ及び/又はメモリデバイスを含むことができる。
さらに、メモリ204は、デバイス102によって使用可能なコンピュータ読み取り可能な命令を含むことができる。ここに記載された構成要素は、メモリ204の一部として統合され又は含まれ得ることが理解されるべきである。
デバイス102は、タッチスクリーンハードウェア206を含む。タッチスクリーンハードウェア206は、タッチパネル面104、タッチパネル面106、タッチパネル面104と106の一部であるセンサー及び物理入力装置を有する。タッチスクリーンハードウェア206は、タッチパネル面104と106上で有効化された点の検出を提供する。
タッチパネルファームウェア208は、タッチスクリーンハードウェア206の物理的なセンターからデータを抽出することができる。抽出されたデータは、画像データを含んだタッチデータのストリームとして転送される。もしタッチスクリーンハードウェア206上でタッチがなされなければ、何のデータも転送されない。
データ(すなわち、データのストリーム)は、接触点認識部210へ伝えられる。接触点認識部210は、そのタッチの形状、タッチされた場所及びタッチされた時を決定する。さらに後に説明するように、そのタッチの形状は、実装されたジェスチャの種類を決定する。
接触点認識部210は、ジェスチャ認識部212へ形状情報を送る。ジェスチャ認識部212は、接触点認識部210から受け取ったタッチ及び形状情報を処理し、一つの特定の形状と、その形状に関連付けられ得るジェスチャを決定する。ジェスチャ認識部212は、形状の変更、形状の位置/形状の位置の変更もまた決定する。
例えば、あるプロプライエタリで高級なタッチアプリケーションプログラムインターフェース(API)214を実装している接触点認識部210は、データをダイバータロジック216に送る。ジェスチャ認識部212は、あるプロプライエタリなジェスチャAPI218を通じて、ダイバータロジック216へデータを送ることもできる。ダイバータロジック216は、接触点認識部210及びジェスチャ認識部212から受け取ったコンテンツ又はデータが転送されるべきかどうか決定する。例えば、もし仮想キーボード108がC面106上でアクティブで動作しているとき、コンテンツやデータを送る必要はない。仮想キーボード108は、C面106からの入力を吸い上げるためである。
ダイバータロジック216は、ヒューマンインターフェースドライバ(HID) API220を通じて、オペレーティングシステムヒューマンインターフェースドライバ222へデータを送ることができる。前記オペレーティングシステムヒューマンインターフェースドライバ222は、OS202と通信を行う。接触点認識部210及びジェスチャ認識部212は、OS202から切り離されているので、OS202に含まれる接触点のジェスチャは影響を受けない。
例えば、ジェスチャはOS202からは認識されない動作によって引き起こされ得るので、ジェスチャがタッチスクリーン又はC面106上のいかなる場所においてなされ、かつ、アクティブ(すなわち、ターゲット)ウィンドウに作用することで、例えばウィンドウフォーカスの変更などのイベントは起きない。
加えて、異なるジェスチャが、接触点認識部210及びジェスチャ212が更新されることによって追加され得る。接触点認識部210及びジェスチャ認識部212は、ジェスチャ認識エンジンとみなすことができる。
あるプロプライエタリなジェスチャ及び高級なタッチAPI224を通じて、ダイバータロジック216は、アプリケーションレイヤ226へとデータを供給することができる。オペレーティングシステムヒューマンインターフェースドライバ222は、OS固有のタッチAPI228を通じて、アプリケーションレイヤ226へとデータを送信することができる。アプリケーションレイヤ226は、デバイス102上で動作するアプリケーションウィンドウとともに適宜受信したデータ(すなわち、ジェスチャデータ)を処理する。
先に説明したように、ジェスチャ認識部210は、タッチ及び形状データを認識するために実現される。そのジェスチャ認識部210は、事前にタッチデータを処理し、OS200から分離されている、タッチソフトウェア又はデバイス210のジェスチャ認識部とみなされ得る。さらに、タッチは、例えば「フィンガータッチ(Finger Touch)」、「ブロブ(Blob)」及び「パーム(Palm)」などのカテゴリによって分類され得る。
前記ジェスチャは、「点」に基づくものと比較して、それらが「形状」に基づくものである点において、従来の指のタッチに基づくジェスチャと区別される。いくつかの実装において、指のタッチデータは「点」に基づくものであるので、指のタッチデータだけがOS200に送られても良い。「ブロブ」及び「パーム」のような形状に基づくタッチは除外することができ、OS200には送られないことができる。しかしながら、ジェスチャ認識部210は全てのタッチデータを受信することができる。
一度ジェスチャが認識されると、ジェスチャ処理が開始されたことを示すユーザフィードバックが提供され、OS200からは全てのタッチが隠され、ジェスチャ処理を始めることができる。ジェスチャが完了(すなわち、タッチスクリーン上でそれ以上ない)
したとき、通常の処理は再開され得る。
図3は、ジェスチャ認識及び接触点の出力先変更の処理の例のフローチャートである。処理300は、デバイス102によって実行可能な命令として実装されても良い。手法が示された順序は、制限事項として解釈されることを意図したものではない。示された手法のブロックのいかなる番号も、その手法又は代替の手法を実装するために組み合わせることができる。さらに、個々のブロックは、ここに示された主題の趣旨及び範囲を逸脱せずに、本手法から削除されても良い。さらには、本手法は、本発明の範囲から逸脱せずに、いかなる適切なハードウェア、ソフトウェア、ファームウェア又は組み合わせにおいても実装されてもよい。
ブロック302において、タッチスクリーン上で接触点を検出する処理が実行される。その検出は、先に説明したデバイスのC面上で実行され、先に説明した処理がなされても良い。
一つのジェスチャの存在に応じて一つの判定が行われる(ブロック304)。もしジェスチャが存在するとき、次のブロック304の「YES」の分岐にしたがい、ジェスチャが認識されていることを示す表示がなされ得る。例えば、ある透明のフルスクリーンウィンドウが、ユーザの指の下に表示されても良い。
ブロック308において、ジェスチャの処理が実行される。前記処理は、図2に関して先に説明したとおりに実行されても良い。
もしブロック304において、ジェスチャが存在していない旨の判定がなされたとき、ブロック304の「NO」の分岐にしたがい、孤立した指のタッチがあるかどうかの判定がなされる(ブロック310)。
もし孤立した指のタッチがあるとき、ブロック310の「YES」の分岐にしたがい、ブロック312において、前記接触点がオペレーティングシステムへと送られる。ブロック314において、他の接触点を待ち、処理はブロック302へと戻る。
もし孤立した指のタッチがないとき、ブロック310の「NO」の分岐にしたがい、ブロック314が実行され、他の接触点を待つ。
図4A及び4Bは、ジェスチャの例を表している。4つのジェスチャの例が表されている。しかしながら、他のジェスチャも適用可能であることが予定されており、特に形状に基づくジェスチャについて適用可能であることが予定されている。4つの例示的なジェスチャは以下の通りである。a)仮想キーボード108を起動するために用いられてもよい「ツーハンズダウン(Two hands down)」、b)反対のスクリーン(すなわち、B面)上にブラウザのリンクを表示するために用いられてもよい「スリーフィンガータップ(Three Finger Tap)」、c)アクティブなアプリケーション(ウィンドウ)を素早く切り替えるために用いられる「スウィープ(Sweep)」、及びd)2つのスクリーンの周りで一つのアクティブなウィンドウを素早く移動するために用いられる「グラブ(Grab)」である。
既に説明したように、オペレーティングシステム又はOS202は、前記ジェスチャを認識しないので、オペレーティングシステムを更新することなく多数のジェスチャが付け足され、取り去られることができる。いくつかの実装において、ユーザがカスタムジェスチャを作成できるよう、ジェスチャエディタ(例えば、接触点認識部210、ジェスチャ認識部212)が提供されても良い。
スクリーンのいかなる領域においても、単一のジェスチャ動作は所望の動作を起動することができ、そのことは特定の領域をタッチすることよりも簡単なことがある。一度その動作が開始すると、手順を実行するためにさらに多くの可能性があるため、その動作を実行するためにより低い正確さが必要とされてもよい。例えば、そのようなジェスチャは、お決まりのアプリケーションを起動するためや、素早くシステムをロックするため、その他のタスクを実行するために用いられ得る。そのようなジェスチャの例を以下に説明する。
ジェスチャ400は、「ツーハンズダウン」ジェスチャを表す。先に説明したように、デバイス102のようなデュアルスクリーンデバイスは、物理キーボードを有しないことがある。仮想キーボード108は、典型的にはC面で提供される物理キーボードの代わりに、C面106のタッチスクリーン上で使用されることができる。
「ツーハンズダウン」ジェスチャは、実際にタッチスクリーンに触れている接触点404−Aから404−Lを用いて、タッチスクリーン上に置かれた手402−A及び402−Bを規定する。接触点404は、「ツーハンズダウン」ジェスチャと関連付けられた、認識形状を提供する。前記「ツーハンズダウン」ジェスチャは、デバイスC面106上で仮想キーボード108を素早く起動するために用いられても良い。
ジェスチャ406は、「スリーフィンガータップ」を表す。「スリーフィンガータップ」ジェスチャは、共に密着している3本の指を規定する。前記ジェスチャは、一つの手及び実際の接触点410−Aから410−Cを取り込む。そのタッチ処理は、このアクションの接触点410の組を、ブロブ及び/又はブロブから生じた接触点の混合として分類する。接触点410の組は、オペレーティングシステム(例えばOS202)からは見えない(認識されない)。
「スリーフィンガータップ」ジェスチャのアクションは、反対の面(例えばB面104)上のブラウザウィンドウ内で、タップされたユニバーサルリソースロケータ又はURLを開くために使用されても良い。言い換えれば、もしそのタップがC面106上のブラウザで起こったとき、ブラウザウィンドウはB面104で開くことができる。あるいは、もしタップがB面104上のブラウザ内でなされたとき、URLはC面のブラウザ内に現れても良い。この機能/ジェスチャは、デバイス102のようなデュアルタッチスクリーンデバイスのために、ユニークなインターネットブラウジングのユーザモデルを有効にすることができる。
ジェスチャ410は、「スウィープ」ジェスチャを表す。「スウィープ」ジェスチャは、タッチスクリーン(例えば、C面106)に接する接触点412−A及び412−B、又は、接触点412−C及び412−Dを規定する。「スウィープ」ジェスチャは、「カラテチョップ」のように、タッチスクリーンに触れている手のひらの側面(すなわち接触点412)を取り込む。
「スウィープ」ジェスチャと関連付けられ得るアクションは、素早くアプリケーションとアプリケーションを切り替えるためのものであっても良い。ほとんどの、ウィンドウで構成されたオペレーティングシステムにおいて、そのようなアクション(すなわち、アプリケーション間で切り替えを行う)は、通常キーボードショートカットを使って行われる。しかし、仮想キーボード108は、デュアルスクリーンのラップトップでは常には存在していない可能性があるので、このジェスチャにより素早くアプリケーション間の切り替えを行うことができる。
ある例示的な操作において、「スウィープ」ジェスチャが最初に開始されたとき、現在実行中のアプリケーションを示すアイコンのリストが、現在アクティブなアプリケーションとともにハイライトされてスクリーン上で表示しても良い。左方向にスウィープするとリストは逆に進み、右方向にスウィープすると前に進む。手がタッチスクリーンの表面から離れたとき、現在選択されているアプリケーションがアクティブになる。
ジェスチャ414は、「グラブ」ジェスチャを表す。「グラブ」ジェスチャは、タッチスクリーンに接触している5つの接触点416−Aから416−E、言い換えればタッチスクリーン上に同時に置かれた5本の指を規定する。既に説明した他のジェスチャとは異なり、「グラブ」ジェスチャは、ブロブでない(non-blob)接触点を含む。しかしながら、前記接触点は、オペレーティングシステム(例えばOS202)にはみえない(すなわち認識されない)ように認識される。なぜなら、接触点認識ソフトウェア(例えば、接触点認識部208)は、スクリーン上に3つ以上の接触点が存在するとき、オペレーティングシステム(例えば、OS202)によって提供されないためである。
注目すべきは、ほとんどのユーザは、タッチスクリーンのスキャンレートの範囲内において、タッチスクリーン面状に3本以上の指を常に置いていない可能性があることである。例示的な操作において、「グラブ」ジェスチャは、2つのスクリーン(すなわち、面104及び106)の一つのアクティブなウィンドウを素早く移動するために用いられても良い。「グラブ」ジェスチャが認識された後、ユーザは一本の指を除いて全ての指を表面から持ち上げてもよい。そして、動作を起こすため、上、下、左又は右どちらかに動かしても良い。
例えば、上への動作が、ウィンドウをB面104へと移動しても良い。下への動作が、ウィンドウをC面106へと移動しても良い。そして左への動作又は右への動作により、現在の面の上にあるウィンドウと、反対の面のウィンドウの循環移動を開始しても良い(例えば、方向に依存して、最初に現在のスクリーンでフルスクリーンウィンドウのサイズが変わり、次に現在のスクリーンの左/右半分、次に反対の面の右/左半分、次に反対の面のフルスクリーン、次に反対の面の左/右半分、次に最初の面の右/左半分、次にウィンドウの元の配置)。最後のアクションによりユーザは、ウィンドウの端やハンドルを掴むための正確なタッチをすることなく、2つのディスプレイ領域において共通した位置に素早くウィンドウを移動することできる。
図5は、仮想キーボード108及びタクタイルエイドを備えるデバイス102を表す。既に説明したように、「ツーハンズダウン」ジェスチャは、C面106上の仮想キーボード108を起動するために使用されることができる。仮想キーボード108は、電力を抑えるため、あるいはユーザによって追加のスクリーン空間が望まれるとき、隠されても良い。既に説明し、さらに以下で説明するように、ジェスチャと方法は、ユーザが隠れた仮想キーボード108を本能的に復元でき、タイピングを快適にするため仮想キーボード108を動的にセットし、仮想キーボード108をより便利にするためにスクリーン上のほかのウィンドウを管理できるよう、提供される。
ウィンドウ管理は必須である可能性がある。なぜならば、仮想キーボード108が復元されたとき、仮想キーボード108が表示されていた場所に以前表示されていたコンテンツは覆い隠されるためである。物理的補助器具又はタクタイルエイドは、タッチタイピストが、仮想キーボード108を見ることなくキーの位置をみつけるのを支援するため、デバイス102上に設置されても良い。物理的補助器具は、ユーザの手の位置に関して触覚的なフィードバックを与え、タイピング中にキーボードに視線を落とす必要性を減らすために「筋肉の記憶」を利用する。
既に説明し、かつ後に詳しく説明するように、次のようなコンセプトが実装されてもよい。既に説明したタッチジェスチャは、ユーザが希望するタッチスクリーン面上の場所に動的にキーボードをセットするためのロジックを含む仮想キーボード108を隠し、かつ、復元するために用いられても良い。物理的補助器具又はタクタイルエイドは、タッチスクリーンに対するユーザの手の位置のフィードバックをユーザに与えるため、ラップトップのより低層面の工業上又は物理的な設計に含まれても良い。より低い面上に仮想キーボードが復元されたとき、ユーザがタイピング入力をどこにしているのかわかるように、移動しなければ隠されてしまうウィンドウ又はアプリケーションを動的に移動するロジックが提供されても良い。
既に説明したように、「ツーハンズダウン」ジェスチャは、仮想キーボード108を起動して呼び出すために用いられても良い。「ツーハンズダウン」ジェスチャが起動した後、仮想キーボード108が、C面106上に表示される。いくつかの実装において、C面106上に表示される仮想キーボード106は、スクリーン又はC面106の幅を埋める。しかし、全スクリーン(C面106)は占有しない。これにより、ユーザの望む通りに、キーボードはC面106上で上方向500及び下方向502へ移動できる。
例えば、キーボード又は「ツーハンズダウン」ジェスチャが検出されたとき、仮想キーボード108は、2つの手の中指(他の実装においては、人差し指が検出される)の下に置かれたホーム列(すなわち、「F」と「H」を有する列)と共に、C面106上に垂直に配置されても良い。仮想キーボード108が最初に表示されたとき、無効化されていてもよい。なぜならば、キーボードの停止時間が存在する可能性があるからである。したがって、その時にスクリーン又はC面106に触れることがあっても、キーストロークはタイプされない。
仮想キーボード108の位置がセットされ、ユーザはタイピングを開始することができる。仮想キーボード108を隠すため、「スウィープ」ジェスチャのようなジェスチャが実装されても良い。他の実装においては、もしユーザが定義したタイムアウトの時間にスクリーン上でタッチがされない場合、仮想キーボード108は自動的に隠れても良い。
タッチスクリーンは滑らかであるため、ユーザは、触覚によるフィードバックを得られない。タッチタイピングで利用される触角によるフィードバックは、キーを見ることなくキーをタイプすることを助けるため、物理キーボードによって提供される。ユーザがスクリーン上で自分の指が水平にどこにあるかを見つけるのを助けるため、タクタイルエイド又は物理的支援機器はデバイスのカバー(例えば、ノートブック又はラップトップコンピュータの前端)に設置されても良い。タクタイルエイド又は物理的支援機器は、ユーザの手首/手のひらがデバイス102のC面106に沿ったどの場所にあるか、ユーザフィードバックを与える。
例示的なタクタイルエイドは、左端インジケータ504−A、左バンプ#1インジケータ504−B、左バンプ#2インジケータ504−C、中央隆起インジケータ504−D、右バンプ#1インジケータ504−E、右バンプ#2インジケータ504−F及び右端インジケータ504−Gを含む。デバイス102の前端の図が506によって示されている。
仮想キーボード108のハンドプレースメント(タクタイルエイド)又はインジケータ504は、デバイス102のケースの前端506に沿って高くなった構造を提供してもよい。その場所は、仮想キーボード108上でユーザがタイプするとき、手首又は手のひらを普段は休ませる場所である。高くなった構造は、ユーザが感じる程度に十分高くあるべきであるが、バンプがユーザを不快にするほど高くあるべきではない。
例示的なインジケータの高さは、1/32インチから3/31インチの範囲内であってもよい。インジケータ504は、もしユーザが手首又は手のひらをデバイス102の前端に置いたとき、ユーザが少なくともインジケータの一つを常に感じることができるよう、設置されても良い。それらのインジケータ505を用いて、ユーザは、デバイスの前端に沿って手の位置についてフィードバックを常に得ることができる。仮想キーボード108の自動垂直配置(後述する)と併用されるとき、インジケータ504によって、ユーザは、快適にタイプするために手をどこに置く必要があるか感じることができる。
ユーザがデバイス102をしばしば使用するとき、ユーザは手首/手のひらでインジケータ504を感じることができ、インジケータ504と相対的に指の位置をマップすることができる。いずれ、ユーザは、タイピングを確認するためにキーボードを見る必要性が減り、キーに関する指の位置を筋肉の記憶を頼ることができる。
図6は、仮想キーボード108の実装による予想される予想のウィンドウ配置を表している。例えば、例示的なデュアルスクリーンデバイス(例えば、デバイス102)は、複数のウィンドウ/アプリケーション及び一つの仮想キーボードを呼び出す。B面104及びC面106は、ある構成600の表示から始まってある構成602の表示になる。
構成600において、アプリケーション又はウィンドウ「2」606及び「3」608がB面104上に表示されており、ウィンドウ「1」及び「4」がC面106上に表示されている。構成602において、仮想キーボード108は、C面106上に呼び出されて起動され、ウィンドウ「1」604、「2」606、「3」608及び「4」610はB面104へと移動されている。
仮想キーボード108がC面106上に表示されるとき、スクリーン全体を覆うので、スクリーンはアプリケーションウィンドウを閲覧するためにはもはや使用できない。さらに重要なことには、もしウィンドウ「1」604又はウィンドウ「4」610のような、仮想キーボード108の入力のためのアクティブなアプリケーション(ウィンドウ)が存在すると、ユーザはもはやタイプした通りのキーストロークの表示から文字列を理解することができない。
これを予期して、仮想キーボード108が表示されたとき、ユーザが見ることができるよう、C面のウィンドウはB面スクリーンへと移動される。このウィンドウの移動によって、あるウィンドウが他のウィンドウに対して相対的に可視となる、ディスプレイの順序又はZオーダー(Z-order)は変わらない。この例では、ウィンドウ604、606、608及び610はそれらの表示順序又はZオーダーに従って番号が付されている。もし全てのウィンドウが同一の左上座標に位置していたとき、ウィンドウ「1」604が一番上となり、ウィンドウ「2」606がウィンドウ「1」604の下になり、ウィンドウ「3」308がウィンドウ「2」の下になり、ウィンドウ「4」610が一番下になる。
この例では、構成600において、アクティブなアプリケーションウィンドウは、ウィンドウ「1」60である。このウィンドウは、キーボード入力を受けつけるウィンドウとなる。仮想キーボードが有効化(構成602)されたとき、ウィンドウ「1」604及びウィンドウ「4」610は、B面106のスクリーン上で同一の相対座標へと移動される。いくつかのオペレーティングシステムは、アプリケーションを終了することなくスクリーン空間を使えるようにするためのアプリケーションウィンドウの「最小化」と、ウィンドウをその前の状態へと復元させる機能をサポートしていることも注意すべきである。
この例では、もしウィンドウ「4」610が、仮想キーボード108が有効化される前に最小化され、次に仮想キーボード108が有効になっている間に復元されたとき、ウィンドウ「4」610はキーボードによって隠される。この方法は、そのような状況に対処するものである。もし、C面106上のウィンドウが最小化され、続いて仮想キーボード108が有効化され、ユーザが仮想キーボードが有効である間にウィンドウをアクティブにしたとき、そのウィンドウはB面104に復元される。
構成602は、移動後のウィンドウの位置を表している。ウィンドウ「4」610は、ウィンドウ「3」608によって隠されているため、もはや見ることができない。ウィンドウ「1」604は、アクティブなウィンドウであるため、現在ウィンドウ「2」606の上にある。仮想キーボード108が隠されたとき、全ての移動されたウィンドウは、それらの元のスクリーン(すなわち、構成600)へ戻る。もしウィンドウ(例えば、ウィンドウ「1」604及び「4」610)が、B面104上で移動されていたとき、それらはC面106上で同じ相対位置へ移動される。
図7は、仮想キーボードを呼び出し、ウィンドウの位置を決めるための例示的な処理700についてのフローチャートである。処理700は、デバイス102によって実行される実行可能な命令として実装されても良い。手法が示された順序は、制限事項として解釈されることを意図したものではない。示された手法のブロックのいかなる番号も、その手法又は代替の手法を実装するために組み合わせることができる。さらに、個々のブロックは、ここに示された主題の趣旨及び範囲を逸脱せずに、本手法から削除されても良い。さらには、本手法は、本発明の範囲から逸脱せずに、いかなる適切なハードウェア、ソフトウェア、ファームウェア又は組み合わせにおいても実装されてもよい。
手のジェスチャが検出されたかどうかについて、判定が行われる。もし手のジェスチャが検出されなければ、ブロック702の「NO」の分岐にしたがって、手のジェスチャが検出されるまで判定が行われる。もし手のジェスチャが検出されると、ブロック702の「YES」の分岐にしたがって、次にブロック704が実行される。
ブロック704において、指の位置についての計算が行われる。この例では、指は中指である。しかし、他の指(すなわち、人差し指)が使われても良い。具体的には、中指の「Y」位置が検出される。
第二の手のジェスチャが検出されると、判定が行われる。もし第二の手のジェスチャが検出されると、ブロック7の「YES」の分岐にしたがって、ブロック708が実行される。
ブロック708において、第一の手のジェスチャの指のY位置と第二の手のジェスチャの指のY位置との平均値が求められる。
第二の手のジェスチャが認識されなければ、ブロック706の「NO」の分岐にしたがって、あるいはブロック708の実行の後、ブロック710が実行される。
ブロック710において、一つの手のジェスチャ又は二つの手のジェスチャのY位置の平均のいずれかのY位置に、ホーム列(すなわち、「J」及び「K」を含む列)とともに無効化された仮想キーボード(例えば、仮想キーボード108)が表示される。
ブロック712において、仮想キーボードが起動される(呼び出される)とき、一つの面上、言い換えればC面上で動作しているウィンドウ又はアプリケーションは、他の面、言い換えればB面へと移動させられる。
もしユーザの手がスクリーンから離れると、判定が行われる。もし手がスクリーンから離れていないと判定されると、ブロック714の「NO」の分岐にしたがって、ブロック704が実行される。もし手がスクリーンから離れていると判定されると、ブロック714の「YES」の分岐にしたがって、ブロック716が実行される。
ブロック716において、仮想キーボード(例えば仮想キーボード108)の有効化が実行され、仮想キーボードへのタッチとキーストロークが可能になり、受け入れられる。
規定のタイムアウト期間の経過後にユーザがスクリーンから手を離したかどうか、もしくは、スリープに入るか仮想キーボードを無効化させるキーボードジェスチャ(例えば、「スウィープ」ジェスチャ)が実行されたかどうかについて、判定がなされる。もしそのようなタイムアウト又はジェスチャが判定されなかったとき、ブロック718の「NO」の分岐にしたがって、ブロック716が実行され続ける。もしそのような判定がなされれば、ブロック716の「YES」の分岐にしたがって、ブロック720が実行される。
ブロック720において、「リターンリスト」に基づいて全てのウィンドウとアプリケーションの配置又は移動が実行される。具体的には、仮想キーボードが起動され(呼び出され)るより前にC面にあったウィンドウ又はアプリケーションは、C面の前の位置へと戻される。
ここで提示された図及び他のフロー図に関しては例示された方法の詳細が示されているが、環境次第で、図に表されたいくつかの振る舞いは説明された順に実行される必要はなく、かつ、修正されてもよく、かつ/又は丸ごと除外されてもよいことが理解されるべきである。
このアプリケーションにおいて説明されたように、モジュール及びエンジンは、ソフトウェア、ハードウェア、ファームウェア又はそれらの組み合わせを用いて実装されても良い。さらに、説明された振る舞い及び方法は、一つ以上のコンピュータが読み取り可能なストレージメディア(CRSM)を含むメモリに保存された命令に基づいて、コンピュータ、プロセッサ又は他のコンピューティングデバイスによって実装されても良い。
前記CRSMは、保管された命令を実装するためのコンピューティングデバイスによってもアクセス可能な、いかなる利用可能な物理メディアであってもよい。CRSMは、RAM(Random Access Memory)、ROM(Read-Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、フラッシュメモリ又は他のソリッドステートメモリ技術、CD−ROM(Compact Disk Read-Only Memory)、DVD(Digital Versatile Disks)又は他の光ディスクストレージ、磁気ディスクストレージ又は他の時期ストレージデバイス又は希望する情報を記録でき、コンピューティングデバイスによってアクセス可能な他のいかなる媒体を含んでよい。
102 デュアルスクリーンタッチパネルデバイス
104 B面
106 C面
108 仮想キーボード
200 プロセッサ
202 オペレーティングシステム
204 メモリ
206 タッチスクリーンハードウェア
208 タッチパネルファームウェア
210 接触点認識部
212 ジェスチャ認識部
216 ダイバータロジック
222 オペレーティングシステムヒューマンインターフェースドライバ
226 アプリケーションレイヤ

Claims (20)

  1. オペレーティングシステムに依存しないジェスチャのための、デュアルスクリーンによって実装される方法であって:
    前記デュアルスクリーンデバイスの一つのスクリーンにおいて接触点を検出する接触点検出ステップ;
    オペレーティングシステムに依存しないジェスチャの存在を決定するジェスチャ決定ステップ;及び
    前記オペレーティングシステムに依存しないジェスチャに関連する動作を起動するジェスチャ起動ステップ;
    を有する方法。
  2. 請求項1に記載の方法であって、
    前記ジェスチャ決定ステップは、指に基づくタッチと形状に基づくタッチとを区別する
    方法。
  3. 請求項1に記載の方法であって、
    前記オペレーティングシステムに依存しないジェスチャの存在を決定する前記ジェスチャ決定ステップは、前記ジェスチャが認識されたことをユーザに表示するユーザ表示ステップを含む
    方法。
  4. 請求項3に記載の方法であって、
    前記ジェスチャが認識されたことをユーザに表示する前記ユーザ表示ステップは、前記デュアルスクリーンデバイスの前記一つのスクリーン上に仮想キーボードを起動し設置する
    方法。
  5. 請求項1に記載の方法であって、さらに、
    前記一つのスクリーンに現れる仮想キーボードを起動する仮想キーボード起動ステップ
    を有する方法。
  6. 請求項5に記載の方法であって、さらに、
    前記仮想キーボードが現れたとき、前記一つ目のスクリーンに存在しているアプリケーションを、前記デュアルスクリーンデバイスの二つ目のスクリーンに配置するアプリケーション配置ステップ
    を有する方法。
  7. 請求項1に記載の方法であって、さらに、
    異なるユーザに定義されたオペレーティングシステムに依存しないジェスチャを提供するジェスチャ提供ステップ
    を有する方法。
  8. デュアルスクリーンデバイスであって:
    一つ以上のプロセッサ;
    前記プロセッサと連結しているメモリ;
    前記デュアルスクリーンデバイスの一つのスクリーンにおけるタッチ及び形状の情報を特定する接触点認識部;及び
    前記タッチと形状の情報を処理し、かつ、特定の形状を特定し、かつ、前記特定の形状をあるオペレーティングシステムに依存しないジェスチャへ関連付けるジェスチャ認識部;
    を有するデュアルスクリーンデバイス。
  9. 請求項8に記載のデュアルスクリーンデバイスであって、
    前記接触点認識部及び前記ジェスチャ及び前記ジェスチャ認識部は、カスタマイズされたオペレーティングシステムに依存しないジェスチャを提供するジェスチャエンジンの一部である
    デュアルスクリーンデバイス。
  10. 請求項8に記載のデュアルスクリーンデバイスであって、
    前記ジェスチャ認識部が仮想キーボードと関連付けられたジェスチャを認識したとき、前記仮想キーボードが起動する
    デュアルスクリーンデバイス。
  11. 請求項10に記載のデュアルスクリーンデバイスであって、
    一つ以上のウィンドウが、前記仮想キーボードが現れた第一のスクリーンから前記デュアルスクリーンデバイスの第二のスクリーンへと移動される
    デュアルスクリーンデバイス。
  12. 請求項10に記載のデュアルスクリーンデバイスであって、
    認識された前記ジェスチャに基づいて前記仮想キーボードが前記デュアルスクリーンデバイスの第一のスクリーン上の中心に置かれる
    デュアルスクリーンデバイス。
  13. 請求項10に記載のデュアルスクリーンデバイスであって、さらに
    前記デュアルスクリーンデバイスの物理的なケースにタクタイルエイドが設けられている
    デュアルスクリーンデバイス。
  14. 請求項13に記載のデュアルスクリーンデバイスであって、
    前記タクタイルエイドは、前記デュアルスクリーンデバイスの前端に一つ以上の左端インジケータ、左バンプインジケータ、中央隆起インジケータ、右バンプインジケータ及び右端インジケータを含む
    デュアルスクリーンデバイス。
  15. 請求項10に記載のデュアルスクリーンデバイスであって、さらに
    オペレーティングシステムが制御するタッチの情報をオペレーティングシステムへ送信するダイバータロジックを有する
    デュアルスクリーンデバイス。
  16. デュアルスクリーンデバイスにおいて仮想キーボードを起動し、ウィンドウを移動する方法であって:
    複数の点及び形状に基づくジェスチャから前記仮想キーボードが関連付けられるキーボードに基づくジェスチャを特定するキーボードジェスチャ特定ステップ;
    前記ウィンドウを前記デュアルスクリーンデバイスの第一のスクリーンから第二のスクリーンへ移動するウィンドウ移動ステップ;
    前記第一のスクリーン上で前記仮想キーボードを起動するキーボード起動ステップ;及び
    前記キーボードに基づくジェスチャに関するタッチの位置に基づいて仮想キーボードをセンタリングするキーボード配置ステップ
    を有する方法。
  17. 請求項16に記載の方法であって、
    前記キーボードジェスチャ特定ステップは、前記第一のスクリーン上でツーハンズダウンのジェスチャに基づく
    方法。
  18. 請求項16に記載の方法であって、
    前記ウィンドウ移動ステップは、前記第一のスクリーンに前記ウィンドウを再表示することを含み、前記仮想キーボードが非活性化されたとき、互いにウィンドウのZオーダーに基づいてウィンドウが移動され再表示されるウィンドウ再表示ステップ
    を有する方法。
  19. 請求項16に記載の方法であって、前記キーボード配置ステップは、指の位置と前記仮想キーボードのホーム列に基づいてセンタリングする
    方法。
  20. 請求項16に記載の方法であって、さらに、
    一つ以上の、ツーハンズダウン、スリーフィンガータップ、スウィープ及びグラブの、形状に基づくジェスチャを認識し、区別する
    方法。
JP2011115560A 2010-05-25 2011-05-24 デュアルスクリーン上のユーザジェスチャのための方法及びデュアルスクリーンデバイス Active JP5730667B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/800,869 US20110296333A1 (en) 2010-05-25 2010-05-25 User interaction gestures with virtual keyboard
US12/800,869 2010-05-25

Publications (2)

Publication Number Publication Date
JP2011248888A true JP2011248888A (ja) 2011-12-08
JP5730667B2 JP5730667B2 (ja) 2015-06-10

Family

ID=45004635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011115560A Active JP5730667B2 (ja) 2010-05-25 2011-05-24 デュアルスクリーン上のユーザジェスチャのための方法及びデュアルスクリーンデバイス

Country Status (5)

Country Link
US (1) US20110296333A1 (ja)
EP (1) EP2577425A4 (ja)
JP (1) JP5730667B2 (ja)
CN (1) CN102262504B (ja)
WO (1) WO2011149622A2 (ja)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013025797A (ja) * 2011-07-25 2013-02-04 Trendon Touch Technology Corp ジェスチャー認識方法及び当該方法を実現するタッチシステム
JP2013186540A (ja) * 2012-03-06 2013-09-19 Sony Corp 情報処理装置及び情報処理方法
JP2015181020A (ja) * 2015-05-12 2015-10-15 京セラ株式会社 電子機器
JP2016530582A (ja) * 2013-05-03 2016-09-29 サイトリックス システムズ,インコーポレイテッド コンテキストによるモバイルデバイスのロック
US9858428B2 (en) 2012-10-16 2018-01-02 Citrix Systems, Inc. Controlling mobile device access to secure data
US9948657B2 (en) 2013-03-29 2018-04-17 Citrix Systems, Inc. Providing an enterprise application store
US9971585B2 (en) 2012-10-16 2018-05-15 Citrix Systems, Inc. Wrapping unmanaged applications on a mobile device
US9973489B2 (en) 2012-10-15 2018-05-15 Citrix Systems, Inc. Providing virtualized private network tunnels
US9985850B2 (en) 2013-03-29 2018-05-29 Citrix Systems, Inc. Providing mobile device management functionalities
US10044757B2 (en) 2011-10-11 2018-08-07 Citrix Systems, Inc. Secure execution of enterprise applications on mobile devices
US10097584B2 (en) 2013-03-29 2018-10-09 Citrix Systems, Inc. Providing a managed browser
US10284627B2 (en) 2013-03-29 2019-05-07 Citrix Systems, Inc. Data management for an application with multiple operation modes
JP2019101876A (ja) * 2017-12-05 2019-06-24 アルプスアルパイン株式会社 入力装置、入力制御装置、操作対象機器、およびプログラム
US10476885B2 (en) 2013-03-29 2019-11-12 Citrix Systems, Inc. Application with multiple operation modes
JP2020510263A (ja) * 2017-03-29 2020-04-02 アップル インコーポレイテッドApple Inc. 統合インタフェースシステムを備えたデバイス
US10908896B2 (en) 2012-10-16 2021-02-02 Citrix Systems, Inc. Application wrapping for application management framework
US11133572B2 (en) 2018-08-30 2021-09-28 Apple Inc. Electronic device with segmented housing having molded splits
US11175769B2 (en) 2018-08-16 2021-11-16 Apple Inc. Electronic device with glass enclosure
US11189909B2 (en) 2018-08-30 2021-11-30 Apple Inc. Housing and antenna architecture for mobile device
US11258163B2 (en) 2018-08-30 2022-02-22 Apple Inc. Housing and antenna architecture for mobile device
US11379010B2 (en) 2018-08-30 2022-07-05 Apple Inc. Electronic device housing with integrated antenna
US11550369B2 (en) 2017-09-29 2023-01-10 Apple Inc. Multi-part device enclosure
US11678445B2 (en) 2017-01-25 2023-06-13 Apple Inc. Spatial composites
US11812842B2 (en) 2019-04-17 2023-11-14 Apple Inc. Enclosure for a wirelessly locatable tag
US12009576B2 (en) 2019-12-03 2024-06-11 Apple Inc. Handheld electronic device
US12067177B2 (en) 2018-05-25 2024-08-20 Apple Inc. Portable computer with dynamic display interface
US12193839B2 (en) 2020-05-13 2025-01-14 Apple Inc. Wearable electronic device with glass shell

Families Citing this family (91)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8698751B2 (en) 2010-10-01 2014-04-15 Z124 Gravity drop rules and keyboard display on a multiple screen device
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
US8698845B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface with interactive popup views
US9513801B2 (en) 2010-04-07 2016-12-06 Apple Inc. Accessing electronic notifications and settings icons with gestures
US20110252357A1 (en) 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Concurrently Open Software Applications
US8502856B2 (en) 2010-04-07 2013-08-06 Apple Inc. In conference display adjustments
US9823831B2 (en) 2010-04-07 2017-11-21 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9483175B2 (en) * 2010-07-26 2016-11-01 Apple Inc. Device, method, and graphical user interface for navigating through a hierarchy
US9465457B2 (en) 2010-08-30 2016-10-11 Vmware, Inc. Multi-touch interface gestures for keyboard and/or mouse inputs
US8749484B2 (en) 2010-10-01 2014-06-10 Z124 Multi-screen user interface with orientation based control
US9104308B2 (en) * 2010-12-17 2015-08-11 The Hong Kong University Of Science And Technology Multi-touch finger registration and its applications
US9244606B2 (en) 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
KR101718893B1 (ko) 2010-12-24 2017-04-05 삼성전자주식회사 터치 인터페이스 제공 방법 및 장치
KR101861593B1 (ko) * 2011-03-15 2018-05-28 삼성전자주식회사 휴대용 단말기를 조작하기 위한 장치 및 방법
US9176608B1 (en) 2011-06-27 2015-11-03 Amazon Technologies, Inc. Camera based sensor for motion detection
RU2455676C2 (ru) * 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
US8806369B2 (en) 2011-08-26 2014-08-12 Apple Inc. Device, method, and graphical user interface for managing and interacting with concurrently open software applications
US8878794B2 (en) 2011-09-27 2014-11-04 Z124 State of screen info: easel
US9594504B2 (en) * 2011-11-08 2017-03-14 Microsoft Technology Licensing, Llc User interface indirect interaction
US9645733B2 (en) 2011-12-06 2017-05-09 Google Inc. Mechanism for switching between document viewing windows
US9207852B1 (en) * 2011-12-20 2015-12-08 Amazon Technologies, Inc. Input mechanisms for electronic devices
DE112013002409T5 (de) 2012-05-09 2015-02-26 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzerkontakt
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
JP6002836B2 (ja) 2012-05-09 2016-10-05 アップル インコーポレイテッド ジェスチャに応答して表示状態間を遷移するためのデバイス、方法、及びグラフィカルユーザインタフェース
EP2847658B1 (en) 2012-05-09 2017-06-21 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
EP3096218B1 (en) 2012-05-09 2018-12-26 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
CN104471521B (zh) 2012-05-09 2018-10-23 苹果公司 用于针对改变用户界面对象的激活状态来提供反馈的设备、方法和图形用户界面
DE112013002381T5 (de) 2012-05-09 2015-02-26 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US9684398B1 (en) * 2012-08-06 2017-06-20 Google Inc. Executing a default action on a touchscreen device
US9874977B1 (en) * 2012-08-07 2018-01-23 Amazon Technologies, Inc. Gesture based virtual devices
US9696879B2 (en) 2012-09-07 2017-07-04 Google Inc. Tab scrubbing using navigation gestures
US20140078134A1 (en) * 2012-09-18 2014-03-20 Ixonos Oyj Method for determining three-dimensional visual effect on information element using apparatus with touch sensitive display
KR102083918B1 (ko) * 2012-10-10 2020-03-04 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
KR101984683B1 (ko) * 2012-10-10 2019-05-31 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
US8884906B2 (en) 2012-12-21 2014-11-11 Intel Corporation Offloading touch processing to a graphics processor
US20140189571A1 (en) * 2012-12-28 2014-07-03 Nec Casio Mobile Communications, Ltd. Display control device, display control method, and recording medium
KR20170081744A (ko) 2012-12-29 2017-07-12 애플 인크. 다중 접촉 제스처에 대한 촉각적 출력의 발생을 보류하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
EP2939095B1 (en) 2012-12-29 2018-10-03 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
EP3435220B1 (en) 2012-12-29 2020-09-16 Apple Inc. Device, method and graphical user interface for transitioning between touch input to display output relationships
JP6097843B2 (ja) 2012-12-29 2017-03-15 アップル インコーポレイテッド コンテンツをスクロールするか選択するかを判定するためのデバイス、方法、及びグラフィカルユーザインタフェース
EP3467634B1 (en) 2012-12-29 2020-09-23 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
KR20140087473A (ko) * 2012-12-31 2014-07-09 엘지전자 주식회사 두 개 이상의 화면을 처리하는 영상 처리 장치 및 방법
US20140208274A1 (en) * 2013-01-18 2014-07-24 Microsoft Corporation Controlling a computing-based device using hand gestures
US9477404B2 (en) 2013-03-15 2016-10-25 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9658740B2 (en) 2013-03-15 2017-05-23 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
KR102166330B1 (ko) 2013-08-23 2020-10-15 삼성메디슨 주식회사 의료 진단 장치의 사용자 인터페이스 제공 방법 및 장치
US9933880B2 (en) * 2014-03-17 2018-04-03 Tactual Labs Co. Orthogonal signaling touch user, hand and object discrimination systems and methods
KR102265143B1 (ko) * 2014-05-16 2021-06-15 삼성전자주식회사 입력 처리 장치 및 방법
JP6328797B2 (ja) 2014-05-30 2018-05-23 アップル インコーポレイテッド 1つのデバイスの使用から別のデバイスの使用への移行
US10261674B2 (en) * 2014-09-05 2019-04-16 Microsoft Technology Licensing, Llc Display-efficient text entry and editing
US9483080B2 (en) 2014-09-26 2016-11-01 Intel Corporation Electronic device with convertible touchscreen
USD772862S1 (en) 2014-12-26 2016-11-29 Intel Corporation Electronic device with convertible touchscreen
US10481696B2 (en) * 2015-03-03 2019-11-19 Nvidia Corporation Radar based user interface
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10379737B2 (en) 2015-10-19 2019-08-13 Apple Inc. Devices, methods, and graphical user interfaces for keyboard interface functionalities
CN105426099A (zh) * 2015-10-30 2016-03-23 努比亚技术有限公司 输入装置及方法
US10963159B2 (en) * 2016-01-26 2021-03-30 Lenovo (Singapore) Pte. Ltd. Virtual interface offset
US10637986B2 (en) 2016-06-10 2020-04-28 Apple Inc. Displaying and updating a set of application views
KR102587138B1 (ko) * 2016-10-17 2023-10-11 삼성전자주식회사 전자 장치 및 전자 장치에서의 디스플레이 제어 방법
US11061559B2 (en) 2016-10-25 2021-07-13 Hewlett-Packard Development Company, L.P. Controlling user interfaces for electronic devices
CN107037956A (zh) * 2016-11-01 2017-08-11 华为机器有限公司 一种终端及其切换应用的方法
CN107037949B (zh) * 2017-03-29 2020-11-27 北京小米移动软件有限公司 一种分屏显示方法及装置
CN107145191A (zh) * 2017-04-01 2017-09-08 廖华勇 核心按键区域能另外命名的笔记本电脑键盘
US12242707B2 (en) 2017-05-15 2025-03-04 Apple Inc. Displaying and moving application views on a display of an electronic device
DE102017119125A1 (de) * 2017-08-22 2019-02-28 Roccat GmbH Vorrichtung und Verfahren zur Erzeugung bewegter Lichteffekte
KR102456456B1 (ko) * 2017-10-17 2022-10-19 삼성전자주식회사 복수 개의 디스플레이를 가지는 전자 장치 및 제어 방법
US10782872B2 (en) 2018-07-27 2020-09-22 Asustek Computer Inc. Electronic device with touch processing unit
TWI742366B (zh) * 2018-07-27 2021-10-11 華碩電腦股份有限公司 電子裝置
US11331006B2 (en) 2019-03-05 2022-05-17 Physmodo, Inc. System and method for human motion detection and tracking
US11103748B1 (en) 2019-03-05 2021-08-31 Physmodo, Inc. System and method for human motion detection and tracking
US11016643B2 (en) 2019-04-15 2021-05-25 Apple Inc. Movement of user interface object with user-specified content
WO2022051033A1 (en) * 2020-09-02 2022-03-10 Sterling Labs Llc Mapping a computer-generated trackpad to a content manipulation region
CN114690889A (zh) * 2020-12-30 2022-07-01 华为技术有限公司 一种虚拟键盘的处理方法以及相关设备
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US11822761B2 (en) 2021-05-15 2023-11-21 Apple Inc. Shared-content session user interfaces
US12449961B2 (en) 2021-05-18 2025-10-21 Apple Inc. Adaptive video conference user interfaces
CN113791699B (zh) * 2021-09-17 2025-08-22 联想(北京)有限公司 一种电子设备操纵方法以及电子设备
CN114115552B (zh) * 2021-10-29 2024-11-26 珠海读书郎软件科技有限公司 一种适用于双屏电话手表的虚拟键盘输入方法
US12405631B2 (en) 2022-06-05 2025-09-02 Apple Inc. Displaying application views

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09330175A (ja) * 1996-06-11 1997-12-22 Hitachi Ltd 情報処理装置及びその操作方法
JPH11272423A (ja) * 1998-03-19 1999-10-08 Ricoh Co Ltd コンピュータ入力装置
JP2000043484A (ja) * 1998-07-30 2000-02-15 Ricoh Co Ltd 電子黒板システム
JP2003308482A (ja) * 2002-02-08 2003-10-31 Microsoft Corp ジェスチャ判定方法及び記録媒体
JP2008140211A (ja) * 2006-12-04 2008-06-19 Matsushita Electric Ind Co Ltd 入力部の制御方法とそれを用いた入力装置および電子機器
JP2008537615A (ja) * 2005-03-04 2008-09-18 アップル インコーポレイテッド 多機能ハンドヘルド装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6057845A (en) * 1997-11-14 2000-05-02 Sensiva, Inc. System, method, and apparatus for generation and recognizing universal commands
US20060033724A1 (en) * 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
US20010050658A1 (en) * 2000-06-12 2001-12-13 Milton Adams System and method for displaying online content in opposing-page magazine format
US20040021681A1 (en) * 2002-07-30 2004-02-05 Liao Chin-Hua Arthur Dual-touch-screen mobile computer
NZ525956A (en) * 2003-05-16 2005-10-28 Deep Video Imaging Ltd Display control system for use with multi-layer displays
KR100593982B1 (ko) * 2003-11-06 2006-06-30 삼성전자주식회사 가상 그래피티를 제공하는 장치 및 방법과 그에 따른기록매체
US20050162402A1 (en) * 2004-01-27 2005-07-28 Watanachote Susornpol J. Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback
US7938721B2 (en) * 2004-03-22 2011-05-10 Nintendo Co., Ltd. Game apparatus, game program, storage medium storing game program and game control method
US7978181B2 (en) * 2006-04-25 2011-07-12 Apple Inc. Keystroke tactility arrangement on a smooth touch surface
US20090027330A1 (en) * 2007-07-26 2009-01-29 Konami Gaming, Incorporated Device for using virtual mouse and gaming machine
WO2009049331A2 (en) * 2007-10-08 2009-04-16 Van Der Westhuizen Willem Mork User interface
CN101526836A (zh) * 2008-03-03 2009-09-09 鸿富锦精密工业(深圳)有限公司 双屏笔记本电脑
US8358277B2 (en) * 2008-03-18 2013-01-22 Microsoft Corporation Virtual keyboard based activation and dismissal
US7924143B2 (en) * 2008-06-09 2011-04-12 Research In Motion Limited System and method for providing tactile feedback to a user of an electronic device
US9864513B2 (en) * 2008-12-26 2018-01-09 Hewlett-Packard Development Company, L.P. Rendering a virtual input device upon detection of a finger movement across a touch-sensitive display

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09330175A (ja) * 1996-06-11 1997-12-22 Hitachi Ltd 情報処理装置及びその操作方法
JPH11272423A (ja) * 1998-03-19 1999-10-08 Ricoh Co Ltd コンピュータ入力装置
JP2000043484A (ja) * 1998-07-30 2000-02-15 Ricoh Co Ltd 電子黒板システム
JP2003308482A (ja) * 2002-02-08 2003-10-31 Microsoft Corp ジェスチャ判定方法及び記録媒体
JP2008537615A (ja) * 2005-03-04 2008-09-18 アップル インコーポレイテッド 多機能ハンドヘルド装置
JP2008140211A (ja) * 2006-12-04 2008-06-19 Matsushita Electric Ind Co Ltd 入力部の制御方法とそれを用いた入力装置および電子機器

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013025797A (ja) * 2011-07-25 2013-02-04 Trendon Touch Technology Corp ジェスチャー認識方法及び当該方法を実現するタッチシステム
US10469534B2 (en) 2011-10-11 2019-11-05 Citrix Systems, Inc. Secure execution of enterprise applications on mobile devices
US10063595B1 (en) 2011-10-11 2018-08-28 Citrix Systems, Inc. Secure execution of enterprise applications on mobile devices
US11134104B2 (en) 2011-10-11 2021-09-28 Citrix Systems, Inc. Secure execution of enterprise applications on mobile devices
US10402546B1 (en) 2011-10-11 2019-09-03 Citrix Systems, Inc. Secure execution of enterprise applications on mobile devices
US10044757B2 (en) 2011-10-11 2018-08-07 Citrix Systems, Inc. Secure execution of enterprise applications on mobile devices
JP2013186540A (ja) * 2012-03-06 2013-09-19 Sony Corp 情報処理装置及び情報処理方法
US9973489B2 (en) 2012-10-15 2018-05-15 Citrix Systems, Inc. Providing virtualized private network tunnels
US9971585B2 (en) 2012-10-16 2018-05-15 Citrix Systems, Inc. Wrapping unmanaged applications on a mobile device
US9858428B2 (en) 2012-10-16 2018-01-02 Citrix Systems, Inc. Controlling mobile device access to secure data
US10545748B2 (en) 2012-10-16 2020-01-28 Citrix Systems, Inc. Wrapping unmanaged applications on a mobile device
US10908896B2 (en) 2012-10-16 2021-02-02 Citrix Systems, Inc. Application wrapping for application management framework
US9985850B2 (en) 2013-03-29 2018-05-29 Citrix Systems, Inc. Providing mobile device management functionalities
US9948657B2 (en) 2013-03-29 2018-04-17 Citrix Systems, Inc. Providing an enterprise application store
US10284627B2 (en) 2013-03-29 2019-05-07 Citrix Systems, Inc. Data management for an application with multiple operation modes
US10097584B2 (en) 2013-03-29 2018-10-09 Citrix Systems, Inc. Providing a managed browser
US10965734B2 (en) 2013-03-29 2021-03-30 Citrix Systems, Inc. Data management for an application with multiple operation modes
US10476885B2 (en) 2013-03-29 2019-11-12 Citrix Systems, Inc. Application with multiple operation modes
US10701082B2 (en) 2013-03-29 2020-06-30 Citrix Systems, Inc. Application with multiple operation modes
JP2016530582A (ja) * 2013-05-03 2016-09-29 サイトリックス システムズ,インコーポレイテッド コンテキストによるモバイルデバイスのロック
JP2015181020A (ja) * 2015-05-12 2015-10-15 京セラ株式会社 電子機器
US11678445B2 (en) 2017-01-25 2023-06-13 Apple Inc. Spatial composites
JP7113841B2 (ja) 2017-03-29 2022-08-05 アップル インコーポレイテッド 統合インタフェースシステムを備えたデバイス
JP2020510263A (ja) * 2017-03-29 2020-04-02 アップル インコーポレイテッドApple Inc. 統合インタフェースシステムを備えたデバイス
US12147605B2 (en) 2017-03-29 2024-11-19 Apple Inc. Device having integrated interface system
US11366523B2 (en) 2017-03-29 2022-06-21 Apple Inc. Device having integrated interface system
US11720176B2 (en) 2017-03-29 2023-08-08 Apple Inc. Device having integrated interface system
US11099649B2 (en) 2017-03-29 2021-08-24 Apple Inc. Device having integrated interface system
US12189439B2 (en) 2017-09-29 2025-01-07 Apple Inc. Multi-part device enclosure
US11550369B2 (en) 2017-09-29 2023-01-10 Apple Inc. Multi-part device enclosure
JP7103782B2 (ja) 2017-12-05 2022-07-20 アルプスアルパイン株式会社 入力装置および入力制御装置
JP2019101876A (ja) * 2017-12-05 2019-06-24 アルプスアルパイン株式会社 入力装置、入力制御装置、操作対象機器、およびプログラム
US12067177B2 (en) 2018-05-25 2024-08-20 Apple Inc. Portable computer with dynamic display interface
US12265670B2 (en) 2018-08-16 2025-04-01 Apple Inc. Electronic device with glass enclosure
US11175769B2 (en) 2018-08-16 2021-11-16 Apple Inc. Electronic device with glass enclosure
US11720149B2 (en) 2018-08-30 2023-08-08 Apple Inc. Electronic device housing with integrated antenna
US11955696B2 (en) 2018-08-30 2024-04-09 Apple Inc. Housing and antenna architecture for mobile device
US11379010B2 (en) 2018-08-30 2022-07-05 Apple Inc. Electronic device housing with integrated antenna
US12142819B2 (en) 2018-08-30 2024-11-12 Apple Inc. Electronic device housing with integrated antenna
US11258163B2 (en) 2018-08-30 2022-02-22 Apple Inc. Housing and antenna architecture for mobile device
US11189909B2 (en) 2018-08-30 2021-11-30 Apple Inc. Housing and antenna architecture for mobile device
US11133572B2 (en) 2018-08-30 2021-09-28 Apple Inc. Electronic device with segmented housing having molded splits
US12407089B2 (en) 2018-08-30 2025-09-02 Apple Inc. Housing and antenna architecture for mobile device
US11812842B2 (en) 2019-04-17 2023-11-14 Apple Inc. Enclosure for a wirelessly locatable tag
US12009576B2 (en) 2019-12-03 2024-06-11 Apple Inc. Handheld electronic device
US12193839B2 (en) 2020-05-13 2025-01-14 Apple Inc. Wearable electronic device with glass shell

Also Published As

Publication number Publication date
WO2011149622A3 (en) 2012-02-16
WO2011149622A2 (en) 2011-12-01
CN102262504B (zh) 2018-02-13
CN102262504A (zh) 2011-11-30
JP5730667B2 (ja) 2015-06-10
EP2577425A4 (en) 2017-08-09
US20110296333A1 (en) 2011-12-01
EP2577425A2 (en) 2013-04-10

Similar Documents

Publication Publication Date Title
JP5730667B2 (ja) デュアルスクリーン上のユーザジェスチャのための方法及びデュアルスクリーンデバイス
US9851809B2 (en) User interface control using a keyboard
US10359932B2 (en) Method and apparatus for providing character input interface
JP6429981B2 (ja) ユーザ入力の意図の分類
US10409490B2 (en) Assisting input from a keyboard
KR101872533B1 (ko) 3 상태 터치 입력 시스템
US8686946B2 (en) Dual-mode input device
US9886108B2 (en) Multi-region touchpad
US9430145B2 (en) Dynamic text input using on and above surface sensing of hands and fingers
CN102375597B (zh) 信息处理装置和信息处理方法
US20090066659A1 (en) Computer system with touch screen and separate display screen
TWI463355B (zh) 多點觸控介面之訊號處理裝置、訊號處理方法及使用者介面圖像選取方法
CN104641324A (zh) 姿势发起的键盘功能
JP2017531372A (ja) キーボード入力の曖昧性除去
CN106796480A (zh) 多手指触摸板手势
CN104025009A (zh) 提供映射到键盘的键盘快捷方式
JP2014016707A (ja) 情報処理装置
US20140298275A1 (en) Method for recognizing input gestures
TWI439922B (zh) 手持式電子裝置及其控制方法
JP6139647B1 (ja) 情報処理装置、入力判定方法、及びプログラム
CN109844710A (zh) 基于连续滑动手势的虚拟键盘键选择
GB2520700A (en) Method and system for text input on a computing device
US20200319711A1 (en) Information processing device, information processing method, and program
JP2012212317A (ja) 手書き入力装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131001

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140128

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140204

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20140404

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150408

R150 Certificate of patent or registration of utility model

Ref document number: 5730667

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250