[go: up one dir, main page]

JP2009527041A - System and method for entering data into a computing system - Google Patents

System and method for entering data into a computing system Download PDF

Info

Publication number
JP2009527041A
JP2009527041A JP2008554905A JP2008554905A JP2009527041A JP 2009527041 A JP2009527041 A JP 2009527041A JP 2008554905 A JP2008554905 A JP 2008554905A JP 2008554905 A JP2008554905 A JP 2008554905A JP 2009527041 A JP2009527041 A JP 2009527041A
Authority
JP
Japan
Prior art keywords
keyboard
user
virtual
hands
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008554905A
Other languages
Japanese (ja)
Inventor
ハレル コーエン,
ギオラ バー−サカイ,
Original Assignee
エフティーケー テクノロジーズ エルティーディー.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エフティーケー テクノロジーズ エルティーディー. filed Critical エフティーケー テクノロジーズ エルティーディー.
Publication of JP2009527041A publication Critical patent/JP2009527041A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/018Input/output arrangements for oriental characters
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

コンピューティングシステムへのデータ入力を可能にするシステム及び方法が提供される。このシステムはイメージ捕捉デバイスに機能的に接続され、かつこのイメージ捕捉デバイスによって収集された取得されたイメージ(複数イメージ)に基づいて、入力キーまたはキーボードレイアウト全体のマップをセットするように構成されるコントローラを含む。このシステムは、選択された視野内のユーザ動作および/またはジェスチャのイメージを収集することができ、かつこれらのイメージを処理してこの動作に従ってコマンドを識別し実行することができる。
【選択図】なし
Systems and methods are provided that allow data entry into a computing system. The system is functionally connected to the image capture device and is configured to set a map of input keys or the entire keyboard layout based on the acquired image (s) collected by the image capture device. Includes controller. The system can collect images of user actions and / or gestures within a selected field of view, and can process these images to identify and execute commands according to the actions.
[Selection figure] None

Description

本開示は、一般にデータ入力デバイスの分野に関する。より詳しくは、本開示は、多言語データ入力を容易にするための方法に、および、多言語データ入力方法を活用するシステムに関する。 The present disclosure relates generally to the field of data input devices. More particularly, the present disclosure relates to a method for facilitating multilingual data entry and to a system that utilizes the multilingual data entry method.

パーソナルコンピュータ(PC)、携帯電話、パームコンピュータ、航空機コンピュータ、などのような電子システムへの情報の入力は、本願明細書において集合的に「キーボード」と称される、キーを備えたデータ入力装置、例えば英数字キーボード、タッチパッドまたはタッチスクリーンを使用し、PCが発明されて以来ずっと大して変わっていない。 A data input device with a key, collectively referred to herein as a “keyboard”, for inputting information into an electronic system such as a personal computer (PC), a mobile phone, a palm computer, an aircraft computer, etc. For example, using an alphanumeric keyboard, touchpad or touch screen, it has not changed much since the PC was invented.

キーボードはテキストおよび(集合的に「シンボル」または「キーラベル」として以下に称される)他のタイプの文字、のようなデータの入力のために、および更に、コンピュータの動作を制御するために設計されているので、ほぼすべてのコンピュータが、ユーザとコンピュータとの間の対話処理の主要な形式としてキーボードを装備している。物理的に、コンピュータキーボードは矩形のまたはほぼ矩形のボタンまたは「キー」の配列である。キーボードは一般的に各キー上に彫られたか、印字されたかまたはさもなければマークされた一つ以上のシンボルを有し、ほとんどの場合、キーの各押圧が、コンピュータに入力されかつ多くの場合コンピュータのディスプレイスクリーン上に表示される、単一のシンボルに対応する。しかしながら、いくつかのシンボルを生成するには、いくつかのキーを、同時にあるいは順番に、押圧して保持する必要がある。他のキーは押圧されると動作を生成することができ、および他の動作が、複数の動作キーを同時に押圧することによって利用可能である。 The keyboard is for the input of data such as text and other types of characters (collectively referred to below as "symbols" or "key labels"), and also for controlling the operation of the computer As designed, almost all computers are equipped with a keyboard as the main form of interaction between the user and the computer. Physically, a computer keyboard is an array of rectangular or nearly rectangular buttons or “keys”. Keyboards typically have one or more symbols carved, printed or otherwise marked on each key, and in most cases each key press is entered into a computer and often Corresponds to a single symbol displayed on a computer display screen. However, to generate several symbols, it is necessary to press and hold several keys simultaneously or sequentially. Other keys can generate actions when pressed, and other actions are available by pressing multiple action keys simultaneously.

多数の異なるキーボードレイアウト(キーの配置およびキー上のシンボルの割付け)が、存在する。異なる人々が異なる組のシンボルを使用する必要がある場合があるので、異なるキーボードレイアウトに対する要求が生じ、一般的に、これは彼らが異なる言語で読み書きするためである。用途に従い、キーボード上のキーの数は、一般に標準の101キーないし104ウィンドウズ(登録商標)キーボードから、いくつかのプログラム可能なキーを備えた130キーまで様々に変化する。90足らずのキーを有する小型の変形もまたあり、それらは通常は、ラップトップにおいて、またはスペースの制約があるデスクトップコンピュータにおいて見られる。大部分の英語コンピュータおよびタイプライターキーボード上で、今日最も一般的なキーボードレイアウトのキーのレイアウトは、文字のキーボードの最上列に見られる最初の6文字にちなんでQWERTY設計と呼ばれている。 There are many different keyboard layouts (key placement and symbol assignment on the keys). Because different people may need to use different sets of symbols, a need for different keyboard layouts arises, typically because they read and write in different languages. Depending on the application, the number of keys on the keyboard typically varies from a standard 101 to 104 Windows keyboard to 130 keys with several programmable keys. There are also small variants with fewer than 90 keys, which are usually found on laptops or on space-constrained desktop computers. On most English computers and typewriter keyboards, the key layout of the most common keyboard layouts today is called the QWERTY design after the first six characters found in the top row of character keyboards.

大部分の情報またはデータは通常は、固定キー機能を備えたキーボードを使用してタイプ入力されるかまたはキー入力される。特にPCに関しては、二重言語キーボードは通常は英語のアルファベットと共にキーボードキー上へマークされる第2言語のアルファベットシンボル、または、ソフトウェア命令によって一般に達成される各キーの二重言語機能間の切換えによって、言語を変更することを可能にする入れ替え可能なレイアウト、を有する。標準のキーボードでは、ユーザは、異なるソフトウェアおよびシステム操作方法によって提供される、異なる言語およびオプションを規定する、各々の押し下げられるキー上に設けられた最高3つのシンボルを通常見ることができる。コンピュータマウスもまた、メニューのようなオプションを選択するために、および、グラフィックコマンド入力のために独立に働くことができる。 Most information or data is typically typed or keyed using a keyboard with fixed key functionality. Particularly with respect to PCs, dual language keyboards are usually second language alphabet symbols that are marked on the keyboard keys along with the English alphabet, or by switching between the dual language functions of each key typically achieved by software instructions. , With a replaceable layout that allows the language to be changed. With a standard keyboard, the user can usually see up to three symbols on each depressed key that define different languages and options provided by different software and system operating methods. A computer mouse can also work independently to select options such as menus and for graphic command entry.

標準のキーボードは、複数の不都合および制約で苦しむ。例えば、標準のキーボードは通常は、例えばシンボルF1ないしF12を備えたファンクションキーを含み、それは別々の命令で規定される機能を隠す。しばしば、ユーザは、これらの隠された機能を学んで記憶しなければならないか、またはルックアップテーブル、「ヘルプ」ディレクトリからもしくは他のソースからそれらの意味を呼び出さなければならない。しかしながら、この種のキーボードはキーの数、したがって、キーファンクションで制限される。通常は、非職業的タイピストは、机の上に配置されるキーボードと通常は机の前により高く配置されるPCモニタスクリーンとの間で彼の視線を頻繁に移動して、タイプ入力動作に従わなければならない。特に二重言語キーボードに関しては、頻繁な目の移動ならびに「Alt+Shift」および「キャプスロック」機能の頻繁な非フィードバック使用は、タイプ入力における誤りにつながる。広範なインターネット使用の出現によって、PCユーザは従来のキーボードを使用するのにますます複雑な入力コマンドを、または各々のキーのより多くの「隠された」機能を記憶する必要がある。 Standard keyboards suffer from several disadvantages and limitations. For example, a standard keyboard typically includes function keys, for example with symbols F1 to F12, which hide functions defined by separate instructions. Often, the user must learn and store these hidden functions, or recall their meaning from a lookup table, a “help” directory, or from other sources. However, this type of keyboard is limited by the number of keys and hence the key function. Typically, a non-professional typist frequently moves his line of sight between a keyboard placed on a desk and a PC monitor screen, usually placed higher in front of the desk, to follow typing actions. There must be. Especially for dual language keyboards, frequent eye movements and frequent non-feedback use of the “Alt + Shift” and “Caps Lock” functions lead to typing errors. With the advent of widespread Internet usage, PC users need to remember increasingly complex input commands to use a conventional keyboard, or more “hidden” functions of each key.

本開示と同じ発明者による、特許文献1は仮想入力環境および可変のキーディスプレイを備えた入力装置の作成のための方法およびシステムを記載している。しかしながら、特許文献1は、仮想キーボードのレイアウトを制御するために、手のジェスチャの使用を教示せず、仮想の手の外観が使用される仮想キーボードのレイアウトに依存することができることも教示していない。加えて、特許文献1は現在の、または将来のコマンドまたはユーザのリクエストを予測するために以前のコマンドを評価しない。 U.S. Patent No. 5,637,086, by the same inventor as the present disclosure, describes a method and system for creating an input device with a virtual input environment and a variable key display. However, Patent Document 1 does not teach the use of hand gestures to control the virtual keyboard layout, but also teaches that the appearance of a virtual hand can depend on the virtual keyboard layout used. Absent. In addition, U.S. Pat. No. 6,057,077 does not evaluate previous commands to predict current or future commands or user requests.

上で述べられたようないくつかの言語、例えば、ロシア語およびヘブライ語に対して、ハードウェアキーボードは一般に英語のアルファベットと共にキーボードキーにエッチングされた第二言語アルファベットシンボルを有する。話し言葉が大きなアルファベットおよび/または多くの文字(例えば50を超える文字)を有する一部の国では、もう一方の言語の文字全てが物理的キーボード上に表示されることができないので、キーボードは一般に英語の文字だけを含む。この状況はしばしば、この種の言語のユーザがこの種の言語でのデータ入力作業を実行することに対して巨大な問題を作り出す。 For some languages, such as those mentioned above, eg Russian and Hebrew, hardware keyboards typically have a second language alphabet symbol etched into the keyboard keys along with the English alphabet. In some countries where the spoken language has a large alphabet and / or many characters (eg, more than 50 characters), the keyboard is generally in English because not all the characters of the other language can be displayed on the physical keyboard Only the characters are included. This situation often creates enormous problems for users of this type of language to perform data entry tasks in this type of language.

この問題が悪化する国の一例はインドであり、それは憲法で規定された文字が22あり、そして10の異なる文字を備えた多言語使用の国である。憲法で規定されたもののうち18のインド言語が、括弧内のそれらの文字と共に次の通りに言及される:ヒンディー語(デバナーガリー文字)、コンカニ語(デバナーガリー文字)、マラーティー語(デバナーガリー文字)、ネパール語(デバナーガリー文字)、サンスクリット語(デバナーガリー文字)、シンド語(デバナーガリー/ウルドゥー文字)、カシミール語(デバナーガリー/ウルドゥー文字)、アッサム語(アッサム文字)、マニプール語(マニプール文字)、ベンガル語(ベンガル文字)、オーリヤ語(オーリヤ文字)、グジャラート語(グジャラート文字)、パンジャブ語(グルムキー文字)、テルグ語(テルグ文字)、カンナダ語(カンナダ文字)、タミル語(タミル文字)、マラーヤラム語(マラーヤラム文字)およびウルドゥー語(ウルドゥー文字)。インドの文字は、一般的に12−15の母音、35−40の子音および2、3の発音区別符号を有する。これの他に、各々の母音に対して、対応する修飾子シンボルがあり、および、各々の子音に対して、(半文字と呼ばれる)対応する純粋な子音形がある。これにより、この種の言語を入力するのに必要なシンボルの全体の組が通常のキーボードが収めることができるものより多くなる。インドでは、例えばキーボードの欠如に対する解決策の提供を試みるために、異なるインド言語ワードプロセッサが各々、英語のキーの後に隠れているインド文字を指示するハードコピー「マップ」と共に配布される。ほぼ50のハードコピーマップが、インド語ワードプロセッサの異なる販売業者の間で入手できるが、しかし、ハードウェアメーカは一般にインド言語レイアウトを備えたキーボードを供給しない。95パーセントを超えるインドの人々は、一般に英語ベースの情報技術に、恩恵を奪われている。
米国特許6,611,253
An example of a country where this problem is exacerbated is India, which is a multilingual country with 22 characters prescribed by the Constitution and 10 different characters. Eighteen Indian languages, as defined by the Constitution, are mentioned with their letters in parentheses as follows: Hindi (devanagari), Konkani (devanagari), Marathi (devanagari), Nepali (devanagari), Sanskrit (devanagari), Sind (devanagari / urdu), Kashmiri (devanagari / urdu), assam (Assam), Manipur (Manipur), Bengali (Bengali) Characters), Oriya (Ouriya), Gujarati (Gujarati), Punjabi (Gurmuky), Telugu (Telugu), Kannada (Kannada), Tamil (Tamil), Malayaram (Malaylam) ) And Urdu (Urdu characters). Indian characters typically have 12-15 vowels, 35-40 consonants and a few diacritics. Besides this, for each vowel there is a corresponding modifier symbol, and for each consonant there is a corresponding pure consonant form (called half-letter). This makes the entire set of symbols required to input this type of language more than what a normal keyboard can accommodate. In India, for example, in order to attempt to provide a solution to the lack of a keyboard, different Indian language word processors are each distributed with a hard copy “map” that points to the Indian characters hidden behind the English keys. Nearly 50 hardcopy maps are available among different vendors of Indian word processors, but hardware manufacturers generally do not supply keyboards with an Indian language layout. More than 95 percent of Indians are generally deprived of English-based information technology.
US Patent 6,611,253

以下の実施態様およびその態様が、システム、ツールおよび方法に関連して図と共に説明され、それは、例示的で例証となることを意味され、有効範囲を限定しない。さまざまな実施態様において、上記の問題の一つ以上が縮小されるかまたは除去されており、一方他の実施態様は他の利点または改良を目的とする。 The following embodiments and aspects thereof are described in conjunction with the figures in connection with systems, tools and methods, which are meant to be exemplary and illustrative and do not limit the scope. In various embodiments, one or more of the above problems have been reduced or eliminated, while other embodiments are directed to other advantages or improvements.

本開示のいくつかの実施態様に従って、コンピューティングシステムにデータを入力するシステム及び方法が、提供される。本願明細書において開示されるシステムは、取得されたイメージと関連する信号に基づいて、入力キー(複数キー)またはキーボードの全体の(または部分的な)レイアウトのマップをセットして、表示するように構成されているコントローラと、このコントローラに機能的に接続されて、かつ取得されたイメージに関する、またはこれと関連する信号をこのコントローラに与えるように構成されるイメージ捕捉デバイスとを含むことができる。このシステムは、一つ以上のジェスチャ、例えばユーザの手、指または他の身体部分によって生成されるかまたは実行されるジェスチャを、収集し、かつ識別する、認識する、または解釈することができ、および、このジェスチャに従ってコマンドを実行することができる。したがって「識別する、認識する、または解釈する」ことによって、特定のコマンドに対して、与えられたジェスチャまたはジェスチャの組合せを(コントローラによって)関連づけて意味される。このシステムは、仮想キーボードおよびユーザの物理的な手の位置(複数位置)および/または動作(複数動作)をシミュレートする仮想の手を、任意選択で即時に表示するモニタまたはディスプレイスクリーンを含むことができる。 In accordance with some embodiments of the present disclosure, systems and methods for entering data into a computing system are provided. The system disclosed herein sets and displays a map of the input keys (multiple keys) or the entire (or partial) layout of the keyboard based on the signals associated with the acquired images. And a controller that is operatively connected to the controller and configured to provide signals to or associated with or associated with the acquired image. . The system can collect and identify, recognize, or interpret one or more gestures, for example, gestures generated or performed by a user's hand, finger or other body part, And a command can be executed according to this gesture. Thus, by “identifying, recognizing or interpreting”, it is meant to relate (by the controller) a given gesture or combination of gestures to a particular command. The system includes a virtual keyboard and a monitor or display screen that optionally displays the virtual hand, optionally simulating the position (multiple positions) and / or movement (multiple movements) of the user's physical hand Can do.

いくつかの実施態様において、仮想キーボード上のキー(複数キー)またはキーラベル(複数ラベル)の意味が、ユーザのコマンドに従って動的にアップデート(変更)される。代わりとして、仮想キーボードのレイアウトの全体または一部だけがユーザのコマンドに従って動的にアップデート(変更)される。例えば、仮想キーボードはユーザの手の位置(複数位置)および/または動作(複数動作)に従って動的にアップデート(変更)される。 In some embodiments, the meaning of keys (multiple keys) or key labels (multiple labels) on the virtual keyboard is dynamically updated (changed) according to user commands. Instead, all or only part of the virtual keyboard layout is dynamically updated (changed) according to user commands. For example, the virtual keyboard is dynamically updated (changed) according to the position (multiple positions) and / or action (multiple actions) of the user's hand.

いくつかの実施態様において、このシステムは、ユーザの以前のコマンド、仮想キーボード上でその後必要とされる予測されたキー(複数キー)および/または仮想キーボードにその後必要とされる予測されたレイアウトに基づいて、評価する、予測する、またはさもなければ判定する、(コントローラが構成される)評価および予測性ソフトウェアアプリケーションを含むことができる。いくつかの実施態様において、手の動作または他のジェスチャがマウスタイプナビゲーションを実行することができる。 In some implementations, the system may provide the user's previous command, the predicted key (s) that are subsequently required on the virtual keyboard, and / or the predicted layout that is subsequently required for the virtual keyboard. An evaluation and predictability software application (configured by the controller) that evaluates, predicts, or otherwise determines based on may be included. In some implementations, hand movements or other gestures can perform mouse type navigation.

本開示の一部として、コンピューティングシステムにデータを入力するための方法が提供される。いくつかの実施態様において、この方法はユーザ身体の、および、物理的キーボードの一部分のイメージ(複数イメージ)を取得するステップと、取得されたイメージ(複数イメージ)に基づいて、キー(複数キー)のマッピングをセットして、表示するステップと、を含むことができる。この方法は、取得されたイメージ(複数イメージ)に関する、またはそれに関連づけられた信号を処理して解釈し、この信号に従って選択されたコマンドおよび/またはシンボルの入力を可能にするステップを更に含むことができる。この方法は更に、イメージ捕捉デバイスのFOV内に配置される物理的キーボードのキーを識別するためにキーボード識別機能を使用するステップと、物理的キーボードに対して手の位置および/または手の動作を測定するために少なくとも一つ、ユーザの手のイメージを処理するステップと、対応するディスプレイスクリーン上の、例えばコンピュータディスプレイ上のまたはコンピュータディスプレイオブジェクト上の、仮想キーボード上に少なくとも一つの手の位置(複数位置)動作(複数動作)を表示するステップと、を含むことができる。 As part of this disclosure, a method is provided for entering data into a computing system. In some embodiments, the method obtains an image (multiple images) of a part of a user's body and a physical keyboard, and a key (multiple keys) based on the obtained image (multiple images). Setting and displaying a mapping of. The method further includes processing and interpreting a signal relating to or associated with the acquired image (s) and allowing input of commands and / or symbols selected according to the signal. it can. The method further includes the step of using a keyboard identification function to identify a physical keyboard key located within the FOV of the image capture device, and the hand position and / or hand movement relative to the physical keyboard. Processing at least one image of the user's hand for measurement and the position (s) of the at least one hand on a virtual keyboard on a corresponding display screen, for example on a computer display or on a computer display object. Position) motion (multiple motions) displaying.

いくつかの実施態様において、この方法は処理されたイメージに応答して仮想キーボード上のキーラベルを動的にアップデートするステップ、および/または処理されたイメージに応答して仮想キーボードのキーボードレイアウトの全体または一部を動的にアップデートするステップを含むことができる。 In some embodiments, the method dynamically updates key labels on the virtual keyboard in response to the processed image and / or the entire keyboard layout of the virtual keyboard in response to the processed image. Or it can include a step of dynamically updating a part.

いくつかの実施態様において、この方法は仮想マウスを使用して、マウスタイプナビゲーションを実行することを目的とする手の動作、および/またはユーザの入力コマンドおよび/またはデータとして解釈されることができる他の身体動作を含むことができる。用語「他の身体動作」は、例えば手の動き、頭の動き、目の動き、口の動き、またはユーザーコマンドおよび/またはデータ入力を指示することができる他のタイプの動作を指す。 In some embodiments, the method may be interpreted as a hand movement intended to perform mouse type navigation and / or user input commands and / or data using a virtual mouse. Other body movements can be included. The term “other body movements” refers to, for example, hand movements, head movements, eye movements, mouth movements, or other types of movements that can direct user commands and / or data entry.

上記した例示的な態様および実施態様に加えて、更なる態様および実施態様が図を参照することで、および、以下の詳細な説明の検討によって明白になるであろう。 In addition to the illustrative aspects and embodiments described above, further aspects and embodiments will become apparent by reference to the drawings and by a review of the following detailed description.

複数の例示的な態様および実施態様が上で論じられたとはいえ、従来技術の当業者は、その特定の変更、置換、追加および副次的組合せを認識するであろう。したがって、目的とされることは、以下、添付の特許請求の範囲およびこの後紹介される請求の範囲が、全てのこの種の変更、置換、追加および副次な組合せを含み、同じくそれらの真の趣旨および範囲内にあるものと解釈されることである。 Although several exemplary aspects and embodiments have been discussed above, those skilled in the art will recognize certain modifications, substitutions, additions and subcombinations thereof. Accordingly, it is intended that the following appended claims and the following introduced claims include all such modifications, substitutions, additions and subcombinations, as well as their true To be construed as being within the spirit and scope of

別途特に述べられない限り、以下の説明から明白に理解されることは、この明細書考察の全体にわたって「処理」、「計算」、「算出」、「測定」等のような用語を活用することは、コンピューティングシステムのレジスタおよび/またはメモリの内部の物理的な、例えば電子的な数量として表されるデータを、コンピューティングシステムのメモリ、レジスタまたはその他のこの種の情報記憶、伝達またはディスプレイデバイスの内部の物理量として同じように表される他のデータに、操作しておよび/または変換する、コンピュータまたはコンピューティングシステムまたは類似した電子計算デバイスの動作および/またはプロセスを指すということである。 Unless otherwise stated, what is clearly understood from the following description is to utilize terms such as “processing”, “calculation”, “calculation”, “measurement”, etc. throughout this discussion of the specification. A computer system memory and register or other such information storage, transmission or display device that represents the physical, e.g. electronic quantity of data in the registers and / or memory of the computing system. Refers to the operation and / or process of a computer or computing system or similar electronic computing device that manipulates and / or translates into other data that is similarly represented as an internal physical quantity.

本願明細書に表示されるプラットホーム、プロセスおよびディスプレイは、本質的にいかなる特定のコンピュータまたは他の装置にも関連しない。さまざまな汎用コンピューティングシステムおよびネットワーク化機器が本願明細書における教示に従うプログラムと共に使われることができるか、または、所望の方法を実行するためにより専門の装置を構成することが、都合がいいと立証することができる。種々のこれらのシステムに対する所望の構成は、下記の説明から現れる。加えて、実施態様はいかなる特定のプログラミング言語も参照して記載されてはいない。理解されるであろうことは、種々のプログラミング言語が、本願明細書において記載されているように本開示の教示を実行するのに用いられることができることである。 The platforms, processes, and displays displayed herein are not inherently related to any particular computer or other apparatus. Various general purpose computing systems and networked devices can be used with programs in accordance with the teachings herein, or it may prove convenient to configure a more specialized device to perform the desired method. can do. The desired configuration for a variety of these systems will appear from the description below. In addition, embodiments are not described with reference to any particular programming language. It will be appreciated that a variety of programming languages can be used to implement the teachings of the present disclosure as described herein.

以下の詳細な説明において、数多くの具体的な詳細がさまざまな実施態様の完全な理解を提供するために記載される。しかしながら、記載されている実施態様がこれらの具体的な詳細なしで実践されることができることは、当業者に理解されるであろう。 In the following detailed description, numerous specific details are set forth in order to provide a thorough understanding of various embodiments. However, it will be understood by one skilled in the art that the described embodiments may be practiced without these specific details.

本願明細書において使われる用語「ジェスチャ」は少なくとも、キーボードを操作する人の身体部分(複数部分)によってなされる動作(複数動作)および/または信号(複数信号)および/または指示(複数指示)および/またはサイン(複数サイン)および/または命令(複数命令)および/またはリクエスト(複数リクエスト)、などを含むことができる。「コマンド」によって本願明細書において意味することは、ジェスチャまたはジェスチャの連続もしくは組合せを使用して、選択されたキーの意味もしくは解釈を変更する(シンボルを割り当てるかもしくは再設定する)ために、またはこのジェスチャまたはジェスチャの連続もしくは組合せに従ってキーボードレイアウト全体の意味もしくは解釈を変更するために、コンピュータに指示するか、リクエストするかまたは命じる、ことである。この点で、キーの意味もしくは解釈(押し下げられた時にコンピュータがキーを解釈する方法)は、所定の瞬間に、キー上に物理的にマークされたシンボル(初期のもしくはデフォルトのシンボル)、または特定のコマンドに従ってコンピュータによってキーに割り当てられた(もしくは再設定された)異なるシンボルのどちらかである。 As used herein, the term “gesture” includes at least actions (multiple actions) and / or signals (multiple signals) and / or instructions (multiple instructions) performed by the body part (s) of the person operating the keyboard. And / or signs (multiple signs) and / or instructions (multiple instructions) and / or requests (multiple requests), and the like. What is meant herein by "command" is to change the meaning or interpretation of a selected key (assign or reset a symbol) using a gesture or a sequence or combination of gestures, or Instructing, requesting, or instructing a computer to change the meaning or interpretation of the entire keyboard layout according to this gesture or sequence or combination of gestures. In this regard, the meaning or interpretation of the key (the way in which the computer interprets the key when pressed down) is the symbol that is physically marked on the key (initial or default symbol) or specified at a given moment. One of the different symbols assigned (or reset) to the key by the computer according to the command

本願明細書に記載されている実施態様は、特に多くのシンボルを有する言語と関連するがそれだけではない、人間と機械の対話(HCI)問題の改善を容易にすることができる。この種の実施態様は、操作しやすいデータ入力環境を提示することによって、データ入力の速度を高めて、言語データ入力作業に対する完全解を提供して、タイプミスの数を実質的に減少させて、言語ワードプロセッサのユーザビリティを向上させる。 The embodiments described herein can facilitate the improvement of human-machine interaction (HCI) problems, particularly associated with, but not exclusively, languages with many symbols. This type of implementation increases the speed of data entry by providing an easy-to-operate data entry environment, provides a complete solution for linguistic data entry tasks, and substantially reduces the number of typographical errors. Improve the usability of language word processors.

図1Aを参照すると、本開示のいくつかの実施態様に従う例示的なデータ入力システムが、部分的に描写されている。データ入力システム100は、イメージ捕捉デバイス110のような少なくとも一つのイメージ捕捉または取込みデバイスを含み、それは例えば、デジタルカメラ、ビデオカメラ、PCカメラ、ウェブカメラ、その他で、コンピュータディスプレイモニタ120上に位置することができる。もちろん、ユーザの手(両手)のまたはユーザの身体の、他の部分の位置(複数位置)、場所(複数場所)、動作(複数動作)およびジェスチャ(複数ジェスチャ)がそれに関しては明らかに視認できる、すなわち、それらがイメージ捕捉デバイス110のFOV内に現れる、と仮定するならば、イメージ捕捉デバイス110は異なる位置に設置されることができる。データ入力システム100は更にイメージ捕捉デバイス110と関連する、または機能的に接続される、かつイメージ捕捉デバイス110によって生成されてコントローラに出力される信号であって、その信号が、ジェスチャ(複数ジェスチャ)または動作(複数動作)に関連して、およびそれらを含むイメージ捕捉デバイス110のFOV内のイメージ(複数イメージ)を表す、信号に基づいて、キー(複数キー)のマップまたはキーボードレイアウト全体のマップをセットするように構成される、コントローラ(図示せず)を含むことができる。「マップをセットする」とは、本願明細書において一般に特定のキーに対する特定のシンボル(複数シンボル)のジェスチャ(複数ジェスチャ)に依存した割付け(またはそれぞれの特定のキーに対するシンボルの、特定の組の割付け)を意味する。より詳しくは、キー(複数キー)のマッピングは、131および132で、物理的キーボード130上に載置される(実物の)手だけが示されるユーザのような、ユーザによってなされるかまたはユーザと関連する動作またはジェスチャに従って、キー(複数キー)に割り当てられる象徴的な意味を変更することを含むことができる。コントローラは、キーボード130のようなキーボードからの入力信号を獲得して、ディスプレイスクリーン120のようなディスプレイスクリーンを動作させるコンピュータ(PC、ラップトップなど)の一体的な部分であるか、コンピュータに埋め込まれるか、組み込まれるか、もしくは加えられることができる。 With reference to FIG. 1A, an exemplary data input system in accordance with some embodiments of the present disclosure is depicted in part. Data input system 100 includes at least one image capture or capture device, such as image capture device 110, which is located on computer display monitor 120, for example, a digital camera, video camera, PC camera, webcam, etc. be able to. Of course, the position (multiple positions), location (multiple locations), movement (multiple movements) and gestures (multiple gestures) of the user's hand (both hands) or of the user's body are clearly visible in that regard. That is, assuming that they appear in the FOV of the image capture device 110, the image capture devices 110 can be placed at different locations. The data input system 100 is further a signal associated with or functionally associated with the image capture device 110 and generated by the image capture device 110 and output to the controller, the signal being a gesture (multiple gestures). Or a map of keys (multiple keys) or an entire keyboard layout based on signals that represent the images (multiple images) in the FOV of the image capture device 110 that contain them and that contain them A controller (not shown) configured to set may be included. “Set a map” as used herein generally refers to an allocation (or a specific set of symbols for each particular key) that depends on the gesture (multiple gestures) of a particular symbol (several symbols) for a particular key. Allocation). More particularly, the mapping of keys (multiple keys) may be done by a user, such as a user at 131 and 132, such as a user where only a (real) hand placed on the physical keyboard 130 is shown. It may include changing the symbolic meaning assigned to the key (s) according to an associated action or gesture. The controller is an integral part of or embedded in a computer (PC, laptop, etc.) that takes input signals from a keyboard such as keyboard 130 and operates a display screen such as display screen 120. Can be incorporated, added, or added.

ユーザ(図示せず)は、物理的キーボード130に関して、または、それに対して1つの位置から別の位置まで彼の手131および/または132を移動することができ、一方イメージ捕捉デバイス110によって取得される手131および132のイメージに関する信号が絶えまなく、または、断続的に、処理および解釈のためにデータ入力システム100に転送される。データ入力システム100は、ユーザによって彼の手(両手)または他の身体部分(複数部分)によってなされるジェスチャ(複数ジェスチャ)および/または動作(複数動作)を識別するために、取得されたイメージに関する信号を処理して解釈することができ、かつ、このジェスチャ(複数ジェスチャ)および/または動作(複数動作)に従って、またはそれと関連してコマンドを実行することができる。物理的キーボード130は、標準のキーボード(その上にマークされるシンボルを備えた)、ブランクキーボード(キー上のマーキングのないキーボード)、紙キーボード(例えば、任意の数のキーを備えたキーボードの図面)、タッチパッド、キーパッド、仮想上のキーボード(テーブルおよびボードのような平坦な裸の表面)、その他であることができる。データ入力システム100は、また、使用される言語(複数言語)(例えば英語、ヒンディー語およびドイツ語)を処理するのに適しているワードアプリケーション(複数アプリケーション)を活用することができる。 A user (not shown) can move his hand 131 and / or 132 with respect to or relative to the physical keyboard 130 from one position to another while being acquired by the image capture device 110. Signals relating to the images of the hands 131 and 132 are continuously or intermittently transferred to the data input system 100 for processing and interpretation. Data input system 100 relates to acquired images to identify gestures (multiple gestures) and / or actions (multiple actions) made by a user with his hands (both hands) or other body parts (multiple parts). The signal can be processed and interpreted, and commands can be executed according to or in conjunction with this gesture (multiple gestures) and / or action (multiple actions). The physical keyboard 130 can be a standard keyboard (with symbols marked on it), a blank keyboard (keyboard with no markings on the keys), a paper keyboard (eg, a keyboard with any number of keys). ), Touchpads, keypads, virtual keyboards (flat bare surfaces such as tables and boards), and the like. The data input system 100 can also take advantage of a word application (multiple applications) that is suitable for processing the language (s) used (eg, English, Hindi and German).

いくつかの実施態様において、データ入力システム100のコントローラは、イメージ捕捉デバイス110によって収集されるイメージを処理するために、デジタル信号処理(「DSP」)技術、およびコンピュータスクリーン120のようなコンピュータスクリーン上に、仮想キーボード140のような対応する仮想キーボードを表示するためのシミュレーション技術を活用することができる。これらの実施態様のうちいくつかの態様において、仮想キーボード140上のキーの数、寸法およびスペーシングはユーザの方向づけを容易にするために物理的キーボード130のそれらに実質的に似ていることができる。他の態様によれば、仮想キーボード140上のキーの数または寸法、または、スペーシングのいずれかが、物理的キーボード130のそれらと異なることができる。データ入力システム100のコントローラによって、キー(複数キー)に割り当てられるシンボル(複数シンボル)または意味および/または仮想キーボード140のレイアウト全体に割り当てられるシンボルまたは意味を、取得されるかまたは収集されるイメージ(複数イメージ)からデータ入力システム100のコントローラによって識別されるか、認識されるか、または解釈されることができる、対応するユーザのジェスチャまたは動作に従って変化させることができる。 In some implementations, the controller of the data input system 100 can operate on a digital signal processing (“DSP”) technology and a computer screen such as the computer screen 120 to process the images collected by the image capture device 110. In addition, a simulation technique for displaying a corresponding virtual keyboard such as the virtual keyboard 140 can be utilized. In some of these embodiments, the number, size, and spacing of keys on the virtual keyboard 140 may be substantially similar to those of the physical keyboard 130 to facilitate user orientation. it can. According to other aspects, either the number or size of keys on the virtual keyboard 140 or the spacing can differ from those of the physical keyboard 130. An image that is acquired or collected by the controller of the data input system 100 as symbols (symbols) or meanings assigned to keys (several keys) and / or symbols or meanings assigned to the entire layout of the virtual keyboard 140 ( Multiple images) can be varied according to corresponding user gestures or actions that can be identified, recognized or interpreted by the controller of the data input system 100.

本開示のいくつかの実施態様において、データ入力システム100のコントローラはシミュレーション技術を仮想の手(両手)を作り出して処理するために活用することができて、かつ仮想の手(両手)を、ユーザの(実物の物理的な)手(両手)の位置、場所および動作に従ってディスプレイスクリーン上に出現させて動かすことができる。例えば、仮想の手121および122が、それぞれ、ユーザの手131および132を反映して図1A内に示されている。仮想キーボード140および/または仮想の手121および/または122は、データ入力の容易さを促進するために同様にまたは異なって拡大・縮小されることができる。 In some embodiments of the present disclosure, the controller of the data input system 100 can utilize simulation techniques to create and process virtual hands (both hands) and use the virtual hands (both hands) for the user. It can appear and move on the display screen according to the position, location and movement of its (real physical) hands (both hands). For example, virtual hands 121 and 122 are shown in FIG. 1A reflecting user hands 131 and 132, respectively. Virtual keyboard 140 and / or virtual hands 121 and / or 122 can be similarly or differently scaled to facilitate ease of data entry.

データ入力システム100を活用することによって要求された言語でデータを入力するために、ユーザは、131および132に示すように彼の手を配置することができ、かつ、イメージ捕捉デバイス110のFOV内に、要求された言語と関連した、ジェスチャまたはジェスチャの連続もしくは組合せを作ることができる。ジェスチャまたはジェスチャの連続もしくは組合せは、次いで要求された言語と関連するとしてデータ入力システム100のコントローラによって認識されるかまたは解釈される。ジェスチャまたはジェスチャの連続もしくは組合せの認識または解釈に応答し、データ入力システム100のコントローラは仮想キーボード140上の選択されたキーに対して要求された言語を構成するシンボル(複数シンボル)を割り当てることができて、かつ現在要求され、割り当てられたシンボル(複数シンボル)を備えた仮想キーボード140のレイアウトを表示することができる。データ入力システム100のコントローラが要求された言語に対応するキーボードレイアウトのマップをセットしたと言うことができる。一旦要求された言語がユーザのコマンドに応答してデータ入力システム100のコントローラによってセットされると、ユーザは、仮想キーボード140上のキーを観測して、物理的キーボード130を横切って、彼の手(131もしくは132)またはその特定の指(複数の指)を動かすことによってデータ入力システム100にデータを入力することができる。 To enter data in the required language by utilizing the data entry system 100, the user can place his hand as shown at 131 and 132 and within the FOV of the image capture device 110 In addition, a gesture or a series or combination of gestures associated with the requested language can be made. The gesture or sequence or combination of gestures is then recognized or interpreted by the controller of the data input system 100 as being associated with the requested language. In response to recognizing or interpreting a gesture or a sequence or combination of gestures, the controller of the data input system 100 may assign the symbol (s) that make up the requested language to the selected key on the virtual keyboard 140. And a layout of the virtual keyboard 140 with the currently requested and assigned symbol (s) can be displayed. It can be said that the controller of the data input system 100 sets the keyboard layout map corresponding to the requested language. Once the requested language is set by the controller of the data entry system 100 in response to a user command, the user observes the keys on the virtual keyboard 140 and moves his hand across the physical keyboard 130. Data can be input to the data input system 100 by moving (131 or 132) or the specific finger (a plurality of fingers).

ユーザは、それぞれの仮想の手(121もしくは122)またはその対応する仮想の指(複数の指)が、押し下げられるべき仮想キー140上の隣のキーの近傍に達して、および、仮想の手121または122の指がそのキーに重なるまで、彼の手またはその特定の指(複数の指)を動かすことができる。次いで、ユーザは仮想キーボード140上の要求されたキーに重なり合う仮想の指に対応する、または関連する、指の下側の物理的キーボード130のキーを押し下げることができる。上記の手順は追加的なシンボルを入力するために必要な回数だけ繰り返されることができる。ユーザが異なる言語に変更するかまたはセットすることを望む場合、ユーザは異なる言語に対応するジェスチャまたはジェスチャの連続もしくは組合せのポーズをとることができる。データ入力システム100のコントローラがキーの異なるマップをセットするよう、異なる言語をセットするよう求められるたびに、コントローラは対応するワードアプリケーション/プロセッサを使用可能にすることができる。例えば、データ入力システム100のコントローラがフランス語から英語に変更するよう求められたならば、その時、コントローラはフランス語ワードアプリケーション/プロセッサを無効にすることができて、英語のアプリケーション/プロセッサを有効にすることができる。物理的キーボード130は、データ入力システム100のコントローラに、またはコンピュータに機能的に接続され、そのコンピュータ内に、物理的キーボード130内のキーと関連するデフォルトのシンボルまたは機能を代表するコントローラ信号に転送するためのデータ入力システム100のコントローラが存在する。それにもかかわらず、データ入力システム100のコントローラは、現在のマッピング設定に従って物理的キーボード130からそれに転送される信号を解釈するように、構成されるかまたは設定される。 The user has reached each virtual hand (121 or 122) or its corresponding virtual finger (s) near the next key on the virtual key 140 to be depressed and the virtual hand 121 Or his hand or its specific finger (s) can be moved until 122 fingers overlap the key. The user can then depress the key on the physical keyboard 130 below the finger corresponding to or associated with the virtual finger that overlaps the requested key on the virtual keyboard 140. The above procedure can be repeated as many times as necessary to enter additional symbols. If the user desires to change or set to a different language, the user can pose a gesture or a series or combination of gestures corresponding to the different languages. Each time the controller of the data entry system 100 is asked to set a different language to set a different map of keys, the controller can enable the corresponding word application / processor. For example, if the controller of the data entry system 100 is asked to change from French to English, then the controller can disable the French word application / processor and enable the English application / processor. Can do. The physical keyboard 130 is functionally connected to the controller of the data input system 100 or to a computer and transfers to the controller signal representative of default symbols or functions associated with keys in the physical keyboard 130 within the computer. There is a controller for the data input system 100 to do this. Nevertheless, the controller of the data input system 100 is configured or configured to interpret signals transferred to it from the physical keyboard 130 according to the current mapping settings.

データ入力システム100は、従来技術解決策をこえるいくつかの利点がある。例えば、このシステムにデータを入力するユーザは、物理的キーボード(例えばキーボード130)と得られるタイプ入力を表示するスクリーン(例えばディスプレイスクリーン120)との間で、前後に視線を移動する必要はない。その代わりに、ユーザは仮想キーボード(例えば仮想キーボード140)を見つめて、かつ仮想の手(例えば仮想の手121および122)が、彼の(実物の)手(例えば手131および132)の位置(複数位置)および動作(複数動作)との相関関係で配置されて、動くのを見るだけでよい。 Data input system 100 has several advantages over prior art solutions. For example, a user entering data into the system does not need to move his / her line of sight back and forth between a physical keyboard (eg, keyboard 130) and a screen (eg, display screen 120) that displays the resulting typed input. Instead, the user looks at the virtual keyboard (eg, virtual keyboard 140) and the virtual hand (eg, virtual hands 121 and 122) is positioned at his (real) hand (eg, hands 131 and 132) ( All you have to do is look at moving, arranged in correlation with multiple positions) and movement (multiple movements).

一般に、シンボルまたは機能はユーザによって要求される言語、モードまたは機能に従い(対応する動作またはジェスチャを実行することによって)、キーに割り当てられることができ、その結果、所定のキー、それが新しい言語に割り当てられたあと、ユーザによって押し下げられると、モードまたは機能が、異なる方法でデータ入力システム100のコントローラによって解釈される。データ入力システム100のコントローラは、ユーザが与える、またはポーズをとるコマンドに応答して(仮想レイアウト140のような)仮想レイアウトの外観を変更することができる。例えば、コントローラは、所望のアプリケーション(複数アプリケーション)に従い、例えば仮想キーボード上のキーの数、キーの寸法、スペーシングおよび/または設置を変更することによって、キーボードアーキテクチャまたはキーの配列を変更することができる。いくつかの実施態様によれば、仮想キーボードのレイアウトは、キーボードが、(それぞれのキー上にマークされる実際のラベルを備えた)実物か、ブランクかまたは紙キーボードであるかどうかにかかわらず、ユーザの手ならびに物理的キーボードの上の、ユーザの手の位置決めおよび動作のリアルタイムシミュレーションに従って変更されることができる。データ入力システム100の他の利点は、同じ物理的キーボード(例えば物理的キーボード130)が、利用可能なワードアプリケーション/プロセッサの数と同じだけの組の(そのそれぞれが異なる言語に帰属する)シンボルを入力するのに用いられることができることである。 In general, a symbol or function can be assigned to a key according to the language, mode or function requested by the user (by performing a corresponding action or gesture), so that a given key, it is assigned to a new language Once assigned, when depressed by the user, the mode or function is interpreted by the controller of the data entry system 100 in a different manner. The controller of the data entry system 100 can change the appearance of the virtual layout (such as the virtual layout 140) in response to commands provided by the user or paused. For example, the controller may change the keyboard architecture or key arrangement according to the desired application (multiple applications), for example by changing the number of keys, key dimensions, spacing and / or placement on the virtual keyboard. it can. According to some embodiments, the layout of the virtual keyboard is independent of whether the keyboard is real (with actual labels marked on each key), blank or paper keyboard. It can be changed according to a real-time simulation of the positioning and movement of the user's hand over the user's hand and physical keyboard. Another advantage of data entry system 100 is that the same physical keyboard (eg, physical keyboard 130) has as many sets of symbols (each of which belongs to a different language) as the number of available word applications / processors. It can be used to input.

いくつかの実施態様において、キーボードキーエントリ(押し下げられるボタン)と共に(先に記載されているように)ユーザの手(両手)の位置のイメージを収集することによって、データ入力システム100のコントローラは、任意の所定の瞬間にかつリアルタイムで、ユーザの手および指の位置および/または動作を探知することができて、かつ仮想キーボード140のキー上の適切な位置に仮想の指を表示することによってそれらを模倣することができる。これによって、ユーザがモニタ120上で彼(女)の手の配置および動作を観察することができ、それによって物理的キーボード130上の、任意のキー上の彼(女)の指の配置におけるユーザの確実性を、任意の所定の瞬間で、選択された言語に関係なく、キーを押下げる前に、および、物理的キーボード(例えばキーボード130)を見下ろす必要なく、与える。実物の指(例えば手131の指)が物理的キーボードを横切って動き、かつ物理的キーボード130のような、物理的キーボード上のキーを押し下げるかまたはその上の領域に接触する場合、コントローラは、仮想の手(例えば手121および122)に仮想キーボードに関して指の動作および形状を模倣させることができる。 In some embodiments, by collecting images of the position of the user's hand (both hands) along with keyboard key entries (buttons to be depressed), the controller of the data entry system 100 can It can detect the position and / or movement of the user's hand and finger at any given moment and in real time, and display them by displaying the virtual finger at the appropriate position on the keys of the virtual keyboard 140 Can be imitated. This allows the user to observe the placement and movement of his (female) hands on the monitor 120, thereby allowing the user to place his (female) fingers on any key on the physical keyboard 130. Is given at any given moment, regardless of the selected language, before pressing a key and without having to look down on a physical keyboard (eg, keyboard 130). If a real finger (eg, finger of hand 131) moves across the physical keyboard and presses down or touches an area above the physical keyboard, such as physical keyboard 130, the controller A virtual hand (eg, hands 121 and 122) can be imitated with the movement and shape of a finger with respect to the virtual keyboard.

他の実施態様において、データ入力システム100は1、2の手、同じく他の身体の、動作のイメージの処理を可能にすることができる。例えば、いくつかの実施態様において、データ入力システム100はユーザーコマンド、信号および/またはデータ入力を指示するために、頭の動き、目の動き、口の動きまたは他の動作を収集して処理することができる。必要であれば、ユーザの身体の異なる部分が単一のイメージ捕捉デバイスのFOV内に配置されることができない場合に、イメージ捕捉デバイス110のような追加的なイメージ捕捉デバイスが、使われることができる。この種の場合には、各イメージ捕捉デバイスは異なる身体部分と関連するイメージを捕捉するために空間的に設置されることができる。 In other embodiments, the data entry system 100 can allow processing of motion images of one or two hands, as well as other bodies. For example, in some embodiments, the data input system 100 collects and processes head movements, eye movements, mouth movements or other movements to direct user commands, signals and / or data input. be able to. If necessary, an additional image capture device, such as image capture device 110, may be used when different parts of the user's body cannot be placed within the FOV of a single image capture device. it can. In this type of case, each image capture device can be spatially installed to capture images associated with different body parts.

次に図1Bを参照して、例示的な仮想キーボードおよび仮想の手が本開示のいくつかの実施態様に従って示される。コンピュータスクリーン155に表示されて示される仮想キーボード150は、データ入力システムのコントローラによって、必要または要求に応じて、大きくまたは小さく、調整されるか、構成されるか、または変更されることができる。コントローラは、また、スクリーン155に対して仮想キーボード150の位置を変更することができる。仮想キーボード150は、現在のインド言語キーボードセットアップまたはレイアウトを表示して、使用される言語/文字の組(例えば50のオプションから)によって、または、ファンクションキーに対してもしくは構成されたキーボードに対して定義されるマクロによって、規定されることができるように示される。物理的な指が(図1Aの物理的キーボード130のような)物理的キーボード上の1つのキーから別のキーに移動し、および後者のキーが押し下げられると、対応する図の変化が、仮想キーボード150に関してなされることができ、適切な(所望の)物理的なキーに対するユーザの手の動きを模倣するかまたは反映する、(図1B内の160に示すように)仮想キーボード150上の1つの場所から別の場所までの手(両手)の動きに結びつく。いくつかの実施態様において、データ入力システムのコントローラはユーザ発行の直接のコマンドに従ってまたはこの種のコマンドの結果に従ってユーザの手160の外観を変更することができる。「ユーザ発行の直接のコマンドに従って」によって意味されるのは(後者の実施態様に関して)、仮想の手(両手)の外観を変更するように機能する物理的キーボード上のキーを押し下げることであり、一方、「この種のコマンドの結果に従って」によって意味されるのは(後者の実施態様に関して)、(先に記載されているようにジェスチャまたは動作のポーズをとることによって)コントローラに対して言語を変更するコマンドを発行し、かつ同時に、使用される言語に従って仮想の手の外観を(コントローラによって)変更することである。仮想の手の外観を変更することは、例えば、ユーザが仮想キーボード150の実質的に全ての領域を観察することを可能にするために、仮想の手(両手)を透明、または部分的に透明にすることを含むことができる。透明な仮想の手160が、仮想キーボード150の上に重ねられて図1B内に示されている。テキスト151は、仮想キーボードレイアウト150に現在割り当てられているヒンディー語言語に従って、ヒンディー語シンボルから成って示される。 Referring now to FIG. 1B, an exemplary virtual keyboard and virtual hand are shown in accordance with some embodiments of the present disclosure. The virtual keyboard 150 displayed and shown on the computer screen 155 can be increased or decreased, adjusted, configured, or modified as needed or required by the controller of the data entry system. The controller can also change the position of the virtual keyboard 150 relative to the screen 155. The virtual keyboard 150 displays the current Indian language keyboard setup or layout, depending on the language / character set used (eg from 50 options) or for function keys or configured keyboards. It is shown that it can be defined by a defined macro. When a physical finger moves from one key on a physical keyboard (such as physical keyboard 130 in FIG. 1A) to another key and the latter key is depressed, the corresponding diagram change is virtual. 1 on the virtual keyboard 150 (as shown at 160 in FIG. 1B) that can be made with respect to the keyboard 150 and mimics or reflects the movement of the user's hand to the appropriate (desired) physical key It leads to the movement of hands (both hands) from one place to another. In some embodiments, the controller of the data entry system may change the appearance of the user's hand 160 according to a user-issued direct command or according to the result of such a command. What is meant by “according to a user-issued direct command” (for the latter embodiment) is to depress a key on the physical keyboard that functions to change the appearance of the virtual hand (both hands); On the other hand, what is meant by “according to the result of this kind of command” (with respect to the latter embodiment) is that the language to the controller (by posing a gesture or action as described above). Issuing commands to change and at the same time changing the appearance of the virtual hand (by the controller) according to the language used. Changing the appearance of the virtual hand can be, for example, to make the virtual hand (both hands) transparent or partially transparent to allow the user to view substantially all areas of the virtual keyboard 150. Can be included. A transparent virtual hand 160 is shown in FIG. 1B overlaid on the virtual keyboard 150. Text 151 is shown consisting of Hindi symbols according to the Hindi language currently assigned to virtual keyboard layout 150.

次に図1Cを参照して、異なる仮想キーボードの上に重ねられた仮想の手の3つの例が、本開示のいくつかの実施態様に従って示される。図1Aのデータ入力システム100のような、データ入力システムによってユーザが仮想キーボード150のような仮想キーボードのラベリングおよび/またはレイアウトを変更することができてもよい。ユーザがインド言語(図1C内に代表される場合にデバナーガリー文字によるヒンディー語言語)を使用して文書を書き込みたい場合、「KA」+「HALANT」組合せ(ウィンドウズ(登録商標)内の「K」+「D」キー)を用いて、彼/彼女は、第1から第2のレイアウトに(例えばキーボードレイアウト170キーボードレイアウトから171に)変えることができ、および、仮想キーボード上のキーの、特定の、または全部の外観はしたがって、使われるべき言語および/またはモードおよび/または文字に対する関連するキーおよび/またはレイアウトまたはマップを変更することができる(例えば図1C内に表される場合に「KAのHALANT形式」)。 Referring now to FIG. 1C, three examples of virtual hands overlaid on different virtual keyboards are shown according to some embodiments of the present disclosure. A data input system, such as data input system 100 of FIG. 1A, may allow a user to change the labeling and / or layout of a virtual keyboard, such as virtual keyboard 150. If the user wishes to write a document using the Indian language (Hindi language with Devanagari characters when represented in FIG. 1C), the “KA” + “HALANT” combination (“K” in Windows®) + “D” key), he / she can change from the first to the second layout (eg, keyboard layout 170 from keyboard layout to 171) and a specific key on the virtual keyboard Or the entire appearance can thus change the language and / or mode to be used and / or the associated keys and / or layout or map for the characters (eg “KA's when represented in FIG. 1C HALANT format ").

他の実施態様において、ユーザはキーボードモードまたは機能を変更することができ、例えば、彼/彼女は、仮想キーボード上のキーの言語、記号、文字、グラフィクスおよびその他の間を、彼(女)の手/指で適切なジェスチャを指示することによって、切り替えることができる。その上、仮想の手(両手)の外観および/または透明度の程度は使用される実際のキーボードに従って変化することができる。例えば、それらが各々異なるキーボードレイアウト(それぞれキーボード170および171に)に関連するので、仮想の手172は、仮想の手173と比べてより透明でないように示される。仮想キーボード175は、6つの選択されたシンボルだけ(集合的に174と示される)を有して示される。仮想キーボード175は、半透明として示されることができる。 In other embodiments, the user can change the keyboard mode or function, for example, he / she can switch between his (female) key language, symbols, characters, graphics and others on the virtual keyboard. Switching can be done by pointing the appropriate gesture with the hand / finger. Moreover, the appearance and / or degree of transparency of the virtual hands (both hands) can vary according to the actual keyboard used. For example, virtual hand 172 is shown to be less transparent compared to virtual hand 173 because they are each associated with a different keyboard layout (respectively to keyboards 170 and 171). Virtual keyboard 175 is shown having only six selected symbols (collectively indicated as 174). Virtual keyboard 175 can be shown as translucent.

次に図1Dを参照して、それは信号またはジェスチャの例を表し、ユーザが、データ入力システム100のような、データ入力システムに命令して言語、モード、入力データを変更する、機能を変更するなどのために、イメージ捕捉デバイス110のようなイメージ捕捉デバイスに対してポーズをとることができる。例えば、ユーザはイメージ捕捉デバイスによって収集されることができ、仮想キーボードキーを望ましくマップさせられる、選択された信号/ジェスチャを作り出すために、物体および/または彼(女)の左手を使用することができる。図1Dは、例えば、そのそれぞれが一意の手のジェスチャ番号に割り当てられている、10の例示的な手のジェスチャを表す。各々の手のジェスチャ番号は、データ入力システムのコントローラによって実行されるかまたはとられる特定のコマンドまたは動作と関連づけられることができる。例えば、182で示される、手のジェスチャ記述181と関連づけられた手のジェスチャ番号5は、例えば、仮想キーボードのレイアウトまたはマッピング(例えば図1Bの仮想キーボード150のレイアウト)を1つの言語から別の言語に変更するために、データ入力システムのコントローラに命令するかまたは信号を送るように指示することができる。その後に、ユーザは、変更された仮想キーボードとの相互関係で移動する対応する仮想の手(両手)を作り出すように、物理的キーボードの上に彼の手(両手)/指を移動することによって他の言語の文字またはシンボルを入力(タイプ)するために変更された仮想レイアウトを使用することができる。 Referring now to FIG. 1D, it represents an example of a signal or gesture, in which a user instructs a data input system, such as data input system 100, to change language, mode, input data, change function For example, an image capture device such as image capture device 110 can be paused. For example, the user can use the object and / or his (woman) left hand to create a selected signal / gesture that can be collected by the image capture device and that is preferably mapped to a virtual keyboard key. it can. FIG. 1D represents ten exemplary hand gestures, each of which is assigned a unique hand gesture number, for example. Each hand gesture number can be associated with a specific command or action performed or taken by the controller of the data entry system. For example, hand gesture number 5, shown at 182, associated with hand gesture description 181, may, for example, map a virtual keyboard layout or mapping (eg, the layout of virtual keyboard 150 in FIG. 1B) from one language to another. Can be instructed to instruct or signal the controller of the data input system. Subsequently, the user moves his hand (both hands) / finger over the physical keyboard to create a corresponding virtual hand (both hands) that moves in relation to the modified virtual keyboard. A modified virtual layout can be used to enter (type) characters or symbols in other languages.

したがって、データ入力システム100のようなデータ入力システムによって、信号、コマンド、命令などを識別することは、(図1Aのイメージ捕捉デバイス110のようなイメージ捕捉デバイスによって)手のジェスチャまたは信号を最初に識別するかまたは認識することによって、およびそれから、手のジェスチャを対応する手のジェスチャの番号に解釈することによって、かつ、先に記載されているように手のジェスチャ番号を使用して、実施されることができる。 Thus, identifying a signal, command, instruction, etc. by a data input system, such as data input system 100, first causes a hand gesture or signal (by an image capture device such as image capture device 110 of FIG. 1A) to be received. Performed by identifying or recognizing and then interpreting hand gestures into corresponding hand gesture numbers and using hand gesture numbers as described above. Can.

図1Aのデータ入力システム100は、例えば物理的キーボード上の「リセット」ボタンを押し下げた後に、ユーザが(イメージ捕捉デバイス110に対応するジェスチャまたは動作を表示することによって)、手動でもしくは自動的に信号を受信する、または、選択されたコマンドに従うこと、によって命令される。任意の数およびタイプの手のジェスチャ、信号および/または動作および/または身体部分および/または物体およびその他によって作られる他の適切な信号および/またはジェスチャおよび/または動作が、データ入力システムのコントローラに対するコマンドとして使われることができる。例えば、左手および/または右手の位置および/または動作が収集されることができ、同様に顔の動き、頭の動き、指の動き、肩の動きまたはユーザがコマンドを指示するのに用いることができる他の適切な動作が収集されることができる。このようにして、このデータ入力システムによってユーザが、最小数のキーストロークまたは他の動作で、図1Bの仮想キーボード150のような仮想キーボードのキーのレイアウト、モード、機能などを変更することができてもよい。 The data input system 100 of FIG. 1A may be manually or automatically performed by a user (by displaying a gesture or action corresponding to the image capture device 110), for example after pressing a “Reset” button on a physical keyboard. Directed by receiving a signal or following a selected command. Any number and type of hand gestures, signals and / or actions and / or other suitable signals and / or gestures and / or actions made by body parts and / or objects and others may be Can be used as a command. For example, left hand and / or right hand positions and / or movements can be collected, as well as facial movements, head movements, finger movements, shoulder movements or used by the user to command commands. Other suitable actions that can be collected. In this way, this data entry system allows a user to change the layout, mode, function, etc. of a virtual keyboard such as virtual keyboard 150 of FIG. 1B with a minimum number of keystrokes or other actions. May be.

一例において、ユーザは、選択されたレイアウトと関連づけられているジェスチャをして、および続いて、必要データを入力するために、一つ以上のキーをタイプすることができる。レイアウト、キーおよびその他を変更し、かつ必要レイアウトに到達するために、通常はいくつかのキーエントリを必要とするかもしれないこの種のデータ入力は、ジェスチャおよび選択されたキーのタイプ入力の組合せを適用することによって実行されることができる。例えば、ユーザが、物理的キーボードの上にあるキーと比べて、より多くの文字があるヒンディー語文字を入力することを望む場合、ユーザは、例えば仮想キーボード上のキーボードキーラベルおよび/またはレイアウトを変更するために、ジェスチャまたは信号を使用してコマンドを入力することができる。仮想キーボード内のこの変更は、最小数のキーストロークが選択されたキーを入力するのに必要なように、必要な文字を仮想キーボード上に表示させられることができる。したがって、1つのキーストロークだけが、多くの異なった文字によって一組の言語の文字から任意の選択された文字を入力するのに必要とされる。他の動作および/または動作の組合せが、同様に実施される。 In one example, the user can type one or more keys to make the gesture associated with the selected layout and subsequently enter the required data. This kind of data entry, which may require several key entries to change the layout, keys and others and usually reach the required layout, is a combination of gesture and type input for the selected key Can be implemented by applying For example, if the user wants to enter a Hindi character with more characters compared to the keys on the physical keyboard, the user can change the keyboard key label and / or layout on the virtual keyboard, for example. To change, commands can be entered using gestures or signals. This change in the virtual keyboard can cause the necessary characters to be displayed on the virtual keyboard so that a minimum number of keystrokes are required to enter the selected key. Thus, only one keystroke is required to enter any selected character from a set of language characters with many different characters. Other operations and / or combinations of operations are similarly performed.

いくつかの実施態様によれば、データ入力システムはデータ入力システムのコントローラが、その後ユーザによって要求されるかまたは望まれることができる予想されたキーおよび/またはキーボードレイアウト(マップ)を決定するのを助けるための評価および予測性アプリケーションを含むことができる。この予測性はユーザの以前のコマンド(複数コマンド)、例えば、手のジェスチャ(複数ジェスチャ)、動作(複数動作)、マウス動作(複数動作)、キーエントリおよびその他を用いて以前に発行されたコマンド、の評価に基づくことができる。例えば、多くの文字を有する言語が現在使われている場合、現在用いられる言語のワードアプリケーションは選択された文字のエントリに等しい2つ以上の、特定のキーの組合せを解釈することができる。予測性アプリケーションは、例えば組合せキーの最初のものを打った後に、さまざまな他のキーによって最初のキーの組合せから生じる可能な機能を完了するように他の関連したキーを自動的にアップデートすることができる。例えば、「A」および次いで種々の他のキーを打つと、コマンドの選択を入力し、その時、「A」はある種のファンクションキーとして働く。ユーザが「A」を入力する場合、仮想キーボードは、「A」と組み合わせて入力されることができる全ての関連したコマンドまたはキーを表示するように直ちに変更されることができる。このようにして、ユーザはキーの組合せを発見するために物理的なテーブルを記憶するかまたは使用する必要はなく、むしろ、関連した組合せがリアルタイムで、仮想キーボード上で動的にアップデートされることができる。 According to some embodiments, the data entry system allows the controller of the data entry system to subsequently determine the expected keys and / or keyboard layout (map) that can be requested or desired by the user. Evaluation and predictability applications to help can be included. This predictability depends on the user's previous command (multiple commands), for example, commands previously issued using hand gestures (multiple gestures), movements (multiple movements), mouse movements (multiple movements), key entries and others , Based on the evaluation. For example, if a language with many characters is currently in use, the word application of the currently used language can interpret two or more specific key combinations that are equal to the selected character entry. The predictive application automatically updates other related keys to complete possible functions resulting from the first key combination by various other keys, for example after hitting the first one of the combination keys Can do. For example, hitting “A” and then various other keys will enter a selection of commands, at which time “A” will act as a kind of function key. If the user enters “A”, the virtual keyboard can be immediately changed to display all relevant commands or keys that can be entered in combination with “A”. In this way, the user does not need to memorize or use a physical table to find key combinations, but rather the related combinations are dynamically updated on the virtual keyboard in real time. Can do.

次に図1Eを参照して、2つの比較研究法テーブルが、本開示のいくつかの実施態様に従って例証される。テーブル190はいくつかのインド言語シンボル、および、このインド言語シンボルを得るために入力されるべきそれぞれの英語の文字を表す。例示的なテーブル190によれば、インド言語文字が、それに従って英語の文字またはサインの単一の、または、2、3、4つのまたは5つの組合せがタイプ(入力またはキー入力)されなければならない従来の方法を用いて、表されるか、使われるか、または得られることができる。例えば、文字193は文字「s」(194)を入力することによって得られ、および、文字195は文字の組合せ「s/t/r」(196)を入力することによって得られる。したがって、5つのキーストロークが文字195を得るのに必要である。 Referring now to FIG. 1E, two comparative approach tables are illustrated according to some embodiments of the present disclosure. Table 190 represents a number of Indian symbols and each English character to be entered to obtain this Indian symbol. According to the exemplary table 190, an Indian language character must be typed (input or keyed) accordingly, a single or 2, 3, 4, or 5 combination of English characters or signatures accordingly. It can be represented, used or obtained using conventional methods. For example, character 193 is obtained by entering the character “s” (194), and character 195 is obtained by entering the character combination “s / t / r” (196). Thus, five keystrokes are necessary to obtain the character 195.

テーブル191は、対応する手のジェスチャと組み合わせて1つの英語の文字だけを入力すること(1ストライク実施)によって同じインド言語文字(197で示される)を得るための方法を表す。例えば、文字193は前(194)のように、文字「s」(198)を入力することによって、かつ、いかなる手のジェスチャも使用せずに得られる。なぜなら、1つの文字(194または198)を使用することは十分に簡単だからである。しかしながら、文字195を得るために5つのキーストローク(196)を使用する代わりに、1つの文字(例えば文字「s」)だけが対応する手のジェスチャ199(この例ではハンドジェスチャ3)と組み合わせて入力されることができる。 Table 191 represents a method for obtaining the same Indian language characters (indicated by 197) by entering only one English character in combination with the corresponding hand gesture (one strike implementation). For example, the character 193 is obtained by entering the character “s” (198), as before (194), and without using any hand gestures. Because using a single character (194 or 198) is simple enough. However, instead of using five keystrokes (196) to obtain the character 195, only one character (eg, the letter “s”) is combined with the corresponding hand gesture 199 (in this example, hand gesture 3). Can be entered.

次に図1Fを参照して、図1E内に示されるインド言語文字に対応する、マッピングのいくつかの例が略図で例示されて、記載されている。図1Fは、図1Eに関連して記載されている。例において、いかなる手のジェスチャも伴わずにこの例に従って、文字「S」が入力されたので、初期のまたはデフォルトの英語の文字「S」がシンボリックに(184で)インド言語文字183に割り当てられて示されている(両方の図内の185で、「ハンドジェスチャ」が「なし」に等しい)。他の例において、手のジェスチャと共にこの例に従って、文字「S」が入力されたので、初期のまたはデフォルトの英語の文字「S」がシンボリックに(186で)インド言語文字187に割り当てられて示されている(両方の図内の188で、「ハンドジェスチャ」が「なし」に等しい)。 Referring now to FIG. 1F, some examples of mappings corresponding to the Indian language characters shown in FIG. 1E are schematically illustrated and described. FIG. 1F is described in connection with FIG. 1E. In the example, the letter “S” was entered according to this example without any hand gesture, so the initial or default English letter “S” is assigned symbolically (at 184) to the Indian language letter 183. (In 185 in both figures, “hand gesture” equals “none”). In another example, according to this example along with hand gestures, the letter “S” was entered, so the initial or default English letter “S” is symbolically (at 186) assigned to the Indian language letter 187 and shown. (At 188 in both figures, “hand gesture” equals “none”).

次に図2Aを参照すると、一連の動作またはプロセスが略図で例示され、データ入力システムを動作させるように実施されることができる。ブロック200において、ユーザは彼(女)のコンピュータ上にデータ入力システムのソフトウェアを設定するかまたは初期化することができる。一旦ソフトウェアが実行されて、機能すると、較正スクリーンが示されることができ、システムが開始しているかまたは動作を開始したことを指示する。ブロック205で、ユーザはカメラの視野内に実物の(物理的な)キーボードを配置することができる。ブロック210で、データ入力システムは、例えば、キーボード位置およびキーを識別するためにキーボード識別機能を使用することができ、および、その後キーボードが識別され、かつ、データ入力システムが動作する準備のできていることをユーザに通知することができる。 With reference now to FIG. 2A, a series of operations or processes are schematically illustrated and can be implemented to operate a data entry system. In block 200, the user can set up or initialize data entry system software on his (female) computer. Once the software is running and functioning, a calibration screen can be shown, indicating that the system has started or has begun operation. At block 205, the user can place a real (physical) keyboard within the field of view of the camera. At block 210, the data entry system can use, for example, a keyboard identification function to identify keyboard positions and keys, and then the keyboard is identified and the data entry system is ready to operate. The user can be notified.

ブロック215で、ユーザはイメージ捕捉デバイスの視野内に彼(女)の手(両手)を配置することができる。ブロック220で、データ入力システムは手(両手)のイメージを収集して処理することができ、そしてその後、データ入力システムは手(両手)の識別が完了されたことをユーザに通知することができる。ブロック225で、使用される実際の言語に従って、ユーザはワードプロセッシングアプリケーションを動作させることができる。ブロック230で、データ入力システムは、選択されたワードプロセッシングアプリケーションに従って、デフォルトの組のキーと共に、データ入力システムのディスプレイ上に仮想キーボードを表示することができる。ユーザは、仮想キーボード上の彼(女)の仮想の手(両手)の関連づけられた動きに注目しながら、選択された言語でデータを入力するために、必要に応じて、コマンドを実物のキーボードにタイプすることができる。仮想キーボードは、仮想の指が選択されたキーを押し下げるために能動的に動くことを表し、それによってコマンドの実際のエントリを指示することができる。 At block 215, the user can place his (female) hands (both hands) within the field of view of the image capture device. At block 220, the data entry system can collect and process hand (both hands) images, and then the data entry system can notify the user that the hand (both hands) identification is complete. . At block 225, the user can run the word processing application according to the actual language used. At block 230, the data entry system may display a virtual keyboard on the display of the data entry system along with a default set of keys according to the selected word processing application. The user enters commands into the real keyboard as needed to enter data in the selected language, paying attention to the associated movement of his (female) virtual hands (both hands) on the virtual keyboard. Can be typed. A virtual keyboard represents a virtual finger moving actively to depress a selected key, thereby indicating the actual entry of the command.

ブロック235で、ユーザがキーボードモード、言語、入力コマンドおよびその他を変更することを望む場合、ユーザは1、2の手(または他の身体部分)を用いて選択された信号を作ることができる。この信号(複数信号)は、一組の予め設定された信号または動作から選択されることができる。ブロック240で、データ入力システムは、手の信号を収集して処理することができて、必要なユーザーコマンド(複数コマンド)またはデータを入力することができる。ブロック245で、仮想キーボード上のキーおよび/またはレイアウトは、例えばファンクションキー、キーの組合せ、マウス動作またはコマンド、キーエントリ(複数エントリ)およびマウス動作(複数動作)の組合せおよびその他を入力することによって、ユーザのコマンド(複数コマンド)に従って変更されることができる。上記のステップの任意の組合せが、実施されることができる。更に、他のステップまたはステップの連続が先に指定されたステップの代わりにおよび/またはこれに加えて使われることができる。 At block 235, if the user desires to change the keyboard mode, language, input commands, and others, the user can make a selected signal using one or two hands (or other body parts). This signal (multiple signals) can be selected from a set of preset signals or actions. At block 240, the data entry system can collect and process hand signals and enter the required user command (s) or data. At block 245, keys and / or layouts on the virtual keyboard are entered by entering, for example, function keys, key combinations, mouse actions or commands, key entry (multiple entries) and mouse action (multiple actions) combinations, and others. , Can be changed according to user commands (multiple commands). Any combination of the above steps can be implemented. In addition, other steps or sequence of steps can be used instead of and / or in addition to previously specified steps.

他の実施態様において、この方法は1、2の手、同じく他の身体動作の処理を可能にすることができる。例えば、いくつかの実施態様において、この方法は頭の動き、目の動き、口の動きまたはユーザーコマンド、信号および/またはデータ入力を指示する他の動作を収集して処理することができる。 In other embodiments, the method can allow processing of one or two hands, as well as other body movements. For example, in some embodiments, the method can collect and process head movements, eye movements, mouth movements or other commands that direct user commands, signals and / or data input.

次に図2Bを参照して、いくつかの実施態様に従ってデータ入力システムの一般的なレイアウトおよび機能が、略図で例示されて、記載されている。ブロック260で、イメージ捕捉デバイス290は、ユーザ(図示せず)の手292によって、作られるかまたはとられるジェスチャを収集することができる。ブロック265で、収集されたジェスチャは、例えば図1D内のジェスチャ番号3として識別されることができる。ブロック270で、仮想キーボード(291)はジェスチャ番号3に対応するレイアウト番号3(例えば)を表示するために変更されることができる。したがって、ブロック275で、ワードプロセッサはモード3の動作(言語を変更する)に変化することができる。ブロック280で、ユーザは物理的キーボード293上のキー(複数キー)を押し下げることができる。ブロック285で、データ入力システム201のコントローラ(図示せず)は、それが仮想の手294の位置(複数位置)および動作(複数動作)を、データ入力システム201を使用してユーザの物理的な手292の位置(複数位置)および動作(複数動作)に実質的に関連づけると共に、仮想キーボード291上で対応するキー(複数キー)を打つユーザの指(複数指)(294で示される)をシミュレートして表示することができる。他のステップ、ステップの連続が、使われることができる。コンピュータ286は、それが押し下げられたキーを表す信号を受信することができる物理的キーボード293に、および、とりわけそれが仮想の手および仮想キーボードのイメージを転送するディスプレイスクリーン295に機能的に接続されている。 Referring now to FIG. 2B, the general layout and functionality of a data entry system is illustrated and described schematically in accordance with some embodiments. At block 260, the image capture device 290 may collect gestures made or taken by a user (not shown) hand 292. At block 265, the collected gesture can be identified, for example, as gesture number 3 in FIG. 1D. At block 270, the virtual keyboard (291) can be changed to display layout number 3 (for example) corresponding to gesture number 3. Thus, at block 275, the word processor can change to mode 3 operation (change language). At block 280, the user can depress the key (s) on the physical keyboard 293. At block 285, the controller (not shown) of the data entry system 201 determines the position (multiple positions) and movement (multiple movements) of the virtual hand 294 using the data entry system 201 to the user's physical. Simulates the user's fingers (multiple fingers) (denoted by 294) that hit the corresponding key (multiple keys) on the virtual keyboard 291 in substantial association with the position (multiple positions) and movement (multiple movements) of the hand 292 Can be displayed. Other steps, a sequence of steps, can be used. The computer 286 is operatively connected to a physical keyboard 293 from which it can receive a signal representing a depressed key, and in particular to a display screen 295 where it transfers a virtual hand and virtual keyboard image. ing.

次に図3を参照して、マウスのような実施が本開示のいくつかの実施態様に従って図と共に記載される。本開示の一部として、仮想の手はマウスのようなナビゲーションをシミュレートするかまたは模倣することができ、ユーザは、仮想マウスを用いてコンピュータ(304)にデータを入力することができ、および/またはグラフィックアプリケーションを動作させることができる。コンピュータ304は、データ306のコントローラ(図示せず)を含む。ブロック300で、イメージ捕捉デバイス301はユーザの動作または身体部分、例えば手(302で示される)を収集することができ、それはマウスタイプナビゲーションを実施するために移動することができる。ブロック305で、手の動作の方向は、例えばXY平面で、観測されて、コンピュータ304に転送される。さらにまたは代わりに、ブロック310で、ユーザの動作またはジェスチャ(複数ジェスチャ)がイメージ捕捉デバイス301によって収集されることができる。ブロック315で、ジェスチャ(複数ジェスチャ)の収集されたイメージ(複数イメージ)が、ユーザのコマンド(複数コマンド)および/またはデータを入力するために処理されることができる。ブロック320で、コマンドおよび/またはデータおよびその他はコンピュータ304に入力されることができ、それらはそれに応じて、例えばディスプレイ303上でナビゲートして、モードおよび/または機能を変更して、特定のコマンドを入力して、およびその他によって、実行される。 Referring now to FIG. 3, a mouse-like implementation is described with the figure according to some embodiments of the present disclosure. As part of this disclosure, a virtual hand can simulate or mimic mouse-like navigation, a user can enter data into the computer (304) using the virtual mouse, and A graphic application can be run. Computer 304 includes a controller (not shown) for data 306. At block 300, the image capture device 301 can collect user actions or body parts, such as a hand (shown at 302), which can be moved to perform mouse-type navigation. At block 305, the direction of hand movement is observed and transferred to the computer 304, for example, in the XY plane. Additionally or alternatively, at block 310, user actions or gestures (multiple gestures) may be collected by the image capture device 301. At block 315, the collected image (multiple images) of the gesture (multiple gestures) may be processed to enter user commands (multiple commands) and / or data. At block 320, commands and / or data and others can be entered into the computer 304, which can accordingly navigate, for example, on the display 303, change modes and / or functions, and Entered by command and executed by others.

コンピュータのスクリーン(例えば図2Bのディスプレイスクリーン295または図3の303)、物理的キーボード(例えば図2Bの物理的キーボード293)およびイメージ捕捉デバイス(例えば図2Bのイメージ捕捉デバイス290または図3の301)は、任意の適切な従来のディスプレイスクリーン、物理的キーボードまたはイメージ捕捉デバイスである。図2Bのコンピュータ286または図3のコンピュータ304は、それが、その通常のハードウェア部品およびソフトウェア部品に加えて、ユーザによって、なされるかまたはポーズをとられる動作およびジェスチャを判定するために捕捉されたイメージを分析するために、および仮想キーボードおよび仮想の手(両手)を生成して、一般に処理するために、必要な仮想現実を可能にするハードウェアおよびソフトウェアアプリケーションを含むと仮定するならば、任意の適切な従来のコンピュータである。 Computer screen (eg, display screen 295 of FIG. 2B or 303 of FIG. 3), physical keyboard (eg, physical keyboard 293 of FIG. 2B) and image capture device (eg, image capture device 290 of FIG. 2B or 301 of FIG. 3) Is any suitable conventional display screen, physical keyboard or image capture device. The computer 286 of FIG. 2B or the computer 304 of FIG. 3 is captured to determine the actions and gestures it makes or poses by the user in addition to its normal hardware and software components. If we assume that we include hardware and software applications that enable the necessary virtual reality to analyze the captured images and to generate and process the virtual keyboard and virtual hands (both hands) in general, Any suitable conventional computer.

さまざまな実施態様の上記の記述は、図例および説明の目的のために提示された。本開示を網羅的であるかまたは開示された厳密な形式に限定することを目的とされない。上記の教示を考慮して多くの変更態様、変形例、置換、変更および等価物が可能であることは当業者によって理解されるはずである。したがって、目的とされることは、添付の特許請求の範囲が、全ての変更、置換、追加および副次的組合せを含み、同じくそれらの真の趣旨および範囲内にあると解釈されることである。 The above description of various embodiments has been presented for purposes of illustration and description. It is not intended to be exhaustive or to limit the disclosure to the precise form disclosed. It should be understood by those skilled in the art that many modifications, variations, substitutions, modifications, and equivalents are possible in light of the above teaching. Accordingly, it is intended that the appended claims be construed to include all modifications, substitutions, additions and subcombinations, which are also within the true spirit and scope thereof. .

簡潔に、例示的な実施態様が、参照された図内に例示される。本願明細書において開示される実施態様および図は限定的よりむしろ例証とみなされるべきであることを目的とされる。しかしながら、その目的、機能および利点と共に、動作の構成および方法の双方に関する開示が、添付の図と共に読み取られる場合、以下の詳細な説明を参照することで最もよく理解されることができ、そこにおいて、 Briefly, exemplary embodiments are illustrated in the referenced figures. It is intended that the embodiments and figures disclosed herein are to be considered illustrative rather than limiting. However, the disclosure of both the structure and method of operation, along with its objects, functions and advantages, can best be understood with reference to the following detailed description when read in conjunction with the accompanying drawings, in which: ,

本開示のいくつかの実施態様に従う仮想キーボードを例証する図形である。FIG. 6 is a diagram illustrating a virtual keyboard according to some embodiments of the present disclosure. 本開示のいくつかの実施態様に従う仮想キーボードを例証する図形である。FIG. 6 is a diagram illustrating a virtual keyboard according to some embodiments of the present disclosure.

いくつかの実施態様に従って、物理的および/または仮想キーボードとして活用されることができる、限定された数のヒンディー語文字を備えたキーボードの図の例である。FIG. 3 is an example of a keyboard diagram with a limited number of Hindi characters that can be utilized as a physical and / or virtual keyboard, according to some embodiments.

いくつかの実施態様に従って、入力のためのコマンドおよび/またはデータを指示するのに用いられることができるさまざまな指に基づく信号またはジェスチャのグラフ図の例示的な組を示す。FIG. 4 illustrates an exemplary set of graph diagrams of various finger-based signals or gestures that can be used to direct commands and / or data for input in accordance with some implementations.

本開示のいくつかの実施態様に従って、取得されたイメージと関連する信号に基づいて入力キーをマップする例、および、取得されたイメージと関連する信号に基づく入力キーのマップの例を示す。4 illustrates an example of mapping input keys based on signals associated with acquired images and an example of input key maps based on signals associated with acquired images in accordance with some implementations of the present disclosure. 本開示のいくつかの実施態様に従って、取得されたイメージと関連する信号に基づいて入力キーをマップする例、および、取得されたイメージと関連する信号に基づく入力キーのマップの例を示す。4 illustrates an example of mapping input keys based on signals associated with acquired images and an example of input key maps based on signals associated with acquired images in accordance with some implementations of the present disclosure.

本開示のいくつかの実施態様に従ってデータ入力システムを動作させるための例示的な流れ図を示す。2 shows an exemplary flow diagram for operating a data entry system in accordance with some embodiments of the present disclosure.

本開示のいくつかの実施態様に従うデータ入力システムの一般的なレイアウトおよび機能に関して略図で例示する。およびFig. 4 schematically illustrates the general layout and functionality of a data entry system according to some embodiments of the present disclosure. and

本開示の他の実施態様に従うデータ入力システムの一般的なレイアウトおよび機能に関して略図で例示する。Fig. 4 schematically illustrates the general layout and functionality of a data entry system according to another embodiment of the present disclosure.

理解されるであろうことは、説明の簡単さおよび明快さのために、図面内に示される要素が必ずしも一定の比率で描画されるというわけではないことである。例えば、いくつかの要素の寸法は明確にするため他の要素に対して誇張される場合がある。更に、適当であるとみなされる場合、参照番号は、連続的な図面の全体にわたって対応するかまたは類似した要素を指示するために図面の間で繰り返される場合がある。 It will be understood that for simplicity and clarity of explanation, the elements shown in the drawings are not necessarily drawn to scale. For example, the dimensions of some elements may be exaggerated relative to other elements for clarity. Further, where considered appropriate, reference numerals may be repeated among the drawings to indicate corresponding or analogous elements throughout the consecutive drawings.

符号の説明Explanation of symbols

100データ入力システム
110イメージ捕捉デバイス
120コンピュータディスプレイモニタ
121仮想の手
122仮想の手
130物理的キーボード
131ユーザの手
132ユーザの手
140仮想キーボード
150仮想キーボード
155コンピュータスクリーン
160ユーザの手
170キーボードレイアウト
171キーボードレイアウト
172仮想の手
173仮想の手
175仮想キーボード
181ジェスチャ記述
183文字
187文字
190テーブル
191テーブル
193文字
194文字
195文字
196キーストローク
197文字
198文字
199手のジェスチャ
201データ入力システム
286コンピュータ
291仮想キーボード
292ユーザの物理的な手
293物理的キーボード
294ユーザの指
295ディスプレイスクリーン
301イメージ捕捉デバイス
302ユーザの手
303ディスプレイ
304コンピュータ
306データ
100 Data Input System 110 Image Capture Device 120 Computer Display Monitor 121 Virtual Hand 122 Virtual Hand 130 Physical Keyboard 131 User Hand 132 User Hand 140 Virtual Keyboard 150 Virtual Keyboard 155 Computer Screen 160 User Hand 170 Keyboard Layout 171 Keyboard Layout 172 Virtual hand 173 Virtual hand 175 Virtual keyboard 181 Gesture description 183 Character 187 Character 190 Table 191 Table 193 Character 194 Character 195 Character 196 Keystroke 197 Character 198 Character 199 Hand gesture 201 Data input system 286 Computer 291 Virtual keyboard 292 User's physical hand 293 physical keyboard 294 user's finger 295 display screen
301 image capture device 302 user's hand 303 display 304 computer 306 data

Claims (34)

データ入力システムであって、
ユーザ身体の一部分および物理的キーボードの捕捉されたイメージ(複数イメージ)と関連する出力信号を生成するためのイメージ捕捉デバイスと、
前記出力信号を受信し、かつ捕捉されたイメージ(複数イメージ)に基づいて、入力キー(複数キー)のマップをセットしてかつ表示するように構成されるコントローラと、を備えるシステム。
A data entry system,
An image capture device for generating an output signal associated with a captured image (s) of a part of a user's body and a physical keyboard;
A controller configured to receive and output the output signal and to set and display a map of input keys (multiple keys) based on the captured image (multiple images).
前記入力キー(複数キー)のマップが、仮想キーボードの一部である、ことを特徴とする請求項1に記載のシステム。 The system of claim 1, wherein the map of input keys (multiple keys) is part of a virtual keyboard. 前記ユーザ身体の一部分(複数部分)がユーザの手(両手)であり、および、前記コントローラが、前記物理的キーボードに対して配置されるかまたは移動する前記ユーザの手(両手)をシミュレートする仮想の手(両手)を更に表示する、ことを特徴とする請求項2に記載のシステム。 The part (s) of the user's body is the user's hands (both hands), and the controller simulates the user's hands (both hands) placed or moved relative to the physical keyboard The system according to claim 2, further displaying a virtual hand (both hands). 前記コントローラがさらに、ユーザジェスチャに関する捕捉されたイメージ(複数イメージ)を一意のコマンドとして解釈するように構成されている、ことを特徴とする請求項1に記載のシステム。 The system of claim 1, wherein the controller is further configured to interpret the captured image (s) for a user gesture as a unique command. 前記コントローラが、さらにユーザジェスチャ(複数ジェスチャ)に従って前記仮想キーボード上のキー(複数キー)を変更するように構成されている、ことを特徴とする請求項4に記載のシステム。 The system of claim 4, wherein the controller is further configured to change a key (multiple keys) on the virtual keyboard according to a user gesture (multiple gestures). 前記コントローラが、さらにユーザジェスチャ(複数ジェスチャ)に従って前記仮想キーボードの前記レイアウトを変更するように構成されている、ことを特徴とする請求項4に記載のシステム。 The system of claim 4, wherein the controller is further configured to change the layout of the virtual keyboard according to a user gesture (multiple gestures). 前記コントローラが、さらに前記仮想の手(両手)の外観を変更するように構成されている、ことを特徴とする請求項3に記載のシステム。 The system according to claim 3, wherein the controller is further configured to change an appearance of the virtual hand (both hands). 前記物理的キーボードが、ブランクキーボード、紙キーボード、タッチパッド、キーパッド、仮想のキーボードおよび平坦な裸の表面からなるキーボードの群から選択される、ことを特徴とする請求項1に記載のシステム。 The system of claim 1, wherein the physical keyboard is selected from the group of a keyboard consisting of a blank keyboard, a paper keyboard, a touchpad, a keypad, a virtual keyboard and a flat bare surface. 前記コントローラが、ユーザの以前のコマンド(複数コマンド)に基づいて、前記仮想キーボード上に続いて必要な予想されたキーを判定し、かつ表示するように構成されている、ことを特徴とする請求項4に記載のシステム。 The controller is configured to determine and display a subsequent expected key required on the virtual keyboard based on a user's previous command (s). Item 5. The system according to Item 4. 前記コントローラがさらに、ユーザの以前のコマンド(複数コマンド)に基づいて、前記仮想キーボード上に続いて必要な予想されたキーボードレイアウトを判定し、かつ表示するように構成されている、ことを特徴とする請求項4に記載のシステム。 The controller is further configured to determine and display an expected keyboard layout required subsequently on the virtual keyboard based on a user's previous command (s). The system according to claim 4. 前記ジェスチャが、ユーザの手によって実行される、ことを特徴とする請求項4に記載のシステム。 The system of claim 4, wherein the gesture is performed by a user's hand. ジェスチャがマウスタイプナビゲーションを実施するために実行される動作、および、コマンドを実施するために実行される動作からなる群から選択される一つ以上のユーザ動作である、ことを特徴とする請求項4に記載のシステム。 The gesture is one or more user actions selected from the group consisting of actions performed to perform mouse-type navigation and actions executed to perform commands. 4. The system according to 4. 前記ジェスチャが、手の動き、頭の動き、目の動き、口の動きまたはユーザーコマンドを指示する他の動きを含む群から選択されるユーザの、身体の一つ以上の部分によって実行される、ことを特徴とする請求項4に記載のシステム。 The gesture is performed by one or more body parts of a user selected from the group comprising hand movements, head movements, eye movements, mouth movements or other movements that direct user commands; The system according to claim 4. 前記仮想の手(両手)が、前記仮想キーボードの上に重ねられて、透過的に表示される、ことを特徴とする請求項3に記載のシステム。 The system according to claim 3, wherein the virtual hands (both hands) are displayed on the virtual keyboard in a transparent manner. 前記仮想の手の外観が、使用される前記仮想キーボードレイアウトに依存する、ことを特徴とする請求項3に記載のシステム。 The system of claim 3, wherein the appearance of the virtual hand depends on the virtual keyboard layout used. 前記コントローラが、さらに以前のコマンド(複数コマンド)を評価することによって次のキー(複数キー)ラベル(複数ラベル)および次の仮想キーボードレイアウトを予測するように構成されている、ことを特徴とする請求項4に記載のシステム。 The controller is further configured to predict a next key (multi-key) label (multi-label) and a next virtual keyboard layout by evaluating a previous command (multi-command). The system according to claim 4. 前記ジェスチャが、対応するマッピングをセットして、かつ表示するために前記物理的キーボードの押し下げられたキーと組み合わせて使われる、ことを特徴とする請求項4に記載のシステム。 The system of claim 4, wherein the gesture is used in combination with a depressed key of the physical keyboard to set and display a corresponding mapping. コンピューティングシステムにデータを入力する方法であって、ユーザ身体の一部分および物理的キーボードのイメージ(複数イメージ)を捕捉するステップと、前記捕捉されたイメージ(複数イメージ)に基づいて仮想キーボード上に入力キー(複数キー)のマッピングをセットして、かつ表示するステップと、を含む方法。 A method of entering data into a computing system, the method comprising: capturing a portion of a user's body and an image of a physical keyboard (multiple images) and inputting on a virtual keyboard based on the captured image (multiple images) Setting and displaying a mapping of keys (multiple keys). 前記イメージ(複数イメージ)が、コマンドとして解釈されるべき前記ユーザによってなされるジェスチャに関する、ことを特徴とする請求項18に記載の方法。 The method of claim 18, wherein the image (multiple images) relates to a gesture made by the user to be interpreted as a command. 前記ジェスチャが、手の動き、頭の動き、目の動きおよび口の動きからなる群から選択される動作(複数動作)に関する、ことを特徴とする請求項19に記載の方法。 20. The method of claim 19, wherein the gesture relates to an action (multiple actions) selected from the group consisting of hand movements, head movements, eye movements and mouth movements. キーラベル(複数ラベル)が、前記ジェスチャに応答して前記仮想キーボード上で変化する、ことを特徴とする請求項19に記載の方法。 20. The method of claim 19, wherein key labels (multiple labels) change on the virtual keyboard in response to the gesture. 前記仮想キーボードの前記レイアウトが、前記ジェスチャに応答して変化する、ことを特徴とする請求項19に記載の方法。 The method of claim 19, wherein the layout of the virtual keyboard changes in response to the gesture. さらに、前記ユーザの手(両手)を捕捉して、かつ前記物理的キーボードに対して配置されるかまたは移動する前記ユーザの手(両手)をシミュレートする仮想の手(両手)を表示するステップを含む請求項18に記載の方法。 Furthermore, capturing the user's hands (both hands) and displaying a virtual hand (both hands) that simulates the user's hands (both hands) placed or moved relative to the physical keyboard The method of claim 18 comprising: 文字が、前記物理的キーボードの単一のキーストロークを使用して前記コンピューティングシステムに入力される、ことを特徴とする請求項23に記載の方法。 The method of claim 23, wherein characters are entered into the computing system using a single keystroke of the physical keyboard. 手の動作(複数動作)が、マウスタイプナビゲーションを実施するために仮想マウスをシミュレートする、ことを特徴とする請求項21に記載の方法。 The method of claim 21, wherein the hand movement (s) simulates a virtual mouse to perform mouse type navigation. 前記仮想の手(両手)が、前記仮想キーボードの上に重ねられて、透過的に表示される、ことを特徴とする請求項23に記載の方法。 The method according to claim 23, wherein the virtual hands (both hands) are displayed on the virtual keyboard in a transparent manner. 前記仮想の手の外観が、使用される前記仮想キーボードレイアウトに依存する、ことを特徴とする請求項23に記載の方法。 24. The method of claim 23, wherein the appearance of the virtual hand depends on the virtual keyboard layout used. さらに、次のキー(複数キー)ラベル(複数ラベル)および次の仮想キーボードレイアウトを予測するために以前のコマンド(複数コマンド)を評価するステップを含む請求項19に記載の方法。 20. The method of claim 19, further comprising evaluating a previous command (multiple commands) to predict a next key (multi-key) label (multiple labels) and a next virtual keyboard layout. 前記ジェスチャが、対応するマッピングをセットして、かつ表示するために前記物理的キーボードの押し下げられたキーと組み合わせて使われる、ことを特徴とする請求項19に記載の方法。 The method of claim 19, wherein the gesture is used in combination with a depressed key on the physical keyboard to set and display a corresponding mapping. コンピューティングシステムにデータを入力する方法であって、
実際のユーザの手(両手)との相関関係で、かつ物理的キーボードを代表する仮想キーボードの上に重ねられた、仮想の手(両手)を表示するステップと、
ユーザの手によってなされるジェスチャに応答して、前記仮想キーボード上のキーにマップをセットするステップと、を含む方法。
A method of entering data into a computing system comprising:
Displaying a virtual hand (both hands) that is correlated with an actual user hand (both hands) and overlaid on a virtual keyboard that is representative of a physical keyboard;
Setting a map to a key on the virtual keyboard in response to a gesture made by a user's hand.
前記仮想キーボードの前記レイアウトが、実際のユーザの手によってなされるジェスチャに応答して変化する、ことを特徴とする請求項30に記載の方法。 The method of claim 30, wherein the layout of the virtual keyboard changes in response to gestures made by actual user hands. 前記仮想の手(両手)が、前記仮想キーボードの上に重ねられて、透過的に表示される、ことを特徴とする請求項30に記載の方法。 The method according to claim 30, wherein the virtual hands (both hands) are displayed on the virtual keyboard in a transparent manner. 前記仮想の手(両手)の外観が、使用される前記仮想キーボードレイアウトに依存する、ことを特徴とする請求項30に記載の方法。 The method according to claim 30, wherein the appearance of the virtual hands (both hands) depends on the virtual keyboard layout used. 前記ジェスチャが、前記物理的キーボードの押し下げられたキーと組み合わせて使われる、ことを特徴とする請求項30に記載の方法。 The method of claim 30, wherein the gesture is used in combination with a depressed key on the physical keyboard.
JP2008554905A 2006-02-16 2007-02-08 System and method for entering data into a computing system Pending JP2009527041A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN421DE2006 2006-02-16
PCT/IL2007/000174 WO2007093984A2 (en) 2006-02-16 2007-02-08 A system and method of inputting data into a computing system

Publications (1)

Publication Number Publication Date
JP2009527041A true JP2009527041A (en) 2009-07-23

Family

ID=38371891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008554905A Pending JP2009527041A (en) 2006-02-16 2007-02-08 System and method for entering data into a computing system

Country Status (5)

Country Link
EP (1) EP1999547A4 (en)
JP (1) JP2009527041A (en)
KR (1) KR20080106265A (en)
CN (1) CN101589425A (en)
WO (1) WO2007093984A2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012529088A (en) * 2009-05-29 2012-11-15 マイクロソフト コーポレーション Gesture shortcut
JP2013541110A (en) * 2011-09-27 2013-11-07 イーロ・タッチ・ソリューションズ・インコーポレイテッド Gesture-based input scaling
JP2013546073A (en) * 2010-11-05 2013-12-26 アップル インコーポレイテッド Device, method and graphical user interface for operating a soft keyboard
JP2014165917A (en) * 2013-02-27 2014-09-08 Samsung Electronics Co Ltd Display device
JP2015060579A (en) * 2013-09-20 2015-03-30 ヤフー株式会社 Information processing system, information processing method, and information processing program
US9092132B2 (en) 2011-01-24 2015-07-28 Apple Inc. Device, method, and graphical user interface with a dynamic gesture disambiguation threshold
US9141285B2 (en) 2010-11-05 2015-09-22 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9436381B2 (en) 2011-01-24 2016-09-06 Apple Inc. Device, method, and graphical user interface for navigating and annotating an electronic document
US9442654B2 (en) 2010-01-06 2016-09-13 Apple Inc. Apparatus and method for conditionally enabling or disabling soft buttons
US9448714B2 (en) 2011-09-27 2016-09-20 Elo Touch Solutions, Inc. Touch and non touch based interaction of a user with a device
JP2016177658A (en) * 2015-03-20 2016-10-06 カシオ計算機株式会社 Virtual input device, input method, and program
KR101772979B1 (en) * 2011-04-06 2017-08-31 엘지전자 주식회사 Mobile terminal and control method thereof

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100302165A1 (en) * 2009-05-26 2010-12-02 Zienon, Llc Enabling data entry based on differentiated input objects
CN103442201B (en) * 2007-09-24 2018-01-02 高通股份有限公司 Enhancing interface for voice and video communication
FR2921634B1 (en) 2007-09-27 2010-03-19 Airbus SYSTEM AND METHOD FOR ACCESSING PERSONAL COMPUTER EQUIPMENT ON BOARD AN AIRCRAFT, AND AIRCRAFT COMPRISING SUCH A SYSTEM.
KR101352994B1 (en) * 2007-12-10 2014-01-21 삼성전자 주식회사 Apparatus and method for providing an adaptive on-screen keyboard
US20100265182A1 (en) * 2009-04-20 2010-10-21 Microsoft Corporation Context-based state change for an adaptive input device
CA2774867A1 (en) * 2009-09-21 2011-03-24 Extreme Reality Ltd. Methods circuits apparatus and systems for human machine interfacing with an electronic appliance
CN102214009A (en) * 2010-04-08 2011-10-12 深圳市闪联信息技术有限公司 Method and system for implementing keyboard input
CN102289283A (en) * 2010-06-16 2011-12-21 微软公司 Status change of adaptive device
WO2012047206A1 (en) * 2010-10-05 2012-04-12 Hewlett-Packard Development Company, L.P. Entering a command
US9746928B2 (en) 2011-04-19 2017-08-29 Lg Electronics Inc. Display device and control method thereof
WO2013101206A1 (en) * 2011-12-30 2013-07-04 Intel Corporation Interactive drawing recognition
US8850349B2 (en) * 2012-04-06 2014-09-30 Google Inc. Smart user-customized graphical keyboard
GB201223450D0 (en) 2012-12-27 2013-02-13 Touchtype Ltd Search and corresponding method
US10664657B2 (en) 2012-12-27 2020-05-26 Touchtype Limited System and method for inputting images or labels into electronic devices
GB201322037D0 (en) * 2013-12-12 2014-01-29 Touchtype Ltd System and method for inputting images/labels into electronic devices
KR101489069B1 (en) * 2013-05-30 2015-02-04 허윤 Method for inputting data based on motion and apparatus for using the same
US20140368434A1 (en) * 2013-06-13 2014-12-18 Microsoft Corporation Generation of text by way of a touchless interface
KR102166330B1 (en) 2013-08-23 2020-10-15 삼성메디슨 주식회사 Method and apparatus for providing user interface of medical diagnostic apparatus
CN104978016A (en) * 2014-04-14 2015-10-14 宏碁股份有限公司 Electronic device with virtual input function
CN105224069B (en) * 2014-07-03 2019-03-19 王登高 A kind of augmented reality dummy keyboard input method and the device using this method
CN104199550B (en) * 2014-08-29 2017-05-17 福州瑞芯微电子股份有限公司 Virtual keyboard operation device, system and method
EP3281086B1 (en) * 2015-04-07 2022-01-26 INTEL Corporation Avatar keyboard
CN106488160A (en) * 2015-08-24 2017-03-08 中兴通讯股份有限公司 A kind of method for displaying projection, device and electronic equipment
KR102653267B1 (en) 2018-11-28 2024-04-02 삼성전자 주식회사 Method for inputting key and Electronic device using the same
CN110007774B (en) * 2019-03-27 2022-01-14 联想(北京)有限公司 Keyboard device and electronic equipment
CN110414225B (en) * 2019-07-24 2023-05-26 广东魅视科技股份有限公司 System and method for preventing HID keyboard attack
CN112684901A (en) * 2019-10-18 2021-04-20 王光达 Screen key position identification display method and single-hand chord mobile keyboard thereof
US11617953B2 (en) 2020-10-09 2023-04-04 Contact Control Interfaces, Llc. Virtual object interaction scripts
CN114167997B (en) * 2022-02-15 2022-05-17 北京所思信息科技有限责任公司 Model display method, device, equipment and storage medium
EP4479943A4 (en) 2022-02-15 2025-09-10 Beijing Source Tech Co Ltd METHOD, APPARATUS AND SYSTEM FOR PROJECTING INPUT DEVICE MODEL
TWI840926B (en) * 2022-08-25 2024-05-01 廣達電腦股份有限公司 Computer device and method for displaying augmented reality virtual keyboard

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005043954A (en) * 2003-07-22 2005-02-17 Sharp Corp Virtual keyboard system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6433774B1 (en) * 1998-12-04 2002-08-13 Intel Corporation Virtualization of interactive computer input
US6614422B1 (en) * 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
WO2001093182A1 (en) * 2000-05-29 2001-12-06 Vkb Inc. Virtual data entry device and method for input of alphanumeric and other data
US7042442B1 (en) * 2000-06-27 2006-05-09 International Business Machines Corporation Virtual invisible keyboard
CA2433791A1 (en) * 2001-01-08 2002-07-11 Vkb Inc. A data input device
IL161002A0 (en) * 2004-03-22 2004-08-31 Itay Katz Virtual video keyboard system
US20070063979A1 (en) * 2005-09-19 2007-03-22 Available For Licensing Systems and methods to provide input/output for a portable data processing device
US20080018591A1 (en) * 2006-07-20 2008-01-24 Arkady Pittel User Interfacing

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005043954A (en) * 2003-07-22 2005-02-17 Sharp Corp Virtual keyboard system

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012529088A (en) * 2009-05-29 2012-11-15 マイクロソフト コーポレーション Gesture shortcut
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US9442654B2 (en) 2010-01-06 2016-09-13 Apple Inc. Apparatus and method for conditionally enabling or disabling soft buttons
US9141285B2 (en) 2010-11-05 2015-09-22 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
JP2013546073A (en) * 2010-11-05 2013-12-26 アップル インコーポレイテッド Device, method and graphical user interface for operating a soft keyboard
KR101511883B1 (en) 2010-11-05 2015-04-13 애플 인크. Device, method, and graphical user interface for manipulating soft keyboards
US9146673B2 (en) 2010-11-05 2015-09-29 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9128614B2 (en) 2010-11-05 2015-09-08 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9092132B2 (en) 2011-01-24 2015-07-28 Apple Inc. Device, method, and graphical user interface with a dynamic gesture disambiguation threshold
US9436381B2 (en) 2011-01-24 2016-09-06 Apple Inc. Device, method, and graphical user interface for navigating and annotating an electronic document
US10042549B2 (en) 2011-01-24 2018-08-07 Apple Inc. Device, method, and graphical user interface with a dynamic gesture disambiguation threshold
US10365819B2 (en) 2011-01-24 2019-07-30 Apple Inc. Device, method, and graphical user interface for displaying a character input user interface
KR101772979B1 (en) * 2011-04-06 2017-08-31 엘지전자 주식회사 Mobile terminal and control method thereof
JP2013541110A (en) * 2011-09-27 2013-11-07 イーロ・タッチ・ソリューションズ・インコーポレイテッド Gesture-based input scaling
US9448714B2 (en) 2011-09-27 2016-09-20 Elo Touch Solutions, Inc. Touch and non touch based interaction of a user with a device
JP2014165917A (en) * 2013-02-27 2014-09-08 Samsung Electronics Co Ltd Display device
JP2015060579A (en) * 2013-09-20 2015-03-30 ヤフー株式会社 Information processing system, information processing method, and information processing program
JP2016177658A (en) * 2015-03-20 2016-10-06 カシオ計算機株式会社 Virtual input device, input method, and program

Also Published As

Publication number Publication date
EP1999547A4 (en) 2011-10-12
KR20080106265A (en) 2008-12-04
EP1999547A2 (en) 2008-12-10
CN101589425A (en) 2009-11-25
WO2007093984A2 (en) 2007-08-23
WO2007093984A3 (en) 2009-04-23

Similar Documents

Publication Publication Date Title
JP2009527041A (en) System and method for entering data into a computing system
US6600480B2 (en) Virtual reality keyboard system and method
US6388657B1 (en) Virtual reality keyboard system and method
US5157384A (en) Advanced user interface
US9678662B2 (en) Method for detecting user gestures from alternative touchpads of a handheld computerized device
AU657499B2 (en) User interface having simulated devices
US9891820B2 (en) Method for controlling a virtual keyboard from a touchpad of a computerized device
AU658574B2 (en) Computer with separate display plane and user interface processor
US5148155A (en) Computer with tablet input to standard programs
US9529523B2 (en) Method using a finger above a touchpad for controlling a computerized system
US20160364138A1 (en) Front touchscreen and back touchpad operated user interface employing semi-persistent button groups
US20060119588A1 (en) Apparatus and method of processing information input using a touchpad
US20170017393A1 (en) Method for controlling interactive objects from a touchpad of a computerized device
US9542032B2 (en) Method using a predicted finger location above a touchpad for controlling a computerized system
WO2004010276A1 (en) Information display input device and information display input method, and information processing device
WO2022143579A1 (en) Feedback method and related device
CN114690889A (en) Processing method of virtual keyboard and related equipment
CN114764304A (en) Screen display method
JP4502990B2 (en) Man / machine interface for computing devices
US9639195B2 (en) Method using finger force upon a touchpad for controlling a computerized system
JP5888423B2 (en) Character input device, character input method, character input control program
WO2015013662A1 (en) Method for controlling a virtual keyboard from a touchpad of a computerized device
Hirche et al. Adaptive interface for text input on large-scale interactive surfaces
CN114690888A (en) An application interface processing method and related equipment
CN101551701A (en) Multidimensional control method and device, optimal or relatively favorable display input method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111025

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120124

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120612