[go: up one dir, main page]

JP4491495B2 - ポインティングデバイスに基づくユーザインターフェイスシステム - Google Patents

ポインティングデバイスに基づくユーザインターフェイスシステム Download PDF

Info

Publication number
JP4491495B2
JP4491495B2 JP2008300814A JP2008300814A JP4491495B2 JP 4491495 B2 JP4491495 B2 JP 4491495B2 JP 2008300814 A JP2008300814 A JP 2008300814A JP 2008300814 A JP2008300814 A JP 2008300814A JP 4491495 B2 JP4491495 B2 JP 4491495B2
Authority
JP
Japan
Prior art keywords
pointing device
user
user interaction
interaction system
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2008300814A
Other languages
English (en)
Other versions
JP2009134718A5 (ja
JP2009134718A (ja
Inventor
ヘルハルデュス エー メケンカンプ
ティム デケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=32319629&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP4491495(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2009134718A publication Critical patent/JP2009134718A/ja
Publication of JP2009134718A5 publication Critical patent/JP2009134718A5/ja
Application granted granted Critical
Publication of JP4491495B2 publication Critical patent/JP4491495B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K11/00Methods or arrangements for graph-reading or for converting the pattern of mechanical parameters, e.g. force or presence, into electrical signal
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • G08C2201/32Remote control based on movements, attitude of remote control device
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/60Security, fault tolerance
    • G08C2201/61Password, biometric
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/70Device selection
    • G08C2201/71Directional beams
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/90Additional features
    • G08C2201/92Universal remote control
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/90Additional features
    • G08C2201/94Smart cards

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)
  • Telephonic Communication Services (AREA)
  • Image Analysis (AREA)
  • Details Of Television Systems (AREA)

Description

本発明は、ユーザインターラクションシステムであって、
− 電子装置と、
− 空間領域をポイントする、ユーザが操作可能なポータブルポインティングデバイスと、
− 画像を撮るカメラと、
− 前記画像を受信し処理することができ、前記画像から得られたユーザインターフェイス情報を前記電子装置に送信することができるデジタル信号プロセッサとを有するユーザインターラクションシステムに関する。
本発明は、ユーザインターラクションシステムで使用されるポインティングデバイスにも関する。
本発明は、上記のユーザインターラクションシステムで使用される電子装置にも関する。
上記のシステムは特許文献1で知られている。この文献はユニバーサルリモートコントロールシステムについて記載している。ユーザは認識可能な特徴を表示してディスプレイ上の位置をポインティングデバイス(例えば、赤いスポットを放射するレーザポインタ)でマークし、カメラがそのディスプレイの画像を捉える。ユーザがポイントした位置を計算する。コンピュータやテレビ等の電子装置がユーザのマーキングに対応した動作をする。例えば、レーザポインタを2回点滅してディスプレイ上のアイコンをマークしたとき、対応するコンピュータプログラムがスタートする。
上記のシステムの欠点は、システムが特定のディスプレイに合うように作られていることである。例えば、そのディスプレイはスクリーン上のLCDベースのフロントプロジェクターからの投影であり、ラップトップコンピュータがプロジェクタに接続されている。上記のシステムのカメラは、そのスクリーンの画像を捉えることができるような位置とビューイングアングルを有している。次に、そのカメラからの画像中のエリアであって、ユーザにポイントされたスクリーン上の位置に対応するエリアをDSPが識別する。先行技術ではこれを簡単な方法で行うことができる。第1に、スクリーンの画像にはプロジェクタからの画像が、レーザポインタを照射した状態と照射しない状態の両方で捉えられている。この2つの画像を比較することにより、カメラが見ているように空間内のディスプレイのエリアが取得される。第2に、ディスプレイ上のポイントされた位置と投影された画像中の位置との間の関係を決める透視変換が、ラップトップコンピュータのフレームバッファ中で導き出される。特許文献1は、壁等の仮想ディスプレイへのポインティングも記載している。それには仮想ディスプレイのコーナーを選択する。しかし、このシステムは常に1つのディスプレイに合わせて調整されており、ユーザは他のディスプレイとインターラクトしたくても、システムを再度設定しなければならないか、または第2のシステムを使用しなければならない。
米国特許公報第2001/0030668号
本発明の第1の目的は、冒頭のパラグラフで説明した種類のユーザインターラクションシステムであって、いくつかの利用可能な電子装置、より具体的にはディスプレイと比較的容易にインターラクトできるシステムを提供することである。
本発明の第2の目的は、冒頭のパラグラフで説明した種類のポインティングデバイスであって、いくつかの利用可能な電子装置と比較的容易にインターラクションできるポインティングデバイスを提供することである。
本発明の第3の目的は、上記のユーザインターラクションシステムにおいて使用する電子装置を提供することである。
第1の目的は、カメラをポインティングデバイスに接続し、動作中に、ポイントされた領域の画像を撮ることにより実現される。固定カメラは空間のある領域だけの画像を撮る。既知のユーザインターラクションシステムでは、ユーザのポインティングデバイスやポイントされたオブジェクトは、固定カメラの視界の中に無いことが起こる。例えば、ポイントされた領域に最も近い、ポインティングデバイスの先端に取り付けられたカメラを有するポインティングデバイスの利点は、そのカメラがポイントされた領域の画像を常に実質的に最適に撮ることである。ポイントされるオブジェクトは、一般に、ユーザインターフェイス情報(例えば装置制御データ)が送信される電子装置であるが、DSPにより認識可能な限り、ユーザがいる部屋に有るいかなるオブジェクトでもよい。制御される装置は、例えば、ポイントすることにより特定される。
請求項2による実施形態において、前記ユーザインターフェイス情報は、前記電子装置の動作を制御する装置制御データを有する。リビングルームには、例えば音を出す装置はたくさんある。これらの機器は各々、音のボリュームを上げたり下げたりする制御をすることができる。ポインティングデバイスのカメラを装置に向けてポイントし、「ボリュームアップ」コマンドを実行することにより(例えば、ポインティングデバイス上のボタンを押したり、ポインティングデバイスで特定の動作をすることにより)、ポイントされた機器のボリュームが上昇する。既知のユニバーサルリモートコントロールを使用すると、同一のリモートコントロールコードを使用しているので、ユーザが意図しない装置が反応するという欠点がある。
請求項3に記載したように、前記デジタルシグナルプロセッサは、オブジェクトを特定するオブジェクト特定手段に第1のオブジェクト特徴付けフィーチャ(feature)を供給することにより、前記カメラにより画像化された前記領域の前記画像中にあるオブジェクトまたは前記オブジェクトの一部を特徴付けるオブジェクト特徴付け手段を有し、前記オブジェクト特定手段は、前記ユーザインターフェイス情報が構成されるオブジェクト特定データを出力可能であることは有利である。
異なる電子装置を制御する場合、すべてを自動的に認識しなければならない。DSPは、例えば、前記装置を特徴付けるアルゴリズムを実行する一般的プロセッサでもよいし、ASICでもよい。一般に、オブジェクト特徴付け手段は、装置の画像に画像処理アルゴリズムを適用する。例えば、装置の相対的な大きさを計算し、その装置のボタンの数と位置を分析することができる。オブジェクト特定手段は、例えば、装置テーブル中の情報により、装置をこれらの第1のオブジェクト特徴付けフィーチャと関連付ける。その装置が理解する装置制御データのような、その装置に関する他の情報、例えば「X社が製造したシリアルナンバーYの第1のテレビ」があってもよい。
請求項4に記載のように、前記デジタルシグナルプロセッサは、前記ポインティングデバイスの動き軌跡を評価して、前記動き軌跡の数学的抽象化である第1の動き特徴付けサインを出力する動き軌跡評価手段と、前記第1の動き特徴付けサインを特定し、前記第1の動き特徴付けサインに対応するコマンド特定データを出力するサイン特定手段とを有し、前記コマンド特定データはユーザインターラクションコマンドを表し、前記コマンド特定データから前記ユーザインターフェイス情報が構成されることは有利である。
異なるすべての装置に送信可能な異なるすべてのコマンドのためにポインティングデバイス上に多数のボタンを備える必要を無くし、ユーザインターラクションシステムをよりユーザフレンドリーにするため、ユーザが手に持っているであろうポインティングデバイスの動きに基づいて装置制御データの少なくとも一部を生成すれば有利である。上向きの動きのサインは「ボリュームアップ」を意味してもよい。しかし、標準的なリモートコントロールとは対照的に、本発明によれば、ボリューム変更の大きさは動きの強さにより決まってもよい。例えば、ユーザが腕をゆっくり上げたときボリュームは少しだけ変更され、腕を早く上げたときはボリュームは大きく上昇してもよい。ポインティングデバイスの動きの決定は、変形センサーの質量、ジャイロスコープ、ディファレンシァルGPS等の動き検知手段によりなされる。しかし、カメラがあるので、連続した画像を撮って動き評価アルゴリズムを適用することにより動きを決定することもできる。大域的動き評価は複数のオブジェクトの精密な動き評価よりも簡単なので、カメラは簡単なCMOSベースのカメラであってもよいし、少数の光検知エレメントの2次元アレイであってもよい。
請求項5に記載したように、前記デジタルシグナルプロセッサは、オブジェクト特定データとして表された前記オブジェクトとコマンド特定データとして表されたユーザインターラクションコマンドが、所定のルールに基づきより高い信頼性で特定され、より信頼できるユーザインターフェイス情報を生じる確率をさらに改善することができる特定改善手段を有することは有利である。部屋の条件はよく変化するので、オブジェクトと動きサインの特定は必ずしも完全である必要はないので、識別改善手段を組み込んでもよい。この識別改善手段は、例えば、特定されたオブジェクト特定データとコマンド特定データに人工知能のルールを適用し、あるいは特徴付けフィーチャ、第1のオブジェクト特徴付けフィーチャと第1の動き特徴付けサインも考慮に入れる。例えば、ポイントされた装置を決定するルールには、ポインティングデバイスがある部屋や、1日のうちの時刻も考慮に入れることができる。例えば、ユーザが家に帰ってポインティングデバイスを手に持った時に最初にすることは、一般的に、室内灯をスイッチオンすることである。DSPは室内灯の画像に基づき、ユーザの意図を検証する。
請求項6に記載の通り、前記所定のルールは、アプリオリに知られた情報{前記ポインティングデバイスがある部屋、ユーザにより前に発行されたコマンド、ユーザが特定のコマンドを発行する統計的頻度と時間}のうち少なくとも1つを考慮して、{オブジェクト特定データ、コマンド特定データ}ペアの尤度の確率的計算を有することはさらに有利である。例えば、コマンドの尤度は、ユーザが通常使用するコマンドの統計的プロファイルおよび事前に発行されたコマンドに基づき計算することができる。また、装置の尤度もポインティングデバイスがある部屋に基づき更新することができる。金曜夜8時に、ユーザは好みのテレビ番組を見たいと思うかも知れない。
請求項7に記載したように、前記デジタルシグナルプロセッサは、前記オブジェクト特定手段にオブジェクト関連付けデータを提供するオブジェクト関連付け手段を有し、前記オブジェクト関連付けデータは、関連付けされたオブジェクト特徴付けフィーチャとオブジェクト関係データであるところのデータエンティティを少なくとも1つ有し、前記オブジェクト関連付けデータは、以下の方法:
− 前記オブジェクトテンプレートデータを、オブジェクト特徴付け手段により出力された第2のオブジェクト特徴付けフィーチャの所定の計算を実行するオブジェクトトレーニング手段から取得する方法、および
− 前記オブジェクトテンプレートデータを、入力されたオブジェクトデータから導き出す方法
のうち少なくとも1つの方法で取得した、オブジェクトメモリ中のオブジェクトテンプレートデータから導き出すことができることは有利である。
ユーザインターラクションシステムは、生産者によって固定数の装置を制御するように事前に構成されているよりも、ユーザが自分の変化する環境に適当させることができれば、より一層用途が広くなる。例えば、ユーザが新しい装置を購入したとき、同じシステムにより制御可能であった方がよい。また、ユーザがカレンダーを購入し、壁に掛け、ポインティングデバイスでポイントしたとき、例えば、PCのカレンダーツールがスタートする方がよい。このため、オブジェクト関連付け手段が必要となる。ユーザは、例えば、新しい装置の画像を少数の異なったアングルで撮る。オブジェクト特徴付け手段上で実行されているいくつかの画像処理アルゴリズムが、このオブジェクトのフィーチャを抽出し、オブジェクトテンプレートとして記憶する。あるいは、その前に変化しない装置特有のフィーチャを計算する。その後、ユーザは、選択ユーザインターフェイスを用いて、どの装置がこのオブジェクトテンプレートに対応するかを選択する。これは、システムのいわゆるトレーニングフェーズである。その後、いわゆるコマンドフェーズでシステムを使用して、特定した装置に装置制御データを送信するとき、オブジェクト特定手段によるオブジェクトの特定は、オブジェクト関連付け手段に記憶されたデータにより支援される。例えば、オブジェクトテンプレートデータに基づき、オブジェクト特徴付け手段が第1のオブジェクト特徴付けフィーチャとして出力するものに対応するいくつかの関連付けられたオブジェクト特徴付けフィーチャがオブジェクト特定手段に送られる。オブジェクト特定手段は比較を行い、正しい特定された装置を選択する。これらのフィーチャは、オブジェクト特定手段にプリロードされることもできる。オブジェクト関連付け手段は、オブジェクト関係データもオブジェクト特定手段に送信できる。そのオブジェクト特定手段は、少なくとも前記装置の識別子を有し、あるいはサポートされたコマンド等のさらに別のデータを有する。別の実施形態において、オブジェクト関連付け手段はそれ自体オブジェクトの特定が可能である。この場合、オブジェクト関係データのみがオブジェクト特定手段に送られる。ユーザが選択ユーザインターフェイスを通して多数の情報を入力しなくてもよいように、オブジェクト関係データをオブジェクトデータ入力を通して、例えば特定され制御されるべき装置から直接、入力できる。この入力を介して、特徴オブジェクトテンプレートデータも入力することができる。例えば、装置の生産者がよく整った画像化環境で撮った画像を提供してもよい。
請求項8に記載したように、前記デジタルシグナルプロセッサは、サイン関連付けデータを前記サイン特定手段に提供するサイン関連付け手段を有し、前記サイン関連付けデータは、関連付けられたサインフィーチャおよびコマンド関係データであるところのデータエンティティを少なくとも1つ有し、前記サイン関連付けデータは、以下の方法:
− 前記サインテンプレートデータを、前記動き軌跡評価手段により出力された第2の動き特徴付けサインの所定の計算を実行するサイントレーニング手段から取得する方法、および
− 前記コマンドテンプレートデータを入力されたコマンドデータから導き出す方法のうち少なくとも1つの方法で取得した、サインメモリ中のサインテンプレートデータから導き出すことができることも有利である。
同様の理由で、サイン関連付け手段を備えて、ユーザによりポインティングデバイスに適用し、サインとして特徴付けられた新しい動き軌跡をトレーニングすることができる。これらの実施形態において、コマンドデータは、例えば自分がサポートしているコマンドのメニューを提供する装置により入力される。
請求9に記載したように、前記第1の動き特徴付けサインは、それぞれの瞬間に前記カメラで撮られた連続画像に基づき導き出されることも有利である。カメラがポインティングデバイスに取り付けてありその動きを常に画像化しているので、また大きな動きは簡単な動き評価アルゴリズムで評価できるので、連続して撮られた画像を用いて、意図されたユーザインターフェイスコマンドを導き出すことができる。
第2の目的は、請求項10に記載の、カメラを有し、デジタルシグナルプロセッサに画像を送信することができるポインティングデバイスにより達成することができる。すでに上で説明したように、上記のポインティングデバイスを用いればユーザインターラクションシステムはより機能が豊富になる。
ポインティングデバイスの一実施形態は、請求項11において、前記ポインティングデバイスが画像を送信することができる前記デジタルシグナルプロセッサは、前記画像に基づき電子装置にユーザインターフェイス情報を送信することができることを特徴とする。
請求項12の実施形態によれば、前記デジタルシグナルプロセッサは前記ポインティングデバイスに含まれている。本ポインティングデバイスは、ユーザインターラクションシステムとは別に動作する。例えば、ポインティングデバイスをスーパーマーケットに持って行き、撮った画像を処理し、対応する第1のオブジェクト特徴付けフィーチャを記憶することができる。家庭の装置を後で制御することができる。
請求項13に記載したように、前記ポインティングデバイスの動き軌跡を検知する動き検知手段を有することは有利である。デバイスをオブジェクトを認識するために使用するかどうかにかかわらず、ユーザによる動きに対応する装置制御データを送信するために使用することができる。ポインティングデバイスの上記のアプリケーションにおいて、意図された装置は、例えばボタンを用いて固定したり特定したりすることができる。
請求項14に記載したように、ポイントされた領域に向けて特徴パターンを光学的に投影する特徴プロジェクタを有することは有利である。ユーザがどの装置または装置の一部をポイントしているかのフィードバックを得ることができれば有利である。さもないと、ユーザは、正しくポイントしていないとき、例えば、装置の間違ったボタンを押してしまうかも知れない。フィードバックの一形式は、ポインティングデバイスのディスプレイ上の、カメラが画像化している領域の中心を示す小さな画像である。ディスプレイの中心の装置または装置上のボタンが意図されたボタンである。フィードバックの他の形式は、例えば白い十字やレーザドット等の特徴パターンの投影である。これらの特徴パターンは装置の意図された部分を照らす。2次元グリッド線のようなより複雑なパターンは、DSPが画像化された装置のジオメトリーを特定する役に立つ。
請求項15に記載したように、ポインティングデバイスが、プログラマブルユーザインターフェイスコードジェネレータと、コードを前記電子装置に送信する無線トランスミッタとを有することは有利である。例えば、ブルートゥースに基づくワイヤレスホームネットワークによりDSPが装置制御データを装置に送信するのではなく、ポインティングデバイスは、例えば赤外線の照射により、直接適当なリモートコントロールコマンドを送信することができる。従来のユニバーサルリモートコントロールと比較した場合の利点は、DSPが自動的にカメラ画像から装置を特定して、正しいコードを生成することである。
請求項16に記載したように、ユーザインターフェイス情報のフィードバックをするフィードバック手段を有することは有利である。例えば、ディスプレイが便利である。他のフィードバックとして、質量が動くことによる力フィードバックの種類がある。これは、例えばテレビスクリーンに対するティッピングをシミュレートすることができる。
第3の目的は、サポートされたコマンドに関する情報を請求項10に記載のポインティングデバイスに送信可能とするインターフェイス手段を有し、前記送信は前記電子装置に対する前記ポインティングデバイスの「サポートされたコマンド特定」コールに基づきなされることにより実現される。DSPまたはDSPの機能の一部が装置に組み込まれていてもよい。その装置はオブジェクト特徴付けフィーチャその他を送信することもできる。
本発明は以下の説明と添付した図面を参照して明らかとなるであろう。添付した図面は、本発明によるユーザインターラクションシステムの構成要素とポインティングデバイスの実施例の概略を示す。
本発明によるユーザインターラクションシステムを設置した部屋を示す概略図である。 本発明によるデジタルシグナルプロセッサを示すブロック図である。 本発明によるポインティングデバイスを示す概略図である。 図4a、4bは、モーショントラジェクトリおよびそれと対応するサインの例を示す図である。
図1には、ユーザインターフェイス情報Iを受信することができる様々な電子装置が設置された部屋が示されている。例えば、電子装置110はプラズマディスプレイである。パーソナルビデオレコーダ、電話、洗濯機などを設置し、ユーザ100がこれらとインターラクトできてもよい。この部屋には様々なオブジェクトが設置されており、電子装置や窓等の単なる物理的なオブジェクトである。オブジェクト130はオーディオ装置であり、花瓶170や電子装置110もある。これらはポインティングデバイス101によりポイントできる。
本発明によれば、ポインティングデバイス101はカメラ102を含み、部屋の領域の画像やこれら領域のオブジェクトの画像をデジタルシグナルプロセッサ(DSP)120に送信することができる。このデジタルシグナルプロセッサ(DSP)は、カメラ102により撮られた画像に基づき、領域やオブジェクトを識別できる。カメラはポイントされた領域の画像をよく撮れるようにポインティングデバイス101と接続されている。例えば、そのカメラはポインティングデバイス101から遠い端にあってもよいし、角度をつけて横に設置してもよい。ユーザは好きなオブジェクトをポイントすることができ、非常にユーザフレンドリーで強力なユーザインターラクションシステムを実現することができる。
DSP120は、例えば、ホームネットワーク中の装置を制御するホームコンピュータであってもよいし、ポインティングデバイス101に組み込まれていてもよい。カメラ102はCCDカメラやCMOSカメラである。カメラ102とDSP120は、もし離れていれば、無線で接続されていてもよい。ポインティングデバイス101は、オブジェクトの識別のためにDSP120により実行されるアルゴリズムの一部をすでに実行できる。そのため、ほんの少しの機能しか外部のDSP120に送信する必要はない。事実として、機能的に示したDSP200は、ポインティングデバイス101、部屋、異なる装置等のいくつかの部分に分散していてもよい。
DSP120は、ユーザインターフェイス情報I(例えば、装置制御データac)を特定された装置に送信するように設計されている。例えば、ユーザ100は、室内灯160にポインティングデバイス101を向けて、ポインティングデバイス101上のオンボタンを押す。これにより、DSP120がその特定された室内灯160にオンコマンドを送信する。特定されるオブジェクトは制御される装置そのものでなくてもよい。例えば、花瓶170をポイントするとPC上で特定のプログラムが実行され、その出力がディスプレイ装置110に表示されてもよい。オブジェクトの一部をポイントしてもよい。例えば、オブジェクト130のボリュームボタン134をポイントすると、ボタンを押したりポインティングデバイス101を動かしたりという追加的な動作に応じて、このオーディオ装置のボリュームが上がったり下がったりする。チャンネル選択表示132ポイントして横方向に動かすとチャンネルが替わる。DSP120はオブジェクトの一部の状態を認識することもできる。例えば、カセットローダ136が開いていることを認識して、「クローズ」コマンドを発行することができる。その他特定の状況を検知したり監視したりすることもできる。ユーザ100は家具140またはその一部をポイントしてもよい。その家具140がカップボードである場合、異なる引き出しをポイントすると異なる動作が行われる。家具140がインテリジェント冷蔵庫である場合、それをポイントするとユーザが定義した動作が行われる。例えばインターネット経由でビールを注文することができる。装置制御データacとは別に、他のユーザインターフェイス情報I(例えば、画像データpd)を送信することもできる。例えば、第1の電子絵画150と第2の電子絵画152が表示する画像を変更できる。これは、電気泳動電子インクディスプレイで実現することができる。ユーザ100は、第1の電子絵画に表示された画像や壁に掛かっているカレンダーの画像を捉えて、あるいはパースペクティブコレクション等の画像処理ののち、第2の電子絵画152に画像データpdとして送信することができる。
図2は、図1に示したデジタルシグナルプロセッサ120の実施形態であるところのデジタルシグナルプロセッサ200の機能的構成要素を示すブロック図である。ここで説明する構成要素のすべてがユーザインターラクションシステムの実施形態に必ずしも含まれるわけではない。DSP200は一般のプロセッサ、ASIC、回路基板上の個別部品として実現することができる。DSP200は、例えば動き検知手段304から、カメラ入力Cとセンサー入力Sを受信する。DSP200は、カメラ102により画像化されたオブジェクト130やその一部の画像を特徴付けるオブジェクト特徴付け部202を有する。そのオブジェクト特徴付け部202は、オブジェクト特定部204に第1のオブジェクト特徴付けフィーチャf1を供給することができる。第1のオブジェクト特徴付けフィーチャf1は、オブジェクト特定部204で実施された画像処理アルゴリズム応じた異なる種類であってもよい。一般的に、オブジェクトは最初、画像の残りの部分から分離される。これは例えば画像のエッジおよびカーブ検出により行われる。他のオプションとして、例えば投影グリッドや第2のカメラを用いた、画像化された領域の3次元分析がある。オブジェクトの一部を相関法(correlation technique)に基づき検出し、オブジェクトの残りを検証する。
第2に、第1のオブジェクト特徴付けフィーチャf1を計算する。オブジェクトの輪郭とその構成部分を、曲率対角度特徴(curvature versus angle characteristic)により特徴付けることができる。幅と高さの比を計算してもよい。分離したオブジェクト領域自体を使用してもよいし、または、一般的にパースペクティブコレクションを最初に実施した後のオブジェクト領域を使用してもよい。
オブジェクト特定部204は、オブジェクト特徴付け部202から受信した第1のオブジェクト特徴付けフィーチャf1に基づいてオブジェクトを特定する。例えば、多次元フィーチャ空間におけるいかなる既知の分類方法を用いてもよい。オブジェクト特定部204の出力はオブジェクト特定データoiであり、単純な数字または特定されたオブジェクトについての付加的情報を含むデータ構造である。例えば、DSP200を含むポインティングデバイスの生産者によってアプリオリに、いくつかの装置を特徴付けるフィーチャや別のデータがオブジェクト特徴メモリ230に記憶されてもよい。またはDSP200がコンピュータであれば、インターネットからプリロードしてもよい。オブジェクトを特定するのではなく、DSPは部屋の領域を特定してもよい。例えば、ポインティングデバイス101を天井に向けると、コマンド「室内灯オン」が発行され、床に向けると室内灯がスイッチオフされる。部屋の隅に向けると関連するコマンドが発行される。部屋の隅はそこにあるオブジェクトによって特定してもよい。例えば、左側には植物があり右側にはカップボードがある。
ユーザが花瓶170等の新しいオブジェクトを教え込むことができれば、ユーザインターラクションシステムはより一層便利である。それゆえ、オブジェクト関連付け部212が含まれていてもよく、このオブジェクト関連付け部212はオブジェクト特定部204にオブジェクト関連付けデータoadを供給する。オブジェクト関連付けデータoadは、オブジェクトテンプレートに基づく、第1のオブジェクト特徴付けフィーチャf1に類似した、オブジェクトの特徴付けフィーチャfaを有する。オブジェクトテンプレートは、トレーニングフェーズを適用することにより取得できる。新しいオブジェクトは、異なったアングルや照明等のいくつかの条件下でカメラ102により画像化される。オブジェクト特徴付け部202は、すべての画像について第2のオブジェクト特徴付けフィーチャf2を生成する。オブジェクト関連付け部212中のオブジェクトトレーニング部221は、オブジェクトメモリ220に記憶されているオブジェクトに対応するオブジェクトテンプレートを生成する。テンプレートは、すべての画像の第2のオブジェクト特徴付けフィーチャf2のクラスター、または平均フィーチャ、または可変の第2のオブジェクト特徴付けフィーチャf2に基づいて計算されたいくつかの不変フィーチャである。オブジェクトテンプレートは、オブジェクトデータodとして外部から入来する特徴付けフィーチャに基づきオブジェクトトレーニング部221により導き出される。このオブジェクトデータは、例えば、生産者により異なるアングルで撮られた自分の画像を入力する装置のものであってもよい。オブジェクトデータodとオブジェクト関連付けデータoadは、オブジェクト関係データid、すなわちサポートされたコマンドのような装置に関係したすべての種類の情報を有してもよい。
オブジェクト認識を容易にするために、装置110等の特定のオブジェクトは特有のパターン116を表示してもよい。例えば、ポインティングデバイスの「オブジェクト特定」コールに応じて、異なるオン/オフ間隔で所定回数赤い十字を点滅させてもよい。装置110は、本発明によるユーザインターラクションシステムをより便利にするインターフェイス部190を有してもよい。例えば、インターネットラジオ等の装置は、ポインティングデバイス101と通信する「サービス発見」機能を有し、その機能はポインティングデバイス101がサポートしている。これらのコマンドに対応する赤外リモートコントロールシーケンスを送信してもよい。この機能はユーザ100によるDSP120、200のトレーニングを容易にする。例えば、通信に応じて、ポインティングデバイス101のディスプレイ316上に所定のアイコンのメニューとしてコマンドが表示される。インターフェイス部190は別に実現することもできる。例えば、洗濯機は複雑なリモートコントロール機能は有していないかも知れない。DSP200から標準コマンドを受信して、装置を簡単な方法でインターフェイスする(例えばスタートする)プラグオンボックスを備えてもよい。
DSP200は、ユーザ100によりポインティングデバイス101でなされた身振りを分析する構成要素を有してもよい。このために、ポインティングデバイス101の図4に示した動き軌跡400を使用する。この動き軌跡400は、例えばカメラ102の画像に基づいて計算される。図4aは3次元座標系404中の上向き動き軌跡400を示す。この上向き動き軌跡400は、その数学的表現であるサイン402により要約される。サイン402は、例えばコマンドテーブルにより、コマンド特定データciとリンクさせることができる。例えば、この場合、ユーザ100はこの動きを「ボリュームアップ」コマンドとして確保してもよい。丸い動き軌跡410と丸いサイン412は、あるユーザにとっては「巻き戻し」を意味するが、他のユーザはこの丸いサイン412を「機器オン」コマンドと関係付けるようにDSP200に教えているかも知れない。ユーザがポインティングデバイス101をおおよそ室内灯160の方に向けて、「機器オン」の動きをすると、この動きに基づきDSP200は室内灯160をスイッチオンする。あるいは、ユーザ100は空中のどこかで「機器オン」の動きをしてから、室内灯160、テレビ、その他スイッチオンしたいオブジェクトをポイントすることもできる。サイン402、412をいかなる方法でパラメータ化しても、またいかなる既知の曲線フィッティング方法でマッチングしてもよい。例えば、サイン402は、特定長さとセグメント間角度を有するいくつかのラインセグメントとしてサイン402をコード化してもよい。
動き軌跡評価部206は、動き検知手段304またはカメラ102からの連続画像に基づき、動き軌跡400を計算する。例えば、光フローまたはブロックベース動き評価法を2つの連続した画像に適用して、動き軌跡400の一部401を取得することができる。動きベクトル場の発散を用いてオブジェクトに向かう(すなわち、一般的にはポインティングデバイス101の軸に沿った)動きを評価することもできる。動き軌跡400に基づき、サイン生成部209は第1の動き特徴付けサインs1を出力する。サイン特定部208は、第1の動き特徴付けサインs1を特定し、それをコマンド特定データciとリンクする。このコマンド特定データciは、例えば、ユーザインターラクションコマンドの数値的表現である。第1の動き特徴付けサインs1は、サイン特徴メモリ232に記憶された異なるサインのサイン特徴と比較される。例えば、おおよそ丸いか、または元に戻るような動きをすると、丸いサインテンプレートは線形サインテンプレートよりよくマッチする。幾何学的かつ構造的曲線マッチング方法を同様の計算に適用することができる。
DSP200が新しいオブジェクトを特定することを学習できることが有利であるのと同様に、DSP200がユーザ100が好む新しい動きを特定できれば有利である。それゆえ、サイン関連付け部214は、サイン関連付けデータSADをサイン特定部208に供給してもよい。サイン関連付けデータSADは、関連付けられたサインフィーチャsa(例えば、丸いサイン412の数学的表現)および/または(例えば、DSP200にコマンドデータcdとしてサポートされたコマンドを送信する装置から受信された)コマンド関係データを有していてもよい。サインメモリ222中のサインテンプレートは、動き軌跡評価部206からの第1の動き特徴付けサインs2に基づきサイントレーニング部223から、またはコマンドデータcdから取得することができる。
例えば、1日の内で照明が変化することにより、ユーザの環境は非常に変わりやすいので、オブジェクト130またはコマンド(すなわちサイン402)の特定は、間違っているときがある。それゆえ、DSP200は特定改善部210を有してもよい。意図されるコマンドは、例えば、ポイントするオブジェクト130に依存したり、その前に与えられたコマンドなどに依存することがある。オブジェクトは、ポインティングデバイスがある部屋に無ければ、間違って特定されている。それゆえ、点滅するLED等の部屋認識手段185がある。ユーザ100は、部屋に入った時、ポインティングデバイス101で部屋認識手段185をスキャンする。カメラ102とは別に、部屋認識手段185を検知するために、ポインティングデバイス101にはフォトダイオードが備えられている。部屋位置限定ビーコン180、181、182があり、DSP200は、ポインティングデバイス101が部屋のどの部分をポイントしているのかを認識できるようにしてもよい。カメラ102が認識する場合、ビーコンは光を放射するが、電磁波を放射してもよい。オブジェクトの認識に、部屋にあるオブジェクトを利用してもよい。例えば、花瓶170がオブジェクト130の隣にあるとき、オブジェクト130を認識するときに花瓶170の認識を利用できる。ポインティングデバイスの過去の軌跡の分析でも利用することができる。ポインティングデバイスがオブジェクト130をポイントし、その後、右に動いたとき、そのポインティングデバイスは装置110をポイントしている。これらの情報をすべて考慮して、特定改善部210は、例えばベイズ確率を計算したりファジー論理を用いて、オブジェクト130や意図されたコマンドのより確かな特定に到達することができる。
DSP200により出力されるユーザインターラクション情報Iは、一般的に、オブジェクト特定データoiとコマンド特定データciを有する構造であるところの制御装置データac、または、それらに基づき、特定の装置110について意図されたコマンドを特定する、新しい識別子を有する。ユーザインターラクション情報Iは画像データpdを有していてもよい。
図3は、本発明によるポインティングデバイス300(図1に示した実施形態101)を示す概略図である。図示したすべてのフィーチャが必要なわけではない。簡単なポインティングデバイスはカメラ302と、フィードバックのための例えばディスプレイ316を有しているだけでもよい。ボタン308等のいくつかのボタンがあってもよい。これにより、ボタンを押すだけでコマンドを与えることができる。ポインティングデバイス300を同様に動かしても、ボタン308を押しながら動かす場合と押さないで動かす場合とで、2つの異なるコマンドとして使用することができる。例えば、ポイントする位置に向けてレーザスポットを投影するための特徴プロジェクタ320があってもよい。ポインティングデバイスのカメラは、外部のDSP120に画像を送ることができる。こうして、ポインティングデバイスは室外でも使用することができる。ユーザ100が持ち歩いていないポインティングデバイス103は、装置110や部屋を監視するために使用することもできる。カメラにより動きを検知するのではなく、ジャイロスコープやディファレンシャルGPS等の他の動き検知手段304を有してもよい。装置110にコマンドを直接送るために、プログラマブルコードジェネレータ309とワイヤレストランスミッタ310があってもよい。付加的情報をユーザに提供するため、フィードバック手段があってもよい。例えば、ライト312、サウンド発生デバイス314、力フィードバック手段306、特にディスプレイ316が設けられてもよい。力フィードバック手段は、小さな可動質量を有し、装置の振動をシミュレートできる。ディスプレイは、例えば、あるいは画像の中心にグラフィックとして十字を重ね合わせて、ポイントされている領域の中心を表示することができる。これはテレビに表示することもできる。同様に、ライト160がライト312の替わりにフィードバック用に使用されてもよい。ディスプレイ316上のフィードバックは、例えば、動き軌跡400を示してもよく、動き軌跡トレーニングフェーズ中に、前の動き軌跡とどのくらい類似しているかを示して、ユーザ100が安定した動きを学習する助けをしてもよい。ディスプレイ316は、いくつかの画像処理ステップの後に画像を表示して、DSP200が見ているもの(例えば、検知したエッジと特定した機器の名前のテキストを含む画像)を表示してもよい。
指紋センサー、パスワード入力、パーソナルスマートカード等である、ユーザ特定手段330があってもよい。このように、DSP200は、ユーザ100に特化した動作モードに設定することができる。ユーザは自分がいる部屋に応じて異なるコマンドを与えてもよい。ポインティングデバイス300の動きにより与えられたコマンドを補助するために、音声認識手段340が備えられてもよい。現実世界へのインターフェイス機器としてポインティングデバイス101を使用することにより、ゲームをすることもできるであろう。

Claims (13)

  1. 電子装置を制御するためのユーザインターラクションシステムであって、
    空間領域をポイントする、ユーザが操作可能なポータブルポインティングデバイスと、
    画像を撮るカメラと、
    前記画像に基づいて前記電子装置を制御するためのユーザインターフェイス情報を構成することができるデジタルシグナルプロセッサとを有し、
    前記カメラは前記ポインティングデバイスに接続され、動作中ポイントされる前記領域の画像を撮り、
    当該ユーザインターラクションシステムはさらに、前記電子装置に関連付けられたパターン生成手段を有し、前記パターン生成手段は、前記電子装置に特有の点滅パターンを表示し、前記パターンは前記カメラで認識されて前記電子装置を認識するために用いられ、
    前記ユーザインターフェイス情報を構成するために、前記ポインティングデバイスの動き若しくは動き軌跡が、それぞれの瞬間に前記カメラで撮られた連続画像に基づいて評価されることを特徴とするシステム。
  2. 請求項1に記載のユーザインターラクションシステムであって、電磁放射を発することができる少なくとも一つのビーコンを有し、前記電磁放射は、当該システムによってとらえられることができ、とらえられた電磁放射から得られる情報は、前記ポインティングデバイスがどこをポイントしているかを認識するために前記デジタルシグナルプロセッサによって用いられ、前記デジタルシグナルプロセッサがさらに前記ビーコンに対する前記ポインティングデバイスの方向を認識するシステム。
  3. 請求項1又は請求項2に記載のユーザインターラクションシステムであって、前記ポインティングデバイスの動き又は動き軌跡を評価することを可能にする動き検知手段をさらに有するシステム。
  4. 請求項1から請求項3のいずれか一項に記載のユーザインターラクションシステムであって、前記ユーザインターフェイス情報が、前記ポインティングデバイスの動き速さ及び動き方向からなるグループから選択される少なくとも1つの特徴を含むシステム。
  5. 請求項1から請求項4のいずれか一項に記載のユーザインターラクションシステムであって、前記ユーザインターフェイス情報が、前記ポインティングデバイスの動き軌跡及び前記ポインティングデバイスの前記動き軌跡から導かれる特徴付けサインからなるグループから選択される少なくとも1つの特徴を含むシステム。
  6. 請求項1から請求項5のいずれか一項に記載のユーザインターラクションシステムであって、前記ポインティングデバイスが、ユーザに付加的情報を提供するフィードバック手段をさらに有するシステム。
  7. 請求項6に記載のユーザインターラクションシステムであって、前記フィードバック手段が、光、音、ディスプレイ及び力フィードバック手段からなるグループから選択されるシステム。
  8. 請求項1から請求項7のいずれか一項に記載のユーザインターラクションシステムであって、
    前記ユーザインターフェイス情報は、前記電子装置の動作を制御する装置制御データを有することを特徴とするシステム。
  9. 請求項1から請求項8のいずれか一項に記載のユーザインターラクションシステムにおいて使用するポインティングデバイスであって、前記デジタルシグナルプロセッサの一部及び前記カメラを有し、前記画像は前記デジタルシグナルプロセッサに送信されることができるポインティングデバイス。
  10. 請求項9に記載のポインティングデバイスであって、
    ポイントされた領域に向けて特徴パターンを光学的に投影する特徴プロジェクタを有することを特徴とするポインティングデバイス。
  11. 請求項9又は請求項10に記載のポインティングデバイスであって、プログラマブルユーザインターフェイスコードジェネレータと、コードを前記電子装置に送信する無線トランスミッタとを有することを特徴とするポインティングデバイス。
  12. 請求項1に記載のユーザインターラクションシステムにおいて使用する電子装置であって、
    サポートされたコマンドに関する情報を、空間領域をポイントするユーザが操作可能なポータブルポインティングデバイスに送信可能とするインターフェイス手段を有し、
    前記送信は前記電子装置に対する前記ポータブルポインティングデバイスの「サポートされたコマンド特定」コールに基づきなされることを特徴とする電子装置。
  13. 請求項1から請求項8のいずれか一項に記載のユーザインターラクションシステムであって、前記パターンが前記ポインティングデバイスのコールに応じて表示されるシステム。
JP2008300814A 2002-11-20 2008-11-26 ポインティングデバイスに基づくユーザインターフェイスシステム Expired - Lifetime JP4491495B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP02079816 2002-11-20

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004552957A Division JP4243248B2 (ja) 2002-11-20 2003-10-28 ポインティングデバイスに基づくユーザインターフェイスシステム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2009098091A Division JP2009217829A (ja) 2002-11-20 2009-04-14 ポインティングデバイスに基づくユーザインターフェイスシステム
JP2009125318A Division JP5122517B2 (ja) 2002-11-20 2009-05-25 ポインティングデバイスに基づくユーザインターフェイスシステム

Publications (3)

Publication Number Publication Date
JP2009134718A JP2009134718A (ja) 2009-06-18
JP2009134718A5 JP2009134718A5 (ja) 2009-07-30
JP4491495B2 true JP4491495B2 (ja) 2010-06-30

Family

ID=32319629

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2004552957A Expired - Lifetime JP4243248B2 (ja) 2002-11-20 2003-10-28 ポインティングデバイスに基づくユーザインターフェイスシステム
JP2008300814A Expired - Lifetime JP4491495B2 (ja) 2002-11-20 2008-11-26 ポインティングデバイスに基づくユーザインターフェイスシステム
JP2009098091A Ceased JP2009217829A (ja) 2002-11-20 2009-04-14 ポインティングデバイスに基づくユーザインターフェイスシステム
JP2009125318A Expired - Lifetime JP5122517B2 (ja) 2002-11-20 2009-05-25 ポインティングデバイスに基づくユーザインターフェイスシステム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2004552957A Expired - Lifetime JP4243248B2 (ja) 2002-11-20 2003-10-28 ポインティングデバイスに基づくユーザインターフェイスシステム

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2009098091A Ceased JP2009217829A (ja) 2002-11-20 2009-04-14 ポインティングデバイスに基づくユーザインターフェイスシステム
JP2009125318A Expired - Lifetime JP5122517B2 (ja) 2002-11-20 2009-05-25 ポインティングデバイスに基づくユーザインターフェイスシステム

Country Status (11)

Country Link
US (4) US7940986B2 (ja)
EP (3) EP2012221A3 (ja)
JP (4) JP4243248B2 (ja)
KR (1) KR20050075031A (ja)
CN (4) CN101101520B (ja)
AT (1) ATE537528T1 (ja)
AU (1) AU2003274496A1 (ja)
DK (1) DK1573498T3 (ja)
ES (2) ES2378665T3 (ja)
PT (2) PT1573498E (ja)
WO (1) WO2004047011A2 (ja)

Families Citing this family (121)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE400394T1 (de) * 2003-08-29 2008-07-15 Trumpf Laser & Systemtechnik Vorrichtung zum remote-bearbeiten von werkstücken mittels eines laserbearbeitungsstrahls
BRPI0417655A (pt) * 2003-12-18 2007-04-03 Koninkl Philips Electronics Nv método para controlar um dispositivo, interface de usuário para controlar um dispositivo, dispositivo apontador, unidade de controle, e, dispositivo
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US7746321B2 (en) 2004-05-28 2010-06-29 Erik Jan Banning Easily deployable interactive direct-pointing system and presentation control system and calibration method therefor
KR20070043807A (ko) * 2004-07-28 2007-04-25 코닌클리케 필립스 일렉트로닉스 엔.브이. 디바이스를 제어하는 방법
EP1784805B1 (en) * 2004-08-24 2014-06-11 Philips Intellectual Property & Standards GmbH Method for locating an object associated with a device to be controlled and a method for controlling the device
US20060072009A1 (en) * 2004-10-01 2006-04-06 International Business Machines Corporation Flexible interaction-based computer interfacing using visible artifacts
US8760522B2 (en) 2005-10-21 2014-06-24 I-Interactive Llc Multi-directional remote control system and method
US8842186B2 (en) 2004-10-25 2014-09-23 I-Interactive Llc Control system and method employing identification of a displayed image
US8456534B2 (en) 2004-10-25 2013-06-04 I-Interactive Llc Multi-directional remote control system and method
US7796116B2 (en) 2005-01-12 2010-09-14 Thinkoptics, Inc. Electronic equipment for handheld vision based absolute pointing system
CN101111874A (zh) * 2005-01-28 2008-01-23 皇家飞利浦电子股份有限公司 用于控制设备的方法
JP5258558B2 (ja) * 2005-05-31 2013-08-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 装置の制御のための方法
WO2007003682A1 (en) 2005-06-30 2007-01-11 Nokia Corporation Camera control means to allow operating of a destined location of the information surface of a presentation and information system
EP1904914B1 (en) * 2005-06-30 2014-09-03 Philips Intellectual Property & Standards GmbH Method of controlling a system
JP2007011963A (ja) * 2005-07-04 2007-01-18 Fuji Xerox Co Ltd 端末装置による情報処理方法およびシステム
EP1742144B1 (en) * 2005-07-04 2018-10-24 Electrolux Home Products Corporation N.V. Household appliance with virtual data interface
US8610664B2 (en) 2005-07-11 2013-12-17 Koninklijke Philips N.V. Method of controlling a control point position on a command area and method for control of a device
US9285897B2 (en) 2005-07-13 2016-03-15 Ultimate Pointer, L.L.C. Easily deployable interactive direct-pointing system and calibration method therefor
EP1744290B1 (en) * 2005-07-15 2018-05-30 Samsung Electronics Co., Ltd. Integrated remote controller and method of selecting device controlled thereby
WO2007017782A2 (en) * 2005-08-11 2007-02-15 Koninklijke Philips Electronics N.V. Method of determining the motion of a pointing device
WO2007020549A2 (en) * 2005-08-12 2007-02-22 Koninklijke Philips Electronics N.V. Method of calibrating a control system for controlling a device
US7809214B2 (en) 2005-08-22 2010-10-05 Samsung Electronics Co., Ltd. Device and a method for identifying movement patterns
US7942745B2 (en) 2005-08-22 2011-05-17 Nintendo Co., Ltd. Game operating device
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US7513700B2 (en) 2005-12-13 2009-04-07 Sony Ericsson Mobile Communications Ab Image element identifier
KR100800998B1 (ko) 2005-12-24 2008-02-11 삼성전자주식회사 홈 네트워크 기기 제어 장치 및 방법
DE102006015045A1 (de) * 2006-03-31 2007-10-04 Siemens Ag Fernbedienung, Gebäudesteuerungssystem und Verfahren zur Gebäudesteuerung
US8013838B2 (en) * 2006-06-30 2011-09-06 Microsoft Corporation Generating position information using a video camera
US8913003B2 (en) 2006-07-17 2014-12-16 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer using a projection marker system
US7835544B2 (en) * 2006-08-31 2010-11-16 Avago Technologies General Ip (Singapore) Pte. Ltd. Method and system for far field image absolute navigation sensing
US20080156989A1 (en) * 2006-12-28 2008-07-03 O2Micro Inc. Motion sensing/recognition by camera applications
AU2012216491B2 (en) * 2007-02-27 2014-01-09 Accenture Global Services Limited Video call device control
EP1968320B1 (en) 2007-02-27 2018-07-18 Accenture Global Services Limited Video call device control
JP4767200B2 (ja) * 2007-03-08 2011-09-07 任天堂株式会社 情報選択装置および情報選択プログラム
US9176598B2 (en) 2007-05-08 2015-11-03 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer with improved performance
WO2008138280A1 (de) * 2007-05-10 2008-11-20 Siemens Aktiengesellschaft Bedienung von automatisierungsgeräten durch ein mobiles endgerät
US8237656B2 (en) * 2007-07-06 2012-08-07 Microsoft Corporation Multi-axis motion-based remote control
JP5008484B2 (ja) * 2007-07-11 2012-08-22 株式会社日立国際電気 映像処理方法
US7991896B2 (en) 2008-04-21 2011-08-02 Microsoft Corporation Gesturing to select and configure device communication
US7529542B1 (en) 2008-04-21 2009-05-05 International Business Machines Corporation Method of establishing communication between two or more real world entities and apparatuses performing the same
KR100908099B1 (ko) 2008-06-03 2009-07-16 엘지전자 주식회사 Dtv, 3d포인팅 디바이스 및 dtv의 기능 실행 방법
KR100931403B1 (ko) * 2008-06-25 2009-12-11 한국과학기술연구원 손 동작에 의한 네트워크 상의 기기 및 정보 제어 시스템
FR2933212B1 (fr) * 2008-06-27 2013-07-05 Movea Sa Pointeur a capture de mouvement resolue par fusion de donnees
US8223121B2 (en) 2008-10-20 2012-07-17 Sensor Platforms, Inc. Host system and method for determining an attitude of a device undergoing dynamic acceleration
KR101499133B1 (ko) * 2008-10-28 2015-03-11 삼성전자주식회사 휴대 단말기의 메뉴수행 장치 및 방법
US8515707B2 (en) 2009-01-07 2013-08-20 Sensor Platforms, Inc. System and method for determining an attitude of a device undergoing dynamic acceleration using a Kalman filter
US8587519B2 (en) 2009-01-07 2013-11-19 Sensor Platforms, Inc. Rolling gesture detection using a multi-dimensional pointing device
FR2942060B1 (fr) * 2009-02-11 2016-02-12 Oberthur Technologies Entite electronique apte a communiquer avec un lecteur et procede mis en oeuvre au sein d'une telle entite electronique
US9014685B2 (en) * 2009-06-12 2015-04-21 Microsoft Technology Licensing, Llc Mobile device which automatically determines operating mode
CN101937289B (zh) * 2009-06-30 2013-06-05 鸿富锦精密工业(深圳)有限公司 光学触控装置
WO2011019155A2 (en) * 2009-08-14 2011-02-17 Lg Electronics Inc. Remote control device and remote control method using the same
US8312392B2 (en) * 2009-10-02 2012-11-13 Qualcomm Incorporated User interface gestures and methods for providing file sharing functionality
JP5850502B2 (ja) * 2009-10-08 2016-02-03 サムワンズ グループ インテレクチュアル プロパティー ホールディングス プロプライエタリー リミテッドSomeones Group Intellectual Property Holdings Pty Ltd. データ共有の方法、システム、およびコントローラ
US9174123B2 (en) * 2009-11-09 2015-11-03 Invensense, Inc. Handheld computer systems and techniques for character and command recognition related to human movements
CN101901496A (zh) * 2010-07-09 2010-12-01 北京水晶石数字科技有限公司 一种大型活动演练方法和系统
CN101908220A (zh) * 2010-07-09 2010-12-08 北京水晶石数字科技有限公司 一种大型活动演练方法和系统
US8432264B1 (en) * 2010-07-23 2013-04-30 Tivo Inc. Motion-activated remote control backlight
US8613666B2 (en) * 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
WO2012030153A2 (ko) * 2010-09-02 2012-03-08 주식회사 엘앤와이비젼 비접촉식 입력장치
US8760432B2 (en) 2010-09-21 2014-06-24 Visteon Global Technologies, Inc. Finger pointing, gesture based human-machine interface for vehicles
US9477302B2 (en) 2012-08-10 2016-10-25 Google Inc. System and method for programing devices within world space volumes
US20150153715A1 (en) * 2010-09-29 2015-06-04 Google Inc. Rapidly programmable locations in space
US8957909B2 (en) 2010-10-07 2015-02-17 Sensor Platforms, Inc. System and method for compensating for drift in a display of a user interface state
US9952671B2 (en) * 2010-10-12 2018-04-24 Nokia Technologies Oy Method and apparatus for determining motion
US8861797B2 (en) 2010-11-12 2014-10-14 At&T Intellectual Property I, L.P. Calibrating vision systems
JP5692904B2 (ja) * 2010-11-17 2015-04-01 任天堂株式会社 入力システム、情報処理装置、情報処理プログラム、および指示位置算出方法
US20120169482A1 (en) * 2011-01-05 2012-07-05 Ian Chen System and Method for Selecting a Device for Remote Control Based on Determined Navigational State of a Remote Control Device
BR112013020993A2 (pt) * 2011-02-21 2019-01-08 Koninl Philips Electronics Nv aparelho para estimar pelo menos uma característica de controle de um controle remoto, controle remoto, método de estimativa de pelo menos uma característica de controle de um controle remoto, produto de programa de computador e meio de armazenagem
US9179182B2 (en) 2011-04-12 2015-11-03 Kenneth J. Huebner Interactive multi-display control systems
DE102011101387A1 (de) * 2011-05-12 2012-11-15 Abb Ag Tragbares Anzeige- und Bediengerät
WO2013017991A1 (en) 2011-08-02 2013-02-07 Koninklijke Philips Electronics N.V. Remote control with first and second sensors
KR101733115B1 (ko) * 2011-11-08 2017-05-10 한국전자통신연구원 원격 스크린내 콘텐츠 원격 제어 방법 및 장치
CN103135447A (zh) * 2011-11-24 2013-06-05 亚旭电子科技(江苏)有限公司 遥控器转接装置
CN103135791A (zh) * 2011-12-02 2013-06-05 捷达世软件(深圳)有限公司 电子装置控制系统及方法
EP2602691A1 (en) * 2011-12-05 2013-06-12 Alcatel Lucent Method for gesture control, gesture server device and sensor input device
KR101874853B1 (ko) * 2011-12-29 2018-07-05 주식회사 알티캐스트 모바일 장치와 디스플레이 장치 간의 동기화 방법 및 장치, 모바일 장치, 디스플레이 장치
US9459276B2 (en) 2012-01-06 2016-10-04 Sensor Platforms, Inc. System and method for device self-calibration
US9316513B2 (en) 2012-01-08 2016-04-19 Sensor Platforms, Inc. System and method for calibrating sensors for different operating environments
DE102012203458A1 (de) * 2012-03-05 2013-09-05 E.G.O. Elektro-Gerätebau GmbH Abgesetzte Bedieneinheit für ein Haushaltsgerät
US9228842B2 (en) 2012-03-25 2016-01-05 Sensor Platforms, Inc. System and method for determining a uniform external magnetic field
JP5858850B2 (ja) * 2012-04-02 2016-02-10 三菱電機株式会社 空気調和機の室内機
US9619036B2 (en) * 2012-05-11 2017-04-11 Comcast Cable Communications, Llc System and methods for controlling a user experience
CN103513753B (zh) * 2012-06-18 2017-06-27 联想(北京)有限公司 信息处理方法和电子设备
DE102012210784B4 (de) * 2012-06-25 2015-11-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Transponder für Hausautomatisierungssysteme
TWI526041B (zh) * 2012-07-17 2016-03-11 廣達電腦股份有限公司 互動系統及互動方法
CN103853364A (zh) * 2012-11-29 2014-06-11 联想(北京)有限公司 一种触觉反馈方法、电子设备及触觉反馈系统
FR3000241A1 (fr) * 2012-12-21 2014-06-27 France Telecom Procede de gestion d’un systeme d’information geographique adapte pour etre utilise avec au moins un dispositif de pointage, avec creation d’objets numeriques purement virtuels.
FR3000242A1 (fr) 2012-12-21 2014-06-27 France Telecom Procede de gestion d’un systeme d’information geographique adapte pour etre utilise avec au moins un dispositif de pointage, avec creation d’associations entre objets numeriques.
SG11201504814VA (en) 2013-01-03 2015-07-30 Saurav Suman A method and system enabling control of different digital devices using gesture or motion control
KR20140099111A (ko) * 2013-02-01 2014-08-11 삼성전자주식회사 카메라 장치의 동작을 제어하는 방법 및 상기 카메라 장치
US9498885B2 (en) 2013-02-27 2016-11-22 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with confidence-based decision support
US9393695B2 (en) * 2013-02-27 2016-07-19 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
US9798302B2 (en) 2013-02-27 2017-10-24 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with redundant system input support
US9804576B2 (en) 2013-02-27 2017-10-31 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with position and derivative decision reference
US10198080B1 (en) * 2013-03-11 2019-02-05 Amazon Technologies, Inc. Virtual user interface
TWI505175B (zh) * 2013-04-29 2015-10-21 Hon Hai Prec Ind Co Ltd 具有三維用戶介面的遠端控制裝置及其介面生成方法
CN103607538A (zh) 2013-11-07 2014-02-26 北京智谷睿拓技术服务有限公司 拍摄方法及拍摄装置
CN103605701A (zh) 2013-11-07 2014-02-26 北京智谷睿拓技术服务有限公司 通信对象的确定方法及确定装置
US20150139483A1 (en) * 2013-11-15 2015-05-21 David Shen Interactive Controls For Operating Devices and Systems
ES2542089B1 (es) * 2014-01-30 2016-05-04 Universidad De Extremadura Sistema de control remoto de dispositivos con láser
DE102014002431A1 (de) * 2014-02-19 2015-08-20 Franzkann* Herbold Und Herrmann Gbr (Vertrber. Ges.: Herbold, Christian, 76131 Karlsruhe) Verfahren und Vorrichtung zur Bedienung mehrerer elektronischer Geräte
US9807725B1 (en) 2014-04-10 2017-10-31 Knowles Electronics, Llc Determining a spatial relationship between different user contexts
EP3201893B1 (en) * 2014-09-29 2020-12-23 Koninklijke Philips N.V. Remote control device, user device and system thereof, and method, computer program product
US20190155392A1 (en) * 2014-09-30 2019-05-23 Koninklijke Philips N.V. User interface system based on pointing device
DE112016000545B4 (de) 2015-01-30 2019-08-22 Knowles Electronics, Llc Kontextabhängiges schalten von mikrofonen
US9983693B2 (en) 2015-03-13 2018-05-29 Adtile Technologies Inc. Spatial motion-based user interactivity
CN105141913A (zh) * 2015-08-18 2015-12-09 华为技术有限公司 可视化远程控制可触控设备的方法、系统和相关设备
US10427038B2 (en) 2016-01-21 2019-10-01 Toccata Gaming International, Llc Game console incorporating beam-splitter display and real world objects
US11577159B2 (en) 2016-05-26 2023-02-14 Electronic Scripting Products Inc. Realistic virtual/augmented/mixed reality viewing and interactions
DE102017100017A1 (de) * 2016-09-09 2018-03-15 Huf Secure Mobile GmbH Verfahren zum Auslösen einer Funktion und Handgerät
CN109983517B (zh) 2016-11-21 2021-06-15 皇家飞利浦有限公司 使用识别信号的远程控制设备和用户设备
KR102822062B1 (ko) 2017-02-24 2025-06-19 삼성전자주식회사 비전 기반의 사물 인식 장치 및 그 제어 방법
US11163434B2 (en) * 2019-01-24 2021-11-02 Ademco Inc. Systems and methods for using augmenting reality to control a connected home system
US11709099B2 (en) 2019-07-01 2023-07-25 Snap-On Incorporated Method and system for calibrating imaging system
US11555743B2 (en) * 2019-07-01 2023-01-17 Snap-On Incorporated Method and system for calibrating imaging system
US10965914B2 (en) 2019-07-08 2021-03-30 Andrae T. D'Acquisto Trail camera
US11445107B2 (en) 2019-08-08 2022-09-13 Qorvo Us, Inc. Supervised setup for control device with imager
KR20220140221A (ko) * 2021-04-09 2022-10-18 삼성전자주식회사 복수의 카메라를 포함하는 웨어러블 전자 장치
US20220405317A1 (en) * 2021-06-18 2022-12-22 Google Llc Remote Control Device with Environment Mapping
US20250199606A1 (en) * 2023-12-19 2025-06-19 Apple Inc. Screenless Object Selection with Head Pose and Hand Gestures

Family Cites Families (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4576481A (en) 1982-12-13 1986-03-18 Position Orientation Systems, Ltd. Passive optical position measurement system
US5045843B1 (en) * 1988-12-06 1996-07-16 Selectech Ltd Optical pointing device
US4963017A (en) * 1989-05-01 1990-10-16 General Electric Company Variable depth range camera
US5016107A (en) * 1989-05-09 1991-05-14 Eastman Kodak Company Electronic still camera utilizing image compression and digital storage
DE4005081A1 (de) * 1990-02-17 1991-08-22 Torres Peraza Mario Waage, insbesondere selbstbedienungswaage
JP3218716B2 (ja) 1992-07-31 2001-10-15 ソニー株式会社 入力装置、及び入力システム
JP2790965B2 (ja) * 1992-08-19 1998-08-27 富士通株式会社 光学式ポインティングシステム
US5454043A (en) * 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
JPH0759170A (ja) 1993-08-19 1995-03-03 Toshiba Corp リモートコントロール装置
JP3186390B2 (ja) * 1993-12-27 2001-07-11 ソニー株式会社 電子機器制御システム、および電子機器制御装置
JP3262677B2 (ja) 1994-05-02 2002-03-04 株式会社ワコム 情報入力装置
JPH0814911A (ja) * 1994-07-04 1996-01-19 Sharp Corp 動作認識装置
JP3422383B2 (ja) 1994-09-05 2003-06-30 株式会社タイトー 射撃ゲーム装置におけるビデオ画面とガンの相対位置を検出する方法及び装置
US5926168A (en) * 1994-09-30 1999-07-20 Fan; Nong-Qiang Remote pointers for interactive televisions
JPH08331667A (ja) * 1995-05-30 1996-12-13 Oki Electric Ind Co Ltd ポインティングシステム
US5682196A (en) * 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
JP3475419B2 (ja) * 1995-10-11 2003-12-08 ソニー株式会社 テレビジョン受像機
KR0164089B1 (ko) * 1995-12-20 1998-12-01 양승택 무선원격제어 장치 및 방법
DE19548776A1 (de) * 1995-12-23 1997-06-26 Thomson Brandt Gmbh Verfahren zur Fernbedienung von elektronischen Geräten und Vorrichtung zur Fernbedienung von elektronischen Geräten sowie elektronisches Gerät
JPH09230991A (ja) 1996-02-23 1997-09-05 Fuji Xerox Co Ltd 情報処理装置
US5719622A (en) * 1996-02-23 1998-02-17 The Regents Of The University Of Michigan Visual control selection of remote mechanisms
JPH10198506A (ja) * 1997-01-13 1998-07-31 Osaka Gas Co Ltd 座標検出システム
JPH1186038A (ja) 1997-03-03 1999-03-30 Sega Enterp Ltd 画像処理装置、画像処理方法及び媒体並びにゲーム機
AU2211799A (en) 1998-01-06 1999-07-26 Video Mouse Group, The Human motion following computer mouse and game controller
IL139103A0 (en) 1998-04-30 2001-11-25 C Technologies Ab Control device and method of controlling an object
JPH11338633A (ja) 1998-05-21 1999-12-10 Toshiba Fa Syst Eng Corp ポインティングデバイス、コンピュータ装置及びコンピュータシステム
US7218243B2 (en) * 1998-07-23 2007-05-15 Universal Electronics Inc. System and method for automatically setting up a universal remote control
JP4176230B2 (ja) 1999-03-19 2008-11-05 株式会社ルネサステクノロジ 座標位置制御システム、座標位置制御方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
CN1175345C (zh) * 1999-03-31 2004-11-10 皇家菲利浦电子有限公司 用于显示装置的遥控器
JP2000300843A (ja) 1999-04-19 2000-10-31 Taito Corp ゲーム機の入力装置
JP2001008279A (ja) * 1999-06-18 2001-01-12 Sony Corp リモートコントローラおよびリモートコントロール方法、並びに媒体、機器および表示方法、並びに媒体
US6275214B1 (en) 1999-07-06 2001-08-14 Karl C. Hansen Computer presentation system and method with optical tracking of wireless pointer
EP1071285A1 (en) * 1999-07-19 2001-01-24 Texas Instruments Inc. Vertical compensation in a moving camera
US20010010514A1 (en) 1999-09-07 2001-08-02 Yukinobu Ishino Position detector and attitude detector
US6346933B1 (en) * 1999-09-21 2002-02-12 Seiko Epson Corporation Interactive display presentation system
WO2001052230A1 (en) 2000-01-10 2001-07-19 Ic Tech, Inc. Method and system for interacting with a display
US7187412B1 (en) * 2000-01-18 2007-03-06 Hewlett-Packard Development Company, L.P. Pointing device for digital camera display
US7028269B1 (en) * 2000-01-20 2006-04-11 Koninklijke Philips Electronics N.V. Multi-modal video target acquisition and re-direction system and method
JP2001236174A (ja) * 2000-02-25 2001-08-31 Fujitsu Ltd 手書き文字入力装置及び手書き文字認識方法
DE60042156D1 (de) * 2000-08-24 2009-06-18 Sony Deutschland Gmbh Fernbedienungsgeber
US6489986B1 (en) * 2000-09-29 2002-12-03 Digeo, Inc. Remote control device for video and audio capture and communication
US7016532B2 (en) * 2000-11-06 2006-03-21 Evryx Technologies Image capture and identification system and process
US20020085097A1 (en) 2000-12-22 2002-07-04 Colmenarez Antonio J. Computer vision-based wireless pointing system
JP2002196877A (ja) 2000-12-25 2002-07-12 Hitachi Ltd イメージセンサを用いた電子機器
US7031875B2 (en) 2001-01-24 2006-04-18 Geo Vector Corporation Pointing systems for addressing objects
DE10110979A1 (de) * 2001-03-07 2002-09-26 Siemens Ag Anordnung zur Verknüpfung von optisch erkannten Mustern mit Informationen
JP2002290853A (ja) * 2001-03-22 2002-10-04 Canon Inc テレビジョン放送受信装置およびテレビジョン放送受信方法およびテレビジョン放送受信プログラム
EP1374139B1 (en) * 2001-03-29 2011-05-04 LASX Industries, Inc. Controller for a laser using predictive models ofa laser beam motion system
US20020149617A1 (en) * 2001-03-30 2002-10-17 Becker David F. Remote collaboration technology design and methodology
JP3811025B2 (ja) * 2001-07-03 2006-08-16 株式会社日立製作所 ネットワーク・システム
GB0117418D0 (en) * 2001-07-17 2001-09-12 Storm Mason R Litecam
JP4304337B2 (ja) * 2001-09-17 2009-07-29 独立行政法人産業技術総合研究所 インタフェース装置
GB2381686A (en) * 2001-10-31 2003-05-07 Hewlett Packard Co Apparatus for recording and reproducing pointer positions on a document.
JP3706071B2 (ja) * 2002-01-15 2005-10-12 株式会社エルモ社 撮像装置
US6982697B2 (en) * 2002-02-07 2006-01-03 Microsoft Corporation System and process for selecting objects in a ubiquitous computing environment
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US20030156073A1 (en) * 2002-02-20 2003-08-21 Koninlijke Philips Electronics N.V. Apparatus for adjusting proximate video monitors to output substantially identical video images and corresponding methods therefor
US20040048663A1 (en) * 2002-09-10 2004-03-11 Zeroplus Technology Co., Ltd. Photographic pointer positioning device
US8068154B2 (en) * 2004-05-01 2011-11-29 Eliezer Jacob Digital camera with non-uniform image resolution

Also Published As

Publication number Publication date
CN1714335A (zh) 2005-12-28
CN101158886B (zh) 2012-05-16
WO2004047011A2 (en) 2004-06-03
CN101158886A (zh) 2008-04-09
EP1573498B1 (en) 2011-12-14
JP2009245444A (ja) 2009-10-22
EP2093650A1 (en) 2009-08-26
EP1573498A2 (en) 2005-09-14
JP2006506728A (ja) 2006-02-23
CN101101512A (zh) 2008-01-09
PT1573498E (pt) 2012-03-22
ATE537528T1 (de) 2011-12-15
US20090251559A1 (en) 2009-10-08
AU2003274496A1 (en) 2004-06-15
US20140062879A1 (en) 2014-03-06
JP2009217829A (ja) 2009-09-24
US20110187643A1 (en) 2011-08-04
EP2012221A2 (en) 2009-01-07
JP5122517B2 (ja) 2013-01-16
CN101101520A (zh) 2008-01-09
US8537231B2 (en) 2013-09-17
CN100334531C (zh) 2007-08-29
PT2093650E (pt) 2013-07-25
US7940986B2 (en) 2011-05-10
WO2004047011A3 (en) 2005-07-07
ES2425076T3 (es) 2013-10-11
CN101101520B (zh) 2012-11-14
DK1573498T3 (da) 2012-03-19
US20060050052A1 (en) 2006-03-09
KR20050075031A (ko) 2005-07-19
AU2003274496A8 (en) 2004-06-15
JP4243248B2 (ja) 2009-03-25
EP2093650B1 (en) 2013-05-15
EP2012221A3 (en) 2009-05-13
JP2009134718A (ja) 2009-06-18
US8971629B2 (en) 2015-03-03
US8970725B2 (en) 2015-03-03
ES2378665T3 (es) 2012-04-16

Similar Documents

Publication Publication Date Title
JP4491495B2 (ja) ポインティングデバイスに基づくユーザインターフェイスシステム
JP2009134718A5 (ja)
US11561519B2 (en) Systems and methods of gestural interaction in a pervasive computing environment
JP5214968B2 (ja) オブジェクト発見方法及びシステム、装置制御方法及びシステム及びインターフェース、ポインティング装置
JP2008511877A (ja) 装置制御方法
KR20050029161A (ko) 공간 인터랙션 장치를 이용한 물체 인식 시스템 및 그 방법

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20090525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100309

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100405

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4491495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140409

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term