[go: up one dir, main page]

JPH0728591A - 空間操作マウスシステム及び空間動作パターン入力方法 - Google Patents

空間操作マウスシステム及び空間動作パターン入力方法

Info

Publication number
JPH0728591A
JPH0728591A JP10022994A JP10022994A JPH0728591A JP H0728591 A JPH0728591 A JP H0728591A JP 10022994 A JP10022994 A JP 10022994A JP 10022994 A JP10022994 A JP 10022994A JP H0728591 A JPH0728591 A JP H0728591A
Authority
JP
Japan
Prior art keywords
motion
spatial
mouse
pattern
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10022994A
Other languages
English (en)
Inventor
Yuji Ide
祐二 井手
Kazuhiro Takashima
和宏 高島
Toshihiro Morohoshi
利弘 諸星
Tomiyoshi Fukumoto
富義 福元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP10022994A priority Critical patent/JPH0728591A/ja
Publication of JPH0728591A publication Critical patent/JPH0728591A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

(57)【要約】 【目的】 操作者の感覚的な動作を認識でき、また制御
対象機器から離れていても手軽にポインタ操作や制御操
作ができる空間操作マウスを提供する。 【構成】 本発明の空間操作マウスを用いた動作パター
ン入力方法では、操作者により与えられる3次元空間に
おける直線的、平面的あるいは空間的な動作を、その操
作空間における所定の3つの軸方向の速度若しくは加速
度又は3つの軸の回りの角速度若しくは角加速度のうち
の少なくとも2つの量として検出するステップと、これ
ら検出された量を、当該動作をパターン化した感覚動作
パターンデータに変換するステップと、感覚動作パター
ンデータと予め登録されている複数の基本動作パターン
に関連する基本データとを比較するステップと、比較結
果に基づいて感覚動作パターンを識別するステップと、
識別結果に基づいて感覚動作パターンに対応する所定の
制御を行うステップとを含むことを特徴とする。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、コンピュータやマルチ
メディア機器等で用いられる入力装置に関し、特に操作
性の良いマン・マシンインターフェイス環境を提供する
ための空間操作マウス(mouse)等の3次元入力装
置に関する。さらには、3次元入力装置を利用して、操
作者の動作パターンによる拡張された入力機能を実現す
る空間動作パターン入力システムに関する。
【0002】
【従来の技術】コンピュータや、コンピュータを利用す
る各種システムに用いられる、マン・マシンインターフ
ェイス上の入力機器として、昨今では、いわゆるマウス
と呼ばれるポインティング・デバイスが広く使われてき
ている。
【0003】このマウスを用いたシステムでは、まず、
操作者は、マウスを机上等で動かすことにより、表示画
面上に表示された上記マウスに連動して動くカーソル
を、表示画面上に表示されている所望の対象物(画像、
文字等)上に移動させる。そして、表示画面上で、選択
したい対象物上にカーソルが位置されている状態で、マ
ウスのクリックボタンと呼ばれる確認用のスイッチを押
す(あるいは放す)ことによって、システムに対する入
力を行う。このように、マウスによって、キーボードに
はなかった良好な操作性が提供される。
【0004】しかしながら、従来のマウスは、専用の操
作板などの操作面に接触させて動かす必要があること
と、加えてコンピュータとマウスとの間に接続ケーブル
が存在することから、操作性に多大な支障を与えてい
た。すなわち、操作者は、任意の空間あるいは任意の仮
想的な平面上で、マウスと、コンピュータなどの制御対
象機器との距離を自由にとって、ポインティング操作を
することはできなかった。
【0005】さらには、マウスの動きは前述の操作面に
拘束されるため、マウスは平面上の動きしか検出するこ
とができず、空間的な動きを検出することはできなかっ
た。それゆえ、空間的なマウスの動きを反映したポイン
ティング操作をすることは困難であった。
【0006】このような事情が考慮され、最近では、操
作者の3次元的な動きをとらえることにより、任意の平
面でのポインタ動作、さらには空間的なポインタ動作を
可能とし、コンピュータやマルチメディア機器あるいは
その表示装置から離れていても手軽にポインタ動作をす
ることを可能にする、空間操作マウスのような3次元入
力装置(特開平3−192423)が出現してきた。
【0007】しかしながら、上記3次元入力装置を用い
たシステムでは、「操作者が、3次元入力装置を空間で
動かすことにより、表示画面上を3次元入力装置に連動
して動くカーソルを、表示されている所望の対象物上に
移動させ、その後クリックボタンを押す(あるいは放
す)ことによって、確認あるいは選択を行う」というよ
うなポインティング操作が主に提供されているだけであ
る。
【0008】一方、従来のマウスを操作面上で動かし
て、所定のパターンを描くことによって、各パターンに
対応付けられた機能を実行させることのできるシステム
が提案されている(特開平4−7726、特開平4−1
80119)。
【0009】しかしながら、これらシステムでは、マウ
スを操作面上で動かす必要があることから、単純なパタ
ーンしか使用できないという制約がある。また、操作面
上に所定のパターンをきれいに描くことは案外難しく、
パターン・マッチング法では、操作者の描いたパターン
を認識しきれない問題があった。
【0010】
【発明が解決しようとする課題】以上のように、従来の
マウスを用いたシステムでは、3次元の動きを検出でき
るようにして、単に専用の操作板等を不要とする改善に
止まっていた。
【0011】また、ポインティング・デバイスとしての
機能以外に極簡単なパターン入力機能を付加したマウス
としては、ごく限られたパターン入力機能を専用の操作
板等を要する(2次元)マウスに与えたものがあるに止
まっていた。
【0012】本発明は、上記事情を考慮してなされたも
ので、任意の仮想平面でのポインタ動作、さらには空間
的なポインタ動作を可能とした、空間操作マウスのよう
な3次元入力装置を用いる入力システムにおいて、操作
者の空間での空間動作パターンを認識し、コンピュータ
やマルチメディア機器に対して空間動作パターンに応じ
た内容の制御を実行できる、すなわち感覚的なマン・マ
シンインタフェイス環境を提供できる、空間動作パター
ン入力システムを提供することを目的とする。
【0013】
【課題を解決するための手段】本発明に係る空間操作マ
ウスシステムでは、操作空間での所定の3つの軸方向の
速度若しくは加速度又は3つの軸の回りの角速度若しく
は角加速度のうちの少なくとも1つを検出し、当該検出
された1つあるいは複数の量をそのままあるいは関連す
る量に変換して動き信号として出力するための動き信号
生成手段と、この動き信号生成手段により与えられた前
記動き信号を含む前記制御信号を送信するための送信手
段とを有する空間操作マウスと、前記空間操作マウスの
前記送信手段により送信された制御信号を受信するため
の受信手段と、この受信手段により得られた制御信号に
基づいて、表示画面上のカーソルまたは表示オブジェク
トを変化させ、前記空間操作マウスの操作者の指示位置
を表示し、あるいは前記動き信号に従い表示画面を変化
させる表示手段とを有する制御対象機器とを具備してな
ることを特徴とする。
【0014】また、本発明に係る空間操作マウスを用い
た空間動作パターン入力方法では、操作者により与えら
れる3次元空間における直線的、平面的あるいは空間的
な動作を、その操作空間における所定の3つの軸方向の
速度若しくは加速度又は3つの軸の回りの角速度若しく
は角加速度のうちの少なくとも2つの量として検出する
検出ステップと、当該検出された少なくとも2つの検出
量を、当該動作をパターン化した動作パターンデータに
変換する変換ステップと、当該動作パターンデータと、
予め登録されている複数の基本動作パターンに関連する
基本データとを比較する比較ステップと、前記比較ステ
ップにおける比較結果に基づいて当該動作パターンを識
別する識別ステップと、前記識別ステップにおける識別
結果に基づいて当該動作パターンに対応する所定の制御
を行う制御ステップとを含むことを特徴とする。
【0015】一方、本発明では、空間操作型入力装置の
空間動作パターンに応じた内容の制御を制御対象機器に
実行させるための空間動作パターン入力方法において、
空間操作型入力装置の空間における互いに平行でない所
定の3軸方向の動作量のうち少なくとも2軸方向の動作
量を検出する動作検出ステップと、前記動作検出ステッ
プにおいて検出された少なくとも2つの検出量からなる
当該空間動作量を動作ベクトル列に変換する変換ステッ
プと、予め登録されている基本動作パターンに対応した
動作ベクトル列と当該動作ベクトル列とを比較して識別
を行う識別ステップと、前記識別ステップにおける認識
結果に基づく制御を制御対象機器に対して実行する実行
ステップとを有することを特徴とする。
【0016】また、好ましくは、前記識別ステップは、
空間操作型入力装置の動作量から得られた動作ベクトル
列を基にした単位ベクトル関数および空間操作型入力装
置の動作量から得られた動作ベクトル列を基にした累積
ベクトル関数の少なくとも一方を生成するベクトル関数
生成ステップと、生成した単位ベクトル関数および累積
ベクトル関数の少なくとも一方を、基本動作パターン動
作に対応した動作ベクトル列から得られるものと比較
し、この比較結果に基づいて空間操作型入力装置の空間
動作パターンの識別を行う識別ステップとを含むことを
特徴とする。
【0017】また、好ましくは、前記変換ステップは、
空間動作量に対して単位ベクトルの個数と角度を登録し
た変換テーブルに対して、前記動作検出ステップにおい
て検出された少なくとも2つの検出量からなる当該空間
動作量を時間的にサンプリングした値を逐次指定値とし
て与えることによって、当該空間動作量を動作ベクトル
列に変換した結果を得ることを特徴とする。
【0018】また、好ましくは、前記動作検出ステップ
は、前記空間操作型入力装置の動作量を検出する2軸方
向ごとに、これに直行する方向の軸回りの回転動作量を
検出する回転動作量検出ステップをさらに有し、前記変
換ステップは、前記回転動作量検出ステップでの検出結
果に基づき、前記動作検出ステップで検出された関連す
る前記空間操作型入力装置の2軸方向の動作量から上記
軸回りの回転動作量を取り除いた動作量を抽出する補正
ステップをさらに有することを特徴とする。
【0019】また、好ましくは、前記実行ステップは、
前記識別ステップにおいて認識された空間動作パターン
の形状を表示画面に表示することを特徴とする。
【0020】
【作用】本発明では、空間操作マウスに2次元方向また
は3次元方向の加速度または角速度から空間操作マウス
の動きを検出する動き信号生成手段を設けた。このため
に、任意の操作空間での操作者の意図する平面的動作や
空間的動作を検出することができ、従って、空間操作マ
ウスを、コンピュータのポインタとして、あるいは離れ
た場所から見る大画面映像システムやマルチメディア機
器のリモコン装置として用いて、手軽にポインタ操作や
制御操作ができる。
【0021】それゆえ、本発明の空間操作マウスを用い
た空間操作マウスシステムでは、制御対象機器の表示画
面上のカーソルまたは表示オブジェクトの変化により操
作者の指示位置を表示したり、表示画面の方向を変化さ
せることで、従来にない操作性の向上されたヒューマン
インターフェイス環境を実現できる。
【0022】また、本発明に係る空間動作パターン入力
方法では、予め操作者の基本動作パターンを登録してお
き、空間操作マウスを操作して入力された動作パターン
を識別し、各動作パターンに対応する制御を実行する。
従って、人間の自然な動作を用いて、制御対象機器を制
御することが可能となる。
【0023】一方、本発明に係る空間動作パターン入力
方法では、予め操作者の基本動作パターンを登録してお
くとともに、操作者が空間操作マウス(空間操作型入力
装置)を操作することにより入力された空間動作パター
ンの動きを検出して動作ベクトル列に変換し、予め登録
されている基本動作パターンに対応した動作ベクトル列
と当該動作ベクトル列とを比較して識別を行い、この認
識結果に基づく制御を制御対象機器に対して実行する。
【0024】このように、基準位置(原点)に対する空
間操作マウスの空間座標を測定しなくても、空間操作マ
ウスの動きを動作ベクトルを用いて時系列の微小基準ベ
クトル集合として相対的に得ることによって、動作パタ
ーン入力を行うことができる。また、本発明では、従来
のパターンマッチング法ではなく、動きを動作ベクトル
列に分解して基本動作パターンと比較するので、空間で
の不安定なマウスの操作から得られる動作パターンを高
精度に認識することが可能となる。
【0025】従って、本発明によれば、人間の自然な動
作を用いて、制御対象機器を制御することが可能とな
る。
【0026】
【実施例】以下、図面を参照しながら本発明の実施例を
説明する。
【0027】図1に、本発明の第1の実施例に係る空間
操作マウスの概観図を、図2に空間操作マウスの概略ブ
ロック図を示す。ここで、本明細書では、水平方向とは
図1の矢印28のように空間操作マウスからみて左右の
方向をいい、垂直方向とは矢印29のようにマウスから
みて上下の方向を言うものとする。
【0028】本発明の空間操作マウスは、水平方向の動
きを検出するための第1動き検出部16aと、垂直方向
の動きを検出するための第2動き検出部16bと、操作
者がクリック動作をするためのスイッチ部17と、第1
動き検出部16aからの出力信号、第2動き検出部16
bからの出力信号およびスイッチ部17からの出力信号
を制御対象機器に対して伝送するための送信部18を備
える。
【0029】第1動き検出部16aは、水平方向の動き
を検出する水平方向動き検出素子2を含む。第2動き検
出部16bは、垂直方向の動きを検出する垂直方向動き
検出素子3を含む。スイッチ部17は、クリックボタン
4を含む。送信部18は、赤外線発光素子5,6を含
む。
【0030】操作者は、空間操作マウス本体1を握り、
任意の空間において、空間操作マウス本体1を上下左右
に動かして操作する。すなわち、操作者は、机や格子反
射板のような実在する基準面を用いずに、仮想的な平面
上において、空間操作マウス本体1の移動操作を行う。
空間操作マウス本体1の動きは、圧電素子等を用いて構
成された水平方向動き検出素子2および垂直方向動き検
出素子3の働きにより、水平(左右)および垂直(上
下)の2方向の動きに分解して検出される。検出された
2方向の動き、例えば加速度や角速度は、動き検出部1
6a,16bによって、所定の動き信号、例えば空間操
作マウスの速度あるいは移動距離等を表す信号に変換さ
れて出力される。あるいは、加速度や角速度などそのま
まの形で出力される。送信部18は、この2つの動き信
号に対して、必要な処理、例えばフォーマット変換、符
号化、多重化、変調等を施す。その後、送信部18は、
赤外線発光素子5,6を駆動して、この信号を制御対象
機器まで伝送する。
【0031】操作者は、このような空間操作マウスを用
いて、表示画面上のカーソルの位置を操作するととも
に、操作する前および/または操作した後に、スイッチ
部17のクリックボタン4を押す(あるいは放す)。送
信部18は、クリックボタン4が押されたこと(あるい
は放されたこと)を、制御対象機器に伝える。動き信号
やクリック動作を示す信号を受けた制御対象機器は、こ
れら信号に応じた所定の制御動作を実行する。
【0032】発光素子5は右側の空間に、発光素子6は
左側の空間に、赤外線を放射するようにすると、すなわ
ち両素子に異なる指向性を割り当てると、赤外線の放射
範囲が広角になるので好ましい。特に任意の空間で操作
する空間操作マウスでは、操作者が空間操作マウスを左
右に振っても、赤外線を制御対象機器に確実に伝送する
ことができる。もちろん、この発光素子の個数は、アプ
リケーションに応じて、1つでも、3つ以上でも良い。
【0033】図1の実施例では、空間操作マウスに、垂
直および水平方向の2軸方向の動きを検出する動き検出
素子を設けた。その代りに、上記垂直および水平方向に
直行する方向(すなわち前後方向)と垂直方向の動きを
検出する2つの動き検出素子を、または前後方向と水平
方向との動きを検出する2つの動き検出素子を、空間操
作マウスに設ても良い。また、検出する2軸の方向は、
平行でない限りは、直行していなくても構わない。この
点に関しては、後述する実施例においても同様である。
【0034】図3に、本実施例の空間操作マウスをラッ
プトップコンピュータ21へ適用して構成される空間操
作型コンピュータシステムの使用概念図を示す。
【0035】本発明によれば、マウスを操作するための
特別な作業環境や拘束された作業環境は不要である。す
なわち、操作者は、空間操作マウス本体1を握り、任意
の空間(すなわち操作者の目の前の空中など)で、これ
を上下左右に動かせば良い。この動きは、前述のように
水平方向動き検出素子2および垂直方向動き検出素子3
によって検出される。そして、検出された動きに応じた
制御信号が、赤外線発光素子5,6からラップトップコ
ンピュータ21へ放射され、赤外線受光素子23により
受光される。また、クリック動作を示す制御信号も、同
様にして、空間操作マウスからラップトップコンピュー
タ21へ伝送される。
【0036】ラップトップコンピュータ21は、受け取
った制御信号に応じて、あるいは制御信号に基づく所定
の演算処理により空間操作マウスの移動量等を求めて、
この表示画面22のカーソルを動かす制御を行う。ま
た、必要な場合には、表示画面上のカーソル位置にある
表示物に対して所定の処理を施したり、あるいはカーソ
ル位置に対応する新たな入力画面の表示などの制御を行
う。さらには、クリック動作に応答して、カーソル位置
の表示物(または文字列)に予め対応付けられている所
定の処理を行うなどの制御を実行することもできる。
【0037】このように、操作者は、空間操作マウスを
用いて、表示画面22上に表示されたカーソル等を動か
すとともに、クリック動作を実行することにより、シス
テム制御を順次行っていく。
【0038】以下、いくつかの表示画面例を用いて、本
発明の空間操作マウスを用いた入力操作の具体例を簡単
に説明する。
【0039】図4(a),図4(b)は、AからIまで
の9個のアイコンのうちから、Fのアイコンを選ぶ操作
を実行する例である。まず、図4(a)のように、画面
上のDの部分に+印のカーソルがあるとする。操作者が
空間操作マウスを右側に動かすと、これに伴ってカーソ
ルも右側に移動する。そして、図4(b)のように、操
作者は、カーソルがFの上に移動したときに、空間操作
マウスのクリックボタン4を押して、ラップトップコン
ピュータ21に対して、Fのアイコンを選択したことを
伝える。Fのアイコンが選択されると、ラップトップコ
ンピュータ21は、Fのアイコンに対応する処理を実行
する。
【0040】図5(a),図5(b)は、部屋の内部を
表した映像である。ここでは、この映像中から1つの対
象物を選ぶ操作を実行する例を説明する。表示画面上
で、矢印のアイコンによって示される部分は、網目状に
変化される。例えば、操作する前は、図5(a)のよう
に、矢印のアイコンがドアのところにある場合、ドアの
みが網目状に変化している。次に、操作者が空間操作マ
ウスを右に移動して、机の上のワードプロセッサの所に
アイコンを移動すると、図5(b)のように、ワ−ドプ
ロセッサのみが網目状に変化される。この網目表示によ
って、ワードプロセッサが指示されていることが、一目
で認識できる。操作者がこのワードプロセッサを選択し
たい場合は、網目状に変化している時にクリックボタン
4を押せば良い。
【0041】図6(a),図6(b)は、建物の廊下を
表した映像である。ここでは、映像を操作者の見たい方
向に転換して表示させる操作を実行する例を説明する。
例えば、操作する前は、図6(a)のように、通路に平
行にまっすぐ見た映像が表示されている。操作者が手に
握った空間操作マウスを右側に動かすと、それに連動す
るように、表示される映像は徐々に右側を見た映像に変
化していく。そして、最終的に図6(b)のように先の
右側のドアを正面から見た映像に変化する。
【0042】次に、本発明の空間操作マウスをより具体
化した構成例について説明する。
【0043】図7(a)は、本実施例の空間操作マウス
のより具体的なブロック図である。また、図7(b)
は、制御対象器機の一例を示す概略ブロック図である。
【0044】この空間操作マウスは、垂直方向の加速度
を検出するための第1動きセンサ30aと、この出力を
増幅する増幅器31aと、この出力を積分して速度を求
めるための速度検出部32aと、水平方向の加速度を検
出するための第2動きセンサ30bと、この出力を増幅
する増幅器31bと、この出力を積分して速度を求める
ための速度検出部32bと、前記速度検出部32a,3
2bの出力を伝送するための赤外線リモコン送信回路3
3と、この送信回路33により駆動される赤外線発光素
子34を備える。
【0045】ここでは、第1動きセンサ30aおよび第
2動きセンサ30bとして、圧電素子を用いる。なお、
図2のようなクリックボタンを含むスイッチ部は、図面
上では省略してある。
【0046】一方、制御対象機器、例えばコンピュータ
は、赤外線発光素子34から放射された光信号を受信す
る赤外線受光素子35と、受光された信号を所定の形に
変換して出力する赤外線リモコン受信回路36と、その
出力に応答して、画面制御を含む所定の処理を実行する
処理部37と、表示画面38とにより構成される。
【0047】これらの構成において、操作者は、この空
間操作マウスの本体を握り、任意の空間の仮想的な平面
で、これを上下左右等の2次元方向に動かして操作す
る。この空間操作マウスの動きは、第1動きセンサ30
aおよび第2動きセンサ30bの働きにより、例えば水
平および垂直の2方向の加速度に分解して検出され、そ
れぞれの加速度に比例した電圧信号が出力される。
【0048】検出された2方向の加速度に対応する電圧
信号は、比較的微弱な信号である。従って、2つの電圧
信号を、それぞれ増幅器31a,31bで増幅する。こ
のときに、必要であれば、ノイズ除去処理を行う。
【0049】次に、増幅された2つの信号は、速度検出
部32a,32bにそれぞれ与えられる。ここでは、2
方向の加速度に対応する電圧信号は、それぞれ積分によ
り、2方向の移動速度に対応する電圧信号に変換され
る。図8(a)は、検出されたマウスの加速度に対応す
る電圧信号と速度に変換された電圧信号と間の関係を示
す図である。破線l1は、加速度センサ30aまたは3
0bからの出力電圧を表す。実線l2は、速度検出部3
2aまたは32bに含まれる積分回路で速度に変換され
た出力電圧を表す。
【0050】速度検出部32a,32bからは、速度に
変換された出力電圧l2をそのまま出力しても良い。あ
るいは、その代わりに、図8(b)に示すように、速度
に対応するパルス密度を有するパルス信号に変換した
後、出力しても良い。
【0051】また、加速度から速度を検出する動き演算
部としては、積分回路の他に、デジタル積分回路や、マ
イクロプロセッサによる演算を用いても実現可能であ
る。
【0052】次に、速度検出部32a,32bの各出力
とスイッチ部からのクリック動作を示す信号を受けた赤
外線リモコン送信回路33は、これらの信号に対して、
必要な処理、例えばフォーマット変換、符号化、信号の
多重化、変調等のうちの任意の処理を施す。その後、赤
外線発光素子34を駆動して、この信号を制御対象機器
に対して送信する。
【0053】図7(a)の空間操作マウスから送信され
た、この空間操作マウスの移動速度に対応する信号やク
リック動作を示す信号は、図7(b)の制御対象機器の
赤外線受光素子35により受光される。そして、これら
受光された信号に対して、赤外線リモコン受信回路36
により、所定の制御信号の形に戻す処理が行われる。
【0054】この制御信号を受けた処理部37は、所定
の演算処理により、空間操作マウスの移動量を求めるこ
とにより、この空間操作マウスの移動量、移動速度及び
それらの方向並びにクリック動作を表す信号をすべて獲
得することができる。処理部37は、これらの信号に応
答して、表示画面38上のカーソルを動かす制御を行
う。また、場合によっては、動かした後のカーソル位置
の表示物に所定の処理、例えば色あるいは模様を付す処
理を行う。あるいは、カーソル位置に対応する新たな入
力画面、例え現在の入力画面の下の階層の入力画面等を
表示する制御などを行う。さらにまた、クリック動作に
応答して、カーソル位置の表示物(または文字列)に対
応する処理、例えばその表示物等自体に処理を施すこと
ができる。あるいは、その文字列等が示すコマンド(画
面制御以外の制御を含む)を実行するなどの制御を実行
することも可能である。
【0055】ここで、前記速度検出部32a,32b
は、図7(a)の空間操作マウス側に設けずに、図7
(b)の制御対象機器側に設けても良い。また、図7
(a)の空間操作マウス側で当該空間操作マウスの移動
量まで算定し、この算定した移動量を図7(b)の制御
対象機器側に与えるように構成しても良い。
【0056】次に、動き検出素子として圧電振動ジャイ
ロを用いる例について説明する。
【0057】図9(a)に、圧電振動ジャイロの構造の
一例を示す。この圧電振動ジャイロでは、正三角柱の恒
弾性金属91を振動子として用いる。恒弾性金属91の
各面には、縦波モードの圧電セラミック92〜94が配
置される。図9(b)のように、励振電源96を用い
て、励振用圧電セラミック92に振動子91を励振させ
る。この場合、静止時には、検出用圧電セラミック9
3,94には等しい電圧が発生する。一方、この圧電振
動ジャイロが回転軸95を中心に回転すると、振動方向
からみて90度の方向に、角速度に比例したコリオリの
力が発生する。この結果、検出用圧電セラミック93に
発生する電圧と検出用圧電セラミック94に発生する電
圧との間に、差が生じる。従って、減算装置97を用い
て、検出用圧電セラミック93,94の出力電圧の差を
演算することによって、角速度を求めることができる。
2つの検出用圧電セラミック93,94の特性が同一で
あるとすると、出力端子98には、角速度に比例した電
圧信号のみが現れる。
【0058】この圧電振動ジャイロを本発明の空間操作
マウスにさらに適用すれば、平行移動のみではなく、軸
回りの回転も検出することがでる。この適用は、空間操
作マウスの操作性の面において、様々な応用範囲の広が
りを与える。
【0059】なお、振動子91が回転しなくても、励振
用圧電セラミックの振動方向からみて90度の方向に空
間操作マウス本体が動くと、検出用圧電セラミック9
3,94に、移動速度に比例する電圧差が発生する。こ
れを利用して、マウス本体の速度を検出することができ
る。
【0060】図10は、ポインティング動作を安定にす
るための手振れ補正回路を設けた空間操作マウスの構成
例である。この空間操作マウスの構成は、基本的には、
図7(a)の空間操作マウスの構成と同じである。ただ
し、増幅器31a,31bの後段に、帯域制限器39
a,39bをそれぞれ設けた点に、相違がある。
【0061】すなわち、空間操作マウスは操作者が手に
持って操作するため、操作者の手振れにより、どうして
も空間操作マウス本体が微妙に振動する。この結果、ポ
インティング動作が正確にできない場合が生ずる。そこ
で、帯域制限器39a,bを用いて、手振れによる振動
成分を除去するものである。
【0062】通常、手振れの周波数は、0.5Hz〜1
5Hz程度の周波数範囲にあると考えられる。従って、
帯域制限器39a,39bの周波数除去範囲は、上記範
囲に設定すると効果的である。これにより、操作者の意
図する動作に対してのみ、マウスの動きを検出すること
が可能になるので、操作者の意図しない誤入力を回避す
ることができる。従って、空間操作マウスの信頼性の向
上を図ることができる。
【0063】この帯域制限器39a,39bには、帯域
制限フィルタまたは積分回路、あるいは演算回路を用い
ても良いし、ソフト処理によっても実現可能である。
【0064】なお、アプリケーションによっては、帯域
制限器39a,39bの除去周波数を互いに異なる範囲
に設定しても良い。
【0065】一方、手振れの周波数である0.5Hz〜
15Hz程度の周波数範囲に該当する緩慢な動作で、こ
の空間操作マウスの操作を行いたい場合もある。この場
合は、空間操作マウスに、帯域制限器39a,39bを
設ける経路と、設けない経路の2系統を設ければ良い。
そして、除去周波数の範囲に該当する動作であっても、
帯域制限器39a,39bを設けない経路から得られる
移動距離等を勘案し、操作者の意図する動作と認められ
る場合と認められない場合で経路を切り替えて信号を出
力しても良い。
【0066】以上により、任意の空間でのポインタ動作
を可能とするとともに、コンピュータやマルチメディア
器機あるいはその表示装置から離れていても、手軽にポ
インタ操作や制御操作を行うができる空間操作マウスを
提供することができる。
【0067】図11は、本発明の第2の実施例に係る空
間操作マウスの概略構成図である。第1の実施例と同様
に、水平方向動き検出素子112と垂直方向動き検出素
子113によって、空間操作マウス本体111の2次元
方向の動きを検出し、その結果得られる動き信号によ
り、制御対象機器の表示画面上のカーソルを動かす。操
作は、カーソルボタン114とクリックボタン117に
よって行われる。
【0068】図12は、本発明の第2の実施例の空間操
作マウスをマルチメディアテレビに適用した場合の空間
操作型映像システムの使用概念図である。操作者は、従
来のボタン制御型の赤外線リモコン装置のように、多く
の機能ボタンを用いて操作を行うのではなく、テレビ画
面内に表示される入力画面を見ながら操作を行うことが
できる。
【0069】操作者が空間操作マウス本体111を上下
左右に動かすと、空間操作マウスによってその動きが検
出される。そして、空間操作マウス内で動きに応じた制
御信号が生成され、赤外線発光素子115、116から
放射される。放射され赤外線は、マルチメディアテレビ
本体121の赤外線受光素子123により受光される。
【0070】操作者が、空間操作マウスのカーソルボタ
ン114を第1の指(例えば親指)で押すと、表示画面
122上にカーソルが表示される。マウス本体111を
動かして、カーソルをクリックしたい対象物上に移動す
る。そして、操作者は、第2の指(例えば人差し指や中
指)でクリックボタン117を押す。
【0071】図13(a)〜図13(d)の画面例を用
いて、この空間操作型映像システムの操作の一例を説明
する。まず、画面にはチャンネルAの内容が映されてい
るものとする。そのような画面の状態を、図13(a)
に示す。操作者が例えばチャンネルDを画面に映したい
場合には、まず、操作者は、カーソルボタン114をク
リックする。すると、図13(b)のように、入力画面
124が表示される。このとき、入力画面124には、
チャンネルを表すA〜Fの文字が表示される。現在のチ
ャンネルであるAは、四角いカーソルで囲まれている。
操作者は、空間操作マウスを動かして、このカーソルを
図13(c)のようにDに移動させる。そして、クリッ
クボタン117を押し、続けてカーソルボタン114を
押す。すると、図13(d)のようにチャンネルが切り
替わり、入力画面124は消去される。
【0072】このような操作は、チャンネル選択だけで
なく、音量調節、色調の調節等、あらゆる操作に用いる
ことができる。
【0073】このように、本発明の空間操作マウスを用
いれば、従来の多くの機能ボタンを有するボタン制御型
の赤外線リモコン装置を用いる場合と異なり、操作者
は、テレビ画面を見ながら入力操作を行うことができ
る。したがって、操作者は、多くのボタンの機能をそれ
ぞれ記憶する負担や煩雑なボタン操作から解放される。
すなわち、本発明の空間操作マウスは、操作者にとって
非常に使いやすい操作環境を提供することができる。
【0074】ここで、1つのクリックボタンを有する第
1の実施例の空間操作マウスおよびカーソルボタンおよ
びクリックボタンの2つのボタンを有する第2の実施例
の空間操作マウスについて、種々のクリック動作のタイ
プを図14を参照しながら説明する。なお、図14にお
いて、「押す」という動作は、「押し続ける」ではなく
「押して放す」という動作を示す。
【0075】従来のメカニカル式マウスや光学式マウス
では、カーソル制御のオン/オフの切り換えは、マウス
本体を操作板に接触させるかさせないかで決められる。
従って、マウス本体が操作板の端に位置している場合
に、表示画面上でさらにカーソルを移動させたいとき
は、操作者は、一旦、マウスを持ち上げて、マウスを操
作板の移動可能領域に設置し直し、改めて操作板上を移
動させる。ところが、本発明の空間操作マウスでは、カ
ーソル制御のオン/オフの切り換えは、ボタンの押し方
あるいは放し方によって簡単に指示することができる。
あるいは、オン/オフ指示用のボタンの操作によって指
示される。
【0076】まず、第2の実施例の空間操作マウスで
は、カーソル制御を可能にするためのカーソルボタン
(A)と確認動作あるいは選択動作をするためのクリッ
クボタン(B)とを別に設けている。
【0077】操作タイプ1では、カーソルボタン(A)
を押すと、カーソルや必要な入力画面が表示され、カー
ソル制御が可能となる。操作者は、表示されたカーソル
を移動させた後、クリックボタン(B)を押す。この操
作により、確認入力あるいは選択入力がなされる。そし
て、再びカーソルボタン(A)を押すと、カーソルや入
力画面が消去され、カーソル制御が不可となる。
【0078】操作タイプ2では、カーソルボタン(A)
を押し続けている間、カーソルや必要な入力画面が表示
され、カーソル制御が可能となる。カーソルを移動させ
た後、クリックボタン(B)を押すことにより、確認あ
るいは選択がなされる。そして、再びカーソルボタン
(A)を放すと、カーソルや入力画面が消去され、カー
ソル制御が不可となる。
【0079】次に、第1の実施例の空間操作マウスは、
カーソル制御を可能にするためのカーソルボタンと確認
動作あるいは選択動作をするためのクリックボタンとを
1つのクリックボタンで共有したものである。
【0080】操作タイプ3では、クリックボタンを1回
押すと、カーソルや必要な入力画面が表示され、カーソ
ル制御が可能となる。カーソルを移動させた後、クリッ
クボタンを予め設定された回数(例えば2回)押すこと
により、確認あるいは選択がなされる。そして、再びク
リックボタンを1回押すと、カーソルや入力画面が消去
され、カーソル制御が不可となる。
【0081】操作タイプ4では、クリックボタンを押し
続けている間、カーソルや必要な入力画面が表示され、
カーソル制御が可能となる。カーソルを移動させた後、
クリックボタンを放すことにより、確認あるいは選択が
なされるとともに、カーソルや入力画面が消去され、カ
ーソル制御が不可となる。
【0082】この操作タイプ3および4は、第2の実施
例の空間操作マウスでも使用可能である。
【0083】これらの操作タイプは、アプリケーション
の特徴等を考慮して、その都度最適なものを選択するの
が好ましい。
【0084】なお、この他の操作タイプとしては、例え
ば次のような方法がある。まず、制御対象機器側でカー
ソル制御を可能とするとともに、必要な場合にはその旨
を操作者に伝える。そして、空間操作マウス側では、確
認動作あるいは選択動作をするためのクリックボタンの
操作が行われる。
【0085】また、制御対象機器側で、カーソル制御を
可能や不可にするタイミングの制御、および確認動作あ
るいは選択動作タイミングの制御を司り、空間操作マウ
ス側では、クリックボタンを設けないあるいは設けても
操作しないで、カーソルの移動だけを行わせる様に構成
することも可能である。
【0086】次に、本発明の第3の実施例について説明
する。
【0087】本発明の空間操作マウスは、カーソルを用
いた画面上のアイコンや映像の制御に適用できるのみで
はなく、操作者が空間操作マウス本体を握って、空間に
所定の動作パターンを描くことにより意思を伝達できる
機能を付加したものである。それゆえ、空間操作マウス
という語句は、ポインティング・デバイスとしての機能
を有するマウスを意味するだけでなく、動作パターンに
よる入力機能をも含めた拡張した意味で用いるものとす
る。
【0088】基本的に、人間の通常の感覚に基づいて自
然になされる動作は、3次元空間内で営まれる。従っ
て、操作者による3次元空間動作のパターンの認識がで
きれば、操作者が感覚的にコンピュータや映像器機を制
御できるような環境を提供することが可能となる。すな
わち、日常生活の中で無意識に行われる生理的動作や習
慣的動作等の感覚的動作/反射的動作を利用するマン・
マシンインターフェイスは、感覚的制御に最適なヒュー
マンインターフェイスと言える。
【0089】感覚的制御に利用する生理的動作や習慣的
動作としては、以下のようなものが考えられる。まず、
生理的動作の例としては、喜怒哀楽の情緒的感情に伴う
動作や、人の体の構造上規定される動作がある。次の5
つの動作は、生理的動作の例である。(i )驚いた時に
は、一瞬筋肉が萎縮し、体がすくむ。(ii)緊張してい
る時には、手足が震える。(iii )注意している時に
は、静止する。(iv)相手を攻撃するときは、手を突き
出したり、上から降り下ろしたりする。(v )右利きの
人が紙をめくる時は、左下から右上に向かってめくる。
【0090】また、次の4つの動作は、習慣的動作の例
である。(i )肯定の場合に、首を縦に振る。(ii)音
量アップの時は、右回しでボリュームを操作し、音量ダ
ウンの時は、左回しの動作をする。(iii )別れる時
は、手を上げて、左右に振る。(iv)人を呼び寄せる時
は、手のひらを上に向け、手前に振る。このように、日
常生活において、万人が同じような動作を習慣的に行う
例は多い。
【0091】生理的動作や習慣的動作を入力パターンと
して利用することは、操作者にとって、それらの動作が
無意識に感覚的にできる点において、優れている。
【0092】ただし、2次元平面では、その動作の表現
と認識が困難である。すなわち、3次元空間内での動作
確認技術が必要不可欠である。従って、従来の操作板上
で操作する2次元マウスから動作パターンを入力して
も、人間の3次元空間での感覚的動作を認識することは
できない。これに対して本発明では、空間操作マウス本
体1を3次元空間内で操作できるため、従来の2次元マ
ウスでは不可能な感覚制御型ヒューマンインターフェイ
スを実現することができるわけである。
【0093】図15は、空間動作パターンによる入力機
能を有する空間操作マウスのブロック図の一例である。
この空間操作マウスは、第1動きセンサ30a、増幅器
31a、前述の帯域制限器39a、A/D変換器40
a、速度検出部32c、第2動きセンサ30b、増幅器
31b、前述の帯域制限器39b、A/D変換器40
b、速度検出部32d、動作認識部41、動作パターン
メモリ42、赤外線リモコン送信回路43、赤外線発光
素子34により構成される。
【0094】基本的な構成は、図10の空間操作マウス
とほぼ同様であるが、操作者によって空間に描かれた動
作パターンを認識するための動作認識部41および動作
パターンメモリ42を設けた点が異なる。
【0095】まず、ポインティング・デバイスとしての
機能は、図10とほぼ同様の構成、すなわち、第1動き
センサ30a、増幅器31a、前述の帯域制限器39
a、A/D変換器40a、速度検出部32c、第2動き
センサ30b、増幅器31b、帯域制限器39b、A/
D変換器40b、および速度検出部32dを用いて実現
される。
【0096】速度検出部32c,32dには、それぞれ
A/D変換された信号が与えられる。速度検出部32
c,32dでは、デジタル処理が行われる点のみが異な
り、動作に関しては図7のものと同一である。従って、
この部分の構成および動作の詳細については、すでに説
明したので記載を省略する。なお、速度検出部32c,
32dには、A/D変換する前の信号を与えるように構
成しても構わない。
【0097】次に、この空間操作マウスを用いた動作パ
ターンの認識処理と、それによる対象機器の制御につい
て説明する。
【0098】図16(a),図16(b),図16
(c)は、そのような動作パターンによる入力動作の例
である。空間操作マウスを図16(a)のように回転さ
せる動作、図16(b)のように上下に振る動作、ある
いは、図16(c)のように左右に振る動作、といった
種々の動作パターンに対応して登録された制御を、コン
ピュータ等の制御対象機器に対して行うことができる。
例えば、制御対象機器がスピーカーを内蔵している場
合、空間操作マウスを右に回すと音量が増加し、左に回
すと減少する、といった制御をさせることが可能であ
る。あるいは、制御対象機器から確認のための入力を求
められた場合、空間操作マウスを上下に振ると“Ye
s”が伝えられ、左右に振ると“No”が伝えられるな
ど、種々の制御をさせることが可能である。
【0099】まず、操作者は、本実施例の空間操作マウ
スを握り、手を動かして、予め決められている基本動作
パターンを空間に描く。空間操作マウスの動きは、第1
動きセンサ30a,30bにより、一旦2つの方向の動
きに分解されて検出される。それぞれの方向の動きを表
す信号は、増幅器31a,31bにより増幅され、帯域
制限器39a,39bにより余分な成分が除去され、A
/D変換器40a,40bによりデジタル信号に変換さ
れて、動作認識部41にそれぞれ与えられる。
【0100】一方、動作パターンメモリ42には、所定
の様々な基本動作パターンに対応する基本データが格納
されている。
【0101】動作認識部41は、まず、操作者の3次元
空間における動作をパターン化するために、2つの方向
の動きを表す信号を基本データと同じフォーマットの動
作パターンデータに変換する。そして、この動作パター
ンデータと基本データとを比較することによって、動作
パターンの識別を行い。そして、該当する基本動作パタ
ーンを示す動作コードを獲得する。
【0102】この動作コードは、赤外線リモコン送信回
路43と赤外線発光素子34により制御対象機器に送信
される。これを受信した制御対象機器は、与えられた動
作コードに対応する制御を実行する。
【0103】ここで、操作者の動作により得られた動作
パターンデータおよび動作パターンメモリ42に格納さ
れている基本データを比較することによって、操作者の
動作を同定しようとしても、識別しにくい動作がなされ
た結果、動作を同定しきれない場合が考えられる。そこ
で、例えば動作パターンデータと基本データとの間の類
似度を計算し、測定された動作パターンデータに対して
類似度の一番高い基本データを有する動作パターンを操
作者が行った動作ものと決定し、決定した動作パターン
に対応する動作コードを得るようにしても良い。あるい
は、良く知られているニューロやファジー等の手法を用
いて、動作パターンの識別を行っても良い。
【0104】また、測定された動作パターンデータに対
して同程度の類似度を有する基本データが複数検出され
た場合、複数の動作コードと類似度の組を制御対象機器
側に送信し、制御対象機器側の方で、与えられたデータ
の組に基づいて適宜処理を行っても良い。あるいは、動
作パターンが特定できないことを制御対象機器側に伝
え、制御対象機器側の方で画面表示あるいは合成音等を
用いて、再度動作パターンによる入力を実行するよう
に、操作者に伝えるように構成しても良い。
【0105】動きの認識については、様々なバリエーシ
ョンが考えられ、「8の字」や「×印」のような複雑な
動きも認識可能である。また、移動速度、加速度、パタ
ーンの大きさ等の種々データを用い、また組み合わせれ
ば、さらに数多くの種類の制御が可能となる。例えば、
空間操作マウスを右に回すと音量が増加する場合、大き
な輪を描くように(あるいは早い速度で)右に回すとき
の方が、小さく輪を描くように(あるいは遅い速度で)
右に回すときよりも、音量の増加の度合いが大きくなる
ように設定することも可能である。
【0106】また、基本動作パターンに対して、前述の
ような人間の通常の習慣的な動作が示す意味に対応する
処理内容を割り当て、あるいは基本動作パターンに対し
て、その基本動作パターンから受ける印象から違和感の
生じない処理内容を割り当てると効果的である。そのよ
うにすれば、操作者は、困難なく種々の基本動作パター
ンに与えられた機能を記憶することができるとともに、
使用時も非常に使い易くなる。このように、本発明の空
間操作マウスを適用すれば、優れたマン・マシンインタ
ーフェイス環境を提供することができる。
【0107】ここで、動きを検出すべき2つの方向につ
いては、本実施例では垂直および水平方向に動きを扱っ
た。その代わりに、これらに直行する方向(すなわち前
後方向)と垂直方向の2つの方向や、前後方向と水平方
向の2つの方向の動きを検出するように構成することが
可能である。さらに、動き検出部を増設して、動きを検
出できる軸を増やすことによって、動作パターン入力に
用いる基本動作パターンとして、3次元空間でのさらに
複雑な動作を用いることも可能である。また、手首のひ
ねり等の動作による軸の回りの回転を検出して、これを
動作パターンあるいは動作パターンの一部として用いて
も効果的である。
【0108】なお、本実施例の空間操作マウスの2つの
機能、すなわちいわゆるポインタ機能とこの動作パター
ン入力機能の使い分けは、空間操作マウスの方で設定し
ても良いし、制御対象機器の方で指示しても良い。ま
た、このポインタ機能と動作パターン入力機能を組合わ
せて使用することも可能である。
【0109】また、前記動作認識部41および動作パタ
ーンメモリ42は制御対象機器の方に設け、当該空間操
作マウスからは動き検出をして得られたそのままのデー
タを出力するように構成しても良い。
【0110】本実施例では、操作者が空間操作マウスを
手に握って操作する例について説明した。空間操作マウ
スを手に握って操作する代りに、空間操作マウスを操作
者の体の他の部分、例えば足あるいは頭に装着し、それ
らの装着した部分の動作パターンを検出しても良い。ま
た、操作者の操作する装置あるいは道具に装着あるいは
内臓して、それら装置等の動作パターンを検出しても良
い。
【0111】以上のように、本発明によれば、任意の空
間でのポインタ動作を可能にするだけでなく、操作者の
動作を認識することができる空間操作マウスを提供する
ことができる。また、コンピュータやマルチメディア器
機あるいはその表示装置から離れていても、手軽にポイ
ンタ操作や制御操作を可能にする空間操作マウスを提供
することができる。
【0112】次に、本発明の第4の実施例を説明する。
【0113】本実施例は、概略的には第3の実施例と同
様に、空間操作マウスのような3次元入力装置を用い
て、空間動作パターンを入力して、所望の機能を実行さ
せるシステムである。本実施例では、第3の実施例にお
ける動作パターンの認識処理をさらに詳細化している。
すなわち、後述するように、操作者の空間での動作パタ
ーンを微小な基準ベクトルの集合である動作ベクトル列
に変換し、動作ベクトル列と予め登録された操作者の基
本動作パターンとを比較して認識を行うところに特徴が
ある。
【0114】本実施例の空間動作パターン入力システム
を用いると、概略的には、操作者は、基本動作パターン
を空間に描くことにより、このパターンに対応付けられ
ている機能を実行させることができる。例えば図17に
示すような機能が実現できる。図17は、本発明による
空間動作パターンによる入力操作の一例を示したもので
ある。図のように、操作者が、空間操作マウス1を、a
からb、そしてcへと三角形状に動かすことにより、表
示装置202の表示画面203に表示されていた選択肢
の中から、三角形の項目を選ぶことができる。
【0115】次に、本発明で用いる動作ベクトルの概念
を説明する。図18(a)に、操作者によって動かされ
ている空間操作マウス1の運動の大きさ(V)と方向
(θ)を示す。図18(b)のように、ある時刻(t)
において操作者によってなされた動作を、基準ベクトル
の大きさ(n)の倍数と基準方向(例えば水平方向)に
対する角度の組で表現する。このように表現した動作
を、動作ベクトル(Vt、θt)と定義する。図18
(a)のように、この動作ベクトルは、空間操作マウス
1によって検出される検出量を一定時間でサンプリング
することによって、直接得られる検出軸方向の速度(v
x 、vy )あるいは加速度(αx 、αy )を指定値とし
て、テーブルを参照して得られるベクトルである。動作
ベクトルは、その大きさを基準ベクトルの大きさ(n)
の倍数で表現したものである。よって、この動作ベクト
ルを用いれば、基準位置(原点)に対する空間操作マウ
スの空間座標を測定しなくても、空間操作マウスの動き
を、時系列の微小基準ベクトル集合として相対的に得る
ことが可能となる。
【0116】次に、動作を表現する際に一般的に用いら
れるいわゆる運動ベクトルと本発明において使用される
動作ベクトルの相違を説明する。図19のように、運動
ベクトルによる表現では、ある運動を始点と終点のみで
とらえ、始点−終点間の運動の大きさ(V)と方向
(θ)を用いる。一方、本発明における動作ベクトルに
よる表現では、ある運動の始点から終点までを微小なベ
クトルの集合としてとらえ、ある時刻(t)における個
々の微小ベクトルの大きさ(Vt)と方向(θt)を用
いる。これによって、空間における不安定な動作でも、
それぞれの動作ベクトルの大きさあるいは方向の時間的
変化を追っていくことによって、相対的に、ある動作を
とらえることができる。
【0117】図20は、本発明の空間操作マウスを用い
る空間動作パターン入力システムの要部構成の一例を示
すブロック図である。本実施例の空間動作パターン入力
システムは、動作検出部204と、動作ベクトルへの変
換を行う変換部205と、検出量と動作ベクトルとの対
応を示したベクトルテーブル206と、識別部207
と、実行部208により構成される。
【0118】図20の各構成部分は、適宜、空間操作マ
ウスと、制御対象機器に分散配置することができる。た
だし、少なくとも、動作検出部204は空間操作マウス
に実装し、実行部208は制御対象機器に実装する。例
えば、動作検出部204を空間操作マウスに実装し、変
換部205とベクトルテーブル206と識別部207と
実行部208とを制御対象機器に実装する。あるいは、
動作検出部204と変換部205とベクトルテーブル2
06を空間操作マウスに実装し、識別部207と実行部
208とを制御対象機器に実装する。他にも、種々の実
装の仕方が考えられる。
【0119】動作検出部204を空間操作マウスに実装
し、他を制御対象機器に実装する場合、動作検出部20
4の出力信号は、図7(a)のように赤外線リモコン送
信回路33を用いて送信され、図7(a)のような制御
対象機器側の赤外線リモコン受信回路36を用いて受信
される。他の実装方法を採用する場合も、同様の方法で
信号を、空間操作マウス側から制御対象機器側へ渡すこ
とができる。
【0120】すなわち、赤外線リモコン送信回路33あ
るいは送信部18は、後述する動作パターン入力に必要
な処理が全て終了した時点の信号、あるいは処理の途中
の時点での信号に、フォーマット変換、符号化、多重
化、変調等の処理を施した後、赤外線発光素子12、1
3を駆動して、この信号を制御対象機器まで伝送する。
これを受けた制御対象機器は、動作パターン入力処理の
途中の信号であれば、その後のステップの処理を行っ
て、動作パターン入力方法に対応した所定の制御動作を
実行する。
【0121】本実施例では、空間操作マウスとして、図
1および図2や、図15などの既に各実施例で説明した
ものを用いることができる。例えば、第3の実施例で説
明した空間操作マウスを利用する場合、動作検出部20
4は、第1動きセンサ30a、増幅器31a、帯域制限
器39a、A/D変換器40a、第2動きセンサ30
b、増幅器31b、帯域制限器39b、A/D変換器4
0bを利用して構成することができる。また、変換部2
05とベクトルテーブル206と識別部207は、動作
認識部41に対応する。動作認識部41が用いる動作パ
ターンメモリ42には、後述するような基本動作パター
ンが格納される。実行部208は、例えば図7(b)の
処理部37の実行機能に該当する。
【0122】なお、前出の空間操作マウスを利用する場
合、スイッチ部17(ただし図15では図中からは省略
されている)には、確認動作あるいは選択動作をするた
めのクリックボタンに加えて、カーソル制御を可能とす
るためのカーソルボタンや後述する動作パターン入力を
可能とするための動作パターン入力ボタン等をさらに設
ける修正を施すこともある。
【0123】ここで、特開平3−192423に、空間
での動作を検出し、これをコンピュータに入力する3次
元コンピュータ入力装置が開示されている。しかしなが
ら、空間での動作検出の概念を開示するに留まってお
り、一部のポインティング操作に用いることができるの
みである。一方、本発明は、空間操作マウス等によって
操作者の任意空間での動作を検出し、これを意味のある
動作として入力し、3次元空間における動作認識を行う
ことを目的としており、これを前述の動作ベクトルとい
う概念を用いて実現するものである。
【0124】図21は、前記動作検出部204にて得ら
れた空間動作量を動作パターンに変換する変換部205
の機能を説明するための図である。
【0125】この変換部205では、ある時刻(t)に
動作検出部204で検出された水平(左右)および垂直
(上下)の2方向の検出量(XtとYt)を組み合わせ
て、ベクトルテーブル206を参照し、動作ベクトル
(Vt、θt)に高速に変換する。なお、Vtは、ある
時刻(t)におけるそのベクトルの大きさ(基準ベクト
ルの倍数)を表し、θtはそのベクトルの方向を表す。
以下の説明では、空間での一連の動作を、速度ベクトル
あるいは加速度のベクトル列として扱う。また、空間操
作マウスを動かしたときの動作ベクトルの時系列の集合
全体を、動作ベクトル列(V{}、θ{})と呼ぶ。な
お、動作ベクトル列(V{}、θ{})は、((V1、
θ1)、(V2、θ2)、... 、(Vt、θt)、...
)といった動作ベクトルの時系列集合である。
【0126】次に、空間動作を、ベクトルテーブル20
6によって、動作ベクトルに変換する一例を説明する。
操作者の空間動作は、動作検出部204によって、例え
ば図22(a)のような2つの方向の動きXt,Ytに
分解して検出される。図22(b)のように、ある時刻
(t)に動作検出ステップで得られた水平方向の検出量
(例えばXt=2)と垂直方向の検出量(例えばYt=
3)は、予め検出量と動作ベクトルとの対応を示したベ
クトルテーブルによって、動作ベクトル((Vt、θ
t)=(V23、θ23))に変換される。図22(c)
に、動作ベクトル(V23、θ23)を表す。なお、動作ベ
クトルの大きさを得るためのベクトルテーブルには、基
準ベクトルの大きさ(n)を基準とした係数を登録す
る。
【0127】図23は、変換部205において変換され
た動作ベクトル列(V{}、θ{})を、予め登録され
た基本動作パターンと比較して、識別を行う識別部20
7の内部構成の一例である。図のように、単位ベクトル
処理部224と、ベクトル加算処理部225と、判定部
227を用いて構成される。ただし、単位ベクトル処理
部224とベクトル加算処理部225のいずれか一方の
みを有する構成を採用することも可能である。
【0128】識別部207では、まず、動作ベクトル列
(V{}、θ{})を用いて単位ベクトル処理部224
による処理および/またはベクトル加算処理部225に
よる処理を行う。その結果を、予め登録された基本動作
パターンと動作ベクトル列マッチング処理部226にて
比較し、判定部227において動作ベクトル列に該当す
る基本動作パターンが存在するかを判定する。
【0129】図24は、識別部207の単位ベクトル処
理部224による処理の流れ図である。ここでは、ある
時刻(t)の動作ベクトル(Vt、θt)は、そのベク
トルの大きさにかかわらず、ベクトルの方向(θ)の単
位ベクトルとして扱う。単位ベクトルを、原点を中心に
まとめたものを、単位ベクトル関数Sθと呼ぶ。
【0130】単位ベクトル処理部224では、まず、こ
の単位ベクトル関数Sθを初期化する(ステップS22
8)。動作ベクトル列のデータを時系列に処理するため
に、tを1にセットする(ステップS229)。時刻t
におけるベクトルの方向θtをメモリから呼び出す(ス
テップS230)。
【0131】その方向のSθがそれまでの動作ベクトル
列に存在したか判定する(ステップS231)。もし、
存在していなければSθt を1にセットする(ステップ
S232)。
【0132】そして、tの値が動作ベクトル列の全サン
プル数より大きいかを判定する(ステップS233)。
もし小さければtの値に1を加え(ステップS23
4)、時刻tにおけるベクトルの方向θtをメモリから
呼び出すステップに戻る。
【0133】そして、以降同様の処理を繰り返し、ステ
ップS233で、tの値が動作ベクトル列の全サンプル
数より大きくなれば、この処理を終了する。
【0134】この処理によって、操作者の動作による動
作ベクトルは、原点を中心とし、大きさを1とした単位
ベクトルの集合(単位ベクトル関数)として表される。
【0135】次に、単位ベクトル処理の具体例を説明す
る。
【0136】図25(a)〜図25(c)は、単位ベク
トル処理の説明図である。例えば、図25(a)のよう
に空間で描かれた三角形状の動作ベクトル列(サンプル
数:6)は、個々の動作ベクトルの大きさは異なるが、
その方向はほぼ3方向によって構成される。この動作ベ
クトル列から単位ベクトル処理では、図25(b)のよ
うに各動作ベクトルのベクトルの方向(θ)のみに注目
し、原点からθ方向の単位ベクトルを得る処理を繰り返
し、動作ベクトル列のベクトルの方向の概要を得る(ス
テップS301〜S306)。この結果、図25(c)
のように、この三角形状の動作ベクトル列は、3方向の
単位ベクトルとして表される。
【0137】これによって、ほぼ同じベクトルの方向か
ら構成される三角形は、その形状の大小や若干の変形に
かかわらず、同じ三角形として識別できる。あるいは、
空間で円を描いた場合は、数多くの単位ベクトルが得ら
れることによって識別できる。この他にも種々のパター
ンを識別することが可能である。
【0138】また、この単位ベクトル処理では、単位ベ
クトルの方向を、水平方向および垂直方向を含むいくつ
かの方向に分けておおまかに行ってもよい。さらに、単
位ベクトルの現れた順序の情報を用いることによって、
例えば、円の描かれた回転方向(右回り、左回り)を識
別するなど、より多くの動作パターンを取り扱うことが
できる。
【0139】一方、図26は、識別部207のベクトル
加算処理部225による処理の流れ図である。ここで
は、原点を中心に、動作ベクトルの大きさを、そのベク
トルの方向毎に加算する。この加算の結果得られるベク
トル関数を、単位ベクトル処理における単位ベクトル関
数に対して、累積ベクトル関数Cθと呼ぶ。
【0140】ベクトル加算処理部225では、まず、こ
の累積ベクトル関数Cθを初期化する(ステップS23
5)。動作ベクトル列のデータを時系列に処理するため
に、tを1にセットする(ステップS236)。時刻t
における動作ベクトル(vt、θt)をメモリから呼び
出す(ステップS237)。
【0141】それまでの累積ベクトル関数Cθt-1 に、
方向(θt)で大きさ(vt)のベクトルを加える(ス
テップS238)。
【0142】そして、tの値が動作ベクトル列の全サン
プル数より大きいかを判定する(ステップS239)。
もし小さければtの値に1を加え(ステップS24
0)、時刻tにおける動作ベクトル(Vt、θt)をメ
モリから呼び出すステップ(ステップS237)に戻
る。
【0143】そして、以降同様の処理を繰り返し、ステ
ップS239で、tの値が動作ベクトル列の全サンプル
数より大きくなれば、この処理を終了する。
【0144】この処理によって、操作者の動作による動
作ベクトルは、原点を中心としたベクトルの集合(累積
ベクトル関数)として表される。この処理結果と予め登
録された基本動作パターンとを比較することにより、空
間動作パターンが形状や大きさなどの点で、基本操作パ
ターンと同じかあるいは異なるかを識別できる。
【0145】次に、加算ベクトル処理の具体例を説明す
る。
【0146】図27(a)〜図27(c),図28
(a),図28(b)は、動作ベクトルの大きさを、そ
の方向毎に加算するベクトル加算処理を説明するための
図である。前述の単位ベクトル処理では、例えば、図2
7(a)と図28(a)のように空間で描かれた三角形
の形状は、それぞれ異なるにもかかわらず、ともに図2
5(c)のような結果が得られる。このような両者を区
別する必要がある際にベクトル加算処理は、効果的であ
る。例えば、図27(a)のように空間で描かれた三角
形状の動作ベクトル列(サンプル数:6)は、図27
(b)のように各動作ベクトルのベクトルの大きさ
(V)と方向(θ)に注目し、原点からベクトルの方向
毎にベクトルの大きさを加算する処理を繰り返し、動作
ベクトル列の全体構成を得る(ステップS311〜S3
16)。この結果、図27(c)のように、この三角形
状の動作ベクトル列は、3方向のほぼ同じ大きさのベク
トルとして表される。
【0147】同様に、図28(a)のように空間で描か
れた三角形状の動作ベクトル列(サンプル数:5)から
は、ベクトル加算処理により、図28(b)のような結
果が得られる。
【0148】そして、図27(c)と図28(b)を比
較すると、動作ベクトルを構成している動作ベクトルの
大きさの割合が異なることから、入力された空間動作パ
ターンが互いに異なることが識別できる。
【0149】なお、動作ベクトルの大きさは、基準ベク
トルの倍数として表されているので、予め変換テーブル
に記録されている係数を加算していくことにより、上記
ベクトル加算処理は容易になされる。また、このベクト
ル加算処理も、動作ベクトルの方向を水平方向および垂
直方向を含むいくつかの方向に分けて、おおまかに行っ
てもよい。
【0150】次に、動作ベクトル列マッチング処理部2
26では、単位ベクトル処理部224の処理結果と予め
登録された基本動作パターンとの間のマッチング処理、
および/または、ベクトル加算処理部225の処理結果
と予め登録された基本動作パターンとの間のマッチング
処理を行い、判定部227において動作ベクトル列に該
当する基本動作パターンが存在するかを判定する。
【0151】図29は、判定部227における処理の流
れの一例を示す図である。例えば、動作ベクトル列マッ
チング処理部226におけるマッチング処理により、い
くつかの識別候補の基本動作パターンとそれぞれとの類
似度(P)が得られるとき、類似度(P)が予め規定さ
れた類似度の基準値(Ref)より大きければ、判定部
227では、動作ベクトル列に対応する基本動作パター
ンが存在すると判定し、類似度の基準値(Ref)より
小さければ、動作ベクトル列に対応する基本動作パター
ンは存在しないと判定する。
【0152】そして、この判定結果を基に、識別部20
7における類似度の大きさ等による認識を行う。その結
果に基づいて、実行部208では、動作パターンに対応
して登録されていた基本データによって、制御対象機器
の制御を実行する。
【0153】ここで、図30(a)〜図30(e)に
は、単位ベクトル関数による動作ベクトル列の識別方法
の一例を示す。例えば、図30(a)のように空間で描
かれた三角形状の動作ベクトル列(サンプル数:6)か
ら図30(b)のような単位ベクトル関数Sθが得られ
たとき、この動作は3方向の単位ベクトルとして表され
る。この処理結果と予め登録された図30(c)〜図3
0(e)のような基本動作パターンを比較して識別を行
う。この動作は3方向の単位ベクトルとして表されてい
るので、識別候補の基本動作パターンは図30(d)と
図30(e)となる。
【0154】さらに、単位ベクトル関数のベクトルの方
向(θ1、θ2、θ3)の関係に注目して、 |θ1−θ2| |θ2−θ3| |θ3−θ1| などを計算する。
【0155】この計算を識別候補の基本動作パターン
(図30(d)と図30(e))に対しても行い、比較
するとベクトルの方向の構成から図30(d)の方の類
似度が大きくなる。このようにして、単位ベクトル関数
によって動作ベクトル列の識別ができる。また、 |θ1−θD1| |θ2−θD2| |θ3−θD3| などを計算することによって、類似度を増減すると識別
がより正確に行われる。
【0156】このように、基準位置(原点)に対する空
間操作マウスの空間座標を測定しなくても、空間操作マ
ウスの動きを動作ベクトルを用いて時系列の微小基準ベ
クトル集合として相対的に得ることによって、動作パタ
ーン入力を行うことができる。
【0157】ここで、本実施例による動作パターン入力
のための処理の一例として、上述した単位ベクトル処理
や判定方法を用いたものについて、そのフローチャート
を図31に示す。
【0158】次に、本発明の動作ベクトル列マッチング
と従来のパターンマッチングの相違について説明する。
【0159】図32(a)〜図32(g)は、本発明に
おける動作ベクトル列マッチングと従来のパターンマッ
チングとの相違を説明するための図である。例えば、操
作者が動作パターン“丸”に対応する制御を実行したい
ときに、正しくは図32(a)のように空間操作マウス
1を動かすべきであるところを、不安定な空間における
操作の結果、図32(b)のような軌跡の動作を行って
しまったものとする。このとき、従来のパターンマッチ
ング処理では、図32(c)のように得られた動作全体
の軌跡あるいはこの軌跡から得られる特長点の集合と、
図32(d)の予め登録されていた基本パターンの形状
との間のマッチングを行うため、このように不安定な操
作による入力の場合は、その類似度が小さくなってしま
う。したがって、従来のパターンマッチング処理では、
操作者により描かれた空間動作パターンを認識しきれな
い場合が多々生じると考えられる。一方、本発明におけ
る動作ベクトル列マッチング処理では、図32(e)の
ように操作者による空間操作マウス1の動きに基づき、
動作ベクトル列を生成し、例えば図32(f)のような
前記単位ベクトル処理の結果と予め登録されていた図3
2(g)のようなベクトルパターンとのマッチングを行
うため、不安定な操作による入力に対しても、その類似
度を大きくすることができる。つまり、動作ベクトル列
マッチングを用いることによって、不安定な空間での操
作も正しく認識することができる。
【0160】ここで、図33に本実施例を適用したシス
テムの構成例を、図34にその入力動作例のフローチャ
ートをそれぞれ示す。
【0161】図33のシステムは、空間マウス本体1、
動作検出部204、変換部205、ベクトルテーブル2
06、識別部207、基本動作パターン209、実行部
208、オブジェクト指定部210、オブジェクト記憶
部211、表示制御部212、表示部213を備えた構
成となっている。なお、ここでは、空間マウス本体1に
は、少なくとも前述の実施例で述べたような動き検出素
子が内蔵されているものとする。また、実行部208
は、すでに述べた機能に加えて、オブジェクト指定部2
10から与えられるコード等に対応する制御を実行す
る。実行部208は、表示制御部212および図示しな
い所望の制御対象に対して指定された制御を実行する。
【0162】このシステムは、図示しない制御回路によ
り、画面に表示されたオブジェクトを指示するためのい
わゆるポインティング・デバイスとして用いるモード
(ここでは、オブジェクト指示モードと言う)と、前述
した動作パターンによる入力モード(ここでは、動作パ
ターン入力モードと言う)とを切り替えて利用すること
ができる。
【0163】すでに述べたように、動作パターン入力モ
ードは、空間マウス本体1、動作検出部204、変換部
205、ベクトルテーブル206、識別部207、基本
動作パターン209、実行部208によって実現され
る。
【0164】また、オブジェクト指示モードは、空間マ
ウス本体1、オブジェクト指定部210、オブジェクト
記憶部211、表示制御部212、表示部213、実行
部208によって、実現される。オブジェクト指定部2
10は、表示制御部212に適宜オブジェクトを表示部
213の画面上に表示させる機能、空間マウス本体1の
動きを検出した結果を表示制御部212に与えて表示部
213の画面上のカーソルを移動させる機能、および空
間マウス本体1の指示に応答して選択されたオブジェク
トあるいはそれに対応するコードを実行部208または
(選択されたオブジェクトに対応する機能が画面制御に
関するものである場合)表示制御部212に出力する機
能を有する。オブジェクト記憶部211には、各種オブ
ジェクトの情報およびそれらに対応付けられた機能を示
すコード等が格納されている。
【0165】上記構成において、まず、ユーザーまたは
システムによって入力モードが設定される。
【0166】動作パターン入力モードが設定されると
(ステップS402)、ユーザーは空間操作マウス本体
を握って空間に動作パターンを描くことにより、入力す
ることが可能となる(ステップS403)。ステップS
404でこの動きが検出され、ステップS405で動作
ベクトル列が生成され、ステップ406で単位ベクトル
処理等を用いて動作の識別判定が行われる。そして、ス
テップS407で対応する制御が実行される。
【0167】入力モードを終了する場合はステップS4
08で終了し、入力モードを変更する場合は、ステップ
S409からステップS410に移る。
【0168】一方、オブジェクト指示入力モードが設定
されると(ステップS410)、ユーザーは空間操作マ
ウス本体を握って、画面上に表示されたカーソルを所望
のオブジェクトの上に移動させ、指示入力することが可
能となる(S411)。ステップS412で指示された
オブジェクトに対応する制御が実行される。
【0169】入力モードを終了する場合はステップS4
13で終了し、入力モードを変更する場合は、ステップ
S414からステップS402に移る。
【0170】次に、操作者の意図に反する動きを補正す
る処理について説明する。
【0171】図35(a)〜図35(d)は、動作検出
部204において検出された検出量を補正する補正部を
説明するための図である。操作者が、空間操作マウスの
水平方向や垂直方向を、表示画面の水平方向や垂直方向
とを合わせて、手に持っていないと、カーソルは空間で
の手の動きとは異なる方向へ移動する。例えば、空間操
作マウスを正規の向きと上下逆に持っていると、手の動
きとカーソルの動きは180度違ってしまう。このよう
な場合は、操作者は、表示画面上のカーソルの動きを目
視できるため、すぐに空間操作マウスの水平方向や垂直
方向と、表示画面の水平方向や垂直方向とが合っていな
いことが容易に分かる。従って、すぐに空間操作マウス
持ち直すことによって、これ以降は快適な操作が可能と
なる。
【0172】しかしながら、空間操作マウスを動かして
いる途中で、(人間の手や腕の機能に起因して)無意識
に手首のひねり等による回転が加わることによって、手
の動きとカーソルの動く方向とが違ってしまうことが生
じ得る。つまり、腕は所望の方向に動いているのに、空
間操作マウス本体1が回転しながら動いた場合は、操作
者は案外その原因に気付かないので、その結果として、
使い勝手が良くない入力機器であるという印象をもたれ
かねない。例えば、操作者が、図35(a)の表示画面
203に表示されているカーソル235を、座標(X0
、Y0 )から座標(X1 、Y1 )に水平に右方向へ移
動させたい場合を考える。この場合、操作者が空間操作
マウスに手首のひねり等を加わえて動かしてしまうと、
空間操作マウスは図35(b),図35(c),図35
(d)に示す順に回転していく。その結果、カーソル2
35は、図35(a)の座標(XA 、YA )から座標
(XB、YB )、そして座標(XC 、YC )というよう
に、異なる方向に移動してしまう。
【0173】そこで、図36のように、水平方向動き検
出素子2および垂直方向動き検出素子3の両方に直交す
る方向(すなわち前後方向)に回転量検出素子236を
設置し、その回転検出量に応じて、水平方向や垂直方向
の速度あるいは加速度等の動作量の検出軸方向への成分
の分配を補正する。
【0174】図37は、図2の空間操作マウスに、回転
量検出部237と補正部238をさらに設けた空間操作
マウスの概略ブロック図である。操作者による空間操作
マウスの動きは、動き検出部16a、16bにおいて、
所定の動き信号、例えば空間操作マウスの速度あるいは
移動距離等を表す信号に変換されるが、そのときに回転
量検出部237によって得られた量に基づいて、水平
(左右)および垂直(上下)の2方向の動き量の成分
を、補正部238で補正する。
【0175】これによって、空間操作マウスのポインテ
ィング・デバイスとしての性能を向上できるとともに、
動作パターン入力を正確に行える。
【0176】図38(a)、図38(b)は、補正部2
38での処理を説明するための図である。手首のひねり
等による回転によって、空間操作マウスの水平方向や垂
直方向と、表示画面の水平方向や垂直方向とがずれてい
るときに、動き検出部16a、16bで検出された検出
量を、水平方向(x’)、垂直方向(y’)とする。一
方、ずれていないときの検出量を、水平方向(x)、垂
直方向(y)とする。同様に、ずれているときの動作ベ
クトルの方向を(θ’)とし、ずれていないときの動作
ベクトルの方向を(θ)とする。また、回転量検出部2
37によって得られた量を(θm)とする。
【0177】すると、図38(a)のように、正しくは
(θ)方向に動かすとき、手首のひねり等による回転に
よって(θm)だけずれると、図38(b)のように動
作ベクトルの方向は(θ’)として得られてしまう。つ
まり、 θ’=θ+θm x’=V・cosθ’ y’=V・sinθ’ となる。よって、動作ベクトルの大きさ(V)と、誤っ
て得られている動作ベクトルの方向(θ’)と、回転量
検出部237によって得られた量(θm)を用いて、 θ=θ’−θm x=V・cos(θ’−θm) y=V・sin(θ’−θm) として、動作量の検出軸方向への成分分配を補正するこ
とができる。
【0178】次に、本実施例の空間動作パターン入力シ
ステムの機能を、2次元動作パターンから3次元動作パ
ターンへ拡張することについて説明する。
【0179】ここまでは、2軸方向の動き検出について
記述してきたが、本発明はこれに限定されず、図39の
ように空間操作マウスからみて前後方向240に対応す
る前後方向動き検出素子239を設けて、3次元の動き
による空間動作パターン入力ができるように拡張でき
る。
【0180】図40は、3次元の動きによる動作パター
ン入力方法の一例を示したもので、操作者が空間操作マ
ウス1を、aからb、c、d、e、fと三角錘の形状に
動かすことにより、表示装置202の表示画面203に
三角錘を描くことができる。
【0181】このような3次元空間での動作ベクトル
は、図41(a)に示すように、ベクトルの大きさ
(V)とその方向(θ、φ)を用いて表す。また、図4
1(b)に、3次元空間での3次元動作を動作ベクトル
に変換する際に参照する、ベクトルテーブルの一例を示
す。
【0182】このベクトルテーブルを利用し、すでに説
明した2次元の空間動作パターン入力と同様な処理を行
えば、3次元の空間動作パターンによる入力を行うこと
ができる。
【0183】次に、空間動作パターン入力モードのON
/OFF操作について説明する。
【0184】通常の空間操作マウスによる制御対象機器
に対する主操作は、手の動きに合わせて表示画面上のカ
ーソルを移動させる操作であろう。この操作は、いわゆ
るポインタ機能の実現である。そこで、空間操作マウス
によって、ポインタ機能モードなどから動作パターン入
力を行うモードに入るには、以下のようなモード変更の
ための操作が必要となる。例えば、(1)表示画面上の
ある位置(各種ツールが選択できる領域、あるいはメニ
ューを選択する領域など)にカーソルを合わせる、
(2)動作パターン入力開始ボタンを押す、(3)上下
に数回振る等の予め決めていた簡単な動きを行うことな
どが考えられる。
【0185】また、このモードからポインタ機能モード
などに戻るときにも、何らかの操作あるいは予め規定し
たルールが必要となる。例えば、(1)ある程度の時間
が経つと強制的に出ると規定しておく、(2)静止状態
(動き量が検出されてない状態)を判定する、(3)動
作パターン入力用ボタンを放す(または再度押す)など
が考えられる。
【0186】さらに、動作パターン入力モードに入って
いる時のカーソルの取扱いによって、制御動作実行後の
操作性が変わってくるので、アプリケーションに応じ
て、以下のようにすることが考えられる。(1)カーソ
ルを表示画面上から消去する。ただし、動作パターン入
力モードに入った時の表示画面上の座標は保持してお
く。これにより、このモードから出るとカーソルが動作
パターン入力モードに入った時の位置に再度出現するの
で、ツールの選択等を実行後にその場所から作業を続け
られる。(2)通常通りに空間操作マウスの動きに合わ
せてカーソルが表示画面上を移動する。これにより、操
作者が目視によるフィードバックをかけられるので正確
な動作が入力できる。(3)動作パターン入力モードに
入っていることが一目瞭然に理解できるような形状にカ
ーソルを変化させる。なお、これらのうちのいくつかを
組み合わせても良い。
【0187】また、通常は、図42(a)のような矢印
形(あるいは十字形など)のカーソル235を、動作パ
ターン入力によって認識された結果によって、図42
(b)のように変形させると、正しく動作パターン入力
が行われたかを操作者が簡単に理解できる。また、これ
と同時に、動作パターン入力毎に確認のための画面表示
(例えば「今の動作は、〜ですか?」)と操作者による
了解操作(「はい」あるいは「いいえ」)を省いて、次
の操作へスムーズに移ることが出来る。図42(c)
に、認識結果によるカーソルの形状の変形例を示す。
【0188】さらに、空間での操作は不安定な面がある
ので、直線状にカーソルを移動させたいときなども、ま
ず動作パターンによって移動させたい方向を認識させて
カーソルの形状をその方向を示す形に変えて、それ以降
はその方向だけにカーソルを制御できるようにすればよ
い。
【0189】以上詳述したように、本実施例によれば、
任意の平面でのポインタ動作さらには空間的なポインタ
動作を可能とした、空間操作マウスのような3次元入力
装置を用いるシステムにおいて、操作者の空間での動作
パターンを認識して、コンピュータやマルチメディア機
器の制御を実行できる、感覚的なマン・マシンインタフ
ェイス環境を実現できる。
【0190】図43は、第5の実施例に係る空間操作マ
ウスの概略構成図である。この空間操作マウスは、前述
の実施例に係る空間操作マウスと基本的な構成・動作は
同じである。ただし、前後方向の動きを検出するための
動き検出素子7をさらに備えた点が異なる。
【0191】すなわち、本発明は2軸方向の動き検出に
のみ限定されるものではなく、本実施例のように3軸方
向に対応する動き検出部2,3,7を設けて、3次元空
間での動きを検出するように拡張することができる。
【0192】通常の表示画面は2次元表示であるので、
画面上のカーソル位置を特定するには、第1の実施例の
ように2軸分の動き検出部2,3を設ければ十分である
が、本実施例の3軸方向の動きを検出できる空間操作マ
ウスを、昨今盛んに用いられるようになってきているの
種々の疑似的な3次元表示を有するシステムのために、
ポインティング・デバイスとして活用すれば、非常に効
果的である。
【0193】また、3番目の軸方向の動きに、特別な役
割を与えることも可能である。例えば、3番目の軸方向
の(仮想的な)位置によって、空間操作マウスの1番目
や2番目の軸方向の移動量に対する画面上のカーソルの
移動量の比が決定されるようにすることもできる。
【0194】3番目の軸の動作の検出としては、動き検
出部7を設けて平行移動を検出する代わり、図9の圧電
ジャイロを用いて軸の回りの回転を検出するようにして
も良い。
【0195】一方、前述の第3の実施例に係る空間操作
マウスにおいて、パターン入力に用いる基本動作パター
ンとして、3次元空間での動作を用いることも可能であ
る。
【0196】もちろん、さらに拡張して4軸以上の検出
部を設けても良い。
【0197】この場合、2軸にポインティング・デバイ
スとしての役割を与え、他の軸に動作パターン入力の役
割を与えても良い。
【0198】このように、本発明によれば、任意の仮想
平面でのポインタ動作、さらには空間的なポインタ動作
を可能とし、また操作者の動作を認識し、コンピュータ
やマルチメディア器機あるいはその表示装置から離れて
いても手軽にポインタ操作や制御操作を可能にする空間
操作マウスを提供するができる。
【0199】図44は、第6の実施例に係る空間操作マ
ウスの概略構成図を示す。この空間操作マウスは、前述
の実施例と基本的な構成・動作は同じである。水平方向
動き検出素子2と垂直方向動き検出素子3で空間操作マ
ウス本体1の2次元方向の動きを検出し、クリックボタ
ン4でクリック操作を受け付ける。
【0200】ここで、本実施例においては、空間操作マ
ウスと制御対象機器は接続ケーブル8を用いて接続す
る。接続は、空間操作マウスの接続ケーブル8の端部の
コネクタ9を制御対象機器に差し込むことによって行わ
れる。空間操作マウスからの出力信号は、接続ケーブル
8を伝わり、制御対象機器に入力される。
【0201】空間操作マウスをワイヤレスにすること
が、そのシステムにとって必要でない場合には、この有
線の空間操作マウスを用いれば、赤外線方式のように伝
送方向の指向性を考慮する必要なく、制御信号の伝送を
極めて確実に実行できる。
【0202】以上、本発明について、種々の実施例を用
いて説明してきたが、空間操作マウスの形状は、必ずし
も従来のいわゆるマウスのような形状である必要はな
く、目的・用途に応じて、種々の形状にして使用するこ
とが可能である。
【0203】また、必ずしも手に握って操作する必要は
なく、操作者が直接あるいは間接的に用いる他の装置あ
るいは道具に装着あるいは内蔵するように構成すること
も可能である。
【0204】あるいは、この空間操作マウスに音声入力
等の他の入力手段を設ければ、さらにバリエーションに
富む操作環境を提供することができる。
【0205】クリックボタンについては、設ける個数は
任意であり、また、その形状も様々の変形が考えられ
る。
【0206】なお、前述の各実施例において、空間操作
マウス内部の回路は、可能な限り1チップに集積化する
と好ましい。
【0207】また、本発明は上述した各実施例に限定さ
れるものではなく、その要旨を逸脱しない範囲で、種々
変形して実施することができる。
【0208】
【発明の効果】以上詳述したように、本発明では、2次
元方向または3次元方向の加速度または角速度から空間
操作マウスの動きを検出する動き検出手段を設けてあ
る。
【0209】このために、任意の操作空間で操作者の意
図する動作を空間操作マウスで検出でき、また送信手段
により制御対象機器に容易に制御信号を伝送することが
できる。さらに、制御対象機器の表示画面上のカーソル
または表示オブジェクトの変化により操作者の指示位置
を表示したり、表示画面の方向を変化させることで、従
来にない操作の容易なヒューマンインターフェイス環境
を実現できる。
【0210】あるいは、予め操作者の動作を登録してあ
る動作パターン記憶手段を設け、操作動作パターンを識
別することで人間の自然な動作を用いて制御する入力手
段を実現できる。
【0211】さらには、操作者の手振れの周波数を除去
する帯域制限フィルタを設け、手振れによるポインティ
ング動作を正確にすることができる。
【0212】一方、本発明に係る空間動作パターン入力
方法では、操作者が空間操作マウスを操作することによ
り入力された空間動作パターンの動きを検出して動作ベ
クトル列(相対的な時系列の微小基準ベクトル集合)に
変換し、予め登録されている基本動作パターンに対応し
た動作ベクトル列と当該動作ベクトル列とを比較して識
別を行い、この認識結果に基づく制御を制御対象機器に
対して実行する。
【0213】したがって、基準位置(原点)に対する空
間操作マウスの空間座標を測定することなく、動作パタ
ーン入力を高精度に行うことができる。
【0214】このように、本発明によれば、人間の自然
な動作を用いて、制御対象機器を制御することが可能と
なる。
【図面の簡単な説明】
【図1】本発明の第1の実施例に係る空間操作マウスの
概略構成図
【図2】本発明の第1の実施例に係る空間操作マウスの
概略ブロック図
【図3】図1のマウスを用いた空間操作型コンピュータ
システムの使用概念図
【図4】図3のコンピュータの表示画面およびポインテ
ィング操作の説明図
【図5】図3のコンピュータの表示画面およびポインテ
ィング操作の他の説明図
【図6】図3のコンピュータの表示画面およびポインテ
ィング操作のさらに他の説明図
【図7】本発明の第1の実施例に係る空間操作マウスお
よび制御対象器機のブロック図
【図8】加速度および速度にそれぞれ対応する電圧波形
図、ならびに速度とパルス密度の関係を示す図
【図9】圧電振動ジャイロを用いた角速度検出部の構成
【図10】手振れ補正部を設けた空間操作マウスの概略
ブロック図
【図11】本発明の第2の実施例に係る空間操作マウス
の概略構成図
【図12】図11のマウスを用いた空間操作型映像シス
テムの使用概念図
【図13】図12のシステムの表示画面およびポインテ
ィング操作の説明図
【図14】第1および第2の実施例での種々のクリック
動作を説明するための図
【図15】本発明の第3の実施例に係る空間操作マウス
の概略ブロック図
【図16】検出動作パターンを説明するための図、
【図17】本発明の第4の実施例に係る動作パターン入
力方法の一例を示す図
【図18】動作ベクトルの概念を説明するための図
【図19】運動ベクトルと動作ベクトルとの相違を説明
するための図
【図20】本発明の第4の実施例に係る空間動作パター
ン入力システムの要部構成を示すブロック図
【図21】空間動作量を動作パターンに変換する変換部
の機能を説明するための図
【図22】空間動作をベクトルテーブルによって動作ベ
クトルに変換する一例を示す図
【図23】識別部の概略構成を示すブロック図
【図24】単位ベクトル処理部による処理の流れ図
【図25】単位ベクトル処理を説明するための図
【図26】ベクトル加算処理部による処理の流れ図
【図27】ベクトル加算処理を説明するための図
【図28】ベクトル加算処理を説明するための図
【図29】判定部における処理の流れの一例を示す図
【図30】単位ベクトル関数による動作ベクトル列の識
別方法の一例を説明するための図
【図31】単位ベクトル関数による動作パターン認識処
理の流れを示す図
【図32】本発明の動作ベクトル列マッチングと従来の
パターンマッチングとの相違を説明するための図
【図33】本実施例の動作パターン入力方法を適用した
システムの構成例を示す図
【図34】図33のシステムの入力動作例を示すのフロ
ーチャート
【図35】動作検出部において検出された検出量を補正
する処理を説明するための図
【図36】回転量検出素子の設置位置の例を示す概観図
【図37】補正部を設けた空間操作マウスを示す概略ブ
ロック図
【図38】補正部での処理を説明するための図
【図39】3次元動作パターン入力への拡張のための前
後方向検出素子の設置位置の例を示す図
【図40】3次元動作パターン入力方法の一例を示した
【図41】3次元空間での動作ベクトルの表現方法の一
例、および3次元空間での動作を動作ベクトルに変換す
る際に参照するベクトルテーブルの一例を示す図
【図42】動作パターン入力によって認識された結果に
よるカーソル変形例を示す図
【図43】本発明の第5の実施例に係る空間操作マウス
の構成図
【図44】本発明の第6の実施例に係る空間操作マウス
の構成図
【符号の説明】
1…空間操作マウス本体、2…水平方向動き検出素子、
3…垂直方向動き検出素子、4…クリックボタン、5,
6…赤外線発光素子、16a…第1動き検出部、16b
…第2動き検出部、17…スイッチ部、18…送信部、
21…制御対象機器、22…表示画面、23…赤外線受
光素子、30a…第1動きセンサ、31a31b…増幅
器、39a…帯域制限器、40a…A/D変換器、32
c…速度検出部、30b…第2動きセンサ、31b…増
幅器、39b…帯域制限器、40b…A/D変換器、3
2d…速度検出部、41…動作認識部、42…動作パタ
ーンメモリ、43…赤外線リモコン送信回路、34…赤
外線発光素子、202…表示装置、203…表示画面、
235…カーソル、236…回転量検出素子、239…
前後方向動き検出素子
フロントページの続き (72)発明者 福元 富義 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】操作空間での所定の3つの軸方向の速度若
    しくは加速度又は3つの軸の回りの角速度若しくは角加
    速度のうちの少なくとも1つを検出し、当該検出された
    1つあるいは複数の量をそのままあるいは関連する量に
    変換して動き信号として出力するための動き信号生成手
    段と、この動き信号生成手段により与えられた前記動き
    信号を含む前記制御信号を送信するための送信手段とを
    有する空間操作マウスと、 前記空間操作マウスの前記送信手段により送信された制
    御信号を受信するための受信手段と、この受信手段によ
    り得られた制御信号に基づいて、表示画面上のカーソル
    または表示オブジェクトを変化させ、前記空間操作マウ
    スの操作者の指示位置を表示し、あるいは前記動き信号
    に従い表示画面を変化させる表示手段とを有する制御対
    象機器とを具備してなることを特徴とする空間操作マウ
    スシステム。
  2. 【請求項2】操作者により与えられる3次元空間におけ
    る直線的、平面的あるいは空間的な動作を、その操作空
    間における所定の3つの軸方向の速度若しくは加速度又
    は3つの軸の回りの角速度若しくは角加速度のうちの少
    なくとも2つの量として検出する検出ステップと、 当該検出された少なくとも2つの検出量を、当該動作を
    パターン化した動作パターンデータに変換する変換ステ
    ップと、 当該動作パターンデータと、予め登録されている複数の
    基本動作パターンに関連する基本データとを比較する比
    較ステップと、 前記比較ステップにおける比較結果に基づいて当該動作
    パターンを識別する識別ステップと、 前記識別ステップにおける識別結果に基づいて当該動作
    パターンに対応する所定の制御を行う制御ステップとを
    含むことを特徴とする空間操作マウスを用いた空間動作
    パターン入力方法。
  3. 【請求項3】空間操作型入力装置の空間動作パターンに
    応じた内容の制御を制御対象機器に実行させるための空
    間動作パターン入力方法において、 空間操作型入力装置の空間における互いに平行でない所
    定の3軸方向の動作量のうち少なくとも2軸方向の動作
    量を検出する動作検出ステップと、 前記動作検出ステップにおいて検出された少なくとも2
    つの検出量からなる当該空間動作量を動作ベクトル列に
    変換する変換ステップと、 予め登録されている基本動作パターンに対応した動作ベ
    クトル列と当該動作ベクトル列とを比較して識別を行う
    識別ステップと、 前記識別ステップにおける認識結果に基づく制御を制御
    対象機器に対して実行する実行ステップとを有すること
    を特徴とする空間動作パターン入力方法。
  4. 【請求項4】前記識別ステップは、 空間操作型入力装置の動作量から得られた動作ベクトル
    列を基にした単位ベクトル関数および空間操作型入力装
    置の動作量から得られた動作ベクトル列を基にした累積
    ベクトル関数の少なくとも一方を生成するベクトル関数
    生成ステップと、 生成した単位ベクトル関数および累積ベクトル関数の少
    なくとも一方を、基本動作パターン動作に対応した動作
    ベクトル列から得られるものと比較し、この比較結果に
    基づいて空間操作型入力装置の空間動作パターンの識別
    を行う識別ステップとを含むことを特徴とする請求項3
    に記載の空間動作パターン入力方法。
  5. 【請求項5】前記変換ステップは、空間動作量に対して
    単位ベクトルの個数と角度を登録した変換テーブルに対
    して、前記動作検出ステップにおいて検出された少なく
    とも2つの検出量からなる当該空間動作量を時間的にサ
    ンプリングした値を逐次指定値として与えることによっ
    て、当該空間動作量を動作ベクトル列に変換した結果を
    得ることを特徴とする請求項3に記載の空間動作パター
    ン入力方法。
  6. 【請求項6】前記動作検出ステップは、前記空間操作型
    入力装置の動作量を検出する2軸方向ごとに、これに直
    行する方向の軸回りの回転動作量を検出する回転動作量
    検出ステップをさらに有し、 前記変換ステップは、前記回転動作量検出ステップでの
    検出結果に基づき、前記動作検出ステップで検出された
    関連する前記空間操作型入力装置の2軸方向の動作量か
    ら上記軸回りの回転動作量を取り除いた動作量を抽出す
    る補正ステップをさらに有することを特徴とする請求項
    3に記載の空間動作パターン入力方法。
  7. 【請求項7】前記実行ステップは、前記識別ステップに
    おいて認識された空間動作パターンの形状を表示画面に
    表示することを特徴とする請求項3に記載の空間動作パ
    ターン入力方法。
JP10022994A 1993-05-13 1994-05-13 空間操作マウスシステム及び空間動作パターン入力方法 Pending JPH0728591A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10022994A JPH0728591A (ja) 1993-05-13 1994-05-13 空間操作マウスシステム及び空間動作パターン入力方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP5-111856 1993-05-13
JP11185693 1993-05-13
JP10022994A JPH0728591A (ja) 1993-05-13 1994-05-13 空間操作マウスシステム及び空間動作パターン入力方法

Publications (1)

Publication Number Publication Date
JPH0728591A true JPH0728591A (ja) 1995-01-31

Family

ID=26441289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10022994A Pending JPH0728591A (ja) 1993-05-13 1994-05-13 空間操作マウスシステム及び空間動作パターン入力方法

Country Status (1)

Country Link
JP (1) JPH0728591A (ja)

Cited By (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09147248A (ja) * 1995-11-01 1997-06-06 Thomson Consumer Electron Inc 監視システム
JP2001084411A (ja) * 1995-05-03 2001-03-30 Mitsubishi Electric Inf Technol Center America Inc スクリーン上のキャラクター制御システム
KR20020005287A (ko) * 2000-07-07 2002-01-17 송치훈 Ps/2 포트의 전원을 이용한 시리얼 통신 방식의 위치정보 입력 장치
JP2002062981A (ja) * 2000-08-16 2002-02-28 Nippon Hoso Kyokai <Nhk> 表示画面指示装置
KR100342108B1 (ko) * 2000-03-13 2002-06-26 구현석 공중에서 사용하는 마우스
US6515669B1 (en) 1998-10-23 2003-02-04 Olympus Optical Co., Ltd. Operation input device applied to three-dimensional input device
JP2003111171A (ja) * 2001-09-26 2003-04-11 Yamaha Corp リモコン装置
JP2005143069A (ja) * 2004-02-12 2005-06-02 Sony Corp 制御装置及び制御方法
WO2005081095A3 (de) * 2004-02-19 2005-11-17 Siemens Ag Verfahren zum abschätzen einer virtuellen schreibebene
WO2006028013A1 (ja) * 2004-09-07 2006-03-16 Vodafone K.K. 加速度推定方法、加速度推定装置及び移動端末装置
JP2006211104A (ja) * 2005-01-26 2006-08-10 Sharp Corp リモートコントローラ及びリモートコントロールシステム
JP2006323859A (ja) * 1995-06-19 2006-11-30 Matsushita Electric Ind Co Ltd 書類表示装置
JP2006345536A (ja) * 2003-05-01 2006-12-21 Thomson Licensing マルチメディアユーザインタフェース
JP2007164762A (ja) * 2005-12-09 2007-06-28 Ind Technol Res Inst 無線慣性入力装置
JP2007164761A (ja) * 2005-12-14 2007-06-28 Ind Technol Res Inst オンオフ状態センサおよびこれを用いた慣性カーソル制御装置
JP2007243827A (ja) * 2006-03-10 2007-09-20 Nintendo Co Ltd 動き判別装置および動き判別プログラム
JP2007241655A (ja) * 2006-03-08 2007-09-20 Nintendo Co Ltd 動き判別装置および動き判別プログラム
JP2007535774A (ja) * 2004-04-30 2007-12-06 ヒルクレスト・ラボラトリーズ・インコーポレイテッド 自由空間ポインティングデバイスにおける意図的でない動きを除去するための方法およびデバイス
JP2007535776A (ja) * 2004-04-30 2007-12-06 ヒルクレスト・ラボラトリーズ・インコーポレイテッド 傾き補償および向上した使いやすさを備えた自由空間ポインティングデバイス
WO2008029467A1 (fr) * 2006-09-07 2008-03-13 Osaka Electro-Communication University Système, procédé et programme d'entrée de mouvement
JP2008077425A (ja) * 2006-09-21 2008-04-03 Sony Computer Entertainment Inc 情報処理装置、情報処理方法及びプログラム
KR100827236B1 (ko) * 2006-05-23 2008-05-07 삼성전자주식회사 포인팅 디바이스, 포인터 이동 방법 및 상기 포인터를디스플레이하는 디스플레이 장치
CN101251382A (zh) * 2002-08-28 2008-08-27 索尼株式会社 电子仪器装置、信号补偿装置和信号补偿方法
KR100855471B1 (ko) * 2006-09-19 2008-09-01 삼성전자주식회사 입력 장치 및 상기 입력 장치의 이동 정보를 제공하는 방법
JP2008541232A (ja) * 2005-05-04 2008-11-20 ヒルクレスト・ラボラトリーズ・インコーポレイテッド ユーザインターフェースにおけるスクロールおよびポインティングの方法およびシステム
JP2008299866A (ja) * 2004-03-23 2008-12-11 Fujitsu Ltd 携帯装置の傾斜及び並進運動成分の識別
WO2009051563A1 (en) * 2007-10-19 2009-04-23 Razer (Asia-Pacific) Pte Ltd Unintended displacement identification and correction method and system
US7545410B2 (en) 1997-04-24 2009-06-09 Sony Corporation Video camera system having remote commander
WO2009072583A1 (ja) * 2007-12-07 2009-06-11 Sony Corporation 入力装置、制御装置、制御システム、制御方法及びハンドヘルド装置
JP2009151664A (ja) * 2007-12-21 2009-07-09 Denso Corp 遠隔操作装置
JP2009205245A (ja) * 2008-02-26 2009-09-10 Nikon Corp 画像再生システム
JP2010097429A (ja) * 2008-10-16 2010-04-30 Nintendo Co Ltd 情報処理装置および情報処理プログラム
KR100964426B1 (ko) * 2008-06-25 2010-06-16 엘지전자 주식회사 디스플레이 장치
JP2010146230A (ja) * 2008-12-18 2010-07-01 Seiko Epson Corp 入力装置およびデータ処理システム
CN101840277A (zh) * 2009-03-17 2010-09-22 索尼公司 输入装置、控制装置、控制系统和控制方法
DE102009015918A1 (de) * 2009-03-25 2010-09-30 Kuhn, Andrè Anzeigesystem
JP2011238250A (ja) * 2004-04-30 2011-11-24 Hillcrest Laboratories Inc 3dポインティングデバイスおよびポインティング方法
KR101112624B1 (ko) * 2008-11-06 2012-02-15 주식회사 비트컴퓨터 가속도 센싱을 이용한 문자인식 방법 및 이를 이용한 문자인식 시스템
USRE43657E1 (en) 2002-08-28 2012-09-11 Sony Corporation Electronic device, signal compensation device and signal compensation method
JP2012256378A (ja) * 2006-02-01 2012-12-27 Memsic Inc 動き検知装置による携帯装置の制御システム、制御方法、データ入力システムおよびデータ入力方法
JP2013175208A (ja) * 2013-04-05 2013-09-05 Nintendo Co Ltd 情報処理装置および情報処理プログラム
JP2013232208A (ja) * 2007-08-20 2013-11-14 Qualcomm Inc 高度な語彙外単語の拒否のための方法、デバイス、コンピュータ可読記録媒体、および装置
JP2013242836A (ja) * 2012-04-27 2013-12-05 Panasonic Corp 入力装置、入力支援方法及びプログラム
JP2013242916A (ja) * 2012-04-27 2013-12-05 Panasonic Corp 入力装置、入力支援方法及びプログラム
US8692764B2 (en) 2004-03-23 2014-04-08 Fujitsu Limited Gesture based user interface supporting preexisting symbols
WO2015141175A1 (ja) * 2014-03-18 2015-09-24 株式会社デンソー 操作入力装置、および操作入力方法
US9223405B2 (en) 2011-03-16 2015-12-29 Electronics And Telecommunications Research Institute Apparatus and method for inputting information based on events
US9261979B2 (en) 2007-08-20 2016-02-16 Qualcomm Incorporated Gesture-based mobile interaction
US9298282B2 (en) 2004-04-30 2016-03-29 Hillcrest Laboratories, Inc. 3D pointing devices with orientation compensation and improved usability
WO2016056259A1 (ja) * 2014-10-07 2016-04-14 株式会社ログバー ジェスチャ入力システムのデータ加工方法
CN105744339A (zh) * 2009-05-29 2016-07-06 Lg电子株式会社 图像显示装置及其操作方法
US9616334B2 (en) 2002-04-05 2017-04-11 Mq Gaming, Llc Multi-platform gaming system using RFID-tagged toys
US9675878B2 (en) 2004-09-29 2017-06-13 Mq Gaming, Llc System and method for playing a virtual game by sensing physical movements
US9700806B2 (en) 2005-08-22 2017-07-11 Nintendo Co., Ltd. Game operating device
US9713766B2 (en) 2000-02-22 2017-07-25 Mq Gaming, Llc Dual-range wireless interactive entertainment device
US9731194B2 (en) 1999-02-26 2017-08-15 Mq Gaming, Llc Multi-platform gaming systems and methods
US9770652B2 (en) 2003-03-25 2017-09-26 Mq Gaming, Llc Wireless interactive game having both physical and virtual elements
US9857885B2 (en) 2007-09-14 2018-01-02 Sony Corporation Input apparatus, control apparatus, control system, control method, and handheld apparatus
JP2018036720A (ja) * 2016-08-29 2018-03-08 株式会社タカラトミー 仮想空間観察システム、方法及びプログラム
JP2018508805A (ja) * 2014-12-29 2018-03-29 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイを用いた仮想または拡張現実シーン内のユーザ対話の方法及びシステム
US9931578B2 (en) 2000-10-20 2018-04-03 Mq Gaming, Llc Toy incorporating RFID tag
US9993724B2 (en) 2003-03-25 2018-06-12 Mq Gaming, Llc Interactive gaming toy
US10010790B2 (en) 2002-04-05 2018-07-03 Mq Gaming, Llc System and method for playing an interactive game
US10137365B2 (en) 2005-08-24 2018-11-27 Nintendo Co., Ltd. Game controller and game system
US10159897B2 (en) 2004-11-23 2018-12-25 Idhl Holdings, Inc. Semantic gaming and application transformation
KR102001121B1 (ko) * 2018-10-30 2019-07-17 (주)유즈브레인넷 자이로 센서를 이용한 모션인식 장치 및 그 모션인식 방법
WO2025083780A1 (ja) * 2023-10-17 2025-04-24 任天堂株式会社 ゲーム処理方法、ゲームプログラム、およびゲームシステム

Cited By (114)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084411A (ja) * 1995-05-03 2001-03-30 Mitsubishi Electric Inf Technol Center America Inc スクリーン上のキャラクター制御システム
JP2006323859A (ja) * 1995-06-19 2006-11-30 Matsushita Electric Ind Co Ltd 書類表示装置
JPH09147248A (ja) * 1995-11-01 1997-06-06 Thomson Consumer Electron Inc 監視システム
US7545410B2 (en) 1997-04-24 2009-06-09 Sony Corporation Video camera system having remote commander
US6515669B1 (en) 1998-10-23 2003-02-04 Olympus Optical Co., Ltd. Operation input device applied to three-dimensional input device
US9731194B2 (en) 1999-02-26 2017-08-15 Mq Gaming, Llc Multi-platform gaming systems and methods
US9861887B1 (en) 1999-02-26 2018-01-09 Mq Gaming, Llc Multi-platform gaming systems and methods
US10300374B2 (en) 1999-02-26 2019-05-28 Mq Gaming, Llc Multi-platform gaming systems and methods
US10188953B2 (en) 2000-02-22 2019-01-29 Mq Gaming, Llc Dual-range wireless interactive entertainment device
US9713766B2 (en) 2000-02-22 2017-07-25 Mq Gaming, Llc Dual-range wireless interactive entertainment device
US10307671B2 (en) 2000-02-22 2019-06-04 Mq Gaming, Llc Interactive entertainment system
US9814973B2 (en) 2000-02-22 2017-11-14 Mq Gaming, Llc Interactive entertainment system
KR100342108B1 (ko) * 2000-03-13 2002-06-26 구현석 공중에서 사용하는 마우스
KR20020005287A (ko) * 2000-07-07 2002-01-17 송치훈 Ps/2 포트의 전원을 이용한 시리얼 통신 방식의 위치정보 입력 장치
JP2002062981A (ja) * 2000-08-16 2002-02-28 Nippon Hoso Kyokai <Nhk> 表示画面指示装置
US9931578B2 (en) 2000-10-20 2018-04-03 Mq Gaming, Llc Toy incorporating RFID tag
US10307683B2 (en) 2000-10-20 2019-06-04 Mq Gaming, Llc Toy incorporating RFID tag
US9737797B2 (en) 2001-02-22 2017-08-22 Mq Gaming, Llc Wireless entertainment device, system, and method
US10179283B2 (en) 2001-02-22 2019-01-15 Mq Gaming, Llc Wireless entertainment device, system, and method
US10758818B2 (en) 2001-02-22 2020-09-01 Mq Gaming, Llc Wireless entertainment device, system, and method
JP2003111171A (ja) * 2001-09-26 2003-04-11 Yamaha Corp リモコン装置
US9616334B2 (en) 2002-04-05 2017-04-11 Mq Gaming, Llc Multi-platform gaming system using RFID-tagged toys
US10010790B2 (en) 2002-04-05 2018-07-03 Mq Gaming, Llc System and method for playing an interactive game
US11278796B2 (en) 2002-04-05 2022-03-22 Mq Gaming, Llc Methods and systems for providing personalized interactive entertainment
US10478719B2 (en) 2002-04-05 2019-11-19 Mq Gaming, Llc Methods and systems for providing personalized interactive entertainment
US10507387B2 (en) 2002-04-05 2019-12-17 Mq Gaming, Llc System and method for playing an interactive game
JP2010164571A (ja) * 2002-08-28 2010-07-29 Sony Corp 電子機器装置、信号補償装置及び信号補償方法
USRE43657E1 (en) 2002-08-28 2012-09-11 Sony Corporation Electronic device, signal compensation device and signal compensation method
CN101251382A (zh) * 2002-08-28 2008-08-27 索尼株式会社 电子仪器装置、信号补偿装置和信号补偿方法
JP2008269577A (ja) * 2002-08-28 2008-11-06 Sony Corp 電子機器装置、空間変位計算装置及び空間変位計算方法
US9993724B2 (en) 2003-03-25 2018-06-12 Mq Gaming, Llc Interactive gaming toy
US11052309B2 (en) 2003-03-25 2021-07-06 Mq Gaming, Llc Wireless interactive game having both physical and virtual elements
US10022624B2 (en) 2003-03-25 2018-07-17 Mq Gaming, Llc Wireless interactive game having both physical and virtual elements
US10369463B2 (en) 2003-03-25 2019-08-06 Mq Gaming, Llc Wireless interactive game having both physical and virtual elements
US10583357B2 (en) 2003-03-25 2020-03-10 Mq Gaming, Llc Interactive gaming toy
US9770652B2 (en) 2003-03-25 2017-09-26 Mq Gaming, Llc Wireless interactive game having both physical and virtual elements
US9707478B2 (en) 2003-03-25 2017-07-18 Mq Gaming, Llc Motion-sensitive controller and associated gaming applications
JP2006345537A (ja) * 2003-05-01 2006-12-21 Thomson Licensing マルチメディアユーザインタフェース
JP2016015741A (ja) * 2003-05-01 2016-01-28 トムソン ライセンシングThomson Licensing マルチメディアユーザインタフェース
JP2006345536A (ja) * 2003-05-01 2006-12-21 Thomson Licensing マルチメディアユーザインタフェース
JP2005143069A (ja) * 2004-02-12 2005-06-02 Sony Corp 制御装置及び制御方法
WO2005081095A3 (de) * 2004-02-19 2005-11-17 Siemens Ag Verfahren zum abschätzen einer virtuellen schreibebene
US8692764B2 (en) 2004-03-23 2014-04-08 Fujitsu Limited Gesture based user interface supporting preexisting symbols
JP2008299866A (ja) * 2004-03-23 2008-12-11 Fujitsu Ltd 携帯装置の傾斜及び並進運動成分の識別
US11119575B2 (en) 2004-03-23 2021-09-14 Fujitsu Limited Gesture based user interface supporting preexisting symbols
US9575570B2 (en) 2004-04-30 2017-02-21 Hillcrest Laboratories, Inc. 3D pointing devices and methods
JP2007535776A (ja) * 2004-04-30 2007-12-06 ヒルクレスト・ラボラトリーズ・インコーポレイテッド 傾き補償および向上した使いやすさを備えた自由空間ポインティングデバイス
US10514776B2 (en) 2004-04-30 2019-12-24 Idhl Holdings, Inc. 3D pointing devices and methods
US9946356B2 (en) 2004-04-30 2018-04-17 Interdigital Patent Holdings, Inc. 3D pointing devices with orientation compensation and improved usability
US9298282B2 (en) 2004-04-30 2016-03-29 Hillcrest Laboratories, Inc. 3D pointing devices with orientation compensation and improved usability
US11157091B2 (en) 2004-04-30 2021-10-26 Idhl Holdings, Inc. 3D pointing devices and methods
JP2012190479A (ja) * 2004-04-30 2012-10-04 Hillcrest Laboratories Inc 傾き補償および向上した使いやすさを備えた自由空間ポインティングデバイス
JP2011238250A (ja) * 2004-04-30 2011-11-24 Hillcrest Laboratories Inc 3dポインティングデバイスおよびポインティング方法
US9261978B2 (en) 2004-04-30 2016-02-16 Hillcrest Laboratories, Inc. 3D pointing devices and methods
US10782792B2 (en) 2004-04-30 2020-09-22 Idhl Holdings, Inc. 3D pointing devices with orientation compensation and improved usability
JP2015015058A (ja) * 2004-04-30 2015-01-22 ヒルクレスト・ラボラトリーズ・インコーポレイテッド 傾き補償および向上した使いやすさを備えた自由空間ポインティングデバイス
JP2007535774A (ja) * 2004-04-30 2007-12-06 ヒルクレスト・ラボラトリーズ・インコーポレイテッド 自由空間ポインティングデバイスにおける意図的でない動きを除去するための方法およびデバイス
WO2006028013A1 (ja) * 2004-09-07 2006-03-16 Vodafone K.K. 加速度推定方法、加速度推定装置及び移動端末装置
US8521467B2 (en) 2004-09-07 2013-08-27 Vodafone Group Plc Method for acceleration estimation, acceleration estimating apparatus, and mobile terminal
JPWO2006028013A1 (ja) * 2004-09-07 2008-05-08 ソフトバンクモバイル株式会社 加速度推定方法、加速度推定装置及び移動端末装置
US9675878B2 (en) 2004-09-29 2017-06-13 Mq Gaming, Llc System and method for playing a virtual game by sensing physical movements
US10159897B2 (en) 2004-11-23 2018-12-25 Idhl Holdings, Inc. Semantic gaming and application transformation
US11154776B2 (en) 2004-11-23 2021-10-26 Idhl Holdings, Inc. Semantic gaming and application transformation
JP2006211104A (ja) * 2005-01-26 2006-08-10 Sharp Corp リモートコントローラ及びリモートコントロールシステム
JP2008541232A (ja) * 2005-05-04 2008-11-20 ヒルクレスト・ラボラトリーズ・インコーポレイテッド ユーザインターフェースにおけるスクロールおよびポインティングの方法およびシステム
US9700806B2 (en) 2005-08-22 2017-07-11 Nintendo Co., Ltd. Game operating device
US10661183B2 (en) 2005-08-22 2020-05-26 Nintendo Co., Ltd. Game operating device
US10238978B2 (en) 2005-08-22 2019-03-26 Nintendo Co., Ltd. Game operating device
US10155170B2 (en) 2005-08-22 2018-12-18 Nintendo Co., Ltd. Game operating device with holding portion detachably holding an electronic device
US11027190B2 (en) 2005-08-24 2021-06-08 Nintendo Co., Ltd. Game controller and game system
US10137365B2 (en) 2005-08-24 2018-11-27 Nintendo Co., Ltd. Game controller and game system
JP2007164762A (ja) * 2005-12-09 2007-06-28 Ind Technol Res Inst 無線慣性入力装置
JP2007164761A (ja) * 2005-12-14 2007-06-28 Ind Technol Res Inst オンオフ状態センサおよびこれを用いた慣性カーソル制御装置
JP2012256378A (ja) * 2006-02-01 2012-12-27 Memsic Inc 動き検知装置による携帯装置の制御システム、制御方法、データ入力システムおよびデータ入力方法
JP2007241655A (ja) * 2006-03-08 2007-09-20 Nintendo Co Ltd 動き判別装置および動き判別プログラム
JP2007243827A (ja) * 2006-03-10 2007-09-20 Nintendo Co Ltd 動き判別装置および動き判別プログラム
KR100827236B1 (ko) * 2006-05-23 2008-05-07 삼성전자주식회사 포인팅 디바이스, 포인터 이동 방법 및 상기 포인터를디스플레이하는 디스플레이 장치
WO2008029467A1 (fr) * 2006-09-07 2008-03-13 Osaka Electro-Communication University Système, procédé et programme d'entrée de mouvement
US9032336B2 (en) 2006-09-07 2015-05-12 Osaka Electro-Communication University Gesture input system, method and program
JPWO2008029467A1 (ja) * 2006-09-07 2010-01-21 学校法人 大阪電気通信大学 ジェスチャ入力システム、方法及びプログラム
KR100855471B1 (ko) * 2006-09-19 2008-09-01 삼성전자주식회사 입력 장치 및 상기 입력 장치의 이동 정보를 제공하는 방법
JP2008077425A (ja) * 2006-09-21 2008-04-03 Sony Computer Entertainment Inc 情報処理装置、情報処理方法及びプログラム
JP2013232208A (ja) * 2007-08-20 2013-11-14 Qualcomm Inc 高度な語彙外単語の拒否のための方法、デバイス、コンピュータ可読記録媒体、および装置
US9261979B2 (en) 2007-08-20 2016-02-16 Qualcomm Incorporated Gesture-based mobile interaction
US10747338B2 (en) 2007-09-14 2020-08-18 Sony Corporation Input apparatus, control apparatus, control system, control method, and handheld apparatus
US9857885B2 (en) 2007-09-14 2018-01-02 Sony Corporation Input apparatus, control apparatus, control system, control method, and handheld apparatus
WO2009051563A1 (en) * 2007-10-19 2009-04-23 Razer (Asia-Pacific) Pte Ltd Unintended displacement identification and correction method and system
US9046938B2 (en) 2007-10-19 2015-06-02 Razer (Asia-Pacific) Pte Ltd Unintended displacement identification and correction method and system
WO2009072583A1 (ja) * 2007-12-07 2009-06-11 Sony Corporation 入力装置、制御装置、制御システム、制御方法及びハンドヘルド装置
US8576168B2 (en) 2007-12-07 2013-11-05 Sony Corporation Input apparatus, control apparatus, control system, control method, and handheld apparatus
JP2009151664A (ja) * 2007-12-21 2009-07-09 Denso Corp 遠隔操作装置
JP2009205245A (ja) * 2008-02-26 2009-09-10 Nikon Corp 画像再生システム
KR100964426B1 (ko) * 2008-06-25 2010-06-16 엘지전자 주식회사 디스플레이 장치
US8884875B2 (en) 2008-10-16 2014-11-11 Nintendo Co., Ltd. Information processing apparatus and computer-readable recording medium recording information processing program
JP2010097429A (ja) * 2008-10-16 2010-04-30 Nintendo Co Ltd 情報処理装置および情報処理プログラム
KR101112624B1 (ko) * 2008-11-06 2012-02-15 주식회사 비트컴퓨터 가속도 센싱을 이용한 문자인식 방법 및 이를 이용한 문자인식 시스템
US8614670B2 (en) 2008-12-18 2013-12-24 Seiko Epson Corporation Input device and data processing system
JP2010146230A (ja) * 2008-12-18 2010-07-01 Seiko Epson Corp 入力装置およびデータ処理システム
CN101840277A (zh) * 2009-03-17 2010-09-22 索尼公司 输入装置、控制装置、控制系统和控制方法
DE102009015918A1 (de) * 2009-03-25 2010-09-30 Kuhn, Andrè Anzeigesystem
CN105744339A (zh) * 2009-05-29 2016-07-06 Lg电子株式会社 图像显示装置及其操作方法
US9223405B2 (en) 2011-03-16 2015-12-29 Electronics And Telecommunications Research Institute Apparatus and method for inputting information based on events
US10261630B2 (en) 2012-04-27 2019-04-16 Panasonic Intellectual Property Corporation Of America Input device, input support method, and program
JP2013242836A (ja) * 2012-04-27 2013-12-05 Panasonic Corp 入力装置、入力支援方法及びプログラム
JP2013242916A (ja) * 2012-04-27 2013-12-05 Panasonic Corp 入力装置、入力支援方法及びプログラム
JP2013175208A (ja) * 2013-04-05 2013-09-05 Nintendo Co Ltd 情報処理装置および情報処理プログラム
WO2015141175A1 (ja) * 2014-03-18 2015-09-24 株式会社デンソー 操作入力装置、および操作入力方法
JP2016076104A (ja) * 2014-10-07 2016-05-12 株式会社ログバー ジェスチャ入力システムのデータ加工方法
WO2016056259A1 (ja) * 2014-10-07 2016-04-14 株式会社ログバー ジェスチャ入力システムのデータ加工方法
JP2018508805A (ja) * 2014-12-29 2018-03-29 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイを用いた仮想または拡張現実シーン内のユーザ対話の方法及びシステム
US10073516B2 (en) 2014-12-29 2018-09-11 Sony Interactive Entertainment Inc. Methods and systems for user interaction within virtual reality scene using head mounted display
JP2018036720A (ja) * 2016-08-29 2018-03-08 株式会社タカラトミー 仮想空間観察システム、方法及びプログラム
KR102001121B1 (ko) * 2018-10-30 2019-07-17 (주)유즈브레인넷 자이로 센서를 이용한 모션인식 장치 및 그 모션인식 방법
WO2025083780A1 (ja) * 2023-10-17 2025-04-24 任天堂株式会社 ゲーム処理方法、ゲームプログラム、およびゲームシステム

Similar Documents

Publication Publication Date Title
JPH0728591A (ja) 空間操作マウスシステム及び空間動作パターン入力方法
US5598187A (en) Spatial motion pattern input system and input method
JP4702475B2 (ja) 入力装置、ハンドヘルド装置及び制御方法
USRE47070E1 (en) Input apparatus, control apparatus, control system, and control method
JP5412227B2 (ja) 映像表示装置、および、その表示制御方法
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
US8896528B2 (en) Control device, input device, control system, handheld device, and control method
US9268400B2 (en) Controlling a graphical user interface
US7952561B2 (en) Method and apparatus for controlling application using motion of image pickup unit
KR100674090B1 (ko) 착용형 범용 3차원 입력 시스템
EP2677741A1 (en) Remote control apparatus and control method thereof
CN101995949B (zh) 操作输入系统、控制装置、手持式装置和操作输入方法
US20090303204A1 (en) Controlling and accessing content using motion processing on mobile devices
EP2144142A2 (en) Input apparatus using motions and user manipulations and input method applied to such input apparatus
JP2010152761A (ja) 入力装置、制御装置、制御システム、電子機器及び制御方法
JP2002278673A (ja) バイオフィードバックを用いた情報入力システム及び情報入力方法
KR19990011180A (ko) 화상인식을 이용한 메뉴 선택 방법
US20100295667A1 (en) Motion based pointing apparatus providing haptic feedback and control method thereof
CN101611369A (zh) 输入设备、控制设备、控制系统、控制方法及手持设备
CN101840277A (zh) 输入装置、控制装置、控制系统和控制方法
CN204945943U (zh) 用于为外部显示设备提供远程控制信号的远程控制设备
JP2011065512A (ja) 情報処理システム、情報処理プログラム、操作認識システム、および操作認識プログラム、
US8456422B2 (en) Input apparatus, control apparatus, control system, control method, and handheld apparatus
JPH04257014A (ja) 入力装置
JP2009187353A (ja) 入力装置