[go: up one dir, main page]

JP4172307B2 - 3D instruction input device - Google Patents

3D instruction input device Download PDF

Info

Publication number
JP4172307B2
JP4172307B2 JP2003096366A JP2003096366A JP4172307B2 JP 4172307 B2 JP4172307 B2 JP 4172307B2 JP 2003096366 A JP2003096366 A JP 2003096366A JP 2003096366 A JP2003096366 A JP 2003096366A JP 4172307 B2 JP4172307 B2 JP 4172307B2
Authority
JP
Japan
Prior art keywords
area
light emitting
emitting means
dimensional
instruction input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003096366A
Other languages
Japanese (ja)
Other versions
JP2004303000A (en
Inventor
保憲 黄田
宏之 堀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2003096366A priority Critical patent/JP4172307B2/en
Publication of JP2004303000A publication Critical patent/JP2004303000A/en
Application granted granted Critical
Publication of JP4172307B2 publication Critical patent/JP4172307B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To execute a function of a two-dimensional mouse such as click, double click or drag by use of three-dimensional information without using a mechanical mechanism. <P>SOLUTION: A space extending in the front of a screen is divided into three areas. When an LED 10 worn by a user goes and returns through the boundary between a semi-pressing layer and a full-pressing layer once in a certain fixed time while making the LED recognize the passage of the boundary of each area, the click operation of the two-dimensional mouse is executed, and when it goes and returns twice in the fixed time, the double click operation of the two-dimensional mouse is executed. When it is not returned to the semi-pressing layer for a fixed time after moved from the semi-pressing layer to the full-pressing layer, an object such as an icon is dragged, and when the LED 10 is returned to the semi-pressing layer, the operation of dropping the dragged object is executed. <P>COPYRIGHT: (C)2005,JPO&amp;NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、3次元指示入力装置に関し、特に、発光手段の3次元情報に基づいて指示入力する3次元指示入力装置に関するものである。
【0002】
【従来の技術】
パソコン等に対して指示入力するためのデバイスとして、従来より2次元マウスが広く用いられている。2次元マウスはx−y座標値を相対座標値としてパソコンに指示入力する。近年、この2次元マウスを用いて3つ目の座標値を入力する技術が提案されている。
【0003】
例えば、発光体としてLEDを指に装着し、LEDからの光を受光する受光部をパソコンの画面の上部に取付けることにより、容易に3次元マウスが達成される(例えば、特許文献1参照。)。ここで用いられるセンサは、光源のセンサに対する角度を求め、三角測量の原理により光源の3次元位置を求めるものである。LEDは光源としてのパワーをパソコンから受け取り、またマウスの基本動作であるクリックなどのシグナルは有線を通してパソコンの基本ソフトに送られる。即ち、発光体のそばに指で押すことのできるスイッチが装備されている。
【0004】
また、2次元上の2つのボールを回転させることによって、x、y軸方向の移動量を入力できるのみならず、角度や回転角も入力でき、z軸方向に対する入力も可能となるポインティングデバイス(例えば、特許文献2参照。)や、第一の方向に光変換素子を配列した第1の光センサアレイと、第1の方向とは別の第二の方向に光変換素子を配列した第2の光センサアレイとが移動するときに両者の出力変化に応じた信号を生成し、それにより(カーソルなどの)移動量や移動方向を決定する非接触方式の位置検出装置(例えば、特許文献3参照。)が知られている。
【0005】
さらに、指標をCCDカメラで認識してパソコンなどに対するコマンドとして解釈するリモコン装置(例えば、特許文献4参照。)や、電子ペンのなかに指で回転されるロータリースイッチが設けられ、その回転度合いによってグラフィカルパラメター(線分の太さ、色、陰影、グレイスケール)の変化の度合いを決定する座標入力用電子ペン(例えば、特許文献5参照。)や、ユーザの手首に装着されたRFIDの動きをアンテナにより認識させてから、RFIDの動きのパターンを他のデバイスへの入力コマンドとして解釈する。同様にアンテナが一つの場合、RFIDが認識されたりされなかったりする時系列のパターンをコマンドとして解釈する指示入力システム(例えば、特許文献6参照。)が知られている。
【0006】
また、米国Gyration Inc.社のGyromouseは、オートジャイロを内臓しており、空中操作でレーザーの方向を変えることができるポインティングデバイスであるが、重量が比較的大きく、大きさもジャイロのために比較的大きく、また多少高価である。
【0007】
さらに近年、カメラのシャッタ操作における半押しの概念を応用した、パソコンのキーボードで、カメラのシャッタのように強く押さないと文字が入力されないという特性を生かし、キーボードとノートバッドを重ねたデバイスが試作された。
【0008】
【特許文献1】
特開平10−9812号公報
【特許文献2】
特開平5−150900号公報
【特許文献3】
特開平11−24832号公報
【特許文献4】
特開平11−110125号公報
【特許文献5】
特開2000−47805号公報
【特許文献6】
特開2001−306235号公報
【0009】
【発明が解決しようとする課題】
しかしながら、上述した従来の3次元マウスは、クリックなどのシグナルが有線でパソコンの基本ソフトに送られることから明らかなように、2次元マウスと同様の操作性を有している。また、上述した従来のポインティングデバイスや指示入力システム等の他の指示入力デバイスも2次元マウスと同様の操作性を有している。
【0010】
さらに、米国Gyration Inc.社のGyromouse Presenterも、クリック等の操作は通常の2次元マウス同様、指による機械的操作に依存している。また、キーボードとノートバッドを重ねたデバイスでも、カーソルの操作は2次元情報に拘束されており、3次元情報を利用しているわけではない。
【0011】
すなわち、従来の指示入力デバイスの操作性は2次元上に拘束されている、という問題がある。
【0012】
本発明は、上述した問題を解決するためになされたものであり、クリック、ダブルクリック、ドラッグなどの2次元マウスの機能を、機械的メカニズムを利用せずに3次元情報を用いて実行することができる3次元指示入力装置を提供することを目的とする。
【0013】
【課題を解決するための手段】
上記目的を達成するために、本発明の3次元指示入力装置は、指示入力者の手または指に装着可能な発光手段と、前記発光手段から発光された光を受光すると共に、前記発光手段の3次元位置を前記受光した光から計測する計測手段と、所定の情報を表示する画面に略一致する平面をx−y平面とし、前記画面の前面の空間を、該x−y平面に対して垂直なz軸方向に前記画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉え、前記計測手段により得られる前記発光手段の3次元位置のz座標値から前記3つの領域を分割する各境界に対する前記発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ前記指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにして、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する実行手段であって、前記指示入力者の視覚に訴えるフィードバックとして、前記画面に前記発光手段のx−y平面上の位置に小ウィンドウを表示させ、該小ウィンドウ内には、前記画面に表示される画像のうち、前記発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させ、前記発光手段のz座標値に応じて前記小ウィンドウ内に表示する画像の拡大率を変化させると共に前記小ウィンドウ内に表示される画像の色相、彩度、明度の少なくともいずれか1つを変化させる実行手段と、を含んで構成されている。
【0014】
また、本発明の3次元指示入力装置は、指示入力者の手または指に装着可能な発光手段と、前記発光手段から発光された光を受光すると共に、前記発光手段の3次元位置を前記受光した光から計測する計測手段と、所定の情報を表示する画面に略一致する平面をx−y平面とし、前記画面の前面の空間を、該x−y平面に対して垂直なz軸方向に前記画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉え、前記計測手段により得られる前記発光手段の3次元位置のz座標値から前記3つの領域を分割する各境界に対する前記発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ前記指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにして、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する実行手段であって、前記指示入力者の視覚に訴えるフィードバックとして、前記画面に前記発光手段のx−y平面上の位置に小ウィンドウを表示させ、該小ウィンドウ内には、前記画面に表示される画像のうち、前記発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させ、前記発光手段のz座標値に応じて前記小ウィンドウ内に表示する画像の拡大率を変化させると共に前記小ウィンドウ内に表示される画像の凹凸状態を変化させる実行手段と、を含んで構成することもできる。
さらにまた、本発明の3次元指示入力装置は、指示入力者の手または指に装着可能な発光手段と、前記発光手段から発光された光を受光すると共に、前記発光手段の3次元位置を前記受光した光から計測する計測手段と、所定の情報を表示する画面に略一致する平面をx−y平面とし、前記画面の前面の空間を、該x−y平面に対して垂直なz軸方向に前記画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉え、前記計測手段により得られる前記発光手段の3次元位置のz座標値から前記3つの領域を分割する各境界に対する前記発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ前記指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにして、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する実行手段であって、前記指示入力者の視覚に訴えるフィードバックとして、前記画面に前記発光手段のx−y平面上の位置に小ウィンドウを表示させ、該小ウィンドウ内には、前記画面に表示される画像のうち、前記発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させ、前記発光手段のz座標値に応じて前記小ウィンドウ内に表示する画像の拡大率を変化させると共に前記小ウィンドウの大きさまたは/および形状を変化させる実行手段と、を含んで構成することもできる。
【0015】
発光手段は、指示入力者に装着可能であり、指や手などに装着されることが好ましい。発光手段は、光を発するものであれば特に限定されず、例えばLEDとすることができる。計測手段は、発光手段からの光を受光すると共に、発光手段の3次元位置を受光した光から計測する。
【0016】
一方、指示入力者が視認する画面には所定の情報が表示される。実行手段は、画面に略一致する平面をx−y平面とし、画面の前面の空間を、該x−y平面に対して垂直なz軸方向に画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉える。更に、実行手段は、計測手段により得られる発光手段の3次元位置のz座標値から3つの領域の各境界に対する発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにする。
【0017】
すなわち、計測手段により指示入力者の指や手の動きに応じて変化する発光手段の3次元位置を計測することによって、実行手段は、発光手段の各境界に対する通過の仕方を判断できる。さらに、実行手段は、指示入力者に発光手段の3次元位置をフィードバックにより認識させことができるため、指示入力者は発光手段の位置を確認しながら、すなわち、画面前面の空間を3つの領域に分割する各境界に対する通過状態を確認しながら、発光手段を装着した指や手を動かすことができる。
【0018】
実行手段は、このようにフィードバックを掛けつつ、発光手段の各境界に対する通過の仕方に応じて、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する。
【0019】
従って、本発明によれば、2次元マウスの機能を、機械的メカニズムを利用せずに3次元情報により実行することができる。
【0020】
本発明の前記実行手段は、前記フィードバックとして、前記画面に前記発光手段のx−y平面上の位置に小ウィンドウを表示させ、該小ウィンドウ内には、前記画面に表示される画像のうち、前記発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させると共に、前記発光手段のz座標値に応じて前記小ウィンドウ内に表示する画像の拡大率を変化させることにより前記指示入力者の視覚に訴えることができる。
【0021】
実行手段は、フィードバックとして、画面に発光手段のx−y平面上の位置に小ウィンドウを表示させる。小ウィンドウの形は特に限定されず、矩形であってもよいし、円形であってもよい。実行手段は、小ウィンドウ内に、画面に表示される画像のうち、発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させる。さらに、発光手段のz座標値に応じて小ウィンドウ内に表示する画像の拡大率を変化させて指示入力者の視覚に訴える。
【0022】
このように、発光手段のz座標値に応じて小ウィンドウ内に表示する画像の拡大率を変化させることにより、指示入力者は、発光手段のz軸方向の位置を認識することができる。
【0023】
前記実行手段は、前記発光手段が前記第2の領域側から前記第1の領域と前記第2の領域との境界に接近する場合に、該境界に接近するに従って前記拡大率を低減させ、該境界の通過時には前記拡大率が1となるようにして該境界を指示入力者に認知させることができる。
【0024】
これにより、拡大率の変化によって、指示入力者は発光手段が境界に接近しつつある状態を認知できる。また、拡大率が1となったときには、発光手段が境界を通過中であることを認知できる。従って、指示入力者は、明確に発光手段のz軸方向の位置を認識することができ、発光手段を装着した指または手を好適に動かして、2次元マウスの機能を実行させることができる。
【0025】
また、本発明の前記実行手段は、前記小ウィンドウ内に表示される画像の色相、彩度、明度の少なくともいずれか1つを、前記発光手段のz座標値に応じて変化させることができる。
【0026】
これにより、指示入力者は、発光手段のz軸方向の位置を認識することができる。
【0027】
さらに、本発明の前記実行手段は、前記発光手段が前記第3の領域から前記第2の領域に向かって移動する場合には、前記発光手段の移動に従って前記小ウィンドウ内の明度を連続的に急激に大きくし、前記発光手段の移動により明度が所定の大きさとなった時点でその値を一定に維持し、前記発光手段が移動して所定のz座標値を越えたときには、前記第2の領域と前記第1の領域との境界に近づくに従って明度を再び小さくし、該境界を含む該境界前後の所定の領域では前記小ウィンドウ内の明度を前記画面の対応する部分画像の明度と同じにして前記画面に表示される画像がそのまま見えるようにし、前記発光手段が前記第2の領域と前記第1の領域の境界を通過して前記第1の領域に移動した後には、前記小ウィンドウ内の色相を前記第2の領域とは異なる色相に変え、前記発光手段が前記第2の領域と前記第1の領域の境界から離れて前記画面に近づくに従って急激に明度を上げ、前記小ウィンドウ内の色相が明らかになるようにして前記指示入力者の視覚に訴えるようにすることができる。
【0028】
これにより、発光手段のz座標値に応じて小ウィンドウの属性(色相、明度、彩度など)は変化するが、画面の画像が小ウィンドウ内に見える状態は維持される。
【0029】
具体的には、発光手段が第3の領域から第2の領域に向かって移動する場合には、発光手段の移動に従って小ウィンドウの明度を連続的に急激に大きくする。これにより、指示入力者は、発光手段が第2の領域に向かいつつあることを認識できる。
【0030】
更に、実行手段は、発光手段の移動により明度が所定の大きさとなった時点で明度の値を一定に維持する。これにより指示入力者は第2の領域を移動中であることを認識できる。
【0031】
更に、実行手段は、発光手段が移動して所定のz座標値を越えたときには、第2の領域と第1の領域との境界に近づくに従って明度を再び小さくしていく。これにより、指示入力者は、発光手段が第1の領域に接近しつつあることを認識できる。
【0032】
更に、実行手段は、発光手段が第2の領域と第1の領域との境界を含む該境界前後の所定の領域にあるときには小ウィンドウ内の明度を画面の対応する部分画像の明度と同じにして画面に表示される画像がそのまま見えるようにする。これにより、指示入力者は発光手段が境界付近に位置することを認識できる。
【0033】
更に、実行手段は、発光手段が第2の領域と第1の領域の境界を通過して第1の領域に移動した後には、小ウィンドウ内の色相を第2の領域とは異なる色相に変える。これにより、指示入力者は、発光手段が第2の領域から第1の領域に移動したことを認識できる。
【0034】
更に、実行手段は、発光手段が第2の領域と第1の領域の境界から離れて画面に近づくに従って急激に明度を上げ、小ウィンドウ内の色相が明らかになるようにする。これにより、指示入力者は、発光手段が、第1の領域を移動中であることを認識できる。
【0035】
本発明の前記実行手段は、前記小ウィンドウ内に表示される画像の凹凸状態を、前記発光手段のz座標値に応じて変化させることができる。また、本発明の前記実行手段は、前記小ウィンドウの大きさまたは/および形状を、前記発光手段のz座標値に応じて変化させることもできる。
【0036】
なお、小ウインドウの大きさは、境界領域をこえる時には少なくともローカルで最小とし、ある同じ属性の領域をLEDなどの発光手段が移動中である場合には変化をさせないようにすれば、より一層距離感が認識しやすくなる。
【0037】
これにより、指示入力者は、発光手段のz軸方向の位置を認識することができる。
【0038】
本発明において、前記小ウィンドウの輪郭の色を任意に設定可能とすることもできる。なお、前記実行手段は、前記任意に設定された前記小ウィンドウの輪郭の色と、前記画面に表示される画像における前記小ウィンドウの境界域の色との排他的論理和をとって前記小ウィンドウの輪郭の色を定めることもできる。
【0039】
これにより、設定された小ウィンドウの輪郭の色が、画面に表示される画像における小ウィンドウの境界域の色と同一となった場合であっても、その色と異なる色で輪郭が表示されるため、指示入力者が小ウィンドウを見失うことを防止できる。
【0040】
なお、小ウィンドウによるフィードバックに限らず、本発明の前記実行手段は、前記フィードバックとして、前記発光手段が前記各境界を通過する際に、音を用いて前記指示入力者の聴覚に訴えるようにすることもできる。
【0041】
これにより、小ウィンドウによるフィードバックと同様に、指示入力者は、発光手段のz軸方向の位置を認識することができる。
【0042】
本発明の前記実行手段は、前記発光手段が前記第2の領域側から前記第1の領域と前記第2の領域との境界を通過したときに、2次元マウスにおける選択の機能を実行することができる。また、前記実行手段は、前記発光手段が前記第1の領域と前記第2の領域との境界を所定の時間内に1回一方向に通過したときに、2次元マウスにおけるの選択の機能を実行するようにしてもよい。前記実行手段は、前記発光手段が前記第2の領域内に定義されている別の境界を所定の時間内に1回一方向に通過したときに、2次元マウスにおけるの選択の機能を実行するようにしてもよい。
【0043】
本発明の前記実行手段は、前記発光手段が、前記第1の領域と前記第2の領域との境界を所定の時間内に1回一方向に通過した後、逆方向に通過したときに、2次元マウスにおけるクリックの機能を実行することができる。
【0044】
また、本発明の前記実行手段は、前記発光手段が前記第1の領域と前記第2の領域との境界を所定の時間内に2回同方向に通過したときに、2次元マウスにおけるダブルクリックの機能を実行することができる。
【0045】
さらに、本発明において、前記第1の領域は、前記画面に近い領域と前記第2の領域に近い領域とに分割されており、前記実行手段は、前記発光手段が該2つの領域の境界を一方向に通過したときに、2次元マウスにおけるドラッグの機能を実行し、該境界を逆方向に通過したときに、2次元マウスにおけるドロップの機能を実行することができる。
【0046】
このように、発光手段の各境界に対する通過の仕方に応じて、選択、クリック、ダブルクリックや、ドラッグ・アンド・ドロップといった2次元マウスの機能を実行するため、機械的メカニズムを利用せずにすむ。
【0047】
また、本発明の前記実行手段は、前記発光手段が前記第2の領域のうち前記第1の領域に近い所定の領域内を通過しているときは、前記指示入力者により指示入力されるx−y平面上の位置を該所定の領域に入った時点の前記発光手段のx−y平面上の位置に維持することもできる。
【0048】
これにより、第2の領域のうち第1の領域に近い所定の領域内を通過しているときに、指示入力者により指示入力されるx−y平面上の位置が固定されるため、該位置にあるアイコンなどのオブジェクトを選択したり、オブジェクトをクリックしたりするなどの2次元マウスの機能を実行することができる。
【0049】
本発明において、前記所定の時間を変更可能にしてもよい。これにより、指示入力者の使い勝手を向上させることができる。
【0050】
【発明の実施の形態】
以下、図面を参照して、本発明の実施の形態について詳細に説明する。
【0051】
図1は、本発明の実施の形態に係る3次元指示入力装置の構成およびデータの流れを示すブロック図である。図示されるように、3次元指示入力装置は、ユーザの指や手等に装着された発光体(LED)10と、LED10からの光を受光することによりLED10の3次元位置を計測する3D計測装置12と、3D計測装置12で計測された3次元位置を示す座標値のうちz座標値の軌跡からクリック、ダブルクリック、ドラッグ・アンド・ドロップのコマンド(マウス・コマンドと呼称する)を生成してx−y座標値と共にパソコン22に出力する3Dマウス・コマンド生成装置14とを備えている。更に、パソコン22には、3Dマウス・コマンド生成装置14からx−y座標値と共にマウス・コマンドを入力するマウスドライバ16と、画像処理を行うイメージドライバ20と、マウスドライバ16に入力されたコマンドに基づいて、イメージドライバ20を必要に応じて起動させる等して指示入力に関する処理を行うOS18とが格納されている。
【0052】
ここで、x−y座標値は、パソコン22の画面(図2参照)に略一致する平面をx−y平面とした場合の座標値であり、z座標値は、x−y平面に垂直なz軸方向の座標値である。
【0053】
なお、上述した3次元指示入力装置のハードウェアは、特開平10−9812号公報に記載された位置検出の技術を用いて構成されている。もちろん、3次元位置計測ができるものであれば何でも良いが、特開平10−9812号公報に記載の方式によれば比較的安価に実現できる。
【0054】
図2は、パソコン22を横から見た図である。パソコン22の画面はMで示されている。パソコン22の画面Mの前面に広がる3次元空間のうち、最も画面Mに近い層を全押し下層、次に近い層を全押し上層とし、あわせて全押し層(第1の層)と呼ぶ。その両者の境界を境界Bと呼ぶ。さらに手前の層二層を半押し層(第2の層)と呼び、それぞれ画面Mに近い方から半押し下層、半押し上層と呼ぶ。その両者の境界を境界Aと呼ぶ。また、半押し層と全押し層の境界を境界Kと呼ぶ。ユーザに最も近い層、すなわち、画面Mから最も遠い層を自由層(第3の層)と呼ぶ。自由層と半押し層の境界を境界Fと呼ぶ。
【0055】
自由層は、LED10をどのように動かそうとも単にカーソルがその動きに対応して動くだけでなんのアクションもなされない層である。2次元マウスにおいてマウスクリックをせずにマウスを動かしている状態に相当する。
【0056】
半押し層の手前の層(半押し上層)にLED10がある場合は、後に説明する拡張カーソルの属性に変化があり、ユーザがオブジェクトを選択しつつある状態である。また、LED10が半押し層の画面側(半押し下層)に移動したときには、カーソルのx−y座標値は、境界Aを通過した時の値に固定される。
【0057】
半押し層と全押し層との間をLED10が通過する仕方によって、マウス・コマンドが生成される。
【0058】
ここで、拡張カーソルについて説明する。本実施の形態において、拡張カーソルは従来のカーソルとは異なり、パソコン22のデスクトップ上で従来のカーソルが指示している点(以下、カーソル点と呼称する)を含む小領域を円弧などで囲い、改めて小ウインドウとして表示したものである。図3(a)及び図3(b)に示されるように、カーソル点30を中心とする円形の内部が小ウィンドウ(拡張カーソル)32に表示されている。従来のカーソル34は、その拡張カーソル32の内部、特に中心部に重ねて表示されている。
【0059】
なお、図3(a)は、向かって右側の2列のアイコンの中心部分を拡張カーソル32が指示している状態を表しており、幾分デスクトップ状のアイコンが拡大されているのが分かる。
【0060】
また、図3(b)は、LED10が境界Kに近づいたときの画面上の拡張カーソル32の状態を表している。図示されるように、拡張カーソル32の半径は最小になっており、円形内の画像も背景と同じ、即ち拡大率が1となっている。
【0061】
このように拡張カーソル32は、半押し層でLED10が外側から境界Kに近づくにつれて、カメラの焦点を合わせるように画像が拡大された状態から実際の大きさに変化したり、あるいは半径が小さくなることによって絞りが絞られていくことを連想させる焦点メタファーを構成している。
【0062】
この拡張カーソル32は、OSがイメージドライバ20を用いて表示する。また、従来のカーソル34は、OSがマウスドライバ16を用いて拡張カーソル32に重ねて表示する。
【0063】
次に、マウス・コマンドが生成される場合の3次元指示入力装置の処理の流れについて説明する。
【0064】
図1に示されるように、LED10が3D計測装置12の前にあると、その位置が3D計測装置12で測定される。ここでマウス・コマンド生成のために必要なものはLED10のz座標値である。z座標値は3D計測装置12からの距離で測られるが、パソコン22の画面Mと3D計測装置12の位置が一致していれば、この距離は画面Mからの距離となる。図1の矢印で示されるように、手前に伸びる方向がz座標値の正の方向である。
【0065】
ユーザが手を動かすとそれにつれて手に装着されたLED10の位置が変わり、そのz座標値を含む3次元座標値が3D計測装置12を通じて3Dマウス・コマンド生成装置14に送られる。
【0066】
3Dマウス・コマンド生成装置14は、そのz座標値の時系列から画面M手前の各境界領域をある一定時間内にどのような形で通過したかを調べる。なお、この時間は、ユーザにより任意に設定可能である。3Dマウス・コマンド生成装置14では、その仕方によって、クリック、ダブルクリック、ドラッグの3つの重要なコマンドに解釈される。解釈されたコマンドのシグナルはパソコン22のマウスドライバ16に送られる。この時点でマウスドライバ16は2次元マウスであろうと、3次元マウスであろうと同じデータタイプを受け取ることができる。従って、後はパソコン22側の処理になる。本実施の形態では拡張カーソル32を小ウインドウで表現するので、OSは画像を処理しているイメージドライバ20等を必要に応じて起動させ、図3(a)及び図3(b)に示されるようにパソコン22の画面Mに拡張カーソル32を表示させる。また、マウスドライバ16も同時に起動されており、OSはマウスドライバ16により拡張カーソル32の画像に従来のカーソル34を重ねて画面M上に表示する。
【0067】
この拡張カーソル32内部の画像はLED10が自由層にあるときには本来の画像と変わらず、LED10が半押し層に入ると拡大表示(拡張カーソルそのものの大きさと内部表示される画像)される。また、LED10が半押し層から全押し層へ向かうにつれて、即ち境界Kに向かうにつれて、拡大画像の倍率が1になる。特に、境界Kの寸前の所定距離内では多少LED10のz座標値が動いても倍率は1とする。これはカメラのシャッタの半押し状態を再現したもので、特にシャッタが下りる直前はシャッタの硬さが増し、変化がないことも表現されている。
【0068】
以下、図4を用いて、LED10の動きと、生成されるマウス・コマンドとの対応関係について詳細に説明する。
【0069】
図4は、パソコン22を上から見た図である。また、図に示される太実線及び点線はLED10の動きに対応した軌跡を示している。なお、太実線はカーソル点30のx−y座標値が固定されている(ロックされている)ことを示し、点線部分はx−y座標値は固定されていない(ロック解除されている)ことを示している。
【0070】
LED10が半押し上層から境界Aを越して半押し下層に入ると、境界Aを通過する時点の値でカーソル点30のx−y座標値がロックされる。このとき、オブジェクトが指示されていれば、後にLEDがKを通過すれば通過時の通過点のx−y座標値に関わらずそのオブジェクトが選択される。即ち、LED10が移動して境界Kを通過した後、境界Bには到達せずに、再び境界Kを逆方向に通過して半押し上層に戻ると、「クリック」のコマンドがパソコン22のマウスドライバ16に送られる(軌跡40)。
【0071】
また、LED10が、半押し上層から境界Aを越して半押し下層に入った後、半押し層上部に戻らず、もう一度境界Kを越し、しかし、境界Bに到達せず、再び境界Kを逆方向に戻ると、「ダブルクリック」のコマンドがパソコン22に送られる。(軌跡42)。
【0072】
また、LED10が半押し上層から境界A、境界Kを通り過ぎ、次の境界Bを越すと、ドラッグが可能な領域(全押し下層)に入る。この時点でカーソル点30のx−y座標値のロックが解除され、全押し下層でカーソル点30で指示されているオブジェクトがLED10のx−y座標の動きに従ってドラッグされる。即ち、「ドラッグ」のコマンドがパソコン22に送られる。LED10が再び全押し下層からが境界Bを逆方向に通過し、また境界Kをさらに通過して半押し層に戻ると、その時点でx−y座標値がロックされ、オブジェクトがドロップされる。即ち、「ドロップ」のコマンドがパソコン22に送られる(軌跡44)。
【0073】
x−y座標値のロックの状態と各境界との対応関係について詳細に説明する。基本的には、どの場合でもx−y座標値がロックされるのは、LED10が半押し上層から半押し下層へ境界Aを越したときである。また、ロックが解除されるのは、クリックの場合には同じく境界Aを逆方向に通過したときであり、ダブルクリックの場合は境界Kを2回目に逆方向に戻ってきた時点である。また、LED10が境界Bを越えて全押し下層に入るとx−y座標のロックははずされる。これはドラッグ可能な領域に入ったためで、当然である。ドラッグを行ってオブジェクトを移動した後、LED10が再び全押し上層に戻ってきたときには、再びロックされる。これはカーソルからオブジェクトをはずすための便宜である。さらにLED10が境界Kを越して半押し層に戻ると、再びロックははずされる。この時点ではLED10が半押し上層に戻ってきていないので、オブジェクトの選択がなされることはない。
【0074】
なお、図4において、クリックとダブルクリックの際のLED10の軌跡は、xまたはy座標値を動いているように見えるが、これらは誇張して表現したものであり、実際は殆ど同じ位置にある。また、実線部分ではパソコン22のマウスドライバ16に対する値は一定値である。
【0075】
以上説明したように、画面の前面に広がる空間を3つの領域に分割し、ユーザの視覚に訴えるような拡張カーソル(焦点メタファー)によって、ユーザが装着するLED10が各領域の境界を通過したことを認知させつつ、半押し層と全押し層との境界をある一定時間内に一度だけ往復した場合には、2次元マウスのクリックの動作を実行し、一定時間内に二度往復した場合には、2次元マウスのダブルクリックの動作を実行し、半押し層から全押し層に移動しても一定時間半押し層に戻らない場合には、カーソルが指示するアイコン等のオブジェクトをドラッグし、LED10が半押し層に戻ったときに、ドラッグしたオブジェクトをドロップするようにしたため、クリック、ダブルクリック、ドラッグなどのマウスの基本動作を、機械的メカニズムを利用せずに空中でのLED10の動き(3次元座標値)により実行させることができる。
【0076】
なお、上述した実施の形態では、拡張カーソル32を用いてLED10が3次元空間上の境界を通過したことをユーザに認知させる例について説明したが、例えば、各境界を通過する際それに固有な音を発生させて操作の助けとすることも可能である。さらに、各層での最大拡大率や、色相などの色情報、拡張カーソル32の大きさ(半径等)をユーザが自由に自分の好みや使い勝手に応じて変更することが可能である。
【0077】
図5は、LED10のz座標位置に応じた拡張カーソル32の明度及び色相の変化の一例を示した図である。図示されるように、色相が境界Kを境にして緑から赤に変わる。即ち、ユーザが境界K前後にLED10を動かすと色が変わることになり、ユーザに対して境界がどこにあるのかの認知度を高める。また、半押し層(図5において境界Kの左側)や全押し層(図5において境界Kの右側)において明度を変化させる。特に、半押し層では、境界Kに向かって拡張カーソルに取り込まれた画像の拡大率を1に近づけると共に、色を拡張カーソルに取り込んだ画像の色相に近づけることによって、焦点を合わせてはっきり見える焦点メタファーを構成することも可能である。
【0078】
また、上述した実施の形態における境界や層は一例であり、境界を削除して2つの層を合体させることも可能である。この場合には、層に依存する属性を隣接する層についても同じに設定することによって可能となる。また、境界を定めるz座標値もユーザが自由に設定しなおすことも可能である。さらに、各層の意味を別に解釈することによって、例えば、極端な例としては、半押し層と全押し層を逆転させることも可能である。この場合も、マウス・コマンドを起動させるには、LED10がどの境界をどのように通過したかによって決定するようにすればよい。
【0079】
なお、拡張カーソルに表示される画像の色相、彩度、明度の少なくともいずれか1つを、LED10のz座標値に応じて変化させるようにすることもできる。また、拡張カーソルに表示される画像の凹凸状態を、LED10のz座標値に応じて変化させるようにすることもできる。さらに、拡張カーソルの大きさや形状を、LED10のz座標値に応じて変化させるようにしてもよい。
【0080】
また、拡張カーソルの輪郭の色はユーザが任意に設定してもよい。さらに、任意に設定された拡張カーソルの輪郭の色と、画面に表示される画像における拡張カーソルの境界域の色との排他的論理和をとって拡張カーソルの輪郭の色を定めるようにしてもよい。これにより、拡張カーソルに予め設定された輪郭の色と、画面に表示される画像における拡張カーソルの輪郭の境界域に占める色とが同一となった場合に、拡張カーソルの輪郭の色を異ならせて表示するため、拡張カーソルが明瞭に視認される。
【0081】
また、それぞれの操作が完了するまでの最大許容時間もユーザが設定可能であるが、空中操作によるクリック操作の識別に要するクリック間隔時間は2次元マウスの設定値にくらべて時間を長くすることが好ましい。具体的には、ダブルクリックは基本ソフトOSで設定可能な0.5秒を越して、約1.9秒くらいが実験的に現在のところ妥当であった。
【0082】
【発明の効果】
本発明に係る3次元指示入力装置は、五感の少なくとも1つに訴えるようなフィードバック(焦点メタファーや色相等の変化)によって、画面の前面に広がる3次元空間上の分割された複数の領域の各境界に対する発光手段の通過状態をユーザに認知させ、機械的メカニズムを利用せずに、発光手段の各領域の境界に対する通過の仕方に応じて、クリック、ダブルクリック、ドラッグなどの2次元マウスの機能を実行することができる、という効果を奏する。
【図面の簡単な説明】
【図1】 本発明の実施の形態に係る3次元指示入力装置の構成およびデータの流れを示すブロック図である。
【図2】 パソコンを横から見た場合の空間分割を説明する図である。
【図3】 図3(a)は、向かって右側の2列のアイコンの中心部分を拡張カーソルが指示している状態を表した図であり、図3(b)は、LEDが境界Kに近づいたときの画面上の拡張カーソルの状態を表した図である。
【図4】 パソコンを上から見た場合の空間分割とLEDの空間上での動きを説明する図である。
【図5】 画面に表示される拡張カーソル内の画像の色相及び明度の変化の一例を示した図である。
【符号の説明】
10 LED
12 3D計測装置
14 3Dマウス・コマンド生成装置
16 マウスドライバ
18 OS
20 イメージドライバ
22 パソコン
32 拡張カーソル
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a three-dimensional instruction input device, and more particularly to a three-dimensional instruction input device that inputs an instruction based on three-dimensional information of a light emitting means.
[0002]
[Prior art]
Conventionally, a two-dimensional mouse has been widely used as a device for inputting instructions to a personal computer or the like. The two-dimensional mouse instructs and inputs the xy coordinate value as a relative coordinate value to the personal computer. In recent years, a technique for inputting a third coordinate value using the two-dimensional mouse has been proposed.
[0003]
For example, a three-dimensional mouse can be easily achieved by attaching an LED as a light emitter to a finger and attaching a light receiving unit that receives light from the LED to the upper part of the screen of a personal computer (see, for example, Patent Document 1). . The sensor used here obtains the angle of the light source with respect to the sensor and obtains the three-dimensional position of the light source based on the principle of triangulation. The LED receives power as a light source from a personal computer, and a signal such as a click, which is the basic operation of a mouse, is sent to the basic software of the personal computer through a wire. That is, a switch that can be pressed with a finger is provided near the light emitter.
[0004]
In addition, by rotating two two-dimensional balls, it is possible to input not only the movement amount in the x and y axis directions, but also the angle and the rotation angle, and a pointing device that can input in the z axis direction ( For example, see Patent Document 2.), a first photosensor array in which light conversion elements are arranged in a first direction, and a second in which light conversion elements are arranged in a second direction different from the first direction. When the optical sensor array moves, a signal corresponding to the change in the output of the both is generated, thereby determining the amount of movement (such as a cursor) and the direction of movement (for example, Patent Document 3) See.) Is known.
[0005]
Furthermore, a remote control device (for example, refer to Patent Document 4) that recognizes the index with a CCD camera and interprets it as a command for a personal computer or the like, and a rotary switch that is rotated with a finger in an electronic pen are provided. A coordinate input electronic pen (see, for example, Patent Document 5) that determines the degree of change in graphical parameters (line thickness, color, shading, gray scale) and movement of an RFID attached to a user's wrist After being recognized by the antenna, the RFID movement pattern is interpreted as an input command to another device. Similarly, when there is one antenna, an instruction input system (for example, refer to Patent Document 6) that interprets a time-series pattern in which an RFID is not recognized as a command is known.
[0006]
In addition, Gyromouse of Gyration Inc. in the United States is a pointing device that has a built-in auto gyro and can change the direction of the laser by aerial operation, but its weight is relatively large and its size is relatively small for the gyro. Large and somewhat expensive.
[0007]
In recent years, a computer keyboard that applies the concept of half-pressing in camera shutter operation has been prototyped, taking advantage of the fact that characters cannot be input unless it is pressed hard like a camera shutter. It was done.
[0008]
[Patent Document 1]
JP-A-10-9812
[Patent Document 2]
JP-A-5-150900
[Patent Document 3]
JP-A-11-24832
[Patent Document 4]
JP-A-11-110125
[Patent Document 5]
JP 2000-47805 A
[Patent Document 6]
JP 2001-306235 A
[0009]
[Problems to be solved by the invention]
However, the above-described conventional three-dimensional mouse has the same operability as the two-dimensional mouse, as is clear from the fact that a signal such as a click is sent to the basic software of a personal computer by wire. In addition, other instruction input devices such as the above-described conventional pointing device and instruction input system have the same operability as a two-dimensional mouse.
[0010]
In addition, Gyromouse Presenter of Gyration Inc. of the United States also relies on mechanical operations with fingers, as with normal two-dimensional mice, for operations such as clicking. Further, even in a device in which a keyboard and a note pad are overlapped, the operation of the cursor is restricted by two-dimensional information, and does not use three-dimensional information.
[0011]
That is, there is a problem that the operability of the conventional instruction input device is restricted in two dimensions.
[0012]
The present invention has been made to solve the above-described problem, and performs functions of a two-dimensional mouse such as click, double click, and drag using three-dimensional information without using a mechanical mechanism. An object of the present invention is to provide a three-dimensional instruction input device capable of
[0013]
[Means for Solving the Problems]
  To achieve the above object, a three-dimensional instruction input device of the present invention receives light emitted from the light emitting means, light emitting means that can be worn on the hand or finger of the instruction input person,A measuring means for measuring the three-dimensional position of the light emitting means from the received light, and a plane substantially coinciding with a screen displaying predetermined information is defined as an xy plane, and a space in front of the screen is defined as the xy plane. 3 of the light emitting means obtained by the measuring means obtained by dividing into three areas of the first area, the second area, and the third area in the order close to the screen in the z-axis direction perpendicular to the plane. The way of passing the light-emitting means with respect to each boundary dividing the three regions is determined from the z-coordinate value of the three-dimensional position, and differs depending on the way of passing and appeals to at least one of the five senses of the instruction input person Execution means for executing functions of a two-dimensional mouse including selection, click, double-click, drag and drop so that feedback is applied, and feedback that appeals to the visual input of the instruction input person; A small window is displayed on the screen at a position on the xy plane of the light emitting means, and an image displayed on the screen on the xy plane of the light emitting means is displayed in the small window. An image of a predetermined area including the position is enlarged and displayed, and the enlargement ratio of the image displayed in the small window is changed according to the z coordinate value of the light emitting means, and the image displayed in the small window is changed. Execution means for changing at least one of hue, saturation, and brightnessAnd.
[0014]
  Further, the three-dimensional instruction input device of the present invention receives light emitted from the light emitting means and light emitting means that can be worn on the hand or finger of the instruction input person, and receives the three-dimensional position of the light emitting means. A plane that substantially coincides with a measuring unit that measures from the light and a screen that displays predetermined information is an xy plane, and a space in front of the screen is in a z-axis direction perpendicular to the xy plane. The three areas of the first area, the second area, and the third area are divided into three areas in order from the screen, and the three coordinates are obtained from the z coordinate value of the three-dimensional position of the light emitting means obtained by the measuring means. Judgment of how to pass the light emitting means with respect to each boundary that divides the region, and selection and click so that feedback varies depending on the way of passing and appeals to at least one of the five senses of the instruction input person , Double chestnut Click, execution means for executing the function of the two-dimensional mouse comprising a drag-and-dropIn this case, a small window is displayed at a position on the xy plane of the light emitting means on the screen as feedback appealing to the visual input of the instruction input person, and an image displayed on the screen is displayed in the small window. Among these, an image of a predetermined area including the position of the light emitting means on the xy plane is enlarged and displayed, and an enlargement ratio of the image displayed in the small window according to the z coordinate value of the light emitting means is set. Execution means for changing and changing the uneven state of the image displayed in the small windowAnd can also be configured.
  Furthermore, the three-dimensional instruction input device of the present invention comprises a light-emitting means that can be worn on the hand or finger of the instruction input person, light emitted from the light-emitting means, and a three-dimensional position of the light-emitting means. A measuring means for measuring from the received light and a plane substantially coincident with a screen for displaying predetermined information is defined as an xy plane, and a space in front of the screen is in a z-axis direction perpendicular to the xy plane. Are divided into three areas, a first area, a second area, and a third area, in order from the screen, and are obtained from the z coordinate value of the three-dimensional position of the light emitting means obtained by the measuring means. Determining how to pass the light emitting means with respect to each boundary dividing one region, and depending on the way of passing, and selecting feedback to appeal to at least one of the five senses of the instruction input person, Click, dub Execution means for executing functions of a two-dimensional mouse including click, drag and drop, and as a feedback appealing to the visual input of the instruction input person, a small amount is placed on the screen at a position on the xy plane. A window is displayed, and within the small window, an image of a predetermined area including a position on the xy plane of the light emitting means is enlarged among the images displayed on the screen, and the light emitting means is displayed. And executing means for changing the size or / and shape of the small window while changing the enlargement ratio of the image displayed in the small window in accordance with the z-coordinate value of the small window.
[0015]
The light emitting means can be worn by an instruction input person, and is preferably worn by a finger or a hand. The light emitting means is not particularly limited as long as it emits light, and may be, for example, an LED. The measuring means receives the light from the light emitting means and measures the three-dimensional position of the light emitting means from the received light.
[0016]
On the other hand, predetermined information is displayed on the screen visually recognized by the instruction input person. The execution means sets the plane substantially coincident with the screen as the xy plane, and sets the space in front of the screen in the order of the first area and the second area in the z-axis direction perpendicular to the xy plane from the screen. The area and the third area are divided into three areas. Further, the execution means determines how to pass the light emitting means with respect to each boundary of the three regions from the z coordinate value of the three-dimensional position of the light emitting means obtained by the measuring means, and differs depending on the way of passing, and indicates Provide feedback that appeals to at least one of the five senses of the input person.
[0017]
That is, by measuring the three-dimensional position of the light emitting means that changes according to the movement of the finger or hand of the instruction input person by the measuring means, the execution means can determine how to pass through each boundary of the light emitting means. Furthermore, since the execution means can make the instruction input person recognize the three-dimensional position of the light emitting means by feedback, the instruction input person confirms the position of the light emitting means, that is, the space in front of the screen is divided into three areas. While confirming the passing state with respect to each boundary to be divided, it is possible to move the finger or hand wearing the light emitting means.
[0018]
The execution means executes the function of the two-dimensional mouse including selection, click, double click, and drag and drop according to the way of passing through each boundary of the light emission means while applying feedback in this way.
[0019]
Therefore, according to the present invention, the function of the two-dimensional mouse can be executed by three-dimensional information without using a mechanical mechanism.
[0020]
The execution means of the present invention displays a small window at a position on the xy plane of the light emitting means on the screen as the feedback, and within the small window, among the images displayed on the screen, An image of a predetermined area including the position of the light emitting means on the xy plane is enlarged and displayed, and an enlargement ratio of the image displayed in the small window is changed according to the z coordinate value of the light emitting means. Therefore, it is possible to appeal to the vision of the instruction input person.
[0021]
The execution means displays a small window on the screen at a position on the xy plane as feedback. The shape of the small window is not particularly limited, and may be a rectangle or a circle. The executing means enlarges and displays an image of a predetermined area including the position of the light emitting means on the xy plane among the images displayed on the screen in the small window. Furthermore, the magnification of the image displayed in the small window is changed according to the z coordinate value of the light emitting means to appeal to the instruction input person's vision.
[0022]
In this way, by changing the enlargement ratio of the image displayed in the small window in accordance with the z coordinate value of the light emitting means, the instruction input person can recognize the position of the light emitting means in the z-axis direction.
[0023]
When the light emitting means approaches the boundary between the first area and the second area from the second area side, the execution means reduces the magnification rate as the boundary approaches the boundary. When the boundary passes, the instruction input person can recognize the boundary by setting the enlargement ratio to 1.
[0024]
Thereby, the instruction input person can recognize the state where the light emitting means is approaching the boundary due to the change in the enlargement ratio. When the enlargement ratio is 1, it can be recognized that the light emitting means is passing the boundary. Therefore, the instruction input person can clearly recognize the position of the light emitting means in the z-axis direction, and can appropriately move the finger or hand wearing the light emitting means to execute the function of the two-dimensional mouse.
[0025]
The execution means of the present invention can change at least one of hue, saturation, and brightness of an image displayed in the small window according to the z coordinate value of the light emitting means.
[0026]
Thereby, the instruction input person can recognize the position of the light emitting means in the z-axis direction.
[0027]
Furthermore, the execution means of the present invention continuously increases the brightness in the small window according to the movement of the light emitting means when the light emitting means moves from the third area toward the second area. When the brightness becomes a predetermined magnitude due to the movement of the light emitting means, the value is kept constant. When the light emitting means moves and exceeds a predetermined z coordinate value, the second The brightness is reduced again as it approaches the boundary between the area and the first area, and the brightness in the small window is made the same as the brightness of the corresponding partial image on the screen in a predetermined area before and after the boundary including the boundary. The image displayed on the screen can be seen as it is, and after the light emitting means moves to the first area through the boundary between the second area and the first area, Before the hue of The hue is changed to a hue different from that of the second area, and the brightness is rapidly increased as the light emitting means moves away from the boundary between the second area and the first area and approaches the screen, and the hue in the small window is apparent. It can be made to appeal to the vision of the instruction input person.
[0028]
Thereby, the attributes (hue, lightness, saturation, etc.) of the small window change according to the z coordinate value of the light emitting means, but the state where the image on the screen can be seen in the small window is maintained.
[0029]
Specifically, when the light emitting means moves from the third area toward the second area, the brightness of the small window is continuously and rapidly increased according to the movement of the light emitting means. Thus, the instruction input person can recognize that the light emitting means is moving toward the second area.
[0030]
Furthermore, the execution means maintains the lightness value constant when the lightness reaches a predetermined level due to the movement of the light emitting means. Thus, the instruction input person can recognize that the second area is moving.
[0031]
Further, when the light emitting means moves and exceeds a predetermined z coordinate value, the executing means decreases the brightness again as it approaches the boundary between the second area and the first area. Thus, the instruction input person can recognize that the light emitting means is approaching the first area.
[0032]
Further, the execution means makes the brightness in the small window the same as the brightness of the corresponding partial image on the screen when the light emitting means is in a predetermined area before and after the boundary including the boundary between the second area and the first area. To make the image displayed on the screen visible. Thus, the instruction input person can recognize that the light emitting means is located near the boundary.
[0033]
Further, the execution means changes the hue in the small window to a hue different from the second area after the light emitting means moves to the first area through the boundary between the second area and the first area. . Thereby, the instruction input person can recognize that the light emitting means has moved from the second area to the first area.
[0034]
Further, the execution means rapidly increases the brightness as the light emitting means moves away from the boundary between the second area and the first area and approaches the screen so that the hue in the small window becomes clear. Thus, the instruction input person can recognize that the light emitting means is moving in the first area.
[0035]
The execution means of the present invention can change the uneven state of the image displayed in the small window according to the z coordinate value of the light emitting means. In addition, the execution means of the present invention can change the size or / and shape of the small window according to the z coordinate value of the light emitting means.
[0036]
Note that the size of the small window is at least locally when exceeding the boundary area, and if the light emitting means such as an LED is not moving when the area having the same attribute is moving, the distance is further increased. A feeling becomes easy to recognize.
[0037]
Thereby, the instruction input person can recognize the position of the light emitting means in the z-axis direction.
[0038]
In the present invention, the outline color of the small window can be arbitrarily set. The execution means takes the exclusive OR of the arbitrarily set outline color of the small window and the color of the border area of the small window in the image displayed on the screen. The outline color can also be determined.
[0039]
As a result, even if the set outline color of the small window is the same as the color of the border area of the small window in the image displayed on the screen, the outline is displayed in a color different from that color. Therefore, it is possible to prevent the instruction input person from losing sight of the small window.
[0040]
Note that the execution means of the present invention is not limited to feedback by a small window, and as the feedback, when the light emitting means passes through each of the boundaries, the execution means appeals to the hearing of the instruction input person using sound. You can also
[0041]
Thereby, like the feedback by the small window, the instruction input person can recognize the position of the light emitting means in the z-axis direction.
[0042]
The execution means of the present invention executes a selection function in a two-dimensional mouse when the light emitting means passes the boundary between the first area and the second area from the second area side. Can do. Further, the execution means performs a selection function in a two-dimensional mouse when the light emitting means passes through the boundary between the first area and the second area in one direction once within a predetermined time. You may make it perform. The execution means executes a selection function in a two-dimensional mouse when the light emission means passes through another boundary defined in the second region in one direction once within a predetermined time. You may do it.
[0043]
The execution means of the present invention, when the light-emitting means passes through the boundary between the first area and the second area once in a predetermined time and then in the opposite direction, A click function in a two-dimensional mouse can be executed.
[0044]
Further, the execution means of the present invention is characterized in that when the light emitting means passes through the boundary between the first area and the second area in the same direction twice within a predetermined time, a double click in a two-dimensional mouse is performed. Can perform the functions.
[0045]
Further, in the present invention, the first area is divided into an area close to the screen and an area close to the second area, and the execution means includes the light emitting means that defines the boundary between the two areas. When passing in one direction, the drag function in the two-dimensional mouse can be executed, and when passing through the boundary in the reverse direction, the drop function in the two-dimensional mouse can be executed.
[0046]
As described above, the two-dimensional mouse functions such as selection, click, double-click, and drag-and-drop are executed according to the way of passing through each boundary of the light emitting means, so that it is not necessary to use a mechanical mechanism. .
[0047]
Further, the execution means of the present invention is such that when the light emitting means passes through a predetermined area close to the first area in the second area, the instruction input person inputs an instruction x The position on the -y plane can be maintained at the position on the xy plane of the light emitting means at the time when the predetermined area is entered.
[0048]
As a result, the position on the xy plane that is designated and input by the instruction input person when passing through a predetermined area close to the first area in the second area is fixed. A two-dimensional mouse function such as selecting an object such as an icon or clicking an object can be executed.
[0049]
In the present invention, the predetermined time may be changeable. Thereby, the usability of the instruction input person can be improved.
[0050]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0051]
FIG. 1 is a block diagram showing a configuration and data flow of a three-dimensional instruction input device according to an embodiment of the present invention. As shown in the figure, the three-dimensional instruction input device is a 3D measurement that measures a three-dimensional position of the LED 10 by receiving a light emitting body (LED) 10 mounted on a user's finger or hand and receiving light from the LED 10. Click, double-click, and drag and drop commands (referred to as mouse commands) are generated from the locus of the z-coordinate value among the coordinate values indicating the three-dimensional position measured by the device 12 and the 3D measuring device 12. And a 3D mouse command generation device 14 for outputting to the personal computer 22 together with the xy coordinate values. Further, the personal computer 22 includes a mouse driver 16 for inputting a mouse command together with an xy coordinate value from the 3D mouse command generation device 14, an image driver 20 for performing image processing, and a command input to the mouse driver 16. Based on this, an OS 18 that performs processing related to instruction input by starting the image driver 20 as necessary is stored.
[0052]
Here, the xy coordinate value is a coordinate value when a plane substantially matching the screen of the personal computer 22 (see FIG. 2) is the xy plane, and the z coordinate value is perpendicular to the xy plane. It is a coordinate value in the z-axis direction.
[0053]
Note that the hardware of the above-described three-dimensional instruction input device is configured using the position detection technique described in Japanese Patent Laid-Open No. 10-9812. Of course, any device capable of measuring a three-dimensional position may be used. However, according to the method described in Japanese Patent Laid-Open No. 10-9812, it can be realized at a relatively low cost.
[0054]
FIG. 2 is a view of the personal computer 22 as viewed from the side. The screen of the personal computer 22 is indicated by M. Of the three-dimensional space extending in front of the screen M of the personal computer 22, the layer closest to the screen M is a fully pressed lower layer, and the next closest layer is a fully pressed upper layer, and is collectively referred to as a fully pressed layer (first layer). The boundary between the two is called boundary B. Further, the two layers on the front side are referred to as a half-pressed layer (second layer), and are called a half-pressed lower layer and a half-pressed upper layer from the side closer to the screen M, respectively. The boundary between the two is called boundary A. The boundary between the half-push layer and the full-push layer is called a boundary K. The layer closest to the user, that is, the layer farthest from the screen M is referred to as a free layer (third layer). The boundary between the free layer and the half-push layer is called a boundary F.
[0055]
The free layer is a layer in which no action is taken only by moving the cursor in response to the movement no matter how the LED 10 is moved. This corresponds to a state in which the mouse is moved without a mouse click in the two-dimensional mouse.
[0056]
When the LED 10 is in the layer before the half-pressed layer (half-pressed upper layer), there is a change in the attribute of the extended cursor described later, and the user is selecting an object. When the LED 10 moves to the screen side of the half-pressed layer (half-pressed lower layer), the xy coordinate value of the cursor is fixed to the value when the boundary A is passed.
[0057]
Mouse commands are generated by the way the LED 10 passes between the half-push layer and the full-push layer.
[0058]
Here, the extended cursor will be described. In the present embodiment, unlike the conventional cursor, the extended cursor surrounds a small area including a point indicated by the conventional cursor on the desktop of the personal computer 22 (hereinafter referred to as a cursor point) with an arc or the like, It is displayed again as a small window. As shown in FIGS. 3A and 3B, a circular interior centered on the cursor point 30 is displayed in a small window (expanded cursor) 32. The conventional cursor 34 is displayed so as to overlap the inside of the extended cursor 32, particularly in the center.
[0059]
Note that FIG. 3A shows a state in which the expansion cursor 32 indicates the center portion of the two columns on the right side, and it can be seen that the desktop icon is somewhat enlarged.
[0060]
FIG. 3B shows the state of the extended cursor 32 on the screen when the LED 10 approaches the boundary K. As shown in the figure, the radius of the expansion cursor 32 is the smallest, and the image in the circle is the same as the background, that is, the enlargement ratio is 1.
[0061]
As described above, the extended cursor 32 changes from an enlarged state so that the camera is focused to the actual size or the radius becomes smaller as the LED 10 approaches the boundary K from the outside in the half-pressed layer. The focus metaphor is reminiscent of the fact that the aperture is reduced.
[0062]
The extended cursor 32 is displayed by the OS using the image driver 20. The conventional cursor 34 is displayed so that the OS overlaps the extended cursor 32 using the mouse driver 16.
[0063]
Next, a process flow of the three-dimensional instruction input device when a mouse command is generated will be described.
[0064]
As shown in FIG. 1, when the LED 10 is in front of the 3D measurement device 12, the position is measured by the 3D measurement device 12. Here, what is necessary for generating the mouse command is the z coordinate value of the LED 10. The z-coordinate value is measured by the distance from the 3D measuring device 12. If the position of the screen M of the personal computer 22 and the position of the 3D measuring device 12 coincide with each other, this distance is the distance from the screen M. As indicated by the arrow in FIG. 1, the direction extending forward is the positive direction of the z coordinate value.
[0065]
As the user moves the hand, the position of the LED 10 attached to the hand changes accordingly, and the three-dimensional coordinate value including the z coordinate value is sent to the 3D mouse command generation device 14 through the 3D measurement device 12.
[0066]
The 3D mouse command generation device 14 checks in what form each boundary region in front of the screen M has passed within a certain time from the time series of the z coordinate values. This time can be arbitrarily set by the user. In the 3D mouse command generation device 14, it is interpreted as three important commands of click, double click, and drag depending on the manner. The signal of the interpreted command is sent to the mouse driver 16 of the personal computer 22. At this point, the mouse driver 16 can receive the same data type whether it is a two-dimensional mouse or a three-dimensional mouse. Accordingly, the processing on the personal computer 22 side thereafter. In the present embodiment, since the extended cursor 32 is represented by a small window, the OS activates the image driver 20 or the like that processes the image as necessary, and is shown in FIGS. 3A and 3B. As described above, the extended cursor 32 is displayed on the screen M of the personal computer 22. The mouse driver 16 is also activated at the same time. The OS causes the mouse driver 16 to overlay the conventional cursor 34 on the image of the extended cursor 32 and display it on the screen M.
[0067]
The image inside the extended cursor 32 is not different from the original image when the LED 10 is in the free layer, and is enlarged when the LED 10 enters the half-pressed layer (the size of the extended cursor itself and the image displayed internally). Further, the magnification of the enlarged image becomes 1 as the LED 10 moves from the half-pressed layer to the fully-pressed layer, that is, toward the boundary K. In particular, the magnification is set to 1 even if the z coordinate value of the LED 10 slightly moves within a predetermined distance immediately before the boundary K. This is a reproduction of the half-pressed state of the shutter of the camera, and it is also expressed that the hardness of the shutter increases immediately before the shutter is lowered and there is no change.
[0068]
Hereinafter, the correspondence between the movement of the LED 10 and the generated mouse command will be described in detail with reference to FIG.
[0069]
FIG. 4 is a view of the personal computer 22 as viewed from above. Moreover, the thick solid line and dotted line which are shown in the figure have shown the locus | trajectory corresponding to the motion of LED10. The thick solid line indicates that the xy coordinate value of the cursor point 30 is fixed (locked), and the xy coordinate value is not fixed (unlocked) in the dotted line portion. Is shown.
[0070]
When the LED 10 enters the half-pressed lower layer from the upper half-pressed layer over the boundary A, the xy coordinate value of the cursor point 30 is locked at the value at the time of passing the boundary A. At this time, if an object is designated, if the LED passes K later, the object is selected regardless of the xy coordinate value of the passing point at the time of passage. That is, after the LED 10 moves and passes through the boundary K and does not reach the boundary B, and again passes through the boundary K in the reverse direction and returns to the upper half-press, the “click” command is sent to the mouse of the personal computer 22. It is sent to the driver 16 (trajectory 40).
[0071]
Further, after the LED 10 enters the lower half-pressed layer from the upper half-pressed layer over the boundary A, the LED 10 does not return to the upper half-pressed layer, passes the boundary K again, but does not reach the boundary B, and reverses the boundary K again. When returning in the direction, a “double click” command is sent to the personal computer 22. (Track 42).
[0072]
Further, when the LED 10 passes through the boundary A and the boundary K from the upper half-pressed layer and passes the next boundary B, it enters an area where dragging is possible (full pressed lower layer). At this time, the lock of the xy coordinate value of the cursor point 30 is released, and the object pointed to by the cursor point 30 in the fully pressed lower layer is dragged according to the movement of the xy coordinate of the LED 10. That is, a “drag” command is sent to the personal computer 22. When the LED 10 again passes through the boundary B in the opposite direction from the fully pressed lower layer, passes further through the boundary K, and returns to the half pressed layer, the xy coordinate value is locked at that time, and the object is dropped. That is, a “drop” command is sent to the personal computer 22 (trajectory 44).
[0073]
The correspondence between the lock state of the xy coordinate values and each boundary will be described in detail. Basically, the xy coordinate value is locked in any case when the LED 10 crosses the boundary A from the half-pressed upper layer to the half-pressed lower layer. In addition, the lock is released when it passes through the boundary A in the reverse direction in the case of a click, and when the boundary K is returned to the reverse direction for the second time in the case of a double click. Further, when the LED 10 enters the fully pressed lower layer beyond the boundary B, the xy coordinate is unlocked. This is because it is in a draggable area. After the object is moved by dragging, when the LED 10 returns to the uppermost full press again, it is locked again. This is a convenience for removing the object from the cursor. When the LED 10 returns to the half-push layer beyond the boundary K, the lock is released again. At this point in time, the LED 10 has not returned to the upper half-pressed layer, so that no object is selected.
[0074]
In FIG. 4, the locus of the LED 10 at the time of clicking and double-clicking appears to move in the x or y coordinate values, but these are exaggerated expressions, and are actually in almost the same position. In the solid line portion, the value for the mouse driver 16 of the personal computer 22 is a constant value.
[0075]
As described above, the space extending in front of the screen is divided into three areas, and the LED 10 worn by the user passes through the boundary of each area by an extended cursor (focal metaphor) that appeals to the user's vision. If the boundary between the half-push layer and the full-push layer is reciprocated once in a certain time while recognizing it, the click operation of the two-dimensional mouse is executed, and if it is reciprocated twice in a certain time, If a double-click operation of the two-dimensional mouse is executed and the half-pressed layer does not return to the half-pressed layer for a certain period of time even after moving from the half-pressed layer, an object such as an icon indicated by the cursor is dragged and When the object returns to the half-pressed layer, the dragged object is dropped, so that the basic mouse operations such as click, double-click, and drag are mechanical. Mechanisms can be performed by LED10 movement in the air without using the (three-dimensional coordinate value).
[0076]
In the above-described embodiment, the example in which the user recognizes that the LED 10 has passed the boundary in the three-dimensional space using the extended cursor 32 has been described. For example, a sound unique to the LED 10 passes through each boundary. It is also possible to generate an operation to help the operation. Furthermore, the maximum enlargement ratio in each layer, color information such as hue, and the size (radius, etc.) of the extended cursor 32 can be freely changed by the user according to his / her preference and usability.
[0077]
FIG. 5 is a diagram illustrating an example of changes in brightness and hue of the extended cursor 32 according to the z coordinate position of the LED 10. As shown in the figure, the hue changes from green to red at the boundary K. That is, when the user moves the LED 10 before and after the boundary K, the color changes, and the user's awareness of where the boundary is is increased. Further, the brightness is changed in the half-pressed layer (left side of the boundary K in FIG. 5) and the fully pressed layer (right side of the boundary K in FIG. 5). In particular, in the half-push layer, the magnification rate of the image captured by the extended cursor toward the boundary K is brought close to 1, and the color is brought closer to the hue of the image captured by the expanded cursor so that the focus is clearly visible. It is also possible to construct a metaphor.
[0078]
In addition, the boundaries and layers in the above-described embodiment are examples, and it is possible to delete the boundaries and combine the two layers. In this case, it is possible to set the same layer-dependent attributes for adjacent layers. Also, the user can freely set the z coordinate value that defines the boundary. Furthermore, by interpreting the meaning of each layer separately, for example, as an extreme example, it is possible to reverse the half-push layer and the full-push layer. In this case as well, in order to activate the mouse command, it is only necessary to determine which boundary the LED 10 has passed and how.
[0079]
Note that at least one of the hue, saturation, and brightness of the image displayed on the extended cursor can be changed according to the z coordinate value of the LED 10. Further, the uneven state of the image displayed on the extended cursor can be changed according to the z coordinate value of the LED 10. Furthermore, you may make it change the magnitude | size and shape of an extended cursor according to the z coordinate value of LED10.
[0080]
In addition, the color of the outline of the extended cursor may be arbitrarily set by the user. Furthermore, the color of the extended cursor outline may be determined by taking the exclusive OR of the arbitrarily set color of the extended cursor outline and the color of the extended cursor boundary in the image displayed on the screen. Good. As a result, when the color of the outline set in advance for the extended cursor is the same as the color occupied by the extended cursor outline in the image displayed on the screen, the color of the extended cursor outline is made different. The extended cursor is clearly visible.
[0081]
The user can also set the maximum allowable time until each operation is completed, but the click interval time required for identifying the click operation by the aerial operation can be longer than the set value of the two-dimensional mouse. preferable. Specifically, the double click exceeds 0.5 seconds that can be set by the basic software OS, and about 1.9 seconds is experimentally appropriate at present.
[0082]
【The invention's effect】
The three-dimensional instruction input device according to the present invention provides each of a plurality of divided regions on the three-dimensional space spreading on the front surface of the screen by feedback (change in focus metaphor, hue, etc.) appealing to at least one of the five senses. Two-dimensional mouse functions such as click, double-click, drag, etc., depending on how the light-emitting means pass through the boundary of each region of the light-emitting means without using a mechanical mechanism, allowing the user to recognize the passing state of the light-emitting means with respect to the boundary There is an effect that can be executed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration and data flow of a three-dimensional instruction input device according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating space division when a personal computer is viewed from the side.
FIG. 3A is a diagram showing a state in which the extended cursor indicates the center part of the two right-side icons toward the right side, and FIG. It is a figure showing the state of the extended cursor on a screen when approaching.
FIG. 4 is a diagram illustrating space division and movement of LEDs in space when a personal computer is viewed from above.
FIG. 5 is a diagram illustrating an example of changes in hue and brightness of an image in an extended cursor displayed on the screen.
[Explanation of symbols]
10 LED
12 3D measuring device
14 3D mouse command generator
16 Mouse driver
18 OS
20 Image driver
22 PC
32 Extended cursor

Claims (16)

指示入力者の手または指に装着可能な発光手段と、
前記発光手段から発光された光を受光すると共に、前記発光手段の3次元位置を前記受光した光から計測する計測手段と、
所定の情報を表示する画面に略一致する平面をx−y平面とし、前記画面の前面の空間を、該x−y平面に対して垂直なz軸方向に前記画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉え、前記計測手段により得られる前記発光手段の3次元位置のz座標値から前記3つの領域を分割する各境界に対する前記発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ前記指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにして、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する実行手段であって、前記指示入力者の視覚に訴えるフィードバックとして、前記画面に前記発光手段のx−y平面上の位置に小ウィンドウを表示させ、該小ウィンドウ内には、前記画面に表示される画像のうち、前記発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させ、前記発光手段のz座標値に応じて前記小ウィンドウ内に表示する画像の拡大率を変化させると共に前記小ウィンドウ内に表示される画像の色相、彩度、明度の少なくともいずれか1つを変化させる実行手段と、
を含む3次元指示入力装置。
A light emitting means that can be worn on the hand or finger of the instruction input person;
Measuring means for receiving light emitted from the light emitting means and measuring a three-dimensional position of the light emitting means from the received light;
A plane that substantially coincides with the screen displaying the predetermined information is defined as an xy plane, and a space on the front surface of the screen is a first area in order from the screen in the z-axis direction perpendicular to the xy plane. The light emission for each boundary that divides the three areas from the z coordinate value of the three-dimensional position of the light emitting means obtained by the measuring means, divided into three areas, the second area and the third area. Select, click, double-click, drag and drop to determine how to pass the means, and depending on the way of passing, and so that feedback is applied to at least one of the five senses of the instruction input person a means for executing the function of the two-dimensional mice containing, as feedback visually appealing of the instruction input person, a small window at a position on the x-y plane of said light emitting means to said screen In the small window, among the images displayed on the screen, an image of a predetermined area including a position on the xy plane of the light emitting means is enlarged and displayed, and z of the light emitting means is displayed. Execution means for changing an enlargement ratio of an image displayed in the small window according to a coordinate value and changing at least one of hue, saturation, and brightness of the image displayed in the small window ;
A three-dimensional instruction input device.
指示入力者の手または指に装着可能な発光手段と、
前記発光手段から発光された光を受光すると共に、前記発光手段の3次元位置を前記受光した光から計測する計測手段と、
所定の情報を表示する画面に略一致する平面をx−y平面とし、前記画面の前面の空間を、該x−y平面に対して垂直なz軸方向に前記画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉え、前記計測手段により得られる前記発光手段の3次元位置のz座標値から前記3つの領域を分割する各境界に対する前記発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ前記指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにして、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する実行手段であって、前記指示入力者の視覚に訴えるフィードバックとして、前記画面に前記発光手段のx−y平面上の位置に小ウィンドウを表示させ、該小ウィンドウ内には、前記画面に表示される画像のうち、前記発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させ、前記発光手段のz座標値に応じて前記小ウィンドウ内に表示する画像の拡大率を変化させると共に前記小ウィンドウ内に表示される画像の凹凸状態を変化させる実行手段と、
を含む3次元指示入力装置。
A light emitting means that can be worn on the hand or finger of the instruction input person;
Measuring means for receiving light emitted from the light emitting means and measuring a three-dimensional position of the light emitting means from the received light;
A plane that substantially coincides with the screen displaying the predetermined information is defined as an xy plane, and a space on the front surface of the screen is a first area in order from the screen in the z-axis direction perpendicular to the xy plane. The light emission for each boundary that divides the three areas from the z coordinate value of the three-dimensional position of the light emitting means obtained by the measuring means, divided into three areas, the second area and the third area. Select, click, double-click, drag and drop to determine how to pass the means, and depending on the way of passing, and so that feedback is applied to at least one of the five senses of the instruction input person a means for executing the function of the two-dimensional mice containing, as feedback visually appealing of the instruction input person, a small window at a position on the x-y plane of said light emitting means to said screen In the small window, among the images displayed on the screen, an image of a predetermined area including a position on the xy plane of the light emitting means is enlarged and displayed, and z of the light emitting means is displayed. Execution means for changing an enlargement ratio of an image displayed in the small window according to a coordinate value and changing an uneven state of the image displayed in the small window ;
A three-dimensional instruction input device.
指示入力者の手または指に装着可能な発光手段と、
前記発光手段から発光された光を受光すると共に、前記発光手段の3次元位置を前記受光した光から計測する計測手段と、
所定の情報を表示する画面に略一致する平面をx−y平面とし、前記画面の前面の空間を、該x−y平面に対して垂直なz軸方向に前記画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉え、前記計測手段により得られる前記発光手段の3次元位置のz座標値から前記3つの領域を分割する各境界に対する前記発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ前記指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにして、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する実行手段であって、前記指示入力者の視覚に訴えるフィードバックとして、前記画面に前記発光手段のx−y平面上の位置に小ウィンドウを表示させ、該小ウィンドウ内には、前記画面に表示される画像のうち、前記発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させ、前記発光手段のz座標値に応じて前記小ウィンドウ内に表示する画像の拡大率を変化させると共に前記小ウィンドウの大きさまたは/および形状を変化させる実行手段と、
を含む3次元指示入力装置。
A light emitting means that can be worn on the hand or finger of the instruction input person;
Measuring means for receiving light emitted from the light emitting means and measuring a three-dimensional position of the light emitting means from the received light;
A plane that substantially coincides with the screen displaying the predetermined information is defined as an xy plane, and a space on the front surface of the screen is a first area in order from the screen in the z-axis direction perpendicular to the xy plane. The light emission for each boundary that divides the three areas from the z coordinate value of the three-dimensional position of the light emitting means obtained by the measuring means, divided into three areas, the second area and the third area. Select, click, double-click, drag and drop to determine how to pass the means, and depending on the way of passing, and so that feedback is applied to at least one of the five senses of the instruction input person a means for executing the function of the two-dimensional mice containing, as feedback visually appealing of the instruction input person, a small window at a position on the x-y plane of said light emitting means to said screen In the small window, among the images displayed on the screen, an image of a predetermined area including a position on the xy plane of the light emitting means is enlarged and displayed, and z of the light emitting means is displayed. Execution means for changing an enlargement ratio of an image to be displayed in the small window according to a coordinate value and changing a size or / and a shape of the small window ;
A three-dimensional instruction input device.
前記実行手段は、前記発光手段が前記第3の領域から前記第2の領域に向かって移動する場合には、前記発光手段の移動に従って前記小ウィンドウ内の明度を連続的に急激に大きくし、前記発光手段の移動により明度が所定の大きさとなった時点でその値を一定に維持し、前記発光手段が移動して所定のz座標値を越えたときには、前記第2の領域と前記第1の領域との境界に近づくに従って明度を再び小さくし、該境界を含む該境界前後の所定の領域では前記小ウィンドウ内の明度を前記画面の対応する部分画像の明度と同じにして前記画面に表示される画像がそのまま見えるようにし、前記発光手段が前記第2の領域と前記第1の領域の境界を通過して前記第1の領域に移動した後には、前記小ウィンドウ内の色相を前記第2の領域とは異なる色相に変え、前記発光手段が前記第2の領域と前記第1の領域の境界から離れて前記画面に近づくに従って急激に明度を上げ、前記小ウィンドウ内の色相が明らかになるようにして前記指示入力者の視覚に訴える請求項1記載の3次元指示入力装置。When the light emitting means moves from the third area toward the second area, the execution means increases the brightness in the small window continuously and rapidly according to the movement of the light emitting means, The value is kept constant when the brightness reaches a predetermined level due to the movement of the light emitting means, and when the light emitting means moves and exceeds a predetermined z coordinate value, the second region and the first The brightness is reduced again as it approaches the boundary with the area, and the brightness in the small window is displayed on the screen so that the brightness in the small window is the same as the brightness of the corresponding partial image on the screen in the predetermined area including the boundary. After the light emitting means moves to the first area through the boundary between the second area and the first area, the hue in the small window is changed to the first image. What is area 2? The light emitting means abruptly increases brightness as it approaches the screen away from the boundary between the second region and the first region, and the hue in the small window becomes clear. The three-dimensional instruction input device according to claim 1, which appeals to the visual sense of the instruction input person. 前記実行手段は、前記発光手段が前記第2の領域側から前記第1の領域と前記第2の領域との境界に接近する場合に、該境界に接近するに従って前記拡大率を低減させ、該境界の通過時には前記拡大率が1となるようにして該境界を指示入力者に認知させる請求項1〜請求項4のいずれか1項記載の3次元指示入力装置。When the light emitting means approaches the boundary between the first area and the second area from the second area side, the execution means reduces the magnification rate as the boundary approaches the boundary. The three-dimensional instruction input device according to any one of claims 1 to 4, wherein an instruction input person is made to recognize the boundary such that the enlargement ratio is 1 when the boundary passes. 前記小ウィンドウの輪郭の色を任意に設定可能にした請求項1〜請求項5のいずれか1項記載の3次元指示入力装置。The three-dimensional instruction input device according to any one of claims 1 to 5 , wherein an outline color of the small window can be arbitrarily set. 前記実行手段は、前記任意に設定された前記小ウィンドウの輪郭の色と、前記画面に表示される画像における前記小ウィンドウの境界域の色との排他的論理和をとって前記小ウィンドウの輪郭の色を定める請求項記載の3次元指示入力装置。The execution means obtains an exclusive OR of the arbitrarily set outline color of the small window and the border color of the small window in the image displayed on the screen. The three-dimensional instruction input device according to claim 6 , wherein the color is defined. 前記実行手段は、前記フィードバックとして、前記発光手段が前記各境界を通過する際に、音を用いて前記指示入力者の聴覚に訴える請求項1〜請求項7のいずれか1項記載の3次元指示入力装置。The three-dimensional according to any one of claims 1 to 7 , wherein the execution means appeals to the hearing of the instruction input person using sound as the feedback when the light-emitting means passes through the boundaries. Instruction input device. 前記実行手段は、前記発光手段が前記第2の領域側から前記第1の領域と前記第2の領域との境界を通過したときに、2次元マウスにおける選択の機能を実行する請求項1〜請求項8のいずれか1項記載の3次元指示入力装置。The execution means executes a selection function in a two-dimensional mouse when the light emitting means passes through a boundary between the first area and the second area from the second area side . The three-dimensional instruction input device according to claim 8 . 前記実行手段は、前記発光手段が前記第2の領域内に定義されている別の境界を所定の時間内に1回一方向に通過したときに、2次元マウスにおけるの選択の機能を実行する請求項1〜請求項8のいずれか1項記載の3次元指示入力装置。The execution means executes a selection function in a two-dimensional mouse when the light emission means passes through another boundary defined in the second region in one direction once within a predetermined time. The three-dimensional instruction input device according to any one of claims 1 to 8 . 前記実行手段は、前記第2の領域を、前記第1の領域に近い領域と前記第3の領域に近い領域とに分割して捉え、前記発光手段が該2つの領域の境界を所定の時間内に1回一方向に通過したときに、2次元マウスにおけるの選択の機能を実行する請求項1〜請求項8のいずれか1項記載の3次元指示入力装置。The execution means captures the second area by dividing it into an area close to the first area and an area close to the third area, and the light emitting means determines the boundary between the two areas for a predetermined time. The three-dimensional instruction input device according to any one of claims 1 to 8 , wherein a function of selection in a two-dimensional mouse is executed when it passes once in one direction. 前記実行手段は、前記発光手段が、前記第1の領域と前記第2の領域との境界を所定の時間内に1回一方向に通過した後、逆方向に通過したときに、2次元マウスにおけるクリックの機能を実行する請求項1〜請求項8のいずれか1項記載の3次元指示入力装置。The execution means is a two-dimensional mouse when the light emitting means passes through the boundary between the first area and the second area once in a predetermined time and then in the opposite direction. The three-dimensional instruction input device according to any one of claims 1 to 8 , wherein a click function is executed. 前記実行手段は、前記発光手段が前記第1の領域と前記第2の領域との境界を所定の時間内に2回同方向に通過したときに、2次元マウスにおけるダブルクリックの機能を実行する請求項1〜請求項8のいずれか1項記載の3次元指示入力装置。The execution means executes a double-click function in a two-dimensional mouse when the light emitting means passes through the boundary between the first area and the second area in the same direction twice within a predetermined time. The three-dimensional instruction input device according to any one of claims 1 to 8 . 前記第1の領域は、前記画面に近い領域と前記第2の領域に近い領域とに分割されており、
前記実行手段は、前記発光手段が該2つの領域の境界を一方向に通過したときに、2次元マウスにおけるドラッグの機能を実行し、該境界を逆方向に通過したときに、2次元マウスにおけるドロップの機能を実行する請求項9〜請求項11のいずれか1項記載の3次元指示入力装置。
The first area is divided into an area close to the screen and an area close to the second area,
The execution means executes a drag function in the two-dimensional mouse when the light-emitting means passes through the boundary between the two regions in one direction, and executes the drag function in the two-dimensional mouse when the light-emitting means passes in the opposite direction. The three-dimensional instruction input device according to any one of claims 9 to 11 , which executes a drop function.
前記実行手段は、前記発光手段が前記第2の領域のうち前記第1の領域に近い所定の領域内を通過しているときは、前記指示入力者により指示入力されるx−y平面上の位置を該所定の領域に入った時点の前記発光手段のx−y平面上の位置に維持する請求項1〜請求項14のいずれか1項記載の3次元指示入力装置。When the light emitting means passes through a predetermined area close to the first area of the second area, the execution means is on the xy plane that is input by the instruction input person. The three-dimensional instruction input device according to any one of claims 1 to 14 , wherein the position is maintained at a position on an xy plane of the light emitting means at the time when the predetermined area is entered. 前記所定の時間を変更可能にした請求項10〜請求項13のいずれか1項記載の3次元指示入力装置。The three-dimensional instruction input device according to any one of claims 10 to 13 , wherein the predetermined time can be changed.
JP2003096366A 2003-03-31 2003-03-31 3D instruction input device Expired - Fee Related JP4172307B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003096366A JP4172307B2 (en) 2003-03-31 2003-03-31 3D instruction input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003096366A JP4172307B2 (en) 2003-03-31 2003-03-31 3D instruction input device

Publications (2)

Publication Number Publication Date
JP2004303000A JP2004303000A (en) 2004-10-28
JP4172307B2 true JP4172307B2 (en) 2008-10-29

Family

ID=33408459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003096366A Expired - Fee Related JP4172307B2 (en) 2003-03-31 2003-03-31 3D instruction input device

Country Status (1)

Country Link
JP (1) JP4172307B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9207778B2 (en) 2010-12-30 2015-12-08 Samsung Electronics Co., Ltd. Apparatus and method for sensing high precision signal using infrared light

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4438351B2 (en) * 2003-08-22 2010-03-24 富士ゼロックス株式会社 Instruction input device, instruction input system, instruction input method, and program
JP4622792B2 (en) * 2005-10-07 2011-02-02 ソニー株式会社 Remote operation system, remote operation device, information processing device, remote operation method, information processing method, and computer program
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US7847787B1 (en) * 2005-11-12 2010-12-07 Navisense Method and system for directing a control action
DE102006037156A1 (en) * 2006-03-22 2007-09-27 Volkswagen Ag Interactive operating device and method for operating the interactive operating device
ITTO20060861A1 (en) * 2006-12-04 2008-06-05 St Microelectronics Srl SENSOR DEVICE EQUIPPED WITH A CIRCUIT FOR DETECTING SINGLE OR MULTIPLE EVENTS FOR THE GENERATION OF CORRESPONDING SIGNALS OF INTERRUPTION
JP2009116769A (en) * 2007-11-09 2009-05-28 Sony Corp Input device, control method for input device and program
US8296670B2 (en) * 2008-05-19 2012-10-23 Microsoft Corporation Accessing a menu utilizing a drag-operation
US20100149100A1 (en) * 2008-12-15 2010-06-17 Sony Ericsson Mobile Communications Ab Electronic Devices, Systems, Methods and Computer Program Products for Detecting a User Input Device Having an Optical Marker Thereon
JP6232694B2 (en) * 2012-10-15 2017-11-22 キヤノンマーケティングジャパン株式会社 Information processing apparatus, control method thereof, and program
JP5862587B2 (en) 2013-03-25 2016-02-16 コニカミノルタ株式会社 Gesture discrimination device, gesture discrimination method, and computer program
JP2014219938A (en) * 2013-05-10 2014-11-20 株式会社ゲッシュ Input assistance device, input assistance method, and program
JP6190313B2 (en) * 2014-04-23 2017-08-30 カシオ計算機株式会社 Information processing apparatus and program
JP6131982B2 (en) * 2015-04-06 2017-05-24 コニカミノルタ株式会社 Gesture discrimination device
CN107787497B (en) * 2015-06-10 2021-06-22 维塔驰有限公司 Method and apparatus for detecting gestures in a user-based spatial coordinate system
JP6892142B2 (en) * 2015-10-14 2021-06-23 マクセル株式会社 Method of operation
CN105468176A (en) * 2015-11-20 2016-04-06 小米科技有限责任公司 Air mouse remote control optimization method and device as well as air mouse remote control
CN111857366B (en) * 2020-06-15 2024-03-19 歌尔科技有限公司 Method and device for determining double-click action of earphone and earphone
JP2024162833A (en) * 2023-05-11 2024-11-21 株式会社ステラリンク Non-contact input device and input support application

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62165687A (en) * 1986-01-17 1987-07-22 富士通株式会社 Cursor display system
JPH05329155A (en) * 1992-05-29 1993-12-14 Toshiba Corp Ultrasonic diagnostic system
JPH0612177A (en) * 1992-06-29 1994-01-21 Canon Inc Information input method and device
JPH06301477A (en) * 1993-04-16 1994-10-28 Kyoto Densoku Kk Input device for pointed position of three-dimensional space
JPH0816137A (en) * 1994-06-29 1996-01-19 Nec Corp Three-dimensional coordinate input device and cursor display control system
JP3784031B2 (en) * 1996-03-18 2006-06-07 富士通株式会社 Reaction area expansion apparatus and method for expanding an area that responds to a selection operation on a display screen
JPH1185453A (en) * 1997-09-08 1999-03-30 Meidensha Corp Window display processing method
JP2000056917A (en) * 1998-08-11 2000-02-25 Nippon Telegr & Teleph Corp <Ntt> 3D coordinate pointing device
JP3936520B2 (en) * 2000-06-13 2007-06-27 株式会社バンダイナムコゲームス Information providing system and information storage medium for game

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9207778B2 (en) 2010-12-30 2015-12-08 Samsung Electronics Co., Ltd. Apparatus and method for sensing high precision signal using infrared light
US9568306B2 (en) 2010-12-30 2017-02-14 Samsung Electronics Co., Ltd. Apparatus and method for sensing high precision signal using infrared light

Also Published As

Publication number Publication date
JP2004303000A (en) 2004-10-28

Similar Documents

Publication Publication Date Title
JP4172307B2 (en) 3D instruction input device
US12307580B2 (en) Methods for manipulating objects in an environment
US12271560B2 (en) External user interface for head worn computing
KR102478420B1 (en) The effect of user interface camera
CN111766937B (en) Virtual content interaction method and device, terminal equipment and storage medium
EP2480955B1 (en) Remote control of computer devices
EP2395413B1 (en) Gesture-based human machine interface
TW202105133A (en) Virtual user interface using a peripheral device in artificial reality environments
KR100832355B1 (en) 3d pointing method, 3d display control method, 3d pointing device, 3d display control device, 3d pointing program, and 3d display control program
US20170336872A1 (en) External user interface for head worn computing
US20040227741A1 (en) Instruction inputting device and instruction inputting method
US20170100664A1 (en) External user interface for head worn computing
US20170017323A1 (en) External user interface for head worn computing
US20160027211A1 (en) External user interface for head worn computing
US20170024007A1 (en) External user interface for head worn computing
JP5581817B2 (en) Control system, control device, handheld device, control method and program.
JP2009157908A (en) Information display terminal, information display method, and program
CN102915112A (en) System and method for close-range movement tracking
JP2006209563A (en) Interface device
CN101006414A (en) Electronic device and a method for controlling the functions of the electronic device as well as a program product for implementing the method
JP7505113B2 (en) Wearable terminal device, program, and display method
KR20240048522A (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
JP4438351B2 (en) Instruction input device, instruction input system, instruction input method, and program
WO2022173561A1 (en) Systems, methods, and graphical user interfaces for automatic measurement in augmented reality environments
JP2020071641A (en) Input operation device and user interface system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080722

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080804

R150 Certificate of patent or registration of utility model

Ref document number: 4172307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120822

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120822

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130822

Year of fee payment: 5

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees