JP4172307B2 - 3D instruction input device - Google Patents
3D instruction input device Download PDFInfo
- Publication number
- JP4172307B2 JP4172307B2 JP2003096366A JP2003096366A JP4172307B2 JP 4172307 B2 JP4172307 B2 JP 4172307B2 JP 2003096366 A JP2003096366 A JP 2003096366A JP 2003096366 A JP2003096366 A JP 2003096366A JP 4172307 B2 JP4172307 B2 JP 4172307B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- light emitting
- emitting means
- dimensional
- instruction input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 241000699666 Mus <mouse, genus> Species 0.000 claims description 64
- 230000006870 function Effects 0.000 claims description 28
- 238000013459 approach Methods 0.000 claims description 12
- 241000699670 Mus sp. Species 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 4
- 230000007246 mechanism Effects 0.000 abstract description 6
- 230000008859 change Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 4
- 238000000034 method Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241001070941 Castanea Species 0.000 description 1
- 235000014036 Castanea Nutrition 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、3次元指示入力装置に関し、特に、発光手段の3次元情報に基づいて指示入力する3次元指示入力装置に関するものである。
【0002】
【従来の技術】
パソコン等に対して指示入力するためのデバイスとして、従来より2次元マウスが広く用いられている。2次元マウスはx−y座標値を相対座標値としてパソコンに指示入力する。近年、この2次元マウスを用いて3つ目の座標値を入力する技術が提案されている。
【0003】
例えば、発光体としてLEDを指に装着し、LEDからの光を受光する受光部をパソコンの画面の上部に取付けることにより、容易に3次元マウスが達成される(例えば、特許文献1参照。)。ここで用いられるセンサは、光源のセンサに対する角度を求め、三角測量の原理により光源の3次元位置を求めるものである。LEDは光源としてのパワーをパソコンから受け取り、またマウスの基本動作であるクリックなどのシグナルは有線を通してパソコンの基本ソフトに送られる。即ち、発光体のそばに指で押すことのできるスイッチが装備されている。
【0004】
また、2次元上の2つのボールを回転させることによって、x、y軸方向の移動量を入力できるのみならず、角度や回転角も入力でき、z軸方向に対する入力も可能となるポインティングデバイス(例えば、特許文献2参照。)や、第一の方向に光変換素子を配列した第1の光センサアレイと、第1の方向とは別の第二の方向に光変換素子を配列した第2の光センサアレイとが移動するときに両者の出力変化に応じた信号を生成し、それにより(カーソルなどの)移動量や移動方向を決定する非接触方式の位置検出装置(例えば、特許文献3参照。)が知られている。
【0005】
さらに、指標をCCDカメラで認識してパソコンなどに対するコマンドとして解釈するリモコン装置(例えば、特許文献4参照。)や、電子ペンのなかに指で回転されるロータリースイッチが設けられ、その回転度合いによってグラフィカルパラメター(線分の太さ、色、陰影、グレイスケール)の変化の度合いを決定する座標入力用電子ペン(例えば、特許文献5参照。)や、ユーザの手首に装着されたRFIDの動きをアンテナにより認識させてから、RFIDの動きのパターンを他のデバイスへの入力コマンドとして解釈する。同様にアンテナが一つの場合、RFIDが認識されたりされなかったりする時系列のパターンをコマンドとして解釈する指示入力システム(例えば、特許文献6参照。)が知られている。
【0006】
また、米国Gyration Inc.社のGyromouseは、オートジャイロを内臓しており、空中操作でレーザーの方向を変えることができるポインティングデバイスであるが、重量が比較的大きく、大きさもジャイロのために比較的大きく、また多少高価である。
【0007】
さらに近年、カメラのシャッタ操作における半押しの概念を応用した、パソコンのキーボードで、カメラのシャッタのように強く押さないと文字が入力されないという特性を生かし、キーボードとノートバッドを重ねたデバイスが試作された。
【0008】
【特許文献1】
特開平10−9812号公報
【特許文献2】
特開平5−150900号公報
【特許文献3】
特開平11−24832号公報
【特許文献4】
特開平11−110125号公報
【特許文献5】
特開2000−47805号公報
【特許文献6】
特開2001−306235号公報
【0009】
【発明が解決しようとする課題】
しかしながら、上述した従来の3次元マウスは、クリックなどのシグナルが有線でパソコンの基本ソフトに送られることから明らかなように、2次元マウスと同様の操作性を有している。また、上述した従来のポインティングデバイスや指示入力システム等の他の指示入力デバイスも2次元マウスと同様の操作性を有している。
【0010】
さらに、米国Gyration Inc.社のGyromouse Presenterも、クリック等の操作は通常の2次元マウス同様、指による機械的操作に依存している。また、キーボードとノートバッドを重ねたデバイスでも、カーソルの操作は2次元情報に拘束されており、3次元情報を利用しているわけではない。
【0011】
すなわち、従来の指示入力デバイスの操作性は2次元上に拘束されている、という問題がある。
【0012】
本発明は、上述した問題を解決するためになされたものであり、クリック、ダブルクリック、ドラッグなどの2次元マウスの機能を、機械的メカニズムを利用せずに3次元情報を用いて実行することができる3次元指示入力装置を提供することを目的とする。
【0013】
【課題を解決するための手段】
上記目的を達成するために、本発明の3次元指示入力装置は、指示入力者の手または指に装着可能な発光手段と、前記発光手段から発光された光を受光すると共に、前記発光手段の3次元位置を前記受光した光から計測する計測手段と、所定の情報を表示する画面に略一致する平面をx−y平面とし、前記画面の前面の空間を、該x−y平面に対して垂直なz軸方向に前記画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉え、前記計測手段により得られる前記発光手段の3次元位置のz座標値から前記3つの領域を分割する各境界に対する前記発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ前記指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにして、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する実行手段であって、前記指示入力者の視覚に訴えるフィードバックとして、前記画面に前記発光手段のx−y平面上の位置に小ウィンドウを表示させ、該小ウィンドウ内には、前記画面に表示される画像のうち、前記発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させ、前記発光手段のz座標値に応じて前記小ウィンドウ内に表示する画像の拡大率を変化させると共に前記小ウィンドウ内に表示される画像の色相、彩度、明度の少なくともいずれか1つを変化させる実行手段と、を含んで構成されている。
【0014】
また、本発明の3次元指示入力装置は、指示入力者の手または指に装着可能な発光手段と、前記発光手段から発光された光を受光すると共に、前記発光手段の3次元位置を前記受光した光から計測する計測手段と、所定の情報を表示する画面に略一致する平面をx−y平面とし、前記画面の前面の空間を、該x−y平面に対して垂直なz軸方向に前記画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉え、前記計測手段により得られる前記発光手段の3次元位置のz座標値から前記3つの領域を分割する各境界に対する前記発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ前記指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにして、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する実行手段であって、前記指示入力者の視覚に訴えるフィードバックとして、前記画面に前記発光手段のx−y平面上の位置に小ウィンドウを表示させ、該小ウィンドウ内には、前記画面に表示される画像のうち、前記発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させ、前記発光手段のz座標値に応じて前記小ウィンドウ内に表示する画像の拡大率を変化させると共に前記小ウィンドウ内に表示される画像の凹凸状態を変化させる実行手段と、を含んで構成することもできる。
さらにまた、本発明の3次元指示入力装置は、指示入力者の手または指に装着可能な発光手段と、前記発光手段から発光された光を受光すると共に、前記発光手段の3次元位置を前記受光した光から計測する計測手段と、所定の情報を表示する画面に略一致する平面をx−y平面とし、前記画面の前面の空間を、該x−y平面に対して垂直なz軸方向に前記画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉え、前記計測手段により得られる前記発光手段の3次元位置のz座標値から前記3つの領域を分割する各境界に対する前記発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ前記指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにして、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する実行手段であって、前記指示入力者の視覚に訴えるフィードバックとして、前記画面に前記発光手段のx−y平面上の位置に小ウィンドウを表示させ、該小ウィンドウ内には、前記画面に表示される画像のうち、前記発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させ、前記発光手段のz座標値に応じて前記小ウィンドウ内に表示する画像の拡大率を変化させると共に前記小ウィンドウの大きさまたは/および形状を変化させる実行手段と、を含んで構成することもできる。
【0015】
発光手段は、指示入力者に装着可能であり、指や手などに装着されることが好ましい。発光手段は、光を発するものであれば特に限定されず、例えばLEDとすることができる。計測手段は、発光手段からの光を受光すると共に、発光手段の3次元位置を受光した光から計測する。
【0016】
一方、指示入力者が視認する画面には所定の情報が表示される。実行手段は、画面に略一致する平面をx−y平面とし、画面の前面の空間を、該x−y平面に対して垂直なz軸方向に画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉える。更に、実行手段は、計測手段により得られる発光手段の3次元位置のz座標値から3つの領域の各境界に対する発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにする。
【0017】
すなわち、計測手段により指示入力者の指や手の動きに応じて変化する発光手段の3次元位置を計測することによって、実行手段は、発光手段の各境界に対する通過の仕方を判断できる。さらに、実行手段は、指示入力者に発光手段の3次元位置をフィードバックにより認識させことができるため、指示入力者は発光手段の位置を確認しながら、すなわち、画面前面の空間を3つの領域に分割する各境界に対する通過状態を確認しながら、発光手段を装着した指や手を動かすことができる。
【0018】
実行手段は、このようにフィードバックを掛けつつ、発光手段の各境界に対する通過の仕方に応じて、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する。
【0019】
従って、本発明によれば、2次元マウスの機能を、機械的メカニズムを利用せずに3次元情報により実行することができる。
【0020】
本発明の前記実行手段は、前記フィードバックとして、前記画面に前記発光手段のx−y平面上の位置に小ウィンドウを表示させ、該小ウィンドウ内には、前記画面に表示される画像のうち、前記発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させると共に、前記発光手段のz座標値に応じて前記小ウィンドウ内に表示する画像の拡大率を変化させることにより前記指示入力者の視覚に訴えることができる。
【0021】
実行手段は、フィードバックとして、画面に発光手段のx−y平面上の位置に小ウィンドウを表示させる。小ウィンドウの形は特に限定されず、矩形であってもよいし、円形であってもよい。実行手段は、小ウィンドウ内に、画面に表示される画像のうち、発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させる。さらに、発光手段のz座標値に応じて小ウィンドウ内に表示する画像の拡大率を変化させて指示入力者の視覚に訴える。
【0022】
このように、発光手段のz座標値に応じて小ウィンドウ内に表示する画像の拡大率を変化させることにより、指示入力者は、発光手段のz軸方向の位置を認識することができる。
【0023】
前記実行手段は、前記発光手段が前記第2の領域側から前記第1の領域と前記第2の領域との境界に接近する場合に、該境界に接近するに従って前記拡大率を低減させ、該境界の通過時には前記拡大率が1となるようにして該境界を指示入力者に認知させることができる。
【0024】
これにより、拡大率の変化によって、指示入力者は発光手段が境界に接近しつつある状態を認知できる。また、拡大率が1となったときには、発光手段が境界を通過中であることを認知できる。従って、指示入力者は、明確に発光手段のz軸方向の位置を認識することができ、発光手段を装着した指または手を好適に動かして、2次元マウスの機能を実行させることができる。
【0025】
また、本発明の前記実行手段は、前記小ウィンドウ内に表示される画像の色相、彩度、明度の少なくともいずれか1つを、前記発光手段のz座標値に応じて変化させることができる。
【0026】
これにより、指示入力者は、発光手段のz軸方向の位置を認識することができる。
【0027】
さらに、本発明の前記実行手段は、前記発光手段が前記第3の領域から前記第2の領域に向かって移動する場合には、前記発光手段の移動に従って前記小ウィンドウ内の明度を連続的に急激に大きくし、前記発光手段の移動により明度が所定の大きさとなった時点でその値を一定に維持し、前記発光手段が移動して所定のz座標値を越えたときには、前記第2の領域と前記第1の領域との境界に近づくに従って明度を再び小さくし、該境界を含む該境界前後の所定の領域では前記小ウィンドウ内の明度を前記画面の対応する部分画像の明度と同じにして前記画面に表示される画像がそのまま見えるようにし、前記発光手段が前記第2の領域と前記第1の領域の境界を通過して前記第1の領域に移動した後には、前記小ウィンドウ内の色相を前記第2の領域とは異なる色相に変え、前記発光手段が前記第2の領域と前記第1の領域の境界から離れて前記画面に近づくに従って急激に明度を上げ、前記小ウィンドウ内の色相が明らかになるようにして前記指示入力者の視覚に訴えるようにすることができる。
【0028】
これにより、発光手段のz座標値に応じて小ウィンドウの属性(色相、明度、彩度など)は変化するが、画面の画像が小ウィンドウ内に見える状態は維持される。
【0029】
具体的には、発光手段が第3の領域から第2の領域に向かって移動する場合には、発光手段の移動に従って小ウィンドウの明度を連続的に急激に大きくする。これにより、指示入力者は、発光手段が第2の領域に向かいつつあることを認識できる。
【0030】
更に、実行手段は、発光手段の移動により明度が所定の大きさとなった時点で明度の値を一定に維持する。これにより指示入力者は第2の領域を移動中であることを認識できる。
【0031】
更に、実行手段は、発光手段が移動して所定のz座標値を越えたときには、第2の領域と第1の領域との境界に近づくに従って明度を再び小さくしていく。これにより、指示入力者は、発光手段が第1の領域に接近しつつあることを認識できる。
【0032】
更に、実行手段は、発光手段が第2の領域と第1の領域との境界を含む該境界前後の所定の領域にあるときには小ウィンドウ内の明度を画面の対応する部分画像の明度と同じにして画面に表示される画像がそのまま見えるようにする。これにより、指示入力者は発光手段が境界付近に位置することを認識できる。
【0033】
更に、実行手段は、発光手段が第2の領域と第1の領域の境界を通過して第1の領域に移動した後には、小ウィンドウ内の色相を第2の領域とは異なる色相に変える。これにより、指示入力者は、発光手段が第2の領域から第1の領域に移動したことを認識できる。
【0034】
更に、実行手段は、発光手段が第2の領域と第1の領域の境界から離れて画面に近づくに従って急激に明度を上げ、小ウィンドウ内の色相が明らかになるようにする。これにより、指示入力者は、発光手段が、第1の領域を移動中であることを認識できる。
【0035】
本発明の前記実行手段は、前記小ウィンドウ内に表示される画像の凹凸状態を、前記発光手段のz座標値に応じて変化させることができる。また、本発明の前記実行手段は、前記小ウィンドウの大きさまたは/および形状を、前記発光手段のz座標値に応じて変化させることもできる。
【0036】
なお、小ウインドウの大きさは、境界領域をこえる時には少なくともローカルで最小とし、ある同じ属性の領域をLEDなどの発光手段が移動中である場合には変化をさせないようにすれば、より一層距離感が認識しやすくなる。
【0037】
これにより、指示入力者は、発光手段のz軸方向の位置を認識することができる。
【0038】
本発明において、前記小ウィンドウの輪郭の色を任意に設定可能とすることもできる。なお、前記実行手段は、前記任意に設定された前記小ウィンドウの輪郭の色と、前記画面に表示される画像における前記小ウィンドウの境界域の色との排他的論理和をとって前記小ウィンドウの輪郭の色を定めることもできる。
【0039】
これにより、設定された小ウィンドウの輪郭の色が、画面に表示される画像における小ウィンドウの境界域の色と同一となった場合であっても、その色と異なる色で輪郭が表示されるため、指示入力者が小ウィンドウを見失うことを防止できる。
【0040】
なお、小ウィンドウによるフィードバックに限らず、本発明の前記実行手段は、前記フィードバックとして、前記発光手段が前記各境界を通過する際に、音を用いて前記指示入力者の聴覚に訴えるようにすることもできる。
【0041】
これにより、小ウィンドウによるフィードバックと同様に、指示入力者は、発光手段のz軸方向の位置を認識することができる。
【0042】
本発明の前記実行手段は、前記発光手段が前記第2の領域側から前記第1の領域と前記第2の領域との境界を通過したときに、2次元マウスにおける選択の機能を実行することができる。また、前記実行手段は、前記発光手段が前記第1の領域と前記第2の領域との境界を所定の時間内に1回一方向に通過したときに、2次元マウスにおけるの選択の機能を実行するようにしてもよい。前記実行手段は、前記発光手段が前記第2の領域内に定義されている別の境界を所定の時間内に1回一方向に通過したときに、2次元マウスにおけるの選択の機能を実行するようにしてもよい。
【0043】
本発明の前記実行手段は、前記発光手段が、前記第1の領域と前記第2の領域との境界を所定の時間内に1回一方向に通過した後、逆方向に通過したときに、2次元マウスにおけるクリックの機能を実行することができる。
【0044】
また、本発明の前記実行手段は、前記発光手段が前記第1の領域と前記第2の領域との境界を所定の時間内に2回同方向に通過したときに、2次元マウスにおけるダブルクリックの機能を実行することができる。
【0045】
さらに、本発明において、前記第1の領域は、前記画面に近い領域と前記第2の領域に近い領域とに分割されており、前記実行手段は、前記発光手段が該2つの領域の境界を一方向に通過したときに、2次元マウスにおけるドラッグの機能を実行し、該境界を逆方向に通過したときに、2次元マウスにおけるドロップの機能を実行することができる。
【0046】
このように、発光手段の各境界に対する通過の仕方に応じて、選択、クリック、ダブルクリックや、ドラッグ・アンド・ドロップといった2次元マウスの機能を実行するため、機械的メカニズムを利用せずにすむ。
【0047】
また、本発明の前記実行手段は、前記発光手段が前記第2の領域のうち前記第1の領域に近い所定の領域内を通過しているときは、前記指示入力者により指示入力されるx−y平面上の位置を該所定の領域に入った時点の前記発光手段のx−y平面上の位置に維持することもできる。
【0048】
これにより、第2の領域のうち第1の領域に近い所定の領域内を通過しているときに、指示入力者により指示入力されるx−y平面上の位置が固定されるため、該位置にあるアイコンなどのオブジェクトを選択したり、オブジェクトをクリックしたりするなどの2次元マウスの機能を実行することができる。
【0049】
本発明において、前記所定の時間を変更可能にしてもよい。これにより、指示入力者の使い勝手を向上させることができる。
【0050】
【発明の実施の形態】
以下、図面を参照して、本発明の実施の形態について詳細に説明する。
【0051】
図1は、本発明の実施の形態に係る3次元指示入力装置の構成およびデータの流れを示すブロック図である。図示されるように、3次元指示入力装置は、ユーザの指や手等に装着された発光体(LED)10と、LED10からの光を受光することによりLED10の3次元位置を計測する3D計測装置12と、3D計測装置12で計測された3次元位置を示す座標値のうちz座標値の軌跡からクリック、ダブルクリック、ドラッグ・アンド・ドロップのコマンド(マウス・コマンドと呼称する)を生成してx−y座標値と共にパソコン22に出力する3Dマウス・コマンド生成装置14とを備えている。更に、パソコン22には、3Dマウス・コマンド生成装置14からx−y座標値と共にマウス・コマンドを入力するマウスドライバ16と、画像処理を行うイメージドライバ20と、マウスドライバ16に入力されたコマンドに基づいて、イメージドライバ20を必要に応じて起動させる等して指示入力に関する処理を行うOS18とが格納されている。
【0052】
ここで、x−y座標値は、パソコン22の画面(図2参照)に略一致する平面をx−y平面とした場合の座標値であり、z座標値は、x−y平面に垂直なz軸方向の座標値である。
【0053】
なお、上述した3次元指示入力装置のハードウェアは、特開平10−9812号公報に記載された位置検出の技術を用いて構成されている。もちろん、3次元位置計測ができるものであれば何でも良いが、特開平10−9812号公報に記載の方式によれば比較的安価に実現できる。
【0054】
図2は、パソコン22を横から見た図である。パソコン22の画面はMで示されている。パソコン22の画面Mの前面に広がる3次元空間のうち、最も画面Mに近い層を全押し下層、次に近い層を全押し上層とし、あわせて全押し層(第1の層)と呼ぶ。その両者の境界を境界Bと呼ぶ。さらに手前の層二層を半押し層(第2の層)と呼び、それぞれ画面Mに近い方から半押し下層、半押し上層と呼ぶ。その両者の境界を境界Aと呼ぶ。また、半押し層と全押し層の境界を境界Kと呼ぶ。ユーザに最も近い層、すなわち、画面Mから最も遠い層を自由層(第3の層)と呼ぶ。自由層と半押し層の境界を境界Fと呼ぶ。
【0055】
自由層は、LED10をどのように動かそうとも単にカーソルがその動きに対応して動くだけでなんのアクションもなされない層である。2次元マウスにおいてマウスクリックをせずにマウスを動かしている状態に相当する。
【0056】
半押し層の手前の層(半押し上層)にLED10がある場合は、後に説明する拡張カーソルの属性に変化があり、ユーザがオブジェクトを選択しつつある状態である。また、LED10が半押し層の画面側(半押し下層)に移動したときには、カーソルのx−y座標値は、境界Aを通過した時の値に固定される。
【0057】
半押し層と全押し層との間をLED10が通過する仕方によって、マウス・コマンドが生成される。
【0058】
ここで、拡張カーソルについて説明する。本実施の形態において、拡張カーソルは従来のカーソルとは異なり、パソコン22のデスクトップ上で従来のカーソルが指示している点(以下、カーソル点と呼称する)を含む小領域を円弧などで囲い、改めて小ウインドウとして表示したものである。図3(a)及び図3(b)に示されるように、カーソル点30を中心とする円形の内部が小ウィンドウ(拡張カーソル)32に表示されている。従来のカーソル34は、その拡張カーソル32の内部、特に中心部に重ねて表示されている。
【0059】
なお、図3(a)は、向かって右側の2列のアイコンの中心部分を拡張カーソル32が指示している状態を表しており、幾分デスクトップ状のアイコンが拡大されているのが分かる。
【0060】
また、図3(b)は、LED10が境界Kに近づいたときの画面上の拡張カーソル32の状態を表している。図示されるように、拡張カーソル32の半径は最小になっており、円形内の画像も背景と同じ、即ち拡大率が1となっている。
【0061】
このように拡張カーソル32は、半押し層でLED10が外側から境界Kに近づくにつれて、カメラの焦点を合わせるように画像が拡大された状態から実際の大きさに変化したり、あるいは半径が小さくなることによって絞りが絞られていくことを連想させる焦点メタファーを構成している。
【0062】
この拡張カーソル32は、OSがイメージドライバ20を用いて表示する。また、従来のカーソル34は、OSがマウスドライバ16を用いて拡張カーソル32に重ねて表示する。
【0063】
次に、マウス・コマンドが生成される場合の3次元指示入力装置の処理の流れについて説明する。
【0064】
図1に示されるように、LED10が3D計測装置12の前にあると、その位置が3D計測装置12で測定される。ここでマウス・コマンド生成のために必要なものはLED10のz座標値である。z座標値は3D計測装置12からの距離で測られるが、パソコン22の画面Mと3D計測装置12の位置が一致していれば、この距離は画面Mからの距離となる。図1の矢印で示されるように、手前に伸びる方向がz座標値の正の方向である。
【0065】
ユーザが手を動かすとそれにつれて手に装着されたLED10の位置が変わり、そのz座標値を含む3次元座標値が3D計測装置12を通じて3Dマウス・コマンド生成装置14に送られる。
【0066】
3Dマウス・コマンド生成装置14は、そのz座標値の時系列から画面M手前の各境界領域をある一定時間内にどのような形で通過したかを調べる。なお、この時間は、ユーザにより任意に設定可能である。3Dマウス・コマンド生成装置14では、その仕方によって、クリック、ダブルクリック、ドラッグの3つの重要なコマンドに解釈される。解釈されたコマンドのシグナルはパソコン22のマウスドライバ16に送られる。この時点でマウスドライバ16は2次元マウスであろうと、3次元マウスであろうと同じデータタイプを受け取ることができる。従って、後はパソコン22側の処理になる。本実施の形態では拡張カーソル32を小ウインドウで表現するので、OSは画像を処理しているイメージドライバ20等を必要に応じて起動させ、図3(a)及び図3(b)に示されるようにパソコン22の画面Mに拡張カーソル32を表示させる。また、マウスドライバ16も同時に起動されており、OSはマウスドライバ16により拡張カーソル32の画像に従来のカーソル34を重ねて画面M上に表示する。
【0067】
この拡張カーソル32内部の画像はLED10が自由層にあるときには本来の画像と変わらず、LED10が半押し層に入ると拡大表示(拡張カーソルそのものの大きさと内部表示される画像)される。また、LED10が半押し層から全押し層へ向かうにつれて、即ち境界Kに向かうにつれて、拡大画像の倍率が1になる。特に、境界Kの寸前の所定距離内では多少LED10のz座標値が動いても倍率は1とする。これはカメラのシャッタの半押し状態を再現したもので、特にシャッタが下りる直前はシャッタの硬さが増し、変化がないことも表現されている。
【0068】
以下、図4を用いて、LED10の動きと、生成されるマウス・コマンドとの対応関係について詳細に説明する。
【0069】
図4は、パソコン22を上から見た図である。また、図に示される太実線及び点線はLED10の動きに対応した軌跡を示している。なお、太実線はカーソル点30のx−y座標値が固定されている(ロックされている)ことを示し、点線部分はx−y座標値は固定されていない(ロック解除されている)ことを示している。
【0070】
LED10が半押し上層から境界Aを越して半押し下層に入ると、境界Aを通過する時点の値でカーソル点30のx−y座標値がロックされる。このとき、オブジェクトが指示されていれば、後にLEDがKを通過すれば通過時の通過点のx−y座標値に関わらずそのオブジェクトが選択される。即ち、LED10が移動して境界Kを通過した後、境界Bには到達せずに、再び境界Kを逆方向に通過して半押し上層に戻ると、「クリック」のコマンドがパソコン22のマウスドライバ16に送られる(軌跡40)。
【0071】
また、LED10が、半押し上層から境界Aを越して半押し下層に入った後、半押し層上部に戻らず、もう一度境界Kを越し、しかし、境界Bに到達せず、再び境界Kを逆方向に戻ると、「ダブルクリック」のコマンドがパソコン22に送られる。(軌跡42)。
【0072】
また、LED10が半押し上層から境界A、境界Kを通り過ぎ、次の境界Bを越すと、ドラッグが可能な領域(全押し下層)に入る。この時点でカーソル点30のx−y座標値のロックが解除され、全押し下層でカーソル点30で指示されているオブジェクトがLED10のx−y座標の動きに従ってドラッグされる。即ち、「ドラッグ」のコマンドがパソコン22に送られる。LED10が再び全押し下層からが境界Bを逆方向に通過し、また境界Kをさらに通過して半押し層に戻ると、その時点でx−y座標値がロックされ、オブジェクトがドロップされる。即ち、「ドロップ」のコマンドがパソコン22に送られる(軌跡44)。
【0073】
x−y座標値のロックの状態と各境界との対応関係について詳細に説明する。基本的には、どの場合でもx−y座標値がロックされるのは、LED10が半押し上層から半押し下層へ境界Aを越したときである。また、ロックが解除されるのは、クリックの場合には同じく境界Aを逆方向に通過したときであり、ダブルクリックの場合は境界Kを2回目に逆方向に戻ってきた時点である。また、LED10が境界Bを越えて全押し下層に入るとx−y座標のロックははずされる。これはドラッグ可能な領域に入ったためで、当然である。ドラッグを行ってオブジェクトを移動した後、LED10が再び全押し上層に戻ってきたときには、再びロックされる。これはカーソルからオブジェクトをはずすための便宜である。さらにLED10が境界Kを越して半押し層に戻ると、再びロックははずされる。この時点ではLED10が半押し上層に戻ってきていないので、オブジェクトの選択がなされることはない。
【0074】
なお、図4において、クリックとダブルクリックの際のLED10の軌跡は、xまたはy座標値を動いているように見えるが、これらは誇張して表現したものであり、実際は殆ど同じ位置にある。また、実線部分ではパソコン22のマウスドライバ16に対する値は一定値である。
【0075】
以上説明したように、画面の前面に広がる空間を3つの領域に分割し、ユーザの視覚に訴えるような拡張カーソル(焦点メタファー)によって、ユーザが装着するLED10が各領域の境界を通過したことを認知させつつ、半押し層と全押し層との境界をある一定時間内に一度だけ往復した場合には、2次元マウスのクリックの動作を実行し、一定時間内に二度往復した場合には、2次元マウスのダブルクリックの動作を実行し、半押し層から全押し層に移動しても一定時間半押し層に戻らない場合には、カーソルが指示するアイコン等のオブジェクトをドラッグし、LED10が半押し層に戻ったときに、ドラッグしたオブジェクトをドロップするようにしたため、クリック、ダブルクリック、ドラッグなどのマウスの基本動作を、機械的メカニズムを利用せずに空中でのLED10の動き(3次元座標値)により実行させることができる。
【0076】
なお、上述した実施の形態では、拡張カーソル32を用いてLED10が3次元空間上の境界を通過したことをユーザに認知させる例について説明したが、例えば、各境界を通過する際それに固有な音を発生させて操作の助けとすることも可能である。さらに、各層での最大拡大率や、色相などの色情報、拡張カーソル32の大きさ(半径等)をユーザが自由に自分の好みや使い勝手に応じて変更することが可能である。
【0077】
図5は、LED10のz座標位置に応じた拡張カーソル32の明度及び色相の変化の一例を示した図である。図示されるように、色相が境界Kを境にして緑から赤に変わる。即ち、ユーザが境界K前後にLED10を動かすと色が変わることになり、ユーザに対して境界がどこにあるのかの認知度を高める。また、半押し層(図5において境界Kの左側)や全押し層(図5において境界Kの右側)において明度を変化させる。特に、半押し層では、境界Kに向かって拡張カーソルに取り込まれた画像の拡大率を1に近づけると共に、色を拡張カーソルに取り込んだ画像の色相に近づけることによって、焦点を合わせてはっきり見える焦点メタファーを構成することも可能である。
【0078】
また、上述した実施の形態における境界や層は一例であり、境界を削除して2つの層を合体させることも可能である。この場合には、層に依存する属性を隣接する層についても同じに設定することによって可能となる。また、境界を定めるz座標値もユーザが自由に設定しなおすことも可能である。さらに、各層の意味を別に解釈することによって、例えば、極端な例としては、半押し層と全押し層を逆転させることも可能である。この場合も、マウス・コマンドを起動させるには、LED10がどの境界をどのように通過したかによって決定するようにすればよい。
【0079】
なお、拡張カーソルに表示される画像の色相、彩度、明度の少なくともいずれか1つを、LED10のz座標値に応じて変化させるようにすることもできる。また、拡張カーソルに表示される画像の凹凸状態を、LED10のz座標値に応じて変化させるようにすることもできる。さらに、拡張カーソルの大きさや形状を、LED10のz座標値に応じて変化させるようにしてもよい。
【0080】
また、拡張カーソルの輪郭の色はユーザが任意に設定してもよい。さらに、任意に設定された拡張カーソルの輪郭の色と、画面に表示される画像における拡張カーソルの境界域の色との排他的論理和をとって拡張カーソルの輪郭の色を定めるようにしてもよい。これにより、拡張カーソルに予め設定された輪郭の色と、画面に表示される画像における拡張カーソルの輪郭の境界域に占める色とが同一となった場合に、拡張カーソルの輪郭の色を異ならせて表示するため、拡張カーソルが明瞭に視認される。
【0081】
また、それぞれの操作が完了するまでの最大許容時間もユーザが設定可能であるが、空中操作によるクリック操作の識別に要するクリック間隔時間は2次元マウスの設定値にくらべて時間を長くすることが好ましい。具体的には、ダブルクリックは基本ソフトOSで設定可能な0.5秒を越して、約1.9秒くらいが実験的に現在のところ妥当であった。
【0082】
【発明の効果】
本発明に係る3次元指示入力装置は、五感の少なくとも1つに訴えるようなフィードバック(焦点メタファーや色相等の変化)によって、画面の前面に広がる3次元空間上の分割された複数の領域の各境界に対する発光手段の通過状態をユーザに認知させ、機械的メカニズムを利用せずに、発光手段の各領域の境界に対する通過の仕方に応じて、クリック、ダブルクリック、ドラッグなどの2次元マウスの機能を実行することができる、という効果を奏する。
【図面の簡単な説明】
【図1】 本発明の実施の形態に係る3次元指示入力装置の構成およびデータの流れを示すブロック図である。
【図2】 パソコンを横から見た場合の空間分割を説明する図である。
【図3】 図3(a)は、向かって右側の2列のアイコンの中心部分を拡張カーソルが指示している状態を表した図であり、図3(b)は、LEDが境界Kに近づいたときの画面上の拡張カーソルの状態を表した図である。
【図4】 パソコンを上から見た場合の空間分割とLEDの空間上での動きを説明する図である。
【図5】 画面に表示される拡張カーソル内の画像の色相及び明度の変化の一例を示した図である。
【符号の説明】
10 LED
12 3D計測装置
14 3Dマウス・コマンド生成装置
16 マウスドライバ
18 OS
20 イメージドライバ
22 パソコン
32 拡張カーソル[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a three-dimensional instruction input device, and more particularly to a three-dimensional instruction input device that inputs an instruction based on three-dimensional information of a light emitting means.
[0002]
[Prior art]
Conventionally, a two-dimensional mouse has been widely used as a device for inputting instructions to a personal computer or the like. The two-dimensional mouse instructs and inputs the xy coordinate value as a relative coordinate value to the personal computer. In recent years, a technique for inputting a third coordinate value using the two-dimensional mouse has been proposed.
[0003]
For example, a three-dimensional mouse can be easily achieved by attaching an LED as a light emitter to a finger and attaching a light receiving unit that receives light from the LED to the upper part of the screen of a personal computer (see, for example, Patent Document 1). . The sensor used here obtains the angle of the light source with respect to the sensor and obtains the three-dimensional position of the light source based on the principle of triangulation. The LED receives power as a light source from a personal computer, and a signal such as a click, which is the basic operation of a mouse, is sent to the basic software of the personal computer through a wire. That is, a switch that can be pressed with a finger is provided near the light emitter.
[0004]
In addition, by rotating two two-dimensional balls, it is possible to input not only the movement amount in the x and y axis directions, but also the angle and the rotation angle, and a pointing device that can input in the z axis direction ( For example, see Patent Document 2.), a first photosensor array in which light conversion elements are arranged in a first direction, and a second in which light conversion elements are arranged in a second direction different from the first direction. When the optical sensor array moves, a signal corresponding to the change in the output of the both is generated, thereby determining the amount of movement (such as a cursor) and the direction of movement (for example, Patent Document 3) See.) Is known.
[0005]
Furthermore, a remote control device (for example, refer to Patent Document 4) that recognizes the index with a CCD camera and interprets it as a command for a personal computer or the like, and a rotary switch that is rotated with a finger in an electronic pen are provided. A coordinate input electronic pen (see, for example, Patent Document 5) that determines the degree of change in graphical parameters (line thickness, color, shading, gray scale) and movement of an RFID attached to a user's wrist After being recognized by the antenna, the RFID movement pattern is interpreted as an input command to another device. Similarly, when there is one antenna, an instruction input system (for example, refer to Patent Document 6) that interprets a time-series pattern in which an RFID is not recognized as a command is known.
[0006]
In addition, Gyromouse of Gyration Inc. in the United States is a pointing device that has a built-in auto gyro and can change the direction of the laser by aerial operation, but its weight is relatively large and its size is relatively small for the gyro. Large and somewhat expensive.
[0007]
In recent years, a computer keyboard that applies the concept of half-pressing in camera shutter operation has been prototyped, taking advantage of the fact that characters cannot be input unless it is pressed hard like a camera shutter. It was done.
[0008]
[Patent Document 1]
JP-A-10-9812
[Patent Document 2]
JP-A-5-150900
[Patent Document 3]
JP-A-11-24832
[Patent Document 4]
JP-A-11-110125
[Patent Document 5]
JP 2000-47805 A
[Patent Document 6]
JP 2001-306235 A
[0009]
[Problems to be solved by the invention]
However, the above-described conventional three-dimensional mouse has the same operability as the two-dimensional mouse, as is clear from the fact that a signal such as a click is sent to the basic software of a personal computer by wire. In addition, other instruction input devices such as the above-described conventional pointing device and instruction input system have the same operability as a two-dimensional mouse.
[0010]
In addition, Gyromouse Presenter of Gyration Inc. of the United States also relies on mechanical operations with fingers, as with normal two-dimensional mice, for operations such as clicking. Further, even in a device in which a keyboard and a note pad are overlapped, the operation of the cursor is restricted by two-dimensional information, and does not use three-dimensional information.
[0011]
That is, there is a problem that the operability of the conventional instruction input device is restricted in two dimensions.
[0012]
The present invention has been made to solve the above-described problem, and performs functions of a two-dimensional mouse such as click, double click, and drag using three-dimensional information without using a mechanical mechanism. An object of the present invention is to provide a three-dimensional instruction input device capable of
[0013]
[Means for Solving the Problems]
To achieve the above object, a three-dimensional instruction input device of the present invention receives light emitted from the light emitting means, light emitting means that can be worn on the hand or finger of the instruction input person,A measuring means for measuring the three-dimensional position of the light emitting means from the received light, and a plane substantially coinciding with a screen displaying predetermined information is defined as an xy plane, and a space in front of the screen is defined as the xy plane. 3 of the light emitting means obtained by the measuring means obtained by dividing into three areas of the first area, the second area, and the third area in the order close to the screen in the z-axis direction perpendicular to the plane. The way of passing the light-emitting means with respect to each boundary dividing the three regions is determined from the z-coordinate value of the three-dimensional position, and differs depending on the way of passing and appeals to at least one of the five senses of the instruction input person Execution means for executing functions of a two-dimensional mouse including selection, click, double-click, drag and drop so that feedback is applied, and feedback that appeals to the visual input of the instruction input person; A small window is displayed on the screen at a position on the xy plane of the light emitting means, and an image displayed on the screen on the xy plane of the light emitting means is displayed in the small window. An image of a predetermined area including the position is enlarged and displayed, and the enlargement ratio of the image displayed in the small window is changed according to the z coordinate value of the light emitting means, and the image displayed in the small window is changed. Execution means for changing at least one of hue, saturation, and brightnessAnd.
[0014]
Further, the three-dimensional instruction input device of the present invention receives light emitted from the light emitting means and light emitting means that can be worn on the hand or finger of the instruction input person, and receives the three-dimensional position of the light emitting means. A plane that substantially coincides with a measuring unit that measures from the light and a screen that displays predetermined information is an xy plane, and a space in front of the screen is in a z-axis direction perpendicular to the xy plane. The three areas of the first area, the second area, and the third area are divided into three areas in order from the screen, and the three coordinates are obtained from the z coordinate value of the three-dimensional position of the light emitting means obtained by the measuring means. Judgment of how to pass the light emitting means with respect to each boundary that divides the region, and selection and click so that feedback varies depending on the way of passing and appeals to at least one of the five senses of the instruction input person , Double chestnut Click, execution means for executing the function of the two-dimensional mouse comprising a drag-and-dropIn this case, a small window is displayed at a position on the xy plane of the light emitting means on the screen as feedback appealing to the visual input of the instruction input person, and an image displayed on the screen is displayed in the small window. Among these, an image of a predetermined area including the position of the light emitting means on the xy plane is enlarged and displayed, and an enlargement ratio of the image displayed in the small window according to the z coordinate value of the light emitting means is set. Execution means for changing and changing the uneven state of the image displayed in the small windowAnd can also be configured.
Furthermore, the three-dimensional instruction input device of the present invention comprises a light-emitting means that can be worn on the hand or finger of the instruction input person, light emitted from the light-emitting means, and a three-dimensional position of the light-emitting means. A measuring means for measuring from the received light and a plane substantially coincident with a screen for displaying predetermined information is defined as an xy plane, and a space in front of the screen is in a z-axis direction perpendicular to the xy plane. Are divided into three areas, a first area, a second area, and a third area, in order from the screen, and are obtained from the z coordinate value of the three-dimensional position of the light emitting means obtained by the measuring means. Determining how to pass the light emitting means with respect to each boundary dividing one region, and depending on the way of passing, and selecting feedback to appeal to at least one of the five senses of the instruction input person, Click, dub Execution means for executing functions of a two-dimensional mouse including click, drag and drop, and as a feedback appealing to the visual input of the instruction input person, a small amount is placed on the screen at a position on the xy plane. A window is displayed, and within the small window, an image of a predetermined area including a position on the xy plane of the light emitting means is enlarged among the images displayed on the screen, and the light emitting means is displayed. And executing means for changing the size or / and shape of the small window while changing the enlargement ratio of the image displayed in the small window in accordance with the z-coordinate value of the small window.
[0015]
The light emitting means can be worn by an instruction input person, and is preferably worn by a finger or a hand. The light emitting means is not particularly limited as long as it emits light, and may be, for example, an LED. The measuring means receives the light from the light emitting means and measures the three-dimensional position of the light emitting means from the received light.
[0016]
On the other hand, predetermined information is displayed on the screen visually recognized by the instruction input person. The execution means sets the plane substantially coincident with the screen as the xy plane, and sets the space in front of the screen in the order of the first area and the second area in the z-axis direction perpendicular to the xy plane from the screen. The area and the third area are divided into three areas. Further, the execution means determines how to pass the light emitting means with respect to each boundary of the three regions from the z coordinate value of the three-dimensional position of the light emitting means obtained by the measuring means, and differs depending on the way of passing, and indicates Provide feedback that appeals to at least one of the five senses of the input person.
[0017]
That is, by measuring the three-dimensional position of the light emitting means that changes according to the movement of the finger or hand of the instruction input person by the measuring means, the execution means can determine how to pass through each boundary of the light emitting means. Furthermore, since the execution means can make the instruction input person recognize the three-dimensional position of the light emitting means by feedback, the instruction input person confirms the position of the light emitting means, that is, the space in front of the screen is divided into three areas. While confirming the passing state with respect to each boundary to be divided, it is possible to move the finger or hand wearing the light emitting means.
[0018]
The execution means executes the function of the two-dimensional mouse including selection, click, double click, and drag and drop according to the way of passing through each boundary of the light emission means while applying feedback in this way.
[0019]
Therefore, according to the present invention, the function of the two-dimensional mouse can be executed by three-dimensional information without using a mechanical mechanism.
[0020]
The execution means of the present invention displays a small window at a position on the xy plane of the light emitting means on the screen as the feedback, and within the small window, among the images displayed on the screen, An image of a predetermined area including the position of the light emitting means on the xy plane is enlarged and displayed, and an enlargement ratio of the image displayed in the small window is changed according to the z coordinate value of the light emitting means. Therefore, it is possible to appeal to the vision of the instruction input person.
[0021]
The execution means displays a small window on the screen at a position on the xy plane as feedback. The shape of the small window is not particularly limited, and may be a rectangle or a circle. The executing means enlarges and displays an image of a predetermined area including the position of the light emitting means on the xy plane among the images displayed on the screen in the small window. Furthermore, the magnification of the image displayed in the small window is changed according to the z coordinate value of the light emitting means to appeal to the instruction input person's vision.
[0022]
In this way, by changing the enlargement ratio of the image displayed in the small window in accordance with the z coordinate value of the light emitting means, the instruction input person can recognize the position of the light emitting means in the z-axis direction.
[0023]
When the light emitting means approaches the boundary between the first area and the second area from the second area side, the execution means reduces the magnification rate as the boundary approaches the boundary. When the boundary passes, the instruction input person can recognize the boundary by setting the enlargement ratio to 1.
[0024]
Thereby, the instruction input person can recognize the state where the light emitting means is approaching the boundary due to the change in the enlargement ratio. When the enlargement ratio is 1, it can be recognized that the light emitting means is passing the boundary. Therefore, the instruction input person can clearly recognize the position of the light emitting means in the z-axis direction, and can appropriately move the finger or hand wearing the light emitting means to execute the function of the two-dimensional mouse.
[0025]
The execution means of the present invention can change at least one of hue, saturation, and brightness of an image displayed in the small window according to the z coordinate value of the light emitting means.
[0026]
Thereby, the instruction input person can recognize the position of the light emitting means in the z-axis direction.
[0027]
Furthermore, the execution means of the present invention continuously increases the brightness in the small window according to the movement of the light emitting means when the light emitting means moves from the third area toward the second area. When the brightness becomes a predetermined magnitude due to the movement of the light emitting means, the value is kept constant. When the light emitting means moves and exceeds a predetermined z coordinate value, the second The brightness is reduced again as it approaches the boundary between the area and the first area, and the brightness in the small window is made the same as the brightness of the corresponding partial image on the screen in a predetermined area before and after the boundary including the boundary. The image displayed on the screen can be seen as it is, and after the light emitting means moves to the first area through the boundary between the second area and the first area, Before the hue of The hue is changed to a hue different from that of the second area, and the brightness is rapidly increased as the light emitting means moves away from the boundary between the second area and the first area and approaches the screen, and the hue in the small window is apparent. It can be made to appeal to the vision of the instruction input person.
[0028]
Thereby, the attributes (hue, lightness, saturation, etc.) of the small window change according to the z coordinate value of the light emitting means, but the state where the image on the screen can be seen in the small window is maintained.
[0029]
Specifically, when the light emitting means moves from the third area toward the second area, the brightness of the small window is continuously and rapidly increased according to the movement of the light emitting means. Thus, the instruction input person can recognize that the light emitting means is moving toward the second area.
[0030]
Furthermore, the execution means maintains the lightness value constant when the lightness reaches a predetermined level due to the movement of the light emitting means. Thus, the instruction input person can recognize that the second area is moving.
[0031]
Further, when the light emitting means moves and exceeds a predetermined z coordinate value, the executing means decreases the brightness again as it approaches the boundary between the second area and the first area. Thus, the instruction input person can recognize that the light emitting means is approaching the first area.
[0032]
Further, the execution means makes the brightness in the small window the same as the brightness of the corresponding partial image on the screen when the light emitting means is in a predetermined area before and after the boundary including the boundary between the second area and the first area. To make the image displayed on the screen visible. Thus, the instruction input person can recognize that the light emitting means is located near the boundary.
[0033]
Further, the execution means changes the hue in the small window to a hue different from the second area after the light emitting means moves to the first area through the boundary between the second area and the first area. . Thereby, the instruction input person can recognize that the light emitting means has moved from the second area to the first area.
[0034]
Further, the execution means rapidly increases the brightness as the light emitting means moves away from the boundary between the second area and the first area and approaches the screen so that the hue in the small window becomes clear. Thus, the instruction input person can recognize that the light emitting means is moving in the first area.
[0035]
The execution means of the present invention can change the uneven state of the image displayed in the small window according to the z coordinate value of the light emitting means. In addition, the execution means of the present invention can change the size or / and shape of the small window according to the z coordinate value of the light emitting means.
[0036]
Note that the size of the small window is at least locally when exceeding the boundary area, and if the light emitting means such as an LED is not moving when the area having the same attribute is moving, the distance is further increased. A feeling becomes easy to recognize.
[0037]
Thereby, the instruction input person can recognize the position of the light emitting means in the z-axis direction.
[0038]
In the present invention, the outline color of the small window can be arbitrarily set. The execution means takes the exclusive OR of the arbitrarily set outline color of the small window and the color of the border area of the small window in the image displayed on the screen. The outline color can also be determined.
[0039]
As a result, even if the set outline color of the small window is the same as the color of the border area of the small window in the image displayed on the screen, the outline is displayed in a color different from that color. Therefore, it is possible to prevent the instruction input person from losing sight of the small window.
[0040]
Note that the execution means of the present invention is not limited to feedback by a small window, and as the feedback, when the light emitting means passes through each of the boundaries, the execution means appeals to the hearing of the instruction input person using sound. You can also
[0041]
Thereby, like the feedback by the small window, the instruction input person can recognize the position of the light emitting means in the z-axis direction.
[0042]
The execution means of the present invention executes a selection function in a two-dimensional mouse when the light emitting means passes the boundary between the first area and the second area from the second area side. Can do. Further, the execution means performs a selection function in a two-dimensional mouse when the light emitting means passes through the boundary between the first area and the second area in one direction once within a predetermined time. You may make it perform. The execution means executes a selection function in a two-dimensional mouse when the light emission means passes through another boundary defined in the second region in one direction once within a predetermined time. You may do it.
[0043]
The execution means of the present invention, when the light-emitting means passes through the boundary between the first area and the second area once in a predetermined time and then in the opposite direction, A click function in a two-dimensional mouse can be executed.
[0044]
Further, the execution means of the present invention is characterized in that when the light emitting means passes through the boundary between the first area and the second area in the same direction twice within a predetermined time, a double click in a two-dimensional mouse is performed. Can perform the functions.
[0045]
Further, in the present invention, the first area is divided into an area close to the screen and an area close to the second area, and the execution means includes the light emitting means that defines the boundary between the two areas. When passing in one direction, the drag function in the two-dimensional mouse can be executed, and when passing through the boundary in the reverse direction, the drop function in the two-dimensional mouse can be executed.
[0046]
As described above, the two-dimensional mouse functions such as selection, click, double-click, and drag-and-drop are executed according to the way of passing through each boundary of the light emitting means, so that it is not necessary to use a mechanical mechanism. .
[0047]
Further, the execution means of the present invention is such that when the light emitting means passes through a predetermined area close to the first area in the second area, the instruction input person inputs an instruction x The position on the -y plane can be maintained at the position on the xy plane of the light emitting means at the time when the predetermined area is entered.
[0048]
As a result, the position on the xy plane that is designated and input by the instruction input person when passing through a predetermined area close to the first area in the second area is fixed. A two-dimensional mouse function such as selecting an object such as an icon or clicking an object can be executed.
[0049]
In the present invention, the predetermined time may be changeable. Thereby, the usability of the instruction input person can be improved.
[0050]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0051]
FIG. 1 is a block diagram showing a configuration and data flow of a three-dimensional instruction input device according to an embodiment of the present invention. As shown in the figure, the three-dimensional instruction input device is a 3D measurement that measures a three-dimensional position of the
[0052]
Here, the xy coordinate value is a coordinate value when a plane substantially matching the screen of the personal computer 22 (see FIG. 2) is the xy plane, and the z coordinate value is perpendicular to the xy plane. It is a coordinate value in the z-axis direction.
[0053]
Note that the hardware of the above-described three-dimensional instruction input device is configured using the position detection technique described in Japanese Patent Laid-Open No. 10-9812. Of course, any device capable of measuring a three-dimensional position may be used. However, according to the method described in Japanese Patent Laid-Open No. 10-9812, it can be realized at a relatively low cost.
[0054]
FIG. 2 is a view of the
[0055]
The free layer is a layer in which no action is taken only by moving the cursor in response to the movement no matter how the
[0056]
When the
[0057]
Mouse commands are generated by the way the
[0058]
Here, the extended cursor will be described. In the present embodiment, unlike the conventional cursor, the extended cursor surrounds a small area including a point indicated by the conventional cursor on the desktop of the personal computer 22 (hereinafter referred to as a cursor point) with an arc or the like, It is displayed again as a small window. As shown in FIGS. 3A and 3B, a circular interior centered on the
[0059]
Note that FIG. 3A shows a state in which the
[0060]
FIG. 3B shows the state of the
[0061]
As described above, the
[0062]
The
[0063]
Next, a process flow of the three-dimensional instruction input device when a mouse command is generated will be described.
[0064]
As shown in FIG. 1, when the
[0065]
As the user moves the hand, the position of the
[0066]
The 3D mouse
[0067]
The image inside the
[0068]
Hereinafter, the correspondence between the movement of the
[0069]
FIG. 4 is a view of the
[0070]
When the
[0071]
Further, after the
[0072]
Further, when the
[0073]
The correspondence between the lock state of the xy coordinate values and each boundary will be described in detail. Basically, the xy coordinate value is locked in any case when the
[0074]
In FIG. 4, the locus of the
[0075]
As described above, the space extending in front of the screen is divided into three areas, and the
[0076]
In the above-described embodiment, the example in which the user recognizes that the
[0077]
FIG. 5 is a diagram illustrating an example of changes in brightness and hue of the
[0078]
In addition, the boundaries and layers in the above-described embodiment are examples, and it is possible to delete the boundaries and combine the two layers. In this case, it is possible to set the same layer-dependent attributes for adjacent layers. Also, the user can freely set the z coordinate value that defines the boundary. Furthermore, by interpreting the meaning of each layer separately, for example, as an extreme example, it is possible to reverse the half-push layer and the full-push layer. In this case as well, in order to activate the mouse command, it is only necessary to determine which boundary the
[0079]
Note that at least one of the hue, saturation, and brightness of the image displayed on the extended cursor can be changed according to the z coordinate value of the
[0080]
In addition, the color of the outline of the extended cursor may be arbitrarily set by the user. Furthermore, the color of the extended cursor outline may be determined by taking the exclusive OR of the arbitrarily set color of the extended cursor outline and the color of the extended cursor boundary in the image displayed on the screen. Good. As a result, when the color of the outline set in advance for the extended cursor is the same as the color occupied by the extended cursor outline in the image displayed on the screen, the color of the extended cursor outline is made different. The extended cursor is clearly visible.
[0081]
The user can also set the maximum allowable time until each operation is completed, but the click interval time required for identifying the click operation by the aerial operation can be longer than the set value of the two-dimensional mouse. preferable. Specifically, the double click exceeds 0.5 seconds that can be set by the basic software OS, and about 1.9 seconds is experimentally appropriate at present.
[0082]
【The invention's effect】
The three-dimensional instruction input device according to the present invention provides each of a plurality of divided regions on the three-dimensional space spreading on the front surface of the screen by feedback (change in focus metaphor, hue, etc.) appealing to at least one of the five senses. Two-dimensional mouse functions such as click, double-click, drag, etc., depending on how the light-emitting means pass through the boundary of each region of the light-emitting means without using a mechanical mechanism, allowing the user to recognize the passing state of the light-emitting means with respect to the boundary There is an effect that can be executed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration and data flow of a three-dimensional instruction input device according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating space division when a personal computer is viewed from the side.
FIG. 3A is a diagram showing a state in which the extended cursor indicates the center part of the two right-side icons toward the right side, and FIG. It is a figure showing the state of the extended cursor on a screen when approaching.
FIG. 4 is a diagram illustrating space division and movement of LEDs in space when a personal computer is viewed from above.
FIG. 5 is a diagram illustrating an example of changes in hue and brightness of an image in an extended cursor displayed on the screen.
[Explanation of symbols]
10 LED
12 3D measuring device
14 3D mouse command generator
16 Mouse driver
18 OS
20 Image driver
22 PC
32 Extended cursor
Claims (16)
前記発光手段から発光された光を受光すると共に、前記発光手段の3次元位置を前記受光した光から計測する計測手段と、
所定の情報を表示する画面に略一致する平面をx−y平面とし、前記画面の前面の空間を、該x−y平面に対して垂直なz軸方向に前記画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉え、前記計測手段により得られる前記発光手段の3次元位置のz座標値から前記3つの領域を分割する各境界に対する前記発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ前記指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにして、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する実行手段であって、前記指示入力者の視覚に訴えるフィードバックとして、前記画面に前記発光手段のx−y平面上の位置に小ウィンドウを表示させ、該小ウィンドウ内には、前記画面に表示される画像のうち、前記発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させ、前記発光手段のz座標値に応じて前記小ウィンドウ内に表示する画像の拡大率を変化させると共に前記小ウィンドウ内に表示される画像の色相、彩度、明度の少なくともいずれか1つを変化させる実行手段と、
を含む3次元指示入力装置。A light emitting means that can be worn on the hand or finger of the instruction input person;
Measuring means for receiving light emitted from the light emitting means and measuring a three-dimensional position of the light emitting means from the received light;
A plane that substantially coincides with the screen displaying the predetermined information is defined as an xy plane, and a space on the front surface of the screen is a first area in order from the screen in the z-axis direction perpendicular to the xy plane. The light emission for each boundary that divides the three areas from the z coordinate value of the three-dimensional position of the light emitting means obtained by the measuring means, divided into three areas, the second area and the third area. Select, click, double-click, drag and drop to determine how to pass the means, and depending on the way of passing, and so that feedback is applied to at least one of the five senses of the instruction input person a means for executing the function of the two-dimensional mice containing, as feedback visually appealing of the instruction input person, a small window at a position on the x-y plane of said light emitting means to said screen In the small window, among the images displayed on the screen, an image of a predetermined area including a position on the xy plane of the light emitting means is enlarged and displayed, and z of the light emitting means is displayed. Execution means for changing an enlargement ratio of an image displayed in the small window according to a coordinate value and changing at least one of hue, saturation, and brightness of the image displayed in the small window ;
A three-dimensional instruction input device.
前記発光手段から発光された光を受光すると共に、前記発光手段の3次元位置を前記受光した光から計測する計測手段と、
所定の情報を表示する画面に略一致する平面をx−y平面とし、前記画面の前面の空間を、該x−y平面に対して垂直なz軸方向に前記画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉え、前記計測手段により得られる前記発光手段の3次元位置のz座標値から前記3つの領域を分割する各境界に対する前記発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ前記指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにして、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する実行手段であって、前記指示入力者の視覚に訴えるフィードバックとして、前記画面に前記発光手段のx−y平面上の位置に小ウィンドウを表示させ、該小ウィンドウ内には、前記画面に表示される画像のうち、前記発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させ、前記発光手段のz座標値に応じて前記小ウィンドウ内に表示する画像の拡大率を変化させると共に前記小ウィンドウ内に表示される画像の凹凸状態を変化させる実行手段と、
を含む3次元指示入力装置。A light emitting means that can be worn on the hand or finger of the instruction input person;
Measuring means for receiving light emitted from the light emitting means and measuring a three-dimensional position of the light emitting means from the received light;
A plane that substantially coincides with the screen displaying the predetermined information is defined as an xy plane, and a space on the front surface of the screen is a first area in order from the screen in the z-axis direction perpendicular to the xy plane. The light emission for each boundary that divides the three areas from the z coordinate value of the three-dimensional position of the light emitting means obtained by the measuring means, divided into three areas, the second area and the third area. Select, click, double-click, drag and drop to determine how to pass the means, and depending on the way of passing, and so that feedback is applied to at least one of the five senses of the instruction input person a means for executing the function of the two-dimensional mice containing, as feedback visually appealing of the instruction input person, a small window at a position on the x-y plane of said light emitting means to said screen In the small window, among the images displayed on the screen, an image of a predetermined area including a position on the xy plane of the light emitting means is enlarged and displayed, and z of the light emitting means is displayed. Execution means for changing an enlargement ratio of an image displayed in the small window according to a coordinate value and changing an uneven state of the image displayed in the small window ;
A three-dimensional instruction input device.
前記発光手段から発光された光を受光すると共に、前記発光手段の3次元位置を前記受光した光から計測する計測手段と、
所定の情報を表示する画面に略一致する平面をx−y平面とし、前記画面の前面の空間を、該x−y平面に対して垂直なz軸方向に前記画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉え、前記計測手段により得られる前記発光手段の3次元位置のz座標値から前記3つの領域を分割する各境界に対する前記発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ前記指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにして、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する実行手段であって、前記指示入力者の視覚に訴えるフィードバックとして、前記画面に前記発光手段のx−y平面上の位置に小ウィンドウを表示させ、該小ウィンドウ内には、前記画面に表示される画像のうち、前記発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させ、前記発光手段のz座標値に応じて前記小ウィンドウ内に表示する画像の拡大率を変化させると共に前記小ウィンドウの大きさまたは/および形状を変化させる実行手段と、
を含む3次元指示入力装置。A light emitting means that can be worn on the hand or finger of the instruction input person;
Measuring means for receiving light emitted from the light emitting means and measuring a three-dimensional position of the light emitting means from the received light;
A plane that substantially coincides with the screen displaying the predetermined information is defined as an xy plane, and a space on the front surface of the screen is a first area in order from the screen in the z-axis direction perpendicular to the xy plane. The light emission for each boundary that divides the three areas from the z coordinate value of the three-dimensional position of the light emitting means obtained by the measuring means, divided into three areas, the second area and the third area. Select, click, double-click, drag and drop to determine how to pass the means, and depending on the way of passing, and so that feedback is applied to at least one of the five senses of the instruction input person a means for executing the function of the two-dimensional mice containing, as feedback visually appealing of the instruction input person, a small window at a position on the x-y plane of said light emitting means to said screen In the small window, among the images displayed on the screen, an image of a predetermined area including a position on the xy plane of the light emitting means is enlarged and displayed, and z of the light emitting means is displayed. Execution means for changing an enlargement ratio of an image to be displayed in the small window according to a coordinate value and changing a size or / and a shape of the small window ;
A three-dimensional instruction input device.
前記実行手段は、前記発光手段が該2つの領域の境界を一方向に通過したときに、2次元マウスにおけるドラッグの機能を実行し、該境界を逆方向に通過したときに、2次元マウスにおけるドロップの機能を実行する請求項9〜請求項11のいずれか1項記載の3次元指示入力装置。The first area is divided into an area close to the screen and an area close to the second area,
The execution means executes a drag function in the two-dimensional mouse when the light-emitting means passes through the boundary between the two regions in one direction, and executes the drag function in the two-dimensional mouse when the light-emitting means passes in the opposite direction. The three-dimensional instruction input device according to any one of claims 9 to 11 , which executes a drop function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003096366A JP4172307B2 (en) | 2003-03-31 | 2003-03-31 | 3D instruction input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003096366A JP4172307B2 (en) | 2003-03-31 | 2003-03-31 | 3D instruction input device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004303000A JP2004303000A (en) | 2004-10-28 |
JP4172307B2 true JP4172307B2 (en) | 2008-10-29 |
Family
ID=33408459
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003096366A Expired - Fee Related JP4172307B2 (en) | 2003-03-31 | 2003-03-31 | 3D instruction input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4172307B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9207778B2 (en) | 2010-12-30 | 2015-12-08 | Samsung Electronics Co., Ltd. | Apparatus and method for sensing high precision signal using infrared light |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4438351B2 (en) * | 2003-08-22 | 2010-03-24 | 富士ゼロックス株式会社 | Instruction input device, instruction input system, instruction input method, and program |
JP4622792B2 (en) * | 2005-10-07 | 2011-02-02 | ソニー株式会社 | Remote operation system, remote operation device, information processing device, remote operation method, information processing method, and computer program |
US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
US7847787B1 (en) * | 2005-11-12 | 2010-12-07 | Navisense | Method and system for directing a control action |
DE102006037156A1 (en) * | 2006-03-22 | 2007-09-27 | Volkswagen Ag | Interactive operating device and method for operating the interactive operating device |
ITTO20060861A1 (en) * | 2006-12-04 | 2008-06-05 | St Microelectronics Srl | SENSOR DEVICE EQUIPPED WITH A CIRCUIT FOR DETECTING SINGLE OR MULTIPLE EVENTS FOR THE GENERATION OF CORRESPONDING SIGNALS OF INTERRUPTION |
JP2009116769A (en) * | 2007-11-09 | 2009-05-28 | Sony Corp | Input device, control method for input device and program |
US8296670B2 (en) * | 2008-05-19 | 2012-10-23 | Microsoft Corporation | Accessing a menu utilizing a drag-operation |
US20100149100A1 (en) * | 2008-12-15 | 2010-06-17 | Sony Ericsson Mobile Communications Ab | Electronic Devices, Systems, Methods and Computer Program Products for Detecting a User Input Device Having an Optical Marker Thereon |
JP6232694B2 (en) * | 2012-10-15 | 2017-11-22 | キヤノンマーケティングジャパン株式会社 | Information processing apparatus, control method thereof, and program |
JP5862587B2 (en) | 2013-03-25 | 2016-02-16 | コニカミノルタ株式会社 | Gesture discrimination device, gesture discrimination method, and computer program |
JP2014219938A (en) * | 2013-05-10 | 2014-11-20 | 株式会社ゲッシュ | Input assistance device, input assistance method, and program |
JP6190313B2 (en) * | 2014-04-23 | 2017-08-30 | カシオ計算機株式会社 | Information processing apparatus and program |
JP6131982B2 (en) * | 2015-04-06 | 2017-05-24 | コニカミノルタ株式会社 | Gesture discrimination device |
CN107787497B (en) * | 2015-06-10 | 2021-06-22 | 维塔驰有限公司 | Method and apparatus for detecting gestures in a user-based spatial coordinate system |
JP6892142B2 (en) * | 2015-10-14 | 2021-06-23 | マクセル株式会社 | Method of operation |
CN105468176A (en) * | 2015-11-20 | 2016-04-06 | 小米科技有限责任公司 | Air mouse remote control optimization method and device as well as air mouse remote control |
CN111857366B (en) * | 2020-06-15 | 2024-03-19 | 歌尔科技有限公司 | Method and device for determining double-click action of earphone and earphone |
JP2024162833A (en) * | 2023-05-11 | 2024-11-21 | 株式会社ステラリンク | Non-contact input device and input support application |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62165687A (en) * | 1986-01-17 | 1987-07-22 | 富士通株式会社 | Cursor display system |
JPH05329155A (en) * | 1992-05-29 | 1993-12-14 | Toshiba Corp | Ultrasonic diagnostic system |
JPH0612177A (en) * | 1992-06-29 | 1994-01-21 | Canon Inc | Information input method and device |
JPH06301477A (en) * | 1993-04-16 | 1994-10-28 | Kyoto Densoku Kk | Input device for pointed position of three-dimensional space |
JPH0816137A (en) * | 1994-06-29 | 1996-01-19 | Nec Corp | Three-dimensional coordinate input device and cursor display control system |
JP3784031B2 (en) * | 1996-03-18 | 2006-06-07 | 富士通株式会社 | Reaction area expansion apparatus and method for expanding an area that responds to a selection operation on a display screen |
JPH1185453A (en) * | 1997-09-08 | 1999-03-30 | Meidensha Corp | Window display processing method |
JP2000056917A (en) * | 1998-08-11 | 2000-02-25 | Nippon Telegr & Teleph Corp <Ntt> | 3D coordinate pointing device |
JP3936520B2 (en) * | 2000-06-13 | 2007-06-27 | 株式会社バンダイナムコゲームス | Information providing system and information storage medium for game |
-
2003
- 2003-03-31 JP JP2003096366A patent/JP4172307B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9207778B2 (en) | 2010-12-30 | 2015-12-08 | Samsung Electronics Co., Ltd. | Apparatus and method for sensing high precision signal using infrared light |
US9568306B2 (en) | 2010-12-30 | 2017-02-14 | Samsung Electronics Co., Ltd. | Apparatus and method for sensing high precision signal using infrared light |
Also Published As
Publication number | Publication date |
---|---|
JP2004303000A (en) | 2004-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4172307B2 (en) | 3D instruction input device | |
US12307580B2 (en) | Methods for manipulating objects in an environment | |
US12271560B2 (en) | External user interface for head worn computing | |
KR102478420B1 (en) | The effect of user interface camera | |
CN111766937B (en) | Virtual content interaction method and device, terminal equipment and storage medium | |
EP2480955B1 (en) | Remote control of computer devices | |
EP2395413B1 (en) | Gesture-based human machine interface | |
TW202105133A (en) | Virtual user interface using a peripheral device in artificial reality environments | |
KR100832355B1 (en) | 3d pointing method, 3d display control method, 3d pointing device, 3d display control device, 3d pointing program, and 3d display control program | |
US20170336872A1 (en) | External user interface for head worn computing | |
US20040227741A1 (en) | Instruction inputting device and instruction inputting method | |
US20170100664A1 (en) | External user interface for head worn computing | |
US20170017323A1 (en) | External user interface for head worn computing | |
US20160027211A1 (en) | External user interface for head worn computing | |
US20170024007A1 (en) | External user interface for head worn computing | |
JP5581817B2 (en) | Control system, control device, handheld device, control method and program. | |
JP2009157908A (en) | Information display terminal, information display method, and program | |
CN102915112A (en) | System and method for close-range movement tracking | |
JP2006209563A (en) | Interface device | |
CN101006414A (en) | Electronic device and a method for controlling the functions of the electronic device as well as a program product for implementing the method | |
JP7505113B2 (en) | Wearable terminal device, program, and display method | |
KR20240048522A (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
JP4438351B2 (en) | Instruction input device, instruction input system, instruction input method, and program | |
WO2022173561A1 (en) | Systems, methods, and graphical user interfaces for automatic measurement in augmented reality environments | |
JP2020071641A (en) | Input operation device and user interface system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080422 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080722 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080804 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4172307 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110822 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120822 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120822 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130822 Year of fee payment: 5 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |