JP2001282456A - Man-machine interface system - Google Patents
Man-machine interface systemInfo
- Publication number
- JP2001282456A JP2001282456A JP2000101513A JP2000101513A JP2001282456A JP 2001282456 A JP2001282456 A JP 2001282456A JP 2000101513 A JP2000101513 A JP 2000101513A JP 2000101513 A JP2000101513 A JP 2000101513A JP 2001282456 A JP2001282456 A JP 2001282456A
- Authority
- JP
- Japan
- Prior art keywords
- desk
- fingertip
- image
- man
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】机上の指先の画像を用いるマンマシーン・イン
ターフェース・システムの提供。
【解決手段】システム60における、指先の座標を求め
て行う処理を説明する。
机10上に置かれたユーザの手の領域を、赤外線カ
メラ50の画像より抽出する。
抽出された手領域からユーザの指先点を検出する。
カメラ画像上の指先点の位置座標から、キャリブレ
ーションによりあらかじめ求めておいた射影変換パラメ
ータを用いて、机上の位置座標に変換を行なう。
机上の指先位置情報をもとに、机上に投影したオブ
ジェクトや情報とインタラクションをとる。
(57) [Summary] [Problem] To provide a man-machine interface system using an image of a fingertip on a desk. A description will be given of a process performed by the system to obtain coordinates of a fingertip. The region of the user's hand placed on the desk 10 is extracted from the image of the infrared camera 50. A fingertip point of the user is detected from the extracted hand region. From the position coordinates of the fingertip point on the camera image, conversion is performed to the position coordinates on the desk using the projection conversion parameters obtained in advance by calibration. Interact with objects and information projected on the desk based on the fingertip position information on the desk.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、マンマシーン・イ
ンターフェースに関し、特に、コンピュータの利用に既
存の操作を意識させず、ユーザの快適性を重視し、計測
器などをユーザの身体に取り付けることでユーザの自由
度を低下させることのないインターフェースに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a man-machine interface, and more particularly, to attaching a measuring instrument or the like to a user's body while placing importance on user's comfort without being conscious of existing operations when using a computer. The present invention relates to an interface that does not reduce user flexibility.
【0002】[0002]
【技術的背景】コンピュータは我々の生活に深く浸透
し、その利用形態もさまざまである。以前では考えられ
なかったような非常に小型のコンピュータを携帯した
り、周囲の環境に埋め込まれ一見してそれと解らないよ
うな場所での利用も行なわれている。将来的にはウェア
ラブル・パソコンやPDAのような人に取り付ける形態
と、机や壁、部屋などユーザの周囲の環境に融合した形
態の2つの流れにそって発展してゆくと考えられる。こ
のような流れの中で、マンマシーン・インターフェース
について考えると、現在のGUI等に代表されるインタ
ーフェースは、ユーザをインターフェースに縛り付け、
本来行ないたい作業とは別にインターフェースにも気を
配らなければならなかった。そこで次世代のインターフ
ェースではユーザの行ないたい作業に対してより直接的
でより自然な操作を行なうことのできるインターフェー
スが求められている。[Technical Background] Computers have penetrated deeply into our lives, and their use is diverse. They carry very small computers that they could not have imagined before, or are used in places that are embedded in the surrounding environment and seemingly invisible. In the future, it is expected that the system will be developed in two forms: a form such as a wearable personal computer and a PDA that is attached to a person, and a form that is integrated with the environment around the user such as a desk, wall, and room. Considering the man-machine interface in such a flow, the interface represented by the current GUI etc. binds the user to the interface,
I had to pay attention to the interface apart from what I wanted to do. Therefore, in the next-generation interface, an interface capable of performing a more direct and more natural operation for a task that the user wants to perform is required.
【0003】そこで、コンピュータを用いた情報の検索
や利用において、ユーザのインターフェースによる負担
の軽減のため、実世界でのユーザの作業や操作をコンピ
ュータが支援し、キーボードやマウスのみによる従来型
のインターフェースよりも快適に利用できる次世代のイ
ンターフェースとして、実世界指向、状況認識によるイ
ンターフェースに期待が寄せられている。実世界指向ユ
ーザ・インターフェースは、実世界のユーザの状況を常
にコンピュータが認識し、ユーザの意図を汲み取ってコ
ンピュータが作業を支援する。これにより、既存のコン
ピュータの操作を感じさせない透明なインターフェース
の実現を目指している。この実世界指向インターフェー
スを机上での作業に応用し、机型実世界指向インターフ
ェースの一例として、“机”に統合された実世界指向イ
ンターフェース(Enhanced Desk)の開発が進められて
いる。机上での作業とコンピュータでの作業の融合に注
目した例として、Digital Desk(例えば、小池「Bit別
冊 ビジュアルインターフェース−ポストGUIを目指し
て−」共立出版、2.1章、 pp.24-44等参照)がよく知ら
れている。Digital Deskでは机上に投影されたコンピュ
ータ画面を指先などで操作するものである。ユーザは机
上に投影されたイラストを切り取ってコピーしたり、机
上に投影された電卓で計算をすることができる。[0003] Therefore, in order to reduce the burden of the user interface in searching and using information using the computer, the computer supports the work and operation of the user in the real world, and the conventional interface using only a keyboard and a mouse. The next-generation interface that can be used more comfortably is expected to be a real-world oriented, situation-aware interface. In the real world oriented user interface, the computer constantly recognizes the situation of the user in the real world, and the computer assists the work by sampling the user's intention. In this way, we aim to realize a transparent interface that does not feel the operation of existing computers. By applying this real-world-oriented interface to work on a desk, a real-world-oriented interface (Enhanced Desk) integrated into a “desk” is being developed as an example of a desk-type real-world-oriented interface. Digital Desk (for example, see Koike "Bit Separate Volume Visual Interface-Towards Post-GUI", Kyoritsu Shuppan, Chapter 2.1, pp.24-44, etc.) as an example focusing on the fusion of work on a desk and work on a computer Is well known. In Digital Desk, a computer screen projected on a desk is operated with a fingertip or the like. The user can cut and copy the illustration projected on the desk, or perform calculations with the calculator projected on the desk.
【0004】机上での紙書類に着目し、紙書類と電子情
報の統合利用を試みている例もある(M.Kobayashi and
H.Koike: Enhanced Desk、 Integrating Paper Documen
ts and Digital Documents; Proceedings of 1998 Asia
Pacific Computer Human Interaction、 pp.167-174
(1998)参照)。この例では、紙書類と電子情報の対応づ
けのためにあらかじめ紙書類に付与したバーコードを用
いているが、バーコードがある程度以上の大きさで観察
されることが必要なため、大型のバーコードを用いなけ
ればならなかった。またユーザの手領域を認識するため
に肌色抽出を行なっていたが、机上に肌色に近い物体が
あると誤認識されたり、ユーザの手の上に映像が投影さ
れると、手領域抽出がうまくいかないといった問題点が
あった。ユーザの指先位置の認識についても常に特定の
手の向きを仮定し、指先は1点とするなどの制約が多
く、また認識精度の不十分さが大きな問題であった。そ
して一連の処理をソフトウエアで行なっているため実時
間処理が不可能であった。[0004] In some cases, attention has been paid to paper documents on a desk, and an attempt has been made to integrate and utilize paper documents and electronic information (M. Kobayashi and
H.Koike: Enhanced Desk, Integrating Paper Documen
ts and Digital Documents; Proceedings of 1998 Asia
Pacific Computer Human Interaction, pp.167-174
(1998)). In this example, a barcode previously assigned to the paper document is used to associate the paper document with the electronic information. However, since the barcode needs to be observed in a certain size or more, a large barcode is required. Had to use code. In addition, skin color extraction has been performed to recognize the user's hand region. However, if an object close to the skin color is erroneously recognized on the desk or an image is projected on the user's hand, the hand region extraction does not work well. There was a problem. Regarding the recognition of the user's fingertip position, there are many restrictions such as always assuming a specific hand orientation and one fingertip, and insufficient recognition accuracy has been a serious problem. Since a series of processing is performed by software, real-time processing is impossible.
【0005】[0005]
【発明が解決しようとする課題】本発明の目的は、ユー
ザの周囲の環境に融合したインターフェースとして、
“机”に統合された情報インターフェース・システムの
実現である。オフィスなどでは、机上でPCを使った作
業を行ない、また同時に紙書類を使った作業を行なうこ
とが多い。これらの机上での作業をコンピュータに机上
を観察させることによって、統合的に扱うことのできる
情報インターフェース・システムの提供を行なう。SUMMARY OF THE INVENTION An object of the present invention is to provide an interface that is integrated into the environment around a user.
This is the realization of an information interface system integrated on a “desk”. In an office or the like, work using a PC is often performed on a desk, and at the same time, work using paper documents is often performed. By making a computer observe these desk work, an information interface system that can be handled in an integrated manner is provided.
【0006】[0006]
【課題を解決するための手段】上記目的を達成するため
に、本発明は、机上の指先の画像を用いるマンマシーン
・インターフェース・システムであって、机上の画像を
得る赤外線カメラと、前記赤外線カメラによる画像を入
力して、処理する処理システムとを有しており、前記処
理システムは、画像から手領域を体温を利用して抽出
し、抽出した手領域から、指先を予め用意したパターン
とのパターン・マッチングにより特定し、特定した指先
の机上の座標を求めることを特徴とするマンマシーン・
インターフェース・システムである。前記予め用意した
パターンは、円形のパターンとすることもできる。これ
により、指先の認識精度を高め、しかも高速に認識処理
を行うことができる。To achieve the above object, the present invention relates to a man-machine interface system using an image of a fingertip on a desk, comprising: an infrared camera for obtaining an image on a desk; and the infrared camera. And a processing system for inputting the image according to the above, and the processing system extracts the hand region from the image using the body temperature, and extracts the finger region from the extracted hand region with a pattern prepared in advance. A man machine characterized by pattern matching and finding the coordinates of the specified fingertip on the desk.
Interface system. The previously prepared pattern may be a circular pattern. Thereby, the recognition accuracy of the fingertip can be improved, and the recognition process can be performed at high speed.
【0007】さらに、前記求めた指先が1本であるとき
は、指差し動作であると認識することができ、この指差
し動作で、マウス等で行うポインティング操作を行うこ
とができる。さらに、撮影位置の制御ができるカメラを
備えるとともに、前記指差し動作を行うことで、その指
先の机上の座標に、前記カメラの撮影位置を合わせる制
御を行うことができる。これにより、前記カメラで撮影
した画像を取り込み、取り込んだ画像から、バーコード
を抽出して、バーコード認識処理を行うこともできる。
さらに、音声入力手段を備えるとともに、前記音声入力
手段による音声を入力し、音声認識処理を行うことによ
り、音声によるコマンド等を入力することができる。さ
らに、プロジェクタを備え、前記プロジェクタにより、
コンピュータ画面を机上に投影することにより、コンピ
ュータ画面とのインタラクティブな処理も行うことがで
きる。上述の処理を行わせるプログラムを格納した記録
媒体も本発明である。Further, when the number of fingertips obtained is one, it can be recognized as a pointing operation, and a pointing operation performed by a mouse or the like can be performed by the pointing operation. In addition, a camera capable of controlling the shooting position is provided, and by performing the pointing operation, it is possible to perform control for adjusting the shooting position of the camera to the coordinates of the fingertip on the desk. This makes it possible to capture an image captured by the camera, extract a barcode from the captured image, and perform a barcode recognition process.
In addition, a voice input means is provided, and a voice command can be input by inputting voice from the voice input means and performing voice recognition processing. Furthermore, a projector is provided, and by the projector,
By projecting the computer screen on the desk, interactive processing with the computer screen can also be performed. The present invention also includes a recording medium storing a program for performing the above-described processing.
【0008】[0008]
【発明の実施の形態】本発明のマンマシーン・インター
フェース・システムは、以下の特徴を有しているもので
ある。 (1)赤外線カメラを利用して、ユーザの皮膚領域から
の放射光を測定することにより、ユーザの手領域を安定
に抽出する。 (2)正規化相関等に基づいた、テンプレート・マッチ
ングの利用により、ユーザの指先の高速追跡を実現す
る。 (3)机上の小さなバーコードの認識を行なうため、ズ
ーム機能付パンチルト・カメラを用いてユーザの指先周
辺を拡大追跡する。 (4)処理の高速化のため、画像処理ハードウエアの利
用と分散処理の適用を行う。 以下に、これらの特徴を中心として、本発明の実施形態
を、図面を参照して、詳細に説明する。DESCRIPTION OF THE PREFERRED EMBODIMENTS A man-machine interface system according to the present invention has the following features. (1) A user's hand region is stably extracted by measuring radiation light from a user's skin region using an infrared camera. (2) High-speed tracking of a user's fingertip is realized by using template matching based on normalized correlation or the like. (3) In order to recognize a small barcode on the desk, the area around the user's fingertip is enlarged and tracked using a pan-tilt camera with a zoom function. (4) Use image processing hardware and apply distributed processing to speed up processing. Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings, focusing on these features.
【0009】図1は、本発明の実施形態であるエンハン
スト・ディスク(Enhanced Desk)の外観図である。図
1に示すように、通常の机10の上方にプロジェクタ3
0を取り付け、コンピュータ(図示せず)の画面を鏡4
4で反射させ、机上に画面12を投影する。机上を観察
するカメラは2台設置した。1台は赤外線カメラ50で
あり、机10左側から上を向けて設置し、表面反射鏡4
2ごしに机上の撮影を行なう。もう1台のズーム機能付
パンチルト・カメラ20は、机の右上方に設置し、机上
の一部分を拡大して撮影することができる。また、図示
していないが、スピーカとマイクも設置されており、音
声等の入出力の機能も持っている。FIG. 1 is an external view of an enhanced disk (Enhanced Desk) according to an embodiment of the present invention. As shown in FIG. 1, a projector 3 is placed above a normal desk 10.
0 and mirror the screen of the computer (not shown)
The light is reflected at 4 and the screen 12 is projected on the desk. Two cameras were installed to observe the desk. One is an infrared camera 50, which is installed with the desk 10 facing upward from the left side,
2. Take a photo on the desk. Another pan-tilt camera 20 with a zoom function is installed at the upper right of the desk, and can enlarge a part of the desk to take a picture. Although not shown, a speaker and a microphone are also provided, and have a function of inputting and outputting voices and the like.
【0010】図2は、実施形態におけるシステム構成図
を示している。図2において、コンピュータ・システム
60で生成された投影画像が、プロジェクタ30により
表面反射鏡44を介して、机10上に投影される。ま
た、机10上の画像を撮像しているパンチルト・カメラ
20の姿勢等は、コンピュータ・システム60により制
御されている。パンチルト・カメラ20で撮像された画
像も、コンピュータ・システム60内に取り込まれて処
理される。赤外線カメラ50で撮像された机上の画像
も、コンピュータ・システム60に取り込まれて処理さ
れる。本発明のエンハンスト・ディスクでの主な処理の
流れを以下に示す。 ユーザの手領域を、赤外線カメラ50の画像より抽
出する。 抽出された手領域からユーザの指先点を検出する。 カメラ画像上の指先点の位置座標から、キャリブレ
ーションによりあらかじめ求めておいた射影変換パラメ
ータを用いて、机上の位置座標に変換を行なう。 机上の指先位置情報をもとに机上に投影したオブジ
ェクトや情報とインタラクションをとる。 これらの処理について、以下詳細に説明する。FIG. 2 shows a system configuration diagram in the embodiment. In FIG. 2, a projection image generated by the computer system 60 is projected on the desk 10 by the projector 30 via the surface reflecting mirror 44. In addition, the posture and the like of the pan / tilt camera 20 that is capturing an image on the desk 10 are controlled by the computer system 60. Images captured by the pan / tilt camera 20 are also captured and processed in the computer system 60. The image on the desk captured by the infrared camera 50 is also captured by the computer system 60 and processed. The main processing flow in the enhanced disk of the present invention is shown below. The user's hand region is extracted from the image of the infrared camera 50. A fingertip point of the user is detected from the extracted hand region. From the position coordinates of the fingertip point on the camera image, conversion is performed to the position coordinates on the desk using the projection conversion parameters obtained in advance by calibration. Interact with objects and information projected on the desk based on the fingertip position information on the desk. These processes will be described in detail below.
【0011】<手領域の抽出>手領域の抽出には、背景
差分やカラー・カメラによる肌色抽出が一般的に用いら
れている。しかし、これらの手法では、背景の状態によ
っては手領域を抽出することが困難な場合が多い。特に
本システムで想定される作業環境では、机上に紙書類や
書籍などを開くことが考えられ、プロジェクタにより電
子情報を投影するために、ユーザの手領域の色が一定で
はないなどの問題点がある。そこで、本システムでは、
手領域を安定に抽出するために赤外線カメラ50を利用
した。机上を観察している赤外線カメラの画像から、人
の体温をもとに手領域を切り出すことができる。赤外線
カメラを利用して、人の体温の近傍(30℃〜34℃)
を撮影することにより、机上の手の様子を例えばNTS
Cの256階調の映像として得ることができる。この映
像を一定の閾値で2値化処理し手領域を抽出する。図3
に、赤外線カメラからの画像をもとに、手領域の抽出処
理を説明する。図3(a)は、赤外線カメラ50からの
画像である。コンピュータ・システム60で取り込む際
の解像度は256×220画素である。そして、この画
像から、人の体温の近傍(30℃〜34℃)の画像を抽
出する。これを示したのが図3(b)であり、手領域の
部分を抽出して2値化したものである。図3(b)に示
すように、この手法により、背景や照明の変化に影響さ
れず手領域だけを安定に抽出することができる。赤外線
カメラは、例えばニコン・サーマルビション(LAIR
D3A)を使用することができる。このカメラは、有効
画素数768×465画素、フィールドタイム1/60
秒で−20℃〜50℃までの範囲を撮影することができ
る。<Extraction of Hand Region> Extraction of a hand region generally uses background subtraction or skin color extraction using a color camera. However, with these methods, it is often difficult to extract a hand region depending on the state of the background. In particular, in the work environment envisioned by this system, paper documents and books may be opened on a desk, and the projection of electronic information by a projector may cause problems such as the color of the user's hand area not being constant. is there. Therefore, in this system,
The infrared camera 50 was used to stably extract the hand region. From the image of the infrared camera observing the desk, the hand region can be cut out based on the human body temperature. Using an infrared camera, near the human body temperature (30 ° C to 34 ° C)
By taking a picture of the hand on the desk, for example, NTS
It can be obtained as an image of 256 gradations of C. This image is binarized with a certain threshold to extract a hand region. FIG.
Next, a process of extracting a hand region based on an image from an infrared camera will be described. FIG. 3A is an image from the infrared camera 50. The resolution at the time of capturing by the computer system 60 is 256 × 220 pixels. Then, an image near the human body temperature (30 ° C. to 34 ° C.) is extracted from this image. This is shown in FIG. 3B, in which the hand region is extracted and binarized. As shown in FIG. 3B, by this method, only the hand region can be stably extracted without being affected by changes in the background or illumination. An infrared camera is, for example, a Nikon Thermal Bichon (LAIR)
D3A) can be used. This camera has 768 x 465 effective pixels and 1/60 field time.
A range from -20 ° C to 50 ° C can be photographed in seconds.
【0012】<指先位置の認識>指先位置の検出は、ユ
ーザの手は机上にあり、カメラとユーザの手の距離はほ
ぼ一定で見かけ上の大きさが極端に変わらないことか
ら、一定の大きさのテンプレートで指先位置を検出する
ことができる。指先位置の認識は一般に、指先形状の輪
郭が円に近いことに基づき、円形テンプレートを用い
て、手領域周辺で正規化相関に基づくパターン・マッチ
ングを行なうことで検出する。ユーザの手は机上にあ
り、見かけ上の大きさが極端に変わらないことから、パ
ターン・マッチング処理の対象を手領域の一定範囲内の
みに限定し、処理の高速化を図っている。この指先位置
の認識を図4を用いて説明する。パターン・マッチング
処理は、例えば手領域を切り出して2値化した256×
220画素の画像(図3(b)参照)に対して、図4
(a)に示す15×15画素の大きさのテンプレートを
用いて、相関値を用いて一致検出を行う。パターン・マ
ッチング処理の後、あまりにも近接した場所で多くの相
関値の高い点が見つかった場合、そのうちの一番相関値
の高い点を残し、残りを指先候補点から除外する。これ
によりいくつかの指先候補点が得られるので、それらの
うち指先点以外の誤認識された点を除外する。この処理
は、図4(b)に示すように、テンプレートの周囲8点
(矩形の4頂点及び各辺の二等分点)に対応するピクセ
ルを調べ、指先点かどうかを判定する。この処理により
指先がテンプレートを突き抜けていたり(図4(b)の
ERROR)、テンプレートの周囲に指らしきピクセル
が何もない場合なども指先点候補から除外する。最終的
に、図4(c)に示すように、指先候補点を相関値の高
い順に5つまで採用しユーザの指先点とする。本システ
ムにおける指先検出処理の実施例としては、日立画像処
理ボードIP5010を用いて行なっている。IP50
10は白黒濃淡画像で40画面分のメモリをもった画像
処理ボードであり、メモリ上に保存した画像間で2値化
や差分といった画像処理を、ハードウエアで高速に行な
うことのできるボードである。OSはWindowsN
T(登録商標)およびLinuxに対応しており、多く
の画像処理関数がライブラリとして用意されている。本
実施例では、ネットワークとの親和性を鑑み、OSにL
inuxを利用した。<Recognition of Fingertip Position> The fingertip position is detected at a fixed size because the user's hand is on the desk, the distance between the camera and the user's hand is almost constant, and the apparent size does not change extremely. The fingertip position can be detected using the template. Generally, the fingertip position is recognized based on the fact that the contour of the fingertip shape is close to a circle, and performing pattern matching based on normalized correlation around the hand region using a circular template. Since the user's hand is on the desk and the apparent size does not change extremely, the target of the pattern matching processing is limited to only a certain range of the hand area, and the processing is speeded up. The recognition of the fingertip position will be described with reference to FIG. In the pattern matching process, for example, a hand region is cut out and binarized to 256 ×
For an image of 220 pixels (see FIG. 3B), FIG.
Using a template having a size of 15 × 15 pixels shown in (a), a match is detected using a correlation value. After the pattern matching process, if many points having a high correlation value are found in places that are too close, the point having the highest correlation value is left, and the rest are excluded from fingertip candidate points. As a result, several fingertip candidate points are obtained, and among them, misrecognized points other than the fingertip points are excluded. In this process, as shown in FIG. 4B, pixels corresponding to eight points around the template (four vertices of the rectangle and bisecting points of each side) are examined to determine whether or not the fingertip point. By this process, the fingertip penetrates the template (ERROR in FIG. 4B), and the case where there is no pixel which seems to be a finger around the template is also excluded from the fingertip point candidates. Finally, as shown in FIG. 4C, up to five fingertip candidate points are adopted in descending order of the correlation value, and are used as the user's fingertip points. As an embodiment of the fingertip detection processing in this system, the fingertip detection processing is performed using the Hitachi image processing board IP5010. IP50
Reference numeral 10 denotes an image processing board having a memory for 40 screens of black and white grayscale images, which is a board capable of performing image processing such as binarization and difference between images stored in the memory at high speed by hardware. . OS is WindowsN
T (registered trademark) and Linux, and many image processing functions are prepared as a library. In this embodiment, in consideration of the affinity with the network, the OS
Inux was used.
【0013】<カメラ画像座標と机上平面座標の補正>
赤外線画像中で検出された位置が机上でどの位置に対応
するかを知るため、赤外線カメラ画像座標と机上平面座
標の補正を行なう。ここでは、赤外線カメラ画像座標と
机上平面座標の対応点をいくつか定義し、その関係を元
に赤外線カメラ画像座標(x、y)と机上平面座標(x'、y')
の間の対応を式(1)のように射影変換を用いて表現す
る。<Correction of camera image coordinates and desk plane coordinates>
In order to know which position on the desk corresponds to the position detected in the infrared image, the coordinates of the image of the infrared camera and the coordinates of the plane on the desk are corrected. Here, several corresponding points between the infrared camera image coordinates and the desktop plane coordinates are defined, and based on the relationship, the infrared camera image coordinates (x, y) and the desktop plane coordinates (x ', y')
Is expressed using projective transformation as shown in equation (1).
【数1】 対応点を求めるために、赤外線カメラ対応点の測定を説
明する図5を用いて説明する。机10に対して、机上平
面の座標系を設定する。このために、机上の目標点の位
置にキャリブレーション板70を作成し、これを机上に
置くことで机上座標系を設定する。手領域を切り出す赤
外線カメラでは、温度差が画像として出力されるため、
図5に示すように、このキャリブレーション板の対応点
に小型電球72を埋め込み、点灯した電球を赤外線カメ
ラで撮影して対応点を計測する。対応点の組を計測後、
その関係をもとに射影変換パラメータ(c1〜c8)を決定
する。このパラメータを用いて変換を行なうことによっ
て画像のゆがみや、位置のずれなどを補正することがで
きる。この射影変換パラメータを得るためには最低4組
の対応点があればよいが、本システムでは、安定に解を
求めるため、図5に示すように対応点(小型電球)を9
組用意した。この9組に対して、上記の連立方程式を特
異値分解法を用いて解くことで、変換のパラメータを求
めた。本システムでは、処理軽減のため机上の座標系と
プロジェクタで机上に投影した画像の座標系を同一と
し、机上平面座標の値とプロジェクタ投影画像の画素の
位置座標を等しくしている。これにより、机上平面上の
指先位置にプロジェクタの画像を投影するには、単に机
上平面座標上での座標値にオブジェクトを描画した画像
を投影すればよく、処理の軽減を図ることができる。(Equation 1) In order to obtain a corresponding point, a description will be given with reference to FIG. A desk-top coordinate system is set for the desk 10. For this purpose, the calibration plate 70 is created at the position of the target point on the desk, and is placed on the desk to set the desk coordinate system. With an infrared camera that cuts out the hand area, the temperature difference is output as an image,
As shown in FIG. 5, a small light bulb 72 is embedded in the corresponding point of the calibration plate, and the lighted light bulb is photographed by an infrared camera to measure the corresponding point. After measuring the set of corresponding points,
Determining projective transformation parameters (c 1 ~c 8) on the basis of that relationship. By performing conversion using these parameters, it is possible to correct image distortion, positional deviation, and the like. In order to obtain the projective transformation parameters, at least four sets of corresponding points are required. However, in this system, in order to stably find a solution, as shown in FIG.
I prepared a pair. With respect to these nine sets, the above simultaneous equations were solved using the singular value decomposition method, thereby obtaining conversion parameters. In this system, the coordinate system on the desk is the same as the coordinate system of the image projected on the desk by the projector for the purpose of reducing the processing, and the value of the plane coordinate on the desk is equal to the position coordinate of the pixel of the image projected on the projector. As a result, in order to project the image of the projector at the fingertip position on the desk plane, it is sufficient to simply project the image in which the object is drawn on the coordinate values on the desk plane coordinates, and the processing can be reduced.
【0014】<指先周辺の注視によるバーコード認識>
本システムでは、画像処理を行なって認識したユーザの
指先が1つだった場合、ユーザが指差し動作をしている
と判定することもできる。このことにより、例えば人差
し指だけで指すことにより、指差し動作であると認識し
て、この指先の座標を得ることにより、マウス等のポイ
ンティングの代わりに用いることができる。この指差し
動作をしている指先の周辺が注目している領域であると
みなすこともできる。この応用であるパンチルト・カメ
ラ20で、1本の指先の注目領域を追跡する処理を、以
下に説明する。<Barcode recognition by gazing around the fingertip>
In the present system, when the user's fingertip recognized by performing the image processing is one, it can be determined that the user is performing the pointing operation. Thus, for example, by pointing only with the index finger, it is recognized as a pointing operation, and the coordinates of the fingertip are obtained, so that it can be used instead of pointing such as a mouse. The area around the fingertip performing the pointing operation can be regarded as a region of interest. The process of tracking the attention area of one fingertip by the pan / tilt camera 20 as this application will be described below.
【0015】(指先追跡処理の流れ)パンチルト・カメ
ラ20における指先追跡の処理の流れを以下に示す。 机上平面とパンチルト駆動平面の2平面間で対応点
を計測し、射影変換パラメータを算出しておく。 画像処理によって赤外線カメラ画像上の指先点の位
置を計測する。 赤外線カメラ画像上の指先点の位置を射影変換によ
り机上平面上の座標に変換する。 机上の指先点の位置をパンチルト駆動平面に射影変
換を用いて変換する。 パンチルト駆動平面上の座標をカメラにVISCAコー
ドで送出し、カメラをユーザの指先点に向かせる。 指先点に向いたカメラの画像を処理する。(Flow of Fingertip Tracking Process) The flow of the fingertip tracking process in the pan / tilt camera 20 will be described below. Corresponding points are measured between two planes, a desktop plane and a pan-tilt drive plane, and a projection transformation parameter is calculated in advance. The position of the fingertip point on the infrared camera image is measured by image processing. The position of the fingertip point on the infrared camera image is transformed into coordinates on the desk plane by projective transformation. The position of the fingertip point on the desk is converted to the pan-tilt drive plane using the projective conversion. The coordinates on the pan / tilt drive plane are sent to the camera in VISCA code, and the camera is directed to the user's fingertip. Process the image of the camera facing the fingertip point.
【0016】(射影変換パラメータの算出)本システム
では、机上の指先位置が、カメラ20のパンチルト駆動
平面上でどの座標位置にあるかがわかればよい。この処
理は、パンチルト・カメラ20が現在、駆動平面上でど
の座標値をとっているかを知ることができるので、これ
を利用して行う。先に、カメラ画像座標と机上座標の補
正を行なったことを説明したが、指先追跡においても同
様の手法を用いて、カメラ20による座標補正を行なっ
ている。そのためにまず、今までの処理で指先の机上座
標はわかっているので、その机上位置に対応したパンチ
ルト・カメラ20の駆動平面上の位置を算出する。対応
点は4組以上計測する。この計測は、机上の対応点をパ
ンチルトカメラが中心に捕らえるように位置を調節し、
その時点でのパンチルト駆動平面上の座標値を対応点と
して測定する。この対応点をもとに先の射影変換を用い
て、机上座標からパンチルト駆動平面上の座標に変換す
るパラメータを求める。指先追跡のためのカメラ20
は、座標を指定することでその方向にカメラを向けるこ
とができる機能を有している。この機能を利用して、ユ
ーザの指先を追跡させている。実施例として、指先追跡
のための追跡カメラ20は例えば、垂直方向-7794〜779
4、水平方向-15570〜15570の大きさのパンチルト駆動平
面をもっているSony EVI-G20パンチルトカメラを使用
し、PCのシリアルポートからVISCAコマンドをカメラ
に送信することによって、カメラのパンチルト制御を行
なっている。(Calculation of Projection Transformation Parameters) In this system, it is only necessary to know the coordinate position of the fingertip position on the desk on the pan / tilt drive plane of the camera 20. This process is performed using the pan / tilt camera 20 because it is possible to know which coordinate value is currently being taken on the driving plane. It has been described above that the camera image coordinates and the desk coordinates have been corrected, but the fingertip tracking also uses the camera 20 to perform the coordinate correction using the same method. For this purpose, first, since the desktop coordinates of the fingertip are known in the processing so far, the position on the driving plane of the pan / tilt camera 20 corresponding to the desktop position is calculated. Measure four or more pairs of corresponding points. This measurement adjusts the position so that the pan-tilt camera captures the corresponding point on the desk at the center,
The coordinate value on the pan / tilt drive plane at that time is measured as a corresponding point. Based on the corresponding points, the parameters for converting the coordinates on the desk to the coordinates on the pan-tilt drive plane are obtained by using the above-mentioned projective transformation. Camera 20 for fingertip tracking
Has a function of pointing a camera in that direction by designating coordinates. Using this function, the user's fingertip is tracked. As an example, the tracking camera 20 for fingertip tracking is, for example, in the vertical direction -7794 to 779.
4. Using a Sony EVI-G20 pan / tilt camera having a pan / tilt drive plane with a size of -15570 to 15570 in the horizontal direction, and transmitting VISCA commands to the camera from the PC serial port to control the pan / tilt of the camera .
【0017】(指先追跡処理)さて、指先追跡処理を説
明する。赤外線カメラ50からの画像を上述の画像処理
によって、机10上の指先点の位置を計測する。赤外線
カメラ画像上の指先点の位置を射影変換により机上平面
上の座標に変換するとともに、1本の指先のみであるこ
とを認識する。求めた机上の指先点の位置を、上述のパ
ラメータにより、カメラ20のパンチルト駆動平面に射
影変換を用いて変換する。パンチルト駆動平面上の座標
をカメラにVISCAコードで送出し、カメラ20をユーザ
の指先点に向かせる。これにより、指先点を向いたカメ
ラ20の画像を取り込むことができる。(Fingertip Tracking Process) Now, the fingertip tracking process will be described. The position of the fingertip point on the desk 10 is measured by the above-described image processing of the image from the infrared camera 50. The position of the fingertip point on the infrared camera image is converted into coordinates on the desktop plane by projective transformation, and it is recognized that there is only one fingertip. The position of the obtained fingertip point on the desk is converted to the pan-tilt drive plane of the camera 20 using the projective conversion according to the above-mentioned parameters. The coordinates on the pan / tilt drive plane are sent to the camera using the VISCA code, and the camera 20 is directed to the fingertip point of the user. Thus, the image of the camera 20 facing the fingertip can be captured.
【0018】(バーコードの認識)以下に、このカメラ
20の映像を用いて、指先の拡大追跡を行ない、バーコ
ード等の小さい物体の認識を行なっている例を、図6を
用いて説明する。 図6は、指先の拡大追跡を行ない、
バーコード認識を行っている様子を示す。現実物体(紙
書類、書籍等)に、バーコードを取り付けることにより
認識を行ない、電子情報とのリンクを作成することがで
きる。バーコードには二次元マトリックス・コードを利
用した。この二次元バーコードはコードの種類だけでな
く、コードのある位置や、向きなどもコードから得るこ
とができるので、物体のコードが貼付されている位置を
記憶していれば、コードから物体の姿勢を計算すること
ができる。図6(a)に、2次元バーコードの例を示
す。この様なバーコードは、パンチルト・カメラ20で
撮影した画像の中に存在すれば認識される。認識するた
めにはカメラ画像中である程度の大きさが必要である
が、パンチルト・カメラ20が拡大した映像を撮影して
いるので、机上においた書類に貼り付けたバーコードで
も、約1.5×1.5cmの大きさのものまで認識することが可
能である。机上ではユーザの指差し動作によって、バー
コードが指差されれば、そのコードを認識し、それに対
応したインタラクションを起こすことができる。図6
(b)に、このバーコードに対する、指先の拡大追跡を
行なった様子を示す。図6(b)は、カメラ20の画像
を2値化した画像を示している。まず、赤外線カメラ5
0からの画像上の指先点の位置を画像処理によって計測
する。これにより、1本の指で指していること、および
その指先点の位置座標をえることができる。次に、赤外
線カメラ画像上の指先点の位置を射影変換により机上平
面上の座標に変換する。得られた机上の指先点の位置
を、パンチルト駆動平面に射影変換を用いて変換して、
得られたパンチルト駆動平面上の座標をカメラ20にVI
SCAコードで送出し、カメラ20をユーザの指先点に向
かせる。そして、指先点を向いたカメラ20の画像(図
6(b))を処理して、バーコード画像を認識して、バ
ーコードの読み取り処理を行う。バーコードの認識処理
は実施例として、例えば、ビデオ映像をSGI社のシス
テムであるO2のビデオ入力端子から320×240画素の大
きさで取り込み、2値化等の処理を行ない、バーコード
認識ライブラリを用いて認識を行なうことができる。画
像入力はSGI社のビデオ・ライブラリを使用してい
る。また、バーコード認識処理はソフトウエアで行なっ
ており、10〜15f/s程度の速度で実行が可能であ
る。(Barcode Recognition) An example in which a fingertip is enlarged and tracked by using the image of the camera 20 to recognize a small object such as a barcode will be described below with reference to FIG. . FIG. 6 shows an enlarged tracking of the fingertip,
This shows how barcode recognition is performed. Recognition can be performed by attaching a barcode to a real object (paper document, book, or the like), and a link to electronic information can be created. A two-dimensional matrix code was used for the barcode. This two-dimensional barcode can obtain not only the type of code but also the position and orientation of the code from the code.If the position where the code of the object is attached is stored, the code Posture can be calculated. FIG. 6A shows an example of a two-dimensional barcode. Such a barcode is recognized if it exists in an image captured by the pan / tilt camera 20. For recognition, a certain size is required in the camera image, but since the pan-tilt camera 20 is taking an enlarged image, even a barcode pasted on a document placed on a desk is about 1.5 × 1.5 It is possible to recognize even the size of cm. If a bar code is pointed by a user's pointing operation on a desk, the bar code can be recognized and an interaction corresponding to the bar code can be caused. FIG.
(B) shows a state in which the fingertip is expanded and tracked with respect to this barcode. FIG. 6B shows an image obtained by binarizing the image of the camera 20. First, infrared camera 5
The position of the fingertip point on the image from 0 is measured by image processing. In this way, it is possible to obtain that the finger is pointing with one finger and the position coordinates of the fingertip point. Next, the position of the fingertip point on the infrared camera image is transformed into coordinates on the desk plane by projective transformation. The position of the obtained fingertip point on the desk is converted to a pan-tilt drive plane using projective transformation,
The obtained coordinates on the pan / tilt driving plane are transferred to the camera 20 by VI.
SCA code is sent and the camera 20 is directed to the user's fingertip. Then, the image of the camera 20 facing the fingertip point (FIG. 6B) is processed, the barcode image is recognized, and the barcode reading process is performed. As an example of the barcode recognition processing, for example, a video image is captured in a size of 320 × 240 pixels from a video input terminal of O2 which is a system of SGI, and a process such as binarization is performed. Can be used for recognition. The image input uses an SGI video library. The barcode recognition processing is performed by software, and can be executed at a speed of about 10 to 15 f / s.
【0019】<音声認識>本システムには、ユーザとの
インタラクションの補助的役割として音声認識を使用し
ている。ここではユーザの指差し動作やオブジェクトの
移動や回転といった操作モードの変更を行なうためのキ
ーワードを認識させるためにのみ利用している。音声認
識はIBM ViaVoiceの音声認識エンジンを使用して行なっ
ている。本システムでは、あらかじめ登録してある単語
をユーザが発声したときに何らかのインタラクションを
起こすために、音声認識プロセスはメッセージ・サーバ
に対して、認識した単語の種類をメッセージとして常に
送っている。サーバに送られたメッセージは、情報提示
プロセスが受け取り、その単語に対応したインタラクシ
ョンを机上で起こすことが可能である。<Speech Recognition> The present system uses speech recognition as an auxiliary role for interaction with a user. Here, it is used only for recognizing a keyword for performing an operation mode change such as a user's pointing operation or moving or rotating an object. Speech recognition is performed using IBM ViaVoice's speech recognition engine. In this system, in order to cause some interaction when the user utters a word registered in advance, the speech recognition process always sends the type of the recognized word as a message to the message server. The message sent to the server is received by the information presentation process, and the interaction corresponding to the word can be caused on the desk.
【0020】<分散処理>本システムでは大きく分け
て、指先検出およびパンチルト・カメラによる指先追跡
処理、2次元バーコード認識処理、音声認識処理、情報
提示処理の4つの処理を行なっている。本システムでは
それぞれの処理を、高速化のため複数のマシンで分散処
理を行なっている。図7に分散処理の概略図を示す。指
先検出及びパンチルト・カメラ20による指先追跡処理
は、例えば、Pentium(登録商標)II 450
Mhzのパソコン64にLinuxと画像処理ボードIP5010
を導入したマシンを使用して行なっている。このプロセ
スにより、机上のユーザの指先数および位置を計測し、
指先の机上座標位置をメッセージ・サーバ68に送出し
ている。また、パンチルト・カメラ20の視線方向をユ
ーザの机上での指先位置になるようにカメラ20を制御
している。2次元バーコード認識処理では、パンチルト
・カメラ20の画像をSGI O2システム66のビデ
オ入力に取り込み、ソフトウエア処理によって2次元バ
ーコードの認識を行なっている。認識結果は常にメッセ
ージ・サーバ68に送出される。音声認識は、例えば、
PentiumII 330Mhzのパソコン62にWindowsNTとViaVoic
eを導入して処理を行なっている。ユーザがマイクに向
かって話した音声をすべて認識させ、そのうちあらかじ
め登録してある単語を認識した場合に、特定のメッセー
ジをメッセージ・サーバ68に送出している。最後に、
常にメッセージ・サーバ68に貯えられている情報を取
り出し、それに対応するインタラクションや画像を作成
する情報表示プロセスがある。これはいわばアプリケー
ション・プロセスであり、SGI O2システム66で
処理を行なっている。各々の処理間の通信を行うメッセ
ージ・サーバ68には、タプル空間通信システムTS Sy
stem/s、通称Lindaを用いている。このシステム68は
ネットワーク上でタプル・スペースと呼ばれる空間を共
有し、その空間を介して任意の文字列をセットとしたタ
プルと呼ばれるメッセージをやり取りすることによっ
て、通信を実現している。非同期通信であるため、個々
のプロセスが完全に独立して動作することができ、また
新しいプロセスの追加や変更が容易であるという利点が
ある。本システムでは、指先を毎秒20フレーム以上の実
用的な速度で、安定して検出することができた。<Distributed Processing> This system roughly performs four processes: fingertip detection, fingertip tracking by a pan-tilt camera, two-dimensional barcode recognition, voice recognition, and information presentation. In this system, each process is distributed by a plurality of machines for speeding up. FIG. 7 shows a schematic diagram of the distribution processing. The fingertip detection and the fingertip tracking processing by the pan / tilt camera 20 are performed, for example, by Pentium (registered trademark) II 450
Linux and image processing board IP5010 on Mhz PC 64
It is performed using a machine that has introduced. This process measures the number and position of the user's fingertips on the desk,
The desktop coordinate position of the fingertip is sent to the message server 68. Further, the camera 20 is controlled so that the line of sight of the pan / tilt camera 20 is located at the fingertip position on the user's desk. In the two-dimensional barcode recognition process, the image of the pan / tilt camera 20 is input to the video input of the SGI02 system 66, and the two-dimensional barcode is recognized by software processing. The recognition result is always sent to the message server 68. Voice recognition, for example,
WindowsNT and ViaVoic on PC 62 of PentiumII 330Mhz
e is introduced and processing is performed. When the user recognizes all voices spoken into the microphone and recognizes a word registered in advance, a specific message is sent to the message server 68. Finally,
There is an information display process for constantly retrieving information stored in the message server 68 and creating corresponding interactions and images. This is an application process, which is performed by the SGI O2 system 66. A message server 68 for performing communication between the processes includes a tuple space communication system TS Sy
stem / s, commonly known as Linda. The system 68 realizes communication by sharing a space called a tuple space on a network and exchanging a message called a tuple in which an arbitrary character string is set through the space. Because of asynchronous communication, each process can operate completely independently, and there is an advantage that a new process can be easily added or changed. This system was able to detect the fingertip stably at a practical speed of 20 frames per second or more.
【0021】<アプリケーション例> (簡易文字認識)机上でのユーザの指差し動作を追跡す
ることを利用して、ユーザが指で書いた文字を認識する
ことができる。例えば、プロジェクタ30から机上に投
影されたマス目に対して指で数字を書き入れると、その
数字を認識して、書いた数字を机上にプロジェクタ30
により表示することができる。ユーザの指先に単純なポ
インティング以外の意味を持たせるために利用できる。 (その他の応用)その他の応用として、ユーザの指先の
位置情報だけでなく、5本の指先の軌跡を利用したジェ
スチャ認識等も可能である。カメラによる拡大撮影が可
能になったことから、紙面の小さい文字も認識できると
思われるため、文字認識を利用し、紙書類と電子情報の
統合的な利用のための機能を付加するができる。また、
本システムを遠隔協調作業への応用として、遠隔地の2
つの机上を共有することによる机上平面を媒介としたコ
ミュニケーション環境の構築もできる。本発明は、上述
の分散コンピュータ・システムばかりではなく、複数の
システムから構成されるクライアント・サーバ・システ
ムやスタンド・アローンのシステムに適用してもよい。
本発明に関するプログラムを格納した記憶媒体から、プ
ログラムをシステムで読み出して実行することにより、
本発明の構成を実現することができる。この記録媒体に
は、フロッピー(登録商標)・ディスク、CD−RO
M、磁気テープ、ROMカセット等がある。<Example of Application> (Simplified Character Recognition) Characters written by the user with his / her finger can be recognized by utilizing the tracking of the user's pointing at the desk. For example, when a number is written with a finger on the square projected on the desk from the projector 30, the number is recognized, and the written number is placed on the desk by the projector 30.
Can be displayed. It can be used to give the user's fingertip a meaning other than simple pointing. (Other Applications) As other applications, not only positional information of the user's fingertip but also gesture recognition using the trajectory of five fingertips is possible. Since it becomes possible to recognize small characters on a paper because the camera can perform enlarged photographing, it is possible to add a function for integrated use of a paper document and electronic information using character recognition. Also,
This system is applied to remote coordination work.
It is also possible to build a communication environment via a desk surface by sharing one desk. The present invention may be applied not only to the above-mentioned distributed computer system but also to a client-server system or a stand-alone system including a plurality of systems.
By reading the program from the storage medium storing the program according to the present invention by the system and executing the program,
The configuration of the present invention can be realized. This recording medium includes a floppy (registered trademark) disk, a CD-RO
M, magnetic tape, ROM cassette and the like.
【0022】[0022]
【発明の効果】上述のように、本発明を用いると、机上
での電子情報と現実物体を統合的に扱うことのできる机
「Enhanced Desk」実現のために必要であるインターフ
ェースが実現できる。また、カメラで指先を拡大追跡し
ているため、例えば、小型のバーコードの認識が可能と
なり、机上の物体に不自然に大きなバーコードをつける
必要がなくなった。ユーザは、本発明のインターフェー
スを用いることにより、例えば机上に投影された3Dオ
ブジェクトを指先で回転させながら移動したり、書籍に
添付したバーコードを指差すことで関連するホームペー
ジを表示させるなど、従来のマウスやキーボードより
も、直感的で現実と密接にリンクしたインタラクション
を電子情報との間で行なうことができる。As described above, when the present invention is used, an interface necessary for realizing a desk "Enhanced Desk" capable of integrally handling electronic information on a desk and a real object can be realized. Further, since the fingertip is enlarged and tracked by the camera, for example, it is possible to recognize a small barcode, and it is not necessary to unnaturally attach a large barcode to an object on a desk. By using the interface of the present invention, a user can move a 3D object projected on a desk while rotating it with a fingertip, or display a related homepage by pointing to a barcode attached to a book. Can be more intuitive and more closely linked to reality than with a mouse or keyboard.
【図1】エンハンスト・ディスクの外観図である。FIG. 1 is an external view of an enhanced disk.
【図2】本発明のシステム構成図である。FIG. 2 is a system configuration diagram of the present invention.
【図3】手領域の抽出を示す図である。FIG. 3 is a diagram showing extraction of a hand region.
【図4】指先認識を説明する図である。FIG. 4 is a diagram illustrating fingertip recognition.
【図5】対応点の測定を説明する図である。FIG. 5 is a diagram illustrating measurement of corresponding points.
【図6】指先の拡大追跡を説明する図である。FIG. 6 is a diagram for explaining the enlarged tracking of a fingertip.
【図7】分散処理を説明する図である。FIG. 7 is a diagram illustrating a distributed process.
10 机 12 画面 20 ズーム機能付パンチルト・カメラ 30 プロジェクタ 42 表面反射鏡 44 表面反射鏡 50 赤外線カメラ 60 コンピュータ・システム 62 パソコン 64 パソコン 66 SGI O2・システム 68 メッセージ・サーバ 70 キャリブレーション板 72 小型電球 Reference Signs List 10 desks 12 screens 20 Pan-tilt camera with zoom function 30 Projector 42 Surface reflector 44 Surface reflector 50 Infrared camera 60 Computer system 62 Personal computer 64 Personal computer 66 SGIO2 system 68 Message server 70 Calibration plate 72 Small light bulb
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 1/00 340 G06T 1/00 340Z 5L096 7/00 300 7/00 300D Fターム(参考) 5B057 AA20 BA08 BA19 CA08 CA12 CA16 CB06 CB12 CB16 CC01 CE09 CE12 DA08 DB02 DB08 DC09 DC34 5B068 AA05 AA36 BB18 BC05 BD09 CC11 CC19 DD11 5B072 CC24 DD02 5B087 AA10 AB02 AD02 AE06 BC06 BC32 CC09 CC33 5E501 AA01 BA05 CA01 CB14 CB15 CC03 CC04 CC11 CC14 DA13 DA16 EA03 EA13 EA21 EB06 5L096 AA07 BA08 BA18 CA18 DA02 EA35 EA43 GA17 HA08 JA09 JA28 LA01 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (reference) G06T 1/00 340 G06T 1/00 340Z 5L096 7/00 300 7/00 300D F-term (reference) 5B057 AA20 BA08 BA19 CA08 CA12 CA16 CB06 CB12 CB16 CC01 CE09 CE12 DA08 DB02 DB08 DC09 DC34 5B068 AA05 AA36 BB18 BC05 BD09 CC11 CC19 DD11 5B072 CC24 DD02 5B087 AA10 AB02 AD02 AE06 BC06 BC32 CC09 CC33 5E501 AA03 CB05 CC13 CB14 EA21 EB06 5L096 AA07 BA08 BA18 CA18 DA02 EA35 EA43 GA17 HA08 JA09 JA28 LA01
Claims (8)
・インターフェース・システムであって、 机上の画像を得る赤外線カメラと、 前記赤外線カメラによる画像を入力して、処理する処理
システムとを有しており、 前記処理システムは、画像から手領域を体温を利用して
抽出し、 抽出した手領域から、指先を予め用意したパターンとの
パターン・マッチングにより特定し、 特定した指先の机上の座標を求めることを特徴とするマ
ンマシーン・インターフェース・システム。1. A man-machine interface system using an image of a fingertip on a desk, comprising: an infrared camera for obtaining an image on a desk; and a processing system for inputting and processing an image from the infrared camera. The processing system extracts a hand region from the image using body temperature, specifies a fingertip from the extracted hand region by pattern matching with a prepared pattern, and obtains a coordinate of the specified fingertip on a desk. A man-machine interface system.
フェース・システムにおいて、前記予め用意したパター
ンは、円形のパターンであることを特徴とするマンマシ
ーン・インターフェース・システム。2. The man-machine interface system according to claim 1, wherein the pattern prepared in advance is a circular pattern.
インターフェース・システムにおいて、前記処理システ
ムは、さらに、求めた指先が1本であるときは、指差し
動作であると認識する処理を含むことを特徴とするマン
マシーン・インターフェース・システム。3. The man machine according to claim 1 or 2,
In the interface system, the processing system further includes a process of recognizing a finger pointing operation when the number of obtained fingertips is one, further.
フェース・システムにおいて、さらに、撮影位置の制御
ができるカメラを備えるとともに、 前記処理システムは、前記指差し動作であると認識され
たとき、その指先の机上の座標に、前記カメラの撮影位
置を合わせる制御を行うことを特徴とするマンマシーン
・インターフェース・システム。4. The man-machine interface system according to claim 3, further comprising a camera capable of controlling a photographing position, and wherein said processing system recognizes the pointing operation when said finger pointing operation is performed. And controlling the camera to adjust the photographing position to the coordinates on the desk.
ターフェース・システムにおいて、 前記処理システムは、前記カメラで撮影した画像を取り
込み、 取り込んだ画像から、バーコードを抽出して、バーコー
ド認識処理を行うことを特徴とするマンマシーン・イン
ターフェース・システム。5. The man-machine interface system according to claim 4, wherein the processing system captures an image captured by the camera, extracts a barcode from the captured image, and performs a barcode recognition process. A man-machine interface system characterized by performing:
ンマシーン・インターフェース・システムにおいて、さ
らに、音声入力手段を備えるとともに、 前記処理システムは、前記音声入力手段から音声を入力
し、音声認識処理を行うことを特徴とするマンマシーン
・インターフェース・システム。6. The man-machine interface system according to claim 1, further comprising voice input means, wherein said processing system inputs voice from said voice input means, A man-machine interface system that performs recognition processing.
シーン・インターフェース・システムにおいて、さら
に、プロジェクタを備え、前記プロジェクタにより、コ
ンピュータ画面を机上に投影することを特徴とするマン
マシーン・インターフェース・システム。7. The man-machine interface according to claim 1, further comprising a projector, wherein the projector projects a computer screen onto a desk. ·system.
シーン・インターフェース・システムで行われる処理を
コンピュータ・システムに行わせるプログラムを格納し
た記録媒体。8. A recording medium storing a program for causing a computer system to execute processing performed by the man-machine interface system according to claim 1.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000101513A JP3834766B2 (en) | 2000-04-03 | 2000-04-03 | Man machine interface system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000101513A JP3834766B2 (en) | 2000-04-03 | 2000-04-03 | Man machine interface system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2001282456A true JP2001282456A (en) | 2001-10-12 |
| JP3834766B2 JP3834766B2 (en) | 2006-10-18 |
Family
ID=18615548
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000101513A Expired - Fee Related JP3834766B2 (en) | 2000-04-03 | 2000-04-03 | Man machine interface system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3834766B2 (en) |
Cited By (50)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006091948A (en) * | 2004-09-21 | 2006-04-06 | Victor Co Of Japan Ltd | Controller for electronic equipment |
| KR100697668B1 (en) | 2004-11-15 | 2007-03-20 | 한국정보통신대학교 산학협력단 | Apparatus and method for providing media entertainment using interactivity |
| JP2007293717A (en) * | 2006-04-26 | 2007-11-08 | Nippon Telegr & Teleph Corp <Ntt> | POSITION DATA CONVERSION DEVICE AND POSITION DATA CONVERSION METHOD |
| US7411575B2 (en) | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
| JP2008250482A (en) * | 2007-03-29 | 2008-10-16 | Kyushu Institute Of Technology | Method for substituting mouse for projector projected image and mouse substituting operation system |
| KR100883900B1 (en) | 2007-04-30 | 2009-02-17 | 고려대학교 산학협력단 | Experienced user interface device |
| US7492357B2 (en) | 2004-05-05 | 2009-02-17 | Smart Technologies Ulc | Apparatus and method for detecting a pointer relative to a touch surface |
| US7532206B2 (en) | 2003-03-11 | 2009-05-12 | Smart Technologies Ulc | System and method for differentiating between pointers used to contact touch surface |
| JP2009265809A (en) * | 2008-04-23 | 2009-11-12 | Kddi Corp | Information terminal device |
| US7619617B2 (en) | 2002-11-15 | 2009-11-17 | Smart Technologies Ulc | Size/scale and orientation determination of a pointer in a camera-based touch system |
| US7692625B2 (en) | 2000-07-05 | 2010-04-06 | Smart Technologies Ulc | Camera-based touch system |
| KR100968205B1 (en) | 2008-05-07 | 2010-07-06 | 전자부품연구원 | Infrared camera space touch sensing device, method and screen device |
| US7755613B2 (en) | 2000-07-05 | 2010-07-13 | Smart Technologies Ulc | Passive touch system and method of detecting user input |
| JP2011022945A (en) * | 2009-07-17 | 2011-02-03 | Dainippon Printing Co Ltd | Fingertip-manipulation-type information providing system, program, and storage medium |
| JP2011504615A (en) * | 2007-11-26 | 2011-02-10 | オプテレック ディベロップメント ベー.フェー. | Reproduction device, assembly of reproduction device and indicator, and reproduction method of image portion |
| USRE42794E1 (en) | 1999-12-27 | 2011-10-04 | Smart Technologies Ulc | Information-inputting device inputting contact point of object on recording surfaces as information |
| US8089462B2 (en) | 2004-01-02 | 2012-01-03 | Smart Technologies Ulc | Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region |
| US8094137B2 (en) | 2007-07-23 | 2012-01-10 | Smart Technologies Ulc | System and method of detecting contact on a display |
| USRE43084E1 (en) | 1999-10-29 | 2012-01-10 | Smart Technologies Ulc | Method and apparatus for inputting information including coordinate data |
| US8115753B2 (en) | 2007-04-11 | 2012-02-14 | Next Holdings Limited | Touch screen system with hover and click input methods |
| US8120596B2 (en) | 2004-05-21 | 2012-02-21 | Smart Technologies Ulc | Tiled touch system |
| US8149221B2 (en) | 2004-05-07 | 2012-04-03 | Next Holdings Limited | Touch panel display system with illumination and detection provided from a single edge |
| US8274496B2 (en) | 2004-04-29 | 2012-09-25 | Smart Technologies Ulc | Dual mode touch systems |
| JP2012194973A (en) * | 2011-03-03 | 2012-10-11 | Hand Held Products Inc | Imager reader with hand gesture interface |
| US8289299B2 (en) | 2003-02-14 | 2012-10-16 | Next Holdings Limited | Touch screen signal processing |
| US8339378B2 (en) | 2008-11-05 | 2012-12-25 | Smart Technologies Ulc | Interactive input system with multi-angle reflector |
| US8384693B2 (en) | 2007-08-30 | 2013-02-26 | Next Holdings Limited | Low profile touch panel systems |
| US8405636B2 (en) | 2008-01-07 | 2013-03-26 | Next Holdings Limited | Optical position sensing system and optical position sensor assembly |
| US8432377B2 (en) | 2007-08-30 | 2013-04-30 | Next Holdings Limited | Optical touchscreen with improved illumination |
| US8456418B2 (en) | 2003-10-09 | 2013-06-04 | Smart Technologies Ulc | Apparatus for determining the location of a pointer within a region of interest |
| US8456447B2 (en) | 2003-02-14 | 2013-06-04 | Next Holdings Limited | Touch screen signal processing |
| US8508508B2 (en) | 2003-02-14 | 2013-08-13 | Next Holdings Limited | Touch screen signal processing with single-point calibration |
| US8692768B2 (en) | 2009-07-10 | 2014-04-08 | Smart Technologies Ulc | Interactive input system |
| JP2014518596A (en) * | 2011-03-29 | 2014-07-31 | クアルコム,インコーポレイテッド | Modular mobile connected pico projector for local multi-user collaboration |
| US8902193B2 (en) | 2008-05-09 | 2014-12-02 | Smart Technologies Ulc | Interactive input system and bezel therefor |
| JP2015038777A (en) * | 2014-11-12 | 2015-02-26 | セイコーエプソン株式会社 | Position detection system, display system, and information processing system |
| JP2015056179A (en) * | 2013-09-13 | 2015-03-23 | 現代自動車株式会社 | Order-type interface system and operation method thereof |
| JP2015132993A (en) * | 2014-01-14 | 2015-07-23 | 新日鐵住金株式会社 | Work information input system, information processing apparatus, control method thereof, and program |
| JP2015531105A (en) * | 2012-06-27 | 2015-10-29 | ロウルズ リミテッド ライアビリティ カンパニー | User recognition by skin |
| JP2016018458A (en) * | 2014-07-09 | 2016-02-01 | キヤノン株式会社 | Information processing system, control method therefore, program, and storage medium |
| US9268412B2 (en) | 2011-10-05 | 2016-02-23 | Sony Corporation | Input apparatus having an input recognition unit and input recognition method by using the same |
| JP2016134156A (en) * | 2015-01-22 | 2016-07-25 | セイコーエプソン株式会社 | Electronic apparatus and program |
| US9442607B2 (en) | 2006-12-04 | 2016-09-13 | Smart Technologies Inc. | Interactive input system and method |
| JP2016186678A (en) * | 2015-03-27 | 2016-10-27 | セイコーエプソン株式会社 | Interactive projector and method for controlling interactive projector |
| JP2017045407A (en) * | 2015-08-28 | 2017-03-02 | キヤノン株式会社 | Information processor |
| JP2018136709A (en) * | 2017-02-21 | 2018-08-30 | 三菱電機インフォメーションシステムズ株式会社 | Data input device, data input program and data input system |
| US10338690B2 (en) | 2016-07-04 | 2019-07-02 | Fujitsu Limited | Information processing apparatus, interaction method, and recording medium |
| CN111515149A (en) * | 2020-04-26 | 2020-08-11 | 广东弓叶科技有限公司 | Man-machine cooperation sorting system and robot grabbing position obtaining method thereof |
| JP2022141732A (en) * | 2016-09-12 | 2022-09-29 | 沖電気工業株式会社 | Navigation system, projection method, and program |
| US20240061532A1 (en) * | 2014-02-17 | 2024-02-22 | Apple Inc. | Method and Device for Detecting a Touch Between a First Object and a Second Object |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3016068A4 (en) * | 2013-06-27 | 2016-09-14 | Futureplay Inc | Method and device for determining user input on basis of visual information on user's fingernails or toenails |
| JP6289254B2 (en) | 2014-05-02 | 2018-03-07 | キヤノン株式会社 | Image processing apparatus, information processing method, and program |
| JP6327931B2 (en) | 2014-05-02 | 2018-05-23 | キヤノン株式会社 | Image processing apparatus, information processing method, and program |
-
2000
- 2000-04-03 JP JP2000101513A patent/JP3834766B2/en not_active Expired - Fee Related
Cited By (66)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| USRE43084E1 (en) | 1999-10-29 | 2012-01-10 | Smart Technologies Ulc | Method and apparatus for inputting information including coordinate data |
| USRE42794E1 (en) | 1999-12-27 | 2011-10-04 | Smart Technologies Ulc | Information-inputting device inputting contact point of object on recording surfaces as information |
| US8055022B2 (en) | 2000-07-05 | 2011-11-08 | Smart Technologies Ulc | Passive touch system and method of detecting user input |
| US8203535B2 (en) | 2000-07-05 | 2012-06-19 | Smart Technologies Ulc | Passive touch system and method of detecting user input |
| US8378986B2 (en) | 2000-07-05 | 2013-02-19 | Smart Technologies Ulc | Passive touch system and method of detecting user input |
| US7755613B2 (en) | 2000-07-05 | 2010-07-13 | Smart Technologies Ulc | Passive touch system and method of detecting user input |
| US7692625B2 (en) | 2000-07-05 | 2010-04-06 | Smart Technologies Ulc | Camera-based touch system |
| US8228304B2 (en) | 2002-11-15 | 2012-07-24 | Smart Technologies Ulc | Size/scale orientation determination of a pointer in a camera-based touch system |
| US7619617B2 (en) | 2002-11-15 | 2009-11-17 | Smart Technologies Ulc | Size/scale and orientation determination of a pointer in a camera-based touch system |
| US8289299B2 (en) | 2003-02-14 | 2012-10-16 | Next Holdings Limited | Touch screen signal processing |
| US8508508B2 (en) | 2003-02-14 | 2013-08-13 | Next Holdings Limited | Touch screen signal processing with single-point calibration |
| US8456447B2 (en) | 2003-02-14 | 2013-06-04 | Next Holdings Limited | Touch screen signal processing |
| US8466885B2 (en) | 2003-02-14 | 2013-06-18 | Next Holdings Limited | Touch screen signal processing |
| US7532206B2 (en) | 2003-03-11 | 2009-05-12 | Smart Technologies Ulc | System and method for differentiating between pointers used to contact touch surface |
| US8456451B2 (en) | 2003-03-11 | 2013-06-04 | Smart Technologies Ulc | System and method for differentiating between pointers used to contact touch surface |
| JP2009146435A (en) * | 2003-09-16 | 2009-07-02 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
| JP2009146434A (en) * | 2003-09-16 | 2009-07-02 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
| US7643006B2 (en) | 2003-09-16 | 2010-01-05 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
| US8325134B2 (en) | 2003-09-16 | 2012-12-04 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
| US7411575B2 (en) | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
| US8456418B2 (en) | 2003-10-09 | 2013-06-04 | Smart Technologies Ulc | Apparatus for determining the location of a pointer within a region of interest |
| US8089462B2 (en) | 2004-01-02 | 2012-01-03 | Smart Technologies Ulc | Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region |
| US8274496B2 (en) | 2004-04-29 | 2012-09-25 | Smart Technologies Ulc | Dual mode touch systems |
| US7492357B2 (en) | 2004-05-05 | 2009-02-17 | Smart Technologies Ulc | Apparatus and method for detecting a pointer relative to a touch surface |
| US8149221B2 (en) | 2004-05-07 | 2012-04-03 | Next Holdings Limited | Touch panel display system with illumination and detection provided from a single edge |
| US8120596B2 (en) | 2004-05-21 | 2012-02-21 | Smart Technologies Ulc | Tiled touch system |
| US7629959B2 (en) | 2004-09-21 | 2009-12-08 | Victor Company Of Japan, Limited | Controller for electronic appliance |
| JP2006091948A (en) * | 2004-09-21 | 2006-04-06 | Victor Co Of Japan Ltd | Controller for electronic equipment |
| KR100697668B1 (en) | 2004-11-15 | 2007-03-20 | 한국정보통신대학교 산학협력단 | Apparatus and method for providing media entertainment using interactivity |
| JP2007293717A (en) * | 2006-04-26 | 2007-11-08 | Nippon Telegr & Teleph Corp <Ntt> | POSITION DATA CONVERSION DEVICE AND POSITION DATA CONVERSION METHOD |
| US9442607B2 (en) | 2006-12-04 | 2016-09-13 | Smart Technologies Inc. | Interactive input system and method |
| JP2008250482A (en) * | 2007-03-29 | 2008-10-16 | Kyushu Institute Of Technology | Method for substituting mouse for projector projected image and mouse substituting operation system |
| US8115753B2 (en) | 2007-04-11 | 2012-02-14 | Next Holdings Limited | Touch screen system with hover and click input methods |
| KR100883900B1 (en) | 2007-04-30 | 2009-02-17 | 고려대학교 산학협력단 | Experienced user interface device |
| US8094137B2 (en) | 2007-07-23 | 2012-01-10 | Smart Technologies Ulc | System and method of detecting contact on a display |
| US8384693B2 (en) | 2007-08-30 | 2013-02-26 | Next Holdings Limited | Low profile touch panel systems |
| US8432377B2 (en) | 2007-08-30 | 2013-04-30 | Next Holdings Limited | Optical touchscreen with improved illumination |
| JP2011504615A (en) * | 2007-11-26 | 2011-02-10 | オプテレック ディベロップメント ベー.フェー. | Reproduction device, assembly of reproduction device and indicator, and reproduction method of image portion |
| US8405636B2 (en) | 2008-01-07 | 2013-03-26 | Next Holdings Limited | Optical position sensing system and optical position sensor assembly |
| US8405637B2 (en) | 2008-01-07 | 2013-03-26 | Next Holdings Limited | Optical position sensing system and optical position sensor assembly with convex imaging window |
| JP2009265809A (en) * | 2008-04-23 | 2009-11-12 | Kddi Corp | Information terminal device |
| US8259064B2 (en) | 2008-04-23 | 2012-09-04 | Kddi Corporation | Terminal device |
| KR100968205B1 (en) | 2008-05-07 | 2010-07-06 | 전자부품연구원 | Infrared camera space touch sensing device, method and screen device |
| US8902193B2 (en) | 2008-05-09 | 2014-12-02 | Smart Technologies Ulc | Interactive input system and bezel therefor |
| US8339378B2 (en) | 2008-11-05 | 2012-12-25 | Smart Technologies Ulc | Interactive input system with multi-angle reflector |
| US8692768B2 (en) | 2009-07-10 | 2014-04-08 | Smart Technologies Ulc | Interactive input system |
| JP2011022945A (en) * | 2009-07-17 | 2011-02-03 | Dainippon Printing Co Ltd | Fingertip-manipulation-type information providing system, program, and storage medium |
| JP2012194973A (en) * | 2011-03-03 | 2012-10-11 | Hand Held Products Inc | Imager reader with hand gesture interface |
| JP2014518596A (en) * | 2011-03-29 | 2014-07-31 | クアルコム,インコーポレイテッド | Modular mobile connected pico projector for local multi-user collaboration |
| US9384594B2 (en) | 2011-03-29 | 2016-07-05 | Qualcomm Incorporated | Anchoring virtual images to real world surfaces in augmented reality systems |
| US9268412B2 (en) | 2011-10-05 | 2016-02-23 | Sony Corporation | Input apparatus having an input recognition unit and input recognition method by using the same |
| JP2015531105A (en) * | 2012-06-27 | 2015-10-29 | ロウルズ リミテッド ライアビリティ カンパニー | User recognition by skin |
| JP2015056179A (en) * | 2013-09-13 | 2015-03-23 | 現代自動車株式会社 | Order-type interface system and operation method thereof |
| JP2015132993A (en) * | 2014-01-14 | 2015-07-23 | 新日鐵住金株式会社 | Work information input system, information processing apparatus, control method thereof, and program |
| US20240061532A1 (en) * | 2014-02-17 | 2024-02-22 | Apple Inc. | Method and Device for Detecting a Touch Between a First Object and a Second Object |
| JP2016018458A (en) * | 2014-07-09 | 2016-02-01 | キヤノン株式会社 | Information processing system, control method therefore, program, and storage medium |
| JP2015038777A (en) * | 2014-11-12 | 2015-02-26 | セイコーエプソン株式会社 | Position detection system, display system, and information processing system |
| JP2016134156A (en) * | 2015-01-22 | 2016-07-25 | セイコーエプソン株式会社 | Electronic apparatus and program |
| JP2016186678A (en) * | 2015-03-27 | 2016-10-27 | セイコーエプソン株式会社 | Interactive projector and method for controlling interactive projector |
| JP2017045407A (en) * | 2015-08-28 | 2017-03-02 | キヤノン株式会社 | Information processor |
| WO2017038025A1 (en) * | 2015-08-28 | 2017-03-09 | Canon Kabushiki Kaisha | Imaging apparatus |
| US10338690B2 (en) | 2016-07-04 | 2019-07-02 | Fujitsu Limited | Information processing apparatus, interaction method, and recording medium |
| JP2022141732A (en) * | 2016-09-12 | 2022-09-29 | 沖電気工業株式会社 | Navigation system, projection method, and program |
| JP7521557B2 (en) | 2016-09-12 | 2024-07-24 | 沖電気工業株式会社 | Navigation system, projection method, and program |
| JP2018136709A (en) * | 2017-02-21 | 2018-08-30 | 三菱電機インフォメーションシステムズ株式会社 | Data input device, data input program and data input system |
| CN111515149A (en) * | 2020-04-26 | 2020-08-11 | 广东弓叶科技有限公司 | Man-machine cooperation sorting system and robot grabbing position obtaining method thereof |
Also Published As
| Publication number | Publication date |
|---|---|
| JP3834766B2 (en) | 2006-10-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3834766B2 (en) | Man machine interface system | |
| KR102728007B1 (en) | Content creation in augmented reality environment | |
| Grudin | Integrating paper and digital information on EnhancedDesk: a method for realtime finger tracking on an augmented desk system | |
| CN104238739B (en) | Method and electronic device for improving visibility based on eye tracking | |
| US8896531B2 (en) | Fast fingertip detection for initializing a vision-based hand tracker | |
| WO2021213067A1 (en) | Object display method and apparatus, device and storage medium | |
| KR102159767B1 (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
| CN113934297B (en) | An interactive method, device, electronic device and medium based on augmented reality | |
| Veluri et al. | Hand gesture mapping using MediaPipe algorithm | |
| CN112581571B (en) | Control method and device for virtual image model, electronic equipment and storage medium | |
| US20250209750A1 (en) | Systems and methods for managing digital notes for collaboration | |
| CN113570614A (en) | Image processing method, device, equipment and storage medium | |
| CN112947756A (en) | Content navigation method, device, system, computer equipment and storage medium | |
| WO2021258862A1 (en) | Typing method and apparatus, and device and storage medium | |
| KR20200111144A (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
| JP4703744B2 (en) | Content expression control device, content expression control system, reference object for content expression control, and content expression control program | |
| KR102473669B1 (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
| JP4550460B2 (en) | Content expression control device and content expression control program | |
| CN113778233B (en) | Method and device for controlling display equipment and readable medium | |
| JP4330637B2 (en) | Portable device | |
| Koike et al. | Enhancedtable: Supporting a small meeting in ubiquitous and augmented environment | |
| WO2022023890A1 (en) | Systems and methods for managing digital notes | |
| Kölsch et al. | Touching the visualized invisible: Wearable ar with a multimodal interface | |
| CN115361538B (en) | Interactive projector with free input | |
| US20240004921A1 (en) | Information processing system, information processing method, and non-transitory recording medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060328 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20060329 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060518 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060704 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060713 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100804 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110804 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120804 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130804 Year of fee payment: 7 |
|
| LAPS | Cancellation because of no payment of annual fees |