JPH07182101A - Graphic input device and method, graphic object operating method, graphic input signal supplying method - Google Patents
Graphic input device and method, graphic object operating method, graphic input signal supplying methodInfo
- Publication number
- JPH07182101A JPH07182101A JP26265994A JP26265994A JPH07182101A JP H07182101 A JPH07182101 A JP H07182101A JP 26265994 A JP26265994 A JP 26265994A JP 26265994 A JP26265994 A JP 26265994A JP H07182101 A JPH07182101 A JP H07182101A
- Authority
- JP
- Japan
- Prior art keywords
- panel
- image
- signal
- graphic
- graphic input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
(57)【要約】
【目的】 特殊なツールをユーザが装着したり、ツール
を保持したり、ユーザを拘束することなく、ユーザの動
作を検出する。
【構成】 CCD カメラ110はパネル105に接触する
ユーザの指を複数の影として検出する。CCD カメラ11
0は同時に複数の指の接触によって生じる複数の接触部
分を検出できるため、入力ジェスチャの検出に利用する
ことが可能である。パネル105自体とパネル105上
の接触部分の決定は、ビデオ画像上の影の位置により判
定する。CCD カメラ110の機能はパネル105上の影
の存在の検出のみで良く、2次元の画像処理のみが必要
である。CCD カメラ110は複数のパネル105上の画
像を同時に処理することができるので、多次元の入力信
号を発生させることが可能である。さらに、この画像は
大きなコントラストを持つため、明るい部分と暗い部分
の分離処理のみが必要である。
(57) [Abstract] [Purpose] Detects the user's actions without the user having to attach a special tool, hold the tool, or restrain the user. [Structure] The CCD camera 110 detects a user's finger touching the panel 105 as a plurality of shadows. CCD camera 11
Since 0 can detect a plurality of contact portions caused by contact of a plurality of fingers at the same time, 0 can be used for detecting an input gesture. The panel 105 itself and the contact portion on the panel 105 are determined by the position of the shadow on the video image. The function of the CCD camera 110 is only to detect the presence of a shadow on the panel 105, and only two-dimensional image processing is required. Since the CCD camera 110 can process images on a plurality of panels 105 at the same time, it is possible to generate a multidimensional input signal. Furthermore, since this image has a large contrast, it is only necessary to separate light and dark areas.
Description
【0001】[0001]
【産業上の利用分野】本発明は、対話型のコンピュータ
グラフィックス分野におけるグラフィック入力装置に関
するものである。本発明は、特に、対話型コンピュータ
グラフィックスを制御するのに用いられるグラフィック
入力装置のスクリーン上の複数のオブジェクト、例え
ば、ユーザの複数の指を光学的に検出する手法に関する
ものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a graphic input device in the field of interactive computer graphics. In particular, the present invention relates to a technique for optically detecting multiple objects on the screen of a graphic input device used to control interactive computer graphics, such as multiple fingers of a user.
【0002】なお、本明細書の記述は本件出願の優先権
の基礎たる米国特許出願第08/141,045号(1993年1
0月26日出願)の明細書の記載に基づくものであっ
て、当該米国特許出願の番号を参照することによって当
該米国特許出願の明細書の記載内容が本明細書の一部分
を構成するものとする。The description of the present specification is based on the priority of the present application, US Patent Application No. 08 / 141,045 (1993, 1).
(October 26th application), and the content of the description of the US patent application constitutes a part of the present specification by referring to the number of the US patent application. To do.
【0003】主たる特許申請の参照この特許出願は、19
92年2月14日に出願した特許出願番号07/837,372の一部
継続出願 (Continuation-in-part) である。Reference to Main Patent Application This patent application contains 19
This is a continuation-in-part application of patent application number 07 / 837,372 filed on February 14, 1992.
【0004】[0004]
【従来の技術】対話型のコンピュータグラフィックス用
入力装置とは、広義には、ユーザの動作を検出し入力す
るものである。このようなグラフィックス用入力装置は
ユーザにより操作される。この範疇の入力装置は、パー
ソナルコンピュータに関連したものとしては、ライトペ
ンと、マウスと、ジョインスティックと、トラックボー
ルと、キーボードと、等々がある。しかし、ユーザの動
作を直接検出する入力装置もあり、コンピュータ画面上
のタッチスクリーン等はその例である。Myron W.Kruege
r による"Artificial Reality II" (1991年発行)に
は、ビデオカメラを用いてユーザの手や体の動きを検出
するグラフィックス用入力装置の記載がある。このKrue
ger による著書に記述されているVIDEO DESKの概念は、
米国特許第4,843,568 号(発明の名称:Real Time Perc
eption of and Response to the Actions of an Unencu
mbered Paticipant/User,1989 年6月27日付与)に記述
されている。しかし、この入力装置は光を放つ机の表面
のスクリーン上にユーザの手を置き、そのスクリーンと
手の映像を机上部にあるビデオカメラで検出する仕組み
となっている。さらに、この入力装置を用いる際は手の
動きを検出するビデオカメラの視界を妨げないように使
用しなければならないため、不便であり、また、入力装
置自体が簡単なものではない。2. Description of the Related Art An interactive computer graphics input device is, in a broad sense, a device for detecting and inputting a user's action. Such a graphics input device is operated by the user. Input devices in this category include a light pen, a mouse, a join stick, a trackball, a keyboard, and the like as those related to a personal computer. However, there is an input device that directly detects a user's action, and a touch screen on a computer screen is an example. Myron W. Kruege
"Artificial Reality II" by r (published in 1991) describes a graphics input device that uses a video camera to detect the movement of the user's hand or body. This Krue
The concept of VIDEO DESK described in the book by ger is
U.S. Pat.No. 4,843,568 (Title of Invention: Real Time Perc
eption of and Response to the Actions of an Unencu
mbered Paticipant / User, granted June 27, 1989). However, this input device has a mechanism in which a user's hand is placed on a screen on the surface of a desk that emits light, and an image of the screen and the hand is detected by a video camera on the top of the desk. Furthermore, when this input device is used, it must be used so as not to obstruct the field of view of the video camera that detects the movement of the hand, which is inconvenient and the input device itself is not simple.
【0005】1985年米国サンフランシスコにおいて開催
されたSIGGRAPH学会でRichard Greeneにより発表された
Drawing Prism と呼ばれる入力装置は、その入力装置表
面に大きな透明プリズムを用いたものである。この入力
装置はACM Vol.19, No.3, 1985 pp.103-110 と、米国特
許第4,561,017 号(発明の名称:Graphic Input Appara
tus,1985年12月24日付与)に示されるように、ビデオカ
メラが入力装置表面と入力の道具の接触点の画像を指定
された角度から検出する仕組みとなっている。しかし、
この入力装置は絶縁体表面における光の反射と屈折を利
用したものであり、きわめて精密でコストの高い光学部
品を使用する必要があり、その部品の配列も高い精度を
要求される。Presented by Richard Greene at the SIGGRAPH Society in San Francisco, 1985
An input device called Drawing Prism uses a large transparent prism on the surface of the input device. This input device is ACM Vol.19, No.3, 1985 pp.103-110 and U.S. Pat. No. 4,561,017 (Title of Invention: Graphic Input Appara
tus, dated December 24, 1985), a video camera detects an image of a contact point between an input device surface and an input tool from a specified angle. But,
This input device utilizes the reflection and refraction of light on the surface of an insulator, requires the use of extremely precise and costly optical components, and the arrangement of these components also requires high precision.
【0006】Sensor Frame社のSensor Frameは、フレー
ム上に対角に配置された複数のカメラの視界を遮る複数
のオブジェクトを検出することができる入力装置であ
る。この入力装置は米国特許出願第4,746,770 号(発明
の名称:Method and Apparatusfor Isolating and Mani
pulating Graphics Objects on Computer Video Monito
r、1988年5月24日付与)に記述されている。この入力
装置はフレーム内の複数の指の位置を同時に検出するこ
とができるが、複数のカメラを用いなければならない。
さらに、この入力装置は複数のオブジェクトの検出の際
に発生する“ゴーストイメージ”の問題も含んでいる。Sensor Frame of Sensor Frame is an input device capable of detecting a plurality of objects which obstruct the view of a plurality of cameras diagonally arranged on the frame. This input device is disclosed in US Pat. No. 4,746,770 (Title of Invention: Method and Apparatus for Isolating and Mani
pulating Graphics Objects on Computer Video Monito
r, granted May 24, 1988). This input device can detect the positions of multiple fingers in the frame at the same time, but it must use multiple cameras.
In addition, this input device also includes the problem of "ghost images" that occur when detecting multiple objects.
【0007】ユーザにとって望ましいグラフィックス用
入力装置とは、通常、ジェスチャと呼ばれるような自由
な入力方法を可能とし、特殊な道具をユーザに装着する
か、あるいはその道具の保持あるいは他の拘束をユーザ
に与えることなく、ユーザの動作を検出し、さらに複数
の入力動作を同時に受け入れる性能を持ったものであ
る。さらに、上記の入力性能を可能にする上で画像処理
に関する負担を低減するような新しい手法を用いること
により、通常のコンピュータシステムにおいて、実時間
処理できる入力装置が望ましいと考える。最後に3次元
コンピュータグラフィックス応用に利用可能な3次元操
作用制御入力装置が望ましい。A desirable graphics input device for a user is a free input method that is usually called a gesture, and a special tool is attached to the user, or the holding or other restraint of the tool is performed by the user. It is capable of detecting a user's motion and accepting a plurality of input motions at the same time without giving the input to the user. Furthermore, it is considered desirable to have an input device that can perform real-time processing in a normal computer system by using a new method that reduces the load related to image processing in enabling the above input performance. Finally, a control input device for three-dimensional operation that is applicable to three-dimensional computer graphics applications is desirable.
【0008】[0008]
【課題を解決するための手段】本発明の好ましい実施例
に係るグラフィックス用入力装置は、単一あるいは複数
の半透明なスクリーンと、その後部にビデオカメラを配
置したものである。このカメラはスクリーンに接触する
指等のオブジェクトの複数の影を検出するように設定さ
れている。これらの影は“接触点”と呼ばれる。この手
法は画像処理を極めて簡単にすると同時に、ユーザは少
しも拘束されることなく、自由な入力動作環境が提供さ
れる。カメラはスクリーン上の影を検出するのみで良い
ため、その画像処理は2次元でよい。さらに、その画像
はコントラストが極めて大きいため、その画像処理は暗
い部分と明るい部分を分離するのみであり、本発明によ
るグラフィックス入力環境はユーザにとって極めて自然
で拘束性を持たないものとなっている。スクリーン表面
でユーザが複数の指を接触させた箇所を検出するために
カメラが用いられる。この方法は複数のジェスチャによ
る入力コマンドの発生を可能とする。この特質を生かし
て、ユーザを拘束せずに、ユーザの複数の指の位置やジ
ェスチャを利用して、便利で、実用的で、しかも直感的
な入力装置を実現することができる。最後に、装置本体
とスクリーンの間に力を感知するセンサを装着させ、ス
クリーンに加えられる力を感知することにより、グラフ
ィックス表示オブジェクトの操作において"Z" 方向の入
力コマンドの発生を選択的に付加することも可能であ
る。A graphics input device according to a preferred embodiment of the present invention comprises a single or a plurality of translucent screens, and a video camera disposed behind the screens. This camera is set to detect a plurality of shadows of an object such as a finger touching the screen. These shadows are called "contact points". This method makes image processing extremely simple, and at the same time, provides a free input operation environment without any constraint on the user. Since the camera only needs to detect the shadow on the screen, the image processing may be two-dimensional. Furthermore, since the image has a very high contrast, the image processing only separates the dark portion and the light portion, and the graphics input environment according to the present invention is extremely natural and unconstrained for the user. . A camera is used to detect where the user touches multiple fingers on the screen surface. This method allows the generation of input commands with multiple gestures. By utilizing this characteristic, it is possible to realize a convenient, practical, and intuitive input device by utilizing the positions and gestures of a plurality of fingers of the user without restraining the user. Finally, a force sensor is attached between the device body and the screen, and the force applied to the screen is sensed to selectively generate the input command in the "Z" direction when operating the graphics display object. It is also possible to add.
【0009】上記の内容および他の技術的特徴は以下の
詳細な発明の記述と添付した図面によって示される。The above and other technical features will be illustrated by the following detailed description of the invention and the accompanying drawings.
【0010】[0010]
【実施例】以下、図面を参照して本発明の実施例を詳細
に説明する。Embodiments of the present invention will now be described in detail with reference to the drawings.
【0011】図1は本発明の好ましい実施例を示す。図
1に示すように、制御装置100は、その形状が、通
常、立方体である。当然、この形状はユーザの応用要求
に応じて自由に決定できるが、デカルト座標上で用いる
場合は、その形状は立方体が好ましい。FIG. 1 illustrates a preferred embodiment of the present invention. As shown in FIG. 1, the control device 100 is usually a cube in shape. Of course, this shape can be freely determined according to the application requirements of the user, but when used on Cartesian coordinates, the shape is preferably a cube.
【0012】制御装置100はパネル105のみが半透
明であり、他の面は不透明である。半透明のパネルは平
坦であるが、その応用要求に応じて、他の形状を採用す
ることもできる。制御装置100内には、小型のCCD カ
メラ110が取り付けてあり、パネル105の表面に
て、オブジェクト、例えば、ユーザの指の影を検出する
ことができるように、カメラの向きと焦点が調整してあ
る。In the control device 100, only the panel 105 is translucent and the other surface is opaque. The translucent panel is flat, but other shapes can be adopted depending on the application requirements. A small CCD camera 110 is installed in the control device 100, and the orientation and focus of the camera are adjusted so that the shadow of an object, for example, a user's finger can be detected on the surface of the panel 105. There is.
【0013】半透明のパネル105は光を多少通すが、
パネルの裏にあるオブジェクトやその背景が見える程に
は透明ではない。従って、パネル105は光を拡散し、
CCDカメラ110により得られたパネルの画像は、一様
に灰色の画像である。しかし、ユーザがパネル105の
表面に指を接触した場合は、CCD カメラ110より得ら
れるパネル画像は、ユーザの指が接触した部分が黒くな
り、指の接触部分と、周囲の光によって照らされている
パネルの他の部分とは容易に区別できる。従って、ユー
ザが接触した部分は制御オブジェクト115として識別
される。The translucent panel 105 allows some light to pass through,
It's not transparent enough to see the objects behind the panel and its background. Therefore, the panel 105 diffuses the light,
The image of the panel obtained by the CCD camera 110 is a uniformly gray image. However, when the user touches the surface of the panel 105 with a finger, the panel image obtained from the CCD camera 110 is blackened at the portion touched by the user's finger, and is illuminated by the touched portion of the finger and ambient light. It is easily distinguished from the rest of the panel. Therefore, the portion touched by the user is identified as the control object 115.
【0014】さらに、パネル105の照明を増強するこ
とも可能である。図1に示すように、光源120を制御
装置100の外側に取り付けることができる。制御装置
100に取り付けた鏡125は、パネル105上に光を
向けるのに用いられる。It is also possible to increase the illumination of the panel 105. As shown in FIG. 1, the light source 120 may be mounted outside the control device 100. A mirror 125 attached to the controller 100 is used to direct light onto the panel 105.
【0015】CCD カメラ110は、制御装置内の暗い環
境で、パネル105の裏面の画像を認識するため、パネ
ル105にはその外面に一様に光を当てるのが望まし
い。すなわち、鏡125は拡散光をパネル105外面に
一様に当てるように取り付けられる。Since the CCD camera 110 recognizes the image on the back surface of the panel 105 in a dark environment inside the control device, it is desirable that the outer surface of the panel 105 be uniformly illuminated. That is, the mirror 125 is attached so that the diffused light is uniformly applied to the outer surface of the panel 105.
【0016】CCD カメラ110は画像処理用コンピュー
タ130に接続してある。このコンピュータ130はCC
D カメラにより得られた画像データを利用して対話型コ
ンピュータシステムのグラフィックス入力信号を発生す
る。これらの入力信号は複数の制御オブジェクト115
(指の接触箇所)の位置を同時に供給するものであり、
グラフィクスディスプレイ135上に映出されたオブジ
ェクトの操作用信号として利用される。ディスプレイ1
35は、例えば、パネル105面の制御オブジェクト1
15の位置に対応するオブジェクト、例えば、表示オブ
ジェクト140を表示することができる。さらに、ディ
スプレイ135上のオブジェクト140はパネル105
上の制御オブジェクト115の動きに応じて動く。ユー
ザの指がパネル105面上で上方に移動した場合は、デ
ィスプレイ135上の表示オブジェクト140も上方に
動く。ユーザの指がパネル105面上で回転した場合
は、ディスプレイ135上の表示オブジェクト140も
同様に回転する。The CCD camera 110 is connected to the image processing computer 130. This computer 130 is CC
The image data obtained by the D camera is used to generate the graphics input signal of the interactive computer system. These input signals are output to a plurality of control objects 115.
The position of (finger contact point) is supplied at the same time,
It is used as an operation signal for an object displayed on the graphics display 135. Display 1
35 is, for example, the control object 1 on the surface of the panel 105.
An object corresponding to the 15 positions, for example, the display object 140 can be displayed. Further, the object 140 on the display 135 is the panel 105.
It moves according to the movement of the upper control object 115. When the user's finger moves upward on the surface of the panel 105, the display object 140 on the display 135 also moves upward. When the user's finger rotates on the surface of the panel 105, the display object 140 on the display 135 also rotates.
【0017】さらに、ディスプレイ上のオブジェクト1
40を用いて、他のグラフィックス表示オブジェクトを
操作することも可能である。例えば、図1に示す表示オ
ブジェクト140は、他のグラフィックス表示オブジェ
クト145に接触している。コンピュータプログラミン
グ技術を用いると、表示オブジェクト140を回転させ
て、表示オブジェクト140に接触している表示オブジ
ェクト145を回転させることもできる。Further, the object 1 on the display
It is also possible to use 40 to manipulate other graphics display objects. For example, the display object 140 shown in FIG. 1 is in contact with another graphics display object 145. Using computer programming techniques, the display object 140 may be rotated and the display object 145 in contact with the display object 140 may be rotated.
【0018】本発明の他の好ましい実施例としては、図
2に示すものがある。このグラフィックス入力用制御装
置200は立方体をしており、複数の制御用面によって
構成されている。この装置の形状はその応用目的により
自由に変更可能である。Another preferred embodiment of the present invention is shown in FIG. The graphics input control device 200 has a cubic shape and is composed of a plurality of control surfaces. The shape of this device can be freely changed according to its application purpose.
【0019】制御装置200はパネル202,204お
よび206が半透明であり、他のパネルは不透明な材質
のパネルで構成されている。半透明パネル202,20
4,206は平坦であるのが好ましいが、工学的応用に
応じて他の幾何学形状でも良い。広角レンズを持つ小型
CCD カメラ210は制御装置200の内側の隅部212
に位置させてあり、パネル202,204および206
の外面にオブジェクト、例えば、ユーザの指が接触した
時に生じる影の画像を検出するために用いられる。CCD
カメラの位置はパネル202,204,206のカメラ
画像を均等に検出するために装置内側頂点214に配置
するのが好ましく、制御装置が立体形状である場合、そ
のカメラの広角レンズは少なくとも90°以上の視野角
度を必要とする。In the control device 200, the panels 202, 204 and 206 are translucent, and the other panels are panels made of an opaque material. Semi-transparent panels 202, 20
4,206 is preferably flat, but other geometries may be used depending on the engineering application. Small size with wide-angle lens
The CCD camera 210 has a corner 212 inside the control device 200.
Located on panels 202, 204 and 206
It is used to detect an image of a shadow produced when an object, for example, a user's finger touches the outer surface of the. CCD
The position of the camera is preferably arranged at the apex 214 inside the device in order to detect the camera images of the panels 202, 204 and 206 uniformly, and when the control device has a three-dimensional shape, the wide-angle lens of the camera is at least 90 ° or more. Need a viewing angle of.
【0020】図2に示す好ましい実施例の操作は図1に
示す制御装置と同様である。すなわち、パネル202,
204,206の材料はパネル105と同様の光学的性
質を有し、光が多少通過するが、背景のオブジェクトが
判明するほど光を通さない半透明物質である。従って、
パネルは光を拡散し、CCD カメラ210によって得られ
る一般的画像は一様に灰色である。しかし、ユーザがパ
ネル202の外面を指で触れると、その部分は明らかに
黒色としてCCD カメラ210に検出され、周囲の光によ
って照射されているパネル202面、すなわち、指が接
触していない部分とは異なる部分として認識される。こ
の画像はパネル204,206でも同様に得られるの
で、これらのパネルにユーザが接触した部分はCCD カメ
ラにより制御オブジェクト215として認識される。パ
ネル202,204,206用に照射光を補充すること
も可能である。制御装置200の外側に光源222,2
24,226を装着した例を図2に示す。制御装置20
0に装着した鏡232,234,236は、光が半透明
パネルに向くようにしてある。CCD カメラ210はパネ
ルの内側の暗い環境でパネルの黒い部分を検出するため
に用いられるので、光がパネル前面から一様に照射され
ることが望ましい。すなわち、鏡232,234,23
6はこれらのパネルの外側表面に拡散光を照射するため
に使用される。The operation of the preferred embodiment shown in FIG. 2 is similar to the controller shown in FIG. That is, the panel 202,
The material of 204 and 206 has a similar optical property to that of the panel 105, and is a translucent material that allows some light to pass through, but does not allow enough light to be seen as a background object. Therefore,
The panel diffuses the light and the typical image obtained by the CCD camera 210 is uniformly gray. However, when the user touches the outer surface of the panel 202 with a finger, the portion is clearly detected as black by the CCD camera 210, and the surface of the panel 202 illuminated by ambient light, that is, a portion not touched by the finger, is detected. Are recognized as different parts. Since this image is also obtained on the panels 204 and 206 in the same manner, the portion where the user touches these panels is recognized as the control object 215 by the CCD camera. It is also possible to supplement the irradiation light for the panels 202, 204, 206. Light sources 222, 2 are provided outside the control device 200.
FIG. 2 shows an example in which 24 and 226 are attached. Control device 20
The mirrors 232, 234, 236 attached to 0 are such that the light is directed to the semitransparent panel. Since the CCD camera 210 is used to detect a black portion of the panel in a dark environment inside the panel, it is desirable that the light is uniformly emitted from the front surface of the panel. That is, the mirrors 232, 234, 23
6 is used to illuminate the outer surface of these panels with diffused light.
【0021】CCD カメラ210は画像処理用コンピュー
タ250に結合させてあり、CCD カメラ210からの画
像はこのコンピュータで処理され、対話型コンピュータ
システムにおけるグラフィック入力として用いられる。
これら複数の制御オブジェクト215を含む入力群は、
グラフィックディスプレイ260上の表示オブジェクト
を操作するために使用される。例えば、グラフィックデ
ィスプレイ260はパネル202上の制御オブジェクト
215に対応したグラフィックオブジェクトを表示する
ことができる。表示オブジェクト270はパネル202
上の制御オブジェクト215の動きに応じて動く。ユー
ザの指がパネル202表面の上方に移動する場合は、こ
の動きに応じて、表示オブジェクト270も上方に移動
する。ユーザの指がパネル202表面上で回転した場合
は、表示オブジェクト270もディスプレイ260上で
回転する。さらに、表示オブジェクト270は他の表示
オブジェクトを操作するために利用することも可能であ
る。例えば、図2に示す表示オブジェクト270を回転
させて、表示オブジェクト270に接触させてある四角
形のグラフィクオブジェクト280を回転させる操作
も、ソフトウェアによって実現することができる。この
操作と同様の操作を操作パネル204,206上でも実
現することができる。The CCD camera 210 is coupled to an image processing computer 250, and the image from the CCD camera 210 is processed by this computer and used as a graphic input in an interactive computer system.
The input group including the plurality of control objects 215 is
It is used to manipulate display objects on the graphic display 260. For example, the graphic display 260 can display a graphic object corresponding to the control object 215 on the panel 202. The display object 270 is the panel 202
It moves according to the movement of the upper control object 215. When the user's finger moves above the surface of the panel 202, the display object 270 also moves upward according to this movement. When the user's finger rotates on the surface of the panel 202, the display object 270 also rotates on the display 260. Further, the display object 270 can be used to operate another display object. For example, the operation of rotating the display object 270 shown in FIG. 2 and rotating the rectangular graphic object 280 that is in contact with the display object 270 can also be realized by software. The same operation as this operation can be realized on the operation panels 204 and 206.
【0022】図2に示すように、CCD カメラ210はパ
ネル202,204,206の内面の画像を検出するよ
うに配置されている(パネル206は立方体の背面にあ
り、パネル206の端部がパネル202,204と共有
する)。CCD カメラによってキャプチャされた一般的な
画像の例を図3に示す。図3に示すように、パネル20
2,204,206の画像は四角形ではなく、CCD カメ
ラによりキャプチャされたパネル形状は、そのパネル自
体の形状と、カメラの配置位置と、その角度あるいはカ
メラレンズの特性とに依存する。しかし、図3に示す好
ましい実施例で得られるパネル204の画像形状は三角
形であり、パネル202,206の画像形状は台形であ
る。そして、ユーザの指が接触したパネル面の部分は、
画像の中で、制御オブジェクト305,310,315
および320として同時に検出される。As shown in FIG. 2, the CCD camera 210 is arranged so as to detect the image of the inner surface of the panels 202, 204 and 206 (the panel 206 is on the rear surface of the cube, and the end portion of the panel 206 is the panel). Share with 202, 204). Figure 3 shows an example of a typical image captured by a CCD camera. As shown in FIG. 3, the panel 20
The images 2, 204, 206 are not rectangular, and the panel shape captured by the CCD camera depends on the shape of the panel itself, the position of the camera, its angle, or the characteristics of the camera lens. However, the image shape of panel 204 obtained in the preferred embodiment shown in FIG. 3 is triangular, and the image shape of panels 202 and 206 is trapezoidal. And the part of the panel surface that the user's finger touches is
In the image, control objects 305, 310, 315
And 320 simultaneously.
【0023】図2に示す制御入力システムはきわめて精
巧かつ直感的な入力方法であるジェスチャをコマンドと
して生成する機能を有する。図4(a)-(c) はそのジェス
チャ入力機能を示す。図4(a) では、ユーザは2本の指
をパネル202上で水平方向に引きずっており、この2
本の指に対応する制御オブジェクト410および415
は、CCD カメラ210により画像検出され、その位置と
動きがコンピュータ250により認識される。コンピュ
ータ250はグラフィックディスプレイ260上にユー
ザの手および指420,425をグラフィックオブジェ
クトとして表示する。水平方向に動く指が表示されるこ
とになる。このディスプレイ上の指420,425の動
きは、パネル上のユーザの指の動きに対応している。こ
のグラフィック表示の指420,425を用いて、表示
オブジェクトのスライドスイッチを操作し、きわめて直
感的で理解しやすい対話型のユーザインタフェースを提
供する。The control input system shown in FIG. 2 has a function of generating a gesture as a command, which is an extremely elaborate and intuitive input method. 4 (a)-(c) show the gesture input function. In FIG. 4A, the user is dragging two fingers horizontally on the panel 202.
Control objects 410 and 415 corresponding to two fingers
Is detected by the CCD camera 210, and its position and movement are recognized by the computer 250. The computer 250 displays the user's hands and fingers 420, 425 as graphic objects on the graphic display 260. A horizontally moving finger will be displayed. The movement of the fingers 420 and 425 on the display corresponds to the movement of the user's finger on the panel. The graphic display fingers 420 and 425 are used to operate the slide switch of the display object to provide an extremely intuitive and easy-to-understand interactive user interface.
【0024】3次元の回転コマンド、すなわち、「ジェ
スチャ」を図4(b) に示す。ユーザはパネル206面上
に2本の指を接触させており、CCD カメラ210により
検出される制御オブジェクト450,460は、コンピ
ュータ250によりその位置と動きが認識される。コン
ピュータ250はグラフィック表示の回転ツール(ユー
ザの指)をグラフィックスディスプレイ260上に映し
出しており、グラフィックス回転ツールの指465,4
70がy-z 軸平面上で回転する。ここで、x軸は水平方
向、y軸は垂直方向、z軸はグラフィックディスプレイ
面に垂直な方向と定義する。グラフィック回転ツールの
指465,470は、ユーザの指の動きに対応してい
る。この動きはグラフィックディスプレイ上の取っ手4
75を回転ツールで操作しているものであり、きわめて
直感的で理解しやすい対話型のユーザインタフェースの
他の例である。A three-dimensional rotation command, that is, a "gesture" is shown in FIG. 4 (b). The user touches the surface of the panel 206 with two fingers, and the computer 250 recognizes the position and movement of the control objects 450 and 460 detected by the CCD camera 210. The computer 250 projects a graphic display rotation tool (user's finger) on the graphics display 260, and the graphics rotation tool fingers 465, 4 are displayed.
70 rotates on the yz axis plane. Here, the x-axis is defined as the horizontal direction, the y-axis is defined as the vertical direction, and the z-axis is defined as the direction perpendicular to the graphic display surface. Fingers 465 and 470 of the graphic rotation tool correspond to the movement of the user's finger. This movement is the handle 4 on the graphic display.
75 is operated by a rotating tool, and is another example of an interactive user interface which is extremely intuitive and easy to understand.
【0025】3次元のつかむ動作、すなわち、ジェスチ
ャのコマンドを図4(c) に示す。ユーザはパネル204
に2本の指を接触させており、CCD カメラ210により
検出される制御オブジェクト480,482は、コンピ
ュータ250によりその位置と動きが認識される。25
0はユーザの指に対応したグラフィック表示のオブジェ
クトをつかむツールをグラフィックスディスプレイ26
0に映し出しており、グラフィックスツールの指48
4,486がx-z 軸平面上でオブジェクトをつかもうと
している。グラフィックツールの指484,486はユ
ーザの指の動きに対応している。この動きはグラフィッ
クディスプレイ上のオブジェクト488を仮想ツールで
操作しているものであり、きわめて直感的で理解しやす
い対話型のユーザインタフェースの異なる実例である。A three-dimensional grasping operation, that is, a gesture command is shown in FIG. 4 (c). User panel 204
The computer 250 recognizes the positions and movements of the control objects 480 and 482 detected by the CCD camera 210 by contacting two fingers with the. 25
0 is a tool for grabbing a graphic display object corresponding to the finger of the user.
It is projected to 0 and the finger 48 of the graphics tool
4,486 tries to grab an object on the xz plane. Fingers 484 and 486 of the graphic tool correspond to the movement of the user's finger. This movement is a manipulation of an object 488 on a graphic display with a virtual tool, and is a different example of a highly intuitive and easy-to-understand interactive user interface.
【0026】CCD カメラ210により得られる画像処理
方法を図5にフローチャートで示す。まず、ステップ5
05にて、CCD カメラ210は3つのパネルの2次元画
像(グレースケールの画質)、例えば、図3に示す画像
を獲得する。好ましい実施例では、このステップは、通
常、制御装置を用いる初期状態で実行され、このステッ
プにてユーザの指はパネルに接触していないものとす
る。しかし、この処理は適正な方法により制御装置を使
用中に取得し、データを更新することも可能である。こ
のステップによって得られた画像は、コンピュータ25
0にてグレイスケール輝度Bo(i,j)で表わされ、2次元
マトリックスデータとして保存される。The image processing method obtained by the CCD camera 210 is shown in the flow chart of FIG. First, step 5
At 05, the CCD camera 210 acquires a two-dimensional image (grayscale image quality) of the three panels, for example, the image shown in FIG. In the preferred embodiment, this step is usually performed initially using the controller, with the user's finger not touching the panel during this step. However, it is also possible for this process to be acquired and the data updated while the controller is in use by any suitable method. The image obtained by this step is the computer 25
It is represented by gray scale brightness B o (i, j) at 0 and is stored as two-dimensional matrix data.
【0027】次に、ステップ510にて、コンピュータ
250はCCD カメラ210からの入力操作用画像データ
の取り込みを開始する。この画像はユーザの指の接触に
よる各パネルの制御オブジェクトの位置情報を含んでお
り、グレイスケール輝度Xk(i,j)で表わされる2次元マ
トリックスデータとして認識される。Next, in step 510, the computer 250 starts to capture the input operation image data from the CCD camera 210. This image contains the position information of the control object of each panel due to the touch of the user's finger, and is recognized as the two-dimensional matrix data represented by the gray scale luminance X k (i, j).
【0028】ステップ515にて、対応する画素ごと
に、入力操作用画像輝度データからバックグランド画像
輝度データを差し引き、入力操作用画像データを規格化
する。この処理によって得られた規格化画像データZ
k(i,j)は、パネル上の接触点を識別するために用いられ
る。In step 515, the background image brightness data is subtracted from the input operation image brightness data for each corresponding pixel to standardize the input operation image data. Normalized image data Z obtained by this processing
k (i, j) is used to identify the contact point on the panel.
【0029】この規格化処理は次のように数学的に表わ
される。This normalization process is mathematically expressed as follows.
【0030】[0030]
【数1】Zk(i,j)=Bo(i,j)−Xk(i,j) ここで、 i=2次元画像の行インデックス j=2次元画像の列インデックス Xk(i,j)=時系列kにおける入力操作用画像データのi
行j列における画素の輝度 Zk(i,j)=時系列kにおける規格化された画像のi行j
列における画素の輝度 ステップ520にて、規格化された画像データは閾値を
利用して2値画像(白黒画像)に変換される。ここで、
ユーザの指の接触点に対応する画像データのグレイスケ
ール輝度は、非接触点に対応する輝度データよりも常に
大きな輝度値を含む。そして、閾値を超える輝度を持つ
画素は“1”とし、閾値より低い輝度を持つ画素は
“0”とする。閾値としては、指の接触点に対応する画
素のうち、最も輝度の低い値を採用するのが好ましく、
接触点に対応する画素を全て“1”として処理し、パネ
ルの他の部分は全て“0”とすることにより明確に分離
できる。ステップ530にて、接触点を同定して得られ
たデータを用いて、その部分の中心およびパネル上の位
置の同定を実行し、得られたデータをコンピュータに格
納する。Z k (i, j) = B o (i, j) −X k (i, j) where i = row index of two-dimensional image j = column index of two-dimensional image X k (i , j) = i of input operation image data in time series k
Luminance of pixel in row j column Z k (i, j) = i row j of normalized image in time series k
Intensity of Pixels in Row In step 520, the normalized image data is converted to a binary image (black and white image) using a threshold. here,
The grayscale brightness of the image data corresponding to the contact point of the user's finger always includes a larger brightness value than the brightness data corresponding to the non-contact point. Pixels having a brightness exceeding the threshold are set to "1", and pixels having a brightness lower than the threshold are set to "0". Of the pixels corresponding to the contact point of the finger, it is preferable to adopt the lowest brightness value as the threshold value.
The pixels corresponding to the contact points are all treated as "1", and all other parts of the panel are treated as "0" so that they can be clearly separated. In step 530, using the data obtained by identifying the contact point, the center of the portion and the position on the panel are identified, and the obtained data is stored in the computer.
【0031】ステップ540にて、制御オブジェクトの
位置は画像獲得時系列における1ステップ前の制御オブ
ジェクトの位置と比較し、制御オブジェクトが移動した
か、あるいは新しい制御オブジェクトが現れたかを判定
する。既知の制御オブジェクトの位置および新しい制御
オブジェクトの距離を計算し、適正な距離範囲にあるか
どうかを判定し、データを更新する。新しい制御オブジ
ェクトが許容範囲に存在しない場合は、旧制御オブジェ
クトを消去し、新制御オブジェクトをエンタする。ステ
ップ550にて、移動した制御オブジェクトの位置デー
タの更新と、新規制御オブジェクトの出現の認識と、既
知制御オブジェクトの消減の確定とを実行する。このプ
ログラムをコンピュータに格納する。In step 540, the position of the control object is compared with the position of the control object one step before in the image acquisition time series to determine whether the control object has moved or a new control object has appeared. The position of the known control object and the distance of the new control object are calculated to determine if they are in the proper distance range and the data is updated. If the new control object is not within the allowable range, the old control object is deleted and the new control object is entered. At step 550, the position data of the moved control object is updated, the appearance of the new control object is recognized, and the disappearance of the known control object is confirmed. This program is stored in the computer.
【0032】ステップ540にて、制御オブジェクトの
位置は画像獲得時系列における1ステップ前の制御オブ
ジェクトの位置と比較して制御オブジェクトが移動した
か、あるは新しい制御オブジェクトが現れたかを判定す
る。既知の制御オブジェクトの位置および新しい制御オ
ブジェクトの距離を計算し、適正な距離範囲にあるかど
うかを判定し、データの更新を実行する。新制御オブジ
ェクトが許容範囲に存在しない場合は、旧制御オブジェ
クトを消去し、新制御オブジェクトをエンタする。ステ
ップ550にて、移動した制御オブジェクトの位置デー
タの更新と、新制御オブジェクトの出現の認識と、既知
の制御オブジェクトの消滅の確定を実行する。このプロ
グラムは、その後、ステップ510に戻り、ループとし
て継続して実行される。好ましい実施例では、新旧制御
オブジェクトデータの更新を高速処理することが好まし
く、ユーザの指の位置の速い変化に対応し、かつ、その
データに連続的にコンピュータにより表示することを可
能にするには、1/10 - 1/30 程度の更新速度が適正な条
件である。In step 540, the position of the control object is compared with the position of the control object one step before in the image acquisition time series to determine whether the control object has moved or a new control object has appeared. The position of the known control object and the distance of the new control object are calculated, it is determined whether it is in the proper distance range, and the data update is executed. If the new control object is not within the allowable range, the old control object is erased and the new control object is entered. At step 550, the position data of the moved control object is updated, the appearance of the new control object is recognized, and the disappearance of the known control object is confirmed. The program then returns to step 510 and continues to run as a loop. In the preferred embodiment, it is preferable to speed up the updating of the old and new control object data, to accommodate rapid changes in the position of the user's finger and to allow that data to be continuously displayed by the computer. , 1/10-1/30 update rate is a proper condition.
【0033】ステップ505,510,515および5
20を、図20および図21によりさらに詳細に記述す
ることができる。図20(a) はCCD カメラ210によっ
て得られる画像を示し、ステップ505に対応する。図
20(b) は輝度ヒストグラムを示し、y軸は各グレイス
ケール輝度幅にあたる画素数であり、x軸は画素のグレ
イスケール輝度レベル(0〜255 )である。Steps 505, 510, 515 and 5
20 can be described in more detail by FIGS. 20 and 21. FIG. 20 (a) shows an image obtained by the CCD camera 210 and corresponds to step 505. FIG. 20B shows a luminance histogram, in which the y-axis is the number of pixels corresponding to each gray scale luminance width, and the x-axis is the gray scale luminance level (0 to 255) of the pixel.
【0034】図20(c) はステップ510に対応する画
像でユーザの3つの接触点を示す。図20(d) は図20
(c) に対応する輝度ヒストグラムである。図20(e) は
画像19cを画像19aより差し引いた画像であり、ス
テップ515に対応する。図20(f) は図20(e) に対
応する輝度ヒストグラムである。図に示すようにバック
グランドデータの輝度と、ユーザの接触点に対応する画
素の輝度値とに大差がない場合もある。このような場
合、好ましい実施例では、追加画像処理ステップとし
て、自動スケーリングの処理を実行する。この処理は画
素に適正な数値を乗算してバックグランド画素および接
触点の画素のグレイスケール輝度ヒストグラムを人為的
に最大スケール域(0〜255 域)に拡張する。例えば、
接触点に対応する画素の最高輝度値が12である場合は、
この値に20を乗算すると、得られる値は240 となる。こ
の自動スケーリング法はユーザの指による接触点と、バ
ックグランドデータとの分離をより明確にするために有
効な手段であり、ステップ520における閾値設定によ
る分離を容易にする。図21(g) および(h) は自動スケ
ーリング処理をした後の画像と輝度ヒストグラムをそれ
ぞれ示す。この処理はステップ515における規格化処
理のうちの選択的追補処理である。図21(i) および
(j) はステップ520の処理が終了した後の画像とヒス
トグラムに対応しており、バックグランド輝度と指によ
る接触点部分の輝度が離散値“0”または“1”として
明確に分離できるように閾値を設定してある。FIG. 20C is an image corresponding to step 510 and shows three contact points of the user. 20 (d) is shown in FIG.
It is a luminance histogram corresponding to (c). FIG. 20E shows an image obtained by subtracting the image 19c from the image 19a and corresponds to step 515. FIG. 20 (f) is a luminance histogram corresponding to FIG. 20 (e). As shown in the figure, there may be no significant difference between the brightness of the background data and the brightness value of the pixel corresponding to the contact point of the user. In such a case, in the preferred embodiment, the process of automatic scaling is executed as the additional image processing step. This processing artificially expands the gray scale luminance histogram of the background pixel and the pixel at the contact point to the maximum scale range (0 to 255 range) by multiplying the pixel by an appropriate numerical value. For example,
If the maximum brightness value of the pixel corresponding to the touch point is 12,
Multiply this value by 20 to get 240. This automatic scaling method is an effective means for clarifying the separation between the touch point by the user's finger and the background data, and facilitates the separation by setting the threshold value in step 520. 21 (g) and 21 (h) show the image and the luminance histogram after the automatic scaling process, respectively. This process is a selective supplemental process of the standardization process in step 515. 21 (i) and
(j) corresponds to the image and the histogram after the processing of step 520 is completed, so that the background brightness and the brightness of the contact point portion with the finger can be clearly separated as discrete values “0” or “1”. A threshold is set.
【0035】図6は図2におけるシステムの機能ブロッ
クダイヤグラムを示す。図6において、CCD カメラ21
0はグレイスケール輝度による画像データをコンピュー
タ250に転送する。コンピュータ250はCCD カメラ
からのアナログ信号を8ビットのデジタル信号に変換す
るアナログ−デジタル変換器を装備している。コンピュ
ータ250は画像処理用ソフトウェアも含んでいる。こ
の画像処理用ソフトウェアにより、バックグランド入力
操作用画像を獲得し、画像を規格化し、閾値を用いて規
格化画像の2値化(白・黒画像)処理を実行する。この
処理は図5のステップ505,510,515,520
に対応する(閾値は事前設定も、適正な設定変更も可能
である)。また、画像処理ソフトウェアにより、制御オ
ブジェクトの中心位置およびオブジェクトの位置追跡計
算も実行される。。この処理は図5のステップ530,
540,550に対応する。全ての制御オブジェクトの
位置データはコンピュータグラフィック応用ソフトウェ
ア630に転送され、そのソフトウェア630はグラフ
ィックディスプレイ270上にグラフィックオブジェク
トを描く。FIG. 6 shows a functional block diagram of the system in FIG. In FIG. 6, the CCD camera 21
0 transfers the image data with gray scale luminance to the computer 250. The computer 250 is equipped with an analog-to-digital converter that converts an analog signal from the CCD camera into an 8-bit digital signal. The computer 250 also includes image processing software. This image processing software acquires an image for background input operation, normalizes the image, and executes binarization (white / black image) processing of the standardized image using a threshold value. This processing is performed by steps 505, 510, 515 and 520 in FIG.
(The threshold can be set in advance or can be changed appropriately). Further, the image processing software also executes the center position of the control object and the position tracking calculation of the object. . This process is performed by step 530 in FIG.
Corresponding to 540 and 550. The position data of all control objects are transferred to computer graphics application software 630, which draws the graphic objects on graphic display 270.
【0036】このグラフィック応用ソフトウェアはCCD
カメラの画像空間にある制御オブジェクトの位置座標を
グラフィックディスプレイ270上のグラフィック画面
空間の位置座標に移す座標変換処理を実行する。この時
用いられる数学的な座標変換公式は、グラフィックス応
用ソフトウェアで想定する応用条件に依存する。座標変
換の一例としては図3に示す画像空間から制御用空間へ
の変換を実現する数値テーブルを利用する方法がある。
この方法では、テーブルで定義される位置データはCCD
カメラで得られる画像空間の位置によりインデックス化
されており、通常、3つの値を含む。第1の値はこの位
置データがパネル202,204、または206からの
データであるかどうかを指定する。例えば、画像点30
5の第1の値はパネル206からの信号であり、画像点
310の第1の値はパネル204からの信号といった具
合である。第2,第3の値はパネル上におけるユーザの
接触点の位置座標データを含む。例えば、画像点305
の第2,第3の値はパネル206における接触点の
“Y”および“Z”座標を含む。また、画像点310の
第2,第3の値はパネル204の“X”および“Z”座
標を含み、さらに、画像点315の第2,第3の値はパ
ネル202の“X”および“Y”座標を含むといった具
合である。このようにして、変換された制御オブジェク
トの座標データは最終的にグラフィックディスプレイ2
70上で利用可能な座標データとして用いられる。この
方法は画像処理用ソフトウェアのなかにROMテーブル
データとして有することも可能であり、このようなソフ
トウェアは図3に示す画像空間データが、プログラマに
とって理解し易いものになると言う利点を有する。すな
わち、この方法を用いると、グラフィック応用ソフトウ
ェア開発をするプログラマは制御装置の内部的構造を深
く検討することなく、得られた入力信号から接触点の存
在するパネルと、接触点のパネル上の位置座標を直接的
に把握できる。しかし、この方法以外にも、CCD 画像空
間からグラフィック表示空間への座標変換を可能にする
手法も存在し、この手法をいずれにするかは、グラフィ
ック応用ソフトウェア630自体の応用内容に依存す
る。This graphic application software is CCD
A coordinate conversion process is executed to move the position coordinates of the control object in the image space of the camera to the position coordinates in the graphic screen space on the graphic display 270. The mathematical coordinate transformation formula used at this time depends on the application conditions assumed by the graphics application software. As an example of the coordinate conversion, there is a method of using a numerical table for realizing the conversion from the image space to the control space shown in FIG.
With this method, the position data defined in the table is CCD
It is indexed by the position of the image space obtained by the camera and usually contains three values. The first value specifies whether this location data is from panel 202, 204, or 206. For example, image point 30
The first value of 5 is the signal from panel 206, the first value of image point 310 is the signal from panel 204, and so on. The second and third values include position coordinate data of the touch point of the user on the panel. For example, image point 305
The second and third values of include the "Y" and "Z" coordinates of the touch point on panel 206. Also, the second and third values of image point 310 include the "X" and "Z" coordinates of panel 204, and the second and third values of image point 315 are the "X" and "X" of panel 202. Including the Y "coordinate. In this way, the coordinate data of the converted control object is finally converted into the graphic display 2.
It is used as coordinate data available on 70. This method can be stored as ROM table data in the image processing software, and such software has an advantage that the image space data shown in FIG. 3 can be easily understood by the programmer. In other words, by using this method, a programmer who develops graphic application software does not need to study the internal structure of the control device deeply, and the panel where the contact point exists from the obtained input signal and the position of the contact point on the panel. You can grasp the coordinates directly. However, in addition to this method, there is a method that enables coordinate conversion from the CCD image space to the graphic display space, and which method is used depends on the application content of the graphic application software 630 itself.
【0037】さらに、グラフィック応用ソフトウェア6
30は制御オブジェクトの動きをジェスチャによるコマ
ンドとして認識し処理する。この機能は図4(a)-(c) に
示した通りである。さらに、ユーザの指の接触点の数も
入力指令として利用することが可能である。例えば、指
の接触点が1つの場合は、コンピュータグラフィックス
上のカーソルの移動用入力信号として用い、接触点が2
つの場合は、指の動きに対応するグラフィックオブジェ
クトの移動や回転といったコマンドとして利用する。そ
して、指の接触点が3つの場合はコマンドの解除、すな
わち、UNDOとして利用される。接触点が4つの場合は、
グラフィック画面上のオブジェクトの消去コマンドとい
った具合である。Further, the graphic application software 6
30 recognizes the movement of the control object as a command by the gesture and processes it. This function is as shown in FIGS. 4 (a)-(c). Furthermore, the number of contact points of the user's finger can also be used as an input command. For example, when there is one finger contact point, it is used as an input signal for moving the cursor on computer graphics, and the contact point is two.
In one case, it is used as a command to move or rotate the graphic object corresponding to the movement of the finger. When there are three finger contact points, the command is canceled, that is, used as UNDO. If there are four contact points,
For example, a command to delete an object on the graphic screen.
【0038】ステップ510〜550は、図7(a)-(d)
に画像フォーマットとして示す。図7(a) はCCD カメラ
210により得られる画像を示し、この画像はカメラ画
像空間である。図7(a) はステップ515を実行した後
の画像である。接触点の位置データは不変であるが、輝
度は閾値を用いた処理によって2値画像になっている。
図7(b) に示す黒い点は制御オブジェクトの中心位置を
示す。図7(d) はステップ540,550に対応してお
り、現在の制御オブジェクトの位置と時系列における1
ステップ前の位置を示しており、このデータを用いてど
の制御オブジェクトが新しい位置に移動したかを判定す
る。Steps 510 to 550 are shown in FIGS. 7 (a)-(d).
The image format is shown in. FIG. 7A shows an image obtained by the CCD camera 210, which is the camera image space. FIG. 7A shows an image after the execution of step 515. The position data of the contact point is unchanged, but the brightness is a binary image due to the processing using the threshold value.
The black dot shown in FIG. 7 (b) indicates the center position of the control object. FIG. 7 (d) corresponds to steps 540 and 550, and is the position of the current control object and 1 in the time series.
The position before the step is shown, and this data is used to determine which control object has moved to the new position.
【0039】図8はグラフィック応用ソフトウェア63
0においてカメラ画像空間からグラフィックディスプレ
イ260のグラフィック空間へ直接座標変換する方向を
示す。カメラ画像空間810はグラフィック空間上の点
820に適正な変換テーブルまたは数学公式を用いて変
換される。例えば、画像処理手法の1つである歪み変形
法(warping 法)により点810を点820に変換す
る。歪み変形法は次に示す多項式によって表現される。FIG. 8 shows the graphic application software 63.
At 0, the direction of direct coordinate conversion from the camera image space to the graphic space of the graphic display 260 is shown. The camera image space 810 is transformed into a point 820 in the graphics space using an appropriate transformation table or mathematical formula. For example, the point 810 is converted into the point 820 by the warping method, which is one of the image processing methods. The distortion deformation method is expressed by the following polynomial.
【0040】[0040]
【数2】X′=a1+a2*X +a3*Y +a4*X *Y +a5*X
2+a6*Y2+… Y′=b1+b2*X +b3*Y +b4*X *Y +b5*X2+b6*Y
2+… ここで、X,Yは旧座標であり、X′,Y′は変換後の
新座標を示し、係数a1 ,a2 …,b1 ,b2 …は2つ
の画像間の希望するデータマッピングの仕様によって適
正に決定される。[Formula 2] X '= a 1 + a 2 * X + a 3 * Y + a 4 * X * Y + a 5 * X
2 + a 6 * Y 2 + ... Y '= b 1 + b 2 * X + b 3 * Y + b 4 * X * Y + b 5 * X 2 + b 6 * Y
2 + ... where X and Y are old coordinates, X'and Y'represent new coordinates after conversion, and coefficients a 1 , a 2 ..., b 1 , b 2 ... are desired between two images. It is properly determined according to the data mapping specifications.
【0041】従って、パネル202上の制御オブジェク
トは、直接、グラフィックスディスプレイ260のXY
平面上の点として解釈され、しかも、パネル上の指定さ
れた点と、座標変換後に描かれるグラフィック表示上の
点は、全て、1対1で対応している。さらに、パネル2
04,206上におけるユーザの指の接触点は、グラフ
ィックディスプレイ260の3次元グラフィック空間の
Z軸位置データとしても利用できる。Therefore, the control object on the panel 202 is directly connected to the XY of the graphics display 260.
Interpreted as a point on the plane, and the designated point on the panel and the point on the graphic display drawn after the coordinate conversion all have a one-to-one correspondence. Furthermore, panel 2
The contact point of the user's finger on 04 and 206 can also be used as Z-axis position data in the three-dimensional graphic space of the graphic display 260.
【0042】グラフィック応用ソフトウェア630にお
ける画像処理内容は、さらに、図9に示す。ステップ9
10にて、CCD カメラ画像空間からグラフィック表示空
間への座標交換公式が設定される。ステップ920に
て、制御オブジェクトの座標変換が実行され、ステップ
930にて、制御オブジェクトの数と、その位置データ
がユーザの応用に対応したコマンドとして解釈される。The image processing contents in the graphic application software 630 are further shown in FIG. Step 9
At 10, the coordinate exchange formula from the CCD camera image space to the graphic display space is set. In step 920, coordinate conversion of the control object is executed, and in step 930, the number of control objects and their position data are interpreted as a command corresponding to the application of the user.
【0043】図10は他の好ましい実施例であり、半透
明パネルへの接触で加えられる力を検出し、そのデータ
を利用する制御装置を示す。制御装置1100は制御装
置200と同様の操作機能を持っているが、力検出セン
サを装備している点が異なる。力検出センサ1102,
1104,1106、および1108は、パネル206
に加えられる力を検出する。同様に、力センサ111
0,1112,1114、および1116は、パネル2
04に加えられる力を検出する。この目的に適用できる
力センサとしては、Interlink Electronics (Carpinter
ia, CA) 社製の力検出センタか、あるいはIntelligent
Computer Music Systems (Albany, New York) 社の力セ
ンサがある。FIG. 10 shows another preferred embodiment of a controller for detecting the force applied by the touch on the translucent panel and utilizing the data. The control device 1100 has the same operation function as the control device 200, but is different in that it is equipped with a force detection sensor. Force detection sensor 1102
1104, 1106, and 1108 are panel 206
To detect the force applied to. Similarly, the force sensor 111
0, 1112, 1114, and 1116 are panel 2
The force applied to 04 is detected. A force sensor applicable to this purpose is Interlink Electronics (Carpinter
(ia, CA) force detection center or Intelligent
There is a force sensor from Computer Music Systems (Albany, New York).
【0044】力センサで検出された信号は3次元制御実
現のために有効に利用することが可能であり、図11に
その例を示す。図11において、ユーザが指でパネル2
02に加えた圧力は、グラフィックディスプレイのツー
ル1210のZ軸方向の位置移動のための信号として利
用できる。すなわち、ユーザは指でオブジェクトを回転
させるようなジェスチャによってグラフィックオブジェ
クトを回転させ、しかも、指でパネル202に圧力を加
えることによって得られる力センサ1118,112
0,1122,1124からの信号を利用して、同時
に、グラフィックオブジェクトをZ軸方向に動かすこと
ができる。The signal detected by the force sensor can be effectively used for realizing three-dimensional control, and an example thereof is shown in FIG. In FIG. 11, the user touches the panel 2 with his finger.
The pressure applied to 02 can be used as a signal for moving the position of the tool 1210 of the graphic display in the Z-axis direction. That is, the user rotates the graphic object with a gesture of rotating the object with a finger, and further, the force sensors 1118 and 112 obtained by applying pressure to the panel 202 with the finger.
The signals from 0, 1122, and 1124 can be used to move the graphic object in the Z-axis direction at the same time.
【0045】図12は図1に示す制御装置における新し
い入力制御技術を示す。工学的分野において既に知られ
た対話型のコンピュータグラフィックス用入力機器の性
能特性評価項目の1つに、制御量対表示量比(control-t
o-display :C/D 比)がある。このC/D 比はユーザの手
または指の移動量(制御量)と、グラフィックスディス
プレイ上のカーソルの移動量(表示量)の比として定義
される。大きなC/D 比は精密なカーソルの動きをユーザ
に提供するが、大きな範囲あるいは高速のカーソルの動
きを実現させることは困難である。逆に、小さなC/D 比
は大きくかつ高速のカーソルの動きを提供するが、精密
なカーソル操作には不適当である。このような相反する
利点と欠点を補うために、相対座標入力機器には可変式
C/D 比を採用し、入力機器の移動速度が速い場合には小
さなC/D 比を設定し、入力機器の移動速度が遅い場合に
は大きなC/D 比を設定するようにしたものがある。この
可変C/D 比はマウス等の入力機器に採用されており、こ
の技術を適正に採用することにより、ユーザはマウスを
操作する手の位置を置き換えることなく、コンピュータ
CRT スクリーン上のカーソルの位置を望ましい精度の範
囲で操作することが可能である。FIG. 12 shows a new input control technique in the control device shown in FIG. One of the performance characteristic evaluation items of the interactive computer graphics input device which is already known in the engineering field is the ratio of control amount to display amount (control-t).
o-display: C / D ratio) is available. This C / D ratio is defined as the ratio of the amount of movement (control amount) of the user's hand or finger to the amount of movement (display amount) of the cursor on the graphics display. A large C / D ratio provides the user with precise cursor movement, but it is difficult to achieve large range or fast cursor movement. Conversely, a small C / D ratio provides large and fast cursor movement, but is unsuitable for precise cursor manipulation. To compensate for these conflicting advantages and disadvantages, the relative coordinate input device has a variable
The C / D ratio is adopted, and a small C / D ratio is set when the moving speed of the input device is fast, and a large C / D ratio is set when the moving speed of the input device is slow. is there. This variable C / D ratio is used in input devices such as mice, and by adopting this technology properly, the user can operate the computer without replacing the position of the hand operating the mouse.
It is possible to manipulate the position of the cursor on the CRT screen within the desired precision.
【0046】しかし、この可変式C/D 比を用いた操作に
は欠点がある。すなわち、この技術による操作では、ユ
ーザの手の位置を置き換えることなく、緩やかな速度で
カーソルを動かしながらCRTスクリーン上の全ての部
分にカーソルを位置させることは不可能である。3次元
コンピュータグラフィック応用では、多くの場合、ユー
ザは極めて高い精度を保持しつつ、グラフィックオブジ
ェクトの操作を緩やかに実行し、その作業をコンピュー
タスクリーン全域において、手を再配置をすることなく
実行することを望む場合がある。すなわち、対話形式の
人間−コンピュータインタフェースでは、高精度操作と
高速広範囲操作の2つの要求仕様を満足する技術が最も
望ましいものと言える。However, there are drawbacks to operating with this variable C / D ratio. That is, with this technique, it is impossible to position the cursor on all parts of the CRT screen while moving the cursor at a slow speed without replacing the position of the user's hand. In many three-dimensional computer graphics applications, the user is often able to perform manipulations of graphic objects gently and with high precision, without repositioning hands across the computer screen. May want. That is, in the interactive human-computer interface, it is most desirable that the technology satisfying the two requirements of high precision operation and high speed wide range operation.
【0047】図12は図1に示す制御装置を示す。制御
装置100は2次元のカーソル操作も含めて自由度6の
グラフィックオブジェクトの操作を可能とする入力機器
とする。従って、図1に関連して記述した通り制御装置
100は同時に複数の制御オブジェクト(ユーザの指の
接触点)に応答する機器である。FIG. 12 shows the controller shown in FIG. The control device 100 is an input device capable of operating a graphic object having six degrees of freedom including a two-dimensional cursor operation. Therefore, as described with reference to FIG. 1, the control device 100 is a device that simultaneously responds to a plurality of control objects (touch points of user's fingers).
【0048】図12に示すように、領域1205は制御
装置100におけるパネル105上の部分領域である。
この領域1205は、以下、オブジェクト操作領域と呼
ぶ。オブジェクト操作領域1205はグラフィックディ
スプレイ135上の部分的表示領域1210に対応して
いる。ユーザはパネル上のオブジェクト操作領域120
5内の制御オブジェクト(指の接触点)を移動させ、グ
ラフィック表示領域1210上のあらゆるグラフィック
オブジェクト(カーソルも含む)を操作することができ
る。オブジェクト操作領域1205とグラフィック表示
領域1210は、その位置における完全な1対1の対応
が設定されている。この対応はオブジェクト操作領域1
205の中心はグラフィック表示領域1210の中心に
対応し、オブジェクト操作領域1205の左上隅の点は
グラフィック表示領域1210の左上隅の点に対応する
といった対応関係を意味する。従って、領域1210の
サイズが極めて小さい場合は、この制御装置のC/D 比は
極めて大きなものとなる。この特質は領域1210内に
存在するグラフィックオブジェクトを、極めて高い精度
で操作できる入力機能の実現が可能であることを意味す
る。As shown in FIG. 12, the area 1205 is a partial area on the panel 105 in the control device 100.
This area 1205 is hereinafter referred to as an object operation area. The object operation area 1205 corresponds to the partial display area 1210 on the graphic display 135. The user operates the object operation area 120 on the panel.
It is possible to move a control object (finger contact point) in 5 to operate any graphic object (including a cursor) on the graphic display area 1210. The object operation area 1205 and the graphic display area 1210 are set to have a perfect one-to-one correspondence in their positions. This correspondence is the object operation area 1
The center of 205 corresponds to the center of the graphic display area 1210, and the point at the upper left corner of the object operation area 1205 corresponds to the point at the upper left corner of the graphic display area 1210. Therefore, when the size of the region 1210 is extremely small, the C / D ratio of this control device becomes extremely large. This characteristic means that it is possible to realize an input function capable of operating a graphic object existing in the area 1210 with extremely high accuracy.
【0049】さらなる機能としては、グラフィック表示
領域1210は、この領域自体か、あるいはこの領域お
よびこの領域内に描かれているグラフィックオブジェク
トとともに、その位置を高速度に移動することが可能で
ある。この機能は制御入力機器パネルにおけるオブジェ
クト操作領域の外側領域1220を利用することによ
り、グラフィック表示135上の表示領域1210を移
動させるものである。ユーザの指が外側領域1220に
触れると、グラフィックディスプレイ135上の表示領
域1210は、オブジェクト操作領域中心から外側領域
のユーザ接触部分に向うベクトル方向に移動する。例え
ば、図12に示すように、オブジェクト操作領域120
5の上に位置する外側領域1220に指で触れると、表
示領域1210はグラフィックディスプレイ135の上
方に移動する。このようにして表示領域を移動させるこ
とにより、移動前に含まれていなかったグラフィックオ
ブジェクトを表示領域の中に含ませることができ、この
グラフィックオブジェクトは制御装置のパネルを通じて
操作することができる。この機能は表示領域1210を
高速で移動させ、グラフィック表示135上のあらゆる
グラフィックオブジェクトを操作することができること
を意味する。複数の指を用いて表示領域1210を移動
させながら、グラフィックオブジェクトを同時に操作す
ることも可能である。例えば、グラフィックオブジェク
トをゆっくりと回転させながら、すばやく別の位置に移
動させるといった具合である。As an additional feature, the graphic display area 1210 can be moved rapidly in position, either with itself or with the area and graphic objects drawn within this area. This function is to move the display area 1210 on the graphic display 135 by using the area 1220 outside the object operation area on the control input device panel. When the user's finger touches the outer area 1220, the display area 1210 on the graphic display 135 moves in the vector direction from the center of the object operation area toward the user contact portion of the outer area. For example, as shown in FIG. 12, the object operation area 120
Touching the outer area 1220 above 5 with the finger causes the display area 1210 to move above the graphic display 135. By moving the display area in this manner, a graphic object that was not included before the movement can be included in the display area, and the graphic object can be operated through the panel of the control device. This function means that the display area 1210 can be moved at high speed and any graphic object on the graphic display 135 can be operated. It is also possible to simultaneously operate the graphic objects while moving the display area 1210 using a plurality of fingers. For example, a graphic object may be slowly rotated and quickly moved to another position.
【0050】このようなカーソルとグラフィックオブジ
ェクトの操作技術は、図2に示すような制御装置200
を用いることにより、x-z 軸平面やy-z 軸平面上の操作
にも応用できる。図12に示すインタフェース技術は図
13(a)-(e) にさらに示す。図13(a) には、グラフィ
ックディスプレイ135上に、グラフィックオブジェク
ト1305,1310,1315,1320,132
5、および1330が描かれている。グラフィックオブ
ジェクト1320,1325および1330は表示領域
1210内に位置している。従って、グラフィックオブ
ジェクト1320,1325,1330は、制御装置1
00では、オブジェクト操作領域1205上において指
で接触することにより、これらのオブジェクトをグラフ
ィック画面上で操作できる。図13(a) に示すように、
ユーザの指はオブジェクト操作領域1205の左方外側
領域に触れているので、表示領域1210は左方向へ移
動しつつある。図13(b) では、ユーザはパネル105
上のオブジェクト操作領域1205内において、オブジ
ェクトを回転させるジェスチャを行っており、このコマ
ンドに対応してグラフィックオブジェクト1320が回
転する。図13(c) では、ユーザの指がパネル105上
のオブジェクト操作領域1205の上方外側領域に触れ
ており、これに対応して表示領域1210は上方へ移動
している。図13(d) では、グラフィックオブジェクト
1305は表示領域1210内に位置しており、パネル
105上のオブジェクト操作領域1205における回転
ジェスチャコマンドに対応して回転している。図13
(e) では、2つの操作を同時に実行しているインタフェ
ース機能を示す。図13(e) では、ユーザはグラフィッ
クオブジェクト1305を掴むジェスチャと同時に、パ
ネル105上のオブジェクト操作領域1205の右下外
側領域に触れている。このコマンドに対応してグラフィ
ックオブジェクト1305は表示領域1210とともに
グラフィックディスプレイ135の右下方向へ移動して
いる。Such a cursor and graphic object operation technique is based on the control device 200 as shown in FIG.
By using, it can be applied to operations on the xz axis plane and the yz axis plane. The interface technique shown in FIG. 12 is further illustrated in FIGS. 13 (a)-(e). In FIG. 13A, the graphic objects 1305, 1310, 1315, 1320, 132 are displayed on the graphic display 135.
5, and 1330 are depicted. Graphic objects 1320, 1325 and 1330 are located within display area 1210. Therefore, the graphic objects 1320, 1325, 1330 are the same as the control device 1
In 00, these objects can be operated on the graphic screen by touching the object operation area 1205 with a finger. As shown in Fig. 13 (a),
Since the user's finger touches the left outer area of the object operation area 1205, the display area 1210 is moving to the left. In FIG. 13B, the user has a panel 105.
In the upper object operation area 1205, a gesture for rotating the object is performed, and the graphic object 1320 rotates in response to this command. In FIG. 13C, the user's finger touches the upper outside area of the object operation area 1205 on the panel 105, and the display area 1210 correspondingly moves upward. In FIG. 13D, the graphic object 1305 is located within the display area 1210 and is rotating in response to the rotation gesture command in the object operation area 1205 on the panel 105. FIG.
(e) shows an interface function that executes two operations at the same time. In FIG. 13E, the user is touching the lower right outer area of the object operation area 1205 on the panel 105 at the same time as the gesture of grasping the graphic object 1305. In response to this command, the graphic object 1305 moves to the lower right of the graphic display 135 together with the display area 1210.
【0051】図14(a)-(c) は円筒状の制御装置を示
す。図に示すように、制御装置1500は不透明な土台
1505と、不透明な円筒状の外枠1510と、半透明
の円筒1515を含む。円筒1515は半透明の円板1
516を含んでおり、円筒上端に位置している。従っ
て、制御装置1500は半透明の円筒を除けば不透明な
材質である。14 (a)-(c) show a cylindrical control device. As shown, the controller 1500 includes an opaque base 1505, an opaque cylindrical outer frame 1510, and a translucent cylinder 1515. The cylinder 1515 is a semi-transparent disc 1
516 and is located at the top of the cylinder. Therefore, the control device 1500 is an opaque material except for a semitransparent cylinder.
【0052】半透明円筒は、断面図14(b) に示すよう
に、外枠に収まるように設計されている。そして、広角
レンズを持つCCD カメラ1520が土台1505内に配
置されており、円筒1515にユーザが接触した時の円
筒内で画像を検出できるように、その装着角度が設定さ
れている。The semi-transparent cylinder is designed to fit in the outer frame, as shown in the sectional view of FIG. 14 (b). A CCD camera 1520 having a wide-angle lens is arranged in the base 1505, and its mounting angle is set so that an image can be detected in the cylinder 1515 when a user touches the cylinder 1515.
【0053】コマンド操作において、制御装置1500
は図1に示す制御装置100か、あるいは、図2に示す
入力装置200と同様の操作性を有する。すなわち、半
透明の円筒にはいくらか光が通過するが、その外側に存
在するオブジェクト自体が判明する程の光は通さない。
従って、円筒内面は光が拡散しており、通常、CCD カメ
ラ1520で得られる画像は一様な輝度の灰色の画像で
ある。ユーザがこの円筒外面に指等で接触した場合は、
指等の接触部分はCCD カメラ1520で得られる画像の
中で黒く映し出され、円筒の非接触部分と差異は著し
い。さらに、接触によりラジアル方向および軸方向に加
えられる力は、力センサ1525および1530によっ
て検出され、ラジアル方向に力が加えられた位置は力セ
ンサ1525の位置より検出することができる。In the command operation, the control device 1500
Has the same operability as the control device 100 shown in FIG. 1 or the input device 200 shown in FIG. That is, some light will pass through the semi-transparent cylinder, but not enough light to reveal the object itself outside it.
Therefore, light is diffused on the inner surface of the cylinder, and the image obtained by the CCD camera 1520 is usually a gray image with uniform brightness. If the user touches the outer surface of this cylinder with a finger, etc.,
The contact part such as a finger is shown in black in the image obtained by the CCD camera 1520, and the difference from the non-contact part of the cylinder is remarkable. Further, the force applied in the radial direction and the axial direction by the contact is detected by the force sensors 1525 and 1530, and the position where the force is applied in the radial direction can be detected from the position of the force sensor 1525.
【0054】制御入力機器1500は円筒1515に加
えられる力を検出する2つの力センサを装着している。
力センサ1525は円筒1515と外枠1510の間に
装着され半径方向に加わる力の大きさとその力の加わる
位置を検出するセンサである。一方、力センサ1530
は円筒1515のラジアル方向に加わる力の大きさを検
出するセンサである。図15は図14において示すCCD
カメラより得られる典型的な画像を示す。領域1610
は円筒の側面に対応している。領域1620は円筒の上
端部に対応し、黒い点A,Bおよび点E,Fは図16を
参照すると、その対応点が明確になる。すなわち、制御
装置の操作を示す図16を参照することにより、黒い点
A,Bはユーザの指の接触部分であり、円筒上端部にあ
る2点がEおよびFに対応する。入力操作において、Z
軸方向の位置の操作入力コマンドは、円筒1515の側
面で指を滑らせるか、あるいは円筒上部円板1516を
指で押すことにより発生させることができる。また、ラ
ジアル方向の操作入力コマンドは、指で円筒1515を
押すか、あるいは円筒上部円面で指を滑らせることによ
り発生させることができる。回転入力コマンドはZ軸を
中心にして円筒を回転させるような指の接触ジェスチャ
をするか、あるいは円筒上部円板1516上で捻るよう
なジェスチャを行うことにより発生させることができ
る。The control input device 1500 is equipped with two force sensors for detecting the force applied to the cylinder 1515.
The force sensor 1525 is a sensor that is mounted between the cylinder 1515 and the outer frame 1510 and detects the magnitude of the force applied in the radial direction and the position where the force is applied. On the other hand, force sensor 1530
Is a sensor that detects the magnitude of the force applied in the radial direction of the cylinder 1515. FIG. 15 shows the CCD shown in FIG.
A typical image obtained from a camera is shown. Area 1610
Corresponds to the side of the cylinder. The area 1620 corresponds to the upper end of the cylinder, and the black points A and B and the points E and F become clear by referring to FIG. That is, referring to FIG. 16 showing the operation of the control device, the black dots A and B are the contact parts of the user's finger, and the two points at the upper end of the cylinder correspond to E and F. In input operation, Z
The operation input command of the axial position can be generated by sliding a finger on the side surface of the cylinder 1515 or by pushing the cylinder upper disc 1516 with the finger. The operation input command in the radial direction can be generated by pushing the cylinder 1515 with a finger or sliding the finger on the cylinder upper circular surface. The rotation input command can be generated by making a finger contact gesture that rotates the cylinder about the Z axis, or by making a twisting gesture on the cylinder upper disk 1516.
【0055】図17(a) に示すように、円筒1515は
半球1805に変更することも可能であり、形状を半球
に変更しても、その制御装置の操作性は変わらない。As shown in FIG. 17A, the cylinder 1515 can be changed to a hemisphere 1805, and even if the shape is changed to a hemisphere, the operability of the control device does not change.
【0056】半球を採用した制御装置は3次元空間にお
ける任意の軸に対する回転入力コマンドを発生させる際
に有用である。例えば、バーチャルリアリティシステム
またはCAD/CAM システムの応用において、ユーザはグラ
フィックオブジェクトを任意の角度だけ任意の軸まわり
に回転させる必要がある。このような場合、立方体の形
状をした制御装置では、基準3次元空間の3軸(x,
y,z軸)に対して、グラフィックオブジェクトを回転
させる際は直感的で理解しやすい形状ではあるが、任意
の軸に対する回転入力に関しては必ずしも適正ではな
い。半球はこの要求仕様に対して自然であり、しかも直
感的に回転入力コマンドを発生させる上で適正な形状で
ある。すなわち、ユーザは1本あるいは複数本の指を半
球外面上で滑らせることにより、容易に回転入力コマン
ドを発生させることができる。The control device employing the hemisphere is useful for generating a rotation input command for an arbitrary axis in the three-dimensional space. For example, in virtual reality system or CAD / CAM system applications, the user needs to rotate the graphic object by any angle about any axis. In such a case, in the control device having a cubic shape, the three axes (x,
It has an intuitive and easy-to-understand shape when rotating a graphic object with respect to the (y, z axes), but it is not always appropriate for inputting rotation about an arbitrary axis. The hemisphere is natural for this required specification, and has a proper shape for intuitively generating a rotation input command. That is, the user can easily generate a rotation input command by sliding one or more fingers on the outer surface of the hemisphere.
【0057】図17(b) はユーザが半球1805に接触
した時にCCD カメラによって得られる画像を示す。CCD
カメラ画像で得られる接触点1810は、2次元画像空
間(x-y 空間)で検出されるので、この接触点中心の位
置座標を、次の式で示す極座標(r,θ)に変換する。FIG. 17B shows an image obtained by the CCD camera when the user touches the hemisphere 1805. CCD
Since the contact point 1810 obtained in the camera image is detected in the two-dimensional image space (xy space), the position coordinate of this contact point center is converted into the polar coordinate (r, θ) shown by the following equation.
【0058】[0058]
【数3】r=SQRT( x2 +y2 ) θ=tan-1(y/x) この変換により接触点1810は半径rおよび角度θの
関数として、その位置の軌跡を認識することができ
る。。図18(c)-(h) は半球1805における指の接触
によって生み出される回転入力コマンドを示す。## EQU00003 ## r = SQRT (x 2 + y 2 ) θ = tan -1 (y / x) With this conversion, the contact point 1810 can recognize the locus of its position as a function of the radius r and the angle θ. . 18 (c)-(h) show a rotation input command generated by a finger touch on the hemisphere 1805.
【0059】図18(c) では、ユーザは半球のy軸に対
して、1本の指を用いて、半球表面で円を描くように指
をひきずりながら動かしている。この接触点の軌跡はCC
D カメラ画像によって図18(d) のように認識され、一
定の半径rを保ちながら角度も変化させるような軌跡と
なっている。この軌跡の特質すなわち角度変化と一定の
半径という条件を満足するような指の接触による入力操
作は、y軸に対する回転入力コマンドとして解釈され
る。In FIG. 18 (c), the user uses one finger with respect to the y-axis of the hemisphere and drags the finger to draw a circle on the surface of the hemisphere. The locus of this contact point is CC
It is recognized by the D camera image as shown in FIG. 18 (d), and the trajectory is such that the angle changes while keeping a constant radius r. An input operation by a finger contact that satisfies the characteristic of the locus, that is, the angle change and the constant radius is interpreted as a rotation input command for the y-axis.
【0060】図18(e) および(f) はx軸に対する回転
入力コマンドを示す。また、図18(g),(h) はz軸に対
する回転入力コマンドを示す。これらの場合、その軌跡
は半径rが変化し角度θは一定という特徴を有する。こ
の条件を満足する制御入力操作はx軸またはz軸に対す
る回転入力コマンドとして解釈される。FIGS. 18E and 18F show the rotation input command for the x axis. 18 (g) and 18 (h) show a rotation input command for the z axis. In these cases, the locus has a feature that the radius r changes and the angle θ is constant. A control input operation satisfying this condition is interpreted as a rotation input command for the x axis or the z axis.
【0061】図19(i) および(j) は任意の1軸の周り
の回転入力コマンドを発生させる操作を示す。図19
(i) では、ユーザがz′軸周りの回転入力コマンドを発
生させている。ここで、z′軸はz軸からより角度φだ
け回転移動した軸である。図19(j) に示す軌跡は図1
8(f),(h) と類似しているが、角度θが90+φだけ変
化している。FIGS. 19 (i) and 19 (j) show an operation for generating a rotation input command about an arbitrary axis. FIG. 19
In (i), the user generates a rotation input command about the z'axis. Here, the z ′ axis is an axis rotated and moved by an angle φ from the z axis. The locus shown in FIG. 19 (j) is shown in FIG.
Similar to 8 (f) and (h), but the angle θ changes by 90 + φ.
【0062】図19(k) では、ユーザは指で任意の軌跡
を描いており、これに対応するCCD像を図19(l) に示
す。図19(k) において、ユーザはx,y,z軸まわり
の同時回転入力コマンドを発生させており、この軌跡の
z変数(r,θ)は連続的に変化する。In FIG. 19 (k), the user draws an arbitrary locus with a finger, and a CCD image corresponding to this is shown in FIG. 19 (l). In FIG. 19 (k), the user has issued a simultaneous rotation input command about the x, y, and z axes, and the z variable (r, θ) of this locus continuously changes.
【0063】好ましい実施例に採用された光源および半
透明パネルは、赤外線光源と、赤外線のみを透過させる
フィルタとを用いて代用することも可能である。ここで
用いる赤外線透過フィルタは可視光領域の光は全て反射
し、赤外線波長領域の光のみを透過させる特殊なフィル
タである。The light source and the semi-transparent panel used in the preferred embodiment can be replaced with an infrared light source and a filter that transmits only infrared rays. The infrared transmission filter used here is a special filter that reflects all light in the visible light region and transmits only light in the infrared wavelength region.
【0064】図22は自由度6の制御入力コマンドを発
生させる制御装置を示す。この装置は不透明な本体20
10と、小型赤外線カメラ2020と、赤外線発光ダイ
オード群2030と、3枚の赤外線透過フィルタ204
5,2050,2060とにより構成されている。力検
出センサ2060が赤外線透過フィルタ2040,20
50,2060と、本体2010との間に選択的に装着
されており、ユーザが接触したときに赤外線透過フィル
タに加わる力を検出する。可視光はフィルタ2040,
2050,2060の表面で反射し、赤外線発光ダイオ
ード群2030から発せられた赤外線光は、フィルタ2
040,2050,2060表面を透過する。赤外線発
光ダイオード群はフィルタの周囲から赤外線光を一様に
照射するように配置される。ユーザが赤外線透過フィル
タに接触した場合は、接触した部分は赤外線光が透過し
ないため、赤外線カメラ2020では、この接触部分が
他と異なる部分として検出される。この制御装置の入力
操作機能は可視光を光源としている制御装置と基本的に
は同じものであるが、ユーザの使用環境の可視光照射分
布が変化することにより発生する外乱による2値画像を
処理する上で潜在的なエラーをなくすことが可能であ
る。FIG. 22 shows a control device for generating a control input command having six degrees of freedom. This device has an opaque body 20
10, a small infrared camera 2020, an infrared light emitting diode group 2030, and three infrared transmission filters 204
5, 2050, 2060. The force detection sensor 2060 has infrared transmission filters 2040, 20.
50, 2060 and the main body 2010 are selectively mounted, and detect the force applied to the infrared transmission filter when the user touches. The visible light is filtered by the filter 2040,
The infrared light reflected from the surfaces of 2050 and 2060 and emitted from the infrared light emitting diode group 2030 is filtered by the filter 2
040, 2050, 2060 surface is transmitted. The infrared light emitting diode group is arranged so as to uniformly irradiate infrared light from around the filter. When the user touches the infrared transmission filter, infrared light does not pass through the touched portion, so the infrared camera 2020 detects this touched portion as a different portion. The input operation function of this control device is basically the same as that of a control device using visible light as a light source, but it processes a binary image due to a disturbance generated due to a change in the visible light irradiation distribution of the environment used by the user. It is possible to eliminate potential errors in doing so.
【0065】赤外線透過フィルタの透過率は可視光領域
といった短波長の光については極めて低く、赤外線とい
った長波長の光については極めて高く、既に市販されて
いる。このような赤外線透過フィルタとしては、例え
ば、Rolyn Opics 社の“ブラックガラス”と呼ばれ、製
品番号が65.1398(RG850 )のガラス材が適正である。こ
のフィルタは、可視光領域(波長390 nm〜770 nm)にお
ける光透過率が10-3%未満であり、波長850 nmにおい
て透過率50%であり、波長900 nmにおいてその透過率が
97.5% と上昇する。赤外線発光ダイオードは波長800 nm
〜1000 nm (ピーク波長900 nm)の赤外線光を発するの
で、このフィルタは好ましい実施例として望ましい特性
を持っていると言える。赤外線透過フィルタの半透過特
性はフィルタ表面(片面のみ)を微細研磨加工するか、
あるいはフィルタ表面に照射される赤外線を拡散させる
ような灰色の半透明の光拡散シートを付着させることに
より実現化できる。光拡散シートの一例としては、Edmu
nd Scientific 社(Barrington, N.J.)のLENSCREEN と呼
ばれるシートが適正なものである。The transmittance of the infrared transmitting filter is extremely low for light having a short wavelength such as visible light region and extremely high for light having a long wavelength such as infrared light, and is already commercially available. As such an infrared transmission filter, for example, a glass material called “black glass” manufactured by Rolyn Opics and having a product number of 65.1398 (RG850) is suitable. This filter has a light transmittance of less than 10 -3 % in the visible light region (wavelength 390 nm to 770 nm), a transmittance of 50% at a wavelength of 850 nm, and a transmittance of 900 nm at a wavelength of 900 nm.
It will rise to 97.5%. Infrared light emitting diode has a wavelength of 800 nm
Since it emits infrared light of ˜1000 nm (peak wavelength 900 nm), it can be said that this filter has desirable characteristics as a preferred embodiment. The semi-transmission characteristic of the infrared transmission filter is that the filter surface (only one side) is finely polished,
Alternatively, it can be realized by attaching a gray translucent light diffusion sheet that diffuses infrared rays radiated to the filter surface. As an example of the light diffusion sheet, Edmu
A suitable sheet is LENSCREEN from nd Scientific (Barrington, NJ).
【0066】以上、本発明の好ましい実施例について説
明したが、当業者は、本発明の精神および範囲を逸脱す
ることなく、種々の変形、変更を加えることができるも
のである。例えば、図11および図12に示す入力技術
は、スクリーンの背後にビデオカメラを配置した入力機
器以外の制御入力装置(例えば、マウス等の入力機器)
へも応用できる。あるいは、図10に示す力検出センサ
は図1に示す制御入力機器にも応用できる。この応用に
おいて、図1のパネル105自体は力を感知する特性は
必要ではないが、パネル105に加わる力を別のセンサ
で検出できる。また、本発明の好ましい実施例で示した
小型CCD カメラの代替機器として、CMOSエリアセンサ
か、赤外線収光エリアセンサか、あるいは他の同等の検
出器を用いて本発明の制御入力機器を実現化することも
可能である。すなわち、このような変形、変更はすべて
本発明の技術的範囲に属すると考えられる。Although the preferred embodiments of the present invention have been described above, those skilled in the art can make various modifications and changes without departing from the spirit and scope of the present invention. For example, the input technology shown in FIGS. 11 and 12 is a control input device (for example, an input device such as a mouse) other than an input device in which a video camera is arranged behind a screen.
It can also be applied to. Alternatively, the force detection sensor shown in FIG. 10 can be applied to the control input device shown in FIG. In this application, the panel 105 of FIG. 1 itself does not need a force sensing property, but the force applied to the panel 105 can be detected by another sensor. Also, the control input device of the present invention is realized by using a CMOS area sensor, an infrared ray collection area sensor, or another equivalent detector as an alternative device of the small CCD camera shown in the preferred embodiment of the present invention. It is also possible to do so. That is, all such modifications and changes are considered to belong to the technical scope of the present invention.
【図1】本発明の好ましい実施例における対話形式のコ
ンピュータグラフィックスシステムとそのグラフィック
ス用メカニカル機器の構成を示す斜視図である。FIG. 1 is a perspective view showing a configuration of an interactive computer graphics system and a mechanical device for graphics according to a preferred embodiment of the present invention.
【図2】他の好ましい実施例における対話形式のコンピ
ュータグラフィックスシステムとそのグラフィック用入
力機器の構成を示す斜視図である。FIG. 2 is a perspective view showing the configuration of an interactive computer graphics system and its graphic input device according to another preferred embodiment.
【図3】画像空間、すなわち図2に示すCCD カメラで得
られる画像を表す図である。FIG. 3 is a diagram showing an image space, that is, an image obtained by the CCD camera shown in FIG.
【図4】図2に示す入力装置における制御操作ジェスチ
ャと、図2のグラフィックディスプレイ上のグラフィッ
クオブジェクトの動きを示す図である。4 is a diagram showing a control operation gesture in the input device shown in FIG. 2 and a movement of a graphic object on the graphic display of FIG.
【図5】図2のCCD カメラで得られた画像処理ステップ
のフローチャートである。5 is a flow chart of image processing steps obtained with the CCD camera of FIG.
【図6】図2の機能ダイヤグラムである。FIG. 6 is a functional diagram of FIG.
【図7】図5の処理における画像フォーマットを示す図
である。7 is a diagram showing an image format in the processing of FIG.
【図8】グラフィック応用事例においてカメラの画像内
のユーザによる接触点座標がグラフィックディスプレイ
空間にどのように座標変換されるかを示す図である。FIG. 8 is a diagram showing how user touch point coordinates in an image of a camera are transformed into a graphic display space in a graphic application example.
【図9】画像処理に関するより詳細な図である。FIG. 9 is a more detailed diagram relating to image processing.
【図10】パネルに加えられる力を検出する力センサが
装着されている好ましい実施例を示す図である。FIG. 10 is a view showing a preferred embodiment in which a force sensor for detecting a force applied to the panel is mounted.
【図11】図10に示す制御機器の対話型コンピュータ
グラフィックス用インタフェースとしての操作を示す図
である。11 is a diagram showing an operation of the control device shown in FIG. 10 as an interactive computer graphics interface.
【図12】図1に示す制御装置100等に適用可能な新
しい入力制御手法を説明するための説明図である。FIG. 12 is an explanatory diagram for explaining a new input control method applicable to the control device 100 and the like shown in FIG. 1.
【図13】図12のインタフェース手法の操作を示す図
である。FIG. 13 is a diagram showing an operation of the interface method of FIG.
【図14】本発明の好ましい実施例に係る円筒状の制御
装置を示し、(a)は斜視図、(b)は断面図、(c)
は上面図である。14A and 14B show a cylindrical control device according to a preferred embodiment of the present invention, in which FIG. 14A is a perspective view, FIG. 14B is a sectional view, and FIG.
Is a top view.
【図15】図14の機器配置においてCCD カメラで得ら
れる典型的な画像を示す図である。15 is a diagram showing a typical image obtained by a CCD camera in the device arrangement of FIG.
【図16】図14の機器の操作において、図15の画像
内の複数箇所と機器との対応関係を示す図である。16 is a diagram showing a correspondence relationship between a plurality of locations in the image of FIG. 15 and a device when the device of FIG. 14 is operated.
【図17】(a) は本発明の好ましい実施例に係る半球状
の制御装置を示し、(b) は(a) に示す制御装置を使用し
た回転入力コマンドの発生を説明するための説明図であ
る。FIG. 17 (a) shows a hemispherical control device according to a preferred embodiment of the present invention, and FIG. 17 (b) is an explanatory view for explaining generation of a rotation input command using the control device shown in FIG. 17 (a). Is.
【図18】(c)-(h) は図17(a) に示す制御装置を使用
した回転入力コマンドの発生を説明するための説明図で
ある。18 (c)-(h) are explanatory views for explaining generation of a rotation input command using the control device shown in FIG. 17 (a).
【図19】(i)-(l) は図17(a) に示す制御装置を使用
した回転入力コマンドの発生を説明するための説明図で
ある。19 (i)-(l) are explanatory views for explaining generation of a rotation input command using the control device shown in FIG. 17 (a).
【図20】図5に示すステップ505〜515を記述す
るために引用されるデータ画像とヒストグラムを示す図
である。20 is a diagram showing a data image and a histogram cited to describe steps 505 to 515 shown in FIG. 5. FIG.
【図21】図5に示すステップ515〜520を記述す
るために引用されるデータ画像とヒストグラムを示す図
である。21 is a diagram showing a data image and a histogram that are cited to describe steps 515 to 520 shown in FIG. 5. FIG.
【図22】本発明の好ましい実施例に係る赤外線使用を
もとにした自由度6の制御装置を示す斜視図である。FIG. 22 is a perspective view showing a control device with six degrees of freedom based on the use of infrared rays according to a preferred embodiment of the present invention.
100 制御装置 105 パネル 110 CCD カメラ 120 光源 125 鏡 130 コンピュータ 135 グラフィックスディスプレイ 100 control device 105 panel 110 CCD camera 120 light source 125 mirror 130 computer 135 graphics display
Claims (41)
グラフィック入力装置であって、 半透明の光拡散パネルを含む不透明の筐体と、 前記パネルに加えられる力に応答して信号を供給する力
検出手段と、 前記筐体内に装着され、前記パネルの画像と該画像の変
化に応じた画像信号を供給する画像検出装置とを備えた
ことを特徴とするグラフィック入力装置。1. A graphic input device for an interactive computer system, comprising: an opaque housing including a translucent light diffusing panel; and force sensing for providing a signal in response to a force applied to the panel. A graphic input device comprising: means, and an image detection device which is mounted in the housing and supplies an image of the panel and an image signal according to a change of the image.
照射する光源であって、前記筐体外側に取り付けた光源
をさらに備えたことを特徴とするグラフィック入力装
置。2. The graphic input device according to claim 1, further comprising a light source for illuminating an outer surface of the panel, the light source being attached to the outside of the housing.
パネル外面に向けて反射させるための反射体であって、
前記筐体の外面に取り付けた反射体をさらに備えたこと
を特徴とするグラフィック入力装置。3. The reflector according to claim 2, which is for reflecting the light from the light source toward the outer surface of the panel,
The graphic input device further comprising a reflector attached to an outer surface of the housing.
り付けた不透明の筐体を用いて、グラフィック入力信号
を対話型コンピュータシステムに供給するグラフィック
入力方法において、 前記パネルの外面を接触するステップと、 前記筐体内に取り付けた画像検出装置を用いて前記パネ
ル内側の画像を獲得するステップと、 画像の変化に応じて画像信号の生成するステップと、 前記パネルに加えられる力の大きさに応じた信号を発生
させるステップとを含むことを特徴とするグラフィック
入力方法。4. A graphic input method for supplying a graphic input signal to an interactive computer system using an opaque housing having a semi-transparent light-diffusing panel for sensing force, the step of contacting an outer surface of the panel. A step of acquiring an image inside the panel using an image detection device mounted in the housing; a step of generating an image signal in response to a change in the image; and a step depending on the magnitude of the force applied to the panel. And a step of generating a generated signal.
ィック入力装置であって、 第1の半透明の光拡散パネルと、該第1の光拡散パネル
と異なる角度で取り付けた第2の半透明光拡散パネルと
を含む筐体と、 前記第1および第2のパネルの画像の変化に応じた画像
信号を発生させる画像検出装置であって、前記筐体内に
取り付けた画像検出装置とを備えたことを特徴とするグ
ラフィック入力装置。5. A graphic input device for an interactive computer system, the first translucent light diffusing panel and a second translucent light diffusing panel mounted at an angle different from the first light diffusing panel. An image detection device for generating an image signal according to a change in the images of the first and second panels, the image detection device being mounted in the housing. And a graphic input device.
加えられた力を検出し検出された力に応じた第1信号を
生成し、前記第2のパネルに加えられる力を検出し検出
された力に応じた第2信号を生成する力検出手段をさら
に備えたことを特徴とするグラフィック入力装置。6. The method according to claim 5, wherein the force applied to the first panel is detected, a first signal corresponding to the detected force is generated, and the force applied to the second panel is detected and detected. The graphic input device further comprising force detection means for generating a second signal according to the applied force.
透明光拡散パネルをさらに備え、前記第1ないし第3の
パネルは、それぞれ、前記筐体の表面に取り付けてあ
り、しかも、垂直な位置に配置してあり、前記画像検出
装置は前記第1ないし第3のパネルの内面の画像を獲得
するように前記筐体内に取り付けたことを特徴とするグ
ラフィック入力装置。7. The housing according to claim 5, further comprising a third translucent light diffusing panel, wherein each of the first to third panels is attached to a surface of the housing, and The graphic input device is arranged in a vertical position, and the image detection device is installed in the housing so as to capture an image of an inner surface of the first to third panels.
加えられた力を検出し検出された力に応じた第1信号を
生成し、前記第2のパネルに加えられた力を検出し検出
された力に応じた第2信号を生成し、前記第3のパネル
に加えられた力を検出し検出された力に応じた第3信号
を生成する力検出手段をさらに備えたことを特徴とする
グラフィック入力装置。8. The method according to claim 7, wherein the force applied to the first panel is detected, a first signal is generated according to the detected force, and the force applied to the second panel is detected. It further comprises force detection means for generating a second signal according to the detected force, detecting the force applied to the third panel, and generating a third signal according to the detected force. And a graphic input device.
個取り付けた不透明の筐体を用いて、グラフィック入力
信号を対話型コンピュータシステムに供給するグラフィ
ック入力方法において、 前記パネルの外面を接触するステップと、 前記筐体内に取り付けた画像検出装置を用いて前記パネ
ル内側の画像の獲得するステップと、 獲得された画像の変化に応じた画像信号を生成するステ
ップと、 前記画像中のパネル接触部分の位置座標を決定するステ
ップと、 前記位置座標に対応する信号を前記対話型コンピュータ
システムに供給するステップとを含むことを特徴とする
グラフィック入力方法。9. A graphic input method for supplying a graphic input signal to an interactive computer system using an opaque housing having a plurality of semi-transparent light diffusion panels for sensing force, wherein an outer surface of the panel is contacted. A step of acquiring an image inside the panel using an image detection device mounted in the housing; a step of generating an image signal according to a change of the acquired image; and a panel contact portion in the image. Determining a position coordinate of the graphic inputting method, and supplying a signal corresponding to the position coordinate to the interactive computer system.
に接触する前のパネルのバックグランド画像を獲得し、
獲得されたバックグランド画像に応じて、ビデオ画面信
号を規格化するステップをさらに備えたことを特徴とす
るグラフィック入力方法。10. The method according to claim 9, wherein a background image of the panel before the user touches the panel is acquired,
The graphic input method further comprising the step of normalizing a video screen signal according to the acquired background image.
触部分に対応する箇所の位置座標を決定する前に、画像
信号を2値信号に変換するステップをさらに備えたこと
を特徴とするグラフィック入力方法。11. The graphic input according to claim 9, further comprising a step of converting an image signal into a binary signal before determining a position coordinate of a portion corresponding to a contact portion in the panel image. Method.
クトの位置を追跡するステップをさらに備えたことを特
徴とするグラフィック入力方法。12. The graphic input method according to claim 9, further comprising the step of tracking the position of the object in the image.
数個取り付けた不透明の筐体を用いて、グラフィック入
力信号を対話型コンピュータシステムに供給するグラフ
ィック入力方法において、 前記パネルの外面を接触するステップと、 前記筐体内に取り付けた画像検出装置により前記パネル
内側の画像を獲得するステップと、 獲得されれた画像の変化に応じた画像信号を生成するス
テップと、 前記画像中のパネル接触部分の位置座標を決定するステ
ップと、 決定された位置座標を3次元空間座標に変換するステッ
プと、 変換して得られた位置座標に対応する信号を生成するス
テップとを含むことを特徴とするグラフィック入力方
法。13. A graphic input method for supplying a graphic input signal to an interactive computer system using an opaque housing having a plurality of force-sensitive translucent light diffusing panels attached thereto, wherein an outer surface of the panel is contacted. A step of acquiring an image of the inside of the panel by an image detection device mounted in the housing; a step of generating an image signal according to a change of the acquired image; A graphic input characterized by including the steps of determining position coordinates, converting the determined position coordinates into three-dimensional space coordinates, and generating a signal corresponding to the position coordinates obtained by the conversion. Method.
ネルに接触する前の前記パネルのバックグランド画像を
獲得し、獲得されたバックグランド画像に応じて、ビデ
オ画面信号を規格化するステップをさらに備えたことを
特徴とするグラフィック入力方法。14. The method according to claim 13, further comprising the step of acquiring a background image of the panel before the user touches the panel, and normalizing the video screen signal according to the acquired background image. A graphic input method characterized in that.
中の接触部分に対応する箇所の位置座標を決定する前
に、画像信号を2値信号に変換するステップをさらに備
えたことを特徴とするグラフィック入力方法。15. The graphic according to claim 13, further comprising a step of converting an image signal into a binary signal before determining a position coordinate of a portion corresponding to a contact portion in the panel image. input method.
生成するステップと、前記位置座標を決定するステップ
と、前記座標を変換するステップは、繰り返し、さら
に、画像中のオブジェクトの位置を追跡するステップを
備えたことを特徴とするグラフィック入力方法。16. The method according to claim 13, wherein the step of generating the image signal, the step of determining the position coordinates, and the step of converting the coordinates are repeated, and the step of tracking the position of the object in the image. A graphic input method comprising:
じて、対話型コンピュータグラフィックディスプレイ上
のグラフィックオブジェクトを操作する方法において、 前記グラフィックディスプレイにグラフィックオブジェ
クトを表示するステップと、 表示画面より小さく指定された領域をグラフィックディ
スプレイ上に表示するステップと、 前記パネル接触式制御入力装置上の第1領域内のユーザ
による接触に応答して、グラフィック入力装置により第
1信号を生成するステップと、 前記第1領域内に含まれるオブジェクトを前記第1信号
に応答して操作するステップと、 同時にパネル接触式制御入力装置上の第2領域上のユー
ザによる接触に応答して第2信号を生成するステップ
と、 前記第2信号に応答してグラフィックディスプレイ上の
指定された領域を移動させるステップとを備えたことを
特徴とするグラフィックオブジェクト操作方法。17. A method of operating a graphic object on an interactive computer graphic display according to an operation of a panel touch control input device, the method comprising: displaying the graphic object on the graphic display; A first area on the graphic display device in response to a touch by a user in the first area on the panel touch control input device, and the first signal is generated by the graphic input device. Manipulating an object contained within the area in response to the first signal; and at the same time generating a second signal in response to user contact on the second area on the panel touch control input device. Graphic display in response to the second signal And a step of moving the designated area above.
前記第1領域の周囲を取り込むことを特徴とするグラフ
ィックオブジェクト操作方法。18. The graphic object operating method according to claim 17, wherein the second area captures the periphery of the first area.
透明の筐体を用いて、入力装置からのグラフィック入力
信号を対話型コンピュータシステムに供給する方法にお
いて、 前記パネルの外面を接触するステップと、 前記筐体内に取り付けた画像検出装置により前記パネル
内側の画像を獲得するステップと、 獲得された画像の変化に応じて画像信号を生成するステ
ップと、 前記画像中のパネル接触部分の位置座標を決定するステ
ップと、 決定された位置座標により前記パネル上の接触位置を識
別するステップと、 前記位置座標に対応する信号を前記対話型コンピュータ
システムに供給するステップとを含むことを特徴とする
グラフィック入力信号供給方法。19. A method for providing a graphic input signal from an input device to an interactive computer system using an opaque housing having a translucent single light diffusing panel, the method comprising: contacting an outer surface of the panel. A step of acquiring an image inside the panel by an image detection device mounted in the housing; a step of generating an image signal according to a change in the acquired image; and a position coordinate of a panel contact portion in the image. Graphic input comprising: determining, identifying a touch position on the panel by the determined position coordinates, and providing a signal corresponding to the position coordinates to the interactive computer system. Signal supply method.
ネルに接触する前のパネルのバックグランド画像を獲得
し、該バックグランド画像に応じて、ビデオ画面信号を
規格化するステップをさらに備えたことを特徴とするグ
ラフィック入力信号供給方法。20. The method according to claim 19, further comprising the step of acquiring a background image of the panel before the user touches the panel, and normalizing the video screen signal according to the background image. Characteristic graphic input signal supply method.
接触部分に対応する箇所の位置座標を決定する前に、画
像信号を2値信号に変換するステップをさらに備えたこ
とを特徴とするグラフィック入力信号供給方法。21. The graphic input according to claim 19, further comprising a step of converting an image signal into a binary signal before determining a position coordinate of a portion corresponding to a contact portion in the panel image. Signal supply method.
ェクトの位置を追跡するステップをさらに備えたことを
特徴とするグラフィック入力信号供給方法。22. The method according to claim 19, further comprising the step of tracking the position of the object in the image.
透明の筐体を用いて、入力装置からのグラフィック入力
信号を対話型コンピュータシステムに供給する方法にお
いて、 前記パネルの外面を接触するステップと、 前記筐体内に取り付けた画像装置によりパネル内側の画
像を獲得するステップと、 獲得された画像の変化に応じて画像信号を生成するステ
ップと、 前記画像中のパネル接触部分の位置座標を決定するステ
ップと、 決定された位置座標を3次元空間座標に変換するステッ
プと、 変換された位置座標に応じた信号を生成するステップと
を含むことを特徴とするグラフィック入力信号供給方
法。23. A method of providing a graphic input signal from an input device to an interactive computer system using an opaque housing having a translucent single light diffusing panel, the method comprising: contacting an outer surface of the panel. Acquiring an image inside the panel with an image device mounted in the housing; generating an image signal according to a change in the acquired image; and determining a position coordinate of a panel contact portion in the image. A method of supplying a graphic input signal, comprising: a step of converting the determined position coordinates into three-dimensional space coordinates; and a step of generating a signal according to the converted position coordinates.
ネルに接触する前の前記パネルのバックグランド画像を
獲得し、獲得されたバックグランド画像に応答して、ビ
デオ画面信号を規格化するステップをさらに備えたこと
を特徴とするグラフィック入力信号供給方法。24. The method of claim 23, further comprising acquiring a background image of the panel before a user touches the panel and normalizing the video screen signal in response to the acquired background image. A method for supplying a graphic input signal, characterized by being provided.
接触部分に対応する箇所の位置座標を決定する前に、前
記画像信号を2値信号に変換するステップをさらに備え
たことを特徴とするグラフィック入力信号供給方法。25. The graphic according to claim 23, further comprising a step of converting the image signal into a binary signal before determining a position coordinate of a portion corresponding to a contact portion in the panel image. Input signal supply method.
するステップと、位置座標を決定するステップと、座標
を変換するステップは、繰り返し、さらに、画像中のオ
ブジェクトの位置を追跡するステップを備えたことを特
徴とするグラフィック入力信号供給方法。26. The method according to claim 23, wherein the step of generating an image signal, the step of determining the position coordinates, and the step of converting the coordinates are repeated, and the steps of tracking the position of the object in the image are repeated. A method for supplying a graphic input signal, which is characterized in that:
グラフィック入力装置において、 半透明光拡散パネルを含む不透明の筐体と、 前記筐体内に取り付けた画像検出装置であって、パネル
の画像と、ユーザが前記パネルに接触した部分の画像を
獲得し、前記パネルとパネル接触部分の変化に応じた画
像信号を供給する画像検出装置と、 前記接触部分の位置を示す信号を生成する手段とを備え
たことを特徴とするグラフィック入力装置。27. A graphic input device for an interactive computer system, comprising: an opaque housing including a translucent light diffusing panel; an image detection device mounted in the housing; An image detection device that acquires an image of a portion in contact with the panel and supplies an image signal according to a change in the panel and the panel contact portion, and means for generating a signal indicating a position of the contact portion A graphic input device characterized by.
筒形であり、前記パネルの上部に半透明の光拡散円板を
取り付けたことを特徴とするグラフィック入力装置。28. The graphic input device according to claim 27, wherein the panel has a cylindrical shape, and a translucent light diffusion disk is attached to an upper portion of the panel.
ル上に取り付けた半透明の光拡散ディスクをさらに備え
たことを特徴とするグラフィック入力装置。29. The graphic input device of claim 28, further comprising a translucent light diffusing disc mounted on the cylindrical panel.
円筒パネルに加えられた力を検出する力センサをさらに
備えたことを特徴とするグラフィック入力装置。30. The graphic input device according to claim 29, further comprising a force sensor for detecting a force applied to the disc and the cylindrical panel.
の形状が半球であることを特徴とするグラフィック入力
装置。31. The graphic input device according to claim 27, wherein the panel has a hemispherical shape.
えられた力を検出する力センサさらに備えたことを特徴
とするグラフィック入力装置。32. The graphic input device according to claim 31, further comprising a force sensor for detecting a force applied to the panel.
光源を備え、前記パネルは半透明の長波長光透過フィル
タであり、前記画像検出装置は赤外線を感知する画像検
出装置であることを特徴とするグラフィック入力装置。33. The light source according to claim 2, wherein the light source includes an infrared light source, the panel is a translucent long-wavelength light transmission filter, and the image detection device is an image detection device that senses infrared light. Graphic input device.
を照射する赤外線光源を本体外側に装着し、パネルが半
透明の長波長光透過フィルタであり、画像装置が赤外線
を感知することを特徴とするグラフィック入力装置。34. The infrared light source for irradiating an outer surface of a panel according to claim 5, wherein the panel is a semi-transparent long-wavelength light transmission filter, and the imaging device senses infrared rays. Graphic input device.
射する赤外線光源であって、前記筐体の外側に取り付け
た赤外線光源をさらに備え、前記パネルは半透明の長波
長光透過フィルタを備え、前記画像検出装置は赤外線を
感知する画像検出装置であることを特徴とするグラフィ
ック入力装置。35. The infrared light source for irradiating an outer surface of a panel according to claim 6, further comprising an infrared light source attached to the outside of the housing, wherein the panel includes a semitransparent long-wavelength light transmission filter. The graphic input device is characterized in that the image detecting device is an image detecting device that detects infrared rays.
線光源を備え、前記パネルは半透明の長波長光透過フィ
ルタであり、前記画像検出装置は赤外線を感知する画像
検出装置であることを特徴とするグラフィック入力装
置。36. The light source according to claim 27, wherein the light source includes an infrared light source, the panel is a semi-transparent long-wavelength light transmission filter, and the image detection device is an image detection device that senses infrared light. Graphic input device.
長光透過フィルタであり、前記画像検出装置は赤外線を
感知する画像検出装置であり、前記赤外線光源でパネル
を照射するステップをさらに備えたことを特徴とするグ
ラフィック入力方法。37. The method according to claim 4, wherein the panel is a long-wavelength light transmission filter, the image detection device is an image detection device that senses infrared light, and the panel further comprises the step of illuminating the panel with the infrared light source. A graphic input method characterized by.
長光透過フィルタであり、前記画像検出装置は赤外線を
感知する画像検出装置であり、前記赤外線光源でパネル
を照射するステップをさらに備えたことを特徴とするグ
ラフィック入力方法。38. The panel according to claim 9, wherein the panel is a long-wavelength light transmission filter, the image detection device is an image detection device that senses infrared rays, and the method further comprises the step of illuminating the panel with the infrared light source. A graphic input method characterized by.
波長光透過フィルタであり、前記画像検出装置は赤外線
を感知する画像検出装置であり、前記赤外線光源でパネ
ルを照射するステップをさらに備えたことを特徴とする
グラフィック入力方法。39. The method according to claim 13, wherein the panel is a long-wavelength light transmission filter, the image detection device is an image detection device that senses infrared light, and the method further comprises the step of illuminating the panel with the infrared light source. A graphic input method characterized by.
波長光透過フィルタであり、前記画像検出装置は赤外線
を感知する画像検出装置であり、前記赤外線光源でパネ
ルを照射するステップをさらに備えたことを特徴とする
グラフィック入力信号供給方法。40. The method according to claim 19, wherein the panel is a long-wavelength light transmission filter, the image detection device is an image detection device that senses infrared light, and the method further comprises the step of illuminating the panel with the infrared light source. A method for supplying a graphic input signal, characterized by:
波長光透過フィルタであり、前記画像検出装置は赤外線
を感知する画像検出装置であり、前記赤外線光源でパネ
ルを照射するステップをさらに備えたことを特徴とする
グラフィック入力信号供給方法。41. The method according to claim 23, wherein the panel is a long-wavelength light transmitting filter, the image detecting device is an image detecting device that senses infrared rays, and the panel further includes the step of irradiating the panel with the infrared light source. A method for supplying a graphic input signal, characterized by:
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US141045 | 1993-10-26 | ||
US08/141,045 US5483261A (en) | 1992-02-14 | 1993-10-26 | Graphical input controller and method with rear screen image detection |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH07182101A true JPH07182101A (en) | 1995-07-21 |
Family
ID=22493925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP26265994A Pending JPH07182101A (en) | 1993-10-26 | 1994-10-26 | Graphic input device and method, graphic object operating method, graphic input signal supplying method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH07182101A (en) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001290585A (en) * | 2000-01-31 | 2001-10-19 | Canon Inc | Position information processing device and its method and its program, operating device and its method and its program |
JP2005031799A (en) * | 2003-07-08 | 2005-02-03 | Sony Computer Entertainment Inc | Control system and method |
WO2005055029A1 (en) * | 2003-12-02 | 2005-06-16 | Olympus Corporation | Human interface device and human interface system |
JP2006276223A (en) * | 2005-03-28 | 2006-10-12 | Sony Corp | Display apparatus and method |
JP2007072637A (en) * | 2005-09-06 | 2007-03-22 | Hitachi Ltd | Input device using elastic material |
WO2007061057A1 (en) * | 2005-11-25 | 2007-05-31 | Matsushita Electric Industrial Co., Ltd. | Gesture input device and method |
JP2007242035A (en) * | 1998-01-26 | 2007-09-20 | Wayne Westerman | Multi-touch surface device |
JP2008537615A (en) | 2005-03-04 | 2008-09-18 | アップル インコーポレイテッド | Multi-function handheld device |
JP2009087264A (en) * | 2007-10-02 | 2009-04-23 | Alps Electric Co Ltd | Hollow type switching device and electronic device with the same |
JP2009099042A (en) * | 2007-10-18 | 2009-05-07 | Maeda Jun | Apparatus for operating object and method of identifying marker from digital image frame data |
JP2009282634A (en) * | 2008-05-20 | 2009-12-03 | Canon Inc | Information processor, its control method, program and storage medium |
JP2010191438A (en) * | 2010-03-08 | 2010-09-02 | Sony Corp | Display device and display method |
JP2010231758A (en) * | 2009-03-02 | 2010-10-14 | Kddi Corp | Information terminal equipment |
JP2011018129A (en) * | 2009-07-07 | 2011-01-27 | Ritsumeikan | Human interface device |
JP2011120090A (en) * | 2009-12-04 | 2011-06-16 | Nec Corp | Mobile terminal, method of operating mobile terminal, and operation program for mobile terminal |
JP2011145829A (en) * | 2010-01-13 | 2011-07-28 | Buffalo Inc | Operation input device |
JP2012508427A (en) * | 2008-11-12 | 2012-04-05 | アップル インコーポレイテッド | Occurrence of gestures tailored to the hand placed on the surface |
WO2015002018A1 (en) * | 2013-07-01 | 2015-01-08 | シャープ株式会社 | Position input device, electronic apparatus, and display device |
US9047009B2 (en) | 2005-03-04 | 2015-06-02 | Apple Inc. | Electronic device having display and surrounding touch sensitive bezel for user interface and control |
JP6058118B2 (en) * | 2013-02-27 | 2017-01-11 | アルプス電気株式会社 | Operation detection device |
US9785258B2 (en) | 2003-09-02 | 2017-10-10 | Apple Inc. | Ambidextrous mouse |
US10248221B2 (en) | 2009-08-17 | 2019-04-02 | Apple Inc. | Housing as an I/O device |
US11275405B2 (en) | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
-
1994
- 1994-10-26 JP JP26265994A patent/JPH07182101A/en active Pending
Cited By (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9342180B2 (en) | 1998-01-26 | 2016-05-17 | Apple Inc. | Contact tracking and identification module for touch sensing |
US9329717B2 (en) | 1998-01-26 | 2016-05-03 | Apple Inc. | Touch sensing with mobile sensors |
US8866752B2 (en) | 1998-01-26 | 2014-10-21 | Apple Inc. | Contact tracking and identification module for touch sensing |
US9001068B2 (en) | 1998-01-26 | 2015-04-07 | Apple Inc. | Touch sensor contact information |
US9098142B2 (en) | 1998-01-26 | 2015-08-04 | Apple Inc. | Sensor arrangement for use with a touch sensor that identifies hand parts |
US9298310B2 (en) | 1998-01-26 | 2016-03-29 | Apple Inc. | Touch sensor contact information |
JP2007242035A (en) * | 1998-01-26 | 2007-09-20 | Wayne Westerman | Multi-touch surface device |
US9804701B2 (en) | 1998-01-26 | 2017-10-31 | Apple Inc. | Contact tracking and identification module for touch sensing |
US9448658B2 (en) | 1998-01-26 | 2016-09-20 | Apple Inc. | Resting contacts |
US9626032B2 (en) | 1998-01-26 | 2017-04-18 | Apple Inc. | Sensor arrangement for use with a touch sensor |
US8902175B2 (en) | 1998-01-26 | 2014-12-02 | Apple Inc. | Contact tracking and identification module for touch sensing |
US9348452B2 (en) | 1998-01-26 | 2016-05-24 | Apple Inc. | Writing using a touch sensor |
US9552100B2 (en) | 1998-01-26 | 2017-01-24 | Apple Inc. | Touch sensing with mobile sensors |
US9383855B2 (en) | 1998-01-26 | 2016-07-05 | Apple Inc. | Identifying contacts on a touch surface |
JP2001290585A (en) * | 2000-01-31 | 2001-10-19 | Canon Inc | Position information processing device and its method and its program, operating device and its method and its program |
US9983742B2 (en) | 2002-07-01 | 2018-05-29 | Apple Inc. | Electronic device having display and surrounding touch sensitive bezel for user interface and control |
JP2005031799A (en) * | 2003-07-08 | 2005-02-03 | Sony Computer Entertainment Inc | Control system and method |
US9785258B2 (en) | 2003-09-02 | 2017-10-10 | Apple Inc. | Ambidextrous mouse |
US10156914B2 (en) | 2003-09-02 | 2018-12-18 | Apple Inc. | Ambidextrous mouse |
US10474251B2 (en) | 2003-09-02 | 2019-11-12 | Apple Inc. | Ambidextrous mouse |
WO2005055029A1 (en) * | 2003-12-02 | 2005-06-16 | Olympus Corporation | Human interface device and human interface system |
US10921941B2 (en) | 2005-03-04 | 2021-02-16 | Apple Inc. | Electronic device having display and surrounding touch sensitive surfaces for user interface and control |
US11275405B2 (en) | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
US9047009B2 (en) | 2005-03-04 | 2015-06-02 | Apple Inc. | Electronic device having display and surrounding touch sensitive bezel for user interface and control |
JP2012142033A (en) * | 2005-03-04 | 2012-07-26 | Apple Inc | Multi-functional hand-held device |
US10386980B2 (en) | 2005-03-04 | 2019-08-20 | Apple Inc. | Electronic device having display and surrounding touch sensitive surfaces for user interface and control |
US11360509B2 (en) | 2005-03-04 | 2022-06-14 | Apple Inc. | Electronic device having display and surrounding touch sensitive surfaces for user interface and control |
JP2008537615A (en) | 2005-03-04 | 2008-09-18 | アップル インコーポレイテッド | Multi-function handheld device |
JP2006276223A (en) * | 2005-03-28 | 2006-10-12 | Sony Corp | Display apparatus and method |
US8665223B2 (en) | 2005-03-28 | 2014-03-04 | Japan Display West, Inc. | Display device and method providing display contact information based on an amount of received light |
JP2007072637A (en) * | 2005-09-06 | 2007-03-22 | Hitachi Ltd | Input device using elastic material |
WO2007061057A1 (en) * | 2005-11-25 | 2007-05-31 | Matsushita Electric Industrial Co., Ltd. | Gesture input device and method |
JP2009087264A (en) * | 2007-10-02 | 2009-04-23 | Alps Electric Co Ltd | Hollow type switching device and electronic device with the same |
JP2009099042A (en) * | 2007-10-18 | 2009-05-07 | Maeda Jun | Apparatus for operating object and method of identifying marker from digital image frame data |
JP2009282634A (en) * | 2008-05-20 | 2009-12-03 | Canon Inc | Information processor, its control method, program and storage medium |
US8917245B2 (en) | 2008-05-20 | 2014-12-23 | Canon Kabushiki Kaisha | Information processing apparatus and control method thereof |
JP2012508427A (en) * | 2008-11-12 | 2012-04-05 | アップル インコーポレイテッド | Occurrence of gestures tailored to the hand placed on the surface |
JP2010231758A (en) * | 2009-03-02 | 2010-10-14 | Kddi Corp | Information terminal equipment |
JP2011018129A (en) * | 2009-07-07 | 2011-01-27 | Ritsumeikan | Human interface device |
US10248221B2 (en) | 2009-08-17 | 2019-04-02 | Apple Inc. | Housing as an I/O device |
US10739868B2 (en) | 2009-08-17 | 2020-08-11 | Apple Inc. | Housing as an I/O device |
JP2011120090A (en) * | 2009-12-04 | 2011-06-16 | Nec Corp | Mobile terminal, method of operating mobile terminal, and operation program for mobile terminal |
JP2011145829A (en) * | 2010-01-13 | 2011-07-28 | Buffalo Inc | Operation input device |
JP2010191438A (en) * | 2010-03-08 | 2010-09-02 | Sony Corp | Display device and display method |
JP6058118B2 (en) * | 2013-02-27 | 2017-01-11 | アルプス電気株式会社 | Operation detection device |
WO2015002018A1 (en) * | 2013-07-01 | 2015-01-08 | シャープ株式会社 | Position input device, electronic apparatus, and display device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH07182101A (en) | Graphic input device and method, graphic object operating method, graphic input signal supplying method | |
US5483261A (en) | Graphical input controller and method with rear screen image detection | |
US11567578B2 (en) | Systems and methods of free-space gestural interaction | |
JP6539816B2 (en) | Multi-modal gesture based interactive system and method using one single sensing system | |
JP3997566B2 (en) | Drawing apparatus and drawing method | |
US9911240B2 (en) | Systems and method of interacting with a virtual object | |
US5528263A (en) | Interactive projected video image display system | |
US20110298708A1 (en) | Virtual Touch Interface | |
US20140123077A1 (en) | System and method for user interaction and control of electronic devices | |
US20080231609A1 (en) | Manipulating association of data with a physical object | |
JP4513830B2 (en) | Drawing apparatus and drawing method | |
US20100315336A1 (en) | Pointing Device Using Proximity Sensing | |
CN102341814A (en) | Gesture recognition method and interactive input system using the gesture recognition method | |
US9097909B2 (en) | Manipulation device for navigating virtual microscopy slides/digital images and methods related thereto | |
CA2609155A1 (en) | Free-space pointing and handwriting | |
WO2009073262A1 (en) | User input using proximity sensing | |
JPH09330166A (en) | Information processing device | |
WO2005124528A2 (en) | Optical joystick for hand-held communication device | |
JP2009251702A (en) | Information processing unit, information processing method, and information processing program | |
CN102023732A (en) | Optical control device and method | |
JPH0340861B2 (en) | ||
Hahne et al. | Multi-touch focus+ context sketch-based interaction | |
JPH05298016A (en) | Input device for graphics | |
WO2001046941A1 (en) | Method and apparatus for vision-based coupling between pointer actions and projected images | |
EP4439241A1 (en) | Improved touchless pointer operation during typing activities using a computer device |