JP2006178948A - Prop input device and method for mapping object from two-dimensional camera image to three-dimensional space for controlling action in game program - Google Patents
Prop input device and method for mapping object from two-dimensional camera image to three-dimensional space for controlling action in game program Download PDFInfo
- Publication number
- JP2006178948A JP2006178948A JP2005351271A JP2005351271A JP2006178948A JP 2006178948 A JP2006178948 A JP 2006178948A JP 2005351271 A JP2005351271 A JP 2005351271A JP 2005351271 A JP2005351271 A JP 2005351271A JP 2006178948 A JP2006178948 A JP 2006178948A
- Authority
- JP
- Japan
- Prior art keywords
- pixel group
- cylinder
- color
- dimensional
- stripe
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1012—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
- A63F2300/1093—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、コンピュータビジョンシステムに関し、より具体的には、ビデオカメラによってオブジェクトを捕捉し、カメラ画像の解析によってオブジェクトに関する画像の部分を分離させ、さらに、オブジェクトの位置および方向を三次元空間にマッピングするシステムに関する。オブジェクトの三次元的な情報はメモリに格納され、ビデオ画面上のシーンにおける仮想オブジェクトのレンダリング等、ゲームプログラムにおけるアクションの制御に用いられる。 The present invention relates to a computer vision system, and more specifically, an object is captured by a video camera, an image portion related to the object is separated by analysis of a camera image, and the position and direction of the object are mapped to a three-dimensional space. Related to the system. The three-dimensional information of the object is stored in a memory and used for controlling actions in the game program such as rendering of a virtual object in a scene on a video screen.
デジタルビデオカメラを用いて動いているオブジェクトを捕捉すること、また、このビデオカメラによって取り込まれたビデオ画像を処理して様々な画面を表示させることは公知の技術である。一例として、Segenを発明者とする特許文献1(以下、Segen特許という)にはスポーツのイベントをアニメーションにする方法が開示されている。本発明は、このSegen特許を参照することによって、その開示内容を本明細書中に組み込んだものとする。この方法によれば、競技中のテニスボールの位置が複数のビデオカメラによって捕捉され、テニスコートにおける三次元的なポイントとカメラの視野の中のデジタル画像における二次元的なポイント(画素)との関連を示す一組の数式が用いられている。特定のデジタル画像において示されたボールを構成する各画素の位置は、競技に使用されているボールの具体的な三次元的な位置に関連付けられ、各ビデオ画像を三角形分割することによって、衝撃が加えられていない状態のボールの運動セグメントを示す軌跡式に、ボールの位置を合わせるように、一連の画像フレームが最小2乗法を用いて分析される。 It is a well-known technique to capture a moving object using a digital video camera and to process various video images captured by the video camera to display various screens. As an example, Patent Document 1 (hereinafter referred to as the Segen patent) in which Segen is an inventor discloses a method for animating a sports event. The present invention is incorporated herein by reference to this Segen patent. According to this method, the position of the tennis ball in the game is captured by a plurality of video cameras, and a three-dimensional point on the tennis court and a two-dimensional point (pixel) in the digital image in the camera field of view. A set of mathematical formulas showing the relationship is used. The position of each pixel that makes up the ball shown in a particular digital image is related to the specific three-dimensional position of the ball being used in the game, and by impacting each video image by triangulation, A series of image frames are analyzed using a least squares method to align the ball with a trajectory that represents the motion segment of the ball in the unloaded state.
Segen特許においてある程度説明されているが、オブジェクトの位置と運動に関する三次元的な情報が求められれば、本技術分野において公知となっている様々な方法を用いてオブジェクトの動作をアニメーションとして再現することができる。このような方法においては、ビデオゲームにおいてオブジェクトのアニメーションを適切に作り出すためのプログラムが用いられる。 As described to some extent in the Segen patent, if three-dimensional information about the position and motion of an object is required, the motion of the object can be reproduced as an animation using various methods known in the art. Can do. In such a method, a program for appropriately creating an animation of an object in a video game is used.
つまり、Segen特許は、一定期間内に取り込まれた複数の二次元的なビデオ画像に基づいて運動中のオブジェクトの三次元的な位置を求めるようにしている。「現実」のオブジェクトの三次元的な位置を求めることができれば、この情報を用いて、ゲームプログラマに一般的に知られている様々な方法により、ゲームプログラムを制御することが可能となる。 That is, the Segen patent seeks to determine the three-dimensional position of a moving object based on a plurality of two-dimensional video images captured within a certain period. If the three-dimensional position of the “real” object can be obtained, this information can be used to control the game program by various methods generally known to game programmers.
しかしながら、Segen特許のシステムは、三角形分割を用いた分析に基づいてオブジェクトに関する位置情報を得るものであるため、複数のビデオカメラを必要とする。さらに、Segen特許によって検出されるオブジェクトは、単純な球体であるため、空間内におけるオブジェクトの方向の位置情報(例えば、傾き)を含んでいない。従って、Segen特許のシステムでは、オブジェクトが動いている場合であっても静止している場合であっても、一つのビデオカメラを使った二次元的なビデオ画像に基づいてオブジェクトの位置および方向を再現することができない。 However, the system of the Segen patent requires multiple video cameras because it obtains position information about the object based on analysis using triangulation. Furthermore, since the object detected by the Segen patent is a simple sphere, it does not include position information (for example, tilt) in the direction of the object in space. Therefore, in the Segen patent system, the position and orientation of an object can be determined based on a two-dimensional video image using a single video camera, whether the object is moving or stationary. It cannot be reproduced.
ゲームプログラムは、通常、三次元的な幾何学的形状を組み合わせた仮想オブジェクトを用いている。ゲームプログラムの実行中、各オブジェクト間の三次元的な情報(位置および方向)は、ジョイスティック、ゲームコントローラ等の入力装置を用いて入力された制御入力パラメータによって決定される。仮想的なオブジェクトの三次元的な位置および情報は、背景設定、照明設定、さらに、陰影付け等を行った後、二次元的な画面に投影され、ゲーム機のレンダリング処理機能によって三次元的な遠近感のあるシーンが作り出される。 Game programs typically use virtual objects that combine three-dimensional geometric shapes. During execution of the game program, three-dimensional information (position and direction) between the objects is determined by control input parameters input using an input device such as a joystick or a game controller. The three-dimensional position and information of a virtual object are projected on a two-dimensional screen after performing background setting, lighting setting, shading, etc., and three-dimensional by the rendering processing function of the game machine. A scene with a sense of perspective is created.
例として、画面に表示されている動画の一部として「現実」のオブジェクトの動作に従って動作する「仮想オブジェクト」を想定する。仮想オブジェクトを表示するために、算出された三次元的な情報は、ゲーム機のメモリ空間内で「仮想オブジェクト」の位置および方向の決定に用いられ、画像のレンダリングが公知の投影処理によって行われ、三次元的な情報が、遠近感のあるリアルな画像として画面に表示される。 As an example, a “virtual object” that operates according to the operation of a “real” object as part of a moving image displayed on the screen is assumed. In order to display the virtual object, the calculated three-dimensional information is used to determine the position and direction of the “virtual object” in the memory space of the game machine, and the image is rendered by a known projection process. Three-dimensional information is displayed on the screen as a realistic image with perspective.
しかしながら、上述した技術においては、種々の問題によって、オブジェクトの捕捉が成功しないことがある。即ち、対象となっているオブジェクトに明らかに対応するビデオ画像の画素のみを正確に抽出する際に、特に重大な問題がある。例えば、オブジェクトが単色であり、かつ、このオブジェクトの色とは大幅に異なる単色を背景に用いているような場合であれば、オブジェクトの動きを捕捉することは比較的容易である。しかしながら、オブジェクトに鮮やかな色が用いられていても、背景に複数の色が用いられていたり、背景が動いていたりしているのであれば、オブジェクトの捕捉は容易ではない。また、照明の条件が変更されれば、ビデオカメラによって捕捉されるオブジェクトの見かけの色に大きな影響が及ぼされる。従って、特定の色のオブジェクトを検出するようなオブジェクトの検出方法では、大きな誤差が生じやすく、照明条件の変更に伴い、常時、再較正を行わなければならない。ビデオゲームプログラムを一般的な家庭で使用するには、従来のオブジェクトを捕捉するためのコンピュータビジョンシステムの柔軟性かつ信頼性を飛躍的に高める必要がある。 However, in the above-described technique, the capture of the object may not be successful due to various problems. That is, there is a particularly serious problem in accurately extracting only the pixels of the video image that clearly correspond to the object of interest. For example, if the object is a single color and uses a single color for the background that is significantly different from the color of the object, it is relatively easy to capture the movement of the object. However, even if a bright color is used for the object, it is not easy to capture the object if a plurality of colors are used for the background or the background is moving. Also, if the lighting conditions are changed, the apparent color of the object captured by the video camera is greatly affected. Therefore, in an object detection method that detects an object of a specific color, a large error is likely to occur, and recalibration must always be performed as the illumination condition changes. In order to use a video game program in a general home, it is necessary to dramatically increase the flexibility and reliability of a computer vision system for capturing conventional objects.
本発明は、ビデオゲームプログラムに適したオブジェクト捕捉システムを提供することを目的とし、上述した従来技術における不都合を解決し、オブジェクト、即ち、入力装置として機能する柱状オブジェクトの位置および方向を捕捉してゲームプログラムにおけるアクションを実行させることが可能なオブジェクト捕捉システムを提供することを目的とする。 An object of the present invention is to provide an object capturing system suitable for a video game program, solve the above-described disadvantages in the prior art, and capture the position and direction of an object, ie, a columnar object that functions as an input device. An object is to provide an object capturing system capable of executing an action in a game program.
本発明の別の目的は、従来のジョイスティックに代替するゲームのためのインタフェースを提供することである。ユーザは、ゲーム機に接続されたビデオカメラの前に立ってカメラの視野内で物理的にオブジェクトを動作させる(操作する)ことによってゲームにおけるアクションを発生させることができる。 Another object of the present invention is to provide an interface for a game that replaces a conventional joystick. A user can generate an action in a game by standing in front of a video camera connected to a game machine and physically moving (manipulating) an object within the field of view of the camera.
また、本発明の別の目的は、操作されたオブジェクトに対応すると識別された画素群の二次元的な情報を三次元空間にマッピングすることによって、一台のビデオカメラの画像から三次元におけるオブジェクトの三次元的な情報、即ち、位置および方向の情報を提供することにある。 Another object of the present invention is to map a two-dimensional information of a pixel group identified as corresponding to an manipulated object into a three-dimensional space, so that a three-dimensional object can be obtained from a single video camera image. 3D information, that is, position and direction information.
さらに、本発明の別の目的は、操作されたオブジェクトの回転成分を含むオブジェクトの三次元的な情報を提供することにある。 Furthermore, another object of the present invention is to provide three-dimensional information of an object including a rotation component of the manipulated object.
またさらに、本発明の別の目的は、オブジェクトの三次元的な位置および方向の情報を求める際に必要な情報を得るために、ビデオ画像から操作されたオブジェクトに対応する画素群がはっきりと認識されるように、画素群を最も識別しやすくなるようなオブジェクトの色を色遷移に基づいて決定する技法を提供することにある。 Furthermore, another object of the present invention is to clearly recognize a pixel group corresponding to the manipulated object from the video image in order to obtain information necessary for obtaining information on the three-dimensional position and orientation of the object. Thus, it is an object of the present invention to provide a technique for determining the color of an object based on the color transition so that the pixel group is most easily identified.
本発明に係るゲームプログラムの制御方法は、メモリと表示部とを有する処理ユニットに接続された一台のビデオカメラの視界の中で物理的なオブジェクトを操作するステップと、前記ビデオカメラによって捕捉された二次元的な画素情報を前記処理ユニットに供給するステップと、前記二次元的な画素情報から前記オブジェクトに対応する少なくとも一つの画素群を抽出するステップと、前記少なくとも一つの画素群に基づいて二次元的な幾何学的形状を定義するための一組のパラメータを求めるステップと、前記一組のパラメータに基づいて所定のアルゴリズムを実行して前記二次元的な幾何学的形状を幾何学的な数値による三次元的に定義されたデータにマッピングすることによって、操作された前記オブジェクトの位置および方向に対応する三次元における前記幾何学的な数値の情報を得るステップと、前記三次元に定義されたデータを前記メモリに格納するステップと、前記幾何学的な数値情報を用いて前記表示部上のアクションを制御するステップとを含むことを特徴とする。 A method for controlling a game program according to the present invention includes a step of manipulating a physical object in a field of view of one video camera connected to a processing unit having a memory and a display unit, and the video program captured by the video camera. Supplying the two-dimensional pixel information to the processing unit, extracting at least one pixel group corresponding to the object from the two-dimensional pixel information, and based on the at least one pixel group Obtaining a set of parameters for defining a two-dimensional geometric shape, and executing a predetermined algorithm based on the set of parameters to determine the two-dimensional geometric shape By mapping to three-dimensionally defined data with various numerical values, the position and direction of the manipulated object Obtaining the geometric numerical information in the corresponding three dimensions, storing the data defined in the three dimensions in the memory, and using the geometric numerical information on the display unit. And a step of controlling an action.
この場合、前記オブジェクトが無地のシリンダからなり、前記抽出された画素群によって定義される幾何学的形状が四角形であり、前記所定のアルゴリズムが、前記画素群の長さlを求めるステップと、前記画素群に沿った少なくとも二つの異なる長さの前記画素群の幅w1およびw2を求めるステップと、画像のX−Y平面において、Y軸と前記長さlによって定義される方向との間の傾き(角度)θを求めるステップと、前記二つの幅の比w1:w2に基づいてY−Z平面における前記オブジェクトの傾きφを求めるステップと、前記傾きφによって重み付けされた前記画素群の長さlφ、または、前記傾きφによって重み付けされた前記画素群を構成する画素の合計数Nφに基づいて前記オブジェクトの奥行き値zを求めるステップとを含むようにしてもよい。 In this case, the object is a solid cylinder, the geometric shape defined by the extracted pixel group is a quadrangle, and the predetermined algorithm obtains the length l of the pixel group; Determining the widths w 1 and w 2 of the pixel groups of at least two different lengths along the pixel group and between the Y axis and the direction defined by the length l in the XY plane of the image A step of obtaining an inclination (angle) θ of the object, a step of obtaining an inclination φ of the object in the YZ plane based on the ratio w 1 : w 2 of the two widths, and the pixel group weighted by the inclination φ A depth value z of the object based on a total length Nφ of pixels constituting the pixel group weighted by the inclination φ or the length lφ of Unishi may be.
また、前記オブジェクトが無地のシリンダからなり、前記抽出された画素群によって定義される幾何学的形状が四角形であり、前記所定のアルゴリズムが、前記画素群の長さlを求めるステップと、前記画素群に沿った少なくとも二つの異なる長さの前記画素群の幅w1およびw2を求めるステップと、画像のX−Y平面において、Y軸と前記長さlによって定義される方向との間の傾き(角度)θを求めるステップと、前記画素群の平均幅wavgに基づいて前記オブジェクトの奥行き値zを求めるステップと、前記画素群の前記長さlと前記平均幅wavgとの比l:wavgに基づいてY−Z平面における前記オブジェクトの傾きφを求めるステップとを含むようにしてもよい。 The object is a solid cylinder, the geometric shape defined by the extracted pixel group is a quadrangle, and the predetermined algorithm obtains a length l of the pixel group; Determining the widths w 1 and w 2 of the group of pixels of at least two different lengths along the group and between the Y axis and the direction defined by the length l in the XY plane of the image A step of obtaining an inclination (angle) θ, a step of obtaining a depth value z of the object based on an average width w avg of the pixel group, and a ratio l of the length l of the pixel group and the average width w avg The step of determining the inclination φ of the object in the YZ plane based on w avg may be included.
また、前記オブジェクトが無地のシリンダと該シリンダに取り付けられた無地の球体とからなり、前記シリンダの色と前記球体の色とが異なっており、前記抽出された画素群のうち、前記シリンダに対応する部分によって定義される幾何学的形状が四角形であり、球体に対応する部分によって定義される幾何学的形状が円形であり、前記所定のアルゴリズムが、前記抽出された画素群のうちの前記球体に対応する部分によって定義される前記円の中心点(ポイントPS)と該円全体の画素領域とを求めるステップと、前記抽出された画素群のうちの前記シリンダに対応する部分によって定義される前記四角形の中心線における別のポイントPを求めるステップと、前記ポイントPSと前記ポイントPとの間の長さlを求めるステップと、画像のX−Y平面において、Y軸と前記長さlによって定義される方向との間の前記オブジェクトの傾きθを求めるステップと、前記抽出された画素群のうちの前記球体に対応する部分によって定義される前記円を構成する画素の合計数Nに基づいて前記オブジェクトの奥行き値zを求めるステップと、前記ポイントPSと前記ポイントPとの間の前記長さlと前記奥行き値zとに基づいて、Y−Z平面における前記オブジェクトの傾きφを求めるステップとを含むようにしてもよい。 Further, the object includes a plain cylinder and a plain sphere attached to the cylinder, the color of the cylinder is different from the color of the sphere, and the object corresponds to the cylinder in the extracted pixel group. The geometric shape defined by the portion to be square is a square, the geometric shape defined by the portion corresponding to the sphere is a circle, and the predetermined algorithm is the sphere of the extracted pixel group. Determining the center point (point P S ) of the circle defined by the portion corresponding to, and the pixel area of the entire circle, and defining the portion of the extracted pixel group corresponding to the cylinder. and obtaining and determining the another point P at the center line of the rectangle, the length l between the points P S and the point P, the image In the XY plane, defined by the step of obtaining the inclination θ of the object between the Y axis and the direction defined by the length l, and the portion of the extracted pixel group corresponding to the sphere. determining a depth value z of the object, based on the total number N of pixels constituting the circle that, based on said depth value z the length l between the points P S and the point P , Obtaining a tilt φ of the object in the YZ plane.
また、前記オブジェクトが複数の周方向の無地のストライプが付けられた無地のシリンダからなり、前記ストライプの色と前記シリンダの色とが異なっており、前記画素群の抽出ステップにおいて前記シリンダと前記ストライプとの間の複数の色遷移が求められ、前記所定のアルゴリズムが、二次元的なクロミナンス色空間における最大の分離度を定義する閾値Dtを設定するステップと、前記ストライプの色および前記シリンダの色に対応する合成クロミナンス信号CrおよびCbによって求められる値Dに基づいて色遷移を検出するステップと、前記値Dが前記所定の閾値Dtを超えた際に、十分な度合いの色遷移が発生したことを判断するステップと、前記十分な度合いの色遷移によって前記ストライプの間のそれぞれの長さl1およびl2を定義するステップと、前記ストライプの間のそれぞれの長さl1およびl2の比l1:l2に基づいて、Y−Z平面における前記オブジェクトの傾きφを求めるステップと、前記長さl1およびl2の合計と前記Y−Z平面における前記オブジェクトの傾きφとに基づいて前記オブジェクトの奥行き値zを求めるステップとを含むようにしてもよい。 The object includes a plain cylinder with a plurality of plain stripes in the circumferential direction, and the color of the stripe is different from the color of the cylinder, and the cylinder and the stripe are extracted in the pixel group extraction step. A plurality of color transitions between, and the predetermined algorithm setting a threshold D t that defines a maximum degree of separation in a two-dimensional chrominance color space; and the color of the stripe and the cylinder detecting color transitions based on a value D obtained by the synthesis chrominance signals Cr and Cb corresponding to the color, when said value D exceeds said predetermined threshold value D t, the color transition of sufficient degree occurs and determining that the respective lengths l 1 between the stripes by the color transition of the sufficient degree and A step of defining 2, respective lengths l 1 and the ratio of l 2 l 1 between the stripes: based on l 2, determining a tilt φ of the object in the Y-Z plane, the length determining the depth value z of the object based on the sum of l 1 and l 2 and the inclination φ of the object in the YZ plane.
また、前記オブジェクトがらせん状の無地のストライプが付けられた無地のシリンダからなり、前記ストライプの色と前記シリンダの色とが異なっており、前記画素群の抽出ステップにおいて前記ストライプに対応する少なくとも一つの画素群が抽出され、さらに、前記オブジェクトの回転度を求めるための所定のアルゴリズムを実行するステップを含むようにしてもよい。 Further, the object is formed of a plain cylinder with a spiral plain stripe, and the color of the stripe is different from the color of the cylinder, and at least one corresponding to the stripe in the pixel group extraction step. One pixel group may be extracted, and may further include a step of executing a predetermined algorithm for obtaining the degree of rotation of the object.
この場合、前記オブジェクトの回転度を求めるための所定のアルゴリズムを実行するステップが、前記シリンダに対応する画素群を抽出するステップと、前記ストライプに対応する画素群に基づいてらせんHを定義するステップと、前記シリンダに対応する画素群の中心線を求めるステップと、前記シリンダに対応する抽出された画素群の端部と、前記中心線が前記らせんHに交差する該らせんH上のポイントとの間の高さhを求めるステップとを含み、前記シリンダの回転度を前記シリンダに対応する画素群の全長lに対する前記高さhの比に基づいて求めるようにしてもよい。 In this case, the step of executing a predetermined algorithm for obtaining the degree of rotation of the object includes a step of extracting a pixel group corresponding to the cylinder and a step of defining a helix H based on the pixel group corresponding to the stripe. Determining a center line of a pixel group corresponding to the cylinder; an end of the extracted pixel group corresponding to the cylinder; and a point on the helix H at which the center line intersects the helix H. A step of obtaining a height h therebetween, and the degree of rotation of the cylinder may be obtained based on a ratio of the height h to a total length l of a pixel group corresponding to the cylinder.
次に、本発明に係る色の選択方法は、二次元的な色空間において定義されるクロミナンス座標(Cr,Cb)を用いて色を検出するビデオカメラおよび画像処理システムを用いて捕捉されるオブジェクトに適用される色の選択方法において、前記色空間において、各座標(Cr1,Cb1)および(Cr2,Cb2)によって定義される少なくとも二つの色を有するオブジェクトを前記ビデオカメラによって捕捉するステップと、前記色空間によって定義される色相環上で所定の傾きθを有する直径を選択するステップと、前記座標(Cr1,Cb1)および(Cr2,Cb2)によって定義される各ポイントから一対のラインを前記直径に対して法線方向に投影させるステップと、前記ラインが前記直径に投影された各ポイント間の距離Dを算出するステップと、前記算出された距離Dが所定の閾値を超えるような色のみを検出に適した色として選択するステップとを含むことを特徴とする。 Next, a color selection method according to the present invention includes an object captured using a video camera and an image processing system that detect colors using chrominance coordinates (Cr, Cb) defined in a two-dimensional color space. In the color space, an object having at least two colors defined by coordinates (Cr 1 , Cb 1 ) and (Cr 2 , Cb 2 ) is captured by the video camera in the color space. Selecting a diameter having a predetermined slope θ on a hue circle defined by the color space, and each point defined by the coordinates (Cr 1 , Cb 1 ) and (Cr 2 , Cb 2 ) Projecting a pair of lines in a direction normal to the diameter, and a distance D between each point at which the line is projected onto the diameter Calculating the calculated distance D is characterized by comprising the steps of: selecting a color which is suitable for detecting only a color exceeding a predetermined threshold.
この場合、前記距離Dが次の式によって算出されるようにしてもよい。 In this case, the distance D may be calculated by the following equation.
D=[Cr1・cosθ+Cb1・sinθ]−[Cr2・cosθ+Cb2・sinθ]
次に、本発明に係る入力装置は、ストライプが付けられたシリンダ本体と、ハンドルとからなる入力装置であって、前記ストライプの色と前記シリンダ本体の色とが異なる色であり、少なくとも前記ストライプに対応する画素群とシリンダ本体に対応する画素群とからなる二次元的な画像データをカメラを介して画像処理ユニットに入力することによって三次元的なデータを入力することが可能なことを特徴とする。
D = [Cr 1 · cos θ + Cb 1 · sin θ] − [Cr 2 · cos θ + Cb 2 · sin θ]
Next, an input device according to the present invention is an input device comprising a cylinder body with a stripe and a handle, and the color of the stripe is different from the color of the cylinder body, and at least the stripe It is possible to input three-dimensional data by inputting two-dimensional image data consisting of a pixel group corresponding to the pixel group and a pixel group corresponding to the cylinder body to the image processing unit via the camera. And
この場合、前記ストライプがらせん状であり、前記シリンダ本体の軸を中心とする回転データを入力するようにしてもよい。 In this case, the stripe may be spiral, and rotation data about the cylinder body axis may be input.
次に、本発明に係る三次元オブジェクトの動作を入力する方法は、ストライプが付けられたシリンダ本体と、ハンドルとからなる三次元オブジェクトを操作するステップと、前記三次元オブジェクトの動作をカメラで捕捉して少なくとも前記シリンダ本体に対応する画素群と前記ストライプに対応する画素群とからなる二次元的な画像データを得るステップと、前記二次元的な画像データを解析して前記オブジェクトの三次元的なデータを算出するステップとを含むことを特徴とする。 Next, a method of inputting a motion of a 3D object according to the present invention includes a step of operating a 3D object comprising a cylinder body with a stripe and a handle, and capturing the motion of the 3D object with a camera. Obtaining two-dimensional image data comprising at least a pixel group corresponding to the cylinder body and a pixel group corresponding to the stripe, and analyzing the two-dimensional image data to obtain a three-dimensional image of the object. And a step of calculating various data.
この場合、前記ストライプがらせん状であり、前記二次元的な画像データの解析ステップが、前記シリンダ本体に対応する画素群と前記ストライプに対応する画素群との関係を解析して前記シリンダ本体の軸を中心とする回転に関するデータを算出するステップを含むようにしてもよい。 In this case, the stripe is spiral, and the analysis step of the two-dimensional image data analyzes the relationship between the pixel group corresponding to the cylinder body and the pixel group corresponding to the stripe to analyze the cylinder body. You may make it include the step which calculates the data regarding the rotation centering on an axis | shaft.
次に、本発明に係る三次元オブジェクトの動作を入力するシステムは、ストライプが付けられたシリンダ本体からなる入力装置と、前記入力装置の動作を捕捉するカメラと、画像処理ユニットとからなり、前記カメラが前記入力装置の動作を捕捉して前記シリンダ本体に対応する画素群と前記ストライプに対応する画素群とからなる二次元的な画像データを前記画像処理ユニットに供給し、前記画像処理ユニットが前記二次元的な画像データを解析して前記入力装置の動作に基づく三次元的なデータを算出することを特徴とする。 Next, a system for inputting a motion of a three-dimensional object according to the present invention comprises an input device comprising a cylinder body with a stripe, a camera for capturing the motion of the input device, and an image processing unit, A camera captures the operation of the input device and supplies two-dimensional image data consisting of a pixel group corresponding to the cylinder body and a pixel group corresponding to the stripe to the image processing unit, and the image processing unit The two-dimensional image data is analyzed to calculate three-dimensional data based on the operation of the input device.
この場合、前記ストライプがらせん状であり、前記画像処理ユニットが前記シリンダ本体に対応する画素群と前記ストライプに対応する画素群との関係を解析して前記シリンダ本体の軸を中心とする回転に関するデータを算出するようにしてもよい。 In this case, the stripe is spiral, and the image processing unit analyzes the relationship between the pixel group corresponding to the cylinder body and the pixel group corresponding to the stripe, and relates to rotation about the axis of the cylinder body. Data may be calculated.
本発明の上述した目的、特徴および利点、さらに、その他の目的、特徴および利点は、本発明の好ましい実施の形態が例示された添付図面および以下の説明を併せ鑑みることによって良好に理解されるであろう。 The above-described objects, features, and advantages of the present invention, as well as other objects, features, and advantages will be better understood in view of the accompanying drawings in which preferred embodiments of the present invention are illustrated and the following description. I will.
以上説明したように、本発明によれば、以下の効果を奏することができる。 As described above, according to the present invention, the following effects can be obtained.
(1) ビデオゲームプログラムに適したオブジェクト捕捉システム、例えばオブジェクト、即ち、入力装置として機能する柱状オブジェクトの位置および方向を捕捉してゲームプログラムにおけるアクションを実行させることが可能なオブジェクト捕捉システムを提供することができる。 (1) An object capturing system suitable for a video game program, for example, an object capturing system capable of capturing an action in a game program by capturing the position and direction of an object, that is, a columnar object that functions as an input device. be able to.
(2) 従来のジョイスティックに代替するゲームのためのインタフェースを提供することができる。 (2) It is possible to provide an interface for a game that replaces a conventional joystick.
(3) 操作されたオブジェクトに対応すると識別された画素群の二次元的な情報を三次元空間にマッピングすることによって、一台のビデオカメラの画像から三次元におけるオブジェクトの三次元的な情報、即ち、位置および方法を提供することができる。 (3) By mapping the two-dimensional information of the pixel group identified as corresponding to the manipulated object to the three-dimensional space, the three-dimensional information of the object in three dimensions from the image of one video camera, That is, a location and method can be provided.
(4) 操作されたオブジェクトの回転成分を含むオブジェクトの三次元的な情報を提供することができる。 (4) It is possible to provide three-dimensional information of the object including the rotation component of the operated object.
(5) オブジェクトの三次元的な位置および方向の情報を求める際に必要な情報を得るために、ビデオ画像から操作されたオブジェクトに対応する画素群がはっきりと認識されるように、画素群を最も識別しやすくなるようなオブジェクトの色を色遷移に基づいて決定する技法を提供することができる。 (5) In order to obtain information necessary for obtaining information on the three-dimensional position and direction of the object, the pixel group is set so that the pixel group corresponding to the manipulated object is clearly recognized from the video image. A technique can be provided for determining the color of an object that is most easily identifiable based on the color transition.
本発明に係る柱状入力装置について好適な実施の形態を挙げ、添付の図面を参照しながら以下詳細に説明する。 A preferred embodiment of a columnar input device according to the present invention will be described below and described in detail with reference to the accompanying drawings.
図1は、ビデオゲーム機60の要部の構成を示すブロック図である。このビデオゲーム機60は、操作可能なオブジェクト(柱状オブジェクト)を従来の入力装置に代替して使用するために適したものである。
FIG. 1 is a block diagram illustrating a configuration of a main part of the
ビデオゲーム機60は、図1に示す本発明に係るエンタテインメントシステム110の一部を構成している。ビデオゲーム機60は、エンタテインメントシステム110の全体を制御するマイクロプロセッサ(MPU)112と、種々のプログラムを実行し、データを記憶するメインメモリ114と、ジオメトリ処理に必要な浮動少数点ベクトル演算を行うベクトル演算ユニット116と、MPU112による制御に基づいてデータを生成するイメージプロセッサ120と、CRT等のビデオ信号を出力するモニタ80と、MPU112やベクトル演算ユニット116とイメージプロセッサ120との間の転送バスを介してデータの媒介等を行うグラフィックインタフェース(GIF)122と、周辺機器とのデータの送受信を可能にする入出力ポート124と、カーネル等を制御するために、例えば、フラッシュメモリからなるOSD機能を内蔵したROM(OSDROM)126と、カレンダー機能およびタイマー機能を有するリアルタイムクロック128(RTC)とを備える。
The
メインメモリ114、ベクトル演算ユニット116、GIF122、OSDROM126、RTC128、および入出力ポート124は、データバス130を介してMPU112に接続されている。
The
データバス130には、画像データを取得するために圧縮された動画像やテクスチャ画像を展開する圧縮画像デコーダ(IPU)138が接続されている。例えば、IPU138は、標準的なMPEG2形式に従ったビットストリームを復号してデータを取得する機能、マクロブロックの復号を行う機能、逆離散コサイン変換を行う機能、色空間変換を行う機能、さらに、ベクトル量子化を行う機能等を有する。
Connected to the
サウンドシステムは、MPU112の指示に従って音楽的なエフェクト、または他のサウンドエフェクトを生成するサウンド処理ユニット(SPU)171と、SPU171によって波形データが記録されるサウンドバッファ173と、SPU171によって生成された音楽的なエフェクト、または他のサウンドエフェクトを出力するスピーカ175とを含む。スピーカ175は、モニタ80に組み込むようにしてもよいし、音声出力端子に接続された外部スピーカであってもよい。
The sound system includes a sound processing unit (SPU) 171 that generates musical effects or other sound effects according to instructions of the
また、データバス130には、本発明のデジタルコンテンツの入力を可能にするための、デジタルデータの入出力機能を有する通信インタフェース140が接続されている。この通信インタフェース140には、モデム50やネットワークカード等を接続することができる。例えば、この通信インタフェース140を介してネットワーク上でサーバの端末にユーザの入力データを送信したり、ステータスデータをサーバの端末から受信したりすることが可能である。入出力ポート124には、キー入力データや座標データ等のデータをエンタテインメントシステム110に入力するための入力装置132(コントローラとも記す)と、各種プログラムおよびデータ(オブジェクトデータ、テクスチャデータ等)が記録されたCD−ROM等、光ディスク70のコンテンツを再生するための光ディスクドライブ136とが接続されている。
The
本発明においては、この入力装置132に加えて、または、入力装置132に代替するものとして、デジタルビデオカメラ190が入出力ポート124に接続されている。入出力ポート124は、一個の入力インタフェースであってもよく、複数の入力インタフェースであってもよい。また、入出力ポート124は、シリアルインタフェースであってもよく、USBインタフェースであってもよい。この利便性の高いUSB入力インタフェース、または他の従来のインタフェースを利用することによってデジタルビデオカメラ190の使用が可能となる。
In the present invention, in addition to the
上述したイメージプロセッサ120は、レンダリングエンジン170と、メモリインタフェース172と、画像メモリ174と、プログラマブルCRTコントローラ等のディスプレイコントローラ176とを含む。
The
レンダリングエンジン170は、MPU112によって与えられたレンダリングコマンドに従って、メモリインタフェース172を通じて画像メモリ174内で所定の画像データのレンダリングを行う。
The
第1バス178は、メモリインタフェース172とレンダリングエンジン170との間を接続し、第2バス180は、メモリインタフェース172と画像メモリ174との間を接続している。第1バス178および第2バス180は、それぞれ、例えば128ビットのビット幅を有し、レンダリングエンジン170は、画像メモリ174上でレンダリングを高速に行うことが可能である。
The
レンダリングエンジン170は、320×240画素または640×480画素の画像データ、もしくは、例えば標準的なNTSC方式やPAL方式に準拠した画像データをリアルタイムで、即ち、1/60秒毎〜1/30秒毎に10〜数十回のレンダリングを行うことが可能である。
The
画像メモリ174は、ユニファイドメモリ構造を採用しており、テクスチャレンダリング領域とディスプレイレンダリング領域とを同一の領域に設定することが可能である。
The
ディスプレイコントローラ176は、光ディスク70から光ディスクドライブ136によって読み出したテクスチャデータ、または、メインメモリ114上で作成されたテクスチャデータを、画像メモリ174のテクスチャレンダリング領域にメモリインタフェース172を介して書き込み、画像メモリ174のディスプレイレンダリング領域でレンダリングされた画像データを、メモリインタフェース172を介して読み出し、この画像データをモニタ80に出力してスクリーン上で表示することができるように構成されている。
The
次に、図2を参照し、柱状のオブジェクトを持ったユーザが、デジタルビデオカメラの正面でこのオブジェクトを操作してビデオゲーム内のアクションを発生させるシステム全体の構成を説明する。 Next, referring to FIG. 2, a configuration of the entire system in which a user having a columnar object operates the object in front of the digital video camera to generate an action in the video game will be described.
図2に示すように、この柱状オブジェクトとして、通常は黒い色のハンドル303と色彩が鮮やかな(例えば飽和色の)シリンダ301とからなる棒状のオブジェクトを用いることができる。ユーザは、ソニーコンピュータエンタテインメント社によって製造された「プレイステーション2(商標名)」等のゲーム機の入出力ポート124に接続されたUSBウエブカメラ(Webcam)やデジタルカムコーダ(camcorder)等のデジタルビデオカメラ190の前に立つ。ユーザがデジタルビデオカメラ190の前でオブジェクトを動かすと、オブジェクトのシリンダ301の特徴がデジタルビデオカメラ190によって検出され、シリンダ301のみに対応する画素群を分離して識別するために、後述する処理が行われる。まず、三次元空間における位置や方向等のシリンダ(オブジェクト)301に関する三次元的なデータが算出されてビデオゲーム機60のメインメモリ114に格納される。次に、公知のレンダリング技術によってオブジェクトに関する三次元的なデータに基づいてモニタ80の画面上に表示されているゲームプログラム内でのアクションが実行される。例えば、ユーザによる現実のオブジェクトの動作に対応して、トーチ等の仮想的なオブジェクトをゲームシーンの中で動かすことができる。ユーザがオブジェクトを動かすことによって、オブジェクトの位置や方向が変更され、メインメモリ114に格納されたオブジェクトのデータ、画像メモリ174のレンダリング領域内でのオブジェクトのレンダリングが継続的に更新され、モニタ80上の仮想的なオブジェクト、即ち、トーチの位置や方向も変更される。
As shown in FIG. 2, a bar-shaped object including a
上述したように、必要な情報はオブジェクト(図2の場合はシリンダ301)の三次元的なデータである。しかしながら、デジタルビデオカメラ190によって捕捉される画像は、オブジェクトについての二次元的な画素情報でしかない。また、三次元的なオブジェクトのデータを算出する前に、オブジェクト自体に関する画素を識別することが必要である。
As described above, the necessary information is the three-dimensional data of the object (
図3は、柱状オブジェクトがユーザによって操作される際に、この柱状オブジェクトに対応する画素群を捕捉して識別するために用いられる機能を示すブロック図である。各ブロックによって示された機能は、ビデオゲーム機60のMPU112によって実行されるソフトウエアによって行われることが理解されよう。また、図3のブロックによって示されている全ての機能が用いられるものではない。特に、色遷移による位置の特定は、後述する図6Aおよび図6Bに関係する実施の形態においてのみ用いられる。
FIG. 3 is a block diagram illustrating a function used to capture and identify a pixel group corresponding to a columnar object when the columnar object is operated by a user. It will be understood that the function indicated by each block is performed by software executed by the
まず、デジタルビデオカメラ190から入力された画素データは、入出力インタフェース(入出力ポート)124を通じてビデオゲーム機60に供給され、以下の処理の実行が可能となる。図3に示すように、最初に、例えば、ラスタ毎に画像の各画素がサンプリングされると、色細分化処理(ステップS201)が行われる。この色細分化処理において、各画素の色が決定され、画像が異なる色の種々の二次元的なセグメントに分割される。次に、実施の形態によっては、色遷移による位置の特定(ステップS203)が行われる。この色遷移による位置の特定において、異なる色のセグメントが隣接している領域がより具体的に特定され、画像においてはっきりとした色遷移が起こった位置が定義される。次に、実施の形態によっては、ジオメトリ処理(ステップS205)が行われる。このジオメトリ処理は、エッジ検出処理、または、領域情報を得るための計算処理によって行われ、対象となっているオブジェクトのエッジに対応する輪郭線、曲線、および/またはポリゴンが代数的にもしくは幾何学的に定義される。例えば、図2に示すシリンダ301の場合、画素領域は、シリンダ301の正面図に対応する概ね矩形状になる。この矩形状の画素領域の代数的または幾何学的な情報によって、オブジェクトのみに対応する画素群の中心、幅、長さ、さらに、二次元的な方向を定義することが可能となる。
First, pixel data input from the
ステップS207において、本発明の好ましい実施の形態に関連して後述するアルゴリズムに従って、オブジェクトの三次元的な位置および方向が計算される。 In step S207, the three-dimensional position and orientation of the object are calculated according to the algorithm described below in connection with the preferred embodiment of the present invention.
最後に、三次元的な位置と方向のデータは、性能の向上のために、カルマンフィルタによって処理される(ステップS209)。このプロセスは、ある時間内にオブジェクトが移動する予定のポイントを推定し、あり得ないと推定される真のデータ集合から外れた偽の測定結果を除去するために行われるものである。また、カルマンフィルタ処理を行う別の理由は、デジタルビデオカメラ190が30Hzで画像を生成するのに対し、通常のディスプレイが60Hzで動作することから、この周波数の差、即ち、データ間のギャップを補償してゲームプログラムの中でのアクションを制御するためである。カルマンフィルタ処理によって離散データのスムージングを行うことはコンピュータビジョンの分野では公知となっているため、これ以上の詳細な説明は行わないものとする。
Finally, the three-dimensional position and direction data is processed by the Kalman filter to improve performance (step S209). This process is performed to estimate the point at which an object is scheduled to move within a certain period of time and to remove false measurements that deviate from the true data set that is presumed to be impossible. Another reason for performing Kalman filtering is that the
図4Aに示すように、柱状のオブジェクトは、無地で単色のシリンダ301であり、好ましくは黒のハンドル303に取り付けられている。三次元空間においてオブジェクトの位置および方向を完全に定義するためには、所定のポイントp(通常はオブジェクトの中心)のX−Y平面での位置および奥行き値z(即ち、ポイントpのZ軸上での位置)、また、少なくとも2つの異なる平面におけるオブジェクトの角度情報、例えば、X−Y平面における傾きθとY−Z平面における傾きφが決定されなければならない。シリンダ301の実際上の物理的な長さおよび直径、カメラの焦点距離の情報は、スケーリングに用いることもできるが、ゲームプログラムにおけるアクションのプログラミングに必要なものではない。なぜならば、画面上の仮想オブジェクトは、柱状オブジェクト(シリンダ301)と同じ長さや直径を有している必要がなく、異なる形状であってもよいからである。
As shown in FIG. 4A, the columnar object is a solid,
次に、図4Bを参照して説明する。図4Bは、デジタルビデオカメラ190によって生成されたオブジェクトの二次元的な画像305を示している。シリンダ状のオブジェクト301は、概ね矩形の画素群307としてビデオ画像305の中に取り込まれる。しかしながら、画素群307の長さlによって定義される方向に沿った幅は、オブジェクトがφ方向の傾きや、デジタルビデオカメラ190と柱状オブジェクトの距離の影響を受けるため、変化していてもよい。オブジェクトのφ方向の傾きは、ビデオ画像305では直接には視認できないことが理解されよう。
Next, a description will be given with reference to FIG. 4B. FIG. 4B shows a two-
上述したジオメトリ処理(ステップS205)に従って画素群307の長さ、中心点等を決定するためには、公知の領域情報計算法が用いられる。領域情報には、領域、重心、X軸を中心とするモーメント、Y軸を中心とするモーメント、その他の重要な各モーメント、重要な各モーメントの角度等が含まれ、これらの情報は、通常、特定の軸を中心とするオブジェクトの慣性モーメントを計算するために用いられる。例えば、X軸とY軸を中心とするモーメントを求める場合には、画素群を構成する各画素が薄い均質なシートまたは薄板を構成するある均一な質量mの粒子に対応していれば、座標平面に存在するn個の粒子(画素)の座標系におけるX軸とY軸を中心とするモーメントMxは次の式によって定義される。
In order to determine the length, center point, and the like of the
座標系における質量の中心は、以下の式によって定義されるポイント(x,y)に位置する。 The center of mass in the coordinate system is located at the point (x, y) defined by the following equation.
また、薄板が、図4Bに示す矩形や、後述する図5Bに示す円形のように、幾何学的な図形中心を有する形状であると仮定すると、薄板の質量の中心は、幾何学的な図形中心に相当する。つまり、例えば、画素領域の二次元的な形状が矩形であるというように、画素領域の領域情報が分かっていれば、幅、高さ、さらに、方向を直接計算することができる。円形のものについても、中心点や半径を求める際に、同様の計算を行うことが可能である。矩形や円形のものについての代表的な計算方法は、標準的な大学レベルの微積分や物理のテキストに記載されている。 Further, assuming that the thin plate has a geometric figure center such as a rectangle shown in FIG. 4B or a circle shown in FIG. 5B described later, the center of mass of the thin plate is a geometric figure. Corresponds to the center. That is, for example, if the area information of the pixel area is known such that the two-dimensional shape of the pixel area is a rectangle, the width, height, and direction can be directly calculated. For a circular object, the same calculation can be performed when determining the center point and radius. Typical calculation methods for rectangles and circles are described in standard university-level calculus and physics texts.
ビデオ画像305がX−Y平面で既に表現されたため、ビデオ画像305から直接的に中心点pのx座標とy座標を求めることができる。また、角度θの値は、シリンダ301に対応する画素群307の長手方向の軸によって定義される方向を示すラインLの情報が分かっていれば、上述したジオメトリ処理(ステップS205)を用いてビデオ画像305から直接求めることができる。通常、長手方向のラインLとして、中心点pを通るものが用いられる。
Since the
傾きφの値を求めるためには、幾らかの他の情報、即ち、少なくとも2つの異なる位置での画素群の幅W1およびW2に関する情報が必要となる。画素群の幅w1、w2の値の比w1:w2を用いることによって傾きφを求めることができる。より具体的には、シリンダ301が、下端側よりも上端側がデジタルビデオカメラ190により近づくように傾斜している場合、シリンダ301の下端側がデジタルビデオカメラ190から離れているため、画像の画素群の幅w2の値は、幅w1の値よりも大きくなる。逆に、シリンダ301が、上端側よりも下端側がデジタルビデオカメラ190により近づくように傾斜している場合、シリンダ301の上端側がデジタルビデオカメラ190から離れているため、画像の画素群の幅w1の値は、幅w2の値よりも大きくなる。画素群の幅w1、w2の比率w2/w1は、Y−Z平面上のシリンダ301の傾きφに比例する。従って、この比率w2/w1を用いて傾きφの値の大きさを求めることができる。通常、より精度の高い値を得るために、画素群307の端辺の間で複数の等距離測定が行われ、平均値を用いて比率w2/w1が求められる。
In order to determine the value of the slope φ, some other information is needed, i.e. information about the widths W 1 and W 2 of the pixel group at at least two different positions. The slope φ can be obtained by using the ratio w 1 : w 2 of the values of the widths w 1 and w 2 of the pixel group. More specifically, when the
奥行き値zはいろいろな方法によって求められる。しかしながら、二次元的な画素群307を構成する画素の大きさと数は、オブジェクトのφ方向への傾きと、デジタルビデオカメラ190からオブジェクトまでの実際の距離との双方の影響を受ける。より具体的には、オブジェクトがφ方向に傾くと、デジタルビデオカメラ190から見えるオブジェクトの見かけ上の長さは短くなるため、画素群307の長さlも短くなる。さらに、Z軸に沿ってデジタルビデオカメラ190からオブジェクトが離れると、長さlを含め、オブジェクト全体の見かけの大きさは小さくなる。従って、単に長さlだけをデジタルビデオカメラ190とオブジェクト間の距離を示す指標であるとみなすことはできない。つまり、奥行き値zは、長さlと傾きφとの関数によって求める必要がある。
The depth value z can be obtained by various methods. However, the size and number of pixels constituting the two-
しかしながら、傾きφの値が分かっている場合であれば、lをφで重み付けした値を求めることができる。lをφで重み付けした値をlφとし、φが一定であると仮定すれば、画像における画素の長さlφは、オブジェクトがデジタルビデオカメラ190に近づいたり、デジタルビデオカメラ190から遠ざかったりすることによって変化する。lφは奥行き値zに比例するため、lφによって奥行き値zを求めることができる。
However, if the value of the slope φ is known, a value obtained by weighting l with φ can be obtained. If it is assumed that l is a value obtained by weighting l by φ and φ is constant, the pixel length lφ in the image is determined by moving the object closer to the
奥行き値zを求める別の方法は、画素群307のうち、オブジェクトに対応する画素の合計数を数えることによって行われる。オブジェクトがデジタルビデオカメラ190に近づいたり、デジタルビデオカメラ190から遠ざかったりすると、奥行き値zに比例して、ピクセル群307を構成する画素の数も多くなったり少なくなったりする。しかしながら,画素群307の画素の数は、φ方向の傾きに影響されるため、まず、画素の数Nをφで重み付けすることによって重み付けされた値Nφを求める必要がある。Nφは奥行き値zに比例するため、Nφによって奥行き値zを求めることができる。
Another method for obtaining the depth value z is performed by counting the total number of pixels corresponding to the object in the
奥行き値zを求める別の効果的な方法は、矩形(画素群)の平均幅wavgを用いることである。矩形の平均幅wavgは、矩形の幅を特定の回数だけ測定した後、測定値の合計を測定回数で割ることによって得ることができる。画素群の平均幅は、奥行き値zだけでなく、シリンダの傾きφの影響も受けることは明らかであろう。また、画素群の合計の長さと平均幅との比(l:wavg)によってφを求めることもできる。さらに、画素幅w1とw2の値の大きさを比較することによっても傾きφを求めることができる。 Another effective way to determine the depth value z is to use the average width w avg of the rectangle (pixel group). The average width w avg of the rectangle can be obtained by measuring the width of the rectangle a specific number of times and then dividing the total measurement value by the number of measurements. It will be apparent that the average width of the pixel group is influenced not only by the depth value z but also by the cylinder tilt φ. Also, φ can be obtained from the ratio (l: wavg ) between the total length and the average width of the pixel group. Furthermore, the slope φ can be obtained by comparing the values of the pixel widths w 1 and w 2 .
図5Aは、別の実施の形態(第2の実施の形態)において使用される柱状オブジェクトを示している。また、図5Bは、図5Aの柱状オブジェクトの三次元的な情報、即ち、柱状オブジェクトの位置および方向を二次元的なビデオ画像305から求める方法を示している。
FIG. 5A shows a columnar object used in another embodiment (second embodiment). FIG. 5B shows a method for obtaining the three-dimensional information of the columnar object of FIG. 5A, that is, the position and direction of the columnar object from the two-
第2の実施の形態に係る柱状オブジェクトは、図4Aに示された第1の実施の形態に係る柱状オブジェクトと同様に、シリンダ状(棒状)のオブジェクトであるが、シリンダ301の一端部には、シリンダ301の色とは異なる色の球体オブジェクト309が固着されている。また、図示はしないが、シリンダ301の末端を若干突出させて球体オブジェクト309の上端から視認できるようにしてもよい。後述するように、球体オブジェクト309を設けることによって、奥行き値zおよびφ方向のオブジェクトの傾きを簡単に求めることができるようになる。奥行き値zを求めるために、シリンダ301の相対的な幅の測定を行うことが不要となり、傾きφを重み付けすることも不要となる。
The columnar object according to the second embodiment is a cylindrical (bar-shaped) object, similar to the columnar object according to the first embodiment shown in FIG. A
図5Bに示すように、球体オブジェクト309に対応する画素群311は二次元的な円として画像上で表現される。本実施の形態によれば、円の半径Rおよび中心点PSは、上述した領域情報の計算によって求めることができる。さらに、この場合、円の画素群311を構成する画素の合計数は、円の画素領域によって計算することができる。円形の画素領域は、球体オブジェクト309がデジタルビデオカメラ190に近づくほど大きくなり、デジタルビデオカメラ190から遠ざかるほど小さくなることが理解されよう。円を構成する画素群311の画素の合計数は、奥行き値zに比例しているため、奥行き値zを求めることができる。
As shown in FIG. 5B, the
第2の実施の形態によれば、第1の実施の形態におけるシリンダとは異なり、円形の画素群の形状と大きさは、傾きφの角度の影響を受けないことが理解されよう。即ち、オブジェクト全体がφ方向に傾いた場合であっても、球体オブジェクト309および画素群311は、概ね同種の形状を維持し、シリンダ301の場合(長さ)とは異なり、傾きによって短くなるようなことがない。従って、画像における円を構成する画素群のピクセルの合計数は常に奥行き値zに比例しており、奥行き値zを求めるために、第1の実施の形態のように傾きφによる重み付けを行うことが不要となるという利点がある。
It will be understood that according to the second embodiment, unlike the cylinder in the first embodiment, the shape and size of the circular pixel group are not affected by the angle of the inclination φ. That is, even when the entire object is tilted in the φ direction, the
また、第1の実施の形態と同様に、θ方向のオブジェクトの傾きは、画像から直接求めることができる。即ち、θ方向のオブジェクトの傾きは、シリンダ301に対応する画素群307の長手方向の中心線とY軸との間の角度θによって求めることができる。
Further, as in the first embodiment, the inclination of the object in the θ direction can be obtained directly from the image. That is, the inclination of the object in the θ direction can be obtained from the angle θ between the longitudinal center line of the
φ方向の傾きは、第1の実施の形態の方法とは別の方法によって求められる。即ち、上述したように求められた奥行き値zと、円311の中心点PSとシリンダ301に対応する画素群307の中心点Pとの間の長さlとによって求められる。奥行き値zがどのような値であれ、決まった値であれば、デジタルビデオカメラ190から見た長さlは、オブジェクトがφ方向に傾くにつれて短くなる。従って、奥行き値zが分かっていれば、長さlによって簡単にφ方向の傾きの度合いを求めることができ、図4Aおよび図4Bで示した第1の実施の形態のように相対的な幅の値や幅の比率を計算することが不要となる。
The inclination in the φ direction is obtained by a method different from the method of the first embodiment. In other words, the depth value z obtained as described above and the length l between the center point P S of the
図6Aは、本発明のさらに別の実施の形態に係る柱状オブジェクトを示している。 FIG. 6A shows a columnar object according to still another embodiment of the present invention.
図6Aに示すように、柱状オブジェクトは、概ねシリンダ状の本体301からなる。さらに、このシリンダ301には、該シリンダ301とは異なる色の三つのストライプS1、S2およびS3が付けられている。好ましくは、このストライプS1、S2およびS3は、同じ幅を有し、シリンダ301の両端と中央に等間隔で付けられている。
As shown in FIG. 6A, the columnar object includes a substantially cylindrical
この実施の形態によれば、画像から抽出されたシリンダ301を構成する画素群には、二次元的なラインが形成されており、この二次元的なラインによって色の遷移を確認することができる。奥行き値z、角度θおよび傾きφの値を求めるために、シリンダ301の長手方向によって定義されるラインLに沿って発生する色遷移の位置が求められる。
According to this embodiment, a two-dimensional line is formed in the pixel group constituting the
即ち、図6Bに示すように、ラインLにおいてはっきりとした色の遷移が起きている位置を特定するために、デジタルビデオカメラ190から見た場合の、シリンダ301の長手方向に沿ったラインLに対応する画素群のサンプリングを行う必要がある。特に、このような色遷移を検出するために、デジタルビデオカメラ190から出力されるYCrCb信号中のクロミナンス値CrおよびCbが検出される。ストライプの色を選択するための基準において、以下に説明する理由のため、シリンダ301、さらに、ストライプS1、S2およびS3の各色のクロミナンス信号CrおよびCbをピタゴラスの距離を用いて合成することによって得られた合成クロミナンス値Dを用いることが好ましい。合成クロミナンス値Dは次の式によって求められる。
That is, as shown in FIG. 6B, in order to identify the position where a clear color transition occurs in the line L, the line L along the longitudinal direction of the
このようにして、デジタルビデオカメラ190によって使用される二次元的なクロミナンス色空間における分離度を定義することができる。
In this way, the degree of separation in the two-dimensional chrominance color space used by the
後述する合成クロミナンス値Dが最大になる色を選択することによって、閾値Dtを決めることが可能となる。合成クロミナンス値Dの値が閾値Dtより大きくなるような、特定の分離度を越えている場合にのみ、ストライプS1、S2およびS3に対応する色遷移が検出される。従って、このような閾値Dtを用いることによってシリンダ301のラインLに沿った画素がフィルタにかけられ、ストライプS1、S2およびS3に対応する大きな色遷移が検出される。
By later synthesized chrominance value D to select a color to become maximum, it is possible to determine the threshold D t. Color transitions corresponding to the stripes S 1 , S 2 and S 3 are detected only when a certain degree of separation is exceeded such that the value of the combined chrominance value D is greater than the threshold value D t . Accordingly, the pixels along the line L of the
図6Bに示すように、ラインLに沿って色遷移が発生している各位置で、各ストライプS1、S2およびS3に対応する2つのスパイクが検出される。これらのスパイクの中心点がストライプの位置であるとみなされる。ストライプの位置が決定されると、ストライプ間の長さ(距離)l1およびl2が求められる。シリンダ全体の長さはl1とl2の合計である。 As shown in FIG. 6B, at each position where the color transition occurs along the line L, two spikes corresponding to the stripes S 1 , S 2 and S 3 are detected. The center point of these spikes is considered to be the position of the stripe. Once the stripe positions are determined, the lengths (distances) l 1 and l 2 between the stripes are determined. The total length of the cylinder is the sum of l 1 and l 2 .
次に、ストライプ間の長さ(距離)l1とl2のデータに基づいて、三次元オブジェクトの位置と方向に関する情報を得るために必要な奥行き値z、角度θおよび傾きφの値を求める方法について説明する。 Next, based on the data of the lengths (distances) l 1 and l 2 between the stripes, the values of the depth value z, the angle θ, and the inclination φ necessary for obtaining information on the position and direction of the three-dimensional object are obtained. A method will be described.
まず、シリンダ301の全長に渡って連続する画素によって定義されるラインLのデータが既に求められており、また、デジタルビデオカメラ190がX−Y平面に対して法線方向に向いていると仮定すると、上述した実施の形態の場合と基本的に同じように、角度θは、シリンダ301の長手方向のラインLとY軸との間の角度であるとみなして直接的に求めることができる。
First, it is assumed that the data of the line L defined by the continuous pixels over the entire length of the
φ方向の傾きを求めるためには、長さの比l1:l2が用いられる。例えば、シリンダ301がデジタルビデオカメラ190に向かってφ方向に傾いているような場合、シリンダ301の上端は下端よりもデジタルビデオカメラ190に近くなっている。つまり、長さl2よりも長さl1の方がデジタルビデオカメラ190に近くなっているため、長さl1の方が長くなる。長さl1および12は、オブジェクトとデジタルビデオカメラ190との間の距離zに依存するが、角度φが一定であれば、これらの長さの比l1:l2は不変であるため、常にこの比l1:l2を指標としてφ方向のシリンダ301の傾きを求めることができる。
In order to obtain the inclination in the φ direction, the length ratio l 1 : l 2 is used. For example, when the
奥行き値zは、第1の実施の形態の場合と同じような方法で求めることができる。全体の長さl(l=l1+l2)をφで重み付けした値lφを求めれば、奥行き値zを得ることができる。即ち、まず、オブジェクトの見かけ上の全体の長さlに対する傾き(角度)φの影響度が求められる。この傾き(角度)φの影響度によって適切に重み付けを行った全体の長さは、オブジェクトとデジタルビデオカメラ190との間の距離(奥行き値)zと比例しているため、奥行き値zを求めることができる。
The depth value z can be obtained by the same method as in the first embodiment. The depth value z can be obtained by obtaining a value lφ obtained by weighting the entire length l (l = l 1 + l 2 ) by φ. That is, first, the degree of influence of the inclination (angle) φ on the apparent overall length l of the object is obtained. The total length appropriately weighted by the degree of influence of the inclination (angle) φ is proportional to the distance (depth value) z between the object and the
より簡単に言えば、傾きφは長さl1とl2の比によって求められ、傾きφの値が求められれば、奥行き値zは、長さl1とl2の合計によって求めることができる。 More simply, the slope φ is obtained by the ratio of the lengths l 1 and l 2 , and if the value of the slope φ is obtained, the depth value z can be obtained by the sum of the lengths l 1 and l 2. .
次に、図7を参照して柱状オブジェクトの回転成分を求める方法について説明する。この方法は、らせん状のストライプSHを柱状オブジェクトに付けることによって、上述した実施の形態のいずれにも適用することができる。 Next, a method for obtaining the rotation component of the columnar object will be described with reference to FIG. This method can be applied to any of the above-described embodiments by attaching a spiral stripe SH to a columnar object.
上述した捕捉方法は、オブジェクトが有する6つの自由度のうちの5つを得るために用いられる。残りの1つの自由度は、シリンダ301の軸を中心とする回転である。シリンダ301は軸を中心に対称に形成されているため、シリンダ301の回転を求めることは困難であるように思われる。シリンダ301の回転成分を得るために本発明において採用した方法は、らせん状のストライプSHを用いることである。このストライプSHは、シリンダ301に単に一回だけ巻き付けられる。シリンダ301が回転した際、ストライプSHの高さがシリンダの回転角度に対応する。
The acquisition method described above is used to obtain five of the six degrees of freedom that an object has. The remaining one degree of freedom is rotation about the axis of the
具体的には、図7に示すように、シリンダ301(図5Aおよび図5Bの場合であれば、柱状オブジェクトのシリンダ部分)に一本のらせん状のストライプSHが一回だけ巻き付けられる。らせん状のストライプSHに関する情報は、該らせん状のストライプSHを構成する画素群313全体から、または、らせん状のストライプSHに対応する色遷移を用いて抽出される。このらせん状のストライプSHに関する情報によって、上述したジオメトリ処理を用いてストライプSHに最も適合したらせんHを求めることができる。
Specifically, as shown in FIG. 7, (in the case of FIGS. 5A and 5B, the cylinder portion of the prop)
また、らせんHのほか、上述した方法によって、シリンダ301に対応する画素群313の中心線Lが求められる。さらに、画素群313の全体の長さlが求められる。
In addition to the helix H, the center line L of the
シリンダ301の回転度を求めるため、各部位における高さh(説明の簡略化のため、h1およびh2のみを図示している)が求められる。これらの高さhは、シリンダ301の一端と中心線LがらせんHに交差するポイントPaとの間の距離によって定義される。
In order to obtain the degree of rotation of the
図7の右側に示すように、デジタルビデオカメラ190側からはシリンダ301の片側(正投影された状態)しか一度に見ることができない。従って、カメラ画像から領域を抽出してらせんHを求めた上、このらせんHに基づいてシリンダ301の回転角度が求められる。図7において、回転がない(回転成分が0である)と仮定した場合、シリンダ301の一端(下端)かららせんH上のあるポイントPaまでが第1の高さh1で示されている。オブジェクトが45度回転した場合、下端かららせんHのポイントで交差するまでの中心線Lの高さh2はより短くなる。図7の一番右には、オブジェクトを90度回転させた場合が示されている。この場合、中心線LがらせんHと2つのポイントPa、Paで交差するという、特別な状態になる。このように、中心線Lの高さを計算することによって、シリンダ301(またはシリンダ301に固着されて回転するほかのオブジェクト)の回転成分を求めることができる。
As shown on the right side of FIG. 7, from the
回転を求めるために用いられる具体的な数値は、画素群313の全体の長さlに対する下端かららせんH上のポイントPaまでの高さの比によって求められる。この比を用いて得られた数値k(k=hmax/l)によって直接0〜360度の範囲の回転を求めることができる。従って、オブジェクトに関する追加の情報として、三次元空間におけるシリンダ301の方向の情報を求めることができる。このような情報は、例えば、ゲームプログラムによって表示される仮想オブジェクトの回転の制御に用いることができる。
A specific numerical value used for obtaining the rotation is obtained by a ratio of the height from the lower end to the point Pa on the helix H with respect to the entire length l of the
次に、図8Aおよび図8Bを参照し、図6Aおよび図6Bに示した実施の形態におけるストライプの色を決定する方法について説明する。具体的には、図8Aは、輝度と、色相および彩度の動径座標とによって定義される色空間を示すダイアグラムである。輝度は、色の明るさまたは強度によって定義され、色相は、スペクトル分布の主波長の変化によって定義され、彩度は、ある波長でのスペクトル分布の密度によって定義される。 Next, a method for determining the color of the stripe in the embodiment shown in FIGS. 6A and 6B will be described with reference to FIGS. 8A and 8B. Specifically, FIG. 8A is a diagram showing a color space defined by luminance and radial coordinates of hue and saturation. Luminance is defined by the brightness or intensity of the color, hue is defined by the change in the dominant wavelength of the spectral distribution, and saturation is defined by the density of the spectral distribution at a wavelength.
また、図8Bは、デジタルビデオカメラ190の出力信号(クロミナンス信号CrおよびCb)に対応する二次元的なクロミナンス色空間を示している。当業者であれば、デジタルビデオカメラ190がビデオ画像を構成する各画素の色を制御するための信号を出力することを理解できよう。図8Aの色相環図に示すように、色は、色相と彩度に対応する各動径座標によって定義される。しかしながら、動径座標を用いることによってコンピュータによる画像処理を複雑にする必要はない。より有用なYCrCb方式による別の基準を用いて色を定義することもできる。この方法は、ビデオ業界において色を表す際に、最も一般的に用いられている方法である。YCrCb方式は、一つのルマ(luma)成分Yと2つのクロミナンス成分CrおよびCbとによって各色を表すものである。Yは、明度や輝度に概ね相当するものであり、CrやCbは概ね色相に相当するものである。これらの成分は、国際電気通信連合のITU−R勧告 BT.601−4(アスペクト比が4:3の標準方式と16:9のワイドスクリーン方式のためのデジタルテレビジョンのスタジオ符号化パラメータ)において厳格に定義されている。従って、各画素のクロミナンス信号CrとCbは、デカルト座標によって定義され、このデカルト座標を特定の色相および彩度に対応する色相環内での位置を決定するために用いることができる。
FIG. 8B shows a two-dimensional chrominance color space corresponding to the output signals (chrominance signals Cr and Cb) of the
本発明によれば、ストライプS1、S2およびS3の色およびシリンダの色は、デジタルビデオカメラ190によってストライプを最も検出しやすくなるように決められる。色ベースによる捕捉は、照明の違いによって見かけの色が変化するという大きな問題がある。結果として、例えば、ある照明の下でオブジェクトに相当する青の色を検出しようとする場合、カメラによって捉えられる青の色が変化するため、オブジェクトの正確な検出が困難である。本発明においては、絶対的な色を検出するのではなく、色の遷移を検出するため、より信頼性の高い色の捕捉を行うことができる。例えば、図6Aおよび図6Bに示された実施の形態において、シリンダ301の色が青であり、ストライプS1、S2およびS3の色がオレンジである場合、照明の条件が変わって見かけの色が変化しても、図6Bに示すように、これらの色の遷移ははっきりとしたままである。
According to the present invention, the colors of the stripes S 1 , S 2 and S 3 and the colors of the cylinders are determined so that the
上述したように、デジタルビデオカメラ190は、図8Bに示す二次元的なクロミナンス色空間を用いてデータを捕捉する。この色空間内で、色の分離度Dが最大となるようにオブジェクトとストライプの色を決定することによって、色遷移の検出性能が大幅に向上する。
As described above, the
具体的には、図8Bに示すように、彩度の高い青とオレンジの色は、色相環の概ね正反対端に位置しており、色空間において、距離Dが大きく離れている。実際の距離Dは、既に式(4)において説明したように、辺ΔCr(青とオレンジの2つの色に対応する各クロミナンス信号値Crの差)と辺ΔCb(青とオレンジの2つの色に対応する各クロミナンス信号値Cbの差)を有する三角形の斜辺として、即ち、実際の距離Dは、(ΔCr)2+(ΔCb)2の平方根として計算される。 Specifically, as shown in FIG. 8B, the highly saturated blue and orange colors are located at substantially opposite ends of the hue circle, and the distance D is greatly separated in the color space. As described in the equation (4), the actual distance D is calculated based on the side ΔCr (the difference between the chrominance signal values Cr corresponding to the two colors of blue and orange) and the side ΔCb (the two colors of blue and orange). As the hypotenuse of the triangle with the difference between each corresponding chrominance signal value Cb), ie the actual distance D is calculated as the square root of (ΔCr) 2 + (ΔCb) 2 .
青とオレンジの組み合わせを例に挙げて説明したが、他の色の組み合わせでもよいことが理解されよう。例えば、同じように色空間内で距離が大きく離れている緑とマゼンタを用いることもできる。即ち、この方法は、色空間で色の分離度が最大になるようにクロミナンス信号CrおよびCbを用いて色を決定するための一般的な基準を提供するものである。 While a blue and orange combination has been described as an example, it will be appreciated that other color combinations may be used. For example, similarly, green and magenta that are largely separated in the color space can be used. That is, this method provides a general criterion for determining colors using the chrominance signals Cr and Cb so that the color separation in the color space is maximized.
つまり、2つの色の間の距離の計算方法および色の決定方法は、2つの色の距離が、色相の車輪(色相環)における特定のスポーク(直径)に投影される距離として計算されるように行われる。まず、特定の傾き(角度)θを有する色相の車輪(色相環)のスポーク(直径)が決められる。色相環において決定された直径の傾きを決めることによって、検出されるべき色遷移を決めることができる。例えば、緑を(1、1)とし、マゼンタを(−1、−1)とすると、スポークの直径は45度の傾き(角度)θに設定される。次に、色の分離度(距離)は、各色を45度のラインに投影することによって計算される。このように、緑とマゼンタの場合、算出される距離は、上述したピタゴラスの距離Dと全く同じになる。しかしながら、直径(ライン)の方向が45度である場合、青とオレンジの距離はゼロになる。なぜならば、青とオレンジは原点に投影されるからである。即ち、45度に直径のラインが決められた場合、緑とマゼンタが検出に最適な色となる。なぜならば、この直径では、緑とマゼンタが色空間において分離度が最大になるからである。 In other words, the method for calculating the distance between two colors and the method for determining the color are such that the distance between the two colors is calculated as the distance projected on a specific spoke (diameter) in the wheel of the hue (hue ring). To be done. First, the spoke (diameter) of a wheel (hue ring) of a hue having a specific inclination (angle) θ is determined. By determining the slope of the diameter determined in the hue circle, the color transition to be detected can be determined. For example, assuming that green is (1, 1) and magenta is (-1, -1), the diameter of the spoke is set to an inclination (angle) θ of 45 degrees. The color separation (distance) is then calculated by projecting each color onto a 45 degree line. Thus, in the case of green and magenta, the calculated distance is exactly the same as the Pythagorean distance D described above. However, if the diameter (line) direction is 45 degrees, the distance between blue and orange is zero. This is because blue and orange are projected on the origin. That is, when a line having a diameter of 45 degrees is determined, green and magenta are optimal colors for detection. This is because at this diameter, green and magenta have the greatest degree of separation in color space.
従って、0〜180度の範囲から決められる特定の角度θにおいて、2つの色(Cr1、Cb1)および(Cr2、Cb2)の分離度は、次の式によって求められる。 Therefore, the separation degree of the two colors (Cr 1 , Cb 1 ) and (Cr 2 , Cb 2 ) at a specific angle θ determined from the range of 0 to 180 degrees is obtained by the following equation.
従って、式(5)によって計算される距離は、角度θによって定義される所定の方向に基づいて閾値Dtを設定するためにも用いられる。例えば、実際に、オブジェクトの色遷移が緑とマゼンタである場合、上述した一般的な距離計算方法を用いて、この式における角度θを45度に決めて閾値Dtを設定できる。 Therefore, the distance calculated by equation (5) is also used to set the threshold value D t based on a predetermined direction defined by the angle theta. For example, in practice, if the color transition of an object is green and magenta, using the general distance calculation methods described above, it can be set a threshold value D t decide the angle θ in the equation 45 degrees.
本明細書において、ビデオカメラの前で操作される現実のオブジェクトの位置および方向をカメラによって取り込まれたオブジェクトの二次元的な画像を三次元空間にマッピングすることによって求める幾つかの方法について説明した。オブジェクトの位置や方向などの三次元的な情報は、ゲームプログラムにおけるアクションの制御に用いられる。 This document has described several methods for determining the position and orientation of a real object operated in front of a video camera by mapping a two-dimensional image of the object captured by the camera into a three-dimensional space. . Three-dimensional information such as the position and direction of the object is used for controlling actions in the game program.
ゲームプログラムの制御に関する一つのわかりやすい例は、ゲームの画面上に表示される動画の一部をなす「仮想オブジェクト」を「現実」のオブジェクトの動作や位置に対応させることであるが、三次元的な情報は、当業者であれば考案可能な他の異なる方法でのゲームプログラムの制御にも用いられることが理解できよう。例えば、操作によるオブジェクトの位置や方向の変化をサウンドプロセッサによって生み出されるサウンドのボリューム、トーン、ピッチ、リズム等に関連付けて「テレミン」のような音楽効果を生み出すこともできる。このような音楽的な音声効果、または、リズムによる音声効果をゲーム機のスクリーンに表示される視覚的な効果と併せて用いることによって、ユーザ(例えばゲームプレイヤ)が体感する効果を高めるようにしてもよい。 One easy-to-understand example of game program control is to associate a “virtual object” that forms part of the video displayed on the game screen with the motion and position of a “real” object. It will be appreciated that such information may also be used to control the game program in other different ways that can be devised by those skilled in the art. For example, a change in the position or direction of an object due to an operation can be associated with the volume, tone, pitch, rhythm, etc. of the sound generated by the sound processor, thereby creating a music effect such as “telemin”. By using such a musical sound effect or a sound effect based on rhythm in combination with a visual effect displayed on the screen of the game machine, the effect experienced by the user (for example, a game player) is enhanced. Also good.
本発明の範囲と精神から逸脱することなく、この明細書に記載された実施の形態の内容を当業者によって改変または変形できることが、容易に理解できよう。従って、請求の範囲は、この明細書中に記載された内容に限定されるものではなく、当業者によって均等であると合理的に判断されるような特徴の全てを包含するものと解釈するべきである。 It will be readily understood by those skilled in the art that the contents of the embodiments described in the present specification can be modified or modified without departing from the scope and spirit of the present invention. Therefore, the scope of the claims should not be limited to what is described in this specification, but should be construed to include all features that are reasonably judged to be equivalent by those skilled in the art. It is.
50…モデム 60…ビデオゲーム機
70…光ディスク 80…モニタ
110…エンタテインメントシステム 112…MPU
114…メインメモリ 116…ベクトル演算ユニット
120…イメージプロセッサ 122…GIF
124…入出力ポート 126…OSDROM
128…RTC 130…データバス
132…入力装置 136…光ディスクドライブ
138…IPU 140…通信インタフェース
170…レンダリングエンジン 171…SPU
172…メモリインタフェース 173…サウンドバッファ
174…画像メモリ 175…スピーカ
176…ディスプレイコントローラ 178…第1バス
180…第2バス 190…デジタルビデオカメラ
301…シリンダ 303…ハンドル
305…画像 307、311、313…画素群
309…球体オブジェクト
DESCRIPTION OF SYMBOLS 50 ...
114 ...
124 ... Input /
128 ...
172 ...
Claims (15)
前記ビデオカメラによって捕捉された二次元的な画素情報を前記処理ユニットに供給するステップと、
前記二次元的な画素情報から前記オブジェクトに対応する少なくとも一つの画素群を抽出するステップと、
前記少なくとも一つの画素群に基づいて二次元的な幾何学的形状を定義するための一組のパラメータを求めるステップと、
前記一組のパラメータに基づいて所定のアルゴリズムを実行して前記二次元的な幾何学的形状を幾何学的な数値による三次元的に定義されたデータにマッピングすることによって、操作された前記オブジェクトの位置および方向に対応する三次元における前記幾何学的な数値の情報を得るステップと、
前記三次元に定義されたデータを前記メモリに格納するステップと、
前記幾何学的な数値情報を用いて前記表示部上のアクションを制御するステップとを含むことを特徴とするゲームプログラムの制御方法。 Manipulating a physical object in the field of view of a single video camera connected to a processing unit having a memory and a display;
Providing two-dimensional pixel information captured by the video camera to the processing unit;
Extracting at least one pixel group corresponding to the object from the two-dimensional pixel information;
Determining a set of parameters for defining a two-dimensional geometric shape based on the at least one pixel group;
The manipulated object by executing a predetermined algorithm based on the set of parameters and mapping the two-dimensional geometric shape to three-dimensionally defined data by geometric numerical values Obtaining the geometric numerical information in three dimensions corresponding to the position and direction of
Storing the three-dimensionally defined data in the memory;
And a step of controlling an action on the display unit using the geometric numerical information.
前記画素群の長さlを求めるステップと、
前記画素群に沿った少なくとも二つの異なる長さの前記画素群の幅w1およびw2を求めるステップと、
画像のX−Y平面において、Y軸と前記長さlによって定義される方向との間の傾き(角度)θを求めるステップと、
前記二つの幅の比w1:w2に基づいてY−Z平面における前記オブジェクトの傾きφを求めるステップと、
前記傾きφによって重み付けされた前記画素群の長さlφ、または、前記傾きφによって重み付けされた前記画素群を構成する画素の合計数Nφに基づいて前記オブジェクトの奥行き値zを求めるステップとを含むことを特徴とするゲームプログラムの制御方法。 The method of claim 1, wherein the object is a solid cylinder, the geometric shape defined by the extracted pixel group is a quadrangle, and the predetermined algorithm is:
Obtaining a length l of the pixel group;
Determining widths w 1 and w 2 of the pixel groups of at least two different lengths along the pixel group;
Obtaining an inclination (angle) θ between the Y axis and the direction defined by the length l in the XY plane of the image;
Obtaining the inclination φ of the object in the YZ plane based on the ratio of the two widths w 1 : w 2 ;
Obtaining a depth value z of the object based on a length lφ of the pixel group weighted by the inclination φ or a total number Nφ of pixels constituting the pixel group weighted by the inclination φ. A method for controlling a game program.
前記画素群の長さlを求めるステップと、
前記画素群に沿った少なくとも二つの異なる長さの前記画素群の幅w1およびw2を求めるステップと、
画像のX−Y平面において、Y軸と前記長さlによって定義される方向との間の傾き(角度)θを求めるステップと、
前記画素群の平均幅wavgに基づいて前記オブジェクトの奥行き値zを求めるステップと、
前記画素群の前記長さlと前記平均幅wavgとの比l:wavgに基づいてY−Z平面における前記オブジェクトの傾きφを求めるステップとを含むことを特徴とするゲームプログラムの制御方法。 The method of claim 1, wherein the object is a solid cylinder, the geometric shape defined by the extracted pixel group is a quadrangle, and the predetermined algorithm is:
Obtaining a length l of the pixel group;
Determining widths w 1 and w 2 of the pixel groups of at least two different lengths along the pixel group;
Obtaining an inclination (angle) θ between the Y axis and the direction defined by the length l in the XY plane of the image;
Obtaining a depth value z of the object based on an average width w avg of the pixel group;
The ratio l of the of the pixel group and the length l and the average width w avg: the control method of a game program based on w avg characterized in that it comprises the step of determining the inclination φ of the object in the Y-Z plane .
前記抽出された画素群のうちの前記球体に対応する部分によって定義される前記円の中心点(ポイントPS)と該円全体の画素領域とを求めるステップと、
前記抽出された画素群のうちの前記シリンダに対応する部分によって定義される前記四角形の中心線における別のポイントPを求めるステップと、
前記ポイントPSと前記ポイントPとの間の長さlを求めるステップと、
画像のX−Y平面において、Y軸と前記長さlによって定義される方向との間の前記オブジェクトの傾きθを求めるステップと、
前記抽出された画素群のうちの前記球体に対応する部分によって定義される前記円を構成する画素の合計数Nに基づいて前記オブジェクトの奥行き値zを求めるステップと、
前記ポイントPSと前記ポイントPとの間の前記長さlと前記奥行き値zとに基づいて、Y−Z平面における前記オブジェクトの傾きφを求めるステップとを含むことを特徴とするゲームプログラムの制御方法。 2. The method according to claim 1, wherein the object includes a plain cylinder and a plain sphere attached to the cylinder, and the color of the cylinder is different from the color of the sphere. Of these, the geometric shape defined by the portion corresponding to the cylinder is a square, the geometric shape defined by the portion corresponding to the sphere is a circle, and the predetermined algorithm is:
Obtaining a center point (point P S ) of the circle defined by a portion corresponding to the sphere in the extracted pixel group and a pixel area of the entire circle;
Obtaining another point P at the center line of the rectangle defined by the portion of the extracted pixel group corresponding to the cylinder;
Determining a length l between the points P S and P;
Obtaining an inclination θ of the object between the Y axis and the direction defined by the length l in the XY plane of the image;
Obtaining a depth value z of the object based on a total number N of pixels constituting the circle defined by a portion corresponding to the sphere in the extracted pixel group;
A step of obtaining an inclination φ of the object in a YZ plane based on the length l and the depth value z between the point P S and the point P. Control method.
二次元的なクロミナンス色空間における最大の分離度を定義する閾値Dtを設定するステップと、
前記ストライプの色および前記シリンダの色に対応する合成クロミナンス信号CrおよびCbによって求められる値Dに基づいて色遷移を検出するステップと、
前記値Dが前記所定の閾値Dtを超えた際に、十分な度合いの色遷移が発生したことを判断するステップと、
前記十分な度合いの色遷移によって前記ストライプの間のそれぞれの長さl1およびl2を定義するステップと、
前記ストライプの間のそれぞれの長さl1およびl2の比l1:l2に基づいて、Y−Z平面における前記オブジェクトの傾きφを求めるステップと、
前記長さl1およびl2の合計と前記Y−Z平面における前記オブジェクトの傾きφとに基づいて前記オブジェクトの奥行き値zを求めるステップとを含むことを特徴とするゲームプログラムの制御方法。 The method according to claim 1, wherein the object includes a plain cylinder provided with a plurality of plain stripes in the circumferential direction, the color of the stripe is different from the color of the cylinder, and the pixel group extraction step. A plurality of color transitions between the cylinder and the stripe are determined, and the predetermined algorithm is:
Setting a threshold D t that defines a maximum degree of separation in a two-dimensional chrominance color space;
Detecting a color transition based on a value D determined by combined chrominance signals Cr and Cb corresponding to the color of the stripe and the color of the cylinder;
And determining that the value D when it exceeds the predetermined threshold value D t, the color transition of sufficient degree occurs,
Defining a respective length l 1 and l 2 between the stripes by the sufficient degree of color transition;
Determining the inclination φ of the object in the YZ plane based on the ratio l 1 : l 2 of the respective lengths l 1 and l 2 between the stripes;
A method for controlling a game program, comprising: calculating a depth value z of the object based on a sum of the lengths l 1 and l 2 and an inclination φ of the object in the YZ plane.
前記シリンダに対応する画素群を抽出するステップと、
前記ストライプに対応する画素群に基づいてらせんHを定義するステップと、
前記シリンダに対応する画素群の中心線を求めるステップと、
前記シリンダに対応する抽出された画素群の端部と、前記中心線が前記らせんHに交差する該らせんH上のポイントとの間の高さhを求めるステップとを含み、
前記シリンダの回転度が前記シリンダに対応する画素群の全長lに対する前記高さhの比に基づいて求められることを特徴とするゲームプログラムの制御方法。 The method of claim 6, wherein the step of executing a predetermined algorithm for determining the degree of rotation of the object comprises:
Extracting a pixel group corresponding to the cylinder;
Defining a helix H based on a group of pixels corresponding to the stripe;
Obtaining a center line of a pixel group corresponding to the cylinder;
Determining a height h between an end of the extracted pixel group corresponding to the cylinder and a point on the helix H at which the center line intersects the helix H;
A method of controlling a game program, wherein the degree of rotation of the cylinder is obtained based on a ratio of the height h to a total length l of a pixel group corresponding to the cylinder.
前記色空間において、各座標(Cr1,Cb1)および(Cr2,Cb2)によって定義される少なくとも二つの色を有するオブジェクトを前記ビデオカメラによって捕捉するステップと、
前記色空間によって定義される色相環上で所定の傾きθを有する直径を選択するステップと、
前記座標(Cr1,Cb1)および(Cr2,Cb2)によって定義される各ポイントから一対のラインを前記直径に対して法線方向に投影させるステップと、
前記ラインが前記直径に投影された各ポイント間の距離Dを算出するステップと、
前記算出された距離Dが所定の閾値を超えるような色のみを検出に適した色として選択するステップとを含むことを特徴とする色の選択方法。 In a method of selecting a color to be applied to an object captured using a video camera and an image processing system that detects colors using chrominance coordinates (Cr, Cb) defined in a two-dimensional color space,
Capturing in the color space by the video camera an object having at least two colors defined by coordinates (Cr 1 , Cb 1 ) and (Cr 2 , Cb 2 );
Selecting a diameter having a predetermined slope θ on a hue circle defined by the color space;
Projecting a pair of lines in a direction normal to the diameter from each point defined by the coordinates (Cr 1 , Cb 1 ) and (Cr 2 , Cb 2 );
Calculating a distance D between each point at which the line is projected onto the diameter;
Selecting only a color for which the calculated distance D exceeds a predetermined threshold as a color suitable for detection.
D=[Cr1・cosθ+Cb1・sinθ]−[Cr2・cosθ+Cb2・sinθ] 9. The color selection method according to claim 8, wherein the distance D is calculated by the following equation.
D = [Cr 1 · cos θ + Cb 1 · sin θ] − [Cr 2 · cos θ + Cb 2 · sin θ]
前記ストライプの色と前記シリンダ本体の色とが異なる色であり、
少なくとも前記ストライプに対応する画素群とシリンダ本体に対応する画素群とからなる二次元的な画像データをカメラを介して画像処理ユニットに入力することによって三次元的なデータを入力することが可能なことを特徴とする入力装置。 An input device comprising a cylinder body with a stripe and a handle,
The color of the stripe is different from the color of the cylinder body,
It is possible to input three-dimensional data by inputting two-dimensional image data consisting of at least a pixel group corresponding to the stripe and a pixel group corresponding to the cylinder body to the image processing unit via the camera. An input device characterized by that.
前記三次元オブジェクトの動作をカメラで捕捉して少なくとも前記シリンダ本体に対応する画素群と前記ストライプに対応する画素群とからなる二次元的な画像データを得るステップと、
前記二次元的な画像データを解析して前記オブジェクトの三次元的なデータを算出するステップとを含むことを特徴とする三次元オブジェクトの動作を入力する方法。 Manipulating a three-dimensional object composed of a cylinder body with a stripe and a handle;
Capturing the motion of the three-dimensional object with a camera to obtain two-dimensional image data comprising at least a pixel group corresponding to the cylinder body and a pixel group corresponding to the stripe;
Analyzing the two-dimensional image data and calculating three-dimensional data of the object, and inputting a motion of the three-dimensional object.
前記二次元的な画像データの解析ステップが、前記シリンダ本体に対応する画素群と前記ストライプに対応する画素群との関係を解析して前記シリンダ本体の軸を中心とする回転に関するデータを算出するステップを含むことを特徴とする三次元オブジェクトの動作を入力する方法。 The method of claim 12, wherein the stripe is helical.
The two-dimensional image data analysis step analyzes the relationship between the pixel group corresponding to the cylinder body and the pixel group corresponding to the stripe, and calculates data relating to rotation about the axis of the cylinder body. A method of inputting a motion of a three-dimensional object characterized by comprising steps.
前記入力装置の動作を捕捉するカメラと、
画像処理ユニットとからなり、
前記カメラが前記入力装置の動作を捕捉して前記シリンダ本体に対応する画素群と前記ストライプに対応する画素群とからなる二次元的な画像データを前記画像処理ユニットに供給し、
前記画像処理ユニットが前記二次元的な画像データを解析して前記入力装置の動作に基づく三次元的なデータを算出することを特徴とする三次元オブジェクトの動作を入力するシステム。 An input device comprising a cylinder body with a stripe;
A camera that captures the operation of the input device;
An image processing unit,
The camera captures the operation of the input device and supplies two-dimensional image data consisting of a pixel group corresponding to the cylinder body and a pixel group corresponding to the stripe to the image processing unit,
A system for inputting an operation of a three-dimensional object, wherein the image processing unit analyzes the two-dimensional image data and calculates three-dimensional data based on the operation of the input device.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US09/621,578 US6795068B1 (en) | 2000-07-21 | 2000-07-21 | Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001220048A Division JP3901960B2 (en) | 2000-07-21 | 2001-07-19 | A method for mapping objects from 2D camera images to 3D space to control actions in game programs |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2006178948A true JP2006178948A (en) | 2006-07-06 |
| JP2006178948A5 JP2006178948A5 (en) | 2007-01-18 |
| JP4381371B2 JP4381371B2 (en) | 2009-12-09 |
Family
ID=24490736
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001220048A Expired - Lifetime JP3901960B2 (en) | 2000-07-21 | 2001-07-19 | A method for mapping objects from 2D camera images to 3D space to control actions in game programs |
| JP2005351271A Expired - Lifetime JP4381371B2 (en) | 2000-07-21 | 2005-12-05 | Image processing method and recording medium |
Family Applications Before (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001220048A Expired - Lifetime JP3901960B2 (en) | 2000-07-21 | 2001-07-19 | A method for mapping objects from 2D camera images to 3D space to control actions in game programs |
Country Status (3)
| Country | Link |
|---|---|
| US (4) | US6795068B1 (en) |
| EP (1) | EP1176559A3 (en) |
| JP (2) | JP3901960B2 (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2008018943A1 (en) * | 2006-08-08 | 2008-02-14 | Microsoft Corporation | Virtual controller for visual displays |
| WO2008058271A3 (en) * | 2006-11-09 | 2008-08-14 | Intelligence Frontier Media La | Control device with hybrid sensing system comprised of vision-based pattern recognition and electronic signal transmission |
| JP2011522318A (en) * | 2008-05-26 | 2011-07-28 | マイクロソフト インターナショナル ホールディングス ビイ.ヴイ. | Control virtual reality |
| JP2014507020A (en) * | 2010-12-02 | 2014-03-20 | エンパイア テクノロジー ディベロップメント エルエルシー | Augmented reality system |
| JP2017059207A (en) * | 2015-09-18 | 2017-03-23 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Image recognition method |
| US10786736B2 (en) | 2010-05-11 | 2020-09-29 | Sony Interactive Entertainment LLC | Placement of user information in a game space |
Families Citing this family (221)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9155496B2 (en) | 1997-03-04 | 2015-10-13 | Dexcom, Inc. | Low oxygen in vivo analyte sensor |
| US7899511B2 (en) | 2004-07-13 | 2011-03-01 | Dexcom, Inc. | Low oxygen in vivo analyte sensor |
| AUPQ363299A0 (en) * | 1999-10-25 | 1999-11-18 | Silverbrook Research Pty Ltd | Paper based information inter face |
| US6795068B1 (en) * | 2000-07-21 | 2004-09-21 | Sony Computer Entertainment Inc. | Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program |
| DE60236866D1 (en) * | 2001-05-24 | 2010-08-12 | Tecey Software Dev Kg Llc | OPTICAL BUS ARRANGEMENT FOR A COMPUTER SYSTEM |
| US7613491B2 (en) | 2002-05-22 | 2009-11-03 | Dexcom, Inc. | Silicone based membranes for use in implantable glucose sensors |
| US8010174B2 (en) | 2003-08-22 | 2011-08-30 | Dexcom, Inc. | Systems and methods for replacing signal artifacts in a glucose sensor data stream |
| US8260393B2 (en) * | 2003-07-25 | 2012-09-04 | Dexcom, Inc. | Systems and methods for replacing signal data artifacts in a glucose sensor data stream |
| US8364229B2 (en) * | 2003-07-25 | 2013-01-29 | Dexcom, Inc. | Analyte sensors having a signal-to-noise ratio substantially unaffected by non-constant noise |
| US7161579B2 (en) | 2002-07-18 | 2007-01-09 | Sony Computer Entertainment Inc. | Hand-held computer interactive device |
| US7102615B2 (en) * | 2002-07-27 | 2006-09-05 | Sony Computer Entertainment Inc. | Man-machine interface using a deformable device |
| US7646372B2 (en) | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
| US8797260B2 (en) | 2002-07-27 | 2014-08-05 | Sony Computer Entertainment Inc. | Inertially trackable hand-held controller |
| US7623115B2 (en) | 2002-07-27 | 2009-11-24 | Sony Computer Entertainment Inc. | Method and apparatus for light input device |
| US7883415B2 (en) | 2003-09-15 | 2011-02-08 | Sony Computer Entertainment Inc. | Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion |
| US8686939B2 (en) | 2002-07-27 | 2014-04-01 | Sony Computer Entertainment Inc. | System, method, and apparatus for three-dimensional input control |
| US9474968B2 (en) | 2002-07-27 | 2016-10-25 | Sony Interactive Entertainment America Llc | Method and system for applying gearing effects to visual tracking |
| US8313380B2 (en) | 2002-07-27 | 2012-11-20 | Sony Computer Entertainment America Llc | Scheme for translating movements of a hand-held controller into inputs for a system |
| US7760248B2 (en) | 2002-07-27 | 2010-07-20 | Sony Computer Entertainment Inc. | Selective sound source listening in conjunction with computer interactive processing |
| US9393487B2 (en) | 2002-07-27 | 2016-07-19 | Sony Interactive Entertainment Inc. | Method for mapping movements of a hand-held controller to game commands |
| US8570378B2 (en) | 2002-07-27 | 2013-10-29 | Sony Computer Entertainment Inc. | Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera |
| US7782297B2 (en) | 2002-07-27 | 2010-08-24 | Sony Computer Entertainment America Inc. | Method and apparatus for use in determining an activity level of a user in relation to a system |
| US7627139B2 (en) | 2002-07-27 | 2009-12-01 | Sony Computer Entertainment Inc. | Computer image and audio processing of intensity and input devices for interfacing with a computer program |
| US9682319B2 (en) | 2002-07-31 | 2017-06-20 | Sony Interactive Entertainment Inc. | Combiner method for altering game gearing |
| JP2004199496A (en) * | 2002-12-19 | 2004-07-15 | Sony Corp | Information processing apparatus and method, and program |
| WO2004063884A2 (en) * | 2003-01-09 | 2004-07-29 | Evolution Robotics, Inc. | Computer and vision-based augmented interaction in the use of printed media |
| US9177387B2 (en) | 2003-02-11 | 2015-11-03 | Sony Computer Entertainment Inc. | Method and apparatus for real time motion capture |
| US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
| US8075919B2 (en) * | 2003-07-18 | 2011-12-13 | Baxter International Inc. | Methods for fabrication, uses and compositions of small spherical particles prepared by controlled phase separation |
| WO2007120442A2 (en) | 2003-07-25 | 2007-10-25 | Dexcom, Inc. | Dual electrode system for a continuous analyte sensor |
| US7519408B2 (en) | 2003-11-19 | 2009-04-14 | Dexcom, Inc. | Integrated receiver for continuous analyte sensor |
| US20190357827A1 (en) | 2003-08-01 | 2019-11-28 | Dexcom, Inc. | Analyte sensor |
| US8845536B2 (en) * | 2003-08-01 | 2014-09-30 | Dexcom, Inc. | Transcutaneous analyte sensor |
| US20070208245A1 (en) * | 2003-08-01 | 2007-09-06 | Brauker James H | Transcutaneous analyte sensor |
| US8160669B2 (en) * | 2003-08-01 | 2012-04-17 | Dexcom, Inc. | Transcutaneous analyte sensor |
| US6931327B2 (en) | 2003-08-01 | 2005-08-16 | Dexcom, Inc. | System and methods for processing analyte sensor data |
| US20100168657A1 (en) | 2003-08-01 | 2010-07-01 | Dexcom, Inc. | System and methods for processing analyte sensor data |
| US7591801B2 (en) | 2004-02-26 | 2009-09-22 | Dexcom, Inc. | Integrated delivery device for continuous glucose sensor |
| US9135402B2 (en) | 2007-12-17 | 2015-09-15 | Dexcom, Inc. | Systems and methods for processing sensor data |
| US8886273B2 (en) | 2003-08-01 | 2014-11-11 | Dexcom, Inc. | Analyte sensor |
| US7920906B2 (en) | 2005-03-10 | 2011-04-05 | Dexcom, Inc. | System and methods for processing analyte sensor data for sensor calibration |
| US20140121989A1 (en) | 2003-08-22 | 2014-05-01 | Dexcom, Inc. | Systems and methods for processing analyte sensor data |
| US8323106B2 (en) | 2008-05-30 | 2012-12-04 | Sony Computer Entertainment America Llc | Determination of controller three-dimensional location using image analysis and ultrasonic communication |
| US10279254B2 (en) | 2005-10-26 | 2019-05-07 | Sony Interactive Entertainment Inc. | Controller having visually trackable object for interfacing with a gaming system |
| US7874917B2 (en) | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
| US9573056B2 (en) | 2005-10-26 | 2017-02-21 | Sony Interactive Entertainment Inc. | Expandable control device via hardware attachment |
| US8287373B2 (en) | 2008-12-05 | 2012-10-16 | Sony Computer Entertainment Inc. | Control device for communicating visual information |
| US7285047B2 (en) * | 2003-10-17 | 2007-10-23 | Hewlett-Packard Development Company, L.P. | Method and system for real-time rendering within a gaming environment |
| US8133115B2 (en) | 2003-10-22 | 2012-03-13 | Sony Computer Entertainment America Llc | System and method for recording and displaying a graphical path in a video game |
| US9247900B2 (en) | 2004-07-13 | 2016-02-02 | Dexcom, Inc. | Analyte sensor |
| US8287453B2 (en) | 2003-12-05 | 2012-10-16 | Dexcom, Inc. | Analyte sensor |
| US8364231B2 (en) | 2006-10-04 | 2013-01-29 | Dexcom, Inc. | Analyte sensor |
| US8423114B2 (en) | 2006-10-04 | 2013-04-16 | Dexcom, Inc. | Dual electrode system for a continuous analyte sensor |
| US11633133B2 (en) | 2003-12-05 | 2023-04-25 | Dexcom, Inc. | Dual electrode system for a continuous analyte sensor |
| US8532730B2 (en) | 2006-10-04 | 2013-09-10 | Dexcom, Inc. | Analyte sensor |
| EP2239567B1 (en) * | 2003-12-05 | 2015-09-02 | DexCom, Inc. | Calibration techniques for a continuous analyte sensor |
| US7663689B2 (en) | 2004-01-16 | 2010-02-16 | Sony Computer Entertainment Inc. | Method and apparatus for optimizing capture device settings through depth information |
| CA2455359C (en) * | 2004-01-16 | 2013-01-08 | Geotango International Corp. | System, computer program and method for 3d object measurement, modeling and mapping from single imagery |
| US8808228B2 (en) | 2004-02-26 | 2014-08-19 | Dexcom, Inc. | Integrated medicament delivery device for use with continuous analyte sensor |
| US8277713B2 (en) * | 2004-05-03 | 2012-10-02 | Dexcom, Inc. | Implantable analyte sensor |
| US20050245799A1 (en) * | 2004-05-03 | 2005-11-03 | Dexcom, Inc. | Implantable analyte sensor |
| WO2005119356A2 (en) | 2004-05-28 | 2005-12-15 | Erik Jan Banning | Interactive direct-pointing system and calibration method |
| US7713574B2 (en) | 2004-07-13 | 2010-05-11 | Dexcom, Inc. | Transcutaneous analyte sensor |
| US8886272B2 (en) | 2004-07-13 | 2014-11-11 | Dexcom, Inc. | Analyte sensor |
| WO2006127694A2 (en) | 2004-07-13 | 2006-11-30 | Dexcom, Inc. | Analyte sensor |
| US8547401B2 (en) | 2004-08-19 | 2013-10-01 | Sony Computer Entertainment Inc. | Portable augmented reality device and method |
| US20060046851A1 (en) * | 2004-08-24 | 2006-03-02 | Hewlett-Packard Development Company, L.P. | Remote gaming and projection |
| US20060071933A1 (en) | 2004-10-06 | 2006-04-06 | Sony Computer Entertainment Inc. | Application binary interface for multi-pass shaders |
| US8842186B2 (en) | 2004-10-25 | 2014-09-23 | I-Interactive Llc | Control system and method employing identification of a displayed image |
| US8760522B2 (en) | 2005-10-21 | 2014-06-24 | I-Interactive Llc | Multi-directional remote control system and method |
| US8456534B2 (en) | 2004-10-25 | 2013-06-04 | I-Interactive Llc | Multi-directional remote control system and method |
| US7796116B2 (en) | 2005-01-12 | 2010-09-14 | Thinkoptics, Inc. | Electronic equipment for handheld vision based absolute pointing system |
| US20060262188A1 (en) * | 2005-05-20 | 2006-11-23 | Oded Elyada | System and method for detecting changes in an environment |
| US7636126B2 (en) | 2005-06-22 | 2009-12-22 | Sony Computer Entertainment Inc. | Delay matching in audio/video systems |
| US9285897B2 (en) * | 2005-07-13 | 2016-03-15 | Ultimate Pointer, L.L.C. | Easily deployable interactive direct-pointing system and calibration method therefor |
| US7426029B2 (en) | 2005-08-31 | 2008-09-16 | Microsoft Corporation | Color measurement using compact device |
| US7822270B2 (en) * | 2005-08-31 | 2010-10-26 | Microsoft Corporation | Multimedia color management system |
| US7573620B2 (en) * | 2005-09-01 | 2009-08-11 | Microsoft Corporation | Gamuts and gamut mapping |
| US8274714B2 (en) * | 2005-11-30 | 2012-09-25 | Microsoft Corporation | Quantifiable color calibration |
| TWI286484B (en) * | 2005-12-16 | 2007-09-11 | Pixart Imaging Inc | Device for tracking the motion of an object and object for reflecting infrared light |
| US9757061B2 (en) | 2006-01-17 | 2017-09-12 | Dexcom, Inc. | Low oxygen in vivo analyte sensor |
| JP4530419B2 (en) | 2006-03-09 | 2010-08-25 | 任天堂株式会社 | Coordinate calculation apparatus and coordinate calculation program |
| US20070216711A1 (en) * | 2006-03-14 | 2007-09-20 | Microsoft Corporation Microsoft Patent Group | Abstracting transform representations in a graphics API |
| US7965859B2 (en) | 2006-05-04 | 2011-06-21 | Sony Computer Entertainment Inc. | Lighting control of a user environment via a display device |
| EP2460570B1 (en) * | 2006-05-04 | 2013-10-23 | Sony Computer Entertainment America LLC | Scheme for Detecting and Tracking User Manipulation of a Game Controller Body and for Translating Movements Thereof into Inputs and Game Commands |
| US7880746B2 (en) | 2006-05-04 | 2011-02-01 | Sony Computer Entertainment Inc. | Bandwidth management through lighting control of a user environment via a display device |
| US20080001951A1 (en) | 2006-05-07 | 2008-01-03 | Sony Computer Entertainment Inc. | System and method for providing affective characteristics to computer generated avatar during gameplay |
| US7573489B2 (en) | 2006-06-01 | 2009-08-11 | Industrial Light & Magic | Infilling for 2D to 3D image conversion |
| US7573475B2 (en) | 2006-06-01 | 2009-08-11 | Industrial Light & Magic | 2D to 3D image conversion |
| US8013838B2 (en) | 2006-06-30 | 2011-09-06 | Microsoft Corporation | Generating position information using a video camera |
| US8913003B2 (en) | 2006-07-17 | 2014-12-16 | Thinkoptics, Inc. | Free-space multi-dimensional absolute pointer using a projection marker system |
| US8013869B2 (en) * | 2006-09-13 | 2011-09-06 | Adobe Systems Incorporated | Color selection interface |
| US8781151B2 (en) | 2006-09-28 | 2014-07-15 | Sony Computer Entertainment Inc. | Object detection using video input combined with tilt angle information |
| US8310656B2 (en) | 2006-09-28 | 2012-11-13 | Sony Computer Entertainment America Llc | Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen |
| USRE48417E1 (en) | 2006-09-28 | 2021-02-02 | Sony Interactive Entertainment Inc. | Object direction using video input combined with tilt angle information |
| JP2009134677A (en) * | 2007-02-28 | 2009-06-18 | Fuji Xerox Co Ltd | Gesture interface system, wand for gesture input, application control method, camera calibration method, and control program |
| JP2008219788A (en) * | 2007-03-07 | 2008-09-18 | Toshiba Corp | Stereoscopic image display apparatus, method and program |
| US8154561B1 (en) | 2007-03-22 | 2012-04-10 | Adobe Systems Incorporated | Dynamic display of a harmony rule list |
| WO2008120189A1 (en) * | 2007-03-29 | 2008-10-09 | Cam-Trax Technologies Ltd | System and method for tracking an electronic device |
| US9176598B2 (en) | 2007-05-08 | 2015-11-03 | Thinkoptics, Inc. | Free-space multi-dimensional absolute pointer with improved performance |
| US9536322B1 (en) | 2007-05-15 | 2017-01-03 | Peter Harmon Smith | Implementation of multi-camera tracking applications using rich color transition curve target sequences |
| US9070192B1 (en) * | 2007-05-15 | 2015-06-30 | Vision Interface Technologies, LLC | Implementing rich color transition curve tracking for applications |
| US20200037874A1 (en) | 2007-05-18 | 2020-02-06 | Dexcom, Inc. | Analyte sensors having a signal-to-noise ratio substantially unaffected by non-constant noise |
| EP2152350A4 (en) | 2007-06-08 | 2013-03-27 | Dexcom Inc | INTEGRATED MEDICINE DELIVERY DEVICE FOR USE WITH A CONTINUOUS ANALYZING SUBSTANCE SENSOR |
| US8237656B2 (en) * | 2007-07-06 | 2012-08-07 | Microsoft Corporation | Multi-axis motion-based remote control |
| GB2451461A (en) * | 2007-07-28 | 2009-02-04 | Naveen Chawla | Camera based 3D user and wand tracking human-computer interaction system |
| US20090062002A1 (en) * | 2007-08-30 | 2009-03-05 | Bay Tek Games, Inc. | Apparatus And Method of Detecting And Tracking Objects In Amusement Games |
| EP4098177A1 (en) | 2007-10-09 | 2022-12-07 | DexCom, Inc. | Integrated insulin delivery system with continuous glucose sensor |
| US8417312B2 (en) | 2007-10-25 | 2013-04-09 | Dexcom, Inc. | Systems and methods for processing sensor data |
| US8290559B2 (en) | 2007-12-17 | 2012-10-16 | Dexcom, Inc. | Systems and methods for processing sensor data |
| US8542907B2 (en) | 2007-12-17 | 2013-09-24 | Sony Computer Entertainment America Llc | Dynamic three-dimensional object mapping for user-defined control device |
| WO2009108645A1 (en) | 2008-02-27 | 2009-09-03 | Sony Computer Entertainment America Inc. | Methods for capturing depth data of a scene and applying computer actions |
| US8368753B2 (en) | 2008-03-17 | 2013-02-05 | Sony Computer Entertainment America Llc | Controller with an integrated depth camera |
| US9352411B2 (en) | 2008-05-28 | 2016-05-31 | Illinois Tool Works Inc. | Welding training system |
| US8890952B2 (en) | 2008-07-29 | 2014-11-18 | Microsoft Corporation | Imaging system |
| WO2010014069A1 (en) * | 2008-07-31 | 2010-02-04 | Sti Medical Systems, Llc | Single spot focus control |
| WO2010051089A1 (en) * | 2008-10-27 | 2010-05-06 | Sony Computer Entertainment Inc | Control device for communicating visual information |
| FR2939325B1 (en) | 2008-12-04 | 2015-10-16 | Parrot | DRONES SYSTEM WITH RECONNAISSANCE BEACONS |
| US8961313B2 (en) | 2009-05-29 | 2015-02-24 | Sony Computer Entertainment America Llc | Multi-positional three-dimensional controller |
| US8624962B2 (en) * | 2009-02-02 | 2014-01-07 | Ydreams—Informatica, S.A. Ydreams | Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images |
| US8527657B2 (en) | 2009-03-20 | 2013-09-03 | Sony Computer Entertainment America Llc | Methods and systems for dynamically adjusting update rates in multi-player network gaming |
| WO2010108499A2 (en) * | 2009-03-22 | 2010-09-30 | Algreatly Cherif Atia | 3d navigation method and system |
| US8342963B2 (en) | 2009-04-10 | 2013-01-01 | Sony Computer Entertainment America Inc. | Methods and systems for enabling control of artificial intelligence game characters |
| US8393964B2 (en) | 2009-05-08 | 2013-03-12 | Sony Computer Entertainment America Llc | Base station for position location |
| US8142288B2 (en) | 2009-05-08 | 2012-03-27 | Sony Computer Entertainment America Llc | Base station movement detection and compensation |
| US20100295782A1 (en) | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
| US8721444B2 (en) | 2009-07-21 | 2014-05-13 | Sony Corporation | Game device for performing operation object control and non-operation object control |
| US8666781B2 (en) * | 2009-12-23 | 2014-03-04 | Ai Cure Technologies, LLC | Method and apparatus for management of clinical trials |
| US9256776B2 (en) | 2009-11-18 | 2016-02-09 | AI Cure Technologies, Inc. | Method and apparatus for identification |
| US9293060B2 (en) | 2010-05-06 | 2016-03-22 | Ai Cure Technologies Llc | Apparatus and method for recognition of patient activities when obtaining protocol adherence data |
| US20110119073A1 (en) | 2009-11-18 | 2011-05-19 | Al Cure Technologies LLC | Method and Apparatus for Verification of Medication Administration Adherence |
| US10762172B2 (en) | 2010-10-05 | 2020-09-01 | Ai Cure Technologies Llc | Apparatus and method for object confirmation and tracking |
| US9183601B2 (en) | 2010-03-22 | 2015-11-10 | Ai Cure Technologies Llc | Method and apparatus for collection of protocol adherence data |
| US20110153360A1 (en) | 2009-12-23 | 2011-06-23 | Al Cure Technologies LLC | Method and Apparatus for Verification of Clinical Trial Adherence |
| US8605165B2 (en) | 2010-10-06 | 2013-12-10 | Ai Cure Technologies Llc | Apparatus and method for assisting monitoring of medication adherence |
| US8842096B2 (en) * | 2010-01-08 | 2014-09-23 | Crayola Llc | Interactive projection system |
| US9542001B2 (en) * | 2010-01-14 | 2017-01-10 | Brainlab Ag | Controlling a surgical navigation system |
| GB2478911B (en) | 2010-03-22 | 2014-01-08 | Timocco Ltd | Object locating and tracking in video frames using smoothness check along specified line sections |
| US10116903B2 (en) | 2010-05-06 | 2018-10-30 | Aic Innovations Group, Inc. | Apparatus and method for recognition of suspicious activities |
| US9883786B2 (en) | 2010-05-06 | 2018-02-06 | Aic Innovations Group, Inc. | Method and apparatus for recognition of inhaler actuation |
| US9875666B2 (en) | 2010-05-06 | 2018-01-23 | Aic Innovations Group, Inc. | Apparatus and method for recognition of patient activities |
| US9665767B2 (en) | 2011-02-28 | 2017-05-30 | Aic Innovations Group, Inc. | Method and apparatus for pattern tracking |
| US9116553B2 (en) | 2011-02-28 | 2015-08-25 | AI Cure Technologies, Inc. | Method and apparatus for confirmation of object positioning |
| SG184582A1 (en) * | 2011-03-07 | 2012-10-30 | Creative Tech Ltd | A method, system and electronic device for association based identification |
| EP3575796B1 (en) | 2011-04-15 | 2020-11-11 | DexCom, Inc. | Advanced analyte sensor calibration and error detection |
| US8845431B2 (en) | 2011-05-31 | 2014-09-30 | Microsoft Corporation | Shape trace gesturing |
| US8740702B2 (en) | 2011-05-31 | 2014-06-03 | Microsoft Corporation | Action trigger gesturing |
| US8657683B2 (en) | 2011-05-31 | 2014-02-25 | Microsoft Corporation | Action selection gesturing |
| US8884949B1 (en) | 2011-06-06 | 2014-11-11 | Thibault Lambert | Method and system for real time rendering of objects from a low resolution depth camera |
| WO2012172548A1 (en) * | 2011-06-14 | 2012-12-20 | Youval Nehmadi | Method for translating a movement and an orientation of a predefined object into a computer generated data |
| US9342817B2 (en) | 2011-07-07 | 2016-05-17 | Sony Interactive Entertainment LLC | Auto-creating groups for sharing photos |
| US9101994B2 (en) | 2011-08-10 | 2015-08-11 | Illinois Tool Works Inc. | System and device for welding training |
| TWI478098B (en) * | 2011-08-18 | 2015-03-21 | Univ Nat Taiwan | System and method of correcting a depth map for 3d image |
| US10558845B2 (en) | 2011-08-21 | 2020-02-11 | Aic Innovations Group, Inc. | Apparatus and method for determination of medication location |
| KR101830966B1 (en) * | 2011-09-21 | 2018-02-22 | 엘지전자 주식회사 | Electronic device and contents generation method for electronic device |
| US9754357B2 (en) | 2012-03-23 | 2017-09-05 | Panasonic Intellectual Property Corporation Of America | Image processing device, stereoscoopic device, integrated circuit, and program for determining depth of object in real space generating histogram from image obtained by filming real space and performing smoothing of histogram |
| EP2716468A1 (en) * | 2012-10-04 | 2014-04-09 | BlackBerry Limited | Stylus body having two or more spheres coaxially affixed thereto |
| US8948498B1 (en) * | 2012-10-17 | 2015-02-03 | Google Inc. | Systems and methods to transform a colored point cloud to a 3D textured mesh |
| US9583014B2 (en) | 2012-11-09 | 2017-02-28 | Illinois Tool Works Inc. | System and device for welding training |
| US9317136B2 (en) * | 2013-01-10 | 2016-04-19 | UL See Inc. | Image-based object tracking system and image-based object tracking method |
| US9583023B2 (en) | 2013-03-15 | 2017-02-28 | Illinois Tool Works Inc. | Welding torch for a welding training system |
| US9672757B2 (en) | 2013-03-15 | 2017-06-06 | Illinois Tool Works Inc. | Multi-mode software and method for a welding training system |
| US9399111B1 (en) | 2013-03-15 | 2016-07-26 | Aic Innovations Group, Inc. | Method and apparatus for emotional behavior therapy |
| US9713852B2 (en) | 2013-03-15 | 2017-07-25 | Illinois Tool Works Inc. | Welding training systems and devices |
| US9666100B2 (en) | 2013-03-15 | 2017-05-30 | Illinois Tool Works Inc. | Calibration devices for a welding training system |
| US9766709B2 (en) * | 2013-03-15 | 2017-09-19 | Leap Motion, Inc. | Dynamic user interactions for display control |
| US9728103B2 (en) | 2013-03-15 | 2017-08-08 | Illinois Tool Works Inc. | Data storage and analysis for a welding training system |
| US9317916B1 (en) | 2013-04-12 | 2016-04-19 | Aic Innovations Group, Inc. | Apparatus and method for recognition of medication administration indicator |
| US9436851B1 (en) | 2013-05-07 | 2016-09-06 | Aic Innovations Group, Inc. | Geometric encrypted coded image |
| US9857876B2 (en) * | 2013-07-22 | 2018-01-02 | Leap Motion, Inc. | Non-linear motion capture using Frenet-Serret frames |
| US9824297B1 (en) | 2013-10-02 | 2017-11-21 | Aic Innovations Group, Inc. | Method and apparatus for medication identification |
| US10056010B2 (en) | 2013-12-03 | 2018-08-21 | Illinois Tool Works Inc. | Systems and methods for a weld training system |
| US9454840B2 (en) * | 2013-12-13 | 2016-09-27 | Blake Caldwell | System and method for interactive animations for enhanced and personalized video communications |
| US10105782B2 (en) | 2014-01-07 | 2018-10-23 | Illinois Tool Works Inc. | Feedback from a welding torch of a welding system |
| US9751149B2 (en) | 2014-01-07 | 2017-09-05 | Illinois Tool Works Inc. | Welding stand for a welding system |
| US10170019B2 (en) | 2014-01-07 | 2019-01-01 | Illinois Tool Works Inc. | Feedback from a welding torch of a welding system |
| US9589481B2 (en) | 2014-01-07 | 2017-03-07 | Illinois Tool Works Inc. | Welding software for detection and control of devices and for analysis of data |
| US9724788B2 (en) | 2014-01-07 | 2017-08-08 | Illinois Tool Works Inc. | Electrical assemblies for a welding system |
| US9757819B2 (en) | 2014-01-07 | 2017-09-12 | Illinois Tool Works Inc. | Calibration tool and method for a welding system |
| US9679113B2 (en) | 2014-06-11 | 2017-06-13 | Aic Innovations Group, Inc. | Medication adherence monitoring system and method |
| US9443311B2 (en) * | 2014-06-12 | 2016-09-13 | Topcon Positioning Systems, Inc. | Method and system to identify a position of a measurement pole |
| US10665128B2 (en) | 2014-06-27 | 2020-05-26 | Illinois Tool Works Inc. | System and method of monitoring welding information |
| US9937578B2 (en) * | 2014-06-27 | 2018-04-10 | Illinois Tool Works Inc. | System and method for remote welding training |
| US9862049B2 (en) | 2014-06-27 | 2018-01-09 | Illinois Tool Works Inc. | System and method of welding system operator identification |
| US10307853B2 (en) | 2014-06-27 | 2019-06-04 | Illinois Tool Works Inc. | System and method for managing welding data |
| US9769494B2 (en) * | 2014-08-01 | 2017-09-19 | Ati Technologies Ulc | Adaptive search window positioning for video encoding |
| US11014183B2 (en) | 2014-08-07 | 2021-05-25 | Illinois Tool Works Inc. | System and method of marking a welding workpiece |
| US9724787B2 (en) | 2014-08-07 | 2017-08-08 | Illinois Tool Works Inc. | System and method of monitoring a welding environment |
| US9875665B2 (en) | 2014-08-18 | 2018-01-23 | Illinois Tool Works Inc. | Weld training system and method |
| US10402959B2 (en) | 2014-11-05 | 2019-09-03 | Illinois Tool Works Inc. | System and method of active torch marker control |
| US10490098B2 (en) | 2014-11-05 | 2019-11-26 | Illinois Tool Works Inc. | System and method of recording multi-run data |
| US10373304B2 (en) | 2014-11-05 | 2019-08-06 | Illinois Tool Works Inc. | System and method of arranging welding device markers |
| US10210773B2 (en) | 2014-11-05 | 2019-02-19 | Illinois Tool Works Inc. | System and method for welding torch display |
| US10417934B2 (en) | 2014-11-05 | 2019-09-17 | Illinois Tool Works Inc. | System and method of reviewing weld data |
| US10204406B2 (en) | 2014-11-05 | 2019-02-12 | Illinois Tool Works Inc. | System and method of controlling welding system camera exposure and marker illumination |
| GB2533632B (en) * | 2014-12-24 | 2018-01-03 | Gen Electric | Method and system for obtaining low dose tomosynthesis and material decomposition images |
| US10427239B2 (en) | 2015-04-02 | 2019-10-01 | Illinois Tool Works Inc. | Systems and methods for tracking weld training arc parameters |
| US10657839B2 (en) | 2015-08-12 | 2020-05-19 | Illinois Tool Works Inc. | Stick welding electrode holders with real-time feedback features |
| US10373517B2 (en) | 2015-08-12 | 2019-08-06 | Illinois Tool Works Inc. | Simulation stick welding electrode holder systems and methods |
| US10593230B2 (en) | 2015-08-12 | 2020-03-17 | Illinois Tool Works Inc. | Stick welding electrode holder systems and methods |
| US10438505B2 (en) | 2015-08-12 | 2019-10-08 | Illinois Tool Works | Welding training system interface |
| CN106548127B (en) * | 2015-09-18 | 2022-11-04 | 松下电器(美国)知识产权公司 | Image recognition method |
| US9898665B2 (en) | 2015-10-29 | 2018-02-20 | International Business Machines Corporation | Computerized video file analysis tool and method |
| JP6756338B2 (en) * | 2015-12-18 | 2020-09-16 | 株式会社リコー | Image processing equipment, image processing systems, image processing methods and programs |
| EP3408610A4 (en) | 2016-01-25 | 2020-01-01 | Topcon Positioning Systems, Inc. | METHOD AND DEVICE FOR OPTICAL SINGLE CAMERA MEASUREMENTS |
| WO2019060367A1 (en) | 2017-09-19 | 2019-03-28 | Adam Hanina | Apparatus and method for recognition of suspicious activities |
| US11331022B2 (en) | 2017-10-24 | 2022-05-17 | Dexcom, Inc. | Pre-connected analyte sensors |
| EP3700416B1 (en) | 2017-10-24 | 2024-06-26 | Dexcom, Inc. | Pre-connected analyte sensors |
| CN107930125A (en) * | 2017-11-27 | 2018-04-20 | 五华怪兽星球科技有限公司 | A kind of interactive gaming system for having alarm function |
| GB2571953A (en) * | 2018-03-13 | 2019-09-18 | Massless Emea Ltd | Single view tracking of cylindrical objects |
| CN111489711B (en) * | 2019-01-28 | 2022-01-04 | 咸阳彩虹光电科技有限公司 | Method and device for improving low color cast of visual angle by using algorithm and display panel |
| US12066320B2 (en) * | 2019-04-05 | 2024-08-20 | Daedalus Technology Group, Inc. | Calibration system and method |
| US11776423B2 (en) | 2019-07-22 | 2023-10-03 | Illinois Tool Works Inc. | Connection boxes for gas tungsten arc welding training systems |
| US11288978B2 (en) | 2019-07-22 | 2022-03-29 | Illinois Tool Works Inc. | Gas tungsten arc welding training systems |
| GB2586059B (en) | 2019-08-01 | 2023-06-07 | Sony Interactive Entertainment Inc | System and method for generating user inputs for a video game |
| CN111080719A (en) * | 2019-12-26 | 2020-04-28 | 四川航天神坤科技有限公司 | Video registration method and device |
| US11893808B2 (en) * | 2020-11-30 | 2024-02-06 | Mangolytics, Inc. | Learning-based 3D property extraction |
| JP2022133769A (en) * | 2021-03-02 | 2022-09-14 | 本田技研工業株式会社 | VEHICLE CONTROL DEVICE AND VEHICLE CONTROL METHOD |
| CN115129191B (en) * | 2021-03-26 | 2023-08-15 | 北京新氧科技有限公司 | Three-dimensional object picking method, device, equipment and storage medium |
| KR20230020845A (en) * | 2021-08-04 | 2023-02-13 | 현대자동차주식회사 | Electronic deivce and method for tracking object thereof |
| WO2023181568A1 (en) * | 2022-03-25 | 2023-09-28 | 株式会社ワコム | Controller and computer |
Family Cites Families (111)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US561100A (en) * | 1896-06-02 | Andrew b | ||
| US3943277A (en) | 1969-02-20 | 1976-03-09 | The United States Of America As Represented By The Secretary Of The Navy | Digital memory area correlation tracker |
| NL7509871A (en) * | 1975-08-20 | 1977-02-22 | Philips Nv | COLOR TV CHROMA KEY SIGNAL GENERATOR. |
| US4133004A (en) | 1977-11-02 | 1979-01-02 | Hughes Aircraft Company | Video correlation tracker |
| US4448200A (en) | 1978-03-27 | 1984-05-15 | University Of Southern California | System and method for dynamic background subtraction |
| JPS5846783A (en) * | 1981-09-12 | 1983-03-18 | Sony Corp | Chromakey device |
| JPS592040U (en) | 1982-06-28 | 1984-01-07 | 日本電気ホームエレクトロニクス株式会社 | joystick control device |
| FI68131C (en) * | 1983-06-30 | 1985-07-10 | Valtion Teknillinen | REFERENCE FOR A WINDOW MACHINE WITH A GLASS LED WITH A LASER INDICATOR |
| IL69327A (en) | 1983-07-26 | 1986-11-30 | Elscint Ltd | Automatic misregistration correction |
| US4675562A (en) * | 1983-08-01 | 1987-06-23 | Fairchild Semiconductor Corporation | Method and apparatus for dynamically controlling the timing of signals in automatic test systems |
| US4649504A (en) * | 1984-05-22 | 1987-03-10 | Cae Electronics, Ltd. | Optical position and orientation measurement techniques |
| US4672564A (en) * | 1984-11-15 | 1987-06-09 | Honeywell Inc. | Method and apparatus for determining location and orientation of objects |
| JPS61131110A (en) | 1984-11-30 | 1986-06-18 | Fujitsu Ltd | Input device |
| IL77610A (en) * | 1986-01-15 | 1994-01-25 | Technion Res & Dev Foundation | Single camera three-dimensional head position sensing system |
| US4843568A (en) | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
| JP2603947B2 (en) * | 1986-09-26 | 1997-04-23 | オリンパス光学工業株式会社 | Apparatus for detecting corresponding areas between primary color images |
| US4864515A (en) * | 1987-03-30 | 1989-09-05 | Honeywell Inc. | Electronic sensing screen for measuring projectile parameters |
| US5162781A (en) * | 1987-10-02 | 1992-11-10 | Automated Decisions, Inc. | Orientational mouse computer input system |
| US5363120A (en) | 1987-10-14 | 1994-11-08 | Wang Laboratories, Inc. | Computer input device using orientation sensor |
| US4942538A (en) * | 1988-01-05 | 1990-07-17 | Spar Aerospace Limited | Telerobotic tracker |
| US4991223A (en) * | 1988-06-30 | 1991-02-05 | American Innovision, Inc. | Apparatus and method for recognizing image features using color elements |
| US4933864A (en) * | 1988-10-04 | 1990-06-12 | Transitions Research Corporation | Mobile robot navigation employing ceiling light fixtures |
| US5045843B1 (en) * | 1988-12-06 | 1996-07-16 | Selectech Ltd | Optical pointing device |
| US5034986A (en) | 1989-03-01 | 1991-07-23 | Siemens Aktiengesellschaft | Method for detecting and tracking moving objects in a digital image sequence having a stationary background |
| CA2035034C (en) * | 1989-06-20 | 1998-01-20 | Toshihiko Morita | Method for measuring position and orientation of object |
| FR2652972B1 (en) * | 1989-10-06 | 1996-11-29 | Thomson Video Equip | METHOD AND DEVICE FOR INTEGRATING SELF-ADAPTIVE COLOR VIDEO IMAGES. |
| GB9001468D0 (en) | 1990-01-23 | 1990-03-21 | Sarnoff David Res Center | Computing multiple motions within an image region |
| US5668646A (en) * | 1990-02-06 | 1997-09-16 | Canon Kabushiki Kaisha | Apparatus and method for decoding differently encoded multi-level and binary image data, the later corresponding to a color in the original image |
| ATE137377T1 (en) * | 1990-02-06 | 1996-05-15 | Canon Kk | IMAGE PROCESSING DEVICE |
| US5128671A (en) * | 1990-04-12 | 1992-07-07 | Ltv Aerospace And Defense Company | Control device having multiple degrees of freedom |
| US5208763A (en) * | 1990-09-14 | 1993-05-04 | New York University | Method and apparatus for determining position and orientation of mechanical objects |
| US5128794A (en) * | 1990-12-31 | 1992-07-07 | Honeywell Inc. | Scanning laser helmet mounted sight |
| US5534917A (en) | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
| US5548667A (en) * | 1991-05-24 | 1996-08-20 | Sony Corporation | Image processing system and method thereof in which three dimensional shape is reproduced from two dimensional image data |
| US5227985A (en) * | 1991-08-19 | 1993-07-13 | University Of Maryland | Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object |
| US5212888A (en) * | 1991-09-16 | 1993-05-25 | Calcomp Inc. | Dual function sensor for a pen plotter |
| US5335557A (en) * | 1991-11-26 | 1994-08-09 | Taizo Yasutake | Touch sensitive input control device |
| US5631697A (en) * | 1991-11-27 | 1997-05-20 | Hitachi, Ltd. | Video camera capable of automatic target tracking |
| US5230623A (en) * | 1991-12-10 | 1993-07-27 | Radionics, Inc. | Operating pointer with interactive computergraphics |
| US5680487A (en) | 1991-12-23 | 1997-10-21 | Texas Instruments Incorporated | System and method for determining optical flow |
| US5577179A (en) * | 1992-02-25 | 1996-11-19 | Imageware Software, Inc. | Image editing system |
| US5307137A (en) * | 1992-03-16 | 1994-04-26 | Mark F. Jones | Terrain imaging apparatus and method |
| US5450504A (en) | 1992-05-19 | 1995-09-12 | Calia; James | Method for finding a most likely matching of a target facial image in a data base of facial images |
| JP3391405B2 (en) * | 1992-05-29 | 2003-03-31 | 株式会社エフ・エフ・シー | Object identification method in camera image |
| US5473736A (en) * | 1992-06-08 | 1995-12-05 | Chroma Graphics | Method and apparatus for ordering and remapping colors in images of real two- and three-dimensional objects |
| JP3244798B2 (en) | 1992-09-08 | 2002-01-07 | 株式会社東芝 | Moving image processing device |
| US5982352A (en) * | 1992-09-18 | 1999-11-09 | Pryor; Timothy R. | Method for providing human input to a computer |
| US5469193A (en) * | 1992-10-05 | 1995-11-21 | Prelude Technology Corp. | Cordless pointing apparatus |
| JP3679426B2 (en) | 1993-03-15 | 2005-08-03 | マサチューセッツ・インスティチュート・オブ・テクノロジー | A system that encodes image data into multiple layers, each representing a coherent region of motion, and motion parameters associated with the layers. |
| GB9308952D0 (en) * | 1993-04-30 | 1993-06-16 | Philips Electronics Uk Ltd | Tracking objects in video sequences |
| US5297061A (en) * | 1993-05-19 | 1994-03-22 | University Of Maryland | Three dimensional pointing device monitored by computer vision |
| DE69433074D1 (en) * | 1993-07-02 | 2003-10-02 | Siemens Corp Res Inc | Background recovery in monocular image processing |
| US5598514A (en) * | 1993-08-09 | 1997-01-28 | C-Cube Microsystems | Structure and method for a multistandard video encoder/decoder |
| JPH07160412A (en) | 1993-12-10 | 1995-06-23 | Nippon Telegr & Teleph Corp <Ntt> | Pointed position detection method |
| JP2552427B2 (en) | 1993-12-28 | 1996-11-13 | コナミ株式会社 | Tv play system |
| FR2714502A1 (en) | 1993-12-29 | 1995-06-30 | Philips Laboratoire Electroniq | An image processing method and apparatus for constructing from a source image a target image with perspective change. |
| US5611000A (en) | 1994-02-22 | 1997-03-11 | Digital Equipment Corporation | Spline-based image registration |
| FR2720977B1 (en) * | 1994-06-09 | 1996-09-06 | Michelin & Cie | Method for mounting an assembly formed by a tire and a tread support support. |
| US5649032A (en) | 1994-11-14 | 1997-07-15 | David Sarnoff Research Center, Inc. | System for automatically aligning images to form a mosaic image |
| GB2295936B (en) | 1994-12-05 | 1997-02-05 | Microsoft Corp | Progressive image transmission using discrete wavelet transforms |
| US5757360A (en) * | 1995-05-03 | 1998-05-26 | Mitsubishi Electric Information Technology Center America, Inc. | Hand held computer control device |
| US5672820A (en) * | 1995-05-16 | 1997-09-30 | Boeing North American, Inc. | Object location identification system for providing location data of an object being pointed at by a pointing device |
| US5913727A (en) | 1995-06-02 | 1999-06-22 | Ahdoot; Ned | Interactive movement and contact simulation game |
| US5805745A (en) | 1995-06-26 | 1998-09-08 | Lucent Technologies Inc. | Method for locating a subject's lips in a facial image |
| US6199093B1 (en) * | 1995-07-21 | 2001-03-06 | Nec Corporation | Processor allocating method/apparatus in multiprocessor system, and medium for storing processor allocating program |
| US5856844A (en) * | 1995-09-21 | 1999-01-05 | Omniplanar, Inc. | Method and apparatus for determining position and orientation |
| US5933535A (en) | 1995-10-05 | 1999-08-03 | Microsoft Corporation | Object-based video compression process employing arbitrarily-shaped features |
| US5818424A (en) * | 1995-10-19 | 1998-10-06 | International Business Machines Corporation | Rod shaped device and data acquisition apparatus for determining the position and orientation of an object in space |
| GB2306834B8 (en) * | 1995-11-03 | 2000-02-01 | Abbotsbury Software Ltd | Tracking apparatus for use in tracking an object |
| US5825308A (en) | 1996-11-26 | 1998-10-20 | Immersion Human Interface Corporation | Force feedback interface having isotonic and isometric functionality |
| FR2741769B1 (en) * | 1995-11-23 | 1997-12-19 | Thomson Broadcast Systems | PROCESS FOR PROCESSING THE SIGNAL CONSTITUTED BY A SUBJECT EVOLVING BEFORE A COLORED BACKGROUND AND DEVICE IMPLEMENTING THIS METHOD |
| FR2741770B1 (en) * | 1995-11-23 | 1998-01-02 | Thomson Broadcast Systems | METHOD FOR CALCULATING A CUTTING KEY OF A SUBJECT EVOLVING IN FRONT OF A COLORED BACKGROUND AND DEVICE IMPLEMENTING THIS METHOD |
| US5963209A (en) | 1996-01-11 | 1999-10-05 | Microsoft Corporation | Encoding and progressive transmission of progressive meshes |
| US6049619A (en) | 1996-02-12 | 2000-04-11 | Sarnoff Corporation | Method and apparatus for detecting moving objects in two- and three-dimensional scenes |
| US6009188A (en) | 1996-02-16 | 1999-12-28 | Microsoft Corporation | Method and system for digital plenoptic imaging |
| US5764803A (en) * | 1996-04-03 | 1998-06-09 | Lucent Technologies Inc. | Motion-adaptive modelling of scene content for very low bit rate model-assisted coding of video sequences |
| US5889505A (en) * | 1996-04-04 | 1999-03-30 | Yale University | Vision-based six-degree-of-freedom computer input device |
| US5923318A (en) | 1996-04-12 | 1999-07-13 | Zhai; Shumin | Finger manipulatable 6 degree-of-freedom input device |
| US5805170A (en) | 1996-05-07 | 1998-09-08 | Microsoft Corporation | Systems and methods for wrapping a closed polygon around an object |
| CN1131495C (en) * | 1996-08-29 | 2003-12-17 | 三洋电机株式会社 | Characteristic Information Assignment Method and Device |
| JPH1078768A (en) * | 1996-09-04 | 1998-03-24 | Alps Electric Co Ltd | Gradation display control device |
| US6121953A (en) | 1997-02-06 | 2000-09-19 | Modern Cartoons, Ltd. | Virtual reality system for sensing facial movements |
| JP3870422B2 (en) * | 1997-02-20 | 2007-01-17 | ソニー株式会社 | Video signal processing apparatus and method, image composition apparatus, and editing apparatus |
| US5864742A (en) * | 1997-04-11 | 1999-01-26 | Eastman Kodak Company | Copy restrictive system using microdots to restrict copying of color-reversal documents |
| US5917937A (en) | 1997-04-15 | 1999-06-29 | Microsoft Corporation | Method for performing stereo matching to recover depths, colors and opacities of surface elements |
| US6072504A (en) | 1997-06-20 | 2000-06-06 | Lucent Technologies Inc. | Method and apparatus for tracking, storing, and synthesizing an animated version of object motion |
| US6049636A (en) | 1997-06-27 | 2000-04-11 | Microsoft Corporation | Determining a rectangular box encompassing a digital picture within a digital image |
| US5990901A (en) | 1997-06-27 | 1999-11-23 | Microsoft Corporation | Model based image editing and correction |
| US6018349A (en) | 1997-08-01 | 2000-01-25 | Microsoft Corporation | Patch-based alignment method and apparatus for construction of image mosaics |
| US5987164A (en) | 1997-08-01 | 1999-11-16 | Microsoft Corporation | Block adjustment method and apparatus for construction of image mosaics |
| US5986668A (en) | 1997-08-01 | 1999-11-16 | Microsoft Corporation | Deghosting method and apparatus for construction of image mosaics |
| US6044181A (en) | 1997-08-01 | 2000-03-28 | Microsoft Corporation | Focal length estimation method and apparatus for construction of panoramic mosaic images |
| US6009190A (en) | 1997-08-01 | 1999-12-28 | Microsoft Corporation | Texture map construction method and apparatus for displaying panoramic image mosaics |
| US6720949B1 (en) * | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
| AUPO894497A0 (en) * | 1997-09-02 | 1997-09-25 | Xenotech Research Pty Ltd | Image processing method and apparatus |
| US6031934A (en) | 1997-10-15 | 2000-02-29 | Electric Planet, Inc. | Computer vision system for subject characterization |
| US6101289A (en) | 1997-10-15 | 2000-08-08 | Electric Planet, Inc. | Method and apparatus for unencumbered capture of an object |
| US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
| US5905894A (en) | 1997-10-29 | 1999-05-18 | Microsoft Corporation | Meta-programming methods and apparatus |
| US6162123A (en) | 1997-11-25 | 2000-12-19 | Woolston; Thomas G. | Interactive electronic sword game |
| US6172354B1 (en) * | 1998-01-28 | 2001-01-09 | Microsoft Corporation | Operator input device |
| US6512507B1 (en) * | 1998-03-31 | 2003-01-28 | Seiko Epson Corporation | Pointing position detection device, presentation system, and method, and computer-readable medium |
| US6171190B1 (en) * | 1998-05-27 | 2001-01-09 | Act Labs, Ltd. | Photosensitive input peripheral device in a personal computer-based video gaming platform |
| US6563499B1 (en) * | 1998-07-20 | 2003-05-13 | Geometrix, Inc. | Method and apparatus for generating a 3D region from a surrounding imagery |
| JP3748172B2 (en) * | 1998-12-09 | 2006-02-22 | 富士通株式会社 | Image processing device |
| DE19917660A1 (en) | 1999-04-19 | 2000-11-02 | Deutsch Zentr Luft & Raumfahrt | Method and input device for controlling the position of an object to be graphically represented in a virtual reality |
| US6917692B1 (en) * | 1999-05-25 | 2005-07-12 | Thomson Licensing S.A. | Kalman tracking of color objects |
| US6417836B1 (en) * | 1999-08-02 | 2002-07-09 | Lucent Technologies Inc. | Computer input device having six degrees of freedom for controlling movement of a three-dimensional object |
| US6594388B1 (en) * | 2000-05-25 | 2003-07-15 | Eastman Kodak Company | Color image reproduction of scenes with preferential color mapping and scene-dependent tone scaling |
| US6795068B1 (en) * | 2000-07-21 | 2004-09-21 | Sony Computer Entertainment Inc. | Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program |
| JP3581835B2 (en) * | 2001-03-14 | 2004-10-27 | 株式会社イマジカ | Color conversion method and apparatus in chroma key processing |
-
2000
- 2000-07-21 US US09/621,578 patent/US6795068B1/en not_active Expired - Lifetime
-
2001
- 2001-07-19 JP JP2001220048A patent/JP3901960B2/en not_active Expired - Lifetime
- 2001-07-20 EP EP01306264A patent/EP1176559A3/en not_active Withdrawn
-
2004
- 2004-08-26 US US10/928,778 patent/US20050026689A1/en not_active Abandoned
- 2004-08-26 US US10/927,918 patent/US7113193B2/en not_active Expired - Lifetime
-
2005
- 2005-12-05 JP JP2005351271A patent/JP4381371B2/en not_active Expired - Lifetime
-
2006
- 2006-06-06 US US11/448,454 patent/US20060238549A1/en not_active Abandoned
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8552976B2 (en) | 2006-08-08 | 2013-10-08 | Microsoft Corporation | Virtual controller for visual displays |
| US7907117B2 (en) | 2006-08-08 | 2011-03-15 | Microsoft Corporation | Virtual controller for visual displays |
| WO2008018943A1 (en) * | 2006-08-08 | 2008-02-14 | Microsoft Corporation | Virtual controller for visual displays |
| US8049719B2 (en) | 2006-08-08 | 2011-11-01 | Microsoft Corporation | Virtual controller for visual displays |
| US8115732B2 (en) | 2006-08-08 | 2012-02-14 | Microsoft Corporation | Virtual controller for visual displays |
| WO2008058271A3 (en) * | 2006-11-09 | 2008-08-14 | Intelligence Frontier Media La | Control device with hybrid sensing system comprised of vision-based pattern recognition and electronic signal transmission |
| JP2011522318A (en) * | 2008-05-26 | 2011-07-28 | マイクロソフト インターナショナル ホールディングス ビイ.ヴイ. | Control virtual reality |
| US8860713B2 (en) | 2008-05-26 | 2014-10-14 | Microsoft International Holdings B.V. | Controlling virtual reality |
| US10786736B2 (en) | 2010-05-11 | 2020-09-29 | Sony Interactive Entertainment LLC | Placement of user information in a game space |
| US11478706B2 (en) | 2010-05-11 | 2022-10-25 | Sony Interactive Entertainment LLC | Placement of user information in a game space |
| JP2014507020A (en) * | 2010-12-02 | 2014-03-20 | エンパイア テクノロジー ディベロップメント エルエルシー | Augmented reality system |
| US9215530B2 (en) | 2010-12-02 | 2015-12-15 | Empire Technology Development Llc | Augmented reality system |
| JP2017059207A (en) * | 2015-09-18 | 2017-03-23 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Image recognition method |
Also Published As
| Publication number | Publication date |
|---|---|
| US7113193B2 (en) | 2006-09-26 |
| US6795068B1 (en) | 2004-09-21 |
| JP3901960B2 (en) | 2007-04-04 |
| US20050026689A1 (en) | 2005-02-03 |
| EP1176559A2 (en) | 2002-01-30 |
| US20050024379A1 (en) | 2005-02-03 |
| JP2002140705A (en) | 2002-05-17 |
| EP1176559A3 (en) | 2007-11-14 |
| US20060238549A1 (en) | 2006-10-26 |
| JP4381371B2 (en) | 2009-12-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4381371B2 (en) | Image processing method and recording medium | |
| KR101320134B1 (en) | Method and device for the real time imbedding of virtual objects in an image stream using data from a real scene represented by said images | |
| JP5368454B2 (en) | Image analysis apparatus and method | |
| JP5325992B2 (en) | Determining the position and movement of the controller attached to the ball | |
| US20210225080A1 (en) | Information processing apparatus, information processing method, and storage medium | |
| US8542250B2 (en) | Entertainment device, system, and method | |
| US6937255B2 (en) | Imaging apparatus and method of the same | |
| US6864886B1 (en) | Enhancing video using a virtual surface | |
| US7928976B2 (en) | Telestrator system | |
| JP4004408B2 (en) | Video information compression method | |
| JP6697986B2 (en) | Information processing apparatus and image area dividing method | |
| US20090318228A1 (en) | Apparatus and method of interaction with a data processor | |
| CN101751672A (en) | Image processing system | |
| JP2010526295A (en) | Scanning 3D objects using a video camera and TV monitor | |
| JP2019197279A (en) | Image processing apparatus, method for controlling image processing apparatus, and program | |
| JP4125251B2 (en) | Information processing method and apparatus | |
| JP2022026844A (en) | Image processing apparatus, image processing method, and program | |
| JP7733413B2 (en) | Information processing device, information processing method, and program | |
| JP7500333B2 (en) | GENERATION DEVICE, GENERATION METHOD, AND PROGRAM | |
| JP7500325B2 (en) | Imaging control device, evaluation system, imaging control method and program | |
| US20250061646A1 (en) | Rendering method and system | |
| JP7418107B2 (en) | Shape estimation device, shape estimation method and program | |
| JP7444655B2 (en) | Image processing device, its control method, and program | |
| JP2005274887A (en) | Image display system, image display program, and image display method | |
| JP2001511272A (en) | Method and apparatus for encoding a digitized image |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060501 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061129 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090303 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090501 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090526 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090723 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090818 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090915 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121002 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 4381371 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131002 Year of fee payment: 4 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| EXPY | Cancellation because of completion of term |