[go: up one dir, main page]

JP2006178948A - Prop input device and method for mapping object from two-dimensional camera image to three-dimensional space for controlling action in game program - Google Patents

Prop input device and method for mapping object from two-dimensional camera image to three-dimensional space for controlling action in game program Download PDF

Info

Publication number
JP2006178948A
JP2006178948A JP2005351271A JP2005351271A JP2006178948A JP 2006178948 A JP2006178948 A JP 2006178948A JP 2005351271 A JP2005351271 A JP 2005351271A JP 2005351271 A JP2005351271 A JP 2005351271A JP 2006178948 A JP2006178948 A JP 2006178948A
Authority
JP
Japan
Prior art keywords
pixel group
cylinder
color
dimensional
stripe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005351271A
Other languages
Japanese (ja)
Other versions
JP4381371B2 (en
JP2006178948A5 (en
Inventor
Richard L Marks
エル.マークス リチャード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Publication of JP2006178948A publication Critical patent/JP2006178948A/en
Publication of JP2006178948A5 publication Critical patent/JP2006178948A5/ja
Application granted granted Critical
Publication of JP4381371B2 publication Critical patent/JP4381371B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a prop input device which does not require the calibration of a system dependent on lighting conditions. <P>SOLUTION: A hand-manipulated prop is picked up via a single video camera, and the part of the image pertaining to the object is isolated for mapping the position and orientation of the object into a three-dimensional space. The three-dimensional information of the object is stored in a memory and used for controlling action in a game program corresponding to a virtual object in a scene on a video screen. Algorithms for deriving the three-dimensional information for various props employ geometry processing including an area information computation, edge detection and/or color transition localization to find the position and orientation of the prop from two-dimensional pixel data. Colors of stripes on the props are determined so that separation in a two-dimentional chrominance color space is maximized, aiming at detecting significant color transitions. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、コンピュータビジョンシステムに関し、より具体的には、ビデオカメラによってオブジェクトを捕捉し、カメラ画像の解析によってオブジェクトに関する画像の部分を分離させ、さらに、オブジェクトの位置および方向を三次元空間にマッピングするシステムに関する。オブジェクトの三次元的な情報はメモリに格納され、ビデオ画面上のシーンにおける仮想オブジェクトのレンダリング等、ゲームプログラムにおけるアクションの制御に用いられる。   The present invention relates to a computer vision system, and more specifically, an object is captured by a video camera, an image portion related to the object is separated by analysis of a camera image, and the position and direction of the object are mapped to a three-dimensional space. Related to the system. The three-dimensional information of the object is stored in a memory and used for controlling actions in the game program such as rendering of a virtual object in a scene on a video screen.

デジタルビデオカメラを用いて動いているオブジェクトを捕捉すること、また、このビデオカメラによって取り込まれたビデオ画像を処理して様々な画面を表示させることは公知の技術である。一例として、Segenを発明者とする特許文献1(以下、Segen特許という)にはスポーツのイベントをアニメーションにする方法が開示されている。本発明は、このSegen特許を参照することによって、その開示内容を本明細書中に組み込んだものとする。この方法によれば、競技中のテニスボールの位置が複数のビデオカメラによって捕捉され、テニスコートにおける三次元的なポイントとカメラの視野の中のデジタル画像における二次元的なポイント(画素)との関連を示す一組の数式が用いられている。特定のデジタル画像において示されたボールを構成する各画素の位置は、競技に使用されているボールの具体的な三次元的な位置に関連付けられ、各ビデオ画像を三角形分割することによって、衝撃が加えられていない状態のボールの運動セグメントを示す軌跡式に、ボールの位置を合わせるように、一連の画像フレームが最小2乗法を用いて分析される。   It is a well-known technique to capture a moving object using a digital video camera and to process various video images captured by the video camera to display various screens. As an example, Patent Document 1 (hereinafter referred to as the Segen patent) in which Segen is an inventor discloses a method for animating a sports event. The present invention is incorporated herein by reference to this Segen patent. According to this method, the position of the tennis ball in the game is captured by a plurality of video cameras, and a three-dimensional point on the tennis court and a two-dimensional point (pixel) in the digital image in the camera field of view. A set of mathematical formulas showing the relationship is used. The position of each pixel that makes up the ball shown in a particular digital image is related to the specific three-dimensional position of the ball being used in the game, and by impacting each video image by triangulation, A series of image frames are analyzed using a least squares method to align the ball with a trajectory that represents the motion segment of the ball in the unloaded state.

Segen特許においてある程度説明されているが、オブジェクトの位置と運動に関する三次元的な情報が求められれば、本技術分野において公知となっている様々な方法を用いてオブジェクトの動作をアニメーションとして再現することができる。このような方法においては、ビデオゲームにおいてオブジェクトのアニメーションを適切に作り出すためのプログラムが用いられる。   As described to some extent in the Segen patent, if three-dimensional information about the position and motion of an object is required, the motion of the object can be reproduced as an animation using various methods known in the art. Can do. In such a method, a program for appropriately creating an animation of an object in a video game is used.

つまり、Segen特許は、一定期間内に取り込まれた複数の二次元的なビデオ画像に基づいて運動中のオブジェクトの三次元的な位置を求めるようにしている。「現実」のオブジェクトの三次元的な位置を求めることができれば、この情報を用いて、ゲームプログラマに一般的に知られている様々な方法により、ゲームプログラムを制御することが可能となる。   That is, the Segen patent seeks to determine the three-dimensional position of a moving object based on a plurality of two-dimensional video images captured within a certain period. If the three-dimensional position of the “real” object can be obtained, this information can be used to control the game program by various methods generally known to game programmers.

しかしながら、Segen特許のシステムは、三角形分割を用いた分析に基づいてオブジェクトに関する位置情報を得るものであるため、複数のビデオカメラを必要とする。さらに、Segen特許によって検出されるオブジェクトは、単純な球体であるため、空間内におけるオブジェクトの方向の位置情報(例えば、傾き)を含んでいない。従って、Segen特許のシステムでは、オブジェクトが動いている場合であっても静止している場合であっても、一つのビデオカメラを使った二次元的なビデオ画像に基づいてオブジェクトの位置および方向を再現することができない。   However, the system of the Segen patent requires multiple video cameras because it obtains position information about the object based on analysis using triangulation. Furthermore, since the object detected by the Segen patent is a simple sphere, it does not include position information (for example, tilt) in the direction of the object in space. Therefore, in the Segen patent system, the position and orientation of an object can be determined based on a two-dimensional video image using a single video camera, whether the object is moving or stationary. It cannot be reproduced.

ゲームプログラムは、通常、三次元的な幾何学的形状を組み合わせた仮想オブジェクトを用いている。ゲームプログラムの実行中、各オブジェクト間の三次元的な情報(位置および方向)は、ジョイスティック、ゲームコントローラ等の入力装置を用いて入力された制御入力パラメータによって決定される。仮想的なオブジェクトの三次元的な位置および情報は、背景設定、照明設定、さらに、陰影付け等を行った後、二次元的な画面に投影され、ゲーム機のレンダリング処理機能によって三次元的な遠近感のあるシーンが作り出される。   Game programs typically use virtual objects that combine three-dimensional geometric shapes. During execution of the game program, three-dimensional information (position and direction) between the objects is determined by control input parameters input using an input device such as a joystick or a game controller. The three-dimensional position and information of a virtual object are projected on a two-dimensional screen after performing background setting, lighting setting, shading, etc., and three-dimensional by the rendering processing function of the game machine. A scene with a sense of perspective is created.

例として、画面に表示されている動画の一部として「現実」のオブジェクトの動作に従って動作する「仮想オブジェクト」を想定する。仮想オブジェクトを表示するために、算出された三次元的な情報は、ゲーム機のメモリ空間内で「仮想オブジェクト」の位置および方向の決定に用いられ、画像のレンダリングが公知の投影処理によって行われ、三次元的な情報が、遠近感のあるリアルな画像として画面に表示される。   As an example, a “virtual object” that operates according to the operation of a “real” object as part of a moving image displayed on the screen is assumed. In order to display the virtual object, the calculated three-dimensional information is used to determine the position and direction of the “virtual object” in the memory space of the game machine, and the image is rendered by a known projection process. Three-dimensional information is displayed on the screen as a realistic image with perspective.

しかしながら、上述した技術においては、種々の問題によって、オブジェクトの捕捉が成功しないことがある。即ち、対象となっているオブジェクトに明らかに対応するビデオ画像の画素のみを正確に抽出する際に、特に重大な問題がある。例えば、オブジェクトが単色であり、かつ、このオブジェクトの色とは大幅に異なる単色を背景に用いているような場合であれば、オブジェクトの動きを捕捉することは比較的容易である。しかしながら、オブジェクトに鮮やかな色が用いられていても、背景に複数の色が用いられていたり、背景が動いていたりしているのであれば、オブジェクトの捕捉は容易ではない。また、照明の条件が変更されれば、ビデオカメラによって捕捉されるオブジェクトの見かけの色に大きな影響が及ぼされる。従って、特定の色のオブジェクトを検出するようなオブジェクトの検出方法では、大きな誤差が生じやすく、照明条件の変更に伴い、常時、再較正を行わなければならない。ビデオゲームプログラムを一般的な家庭で使用するには、従来のオブジェクトを捕捉するためのコンピュータビジョンシステムの柔軟性かつ信頼性を飛躍的に高める必要がある。   However, in the above-described technique, the capture of the object may not be successful due to various problems. That is, there is a particularly serious problem in accurately extracting only the pixels of the video image that clearly correspond to the object of interest. For example, if the object is a single color and uses a single color for the background that is significantly different from the color of the object, it is relatively easy to capture the movement of the object. However, even if a bright color is used for the object, it is not easy to capture the object if a plurality of colors are used for the background or the background is moving. Also, if the lighting conditions are changed, the apparent color of the object captured by the video camera is greatly affected. Therefore, in an object detection method that detects an object of a specific color, a large error is likely to occur, and recalibration must always be performed as the illumination condition changes. In order to use a video game program in a general home, it is necessary to dramatically increase the flexibility and reliability of a computer vision system for capturing conventional objects.

米国特許第6,072,504号明細書US Pat. No. 6,072,504

本発明は、ビデオゲームプログラムに適したオブジェクト捕捉システムを提供することを目的とし、上述した従来技術における不都合を解決し、オブジェクト、即ち、入力装置として機能する柱状オブジェクトの位置および方向を捕捉してゲームプログラムにおけるアクションを実行させることが可能なオブジェクト捕捉システムを提供することを目的とする。   An object of the present invention is to provide an object capturing system suitable for a video game program, solve the above-described disadvantages in the prior art, and capture the position and direction of an object, ie, a columnar object that functions as an input device. An object is to provide an object capturing system capable of executing an action in a game program.

本発明の別の目的は、従来のジョイスティックに代替するゲームのためのインタフェースを提供することである。ユーザは、ゲーム機に接続されたビデオカメラの前に立ってカメラの視野内で物理的にオブジェクトを動作させる(操作する)ことによってゲームにおけるアクションを発生させることができる。   Another object of the present invention is to provide an interface for a game that replaces a conventional joystick. A user can generate an action in a game by standing in front of a video camera connected to a game machine and physically moving (manipulating) an object within the field of view of the camera.

また、本発明の別の目的は、操作されたオブジェクトに対応すると識別された画素群の二次元的な情報を三次元空間にマッピングすることによって、一台のビデオカメラの画像から三次元におけるオブジェクトの三次元的な情報、即ち、位置および方向の情報を提供することにある。   Another object of the present invention is to map a two-dimensional information of a pixel group identified as corresponding to an manipulated object into a three-dimensional space, so that a three-dimensional object can be obtained from a single video camera image. 3D information, that is, position and direction information.

さらに、本発明の別の目的は、操作されたオブジェクトの回転成分を含むオブジェクトの三次元的な情報を提供することにある。   Furthermore, another object of the present invention is to provide three-dimensional information of an object including a rotation component of the manipulated object.

またさらに、本発明の別の目的は、オブジェクトの三次元的な位置および方向の情報を求める際に必要な情報を得るために、ビデオ画像から操作されたオブジェクトに対応する画素群がはっきりと認識されるように、画素群を最も識別しやすくなるようなオブジェクトの色を色遷移に基づいて決定する技法を提供することにある。   Furthermore, another object of the present invention is to clearly recognize a pixel group corresponding to the manipulated object from the video image in order to obtain information necessary for obtaining information on the three-dimensional position and orientation of the object. Thus, it is an object of the present invention to provide a technique for determining the color of an object based on the color transition so that the pixel group is most easily identified.

本発明に係るゲームプログラムの制御方法は、メモリと表示部とを有する処理ユニットに接続された一台のビデオカメラの視界の中で物理的なオブジェクトを操作するステップと、前記ビデオカメラによって捕捉された二次元的な画素情報を前記処理ユニットに供給するステップと、前記二次元的な画素情報から前記オブジェクトに対応する少なくとも一つの画素群を抽出するステップと、前記少なくとも一つの画素群に基づいて二次元的な幾何学的形状を定義するための一組のパラメータを求めるステップと、前記一組のパラメータに基づいて所定のアルゴリズムを実行して前記二次元的な幾何学的形状を幾何学的な数値による三次元的に定義されたデータにマッピングすることによって、操作された前記オブジェクトの位置および方向に対応する三次元における前記幾何学的な数値の情報を得るステップと、前記三次元に定義されたデータを前記メモリに格納するステップと、前記幾何学的な数値情報を用いて前記表示部上のアクションを制御するステップとを含むことを特徴とする。   A method for controlling a game program according to the present invention includes a step of manipulating a physical object in a field of view of one video camera connected to a processing unit having a memory and a display unit, and the video program captured by the video camera. Supplying the two-dimensional pixel information to the processing unit, extracting at least one pixel group corresponding to the object from the two-dimensional pixel information, and based on the at least one pixel group Obtaining a set of parameters for defining a two-dimensional geometric shape, and executing a predetermined algorithm based on the set of parameters to determine the two-dimensional geometric shape By mapping to three-dimensionally defined data with various numerical values, the position and direction of the manipulated object Obtaining the geometric numerical information in the corresponding three dimensions, storing the data defined in the three dimensions in the memory, and using the geometric numerical information on the display unit. And a step of controlling an action.

この場合、前記オブジェクトが無地のシリンダからなり、前記抽出された画素群によって定義される幾何学的形状が四角形であり、前記所定のアルゴリズムが、前記画素群の長さlを求めるステップと、前記画素群に沿った少なくとも二つの異なる長さの前記画素群の幅w1およびw2を求めるステップと、画像のX−Y平面において、Y軸と前記長さlによって定義される方向との間の傾き(角度)θを求めるステップと、前記二つの幅の比w1:w2に基づいてY−Z平面における前記オブジェクトの傾きφを求めるステップと、前記傾きφによって重み付けされた前記画素群の長さlφ、または、前記傾きφによって重み付けされた前記画素群を構成する画素の合計数Nφに基づいて前記オブジェクトの奥行き値zを求めるステップとを含むようにしてもよい。 In this case, the object is a solid cylinder, the geometric shape defined by the extracted pixel group is a quadrangle, and the predetermined algorithm obtains the length l of the pixel group; Determining the widths w 1 and w 2 of the pixel groups of at least two different lengths along the pixel group and between the Y axis and the direction defined by the length l in the XY plane of the image A step of obtaining an inclination (angle) θ of the object, a step of obtaining an inclination φ of the object in the YZ plane based on the ratio w 1 : w 2 of the two widths, and the pixel group weighted by the inclination φ A depth value z of the object based on a total length Nφ of pixels constituting the pixel group weighted by the inclination φ or the length lφ of Unishi may be.

また、前記オブジェクトが無地のシリンダからなり、前記抽出された画素群によって定義される幾何学的形状が四角形であり、前記所定のアルゴリズムが、前記画素群の長さlを求めるステップと、前記画素群に沿った少なくとも二つの異なる長さの前記画素群の幅w1およびw2を求めるステップと、画像のX−Y平面において、Y軸と前記長さlによって定義される方向との間の傾き(角度)θを求めるステップと、前記画素群の平均幅wavgに基づいて前記オブジェクトの奥行き値zを求めるステップと、前記画素群の前記長さlと前記平均幅wavgとの比l:wavgに基づいてY−Z平面における前記オブジェクトの傾きφを求めるステップとを含むようにしてもよい。 The object is a solid cylinder, the geometric shape defined by the extracted pixel group is a quadrangle, and the predetermined algorithm obtains a length l of the pixel group; Determining the widths w 1 and w 2 of the group of pixels of at least two different lengths along the group and between the Y axis and the direction defined by the length l in the XY plane of the image A step of obtaining an inclination (angle) θ, a step of obtaining a depth value z of the object based on an average width w avg of the pixel group, and a ratio l of the length l of the pixel group and the average width w avg The step of determining the inclination φ of the object in the YZ plane based on w avg may be included.

また、前記オブジェクトが無地のシリンダと該シリンダに取り付けられた無地の球体とからなり、前記シリンダの色と前記球体の色とが異なっており、前記抽出された画素群のうち、前記シリンダに対応する部分によって定義される幾何学的形状が四角形であり、球体に対応する部分によって定義される幾何学的形状が円形であり、前記所定のアルゴリズムが、前記抽出された画素群のうちの前記球体に対応する部分によって定義される前記円の中心点(ポイントPS)と該円全体の画素領域とを求めるステップと、前記抽出された画素群のうちの前記シリンダに対応する部分によって定義される前記四角形の中心線における別のポイントPを求めるステップと、前記ポイントPSと前記ポイントPとの間の長さlを求めるステップと、画像のX−Y平面において、Y軸と前記長さlによって定義される方向との間の前記オブジェクトの傾きθを求めるステップと、前記抽出された画素群のうちの前記球体に対応する部分によって定義される前記円を構成する画素の合計数Nに基づいて前記オブジェクトの奥行き値zを求めるステップと、前記ポイントPSと前記ポイントPとの間の前記長さlと前記奥行き値zとに基づいて、Y−Z平面における前記オブジェクトの傾きφを求めるステップとを含むようにしてもよい。 Further, the object includes a plain cylinder and a plain sphere attached to the cylinder, the color of the cylinder is different from the color of the sphere, and the object corresponds to the cylinder in the extracted pixel group. The geometric shape defined by the portion to be square is a square, the geometric shape defined by the portion corresponding to the sphere is a circle, and the predetermined algorithm is the sphere of the extracted pixel group. Determining the center point (point P S ) of the circle defined by the portion corresponding to, and the pixel area of the entire circle, and defining the portion of the extracted pixel group corresponding to the cylinder. and obtaining and determining the another point P at the center line of the rectangle, the length l between the points P S and the point P, the image In the XY plane, defined by the step of obtaining the inclination θ of the object between the Y axis and the direction defined by the length l, and the portion of the extracted pixel group corresponding to the sphere. determining a depth value z of the object, based on the total number N of pixels constituting the circle that, based on said depth value z the length l between the points P S and the point P , Obtaining a tilt φ of the object in the YZ plane.

また、前記オブジェクトが複数の周方向の無地のストライプが付けられた無地のシリンダからなり、前記ストライプの色と前記シリンダの色とが異なっており、前記画素群の抽出ステップにおいて前記シリンダと前記ストライプとの間の複数の色遷移が求められ、前記所定のアルゴリズムが、二次元的なクロミナンス色空間における最大の分離度を定義する閾値Dtを設定するステップと、前記ストライプの色および前記シリンダの色に対応する合成クロミナンス信号CrおよびCbによって求められる値Dに基づいて色遷移を検出するステップと、前記値Dが前記所定の閾値Dtを超えた際に、十分な度合いの色遷移が発生したことを判断するステップと、前記十分な度合いの色遷移によって前記ストライプの間のそれぞれの長さl1およびl2を定義するステップと、前記ストライプの間のそれぞれの長さl1およびl2の比l1:l2に基づいて、Y−Z平面における前記オブジェクトの傾きφを求めるステップと、前記長さl1およびl2の合計と前記Y−Z平面における前記オブジェクトの傾きφとに基づいて前記オブジェクトの奥行き値zを求めるステップとを含むようにしてもよい。 The object includes a plain cylinder with a plurality of plain stripes in the circumferential direction, and the color of the stripe is different from the color of the cylinder, and the cylinder and the stripe are extracted in the pixel group extraction step. A plurality of color transitions between, and the predetermined algorithm setting a threshold D t that defines a maximum degree of separation in a two-dimensional chrominance color space; and the color of the stripe and the cylinder detecting color transitions based on a value D obtained by the synthesis chrominance signals Cr and Cb corresponding to the color, when said value D exceeds said predetermined threshold value D t, the color transition of sufficient degree occurs and determining that the respective lengths l 1 between the stripes by the color transition of the sufficient degree and A step of defining 2, respective lengths l 1 and the ratio of l 2 l 1 between the stripes: based on l 2, determining a tilt φ of the object in the Y-Z plane, the length determining the depth value z of the object based on the sum of l 1 and l 2 and the inclination φ of the object in the YZ plane.

また、前記オブジェクトがらせん状の無地のストライプが付けられた無地のシリンダからなり、前記ストライプの色と前記シリンダの色とが異なっており、前記画素群の抽出ステップにおいて前記ストライプに対応する少なくとも一つの画素群が抽出され、さらに、前記オブジェクトの回転度を求めるための所定のアルゴリズムを実行するステップを含むようにしてもよい。   Further, the object is formed of a plain cylinder with a spiral plain stripe, and the color of the stripe is different from the color of the cylinder, and at least one corresponding to the stripe in the pixel group extraction step. One pixel group may be extracted, and may further include a step of executing a predetermined algorithm for obtaining the degree of rotation of the object.

この場合、前記オブジェクトの回転度を求めるための所定のアルゴリズムを実行するステップが、前記シリンダに対応する画素群を抽出するステップと、前記ストライプに対応する画素群に基づいてらせんHを定義するステップと、前記シリンダに対応する画素群の中心線を求めるステップと、前記シリンダに対応する抽出された画素群の端部と、前記中心線が前記らせんHに交差する該らせんH上のポイントとの間の高さhを求めるステップとを含み、前記シリンダの回転度を前記シリンダに対応する画素群の全長lに対する前記高さhの比に基づいて求めるようにしてもよい。   In this case, the step of executing a predetermined algorithm for obtaining the degree of rotation of the object includes a step of extracting a pixel group corresponding to the cylinder and a step of defining a helix H based on the pixel group corresponding to the stripe. Determining a center line of a pixel group corresponding to the cylinder; an end of the extracted pixel group corresponding to the cylinder; and a point on the helix H at which the center line intersects the helix H. A step of obtaining a height h therebetween, and the degree of rotation of the cylinder may be obtained based on a ratio of the height h to a total length l of a pixel group corresponding to the cylinder.

次に、本発明に係る色の選択方法は、二次元的な色空間において定義されるクロミナンス座標(Cr,Cb)を用いて色を検出するビデオカメラおよび画像処理システムを用いて捕捉されるオブジェクトに適用される色の選択方法において、前記色空間において、各座標(Cr1,Cb1)および(Cr2,Cb2)によって定義される少なくとも二つの色を有するオブジェクトを前記ビデオカメラによって捕捉するステップと、前記色空間によって定義される色相環上で所定の傾きθを有する直径を選択するステップと、前記座標(Cr1,Cb1)および(Cr2,Cb2)によって定義される各ポイントから一対のラインを前記直径に対して法線方向に投影させるステップと、前記ラインが前記直径に投影された各ポイント間の距離Dを算出するステップと、前記算出された距離Dが所定の閾値を超えるような色のみを検出に適した色として選択するステップとを含むことを特徴とする。 Next, a color selection method according to the present invention includes an object captured using a video camera and an image processing system that detect colors using chrominance coordinates (Cr, Cb) defined in a two-dimensional color space. In the color space, an object having at least two colors defined by coordinates (Cr 1 , Cb 1 ) and (Cr 2 , Cb 2 ) is captured by the video camera in the color space. Selecting a diameter having a predetermined slope θ on a hue circle defined by the color space, and each point defined by the coordinates (Cr 1 , Cb 1 ) and (Cr 2 , Cb 2 ) Projecting a pair of lines in a direction normal to the diameter, and a distance D between each point at which the line is projected onto the diameter Calculating the calculated distance D is characterized by comprising the steps of: selecting a color which is suitable for detecting only a color exceeding a predetermined threshold.

この場合、前記距離Dが次の式によって算出されるようにしてもよい。   In this case, the distance D may be calculated by the following equation.

D=[Cr1・cosθ+Cb1・sinθ]−[Cr2・cosθ+Cb2・sinθ]
次に、本発明に係る入力装置は、ストライプが付けられたシリンダ本体と、ハンドルとからなる入力装置であって、前記ストライプの色と前記シリンダ本体の色とが異なる色であり、少なくとも前記ストライプに対応する画素群とシリンダ本体に対応する画素群とからなる二次元的な画像データをカメラを介して画像処理ユニットに入力することによって三次元的なデータを入力することが可能なことを特徴とする。
D = [Cr 1 · cos θ + Cb 1 · sin θ] − [Cr 2 · cos θ + Cb 2 · sin θ]
Next, an input device according to the present invention is an input device comprising a cylinder body with a stripe and a handle, and the color of the stripe is different from the color of the cylinder body, and at least the stripe It is possible to input three-dimensional data by inputting two-dimensional image data consisting of a pixel group corresponding to the pixel group and a pixel group corresponding to the cylinder body to the image processing unit via the camera. And

この場合、前記ストライプがらせん状であり、前記シリンダ本体の軸を中心とする回転データを入力するようにしてもよい。   In this case, the stripe may be spiral, and rotation data about the cylinder body axis may be input.

次に、本発明に係る三次元オブジェクトの動作を入力する方法は、ストライプが付けられたシリンダ本体と、ハンドルとからなる三次元オブジェクトを操作するステップと、前記三次元オブジェクトの動作をカメラで捕捉して少なくとも前記シリンダ本体に対応する画素群と前記ストライプに対応する画素群とからなる二次元的な画像データを得るステップと、前記二次元的な画像データを解析して前記オブジェクトの三次元的なデータを算出するステップとを含むことを特徴とする。   Next, a method of inputting a motion of a 3D object according to the present invention includes a step of operating a 3D object comprising a cylinder body with a stripe and a handle, and capturing the motion of the 3D object with a camera. Obtaining two-dimensional image data comprising at least a pixel group corresponding to the cylinder body and a pixel group corresponding to the stripe, and analyzing the two-dimensional image data to obtain a three-dimensional image of the object. And a step of calculating various data.

この場合、前記ストライプがらせん状であり、前記二次元的な画像データの解析ステップが、前記シリンダ本体に対応する画素群と前記ストライプに対応する画素群との関係を解析して前記シリンダ本体の軸を中心とする回転に関するデータを算出するステップを含むようにしてもよい。   In this case, the stripe is spiral, and the analysis step of the two-dimensional image data analyzes the relationship between the pixel group corresponding to the cylinder body and the pixel group corresponding to the stripe to analyze the cylinder body. You may make it include the step which calculates the data regarding the rotation centering on an axis | shaft.

次に、本発明に係る三次元オブジェクトの動作を入力するシステムは、ストライプが付けられたシリンダ本体からなる入力装置と、前記入力装置の動作を捕捉するカメラと、画像処理ユニットとからなり、前記カメラが前記入力装置の動作を捕捉して前記シリンダ本体に対応する画素群と前記ストライプに対応する画素群とからなる二次元的な画像データを前記画像処理ユニットに供給し、前記画像処理ユニットが前記二次元的な画像データを解析して前記入力装置の動作に基づく三次元的なデータを算出することを特徴とする。   Next, a system for inputting a motion of a three-dimensional object according to the present invention comprises an input device comprising a cylinder body with a stripe, a camera for capturing the motion of the input device, and an image processing unit, A camera captures the operation of the input device and supplies two-dimensional image data consisting of a pixel group corresponding to the cylinder body and a pixel group corresponding to the stripe to the image processing unit, and the image processing unit The two-dimensional image data is analyzed to calculate three-dimensional data based on the operation of the input device.

この場合、前記ストライプがらせん状であり、前記画像処理ユニットが前記シリンダ本体に対応する画素群と前記ストライプに対応する画素群との関係を解析して前記シリンダ本体の軸を中心とする回転に関するデータを算出するようにしてもよい。   In this case, the stripe is spiral, and the image processing unit analyzes the relationship between the pixel group corresponding to the cylinder body and the pixel group corresponding to the stripe, and relates to rotation about the axis of the cylinder body. Data may be calculated.

本発明の上述した目的、特徴および利点、さらに、その他の目的、特徴および利点は、本発明の好ましい実施の形態が例示された添付図面および以下の説明を併せ鑑みることによって良好に理解されるであろう。   The above-described objects, features, and advantages of the present invention, as well as other objects, features, and advantages will be better understood in view of the accompanying drawings in which preferred embodiments of the present invention are illustrated and the following description. I will.

以上説明したように、本発明によれば、以下の効果を奏することができる。   As described above, according to the present invention, the following effects can be obtained.

(1) ビデオゲームプログラムに適したオブジェクト捕捉システム、例えばオブジェクト、即ち、入力装置として機能する柱状オブジェクトの位置および方向を捕捉してゲームプログラムにおけるアクションを実行させることが可能なオブジェクト捕捉システムを提供することができる。 (1) An object capturing system suitable for a video game program, for example, an object capturing system capable of capturing an action in a game program by capturing the position and direction of an object, that is, a columnar object that functions as an input device. be able to.

(2) 従来のジョイスティックに代替するゲームのためのインタフェースを提供することができる。 (2) It is possible to provide an interface for a game that replaces a conventional joystick.

(3) 操作されたオブジェクトに対応すると識別された画素群の二次元的な情報を三次元空間にマッピングすることによって、一台のビデオカメラの画像から三次元におけるオブジェクトの三次元的な情報、即ち、位置および方法を提供することができる。 (3) By mapping the two-dimensional information of the pixel group identified as corresponding to the manipulated object to the three-dimensional space, the three-dimensional information of the object in three dimensions from the image of one video camera, That is, a location and method can be provided.

(4) 操作されたオブジェクトの回転成分を含むオブジェクトの三次元的な情報を提供することができる。 (4) It is possible to provide three-dimensional information of the object including the rotation component of the operated object.

(5) オブジェクトの三次元的な位置および方向の情報を求める際に必要な情報を得るために、ビデオ画像から操作されたオブジェクトに対応する画素群がはっきりと認識されるように、画素群を最も識別しやすくなるようなオブジェクトの色を色遷移に基づいて決定する技法を提供することができる。 (5) In order to obtain information necessary for obtaining information on the three-dimensional position and direction of the object, the pixel group is set so that the pixel group corresponding to the manipulated object is clearly recognized from the video image. A technique can be provided for determining the color of an object that is most easily identifiable based on the color transition.

本発明に係る柱状入力装置について好適な実施の形態を挙げ、添付の図面を参照しながら以下詳細に説明する。   A preferred embodiment of a columnar input device according to the present invention will be described below and described in detail with reference to the accompanying drawings.

図1は、ビデオゲーム機60の要部の構成を示すブロック図である。このビデオゲーム機60は、操作可能なオブジェクト(柱状オブジェクト)を従来の入力装置に代替して使用するために適したものである。   FIG. 1 is a block diagram illustrating a configuration of a main part of the video game machine 60. The video game machine 60 is suitable for using an operable object (columnar object) instead of a conventional input device.

ビデオゲーム機60は、図1に示す本発明に係るエンタテインメントシステム110の一部を構成している。ビデオゲーム機60は、エンタテインメントシステム110の全体を制御するマイクロプロセッサ(MPU)112と、種々のプログラムを実行し、データを記憶するメインメモリ114と、ジオメトリ処理に必要な浮動少数点ベクトル演算を行うベクトル演算ユニット116と、MPU112による制御に基づいてデータを生成するイメージプロセッサ120と、CRT等のビデオ信号を出力するモニタ80と、MPU112やベクトル演算ユニット116とイメージプロセッサ120との間の転送バスを介してデータの媒介等を行うグラフィックインタフェース(GIF)122と、周辺機器とのデータの送受信を可能にする入出力ポート124と、カーネル等を制御するために、例えば、フラッシュメモリからなるOSD機能を内蔵したROM(OSDROM)126と、カレンダー機能およびタイマー機能を有するリアルタイムクロック128(RTC)とを備える。   The video game machine 60 constitutes a part of the entertainment system 110 according to the present invention shown in FIG. The video game machine 60 executes a microprocessor (MPU) 112 that controls the entire entertainment system 110, executes various programs, stores data, and performs floating-point vector operations necessary for geometry processing. A vector arithmetic unit 116, an image processor 120 that generates data based on control by the MPU 112, a monitor 80 that outputs a video signal such as a CRT, and a transfer bus between the MPU 112, the vector arithmetic unit 116, and the image processor 120. In order to control a graphic interface (GIF) 122 that performs data intermediation, an input / output port 124 that enables transmission / reception of data to / from peripheral devices, a kernel, and the like, an OSD function including, for example, a flash memory is provided. Built-in Includes a ROM (OSDROM) 126, a real time clock 128 having calendar and timer functions and (RTC).

メインメモリ114、ベクトル演算ユニット116、GIF122、OSDROM126、RTC128、および入出力ポート124は、データバス130を介してMPU112に接続されている。   The main memory 114, the vector operation unit 116, the GIF 122, the OSDROM 126, the RTC 128, and the input / output port 124 are connected to the MPU 112 via the data bus 130.

データバス130には、画像データを取得するために圧縮された動画像やテクスチャ画像を展開する圧縮画像デコーダ(IPU)138が接続されている。例えば、IPU138は、標準的なMPEG2形式に従ったビットストリームを復号してデータを取得する機能、マクロブロックの復号を行う機能、逆離散コサイン変換を行う機能、色空間変換を行う機能、さらに、ベクトル量子化を行う機能等を有する。   Connected to the data bus 130 is a compressed image decoder (IPU) 138 that expands a moving image and a texture image compressed to acquire image data. For example, the IPU 138 decodes a bitstream according to the standard MPEG2 format to acquire data, a function to decode a macroblock, a function to perform inverse discrete cosine transform, a function to perform color space conversion, It has a function of performing vector quantization.

サウンドシステムは、MPU112の指示に従って音楽的なエフェクト、または他のサウンドエフェクトを生成するサウンド処理ユニット(SPU)171と、SPU171によって波形データが記録されるサウンドバッファ173と、SPU171によって生成された音楽的なエフェクト、または他のサウンドエフェクトを出力するスピーカ175とを含む。スピーカ175は、モニタ80に組み込むようにしてもよいし、音声出力端子に接続された外部スピーカであってもよい。   The sound system includes a sound processing unit (SPU) 171 that generates musical effects or other sound effects according to instructions of the MPU 112, a sound buffer 173 in which waveform data is recorded by the SPU 171, and a musical sound generated by the SPU 171. Speaker 175 for outputting various effects or other sound effects. The speaker 175 may be incorporated in the monitor 80 or may be an external speaker connected to the audio output terminal.

また、データバス130には、本発明のデジタルコンテンツの入力を可能にするための、デジタルデータの入出力機能を有する通信インタフェース140が接続されている。この通信インタフェース140には、モデム50やネットワークカード等を接続することができる。例えば、この通信インタフェース140を介してネットワーク上でサーバの端末にユーザの入力データを送信したり、ステータスデータをサーバの端末から受信したりすることが可能である。入出力ポート124には、キー入力データや座標データ等のデータをエンタテインメントシステム110に入力するための入力装置132(コントローラとも記す)と、各種プログラムおよびデータ(オブジェクトデータ、テクスチャデータ等)が記録されたCD−ROM等、光ディスク70のコンテンツを再生するための光ディスクドライブ136とが接続されている。   The data bus 130 is connected to a communication interface 140 having a digital data input / output function for enabling input of digital contents according to the present invention. The communication interface 140 can be connected to a modem 50, a network card, or the like. For example, user input data can be transmitted to the server terminal on the network via the communication interface 140, and status data can be received from the server terminal. The input / output port 124 records an input device 132 (also referred to as a controller) for inputting data such as key input data and coordinate data to the entertainment system 110, and various programs and data (object data, texture data, etc.). An optical disc drive 136 for reproducing the contents of the optical disc 70 such as a CD-ROM is connected.

本発明においては、この入力装置132に加えて、または、入力装置132に代替するものとして、デジタルビデオカメラ190が入出力ポート124に接続されている。入出力ポート124は、一個の入力インタフェースであってもよく、複数の入力インタフェースであってもよい。また、入出力ポート124は、シリアルインタフェースであってもよく、USBインタフェースであってもよい。この利便性の高いUSB入力インタフェース、または他の従来のインタフェースを利用することによってデジタルビデオカメラ190の使用が可能となる。   In the present invention, in addition to the input device 132 or as an alternative to the input device 132, a digital video camera 190 is connected to the input / output port 124. The input / output port 124 may be a single input interface or a plurality of input interfaces. The input / output port 124 may be a serial interface or a USB interface. The digital video camera 190 can be used by using this convenient USB input interface or other conventional interface.

上述したイメージプロセッサ120は、レンダリングエンジン170と、メモリインタフェース172と、画像メモリ174と、プログラマブルCRTコントローラ等のディスプレイコントローラ176とを含む。   The image processor 120 described above includes a rendering engine 170, a memory interface 172, an image memory 174, and a display controller 176 such as a programmable CRT controller.

レンダリングエンジン170は、MPU112によって与えられたレンダリングコマンドに従って、メモリインタフェース172を通じて画像メモリ174内で所定の画像データのレンダリングを行う。   The rendering engine 170 renders predetermined image data in the image memory 174 through the memory interface 172 in accordance with the rendering command given by the MPU 112.

第1バス178は、メモリインタフェース172とレンダリングエンジン170との間を接続し、第2バス180は、メモリインタフェース172と画像メモリ174との間を接続している。第1バス178および第2バス180は、それぞれ、例えば128ビットのビット幅を有し、レンダリングエンジン170は、画像メモリ174上でレンダリングを高速に行うことが可能である。   The first bus 178 connects between the memory interface 172 and the rendering engine 170, and the second bus 180 connects between the memory interface 172 and the image memory 174. Each of the first bus 178 and the second bus 180 has a bit width of 128 bits, for example, and the rendering engine 170 can perform rendering on the image memory 174 at high speed.

レンダリングエンジン170は、320×240画素または640×480画素の画像データ、もしくは、例えば標準的なNTSC方式やPAL方式に準拠した画像データをリアルタイムで、即ち、1/60秒毎〜1/30秒毎に10〜数十回のレンダリングを行うことが可能である。   The rendering engine 170 converts image data of 320 × 240 pixels or 640 × 480 pixels or image data compliant with, for example, a standard NTSC system or PAL system in real time, that is, every 1/60 seconds to 1/30 seconds. It is possible to render 10 to several tens of times every time.

画像メモリ174は、ユニファイドメモリ構造を採用しており、テクスチャレンダリング領域とディスプレイレンダリング領域とを同一の領域に設定することが可能である。   The image memory 174 employs a unified memory structure, and the texture rendering area and the display rendering area can be set to the same area.

ディスプレイコントローラ176は、光ディスク70から光ディスクドライブ136によって読み出したテクスチャデータ、または、メインメモリ114上で作成されたテクスチャデータを、画像メモリ174のテクスチャレンダリング領域にメモリインタフェース172を介して書き込み、画像メモリ174のディスプレイレンダリング領域でレンダリングされた画像データを、メモリインタフェース172を介して読み出し、この画像データをモニタ80に出力してスクリーン上で表示することができるように構成されている。   The display controller 176 writes the texture data read from the optical disk 70 by the optical disk drive 136 or the texture data created on the main memory 114 into the texture rendering area of the image memory 174 via the memory interface 172, and the image memory 174 The image data rendered in the display rendering area is read out via the memory interface 172, and the image data is output to the monitor 80 and can be displayed on the screen.

次に、図2を参照し、柱状のオブジェクトを持ったユーザが、デジタルビデオカメラの正面でこのオブジェクトを操作してビデオゲーム内のアクションを発生させるシステム全体の構成を説明する。   Next, referring to FIG. 2, a configuration of the entire system in which a user having a columnar object operates the object in front of the digital video camera to generate an action in the video game will be described.

図2に示すように、この柱状オブジェクトとして、通常は黒い色のハンドル303と色彩が鮮やかな(例えば飽和色の)シリンダ301とからなる棒状のオブジェクトを用いることができる。ユーザは、ソニーコンピュータエンタテインメント社によって製造された「プレイステーション2(商標名)」等のゲーム機の入出力ポート124に接続されたUSBウエブカメラ(Webcam)やデジタルカムコーダ(camcorder)等のデジタルビデオカメラ190の前に立つ。ユーザがデジタルビデオカメラ190の前でオブジェクトを動かすと、オブジェクトのシリンダ301の特徴がデジタルビデオカメラ190によって検出され、シリンダ301のみに対応する画素群を分離して識別するために、後述する処理が行われる。まず、三次元空間における位置や方向等のシリンダ(オブジェクト)301に関する三次元的なデータが算出されてビデオゲーム機60のメインメモリ114に格納される。次に、公知のレンダリング技術によってオブジェクトに関する三次元的なデータに基づいてモニタ80の画面上に表示されているゲームプログラム内でのアクションが実行される。例えば、ユーザによる現実のオブジェクトの動作に対応して、トーチ等の仮想的なオブジェクトをゲームシーンの中で動かすことができる。ユーザがオブジェクトを動かすことによって、オブジェクトの位置や方向が変更され、メインメモリ114に格納されたオブジェクトのデータ、画像メモリ174のレンダリング領域内でのオブジェクトのレンダリングが継続的に更新され、モニタ80上の仮想的なオブジェクト、即ち、トーチの位置や方向も変更される。   As shown in FIG. 2, a bar-shaped object including a black handle 303 and a cylinder 301 having a bright color (for example, a saturated color) can be used as the columnar object. The user can use a digital video camera 190 such as a USB web camera (Webcam) or a digital camcorder (camcorder) connected to an input / output port 124 of a game machine such as “PlayStation 2 (trade name)” manufactured by Sony Computer Entertainment. Stand in front of. When the user moves the object in front of the digital video camera 190, the characteristics of the cylinder 301 of the object are detected by the digital video camera 190, and a process described later is performed in order to separate and identify the pixel group corresponding to only the cylinder 301. Done. First, three-dimensional data related to the cylinder (object) 301 such as the position and direction in the three-dimensional space is calculated and stored in the main memory 114 of the video game machine 60. Next, an action in the game program displayed on the screen of the monitor 80 is executed based on the three-dimensional data regarding the object by a known rendering technique. For example, a virtual object such as a torch can be moved in the game scene in response to the action of the real object by the user. When the user moves the object, the position and direction of the object are changed, and the object data stored in the main memory 114 and the rendering of the object in the rendering area of the image memory 174 are continuously updated. The virtual object, that is, the position and direction of the torch are also changed.

上述したように、必要な情報はオブジェクト(図2の場合はシリンダ301)の三次元的なデータである。しかしながら、デジタルビデオカメラ190によって捕捉される画像は、オブジェクトについての二次元的な画素情報でしかない。また、三次元的なオブジェクトのデータを算出する前に、オブジェクト自体に関する画素を識別することが必要である。   As described above, the necessary information is the three-dimensional data of the object (cylinder 301 in the case of FIG. 2). However, the image captured by the digital video camera 190 is only two-dimensional pixel information about the object. In addition, before calculating the data of a three-dimensional object, it is necessary to identify pixels relating to the object itself.

図3は、柱状オブジェクトがユーザによって操作される際に、この柱状オブジェクトに対応する画素群を捕捉して識別するために用いられる機能を示すブロック図である。各ブロックによって示された機能は、ビデオゲーム機60のMPU112によって実行されるソフトウエアによって行われることが理解されよう。また、図3のブロックによって示されている全ての機能が用いられるものではない。特に、色遷移による位置の特定は、後述する図6Aおよび図6Bに関係する実施の形態においてのみ用いられる。   FIG. 3 is a block diagram illustrating a function used to capture and identify a pixel group corresponding to a columnar object when the columnar object is operated by a user. It will be understood that the function indicated by each block is performed by software executed by the MPU 112 of the video game machine 60. Also, not all functions shown by the blocks in FIG. 3 are used. In particular, the specification of the position by color transition is used only in the embodiments related to FIGS. 6A and 6B described later.

まず、デジタルビデオカメラ190から入力された画素データは、入出力インタフェース(入出力ポート)124を通じてビデオゲーム機60に供給され、以下の処理の実行が可能となる。図3に示すように、最初に、例えば、ラスタ毎に画像の各画素がサンプリングされると、色細分化処理(ステップS201)が行われる。この色細分化処理において、各画素の色が決定され、画像が異なる色の種々の二次元的なセグメントに分割される。次に、実施の形態によっては、色遷移による位置の特定(ステップS203)が行われる。この色遷移による位置の特定において、異なる色のセグメントが隣接している領域がより具体的に特定され、画像においてはっきりとした色遷移が起こった位置が定義される。次に、実施の形態によっては、ジオメトリ処理(ステップS205)が行われる。このジオメトリ処理は、エッジ検出処理、または、領域情報を得るための計算処理によって行われ、対象となっているオブジェクトのエッジに対応する輪郭線、曲線、および/またはポリゴンが代数的にもしくは幾何学的に定義される。例えば、図2に示すシリンダ301の場合、画素領域は、シリンダ301の正面図に対応する概ね矩形状になる。この矩形状の画素領域の代数的または幾何学的な情報によって、オブジェクトのみに対応する画素群の中心、幅、長さ、さらに、二次元的な方向を定義することが可能となる。   First, pixel data input from the digital video camera 190 is supplied to the video game machine 60 through the input / output interface (input / output port) 124, and the following processing can be executed. As shown in FIG. 3, first, for example, when each pixel of an image is sampled for each raster, color segmentation processing (step S201) is performed. In this color subdivision process, the color of each pixel is determined, and the image is divided into various two-dimensional segments of different colors. Next, depending on the embodiment, the position is specified by color transition (step S203). In specifying the position by this color transition, a region where segments of different colors are adjacent is specified more specifically, and a position where a clear color transition has occurred in the image is defined. Next, depending on the embodiment, geometry processing (step S205) is performed. This geometry processing is performed by edge detection processing or calculation processing for obtaining region information, and contour lines, curves, and / or polygons corresponding to the edges of the target object are algebraically or geometrically. Defined. For example, in the case of the cylinder 301 illustrated in FIG. 2, the pixel region has a substantially rectangular shape corresponding to the front view of the cylinder 301. With the algebraic or geometric information of the rectangular pixel region, it is possible to define the center, width, length, and two-dimensional direction of the pixel group corresponding to only the object.

ステップS207において、本発明の好ましい実施の形態に関連して後述するアルゴリズムに従って、オブジェクトの三次元的な位置および方向が計算される。   In step S207, the three-dimensional position and orientation of the object are calculated according to the algorithm described below in connection with the preferred embodiment of the present invention.

最後に、三次元的な位置と方向のデータは、性能の向上のために、カルマンフィルタによって処理される(ステップS209)。このプロセスは、ある時間内にオブジェクトが移動する予定のポイントを推定し、あり得ないと推定される真のデータ集合から外れた偽の測定結果を除去するために行われるものである。また、カルマンフィルタ処理を行う別の理由は、デジタルビデオカメラ190が30Hzで画像を生成するのに対し、通常のディスプレイが60Hzで動作することから、この周波数の差、即ち、データ間のギャップを補償してゲームプログラムの中でのアクションを制御するためである。カルマンフィルタ処理によって離散データのスムージングを行うことはコンピュータビジョンの分野では公知となっているため、これ以上の詳細な説明は行わないものとする。   Finally, the three-dimensional position and direction data is processed by the Kalman filter to improve performance (step S209). This process is performed to estimate the point at which an object is scheduled to move within a certain period of time and to remove false measurements that deviate from the true data set that is presumed to be impossible. Another reason for performing Kalman filtering is that the digital video camera 190 generates an image at 30 Hz, whereas a normal display operates at 60 Hz, thus compensating for this frequency difference, ie, the gap between data. This is to control the action in the game program. Since smoothing of discrete data by Kalman filter processing is known in the field of computer vision, no further detailed description will be given.

図4Aに示すように、柱状のオブジェクトは、無地で単色のシリンダ301であり、好ましくは黒のハンドル303に取り付けられている。三次元空間においてオブジェクトの位置および方向を完全に定義するためには、所定のポイントp(通常はオブジェクトの中心)のX−Y平面での位置および奥行き値z(即ち、ポイントpのZ軸上での位置)、また、少なくとも2つの異なる平面におけるオブジェクトの角度情報、例えば、X−Y平面における傾きθとY−Z平面における傾きφが決定されなければならない。シリンダ301の実際上の物理的な長さおよび直径、カメラの焦点距離の情報は、スケーリングに用いることもできるが、ゲームプログラムにおけるアクションのプログラミングに必要なものではない。なぜならば、画面上の仮想オブジェクトは、柱状オブジェクト(シリンダ301)と同じ長さや直径を有している必要がなく、異なる形状であってもよいからである。   As shown in FIG. 4A, the columnar object is a solid, monochrome cylinder 301, preferably attached to a black handle 303. In order to completely define the position and direction of an object in a three-dimensional space, the position and depth value z (that is, on the Z axis of the point p) of a given point p (usually the center of the object) in the XY plane. And the angle information of the object in at least two different planes, eg, the tilt θ in the XY plane and the tilt φ in the YZ plane must be determined. Information about the actual physical length and diameter of the cylinder 301 and the focal length of the camera can be used for scaling, but are not necessary for programming actions in the game program. This is because the virtual object on the screen does not need to have the same length and diameter as the columnar object (cylinder 301) and may have a different shape.

次に、図4Bを参照して説明する。図4Bは、デジタルビデオカメラ190によって生成されたオブジェクトの二次元的な画像305を示している。シリンダ状のオブジェクト301は、概ね矩形の画素群307としてビデオ画像305の中に取り込まれる。しかしながら、画素群307の長さlによって定義される方向に沿った幅は、オブジェクトがφ方向の傾きや、デジタルビデオカメラ190と柱状オブジェクトの距離の影響を受けるため、変化していてもよい。オブジェクトのφ方向の傾きは、ビデオ画像305では直接には視認できないことが理解されよう。   Next, a description will be given with reference to FIG. 4B. FIG. 4B shows a two-dimensional image 305 of the object generated by the digital video camera 190. The cylindrical object 301 is captured in the video image 305 as a generally rectangular pixel group 307. However, the width along the direction defined by the length l of the pixel group 307 may change because the object is affected by the inclination in the φ direction and the distance between the digital video camera 190 and the columnar object. It will be understood that the tilt of the object in the φ direction is not directly visible in the video image 305.

上述したジオメトリ処理(ステップS205)に従って画素群307の長さ、中心点等を決定するためには、公知の領域情報計算法が用いられる。領域情報には、領域、重心、X軸を中心とするモーメント、Y軸を中心とするモーメント、その他の重要な各モーメント、重要な各モーメントの角度等が含まれ、これらの情報は、通常、特定の軸を中心とするオブジェクトの慣性モーメントを計算するために用いられる。例えば、X軸とY軸を中心とするモーメントを求める場合には、画素群を構成する各画素が薄い均質なシートまたは薄板を構成するある均一な質量mの粒子に対応していれば、座標平面に存在するn個の粒子(画素)の座標系におけるX軸とY軸を中心とするモーメントMxは次の式によって定義される。   In order to determine the length, center point, and the like of the pixel group 307 according to the above-described geometry processing (step S205), a known area information calculation method is used. The area information includes the area, the center of gravity, the moment about the X axis, the moment about the Y axis, other important moments, the angle of each important moment, etc. Used to calculate the moment of inertia of an object about a specific axis. For example, when obtaining a moment about the X axis and the Y axis, if each pixel constituting the pixel group corresponds to a particle of a certain uniform mass m constituting a thin homogeneous sheet or thin plate, the coordinates A moment Mx about the X axis and the Y axis in the coordinate system of n particles (pixels) existing on a plane is defined by the following equation.

Figure 2006178948
Figure 2006178948

座標系における質量の中心は、以下の式によって定義されるポイント(x,y)に位置する。   The center of mass in the coordinate system is located at the point (x, y) defined by the following equation.

Figure 2006178948
Figure 2006178948

また、薄板が、図4Bに示す矩形や、後述する図5Bに示す円形のように、幾何学的な図形中心を有する形状であると仮定すると、薄板の質量の中心は、幾何学的な図形中心に相当する。つまり、例えば、画素領域の二次元的な形状が矩形であるというように、画素領域の領域情報が分かっていれば、幅、高さ、さらに、方向を直接計算することができる。円形のものについても、中心点や半径を求める際に、同様の計算を行うことが可能である。矩形や円形のものについての代表的な計算方法は、標準的な大学レベルの微積分や物理のテキストに記載されている。   Further, assuming that the thin plate has a geometric figure center such as a rectangle shown in FIG. 4B or a circle shown in FIG. 5B described later, the center of mass of the thin plate is a geometric figure. Corresponds to the center. That is, for example, if the area information of the pixel area is known such that the two-dimensional shape of the pixel area is a rectangle, the width, height, and direction can be directly calculated. For a circular object, the same calculation can be performed when determining the center point and radius. Typical calculation methods for rectangles and circles are described in standard university-level calculus and physics texts.

ビデオ画像305がX−Y平面で既に表現されたため、ビデオ画像305から直接的に中心点pのx座標とy座標を求めることができる。また、角度θの値は、シリンダ301に対応する画素群307の長手方向の軸によって定義される方向を示すラインLの情報が分かっていれば、上述したジオメトリ処理(ステップS205)を用いてビデオ画像305から直接求めることができる。通常、長手方向のラインLとして、中心点pを通るものが用いられる。   Since the video image 305 has already been expressed in the XY plane, the x coordinate and the y coordinate of the center point p can be obtained directly from the video image 305. If the information on the line L indicating the direction defined by the longitudinal axis of the pixel group 307 corresponding to the cylinder 301 is known, the value of the angle θ can be obtained using the above-described geometry processing (step S205). It can be obtained directly from the image 305. Usually, a line passing through the center point p is used as the line L in the longitudinal direction.

傾きφの値を求めるためには、幾らかの他の情報、即ち、少なくとも2つの異なる位置での画素群の幅W1およびW2に関する情報が必要となる。画素群の幅w1、w2の値の比w1:w2を用いることによって傾きφを求めることができる。より具体的には、シリンダ301が、下端側よりも上端側がデジタルビデオカメラ190により近づくように傾斜している場合、シリンダ301の下端側がデジタルビデオカメラ190から離れているため、画像の画素群の幅w2の値は、幅w1の値よりも大きくなる。逆に、シリンダ301が、上端側よりも下端側がデジタルビデオカメラ190により近づくように傾斜している場合、シリンダ301の上端側がデジタルビデオカメラ190から離れているため、画像の画素群の幅w1の値は、幅w2の値よりも大きくなる。画素群の幅w1、w2の比率w2/w1は、Y−Z平面上のシリンダ301の傾きφに比例する。従って、この比率w2/w1を用いて傾きφの値の大きさを求めることができる。通常、より精度の高い値を得るために、画素群307の端辺の間で複数の等距離測定が行われ、平均値を用いて比率w2/w1が求められる。 In order to determine the value of the slope φ, some other information is needed, i.e. information about the widths W 1 and W 2 of the pixel group at at least two different positions. The slope φ can be obtained by using the ratio w 1 : w 2 of the values of the widths w 1 and w 2 of the pixel group. More specifically, when the cylinder 301 is inclined such that the upper end side is closer to the digital video camera 190 than the lower end side, the lower end side of the cylinder 301 is away from the digital video camera 190, and therefore the pixel group of the image The value of the width w 2 is larger than the value of the width w 1 . Conversely, when the cylinder 301 is tilted so that the lower end side is closer to the digital video camera 190 than the upper end side, the upper end side of the cylinder 301 is away from the digital video camera 190, and thus the width w 1 of the pixel group of the image. of the value is greater than the value of the width w 2. The ratio w 2 / w 1 between the widths w 1 and w 2 of the pixel group is proportional to the inclination φ of the cylinder 301 on the YZ plane. Therefore, the magnitude of the value of the slope φ can be obtained using this ratio w 2 / w 1 . Usually, in order to obtain a more accurate value, a plurality of equidistant measurements are performed between the edges of the pixel group 307, and the ratio w 2 / w 1 is obtained using the average value.

奥行き値zはいろいろな方法によって求められる。しかしながら、二次元的な画素群307を構成する画素の大きさと数は、オブジェクトのφ方向への傾きと、デジタルビデオカメラ190からオブジェクトまでの実際の距離との双方の影響を受ける。より具体的には、オブジェクトがφ方向に傾くと、デジタルビデオカメラ190から見えるオブジェクトの見かけ上の長さは短くなるため、画素群307の長さlも短くなる。さらに、Z軸に沿ってデジタルビデオカメラ190からオブジェクトが離れると、長さlを含め、オブジェクト全体の見かけの大きさは小さくなる。従って、単に長さlだけをデジタルビデオカメラ190とオブジェクト間の距離を示す指標であるとみなすことはできない。つまり、奥行き値zは、長さlと傾きφとの関数によって求める必要がある。   The depth value z can be obtained by various methods. However, the size and number of pixels constituting the two-dimensional pixel group 307 are affected by both the inclination of the object in the φ direction and the actual distance from the digital video camera 190 to the object. More specifically, when the object is tilted in the φ direction, the apparent length of the object seen from the digital video camera 190 is shortened, so that the length l of the pixel group 307 is also shortened. Further, when the object moves away from the digital video camera 190 along the Z axis, the apparent size of the entire object including the length l decreases. Therefore, the length l alone cannot be regarded as an index indicating the distance between the digital video camera 190 and the object. That is, the depth value z needs to be obtained by a function of the length l and the slope φ.

しかしながら、傾きφの値が分かっている場合であれば、lをφで重み付けした値を求めることができる。lをφで重み付けした値をlφとし、φが一定であると仮定すれば、画像における画素の長さlφは、オブジェクトがデジタルビデオカメラ190に近づいたり、デジタルビデオカメラ190から遠ざかったりすることによって変化する。lφは奥行き値zに比例するため、lφによって奥行き値zを求めることができる。   However, if the value of the slope φ is known, a value obtained by weighting l with φ can be obtained. If it is assumed that l is a value obtained by weighting l by φ and φ is constant, the pixel length lφ in the image is determined by moving the object closer to the digital video camera 190 or moving away from the digital video camera 190. Change. Since lφ is proportional to the depth value z, the depth value z can be obtained from lφ.

奥行き値zを求める別の方法は、画素群307のうち、オブジェクトに対応する画素の合計数を数えることによって行われる。オブジェクトがデジタルビデオカメラ190に近づいたり、デジタルビデオカメラ190から遠ざかったりすると、奥行き値zに比例して、ピクセル群307を構成する画素の数も多くなったり少なくなったりする。しかしながら,画素群307の画素の数は、φ方向の傾きに影響されるため、まず、画素の数Nをφで重み付けすることによって重み付けされた値Nφを求める必要がある。Nφは奥行き値zに比例するため、Nφによって奥行き値zを求めることができる。   Another method for obtaining the depth value z is performed by counting the total number of pixels corresponding to the object in the pixel group 307. When the object approaches the digital video camera 190 or moves away from the digital video camera 190, the number of pixels constituting the pixel group 307 increases or decreases in proportion to the depth value z. However, since the number of pixels in the pixel group 307 is affected by the inclination in the φ direction, it is necessary to first obtain a weighted value Nφ by weighting the number N of pixels with φ. Since Nφ is proportional to the depth value z, the depth value z can be obtained from Nφ.

奥行き値zを求める別の効果的な方法は、矩形(画素群)の平均幅wavgを用いることである。矩形の平均幅wavgは、矩形の幅を特定の回数だけ測定した後、測定値の合計を測定回数で割ることによって得ることができる。画素群の平均幅は、奥行き値zだけでなく、シリンダの傾きφの影響も受けることは明らかであろう。また、画素群の合計の長さと平均幅との比(l:wavg)によってφを求めることもできる。さらに、画素幅w1とw2の値の大きさを比較することによっても傾きφを求めることができる。 Another effective way to determine the depth value z is to use the average width w avg of the rectangle (pixel group). The average width w avg of the rectangle can be obtained by measuring the width of the rectangle a specific number of times and then dividing the total measurement value by the number of measurements. It will be apparent that the average width of the pixel group is influenced not only by the depth value z but also by the cylinder tilt φ. Also, φ can be obtained from the ratio (l: wavg ) between the total length and the average width of the pixel group. Furthermore, the slope φ can be obtained by comparing the values of the pixel widths w 1 and w 2 .

図5Aは、別の実施の形態(第2の実施の形態)において使用される柱状オブジェクトを示している。また、図5Bは、図5Aの柱状オブジェクトの三次元的な情報、即ち、柱状オブジェクトの位置および方向を二次元的なビデオ画像305から求める方法を示している。   FIG. 5A shows a columnar object used in another embodiment (second embodiment). FIG. 5B shows a method for obtaining the three-dimensional information of the columnar object of FIG. 5A, that is, the position and direction of the columnar object from the two-dimensional video image 305.

第2の実施の形態に係る柱状オブジェクトは、図4Aに示された第1の実施の形態に係る柱状オブジェクトと同様に、シリンダ状(棒状)のオブジェクトであるが、シリンダ301の一端部には、シリンダ301の色とは異なる色の球体オブジェクト309が固着されている。また、図示はしないが、シリンダ301の末端を若干突出させて球体オブジェクト309の上端から視認できるようにしてもよい。後述するように、球体オブジェクト309を設けることによって、奥行き値zおよびφ方向のオブジェクトの傾きを簡単に求めることができるようになる。奥行き値zを求めるために、シリンダ301の相対的な幅の測定を行うことが不要となり、傾きφを重み付けすることも不要となる。   The columnar object according to the second embodiment is a cylindrical (bar-shaped) object, similar to the columnar object according to the first embodiment shown in FIG. A spherical object 309 having a color different from that of the cylinder 301 is fixed. Although not shown, the end of the cylinder 301 may be slightly projected so that it can be viewed from the upper end of the spherical object 309. As will be described later, by providing the spherical object 309, the depth value z and the inclination of the object in the φ direction can be easily obtained. In order to obtain the depth value z, it is not necessary to measure the relative width of the cylinder 301, and it is not necessary to weight the inclination φ.

図5Bに示すように、球体オブジェクト309に対応する画素群311は二次元的な円として画像上で表現される。本実施の形態によれば、円の半径Rおよび中心点PSは、上述した領域情報の計算によって求めることができる。さらに、この場合、円の画素群311を構成する画素の合計数は、円の画素領域によって計算することができる。円形の画素領域は、球体オブジェクト309がデジタルビデオカメラ190に近づくほど大きくなり、デジタルビデオカメラ190から遠ざかるほど小さくなることが理解されよう。円を構成する画素群311の画素の合計数は、奥行き値zに比例しているため、奥行き値zを求めることができる。 As shown in FIG. 5B, the pixel group 311 corresponding to the spherical object 309 is represented on the image as a two-dimensional circle. According to the present embodiment, the radius R and the center point P S of the circle can be obtained by calculating the area information described above. Further, in this case, the total number of pixels constituting the circular pixel group 311 can be calculated from the circular pixel region. It will be appreciated that the circular pixel area increases as the spherical object 309 approaches the digital video camera 190 and decreases as the distance from the digital video camera 190 increases. Since the total number of pixels of the pixel group 311 constituting the circle is proportional to the depth value z, the depth value z can be obtained.

第2の実施の形態によれば、第1の実施の形態におけるシリンダとは異なり、円形の画素群の形状と大きさは、傾きφの角度の影響を受けないことが理解されよう。即ち、オブジェクト全体がφ方向に傾いた場合であっても、球体オブジェクト309および画素群311は、概ね同種の形状を維持し、シリンダ301の場合(長さ)とは異なり、傾きによって短くなるようなことがない。従って、画像における円を構成する画素群のピクセルの合計数は常に奥行き値zに比例しており、奥行き値zを求めるために、第1の実施の形態のように傾きφによる重み付けを行うことが不要となるという利点がある。   It will be understood that according to the second embodiment, unlike the cylinder in the first embodiment, the shape and size of the circular pixel group are not affected by the angle of the inclination φ. That is, even when the entire object is tilted in the φ direction, the spherical object 309 and the pixel group 311 maintain substantially the same shape, and unlike the case of the cylinder 301 (length), the spherical object 309 and the pixel group 311 are shortened by the tilt. There is nothing. Accordingly, the total number of pixels of the pixel group constituting the circle in the image is always proportional to the depth value z, and weighting with the inclination φ is performed as in the first embodiment in order to obtain the depth value z. There is an advantage that becomes unnecessary.

また、第1の実施の形態と同様に、θ方向のオブジェクトの傾きは、画像から直接求めることができる。即ち、θ方向のオブジェクトの傾きは、シリンダ301に対応する画素群307の長手方向の中心線とY軸との間の角度θによって求めることができる。   Further, as in the first embodiment, the inclination of the object in the θ direction can be obtained directly from the image. That is, the inclination of the object in the θ direction can be obtained from the angle θ between the longitudinal center line of the pixel group 307 corresponding to the cylinder 301 and the Y axis.

φ方向の傾きは、第1の実施の形態の方法とは別の方法によって求められる。即ち、上述したように求められた奥行き値zと、円311の中心点PSとシリンダ301に対応する画素群307の中心点Pとの間の長さlとによって求められる。奥行き値zがどのような値であれ、決まった値であれば、デジタルビデオカメラ190から見た長さlは、オブジェクトがφ方向に傾くにつれて短くなる。従って、奥行き値zが分かっていれば、長さlによって簡単にφ方向の傾きの度合いを求めることができ、図4Aおよび図4Bで示した第1の実施の形態のように相対的な幅の値や幅の比率を計算することが不要となる。 The inclination in the φ direction is obtained by a method different from the method of the first embodiment. In other words, the depth value z obtained as described above and the length l between the center point P S of the circle 311 and the center point P of the pixel group 307 corresponding to the cylinder 301 are obtained. If the depth value z is any value, the length l viewed from the digital video camera 190 becomes shorter as the object tilts in the φ direction. Therefore, if the depth value z is known, the degree of inclination in the φ direction can be easily obtained from the length l, and the relative width as in the first embodiment shown in FIGS. 4A and 4B. It is not necessary to calculate the value or width ratio.

図6Aは、本発明のさらに別の実施の形態に係る柱状オブジェクトを示している。   FIG. 6A shows a columnar object according to still another embodiment of the present invention.

図6Aに示すように、柱状オブジェクトは、概ねシリンダ状の本体301からなる。さらに、このシリンダ301には、該シリンダ301とは異なる色の三つのストライプS1、S2およびS3が付けられている。好ましくは、このストライプS1、S2およびS3は、同じ幅を有し、シリンダ301の両端と中央に等間隔で付けられている。 As shown in FIG. 6A, the columnar object includes a substantially cylindrical main body 301. Further, the cylinder 301 is provided with three stripes S 1 , S 2 and S 3 having different colors from the cylinder 301. Preferably, the stripes S 1 , S 2 and S 3 have the same width and are equally spaced at both ends and the center of the cylinder 301.

この実施の形態によれば、画像から抽出されたシリンダ301を構成する画素群には、二次元的なラインが形成されており、この二次元的なラインによって色の遷移を確認することができる。奥行き値z、角度θおよび傾きφの値を求めるために、シリンダ301の長手方向によって定義されるラインLに沿って発生する色遷移の位置が求められる。   According to this embodiment, a two-dimensional line is formed in the pixel group constituting the cylinder 301 extracted from the image, and color transition can be confirmed by this two-dimensional line. . In order to obtain the values of the depth value z, the angle θ, and the inclination φ, the position of the color transition that occurs along the line L defined by the longitudinal direction of the cylinder 301 is obtained.

即ち、図6Bに示すように、ラインLにおいてはっきりとした色の遷移が起きている位置を特定するために、デジタルビデオカメラ190から見た場合の、シリンダ301の長手方向に沿ったラインLに対応する画素群のサンプリングを行う必要がある。特に、このような色遷移を検出するために、デジタルビデオカメラ190から出力されるYCrCb信号中のクロミナンス値CrおよびCbが検出される。ストライプの色を選択するための基準において、以下に説明する理由のため、シリンダ301、さらに、ストライプS1、S2およびS3の各色のクロミナンス信号CrおよびCbをピタゴラスの距離を用いて合成することによって得られた合成クロミナンス値Dを用いることが好ましい。合成クロミナンス値Dは次の式によって求められる。 That is, as shown in FIG. 6B, in order to identify the position where a clear color transition occurs in the line L, the line L along the longitudinal direction of the cylinder 301 when viewed from the digital video camera 190 is displayed. It is necessary to sample the corresponding pixel group. In particular, in order to detect such a color transition, chrominance values Cr and Cb in the YCrCb signal output from the digital video camera 190 are detected. In the criteria for selecting the color of the stripe, for the reason described below, the chrominance signals Cr and Cb of the colors of the cylinder 301 and the stripes S 1 , S 2 and S 3 are synthesized using the Pythagorean distance. It is preferable to use the synthesized chrominance value D obtained by this. The synthesized chrominance value D is obtained by the following equation.

Figure 2006178948
Figure 2006178948

このようにして、デジタルビデオカメラ190によって使用される二次元的なクロミナンス色空間における分離度を定義することができる。   In this way, the degree of separation in the two-dimensional chrominance color space used by the digital video camera 190 can be defined.

後述する合成クロミナンス値Dが最大になる色を選択することによって、閾値Dtを決めることが可能となる。合成クロミナンス値Dの値が閾値Dtより大きくなるような、特定の分離度を越えている場合にのみ、ストライプS1、S2およびS3に対応する色遷移が検出される。従って、このような閾値Dtを用いることによってシリンダ301のラインLに沿った画素がフィルタにかけられ、ストライプS1、S2およびS3に対応する大きな色遷移が検出される。 By later synthesized chrominance value D to select a color to become maximum, it is possible to determine the threshold D t. Color transitions corresponding to the stripes S 1 , S 2 and S 3 are detected only when a certain degree of separation is exceeded such that the value of the combined chrominance value D is greater than the threshold value D t . Accordingly, the pixels along the line L of the cylinder 301 by using such a threshold D t is filtered, large color transition corresponding to the stripe S 1, S 2 and S 3 are detected.

図6Bに示すように、ラインLに沿って色遷移が発生している各位置で、各ストライプS1、S2およびS3に対応する2つのスパイクが検出される。これらのスパイクの中心点がストライプの位置であるとみなされる。ストライプの位置が決定されると、ストライプ間の長さ(距離)l1およびl2が求められる。シリンダ全体の長さはl1とl2の合計である。 As shown in FIG. 6B, at each position where the color transition occurs along the line L, two spikes corresponding to the stripes S 1 , S 2 and S 3 are detected. The center point of these spikes is considered to be the position of the stripe. Once the stripe positions are determined, the lengths (distances) l 1 and l 2 between the stripes are determined. The total length of the cylinder is the sum of l 1 and l 2 .

次に、ストライプ間の長さ(距離)l1とl2のデータに基づいて、三次元オブジェクトの位置と方向に関する情報を得るために必要な奥行き値z、角度θおよび傾きφの値を求める方法について説明する。 Next, based on the data of the lengths (distances) l 1 and l 2 between the stripes, the values of the depth value z, the angle θ, and the inclination φ necessary for obtaining information on the position and direction of the three-dimensional object are obtained. A method will be described.

まず、シリンダ301の全長に渡って連続する画素によって定義されるラインLのデータが既に求められており、また、デジタルビデオカメラ190がX−Y平面に対して法線方向に向いていると仮定すると、上述した実施の形態の場合と基本的に同じように、角度θは、シリンダ301の長手方向のラインLとY軸との間の角度であるとみなして直接的に求めることができる。   First, it is assumed that the data of the line L defined by the continuous pixels over the entire length of the cylinder 301 has already been obtained and the digital video camera 190 is oriented in the normal direction with respect to the XY plane. Then, as in the case of the above-described embodiment, the angle θ can be directly obtained by regarding the angle θ as the angle between the line L in the longitudinal direction of the cylinder 301 and the Y axis.

φ方向の傾きを求めるためには、長さの比l1:l2が用いられる。例えば、シリンダ301がデジタルビデオカメラ190に向かってφ方向に傾いているような場合、シリンダ301の上端は下端よりもデジタルビデオカメラ190に近くなっている。つまり、長さl2よりも長さl1の方がデジタルビデオカメラ190に近くなっているため、長さl1の方が長くなる。長さl1および12は、オブジェクトとデジタルビデオカメラ190との間の距離zに依存するが、角度φが一定であれば、これらの長さの比l1:l2は不変であるため、常にこの比l1:l2を指標としてφ方向のシリンダ301の傾きを求めることができる。 In order to obtain the inclination in the φ direction, the length ratio l 1 : l 2 is used. For example, when the cylinder 301 is inclined in the φ direction toward the digital video camera 190, the upper end of the cylinder 301 is closer to the digital video camera 190 than the lower end. That is, since the length l 1 is closer to the digital video camera 190 than the length l 2 , the length l 1 is longer. The lengths l 1 and 1 2 depend on the distance z between the object and the digital video camera 190, but if the angle φ is constant, the ratio of these lengths l 1 : l 2 is unchanged. The inclination of the cylinder 301 in the φ direction can always be obtained using this ratio l 1 : l 2 as an index.

奥行き値zは、第1の実施の形態の場合と同じような方法で求めることができる。全体の長さl(l=l1+l2)をφで重み付けした値lφを求めれば、奥行き値zを得ることができる。即ち、まず、オブジェクトの見かけ上の全体の長さlに対する傾き(角度)φの影響度が求められる。この傾き(角度)φの影響度によって適切に重み付けを行った全体の長さは、オブジェクトとデジタルビデオカメラ190との間の距離(奥行き値)zと比例しているため、奥行き値zを求めることができる。 The depth value z can be obtained by the same method as in the first embodiment. The depth value z can be obtained by obtaining a value lφ obtained by weighting the entire length l (l = l 1 + l 2 ) by φ. That is, first, the degree of influence of the inclination (angle) φ on the apparent overall length l of the object is obtained. The total length appropriately weighted by the degree of influence of the inclination (angle) φ is proportional to the distance (depth value) z between the object and the digital video camera 190, so the depth value z is obtained. be able to.

より簡単に言えば、傾きφは長さl1とl2の比によって求められ、傾きφの値が求められれば、奥行き値zは、長さl1とl2の合計によって求めることができる。 More simply, the slope φ is obtained by the ratio of the lengths l 1 and l 2 , and if the value of the slope φ is obtained, the depth value z can be obtained by the sum of the lengths l 1 and l 2. .

次に、図7を参照して柱状オブジェクトの回転成分を求める方法について説明する。この方法は、らせん状のストライプSHを柱状オブジェクトに付けることによって、上述した実施の形態のいずれにも適用することができる。 Next, a method for obtaining the rotation component of the columnar object will be described with reference to FIG. This method can be applied to any of the above-described embodiments by attaching a spiral stripe SH to a columnar object.

上述した捕捉方法は、オブジェクトが有する6つの自由度のうちの5つを得るために用いられる。残りの1つの自由度は、シリンダ301の軸を中心とする回転である。シリンダ301は軸を中心に対称に形成されているため、シリンダ301の回転を求めることは困難であるように思われる。シリンダ301の回転成分を得るために本発明において採用した方法は、らせん状のストライプSHを用いることである。このストライプSHは、シリンダ301に単に一回だけ巻き付けられる。シリンダ301が回転した際、ストライプSHの高さがシリンダの回転角度に対応する。 The acquisition method described above is used to obtain five of the six degrees of freedom that an object has. The remaining one degree of freedom is rotation about the axis of the cylinder 301. Since the cylinder 301 is formed symmetrically about the axis, it seems difficult to determine the rotation of the cylinder 301. Methods employed in the present invention in order to obtain the rotational component of the cylinder 301 is to use a helical stripe S H. This stripe SH is wound around the cylinder 301 only once. When the cylinder 301 is rotated, the height of the stripe S H corresponds to the angle of rotation of the cylinder.

具体的には、図7に示すように、シリンダ301(図5Aおよび図5Bの場合であれば、柱状オブジェクトのシリンダ部分)に一本のらせん状のストライプSHが一回だけ巻き付けられる。らせん状のストライプSHに関する情報は、該らせん状のストライプSHを構成する画素群313全体から、または、らせん状のストライプSHに対応する色遷移を用いて抽出される。このらせん状のストライプSHに関する情報によって、上述したジオメトリ処理を用いてストライプSHに最も適合したらせんHを求めることができる。 Specifically, as shown in FIG. 7, (in the case of FIGS. 5A and 5B, the cylinder portion of the prop) cylinder 301 helical stripes S H of one to being wound once. Information about the helical stripe S H from the entire pixel group 313 constituting the helical stripe S H, or is extracted by using the color transitions corresponding to the helical stripe S H. The information about the helical stripe S H, can be obtained best fitting helix H in a stripe S H using the above-described geometry processing.

また、らせんHのほか、上述した方法によって、シリンダ301に対応する画素群313の中心線Lが求められる。さらに、画素群313の全体の長さlが求められる。   In addition to the helix H, the center line L of the pixel group 313 corresponding to the cylinder 301 is obtained by the method described above. Further, the total length l of the pixel group 313 is obtained.

シリンダ301の回転度を求めるため、各部位における高さh(説明の簡略化のため、h1およびh2のみを図示している)が求められる。これらの高さhは、シリンダ301の一端と中心線LがらせんHに交差するポイントPaとの間の距離によって定義される。 In order to obtain the degree of rotation of the cylinder 301, the height h (only h 1 and h 2 are shown for simplicity of explanation) at each part is obtained. These heights h are defined by the distance between one end of the cylinder 301 and a point Pa where the center line L intersects the helix H.

図7の右側に示すように、デジタルビデオカメラ190側からはシリンダ301の片側(正投影された状態)しか一度に見ることができない。従って、カメラ画像から領域を抽出してらせんHを求めた上、このらせんHに基づいてシリンダ301の回転角度が求められる。図7において、回転がない(回転成分が0である)と仮定した場合、シリンダ301の一端(下端)かららせんH上のあるポイントPaまでが第1の高さh1で示されている。オブジェクトが45度回転した場合、下端かららせんHのポイントで交差するまでの中心線Lの高さh2はより短くなる。図7の一番右には、オブジェクトを90度回転させた場合が示されている。この場合、中心線LがらせんHと2つのポイントPa、Paで交差するという、特別な状態になる。このように、中心線Lの高さを計算することによって、シリンダ301(またはシリンダ301に固着されて回転するほかのオブジェクト)の回転成分を求めることができる。 As shown on the right side of FIG. 7, from the digital video camera 190 side, only one side (normally projected state) of the cylinder 301 can be seen at a time. Therefore, after extracting the region from the camera image to obtain the helix H, the rotation angle of the cylinder 301 is obtained based on this helix H. In FIG. 7, when it is assumed that there is no rotation (rotational component is 0), the first height h 1 indicates from one end (lower end) of the cylinder 301 to a certain point Pa on the helix H. When the object rotates 45 degrees, the height h 2 of the center line L from the lower end to the intersection at the point of the helix H becomes shorter. The rightmost part of FIG. 7 shows a case where the object is rotated 90 degrees. In this case, a special state occurs in which the center line L intersects the helix H at two points Pa and Pa. In this way, by calculating the height of the center line L, the rotation component of the cylinder 301 (or another object that rotates while being fixed to the cylinder 301) can be obtained.

回転を求めるために用いられる具体的な数値は、画素群313の全体の長さlに対する下端かららせんH上のポイントPaまでの高さの比によって求められる。この比を用いて得られた数値k(k=hmax/l)によって直接0〜360度の範囲の回転を求めることができる。従って、オブジェクトに関する追加の情報として、三次元空間におけるシリンダ301の方向の情報を求めることができる。このような情報は、例えば、ゲームプログラムによって表示される仮想オブジェクトの回転の制御に用いることができる。 A specific numerical value used for obtaining the rotation is obtained by a ratio of the height from the lower end to the point Pa on the helix H with respect to the entire length l of the pixel group 313. The rotation in the range of 0 to 360 degrees can be obtained directly by the numerical value k (k = h max / l) obtained by using this ratio. Therefore, information on the direction of the cylinder 301 in the three-dimensional space can be obtained as additional information regarding the object. Such information can be used, for example, for controlling the rotation of the virtual object displayed by the game program.

次に、図8Aおよび図8Bを参照し、図6Aおよび図6Bに示した実施の形態におけるストライプの色を決定する方法について説明する。具体的には、図8Aは、輝度と、色相および彩度の動径座標とによって定義される色空間を示すダイアグラムである。輝度は、色の明るさまたは強度によって定義され、色相は、スペクトル分布の主波長の変化によって定義され、彩度は、ある波長でのスペクトル分布の密度によって定義される。   Next, a method for determining the color of the stripe in the embodiment shown in FIGS. 6A and 6B will be described with reference to FIGS. 8A and 8B. Specifically, FIG. 8A is a diagram showing a color space defined by luminance and radial coordinates of hue and saturation. Luminance is defined by the brightness or intensity of the color, hue is defined by the change in the dominant wavelength of the spectral distribution, and saturation is defined by the density of the spectral distribution at a wavelength.

また、図8Bは、デジタルビデオカメラ190の出力信号(クロミナンス信号CrおよびCb)に対応する二次元的なクロミナンス色空間を示している。当業者であれば、デジタルビデオカメラ190がビデオ画像を構成する各画素の色を制御するための信号を出力することを理解できよう。図8Aの色相環図に示すように、色は、色相と彩度に対応する各動径座標によって定義される。しかしながら、動径座標を用いることによってコンピュータによる画像処理を複雑にする必要はない。より有用なYCrCb方式による別の基準を用いて色を定義することもできる。この方法は、ビデオ業界において色を表す際に、最も一般的に用いられている方法である。YCrCb方式は、一つのルマ(luma)成分Yと2つのクロミナンス成分CrおよびCbとによって各色を表すものである。Yは、明度や輝度に概ね相当するものであり、CrやCbは概ね色相に相当するものである。これらの成分は、国際電気通信連合のITU−R勧告 BT.601−4(アスペクト比が4:3の標準方式と16:9のワイドスクリーン方式のためのデジタルテレビジョンのスタジオ符号化パラメータ)において厳格に定義されている。従って、各画素のクロミナンス信号CrとCbは、デカルト座標によって定義され、このデカルト座標を特定の色相および彩度に対応する色相環内での位置を決定するために用いることができる。   FIG. 8B shows a two-dimensional chrominance color space corresponding to the output signals (chrominance signals Cr and Cb) of the digital video camera 190. Those skilled in the art will understand that the digital video camera 190 outputs a signal for controlling the color of each pixel constituting the video image. As shown in the hue circle diagram of FIG. 8A, a color is defined by each radial coordinate corresponding to hue and saturation. However, it is not necessary to complicate image processing by a computer by using radial coordinates. Other criteria based on the more useful YCrCb scheme can also be used to define the color. This method is the most commonly used method for representing colors in the video industry. In the YCrCb system, each color is represented by one luma component Y and two chrominance components Cr and Cb. Y roughly corresponds to lightness and brightness, and Cr and Cb roughly correspond to hue. These components are the ITU-R Recommendation BT. 601-4 (a digital television studio encoding parameter for a standard system with an aspect ratio of 4: 3 and a wide screen system with a 16: 9 aspect ratio). Thus, the chrominance signals Cr and Cb for each pixel are defined by Cartesian coordinates, which can be used to determine the position in the hue circle corresponding to a particular hue and saturation.

本発明によれば、ストライプS1、S2およびS3の色およびシリンダの色は、デジタルビデオカメラ190によってストライプを最も検出しやすくなるように決められる。色ベースによる捕捉は、照明の違いによって見かけの色が変化するという大きな問題がある。結果として、例えば、ある照明の下でオブジェクトに相当する青の色を検出しようとする場合、カメラによって捉えられる青の色が変化するため、オブジェクトの正確な検出が困難である。本発明においては、絶対的な色を検出するのではなく、色の遷移を検出するため、より信頼性の高い色の捕捉を行うことができる。例えば、図6Aおよび図6Bに示された実施の形態において、シリンダ301の色が青であり、ストライプS1、S2およびS3の色がオレンジである場合、照明の条件が変わって見かけの色が変化しても、図6Bに示すように、これらの色の遷移ははっきりとしたままである。 According to the present invention, the colors of the stripes S 1 , S 2 and S 3 and the colors of the cylinders are determined so that the digital video camera 190 can most easily detect the stripes. Color-based capture has the major problem that the apparent color changes depending on the illumination. As a result, for example, when a blue color corresponding to an object is to be detected under a certain illumination, the blue color captured by the camera changes, making it difficult to accurately detect the object. In the present invention, since an absolute color is not detected but a color transition is detected, it is possible to capture a more reliable color. For example, in the embodiment shown in FIGS. 6A and 6B, when the color of the cylinder 301 is blue and the colors of the stripes S 1 , S 2, and S 3 are orange, the illumination conditions change and the apparent As the colors change, these color transitions remain clear, as shown in FIG. 6B.

上述したように、デジタルビデオカメラ190は、図8Bに示す二次元的なクロミナンス色空間を用いてデータを捕捉する。この色空間内で、色の分離度Dが最大となるようにオブジェクトとストライプの色を決定することによって、色遷移の検出性能が大幅に向上する。   As described above, the digital video camera 190 captures data using the two-dimensional chrominance color space shown in FIG. 8B. In this color space, the color transition detection performance is greatly improved by determining the color of the object and the stripe so that the color separation degree D is maximized.

具体的には、図8Bに示すように、彩度の高い青とオレンジの色は、色相環の概ね正反対端に位置しており、色空間において、距離Dが大きく離れている。実際の距離Dは、既に式(4)において説明したように、辺ΔCr(青とオレンジの2つの色に対応する各クロミナンス信号値Crの差)と辺ΔCb(青とオレンジの2つの色に対応する各クロミナンス信号値Cbの差)を有する三角形の斜辺として、即ち、実際の距離Dは、(ΔCr)2+(ΔCb)2の平方根として計算される。 Specifically, as shown in FIG. 8B, the highly saturated blue and orange colors are located at substantially opposite ends of the hue circle, and the distance D is greatly separated in the color space. As described in the equation (4), the actual distance D is calculated based on the side ΔCr (the difference between the chrominance signal values Cr corresponding to the two colors of blue and orange) and the side ΔCb (the two colors of blue and orange). As the hypotenuse of the triangle with the difference between each corresponding chrominance signal value Cb), ie the actual distance D is calculated as the square root of (ΔCr) 2 + (ΔCb) 2 .

青とオレンジの組み合わせを例に挙げて説明したが、他の色の組み合わせでもよいことが理解されよう。例えば、同じように色空間内で距離が大きく離れている緑とマゼンタを用いることもできる。即ち、この方法は、色空間で色の分離度が最大になるようにクロミナンス信号CrおよびCbを用いて色を決定するための一般的な基準を提供するものである。   While a blue and orange combination has been described as an example, it will be appreciated that other color combinations may be used. For example, similarly, green and magenta that are largely separated in the color space can be used. That is, this method provides a general criterion for determining colors using the chrominance signals Cr and Cb so that the color separation in the color space is maximized.

つまり、2つの色の間の距離の計算方法および色の決定方法は、2つの色の距離が、色相の車輪(色相環)における特定のスポーク(直径)に投影される距離として計算されるように行われる。まず、特定の傾き(角度)θを有する色相の車輪(色相環)のスポーク(直径)が決められる。色相環において決定された直径の傾きを決めることによって、検出されるべき色遷移を決めることができる。例えば、緑を(1、1)とし、マゼンタを(−1、−1)とすると、スポークの直径は45度の傾き(角度)θに設定される。次に、色の分離度(距離)は、各色を45度のラインに投影することによって計算される。このように、緑とマゼンタの場合、算出される距離は、上述したピタゴラスの距離Dと全く同じになる。しかしながら、直径(ライン)の方向が45度である場合、青とオレンジの距離はゼロになる。なぜならば、青とオレンジは原点に投影されるからである。即ち、45度に直径のラインが決められた場合、緑とマゼンタが検出に最適な色となる。なぜならば、この直径では、緑とマゼンタが色空間において分離度が最大になるからである。   In other words, the method for calculating the distance between two colors and the method for determining the color are such that the distance between the two colors is calculated as the distance projected on a specific spoke (diameter) in the wheel of the hue (hue ring). To be done. First, the spoke (diameter) of a wheel (hue ring) of a hue having a specific inclination (angle) θ is determined. By determining the slope of the diameter determined in the hue circle, the color transition to be detected can be determined. For example, assuming that green is (1, 1) and magenta is (-1, -1), the diameter of the spoke is set to an inclination (angle) θ of 45 degrees. The color separation (distance) is then calculated by projecting each color onto a 45 degree line. Thus, in the case of green and magenta, the calculated distance is exactly the same as the Pythagorean distance D described above. However, if the diameter (line) direction is 45 degrees, the distance between blue and orange is zero. This is because blue and orange are projected on the origin. That is, when a line having a diameter of 45 degrees is determined, green and magenta are optimal colors for detection. This is because at this diameter, green and magenta have the greatest degree of separation in color space.

従って、0〜180度の範囲から決められる特定の角度θにおいて、2つの色(Cr1、Cb1)および(Cr2、Cb2)の分離度は、次の式によって求められる。 Therefore, the separation degree of the two colors (Cr 1 , Cb 1 ) and (Cr 2 , Cb 2 ) at a specific angle θ determined from the range of 0 to 180 degrees is obtained by the following equation.

Figure 2006178948
Figure 2006178948

従って、式(5)によって計算される距離は、角度θによって定義される所定の方向に基づいて閾値Dtを設定するためにも用いられる。例えば、実際に、オブジェクトの色遷移が緑とマゼンタである場合、上述した一般的な距離計算方法を用いて、この式における角度θを45度に決めて閾値Dtを設定できる。 Therefore, the distance calculated by equation (5) is also used to set the threshold value D t based on a predetermined direction defined by the angle theta. For example, in practice, if the color transition of an object is green and magenta, using the general distance calculation methods described above, it can be set a threshold value D t decide the angle θ in the equation 45 degrees.

本明細書において、ビデオカメラの前で操作される現実のオブジェクトの位置および方向をカメラによって取り込まれたオブジェクトの二次元的な画像を三次元空間にマッピングすることによって求める幾つかの方法について説明した。オブジェクトの位置や方向などの三次元的な情報は、ゲームプログラムにおけるアクションの制御に用いられる。   This document has described several methods for determining the position and orientation of a real object operated in front of a video camera by mapping a two-dimensional image of the object captured by the camera into a three-dimensional space. . Three-dimensional information such as the position and direction of the object is used for controlling actions in the game program.

ゲームプログラムの制御に関する一つのわかりやすい例は、ゲームの画面上に表示される動画の一部をなす「仮想オブジェクト」を「現実」のオブジェクトの動作や位置に対応させることであるが、三次元的な情報は、当業者であれば考案可能な他の異なる方法でのゲームプログラムの制御にも用いられることが理解できよう。例えば、操作によるオブジェクトの位置や方向の変化をサウンドプロセッサによって生み出されるサウンドのボリューム、トーン、ピッチ、リズム等に関連付けて「テレミン」のような音楽効果を生み出すこともできる。このような音楽的な音声効果、または、リズムによる音声効果をゲーム機のスクリーンに表示される視覚的な効果と併せて用いることによって、ユーザ(例えばゲームプレイヤ)が体感する効果を高めるようにしてもよい。   One easy-to-understand example of game program control is to associate a “virtual object” that forms part of the video displayed on the game screen with the motion and position of a “real” object. It will be appreciated that such information may also be used to control the game program in other different ways that can be devised by those skilled in the art. For example, a change in the position or direction of an object due to an operation can be associated with the volume, tone, pitch, rhythm, etc. of the sound generated by the sound processor, thereby creating a music effect such as “telemin”. By using such a musical sound effect or a sound effect based on rhythm in combination with a visual effect displayed on the screen of the game machine, the effect experienced by the user (for example, a game player) is enhanced. Also good.

本発明の範囲と精神から逸脱することなく、この明細書に記載された実施の形態の内容を当業者によって改変または変形できることが、容易に理解できよう。従って、請求の範囲は、この明細書中に記載された内容に限定されるものではなく、当業者によって均等であると合理的に判断されるような特徴の全てを包含するものと解釈するべきである。   It will be readily understood by those skilled in the art that the contents of the embodiments described in the present specification can be modified or modified without departing from the scope and spirit of the present invention. Therefore, the scope of the claims should not be limited to what is described in this specification, but should be construed to include all features that are reasonably judged to be equivalent by those skilled in the art. It is.

デジタルビデオカメラからの入力の受信に適したビデオゲーム機の要部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the principal part of the video game machine suitable for reception of the input from a digital video camera. ゲームプログラムのビデオ画面上でアクションを発生させるための、デジタルビデオカメラの前での補助入力装置としてのハンドヘルド柱状オブジェクトの動作を示す図である。It is a figure which shows operation | movement of the handheld columnar object as an auxiliary input device in front of a digital video camera for generating an action on the video screen of a game program. ユーザによって操作される柱状オブジェクトの捕捉および識別に必要な機能を示すブロック図である。It is a block diagram which shows the function required for the capture and identification of the columnar object operated by the user. 図4Aは、本発明の実施の形態に係る柱状入力装置を示す図であり、図4Bは、図4Aに示す柱状入力装置に対応するシリンダの二次元的な画素データを三次元空間にマッピングする方法を示す図である。FIG. 4A is a diagram illustrating a columnar input device according to an embodiment of the present invention, and FIG. 4B maps two-dimensional pixel data of a cylinder corresponding to the columnar input device illustrated in FIG. 4A to a three-dimensional space. It is a figure which shows a method. 図5Aは、本発明の別の実施の形態に係る柱状入力装置を示す図であり、図5Bは、図5Aに示す柱状入力装置に対応する球体およびシリンダの結合体の二次元的な画素データを三次元空間にマッピングする方法を示す図である。FIG. 5A is a diagram showing a columnar input device according to another embodiment of the present invention, and FIG. 5B is a two-dimensional pixel data of a combination of a sphere and a cylinder corresponding to the columnar input device shown in FIG. 5A. It is a figure which shows the method of mapping to 3D space. 図6Aは、本発明のさらに別の実施の形態に係る柱状入力装置を示す図であり、図6Bは、図6Aに示す柱状入力装置に対応するシリンダに付けられたストライプの二次元的な画素データをストライプの色遷移に基づいて三次元空間にマッピングする方法を示す図である。FIG. 6A is a diagram showing a columnar input device according to still another embodiment of the present invention, and FIG. 6B is a two-dimensional stripe pixel attached to a cylinder corresponding to the columnar input device shown in FIG. 6A. It is a figure which shows the method of mapping data to three-dimensional space based on the color transition of a stripe. らせん状のストライプが付けられた柱状入力装置を示し、また、本発明の別の実施の形態における柱状入力装置の回転成分を求める原理を説明する図である。It is a figure which shows the columnar input device with which the spiral stripe was attached | subjected, and also demonstrates the principle which calculates | requires the rotation component of the columnar input device in another embodiment of this invention. 図8Aおよび図8Bは、操作されるオブジェクトに付けられたストライプの色に基づいて最も検出しやすい色遷移を決めるための原理を示す二次元的なクロミナンス色空間の説明図である。8A and 8B are explanatory diagrams of a two-dimensional chrominance color space showing the principle for determining the color transition that is most easily detected based on the color of the stripe attached to the object to be operated.

符号の説明Explanation of symbols

50…モデム 60…ビデオゲーム機
70…光ディスク 80…モニタ
110…エンタテインメントシステム 112…MPU
114…メインメモリ 116…ベクトル演算ユニット
120…イメージプロセッサ 122…GIF
124…入出力ポート 126…OSDROM
128…RTC 130…データバス
132…入力装置 136…光ディスクドライブ
138…IPU 140…通信インタフェース
170…レンダリングエンジン 171…SPU
172…メモリインタフェース 173…サウンドバッファ
174…画像メモリ 175…スピーカ
176…ディスプレイコントローラ 178…第1バス
180…第2バス 190…デジタルビデオカメラ
301…シリンダ 303…ハンドル
305…画像 307、311、313…画素群
309…球体オブジェクト
DESCRIPTION OF SYMBOLS 50 ... Modem 60 ... Video game machine 70 ... Optical disk 80 ... Monitor 110 ... Entertainment system 112 ... MPU
114 ... Main memory 116 ... Vector arithmetic unit 120 ... Image processor 122 ... GIF
124 ... Input / output port 126 ... OSDROM
128 ... RTC 130 ... data bus 132 ... input device 136 ... optical disk drive 138 ... IPU 140 ... communication interface 170 ... rendering engine 171 ... SPU
172 ... Memory interface 173 ... Sound buffer 174 ... Image memory 175 ... Speaker 176 ... Display controller 178 ... First bus 180 ... Second bus 190 ... Digital video camera 301 ... Cylinder 303 ... Handle 305 ... Image 307, 311, 313 ... Pixel Group 309 ... Sphere object

Claims (15)

メモリと表示部とを有する処理ユニットに接続された一台のビデオカメラの視界の中で物理的なオブジェクトを操作するステップと、
前記ビデオカメラによって捕捉された二次元的な画素情報を前記処理ユニットに供給するステップと、
前記二次元的な画素情報から前記オブジェクトに対応する少なくとも一つの画素群を抽出するステップと、
前記少なくとも一つの画素群に基づいて二次元的な幾何学的形状を定義するための一組のパラメータを求めるステップと、
前記一組のパラメータに基づいて所定のアルゴリズムを実行して前記二次元的な幾何学的形状を幾何学的な数値による三次元的に定義されたデータにマッピングすることによって、操作された前記オブジェクトの位置および方向に対応する三次元における前記幾何学的な数値の情報を得るステップと、
前記三次元に定義されたデータを前記メモリに格納するステップと、
前記幾何学的な数値情報を用いて前記表示部上のアクションを制御するステップとを含むことを特徴とするゲームプログラムの制御方法。
Manipulating a physical object in the field of view of a single video camera connected to a processing unit having a memory and a display;
Providing two-dimensional pixel information captured by the video camera to the processing unit;
Extracting at least one pixel group corresponding to the object from the two-dimensional pixel information;
Determining a set of parameters for defining a two-dimensional geometric shape based on the at least one pixel group;
The manipulated object by executing a predetermined algorithm based on the set of parameters and mapping the two-dimensional geometric shape to three-dimensionally defined data by geometric numerical values Obtaining the geometric numerical information in three dimensions corresponding to the position and direction of
Storing the three-dimensionally defined data in the memory;
And a step of controlling an action on the display unit using the geometric numerical information.
請求項1記載の方法において、前記オブジェクトが無地のシリンダからなり、前記抽出された画素群によって定義される幾何学的形状が四角形であり、前記所定のアルゴリズムが、
前記画素群の長さlを求めるステップと、
前記画素群に沿った少なくとも二つの異なる長さの前記画素群の幅w1およびw2を求めるステップと、
画像のX−Y平面において、Y軸と前記長さlによって定義される方向との間の傾き(角度)θを求めるステップと、
前記二つの幅の比w1:w2に基づいてY−Z平面における前記オブジェクトの傾きφを求めるステップと、
前記傾きφによって重み付けされた前記画素群の長さlφ、または、前記傾きφによって重み付けされた前記画素群を構成する画素の合計数Nφに基づいて前記オブジェクトの奥行き値zを求めるステップとを含むことを特徴とするゲームプログラムの制御方法。
The method of claim 1, wherein the object is a solid cylinder, the geometric shape defined by the extracted pixel group is a quadrangle, and the predetermined algorithm is:
Obtaining a length l of the pixel group;
Determining widths w 1 and w 2 of the pixel groups of at least two different lengths along the pixel group;
Obtaining an inclination (angle) θ between the Y axis and the direction defined by the length l in the XY plane of the image;
Obtaining the inclination φ of the object in the YZ plane based on the ratio of the two widths w 1 : w 2 ;
Obtaining a depth value z of the object based on a length lφ of the pixel group weighted by the inclination φ or a total number Nφ of pixels constituting the pixel group weighted by the inclination φ. A method for controlling a game program.
請求項1記載の方法において、前記オブジェクトが無地のシリンダからなり、前記抽出された画素群によって定義される幾何学的形状が四角形であり、前記所定のアルゴリズムが、
前記画素群の長さlを求めるステップと、
前記画素群に沿った少なくとも二つの異なる長さの前記画素群の幅w1およびw2を求めるステップと、
画像のX−Y平面において、Y軸と前記長さlによって定義される方向との間の傾き(角度)θを求めるステップと、
前記画素群の平均幅wavgに基づいて前記オブジェクトの奥行き値zを求めるステップと、
前記画素群の前記長さlと前記平均幅wavgとの比l:wavgに基づいてY−Z平面における前記オブジェクトの傾きφを求めるステップとを含むことを特徴とするゲームプログラムの制御方法。
The method of claim 1, wherein the object is a solid cylinder, the geometric shape defined by the extracted pixel group is a quadrangle, and the predetermined algorithm is:
Obtaining a length l of the pixel group;
Determining widths w 1 and w 2 of the pixel groups of at least two different lengths along the pixel group;
Obtaining an inclination (angle) θ between the Y axis and the direction defined by the length l in the XY plane of the image;
Obtaining a depth value z of the object based on an average width w avg of the pixel group;
The ratio l of the of the pixel group and the length l and the average width w avg: the control method of a game program based on w avg characterized in that it comprises the step of determining the inclination φ of the object in the Y-Z plane .
請求項1記載の方法において、前記オブジェクトが無地のシリンダと該シリンダに取り付けられた無地の球体とからなり、前記シリンダの色と前記球体の色とが異なっており、前記抽出された画素群のうち、前記シリンダに対応する部分によって定義される幾何学的形状が四角形であり、球体に対応する部分によって定義される幾何学的形状が円形であり、前記所定のアルゴリズムが、
前記抽出された画素群のうちの前記球体に対応する部分によって定義される前記円の中心点(ポイントPS)と該円全体の画素領域とを求めるステップと、
前記抽出された画素群のうちの前記シリンダに対応する部分によって定義される前記四角形の中心線における別のポイントPを求めるステップと、
前記ポイントPSと前記ポイントPとの間の長さlを求めるステップと、
画像のX−Y平面において、Y軸と前記長さlによって定義される方向との間の前記オブジェクトの傾きθを求めるステップと、
前記抽出された画素群のうちの前記球体に対応する部分によって定義される前記円を構成する画素の合計数Nに基づいて前記オブジェクトの奥行き値zを求めるステップと、
前記ポイントPSと前記ポイントPとの間の前記長さlと前記奥行き値zとに基づいて、Y−Z平面における前記オブジェクトの傾きφを求めるステップとを含むことを特徴とするゲームプログラムの制御方法。
2. The method according to claim 1, wherein the object includes a plain cylinder and a plain sphere attached to the cylinder, and the color of the cylinder is different from the color of the sphere. Of these, the geometric shape defined by the portion corresponding to the cylinder is a square, the geometric shape defined by the portion corresponding to the sphere is a circle, and the predetermined algorithm is:
Obtaining a center point (point P S ) of the circle defined by a portion corresponding to the sphere in the extracted pixel group and a pixel area of the entire circle;
Obtaining another point P at the center line of the rectangle defined by the portion of the extracted pixel group corresponding to the cylinder;
Determining a length l between the points P S and P;
Obtaining an inclination θ of the object between the Y axis and the direction defined by the length l in the XY plane of the image;
Obtaining a depth value z of the object based on a total number N of pixels constituting the circle defined by a portion corresponding to the sphere in the extracted pixel group;
A step of obtaining an inclination φ of the object in a YZ plane based on the length l and the depth value z between the point P S and the point P. Control method.
請求項1記載の方法において、前記オブジェクトが複数の周方向の無地のストライプが付けられた無地のシリンダからなり、前記ストライプの色と前記シリンダの色とが異なっており、前記画素群の抽出ステップにおいて前記シリンダと前記ストライプとの間の複数の色遷移が求められ、前記所定のアルゴリズムが、
二次元的なクロミナンス色空間における最大の分離度を定義する閾値Dtを設定するステップと、
前記ストライプの色および前記シリンダの色に対応する合成クロミナンス信号CrおよびCbによって求められる値Dに基づいて色遷移を検出するステップと、
前記値Dが前記所定の閾値Dtを超えた際に、十分な度合いの色遷移が発生したことを判断するステップと、
前記十分な度合いの色遷移によって前記ストライプの間のそれぞれの長さl1およびl2を定義するステップと、
前記ストライプの間のそれぞれの長さl1およびl2の比l1:l2に基づいて、Y−Z平面における前記オブジェクトの傾きφを求めるステップと、
前記長さl1およびl2の合計と前記Y−Z平面における前記オブジェクトの傾きφとに基づいて前記オブジェクトの奥行き値zを求めるステップとを含むことを特徴とするゲームプログラムの制御方法。
The method according to claim 1, wherein the object includes a plain cylinder provided with a plurality of plain stripes in the circumferential direction, the color of the stripe is different from the color of the cylinder, and the pixel group extraction step. A plurality of color transitions between the cylinder and the stripe are determined, and the predetermined algorithm is:
Setting a threshold D t that defines a maximum degree of separation in a two-dimensional chrominance color space;
Detecting a color transition based on a value D determined by combined chrominance signals Cr and Cb corresponding to the color of the stripe and the color of the cylinder;
And determining that the value D when it exceeds the predetermined threshold value D t, the color transition of sufficient degree occurs,
Defining a respective length l 1 and l 2 between the stripes by the sufficient degree of color transition;
Determining the inclination φ of the object in the YZ plane based on the ratio l 1 : l 2 of the respective lengths l 1 and l 2 between the stripes;
A method for controlling a game program, comprising: calculating a depth value z of the object based on a sum of the lengths l 1 and l 2 and an inclination φ of the object in the YZ plane.
請求項1記載の方法において、前記オブジェクトがらせん状の無地のストライプが付けられた無地のシリンダからなり、前記ストライプの色と前記シリンダの色とが異なっており、前記画素群の抽出ステップにおいて前記ストライプに対応する少なくとも一つの画素群が抽出され、さらに、前記オブジェクトの回転度を求めるための所定のアルゴリズムを実行するステップを含むことを特徴とするゲームプログラムの制御方法。   2. The method according to claim 1, wherein the object comprises a plain cylinder with a spiral plain stripe, and the color of the stripe and the color of the cylinder are different from each other in the pixel group extraction step. A method for controlling a game program, comprising: extracting at least one pixel group corresponding to a stripe; and executing a predetermined algorithm for obtaining a rotation degree of the object. 請求項6記載の方法において、前記オブジェクトの回転度を求めるための所定のアルゴリズムを実行するステップが、
前記シリンダに対応する画素群を抽出するステップと、
前記ストライプに対応する画素群に基づいてらせんHを定義するステップと、
前記シリンダに対応する画素群の中心線を求めるステップと、
前記シリンダに対応する抽出された画素群の端部と、前記中心線が前記らせんHに交差する該らせんH上のポイントとの間の高さhを求めるステップとを含み、
前記シリンダの回転度が前記シリンダに対応する画素群の全長lに対する前記高さhの比に基づいて求められることを特徴とするゲームプログラムの制御方法。
The method of claim 6, wherein the step of executing a predetermined algorithm for determining the degree of rotation of the object comprises:
Extracting a pixel group corresponding to the cylinder;
Defining a helix H based on a group of pixels corresponding to the stripe;
Obtaining a center line of a pixel group corresponding to the cylinder;
Determining a height h between an end of the extracted pixel group corresponding to the cylinder and a point on the helix H at which the center line intersects the helix H;
A method of controlling a game program, wherein the degree of rotation of the cylinder is obtained based on a ratio of the height h to a total length l of a pixel group corresponding to the cylinder.
二次元的な色空間において定義されるクロミナンス座標(Cr,Cb)を用いて色を検出するビデオカメラおよび画像処理システムを用いて捕捉されるオブジェクトに適用される色の選択方法において、
前記色空間において、各座標(Cr1,Cb1)および(Cr2,Cb2)によって定義される少なくとも二つの色を有するオブジェクトを前記ビデオカメラによって捕捉するステップと、
前記色空間によって定義される色相環上で所定の傾きθを有する直径を選択するステップと、
前記座標(Cr1,Cb1)および(Cr2,Cb2)によって定義される各ポイントから一対のラインを前記直径に対して法線方向に投影させるステップと、
前記ラインが前記直径に投影された各ポイント間の距離Dを算出するステップと、
前記算出された距離Dが所定の閾値を超えるような色のみを検出に適した色として選択するステップとを含むことを特徴とする色の選択方法。
In a method of selecting a color to be applied to an object captured using a video camera and an image processing system that detects colors using chrominance coordinates (Cr, Cb) defined in a two-dimensional color space,
Capturing in the color space by the video camera an object having at least two colors defined by coordinates (Cr 1 , Cb 1 ) and (Cr 2 , Cb 2 );
Selecting a diameter having a predetermined slope θ on a hue circle defined by the color space;
Projecting a pair of lines in a direction normal to the diameter from each point defined by the coordinates (Cr 1 , Cb 1 ) and (Cr 2 , Cb 2 );
Calculating a distance D between each point at which the line is projected onto the diameter;
Selecting only a color for which the calculated distance D exceeds a predetermined threshold as a color suitable for detection.
請求項8記載の色選択方法において、前記距離Dが次の式によって算出されることを特徴とする色の選択方法。
D=[Cr1・cosθ+Cb1・sinθ]−[Cr2・cosθ+Cb2・sinθ]
9. The color selection method according to claim 8, wherein the distance D is calculated by the following equation.
D = [Cr 1 · cos θ + Cb 1 · sin θ] − [Cr 2 · cos θ + Cb 2 · sin θ]
ストライプが付けられたシリンダ本体と、ハンドルとからなる入力装置であって、
前記ストライプの色と前記シリンダ本体の色とが異なる色であり、
少なくとも前記ストライプに対応する画素群とシリンダ本体に対応する画素群とからなる二次元的な画像データをカメラを介して画像処理ユニットに入力することによって三次元的なデータを入力することが可能なことを特徴とする入力装置。
An input device comprising a cylinder body with a stripe and a handle,
The color of the stripe is different from the color of the cylinder body,
It is possible to input three-dimensional data by inputting two-dimensional image data consisting of at least a pixel group corresponding to the stripe and a pixel group corresponding to the cylinder body to the image processing unit via the camera. An input device characterized by that.
請求項10記載の装置において、前記ストライプがらせん状であり、前記シリンダ本体の軸を中心とする回転データを入力することが可能なことを特徴とする入力装置。   The input device according to claim 10, wherein the stripe is spiral, and rotation data about the axis of the cylinder body can be input. ストライプが付けられたシリンダ本体と、ハンドルとからなる三次元オブジェクトを操作するステップと、
前記三次元オブジェクトの動作をカメラで捕捉して少なくとも前記シリンダ本体に対応する画素群と前記ストライプに対応する画素群とからなる二次元的な画像データを得るステップと、
前記二次元的な画像データを解析して前記オブジェクトの三次元的なデータを算出するステップとを含むことを特徴とする三次元オブジェクトの動作を入力する方法。
Manipulating a three-dimensional object composed of a cylinder body with a stripe and a handle;
Capturing the motion of the three-dimensional object with a camera to obtain two-dimensional image data comprising at least a pixel group corresponding to the cylinder body and a pixel group corresponding to the stripe;
Analyzing the two-dimensional image data and calculating three-dimensional data of the object, and inputting a motion of the three-dimensional object.
請求項12記載の方法において、前記ストライプがらせん状であり、
前記二次元的な画像データの解析ステップが、前記シリンダ本体に対応する画素群と前記ストライプに対応する画素群との関係を解析して前記シリンダ本体の軸を中心とする回転に関するデータを算出するステップを含むことを特徴とする三次元オブジェクトの動作を入力する方法。
The method of claim 12, wherein the stripe is helical.
The two-dimensional image data analysis step analyzes the relationship between the pixel group corresponding to the cylinder body and the pixel group corresponding to the stripe, and calculates data relating to rotation about the axis of the cylinder body. A method of inputting a motion of a three-dimensional object characterized by comprising steps.
ストライプが付けられたシリンダ本体からなる入力装置と、
前記入力装置の動作を捕捉するカメラと、
画像処理ユニットとからなり、
前記カメラが前記入力装置の動作を捕捉して前記シリンダ本体に対応する画素群と前記ストライプに対応する画素群とからなる二次元的な画像データを前記画像処理ユニットに供給し、
前記画像処理ユニットが前記二次元的な画像データを解析して前記入力装置の動作に基づく三次元的なデータを算出することを特徴とする三次元オブジェクトの動作を入力するシステム。
An input device comprising a cylinder body with a stripe;
A camera that captures the operation of the input device;
An image processing unit,
The camera captures the operation of the input device and supplies two-dimensional image data consisting of a pixel group corresponding to the cylinder body and a pixel group corresponding to the stripe to the image processing unit,
A system for inputting an operation of a three-dimensional object, wherein the image processing unit analyzes the two-dimensional image data and calculates three-dimensional data based on the operation of the input device.
請求項14記載のシステムにおいて、前記ストライプがらせん状であり、前記画像処理ユニットが前記シリンダ本体に対応する画素群と前記ストライプに対応する画素群との関係を解析して前記シリンダ本体の軸を中心とする回転に関するデータを算出することを特徴とする三次元オブジェクトの動作を入力するシステム。   15. The system according to claim 14, wherein the stripe is spiral, and the image processing unit analyzes a relationship between a pixel group corresponding to the cylinder body and a pixel group corresponding to the stripe to determine the axis of the cylinder body. A system for inputting a motion of a three-dimensional object, characterized by calculating data relating to rotation at the center.
JP2005351271A 2000-07-21 2005-12-05 Image processing method and recording medium Expired - Lifetime JP4381371B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US09/621,578 US6795068B1 (en) 2000-07-21 2000-07-21 Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001220048A Division JP3901960B2 (en) 2000-07-21 2001-07-19 A method for mapping objects from 2D camera images to 3D space to control actions in game programs

Publications (3)

Publication Number Publication Date
JP2006178948A true JP2006178948A (en) 2006-07-06
JP2006178948A5 JP2006178948A5 (en) 2007-01-18
JP4381371B2 JP4381371B2 (en) 2009-12-09

Family

ID=24490736

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2001220048A Expired - Lifetime JP3901960B2 (en) 2000-07-21 2001-07-19 A method for mapping objects from 2D camera images to 3D space to control actions in game programs
JP2005351271A Expired - Lifetime JP4381371B2 (en) 2000-07-21 2005-12-05 Image processing method and recording medium

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2001220048A Expired - Lifetime JP3901960B2 (en) 2000-07-21 2001-07-19 A method for mapping objects from 2D camera images to 3D space to control actions in game programs

Country Status (3)

Country Link
US (4) US6795068B1 (en)
EP (1) EP1176559A3 (en)
JP (2) JP3901960B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008018943A1 (en) * 2006-08-08 2008-02-14 Microsoft Corporation Virtual controller for visual displays
WO2008058271A3 (en) * 2006-11-09 2008-08-14 Intelligence Frontier Media La Control device with hybrid sensing system comprised of vision-based pattern recognition and electronic signal transmission
JP2011522318A (en) * 2008-05-26 2011-07-28 マイクロソフト インターナショナル ホールディングス ビイ.ヴイ. Control virtual reality
JP2014507020A (en) * 2010-12-02 2014-03-20 エンパイア テクノロジー ディベロップメント エルエルシー Augmented reality system
JP2017059207A (en) * 2015-09-18 2017-03-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image recognition method
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space

Families Citing this family (221)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9155496B2 (en) 1997-03-04 2015-10-13 Dexcom, Inc. Low oxygen in vivo analyte sensor
US7899511B2 (en) 2004-07-13 2011-03-01 Dexcom, Inc. Low oxygen in vivo analyte sensor
AUPQ363299A0 (en) * 1999-10-25 1999-11-18 Silverbrook Research Pty Ltd Paper based information inter face
US6795068B1 (en) * 2000-07-21 2004-09-21 Sony Computer Entertainment Inc. Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program
DE60236866D1 (en) * 2001-05-24 2010-08-12 Tecey Software Dev Kg Llc OPTICAL BUS ARRANGEMENT FOR A COMPUTER SYSTEM
US7613491B2 (en) 2002-05-22 2009-11-03 Dexcom, Inc. Silicone based membranes for use in implantable glucose sensors
US8010174B2 (en) 2003-08-22 2011-08-30 Dexcom, Inc. Systems and methods for replacing signal artifacts in a glucose sensor data stream
US8260393B2 (en) * 2003-07-25 2012-09-04 Dexcom, Inc. Systems and methods for replacing signal data artifacts in a glucose sensor data stream
US8364229B2 (en) * 2003-07-25 2013-01-29 Dexcom, Inc. Analyte sensors having a signal-to-noise ratio substantially unaffected by non-constant noise
US7161579B2 (en) 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
US7102615B2 (en) * 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US7623115B2 (en) 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US7782297B2 (en) 2002-07-27 2010-08-24 Sony Computer Entertainment America Inc. Method and apparatus for use in determining an activity level of a user in relation to a system
US7627139B2 (en) 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US9682319B2 (en) 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
JP2004199496A (en) * 2002-12-19 2004-07-15 Sony Corp Information processing apparatus and method, and program
WO2004063884A2 (en) * 2003-01-09 2004-07-29 Evolution Robotics, Inc. Computer and vision-based augmented interaction in the use of printed media
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US8075919B2 (en) * 2003-07-18 2011-12-13 Baxter International Inc. Methods for fabrication, uses and compositions of small spherical particles prepared by controlled phase separation
WO2007120442A2 (en) 2003-07-25 2007-10-25 Dexcom, Inc. Dual electrode system for a continuous analyte sensor
US7519408B2 (en) 2003-11-19 2009-04-14 Dexcom, Inc. Integrated receiver for continuous analyte sensor
US20190357827A1 (en) 2003-08-01 2019-11-28 Dexcom, Inc. Analyte sensor
US8845536B2 (en) * 2003-08-01 2014-09-30 Dexcom, Inc. Transcutaneous analyte sensor
US20070208245A1 (en) * 2003-08-01 2007-09-06 Brauker James H Transcutaneous analyte sensor
US8160669B2 (en) * 2003-08-01 2012-04-17 Dexcom, Inc. Transcutaneous analyte sensor
US6931327B2 (en) 2003-08-01 2005-08-16 Dexcom, Inc. System and methods for processing analyte sensor data
US20100168657A1 (en) 2003-08-01 2010-07-01 Dexcom, Inc. System and methods for processing analyte sensor data
US7591801B2 (en) 2004-02-26 2009-09-22 Dexcom, Inc. Integrated delivery device for continuous glucose sensor
US9135402B2 (en) 2007-12-17 2015-09-15 Dexcom, Inc. Systems and methods for processing sensor data
US8886273B2 (en) 2003-08-01 2014-11-11 Dexcom, Inc. Analyte sensor
US7920906B2 (en) 2005-03-10 2011-04-05 Dexcom, Inc. System and methods for processing analyte sensor data for sensor calibration
US20140121989A1 (en) 2003-08-22 2014-05-01 Dexcom, Inc. Systems and methods for processing analyte sensor data
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US9573056B2 (en) 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US7285047B2 (en) * 2003-10-17 2007-10-23 Hewlett-Packard Development Company, L.P. Method and system for real-time rendering within a gaming environment
US8133115B2 (en) 2003-10-22 2012-03-13 Sony Computer Entertainment America Llc System and method for recording and displaying a graphical path in a video game
US9247900B2 (en) 2004-07-13 2016-02-02 Dexcom, Inc. Analyte sensor
US8287453B2 (en) 2003-12-05 2012-10-16 Dexcom, Inc. Analyte sensor
US8364231B2 (en) 2006-10-04 2013-01-29 Dexcom, Inc. Analyte sensor
US8423114B2 (en) 2006-10-04 2013-04-16 Dexcom, Inc. Dual electrode system for a continuous analyte sensor
US11633133B2 (en) 2003-12-05 2023-04-25 Dexcom, Inc. Dual electrode system for a continuous analyte sensor
US8532730B2 (en) 2006-10-04 2013-09-10 Dexcom, Inc. Analyte sensor
EP2239567B1 (en) * 2003-12-05 2015-09-02 DexCom, Inc. Calibration techniques for a continuous analyte sensor
US7663689B2 (en) 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
CA2455359C (en) * 2004-01-16 2013-01-08 Geotango International Corp. System, computer program and method for 3d object measurement, modeling and mapping from single imagery
US8808228B2 (en) 2004-02-26 2014-08-19 Dexcom, Inc. Integrated medicament delivery device for use with continuous analyte sensor
US8277713B2 (en) * 2004-05-03 2012-10-02 Dexcom, Inc. Implantable analyte sensor
US20050245799A1 (en) * 2004-05-03 2005-11-03 Dexcom, Inc. Implantable analyte sensor
WO2005119356A2 (en) 2004-05-28 2005-12-15 Erik Jan Banning Interactive direct-pointing system and calibration method
US7713574B2 (en) 2004-07-13 2010-05-11 Dexcom, Inc. Transcutaneous analyte sensor
US8886272B2 (en) 2004-07-13 2014-11-11 Dexcom, Inc. Analyte sensor
WO2006127694A2 (en) 2004-07-13 2006-11-30 Dexcom, Inc. Analyte sensor
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
US20060046851A1 (en) * 2004-08-24 2006-03-02 Hewlett-Packard Development Company, L.P. Remote gaming and projection
US20060071933A1 (en) 2004-10-06 2006-04-06 Sony Computer Entertainment Inc. Application binary interface for multi-pass shaders
US8842186B2 (en) 2004-10-25 2014-09-23 I-Interactive Llc Control system and method employing identification of a displayed image
US8760522B2 (en) 2005-10-21 2014-06-24 I-Interactive Llc Multi-directional remote control system and method
US8456534B2 (en) 2004-10-25 2013-06-04 I-Interactive Llc Multi-directional remote control system and method
US7796116B2 (en) 2005-01-12 2010-09-14 Thinkoptics, Inc. Electronic equipment for handheld vision based absolute pointing system
US20060262188A1 (en) * 2005-05-20 2006-11-23 Oded Elyada System and method for detecting changes in an environment
US7636126B2 (en) 2005-06-22 2009-12-22 Sony Computer Entertainment Inc. Delay matching in audio/video systems
US9285897B2 (en) * 2005-07-13 2016-03-15 Ultimate Pointer, L.L.C. Easily deployable interactive direct-pointing system and calibration method therefor
US7426029B2 (en) 2005-08-31 2008-09-16 Microsoft Corporation Color measurement using compact device
US7822270B2 (en) * 2005-08-31 2010-10-26 Microsoft Corporation Multimedia color management system
US7573620B2 (en) * 2005-09-01 2009-08-11 Microsoft Corporation Gamuts and gamut mapping
US8274714B2 (en) * 2005-11-30 2012-09-25 Microsoft Corporation Quantifiable color calibration
TWI286484B (en) * 2005-12-16 2007-09-11 Pixart Imaging Inc Device for tracking the motion of an object and object for reflecting infrared light
US9757061B2 (en) 2006-01-17 2017-09-12 Dexcom, Inc. Low oxygen in vivo analyte sensor
JP4530419B2 (en) 2006-03-09 2010-08-25 任天堂株式会社 Coordinate calculation apparatus and coordinate calculation program
US20070216711A1 (en) * 2006-03-14 2007-09-20 Microsoft Corporation Microsoft Patent Group Abstracting transform representations in a graphics API
US7965859B2 (en) 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
EP2460570B1 (en) * 2006-05-04 2013-10-23 Sony Computer Entertainment America LLC Scheme for Detecting and Tracking User Manipulation of a Game Controller Body and for Translating Movements Thereof into Inputs and Game Commands
US7880746B2 (en) 2006-05-04 2011-02-01 Sony Computer Entertainment Inc. Bandwidth management through lighting control of a user environment via a display device
US20080001951A1 (en) 2006-05-07 2008-01-03 Sony Computer Entertainment Inc. System and method for providing affective characteristics to computer generated avatar during gameplay
US7573489B2 (en) 2006-06-01 2009-08-11 Industrial Light & Magic Infilling for 2D to 3D image conversion
US7573475B2 (en) 2006-06-01 2009-08-11 Industrial Light & Magic 2D to 3D image conversion
US8013838B2 (en) 2006-06-30 2011-09-06 Microsoft Corporation Generating position information using a video camera
US8913003B2 (en) 2006-07-17 2014-12-16 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer using a projection marker system
US8013869B2 (en) * 2006-09-13 2011-09-06 Adobe Systems Incorporated Color selection interface
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
JP2009134677A (en) * 2007-02-28 2009-06-18 Fuji Xerox Co Ltd Gesture interface system, wand for gesture input, application control method, camera calibration method, and control program
JP2008219788A (en) * 2007-03-07 2008-09-18 Toshiba Corp Stereoscopic image display apparatus, method and program
US8154561B1 (en) 2007-03-22 2012-04-10 Adobe Systems Incorporated Dynamic display of a harmony rule list
WO2008120189A1 (en) * 2007-03-29 2008-10-09 Cam-Trax Technologies Ltd System and method for tracking an electronic device
US9176598B2 (en) 2007-05-08 2015-11-03 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer with improved performance
US9536322B1 (en) 2007-05-15 2017-01-03 Peter Harmon Smith Implementation of multi-camera tracking applications using rich color transition curve target sequences
US9070192B1 (en) * 2007-05-15 2015-06-30 Vision Interface Technologies, LLC Implementing rich color transition curve tracking for applications
US20200037874A1 (en) 2007-05-18 2020-02-06 Dexcom, Inc. Analyte sensors having a signal-to-noise ratio substantially unaffected by non-constant noise
EP2152350A4 (en) 2007-06-08 2013-03-27 Dexcom Inc INTEGRATED MEDICINE DELIVERY DEVICE FOR USE WITH A CONTINUOUS ANALYZING SUBSTANCE SENSOR
US8237656B2 (en) * 2007-07-06 2012-08-07 Microsoft Corporation Multi-axis motion-based remote control
GB2451461A (en) * 2007-07-28 2009-02-04 Naveen Chawla Camera based 3D user and wand tracking human-computer interaction system
US20090062002A1 (en) * 2007-08-30 2009-03-05 Bay Tek Games, Inc. Apparatus And Method of Detecting And Tracking Objects In Amusement Games
EP4098177A1 (en) 2007-10-09 2022-12-07 DexCom, Inc. Integrated insulin delivery system with continuous glucose sensor
US8417312B2 (en) 2007-10-25 2013-04-09 Dexcom, Inc. Systems and methods for processing sensor data
US8290559B2 (en) 2007-12-17 2012-10-16 Dexcom, Inc. Systems and methods for processing sensor data
US8542907B2 (en) 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
WO2009108645A1 (en) 2008-02-27 2009-09-03 Sony Computer Entertainment America Inc. Methods for capturing depth data of a scene and applying computer actions
US8368753B2 (en) 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
US9352411B2 (en) 2008-05-28 2016-05-31 Illinois Tool Works Inc. Welding training system
US8890952B2 (en) 2008-07-29 2014-11-18 Microsoft Corporation Imaging system
WO2010014069A1 (en) * 2008-07-31 2010-02-04 Sti Medical Systems, Llc Single spot focus control
WO2010051089A1 (en) * 2008-10-27 2010-05-06 Sony Computer Entertainment Inc Control device for communicating visual information
FR2939325B1 (en) 2008-12-04 2015-10-16 Parrot DRONES SYSTEM WITH RECONNAISSANCE BEACONS
US8961313B2 (en) 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
US8624962B2 (en) * 2009-02-02 2014-01-07 Ydreams—Informatica, S.A. Ydreams Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
US8527657B2 (en) 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
WO2010108499A2 (en) * 2009-03-22 2010-09-30 Algreatly Cherif Atia 3d navigation method and system
US8342963B2 (en) 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US8721444B2 (en) 2009-07-21 2014-05-13 Sony Corporation Game device for performing operation object control and non-operation object control
US8666781B2 (en) * 2009-12-23 2014-03-04 Ai Cure Technologies, LLC Method and apparatus for management of clinical trials
US9256776B2 (en) 2009-11-18 2016-02-09 AI Cure Technologies, Inc. Method and apparatus for identification
US9293060B2 (en) 2010-05-06 2016-03-22 Ai Cure Technologies Llc Apparatus and method for recognition of patient activities when obtaining protocol adherence data
US20110119073A1 (en) 2009-11-18 2011-05-19 Al Cure Technologies LLC Method and Apparatus for Verification of Medication Administration Adherence
US10762172B2 (en) 2010-10-05 2020-09-01 Ai Cure Technologies Llc Apparatus and method for object confirmation and tracking
US9183601B2 (en) 2010-03-22 2015-11-10 Ai Cure Technologies Llc Method and apparatus for collection of protocol adherence data
US20110153360A1 (en) 2009-12-23 2011-06-23 Al Cure Technologies LLC Method and Apparatus for Verification of Clinical Trial Adherence
US8605165B2 (en) 2010-10-06 2013-12-10 Ai Cure Technologies Llc Apparatus and method for assisting monitoring of medication adherence
US8842096B2 (en) * 2010-01-08 2014-09-23 Crayola Llc Interactive projection system
US9542001B2 (en) * 2010-01-14 2017-01-10 Brainlab Ag Controlling a surgical navigation system
GB2478911B (en) 2010-03-22 2014-01-08 Timocco Ltd Object locating and tracking in video frames using smoothness check along specified line sections
US10116903B2 (en) 2010-05-06 2018-10-30 Aic Innovations Group, Inc. Apparatus and method for recognition of suspicious activities
US9883786B2 (en) 2010-05-06 2018-02-06 Aic Innovations Group, Inc. Method and apparatus for recognition of inhaler actuation
US9875666B2 (en) 2010-05-06 2018-01-23 Aic Innovations Group, Inc. Apparatus and method for recognition of patient activities
US9665767B2 (en) 2011-02-28 2017-05-30 Aic Innovations Group, Inc. Method and apparatus for pattern tracking
US9116553B2 (en) 2011-02-28 2015-08-25 AI Cure Technologies, Inc. Method and apparatus for confirmation of object positioning
SG184582A1 (en) * 2011-03-07 2012-10-30 Creative Tech Ltd A method, system and electronic device for association based identification
EP3575796B1 (en) 2011-04-15 2020-11-11 DexCom, Inc. Advanced analyte sensor calibration and error detection
US8845431B2 (en) 2011-05-31 2014-09-30 Microsoft Corporation Shape trace gesturing
US8740702B2 (en) 2011-05-31 2014-06-03 Microsoft Corporation Action trigger gesturing
US8657683B2 (en) 2011-05-31 2014-02-25 Microsoft Corporation Action selection gesturing
US8884949B1 (en) 2011-06-06 2014-11-11 Thibault Lambert Method and system for real time rendering of objects from a low resolution depth camera
WO2012172548A1 (en) * 2011-06-14 2012-12-20 Youval Nehmadi Method for translating a movement and an orientation of a predefined object into a computer generated data
US9342817B2 (en) 2011-07-07 2016-05-17 Sony Interactive Entertainment LLC Auto-creating groups for sharing photos
US9101994B2 (en) 2011-08-10 2015-08-11 Illinois Tool Works Inc. System and device for welding training
TWI478098B (en) * 2011-08-18 2015-03-21 Univ Nat Taiwan System and method of correcting a depth map for 3d image
US10558845B2 (en) 2011-08-21 2020-02-11 Aic Innovations Group, Inc. Apparatus and method for determination of medication location
KR101830966B1 (en) * 2011-09-21 2018-02-22 엘지전자 주식회사 Electronic device and contents generation method for electronic device
US9754357B2 (en) 2012-03-23 2017-09-05 Panasonic Intellectual Property Corporation Of America Image processing device, stereoscoopic device, integrated circuit, and program for determining depth of object in real space generating histogram from image obtained by filming real space and performing smoothing of histogram
EP2716468A1 (en) * 2012-10-04 2014-04-09 BlackBerry Limited Stylus body having two or more spheres coaxially affixed thereto
US8948498B1 (en) * 2012-10-17 2015-02-03 Google Inc. Systems and methods to transform a colored point cloud to a 3D textured mesh
US9583014B2 (en) 2012-11-09 2017-02-28 Illinois Tool Works Inc. System and device for welding training
US9317136B2 (en) * 2013-01-10 2016-04-19 UL See Inc. Image-based object tracking system and image-based object tracking method
US9583023B2 (en) 2013-03-15 2017-02-28 Illinois Tool Works Inc. Welding torch for a welding training system
US9672757B2 (en) 2013-03-15 2017-06-06 Illinois Tool Works Inc. Multi-mode software and method for a welding training system
US9399111B1 (en) 2013-03-15 2016-07-26 Aic Innovations Group, Inc. Method and apparatus for emotional behavior therapy
US9713852B2 (en) 2013-03-15 2017-07-25 Illinois Tool Works Inc. Welding training systems and devices
US9666100B2 (en) 2013-03-15 2017-05-30 Illinois Tool Works Inc. Calibration devices for a welding training system
US9766709B2 (en) * 2013-03-15 2017-09-19 Leap Motion, Inc. Dynamic user interactions for display control
US9728103B2 (en) 2013-03-15 2017-08-08 Illinois Tool Works Inc. Data storage and analysis for a welding training system
US9317916B1 (en) 2013-04-12 2016-04-19 Aic Innovations Group, Inc. Apparatus and method for recognition of medication administration indicator
US9436851B1 (en) 2013-05-07 2016-09-06 Aic Innovations Group, Inc. Geometric encrypted coded image
US9857876B2 (en) * 2013-07-22 2018-01-02 Leap Motion, Inc. Non-linear motion capture using Frenet-Serret frames
US9824297B1 (en) 2013-10-02 2017-11-21 Aic Innovations Group, Inc. Method and apparatus for medication identification
US10056010B2 (en) 2013-12-03 2018-08-21 Illinois Tool Works Inc. Systems and methods for a weld training system
US9454840B2 (en) * 2013-12-13 2016-09-27 Blake Caldwell System and method for interactive animations for enhanced and personalized video communications
US10105782B2 (en) 2014-01-07 2018-10-23 Illinois Tool Works Inc. Feedback from a welding torch of a welding system
US9751149B2 (en) 2014-01-07 2017-09-05 Illinois Tool Works Inc. Welding stand for a welding system
US10170019B2 (en) 2014-01-07 2019-01-01 Illinois Tool Works Inc. Feedback from a welding torch of a welding system
US9589481B2 (en) 2014-01-07 2017-03-07 Illinois Tool Works Inc. Welding software for detection and control of devices and for analysis of data
US9724788B2 (en) 2014-01-07 2017-08-08 Illinois Tool Works Inc. Electrical assemblies for a welding system
US9757819B2 (en) 2014-01-07 2017-09-12 Illinois Tool Works Inc. Calibration tool and method for a welding system
US9679113B2 (en) 2014-06-11 2017-06-13 Aic Innovations Group, Inc. Medication adherence monitoring system and method
US9443311B2 (en) * 2014-06-12 2016-09-13 Topcon Positioning Systems, Inc. Method and system to identify a position of a measurement pole
US10665128B2 (en) 2014-06-27 2020-05-26 Illinois Tool Works Inc. System and method of monitoring welding information
US9937578B2 (en) * 2014-06-27 2018-04-10 Illinois Tool Works Inc. System and method for remote welding training
US9862049B2 (en) 2014-06-27 2018-01-09 Illinois Tool Works Inc. System and method of welding system operator identification
US10307853B2 (en) 2014-06-27 2019-06-04 Illinois Tool Works Inc. System and method for managing welding data
US9769494B2 (en) * 2014-08-01 2017-09-19 Ati Technologies Ulc Adaptive search window positioning for video encoding
US11014183B2 (en) 2014-08-07 2021-05-25 Illinois Tool Works Inc. System and method of marking a welding workpiece
US9724787B2 (en) 2014-08-07 2017-08-08 Illinois Tool Works Inc. System and method of monitoring a welding environment
US9875665B2 (en) 2014-08-18 2018-01-23 Illinois Tool Works Inc. Weld training system and method
US10402959B2 (en) 2014-11-05 2019-09-03 Illinois Tool Works Inc. System and method of active torch marker control
US10490098B2 (en) 2014-11-05 2019-11-26 Illinois Tool Works Inc. System and method of recording multi-run data
US10373304B2 (en) 2014-11-05 2019-08-06 Illinois Tool Works Inc. System and method of arranging welding device markers
US10210773B2 (en) 2014-11-05 2019-02-19 Illinois Tool Works Inc. System and method for welding torch display
US10417934B2 (en) 2014-11-05 2019-09-17 Illinois Tool Works Inc. System and method of reviewing weld data
US10204406B2 (en) 2014-11-05 2019-02-12 Illinois Tool Works Inc. System and method of controlling welding system camera exposure and marker illumination
GB2533632B (en) * 2014-12-24 2018-01-03 Gen Electric Method and system for obtaining low dose tomosynthesis and material decomposition images
US10427239B2 (en) 2015-04-02 2019-10-01 Illinois Tool Works Inc. Systems and methods for tracking weld training arc parameters
US10657839B2 (en) 2015-08-12 2020-05-19 Illinois Tool Works Inc. Stick welding electrode holders with real-time feedback features
US10373517B2 (en) 2015-08-12 2019-08-06 Illinois Tool Works Inc. Simulation stick welding electrode holder systems and methods
US10593230B2 (en) 2015-08-12 2020-03-17 Illinois Tool Works Inc. Stick welding electrode holder systems and methods
US10438505B2 (en) 2015-08-12 2019-10-08 Illinois Tool Works Welding training system interface
CN106548127B (en) * 2015-09-18 2022-11-04 松下电器(美国)知识产权公司 Image recognition method
US9898665B2 (en) 2015-10-29 2018-02-20 International Business Machines Corporation Computerized video file analysis tool and method
JP6756338B2 (en) * 2015-12-18 2020-09-16 株式会社リコー Image processing equipment, image processing systems, image processing methods and programs
EP3408610A4 (en) 2016-01-25 2020-01-01 Topcon Positioning Systems, Inc. METHOD AND DEVICE FOR OPTICAL SINGLE CAMERA MEASUREMENTS
WO2019060367A1 (en) 2017-09-19 2019-03-28 Adam Hanina Apparatus and method for recognition of suspicious activities
US11331022B2 (en) 2017-10-24 2022-05-17 Dexcom, Inc. Pre-connected analyte sensors
EP3700416B1 (en) 2017-10-24 2024-06-26 Dexcom, Inc. Pre-connected analyte sensors
CN107930125A (en) * 2017-11-27 2018-04-20 五华怪兽星球科技有限公司 A kind of interactive gaming system for having alarm function
GB2571953A (en) * 2018-03-13 2019-09-18 Massless Emea Ltd Single view tracking of cylindrical objects
CN111489711B (en) * 2019-01-28 2022-01-04 咸阳彩虹光电科技有限公司 Method and device for improving low color cast of visual angle by using algorithm and display panel
US12066320B2 (en) * 2019-04-05 2024-08-20 Daedalus Technology Group, Inc. Calibration system and method
US11776423B2 (en) 2019-07-22 2023-10-03 Illinois Tool Works Inc. Connection boxes for gas tungsten arc welding training systems
US11288978B2 (en) 2019-07-22 2022-03-29 Illinois Tool Works Inc. Gas tungsten arc welding training systems
GB2586059B (en) 2019-08-01 2023-06-07 Sony Interactive Entertainment Inc System and method for generating user inputs for a video game
CN111080719A (en) * 2019-12-26 2020-04-28 四川航天神坤科技有限公司 Video registration method and device
US11893808B2 (en) * 2020-11-30 2024-02-06 Mangolytics, Inc. Learning-based 3D property extraction
JP2022133769A (en) * 2021-03-02 2022-09-14 本田技研工業株式会社 VEHICLE CONTROL DEVICE AND VEHICLE CONTROL METHOD
CN115129191B (en) * 2021-03-26 2023-08-15 北京新氧科技有限公司 Three-dimensional object picking method, device, equipment and storage medium
KR20230020845A (en) * 2021-08-04 2023-02-13 현대자동차주식회사 Electronic deivce and method for tracking object thereof
WO2023181568A1 (en) * 2022-03-25 2023-09-28 株式会社ワコム Controller and computer

Family Cites Families (111)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US561100A (en) * 1896-06-02 Andrew b
US3943277A (en) 1969-02-20 1976-03-09 The United States Of America As Represented By The Secretary Of The Navy Digital memory area correlation tracker
NL7509871A (en) * 1975-08-20 1977-02-22 Philips Nv COLOR TV CHROMA KEY SIGNAL GENERATOR.
US4133004A (en) 1977-11-02 1979-01-02 Hughes Aircraft Company Video correlation tracker
US4448200A (en) 1978-03-27 1984-05-15 University Of Southern California System and method for dynamic background subtraction
JPS5846783A (en) * 1981-09-12 1983-03-18 Sony Corp Chromakey device
JPS592040U (en) 1982-06-28 1984-01-07 日本電気ホームエレクトロニクス株式会社 joystick control device
FI68131C (en) * 1983-06-30 1985-07-10 Valtion Teknillinen REFERENCE FOR A WINDOW MACHINE WITH A GLASS LED WITH A LASER INDICATOR
IL69327A (en) 1983-07-26 1986-11-30 Elscint Ltd Automatic misregistration correction
US4675562A (en) * 1983-08-01 1987-06-23 Fairchild Semiconductor Corporation Method and apparatus for dynamically controlling the timing of signals in automatic test systems
US4649504A (en) * 1984-05-22 1987-03-10 Cae Electronics, Ltd. Optical position and orientation measurement techniques
US4672564A (en) * 1984-11-15 1987-06-09 Honeywell Inc. Method and apparatus for determining location and orientation of objects
JPS61131110A (en) 1984-11-30 1986-06-18 Fujitsu Ltd Input device
IL77610A (en) * 1986-01-15 1994-01-25 Technion Res & Dev Foundation Single camera three-dimensional head position sensing system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
JP2603947B2 (en) * 1986-09-26 1997-04-23 オリンパス光学工業株式会社 Apparatus for detecting corresponding areas between primary color images
US4864515A (en) * 1987-03-30 1989-09-05 Honeywell Inc. Electronic sensing screen for measuring projectile parameters
US5162781A (en) * 1987-10-02 1992-11-10 Automated Decisions, Inc. Orientational mouse computer input system
US5363120A (en) 1987-10-14 1994-11-08 Wang Laboratories, Inc. Computer input device using orientation sensor
US4942538A (en) * 1988-01-05 1990-07-17 Spar Aerospace Limited Telerobotic tracker
US4991223A (en) * 1988-06-30 1991-02-05 American Innovision, Inc. Apparatus and method for recognizing image features using color elements
US4933864A (en) * 1988-10-04 1990-06-12 Transitions Research Corporation Mobile robot navigation employing ceiling light fixtures
US5045843B1 (en) * 1988-12-06 1996-07-16 Selectech Ltd Optical pointing device
US5034986A (en) 1989-03-01 1991-07-23 Siemens Aktiengesellschaft Method for detecting and tracking moving objects in a digital image sequence having a stationary background
CA2035034C (en) * 1989-06-20 1998-01-20 Toshihiko Morita Method for measuring position and orientation of object
FR2652972B1 (en) * 1989-10-06 1996-11-29 Thomson Video Equip METHOD AND DEVICE FOR INTEGRATING SELF-ADAPTIVE COLOR VIDEO IMAGES.
GB9001468D0 (en) 1990-01-23 1990-03-21 Sarnoff David Res Center Computing multiple motions within an image region
US5668646A (en) * 1990-02-06 1997-09-16 Canon Kabushiki Kaisha Apparatus and method for decoding differently encoded multi-level and binary image data, the later corresponding to a color in the original image
ATE137377T1 (en) * 1990-02-06 1996-05-15 Canon Kk IMAGE PROCESSING DEVICE
US5128671A (en) * 1990-04-12 1992-07-07 Ltv Aerospace And Defense Company Control device having multiple degrees of freedom
US5208763A (en) * 1990-09-14 1993-05-04 New York University Method and apparatus for determining position and orientation of mechanical objects
US5128794A (en) * 1990-12-31 1992-07-07 Honeywell Inc. Scanning laser helmet mounted sight
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5548667A (en) * 1991-05-24 1996-08-20 Sony Corporation Image processing system and method thereof in which three dimensional shape is reproduced from two dimensional image data
US5227985A (en) * 1991-08-19 1993-07-13 University Of Maryland Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object
US5212888A (en) * 1991-09-16 1993-05-25 Calcomp Inc. Dual function sensor for a pen plotter
US5335557A (en) * 1991-11-26 1994-08-09 Taizo Yasutake Touch sensitive input control device
US5631697A (en) * 1991-11-27 1997-05-20 Hitachi, Ltd. Video camera capable of automatic target tracking
US5230623A (en) * 1991-12-10 1993-07-27 Radionics, Inc. Operating pointer with interactive computergraphics
US5680487A (en) 1991-12-23 1997-10-21 Texas Instruments Incorporated System and method for determining optical flow
US5577179A (en) * 1992-02-25 1996-11-19 Imageware Software, Inc. Image editing system
US5307137A (en) * 1992-03-16 1994-04-26 Mark F. Jones Terrain imaging apparatus and method
US5450504A (en) 1992-05-19 1995-09-12 Calia; James Method for finding a most likely matching of a target facial image in a data base of facial images
JP3391405B2 (en) * 1992-05-29 2003-03-31 株式会社エフ・エフ・シー Object identification method in camera image
US5473736A (en) * 1992-06-08 1995-12-05 Chroma Graphics Method and apparatus for ordering and remapping colors in images of real two- and three-dimensional objects
JP3244798B2 (en) 1992-09-08 2002-01-07 株式会社東芝 Moving image processing device
US5982352A (en) * 1992-09-18 1999-11-09 Pryor; Timothy R. Method for providing human input to a computer
US5469193A (en) * 1992-10-05 1995-11-21 Prelude Technology Corp. Cordless pointing apparatus
JP3679426B2 (en) 1993-03-15 2005-08-03 マサチューセッツ・インスティチュート・オブ・テクノロジー A system that encodes image data into multiple layers, each representing a coherent region of motion, and motion parameters associated with the layers.
GB9308952D0 (en) * 1993-04-30 1993-06-16 Philips Electronics Uk Ltd Tracking objects in video sequences
US5297061A (en) * 1993-05-19 1994-03-22 University Of Maryland Three dimensional pointing device monitored by computer vision
DE69433074D1 (en) * 1993-07-02 2003-10-02 Siemens Corp Res Inc Background recovery in monocular image processing
US5598514A (en) * 1993-08-09 1997-01-28 C-Cube Microsystems Structure and method for a multistandard video encoder/decoder
JPH07160412A (en) 1993-12-10 1995-06-23 Nippon Telegr & Teleph Corp <Ntt> Pointed position detection method
JP2552427B2 (en) 1993-12-28 1996-11-13 コナミ株式会社 Tv play system
FR2714502A1 (en) 1993-12-29 1995-06-30 Philips Laboratoire Electroniq An image processing method and apparatus for constructing from a source image a target image with perspective change.
US5611000A (en) 1994-02-22 1997-03-11 Digital Equipment Corporation Spline-based image registration
FR2720977B1 (en) * 1994-06-09 1996-09-06 Michelin & Cie Method for mounting an assembly formed by a tire and a tread support support.
US5649032A (en) 1994-11-14 1997-07-15 David Sarnoff Research Center, Inc. System for automatically aligning images to form a mosaic image
GB2295936B (en) 1994-12-05 1997-02-05 Microsoft Corp Progressive image transmission using discrete wavelet transforms
US5757360A (en) * 1995-05-03 1998-05-26 Mitsubishi Electric Information Technology Center America, Inc. Hand held computer control device
US5672820A (en) * 1995-05-16 1997-09-30 Boeing North American, Inc. Object location identification system for providing location data of an object being pointed at by a pointing device
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
US5805745A (en) 1995-06-26 1998-09-08 Lucent Technologies Inc. Method for locating a subject's lips in a facial image
US6199093B1 (en) * 1995-07-21 2001-03-06 Nec Corporation Processor allocating method/apparatus in multiprocessor system, and medium for storing processor allocating program
US5856844A (en) * 1995-09-21 1999-01-05 Omniplanar, Inc. Method and apparatus for determining position and orientation
US5933535A (en) 1995-10-05 1999-08-03 Microsoft Corporation Object-based video compression process employing arbitrarily-shaped features
US5818424A (en) * 1995-10-19 1998-10-06 International Business Machines Corporation Rod shaped device and data acquisition apparatus for determining the position and orientation of an object in space
GB2306834B8 (en) * 1995-11-03 2000-02-01 Abbotsbury Software Ltd Tracking apparatus for use in tracking an object
US5825308A (en) 1996-11-26 1998-10-20 Immersion Human Interface Corporation Force feedback interface having isotonic and isometric functionality
FR2741769B1 (en) * 1995-11-23 1997-12-19 Thomson Broadcast Systems PROCESS FOR PROCESSING THE SIGNAL CONSTITUTED BY A SUBJECT EVOLVING BEFORE A COLORED BACKGROUND AND DEVICE IMPLEMENTING THIS METHOD
FR2741770B1 (en) * 1995-11-23 1998-01-02 Thomson Broadcast Systems METHOD FOR CALCULATING A CUTTING KEY OF A SUBJECT EVOLVING IN FRONT OF A COLORED BACKGROUND AND DEVICE IMPLEMENTING THIS METHOD
US5963209A (en) 1996-01-11 1999-10-05 Microsoft Corporation Encoding and progressive transmission of progressive meshes
US6049619A (en) 1996-02-12 2000-04-11 Sarnoff Corporation Method and apparatus for detecting moving objects in two- and three-dimensional scenes
US6009188A (en) 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging
US5764803A (en) * 1996-04-03 1998-06-09 Lucent Technologies Inc. Motion-adaptive modelling of scene content for very low bit rate model-assisted coding of video sequences
US5889505A (en) * 1996-04-04 1999-03-30 Yale University Vision-based six-degree-of-freedom computer input device
US5923318A (en) 1996-04-12 1999-07-13 Zhai; Shumin Finger manipulatable 6 degree-of-freedom input device
US5805170A (en) 1996-05-07 1998-09-08 Microsoft Corporation Systems and methods for wrapping a closed polygon around an object
CN1131495C (en) * 1996-08-29 2003-12-17 三洋电机株式会社 Characteristic Information Assignment Method and Device
JPH1078768A (en) * 1996-09-04 1998-03-24 Alps Electric Co Ltd Gradation display control device
US6121953A (en) 1997-02-06 2000-09-19 Modern Cartoons, Ltd. Virtual reality system for sensing facial movements
JP3870422B2 (en) * 1997-02-20 2007-01-17 ソニー株式会社 Video signal processing apparatus and method, image composition apparatus, and editing apparatus
US5864742A (en) * 1997-04-11 1999-01-26 Eastman Kodak Company Copy restrictive system using microdots to restrict copying of color-reversal documents
US5917937A (en) 1997-04-15 1999-06-29 Microsoft Corporation Method for performing stereo matching to recover depths, colors and opacities of surface elements
US6072504A (en) 1997-06-20 2000-06-06 Lucent Technologies Inc. Method and apparatus for tracking, storing, and synthesizing an animated version of object motion
US6049636A (en) 1997-06-27 2000-04-11 Microsoft Corporation Determining a rectangular box encompassing a digital picture within a digital image
US5990901A (en) 1997-06-27 1999-11-23 Microsoft Corporation Model based image editing and correction
US6018349A (en) 1997-08-01 2000-01-25 Microsoft Corporation Patch-based alignment method and apparatus for construction of image mosaics
US5987164A (en) 1997-08-01 1999-11-16 Microsoft Corporation Block adjustment method and apparatus for construction of image mosaics
US5986668A (en) 1997-08-01 1999-11-16 Microsoft Corporation Deghosting method and apparatus for construction of image mosaics
US6044181A (en) 1997-08-01 2000-03-28 Microsoft Corporation Focal length estimation method and apparatus for construction of panoramic mosaic images
US6009190A (en) 1997-08-01 1999-12-28 Microsoft Corporation Texture map construction method and apparatus for displaying panoramic image mosaics
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
AUPO894497A0 (en) * 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
US6031934A (en) 1997-10-15 2000-02-29 Electric Planet, Inc. Computer vision system for subject characterization
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US5905894A (en) 1997-10-29 1999-05-18 Microsoft Corporation Meta-programming methods and apparatus
US6162123A (en) 1997-11-25 2000-12-19 Woolston; Thomas G. Interactive electronic sword game
US6172354B1 (en) * 1998-01-28 2001-01-09 Microsoft Corporation Operator input device
US6512507B1 (en) * 1998-03-31 2003-01-28 Seiko Epson Corporation Pointing position detection device, presentation system, and method, and computer-readable medium
US6171190B1 (en) * 1998-05-27 2001-01-09 Act Labs, Ltd. Photosensitive input peripheral device in a personal computer-based video gaming platform
US6563499B1 (en) * 1998-07-20 2003-05-13 Geometrix, Inc. Method and apparatus for generating a 3D region from a surrounding imagery
JP3748172B2 (en) * 1998-12-09 2006-02-22 富士通株式会社 Image processing device
DE19917660A1 (en) 1999-04-19 2000-11-02 Deutsch Zentr Luft & Raumfahrt Method and input device for controlling the position of an object to be graphically represented in a virtual reality
US6917692B1 (en) * 1999-05-25 2005-07-12 Thomson Licensing S.A. Kalman tracking of color objects
US6417836B1 (en) * 1999-08-02 2002-07-09 Lucent Technologies Inc. Computer input device having six degrees of freedom for controlling movement of a three-dimensional object
US6594388B1 (en) * 2000-05-25 2003-07-15 Eastman Kodak Company Color image reproduction of scenes with preferential color mapping and scene-dependent tone scaling
US6795068B1 (en) * 2000-07-21 2004-09-21 Sony Computer Entertainment Inc. Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program
JP3581835B2 (en) * 2001-03-14 2004-10-27 株式会社イマジカ Color conversion method and apparatus in chroma key processing

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8552976B2 (en) 2006-08-08 2013-10-08 Microsoft Corporation Virtual controller for visual displays
US7907117B2 (en) 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
WO2008018943A1 (en) * 2006-08-08 2008-02-14 Microsoft Corporation Virtual controller for visual displays
US8049719B2 (en) 2006-08-08 2011-11-01 Microsoft Corporation Virtual controller for visual displays
US8115732B2 (en) 2006-08-08 2012-02-14 Microsoft Corporation Virtual controller for visual displays
WO2008058271A3 (en) * 2006-11-09 2008-08-14 Intelligence Frontier Media La Control device with hybrid sensing system comprised of vision-based pattern recognition and electronic signal transmission
JP2011522318A (en) * 2008-05-26 2011-07-28 マイクロソフト インターナショナル ホールディングス ビイ.ヴイ. Control virtual reality
US8860713B2 (en) 2008-05-26 2014-10-14 Microsoft International Holdings B.V. Controlling virtual reality
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
US11478706B2 (en) 2010-05-11 2022-10-25 Sony Interactive Entertainment LLC Placement of user information in a game space
JP2014507020A (en) * 2010-12-02 2014-03-20 エンパイア テクノロジー ディベロップメント エルエルシー Augmented reality system
US9215530B2 (en) 2010-12-02 2015-12-15 Empire Technology Development Llc Augmented reality system
JP2017059207A (en) * 2015-09-18 2017-03-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image recognition method

Also Published As

Publication number Publication date
US7113193B2 (en) 2006-09-26
US6795068B1 (en) 2004-09-21
JP3901960B2 (en) 2007-04-04
US20050026689A1 (en) 2005-02-03
EP1176559A2 (en) 2002-01-30
US20050024379A1 (en) 2005-02-03
JP2002140705A (en) 2002-05-17
EP1176559A3 (en) 2007-11-14
US20060238549A1 (en) 2006-10-26
JP4381371B2 (en) 2009-12-09

Similar Documents

Publication Publication Date Title
JP4381371B2 (en) Image processing method and recording medium
KR101320134B1 (en) Method and device for the real time imbedding of virtual objects in an image stream using data from a real scene represented by said images
JP5368454B2 (en) Image analysis apparatus and method
JP5325992B2 (en) Determining the position and movement of the controller attached to the ball
US20210225080A1 (en) Information processing apparatus, information processing method, and storage medium
US8542250B2 (en) Entertainment device, system, and method
US6937255B2 (en) Imaging apparatus and method of the same
US6864886B1 (en) Enhancing video using a virtual surface
US7928976B2 (en) Telestrator system
JP4004408B2 (en) Video information compression method
JP6697986B2 (en) Information processing apparatus and image area dividing method
US20090318228A1 (en) Apparatus and method of interaction with a data processor
CN101751672A (en) Image processing system
JP2010526295A (en) Scanning 3D objects using a video camera and TV monitor
JP2019197279A (en) Image processing apparatus, method for controlling image processing apparatus, and program
JP4125251B2 (en) Information processing method and apparatus
JP2022026844A (en) Image processing apparatus, image processing method, and program
JP7733413B2 (en) Information processing device, information processing method, and program
JP7500333B2 (en) GENERATION DEVICE, GENERATION METHOD, AND PROGRAM
JP7500325B2 (en) Imaging control device, evaluation system, imaging control method and program
US20250061646A1 (en) Rendering method and system
JP7418107B2 (en) Shape estimation device, shape estimation method and program
JP7444655B2 (en) Image processing device, its control method, and program
JP2005274887A (en) Image display system, image display program, and image display method
JP2001511272A (en) Method and apparatus for encoding a digitized image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090818

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090915

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4381371

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131002

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term