JP2000020193A - Virtual object control method, virtual object control device, and recording medium - Google Patents
Virtual object control method, virtual object control device, and recording mediumInfo
- Publication number
- JP2000020193A JP2000020193A JP18279098A JP18279098A JP2000020193A JP 2000020193 A JP2000020193 A JP 2000020193A JP 18279098 A JP18279098 A JP 18279098A JP 18279098 A JP18279098 A JP 18279098A JP 2000020193 A JP2000020193 A JP 2000020193A
- Authority
- JP
- Japan
- Prior art keywords
- image
- sword
- model
- center
- recognition target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
(57)【要約】
【課題】コンピュータ内に作られた仮想空間内の物体を
より現実的な操作で制御できる仮想物体制御装置を提供
する。
【解決手段】認識対象の画像を取得する画像取得手段
と、この画像取得手段で取得した画像から認識対象の位
置と動きと方向に関する情報を抽出するための画像処理
を施す画像処理手段と、この画像処理手段で抽出した情
報に基づき前記認識対象に対応する仮想空間内の制御対
象を制御する制御手段とを具備する。
(57) [Object] To provide a virtual object control device capable of controlling an object in a virtual space created in a computer by a more realistic operation. An image acquisition unit that acquires an image of a recognition target, an image processing unit that performs image processing for extracting information about the position, movement, and direction of the recognition target from the image acquired by the image acquisition unit; Control means for controlling a control target in a virtual space corresponding to the recognition target based on the information extracted by the image processing means.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、距離画像から抽出
された認識対象の動きや位置等の情報を基に仮想空間内
のCGモデル(仮想物体)の動き、形状等を制御する仮
想物体制御方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a virtual object control for controlling the movement, shape, etc. of a CG model (virtual object) in a virtual space based on information such as the movement and position of a recognition target extracted from a range image. About the method.
【0002】また、本発明は、距離画像から抽出された
認識対象の動きや位置等の情報を基に仮想空間内のCG
モデル(仮想物体)の動き、形状等を制御する仮想物体
制御装置に関する。[0002] The present invention also provides a method for generating a CG image in a virtual space based on information such as the movement and position of a recognition target extracted from a range image.
The present invention relates to a virtual object control device that controls the movement, shape, and the like of a model (virtual object).
【0003】[0003]
【従来の技術】従来、アーケードゲーム機などの遊具装
置では、ボクシングゲームや、射撃ゲームなどの人間の
動きを利用したゲームが多く開発されてきている。ボク
シングゲームでは、ユーザが実際にサンドバッグを打撃
したときの圧力を物理的に測定している。このとき、測
定されているのは、ユーザのパンチがサンドバッグに当
たった瞬間の圧力のみである。パンチがユーザからどの
ような経路でどのくらいの速さで繰り出されたのかとい
う情報は用いられていない。このため、単純なパンチの
強さだけを競う単調なゲームになっている。2. Description of the Related Art Hitherto, in a playground equipment such as an arcade game machine, many games utilizing human movements such as a boxing game and a shooting game have been developed. In a boxing game, the pressure when the user actually hits the sandbag is physically measured. At this time, only the pressure at the moment when the user's punch hits the sandbag is measured. No information is used as to what route and how fast the punch has been fed from the user. For this reason, it has become a monotonous game that competes only for the strength of a simple punch.
【0004】射撃ゲームでは、おもちゃの銃の先に発光
体をつけ、その発光体の光が、画面上のどこにあたるか
を検知する。銃の引き金が弾かれたときに光が当たって
いる物体に銃弾があたったと判定するようになってい
る。このように単純なため、射撃の腕を競うと言うより
は、呈示された標的をいかに素早く見つけて撃つだけの
反射神経を競うだけのゲームになってしまっている。In a shooting game, a light emitter is attached to the tip of a toy gun, and the light of the light emitter is detected on the screen. When the trigger of the gun is fired, it is determined that the object hit by the light is hit by the bullet. Because of this simplicity, rather than competing for the shooting skills, the game has become a game of reflexes that only finds the presented target and shoots it.
【0005】一方、CCDカメラなどを用いて撮像した
画像を解析して、人間の身体の位置、動きなどを認識す
る方法もとられている。この方法では、進行方向をま
ず、CCDカメラなどの撮像装置を用いて撮影する。そ
の画像から人間を抽出する場合では、例えば、顔や手の
色が肌色なので、それ以外の背景などの余計な部分を取
り除き、障害物となる物体など認識したい対象のみを切
り出すという前処理を行う。そして、その処理後の画像
から対象物の形状、動き等を認識する。[0005] On the other hand, there is a method of recognizing a position, a movement, and the like of a human body by analyzing an image captured by using a CCD camera or the like. In this method, the traveling direction is first photographed using an imaging device such as a CCD camera. In the case of extracting a human from the image, for example, since the color of the face and hands is a flesh color, a pre-processing is performed in which unnecessary parts such as other backgrounds are removed and only an object to be recognized such as an obstacle is cut out. . Then, the shape, movement, and the like of the target object are recognized from the processed image.
【0006】まず、この認識対象の切り出しという前処
理部分について説明する。従来の手法では、カメラで撮
影した画像から、取得したい対象物の部分のみを切り出
す作業手段として、対象物と、それ以外の部分の何らか
の相違点を手がかりとして対象物の切り出しが行われて
いた。[0006] First, a pre-processing portion of extracting the recognition target will be described. In a conventional method, as an operation means for cutting out only a part of an object to be acquired from an image captured by a camera, the object is cut out based on some difference between the object and another part.
【0007】この手がかりとして、色相の変化を利用す
る方法、差分画像を利用する方法などが用いられてい
る。色を使って切り出す場合、色相差の大きな部分を抜
き出し、細線化などの処理を行い、エッジを抽出する。
人間を対象にする場合には、顔や手の部分の肌色に注目
し、その色相部分のみを抽出しようとするものである。
が、色相差を用いる方法は、照明の色や角度などによ
り、肌色といっても変化し、また、背景の色相が肌色に
近いと、人間の肌色と識別するのが難しいなどの問題が
あり、定常的に切り出すことは困難である。また、照明
が全くない状態では、撮像画像は全部暗くなってしまう
ので、人間でも暗闇で撮影した写真から物体を判別する
ことは難しい。As a clue, a method using a change in hue, a method using a difference image, and the like are used. In the case of cutting out using a color, a portion having a large hue difference is extracted, a process such as thinning is performed, and an edge is extracted.
When targeting a human, attention is paid to the skin color of the face and hand parts, and only the hue part is extracted.
However, the method of using the hue difference has a problem that the skin color changes depending on the color and angle of the illumination, and that if the hue of the background is close to the skin color, it is difficult to distinguish it from human skin color. It is difficult to cut out regularly. In addition, in the state where there is no illumination, the captured image becomes entirely dark, and it is difficult for a human to identify an object from a photograph taken in the dark.
【0008】また、ビデオ画像のフレーム間の動きベク
トルを算出し、動いている物体を解析する方式もある
が、この場合、動いている物体が少ないうちは問題ない
が、動いている物体が多いと、動きベクトルの数が急に
増え、フレーム間で動きベクトルを算出の負荷が増し、
算出が追いつかなくなる。There is also a method of calculating a motion vector between frames of a video image and analyzing a moving object. In this case, there is no problem as long as the number of moving objects is small, but there are many moving objects. And the number of motion vectors suddenly increases, the load of calculating the motion vector between frames increases,
Calculation cannot keep up.
【0009】家庭向けのゲームなどでは、臨場感を増す
ために、フォースフィードバックの機能を有したジョイ
スティックや、振動機能のついた振動パックと呼ばれる
入力デバイスが使われだしている。[0009] In a game for home use, an input device called a joystick having a force feedback function or a vibration pack having a vibration function has been used in order to increase a sense of realism.
【0010】ジョイスティックの形状は、飛行機などの
制御をおこなうレバーに類似している。このため、フラ
イトシミュレータと呼ばれる飛行機の操縦を模擬するゲ
ームでは、確かに感臨場がある。が、それ以外の操作で
は、現実の操作と異なる使い勝手となる問題点がある。The shape of the joystick is similar to a lever that controls an airplane or the like. For this reason, a game called a flight simulator that simulates the operation of an airplane certainly has an impression. However, in other operations, there is a problem that the usability is different from the actual operation.
【0011】振動パックも同様に、慣れれば、ハンドル
がなくても車の運転を模擬したカーレースゲームなどの
操作ができる。が、現実の操作とは大きく操作感が隔た
っているという問題がある。Similarly, if the user is used to the vibration pack, he / she can operate a car racing game or the like that simulates driving a car without a steering wheel. However, there is a problem that the operational feeling is greatly different from the actual operation.
【0012】たとえば、子供は、ロボットや飛行機など
のおもちゃを使って、飛行機同士を戦わせたり、あるい
は、ロボットが積み木の町を作ったり壊したりというよ
うに、現実にあるものを使いながら、いろいろなストー
リを作って遊ぶ。その様な現実に存在するものと、コン
ピュータ内に作られた仮想の環境とを融合して遊ぶよう
なことは従来できなかった。[0012] For example, children use various toys such as robots and airplanes to fight each other, or use robots to create and destroy building towns while using real objects. Make a story and play. In the past, it was not possible to fuse such a real thing with a virtual environment created in a computer.
【0013】[0013]
【発明が解決しようとする課題】このように、従来は、
特殊なウェアや器具を身につけたり、ジョイスティック
等の特殊な装置を用いるしか、コンピュータ内に存在す
る仮想空間内の物体を制御することができなかった。す
なわち、現実に存在するものと仮想空間とを違和感なく
融合することができなかった。As described above, conventionally,
An object in a virtual space existing in a computer could only be controlled by wearing special wear and equipment or using a special device such as a joystick. That is, it has not been possible to integrate a real object and a virtual space without discomfort.
【0014】そこで、本発明は、コンピュータ内に作ら
れた仮想空間内の物体をより現実的な操作で制御できる
仮想物体制御方法を提供することを目的とする。また、
本発明は、コンピュータ内に作られた仮想空間内の物体
をより現実的な操作方法で制御できる仮想物体制御装置
を提供することを目的とする。Accordingly, an object of the present invention is to provide a virtual object control method capable of controlling an object in a virtual space created in a computer by a more realistic operation. Also,
An object of the present invention is to provide a virtual object control device that can control an object in a virtual space created in a computer by a more realistic operation method.
【0015】[0015]
【課題を解決するための手段】本発明の仮想物体制御方
法は、認識対象の撮像された画像から該認識対象の位置
と動きと方向に関する情報を抽出して、その抽出した情
報に基づき該認識対象に対応する仮想空間内の制御対象
を制御することにより、コンピュータ内に作られた仮想
空間内の物体をより現実的な操作で制御できる。According to a virtual object control method of the present invention, information relating to the position, movement and direction of a recognition target is extracted from a captured image of the recognition target, and the recognition is performed based on the extracted information. By controlling the control target in the virtual space corresponding to the target, the object in the virtual space created in the computer can be controlled by a more realistic operation.
【0016】本発明の仮想物体制御装置は、認識対象の
画像を取得する画像取得手段と、この画像取得手段で取
得した画像から認識対象の位置と動きと方向に関する情
報を抽出するための画像処理を施す画像処理手段と、こ
の画像処理手段で抽出した情報に基づき前記認識対象に
対応する仮想空間内の制御対象を制御する制御手段と、
を具備したことにより、コンピュータ内に作られた仮想
空間内の物体をより現実的な操作で制御できる。A virtual object control device according to the present invention comprises: an image acquiring means for acquiring an image of a recognition target; and an image processing for extracting information relating to the position, movement and direction of the recognition target from the image acquired by the image acquiring means. Image processing means for performing, and control means for controlling a control target in a virtual space corresponding to the recognition target based on information extracted by the image processing means,
Is provided, the object in the virtual space created in the computer can be controlled by a more realistic operation.
【0017】[0017]
【発明の実施の形態】以下、本発明の実施形態について
図面を参照して説明する。 (第1の実施形態)図1は第1の実施形態に係る仮想物
体制御装置の構成を概略的に示したものである。Embodiments of the present invention will be described below with reference to the drawings. (First Embodiment) FIG. 1 schematically shows a configuration of a virtual object control device according to a first embodiment.
【0018】図1に示すように、本実施形態に係る仮想
物体制御装置は、反射光を受光し、距離画像を取得す
る、例えば特願平9−299648号に記載されている
距離画像取得部1と、取得した距離画像を解析し、認識
対象の輪郭、重心の抽出や対象物までの距離の算出、認
識対象の移動速度、移動ベクトルの算出等の当該認識対
象に関する目的とする情報を抽出する画像処理部4と、
CG(コンピュータグラフィックス)で作成された3次
元あるいは2次元仮想空間と、その仮想空間内に呈示す
る3次元あるいは2次元仮想物体(例えば、人物、遊具
等で以下、CGモデルと呼ぶ)の形状や仮想空間の配置
位置等を記憶する形状記憶部2と、画像処理部4の解析
結果に基づき、形状記憶部2に記憶されたCGモデルの
形状や動き等を制御する仮想空間制御部3と、例えば大
型の液晶パネル等の表示装置から構成され、3次元ある
いは2次元CG映像としての仮想空間を可視化し、仮想
空間制御部3の制御のもと、形状記憶部2に記憶された
制御対象としてのCGモデルの形状、動き等を可視化す
る呈示部5とから構成されている。As shown in FIG. 1, the virtual object control apparatus according to the present embodiment receives a reflected light and obtains a distance image, for example, a distance image obtaining unit described in Japanese Patent Application No. 9-299648. 1. Analyze the acquired distance image and extract the target information related to the recognition target, such as extraction of the outline and center of gravity of the recognition target, calculation of the distance to the target, calculation of the moving speed of the recognition target, and calculation of the movement vector. An image processing unit 4
The shape of a three-dimensional or two-dimensional virtual space created by CG (computer graphics) and the shape of a three-dimensional or two-dimensional virtual object (for example, a person, playground equipment, etc., hereinafter referred to as a CG model) presented in the virtual space And a virtual space control unit 3 for controlling the shape and movement of the CG model stored in the shape storage unit 2 based on the analysis result of the image processing unit 4. For example, a virtual space as a three-dimensional or two-dimensional CG image is visualized by a display device such as a large liquid crystal panel, and the control target stored in the shape storage unit 2 under the control of the virtual space control unit 3 And a presentation unit 5 for visualizing the shape, movement, and the like of the CG model.
【0019】ここで、画像取得部1および、画像取得部
1にて取得される距離画像について簡単に説明する。画
像取得部1の外観を図2に示す。中央部には円形レンズ
とその後部にあるエリアセンサ(図示せず)から構成さ
れる受光部103が配置され、円形レンズの周囲にはそ
の輪郭に沿って、赤外線などの光を照射するLEDから
構成される発光部101が複数個(例えば6個)等間隔
に配置されている。Here, the image acquisition unit 1 and the distance image acquired by the image acquisition unit 1 will be briefly described. FIG. 2 shows the appearance of the image acquisition unit 1. A light receiving unit 103 composed of a circular lens and an area sensor (not shown) at the rear is arranged in the center, and an LED that irradiates light such as infrared rays along the contour around the circular lens. A plurality of (eg, six) light emitting units 101 are arranged at equal intervals.
【0020】発光部101から照射された光が物体に反
射され、受光部103のレンズにより集光され、レンズ
の後部にあるエリアセンサで受光される。エリアセンサ
は、例えば256×256のマトリックス状に配列され
たセンサで、マトリックス中の各センサにて受光された
反射光の強度がそれぞれ画素値となる。このようにして
取得された画像が、図4に示すような反射光の強度分布
としての距離画像である。The light emitted from the light emitting unit 101 is reflected by the object, collected by the lens of the light receiving unit 103, and received by the area sensor at the rear of the lens. The area sensor is, for example, a sensor arranged in a 256 × 256 matrix, and the intensity of the reflected light received by each sensor in the matrix becomes a pixel value. The image acquired in this manner is a distance image as an intensity distribution of reflected light as shown in FIG.
【0021】図3は、画像取得部1の構成例を示したも
ので、主に、発光部102、受光部103、反射光抽出
部102、タイミング信号生成部104から構成され
る。発光部101は、タイミング信号生成部104にて
生成されたタイミング信号に従って時間的に強度変動す
る光を発光する。この光は発光部前方にある対象物体に
照射される。FIG. 3 shows an example of the configuration of the image acquiring unit 1, which mainly comprises a light emitting unit 102, a light receiving unit 103, a reflected light extracting unit 102, and a timing signal generating unit 104. The light emitting section 101 emits light whose intensity varies with time according to the timing signal generated by the timing signal generating section 104. This light is applied to a target object located in front of the light emitting unit.
【0022】受光部103は、発光部101が発した光
の対象物体による反射光の量を検出する。反射光抽出部
102は、受光部103にて受光された反射光の空間的
な強度分布を抽出する。この反射光の空間的な強度分布
は画像として捉えることができるので、以下、これを距
離画像と呼ぶ。The light receiving unit 103 detects the amount of light emitted from the light emitting unit 101 and reflected by the target object. The reflected light extraction unit 102 extracts a spatial intensity distribution of the reflected light received by the light receiving unit 103. Since the spatial intensity distribution of the reflected light can be grasped as an image, it is hereinafter referred to as a distance image.
【0023】受光部103は一般的に発光部101から
発せられる光の対象物による反射光だけでなく、照明光
や太陽光などの外光も同時に受光する。そこで、反射光
抽出部102は発光部101が発光しているときに受光
した光の量と、発光部101が発光していないときに受
光した光の量の差をとることによって、発光部101か
らの光の対象物体による反射光成分だけを取り出す。The light receiving section 103 generally receives not only reflected light of the object emitted from the light emitting section 101 but also external light such as illumination light and sunlight. Therefore, the reflected light extracting unit 102 calculates the difference between the amount of light received when the light emitting unit 101 is emitting light and the amount of light received when the light emitting unit 101 is not emitting light, thereby obtaining the light emitting unit 101. Only the reflected light component of the light from the target object is extracted.
【0024】反射光抽出部102では、受光部103に
て受光された反射光から、その強度分布、すなわち、図
4に示すような距離画像を抽出する。図4では、簡単の
ため、256×256画素の距離画像の一部である8×
8画素の距離画像の場合について示している。The reflected light extraction unit 102 extracts the intensity distribution of the reflected light received by the light receiving unit 103, that is, a distance image as shown in FIG. In FIG. 4, for simplicity, 8 × 8 which is a part of the distance image of 256 × 256 pixels
The case of a distance image of 8 pixels is shown.
【0025】物体からの反射光は、物体の距離が大きく
なるにつれ大幅に減少する。物体の表面が一様に光を散
乱する場合、距離画像1画素あたりの受光量は物体まで
の距離の2乗に反比例して小さくなる。The reflected light from the object decreases significantly as the distance of the object increases. When the surface of the object scatters light uniformly, the amount of light received per pixel of the distance image decreases in inverse proportion to the square of the distance to the object.
【0026】図4において、行列中のセルの値(画素
値)は、取得した反射光の強さを256階調(8ビッ
ト)で示したものである。例えば、「255」の値があ
るセルは、距離画像取得部1に最も接近した状態、
「0」の値があるセルは、距離画像取得部1から遠くに
あり、反射光が距離画像取得部1にまで到達しないこと
を示している。In FIG. 4, the values (pixel values) of the cells in the matrix indicate the intensity of the acquired reflected light in 256 gradations (8 bits). For example, a cell having a value of “255” is in a state in which the cell is closest to the distance image acquisition unit 1,
A cell having a value of “0” is far from the distance image acquisition unit 1, indicating that the reflected light does not reach the distance image acquisition unit 1.
【0027】距離画像の各画素値は、その画素に対応す
る単位受光部で受光した反射光の量を表す。反射光は、
物体の性質(光を鏡面反射する、散乱する、吸収する、
など)、物体の方向、物体の距離などに影響されるが、
物体全体が一様に光を散乱する物体である場合、その反
射光量は物体までの距離と密接な関係を持つ。手など
は、このような性質をもつため、画像取得部1の前方に
手を差し出した場合の距離画像は、手までの距離、手の
傾き(部分的に距離が異なる)などを反映する図5に示
したような3次元的なイメージを得ることができる。Each pixel value of the distance image represents the amount of reflected light received by the unit light receiving unit corresponding to the pixel. The reflected light is
The nature of the object (specular reflection, scattering, absorption,
), Object direction, object distance, etc.
When the entire object is an object that scatters light uniformly, the amount of reflected light has a close relationship with the distance to the object. Since a hand or the like has such a property, the distance image when the hand is extended in front of the image acquisition unit 1 reflects the distance to the hand, the inclination of the hand (partially different distance), and the like. A three-dimensional image as shown in FIG. 5 can be obtained.
【0028】画像処理部4では、画像取得部1から送ら
れてきた図4に示したような距離画像データからエッジ
切り出し(撮像物体の輪郭抽出)、重心抽出、面積算
出、撮像物体までの距離の算出、動きベクトルの算出な
ど、撮像体の形状、動き、位置等の情報を抽出するため
の種々の画像処理を行う。The image processing unit 4 extracts edges (extracts the outline of the imaged object), extracts the center of gravity, calculates the area, and calculates the distance to the imaged object from the distance image data as shown in FIG. And various kinds of image processing for extracting information such as the shape, motion, and position of the imaging body, such as calculation of motion vectors and motion vectors.
【0029】画像取得部1は、例えば、図7に示すよう
に、ユーザが遊具としての刀21をもって遊技をしてい
る状態を撮像する。画像取得部1は、認識対象としての
遊具、すなわち、刀の距離画像(図11(a)参照)を
取得し、その距離画像を画像処理部4が解析する。The image acquiring unit 1 captures an image of a user playing a game with a sword 21 as a playground equipment, as shown in FIG. 7, for example. The image acquisition unit 1 acquires a playground equipment as a recognition target, that is, a distance image of a sword (see FIG. 11A), and the image processing unit 4 analyzes the distance image.
【0030】画像処理部4では、距離画像から刀の輪
郭、重心、重心の3次元的な位置、方向、速度などを抽
出し、それらを仮想空間制御部3に渡す。仮想空間制御
部3では、例えば、図8に示すような形状記憶部2に記
憶された3次元あるいは2次元CG(コンピュータグラ
フィックス)により作成された仮想空間を表示し、そこ
に、画像処理部4で抽出された情報に基づき、形状記憶
部2に記憶されたユーザのCGモデル23と刀のCGモ
デル22の形状や動き等を制御して、リアルタイムに、
呈示部5に呈示する。これにより、ユーザは、あたかも
自分が仮想空間に入り込んだような感覚で、遊技をする
ことができる。The image processing unit 4 extracts the contour, the center of gravity, the three-dimensional position, direction, speed, etc. of the sword from the distance image and passes them to the virtual space control unit 3. The virtual space control unit 3 displays, for example, a virtual space created by three-dimensional or two-dimensional CG (computer graphics) stored in the shape storage unit 2 as shown in FIG. Based on the information extracted in step 4, the user controls the shapes and movements of the CG model 23 of the user and the CG model 22 of the sword stored in the shape storage unit 2 in real time.
It is presented to the presentation unit 5. Thus, the user can play the game as if he / she entered the virtual space.
【0031】画像処理部4では、撮像物体の反射係数の
違いによる反射光の強度と、認識対象とそれ以外の撮像
物体との位置関係とから、まず、例えば、図6に示すよ
うな、当該距離画像内にある認識対象の輪郭情報を抽出
する。The image processing unit 4 first obtains the intensity of the reflected light due to the difference in the reflection coefficient of the imaged object and the positional relationship between the recognition target and the other imaged objects as shown in FIG. Extract the outline information of the recognition target in the range image.
【0032】例えば、画像取得部1は、刀を手にしたユ
ーザを正面から撮像できる位置に配置すれば、画像取得
部1で取得された図11(a)に示すような距離画像に
おいて、認識対象としての遊具、すなわち、刀は、他の
撮像体より画像取得部1との距離が最も近くに存在する
ことになる。すなわち、画像取得部1との距離が短いほ
ど、画像取得部1が取得する反射光が強くなるので、画
素値が大きくなる(画素値が大きければより黒に近くな
る)。一番近い部分の刀の先の部分31が最も黒く、刀
の柄に近い部分32、刀をもつユーザの手33と徐徐に
画素値が小さくなり(白くなり)、背景は最も遠いの
で、画素値はほぼ「0」となる。For example, if the image acquisition unit 1 is arranged at a position where the user holding the sword can be imaged from the front, the image acquisition unit 1 recognizes the distance image as shown in FIG. The playground equipment as a target, that is, the sword, is located closest to the image acquisition unit 1 than other imaging objects. That is, as the distance from the image acquisition unit 1 is shorter, the reflected light acquired by the image acquisition unit 1 is stronger, so that the pixel value increases (the larger the pixel value, the closer to black). The closest part of the sword tip 31 is the blackest, the part 32 closer to the sword handle, the hand 33 of the user holding the sword gradually decreases in pixel value (white), and the background is farthest away. The value is almost “0”.
【0033】画像取得部1から撮像物体までの距離値
は、このような4階調に限らず、256階調あるいはよ
り高精度に測定できる。輪郭の抽出された物体までの距
離dの算定には、まず当該物体の重心位置近傍の画像の
代表画素値を求める。代表画素値としては、平均値、最
近傍値などいくつかあるが、ここでは、最近傍値を使う
とする。当該物体からの反射光の強さは物体までの距離
の2乗に反比例して小さくなる。すなわち、画素値をP
(i、j)とすると、その画素値と距離値wとの関係
は、 P(i、j)=K/w2 …(1) と表すことができる。ここで、Kは、撮像物体毎に定め
られるもので、例えば、w=0.5mのときに、当該撮
像物体の画素値P(i、j)の値が「255」になるよ
うに調整された係数であり、反射係数ともいう。式
(1)をwについて解くことで、距離値wを求めること
ができる。The distance value from the image acquisition unit 1 to the object to be imaged is not limited to such four gradations, but can be measured at 256 gradations or more precisely. In calculating the distance d to the object whose contour has been extracted, first, a representative pixel value of an image near the position of the center of gravity of the object is determined. Although there are several representative pixel values such as an average value and a nearest neighbor value, it is assumed here that the nearest neighbor value is used. The intensity of the light reflected from the object decreases in inverse proportion to the square of the distance to the object. That is, the pixel value is P
Assuming that (i, j), the relationship between the pixel value and the distance value w can be expressed as P (i, j) = K / w 2 (1). Here, K is determined for each imaging object. For example, when w = 0.5 m, K is adjusted so that the value of the pixel value P (i, j) of the imaging object becomes “255”. Coefficient, which is also called a reflection coefficient. By solving equation (1) for w, the distance value w can be obtained.
【0034】認識対象の刀の反射係数は、他の撮像体の
ものよりも大きいとすると(例えば、刀を握る手よりも
後方にある場合でも、その画素値は、手の画像の画素値
よりも大きくなる程度の大きさ)。そして、距離画像に
対し、距離値によりマスキングを行う。今、4階調のう
ち、最も値の大きい(つまり近い部分の)階調の画像領
域のみを抽出するとすると、図11(a)の場合、刀の
先の部分31だけが切り出せる。これは、画素値が、あ
る一定値以上の値の画素以外は、最も低い値(たとえ
ば、「0」)にセットすることにあたる。Assuming that the reflection coefficient of the sword to be recognized is larger than that of the other image pickup body (for example, even when the sword is behind the hand holding the sword, its pixel value is larger than the pixel value of the image of the hand. Is also large). Then, masking is performed on the distance image using the distance value. Now, if only the image area with the largest value (that is, the closest part) among the four gradations is extracted, only the tip 31 of the sword can be cut out in the case of FIG. This corresponds to setting the pixel value to the lowest value (for example, “0”) except for a pixel having a value equal to or more than a certain fixed value.
【0035】輪郭情報を抽出するには、隣合う画素の画
素値を比較し、画素値が一定値α以上のところだけに定
数値を入れて、同じ定数値が割り振られた連続した画像
領域の画素を抽出すればよい。In order to extract the contour information, the pixel values of adjacent pixels are compared, and a constant value is entered only when the pixel value is equal to or more than a constant value α, and the continuous image region to which the same constant value is assigned is assigned. Pixels may be extracted.
【0036】すなわち、図4のマトリックス上の座標位
置(i、j)にある画素値をP(i、j)とし、輪郭情
報の画素値をQ(i、j)とすると、 ・{P(i、j)−P(i−1、j)}>α、かつ{P
(i、j)−P(i、j−1)}>α、かつ{P(i、
j)−P(i+1、j)}>α、かつ{P(i、j)−
P(i、j+1)}>αのとき、Q(i、j)=255 ・ 上記以外のとき、Q(i、j)=0 とすることにより、図6のような撮像物体の輪郭情報を
得ることができる。That is, assuming that the pixel value at the coordinate position (i, j) on the matrix in FIG. 4 is P (i, j) and the pixel value of the outline information is Q (i, j): i, j) -P (i-1, j)}> α, and {P
(I, j) -P (i, j-1)}> α, and {P (i,
j) -P (i + 1, j)}> α, and {P (i, j)-
When P (i, j + 1)}> α, Q (i, j) = 255. In other cases, by setting Q (i, j) = 0, the contour information of the imaging object as shown in FIG. Obtainable.
【0037】このようにして、図11(a)から図11
(b)に示すような、刀の先の部分31の輪郭情報が切
り出せる。画像処理部4は、刀の先の部分31の輪郭情
報から当該刀の先の部分31の重心Rgを計算する。As described above, FIG. 11A to FIG.
As shown in (b), the outline information of the tip 31 of the sword can be cut out. The image processing unit 4 calculates the center of gravity Rg of the tip 31 of the sword from the contour information of the tip 31 of the sword.
【0038】また、図11(b)に示すように、重心位
置を含む面の法線ベクトルを求めることで、刀の方向D
gが算出できる。法線ベクトルは、重心Rgを通り、重
心Rgを含む面に対する接平面に対して垂直な直線であ
る。Further, as shown in FIG. 11B, by obtaining a normal vector of a plane including the position of the center of gravity, the sword direction D is obtained.
g can be calculated. The normal vector is a straight line passing through the center of gravity Rg and perpendicular to a tangent plane to a plane including the center of gravity Rg.
【0039】認識対象である刀の重心位置と直前のフレ
ームから抽出され認識対象である刀の重心位置とを比較
して物体が動いているかどうかが判断できる。動いてい
ると判断したときは、重心の変化量と変化方向とを表す
動きベクトルを算出する。It is possible to determine whether the object is moving by comparing the center of gravity of the sword to be recognized with the center of gravity of the sword to be recognized and extracted from the immediately preceding frame. When it is determined that the subject is moving, a motion vector representing the amount of change in the center of gravity and the direction of change is calculated.
【0040】重心Rgの動く速度Vgは、1フレーム前
の重心位置をRg′とすると、重心位置の変化量は(R
g−Rg’)となり、1秒間に30フレームの距離画像
を取得するのであれば、 Vg=(Rg−Rg′)×30 …(2) から求めることができる。Assuming that the position of the center of gravity of one frame before is Rg ', the moving speed Vg of the center of gravity Rg is represented by (R
g−Rg ′), and if a distance image of 30 frames is acquired in one second, the distance image can be obtained from Vg = (Rg−Rg ′) × 30 (2)
【0041】このようにして、画像取得部1で取得した
距離画像から認識対象の形状、方向、認識対象の重心、
重心までの距離、動き等の情報を抽出することができ
る。次に、図9に示すフローチャートを参照して、図1
の仮想物体制御装置の処理動作について説明する。In this manner, the shape and direction of the recognition target, the center of gravity of the recognition target,
Information such as the distance to the center of gravity and the movement can be extracted. Next, referring to the flowchart shown in FIG.
The processing operation of the virtual object control device will be described.
【0042】まず、電源の投入あるいは動作の開始指示
にて起動されると、仮想空間制御部3は、形状記憶部2
に記憶されている3次元あるいは2次元CGの仮想空間
を呈示部5に表示する。そして、形状記憶部2に記憶さ
れている人物のCGモデル(ここでは、ユーザに対応す
る)をその重心位置r、方向d、速度vを初期値とし
て、呈示部5に表示されている仮想空間内に呈示する。
また、遊具のCGモデル(ここでは、ユーザが手にして
いる刀に対応する)を、その重心位置R、方向D、速度
Vの値を初期値にして、呈示部5に表示されている仮想
空間内に呈示する(ステップS1)。First, when the virtual space control unit 3 is started by turning on the power or instructing the start of the operation, the virtual space control unit 3
The 3D or 2D CG virtual space stored in the display unit 5 is displayed. The CG model (corresponding to the user in this case) of the person stored in the shape storage unit 2 is set in the virtual space displayed on the presentation unit 5 with its center of gravity position r, direction d, and velocity v as initial values. Present within.
The CG model of the playground equipment (corresponding to the sword held by the user in this case) is displayed on the presentation unit 5 with the values of the center of gravity position R, the direction D, and the speed V as initial values. It is presented in the space (step S1).
【0043】その後、画像取得部1は、図2に示したよ
うな発光部101、受光部103を用いて、例えば、1
秒間に30枚程度の速度で距離画像を取得する(ステッ
プS2)。一般的に、ユーザとの対話的な処理を行う、
すなわち、ユーザが自分のアクションに対してコンピュ
ータなどの相手側が反応してくれていると認識できる応
答速度の上限は0.2秒であり、毎秒30枚画像取得が
できれば、十分リアルタイムで処理を行い、ユーザにと
って、自然な応答を返すことが可能である。Thereafter, the image acquiring unit 1 uses the light emitting unit 101 and the light receiving unit 103 as shown in FIG.
A distance image is acquired at a speed of about 30 sheets per second (step S2). In general, perform interactive processing with the user,
That is, the upper limit of the response speed at which the user can recognize that the other side of the computer or the like is responding to his / her action is 0.2 seconds. It is possible for the user to return a natural response.
【0044】次に、画像処理部4は画像取得部1で取得
した距離画像、例えば、図4に示したような距離画像デ
ータから、前述したように、認識対象である遊具、すな
わち刀の反射係数と距離値とに基づき、刀(より詳しく
は刀の先の部分(図11(a)参照)31の輪郭情報を
抽出する(ステップS3)。そして、この抽出された刀
の輪郭情報から重心位置Rg、刀の方向Dg、重心位置
の動きの速度Vgを算出する(ステップS4)。Next, the image processing unit 4 uses the distance image acquired by the image acquiring unit 1, for example, the distance image data as shown in FIG. Based on the coefficient and the distance value, contour information of the sword (more specifically, the tip of the sword (see FIG. 11A)) 31 is extracted (step S3), and the center of gravity is extracted from the extracted sword contour information. The position Rg, the direction Dg of the sword, and the speed of movement Vg of the position of the center of gravity are calculated (step S4).
【0045】仮想空間制御部3では、この距離画像から
抽出された刀の重心位置Rg、刀の方向Dg、重心位置
の動きの速度Vgを仮想空間内の当該刀に対応するCG
モデルの重心位置R、方向D、重心位置の動きの速度V
に対応付ける。この対応付けは、距離画像から抽出され
た現実空間内の重心位置R、方向D、重心位置の動きの
速度Vを仮想空間内に適合するように座標、単位、大き
さを変換するものである(ステップS5)。The virtual space control unit 3 calculates the sword's center of gravity position Rg, the sword's direction Dg, and the speed of movement of the sword's center of gravity Vg extracted from the distance image in the CG corresponding to the sword in the virtual space.
Model center of gravity position R, direction D, velocity of movement of center of gravity position V
Corresponds to This association converts coordinates, units, and sizes so that the center of gravity position R, the direction D, and the velocity V of the movement of the center of gravity position in the real space extracted from the distance image fit in the virtual space. (Step S5).
【0046】さらに、仮想空間制御部3は、刀のCGモ
デルの重心位置R、方向D、重心位置の動きの速度Vか
らユーザのCGモデルの重心位置r、方向d、重心位置
の動きの速度vを算出する(ステップS6)。Further, the virtual space control unit 3 calculates the center of gravity position R, the direction D, and the speed of movement of the center of gravity of the user's CG model from the center of gravity R, the direction D, and the speed of movement of the center of gravity of the user's CG model. v is calculated (step S6).
【0047】高速化のために、計算を簡略化し、以下の
ような手法により、ユーザのCGモデルの重心位置を算
出する。図12は、遊具(刀)のCGモデルの重心位置
Pと方向Dとから、人物(ユーザ)のCGモデルの重心
位置pと方向dとを算出する方法を説明するための図
で、仮想空間制御部3は、例えば、所定のメモリに記憶
された図13に示ような算出基準を記憶したテーブルを
参照して、刀のCGモデルの重心位置Pと方向Dとか
ら、ユーザのCGモデルの重心位置pと方向dとを算出
するようになっている。For speeding up, the calculation is simplified, and the position of the center of gravity of the CG model of the user is calculated by the following method. FIG. 12 is a diagram for explaining a method of calculating the center of gravity position p and the direction d of the CG model of the person (user) from the center of gravity P and the direction D of the CG model of the playground equipment (sword), and is a virtual space. The control unit 3 refers to, for example, a table storing calculation criteria as shown in FIG. 13 stored in a predetermined memory, and obtains the CG model of the user from the center of gravity position P and the direction D of the CG model of the sword. The center of gravity position p and the direction d are calculated.
【0048】刀のCGモデルの方向Dが刀のCGモデル
の重心Rを含むxz平面となす角をθとし、刀の方向D
が刀のCGモデルの重心Rを含むyz平面となす角をφ
とする。ここでは、φを、刀の法線ベクトルの方向Dが
yz平面を挟んで右側にあるときを正とし、左側にある
ときを負と概念的に定義する。The angle between the direction D of the CG model of the sword and the xz plane including the center of gravity R of the CG model of the sword is θ, and the direction D of the sword is
Is the angle between the yz plane containing the center of gravity R of the sword CG model and φ
And Here, φ is conceptually defined as positive when the direction D of the normal vector of the sword is on the right side of the yz plane and negative when it is on the left side.
【0049】図13に示す算出基準では、θがある値α
より小さいとき(すなわち、刀自身はほとんど垂直にな
っているとき)と、θがαより大きいとき(すなわち、
刀自身は水平に近くなっているとき)とで、大きく推定
方法が2つに分かれ、さらに、それぞれについて、刀が
yz平面を挟んで右側にあるとき(φが正)と、刀がy
z平面を挟んで左側にあるとき(φが負)とで場合分け
して判断するようになっている。According to the calculation criteria shown in FIG.
Is smaller (ie, when the sword itself is almost vertical), and when θ is larger than α (ie, when
When the sword itself is nearly horizontal), the estimation method is largely divided into two. In each case, when the sword is on the right side of the yz plane (φ is positive), the sword is y
The judgment is made separately depending on whether it is on the left side of the z plane (φ is negative).
【0050】刀が垂直に近いときとは、ユーザは手首を
曲げて体に近づけて刀を持っている状態であり、刀が水
平に近いときとは、ユーザは手首を伸ばして、体から離
して刀を持っている状態である。When the sword is nearly vertical, the user bends his wrist and approaches the body to hold the sword. When the sword is nearly horizontal, the user stretches his wrist and lifts his / her body away from the body. Holding a sword.
【0051】図13に示す算出基準では、刀のCGモデ
ルの方向DからユーザのCGモデルが当該刀を手にした
ときの形態を推定することにより、刀のCGモデルの重
心R、方向DからユーザのCGモデルの重心位置r、方
向(重心の方向)dを以下のように算出するものであ
る。According to the calculation standard shown in FIG. 13, by estimating the form when the user's CG model picks up the sword from the direction D of the sword CG model, the center of gravity R and the direction D of the sword CG model are obtained. The position of the center of gravity r and the direction (direction of the center of gravity) d of the CG model of the user are calculated as follows.
【0052】刀がほぼ垂直で、右に向いているとき(φ
が正のとき)には、ユーザのCGモデルの重心位置r
(x3、y3、z3)は、刀のCGモデルの重心位置R
(x1、y1、z1)に対し、 X3=x1−β、y3=y1−γ、Z3=z1+δ となる。β、γ、δは定数であり、βはユーザのCGモ
デルの手の大きさに比例した値であり、γはほぼ刀のC
Gモデルの長さに相当する大きさであり、δはユーザの
CGモデルの腕の長さの1/2に相当する大きさであ
る。When the sword is almost vertical and facing right (φ
Is positive), the center of gravity r of the user's CG model
(X3, y3, z3) is the center of gravity position R of the CG model of the sword.
For (x1, y1, z1), X3 = x1-β, y3 = y1-γ, and Z3 = z1 + δ. β, γ, and δ are constants, β is a value proportional to the size of the hand of the user's CG model, and γ is almost the sword C.
Is the size corresponding to the length of the G model, and δ is the size corresponding to 1 / of the arm length of the CG model of the user.
【0053】刀がほぼ垂直で、左に向いているとき(φ
が負のとき)には、ユーザのCGモデルの重心位置r
は、x成分において、βを引くかわりに加算すること
で、左右を逆転させている。つまり、 X3=x1+β、y3=y1−γ、Z3=z1+δ となる。When the sword is almost vertical and faces to the left (φ
Is negative), the position of the center of gravity r of the CG model of the user
In the x component, left and right are reversed by adding instead of subtracting β. That is, X3 = x1 + β, y3 = y1-γ, and Z3 = z1 + δ.
【0054】ユーザのCGモデルの方向dは、刀がほぼ
垂直なときは、体も刀とほぼ並行していると考えられる
ので、刀の方向D(x2、y2、z2)をそのままユー
ザのCGモデルの方向d(X4、Y4、Z4)として用
いる。When the direction of the CG model of the user is substantially perpendicular to the sword, the body is considered to be substantially parallel to the sword. Therefore, the direction D (x2, y2, z2) of the sword is directly changed to the CG of the user. Used as the direction d (X4, Y4, Z4) of the model.
【0055】X4=x2、y4=y2、Z4=z2 刀がほぼ水平で、右に向いているとき(φが正のとき)
には、ユーザのCGモデルの重心位置r(x3、y3、
z3)は、刀の重心位置R(x1、y1、z1)に対
し、 X3=x1−ε、Y3=y1−ζ、Z3=z1+η となる。ε、ζ、ηは定数であり、εはユーザのCGモ
デルの手の大きさに比例した値であり、しかもβより大
きい値である。ζは刀の幅に相当する値でγに較べると
かなり小さな値である。ηはユーザのCGモデルの腕の
長さの3/4に相当する大きさである。X4 = x2, y4 = y2, Z4 = z2 When the sword is almost horizontal and points to the right (when φ is positive)
, The center of gravity r (x3, y3,
z3) is X3 = x1-ε, Y3 = y1-ζ, and Z3 = z1 + η with respect to the center of gravity position R (x1, y1, z1) of the sword. ε, ζ, and η are constants, and ε is a value proportional to the size of the hand of the CG model of the user, and is a value larger than β. ζ is a value corresponding to the width of the sword, which is considerably smaller than γ. η is a size corresponding to / of the arm length of the CG model of the user.
【0056】刀がほぼ水平で、左に向いているとき(φ
が負のとき)には、ユーザのCGモデルの重心位置r
は、x成分においてεを引くかわりに加算している。す
なわち、 X3=x1+ε、y3=y1−ζ、Z3=z1+η となる。When the sword is almost horizontal and faces to the left (φ
Is negative), the position of the center of gravity r of the CG model of the user
Is added instead of subtracting ε in the x component. That is, X3 = x1 + ε, y3 = y1-ζ, and Z3 = z1 + η.
【0057】ユーザのCGモデルの方向dは、刀がほぼ
水平なときは、体は刀に対し、垂直面内でほぼ90度回
転した方向にあると考えられるので、刀の方向を90度
回転して、そのままユーザのCGモデルの方向d(X
4、Y4、Z4)として用いる。すなわち、 X4=x2、y4=y2、Z4=y2 ユーザのCGモデルの動きの速度vは、遊具のCGモデ
ルの動きの速度Vに対応して予め定められたものであっ
てもよい。The direction d of the user's CG model is such that when the sword is substantially horizontal, the body is considered to be rotated by approximately 90 degrees in the vertical plane with respect to the sword. Then, the direction d (X
4, Y4, Z4). That is, X4 = x2, y4 = y2, Z4 = y2 The speed v of the movement of the CG model of the user may be a predetermined value corresponding to the speed V of the movement of the CG model of the playground equipment.
【0058】形状記憶部2には、図14に示すように、
人物のCGモデル、遊具のCGモデル、その他、仮想空
間内のキャラクタの形状等が記憶されている。図14に
おいて、例えば、人物のCGモデルというオブジェクト
の実際の3次元CGモデルの形状等のデータはポインタ
「Pointer1」で示されているメモリアドレス以
降に存在する。また、バウンディングボックスは、3次
元CGモデルに外接する直方体の6つの頂点座標を示し
ている。バウンディングボックスにより、仮想空間内の
物体同士がぶつかっているかどうかのチェック(干渉チ
ェック)を行う。このバウンディングボックスの6つの
頂点のいずれかが、相手のバウンディングボックスの中
に入っていれば、干渉しているとみなすのである。In the shape storage unit 2, as shown in FIG.
The CG model of the person, the CG model of the playground equipment, and the shape of the character in the virtual space are stored. In FIG. 14, for example, data such as the shape of an actual three-dimensional CG model of an object called a person CG model exists after the memory address indicated by the pointer “Pointer1”. The bounding boxes indicate the coordinates of the six vertices of a rectangular parallelepiped circumscribing the three-dimensional CG model. The bounding box checks whether objects in the virtual space are in collision with each other (interference check). If any of the six vertices of this bounding box is inside the other party's bounding box, it is regarded as interfering.
【0059】ステップS6において、刀のCGモデルの
重心位置Rと方向Dから、ユーザのCGモデルの重心位
置rと方向dを求めた後、仮想空間制御部3は、形状記
憶部2からユーザのCGモデルの形状データを読み出
す。そして、この形状データの重心位置をr、その方向
がd、動きの速度vとなるように呈示部5にすでに呈示
されている仮想空間内に呈示する(ステップS7)。こ
のときの呈示部5の表示画面の一例を図8に示す。In step S 6, the center of gravity r and the direction d of the user's CG model are obtained from the center of gravity R and the direction D of the CG model of the sword. Read the shape data of the CG model. Then, the position of the center of gravity of the shape data is presented in the virtual space already presented on the presentation unit 5 so that the position becomes r, the direction becomes d, and the speed of movement v becomes (step S7). FIG. 8 shows an example of the display screen of the presenting unit 5 at this time.
【0060】仮想空間制御部3は、ユーザのCGモデル
を呈示すると同時に、図14に示したような形状記憶部
に記憶されたバウンディングボックスを比較することに
より、ユーザのCGモデルと仮想空間中にある他の物体
との干渉チェックをおこなう(ステップS8)。もし、
干渉していれば、ユーザのCGモデルが他の物体にぶつ
かっていることになるので、呈示部5から衝撃音を発生
する(図10のステップS15)。衝撃音は、特定の音
を決めておくことも、あるいは物体毎に異なる音にする
ことも可能である。また、ぶつかったことにより、ユー
ザのCGモデルはぶつかった物体に跳ね返されたりす
る。仮想空間内に存在する各種キャラクタ毎にユーザの
CGモデルと干渉したときの跳ね返り量と跳ね返り方向
とを干渉した位置に応じて予め定めておき、その値と、
現在のユーザのCGモデルの重心位置rとその方向dと
からどの程度跳ね返されるかを算出して、ユーザのCG
モデルの重心位置pと方向dを更新する(ステップS1
6)。The virtual space control unit 3 presents the user's CG model and, at the same time, compares the bounding box stored in the shape storage unit as shown in FIG. An interference check with a certain other object is performed (step S8). if,
If there is interference, it means that the user's CG model has hit another object, so that the presentation unit 5 generates an impact sound (step S15 in FIG. 10). The impact sound may be a specific sound or a different sound for each object. In addition, due to the collision, the user's CG model is rebounded by the collision object. The amount of rebound and the direction of rebound when interfering with the CG model of the user for each of various characters existing in the virtual space are determined in advance according to the position of the interference,
Calculate the degree of rebound from the center of gravity position r of the current user's CG model and its direction d, and calculate the user's CG model.
The center position p and the direction d of the model are updated (step S1).
6).
【0061】ユーザのCGモデルの重心位置pと方向d
とが更新されたので、再度、刀のCGモデルの重心位置
Pと方向Dとを計算し直す(ステップS17)。ユーザ
のCGモデルが物体と干渉している場合には、ステップ
S15〜ステップS17の処理を実行した後、さらにス
テップS7に戻り、ステップS8で干渉チェックを行っ
て、他の仮想空間内の物体と干渉していないと判断され
たときに、図10のステップS9に進む。The center of gravity position p and the direction d of the user's CG model
Is updated, the center of gravity position P and the direction D of the CG model of the sword are calculated again (step S17). If the user's CG model is interfering with the object, after performing the processing of steps S15 to S17, the process returns to step S7, performs an interference check in step S8, and makes a check with the object in another virtual space. When it is determined that there is no interference, the process proceeds to step S9 in FIG.
【0062】ステップS9では、仮想空間制御部3は、
形状記憶部2から刀のCGモデルの形状データを読み出
す。そして、この形状データの重心位置をR、その方向
がD、動きの速度Vとなるように、呈示部5にすでに呈
示されている仮想空間内に呈示する(ステップS9)。In step S9, the virtual space control unit 3
The shape data of the CG model of the sword is read from the shape storage unit 2. Then, the center of gravity of the shape data is presented in the virtual space already presented on the presentation unit 5 such that the position is R, the direction is D, and the speed of movement is V (step S9).
【0063】仮想空間制御部3は、刀のCGモデルを呈
示すると同時に、図14に示したような形状記憶部に記
憶されたバウンディングボックスを比較することによ
り、刀のCGモデルと仮想空間中にある他の物体との干
渉チェックをおこなう(ステップS10)。もし、干渉
していれば、刀のCGモデルが他の物体にぶつかってい
ることになるので、呈示部5から、例えば、速度Vに応
じた破裂音を発生する(ステップS11)。そして、例
えば、物体が堅く、刀が跳ねかえされたりしたときに
は、刀の重心位置や方向が変化するので、その算出を行
い(ステップS12)、その結果を基に再度刀のCGモ
デルを表示し直す(ステップS13)。ここで、終了の
指示があれば、処理を終了する(ステップS14)。The virtual space control unit 3 presents the CG model of the sword and, at the same time, compares the bounding box stored in the shape storage unit as shown in FIG. An interference check with a certain other object is performed (step S10). If there is interference, it means that the CG model of the sword has hit another object, so that a plosive sound corresponding to, for example, the speed V is generated from the presentation unit 5 (step S11). Then, for example, when the object is hard and the sword is rebounded, the position and direction of the center of gravity of the sword change, so the calculation is performed (step S12), and the CG model of the sword is displayed again based on the result. Fix (step S13). Here, if there is a termination instruction, the processing is terminated (step S14).
【0064】以上説明したように、上記第1の実施形態
によれば、画像取得部1で取得した認識対象(例えば、
ユーザが手に持っている遊具としての刀)の撮像された
距離画像から画像処理部4で該認識対象の形状および動
きを抽出して、その抽出した形状および動きに基づき該
認識対象に対応する仮想空間内の制御対象(ユーザや刀
のCGモデル)の位置、動き、さらには、形状等を制御
することにより、ユーザは特殊なウェアや器具を身につ
けたり、本体からのびるケーブルなどのじゃまなものな
しに、コンピュータ内に作られた仮想空間内の物体をよ
り現実的な操作で制御できる。すなわち、あたかも、自
分が仮想空間中に存在するような感覚で、仮想空間内に
存在する物体を操作して、現実味のあるシミュレーショ
ンを行ったり、遊技(ゲーム)として楽しむことができ
る。As described above, according to the first embodiment, the recognition target (for example,
The image processing unit 4 extracts the shape and movement of the recognition target from the captured distance image of the sword as a play tool held by the user, and corresponds to the recognition target based on the extracted shape and movement. By controlling the position, movement, shape, etc. of the control target (CG model of the user and the sword) in the virtual space, the user can wear special clothing and equipment, or intervene with cables or the like extending from the main body. Without anything, you can control the objects in the virtual space created in the computer with more realistic operations. In other words, it is possible to operate realistic objects in the virtual space as if they are in the virtual space, perform realistic simulations, and enjoy the game (game).
【0065】また、上記実施形態に係る仮想物体制御装
置をアーケードゲームに適用する場合、そのようなアー
ケードゲームを設置する業者からすれば、特殊なウェア
や器具、ケーブル等が不要であることから、ユーザが特
殊なウエアを着脱する際の無駄な時間への配慮、複数の
ユーザ間で着用されるウエア等の衛生的な配慮、ユーザ
の動きに伴う設備の摩耗に対する配慮等から解放される
ので、ゲーム機の運用にかかるコストを大幅に削減でき
る。When the virtual object control device according to the above-described embodiment is applied to an arcade game, a trader who installs such an arcade game does not need special wear, equipment, cables, and the like. Since it is free from consideration of wasted time when users attach and detach special wear, hygiene considerations such as wear worn by multiple users, consideration of equipment wear due to user movement, etc. The cost for operating the game machine can be greatly reduced.
【0066】なお、上記第1の実施形態では、画像取得
部1の個数は1つであったが、必ずしもこれに限定され
るものではない。距離画像を取得するための図3に示し
たような構成のカメラを複数個設置して、各々のカメラ
で取得された距離画像のそれぞれに対し、前述同様の画
像処理を施して、その画像処理結果を統合して、距離画
像中の認識対象の重心位置、重心の方向、動く速度等を
算出するようにしてもよい。In the first embodiment, the number of the image acquisition units 1 is one, but the number is not limited to one. A plurality of cameras having the configuration shown in FIG. 3 for acquiring a distance image are installed, and each of the distance images acquired by each camera is subjected to the same image processing as described above. The results may be integrated to calculate the position of the center of gravity of the recognition target in the range image, the direction of the center of gravity, the moving speed, and the like.
【0067】また、複数個のCCDカメラを用いること
により、上記実施形態と同様に画像中の認識対象の画像
から3次元的な情報(認識対象の重心位置、重心の方
向、動く速度等)を抽出する事も可能である。この場合
の画像処理速度は、距離画像に対する画像処理速度に比
較して遅くなることは否めない。 (第2の実施形態)図15は、本発明の第2の実施形態
に係る仮想物体制御装置の構成を概略的に示したもので
ある。なお、図15において、図1と同一部分には同一
符号を付し、異なる部分について説明する。第1の実施
形態では、ユーザは、自分が手や体を動かすと、画面内
に呈示されている当該ユーザのCGモデルや刀のCGモ
デルが追随して動くことで、臨場感を感じていた。仮想
空間内の他の物体にぶつかったりしたときに発する衝撃
音や破裂音で、ぶつかった感じも体感していた。Also, by using a plurality of CCD cameras, three-dimensional information (the position of the center of gravity of the object to be recognized, the direction of the center of gravity, the moving speed, etc.) can be obtained from the image of the object to be recognized in the image as in the above embodiment. It is also possible to extract. It is undeniable that the image processing speed in this case is lower than the image processing speed for the distance image. (Second Embodiment) FIG. 15 schematically shows a configuration of a virtual object control device according to a second embodiment of the present invention. In FIG. 15, the same parts as those in FIG. 1 are denoted by the same reference numerals, and different parts will be described. In the first embodiment, when the user moves his / her hand or body, the CG model of the user or the CG model of the sword presented in the screen follows and moves, thereby feeling a sense of presence. . With the impact sound and the popping sound emitted when hitting another object in the virtual space, he felt the collision.
【0068】これに対し、第2の実施形態では、フィー
ドバック生成部6とフィードバック呈示部7とをさらに
具備することにより、ユーザのCGモデルや刀のCGモ
デルが仮想空間内の他の物体と干渉した時に、呈示部5
で衝撃音や破裂音を発生するとともに、例えば、力(フ
ォース)フィードバックを生成して呈示することによ
り、ユーザに対し、より現実味のある臨場感を体感でき
るようにするものである。On the other hand, in the second embodiment, by further providing the feedback generating unit 6 and the feedback presenting unit 7, the CG model of the user or the CG model of the sword interferes with another object in the virtual space. Presentation part 5
In addition to generating an impulsive sound and a popping sound in the above, for example, by generating and presenting force (force) feedback, the user can experience a more realistic sense of reality.
【0069】フィードバック生成部6は、ユーザのCG
モデルや刀のCGモデルが仮想空間内の他の物体と干渉
した時に、フォースフィードバックの力の大きさの算出
するものである。The feedback generation unit 6 receives the user's CG
When the CG model of the model or the sword interferes with another object in the virtual space, the magnitude of the force feedback force is calculated.
【0070】フィードバック呈示部7は、ユーザの手に
している遊具(ここでは、刀)の中に仕込まれ、例え
ば、フィードバック生成部6で算出されたフォースフィ
ードックの大きさに応じて、モータに回転トルクを発生
させることで、実際の力覚を呈示するようになってい
る。モータとしては、例えば、DCモータが使われる。The feedback presenting unit 7 is set in a playground equipment (in this case, a sword) held by the user, and is provided to the motor in accordance with, for example, the magnitude of the force feedback calculated by the feedback generating unit 6. By generating a rotational torque, an actual force sense is presented. As the motor, for example, a DC motor is used.
【0071】フィードバック生成部6では、ユーザが手
に持っている遊具としての刀の重さMと画像から抽出さ
れた当該刀の重心の動く速度Vgから、衝撃度Sを算出
する。The feedback generator 6 calculates the degree of impact S from the weight M of the sword as a playground equipment held by the user in the hand and the moving speed Vg of the center of gravity of the sword extracted from the image.
【0072】 衝撃度S=KMV2 (Kは比例定数) この衝撃度Sをもとに、遊具に埋め込まれたフィードバ
ック呈示部7を構成するDCモータの出力(電流値)の
制御を行う。モータが急に回転することで、その反対方
向のトルクが発生することで、フィードバック呈示部7
でフォースフィードバックが呈示される。Impact S = KMV 2 (K is a proportional constant) Based on this impact S, the output (current value) of the DC motor constituting the feedback presenting unit 7 embedded in the playground equipment is controlled. When the motor suddenly rotates, a torque in the opposite direction is generated.
Presents force feedback.
【0073】なお、遊具に埋め込まれたフィードバック
呈示部7(例えば、DCモータ)に制御情報を送信する
には、有線通信であってもよいし、IrDA(Infr
ared Data Association)等無線
通信であってもよい。The control information may be transmitted to the feedback presenting unit 7 (for example, a DC motor) embedded in the playground equipment by wire communication or IrDA (Infr.
Wireless communication such as ared Data Association may be used.
【0074】以上説明したように、上記第2の実施形態
によれば、コンピュータ内に作られた仮想空間内の物体
をより現実的な操作で制御できるとともに、ユーザは場
面に応じた衝撃力のフィードバックがあるので、よりリ
アルな体感をあじわうことが可能となる。As described above, according to the second embodiment, the object in the virtual space created in the computer can be controlled by more realistic operations, and the user can control the impact force according to the scene. Because there is feedback, it is possible to have a more realistic experience.
【0075】なお、図1、図15の仮想物体制御装置の
構成において画像取得部1を除く各構成部の処理動作は
コンピュータに実行させることのできるプログラムとし
て、フロッピーディスク、ハードディスク、CD−RO
M、DVD、半導体メモリなどの記録媒体に格納して頒
布することもできる。In the configuration of the virtual object control device shown in FIGS. 1 and 15, the processing operation of each component except the image acquisition unit 1 is a program that can be executed by a computer as a floppy disk, hard disk, CD-RO.
It can also be stored and distributed on a recording medium such as M, DVD, or semiconductor memory.
【0076】また、上記第1および第2の実施形態で
は、本発明の仮想物体制御装置をゲームに適用した場合
を例にとり説明したが、本発明の適用範囲は、この場合
に限らず、例えば、失敗が許されない危険な作業や医療
シミュレーション等の教育・訓練など、幅広い産業分野
への実用的なシステムに適用可能であることは言うまで
もない。In the first and second embodiments, the case where the virtual object control device of the present invention is applied to a game has been described as an example. However, the scope of the present invention is not limited to this case. Needless to say, the present invention can be applied to practical systems for a wide range of industrial fields, such as dangerous work in which failure is unacceptable, and education and training such as medical simulation.
【0077】さらに、上記第1および第2の実施形態で
は、画像中の認識対象がユーザが手に持っている遊具
(刀)である場合を例にとり説明したが、この場合に限
らず、認識対象がユーザ自身であってもよく、このユー
ザの画像から抽出された位置、動き、形状等の情報に基
づき仮想空間内の仮想物体を制御することも、前述同様
に行える。Further, in the first and second embodiments, the case where the recognition target in the image is a playground equipment (sword) held by the user is described as an example. However, the present invention is not limited to this case. The target may be the user himself, and the control of the virtual object in the virtual space based on the information such as the position, the movement, and the shape extracted from the image of the user can be performed in the same manner as described above.
【0078】[0078]
【発明の効果】以上説明したように、本発明によれば、
コンピュータ内に作られた仮想空間内の物体をより現実
的な操作で制御できる。As described above, according to the present invention,
Objects in the virtual space created in the computer can be controlled with more realistic operations.
【図1】本発明の第1の実施形態に係る仮想物体制御装
置の構成を概略的に示した図。FIG. 1 is a diagram schematically showing a configuration of a virtual object control device according to a first embodiment of the present invention.
【図2】距離画像取得部の外観の一例を示した図。FIG. 2 is a diagram illustrating an example of an appearance of a distance image acquisition unit.
【図3】距離画像取得部の構成例を示した図。FIG. 3 is a diagram illustrating a configuration example of a distance image acquisition unit.
【図4】反射光の強度を画素値とする距離画像の一例を
示した図。FIG. 4 is a diagram illustrating an example of a distance image in which the intensity of reflected light is a pixel value.
【図5】図4に示した様なマトリックス形式の距離画像
を3次元的な表した図。FIG. 5 is a diagram showing a three-dimensional matrix image of a range image as shown in FIG. 4;
【図6】距離画像から抽出された物体の輪郭画像の一例
を示した図。FIG. 6 is a diagram showing an example of an outline image of an object extracted from a distance image.
【図7】ユーザが遊具としての刀をもって遊技をしてい
る状態を撮像する画像取得部の撮像状況の一例を示した
図。FIG. 7 is a diagram illustrating an example of an imaging state of an image acquisition unit that captures an image of a user playing a game with a sword as a playground equipment.
【図8】呈示部の表示画面に表示される仮想空間の一例
を示した図。FIG. 8 is a view showing an example of a virtual space displayed on a display screen of a presentation unit.
【図9】図1の仮想物体制御装置の処理動作を説明する
ためのフローチャート。FIG. 9 is a flowchart for explaining a processing operation of the virtual object control device in FIG. 1;
【図10】図1の仮想物体制御装置の処理動作を説明す
るためのフローチャート。FIG. 10 is a flowchart for explaining a processing operation of the virtual object control device in FIG. 1;
【図11】画像取得部により取得された距離画像の一例
を示した図で、(a)図は、認識対象の刀と手との位置
関係に基づき刀の画像を抽出する方法を説明するための
図で、(b)図は、距離画像から抽出された刀の法線ベ
クトルについて説明するための図。11A and 11B are diagrams illustrating an example of a distance image acquired by an image acquiring unit. FIG. 11A illustrates a method of extracting a sword image based on a positional relationship between a recognition target sword and a hand. (B) is a diagram for explaining the normal vector of the sword extracted from the distance image.
【図12】遊具(刀)のCGモデルの重心位置Pと方向
Dとから、人物(ユーザ)のCGモデルの重心位置pと
方向dとを算出する方法を説明するための図。FIG. 12 is a diagram for explaining a method of calculating a center of gravity position p and a direction d of a CG model of a person (user) from a center of gravity P and a direction D of a CG model of a playground equipment (sword).
【図13】刀のCGモデルの重心位置Pと方向Dとか
ら、ユーザのCGモデルの重心位置pと方向dとを算出
するための算出基準を記憶したテーブルの一例を示した
図。FIG. 13 is a diagram illustrating an example of a table storing calculation criteria for calculating a center of gravity p and a direction d of a CG model of a user from a center of gravity P and a direction D of a CG model of a sword.
【図14】形状記憶部における仮想物体のデータの記憶
例を示した図FIG. 14 is a diagram illustrating a storage example of data of a virtual object in a shape storage unit;
【図15】本発明の第2の実施形態に係る仮想物体制御
装置の構成例を概略的に示した図。FIG. 15 is a diagram schematically illustrating a configuration example of a virtual object control device according to a second embodiment of the present invention.
1…画像取得部 2…形状記憶部 3…仮想空間制御部 4…画像処理部 5…呈示部 6…フィードバック生成部 7…フィードバック呈示部 REFERENCE SIGNS LIST 1 image acquisition unit 2 shape storage unit 3 virtual space control unit 4 image processing unit 5 presentation unit 6 feedback generation unit 7 feedback presentation unit
───────────────────────────────────────────────────── フロントページの続き (72)発明者 梅木 直子 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 沼崎 俊一 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 山内 康晋 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 三原 功雄 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 Fターム(参考) 2C001 BB00 BB10 BC01 BC03 CA00 CA08 CA09 5B050 BA07 BA09 EA05 EA06 EA07 EA08 EA18 EA24 EA28 FA02 FA10 5B057 AA20 BA02 BA13 CA13 CA17 CB13 CB17 CE09 DA12 DA16 DB03 DB09 DC06 DC16 DC23 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Naoko Umeki 1st in Toshiba Research and Development Center, Komukai Toshiba, Saiwai-ku, Kawasaki City, Kanagawa Prefecture No. 1, Toshiba R & D Center (72) Inventor Yasunori Yamauchi 1 Tokoba Toshiba, Koyuki-ku, Kawasaki-shi, Kanagawa Prefecture Toshiba R & D Center (72) Inventor Isao Mihara, Kawasaki-shi, Kanagawa 1F, Komukai Toshiba-cho, Toshiba R & D Center, F-term (reference) 2C001 BB00 BB10 BC01 BC03 CA00 CA08 CA09 5B050 BA07 BA09 EA05 EA06 EA07 EA08 EA18 EA24 EA28 FA02 FA10 5B057 AA20 BA02 BA13 CA13 CA17 CB13 CB DA16 DB03 DB09 DC06 DC16 DC23
Claims (5)
象の位置と動きと方向に関する情報を抽出して、その抽
出した情報に基づき該認識対象に対応する仮想空間内の
制御対象を制御することを特徴とする仮想物体制御方
法。An information on a position, a movement, and a direction of a recognition target is extracted from a captured image of a recognition target, and a control target in a virtual space corresponding to the recognition target is controlled based on the extracted information. A virtual object control method characterized by the following.
な強度分布を示した距離画像であることを特徴とする請
求項1記載の仮想物体制御方法。2. The virtual object control method according to claim 1, wherein the image is a distance image indicating a spatial intensity distribution of light reflected from the object.
と、 この画像取得手段で取得した画像から該認識対象の位置
と動きと方向に関する情報を抽出するための画像処理を
施す画像処理手段と、 この画像処理手段で抽出した情報に基づき前記認識対象
に対応する仮想空間内の制御対象を制御する制御手段
と、 を具備したことを特徴とする仮想物体制御装置。3. An image acquiring means for acquiring an image of a recognition target, and an image processing means for performing image processing for extracting information relating to the position, movement and direction of the recognition target from the image acquired by the image acquiring means. A control unit for controlling a control target in a virtual space corresponding to the recognition target based on the information extracted by the image processing unit.
な強度分布を示した距離画像であることを特徴とする請
求項3記載の仮想物体制御装置。4. The virtual object control device according to claim 3, wherein the image is a distance image indicating a spatial intensity distribution of light reflected from the object.
象の位置と動きと方向に関する情報を抽出させる画像処
理手段と、 この画像処理手段で抽出した情報に基づき前記認識対象
に対応する仮想空間内の制御対象を制御させる制御手段
と、 を実行するプログラムを記録した機械読み取り可能な記
録媒体。5. An image processing means for extracting information relating to the position, movement, and direction of the recognition target from a captured image of the recognition target, and a virtual space corresponding to the recognition target based on the information extracted by the image processing means. And a machine readable recording medium storing a program for executing the control means for controlling a control target in the computer.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP18279098A JP4282112B2 (en) | 1998-06-29 | 1998-06-29 | Virtual object control method, virtual object control apparatus, and recording medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP18279098A JP4282112B2 (en) | 1998-06-29 | 1998-06-29 | Virtual object control method, virtual object control apparatus, and recording medium |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2000020193A true JP2000020193A (en) | 2000-01-21 |
| JP4282112B2 JP4282112B2 (en) | 2009-06-17 |
Family
ID=16124478
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP18279098A Expired - Fee Related JP4282112B2 (en) | 1998-06-29 | 1998-06-29 | Virtual object control method, virtual object control apparatus, and recording medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4282112B2 (en) |
Cited By (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002189545A (en) * | 2000-09-01 | 2002-07-05 | Sony Computer Entertainment America Inc | User input device for interaction with display image and its method |
| JP2002292123A (en) * | 2001-03-29 | 2002-10-08 | Konami Co Ltd | Game device, game method, game program, and game system |
| WO2002094459A1 (en) * | 2001-05-24 | 2002-11-28 | Center For Advanced Science And Technology Incubation, Ltd. | Impulsive force generator, control device and control method thereof, and medium on which program is recorded |
| JP2005143657A (en) * | 2003-11-12 | 2005-06-09 | Olympus Corp | Information presentation system, information presentation device, medium for information presentation device, information presentation method, and information presentation program |
| JPWO2005003945A1 (en) * | 2003-07-02 | 2006-08-17 | 新世代株式会社 | Information processing apparatus, information processing system, operation article, information processing method, information processing program, and game system |
| JP2006326021A (en) * | 2005-05-27 | 2006-12-07 | Dainippon Printing Co Ltd | Image battle game device, battle management server, program, and recording medium |
| JP2007004318A (en) * | 2005-06-22 | 2007-01-11 | Sega Corp | Image processing method, program for executing image processing, and storage medium storing the program |
| JP2007151832A (en) * | 2005-12-06 | 2007-06-21 | Taito Corp | Controller for video type shooting game device having mobile sensor and video type shooting game device using controller |
| JP2011522318A (en) * | 2008-05-26 | 2011-07-28 | マイクロソフト インターナショナル ホールディングス ビイ.ヴイ. | Control virtual reality |
| JP2011215920A (en) * | 2010-03-31 | 2011-10-27 | Namco Bandai Games Inc | Program, information storage medium and image generation system |
| JP2012040435A (en) * | 2011-11-30 | 2012-03-01 | Sony Computer Entertainment Inc | Game device and virtual object control method |
| JP2018005464A (en) * | 2016-06-30 | 2018-01-11 | アース環境サービス株式会社 | Cleanness management system of clean room visitor and management system |
| US10786736B2 (en) | 2010-05-11 | 2020-09-29 | Sony Interactive Entertainment LLC | Placement of user information in a game space |
| WO2021131543A1 (en) * | 2019-12-27 | 2021-07-01 | ソニーグループ株式会社 | Image processing device, image processing method, and image processing program |
-
1998
- 1998-06-29 JP JP18279098A patent/JP4282112B2/en not_active Expired - Fee Related
Cited By (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002189545A (en) * | 2000-09-01 | 2002-07-05 | Sony Computer Entertainment America Inc | User input device for interaction with display image and its method |
| US7071914B1 (en) | 2000-09-01 | 2006-07-04 | Sony Computer Entertainment Inc. | User input device and method for interaction with graphic images |
| US7001272B2 (en) | 2001-03-29 | 2006-02-21 | Konami Corporation | Video game device, video game method, video game program, and video game system |
| JP2002292123A (en) * | 2001-03-29 | 2002-10-08 | Konami Co Ltd | Game device, game method, game program, and game system |
| JP2002346225A (en) * | 2001-05-24 | 2002-12-03 | Daijiro Koga | Impulsive force generator, its controller, controlling method and program |
| WO2002094459A1 (en) * | 2001-05-24 | 2002-11-28 | Center For Advanced Science And Technology Incubation, Ltd. | Impulsive force generator, control device and control method thereof, and medium on which program is recorded |
| JP5130504B2 (en) * | 2003-07-02 | 2013-01-30 | 新世代株式会社 | Information processing apparatus, information processing method, program, and storage medium |
| JPWO2005003945A1 (en) * | 2003-07-02 | 2006-08-17 | 新世代株式会社 | Information processing apparatus, information processing system, operation article, information processing method, information processing program, and game system |
| JP2005143657A (en) * | 2003-11-12 | 2005-06-09 | Olympus Corp | Information presentation system, information presentation device, medium for information presentation device, information presentation method, and information presentation program |
| JP2006326021A (en) * | 2005-05-27 | 2006-12-07 | Dainippon Printing Co Ltd | Image battle game device, battle management server, program, and recording medium |
| JP2007004318A (en) * | 2005-06-22 | 2007-01-11 | Sega Corp | Image processing method, program for executing image processing, and storage medium storing the program |
| JP2007151832A (en) * | 2005-12-06 | 2007-06-21 | Taito Corp | Controller for video type shooting game device having mobile sensor and video type shooting game device using controller |
| JP2011522318A (en) * | 2008-05-26 | 2011-07-28 | マイクロソフト インターナショナル ホールディングス ビイ.ヴイ. | Control virtual reality |
| US8860713B2 (en) | 2008-05-26 | 2014-10-14 | Microsoft International Holdings B.V. | Controlling virtual reality |
| JP2011215920A (en) * | 2010-03-31 | 2011-10-27 | Namco Bandai Games Inc | Program, information storage medium and image generation system |
| US8556716B2 (en) | 2010-03-31 | 2013-10-15 | Namco Bandai Games Inc. | Image generation system, image generation method, and information storage medium |
| US10786736B2 (en) | 2010-05-11 | 2020-09-29 | Sony Interactive Entertainment LLC | Placement of user information in a game space |
| US11478706B2 (en) | 2010-05-11 | 2022-10-25 | Sony Interactive Entertainment LLC | Placement of user information in a game space |
| JP2012040435A (en) * | 2011-11-30 | 2012-03-01 | Sony Computer Entertainment Inc | Game device and virtual object control method |
| JP2018005464A (en) * | 2016-06-30 | 2018-01-11 | アース環境サービス株式会社 | Cleanness management system of clean room visitor and management system |
| WO2021131543A1 (en) * | 2019-12-27 | 2021-07-01 | ソニーグループ株式会社 | Image processing device, image processing method, and image processing program |
| JPWO2021131543A1 (en) * | 2019-12-27 | 2021-07-01 | ||
| JP7548246B2 (en) | 2019-12-27 | 2024-09-10 | ソニーグループ株式会社 | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM |
| US12260490B2 (en) | 2019-12-27 | 2025-03-25 | Sony Group Corporation | Three-dimensional image processing apparatus, system, and method thereof |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4282112B2 (en) | 2009-06-17 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8956227B2 (en) | Storage medium recording image processing program, image processing device, image processing system and image processing method | |
| EP1047022B1 (en) | Image generating device | |
| JP3769747B2 (en) | Virtual image generation apparatus and method | |
| EP2371434B1 (en) | Image generation system, image generation method, and information storage medium | |
| CN102331840B (en) | User selection and navigation based on looped motions | |
| GB2376397A (en) | Virtual or augmented reality | |
| US6952199B2 (en) | Information extraction apparatus and method | |
| US20120094773A1 (en) | Storage medium having stored thereon game program, image processing apparatus, image processing system, and image processing method | |
| JP4282112B2 (en) | Virtual object control method, virtual object control apparatus, and recording medium | |
| JP2002153673A (en) | Competition type 3-d video game apparatus and controller for it | |
| US10661181B2 (en) | Simulation system and game system | |
| JP7559758B2 (en) | Image processing device, image processing method, and program | |
| WO2011087887A2 (en) | Tracking groups of users in motion capture system | |
| CN102665838A (en) | Methods and systems for determining and tracking an extremity of a target | |
| JP2000033184A (en) | Whole body action input type game and event device | |
| JP2020204856A (en) | Image generation system and program | |
| JP3990648B2 (en) | Program, information storage medium, and image generation apparatus | |
| JPH09138637A (en) | Simulated viewing device | |
| CN102047201A (en) | Controlling virtual reality | |
| JP5536510B2 (en) | Program and image generation system | |
| US7999812B2 (en) | Locality based morphing between less and more deformed models in a computer graphics system | |
| WO2006108279A1 (en) | Method and apparatus for virtual presence | |
| JP6732463B2 (en) | Image generation system and program | |
| TWI413018B (en) | Volume recognition method and system | |
| JP3904706B2 (en) | Playground equipment and method for controlling the same |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050222 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050301 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050428 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060314 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060515 |
|
| A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20060622 |
|
| A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20070330 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090317 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120327 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130327 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130327 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140327 Year of fee payment: 5 |
|
| LAPS | Cancellation because of no payment of annual fees |