[go: up one dir, main page]

JP2003141574A - Image display method and system - Google Patents

Image display method and system

Info

Publication number
JP2003141574A
JP2003141574A JP2001337805A JP2001337805A JP2003141574A JP 2003141574 A JP2003141574 A JP 2003141574A JP 2001337805 A JP2001337805 A JP 2001337805A JP 2001337805 A JP2001337805 A JP 2001337805A JP 2003141574 A JP2003141574 A JP 2003141574A
Authority
JP
Japan
Prior art keywords
image
dimensional
reference object
display
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001337805A
Other languages
Japanese (ja)
Other versions
JP3834615B2 (en
Inventor
Takashi Yoshimi
隆 吉見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2001337805A priority Critical patent/JP3834615B2/en
Publication of JP2003141574A publication Critical patent/JP2003141574A/en
Application granted granted Critical
Publication of JP3834615B2 publication Critical patent/JP3834615B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

(57)【要約】 【課題】 視点に依存しない三次元立体画像を表示す
る。 【解決手段】 本発明は、表示しようとする三次元立体
画像を表示するときの基準となる座標系を与える基準物
体と、視野内に置かれた基準物体を観測し、その位置と
姿勢をリアルタイムで計測する三次元情報入力装置とを
備える。計測された基準物体の位置姿勢から基準物体に
固定された座標と三次元情報入力装置に固定された座標
との変換行列をリアルタイムに計算し、それにもとづ
き、表示対象の三次元立体画像の座標変換を行う。座標
変換された三次元画像の左右の目の位置から見える二次
元画像を計算して、シースルー機能を有する表示装置に
使用者の両眼用にわずかに異なった合成画像を表示し、
使用者に計算された三次元画像を見せる。合成画像を表
示しない部分には現実に使用者に見える画像をそのまま
表示する。
(57) [Summary] [Problem] To display a three-dimensional stereoscopic image independent of a viewpoint. An object of the present invention is to observe a reference object that provides a coordinate system serving as a reference when displaying a three-dimensional stereoscopic image to be displayed and a reference object placed in a field of view, and determine the position and orientation of the object in real time. And a three-dimensional information input device for measuring by means of. From the measured position and orientation of the reference object, a conversion matrix between the coordinates fixed to the reference object and the coordinates fixed to the three-dimensional information input device is calculated in real time, and based on that, the coordinate conversion of the three-dimensional stereoscopic image to be displayed is performed. I do. Calculate a two-dimensional image that can be seen from the position of the left and right eyes of the coordinate-transformed three-dimensional image, and display a slightly different composite image for both eyes of the user on a display device having a see-through function,
Show the calculated 3D image to the user. The image which is actually seen by the user is displayed as it is in the portion where the composite image is not displayed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、三次元情報入力装
置を用いて基準物体の表示装置に対する相対的な位置姿
勢を計測し、基準物体に対して固定した座標系に基づい
て三次元立体画像を計算し、表示装置に表示する画像表
示方法及びシステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention measures the relative position and orientation of a reference object with respect to a display device using a three-dimensional information input device, and a three-dimensional stereoscopic image based on a coordinate system fixed with respect to the reference object. The present invention relates to an image display method and system for calculating and displaying on a display device.

【0002】[0002]

【従来の技術】従来、よく用いられる三次元画像を表示
するための装置は劇場の固定されたスクリーンに左右の
目のための画像を表示し、それを偏光や色などによって
分解する眼鏡によって見る方法が主であった。この方法
だと実際に画面を表示するための大きなスクリーンが必
要になり、携帯には不向きである。また、観客が自由な
向きから物体を見たりすることができない。
2. Description of the Related Art Conventionally, a commonly used device for displaying a three-dimensional image displays an image for left and right eyes on a fixed screen of a theater and sees it with glasses which is decomposed by polarization or color. Method was the main. This method requires a large screen to actually display the screen, and is not suitable for carrying. Also, the audience cannot see the object from any direction.

【0003】コンピュータディスプレイで同様の機能を
実現したものもあるが、物体の向きを変えたりするとき
には、ダイヤルのついたパッドやキーボード、あるいは
手の動きを計測するデータグローブなどの装置で扱う必
要があった。パッドやキーボードは特別な操作が必要で
あり、現実の物体を取り扱うようには操作できない。デ
ータグローブというのは、バーチャルリアリティでよく
使われる入力装置で、手袋の形をしており、手の位置や
姿勢、そして指の曲げ角をリアルタイムに計測するもの
である。データグローブはかなり現実的な操作を可能に
するが、計測するのは位置のみで物理的な力を再現でき
ないため、操作にはなれが必要である。また、当然のこ
とながら対象物体はコンピュータディスプレイ上の小さ
な物体に限られ、大きな三次元画像を回り込むような見
方はできない。
Some computer displays have realized the same function, but when changing the direction of an object, it is necessary to use a pad or keyboard with a dial, or a device such as a data glove for measuring the movement of a hand. there were. Pads and keyboards require special manipulations and cannot be manipulated like real objects. The data glove is an input device that is often used in virtual reality, and it is in the shape of a glove and measures the position and posture of the hand and the bending angle of the finger in real time. Although the data glove enables a fairly realistic operation, it is necessary to be extraordinary because it cannot measure the physical force only by measuring the position. In addition, as a matter of course, the target object is limited to a small object on the computer display, and it is not possible to look around a large three-dimensional image.

【0004】また、仮想現実においては磁場などを使用
した位置計測装置を用いて、使用者の頭に装着した表示
装置や操作のためのデータグローブなどの位置を測定
し、それを仮想の三次元空間に投影する方法が主であっ
た(図11)。この図では、使用者は顔に表示装置(HMD
=Head Mount Display)を装着し、手にデータグローブを
はめている。HMDおよびデータグローブの部屋の座標を
基準にした両者の位置姿勢が計測されて合成画像の表示
に利用される。これもまた、動作空間全体で顔や手の位
置計測を必要とするため、部屋全体の大掛かりな装置が
必要であり、小型の装置は存在しない。また、この方法
もまた、ハンドリングするときには手の位置のみを計測
するので、現実の操作感とは異なり、使用者のなれが必
要である。
In virtual reality, a position measuring device using a magnetic field or the like is used to measure the position of a display device worn on the user's head or a data glove for operation, and the position is measured in a virtual three-dimensional manner. The main method was to project in space (Fig. 11). In this figure, the user has a display (HMD
= Head Mount Display) is attached and the data glove is put on the hand. The positions and orientations of the HMD and the data glove based on the room coordinates are measured and used to display the composite image. This also requires measurement of the position of the face and hands in the entire operation space, and therefore requires a large-scale device for the entire room, and there is no small device. Also, in this method, since only the position of the hand is measured during handling, it is necessary for the user to be different from the actual operation feeling.

【0005】[0005]

【発明が解決しようとする課題】本発明は、係る問題点
を解決して、従来必要とされたような巨大な三次元計測
装置を不要にし、また、手自体の測定を不要にして、視
点に依存しない三次元立体画像を表示装置に表示する画
像表示方法及びシステムを提供することを目的としてい
る。また、本発明は、操作においても現実感があり使用
者の慣れを必要としない画像表示方法及びシステムを提
供することを目的としている。また、本発明は、部屋や
建物のサイズの三次元画像の中を歩いたりすることも可
能にすることを目的としている。
SUMMARY OF THE INVENTION The present invention solves the above problems and eliminates the need for a huge three-dimensional measuring device that has been required in the past, and also eliminates the need for measuring the hand itself. An object of the present invention is to provide an image display method and system for displaying a three-dimensional stereoscopic image that does not depend on the display on a display device. It is another object of the present invention to provide an image display method and system that is realistic in operation and does not require user's familiarity. Another object of the present invention is to enable walking in a three-dimensional image of the size of a room or a building.

【0006】[0006]

【課題を解決するための手段】図3は、本発明システム
の基本構成を例示する図である。本発明システムは、基
準物体、三次元情報入力装置、座標変換装置、表示画像
合成装置、表示装置によって構成される。また、必要に
応じて、表示データ記録装置、通信装置を含めることが
できる。基準物体とは、表示しようとする立体画像を表
示するときの基準となる座標系を与える物体である。そ
れを三次元情報入力装置で測定したときに一意に座標が
計算できるものならば何でもよい。具体的には、手でも
てるサイズの矩形のフレームなどがありうる。表示する
三次元画像が大きなものの場合、基準物体は互いに区別
可能な複数のパターンであってもよい。
FIG. 3 is a diagram illustrating the basic configuration of the system of the present invention. The system of the present invention includes a reference object, a three-dimensional information input device, a coordinate conversion device, a display image synthesizing device, and a display device. Further, a display data recording device and a communication device can be included if necessary. The reference object is an object that provides a coordinate system that serves as a reference when displaying a stereoscopic image to be displayed. Anything can be used as long as it can uniquely calculate the coordinates when it is measured by the three-dimensional information input device. Specifically, there may be a rectangular frame that can be held by hand. When the displayed three-dimensional image is large, the reference object may be a plurality of patterns that can be distinguished from each other.

【0007】表示装置とは、使用者の両眼に合成した立
体像を見せる装置で、小型のディスプレイを二つつなげ
たものである。このディスプレイは、両眼にわずかに異
なった合成映像を表示し、使用者に計算された三次元映
像を見せる。それと同時に、合成画像を表示しない部分
には現実に使用者に見える画像をそのまま表示するシー
スルー機能が必要である。この現実部分は、ディスプレ
イの素子そのものが透明で素通ししてもよいし、カメラ
で撮影した前方の画像を表示するものであってもよい。
The display device is a device for showing a combined stereoscopic image to both eyes of the user, and is a device in which two small displays are connected. This display presents a slightly different composite image to both eyes, showing the user a calculated 3D image. At the same time, a see-through function is required to display the image actually seen by the user as it is in the part where the composite image is not displayed. In this actual portion, the display element itself may be transparent and transparent, or a front image taken by a camera may be displayed.

【0008】三次元情報入力装置は、視野内に置かれた
基準物体を観測し、その位置と姿勢をリアルタイムで計
測する装置である。現在このような目的で使用できるも
のには、二台のカメラを用いるステレオビジョンシステ
ムが存在する。この三次元情報入力装置は、表示装置に
固定されている必要がある(ステレオビジョンとは、二
つ以上のテレビカメラの映像のずれから対称物体の輪郭
の三次元座標を計算する手法である)。
The three-dimensional information input device is a device for observing a reference object placed in the field of view and measuring its position and orientation in real time. At present, there is a stereo vision system using two cameras that can be used for such a purpose. This three-dimensional information input device needs to be fixed to the display device (stereovision is a method of calculating the three-dimensional coordinates of the contour of a symmetrical object from the shift of the images of two or more TV cameras). .

【0009】座標変換装置は、計測された基準物体の位
置姿勢(これは三次元情報入力装置および表示装置に対
する相対的な座標)から基準物体に固定された座標と三
次元情報入力装置に固定された座標との変換行列をリア
ルタイムに計算し、それにもとづき、表示対象の三次元
画像の座標変換を行う。表示画像合成装置は、座標変換
された三次元画像の左右の目の位置から見える二次元画
像を計算する計算装置である。
The coordinate conversion device is fixed to the coordinate fixed to the reference object and the coordinate fixed to the three-dimensional information input device based on the measured position and orientation of the reference object (this is the coordinate relative to the three-dimensional information input device and the display device). The transformation matrix with the coordinates is calculated in real time, and the coordinate transformation of the three-dimensional image to be displayed is performed based on it. The display image synthesis device is a calculation device that calculates a two-dimensional image that can be seen from the left and right eye positions of the coordinate-converted three-dimensional image.

【0010】[0010]

【発明の実施の形態】以下、本発明の複合現実感を実現
する三次元表示を行う方法及びシステムを例示に基づき
説明する。図1は、図3に例示した本発明システムを具
体化する例を示している。この例では、装置は眼鏡状の
ステレオ画像表示装置1と二つのカメラ2、そして演算
装置3によって構成されている。また、必要な付属品と
して基準座標を与える対象物4が必要である。この図で
は、PDAのような大きさの矩形の板を使っている。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, a method and system for performing three-dimensional display for realizing the mixed reality of the present invention will be described based on examples. FIG. 1 shows an example of embodying the system of the present invention illustrated in FIG. In this example, the device is composed of a stereoscopic image display device 1 in the form of glasses, two cameras 2, and a computing device 3. Further, the object 4 which provides the reference coordinates is required as a necessary accessory. In this figure, a rectangular plate with a size like a PDA is used.

【0011】表示装置1は装着者が実際に見る現実の風
景と合成画像を重ねて表示することができる。両眼で別
々の映像を重ねることで立体的な合成画像を表示するこ
とができる。ステレオ立体視は人間が両眼で日常的に行
っている立体視である。眼鏡をかけて立体映像を表示す
るしかけとして一般的なのは、大型のスクリーンに両眼
の映像を重ね合わせたり時間的にずらして表示し、それ
を眼鏡の色フィルター、液晶シャッターや偏光フィルタ
ーなどにより分離する方法である。ここで用いる装置で
は、そのような巨大な装置は使わず、直接眼鏡の表面に
映像を合成する。
The display device 1 can superimpose and display an actual landscape actually seen by the wearer. It is possible to display a stereoscopic composite image by superimposing different images with both eyes. Stereoscopic vision is stereoscopic vision that humans routinely perform with both eyes. A common way to display stereoscopic images with glasses is to superimpose the images of both eyes on a large screen or display them with a temporal shift, and then separate them with a color filter of the glasses, a liquid crystal shutter, a polarizing filter, etc. Is the way to do it. The device used here does not use such a huge device but directly synthesizes an image on the surface of the spectacles.

【0012】カメラ2は小型のビデオカメラである。こ
れらは動画像を電子的に入力できるもので、現在だとほ
とんどがCCD画像素子を使ったものになる。撮影間隔
は、通常、NTSCであれば30分の1秒/フレームで
ある。しかし、物体の追跡を行うという目的からは、な
るべくフレームごとの移動量が少ない方が認識のミスが
減るので望ましい。最近は高速度撮影可能な市販カメラ
も出始めている。「物体の追跡」とは、三次元物体空間
を移動する物体の位置姿勢をリアルタイムに入力するこ
とであり、毎回ステレオ画像処理することもできるが、
通常は画面ごとの移動量は小さいため、画像全体から対
象物(この場合は基準物体)を探すよりも、画面内の前
の位置の近くを探すようにして計算量を減らすことで高
速な演算が可能になる。
The camera 2 is a small video camera. These can input moving images electronically, and most of them are currently using CCD image elements. The photographing interval is usually 1/30 second / frame in the case of NTSC. However, for the purpose of tracking an object, it is desirable that the movement amount for each frame is as small as possible because recognition errors are reduced. Recently, commercial cameras capable of high-speed shooting have begun to appear. "Tracking an object" means inputting the position and orientation of an object moving in a three-dimensional object space in real time, and stereo image processing can be performed every time.
Normally, the amount of movement for each screen is small, so rather than searching for the object (reference object in this case) from the entire image, searching near the previous position on the screen reduces the amount of calculation and speeds up the calculation. Will be possible.

【0013】本発明は、二つ以上のカメラから撮った画
像から三次元物体の形状を復元するためにステレオ画像
処理をする。基本的には三角測量の原理で、左右のカメ
ラに写った同一の特徴点の三次元座標をカメラの配置か
ら計算する。しかし、実際には(1)一般的な物体を対
象にすると特徴点が画像上にきれいに出ない(2)特徴
点と似た形状の図形があると誤対応となり、三次元形状
が正確に計算できないなどの実装上の困難な点がある。
対象物体が既知の形状を持っているときには、点の対応
だけでなく、境界線やそれの組み合わせなどの大局的な
情報を使えるようになるので、対応点探索がよりスムー
ズにかつ正確に行えるようになる。本発明の場合、基準
物体にステレオ画像処理に適した形状を持たせたり、特
徴を強調する機械的な仕掛け(LEDをつけるなど)を
つけたりする工夫で誤対応の確率をさらに下げることが
可能である。
The present invention performs stereo image processing to reconstruct the shape of a three-dimensional object from images taken by two or more cameras. Basically, the principle of triangulation is used to calculate the three-dimensional coordinates of the same feature point captured on the left and right cameras from the arrangement of the cameras. However, in reality, (1) when a general object is targeted, the feature points do not appear clearly on the image. (2) If there is a figure with a shape similar to the feature point, it will correspond incorrectly, and the three-dimensional shape will be calculated accurately. There are difficult implementation points such as not being possible.
When the target object has a known shape, not only point correspondence but also global information such as boundary lines and their combinations can be used, so that corresponding point search can be performed more smoothly and accurately. become. In the case of the present invention, it is possible to further reduce the probability of mishandling by giving the reference object a shape suitable for stereo image processing, or by adding a mechanical device (such as attaching an LED) that emphasizes the characteristics. is there.

【0014】演算装置3は画像処理、座標変換、表示な
どを行う計算機である。具体的にはコンピュータであ
る。座標変換に特化すれば、専用のハードウェアを用い
ることで小型化、高速化が可能である。基準物体4は基
準座標を与える指標となる物体である。形態は、三次元
計測において位置や姿勢が精度良く計算できる形である
物体であればよい。大きさは小さくても構わないが、あ
まり小さなものだと計測時の誤差が影響して姿勢の精度
が落ち、基準座標が不安定になる可能性がある。また、
あまり大きいと、三次元計測をするカメラの視野に入ら
なくなり、この場合も問題があるので、カメラの視野に
入り、かつ小さすぎない大きさが適当である。また、画
像処理によって三次元計測をするため、周囲と見分けや
すい色や形が望ましい。
The arithmetic unit 3 is a computer that performs image processing, coordinate conversion, display and the like. Specifically, it is a computer. If specialized in coordinate conversion, it can be downsized and speeded up by using dedicated hardware. The reference object 4 is an object that serves as an index that gives reference coordinates. The form may be any object as long as the position and orientation can be accurately calculated in three-dimensional measurement. The size may be small, but if the size is too small, the accuracy of the posture may be deteriorated due to the error during measurement, and the reference coordinates may become unstable. Also,
If it is too large, it will not fit in the field of view of the camera for three-dimensional measurement, and there is also a problem in this case. Moreover, since three-dimensional measurement is performed by image processing, it is desirable to use a color or shape that is easily distinguishable from the surroundings.

【0015】次に、図1に例示したシステム例の動作を
説明する。 (1)図12に示すように、二台のカメラ2を用いて基
準物体4の映像を入力し、演算装置3において三次元計
測し、カメラの座標系C2からみた相対的な基準物体4
の位置と姿勢を計測する。物体4の形状や色などはあら
かじめデータとして蓄えておき、視野に他の物体があっ
ても間違わないようにする。
Next, the operation of the example system illustrated in FIG. 1 will be described. (1) As shown in FIG. 12, an image of the reference object 4 is input using two cameras 2, three-dimensionally measured by the arithmetic unit 3, and the relative reference object 4 viewed from the coordinate system C2 of the cameras.
Measure the position and posture of. The shape, color, etc. of the object 4 are stored in advance as data so that no mistake is made even if there is another object in the visual field.

【0016】(2)図13に示すように、物体4の位置
姿勢の情報から、物体4上に固定された座標系C4から
カメラ座標系C2への変換行列R42を計算する。 (3)また、図13に示すように、カメラ座標系C2か
ら表示装置の座標系C1への変換行列R21もあらかじめ
計算しておく。カメラと表示装置は固定されているの
で、これは一度キャリブレーションを行えば変更はしな
い。 (4)合成する立体画像のデータは座標系C4上に定義
して用意される。これを(2)で計算した変換行列R42
によって座標系C2のものに変換し、さらに(3)の変
換行列R21によって座標系C1のものに変換する。
(2) As shown in FIG. 13, a transformation matrix R42 from the coordinate system C4 fixed on the object 4 to the camera coordinate system C2 is calculated from the information on the position and orientation of the object 4. (3) Further, as shown in FIG. 13, a transformation matrix R21 from the camera coordinate system C2 to the coordinate system C1 of the display device is also calculated in advance. Since the camera and display are fixed, this will not change once calibration is done. (4) The data of the stereoscopic image to be combined is defined and prepared on the coordinate system C4. The conversion matrix R42 calculated from this in (2)
To the coordinate system C2, and further to the coordinate system C1 by the conversion matrix R21 in (3).

【0017】(5)このように変換された三次元データ
から使用者の両眼から見える映像を作成し、それを表示
装置1のそれぞれの表示装置において表示する。 以上の処理によって、使用者は、物体4の移動や回転に
追従する三次元の立体画像を見ることができる。三次元
画像は静止画である必要はなく、演算装置の能力が許せ
ば動画像でも可能である。
(5) An image viewed from both eyes of the user is created from the thus converted three-dimensional data, and the image is displayed on each display device of the display device 1. Through the above processing, the user can see a three-dimensional stereoscopic image that follows the movement and rotation of the object 4. The three-dimensional image does not have to be a still image, and may be a moving image if the capability of the arithmetic device allows.

【0018】図4は、図3とは別の本発明の第2のシス
テムを例示する図である。図3では、映像を表示するた
めに使う三次元データを演算装置内部に記録している
が、図4ではそれを外部に持ち、通信によって取得す
る。図2は、図4に例示したシステムを具体化する例を
示している。図2に示すように、基準物体にボタン類を
付加して、基準物体とシステムの間で通信することによ
って表示の操作が可能となる。ここで可能となる操作と
は、例えば、動画像の三次元映像を表示する場合に、再
生、停止、早送り、巻き戻しなどの画像の再生速度をビ
デオのように行うものが考えられる。また、静止した三
次元映像でも拡大、縮小、色の変更などの操作が考えら
れる。このように、ボタンを使えば、基準物体によって
可能な物体の位置姿勢の変化以外の操作を三次元映像に
行うことができる。これにより、動画像の再生、停止な
どの操作やゲームのインターフェースとしても利用可能
である。
FIG. 4 is a diagram illustrating a second system of the present invention different from that of FIG. In FIG. 3, the three-dimensional data used to display the image is recorded inside the arithmetic device, but in FIG. 4, it is stored outside and acquired by communication. FIG. 2 shows an example of embodying the system illustrated in FIG. As shown in FIG. 2, buttons can be added to the reference object and the display object can be operated by communicating between the reference object and the system. The operation that can be performed here is, for example, that when a three-dimensional image of a moving image is displayed, the image reproduction speed such as reproduction, stop, fast forward, and rewind is performed like a video. Further, operations such as enlarging, reducing, and changing colors can be considered even for a static three-dimensional image. As described above, by using the button, the operation other than the change of the position and orientation of the object, which is possible by the reference object, can be performed on the three-dimensional image. As a result, it is possible to use it as an operation for playing or stopping a moving image or as a game interface.

【0019】図5は、三次元画像を表示し、それを自由
に移動して角度を変えて見るための表示装置に、本発明
を応用した第1の応用例を示す図である。基準物体は手
でもてるサイズのフレームであり、複数の使用者がいて
も、同一の基準物体には同一の基準座標が定義されるの
で、三次元画像を前にしたディスカッションが可能とな
る。
FIG. 5 is a diagram showing a first application example in which the present invention is applied to a display device for displaying a three-dimensional image, and freely moving the three-dimensional image for viewing. The reference object is a frame of a size that can be held by a hand, and even if there are a plurality of users, the same reference coordinates are defined for the same reference object, so that discussion with a three-dimensional image is possible.

【0020】図6は、携帯電話に付随して移動する仮想
大画面ディスプレイに、本発明を応用した第2の応用例
を示す図である。基準物体は携帯電話あるいはそこから
突き出したアンテナである。
FIG. 6 is a diagram showing a second application example in which the present invention is applied to a virtual large screen display that moves in association with a mobile phone. The reference object is a mobile phone or an antenna protruding from the mobile phone.

【0021】図7は、卓上の仮想大画面ディスプレイ
に、本発明を応用した第3の応用例を示す図である。基
準物体はキーボードに付属したフレームである。
FIG. 7 is a diagram showing a third application example in which the present invention is applied to a virtual large screen display on a desk. The reference object is the frame attached to the keyboard.

【0022】図8は、本発明を応用した第4の応用例を
示す図である。この例において、卓上全体がコンピュー
タの仮想ディスプレイになる。基準物体は机に置かれた
パターンである。
FIG. 8 is a diagram showing a fourth application example to which the present invention is applied. In this example, the entire desktop becomes the computer's virtual display. The reference object is a pattern placed on a desk.

【0023】図9は、本発明を応用した第5の応用例を
示す図である。洋服や自動車に動画像の広告などを表示
することができる。基準物体は洋服や自動車に描かれた
固定パターンである。この場合、表示する三次元画像の
データは基準物体が描かれている衣服を着た人あるいは
自動車側にあり、それを通信で近くの装着者に送るよう
になる。
FIG. 9 is a diagram showing a fifth application example to which the present invention is applied. It is possible to display moving image advertisements on clothes and automobiles. The reference object is a fixed pattern drawn on clothes or a car. In this case, the data of the three-dimensional image to be displayed is on the person wearing the clothes or the automobile side on which the reference object is drawn, and it is sent to the nearby wearer by communication.

【0024】図10は、本発明を応用した第6の応用例
を示す図である。舞台における服装、着ぐるみなどの立
体的装飾を可能にする。基準物体は体に固定されたパタ
ーンである。この図では、演技者は体に多数の基準物体
をはりつけており、それぞれは区別可能で、四肢のそれ
ぞれの座標に対して表示された合成画像を重ねること
で、観察者にはパンダが歩いているように見える。
FIG. 10 is a diagram showing a sixth application example to which the present invention is applied. Enables three-dimensional decorations such as clothes and costumes on the stage. The reference object is a pattern fixed to the body. In this figure, the actor has a large number of reference objects attached to his body, which can be distinguished from each other.By superimposing the composite image displayed for each coordinate of the four limbs, the panda can walk to the observer. It looks like you are.

【0025】[0025]

【発明の効果】本発明では、顔に取り付けられた視覚に
よる三次元計測装置によって、基準物体の位置と姿勢を
計測し、表示系と物体系の相対的な位置関係を顔の座標
を基準にしてリアルタイムで測定することで、上記の従
来技術において必要な巨大な三次元計測装置を不要にす
ることができる。また、表示された三次元物体を手で持
って裏側を見るような動作も、本発明では実際に手で移
動された基準物体を測定するので、手自体の測定は不要
であり、また、操作においても現実感があり使用者の慣
れは必要ない。また、基準物体のひとつが三次元測定装
置の視野に入っている限り座標変換は可能であるので、
部屋や建物のサイズの三次元画像の中を歩いたりするこ
とも可能である。
According to the present invention, the position and orientation of the reference object are measured by the visual three-dimensional measuring device attached to the face, and the relative positional relationship between the display system and the object system is based on the coordinates of the face. By performing the real-time measurement by using the above-mentioned technique, the huge three-dimensional measuring device required in the above-mentioned conventional technique can be eliminated. Further, in the operation of holding the displayed three-dimensional object by hand and looking at the back side, the reference object actually moved by hand is measured in the present invention, so that the measurement of the hand itself is unnecessary, and the operation is also unnecessary. There is no need for the user to get used to it because of the reality. Also, as long as one of the reference objects is in the field of view of the three-dimensional measuring device, coordinate conversion is possible, so
It is also possible to walk in a three-dimensional image of the size of a room or building.

【図面の簡単な説明】[Brief description of drawings]

【図1】図3に例示した本発明システムを具体化する例
を示している。
FIG. 1 shows an example of embodying the system of the present invention illustrated in FIG.

【図2】図4に例示したシステムを具体化する例を示し
ている。
FIG. 2 shows an example of embodying the system illustrated in FIG.

【図3】本発明システムの基本構成を例示する図であ
る。
FIG. 3 is a diagram illustrating a basic configuration of the system of the present invention.

【図4】図3とは別の本発明の第2のシステムを例示す
る図である。
FIG. 4 is a diagram illustrating a second system of the present invention different from that of FIG. 3;

【図5】本発明を応用した第1の応用例を示す図であ
る。
FIG. 5 is a diagram showing a first application example to which the present invention is applied.

【図6】本発明を応用した第2の応用例を示す図であ
る。
FIG. 6 is a diagram showing a second application example to which the present invention is applied.

【図7】本発明を応用した第3の応用例を示す図であ
る。
FIG. 7 is a diagram showing a third application example to which the present invention is applied.

【図8】本発明を応用した第4の応用例を示す図であ
る。
FIG. 8 is a diagram showing a fourth application example to which the present invention is applied.

【図9】本発明を応用した第5の応用例を示す図であ
る。
FIG. 9 is a diagram showing a fifth application example to which the present invention is applied.

【図10】本発明を応用した第6の応用例を示す図であ
る。
FIG. 10 is a diagram showing a sixth application example to which the present invention is applied.

【図11】従来技術に基づき、仮想の三次元空間に投影
する方法を説明するための図である。
FIG. 11 is a diagram for explaining a method of projecting in a virtual three-dimensional space based on the conventional technique.

【図12】二台のカメラを用いて基準物体の映像を入力
し、その位置と姿勢を計測する方法を説明するための図
である。
FIG. 12 is a diagram for explaining a method of inputting an image of a reference object using two cameras and measuring the position and orientation thereof.

【図13】物体上に固定された座標系C4からカメラ座
標系C2への変換行列R42、及びカメラ座標系C2から
表示装置の座標系C1への変換行列R21の計算を説明す
るための図である。
FIG. 13 is a diagram for explaining calculation of a transformation matrix R42 from the coordinate system C4 fixed on the object to the camera coordinate system C2, and a transformation matrix R21 from the camera coordinate system C2 to the coordinate system C1 of the display device. is there.

【符号の説明】[Explanation of symbols]

1 眼鏡状のステレオ画像表示装置 2 カメラ 3 演算装置 4 対象物 1 Eyeglass-shaped stereo image display device 2 camera 3 arithmetic unit 4 Target

フロントページの続き Fターム(参考) 5B050 AA09 BA09 BA13 EA07 EA19 EA27 FA02 FA06 FA09 5B057 AA20 CA13 CB12 CD14 CE08 CH01 DA16 5C061 AA01 AA20 AB04 AB08 AB18 AB20 AB24 5C082 AA27 BA12 BA46 BB25 BB26 CA55 CB03 DA22 DA42 DA73 DA86 MM09 MM10 Continued front page    F-term (reference) 5B050 AA09 BA09 BA13 EA07 EA19                       EA27 FA02 FA06 FA09                 5B057 AA20 CA13 CB12 CD14 CE08                       CH01 DA16                 5C061 AA01 AA20 AB04 AB08 AB18                       AB20 AB24                 5C082 AA27 BA12 BA46 BB25 BB26                       CA55 CB03 DA22 DA42 DA73                       DA86 MM09 MM10

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 三次元立体画像を表示装置に表示する画
像表示方法において、 表示しようとする三次元立体画像を表示するときの基準
となる座標系を与える基準物体と、視野内に置かれた基
準物体を観測し、その位置と姿勢をリアルタイムで計測
する三次元情報入力装置とを備えて、 計測された基準物体の位置姿勢から基準物体に固定され
た座標と三次元情報入力装置に固定された座標との変換
行列をリアルタイムに計算し、それにもとづき、表示対
象の三次元立体画像の座標変換を行い、 座標変換された三次元画像の左右の目の位置から見える
二次元画像を計算して、 シースルー機能を有する表示
装置に使用者の両眼用にわずかに異なった合成画像を表
示し、使用者に計算された三次元画像を見せると同時
に、合成画像を表示しない部分には現実に使用者に見え
る画像をそのまま表示する、 ことから成る画像表示方法。
1. In an image display method for displaying a three-dimensional stereoscopic image on a display device, a reference object that provides a coordinate system that serves as a reference when displaying a three-dimensional stereoscopic image to be displayed, and a reference object placed in the visual field. It is equipped with a 3D information input device that observes the reference object and measures its position and orientation in real time.From the measured position and orientation of the reference object, the coordinates fixed to the reference object and the 3D information input device are fixed. Calculate the transformation matrix with the coordinates in real time, and based on that, perform the coordinate transformation of the 3D stereoscopic image to be displayed, and calculate the 2D image that can be seen from the left and right eye positions of the coordinate transformed 3D image. , A part that displays a slightly different composite image for both eyes of the user on a display device having a see-through function and shows the user a calculated three-dimensional image while not displaying the composite image Image display method comprising the image that appears in reality to the user is displayed as it is, since it is.
【請求項2】 三次元立体画像を表示装置に表示する画
像表示システムにおいて、 表示しようとする三次元立体画像を表示するときの基準
となる座標系を与える基準物体と、 視野内に置かれた基準物体を観測し、その位置と姿勢を
リアルタイムで計測する三次元情報入力装置と、 計測された基準物体の位置姿勢から基準物体に固定され
た座標と三次元情報入力装置に固定された座標との変換
行列をリアルタイムに計算し、それにもとづき、表示対
象の三次元立体画像の座標変換を行う座標変換装置と、 座標変換された三次元画像の左右の目の位置から見える
二次元画像を計算する表示画像合成装置と、 使用者の両眼用にわずかに異なった合成画像を表示し、
使用者に計算された三次元画像を見せると同時に、合成
画像を表示しない部分には現実に使用者に見える画像を
そのまま表示するシースルー機能を有する表示装置と、 から成る画像表示システム。
2. In an image display system for displaying a three-dimensional stereoscopic image on a display device, a reference object that provides a coordinate system that serves as a reference when displaying a three-dimensional stereoscopic image to be displayed, and a reference object placed in the visual field. A three-dimensional information input device that observes a reference object and measures its position and orientation in real time, and the coordinates fixed to the reference object and the coordinates fixed to the three-dimensional information input device based on the measured position and orientation of the reference object. Calculates the transformation matrix of in real time, and based on it, calculates the coordinate transformation device that transforms the coordinates of the three-dimensional stereoscopic image to be displayed, and the two-dimensional image that can be seen from the left and right eye positions of the coordinate-transformed three-dimensional image. Display image synthesizer and display a slightly different composite image for both eyes of the user,
An image display system comprising a display device having a see-through function for displaying the calculated three-dimensional image to the user and at the same time displaying the image actually viewed by the user in a portion where the composite image is not displayed.
JP2001337805A 2001-11-02 2001-11-02 Image display method and system Expired - Lifetime JP3834615B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001337805A JP3834615B2 (en) 2001-11-02 2001-11-02 Image display method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001337805A JP3834615B2 (en) 2001-11-02 2001-11-02 Image display method and system

Publications (2)

Publication Number Publication Date
JP2003141574A true JP2003141574A (en) 2003-05-16
JP3834615B2 JP3834615B2 (en) 2006-10-18

Family

ID=19152393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001337805A Expired - Lifetime JP3834615B2 (en) 2001-11-02 2001-11-02 Image display method and system

Country Status (1)

Country Link
JP (1) JP3834615B2 (en)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293141A (en) * 2004-03-31 2005-10-20 Canon Inc Marker detection method and apparatus, and position and orientation estimation method
JP2006127468A (en) * 2004-09-28 2006-05-18 Canon Inc Information processing method and apparatus
JP2016115148A (en) * 2014-12-15 2016-06-23 キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing system, information processing method, and program
WO2020115784A1 (en) * 2018-12-03 2020-06-11 マクセル株式会社 Augmented reality display device and augmented reality display method
WO2020185405A1 (en) 2019-03-12 2020-09-17 Magic Leap, Inc. Registration of local content between first and second augmented reality viewers
US11567324B2 (en) 2017-07-26 2023-01-31 Magic Leap, Inc. Exit pupil expander
US11579441B2 (en) 2018-07-02 2023-02-14 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11598651B2 (en) 2018-07-24 2023-03-07 Magic Leap, Inc. Temperature dependent calibration of movement detection devices
US11609645B2 (en) 2018-08-03 2023-03-21 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
US11624929B2 (en) 2018-07-24 2023-04-11 Magic Leap, Inc. Viewing device with dust seal integration
US11630507B2 (en) 2018-08-02 2023-04-18 Magic Leap, Inc. Viewing system with interpupillary distance compensation based on head motion
US11737832B2 (en) 2019-11-15 2023-08-29 Magic Leap, Inc. Viewing system for use in a surgical environment
US11756335B2 (en) 2015-02-26 2023-09-12 Magic Leap, Inc. Apparatus for a near-eye display
US11762222B2 (en) 2017-12-20 2023-09-19 Magic Leap, Inc. Insert for augmented reality viewing device
US11776509B2 (en) 2018-03-15 2023-10-03 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
US11790554B2 (en) 2016-12-29 2023-10-17 Magic Leap, Inc. Systems and methods for augmented reality
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
US11874468B2 (en) 2016-12-30 2024-01-16 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US11885871B2 (en) 2018-05-31 2024-01-30 Magic Leap, Inc. Radar head pose localization
US11953653B2 (en) 2017-12-10 2024-04-09 Magic Leap, Inc. Anti-reflective coatings on optical waveguides
US12016719B2 (en) 2018-08-22 2024-06-25 Magic Leap, Inc. Patient viewing system
US12033081B2 (en) 2019-11-14 2024-07-09 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US12044851B2 (en) 2018-12-21 2024-07-23 Magic Leap, Inc. Air pocket structures for promoting total internal reflection in a waveguide
US12164978B2 (en) 2018-07-10 2024-12-10 Magic Leap, Inc. Thread weave for cross-instruction set architecture procedure calls
US12249035B2 (en) 2019-07-26 2025-03-11 Magic Leap, Inc. System and method for augmented reality with virtual objects behind a physical surface
US12267545B2 (en) 2019-05-01 2025-04-01 Magic Leap, Inc. Content provisioning system and method

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293141A (en) * 2004-03-31 2005-10-20 Canon Inc Marker detection method and apparatus, and position and orientation estimation method
JP2006127468A (en) * 2004-09-28 2006-05-18 Canon Inc Information processing method and apparatus
JP2016115148A (en) * 2014-12-15 2016-06-23 キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing system, information processing method, and program
US11756335B2 (en) 2015-02-26 2023-09-12 Magic Leap, Inc. Apparatus for a near-eye display
US11790554B2 (en) 2016-12-29 2023-10-17 Magic Leap, Inc. Systems and methods for augmented reality
US12131500B2 (en) 2016-12-29 2024-10-29 Magic Leap, Inc. Systems and methods for augmented reality
US11874468B2 (en) 2016-12-30 2024-01-16 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US11927759B2 (en) 2017-07-26 2024-03-12 Magic Leap, Inc. Exit pupil expander
US11567324B2 (en) 2017-07-26 2023-01-31 Magic Leap, Inc. Exit pupil expander
US12298473B2 (en) 2017-12-10 2025-05-13 Magic Leap, Inc. Anti-reflective coatings on optical waveguides
US11953653B2 (en) 2017-12-10 2024-04-09 Magic Leap, Inc. Anti-reflective coatings on optical waveguides
US11762222B2 (en) 2017-12-20 2023-09-19 Magic Leap, Inc. Insert for augmented reality viewing device
US12366769B2 (en) 2017-12-20 2025-07-22 Magic Leap, Inc. Insert for augmented reality viewing device
US11908434B2 (en) 2018-03-15 2024-02-20 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
US11776509B2 (en) 2018-03-15 2023-10-03 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
US11885871B2 (en) 2018-05-31 2024-01-30 Magic Leap, Inc. Radar head pose localization
US12001013B2 (en) 2018-07-02 2024-06-04 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11579441B2 (en) 2018-07-02 2023-02-14 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
US12164978B2 (en) 2018-07-10 2024-12-10 Magic Leap, Inc. Thread weave for cross-instruction set architecture procedure calls
US12379981B2 (en) 2018-07-10 2025-08-05 Magic Leap, Inc. Thread weave for cross-instruction set architectureprocedure calls
US11598651B2 (en) 2018-07-24 2023-03-07 Magic Leap, Inc. Temperature dependent calibration of movement detection devices
US12247846B2 (en) 2018-07-24 2025-03-11 Magic Leap, Inc. Temperature dependent calibration of movement detection devices
US11624929B2 (en) 2018-07-24 2023-04-11 Magic Leap, Inc. Viewing device with dust seal integration
US11630507B2 (en) 2018-08-02 2023-04-18 Magic Leap, Inc. Viewing system with interpupillary distance compensation based on head motion
US11609645B2 (en) 2018-08-03 2023-03-21 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
US12254141B2 (en) 2018-08-03 2025-03-18 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
US11960661B2 (en) 2018-08-03 2024-04-16 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
US12016719B2 (en) 2018-08-22 2024-06-25 Magic Leap, Inc. Patient viewing system
US12033286B2 (en) 2018-12-03 2024-07-09 Maxell, Ltd. Augmented reality display device and augmented reality display method
JP2023078241A (en) * 2018-12-03 2023-06-06 マクセル株式会社 Augmented reality display device and augmented reality display method
US12423929B2 (en) 2018-12-03 2025-09-23 Maxell, Ltd. Augmented reality display device and augmented reality display method
JP7523615B2 (en) 2018-12-03 2024-07-26 マクセル株式会社 Augmented reality display device and augmented reality display method
JP7244541B2 (en) 2018-12-03 2023-03-22 マクセル株式会社 Augmented reality display device and augmented reality display method
WO2020115784A1 (en) * 2018-12-03 2020-06-11 マクセル株式会社 Augmented reality display device and augmented reality display method
JPWO2020115784A1 (en) * 2018-12-03 2021-10-14 マクセル株式会社 Augmented reality display device and augmented reality display method
US11508134B2 (en) 2018-12-03 2022-11-22 Maxell, Ltd. Augmented reality display device and augmented reality display method
US12498581B2 (en) 2018-12-21 2025-12-16 Magic Leap, Inc. Air pocket structures for promoting total internal reflection in a waveguide
US12044851B2 (en) 2018-12-21 2024-07-23 Magic Leap, Inc. Air pocket structures for promoting total internal reflection in a waveguide
EP3939030A4 (en) * 2019-03-12 2022-11-30 Magic Leap, Inc. RECORDING LOCAL CONTENT BETWEEN FIRST AND SECOND AUGMENTED REALITY VIEWERS
WO2020185405A1 (en) 2019-03-12 2020-09-17 Magic Leap, Inc. Registration of local content between first and second augmented reality viewers
US11762623B2 (en) 2019-03-12 2023-09-19 Magic Leap, Inc. Registration of local content between first and second augmented reality viewers
US12267545B2 (en) 2019-05-01 2025-04-01 Magic Leap, Inc. Content provisioning system and method
US12249035B2 (en) 2019-07-26 2025-03-11 Magic Leap, Inc. System and method for augmented reality with virtual objects behind a physical surface
US12033081B2 (en) 2019-11-14 2024-07-09 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US12472007B2 (en) 2019-11-15 2025-11-18 Magic Leap, Inc. Viewing system for use in a surgical environment
US11737832B2 (en) 2019-11-15 2023-08-29 Magic Leap, Inc. Viewing system for use in a surgical environment

Also Published As

Publication number Publication date
JP3834615B2 (en) 2006-10-18

Similar Documents

Publication Publication Date Title
JP3834615B2 (en) Image display method and system
Azuma A survey of augmented reality
US10444502B1 (en) Method and apparatus for multiple user self-relative tracking for augmented reality systems using magnetic tracking
JP4933406B2 (en) Image processing apparatus and image processing method
Tomioka et al. Approximated user-perspective rendering in tablet-based augmented reality
WO2019152617A1 (en) Calibration system and method to align a 3d virtual scene and 3d real world for a stereoscopic head-mounted display
US20070132662A1 (en) Information processing method, information processing apparatus, and image sensing apparatus
JP7262973B2 (en) Information processing device, information processing method and program
JPH1051711A (en) 3D virtual object display apparatus and method
KR20150093831A (en) Direct interaction system for mixed reality environments
JPH075978A (en) Input device
JP4624582B2 (en) Image generating apparatus, program, and information storage medium
WO2016132817A1 (en) Virtual-object display device, method, program, and system
TW202025719A (en) Method, apparatus and electronic device for image processing and storage medium thereof
CN108830944B (en) Optical see-through three-dimensional near-eye display system and display method
JP7175715B2 (en) Information processing device, information processing method and program
WO2005116938A1 (en) Image processing method and image processing apparatus
JP4491598B2 (en) Image display system
CN114937139A (en) Endoscope augmented reality system and method based on video stream fusion
Yu et al. Projective bisector mirror (PBM): concept and rationale
JP2001222723A (en) Stereoscopic image generation method and apparatus
JP2005251118A (en) Image processing method and image processing apparatus
JP7760355B2 (en) Information processing device, information processing method, and program
JP4689344B2 (en) Information processing method and information processing apparatus
JP4343744B2 (en) Image processing method and image processing apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060627

R150 Certificate of patent or registration of utility model

Ref document number: 3834615

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term