JPH11102438A - 距離画像生成装置及び画像表示装置 - Google Patents
距離画像生成装置及び画像表示装置Info
- Publication number
- JPH11102438A JPH11102438A JP9261268A JP26126897A JPH11102438A JP H11102438 A JPH11102438 A JP H11102438A JP 9261268 A JP9261268 A JP 9261268A JP 26126897 A JP26126897 A JP 26126897A JP H11102438 A JPH11102438 A JP H11102438A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- information
- image
- distance information
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/503—Blending, e.g. for anti-aliasing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
に基づいて他の必要な距離情報を生成するようにし、こ
れによって、2次元画像の入力される視線とは異なる位
置からの距離情報に基づいて当該2次元画像の入力され
る視線に一致した距離情報を得ることができ、距離測定
手段の配置の自由度を増すことを目的とする。 【解決手段】観察対象BTの2次元画像を撮影する撮影
手段CRと、所定位置P1から観察対象までの距離を測
定し第1距離情報FRdAを得る距離測定手段5DR
と、所定位置と撮影手段の位置との互いの位置関係を示
す情報である位置情報LSを記憶する記憶手段MRと、
第1距離情報と前記位置情報とに基づいて撮影手段の位
置から観察対象までの距離情報である第2距離情報FR
dBを算出する演算手段PRと、を設ける。
Description
装置に関し、例えば、AR(Augmented Re
ality)において観察者の視点に対する実空間の距
離画像を生成するため、また生成された距離画像に基づ
いてARの画像を表示するために利用される。
れた情報を人間に提示することによって、人間があたか
も現実の世界であるかのような認識を与える技術が、V
R(Virtual Reality)技術として知ら
れている。VR技術によって、人間が仮想環境内に入り
込んで現実と同じような体験をすることができる。VR
はまた、Artificial Realityと呼称
されることがある。
Reality(以下「AR」という)技術と呼称さ
れる分野がある。ARでは、実空間とコンピュータのつ
くった仮想空間とが混ぜて人間に提示される。つまり、
ARでは実空間が仮想空間により増強される。
するのに対して、AR技術では、実環境に対して仮想環
境を適切に配置することにより、実環境の質を高めるこ
とを目的としている。仮想環境として画像を提示するも
のが視覚的ARである。以下における「AR」は「視覚
的AR」を指す。
スキャン画像を現実の患者の脳に重畳させながら手術を
行うシステム、現実の機械装置の各部品に対しCG(コ
ンピュータグラフィックス)によって注釈を付けて組立
て又は修理などの作業を支援するシステム、現実の部屋
に付加物を置いた場合にどのような感じに見えるかを評
価するシステム、都市の再開発で新しい建物を建てた場
合の景観を実物大で実際の場所で評価するシステムなど
が考えられる。
に人間に提示するために、通常、HMD(Head M
ounted Display)が用いられる。HMD
には、光学式によるものとビデオ信号によるものとがあ
る。
システム80の原理を示す図、図14は従来のビデオ方
式のHMDによるARシステム90の原理を示す図であ
る。図13に示すARシステム80では、観察者の眼の
前の視線上に配置されたハーフミラー81を透して実空
間画像を見ることができ、投影機82が投影する仮想空
間画像をハーフミラー81を介して見ることができる。
これによって、仮想空間画像が実空間画像とオーバーラ
ップして提示される。なお、観察者の頭部には視点を検
出するための位置・姿勢検出器83が設けられ、位置・
姿勢検出器83の出力に基づいて、ワークステーション
84から投影機82に対して仮想空間画像の信号が送出
される。
の眼と共役な位置に配置された2つのカメラ93によっ
て、両面ミラー91に写った実空間画像が撮影される。
撮影された実空間画像と仮想空間画像とがワークステー
ション95によって合成され、合成された画像が投影機
92から投影される。その結果、実空間画像と仮想空間
画像との合成画像が両面ミラー91を介して観察者に提
示される。
は、従来から指摘されている位置合わせの問題の他に、
遮蔽関係を正しく表現することが必要である。しかし、
上述したいずれのARシステム80,90においても、
観察者に近い空間又は物体によって遠い空間又は物体が
遮蔽されるという遮蔽関係を正しく表現することができ
ない。
ては、仮想空間の物体の後ろに実空間が透けていると決
まっており、観察者には仮想空間及び実空間の両方の画
像が単に重なって見える。したがって、このシステムで
は遮蔽関係を表現することは全くできない。
に関係なく仮想空間の物体が常に実空間の物体を覆い隠
すようになっており、遮蔽関係を正しく表現できない。
つまり、仮想空間の物体が実空間の物体よりも近い場合
には遮蔽関係は正しいが、その反対に実空間の物体が近
い位置にある場合であっても、実空間の物体が遠い位置
にあるはずの仮想空間の物体によって遮蔽されてしま
い、遮蔽関係が逆になってしまう。
しく表現されていない状態では、輻輳・視差情報と遮蔽
関係との矛盾のために、立体視が阻害されたり予想外の
立体視をしてしまうことが報告されている。つまり、遮
蔽関係を正しく表現することはAR技術にとって極めて
重要である。
とのできるHMDを特願平9−133159号として先
に提案した。そのHMDにおいては、仮想空間画像の画
素と同じ位置にある実空間画像の画素に対して、実空間
画像の距離と仮想空間画像の距離とを比較し、観察者に
近い方の画素を選択して表示するように構成されてい
る。
示す斜視図である。HMD70においては、観察者の視
線で観察対象までの距離を測定するために、HMD70
上における観測者の左右の各眼の近傍位置に、スリット
投影機71R,Lがそれぞれ配置されている。これら2
つのスリット投影機71R,Lから投影されたスリット
光UR,ULの各反射光は、HMD70の左右の各撮像
部72R,Lに設けられた受光部73R,Lで受光さ
れ、これによって、左右の2次元画像(実空間画像)の
各画素について正確な距離情報が得られる。得られた左
右の各距離情報に基づいて、遮蔽関係を正しく表現する
ことができる。
は、左右の各眼の近傍位置にスリット投影機71R,L
を設ける必要があるので、その配置及び取り付けの構造
が複雑となり、HMD70が全体として大型になる。
ので、スリット投影機71R,Lから投影されたスリッ
ト光UR,ULを受光するために、2次元画像を入力す
るための受光装置とは別の受光部73R,Lが必要であ
り、それらの視線を正確に一致させることが容易ではな
い。
ので、1つの距離測定手段により測定された距離情報に
基づいて他の必要な距離情報を生成するようにし、これ
によって、2次元画像の入力される視線とは異なる位置
からの距離情報に基づいて当該2次元画像の入力される
視線に一致した距離情報を得ることができ、距離測定手
段の配置の自由度を増すことのできる距離画像生成装置
を提供することを目的とする。
置に設けられた距離測定手段で測定された距離情報によ
り両眼の距離情報を得ることができ、HMDの小型化を
図ることを目的とする。
置は、観察対象BTの2次元画像FRを撮影する撮影手
段12と、所定位置P1から前記観察対象BTまでの距
離を測定し第1距離情報FRdLを得る距離測定手段と
5L(UBL,12R)、前記所定位置P1と前記撮影
手段12の位置との互いの位置関係を示す情報である位
置情報LSを記憶する記憶手段37と、前記第1距離情
報FRdLと前記位置情報LSとに基づいて前記撮影手
段12の位置から前記観察対象BTまでの距離情報であ
る第2距離情報FRdRを算出する演算手段36と、を
有して構成される。
1から観察対象BTまでの距離を測定し第1距離情報F
RdLを得る距離測定手段5L(UBL,12R)と、
前記所定位置P1と前記観察対象BTを観察する観察者
BSの眼の位置との互いの位置関係を示す情報である位
置情報LSを記憶する記憶手段37と、前記第1距離情
報FRdLと前記位置情報LSとに基づいて前記観察者
BSの眼の位置から前記観察対象BTまでの距離情報で
ある第2距離情報FRdRを算出する演算手段36と、
を有して構成される。
の一方の眼ERの近傍位置から観察対象BZまでの距離
を測定し第1距離情報FRdLを得る距離測定手段5L
(UBL,12R)と、前記観察者BSの一方の眼ER
の位置と他方の眼ELの位置との互いの位置関係を示す
情報である位置情報LSを記憶する記憶手段37と、前
記第1距離情報FRdLと前記位置情報LSとに基づい
て前記観察者BSの他方の眼ERの位置から前記観察対
象BTまでの距離情報である第2距離情報FRdRを算
出する演算手段36と、を有して構成される。
Tの第1の2次元画像FRを撮影する撮影手段12と、
所定位置P1から前記観察対象BTまでの距離を測定し
第1距離情報FRdLを得る距離測定手段5AL,5
L,UBL,12Rと、前記所定位置P1と前記撮影手
段12の位置との互いの位置関係を示す情報である位置
情報LSを記憶する記憶手段37と、前記第1距離情報
FRdLと前記位置情報LSとに基づいて前記撮影手段
12の位置から前記観察対象BTまでの距離情報である
第2距離情報FRdRを算出する演算手段36と、前記
撮影手段12の視点を検出し視点情報を得る視点検出手
段15と、前記視点情報S1と予め記憶された情報とに
基づいて、第2の2次元画像FVと前記第2の2次元画
像FVの各点に対応する第3距離情報FVdとを出力す
る出力手段31と、前記第2距離情報FRdRと前記第
3距離情報FVdとを画素毎に比較する比較手段34
と、前記比較手段34の出力に基づいて、前記第1の2
次元画像FRと前記第2の2次元画像FVのうち距離が
近い方の画素データを選択する選択手段34と、選択さ
れた画素データ群を合成画像として表示する表示手段1
3と、を有して構成される。
理を示す図である。図1において、観察対象BTの2次
元画像(実空間画像)を撮影する撮影手段CRは、例え
ば観察者BSの視線と一致するように配置されている。
距離測定手段DRは、撮影手段CRに対して既知の距離
だけ離れた位置P1に配置されている。
観察対象BTまでの距離が測定され、距離情報FRdA
が得られる。距離情報FRdAは、演算手段PRに入力
される。位置P1と位置P2との相互の位置関係は、位
置情報LSとして記憶手段MRに記憶されている。
報FRdA及び位置情報LSに基づいて、撮影手段CR
の位置P2から観察対象BTまでの距離を算出し、それ
を距離情報FRdBとして出力する。これによって、距
離測定手段DRが撮影手段CRとは離れた位置に配置さ
れているにも係わらず、撮影手段CRの位置P2から見
た距離情報FRdBが得られる。
一致する位置、その他の任意の位置に配置される。距離
測定手段DRは、観察者BSの一方の眼の近傍位置、そ
の他の任意の位置に配置される。位置情報LSは、撮影
手段CR及び距離測定手段DRのそれぞれの絶対位置の
情報、又はそれらの相対位置(位置の差)の情報などで
ある。位置情報LSは、撮影手段CR及び距離測定手段
DRが固定位置に配置されている場合には、予め決めら
れた固定情報であり、いずれか又は両方が移動する場合
には、それらの相対位置に応じた可変情報となる。
装置GAを備えた表示装置1の原理的な構成の概略を示
すブロック図、図3は表示装置1の遮蔽画素切替え部1
4の構成を示すブロック図である。なお、各図におい
て、特に右眼用と左眼用とを区別する必要のある場合
は、右眼用に「R」を、左眼用に「L」を、それぞれ符
号の末尾に付す。また、図2おいては、特に左眼用の撮
像部12L及びスリット投影部18Lが示されている。
1、撮像部12、スリット投影部18L、表示部13、
遮蔽画素切替え部14、位置検出センサ(位置・姿勢検
出センサ)15、及び仮想空間画像出力部16などから
構成されている。なお、ミラー11、撮像部12、及び
表示部13は、左右の眼EL,ERにそれぞれ対応して
設けられている。撮像部12は、左眼用の撮像部12L
と右眼用の撮像部12Rとで構成が異なる。スリット投
影部18Lは左眼用にのみ設けられており、その配置位
置は右眼ERの外側の近傍位置である。
であり、観察者BSの左右の眼EL,ERの前方におい
て、その視線方向に対してほぼ45度の角度を有するよ
うに配置されている。
L,ERと光学的に共役な位置に配置されたカラーセン
サ54を備えている。したがって、各眼EL,ERと各
撮像部12L,Rの視点とは一致する。カラーセンサ5
4は、ミラー11に写る実空間画像FRを撮影するもの
である。撮像部12のうち、左眼用の撮像部12Lは計
測用センサ53を備えている。計測用センサ53は、ス
リット投影部18Lから投影されるスリット光Uの観察
対象BTによる反射光を受光し、左眼ELから観察対象
BTを見たときの奥行き情報(距離情報)FRdLを生
成するためのものである。撮像部12Lにおいては、カ
ラーセンサ54Lと計測用センサ53との間に、可視光
と赤外光とを分離するための赤外反射ミラー52が設け
られている。詳細は後述する。
2Rの位置と撮像部12Lの位置との互いの位置関係を
示す位置情報LSが記憶されている。視点変換演算回路
36は、左眼用の距離情報FRdL及び位置情報LSに
基づいて、右眼ERから観察対象BTを見たときの奥行
き情報(距離情報)FRdRを算出する。
出力される合成画像FMを表示する。観察者BSは、ミ
ラー11を介して表示部13に表示された合成画像FM
を観察する。撮像部12と表示部13とは、観察者BS
の視線と実質的に同一視線上に配置されている。表示部
13として、液晶パネル又はCRTなど、従来から公知
の種々の表示デバイスが用いられる。各種のレンズ又は
ミラーも必要に応じて用いられる。
と仮想空間画像FVとを、上で得られた距離情報FRd
L,FRdRに基づき、観察者BSの視点からの距離
(奥行き)に応じて画素毎に切り替えて出力する。詳細
は後述する。
及び姿勢を検出するものであり、その出力信号S1に基
づいて観察者BSの視点を検出する。位置検出センサ1
5及び信号S1に基づく視点の検出方法は従来より公知
である。
サ15の出力する信号S1と予め記憶された仮想空間情
報DVとに基づいて、仮想空間画像FVとその各画素に
対応する距離情報である仮想空間距離画像FVdとを出
力する。仮想空間情報DVとして、種々の方法により撮
影した画像データ、CGにより作成した画像データ、又
はそれらの画像データを生成するためのプログラムな
ど、種々のものが用いられる。
力部16は、適当なハードウエアにより、ワークステー
ション又はパーソナルコンピュータなどの適当な処理装
置にインストールされたプログラムを実行することによ
り、又はそれらの併用により実現することができる。そ
のようなプログラムは、RAM、ROM、ハードディス
ク装置などに格納され、又はCD−ROM装置、光磁気
ディスク装置、フロッピィディスク装置などによってそ
れぞれ対応する記録媒体から読み出され、又は通信回線
を介してホストからダウンロードされる。プログラム
は、種々のOS、システム環境、又はプラットホームの
下で動作するように供給可能である。
の眼EL,ERと光学的に共役な位置にある撮像部12
からの実空間画像FRを基にして、後述する手法により
視点距離座標を計算し、視点からの距離に応じて実空間
画像FRと仮想空間画像FVとを画素毎に切り替えて合
成画像FMを生成し、これを観察者BSに提示する点が
1つの特徴である。
く表現するためにZバッファ法が用いられている。実空
間と仮想空間との間においても同様な手法で遮蔽関係を
表現するために、金出らによってZ−keyという考え
方が提案された。これはカメラ座標系におけるz座標値
によって実空間と仮想空間とを切り替えて表示する方法
である。遮蔽画素切替え部14はこのZ−keyの考え
方を利用してそれをさらに押し進めたものである。
実空間画像出力部21、比較部22、及び選択部23を
備えている。実空間画像出力部21は、色情報生成部2
11及び奥行き情報生成部212を備える。色情報生成
部211は、カラーセンサ54で撮影された実空間画像
FRに基づいて色情報FRcを生成する。奥行き情報生
成部212は、計測用センサ53から出力される距離情
報に基づいて、実空間画像FRの各画素に対応する奥行
き情報(距離情報)FRdを生成する。奥行き情報FR
dは実空間距離画像に相当するので、奥行き情報FRd
を実空間距離画像FRdと記載することがある。また、
色情報FRcは実空間画像FRと同一であることもあ
る。
16は、仮想空間情報記憶部160、色情報生成部16
1、及び奥行き情報生成部162を備える。仮想空間情
報記憶部160には仮想空間情報DVが記憶されてい
る。色情報生成部161は、信号S1及び仮想空間情報
DVに基づいて色情報FVcを生成する。奥行き情報生
成部162は、信号S1及び仮想空間情報DVに基づい
て、色情報FVcの各画素に対応する奥行き情報(距離
情報)FVdを生成する。奥行き情報FVdは仮想空間
距離画像に相当するので、奥行き情報FVdを仮想空間
距離画像FVdと記載することがある。また、色情報F
Vcは仮想空間画像FVと同一であることもある。
想空間距離画像FVdとを画素毎に比較し、比較結果を
示す信号S2を出力する。選択部23は、比較部22か
らの信号S2に基づいて、実空間画像FRと仮想空間画
像FVとのうち視点に近い方の画素の画像データを選択
する。したがって、選択部23からは、実空間画像FR
と仮想空間画像FVとのうち視点に近い方の画素の画像
データの集合である合成画像FMが出力される。
画素切替え部14を用いることにより、実空間と仮想空
間との融合の際に実空間の立体構造を推定する必要がな
くなる。すなわち、実空間及び仮想空間の各画像FR,
FVを各画素の色情報FRc,FVcと奥行き情報FR
d,FVdで表現することにより、上述のような単純な
回路を用いて電気信号レベルで両者を正しく融合できる
ようになる。ARのようなリアルタイム処理が求められ
るアプリケーションにとって、こうした特徴は非常に役
立つものである。
は、リアルタイムで視点座標系からの距離画像を計測す
る必要がある。次に、本実施形態における距離画像の計
測手法及び算出手法を含めて表示装置1の細部の具体的
な例について説明する。
ッド・マウント・ディスプレイ)3の外観を示す斜視図
である。HMD3は、観察者BSの左眼ELに虚像を表
示するとともに外界の風景の像及び距離情報を取り込む
ための左眼用の表示・撮像ユニットUAL、観察者BS
の右眼ERに虚像を表示するとともに外界の風景の像を
取り込むための右眼用の表示・撮像ユニットUAR、及
び左眼用の距離を計測するためのスリット光Uを投影す
る左眼用のスリット投影機UBLから構成される。な
お、スリット投影機UBLから投影されるスリット光U
は赤外光である。
測のための基線長が長くなるように、右眼用の表示・撮
像ユニットUARの右側の端面に配置されている。な
お、上に述べた位置検出センサ15はHMD3上に設け
られている。
の光学系の構成を示す図、図6は右眼用の表示・撮像ユ
ニットUARの光学系の構成を示す図、図7は撮像系及
び表示系の画角を説明する図である。図5及び図6にお
いて、図2に示す要素と同一の機能を有する要素には同
一の符号を付してある。
トUALは、撮像部12L及び表示部13Lを備える。
撮像部12Lは、撮影レンズ(撮影レンズ系)51L、
赤外反射ミラー52、計測用センサ53、及びカラーセ
ンサ54Lを備える。外界の風景の像は、ミラー11L
で反射した後、撮影レンズ51Lにより集光され、赤外
反射ミラー52を透過してカラーセンサ54L上に結像
する。スリット投影機UBLによって作られたスリット
像は、ミラー11Lで反射した後、撮影レンズ51Lに
より集光され、赤外反射ミラー52で反射して計測用セ
ンサ53上に結像する。計測用センサ53からは距離情
報FRdLが出力され、この距離情報FRdLに基づい
て後述する3角測距演算が行われる。
表示デバイス132Lを備える。観察者BSは、左眼E
Lで、表示デバイス132Lに表示された映像を、接眼
光学系131L及びミラー11Lを介して、1mから無
限遠の距離に拡大された虚像として観察する。
撮影レンズ51Lの主点を通る軸を撮像系の光軸と定
め、カラーセンサ54Lの中心点に対応する表示デバイ
ス132L上の点及び接眼光学系131Lの主点を通る
軸を表示系の光軸と定める。
軸と一致するように、しかも表示系の光軸が撮像系の光
軸とほぼ一直線状になるように構成される。また、観察
者BSの瞳の位置は表示系の光軸上に位置するように構
成される。そして、計測用センサ53の中心点及び撮影
レンズ51Lの主点を通る光軸についても、撮像系の光
軸とほぼ一致するように構成され、これによって、カラ
ーセンサ54Lから得られる実空間画像FRと計測用セ
ンサ53から得られる実空間距離画像FRdLとの対応
が取り易くなっている。
観察者BSが観察する画角(視野角)θoと、撮像部1
2Lにより撮影される画角θcとが実質的に一致するよ
うに構成されている。
51Lの主点Oからカラーセンサ54Lの中心点Cまで
の距離をSとし、カラーセンサ54Lの撮像面のサイズ
をLとする。また、表示デバイス132Lの表示面のサ
イズをmとし、接眼光学系131Lの焦点距離をfと
し、図7に示すように表示デバイス132Lの側でテレ
セントリックになるように観察者BSの左眼ELを接眼
光学系131Lの焦点位置においたとする。このとき、
次の式、 L/S=m/f を満たすように配置すると、視野各θoと画角θcとは
ほぼ一致する。撮像部12L及び表示部13Lはこのよ
うに配置されており、観察者BSは違和感を感じること
なく実世界を観察することが可能となっている。
ニットUARには、左眼用の表示・撮像ユニットUAL
における赤外反射ミラー52及び計測用センサ53が設
けられていないが、それ以外の構成は、左眼用の表示・
撮像ユニットUALの構成と同様である。
5Lの機能構成を示すブロック図である。図中の実線矢
印は電気信号の流れを示し、破線矢印は光の流れを示し
ている。
ト投影機UBLを含んで構成される。スリット投影機U
BLに設けられた投光側の光学系において、半導体レー
ザなどからなるスリット光発生器41が射出する赤外領
域のレーザビームは、投光レンズ系42を通過すること
によってスリット光Uとなり、走査手段(ガルバノミラ
ー)43によって偏向される。スリット光発生器41の
ドライバ44、及び投光レンズ系42と走査手段43の
図示しない駆動系は、システムコントローラ61によっ
て制御される。
て、ズームユニットなどの撮影レンズ51によって集光
された光は赤外反射ミラー(又はビームスプリッタ)5
2によって分光される。スリット光発生器41から射出
される赤外領域の光は、計測用センサ53に入射する。
可視帯域の光は、モニタ用のカラーセンサ54に入射す
る。計測用センサ53及びカラーセンサ54は、どちら
もCCDエリアセンサである。
イバ55からのクロックに同期してメモリに格納され、
距離演算回路73に出力される。カラーセンサ54によ
る撮像情報は、ドライバ56からのクロックに同期して
カラー処理回路へ出力された後、ディジタル画像生成部
68で量子化されてカラー画像用メモリ69Lに格納さ
れる。距離演算回路73は、計測用センサ53から出力
される撮像情報に基づいて距離情報FRdLを算出し、
距離情報FRdLは距離データ用メモリ64Lに格納さ
れる。
ロック図である。表示装置1は、測距部5AL、撮像部
12L,R、位置検出センサ15、カラー画像用メモリ
69L,R、距離データ用メモリ64L,R、視点差デ
ータ用メモリ37、視点変換演算回路36、画像比較・
統合回路34L,R、仮想物体演算回路31、仮想距離
データ用メモリ32L,R、仮想カラー画像用メモリ3
3L,R、画像用メモリ35L,R、及び表示部13
L,Rなどを有している。測距部5ALと撮像部12L
によって上述の測距装置5Lが構成されている。
おりであり、これによって左眼用の色情報FRcLとそ
の画素毎の距離情報FRdLとが同時に得られる。撮像
部12Rによって、右眼用の色情報FRcRが得られ
る。視点差データ用メモリ37、視点変換演算回路3
6、及び表示部13L,Rなどについては、図2で説明
したとおりである。
15から出力される信号S1、及び計測用センサ53と
の間における既知の位置関係に基づいて、仮想物体の距
離情報FVdR,L、及び色情報FVcR,Lを生成す
る。生成された距離情報FVdR,L及び色情報FVc
R,Lは、仮想距離データ用メモリ32R,L、及び仮
想カラー画像用メモリ33R,Lに格納される。
について、測定されたの距離情報FRdR,Lと仮想物
体の距離情報FVdR,Lとを比較し、近い方の色情報
(カラー画像)をその画素の統合色情報(合成画像F
M)とする。統合色情報は画像用メモリ35R,Lに格
納された後、表示部13R,Lにより表示される。
離データ用メモリ32R,L、及び仮想カラー画像用メ
モリ33R,Lは、図3に示す仮想空間画像出力部16
に相当する。また、画像比較・統合回路34R,Lは、
比較部22及び選択部23に相当する。
算処理について説明する。図10はHMD3と観察対象
BTとの位置関係を示す図である。図10及び他の図を
参照して、左眼用の測距装置5Lにより計測された距離
情報FRdLを右眼ERから見た距離情報FRdRに変
換し、右眼用の撮像部12Rから見た距離画像を得る過
程を説明する。
BTを観察している。表示・撮像ユニットUAL,UA
Rにおける各撮像部12L,Rの座標係を、それぞれ左
眼ELの撮像部座標系LC、右眼ERの撮像部座標系R
Cとする。各撮像部座標系LC,RCにおいて、それぞ
れ左眼用及び右眼用の画像平面KL,KRが定義され
る。
12Lの位置からX軸方向に距離hだけ平行移動した位
置に配置されているものとする。なお、この情報は位置
情報LSとして視点差データ用メモリ37に記憶されて
いる。
2は、各表示・撮像ユニットUAL,UARのそれぞれ
における光学系の光軸と、各撮像部座標系LC,RCの
xy座標平面との交点とする。
Rの投影中心S2は、それぞれの撮像部座標系LC,R
Cにおいて(0,0,S)の位置にあるものとする。左
眼用の画像平面KL上の点Ai,j (Xi,j , yi,j , 0) に
対応する観察対象BT上の点Pの座標は、点Ai,j の距
離をdi,j とすると、三角形の相似則から、P(Xi,j *
di,j/S , yi,j * di,j/S,di,j) となる。但し「*」は
積演算を示す。
像平面KR上の点Bi,j の座標は、三角形の相似則か
ら、Bi,j (Xi,j - h*S/di,j , yi,j , 0)となる。左眼
用の画像平面KL上の隣り合った3つの点Ai,j , Ai,
j+1 , Ai+1,j が、右眼用の画像平面KR上においてそ
れぞれ点Bi,j , Bi,j+1 , Bi+1,j に対応するとする
と、それぞれの点での距離データは、di,j , di,j+1 ,
di+1,jとなる。そして、3つの点Bi,j , Bi,j+1 , B
i+1,j で囲まれた三角形内の右眼用の画像平面KR上の
画素Cm,n(pm,n , qm,n , 0) の値Zn,m は、次の式で
示される。
投影した点Bは、右眼用の撮像部座標系RCを左眼用の
撮像部座標系LCに一致させるために必要な平行移動と
回転移動の行列をそれぞれT,Rとし、3次元空間上の
座標値を撮像部座標に変換する透視変換行列をSとする
と、 B=STRP として求めることができる。
FRcに対応する距離情報FRdのうち、実際に測定す
るのは左眼用の距離情報FRdLのみであり、右眼用の
距離情報FRdRは左眼用の距離情報FRdLに基づい
て視点変換演算回路36により演算で求められる。した
がって、左眼用のスリット投影機UBLのみをHMD3
に設ければよく、HMD3の小型化を図ることができ
る。また、右眼用の撮像部12Rには計測用センサが不
要であり、且つ測距部5ALも不要であるので、その構
造及び回路が簡素化される。また、スリット投影機UB
L及び測距部5ALが左眼用に1つのみであるので、そ
の調整作業が容易である。
いて、それとは位置の異なる点の距離情報FRdRが座
標変換によって求められる。つまり、実空間画像(2次
元画像)の視線と異なる位置からの距離情報に基づいて
実空間画像の視線に一致した距離情報を得ることができ
る。したがって、スリット投影機UBL又は測距部5A
Lは、その位置情報が得られる限りにおいてその配置位
置を自由に設定することができ、配置の自由度を増すこ
とができる。
レベルでの実空間画像FRと仮想空間画像FVとの融合
が可能である。実空間画像FR(2次元画像)の各画素
について正確な距離情報FRdを得ることができ、遮蔽
関係を正しく表現することができる。また、実空間画像
FR及び距離情報FRdの測定の視点及び視野を観察者
の視点及び視野と一致させているので、実空間画像FR
と距離情報(実空間距離画像)FRdとがよく一致し、
しかも観察者BSが違和感を感じることなく合成画像で
あるAR画像を観察することができる。
て実空間距離画像FRd及び仮想空間距離画像FVdを
得るので、実空間距離画像FRdと仮想空間距離画像F
Vdとの位置合わせが不要である。
明する。図11は他の実施形態の表示装置2に用いられ
るHMD4の外観を示す斜視図である。
の表示・撮像ユニットUAL1、右眼用の表示・撮像ユ
ニットUAR1、左眼用のスリット投影機UBL1、及
び左眼用のスリット受光機UCL1から構成される。
右眼用の表示・撮像ユニットUAR1の光学系の構成
は、ともに上述のHMD3における右眼用の表示・撮像
ユニットUARの光学系の構成と同様である。また、左
眼用のスリット投影機UBL1の構成は、上述のHMD
3における左眼用のスリット投影機UBLと同様であ
る。
リット光Uは、左眼用の表示・撮像ユニットUAL1の
左側の端面に設けられた左眼用のスリット受光機UCL
1によって受光される。
ブロック図である。表示装置2は、表示装置1の場合と
同様に、左眼用の測距部5AL、撮像部12L,R、位
置検出センサ15、視点差データ用メモリ37、カラー
画像用メモリ69L,R、距離データ用メモリ64L,
R、視点変換演算回路36R、画像比較・統合回路34
L,R、画像用メモリ35L,R、仮想物体演算回路3
1、仮想距離データ用メモリ32L,R、仮想カラー画
像用メモリ33L,R、表示部13L,Rなどを有する
ほか、距離データ用メモリ64Lと画像比較・統合回路
34Lとの間に視点変換演算回路36Lが設けられてい
る。
用の撮像部12Lの配置位置と左眼用のスリット受光機
UCL1の配置位置との互いの位置関係を示す位置情報
LS2に基づいて、それらの位置の相違を補正した距離
情報FRdLを算出する。
メモリ37に合わせて記憶された左眼用のスリット受光
機UCL1の配置位置と右眼用の撮像部12Rの配置位
置との位置関係に基づき、距離データ用メモリ64Lに
記憶された距離データからFRdRを算出する。
BLとスリット受光機UCL1との間隔を広くとること
ができるので、距離の計測のための基線長をHMD3の
場合よりも更に長くすることができる。
4が本発明の撮影手段に、スリット投影部18、スリッ
ト投影機UBL,UBL1、及び計測用センサ53を含
む測距装置5Lが本発明の距離測定手段に、視点差デー
タ用メモリ37が本発明の記憶手段に、視点変換演算回
路36が本発明の演算手段に、それぞれ対応する。
撮像部12、HMD3,4、又は表示装置1,2の各部
又は全体の構成、形状、配置、処理内容、処理順序、処
理タイミングなどは、本発明の主旨に沿って適宜変更す
ることができる。
より測定された距離情報に基づいて他の必要な距離情報
を生成することができ、これによって、2次元画像の入
力される視線とは異なる位置からの距離情報に基づいて
当該2次元画像の入力される視線に一致した距離情報を
得ることができ、距離測定手段の配置の自由度を増すこ
とができる。
近傍位置に設けられた距離測定手段で測定された距離情
報により両眼の距離情報を得ることができ、HMDの小
型化を図ることができる。
像の各画素について正確な距離情報を得ることができ、
遮蔽関係を正しく表現することができる。
である。
置の原理的な構成の概略を示すブロック図である。
ック図である。
図である。
示す図である。
示す図である。
る。
る。
の外観を示す斜視図である。
すブロック図である。
原理を示す図である。
ムの原理を示す図である。
外観を示す斜視図である。
Claims (4)
- 【請求項1】観察対象の2次元画像を撮影する撮影手段
と、 所定位置から前記観察対象までの距離を測定し第1距離
情報を得る距離測定手段と、 前記所定位置と前記撮影手段の位置との互いの位置関係
を示す情報である位置情報を記憶する記憶手段と、 前記第1距離情報と前記位置情報とに基づいて前記撮影
手段の位置から前記観察対象までの距離情報である第2
距離情報を算出する演算手段と、 を有してなることを特徴とする距離画像生成装置。 - 【請求項2】所定位置から観察対象までの距離を測定し
第1距離情報を得る距離測定手段と、 前記所定位置と前記観察対象を観察する観察者の眼の位
置との互いの位置関係を示す情報である位置情報を記憶
する記憶手段と、 前記第1距離情報と前記位置情報とに基づいて前記観察
者の眼の位置から前記観察対象までの距離情報である第
2距離情報を算出する演算手段と、 を有してなることを特徴とする距離画像生成装置。 - 【請求項3】観察者の一方の眼の近傍位置から観察対象
までの距離を測定し第1距離情報を得る距離測定手段
と、 前記観察者の一方の眼の位置と他方の眼の位置との互い
の位置関係を示す情報である位置情報を記憶する記憶手
段と、 前記第1距離情報と前記位置情報とに基づいて前記観察
者の他方の眼の位置から前記観察対象までの距離情報で
ある第2距離情報を算出する演算手段と、 を有してなることを特徴とする距離画像生成装置。 - 【請求項4】観察対象の第1の2次元画像を撮影する撮
影手段と、 所定位置から前記観察対象までの距離を測定し第1距離
情報を得る距離測定手段と、 前記所定位置と前記撮影手段の位置との互いの位置関係
を示す情報である位置情報を記憶する記憶手段と、 前記第1距離情報と前記位置情報とに基づいて前記撮影
手段の位置から前記観察対象までの距離情報である第2
距離情報を算出する演算手段と、 前記撮影手段の視点を検出し視点情報を得る視点検出手
段と、 前記視点情報と予め記憶された情報とに基づいて、第2
の2次元画像と前記第2の2次元画像の各点に対応する
第3距離情報とを出力する出力手段と、 前記第2距離情報と前記第3距離情報とを画素毎に比較
する比較手段と、 前記比較手段の出力に基づいて、前記第1の2次元画像
と前記第2の2次元画像のうち距離が近い方の画素デー
タを選択する選択手段と、 選択された画素データ群を合成画像として表示する表示
手段と、 を有することを特徴とする画像表示装置。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP9261268A JPH11102438A (ja) | 1997-09-26 | 1997-09-26 | 距離画像生成装置及び画像表示装置 |
| US09/158,885 US6389153B1 (en) | 1997-09-26 | 1998-09-23 | Distance information generator and display device using generated distance information |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP9261268A JPH11102438A (ja) | 1997-09-26 | 1997-09-26 | 距離画像生成装置及び画像表示装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH11102438A true JPH11102438A (ja) | 1999-04-13 |
Family
ID=17359474
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP9261268A Pending JPH11102438A (ja) | 1997-09-26 | 1997-09-26 | 距離画像生成装置及び画像表示装置 |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US6389153B1 (ja) |
| JP (1) | JPH11102438A (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011232330A (ja) * | 2010-04-08 | 2011-11-17 | Casio Comput Co Ltd | 撮像装置、長さ測定方法、及びプログラム |
| WO2019114650A1 (zh) * | 2017-12-15 | 2019-06-20 | 京东方科技集团股份有限公司 | 可穿戴设备的测试方法及系统 |
Families Citing this family (31)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002538542A (ja) * | 1999-03-02 | 2002-11-12 | シーメンス アクチエンゲゼルシヤフト | ユーザと工業設備との対話を状況に応じて支援するための強調現実感システム |
| US20020015003A1 (en) * | 2000-08-07 | 2002-02-07 | Masami Kato | Virtual space system structured by plural user terminals and server device |
| DE10046309C1 (de) * | 2000-09-19 | 2001-10-31 | Siemens Ag | Sensoranordnung zur Bilderkennung |
| JP2002359885A (ja) * | 2001-06-01 | 2002-12-13 | Seiko Epson Corp | 動作制御システム、出力サービス提供システム、携帯物管理端末、携帯端末、携帯物管理端末用プログラム及び携帯端末用プログラム |
| JP4613449B2 (ja) * | 2001-06-01 | 2011-01-19 | セイコーエプソン株式会社 | 出力サービス提供システム、仮想オブジェクト管理端末、移動体、仮想オブジェクト管理端末用プログラム及び移動体用プログラム、並びに出力サービス提供方法 |
| US20070135943A1 (en) * | 2002-09-18 | 2007-06-14 | Seiko Epson Corporation | Output service providing system that updates information based on positional information, terminal and method of providing output service |
| US7684643B2 (en) * | 2004-10-26 | 2010-03-23 | Siemens Medical Solutions Usa, Inc. | Mutual information regularized Bayesian framework for multiple image restoration |
| US20070201859A1 (en) * | 2006-02-24 | 2007-08-30 | Logitech Europe S.A. | Method and system for use of 3D sensors in an image capture device |
| JP4847192B2 (ja) * | 2006-04-14 | 2011-12-28 | キヤノン株式会社 | 画像処理システム、画像処理装置、撮像装置、及びそれらの制御方法 |
| JP4310330B2 (ja) * | 2006-09-26 | 2009-08-05 | キヤノン株式会社 | 表示制御装置及び表示制御方法 |
| KR101420684B1 (ko) * | 2008-02-13 | 2014-07-21 | 삼성전자주식회사 | 컬러 영상과 깊이 영상을 매칭하는 방법 및 장치 |
| US8405727B2 (en) * | 2008-05-01 | 2013-03-26 | Apple Inc. | Apparatus and method for calibrating image capture devices |
| US8538084B2 (en) * | 2008-09-08 | 2013-09-17 | Apple Inc. | Method and apparatus for depth sensing keystoning |
| US7881603B2 (en) * | 2008-09-26 | 2011-02-01 | Apple Inc. | Dichroic aperture for electronic imaging device |
| US8527908B2 (en) | 2008-09-26 | 2013-09-03 | Apple Inc. | Computer user interface system and methods |
| US8610726B2 (en) * | 2008-09-26 | 2013-12-17 | Apple Inc. | Computer systems and methods with projected display |
| US20100079426A1 (en) * | 2008-09-26 | 2010-04-01 | Apple Inc. | Spatial ambient light profiling |
| US20100079653A1 (en) * | 2008-09-26 | 2010-04-01 | Apple Inc. | Portable computing system with a secondary image output |
| US8619128B2 (en) | 2009-09-30 | 2013-12-31 | Apple Inc. | Systems and methods for an imaging system using multiple image sensors |
| US8502926B2 (en) * | 2009-09-30 | 2013-08-06 | Apple Inc. | Display system having coherent and incoherent light sources |
| US8687070B2 (en) * | 2009-12-22 | 2014-04-01 | Apple Inc. | Image capture device having tilt and/or perspective correction |
| US8497897B2 (en) | 2010-08-17 | 2013-07-30 | Apple Inc. | Image capture using luminance and chrominance sensors |
| US9710554B2 (en) | 2010-09-23 | 2017-07-18 | Nokia Technologies Oy | Methods, apparatuses and computer program products for grouping content in augmented reality |
| US8538132B2 (en) | 2010-09-24 | 2013-09-17 | Apple Inc. | Component concentricity |
| FR2969792B1 (fr) * | 2010-12-23 | 2012-12-28 | Thales Sa | Procede de suppression d'un masque de cockpit et systeme de visualisation de casque associe |
| FR2969791B1 (fr) * | 2010-12-23 | 2012-12-28 | Thales Sa | Procede de correction de l'hyperstereoscopie et systeme de visualisation de casque associe |
| KR101829459B1 (ko) * | 2011-07-14 | 2018-02-14 | 엘지디스플레이 주식회사 | 영상처리방법과 이를 이용한 입체영상 표시장치 |
| JP5987387B2 (ja) * | 2012-03-22 | 2016-09-07 | ソニー株式会社 | ヘッドマウントディスプレイ及び手術システム |
| WO2014084181A1 (ja) * | 2012-11-30 | 2014-06-05 | シャープ株式会社 | 画像計測装置 |
| US9356061B2 (en) | 2013-08-05 | 2016-05-31 | Apple Inc. | Image sensor with buried light shield and vertical gate |
| IL236420A (en) | 2014-12-23 | 2016-06-30 | Ron Schneider | Methods and systems for producing an enlarged 3D image |
Family Cites Families (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| BR7608673A (pt) * | 1975-12-26 | 1978-01-03 | Seiko Instr & Electronics | Processo para medicao optica de uma distancia |
| US4556986A (en) * | 1983-03-09 | 1985-12-03 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Optical stereo video signal processor |
| JP3110095B2 (ja) * | 1991-09-20 | 2000-11-20 | 富士通株式会社 | 測距方法及び測距装置 |
| US5486841A (en) * | 1992-06-17 | 1996-01-23 | Sony Corporation | Glasses type display apparatus |
| JP2883265B2 (ja) * | 1993-09-24 | 1999-04-19 | キヤノン株式会社 | 画像処理装置 |
| US5999840A (en) * | 1994-09-01 | 1999-12-07 | Massachusetts Institute Of Technology | System and method of registration of three-dimensional data sets |
| US5975015A (en) * | 1998-06-23 | 1999-11-02 | North States Industries, Inc. | Feeding apparatus having telescoping members |
-
1997
- 1997-09-26 JP JP9261268A patent/JPH11102438A/ja active Pending
-
1998
- 1998-09-23 US US09/158,885 patent/US6389153B1/en not_active Expired - Lifetime
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011232330A (ja) * | 2010-04-08 | 2011-11-17 | Casio Comput Co Ltd | 撮像装置、長さ測定方法、及びプログラム |
| WO2019114650A1 (zh) * | 2017-12-15 | 2019-06-20 | 京东方科技集团股份有限公司 | 可穿戴设备的测试方法及系统 |
Also Published As
| Publication number | Publication date |
|---|---|
| US6389153B1 (en) | 2002-05-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JPH11102438A (ja) | 距離画像生成装置及び画像表示装置 | |
| JPH10327433A (ja) | 合成画像の表示装置 | |
| JP3338618B2 (ja) | 実空間画像と仮想空間画像の表示方法及び表示装置 | |
| JP3728160B2 (ja) | 奥行き画像計測装置及び方法、並びに複合現実感提示システム | |
| JP7076447B2 (ja) | ヘッドマウントディスプレイのための光照射野キャプチャおよびレンダリング | |
| JP2883265B2 (ja) | 画像処理装置 | |
| JP3802630B2 (ja) | 立体画像生成装置および立体画像生成方法 | |
| Takagi et al. | Development of a stereo video see-through HMD for AR systems | |
| JP2001211403A (ja) | 頭部装着型表示装置及び頭部装着型表示システム | |
| US20100238270A1 (en) | Endoscopic apparatus and method for producing via a holographic optical element an autostereoscopic 3-d image | |
| JP2017204674A (ja) | 撮像装置、ヘッドマウントディスプレイ、情報処理システム、および情報処理方法 | |
| CN110914786A (zh) | 用于在外部场景与虚拟图像之间配准的方法和系统 | |
| JP2000354257A (ja) | 画像処理装置、画像処理方法、およびプログラム提供媒体 | |
| CN112929639B (zh) | 人眼追踪装置、方法及3d显示设备、方法和终端 | |
| TWI788739B (zh) | 3d顯示設備、3d圖像顯示方法 | |
| JP3372926B2 (ja) | ヘッドマウントディスプレイ装置およびヘッドマウントディスプレイシステム | |
| CN118112802A (zh) | 图像显示控制方法及头戴式显示设备 | |
| JP3450792B2 (ja) | 奥行き画像計測装置及び方法、並びに複合現実感提示システム | |
| JP3452244B2 (ja) | 3次元表示方法及び装置 | |
| JPH07129792A (ja) | 画像処理方法および画像処理装置 | |
| JP2849313B2 (ja) | 画像記録再生装置 | |
| Allison | Analysis of the influence of vertical disparities arising in toed-in stereoscopic cameras | |
| JP2021152564A (ja) | 虚像表示装置及び光学ユニット | |
| JPH05205030A (ja) | 撮影人物の視線一致表示装置 | |
| JP3425402B2 (ja) | 立体画像を表示する装置および方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050225 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050308 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050428 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050506 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20050506 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050830 |