JP2009015648A - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP2009015648A JP2009015648A JP2007177554A JP2007177554A JP2009015648A JP 2009015648 A JP2009015648 A JP 2009015648A JP 2007177554 A JP2007177554 A JP 2007177554A JP 2007177554 A JP2007177554 A JP 2007177554A JP 2009015648 A JP2009015648 A JP 2009015648A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- acquired
- orientation information
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】 現実空間画像上に仮想空間画像を重畳させる場合に、現実空間画像中の被写体領域を除いた他の領域に対してのみ仮想空間画像を重畳させる処理を、より簡便に行うための技術を提供すること。
【解決手段】 撮像装置303の撮像位置姿勢情報に最も近い撮像位置姿勢情報に対応する色情報を取得する。そしてこの取得した色情報を用いて、撮像画像中の手の領域を特定する。そして、この特定した領域上には仮想空間画像が重畳されないように、撮像画像上に仮想空間画像を重畳させる。
【選択図】 図1PROBLEM TO BE SOLVED: To more easily perform a process of superimposing a virtual space image only on other regions except a subject region in the real space image when the virtual space image is superimposed on the real space image. To provide.
Color information corresponding to imaging position and orientation information closest to imaging position and orientation information of an imaging apparatus 303 is acquired. And the area | region of the hand in a captured image is specified using this acquired color information. Then, the virtual space image is superimposed on the captured image so that the virtual space image is not superimposed on the specified region.
[Selection] Figure 1
Description
本発明は、複合現実感を提供するための技術に関するものである。 The present invention relates to a technique for providing mixed reality.
近年、現実世界と仮想世界とを違和感なく自然に結合する複合現実感(MR:Mixed Reality)の技術を応用した装置(複合現実感装置)が盛んに提案されている。これらの複合現実感装置は、次のようにして複合現実感を、本装置の使用者に提示している。即ち、カメラなどの撮像装置によって撮影した現実世界の画像に対し、コンピュータグラフィックス(CG:Computer Graphics)で描画した仮想世界の画像を合成する。そして係る合成による合成画像を、ヘッドマウントディスプレイ(HMD:Head-Mounted Display)等の表示装置に表示する。 2. Description of the Related Art In recent years, devices (mixed reality devices) that apply a mixed reality (MR) technology that naturally couples the real world and the virtual world naturally are not proposed. These mixed reality devices present mixed reality to the user of the device as follows. That is, a virtual world image drawn by computer graphics (CG) is synthesized with a real world image taken by an imaging device such as a camera. Then, the synthesized image by the synthesis is displayed on a display device such as a head-mounted display (HMD).
これらの複合現実感装置は、複合現実感を高めるために、本装置の使用者の視点位置・姿勢をリアルタイムで取得し、現実世界の画像の変化に追従させて仮想世界の画像を生成し、使用者に対してHMDのような表示装置にリアルタイムに表示する必要がある。複合現実感装置では、センサ装置によって計測した使用者の視点位置・姿勢を仮想世界での仮想の視点位置・姿勢として設定し、この設定に基づいて仮想世界の画像をCGにより描画し、現実世界の画像と合成する。 In order to enhance the mixed reality, these mixed reality devices acquire the viewpoint position and orientation of the user of this device in real time, follow the change of the real world image, generate the virtual world image, It is necessary to display in real time on a display device such as an HMD for the user. In the mixed reality device, the viewpoint position / orientation of the user measured by the sensor device is set as a virtual viewpoint position / orientation in the virtual world, and based on this setting, an image of the virtual world is drawn by CG, and the real world Composite with the image.
また、HMDは、複合現実感の提示のため、複合現実感装置の使用者の視野には、HMDによる表示があり、且つ係る表示内にはCGを描画する領域が含まれている。 In addition, since the HMD presents mixed reality, the visual field of the user of the mixed reality device includes display by the HMD, and the display includes a region for drawing CG.
これらの技術により、複合現実感装置の使用者は、あたかも現実世界の中に仮想の物体が存在しているかのような画像を観察することができる。しかし、現実世界の画像と仮想世界の画像とを合成する際には、仮想世界の画像により自分の手が隠されてしまうこともあり、複合現実感のリアリティを損なわせることになる。 With these technologies, the user of the mixed reality apparatus can observe an image as if a virtual object exists in the real world. However, when a real world image and a virtual world image are synthesized, one's hand may be hidden by the virtual world image, which impairs the reality of mixed reality.
このような複合現実感のリアリティを少ない処理負荷で向上させる方法が、特許文献1に開示されている。係る特許文献1に開示されている技術では、現実空間の画像のうち、使用者の手に対しては仮想世界の画像を重畳せず、よりリアリティの高い複合現実感を体験させている(ハンドオーバーレイ機能)。 A method for improving the reality of such mixed reality with a small processing load is disclosed in Patent Document 1. In the technology disclosed in Patent Document 1, the virtual world image is not superimposed on the user's hand among the images in the real space, and a more realistic mixed reality experience is experienced (hand). Overlay function).
しかし、従来の技術では、特定の色情報などの単一のパラメータを用いて使用者の手の画像を判定していたため、使用者の視点位置、姿勢の変化や、使用者の位置する空間内の照明条件の変化に対しては、十分な効果が得られないことが多かった。具体的には、使用者の手以外の画像に手の色に近い画像がある場合、その画像の部分には仮想世界の画像を重畳しないので、使用者の手以外の実写画像中の物体が不自然に見えてしまうという問題が頻発していた。また逆に、使用者の手は、その位置姿勢によっては照明などの変化により別の色となり、使用者の手を認識できないため、使用者の手に仮想世界の画像が重畳されてしまうことから、使用者の手が見えなくなるといった問題が頻発していた。 However, in the conventional technology, since the image of the user's hand is determined using a single parameter such as specific color information, the user's viewpoint position and posture change, and the space in which the user is located In many cases, sufficient effects could not be obtained with respect to changes in lighting conditions. Specifically, when there is an image close to the color of the hand in an image other than the user's hand, the image in the virtual world is not superimposed on the portion of the image. The problem of appearing unnatural occurred frequently. Conversely, depending on the position and orientation of the user's hand, the color of the virtual world is superimposed on the user's hand because the user's hand cannot be recognized due to a different color due to changes in lighting or the like. The problem that the user's hand disappeared frequently occurred.
現実世界の照明条件をシミュレートし、仮想世界のCGの照明条件をこのシミュレート結果に近似させる技術もある。しかし、シミュレートの結果が算出されるまでの処理時間は非常に大きく、リアルタイムに複合現実感を体験させることを目的とする複合現実感提示装置での利用は困難である。将来的に、ハードウェアの能力が向上した場合であっても、複合現実感提示装置自体の処理負荷を圧迫するため、実用的ではない。
上記のように、従来技術には、例えば、現実世界の画像における被写体領域を除いた領域にのみCGを重畳した合成画像を生成する場合に、以下のような問題がある。 As described above, the prior art has the following problems when, for example, a composite image in which CG is superimposed only on a region excluding a subject region in a real-world image is generated.
先ず、撮像装置の位置、姿勢によらず、単一のパラメータ情報を用いると、照明条件が変化するような撮像装置の位置、姿勢においては、現実世界の画像から適切に被写体領域を抽出することは困難となる。その結果、被写体領域がCGに隠されたり、被写体領域以外の領域にCGが重畳されない、という問題が生じる。これにより、的確な合成画像を出力することは困難となる。 First, using a single piece of parameter information regardless of the position and orientation of the imaging device, the subject region is appropriately extracted from the real-world image at the position and orientation of the imaging device where the illumination conditions change. Will be difficult. As a result, there arises a problem that the subject area is hidden by the CG, or the CG is not superimposed on an area other than the subject area. This makes it difficult to output an accurate composite image.
また、実用性のある、複数のパラメータ情報を生成すること自体が難しい。更に、生成したパラメータ情報を適切に使い分けて、被写体領域を的確に除いてCG画像を重畳した合成画像を表示することは困難であった。 Also, it is difficult to generate a plurality of parameter information that is practical. Furthermore, it is difficult to display the composite image in which the generated CG image is superimposed by properly using the generated parameter information and accurately removing the subject area.
また、照明条件をシミュレートするような処理は処理負荷が高く、複合現実感提示装置の使用者にリアルタイムにCG画像を適切に重畳した合成画像を提供することは困難であった。 In addition, processing that simulates lighting conditions has a high processing load, and it has been difficult to provide a composite image in which a CG image is appropriately superimposed in real time to the user of the mixed reality presentation apparatus.
本発明は以上の問題に鑑みてなされたものであり、現実空間画像上に仮想空間画像を重畳させる場合に、現実空間画像中の被写体領域を除いた他の領域に対してのみ仮想空間画像を重畳させる処理を、より簡便に行うための技術を提供することを目的とする。 The present invention has been made in view of the above problems, and when a virtual space image is superimposed on a real space image, the virtual space image is only applied to other regions other than the subject region in the real space image. An object is to provide a technique for performing the process of superimposing more simply.
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。 In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.
即ち、被写体の撮像を撮像位置姿勢を異ならせて複数回を行うことで得られる複数枚の画像のそれぞれについて、画像内における前記被写体の領域内の色情報と、当該画像の撮像位置姿勢情報と、をセットにして記憶保持する記憶保持手段と、
前記被写体を含む現実空間を撮像する撮像装置の撮像位置姿勢情報を取得する第1の取得手段と、
前記撮像装置が撮像した撮像画像を取得する第2の取得手段と、
前記第1の取得手段が取得した撮像位置姿勢情報に最も近い撮像位置姿勢情報を含むセットを前記記憶保持手段から取得する第3の取得手段と、
前記第3の取得手段が取得したセット中の色情報を用いて、前記第2の取得手段が取得した撮像画像中の前記被写体の領域を特定する特定手段と、
前記第1の取得手段が取得した撮像位置姿勢情報に基づいて仮想空間画像を生成する生成手段と、
前記特定手段が特定した領域上には前記仮想空間画像が重畳されないように、前記第2の取得手段が取得した撮像画像上に、前記仮想空間画像を重畳させる重畳手段と、
前記重畳手段により得られる合成画像を出力する出力手段と
を備えることを特徴とする。
That is, for each of a plurality of images obtained by performing the imaging of the subject a plurality of times with different imaging positions and orientations, the color information in the region of the subject in the image, the imaging location and orientation information of the images, and Storage holding means for storing and holding a set,
First acquisition means for acquiring imaging position and orientation information of an imaging device that images a real space including the subject;
Second acquisition means for acquiring a captured image captured by the imaging device;
Third acquisition means for acquiring from the storage holding means a set including imaging position and orientation information closest to the imaging position and orientation information acquired by the first acquisition means;
Specifying means for specifying the area of the subject in the captured image acquired by the second acquisition means using the color information in the set acquired by the third acquisition means;
Generating means for generating a virtual space image based on the imaging position and orientation information acquired by the first acquisition means;
Superimposing means for superimposing the virtual space image on the captured image acquired by the second acquisition means so that the virtual space image is not superimposed on the area specified by the specifying means;
Output means for outputting a composite image obtained by the superimposing means.
本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。 In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.
即ち、被写体の撮像を撮像位置姿勢を異ならせて複数回を行うことで得られる複数枚の画像のそれぞれについて、画像内における前記被写体の領域内の色情報と、当該画像の撮像位置姿勢情報と、をセットにしてメモリに記憶保持している画像処理装置が行う画像処理方法であって、
前記被写体を含む現実空間を撮像する撮像装置の撮像位置姿勢情報を取得する第1の取得工程と、
前記撮像装置が撮像した撮像画像を取得する第2の取得工程と、
前記第1の取得工程で取得した撮像位置姿勢情報に最も近い撮像位置姿勢情報を含むセットを前記メモリから取得する第3の取得工程と、
前記第3の取得工程で取得したセット中の色情報を用いて、前記第2の取得工程で取得した撮像画像中の前記被写体の領域を特定する特定工程と、
前記第1の取得工程で取得した撮像位置姿勢情報に基づいて仮想空間画像を生成する生成工程と、
前記特定工程で特定した領域上には前記仮想空間画像が重畳されないように、前記第2の取得工程で取得した撮像画像上に、前記仮想空間画像を重畳させる重畳工程と、
前記重畳工程で得られる合成画像を出力する出力工程と
を備えることを特徴とする。
That is, for each of a plurality of images obtained by performing the imaging of the subject a plurality of times with different imaging positions and orientations, the color information in the region of the subject in the image, the imaging location and orientation information of the images, and , And an image processing method performed by an image processing apparatus stored and held in a memory,
A first acquisition step of acquiring imaging position and orientation information of an imaging apparatus that images the real space including the subject;
A second acquisition step of acquiring a captured image captured by the imaging device;
A third acquisition step of acquiring from the memory a set including imaging position and orientation information closest to the imaging position and orientation information acquired in the first acquisition step;
Using the color information in the set acquired in the third acquisition step, a specifying step for specifying the region of the subject in the captured image acquired in the second acquisition step;
A generation step of generating a virtual space image based on the imaging position and orientation information acquired in the first acquisition step;
A superimposing step of superimposing the virtual space image on the captured image acquired in the second acquisition step so that the virtual space image is not superimposed on the region specified in the specifying step;
And an output step of outputting a composite image obtained in the superimposing step.
本発明の構成によれば、現実空間画像上に仮想空間画像を重畳させる場合に、現実空間画像中の被写体領域を除いた他の領域に対してのみ仮想空間画像を重畳させる処理を、より簡便に行うことができる。 According to the configuration of the present invention, when the virtual space image is superimposed on the real space image, the process of superimposing the virtual space image only on the other region excluding the subject region in the real space image can be simplified. Can be done.
以下、添付図面を参照し、本発明の好適な実施形態について詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[第1の実施形態]
図1は、ユーザに複合現実感を提供するための、本実施形態に係るシステムのハードウェア構成を示すブロック図である。図1に示す如く、本実施形態に係るシステムは、コンピュータ100、表示部200、操作入力部400、HMD300、センサ600、センサ制御部500、により構成されている。
[First Embodiment]
FIG. 1 is a block diagram showing a hardware configuration of a system according to this embodiment for providing a mixed reality to a user. As shown in FIG. 1, the system according to the present embodiment includes a
先ず、コンピュータ100について説明する。
First, the
CPU101は、RAM102に格納されているプログラムやデータを用いて、コンピュータ100全体の制御を行うと共に、コンピュータ100が行うものとして後述する各処理を実行、若しくは制御する。
The
RAM102は、ディスク装置105からロードされたプログラムやデータ、入力装置106や画像取込装置107を介して受信したデータ、を一時的に記憶する為のエリアを有する。更に、RAM102は、CPU101が各処理を実行する際に用いるワークエリアも有する。即ち、RAM102は、各種のエリアを適宜提供することができる。
The
画像生成装置103は、仮想空間画像を生成するための一連の処理や、係る仮想空間画像を現実空間画像上に重畳する為の一連の処理、そして、生成した重畳後の画像(合成画像)をHMD300や表示部200に対して出力する為の処理、を行う。画像生成装置103は、例えば、グラフィックスカードにより構成されている。
The
ディスク装置105は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。ディスク装置105には、OS(オペレーティングシステム)や、コンピュータ100が行うものとして後述する各処理をCPU101に実行、若しくは制御させるためのプログラムやデータが保存されている。係るデータには、仮想空間を構成する各仮想物体のデータも含まれている。
The
入力装置106は、後述する操作入力部400、センサ制御部500を本コンピュータ100に接続するためのものである。操作入力部400やセンサ制御部500から送出されたデータは、係る入力装置106を介してディスク装置105やRAM102に格納される。
The
画像取込装置107は、後述するHMD300が有する撮像装置303から送出された現実空間画像(撮像画像)を受け、これをRAM102やディスク装置105に送出する。画像取込装置107は、例えば、ビデオキャプチャカードにより構成されている。
The
104は、上述の各部を繋ぐバスである。
A
次に、操作入力部400について説明する。
Next, the
操作入力部400は、キーボードやマウスなどにより構成されており、コンピュータ100の操作者が操作することで、各種の指示をコンピュータ100に対して入力することができる。操作入力部400を用いて入力された各種の指示は、データとして入力装置106に入力され、入力装置106はこのデータをCPU101に通知する。
The
次に、表示部200について説明する。
Next, the
表示部200は、CRTや液晶画面などにより構成されており、コンピュータ100の操作者に対して様々な情報を表示する。
The
次に、HMD300について説明する。
Next, the
HMD300は、表示部301、計測対象302、撮像装置303、により構成されている。HMD300は、複合現実感を体験するユーザの頭部に装着される、所謂、頭部装着型表示装置の一例である。なお、本実施形態では、1台のHMD300がコンピュータ100に接続されているが、複数台のHMD300がコンピュータ100に接続されている場合には、後述する各処理を、それぞれのHMD300について行えばよい。
The
表示部301は、コンピュータ100から送出された画像(画像生成装置103が生成した合成画像)を表示する為のものであり、HMD300を頭部に装着したユーザの眼前に位置するようにHMD300に取り付けられている。従って、頭部にHMD300を装着したユーザの眼前には、係る合成画像が表示されることになる。
The
計測対象302は、その位置姿勢を、センサ600、センサ制御部500を用いて計測するためにHMD300に対して取り付けられたものである。計測対象302について詳しくは後述する。
The
撮像装置303は、現実空間の動画像若しくは静止画像を撮像可能なカメラであり、撮像した各フレームの画像(現実空間画像)若しくは静止画像(現実空間画像)は、コンピュータ100が有する画像取込装置107に送出される。
The
次に、センサ600、センサ制御部500について説明する。
Next, the
計測対象302、センサ600、センサ制御部500はどのようなセンサシステムであっても良いが、その目的とするところは、HMD300の位置姿勢を取得することにある。従って、係る目的を達成することができるのであれば、如何なるセンサシステムを用いても良いし、センサシステム以外の方法で係る目的を達成しても良い。本実施形態では、係るセンサシステムとして、磁気センサシステムを用いる。磁気センサシステムとしては、Polhmus社の磁気センサFastrakを用いることができる。
The
この場合、センサ600は、磁界の発信源であり、計測対象302は、係る磁界中における自身の位置姿勢に応じた磁気の変化を検知する。係る検知結果はセンサ制御部500に送出される。センサ制御部500は、係る検知結果に基づいて、センサ座標系における計測対象302の位置姿勢情報を求める。センサ座標系とは、センサ600の位置を原点とし、係る原点で互いに直交する3軸をそれぞれ、x軸、y軸、z軸、とする座標系のことである。そしてセンサ制御部500は、求めた位置姿勢情報を、コンピュータ100が有する入力装置106に対して送出する。
In this case, the
また、磁気センサシステム以外のセンサシステムとしては、光学式のものを用いることもできる。この場合、Northern Digital社の光学式センサOPTOTRAK 3020の計測対象302は発光装置によって構成され、センサ制御部500による制御に従って発光する。センサ600は受光装置によって構成され、計測対象302により発せられた光を観測する。センサ制御部500は、係る観測結果に基づいて、計測対象302の位置姿勢情報を求める。
Moreover, as a sensor system other than the magnetic sensor system, an optical system can be used. In this case, the
また、別の光学式のセンサシステムの例として、3rdTech社の光学式センサHiBallの場合、計測対象302は受光装置によって構成され、センサ600は発光装置によって構成される。センサ600は、センサ制御部500による制御に従って発光する。計測対象302は、センサ600により発せられた光を観測する。センサ制御部500は、係る観測結果に基づいて、計測対象302の位置姿勢情報を求める。
As another example of the optical sensor system, in the case of the optical sensor HiBall manufactured by 3rdTech, the
以上説明した様々なセンサシステムの何れを用いても、計測対象302の位置姿勢情報を求めることができる。何れのセンサシステムについても、位置姿勢情報を求めるための仕組みについては周知であるので、これについての説明は省略する。
The position and orientation information of the
なお、最終的には計測対象302の位置姿勢情報ではなく、撮像装置303の位置姿勢情報を求めるので、計測対象302と撮像装置303との位置姿勢関係(バイアス)は予め求めておく必要がある。係るバイアスのデータはディスク装置105に予め登録しておく。そして、計測対象302の位置姿勢情報を求めると、この位置姿勢情報にバイアスを加えることで、撮像装置303の位置姿勢情報を求めることができる。
Note that since the position and orientation information of the
一方で、センサシステムを用いることなく、以下説明するように、画像処理を用いて撮像装置303の位置姿勢情報を求める方法もある。
On the other hand, there is also a method for obtaining position and orientation information of the
現実空間中にその配置位置が既知のマーカを配置する。そして、係るマーカを含む現実空間画像を撮像装置303が撮像した場合に、係る現実空間画像からマーカを抽出し、その抽出座標と、既知の配置位置とから、撮像装置303の位置姿勢情報を求める。なお、配置位置が既知のマーカの代わりに、現実空間中における自然特徴を用いても良い。
A marker whose placement position is known is placed in the real space. When the
また、撮像装置303にマーカを装着し、このマーカを、現実空間中に配置した撮像装置でもって撮像する。そして、撮像した画像からマーカを抽出し、抽出した座標に基づいて、撮像装置303の位置姿勢情報を求めても良い。
In addition, a marker is attached to the
また、HMD300を頭部に装着するユーザを撮像装置303によって撮像し、撮像した画像からユーザの自然特徴を抽出し、その抽出座標に基づいて撮像装置303の位置姿勢情報を求めるようにしても良い。
Further, a user wearing the
このように、画像処理を用いても、撮像装置303の位置姿勢情報を求めることができる。もちろん、上記センサシステムと上記画像処理とを適宜組み合わせて用いるようにしても良い。
As described above, the position and orientation information of the
本実施形態では、図1に示した構成を有するシステムを用いて現実空間画像上に仮想空間画像を重畳させる場合に、現実空間画像中に被写体として写っている手の領域については仮想空間画像を重畳させないようにする。即ち、上記ハンドオーバーレイ機能を実施する。その際、現実空間画像から手の領域を抽出する必要があるが、本実施形態では、この現実空間画像を撮像したときの撮像装置303の位置姿勢情報に基づいて決まる色情報を用いて、手の領域を抽出する。これは、同じ手でもそれを撮像するときの撮像装置303の位置や姿勢によっては、見える色が異なることに起因する。これにより、従来のように、単一のパラメータ情報を用いた場合よりも、適切な合成画像を生成することができる。特にハンドオーバーレイ機能を用いる場合には、より的確に合成画像を表示し、効果の高いハンドオーバーレイ機能を提供することができる。
In the present embodiment, when a virtual space image is superimposed on a real space image using the system having the configuration shown in FIG. 1, a virtual space image is used for an area of a hand reflected as a subject in the real space image. Avoid overlapping. That is, the hand overlay function is performed. At this time, it is necessary to extract a hand region from the real space image. In this embodiment, the hand information is used by using color information determined based on the position and orientation information of the
先ず、実際にユーザに複合現実感を提供する前に、様々な位置姿勢から手を撮像した場合に、その色情報をディスク装置105に登録する処理を行う必要がある。図2は、様々な位置姿勢から手を撮像する様子を示す図である。
First, before actually providing the user with mixed reality, when a hand is imaged from various positions and orientations, it is necessary to perform processing for registering the color information in the
図2に示す如く、現実空間中には蛍光灯や自然光などの光源2001が存在する。図2には光源として光源2001のみしか示していないが実際には複数存在することが多い。従って、手を撮像する撮像位置姿勢を変えると、観察される手の色が変わってしまう可能性が高い。そこで、本実施形態では、図2に示す如く、HMD300を頭部に装着したユーザ2000は様々な位置姿勢に移動し、自身の手を撮像装置303により撮像する。もちろん、それぞれの位置姿勢で撮像した画像における手の色は若干ながら色が異なることが多い。そして、それぞれの画像から抽出した手の領域の色情報と、それぞれの画像の撮像位置姿勢情報とをセットにしてディスク装置105に登録する。
As shown in FIG. 2, a
図3は、様々な位置姿勢から撮像装置303によって手を撮像することで複数枚の画像を得た場合に、それぞれの画像から手の色情報と、撮像位置姿勢情報とをセットにしてディスク装置105に登録する処理のフローチャートである。なお、図3に示したフローチャートに従った処理をCPU101に実行させる、若しくは制御させるためのプログラムやデータは、ディスク装置105に保存されている。係るプログラムやデータは、CPU101による制御に従って適宜RAM102にロードされる。そしてCPU101がこのロードされたプログラムやデータを用いて処理を実行、若しくは制御することで、図3に示したフローチャートに従った処理が実現される。
FIG. 3 shows a disk device in which, when a plurality of images are obtained by imaging a hand from various positions and orientations, hand color information and imaging position and orientation information are set from each image. 10 is a flowchart of processing to be registered in 105. Note that a program and data for causing the
先ず、ステップS301では、コンピュータ100全体の初期化処理を行う。係る初期化処理では、以下説明する各処理で用いる様々なプログラムやデータをディスク装置105からRAM102にロードする。もちろん、コンピュータ100以外の機器についても初期化を行う。
First, in step S301, the
次に、頭部にHMD300を装着したユーザが操作入力部400を用いて撮像指示を入力し、画像取込装置107が係る撮像指示を検知すると、ステップS302では、画像取込装置107は、次のような処理を行う。即ち、撮像装置303から送出された1フレーム分の現実空間画像をRAM102に転送(取得)する。
Next, when the user wearing the
また、入力装置106は、係る撮像指示を検知すると、ステップS303では、入力装置106は、センサ制御部500から送出された位置姿勢情報をRAM102に転送(取得)する。そしてRAM102への位置姿勢情報の取得後、取得した位置姿勢情報に上記バイアスを加えることで、撮像装置303の位置姿勢情報を求めることができる。
Further, when the
ここで、上記撮像指示は、操作入力部400を用いて入力することに限定するものではなく、様々な入力方法が考えられる。例えば、ユーザが所定のハンドジェスチャを行った場合に、係るハンドジェスチャを検知すれば、自動的に撮像指示を入力できるようにしても良い。
Here, the imaging instruction is not limited to being input using the
次に、ステップS304では、ステップS302でRAM102に転送した現実空間画像中に写っている手の領域を抽出する。そして、抽出した手の領域を構成している各画素の値を、例えば、CrCb平面での分布として記述した上で、色空間の各軸の座標範囲を指定する色情報として求める。なお、手の領域を抽出する方法については様々な方法が考えられる。例えば、現実空間画像中における手の輪郭をエッジ抽出処理等を用いて求めても良いし、現実空間画像を表示部200に表示し、コンピュータ100の操作者が操作入力部400を用いて手の領域を指示しても良い。また、手に仮想空間画像を重ねて表示し、手の実写画像以外の領域に的確に仮想空間画像が重畳されるように色情報を選択してもよい。選択の例としては、例えば、特開2005−107967号公報に開示されているような方法がある。
Next, in step S304, the hand region shown in the real space image transferred to the
次にステップS305では、ステップS303で取得した、撮像装置303の位置姿勢情報と、ステップS304で取得した色情報と、をセットにしてディスク装置105に登録する(記憶保持させる)。
Next, in step S305, the position / orientation information of the
次に、ステップS306では、操作入力部400を用いて本処理の終了指示が入力されたか、何らかの終了条件が満たされたかをチェックする。係るチェックの結果、操作入力部400を用いて本処理の終了指示が入力された、若しくは何らかの終了条件が満たされた場合には本処理を終了する。一方、操作入力部400を用いて本処理の終了指示は入力されていないし、何らかの終了条件も満たされていない場合には、処理をステップS302に戻し、次のセット登録処理を行う。
In step S306, the
これにより、手の撮像を撮像位置姿勢を異ならせて複数回を行うことで得られる複数枚の画像のそれぞれについて、画像内における手の領域内の色情報と、この画像の撮像位置姿勢情報と、をセットにしてディスク装置105に登録することができる。
Thus, for each of a plurality of images obtained by performing the hand imaging a plurality of times with different imaging positions and orientations, the color information in the hand region in the images, the imaging position and orientation information of the images, and , Can be registered in the
次に、図3のフローチャートに従った処理の後に行う、HMD300を頭部に装着したユーザに、現実空間画像上に仮想空間画像を重畳させた合成画像を、HMD300が有する表示部301を介して提供するための処理について説明する。
Next, a composite image obtained by superimposing the virtual space image on the real space image is displayed to the user wearing the
図4は、現実空間画像中の手の領域については仮想空間画像を重畳させないように、現実空間画像上に仮想空間画像を重畳させた合成画像を、HMD300が有する表示部301に送出するための処理のフローチャートである。なお、図4に示したフローチャートに従った処理をCPU101に実行させる、若しくは制御させるためのプログラムやデータは、ディスク装置105に保存されている。係るプログラムやデータは、CPU101による制御に従って適宜RAM102にロードされる。そしてCPU101がこのロードされたプログラムやデータを用いて処理を実行、若しくは制御することで、図4に示したフローチャートに従った処理が実現される。
FIG. 4 is a diagram for sending a composite image in which a virtual space image is superimposed on a real space image to the
ステップS401では、コンピュータ100全体の初期化処理を行う。係る初期化処理では、以下説明する各処理で用いる様々なプログラムやデータをディスク装置105からRAM102にロードする。もちろん、コンピュータ100以外の機器についても初期化を行う。
In step S401, the
次に、ステップS402では、画像取込装置107は、撮像装置303から送出された1フレーム分の現実空間画像をRAM102に転送(第2の取得)する。そしてCPU101はこの転送された現実空間画像に対して、必要に応じて適切な補正処理を行った後、この現実空間画像を、画像生成装置103が有するグラフィックスメモリ上のフレームバッファに転送する。なお、撮像装置303から送出された現実空間画像は、RAM102を介さず、直接上記フレームバッファに転送するようにしても良い。
Next, in step S <b> 402, the
次にステップS403では、入力装置106は、センサ制御部500から送出された位置姿勢情報をRAM102に転送(第1の取得)する。そしてRAM102への位置姿勢情報の取得後、取得した位置姿勢情報に上記バイアスを加えることで、撮像装置303の位置姿勢情報を求める。上述の通り、撮像装置303の位置姿勢情報を取得するための処理には様々な種類があるため、バイアスを加える必要のないものもある。
In step S <b> 403, the
つぎに、ステップS404では、図3に示したフローチャートに従ってディスク装置105に登録したものとして説明したセット群が、実際にディスク装置105内に登録されているか否かをチェックする。
Next, in step S404, it is checked whether or not the set group described as being registered in the
即ち、図3に示したフローチャートに従った処理を、図4に示したフローチャートに従った処理を行う前に行うことで、上記セット群をディスク装置105内に登録しておくことが好ましい。しかし、本実施形態では、係るセット群がディスク装置105内に登録されていない場合でも対処するようにしている。
That is, it is preferable to register the set group in the
ステップS404におけるチェックの結果、登録されている場合には、処理をステップS409に進め、登録されていない場合には処理をステップS405に進める。 If it is registered as a result of the check in step S404, the process proceeds to step S409, and if not registered, the process proceeds to step S405.
ステップS405では、デフォルトの色情報としてディスク装置105内に登録されている色情報を選択する。
In step S405, color information registered in the
一方、ステップS409では、上記セット群のうち、ステップS403で取得した撮像装置303の位置姿勢情報に最も近い位置姿勢情報を含むセットを特定(第3の取得)する。ここで、係る特定処理について説明する。厳密には、ステップS403で取得した撮像装置303の位置姿勢情報と全く同じ位置姿勢情報を含むセットを特定できることが好ましいが、実際にはほぼ不可能である。従って、例えば、位置情報だけに着目し、上記セット群のそれぞれのセット中の位置姿勢情報のうちの位置情報のうち、ステップS403で取得した撮像装置303の位置姿勢情報のうちの位置情報との差が最も小さい位置情報を含むセットを特定しても良い。または、姿勢情報だけに着目し、上記セット群のそれぞれのセット中の位置姿勢情報のうちの姿勢情報のうち、ステップS403で取得した撮像装置303の位置姿勢情報のうちの姿勢情報との差が最も小さい姿勢情報を含むセットを特定しても良い。もちろん、位置情報、姿勢情報の両方に着目しても良い。
On the other hand, in step S409, the set including the position and orientation information closest to the position and orientation information of the
そして、特定したセット中の色情報を選択する。 Then, the color information in the specified set is selected.
ここで、ステップS409における処理として別の形態を説明する。上記セット群を作成する場合に、HMD300を頭部に装着するユーザの移動可能な空間を、単位体積毎に分割し、分割空間毎に色情報を収集するようにしておけば、ステップS409における処理は次のようにして行うことができる。即ち、ステップS403で取得した位置情報がどの分割空間に属しているのかを特定できれば、特定した分割空間で収集した色情報を選択するだけでよい。
Here, another form is demonstrated as a process in step S409. When creating the set group, if the space in which the user wearing the
また、上記セット群を作成する場合に、HMD300を頭部に装着するユーザが撮像装置303の姿勢を30度毎に変えて手を撮像し、色情報を収集するようにしておけば、ステップS409における処理は次のようにして行うことができる。例えば、ステップS403で取得した姿勢情報が10度であった場合には、姿勢0度で収集した色情報を選択し、ステップS403で取得した姿勢情報が40度であった場合には、姿勢30度で収集した色情報を選択すれば良い。
If the user who wears the
そして次に、ステップS406では、画像生成装置103は、ステップS405,若しくはステップS409で選択した色情報を用いて、ステップS402で取得した現実空間画像中(撮像画像中)における手の領域を検出する。係る検出処理は、例えば、特開2003−296759号公報に開示されているものであり、周知の技術である。
In step S406, the
そして次にステップS407では、画像生成装置103は先ず、ステップS403で取得した撮像装置303の位置姿勢情報が示す位置姿勢を有する視点を仮想空間中に設定し、係る視点から見える仮想空間画像を生成する。所定の位置姿勢を有する視点から見た仮想空間画像を生成する処理については周知であるので、これについての説明は省略する。
In step S407, the
そして、この生成した仮想空間画像を、ステップS402で取得した現実空間画像上(撮像画像上)に重畳させるのであるが、この重畳の際には、ステップS406で検出した現実空間画像内の領域上には仮想空間画像を重畳させないようにする。仮想空間画像を現実空間画像上に重畳させる処理は、換言すれば、ステップS402でフレームバッファに転送された現実空間画像上に仮想空間画像を描画することである。これにより、フレームバッファ上には、合成画像が生成されることになる。 Then, the generated virtual space image is superimposed on the real space image (captured image) acquired in step S402. In this superposition, the virtual space image is superimposed on the area in the real space image detected in step S406. The virtual space image is not superimposed on the. In other words, the process of superimposing the virtual space image on the real space image is to draw the virtual space image on the real space image transferred to the frame buffer in step S402. As a result, a composite image is generated on the frame buffer.
そして、更に、ステップS407では、係る合成画像を、HMD300が有する表示部301に送出する。
In step S407, the composite image is sent to the
以上説明した処理により、撮像装置303の位置姿勢に応じて見える手の色を考慮して、現実空間画像中における手の領域を検出することができるので、より正確に手の領域を検出することができる。従って、現実空間画像上に仮想空間画像を重畳させる際に、手の領域については仮想空間画像を重畳させない処理を、より正確に行うことができる。
By the processing described above, it is possible to detect the hand region in the real space image in consideration of the hand color that is visible according to the position and orientation of the
次に、ステップS408では、操作入力部400を用いて本処理の終了指示が入力されたか、何らかの終了条件が満たされたかをチェックする。係るチェックの結果、操作入力部400を用いて本処理の終了指示が入力された、若しくは何らかの終了条件が満たされた場合には本処理を終了する。一方、操作入力部400を用いて本処理の終了指示は入力されていないし、何らかの終了条件も満たされていない場合には、処理をステップS402に戻し、次のフレームについて処理を行う。
Next, in step S408, it is checked whether an end instruction for this process is input using the
以上の説明により、本実施形態によれば、手を観察する撮像装置の位置姿勢が変わることで手に対する照明条件が変化する場合であっても、正確に手の領域を検出することができる。また、従来のように、手に対する照明条件をシミュレートするような、コンピュータに対する負荷の高い処理を行うことなく、正確に手の領域を検出することができる。 As described above, according to the present embodiment, the hand region can be accurately detected even when the illumination condition for the hand changes due to the change in the position and orientation of the imaging apparatus that observes the hand. In addition, as in the prior art, it is possible to accurately detect a hand region without performing a heavy load on the computer, such as simulating lighting conditions for the hand.
[第2の実施形態]
第1の実施形態では、上記セット群をディスク装置105内に登録する場合には、HMD300を頭部に装着したユーザが空間内を移動して行っていた。しかし、係る作業は一人のユーザが行うことに限定するものではなく、複数のユーザが、別のユーザが撮影した画像を用いたり、所謂客観カメラが撮影した画像を用いても良い。
[Second Embodiment]
In the first embodiment, when the set group is registered in the
また、第1の実施形態では、図3に示したフローチャートに従った処理の後に、図4に示したフローチャートに従った処理を行っていたが、図4に示したフローチャートに従った処理と並行して図3に示したフローチャートに従った処理を行うようにしても良い。 Further, in the first embodiment, the processing according to the flowchart shown in FIG. 4 is performed after the processing according to the flowchart shown in FIG. 3, but in parallel with the processing according to the flowchart shown in FIG. Then, processing according to the flowchart shown in FIG. 3 may be performed.
もちろん、本実施形態で説明した、第1の実施形態の変形例を実施する場合には、第1の実施形態で説明した内容を適宜変更すればよい。 Of course, when implementing the modification of 1st Embodiment demonstrated in this embodiment, what is necessary is just to change suitably the content demonstrated in 1st Embodiment.
更に、第1の実施形態では、ディスク装置105内に登録されているセット群のうち1つを選択する場合には、撮像位置姿勢情報を用いていた。しかし、同じ撮像位置姿勢を示す撮像位置姿勢情報が複数ディスク装置105内に登録されている場合には、運用時の現実空間画像の色分布に基づいて、1つのセットを選択するようにしても良い。
Furthermore, in the first embodiment, when selecting one of the set groups registered in the
なお、第1,2の実施形態では、被写体の一例として手を用いているが、他のものを被写体として用いても、第1,2の実施形態における説明は本質的には変わらない。 In the first and second embodiments, a hand is used as an example of the subject. However, even if another hand is used as the subject, the description in the first and second embodiments is not essentially changed.
[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.
また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, an operating system (OS) or the like running on the computer performs part or all of the actual processing based on the instruction of the program code. Needless to say, the process includes the case where the functions of the above-described embodiments are realized.
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, it is assumed that the program code read from the recording medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU included in the function expansion card or function expansion unit performs part or all of the actual processing, and the function of the above-described embodiment is realized by the processing. Needless to say.
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。 When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.
Claims (6)
前記被写体を含む現実空間を撮像する撮像装置の撮像位置姿勢情報を取得する第1の取得手段と、
前記撮像装置が撮像した撮像画像を取得する第2の取得手段と、
前記第1の取得手段が取得した撮像位置姿勢情報に最も近い撮像位置姿勢情報を含むセットを前記記憶保持手段から取得する第3の取得手段と、
前記第3の取得手段が取得したセット中の色情報を用いて、前記第2の取得手段が取得した撮像画像中の前記被写体の領域を特定する特定手段と、
前記第1の取得手段が取得した撮像位置姿勢情報に基づいて仮想空間画像を生成する生成手段と、
前記特定手段が特定した領域上には前記仮想空間画像が重畳されないように、前記第2の取得手段が取得した撮像画像上に、前記仮想空間画像を重畳させる重畳手段と、
前記重畳手段により得られる合成画像を出力する出力手段と
を備えることを特徴とする画像処理装置。 For each of a plurality of images obtained by performing the imaging of the subject a plurality of times with different imaging positions and orientations, color information in the region of the subject in the image and imaging location and orientation information of the images are obtained. Memory holding means for storing and holding as a set;
First acquisition means for acquiring imaging position and orientation information of an imaging device that images a real space including the subject;
Second acquisition means for acquiring a captured image captured by the imaging device;
Third acquisition means for acquiring from the storage holding means a set including imaging position and orientation information closest to the imaging position and orientation information acquired by the first acquisition means;
Specifying means for specifying the area of the subject in the captured image acquired by the second acquisition means using the color information in the set acquired by the third acquisition means;
Generating means for generating a virtual space image based on the imaging position and orientation information acquired by the first acquisition means;
Superimposing means for superimposing the virtual space image on the captured image acquired by the second acquisition means so that the virtual space image is not superimposed on the area specified by the specifying means;
An image processing apparatus comprising: output means for outputting a composite image obtained by the superimposing means.
前記被写体を含む現実空間を撮像する撮像装置の撮像位置姿勢情報を取得する第1の取得工程と、
前記撮像装置が撮像した撮像画像を取得する第2の取得工程と、
前記第1の取得工程で取得した撮像位置姿勢情報に最も近い撮像位置姿勢情報を含むセットを前記メモリから取得する第3の取得工程と、
前記第3の取得工程で取得したセット中の色情報を用いて、前記第2の取得工程で取得した撮像画像中の前記被写体の領域を特定する特定工程と、
前記第1の取得工程で取得した撮像位置姿勢情報に基づいて仮想空間画像を生成する生成工程と、
前記特定工程で特定した領域上には前記仮想空間画像が重畳されないように、前記第2の取得工程で取得した撮像画像上に、前記仮想空間画像を重畳させる重畳工程と、
前記重畳工程で得られる合成画像を出力する出力工程と
を備えることを特徴とする画像処理方法。 For each of a plurality of images obtained by performing the imaging of the subject a plurality of times with different imaging positions and orientations, color information in the region of the subject in the image and imaging location and orientation information of the images are obtained. An image processing method performed by an image processing apparatus stored in a memory as a set,
A first acquisition step of acquiring imaging position and orientation information of an imaging apparatus that images the real space including the subject;
A second acquisition step of acquiring a captured image captured by the imaging device;
A third acquisition step of acquiring from the memory a set including imaging position and orientation information closest to the imaging position and orientation information acquired in the first acquisition step;
Using the color information in the set acquired in the third acquisition step, a specifying step for specifying the region of the subject in the captured image acquired in the second acquisition step;
A generation step of generating a virtual space image based on the imaging position and orientation information acquired in the first acquisition step;
A superimposing step of superimposing the virtual space image on the captured image acquired in the second acquisition step so that the virtual space image is not superimposed on the region specified in the specifying step;
And an output step of outputting a composite image obtained in the superimposing step.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007177554A JP2009015648A (en) | 2007-07-05 | 2007-07-05 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007177554A JP2009015648A (en) | 2007-07-05 | 2007-07-05 | Image processing apparatus and image processing method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2009015648A true JP2009015648A (en) | 2009-01-22 |
Family
ID=40356469
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007177554A Withdrawn JP2009015648A (en) | 2007-07-05 | 2007-07-05 | Image processing apparatus and image processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2009015648A (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2011145429A1 (en) | 2010-05-17 | 2011-11-24 | 株式会社エヌ・ティ・ティ・ドコモ | Object displaying apparatus, object displaying system, and object displaying method |
| JP2015153169A (en) * | 2014-02-14 | 2015-08-24 | 富士通株式会社 | Terminal apparatus, information processing apparatus, display control method, and display control program |
| JP2016218905A (en) * | 2015-05-25 | 2016-12-22 | キヤノン株式会社 | Information processing device, information processing method and program |
| JP2024099636A (en) * | 2017-12-22 | 2024-07-25 | マジック リープ, インコーポレイテッド | Methods and systems for managing and displaying virtual content in mixed reality system |
| US12347048B2 (en) | 2017-05-01 | 2025-07-01 | Magic Leap, Inc. | Matching content to a spatial 3D environment |
-
2007
- 2007-07-05 JP JP2007177554A patent/JP2009015648A/en not_active Withdrawn
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2011145429A1 (en) | 2010-05-17 | 2011-11-24 | 株式会社エヌ・ティ・ティ・ドコモ | Object displaying apparatus, object displaying system, and object displaying method |
| JP2015153169A (en) * | 2014-02-14 | 2015-08-24 | 富士通株式会社 | Terminal apparatus, information processing apparatus, display control method, and display control program |
| JP2016218905A (en) * | 2015-05-25 | 2016-12-22 | キヤノン株式会社 | Information processing device, information processing method and program |
| US12347048B2 (en) | 2017-05-01 | 2025-07-01 | Magic Leap, Inc. | Matching content to a spatial 3D environment |
| JP2024099636A (en) * | 2017-12-22 | 2024-07-25 | マジック リープ, インコーポレイテッド | Methods and systems for managing and displaying virtual content in mixed reality system |
| JP7719232B2 (en) | 2017-12-22 | 2025-08-05 | マジック リープ, インコーポレイテッド | Method and system for managing and displaying virtual content in a mixed reality system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4227561B2 (en) | Image processing method and image processing apparatus | |
| US7808450B2 (en) | Image processing method and image processing apparatus | |
| JP4537104B2 (en) | Marker detection method, marker detection device, position and orientation estimation method, and mixed reality space presentation method | |
| JP4810295B2 (en) | Information processing apparatus and control method therefor, image processing apparatus, program, and storage medium | |
| JP4401727B2 (en) | Image display apparatus and method | |
| JP4065507B2 (en) | Information presentation apparatus and information processing method | |
| EP1404126B1 (en) | Video combining apparatus and method | |
| JP4434890B2 (en) | Image composition method and apparatus | |
| US8207909B2 (en) | Image processing apparatus and image processing method | |
| US20170315364A1 (en) | Virtual object display device, method, program, and system | |
| US7965304B2 (en) | Image processing method and image processing apparatus | |
| CN112166397B (en) | Apparatus, system and method for accelerating position tracking of head mounted displays | |
| JP2005165848A (en) | Mixed reality presentation method and apparatus | |
| JP4677281B2 (en) | Image processing method and image processing apparatus | |
| JP2009015648A (en) | Image processing apparatus and image processing method | |
| JP4889036B2 (en) | Image processing apparatus and image processing method | |
| US7379060B2 (en) | Image processing method and image processing apparatus | |
| JP2005339377A (en) | Image processing method and image processing apparatus | |
| JP2006285609A (en) | Image processing method and image processing apparatus | |
| JP2006267879A (en) | Image processing method, image processing apparatus, marker | |
| JP2007233971A (en) | Image composition method and apparatus | |
| JP4217661B2 (en) | Image processing method and image processing apparatus | |
| JP2007128494A (en) | Information processor and information processing method | |
| JP2008146108A (en) | Index, image processing apparatus, and image processing method | |
| JP4745724B2 (en) | Image processing method and image processing apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100907 |