[go: up one dir, main page]

JP2009015648A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2009015648A
JP2009015648A JP2007177554A JP2007177554A JP2009015648A JP 2009015648 A JP2009015648 A JP 2009015648A JP 2007177554 A JP2007177554 A JP 2007177554A JP 2007177554 A JP2007177554 A JP 2007177554A JP 2009015648 A JP2009015648 A JP 2009015648A
Authority
JP
Japan
Prior art keywords
image
imaging
acquired
orientation information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007177554A
Other languages
Japanese (ja)
Inventor
Koichiro Wanda
浩一郎 椀田
Toshiichi Oshima
登志一 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007177554A priority Critical patent/JP2009015648A/en
Publication of JP2009015648A publication Critical patent/JP2009015648A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 現実空間画像上に仮想空間画像を重畳させる場合に、現実空間画像中の被写体領域を除いた他の領域に対してのみ仮想空間画像を重畳させる処理を、より簡便に行うための技術を提供すること。
【解決手段】 撮像装置303の撮像位置姿勢情報に最も近い撮像位置姿勢情報に対応する色情報を取得する。そしてこの取得した色情報を用いて、撮像画像中の手の領域を特定する。そして、この特定した領域上には仮想空間画像が重畳されないように、撮像画像上に仮想空間画像を重畳させる。
【選択図】 図1
PROBLEM TO BE SOLVED: To more easily perform a process of superimposing a virtual space image only on other regions except a subject region in the real space image when the virtual space image is superimposed on the real space image. To provide.
Color information corresponding to imaging position and orientation information closest to imaging position and orientation information of an imaging apparatus 303 is acquired. And the area | region of the hand in a captured image is specified using this acquired color information. Then, the virtual space image is superimposed on the captured image so that the virtual space image is not superimposed on the specified region.
[Selection] Figure 1

Description

本発明は、複合現実感を提供するための技術に関するものである。   The present invention relates to a technique for providing mixed reality.

近年、現実世界と仮想世界とを違和感なく自然に結合する複合現実感(MR:Mixed Reality)の技術を応用した装置(複合現実感装置)が盛んに提案されている。これらの複合現実感装置は、次のようにして複合現実感を、本装置の使用者に提示している。即ち、カメラなどの撮像装置によって撮影した現実世界の画像に対し、コンピュータグラフィックス(CG:Computer Graphics)で描画した仮想世界の画像を合成する。そして係る合成による合成画像を、ヘッドマウントディスプレイ(HMD:Head-Mounted Display)等の表示装置に表示する。   2. Description of the Related Art In recent years, devices (mixed reality devices) that apply a mixed reality (MR) technology that naturally couples the real world and the virtual world naturally are not proposed. These mixed reality devices present mixed reality to the user of the device as follows. That is, a virtual world image drawn by computer graphics (CG) is synthesized with a real world image taken by an imaging device such as a camera. Then, the synthesized image by the synthesis is displayed on a display device such as a head-mounted display (HMD).

これらの複合現実感装置は、複合現実感を高めるために、本装置の使用者の視点位置・姿勢をリアルタイムで取得し、現実世界の画像の変化に追従させて仮想世界の画像を生成し、使用者に対してHMDのような表示装置にリアルタイムに表示する必要がある。複合現実感装置では、センサ装置によって計測した使用者の視点位置・姿勢を仮想世界での仮想の視点位置・姿勢として設定し、この設定に基づいて仮想世界の画像をCGにより描画し、現実世界の画像と合成する。   In order to enhance the mixed reality, these mixed reality devices acquire the viewpoint position and orientation of the user of this device in real time, follow the change of the real world image, generate the virtual world image, It is necessary to display in real time on a display device such as an HMD for the user. In the mixed reality device, the viewpoint position / orientation of the user measured by the sensor device is set as a virtual viewpoint position / orientation in the virtual world, and based on this setting, an image of the virtual world is drawn by CG, and the real world Composite with the image.

また、HMDは、複合現実感の提示のため、複合現実感装置の使用者の視野には、HMDによる表示があり、且つ係る表示内にはCGを描画する領域が含まれている。   In addition, since the HMD presents mixed reality, the visual field of the user of the mixed reality device includes display by the HMD, and the display includes a region for drawing CG.

これらの技術により、複合現実感装置の使用者は、あたかも現実世界の中に仮想の物体が存在しているかのような画像を観察することができる。しかし、現実世界の画像と仮想世界の画像とを合成する際には、仮想世界の画像により自分の手が隠されてしまうこともあり、複合現実感のリアリティを損なわせることになる。   With these technologies, the user of the mixed reality apparatus can observe an image as if a virtual object exists in the real world. However, when a real world image and a virtual world image are synthesized, one's hand may be hidden by the virtual world image, which impairs the reality of mixed reality.

このような複合現実感のリアリティを少ない処理負荷で向上させる方法が、特許文献1に開示されている。係る特許文献1に開示されている技術では、現実空間の画像のうち、使用者の手に対しては仮想世界の画像を重畳せず、よりリアリティの高い複合現実感を体験させている(ハンドオーバーレイ機能)。   A method for improving the reality of such mixed reality with a small processing load is disclosed in Patent Document 1. In the technology disclosed in Patent Document 1, the virtual world image is not superimposed on the user's hand among the images in the real space, and a more realistic mixed reality experience is experienced (hand). Overlay function).

しかし、従来の技術では、特定の色情報などの単一のパラメータを用いて使用者の手の画像を判定していたため、使用者の視点位置、姿勢の変化や、使用者の位置する空間内の照明条件の変化に対しては、十分な効果が得られないことが多かった。具体的には、使用者の手以外の画像に手の色に近い画像がある場合、その画像の部分には仮想世界の画像を重畳しないので、使用者の手以外の実写画像中の物体が不自然に見えてしまうという問題が頻発していた。また逆に、使用者の手は、その位置姿勢によっては照明などの変化により別の色となり、使用者の手を認識できないため、使用者の手に仮想世界の画像が重畳されてしまうことから、使用者の手が見えなくなるといった問題が頻発していた。   However, in the conventional technology, since the image of the user's hand is determined using a single parameter such as specific color information, the user's viewpoint position and posture change, and the space in which the user is located In many cases, sufficient effects could not be obtained with respect to changes in lighting conditions. Specifically, when there is an image close to the color of the hand in an image other than the user's hand, the image in the virtual world is not superimposed on the portion of the image. The problem of appearing unnatural occurred frequently. Conversely, depending on the position and orientation of the user's hand, the color of the virtual world is superimposed on the user's hand because the user's hand cannot be recognized due to a different color due to changes in lighting or the like. The problem that the user's hand disappeared frequently occurred.

現実世界の照明条件をシミュレートし、仮想世界のCGの照明条件をこのシミュレート結果に近似させる技術もある。しかし、シミュレートの結果が算出されるまでの処理時間は非常に大きく、リアルタイムに複合現実感を体験させることを目的とする複合現実感提示装置での利用は困難である。将来的に、ハードウェアの能力が向上した場合であっても、複合現実感提示装置自体の処理負荷を圧迫するため、実用的ではない。
特開2003−296759号公報
There is also a technique for simulating real-world lighting conditions and approximating the virtual-world CG lighting conditions to the simulation results. However, the processing time until the simulation result is calculated is very long, and it is difficult to use the mixed reality presentation device for the purpose of experiencing mixed reality in real time. Even if the hardware capability is improved in the future, the processing load of the mixed reality presentation device itself is pressed, which is not practical.
JP 2003-296759 A

上記のように、従来技術には、例えば、現実世界の画像における被写体領域を除いた領域にのみCGを重畳した合成画像を生成する場合に、以下のような問題がある。   As described above, the prior art has the following problems when, for example, a composite image in which CG is superimposed only on a region excluding a subject region in a real-world image is generated.

先ず、撮像装置の位置、姿勢によらず、単一のパラメータ情報を用いると、照明条件が変化するような撮像装置の位置、姿勢においては、現実世界の画像から適切に被写体領域を抽出することは困難となる。その結果、被写体領域がCGに隠されたり、被写体領域以外の領域にCGが重畳されない、という問題が生じる。これにより、的確な合成画像を出力することは困難となる。   First, using a single piece of parameter information regardless of the position and orientation of the imaging device, the subject region is appropriately extracted from the real-world image at the position and orientation of the imaging device where the illumination conditions change. Will be difficult. As a result, there arises a problem that the subject area is hidden by the CG, or the CG is not superimposed on an area other than the subject area. This makes it difficult to output an accurate composite image.

また、実用性のある、複数のパラメータ情報を生成すること自体が難しい。更に、生成したパラメータ情報を適切に使い分けて、被写体領域を的確に除いてCG画像を重畳した合成画像を表示することは困難であった。   Also, it is difficult to generate a plurality of parameter information that is practical. Furthermore, it is difficult to display the composite image in which the generated CG image is superimposed by properly using the generated parameter information and accurately removing the subject area.

また、照明条件をシミュレートするような処理は処理負荷が高く、複合現実感提示装置の使用者にリアルタイムにCG画像を適切に重畳した合成画像を提供することは困難であった。   In addition, processing that simulates lighting conditions has a high processing load, and it has been difficult to provide a composite image in which a CG image is appropriately superimposed in real time to the user of the mixed reality presentation apparatus.

本発明は以上の問題に鑑みてなされたものであり、現実空間画像上に仮想空間画像を重畳させる場合に、現実空間画像中の被写体領域を除いた他の領域に対してのみ仮想空間画像を重畳させる処理を、より簡便に行うための技術を提供することを目的とする。   The present invention has been made in view of the above problems, and when a virtual space image is superimposed on a real space image, the virtual space image is only applied to other regions other than the subject region in the real space image. An object is to provide a technique for performing the process of superimposing more simply.

本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.

即ち、被写体の撮像を撮像位置姿勢を異ならせて複数回を行うことで得られる複数枚の画像のそれぞれについて、画像内における前記被写体の領域内の色情報と、当該画像の撮像位置姿勢情報と、をセットにして記憶保持する記憶保持手段と、
前記被写体を含む現実空間を撮像する撮像装置の撮像位置姿勢情報を取得する第1の取得手段と、
前記撮像装置が撮像した撮像画像を取得する第2の取得手段と、
前記第1の取得手段が取得した撮像位置姿勢情報に最も近い撮像位置姿勢情報を含むセットを前記記憶保持手段から取得する第3の取得手段と、
前記第3の取得手段が取得したセット中の色情報を用いて、前記第2の取得手段が取得した撮像画像中の前記被写体の領域を特定する特定手段と、
前記第1の取得手段が取得した撮像位置姿勢情報に基づいて仮想空間画像を生成する生成手段と、
前記特定手段が特定した領域上には前記仮想空間画像が重畳されないように、前記第2の取得手段が取得した撮像画像上に、前記仮想空間画像を重畳させる重畳手段と、
前記重畳手段により得られる合成画像を出力する出力手段と
を備えることを特徴とする。
That is, for each of a plurality of images obtained by performing the imaging of the subject a plurality of times with different imaging positions and orientations, the color information in the region of the subject in the image, the imaging location and orientation information of the images, and Storage holding means for storing and holding a set,
First acquisition means for acquiring imaging position and orientation information of an imaging device that images a real space including the subject;
Second acquisition means for acquiring a captured image captured by the imaging device;
Third acquisition means for acquiring from the storage holding means a set including imaging position and orientation information closest to the imaging position and orientation information acquired by the first acquisition means;
Specifying means for specifying the area of the subject in the captured image acquired by the second acquisition means using the color information in the set acquired by the third acquisition means;
Generating means for generating a virtual space image based on the imaging position and orientation information acquired by the first acquisition means;
Superimposing means for superimposing the virtual space image on the captured image acquired by the second acquisition means so that the virtual space image is not superimposed on the area specified by the specifying means;
Output means for outputting a composite image obtained by the superimposing means.

本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.

即ち、被写体の撮像を撮像位置姿勢を異ならせて複数回を行うことで得られる複数枚の画像のそれぞれについて、画像内における前記被写体の領域内の色情報と、当該画像の撮像位置姿勢情報と、をセットにしてメモリに記憶保持している画像処理装置が行う画像処理方法であって、
前記被写体を含む現実空間を撮像する撮像装置の撮像位置姿勢情報を取得する第1の取得工程と、
前記撮像装置が撮像した撮像画像を取得する第2の取得工程と、
前記第1の取得工程で取得した撮像位置姿勢情報に最も近い撮像位置姿勢情報を含むセットを前記メモリから取得する第3の取得工程と、
前記第3の取得工程で取得したセット中の色情報を用いて、前記第2の取得工程で取得した撮像画像中の前記被写体の領域を特定する特定工程と、
前記第1の取得工程で取得した撮像位置姿勢情報に基づいて仮想空間画像を生成する生成工程と、
前記特定工程で特定した領域上には前記仮想空間画像が重畳されないように、前記第2の取得工程で取得した撮像画像上に、前記仮想空間画像を重畳させる重畳工程と、
前記重畳工程で得られる合成画像を出力する出力工程と
を備えることを特徴とする。
That is, for each of a plurality of images obtained by performing the imaging of the subject a plurality of times with different imaging positions and orientations, the color information in the region of the subject in the image, the imaging location and orientation information of the images, and , And an image processing method performed by an image processing apparatus stored and held in a memory,
A first acquisition step of acquiring imaging position and orientation information of an imaging apparatus that images the real space including the subject;
A second acquisition step of acquiring a captured image captured by the imaging device;
A third acquisition step of acquiring from the memory a set including imaging position and orientation information closest to the imaging position and orientation information acquired in the first acquisition step;
Using the color information in the set acquired in the third acquisition step, a specifying step for specifying the region of the subject in the captured image acquired in the second acquisition step;
A generation step of generating a virtual space image based on the imaging position and orientation information acquired in the first acquisition step;
A superimposing step of superimposing the virtual space image on the captured image acquired in the second acquisition step so that the virtual space image is not superimposed on the region specified in the specifying step;
And an output step of outputting a composite image obtained in the superimposing step.

本発明の構成によれば、現実空間画像上に仮想空間画像を重畳させる場合に、現実空間画像中の被写体領域を除いた他の領域に対してのみ仮想空間画像を重畳させる処理を、より簡便に行うことができる。   According to the configuration of the present invention, when the virtual space image is superimposed on the real space image, the process of superimposing the virtual space image only on the other region excluding the subject region in the real space image can be simplified. Can be done.

以下、添付図面を参照し、本発明の好適な実施形態について詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[第1の実施形態]
図1は、ユーザに複合現実感を提供するための、本実施形態に係るシステムのハードウェア構成を示すブロック図である。図1に示す如く、本実施形態に係るシステムは、コンピュータ100、表示部200、操作入力部400、HMD300、センサ600、センサ制御部500、により構成されている。
[First Embodiment]
FIG. 1 is a block diagram showing a hardware configuration of a system according to this embodiment for providing a mixed reality to a user. As shown in FIG. 1, the system according to the present embodiment includes a computer 100, a display unit 200, an operation input unit 400, an HMD 300, a sensor 600, and a sensor control unit 500.

先ず、コンピュータ100について説明する。   First, the computer 100 will be described.

CPU101は、RAM102に格納されているプログラムやデータを用いて、コンピュータ100全体の制御を行うと共に、コンピュータ100が行うものとして後述する各処理を実行、若しくは制御する。   The CPU 101 controls the entire computer 100 using programs and data stored in the RAM 102, and executes or controls each process described later as what the computer 100 performs.

RAM102は、ディスク装置105からロードされたプログラムやデータ、入力装置106や画像取込装置107を介して受信したデータ、を一時的に記憶する為のエリアを有する。更に、RAM102は、CPU101が各処理を実行する際に用いるワークエリアも有する。即ち、RAM102は、各種のエリアを適宜提供することができる。   The RAM 102 has an area for temporarily storing programs and data loaded from the disk device 105 and data received via the input device 106 and the image capturing device 107. Furthermore, the RAM 102 also has a work area used when the CPU 101 executes each process. That is, the RAM 102 can provide various areas as appropriate.

画像生成装置103は、仮想空間画像を生成するための一連の処理や、係る仮想空間画像を現実空間画像上に重畳する為の一連の処理、そして、生成した重畳後の画像(合成画像)をHMD300や表示部200に対して出力する為の処理、を行う。画像生成装置103は、例えば、グラフィックスカードにより構成されている。   The image generation device 103 performs a series of processes for generating a virtual space image, a series of processes for superimposing the virtual space image on the real space image, and the generated superimposed image (composite image). Processing for outputting to the HMD 300 and the display unit 200 is performed. The image generation device 103 is configured by, for example, a graphics card.

ディスク装置105は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。ディスク装置105には、OS(オペレーティングシステム)や、コンピュータ100が行うものとして後述する各処理をCPU101に実行、若しくは制御させるためのプログラムやデータが保存されている。係るデータには、仮想空間を構成する各仮想物体のデータも含まれている。   The disk device 105 is a large-capacity information storage device represented by a hard disk drive device. The disk device 105 stores an OS (Operating System) and programs and data for causing the CPU 101 to execute or control each process described below as performed by the computer 100. Such data includes data of each virtual object constituting the virtual space.

入力装置106は、後述する操作入力部400、センサ制御部500を本コンピュータ100に接続するためのものである。操作入力部400やセンサ制御部500から送出されたデータは、係る入力装置106を介してディスク装置105やRAM102に格納される。   The input device 106 is for connecting an operation input unit 400 and a sensor control unit 500 described later to the computer 100. Data sent from the operation input unit 400 or the sensor control unit 500 is stored in the disk device 105 or the RAM 102 via the input device 106.

画像取込装置107は、後述するHMD300が有する撮像装置303から送出された現実空間画像(撮像画像)を受け、これをRAM102やディスク装置105に送出する。画像取込装置107は、例えば、ビデオキャプチャカードにより構成されている。   The image capturing device 107 receives a real space image (captured image) sent from the imaging device 303 included in the HMD 300 described later, and sends it to the RAM 102 and the disk device 105. The image capturing device 107 is constituted by, for example, a video capture card.

104は、上述の各部を繋ぐバスである。   A bus 104 connects the above-described units.

次に、操作入力部400について説明する。   Next, the operation input unit 400 will be described.

操作入力部400は、キーボードやマウスなどにより構成されており、コンピュータ100の操作者が操作することで、各種の指示をコンピュータ100に対して入力することができる。操作入力部400を用いて入力された各種の指示は、データとして入力装置106に入力され、入力装置106はこのデータをCPU101に通知する。   The operation input unit 400 is configured by a keyboard, a mouse, and the like, and can input various instructions to the computer 100 when operated by an operator of the computer 100. Various instructions input using the operation input unit 400 are input to the input device 106 as data, and the input device 106 notifies the CPU 101 of this data.

次に、表示部200について説明する。   Next, the display unit 200 will be described.

表示部200は、CRTや液晶画面などにより構成されており、コンピュータ100の操作者に対して様々な情報を表示する。   The display unit 200 includes a CRT, a liquid crystal screen, and the like, and displays various information to the operator of the computer 100.

次に、HMD300について説明する。   Next, the HMD 300 will be described.

HMD300は、表示部301、計測対象302、撮像装置303、により構成されている。HMD300は、複合現実感を体験するユーザの頭部に装着される、所謂、頭部装着型表示装置の一例である。なお、本実施形態では、1台のHMD300がコンピュータ100に接続されているが、複数台のHMD300がコンピュータ100に接続されている場合には、後述する各処理を、それぞれのHMD300について行えばよい。   The HMD 300 includes a display unit 301, a measurement target 302, and an imaging device 303. The HMD 300 is an example of a so-called head-mounted display device that is worn on the head of a user who experiences mixed reality. In this embodiment, one HMD 300 is connected to the computer 100. However, when a plurality of HMDs 300 are connected to the computer 100, each process described later may be performed for each HMD 300. .

表示部301は、コンピュータ100から送出された画像(画像生成装置103が生成した合成画像)を表示する為のものであり、HMD300を頭部に装着したユーザの眼前に位置するようにHMD300に取り付けられている。従って、頭部にHMD300を装着したユーザの眼前には、係る合成画像が表示されることになる。   The display unit 301 is for displaying an image sent from the computer 100 (a composite image generated by the image generation apparatus 103), and is attached to the HMD 300 so that the HMD 300 is positioned in front of the user wearing the head. It has been. Therefore, such a composite image is displayed in front of the user wearing the HMD 300 on the head.

計測対象302は、その位置姿勢を、センサ600、センサ制御部500を用いて計測するためにHMD300に対して取り付けられたものである。計測対象302について詳しくは後述する。   The measurement target 302 is attached to the HMD 300 in order to measure its position and orientation using the sensor 600 and the sensor control unit 500. Details of the measurement target 302 will be described later.

撮像装置303は、現実空間の動画像若しくは静止画像を撮像可能なカメラであり、撮像した各フレームの画像(現実空間画像)若しくは静止画像(現実空間画像)は、コンピュータ100が有する画像取込装置107に送出される。   The imaging device 303 is a camera that can capture a moving image or a still image in the real space. The captured image of each frame (real space image) or the still image (real space image) is an image capturing device included in the computer 100. It is sent to 107.

次に、センサ600、センサ制御部500について説明する。   Next, the sensor 600 and the sensor control unit 500 will be described.

計測対象302、センサ600、センサ制御部500はどのようなセンサシステムであっても良いが、その目的とするところは、HMD300の位置姿勢を取得することにある。従って、係る目的を達成することができるのであれば、如何なるセンサシステムを用いても良いし、センサシステム以外の方法で係る目的を達成しても良い。本実施形態では、係るセンサシステムとして、磁気センサシステムを用いる。磁気センサシステムとしては、Polhmus社の磁気センサFastrakを用いることができる。   The measurement target 302, the sensor 600, and the sensor control unit 500 may be any sensor system, but the purpose is to acquire the position and orientation of the HMD 300. Therefore, any sensor system may be used as long as the object can be achieved, and the object may be achieved by a method other than the sensor system. In this embodiment, a magnetic sensor system is used as the sensor system. As a magnetic sensor system, a magnetic sensor Fastrak manufactured by Polhmus can be used.

この場合、センサ600は、磁界の発信源であり、計測対象302は、係る磁界中における自身の位置姿勢に応じた磁気の変化を検知する。係る検知結果はセンサ制御部500に送出される。センサ制御部500は、係る検知結果に基づいて、センサ座標系における計測対象302の位置姿勢情報を求める。センサ座標系とは、センサ600の位置を原点とし、係る原点で互いに直交する3軸をそれぞれ、x軸、y軸、z軸、とする座標系のことである。そしてセンサ制御部500は、求めた位置姿勢情報を、コンピュータ100が有する入力装置106に対して送出する。   In this case, the sensor 600 is a magnetic field transmission source, and the measurement object 302 detects a change in magnetism according to its position and orientation in the magnetic field. The detection result is sent to the sensor control unit 500. The sensor control unit 500 obtains position and orientation information of the measurement target 302 in the sensor coordinate system based on the detection result. The sensor coordinate system is a coordinate system in which the position of the sensor 600 is the origin, and the three axes orthogonal to each other at the origin are the x axis, the y axis, and the z axis. Then, the sensor control unit 500 sends the obtained position and orientation information to the input device 106 included in the computer 100.

また、磁気センサシステム以外のセンサシステムとしては、光学式のものを用いることもできる。この場合、Northern Digital社の光学式センサOPTOTRAK 3020の計測対象302は発光装置によって構成され、センサ制御部500による制御に従って発光する。センサ600は受光装置によって構成され、計測対象302により発せられた光を観測する。センサ制御部500は、係る観測結果に基づいて、計測対象302の位置姿勢情報を求める。   Moreover, as a sensor system other than the magnetic sensor system, an optical system can be used. In this case, the measurement object 302 of the optical sensor OPTOTRAK 3020 of Northern Digital is constituted by a light emitting device and emits light according to control by the sensor control unit 500. The sensor 600 is constituted by a light receiving device, and observes light emitted from the measurement object 302. The sensor control unit 500 obtains position and orientation information of the measurement target 302 based on the observation result.

また、別の光学式のセンサシステムの例として、3rdTech社の光学式センサHiBallの場合、計測対象302は受光装置によって構成され、センサ600は発光装置によって構成される。センサ600は、センサ制御部500による制御に従って発光する。計測対象302は、センサ600により発せられた光を観測する。センサ制御部500は、係る観測結果に基づいて、計測対象302の位置姿勢情報を求める。   As another example of the optical sensor system, in the case of the optical sensor HiBall manufactured by 3rdTech, the measurement object 302 is constituted by a light receiving device, and the sensor 600 is constituted by a light emitting device. The sensor 600 emits light according to control by the sensor control unit 500. The measurement target 302 observes light emitted by the sensor 600. The sensor control unit 500 obtains position and orientation information of the measurement target 302 based on the observation result.

以上説明した様々なセンサシステムの何れを用いても、計測対象302の位置姿勢情報を求めることができる。何れのセンサシステムについても、位置姿勢情報を求めるための仕組みについては周知であるので、これについての説明は省略する。   The position and orientation information of the measurement target 302 can be obtained using any of the various sensor systems described above. Since any sensor system has a well-known mechanism for obtaining position and orientation information, a description thereof will be omitted.

なお、最終的には計測対象302の位置姿勢情報ではなく、撮像装置303の位置姿勢情報を求めるので、計測対象302と撮像装置303との位置姿勢関係(バイアス)は予め求めておく必要がある。係るバイアスのデータはディスク装置105に予め登録しておく。そして、計測対象302の位置姿勢情報を求めると、この位置姿勢情報にバイアスを加えることで、撮像装置303の位置姿勢情報を求めることができる。   Note that since the position and orientation information of the imaging device 303 is finally obtained instead of the position and orientation information of the measurement target 302, the position and orientation relationship (bias) between the measurement target 302 and the imaging device 303 needs to be obtained in advance. . Such bias data is registered in the disk device 105 in advance. When the position / orientation information of the measurement target 302 is obtained, the position / orientation information of the imaging device 303 can be obtained by applying a bias to the position / orientation information.

一方で、センサシステムを用いることなく、以下説明するように、画像処理を用いて撮像装置303の位置姿勢情報を求める方法もある。   On the other hand, there is also a method for obtaining position and orientation information of the imaging device 303 using image processing without using a sensor system, as will be described below.

現実空間中にその配置位置が既知のマーカを配置する。そして、係るマーカを含む現実空間画像を撮像装置303が撮像した場合に、係る現実空間画像からマーカを抽出し、その抽出座標と、既知の配置位置とから、撮像装置303の位置姿勢情報を求める。なお、配置位置が既知のマーカの代わりに、現実空間中における自然特徴を用いても良い。   A marker whose placement position is known is placed in the real space. When the imaging device 303 captures a real space image including the marker, the marker is extracted from the real space image, and the position and orientation information of the imaging device 303 is obtained from the extracted coordinates and the known arrangement position. . Note that natural features in the real space may be used instead of the markers whose arrangement positions are known.

また、撮像装置303にマーカを装着し、このマーカを、現実空間中に配置した撮像装置でもって撮像する。そして、撮像した画像からマーカを抽出し、抽出した座標に基づいて、撮像装置303の位置姿勢情報を求めても良い。   In addition, a marker is attached to the imaging device 303, and the marker is imaged by an imaging device arranged in the real space. Then, a marker may be extracted from the captured image, and the position / orientation information of the imaging device 303 may be obtained based on the extracted coordinates.

また、HMD300を頭部に装着するユーザを撮像装置303によって撮像し、撮像した画像からユーザの自然特徴を抽出し、その抽出座標に基づいて撮像装置303の位置姿勢情報を求めるようにしても良い。   Further, a user wearing the HMD 300 on the head may be imaged by the imaging device 303, the user's natural features may be extracted from the captured image, and the position and orientation information of the imaging device 303 may be obtained based on the extracted coordinates. .

このように、画像処理を用いても、撮像装置303の位置姿勢情報を求めることができる。もちろん、上記センサシステムと上記画像処理とを適宜組み合わせて用いるようにしても良い。   As described above, the position and orientation information of the imaging device 303 can be obtained using image processing. Of course, the sensor system and the image processing may be used in appropriate combination.

本実施形態では、図1に示した構成を有するシステムを用いて現実空間画像上に仮想空間画像を重畳させる場合に、現実空間画像中に被写体として写っている手の領域については仮想空間画像を重畳させないようにする。即ち、上記ハンドオーバーレイ機能を実施する。その際、現実空間画像から手の領域を抽出する必要があるが、本実施形態では、この現実空間画像を撮像したときの撮像装置303の位置姿勢情報に基づいて決まる色情報を用いて、手の領域を抽出する。これは、同じ手でもそれを撮像するときの撮像装置303の位置や姿勢によっては、見える色が異なることに起因する。これにより、従来のように、単一のパラメータ情報を用いた場合よりも、適切な合成画像を生成することができる。特にハンドオーバーレイ機能を用いる場合には、より的確に合成画像を表示し、効果の高いハンドオーバーレイ機能を提供することができる。   In the present embodiment, when a virtual space image is superimposed on a real space image using the system having the configuration shown in FIG. 1, a virtual space image is used for an area of a hand reflected as a subject in the real space image. Avoid overlapping. That is, the hand overlay function is performed. At this time, it is necessary to extract a hand region from the real space image. In this embodiment, the hand information is used by using color information determined based on the position and orientation information of the imaging device 303 when the real space image is captured. Extract the region. This is because the visible color differs depending on the position and orientation of the imaging device 303 when imaging the same hand. As a result, it is possible to generate an appropriate composite image as compared with the case where single parameter information is used as in the prior art. In particular, when the hand overlay function is used, a composite image can be displayed more accurately and a highly effective hand overlay function can be provided.

先ず、実際にユーザに複合現実感を提供する前に、様々な位置姿勢から手を撮像した場合に、その色情報をディスク装置105に登録する処理を行う必要がある。図2は、様々な位置姿勢から手を撮像する様子を示す図である。   First, before actually providing the user with mixed reality, when a hand is imaged from various positions and orientations, it is necessary to perform processing for registering the color information in the disk device 105. FIG. 2 is a diagram illustrating how a hand is imaged from various positions and orientations.

図2に示す如く、現実空間中には蛍光灯や自然光などの光源2001が存在する。図2には光源として光源2001のみしか示していないが実際には複数存在することが多い。従って、手を撮像する撮像位置姿勢を変えると、観察される手の色が変わってしまう可能性が高い。そこで、本実施形態では、図2に示す如く、HMD300を頭部に装着したユーザ2000は様々な位置姿勢に移動し、自身の手を撮像装置303により撮像する。もちろん、それぞれの位置姿勢で撮像した画像における手の色は若干ながら色が異なることが多い。そして、それぞれの画像から抽出した手の領域の色情報と、それぞれの画像の撮像位置姿勢情報とをセットにしてディスク装置105に登録する。   As shown in FIG. 2, a light source 2001 such as a fluorescent lamp or natural light exists in the real space. Although FIG. 2 shows only the light source 2001 as the light source, there are many cases in practice. Therefore, if the imaging position / posture for imaging the hand is changed, the color of the observed hand is likely to change. Therefore, in the present embodiment, as shown in FIG. 2, the user 2000 wearing the HMD 300 on the head moves to various positions and postures and images his / her hand with the imaging device 303. Of course, the colors of the hands in the images taken at the respective positions and postures are often slightly different. Then, the color information of the hand region extracted from each image and the imaging position and orientation information of each image are registered as a set in the disk device 105.

図3は、様々な位置姿勢から撮像装置303によって手を撮像することで複数枚の画像を得た場合に、それぞれの画像から手の色情報と、撮像位置姿勢情報とをセットにしてディスク装置105に登録する処理のフローチャートである。なお、図3に示したフローチャートに従った処理をCPU101に実行させる、若しくは制御させるためのプログラムやデータは、ディスク装置105に保存されている。係るプログラムやデータは、CPU101による制御に従って適宜RAM102にロードされる。そしてCPU101がこのロードされたプログラムやデータを用いて処理を実行、若しくは制御することで、図3に示したフローチャートに従った処理が実現される。   FIG. 3 shows a disk device in which, when a plurality of images are obtained by imaging a hand from various positions and orientations, hand color information and imaging position and orientation information are set from each image. 10 is a flowchart of processing to be registered in 105. Note that a program and data for causing the CPU 101 to execute or control the process according to the flowchart shown in FIG. Such programs and data are appropriately loaded into the RAM 102 under the control of the CPU 101. Then, the CPU 101 executes or controls the process using the loaded program and data, thereby realizing the process according to the flowchart shown in FIG.

先ず、ステップS301では、コンピュータ100全体の初期化処理を行う。係る初期化処理では、以下説明する各処理で用いる様々なプログラムやデータをディスク装置105からRAM102にロードする。もちろん、コンピュータ100以外の機器についても初期化を行う。   First, in step S301, the entire computer 100 is initialized. In the initialization process, various programs and data used in each process described below are loaded from the disk device 105 to the RAM 102. Of course, initialization is also performed for devices other than the computer 100.

次に、頭部にHMD300を装着したユーザが操作入力部400を用いて撮像指示を入力し、画像取込装置107が係る撮像指示を検知すると、ステップS302では、画像取込装置107は、次のような処理を行う。即ち、撮像装置303から送出された1フレーム分の現実空間画像をRAM102に転送(取得)する。   Next, when the user wearing the HMD 300 on the head inputs an imaging instruction using the operation input unit 400 and the image capturing apparatus 107 detects the imaging instruction, in step S302, the image capturing apparatus 107 Perform the following process. That is, the real space image for one frame sent from the imaging device 303 is transferred (acquired) to the RAM 102.

また、入力装置106は、係る撮像指示を検知すると、ステップS303では、入力装置106は、センサ制御部500から送出された位置姿勢情報をRAM102に転送(取得)する。そしてRAM102への位置姿勢情報の取得後、取得した位置姿勢情報に上記バイアスを加えることで、撮像装置303の位置姿勢情報を求めることができる。   Further, when the input device 106 detects such an imaging instruction, the input device 106 transfers (acquires) the position and orientation information sent from the sensor control unit 500 to the RAM 102 in step S303. After the position / orientation information is acquired in the RAM 102, the position / orientation information of the imaging device 303 can be obtained by applying the bias to the acquired position / orientation information.

ここで、上記撮像指示は、操作入力部400を用いて入力することに限定するものではなく、様々な入力方法が考えられる。例えば、ユーザが所定のハンドジェスチャを行った場合に、係るハンドジェスチャを検知すれば、自動的に撮像指示を入力できるようにしても良い。   Here, the imaging instruction is not limited to being input using the operation input unit 400, and various input methods can be considered. For example, when a user performs a predetermined hand gesture, an imaging instruction may be automatically input if such a hand gesture is detected.

次に、ステップS304では、ステップS302でRAM102に転送した現実空間画像中に写っている手の領域を抽出する。そして、抽出した手の領域を構成している各画素の値を、例えば、CrCb平面での分布として記述した上で、色空間の各軸の座標範囲を指定する色情報として求める。なお、手の領域を抽出する方法については様々な方法が考えられる。例えば、現実空間画像中における手の輪郭をエッジ抽出処理等を用いて求めても良いし、現実空間画像を表示部200に表示し、コンピュータ100の操作者が操作入力部400を用いて手の領域を指示しても良い。また、手に仮想空間画像を重ねて表示し、手の実写画像以外の領域に的確に仮想空間画像が重畳されるように色情報を選択してもよい。選択の例としては、例えば、特開2005−107967号公報に開示されているような方法がある。   Next, in step S304, the hand region shown in the real space image transferred to the RAM 102 in step S302 is extracted. Then, the value of each pixel constituting the extracted hand region is described as, for example, a distribution on the CrCb plane, and is obtained as color information specifying the coordinate range of each axis of the color space. There are various methods for extracting the hand region. For example, the contour of the hand in the real space image may be obtained using edge extraction processing or the like, or the real space image is displayed on the display unit 200 and the operator of the computer 100 uses the operation input unit 400 to display the hand. An area may be indicated. Alternatively, the virtual space image may be displayed in a superimposed manner on the hand, and the color information may be selected so that the virtual space image is accurately superimposed on an area other than the real image of the hand. As an example of selection, for example, there is a method as disclosed in JP-A-2005-107967.

次にステップS305では、ステップS303で取得した、撮像装置303の位置姿勢情報と、ステップS304で取得した色情報と、をセットにしてディスク装置105に登録する(記憶保持させる)。   Next, in step S305, the position / orientation information of the imaging device 303 acquired in step S303 and the color information acquired in step S304 are registered as a set and stored in the disk device 105 (stored).

次に、ステップS306では、操作入力部400を用いて本処理の終了指示が入力されたか、何らかの終了条件が満たされたかをチェックする。係るチェックの結果、操作入力部400を用いて本処理の終了指示が入力された、若しくは何らかの終了条件が満たされた場合には本処理を終了する。一方、操作入力部400を用いて本処理の終了指示は入力されていないし、何らかの終了条件も満たされていない場合には、処理をステップS302に戻し、次のセット登録処理を行う。   In step S306, the operation input unit 400 is used to check whether an instruction to end the process is input or whether any end condition is satisfied. As a result of the check, when an instruction to end the process is input using the operation input unit 400, or when any end condition is satisfied, the process ends. On the other hand, if the end instruction of this process is not input using the operation input unit 400 and any end condition is not satisfied, the process returns to step S302 to perform the next set registration process.

これにより、手の撮像を撮像位置姿勢を異ならせて複数回を行うことで得られる複数枚の画像のそれぞれについて、画像内における手の領域内の色情報と、この画像の撮像位置姿勢情報と、をセットにしてディスク装置105に登録することができる。   Thus, for each of a plurality of images obtained by performing the hand imaging a plurality of times with different imaging positions and orientations, the color information in the hand region in the images, the imaging position and orientation information of the images, and , Can be registered in the disk device 105 as a set.

次に、図3のフローチャートに従った処理の後に行う、HMD300を頭部に装着したユーザに、現実空間画像上に仮想空間画像を重畳させた合成画像を、HMD300が有する表示部301を介して提供するための処理について説明する。   Next, a composite image obtained by superimposing the virtual space image on the real space image is displayed to the user wearing the HMD 300 on the head, which is performed after the processing according to the flowchart of FIG. Processing for providing will be described.

図4は、現実空間画像中の手の領域については仮想空間画像を重畳させないように、現実空間画像上に仮想空間画像を重畳させた合成画像を、HMD300が有する表示部301に送出するための処理のフローチャートである。なお、図4に示したフローチャートに従った処理をCPU101に実行させる、若しくは制御させるためのプログラムやデータは、ディスク装置105に保存されている。係るプログラムやデータは、CPU101による制御に従って適宜RAM102にロードされる。そしてCPU101がこのロードされたプログラムやデータを用いて処理を実行、若しくは制御することで、図4に示したフローチャートに従った処理が実現される。   FIG. 4 is a diagram for sending a composite image in which a virtual space image is superimposed on a real space image to the display unit 301 of the HMD 300 so that the virtual space image is not superimposed on the hand region in the real space image. It is a flowchart of a process. Note that programs and data for causing the CPU 101 to execute or control the processing according to the flowchart shown in FIG. 4 are stored in the disk device 105. Such programs and data are appropriately loaded into the RAM 102 under the control of the CPU 101. Then, the CPU 101 executes or controls the process using the loaded program and data, thereby realizing the process according to the flowchart shown in FIG.

ステップS401では、コンピュータ100全体の初期化処理を行う。係る初期化処理では、以下説明する各処理で用いる様々なプログラムやデータをディスク装置105からRAM102にロードする。もちろん、コンピュータ100以外の機器についても初期化を行う。   In step S401, the entire computer 100 is initialized. In the initialization process, various programs and data used in each process described below are loaded from the disk device 105 to the RAM 102. Of course, initialization is also performed for devices other than the computer 100.

次に、ステップS402では、画像取込装置107は、撮像装置303から送出された1フレーム分の現実空間画像をRAM102に転送(第2の取得)する。そしてCPU101はこの転送された現実空間画像に対して、必要に応じて適切な補正処理を行った後、この現実空間画像を、画像生成装置103が有するグラフィックスメモリ上のフレームバッファに転送する。なお、撮像装置303から送出された現実空間画像は、RAM102を介さず、直接上記フレームバッファに転送するようにしても良い。   Next, in step S <b> 402, the image capturing device 107 transfers (second acquisition) the real space image for one frame sent from the imaging device 303 to the RAM 102. Then, the CPU 101 performs an appropriate correction process on the transferred real space image as necessary, and then transfers the real space image to a frame buffer on the graphics memory included in the image generation device 103. Note that the real space image sent from the imaging device 303 may be directly transferred to the frame buffer without going through the RAM 102.

次にステップS403では、入力装置106は、センサ制御部500から送出された位置姿勢情報をRAM102に転送(第1の取得)する。そしてRAM102への位置姿勢情報の取得後、取得した位置姿勢情報に上記バイアスを加えることで、撮像装置303の位置姿勢情報を求める。上述の通り、撮像装置303の位置姿勢情報を取得するための処理には様々な種類があるため、バイアスを加える必要のないものもある。   In step S <b> 403, the input device 106 transfers (first acquisition) the position and orientation information sent from the sensor control unit 500 to the RAM 102. After the position / orientation information is acquired in the RAM 102, the position / orientation information of the imaging device 303 is obtained by applying the bias to the acquired position / orientation information. As described above, since there are various types of processing for acquiring the position and orientation information of the imaging device 303, there are some processes that do not need to be biased.

つぎに、ステップS404では、図3に示したフローチャートに従ってディスク装置105に登録したものとして説明したセット群が、実際にディスク装置105内に登録されているか否かをチェックする。   Next, in step S404, it is checked whether or not the set group described as being registered in the disk device 105 according to the flowchart shown in FIG. 3 is actually registered in the disk device 105.

即ち、図3に示したフローチャートに従った処理を、図4に示したフローチャートに従った処理を行う前に行うことで、上記セット群をディスク装置105内に登録しておくことが好ましい。しかし、本実施形態では、係るセット群がディスク装置105内に登録されていない場合でも対処するようにしている。   That is, it is preferable to register the set group in the disk device 105 by performing the process according to the flowchart shown in FIG. 3 before the process according to the flowchart shown in FIG. However, in the present embodiment, a case where such a set group is not registered in the disk device 105 is dealt with.

ステップS404におけるチェックの結果、登録されている場合には、処理をステップS409に進め、登録されていない場合には処理をステップS405に進める。   If it is registered as a result of the check in step S404, the process proceeds to step S409, and if not registered, the process proceeds to step S405.

ステップS405では、デフォルトの色情報としてディスク装置105内に登録されている色情報を選択する。   In step S405, color information registered in the disk device 105 is selected as default color information.

一方、ステップS409では、上記セット群のうち、ステップS403で取得した撮像装置303の位置姿勢情報に最も近い位置姿勢情報を含むセットを特定(第3の取得)する。ここで、係る特定処理について説明する。厳密には、ステップS403で取得した撮像装置303の位置姿勢情報と全く同じ位置姿勢情報を含むセットを特定できることが好ましいが、実際にはほぼ不可能である。従って、例えば、位置情報だけに着目し、上記セット群のそれぞれのセット中の位置姿勢情報のうちの位置情報のうち、ステップS403で取得した撮像装置303の位置姿勢情報のうちの位置情報との差が最も小さい位置情報を含むセットを特定しても良い。または、姿勢情報だけに着目し、上記セット群のそれぞれのセット中の位置姿勢情報のうちの姿勢情報のうち、ステップS403で取得した撮像装置303の位置姿勢情報のうちの姿勢情報との差が最も小さい姿勢情報を含むセットを特定しても良い。もちろん、位置情報、姿勢情報の両方に着目しても良い。   On the other hand, in step S409, the set including the position and orientation information closest to the position and orientation information of the imaging device 303 acquired in step S403 is identified (third acquisition) from the set group. Here, the specific process will be described. Strictly speaking, it is preferable that a set including the position and orientation information exactly the same as the position and orientation information of the imaging device 303 acquired in step S403 can be specified, but in practice it is almost impossible. Therefore, for example, paying attention only to the position information, out of the position information in the position and orientation information in each set of the set group, the position information in the position and orientation information of the imaging device 303 acquired in step S403. You may identify the set containing the positional information with the smallest difference. Alternatively, focusing only on the posture information, the difference between the posture information in the position and posture information of the imaging device 303 acquired in step S403 out of the posture information in the position and posture information in each set of the set group is the difference. A set including the smallest posture information may be specified. Of course, you may pay attention to both position information and posture information.

そして、特定したセット中の色情報を選択する。   Then, the color information in the specified set is selected.

ここで、ステップS409における処理として別の形態を説明する。上記セット群を作成する場合に、HMD300を頭部に装着するユーザの移動可能な空間を、単位体積毎に分割し、分割空間毎に色情報を収集するようにしておけば、ステップS409における処理は次のようにして行うことができる。即ち、ステップS403で取得した位置情報がどの分割空間に属しているのかを特定できれば、特定した分割空間で収集した色情報を選択するだけでよい。   Here, another form is demonstrated as a process in step S409. When creating the set group, if the space in which the user wearing the HMD 300 is movable is divided into unit volumes and color information is collected for each divided space, the processing in step S409 is performed. Can be done as follows. That is, if it is possible to specify which divided space the position information acquired in step S403 belongs to, it is only necessary to select the color information collected in the specified divided space.

また、上記セット群を作成する場合に、HMD300を頭部に装着するユーザが撮像装置303の姿勢を30度毎に変えて手を撮像し、色情報を収集するようにしておけば、ステップS409における処理は次のようにして行うことができる。例えば、ステップS403で取得した姿勢情報が10度であった場合には、姿勢0度で収集した色情報を選択し、ステップS403で取得した姿勢情報が40度であった場合には、姿勢30度で収集した色情報を選択すれば良い。   If the user who wears the HMD 300 on the head changes the posture of the imaging device 303 every 30 degrees and collects color information when creating the set group, step S409 is performed. The processing in can be performed as follows. For example, when the posture information acquired at step S403 is 10 degrees, the color information collected at the posture 0 degrees is selected, and when the posture information acquired at step S403 is 40 degrees, the posture 30 The color information collected at a time may be selected.

そして次に、ステップS406では、画像生成装置103は、ステップS405,若しくはステップS409で選択した色情報を用いて、ステップS402で取得した現実空間画像中(撮像画像中)における手の領域を検出する。係る検出処理は、例えば、特開2003−296759号公報に開示されているものであり、周知の技術である。   In step S406, the image generation apparatus 103 detects the hand region in the real space image (captured image) acquired in step S402 using the color information selected in step S405 or step S409. . Such detection processing is disclosed in, for example, Japanese Patent Laid-Open No. 2003-296759, and is a well-known technique.

そして次にステップS407では、画像生成装置103は先ず、ステップS403で取得した撮像装置303の位置姿勢情報が示す位置姿勢を有する視点を仮想空間中に設定し、係る視点から見える仮想空間画像を生成する。所定の位置姿勢を有する視点から見た仮想空間画像を生成する処理については周知であるので、これについての説明は省略する。   In step S407, the image generation apparatus 103 first sets a viewpoint having the position and orientation indicated by the position and orientation information of the imaging apparatus 303 acquired in step S403 in the virtual space, and generates a virtual space image that can be seen from the viewpoint. To do. Since processing for generating a virtual space image viewed from a viewpoint having a predetermined position and orientation is well known, description thereof will be omitted.

そして、この生成した仮想空間画像を、ステップS402で取得した現実空間画像上(撮像画像上)に重畳させるのであるが、この重畳の際には、ステップS406で検出した現実空間画像内の領域上には仮想空間画像を重畳させないようにする。仮想空間画像を現実空間画像上に重畳させる処理は、換言すれば、ステップS402でフレームバッファに転送された現実空間画像上に仮想空間画像を描画することである。これにより、フレームバッファ上には、合成画像が生成されることになる。   Then, the generated virtual space image is superimposed on the real space image (captured image) acquired in step S402. In this superposition, the virtual space image is superimposed on the area in the real space image detected in step S406. The virtual space image is not superimposed on the. In other words, the process of superimposing the virtual space image on the real space image is to draw the virtual space image on the real space image transferred to the frame buffer in step S402. As a result, a composite image is generated on the frame buffer.

そして、更に、ステップS407では、係る合成画像を、HMD300が有する表示部301に送出する。   In step S407, the composite image is sent to the display unit 301 included in the HMD 300.

以上説明した処理により、撮像装置303の位置姿勢に応じて見える手の色を考慮して、現実空間画像中における手の領域を検出することができるので、より正確に手の領域を検出することができる。従って、現実空間画像上に仮想空間画像を重畳させる際に、手の領域については仮想空間画像を重畳させない処理を、より正確に行うことができる。   By the processing described above, it is possible to detect the hand region in the real space image in consideration of the hand color that is visible according to the position and orientation of the imaging device 303, so that the hand region can be detected more accurately. Can do. Therefore, when the virtual space image is superimposed on the real space image, the process of not superimposing the virtual space image on the hand region can be performed more accurately.

次に、ステップS408では、操作入力部400を用いて本処理の終了指示が入力されたか、何らかの終了条件が満たされたかをチェックする。係るチェックの結果、操作入力部400を用いて本処理の終了指示が入力された、若しくは何らかの終了条件が満たされた場合には本処理を終了する。一方、操作入力部400を用いて本処理の終了指示は入力されていないし、何らかの終了条件も満たされていない場合には、処理をステップS402に戻し、次のフレームについて処理を行う。   Next, in step S408, it is checked whether an end instruction for this process is input using the operation input unit 400 or whether any end condition is satisfied. As a result of the check, when an instruction to end the process is input using the operation input unit 400, or when any end condition is satisfied, the process ends. On the other hand, if the end instruction of this process is not input using the operation input unit 400 and any end condition is not satisfied, the process returns to step S402 to process the next frame.

以上の説明により、本実施形態によれば、手を観察する撮像装置の位置姿勢が変わることで手に対する照明条件が変化する場合であっても、正確に手の領域を検出することができる。また、従来のように、手に対する照明条件をシミュレートするような、コンピュータに対する負荷の高い処理を行うことなく、正確に手の領域を検出することができる。   As described above, according to the present embodiment, the hand region can be accurately detected even when the illumination condition for the hand changes due to the change in the position and orientation of the imaging apparatus that observes the hand. In addition, as in the prior art, it is possible to accurately detect a hand region without performing a heavy load on the computer, such as simulating lighting conditions for the hand.

[第2の実施形態]
第1の実施形態では、上記セット群をディスク装置105内に登録する場合には、HMD300を頭部に装着したユーザが空間内を移動して行っていた。しかし、係る作業は一人のユーザが行うことに限定するものではなく、複数のユーザが、別のユーザが撮影した画像を用いたり、所謂客観カメラが撮影した画像を用いても良い。
[Second Embodiment]
In the first embodiment, when the set group is registered in the disk device 105, the user wearing the HMD 300 on the head moves in the space. However, such work is not limited to being performed by a single user, and a plurality of users may use images taken by other users or images taken by a so-called objective camera.

また、第1の実施形態では、図3に示したフローチャートに従った処理の後に、図4に示したフローチャートに従った処理を行っていたが、図4に示したフローチャートに従った処理と並行して図3に示したフローチャートに従った処理を行うようにしても良い。   Further, in the first embodiment, the processing according to the flowchart shown in FIG. 4 is performed after the processing according to the flowchart shown in FIG. 3, but in parallel with the processing according to the flowchart shown in FIG. Then, processing according to the flowchart shown in FIG. 3 may be performed.

もちろん、本実施形態で説明した、第1の実施形態の変形例を実施する場合には、第1の実施形態で説明した内容を適宜変更すればよい。   Of course, when implementing the modification of 1st Embodiment demonstrated in this embodiment, what is necessary is just to change suitably the content demonstrated in 1st Embodiment.

更に、第1の実施形態では、ディスク装置105内に登録されているセット群のうち1つを選択する場合には、撮像位置姿勢情報を用いていた。しかし、同じ撮像位置姿勢を示す撮像位置姿勢情報が複数ディスク装置105内に登録されている場合には、運用時の現実空間画像の色分布に基づいて、1つのセットを選択するようにしても良い。   Furthermore, in the first embodiment, when selecting one of the set groups registered in the disk device 105, the imaging position / orientation information is used. However, when imaging position and orientation information indicating the same imaging position and orientation is registered in the plurality of disk devices 105, one set may be selected based on the color distribution of the real space image during operation. good.

なお、第1,2の実施形態では、被写体の一例として手を用いているが、他のものを被写体として用いても、第1,2の実施形態における説明は本質的には変わらない。   In the first and second embodiments, a hand is used as an example of the subject. However, even if another hand is used as the subject, the description in the first and second embodiments is not essentially changed.

[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, an operating system (OS) or the like running on the computer performs part or all of the actual processing based on the instruction of the program code. Needless to say, the process includes the case where the functions of the above-described embodiments are realized.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, it is assumed that the program code read from the recording medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU included in the function expansion card or function expansion unit performs part or all of the actual processing, and the function of the above-described embodiment is realized by the processing. Needless to say.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.

ユーザに複合現実感を提供するための、本発明の第1の実施形態に係るシステムのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the system which concerns on the 1st Embodiment of this invention for providing a user with mixed reality. 様々な位置姿勢から手を撮像する様子を示す図である。It is a figure which shows a mode that a hand is imaged from various position and orientation. 様々な位置姿勢から撮像装置303によって手を撮像することで複数枚の画像を得た場合に、それぞれの画像から手の色情報と、撮像位置姿勢情報とをセットにしてディスク装置105に登録する処理のフローチャートである。When a plurality of images are obtained by imaging the hand from various positions and orientations, the hand color information and the imaging position and orientation information are registered from each image and registered in the disk device 105. It is a flowchart of a process. 現実空間画像中の手の領域については仮想空間画像を重畳させないように、現実空間画像上に仮想空間画像を重畳させた合成画像を、HMD300が有する表示部301に送出するための処理のフローチャートである。In the flowchart of the process for sending a composite image in which the virtual space image is superimposed on the real space image to the display unit 301 of the HMD 300 so that the virtual space image is not superimposed on the hand region in the real space image. is there.

Claims (6)

被写体の撮像を撮像位置姿勢を異ならせて複数回を行うことで得られる複数枚の画像のそれぞれについて、画像内における前記被写体の領域内の色情報と、当該画像の撮像位置姿勢情報と、をセットにして記憶保持する記憶保持手段と、
前記被写体を含む現実空間を撮像する撮像装置の撮像位置姿勢情報を取得する第1の取得手段と、
前記撮像装置が撮像した撮像画像を取得する第2の取得手段と、
前記第1の取得手段が取得した撮像位置姿勢情報に最も近い撮像位置姿勢情報を含むセットを前記記憶保持手段から取得する第3の取得手段と、
前記第3の取得手段が取得したセット中の色情報を用いて、前記第2の取得手段が取得した撮像画像中の前記被写体の領域を特定する特定手段と、
前記第1の取得手段が取得した撮像位置姿勢情報に基づいて仮想空間画像を生成する生成手段と、
前記特定手段が特定した領域上には前記仮想空間画像が重畳されないように、前記第2の取得手段が取得した撮像画像上に、前記仮想空間画像を重畳させる重畳手段と、
前記重畳手段により得られる合成画像を出力する出力手段と
を備えることを特徴とする画像処理装置。
For each of a plurality of images obtained by performing the imaging of the subject a plurality of times with different imaging positions and orientations, color information in the region of the subject in the image and imaging location and orientation information of the images are obtained. Memory holding means for storing and holding as a set;
First acquisition means for acquiring imaging position and orientation information of an imaging device that images a real space including the subject;
Second acquisition means for acquiring a captured image captured by the imaging device;
Third acquisition means for acquiring from the storage holding means a set including imaging position and orientation information closest to the imaging position and orientation information acquired by the first acquisition means;
Specifying means for specifying the area of the subject in the captured image acquired by the second acquisition means using the color information in the set acquired by the third acquisition means;
Generating means for generating a virtual space image based on the imaging position and orientation information acquired by the first acquisition means;
Superimposing means for superimposing the virtual space image on the captured image acquired by the second acquisition means so that the virtual space image is not superimposed on the area specified by the specifying means;
An image processing apparatus comprising: output means for outputting a composite image obtained by the superimposing means.
前記第3の取得手段は、前記記憶保持手段が記憶保持しているセット群のそれぞれのセット中の位置姿勢情報のうちの位置情報のうち、前記第1の取得手段が取得した撮像位置姿勢情報のうちの位置情報との差が最も小さい位置情報を含むセットを特定し、取得することを特徴とする請求項1に記載の画像処理装置。   The third acquisition unit is the imaging position / orientation information acquired by the first acquisition unit among the position information of the position / orientation information in each set of the set group stored and held by the storage / holding unit. The image processing apparatus according to claim 1, wherein a set including position information having the smallest difference from the position information is identified and acquired. 前記第3の取得手段は、前記記憶保持手段が記憶保持しているセット群のそれぞれのセット中の位置姿勢情報のうちの姿勢情報のうち、前記第1の取得手段が取得した撮像位置姿勢情報のうちの姿勢情報との差が最も小さい姿勢情報を含むセットを特定し、取得することを特徴とする請求項1に記載の画像処理装置。   The third acquisition unit is the imaging position / orientation information acquired by the first acquisition unit among the posture information of the position / orientation information in each set of the set group stored and held by the storage / holding unit. The image processing apparatus according to claim 1, wherein a set including posture information having the smallest difference from the posture information is identified and acquired. 被写体の撮像を撮像位置姿勢を異ならせて複数回を行うことで得られる複数枚の画像のそれぞれについて、画像内における前記被写体の領域内の色情報と、当該画像の撮像位置姿勢情報と、をセットにしてメモリに記憶保持している画像処理装置が行う画像処理方法であって、
前記被写体を含む現実空間を撮像する撮像装置の撮像位置姿勢情報を取得する第1の取得工程と、
前記撮像装置が撮像した撮像画像を取得する第2の取得工程と、
前記第1の取得工程で取得した撮像位置姿勢情報に最も近い撮像位置姿勢情報を含むセットを前記メモリから取得する第3の取得工程と、
前記第3の取得工程で取得したセット中の色情報を用いて、前記第2の取得工程で取得した撮像画像中の前記被写体の領域を特定する特定工程と、
前記第1の取得工程で取得した撮像位置姿勢情報に基づいて仮想空間画像を生成する生成工程と、
前記特定工程で特定した領域上には前記仮想空間画像が重畳されないように、前記第2の取得工程で取得した撮像画像上に、前記仮想空間画像を重畳させる重畳工程と、
前記重畳工程で得られる合成画像を出力する出力工程と
を備えることを特徴とする画像処理方法。
For each of a plurality of images obtained by performing the imaging of the subject a plurality of times with different imaging positions and orientations, color information in the region of the subject in the image and imaging location and orientation information of the images are obtained. An image processing method performed by an image processing apparatus stored in a memory as a set,
A first acquisition step of acquiring imaging position and orientation information of an imaging apparatus that images the real space including the subject;
A second acquisition step of acquiring a captured image captured by the imaging device;
A third acquisition step of acquiring from the memory a set including imaging position and orientation information closest to the imaging position and orientation information acquired in the first acquisition step;
Using the color information in the set acquired in the third acquisition step, a specifying step for specifying the region of the subject in the captured image acquired in the second acquisition step;
A generation step of generating a virtual space image based on the imaging position and orientation information acquired in the first acquisition step;
A superimposing step of superimposing the virtual space image on the captured image acquired in the second acquisition step so that the virtual space image is not superimposed on the region specified in the specifying step;
And an output step of outputting a composite image obtained in the superimposing step.
コンピュータに請求項4に記載の画像処理方法を実行させるためのプログラム。   A program for causing a computer to execute the image processing method according to claim 4. 請求項5に記載のプログラムを格納した、コンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 5.
JP2007177554A 2007-07-05 2007-07-05 Image processing apparatus and image processing method Withdrawn JP2009015648A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007177554A JP2009015648A (en) 2007-07-05 2007-07-05 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007177554A JP2009015648A (en) 2007-07-05 2007-07-05 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2009015648A true JP2009015648A (en) 2009-01-22

Family

ID=40356469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007177554A Withdrawn JP2009015648A (en) 2007-07-05 2007-07-05 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2009015648A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011145429A1 (en) 2010-05-17 2011-11-24 株式会社エヌ・ティ・ティ・ドコモ Object displaying apparatus, object displaying system, and object displaying method
JP2015153169A (en) * 2014-02-14 2015-08-24 富士通株式会社 Terminal apparatus, information processing apparatus, display control method, and display control program
JP2016218905A (en) * 2015-05-25 2016-12-22 キヤノン株式会社 Information processing device, information processing method and program
JP2024099636A (en) * 2017-12-22 2024-07-25 マジック リープ, インコーポレイテッド Methods and systems for managing and displaying virtual content in mixed reality system
US12347048B2 (en) 2017-05-01 2025-07-01 Magic Leap, Inc. Matching content to a spatial 3D environment

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011145429A1 (en) 2010-05-17 2011-11-24 株式会社エヌ・ティ・ティ・ドコモ Object displaying apparatus, object displaying system, and object displaying method
JP2015153169A (en) * 2014-02-14 2015-08-24 富士通株式会社 Terminal apparatus, information processing apparatus, display control method, and display control program
JP2016218905A (en) * 2015-05-25 2016-12-22 キヤノン株式会社 Information processing device, information processing method and program
US12347048B2 (en) 2017-05-01 2025-07-01 Magic Leap, Inc. Matching content to a spatial 3D environment
JP2024099636A (en) * 2017-12-22 2024-07-25 マジック リープ, インコーポレイテッド Methods and systems for managing and displaying virtual content in mixed reality system
JP7719232B2 (en) 2017-12-22 2025-08-05 マジック リープ, インコーポレイテッド Method and system for managing and displaying virtual content in a mixed reality system

Similar Documents

Publication Publication Date Title
JP4227561B2 (en) Image processing method and image processing apparatus
US7808450B2 (en) Image processing method and image processing apparatus
JP4537104B2 (en) Marker detection method, marker detection device, position and orientation estimation method, and mixed reality space presentation method
JP4810295B2 (en) Information processing apparatus and control method therefor, image processing apparatus, program, and storage medium
JP4401727B2 (en) Image display apparatus and method
JP4065507B2 (en) Information presentation apparatus and information processing method
EP1404126B1 (en) Video combining apparatus and method
JP4434890B2 (en) Image composition method and apparatus
US8207909B2 (en) Image processing apparatus and image processing method
US20170315364A1 (en) Virtual object display device, method, program, and system
US7965304B2 (en) Image processing method and image processing apparatus
CN112166397B (en) Apparatus, system and method for accelerating position tracking of head mounted displays
JP2005165848A (en) Mixed reality presentation method and apparatus
JP4677281B2 (en) Image processing method and image processing apparatus
JP2009015648A (en) Image processing apparatus and image processing method
JP4889036B2 (en) Image processing apparatus and image processing method
US7379060B2 (en) Image processing method and image processing apparatus
JP2005339377A (en) Image processing method and image processing apparatus
JP2006285609A (en) Image processing method and image processing apparatus
JP2006267879A (en) Image processing method, image processing apparatus, marker
JP2007233971A (en) Image composition method and apparatus
JP4217661B2 (en) Image processing method and image processing apparatus
JP2007128494A (en) Information processor and information processing method
JP2008146108A (en) Index, image processing apparatus, and image processing method
JP4745724B2 (en) Image processing method and image processing apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100907