[go: up one dir, main page]

JP2010072922A - Image generation device, method, and program - Google Patents

Image generation device, method, and program Download PDF

Info

Publication number
JP2010072922A
JP2010072922A JP2008239298A JP2008239298A JP2010072922A JP 2010072922 A JP2010072922 A JP 2010072922A JP 2008239298 A JP2008239298 A JP 2008239298A JP 2008239298 A JP2008239298 A JP 2008239298A JP 2010072922 A JP2010072922 A JP 2010072922A
Authority
JP
Japan
Prior art keywords
local region
image
local
output image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008239298A
Other languages
Japanese (ja)
Other versions
JP4983757B2 (en
Inventor
Shigeyuki Sakasawa
茂之 酒澤
Akio Ishikawa
彰夫 石川
Atsushi Koike
淳 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2008239298A priority Critical patent/JP4983757B2/en
Publication of JP2010072922A publication Critical patent/JP2010072922A/en
Application granted granted Critical
Publication of JP4983757B2 publication Critical patent/JP4983757B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)

Abstract

【課題】局所領域の光線空間データに基づき、指定された視点から見た画像であって、不必要な被写体を除去した画像を生成する画像生成装置を提供する。
【解決手段】空間を分割した各局所領域の光線空間データに基づき画像を生成する画像生成装置であり、指定された視点及び画角に基づき、生成する画像に含まれる局所領域である第1の局所領域を判定し、これにより描画手段は、出力画像を生成し、該出力画像の画素と、該画素の生成に使用した光線空間データの局所領域との対応関係を示す対応関係情報を作成する。その後、除去位置入力手段により出力画像の画素が指定された場合、指定された出力画像の画素に対応する第2の局所領域を判定し、描画手段は、第1の局所領域から第2の局所領域を除外して出力画像を再描画する。
【選択図】図1
An image generation apparatus is provided that generates an image viewed from a specified viewpoint, from which unnecessary subjects are removed, based on ray space data of a local region.
An image generation apparatus that generates an image based on ray space data of each local region obtained by dividing a space, and is a first local region included in the image to be generated based on a specified viewpoint and angle of view. The local area is determined, and thereby the drawing means generates an output image, and creates correspondence information indicating the correspondence between the pixel of the output image and the local area of the light space data used for generating the pixel. . Thereafter, when a pixel of the output image is designated by the removal position input means, a second local area corresponding to the designated pixel of the output image is determined, and the drawing means determines the second local area from the first local area. Redraw the output image excluding the region.
[Selection] Figure 1

Description

本発明は、自由視点画像生成技術に関し、より詳しくは、空間を複数の局所領域に分割し、局所領域毎に光線空間を構築して自由視点画像を生成する画像生成技術に関する。   The present invention relates to a free viewpoint image generation technique, and more particularly, to an image generation technique for generating a free viewpoint image by dividing a space into a plurality of local areas and constructing a ray space for each local area.

複数のカメラで撮影した動画像から、任意の位置における画像を再現する自由視点画像生成技術について様々な提案がなされている。(例えば、特許文献1、非特許文献1及び非特許文献2、参照。)。   Various proposals have been made on a free viewpoint image generation technique for reproducing an image at an arbitrary position from moving images taken by a plurality of cameras. (For example, see Patent Document 1, Non-Patent Document 1, and Non-Patent Document 2,).

上記、従来技術における方法は、イメージ・ベースド・レンダリングと呼ばれるものであり、複数のカメラで撮影した画像から光線空間を構築し、この光線空間に基づき、任意の位置から見たときの画像を補間処理により生成するものである。ここで、光線空間を構築するとは、ある面を通過する光線を適当な座標軸を使用して表し、この座標空間の座標として表現される光線と、この光線により生じる画像の画素値を対応付けることを言う。なお、座標空間の総ての座標に対して画素値のデータをあらかじめ用意しておくことは現実的ではなく、通常は、アプリケーション等に応じて決定される適当な数の座標についてのみ画素値のデータを用意しておく。   The above-described method in the prior art is called image-based rendering. A light space is constructed from images taken by a plurality of cameras, and an image viewed from an arbitrary position is interpolated based on the light space. It is generated by processing. Here, constructing a ray space means that rays passing through a certain surface are represented using appropriate coordinate axes, and rays represented as coordinates in this coordinate space are associated with pixel values of an image generated by the rays. To tell. Note that it is not realistic to prepare pixel value data in advance for all coordinates in the coordinate space. Normally, the pixel value is set only for an appropriate number of coordinates determined according to the application or the like. Prepare the data.

ここで、特許文献1には、被写体が存在する領域を、複数の局所領域に分割し、この局所領域毎に光線空間を構築して自由視点画像を生成する技術が記載されている。特許文献1によると、まず、複数のカメラが撮影した画像に基づき、各局所領域の光線空間データを作成する。ここで、局所領域の光線空間データとは、この局所領域の境界面を通過する光線と、その光線に対応する画素値を特定するデータである。例えば、図2に示す例においては、空間を局所領域sa1からsa10に分割しており、画像生成装置は、点線で表した局所領域それぞれの光線空間データを保持している。なお、図2において、符号10から13は被写体を表している。   Here, Patent Document 1 describes a technique for dividing a region where a subject exists into a plurality of local regions and constructing a light space for each local region to generate a free viewpoint image. According to Patent Literature 1, first, light space data of each local region is created based on images taken by a plurality of cameras. Here, the ray space data of the local region is data for specifying a ray passing through the boundary surface of the local region and a pixel value corresponding to the ray. For example, in the example shown in FIG. 2, the space is divided into local areas sa1 to sa10, and the image generation apparatus holds the light space data of each local area represented by a dotted line. In FIG. 2, reference numerals 10 to 13 denote subjects.

特許文献1に記載の画像生成装置は、視点位置が指定された場合、まず、この位置から見て一番奥に位置する局所領域の光線空間データに基づき画像を生成し、その後、一つ手前にある局所領域の光線空間データに基づき画像を上書きすることを繰り返すことで、自由視点画像を生成している。例えば、指定された視点が符号20の位置であり、生成する画像の範囲が線21及び22の間とすると、特許文献1による画像生成装置は、まず、画像の範囲にある局所領域sa1、sa2及びsa3の光線空間データに基づき画像を生成し、つぎに、局所領域sa5及びsa6の光線空間データで、先に生成した画像を上書きし、最後に、局所領域sa9の光線空間データでさらに上書きすることにより画像を生成している。   When the viewpoint position is designated, the image generation apparatus described in Patent Document 1 first generates an image based on the ray space data of the local region located at the backmost position when viewed from this position, and then one before The free viewpoint image is generated by repeatedly overwriting the image based on the ray space data of the local region in FIG. For example, if the designated viewpoint is the position of reference numeral 20 and the range of the image to be generated is between the lines 21 and 22, the image generating apparatus according to Patent Document 1 firstly local regions sa1 and sa2 in the range of the image. And sa3 based on the ray space data, and then overwriting the previously generated image with the ray space data of the local regions sa5 and sa6, and finally overwriting with the ray space data of the local region sa9. Thus, an image is generated.

特開2008−15756号公報JP 2008-15756 A Takeshi Naemura、et al.、“Ray−Based Creation of Photo−Realistic Virtual World”、VSMM97、pp.59−62、1997年9月Takeshi Naemura, et al. "Ray-Based Creation of Photo-Realistic Virtual World", VSMM97, pp. 59-62, September 1997 Michael Droese、et al.、“Ray−Space Interpolation based on Filtering in Disparity Domain”、Proc. of 3D Image Conference 2004、pp.29−30、2004年Michael Drose, et al. “Ray-Space Interpolation based on Filtering in Disparity Domain”, Proc. of 3D Image Conference 2004, pp. 29-30, 2004

ここで、視点20から見た画像において、被写体11の一部は、被写体10により見えなくなっている。被写体11全体を、画像に表示したい場合、視点位置を、被写体10と被写体11の間に設定する必要がある。しかしながら、得られる画像は、被写体11にかなり近づいたものとなり、画角が固定的であり変更できない場合、被写体11と被写体10との距離と、被写体11の大きさによっては、被写体11全体を1つの画像に表示できなくなってしまう。また、画角が設定可能である場合には、より広角な画像、つまり、線21及び22の角度を広げることにより、被写体11全体を1つの画像に表示することが可能であるが、設定可能な画角に制限が生じることになる。   Here, in the image viewed from the viewpoint 20, a part of the subject 11 is not visible by the subject 10. When the entire subject 11 is to be displayed on the image, the viewpoint position needs to be set between the subject 10 and the subject 11. However, the obtained image is very close to the subject 11, and when the angle of view is fixed and cannot be changed, the entire subject 11 is 1 depending on the distance between the subject 11 and the subject 10 and the size of the subject 11. Cannot be displayed on one image. In addition, when the angle of view can be set, it is possible to display the entire subject 11 in a single image by widening the image, that is, by increasing the angles of the lines 21 and 22. This will limit the angle of view.

これに対して、任意の視点位置から見た、任意の画角の画像であり、かつ、邪魔な被写体を取り除いた場合の画像を生成して表示したい場合が存在する。したがって、本発明は、局所領域の光線空間データに基づき、指定された視点から見た画像であって、不必要な被写体を除去した画像を生成する画像生成装置、方法及びプログラムを提供することを目的とする。   On the other hand, there is a case where it is desired to generate and display an image of an arbitrary angle of view viewed from an arbitrary viewpoint position and an obstructed subject removed. Therefore, the present invention provides an image generation apparatus, method, and program for generating an image viewed from a specified viewpoint, from which unnecessary subjects are removed, based on the ray space data of the local region. Objective.

本発明における画像生成装置によれば、
空間を複数の局所領域に分割し、各局所領域の光線空間データに基づき画像を生成する画像生成装置であって、指定された視点及び画角に基づき、生成する出力画像に含まれる局所領域である第1の局所領域を判定する局所領域判定手段と、指定された視点及び画角、並びに、第1の局所領域に基づき出力画像を生成し、該出力画像の画素と、該画素の生成に使用した光線空間データの局所領域との対応関係を示す対応関係情報を作成する描画手段と、出力画像の画素を指定するための除去位置入力手段と、除外局所領域判定手段と、を備えており、除去位置入力手段により出力画像の画素が指定された場合、除外局所領域判定手段は、対応関係情報に基づき指定された出力画像の画素に対応する局所領域である第2の局所領域を判定し、描画手段は、第1の局所領域から第2の局所領域を除外して出力画像を再描画することを特徴とする。
According to the image generation apparatus of the present invention,
An image generation device that divides a space into a plurality of local regions and generates an image based on ray space data of each local region, and includes local regions included in an output image to be generated based on a specified viewpoint and angle of view. A local area determination means for determining a certain first local area, a specified viewpoint and angle of view, and an output image based on the first local area, and a pixel of the output image and generation of the pixel A drawing unit that creates correspondence information indicating a correspondence relationship with the local region of the used light space data, a removal position input unit for designating a pixel of the output image, and an excluded local region determination unit. When the pixel of the output image is specified by the removal position input means, the excluded local area determination means determines a second local area that is a local area corresponding to the specified pixel of the output image based on the correspondence information. Drawing Means, characterized in that the first local region by excluding the second local region redrawing output image.

本発明の画像生成装置における他の実施形態によれば、
描画手段は、第1の局所領域のうち、指定された視点から見て一番奥にある局所領域に基づき描画した画像を、1つ手前の局所領域の光線空間データに基づき上書きすることを、指定された視点から見て一番手前にある局所領域まで、順次繰り返すことにより出力画像を生成することも好ましい。
According to another embodiment of the image generation apparatus of the present invention,
The drawing means overwrites the image drawn based on the local area farthest from the specified viewpoint among the first local areas based on the ray space data of the previous local area, It is also preferable to generate an output image by sequentially repeating a local region that is closest to the designated viewpoint.

また、本発明の画像生成装置における他の実施形態によれば、
前記空間に存在する被写体と、各局所領域の光線空間データとの対応関係を示すモデルデータを保持しており、除外局所領域判定手段は、除去位置入力手段により指定された出力画像の画素に対応する局所領域の光線空間データに基づき、指定された出力画像の画素に対応する被写体を判定し、この被写体が存在する総ての局所領域を第2の局所領域とすることも好ましい。
According to another embodiment of the image generation apparatus of the present invention,
The model data indicating the correspondence between the subject existing in the space and the ray space data of each local region is held, and the excluded local region determination unit corresponds to the pixel of the output image specified by the removal position input unit. It is also preferable to determine the subject corresponding to the pixel of the designated output image based on the ray space data of the local region to be used, and to set all local regions where the subject exists as the second local region.

本発明におけるプログラムによれば、
前記画像生成装置としてコンピュータを機能させることを特徴とする。
According to the program of the present invention,
A computer is caused to function as the image generation apparatus.

本発明における画像生成方法によれば、
空間を複数の局所領域に分割し、各局所領域の光線空間データに基づき画像を生成する画像生成装置における画像生成方法であって、指定された視点及び画角に基づき、生成する出力画像に含まれる局所領域である第1の局所領域を判定するステップと、指定された視点及び画角、並びに、第1の局所領域に基づき出力画像を生成するステップと、生成した出力画像の画素と、該画素の生成に使用した光線空間データの局所領域との対応関係を示す対応関係情報を作成するステップと、出力画像の画素の指定を受けるステップと、対応関係情報に基づき、前記指定された出力画像の画素に対応する局所領域である第2の局所領域を判定するステップと、第1の局所領域から第2の局所領域を除外して出力画像を再描画するステップとを備えていることを特徴とする。
According to the image generation method of the present invention,
An image generation method in an image generation apparatus that divides a space into a plurality of local regions and generates an image based on ray space data of each local region, and is included in an output image to be generated based on a specified viewpoint and angle of view A first local region that is a local region to be generated, a step of generating an output image based on the specified viewpoint and angle of view, and the first local region, a pixel of the generated output image, A step of creating correspondence information indicating a correspondence relationship with the local region of the light space data used for pixel generation, a step of receiving designation of a pixel of the output image, and the designated output image based on the correspondence information Determining a second local region that is a local region corresponding to the pixel of the first pixel, and redrawing the output image by excluding the second local region from the first local region. And wherein the Rukoto.

任意の視点位置から見た、任意の画角の画像であり、かつ、邪魔な被写体を取り除いた場合の画像を生成して表示することが可能になる。   It is possible to generate and display an image of an arbitrary angle of view viewed from an arbitrary viewpoint position and an obstructing subject removed.

本発明を実施するための最良の実施形態について、以下では図面を用いて詳細に説明する。図1は、本発明による画像生成装置の簡略化した機能ブロック図である。図1によると、画像生成装置は、視点・画角入力部1と、局所領域選択部2と、描画処理部3と、画像表示部4と、除去位置入力部5と、除去局所領域判定部6と、データベース部7とを備えている。   The best mode for carrying out the present invention will be described in detail below with reference to the drawings. FIG. 1 is a simplified functional block diagram of an image generating apparatus according to the present invention. According to FIG. 1, the image generation apparatus includes a viewpoint / view angle input unit 1, a local region selection unit 2, a drawing processing unit 3, an image display unit 4, a removal position input unit 5, and a removal local region determination unit. 6 and a database unit 7.

データベース部7は、各局所領域の光線空間データと、モデルデータを保持するデータベースであり、光線空間データは、特許文献1に記載の様に、局所領域の境界面を通過する光線と、その光線に対応する画素値を特定するデータである。また、モデルデータとは、光線空間を構築するために撮影した複数の画像に基づき生成されるものであり、撮影した各画像の画素の実空間における位置の連続性から被写体が存在する領域を特定し、この被写体が存在する領域と、各局所領域の光線空間データとの対応関係を示すデータである。モデルデータは、特許文献1に記載の様に、複数のカメラで被写体を撮影する場合において、例えば、各カメラのカメラパラメータ及び撮影した画像の対応する画素の視差から算出できるものである。以下に、本発明による画像生成装置の動作を説明する。   The database unit 7 is a database that stores ray space data and model data of each local region. As described in Patent Document 1, the ray space data includes rays that pass through the boundary surface of the local region, and the rays. Is data for specifying a pixel value corresponding to. Model data is generated based on multiple images taken to construct a ray space, and the area where the subject exists is identified from the continuity of the positions of the pixels of each shot image in the real space. The data shows the correspondence between the area where the subject exists and the light space data of each local area. The model data can be calculated from, for example, the camera parameters of each camera and the parallax of the corresponding pixel of the photographed image when photographing a subject with a plurality of cameras, as described in Patent Document 1. The operation of the image generation apparatus according to the present invention will be described below.

視点・画角入力部1は、表示したい画像の視点及び画角を利用者に入力させるためのユーザインタフェースであり、利用者が指定した視点及び画角を局所領域選択部2に出力する。なお、視点とは位置及び方角で特定される値である。局所領域選択部2は、利用者が指定した視点及び画角に基づき画像の描画に必要な局所領域を選択する。例えば、図2の状態において、視点20と、直線21と22の間の範囲に対応する画角が指定された場合、局所領域選択部2は、局所領域sa1、sa2、sa3、sa5、sa6及びsa9を必要な局所領域と判定し、これら局所領域と、利用者が指定した視点及び画角を描画処理部3に出力する。   The viewpoint / view angle input unit 1 is a user interface for allowing the user to input the viewpoint and the view angle of the image to be displayed, and outputs the viewpoint and the view angle designated by the user to the local region selection unit 2. The viewpoint is a value specified by the position and direction. The local area selection unit 2 selects a local area necessary for drawing an image based on the viewpoint and the angle of view specified by the user. For example, in the state shown in FIG. 2, when the angle of view corresponding to the viewpoint 20 and the range between the straight lines 21 and 22 is designated, the local region selection unit 2 selects the local regions sa1, sa2, sa3, sa5, sa6 and Sa9 is determined as a necessary local area, and the local area, the viewpoint and the angle of view designated by the user are output to the drawing processing unit 3.

描画処理部3は、利用者が指定した視点及び画角と、データベース部7に保存されているデータのうち、局所領域選択部2が選択した局所領域の光線空間データに基づき画像を生成する。より具体的には、視点から見て一番奥の局所領域である局所領域sa1、sa2及びsa3の光線空間データから、視点20に向かう光線を選択し、選択した光線に基づき画像を生成し、つぎに一つ手前にある局所領域sa5及びsa6の光線空間データから、視点20に向かう光線を選択して先に生成した画像を上書きし、最後に、さらに一つ手前にある局所領域sa9の光線空間データで同様に上書きすることにより画像を生成する。   The drawing processing unit 3 generates an image based on the viewpoint and angle of view specified by the user and the light space data of the local region selected by the local region selecting unit 2 among the data stored in the database unit 7. More specifically, from the ray space data of the local regions sa1, sa2, and sa3 that are the deepest local regions when viewed from the viewpoint, a light ray directed to the viewpoint 20 is selected, and an image is generated based on the selected light ray. Next, from the ray space data of the local regions sa5 and sa6 that are one step ahead, the light beam that is directed to the viewpoint 20 is selected and overwritten with the previously generated image, and finally, the light ray of the local region sa9 that is one step ahead. Similarly, an image is generated by overwriting with spatial data.

なお、本発明において上書きとは、ある局所領域の光線空間データに基づく画素値が、既に生成した画像の画素値と異なる場合に、このある局所領域の光線空間データにより、当該画素値を変更することを言う。図3は、本発明において使用する上書きの意味を説明する図である。なお、図3は、図を見易くするために図2の局所領域の表示を削除したものである。例えば、被写体13から視点20に向かう光線30は、局所領域sa3、sa6、sa9の総ての光線空間データにおいて同一値であり、この場合、描画処理部3は、上書きを行わず、この光線30による画素は、局所領域sa3の光線空間データにより生成されたものと認識する。   In the present invention, overwriting means that when a pixel value based on ray space data of a certain local region is different from a pixel value of an already generated image, the pixel value is changed by the ray space data of this certain local region. Say that. FIG. 3 is a diagram for explaining the meaning of overwriting used in the present invention. Note that FIG. 3 is obtained by deleting the display of the local region of FIG. 2 in order to make the drawing easier to see. For example, the light ray 30 from the subject 13 toward the viewpoint 20 has the same value in all the light space data of the local areas sa3, sa6, and sa9. In this case, the drawing processing unit 3 does not perform overwriting, and this light ray 30 The pixel by is recognized as being generated by the light space data of the local region sa3.

一方、被写体11から視点20に向かう光線は、被写体10により遮られ、代わりに、被写体10からの光線が視点20に到達することになる。描画処理部3は、局所領域sa5を処理したときには、光線31に基づく画素の画素値として、被写体11から出た光線による値を使用しているが、局所領域sa9を処理するときに、局所領域sa5の光線空間データにおける光線31の画素値と、局所領域sa9の光線空間データにおける光線31の画素値が異なることを認識し、よって、局所領域sa9の光線空間データにより、光線31に対応する画素の画素値を上書きする。これにより、描画処理部3は、光線31による画素は、局所領域sa9の光線空間データにより生成されたものと認識する。   On the other hand, the light beam traveling from the subject 11 to the viewpoint 20 is blocked by the subject 10, and instead, the light beam from the subject 10 reaches the viewpoint 20. The drawing processing unit 3 uses the value of the light beam emitted from the subject 11 as the pixel value of the pixel based on the light beam 31 when the local region sa5 is processed, but when processing the local region sa9, Recognizing that the pixel value of the ray 31 in the ray space data of sa5 and the pixel value of the ray 31 in the ray space data of the local region sa9 are different, and accordingly, the pixel corresponding to the ray 31 by the ray space data of the local region sa9. Overwrite the pixel value of. Thereby, the drawing processing unit 3 recognizes that the pixel by the light ray 31 is generated by the light space data of the local region sa9.

以上の様に、描画処理部3は、生成した画像の各画素の画素値が、どの局所領域の光線空間データにより生成されたものかを示す対応関係情報を生成し、生成した画像と、この対応関係情報を除外局所領域判定部6に出力する。また、生成した画像については、例えばディスプレイに表示するため画像表示部4に出力する。   As described above, the drawing processing unit 3 generates correspondence information indicating which local region is generated by the ray space data of the pixel value of each pixel of the generated image. The correspondence information is output to the excluded local region determination unit 6. The generated image is output to the image display unit 4 for display on a display, for example.

利用者が、画像表示部4によりディスプレイに表示された画像を見て、例えば、図2の被写体10を除去した画像を表示したいと考えたものとする。この場合、利用者は、除去位置入力部5を用いて、除去したい被写体10を指定する。より具体的には、除去位置入力部5は、例えば、ポインティング・デバイスであり、利用者は、ディスプレイに表示されているカーソルを被写体10が表示されている位置に動かして、被写体10の除去を除去位置入力部5に入力し、除去位置入力部5は、このときカーソルが位置している画素を特定する情報を除外局所領域判定部6に出力する。   It is assumed that the user wants to display an image from which the subject 10 in FIG. 2 is removed by viewing the image displayed on the display by the image display unit 4. In this case, the user designates the subject 10 to be removed using the removal position input unit 5. More specifically, the removal position input unit 5 is, for example, a pointing device, and the user moves the cursor displayed on the display to a position where the subject 10 is displayed to remove the subject 10. This is input to the removal position input unit 5, and the removal position input unit 5 outputs information specifying the pixel where the cursor is located at this time to the excluded local region determination unit 6.

除外局所領域判定部6は、除去位置入力部5から出力された画素が、どの局所領域のものであるかを、対応関係情報に基づき判定する。続いて、判定した局所領域が、視点から見て最も奥に位置する局所領域であれば、除去不可であるためエラーとして描画処理部3に通知し、描画処理部3は、エラーを画像表示部4によりディスプレイに表示させる。   The excluded local region determination unit 6 determines which local region the pixel output from the removal position input unit 5 belongs to based on the correspondence information. Subsequently, if the determined local region is the local region located farthest from the viewpoint, the drawing processing unit 3 notifies the drawing processing unit 3 as an error because it cannot be removed, and the drawing processing unit 3 reports the error to the image display unit. 4 is displayed on the display.

一方、判定した局所領域が、視点から見て最も奥に位置する局所領域ではなく、何らかの被写体に対応するものである場合、除外局所領域判定部6は、判定した局所領域を描画処理部3に通知する。描画処理部3は、除外局所領域判定部6から局所領域の通知を受けた場合、局所領域選択部2が選択した局所領域から、この通知を受けた局所領域を除外して画像の再描画を行う。つまり、例えば、利用者が被写体10の画素を指定した場合、除外局所領域判定部6は、局所領域sa9を描画処理部3に通知し、描画処理部3は、これにより、最初の描画の際に使用した局所領域sa1、sa2、sa3、sa5、sa6及びsa9のうち、局所領域sa9を除外し、再度、視点20からの画像の生成を行う。これにより、被写体10を除去した画像が生成される。   On the other hand, when the determined local area is not the local area located farthest from the viewpoint, but corresponds to some subject, the excluded local area determination unit 6 sends the determined local area to the drawing processing unit 3. Notice. When the drawing processing unit 3 receives the notification of the local region from the excluded local region determination unit 6, the drawing processing unit 3 excludes the received local region from the local region selected by the local region selection unit 2 and redraws the image. Do. That is, for example, when the user designates the pixel of the subject 10, the excluded local region determination unit 6 notifies the drawing processing unit 3 of the local region sa9, and the drawing processing unit 3 thereby performs the first drawing. The local region sa9 is excluded from the local regions sa1, sa2, sa3, sa5, sa6, and sa9 used in the above, and an image from the viewpoint 20 is generated again. Thereby, an image from which the subject 10 is removed is generated.

また、描画処理部3は、新たに生成した画像を表示するため画像表示部4に出力すると共に、新たに生成した画像に基づき対応関係情報を更新し、新たに生成した画像及び更新した対応関係情報を除外局所領域判定部6に出力する。これにより、被写体が複数個重なっている場合において、順番に邪魔な被写体を除去していくことができる。   In addition, the rendering processing unit 3 outputs the newly generated image to the image display unit 4 and displays the correspondence information based on the newly generated image, and the newly generated image and the updated correspondence relationship. Information is output to the excluded local region determination unit 6. As a result, when a plurality of subjects overlap each other, it is possible to remove the obstructing subjects in order.

なお、上述した構成ではカーソルにより指定した位置に対応する局所領域の光線空間データのみが除外されるため、例えば、被写体11の様に、複数の局所領域を跨っている被写体の場合、カーソルにより指定した位置に応じて、被写体の一部のみが除去された画像が生成されることになり、1つの被写体を削除するために複数回の除去指定を行わなければならないことになる。   In the configuration described above, only the light space data of the local area corresponding to the position specified by the cursor is excluded. For example, in the case of a subject straddling a plurality of local areas, such as the subject 11, the designation is made by the cursor. Depending on the position, an image from which only a part of the subject has been removed is generated, and a plurality of removal designations must be made in order to delete one subject.

複数の局所領域に跨る被写体を1回の操作で除去したい場合、除去局所領域判定部6は、モデルデータを除去する局所領域の判定に使用する。つまり、指定された画素に対応する光線とモデルデータに基づき、指定された画素を含む被写体が、どの局所領域に存在しているかを判定し、この被写体が存在する局所領域の総てを描画処理部3に出力する。   When it is desired to remove a subject straddling a plurality of local areas with a single operation, the removed local area determination unit 6 is used to determine a local area from which model data is to be removed. In other words, based on the light beam corresponding to the designated pixel and the model data, it is determined in which local region the subject including the designated pixel exists, and all the local regions in which the subject exists are rendered. Output to part 3.

なお、本発明による画像生成装置は、コンピュータを上記画像生成装置として機能させるプログラムにより実現することができる。これらコンピュータプログラムは、コンピュータが読み取り可能な記憶媒体に記憶されて、又は、ネットワーク経由で配布が可能なものである。さらに、本発明は、ハードウェア及びソフトウェアの組合せによっても実現可能である。   The image generation apparatus according to the present invention can be realized by a program that causes a computer to function as the image generation apparatus. These computer programs can be stored in a computer-readable storage medium or distributed via a network. Furthermore, the present invention can be realized by a combination of hardware and software.

本発明による画像生成装置のブロック図である。1 is a block diagram of an image generation apparatus according to the present invention. 本発明による画像生成を説明する図である。It is a figure explaining the image generation by this invention. 画像の上書きを説明する図である。It is a figure explaining overwriting of an image.

符号の説明Explanation of symbols

1 視点・画角入力部
2 局所領域選択部
3 描画処理部
4 画像表示部
5 除去位置入力部
6 除去局所領域判定部
7 データベース部
10、11、12、13 被写体
20 視点
21、22 線
30、31 光線
DESCRIPTION OF SYMBOLS 1 Viewpoint / view angle input part 2 Local area | region selection part 3 Drawing process part 4 Image display part 5 Removal position input part 6 Removal local area determination part 7 Database part 10, 11, 12, 13 Subject 20 Viewpoint 21, 22 Line 30, 31 rays

Claims (5)

空間を複数の局所領域に分割し、各局所領域の光線空間データに基づき画像を生成する画像生成装置であって、
指定された視点及び画角に基づき、生成する出力画像に含まれる局所領域である第1の局所領域を選択する局所領域選択手段と、
指定された視点及び画角、並びに、第1の局所領域に基づき出力画像を生成し、該出力画像の画素と、該画素の生成に使用した光線空間データの局所領域との対応関係を示す対応関係情報を作成する描画手段と、
出力画像の画素を指定するための除去位置入力手段と、
除外局所領域判定手段と、
を備えており、
除去位置入力手段により出力画像の画素が指定された場合、
除外局所領域判定手段は、対応関係情報に基づき指定された出力画像の画素に対応する局所領域である第2の局所領域を判定し、
描画手段は、第1の局所領域から第2の局所領域を除外して出力画像を再描画する、
画像生成装置。
An image generation device that divides a space into a plurality of local regions and generates an image based on ray space data of each local region,
Local area selection means for selecting a first local area that is a local area included in the output image to be generated based on the specified viewpoint and angle of view;
Correspondence that generates an output image based on the specified viewpoint and angle of view, and the first local region, and indicates the correspondence between the pixel of the output image and the local region of the ray space data used for generating the pixel Drawing means for creating relationship information;
Removal position input means for designating pixels of the output image;
An excluded local region determination means;
With
When the pixel of the output image is specified by the removal position input means,
The excluded local region determination means determines a second local region that is a local region corresponding to the pixel of the output image specified based on the correspondence information,
The drawing means redraws the output image by excluding the second local area from the first local area,
Image generation device.
描画手段は、第1の局所領域のうち、指定された視点から見て一番奥にある局所領域に基づき描画した画像を、1つ手前の局所領域の光線空間データに基づき上書きすることを、指定された視点から見て一番手前にある局所領域まで、順次繰り返すことにより出力画像を生成する、
請求項1に記載の画像生成装置。
The drawing means overwrites the image drawn based on the local area farthest from the specified viewpoint among the first local areas based on the ray space data of the previous local area, Generate an output image by iterating sequentially from the specified viewpoint to the local area that is at the forefront.
The image generation apparatus according to claim 1.
前記空間に存在する被写体と、各局所領域の光線空間データとの対応関係を示すモデルデータを保持しており、
除外局所領域判定手段は、除去位置入力手段により指定された出力画像の画素に対応する局所領域の光線空間データに基づき、指定された出力画像の画素に対応する被写体を判定し、この被写体が存在する総ての局所領域を第2の局所領域とする、
請求項1又は2に記載の画像生成装置。
Holding model data indicating the correspondence between the subject existing in the space and the light space data of each local region;
The excluded local region determining unit determines a subject corresponding to the designated pixel of the output image based on the light space data of the local region corresponding to the pixel of the output image designated by the removal position input unit, and the subject exists. All local regions to be the second local region,
The image generation apparatus according to claim 1.
請求項1から3のいずれか1項に記載の画像生成装置としてコンピュータを機能させるプログラム。   The program which makes a computer function as an image generation apparatus of any one of Claim 1 to 3. 空間を複数の局所領域に分割し、各局所領域の光線空間データに基づき画像を生成する画像生成装置における画像生成方法であって、
指定された視点及び画角に基づき、生成する出力画像に含まれる局所領域である第1の局所領域を選択するステップと、
指定された視点及び画角、並びに、第1の局所領域に基づき出力画像を生成するステップと、
生成した出力画像の画素と、該画素の生成に使用した光線空間データの局所領域との対応関係を示す対応関係情報を作成するステップと、
出力画像の画素の指定を受けるステップと、
対応関係情報に基づき、前記指定された出力画像の画素に対応する局所領域である第2の局所領域を判定するステップと、
第1の局所領域から第2の局所領域を除外して出力画像を再描画するステップと、
を備えている画像生成方法。
An image generation method in an image generation apparatus that divides a space into a plurality of local regions and generates an image based on ray space data of each local region,
Selecting a first local region, which is a local region included in the output image to be generated, based on the specified viewpoint and angle of view;
Generating an output image based on the specified viewpoint and angle of view and the first local region;
Creating correspondence information indicating the correspondence between the pixel of the generated output image and the local region of the ray space data used to generate the pixel;
Receiving a pixel designation of the output image;
Determining a second local region that is a local region corresponding to a pixel of the designated output image based on correspondence information;
Redrawing the output image by excluding the second local region from the first local region;
An image generation method comprising:
JP2008239298A 2008-09-18 2008-09-18 Image generating apparatus, method and program Expired - Fee Related JP4983757B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008239298A JP4983757B2 (en) 2008-09-18 2008-09-18 Image generating apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008239298A JP4983757B2 (en) 2008-09-18 2008-09-18 Image generating apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2010072922A true JP2010072922A (en) 2010-04-02
JP4983757B2 JP4983757B2 (en) 2012-07-25

Family

ID=42204645

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008239298A Expired - Fee Related JP4983757B2 (en) 2008-09-18 2008-09-18 Image generating apparatus, method and program

Country Status (1)

Country Link
JP (1) JP4983757B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011232983A (en) * 2010-04-28 2011-11-17 Panasonic Corp Shielding object removal display unit

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09231371A (en) * 1996-02-21 1997-09-05 Canon Inc Image information input device and image information input method
JPH09245195A (en) * 1996-03-08 1997-09-19 Canon Inc Image processing method and apparatus
JP2003187261A (en) * 2001-12-14 2003-07-04 Canon Inc Three-dimensional image generation device, three-dimensional image generation method, three-dimensional image processing device, three-dimensional image capturing and displaying system, three-dimensional image processing method, and storage medium
JP2004000607A (en) * 2003-05-12 2004-01-08 Namco Ltd GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP2005063300A (en) * 2003-08-19 2005-03-10 Kddi Corp Hidden region interpolation method for arbitrary viewpoint video
JP2005100109A (en) * 2003-09-25 2005-04-14 Namco Ltd Image generation information, information storage medium, and image generation apparatus
JP2008029694A (en) * 2006-07-31 2008-02-14 Toshiba Corp Image processing apparatus and medical diagnostic apparatus including the image processing apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09231371A (en) * 1996-02-21 1997-09-05 Canon Inc Image information input device and image information input method
JPH09245195A (en) * 1996-03-08 1997-09-19 Canon Inc Image processing method and apparatus
JP2003187261A (en) * 2001-12-14 2003-07-04 Canon Inc Three-dimensional image generation device, three-dimensional image generation method, three-dimensional image processing device, three-dimensional image capturing and displaying system, three-dimensional image processing method, and storage medium
JP2004000607A (en) * 2003-05-12 2004-01-08 Namco Ltd GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP2005063300A (en) * 2003-08-19 2005-03-10 Kddi Corp Hidden region interpolation method for arbitrary viewpoint video
JP2005100109A (en) * 2003-09-25 2005-04-14 Namco Ltd Image generation information, information storage medium, and image generation apparatus
JP2008029694A (en) * 2006-07-31 2008-02-14 Toshiba Corp Image processing apparatus and medical diagnostic apparatus including the image processing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011232983A (en) * 2010-04-28 2011-11-17 Panasonic Corp Shielding object removal display unit

Also Published As

Publication number Publication date
JP4983757B2 (en) 2012-07-25

Similar Documents

Publication Publication Date Title
US20200388080A1 (en) Displaying content in an augmented reality system
KR102359978B1 (en) Mixed reality system with multi-source virtual content synthesis and method for creating virtual content using same
US10600169B2 (en) Image processing system and image processing method
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
KR20170007102A (en) Device and method for generating and displaying three-dimentional map
CN112513712A (en) Mixed reality system with virtual content warping and method for generating virtual content using the same
KR102158324B1 (en) Apparatus and method for generating point cloud
JP2000307949A (en) Image interpolation method, image processing method, image display method, image processing device, image display device, and computer program storage medium
JP2016534466A (en) System and method for determining plane spread in an augmented reality environment
KR101875047B1 (en) System and method for 3d modelling using photogrammetry
JP5955491B2 (en) Information superimposed image display device and information superimposed image display program
JP7073092B2 (en) Image processing equipment, image processing methods and programs
JP2021056679A (en) Image processing apparatus, method and program
JP5035195B2 (en) Image generating apparatus and program
JP5809607B2 (en) Image processing apparatus, image processing method, and image processing program
JP2017016577A (en) Information processing apparatus, control method thereof, and program
CN111466113A (en) Apparatus and method for image capture
CN108028904A (en) The method and system of light field augmented reality/virtual reality in mobile equipment
KR20110088995A (en) Method and system for visualizing surveillance camera image in three-dimensional model, and recording medium
JP2019144958A (en) Image processing device, image processing method, and program
CN116863107A (en) Augmented reality providing method, apparatus, and non-transitory computer readable medium
CN110286906B (en) User interface display method and device, storage medium and mobile terminal
JP2022058753A (en) Information processing apparatus, information processing method, and program
JP2016032298A (en) Video rendering apparatus and method
JP6405539B2 (en) Label information processing apparatus for multi-viewpoint image and label information processing method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100823

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100730

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120409

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees