JP2010072922A - Image generation device, method, and program - Google Patents
Image generation device, method, and program Download PDFInfo
- Publication number
- JP2010072922A JP2010072922A JP2008239298A JP2008239298A JP2010072922A JP 2010072922 A JP2010072922 A JP 2010072922A JP 2008239298 A JP2008239298 A JP 2008239298A JP 2008239298 A JP2008239298 A JP 2008239298A JP 2010072922 A JP2010072922 A JP 2010072922A
- Authority
- JP
- Japan
- Prior art keywords
- local region
- image
- local
- output image
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Generation (AREA)
Abstract
【課題】局所領域の光線空間データに基づき、指定された視点から見た画像であって、不必要な被写体を除去した画像を生成する画像生成装置を提供する。
【解決手段】空間を分割した各局所領域の光線空間データに基づき画像を生成する画像生成装置であり、指定された視点及び画角に基づき、生成する画像に含まれる局所領域である第1の局所領域を判定し、これにより描画手段は、出力画像を生成し、該出力画像の画素と、該画素の生成に使用した光線空間データの局所領域との対応関係を示す対応関係情報を作成する。その後、除去位置入力手段により出力画像の画素が指定された場合、指定された出力画像の画素に対応する第2の局所領域を判定し、描画手段は、第1の局所領域から第2の局所領域を除外して出力画像を再描画する。
【選択図】図1An image generation apparatus is provided that generates an image viewed from a specified viewpoint, from which unnecessary subjects are removed, based on ray space data of a local region.
An image generation apparatus that generates an image based on ray space data of each local region obtained by dividing a space, and is a first local region included in the image to be generated based on a specified viewpoint and angle of view. The local area is determined, and thereby the drawing means generates an output image, and creates correspondence information indicating the correspondence between the pixel of the output image and the local area of the light space data used for generating the pixel. . Thereafter, when a pixel of the output image is designated by the removal position input means, a second local area corresponding to the designated pixel of the output image is determined, and the drawing means determines the second local area from the first local area. Redraw the output image excluding the region.
[Selection] Figure 1
Description
本発明は、自由視点画像生成技術に関し、より詳しくは、空間を複数の局所領域に分割し、局所領域毎に光線空間を構築して自由視点画像を生成する画像生成技術に関する。 The present invention relates to a free viewpoint image generation technique, and more particularly, to an image generation technique for generating a free viewpoint image by dividing a space into a plurality of local areas and constructing a ray space for each local area.
複数のカメラで撮影した動画像から、任意の位置における画像を再現する自由視点画像生成技術について様々な提案がなされている。(例えば、特許文献1、非特許文献1及び非特許文献2、参照。)。
Various proposals have been made on a free viewpoint image generation technique for reproducing an image at an arbitrary position from moving images taken by a plurality of cameras. (For example, see
上記、従来技術における方法は、イメージ・ベースド・レンダリングと呼ばれるものであり、複数のカメラで撮影した画像から光線空間を構築し、この光線空間に基づき、任意の位置から見たときの画像を補間処理により生成するものである。ここで、光線空間を構築するとは、ある面を通過する光線を適当な座標軸を使用して表し、この座標空間の座標として表現される光線と、この光線により生じる画像の画素値を対応付けることを言う。なお、座標空間の総ての座標に対して画素値のデータをあらかじめ用意しておくことは現実的ではなく、通常は、アプリケーション等に応じて決定される適当な数の座標についてのみ画素値のデータを用意しておく。 The above-described method in the prior art is called image-based rendering. A light space is constructed from images taken by a plurality of cameras, and an image viewed from an arbitrary position is interpolated based on the light space. It is generated by processing. Here, constructing a ray space means that rays passing through a certain surface are represented using appropriate coordinate axes, and rays represented as coordinates in this coordinate space are associated with pixel values of an image generated by the rays. To tell. Note that it is not realistic to prepare pixel value data in advance for all coordinates in the coordinate space. Normally, the pixel value is set only for an appropriate number of coordinates determined according to the application or the like. Prepare the data.
ここで、特許文献1には、被写体が存在する領域を、複数の局所領域に分割し、この局所領域毎に光線空間を構築して自由視点画像を生成する技術が記載されている。特許文献1によると、まず、複数のカメラが撮影した画像に基づき、各局所領域の光線空間データを作成する。ここで、局所領域の光線空間データとは、この局所領域の境界面を通過する光線と、その光線に対応する画素値を特定するデータである。例えば、図2に示す例においては、空間を局所領域sa1からsa10に分割しており、画像生成装置は、点線で表した局所領域それぞれの光線空間データを保持している。なお、図2において、符号10から13は被写体を表している。
Here,
特許文献1に記載の画像生成装置は、視点位置が指定された場合、まず、この位置から見て一番奥に位置する局所領域の光線空間データに基づき画像を生成し、その後、一つ手前にある局所領域の光線空間データに基づき画像を上書きすることを繰り返すことで、自由視点画像を生成している。例えば、指定された視点が符号20の位置であり、生成する画像の範囲が線21及び22の間とすると、特許文献1による画像生成装置は、まず、画像の範囲にある局所領域sa1、sa2及びsa3の光線空間データに基づき画像を生成し、つぎに、局所領域sa5及びsa6の光線空間データで、先に生成した画像を上書きし、最後に、局所領域sa9の光線空間データでさらに上書きすることにより画像を生成している。
When the viewpoint position is designated, the image generation apparatus described in
ここで、視点20から見た画像において、被写体11の一部は、被写体10により見えなくなっている。被写体11全体を、画像に表示したい場合、視点位置を、被写体10と被写体11の間に設定する必要がある。しかしながら、得られる画像は、被写体11にかなり近づいたものとなり、画角が固定的であり変更できない場合、被写体11と被写体10との距離と、被写体11の大きさによっては、被写体11全体を1つの画像に表示できなくなってしまう。また、画角が設定可能である場合には、より広角な画像、つまり、線21及び22の角度を広げることにより、被写体11全体を1つの画像に表示することが可能であるが、設定可能な画角に制限が生じることになる。
Here, in the image viewed from the
これに対して、任意の視点位置から見た、任意の画角の画像であり、かつ、邪魔な被写体を取り除いた場合の画像を生成して表示したい場合が存在する。したがって、本発明は、局所領域の光線空間データに基づき、指定された視点から見た画像であって、不必要な被写体を除去した画像を生成する画像生成装置、方法及びプログラムを提供することを目的とする。 On the other hand, there is a case where it is desired to generate and display an image of an arbitrary angle of view viewed from an arbitrary viewpoint position and an obstructed subject removed. Therefore, the present invention provides an image generation apparatus, method, and program for generating an image viewed from a specified viewpoint, from which unnecessary subjects are removed, based on the ray space data of the local region. Objective.
本発明における画像生成装置によれば、
空間を複数の局所領域に分割し、各局所領域の光線空間データに基づき画像を生成する画像生成装置であって、指定された視点及び画角に基づき、生成する出力画像に含まれる局所領域である第1の局所領域を判定する局所領域判定手段と、指定された視点及び画角、並びに、第1の局所領域に基づき出力画像を生成し、該出力画像の画素と、該画素の生成に使用した光線空間データの局所領域との対応関係を示す対応関係情報を作成する描画手段と、出力画像の画素を指定するための除去位置入力手段と、除外局所領域判定手段と、を備えており、除去位置入力手段により出力画像の画素が指定された場合、除外局所領域判定手段は、対応関係情報に基づき指定された出力画像の画素に対応する局所領域である第2の局所領域を判定し、描画手段は、第1の局所領域から第2の局所領域を除外して出力画像を再描画することを特徴とする。
According to the image generation apparatus of the present invention,
An image generation device that divides a space into a plurality of local regions and generates an image based on ray space data of each local region, and includes local regions included in an output image to be generated based on a specified viewpoint and angle of view. A local area determination means for determining a certain first local area, a specified viewpoint and angle of view, and an output image based on the first local area, and a pixel of the output image and generation of the pixel A drawing unit that creates correspondence information indicating a correspondence relationship with the local region of the used light space data, a removal position input unit for designating a pixel of the output image, and an excluded local region determination unit. When the pixel of the output image is specified by the removal position input means, the excluded local area determination means determines a second local area that is a local area corresponding to the specified pixel of the output image based on the correspondence information. Drawing Means, characterized in that the first local region by excluding the second local region redrawing output image.
本発明の画像生成装置における他の実施形態によれば、
描画手段は、第1の局所領域のうち、指定された視点から見て一番奥にある局所領域に基づき描画した画像を、1つ手前の局所領域の光線空間データに基づき上書きすることを、指定された視点から見て一番手前にある局所領域まで、順次繰り返すことにより出力画像を生成することも好ましい。
According to another embodiment of the image generation apparatus of the present invention,
The drawing means overwrites the image drawn based on the local area farthest from the specified viewpoint among the first local areas based on the ray space data of the previous local area, It is also preferable to generate an output image by sequentially repeating a local region that is closest to the designated viewpoint.
また、本発明の画像生成装置における他の実施形態によれば、
前記空間に存在する被写体と、各局所領域の光線空間データとの対応関係を示すモデルデータを保持しており、除外局所領域判定手段は、除去位置入力手段により指定された出力画像の画素に対応する局所領域の光線空間データに基づき、指定された出力画像の画素に対応する被写体を判定し、この被写体が存在する総ての局所領域を第2の局所領域とすることも好ましい。
According to another embodiment of the image generation apparatus of the present invention,
The model data indicating the correspondence between the subject existing in the space and the ray space data of each local region is held, and the excluded local region determination unit corresponds to the pixel of the output image specified by the removal position input unit. It is also preferable to determine the subject corresponding to the pixel of the designated output image based on the ray space data of the local region to be used, and to set all local regions where the subject exists as the second local region.
本発明におけるプログラムによれば、
前記画像生成装置としてコンピュータを機能させることを特徴とする。
According to the program of the present invention,
A computer is caused to function as the image generation apparatus.
本発明における画像生成方法によれば、
空間を複数の局所領域に分割し、各局所領域の光線空間データに基づき画像を生成する画像生成装置における画像生成方法であって、指定された視点及び画角に基づき、生成する出力画像に含まれる局所領域である第1の局所領域を判定するステップと、指定された視点及び画角、並びに、第1の局所領域に基づき出力画像を生成するステップと、生成した出力画像の画素と、該画素の生成に使用した光線空間データの局所領域との対応関係を示す対応関係情報を作成するステップと、出力画像の画素の指定を受けるステップと、対応関係情報に基づき、前記指定された出力画像の画素に対応する局所領域である第2の局所領域を判定するステップと、第1の局所領域から第2の局所領域を除外して出力画像を再描画するステップとを備えていることを特徴とする。
According to the image generation method of the present invention,
An image generation method in an image generation apparatus that divides a space into a plurality of local regions and generates an image based on ray space data of each local region, and is included in an output image to be generated based on a specified viewpoint and angle of view A first local region that is a local region to be generated, a step of generating an output image based on the specified viewpoint and angle of view, and the first local region, a pixel of the generated output image, A step of creating correspondence information indicating a correspondence relationship with the local region of the light space data used for pixel generation, a step of receiving designation of a pixel of the output image, and the designated output image based on the correspondence information Determining a second local region that is a local region corresponding to the pixel of the first pixel, and redrawing the output image by excluding the second local region from the first local region. And wherein the Rukoto.
任意の視点位置から見た、任意の画角の画像であり、かつ、邪魔な被写体を取り除いた場合の画像を生成して表示することが可能になる。 It is possible to generate and display an image of an arbitrary angle of view viewed from an arbitrary viewpoint position and an obstructing subject removed.
本発明を実施するための最良の実施形態について、以下では図面を用いて詳細に説明する。図1は、本発明による画像生成装置の簡略化した機能ブロック図である。図1によると、画像生成装置は、視点・画角入力部1と、局所領域選択部2と、描画処理部3と、画像表示部4と、除去位置入力部5と、除去局所領域判定部6と、データベース部7とを備えている。
The best mode for carrying out the present invention will be described in detail below with reference to the drawings. FIG. 1 is a simplified functional block diagram of an image generating apparatus according to the present invention. According to FIG. 1, the image generation apparatus includes a viewpoint / view
データベース部7は、各局所領域の光線空間データと、モデルデータを保持するデータベースであり、光線空間データは、特許文献1に記載の様に、局所領域の境界面を通過する光線と、その光線に対応する画素値を特定するデータである。また、モデルデータとは、光線空間を構築するために撮影した複数の画像に基づき生成されるものであり、撮影した各画像の画素の実空間における位置の連続性から被写体が存在する領域を特定し、この被写体が存在する領域と、各局所領域の光線空間データとの対応関係を示すデータである。モデルデータは、特許文献1に記載の様に、複数のカメラで被写体を撮影する場合において、例えば、各カメラのカメラパラメータ及び撮影した画像の対応する画素の視差から算出できるものである。以下に、本発明による画像生成装置の動作を説明する。
The
視点・画角入力部1は、表示したい画像の視点及び画角を利用者に入力させるためのユーザインタフェースであり、利用者が指定した視点及び画角を局所領域選択部2に出力する。なお、視点とは位置及び方角で特定される値である。局所領域選択部2は、利用者が指定した視点及び画角に基づき画像の描画に必要な局所領域を選択する。例えば、図2の状態において、視点20と、直線21と22の間の範囲に対応する画角が指定された場合、局所領域選択部2は、局所領域sa1、sa2、sa3、sa5、sa6及びsa9を必要な局所領域と判定し、これら局所領域と、利用者が指定した視点及び画角を描画処理部3に出力する。
The viewpoint / view
描画処理部3は、利用者が指定した視点及び画角と、データベース部7に保存されているデータのうち、局所領域選択部2が選択した局所領域の光線空間データに基づき画像を生成する。より具体的には、視点から見て一番奥の局所領域である局所領域sa1、sa2及びsa3の光線空間データから、視点20に向かう光線を選択し、選択した光線に基づき画像を生成し、つぎに一つ手前にある局所領域sa5及びsa6の光線空間データから、視点20に向かう光線を選択して先に生成した画像を上書きし、最後に、さらに一つ手前にある局所領域sa9の光線空間データで同様に上書きすることにより画像を生成する。
The
なお、本発明において上書きとは、ある局所領域の光線空間データに基づく画素値が、既に生成した画像の画素値と異なる場合に、このある局所領域の光線空間データにより、当該画素値を変更することを言う。図3は、本発明において使用する上書きの意味を説明する図である。なお、図3は、図を見易くするために図2の局所領域の表示を削除したものである。例えば、被写体13から視点20に向かう光線30は、局所領域sa3、sa6、sa9の総ての光線空間データにおいて同一値であり、この場合、描画処理部3は、上書きを行わず、この光線30による画素は、局所領域sa3の光線空間データにより生成されたものと認識する。
In the present invention, overwriting means that when a pixel value based on ray space data of a certain local region is different from a pixel value of an already generated image, the pixel value is changed by the ray space data of this certain local region. Say that. FIG. 3 is a diagram for explaining the meaning of overwriting used in the present invention. Note that FIG. 3 is obtained by deleting the display of the local region of FIG. 2 in order to make the drawing easier to see. For example, the
一方、被写体11から視点20に向かう光線は、被写体10により遮られ、代わりに、被写体10からの光線が視点20に到達することになる。描画処理部3は、局所領域sa5を処理したときには、光線31に基づく画素の画素値として、被写体11から出た光線による値を使用しているが、局所領域sa9を処理するときに、局所領域sa5の光線空間データにおける光線31の画素値と、局所領域sa9の光線空間データにおける光線31の画素値が異なることを認識し、よって、局所領域sa9の光線空間データにより、光線31に対応する画素の画素値を上書きする。これにより、描画処理部3は、光線31による画素は、局所領域sa9の光線空間データにより生成されたものと認識する。
On the other hand, the light beam traveling from the subject 11 to the
以上の様に、描画処理部3は、生成した画像の各画素の画素値が、どの局所領域の光線空間データにより生成されたものかを示す対応関係情報を生成し、生成した画像と、この対応関係情報を除外局所領域判定部6に出力する。また、生成した画像については、例えばディスプレイに表示するため画像表示部4に出力する。
As described above, the
利用者が、画像表示部4によりディスプレイに表示された画像を見て、例えば、図2の被写体10を除去した画像を表示したいと考えたものとする。この場合、利用者は、除去位置入力部5を用いて、除去したい被写体10を指定する。より具体的には、除去位置入力部5は、例えば、ポインティング・デバイスであり、利用者は、ディスプレイに表示されているカーソルを被写体10が表示されている位置に動かして、被写体10の除去を除去位置入力部5に入力し、除去位置入力部5は、このときカーソルが位置している画素を特定する情報を除外局所領域判定部6に出力する。
It is assumed that the user wants to display an image from which the subject 10 in FIG. 2 is removed by viewing the image displayed on the display by the
除外局所領域判定部6は、除去位置入力部5から出力された画素が、どの局所領域のものであるかを、対応関係情報に基づき判定する。続いて、判定した局所領域が、視点から見て最も奥に位置する局所領域であれば、除去不可であるためエラーとして描画処理部3に通知し、描画処理部3は、エラーを画像表示部4によりディスプレイに表示させる。
The excluded local region determination unit 6 determines which local region the pixel output from the removal
一方、判定した局所領域が、視点から見て最も奥に位置する局所領域ではなく、何らかの被写体に対応するものである場合、除外局所領域判定部6は、判定した局所領域を描画処理部3に通知する。描画処理部3は、除外局所領域判定部6から局所領域の通知を受けた場合、局所領域選択部2が選択した局所領域から、この通知を受けた局所領域を除外して画像の再描画を行う。つまり、例えば、利用者が被写体10の画素を指定した場合、除外局所領域判定部6は、局所領域sa9を描画処理部3に通知し、描画処理部3は、これにより、最初の描画の際に使用した局所領域sa1、sa2、sa3、sa5、sa6及びsa9のうち、局所領域sa9を除外し、再度、視点20からの画像の生成を行う。これにより、被写体10を除去した画像が生成される。
On the other hand, when the determined local area is not the local area located farthest from the viewpoint, but corresponds to some subject, the excluded local area determination unit 6 sends the determined local area to the
また、描画処理部3は、新たに生成した画像を表示するため画像表示部4に出力すると共に、新たに生成した画像に基づき対応関係情報を更新し、新たに生成した画像及び更新した対応関係情報を除外局所領域判定部6に出力する。これにより、被写体が複数個重なっている場合において、順番に邪魔な被写体を除去していくことができる。
In addition, the
なお、上述した構成ではカーソルにより指定した位置に対応する局所領域の光線空間データのみが除外されるため、例えば、被写体11の様に、複数の局所領域を跨っている被写体の場合、カーソルにより指定した位置に応じて、被写体の一部のみが除去された画像が生成されることになり、1つの被写体を削除するために複数回の除去指定を行わなければならないことになる。 In the configuration described above, only the light space data of the local area corresponding to the position specified by the cursor is excluded. For example, in the case of a subject straddling a plurality of local areas, such as the subject 11, the designation is made by the cursor. Depending on the position, an image from which only a part of the subject has been removed is generated, and a plurality of removal designations must be made in order to delete one subject.
複数の局所領域に跨る被写体を1回の操作で除去したい場合、除去局所領域判定部6は、モデルデータを除去する局所領域の判定に使用する。つまり、指定された画素に対応する光線とモデルデータに基づき、指定された画素を含む被写体が、どの局所領域に存在しているかを判定し、この被写体が存在する局所領域の総てを描画処理部3に出力する。
When it is desired to remove a subject straddling a plurality of local areas with a single operation, the removed local area determination unit 6 is used to determine a local area from which model data is to be removed. In other words, based on the light beam corresponding to the designated pixel and the model data, it is determined in which local region the subject including the designated pixel exists, and all the local regions in which the subject exists are rendered. Output to
なお、本発明による画像生成装置は、コンピュータを上記画像生成装置として機能させるプログラムにより実現することができる。これらコンピュータプログラムは、コンピュータが読み取り可能な記憶媒体に記憶されて、又は、ネットワーク経由で配布が可能なものである。さらに、本発明は、ハードウェア及びソフトウェアの組合せによっても実現可能である。 The image generation apparatus according to the present invention can be realized by a program that causes a computer to function as the image generation apparatus. These computer programs can be stored in a computer-readable storage medium or distributed via a network. Furthermore, the present invention can be realized by a combination of hardware and software.
1 視点・画角入力部
2 局所領域選択部
3 描画処理部
4 画像表示部
5 除去位置入力部
6 除去局所領域判定部
7 データベース部
10、11、12、13 被写体
20 視点
21、22 線
30、31 光線
DESCRIPTION OF
Claims (5)
指定された視点及び画角に基づき、生成する出力画像に含まれる局所領域である第1の局所領域を選択する局所領域選択手段と、
指定された視点及び画角、並びに、第1の局所領域に基づき出力画像を生成し、該出力画像の画素と、該画素の生成に使用した光線空間データの局所領域との対応関係を示す対応関係情報を作成する描画手段と、
出力画像の画素を指定するための除去位置入力手段と、
除外局所領域判定手段と、
を備えており、
除去位置入力手段により出力画像の画素が指定された場合、
除外局所領域判定手段は、対応関係情報に基づき指定された出力画像の画素に対応する局所領域である第2の局所領域を判定し、
描画手段は、第1の局所領域から第2の局所領域を除外して出力画像を再描画する、
画像生成装置。 An image generation device that divides a space into a plurality of local regions and generates an image based on ray space data of each local region,
Local area selection means for selecting a first local area that is a local area included in the output image to be generated based on the specified viewpoint and angle of view;
Correspondence that generates an output image based on the specified viewpoint and angle of view, and the first local region, and indicates the correspondence between the pixel of the output image and the local region of the ray space data used for generating the pixel Drawing means for creating relationship information;
Removal position input means for designating pixels of the output image;
An excluded local region determination means;
With
When the pixel of the output image is specified by the removal position input means,
The excluded local region determination means determines a second local region that is a local region corresponding to the pixel of the output image specified based on the correspondence information,
The drawing means redraws the output image by excluding the second local area from the first local area,
Image generation device.
請求項1に記載の画像生成装置。 The drawing means overwrites the image drawn based on the local area farthest from the specified viewpoint among the first local areas based on the ray space data of the previous local area, Generate an output image by iterating sequentially from the specified viewpoint to the local area that is at the forefront.
The image generation apparatus according to claim 1.
除外局所領域判定手段は、除去位置入力手段により指定された出力画像の画素に対応する局所領域の光線空間データに基づき、指定された出力画像の画素に対応する被写体を判定し、この被写体が存在する総ての局所領域を第2の局所領域とする、
請求項1又は2に記載の画像生成装置。 Holding model data indicating the correspondence between the subject existing in the space and the light space data of each local region;
The excluded local region determining unit determines a subject corresponding to the designated pixel of the output image based on the light space data of the local region corresponding to the pixel of the output image designated by the removal position input unit, and the subject exists. All local regions to be the second local region,
The image generation apparatus according to claim 1.
指定された視点及び画角に基づき、生成する出力画像に含まれる局所領域である第1の局所領域を選択するステップと、
指定された視点及び画角、並びに、第1の局所領域に基づき出力画像を生成するステップと、
生成した出力画像の画素と、該画素の生成に使用した光線空間データの局所領域との対応関係を示す対応関係情報を作成するステップと、
出力画像の画素の指定を受けるステップと、
対応関係情報に基づき、前記指定された出力画像の画素に対応する局所領域である第2の局所領域を判定するステップと、
第1の局所領域から第2の局所領域を除外して出力画像を再描画するステップと、
を備えている画像生成方法。 An image generation method in an image generation apparatus that divides a space into a plurality of local regions and generates an image based on ray space data of each local region,
Selecting a first local region, which is a local region included in the output image to be generated, based on the specified viewpoint and angle of view;
Generating an output image based on the specified viewpoint and angle of view and the first local region;
Creating correspondence information indicating the correspondence between the pixel of the generated output image and the local region of the ray space data used to generate the pixel;
Receiving a pixel designation of the output image;
Determining a second local region that is a local region corresponding to a pixel of the designated output image based on correspondence information;
Redrawing the output image by excluding the second local region from the first local region;
An image generation method comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008239298A JP4983757B2 (en) | 2008-09-18 | 2008-09-18 | Image generating apparatus, method and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008239298A JP4983757B2 (en) | 2008-09-18 | 2008-09-18 | Image generating apparatus, method and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2010072922A true JP2010072922A (en) | 2010-04-02 |
| JP4983757B2 JP4983757B2 (en) | 2012-07-25 |
Family
ID=42204645
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008239298A Expired - Fee Related JP4983757B2 (en) | 2008-09-18 | 2008-09-18 | Image generating apparatus, method and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4983757B2 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011232983A (en) * | 2010-04-28 | 2011-11-17 | Panasonic Corp | Shielding object removal display unit |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH09231371A (en) * | 1996-02-21 | 1997-09-05 | Canon Inc | Image information input device and image information input method |
| JPH09245195A (en) * | 1996-03-08 | 1997-09-19 | Canon Inc | Image processing method and apparatus |
| JP2003187261A (en) * | 2001-12-14 | 2003-07-04 | Canon Inc | Three-dimensional image generation device, three-dimensional image generation method, three-dimensional image processing device, three-dimensional image capturing and displaying system, three-dimensional image processing method, and storage medium |
| JP2004000607A (en) * | 2003-05-12 | 2004-01-08 | Namco Ltd | GAME DEVICE AND INFORMATION STORAGE MEDIUM |
| JP2005063300A (en) * | 2003-08-19 | 2005-03-10 | Kddi Corp | Hidden region interpolation method for arbitrary viewpoint video |
| JP2005100109A (en) * | 2003-09-25 | 2005-04-14 | Namco Ltd | Image generation information, information storage medium, and image generation apparatus |
| JP2008029694A (en) * | 2006-07-31 | 2008-02-14 | Toshiba Corp | Image processing apparatus and medical diagnostic apparatus including the image processing apparatus |
-
2008
- 2008-09-18 JP JP2008239298A patent/JP4983757B2/en not_active Expired - Fee Related
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH09231371A (en) * | 1996-02-21 | 1997-09-05 | Canon Inc | Image information input device and image information input method |
| JPH09245195A (en) * | 1996-03-08 | 1997-09-19 | Canon Inc | Image processing method and apparatus |
| JP2003187261A (en) * | 2001-12-14 | 2003-07-04 | Canon Inc | Three-dimensional image generation device, three-dimensional image generation method, three-dimensional image processing device, three-dimensional image capturing and displaying system, three-dimensional image processing method, and storage medium |
| JP2004000607A (en) * | 2003-05-12 | 2004-01-08 | Namco Ltd | GAME DEVICE AND INFORMATION STORAGE MEDIUM |
| JP2005063300A (en) * | 2003-08-19 | 2005-03-10 | Kddi Corp | Hidden region interpolation method for arbitrary viewpoint video |
| JP2005100109A (en) * | 2003-09-25 | 2005-04-14 | Namco Ltd | Image generation information, information storage medium, and image generation apparatus |
| JP2008029694A (en) * | 2006-07-31 | 2008-02-14 | Toshiba Corp | Image processing apparatus and medical diagnostic apparatus including the image processing apparatus |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011232983A (en) * | 2010-04-28 | 2011-11-17 | Panasonic Corp | Shielding object removal display unit |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4983757B2 (en) | 2012-07-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20200388080A1 (en) | Displaying content in an augmented reality system | |
| KR102359978B1 (en) | Mixed reality system with multi-source virtual content synthesis and method for creating virtual content using same | |
| US10600169B2 (en) | Image processing system and image processing method | |
| EP3057066B1 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
| KR20170007102A (en) | Device and method for generating and displaying three-dimentional map | |
| CN112513712A (en) | Mixed reality system with virtual content warping and method for generating virtual content using the same | |
| KR102158324B1 (en) | Apparatus and method for generating point cloud | |
| JP2000307949A (en) | Image interpolation method, image processing method, image display method, image processing device, image display device, and computer program storage medium | |
| JP2016534466A (en) | System and method for determining plane spread in an augmented reality environment | |
| KR101875047B1 (en) | System and method for 3d modelling using photogrammetry | |
| JP5955491B2 (en) | Information superimposed image display device and information superimposed image display program | |
| JP7073092B2 (en) | Image processing equipment, image processing methods and programs | |
| JP2021056679A (en) | Image processing apparatus, method and program | |
| JP5035195B2 (en) | Image generating apparatus and program | |
| JP5809607B2 (en) | Image processing apparatus, image processing method, and image processing program | |
| JP2017016577A (en) | Information processing apparatus, control method thereof, and program | |
| CN111466113A (en) | Apparatus and method for image capture | |
| CN108028904A (en) | The method and system of light field augmented reality/virtual reality in mobile equipment | |
| KR20110088995A (en) | Method and system for visualizing surveillance camera image in three-dimensional model, and recording medium | |
| JP2019144958A (en) | Image processing device, image processing method, and program | |
| CN116863107A (en) | Augmented reality providing method, apparatus, and non-transitory computer readable medium | |
| CN110286906B (en) | User interface display method and device, storage medium and mobile terminal | |
| JP2022058753A (en) | Information processing apparatus, information processing method, and program | |
| JP2016032298A (en) | Video rendering apparatus and method | |
| JP6405539B2 (en) | Label information processing apparatus for multi-viewpoint image and label information processing method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100823 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100730 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110126 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120327 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120409 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150511 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |