JP2016114445A - Three-dimensional position calculation device, program for the same, and cg composition apparatus - Google Patents
Three-dimensional position calculation device, program for the same, and cg composition apparatus Download PDFInfo
- Publication number
- JP2016114445A JP2016114445A JP2014252738A JP2014252738A JP2016114445A JP 2016114445 A JP2016114445 A JP 2016114445A JP 2014252738 A JP2014252738 A JP 2014252738A JP 2014252738 A JP2014252738 A JP 2014252738A JP 2016114445 A JP2016114445 A JP 2016114445A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- image
- dimensional position
- feature
- position calculation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】魚眼カメラを用いて特徴点の3次元位置を算出する3次元位置算出装置を提供する。【解決手段】3次元位置算出装置10は、等距離射影方式の2台の魚眼カメラで撮影された画像から、それぞれ特徴点を抽出する特徴点抽出手段12と、抽出された特徴点における画像特徴量が両画像間で最も類似する特徴点対において、両画像上を極座標で表したときのそれぞれの特徴点の動径の差である動径距離が所定の閾値よりも小さく、かつ、偏角の差である角度距離が所定の閾値よりも小さい特徴点対を同じ特徴点を指し示す特徴点対としてフィルタリングする特徴点フィルタリング手段13と、フィルタリングされた特徴点対の両画像上の位置と、魚眼カメラの距離とにより、当該特徴点の3次元位置を計算する特徴点3次元位置計算手段15と、を備える。【選択図】図2A three-dimensional position calculation apparatus for calculating a three-dimensional position of a feature point using a fisheye camera is provided. A three-dimensional position calculation apparatus 10 includes feature point extraction means 12 for extracting feature points from images photographed by two fisheye cameras of an equidistant projection method, and images at the extracted feature points. In the feature point pair whose feature quantity is most similar between both images, the radial distance, which is the difference between the radial diameters of the feature points when both images are represented in polar coordinates, is smaller than a predetermined threshold value, and A feature point filtering means 13 for filtering a feature point pair whose angle distance, which is a difference in angles, is smaller than a predetermined threshold value as a feature point pair indicating the same feature point, a position on both images of the filtered feature point pair, Feature point three-dimensional position calculation means 15 for calculating the three-dimensional position of the feature point according to the distance of the fisheye camera. [Selection] Figure 2
Description
本発明は、魚眼カメラを用いた3次元空間上のオブジェクトの位置を算出する3次元位置算出装置およびそのプログラム、ならびに、CG合成装置に関する。 The present invention relates to a three-dimensional position calculation device that calculates the position of an object in a three-dimensional space using a fisheye camera, a program for the same, and a CG composition device.
近年、CG(Computer Graphics)技術の発達に伴い、映画、テレビ番組等で、CGオブジェクトと実写映像とを合成したCG合成映像が用いられている。
このように、CGオブジェクトと実写映像とを合成する場合、CGオブジェクトを実写映像の照明条件に合わせる必要がある。
In recent years, with the development of CG (Computer Graphics) technology, CG composite video in which a CG object and a live-action video are combined is used in movies, television programs, and the like.
Thus, when combining a CG object and a live-action video, it is necessary to match the CG object with the illumination conditions of the live-action video.
従来、実世界において、できるだけ広範囲からの光を取り込むため、2台の魚眼カメラで撮影された画像から、実光源環境をモデル化し、その環境でCG合成を行う手法(以下、実光源計測手法)が開示されている(特許文献1、非特許文献1)。
この実光源計測手法は、まず、2台の魚眼カメラを光源方向に向け、光源の分布を撮影する。そして、この手法は、撮影された2つの画像から、マッチングする特徴点の3次元位置を求め、その特徴点を頂点とする三角メッシュを生成する。そして、この手法は、それぞれの三角メッシュごとに、撮影された画像から輝度を計算することで、光源分布の情報を、三角メッシュをつなぎ合わせたモデルで近似的に求めている。
なお、実光源計測手法は、それぞれの画像中心から3次元空間上の特徴点までの2直線の交差誤差が最小となる特徴点を、画像間でマッチングする特徴点として選択し、交差誤差が最小となる特徴点が複数存在する場合は、画像上のピクセル座標が最も近い特徴点を選択している。
Conventionally, in order to capture light from a wide range as much as possible in the real world, a method of modeling an actual light source environment from images taken by two fisheye cameras and performing CG synthesis in that environment (hereinafter referred to as an actual light source measurement method) ) Is disclosed (
In this actual light source measurement method, first, two fisheye cameras are pointed in the light source direction, and the distribution of the light sources is photographed. In this method, the three-dimensional position of the matching feature point is obtained from the two captured images, and a triangular mesh having the vertex as the feature point is generated. In this method, the luminance distribution is calculated from the captured image for each triangular mesh, so that information on the light source distribution is approximately obtained by a model in which the triangular meshes are connected.
In the actual light source measurement method, the feature point that minimizes the intersection error of two straight lines from the center of each image to the feature point in the three-dimensional space is selected as the feature point that matches between the images, and the intersection error is minimized. When there are a plurality of feature points, the feature point having the closest pixel coordinate on the image is selected.
このように複数の魚眼カメラで撮影された画像間で特徴点のマッチングをとる手法は、特許文献1、非特許文献1以外にも、種々提案されている(例えば、特許文献2,3、非特許文献2,3等)。
なお、特許文献2の手法は、特徴点の対応付けに、RANSAC(RANdom SAmpleConsensus)を用いている。また、特許文献3の手法は、魚眼カメラで撮影された魚眼画像(全天画像)を平面展開し、SSD(Sum of Squared Difference)の演算により特徴点のマッチングを行っている。また、非特許文献2の手法は、全特徴点を対象として、ZNCC(正規化相互相関:Zero-mean Normalized Cross-Correlation)の演算により特徴点のマッチングを行っている。また、非特許文献3の手法は、特徴点の対応の誤差を最小化するためバンドル調整のアルゴリズムを用いている。
In addition to
Note that the method of Patent Document 2 uses RANSAC (RANdom SAmpleConsensus) for associating feature points. In the method of
しかし、前記した実光源計測手法のように、魚眼カメラで撮影された画像上では、実世界で計測される距離が必ずしもそのまま反映されない。すなわち、魚眼カメラで撮影された画像(全天画像)は、画像中心と画像周縁とで画像上の距離が同じであっても、実世界の距離が異なっている。
そのため、従来のように、全天画像上の距離を指標として、特徴点のマッチングを行うと、誤マッチングを生じさせる可能性が高いという問題がある。
However, the distance measured in the real world is not necessarily reflected as it is on the image photographed by the fisheye camera as in the above-described real light source measurement method. In other words, the images taken by the fisheye camera (all-sky image) have different real-world distances even if the image center and the image periphery have the same distance on the image.
For this reason, there is a problem in that, when a feature point is matched using a distance on the whole sky image as an index as in the past, there is a high possibility of causing a false matching.
また、従来の手法は、特徴点マッチングを行う際に、全天画像を平面展開する必要があったり、多くの特徴点を対象としてRASNSAC、SSD、ZNCC等の演算を行う必要があったり等、前処理や計算対象の多さによって、計算コストがかかってしまうという問題がある。 In addition, when performing the feature point matching in the conventional method, it is necessary to flatten the whole sky image, or it is necessary to perform operations such as RASSNSAC, SSD, and ZNCC for many feature points. There is a problem that the calculation cost is increased due to the large number of preprocessing and calculation objects.
本発明は、このような問題に鑑みてなされたものであり、魚眼カメラを用いて特徴点の3次元位置を算出する際に、従来よりも、正確、かつ、計算コストの低い3次元位置算出装置およびそのプログラム、ならびに、魚眼カメラを用いたCG合成装置を提供することを課題とする。 The present invention has been made in view of such a problem. When a three-dimensional position of a feature point is calculated using a fisheye camera, the three-dimensional position is more accurate and less expensive than the conventional one. It is an object of the present invention to provide a calculation device, a program thereof, and a CG synthesis device using a fisheye camera.
前記課題を解決するため、本発明に係る3次元位置算出装置は、等距離射影方式の魚眼レンズを備えた2台の魚眼カメラで撮影された画像から、当該画像中の特徴点の3次元位置を算出する3次元位置算出装置であって、特徴点抽出手段と、特徴点フィルタリング手段と、特徴点3次元位置計算手段と、を備える構成とした。 In order to solve the above-described problem, a three-dimensional position calculation apparatus according to the present invention is configured such that a three-dimensional position of a feature point in an image is obtained from images captured by two fisheye cameras having equidistant projection-type fisheye lenses. Is a configuration including a feature point extracting unit, a feature point filtering unit, and a feature point three-dimensional position calculating unit.
かかる構成において、3次元位置算出装置は、特徴点抽出手段によって、2台の魚眼カメラで撮影された一方の画像と他方の画像とから、それぞれ画像特徴の変化する特徴点を抽出する。この特徴点は、例えば、SIFT(Scale Invariant Feature Transform)等によって抽出することができる。 In this configuration, the three-dimensional position calculation device extracts feature points whose image features change from one image and the other image captured by the two fisheye cameras by the feature point extraction unit. This feature point can be extracted by, for example, SIFT (Scale Invariant Feature Transform) or the like.
そして、3次元位置算出装置は、特徴点フィルタリング手段によって、特徴点抽出手段で抽出された特徴点における画像特徴量が両画像間で最も類似する特徴点対において、両画像を極座標で表したときのそれぞれの特徴点の動径距離が所定の閾値よりも小さく、かつ、角度距離が所定の閾値よりも小さい特徴点対を同じ特徴点を指し示す特徴点対としてフィルタリングする。
なお、動径距離は、特徴点対の画像上の極座標における動径の差である。また、角度距離は、特徴点対の画像上の極座標における偏角の差である。
これによって、特徴点フィルタリング手段は、画像の中心から離れるほど、両画像間の視差が大きくなるという、魚眼カメラの特性に合わせた特徴点のマッチング判定を行うことができる。
Then, the three-dimensional position calculation device uses the feature point filtering unit to represent both images in polar coordinates in the feature point pair having the most similar image feature amount between the two images. The feature point pairs in which the radial distance of each of the feature points is smaller than a predetermined threshold and the angular distance is smaller than the predetermined threshold are filtered as feature point pairs indicating the same feature point.
The radial distance is a radial difference in polar coordinates on the feature point pair image. The angular distance is a difference in declination in polar coordinates on the feature point pair image.
Thereby, the feature point filtering means can perform the matching determination of the feature points according to the characteristics of the fisheye camera such that the farther from the center of the image, the larger the parallax between the two images.
そして、3次元位置算出装置は、特徴点3次元位置計算手段によって、特徴点フィルタリング手段を用いた後で、正しい特徴点のマッチングであると判定された特徴点対の両画像上の位置と、魚眼カメラ中心の距離とにより、三角測量の原理により、当該特徴点の3次元位置を計算する。
なお、3次元位置算出装置は、照明環境を撮影し、算出された特徴点の3次元位置により、照明環境をモデル化し、CGオブジェクトを生成するCG合成装置に組み込むことができる。
Then, the three-dimensional position calculation device uses the feature point three-dimensional position calculation means, after using the feature point filtering means, the positions of the feature point pairs determined to be correct feature point matching on both images, Based on the triangulation principle, the three-dimensional position of the feature point is calculated based on the distance from the center of the fisheye camera.
The three-dimensional position calculation device can be incorporated into a CG composition device that captures an image of the illumination environment, models the illumination environment based on the calculated three-dimensional position of the feature point, and generates a CG object.
本発明は、以下に示す優れた効果を奏するものである。
本発明によれば、2つの魚眼カメラで撮影された画像において、魚眼カメラの特性に合わせて、特徴点のマッチングを判定することができるため、誤マッチングを減らすことができ、特徴点の精度の高い3次元位置を求めることができる。
また、本発明によれば、特徴点のマッチング判定において、閾値判定を行うという簡易な方法であるため、計算コストを低く抑えることができる。
The present invention has the following excellent effects.
According to the present invention, since the matching of feature points can be determined in accordance with the characteristics of a fish-eye camera in images taken by two fish-eye cameras, false matching can be reduced, and A highly accurate three-dimensional position can be obtained.
Further, according to the present invention, since it is a simple method of performing threshold determination in feature point matching determination, the calculation cost can be kept low.
以下、本発明の実施形態について図面を参照して説明する。
≪映像合成システムの全体構成≫
最初に、図1を参照して、本発明の実施形態に係る映像合成システムSの全体構成について説明する。
Embodiments of the present invention will be described below with reference to the drawings.
≪Overall configuration of video composition system≫
First, the overall configuration of the video composition system S according to the embodiment of the present invention will be described with reference to FIG.
映像合成システムSは、スタジオカメラCsで撮影されるスタジオST内の実写映像と、CGオブジェクトとを実写映像における照明条件に合わせて合成し、合成映像Dを生成するものである。ここでは、映像合成システムSは、CG合成装置1と、実写CG合成装置3と、を備える。
The video composition system S synthesizes the live-action video in the studio ST photographed by the studio camera Cs and the CG object in accordance with the illumination conditions in the live-action video, and generates a composite video D. Here, the video composition system S includes a
CG合成装置1は、スタジオST内に予め設置した魚眼レンズを使用したセンサカメラ(以下、魚眼カメラCL,CR)で撮影された画像(左カメラ画像GL,右カメラ画像GR)から、光源L等の照明環境をモデル化するとともに、合成対象となる素材CGデータCGDをその照明環境においてレンダリングすることで、CGオブジェクト(CG画像)を生成するものである。なお、本明細書中、それぞれの魚眼カメラやその撮影画像を表すために、図面に合わせて便宜上“左”、“右”と表現しているが、これは単に“一方”、“他方”の意味を表しているにすぎない。
The
ここで、魚眼カメラCL,CRは、照明環境を撮影するため、天頂を撮影対象として、撮影画像が平行になるように所定の間隔で配置される。また、魚眼カメラCL,CRは、等距離射影方式のレンズを用い、同じ解像度であることとする。ここで、等距離射影方式とは、撮影した画像の中心からの距離と天頂角とが比例する方式である。
このCG合成装置1は、生成したCGオブジェクトを実写CG合成装置3に出力する。このCG合成装置1の構成および動作については、後で詳細に説明する。
Here, the fisheye cameras C L and C R are arranged at a predetermined interval so that the captured images are parallel with the zenith as the imaging target in order to capture the illumination environment. Further, fisheye camera C L, C R is a lens equidistant projection method, and it is the same resolution. Here, the equidistant projection method is a method in which the distance from the center of the captured image is proportional to the zenith angle.
The
実写CG合成装置3は、スタジオカメラCSで撮影された映像に、CG合成装置1で生成されたCGオブジェクトを合成するものである。なお、この実写CG合成装置3は、映像のフレームごとに、CGオブジェクトを合成する一般的な合成装置である。
また、実写CG合成装置3に入力される映像を撮影するスタジオカメラCSは、スタジオST内で被写体を映像として撮影する、放送局等で使用される一般的なカメラである。
このように、映像合成システムSは、CG合成装置1によって、実際の照明環境をCGオブジェクトに適用することで、視覚的に違和感のないCGを実写映像に合成することができる。
なお、ここでは、映像合成システムSは、スタジオST内のシステムとして構成した例を示しているが、一般的な建物内部、あるいは、室外において構成することとしても構わない。
以下、CG合成装置1の構成および動作について詳細に説明する。
Stock CG synthesizing
Moreover, the studio camera C S for capturing the images input to the live-action CG synthesizing
In this way, the video composition system S can synthesize a CG that is visually uncomfortable with a live-action video by applying the actual lighting environment to the CG object by the
Here, the video composition system S is shown as an example configured as a system in the studio ST, but may be configured inside a general building or outdoors.
Hereinafter, the configuration and operation of the
≪CG合成装置の構成≫
まず、図2を参照(適宜図1参照)して、本発明の実施形態に係るCG合成装置1の構成について説明する。
図2に示すように、CG合成装置1は、3次元位置算出手段10と、レンダリング手段20と、を備える。
≪Configuration of CG synthesizer≫
First, referring to FIG. 2 (refer to FIG. 1 as appropriate), the configuration of the
As shown in FIG. 2, the
3次元位置算出手段10は、魚眼カメラCL,CRで撮影されたそれぞれの画像(左カメラ画像GL,右カメラ画像GR)を入力し、画像内の特徴点を対応付けて、その特徴点の3次元位置を算出するものである。
ここでは、3次元位置算出装置10は、画像入力手段11と、特徴点抽出手段12と、特徴点フィルタリング手段13と、校正手段14と、特徴点3次元位置計算手段15と、を備える。
3D
Here, the three-dimensional
画像入力手段11は、魚眼カメラCL,CRが撮影した画像(左カメラ画像GL,右カメラ画像GR)を入力するものである。ここでは、画像入力手段11は、入力する魚眼カメラCL,CRに対応した左画像入力手段11Lと、右画像入力手段11Rと、を備える。すなわち、左画像入力手段11Lは、魚眼カメラCLが撮影した左カメラ画像GLを入力し、右画像入力手段11Rは、魚眼カメラCRが撮影した右カメラ画像GRを入力する。
この左画像入力手段11Lおよび右画像入力手段11Rは、入力した画像(左カメラ画像GL,右カメラ画像GR)を特徴点抽出手段12に出力する。
Image input means 11 is used for inputting fisheye camera C L, C R are photographed image (left camera image G L, the right camera image G R) to. Here, the image input unit 11 is provided with fish-eye camera C L to enter, the left
The left
特徴点抽出手段12は、画像入力手段11から入力された画像(左カメラ画像GL,右カメラ画像GR)から、それぞれの特徴点を抽出するものである。ここでは、特徴点抽出手段12は、入力する画像(左カメラ画像GL,右カメラ画像GR)に対応した左画像特徴点抽出手段12Lと、右画像特徴点抽出手段12Rと、を備える。すなわち、左画像特徴点抽出手段12Lは、左カメラ画像GLから特徴点(左画像特徴点)を抽出し、右画像特徴点抽出手段12Rは、右カメラ画像GRから特徴点(右画像特徴点)を抽出する。
The feature
ここで、特徴点は、撮影された画像内の画像特徴の変化する点であって、例えば、隣接画素に対する画素値あるいは輝度値が変化する点である。なお、この特徴点は、一般的な手法を用いて抽出することができる。例えば、左画像特徴点抽出手段12Lおよび右画像特徴点抽出手段12Rは、SIFT、SURF(Speeded Up Robust Features)等によって特徴点を抽出する。
この左画像特徴点抽出手段12Lおよび右画像特徴点抽出手段12Rは、抽出した特徴点(画像上の位置および特徴量)を特徴点フィルタリング手段13に出力する。なお、特徴量は、例えば、SIFTで特徴点を検出した場合、128次元のSIFT特徴量である。
Here, the feature point is a point at which the image feature in the photographed image changes, for example, a point at which a pixel value or a luminance value with respect to an adjacent pixel changes. This feature point can be extracted using a general method. For example, the left image feature
The left image feature
特徴点フィルタリング手段13は、特徴点抽出手段12の左画像特徴点抽出手段12Lおよび右画像特徴点抽出手段12Rで抽出された左画像特徴点と右画像特徴点との間の動径距離および角度距離に基づいて、対応する特徴点をフィルタリングするものである。
この特徴点フィルタリング手段13は、左画像特徴点抽出手段12Lおよび右画像特徴点抽出手段12Rのそれぞれで抽出された特徴量(画像特徴量)が最も類似する左画像特徴点と右画像特徴点とに対して、動径距離および角度距離がそれぞれ所定の閾値を基準に、当該閾値を上回っているか、あるいは、下回っているかにより、特徴点をフィルタリングする。ここでは、特徴点フィルタリング手段13は、動径距離が所定の閾値よりも小さく、かつ、角度距離が所定の閾値よりも小さい対応を、正しいマッチングとして採用する。
The feature
The feature
なお、特徴量が最も類似するとは、例えば、左画像特徴点と右画像特徴点との間の特徴量(例えば、SIFT特徴量)のユークリッド距離が最小となることをいう。
また、動径距離とは、画像(左カメラ画像GL,右カメラ画像GR)を極座標系で表したときの動径の距離(差)である。また、角度距離とは、画像を極座標系で表したときの偏角の距離(差)である。
これによって、特徴点フィルタリング手段13は、予めSIFT等によって特徴量が最も類似するとして対応している特徴点群から、誤マッチングを除去する。
そして、特徴点フィルタリング手段13は、フィルタリングした、対応する特徴点(画像上の位置および特徴量)を、校正手段14に出力する。
Note that the feature amount is most similar means, for example, that the Euclidean distance of the feature amount (for example, SIFT feature amount) between the left image feature point and the right image feature point is minimized.
The radial distance is a radial distance (difference) when images (left camera image G L , right camera image G R ) are represented in a polar coordinate system. The angular distance is a declination distance (difference) when an image is expressed in a polar coordinate system.
As a result, the feature
Then, the feature
ここで、図3を参照して、特徴点フィルタリング手段13が、マッチングの判定を行う基準となる動径距離および角度距離について説明する。図3は、左カメラ画像GL(全天画像)の座標系を示す図である。なお、右カメラ画像GRについても同様である。
図3に示すように、左カメラ画像GLの特徴点(左画像特徴点)の座標は、直交座標系で表した場合、p=(px,py)、極座標系で表した場合、動径r、偏角θとして、p=(rcosθ,rsinθ)となる。
Here, with reference to FIG. 3, the radial distance and the angular distance, which serve as a reference for the feature
As shown in FIG. 3, the coordinates of the feature point (left image feature point) of the left camera image GL are p = (p x , p y ) when expressed in an orthogonal coordinate system, and when expressed in a polar coordinate system, As the moving radius r and the deflection angle θ, p = (r cos θ, r sin θ).
すなわち、特徴点フィルタリング手段13は、左カメラ画像GLおよび右カメラ画像GRにおいて、極座標系で用いられる動径rおよび偏角θの距離により、特徴点のフィルタリングを行う。
ここで、距離計算を行う対象となる、左カメラ画像GLの特徴点の座標をp=(px,py)、図示を省略しているが、右カメラ画像GRの特徴点の座標をq=(qx,qy)とする。
このとき、特徴点フィルタリング手段13は、2点間の動径の距離(動径距離rd)を、以下の式(1)により求める。
That is, the feature point filtering means 13, in the left camera image G L and the right camera image G R, the distance of the radius vector r and declination θ used in a polar coordinate system, the filtering feature points.
Here, the target of the distance calculation, coordinates p = characteristic points of the left camera image G L (p x, p y ), although not shown, the feature point of the right camera image G R coordinates Is q = (q x , q y ).
At this time, the feature point filtering means 13 obtains a radial distance (radial distance r d ) between the two points by the following equation (1).
また、特徴点フィルタリング手段13は、2点間の偏角の距離(角度距離θd)を、以下の式(2)により求める。 Further, the feature point filtering means 13 obtains the declination distance (angular distance θ d ) between the two points by the following equation (2).
そして、特徴点フィルタリング手段13は、以下の式(3)に示すように、動径距離rdが閾値rthressholdよりも小さく、かつ、角度距離θdが閾値θthressholdよりも小さい2点p,qをマッチングする点とする。 Then, the feature point filtering means 13, as shown in the following equation (3), radial distance r d is less than the threshold value r Thresshold, and angular distance theta d threshold theta 2 points p less than Thresshold, Let q be a matching point.
なお、閾値rthressholdおよび閾値θthressholdは、以下の式(4)および式(5)で計算される値とする。 The threshold r Thresshold and threshold theta Thresshold is a value that is calculated by the following equation (4) and (5).
ここで、pwidthは、画像(左カメラ画像GL,右カメラ画像GR)の横幅(画素数)、pheightは、同画像の縦幅(画素数)を示す(図3参照)。
また、rpartitionは、画像(左カメラ画像GL,右カメラ画像GR)を極座標で表したときの動径rの分割数(動径分割数)を示し、θpartitionは、同画像を極座標で表したときの偏角θの分割数(偏角分割数)を示す。
この動径分割数rpartitionおよび偏角分割数θpartitionは、画像(左カメラ画像GL,右カメラ画像GR)を動径および偏角で区分する細かさを示す指標であって、画像の解像度等に基づいて予め定められる。もちろん、これらの分割数は、外部から設定されることとしてもよい。
また、動径分割数rpartitionは、閾値rthressholdが少なくとも魚眼カメラCL,CRの離間距離に相当する左カメラ画像GL,右カメラ画像GRの視差以上となる値とする。
なお、特徴点フィルタリング手段13は、さらに、対応する特徴点から、最小メジアン法等によって外れ値を除外しておくことが望ましい。
Here, p width represents the horizontal width (number of pixels) of the image (left camera image G L , right camera image G R ), and p height represents the vertical width (number of pixels) of the image (see FIG. 3).
R partition indicates the number of radial radius divisions (radial radius division number) when the images (left camera image G L , right camera image G R ) are expressed in polar coordinates, and θ partition indicates the image in polar coordinates. The number of divisions of declination θ (the number of declination divisions) is shown.
The radial division number r partition and the declination division number θ partition are indices indicating the fineness of dividing an image (left camera image G L , right camera image G R ) by radial and declination, It is determined in advance based on the resolution or the like. Of course, the number of divisions may be set from the outside.
Also, radial division number r partition the threshold r Thresshold is at least a fish left camera image G L, the value equal to or larger than the disparity of the right camera image G R which corresponds to the distance between the eye cameras C L, C R.
Note that it is desirable that the feature point filtering means 13 further excludes outliers from the corresponding feature points by the minimum median method or the like.
ここで、図4を参照して、特徴点フィルタリング手段13が行う閾値によるマッチング判定について視覚的に説明する。なお、図4は、左カメラ画像GLおよび右カメラ画像GRを同一座標上で表している。
図4(a)に示すように、特徴点フィルタリング手段13は、特徴点qaが特徴点paにマッチングするか否かは、動径および偏角の差が、領域Baの範囲であるか否かにより行う。
また、特徴点フィルタリング手段13は、特徴点paよりも動径が小さい位置に存在する特徴点pbについては、領域Baよりも範囲を狭くて、動径および偏角の差が、領域Bbの範囲であるか否かにより行う。
これによって、特徴点フィルタリング手段13は、動径が小さいほど、同じ特徴点であると判定する面積範囲を狭くし、動径が大きいほど、当該面積範囲を広げて、特徴点のマッチング判定を行う。
Here, with reference to FIG. 4, the matching determination by the threshold value which the feature point filtering means 13 performs is demonstrated visually. Incidentally, FIG. 4 shows the left camera image G L and the right camera images G R on the same coordinates.
As shown in FIG. 4 (a), or the feature point filtering means 13, whether the feature point q a is matched to the feature point p a, the difference between the radius vector and polarization angle, a range of the area Ba Depending on whether or not.
Further, the feature point filtering means 13, for the feature point p b at the position movement diameter is smaller than the feature point p a, narrow range than the region Ba, the difference between the radius vector and declination, region Bb It is performed depending on whether or not it is within the range.
As a result, the feature point filtering means 13 narrows the area range to be determined as the same feature point as the radius is smaller, and widens the area range as the radius is larger, and performs the feature point matching judgment. .
なお、参考までに、図4(b)に、従来の画像上の単純距離によってマッチング判定を行う場合の閾値範囲について説明しておく。図4(b)に示すように、従来は、たとえ動径距離が異なる特徴点pc,pdであっても、同一の距離(同一半径の円領域Bc,Bd)の範囲で、特徴点のマッチングを行っていた。
このように、特徴点フィルタリング手段13は、画像中心から離れる(動径が大きい)ほど、より多くの画素をマッチング判定の画素とすることで、魚眼カメラの特性に合わせて、対応する特徴点を精度よくフィルタリングすることができる。
図2に戻って、CG合成装置1の構成について説明を続ける。
For reference, FIG. 4B illustrates a threshold range in the case of performing matching determination based on a simple distance on a conventional image. As shown in FIG. 4B, conventionally, even if the feature points p c and p d have different radial distances, the feature points are within the same distance (the circular regions Bc and Bd having the same radius). Was matching.
As described above, the feature
Returning to FIG. 2, the description of the configuration of the
校正手段14は、特徴点フィルタリング手段13でフィルタリングされた特徴点に基づいて、カメラ校正を行うものである。すなわち、校正手段14は、左カメラ画像GLと右カメラ画像GRとが、魚眼カメラCL,CRの光軸が平行し、魚眼カメラ内の撮像素子の水平軸が一致するように、一方の画像(例えば、左カメラ画像GL)の特徴点を基準として、他方の画像(例えば、右カメラ画像GR)の特徴点の画像上の位置補正を行う。
The
この校正手段14は、特徴点フィルタリング手段13でフィルタリングされた対応(マッチング)する特徴点群から、一方の画像と他方の画像とが平行になるような基本行列を求め、両方の画像の特徴点の位置を基本行列により変換(回転)する。
この基本行列は、例えば、対応する少なくとも8点の特徴点により求めることができる。この基本行列を求める8点アルゴリズムについては、一般的なものであるため、ここでは説明を省略する。
この校正手段14は、校正した後の対応する特徴点の位置(画像上の位置)を、特徴点3次元位置計算手段15に出力する。
The calibrating
This basic matrix can be obtained from, for example, at least eight corresponding feature points. Since the 8-point algorithm for obtaining the basic matrix is a general algorithm, description thereof is omitted here.
The calibrating
特徴点3次元位置計算手段15は、校正後の画像上の対応する2点の特徴点の位置と、魚眼カメラCL,CR間の距離とから、特徴点の3次元空間内での位置(特徴点3次元位置)を計算するものである。 Feature point three-dimensional position calculating means 15, on the image after calibration the position of the feature point of the corresponding two points, fisheye camera C L, and a distance between the C R, the feature points in the three-dimensional space The position (feature point three-dimensional position) is calculated.
具体的には、特徴点3次元位置計算手段15は、図5に示すように、魚眼カメラCL,CRの主点位置から3次元空間上の特徴点(特徴点3次元位置P)までのベクトル(単位方向ベクトル)u,vを求める。そして、特徴点3次元位置計算手段15は、予め3次元空間上の位置が既知である魚眼カメラCL,CR間の距離wと、ベクトルu,vとにより三角測量の原理で、特徴点の3次元空間内での位置(特徴点3次元位置P)を計算する。
なお、それぞれのベクトルは、魚眼カメラCL,CRで撮影された左カメラ画像GL,右カメラ画像GR(校正されている場合は、校正後の画像)の特徴点の座標から求めることができる。
Specifically, the feature point three-dimensional position calculating means 15, as shown in FIG. 5, fisheye camera C L, C principal point feature point in a three-dimensional space from the position of R (3-dimensional feature point position P) Vectors (unit direction vectors) u and v are obtained. Then, the feature point three-dimensional position calculating means 15, a fish-eye camera C L position on advance three-dimensional space is known, the distance w between C R, the principle of triangulation by a vector u, v, wherein The position of the point in the three-dimensional space (feature point three-dimensional position P) is calculated.
Note that each of the vectors, fisheye camera C L, C R in the captured left camera image G L, the right camera image G R (if it is calibrated, the image after calibration) determined from the coordinates of the feature points of be able to.
ここで、図6を参照して、特徴点3次元位置計算手段15が算出するベクトルについて説明する。なお、魚眼カメラCL,CRのベクトル算出は同じ手法であるため、ここでは、魚眼カメラCLを始点とするベクトルuについて説明する。
魚眼カメラCLは等距離射影方式のカメラであることから、魚眼カメラCLの焦点距離をfとしたとき、図6(a)に示すように、魚眼カメラCLの天頂方向のベクトルTとベクトルuとの角(天頂角Lθ1)と、画像(左カメラ画像GL)上の特徴点の座標pの動径rとには、以下の式(6)の関係が成り立つ。
Here, with reference to FIG. 6, the vector which the feature point three-dimensional position calculation means 15 calculates is demonstrated. Since fisheye camera C L, vector calculation of C R is the same technique will be described here vector u whose starting point is the fisheye camera C L.
Since fisheye camera C L is a camera equidistant projection method, when the focal length of the fisheye camera C L is f, as shown in FIG. 6 (a), the zenith of the fisheye camera C L The following equation (6) is established between the angle between the vector T and the vector u (the zenith angle L θ1 ) and the radius r of the coordinate p of the feature point on the image (left camera image G L ).
また、図6(b)に示すように、ベクトルuを画像(左カメラ画像GL)上に投影したときの偏角Lθ2は、図3で説明したように、画像(左カメラ画像GL)を極座標系で表したときの偏角と同じである。
よって、特徴点3次元位置計算手段15は、魚眼カメラCLに対応するベクトルuを、天頂角Lθ1および偏角Lθ2で特定する。同様に、特徴点3次元位置計算手段15は、魚眼カメラCRに対応するベクトルvを、天頂角Rθ1および偏角Rθ2で特定する。
Further, as shown in FIG. 6 (b), declination L .theta.2 in projecting the vector u on the image (left camera image G L), as described in FIG. 3, the image (left camera image G L ) Is the same as the declination when expressed in the polar coordinate system.
Therefore, the feature point three-dimensional
そして、特徴点3次元位置計算手段15は、図5に示すように、魚眼カメラCL,CR間の距離wと、ベクトルu(Lθ1,Lθ2),v(Rθ1,Rθ2)とにより三角測量の原理で、特徴点の3次元空間内での位置(特徴点3次元位置P)を計算する。
なお、3次元空間内では、ベクトルu,vはねじれの関係になり、交点をもたない場合がある。そこで、特徴点3次元位置計算手段15は、ベクトルu,vの最接近点を特徴点3次元位置Pとして計算する。
図2に戻って、CG合成装置1の構成について説明を続ける。
Then, as shown in FIG. 5, the feature point three-dimensional position calculation means 15 calculates the distance w between the fisheye cameras C L and C R and the vectors u (L θ1 , L θ2 ) and v (R θ1 , R θ2). The position of the feature point in the three-dimensional space (feature point three-dimensional position P) is calculated by the principle of triangulation.
In the three-dimensional space, the vectors u and v have a twisted relationship and may not have an intersection. Therefore, the feature point three-dimensional position calculation means 15 calculates the closest point of the vectors u and v as the feature point three-dimensional position P.
Returning to FIG. 2, the description of the configuration of the
特徴点3次元位置計算手段15は、計算で求めた特徴点3次元位置を、レンダリング手段20に出力する。また、ここでは、特徴点3次元位置計算手段15は、特徴点3次元位置に対応する魚眼カメラの画像(例えば、左カメラ画像GL)の特徴点の位置を、レンダリング手段20に出力する。
The feature point three-dimensional
これによって、3次元位置算出手段10は、特徴点マッチングを行う際に、全天画像を平面画像に展開するような前処理を必要とせず、動径距離、角度距離の単純な閾値判定により、対応する特徴点のフィルタリングを行うため、計算コストを抑えることができる。また、3次元位置算出手段10は、魚眼カメラの特性を考慮した距離(動径距離、角度距離)を用いるため、画像内の実際の距離により特徴点をフィルタリングする従来の手法に比べて、特徴点のマッチングを精度よく行うことができる。 As a result, the three-dimensional position calculation means 10 does not require preprocessing for developing the whole sky image into a flat image when performing feature point matching, and by simple threshold determination of the radial distance and the angular distance, Since the corresponding feature points are filtered, the calculation cost can be reduced. In addition, since the three-dimensional position calculation means 10 uses a distance (radial distance, angular distance) in consideration of the characteristics of the fisheye camera, compared to the conventional method of filtering feature points by the actual distance in the image, Feature point matching can be performed with high accuracy.
レンダリング手段20は、3次元位置算出手段10で算出された特徴点3次元位置によって特定される照明環境をモデル化し、素材CGデータからその照明環境に応じたCG画像(CGオブジェクト)を生成するものである。
ここでは、レンダリング手段20は、光源分布マップ生成手段21と、陰影処理手段22と、を備える。
The
Here, the
光源分布マップ生成手段21は、3次元位置算出手段10で算出された特徴点3次元位置から、照明環境の光源分布の情報を、特徴点3次元位置を頂点とする三角メッシュに対応付けて、光源分布マップを生成するものである。
すなわち、光源分布マップ生成手段21は、特徴点3次元位置を頂点とする三角メッシュごとに、当該三角メッシュ内の領域を、光源分布画像(ここでは、左カメラ画像GLのものとする)中の当該三角メッシュの各頂点である特徴点で囲まれる領域に対応付ける。
The light source distribution map generating means 21 associates the information on the light source distribution of the illumination environment from the three-dimensional position of the feature point calculated by the three-dimensional position calculation means 10 with a triangular mesh having the feature point three-dimensional position as a vertex, A light source distribution map is generated.
That is, the light source distribution
これによって、光源分布マップ生成手段21は、三角メッシュごとに画像領域を対応付けて、照明環境となる光源分布マップを生成することができる。
この光源分布マップ生成手段21は、モデル化した照明環境のデータである光源分布マップを陰影処理手段22に出力する。
As a result, the light source distribution map generating means 21 can generate a light source distribution map as an illumination environment by associating image regions with each triangular mesh.
The light source distribution
陰影処理手段22は、光源分布マップ生成手段21でモデル化された光源分布マップに基づいて、素材CGデータCGDを陰影処理して、実写映像に合成するためのCGオブジェクトを生成するものである。
この陰影処理手段22は、CGオブジェクトを配置する実空間(3次元空間)上の位置で、カメラ(スタジオカメラCS)を視点位置とするCGオブジェクトを生成する。このとき、陰影処理手段22は、素材CGデータCGDに、光源分布マップのそれぞれの三角メッシュ領域で特定される光源輝度に基づいて、陰影処理を施す。
The
The shadow processing means 22 generates a CG object having a camera (studio camera C S ) as a viewpoint position at a position on the real space (three-dimensional space) where the CG object is placed. At this time, the shading processing means 22 performs shading processing on the material CG data CG D based on the light source luminance specified in each triangular mesh region of the light source distribution map.
この陰影処理手段22において、陰影処理を行う際の光源分布マップの役割について簡単に説明する。
図7に示すように、光源分布マップMは、照明環境を三角メッシュでモデル化したもので、個々の三角メッシュには、例えば、光源Lそのものの輝度情報や、光源Lの間接光の輝度情報が対応対けられている。
The role of the light source distribution map when performing shadow processing in the shadow processing means 22 will be briefly described.
As shown in FIG. 7, the light source distribution map M is obtained by modeling the illumination environment with a triangular mesh. Each triangular mesh includes, for example, luminance information of the light source L itself and luminance information of indirect light of the light source L. Has been dealt with.
すなわち、陰影処理手段22は、CG形状およびその形状に照射する光の方向に対応する三角メッシュの光源情報に基づいて、CGオブジェクトの画素値を決定する。
この陰影処理手段22における陰影処理は、一般的な手法を用いればよく、例えば、IBL(Image Based Lighting)等の手法を用いればよい。
この陰影処理手段22は、生成したCGオブジェクトを、実写CG合成装置3に出力する。
That is, the shadow processing means 22 determines the pixel value of the CG object based on the light source information of the triangular mesh corresponding to the CG shape and the direction of the light that irradiates the shape.
The shading processing in the shading processing means 22 may use a general method, for example, a method such as IBL (Image Based Lighting).
The shadow processing means 22 outputs the generated CG object to the live-action
これによって、レンダリング手段20は、3次元位置算出手段10で算出された特徴点の3次元位置から、光源分布マップを生成し、実際の照明環境に合ったCGオブジェクトを生成することができる。
Thus, the
以上説明したように、CG合成装置1を構成することで、CG合成装置1は、魚眼カメラの特性に応じた特徴点のフィルタリングにより、特徴点のマッチングの精度を高め、より正確な照明環境をモデル化することができる。これによって、CG合成装置1は、実写映像に合成しても、違和感のないCGオブジェクトを生成することができる。
As described above, by configuring the
≪CG合成装置の動作≫
次に、図8を参照(適宜図1,図2参照)して、本発明の実施形態に係るCG合成装置1の動作について説明する。
まず、CG合成装置1は、3次元位置算出手段10の画像入力手段11(左画像入力手段11L,右画像入力手段11R)によって、照明環境を撮影した魚眼カメラCL,CRから、撮影画像(左カメラ画像GL,右カメラ画像GR)を入力する(ステップS1)。
≪Operation of CG synthesizer≫
Next, referring to FIG. 8 (refer to FIGS. 1 and 2 as appropriate), the operation of the
First, the
そして、CG合成装置1は、特徴点抽出手段12(左画像特徴点抽出手段12L,右画像特徴点抽出手段12R)によって、ステップS1で入力された画像からSIFT等により特徴点を抽出する(ステップS2)。
すなわち、左画像特徴点抽出手段12Lが、左カメラ画像GLから特徴点(左画像特徴点)を抽出し、右画像特徴点抽出手段12Rが、右カメラ画像GRから特徴点(右画像特徴点)を抽出する。
そして、CG合成装置1は、特徴点フィルタリング手段13によって、ステップS2で抽出された、特徴量が最も類似する左画像特徴点と右画像特徴点とに対して、動径距離が所定の閾値よりも小さく、かつ、角度距離が所定の閾値よりも小さい対応を、正しいマッチングとして採用(フィルタリング)する(ステップS3)。
これによって、特徴点フィルタリング手段13は、魚眼カメラの特性に合わせて、対応する特徴点を精度よくフィルタリングすることができる。
Then, the
That is, the left image feature
Then, the
Thereby, the feature point filtering means 13 can accurately filter the corresponding feature points according to the characteristics of the fisheye camera.
そして、CG合成装置1は、校正手段14によって、カメラ校正による特徴点の位置補正を行う(ステップS4)。
すなわち、校正手段14は、ステップS3でフィルタリングされたマッチングする特徴点群から、位置補正を行うための基本行列を求め、両画像(左カメラ画像GLおよび右カメラ画像GR)の特徴点の画像上の位置補正を行う。
Then, the
That is, calibration means 14, the feature point group matching is filtered in step S3, determined the basic matrix for performing the position correction, the feature points of two images (left camera image G L and the right camera image G R) Perform position correction on the image.
そして、CG合成装置1は、特徴点3次元位置計算手段15によって、ステップS4の校正後の画像上の対応する2点の特徴点の位置と、魚眼カメラCL,CR間の距離とから、特徴点の3次元空間内での位置(特徴点3次元位置)を計算する(ステップS5)。
このステップS5までの動作によって、魚眼カメラCL,CRが撮影した画像(左カメラ画像GL,右カメラ画像GR)から、特徴点の3次元位置を算出することができる。
Then,
The operation up to this step S5, fisheye camera C L, C R are photographed image (left camera image G L, the right camera image G R) from, it is possible to calculate the three-dimensional position of the feature point.
その後、CG合成装置1は、レンダリング手段20の光源分布マップ生成手段21によって、ステップS5までの動作で算出された特徴点の3次元位置から、照明環境の光源分布の情報を、特徴点3次元位置を頂点とする三角メッシュに対応付けて、光源分布マップを生成する(ステップS6)。
これによって、実空間における照明環境がモデル化されることになる。
Thereafter, the
As a result, the lighting environment in the real space is modeled.
そして、CG合成装置1は、陰影処理手段22によって、ステップS6で生成された光源分布マップに基づいて、素材CGデータに陰影処理を施して、実写映像に合成するためのCGオブジェクトを生成する(ステップS7)。
これによって、CG合成装置1は、実空間の照明環境に合った、実写映像に合成されても違和感のないCGオブジェクトを生成することができる。
Then, the
As a result, the
以上、本発明の実施形態に係るCG合成装置1の構成および動作について説明したが、本発明はこの実施形態に限定されるものではない。
例えば、ここでは、CG合成装置1の構成として、3次元位置算出手段10と、レンダリング手段20と、を備える構成としたが、これらは独立して構成してもよい。
すなわち、3次元位置算出手段10を3次元位置算出装置、レンダリング手段20をレンダリング装置として分離して構成してもよい。
As mentioned above, although the structure and operation | movement of CG synthesizing | combining
For example, here, the configuration of the
That is, the three-dimensional
また、ここでは、CG合成装置1の3次元位置算出手段10は、校正手段14を備える構成としたが、予め魚眼カメラCL,CRが校正された状態で配置されたものであれば、校正手段14を構成から省略しても構わない。
また、逆に、魚眼カメラCL,CRが無校正な状態で配置されたものであれば、画像入力手段11と特徴点抽出手段12との間に、カメラ校正を行う第2の校正手段を備えることとしてもよい。
この場合、第2の校正手段は、例えば、一方の画像(例えば、左カメラ画像GL)を基準として、他方の画像(例えば、右カメラ画像GR)が最も類似するように、当該他方の画像を回転させることとする。
Here, the three-dimensional position calculation means 10 of the
Conversely, as long as the fisheye camera C L, C R are arranged in a non-calibration state, between the image input unit 11 and feature
In this case, for example, the second calibration unit uses the one image (for example, the left camera image G L ) as a reference so that the other image (for example, the right camera image G R ) is most similar. The image is rotated.
以上説明したCG合成装置1およびその変形例は、コンピュータを前記した各手段として機能させるプログラム(CG合成プログラム)で動作させることができる。
また、CG合成装置1を、3次元位置算出装置およびレンダリング装置として分離して構成する場合、3次元位置算出装置は、コンピュータを、先に説明した3次元位置算出手段10の各手段として機能させるプログラム(3次元位置算出プログラム)で動作させることができる。また、レンダリング装置は、コンピュータを、先に説明したレンダリング手段20の各手段として機能させるプログラム(レンダリングプログラム)で動作させる。また、これらのプログラムは、記録媒体に記録して配布したり、通信回線を介して配布したりすることも可能である。
The
When the
S 映像合成システム
1 CG合成装置
10 3次元位置算出手段(3次元位置算出装置)
11 画像入力手段
11L 左画像入力手段
11R 右画像入力手段
12 特徴点抽出手段
12L 左画像特徴点抽出手段
12R 右画像特徴点抽出手段
13 特徴点フィルタリング手段
14 校正手段
15 特徴点3次元位置計算手段
20 レンダリング手段(レンダリング装置)
21 光源分布マップ生成手段
22 陰影処理手段
CL 魚眼カメラ
CR 魚眼カメラ
S
DESCRIPTION OF SYMBOLS 11 Image input means 11L Left image input means 11R Right image input means 12 Feature point extraction means 12L Left image feature point extraction means 12R Right image feature point extraction means 13 Feature point filtering means 14 Calibration means 15 Feature point three-dimensional position calculation means 20 Rendering means (rendering device)
21 light source distribution map generating means 22 shading means C L fisheye camera C R fisheye camera
Claims (5)
前記2台の魚眼カメラで撮影された一方の画像と他方の画像とから、それぞれ画像特徴の変化する特徴点を抽出する特徴点抽出手段と、
この特徴点抽出手段で抽出された特徴点における画像特徴量が両画像間で最も類似する特徴点対において、前記両画像を極座標で表したときのそれぞれの特徴点の動径の差である動径距離が所定の閾値よりも小さく、かつ、偏角の差である角度距離が所定の閾値よりも小さい特徴点対を同じ特徴点を指し示す特徴点対としてフィルタリングする特徴点フィルタリング手段と、
この特徴点フィルタリング手段でフィルタリングされた特徴点対の両画像上の位置と、前記魚眼カメラの距離とにより、当該特徴点の3次元位置を計算する特徴点3次元位置計算手段と、
を備えることを特徴とする3次元位置算出装置。 A three-dimensional position calculation device for calculating a three-dimensional position of a feature point in an image from images captured by two fisheye cameras having equidistant projection type fisheye lenses,
Feature point extracting means for extracting feature points with varying image characteristics from one image and the other image captured by the two fisheye cameras;
In the feature point pair in which the image feature quantity at the feature point extracted by the feature point extracting unit is the most similar between the two images, a motion that is a difference in radius of each feature point when the two images are expressed in polar coordinates. A feature point filtering means for filtering feature point pairs in which the radial distance is smaller than a predetermined threshold and the angular distance that is a difference in declination is smaller than the predetermined threshold as a feature point pair indicating the same feature point;
A feature point three-dimensional position calculation means for calculating a three-dimensional position of the feature point based on the position of both of the feature point pairs filtered by the feature point filtering means and the distance of the fisheye camera;
A three-dimensional position calculation apparatus comprising:
前記特徴点3次元位置計算手段が、変換後の特徴点対によって前記3次元位置を計算することを特徴とする請求項1に記載の3次元位置算出装置。 A basic matrix for parallelizing the other image with the one image is obtained from positions on both images of the plurality of feature point pairs filtered by the feature point filtering means, and the feature points of the other image are obtained. Calibration means for converting according to the basic matrix further comprises
The three-dimensional position calculation apparatus according to claim 1, wherein the feature point three-dimensional position calculation unit calculates the three-dimensional position based on the converted feature point pair.
前記2台の魚眼カメラで撮影された画像から、当該画像中の特徴点の3次元位置を算出する請求項1から請求項3のいずれか一項に記載の3次元位置算出装置と、
この3次元位置算出装置で算出された3次元位置を頂点とする三角メッシュごとに、当該三角メッシュ内の領域を、前記魚眼カメラのいずれかで撮影された画像中の当該三角メッシュの各頂点である特徴点で囲まれる領域に対応付けて、前記照明環境をモデル化した光源分布マップを生成する光源分布マップ生成手段と、
この光源分布マップ生成手段で生成された光源分布マップに基づいて、素材CGデータを陰影処理して、前記CGオブジェクトを生成する陰影処理手段と、
を備えることを特徴とするCG合成装置。 CG synthesis for generating a CG object to be synthesized with a live-action video photographed in the illumination environment from images photographed by two fisheye cameras equipped with equidistant projection fisheye lenses for photographing the illumination environment A device,
The three-dimensional position calculation device according to any one of claims 1 to 3, wherein a three-dimensional position of a feature point in the image is calculated from images captured by the two fisheye cameras;
For each triangular mesh whose vertex is the three-dimensional position calculated by the three-dimensional position calculation device, each vertex of the triangular mesh in the image photographed by any of the fisheye cameras A light source distribution map generating means for generating a light source distribution map that models the illumination environment in association with a region surrounded by feature points that are:
Based on the light source distribution map generated by the light source distribution map generating means, the shadow processing means for generating the CG object by shading the material CG data,
A CG synthesizer comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014252738A JP2016114445A (en) | 2014-12-15 | 2014-12-15 | Three-dimensional position calculation device, program for the same, and cg composition apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014252738A JP2016114445A (en) | 2014-12-15 | 2014-12-15 | Three-dimensional position calculation device, program for the same, and cg composition apparatus |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2016114445A true JP2016114445A (en) | 2016-06-23 |
Family
ID=56139953
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014252738A Pending JP2016114445A (en) | 2014-12-15 | 2014-12-15 | Three-dimensional position calculation device, program for the same, and cg composition apparatus |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2016114445A (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110473237A (en) * | 2019-06-25 | 2019-11-19 | 上海圭目机器人有限公司 | A kind of deflection angle measurement method of road face image detection camera |
| JP2020151268A (en) * | 2019-03-20 | 2020-09-24 | ソニー・オリンパスメディカルソリューションズ株式会社 | Medical image processing apparatus and medical observation system |
| CN114008447A (en) * | 2019-06-27 | 2022-02-01 | 西门子能源环球有限责任两合公司 | Method for detecting and displaying potential damage points on components of an overhead line |
| US11307595B2 (en) | 2019-10-25 | 2022-04-19 | Multipleye Co., Ltd. | Apparatus for acquisition of distance for all directions of moving body and method thereof |
| JP2025058932A (en) * | 2023-09-28 | 2025-04-09 | 北京師範大学-香港浸会大学聯合国際学院 | CLOSED LOOP DETECTION METHOD, ELECTRONIC DEVICE AND STORAGE MEDIUM |
-
2014
- 2014-12-15 JP JP2014252738A patent/JP2016114445A/en active Pending
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020151268A (en) * | 2019-03-20 | 2020-09-24 | ソニー・オリンパスメディカルソリューションズ株式会社 | Medical image processing apparatus and medical observation system |
| JP7239362B2 (en) | 2019-03-20 | 2023-03-14 | ソニー・オリンパスメディカルソリューションズ株式会社 | Medical image processing device and medical observation system |
| CN110473237A (en) * | 2019-06-25 | 2019-11-19 | 上海圭目机器人有限公司 | A kind of deflection angle measurement method of road face image detection camera |
| CN110473237B (en) * | 2019-06-25 | 2022-05-03 | 上海圭目机器人有限公司 | Deflection angle measuring method of camera for road surface image detection |
| CN114008447A (en) * | 2019-06-27 | 2022-02-01 | 西门子能源环球有限责任两合公司 | Method for detecting and displaying potential damage points on components of an overhead line |
| US11307595B2 (en) | 2019-10-25 | 2022-04-19 | Multipleye Co., Ltd. | Apparatus for acquisition of distance for all directions of moving body and method thereof |
| JP2025058932A (en) * | 2023-09-28 | 2025-04-09 | 北京師範大学-香港浸会大学聯合国際学院 | CLOSED LOOP DETECTION METHOD, ELECTRONIC DEVICE AND STORAGE MEDIUM |
| JP7808356B2 (en) | 2023-09-28 | 2026-01-29 | 北京師範大学-香港浸会大学聯合国際学院 | Closed-loop detection method, electronic device and storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12125191B1 (en) | Collaborative disparity decomposition | |
| TWI555379B (en) | Panoramic fisheye camera image correction, synthesis and depth of field reconstruction method and system thereof | |
| JP5580164B2 (en) | Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program | |
| CN106464853B (en) | Image processing device and method | |
| US20190012804A1 (en) | Methods and apparatuses for panoramic image processing | |
| US20200334842A1 (en) | Methods, devices and computer program products for global bundle adjustment of 3d images | |
| US11620730B2 (en) | Method for merging multiple images and post-processing of panorama | |
| US20120242795A1 (en) | Digital 3d camera using periodic illumination | |
| US10540784B2 (en) | Calibrating texture cameras using features extracted from depth images | |
| CN103839227B (en) | Fisheye image correcting method and device | |
| JP2018515825A (en) | LIDAR stereo fusion live-action 3D model virtual reality video | |
| US20180014003A1 (en) | Measuring Accuracy of Image Based Depth Sensing Systems | |
| CN112686877A (en) | Binocular camera-based three-dimensional house damage model construction and measurement method and system | |
| JP2015022510A (en) | Free viewpoint image capturing apparatus and method | |
| CN108629829B (en) | A three-dimensional modeling method and system combining dome camera and depth camera | |
| JPWO2016181687A1 (en) | Image processing apparatus, image processing method, and program | |
| WO2016018392A1 (en) | Three dimensional scanning system and framework | |
| JP6683307B2 (en) | Optimal spherical image acquisition method using multiple cameras | |
| WO2020151268A1 (en) | Generation method for 3d asteroid dynamic map and portable terminal | |
| Lin et al. | A low-cost portable polycamera for stereoscopic 360 imaging | |
| JP2016114445A (en) | Three-dimensional position calculation device, program for the same, and cg composition apparatus | |
| WO2020075252A1 (en) | Information processing device, program, and information processing method | |
| US20220405968A1 (en) | Method, apparatus and system for image processing | |
| US8340399B2 (en) | Method for determining a depth map from images, device for determining a depth map | |
| US20230005213A1 (en) | Imaging apparatus, imaging method, and program |