[go: up one dir, main page]

JP2016114445A - Three-dimensional position calculation device, program for the same, and cg composition apparatus - Google Patents

Three-dimensional position calculation device, program for the same, and cg composition apparatus Download PDF

Info

Publication number
JP2016114445A
JP2016114445A JP2014252738A JP2014252738A JP2016114445A JP 2016114445 A JP2016114445 A JP 2016114445A JP 2014252738 A JP2014252738 A JP 2014252738A JP 2014252738 A JP2014252738 A JP 2014252738A JP 2016114445 A JP2016114445 A JP 2016114445A
Authority
JP
Japan
Prior art keywords
feature point
image
dimensional position
feature
position calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014252738A
Other languages
Japanese (ja)
Inventor
寛史 盛岡
Hirofumi Morioka
寛史 盛岡
英彦 大久保
Hidehiko Okubo
英彦 大久保
秀樹 三ツ峰
Hideki Mitsumine
秀樹 三ツ峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK filed Critical Nippon Hoso Kyokai NHK
Priority to JP2014252738A priority Critical patent/JP2016114445A/en
Publication of JP2016114445A publication Critical patent/JP2016114445A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】魚眼カメラを用いて特徴点の3次元位置を算出する3次元位置算出装置を提供する。【解決手段】3次元位置算出装置10は、等距離射影方式の2台の魚眼カメラで撮影された画像から、それぞれ特徴点を抽出する特徴点抽出手段12と、抽出された特徴点における画像特徴量が両画像間で最も類似する特徴点対において、両画像上を極座標で表したときのそれぞれの特徴点の動径の差である動径距離が所定の閾値よりも小さく、かつ、偏角の差である角度距離が所定の閾値よりも小さい特徴点対を同じ特徴点を指し示す特徴点対としてフィルタリングする特徴点フィルタリング手段13と、フィルタリングされた特徴点対の両画像上の位置と、魚眼カメラの距離とにより、当該特徴点の3次元位置を計算する特徴点3次元位置計算手段15と、を備える。【選択図】図2A three-dimensional position calculation apparatus for calculating a three-dimensional position of a feature point using a fisheye camera is provided. A three-dimensional position calculation apparatus 10 includes feature point extraction means 12 for extracting feature points from images photographed by two fisheye cameras of an equidistant projection method, and images at the extracted feature points. In the feature point pair whose feature quantity is most similar between both images, the radial distance, which is the difference between the radial diameters of the feature points when both images are represented in polar coordinates, is smaller than a predetermined threshold value, and A feature point filtering means 13 for filtering a feature point pair whose angle distance, which is a difference in angles, is smaller than a predetermined threshold value as a feature point pair indicating the same feature point, a position on both images of the filtered feature point pair, Feature point three-dimensional position calculation means 15 for calculating the three-dimensional position of the feature point according to the distance of the fisheye camera. [Selection] Figure 2

Description

本発明は、魚眼カメラを用いた3次元空間上のオブジェクトの位置を算出する3次元位置算出装置およびそのプログラム、ならびに、CG合成装置に関する。   The present invention relates to a three-dimensional position calculation device that calculates the position of an object in a three-dimensional space using a fisheye camera, a program for the same, and a CG composition device.

近年、CG(Computer Graphics)技術の発達に伴い、映画、テレビ番組等で、CGオブジェクトと実写映像とを合成したCG合成映像が用いられている。
このように、CGオブジェクトと実写映像とを合成する場合、CGオブジェクトを実写映像の照明条件に合わせる必要がある。
In recent years, with the development of CG (Computer Graphics) technology, CG composite video in which a CG object and a live-action video are combined is used in movies, television programs, and the like.
Thus, when combining a CG object and a live-action video, it is necessary to match the CG object with the illumination conditions of the live-action video.

従来、実世界において、できるだけ広範囲からの光を取り込むため、2台の魚眼カメラで撮影された画像から、実光源環境をモデル化し、その環境でCG合成を行う手法(以下、実光源計測手法)が開示されている(特許文献1、非特許文献1)。
この実光源計測手法は、まず、2台の魚眼カメラを光源方向に向け、光源の分布を撮影する。そして、この手法は、撮影された2つの画像から、マッチングする特徴点の3次元位置を求め、その特徴点を頂点とする三角メッシュを生成する。そして、この手法は、それぞれの三角メッシュごとに、撮影された画像から輝度を計算することで、光源分布の情報を、三角メッシュをつなぎ合わせたモデルで近似的に求めている。
なお、実光源計測手法は、それぞれの画像中心から3次元空間上の特徴点までの2直線の交差誤差が最小となる特徴点を、画像間でマッチングする特徴点として選択し、交差誤差が最小となる特徴点が複数存在する場合は、画像上のピクセル座標が最も近い特徴点を選択している。
Conventionally, in order to capture light from a wide range as much as possible in the real world, a method of modeling an actual light source environment from images taken by two fisheye cameras and performing CG synthesis in that environment (hereinafter referred to as an actual light source measurement method) ) Is disclosed (Patent Document 1, Non-Patent Document 1).
In this actual light source measurement method, first, two fisheye cameras are pointed in the light source direction, and the distribution of the light sources is photographed. In this method, the three-dimensional position of the matching feature point is obtained from the two captured images, and a triangular mesh having the vertex as the feature point is generated. In this method, the luminance distribution is calculated from the captured image for each triangular mesh, so that information on the light source distribution is approximately obtained by a model in which the triangular meshes are connected.
In the actual light source measurement method, the feature point that minimizes the intersection error of two straight lines from the center of each image to the feature point in the three-dimensional space is selected as the feature point that matches between the images, and the intersection error is minimized. When there are a plurality of feature points, the feature point having the closest pixel coordinate on the image is selected.

このように複数の魚眼カメラで撮影された画像間で特徴点のマッチングをとる手法は、特許文献1、非特許文献1以外にも、種々提案されている(例えば、特許文献2,3、非特許文献2,3等)。
なお、特許文献2の手法は、特徴点の対応付けに、RANSAC(RANdom SAmpleConsensus)を用いている。また、特許文献3の手法は、魚眼カメラで撮影された魚眼画像(全天画像)を平面展開し、SSD(Sum of Squared Difference)の演算により特徴点のマッチングを行っている。また、非特許文献2の手法は、全特徴点を対象として、ZNCC(正規化相互相関:Zero-mean Normalized Cross-Correlation)の演算により特徴点のマッチングを行っている。また、非特許文献3の手法は、特徴点の対応の誤差を最小化するためバンドル調整のアルゴリズムを用いている。
In addition to Patent Document 1 and Non-Patent Document 1, various methods for matching feature points between images photographed by a plurality of fisheye cameras have been proposed (for example, Patent Documents 2 and 3; Non-patent documents 2 and 3).
Note that the method of Patent Document 2 uses RANSAC (RANdom SAmpleConsensus) for associating feature points. In the method of Patent Document 3, a fish-eye image (all-sky image) photographed by a fish-eye camera is developed on a plane, and feature points are matched by calculating an SSD (Sum of Squared Difference). In the method of Non-Patent Document 2, feature points are matched by calculating ZNCC (Zero-mean Normalized Cross-Correlation) for all feature points. Further, the method of Non-Patent Document 3 uses a bundle adjustment algorithm in order to minimize the error corresponding to the feature points.

特開平11−175762号公報JP-A-11-175762 国際公開第2012/063467号International Publication No. 2012/063467 国際公開第2006/075528号International Publication No. 2006/075528

佐藤いまり, 佐藤洋一, 池内克史, “全方位ステレオによる実光源環境の計測とそれにもとづく仮想物体の実画像への重ね込み”, 電子情報通信学会論文誌D-II, J81-DII, No.5, pp.861-871, 1998年5月Imari Sato, Yoichi Sato, Katsushi Ikeuchi, “Measurement of real light source environment by omnidirectional stereo and superimposition of virtual object based on it”, IEICE Transactions D-II, J81-DII, No. 5, pp.861-871, May 1998 M. Lhuillier, “Automatic Structure and Motion using a Catadioptric Camera”, Proc. IEEE Workshop OMNIVIS’05, 2005M. Lhuillier, “Automatic Structure and Motion using a Catadioptric Camera”, Proc. IEEE Workshop OMNIVIS’05, 2005 E. Mouragnon, M. Lhuillier, M. Dhome, F. Dekeyser, P. Sayd,“Generic and Real-Time Structure from Motion”, Proc. BMVC, 2007E. Mouragnon, M. Lhuillier, M. Dhome, F. Dekeyser, P. Sayd, “Generic and Real-Time Structure from Motion”, Proc. BMVC, 2007

しかし、前記した実光源計測手法のように、魚眼カメラで撮影された画像上では、実世界で計測される距離が必ずしもそのまま反映されない。すなわち、魚眼カメラで撮影された画像(全天画像)は、画像中心と画像周縁とで画像上の距離が同じであっても、実世界の距離が異なっている。
そのため、従来のように、全天画像上の距離を指標として、特徴点のマッチングを行うと、誤マッチングを生じさせる可能性が高いという問題がある。
However, the distance measured in the real world is not necessarily reflected as it is on the image photographed by the fisheye camera as in the above-described real light source measurement method. In other words, the images taken by the fisheye camera (all-sky image) have different real-world distances even if the image center and the image periphery have the same distance on the image.
For this reason, there is a problem in that, when a feature point is matched using a distance on the whole sky image as an index as in the past, there is a high possibility of causing a false matching.

また、従来の手法は、特徴点マッチングを行う際に、全天画像を平面展開する必要があったり、多くの特徴点を対象としてRASNSAC、SSD、ZNCC等の演算を行う必要があったり等、前処理や計算対象の多さによって、計算コストがかかってしまうという問題がある。   In addition, when performing the feature point matching in the conventional method, it is necessary to flatten the whole sky image, or it is necessary to perform operations such as RASSNSAC, SSD, and ZNCC for many feature points. There is a problem that the calculation cost is increased due to the large number of preprocessing and calculation objects.

本発明は、このような問題に鑑みてなされたものであり、魚眼カメラを用いて特徴点の3次元位置を算出する際に、従来よりも、正確、かつ、計算コストの低い3次元位置算出装置およびそのプログラム、ならびに、魚眼カメラを用いたCG合成装置を提供することを課題とする。   The present invention has been made in view of such a problem. When a three-dimensional position of a feature point is calculated using a fisheye camera, the three-dimensional position is more accurate and less expensive than the conventional one. It is an object of the present invention to provide a calculation device, a program thereof, and a CG synthesis device using a fisheye camera.

前記課題を解決するため、本発明に係る3次元位置算出装置は、等距離射影方式の魚眼レンズを備えた2台の魚眼カメラで撮影された画像から、当該画像中の特徴点の3次元位置を算出する3次元位置算出装置であって、特徴点抽出手段と、特徴点フィルタリング手段と、特徴点3次元位置計算手段と、を備える構成とした。   In order to solve the above-described problem, a three-dimensional position calculation apparatus according to the present invention is configured such that a three-dimensional position of a feature point in an image is obtained from images captured by two fisheye cameras having equidistant projection-type fisheye lenses. Is a configuration including a feature point extracting unit, a feature point filtering unit, and a feature point three-dimensional position calculating unit.

かかる構成において、3次元位置算出装置は、特徴点抽出手段によって、2台の魚眼カメラで撮影された一方の画像と他方の画像とから、それぞれ画像特徴の変化する特徴点を抽出する。この特徴点は、例えば、SIFT(Scale Invariant Feature Transform)等によって抽出することができる。   In this configuration, the three-dimensional position calculation device extracts feature points whose image features change from one image and the other image captured by the two fisheye cameras by the feature point extraction unit. This feature point can be extracted by, for example, SIFT (Scale Invariant Feature Transform) or the like.

そして、3次元位置算出装置は、特徴点フィルタリング手段によって、特徴点抽出手段で抽出された特徴点における画像特徴量が両画像間で最も類似する特徴点対において、両画像を極座標で表したときのそれぞれの特徴点の動径距離が所定の閾値よりも小さく、かつ、角度距離が所定の閾値よりも小さい特徴点対を同じ特徴点を指し示す特徴点対としてフィルタリングする。
なお、動径距離は、特徴点対の画像上の極座標における動径の差である。また、角度距離は、特徴点対の画像上の極座標における偏角の差である。
これによって、特徴点フィルタリング手段は、画像の中心から離れるほど、両画像間の視差が大きくなるという、魚眼カメラの特性に合わせた特徴点のマッチング判定を行うことができる。
Then, the three-dimensional position calculation device uses the feature point filtering unit to represent both images in polar coordinates in the feature point pair having the most similar image feature amount between the two images. The feature point pairs in which the radial distance of each of the feature points is smaller than a predetermined threshold and the angular distance is smaller than the predetermined threshold are filtered as feature point pairs indicating the same feature point.
The radial distance is a radial difference in polar coordinates on the feature point pair image. The angular distance is a difference in declination in polar coordinates on the feature point pair image.
Thereby, the feature point filtering means can perform the matching determination of the feature points according to the characteristics of the fisheye camera such that the farther from the center of the image, the larger the parallax between the two images.

そして、3次元位置算出装置は、特徴点3次元位置計算手段によって、特徴点フィルタリング手段を用いた後で、正しい特徴点のマッチングであると判定された特徴点対の両画像上の位置と、魚眼カメラ中心の距離とにより、三角測量の原理により、当該特徴点の3次元位置を計算する。
なお、3次元位置算出装置は、照明環境を撮影し、算出された特徴点の3次元位置により、照明環境をモデル化し、CGオブジェクトを生成するCG合成装置に組み込むことができる。
Then, the three-dimensional position calculation device uses the feature point three-dimensional position calculation means, after using the feature point filtering means, the positions of the feature point pairs determined to be correct feature point matching on both images, Based on the triangulation principle, the three-dimensional position of the feature point is calculated based on the distance from the center of the fisheye camera.
The three-dimensional position calculation device can be incorporated into a CG composition device that captures an image of the illumination environment, models the illumination environment based on the calculated three-dimensional position of the feature point, and generates a CG object.

本発明は、以下に示す優れた効果を奏するものである。
本発明によれば、2つの魚眼カメラで撮影された画像において、魚眼カメラの特性に合わせて、特徴点のマッチングを判定することができるため、誤マッチングを減らすことができ、特徴点の精度の高い3次元位置を求めることができる。
また、本発明によれば、特徴点のマッチング判定において、閾値判定を行うという簡易な方法であるため、計算コストを低く抑えることができる。
The present invention has the following excellent effects.
According to the present invention, since the matching of feature points can be determined in accordance with the characteristics of a fish-eye camera in images taken by two fish-eye cameras, false matching can be reduced, and A highly accurate three-dimensional position can be obtained.
Further, according to the present invention, since it is a simple method of performing threshold determination in feature point matching determination, the calculation cost can be kept low.

本発明の実施形態に係る映像合成システムの全体構成を示す構成図である。1 is a configuration diagram showing an overall configuration of a video composition system according to an embodiment of the present invention. 本発明の実施形態に係る3次元位置算出装置(3次元位置算出手段)を含むCG合成装置の構成を示すブロック構成図である。It is a block block diagram which shows the structure of CG synthetic | combination apparatus containing the three-dimensional position calculation apparatus (three-dimensional position calculation means) which concerns on embodiment of this invention. 魚眼カメラで撮影された画像(全天画像)の座標系を説明するための説明図である。It is explanatory drawing for demonstrating the coordinate system of the image (all-sky image) image | photographed with the fisheye camera. 閾値による特徴点のマッチング判定を説明するための説明図であって、(a)は本発明における動径および偏角の差を閾値とする例を示す図、(b)は従来の単純距離を閾値とする例を示す図である。It is explanatory drawing for demonstrating the matching judgment of the feature point by a threshold value, Comprising: (a) is a figure which shows the example which makes the threshold value the difference of the radial and declination in this invention, (b) is the conventional simple distance. It is a figure which shows the example used as a threshold value. 2つの魚眼カメラで検出された特徴点の3次元位置を計算する三角測量の原理を説明するための説明図である。It is explanatory drawing for demonstrating the principle of the triangulation which calculates the three-dimensional position of the feature point detected with two fisheye cameras. 三角測量の原理で使用する特徴点方向ベクトルを説明するための説明図であって、(a)は特徴点方向ベクトルの天頂角を説明するための図、(b)は特徴点方向ベクトルの偏角を説明するための図である。It is explanatory drawing for demonstrating the feature point direction vector used by the principle of a triangulation, (a) is a figure for demonstrating the zenith angle of a feature point direction vector, (b) is a bias of a feature point direction vector. It is a figure for demonstrating a corner | angular. 光源分布マップの役割を説明するための模式図である。It is a schematic diagram for demonstrating the role of a light source distribution map. 本発明の実施形態に係る3次元位置算出装置(3次元位置算出手段)を含むCG合成装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the CG synthetic | combination apparatus containing the three-dimensional position calculation apparatus (three-dimensional position calculation means) concerning embodiment of this invention.

以下、本発明の実施形態について図面を参照して説明する。
≪映像合成システムの全体構成≫
最初に、図1を参照して、本発明の実施形態に係る映像合成システムSの全体構成について説明する。
Embodiments of the present invention will be described below with reference to the drawings.
≪Overall configuration of video composition system≫
First, the overall configuration of the video composition system S according to the embodiment of the present invention will be described with reference to FIG.

映像合成システムSは、スタジオカメラCsで撮影されるスタジオST内の実写映像と、CGオブジェクトとを実写映像における照明条件に合わせて合成し、合成映像Dを生成するものである。ここでは、映像合成システムSは、CG合成装置1と、実写CG合成装置3と、を備える。   The video composition system S synthesizes the live-action video in the studio ST photographed by the studio camera Cs and the CG object in accordance with the illumination conditions in the live-action video, and generates a composite video D. Here, the video composition system S includes a CG composition device 1 and a live-action CG composition device 3.

CG合成装置1は、スタジオST内に予め設置した魚眼レンズを使用したセンサカメラ(以下、魚眼カメラC,C)で撮影された画像(左カメラ画像G,右カメラ画像G)から、光源L等の照明環境をモデル化するとともに、合成対象となる素材CGデータCGをその照明環境においてレンダリングすることで、CGオブジェクト(CG画像)を生成するものである。なお、本明細書中、それぞれの魚眼カメラやその撮影画像を表すために、図面に合わせて便宜上“左”、“右”と表現しているが、これは単に“一方”、“他方”の意味を表しているにすぎない。 The CG synthesizer 1 is based on images (left camera image G L , right camera image G R ) captured by a sensor camera (hereinafter referred to as fish eye cameras C L , C R ) using a fish-eye lens installed in the studio ST in advance. The CG object (CG image) is generated by modeling the illumination environment such as the light source L and rendering the material CG data CG D to be synthesized in the illumination environment. In this specification, in order to represent each fisheye camera and its captured image, it is expressed as “left” and “right” for convenience in accordance with the drawings, but this is simply “one”, “other”. It just represents the meaning of

ここで、魚眼カメラC,Cは、照明環境を撮影するため、天頂を撮影対象として、撮影画像が平行になるように所定の間隔で配置される。また、魚眼カメラC,Cは、等距離射影方式のレンズを用い、同じ解像度であることとする。ここで、等距離射影方式とは、撮影した画像の中心からの距離と天頂角とが比例する方式である。
このCG合成装置1は、生成したCGオブジェクトを実写CG合成装置3に出力する。このCG合成装置1の構成および動作については、後で詳細に説明する。
Here, the fisheye cameras C L and C R are arranged at a predetermined interval so that the captured images are parallel with the zenith as the imaging target in order to capture the illumination environment. Further, fisheye camera C L, C R is a lens equidistant projection method, and it is the same resolution. Here, the equidistant projection method is a method in which the distance from the center of the captured image is proportional to the zenith angle.
The CG composition device 1 outputs the generated CG object to the live-action CG composition device 3. The configuration and operation of the CG synthesizer 1 will be described in detail later.

実写CG合成装置3は、スタジオカメラCで撮影された映像に、CG合成装置1で生成されたCGオブジェクトを合成するものである。なお、この実写CG合成装置3は、映像のフレームごとに、CGオブジェクトを合成する一般的な合成装置である。
また、実写CG合成装置3に入力される映像を撮影するスタジオカメラCは、スタジオST内で被写体を映像として撮影する、放送局等で使用される一般的なカメラである。
このように、映像合成システムSは、CG合成装置1によって、実際の照明環境をCGオブジェクトに適用することで、視覚的に違和感のないCGを実写映像に合成することができる。
なお、ここでは、映像合成システムSは、スタジオST内のシステムとして構成した例を示しているが、一般的な建物内部、あるいは、室外において構成することとしても構わない。
以下、CG合成装置1の構成および動作について詳細に説明する。
Stock CG synthesizing unit 3, the image photographed by the studio camera C S, is to synthesize a CG object generated by the CG synthesizing apparatus 1. The live-action CG composition device 3 is a general composition device that composes a CG object for each frame of a video.
Moreover, the studio camera C S for capturing the images input to the live-action CG synthesizing unit 3 captures the subject as an image in a studio ST, a general camera for use in broadcasting stations or the like.
In this way, the video composition system S can synthesize a CG that is visually uncomfortable with a live-action video by applying the actual lighting environment to the CG object by the CG composition device 1.
Here, the video composition system S is shown as an example configured as a system in the studio ST, but may be configured inside a general building or outdoors.
Hereinafter, the configuration and operation of the CG synthesizer 1 will be described in detail.

≪CG合成装置の構成≫
まず、図2を参照(適宜図1参照)して、本発明の実施形態に係るCG合成装置1の構成について説明する。
図2に示すように、CG合成装置1は、3次元位置算出手段10と、レンダリング手段20と、を備える。
≪Configuration of CG synthesizer≫
First, referring to FIG. 2 (refer to FIG. 1 as appropriate), the configuration of the CG synthesizer 1 according to the embodiment of the present invention will be described.
As shown in FIG. 2, the CG synthesizing apparatus 1 includes a three-dimensional position calculation unit 10 and a rendering unit 20.

3次元位置算出手段10は、魚眼カメラC,Cで撮影されたそれぞれの画像(左カメラ画像G,右カメラ画像G)を入力し、画像内の特徴点を対応付けて、その特徴点の3次元位置を算出するものである。
ここでは、3次元位置算出装置10は、画像入力手段11と、特徴点抽出手段12と、特徴点フィルタリング手段13と、校正手段14と、特徴点3次元位置計算手段15と、を備える。
3D position calculating unit 10 inputs fisheye camera C L, C R in captured each image (left camera image G L, the right camera image G R) and, in association with the feature points in the image, The three-dimensional position of the feature point is calculated.
Here, the three-dimensional position calculation apparatus 10 includes an image input unit 11, a feature point extraction unit 12, a feature point filtering unit 13, a calibration unit 14, and a feature point three-dimensional position calculation unit 15.

画像入力手段11は、魚眼カメラC,Cが撮影した画像(左カメラ画像G,右カメラ画像G)を入力するものである。ここでは、画像入力手段11は、入力する魚眼カメラC,Cに対応した左画像入力手段11Lと、右画像入力手段11Rと、を備える。すなわち、左画像入力手段11Lは、魚眼カメラCが撮影した左カメラ画像Gを入力し、右画像入力手段11Rは、魚眼カメラCが撮影した右カメラ画像Gを入力する。
この左画像入力手段11Lおよび右画像入力手段11Rは、入力した画像(左カメラ画像G,右カメラ画像G)を特徴点抽出手段12に出力する。
Image input means 11 is used for inputting fisheye camera C L, C R are photographed image (left camera image G L, the right camera image G R) to. Here, the image input unit 11 is provided with fish-eye camera C L to enter, the left image input unit 11L corresponding to C R, and the right image input unit 11R, a. That is, the left image input unit 11L receives the left camera image G L that fisheye camera C L is taken, the right image input unit 11R inputs right camera image G R which fisheye camera C R is taken.
The left image input unit 11L and the right image input unit 11R output the input images (left camera image G L and right camera image G R ) to the feature point extraction unit 12.

特徴点抽出手段12は、画像入力手段11から入力された画像(左カメラ画像G,右カメラ画像G)から、それぞれの特徴点を抽出するものである。ここでは、特徴点抽出手段12は、入力する画像(左カメラ画像G,右カメラ画像G)に対応した左画像特徴点抽出手段12Lと、右画像特徴点抽出手段12Rと、を備える。すなわち、左画像特徴点抽出手段12Lは、左カメラ画像Gから特徴点(左画像特徴点)を抽出し、右画像特徴点抽出手段12Rは、右カメラ画像Gから特徴点(右画像特徴点)を抽出する。 The feature point extraction unit 12 extracts each feature point from the image (left camera image G L , right camera image G R ) input from the image input unit 11. Here, the feature point extracting unit 12 includes a left image feature point extracting unit 12L corresponding to an input image (left camera image G L , right camera image G R ), and a right image feature point extracting unit 12R. That is, the left image feature point extracting means 12L is a feature point (left image feature point) is extracted from the left camera image G L, the right image feature point extracting unit 12R are feature points from the right camera image G R (right image feature Point).

ここで、特徴点は、撮影された画像内の画像特徴の変化する点であって、例えば、隣接画素に対する画素値あるいは輝度値が変化する点である。なお、この特徴点は、一般的な手法を用いて抽出することができる。例えば、左画像特徴点抽出手段12Lおよび右画像特徴点抽出手段12Rは、SIFT、SURF(Speeded Up Robust Features)等によって特徴点を抽出する。
この左画像特徴点抽出手段12Lおよび右画像特徴点抽出手段12Rは、抽出した特徴点(画像上の位置および特徴量)を特徴点フィルタリング手段13に出力する。なお、特徴量は、例えば、SIFTで特徴点を検出した場合、128次元のSIFT特徴量である。
Here, the feature point is a point at which the image feature in the photographed image changes, for example, a point at which a pixel value or a luminance value with respect to an adjacent pixel changes. This feature point can be extracted using a general method. For example, the left image feature point extracting unit 12L and the right image feature point extracting unit 12R extract feature points by SIFT, SURF (Speeded Up Robust Features), or the like.
The left image feature point extracting unit 12L and the right image feature point extracting unit 12R output the extracted feature points (position and feature amount on the image) to the feature point filtering unit 13. The feature amount is, for example, a 128-dimensional SIFT feature amount when a feature point is detected by SIFT.

特徴点フィルタリング手段13は、特徴点抽出手段12の左画像特徴点抽出手段12Lおよび右画像特徴点抽出手段12Rで抽出された左画像特徴点と右画像特徴点との間の動径距離および角度距離に基づいて、対応する特徴点をフィルタリングするものである。
この特徴点フィルタリング手段13は、左画像特徴点抽出手段12Lおよび右画像特徴点抽出手段12Rのそれぞれで抽出された特徴量(画像特徴量)が最も類似する左画像特徴点と右画像特徴点とに対して、動径距離および角度距離がそれぞれ所定の閾値を基準に、当該閾値を上回っているか、あるいは、下回っているかにより、特徴点をフィルタリングする。ここでは、特徴点フィルタリング手段13は、動径距離が所定の閾値よりも小さく、かつ、角度距離が所定の閾値よりも小さい対応を、正しいマッチングとして採用する。
The feature point filtering unit 13 is a radial distance and an angle between the left image feature point and the right image feature point extracted by the left image feature point extracting unit 12L and the right image feature point extracting unit 12R of the feature point extracting unit 12. Based on the distance, corresponding feature points are filtered.
The feature point filtering unit 13 includes a left image feature point and a right image feature point that have the most similar feature amounts (image feature amounts) extracted by the left image feature point extraction unit 12L and the right image feature point extraction unit 12R, respectively. On the other hand, the feature points are filtered based on whether the radial distance and the angular distance are above or below the predetermined threshold values, respectively. Here, the feature point filtering unit 13 adopts a correspondence in which the radial distance is smaller than a predetermined threshold and the angular distance is smaller than the predetermined threshold as correct matching.

なお、特徴量が最も類似するとは、例えば、左画像特徴点と右画像特徴点との間の特徴量(例えば、SIFT特徴量)のユークリッド距離が最小となることをいう。
また、動径距離とは、画像(左カメラ画像G,右カメラ画像G)を極座標系で表したときの動径の距離(差)である。また、角度距離とは、画像を極座標系で表したときの偏角の距離(差)である。
これによって、特徴点フィルタリング手段13は、予めSIFT等によって特徴量が最も類似するとして対応している特徴点群から、誤マッチングを除去する。
そして、特徴点フィルタリング手段13は、フィルタリングした、対応する特徴点(画像上の位置および特徴量)を、校正手段14に出力する。
Note that the feature amount is most similar means, for example, that the Euclidean distance of the feature amount (for example, SIFT feature amount) between the left image feature point and the right image feature point is minimized.
The radial distance is a radial distance (difference) when images (left camera image G L , right camera image G R ) are represented in a polar coordinate system. The angular distance is a declination distance (difference) when an image is expressed in a polar coordinate system.
As a result, the feature point filtering unit 13 removes erroneous matching from the feature point group corresponding to the feature amount that is most similar by SIFT or the like in advance.
Then, the feature point filtering unit 13 outputs the filtered corresponding feature points (position and feature amount on the image) to the calibration unit 14.

ここで、図3を参照して、特徴点フィルタリング手段13が、マッチングの判定を行う基準となる動径距離および角度距離について説明する。図3は、左カメラ画像G(全天画像)の座標系を示す図である。なお、右カメラ画像Gについても同様である。
図3に示すように、左カメラ画像Gの特徴点(左画像特徴点)の座標は、直交座標系で表した場合、p=(p,p)、極座標系で表した場合、動径r、偏角θとして、p=(rcosθ,rsinθ)となる。
Here, with reference to FIG. 3, the radial distance and the angular distance, which serve as a reference for the feature point filtering unit 13 to perform the matching determination, will be described. FIG. 3 is a diagram illustrating a coordinate system of the left camera image G L (full sky image). The same applies to the right camera image G R.
As shown in FIG. 3, the coordinates of the feature point (left image feature point) of the left camera image GL are p = (p x , p y ) when expressed in an orthogonal coordinate system, and when expressed in a polar coordinate system, As the moving radius r and the deflection angle θ, p = (r cos θ, r sin θ).

すなわち、特徴点フィルタリング手段13は、左カメラ画像Gおよび右カメラ画像Gにおいて、極座標系で用いられる動径rおよび偏角θの距離により、特徴点のフィルタリングを行う。
ここで、距離計算を行う対象となる、左カメラ画像Gの特徴点の座標をp=(p,p)、図示を省略しているが、右カメラ画像Gの特徴点の座標をq=(q,q)とする。
このとき、特徴点フィルタリング手段13は、2点間の動径の距離(動径距離r)を、以下の式(1)により求める。
That is, the feature point filtering means 13, in the left camera image G L and the right camera image G R, the distance of the radius vector r and declination θ used in a polar coordinate system, the filtering feature points.
Here, the target of the distance calculation, coordinates p = characteristic points of the left camera image G L (p x, p y ), although not shown, the feature point of the right camera image G R coordinates Is q = (q x , q y ).
At this time, the feature point filtering means 13 obtains a radial distance (radial distance r d ) between the two points by the following equation (1).

Figure 2016114445
Figure 2016114445

また、特徴点フィルタリング手段13は、2点間の偏角の距離(角度距離θ)を、以下の式(2)により求める。 Further, the feature point filtering means 13 obtains the declination distance (angular distance θ d ) between the two points by the following equation (2).

Figure 2016114445
Figure 2016114445

そして、特徴点フィルタリング手段13は、以下の式(3)に示すように、動径距離rが閾値rthressholdよりも小さく、かつ、角度距離θが閾値θthressholdよりも小さい2点p,qをマッチングする点とする。 Then, the feature point filtering means 13, as shown in the following equation (3), radial distance r d is less than the threshold value r Thresshold, and angular distance theta d threshold theta 2 points p less than Thresshold, Let q be a matching point.

Figure 2016114445
Figure 2016114445

なお、閾値rthressholdおよび閾値θthressholdは、以下の式(4)および式(5)で計算される値とする。 The threshold r Thresshold and threshold theta Thresshold is a value that is calculated by the following equation (4) and (5).

Figure 2016114445
Figure 2016114445

ここで、pwidthは、画像(左カメラ画像G,右カメラ画像G)の横幅(画素数)、pheightは、同画像の縦幅(画素数)を示す(図3参照)。
また、rpartitionは、画像(左カメラ画像G,右カメラ画像G)を極座標で表したときの動径rの分割数(動径分割数)を示し、θpartitionは、同画像を極座標で表したときの偏角θの分割数(偏角分割数)を示す。
この動径分割数rpartitionおよび偏角分割数θpartitionは、画像(左カメラ画像G,右カメラ画像G)を動径および偏角で区分する細かさを示す指標であって、画像の解像度等に基づいて予め定められる。もちろん、これらの分割数は、外部から設定されることとしてもよい。
また、動径分割数rpartitionは、閾値rthressholdが少なくとも魚眼カメラC,Cの離間距離に相当する左カメラ画像G,右カメラ画像Gの視差以上となる値とする。
なお、特徴点フィルタリング手段13は、さらに、対応する特徴点から、最小メジアン法等によって外れ値を除外しておくことが望ましい。
Here, p width represents the horizontal width (number of pixels) of the image (left camera image G L , right camera image G R ), and p height represents the vertical width (number of pixels) of the image (see FIG. 3).
R partition indicates the number of radial radius divisions (radial radius division number) when the images (left camera image G L , right camera image G R ) are expressed in polar coordinates, and θ partition indicates the image in polar coordinates. The number of divisions of declination θ (the number of declination divisions) is shown.
The radial division number r partition and the declination division number θ partition are indices indicating the fineness of dividing an image (left camera image G L , right camera image G R ) by radial and declination, It is determined in advance based on the resolution or the like. Of course, the number of divisions may be set from the outside.
Also, radial division number r partition the threshold r Thresshold is at least a fish left camera image G L, the value equal to or larger than the disparity of the right camera image G R which corresponds to the distance between the eye cameras C L, C R.
Note that it is desirable that the feature point filtering means 13 further excludes outliers from the corresponding feature points by the minimum median method or the like.

ここで、図4を参照して、特徴点フィルタリング手段13が行う閾値によるマッチング判定について視覚的に説明する。なお、図4は、左カメラ画像Gおよび右カメラ画像Gを同一座標上で表している。
図4(a)に示すように、特徴点フィルタリング手段13は、特徴点qが特徴点pにマッチングするか否かは、動径および偏角の差が、領域Baの範囲であるか否かにより行う。
また、特徴点フィルタリング手段13は、特徴点pよりも動径が小さい位置に存在する特徴点pについては、領域Baよりも範囲を狭くて、動径および偏角の差が、領域Bbの範囲であるか否かにより行う。
これによって、特徴点フィルタリング手段13は、動径が小さいほど、同じ特徴点であると判定する面積範囲を狭くし、動径が大きいほど、当該面積範囲を広げて、特徴点のマッチング判定を行う。
Here, with reference to FIG. 4, the matching determination by the threshold value which the feature point filtering means 13 performs is demonstrated visually. Incidentally, FIG. 4 shows the left camera image G L and the right camera images G R on the same coordinates.
As shown in FIG. 4 (a), or the feature point filtering means 13, whether the feature point q a is matched to the feature point p a, the difference between the radius vector and polarization angle, a range of the area Ba Depending on whether or not.
Further, the feature point filtering means 13, for the feature point p b at the position movement diameter is smaller than the feature point p a, narrow range than the region Ba, the difference between the radius vector and declination, region Bb It is performed depending on whether or not it is within the range.
As a result, the feature point filtering means 13 narrows the area range to be determined as the same feature point as the radius is smaller, and widens the area range as the radius is larger, and performs the feature point matching judgment. .

なお、参考までに、図4(b)に、従来の画像上の単純距離によってマッチング判定を行う場合の閾値範囲について説明しておく。図4(b)に示すように、従来は、たとえ動径距離が異なる特徴点p,pであっても、同一の距離(同一半径の円領域Bc,Bd)の範囲で、特徴点のマッチングを行っていた。
このように、特徴点フィルタリング手段13は、画像中心から離れる(動径が大きい)ほど、より多くの画素をマッチング判定の画素とすることで、魚眼カメラの特性に合わせて、対応する特徴点を精度よくフィルタリングすることができる。
図2に戻って、CG合成装置1の構成について説明を続ける。
For reference, FIG. 4B illustrates a threshold range in the case of performing matching determination based on a simple distance on a conventional image. As shown in FIG. 4B, conventionally, even if the feature points p c and p d have different radial distances, the feature points are within the same distance (the circular regions Bc and Bd having the same radius). Was matching.
As described above, the feature point filtering unit 13 sets more pixels as matching determination pixels as the distance from the image center increases (the radius is larger), so that the corresponding feature points are matched to the characteristics of the fisheye camera. Can be accurately filtered.
Returning to FIG. 2, the description of the configuration of the CG synthesizer 1 will be continued.

校正手段14は、特徴点フィルタリング手段13でフィルタリングされた特徴点に基づいて、カメラ校正を行うものである。すなわち、校正手段14は、左カメラ画像Gと右カメラ画像Gとが、魚眼カメラC,Cの光軸が平行し、魚眼カメラ内の撮像素子の水平軸が一致するように、一方の画像(例えば、左カメラ画像G)の特徴点を基準として、他方の画像(例えば、右カメラ画像G)の特徴点の画像上の位置補正を行う。 The calibration unit 14 performs camera calibration based on the feature points filtered by the feature point filtering unit 13. That is, calibration means 14, so that the left camera image G L and the right camera image G R, parallel optical axis of the fisheye camera C L, C R, the horizontal axis of the imaging device in the fisheye camera matches The position correction of the feature point of the other image (for example, the right camera image G R ) is performed on the basis of the feature point of one image (for example, the left camera image G L ).

この校正手段14は、特徴点フィルタリング手段13でフィルタリングされた対応(マッチング)する特徴点群から、一方の画像と他方の画像とが平行になるような基本行列を求め、両方の画像の特徴点の位置を基本行列により変換(回転)する。
この基本行列は、例えば、対応する少なくとも8点の特徴点により求めることができる。この基本行列を求める8点アルゴリズムについては、一般的なものであるため、ここでは説明を省略する。
この校正手段14は、校正した後の対応する特徴点の位置(画像上の位置)を、特徴点3次元位置計算手段15に出力する。
The calibrating unit 14 obtains a basic matrix such that one image and the other image are parallel from the corresponding (matching) feature point group filtered by the feature point filtering unit 13, and feature points of both images Is converted (rotated) by a basic matrix.
This basic matrix can be obtained from, for example, at least eight corresponding feature points. Since the 8-point algorithm for obtaining the basic matrix is a general algorithm, description thereof is omitted here.
The calibrating unit 14 outputs the position of the corresponding feature point after calibration (position on the image) to the feature point three-dimensional position calculating unit 15.

特徴点3次元位置計算手段15は、校正後の画像上の対応する2点の特徴点の位置と、魚眼カメラC,C間の距離とから、特徴点の3次元空間内での位置(特徴点3次元位置)を計算するものである。 Feature point three-dimensional position calculating means 15, on the image after calibration the position of the feature point of the corresponding two points, fisheye camera C L, and a distance between the C R, the feature points in the three-dimensional space The position (feature point three-dimensional position) is calculated.

具体的には、特徴点3次元位置計算手段15は、図5に示すように、魚眼カメラC,Cの主点位置から3次元空間上の特徴点(特徴点3次元位置P)までのベクトル(単位方向ベクトル)u,vを求める。そして、特徴点3次元位置計算手段15は、予め3次元空間上の位置が既知である魚眼カメラC,C間の距離wと、ベクトルu,vとにより三角測量の原理で、特徴点の3次元空間内での位置(特徴点3次元位置P)を計算する。
なお、それぞれのベクトルは、魚眼カメラC,Cで撮影された左カメラ画像G,右カメラ画像G(校正されている場合は、校正後の画像)の特徴点の座標から求めることができる。
Specifically, the feature point three-dimensional position calculating means 15, as shown in FIG. 5, fisheye camera C L, C principal point feature point in a three-dimensional space from the position of R (3-dimensional feature point position P) Vectors (unit direction vectors) u and v are obtained. Then, the feature point three-dimensional position calculating means 15, a fish-eye camera C L position on advance three-dimensional space is known, the distance w between C R, the principle of triangulation by a vector u, v, wherein The position of the point in the three-dimensional space (feature point three-dimensional position P) is calculated.
Note that each of the vectors, fisheye camera C L, C R in the captured left camera image G L, the right camera image G R (if it is calibrated, the image after calibration) determined from the coordinates of the feature points of be able to.

ここで、図6を参照して、特徴点3次元位置計算手段15が算出するベクトルについて説明する。なお、魚眼カメラC,Cのベクトル算出は同じ手法であるため、ここでは、魚眼カメラCを始点とするベクトルuについて説明する。
魚眼カメラCは等距離射影方式のカメラであることから、魚眼カメラCの焦点距離をfとしたとき、図6(a)に示すように、魚眼カメラCの天頂方向のベクトルTとベクトルuとの角(天頂角Lθ1)と、画像(左カメラ画像G)上の特徴点の座標pの動径rとには、以下の式(6)の関係が成り立つ。
Here, with reference to FIG. 6, the vector which the feature point three-dimensional position calculation means 15 calculates is demonstrated. Since fisheye camera C L, vector calculation of C R is the same technique will be described here vector u whose starting point is the fisheye camera C L.
Since fisheye camera C L is a camera equidistant projection method, when the focal length of the fisheye camera C L is f, as shown in FIG. 6 (a), the zenith of the fisheye camera C L The following equation (6) is established between the angle between the vector T and the vector u (the zenith angle L θ1 ) and the radius r of the coordinate p of the feature point on the image (left camera image G L ).

Figure 2016114445
Figure 2016114445

また、図6(b)に示すように、ベクトルuを画像(左カメラ画像G)上に投影したときの偏角Lθ2は、図3で説明したように、画像(左カメラ画像G)を極座標系で表したときの偏角と同じである。
よって、特徴点3次元位置計算手段15は、魚眼カメラCに対応するベクトルuを、天頂角Lθ1および偏角Lθ2で特定する。同様に、特徴点3次元位置計算手段15は、魚眼カメラCに対応するベクトルvを、天頂角Rθ1および偏角Rθ2で特定する。
Further, as shown in FIG. 6 (b), declination L .theta.2 in projecting the vector u on the image (left camera image G L), as described in FIG. 3, the image (left camera image G L ) Is the same as the declination when expressed in the polar coordinate system.
Therefore, the feature point three-dimensional position calculating unit 15, the vector u corresponding to fisheye camera C L, identified in zenith angle L .theta.1 and declination L .theta.2. Similarly, the feature point three-dimensional position calculating unit 15, the vector v corresponding to the fisheye camera C R, identified in zenith angle R .theta.1 and declination R .theta.2.

そして、特徴点3次元位置計算手段15は、図5に示すように、魚眼カメラC,C間の距離wと、ベクトルu(Lθ1,Lθ2),v(Rθ1,Rθ2)とにより三角測量の原理で、特徴点の3次元空間内での位置(特徴点3次元位置P)を計算する。
なお、3次元空間内では、ベクトルu,vはねじれの関係になり、交点をもたない場合がある。そこで、特徴点3次元位置計算手段15は、ベクトルu,vの最接近点を特徴点3次元位置Pとして計算する。
図2に戻って、CG合成装置1の構成について説明を続ける。
Then, as shown in FIG. 5, the feature point three-dimensional position calculation means 15 calculates the distance w between the fisheye cameras C L and C R and the vectors u (L θ1 , L θ2 ) and v (R θ1 , R θ2). The position of the feature point in the three-dimensional space (feature point three-dimensional position P) is calculated by the principle of triangulation.
In the three-dimensional space, the vectors u and v have a twisted relationship and may not have an intersection. Therefore, the feature point three-dimensional position calculation means 15 calculates the closest point of the vectors u and v as the feature point three-dimensional position P.
Returning to FIG. 2, the description of the configuration of the CG synthesis apparatus 1 will be continued.

特徴点3次元位置計算手段15は、計算で求めた特徴点3次元位置を、レンダリング手段20に出力する。また、ここでは、特徴点3次元位置計算手段15は、特徴点3次元位置に対応する魚眼カメラの画像(例えば、左カメラ画像G)の特徴点の位置を、レンダリング手段20に出力する。 The feature point three-dimensional position calculation unit 15 outputs the feature point three-dimensional position obtained by the calculation to the rendering unit 20. Here, the feature point three-dimensional position calculation means 15 outputs the position of the feature point of the fisheye camera image (for example, the left camera image G L ) corresponding to the feature point three-dimensional position to the rendering means 20. .

これによって、3次元位置算出手段10は、特徴点マッチングを行う際に、全天画像を平面画像に展開するような前処理を必要とせず、動径距離、角度距離の単純な閾値判定により、対応する特徴点のフィルタリングを行うため、計算コストを抑えることができる。また、3次元位置算出手段10は、魚眼カメラの特性を考慮した距離(動径距離、角度距離)を用いるため、画像内の実際の距離により特徴点をフィルタリングする従来の手法に比べて、特徴点のマッチングを精度よく行うことができる。   As a result, the three-dimensional position calculation means 10 does not require preprocessing for developing the whole sky image into a flat image when performing feature point matching, and by simple threshold determination of the radial distance and the angular distance, Since the corresponding feature points are filtered, the calculation cost can be reduced. In addition, since the three-dimensional position calculation means 10 uses a distance (radial distance, angular distance) in consideration of the characteristics of the fisheye camera, compared to the conventional method of filtering feature points by the actual distance in the image, Feature point matching can be performed with high accuracy.

レンダリング手段20は、3次元位置算出手段10で算出された特徴点3次元位置によって特定される照明環境をモデル化し、素材CGデータからその照明環境に応じたCG画像(CGオブジェクト)を生成するものである。
ここでは、レンダリング手段20は、光源分布マップ生成手段21と、陰影処理手段22と、を備える。
The rendering unit 20 models an illumination environment specified by the feature point 3D position calculated by the 3D position calculation unit 10 and generates a CG image (CG object) corresponding to the illumination environment from the material CG data. It is.
Here, the rendering unit 20 includes a light source distribution map generation unit 21 and a shadow processing unit 22.

光源分布マップ生成手段21は、3次元位置算出手段10で算出された特徴点3次元位置から、照明環境の光源分布の情報を、特徴点3次元位置を頂点とする三角メッシュに対応付けて、光源分布マップを生成するものである。
すなわち、光源分布マップ生成手段21は、特徴点3次元位置を頂点とする三角メッシュごとに、当該三角メッシュ内の領域を、光源分布画像(ここでは、左カメラ画像Gのものとする)中の当該三角メッシュの各頂点である特徴点で囲まれる領域に対応付ける。
The light source distribution map generating means 21 associates the information on the light source distribution of the illumination environment from the three-dimensional position of the feature point calculated by the three-dimensional position calculation means 10 with a triangular mesh having the feature point three-dimensional position as a vertex, A light source distribution map is generated.
That is, the light source distribution map generation unit 21 sets the region in the triangular mesh for each triangular mesh having the three-dimensional position of the feature point as a vertex in the light source distribution image (here, the left camera image GL ). Are associated with the region surrounded by the feature points that are the vertices of the triangular mesh.

これによって、光源分布マップ生成手段21は、三角メッシュごとに画像領域を対応付けて、照明環境となる光源分布マップを生成することができる。
この光源分布マップ生成手段21は、モデル化した照明環境のデータである光源分布マップを陰影処理手段22に出力する。
As a result, the light source distribution map generating means 21 can generate a light source distribution map as an illumination environment by associating image regions with each triangular mesh.
The light source distribution map generation unit 21 outputs a light source distribution map, which is modeled illumination environment data, to the shadow processing unit 22.

陰影処理手段22は、光源分布マップ生成手段21でモデル化された光源分布マップに基づいて、素材CGデータCGを陰影処理して、実写映像に合成するためのCGオブジェクトを生成するものである。
この陰影処理手段22は、CGオブジェクトを配置する実空間(3次元空間)上の位置で、カメラ(スタジオカメラC)を視点位置とするCGオブジェクトを生成する。このとき、陰影処理手段22は、素材CGデータCGに、光源分布マップのそれぞれの三角メッシュ領域で特定される光源輝度に基づいて、陰影処理を施す。
The shadow processing unit 22 performs a shading process on the material CG data CG D on the basis of the light source distribution map modeled by the light source distribution map generation unit 21 and generates a CG object to be combined with a live-action image. .
The shadow processing means 22 generates a CG object having a camera (studio camera C S ) as a viewpoint position at a position on the real space (three-dimensional space) where the CG object is placed. At this time, the shading processing means 22 performs shading processing on the material CG data CG D based on the light source luminance specified in each triangular mesh region of the light source distribution map.

この陰影処理手段22において、陰影処理を行う際の光源分布マップの役割について簡単に説明する。
図7に示すように、光源分布マップMは、照明環境を三角メッシュでモデル化したもので、個々の三角メッシュには、例えば、光源Lそのものの輝度情報や、光源Lの間接光の輝度情報が対応対けられている。
The role of the light source distribution map when performing shadow processing in the shadow processing means 22 will be briefly described.
As shown in FIG. 7, the light source distribution map M is obtained by modeling the illumination environment with a triangular mesh. Each triangular mesh includes, for example, luminance information of the light source L itself and luminance information of indirect light of the light source L. Has been dealt with.

すなわち、陰影処理手段22は、CG形状およびその形状に照射する光の方向に対応する三角メッシュの光源情報に基づいて、CGオブジェクトの画素値を決定する。
この陰影処理手段22における陰影処理は、一般的な手法を用いればよく、例えば、IBL(Image Based Lighting)等の手法を用いればよい。
この陰影処理手段22は、生成したCGオブジェクトを、実写CG合成装置3に出力する。
That is, the shadow processing means 22 determines the pixel value of the CG object based on the light source information of the triangular mesh corresponding to the CG shape and the direction of the light that irradiates the shape.
The shading processing in the shading processing means 22 may use a general method, for example, a method such as IBL (Image Based Lighting).
The shadow processing means 22 outputs the generated CG object to the live-action CG composition device 3.

これによって、レンダリング手段20は、3次元位置算出手段10で算出された特徴点の3次元位置から、光源分布マップを生成し、実際の照明環境に合ったCGオブジェクトを生成することができる。   Thus, the rendering unit 20 can generate a light source distribution map from the three-dimensional position of the feature point calculated by the three-dimensional position calculation unit 10 and generate a CG object suitable for the actual lighting environment.

以上説明したように、CG合成装置1を構成することで、CG合成装置1は、魚眼カメラの特性に応じた特徴点のフィルタリングにより、特徴点のマッチングの精度を高め、より正確な照明環境をモデル化することができる。これによって、CG合成装置1は、実写映像に合成しても、違和感のないCGオブジェクトを生成することができる。   As described above, by configuring the CG synthesizer 1, the CG synthesizer 1 increases the accuracy of feature point matching by filtering feature points according to the characteristics of the fisheye camera, thereby providing a more accurate lighting environment. Can be modeled. Thereby, the CG synthesizing apparatus 1 can generate a CG object that does not feel uncomfortable even if it is synthesized with a live-action video.

≪CG合成装置の動作≫
次に、図8を参照(適宜図1,図2参照)して、本発明の実施形態に係るCG合成装置1の動作について説明する。
まず、CG合成装置1は、3次元位置算出手段10の画像入力手段11(左画像入力手段11L,右画像入力手段11R)によって、照明環境を撮影した魚眼カメラC,Cから、撮影画像(左カメラ画像G,右カメラ画像G)を入力する(ステップS1)。
≪Operation of CG synthesizer≫
Next, referring to FIG. 8 (refer to FIGS. 1 and 2 as appropriate), the operation of the CG synthesis apparatus 1 according to the embodiment of the present invention will be described.
First, the CG synthesizing apparatus 1 is photographed from the fisheye cameras C L and C R that photographed the illumination environment by the image input unit 11 (the left image input unit 11L and the right image input unit 11R) of the three-dimensional position calculation unit 10. Images (left camera image G L , right camera image G R ) are input (step S1).

そして、CG合成装置1は、特徴点抽出手段12(左画像特徴点抽出手段12L,右画像特徴点抽出手段12R)によって、ステップS1で入力された画像からSIFT等により特徴点を抽出する(ステップS2)。
すなわち、左画像特徴点抽出手段12Lが、左カメラ画像Gから特徴点(左画像特徴点)を抽出し、右画像特徴点抽出手段12Rが、右カメラ画像Gから特徴点(右画像特徴点)を抽出する。
そして、CG合成装置1は、特徴点フィルタリング手段13によって、ステップS2で抽出された、特徴量が最も類似する左画像特徴点と右画像特徴点とに対して、動径距離が所定の閾値よりも小さく、かつ、角度距離が所定の閾値よりも小さい対応を、正しいマッチングとして採用(フィルタリング)する(ステップS3)。
これによって、特徴点フィルタリング手段13は、魚眼カメラの特性に合わせて、対応する特徴点を精度よくフィルタリングすることができる。
Then, the CG synthesizing apparatus 1 extracts feature points from the image input in step S1 by SIFT or the like by the feature point extraction unit 12 (left image feature point extraction unit 12L, right image feature point extraction unit 12R) (step S1). S2).
That is, the left image feature point extracting unit 12L extracts feature points (left image feature point) from the left camera image G L, the right image feature point extracting unit 12R is, feature points from the right camera image G R (right image feature Point).
Then, the CG synthesis apparatus 1 uses the feature point filtering unit 13 to extract the radial distance from the predetermined threshold with respect to the left image feature point and the right image feature point with the most similar feature amount extracted in step S2. That is smaller and the angular distance is smaller than a predetermined threshold is adopted (filtered) as correct matching (step S3).
Thereby, the feature point filtering means 13 can accurately filter the corresponding feature points according to the characteristics of the fisheye camera.

そして、CG合成装置1は、校正手段14によって、カメラ校正による特徴点の位置補正を行う(ステップS4)。
すなわち、校正手段14は、ステップS3でフィルタリングされたマッチングする特徴点群から、位置補正を行うための基本行列を求め、両画像(左カメラ画像Gおよび右カメラ画像G)の特徴点の画像上の位置補正を行う。
Then, the CG synthesizing apparatus 1 uses the calibration unit 14 to correct the position of the feature point by camera calibration (step S4).
That is, calibration means 14, the feature point group matching is filtered in step S3, determined the basic matrix for performing the position correction, the feature points of two images (left camera image G L and the right camera image G R) Perform position correction on the image.

そして、CG合成装置1は、特徴点3次元位置計算手段15によって、ステップS4の校正後の画像上の対応する2点の特徴点の位置と、魚眼カメラC,C間の距離とから、特徴点の3次元空間内での位置(特徴点3次元位置)を計算する(ステップS5)。
このステップS5までの動作によって、魚眼カメラC,Cが撮影した画像(左カメラ画像G,右カメラ画像G)から、特徴点の3次元位置を算出することができる。
Then, CG synthesizing apparatus 1, the feature point three-dimensional position calculating unit 15, the position of the corresponding two points characteristic points on the calibration image after the step S4, fisheye camera C L, and the distance between C R Then, the position of the feature point in the three-dimensional space (the feature point three-dimensional position) is calculated (step S5).
The operation up to this step S5, fisheye camera C L, C R are photographed image (left camera image G L, the right camera image G R) from, it is possible to calculate the three-dimensional position of the feature point.

その後、CG合成装置1は、レンダリング手段20の光源分布マップ生成手段21によって、ステップS5までの動作で算出された特徴点の3次元位置から、照明環境の光源分布の情報を、特徴点3次元位置を頂点とする三角メッシュに対応付けて、光源分布マップを生成する(ステップS6)。
これによって、実空間における照明環境がモデル化されることになる。
Thereafter, the CG synthesis device 1 uses the light source distribution map generation unit 21 of the rendering unit 20 to obtain the light source distribution information of the illumination environment from the three-dimensional position of the feature points calculated by the operations up to step S5. A light source distribution map is generated in association with the triangular mesh whose position is the vertex (step S6).
As a result, the lighting environment in the real space is modeled.

そして、CG合成装置1は、陰影処理手段22によって、ステップS6で生成された光源分布マップに基づいて、素材CGデータに陰影処理を施して、実写映像に合成するためのCGオブジェクトを生成する(ステップS7)。
これによって、CG合成装置1は、実空間の照明環境に合った、実写映像に合成されても違和感のないCGオブジェクトを生成することができる。
Then, the CG composition device 1 performs a shadow process on the material CG data based on the light source distribution map generated in step S6 by the shadow processing means 22, and generates a CG object to be combined with the live-action video ( Step S7).
As a result, the CG composition device 1 can generate a CG object that is suitable for the lighting environment in the real space and does not feel uncomfortable even if it is synthesized with the live-action video.

以上、本発明の実施形態に係るCG合成装置1の構成および動作について説明したが、本発明はこの実施形態に限定されるものではない。
例えば、ここでは、CG合成装置1の構成として、3次元位置算出手段10と、レンダリング手段20と、を備える構成としたが、これらは独立して構成してもよい。
すなわち、3次元位置算出手段10を3次元位置算出装置、レンダリング手段20をレンダリング装置として分離して構成してもよい。
As mentioned above, although the structure and operation | movement of CG synthesizing | combining apparatus 1 which concern on embodiment of this invention were demonstrated, this invention is not limited to this embodiment.
For example, here, the configuration of the CG synthesizing apparatus 1 includes the three-dimensional position calculation unit 10 and the rendering unit 20, but these may be configured independently.
That is, the three-dimensional position calculating unit 10 may be configured as a three-dimensional position calculating device and the rendering unit 20 as a rendering device.

また、ここでは、CG合成装置1の3次元位置算出手段10は、校正手段14を備える構成としたが、予め魚眼カメラC,Cが校正された状態で配置されたものであれば、校正手段14を構成から省略しても構わない。
また、逆に、魚眼カメラC,Cが無校正な状態で配置されたものであれば、画像入力手段11と特徴点抽出手段12との間に、カメラ校正を行う第2の校正手段を備えることとしてもよい。
この場合、第2の校正手段は、例えば、一方の画像(例えば、左カメラ画像G)を基準として、他方の画像(例えば、右カメラ画像G)が最も類似するように、当該他方の画像を回転させることとする。
Here, the three-dimensional position calculation means 10 of the CG synthesizer 1 is configured to include the calibration means 14, but as long as the fisheye cameras C L and CR are arranged in advance in a calibrated state. The calibration unit 14 may be omitted from the configuration.
Conversely, as long as the fisheye camera C L, C R are arranged in a non-calibration state, between the image input unit 11 and feature point extracting unit 12, a second calibration performing camera calibration Means may be provided.
In this case, for example, the second calibration unit uses the one image (for example, the left camera image G L ) as a reference so that the other image (for example, the right camera image G R ) is most similar. The image is rotated.

以上説明したCG合成装置1およびその変形例は、コンピュータを前記した各手段として機能させるプログラム(CG合成プログラム)で動作させることができる。
また、CG合成装置1を、3次元位置算出装置およびレンダリング装置として分離して構成する場合、3次元位置算出装置は、コンピュータを、先に説明した3次元位置算出手段10の各手段として機能させるプログラム(3次元位置算出プログラム)で動作させることができる。また、レンダリング装置は、コンピュータを、先に説明したレンダリング手段20の各手段として機能させるプログラム(レンダリングプログラム)で動作させる。また、これらのプログラムは、記録媒体に記録して配布したり、通信回線を介して配布したりすることも可能である。
The CG synthesizer 1 described above and its modification can be operated by a program (CG synthesis program) that causes a computer to function as each of the above-described means.
When the CG composition device 1 is configured separately as a three-dimensional position calculation device and a rendering device, the three-dimensional position calculation device causes the computer to function as each unit of the three-dimensional position calculation unit 10 described above. It can be operated by a program (three-dimensional position calculation program). In addition, the rendering apparatus operates the computer with a program (rendering program) that functions as each unit of the rendering unit 20 described above. Also, these programs can be recorded on a recording medium and distributed, or distributed via a communication line.

S 映像合成システム
1 CG合成装置
10 3次元位置算出手段(3次元位置算出装置)
11 画像入力手段
11L 左画像入力手段
11R 右画像入力手段
12 特徴点抽出手段
12L 左画像特徴点抽出手段
12R 右画像特徴点抽出手段
13 特徴点フィルタリング手段
14 校正手段
15 特徴点3次元位置計算手段
20 レンダリング手段(レンダリング装置)
21 光源分布マップ生成手段
22 陰影処理手段
魚眼カメラ
魚眼カメラ
S image composition system 1 CG composition device 10 3D position calculation means (3D position calculation device)
DESCRIPTION OF SYMBOLS 11 Image input means 11L Left image input means 11R Right image input means 12 Feature point extraction means 12L Left image feature point extraction means 12R Right image feature point extraction means 13 Feature point filtering means 14 Calibration means 15 Feature point three-dimensional position calculation means 20 Rendering means (rendering device)
21 light source distribution map generating means 22 shading means C L fisheye camera C R fisheye camera

Claims (5)

等距離射影方式の魚眼レンズを備えた2台の魚眼カメラで撮影された画像から、当該画像中の特徴点の3次元位置を算出する3次元位置算出装置であって、
前記2台の魚眼カメラで撮影された一方の画像と他方の画像とから、それぞれ画像特徴の変化する特徴点を抽出する特徴点抽出手段と、
この特徴点抽出手段で抽出された特徴点における画像特徴量が両画像間で最も類似する特徴点対において、前記両画像を極座標で表したときのそれぞれの特徴点の動径の差である動径距離が所定の閾値よりも小さく、かつ、偏角の差である角度距離が所定の閾値よりも小さい特徴点対を同じ特徴点を指し示す特徴点対としてフィルタリングする特徴点フィルタリング手段と、
この特徴点フィルタリング手段でフィルタリングされた特徴点対の両画像上の位置と、前記魚眼カメラの距離とにより、当該特徴点の3次元位置を計算する特徴点3次元位置計算手段と、
を備えることを特徴とする3次元位置算出装置。
A three-dimensional position calculation device for calculating a three-dimensional position of a feature point in an image from images captured by two fisheye cameras having equidistant projection type fisheye lenses,
Feature point extracting means for extracting feature points with varying image characteristics from one image and the other image captured by the two fisheye cameras;
In the feature point pair in which the image feature quantity at the feature point extracted by the feature point extracting unit is the most similar between the two images, a motion that is a difference in radius of each feature point when the two images are expressed in polar coordinates. A feature point filtering means for filtering feature point pairs in which the radial distance is smaller than a predetermined threshold and the angular distance that is a difference in declination is smaller than the predetermined threshold as a feature point pair indicating the same feature point;
A feature point three-dimensional position calculation means for calculating a three-dimensional position of the feature point based on the position of both of the feature point pairs filtered by the feature point filtering means and the distance of the fisheye camera;
A three-dimensional position calculation apparatus comprising:
前記特徴点フィルタリング手段でフィルタリングされた複数の特徴点対の両画像上の位置から、前記他方の画像を前記一方の画像と平行化するための基本行列を求め、前記他方の画像の特徴点を前記基本行列により変換する校正手段を、さらに備え、
前記特徴点3次元位置計算手段が、変換後の特徴点対によって前記3次元位置を計算することを特徴とする請求項1に記載の3次元位置算出装置。
A basic matrix for parallelizing the other image with the one image is obtained from positions on both images of the plurality of feature point pairs filtered by the feature point filtering means, and the feature points of the other image are obtained. Calibration means for converting according to the basic matrix further comprises
The three-dimensional position calculation apparatus according to claim 1, wherein the feature point three-dimensional position calculation unit calculates the three-dimensional position based on the converted feature point pair.
前記特徴点3次元位置計算手段は、前記魚眼カメラの主点位置を通り、前記特徴点対のそれぞれの画像上の位置で特定される天頂角および偏角からなる方向ベクトルで表される2つの直線が最も近接する3次元位置を前記特徴点の3次元位置として計算することを特徴とする請求項1または請求項2に記載の3次元位置算出装置。   The feature point three-dimensional position calculation means is represented by a direction vector composed of a zenith angle and a declination angle specified by a position on each image of the feature point pair through the principal point position of the fisheye camera. The three-dimensional position calculation apparatus according to claim 1, wherein a three-dimensional position where two straight lines are closest is calculated as a three-dimensional position of the feature point. コンピュータを、請求項1から請求項3のいずれか一項に記載の3次元位置算出装置として機能させるための3次元位置算出プログラム。   The three-dimensional position calculation program for functioning a computer as a three-dimensional position calculation apparatus as described in any one of Claims 1-3. 照明環境を撮影するための等距離射影方式の魚眼レンズを備えた2台の魚眼カメラで撮影された画像から、前記照明環境で撮影される実写映像と合成するためのCGオブジェクトを生成するCG合成装置であって、
前記2台の魚眼カメラで撮影された画像から、当該画像中の特徴点の3次元位置を算出する請求項1から請求項3のいずれか一項に記載の3次元位置算出装置と、
この3次元位置算出装置で算出された3次元位置を頂点とする三角メッシュごとに、当該三角メッシュ内の領域を、前記魚眼カメラのいずれかで撮影された画像中の当該三角メッシュの各頂点である特徴点で囲まれる領域に対応付けて、前記照明環境をモデル化した光源分布マップを生成する光源分布マップ生成手段と、
この光源分布マップ生成手段で生成された光源分布マップに基づいて、素材CGデータを陰影処理して、前記CGオブジェクトを生成する陰影処理手段と、
を備えることを特徴とするCG合成装置。
CG synthesis for generating a CG object to be synthesized with a live-action video photographed in the illumination environment from images photographed by two fisheye cameras equipped with equidistant projection fisheye lenses for photographing the illumination environment A device,
The three-dimensional position calculation device according to any one of claims 1 to 3, wherein a three-dimensional position of a feature point in the image is calculated from images captured by the two fisheye cameras;
For each triangular mesh whose vertex is the three-dimensional position calculated by the three-dimensional position calculation device, each vertex of the triangular mesh in the image photographed by any of the fisheye cameras A light source distribution map generating means for generating a light source distribution map that models the illumination environment in association with a region surrounded by feature points that are:
Based on the light source distribution map generated by the light source distribution map generating means, the shadow processing means for generating the CG object by shading the material CG data,
A CG synthesizer comprising:
JP2014252738A 2014-12-15 2014-12-15 Three-dimensional position calculation device, program for the same, and cg composition apparatus Pending JP2016114445A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014252738A JP2016114445A (en) 2014-12-15 2014-12-15 Three-dimensional position calculation device, program for the same, and cg composition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014252738A JP2016114445A (en) 2014-12-15 2014-12-15 Three-dimensional position calculation device, program for the same, and cg composition apparatus

Publications (1)

Publication Number Publication Date
JP2016114445A true JP2016114445A (en) 2016-06-23

Family

ID=56139953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014252738A Pending JP2016114445A (en) 2014-12-15 2014-12-15 Three-dimensional position calculation device, program for the same, and cg composition apparatus

Country Status (1)

Country Link
JP (1) JP2016114445A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110473237A (en) * 2019-06-25 2019-11-19 上海圭目机器人有限公司 A kind of deflection angle measurement method of road face image detection camera
JP2020151268A (en) * 2019-03-20 2020-09-24 ソニー・オリンパスメディカルソリューションズ株式会社 Medical image processing apparatus and medical observation system
CN114008447A (en) * 2019-06-27 2022-02-01 西门子能源环球有限责任两合公司 Method for detecting and displaying potential damage points on components of an overhead line
US11307595B2 (en) 2019-10-25 2022-04-19 Multipleye Co., Ltd. Apparatus for acquisition of distance for all directions of moving body and method thereof
JP2025058932A (en) * 2023-09-28 2025-04-09 北京師範大学-香港浸会大学聯合国際学院 CLOSED LOOP DETECTION METHOD, ELECTRONIC DEVICE AND STORAGE MEDIUM

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020151268A (en) * 2019-03-20 2020-09-24 ソニー・オリンパスメディカルソリューションズ株式会社 Medical image processing apparatus and medical observation system
JP7239362B2 (en) 2019-03-20 2023-03-14 ソニー・オリンパスメディカルソリューションズ株式会社 Medical image processing device and medical observation system
CN110473237A (en) * 2019-06-25 2019-11-19 上海圭目机器人有限公司 A kind of deflection angle measurement method of road face image detection camera
CN110473237B (en) * 2019-06-25 2022-05-03 上海圭目机器人有限公司 Deflection angle measuring method of camera for road surface image detection
CN114008447A (en) * 2019-06-27 2022-02-01 西门子能源环球有限责任两合公司 Method for detecting and displaying potential damage points on components of an overhead line
US11307595B2 (en) 2019-10-25 2022-04-19 Multipleye Co., Ltd. Apparatus for acquisition of distance for all directions of moving body and method thereof
JP2025058932A (en) * 2023-09-28 2025-04-09 北京師範大学-香港浸会大学聯合国際学院 CLOSED LOOP DETECTION METHOD, ELECTRONIC DEVICE AND STORAGE MEDIUM
JP7808356B2 (en) 2023-09-28 2026-01-29 北京師範大学-香港浸会大学聯合国際学院 Closed-loop detection method, electronic device and storage medium

Similar Documents

Publication Publication Date Title
US12125191B1 (en) Collaborative disparity decomposition
TWI555379B (en) Panoramic fisheye camera image correction, synthesis and depth of field reconstruction method and system thereof
JP5580164B2 (en) Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program
CN106464853B (en) Image processing device and method
US20190012804A1 (en) Methods and apparatuses for panoramic image processing
US20200334842A1 (en) Methods, devices and computer program products for global bundle adjustment of 3d images
US11620730B2 (en) Method for merging multiple images and post-processing of panorama
US20120242795A1 (en) Digital 3d camera using periodic illumination
US10540784B2 (en) Calibrating texture cameras using features extracted from depth images
CN103839227B (en) Fisheye image correcting method and device
JP2018515825A (en) LIDAR stereo fusion live-action 3D model virtual reality video
US20180014003A1 (en) Measuring Accuracy of Image Based Depth Sensing Systems
CN112686877A (en) Binocular camera-based three-dimensional house damage model construction and measurement method and system
JP2015022510A (en) Free viewpoint image capturing apparatus and method
CN108629829B (en) A three-dimensional modeling method and system combining dome camera and depth camera
JPWO2016181687A1 (en) Image processing apparatus, image processing method, and program
WO2016018392A1 (en) Three dimensional scanning system and framework
JP6683307B2 (en) Optimal spherical image acquisition method using multiple cameras
WO2020151268A1 (en) Generation method for 3d asteroid dynamic map and portable terminal
Lin et al. A low-cost portable polycamera for stereoscopic 360 imaging
JP2016114445A (en) Three-dimensional position calculation device, program for the same, and cg composition apparatus
WO2020075252A1 (en) Information processing device, program, and information processing method
US20220405968A1 (en) Method, apparatus and system for image processing
US8340399B2 (en) Method for determining a depth map from images, device for determining a depth map
US20230005213A1 (en) Imaging apparatus, imaging method, and program