[go: up one dir, main page]

JP2003065714A - Guide device and method for camera calibration, and camera calibration device - Google Patents

Guide device and method for camera calibration, and camera calibration device

Info

Publication number
JP2003065714A
JP2003065714A JP2001250684A JP2001250684A JP2003065714A JP 2003065714 A JP2003065714 A JP 2003065714A JP 2001250684 A JP2001250684 A JP 2001250684A JP 2001250684 A JP2001250684 A JP 2001250684A JP 2003065714 A JP2003065714 A JP 2003065714A
Authority
JP
Japan
Prior art keywords
camera
plane
calibration
image
target plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001250684A
Other languages
Japanese (ja)
Inventor
Yoshiaki Iwai
嘉昭 岩井
Hidenori Koyaizu
秀紀 小柳津
Teruyuki Ushiro
輝行 後
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001250684A priority Critical patent/JP2003065714A/en
Publication of JP2003065714A publication Critical patent/JP2003065714A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 専用の大掛かりな設備を用いることなく、ユ
ーザのキャリブレーション操作の負担を軽減するため
に、キャリブレーション方法の指針を提供する。 【解決手段】 キャリブレーションを行なうカメラを三
脚に固定して、ガイドシート上で3枚の平面の撮像を行
なう。ガイドシート上には、3枚の平面を撮像するため
の対象平面の設置位置、並びに、三脚における各撮像時
の設置位置が指示されている。ガイドシート上に指示さ
れた設置場所は、本発明者等が推奨する拘束条件を備え
ている。ガイドシートに沿って3枚の平面を撮像してい
くことで、ユーザは、簡単且つ充分な精度のキャリブレ
ーションを行うことができる。
(57) [Summary] [Problem] To provide a guideline of a calibration method in order to reduce a user's burden of a calibration operation without using a dedicated large-scale facility. SOLUTION: A camera to be calibrated is fixed to a tripod, and three planes are imaged on a guide sheet. On the guide sheet, the installation positions of the target planes for imaging three planes and the installation positions of the tripod at the time of each imaging are indicated. The installation location specified on the guide sheet has a constraint condition recommended by the present inventors. By imaging three planes along the guide sheet, the user can perform calibration easily and with sufficient accuracy.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、カメラの特性を表
すパラメータを算出するためのカメラ・キャリブレーシ
ョン操作を行う際にユーザを案内するカメラ・キャリブ
レーションのためのガイド装置及びガイド方法、並び
に、カメラ・キャリブレーション装置に係り、特に、対
象物を撮像して電子的な画像データを出力するタイプの
カメラに対するカメラ・キャリブレーション操作を行う
際にユーザを案内するカメラ・キャリブレーションのた
めのガイド装置及びガイド方法、並びに、カメラ・キャ
リブレーション装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a guide device and a guide method for camera calibration for guiding a user when performing a camera calibration operation for calculating a parameter representing a characteristic of a camera, and BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera calibration device, and in particular, a guide device for camera calibration that guides a user when performing a camera calibration operation for a camera of a type that images an object and outputs electronic image data. And a guide method, and a camera calibration device.

【0002】更に詳しくは、本発明は、ステレオ法のカ
メラ・キャリブレーションにおいて、空間的な位置拘束
のない任意の平面の撮像画像を用いてパラメータを算出
するタイプのカメラ・キャリブレーション操作を行う際
にユーザを案内するカメラ・キャリブレーションのため
のガイド装置及びガイド方法、並びに、カメラ・キャリ
ブレーション装置に係り、特に、高価な設備や精密に加
工した機材を必要とせずに、充分な精度を得るととも
に、ユーザのキャリブレーション操作の負担を軽減する
カメラ・キャリブレーションのためのガイド装置及びガ
イド方法、並びに、カメラ・キャリブレーション装置に
関する。
More specifically, the present invention relates to a method of performing a camera calibration operation of a type in which a parameter is calculated by using a captured image of an arbitrary plane without spatial positional constraint in the camera calibration of the stereo method. The present invention relates to a guide device and a guide method for camera calibration for guiding a user to a user, and a camera calibration device, and in particular, obtains sufficient accuracy without requiring expensive equipment or precision machined equipment. In addition, the present invention relates to a guide device and a guide method for camera calibration that reduce the burden of user's calibration operation, and a camera calibration device.

【0003】[0003]

【従来の技術】対象物の距離測定法の1つとしてステレ
オ法を挙げることができる。ステレオ法とは、所定の位
置関係を持つ複数の視点(投影中心)から撮像した画像
を用いて、シーンすなわち撮像画像中の各点と投影中心
との距離を、いわゆる「三角測量」の原理により測定す
る方法のことである。
2. Description of the Related Art A stereo method can be mentioned as one of distance measuring methods for an object. The stereo method uses an image captured from a plurality of viewpoints (projection centers) having a predetermined positional relationship, and determines the distance between each point in the scene, that is, the captured image, and the projection center by the so-called "triangulation" principle. It is a method of measuring.

【0004】ここでは、便宜上、2つの視点すなわち2
個のカメラを用いた場合のステレオ法の原理について説
明する。1つのカメラは基準カメラとして使用され、正
面と正対した位置から対象物を撮像して、基準画像を出
力する。また、他方のカメラは検出カメラとして使用さ
れ、斜め方向から対象物を撮像して、検出画像を出力す
る。図7は、撮像平面に対する基準カメラと検出カメラ
の配置を模式的に示しており、また、図8には、略正方
形のパターンを基準カメラと検出カメラの各々によって
撮像した場合の基準画像と検出画像を模式的に示してい
る。
Here, for convenience, there are two viewpoints, that is, two viewpoints.
The principle of the stereo method using a single camera will be described. One camera is used as a reference camera, picks up an image of an object from a position facing the front, and outputs a reference image. Further, the other camera is used as a detection camera, picks up an object from an oblique direction, and outputs a detection image. FIG. 7 schematically shows the arrangement of the reference camera and the detection camera with respect to the imaging plane, and FIG. 8 shows the reference image and the detection when a substantially square pattern is picked up by each of the reference camera and the detection camera. The image is shown schematically.

【0005】図7に示すように、基準カメラの撮像画像
では、撮像対象となる平面上の点Mと基準カメラの投影
中心Cbとを結ぶ直線と基準カメラの投影スクリーンSb
との交点mに点Mが観察される。点Mと基準カメラの投
影中心Cbとを結ぶ直線は、基準カメラの視線である。
また、検出カメラの撮像画像では、点Mと検出カメラの
投影中心Cdとを結ぶ直線と検出カメラの投影スクリー
ンSdとの交点m’に点Mが観察される。点Mと検出カ
メラの投影中心Cdとを結ぶ直線は、検出カメラの視線
である。
[0005] As shown in FIG. 7, in the captured image of the reference camera, projection screen S b of the straight line and the reference camera connecting the projection center C b of M and the reference camera points on a plane to be imaged
A point M is observed at the intersection point m with. A straight line connecting the point M and the projection center C b of the reference camera is the line of sight of the reference camera.
Further, in the image captured by the detection camera, the point M is observed at the intersection point m ′ between the straight line connecting the point M and the projection center C d of the detection camera and the projection screen S d of the detection camera. The straight line connecting the point M and the projection center C d of the detection camera is the line of sight of the detection camera.

【0006】基準カメラの視線は、検出カメラの投影ス
クリーン上では直線として観察されるが、この直線のこ
とを「エピポーラ・ライン」と呼ぶ。
The line of sight of the reference camera is observed as a straight line on the projection screen of the detection camera, and this straight line is called an "epipolar line".

【0007】また、図7及び図8に示す例では、略正方
形のパターンに正対する基準カメラで撮像した撮像画像
は正方形となるのに対し、このパターンを斜視する検出
カメラで撮像した画像は、視点からの距離が長い辺が縮
小される結果として、台形状として現れる。これは、同
じ大きさの物体であっても、カメラの投影中心Cに近づ
くにつれて大きな像として投影され、逆に、投影中心C
から遠ざかるにつれ小さく投影されるという、中心投影
の基本的性質に依拠する。
Further, in the examples shown in FIGS. 7 and 8, the image picked up by the reference camera facing the substantially square pattern is square, whereas the image picked up by the detection camera which obliquely looks at this pattern is It appears as a trapezoid as a result of the reduction of the side with a long distance from the viewpoint. Even if an object of the same size, this is projected as a large image as it approaches the projection center C of the camera, and conversely, the projection center C
It relies on the basic property of central projection that it is projected smaller as it moves away from it.

【0008】上述したように、撮像対象が平面である場
合、検出カメラの撮像画像は、基準カメラの撮像画像を
射影変換した画像である。すなわち、基準カメラの撮像
画像中の点m(xb,yb)と、これに対応する検出カメ
ラの撮像画像中の点m’(x d,yd)の間には、以下の
式が成立する。但し、同式中のHは3×3射影変換行列
である。
As described above, when the object to be imaged is a plane.
In this case, the image captured by the detection camera is the image captured by the reference camera.
This is a projective transformed image. That is, the image captured by the reference camera
Point m (x in the imageb, Yb) And the corresponding detection turtle
Point m '(x d, YdBetween the following)
The formula holds. However, H in the equation is a 3 × 3 projective transformation matrix.
Is.

【0009】[0009]

【数1】 [Equation 1]

【0010】射影変換行列Hは、カメラの内部パラメー
タ及び外部パラメータ、平面の方程式を暗黙的に含んだ
行列であり、また、スケール因子に自由度が残るので、
8自由度を有する。なお、金谷健一著の「画像理解」
(森北出版,1990)には、基準画像と参照画像間に
おいて、射影変換により互いの対応点を求めることがで
きるということが記載されている。
The projective transformation matrix H is a matrix that implicitly includes the internal parameters and external parameters of the camera, and the equation of the plane, and since the scale factor has a degree of freedom,
It has 8 degrees of freedom. In addition, Kenichi Kanaya's "Image Understanding"
(Morikita Shuppan, 1990) describes that it is possible to find corresponding points between a standard image and a reference image by projective transformation.

【0011】基準カメラの視線は、検出カメラのカメラ
の投影スクリーン上ではエピポーラ・ラインと呼ばれる
直線として現れる(前述及び図7を参照のこと)。基準
カメラの視線上に存在する点Mは、点Mの奥行き、すな
わち基準カメラとの距離の大小に拘らず、基準カメラの
投影スクリーン上では同じ観察点m上に現れる。これに
対し、検出カメラの投影スクリーン上における点Mの観
察点m’は、エピポーラ・ライン上で基準カメラと観察
点Mとの距離の大小に応じた位置に現れる。
The line of sight of the reference camera appears as a straight line on the projection screen of the camera of the detection camera, called the epipolar line (see above and FIG. 7). The point M existing on the line of sight of the reference camera appears on the same observation point m on the projection screen of the reference camera regardless of the depth of the point M, that is, the size of the distance from the reference camera. On the other hand, the observation point m ′ of the point M on the projection screen of the detection camera appears on the epipolar line at a position according to the distance between the reference camera and the observation point M.

【0012】図9には、エピポーラ・ラインと、検出カ
メラの投影スクリーン上における観察点m’の様子を図
解している。同図に示すように、点Mの位置がM1
2,M 3へと変化するに従って、参照画像中の観察点は
m'1,m'2,m'3へとシフトする。言い換えれば、エピ
ポーラ・ライン上の位置が観察点Mの奥行きに相当する
訳である。
FIG. 9 shows the epipolar line and the detection curve.
Illustration of the observation point m'on the Mera projection screen
I understand. As shown in the figure, the position of the point M is M1
M2, M 3The observation point in the reference image changes as
m '1, M '2, M '3Shift to. In other words, epi
The position on the polar line corresponds to the depth of the observation point M
It is a translation.

【0013】以上の幾何光学的性質を利用して、基準カ
メラの観察点mに対応する観察点m’をエピポーラ・ラ
イン上で探索することにより、基準カメラから点Pまで
の距離を同定することができる。これが「ステレオ法」
の基本的原理である。
By utilizing the above geometrical optical properties, the observation point m'corresponding to the observation point m of the reference camera is searched on the epipolar line to identify the distance from the reference camera to the point P. You can This is the "stereo method"
Is the basic principle of.

【0014】撮像対象を実写した正面画像を基にして斜
視画像を生成したり、あるいは、ステレオ法に基づいて
複数台のカメラによる複数の画像から物体の距離を計測
することは、カメラが持つ撮像光学系が理論と完全に一
致する特性を持っていることを前提としている。このた
め、実写により取得した画像に対して所定の補正を施す
必要がある。例えば、カメラのレンズは一般に歪みパラ
メータを有し、観察点は理論上の点から変位した位置に
結像される。したがって、カメラ特有のパラメータを算
出し、射影変換に際してこのパラメータに従った画像デ
ータの補正を行わなければ、正面画像から正確な射影画
像を得ることができず、また、ステレオ法により正確な
奥行き計測を行うことができない。
A perspective image is generated based on a front image obtained by actually capturing an imaged object, or the distance of an object is measured from a plurality of images by a plurality of cameras based on a stereo method. It is assumed that the optical system has the characteristics that are in perfect agreement with the theory. For this reason, it is necessary to perform a predetermined correction on the image obtained by actual shooting. For example, a camera lens generally has a distortion parameter, and the observation point is imaged at a position displaced from the theoretical point. Therefore, if a camera-specific parameter is calculated and the image data is not corrected according to this parameter in the projective transformation, an accurate projected image cannot be obtained from the front image, and an accurate depth measurement is performed by the stereo method. Can't do.

【0015】カメラが持つパラメータは、レンズの歪み
パラメータの他、カメラ特性を表す内部パラメータ、カ
メラの3次元位置を示す外部パラメータに区分される。
カメラのパラメータを算出する作業のことを、一般に、
「カメラ・キャリブレーション」と呼ぶ。カメラ・キャ
リブレーションのための手法は、従来から数多く提案さ
れているが、未だ確立されたものがないのが現状であ
る。一般には、キャリブレーションに用いるデータの拘
束などのために専用の器具などを利用する必要もあり、
非常に煩雑な処理となってしまう。
The parameters of the camera are classified into lens distortion parameters, internal parameters representing camera characteristics, and external parameters representing the three-dimensional position of the camera.
The task of calculating camera parameters is generally
This is called "camera calibration". Although many methods for camera calibration have been proposed in the past, the current situation is that none have been established yet. In general, it is also necessary to use a dedicated device etc. for restraining the data used for calibration,
This is a very complicated process.

【0016】最近では、位置拘束のない任意平面を用い
たカメラ・キャリブレーション方法も幾つか提案されて
おり、キャリブレーション操作を行うユーザの負担が軽
減されつつある。
Recently, some camera calibration methods using an arbitrary plane without position constraint have been proposed, and the burden on the user performing the calibration operation is being reduced.

【0017】例えば、Zhengyou Zhang著の論文:"A Flex
ible New Technique for Camera Calibration", Micros
oft Research Technical Report, 1999(http://www.re
search.microsoft.com/~zhang/)には、カメラの内部パ
ラメータを算出する方法について記載されている。この
Zhangの方法によれば、既知のパターンが描かれた平面
を異なる方向(すなわち視線方向が平行でない)から撮
像して、各平面における射影変換行列を利用してカメラ
の内部パラメータを算出し、最終的に距離計測に必要な
カメラ・パラメータを算出することが可能である。
For example, a paper by Zhengyou Zhang: "A Flex
ible New Technique for Camera Calibration ", Micros
oft Research Technical Report, 1999 (http://www.re
search.microsoft.com/~zhang/) describes how to calculate the internal parameters of the camera. this
According to Zhang's method, the planes with known patterns are imaged from different directions (that is, the line-of-sight directions are not parallel), and the internal parameters of the camera are calculated using the projective transformation matrix in each plane. It is possible to calculate the camera parameters necessary for distance measurement.

【0018】しかしながら、Zhangの方法のように、カ
メラ・キャリブレーションのための撮像対象が任意平面
であると言っても、撮像の際の角度には、実際には何ら
かの拘束条件が存在するのが現状である。
However, even if the object to be imaged for camera calibration is an arbitrary plane as in the method of Zhang, there is actually some constraint condition for the angle at the time of image pickup. The current situation.

【0019】Zhangの方法であっても、例えば3平面が
平行に近い場合、パラメータに対する充分な拘束を得る
ことができず、その結果としてパラメータ算出を行うこ
とができなくなる。また、パラメータを安定且つ充分な
精度で算出するためには、3平面はある程度の角度を持
つほうが望ましいと思料される。
Even with the Zhang method, when the three planes are close to parallel, for example, sufficient constraint cannot be obtained for the parameters, and as a result, the parameters cannot be calculated. In order to calculate the parameters stably and with sufficient accuracy, it is considered desirable that the three planes have a certain angle.

【0020】また、Zhangの方法などにより、専用の実
験設備がない状況下であっても、カメラ・キャリブレー
ションを行うことは可能になったとは言っても、現状で
は、誰でも簡単で且つ充分な精度が得られるキャリブレ
ーションを行なえる訳ではない。その理由としては,先
述したように任意平面の撮像というあいまいな範疇であ
るため、ユーザ側にかえって自由度があり過ぎて、作業
に戸惑ってしまうからである。この結果、ある程度の撮
像のトレーニングなしでは、充分な精度のキャリブレー
ションを行うことが難しい。
Moreover, although it is possible to calibrate the camera by the method of Zhang etc. even under the condition that there is no dedicated experimental equipment, at present, anyone can easily and sufficiently perform the calibration. It is not possible to perform calibration with high accuracy. The reason for this is that, as described above, since it is an ambiguous category of imaging on an arbitrary plane, there is too much freedom on the part of the user side, and work is confusing. As a result, it is difficult to perform calibration with sufficient accuracy without some imaging training.

【0021】[0021]

【発明が解決しようとする課題】本発明の目的は、対象
物を撮像して電子的な画像データを出力するタイプのカ
メラに対するカメラ・キャリブレーション操作を行う際
にユーザを好適に案内することができる、カメラ・キャ
リブレーションのための優れたガイド装置及びガイド方
法、並びに、カメラ・キャリブレーション装置を提供す
ることにある。
SUMMARY OF THE INVENTION It is an object of the present invention to suitably guide a user when performing a camera calibration operation for a camera of a type that images an object and outputs electronic image data. An object of the present invention is to provide an excellent guide device and guide method for camera calibration that can be performed, and a camera calibration device.

【0022】本発明の更なる目的は、ステレオ法のカメ
ラ・キャリブレーションにおいて、空間的な位置拘束の
ない任意の平面の撮像画像を用いてパラメータを算出す
るタイプのカメラ・キャリブレーション操作を行う際に
好適にユーザを案内することができる、優れたガイド装
置及びガイド方法、並びに、カメラ・キャリブレーショ
ン装置を提供することにある。
A further object of the present invention is to perform a camera calibration operation of a type in which a parameter is calculated by using a captured image of an arbitrary plane without spatial position constraint in the camera calibration of the stereo method. An object of the present invention is to provide an excellent guide device and guide method that can appropriately guide a user, and a camera calibration device.

【0023】本発明の更なる目的は、Zhangの方法のよ
うに既知のパターンが描かれた平面を位置拘束のない任
意の方向から撮像した3枚の画像データを用いて行なう
カメラ・キャリブレーションにおいて、充分な精度を得
るとともに、ユーザのキャリブレーション操作の負担を
軽減することができる、優れたガイド装置及びガイド方
法、並びに、カメラ・キャリブレーション装置を提供す
ることにある。
A further object of the present invention is camera calibration performed using three image data obtained by imaging a plane on which a known pattern is drawn from an arbitrary direction without position constraint, as in the Zhang method. An object of the present invention is to provide an excellent guide device and guide method, and a camera calibration device that can obtain sufficient accuracy and reduce the burden of the user's calibration operation.

【0024】[0024]

【課題を解決するための手段及び作用】本発明は、上記
課題を参酌してなされたものであり、その第1の側面
は、空間的な位置拘束のない任意の平面の撮像画像を用
いてパラメータを算出するタイプのカメラ・キャリブレ
ーション操作を行う際にユーザを案内するガイド装置又
はガイド方法であって、既知パターンを含んだ対象平面
に対する非平行な撮像平面を得るためのカメラと対象平
面との3以上の位置関係を指示する指示手段又はステッ
プを備える、ことを特徴とするカメラ・キャリブレーシ
ョンのためのガイド装置又はガイド方法である。
The present invention has been made in consideration of the above problems, and the first side surface thereof uses an imaged image of an arbitrary plane without spatial positional constraint. A guide device or a guide method for guiding a user when performing a camera calibration operation of a type for calculating a parameter, wherein a camera and a target plane for obtaining an imaging plane non-parallel to a target plane including a known pattern The guide device or the guide method for camera calibration, characterized in that the guide device or the guide method is provided with instructing means or steps for instructing three or more positional relationships.

【0025】そして、前記指示手段又はステップは、対
象平面をほぼ真正面から撮像することが可能なカメラと
対象平面との1つの位置関係を指示するとともに、対象
平面の真正面すなわちその法線から充分に傾いた視線方
向から対象平面を撮像することができるカメラと対象平
面との2つの位置関係を指示するようにする。但し、他
の2つの位置関係に関しては、画素当りの情報量が減少
しないように、対象平面に対して傾き過ぎない撮像平面
を得ることができるようにする。より具体的に言えば、
それらの位置関係におけるカメラの視線方向は対象平面
の法線に対してそれぞれ45度程度傾いている。
The instructing means or step indicates one positional relationship between the object plane and a camera capable of picking up an image of the object plane almost directly from the front side, and sufficiently in front of the object plane, that is, from its normal line. The two positional relationships between the camera capable of capturing an image of the target plane and the target plane from the inclined line-of-sight direction are designated. However, regarding the other two positional relationships, it is possible to obtain an imaging plane that is not too inclined with respect to the target plane so that the amount of information per pixel does not decrease. More specifically,
The line-of-sight directions of the cameras in these positional relationships are inclined about 45 degrees with respect to the normal line of the target plane.

【0026】先述したように、Zhangのカメラ・キャリ
ブレーション方法によれば、既知のパターンが描かれた
平面を位置拘束のない任意の方向から撮像した3枚の画
像を用いてキャリブレーションを行なうことができる。
しかしながら、任意平面の撮像というあいまいな範疇で
あるため、ユーザ側にかえって自由度があり過ぎて、作
業に戸惑ってしまう。この結果、ある程度の撮像のトレ
ーニングなしでは、充分な精度のキャリブレーションを
行うことが難しい。
As described above, according to the camera calibration method of Zhang, the calibration is performed using three images of a plane on which a known pattern is drawn, taken from an arbitrary direction without position constraint. You can
However, since it is an ambiguous category of imaging an arbitrary plane, there is too much freedom on the part of the user, and the work is confusing. As a result, it is difficult to perform calibration with sufficient accuracy without some imaging training.

【0027】これに対し、本発明の第1の側面に係るカ
メラ・キャリブレーションのためのガイド装置及びガイ
ド方法によれば、ユーザは、ガイドに案内されて対象平
面とのカメラとの位置関係を逐次変更して撮像を繰り返
すことで、充分な精度のカメラ・キャリブレーションを
行うために必要な画像データを簡単に取得することがで
きる。
On the other hand, according to the guide device and the guide method for camera calibration according to the first aspect of the present invention, the user is guided by the guide to set the positional relationship between the target plane and the camera. It is possible to easily acquire the image data necessary for performing the camera calibration with sufficient accuracy by sequentially changing and repeating the imaging.

【0028】また、Zhangの方法などでは厳密な平面と
キャリブレーションの位置関係は不要なので、たとえユ
ーザが本発明の第1の側面に係るガイド装置又はガイド
方法によるガイドに厳密に従わなくとも、ある程度ガイ
ドに従った設置であれば、充分な精度が得られるキャリ
ブレーションを行なうことが可能である。
Further, since the Zhang method does not require a strict positional relationship between the plane and the calibration, even if the user does not strictly follow the guide by the guide device or the guide method according to the first aspect of the present invention, it is possible to some extent. If it is installed according to the guide, it is possible to perform calibration with sufficient accuracy.

【0029】前記指示手段又はステップは、対象平面に
関する単一の設置場所と、カメラに関する複数の設置場
所を指示するようにしてもよい。
The instructing means or step may instruct a single installation location for the target plane and a plurality of installation locations for the camera.

【0030】あるいは、前記指示手段又はステップは、
対象平面に関する複数の設置場所と、カメラに関する単
一の設置場所を指示するようにしてもよい。
Alternatively, the instructing means or step is
A plurality of installation locations for the target plane and a single installation location for the camera may be designated.

【0031】本発明の第1の側面に係るカメラ・キャリ
ブレーションのためのガイド装置及びガイド方法は、前
記指示手段又はステップによって指示された各位置関係
にて撮像された画像を用いてカメラのひずみパラメータ
を推定し、各撮像画像を所定の仮想平面へ射影する各射
影変換行列を算出し、各撮像画像の射影変換行列を基に
カメラの内部パラメータを算出するカメラ・キャリブレ
ーション操作に対して適用することができる。
The guiding device and the guiding method for camera calibration according to the first aspect of the present invention uses the images taken in the respective positional relationships designated by the pointing means or steps to distort the camera. It is applied to the camera calibration operation that estimates the parameters, calculates each projective transformation matrix that projects each captured image onto a predetermined virtual plane, and calculates the internal parameters of the camera based on the projective transformation matrix of each captured image. can do.

【0032】また、本発明の第2の側面は、空間的な位
置拘束のない任意の平面の撮像画像を用いてパラメータ
を算出するタイプのカメラ・キャリブレーション操作を
行うためのカメラ・キャリブレーション装置であって、
透過物体上に既知パターンがC(シアン)、M(マゼン
ダ)、Y(イエロー)の各カラーフィルタで形成された
3平面を所定角度を以って配置したキャリブレーション
・ジグと、前記キャリブレーション・ジグの後方から照
らす光源と、前記キャリブレーション・ジグの透過光を
カメラで撮像した画像を基にカメラ・キャリブレーショ
ンのための演算処理を行う処理手段と、を具備すること
を特徴とするカメラ・キャリブレーション装置である。
A second aspect of the present invention is a camera calibration device for performing a camera calibration operation of a type in which a parameter is calculated by using a captured image of an arbitrary plane without spatial constraint. And
A calibration jig in which three planes each having a known pattern of C (cyan), M (magenta), and Y (yellow) are arranged on a transparent object at a predetermined angle, and the calibration jig. A camera comprising: a light source that illuminates from behind the jig; and a processing unit that performs arithmetic processing for camera calibration based on an image obtained by capturing the transmitted light of the calibration jig with the camera. It is a calibration device.

【0033】前記処理手段は、RGBとCMYの補色関
係に基づき、G+B、R+B、R+Gそれぞれが充分大
きい色を撮像画像から抽出することにより、3平面のキ
ャリブレーション用の画像を同時に取得することができ
る。
Based on the complementary color relationship between RGB and CMY, the processing means can simultaneously extract images for calibration on three planes by extracting colors with sufficiently large G + B, R + B, and R + G from the captured image. it can.

【0034】したがって、本発明の第2の側面に係るカ
メラ・キャリブレーション装置によれば、カメラ位置,
平面位置に対してある程度の拘束を設けることが可能に
なるとともに、1回の撮像で3平面のキャリブレーショ
ン用の画像を取得できるので、ユーザの作業負担が大幅
に軽減される。
Therefore, according to the camera calibration device of the second aspect of the present invention, the camera position,
Since it is possible to set a certain degree of constraint on the plane position and the image for calibration of three planes can be acquired by one image pickup, the work load on the user is significantly reduced.

【0035】本発明のさらに他の目的、特徴や利点は、
後述する本発明の実施例や添付する図面に基づくより詳
細な説明によって明らかになるであろう。
Further objects, features and advantages of the present invention are as follows.
It will be clarified by a more detailed description based on embodiments of the present invention described below and the accompanying drawings.

【0036】[0036]

【発明の実施の形態】本発明は、専用の大掛かりな設備
を用いることなく、ユーザのキャリブレーション操作の
負担を軽減するために、キャリブレーション方法の指針
を提供するものである。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention provides a guideline for a calibration method in order to reduce the burden of the user's calibration operation without using a dedicated large-scale facility.

【0037】但し、本発明は、Zhangの方法のように、
既知のパターンが描かれた平面を異なる3方向から撮像
した3枚の平面画像を用いてステレオ・カメラのキャリ
ブレーションを行なう場合に適用される。
However, the present invention, like the method of Zhang,
It is applied when the calibration of the stereo camera is performed by using three plane images obtained by capturing the plane on which the known pattern is drawn from three different directions.

【0038】ここで、本発明に係るカメラ・キャリブレ
ーションのためのガイド装置について説明する前に、カ
メラの各種パラメータを算出するためのカメラ・キャリ
ブレーション自体について説明しておく。以下では、撮
像画像上の点を、
Before describing the guide device for camera calibration according to the present invention, the camera calibration itself for calculating various parameters of the camera will be described. Below, the points on the captured image are

【0039】[0039]

【数2】 [Equation 2]

【0040】とし、また、空間中の点を、And the points in space are

【0041】[0041]

【数3】 [Equation 3]

【0042】とし、各点の斎次座標系での記述をそれぞ
れ以下のようにおく。
The description of each point in the linear coordinate system is as follows.

【0043】[0043]

【数4】 [Equation 4]

【0044】このような場合、空間中の点Mと撮像画像
上の点mの関係は以下に示す式で与えられる。
In such a case, the relationship between the point M in space and the point m on the captured image is given by the following equation.

【0045】[0045]

【数5】 [Equation 5]

【0046】ここで、sはスケール因子であり、行列
[R,t]は外部パラメータと呼ばれるもので、カメラ
の空間内での位置を表す。また、R,tは、それぞれ画
像の回転及び並進行列を表す。また、行列Aは、カメラ
の内部パラメータと呼ばれるもので、以下に示す式で与
えられる。
Here, s is a scale factor, and the matrix [R, t] is called an extrinsic parameter and represents the position of the camera in space. In addition, R and t respectively represent the rotation and translation row of the image. Further, the matrix A is called an internal parameter of the camera and is given by the formula shown below.

【0047】[0047]

【数6】 [Equation 6]

【0048】ここで、(u0,v0)は画像中心を表
し、α(=−f・ku)、β(=−f・kv/sin
θ)はそれぞれ、u軸、v軸のスケール因子を表し、γ
(=f・ku・cotθ)は2つの軸のねじれを表す。
また、行列P=A・[R,t]は、空間内の点を画像面
に投影する3×4の投影行列とする。
Here, (u0, v0) represents the center of the image, and α (= − f · ku) and β (= − f · kv / sin).
θ) represents the scale factors of the u-axis and v-axis, respectively, and γ
(= F · ku · cotθ) represents the twist of the two axes.
The matrix P = A · [R, t] is a 3 × 4 projection matrix for projecting points in space onto the image plane.

【0049】以上の記述では、レンズ歪みによる影響を
考慮せず、理想的な条件下での変換を示してきた。しか
し、実際には歪みによる影響を無視することはできない
ので、カメラ・パラメータとしてレンズ歪みも加えるも
のとする。歪み座標の点md=[ud,vd]Tと点m=
[u,v]Tの関係は、以下に示す式で表すことができ
る。
In the above description, conversion under ideal conditions has been shown without considering the effect of lens distortion. However, in reality, the influence of distortion cannot be ignored, so lens distortion is also added as a camera parameter. Distorted coordinate point md = [ud, vd] T and point m =
The relationship of [u, v] T can be expressed by the following equation.

【0050】[0050]

【数7】 [Equation 7]

【0051】但し,rd2=(ud−cu)2+(vd−
cv)2sv2であり、(cu,cv)は歪み中心を、s
vはアスペクト比をそれぞれ表すものとする。
However, rd 2 = (ud-cu) 2 + (vd-
cv) 2 sv 2 , where (cu, cv) is the strain center and s
v represents an aspect ratio.

【0052】ステレオ法における距離計測方法の原理
は、図9を参照しながら既に説明した通りである。すな
わち、基準カメラ、検出カメラへの投影行列をそれぞれ
P,P’とし、基準画像及び検出画像上のそれぞれの点
をm,m’とする。但し、それぞれの画像上の点は、式
(3)を用いてひずみの影響は除去されているものとす
る。
The principle of the distance measuring method in the stereo method is as already described with reference to FIG. That is, the projection matrices to the reference camera and the detection camera are P and P ′, and the points on the reference image and the detection image are m and m ′. However, it is assumed that the influence of the distortion is removed from the points on each image by using the equation (3).

【0053】点Mまでの距離を測定する場合、基準画像
上の点mに対応する検出画像上の点m’を検出する必要
がある。点m’は、図9に示すように、エピポーラ・ラ
インと呼ばれる直線上に位置するので(前述)、参照画
像上で点mに対応する点を検出するためには、この直線
上の探索を行えばよいことになる。
When measuring the distance to the point M, it is necessary to detect the point m'on the detected image corresponding to the point m on the reference image. Since the point m ′ is located on a straight line called an epipolar line as shown in FIG. 9 (described above), in order to detect the point corresponding to the point m on the reference image, the search on this straight line is performed. It should be done.

【0054】エピポーラ・ラインはカメラ中心と点mを
結ぶ直線上の点を検出カメラ上へ投影した点の集合であ
る(前述)。例えば、空間内Z方向の計測範囲をZ0
nとした場合、エピポーラ・ラインは、各距離に対応
した点M0,Mnを投影した点m 0',mn'を結ぶ直線とな
る。実際の探索では、距離Ziに位置する点を検出画像
上に投影して、基準画像上の点との類似度を測り、画像
間の点の対応を決定する。
The epipolar line is the center of the camera and the point m.
It is a set of points that are projected onto the detection camera on the connecting straight line.
(See above). For example, if the measurement range in the Z direction in space is Z0
ZnAnd the epipolar line corresponds to each distance
Point M0, MnPoint m 0', MnAnd a straight line connecting
It In the actual search, the distance ZiImage of the point located at
Project on top, measure the similarity with points on the reference image, and
Determine the correspondence of points between.

【0055】次いで、基準カメラ上の点mへ投影される
距離Ziの点Miを検出画像上の点m i'へ投影する手順に
ついて説明する。点mを通る視線上の点は、式(1)を
用いて次式のように記述することができる。
Then, it is projected to the point m on the reference camera.
Distance ZiPoint MiThe point m on the detected image i'To the procedure to project
explain about. For a point on the line of sight passing through the point m, use the formula (1)
It can be described using the following equation.

【0056】[0056]

【数8】 [Equation 8]

【0057】ここでP+はPの擬似逆行列であり、次式
で定義される。
Here, P + is a pseudo inverse matrix of P and is defined by the following equation.

【0058】[0058]

【数9】 [Equation 9]

【0059】また、P⊥は次式を満たすベクトルとな
り、常に原点に射影されるため実際には光学中心を示
す。但し、ωは任意の4次元ベクトルである。
Further, P⊥ is a vector that satisfies the following equation, and is always projected to the origin so that it actually indicates the optical center. However, ω is an arbitrary four-dimensional vector.

【0060】[0060]

【数10】 [Equation 10]

【0061】式(4)は、光学中心及び基準画像上の点
mを通るすべての点を表しているが、距離をZiとする
ことでスケール因子を決定することができ、空間内の点
iを決定することができる。この点を投影行列P’に
より投影すれば、検出画像上の点mi’を算出すること
が可能となる。
Equation (4) represents all points passing through the optical center and the point m on the reference image, but the scale factor can be determined by setting the distance to Z i, and the point in space can be determined. M i can be determined. If this point is projected by the projection matrix P ′, the point m i ′ on the detected image can be calculated.

【0062】以上のことから、空間内の点の距離を求め
るためには、各カメラのカメラ・パラメータA,R,
t,A’.R’,t’をそれぞれ個々に求めるか、又
は、投影行列P,P’を直接算出し、さらに各カメラの
歪みパラメータκ1,cu1,cv1,sv1 κ2,
cu2,cv2,sv2を算出すればよいことになる。
From the above, in order to obtain the distance between points in space, the camera parameters A, R, and
t, A '. R ′ and t ′ are individually calculated, or the projection matrices P and P ′ are directly calculated, and the distortion parameters κ1, cu1, cv1, sv1 κ2 of each camera are further calculated.
It is sufficient to calculate cu2, cv2 and sv2.

【0063】本発明では、所定の対象平面を異なる視線
方向から撮影した3枚の画像からカメラのひずみパラメ
ータの算出を行なう。
In the present invention, the distortion parameter of the camera is calculated from three images obtained by photographing a predetermined target plane from different line-of-sight directions.

【0064】まず、異なる3視点で所定のパターンの描
かれた対象平面を撮像する。撮像する対象平面のパター
ンについても特に制約はないが、以下では白黒2値の格
子パターンが表面に形成された対象平面を用いるものと
する。
First, the target plane on which a predetermined pattern is drawn is imaged from three different viewpoints. There is also no particular restriction on the pattern of the target plane to be imaged, but in the following, it is assumed that the target plane having a black and white binary lattice pattern formed on the surface is used.

【0065】撮像の際、平面の空間的な位置(又は視
点)に関しては、相対的に平行でなければよい。但し、
3枚の撮像画像のうち1枚は、対象平面をほぼ真正面か
ら撮像した画像であることが好ましい。また、他の視点
に関しては、互いに平行でなければよいが、視線方向が
対象平面の法線方向に対して90度に近づくにつれ、撮
像画像は対象平面を真横に近い向きから撮像することに
なり、撮像画像が画素当りに持つ対象平面の情報量が減
少するため好ましくない。
At the time of imaging, the spatial position (or viewpoint) of the plane need not be relatively parallel. However,
It is preferable that one of the three picked-up images is an image picked up from a substantially front surface of the target plane. Regarding other viewpoints, it is not necessary that they are parallel to each other, but as the line-of-sight direction approaches 90 degrees with respect to the normal direction of the target plane, the captured image will be captured from the direction close to the side of the target plane. However, this is not preferable because the amount of information of the target plane that the captured image has per pixel is reduced.

【0066】次いで、カメラの各撮像画像を用いて、カ
メラのひずみパラメータを推定すると同時に、合成画像
への射影変換行列を算出する。
Then, using each captured image of the camera, the distortion parameter of the camera is estimated, and at the same time, the projective transformation matrix to the composite image is calculated.

【0067】ここで言う合成画像とは、XYZ座標系に
おいて、X−Y平面に平行で且つZ=0の位置に配置さ
れた仮想平面の次元を落として画像としたものであり、
その座標系はXY座標となる。ここで用いる歪みパラメ
ータの推定方法については、例えば本出願人に既に譲渡
されている特開2000−350239号公報(特願平
11−161217号)に開示されたカメラ・キャリブ
レーション方法を拡張することで実現される。
The composite image referred to here is an image in which the dimensions of a virtual plane arranged in the XYZ coordinate system in parallel with the XY plane and at the position Z = 0 are dropped.
The coordinate system is XY coordinates. As for the distortion parameter estimation method used here, for example, the camera calibration method disclosed in Japanese Patent Application Laid-Open No. 2000-350239 (Japanese Patent Application No. 11-161217) already assigned to the present applicant is extended. Will be realized in.

【0068】合成画像上の点をmo=[Xo,YoT、撮
像画像上の点をmd=[u,vT、歪みを除去した
画像上の点をm=[u,v]Tとすると、各点の関係は
図10に示すように、射影変換行列Hoと歪みパラメー
タ(κ,cu,cv,sv)により表すことができる。
つまり、撮像画像上の点mdを式(3)を用いてmへ変
換し、さらに次式により変換することで合成画像上の点
oに関連付けられる。
A point on the composite image is m o = [X o , Y o ] T , a point on the picked-up image is m d = [u d , v d ] T , and a point on the image from which distortion has been removed is m =. Assuming that [u, v] T , the relationship between the points can be represented by the projective transformation matrix H o and the distortion parameter (κ, cu, cv, sv) as shown in FIG.
That is, the point m d on the captured image is converted into m using the equation (3), and further converted by the following equation, so that the point m d is associated with the point m o on the composite image.

【0069】[0069]

【数11】 [Equation 11]

【0070】上式に示す関係に基づいて、図11に示す
ように、撮像した画像を同一の合成画像合わせ込み(Im
age Registration)を行なうことで、ステレオ・カメラ
のパラメータ推定すなわちカメラ・キャリブレーション
を行うことができる。
Based on the relationship shown in the above equation, as shown in FIG. 11, the picked-up images are combined into the same composite image (Im
By performing age registration), parameter estimation of the stereo camera, that is, camera calibration can be performed.

【0071】この場合、推定するパラメータは、歪みパ
ラメータ(4パラメータ)と、各撮像画像Iiから合成
画像Ioへの射影変換行列Hoi(8パラメータ)があ
り、合計28個のパラメータとなる。評価値としては、
次式に示すように合成画像Ioと撮像画像Iiの2乗和を
最小化することで、各パラメータを推定する。但し、i
=1,2,3は画像枚数を表す。この処理により、例え
ばパターンが撮像された位置が、図11に示すように局
所的であっても、比較的安定に歪みパラメータを推定す
ることが可能となる。
In this case, the parameters to be estimated include the distortion parameter (4 parameters) and the projective transformation matrix H oi (8 parameters) from each captured image I i to the composite image I o , which is a total of 28 parameters. . As an evaluation value,
Each parameter is estimated by minimizing the sum of squares of the combined image I o and the captured image I i as shown in the following equation. However, i
= 1, 2, and 3 represent the number of images. By this processing, for example, even if the position where the pattern is imaged is local as shown in FIG. 11, it is possible to relatively stably estimate the distortion parameter.

【0072】[0072]

【数12】 [Equation 12]

【0073】この評価値の最小化に関しては、非線形問
題の一般的な解法であるLevenberg-Marquardt法(以下
では、単に「L−M法」とする)を適用することができ
る。例えば、S. A. Teukolsky,W. T. Vetterling,B.
P. Flannery著の"NUMERICALRECIPES in C"(W. H. Pres
s)には、L−M法について記載されている。
For the minimization of the evaluation value, the Levenberg-Marquardt method (hereinafter simply referred to as "LM method"), which is a general method for solving nonlinear problems, can be applied. For example, SA Teukolsky, WT Vetterling, B.
"NUMERICAL RECIPES in C" by P. Flannery (WH Pres
s) describes the LM method.

【0074】ここで、歪みパラメータ推定処理の手順を
まとめておく。
Here, the procedure of the distortion parameter estimation processing will be summarized.

【0075】1:撮像したパターンに応じて計算機内で
合成画像Ioを作成する。 2:各カメラ画像I1,I2,I3について、式(3)及
び(7)で表される撮像画像と合成画像の関係を使っ
て、式(8)の評価値をL−M法により最小化し、歪み
パラメータκ,cu,cv,sv、及び、各画像から合
成画像への射影変換行列Ho1,Ho2,Ho3を算出する。
1: A composite image I o is created in the computer according to the imaged pattern. 2: For each of the camera images I 1 , I 2 , and I 3 , the evaluation value of the equation (8) is evaluated by the LM method using the relationship between the captured image and the synthetic image represented by the equations (3) and (7). , And distortion parameters κ, cu, cv, sv, and projective transformation matrices H o1 , H o2 , H o3 from each image to a composite image are calculated.

【0076】歪みパラメータ推定の際に使用した仮想平
面と撮像画像の関係を上式(1)により書き直すと次式
のようになる。
When the relation between the virtual plane used for estimating the distortion parameter and the captured image is rewritten by the above equation (1), the following equation is obtained.

【0077】[0077]

【数13】 [Equation 13]

【0078】但し、R=[r1,r2,r3]としてい
る。上式(9)と先述の式(7)より次式を導くことが
できる。
However, R = [r1, r2, r3]. The following equation can be derived from the above equation (9) and the above equation (7).

【0079】[0079]

【数14】 [Equation 14]

【0080】さらにH=[h1 h2 h3]とおく
と、上式(10)から次式を得ることができる。
Further, by setting H = [h1 h2 h3], the following equation can be obtained from the above equation (10).

【0081】[0081]

【数15】 [Equation 15]

【0082】但し、λはスケール因子である。r1とr
2は正規直交、すなわち<r1,r2>=0且つ|r1
|=|r2|=1であることを利用すると、上式(1
2)から次式の関係式を導くことができる。
However, λ is a scale factor. r1 and r
2 is orthonormal, that is, <r1, r2> = 0 and | r1
Using the fact that | = | r2 | = 1, the above equation (1
The following relational expression can be derived from 2).

【0083】[0083]

【数16】 [Equation 16]

【0084】但し、B=A-T-1とする。上式(12)
において、Bは対称行列であり、次式のように表され
る。
However, it is assumed that B = A -T A -1 . Formula (12)
In, B is a symmetric matrix and is represented by the following equation.

【0085】[0085]

【数17】 [Equation 17]

【0086】ここで列ベクトルb=[B11,B12,
B22,B13,B23,B33]Tとし,Hの列ベク
トルをhi=[hi1,hi2,hi3Tとおくと、次式を得
ることができる。但し、vij=[hi1j1,hi1j2
i2j1,hi2j2,hi3 j1+hi1j3,hi3j2
i2j3,hi3j3Tとする。
Here, the column vector b = [B11, B12,
B22, B13, B23, B33] T, and a row of H
Tor hi= [Hi1, Hi2, Hi3]TThen, we get
You can However, vij= [Hi1hj1, Hi1hj2+
hi2hj1, Hi2hj2, Hi3h j1+ Hi1hj3, Hi3hj2+
hi2hj3, Hi3hj3]TAnd

【0087】[0087]

【数18】 [Equation 18]

【0088】式(13)を式(12)に代入することに
よって、上記の列ベクトルbに関する以下の方程式を得
ることができる。
By substituting the equation (13) into the equation (12), the following equation regarding the column vector b can be obtained.

【0089】[0089]

【数19】 [Formula 19]

【0090】上式(14)は1枚の撮像平面(射影変換
行列)から得られる式であるから、すべての撮像画像に
ついて式(14)を作成することで最終的に次式が得ら
れ、これを解くことで、列ベクトルbを求めることが可
能となる。
Since the above equation (14) is obtained from one imaging plane (projection transformation matrix), the following equation is finally obtained by creating equation (14) for all the captured images, By solving this, the column vector b can be obtained.

【0091】[0091]

【数20】 [Equation 20]

【0092】但し、Vは以下の通りとする。However, V is as follows.

【0093】[0093]

【数21】 [Equation 21]

【0094】上式(15)によりベクトルbを算出する
ことができれば、内部パラメータの各要素は次式から算
出可能となる。
If the vector b can be calculated by the above equation (15), each element of the internal parameter can be calculated by the following equation.

【0095】[0095]

【数22】 [Equation 22]

【0096】ここで、基準カメラの内部パラメータ推定
処理の手順をまとめておく。
Here, the procedure of the internal parameter estimation processing of the reference camera will be summarized.

【0097】1:合成画像への射影変換行列の逆行列H
i=Hoi -1を算出する。 2:各逆行列Hiから式(14)の関係式を算出する。 3:すべての行列Hiを使って得られた式(15)を解
き、式(17)から内部パラメータの各要素値を算出す
る。
1: Inverse matrix H of projective transformation matrix to composite image
Calculate i = H oi -1 . 2: The relational expression of Expression (14) is calculated from each inverse matrix H i . 3: The equation (15) obtained using all the matrices H i is solved, and each element value of the internal parameter is calculated from the equation (17).

【0098】続いて、先に算出したカメラの内部パラメ
ータを利用して、撮像した平面の空間内での位置及び姿
勢を推定する。
Next, the position and orientation of the imaged plane in the space are estimated using the internal parameters of the camera calculated above.

【0099】歪みパラメータ算出の際、同時に算出した
各画像から合成画像への射影変換行列Hoの逆行列を用
いることにより撮像画像の格子点を抽出することができ
る。すなわち、合成画像中の任意の格子点(合成画像は
作成されたものであり、その位置は既知である)を行列
o -1により射影することで、歪みを除去した画像上で
の格子点m=[u,v]Tを算出することができる。
At the time of calculating the distortion parameter, the lattice points of the picked-up image can be extracted by using the inverse matrix of the projective transformation matrix H o from each image simultaneously calculated to the combined image. That is, by projecting an arbitrary grid point in the composite image (the composite image is created and its position is known) by the matrix H o −1 , the grid point on the image from which the distortion is removed is projected. It is possible to calculate m = [u, v] T.

【0100】図12に示すように、歪みを除去した画像
上での格子点mと仮想平面上の点M o=[X,Y,O]T
の関係は、仮想平面を空間内で回転並びに移動し、基準
カメラ1への投影行列Pにより基準カメラの撮像平面に
投影されたものとなる。仮想平面の空間内での回転及び
移動を行列[Rw tw]とすると、点mと点Moの関
係は次式のように表される。
As shown in FIG. 12, an image from which distortion has been removed
Grid point m above and point M on the virtual plane o= [X, Y, O]T
The relationship is that the virtual plane rotates and moves in space,
By the projection matrix P onto the camera 1, the imaging plane of the reference camera is set.
It will be projected. Rotation in the space of the virtual plane and
If the movement is a matrix [Rw tw], then point m and point MoSeki
The clerk is expressed by the following equation.

【0101】[0101]

【数23】 [Equation 23]

【0102】但し、上式(19)において、行列Dは以
下の通りとする。
However, in the above equation (19), the matrix D is as follows.

【0103】[0103]

【数24】 [Equation 24]

【0104】式(18)を変形すると、以下の式が導か
れる。
By modifying the equation (18), the following equation is derived.

【0105】[0105]

【数25】 [Equation 25]

【0106】点Mは撮像平面上の点の空間座標となるの
で、行列[Rw tw]を推定することで、平面位置を
決定することができ、さらには撮像平面上の格子点の空
間座標を算出することができる。
Since the point M is the spatial coordinate of the point on the imaging plane, the plane position can be determined by estimating the matrix [Rwtw], and the spatial coordinate of the grid point on the imaging plane can be determined. It can be calculated.

【0107】行列[Rw tw]は、下式(20)に示
すように、各軸周りの回転角(θ1,θ2,θ3)、及
び、並進(tx,ty,tz)の合計6自由度である。
The matrix [Rw tw] has a total of 6 degrees of freedom of rotation angles (θ1, θ2, θ3) about each axis and translation (tx, ty, tz) as shown in the following equation (20). is there.

【0108】[0108]

【数26】 [Equation 26]

【0109】また、投影行列Pの算出は、先に算出した
内部パラメータAと測定範囲に応じて値を決定した外部
パラメータを用いて行うことができる。例えば、基準カ
メラ1のカメラ位置をCb=[xc,yc,zc]Tとし
た場合、投影行列Pは次式(21)を用いて算出するこ
とができる。
The projection matrix P can be calculated using the internal parameter A calculated previously and the external parameter whose value is determined according to the measurement range. For example, when the camera position of the reference camera 1 is C b = [xc, yc, zc] T , the projection matrix P can be calculated using the following equation (21).

【0110】[0110]

【数27】 [Equation 27]

【0111】上式(20)で示した6個のパラメータt
r=[θ1,θ2,θ3,tx,ty,tz]の推定は、
次式を評価値として、L−M法(前述)により行うこと
ができる。
The six parameters t shown in the above equation (20)
The estimation of r = [θ1, θ2, θ3, tx, ty, tz] is
It can be performed by the LM method (described above) using the following expression as an evaluation value.

【0112】[0112]

【数28】 [Equation 28]

【0113】上式(22)は、基準カメラ1の撮像画像
上の格子点mjと上式(18)により投影された点との
差分の二乗の総和を表す。上式(22)による推定を各
撮像平面に施すことで、仮想平面の空間内での回転及び
移動パラメータRw1,Rw2,Rw3,tw1,tw
2.tw3を得ることができる。
The above expression (22) represents the sum of the squares of the differences between the grid points m j on the image picked up by the reference camera 1 and the points projected by the above expression (18). By applying the estimation according to the above equation (22) to each imaging plane, the rotation and movement parameters Rw1, Rw2, Rw3, tw1, tw in the space of the virtual plane.
2. tw3 can be obtained.

【0114】先に算出した仮想平面の空間内での回転及
び移動パラメータRw1,Rw2,Rw3,tw1,t
w2,tw3を用いると、検出カメラ上の点m'i=[u'
i, v'iTと仮想平面上の点をDiにより変換した撮像平
面上の点Mi=[Xi,Yi,ZiTの関係は先述の式
(1)を満たする。該式に基づいて、さらに次式を得る
ことができる。
Rotation and movement parameters Rw1, Rw2, Rw3, tw1, t in the space of the virtual plane calculated above.
Using w2 and tw3, the points on the detection camera m ′ i = [u ′
The relationship between i , v ′ i ] T and the point on the imaging plane M i = [X i , Y i , Z i ] T obtained by converting the point on the virtual plane by D i satisfies the above-mentioned expression (1). . Based on the equation, the following equation can be further obtained.

【0115】[0115]

【数29】 [Equation 29]

【0116】但し、v1i並びにv2iは次式(24)を満
たすものとし、また、ベクトルp’は検出カメラ2への
投影行列P’の各要素を次々式(25)に示すようにベ
クトルで表したものであるとする。
However, v 1i and v 2i satisfy the following expression (24), and the vector p ′ is the vector of each element of the projection matrix P ′ onto the detection camera 2 as shown in the following expression (25). It is assumed to be represented by.

【0117】[0117]

【数30】 [Equation 30]

【0118】[0118]

【数31】 [Equation 31]

【0119】上式(23)を解くことで、検出カメラへ
の投影行列P’を得ることができる。
By solving the above equation (23), the projection matrix P'to the detection camera can be obtained.

【0120】最後に、これまでの処理ステップで算出し
た各パラメータA,Rw1,Rw2,Rw3,tw1,
tw2,tw3,P’の各々について、基準カメラ1、
検出カメラ2で撮像したすべての画像を用いることで、
最適化処理を施す。
Finally, the parameters A, Rw1, Rw2, Rw3, tw1, calculated in the above processing steps are
For each of tw2, tw3, P ', the reference camera 1,
By using all the images captured by the detection camera 2,
Perform optimization processing.

【0121】評価式は次式(26)で与えられるものと
し、L−M法(前述)により解くことができる。但し、
i=1,2,3は画像番号であり、j=1,2,…,n
は画像上の点数を表す。また、式(26)中の各点は、
それぞれ式(27)によって投影された点を表す。
The evaluation formula is given by the following formula (26) and can be solved by the LM method (described above). However,
i = 1, 2, 3 are image numbers, and j = 1, 2, ..., N
Represents the score on the image. Also, each point in equation (26) is
Each of the projected points is represented by equation (27).

【0122】[0122]

【数32】 [Equation 32]

【0123】但し、行列[R,t]は基準カメラ1のカ
メラ位置を示す外部パラメータであり、前述したように
計測範囲により決定される。
However, the matrix [R, t] is an external parameter indicating the camera position of the reference camera 1, and is determined by the measurement range as described above.

【0124】[従来の技術]の欄でも述べたようにZhan
gのカメラ・キャリブレーション方法は、既知のパター
ンが描かれた平面を位置拘束のない任意の方向から撮像
した3枚の画像を用いてキャリブレーションを行なうこ
とができるとするものである。しかしながら、本発明者
等は、3枚の画像の撮像方向(カメラの視線方向)に関
して、位置拘束がないと言っても、実際には以下の事柄
を考慮した方が、充分な精度でカメラ・パラメータを推
定できるものと思料する。
As described in the section “Prior Art”, Zhan
In the camera calibration method of g, the calibration can be performed using three images obtained by capturing a plane on which a known pattern is drawn from an arbitrary direction without position constraint. However, even if the present inventors say that there is no position constraint with respect to the imaging directions of the three images (the viewing direction of the camera), it is actually sufficient to consider the following items with sufficient accuracy. I think that the parameters can be estimated.

【0125】(1)1枚の画像は既知のパターンからな
る対象平面をほぼ真正面から撮像したものである。 (2)他の2枚の画像は、これと非平行である。対象平
面の真正面すなわちその法線から充分に傾いた視線方向
を持つことが好ましい。 (3)但し、他の2枚の画像の視線方向が対象平面に対
して傾き過ぎると、画素当りの既知パターンの情報量が
減少するので好ましくない。
(1) One image is an image of a target plane of a known pattern taken almost directly in front. (2) The other two images are non-parallel to this. It is preferable to have the line-of-sight direction directly in front of the target plane, that is, sufficiently inclined from the normal line. (3) However, if the line-of-sight directions of the other two images are too inclined with respect to the target plane, the amount of information of the known pattern per pixel decreases, which is not preferable.

【0126】また、先述したように、任意平面の撮像と
いう曖昧な指針では、ユーザ側に自由度があり過ぎて、
ある程度の撮像のトレーニングなしでは、充分な精度の
カメラ・キャリブレーションを行なうことは困難であ
る。
As described above, the ambiguous guideline of imaging an arbitrary plane has too much freedom on the user side,
Without some degree of imaging training, it is difficult to perform camera calibration with sufficient accuracy.

【0127】そこで、本発明者等は、ユーザのキャリブ
レーション操作の負担を軽減するために、以下に例示す
るキャリブレーション方法の指針を提案する。
Therefore, the inventors of the present invention propose the following guidelines for the calibration method in order to reduce the burden of the user's calibration operation.

【0128】A.三脚+ガイドシートを用いる方法 キャリブレーションを行なうカメラを三脚に固定して、
ガイドシート上で3枚の平面の撮像を行なう。このガイ
ドシート上には、3枚の平面を撮像するための対象平面
の設置位置、並びに、三脚における各撮像時の設置位置
が指示されている。ガイドシート上に指示された対象平
面並びに三脚のそれぞれの設置場所は、本発明者等が推
奨する拘束条件を備えている。このような場合、ガイド
シートに沿って3枚の平面を撮像していくことで、ユー
ザは、簡単且つ充分な精度のキャリブレーションを行う
ことができる。
A. Method using tripod + guide sheet Fix the camera to be calibrated on the tripod,
Imaging of three planes is performed on the guide sheet. On this guide sheet, the installation positions of the target planes for capturing images of the three planes and the installation positions of the tripod during each image capturing are designated. The target plane indicated on the guide sheet and the respective installation locations of the tripod are provided with the constraint conditions recommended by the present inventors. In such a case, the user can easily perform calibration with sufficient accuracy by capturing images of the three planes along the guide sheet.

【0129】図1には、ガイドシートの構成、並びに、
ガイドシートを用いて3枚の撮像平面を得る様子を示し
ている。
FIG. 1 shows the structure of the guide sheet and
It shows how to obtain three imaging planes using a guide sheet.

【0130】図示の通り、ガイドシート上には撮像する
順番の番号が描かれた三脚を立てる位置、及び、既知の
パターンからなる対象平面を設置する画が描かれてい
る。第1番目に三脚を設置する場所からは、対象平面を
ほぼ真正面から撮像したものである。
As shown in the figure, on the guide sheet, there are drawn a position on which a tripod is set, in which the numbers of imaging orders are drawn, and an image on which a target plane having a known pattern is set. From the first place where the tripod is installed, the target plane is imaged almost directly in front.

【0131】そして、2番目、並びに3番目に三脚を設
置する場所からは、対象平面の真正面すなわちその法線
から充分に傾いた視線方向から対象平面を撮像すること
ができる。但し、画素当りの情報量が減少しないよう
に、対象平面に対して傾き過ぎない撮像平面を得ること
ができる。2番目、並びに3番目に三脚を設置する場所
からは、例えば、対象平面の法線に対してそれぞれ45
度程度傾いている。
From the second and third places where the tripod is installed, the object plane can be imaged in front of the object plane, that is, from the line-of-sight direction sufficiently inclined from the normal line. However, it is possible to obtain an imaging plane that is not too inclined with respect to the target plane so that the amount of information per pixel does not decrease. From the place where the second and third tripods are installed, for example, 45 degrees each with respect to the normal line of the target plane.
It is tilted about a degree.

【0132】ユーザは、このようなガイドシート上に形
成されたガイドに案内されて、対象平面を設置するとと
もに、撮像順番に応じて三脚の位置を変更して対象を撮
像すればよい。
The user may be guided by the guide formed on such a guide sheet to set the target plane, and change the position of the tripod according to the order of image pickup to pick up the image of the target.

【0133】Zhangの方法などでは、厳密な平面とキャ
リブレーションの位置関係は不要である。したがって、
たとえユーザが厳密にガイドシート上で三脚、並びに対
象平面を設置しなくとも、ガイドシート上で指示された
ガイドにある程度は従った設置であれば、充分な精度が
得られるキャリブレーションを行なうことが可能とな
る。
In the Zhang method or the like, a strict positional relationship between the plane and the calibration is unnecessary. Therefore,
Even if the user does not strictly install the tripod and the target plane on the guide sheet, if the installation follows the guide specified on the guide sheet to some extent, it is possible to perform calibration with sufficient accuracy. It will be possible.

【0134】勿論、ガイドシート上に形成する各設置場
所は、距離計測範囲や、カメラの種類、焦点距離などに
よって変更してもよい。
Of course, each installation place formed on the guide sheet may be changed depending on the distance measurement range, the type of camera, the focal length, and the like.

【0135】図1に示したガイドシートでは、対象平面
の設置場所を固定して、撮像の度に三脚の設置場所すな
わちカメラ位置を変更するものである。これに対し、カ
メラ位置は固定で、撮像対象の平面の位置を動かすよう
にしても、当然、図1に示した場合と同様の作用効果を
得ることができる。図2には、カメラ位置は固定で、撮
像対象の平面の位置を動かすように設置場所を指示した
ガイドシートの構成を示している。
In the guide sheet shown in FIG. 1, the installation place of the target plane is fixed, and the installation place of the tripod, that is, the camera position is changed every time the image is picked up. On the other hand, even if the position of the camera is fixed and the position of the plane of the imaging target is moved, it is of course possible to obtain the same operational effect as in the case shown in FIG. FIG. 2 shows the configuration of the guide sheet in which the camera position is fixed and the installation location is instructed so as to move the position of the plane of the imaging target.

【0136】図1並びに図2に示したようなガイドシー
トに従ってカメラ・キャリブレーションを行うことによ
り、カメラ三脚とガイドシートによりカメラと対象平面
の位置関係をある程度制限することである。カメラ位置
とキャリブレーション対象に厳密な位置関係を必要とす
るキャリブレーションでは、三脚へのカメラの取り付け
方、カメラや平面の置き方にかなりの注意を払う必要が
あるが、Zhangの方法など、本発明が前提としているカ
メラ・キャリブレーション方法では、カメラと撮像平面
の位置関係は基本的に任意であるため、そのような注意
を払う必要がなく、ある程度の制約を設けることで充分
高精度なキャリブレーションが可能となる。
By performing the camera calibration according to the guide sheet as shown in FIGS. 1 and 2, the positional relationship between the camera and the target plane is limited to some extent by the camera tripod and the guide sheet. In calibration that requires a strict positional relationship between the camera position and the calibration target, it is necessary to pay a lot of attention to how to mount the camera on a tripod and how to place the camera and a flat surface. In the camera calibration method premised on the invention, since the positional relationship between the camera and the imaging plane is basically arbitrary, it is not necessary to pay such attention, and by providing a certain degree of restriction, a sufficiently accurate calibration can be performed. Is possible.

【0137】B.カラーフィルタを用いる方法 アクリル板のような透明な平面の透過物体にC(シア
ン)、M(マゼンダ)、Y(イエロー)の各カラー・フ
ィルタで格子状のパターンを作成した3平面を用意し、
各平面をそれぞれ平面1、平面2、平面3とする。例え
ば、図3に示すように、これらの3平面を所定の角度を
持つように配置して、キャリブレーション・ジグを作成
する。
B. Method using color filters Prepare three planes in which a lattice-shaped pattern is created by a C (cyan), M (magenta), and Y (yellow) color filters on a transparent flat transparent object such as an acrylic plate.
Let each plane be plane 1, plane 2, and plane 3, respectively. For example, as shown in FIG. 3, these three planes are arranged so as to have a predetermined angle, and a calibration jig is created.

【0138】そして、図4に示すように、このキャリブ
レーション・ジグに対して、後方から光源にて平面を照
らす。これをカメラで撮像した場合、画像平面上の点P
における色は以下の式で表される。
Then, as shown in FIG. 4, the plane of the calibration jig is illuminated from behind by a light source. When this is taken by a camera, a point P on the image plane
The color at is represented by the following formula.

【0139】[0139]

【数33】 [Expression 33]

【0140】但し、α,β,γは係数である。RGBの
各値とCMYの値は、図5に示すように補色関係にあ
る。したがって、G+Bの値が充分大きい画像平面上の
点を抽出すると、図6の左側に示すような平面1のキャ
リブレーション・パターンの抽出が可能となる。同様
に、R+Bの値が充分大きい画像平面上の点を抽出する
と、図6の中央に示すような平面2のキャリブレーショ
ン・パターンの抽出が可能であり、また、R+Gの値が
充分大きい画像平面上の点を抽出すると、図6の右側に
示すような平面2のキャリブレーション・パターンの抽
出が可能である。したがって、キャリブレーション・ジ
グの透過光を、キャリブレーションしたいカメラで一度
だけ撮影することによって、その撮像画像からそれぞれ
充分大きい色を抽出することで、独立した3平面のパタ
ーンを同時に抽出することが可能となる訳である。
However, α, β and γ are coefficients. The RGB values and the CMY values have a complementary color relationship as shown in FIG. Therefore, if a point on the image plane where the value of G + B is sufficiently large is extracted, the calibration pattern of plane 1 as shown on the left side of FIG. 6 can be extracted. Similarly, if a point on the image plane where the value of R + B is sufficiently large is extracted, a calibration pattern of plane 2 as shown in the center of FIG. 6 can be extracted, and an image plane where the value of R + G is sufficiently large is extracted. By extracting the upper points, it is possible to extract the calibration pattern of the plane 2 as shown on the right side of FIG. Therefore, by capturing the transmitted light of the calibration jig only once with the camera you want to calibrate, and extracting sufficiently large colors from the captured image, it is possible to simultaneously extract independent three-plane patterns. That is why.

【0141】このようなキャリブレーション・ジグを用
いることにより、カメラ位置、平面位置に対してある程
度の拘束を設けることが可能となる。また、1回の撮像
で3平面のキャリブレーション用の画像を同時に取得す
ることができるので、ユーザの負担が大幅に軽減され
る。
By using such a calibration jig, it is possible to provide some restraint on the camera position and the plane position. Further, since the images for calibration of the three planes can be acquired at the same time by one image pickup, the burden on the user is significantly reduced.

【0142】なお、カラー・フィルタ上に作成されるパ
ターンは、既知のものであれば任意のパターンでよい。
また、平面1、平面2、平面3の位置関係も任意の関係
でよい。
The pattern formed on the color filter may be any pattern as long as it is a known pattern.
Further, the positional relationship among the plane 1, the plane 2, and the plane 3 may be arbitrary.

【0143】[追補]以上、特定の実施例を参照しなが
ら、本発明について詳解してきた。しかしながら、本発
明の要旨を逸脱しない範囲で当業者が該実施例の修正や
代用を成し得ることは自明である。すなわち、例示とい
う形態で本発明を開示してきたのであり、本明細書の記
載内容を限定的に解釈するべきではない。本発明の要旨
を判断するためには、冒頭に記載した特許請求の範囲の
欄を参酌すべきである。
[Supplement] The present invention has been described in detail with reference to the specific embodiments. However, it is obvious that those skilled in the art can modify or substitute the embodiments without departing from the scope of the present invention. That is, the present invention has been disclosed in the form of exemplification, and the contents of this specification should not be construed in a limited manner. In order to determine the gist of the present invention, the section of the claims described at the beginning should be taken into consideration.

【0144】[0144]

【発明の効果】以上詳記したように、本発明によれば、
対象物を撮像して電子的な画像データを出力するタイプ
のカメラに対するカメラ・キャリブレーション操作を行
う際にユーザを好適に案内することができる、カメラ・
キャリブレーションのための優れたガイド装置及びガイ
ド方法、並びに、カメラ・キャリブレーション装置を提
供することができる。
As described above in detail, according to the present invention,
A camera that can suitably guide the user when performing a camera calibration operation for a camera that captures an object and outputs electronic image data.
An excellent guide device and guide method for calibration, and a camera calibration device can be provided.

【0145】また、本発明によれば、ステレオ法のカメ
ラ・キャリブレーションにおいて、空間的な位置拘束の
ない任意の平面の撮像画像を用いてパラメータを算出す
るタイプのカメラ・キャリブレーション操作を行う際に
好適にユーザを案内することができる、優れたガイド装
置及びガイド方法、並びに、カメラ・キャリブレーショ
ン装置を提供することができる。
Further, according to the present invention, in the camera calibration of the stereo method, when performing the camera calibration operation of the type in which the parameters are calculated by using the captured image of an arbitrary plane without spatial positional constraint. It is possible to provide an excellent guide device and guide method that can appropriately guide the user, and a camera calibration device.

【0146】また、本発明によれば、Zhangの方法のよ
うに既知のパターンが描かれた平面を位置拘束のない任
意の方向から撮像した3枚の画像データを用いて行なう
カメラ・キャリブレーションにおいて、充分な精度を得
るとともに、ユーザのキャリブレーション操作の負担を
軽減することができる、優れたガイド装置及びガイド方
法、並びに、カメラ・キャリブレーション装置を提供す
ることができる。
Further, according to the present invention, in the camera calibration that is performed by using the three image data of the plane in which the known pattern is drawn from the arbitrary direction without the position constraint like the Zhang method. It is possible to provide an excellent guide device and guide method, and a camera calibration device that can obtain sufficient accuracy and reduce the burden of the user's calibration operation.

【0147】本発明に係るカメラ・キャリブレーション
のためのガイド装置及びガイド方法によれば、煩雑な過
程が必要なキャリブレーションにおいて、一般ユーザが
誰でも簡単にかつ、実用上充分で且つ高精度なキャリブ
レーションを行うことが可能である。また、高価な設備
を必要とせずに、ユーザが簡単で且つ充分高精度なキャ
リブレーションを行うことが可能である。
According to the guide device and the guide method for camera calibration according to the present invention, any general user can easily, practically and sufficiently accurately perform the calibration that requires a complicated process. It is possible to calibrate. Further, the user can perform the calibration easily and with sufficiently high accuracy without requiring expensive equipment.

【0148】また、本発明に係るカメラ・キャリブレー
ションのためのガイド装置及びガイド方法によれば、キ
ャリブレーションに必要な3平面(Zhangの方法など)
を1度の撮影で取得することが可能であり、ユーザのキ
ャリブレーションを行う負担を軽減することができる。
また、撮像平面の取得に厳密な制約はないので、特別な
注意を払う必要がなくキャリブレーションに必要な画像
を取得することが可能である。
Further, according to the guide device and the guide method for camera calibration according to the present invention, the three planes (Zhang's method etc.) necessary for the calibration are provided.
Can be acquired by one-time shooting, and the burden on the user for calibration can be reduced.
Further, since there is no strict restriction on acquisition of the imaging plane, it is possible to acquire an image required for calibration without paying special attention.

【図面の簡単な説明】[Brief description of drawings]

【図1】ガイドシートの構成、並びに、ガイドシートを
用いて3枚の撮像平面を得る様子を示した図である。
FIG. 1 is a diagram showing a configuration of a guide sheet and a state in which three image pickup planes are obtained using the guide sheet.

【図2】カメラ位置は固定で、撮像対象の平面の位置を
動かすようにしたガイドシートの構成を示した図であ
る。
FIG. 2 is a diagram showing a configuration of a guide sheet in which a camera position is fixed and a position of a plane of an imaging target is moved.

【図3】C(シアン)、M(マゼンダ)、Y(イエロ
ー)の各カラー・フィルタで格子状のパターンを作成し
た3平面を所定角度を持つように配置して構成されたキ
ャリブレーション・ジグを示した図である。
FIG. 3 is a calibration jig configured by arranging three planes having a grid pattern formed by C (cyan), M (magenta), and Y (yellow) color filters so as to have a predetermined angle. It is the figure which showed.

【図4】図3に示したキャリブレーション・ジグを後方
に設置した光源から照らす様子を示した図である。
FIG. 4 is a diagram showing how the calibration jig shown in FIG. 3 is illuminated by a light source installed at the rear.

【図5】RGBの各値とCMYの値との補色関係を示し
た図である。
FIG. 5 is a diagram showing a complementary color relationship between RGB values and CMY values.

【図6】G+B、R+B、並びにR+Gがそれぞれ充分
大きい色を抽出することで、一度の撮影により抽出され
た各平面パターンを示した図である。
FIG. 6 is a diagram showing each plane pattern extracted by one shooting by extracting a color in which G + B, R + B, and R + G are sufficiently large.

【図7】撮像対象に対する基準カメラと検出カメラの配
置を模式的に示した図である。
FIG. 7 is a diagram schematically showing an arrangement of a reference camera and a detection camera with respect to an imaging target.

【図8】略正方形のパターンを基準カメラと検出カメラ
の各々によって撮像した画像を示した図である。
FIG. 8 is a diagram showing an image obtained by capturing a substantially square pattern by each of a reference camera and a detection camera.

【図9】エピポーラ・ラインと、参照画像中における観
察点m’の様子を図解したものでる。
FIG. 9 is a diagram illustrating a state of an epipolar line and an observation point m ′ in a reference image.

【図10】合成画像上の点mo=[Xo,YoT、撮像画
像上の点md=[u,vT、及び、歪みを除去した
画像上の点m=[u,v]Tの関係を示した図である。
[10] point m o = [X o, Y o] on the composite image T, the point m d = [u d, v d] of the captured image T, and a point on the image to remove distortions m = It is a figure showing the relation of [u, v] T.

【図11】撮像した画像を同一の合成画像合わせ込み
(Image Registration)を行なう様子を描写した図であ
る。
FIG. 11 is a diagram depicting a state in which captured images are subjected to the same combined image registration (Image Registration).

【図12】歪みを除去した画像上での格子点mと仮想平
面上の点Mo=[X,Y,O]Tの関係を描写した図であ
る。
FIG. 12 is a diagram depicting a relationship between a lattice point m on an image from which distortion is removed and a point M o = [X, Y, O] T on a virtual plane.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 後 輝行 東京都品川区東五反田1丁目14番10号 株 式会社ソニー木原研究所内 Fターム(参考) 2F065 AA04 AA20 AA31 BB02 BB05 BB27 EE05 EE08 FF05 FF63 JJ03 JJ05 JJ26 LL22 QQ18 QQ31 UU09 5C061 AB06 AB08 5L096 AA02 AA06 BA08 CA04 CA17 DA05 FA15 GA38 GA40    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Kaguya             1-14-10 Higashi Gotanda, Shinagawa-ku, Tokyo Stock             Ceremony company Sony Kihara Laboratory F term (reference) 2F065 AA04 AA20 AA31 BB02 BB05                       BB27 EE05 EE08 FF05 FF63                       JJ03 JJ05 JJ26 LL22 QQ18                       QQ31 UU09                 5C061 AB06 AB08                 5L096 AA02 AA06 BA08 CA04 CA17                       DA05 FA15 GA38 GA40

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】空間的な位置拘束のない任意の平面の撮像
画像を用いてパラメータを算出するタイプのカメラ・キ
ャリブレーション操作を行う際にユーザを案内するガイ
ド装置であって、 既知パターンを含んだ対象平面に対する非平行な撮像平
面を得るためのカメラと対象平面との3以上の位置関係
を指示する指示手段を備える、ことを特徴とするカメラ
・キャリブレーションのためのガイド装置。
1. A guide device for guiding a user when performing a camera calibration operation of a type in which a parameter is calculated using a captured image of an arbitrary plane that is not spatially constrained, and includes a known pattern. A guide device for camera calibration, comprising: an instruction means for instructing three or more positional relationships between a camera and an object plane for obtaining an imaging plane that is non-parallel to the object plane.
【請求項2】前記指示手段は、対象平面をほぼ真正面か
ら撮像することが可能なカメラと対象平面との1つの位
置関係を指示するとともに、対象平面の法線から充分に
傾いた視線方向から対象平面を撮像することができるカ
メラと対象平面との2つの位置関係を指示する、ことを
特徴とする請求項1に記載のカメラ・キャリブレーショ
ンのためのガイド装置。
2. The instructing means indicates one positional relationship between a camera capable of picking up an image of a target plane almost directly from the front and a target plane, and from a line-of-sight direction sufficiently inclined from a normal line of the target plane. The guide device for camera calibration according to claim 1, wherein the guide device indicates two positional relationships between a camera capable of capturing an image of the target plane and the target plane.
【請求項3】前記指示手段は、対象平面の法線から充分
に傾いた視線方向から対象平面を撮像することができる
が、画素当りの情報量が減少しないようなカメラと対象
平面との2つの位置関係を指示する、ことを特徴とする
請求項2に記載のカメラ・キャリブレーションのための
ガイド装置。
3. The pointing means is capable of picking up an image of the target plane from a line-of-sight direction that is sufficiently inclined from the normal line of the target plane, but the camera and the target plane do not reduce the amount of information per pixel. The guide device for camera calibration according to claim 2, wherein the guide device indicates one positional relationship.
【請求項4】前記指示手段は、対象平面に関する単一の
設置場所と、カメラに関する複数の設置場所を指示す
る、ことを特徴とする請求項1に記載のカメラ・キャリ
ブレーションのためのガイド装置。
4. The guide device for camera calibration according to claim 1, wherein the instructing means indicates a single installation location on the target plane and a plurality of installation locations on the camera. .
【請求項5】前記指示手段は、対象平面に関する複数の
設置場所と、カメラに関する単一の設置場所を指示す
る、ことを特徴とする請求項1に記載のカメラ・キャリ
ブレーションのためのガイド装置。
5. The guide device for camera calibration according to claim 1, wherein the instructing means indicates a plurality of installation locations for the target plane and a single installation location for the camera. .
【請求項6】前記指示手段によって指示された各位置関
係にて撮像された画像を用いてカメラのひずみパラメー
タを推定し、各撮像画像を所定の仮想平面へ射影する各
射影変換行列を算出し、各撮像画像の射影変換行列を基
にカメラの内部パラメータを算出するカメラ・キャリブ
レーション操作に対して適用可能である、ことを特徴と
する請求項1に記載のカメラ・キャリブレーションのた
めのガイド装置。
6. A distortion parameter of the camera is estimated using images captured in each positional relationship designated by the pointing means, and each projective transformation matrix for projecting each captured image onto a predetermined virtual plane is calculated. The guide for camera calibration according to claim 1, wherein the guide is applicable to a camera calibration operation for calculating internal parameters of a camera based on a projective transformation matrix of each captured image. apparatus.
【請求項7】空間的な位置拘束のない任意の平面の撮像
画像を用いてパラメータを算出するタイプのカメラ・キ
ャリブレーション操作を行う際にユーザを案内するガイ
ド方法であって、 既知パターンを含んだ対象平面に対する非平行な撮像平
面を得るためのカメラと対象平面との3以上の位置関係
を指示する指示ステップを備える、ことを特徴とするカ
メラ・キャリブレーションのためのガイド方法。
7. A guide method for guiding a user when performing a camera calibration operation of a type in which a parameter is calculated using a captured image of an arbitrary plane without spatial positional constraint, and includes a known pattern. A guide method for camera calibration, comprising an instructing step of instructing three or more positional relationships between a camera and an object plane for obtaining an imaging plane that is non-parallel to the object plane.
【請求項8】前記指示ステップでは、対象平面をほぼ真
正面から撮像することが可能なカメラと対象平面との1
つの位置関係を指示するとともに、対象平面の法線から
充分に傾いた視線方向から対象平面を撮像することがで
きるカメラと対象平面との2つの位置関係を指示する、
ことを特徴とする請求項7に記載のカメラ・キャリブレ
ーションのためのガイド方法。
8. In the instructing step, one of a camera capable of picking up an image of a target plane from almost directly in front and a target plane
The two positional relations, and also the two positional relations between the camera and the target plane that can image the target plane from the line-of-sight direction that is sufficiently inclined from the normal line of the target plane.
The guiding method for camera calibration according to claim 7, wherein.
【請求項9】前記指示ステップでは、対象平面の法線か
ら充分に傾いた視線方向から対象平面を撮像することが
できるが、画素当りの情報量が減少しないようなカメラ
と対象平面との2つの位置関係を指示する、ことを特徴
とする請求項8に記載のカメラ・キャリブレーションの
ためのガイド方法。
9. In the instructing step, the target plane can be imaged from a line-of-sight direction that is sufficiently inclined from the normal line of the target plane, but the camera and the target plane do not reduce the amount of information per pixel. 9. The guiding method for camera calibration according to claim 8, wherein one of two positional relationships is designated.
【請求項10】前記指示ステップでは、対象平面に関す
る単一の設置場所と、カメラに関する複数の設置場所を
指示する、ことを特徴とする請求項7に記載のカメラ・
キャリブレーションのためのガイド方法。
10. The camera according to claim 7, wherein in the instructing step, a single installation location for the target plane and a plurality of installation locations for the camera are instructed.
Guide method for calibration.
【請求項11】前記指示ステップでは、対象平面に関す
る複数の設置場所と、カメラに関する単一の設置場所を
指示する、ことを特徴とする請求項7に記載のカメラ・
キャリブレーションのためのガイド装置。
11. The camera according to claim 7, wherein in the instructing step, a plurality of installation locations for the target plane and a single installation location for the camera are instructed.
Guide device for calibration.
【請求項12】前記指示ステップによって指示された各
位置関係にて撮像された画像を用いてカメラのひずみパ
ラメータを推定し、各撮像画像を所定の仮想平面へ射影
する各射影変換行列を算出し、各撮像画像の射影変換行
列を基にカメラの内部パラメータを算出するカメラ・キ
ャリブレーション操作に対して適用可能である、ことを
特徴とする請求項7に記載のカメラ・キャリブレーショ
ンのためのガイド方法。
12. A distortion parameter of a camera is estimated using images captured in each positional relationship designated by the instructing step, and each projective transformation matrix for projecting each captured image onto a predetermined virtual plane is calculated. The guide for camera calibration according to claim 7, wherein the guide is applicable to a camera calibration operation for calculating an internal parameter of a camera based on a projective transformation matrix of each captured image. Method.
【請求項13】空間的な位置拘束のない任意の平面の撮
像画像を用いてパラメータを算出するタイプのカメラ・
キャリブレーション操作を行うためのカメラ・キャリブ
レーション装置であって、 透過物体上に既知パターンがC(シアン)、M(マゼン
ダ)、Y(イエロー)の各カラーフィルタで形成された
3平面を所定角度を以って配置したキャリブレーション
・ジグと、 前記キャリブレーション・ジグの後方から照らす光源
と、 前記キャリブレーション・ジグの透過光をカメラで撮像
した画像を基にカメラ・キャリブレーションのための演
算処理を行う処理手段と、を具備することを特徴とする
カメラ・キャリブレーション装置。
13. A camera of a type in which a parameter is calculated by using a captured image of an arbitrary plane without spatial positional constraint.
A camera calibration device for performing a calibration operation, in which a known pattern on a transparent object is formed by three color filters of C (cyan), M (magenta), and Y (yellow) on a three-plane surface at a predetermined angle. A calibration jig arranged with a light source that illuminates the calibration jig from behind, and calculation processing for camera calibration based on an image obtained by capturing the transmitted light of the calibration jig with a camera. A camera calibration device, comprising:
【請求項14】前記処理手段は、RGBとCMYの補色
関係に基づき、G+B、R+B、R+Gそれぞれが充分
大きい色を撮像画像から抽出することにより、3平面の
キャリブレーション用の画像を同時に取得する、ことを
特徴とする請求項13に記載のカメラ・キャリブレーシ
ョン装置。
14. The processing means simultaneously acquires images for calibration of three planes by extracting from the captured image a color in which G + B, R + B, and R + G are sufficiently large based on the complementary color relationship between RGB and CMY. The camera calibration device according to claim 13, wherein:
【請求項15】キャリブレーション用の画像を用いてカ
メラのひずみパラメータを推定し、各撮像画像を所定の
仮想平面へ射影する各射影変換行列を算出し、各撮像画
像の射影変換行列を基にカメラの内部パラメータを算出
するカメラ・キャリブレーション操作に対して適用可能
である、ことを特徴とする請求項13に記載のカメラ・
キャリブレーション装置。
15. A distortion parameter of a camera is estimated using an image for calibration, each projective transformation matrix that projects each captured image onto a predetermined virtual plane is calculated, and based on the projective transformation matrix of each captured image. The camera according to claim 13, which is applicable to a camera calibration operation for calculating an internal parameter of the camera.
Calibration device.
JP2001250684A 2001-08-21 2001-08-21 Guide device and method for camera calibration, and camera calibration device Pending JP2003065714A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001250684A JP2003065714A (en) 2001-08-21 2001-08-21 Guide device and method for camera calibration, and camera calibration device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001250684A JP2003065714A (en) 2001-08-21 2001-08-21 Guide device and method for camera calibration, and camera calibration device

Publications (1)

Publication Number Publication Date
JP2003065714A true JP2003065714A (en) 2003-03-05

Family

ID=19079456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001250684A Pending JP2003065714A (en) 2001-08-21 2001-08-21 Guide device and method for camera calibration, and camera calibration device

Country Status (1)

Country Link
JP (1) JP2003065714A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202593A (en) * 2004-01-14 2005-07-28 Seiko Epson Corp Image processing apparatus, program, and method
JP2009017480A (en) * 2007-07-09 2009-01-22 Nippon Hoso Kyokai <Nhk> Camera calibration apparatus and program thereof
JP2010074730A (en) * 2008-09-22 2010-04-02 Nippon Hoso Kyokai <Nhk> Camera calibration device for zoom lens equipped camera of broadcasting virtual studio and method and program for the device
JP2010130628A (en) * 2008-12-01 2010-06-10 Sharp Corp Imaging apparatus, image compositing device and image compositing method
JP2011027447A (en) * 2009-06-30 2011-02-10 Cheng Uei Precision Industry Co Ltd Optical localizing apparatus and localizing method therefor
US8400505B2 (en) 2008-05-19 2013-03-19 Panasonic Corporation Calibration method, calibration device, and calibration system including the device
US8723926B2 (en) 2009-07-22 2014-05-13 Panasonic Corporation Parallax detecting apparatus, distance measuring apparatus, and parallax detecting method
JP2015118101A (en) * 2015-02-02 2015-06-25 キヤノン株式会社 Information processing device and method and program
JP2015201760A (en) * 2014-04-08 2015-11-12 ローランドディー.ジー.株式会社 Image projection system and image projection method
WO2017020609A1 (en) * 2015-07-31 2017-02-09 深圳市大疆创新科技有限公司 Method of calibrating camera device and camera device utilizing same
JP2017068763A (en) * 2015-10-01 2017-04-06 株式会社ソニー・インタラクティブエンタテインメント Information processing device and method for acquiring position information
US10027954B2 (en) 2016-05-23 2018-07-17 Microsoft Technology Licensing, Llc Registering cameras in a multi-camera imager
US10326979B2 (en) 2016-05-23 2019-06-18 Microsoft Technology Licensing, Llc Imaging system comprising real-time image registration
US10339662B2 (en) 2016-05-23 2019-07-02 Microsoft Technology Licensing, Llc Registering cameras with virtual fiducials
WO2021072767A1 (en) * 2019-10-18 2021-04-22 深圳市大疆创新科技有限公司 Calibration method and system for camera device, and stereoscopic calibration device and storage medium

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202593A (en) * 2004-01-14 2005-07-28 Seiko Epson Corp Image processing apparatus, program, and method
JP2009017480A (en) * 2007-07-09 2009-01-22 Nippon Hoso Kyokai <Nhk> Camera calibration apparatus and program thereof
US8400505B2 (en) 2008-05-19 2013-03-19 Panasonic Corporation Calibration method, calibration device, and calibration system including the device
JP2010074730A (en) * 2008-09-22 2010-04-02 Nippon Hoso Kyokai <Nhk> Camera calibration device for zoom lens equipped camera of broadcasting virtual studio and method and program for the device
JP2010130628A (en) * 2008-12-01 2010-06-10 Sharp Corp Imaging apparatus, image compositing device and image compositing method
JP2011027447A (en) * 2009-06-30 2011-02-10 Cheng Uei Precision Industry Co Ltd Optical localizing apparatus and localizing method therefor
US8723926B2 (en) 2009-07-22 2014-05-13 Panasonic Corporation Parallax detecting apparatus, distance measuring apparatus, and parallax detecting method
JP2015201760A (en) * 2014-04-08 2015-11-12 ローランドディー.ジー.株式会社 Image projection system and image projection method
JP2015118101A (en) * 2015-02-02 2015-06-25 キヤノン株式会社 Information processing device and method and program
WO2017020609A1 (en) * 2015-07-31 2017-02-09 深圳市大疆创新科技有限公司 Method of calibrating camera device and camera device utilizing same
US10192325B2 (en) 2015-07-31 2019-01-29 SZ DJI Technology Co., Ltd. Method for calibrating an imaging device and an imaging device
US10546390B2 (en) 2015-07-31 2020-01-28 SZ DJI Technology Co., Ltd. Method for calibrating an imaging device and an imaging device
JP2017068763A (en) * 2015-10-01 2017-04-06 株式会社ソニー・インタラクティブエンタテインメント Information processing device and method for acquiring position information
US10027954B2 (en) 2016-05-23 2018-07-17 Microsoft Technology Licensing, Llc Registering cameras in a multi-camera imager
US10326979B2 (en) 2016-05-23 2019-06-18 Microsoft Technology Licensing, Llc Imaging system comprising real-time image registration
US10339662B2 (en) 2016-05-23 2019-07-02 Microsoft Technology Licensing, Llc Registering cameras with virtual fiducials
WO2021072767A1 (en) * 2019-10-18 2021-04-22 深圳市大疆创新科技有限公司 Calibration method and system for camera device, and stereoscopic calibration device and storage medium

Similar Documents

Publication Publication Date Title
JP4501239B2 (en) Camera calibration apparatus and method, and storage medium
CN109859272B (en) Automatic focusing binocular camera calibration method and device
US9672630B2 (en) Contour line measurement apparatus and robot system
US11403780B2 (en) Camera calibration device and camera calibration method
WO2011013301A1 (en) Position and orientation calibration method and apparatus
JP2003065714A (en) Guide device and method for camera calibration, and camera calibration device
JP3728900B2 (en) Calibration method and apparatus, and calibration data generation method
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
JP5713624B2 (en) 3D measurement method
US12240129B2 (en) Methods and systems of generating camera models for camera calibration
JP5019478B2 (en) Marker automatic registration method and system
CN114299156A (en) Method for calibrating and unifying coordinates of multiple cameras in non-overlapping area
JP2004317245A (en) Distance detecting device, distance detecting method, and distance detecting program
EP4386677A2 (en) Compensation of three-dimensional measuring instrument having an autofocus camera
JPWO2018043524A1 (en) Robot system, robot system control apparatus, and robot system control method
WO2024230451A1 (en) Device calibration method, apparatus and system, and storage medium
JPS62206684A (en) Position and shape measuring method by pattern projection
JP2000028332A (en) Three-dimensional measuring device and method therefor
CN110044266B (en) Photogrammetry system based on speckle projection
CN110580716A (en) depth information acquisition method, device and medium
CN119342363B (en) Multispectral depth camera and depth measurement method
CN114519746A (en) Error acquisition method and device for binocular camera
JPH1153549A (en) Image processing apparatus, image processing method, and transmission medium
CN111780683A (en) Portable scanning system and method of use
JP5581612B2 (en) Position measuring system and position measuring method