JP2004309318A - Position detection method, device and program thereof, and calibration information generation method - Google Patents
Position detection method, device and program thereof, and calibration information generation method Download PDFInfo
- Publication number
- JP2004309318A JP2004309318A JP2003103498A JP2003103498A JP2004309318A JP 2004309318 A JP2004309318 A JP 2004309318A JP 2003103498 A JP2003103498 A JP 2003103498A JP 2003103498 A JP2003103498 A JP 2003103498A JP 2004309318 A JP2004309318 A JP 2004309318A
- Authority
- JP
- Japan
- Prior art keywords
- incident light
- pixel
- light beam
- camera
- calibration information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】レンズ系を有するカメラで撮像した画像の歪みの根本原因を除去し、複数のカメラで対象物を撮像した複数の画像から、対象物の位置を正確に検出する位置検出方法、その装置及びそのプログラムを提供する。
【解決手段】位置検出装置1は、画像入力手段10によって、複数のカメラCで対象物を撮像した複数の画像を入力し、画素位置検出手段によって、各々の画像において、対象物に対応する画素位置を検出し、位置算出手段30によって、その画素位置と、入射光線の方向及びその変位量とを関連付けた較正テーブル30を参照することで、前記対象物の位置を補正して求めることを特徴とする。
【選択図】 図7A position detecting method and a device for accurately detecting a position of an object from a plurality of images of the object captured by a plurality of cameras by removing a root cause of distortion of an image captured by a camera having a lens system. And its programs.
A position detection device (1) inputs a plurality of images obtained by capturing an object with a plurality of cameras (C) by an image input unit (10), and detects a pixel corresponding to the object in each image by a pixel position detection unit. The position is detected, and the position of the object is corrected and obtained by referring to the calibration table 30 in which the pixel position is associated with the direction of the incident light beam and the displacement amount by the position calculating means 30. And
[Selection diagram] FIG.
Description
【0001】
【発明の属する技術分野】
本発明は、複数のカメラで対象物を撮像した複数の画像から、その対象物の位置を検出する位置検出技術に関する。
【0002】
【従来の技術】
一般に、CCD等の複数台のカメラによって、対象物の位置を検出するには、各カメラの位置と、各カメラで撮像した画像の対象物に対応する各画素とに基づいて、三角測量の原理で対象物までの距離を測定することにより行っていた。なお、この三角測量の原理で、対象物の位置を検出する手法では、各カメラのレンズ系が、ピンホールカメラモデルに基づいていることが前提となっている。このピンホールカメラモデルとは、図10に示すように、基点位置(針穴:ピンホールH)を通して入射する光(入射光)のみが、画像面上に到達して、3次元空間(x,y,z)が、画像面上の2次元空間(u,v)に対応付けられるモデルのことをいう。このようにピンホールカメラモデルは、入射光線が一点のピンホールを通って撮像画像として形成されることを想定している。
【0003】
しかし、このレンズ系を有するカメラによって撮像された画像には、非線形の歪みが存在し、周辺ほど歪みが大きいことが知られている。このため、この歪みを有する画像からは、正確な対象物の位置を検出することはできない。そこで、従来は、撮像された画像に対して補正を行うことで、位置検出の精度を改善する方法が提案されている。(例えば、特許文献1参照。)。
【0004】
この特許文献1で公開されている方法では、まず、カメラで市松模様のパターン画像を撮像し、市松模様の交点(特徴点)を検出する。そして、パターン画像の歪みが少ない画像中央部の特徴点の配列から、画像全体の特徴点の基準位置を算出し、先に検出した特徴点を基準位置に補正するための補正関数を求める。そして、その補正関数によって、対象物を撮像した画像を補正する。
このように、従来は、カメラで撮影した画像の非線形の歪みを除去するため、ピンホールカメラモデルに基づいた画像特性を考慮して、画像を補正する手法がとられていた。
【0005】
【特許文献1】
特開平5−274426号公報(第6−12頁)
【0006】
【発明が解決しようとする課題】
しかし、前記従来の技術は、レンズ系を有するカメラで撮像した画像において、周辺の歪みが大きいという事象から、画像の補正を行っており、その歪みの根本原因に基づいて補正を行ったものではない。例えば、特許文献1で公開された技術では、画像の歪みが少ない画像中央部の特徴点の配列から、画像全体の特徴点の基準位置を算出しているが、画像中央部においても歪みは存在しており、その歪みを含んだ画像から基準位置を算出している。このため、この技術を用いて補正(較正)された画像から、対象物の位置を検出することで、位置検出の精度を高めることはできるが、正確な位置検出を行うことはできないという問題があった。
【0007】
また、前記従来の技術における歪みの補正は、対象物とカメラとの距離に依存している。すなわち、レンズ系を有するカメラで撮像した画像の歪みは、対象物とカメラとの距離による歪み(誤差)の変化が非線形であるため、対象物の距離がわかっていれば、それに対応した補正関数を用いることで補正を行うことは可能である。しかし、対象物までの距離は測定するまで未知であるので、完全に補正(較正)を行うことはできなかった。
【0008】
本発明は、以上のような問題点に鑑みてなされたものであり、レンズ系を有するカメラで撮像した画像の歪みの根本原因を除去し、複数のカメラで対象物を撮像した複数の画像から、対象物の位置を正確に検出する位置検出方法、その装置及びそのプログラム、並びに、前記した位置検出方法、その装置及びその方法で用いる較正情報を生成する較正情報生成方法を提供することを目的とする。
【0009】
【課題を解決するための手段】
本発明は、前記目的を達成するために創案されたものであり、まず、請求項1に記載の位置検出方法は、複数のカメラで対象物を撮像した複数の画像に基づいて、前記対象物の位置を検出する位置検出方法において、前記カメラのレンズ系の光学中心に対する、前記レンズ系に入射される入射光線のズレ量を算出し、そのズレ量に基づいて、前記対象物の位置を補正することとした。
【0010】
この方法によれば、位置検出方法は、カメラで対象物を撮像した画像の画素毎に、カメラのレンズ系の光学中心(optical center)に対して、そのレンズ系に入射される入射光線のズレ量を算出することで、カメラが対象物の位置に対応する画素として検出した画素のズレ量(変位量)を認識することができる。これによって、撮像した複数の画像毎に、対象物の位置に対応する画素の光学中心からのズレ量に基づいて、対象物の位置を補正することで、対象物の正確な位置を検出することができる。なお、この光学中心とは、レンズ系の中央位置を示し、ピンホールカメラモデルにおいては、ピンホールの位置に該当するものである。
【0011】
また、請求項2に記載の位置検出方法は、カメラで撮像される画像の画素位置と、入射光線の方向及び基準位置から前記入射光線への変位量とを関連付けた較正情報を、複数のカメラ毎に準備し、前記複数のカメラで対象物を撮像した複数の画像及び前記較正情報に基づいて、前記対象物の位置を検出する位置検出方法であって、前記複数の画像を入力する画像入力ステップと、この画像入力ステップで入力した各々の画像において、前記対象物に対応する画素位置を検出する画素位置検出ステップと、この画素位置検出ステップで検出した画素位置に基づいて、前記較正情報から、その画素位置に対応する入射光線の方向及びその変位量を取得し、この入射光線の方向及びその変位量を利用して、前記対象物の位置を算出する位置算出ステップと、を含むこととした。
【0012】
この方法によれば、位置検出方法は、画像入力ステップで、複数のカメラで対象物を撮像した複数の画像を入力し、画素位置検出ステップで、各々の画像において、対象物に対応する画素位置を検出する。そして、位置算出ステップで、カメラで撮像された画像の画素位置と、入射光線の方向及び特定の基準位置から入射光線への変位量とを関連付けた較正情報から、入射光線の方向及びその変位量を取得し、この入射光線の方向及びその変位量を利用して、対象物の位置を算出(検出)する。これによって、位置検出方法は、複数の撮像された画像から対象物の位置を検出する前に、各画像の対象物に対応する画素に入力される入射光線のズレ量を認識することができるため、そのズレ量に基づいて、対象物の正確な位置を補正して求めることができる。
【0013】
さらに、請求項3に記載の位置検出装置は、複数のカメラで対象物を撮像した複数の画像に基づいて、前記対象物の位置を検出する位置検出装置であって、前記複数の画像を入力する画像入力手段と、この画像入力手段で入力された各々の画像において、前記対象物に対応する画素位置を検出する画素位置検出手段と、前記画素位置と、前記対象物から入射される入射光線の方向及び基準位置から前記入射光線への変位量とを関連付けた較正情報を、前記複数のカメラ毎に蓄積した蓄積手段と、前記画素位置検出手段で検出された画素位置に基づいて、前記較正情報から、その画素位置に対応する入射光線の方向及びその変位量を取得し、この入射光線の方向及びその変位量を利用して、前記対象物の位置を算出する位置算出手段と、を備える構成とした。
【0014】
かかる構成によれば、位置検出装置は、画像入力手段によって、複数のカメラで対象物を撮像した複数の画像を入力し、画素位置検出手段によって、各々の画像において、対象物に対応する画素位置を検出する。そして、位置算出手段によって、その画素位置と、入射光線の方向及び特定の基準位置から入射光線への変位量とを関連付けた較正情報から、入射光線の方向及びその変位量を取得し、この入射光線の方向及びその変位量を利用して、対象物の位置を算出(検出)する。なお、較正情報は、カメラ毎に蓄積手段に蓄積しておく。これによって、位置検出装置は、複数の撮像された画像から対象物の位置を検出する前に、各画像の対象物に対応する画素に入力される入射光線のズレ量を認識することができるため、そのズレ量に基づいて、対象物の正確な位置を補正して求めることができる。
【0015】
また、請求項4に記載の位置検出装置は、請求項3に記載の位置検出装置において、前記画素位置検出手段が、前記対象物の位置を特定するマーカに基づいて、前記複数の画像毎に、前記対象物に対応する画素位置を検出することとした。
【0016】
かかる構成によれば、位置検出装置は、画素位置検出手段が、対象物の位置を特定するマーカに基づいて、対象物に対応する画素位置を検出するため、位置検出を行いたい部位のみを特定することができる。このとき、位置検出装置は、複数の画像からマーカの位置を検出する前に、各画像のマーカに対応する画素に入力される入射光線のズレ量を認識することができるため、そのズレ量に基づいて、マーカの正確な位置を補正して求めることができる。なお、このマーカは、形状が既知の対象物であれば、その特定位置、例えば物体のカドを用いることとしてもよい。
【0017】
さらに、請求項5に記載の位置検出プログラムは、カメラで撮像される画像の画素位置と、入射光線の方向及び特定の基準位置から前記入射光線への変位量とを関連付けた較正情報を、複数のカメラ毎に準備し、前記複数のカメラで対象物を撮像した複数の画像及び前記較正情報に基づいて、前記対象物の位置を検出するために、コンピュータを、以下の各手段によって機能させる構成とした。
【0018】
すなわち、前記複数の画像を入力する画像入力手段、この画像入力手段で入力された各々の画像において、前記対象物の対応する画素位置を検出する画素位置検出手段、この画素位置検出手段で検出された画素位置に基づいて、前記較正情報から、その画素位置に対応する入射光線の方向及びその変位量を取得し、この入射光線の方向及びその変位量を利用して、前記対象物の位置を算出する位置算出手段、とした。
【0019】
かかる構成によれば、位置検出プログラムは、画像入力手段によって、複数のカメラで対象物を撮像した複数の画像を入力し、画素位置検出手段によって、各々の画像において、対象物に対応する画素位置を検出する。そして、位置算出手段によって、その画素位置と、入射光線の方向及び特定の基準位置から入射光線への変位量とを関連付けた較正情報から、入射光線の方向及びその変位量を取得し、この入射光線の方向及びその変位量を利用して、対象物の位置を算出(検出)する。
【0020】
また、請求項6に記載の較正情報生成方法は、カメラの画素毎に光を照射し、その照射された前記画素毎の入射光線に基づいて、基準位置から前記各入射光線への変位量を算出し、前記入射光線の方向及び前記変位量を、画素位置に関連付けて、較正情報を生成することとした。
【0021】
この方法によれば、較正情報生成方法は、カメラの撮像を行う画素毎に入射光線を入射することで、画素毎の入射光線の方向を特定する。なお、この入射光線の方向は、入射光線の発光位置を少なくとも2点決めることで特定することができる。そして、特定の基準位置から各入射光線への変位量を算出することで、画素位置に、入射光線の方向及び変位量のデータを関連付けた較正情報を生成することができる。この較正情報のデータは、カメラの特性を数値化したキャリブレーションデータとなるものである。
【0022】
さらに、請求項7に記載の較正情報生成方法は、カメラで撮像される画像の画素位置と、入射光線の方向及び基準位置から前記入射光線への変位量とを関連付けた較正情報を生成する較正情報生成方法であって、第1光源位置から発光する光の強度が、前記カメラの測定画素で最も強くなるように、前記カメラの撮像方向を調整することで、前記カメラに対する前記第1光源位置の相対位置を測定する第1光源相対位置測定ステップと、第2光源位置から発光する光の強度が、前記カメラの測定画素で最も強くなるように、前記カメラの撮像方向を調整することで、前記カメラに対する前記第2光源位置の相対位置を測定する第2光源相対位置測定ステップと、前記第1光源位置及び前記第2光源位置の各相対位置に基づいて、前記測定画素に入射する入射光線を特定する入射光線特定ステップとを、測定画素数分繰り返し、測定を行った画素位置毎に特定された入射光線に基づいて、前記基準位置から前記入射光線への変位量を算出し、前記画素位置に、前記入射光線の方向及び前記変位量を関連付けて前記較正情報とすることとした。
【0023】
この方法によれば、較正情報生成方法は、第1光源相対位置測定ステップで、第1光源位置から発光する光の強度が、前記カメラの測定画素で最も強くなるように、前記カメラのパン及びチルトを変更することで撮像方向を調整し、前記カメラに対する前記第1光源位置の相対位置を測定する。ここで測定された第1光源位置の相対位置は、測定画素の入射光線を特定するための1点目の位置となる。
【0024】
また、較正情報生成方法は、第2光源相対位置測定ステップで、第1光源相対位置測定ステップと同様に、第2光源位置の相対位置を測定する。ここで測定された第2光源位置の相対位置は、測定画素の入射光線を特定するための2点目の位置となる。この2点の相対位置によって、測定画素の入射光線を特定することができる。
【0025】
そして、較正情報生成方法は、入射光線の特定を測定画素数分繰り返し、その入射光線に基づいて、基準位置から前記入射光線への変位量を算出し、前記画素位置に、前記入射光線の方向及び前記変位量を関連付けることで較正情報を生成する。これによって、カメラの特性を数値化することができる。
【0026】
【発明の実施の形態】
以下では、まず、一般にレンズ系を有するカメラで撮像された画像の歪みの原因となる、入射光線が一点で交わらないカメラの非ピンホール性について説明し、その非ピンホール性を有するカメラの特性を数値化したキャリブレーションデータについて説明する。そして、カメラで撮像された画素毎のキャリブレーションデータを測定して較正情報(較正テーブル)を生成する方法について説明する。そして、その較正情報(較正テーブル)を参照することで、撮像された画像の歪みを除去して対象物の位置を検出する位置検出装置について、順次説明していくこととする。
【0027】
[カメラの非ピンホール性について]
まず、図11を参照して、一般にレンズ系を有するカメラで撮像した画像において、歪みが発生する原因について説明する。図11は、レンズ系を有するモデルのカメラの模式図である。ここでは、説明を簡略化するため、レンズ系を板ガラスGとし、絞りFによってピンホールHが生成されているものとする。このカメラCの板ガラスGに垂直に入射する入射光線r1は、ピンホールHを通って撮像面I上の画素R1に撮像される。また、板ガラスGに斜めに入射した入射光線r2及びr3は、板ガラスG内で屈折した後にピンホールHを通って撮像面I上の画素R2及びR3に撮像される。
【0028】
しかし、このカメラCは、板ガラスGを通過する前の入射光線r2及びr3の延長線であるr2´及びr3´と、入射光線r1とは、一点では交わらず、ピンホールカメラモデルとはなっていないことがわかる。このため、撮像面I上の画素R3には、ピンホールカメラモデルで想定している入射光線rrとは、距離D分だけずれた入射光線r3が撮像されることになる。
【0029】
このように、レンズ系(ここでは板ガラスG)に入射される入射光線によって像を撮像するカメラは、ピンホール性が崩れていることになる(非ピンホール性)。以下、レンズ系を有するカメラを「非ピンホールカメラ」と呼ぶこととする。
【0030】
[キャリブレーションデータについて]
次に、図12を参照して、非ピンホールカメラの特性を数値化したキャリブレーションデータについて説明する。図12は、キャリブレーションデータの内容を説明するための説明図である。図12に示すように、レンズlに入射する入射光線Rは2点で特定することができる。ここでは、第1の光源位置P1と、第2の光源位置P2とから発光される光が同一の撮像画素(図示せず)に撮像されたときに、入射光線Rがその撮像画素に対応する入射光線であると特定する。
【0031】
ここで、すべての入射光線との距離の自乗和が最小となる点を光学中心Oと定義し、各撮像画素に対応する入射光線Rと光学中心Oとの距離が最小となる点を、その入射光線Rの入射光基点Kと定義する。
【0032】
すなわち、光学中心O(x0,y0,z0)は、すべての入射光線において、光源位置P1(x1,y1,z1)と、光源位置P2(x2,y2,z2)とで特定される入射光線Rからの距離dの自乗((1)式)和が最小になる位置を、最小自乗法によって求めた位置となる。
【0033】
d2=−(A2/B)+C …(1)
【0034】
ただし、
A=(x2−x1)(x1−x0)+(y2−y1)(y1−y0)+(z2−z1)(z1−z0)
B=(x2−x1)2+(y2−y1)2+(z2−z1)2
C=(x1−x0)2+(y1−y0)2+(z1−z0)2
とする。
【0035】
これによって、画素位置毎に、光源位置P1及びP2で特定される方向と、光学中心Oから入射光基点Kへの変位量(3次元ベクトルVD(dx,dy,dz)で表現)とを関連付けたデータをキャリブレーションデータとすることで、非ピンホールカメラの特性を数値化することができる。
【0036】
なお、キャリブレーションデータは、これに限定されるものではない。例えば、前記した例では、光学中心Oを基準位置とし、光学中心Oから入射光線へ降ろした垂線の足までのベクトルを変位量VDとしているが、基準位置は、光学中心に限らず、カメラと一定関係にある固定点であれば、そのような点でも構わない。そして、変位量VDは、基準位置から入射光線上の任意の一点へ向かうベクトルであればよく、基準位置から入射光線へ降ろした垂線の足へ向かうベクトルには限られない。
【0037】
[較正情報(較正テーブル)生成方法]
次に、図1を参照して、非ピンホールカメラの特性を数値化したキャリブレーションデータを撮像画素毎に関連付けた較正情報として較正テーブルを生成する方法について説明する。図1は、較正テーブルを生成する方法の原理を示す概念図である。なお、図1(a)は、特定の入射光線に対して、カメラのパン及びチルトを変化させることで、キャリブレーションデータを測定する原理を示す概念図であり、図1(b)は、固定したカメラに対して、入射光線を変化させることで、キャリブレーションデータを測定する原理を示す概念図である。
【0038】
図1(a)に示すように、キャリブレーションデータを撮像画素毎に関連付けた較正テーブルを生成するには、非ピンホール性を有するカメラCに対して、光源位置をP1及びP2の1方向に移動させ(1軸移動)、光源位置P1及びP2で特定される入射光線Rを決定し、光源位置P1及びP2から発光される光が共に、測定を行う撮像画素(測定画素)に入射されるように、カメラCのパン及びチルトを調整(2軸回転)することで、カメラCの撮像画素毎に入射される入射光線Rの方向を特定する。
【0039】
また、図1(b)に示すように、カメラCは固定しておき、光源位置P1及びP2の2点で発光した入射光線Rが、測定画素に入射されるように、光源位置P1及びP2をXYZ方向に移動(3軸移動)させることで、その測定画素に入射される光源位置P1及びP2の2点で定まる入射光線Rの方向を特定することとしてもよい。
【0040】
図1(a)又は(b)で、測定を行った各撮像画素毎に特定された入射光線Rに基づいて、図12で説明したように、入射光線Rの方向と、光学中心Oから入射光基点Kへの変位量とをキャリブレーションデータとして撮像画素毎に関連付けることで較正テーブルを生成することができる。
【0041】
<較正情報生成装置の構成>
ここで、図2を参照して、較正情報生成方法を実現するための具体的な装置である較正情報生成装置の構成について説明する。図2は、カメラのキャリブレーションデータを撮像画素毎に測定し、較正情報である較正テーブルを生成する較正情報生成装置の全体図である。
【0042】
この較正情報生成装置100は、カメラCを支持し、カメラCをパン方向及びチルト方向に回動させるカメラ支持台110(回転ステージ)と、点光源Lをカメラ支持台110に対して前後、左右及び上下の3次元方向に移動させる3次元移動台120(XYZステージ)とを備えている。
【0043】
カメラ支持台110は、水平面上で垂直軸回りに回動自在なパンテーブル111と、水平軸回りに回動自在なようにパンテーブル111に支持されたチルトテーブル112とからなっており、チルトテーブル112にカメラCが支持されている。
【0044】
3次元移動台120は、カメラ支持台110に対して水平面上に前後方向に延設されたX軸レール121と、X軸レール121上を前後方向に移動し、左右方向に延設されたY軸レール122と、Y軸レール122上を左右方向に移動し、垂直方向に立設されたZ軸レール123とからなっており、Z軸レール123上に上下移動自在に点光源Lが設けられている。
【0045】
パンテーブル111及びチルトテーブル112は、パルスモータ等の回転駆動装置(図示せず)で駆動され、チルトテーブル112上に支持されているカメラCの視軸を上下左右に振ることが可能になっている。また、パンテーブル111及びチルトテーブル112の回転軸には、カメラCの視軸角度を得るために、ロータリエンコーダ等の回転角度計測器(図示せず)が設けられている。
【0046】
Y軸レール122、Z軸レール123及び点光源Lは、ラックピニオン機構等の、パルスモータの回転力を直線運動に変換する駆動装置(図示せず)で駆動されて、それぞれに対応するレール上を直線移動することが可能になっている。
【0047】
なお、図示していない前記回転駆動装置及び前記駆動装置は、制御装置(図示せず)によって制御され、前記回転角度計測器で計測されたカメラCの視軸角度と点光源Lの位置は、制御装置によって参照可能なように構成されているものとする。
【0048】
<較正情報生成装置の動作>
さらに、図3を参照(適宜図1及び図2参照)して、較正情報生成装置1が、較正情報を生成する動作について説明する。図3は、較正情報生成装置100が、図1(a)の手法によって、較正情報である較正テーブルを生成する動作を示すフローチャートである。
【0049】
まず、較正情報生成装置100は、点光源Lを特定の位置(光源位置P1)に設定し、光源位置P1の点光源Lから発光される光が、カメラCの測定画素位置に入射するように、パンテーブル111及びチルトテーブル112を回転(2軸回転)させ、その回転量であるパン量及びチルト量を取得する(ステップS1)。そして、この回転を行ったパン量及びチルト量に基づいて、光源位置P1のカメラCからの相対位置を測定する(ステップS2)。
【0050】
次に、較正情報生成装置100は、Y軸レール122をX軸レール121上でX方向(前又は後)に移動(1軸移動)させることで、点光源Lを光源位置P2に移動させる(ステップS3)。
【0051】
そして、較正情報生成装置100は、光源位置P2の点光源Lから発光される光が、カメラCの測定画素位置に入射するように、パンテーブル111及びチルトテーブル112を回転(2軸回転)させ、その回転量であるパン量及びチルト量を取得する(ステップS4)。そして、この回転を行ったパン量及びチルト量に基づいて、光源位置P2のカメラCからの相対位置を測定する(ステップS5)。
【0052】
このステップS2及びステップS5における、光源位置P1及び光源位置P2の各相対位置によって、測定画素位置に入射される入射光線Rを特定することができる。
【0053】
ここで、図4を参照(適宜図1及び図2参照)して、ステップS2及びステップS5における光源位置の相対位置を算出する方法について説明する。図4は、パン・チルトに伴うカメラと光源位置との相対関係を説明するための説明図である。
【0054】
この図4において、カメラ支持台(回転ステージ)110の固定の基準位置BにカメラCが搭載されているものとする。ここで、カメラ支持台110すなわちカメラCを、パン量“−θpan”及びチルト量“−θtilt”だけ回転させることで、カメラCから見える光源位置の方向は、カメラ支持台110の回転中心位置OTを中心として光源位置をθpan及びθtiltだけ回転させたときに見える方向に等しくなる。
【0055】
ここで、回転中心位置OTに対して、回転前の光源位置Pの座標を(x1,y1,z1)、回転量であるパン量及びチルト量をそれぞれθpan及びθtiltとすると、回転後の光源位置PRの座標(Rx1,Ry1,Rz1)は、(2)式で求めることができる。
【0056】
【数1】
【0057】
このように、カメラ支持台110が回転した後の、2点の光源位置の相対位置を求めることで、測定画素位置に入射される入射光線を特定することができる。すなわち、入射光線は、相対位置に変換された光源位置P1の座標を(xP1,yP1,zP1)、相対位置に変換された光源位置P2の座標を(xP2,yP2,zP2)とすると、tを実数として(3)式により特定することができる。
【0058】
【数2】
【0059】
図3に戻って、説明を続ける。
較正情報生成装置100は、予め定めた測定画素分の測定が終了したかどうかを判定し(ステップS6)、終了していない場合(No)は、ステップS1へ戻って、次の測定画素位置における入射光線の特定を行う。一方、予め定めた測定画素分の測定が終了した場合(Yes)は、測定画素分の入射光線の方向に基づいて、光学中心を算出する(ステップS7)。
【0060】
そして、較正情報生成装置100は、各撮像画素毎に、入射光線の方向と、基準位置からの変位量とを関連付けて較正テーブルを生成する(ステップS8)。また、測定を行っていない撮像画素については、近接する測定画素のデータから補間を行い生成するものとする。なお、測定画素位置は、カメラCのレンズの特性によって予め設定しておくものとする。例えば、レンズが魚眼レンズの場合は、5画素以下の間隔で、測定画素位置を設定し、それ以外のレンズの場合は、5〜10画素間隔で、測定画素位置を設定する。また、ここでは、各撮像画素毎に、入射光線の方向と基準位置からの変位量とを関連付けた較正テーブルを、較正情報として生成したが、所定の関数、例えば、前記した近接する測定画素のデータから補間を行う際の補間関数として生成することとしてもよい。あるいは、較正情報を、各画素位置から入射光線の方向への変換式や、各画素位置から変位量への変換式として生成することとしてもよい。
【0061】
なお、ステップS1及びステップS4におけるカメラCの回転方法については、図5を参照(適宜図2参照)して、さらに説明を行う。図5は、較正情報生成装置100が、測定画素位置に入射光線を入射させる動作を示すフローチャートである。
【0062】
図5に示すように、較正情報生成装置100は、まず、カメラCによって、画像(撮像画像)を取り込む(ステップS10)。なお、この撮像画像には、点光源Lだけしか写っていない状態、すなわち、黒い背景の画像上に白い点が写った状態であるものとする。
【0063】
そして、較正情報生成装置100は、撮像画像上の白い点(点光源P)の光の強度が最大(ピーク)となる位置(ピーク位置)を推定する(ステップS11)。
【0064】
ここで、図6を参照して、光の強度のピーク位置の推定について説明を行う。図6は、横軸に画素位置P(…,Pn−2,Pn−1,Pn,Pn+1,Pn+2,…)、縦軸に画素位置Pにおける光の強度(光強度I)を表したグラフである。このように、光強度Iは、ある撮像画素を中心とした広がりを持っている。
【0065】
そこで、光強度が最大となるピーク位置Peは、画素位置Pnに対応する光強度をIn、画素位置Pnに隣接する画素位置Pn−1及びPn+1に対応する光強度をIn−1及びIn+1とすると、(4)式及び(5)式によって求めることができる。
【0066】
In−1≦In+1の場合:
Pe=Pn+(In+1−In−1)/{2(In−In−1)} …(4)
【0067】
In−1>In+1の場合:
Pe=Pn+(In+1−In−1)/{2(In−In+1)} …(5)
【0068】
なお、このピーク位置Peの推定は、上下、左右の各方向に隣接する撮像画素の光強度から算出するものとする。
図5に戻って、説明を続ける。
【0069】
較正情報生成装置100は、ステップS11で推定した光強度が最大となるピーク位置と、測定画素位置との誤差が予め定めた閾値以下かどうかを判定し(ステップS12)、閾値以下の場合(Yes)は、ピーク位置が測定画素位置と一致したものとみなして動作を終了する。
【0070】
一方、誤差が予め定めた閾値よりも大きい場合(No)は、その誤差を角度値に変換して、パンテーブル111及びチルトテーブル112の回転量を算出する(ステップS13)。そして、較正情報生成装置100は、この回転量に基づいて、パンテーブル111及びチルトテーブル112を回転させ(ステップS14)、ステップS10へ戻ることで、光強度のピーク位置を測定画素位置に合わせる。
【0071】
以上、較正情報生成装置100が、図1(a)の手法によって、較正テーブルを生成する動作について説明したが、図1(b)の手法によって、較正テーブルを生成することも可能である。
【0072】
この場合は、カメラCを固定し、点光源Lから入射される入射光線の光強度が測定画素位置で最大(ピーク)になるように、点光源Lの位置をY方向及び/又はZ方向の正又は負の方向に移動させることで、光源位置P1を特定する。そして、点光源LとカメラCとの距離を変えて(X方向で移動)、前記と同様に、入射光線の光強度が測定画素位置で最大となるように、点光源Lの位置をY方向及び/又はZ方向の正又は負の方向に移動させることで、光源位置P2を特定する。このように、光源位置P1と光源位置P2とが決定されることで、入射光線Rの方向が特定されることになる。この動作を測定画素分繰り返し、前記した図3のステップS7及びステップS8の動作を行うことで、較正テーブルを生成することができる。
【0073】
[位置検出装置の構成]
次に、図7を参照して、位置検出装置について説明を行う。図7は、本発明の実施の形態である位置検出装置の構成を示したブロック図である。図7に示した位置検出装置1は、2台のカメラ(非ピンホールカメラ)Cで撮像された撮像画像から、対象物(マーカM)の3次元位置を検出するものである。ここでは、位置検出装置1を、画像入力手段10と、画素位置検出手段20と、較正テーブル蓄積手段30と、位置算出手段40とを備えて構成した。マーカMは、位置を検出する部位を特定するために、その部位に付す目印であって、特定の色や形状を有したシール、赤外線等を発光する発光ダイオード等である。
【0074】
画像入力手段10は、2台のカメラCで対象物(マーカM)を撮像した各々の撮像画像を入力するものである。なお、動画像として撮像画像を時系列に入力する場合は、カメラC1及びカメラC2で撮像された各撮像画像は、同期して画像入力手段10へ入力されるものとする。また、画像入力手段10には、カメラC1及びカメラC2で撮像された各撮像画像を一時的に記憶しておく、図示していないメモリを備えており、このメモリに記憶された撮像画像を、後記する画素位置検出手段20が参照するものとする。
【0075】
画素位置検出手段20は、画像入力手段10で入力された各撮像画像において、対象物に対応する画素位置を検出するものである。ここでは、撮像画像上でマーカMとして撮像された領域の重心位置を、対象物に対応する画素位置とする。ここで検出された各撮像画像の画素位置は、位置算出手段30へ入力される。
【0076】
較正テーブル蓄積手段(蓄積手段)30は、メモリ等の一般的な記憶媒体であって、カメラCの撮像画素毎にキャリブレーションデータを関連付けた較正テーブル31を、カメラCの数分蓄積したものである。ここで、較正テーブル31aは、カメラC1の較正テーブル、較正テーブル31bは、カメラC2の較正テーブルとする。なお、較正テーブル31の内容である各撮像画素毎のキャリブレーションデータは、図12で説明したように、各撮像画素に入射される入射光線の方向と、基準位置(光学中心O)から入射光線への変位量VDとを含んでいる。
較正テーブル(較正情報)31bは、図13に示すように、撮像画素のx座標、y座標の組み合わせに対し、その撮像画素に入射してくる入射光線を特定する情報として、光学中心Oからの変位量VD(dx,dy,dz)及び方向(角度)α、γが対応付けて記憶されている。
なお、ここでは、較正情報を、撮像画素毎に変位量VD及び方向(角度)α、γを対応付けた較正テーブルとして説明しているが、所定の関数や変換式によって表現しても構わない。
【0077】
位置算出手段40は、画素位置検出手段20で検出された各撮像画像毎の画素位置に対応した、較正テーブル31のキャリブレーションデータ(入射光線の方向及び変位量)に基づいて、対象物(マーカM)の位置(3次元位置)を算出するものである。
【0078】
以上、位置検出装置1の構成について説明したが、本発明はこれに限定されるものではない。例えば、画素位置検出手段20は、カメラCで撮像した撮像画像を特定の大きさのブロックでマッチングを行うことで、対象物に対応する画素位置を検出することとしてもよい。
【0079】
また、ここでは、2台のカメラCで撮像した撮像画像に基づいて、対象物の位置を検出したが、3台以上のカメラを用いて位置を検出することも可能である。例えば、3行3列に配置した9台のカメラで、中央に配置したカメラを基準カメラとして、他の8台のカメラとの間で位置を検出し、その8個の位置で平均をとることで、対象物の位置をより正確に検出することもできる。
【0080】
なお、位置検出装置の各手段、すなわち、画像入力手段10、画素位置検出手段20及び位置算出手段40は、一般的なコンピュータにプログラムを実行させ、コンピュータ内の演算装置や記憶装置(較正テーブル蓄積手段30を含む)を動作させることにより実現される。
【0081】
[位置検出装置の動作]
次に、図8を参照(適宜図7参照)して、位置検出装置1の動作について説明する。図8は、位置検出装置1の動作を示すフローチャートである。
まず、位置検出装置1は、画像入力手段10によって、2台のカメラC(C1、C2)で撮像した撮像画像を入力する(ステップ20)。また、位置検出装置1は、画素位置検出手段20によって、画像入力手段10で入力された各撮像画像において、対象物(マーカM)に対応する画素位置を検出する(ステップS21)。
【0082】
そして、位置検出装置1は、位置算出手段40によって、カメラC(C1、C2)毎に対応する較正テーブル31(31a、31b)から、対象物(マーカM)の画素位置に対応するキャリブレーションデータを読み込み(ステップ22)、その各画素位置のキャリブレーションデータに基づいて、対象物(マーカM)の3次元位置を算出する(ステップS23)。
【0083】
ここで、図9を参照(適宜図7参照)して、ステップS23で行った対象物の3次元位置を算出する方法について具体的に説明する。図9は、対象物(マーカM)位置を算出する手法を説明するための説明図である。
【0084】
この図9において、カメラC1の撮像画像における、マーカMの画素位置に対応する変位量(較正テーブル31aから取得)に基づいて、カメラC1の光学中心を補正した補正光学中心O1を(x1,y1,z1)とする。また、カメラC2の撮像画像における、マーカMの画素位置に対応する変位量(較正テーブル31bから取得)に基づいて、カメラC2の光学中心を補正した補正光学中心O2を(x2,y2,z2)とする。
【0085】
また、カメラC1の撮像画像における、マーカMの画素位置に対応する入射光線の方向を水平角度α1、垂直角度γ1(較正テーブル31aから取得)とし、カメラC2の撮像画像における、マーカMの画素位置に対応する入射光線の方向を水平角度α2、垂直角度γ2(較正テーブル31bから取得)とする。ただし、ここではγ2は使用しないため図示していない。
この場合、対象物位置(Px,Py,Pz)は、(6)乃至(8)式で算出することができる。
【0086】
Px=(x1tanα1−y1−x2tanα2+y2)/(tanα1+tanα2) …(6)
Py=(Px−x1)tanα1+y1 …(7)
Pz=(Px−x1)tanγ1+z1 …(8)
【0087】
以上の動作によって、位置検出装置1は、非ピンホールカメラにおいて、正確に対象物の位置を検出することが可能になる。
なお、この位置検出装置1を、移動ロボット、自動車等に組み込んで用いることも可能である。例えば、移動ロボットに本発明を適用し、移動ロボットが、床の位置を検出することで、床の凹凸を正確に認識することができ、移動ロボットが安定した歩行を行うことが可能になる。
【0088】
【発明の効果】
以上説明したとおり、本発明に係る位置検出方法、その装置及びそのプログラム、並びに、較正情報生成方法では、以下に示す優れた効果を奏する。
【0089】
請求項1、2、3又は5に記載の本発明によれば、複数の撮像された画像から対象物の位置を検出する前に、各画像の対象物に対応する画素に入力される入射光線のズレ量を検出することができるため、画像の周辺での歪み(非線形)を根本的に除去することができ、対象物の正確な位置を検出することができる。
【0090】
請求項4に記載の発明によれば、マーカによって対象物の位置を検出するため、対象物に付したマーカの位置を検出することで、CG等で用いる3次元データを容易に取得することができる。なお、このマーカ位置は、撮像画像の周辺での歪み(非線形)を除去して検出した位置であるため、本発明によって、正確な3次元データを取得することができる。
【0091】
請求項6に記載の発明によれば、画素毎に、入射光線の方向と、その入射光線の基準位置(光学中心)からの変位量をもった、較正情報を生成することができる。この較正情報を、カメラの特性を示すデータ(キャリブレーションデータ)として使用することで、例えば、複数のカメラで対象物の位置を検出する際に、正確な位置を検出することが可能になる。
【0092】
請求項7に記載の発明によれば、予め入射光線を特定し、カメラのパン及びチルトを調整することで、入射光線の方向を特定することができるので、魚眼レンズのような広角レンズを備えたカメラであっても、容易に較正情報を生成することができる。
【図面の簡単な説明】
【図1】本発明の較正情報を生成する方法の原理を示す概念図である。
【図2】本発明の較正情報を生成する方法を実現する較正情報生成装置の全体構成図である。
【図3】本発明の較正情報を生成する方法を実現する較正情報生成装置の動作を示すフローチャートである。
【図4】パン・チルトに伴うカメラと光源位置との相対関係を説明するための説明図である。
【図5】較正情報生成装置が入射光線の方向を特定するための動作を示すフローチャートである。
【図6】光強度のピーク位置を推定する手法を説明するための説明図である。
【図7】本発明の位置検出装置の全体構成を示すブロック図である。
【図8】本発明の位置検出装置の動作を示すフローチャートである。
【図9】対象物の3次元位置を算出する方法を説明するための説明図である。
【図10】ピンホールカメラモデルの概念を説明するための説明図である。
【図11】カメラで撮像した画像に歪みが発生する原因を説明するための説明図である。
【図12】キャリブレーションデータを説明するための説明図である。
【図13】較正テーブルの内容を説明するための説明図である。
【符号の説明】
1 位置検出装置
10 画像入力手段
20 画素位置検出手段
30 較正テーブル蓄積手段(蓄積手段)
31(31a、31b) 較正テーブル(較正情報)
40 位置算出手段
100 較正情報生成装置
110 カメラ支持台
111 パンテーブル
112 チルトテーブル
120 3次元移動台
121 X軸レール
122 Y軸レール
123 Z軸レール
C カメラ
L 点光源[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a position detection technique for detecting a position of an object from a plurality of images obtained by imaging the object with a plurality of cameras.
[0002]
[Prior art]
Generally, in order to detect the position of an object using a plurality of cameras such as CCDs, the principle of triangulation is based on the position of each camera and each pixel corresponding to the object in an image captured by each camera. This was done by measuring the distance to the object. In the method of detecting the position of an object based on the principle of triangulation, it is assumed that the lens system of each camera is based on a pinhole camera model. As shown in FIG. 10, this pinhole camera model is such that only light (incident light) incident through a base point position (needle hole: pinhole H) reaches the image plane and becomes three-dimensional space (x, y, z) refers to a model that is associated with a two-dimensional space (u, v) on the image plane. Thus, the pinhole camera model assumes that an incident light beam is formed as a captured image through one pinhole.
[0003]
However, it is known that an image captured by a camera having this lens system has non-linear distortion, and the distortion is larger near the periphery. For this reason, it is not possible to accurately detect the position of the object from the image having this distortion. Therefore, conventionally, there has been proposed a method of improving the accuracy of position detection by performing correction on a captured image. (For example, refer to Patent Document 1).
[0004]
In the method disclosed in
As described above, conventionally, in order to remove non-linear distortion of an image captured by a camera, a method of correcting an image in consideration of image characteristics based on a pinhole camera model has been adopted.
[0005]
[Patent Document 1]
JP-A-5-274426 (page 6-12)
[0006]
[Problems to be solved by the invention]
However, in the conventional technique, in an image captured by a camera having a lens system, an image is corrected due to a large peripheral distortion, and correction is performed based on a root cause of the distortion. Absent. For example, in the technique disclosed in
[0007]
Further, the correction of the distortion in the conventional technique depends on the distance between the object and the camera. In other words, the distortion of an image captured by a camera having a lens system is non-linear in the change in distortion (error) due to the distance between the object and the camera. Therefore, if the distance to the object is known, the corresponding correction function is used. It is possible to perform correction by using. However, since the distance to the object is unknown until the measurement, the correction (calibration) cannot be completely performed.
[0008]
The present invention has been made in view of the above-described problems, and eliminates a root cause of distortion of an image captured by a camera having a lens system, and removes a root cause from a plurality of images of an object captured by a plurality of cameras. It is an object of the present invention to provide a position detection method for accurately detecting the position of an object, a device and a program thereof, and a calibration information generation method for generating the above-described position detection method, the device and the calibration information used in the method. And
[0009]
[Means for Solving the Problems]
The present invention has been devised to achieve the above object. First, the position detecting method according to
[0010]
According to this method, the position detection method is such that, for each pixel of an image obtained by capturing an object with a camera, a deviation of an incident light beam incident on the lens system with respect to an optical center of the lens system of the camera. By calculating the amount, the deviation amount (displacement amount) of the pixel detected by the camera as the pixel corresponding to the position of the target object can be recognized. Thus, for each of the plurality of captured images, the correct position of the target is detected by correcting the position of the target based on the shift amount of the pixel corresponding to the position of the target from the optical center. Can be. The optical center indicates the center position of the lens system, and corresponds to the position of the pinhole in the pinhole camera model.
[0011]
The position detection method according to
[0012]
According to this method, the position detection method includes, in the image input step, inputting a plurality of images obtained by imaging the object with the plurality of cameras, and in the pixel position detection step, in each image, the pixel position corresponding to the object is Is detected. Then, in the position calculation step, the direction of the incident light beam and the displacement amount thereof are obtained from the calibration information in which the pixel position of the image captured by the camera is associated with the direction of the incident light beam and the displacement amount from the specific reference position to the incident light beam. Is obtained, and the position of the target object is calculated (detected) using the direction of the incident light beam and the amount of displacement thereof. This allows the position detection method to recognize the shift amount of the incident light beam input to the pixel corresponding to the target in each image before detecting the position of the target from the plurality of captured images. Based on the deviation amount, the accurate position of the target object can be corrected and obtained.
[0013]
Further, the position detection device according to
[0014]
According to such a configuration, the position detection device inputs a plurality of images obtained by capturing the object with the plurality of cameras by the image input unit, and the pixel position corresponding to the object in each image by the pixel position detection unit. Is detected. Then, the position calculating means obtains the direction of the incident light beam and the amount of displacement thereof from calibration information that associates the pixel position with the direction of the incident light beam and the amount of displacement from a specific reference position to the incident light beam. The position of the object is calculated (detected) using the direction of the light beam and the displacement amount. Note that the calibration information is stored in the storage unit for each camera. This allows the position detection device to recognize the shift amount of the incident light beam input to the pixel corresponding to the target in each image before detecting the position of the target from the plurality of captured images. Based on the deviation amount, the accurate position of the target object can be corrected and obtained.
[0015]
In the position detection device according to a fourth aspect, in the position detection device according to the third aspect, the pixel position detection unit is configured to generate a plurality of images for each of the plurality of images based on a marker that specifies a position of the object. The pixel position corresponding to the object is detected.
[0016]
According to this configuration, the position detection device specifies only a portion for which position detection is to be performed, because the pixel position detection unit detects a pixel position corresponding to the target object based on the marker that specifies the position of the target object. can do. At this time, before detecting the position of the marker from the plurality of images, the position detection device can recognize the shift amount of the incident light beam input to the pixel corresponding to the marker in each image. Based on this, the correct position of the marker can be corrected and obtained. If the marker has a known shape, the marker may be used at a specific position, for example, a corner of the object.
[0017]
Further, the position detection program according to
[0018]
That is, image input means for inputting the plurality of images, pixel position detection means for detecting a corresponding pixel position of the object in each image input by the image input means, From the calibration information, the direction of the incident light beam corresponding to the pixel position and the amount of displacement thereof are obtained from the calibration information, and the position of the object is determined using the direction of the incident light beam and the amount of displacement thereof. Position calculating means for calculating.
[0019]
According to this configuration, the position detection program inputs a plurality of images obtained by imaging the object with the plurality of cameras by the image input unit, and sets the pixel position corresponding to the object in each image by the pixel position detection unit. Is detected. Then, the position calculating means obtains the direction of the incident light beam and the amount of displacement thereof from calibration information that associates the pixel position with the direction of the incident light beam and the amount of displacement from a specific reference position to the incident light beam. The position of the object is calculated (detected) using the direction of the light beam and the displacement amount.
[0020]
The calibration information generating method according to claim 6 irradiates light to each pixel of the camera, and calculates a displacement amount from a reference position to each of the incident light beams based on the irradiated incident light beam for each pixel. The calibration information is calculated by calculating the direction of the incident light beam and the displacement amount in association with the pixel position.
[0021]
According to this method, the calibration information generation method specifies the direction of the incident light beam for each pixel by causing the incident light beam to enter each pixel where the camera captures an image. The direction of the incident light beam can be specified by determining at least two light emission positions of the incident light beam. Then, by calculating the amount of displacement from the specific reference position to each incident light beam, it is possible to generate calibration information in which the direction of the incident light beam and the data of the amount of displacement are associated with the pixel position. The data of the calibration information is calibration data obtained by digitizing camera characteristics.
[0022]
The calibration information generation method according to claim 7, wherein the calibration information is generated by associating a pixel position of an image captured by a camera with a direction of the incident light beam and a displacement amount from the reference position to the incident light beam. In the information generation method, the first light source position with respect to the camera is adjusted by adjusting an imaging direction of the camera so that the intensity of light emitted from the first light source position is the strongest at a measurement pixel of the camera. The first light source relative position measuring step of measuring the relative position of, and the intensity of light emitted from the second light source position, by adjusting the imaging direction of the camera, so as to be the strongest in the measurement pixels of the camera, A second light source relative position measuring step of measuring a relative position of the second light source position with respect to the camera; and the measurement pixel based on each relative position of the first light source position and the second light source position. The incident light beam specifying step of specifying the incident light beam to be incident is repeated by the number of measurement pixels, and the displacement amount from the reference position to the incident light beam is calculated based on the incident light beam specified for each pixel position where the measurement is performed. Then, the calibration information is determined by associating the pixel position with the direction of the incident light beam and the displacement amount.
[0023]
According to this method, in the calibration information generation method, in the first light source relative position measurement step, the pan and the camera of the camera are so set that the intensity of light emitted from the first light source position is the strongest at the measurement pixel of the camera. The imaging direction is adjusted by changing the tilt, and the relative position of the first light source position with respect to the camera is measured. The relative position of the first light source position measured here is the position of the first point for specifying the incident light beam on the measurement pixel.
[0024]
In the calibration information generation method, the relative position of the second light source position is measured in the second light source relative position measurement step, similarly to the first light source relative position measurement step. The relative position of the second light source position measured here is the position of the second point for specifying the incident light beam on the measurement pixel. The incident light beam on the measurement pixel can be specified based on the relative positions of these two points.
[0025]
Then, the calibration information generation method repeats the specification of the incident light beam for the number of measurement pixels, calculates a displacement amount from the reference position to the incident light beam based on the incident light beam, and calculates the direction of the incident light beam at the pixel position. And the displacement amount are associated with each other to generate calibration information. Thereby, the characteristics of the camera can be quantified.
[0026]
BEST MODE FOR CARRYING OUT THE INVENTION
In the following, first, a description will be given of the non-pinhole property of a camera in which incident light rays do not cross at one point, which generally causes distortion of an image captured by a camera having a lens system, and characteristics of the camera having the non-pinhole property A description will be given of the calibration data obtained by converting the numerical values into the numerical values. Then, a method of measuring calibration data for each pixel captured by the camera and generating calibration information (calibration table) will be described. A position detection device that detects a position of a target object by removing distortion of a captured image by referring to the calibration information (calibration table) will be sequentially described.
[0027]
[About non-pinhole properties of camera]
First, with reference to FIG. 11, a description will be given of the cause of the occurrence of distortion in an image generally captured by a camera having a lens system. FIG. 11 is a schematic diagram of a model camera having a lens system. Here, for the sake of simplicity, it is assumed that the lens system is a sheet glass G, and the aperture F generates a pinhole H. The incident light beam r1 vertically incident on the plate glass G of the camera C passes through the pinhole H and is captured by the pixel R1 on the imaging surface I. The incident light beams r2 and r3 obliquely incident on the glass sheet G are refracted in the glass sheet G and then imaged on the pixels R2 and R3 on the imaging plane I through the pinhole H.
[0028]
However, in the camera C, the incident light r1 does not intersect at one point with r2 'and r3', which are extensions of the incident light r2 and r3 before passing through the glass sheet G, and is a pinhole camera model. I understand that there is no. Therefore, the pixel R3 on the imaging surface I captures an incident light r3 that is shifted by the distance D from the incident light rr assumed in the pinhole camera model.
[0029]
As described above, a camera that captures an image with an incident light beam that is incident on a lens system (here, the glass sheet G) has a pinhole property (non-pinhole property). Hereinafter, a camera having a lens system is referred to as a “non-pinhole camera”.
[0030]
[Calibration data]
Next, calibration data obtained by digitizing the characteristics of a non-pinhole camera will be described with reference to FIG. FIG. 12 is an explanatory diagram for explaining the contents of the calibration data. As shown in FIG. 12, the incident light R incident on the
[0031]
Here, the point at which the sum of the squares of the distances to all the incident rays is the minimum is defined as the optical center O, and the point at which the distance between the incident ray R and the optical center O corresponding to each imaging pixel is the minimum is defined as the optical center O. It is defined as the incident light base point K of the incident light beam R.
[0032]
That is, the optical center O (x0, Y0, Z0) Indicates the light source position P1 (x1, Y1, Z1) And the light source position P2 (x2, Y2, Z2)), The position at which the sum of the squares of the distance d from the incident light beam R (formula (1)) is minimized is the position obtained by the least square method.
[0033]
d2=-(A2/ B) + C (1)
[0034]
However,
A = (x2-X1) (X1-X0) + (Y2-Y1) (Y1-Y0) + (Z2-Z1) (Z1-Z0)
B = (x2-X1)2+ (Y2-Y1)2+ (Z2-Z1)2
C = (x1-X0)2+ (Y1-Y0)2+ (Z1-Z0)2
And
[0035]
Thus, for each pixel position, the direction specified by the light source positions P1 and P2 and the displacement amount (the three-dimensional vector VDBy using the data associated with (dx, dy, dz)) as the calibration data, the characteristics of the non-pinhole camera can be quantified.
[0036]
Note that the calibration data is not limited to this. For example, in the above-described example, the optical center O is set as the reference position, and the vector from the optical center O to the foot of the perpendicular dropped down to the incident light is the displacement amount V.DHowever, the reference position is not limited to the optical center, and may be any fixed point having a fixed relationship with the camera. And the displacement VDMay be a vector directed from the reference position to an arbitrary point on the incident light beam, and is not limited to a vector directed to a leg of a perpendicular dropped from the reference position to the incident light beam.
[0037]
[Calibration information (calibration table) generation method]
Next, a method of generating a calibration table as calibration information in which calibration data obtained by quantifying characteristics of a non-pinhole camera is associated with each imaging pixel will be described with reference to FIG. FIG. 1 is a conceptual diagram illustrating the principle of a method for generating a calibration table. FIG. 1A is a conceptual diagram showing the principle of measuring calibration data by changing the pan and tilt of a camera with respect to a specific incident light beam, and FIG. FIG. 7 is a conceptual diagram showing a principle of measuring calibration data by changing an incident light beam with respect to a camera that has been made.
[0038]
As shown in FIG. 1A, in order to generate a calibration table in which calibration data is associated with each imaging pixel, a light source position is set in one direction of P1 and P2 for a camera C having a non-pinhole property. The light source is moved (one-axis movement) to determine the incident light beam R specified by the light source positions P1 and P2, and the light emitted from the light source positions P1 and P2 is both incident on an imaging pixel (measurement pixel) to be measured. As described above, by adjusting the pan and tilt of the camera C (rotating in two axes), the direction of the incident light R incident on each imaging pixel of the camera C is specified.
[0039]
Further, as shown in FIG. 1B, the camera C is fixed, and the light source positions P1 and P2 are set so that the incident light rays R emitted at the two light source positions P1 and P2 are incident on the measurement pixels. May be moved in the XYZ directions (three-axis movement) to specify the direction of the incident light beam R defined by two points of the light source positions P1 and P2 incident on the measurement pixel.
[0040]
In FIG. 1A or FIG. 1B, based on the incident light R specified for each imaging pixel for which the measurement was performed, as described with reference to FIG. A calibration table can be generated by associating the amount of displacement to the light base point K as calibration data for each imaging pixel.
[0041]
<Configuration of calibration information generation device>
Here, a configuration of a calibration information generation device, which is a specific device for realizing the calibration information generation method, will be described with reference to FIG. FIG. 2 is an overall view of a calibration information generation device that measures calibration data of a camera for each imaging pixel and generates a calibration table that is calibration information.
[0042]
The calibration
[0043]
The camera support table 110 includes a pan table 111 rotatable about a vertical axis on a horizontal plane, and a tilt table 112 supported on the pan table 111 so as to be rotatable about a horizontal axis. The camera C is supported by 112.
[0044]
The three-dimensional moving table 120 includes an
[0045]
The pan table 111 and the tilt table 112 are driven by a rotation driving device (not shown) such as a pulse motor, and can swing the visual axis of the camera C supported on the tilt table 112 up, down, left, and right. I have. A rotation angle measuring device (not shown) such as a rotary encoder is provided on the rotation axis of the pan table 111 and the tilt table 112 in order to obtain the visual axis angle of the camera C.
[0046]
The Y-
[0047]
The rotation driving device and the driving device (not shown) are controlled by a control device (not shown), and the visual axis angle of the camera C and the position of the point light source L measured by the rotation angle measuring device are as follows. It is assumed that it is configured to be able to be referred to by the control device.
[0048]
<Operation of calibration information generation device>
Further, with reference to FIG. 3 (see FIGS. 1 and 2 as appropriate), an operation in which the calibration
[0049]
First, the calibration
[0050]
Next, the calibration
[0051]
Then, the calibration
[0052]
The incident light R incident on the measurement pixel position can be specified by the relative positions of the light source position P1 and the light source position P2 in Steps S2 and S5.
[0053]
Here, a method of calculating the relative positions of the light source positions in step S2 and step S5 will be described with reference to FIG. 4 (see FIGS. 1 and 2 as appropriate). FIG. 4 is an explanatory diagram for explaining a relative relationship between a camera and a light source position due to pan / tilt.
[0054]
In FIG. 4, it is assumed that a camera C is mounted at a fixed reference position B of a camera support (rotary stage) 110. Here, the
[0055]
Here, the rotation center position OT, The coordinates of the light source position P before rotation are represented by (x1, Y1, Z1), The pan amount and the tilt amount, which are the rotation amounts, are θpanAnd θtiltThen the light source position P after rotationRCoordinates (Rx1, Ry1, Rz1) Can be obtained by equation (2).
[0056]
(Equation 1)
[0057]
As described above, by calculating the relative positions of the two light source positions after the rotation of the
[0058]
(Equation 2)
[0059]
Returning to FIG. 3, the description will be continued.
The calibration
[0060]
Then, the calibration
[0061]
The method of rotating the camera C in steps S1 and S4 will be further described with reference to FIG. 5 (see FIG. 2 as appropriate). FIG. 5 is a flowchart showing the operation of the calibration
[0062]
As shown in FIG. 5, the calibration
[0063]
Then, the calibration
[0064]
Here, the estimation of the peak position of the light intensity will be described with reference to FIG. FIG. 6 shows the pixel positions P (..., Pn-2, Pn-1, Pn, Pn + 1, Pn + 2,...), And the vertical axis represents the light intensity (light intensity I) at the pixel position P. As described above, the light intensity I has a spread centering on a certain imaging pixel.
[0065]
Therefore, the peak position P at which the light intensity is maximizedeIs the pixel position PnThe light intensity corresponding ton, Pixel position PnPixel position P adjacent ton-1And Pn + 1The light intensity corresponding ton-1And In + 1Then, it can be obtained by the equations (4) and (5).
[0066]
In-1≤In + 1in the case of:
Pe= Pn+ (In + 1−In-1) / $ 2 (In−In-1)}… (4)
[0067]
In-1> In + 1in the case of:
Pe= Pn+ (In + 1−In-1) / $ 2 (In−In + 1)}… (5)
[0068]
Note that this peak position PeIs estimated from the light intensities of the imaging pixels adjacent in the up, down, left, and right directions.
Returning to FIG. 5, the description will be continued.
[0069]
The calibration
[0070]
On the other hand, when the error is larger than the predetermined threshold (No), the error is converted into an angle value, and the rotation amount of the pan table 111 and the tilt table 112 is calculated (step S13). Then, the calibration
[0071]
As described above, the operation of the calibration
[0072]
In this case, the camera C is fixed, and the position of the point light source L in the Y direction and / or the Z direction is adjusted so that the light intensity of the incident light beam incident from the point light source L becomes maximum (peak) at the measurement pixel position. By moving the light source in the positive or negative direction, the light source position P1 is specified. Then, the distance between the point light source L and the camera C is changed (moved in the X direction), and the position of the point light source L is changed in the Y direction so that the light intensity of the incident light beam becomes maximum at the measurement pixel position, as described above. The light source position P2 is specified by moving in the positive or negative direction of the Z direction. As described above, by determining the light source position P1 and the light source position P2, the direction of the incident light beam R is specified. This operation is repeated for the number of measurement pixels, and the operations in steps S7 and S8 in FIG. 3 are performed, whereby a calibration table can be generated.
[0073]
[Configuration of position detection device]
Next, the position detecting device will be described with reference to FIG. FIG. 7 is a block diagram showing a configuration of the position detection device according to the embodiment of the present invention. The
[0074]
The image input means 10 is for inputting each captured image of the object (marker M) captured by the two cameras C. When a captured image is input as a moving image in chronological order, the camera C1And camera C2It is assumed that the captured images captured in are input to the image input means 10 in synchronization. The image input means 10 includes a camera C1And camera C2There is provided a memory (not shown) for temporarily storing each captured image captured in the step (a), and the captured image stored in this memory is referred to by a pixel position detecting means 20 described later.
[0075]
The pixel position detecting means 20 detects a pixel position corresponding to the target in each captured image input by the image input means 10. Here, the position of the center of gravity of the region captured as the marker M on the captured image is defined as the pixel position corresponding to the target. The pixel position of each captured image detected here is input to the position calculating means 30.
[0076]
The calibration table accumulating means (accumulating means) 30 is a general storage medium such as a memory, and accumulates as many calibration tables 31 as the number of cameras C in which the
As shown in FIG. 13, the calibration table (calibration information) 31b includes, as shown in FIG. Displacement VD(Dx, dy, dz) and directions (angles) α, γ are stored in association with each other.
Here, the calibration information is set to the displacement amount V for each imaging pixel.DAlthough described as a calibration table in which directions and directions (angles) α and γ are associated with each other, it may be expressed by a predetermined function or conversion formula.
[0077]
The
[0078]
The configuration of the
[0079]
Further, here, the position of the object is detected based on the images captured by the two cameras C. However, the position can be detected by using three or more cameras. For example, with nine cameras arranged in three rows and three columns, using the camera arranged in the center as a reference camera, detecting a position between the other eight cameras and averaging the eight positions Thus, the position of the target object can be detected more accurately.
[0080]
Note that each unit of the position detection device, that is, the
[0081]
[Operation of position detection device]
Next, the operation of the
First, the
[0082]
Then, the
[0083]
Here, the method of calculating the three-dimensional position of the object performed in step S23 will be specifically described with reference to FIG. 9 (refer to FIG. 7 as appropriate). FIG. 9 is an explanatory diagram for explaining a method of calculating the position of the target (marker M).
[0084]
In FIG. 9, the camera C1Of the camera C based on the displacement amount (obtained from the calibration table 31a) corresponding to the pixel position of the marker M in the captured image of1Corrected optical center O obtained by correcting the optical center of1To (x1, Y1, Z1). Also, camera C2Of the camera C based on the displacement amount (obtained from the calibration table 31b) corresponding to the pixel position of the marker M in the captured image of2Corrected optical center O obtained by correcting the optical center of2To (x2, Y2, Z2).
[0085]
Also, camera C1The direction of the incident light beam corresponding to the pixel position of the marker M in the captured image of FIG.1, Vertical angle γ1(Obtained from the calibration table 31a), and the camera C2The direction of the incident light beam corresponding to the pixel position of the marker M in the captured image of FIG.2, Vertical angle γ2(Obtained from the calibration table 31b). Where γ2Are not shown because they are not used.
In this case, the object position (Px, Py, Pz) Can be calculated by equations (6) to (8).
[0086]
Px= (X1tanα1-Y1-X2tanα2+ Y2) / (Tanα1+ Tanα2…… (6)
Py= (Px-X1) Tanα1+ Y1 … (7)
Pz= (Px-X1) Tanγ1+ Z1 … (8)
[0087]
With the above operation, the
In addition, it is also possible to use this
[0088]
【The invention's effect】
As described above, the position detecting method, the device, the program, and the calibration information generating method according to the present invention have the following excellent effects.
[0089]
According to the present invention, an incident light beam is input to a pixel corresponding to an object in each image before detecting a position of the object from a plurality of captured images. , The distortion (non-linearity) around the image can be fundamentally removed, and the accurate position of the object can be detected.
[0090]
According to the fourth aspect of the present invention, since the position of the target is detected by the marker, the position of the marker attached to the target is detected, so that three-dimensional data used in CG or the like can be easily obtained. it can. Since this marker position is a position detected by removing distortion (non-linearity) around the captured image, accurate three-dimensional data can be obtained by the present invention.
[0091]
According to the invention described in claim 6, it is possible to generate calibration information for each pixel, including the direction of the incident light beam and the amount of displacement of the incident light beam from the reference position (optical center). By using this calibration information as data indicating the characteristics of the camera (calibration data), for example, when detecting the position of an object with a plurality of cameras, it is possible to detect an accurate position.
[0092]
According to the invention described in claim 7, since the direction of the incident light can be specified by previously specifying the incident light and adjusting the pan and tilt of the camera, a wide-angle lens such as a fisheye lens is provided. Even a camera can easily generate calibration information.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram illustrating the principle of a method for generating calibration information according to the present invention.
FIG. 2 is an overall configuration diagram of a calibration information generation device that realizes a method of generating calibration information according to the present invention.
FIG. 3 is a flowchart illustrating an operation of a calibration information generation device for implementing a method of generating calibration information according to the present invention.
FIG. 4 is an explanatory diagram for explaining a relative relationship between a camera and a light source position due to pan / tilt.
FIG. 5 is a flowchart showing an operation of the calibration information generation device for specifying the direction of an incident light beam.
FIG. 6 is an explanatory diagram for explaining a method of estimating a peak position of light intensity.
FIG. 7 is a block diagram showing the overall configuration of the position detection device of the present invention.
FIG. 8 is a flowchart showing the operation of the position detection device of the present invention.
FIG. 9 is an explanatory diagram for explaining a method of calculating a three-dimensional position of an object.
FIG. 10 is an explanatory diagram for explaining the concept of a pinhole camera model.
FIG. 11 is an explanatory diagram for explaining a cause of occurrence of distortion in an image captured by a camera.
FIG. 12 is an explanatory diagram for explaining calibration data.
FIG. 13 is an explanatory diagram for explaining the contents of a calibration table.
[Explanation of symbols]
1 Position detection device
10 Image input means
20 Pixel position detecting means
30 Calibration table storage means (storage means)
31 (31a, 31b) Calibration table (calibration information)
40 Position calculation means
100 Calibration information generation device
110 Camera support
111 bread table
112 tilt table
120 3D mobile platform
121 X-axis rail
122 Y axis rail
123 Z axis rail
C camera
L point light source
Claims (7)
前記複数の画像を入力する画像入力ステップと、
この画像入力ステップで入力した各々の画像において、前記対象物に対応する画素位置を検出する画素位置検出ステップと、
この画素位置検出ステップで検出した画素位置に基づいて、前記較正情報から、その画素位置に対応する入射光線の方向及びその変位量を取得し、この入射光線の方向及びその変位量を利用して、前記対象物の位置を算出する位置算出ステップと、
を含んでいることを特徴とする位置検出方法。Pixel information of an image captured by a camera, calibration information that associates the direction of the incident light beam and the displacement amount from the reference position to the incident light beam is prepared for each of a plurality of cameras, and the object is scanned by the plurality of cameras. A position detection method for detecting the position of the target object based on the plurality of captured images and the calibration information,
An image input step of inputting the plurality of images,
In each image input in the image input step, a pixel position detecting step of detecting a pixel position corresponding to the object,
Based on the pixel position detected in the pixel position detection step, from the calibration information, the direction of the incident light beam corresponding to the pixel position and the amount of displacement thereof are obtained, and the direction of the incident light beam and the amount of displacement thereof are used. A position calculating step of calculating a position of the object;
A position detection method comprising:
前記複数の画像を入力する画像入力手段と、
この画像入力手段で入力された各々の画像において、前記対象物に対応する画素位置を検出する画素位置検出手段と、
前記画素位置と、前記対象物から入射される入射光線の方向及び基準位置から前記入射光線への変位量とを関連付けた較正情報を、前記複数のカメラ毎に蓄積した蓄積手段と、
前記画素位置検出手段で検出された画素位置に基づいて、前記較正情報から、その画素位置に対応する入射光線の方向及びその変位量を取得し、この入射光線の方向及びその変位量を利用して、前記対象物の位置を算出する位置算出手段と、
を備えたことを特徴とする位置検出装置。A position detection device that detects a position of the target based on a plurality of images of the target captured by a plurality of cameras,
Image input means for inputting the plurality of images,
In each image input by the image input means, a pixel position detecting means for detecting a pixel position corresponding to the object,
Accumulation means for accumulating calibration information in which the pixel position and the direction of the incident light beam incident from the object and the displacement amount from the reference position to the incident light beam are accumulated for each of the plurality of cameras;
Based on the pixel position detected by the pixel position detecting means, the direction of the incident light beam and the displacement amount corresponding to the pixel position are obtained from the calibration information, and the direction of the incident light beam and the displacement amount are used. Position calculation means for calculating the position of the object,
A position detecting device comprising:
前記複数の画像を入力する画像入力手段、
この画像入力手段で入力された各々の画像において、前記対象物の対応する画素位置を検出する画素位置検出手段、
この画素位置検出手段で検出された画素位置に基づいて、前記較正情報から、その画素位置に対応する入射光線の方向及びその変位量を取得し、この入射光線の方向及びその変位量を利用して、前記対象物の位置を算出する位置算出手段、
として機能させることを特徴とする位置検出プログラム。Calibration information that associates the pixel position of the image captured by the camera with the direction of the incident light beam and the amount of displacement from the specific reference position to the incident light beam is prepared for each of the plurality of cameras, and the plurality of cameras are used as target objects. Based on a plurality of images of the object and the calibration information, to detect the position of the object, a computer,
Image input means for inputting the plurality of images,
In each image input by the image input means, a pixel position detecting means for detecting a corresponding pixel position of the object,
Based on the pixel position detected by the pixel position detecting means, the direction of the incident light beam and the displacement amount corresponding to the pixel position are obtained from the calibration information, and the direction of the incident light beam and the displacement amount are used. Position calculation means for calculating the position of the object,
A position detection program characterized by functioning as:
第1光源位置から発光する光の強度が、前記カメラの測定画素で最も強くなるように、前記カメラの撮像方向を調整することで、前記カメラに対する前記第1光源位置の相対位置を測定する第1光源相対位置測定ステップと、
第2光源位置から発光する光の強度が、前記カメラの測定画素で最も強くなるように、前記カメラの撮像方向を調整することで、前記カメラに対する前記第2光源位置の相対位置を測定する第2光源相対位置測定ステップと、
前記第1光源位置及び前記第2光源位置の各相対位置に基づいて、前記測定画素に入射する入射光線を特定する入射光線特定ステップとを、測定画素数分繰り返し、
測定を行った画素位置毎に特定された入射光線に基づいて、前記基準位置から前記入射光線への変位量を算出し、前記画素位置に、前記入射光線の方向及び前記変位量を関連付けて前記較正情報とすることを特徴とする較正情報生成方法。A calibration information generation method for generating calibration information in which a pixel position of an image captured by a camera and a direction of an incident light beam and a displacement amount from the reference position to the incident light beam are associated with each other,
The relative position of the first light source position with respect to the camera is measured by adjusting the imaging direction of the camera so that the intensity of light emitted from the first light source position is the strongest at the measurement pixel of the camera. One light source relative position measuring step;
The relative position of the second light source position with respect to the camera is measured by adjusting the imaging direction of the camera so that the intensity of light emitted from the second light source position is the strongest at the measurement pixel of the camera. Two light source relative position measuring steps;
Based on each relative position of the first light source position and the second light source position, an incident light beam specifying step of specifying an incident light beam incident on the measurement pixel, is repeated by the number of measurement pixels,
Based on the incident light beam specified for each pixel position where the measurement was performed, the displacement amount from the reference position to the incident light beam was calculated, and the pixel position was associated with the direction of the incident light beam and the displacement amount. A method for generating calibration information, wherein the method is used as calibration information.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003103498A JP4077755B2 (en) | 2003-04-07 | 2003-04-07 | POSITION DETECTION METHOD, DEVICE THEREOF, PROGRAM THEREOF, AND CALIBRATION INFORMATION GENERATION METHOD |
| US10/806,547 US7627197B2 (en) | 2003-04-07 | 2004-03-23 | Position measurement method, an apparatus, a computer program and a method for generating calibration information |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003103498A JP4077755B2 (en) | 2003-04-07 | 2003-04-07 | POSITION DETECTION METHOD, DEVICE THEREOF, PROGRAM THEREOF, AND CALIBRATION INFORMATION GENERATION METHOD |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2004309318A true JP2004309318A (en) | 2004-11-04 |
| JP4077755B2 JP4077755B2 (en) | 2008-04-23 |
Family
ID=33466574
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2003103498A Expired - Fee Related JP4077755B2 (en) | 2003-04-07 | 2003-04-07 | POSITION DETECTION METHOD, DEVICE THEREOF, PROGRAM THEREOF, AND CALIBRATION INFORMATION GENERATION METHOD |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4077755B2 (en) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2008114531A1 (en) * | 2007-03-22 | 2008-09-25 | Honda Motor Co., Ltd. | Position detection method and position detection device |
| EP2068280A2 (en) | 2007-12-07 | 2009-06-10 | Honda Motor Co., Ltd. | Image processing apparatus, image processing method, image processing program and position detecting apparatus as well as mobile object having the same |
| JP2011120100A (en) * | 2009-12-04 | 2011-06-16 | Honda Motor Co Ltd | Method and device for camera calibration |
| JP2017535985A (en) * | 2014-09-03 | 2017-11-30 | ネクストブイアール・インコーポレイテッド | Method and apparatus for capturing, streaming and / or playing content |
| CN108426524A (en) * | 2018-03-12 | 2018-08-21 | 广东新宇智能装备有限公司 | A kind of polar ear detection device |
| CN110174645A (en) * | 2019-06-06 | 2019-08-27 | 歌尔股份有限公司 | Relative position detection method and detection device |
| KR102153486B1 (en) * | 2019-09-09 | 2020-09-08 | 한국건설기술연구원 | Multi-AVM Camera System and method for obtaining Construction Machine and Operator Position |
| CN116038719A (en) * | 2023-04-03 | 2023-05-02 | 广东工业大学 | A method, device and equipment for tracking and measuring the position and posture of the end of a mechanical arm |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8265376B2 (en) | 2008-07-21 | 2012-09-11 | Cognitens Ltd. | Method and system for providing a digital model of an object |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH09145320A (en) * | 1995-11-17 | 1997-06-06 | Minolta Co Ltd | Three-dimensional input camera |
| JP2001092968A (en) * | 1999-09-22 | 2001-04-06 | Fuji Heavy Ind Ltd | Stereo matching device, stereo matching method, and method of identifying corresponding point at infinity |
-
2003
- 2003-04-07 JP JP2003103498A patent/JP4077755B2/en not_active Expired - Fee Related
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH09145320A (en) * | 1995-11-17 | 1997-06-06 | Minolta Co Ltd | Three-dimensional input camera |
| JP2001092968A (en) * | 1999-09-22 | 2001-04-06 | Fuji Heavy Ind Ltd | Stereo matching device, stereo matching method, and method of identifying corresponding point at infinity |
Cited By (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008232950A (en) * | 2007-03-22 | 2008-10-02 | Honda Motor Co Ltd | Position detection method and position detection apparatus |
| US8295586B2 (en) | 2007-03-22 | 2012-10-23 | Honda Motor Co., Ltd. | Position detecting method and position detecting apparatus in consideration of non-pinhole characteristic of a camera |
| WO2008114531A1 (en) * | 2007-03-22 | 2008-09-25 | Honda Motor Co., Ltd. | Position detection method and position detection device |
| EP2068280A2 (en) | 2007-12-07 | 2009-06-10 | Honda Motor Co., Ltd. | Image processing apparatus, image processing method, image processing program and position detecting apparatus as well as mobile object having the same |
| US8295587B2 (en) | 2007-12-07 | 2012-10-23 | Honda Motor Co., Ltd. | Image processing apparatus, image processing method, image processing program and position detecting apparatus as well as mobile object having the same |
| JP2011120100A (en) * | 2009-12-04 | 2011-06-16 | Honda Motor Co Ltd | Method and device for camera calibration |
| US8885051B2 (en) | 2009-12-04 | 2014-11-11 | Honda Motor Co., Ltd. | Camera calibration method and camera calibration apparatus |
| US11122251B2 (en) | 2014-09-03 | 2021-09-14 | Apple Inc. | Methods and apparatus for receiving and/or playing back content |
| JP2017535985A (en) * | 2014-09-03 | 2017-11-30 | ネクストブイアール・インコーポレイテッド | Method and apparatus for capturing, streaming and / or playing content |
| US12081723B2 (en) | 2014-09-03 | 2024-09-03 | Nevermind Capital Llc | Methods and apparatus for receiving and/or playing back content |
| CN108426524A (en) * | 2018-03-12 | 2018-08-21 | 广东新宇智能装备有限公司 | A kind of polar ear detection device |
| CN110174645A (en) * | 2019-06-06 | 2019-08-27 | 歌尔股份有限公司 | Relative position detection method and detection device |
| KR102153486B1 (en) * | 2019-09-09 | 2020-09-08 | 한국건설기술연구원 | Multi-AVM Camera System and method for obtaining Construction Machine and Operator Position |
| CN116038719A (en) * | 2023-04-03 | 2023-05-02 | 广东工业大学 | A method, device and equipment for tracking and measuring the position and posture of the end of a mechanical arm |
| CN116038719B (en) * | 2023-04-03 | 2023-07-18 | 广东工业大学 | A method, device and equipment for tracking and measuring the position and posture of the end of a mechanical arm |
| US11919177B1 (en) | 2023-04-03 | 2024-03-05 | Guangdong University Of Technology | Tracking measurement method, apparatus and device for pose of tail end of manipulator |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4077755B2 (en) | 2008-04-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11825062B2 (en) | Motion blur compensation | |
| JP5132832B1 (en) | Measuring apparatus and information processing apparatus | |
| JP5140761B2 (en) | Method for calibrating a measurement system, computer program, electronic control unit, and measurement system | |
| JP2015057612A (en) | Device and method for performing non-contact measurement | |
| CN105306922B (en) | Acquisition methods and device of a kind of depth camera with reference to figure | |
| CN111402411A (en) | Scattered object identification and grabbing method based on line structured light | |
| CN112132891A (en) | Method for enlarging calibration space | |
| JP2014126381A (en) | Shape measurement device, structure fabrication system, shape measurement method, structure fabrication method and shape measurement program | |
| JP2014145735A (en) | Shape measurement device, structure production system, evaluation device, shape measurement method, structure production method, and shape measurement program | |
| CN112257536A (en) | Space and object three-dimensional information acquisition and matching equipment and method | |
| WO2018168757A1 (en) | Image processing device, system, image processing method, article manufacturing method, and program | |
| CN118918265A (en) | Three-dimensional reconstruction method and system based on monocular camera and line laser | |
| JP4077755B2 (en) | POSITION DETECTION METHOD, DEVICE THEREOF, PROGRAM THEREOF, AND CALIBRATION INFORMATION GENERATION METHOD | |
| CN115471562B (en) | TOF module calibration method, device and electronic equipment | |
| US11640680B2 (en) | Imaging system and a method of calibrating an image system | |
| JP5494267B2 (en) | Three-dimensional shape measuring apparatus, calibration method for three-dimensional shape measuring apparatus, and robot apparatus | |
| CN111210479B (en) | A laser-assisted calibration device and method for dimension measurement of parts with different heights | |
| JP2012163346A (en) | Apparatus and method for measuring surface shape | |
| CN103852031B (en) | A kind of electronic equipment and the method for measuring body form | |
| JP2012013592A (en) | Calibration method for three-dimensional shape measuring machine, and three-dimensional shape measuring machine | |
| JP2000205821A (en) | Instrument and method for three-dimensional shape measurement | |
| JP2024072284A (en) | 3D calibration method and apparatus for multi-view phase shift profilometry - Patents.com | |
| CN113251951B (en) | Calibration method of line structured light vision measurement system based on single calibration surface mapping | |
| JPH0835828A (en) | Calibration method of three-dimensional measuring apparatus | |
| JP6061631B2 (en) | Measuring device, information processing device, measuring method, information processing method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051130 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070912 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071024 |
|
| RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20071127 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071207 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20071128 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080129 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080201 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 4077755 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110208 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110208 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120208 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130208 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130208 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140208 Year of fee payment: 6 |
|
| LAPS | Cancellation because of no payment of annual fees |