JP2001245323A - Three-dimensional input method and device - Google Patents
Three-dimensional input method and deviceInfo
- Publication number
- JP2001245323A JP2001245323A JP2000052769A JP2000052769A JP2001245323A JP 2001245323 A JP2001245323 A JP 2001245323A JP 2000052769 A JP2000052769 A JP 2000052769A JP 2000052769 A JP2000052769 A JP 2000052769A JP 2001245323 A JP2001245323 A JP 2001245323A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- image
- camera
- light source
- posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 230000036544 posture Effects 0.000 claims description 51
- 238000003384 imaging method Methods 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 abstract description 23
- 238000012545 processing Methods 0.000 abstract description 17
- 230000010365 information processing Effects 0.000 abstract description 12
- 239000011159 matrix material Substances 0.000 description 55
- 238000010586 diagram Methods 0.000 description 13
- 238000005286 illumination Methods 0.000 description 11
- 238000005259 measurement Methods 0.000 description 10
- 239000013598 vector Substances 0.000 description 6
- 238000000354 decomposition reaction Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 101100366710 Arabidopsis thaliana SSL12 gene Proteins 0.000 description 1
- 102100022210 COX assembly mitochondrial protein 2 homolog Human genes 0.000 description 1
- 102100033040 Carbonic anhydrase 12 Human genes 0.000 description 1
- 101000900446 Homo sapiens COX assembly mitochondrial protein 2 homolog Proteins 0.000 description 1
- 101000867855 Homo sapiens Carbonic anhydrase 12 Proteins 0.000 description 1
- 101100366563 Panax ginseng SS13 gene Proteins 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、対象物を多視点か
ら撮像して得られる多視点画像または互いに異なる照射
方向で撮像して得た画像に基づいて対象物の3次元デー
タを得るための方法および装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for obtaining three-dimensional data of an object based on a multi-view image obtained by imaging the object from multiple viewpoints or an image obtained by imaging the object in different irradiation directions. Method and apparatus.
【0002】[0002]
【従来の技術】従来において、多視点画像に基き、因子
分解法によって対象物の3次元データ(3次元形状デー
タ)を求める方法が知られている(金出武雄教他、「因
子分解法による物体形状とカメラ運動の復元」電子情報
通信学会論文誌D−II,J76−D−II巻,第8号,1
993.8)。2. Description of the Related Art Conventionally, there has been known a method of obtaining three-dimensional data (three-dimensional shape data) of an object by a factor decomposition method based on a multi-viewpoint image (Kanede Takeo et al., "Factor Decomposition Method"). Restoration of Object Shape and Camera Motion "IEICE Transactions D-II, J76-D-II, No. 8, 1
993.8).
【0003】すなわち、この従来の方法によると、ま
ず、対象物に対して相対運動するカメラでF(Fは3以
上の整数)枚の画像を撮像する。1フレーム目(1枚
目) の画像から、対象物の角部などの顕著な特徴点をP
点抽出し、その動きをフレーム間において順次追跡す
る。That is, according to this conventional method, first, F (F is an integer of 3 or more) images are captured by a camera that moves relative to an object. From the image of the first frame (first image), remarkable feature points such as corners
Points are extracted, and the movement is sequentially tracked between frames.
【0004】特徴点pのfフレーム目の画像上での位置
を(xfp,yfp)とし、サイズ(2F×P)の計測行列
Wを次のように定義する。The position of the feature point p on the image of the f-th frame is (xfp, yfp), and a measurement matrix W of size (2F × P) is defined as follows.
【0005】[0005]
【数1】 (Equation 1)
【0006】行列Wの上半分は、画像中における各特徴
点のx座標であり、下半分はy座標である。各列は1個
の特徴点の追跡結果に相当し、各行は1枚の画像内の全
特徴点のx,y座標に対応する。[0006] The upper half of the matrix W is the x coordinate of each feature point in the image, and the lower half is the y coordinate. Each column corresponds to the tracking result of one feature point, and each row corresponds to the x, y coordinates of all the feature points in one image.
【0007】ここで、行列Wと、カメラ姿勢を示す行列
Mと、対象物の3次元位置を示す行列Sとの間には、次
の(1)式の関係がある。 W=M・S ……(1) ここで、カメラ姿勢を示す行列Mおよび対象物の3次元
位置を示す行列Sは次のように表される。Here, the following equation (1) is established between the matrix W, the matrix M indicating the camera posture, and the matrix S indicating the three-dimensional position of the object. W = M · S (1) Here, the matrix M indicating the camera posture and the matrix S indicating the three-dimensional position of the object are expressed as follows.
【0008】[0008]
【数2】 (Equation 2)
【0009】なお、rxi,ryi,rziは、物体座標系に
おけるカメラ姿勢を表す直交基底ベクトルであり、(X
i ,Yi ,Zi )は、物体座標系における対象物の3次
元座標である。Note that rxi, ryi, and rzi are orthogonal basis vectors representing the camera posture in the object coordinate system, and (X
i, Yi, Zi) are the three-dimensional coordinates of the object in the object coordinate system.
【0010】また、行列Wを因子分解するために、線形
代数における特異値分解の手法を用いる。つまり、行列
Wは次のように示される。 W=UΣV ここで、Uは2F×Pの直行行列、ΣはP×Pの対角行
列、VはP×Pの直行行列である。Σは次のように示さ
れる。In order to factorize the matrix W, a singular value decomposition technique in linear algebra is used. That is, the matrix W is expressed as follows. W = UΣV Here, U is a 2F × P orthogonal matrix, Σ is a P × P diagonal matrix, and V is a P × P orthogonal matrix. Σ is shown as follows.
【0011】[0011]
【数3】 (Equation 3)
【0012】このΣにおいて、その対角線上に並んだ0
でない対角要素σは、 σ1 ≧σ2 ≧… ≧σp ≧0 というように降順に並んでいる。行列Wの階数が3であ
れば、σ4 以降は0となる。一般には行列Wにノイズが
含まれるため、階数は必ずしも3とはならないが、σ4
以降の特異値は極めて小さいので、σ4 以降を0として
分解を行って最小2乗的意味での最良の近似解が得られ
る。In this Σ, the 0s on the diagonal line
The diagonal elements σ are not arranged in descending order as σ1 ≧ σ2 ≧... ≧ σp ≧ 0. If the rank of the matrix W is 3, it becomes 0 after σ4. Generally, since the matrix W contains noise, the rank is not necessarily 3 but σ4
Since the subsequent singular values are extremely small, decomposition is performed with σ4 and subsequent values set to 0 to obtain the best approximate solution in the least squares sense.
【0013】また、従来より、対象物に対する光源の位
置つまり照射方向(照明方向)を変えて撮像を行うこと
により、同じ対象物について複数の画像を取得し、取得
された複数の画像から対象物の3次元データを求める方
法、いわゆる照度差ステレオ法が知られている(特開平
6−341818号)。Conventionally, a plurality of images of the same object have been obtained by changing the position of the light source with respect to the object, that is, the irradiation direction (illumination direction), thereby obtaining a plurality of images of the same object. A method for obtaining the three-dimensional data, that is, a so-called photometric stereo method is known (Japanese Patent Laid-Open No. 6-341818).
【0014】この従来の方法では、カメラおよび対象物
を固定しておき、光源の照射方向を3方向以上に変える
ことによってF(Fは3以上の整数)枚以上の画像を得
る。得られた画像についての画像Iと、対象物の表面の
法線Sおよび光源の方向Lとの間には、次の(2)式の
関係がある。In this conventional method, F (F is an integer of 3 or more) images or more are obtained by fixing the camera and the object and changing the irradiation direction of the light source to three or more directions. The following equation (2) holds between the image I of the obtained image and the normal S of the surface of the object and the direction L of the light source.
【0015】I=S・L ……(2) ここで、画像、対象物の表面の法線、および光源の方向
を示す各行列I、S、Lは、次のように表される。I = S · L (2) Here, the matrices I, S, and L indicating the image, the normal to the surface of the object, and the direction of the light source are expressed as follows.
【0016】[0016]
【数4】 (Equation 4)
【0017】上のように、各画像のサイズがP(≧3)
画素であり、これら各画素の値によって画像行列Iが定
義される。また、(SiX,SiY,SiZ)は、物体座標系
における照明の方向ベクトルであり、(l Xi,l Yi,l
Zi)は、ある画素が注目する対象物上の点の法線方向で
ある。As described above, the size of each image is P (≧ 3)
The image matrix I is defined by the value of each pixel. (SiX, SiY, SiZ) is a direction vector of illumination in the object coordinate system, and (l Xi, l Yi, l
Zi) is the normal direction of a point on the object to which a certain pixel focuses.
【0018】[0018]
【発明が解決しようとする課題】しかし、上に述べた前
者の方法では、多視点画像から構成した行列Wのみを用
い、この行列Wに数学的処理を施すことによって、カメ
ラ姿勢を示す行列Mおよび対象物の3次元位置を示す行
列Sを計算する。However, in the former method described above, only a matrix W composed of multi-viewpoint images is used, and the matrix W is subjected to mathematical processing to obtain a matrix M indicating the camera posture. Then, a matrix S indicating the three-dimensional position of the object is calculated.
【0019】そのため、行列Wの数学的処理のための演
算量が多く、その処理のために時間を要する。また、行
列Wのみを用いるため、行列Wに誤差がある場合にはそ
の影響が大きい。Therefore, the amount of calculation for the mathematical processing of the matrix W is large, and the processing requires time. Further, since only the matrix W is used, if there is an error in the matrix W, the effect is large.
【0020】また、上に述べた後者の方法では、対象物
についての陰影の異なる複数の画像から構成した行列I
のみを用い、この行列Iに数学的処理を施すことによっ
て、対象物の表面の法線および光源の方向を示す各行列
S、Lを計算する。In the latter method, the matrix I composed of a plurality of images of the object with different shadings is used.
The matrix S is subjected to mathematical processing to calculate the respective matrices S and L indicating the normal to the surface of the object and the direction of the light source.
【0021】そのため、行列Iの数学的処理のための演
算量が多く、その処理のために時間を要する。本発明
は、上述の問題に鑑みてなされたもので、演算量を少な
くして処理時間を短縮することを目的とする。Therefore, the amount of calculation for the mathematical processing of the matrix I is large, and the processing requires time. The present invention has been made in view of the above-described problem, and has as its object to reduce the amount of calculation and shorten the processing time.
【0022】[0022]
【課題を解決するための手段】請求項1の発明に係る方
法は、撮像手段と対象物との相対的な姿勢を変えて対象
物を最像し2次元の画像を得るステップと、前記画像か
ら特徴点を抽出し、抽出した特徴点の画像空間上の位置
を決定するステップと、複数の画像についての前記特徴
点の位置と前記姿勢とから前記対象物の3次元形状を復
元するステップと、を有する。According to a first aspect of the present invention, there is provided a method for obtaining a two-dimensional image by changing the relative posture between an image pickup means and an object to obtain a two-dimensional image of the object. Extracting a feature point from the image, determining the position of the extracted feature point in the image space, and restoring the three-dimensional shape of the object from the position and the attitude of the feature point for a plurality of images. And
【0023】請求項2の発明に係る装置は、対象物を最
像して2次元の画像を得る撮像手段と、前記画像から特
徴点を抽出し、抽出した特徴点の画像空間上の位置を決
定する手段と、前記撮像手段と前記対象物との相対的な
姿勢を計測する手段と、互いに異なる複数の姿勢で撮像
して得た複数の画像についての、前記特徴点の位置と前
記姿勢とから、前記対象物の3次元形状を最小2乗的に
復元する手段と、を有する。According to a second aspect of the present invention, there is provided an image pickup device for obtaining a two-dimensional image by re-image of an object, extracting a feature point from the image, and determining a position of the extracted feature point in an image space. Means for determining, means for measuring the relative attitude of the imaging means and the object, and for a plurality of images obtained by imaging in a plurality of different attitudes, the position of the feature point and the attitude Means for restoring the three-dimensional shape of the object to the least squares.
【0024】請求項3の発明に係る装置では、前記撮像
手段と前記対象物との相対的な姿勢を変更する姿勢変更
手段を有する。請求項4の発明に係る装置では、前記姿
勢変更手段をプログラムによって制御する手段を有す
る。The apparatus according to a third aspect of the present invention has an attitude changing means for changing a relative attitude between the imaging means and the object. The apparatus according to the fourth aspect of the present invention has a means for controlling the attitude changing means by a program.
【0025】請求項5の発明に係る装置では、前記特徴
点を得るためのパターン光を前記対象物に投影する手段
を有する。請求項6の発明に係る方法は、光源による照
射方向を変えて対象物を撮像することによって複数の2
次元の画像を得るステップと、得られた複数の画像と撮
像時の光源の照射方向とから前記対象物の3次元形状を
復元するステップと、を有する。According to a fifth aspect of the present invention, there is provided an apparatus for projecting pattern light for obtaining the characteristic point onto the object. The method according to the invention of claim 6 is a method for imaging a plurality of 2D objects by imaging an object by changing the irradiation direction of the light source.
A step of obtaining a three-dimensional shape of the object from a plurality of obtained images and an irradiation direction of a light source at the time of imaging.
【0026】請求項7の発明に係る装置は、対象物を最
像して2次元の画像を得る撮像手段と、前記対象物を照
明するための、前記対象物への照射方向が可変な光源
と、前記光源の前記対象物への照射方向を計測する手段
と、互いに異なる複数の照射方向で撮像して得た複数の
画像と撮像時の光源の照射方向とから、前記対象物の3
次元形状を最小2乗的に復元する手段と、を有する。According to a seventh aspect of the present invention, there is provided an image pickup means for obtaining a two-dimensional image by re-image of an object, and a light source for illuminating the object, the irradiation direction of the object being variable. Means for measuring the irradiation direction of the light source on the object, and a plurality of images obtained by imaging in a plurality of different irradiation directions and the irradiation direction of the light source at the time of imaging,
Means for restoring the dimensional shape to a least square.
【0027】[0027]
【発明の実施の形態】〔第1実施形態〕図1は本発明に
係る第1実施形態の3次元入力装置1の概略の構成を示
すブロック図である。[First Embodiment] FIG. 1 is a block diagram showing a schematic configuration of a three-dimensional input device 1 according to a first embodiment of the present invention.
【0028】図1において、3次元入力装置1は、カメ
ラ11、カメラ移動装置12、カメラ姿勢計測部13、
形状情報処理部14、物体形状計算部15、姿勢制御部
16、およびパターン投影部17a,17bなどからな
る。In FIG. 1, a three-dimensional input device 1 includes a camera 11, a camera moving device 12, a camera posture measuring unit 13,
It comprises a shape information processing unit 14, an object shape calculation unit 15, an attitude control unit 16, and pattern projection units 17a and 17b.
【0029】対象物Qは、物体座標系の所定の位置に固
定される。カメラ11は対象物Qを撮像し、画像データ
DAを出力する。カメラ11はカメラ移動装置12によ
って移動可能である。The object Q is fixed at a predetermined position in the object coordinate system. The camera 11 captures an image of the object Q and outputs image data DA. The camera 11 can be moved by a camera moving device 12.
【0030】カメラ移動装置12は、姿勢制御部16の
制御によって、またはユーザによる入力操作によって、
カメラ11の位置および姿勢を変更する。なお、本明細
書においては、位置もしくは姿勢、またはこれらの両方
を指して、「姿勢」と記載することがある。The camera moving device 12 is controlled by the attitude control unit 16 or by a user's input operation.
The position and orientation of the camera 11 are changed. In the present specification, a position or a posture or both of them may be referred to as a “posture”.
【0031】姿勢制御部16は、カメラ11の姿勢を変
更し、且つ種々の姿勢においてカメラ11による撮像を
行うために、予め作成されたプログラムを保持してい
る。そのようなプログラムは、例えば、カメラ11が対
象物Qを上下および左右のいつも決まった方向から撮像
を行うように制御する。The attitude control unit 16 holds a program created in advance for changing the attitude of the camera 11 and performing imaging by the camera 11 in various attitudes. Such a program controls, for example, the camera 11 to take an image of the object Q from upper, lower, left, and right directions.
【0032】姿勢制御部16は、また、ユーザが指示ま
たは入力操作を行うための操作ボタンまたはキーなどを
有している。カメラ移動装置12として、例えば、移動
量および回転量を精密に制御可能なステージが用いられ
る。カメラ11を移動することによって、カメラ11と
対象物Qとの相対的な姿勢が変更される。The attitude control unit 16 also has operation buttons or keys for the user to perform an instruction or input operation. As the camera moving device 12, for example, a stage capable of precisely controlling the amount of movement and the amount of rotation is used. By moving the camera 11, the relative attitude between the camera 11 and the object Q is changed.
【0033】カメラ姿勢計測部13は、カメラ11の姿
勢を計測し、姿勢データDTを出力する。対象物Qは固
定されているので、カメラ11の姿勢を計測することに
より、カメラ11と対象物Qとの相対的な姿勢が計測さ
れる。カメラ姿勢計測部13は、カメラ移動装置12ま
たは姿勢制御部16から出力される制御信号に基づいて
姿勢を計測してもよい。また、カメラ11またはステー
ジに取り付けられた6軸計測アーム、磁気センサ、加速
度センサ、ジャイロ、またはこれらの組合せなどであっ
てもよい。The camera posture measuring unit 13 measures the posture of the camera 11 and outputs posture data DT. Since the object Q is fixed, the relative attitude between the camera 11 and the object Q is measured by measuring the attitude of the camera 11. The camera posture measuring unit 13 may measure the posture based on a control signal output from the camera moving device 12 or the posture control unit 16. Further, a six-axis measuring arm attached to the camera 11 or the stage, a magnetic sensor, an acceleration sensor, a gyro, or a combination thereof may be used.
【0034】パターン投影部17a,17bは、特に対
象物Qがボールのように角部や模様あ少ない場合に、対
象物Qの画像から特徴点を得るためのパターン光を対象
物Qに投影するためのものである。パターン光として、
例えば水玉模様のドットパターンまたは格子パターンな
どが用いられる。パターン投影部17は、対象物Qの付
近に設置され、対象物Qの表面上に常に一定のパターン
が現れるように投影する。パターン投影部17の個数
は、1つでも複数でもよい。The pattern projection units 17a and 17b project the pattern light for obtaining the characteristic points from the image of the object Q, particularly when the object Q has few corners or patterns like a ball. It is for. As pattern light,
For example, a polka dot pattern or a lattice pattern is used. The pattern projecting unit 17 is installed near the target object Q and projects so that a constant pattern always appears on the surface of the target object Q. The number of pattern projection units 17 may be one or more.
【0035】形状情報処理部14は、入力される画像
(画像データDA)から特徴点を抽出し、抽出した特徴
点の画像空間上の位置を決定する。物体形状計算部15
は、複数の画像に基づいて、特徴点の位置とカメラ11
の姿勢(姿勢データDT)とから、対象物Qの3次元形
状を最小2乗的に演算によって復元する。The shape information processing section 14 extracts feature points from the input image (image data DA) and determines the positions of the extracted feature points in the image space. Object shape calculator 15
Is based on a plurality of images, and based on the positions of the feature points and the camera 11
From the posture (posture data DT), the three-dimensional shape of the object Q is reconstructed in a least-squares manner by calculation.
【0036】形状情報処理部14および物体形状計算部
15などは、例えば、処理プログラムが格納されたRO
M、およびそのプログラムを実行するCPUなどによっ
て構成される。また、パーソナルコンピュータ又はワー
クステーションなどを用いて構成することも可能であ
る。プログラムおよびデータは、ハードディスク、光磁
気ディスク、フロッピィディスクなどの種々の記録媒体
により提供され、または格納することが可能である。The shape information processing unit 14 and the object shape calculation unit 15 are provided with, for example, an RO storing a processing program.
M and a CPU that executes the program. It is also possible to use a personal computer, a workstation, or the like. The programs and data can be provided or stored by various recording media such as a hard disk, a magneto-optical disk, and a floppy disk.
【0037】カメラ移動装置12によってカメラ11が
所定の姿勢で位置決めされたタイミングで、または移動
中の適当なタイミングで、カメラ11による対象物Qの
撮像が行われる。撮像は、対象物Qに対して少なくとも
3つの方向から行われる。得られた複数の画像データD
A、および姿勢データDTに基づいて、形状情報処理部
14および物体形状計算部15での演算処理が行われ、
3次元データDCが生成される。An image of the object Q is taken by the camera 11 at a timing when the camera 11 is positioned in a predetermined posture by the camera moving device 12 or at an appropriate timing during the movement. Imaging is performed on the object Q from at least three directions. A plurality of obtained image data D
Based on A and the posture data DT, arithmetic processing is performed in the shape information processing unit 14 and the object shape calculation unit 15,
Three-dimensional data DC is generated.
【0038】図2は3次元入力装置1の形状情報処理部
14のブロック図である。図2において、形状情報処理
部14は、特徴点抽出部21、特徴点対応付け部22、
および特徴点追跡部23を有する。FIG. 2 is a block diagram of the shape information processing section 14 of the three-dimensional input device 1. 2, the shape information processing unit 14 includes a feature point extracting unit 21, a feature point associating unit 22,
And a feature point tracking unit 23.
【0039】特徴点抽出部21は、入力される画像デー
タDAの各フレーム(各画像)について、それぞれ特徴
点の抽出を行う。すなわち、対象物Qの角部、模様など
を特徴点として抽出する。パターン投影部17によって
パターン光を投影した場合は、水玉模様または格子点な
どを特徴点とする。The feature point extracting section 21 extracts a feature point for each frame (each image) of the input image data DA. That is, corners, patterns, and the like of the object Q are extracted as feature points. When pattern light is projected by the pattern projection unit 17, a polka dot pattern or a lattice point is set as a feature point.
【0040】さらに具体的には、画像中に多数の注目点
を設定し、各注目点を中心とするその周囲の複数画素か
らなる小領域について、その小領域中においてある程度
強い縦の濃度エッジ成分と横の濃度エッジ成分とが適当
に混在しているような点を特徴点とする。More specifically, a large number of points of interest are set in an image, and a small area composed of a plurality of pixels around each point of interest has a somewhat strong vertical density edge component in the small area. A feature point is such that the horizontal density edge component and the horizontal density edge component are appropriately mixed.
【0041】特徴点対応付け部22は、各フレームで抽
出された特徴点について、フレーム間での対応付けを行
う。つまり、あるフレームを基準画像とし、次のフレー
ムを参照画像としたとき、基準画像の特徴点が参照画像
ではどこに対応するかを求める。The feature point associating unit 22 associates feature points extracted in each frame between frames. That is, when a certain frame is used as a reference image and the next frame is used as a reference image, it is determined where the feature points of the reference image correspond in the reference image.
【0042】さらに具体的には、基準画像および参照画
像の中に所定の大きさの探索ウインドウ領域を設定し、
次の(3)式で示す相関関数を利用し、相関値の高い点
を2次元探索する。この処理を1フレーム目から順に全
フレームについて行う。More specifically, a search window area having a predetermined size is set in the reference image and the reference image,
A point having a high correlation value is two-dimensionally searched using a correlation function expressed by the following equation (3). This process is performed for all frames in order from the first frame.
【0043】[0043]
【数5】 (Equation 5)
【0044】ここで、Il (x,y)、Ir(x,y)
は、それぞれ基準画像および参照画像の点(x,y)で
の画像濃度を表している。また、al ,arおよびvl
,vrは、それぞれウインドウ領域内の平均または分
散を表す。左辺のCは、基準画像および参照画像の2d
×2dのウインドウ領域内のパターンの類似度を表して
いる。Here, Il (x, y) and Ir (x, y)
Represents the image density at the point (x, y) of the reference image and the reference image, respectively. Also, al, ar and vl
, Vr respectively represent the average or variance within the window area. C on the left side is 2d of the reference image and the reference image.
It represents the similarity of the pattern in the window area of × 2d.
【0045】特徴点追跡部23は、フレーム間の対応関
係を利用して、ある1個の特徴点について全フレームを
通した画像中の位置を列挙し、特徴点の軌跡データDB
を構成(生成)して出力する。この処理をすべての特徴
点について行う。The feature point tracking unit 23 enumerates the positions of one certain feature point in the image through all the frames using the correspondence between the frames, and stores the locus data DB of the feature points.
Is constructed (generated) and output. This process is performed for all feature points.
【0046】図3は3次元入力装置1の物体形状計算部
15のブロック図である。図3において、物体形状計算
部15は、計測行列構成部31、カメラ姿勢行列構成部
32、および3次元位置演算部33を有する。FIG. 3 is a block diagram of the object shape calculator 15 of the three-dimensional input device 1. In FIG. 3, the object shape calculation unit 15 includes a measurement matrix configuration unit 31, a camera attitude matrix configuration unit 32, and a three-dimensional position calculation unit 33.
【0047】計測行列構成部31は、3点以上の特徴点
の軌跡データDBを元にして、従来技術の項で説明した
行列Wを構成する。オクルージョンなどによってカメラ
11から対象物Qの特徴点が見えなくなったり、今まで
見えなかった新しい特徴点が出現した場合は、行列Wの
部分行列を作成し、別途その物体形状を計算する。The measurement matrix forming unit 31 forms the matrix W described in the related art section based on the locus data DB of three or more feature points. When the feature point of the object Q becomes invisible from the camera 11 due to occlusion or the like or a new feature point that has not been seen appears, a sub-matrix of the matrix W is created, and the object shape is calculated separately.
【0048】カメラ姿勢行列構成部32は、従来技術の
項で説明したカメラ姿勢を示す行列Mを構成する。すな
わち、姿勢データDTに基づいて、物体座標系における
カメラ姿勢を表す直交基底ベクトルを計算する。The camera posture matrix forming section 32 forms a matrix M indicating the camera posture described in the section of the prior art. That is, based on the posture data DT, an orthogonal basis vector representing the camera posture in the object coordinate system is calculated.
【0049】3次元位置演算部33は、計測行列構成部
31からの行列Wおよびカメラ姿勢行列構成部32から
の行列Mに基づいて、対象物Qの対象物の3次元位置を
示す行列Sを演算する。演算に当たって、行列Mの逆行
列M-1を求め、これを上の(1)式の両辺に左からかけ
る。これによって行列Sが求まる。つまり、 S=M-1・W となる。これにより、行列Sの要素の最適値を最小2乗
法を用いて求める。最小2乗法を用いた演算方法自体は
公知の方法を用いる。Based on the matrix W from the measurement matrix construction unit 31 and the matrix M from the camera posture matrix construction unit 32, the three-dimensional position calculation unit 33 calculates a matrix S indicating the three-dimensional position of the object Q. Calculate. In the calculation, an inverse matrix M −1 of the matrix M is obtained, and the obtained result is applied to both sides of the above equation (1) from the left. Thereby, the matrix S is obtained. That is, S = M -1 · W. Thereby, the optimum value of the element of the matrix S is obtained by using the least squares method. The calculation method itself using the least squares method uses a known method.
【0050】図4は3次元入力装置1による処理の流れ
を示すフローチャートである。図4において、まず、カ
メラ11によって対象物Qを撮像して複数の画像データ
DAを得る(#11)。そのときに、カメラ11と対象
物Qとの相対位置関係を示す姿勢データDTを取得する
(#12)。各2次元画像DAについて、特徴点を抽出
し、その位置を求める(#13)。特徴点の位置と姿勢
データDTとに基づいて、最小2乗法を用いて3次元デ
ータDCを求める(#14)。FIG. 4 is a flowchart showing the flow of processing by the three-dimensional input device 1. In FIG. 4, first, the object Q is imaged by the camera 11 to obtain a plurality of image data DA (# 11). At this time, posture data DT indicating the relative positional relationship between the camera 11 and the object Q is obtained (# 12). For each two-dimensional image DA, a feature point is extracted and its position is obtained (# 13). Based on the position of the feature point and the posture data DT, three-dimensional data DC is obtained by using the least squares method (# 14).
【0051】このように、本実施形態の3次元入力装置
1によると、対象物Qについての複数の画像データDA
と、カメラ11と対象物Qとの相対位置関係を示す姿勢
データDTとを入力し、これらのデータに基づいて全画
素および全位置の姿勢データを利用したマトリクス演算
を行い、最小2乗的な近似解によって3次元データDC
を求めるので、行列Mの逆行列M-1を求める程度の少な
い演算量で短時間で3次元データDCを求めることがで
きる。As described above, according to the three-dimensional input device 1 of the present embodiment, a plurality of image data DA
And posture data DT indicating the relative positional relationship between the camera 11 and the object Q, and based on these data, a matrix operation using the posture data of all pixels and all positions is performed. 3D data DC by approximate solution
Is obtained, the three-dimensional data DC can be obtained in a short time with a small amount of calculation for obtaining the inverse matrix M −1 of the matrix M.
【0052】因みに、従来の因子分解法または多視点ス
テレオ法では、計算量が多く、3次元データの算出に時
間を要するが、本実施形態では逆行列の計算で済むため
短時間で処理が行われ、高速化が図られる。In the conventional factorization method or multi-view stereo method, the amount of calculation is large and it takes time to calculate three-dimensional data. However, in the present embodiment, the processing is performed in a short time because the calculation of the inverse matrix is sufficient. Speedup is achieved.
【0053】また、対象物Qについての多数の視点から
の画像および多数の特徴点、並びに姿勢データDTを利
用するので、行列Wの誤差およびカメラ姿勢の計測誤差
が緩和され、最小2乗的な意味で最良の近似解が得ら
れ、高精度な3次元データDCを得ることができる。 〔第2実施形態〕図5は本発明に係る第2実施形態の3
次元入力装置1Bの概略の構成を示すブロック図、図6
は対象物Qの移動方法の例を説明するための図である。Further, since the image of the object Q from many viewpoints and many feature points and the posture data DT are used, the error of the matrix W and the measurement error of the camera posture are reduced, and the least squares In this sense, the best approximate solution can be obtained, and highly accurate three-dimensional data DC can be obtained. [Second Embodiment] FIG. 5 shows a third embodiment of the present invention.
FIG. 6 is a block diagram showing a schematic configuration of a dimension input device 1B.
FIG. 4 is a diagram for describing an example of a method of moving a target object Q.
【0054】第2実施形態では、第1実施形態のように
カメラ11を移動するのではなく、カメラ11を固定し
ておき、対象物Qを移動する。すなわち、図5におい
て、3次元入力装置1Bは、カメラ11、形状情報処理
部14、物体形状計算部15、姿勢制御部16、対象物
移動装置12B、および対象物姿勢計測部13Bなどか
らなる。In the second embodiment, instead of moving the camera 11 as in the first embodiment, the camera 11 is fixed and the object Q is moved. That is, in FIG. 5, the three-dimensional input device 1B includes a camera 11, a shape information processing unit 14, an object shape calculation unit 15, a posture control unit 16, an object moving device 12B, an object posture measurement unit 13B, and the like.
【0055】対象物Qは、テーブルTBの所定の位置に
固定される。テーブルTBは、対象物移動装置12Bに
よって、x,y,zの各軸方向に沿った3次元方向への
平行移動、各軸を中心とした回転移動などが可能であ
る。テーブルTBの移動にともなって物体座標系が移動
する。The object Q is fixed at a predetermined position on the table TB. The table TB can be moved in a three-dimensional direction along the x, y, and z axes by the object moving device 12B, and can be rotated around each axis. The object coordinate system moves with the movement of the table TB.
【0056】対象物姿勢計測部13Bは、テーブルTB
の姿勢つまり対象物Qの姿勢を計測し、姿勢データDT
bを出力する。カメラ11は固定されているので、対象
物Qの姿勢を計測することにより、カメラ11と対象物
Qとの相対的な姿勢が計測される。The object posture measuring unit 13B includes a table TB
Is measured, that is, the posture of the object Q, and the posture data DT
b is output. Since the camera 11 is fixed, by measuring the attitude of the object Q, the relative attitude between the camera 11 and the object Q is measured.
【0057】形状情報処理部14および物体形状計算部
15は、第1実施形態で説明したものと同様である。第
1実施形態で用いたようなパターン投影部17を用いる
場合には、対象物Q上のパターンを常に一定にするた
め、操作部17をテーブルTBと一体的に移動させる。The shape information processing unit 14 and the object shape calculation unit 15 are the same as those described in the first embodiment. When using the pattern projection unit 17 as used in the first embodiment, the operation unit 17 is moved integrally with the table TB in order to keep the pattern on the target object Q constant.
【0058】第2実施形態の3次元入力装置1Bでは、
対象物移動装置12Bによって対象物Qを移動させまた
は回転させながら、固定したカメラ11で撮像する。対
象物姿勢計測部13Bは、カメラ11のフレーム周期と
同期して対象物Qの移動量を計測し、その移動量から物
体座標系におけるカメラ11の姿勢を計算する。In the three-dimensional input device 1B of the second embodiment,
While moving or rotating the object Q by the object moving device 12B, an image is taken by the fixed camera 11. The object posture measurement unit 13B measures the amount of movement of the object Q in synchronization with the frame period of the camera 11, and calculates the posture of the camera 11 in the object coordinate system from the amount of movement.
【0059】形状情報処理部14は、カメラ11で撮像
した画像から特徴点の軌跡データDBを出力する。物体
形状計算部15は、特徴点の軌跡データDBおよび姿勢
データDTbから、対象物Qの3次元データDCを最小
2乗的に演算して出力する。The shape information processing section 14 outputs locus data DB of characteristic points from an image taken by the camera 11. The object shape calculation unit 15 calculates the three-dimensional data DC of the target object Q from the trajectory data DB and the posture data DTb of the feature points in a least-square manner and outputs the result.
【0060】ところで、対象物Qを移動させるに当たっ
て、通常は平行移動と回転とを組み合わせる。平行移動
のみ、または回転のみでは、対象物Qの3次元形状の復
元を正確に行えないことがあるからである。When the object Q is moved, the translation and the rotation are usually combined. This is because the three-dimensional shape of the target object Q may not be accurately restored only by the translation or the rotation.
【0061】また、図6に示すような円柱状の対象物Q
1、または立方体の対象物Qでは、形状が単純であるの
でオクルージョンが発生し難い。このような場合には、
対象物Qの移動は1通りで十分であるので、そのような
単純な対象物Qに対して標準的に定められた所定のプロ
グラムにしたがって対象物Q1を移動させるだけでもよ
い。 〔第3実施形態〕図7は本発明に係る第3実施形態の3
次元入力装置1Cの概略の構成を示すブロック図であ
る。A columnar object Q as shown in FIG.
In the case of 1 or a cubic object Q, occlusion hardly occurs because the shape is simple. In such a case,
Since only one movement of the object Q is sufficient, the object Q1 may be simply moved according to a predetermined program standardized for such a simple object Q. [Third Embodiment] FIG. 7 shows a third embodiment according to the present invention.
It is a block diagram showing a schematic configuration of a dimension input device 1C.
【0062】第3実施形態では、第1および第2の実施
形態のようにカメラ11または対象物Qを移動するので
はなく、それらは固定しておき、対象物Qを照明する照
明装置を移動する。In the third embodiment, instead of moving the camera 11 or the object Q as in the first and second embodiments, they are fixed, and the lighting device for illuminating the object Q is moved. I do.
【0063】すなわち、図7において、3次元入力装置
1Cは、カメラ11、物体形状復元部10、光源18、
光源移動装置19、および照明方向計測部20から構成
される。That is, in FIG. 7, the three-dimensional input device 1C includes a camera 11, an object shape restoring unit 10, a light source 18,
It comprises a light source moving device 19 and an illumination direction measuring unit 20.
【0064】光源18が対象物Qを照射することによっ
て、対象物Qが照明される。光源18は光源移動装置1
9によって移動可能であり、これによって、対象物Qへ
の照射方向及び照射位置が可変される。光源18による
照射方向を3方向以上に変えて、そのときどきの対象物
Qをカメラ11で撮像することにより、3つ以上の画像
を取得する。カメラ11から得られた画像データDA
は、物体形状復元部10に入力される。When the light source 18 irradiates the object Q, the object Q is illuminated. The light source 18 is the light source moving device 1
9, the irradiation direction and the irradiation position on the object Q can be changed. The direction of irradiation by the light source 18 is changed to three or more directions, and three or more images are acquired by imaging the target object Q with the camera 11 at that time. Image data DA obtained from camera 11
Is input to the object shape restoration unit 10.
【0065】照明方向計測部20は、カメラ11のフレ
ーム周期と同期して、物体座標系における光源18の方
向ベクトルを計測する。計測された方向ベクトルは、対
象物Qに対する光源18の姿勢を示す姿勢データDTc
として物体形状復元部10に入力される。The illumination direction measuring unit 20 measures the direction vector of the light source 18 in the object coordinate system in synchronization with the frame period of the camera 11. The measured direction vector is posture data DTc indicating the posture of the light source 18 with respect to the object Q.
Is input to the object shape restoration unit 10.
【0066】照明方向計測部20は、光源移動装置19
から出力される制御信号、例えば光源18を移動させる
ための精密に制御されるステージからの信号に基づいて
光源18の姿勢を計測してもよい。また、光源18に取
り付けられた磁気センサ、加速度センサ、ジャイロ、ま
たはこれらの組合せなどで計測してもよい。The illumination direction measuring unit 20 includes the light source moving device 19
The attitude of the light source 18 may be measured based on a control signal output from the controller, for example, a signal from a precisely controlled stage for moving the light source 18. Alternatively, the measurement may be performed by a magnetic sensor, an acceleration sensor, a gyro, a combination thereof, or the like attached to the light source 18.
【0067】なお、光源移動装置19は、所定のプログ
ラムにしたがって光源18を移動させる場合もある。こ
のように、対象物Qによらずいつも決まった方向から照
明を行う例が図8に示されている。The light source moving device 19 may move the light source 18 according to a predetermined program. FIG. 8 shows an example in which illumination is always performed from a fixed direction regardless of the object Q.
【0068】図8において、対象物Qに対し、光源18
の姿勢を変えることによって矢印で示す種々の方向から
照明を行い、それぞれの状態においてカメラ11で撮像
して画像を得る。但し、照明を行う際に、光源方向の単
位ベクトルが同一平面上にないことが条件となる。In FIG. 8, a light source 18
By changing the posture of the camera, illumination is performed from various directions indicated by arrows, and images are obtained by capturing images with the camera 11 in each state. However, when lighting is performed, a condition is that the unit vectors in the light source direction are not on the same plane.
【0069】そして、物体形状復元部10では、画像デ
ータDAに対して必要な画像処理を行い、対象物Qの3
次元データDCを算出する。3次元データDCの算出に
当たっては、画像行列Iの行成分iN1,iN2,…iNF
(1≦N≦P)が、常に同じ点を見ているように行列I
を構成する。Then, the object shape restoring section 10 performs necessary image processing on the image data DA,
Calculate the dimension data DC. In calculating the three-dimensional data DC, the row components iN1, iN2,.
(1 ≦ N ≦ P), the matrix I
Is configured.
【0070】そして、光源の方向を示す行列Lの逆行列
L-1を求め、これを上の(2)式の両辺に左からかけ
る。これによって行列Sが求まる。つまり、S=I・L
-1となる。これにより、行列Sの要素の最適値を最小2
乗法を用いて求める。Then, an inverse matrix L -1 of the matrix L indicating the direction of the light source is obtained, and this is applied to both sides of the above equation (2) from the left. Thereby, the matrix S is obtained. That is, S = I · L
It becomes -1 . As a result, the optimal value of the element of the matrix S is set to at least 2
It is determined using multiplication.
【0071】対象物Q上のある1点の3次元座標が分か
っている場合に、そのデータをもとに積分処理すること
によって3次元形状の復元が行える。第3実施形態の3
次元入力装置1Cによると、対象物Qについての複数の
画像データDAと、照明方向を示す姿勢データDTcと
を入力し、これらのデータに基づいてマトリクス演算を
行い、最小2乗的な近似解によって3次元データDCを
求めるので、行列Lの逆行列L-1を求める程度の少ない
演算量で短時間で3次元データDCを求めることができ
る。When the three-dimensional coordinates of a certain point on the object Q are known, the three-dimensional shape can be restored by performing integration processing based on the data. 3 of the third embodiment
According to the dimension input device 1C, a plurality of image data DA for the object Q and attitude data DTc indicating the illumination direction are input, a matrix operation is performed based on these data, and a least square approximation solution is used. Since the three-dimensional data DC is obtained, the three-dimensional data DC can be obtained in a short time with a small amount of calculation for obtaining the inverse matrix L −1 of the matrix L.
【0072】また、多数の方向から照明される画像を利
用することにより、画像のノイズによる誤差や、照明方
向の計測誤差が緩和され、最小2乗的な意味で最良の近
似解が得られる。Further, by using images illuminated from a number of directions, errors due to image noise and measurement errors in the illumination direction are reduced, and the best approximate solution can be obtained in a least square sense.
【0073】上の述べた実施形態においては、光源移動
装置19によって光源18を移動させたが、光源18を
移動させることなく、又は移動させるとともに、対象物
Q及びカメラ11を移動(対象物Qとカメラ11との相
対位置は固定)させてもよい。また、対象物Q、カメラ
11、または光源18などを、機械装置によって移動さ
せるのではなく、手動で移動させてもよい。この場合に
は、それらの姿勢を適当なセンサで計測すればよい。そ
の他、3次元入力装置1,1B,1Cの構成、形状、処
理内容、処理順序などは、本発明の趣旨に沿って適宜変
更することができる。In the embodiment described above, the light source 18 is moved by the light source moving device 19, but the object Q and the camera 11 are moved without moving the light source 18 or at the same time (moving the object Q). The relative position between the camera and the camera 11 may be fixed). In addition, the object Q, the camera 11, the light source 18, and the like may be moved manually instead of being moved by a mechanical device. In this case, those postures may be measured by an appropriate sensor. In addition, the configuration, shape, processing content, processing order, and the like of the three-dimensional input devices 1, 1B, and 1C can be appropriately changed in accordance with the gist of the present invention.
【0074】[0074]
【発明の効果】本発明によると、複数の画像から3次元
データを得るに当たって、演算量を少なくして処理時間
を短縮することができる。According to the present invention, in obtaining three-dimensional data from a plurality of images, the amount of calculation can be reduced and the processing time can be shortened.
【図1】本発明に係る第1実施形態の3次元入力装置の
構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of a three-dimensional input device according to a first embodiment of the present invention.
【図2】形状情報処理部のブロック図である。FIG. 2 is a block diagram of a shape information processing unit.
【図3】物体形状計算部のブロック図である。FIG. 3 is a block diagram of an object shape calculation unit.
【図4】3次元入力装置による処理の流れを示すフロー
チャートである。FIG. 4 is a flowchart showing a flow of processing by the three-dimensional input device.
【図5】本発明に係る第2実施形態の3次元入力装置の
構成を示すブロック図である。FIG. 5 is a block diagram illustrating a configuration of a three-dimensional input device according to a second embodiment of the present invention.
【図6】対象物の移動方法の例を説明するための図であ
る。FIG. 6 is a diagram for describing an example of a method of moving an object.
【図7】本発明に係る第3実施形態の3次元入力装置の
構成を示すブロック図である。FIG. 7 is a block diagram illustrating a configuration of a three-dimensional input device according to a third embodiment of the present invention.
【図8】対象物Qへの照明方向をプログラムによって変
更する例を示す図である。FIG. 8 is a diagram showing an example in which an illumination direction on an object Q is changed by a program.
1,1B,1C 3次元入力装置 10 物体形状復元部 11 カメラ(撮像手段) 12 カメラ移動装置(姿勢変更手段) 12B 対象物移動装置(姿勢変更手段) 13 カメラ姿勢計測部 13B 対象物姿勢計測部 14 形状情報処理部 15 物体形状計算部 16 姿勢制御部 17 パターン投影部 18 光源 19 光源移動装置 20 照明方向計測部 Q 対象物 1, 1B, 1C 3D input device 10 Object shape restoration unit 11 Camera (imaging means) 12 Camera moving device (posture changing unit) 12B Object moving device (posture changing unit) 13 Camera posture measuring unit 13B Object posture measuring unit 14 Shape information processing unit 15 Object shape calculation unit 16 Attitude control unit 17 Pattern projection unit 18 Light source 19 Light source moving device 20 Illumination direction measurement unit Q Object
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA53 BB05 DD06 FF01 FF04 FF05 FF07 JJ03 JJ26 MM06 QQ18 QQ23 QQ31 QQ36 RR02 SS13 UU05 UU07 5B050 BA09 DA07 EA05 EA18 5B057 CA08 CA12 CA16 CB08 CB13 CB16 CC01 CD14 DB02 DB09 DC01 DC32 DC36 5C061 AA29 AB02 AB08 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2F065 AA53 BB05 DD06 FF01 FF04 FF05 FF07 JJ03 JJ26 MM06 QQ18 QQ23 QQ31 QQ36 RR02 SS13 UU05 UU07 5B050 BA09 DA07 EA05 EA18 5B057 CA08 CA12 CA16 CB16 DC13 5C061 AA29 AB02 AB08
Claims (7)
て対象物を最像し2次元の画像を得るステップと、 前記画像から特徴点を抽出し、抽出した特徴点の画像空
間上の位置を決定するステップと、 複数の画像についての前記特徴点の位置と前記姿勢とか
ら前記対象物の3次元形状を復元するステップと、 を有することを特徴とする3次元入力方法。A step of obtaining a two-dimensional image by changing the relative posture between the image pickup means and the object; obtaining a two-dimensional image; extracting feature points from the image; and an image space of the extracted feature points. A three-dimensional input method, comprising: determining an upper position; and restoring a three-dimensional shape of the target object from positions and orientations of the feature points for a plurality of images.
手段と、 前記画像から特徴点を抽出し、抽出した特徴点の画像空
間上の位置を決定する手段と、 前記撮像手段と前記対象物との相対的な姿勢を計測する
手段と、 互いに異なる複数の姿勢で撮像して得た複数の画像につ
いての、前記特徴点の位置と前記姿勢とから、前記対象
物の3次元形状を最小2乗的に復元する手段と、 を有することを特徴とする3次元入力装置。2. An image pickup means for obtaining a two-dimensional image by re-image of an object, a means for extracting a feature point from the image, and determining a position of the extracted feature point in an image space; Means for measuring a relative posture between the object and the object, and a position of the feature point and the posture for a plurality of images obtained by photographing in a plurality of different postures, the three-dimensional Means for restoring the shape to the least squares, and a three-dimensional input device.
勢を変更する姿勢変更手段を有する請求項2記載の3次
元入力装置。3. The three-dimensional input device according to claim 2, further comprising a posture changing means for changing a relative posture between said imaging means and said object.
御する手段を有する請求項3記載の3次元入力装置。4. A three-dimensional input device according to claim 3, further comprising means for controlling said attitude changing means by a program.
対象物に投影する手段を有する請求項2ないし請求項4
のいずれかに記載の3次元入力装置。5. The apparatus according to claim 2, further comprising means for projecting a pattern light for obtaining said characteristic point onto said object.
The three-dimensional input device according to any one of the above.
することによって複数の2次元の画像を得るステップ
と、 得られた複数の画像と撮像時の光源の照射方向とから前
記対象物の3次元形状を復元するステップと、 を有することを特徴とする3次元入力方法。6. A step of obtaining a plurality of two-dimensional images by imaging an object by changing an irradiation direction of a light source, and obtaining the plurality of two-dimensional images from the obtained plurality of images and an irradiation direction of a light source at the time of imaging. Restoring a three-dimensional shape; and a three-dimensional input method.
手段と、 前記対象物を照明するための、前記対象物への照射方向
が可変な光源と、 前記光源の前記対象物への照射方向を計測する手段と、 互いに異なる複数の照射方向で撮像して得た複数の画像
と撮像時の光源の照射方向とから、前記対象物の3次元
形状を最小2乗的に復元する手段と、 を有することを特徴とする3次元入力装置。7. An image pickup means for obtaining a two-dimensional image by re-image of an object, a light source for illuminating the object, the irradiation direction of the object being variable, and the object of the light source Means for measuring the irradiation direction to the object, a plurality of images obtained by imaging in a plurality of different irradiation directions, and the irradiation direction of the light source at the time of imaging, and the least-square reconstruction of the three-dimensional shape of the object. A three-dimensional input device, comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000052769A JP2001245323A (en) | 2000-02-29 | 2000-02-29 | Three-dimensional input method and device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000052769A JP2001245323A (en) | 2000-02-29 | 2000-02-29 | Three-dimensional input method and device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2001245323A true JP2001245323A (en) | 2001-09-07 |
Family
ID=18574234
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000052769A Pending JP2001245323A (en) | 2000-02-29 | 2000-02-29 | Three-dimensional input method and device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2001245323A (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003141552A (en) * | 2001-10-31 | 2003-05-16 | Toshiba Corp | Object orientation calculation apparatus and method |
| JP2010532870A (en) * | 2007-07-12 | 2010-10-14 | カールツァイス アーゲー | Optical inspection method and inspection apparatus for object surface |
| JP2011086164A (en) * | 2009-10-16 | 2011-04-28 | Elijah & Co | Three-dimensional modeling device, method and program |
| US8192050B2 (en) | 2009-03-31 | 2012-06-05 | Sony Corporation | Illumination device for visual inspection and visual inspection apparatus |
| US8896665B2 (en) | 2006-03-20 | 2014-11-25 | Samsung Electronics Co., Ltd. | Camera calibration method and medium and 3D object reconstruction method and medium using the same |
| JP2016109671A (en) * | 2014-12-01 | 2016-06-20 | キヤノン株式会社 | Three-dimensional measuring apparatus and control method therefor |
| WO2022185780A1 (en) * | 2021-03-03 | 2022-09-09 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
-
2000
- 2000-02-29 JP JP2000052769A patent/JP2001245323A/en active Pending
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003141552A (en) * | 2001-10-31 | 2003-05-16 | Toshiba Corp | Object orientation calculation apparatus and method |
| US8896665B2 (en) | 2006-03-20 | 2014-11-25 | Samsung Electronics Co., Ltd. | Camera calibration method and medium and 3D object reconstruction method and medium using the same |
| JP2010532870A (en) * | 2007-07-12 | 2010-10-14 | カールツァイス アーゲー | Optical inspection method and inspection apparatus for object surface |
| US8192050B2 (en) | 2009-03-31 | 2012-06-05 | Sony Corporation | Illumination device for visual inspection and visual inspection apparatus |
| JP2011086164A (en) * | 2009-10-16 | 2011-04-28 | Elijah & Co | Three-dimensional modeling device, method and program |
| JP2016109671A (en) * | 2014-12-01 | 2016-06-20 | キヤノン株式会社 | Three-dimensional measuring apparatus and control method therefor |
| WO2022185780A1 (en) * | 2021-03-03 | 2022-09-09 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
| JPWO2022185780A1 (en) * | 2021-03-03 | 2022-09-09 | ||
| JP7768216B2 (en) | 2021-03-03 | 2025-11-12 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Azarbayejani et al. | Recursive estimation of structure and motion using relative orientation constraints | |
| US8208029B2 (en) | Method and system for calibrating camera with rectification homography of imaged parallelogram | |
| KR100450469B1 (en) | Image Combination Method and System Using Parallax-based Technology | |
| Altunbasak et al. | A fast parametric motion estimation algorithm with illumination and lens distortion correction | |
| JP4349367B2 (en) | Estimation system, estimation method, and estimation program for estimating the position and orientation of an object | |
| US9235928B2 (en) | 3D body modeling, from a single or multiple 3D cameras, in the presence of motion | |
| US10789765B2 (en) | Three-dimensional reconstruction method | |
| CN110070598B (en) | Mobile terminal for 3D scanning reconstruction and 3D scanning reconstruction method thereof | |
| CN108765498A (en) | Monocular vision tracking, device and storage medium | |
| JP2009515493A (en) | Determining camera movement | |
| JPH11259688A (en) | Image recording device and determining method for position and direction thereof | |
| JP2014514539A (en) | Method for aligning at least a portion of a first image and at least a portion of a second image using a collinear transform warp function | |
| Tan et al. | Deformable shape recovery by factorization based on a spatiotemporal measurement matrix | |
| KR100574227B1 (en) | Apparatus and method for extracting object motion that compensates for camera movement | |
| Bartczak et al. | Integration of a time-of-flight camera into a mixed reality system for handling dynamic scenes, moving viewpoints and occlusions in real-time | |
| JP2559939B2 (en) | Three-dimensional information input device | |
| JP2001245323A (en) | Three-dimensional input method and device | |
| JP2005241323A (en) | Imaging system and calibration method | |
| Yu et al. | Recursive three-dimensional model reconstruction based on Kalman filtering | |
| WO2018134866A1 (en) | Camera calibration device | |
| JP2007004578A (en) | 3D shape acquisition method, 3D shape acquisition device, and program recording medium | |
| JP3221384B2 (en) | 3D coordinate measuring device | |
| JP2007271408A (en) | Three-dimensional environment information acquisition apparatus, three-dimensional environment information acquisition method, and recording medium storing a program realizing the method | |
| JP2007025863A (en) | Imaging system, imaging method, and image processing program | |
| JP2002008014A (en) | Three-dimensional shape extraction method and apparatus, and recording medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050615 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20050704 |