JP2001338279A - 3D shape measuring device - Google Patents
3D shape measuring deviceInfo
- Publication number
- JP2001338279A JP2001338279A JP2000159992A JP2000159992A JP2001338279A JP 2001338279 A JP2001338279 A JP 2001338279A JP 2000159992 A JP2000159992 A JP 2000159992A JP 2000159992 A JP2000159992 A JP 2000159992A JP 2001338279 A JP2001338279 A JP 2001338279A
- Authority
- JP
- Japan
- Prior art keywords
- data
- dimensional shape
- image
- photographing
- shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 対象物体を撮影した複数の画像から三次元形
状再構成する従来の三次元形状計測装置はノイズに弱
く,誤差が生じやすい方法、計算が複雑で簡易な手法に
しか適用できず、かつ、復元精度に問題がある方法、復
元精度を上げる手法は基準形状が予め必要で,基準形状
不明の場合は適用できない等問題がある。
【解決手段】 画像撮影手段で複数の異なる視点から対
象物体を撮影し夫々の画像を取得し、画像撮影手段の光
学系を定義した撮影系モデルとこの撮影系モデルにおけ
る撮影パラメータに従って,撮影された夫々の画像上の
各画素値を計算機内仮想空間に画像投射手段で投射し,
投射された投射面が重なる領域において,各画素点の画
素情報を投射した画素投射直線の相関度を計算して相関
度計算手段で相関度データを生成し,相関度データから
三次元形状を構成するデータを生成するものである。
(57) [Summary] [PROBLEMS] A conventional three-dimensional shape measurement apparatus that reconstructs a three-dimensional shape from a plurality of images of a target object is susceptible to noise, is prone to errors, and is a simple and complicated method. However, there is a problem that a method having a problem with the restoration accuracy and a method of increasing the restoration accuracy require a reference shape in advance, and cannot be applied when the reference shape is unknown. SOLUTION: An image photographing means photographs a target object from a plurality of different viewpoints, acquires respective images, and performs photographing according to a photographing system model defining an optical system of the image photographing means and photographing parameters in the photographing system model. Each pixel value on each image is projected to the virtual space in the computer by the image projection means,
In the area where the projected projection planes overlap, calculate the degree of correlation of the pixel projection straight line that projected the pixel information of each pixel point, generate correlation degree data with the correlation degree calculation means, and construct a three-dimensional shape from the correlation degree data To generate the data to be processed.
Description
【0001】[0001]
【発明の属する技術分野】この発明は,製品生産などの
工業(設計、製造、検査等)、情報管理(セキュリティ
システム等)、医療(検査、治療支援等)、サービス
(服飾等)等に用いられる三次元形状再構成に関するも
のである。The present invention is used in industries such as product production (design, manufacture, inspection, etc.), information management (security systems, etc.), medical care (examination, treatment support, etc.), and services (clothing, etc.). 3D shape reconstruction.
【0002】[0002]
【従来の技術】従来技術 1 R. Dhond and J.K. Aggarwal:"Structure from stereo
- A review", IEEE Trans. on SMC, Vol.19, No.6, pp.
1489-1510 (1989). や, R.C. Bolles, H.H. Baker, an
d M.J. Hannah:"The JICST stereo evaluation", Proc.
of Image Understanding Workshop, pp. 23-274 (199
3). や, T. Kanade and M. Okutomi:"Astereo matchin
g algorithm with an adaptive window:Theory and exp
eriment", IEEE Trans. on PAMI, Vol.16, No.4, pp.92
0-932 (1994). や, M.J.Hannah:"A System for Digita
l Stereo Image Maching", Photorammetric Engineerin
gand Remote Sensing, Vol.55, No.12, pp.1765-1770
(1989). には,ステレオ画像のマッチングにより三次元
形状復元を行う手法(以下,相関法と称す)が記載され
ている。2. Description of the Related Art Conventional Technology 1 R. Dhond and JK Aggarwal: "Structure from stereo"
-A review ", IEEE Trans. On SMC, Vol.19, No.6, pp.
1489-1510 (1989). And RC Bolles, HH Baker, an
d MJ Hannah: "The JICST stereo evaluation", Proc.
of Image Understanding Workshop, pp. 23-274 (199
3). Ya, T. Kanade and M. Okutomi: "Astereo matchin
g algorithm with an adaptive window: Theory and exp
eriment ", IEEE Trans. on PAMI, Vol.16, No.4, pp.92
0-932 (1994). And MJHannah: "A System for Digita
l Stereo Image Maching ", Photorammetric Engineerin
gand Remote Sensing, Vol.55, No.12, pp.1765-1770
(1989). Describes a method of performing three-dimensional shape restoration by stereo image matching (hereinafter referred to as a correlation method).
【0003】従来技術 2 S.B. Marapane and M.M. Trivedi:"Multi-premitive hi
erarchical(MPH) stereo analysis", IEEE Trans. on P
AMI, Vol.16, No.3, pp.227-240 (1994). や,R. Horau
d and T. Skordas:"Structural matching for stereo v
ision", Proc.of 9th Int'l Conf. on Pattern Recogni
tion, pp.439-445 (1994). や, Y. Ohta and T. Kanad
e:"Stereo by intra- and inter- scanline search usi
ng dynamic programming", IEEE Trans. on PAMI, Vol.
7, No.2, pp.139-154 (1985).には,特徴点に基づく三
次元形状復元の手法が記載されている.Prior art 2 SB Marapane and MM Trivedi: "Multi-premitive hi
erarchical (MPH) stereo analysis ", IEEE Trans. on P
AMI, Vol.16, No.3, pp.227-240 (1994).
d and T. Skordas: "Structural matching for stereo v
ision ", Proc.of 9th Int'l Conf. on Pattern Recogni
tion, pp.439-445 (1994). and Y. Ohta and T. Kanad
e: "Stereo by intra- and inter-scanline search usi
ng dynamic programming ", IEEE Trans. on PAMI, Vol.
7, No.2, pp.139-154 (1985), describes a method for 3D shape reconstruction based on feature points.
【0004】従来技術 3 M. Okutomi and T. Kanade:"Multiple-Baseline Stere
o", IEEE Trans. on PAMI, Vol.15, No.4, pp.353-363
(1993). や, Y. Nakamura, T. Matsuura, andY. Oht
a:"Occlusion detectable streo - Occlusion patterns
in camera matrix", Proc. of CVPR, pp.371-378 (199
6). には,複数のステレオ画像対の情報を統合すること
により曖昧さを減少させ精度を向上させる三次元形状復
元手法であるマルチベースラインステレオ法が記載され
ている。Prior art 3 M. Okutomi and T. Kanade: "Multiple-Baseline Stere
o ", IEEE Trans. on PAMI, Vol.15, No.4, pp.353-363
(1993)., Y. Nakamura, T. Matsuura, and Y. Oht
a: "Occlusion detectable streo-Occlusion patterns
in camera matrix ", Proc. of CVPR, pp.371-378 (199
6). Describes a multi-baseline stereo method, which is a three-dimensional shape restoration method that reduces the ambiguity and improves the accuracy by integrating information of a plurality of stereo image pairs.
【0005】従来技術 4 恩田寿和,庭川誠,藤原伸行:“特徴マッチングとステ
レオ計測を結合したロボットビジョン”, 第3回画像セ
ンシングシンポジウム論文集, pp. 177-180 (1997)に
は,従来技術1の結果をより信頼性の高い三次元形状復
元結果に修正する手法が記載されている。これは,形状
を構成する点群の基準形状からの逸脱度を計算し,逸脱
度の大きな点を除去することで,信頼性の高い三次元形
状を復元する手法である。Prior art 4 Toshikazu Onda, Makoto Niwakawa, Nobuyuki Fujiwara: “Robot Vision Combining Feature Matching and Stereo Measurement”, Proc. Of the 3rd Image Sensing Symposium, pp. 177-180 (1997), A method for correcting the result of the prior art 1 to a more reliable three-dimensional shape restoration result is described. This is a method of calculating a deviation of a point group constituting a shape from a reference shape and removing a point having a large deviation to restore a highly reliable three-dimensional shape.
【0006】従来技術4の具体的な処理手順の説明図を
図7に示す。以下図7に従い従来技術4を説明する。 1. 同一対象物の2枚の画像を撮影位置と姿勢を変えてC
CD素子のデジタルカメラからなる画像撮影手段で夫々
撮影し,それらの撮影画像および撮影パラメータを入力
データとする。従来技術4では、画像面が同一平面内で
x軸方向にすれて並んでおり、且つ座標系が画像面を基
準として定義されている。ゆえに、撮影パラメータは、 a.2枚の画像間の距離(相対的な撮影位置)と b.焦点距離(2枚の画像とも同一の焦点距離を持つと
仮定)を用いている。FIG. 7 is an explanatory diagram of a specific processing procedure of the prior art 4. Hereinafter, Prior Art 4 will be described with reference to FIG. 1. Change the shooting position and posture of two images of the same object
Each image is photographed by image photographing means comprising a digital camera of a CD element, and the photographed images and photographing parameters are used as input data. In the prior art 4, the image planes are arranged side by side in the x-axis direction in the same plane, and the coordinate system is defined based on the image plane. Therefore, the shooting parameters are: a. The distance between two images (relative shooting position) and b. The focal length (assuming that both images have the same focal length) is used.
【0007】一般的に撮影パラメータは、 (1) 並行投影の撮影系を考えた場合には、 a.2枚の画像の撮影位置 b.それらの画像の夫々の撮影方向 c.それらの画像夫々の縦横比(CCD素子のデジタル
カメラでは、CCD素子の配置密度が縦横で異なった
り、CCD素子配置平面がレンズの光軸に対して傾いて
いたりした場合、縦横比が変わる。ここで、レンズの光
軸とは、並行投影の場合、撮像面へ光線が入射する方向
の空間軸を表す。)の3つである。Generally, the photographing parameters are as follows: (1) When considering a parallel projection photographing system, a. Shooting position of two images b. The shooting direction of each of those images c. The aspect ratio of each of these images (in the case of a digital camera having a CCD element, the aspect ratio changes when the arrangement density of the CCD elements differs vertically and horizontally, or when the CCD element arrangement plane is inclined with respect to the optical axis of the lens. In the case of parallel projection, the optical axis of the lens indicates a spatial axis in a direction in which a light beam enters the imaging surface.)
【0008】(2)理想的な(線形の)射影投影の撮影系
の場合は、 a.2枚の画像の撮影位置 b.それらの画像の夫々の撮影方向 c.それらの画像夫々の縦横比(CCD素子のデジタル
カメラでは、CCD素子の配置密度が縦横で異なった
り、CCD素子配置平面がレンズの光軸に対して傾いて
いたりした場合、縦横比が変わる。)ここで、レンズの
光軸とは、レンズへ光線が入射したときに集光する点を
通り、光線が集光→拡散していく束の中心を通る直線を
表す。レンズの光軸は正確には1本で表せるものではな
いが、通例として、誤差が十分少ないと仮定して、上記
した直線に定義される。また、射影撮影の撮影系におい
て、レンズに入射した光線が集光する点は、厳密には1
点にならないが通例は1点と考える。 d.それらの画像夫々の中心座標(デジタルカメラの焦
点位置から画像に下ろした垂線と画像平面の交点(画像
中心点)の座標) e.それらの画像夫々の焦点距離(画像中心点から焦点
までの距離)の5つである。(2) In the case of an ideal (linear) projection projection imaging system, a. Shooting position of two images b. The shooting direction of each of those images c. Aspect ratio of each of these images (in the case of a digital camera having a CCD element, the aspect ratio changes when the arrangement density of the CCD elements differs vertically or horizontally, or when the CCD element arrangement plane is inclined with respect to the optical axis of the lens). Here, the optical axis of the lens represents a straight line passing through the point where light rays are condensed when entering the lens, and passing through the center of the bundle where light rays are condensed and diffused. Although the optical axis of the lens cannot be exactly represented by one line, it is generally defined as the straight line described above, assuming that the error is sufficiently small. Strictly speaking, the point at which light rays incident on the lens converge in the projection system is
It is not a point, but usually one point. d. Center coordinates of each of the images (coordinates of the intersection (image center point) of the perpendicular line drawn from the focal position of the digital camera to the image and the image plane) e. There are five focal lengths (distances from the image center point to the focal point) for each of those images.
【0009】2.対応点探索手段により、撮影パラメー
タに基づいて計算機内仮想空間に投射された2枚の撮影
画像A,Bの一方の画像の任意画素において,撮影系モ
デルに基づいた幾何計算と対応確率計算により対応点の
探索を行い,対応点候補を決める。ここで、撮影系モデ
ルとは、撮影した系を記述したもので、実際の撮影系を
計測で考える撮影系にモデル化したものである。即ち、
実際の撮影系と計測で考える撮影系は完全に一致してい
るとは限らず(むしろ一致していないと考えるのが自然
である)計測で考える撮影系は実際の撮影系をモデル化
したものと捉えられる。[0009] 2. Corresponding to the arbitrary pixel of one of the two photographed images A and B projected into the virtual space in the computer based on the photographing parameters by the corresponding point searching means, by the geometric calculation based on the photographing system model and the correspondence probability calculation. Search for points and determine corresponding point candidates. Here, the photographing system model describes a photographed system and is modeled into a photographing system that considers an actual photographing system by measurement. That is,
The actual imaging system is not always exactly the same as the actual imaging system (it is natural to think that they do not match). The imaging system considered in the measurement is a model of the actual imaging system It is considered as.
【0010】撮影系をモデルとしては、例えば上記した
平行投影の撮影系や射影投影の撮影系等を用いることが
出来る。As a model of the photographing system, for example, the photographing system of parallel projection and the photographing system of projective projection can be used.
【0011】幾何計算は、並行投影の撮影系の場合 (1)投影を始める位置、(2)投影の方向から空間内(空間
は一般には計算のために仮に原点と空間軸の方向を決め
た計算機内空間を考える)において投影された光線がど
こに位置し、どの方向に延びているかの計算を各々の画
像内に対して行い、各々の各画素を投影している直線が
空間内のどの位置で交わるかその交点と、交点の画素値
(輝度、色相、彩度の何れかで良い)がどのくらい似て
いるを算出する。対応確率計算は、2枚の各画素点にお
いて、最も似通っている点対の存在する空間点を対応点
候補とする。In the geometric calculation, in the case of a parallel projection imaging system, (1) the position at which the projection is started, and (2) the space in the space from the direction of the projection. Calculation of where the projected light beam is located and in what direction is performed in each image, and a straight line projecting each pixel is defined in which position in the space. Is calculated, and how the pixel value of the intersection point (which may be any of luminance, hue, and saturation) is similar. In the correspondence probability calculation, a spatial point where a most similar point pair exists in each of two pixel points is set as a corresponding point candidate.
【0012】図7では説明のため一断面における対応点
候補の図を示しているが,実際の対応点候補は三次元空
間内に広がって存在する。FIG. 7 shows a diagram of corresponding point candidates on one cross section for explanation, but actual corresponding point candidates exist in a three-dimensional space.
【0013】3. 手順2 を全ての画素に対して行い,全
ての画素の対応点候補を決定する。 4. 推定ノイズを除去するため,手順3 で求めた対応点
候補と基準形状から,対応点選択手段を用いて対応点候
補を取捨選択する。3. Step 2 is performed for all pixels, and corresponding point candidates for all pixels are determined. 4. To remove the estimated noise, select the corresponding point candidates from the corresponding point candidates and the reference shape obtained in step 3 using the corresponding point selection means.
【0014】この従来の装置において、基準形状は三次
元形状表面の推定点の平均座標位置を含み且つ推定点の
空間広がりが大きい2空間軸を含む平面(即ち、推定点
が最も広がっている=最も散らばっている方向を1番目
の軸、次にその軸に直交し且つ推定点が次に広がってい
る方向を2番目の軸とし、これ等2つの軸で構成される
平面)と定義され、三次元形状が復元される。In this conventional apparatus, the reference shape includes a plane including the average coordinate position of the estimated point on the surface of the three-dimensional shape and two spatial axes in which the estimated point has a large spatial spread (that is, the estimated point has the largest spread = The most scattered direction is defined as a first axis, the direction orthogonal to that axis and the direction in which the estimation points are spread next is defined as a second axis, and a plane composed of these two axes). The three-dimensional shape is restored.
【0015】図7に記載の三次元形状の図には,三次元
形状を構成するために取捨選択された対応点候補が記載
されている。図7では説明のため三次元形状の図に対応
点候補を記載しているが,実際には三次元形状に対応点
候補は含まれていない。また、図7に記載の基準形状は
概念説明のためのもので、この従来技術4の論文で示さ
れている基準形状ではなく、一般的な三次元形状を基準
形状の一例として図示している。The three-dimensional shape diagram shown in FIG. 7 describes corresponding point candidates that have been selected to form the three-dimensional shape. In FIG. 7, corresponding point candidates are described in a three-dimensional shape diagram for the sake of explanation, but actually, no corresponding point candidates are included in the three-dimensional shape. Further, the reference shape shown in FIG. 7 is for explanation of the concept, and a general three-dimensional shape is shown as an example of the reference shape instead of the reference shape shown in the paper of the related art 4. .
【0016】5. 選択した対応点候補群から面を構成
し,三次元形状とする。面は、例えば対応点候補をつな
ぐ三角パッチで表現できる。図7では説明のため一断面
における三次元形状の図を示しているが,実際の三次元
形状は三次元空間内に広がって存在する。5. A surface is formed from the selected corresponding point candidate group, and a three-dimensional shape is formed. The surface can be represented, for example, by a triangular patch connecting the corresponding point candidates. FIG. 7 shows a diagram of a three-dimensional shape in one cross section for explanation, but an actual three-dimensional shape extends in a three-dimensional space.
【0017】[0017]
【発明が解決しようとする課題】従来技術1では、画像
毎に撮影の位置姿勢が異なることから,物理的に同一な
点を撮影した画素同士であってもそれらに濃淡や色の不
一致が生じたり,対象物の形状やテキスチャによっては
一様領域でのマッチングの任意性が生じたりする。領域
に基づくマッチング手法では,対応点探索において最も
高い相関を持つ点を候補点と決定しまうため,大きく外
れた対応点候補にデータ全体が引っ張られるなどノイズ
に弱く,対応付けの際に誤差や誤対応が生じやすい。In the prior art 1, since the position and orientation of photographing are different for each image, even if the pixels photographed at the same physical point are inconsistent in shade and color. Also, depending on the shape and texture of the object, arbitrary matching may occur in a uniform area. In the matching method based on the region, the point having the highest correlation in the corresponding point search is determined as a candidate point. Therefore, the entire data is pulled to a corresponding point candidate that is greatly deviated, and thus is vulnerable to noise. Response is likely to occur.
【0018】従来技術2の特徴に基づく手法では,特徴
点においてしか視差が得られないため,非特徴点の視差
を補間する必要がある。さらに,どこを特徴点とし,そ
れらをどう計算するか(与えるか)の問題も残る。ま
た,計算が複雑なため,現時点では撮影系モデルとして
平行投影を用いた手法しか提案されていない。それ故,
復元精度に問題がある。In the method based on the features of the prior art 2, since parallax can be obtained only at feature points, it is necessary to interpolate the parallax of non-feature points. In addition, there remains the question of what are the feature points and how to calculate (given) them. At the present time, only a method using parallel projection has been proposed as an imaging system model due to the complicated calculation. Therefore,
There is a problem with the restoration accuracy.
【0019】従来技術3のマルチベースラインステレオ
法では,複数のステレオ画像対の情報の統合により曖昧
さを減少させているが,信頼性を向上させるためには多
くの方向より画像を撮影する必要があること,基本的に
従来技術 1 であるため画像中に相似した画素がある場
合での誤対応は根本的に防げないなど課題も残る。In the multi-baseline stereo method of the prior art 3, ambiguity is reduced by integrating information of a plurality of stereo image pairs, but in order to improve reliability, it is necessary to capture images from many directions. However, there is still a problem such that erroneous correspondence cannot be fundamentally prevented when there are similar pixels in an image because it is basically the conventional technology 1.
【0020】従来技術4の逸脱度計算による形状候補点
の選択手法では,大きく外れた対応点候補にデータ全体
が引っ張られることを抑制するために逸脱度計算による
形状候補点の選択を行うが,そのためには逸脱度計算の
際に基準となる基準形状を予備知識として予め与える必
要があり,基準形状を既知とすることが不可能な場合に
は適用できない。また,ノイズを除去した部分の補間を
必要とする。In the method of selecting shape candidate points by deviation calculation according to the prior art 4, the shape candidate points are selected by deviation calculation in order to prevent the entire data from being pulled by the corresponding point candidates that are greatly deviated. For that purpose, it is necessary to give a reference shape serving as a reference at the time of calculation of the degree of deviation as preliminary knowledge in advance, and this cannot be applied when it is impossible to make the reference shape known. In addition, it is necessary to interpolate a portion from which noise has been removed.
【0021】[0021]
【問題を解決するための手段】本発明に係る三次元形状
計測装置は、複数の異なる視点から対象物体を撮影し夫
々の画像を取得する画像撮影手段と,画像撮影手段の光
学系を定義した撮影系モデルとこの撮影系モデルにおけ
る撮影パラメータに従って,画像撮影手段で撮影された
夫々の画像上の各画素値を計算機内仮想空間に投射する
画像投射手段と,各画像から投射された投射面が重なる
領域において,各画素点の画素情報を投射した直線(以
下,画素投射直線と称す)の相関度を計算して相関度デ
ータを生成する相関度計算手段と,相関度データから三
次元形状を構成するための三次元形状データを生成する
形状構成手段とを有する。The three-dimensional shape measuring apparatus according to the present invention defines an image photographing means for photographing a target object from a plurality of different viewpoints and acquiring respective images, and an optical system of the image photographing means. Image projection means for projecting each pixel value on each image photographed by the image photographing means into the virtual space in the computer in accordance with the photographing system model and photographing parameters in the photographing system model, and a projection surface projected from each image. In the overlapping area, a correlation degree calculating means for calculating a correlation degree of a straight line (hereinafter, referred to as a pixel projection straight line) on which pixel information of each pixel point is projected to generate correlation degree data, and a three-dimensional shape from the correlation degree data. Shape configuration means for generating three-dimensional shape data to be configured.
【0022】また、本発明に係る三次元形状計測装置
は、前記形状構成手段が,生成するデータは三次元形状
を復元する表面データであり、形状構成手段は、この各
表面データが物体表面を構成している面確率を類似度デ
ータから計算するための面確率計算手段と,面確率から
物体表面を構成するデータを生成する面構成手段をす
る。Further, in the three-dimensional shape measuring apparatus according to the present invention, the data generated by the shape structuring means is surface data for restoring a three-dimensional shape, and the shape structuring means determines that each of the surface data is an object surface. Surface probability calculation means for calculating the configured surface probabilities from the similarity data, and surface configuration means for generating data forming the object surface from the surface probabilities.
【0023】また、本発明に係る三次元形状計測装置
は、前記形状構成手段が,生成するデータは三次元形状
を復元する透明度を情報に含むボリュームデータであ
り,前記形状構成手段は、類似度データから面確率デー
タを生成するための面確率計算手段と、面確率データか
らボリュームデータを生成するボリュームデータ生成手
段を有する。Further, in the three-dimensional shape measuring apparatus according to the present invention, the data generated by the shape configuration means is volume data including transparency for restoring a three-dimensional shape in information, and the shape configuration means includes a similarity measure. Surface probability calculation means for generating surface probability data from the data, and volume data generation means for generating volume data from the surface probability data.
【0024】また、本発明に係る三次元形状計測装置
は、前記面確率計算手段が、相関度データのHessian行
列から局所領域における固有値/固有ベクトルを計算
し、各基底の固有値の比較より形状のプリミティブ(以
下,局所形状プリミティブと称す)を計算し、固有ベク
トルの向きより局所形状プリミティブの向きを計算する
構成にされた。Further, in the three-dimensional shape measuring apparatus according to the present invention, the surface probability calculating means calculates eigenvalues / eigenvectors in a local region from the Hessian matrix of the correlation degree data, and compares the eigenvalues of each basis with the primitive of the shape. (Hereinafter, referred to as a local shape primitive), and the direction of the local shape primitive is calculated from the direction of the eigenvector.
【0025】また、本発明に係る三次元形状計測装置
は、面確率計算手段は、局所形状プリミティブとして、
一様プリミティブ,点プリミティブ,直線プリミティ
ブ,平面プリミティブの4つの局所形状プリミティブの
何れかを出力する構成にされた。Further, in the three-dimensional shape measuring apparatus according to the present invention, the surface probability calculating means may include:
It was configured to output one of four local shape primitives: uniform primitives, point primitives, straight line primitives, and planar primitives.
【0026】また、本発明に係る三次元形状計測装置
は、前記面確率計算手段は,さらにひとつの画素には只
一つの三次元点からの光線しか投影されないという拘束
条件を用い,求めた三次元形状から面確率の低いものを
除去する構成にされた。Further, in the three-dimensional shape measuring apparatus according to the present invention, the surface probability calculating means further uses the constraint condition that only one ray from one three-dimensional point is projected on one pixel, and It is configured to remove those with low surface probabilities from the original shape.
【0027】[0027]
【発明の実施の形態】実施の形態1 以下、本発明の実施の形態1を図面を用いて説明する。
図1〜3は本発明の実施の形態1の説明図である。図1
は装置の構成図,図2は処理手順の説明図、図3は面確
率計算手段における局所形状の分類の一実施例を示す説
明図である。Embodiment 1 Hereinafter, Embodiment 1 of the present invention will be described with reference to the drawings.
1 to 3 are explanatory diagrams of the first embodiment of the present invention. FIG.
FIG. 2 is an explanatory diagram of a configuration of the apparatus, FIG. 2 is an explanatory diagram of a processing procedure, and FIG. 3 is an explanatory diagram showing an embodiment of classification of local shapes in a surface probability calculating means.
【0028】図1において、201は対象物体を撮影する
画像撮影手段で例えばCCD素子のデジタルカメラであ
る。202は画像撮影手段201で撮影された撮影画像上の各
画素値を計算機内仮想空間に投射するための画像投射手
段、203は画像投射手段202により投射された画像の投射
面が重なる領域において,各画素点の画素情報を投射し
た直線(以下,画素投射直線と称す)の相関度(類似
度)を計算して相関度データを生成するための相関度計
算手段、204は相関度データから三次元形状を構成する
ための三次元形状データ207を生成する形状構成手段で
あり、形状構成手段204は、面確率計算手段205及び面構
成手段206を備えている。In FIG. 1, reference numeral 201 denotes an image photographing means for photographing a target object, for example, a digital camera having a CCD element. 202 is an image projection unit for projecting each pixel value on the captured image captured by the image capturing unit 201 into the virtual space in the computer, and 203 is an area where the projection surfaces of the images projected by the image projection unit 202 overlap. Correlation degree calculating means for calculating correlation degree (similarity) of a straight line (hereinafter, referred to as pixel projection straight line) on which pixel information of each pixel point is projected to generate correlation degree data. This is a shape forming unit that generates three-dimensional shape data 207 for forming an original shape. The shape forming unit 204 includes a surface probability calculating unit 205 and a surface forming unit 206.
【0029】以上のように構成された三次元形状計測装
置の処理手順を図2を用いて説明する。 1. 画像撮影手段201により,位置・姿勢を変えて対象物
体を撮影し,2枚の画像,画像A303,画像B304を生成
し、それらの撮影画像303、304および撮影パラメータ30
2を獲得する。The processing procedure of the three-dimensional shape measuring apparatus configured as described above will be described with reference to FIG. 1. A target object is photographed by changing the position and orientation by the image photographing means 201, two images, an image A303 and an image B304 are generated, and the photographed images 303 and 304 and the photographing parameters 30 are generated.
Get 2
【0030】ここで、撮影パラメータ302は従来技術と
同様 (1) 並行投影の撮影系を考えた場合には、 a.2枚の画像の撮影位置 b.それらの画像の夫々の撮影方向 c.それらの画像夫々の縦横比(CCD素子のデジタル
カメラでは、CCD素子の配置密度が縦横で異なった
り、CCD素子配置平面がレンズの光軸に対して傾いて
いたりした場合、縦横比が変わる。ここで、レンズの光
軸とは、並行投影の場合、撮像面へ光線が入射する方向
の空間軸を表す。)であり、Here, the photographing parameters 302 are the same as those in the prior art. (1) When considering a parallel projection photographing system, a. Shooting position of two images b. The shooting direction of each of those images c. The aspect ratio of each of these images (in the case of a digital camera having a CCD element, the aspect ratio changes when the arrangement density of the CCD elements differs vertically and horizontally, or when the CCD element arrangement plane is inclined with respect to the optical axis of the lens. In the case of parallel projection, the optical axis of the lens indicates a spatial axis in a direction in which light rays enter the imaging surface.)
【0031】(2)理想的な(線形の)射影投影の撮影系
の場合は、 a.2枚の画像の撮影位置 b.それらの画像の夫々の撮影方向 c.それらの画像夫々の縦横比(CCD素子のデジタル
カメラでは、CCD素子の配置密度が縦横で異なった
り、CCD素子配置平面がレンズの光軸に対して傾いて
いたりした場合、縦横比が変わる。) ここで、レンズの光軸とは、レンズへ光線が入射したと
きに集光する点を通り、光線が集光→拡散していく束の
中心を通る直線を表す。レンズの光軸は正確には1本で
表せるものではないが、通例として、誤差が十分少ない
と仮定して、上記した直線に定義される。また、射影撮
影の撮影系において、レンズに入射した光線が集光する
点は、厳密には1点にならないが通例は1点と考える。 d.それらの画像夫々の中心座標(デジタルカメラの焦
点位置から画像に下ろした垂線と画像平面の交点(画像
中心点)の座標。ここで、焦点は理想的な射影投影の撮
像系において、光線が集中する点) e.それらの画像夫々の焦点距離(画像中心点から焦点
までの距離)の5つとなる。(2) In the case of an ideal (linear) projection projection imaging system, a. Shooting position of two images b. The shooting direction of each of those images c. Aspect ratio of each of these images (in the case of a digital camera having a CCD element, the aspect ratio changes when the arrangement density of the CCD elements differs vertically or horizontally, or when the CCD element arrangement plane is inclined with respect to the optical axis of the lens). Here, the optical axis of the lens represents a straight line passing through the point where light rays are condensed when entering the lens, and passing through the center of the bundle where light rays are condensed and diffused. Although the optical axis of the lens cannot be exactly represented by one line, it is generally defined as the straight line described above, assuming that the error is sufficiently small. Further, in the projection imaging system, the point at which light rays incident on the lens converge is not strictly one point, but is generally considered to be one point. d. The center coordinates of each of these images (the coordinates of the intersection (center point of the image) of the image plane with the perpendicular drawn down from the focal position of the digital camera to the image. Here, the focal point is the concentration of light rays in an ideal projection projection imaging system). Do) e. The focal length of each of these images (the distance from the image center point to the focal point) is five.
【0032】ここで「系」とは、距離を定義する空間の
仕組みを指し、また、射影投影の撮影系で非線型モデル
の場合は、さらに2次や3次の歪みを表す係数を導入する
必要がある。Here, the term "system" refers to the mechanism of the space that defines the distance. In the case of a non-linear model in a projection projection imaging system, coefficients representing second- and third-order distortions are further introduced. There is a need.
【0033】このとき,画像A303および画像B304の形
状は平面とは限らず,曲面でも良い。但し、画像A303
および画像B304の形状が曲面の場合にはそれに対応し
た撮影系モデルを用いる必要がある。また,3枚以上の
画像撮影を行い,マルチベースライン法の概念を本発明
に導入,拡張しても良い。At this time, the shapes of the image A303 and the image B304 are not limited to flat surfaces but may be curved surfaces. However, image A303
When the shape of the image B304 is a curved surface, it is necessary to use a photographing system model corresponding to the curved surface. Also, the concept of the multi-baseline method may be introduced and extended to the present invention by taking three or more images.
【0034】2.次に、画像投射手段202を用い,撮影
パラメータ302に基づいて撮影画像A303、B304を計算
機内仮想空間に投射する。このとき投射する画素情報
は,画像中の画素の輝度や色情報(色相、彩度)など対
応点検索で用いることができるものであれば何でも良
い。画素情報の投影は、並行投影の撮影系や射影投影の
撮像系などの撮影系モデルに基いて行う。2. Next, using the image projection means 202, the photographed images A303 and B304 are projected onto the virtual space in the computer based on the photographing parameters 302. The pixel information to be projected at this time may be anything as long as it can be used in the corresponding point search, such as luminance and color information (hue, saturation) of the pixels in the image. The projection of the pixel information is performed based on an imaging system model such as an imaging system for parallel projection or an imaging system for projection projection.
【0035】並行投影の撮影系の場合には、撮影パラメ
ータ302である (1)投影を始める位置と (2)投影の方向と (3)画像の縦横比から各画素の位置する空間点を通り且
つ画像面に直交する直線を計算し、その直線上に画素情
報を割り当てる。In the case of a parallel projection photographing system, the photographing parameters 302 (1) starting position, (2) projecting direction, and (3) aspect ratio of the image pass through the spatial point where each pixel is located. Further, a straight line orthogonal to the image plane is calculated, and pixel information is allocated on the straight line.
【0036】射影投影の撮像系の場合には、撮影パラメ
ータ302である (1).2枚の画像の撮影位置 (2).それらの画像の夫々の撮影方向 (3).それらの画像夫々の縦横比 (4).それらの画像夫々の中心座標 (5).それらの画像夫々の焦点距離から各画素の位置す
る空間点と焦点を直線を計算し、その直線上に画素情報
を割り当てる。 上記した画素情報を割り当てる直線群の一例を画素投射
直線305に示す。また,以下の手順3 で述べるように,
複数の画素情報について投射および処理を行い,それら
を統合しても良い。In the case of a projection projection imaging system, it is an imaging parameter 302 (1). Shooting position of two images (2). The shooting direction of each of those images (3). Aspect ratio of each of these images (4). The center coordinates of each of these images (5). From the focal length of each of these images, a straight line is calculated for the spatial point where each pixel is located and the focal point, and pixel information is allocated on the straight line. An example of a straight line group to which the above-described pixel information is assigned is shown as a pixel projection straight line 305. Also, as described in step 3 below,
Projection and processing may be performed on a plurality of pieces of pixel information, and the information may be integrated.
【0037】2. 物体表面上の点の連続性は以下のよう
にして計算中に考慮する。 3. 相関度計算手段203を用い,計算機内仮想空間内の各
空間点において,画素点が対応する確率を示す相関度デ
ータ306をそれぞれ生成する。具体的には,2つ以上の画
像面から投射された2本以上の画素投射直線305の相関度
を計算し,その相関度を相関度データ306内の2直線の
交点位置のデータに割り当てることで、相関度データ30
6を生成する。2. The continuity of points on the object surface is taken into account during the calculation as follows. 3. The correlation degree calculation means 203 is used to generate correlation degree data 306 indicating the probability that a pixel point corresponds to each spatial point in the virtual space in the computer. Specifically, the degree of correlation of two or more pixel projection straight lines 305 projected from two or more image planes is calculated, and the correlation is assigned to the data at the intersection of the two straight lines in the correlation degree data 306. And the correlation degree data 30
Generate 6.
【0038】相関度は,例えば各画素投射直線305(元
の画素)の持つ輝度や色相などの各相関度に重みをつけ
て統合したものとする。また,画素情報そのものの相関
度ではなく,画素情報の正規化二次微分量や,テキスチ
ャの特徴量や,Gaborフィルタの処理結果など周波数空
間の特徴量の相関度を用いても良い。For example, the correlation degree is obtained by integrating the correlation degrees such as luminance and hue of each pixel projection straight line 305 (original pixel) with weight. Instead of the correlation degree of the pixel information itself, a correlation degree of a frequency space characteristic amount such as a normalized second derivative amount of the pixel information, a texture characteristic amount, or a Gabor filter processing result may be used.
【0039】4. 面確率計算手段205を用い,相関度デー
タ306から局所的に面や直線である面確率を計算する。
面確率は,例えば以下のように計算できる。相関度デー
タ306の各空間点における局所データからHessian行列の
固有値/固有ベクトルを計算し,各固有値の大きさを比
較することで,面確率を計算できる。ここで、局所デー
タとは、対象データ内における局所領域(データの一
部、例えば3×3×3の立方領域)のデータである。この
面確率計算手段205の動作詳細は後述する。4. Using the surface probability calculation means 205, the surface probability which is a surface or a straight line is locally calculated from the correlation degree data 306.
The surface probability can be calculated, for example, as follows. The eigenvalue / eigenvector of the Hessian matrix is calculated from the local data at each spatial point of the correlation degree data 306, and the surface probability can be calculated by comparing the magnitude of each eigenvalue. Here, the local data is data of a local area (a part of the data, for example, a 3 × 3 × 3 cubic area) in the target data. Details of the operation of the surface probability calculation means 205 will be described later.
【0040】5. 手順4 で求めた面確率を計算機内仮想
空間内の全ての空間点において計算し,面確率データ30
7を計算する。その際,計算を安定させるために,例え
ば,低解像度データでの処理(大局的処理)から高解像
度データでの処理(局所的処理)を行い,それらを統合
するなど,多重解像度アルゴリズムによる面確率計算を
行っても良い。5. The surface probability calculated in step 4 is calculated at all the spatial points in the virtual space in the computer, and the surface probability data 30 is calculated.
Calculate 7. At this time, in order to stabilize the calculation, for example, processing with low-resolution data (global processing) to processing with high-resolution data (local processing) and integrating them are performed. Calculation may be performed.
【0041】6. 面構成手段206を用い,手順5 で求めた
面確率データ307から,面確率の高い部分のみを抽出す
るために平面の薄面化処理(直線における細線化処理と
同等)を行い,三次元形状データ207を生成する。この
三次元形状データ207から復元三次元形状308を得る。6. Using the surface configuration means 206, a plane thinning process (equivalent to a thinning process on a straight line) is performed to extract only a portion having a high surface probability from the surface probability data 307 obtained in step 5. , Three-dimensional shape data 207 is generated. A restored three-dimensional shape 308 is obtained from the three-dimensional shape data 207.
【0042】薄面化処理には、例えば手順4で求めたHe
ssian行列の固有値/固有ベクトルを利用できる。この
固有値/固有ベクトルにおいて、固有ベクトルは推定す
る面の法線ベクトルを表すので、面確率データ307内に
おいて固有ベクトルの方向軸において面確率の最大値を
探索すれば、面確率の高い部分が集まっている領域にお
ける面確率の集中する面を推定できる。In the thinning process, for example, He
Eigenvalue / eigenvector of ssian matrix can be used. In this eigenvalue / eigenvector, the eigenvector represents the normal vector of the surface to be estimated. Therefore, if the maximum value of the surface probability is searched for in the direction axis of the eigenvector in the surface probability data 307, the area where the portion with the high surface probability is collected Can be estimated.
【0043】ここでは,三次元形状データ207は復元形
状308に示すように曲面として復元される。また,復元
形状308は,そのデータとして色や面の傾きに関する情
報など,データの表示や処理に必要な情報を有するもの
でも良い。Here, the three-dimensional shape data 207 is restored as a curved surface as shown in a restored shape 308. Further, the restored shape 308 may have information necessary for data display and processing, such as information on colors and surface inclinations, as the data.
【0044】図2 では説明のため一断面における相関度
データ,面確率データ,および三次元形状の図を示して
いるが,実際の相関度データ306,面確率データ307,お
よび三次元形状207は三次元空間内に広がって存在す
る。FIG. 2 shows a diagram of the correlation degree data, the surface probability data, and the three-dimensional shape in one cross section for explanation, but the actual correlation degree data 306, the surface probability data 307, and the three-dimensional shape 207 are Exists in three-dimensional space.
【0045】次に面確率計算手段205により,相関度デ
ータ306から局所的に面や直線である面確率の計算方法
について更に詳しく説明する。面確率計算手段205は相
関度データ306から計算により局所形状を分類し、その
分類から局所的に面あるいは直線であることを判定す
る。その局所形状の分類の一実施例を図3に示す。Next, a method of calculating a surface probability that is a local surface or a straight line from the correlation degree data 306 by the surface probability calculation means 205 will be described in further detail. The surface probability calculation means 205 classifies a local shape by calculation from the correlation degree data 306, and determines locally a surface or a straight line from the classification. FIG. 3 shows an embodiment of the classification of the local shape.
【0046】局所形状の分類は,以下のように行う。面
確率計算手段205は、まず相関度データから局所領域に
おける固有値/固有ベクトルを計算する。固有値/固有
ベクトルは,例えばデータ値のHessian行列を生成し,
その固有情報を計算することで得られる。The local shape is classified as follows. The surface probability calculating means 205 first calculates an eigenvalue / eigenvector in a local region from the correlation degree data. Eigenvalues / eigenvectors generate, for example, a Hessian matrix of data values,
It is obtained by calculating the unique information.
【0047】Hessian行列は,画素明度の二次偏微分行
列であり,The Hessian matrix is a second-order partial differential matrix of pixel brightness.
【数1】 と書ける。(Equation 1) I can write
【数2】 (Equation 2)
【0048】[0048]
【数3】 (Equation 3)
【0049】次に,以下に示すように,各基底の固有値
の比較より局所形状プリミティブの分類処理を,固有ベ
クトルの向きより局所形状プリミティブの向きを計算す
る。 ● 3 つの固有値の大きさが同等,且つ小さい場合:一
様プリミティブ601。 ● 3 つの固有値の大きさが同等,且つ大きい場合:点
プリミティブ602 。 ● 3 つの固有値において,他の 1 つに比べ 2 つの固
有値が大きい場合:直線プリミティブ603。 ● 3 つの固有値において,他の 2 つに比べ 1 つの固
有値が大きい場合:平面プリミティブ604。 図3では 4 つの局所形状プリミティブを示している
が,実際のシステムでは必要に応じてその一部のみを使
用するなどしても良い。Next, as shown below, classification processing of the local shape primitive is performed by comparing the eigenvalues of the respective bases, and the direction of the local shape primitive is calculated from the direction of the eigenvector. ● When the magnitudes of the three eigenvalues are equal and small: uniform primitive 601. ● If the magnitudes of the three eigenvalues are equal and large: point primitive 602. ● When three eigenvalues are larger than the other one: linear primitive 603. ● If one of the three eigenvalues is larger than the other two: the planar primitive 604. Although FIG. 3 shows four local shape primitives, only a part of them may be used as needed in an actual system.
【0050】本実施の形態1では,画素情報に加え,物
体表面を構成する点の空間的連続性を拘束条件として導
入し,対応点を求める。具体的には,相関度計算手段と
形状構成手段を有することで,まず相関度データを計算
し,次にそこから相関度データの特徴量,例えば,線ら
しさや面らしさなどを表す面確率データを生成,さらに
そこから三次元形状を構成する。これにより,「画素情
報の相関が高い」だけでなく,「空間的に連続してい
る」データを三次元形状として抽出できる。In the first embodiment, in addition to the pixel information, the spatial continuity of points constituting the object surface is introduced as a constraint condition, and corresponding points are obtained. Specifically, by having the correlation degree calculating means and the shape composing means, first, the correlation degree data is calculated, and then the characteristic amount of the correlation degree data, for example, the surface probability data representing the line-likeness or the surface-likeness. Is generated, and a three-dimensional shape is constructed therefrom. Thus, not only “correlation of pixel information is high” but also “spatially continuous” data can be extracted as a three-dimensional shape.
【0051】具体的な効果としては,相関が高くても空
間内で位置的に孤立して存在する点は,ノイズとして扱
うことができる,相関が最も高い点ではないが一定以上
の相関を持ち,且つ空間内の周辺の状態から面あるいは
線を構成していると思われる点(高い相関が空間的に連
続して現れている点)は,それぞれ面あるいは線として
扱うことができるなど,ノイズに強く信頼性が高い。As a specific effect, even if the correlation is high, a point that is isolated in position in the space can be treated as noise. It is not the point with the highest correlation but has a certain level of correlation. , And points that seem to form a surface or a line from the surrounding state in space (points where high correlation appears continuously in space) can be treated as a surface or a line, respectively. Strong and reliable.
【0052】これを二次元画像処理でたとえると,従来
法は,2値化によって形状を抽出してからそれを補正す
る手法,本実施の形態1は濃淡画像に強調フィルタを掛
けてから形状抽出する手法と例えられる。2値化によっ
て形状を抽出してからそれを補正する手法は,情報落ち
したデータを修正しているので得られた結果の信頼性は
低い。本実施の形態1は情報を保持したデータから三次
元形状を復元するので,信頼性や精度の大幅な向上を期
待できる。If this is compared with two-dimensional image processing, the conventional method is a method of extracting a shape by binarization and then correcting the shape. In the first embodiment, the shape is extracted after applying an emphasis filter to the grayscale image. It can be compared to the technique of doing. In the method of extracting a shape by binarization and then correcting the shape, the reliability of the obtained result is low because the data whose information has been lost is corrected. In the first embodiment, since the three-dimensional shape is restored from the data holding the information, a great improvement in reliability and accuracy can be expected.
【0053】また,「局所的に物体表面は連続してい
る」という一般的な拘束を用いるため,計算のために、
予め画素間で対応する特徴点を指定したり、抽出したり
等の煩雑な処理が不要になる。そのため、目的毎にシス
テムのパラメータを調整する必要がなく汎用性に優れて
いる。また、手作業あるいは(現時点では)不安定なア
ルゴリズムを処理手順内に含まないため実用性に優れて
いる。さらに、この「局所的に物体表面は連続してい
る」という一般的な拘束を用いることは,局所的に形状
を定義し大局的にはその繋ぎ合わせで形状を復元するこ
とになるので,大局的に見た場合に自由な形状を構成で
き,従来技術 4 のように三次元形状に関する予備知識
を必要としない。Further, in order to use the general constraint that the object surface is locally continuous,
There is no need for complicated processing such as designating or extracting a feature point corresponding between pixels in advance. Therefore, it is not necessary to adjust the parameters of the system for each purpose, and the versatility is excellent. In addition, the algorithm is practical because it does not include manual or unstable algorithms at the moment. Furthermore, using the general constraint that “the object surface is locally continuous” means that the shape is locally defined and the shape is restored by joining the shapes globally. It can be configured freely when viewed from the viewpoint, and does not require the prior knowledge about the three-dimensional shape unlike the prior art 4.
【0054】画素値のみの情報からでなく、物体表面の
空間的な情報「局所的に物体は平面を構成している」も
拘束条件に加えることで、誤対応(正しい対応ではない
が、拘束条件のみからでは正しいと計算される対応)を
減少させ、大幅な計算の安定化、高信頼化が図れる。By adding not only information on pixel values but also spatial information on the surface of the object “a local object constitutes a plane” to the constraint condition, incorrect correspondence (not correct correspondence, Correspondence calculated correctly only from the conditions) can be reduced, and the calculation can be greatly stabilized and high reliability can be achieved.
【0055】画像面の形状を平面に限定していないの
で,様々な撮影モダリティに対して適用可能である。Since the shape of the image plane is not limited to a plane, it can be applied to various photographing modalities.
【0056】画素情報を輝度のみに限定せずに色情報な
どにも適用可能とすることで,応用範囲が広がる。By applying pixel information not only to luminance but also to color information and the like, the range of application is expanded.
【0057】正規化二次微分量を画素情報として用いる
ことで,画素明度のオフセット変化に対してロバスト
(ノイズの影響が少ない)にできる。By using the normalized second derivative as pixel information, it is possible to make the pixel brightness robust to the offset change of the pixel brightness (the influence of noise is small).
【0058】テキスチャの特徴量を画素情報として用い
ることで,テキスチャ情報量が多い対象に対してより信
頼性の高い形状復元を可能にできる。By using the texture feature amount as pixel information, it is possible to perform more reliable shape restoration for an object having a large texture information amount.
【0059】周波数空間の特徴量を情報とすることで,
テキスチャ情報量が多い対象に対してより信頼性の高い
形状復元を可能にできる。By using the feature amount of the frequency space as information,
More reliable shape restoration can be performed on an object having a large amount of texture information.
【0060】面確率計算手段において,相関度データか
らHessian行列の固有値/固有ベクトルを用いて面確率
計算を行うことで,効果的に面形状を抽出できる。By calculating the surface probability from the correlation data using the eigenvalue / eigenvector of the Hessian matrix in the surface probability calculation means, the surface shape can be effectively extracted.
【0061】一様プリミティブ,点プリミティブ,直線
プリミティブ,平面プリミティブの4 つの局所形状プリ
ミティブあるいはその一部を用いた判別法を判定基準と
して設けることで,固有値/固有ベクトルを用いた面確
率計算手順を定義できる。A surface probability calculation procedure using eigenvalues / eigenvectors is defined by providing, as a criterion, a discriminant method using four local shape primitives, that is, a uniform primitive, a point primitive, a straight line primitive, and a plane primitive. it can.
【0062】多重解像度の概念を本発明に導入すること
で,より安定した形状判定を可能とする。Introducing the concept of multi-resolution into the present invention enables more stable shape determination.
【0063】多くの方向から撮影した画像を統合するマ
ルチベースライン法を本発明に適用することで,信頼性
の高い形状計測を可能とする。Applying the multi-baseline method of integrating images captured from many directions to the present invention enables highly reliable shape measurement.
【0064】面確率計算手段は,三次元形状にテキスチ
ャや面傾きなどの付加情報を持たせる構成してもよい。
このように、三次元形状にテキスチャや面傾きなどの付
加情報を持たせることで,表示あるいは後の処理におい
て,効果的にデータを利用できる。The surface probability calculating means may have a configuration in which the three-dimensional shape has additional information such as texture and surface inclination.
As described above, by providing the three-dimensional shape with additional information such as texture and surface inclination, data can be effectively used in display or subsequent processing.
【0065】実施の形態2 本発明の実施の形態2について説明する。図4は装置の
構成図、図5は処理手順の説明図である。この実施の形
態2は形状構成手段401以外は、実施の形態1と同様の
構成であり、形状構成手段401は実施の形態1における
面構成手段206に換えてボリュームデータ生成手段402を
備えている。即ち、形状構成手段401は面確率計算手段2
05とボリュームデータ生成手段402を備えている。Embodiment 2 Embodiment 2 of the present invention will be described. FIG. 4 is a configuration diagram of the apparatus, and FIG. 5 is an explanatory diagram of a processing procedure. The second embodiment has the same configuration as that of the first embodiment except for the configuration unit 401, and the configuration unit 401 includes a volume data generation unit 402 instead of the surface configuration unit 206 in the first embodiment. . That is, the shape configuration means 401 is the surface probability calculation means 2
05 and volume data generating means 402.
【0066】図5に従い,処理手順を以下に説明する。 1.画像撮影手段201により,2枚の画像,画像A303,
画像B304を撮影の位置姿勢を変えて撮影し,それら撮
影パラメータ302を獲得する。このとき,画像A303およ
び画像B304の形状は平面とは限らず,曲面でも良い。
また,3枚以上の画像撮影を行い,マルチベースライン
法の概念を本実施の形態に導入,拡張しても良い。The processing procedure will be described below with reference to FIG. 1. By the image capturing means 201, two images, an image A303,
The image B 304 is photographed while changing the photographing position and orientation, and the photographing parameters 302 are obtained. At this time, the shapes of the image A303 and the image B304 are not limited to flat surfaces but may be curved surfaces.
Alternatively, three or more images may be captured, and the concept of the multi-baseline method may be introduced and extended to the present embodiment.
【0067】2.画像投射手段202を用い,撮影パラメ
ータ302に基づいて撮影画像A303、B304を計算機内仮
想空間に投射する。このとき投射する画素情報は,画像
中の画素の輝度や色情報など対応点検索で用いることが
できるものであれば何でも良い。また,以下の手順3 で
述べるように,複数の画素情報について投射および処理
を行い,それらを統合しても良い。2. Using the image projection means 202, the photographed images A303 and B304 are projected onto the virtual space in the computer based on the photographing parameters 302. The pixel information to be projected at this time may be anything as long as it can be used in the corresponding point search, such as the luminance and color information of the pixels in the image. Also, as described in Procedure 3 below, projection and processing may be performed on a plurality of pieces of pixel information, and these may be integrated.
【0068】3.相関度計算手段203を用い,計算機内
仮想空間内の各空間点において,画素点が対応する確率
を示す相関度データ306をそれぞれ生成する。具体的に
は,2つの画像面から投射された2本の画素投射直線305
の相関度を計算し,相関度データ306を生成する。相関
度は,例えば各画素投射直線305(元の画素)の持つ輝
度や色相などの各相関度を重みをつけて統合したものと
する。また,画素情報そのものの相関度ではなく,画素
情報の正規化二次微分量や,テキスチャの特徴量や,Ga
borフィルタの処理結果など周波数空間の特徴量の相関
度を用いても良い。3. Using the correlation degree calculation means 203, correlation degree data 306 indicating the probability that a pixel point corresponds to each space point in the virtual space in the computer is generated. Specifically, two pixel projection straight lines 305 projected from two image planes
Is calculated, and correlation degree data 306 is generated. The correlation degree is, for example, a value obtained by integrating the correlation degrees such as luminance and hue of each pixel projection straight line 305 (original pixel) with weight. Also, instead of the degree of correlation of the pixel information itself, the normalized second derivative of the pixel information, the feature amount of the texture, the Ga
A correlation degree of a feature amount in a frequency space such as a processing result of a bor filter may be used.
【0069】4.面確率計算手段205を用い,相関度デ
ータから局所的に面や直線である面確率を計算する。面
確率は,例えば以下のように計算できる。各空間点にお
ける局所データからHessian行列の固有値/固有ベクト
ルを計算し,各固有値の大きさを比較することで,面確
率を計算できる。面確率は、実施の形態1で述べた方法
で、計算する。4. The surface probability which is a surface or a straight line is locally calculated from the correlation degree data using the surface probability calculation means 205. The surface probability can be calculated, for example, as follows. The eigenvalue / eigenvector of the Hessian matrix is calculated from the local data at each spatial point, and the surface probability can be calculated by comparing the magnitude of each eigenvalue. The surface probability is calculated by the method described in the first embodiment.
【0070】5.手順 4で求めた面確率を全ての計算機
内仮想空間内の空間点において計算し,面確率データを
計算する。その際,計算を安定させるために,例えば,
低解像度データでの処理(大局的処理)から高解像度デ
ータでの処理(局所的処理)を行い,それらを統合する
など,多重解像度による面確率計算を行っても良い。5. The surface probabilities obtained in step 4 are calculated at all spatial points in the virtual space in the computer, and the surface probability data is calculated. At that time, to stabilize the calculation, for example,
Surface probability calculation using multiple resolutions may be performed, for example, by processing from low-resolution data (global processing) to processing with high-resolution data (local processing) and integrating them.
【0071】また、その後に、面確率計算手段205で生
成された面確率データに対して、「一つの画素(画像の
焦点が十分合っているならば)は、只一つの三次元点か
らの光線を検出している」という拘束条件を用いノイズ
を除去する方法を施してもよい。After that, with respect to the surface probability data generated by the surface probability calculation means 205, "one pixel (if the image is sufficiently focused) is obtained from only one three-dimensional point. A method of removing noise using a constraint condition that “light rays are detected” may be applied.
【0072】この方法は、従来技術4の対応点探索手段
に手法が類似している。従来技術4は画素の対応付けを
行う際に、“画素データの相関度データそのもの”に対
して各画素点においおて最大確率を持つ点を抽出する。
対して本発明の手法は“画素データの相関度データに、
さらに物体表面の空間的連続性を考慮した面確率デー
タ”に対して各画素点において最大確率を持つ点を抽出
する。即ち、既に物体表面の空間的連続性が考慮された
データに対して選択処理を行うので、従来技術4と比較
しても、ノイズ除去の効果は大幅に向上する。This method is similar in technique to the corresponding point searching means of the prior art 4. Prior Art 4 extracts the point having the highest probability at each pixel point with respect to “correlation data of pixel data itself” when associating pixels.
On the other hand, the method of the present invention is based on “correlation data of pixel data
Furthermore, the point having the maximum probability at each pixel point is extracted from the “surface probability data taking into account the spatial continuity of the object surface”. Since the processing is performed, the effect of noise removal is significantly improved as compared with the related art 4.
【0073】6.ボリュームデータ生成手段402を用い
て,手順5 で求めた面確率データ307から,面確率を透
明度(面確率の低い部分を透明にし、高い部分を不透明
にする)としたボリュームデータを生成し,三次元形状
データ207を生成する。あるいは,面確率データ307その
ものをボリュームデータとして記述しても良い。6. Using the volume data generation means 402, volume data with the surface probability set to be transparent (to make the portion with low surface probability transparent and to make the high portion opaque) is generated from the surface probability data 307 obtained in step 5, The original shape data 207 is generated. Alternatively, the surface probability data 307 itself may be described as volume data.
【0074】ボリュウムデータにおいて、局所領域の形
状分類を行う方法は、例えば、SatoY.,Nakajima S.,Shi
raga N.,Atsumi H.,Yoshida S.,Koller T.,Gerig G.,an
d Kikinis R:“Three-Dimensional Multi-Scale Line F
ilter for Segmentation and Visualization of Curvil
inear Structures in Medical Imeges”,in MedicalIme
ge Analysis,2(2):143-168,1998に述べられている。こ
の研究では、ボリュウム医療画像から血管等を抽出する
ために、局所分類を行っている。本実施の形態2はこの
技術を形状計測に応用したものである。A method for classifying the shape of a local region in volume data is described in, for example, SatoY., Nakajima S., Shi
raga N., Atsumi H., Yoshida S., Koller T., Gerig G., an
d Kikinis R: “Three-Dimensional Multi-Scale Line F
ilter for Segmentation and Visualization of Curvil
inear Structures in Medical Imeges ”, in MedicalIme
ge Analysis, 2 (2): 143-168, 1998. In this research, local classification is performed to extract blood vessels and the like from volume medical images. The second embodiment is an application of this technique to shape measurement.
【0075】また,さらに図6に示したように面確率の
変化を強調するような処理を、ボリュームデータ生成手
段402に追加してもよい。この方法は例えば細線化処理
のような処理を、面確率データに対して施すことで、ボ
リュームデータの物体表面をより鮮明にすることができ
る。Further, as shown in FIG. 6, a process for emphasizing the change in the surface probability may be added to the volume data generating means 402. In this method, for example, a process such as a thinning process is performed on the surface probability data, so that the object surface of the volume data can be made clearer.
【0076】図5では説明のため一断面における相関度
データ,面確率データ,および三次元形状の図を示して
いるが,実際の相関度データ306,面確率データ307,お
よび三次元形状403は三次元空間内に広がって存在す
る。FIG. 5 shows the correlation data, the surface probability data, and the three-dimensional shape in one section for the sake of explanation, but the actual correlation data 306, the surface probability data 307, and the three-dimensional shape 403 are the same. Exists in three-dimensional space.
【0077】面形状強調手段を有することで,より効果
的なボリュームデータの表示を可能とする。The presence of the surface shape emphasizing means enables more effective display of volume data.
【0078】面確率計算手段において,ひとつの画素に
は只一つの三次元点からの光線しか投影されないという
拘束を導入することで,効果的にノイズ(誤対応点)を
除去することができる。In the surface probability calculation means, noise (miscorresponding points) can be effectively removed by introducing a constraint that only one three-dimensional light ray is projected on one pixel.
【0079】[0079]
【発明の効果】本発明では,相関度計算手段と形状構成
手段を有し、まず相関度データを計算し,次にそこから
相関度データの特徴量,例えば,線らしさや面らしさな
どを表す面確率データを生成、さらにそこから三次元形
状を構成する。即ち、画素情報に加え,物体表面を構成
する点の空間的連続性を拘束条件として導入し,対応点
を求める。これにより,「画素情報の相関が高い」だけ
でなく,「空間的に連続している」データを三次元形状
として抽出できる。According to the present invention, there is provided a correlation degree calculating means and a shape forming means. First, the correlation degree data is calculated, and then the characteristic amount of the correlation degree data, for example, the line-likeness or the surface-likeness is represented therefrom. Surface probability data is generated, and a three-dimensional shape is formed from the data. That is, in addition to the pixel information, the spatial continuity of points constituting the object surface is introduced as a constraint condition, and a corresponding point is obtained. Thus, not only “correlation of pixel information is high” but also “spatially continuous” data can be extracted as a three-dimensional shape.
【0080】また,「局所的に物体表面は連続してい
る」という一般的な拘束を用いるため,特徴点など三次
元形状に関する予備知識を必要としない。さらに局所的
に形状を定義し大局的にはその繋ぎ合わせで形状を復元
することになるので,大局的に見た場合に自由な形状を
構成でき,従来技術 4 のように三次元形状に関する予
備知識を必要としない。In addition, since a general constraint that “the object surface is locally continuous” is used, it is not necessary to have any prior knowledge about three-dimensional shapes such as feature points. Furthermore, since the shape is locally defined and the shape is restored by connecting the shapes globally, a free shape can be configured when viewed globally. Does not require knowledge.
【0081】面確率データは表面データにはなっておら
ず、物体の表面形状データを構成するためには、何らか
の処理が必要である。面確率データに薄面化処理などの
形状構成手段を加えることで,従来の方法では処理が困
難であった「画一的な処理による表面データの生成」が
可能となる。この方法により、より信頼性の高い形状計
測を可能とする。The surface probability data is not surface data, and some processing is required to construct the surface shape data of the object. By adding shape forming means such as a thinning process to the surface probability data, it is possible to “generate surface data by uniform processing”, which is difficult to perform with the conventional method. This method enables more reliable shape measurement.
【0082】表示を目的とする場合においては、三次元
形状にボリュームデータを用いることで、表面データを
用いる場合よりも、少ない処理時間で、よりロバスト
(ノイズの影響の少ない)な表示が期待できる。For display purposes, more robust display (with less influence of noise) can be expected with less processing time by using volume data for the three-dimensional shape than when using surface data. .
【0083】面確率計算手段において,相関度データか
らHessian行列の固有値/固有ベクトルを用いて面確率
計算を行うことで,効果的に面形状を抽出できる。The surface probability can be effectively extracted by calculating the surface probability from the correlation data using the eigenvalue / eigenvector of the Hessian matrix.
【0084】一様プリミティブ,点プリミティブ,直線
プリミティブ,平面プリミティブの4 つの局所形状プリ
ミティブあるいはその一部を用いた判別法を判定基準と
して設けることで,固有値/固有ベクトルを用いた面確
率計算手順を定義できる。By defining as a criterion a discriminant method using four local shape primitives, that is, a uniform primitive, a point primitive, a straight line primitive, and a plane primitive, or a part thereof, a surface probability calculation procedure using an eigenvalue / eigenvector is defined. it can.
【図1】 本発明の実施の形態1を示す装置の構成図。FIG. 1 is a configuration diagram of an apparatus according to Embodiment 1 of the present invention.
【図2】 実施の形態1の処理手順の説明図。FIG. 2 is an explanatory diagram of a processing procedure according to the first embodiment;
【図3】 面確率計算手段による局所形状分類の一実施
例を示す説明図。FIG. 3 is an explanatory diagram showing an example of local shape classification by a surface probability calculation unit.
【図4】 実施の形態2を示す装置の構成図。FIG. 4 is a configuration diagram of an apparatus according to Embodiment 2.
【図5】 実施の形態2における処理手順の説明図。FIG. 5 is an explanatory diagram of a processing procedure according to the second embodiment.
【図6】 実施の形態2における他の例の動作説明図。FIG. 6 is an operation explanatory diagram of another example in Embodiment 2.
【図7】 従来装置の処理手順の説明図。FIG. 7 is an explanatory diagram of a processing procedure of a conventional device.
201:画像撮影手段、202:画像投射手段、203:相関度
計算手段、204:形状構成手段、205:面確率計算手段、
206:面構成手段、207:三次元形状データ、401:形状
構成手段、402:ボリュームデータ生成手段。201: image photographing means, 202: image projecting means, 203: correlation degree calculating means, 204: shape composing means, 205: surface probability calculating means,
206: surface configuration means, 207: three-dimensional shape data, 401: shape configuration means, 402: volume data generation means.
Claims (6)
夫々の画像を取得する画像撮影手段と,画像撮影手段の
光学系を定義した撮影系モデルとこの撮影系モデルにお
ける撮影パラメータに従って,画像撮影手段で撮影され
た夫々の画像上の各画素値を計算機内仮想空間に投射す
る画像投射手段と,各画像から投射された投射面が重な
る領域において,各画素点の画素情報を投射した直線
(以下,画素投射直線と称す)の相関度を計算して相関
度データを生成する相関度計算手段と,相関度データか
ら三次元形状を構成するための三次元形状データを生成
する形状構成手段とを有することを特徴とする三次元形
状計測装置。An image photographing means for photographing a target object from a plurality of different viewpoints and acquiring respective images, a photographing system model defining an optical system of the image photographing means, and photographing parameters according to photographing parameters in the photographing system model. Image projection means for projecting each pixel value on each image taken by the means into the virtual space in the computer, and a straight line projecting pixel information of each pixel point in an area where the projection plane projected from each image overlaps ( (Hereinafter referred to as pixel projection straight line) correlation degree calculation means for calculating correlation degree and generating correlation degree data, and shape construction means for generating three-dimensional shape data for forming a three-dimensional shape from the correlation degree data. A three-dimensional shape measuring apparatus comprising:
三次元形状を復元する表面データであり、この各表面デ
ータが物体表面を構成している面確率を類似度データか
ら計算するための面確率計算手段と,面確率から物体表
面を構成するデータを生成する面構成手段をすることを
特徴とする三次元形状計測装置。2. The method according to claim 1, wherein the data to be generated is surface data for restoring a three-dimensional shape, and each of the surface data is used to calculate a surface probability forming an object surface from the similarity data. A three-dimensional shape measuring apparatus comprising: probability calculation means; and surface configuration means for generating data constituting an object surface from surface probabilities.
三次元形状を復元する透明度を情報に含むボリュームデ
ータであり,類似度データから面確率データを生成する
ための面確率計算手段と、面確率データからボリューム
データを生成するボリュームデータ生成手段を有するこ
とを特徴とする三次元形状計測装置。3. A surface probability calculating means for generating surface probability data from similarity data, wherein the data to be generated is volume data including transparency for restoring a three-dimensional shape. A three-dimensional shape measuring apparatus comprising volume data generating means for generating volume data from probability data.
essian行列から局所領域における固有値/固有ベクトル
を計算し、各基底の固有値の比較より形状のプリミティ
ブ(以下,局所形状プリミティブと称す)を計算し、固
有ベクトルの向きより局所形状プリミティブの向きを計
算する構成にされたことを特徴とする請求項2または請
求項3記載の三次元形状計測装置。4. The method according to claim 1, wherein the surface probability calculation means calculates the H of the correlation data.
Calculate eigenvalues / eigenvectors in the local region from the essian matrix, calculate shape primitives (hereinafter referred to as local shape primitives) by comparing eigenvalues of each basis, and calculate the orientation of local shape primitives from the orientation of eigenvectors. The three-dimensional shape measuring apparatus according to claim 2 or 3, wherein
ブとして、一様プリミティブ,点プリミティブ,直線プ
リミティブ,平面プリミティブの4つの局所形状プリミ
ティブの何れかを出力する構成にされたことを特徴とす
る請求項4記載の三次元形状計測装置。5. The surface probability calculating means is configured to output any one of four local shape primitives of a uniform primitive, a point primitive, a straight line primitive, and a plane primitive as a local shape primitive. Item 3. The three-dimensional shape measuring apparatus according to Item 4.
素には只一つの三次元点からの光線しか投影されないと
いう拘束条件を用い,求めた三次元形状から面確率の低
いものを除去する構成にされたことを特徴とする請求項
2または請求項3記載の三次元形状計測装置。6. The surface probability calculating means further uses a constraint condition that a ray from only one three-dimensional point is projected on one pixel, and removes a low surface probability from the obtained three-dimensional shape. The three-dimensional shape measuring apparatus according to claim 2 or 3, wherein the three-dimensional shape measuring apparatus is configured.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000159992A JP2001338279A (en) | 2000-05-30 | 2000-05-30 | 3D shape measuring device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000159992A JP2001338279A (en) | 2000-05-30 | 2000-05-30 | 3D shape measuring device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2001338279A true JP2001338279A (en) | 2001-12-07 |
Family
ID=18664244
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000159992A Abandoned JP2001338279A (en) | 2000-05-30 | 2000-05-30 | 3D shape measuring device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2001338279A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007502465A (en) * | 2003-08-13 | 2007-02-08 | シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド | Method and system for detecting lung nodules and colon polyps using structural tensors |
| JP2007334789A (en) * | 2006-06-19 | 2007-12-27 | Institute Of Physical & Chemical Research | Neutral plane generation method and program for generating neutral plane from volume data |
| US10571254B2 (en) | 2016-02-25 | 2020-02-25 | Dai Nippon Printing Co., Ltd. | Three-dimensional shape data and texture information generating system, imaging control program, and three-dimensional shape data and texture information generating method |
| JP2025076373A (en) * | 2023-10-31 | 2025-05-15 | メディーピクセル インコーポレイテッド | Method and electronic device for generating three-dimensional vascular profile data - Patents.com |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS63244174A (en) * | 1987-03-30 | 1988-10-11 | Agency Of Ind Science & Technol | Method and device for image processing |
| JPH0528246A (en) * | 1991-07-22 | 1993-02-05 | A T R Shichiyoukaku Kiko Kenkyusho:Kk | 3D object recognition device |
| JPH09204532A (en) * | 1996-01-25 | 1997-08-05 | Hitachi Ltd | Image recognition method and image display method |
-
2000
- 2000-05-30 JP JP2000159992A patent/JP2001338279A/en not_active Abandoned
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS63244174A (en) * | 1987-03-30 | 1988-10-11 | Agency Of Ind Science & Technol | Method and device for image processing |
| JPH0528246A (en) * | 1991-07-22 | 1993-02-05 | A T R Shichiyoukaku Kiko Kenkyusho:Kk | 3D object recognition device |
| JPH09204532A (en) * | 1996-01-25 | 1997-08-05 | Hitachi Ltd | Image recognition method and image display method |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007502465A (en) * | 2003-08-13 | 2007-02-08 | シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド | Method and system for detecting lung nodules and colon polyps using structural tensors |
| JP2007334789A (en) * | 2006-06-19 | 2007-12-27 | Institute Of Physical & Chemical Research | Neutral plane generation method and program for generating neutral plane from volume data |
| US10571254B2 (en) | 2016-02-25 | 2020-02-25 | Dai Nippon Printing Co., Ltd. | Three-dimensional shape data and texture information generating system, imaging control program, and three-dimensional shape data and texture information generating method |
| JP2025076373A (en) * | 2023-10-31 | 2025-05-15 | メディーピクセル インコーポレイテッド | Method and electronic device for generating three-dimensional vascular profile data - Patents.com |
| JP7692233B2 (en) | 2023-10-31 | 2025-06-13 | メディーピクセル インコーポレイテッド | Method and electronic device for generating three-dimensional vascular profile data - Patents.com |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6430064B2 (en) | Method and system for aligning data | |
| Cui et al. | Global structure-from-motion by similarity averaging | |
| US10109055B2 (en) | Multiple hypotheses segmentation-guided 3D object detection and pose estimation | |
| Faugeras et al. | Complete dense stereovision using level set methods | |
| US10225473B2 (en) | Threshold determination in a RANSAC algorithm | |
| CN109242873A (en) | A method of 360 degree of real-time three-dimensionals are carried out to object based on consumer level color depth camera and are rebuild | |
| CN103430218A (en) | Method of augmented makeover with 3d face modeling and landmark alignment | |
| Sinha et al. | Synchronization and Calibration of Camera Networks from Silhouettes. | |
| CN106228507A (en) | A kind of depth image processing method based on light field | |
| CN105719352B (en) | Face three-dimensional point cloud super-resolution fusion method and apply its data processing equipment | |
| WO2005081178A1 (en) | Method and apparatus for matching portions of input images | |
| CN115035235B (en) | Three-dimensional reconstruction method and device | |
| Fidaleo et al. | Model-assisted 3d face reconstruction from video | |
| CN115393519A (en) | Three-dimensional reconstruction method based on infrared and visible light fusion image | |
| CN106599806A (en) | Local curved-surface geometric feature-based human body action recognition method | |
| CN113902855B (en) | Three-dimensional face reconstruction method based on camera equipment and related equipment | |
| JP4850768B2 (en) | Apparatus and program for reconstructing 3D human face surface data | |
| Nicolescu et al. | A voting-based computational framework for visual motion analysis and interpretation | |
| CN112016495A (en) | Face recognition method and device and electronic equipment | |
| JP2008261756A (en) | Apparatus and program for estimating a three-dimensional head posture in real time from a pair of stereo images | |
| Al Ismaeil et al. | Real-time enhancement of dynamic depth videos with non-rigid deformations | |
| JP2002032743A (en) | Three-dimensional image generation system, three-dimensional image generation method, and program providing medium | |
| JP2001338279A (en) | 3D shape measuring device | |
| CN111783497B (en) | Method, device and computer-readable storage medium for determining features of a target in a video | |
| JP3275252B2 (en) | Three-dimensional information input method and three-dimensional information input device using the same |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20040628 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060203 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060214 |
|
| A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20060407 |