[go: up one dir, main page]

JP2005031044A - Three-dimensional error measuring device - Google Patents

Three-dimensional error measuring device Download PDF

Info

Publication number
JP2005031044A
JP2005031044A JP2003273564A JP2003273564A JP2005031044A JP 2005031044 A JP2005031044 A JP 2005031044A JP 2003273564 A JP2003273564 A JP 2003273564A JP 2003273564 A JP2003273564 A JP 2003273564A JP 2005031044 A JP2005031044 A JP 2005031044A
Authority
JP
Japan
Prior art keywords
dimensional
orientation
point
imaging device
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003273564A
Other languages
Japanese (ja)
Inventor
Yuichiro Akatsuka
祐一郎 赤塚
Yukito Furuhashi
幸人 古橋
Takao Shibazaki
隆男 柴▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2003273564A priority Critical patent/JP2005031044A/en
Publication of JP2005031044A publication Critical patent/JP2005031044A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To simply measure a three-dimensional deviation. <P>SOLUTION: The same characteristic point identification means 5 identifies the same characteristic point, in a visual field photographed from a different position from a characteristic point extracted with a characteristic point extraction means 2. A characteristic point three-dimensional position identification means 6 finds mutual position attitude relation of an imaging device 1 in each photography by the position attitude of the imaging device 1, in photographing in a reference coordinate system acquired with a photographic position attitude acquiring means 4. The position relation of the extraction characteristic point and the imaging device 1 is identified from the same identified characteristic point in a plurality of photographed visual field by using it, and a three-dimensional position is calculated in the reference coordinate system of the extracted characteristic point. Thereafter, a corresponding inter-point three-dimensional error measuring means 8 calculates three-dimensional errors in the reference coordinate system between the extraction characteristic point and a corresponding point on design information, from the design information stored to a design information storing means 7 and the calculated three-dimensional position. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、測定対象物の設計値からの三次元の誤差を測定する三次元誤差測定装置に関する。   The present invention relates to a three-dimensional error measuring apparatus that measures a three-dimensional error from a design value of a measurement object.

測定対象物の設計値からの三次元の誤差を測定する場合、レーザースキャナ等の三次元形状取得装置を用いて測定対象物の現状の三次元形状をコンピュータに入力し、予め入力してある設計置などの基準情報とその取得した三次元形状とを比較することでずれ量を検知するのが一般的である。   When measuring the 3D error from the design value of the measurement object, the current 3D shape of the measurement object is input to the computer using a 3D shape acquisition device such as a laser scanner, and the design is input in advance. Generally, the amount of deviation is detected by comparing reference information such as a position and the acquired three-dimensional shape.

また、固定した(即ち、位置姿勢が既知の)カメラによって測定対象物を撮影し、その視野中の対象物の基準位置に対するずれを検知する手法も提案されている(例えば、特許文献1参照)。
特開平5−108126号公報
In addition, a method has been proposed in which a measurement object is photographed by a fixed camera (that is, the position and orientation are known), and a deviation of the object in the field of view from the reference position is detected (for example, see Patent Document 1). .
JP-A-5-108126

しかしながら、レーザースキャナ等の三次元形状取得装置を用いた一般的な手法では、高価なレーザースキャナ等の三次元形状取得装置が必要であり、また、測定手順が複雑で手間がかかった。   However, a general method using a three-dimensional shape acquisition device such as a laser scanner requires an expensive three-dimensional shape acquisition device such as a laser scanner, and the measurement procedure is complicated and time-consuming.

また、上記特許文献1に開示の手法では、予め位置姿勢のわかっているカメラ位置からの対象物画像と、対象物の設計値のカメラ位置からの投影画像との差分からずれ量を求めている。しかしながら、対象物上に予め複数の基準点を設ける必要があること、カメラ位置が固定であるため一方向からの画像しか得ることが出来ないこと、が問題であった。   In the method disclosed in Patent Document 1, the amount of deviation is obtained from the difference between the object image from the camera position whose position and orientation are known in advance and the projected image from the camera position of the design value of the object. . However, there are problems in that it is necessary to provide a plurality of reference points on the object in advance, and that only the image from one direction can be obtained because the camera position is fixed.

本発明は、上記の点に鑑みてなされたもので、カメラ位置を自由に移動させて三次元のずれ量の計測を簡易に行うことが可能な三次元誤差測定装置を提供することを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to provide a three-dimensional error measuring apparatus capable of easily measuring a three-dimensional deviation amount by freely moving a camera position. To do.

上記の目的を達成するために、請求項1に記載の発明による三次元誤差測定装置は、
対象物を撮影する撮像装置と、
前記撮像装置で撮影した視野内から特徴点を抽出する手段と、
それぞれ前記特徴点を抽出する手段によって抽出された特徴点から、前記撮像装置を用いて異なる位置から撮影した視野内の同一の特徴点の同定を行う手段と、
少なくとも1つの撮影における基準座標系での前記撮像装置の位置姿勢を取得する手段と、
前記取得された位置姿勢より、各撮影における前記撮像装置の相互位置姿勢関係を求める手段と、
前記相互位置姿勢関係を用いて、撮影した複数の視野内にある、前記同定された同一特徴点から、前記抽出した特徴点と前記撮像装置との位置関係を同定する手段と、
を具備し、
前記同定した位置関係を用いて、前記抽出した特徴点とその特徴点に対応する対象物の設計値上の対応点との間の基準座標系における三次元誤差を計測することを特徴とする。
In order to achieve the above object, a three-dimensional error measuring apparatus according to the invention described in claim 1 comprises:
An imaging device for photographing an object;
Means for extracting feature points from the field of view photographed by the imaging device;
Means for identifying the same feature points in the field of view taken from different positions using the imaging device, from the feature points extracted by the means for extracting the feature points respectively;
Means for acquiring a position and orientation of the imaging device in a reference coordinate system in at least one shooting;
Means for obtaining a mutual position and orientation relationship of the imaging device in each photographing from the acquired position and orientation;
Means for identifying a positional relationship between the extracted feature point and the imaging device from the identified same feature point in a plurality of captured fields of view using the mutual position and orientation relationship;
Comprising
Using the identified positional relationship, a three-dimensional error in a reference coordinate system between the extracted feature point and the corresponding point on the design value of the object corresponding to the feature point is measured.

また、請求項2に記載の発明による三次元誤差測定装置は、請求項1に記載の発明による三次元誤差測定装置において、前記撮像装置の位置姿勢を取得する手段は、機械式位置姿勢検出機構によるものであることを特徴とする。   According to a second aspect of the present invention, in the three-dimensional error measurement device according to the first aspect of the present invention, the means for acquiring the position and orientation of the imaging device is a mechanical position and orientation detection mechanism. It is characterized by.

また、請求項3に記載の発明による三次元誤差測定装置は、請求項1に記載の発明による三次元誤差測定装置において、前記撮像装置の位置姿勢を取得する手段は、磁気式位置姿勢検出機構によるものであることを特徴とする。   According to a third aspect of the present invention, in the three-dimensional error measurement device according to the first aspect of the present invention, the means for acquiring the position and orientation of the imaging device is a magnetic position and orientation detection mechanism. It is characterized by.

また、請求項4に記載の発明による三次元誤差測定装置は、請求項1に記載の発明による三次元誤差測定装置において、前記撮像装置の位置姿勢を取得する手段は、光学式位置姿勢検出機構によるものであることを特徴とする。   According to a fourth aspect of the present invention, in the three-dimensional error measuring apparatus according to the first aspect of the present invention, the means for acquiring the position and orientation of the imaging device is an optical position and orientation detection mechanism. It is characterized by.

また、請求項5に記載の発明による三次元誤差測定装置は、請求項1に記載の発明による三次元誤差測定装置において、前記撮像装置の位置姿勢を取得する手段は、前記撮像装置で撮影した画像内に含まれるマーカによるものであることを特徴とする。   Further, the three-dimensional error measuring device according to the invention described in claim 5 is the three-dimensional error measuring device according to claim 1, wherein the means for obtaining the position and orientation of the imaging device is photographed by the imaging device. It is based on the marker contained in an image, It is characterized by the above-mentioned.

また、請求項6に記載の発明による三次元誤差測定装置は、請求項2乃至5の何れかに記載の発明による三次元誤差測定装置において、
前記抽出した特徴点と前記撮像装置との位置関係を同定する手段は、当該特徴点の基準座標系における三次元位置を算出する手段を含み、
前記撮像装置の位置姿勢を取得する手段は、
前記三次元位置を算出する手段により3点以上の抽出特徴点の三次元位置を取得するまでは、請求項2乃至5の何れかに記載の手段で前記撮像装置の位置姿勢を取得し、
前記三次元位置を算出する手段により3点以上の抽出特徴点の三次元位置を取得後は、それら抽出された複数の特徴点の三次元位置、更に追加抽出同定された特徴点の三次元位置、請求項2乃至5の何れかに記載の手段の何れか、またはその組み合わせによって、前記撮像装置の位置姿勢を取得することを特徴とする。
A three-dimensional error measuring apparatus according to the invention described in claim 6 is the three-dimensional error measuring apparatus according to any one of claims 2 to 5,
The means for identifying the positional relationship between the extracted feature point and the imaging device includes means for calculating a three-dimensional position of the feature point in a reference coordinate system,
Means for acquiring the position and orientation of the imaging device
Until the three-dimensional positions of three or more extracted feature points are acquired by the means for calculating the three-dimensional position, the position and orientation of the imaging device is acquired by the means according to any one of claims 2 to 5,
After obtaining the three-dimensional positions of three or more extracted feature points by the means for calculating the three-dimensional position, the three-dimensional positions of the plurality of extracted feature points, and the three-dimensional positions of the additional extracted and identified feature points The position and orientation of the imaging apparatus are obtained by any one of the means according to any one of claims 2 to 5 or a combination thereof.

また、請求項7に記載の発明による三次元誤差測定装置は、請求項1乃至6の何れかに記載の発明による三次元誤差測定装置において、前記異なる位置から撮影した視野内の同一の特徴点の同定を行う手段は、異なる視野間で抽出特徴点を連続的に追跡する手段を含むことを特徴とする。   A three-dimensional error measuring apparatus according to a seventh aspect of the present invention is the three-dimensional error measuring apparatus according to any one of the first to sixth aspects, wherein the same feature points in the field of view taken from the different positions are used. The means for identifying includes a means for continuously tracking extracted feature points between different fields of view.

また、請求項8に記載の発明による三次元誤差測定装置は、請求項1乃至7の何れかに記載の発明による三次元誤差測定装置において、前記抽出した特徴点に対応する対象物の設計値上の対応点は、使用者が明示的に指定することを特徴とする。   According to an eighth aspect of the present invention, there is provided a three-dimensional error measuring device according to any one of the first to seventh aspects, wherein the design value of the object corresponding to the extracted feature point is used. The upper corresponding point is characterized by being explicitly specified by the user.

また、請求項9に記載の発明による三次元誤差測定装置は、請求項1乃至7の何れかに記載の発明による三次元誤差測定装置において、前記抽出した特徴点に対応する対象物の設計値上の対応点は、抽出特徴点を含む二次元投影画像において周囲画素を比較し同定することを特徴とする。   A three-dimensional error measuring apparatus according to the invention described in claim 9 is the three-dimensional error measuring apparatus according to any one of claims 1 to 7, wherein the design value of the object corresponding to the extracted feature point is used. The upper corresponding point is characterized by comparing and identifying surrounding pixels in the two-dimensional projection image including the extracted feature point.

また、請求項10に記載の発明による三次元誤差測定装置は、請求項1乃至7の何れかに記載の発明による三次元誤差測定装置において、前記抽出した特徴点に対応する対象物の設計値上の対応点は、抽出特徴点を含む周辺の点の三次元配置を比較し同定することを特徴とする。   A three-dimensional error measuring apparatus according to the invention described in claim 10 is the three-dimensional error measuring apparatus according to any one of claims 1 to 7, wherein the design value of the object corresponding to the extracted feature point is used. The upper corresponding point is characterized by comparing and identifying the three-dimensional arrangement of surrounding points including the extracted feature point.

また、請求項11に記載の発明による三次元誤差測定装置は、請求項1乃至7の何れかに記載の発明による三次元誤差測定装置において、前記抽出特徴点どうしを線分で結び作成したワイヤフレームモデル上の任意の点と、その点に対応する設計値上の対応点との誤差量を計測可能にする。   A three-dimensional error measuring device according to an eleventh aspect of the present invention is the three-dimensional error measuring device according to any one of the first to seventh aspects, wherein the extracted feature points are connected by line segments. An error amount between an arbitrary point on the frame model and a corresponding point on the design value corresponding to the point can be measured.

本発明によれば、カメラ位置を自由に移動させ、特徴として自動的に抽出された特徴点を用いることで、三次元のずれ量計測を簡易に行うことが可能な三次元誤差測定装置を提供することができる。   According to the present invention, there is provided a three-dimensional error measuring apparatus capable of easily measuring a three-dimensional deviation amount by freely moving a camera position and using feature points automatically extracted as features. can do.

以下、本発明を実施するための最良の形態を図面を参照して説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

[第1実施形態]
図1は、本発明の第1実施形態に係る三次元誤差測定装置の構成を示すブロック図であり、この三次元誤差測定装置は、撮像装置1、特徴点抽出手段2、画像及び撮像装置位置姿勢記憶手段3、撮像装置位置姿勢取得手段4、同一特徴点同定手段5、特徴点三次元位置同定手段6、設計情報記憶手段7、及び対応点間三次元誤差計測手段8から構成されている。
[First Embodiment]
FIG. 1 is a block diagram showing a configuration of a three-dimensional error measuring apparatus according to the first embodiment of the present invention. The three-dimensional error measuring apparatus includes an imaging device 1, a feature point extracting unit 2, an image, and an imaging device position. It consists of posture storage means 3, imaging device position / posture acquisition means 4, identical feature point identification means 5, feature point three-dimensional position identification means 6, design information storage means 7, and corresponding point three-dimensional error measurement means 8. .

ここで、上記撮像装置1は、測定対象物を撮影するカメラである。この撮像装置1で撮影された画像は、特徴点抽出手段2に与えられると共に、画像及び撮像装置位置姿勢記憶手段3に記憶される。   Here, the imaging apparatus 1 is a camera that photographs a measurement object. An image photographed by the imaging device 1 is given to the feature point extraction means 2 and is also stored in the image and imaging device position / posture storage means 3.

上記特徴点抽出手段2は、撮像装置1で撮影した画像(視野)内から特徴点を抽出するものであり、その抽出した特徴点は、上記画像及び撮像装置位置姿勢記憶手段3に記憶される。ここでいう特徴点とは、画像内の画素の強度(濃淡)の周囲との差の大きい点、色の差の大きい点などを指し、対象物のエッジ部分や角、表面の模様などがこれに当たる。抽出方法は、画像処理で良く用いられる微分を用いたエッジフィルター、コーナーディテクタ等があるが、ここでは詳しい説明は省略する。   The feature point extraction means 2 extracts feature points from the image (field of view) taken by the imaging device 1, and the extracted feature points are stored in the image and imaging device position / posture storage means 3. . The feature point here refers to a point with a large difference from the surroundings of the intensity (shading) of pixels in the image, a point with a large color difference, etc., such as the edge part, corner, and surface pattern of the object. It hits. Extraction methods include edge filters, corner detectors, and the like using differentiation, which are often used in image processing, but detailed description thereof is omitted here.

また、上記撮像装置位置姿勢取得手段4は、少なくとも1つの撮影における基準座標系での撮像装置1の位置姿勢を取得するものである。この撮像装置位置姿勢取得手段4で取得された撮像装置1の位置姿勢も、上記画像及び撮像装置位置姿勢記憶手段3に記憶される。   The imaging device position / orientation acquisition unit 4 acquires the position / orientation of the imaging device 1 in the reference coordinate system in at least one photographing. The position and orientation of the imaging device 1 acquired by the imaging device position and orientation acquisition unit 4 are also stored in the image and imaging device position and orientation storage unit 3.

なお、上記画像及び撮像装置位置姿勢記憶手段3は、半導体メモリや磁気ディスクで構成され、上記撮像装置1を用いて異なる位置から撮影した画像、及び、上記特徴点抽出手段2によってその各画像(視野)内から抽出された特徴点、並びに、上記撮像装置位置姿勢取得手段4で取得された少なくとも1つの位置姿勢を記憶可能となっている。   The image and image pickup device position / orientation storage means 3 is composed of a semiconductor memory or a magnetic disk, and images taken from different positions using the image pickup apparatus 1 and each image ( The feature point extracted from within the field of view and at least one position and orientation acquired by the imaging device position and orientation acquisition means 4 can be stored.

上記同一特徴点同定手段5は、上記画像及び撮像装置位置姿勢記憶手段3に記憶された、それぞれ上記特徴点抽出手段2によって抽出された特徴点から、上記撮像装置1を用いて異なる位置から撮影した視野内の同一の特徴点の同定を行うものである。   The same feature point identification means 5 is photographed from different positions using the image pickup device 1 from the feature points extracted by the feature point extraction means 2 respectively stored in the image and the image pickup device position / posture storage means 3. The same feature point in the field of view is identified.

上記特徴点三次元位置同定手段6は、上記画像及び撮像装置位置姿勢記憶手段3に記憶された、上記撮像装置位置姿勢取得手段4で取得された位置姿勢より、各撮影における上記撮像装置1の相互位置姿勢関係を求める。そして、その求めた相互位置姿勢関係を用いて、撮影した複数の視野内にある、前記同定された同一特徴点から、前記抽出した特徴点と前記撮像装置との位置関係を同定して、その抽出特徴点の基準座標系における三次元位置を算出するものである。   The feature point three-dimensional position identifying unit 6 is configured to store the image capturing apparatus 1 in each shooting based on the position and orientation acquired by the image capturing apparatus position and orientation acquiring unit 4 stored in the image and image capturing apparatus position and orientation storage unit 3. Find the mutual position and orientation relationship. Then, using the obtained mutual position and orientation relationship, the positional relationship between the extracted feature point and the imaging device is identified from the identified same feature point in a plurality of captured fields of view, and the The three-dimensional position of the extracted feature point in the reference coordinate system is calculated.

上記設計情報記憶手段7は、半導体メモリや磁気ディスクで構成され、上記測定対象物の設計情報を記憶している。なお、この設計情報は、基準座標と関連付けられている。   The design information storage means 7 is composed of a semiconductor memory or a magnetic disk, and stores design information of the measurement object. This design information is associated with the reference coordinates.

上記対応点間三次元誤差計測手段8は、この設計情報記憶手段7に記憶されている上記測定対象物の設計情報と、上記特徴点三次元位置同定手段6で算出された抽出特徴点の基準座標系における三次元位置とから、その抽出特徴点とその特徴点に対応する対象物の設計情報上の対応点との間の基準座標系における三次元誤差を算出するものである。また、この対応点間三次元誤差計測手段8は、少なくとも出力装置を含み、その算出した三次元誤差を出力することが可能となっている。   The corresponding point-to-point three-dimensional error measuring means 8 is the design information of the measurement object stored in the design information storage means 7 and the reference of the extracted feature points calculated by the feature point three-dimensional position identifying means 6. The three-dimensional error in the reference coordinate system between the extracted feature point and the corresponding point on the design information of the object corresponding to the feature point is calculated from the three-dimensional position in the coordinate system. In addition, the corresponding point-to-point three-dimensional error measuring means 8 includes at least an output device and can output the calculated three-dimensional error.

なお、上記撮像装置位置姿勢取得手段4としては、機械式位置姿勢検出機構によって構成することができる。例えば、図2に示すように、エンコーダ内蔵のアーム式位置姿勢検出器40に撮像装置1としてのカメラ10を取り付けたものを使用することができる。   The imaging device position / orientation acquisition means 4 can be constituted by a mechanical position / orientation detection mechanism. For example, as shown in FIG. 2, an arm-type position / orientation detector 40 with a built-in encoder, to which a camera 10 as the imaging device 1 is attached, can be used.

あるいは、上記撮像装置位置姿勢取得手段4としては、磁気式位置姿勢検出機構や光学式位置姿勢検出機構によって構成しても良い。   Alternatively, the imaging apparatus position / orientation acquisition unit 4 may be configured by a magnetic position / orientation detection mechanism or an optical position / orientation detection mechanism.

さらには、上記撮像装置1で撮影した画像内に含まれるマーカを利用するものであっても良い。このマーカを用いた位置姿勢の取得法については、「VRインターフェースのための単眼による長方形マーカー位置・姿勢の高精度実時間推定法」(3D Image Conference'96 予稿集 pp.167-172 高橋章、石井郁夫、牧野秀夫、中静真 1996)や、特開2001−118187号公報、特開2001−126051号公報、等に開示されているので、ここではその説明は省略する。   Furthermore, the marker contained in the image image | photographed with the said imaging device 1 may be utilized. For information on how to obtain the position and orientation using this marker, see “Precise real-time estimation of rectangular marker position and orientation with a single eye for VR interface” (3D Image Conference '96 Proceedings pp.167-172 Akira Takahashi, Ishii Ikuo, Makino Hideo, Nakashizuka Makoto 1996), Japanese Patent Application Laid-Open No. 2001-118187, Japanese Patent Application Laid-Open No. 2001-126051, etc., and the description thereof is omitted here.

次に、上記のような構成の三次元誤差測定装置の動作を、図3のフローチャートを参照して説明する。   Next, the operation of the three-dimensional error measuring apparatus configured as described above will be described with reference to the flowchart of FIG.

即ち、まず、撮像装置1により測定対象物を撮影する(ステップS11)。撮影された画像は、フレーム1として、画像及び撮像装置位置姿勢記憶手段3に記憶される。   That is, first, the measurement object is photographed by the imaging device 1 (step S11). The captured image is stored in the image and imaging device position / orientation storage unit 3 as a frame 1.

その後、既に三次元位置の算出された特徴点が3点以上抽出済みか否かを判別する(ステップS12)。   Thereafter, it is determined whether or not three or more feature points whose three-dimensional positions have already been calculated have been extracted (step S12).

ここで、まだ3点以上の特徴点を抽出していないならば、撮像装置位置姿勢取得手段4により、撮像装置1の基準座標系での位置姿勢を取得し、その取得した位置姿勢を上記画像及び撮像装置位置姿勢記憶手段3に記憶する(ステップS13)。また、特徴点抽出手段2により、撮像装置1で撮影した画像(視野)内から特徴点を抽出する(ステップS14)。この抽出した特徴点は、上記画像及び撮像装置位置姿勢記憶手段3に記憶される。   If three or more feature points have not yet been extracted, the imaging device position / orientation acquisition unit 4 acquires the position / orientation of the imaging device 1 in the reference coordinate system, and the acquired position / orientation is represented by the above image. And it memorize | stores in the imaging device position and orientation memory | storage means 3 (step S13). Further, the feature point extraction means 2 extracts the feature point from the image (field of view) photographed by the imaging device 1 (step S14). The extracted feature points are stored in the image and imaging device position / posture storage means 3.

その後、複数回の撮影が行われたか否かを判別する(ステップS15)。そして、まだ1回しか撮影が行われていなければ、撮像装置1を移動した上で(ステップS16)、上記ステップS11に戻る。   Thereafter, it is determined whether or not photographing has been performed a plurality of times (step S15). If the image has not been taken only once, the image pickup apparatus 1 is moved (step S16), and the process returns to step S11.

而して、撮像装置1により2回目の撮影を行い、その撮影画像を、フレーム2として、画像及び撮像装置位置姿勢記憶手段3に記憶する(ステップS11)。その後、上記と同様にして、撮像装置位置姿勢取得手段4によりそのときの撮像装置1の基準座標系での位置姿勢を取得し(ステップS13)、特徴点抽出手段2により特徴点を抽出して(ステップS14)、その取得した位置姿勢及び抽出した特徴点を上記画像及び撮像装置位置姿勢記憶手段3に記憶する。   Thus, the imaging device 1 captures a second image, and the captured image is stored as a frame 2 in the image and imaging device position / posture storage means 3 (step S11). Thereafter, in the same manner as described above, the position and orientation in the reference coordinate system of the imaging apparatus 1 at that time are acquired by the imaging apparatus position and orientation acquisition means 4 (step S13), and the feature points are extracted by the feature point extraction means 2 (Step S14), the acquired position and orientation and the extracted feature points are stored in the image and imaging device position and orientation storage means 3.

すると、今度は、上記ステップS15において、複数回の撮影が行われたと判別される。この場合には、同一特徴点同定手段5により、上記画像及び撮像装置位置姿勢記憶手段3に記憶された、それぞれ上記特徴点抽出手段2によって抽出された特徴点の内、上記撮像装置1を用いて異なる位置から撮影した複数フレーム、つまりフレーム1、2の両方に出現している同一の特徴点の同定を行う(ステップS17)。その後、特徴点三次元位置同定手段6により、上記画像及び撮像装置位置姿勢記憶手段3に記憶された、上記撮像装置位置姿勢取得手段4で取得された位置姿勢より、各撮影における上記撮像装置1の相互位置姿勢関係、即ち、複数フレームつまりフレーム1、2の撮像装置1の移動量(2視野の基線長)を算出する(ステップS18)。そして、その求めた相互位置姿勢関係を用いて、撮影した複数の視野つまりフレーム1、2内にある、上記同定された同一特徴点から、上記抽出した特徴点と上記撮像装置1との位置関係を同定して、その抽出特徴点の基準座標系における三次元位置を算出する(ステップS19)。   Then, this time, in step S15, it is determined that a plurality of shootings have been performed. In this case, among the feature points extracted by the feature point extraction unit 2 stored in the image and the imaging device position / posture storage unit 3 by the same feature point identification unit 5, the imaging device 1 is used. The same feature points appearing in a plurality of frames taken from different positions, that is, in both frames 1 and 2, are identified (step S17). Thereafter, the image pickup device 1 in each photographing is obtained from the position and orientation acquired by the image pickup device position and orientation acquisition means 4 stored in the image and image pickup device position and orientation storage means 3 by the feature point three-dimensional position identification means 6. , That is, the movement amount (base line length of two fields of view) of the imaging device 1 in a plurality of frames, that is, frames 1 and 2 is calculated (step S18). Then, using the obtained mutual position and orientation relationship, the positional relationship between the extracted feature point and the imaging device 1 from the identified same feature point in a plurality of fields of view taken, that is, the frames 1 and 2. And the three-dimensional position of the extracted feature point in the reference coordinate system is calculated (step S19).

その後、対応点間三次元誤差計測手段8により、設計情報記憶手段7に記憶されている測定対象物の設計情報と、上記算出された抽出特徴点の基準座標系における三次元位置とから、その抽出特徴点とその特徴点に対応する対象物の設計情報上の対応点との間の基準座標系における三次元誤差を算出する(ステップS20)。   Thereafter, the corresponding point-to-point three-dimensional error measuring means 8 calculates from the design information of the measurement object stored in the design information storage means 7 and the calculated three-dimensional position of the extracted feature point in the reference coordinate system. A three-dimensional error in the reference coordinate system between the extracted feature point and the corresponding point on the design information of the object corresponding to the feature point is calculated (step S20).

以上のようにして、三次元誤差が測定される。例えば、図2に示すような機械式位置姿勢検出機構によって上記撮像装置位置姿勢取得手段4を構成した場合には、まず、位置Aにおいて画像を撮影(フレーム1)し、視野内の対象物の実映像11から特徴点I〜IVを抽出し、その時のカメラ10の位置姿勢を検出器40から得る。次に、カメラ10を位置Bに移動し、同様に撮影(フレーム2)、抽出、位置姿勢取得を行う。今、特徴点Iに注目する。両フレームにおいて抽出されている特徴点Iが同一点であると判断することで、その両フレームのスクリーン座標(ua,va),(ub,vb)、及び、その時のカメラ位置姿勢A,Bを用いることで、特徴点Iの検出器40に対する三次元位置を求めることができる。そして、設計情報より作成された三次元モデル71上の対応点I’の座標と上記で求められた特徴点Iの座標とを比較することで、三次元誤差測定が行える。   As described above, the three-dimensional error is measured. For example, when the imaging apparatus position / orientation acquisition unit 4 is configured by a mechanical position / orientation detection mechanism as shown in FIG. 2, first, an image is captured at a position A (frame 1), and an object in the field of view is captured. The feature points I to IV are extracted from the real image 11 and the position and orientation of the camera 10 at that time are obtained from the detector 40. Next, the camera 10 is moved to the position B, and similarly, photographing (frame 2), extraction, and position / posture acquisition are performed. Now, pay attention to the feature point I. By determining that the feature points I extracted in both frames are the same point, the screen coordinates (ua, va), (ub, vb) of the frames and the camera positions and orientations A, B at that time are obtained. By using it, the three-dimensional position of the feature point I with respect to the detector 40 can be obtained. Then, the three-dimensional error measurement can be performed by comparing the coordinates of the corresponding point I 'on the three-dimensional model 71 created from the design information with the coordinates of the feature point I obtained above.

なお、フレーム1とフレーム2とは、連続して撮影するものとしているが、離散的に撮影しておき、後からバッチ処理で誤差を算出することも可能なことは勿論である。   Note that the frames 1 and 2 are taken continuously, but it is needless to say that errors can be calculated by batch processing after taking discrete shots.

こうして、三次元誤差の測定後、さらに、別方向から見た場合の誤差も測定する場合には(ステップS21)、上記ステップ16に戻って、撮像装置1をさらに移動させ、その後、上記ステップS11に戻って、上記の動作を繰り返す。但し、この場合には、さらにフレーム3が得られるので、上記フレーム1、2に代えて、フレーム2、3に関して上記の処理が行われることになる。   Thus, after measuring the three-dimensional error, when measuring an error when viewed from another direction (step S21), the process returns to step 16 to further move the imaging apparatus 1, and then the step S11. Return to and repeat the above operation. However, in this case, since the frame 3 is further obtained, the above processing is performed for the frames 2 and 3 instead of the frames 1 and 2.

また、3点以上の特徴点の三次元位置を算出してある場合には(ステップS12)、それら抽出された三次元位置の算出された3点以上の特徴点の三次元座標と撮像装置座標(撮影された画面内でのuv座標)とから、撮像装置1の位置姿勢を算出する(ステップS22)。即ち、撮像装置位置姿勢取得手段4を用いることなく、算出済み特徴点からだけでも、撮像装置1の位置姿勢の算出が可能となる。   If the three-dimensional positions of three or more feature points have been calculated (step S12), the three-dimensional coordinates and the imaging device coordinates of the three or more calculated feature points of the extracted three-dimensional positions. The position and orientation of the imaging apparatus 1 are calculated from (the uv coordinates in the captured screen) (step S22). That is, it is possible to calculate the position and orientation of the imaging apparatus 1 only from the calculated feature points without using the imaging apparatus position and orientation acquisition unit 4.

勿論、3点以上の特徴点を抽出しているときにも、撮像装置位置姿勢取得手段4を用いても良いし、両手法を組み合わせて使用しても良い。   Of course, when three or more feature points are extracted, the imaging device position / orientation acquisition unit 4 may be used, or a combination of both methods may be used.

[第2実施形態]
次に、本発明の第2実施形態を説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.

本実施形態は、上記同一特徴点同定手段5において、異なる視野間で抽出特徴点を連続的に追跡する手法を用いて、異なる位置から撮影した視野内の同一の特徴点の同定を行うようにしたものである。   In the present embodiment, the same feature point identification means 5 identifies the same feature point in the field of view photographed from different positions by using a method of continuously tracking the extracted feature point between different fields of view. It is a thing.

そのような異なる視野間で抽出特徴点を連続的に追跡する手法としては、例えば、US 2002/0191862 A1公報や、Proc. Of IEEE VRAIS'98 pp148-155 (1998)に開示されているようなNF(自然特徴点)トラッキングの手法が知られている。   As a technique for continuously tracking extracted feature points between different fields of view, for example, as disclosed in US 2002/0191862 A1 and Proc. Of IEEE VRAIS '98 pp148-155 (1998) An NF (natural feature point) tracking method is known.

このようなNFトラッキング手法を用いた場合には、図4の(A)に示すように位置姿勢の既知の形状Mを使用し、図4の(B)に示すような手順で、各特徴点の三次元位置が算出できる。   When such an NF tracking method is used, each feature point is used in a procedure as shown in FIG. 4B using a known shape M of the position and orientation as shown in FIG. Can be calculated.

即ち、まず初期位置1において既知形状Mを認識することでカメラ10の位置姿勢を算出し、その初期位置1から上記既知形状Mを画面(視野)に捉えたまま連続的にカメラ10を移動して行き、位置2に移動したときに、同様に上記既知形状Mを認識することで、該位置2におけるカメラ10の位置姿勢を算出する(ステップS101)。これら算出した位置1、2におけるカメラ10の位置姿勢より、位置1と位置2の間の基線長1が推定できるので、三角測量の原理により、連続的に画面に捉えられている図4の(A)に黒丸で示す各特徴点の三次元位置を算出する(ステップS102)。   That is, first, the position and orientation of the camera 10 is calculated by recognizing the known shape M at the initial position 1, and the camera 10 is continuously moved from the initial position 1 while keeping the known shape M on the screen (field of view). Then, when the camera 10 moves to the position 2 and similarly recognizes the known shape M, the position and orientation of the camera 10 at the position 2 are calculated (step S101). Since the baseline length 1 between the position 1 and the position 2 can be estimated from the calculated position and orientation of the camera 10 at the calculated positions 1 and 2, the triangulation principle of FIG. A three-dimensional position of each feature point indicated by a black circle in A) is calculated (step S102).

その後、その位置2から連続的にカメラ10を移動して行き、位置3に移動したとき、上記既知形状Mを画面に捉えられなくなるが、上記算出された各黒丸特徴点の位置から、そのような既知形状Mを画面に捉えない位置3においても、そのカメラ位置姿勢を算出できる(ステップS103)。よって、位置2と位置3の間の基線長2が算出でき、図4の(A)に白丸で示すような上記位置1では画面に捉えられていなかった特徴点についても三次元位置が算出できる(ステップS104)。   After that, when the camera 10 is continuously moved from the position 2 and moved to the position 3, the known shape M cannot be captured on the screen, but from the calculated positions of the respective black circle feature points, Even at the position 3 where the known shape M is not captured on the screen, the camera position and orientation can be calculated (step S103). Therefore, the baseline length 2 between the position 2 and the position 3 can be calculated, and the three-dimensional position can also be calculated for the feature points that are not captured on the screen at the position 1 as indicated by white circles in FIG. (Step S104).

こうして算出された各特徴点の三次元位置を用いて、上記第1実施形態と同様、対応点間三次元誤差計測手段8によって、設計情報との三次元誤差が算出されることができる。   Using the three-dimensional position of each feature point calculated in this manner, the three-dimensional error with the design information can be calculated by the corresponding-point three-dimensional error measuring means 8 as in the first embodiment.

[第3実施形態]
次に、本発明の第3実施形態を説明する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described.

図5は、本第3実施形態に係る三次元誤差測定装置の構成を示すブロック図であり、本実施形態に係る三次元誤差測定装置は、上記第1実施形態に係る三次元誤差測定装置の構成に加えて、対応点抽出手段9を備えていることを特徴とするものである。   FIG. 5 is a block diagram showing the configuration of the three-dimensional error measuring apparatus according to the third embodiment. The three-dimensional error measuring apparatus according to the present embodiment is the same as that of the three-dimensional error measuring apparatus according to the first embodiment. In addition to the configuration, it is characterized by having corresponding point extraction means 9.

この対応点抽出手段9は、上記特徴点三次元位置同定手段6で算出された抽出特徴点に対応する対象物の設計値上の対応点を、上記設計情報記憶手段7に記憶された測定対象物の設計情報から抽出するものである。この対応点の抽出方法には、使用者による人為的な対応付けによる抽出と、形状認識による自動対応付けによる抽出との2種類の方法がある。   The corresponding point extracting means 9 is a measuring object stored in the design information storage means 7 with corresponding points on the design value of the object corresponding to the extracted feature points calculated by the feature point three-dimensional position identifying means 6. This is extracted from the design information of the object. There are two types of methods for extracting the corresponding points: extraction by artificial association by the user and extraction by automatic association by shape recognition.

まず、使用者による人為的な対応付けによる抽出について説明する。   First, extraction by artificial association by the user will be described.

実際の対象物において、ずれを測定したい箇所は通常、何らかの特徴を持っているはずである。即ち、通常ずれ量を測定したいと思うのは、壁の真中などの特徴の無い部分ではなく、天井や床との境、といった特徴を持つ。よって、その箇所が、例えば上記NFトラッキングのアルゴリズム内で特徴点として抽出されている確率は高い。即ち、アルゴリズム内で特徴点としてあれば、その箇所の基準マーカである既知形状M(ホームポジション)に対する3D位置は求まっている。これと設計3D情報の中の同一点(使用者が指示する)とのずれ(三次元座標値)を求めることが可能になる。具体的には部品の角、先端などを入力装置により指定し、その時の二次元座標(カメラ視野)上で同一の特徴点があれば、その三次元座標値と設計情報より作成される三次元モデル上での三次元座標値とを比較する。   In an actual object, the point where the deviation is to be measured usually has some characteristic. In other words, the amount of displacement that is usually desired to be measured is not the featureless portion such as the middle of the wall but the feature such as the boundary between the ceiling and the floor. Therefore, there is a high probability that the location is extracted as a feature point in the NF tracking algorithm, for example. That is, if it is a feature point in the algorithm, the 3D position with respect to the known shape M (home position) which is the reference marker at that point is obtained. A deviation (three-dimensional coordinate value) between this and the same point (designated by the user) in the design 3D information can be obtained. Specifically, the corner and tip of the part are specified by the input device, and if there is the same feature point on the two-dimensional coordinate (camera field of view) at that time, the three-dimensional created from the three-dimensional coordinate value and design information Compare the three-dimensional coordinate values on the model.

これを図6の(A)のフローチャートを参照して説明する。なお、このフローチャートは、上記第1実施形態におけるステップS20のサブルーチンとして実施できるものである。また、この場合には、対応点抽出手段9は、図示はしないが、表示装置と入力装置とを備えるものである。   This will be described with reference to the flowchart of FIG. This flowchart can be implemented as a subroutine of step S20 in the first embodiment. In this case, the corresponding point extraction unit 9 includes a display device and an input device (not shown).

即ち、対応点抽出手段9は、上記特徴点三次元位置同定手段6による抽出特徴点の三次元位置算出後、表示装置に、画像及び撮像装置位置姿勢記憶手段3に記憶されている対象物の実映像を表示すると共に、設計情報記憶手段7に記憶されている設計情報より作成される三次元モデルをその実映像に重畳して表示し、その対象物の実映像上の抽出特徴点の内、誤差を求めたい点Pを使用者に入力装置によって指定させる(ステップS20A)。例えば、図7に示すように、第1及び第2の対象物についての実映像111及び112と三次元モデル711及び712とが重畳表示される。この場合、第1の対象物の実映像111と三次元モデル711とはずれ無く重なって表示され、よって、実映像111上の抽出特徴点Aの座標(Xa,Ya,Za)と三次元モデル711上の対応点A’の座標(Xa’,Ya’,Za’)とはずれていない。これに対して、第2の対象物の実映像112と三次元モデル712とはずれて重ね合っており、よって、実映像112上の抽出特徴点Bの座標(Xb,Yb,Zb)と三次元モデル712上の対応点B’の座標(Xb’,Yb’,Zb’)とはずれている。そこで、使用者は、その点Bの誤差を求めるために、入力装置により実映像112上の特徴点Bを指定することになる。   That is, the corresponding point extraction unit 9 calculates the three-dimensional position of the extracted feature point by the feature point three-dimensional position identification unit 6, and then displays the image and the object stored in the imaging device position / posture storage unit 3 on the display device. While displaying a real image, a three-dimensional model created from design information stored in the design information storage means 7 is displayed superimposed on the real image, and among the extracted feature points on the real image of the object, The user is allowed to designate a point P for which an error is to be obtained by using the input device (step S20A). For example, as shown in FIG. 7, real images 111 and 112 and three-dimensional models 711 and 712 for the first and second objects are superimposed and displayed. In this case, the real image 111 of the first object and the three-dimensional model 711 are displayed without being overlapped, and accordingly, the coordinates (Xa, Ya, Za) of the extracted feature point A on the real image 111 and the three-dimensional model 711 are displayed. It does not deviate from the coordinates (Xa ′, Ya ′, Za ′) of the corresponding point A ′ above. On the other hand, the real image 112 of the second object and the three-dimensional model 712 are separated from each other, and thus the coordinates (Xb, Yb, Zb) of the extracted feature point B on the real image 112 and the three-dimensional model are overlapped. It is deviated from the coordinates (Xb ′, Yb ′, Zb ′) of the corresponding point B ′ on the model 712. Therefore, the user designates the feature point B on the actual image 112 by the input device in order to obtain the error of the point B.

次に、対応点抽出手段9は、同様にして、使用者に、設計情報上の対応点P’を指定させる(ステップS20B)。即ち、図7の例では、設計情報より作られた三次元モデル712上の対応点B’を指定することになる。   Next, the corresponding point extracting unit 9 similarly causes the user to specify the corresponding point P ′ on the design information (step S20B). That is, in the example of FIG. 7, the corresponding point B ′ on the three-dimensional model 712 created from the design information is designated.

このようにして特徴点P及び対応点P’が指定されたならば、該対応点抽出手段9の後段の対応点間三次元誤差計測手段8により、それら指定された特徴点P(図7の例では特徴点B)と対応点P’(図7の例では特徴点B’)の三次元誤差を算出することになる(ステップS20C)。   If the feature point P and the corresponding point P ′ are designated in this way, the corresponding feature point P (in FIG. In the example, the three-dimensional error between the feature point B) and the corresponding point P ′ (feature point B ′ in the example of FIG. 7) is calculated (step S20C).

次に、形状認識による自動対応付けによる対応点の抽出方法について説明する。   Next, a method for extracting corresponding points by automatic association by shape recognition will be described.

これは、予め、設計情報上で、求めたい点を指定しておくものである。そして、画像を撮影したときの撮像装置1の位置姿勢から、設計(CAD)情報を二次元投影し、設計情報上の求める点の周囲例えば15×15画素を抽出して、テンプレートを作成する。その後、撮影画像上を15×15画素のウィンドウで比較していき、最も類似度の高い画素を対応点とする。その対応点が抽出特徴点と閾値、例えば2画素以内であれば、設計情報上のその点との位置情報比較を行うものである。   In this method, points to be obtained are designated in advance on the design information. Then, the design (CAD) information is two-dimensionally projected from the position and orientation of the imaging apparatus 1 when the image is taken, and a template is created by extracting, for example, 15 × 15 pixels around the desired point on the design information. Thereafter, the captured images are compared in a 15 × 15 pixel window, and the pixel having the highest similarity is used as the corresponding point. If the corresponding point is an extracted feature point and a threshold value, for example, within 2 pixels, position information is compared with that point on the design information.

これを、図6の(B)のフローチャートを参照して説明する。なお、このフローチャートは、上記第1実施形態におけるステップS20のサブルーチンとして実施できるものである。   This will be described with reference to the flowchart of FIG. This flowchart can be implemented as a subroutine of step S20 in the first embodiment.

即ち、対応点抽出手段9は、上記特徴点三次元位置同定手段6による抽出特徴点の三次元位置算出後、1つのフレーム(フレーム1またはフレーム2)における対象物上の抽出特徴点Pを含む周辺画素(例えば15×15)の特徴度Sを計算する(ステップS20a)。これは、公知の類似度比較手法である。特徴度Sの計算は、ウィンドウ内のアイゲンバリューを求めるものである。   That is, the corresponding point extracting means 9 includes the extracted feature points P on the object in one frame (frame 1 or frame 2) after the three-dimensional position calculation of the extracted feature points by the feature point three-dimensional position identifying means 6. The feature degree S of surrounding pixels (for example, 15 × 15) is calculated (step S20a). This is a known similarity comparison method. The calculation of the feature S is to obtain the Eigen value in the window.

その後、対応点抽出手段9は、設計情報記憶手段7に記憶されている設計情報を上記フレーム1または2における撮像装置位置からから二次元投影する(ステップS20b)。そして、投影画面内の各画素の周辺15×15画素のウィンドウ内の特徴度Sn(nは1〜投影画面の画素数)を求め、最も特徴度Sに近い特徴度Snの中央画素を対応特徴点P’とする(ステップS20c)。   Thereafter, the corresponding point extraction unit 9 projects the design information stored in the design information storage unit 7 two-dimensionally from the imaging device position in the frame 1 or 2 (step S20b). Then, a feature value Sn (n is 1 to the number of pixels of the projection screen) in a window of 15 × 15 pixels around each pixel in the projection screen is obtained, and the center pixel of the feature value Sn closest to the feature degree S is the corresponding feature. Point P ′ is set (step S20c).

このようにして特徴点P及び対応点P’が指定されたならば、該対応点抽出手段9の後段の対応点間三次元誤差計測手段8により、それら指定された特徴点Pと対応点P’の三次元誤差を算出することになる(ステップS20d)。   If the feature point P and the corresponding point P ′ are designated in this way, the corresponding feature point P and the corresponding point P are designated by the corresponding point-to-corresponding three-dimensional error measuring unit 8 subsequent to the corresponding point extracting unit 9. 'Is calculated (step S20d).

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.

例えば、上記実施形態では誤差量を算出する点を、対象物の角等の抽出特徴点として説明したが、抽出特徴点どうしを線分で結び作成したワイヤフレームモデル上の任意の点と、その点に対応する設計値上の対応点との誤差量を計測可能にしても良い。   For example, in the above embodiment, the point at which the error amount is calculated is described as an extracted feature point such as a corner of the object, but any point on the wire frame model created by connecting the extracted feature points with line segments, The amount of error with the corresponding point on the design value corresponding to the point may be measurable.

(付記)
前記の具体的実施形態から、以下のような構成の発明を抽出することができる。
(Appendix)
The invention having the following configuration can be extracted from the specific embodiment.

(1) 対象物を撮影する撮像装置と、
前記撮像装置で撮影した視野内から特徴点を抽出する手段と、
それぞれ前記特徴点を抽出する手段によって抽出された特徴点から、前記撮像装置を用いて異なる位置から撮影した視野内の同一の特徴点の同定を行う手段と、
少なくとも1つの撮影における基準座標系での前記撮像装置の位置姿勢を取得する手段と、
前記取得された位置姿勢より、各撮影における前記撮像装置の相互位置姿勢関係を求める手段と、
前記相互位置姿勢関係を用いて、撮影した複数の視野内にある、前記同定された同一特徴点から、前記抽出した特徴点と前記撮像装置との位置関係を同定する手段と、
を具備し、
前記同定した位置関係を用いて、前記抽出した特徴点とその特徴点に対応する対象物の設計値上の対応点との間の基準座標系における三次元誤差を計測することを特徴とする三次元誤差測定装置。
(1) an imaging device for photographing an object;
Means for extracting feature points from the field of view photographed by the imaging device;
Means for identifying the same feature points in the field of view taken from different positions using the imaging device, from the feature points extracted by the means for extracting the feature points respectively;
Means for acquiring a position and orientation of the imaging device in a reference coordinate system in at least one shooting;
Means for obtaining a mutual position and orientation relationship of the imaging device in each photographing from the acquired position and orientation;
Means for identifying a positional relationship between the extracted feature point and the imaging device from the identified same feature point in a plurality of fields of view taken using the mutual positional posture relationship;
Comprising
Using the identified positional relationship, a three-dimensional error is measured in a reference coordinate system between the extracted feature point and the corresponding point on the design value of the object corresponding to the feature point. Original error measuring device.

(対応する実施形態)
この(1)に記載の三次元誤差測定装置に関する実施形態は、第1乃至第3実施形態が対応する。
(作用効果)
この(1)に記載の三次元誤差測定装置は、同定した抽出特徴点と撮像装置との位置関係を用いて、抽出特徴点とその特徴点に対応する対象物の設計値上の対応点との間の基準座標系における三次元誤差を計測する。
従って、この(1)に記載の三次元誤差測定装置によれば、撮像装置の位置を自由に移動させて三次元のずれ量の計測を簡易に行うことが可能となる。
(Corresponding embodiment)
The first to third embodiments correspond to the embodiment relating to the three-dimensional error measuring apparatus described in (1).
(Function and effect)
The three-dimensional error measuring device described in (1) uses the positional relationship between the identified extracted feature point and the imaging device, and the extracted feature point and the corresponding point on the design value of the object corresponding to the feature point, Measure the three-dimensional error in the reference coordinate system between.
Therefore, according to the three-dimensional error measuring apparatus described in (1), it is possible to easily measure the three-dimensional deviation amount by freely moving the position of the imaging apparatus.

(2) 前記撮像装置の位置姿勢を取得する手段は、機械式位置姿勢検出機構によるものであることを特徴とする(1)に記載の三次元誤差測定装置。   (2) The three-dimensional error measurement apparatus according to (1), wherein the means for acquiring the position and orientation of the imaging apparatus is based on a mechanical position and orientation detection mechanism.

(対応する実施形態)
この(2)に記載の三次元誤差測定装置に関する実施形態は、第1及び第3実施形態が対応する。
(Corresponding embodiment)
The first and third embodiments correspond to the embodiment relating to the three-dimensional error measuring apparatus described in (2).

(3) 前記撮像装置の位置姿勢を取得する手段は、磁気式位置姿勢検出機構によるものであることを特徴とする(1)に記載の三次元誤差測定装置。   (3) The three-dimensional error measuring apparatus according to (1), wherein the means for acquiring the position and orientation of the imaging apparatus is based on a magnetic position and orientation detection mechanism.

(対応する実施形態)
この(3)に記載の三次元誤差測定装置に関する実施形態は、第1及び第3実施形態が対応する。
(Corresponding embodiment)
The first and third embodiments correspond to the embodiment relating to the three-dimensional error measuring apparatus described in (3).

(4) 前記撮像装置の位置姿勢を取得する手段は、光学式位置姿勢検出機構によるものであることを特徴とする(1)に記載の三次元誤差測定装置。   (4) The three-dimensional error measuring apparatus according to (1), wherein the means for acquiring the position and orientation of the imaging apparatus is based on an optical position and orientation detection mechanism.

(対応する実施形態)
この(4)に記載の三次元誤差測定装置に関する実施形態は、第1及び第3実施形態が対応する。
(Corresponding embodiment)
The first and third embodiments correspond to the embodiment relating to the three-dimensional error measuring apparatus described in (4).

(5) 前記撮像装置の位置姿勢を取得する手段は、前記撮像装置で撮影した画像内に含まれるマーカによるものであることを特徴とする(1)に記載の三次元誤差測定装置。   (5) The three-dimensional error measurement device according to (1), wherein the means for acquiring the position and orientation of the imaging device is based on a marker included in an image captured by the imaging device.

(対応する実施形態)
この(5)に記載の三次元誤差測定装置に関する実施形態は、第1乃至第3実施形態が対応する。
(Corresponding embodiment)
The first to third embodiments correspond to the embodiment relating to the three-dimensional error measuring apparatus described in (5).

(6) 前記抽出した特徴点と前記撮像装置との位置関係を同定する手段は、当該特徴点の基準座標系における三次元位置を算出する手段を含み、
前記撮像装置の位置姿勢を取得する手段は、
前記三次元位置を算出する手段により3点以上の抽出特徴点の三次元位置を取得するまでは、(2)乃至(5)の何れかに記載の手段で前記撮像装置の位置姿勢を取得し、
前記三次元位置を算出する手段により3点以上の抽出特徴点の三次元位置を取得後は、それら抽出された複数の特徴点の三次元位置、更に追加抽出同定された特徴点の三次元位置、(2)乃至(5)の何れかに記載の手段の何れか、またはその組み合わせによって、前記撮像装置の位置姿勢を取得することを特徴とする(2)乃至(5)の何れかに記載の三次元誤差測定装置。
(6) The means for identifying the positional relationship between the extracted feature point and the imaging device includes a means for calculating a three-dimensional position of the feature point in a reference coordinate system,
Means for acquiring the position and orientation of the imaging device
Until the three-dimensional position of three or more extracted feature points is acquired by the means for calculating the three-dimensional position, the position and orientation of the imaging device is acquired by the means according to any one of (2) to (5). ,
After obtaining the three-dimensional positions of three or more extracted feature points by the means for calculating the three-dimensional position, the three-dimensional positions of the plurality of extracted feature points, and the three-dimensional positions of the additional extracted and identified feature points The position and orientation of the image pickup device are acquired by any one of the means described in any one of (2) to (5) or a combination thereof, or any one of (2) to (5) 3D error measuring device.

(対応する実施形態)
この(6)に記載の三次元誤差測定装置に関する実施形態は、第1乃至第3実施形態が対応する。
(作用効果)
この(6)に記載の三次元誤差測定装置は、特徴点の基準座標系における三次元位置を算出することで抽出特徴点と撮像装置との位置関係の同定を行い、3点以上の抽出特徴点の三次元位置を取得するまでは(2)乃至(5)の何れかに記載の手段で撮像装置の位置姿勢を取得し、3点以上の抽出特徴点の三次元位置を取得後は、それら抽出された複数の特徴点の三次元位置、更に追加抽出同定された特徴点の三次元位置、(2)乃至(5)の何れかに記載の手段の何れか、またはその組み合わせによって、撮像装置の位置姿勢を取得する。
従って、3点以上の抽出特徴点の三次元位置を取得後は、必ずしも(2)乃至(5)の何れかに記載の手段の何れかを使用しなくても、撮像装置の位置姿勢を取得することが可能となる。
(Corresponding embodiment)
The first to third embodiments correspond to the embodiment relating to the three-dimensional error measuring apparatus described in (6).
(Function and effect)
The three-dimensional error measuring device described in (6) identifies the positional relationship between the extracted feature point and the imaging device by calculating the three-dimensional position of the feature point in the reference coordinate system, and extracts three or more extracted features. Until the three-dimensional position of the point is acquired, the position and orientation of the imaging device is acquired by the means described in any one of (2) to (5), and after acquiring the three-dimensional positions of three or more extracted feature points, Imaging by three-dimensional positions of a plurality of extracted feature points, three-dimensional positions of additional extracted and identified feature points, any of the means described in any one of (2) to (5), or a combination thereof Acquire the position and orientation of the device.
Therefore, after acquiring the three-dimensional positions of three or more extracted feature points, the position and orientation of the imaging device can be acquired without necessarily using any of the means described in any of (2) to (5). It becomes possible to do.

(7) 前記異なる位置から撮影した視野内の同一の特徴点の同定を行う手段は、異なる視野間で抽出特徴点を連続的に追跡する手段を含むことを特徴とする(1)乃至(6)の何れかに記載の三次元誤差測定装置。   (7) The means for identifying the same feature point in the field of view taken from different positions includes means for continuously tracking the extracted feature point between different fields of view (1) to (6) The three-dimensional error measuring device according to any one of the above.

(対応する実施形態)
この(7)に記載の三次元誤差測定装置に関する実施形態は、第2実施形態が対応する。
(作用効果)
この(7)に記載の三次元誤差測定装置は、異なる位置から撮影した視野内の同一の特徴点の同定を、異なる視野間で抽出特徴点を連続的に追跡する手法、例えば、NFトラッキングの手法を用いて行う。
(Corresponding embodiment)
The second embodiment corresponds to the embodiment relating to the three-dimensional error measuring apparatus described in (7).
(Function and effect)
The three-dimensional error measurement apparatus described in (7) is a technique for continuously identifying extracted feature points between different fields of view, for example, for identifying the same feature points in fields of view taken from different positions, for example, NF tracking. Use a technique.

(8) 前記抽出した特徴点に対応する対象物の設計値上の対応点は、使用者が明示的に指定することを特徴とする(1)乃至(7)の何れかに記載の三次元誤差測定装置。   (8) The three-dimensional according to any one of (1) to (7), wherein the user explicitly specifies the corresponding point on the design value of the object corresponding to the extracted feature point Error measuring device.

(対応する実施形態)
この(8)に記載の三次元誤差測定装置に関する実施形態は、第3実施形態が対応する。
(作用効果)
この(8)に記載の三次元誤差測定装置は、抽出特徴点に対応する対象物の設計値上の対応点を使用者が明示的に指定するので、使用者が所望する特徴点についての三次元誤差を測定できる。
(Corresponding embodiment)
The third embodiment corresponds to the embodiment relating to the three-dimensional error measuring apparatus described in (8).
(Function and effect)
In the three-dimensional error measuring apparatus described in (8), since the user explicitly designates the corresponding point on the design value of the object corresponding to the extracted feature point, the third order for the feature point desired by the user is obtained. The original error can be measured.

(9) 前記抽出した特徴点に対応する対象物の設計値上の対応点は、抽出特徴点を含む二次元投影画像において周囲画素を比較し同定することを特徴とする(1)乃至(7)の何れかに記載の三次元誤差測定装置。   (9) The corresponding point on the design value of the object corresponding to the extracted feature point is identified by comparing surrounding pixels in the two-dimensional projection image including the extracted feature point. The three-dimensional error measuring device according to any one of the above.

(対応する実施形態)
この(9)に記載の三次元誤差測定装置に関する実施形態は、第3実施形態が対応する。
(作用効果)
この(9)に記載の三次元誤差測定装置は、抽出特徴点に対応する対象物の設計値上の対応点を、抽出特徴点を含む二次元投影画像において周囲画素を比較し同定することにより行うので、自動的に行われ、手間がかからない。
(Corresponding embodiment)
The third embodiment corresponds to the embodiment relating to the three-dimensional error measuring apparatus described in (9).
(Function and effect)
The three-dimensional error measuring apparatus described in (9) compares and identifies the corresponding points on the design value of the object corresponding to the extracted feature points by comparing surrounding pixels in the two-dimensional projection image including the extracted feature points. Because it is done, it is done automatically and takes less time.

(10) 前記抽出した特徴点に対応する対象物の設計値上の対応点は、抽出特徴点を含む周辺の点の三次元配置を比較し同定することを特徴とする(1)乃至(7)の何れかに記載の三次元誤差測定装置。   (10) The corresponding points on the design value of the object corresponding to the extracted feature points are identified by comparing three-dimensional arrangements of peripheral points including the extracted feature points (1) to (7) The three-dimensional error measuring device according to any one of the above.

(対応する実施形態)
この(10)に記載の三次元誤差測定装置に関する実施形態は、第3実施形態が対応する。
(作用効果)
この(10)に記載の三次元誤差測定装置は、抽出特徴点に対応する対象物の設計値上の対応点を、抽出特徴点を含む周辺の点の三次元配置を比較し同定することにより行うので、自動的に行われ、手間がかからない。
(Corresponding embodiment)
The third embodiment corresponds to the embodiment relating to the three-dimensional error measuring apparatus described in (10).
(Function and effect)
The three-dimensional error measurement apparatus according to (10) compares and identifies the corresponding points on the design value of the object corresponding to the extracted feature points by comparing the three-dimensional arrangement of peripheral points including the extracted feature points. Because it is done, it is done automatically and takes less time.

(11) 前記抽出特徴点どうしを線分で結び作成したワイヤフレームモデル上の任意の点と、その点に対応する設計値上の対応点との誤差量を計測可能にする(1)乃至(7)の何れかに記載の三次元誤差測定装置。   (11) It is possible to measure an error amount between an arbitrary point on a wire frame model created by connecting the extracted feature points with a line segment and a corresponding point on a design value corresponding to the point (1) to ( 7) The three-dimensional error measuring apparatus according to any one of the above.

(作用効果)
この(11)に記載の三次元誤差測定装置は、抽出特徴点どうしを線分で結び作成したワイヤフレームモデル上の任意の点と、その点に対応する設計値上の対応点との誤差量を計測可能にするので、種々の点で誤差を測定できる。
(Function and effect)
The three-dimensional error measuring apparatus described in (11) is an error amount between an arbitrary point on a wire frame model created by connecting extracted feature points with line segments and a corresponding point on a design value corresponding to the point. Can be measured, so that errors can be measured at various points.

本発明の第1実施形態に係る三次元誤差測定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional error measuring apparatus which concerns on 1st Embodiment of this invention. 機械式位置姿勢検出機構による撮像装置位置姿勢取得手段を示す図である。It is a figure which shows the imaging device position and orientation acquisition means by a mechanical position and orientation detection mechanism. 第1実施形態に係る三次元誤差測定装置の動作フローチャートを示す図である。It is a figure which shows the operation | movement flowchart of the three-dimensional error measuring apparatus which concerns on 1st Embodiment. (A)は本発明の第2実施形態に係る三次元誤差測定装置による測定の様子を説明するための模式図であり、(B)は第2実施形態に係る三次元誤差測定装置における三次元位置算出の動作フローチャートを示す図である。(A) is a schematic diagram for demonstrating the mode of measurement by the three-dimensional error measuring device which concerns on 2nd Embodiment of this invention, (B) is the three-dimensional in the 3D error measuring device which concerns on 2nd Embodiment. It is a figure which shows the operation | movement flowchart of a position calculation. 本発明の第3実施形態に係る三次元誤差測定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional error measuring apparatus which concerns on 3rd Embodiment of this invention. (A)及び(B)はそれぞれ第3実施形態に係る三次元誤差測定装置における三次元誤差算出の動作フローチャートを示す図である。(A) And (B) is a figure which shows the operation | movement flowchart of the three-dimensional error calculation in the three-dimensional error measuring apparatus which concerns on 3rd Embodiment, respectively. 第3実施形態に係る三次元誤差測定装置の対応点抽出手段の動作を説明するための表示例を示す図である。It is a figure which shows the example of a display for demonstrating operation | movement of the corresponding point extraction means of the three-dimensional error measuring apparatus which concerns on 3rd Embodiment.

符号の説明Explanation of symbols

1…撮像装置、 2…特徴点抽出手段、 3…画像及び撮像装置位置姿勢記憶手段、 4…撮像装置位置姿勢取得手段、 5…同一特徴点同定手段、 6…特徴点三次元位置同定手段、 7…設計情報記憶手段、 8…対応点間三次元誤差計測手段、 9…対応点抽出手段、 10…カメラ、 11,111,112…実映像、 40…アーム式位置姿勢検出器、 71,711,712…三次元モデル。     DESCRIPTION OF SYMBOLS 1 ... Imaging device, 2 ... Feature point extraction means, 3 ... Image and imaging device position and orientation storage means, 4 ... Imaging device position and orientation acquisition means, 5 ... Same feature point identification means, 6 ... Feature point three-dimensional position identification means, 7 ... Design information storage means, 8 ... Three-dimensional error measurement means between corresponding points, 9 ... Corresponding point extraction means, 10 ... Camera, 11, 111, 112 ... Real image, 40 ... Arm type position and orientation detector, 71,711 712 ... Three-dimensional model.

Claims (11)

対象物を撮影する撮像装置と、
前記撮像装置で撮影した視野内から特徴点を抽出する手段と、
それぞれ前記特徴点を抽出する手段によって抽出された特徴点から、前記撮像装置を用いて異なる位置から撮影した視野内の同一の特徴点の同定を行う手段と、
少なくとも1つの撮影における基準座標系での前記撮像装置の位置姿勢を取得する手段と、
前記取得された位置姿勢より、各撮影における前記撮像装置の相互位置姿勢関係を求める手段と、
前記相互位置姿勢関係を用いて、撮影した複数の視野内にある、前記同定された同一特徴点から、前記抽出した特徴点と前記撮像装置との位置関係を同定する手段と、
を具備し、
前記同定した位置関係を用いて、前記抽出した特徴点とその特徴点に対応する対象物の設計値上の対応点との間の基準座標系における三次元誤差を計測することを特徴とする三次元誤差測定装置。
An imaging device for photographing an object;
Means for extracting feature points from the field of view photographed by the imaging device;
Means for identifying the same feature points in the field of view taken from different positions using the imaging device, from the feature points extracted by the means for extracting the feature points respectively;
Means for acquiring a position and orientation of the imaging device in a reference coordinate system in at least one shooting;
Means for obtaining a mutual position and orientation relationship of the imaging device in each photographing from the acquired position and orientation;
Means for identifying a positional relationship between the extracted feature point and the imaging device from the identified same feature point in a plurality of captured fields of view using the mutual position and orientation relationship;
Comprising
Using the identified positional relationship, a three-dimensional error is measured in a reference coordinate system between the extracted feature point and the corresponding point on the design value of the object corresponding to the feature point. Original error measuring device.
前記撮像装置の位置姿勢を取得する手段は、機械式位置姿勢検出機構によるものであることを特徴とする請求項1に記載の三次元誤差測定装置。   The three-dimensional error measurement apparatus according to claim 1, wherein the means for acquiring the position and orientation of the imaging apparatus is based on a mechanical position and orientation detection mechanism. 前記撮像装置の位置姿勢を取得する手段は、磁気式位置姿勢検出機構によるものであることを特徴とする請求項1に記載の三次元誤差測定装置。   The three-dimensional error measurement apparatus according to claim 1, wherein the means for acquiring the position and orientation of the imaging apparatus is based on a magnetic position and orientation detection mechanism. 前記撮像装置の位置姿勢を取得する手段は、光学式位置姿勢検出機構によるものであることを特徴とする請求項1に記載の三次元誤差測定装置。   The three-dimensional error measurement apparatus according to claim 1, wherein the means for acquiring the position and orientation of the imaging apparatus is based on an optical position and orientation detection mechanism. 前記撮像装置の位置姿勢を取得する手段は、前記撮像装置で撮影した画像内に含まれるマーカによるものであることを特徴とする請求項1に記載の三次元誤差測定装置。   2. The three-dimensional error measurement apparatus according to claim 1, wherein the means for acquiring the position and orientation of the imaging apparatus is based on a marker included in an image captured by the imaging apparatus. 前記抽出した特徴点と前記撮像装置との位置関係を同定する手段は、当該特徴点の基準座標系における三次元位置を算出する手段を含み、
前記撮像装置の位置姿勢を取得する手段は、
前記三次元位置を算出する手段により3点以上の抽出特徴点の三次元位置を取得するまでは、請求項2乃至5の何れかに記載の手段で前記撮像装置の位置姿勢を取得し、
前記三次元位置を算出する手段により3点以上の抽出特徴点の三次元位置を取得後は、それら抽出された複数の特徴点の三次元位置、更に追加抽出同定された特徴点の三次元位置、請求項2乃至5の何れかに記載の手段の何れか、またはその組み合わせによって、前記撮像装置の位置姿勢を取得することを特徴とする請求項2乃至5の何れかに記載の三次元誤差測定装置。
The means for identifying the positional relationship between the extracted feature point and the imaging device includes means for calculating a three-dimensional position of the feature point in a reference coordinate system,
Means for acquiring the position and orientation of the imaging device
Until the three-dimensional positions of three or more extracted feature points are acquired by the means for calculating the three-dimensional position, the position and orientation of the imaging device is acquired by the means according to any one of claims 2 to 5,
After obtaining the three-dimensional positions of three or more extracted feature points by the means for calculating the three-dimensional position, the three-dimensional positions of the plurality of extracted feature points, and the three-dimensional positions of the additional extracted and identified feature points The three-dimensional error according to any one of claims 2 to 5, wherein the position and orientation of the imaging device is acquired by any one of the means according to any one of claims 2 to 5 or a combination thereof. measuring device.
前記異なる位置から撮影した視野内の同一の特徴点の同定を行う手段は、異なる視野間で抽出特徴点を連続的に追跡する手段を含むことを特徴とする請求項1乃至6の何れかに記載の三次元誤差測定装置。   The means for identifying the same feature point in the field of view photographed from the different positions includes means for continuously tracking the extracted feature point between different fields of view. The three-dimensional error measuring apparatus described. 前記抽出した特徴点に対応する対象物の設計値上の対応点は、使用者が明示的に指定することを特徴とする請求項1乃至7の何れかに記載の三次元誤差測定装置。   The three-dimensional error measuring apparatus according to claim 1, wherein a corresponding point on a design value of an object corresponding to the extracted feature point is explicitly specified by a user. 前記抽出した特徴点に対応する対象物の設計値上の対応点は、抽出特徴点を含む二次元投影画像において周囲画素を比較し同定することを特徴とする請求項1乃至7の何れかに記載の三次元誤差測定装置。   The corresponding point on the design value of the object corresponding to the extracted feature point is identified by comparing surrounding pixels in a two-dimensional projection image including the extracted feature point. The three-dimensional error measuring apparatus described. 前記抽出した特徴点に対応する対象物の設計値上の対応点は、抽出特徴点を含む周辺の点の三次元配置を比較し同定することを特徴とする請求項1乃至7の何れかに記載の三次元誤差測定装置。   The corresponding point on the design value of the object corresponding to the extracted feature point is identified by comparing the three-dimensional arrangement of peripheral points including the extracted feature point. The three-dimensional error measuring apparatus described. 前記抽出特徴点どうしを線分で結び作成したワイヤフレームモデル上の任意の点と、その点に対応する設計値上の対応点との誤差量を計測可能にする請求項1乃至7の何れかに記載の三次元誤差測定装置。   The error amount between an arbitrary point on the wire frame model created by connecting the extracted feature points with line segments and a corresponding point on a design value corresponding to the point can be measured. The three-dimensional error measuring device described in 1.
JP2003273564A 2003-07-11 2003-07-11 Three-dimensional error measuring device Pending JP2005031044A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003273564A JP2005031044A (en) 2003-07-11 2003-07-11 Three-dimensional error measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003273564A JP2005031044A (en) 2003-07-11 2003-07-11 Three-dimensional error measuring device

Publications (1)

Publication Number Publication Date
JP2005031044A true JP2005031044A (en) 2005-02-03

Family

ID=34210764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003273564A Pending JP2005031044A (en) 2003-07-11 2003-07-11 Three-dimensional error measuring device

Country Status (1)

Country Link
JP (1) JP2005031044A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007212430A (en) * 2006-08-07 2007-08-23 Kurabo Ind Ltd Photogrammetry apparatus and photogrammetry system
JP2007278844A (en) * 2006-04-06 2007-10-25 Topcon Corp Image processing apparatus and processing method thereof
JP2008064735A (en) * 2006-08-11 2008-03-21 Canon Inc Image processing method and image processing apparatus
JP2012057960A (en) * 2010-09-06 2012-03-22 Topcon Corp Point group position data processor, point group position data processing method, point group position data processing system, and point group position data processing program
JP2014096761A (en) * 2012-11-12 2014-05-22 Canon Inc Image processing apparatus, and control method and control program of the same
CN105180802A (en) * 2015-05-04 2015-12-23 广东欧珀移动通信有限公司 Identification method and device of object size information
US10147192B2 (en) 2015-03-10 2018-12-04 Fujitsu Limited Coordinate-conversion-parameter determination apparatus, coordinate-conversion-parameter determination method, and non-transitory computer readable recording medium having therein program for coordinate-conversion-parameter determination
US10818025B2 (en) 2017-01-26 2020-10-27 Samsung Electronics Co., Ltd. Stereo matching method and apparatus
JP2021077127A (en) * 2019-11-11 2021-05-20 株式会社トプコン Management system and management method using eyewear device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0743173A (en) * 1993-07-29 1995-02-10 Mitsutoyo Corp Measurement data collating device
JPH09133519A (en) * 1995-11-10 1997-05-20 Ishikawajima Harima Heavy Ind Co Ltd Inspection method for three-dimensional structures
JPH11190611A (en) * 1997-12-25 1999-07-13 Omron Corp Three-dimensional measurement method and three-dimensional measurement processing apparatus using the method
JP2003006618A (en) * 2001-06-27 2003-01-10 Minolta Co Ltd Method and device for generating three-dimensional model and computer program
JP2003166814A (en) * 2001-12-04 2003-06-13 Hitachi Eng Co Ltd Shape inspection device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0743173A (en) * 1993-07-29 1995-02-10 Mitsutoyo Corp Measurement data collating device
JPH09133519A (en) * 1995-11-10 1997-05-20 Ishikawajima Harima Heavy Ind Co Ltd Inspection method for three-dimensional structures
JPH11190611A (en) * 1997-12-25 1999-07-13 Omron Corp Three-dimensional measurement method and three-dimensional measurement processing apparatus using the method
JP2003006618A (en) * 2001-06-27 2003-01-10 Minolta Co Ltd Method and device for generating three-dimensional model and computer program
JP2003166814A (en) * 2001-12-04 2003-06-13 Hitachi Eng Co Ltd Shape inspection device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007278844A (en) * 2006-04-06 2007-10-25 Topcon Corp Image processing apparatus and processing method thereof
JP2007212430A (en) * 2006-08-07 2007-08-23 Kurabo Ind Ltd Photogrammetry apparatus and photogrammetry system
JP2008064735A (en) * 2006-08-11 2008-03-21 Canon Inc Image processing method and image processing apparatus
JP2012057960A (en) * 2010-09-06 2012-03-22 Topcon Corp Point group position data processor, point group position data processing method, point group position data processing system, and point group position data processing program
JP2014096761A (en) * 2012-11-12 2014-05-22 Canon Inc Image processing apparatus, and control method and control program of the same
US10147192B2 (en) 2015-03-10 2018-12-04 Fujitsu Limited Coordinate-conversion-parameter determination apparatus, coordinate-conversion-parameter determination method, and non-transitory computer readable recording medium having therein program for coordinate-conversion-parameter determination
CN105180802A (en) * 2015-05-04 2015-12-23 广东欧珀移动通信有限公司 Identification method and device of object size information
US10818025B2 (en) 2017-01-26 2020-10-27 Samsung Electronics Co., Ltd. Stereo matching method and apparatus
US11417006B2 (en) 2017-01-26 2022-08-16 Samsung Electronics Co., Ltd. Stereo matching method and apparatus
JP2021077127A (en) * 2019-11-11 2021-05-20 株式会社トプコン Management system and management method using eyewear device
JP7341861B2 (en) 2019-11-11 2023-09-11 株式会社トプコン Management system and method using eyewear device

Similar Documents

Publication Publication Date Title
CN110568447B (en) Visual positioning method, device and computer readable medium
US10334168B2 (en) Threshold determination in a RANSAC algorithm
US7733404B2 (en) Fast imaging system calibration
JP4349367B2 (en) Estimation system, estimation method, and estimation program for estimating the position and orientation of an object
JP6507730B2 (en) Coordinate transformation parameter determination device, coordinate transformation parameter determination method, and computer program for coordinate transformation parameter determination
US6917702B2 (en) Calibration of multiple cameras for a turntable-based 3D scanner
JP5631086B2 (en) Information processing apparatus, control method therefor, and program
JP5538617B2 (en) Methods and configurations for multi-camera calibration
CN101251897B (en) Image processing apparatus, and image processing method
JP6793151B2 (en) Object tracking device, object tracking method and object tracking program
JP6352208B2 (en) 3D model processing apparatus and camera calibration system
JP2019194616A (en) Position detection method, device and equipment based upon image, and storage medium
CN109416744A (en) Improved camera calibration system, target and process
JP7657308B2 (en) Method, apparatus and system for generating a three-dimensional model of a scene - Patents.com
CN105554441B (en) Apparatus and methods for registering images
US20110187703A1 (en) Method and system for object tracking using appearance model
WO2018112788A1 (en) Image processing method and device
CN106713740B (en) Positioning tracking camera method and system
JPWO2020153264A1 (en) Calibration method and calibration equipment
CN116433769B (en) Space calibration method, device, electronic equipment and storage medium
JP2005031044A (en) Three-dimensional error measuring device
CN113763544B (en) Image determination method, device, electronic device and computer readable storage medium
JP3221384B2 (en) 3D coordinate measuring device
JPWO2019016879A1 (en) Object detection device and object detection method
JP2013217847A (en) Imaging apparatus, length measurement method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080930

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100406