[go: up one dir, main page]

JP2022178000A - Imaging device and method - Google Patents

Imaging device and method Download PDF

Info

Publication number
JP2022178000A
JP2022178000A JP2021084477A JP2021084477A JP2022178000A JP 2022178000 A JP2022178000 A JP 2022178000A JP 2021084477 A JP2021084477 A JP 2021084477A JP 2021084477 A JP2021084477 A JP 2021084477A JP 2022178000 A JP2022178000 A JP 2022178000A
Authority
JP
Japan
Prior art keywords
image
digital camera
imaging
storage unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021084477A
Other languages
Japanese (ja)
Inventor
政也 面
Masaya Men
憲司 井上
Kenji Inoue
彰 吉川
Akira Yoshikawa
雄二 大橋
Yuji Ohashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xmat Corp
Tohoku University NUC
Original Assignee
Xmat Corp
Tohoku University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xmat Corp, Tohoku University NUC filed Critical Xmat Corp
Priority to JP2021084477A priority Critical patent/JP2022178000A/en
Publication of JP2022178000A publication Critical patent/JP2022178000A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】撮影した2次元画像から3次元画像がより容易に生成できるようにする。【解決手段】特徴点抽出部103は、デジタルカメラ101による対象物151の撮像によって記憶部102に記憶されている前回画像、および対象物151をデジタルカメラ101が撮像している今回画像の各々の特徴点を抽出する。比較処理部104は、特徴点抽出部103が抽出した各々特徴点の比較により、前回画像と今回画像との一致の状態を求める。表示部105は、比較処理部104が求めた一致の状態を表示する。【選択図】 図1A three-dimensional image can be easily generated from a captured two-dimensional image. A feature point extracting unit (103) extracts each of a previous image stored in a storage unit (102) by imaging an object (151) with a digital camera (101) and a current image (151) of the object (151) being imaged by the digital camera (101). Extract feature points. The comparison processing unit 104 compares each feature point extracted by the feature point extraction unit 103 to obtain a match state between the previous image and the current image. The display unit 105 displays the matching state obtained by the comparison processing unit 104 . [Selection diagram] Fig. 1

Description

本発明は、3次元画像を得るための撮像装置および方法に関する。 The present invention relates to an imaging device and method for obtaining three-dimensional images.

近年、デジタルトランスフォーメーション(Digital Transformation:DX)推進の観点から、各種構造物や空間情報をデジタル情報として取得し、仮想空間内に実物を再現した空間・物体を生成し、疑似的に現実世界を認知・知覚する仮想現実(Virtual Reality:VR)技術や、現実空間内に実物を再現した空間・物体を重ね合わせて視覚情報を拡張する拡張現実(Augmented Reality:AR)技術を用いて各種サービスや生産現場における生産性や品質向上に活用する動きが広がっている。 In recent years, from the perspective of promoting digital transformation (DX), various structures and spatial information are acquired as digital information, and spaces and objects that reproduce the real thing in virtual space are generated to simulate the real world. Various services and services using virtual reality (VR) technology for cognition and perception, and augmented reality (AR) technology for augmenting visual information by superimposing spaces and objects that reproduce real objects in real space. There is a growing movement to use it to improve productivity and quality at production sites.

例えば、国が推進しているBIM (Building Information Modeling)やCIM(Construction Information Modeling/Managements)による生産性向上においては、現況地形・構造物・施設(屋外・屋内)等の3次元計測は欠かすことができない。これらを実現するにあたって、対象物の精緻な3次元形状並びに位置情報(対象物間の相対的な位置関係を含む)の取得が重要となっている。 For example, in improving productivity by BIM (Building Information Modeling) and CIM (Construction Information Modeling/Management) promoted by the government, 3D measurement of current topography, structures, facilities (outdoor/indoor), etc. is indispensable. can't In realizing these, it is important to acquire detailed three-dimensional shapes of objects and positional information (including relative positional relationships between objects).

簡易的には、単眼カメラやステレオカメラを用いて複数視点で撮像することで得られた2次元画像を用意し、各画像の特徴点を抽出し、他の画像における類似した特徴点を結びつけることで、3次元情報(3次元画像)を合成する技術がある(特許文献1)。また、上述した前記2次元画像に深度センサと呼ばれる視点と物体との距離を測定するセンサの情報を付加し、3次元情報の精度を向上させる技術が知られている(特許文献2)。 A simple method is to prepare two-dimensional images obtained by capturing images from multiple viewpoints using a monocular camera or a stereo camera, extract feature points from each image, and connect similar feature points in other images. Therefore, there is a technique for synthesizing three-dimensional information (three-dimensional image) (Patent Document 1). Further, there is known a technique for improving the accuracy of three-dimensional information by adding information from a sensor called a depth sensor that measures the distance between a viewpoint and an object to the two-dimensional image described above (Patent Document 2).

上述した2次元画像の撮影機材としては、深度センサを搭載したデプスカメラによるものや、レーザによる距離測定センサ(Light Detection and Ranging、Laser Imaging Detection and Ranging:Lidar)を用いた撮影機材などが知られている。 As the above-mentioned two-dimensional image capturing equipment, depth cameras equipped with depth sensors, and capturing equipment using laser distance measurement sensors (Light Detection and Ranging, Laser Imaging Detection and Ranging: Lidar) are known. ing.

特開2020-159965号公報JP 2020-159965 A 特開2020-135679号公報JP 2020-135679 A

上述した技術において、対象物を複数の箇所から撮影し、撮影された画像データ(2次元画像)の画像処理を行い、これらを再構成することで3次元画像を得ている。撮影された画像情報を3次元画像に再構成するにあたって、精緻な3次元情報を得ようとすればするほど膨大な計算処理量となることが一般的であり、空間の撮像から3次元画像として活用できるデータ状態となるまで一定の処理時間が必要となっている。 In the above-described technique, a three-dimensional image is obtained by photographing an object from a plurality of locations, performing image processing on the photographed image data (two-dimensional images), and reconstructing the data. In reconstructing photographed image information into a three-dimensional image, it is common that the more precise the three-dimensional information is to be obtained, the greater the amount of computational processing required. A certain amount of processing time is required until the data becomes usable.

このようにして再構築した3次元情報に、撮影異常による空間情報の乱れや欠損が判明した場合、上述した処理を再度実施することになり、手間がかかるという問題があった。特に、作業者が撮像機材を手にもって撮影を行う場合、撮影異常による再撮影が多くなる傾向があり、上述した問題が顕著となる。このように、従来、撮影した2次元画像から3次元画像を生成することが容易ではないという問題があった。 If the three-dimensional information reconstructed in this way is found to be disturbed or lost in spatial information due to an abnormal photographing, the above-described processing must be performed again, which is time-consuming. In particular, when an operator takes an image while holding the imaging equipment in his or her hand, there is a tendency for the operator to retake an image due to an abnormality in the image, and the above-described problem becomes more pronounced. As described above, conventionally, there has been a problem that it is not easy to generate a three-dimensional image from a photographed two-dimensional image.

本発明は、以上のような問題点を解消するためになされたものであり、撮影した2次元画像から3次元画像がより容易に生成できるようにすることを目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and an object of the present invention is to make it possible to more easily generate a three-dimensional image from a photographed two-dimensional image.

本発明に係る撮像装置は、デジタルカメラと、デジタルカメラが撮像した画像を記憶する記憶部と、デジタルカメラによる対象物の撮像によって記憶部に記憶されている前回画像、および対象物をデジタルカメラが撮像している今回画像の各々の特徴点を抽出する特徴点抽出部と、特徴点抽出部が抽出した各々特徴点の比較により、前回画像と今回画像との一致の状態を求める比較処理部と、比較処理部が求めた一致の状態を表示する表示部とを備える。 An imaging apparatus according to the present invention includes a digital camera, a storage section for storing an image captured by the digital camera, a previous image stored in the storage section by capturing an image of an object by the digital camera, and the object by the digital camera. A feature point extraction unit that extracts each feature point of the current image that is being captured, and a comparison processing unit that compares each feature point extracted by the feature point extraction unit to determine the state of matching between the previous image and the current image. , and a display unit for displaying the matching state obtained by the comparison processing unit.

請求項1上記撮像装置の一構成例において、デジタルカメラは、深度センサを備え、デジタルカメラが撮像した画像は、深度情報を備える。 1. In one configuration example of the imaging apparatus, the digital camera has a depth sensor, and the image captured by the digital camera has depth information.

上記撮像装置の一構成例において、比較処理部は、各々の特徴点の記述子を比較することで一致の状態を求める。 In one configuration example of the imaging apparatus described above, the comparison processing unit obtains a matching state by comparing descriptors of respective feature points.

上記撮像装置の一構成例において、比較処理部が求めた一致の状態が設定されている基準を超える場合に、今回画像を記憶部に記憶する記憶処理部をさらに備える。 The configuration example of the imaging apparatus further includes a storage processing unit that stores the current image in the storage unit when the matching state obtained by the comparison processing unit exceeds a set standard.

上記撮像装置の一構成例において、対象物をデジタルカメラで撮像することで記憶部に記憶された複数の画像から対象物の3次元画像を生成する画像生成部を備える。 One configuration example of the imaging apparatus described above includes an image generation unit that generates a three-dimensional image of the object from a plurality of images stored in the storage unit by imaging the object with a digital camera.

また、本発明に係る撮像方法は、対象物をデジタルカメラで撮像した画像を記憶部に記憶する第1ステップと、記憶部に記憶されている前回画像、および対象物をデジタルカメラが撮像している今回画像の各々の特徴点を抽出する第2ステップと、第2ステップで抽出した各々特徴点の比較により、前回画像と今回画像との一致の状態を求める第3ステップと、第3ステップで求めた一致の状態を表示する第4ステップとを備える。 Further, an image capturing method according to the present invention includes a first step of storing an image of an object captured by a digital camera in a storage unit; a second step of extracting each feature point of the current image in which the and a fourth step of displaying the status of the determined match.

上記撮像方法の一構成例において、デジタルカメラが撮像した画像は、深度情報を備え、第3ステップは、各々の特徴点の記述子を比較することで一致の状態を求める。 In one configuration of the imaging method described above, the image captured by the digital camera comprises depth information, and the third step is to determine a match by comparing the descriptors of each feature point.

上記撮像方法の一構成例において、第3ステップで求めた一致の状態が、設定されている基準を超える場合に、今回画像を記憶部に記憶する第5ステップをさらに備える。
上記撮像方法の一構成例において、対象物をデジタルカメラで撮像することで記憶部に記憶された複数の画像から対象物の3次元画像を生成する第6ステップを備える。
The configuration example of the imaging method further includes a fifth step of storing the current image in the storage unit when the matching state obtained in the third step exceeds a set standard.
One configuration example of the imaging method includes a sixth step of generating a three-dimensional image of the object from a plurality of images stored in the storage unit by imaging the object with a digital camera.

以上説明したように、本発明によれば、前回画像と今回画像の各々において、抽出した各々特徴点を比較して前回画像と今回画像との一致の状態を求めるので、撮像した2次元画像から3次元画像がより容易に生成できる。 As described above, according to the present invention, the feature points extracted in each of the previous image and the current image are compared to determine the matching state between the previous image and the current image. Three-dimensional images can be generated more easily.

図1は、本発明の実施の形態に係る撮像装置の構成を示す構成図である。FIG. 1 is a configuration diagram showing the configuration of an imaging device according to an embodiment of the present invention. 図2は、本発明の実施の形態に係る撮像方法を説明するフローチャートである。FIG. 2 is a flow chart explaining an imaging method according to an embodiment of the present invention. 図3は、画像から特徴点を抽出した状態を説明するための説明図である。FIG. 3 is an explanatory diagram for explaining a state in which feature points are extracted from an image. 図4は、画像間の対応する特徴点の比較を説明するための説明図である。FIG. 4 is an explanatory diagram for explaining comparison of corresponding feature points between images. 図5は、本発明の実施の形態に係る撮像装置のハードウエア構成を示す構成図である。FIG. 5 is a configuration diagram showing the hardware configuration of the imaging device according to the embodiment of the present invention.

以下、本発明の実施の形態に係る撮像装置について図1を参照して説明する。この撮像装置は、デジタルカメラ101、記憶部102、特徴点抽出部103、比較処理部104、表示部105を備える。 An imaging apparatus according to an embodiment of the present invention will be described below with reference to FIG. This imaging apparatus includes a digital camera 101 , a storage unit 102 , a feature point extraction unit 103 , a comparison processing unit 104 and a display unit 105 .

デジタルカメラ101は、例えば、深度センサ付きステレオカメラとすることができる。深度センサは、赤外公式、レーザ式などの深度情報が得られるセンサとすることができる。デジタルカメラ101は単眼でもよいが、ステレオカメラが望ましい。深度センサを備えるデジタルカメラ101が撮像した画像は、深度情報を備えるものとなる。 Digital camera 101 can be, for example, a stereo camera with a depth sensor. The depth sensor can be an infrared-based, laser-based, or other sensor that provides depth information. The digital camera 101 may be monocular, but preferably a stereo camera. An image captured by the digital camera 101 having a depth sensor includes depth information.

記憶部102は、デジタルカメラ101が撮像(撮影)した画像を記憶する。例えば、まず、起動しているデジタルカメラ101のレンズを対象物151に向け、デジタルカメラ101の液晶モニタなどを用いて対象物151が撮像範囲となる状態とする。液晶モニタには、デジタルカメラ101の撮像素子で受像している被写体の画像が表示されている。この状態で、デジタルカメラ101のシャッタボタンを押下することで、液晶モニタに表示されていた画像が、記憶部102に記憶される。 The storage unit 102 stores images captured (captured) by the digital camera 101 . For example, first, the lens of the activated digital camera 101 is aimed at the object 151, and the object 151 is set to be within the imaging range using the liquid crystal monitor of the digital camera 101 or the like. An image of a subject received by the imaging element of the digital camera 101 is displayed on the liquid crystal monitor. By pressing the shutter button of the digital camera 101 in this state, the image displayed on the liquid crystal monitor is stored in the storage unit 102 .

特徴点抽出部103は、デジタルカメラ101による対象物151の撮像によって記憶部102に記憶されている前回画像、および対象物151をデジタルカメラ101が撮像している今回画像の各々の特徴点を抽出する。特徴点の抽出では、抽出した各々の特徴点の記述子を取得する。 The feature point extracting unit 103 extracts feature points of each of the previous image stored in the storage unit 102 by imaging the object 151 with the digital camera 101 and the current image of the object 151 being imaged by the digital camera 101. do. In extracting feature points, a descriptor is obtained for each extracted feature point.

比較処理部104は、特徴点抽出部103が抽出した各々特徴点の比較により、前回画像と今回画像との一致の状態を求める。比較処理部104は、各々の特徴点の記述子を比較することで一致の状態を求める。表示部105は、比較処理部104が求めた一致の状態を表示する。 The comparison processing unit 104 compares each feature point extracted by the feature point extraction unit 103 to obtain a matching state between the previous image and the current image. The comparison processing unit 104 compares the descriptors of each feature point to obtain a matching state. The display unit 105 displays the matching state obtained by the comparison processing unit 104 .

また、この撮像装置は、比較処理部104が求めた一致の状態が設定されている基準を超える場合に、今回画像を記憶部102に記憶する記憶処理部106を備える。また、この撮像装置は、対象物151をデジタルカメラ101で撮像することで記憶部102に記憶された複数の画像から、対象物151の3次元画像を生成する画像生成部107を備える。 The imaging apparatus also includes a storage processing unit 106 that stores the current image in the storage unit 102 when the matching state obtained by the comparison processing unit 104 exceeds a set standard. This imaging apparatus also includes an image generation unit 107 that generates a three-dimensional image of the object 151 from a plurality of images stored in the storage unit 102 by imaging the object 151 with the digital camera 101 .

次に、本発明の実施の形態に係る撮像方法について、図2を参照して説明する。まず、ステップS101で、対象物151をデジタルカメラ101で撮像した画像(前回画像)を記憶部102に記憶する(第1ステップ)。前述したように、デジタルカメラ101のレンズを対象物151に向け、デジタルカメラ101の液晶モニタなどを用いて対象物151が撮像範囲となる状態とし、デジタルカメラ101のシャッタボタンを押下し、液晶モニタに表示されていた画像を記憶部102に記憶する。 Next, an imaging method according to an embodiment of the present invention will be described with reference to FIG. First, in step S101, an image (previous image) of the object 151 captured by the digital camera 101 is stored in the storage unit 102 (first step). As described above, the lens of the digital camera 101 is directed toward the object 151, and the object 151 is set in the imaging range using the liquid crystal monitor of the digital camera 101. Then, the shutter button of the digital camera 101 is pressed, and the liquid crystal monitor , is stored in the storage unit 102 .

次に、ステップS102で、今回画像の撮像を行う。前回画像の撮像とは異なる方向でデジタルカメラ101のレンズを対象物151に向け、デジタルカメラ101の液晶モニタなどを用いて対象物151が撮像範囲となる状態とする。 Next, in step S102, the current image is captured. The lens of the digital camera 101 is directed toward the target object 151 in a direction different from the direction in which the previous image was captured, and the target object 151 is set in the imaging range using the liquid crystal monitor of the digital camera 101 or the like.

次に、ステップS103で、特徴点抽出部103が、記憶部102に記憶されている前回画像、および対象物151をデジタルカメラ101が撮像している今回画像の各々の特徴点を抽出する(第2ステップ)。 Next, in step S103, the feature point extracting unit 103 extracts feature points of each of the previous image stored in the storage unit 102 and the current image of the object 151 captured by the digital camera 101 (first image). 2 steps).

次に、ステップS104で、比較処理部104が、特徴点抽出部103が抽出した各々特徴点の比較により、前回画像と今回画像との一致の状態を求める(第3ステップ)。デジタルカメラ101が撮像した画像は、深度情報を備え、ここでは、各々の特徴点の記述子を比較することで一致の状態を求める。各画像における特徴点の検出および特徴量は、SIFT(Scale Invariant Feature Transform)特徴やSURF(Speeded Up Robust Features)特徴などの画像特徴を利用することができる。また、これらに限定されるものではなく、各特徴点の特徴量の記述子に基づいて、総当たり式に一致探索を実施することもできる。例えばBrute-Force matchが知られている。 Next, in step S104, the comparison processing unit 104 compares the feature points extracted by the feature point extraction unit 103 to determine the matching state between the previous image and the current image (third step). The images captured by the digital camera 101 are provided with depth information, where the descriptors of each feature point are compared to determine a match. Image features such as SIFT (Scale Invariant Feature Transform) features and SURF (Speeded Up Robust Features) features can be used to detect feature points and feature amounts in each image. Also, the present invention is not limited to these, and it is also possible to carry out a matching search in a brute-force manner based on the descriptor of the feature amount of each feature point. For example, Brute-Force match is known.

次に、ステップS105で、求めた一致の状態(結果)を、表示部105に表示する(第4ステップ)。 Next, the matching state (result) obtained in step S105 is displayed on the display unit 105 (fourth step).

例えば、図3に示すように、前回画像(a)と今回画像(b)の各々において、抽出した特徴点の記述子を比較し、一致する(視野は異なるが、同じ箇所である可能性が高い)候補を複数選択する。図3において、一致する候補を丸で囲んで示している。 For example, as shown in FIG. 3, in each of the previous image (a) and the current image (b), the descriptors of the extracted feature points are compared and matched (the fields of view are different, but they may be the same place). high) multiple selections. Matching candidates are circled in FIG.

一致の状態の表示として、今回画像について、一致する対応点それぞれについて視差とカメラの焦点距離から算出される相対的な位置関係を反映した枠を、前回画像に重ねるように表示する(図4)。図4では、実線の枠内に前回画像を示し、今回画像については、上述したように点線の枠のみで示している。 As a display of the matching state, a frame reflecting the relative positional relationship calculated from the parallax and the focal length of the camera for each of the matching points in the current image is displayed so as to be superimposed on the previous image (Fig. 4). . In FIG. 4, the previous image is shown in a solid-line frame, and the current image is shown only in a dotted-line frame as described above.

図3に示した、丸で示す特徴点が一致する候補の各々について、点線で示す枠を生成し、各々の点線枠の特徴点と、前回画像の対応する特徴点とを重ねる。複数の特徴点の各々の位置がおおよそ一致していれば、図4の(a)に示すように、複数の点線枠が、ほぼ重なって表示される。一方、複数の特徴点の各々の位置が一致していない場合、図4の(b)に示すように、複数の点線枠が、重なることなく、各々異なる位置に表示される。 Dotted-line frames are generated for each of the candidates with matching feature points indicated by circles shown in FIG. If the positions of each of the plurality of feature points are approximately the same, the plurality of dotted line frames are displayed so as to overlap each other, as shown in FIG. 4(a). On the other hand, when the positions of the plurality of feature points do not match, as shown in FIG. 4B, the plurality of dotted line frames are displayed at different positions without overlapping.

このような表示により、複数の点線枠がほぼ重なって表示されれば、今回画像が前回画像に対して、特徴点の対応点の数が一定以上ある(一致度が高い)ことが判断できる。一方、複数の点線枠が、重なることなく、各々異なる位置に表示されれば、今回画像が前回画像に対して、特徴点の対応点の数があまりない(一致度が低い)ことが判断できる。 If a plurality of dotted-line frames are displayed in such a manner that they overlap each other, it can be determined that the current image has more than a certain number of feature points corresponding to the previous image (the degree of matching is high). On the other hand, if a plurality of dotted-line frames are displayed at different positions without overlapping, it can be determined that the current image does not have a large number of feature points corresponding to the previous image (the degree of matching is low). .

また、重なって表示される複数の点線枠が、実線の枠で示される前回画像の位置よりずれていれば、前回画像と現在画像が一定の距離離れていることがわかる。前回画像と今回画像とが上述した関係となっていれば、これらは、3次元画像として活用できるデータ状態であることが判断できる。ここで、各撮像ごとのカメラの移動量が、デジタルカメラ101の視野の1/10程度を超えると、上述した一致度の高い状態を得ることができないことが判明している。 Also, if the overlapping displayed dotted-line frames are displaced from the position of the previous image indicated by the solid-line frame, it can be understood that the previous image and the current image are separated by a certain distance. If the previous image and the current image have the above-described relationship, it can be determined that they are in a data state that can be utilized as a three-dimensional image. Here, it has been found that if the amount of movement of the camera for each imaging exceeds about 1/10 of the field of view of the digital camera 101, the above-described state of high degree of matching cannot be obtained.

なお、対応点の一致度合いに対応して、点線枠の色を変えることができる。例えば、一致度合いが一定数以上であれば青で表示し、一定数に満たない場合は赤で表示することができる。また、このとき、デジタルカメラ101が備える手ぶれ補正機能により手ぶれの状態を測定し、この測定結果として、手ぶれが基準以上発生していないことを、表示部105に表示することもできる。 Note that the color of the dotted line frame can be changed according to the matching degree of the corresponding points. For example, if the degree of matching is greater than or equal to a certain number, it can be displayed in blue, and if it is less than the certain number, it can be displayed in red. Also, at this time, the state of camera shake is measured by the camera shake correction function of the digital camera 101, and the result of this measurement can be displayed on the display unit 105 to indicate that the camera shake does not exceed a standard level.

次に、ステップS106で、記憶処理部106が、上述した一致の状態が、設定されている基準を超える場合に(ステップS106のyes)、ステップS107で、今回画像を記憶部102に記憶する(第5ステップ)。一致の状態として、上述した、手ぶれが基準以上発生していないことを条件とすることもできる。 Next, in step S106, when the above-described matching state exceeds the set standard (yes in step S106), in step S107, the storage processing unit 106 stores the current image in the storage unit 102 ( 5th step). As a state of matching, it is also possible to make it a condition that the above-described camera shake does not occur beyond the reference level.

上述したステップS102~ステップS107を、記憶部102に記憶される画像の数が、設定した画像数になるまで実施したら(ステップS108のyes)、ステップS109で、画像生成部107が、対象物151をデジタルカメラ101で撮像することで記憶部102に記憶された複数の画像から対象物151の3次元画像を生成する(第6ステップ)。このように生成された3次元画像は、前述したことにより、各画像間の一致度合いが保証されているため、精緻な3次元空間情報が得られる確率が大幅に向上する。 When the above-described steps S102 to S107 are performed until the number of images stored in the storage unit 102 reaches the set number of images (yes in step S108), the image generation unit 107 moves the target object 151 in step S109. is captured by the digital camera 101 to generate a three-dimensional image of the object 151 from a plurality of images stored in the storage unit 102 (sixth step). As described above, the three-dimensional images generated in this way guarantee the degree of matching between the images, so that the probability of obtaining detailed three-dimensional spatial information is greatly improved.

また、撮像時は2次元画像情報による相対的な一致対応点探索を実施し、撮像後の3次元空間再構成時には、深さ情報(距離情報)を加味することもできる。 It is also possible to search for matching corresponding points relative to two-dimensional image information at the time of imaging, and add depth information (distance information) at the time of three-dimensional spatial reconstruction after imaging.

なお、上述した実施の形態に係る撮像装置の記憶部、特徴点抽出部、比較処理部、表示部は、図5に示すように、CPU(Central Processing Unit;中央演算処理装置)301と主記憶装置302と外部記憶装置303とネットワーク接続装置304となどを備えたコンピュータ機器とし、主記憶装置302に展開されたプログラムによりCPU301が動作する(プログラムを実行する)ことで、上述した各機能(撮像方法)が実現されるようにすることもできる。上記プログラムは、上述した実施の形態で示した撮像方法をコンピュータが実行するためのプログラムである。ネットワーク接続装置304は、ネットワーク305に接続する。また、各機能は、複数のコンピュータ機器に分散させることもできる。 As shown in FIG. 5, the storage unit, feature point extraction unit, comparison processing unit, and display unit of the image capturing apparatus according to the above-described embodiment are composed of a CPU (Central Processing Unit) 301 and a main memory. A computer device having a device 302, an external storage device 303, a network connection device 304, and the like, and the CPU 301 operates (executes the program) according to a program developed in the main storage device 302, thereby performing each function (imaging method) can also be realized. The program is a program for a computer to execute the imaging method shown in the above embodiment. A network connection device 304 connects to a network 305 . Also, functions may be distributed among multiple computing devices.

以上に説明したように、本発明によれば、前回画像と今回画像の各々において、抽出した各々特徴点を比較して前回画像と今回画像との一致の状態を求めるので、撮像した2次元画像から3次元画像がより容易に生成できるようになる。 As described above, according to the present invention, extracted feature points are compared in each of the previous image and the current image to determine the state of matching between the previous image and the current image. 3D images can be generated more easily.

本発明によれば、撮像時に、前回画像と今回画像との間で、特徴点マッチングを実施するので、撮像後の3次元情報の再構成時に問題が発覚する可能性を大幅に減ずることができるため、再撮像などの無駄な作業を減らすことが可能となる。また、撮像品質が一定のレベルを超えた撮像を実現することにより、高価な据え置き型撮像装置を用いずとも精緻な3次元情報の取得を可能にする。 According to the present invention, since feature point matching is performed between the previous image and the current image at the time of imaging, it is possible to greatly reduce the possibility of discovering problems when reconstructing three-dimensional information after imaging. Therefore, useless work such as re-imaging can be reduced. In addition, by realizing imaging with imaging quality exceeding a certain level, it is possible to obtain precise three-dimensional information without using an expensive stationary imaging apparatus.

なお、本発明は以上に説明した実施の形態に限定されるものではなく、本発明の技術的思想内で、当分野において通常の知識を有する者により、多くの変形および組み合わせが実施可能であることは明白である。 It should be noted that the present invention is not limited to the embodiments described above, and many modifications and combinations can be implemented by those skilled in the art within the technical concept of the present invention. It is clear.

101…デジタルカメラ、102…記憶部、103…特徴点抽出部、104…比較処理部、105…表示部、106…記憶処理部、107…画像生成部、151…対象物。 DESCRIPTION OF SYMBOLS 101... Digital camera, 102... Storage part, 103... Feature point extraction part, 104... Comparison process part, 105... Display part, 106... Storage process part, 107... Image generation part, 151... Object.

Claims (9)

デジタルカメラと、
前記デジタルカメラが撮像した画像を記憶する記憶部と、
前記デジタルカメラによる対象物の撮像によって前記記憶部に記憶されている前回画像、および前記対象物を前記デジタルカメラが撮像している今回画像の各々の特徴点を抽出する特徴点抽出部と、
前記特徴点抽出部が抽出した各々特徴点の比較により、前記前回画像と前記今回画像との一致の状態を求める比較処理部と、
前記比較処理部が求めた一致の状態を表示する表示部と
を備える撮像装置。
a digital camera and
a storage unit that stores images captured by the digital camera;
a feature point extracting unit for extracting feature points of each of a previous image stored in the storage unit and a current image of the target object captured by the digital camera;
a comparison processing unit that compares each of the feature points extracted by the feature point extraction unit to obtain a matching state between the previous image and the current image;
an imaging device comprising: a display section for displaying the matching state obtained by the comparison processing section.
請求項1記載の撮像装置において、
前記デジタルカメラは、深度センサを備え、前記デジタルカメラが撮像した画像は、深度情報を備えることを特徴とする撮像装置。
The imaging device according to claim 1, wherein
An imaging apparatus, wherein the digital camera includes a depth sensor, and an image captured by the digital camera includes depth information.
請求項1または2記載の撮像装置において、
前記比較処理部は、各々の特徴点の記述子を比較することで一致の状態を求めることを特徴とする撮像装置。
The imaging device according to claim 1 or 2,
The image pickup apparatus, wherein the comparison processing unit obtains a matching state by comparing descriptors of respective feature points.
請求項1~3のいずれか1項に記載の撮像装置において、
前記比較処理部が求めた一致の状態が設定されている基準を超える場合に、前記今回画像を前記記憶部に記憶する記憶処理部をさらに備えることを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 3,
The imaging apparatus, further comprising a storage processing unit that stores the current image in the storage unit when the matching state obtained by the comparison processing unit exceeds a set standard.
請求項1~4のいずれか1項に記載の撮像装置において、
前記対象物を前記デジタルカメラで撮像することで前記記憶部に記憶された複数の画像から前記対象物の3次元画像を生成する画像生成部を備えることを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 4,
An imaging apparatus, comprising: an image generation unit that generates a three-dimensional image of the object from a plurality of images stored in the storage unit by imaging the object with the digital camera.
対象物をデジタルカメラで撮像した画像を記憶部に記憶する第1ステップと、
前記記憶部に記憶されている前回画像、および前記対象物を前記デジタルカメラが撮像している今回画像の各々の特徴点を抽出する第2ステップと、
前記第2ステップで抽出した各々特徴点の比較により、前記前回画像と前記今回画像との一致の状態を求める第3ステップと、
前記第3ステップで求めた一致の状態を表示する第4ステップと
を備える撮像方法。
a first step of storing an image of an object captured by a digital camera in a storage unit;
a second step of extracting feature points of each of the previous image stored in the storage unit and the current image of the object captured by the digital camera;
a third step of obtaining a matching state between the previous image and the current image by comparing each feature point extracted in the second step;
and a fourth step of displaying the matching state determined in the third step.
請求項6記載の撮像方法において、
前記デジタルカメラが撮像した画像は、深度情報を備え、前記第3ステップは、各々の特徴点の記述子を比較することで一致の状態を求めることを特徴とする撮像方法。
In the imaging method according to claim 6,
An image capturing method, wherein the image captured by the digital camera comprises depth information, and wherein the third step determines a match state by comparing descriptors of each feature point.
請求項6または7記載の撮像方法において、
前記第3ステップで求めた一致の状態が、設定されている基準を超える場合に、前記今回画像を前記記憶部に記憶する第5ステップをさらに備えることを特徴とする撮像方法。
In the imaging method according to claim 6 or 7,
The imaging method, further comprising: a fifth step of storing the current image in the storage unit when the matching state obtained in the third step exceeds a set criterion.
請求項6~8のいずれか1項に記載の撮像方法において、
前記対象物を前記デジタルカメラで撮像することで前記記憶部に記憶された複数の画像から前記対象物の3次元画像を生成する第6ステップを備えることを特徴とする撮像方法。
In the imaging method according to any one of claims 6 to 8,
An imaging method, comprising: a sixth step of generating a three-dimensional image of the object from a plurality of images stored in the storage unit by imaging the object with the digital camera.
JP2021084477A 2021-05-19 2021-05-19 Imaging device and method Pending JP2022178000A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021084477A JP2022178000A (en) 2021-05-19 2021-05-19 Imaging device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021084477A JP2022178000A (en) 2021-05-19 2021-05-19 Imaging device and method

Publications (1)

Publication Number Publication Date
JP2022178000A true JP2022178000A (en) 2022-12-02

Family

ID=84239568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021084477A Pending JP2022178000A (en) 2021-05-19 2021-05-19 Imaging device and method

Country Status (1)

Country Link
JP (1) JP2022178000A (en)

Similar Documents

Publication Publication Date Title
JP6722323B2 (en) System and method for imaging device modeling and calibration
EP2328125B1 (en) Image splicing method and device
TWI434567B (en) An image processing apparatus, an image processing method, an image processing program, and a recording medium
JP6320075B2 (en) Image processing apparatus and control method thereof
US20120242795A1 (en) Digital 3d camera using periodic illumination
JP7675288B2 (en) Photographing and measuring method, device, equipment and storage medium
US20080158340A1 (en) Video chat apparatus and method
US20120162220A1 (en) Three-dimensional model creation system
JP5886242B2 (en) Image processing apparatus, image processing method, and image processing program
CN102208116A (en) 3D modeling apparatus and 3D modeling method
WO2017183470A1 (en) Three-dimensional reconstruction method
JP6552256B2 (en) Image processing apparatus and image processing apparatus control method
JP2015119395A (en) Information processing apparatus, information processing method, and program
CN115035235B (en) Three-dimensional reconstruction method and device
WO2019065260A1 (en) Information processing device, information processing method, and program, and interchangeable lens
WO2023199583A1 (en) Viewer control method and information processing device
CN116051876A (en) Camera array target recognition method and system for 3D digital model
CN112312041A (en) Image correction method and device based on shooting, electronic equipment and storage medium
CN107659772B (en) 3D image generation method and device and electronic equipment
KR20110133677A (en) 3D image processing device and method
TW201342303A (en) Three-dimensional image obtaining system and three-dimensional image obtaining method
JPWO2017134770A1 (en) Video synchronizer
CN116866522B (en) Remote monitoring method
JP2015005200A (en) Information processing apparatus, information processing system, information processing method, program, and storage medium
JP2022178000A (en) Imaging device and method