JP7710185B2 - Photographing device, photographing operation support method, and photographing operation support program - Google Patents
Photographing device, photographing operation support method, and photographing operation support programInfo
- Publication number
- JP7710185B2 JP7710185B2 JP2022183480A JP2022183480A JP7710185B2 JP 7710185 B2 JP7710185 B2 JP 7710185B2 JP 2022183480 A JP2022183480 A JP 2022183480A JP 2022183480 A JP2022183480 A JP 2022183480A JP 7710185 B2 JP7710185 B2 JP 7710185B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- range
- target location
- support
- measurement target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Processing Or Creating Images (AREA)
Description
本発明は、計測対象場所の各地点の撮影画像に基づいて計測対象場所の3次元空間情報を生成する3次元計測処理を行うために、計測対象場所の各地点を撮影する撮影装置、ならびにその撮影装置を用いたユーザの撮影作業を支援する撮影作業支援方法および撮影作業支援プログラムに関するものである。 The present invention relates to an imaging device that captures images of each point of a measurement target location in order to perform three-dimensional measurement processing that generates three-dimensional spatial information of the measurement target location based on images captured at each point of the measurement target location, as well as a method and program for supporting a user in the imaging work using the imaging device.
計測対象場所を撮影した撮影画像に基づいて、計測対象場所に関する3次元空間情報(マップデータ)を生成する3次元計測の技術が知られている。この3次元計測では、近年、SLAM(Simultaneous Localization And Mapping)法が注目されている。SLAM法では、移動体に撮影装置を保持させて計測対象場所の各地点を撮影した撮影画像に基づいて、計測結果としての3次元空間情報と自機の位置情報とを生成することができる。特に、ユーザが、手で持ち運び可能な撮影装置を用いて、計測対象場所内を移動しながら撮影する撮影作業を行うことで、計測対象場所の各地点を撮影した撮影画像を取得すると、3次元計測を簡便に行うことができる。 A three-dimensional measurement technique is known that generates three-dimensional spatial information (map data) about a measurement target location based on images of the measurement target location. In recent years, the SLAM (Simultaneous Localization And Mapping) method has been attracting attention for this type of three-dimensional measurement. In the SLAM method, a camera device is held on a moving object, and based on images of each point in the measurement target location, three-dimensional spatial information and the vehicle's position information can be generated as measurement results. In particular, a user can easily perform three-dimensional measurement by taking images while moving around the measurement target location using a handheld camera device, thereby acquiring images of each point in the measurement target location.
一方、SLAMを用いた3次元計測では、相対的な自己位置推定が繰り返されるため、誤差の累積が避けられない。このような自己位置推定での誤差の累積は、3次元計測結果の精度が大きく低下する原因になる。 On the other hand, in 3D measurements using SLAM, relative self-location estimation is repeated, and so accumulation of errors is unavoidable. Such accumulation of errors in self-location estimation causes a significant decrease in the accuracy of the 3D measurement results.
そこで、このような累積誤差による精度低下を改善する方法として、従来、3次元空間情報(マップデータ)の作成途中で、誤差が発生した場合に、最初からやり直すことなく、途中から3次元空間情報の作成をやり直すことを可能にした技術が知られている(特許文献1参照)。また、この技術では、誤差の原因となる事象(ロスト)を検知して、その事象が発生した期間をユーザに提示することで、3次元空間情報の作成をやり直す位置をユーザが把握することができる。 As a method for improving the accuracy degradation caused by such accumulated errors, a technology has been known that, if an error occurs during the creation of three-dimensional spatial information (map data), allows the creation of the three-dimensional spatial information to be restarted from the middle, without having to start over from the beginning (see Patent Document 1). This technology also detects the event that caused the error (lost) and presents the user with the period during which the event occurred, allowing the user to know the position where the creation of the three-dimensional spatial information should be restarted.
また、累積誤差による精度低下を改善する方法として、従来、ループクロージングの技術が知られている(非特許文献1参照)。この技術では、自機の移動経路がループを形成すること、すなわち、自機が以前に撮影された地点に戻ったことを検出すると、その地点において以前の撮影の際に取得した自己位置推定結果(過去位置)を正しい位置とみなして、現在位置から過去位置に至るまでの経路中の位置を補正することで、累積誤差を解消することができる。この技術によると、特許文献1に開示された技術のように、途中から撮影をやり直す手間を省くことができる。 Furthermore, a loop-closing technique has been known as a method for improving accuracy degradation due to accumulated errors (see Non-Patent Document 1). With this technique, when it is detected that the aircraft's travel path forms a loop, i.e., the aircraft has returned to a location where it was previously photographed, the self-position estimation result (past position) acquired during the previous photographing at that location is regarded as the correct position, and the position on the path from the current position to the past position is corrected, thereby eliminating the accumulated error. With this technique, it is possible to eliminate the trouble of restarting photographing midway, as with the technique disclosed in Patent Document 1.
SLAMを用いた3次元計測において、累積誤差による精度低下を改善するには、特許文献2に開示されたように、ループクロージングの技術が有効である。一方、ループクロージングの処理は、移動経路がループを形成した場合、すなわち、以前に撮影された地点に戻った場合に、実施することができる。このため、ループクロージングの処理が実施できる状態を故意に作り出すことが重要となる。そこで、撮影作業中のユーザに対して、ループクロージング処理の必要性を分かりやすく提示することが望まれる。しかしながら、従来の技術では、このような要望に対して何ら配慮されていない。 In 3D measurements using SLAM, loop closing technology is effective in improving accuracy degradation due to accumulated errors, as disclosed in Patent Document 2. Meanwhile, loop closing processing can be performed when the movement path forms a loop, that is, when returning to a point where a previous image was captured. For this reason, it is important to intentionally create a state in which loop closing processing can be performed. It is therefore desirable to clearly present the need for loop closing processing to users who are currently taking images. However, conventional technology does not take such demands into consideration at all.
そこで、本発明は、撮影作業中のユーザに対して、ループクロージング処理の必要性を分かりやすく提示して、適切な撮影作業を行うようにユーザを促すことで、SLAMを用いた3次元計測の精度を向上させることができる撮影装置、撮影作業支援方法、および撮影作業支援プログラムを提供することを主な目的とする。 The main objective of the present invention is to provide an imaging device, imaging operation support method, and imaging operation support program that can improve the accuracy of 3D measurements using SLAM by clearly presenting the need for loop closing processing to a user during imaging work and encouraging the user to perform appropriate imaging work.
本発明の撮影装置は、計測対象場所の各地点の撮影画像に基づいて計測対象場所の3次元空間情報を生成する3次元計測処理を行うために、計測対象場所の各地点を撮影する撮影装置であって、ユーザが保持する装置本体と、その装置本体に設けられて計測対象場所を撮影する撮影部と、ユーザが前記装置本体を保持して計測対象場所を移動しながら計測対象場所の各地点を前記撮影部に順次撮影させる撮影作業に関する支援情報を表示する表示部と、前記撮影部および前記表示部を制御するプロセッサと、を備え、前記プロセッサは、前記支援情報として、前記3次元計測処理においてループクロージング処理の実施済みの範囲を可視化した支援画像を、前記表示部に表示する構成とする。 The photographing device of the present invention is a photographing device that photographs each point of a measurement target location in order to perform a three-dimensional measurement process that generates three-dimensional spatial information of the measurement target location based on the photographed images of each point of the measurement target location, and is equipped with a device main body held by a user, a photographing unit provided in the device main body that photographs the measurement target location, a display unit that displays support information related to the photographing work in which the user holds the device main body and moves around the measurement target location while causing the photographing unit to sequentially photograph each point of the measurement target location, and a processor that controls the photographing unit and the display unit, and the processor is configured to display, as the support information, a support image on the display unit that visualizes the area in which loop closing processing has already been performed in the three-dimensional measurement processing.
また、本発明の撮影作業支援方法は、計測対象場所の各地点の撮影画像に基づいて計測対象場所の3次元空間情報を生成する3次元計測処理を行うために、撮影装置を保持して計測対象場所内を移動しながら計測対象場所の各地点を前記撮影装置に順次撮影させるユーザの撮影作業を支援する処理をプロセッサにより行う撮影作業支援方法であって、撮影作業に関する支援情報として、前記3次元計測処理においてループクロージング処理の実施済みの範囲を可視化した支援画像を、表示部に表示する構成とする。 The photography support method of the present invention is a method for supporting photography by a processor that supports a user in photographing a location to be measured by moving around the location to be measured while holding a photography device and having the photography device sequentially photograph each point of the location to be measured, in order to perform three-dimensional measurement processing to generate three-dimensional spatial information of the location to be measured based on images captured at each point of the location to be measured, and is configured to display, on a display unit, a support image that visualizes the area in which loop closing processing has already been performed in the three-dimensional measurement processing, as support information for the photography work.
また、本発明の撮影作業支援プログラムは、計測対象場所の各地点の撮影画像に基づいて計測対象場所の3次元空間情報を生成する3次元計測処理を行うために、撮影装置を保持して計測対象場所内を移動しながら計測対象場所の各地点を前記撮影装置に順次撮影させるユーザの撮影作業を支援する処理をプロセッサに実行させる撮影作業支援プログラムであって、撮影作業に関する支援情報として、前記3次元計測処理においてループクロージング処理の実施済みの範囲を可視化した支援画像を、表示部に表示する構成とする。 The photography support program of the present invention is a photography support program that causes a processor to execute a process to support a user's photography work by moving around the measurement target location while holding a photography device and having the photography device sequentially photograph each point of the measurement target location in order to perform a three-dimensional measurement process that generates three-dimensional spatial information of the measurement target location based on images captured at each point of the measurement target location, and is configured to display, on the display unit, a support image that visualizes the area in which loop closing processing has been performed in the three-dimensional measurement processing as support information for the photography work.
本発明によれば、撮影作業中のユーザ(作業者)に対して、支援画像によりループクロージング処理の必要性を分かりやすく提示して、適切な撮影作業を行うようにユーザを促すことができる。これにより、支援画像に応じて適切な撮影作業をユーザが行うことで、SLAMを用いた3次元計測処理の精度を向上させることができる。 According to the present invention, the need for loop closing processing is clearly indicated to a user (operator) performing photography work using support images, and the user is urged to perform appropriate photography work. This allows the user to perform appropriate photography work in response to the support images, thereby improving the accuracy of 3D measurement processing using SLAM.
前記課題を解決するためになされた第1の発明は、計測対象場所の各地点の撮影画像に基づいて計測対象場所の3次元空間情報を生成する3次元計測処理を行うために、計測対象場所の各地点を撮影する撮影装置であって、ユーザが保持する装置本体と、その装置本体に設けられて計測対象場所を撮影する撮影部と、ユーザが前記装置本体を保持して計測対象場所を移動しながら計測対象場所の各地点を前記撮影部に順次撮影させる撮影作業に関する支援情報を表示する表示部と、前記撮影部および前記表示部を制御するプロセッサと、を備え、前記プロセッサは、前記支援情報として、前記3次元計測処理においてループクロージング処理の実施済みの範囲を可視化した支援画像を、前記表示部に表示する構成とする。 The first invention made to solve the above problem is an imaging device that images each point of a measurement target location in order to perform a three-dimensional measurement process that generates three-dimensional spatial information of the measurement target location based on the captured images of each point of the measurement target location, and includes a device main body held by a user, an imaging unit provided in the device main body that images the measurement target location, a display unit that displays support information related to the imaging work in which the user holds the device main body and moves around the measurement target location while causing the imaging unit to sequentially capture each point of the measurement target location, and a processor that controls the imaging unit and the display unit, and the processor is configured to display, as the support information, an support image on the display unit that visualizes the area in which loop closing processing has already been performed in the three-dimensional measurement processing.
これによると、撮影作業中のユーザ(作業者)に対して、支援画像によりループクロージング処理の必要性を分かりやすく提示して、適切な撮影作業を行うようにユーザを促すことができる。これにより、支援画像に応じて適切な撮影作業をユーザが行うことで、SLAMを用いた3次元計測処理の精度を向上させることができる。なお、ループクロージング処理の実施済みの範囲は、エリアで可視化されてもよく経路で可視化されてもよい。 This allows the need for loop closing processing to be clearly indicated to the user (worker) during photography work using support images, encouraging the user to perform appropriate photography work. This allows the user to perform appropriate photography work in accordance with the support images, thereby improving the accuracy of 3D measurement processing using SLAM. Note that the range in which loop closing processing has been performed may be visualized by area or by route.
また、第2の発明は、前記プロセッサは、前記3次元計測処理の計測結果から生成される俯瞰画像と、現在の撮影画像との少なくともいずれかにおいて、前記ループクロージング処理の実施済みの範囲を可視化した前記支援画像を、前記表示部に表示する構成とする。 In addition, the second invention is configured such that the processor displays, on the display unit, the support image that visualizes the range in which the loop closing process has been performed in at least one of an overhead image generated from the measurement results of the three-dimensional measurement process and the current captured image.
これによると、ループクロージング処理の実施済みの範囲を、ユーザに分かりやすく提示することができる。この場合、例えば、ループクロージング処理の実施済みの範囲が、色付けして可視化されてもよい。また、俯瞰画像は、俯瞰点群画像でもよく、俯瞰点群経路画像でもよく、俯瞰経路画像でもよい。 This makes it possible to present to the user the extent to which the loop closing process has been performed in an easy-to-understand manner. In this case, for example, the extent to which the loop closing process has been performed may be visualized by coloring. Furthermore, the overhead image may be an overhead point cloud image, an overhead point cloud route image, or an overhead route image.
また、第3の発明は、前記プロセッサは、前記支援画像において、前記ループクロージング処理の実施済みの範囲を、前記ループクロージング処理の実施が推奨される範囲とは異なる表示態様で可視化する構成とする。 In addition, the third invention is configured such that the processor visualizes in the support image the range in which the loop closing process has been performed in a display mode different from the range in which the loop closing process is recommended to be performed.
これによると、ループクロージング処理の実施済みの範囲を、ユーザに分かりやすく提示することができる。この場合、例えば、ループクロージング処理の実施済みの範囲が、ループクロージング処理の実施が推奨される範囲とは異なる色で可視化されてもよい。 This allows the range in which loop closing processing has been performed to be presented to the user in an easy-to-understand manner. In this case, for example, the range in which loop closing processing has been performed may be visualized in a color different from the range in which loop closing processing is recommended.
また、第4の発明は、前記プロセッサは、前記ループクロージング処理の実施済みの範囲における実施回数を取得する構成とする。 In addition, the fourth invention is configured such that the processor acquires the number of times the loop closing process has been performed within the range in which it has already been performed.
これによると、ループクロージング処理の実施済みの範囲における実施回数を、ユーザに提示することができる。この場合、撮影地点(撮影画像)ごとの実施回数を取得することができる。また、3次元空間情報としての点群データの点ごとの実施回数を取得することができる。 This makes it possible to present to the user the number of times the loop closing process has been performed within the range in which it has already been performed. In this case, it is possible to obtain the number of times it has been performed for each shooting location (captured image). It is also possible to obtain the number of times it has been performed for each point of the point cloud data as three-dimensional spatial information.
また、第5の発明は、前記プロセッサは、前記支援画像において、前記ループクロージング処理の実施済みの範囲の表示態様を、前記実施回数に応じて変更する構成とする。 In a fifth aspect of the present invention, the processor is configured to change the display mode of the range in the support image where the loop closing process has been performed, depending on the number of times the process has been performed.
これによると、ループクロージング処理の実施済みの範囲における実施回数を、ユーザに分かりやすく提示することができる。この場合、例えば、表示態様の変更として色が変更されてもよい。例えば、実施回数が1回の範囲は緑色で描画され、実施回数が2回の範囲は青色で描画され、実施回数が0回の範囲は赤色で描画される。 This makes it possible to clearly present to the user the number of times the loop closing process has been performed within the range in which it has already been performed. In this case, for example, the color may be changed as a change in the display mode. For example, a range in which it has been performed once is drawn in green, a range in which it has been performed twice is drawn in blue, and a range in which it has been performed zero times is drawn in red.
また、第6の発明は、計測対象場所の各地点の撮影画像に基づいて計測対象場所の3次元空間情報を生成する3次元計測処理を行うために、撮影装置を保持して計測対象場所内を移動しながら計測対象場所の各地点を前記撮影装置に順次撮影させるユーザの撮影作業を支援する処理をプロセッサにより行う撮影作業支援方法であって、撮影作業に関する支援情報として、前記3次元計測処理においてループクロージング処理の実施済みの範囲を可視化した支援画像を、表示部に表示する構成とする。 The sixth invention is a method for supporting photography by a processor that supports a user in photographing a location to be measured by moving around the location to be measured while holding a photography device and having the photography device photograph each point of the location to be measured in sequence, in order to perform three-dimensional measurement processing to generate three-dimensional spatial information of the location to be measured based on images taken of each point of the location to be measured, and is configured to display, on a display unit, a support image that visualizes the area in which loop closing processing has already been performed in the three-dimensional measurement processing, as support information for the photography task.
これによると、第1の発明と同様に、撮影作業中のユーザに対して、ループクロージング処理の必要性を分かりやすく提示して、適切な撮影作業を行うようにユーザを促すことで、SLAMを用いた3次元計測の精度を向上させることができる。 As with the first invention, this makes it possible to improve the accuracy of 3D measurements using SLAM by clearly indicating the need for loop closing processing to a user who is taking photographs and encouraging the user to take appropriate photographs.
また、第7の発明は、計測対象場所の各地点の撮影画像に基づいて計測対象場所の3次元空間情報を生成する3次元計測処理を行うために、撮影装置を保持して計測対象場所内を移動しながら計測対象場所の各地点を前記撮影装置に順次撮影させるユーザの撮影作業を支援する処理をプロセッサに実行させる撮影作業支援プログラムであって、撮影作業に関する支援情報として、前記3次元計測処理においてループクロージング処理の実施済みの範囲を可視化した支援画像を、表示部に表示する構成とする。 The seventh invention is a photography operation support program that causes a processor to execute a process to support a user's photography operation by moving within the measurement target location while holding a photography device and having the photography device sequentially photograph each point of the measurement target location in order to perform a three-dimensional measurement process that generates three-dimensional spatial information of the measurement target location based on photographed images of each point of the measurement target location, and is configured to display, on a display unit, a support image that visualizes the area in which loop closing processing has been performed in the three-dimensional measurement process as support information related to the photography operation.
これによると、第1の発明と同様に、撮影作業中のユーザに対して、ループクロージング処理の必要性を分かりやすく提示して、適切な撮影作業を行うようにユーザを促すことで、SLAMを用いた3次元計測の精度を向上させることができる。 As with the first invention, this makes it possible to improve the accuracy of 3D measurements using SLAM by clearly indicating the need for loop closing processing to a user who is taking photographs and encouraging the user to take appropriate photographs.
以下、本発明の実施の形態を、図面を参照しながら説明する。 The following describes an embodiment of the present invention with reference to the drawings.
図1は、本実施形態に係る撮影装置1を用いてユーザが行う撮影作業の状況を示す説明図である。図2は、計測対象場所を示す平面図である。 Figure 1 is an explanatory diagram showing the situation of a user performing a photographing operation using the photographing device 1 according to this embodiment. Figure 2 is a plan view showing the location to be measured.
撮影装置1は、装置本体11と、センサ部12とを備えている。センサ部12は、可視カメラ21(撮影部)を備えている。可視カメラ21は、可視光を検出して被写体を撮影する単眼カメラであり、撮影画像、例えばRGB方式のカラー画像を出力する。なお、撮影装置1は、タブレット端末や、ノートPCで構成することができる。 The photographing device 1 includes a device body 11 and a sensor unit 12. The sensor unit 12 includes a visible camera 21 (photographing unit). The visible camera 21 is a monocular camera that detects visible light to photograph a subject, and outputs a photographed image, for example, a color image in the RGB format. The photographing device 1 can be configured as a tablet terminal or a notebook PC.
ユーザ(作業者)は、撮影装置1の装置本体11を保持した状態で計測対象場所を歩く。このとき、撮影装置1では、可視カメラ21により計測対象場所が撮影され、計測対象場所における各地点の撮影画像が順次取得される。 The user (worker) walks through the location to be measured while holding the device body 11 of the imaging device 1. At this time, the imaging device 1 captures the location to be measured with the visible camera 21, and sequentially acquires images of each point in the location to be measured.
また、本実施形態では、撮影装置1が3次元計測装置となる。すなわち、撮影装置1では、可視カメラ21により順次取得した各地点の撮影画像に基づいて3次元計測処理が行われ、計測対象場所に関する3次元空間情報が生成される。3次元計測処理では、SLAM法を用いて、計測対象場所に関する3次元空間情報としての点群データ(環境地図)が生成される。このとき、点群データの生成と併せて、自己位置推定処理が行われ、各回の自己位置、すなわち撮影地点の位置が推定される。 In addition, in this embodiment, the imaging device 1 is a three-dimensional measurement device. That is, in the imaging device 1, three-dimensional measurement processing is performed based on the captured images of each point acquired in sequence by the visible camera 21, and three-dimensional spatial information regarding the measurement target location is generated. In the three-dimensional measurement processing, the SLAM method is used to generate point cloud data (environmental map) as three-dimensional spatial information regarding the measurement target location. At this time, in addition to generating the point cloud data, a self-position estimation process is performed, and the self-position for each time, i.e., the position of the imaging point, is estimated.
また、撮影装置1では、自機の移動経路がループを形成すること、すなわち、自機が以前に撮影した地点に戻ったことが検出されると、ループクロージング処理が実施される。ループクロージング処理では、以前に撮影された地点に関して、その以前の撮影の際に取得した自己位置推定結果(過去位置)を正しい位置とみなして、現在位置から過去位置に至るまでの経路中の各撮影地点の位置を補正する。 In addition, when the image capture device 1 detects that its own travel path forms a loop, i.e., that its own device has returned to a location where it previously captured an image, it performs a loop closing process. In the loop closing process, for a previously captured location, the self-location estimation result (past location) acquired during the previous image capture is regarded as the correct location, and the location of each image capture location on the path from the current location to the past location is corrected.
図2に示す例では、撮影開始地点から撮影が開始されて、計測対象場所の一部のエリアを一巡して撮影開始地点に戻る。さらに、撮影が継続され、計測対象場所の別のエリアが撮影される。この場合、撮影開始地点に戻ったところでループクロージング処理が実施される。これにより、ループに含まれる各撮影地点に関する点群データおよび自己位置推定結果の精度が向上する。 In the example shown in Figure 2, shooting begins from the shooting start point, goes around a part of the area of the measurement target location, and returns to the shooting start point. Shooting then continues, and another area of the measurement target location is photographed. In this case, a loop closing process is performed when returning to the shooting start point. This improves the accuracy of the point cloud data and self-location estimation results for each shooting point included in the loop.
次に、俯瞰点群画像上で実施済み範囲および実施推奨範囲が可視化された支援画像について説明する。図3は、俯瞰点群画像上で実施済み範囲および実施推奨範囲が可視化された支援画像を示す説明図である。 Next, we will explain a support image in which the completed range and recommended range are visualized on an overhead point cloud image. Figure 3 is an explanatory diagram showing a support image in which the completed range and recommended range are visualized on an overhead point cloud image.
本実施形態では、俯瞰点群画像上で実施済み範囲および実施推奨範囲が可視化された支援画像が生成されて、その支援画像が、撮影作業中のユーザに提示される。俯瞰点群画像は、点群データの各点を上空の視点から見た状態で画像化(レンダリング)したものである。実施済み範囲は、ループクロージング処理の実施済みの範囲を表す。実施推奨範囲は、ループクロージング処理の実施が推奨される範囲、すなわち、ループクロージング処理の未実施の範囲、または、3次元計測結果の精度が低い範囲を表す。 In this embodiment, a support image is generated in which the completed range and the recommended range are visualized on the overhead point cloud image, and the support image is presented to the user during the shooting work. The overhead point cloud image is an image (rendering) of each point of the point cloud data as seen from an aerial viewpoint. The completed range represents the range in which loop closing processing has been performed. The recommended range represents the range in which loop closing processing is recommended, i.e., the range in which loop closing processing has not been performed, or the range in which the accuracy of the 3D measurement results is low.
実施済みエリア(実施済み範囲)と実施推奨エリア(実施推奨範囲)とは色分けして描画される。例えば、実施済みエリアは青色で描画され、実施推奨エリアは赤色で描画される。具体的には、俯瞰点群画像において、実施済みエリアに含まれる各点が青色で描画され、実施推奨エリアに含まれる各点が赤色で描画される。 The completed area (range where the action has been taken) and the recommended area (range where the action is recommended) are drawn in different colors. For example, the completed area is drawn in blue, and the recommended area is drawn in red. Specifically, in the overhead point cloud image, each point included in the completed area is drawn in blue, and each point included in the recommended area is drawn in red.
このとき、俯瞰点群画像において所定の大きさで描画される各点が所定色で着色される。また、各点を中心にした所定の径の球体が所定色で描画されてもよい。また、対象空間が立方体状のボクセルに分割されて、各点を含むボクセルが所定色で描画されてもよい。 At this time, each point drawn at a predetermined size in the overhead point cloud image is colored in a predetermined color. Also, a sphere of a predetermined diameter centered on each point may be drawn in a predetermined color. Also, the target space may be divided into cubic voxels, and the voxels containing each point may be drawn in a predetermined color.
ユーザは、支援画像を閲覧することで、ループクロージング処理のための撮影作業が必要な範囲を把握して、撮影作業を行う。具体的には、ユーザは、赤色で描画された実施推奨エリアを対象にして撮影作業を行う。すなわち、実施推奨エリアを通るように撮影作業を行う。なお、撮影作業の具体的な内容、すなわち移動経路などは、現場の状況などに応じて、ユーザが適宜に判断すればよい。 By viewing the support image, the user can understand the area where photography is required for loop closing processing and then perform the photography work. Specifically, the user performs photography work targeting the recommended implementation area drawn in red. In other words, the user performs photography work so as to pass through the recommended implementation area. Note that the specific content of the photography work, i.e., the travel route, etc., can be appropriately determined by the user depending on the situation at the site, etc.
このように本実施形態では、支援画像により、ループクロージング処理の必要性をユーザに分かりやすく提示することができる。さらに、ループクロージング処理のための撮影作業が必要な範囲をユーザに分かりやすく提示することができる。これにより、適切な撮影作業を行うようにユーザを促すことができ、ループクロージング処理が確実に実施されるため、3次元計測処理の精度を高めることができる。 In this manner, in this embodiment, the support image can be used to clearly present to the user the necessity of loop closing processing. Furthermore, the range in which photographing work is required for loop closing processing can be clearly presented to the user. This can encourage the user to perform appropriate photographing work, and the loop closing processing can be reliably performed, thereby improving the accuracy of the 3D measurement processing.
なお、実施済みエリアおよび実施推奨エリアは共に、計測対象場所の中で撮影が行われた範囲を表す。すなわち、計測対象場所において実施済みエリアと実施推奨エリアとのいずれにも含まれないエリアは、撮影が行われていない範囲を表す。したがって、ユーザは、支援画像を閲覧することで、撮影が行われていない範囲も確認することができる。 Note that both the completed area and the recommended area represent the range within the measurement location where photography has been performed. In other words, areas within the measurement location that are not included in either the completed area or the recommended area represent ranges within which photography has not been performed. Therefore, by viewing the support image, the user can also check the ranges within which photography has not been performed.
また、本実施形態では、ループクロージング処理の実施回数を計数して、ループクロージング処理の実施回数に応じたエリアの可視化(色分け)が行われる。例えば、実施回数が1回のエリアは緑色で描画され、実施回数が2回のエリアは青色で描画され、実施回数が0回のエリアは赤色で描画される。 In addition, in this embodiment, the number of times the loop closing process is performed is counted, and the area is visualized (color-coded) according to the number of times the loop closing process is performed. For example, an area where it has been performed once is drawn in green, an area where it has been performed twice is drawn in blue, and an area where it has been performed zero times is drawn in red.
次に、俯瞰点群経路画像上で実施済み範囲および実施推奨範囲が可視化された支援画像について説明する。図4は、俯瞰点群経路画像上で実施済み範囲および実施推奨範囲が可視化された支援画像を示す説明図である。 Next, we will explain a support image in which the completed range and recommended range are visualized on an overhead point cloud route image. Figure 4 is an explanatory diagram showing a support image in which the completed range and recommended range are visualized on an overhead point cloud route image.
本実施形態では、俯瞰点群経路画像上で実施済み範囲および実施推奨範囲が可視化された支援画像が生成されて、その支援画像が、撮影作業中のユーザに提示される。俯瞰点群経路画像は、俯瞰点群画像上に経路(移動軌跡)が重畳されたものである。俯瞰点群画像は、点群データの各点を上空の視点から見た状態で画像化(レンダリング)したものである。経路は、各回の撮影画像に基づく自己位置推定結果、すなわち各回の撮影地点を、俯瞰点群画像上において線で結ぶように描画したものである。 In this embodiment, a support image is generated in which the completed range and recommended range are visualized on an overhead point cloud route image, and the support image is presented to the user during shooting work. The overhead point cloud route image is an overhead point cloud image on which a route (movement trajectory) is superimposed. The overhead point cloud image is an image (rendering) of each point of the point cloud data as seen from a viewpoint in the sky. The route is the self-position estimation result based on each captured image, i.e., the shooting points of each capture, drawn on the overhead point cloud image as lines connecting them.
実施済み経路(実施済み範囲)と実施推奨経路(実施推奨範囲)とは色分けして描画される。例えば、実施済み経路は青色で描画され、実施推奨経路は赤色で描画される。 The completed route (area that has been completed) and the recommended route (area that is recommended) are drawn in different colors. For example, the completed route is drawn in blue, and the recommended route is drawn in red.
また、支援画像には、撮影地点マークが描画されている。撮影地点マークは、撮影地点および撮影方向を表す。具体的には、撮影地点マークは二等辺三角形で描画され、二等辺三角形の頂点が撮影地点を表し、頂点から底辺を望む方向が撮影方向を表す。 In addition, a shooting location mark is drawn on the support image. The shooting location mark indicates the shooting location and shooting direction. Specifically, the shooting location mark is drawn as an isosceles triangle, with the apex of the isosceles triangle indicating the shooting location, and the direction from the apex to the base indicating the shooting direction.
ユーザは、支援画像を閲覧することで、ループクロージング処理のための撮影作業が必要な範囲を把握して、撮影作業を行う。具体的には、ユーザは、赤色で描画された実施推奨経路を対象にして撮影作業を行う。すなわち、実施推奨経路を含むループが形成されるように撮影作業を行う。 By viewing the support image, the user can understand the area where photography is required for the loop closing process and then perform the photography work. Specifically, the user performs the photography work by targeting the recommended implementation route drawn in red. In other words, the user performs the photography work so as to form a loop that includes the recommended implementation route.
また、本実施形態では、ループクロージング処理の実施回数を計数して、ループクロージング処理の実施回数に応じた経路の可視化(色分け)が行われる。例えば、実施回数が1回の経路は緑色で描画され、実施回数が2回の経路は青色で描画され、実施回数が0回の経路は赤色で描画される。 In addition, in this embodiment, the number of times the loop closing process is performed is counted, and the route is visualized (color-coded) according to the number of times the loop closing process is performed. For example, a route that has been performed once is drawn in green, a route that has been performed twice is drawn in blue, and a route that has been performed zero times is drawn in red.
次に、俯瞰経路画像上で実施済み範囲および実施推奨範囲が可視化された支援画像について説明する。図5は、俯瞰経路画像上で実施済み範囲および実施推奨範囲が可視化された支援画像を示す説明図である。 Next, we will explain the support image in which the completed range and the recommended range are visualized on the overhead route image. Figure 5 is an explanatory diagram showing the support image in which the completed range and the recommended range are visualized on the overhead route image.
本実施形態では、俯瞰経路画像上で実施済み範囲および実施推奨範囲が可視化された支援画像が生成されて、その支援画像が、撮影作業中のユーザに提示される。俯瞰経路画像は、俯瞰点群経路画像(図4参照)から俯瞰点群画像を除去した状態のものであり、各回の撮影画像に基づく自己位置推定結果、すなわち各回の撮影地点を結ぶ線が、上空の視点から見た状態で描画されたものである。 In this embodiment, a support image is generated in which the completed range and the recommended range are visualized on the overhead route image, and the support image is presented to the user during the shooting work. The overhead route image is obtained by removing the overhead point cloud image from the overhead point cloud route image (see FIG. 4), and is a drawing of the self-position estimation results based on the images captured each time, i.e., the lines connecting the shooting points for each time, as viewed from an aerial viewpoint.
次に、撮影画像上で実施済み範囲および実施推奨範囲が可視化された支援画像について説明する。図6は、撮影画像上で実施済み範囲および実施推奨範囲が可視化された支援画像を示す説明図である。 Next, we will explain the support image in which the implemented range and the recommended implementation range are visualized on the captured image. Figure 6 is an explanatory diagram showing the support image in which the implemented range and the recommended implementation range are visualized on the captured image.
本実施形態では、撮影画像上で実施済み範囲および実施推奨範囲が可視化された支援画像が生成されて、その支援画像が、撮影作業中のユーザに提示される。撮影画像は、現在の撮影画像、すなわち、可視カメラ21から出力されるリアルタイムで撮影された画像である。 In this embodiment, a support image is generated in which the already implemented range and the recommended implementation range are visualized on the captured image, and the support image is presented to the user during the shooting work. The captured image is the current captured image, that is, the image captured in real time output from the visible camera 21.
実施済みエリア(実施済み範囲)と実施推奨エリア(実施推奨範囲)とは色分けして描画される。例えば、実施済みエリアは青色で描画され、実施推奨エリアは赤色で描画される。具体的には、所定色で描画された実施済みエリアを表す画像と、所定色で描画された実施推奨エリアを表す画像とが、撮影画像上に半透過状態で重畳される。 The completed area (range where the procedure has been completed) and the recommended area (range where the procedure is recommended) are drawn in different colors. For example, the completed area is drawn in blue, and the recommended area is drawn in red. Specifically, an image showing the completed area drawn in a specified color and an image showing the recommended area drawn in a specified color are superimposed in a semi-transparent state on the captured image.
このように本実施形態では、撮影画像上で実施済み範囲および実施推奨範囲(未実施範囲)が可視化される。これにより、ユーザが、目の前に見える場所が実施済み範囲か実施推奨範囲かを容易に判別することができる。そして、ユーザは、実施推奨範囲が含まれるように撮影作業を行う。 In this manner, in this embodiment, the implemented range and the recommended implementation range (unimplemented range) are visualized on the captured image. This allows the user to easily determine whether the area in front of them is an implemented range or a recommended implementation range. The user then performs the capture operation so that the recommended implementation range is included.
次に、撮影装置1の概略構成について説明する。図7は、撮影装置1の概略構成を示すブロック図である。 Next, we will explain the general configuration of the imaging device 1. Figure 7 is a block diagram showing the general configuration of the imaging device 1.
撮影装置1は、センサ部12の他に、ディスプレイ13(表示部)と、入力デバイス14と、メモリ15と、プロセッサ16(CPU)と、を備えている。 In addition to the sensor unit 12, the imaging device 1 includes a display 13 (display unit), an input device 14, a memory 15, and a processor 16 (CPU).
センサ部12は、可視カメラ21の他に、デプスカメラ22と、IMU23(慣性計測装置:Inertial Measurement Unit)とを備えている。デプスカメラ22は、赤外光を検出して被写体を撮像するステレオカメラであり、検出結果として深度情報(距離画像)を出力する。デプスカメラ22の検出結果に基づいて、被写体までの距離を計測することができる。IMU23は、3次元の角速度および加速度を検出する。IMU23の検出結果に基づいて、撮影装置1の移動量および回転量を計測することができる。なお、可視カメラ21、デプスカメラ22、およびIMU23は、センサユニットとして一体化されていない構成でもよい。また、デプスカメラ22およびIMU23が省略され、可視カメラ21のみが設けられた構成でもよい。 In addition to the visible camera 21, the sensor unit 12 also includes a depth camera 22 and an IMU 23 (Inertial Measurement Unit). The depth camera 22 is a stereo camera that detects infrared light to capture an image of a subject, and outputs depth information (distance image) as the detection result. The distance to the subject can be measured based on the detection result of the depth camera 22. The IMU 23 detects three-dimensional angular velocity and acceleration. The amount of movement and rotation of the imaging device 1 can be measured based on the detection result of the IMU 23. Note that the visible camera 21, the depth camera 22, and the IMU 23 may not be integrated into a sensor unit. Also, the depth camera 22 and the IMU 23 may be omitted, and only the visible camera 21 may be provided.
ディスプレイ13は、撮影作業に関する各種の情報をユーザに提示するものであり、撮影画面101(図8,図9参照)などを表示する。入力デバイス14は、ユーザが入力操作を行うものである。入力デバイス14は、キーボード、マウス、タッチパッド、タッチパネルなどであってもよい。なお、撮影装置1がタブレット端末で構成される場合には、入力デバイス14としてのタッチパネルとディスプレイ13としての表示パネルとが一体化されたタッチパネルディスプレイが設けられる。 The display 13 presents various information related to the shooting work to the user, and displays the shooting screen 101 (see Figures 8 and 9) and the like. The input device 14 is used by the user to perform input operations. The input device 14 may be a keyboard, a mouse, a touch pad, a touch panel, or the like. Note that when the shooting device 1 is configured as a tablet terminal, a touch panel display is provided in which the touch panel as the input device 14 and the display panel as the display 13 are integrated.
メモリ15は、プロセッサ16で実行されるプログラムなどを記憶する。また、メモリ15は、可視カメラ21の撮影画像や、デプスカメラ22およびIMU23の各検出結果を記憶する。また、メモリ15は、プロセッサ16で生成された計測結果を記憶する。 The memory 15 stores programs executed by the processor 16. The memory 15 also stores images captured by the visible camera 21 and the detection results of the depth camera 22 and the IMU 23. The memory 15 also stores measurement results generated by the processor 16.
プロセッサ16は、メモリ15に記憶されたプログラムを実行することで各種の処理を行う。本実施形態では、プロセッサ16が、検出情報取得処理、点群生成処理、第1の支援画像生成処理、第2の支援画像生成処理、画面制御処理、およびメッセージ通知処理などを行う。 The processor 16 performs various processes by executing the programs stored in the memory 15. In this embodiment, the processor 16 performs detection information acquisition process, point cloud generation process, first support image generation process, second support image generation process, screen control process, message notification process, and the like.
検出情報取得処理では、プロセッサ16が、可視カメラ21の撮影画像を取得する。また、プロセッサ16が、デプスカメラ22およびIMU23の各検出結果を取得する。 In the detection information acquisition process, the processor 16 acquires images captured by the visible camera 21. The processor 16 also acquires the detection results of the depth camera 22 and the IMU 23.
点群生成処理(3次元計測処理)では、プロセッサ16が、可視カメラ21により順次取得した各地点の撮影画像に基づいて、SLAM法を用いて、計測対象場所に関する3次元空間情報としての点群データ(環境地図)を生成する。また、点群生成処理では、点群データの生成と併せて自己位置推定が行われ、各回の自己位置、すなわち、撮影地点の位置が取得される。 In the point cloud generation process (three-dimensional measurement process), the processor 16 uses the SLAM method to generate point cloud data (environmental map) as three-dimensional spatial information about the measurement target location, based on the images of each location captured sequentially by the visible camera 21. In the point cloud generation process, self-position estimation is also performed in addition to the generation of the point cloud data, and the self-position for each time, i.e., the position of the shooting point, is obtained.
また、点群生成処理は、ループ検出処理を含む。ループ検出処理では、プロセッサ16が、自機の経路がループを形成すること、すなわち、自機が以前に撮影した地点に戻ったことを検出する。このとき、以前に撮影した地点の検出においては、予め設定された規定の撮影画像と比較するものでなく、今回の撮影画像が過去の撮影画像のいずれかと類似する場合に、自機が以前に撮影した地点に戻ったと判定される。なお、撮影画像の類似は、撮影画像から抽出される特徴量に基づいて判定されてもよい。 The point cloud generation process also includes a loop detection process. In the loop detection process, the processor 16 detects that the route of the aircraft forms a loop, i.e., that the aircraft has returned to a location where an image was previously captured. In this case, the detection of the previously captured location is not performed by comparing the image with a preset specified captured image, but rather, if the current captured image is similar to any of the previously captured images, it is determined that the aircraft has returned to a location where an image was previously captured. Note that the similarity of the captured images may be determined based on features extracted from the captured images.
また、点群生成処理は、ループクロージング処理を含む。ループ検出処理でループが検出されると、ループクロージング処理が実施される。ループクロージング処理では、プロセッサ16が、以前に撮影された地点に関して、その以前の撮影の際に取得した自己位置推定結果(過去位置)を正しい位置とみなして、現在位置から過去位置に至るまでの経路中の各撮影地点の位置を補正する。 The point cloud generation process also includes a loop closing process. When a loop is detected in the loop detection process, the loop closing process is carried out. In the loop closing process, the processor 16 regards the self-location estimation result (past position) acquired during the previous image capture as the correct position for a previously captured point, and corrects the position of each image capture point on the path from the current position to the past position.
また、点群生成処理は、実施回数取得処理を含む。実施回数取得処理では、プロセッサ16が、各撮影地点に関して、ループクロージング処理が実施された回数を計数する。実施回数情報は、各撮影地点の撮影画像(フレーム)に付加される。また、点群データにおける各点に実施回数情報が付加される。このとき、例えば、ループクロージング処理が実施された撮影地点の撮影画像(フレーム)から生成された点群データに含まれる各点に対して実施回数情報が付加される。なお、実施回数情報には、ループクロージング処理の実施の有無に関する情報も含まれ、実施回数が0回の場合には未実施となり、実施回数が1回以上の場合には実施済みとなる。 The point cloud generation process also includes an implementation count acquisition process. In the implementation count acquisition process, the processor 16 counts the number of times the loop closing process has been performed for each shooting location. Implementation count information is added to the captured image (frame) of each shooting location. Implementation count information is also added to each point in the point cloud data. At this time, for example, implementation count information is added to each point included in the point cloud data generated from the captured image (frame) of the shooting location where the loop closing process was performed. The implementation count information also includes information regarding whether or not the loop closing process has been performed; if the implementation count is 0, it has not been performed, and if the implementation count is 1 or more, it has been performed.
また、点群生成処理は、精度取得処理を含む。精度取得処理では、プロセッサ16が、各撮影地点における3次元計測結果(点群データおよび自己位置推定結果)の精度を取得する。具体的には、ループクロージング処理の実施済みの地点からの離間量に基づいて、各撮影地点の精度を取得する。離間量は、具体的には、ループクロージング処理が実行された地点からの移動距離(移動軌跡の長さ)、ループクロージング処理が実行された時刻からの経過時間、ループクロージング処理が実行されてから撮影された枚数(フレーム数)などである。なお、離間量としての移動距離、経過時間およびフレーム数を組み合わせて精度を判定してもよい。さらに、離間量に移動速度を組み合わせて精度を判定してもよい。精度情報は各撮影地点の撮影画像(フレーム)に付加される。また、点群データにおける各点に精度情報が付加されてもよい。 The point cloud generation process also includes an accuracy acquisition process. In the accuracy acquisition process, the processor 16 acquires the accuracy of the three-dimensional measurement results (point cloud data and self-position estimation results) at each shooting point. Specifically, the accuracy of each shooting point is acquired based on the amount of distance from the point where the loop closing process has been performed. Specifically, the amount of distance is the moving distance (length of the moving trajectory) from the point where the loop closing process was performed, the elapsed time from the time when the loop closing process was performed, the number of images (number of frames) taken since the loop closing process was performed, etc. Note that the accuracy may be determined by combining the moving distance, elapsed time, and number of frames as the amount of distance. Furthermore, the accuracy may be determined by combining the amount of distance with the moving speed. Accuracy information is added to the captured image (frame) at each shooting point. Also, accuracy information may be added to each point in the point cloud data.
また、ループクロージング処理の実施状況とは関係なく、点群データにおける各点の精度情報を取得することができる。例えば、各撮影地点での撮影画像に基づく計測結果(点群データ)がデプスカメラ22やIMU23の検出結果と整合しない場合には精度が低いと判定することができる。また、前後の撮影画像(フレーム)に基づく計測結果を比較することで精度が判定されてもよい。この場合、精度情報は点群データにおける各点に付加される。 In addition, accuracy information for each point in the point cloud data can be obtained regardless of the implementation status of the loop closing process. For example, if the measurement results (point cloud data) based on the images captured at each shooting point do not match the detection results of the depth camera 22 or IMU 23, it can be determined that the accuracy is low. Accuracy may also be determined by comparing the measurement results based on previous and subsequent captured images (frames). In this case, accuracy information is added to each point in the point cloud data.
なお、点群生成処理では、可視カメラ21の撮影画像の他に、デプスカメラ22およびIMU23の検出結果を用いてもよい。具体的には、デプスカメラ22の検出結果に基づいて、可視カメラ21の撮影画像から抽出された各特徴点の撮影装置1に対する相対的な位置情報(撮影装置1からの距離)を取得して、可視カメラ21の撮影画像に基づく自己位置推定結果を補正することができる。また、IMU23の検出結果に基づいて、各撮影地点の相対的な位置情報を取得して、その撮影地点の相対的な位置情報に基づいて、可視カメラ21の撮影画像に基づく自己位置推定結果を補正することができる。 In addition, in the point cloud generation process, in addition to the images captured by the visible camera 21, the detection results of the depth camera 22 and the IMU 23 may be used. Specifically, based on the detection results of the depth camera 22, relative position information (distance from the imaging device 1) of each feature point extracted from the images captured by the visible camera 21 with respect to the imaging device 1 can be obtained, and the self-position estimation result based on the images captured by the visible camera 21 can be corrected. Also, based on the detection results of the IMU 23, relative position information of each imaging point can be obtained, and based on the relative position information of the imaging point, the self-position estimation result based on the images captured by the visible camera 21 can be corrected.
第1の支援画像生成処理では、プロセッサ16が、俯瞰画像上で実施済み範囲および実施推奨範囲が可視化された支援画像(第1の支援画像)を生成する。具体的には、俯瞰点群画像上で実施済み範囲および実施推奨範囲が可視化された支援画像(図3参照)、俯瞰点群経路画像上で実施済み範囲および実施推奨範囲が可視化された支援画像(図4参照)、および俯瞰経路画像上で実施済み範囲および実施推奨範囲が可視化された支援画像(図5参照)が生成される。 In the first support image generation process, the processor 16 generates a support image (first support image) in which the performed range and the recommended range are visualized on an overhead image. Specifically, a support image in which the performed range and the recommended range are visualized on an overhead point cloud image (see FIG. 3), a support image in which the performed range and the recommended range are visualized on an overhead point cloud route image (see FIG. 4), and a support image in which the performed range and the recommended range are visualized on an overhead route image (see FIG. 5) are generated.
俯瞰点群画像上での実施済み範囲および実施推奨範囲の可視化では、点群データにおける各点に付加された実施回数情報に基づいて、実施済み範囲および実施推奨範囲の情報が取得され、実施済み範囲および実施推奨範囲の各々に含まれる点群画像上の各点に色付けが行われる(点群色付け処理)。 When visualizing the performed and recommended implementation ranges on an overhead point cloud image, information on the performed and recommended implementation ranges is obtained based on the number of times performed information added to each point in the point cloud data, and each point on the point cloud image that is included in each of the performed and recommended implementation ranges is colored (point cloud coloring process).
また、俯瞰点群経路画像や俯瞰経路画像上での実施済み範囲および実施推奨範囲の可視化では、各撮影地点の撮影画像(フレーム)に付加された実施回数情報に基づいて、各撮影地点の位置を線で結んだ経路(移動軌跡)の画像に色付けが行われる(経路色付け処理)。 In addition, when visualizing the completed and recommended areas on the overhead point cloud route image or the overhead route image, the image of the route (movement trajectory) connecting the positions of each shooting point with a line is colored based on the number of times the action has been taken information added to the shooting image (frame) of each shooting point (route coloring process).
また、本実施形態では、俯瞰点群画像上での実施推奨範囲の可視化において、3次元計測結果の精度の低い範囲を実施推奨範囲として、点群データにおける各点に付加された精度情報に基づいて、精度の低い点を実施推奨範囲の色で色付けが行われる。なお、点群データにおいて精度の低い点が多いエリアが実施推奨範囲として抽出されてもよい。 In addition, in this embodiment, when visualizing the recommended implementation range on the overhead point cloud image, the range with low accuracy in the 3D measurement results is set as the recommended implementation range, and the points with low accuracy are colored with the color of the recommended implementation range based on the accuracy information added to each point in the point cloud data. Note that an area with many points with low accuracy in the point cloud data may be extracted as the recommended implementation range.
また、本実施形態では、俯瞰点群経路画像や俯瞰経路画像上での実施推奨範囲の可視化において、各撮影地点を結んだ経路のうちの精度の低い範囲を実施推奨範囲として、各撮影地点の撮影画像(フレーム)に付加された精度情報に基づいて、実施推奨範囲を表す情報が取得されて、経路の画像に色付けが行われる。 In addition, in this embodiment, when visualizing the recommended implementation range on an overhead point cloud route image or an overhead route image, the range with low accuracy on the route connecting each shooting point is set as the recommended implementation range, and information representing the recommended implementation range is obtained based on the accuracy information added to the captured image (frame) of each shooting point, and the image of the route is colored.
第2の支援画像生成処理では、プロセッサ16が、撮影画像上で実施済み範囲および実施推奨範囲が可視化された支援画像(第2の支援画像)(図6参照)を生成する。具体的には、所定色で描画された実施済みエリアを表す画像と、所定色で描画された実施推奨エリアを表す画像とが生成されて(重畳画像生成処理)、その実施済みエリアおよび実施推奨エリアをそれぞれ表す画像が撮影画像上に半透過状態で重畳される。なお、重畳画像生成処理では、撮影画像と同一の視点から見た点群データにおける各点の実施回数情報に基づいて、実施済みエリアおよび実施推奨エリアの各々の範囲を表す情報が取得されてもよい。 In the second support image generation process, the processor 16 generates a support image (second support image) (see FIG. 6) in which the performed area and the recommended area are visualized on the captured image. Specifically, an image representing the performed area drawn in a predetermined color and an image representing the recommended area drawn in a predetermined color are generated (superimposed image generation process), and the images representing the performed area and the recommended area are superimposed in a semi-transparent state on the captured image. Note that in the superimposed image generation process, information representing the range of each of the performed area and the recommended area may be obtained based on the number of times each point in the point cloud data is performed from the same viewpoint as the captured image.
画面制御処理では、プロセッサ16が、ディスプレイ13に表示させる画面を制御する。本実施形態では、撮影画面101(図8,図9参照)が生成されてディスプレイ13に表示される。撮影画面101には、第1の支援画像生成処理で生成された第1の支援画像(図3,図4,図5参照)と、第2の支援画像生成処理で生成された第2の支援画像(図6参照)とが表示される。 In the screen control process, the processor 16 controls the screen to be displayed on the display 13. In this embodiment, a shooting screen 101 (see Figures 8 and 9) is generated and displayed on the display 13. On the shooting screen 101, a first support image (see Figures 3, 4, and 5) generated in a first support image generation process and a second support image (see Figure 6) generated in a second support image generation process are displayed.
メッセージ通知処理では、プロセッサ16が、撮影作業の案内や各種の警告などに関するメッセージをユーザに通知する処理を行う。本実施形態では、ループクロージング処理のための撮影作業を行うようにユーザを促すメッセージを撮影画面101(図8,図9参照)に表示する。 In the message notification process, the processor 16 performs a process of notifying the user of messages regarding guidance for the shooting operation, various warnings, etc. In this embodiment, a message prompting the user to perform shooting operations for the loop closing process is displayed on the shooting screen 101 (see Figures 8 and 9).
このとき、所定の通知条件が満たされると、メッセージが表示される。例えば、ループクロージング処理が実施された地点からの移動量が所定のしきい値以上となると、メッセージが表示される。また、ループクロージング処理が実施されてからの経過時間が所定のしきい値以上となると、メッセージが表示される。ここで、移動量および経過時間は、3次元計測結果の精度の低下を評価する指標となり、移動量や経過時間が各々のしきい値以上となると、精度低下が許容限度を超えたものと判定されて、精度改善のためにメッセージが表示される。なお、メッセージは常に表示していてもよい。 At this time, if a specified notification condition is met, a message is displayed. For example, if the amount of movement from the point where the loop closing process was performed exceeds a specified threshold, a message is displayed. Also, if the time elapsed since the loop closing process was performed exceeds a specified threshold, a message is displayed. Here, the amount of movement and the elapsed time are indices for evaluating the deterioration of the accuracy of the 3D measurement results, and if the amount of movement or the elapsed time exceeds the respective threshold, it is determined that the deterioration of accuracy has exceeded the allowable limit, and a message is displayed to improve accuracy. Note that the message may be displayed at all times.
なお、本実施形態では、撮影装置1が、3次元計測処理(点群生成処理)を行うが、3次元計測処理は、撮影装置1と通信可能なサーバ装置(図示せず)で行われてもよい。 In this embodiment, the imaging device 1 performs the 3D measurement process (point cloud generation process), but the 3D measurement process may be performed by a server device (not shown) that can communicate with the imaging device 1.
次に、ディスプレイ13に表示される撮影画面101について説明する。図8,図9は、撮影画面101を示す説明図である。 Next, we will explain the shooting screen 101 displayed on the display 13. Figures 8 and 9 are explanatory diagrams showing the shooting screen 101.
撮影画面101には、メインウィンドウ102(主画像表示枠)と、サブウィンドウ103(副画像表示枠)とが設けられている。メインウィンドウ102とサブウィンドウ103とで表示倍率が異なり、メインウィンドウ102では画像が拡大して表示され、サブウィンドウ103では画像が縮小して表示される。 The shooting screen 101 is provided with a main window 102 (main image display frame) and a sub-window 103 (sub-image display frame). The main window 102 and the sub-window 103 have different display magnifications, with the main window 102 displaying an enlarged image and the sub-window 103 displaying a reduced image.
また、メインウィンドウ102およびサブウィンドウ103には、第1の支援画像121および第2の支援画像122の各々が表示される。図8に示す撮影画面101では、メインウィンドウ102に第2の支援画像122が拡大して表示されると共に、サブウィンドウ103に第1の支援画像121が縮小して表示されている。図9に示す撮影画面101では、メインウィンドウ102に第1の支援画像121が拡大して表示されると共に、サブウィンドウ103に第2の支援画像122が縮小して表示されている。 The main window 102 and the sub-window 103 display a first support image 121 and a second support image 122, respectively. In the shooting screen 101 shown in FIG. 8, the second support image 122 is displayed in an enlarged manner in the main window 102, and the first support image 121 is displayed in a reduced manner in the sub-window 103. In the shooting screen 101 shown in FIG. 9, the first support image 121 is displayed in an enlarged manner in the main window 102, and the second support image 122 is displayed in a reduced manner in the sub-window 103.
第1の支援画像121には、俯瞰点群画像上で実施済み範囲および実施推奨範囲が可視化された支援画像(図3参照)と、俯瞰点群経路画像上で実施済み範囲および実施推奨範囲が可視化された支援画像(図4参照)と、俯瞰経路画像上で実施済み範囲および実施推奨範囲が可視化された支援画像(図5参照)とがあり、設定に応じていずれかの画像が表示される。図8,図9に示す例では、第1の支援画像121として、俯瞰点群画像上で実施済み範囲および実施推奨範囲が可視化された支援画像(図3参照)が表示されている。 The first support image 121 includes a support image in which the completed range and recommended range are visualized on an overhead point cloud image (see FIG. 3), a support image in which the completed range and recommended range are visualized on an overhead point cloud route image (see FIG. 4), and a support image in which the completed range and recommended range are visualized on an overhead route image (see FIG. 5), and one of the images is displayed depending on the settings. In the example shown in FIGS. 8 and 9, a support image in which the completed range and recommended range are visualized on an overhead point cloud image (see FIG. 3) is displayed as the first support image 121.
第2の支援画像122は、撮影画像上で実施済み範囲および実施推奨範囲が可視化された支援画像(図6参照)である。撮影画像は、可視カメラ21から出力されるリアルタイムで撮影された画像である。 The second support image 122 is a support image (see FIG. 6) in which the implemented range and the recommended implementation range are visualized on the captured image. The captured image is an image captured in real time and output from the visible camera 21.
なお、メインウィンドウ102およびサブウィンドウ103で表示される第1の支援画像121および第2の支援画像122のどちらかは、実施済み範囲および実施推奨範囲の可視化が行われずに、俯瞰画像(俯瞰点群画像、俯瞰点群経路画像、俯瞰経路画像)や、撮影画像がそのまま表示されてもよい。このメインウィンドウ102およびサブウィンドウ103における実施済み範囲および実施推奨範囲の可視化の可否はユーザが予め設定できるようにしてもよい。 In addition, either the first support image 121 or the second support image 122 displayed in the main window 102 or the sub-window 103 may display an overhead image (overhead point cloud image, overhead point cloud route image, overhead route image) or a captured image as is, without visualizing the implemented range and recommended implementation range. The user may be able to set in advance whether or not to visualize the implemented range and recommended implementation range in the main window 102 and the sub-window 103.
また、撮影画面101には、「撮影開始」のボタン105と、「録画確認」のボタン106とが設けられている。ユーザが、「撮影開始」のボタン105を操作すると、可視カメラ21による撮影が開始され、撮影画像がメモリ15に蓄積される。ユーザが、「録画確認」のボタン106を操作すると、メモリ15に蓄積された撮影画像を再生するモードに遷移する。これにより、ユーザは、撮影が適切に行われたか否かを確認することができる。 The shooting screen 101 also has a "Start shooting" button 105 and a "Check recording" button 106. When the user operates the "Start shooting" button 105, shooting by the visible camera 21 begins, and the captured images are stored in the memory 15. When the user operates the "Check recording" button 106, the display transitions to a mode in which the captured images stored in the memory 15 are played back. This allows the user to check whether the shooting was performed properly.
また、撮影画面101には、「画面切替」のボタン107と、サブウィンドウ103の表示に関するチェックボックス108とが設けられている。ユーザが、「画面切替」のボタン107を操作すると、図8に示す撮影画面101の状態と図9に示す撮影画面101の状態とを切り替えることができる。すなわち、メインウィンドウ102に撮影画像が表示されると共に、サブウィンドウ103に俯瞰マップが表示される状態と、メインウィンドウ102に俯瞰マップが表示されると共に、サブウィンドウ103に撮影画像が表示される状態とが切り替えられる。ユーザが、チェックボックス108にチェックを入力すると、サブウィンドウ103が表示されない状態に遷移する。 The shooting screen 101 also has a "screen switch" button 107 and a check box 108 for displaying the sub-window 103. When the user operates the "screen switch" button 107, the state of the shooting screen 101 shown in FIG. 8 can be switched to the state of the shooting screen 101 shown in FIG. 9. That is, the state can be switched between one in which a shot image is displayed in the main window 102 and an overhead map is displayed in the sub-window 103, and one in which an overhead map is displayed in the main window 102 and a shot image is displayed in the sub-window 103. When the user checks the check box 108, the state transitions to one in which the sub-window 103 is not displayed.
また、撮影画面101には、メッセージウィンドウ110が設けられている。メッセージウィンドウ110には、ユーザに通知するメッセージが表示される。具体的には、撮影作業の案内や各種の警告などに関するメッセージが表示される。 The shooting screen 101 also has a message window 110. The message window 110 displays messages to notify the user. Specifically, messages regarding shooting instructions and various warnings are displayed.
特に、撮影作業の最中で、ループクロージング処理の実施が推奨される場所、すなわち、ループクロージング処理が未実施の場所、または、3次元計測結果の精度が低い場所が存在する場合には、ループクロージング処理の実施が推奨される場所、すなわち、赤色で描画された実施推奨範囲を対象にして撮影作業を行うようにユーザに促す支援メッセージが表示される。図8,図9に示す例では、「赤色のエリアでループクロージングが実施されるように撮影を行ってください。」とのメッセージが表示される。 In particular, during shooting work, if there is a location where loop closing processing is recommended, i.e., a location where loop closing processing has not been performed, or a location where the accuracy of the 3D measurement results is low, a support message is displayed to encourage the user to perform shooting work for the location where loop closing processing is recommended, i.e., the recommended implementation range drawn in red. In the example shown in Figures 8 and 9, the message "Please take photos so that loop closing is performed in the red area" is displayed.
このように本実施形態では、撮影画面101にリアルタイムの撮影画像が表示される。これにより、ユーザが、撮影作業の最中に現在の撮影状況を確認することができる。また、撮影画像上で実施済み範囲および実施推奨範囲(未実施範囲)が可視化されるため、ユーザが、目の前に見える場所が実施済み範囲か実施推奨範囲かを容易に判別することができる。 In this embodiment, the captured image is displayed in real time on the capture screen 101. This allows the user to check the current capture status while capturing images. In addition, the completed range and the recommended range (uncompleted range) are visualized on the captured image, allowing the user to easily determine whether the area in front of them is a completed range or a recommended range.
ところで、本実施形態では、ループクロージング処理が未実施のエリアを実施推奨範囲として可視化(色分け)する方法と、3次元計測結果の精度の低いエリアを実施推奨範囲として可視化する方法とがある。この2通りの実施推奨範囲の可視化方法は適宜に切り替えることができる。例えば、設定画面(図示せず)において実施推奨範囲の可視化方法が予め設定されてもよい。また、撮影画面101においてユーザが実施推奨範囲の可視化方法を指定できるようにしてもよい。 In this embodiment, there is a method of visualizing (color-coding) areas where loop closing processing has not been performed as a recommended implementation range, and a method of visualizing areas where the accuracy of the 3D measurement results is low as a recommended implementation range. These two methods of visualizing the recommended implementation range can be switched as appropriate. For example, the method of visualizing the recommended implementation range may be set in advance on a setting screen (not shown). Also, the user may be allowed to specify the method of visualizing the recommended implementation range on the shooting screen 101.
以上のように、本出願において開示する技術の例示として、実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施形態にも適用できる。また、上記の実施形態で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。 As described above, the embodiments have been described as examples of the technology disclosed in this application. However, the technology in this disclosure is not limited to this, and can also be applied to embodiments in which modifications, substitutions, additions, omissions, etc. have been made. It is also possible to combine the components described in the above embodiments to create new embodiments.
本発明に係る撮影装置、撮影作業支援方法、および撮影作業支援プログラムは、撮影作業中のユーザに対して、ループクロージング処理の必要性を分かりやすく提示して、適切な撮影作業を行うようにユーザを促すことで、SLAMを用いた3次元計測の精度を向上させることができる効果を有し、計測対象場所の各地点の撮影画像に基づいて計測対象場所の3次元空間情報を生成する3次元計測処理を行うために、計測対象場所の各地点を撮影する撮影装置、ならびにその撮影装置を用いたユーザの撮影作業を支援する撮影作業支援方法および撮影作業支援プログラムなどとして有用である。 The imaging device, imaging work support method, and imaging work support program of the present invention have the effect of improving the accuracy of 3D measurement using SLAM by clearly presenting the need for loop closing processing to a user during imaging work and encouraging the user to perform appropriate imaging work, and are useful as an imaging device that captures each point of a measurement target location in order to perform 3D measurement processing that generates 3D spatial information of the measurement target location based on captured images of each point of the measurement target location, as well as an imaging work support method and imaging work support program that support the imaging work of a user using the imaging device.
1:撮影装置
11:装置本体
12:センサ部
13:ディスプレイ(表示部)
14:入力デバイス
15:メモリ
16:プロセッサ
21:可視カメラ(撮影部)
101:撮影画面
102:メインウィンドウ(主画像表示枠)
103:サブウィンドウ(副画像表示枠)
110:メッセージウィンドウ
121:第1の支援画像
122:第2の支援画像
1: Photographing device 11: Device body 12: Sensor unit 13: Display (display unit)
14: Input device 15: Memory 16: Processor 21: Visible camera (photographing unit)
101: Shooting screen 102: Main window (main image display frame)
103: Sub-window (sub-image display frame)
110: Message window 121: First support image 122: Second support image
Claims (7)
ユーザが保持する装置本体と、
その装置本体に設けられて計測対象場所を撮影する撮影部と、
ユーザが前記装置本体を保持して計測対象場所を移動しながら計測対象場所の各地点を前記撮影部に順次撮影させる撮影作業に関する支援情報を表示する表示部と、
前記撮影部および前記表示部を制御するプロセッサと、を備え、
前記プロセッサは、
前記支援情報として、前記3次元計測処理においてループクロージング処理の実施済みの範囲を可視化した支援画像を、前記表示部に表示することを特徴とする撮影装置。 An imaging device that captures images of each point of a measurement target location in order to perform a three-dimensional measurement process for generating three-dimensional spatial information of the measurement target location based on an image captured at each point of the measurement target location,
A device body held by a user;
An imaging unit provided in the device body for imaging a measurement target location;
a display unit that displays support information for a photographing operation in which a user holds the device body and moves around a measurement target location, and causes the photographing unit to photograph each point of the measurement target location in sequence;
A processor that controls the image capturing unit and the display unit,
The processor,
The imaging device is characterized in that, as the support information, a support image that visualizes an area in which a loop closing process has been performed in the three-dimensional measurement process is displayed on the display unit.
前記3次元計測処理の計測結果から生成される俯瞰画像と、現在の撮影画像との少なくともいずれかにおいて、前記ループクロージング処理の実施済みの範囲を可視化した前記支援画像を、前記表示部に表示することを特徴とする請求項1に記載の撮影装置。 The processor,
The photographing device according to claim 1, characterized in that the support image, which visualizes the range in which the loop closing process has been performed in at least one of an overhead image generated from the measurement results of the 3D measurement process and a current photographed image, is displayed on the display unit.
前記支援画像において、前記ループクロージング処理の実施済みの範囲を、前記ループクロージング処理の実施が推奨される範囲とは異なる表示態様で可視化することを特徴とする請求項1に記載の撮影装置。 The processor,
2. The imaging device according to claim 1, wherein, in the support image, a range in which the loop closing process has already been performed is visualized in a display manner different from a range in which the loop closing process is recommended to be performed.
前記ループクロージング処理の実施済みの範囲における実施回数を取得することを特徴とする請求項1に記載の撮影装置。 The processor,
The photographing apparatus according to claim 1 , further comprising: a step of acquiring a number of times the loop closing process has been performed within a range in which the loop closing process has already been performed.
前記支援画像において、前記ループクロージング処理の実施済みの範囲の表示態様を、前記実施回数に応じて変更することを特徴とする請求項4に記載の撮影装置。 The processor,
5. The photographing apparatus according to claim 4 , wherein a display mode of the range in which the loop closing process has been performed in the support image is changed according to the number of times the loop closing process has been performed.
撮影作業に関する支援情報として、前記3次元計測処理においてループクロージング処理の実施済みの範囲を可視化した支援画像を、表示部に表示することを特徴とする撮影作業支援方法。 A photographing operation support method, in which a processor performs a process to support a photographing operation of a user who moves within a measurement target location while holding a photographing device and causes the photographing device to sequentially photograph each point of the measurement target location, in order to perform a three-dimensional measurement process that generates three-dimensional spatial information of the measurement target location based on photographed images of the respective points of the measurement target location, the process comprising:
A method for supporting an imaging operation, comprising: displaying, on a display unit, a support image that visualizes a range in which a loop closing process has been performed in the three-dimensional measurement process, as support information for the imaging operation.
撮影作業に関する支援情報として、前記3次元計測処理においてループクロージング処理の実施済みの範囲を可視化した支援画像を、表示部に表示することを特徴とする撮影作業支援プログラム。 A photography operation support program that causes a processor to execute a process for supporting a photography operation of a user who moves within a measurement target location while holding a photography device and causes the photography device to sequentially photograph each point of the measurement target location, in order to perform a three-dimensional measurement process for generating three-dimensional spatial information of the measurement target location based on photographed images of the respective points of the measurement target location, the program comprising:
A photography operation support program, characterized in that a support image that visualizes the range in which loop closing processing has been performed in the three-dimensional measurement processing is displayed on a display unit as support information related to the photography operation.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022183480A JP7710185B2 (en) | 2022-11-16 | 2022-11-16 | Photographing device, photographing operation support method, and photographing operation support program |
| PCT/JP2023/039653 WO2024106223A1 (en) | 2022-11-16 | 2023-11-02 | Imaging device, imaging work assistance method, and imaging work assistance program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022183480A JP7710185B2 (en) | 2022-11-16 | 2022-11-16 | Photographing device, photographing operation support method, and photographing operation support program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2024072574A JP2024072574A (en) | 2024-05-28 |
| JP7710185B2 true JP7710185B2 (en) | 2025-07-18 |
Family
ID=91197286
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022183480A Active JP7710185B2 (en) | 2022-11-16 | 2022-11-16 | Photographing device, photographing operation support method, and photographing operation support program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7710185B2 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7808906B1 (en) * | 2025-09-04 | 2026-01-30 | 達也 片山 | Tatami mat laying area measurement support system |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012165405A (en) | 2012-03-16 | 2012-08-30 | Casio Comput Co Ltd | Imaging apparatus and program |
| JP2017146952A (en) | 2016-02-15 | 2017-08-24 | キヤノン株式会社 | Information processing apparatus, information processing apparatus control method, and program |
| US20200379455A1 (en) | 2019-06-03 | 2020-12-03 | Lg Electronics Inc. | Method for drawing map of specific area, robot and electronic device implementing thereof |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017146052A (en) * | 2016-02-18 | 2017-08-24 | 津福工業株式会社 | Dyer with cold air |
| JP6936840B2 (en) * | 2018-08-07 | 2021-09-22 | 藤森工業株式会社 | Adhesive composition and adhesive film |
-
2022
- 2022-11-16 JP JP2022183480A patent/JP7710185B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012165405A (en) | 2012-03-16 | 2012-08-30 | Casio Comput Co Ltd | Imaging apparatus and program |
| JP2017146952A (en) | 2016-02-15 | 2017-08-24 | キヤノン株式会社 | Information processing apparatus, information processing apparatus control method, and program |
| US20200379455A1 (en) | 2019-06-03 | 2020-12-03 | Lg Electronics Inc. | Method for drawing map of specific area, robot and electronic device implementing thereof |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2024072574A (en) | 2024-05-28 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7283506B2 (en) | Information processing device, information processing method, and information processing program | |
| US10001844B2 (en) | Information processing apparatus information processing method and storage medium | |
| JP4930927B2 (en) | Blur measurement system and blur measurement method | |
| JP4137078B2 (en) | Mixed reality information generating apparatus and method | |
| JP2011239361A (en) | System and method for ar navigation and difference extraction for repeated photographing, and program thereof | |
| EP3644826A1 (en) | A wearable eye tracking system with slippage detection and correction | |
| US11055865B2 (en) | Image acquisition device and method of operating image acquisition device | |
| JP6126501B2 (en) | Camera installation simulator and its computer program | |
| JP6723720B2 (en) | Display system, information processing method and program | |
| JP2020052979A (en) | Information processing device and program | |
| US10771707B2 (en) | Information processing device and information processing method | |
| CN114202640A (en) | Data acquisition method and device, computer equipment and storage medium | |
| JP7710185B2 (en) | Photographing device, photographing operation support method, and photographing operation support program | |
| CN117611664A (en) | Image information and inertial navigation data fusion method | |
| TW201335884A (en) | System and method for computer graphics image processing using augmented reality technology | |
| JP7710184B2 (en) | Photographing device, photographing operation support method, and photographing operation support program | |
| JP2018063567A (en) | Image processing device, image processing method and program | |
| JP7710183B2 (en) | Photographing device, photographing operation support method, and photographing operation support program | |
| JP2020003870A (en) | Image processing apparatus and image processing method | |
| JP6632298B2 (en) | Information processing apparatus, information processing method and program | |
| CN108693964A (en) | Simulated environment display system and method | |
| WO2024106223A1 (en) | Imaging device, imaging work assistance method, and imaging work assistance program | |
| CN114764849B (en) | Calibration system, calibration method and non-transient computer readable storage medium | |
| JP6403447B2 (en) | Information processing apparatus, photographing guide method for index calibration, computer program | |
| JP6929037B2 (en) | Information processing equipment, information processing methods, programs |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240917 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250121 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20250319 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250508 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250527 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250626 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7710185 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |