[go: up one dir, main page]

JP2018133010A - Indoor space inspection method - Google Patents

Indoor space inspection method Download PDF

Info

Publication number
JP2018133010A
JP2018133010A JP2017027433A JP2017027433A JP2018133010A JP 2018133010 A JP2018133010 A JP 2018133010A JP 2017027433 A JP2017027433 A JP 2017027433A JP 2017027433 A JP2017027433 A JP 2017027433A JP 2018133010 A JP2018133010 A JP 2018133010A
Authority
JP
Japan
Prior art keywords
uav
storage unit
data storage
route
indoor space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017027433A
Other languages
Japanese (ja)
Inventor
梢 岡田
Kozue Okada
梢 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2017027433A priority Critical patent/JP2018133010A/en
Publication of JP2018133010A publication Critical patent/JP2018133010A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an indoor space inspection method permitting a reduction in loads of an inspector.SOLUTION: An indoor space inspection method of the present invention includes: a first step of photographing a position of an inner surface IS surrounding a region in which a UAV 10 moves, which departs from an initial position P1 and autonomously moves in accordance with a scheduled route PR, by a camera 15 included in the UAV while shifting the aforementioned region and returning to the initial position P1 after ending of all scheduled photographing; and a second step of displaying a photographed image after returning to the initial position P1. The UAV in the present invention is driven by an electric power supplied from a storage battery, and upon reach of a remaining charged amount of the storage battery at a predefined remaining amount threshold value in the first step, the UAV 10 interrupts the photographing and returns to the initial position P1 through autonomous movement, and after replacement of the storage battery with the insufficient remaining charged amount with a new storage battery, the UAV 10 returns to an interrupt position where the photographing has been interrupted through autonomous movement and then restarts photographing.SELECTED DRAWING: Figure 5

Description

本発明は、閉鎖された屋内空間の状況を無人移動体、例えばUAV(Unmanned aerial vehicle:無人航空機)を用いて検査する方法に関する。   The present invention relates to a method for inspecting the situation of a closed indoor space using an unmanned mobile body, for example, a UAV (Unmanned aerial vehicle).

屋内閉鎖空間、例えばボイラの炉壁の損傷有無を点検するには、炉壁の全面に足場を架設してから、人手により目視点検や非破壊検査を行っている。ところが、足場架設の時間及び費用が嵩み、また、検査期間も長くかかる。   In order to check whether an indoor closed space, for example, a furnace wall of a boiler is damaged, a scaffold is erected over the entire furnace wall, and then visual inspection and non-destructive inspection are performed manually. However, the time and cost for constructing the scaffold increase and the inspection period also takes a long time.

そこで、人手に頼るのではなく自律走行又は飛行するロボットを用いて検査業務をすることが検討されている。ところが、建屋内では、GPS(全地球測位システム)を利用できないため、例えば、特許文献1に開示されるように自己位置を推定しながら自律走行又は飛行をする。   Therefore, it is considered to perform inspection work using a robot that autonomously travels or flies instead of relying on human hands. However, since the GPS (Global Positioning System) cannot be used in the building, for example, as disclosed in Patent Document 1, the vehicle travels or flies autonomously while estimating its own position.

国際公開2013/030929号International Publication No. 2013/030929

ロボットを自律走行又は飛行させながら検査対象、例えば炉壁を撮像して、それを建屋の外にいる検査員が即時に目視により観察できる。ところが、大きな構造物の場合には点検時間が例えば一昼夜を超えることもあり、検査員が集中力を持ちながら点検作業を行うことが難しい。
そこで本発明は、検査員の負担を軽減できる屋内空間の検査方法を提供することを目的とする。
An inspection object, for example, a furnace wall, is imaged while the robot is autonomously running or flying, and an inspector outside the building can immediately observe it visually. However, in the case of a large structure, the inspection time may exceed one day and night, for example, and it is difficult for the inspector to perform the inspection work while having concentration.
Accordingly, an object of the present invention is to provide an indoor space inspection method that can reduce the burden on the inspector.

本発明の屋内空間の検査方法は、初期位置から出発して移動する無人移動体が備えるカメラにより、無人移動体が移動する領域を取り囲む内壁面の位置をずらしながら撮像して、予定される全ての撮像を終了した後に、初期位置まで帰還する第1ステップと、初期位置まで戻った後に、撮像した画像を表示する第2ステップと、を備える。
本発明における無人移動体は、蓄電池から供給される電力により駆動されるものであり、第1ステップにおいて、蓄電池の充電残量が予め定められている残量閾値に達すると、無人移動体は、撮像を中断して初期位置に自律移動により帰還し、充電残量が不足する蓄電池が新たな蓄電池に交換された後に、撮像を中断した中断位置に自律移動により戻ってから撮像を再開する、ことを特徴とする。
In the indoor space inspection method of the present invention, an image of an uninhabited moving body starting from an initial position is imaged while shifting the position of an inner wall surface surrounding an area where the unattended moving body moves, and all planned The first step of returning to the initial position after the completion of imaging is provided, and the second step of displaying the captured image after returning to the initial position.
The unmanned mobile body in the present invention is driven by the electric power supplied from the storage battery.When the remaining charge amount of the storage battery reaches a predetermined remaining amount threshold value in the first step, the unmanned mobile body is The imaging is interrupted and returned to the initial position by autonomous movement, and after the storage battery with insufficient charge remaining is replaced with a new storage battery, the imaging is resumed after returning to the interruption position where imaging was interrupted by autonomous movement. It is characterized by.

本発明における無人移動体は、初期位置に置かれてから内壁面についての地図データを生成するとともに、地図データに基づいて予定経路を生成し、この無人移動体は、生成された予定経路に従って、初期位置を出発し移動を続ける、ことができる。   The unmanned mobile body in the present invention generates map data about the inner wall surface after being placed at the initial position, and generates a planned route based on the map data. You can leave the initial position and continue moving.

本発明における無人移動体は、第1ステップにおいて、無人移動体が撮像した画像と撮像した無人移動体の位置情報を、無人移動体が対応付けて記憶し、第2ステップにおいて、表示された画像の中で、損傷していると認められる損傷部位があると、
無人移動体は、損傷部位に移動し、損傷部位に対して静止しながら損傷部位の画像を撮像し、損傷していると認められる全ての損傷部位についての撮像を終えると、初期位置に帰還する第3ステップを行う、ことができる。
The unmanned moving body according to the present invention stores the image captured by the unmanned moving body and the position information of the unmanned moving body captured in the first step in association with the unmanned moving body, and the image displayed in the second step. If there is a damage site that is recognized as being damaged,
The unmanned vehicle moves to the damaged site, captures an image of the damaged site while resting with respect to the damaged site, and returns to the initial position after imaging all the damaged sites that are recognized as damaged. A third step can be performed.

本発明の第3ステップにおいて、蓄電池の充電残量が予め定められている残量閾値に達すると、無人移動体は、撮像を中断して初期位置に帰還し、充電残量が不足する蓄電池が新たな蓄電池に交換された後に、次の撮像の対象となる損傷部位に移動してから撮像を再開する、ことができる。   In the third step of the present invention, when the remaining charge amount of the storage battery reaches a predetermined remaining amount threshold value, the unmanned mobile body interrupts the imaging and returns to the initial position, and the storage battery with insufficient remaining charge amount is detected. After the battery is replaced with a new storage battery, the imaging can be resumed after moving to a damaged site to be subjected to the next imaging.

本発明の第1ステップ又は第3ステップにおいて、内壁面を撮像する際に、水平方向Hの位置を特定する情報及び鉛直方向Vの位置を特定する情報を撮像される内壁面にプロジェクションマッピングにより投影する、ことができる。   In the first step or the third step of the present invention, when the inner wall surface is imaged, the information specifying the position in the horizontal direction H and the information specifying the position in the vertical direction V are projected onto the imaged inner wall surface by projection mapping. can do.

本発明における無人移動体は、無人移動体の動作を司る制御部と、地図データを記憶する地図データ記憶部と、撮像された画像を記憶する画像データ記憶部と、予定経路に関するデータを記憶する経路データ記憶部と、を備えることができる。そして、無人移動体が備える制御部は、地図データに基づいて予定経路に関する予定経路データを生成して、経路データ記憶部に記憶し、かつ、充電残量が残量閾値に達すると、中断位置に関する中断位置データを経路データ記憶部に記憶する、ことができる。   The unmanned mobile body in the present invention stores a control unit that controls the operation of the unmanned mobile body, a map data storage unit that stores map data, an image data storage unit that stores captured images, and data related to a planned route. A route data storage unit. Then, the control unit included in the unmanned mobile body generates planned route data related to the planned route based on the map data, stores it in the route data storage unit, and when the remaining charge reaches the remaining amount threshold, Can be stored in the route data storage unit.

無人移動体が備える制御部は、無人移動体が実際に移動した経路についての実経路データを、経路データ記憶部に記憶する、ことができる。   The control unit included in the unmanned mobile body can store the actual route data about the route on which the unmanned mobile body has actually moved in the route data storage unit.

本発明は、屋内空間の外部に、無人移動体の動作を制御する制御装置を備えることができる。
この制御装置は、無人移動体の動作を司る制御部と、地図データを記憶する地図データ記憶部と、撮像された画像を記憶する画像データ記憶部と、予定経路に関するデータを記憶する経路データ記憶部と、を備える。
そして、外部の制御装置が備える制御部は、地図データに基づいて予定経路に関する予定経路データを生成して、経路データ記憶部に記憶し、かつ、充電残量が残量閾値に達すると、中断位置に関する中断位置データを経路データ記憶部に記憶する、ことができる。
The present invention can be provided with a control device for controlling the operation of the unmanned mobile body outside the indoor space.
The control device includes a control unit that controls the operation of the unmanned mobile body, a map data storage unit that stores map data, an image data storage unit that stores captured images, and a route data storage that stores data related to a planned route. A section.
Then, the control unit provided in the external control device generates planned route data related to the planned route based on the map data, stores it in the route data storage unit, and interrupts when the remaining charge reaches the remaining amount threshold value. The interruption position data regarding the position can be stored in the route data storage unit.

外部の制御装置が備える制御部は、無人移動体が実際に移動した経路についての実経路データを、経路データ記憶部に記憶する、ことができる。   The control unit included in the external control device can store the actual route data regarding the route on which the unmanned mobile body has actually moved in the route data storage unit.

本発明の室内空間の検査方法によれば、蓄電池の充電残量が残量閾値に達すると、無人移動体は、撮像を中断して自律移動により初期位置に帰還し、かつ、自律移動により撮像を再開する位置まで移動するので、この帰還に関する作業員の操作も必要ない。したがって、本願発明によれば、作業員の負担を大幅に軽減された屋内空間の検査方法を提供できる。   According to the indoor space inspection method of the present invention, when the remaining charge amount of the storage battery reaches the remaining amount threshold, the unmanned moving body interrupts the imaging and returns to the initial position by the autonomous movement, and the imaging is performed by the autonomous movement. Therefore, the operator does not need to perform any operation related to this return. Therefore, according to the present invention, it is possible to provide an indoor space inspection method in which the burden on workers is greatly reduced.

本実施形態の検査方法が適用される建屋の一例を示す図である。It is a figure which shows an example of the building where the inspection method of this embodiment is applied. 本実施形態の検査方法を実行するUAVの構成概要を示すブロック図である。It is a block diagram which shows the structure outline | summary of UAV which performs the test | inspection method of this embodiment. 本実施形態の検査方法を実行する制御装置の構成概要を示すブロック図である。It is a block diagram which shows the structure outline | summary of the control apparatus which performs the test | inspection method of this embodiment. 本実施形態の検査方法における環境地図データの取得手順を示す図である。It is a figure which shows the acquisition procedure of the environmental map data in the inspection method of this embodiment. (a)は本実施形態の検査方法におけるUAVの飛行経路を示す図であり、(b)は本実施形態の検査方法における撮像手順を示す図である。(A) is a figure which shows the flight path | route of UAV in the inspection method of this embodiment, (b) is a figure which shows the imaging procedure in the inspection method of this embodiment. 本実施形態の検査方法の手順を示すフローチャートである。It is a flowchart which shows the procedure of the inspection method of this embodiment. 本実施形態の検査方法における予備検査の手順を示すフローチャートである。It is a flowchart which shows the procedure of the preliminary test | inspection in the test | inspection method of this embodiment. 本実施形態の検査方法における詳細検査の手順を示すフローチャートである。It is a flowchart which shows the procedure of the detailed test | inspection in the test | inspection method of this embodiment. 本実施形態の検査方法において、位置情報を含むプロジェクションマッピングを示す図である。In the inspection method of this embodiment, it is a figure which shows the projection mapping containing position information. 本実施形態の予備検査にプロジェクションマッピングを適用したフローチャートである。It is the flowchart which applied projection mapping to the preliminary | backup inspection of this embodiment. 本実施形態の詳細検査にプロジェクションマッピングを適用したフローチャートである。It is the flowchart which applied projection mapping to the detailed inspection of this embodiment.

以下、添付図面に示す実施の形態に基づいてこの発明を詳細に説明する。
本実施形態の屋内空間の検査方法は、図1に示す建屋1を構成する四つの側壁2a,2b,2c,2dの内壁面ISに損傷が生じているか否かを、無人移動体であるUAVを用いて建屋1の内部の屋内空間Aから観察する。屋内空間Aは、四つの側壁2a〜2d、床3及び天井4で区画される直方体状の空間とする。建屋1は、UAV10を内部に搬入するための扉5を備える。扉5は、UAV10の搬入に限らず、他の機器、機材の搬入、その他に人の出入りにも利用される。
本実施形態の検査方法は、四つの側壁2a〜2dの全域を対象とする予備検査(第1ステップ,第2ステップ)と、予備検査により損傷が生じているとみなされた部位に絞って検査する詳細検査(第3ステップ)と、に区分される。なお、ここでは建屋1の側壁2a〜2dは、単純な壁である場合もあれば、壁の前に機器、例えば配管類が緻密に配設されている場合もある。
Hereinafter, the present invention will be described in detail based on embodiments shown in the accompanying drawings.
The indoor space inspection method of the present embodiment is a UAV that is an unmanned moving body, whether or not the inner wall surface IS of the four side walls 2a, 2b, 2c, 2d constituting the building 1 shown in FIG. 1 is damaged. Is observed from the indoor space A inside the building 1. The indoor space A is a rectangular parallelepiped space defined by the four side walls 2a to 2d, the floor 3, and the ceiling 4. The building 1 includes a door 5 for carrying the UAV 10 into the interior. The door 5 is used not only for carrying in the UAV 10 but also for carrying in other equipment and equipment, as well as people coming in and out.
In the inspection method of the present embodiment, a preliminary inspection (first step, second step) covering the entire area of the four side walls 2a to 2d and an inspection focused on a portion considered to be damaged by the preliminary inspection. And detailed inspection (third step). Here, the side walls 2a to 2d of the building 1 may be simple walls, or devices, for example, piping may be densely arranged in front of the walls.

本実施形態における検査方法に関与する要素として、UAV(Unmanned Aerial Vehicle)10と、UAV10の動作を制御する制御装置20と、を備える。UAV10は、初期位置P1となる離着陸ポート6に載せられてから、検査が行われる。各々の概略の機能を示すと、以下の通りである。
UAV10は、予備検査において、等速度で自律飛行しながら内壁面ISを所定の撮像範囲毎に連続的に撮像する。また、UAVは、詳細検査において、空中で停止しながら損傷部位およびその周囲を撮像する。
制御装置20は、UAV10が撮像した画像を取得して、検査員に向けて表示するなどの所定の処理を行う。制御装置20は、建屋1の外部に設けられる。
以下、本実施形態をより具体的に説明する。
As elements involved in the inspection method in the present embodiment, a UAV (Unmanned Aerial Vehicle) 10 and a control device 20 that controls the operation of the UAV 10 are provided. The UAV 10 is inspected after being placed on the takeoff / landing port 6 at the initial position P1. The outline of each function is as follows.
In the preliminary inspection, the UAV 10 continuously images the inner wall surface IS for each predetermined imaging range while autonomously flying at a constant speed. In addition, the UAV images the damaged site and its surroundings while stopping in the air in the detailed examination.
The control device 20 performs a predetermined process such as acquiring an image captured by the UAV 10 and displaying the image to the inspector. The control device 20 is provided outside the building 1.
Hereinafter, the present embodiment will be described more specifically.

[UAV10の構成]
UAV10は、図2に示すように、送受信部11と、制御部13と、センサ14と、カメラ15と、駆動部16を備える。また、UAV10は、地図データ記憶部17と、画像データ記憶部18と、経路データ記憶部19と、を備えている。
[Configuration of UAV10]
As shown in FIG. 2, the UAV 10 includes a transmission / reception unit 11, a control unit 13, a sensor 14, a camera 15, and a drive unit 16. The UAV 10 includes a map data storage unit 17, an image data storage unit 18, and a route data storage unit 19.

送受信部11は、制御装置20との間でデータの送受信を担う。
送受信部11が制御装置20から受信する主要なデータとしては、UAV10の飛行経路に関するデータが掲げられる。送受信部11が制御装置20に向けて送信する主要なデータとしては、撮像した画像データが掲げられる。
The transmission / reception unit 11 is responsible for data transmission / reception with the control device 20.
As main data received by the transmission / reception unit 11 from the control device 20, data relating to the flight path of the UAV 10 is listed. The main data that the transmission / reception unit 11 transmits to the control device 20 includes captured image data.

制御部13は、以下説明するように、UAV10の動作を司る機能を有している。
制御部13は、センサ14に対して、側壁2a〜2d、床3及び天井4からなる建屋1の内部の地図データを取得することを指示する。この地図データの取得は、初期位置に置かれたUAV10が自律飛行を始める前に行われる。取得した地図データは、制御部13の指示により地図データ記憶部17に記憶される。また、制御部13は、取得した地図データに基づいて、UAV10が飛行する予定の予定経路データを生成するとともに、生成した飛行経路に従ってUAV10が自律飛行するように、駆動部16に指示する。生成した予定経路データは、経路データ記憶部19に記憶される。
The control unit 13 has a function for controlling the operation of the UAV 10 as described below.
The control unit 13 instructs the sensor 14 to acquire map data inside the building 1 including the side walls 2a to 2d, the floor 3 and the ceiling 4. This acquisition of map data is performed before the UAV 10 placed at the initial position starts autonomous flight. The acquired map data is stored in the map data storage unit 17 according to an instruction from the control unit 13. Further, the control unit 13 generates planned route data on which the UAV 10 is scheduled to fly based on the acquired map data, and instructs the drive unit 16 to make the UAV 10 autonomously fly according to the generated flight route. The generated planned route data is stored in the route data storage unit 19.

制御部13は、UAV10が自律飛行している間に、カメラ15に側壁2a〜2dを撮像するように指示する。撮像された側壁2a〜2dの画像データは、制御部13の指示により画像データ記憶部18に記憶される。
また、制御部13は、UAV10が自律飛行している間に、実際にUAV10が飛行した経路を地図データにより求め、実経路データとして経路データ記憶部19に記憶させる。
The control unit 13 instructs the camera 15 to image the side walls 2a to 2d while the UAV 10 is flying autonomously. The imaged image data of the side walls 2 a to 2 d is stored in the image data storage unit 18 according to an instruction from the control unit 13.
Further, while the UAV 10 is autonomously flying, the control unit 13 obtains a route on which the UAV 10 actually flies from map data, and stores it in the route data storage unit 19 as actual route data.

また、制御部13は、駆動部16に含まれる蓄電池の充電残量を継続的に検知し、予め定められている残量閾値と比較する。制御部13は、充電残量が残量閾値に達すると、予定経路に沿った飛行及び側壁2a〜2dの撮像を中断し、初期位置に帰還するように駆動部16に指示する。制御部13は、撮像を中断した位置を特定するとともに、中断した位置に関するデータである中断位置データを経路データ記憶部19に記憶する。
制御部13は、初期位置に帰還することを指示したこと、及び、撮像を中断した位置に関する情報を、送受信部11を介して制御装置20に転送するように指示する。
Moreover, the control part 13 detects continuously the charge remaining amount of the storage battery contained in the drive part 16, and compares with the predetermined remaining amount threshold value. When the remaining charge amount reaches the remaining amount threshold value, the control unit 13 instructs the drive unit 16 to interrupt the flight along the planned route and the imaging of the side walls 2a to 2d and return to the initial position. The control unit 13 specifies the position where the imaging is interrupted, and stores the interruption position data, which is data related to the interrupted position, in the route data storage unit 19.
The control unit 13 instructs to return to the initial position, and transfers information related to the position where imaging is interrupted to the control device 20 via the transmission / reception unit 11.

さらに、制御部13は、センサ14で取得した地図データ、生成した予定経路データ、撮像した側壁2a〜2dの撮像画像データ及び実際に飛行した経路である実経路データを、送受信部11を介して制御装置20に転送するように指示する。   Furthermore, the control unit 13 sends the map data acquired by the sensor 14, the generated planned route data, the captured image data of the captured side walls 2a to 2d, and the actual route data that is the actual flight route via the transmission / reception unit 11. The controller 20 is instructed to transfer.

センサ14は、UAV10が建屋1の内部の初期位置に置かれると、側壁2a〜2d、床3及び天井4を含む建屋1の内部の環境について地図データを生成する。
センサ14は、例えば、レーザレーダが適用される。レーザレーダは、レーザスキャナ、LRF(レーザレンジファインダ)とも称される。
レーザレーダは、レーザの出射面を左右180度に繰り返して振りながら、レーザを短周期で出射するとともに、側壁2a〜2dの内壁面ISに反射して戻ってきたレーザを受信する。そして、レーザレーダは、レーザを出射または受信した「計測時刻」と、レーザを出射した「方位」と、レーザを出射してから受信するまでの時間に基づく「距離」と、を「距離方位点」として計測する。レーザレーダにより計測された複数の距離方位点を示す点群データが本実施形態における地図データを構成する。
なお、レーザレーダは、地図データを取得するセンサの一例にすぎず、本実施形態のセンサ14としては、他の三次元形状を特定できる手段を採用できる。他の手段としては、ステレオカメラ、超音波センサ(ソナー)が掲げられる。
また、センサ14の台数に制限はなく、例えば、地図データを取得する領域ごと、つまり側壁2a〜2dのそれぞれに対応してレーザレーダを設けてもよいし、レーザの照射位置を変えることのできる一台のレーザレーダを設けてもよい。
When the UAV 10 is placed at the initial position inside the building 1, the sensor 14 generates map data for the environment inside the building 1 including the side walls 2 a to 2 d, the floor 3 and the ceiling 4.
For example, a laser radar is applied to the sensor 14. The laser radar is also called a laser scanner or LRF (laser range finder).
The laser radar emits the laser in a short cycle while repeatedly swinging the laser emission surface at 180 degrees to the left and right, and receives the laser reflected back to the inner wall surface IS of the side walls 2a to 2d. Then, the laser radar outputs the “measurement time” at which the laser is emitted or received, the “azimuth” at which the laser is emitted, and the “distance” based on the time from when the laser is emitted until it is received. To measure. Point cloud data indicating a plurality of distance azimuth points measured by the laser radar constitutes the map data in this embodiment.
The laser radar is merely an example of a sensor that acquires map data, and as the sensor 14 of the present embodiment, a means that can specify another three-dimensional shape can be employed. Other means include a stereo camera and an ultrasonic sensor (sonar).
The number of sensors 14 is not limited. For example, a laser radar may be provided for each area from which map data is acquired, that is, for each of the side walls 2a to 2d, and the laser irradiation position can be changed. One laser radar may be provided.

次に、カメラ15は、UAV10が自律飛行している間に、側壁2a〜2dの内壁面ISを撮像する。
カメラ15は、側壁2a〜2dの静止画像を撮像するが、予備検査のときには側壁2a〜2dの全域を撮像対象とし、詳細検査のときには側壁2a〜2dの特定の範囲だけを撮像対象とする。撮像は、カメラ15の視野が重ならないように、必要な撮像の範囲を隙間なく行われる。
Next, the camera 15 images the inner wall surface IS of the side walls 2a to 2d while the UAV 10 is flying autonomously.
The camera 15 captures still images of the side walls 2a to 2d, but the entire area of the side walls 2a to 2d is an imaging target in the preliminary inspection, and only a specific range of the side walls 2a to 2d is the imaging target in the detailed inspection. Imaging is performed without gaps in the necessary imaging range so that the fields of view of the camera 15 do not overlap.

駆動部16は、経路データ記憶部19に記憶されている予定経路データに基づいて、制御部13が生成する移動指令に従って動作することにより、UAV10を予定経路に沿って移動させる。
駆動部16は、UAV10に推進力を与える電動モータと、UAV10が飛行する高度及び向きを調整する動翼と、電動モータに電力を供給する蓄電池と、を含んでいる。
The drive unit 16 moves the UAV 10 along the planned route by operating according to the movement command generated by the control unit 13 based on the planned route data stored in the route data storage unit 19.
The drive unit 16 includes an electric motor that gives a propulsive force to the UAV 10, a moving blade that adjusts the altitude and direction in which the UAV 10 flies, and a storage battery that supplies electric power to the electric motor.

地図データ記憶部17は、センサ14で取得した地図データを記憶する。
制御部13は、地図データ記憶部17に記憶された地図データを参照して、UAV10が飛行する予定の経路である予定経路データを生成する。
ここで、三次元空間である屋内空間Aは、図1に示すx軸方向、y軸方向及びz軸方向に所定間隔をあけて三次元座標(x,y,z)〜(x,y,z)が割り当てられている。地図データはこの三次元座標(x,y,z)〜(x,y,z)の集合として特定される。
なお、x軸方向、y軸方向及びz軸方向を、それぞれ幅方向、奥行き方向及び高さ方向ということがある。
地図データは、バックアップのために制御装置20に転送され、制御装置20の地図データ記憶部27に記憶される。
The map data storage unit 17 stores the map data acquired by the sensor 14.
The control unit 13 refers to the map data stored in the map data storage unit 17 and generates planned route data that is a route on which the UAV 10 is scheduled to fly.
Here, the indoor space A which is a three-dimensional space has three-dimensional coordinates (x 0 , y 0 , z 0 ) to (x) at predetermined intervals in the x-axis direction, the y-axis direction and the z-axis direction shown in FIG. n , y n , z n ). The map data is specified as a set of the three-dimensional coordinates (x 0 , y 0 , z 0 ) to (x n , y n , z n ).
The x-axis direction, the y-axis direction, and the z-axis direction may be referred to as a width direction, a depth direction, and a height direction, respectively.
The map data is transferred to the control device 20 for backup and stored in the map data storage unit 27 of the control device 20.

画像データ記憶部18は、カメラ15で撮像した側壁2a〜2dの画像を記憶する。撮像された画像は、撮像された位置に対応付けて記憶される。例えば、UAV10が三次元座標(x,y,z)で撮像された画像は、三次元座標(x,y,z)と対応付けて、画像データ記憶部18に記憶される。 The image data storage unit 18 stores images of the side walls 2 a to 2 d captured by the camera 15. The captured image is stored in association with the captured position. For example, an image obtained by capturing the UAV 10 with the three-dimensional coordinates (x m , y m , z m ) is stored in the image data storage unit 18 in association with the three-dimensional coordinates (x m , y m , z m ). The

経路データ記憶部19は、制御部13が生成した予定経路データを記憶するとともに、UAV10が実際に飛行した実経路データを記憶する。
予定経路データは、取得した地図データとカメラ15の視野、及び、UAV10から側壁2a〜2dまでの距離が一定に保たれるように生成される。また、予定経路は、床3に平行に、かつ、床3と相似形の矩形をなしており、三次元座標の集合により構成される。
また、実経路データは、UAV10が飛行しながら制御部13が計算により求める自己位置のデータにより構成される。自己位置は、UAV10の飛行速度、飛行方向と初期位置との差分として求められる。
The route data storage unit 19 stores the planned route data generated by the control unit 13 and the actual route data on which the UAV 10 actually flies.
The planned route data is generated so that the acquired map data, the field of view of the camera 15, and the distance from the UAV 10 to the side walls 2a to 2d are kept constant. Further, the planned route is parallel to the floor 3 and has a rectangular shape similar to the floor 3 and is constituted by a set of three-dimensional coordinates.
In addition, the actual route data is configured by self-position data that is calculated by the control unit 13 while the UAV 10 is flying. The self position is obtained as a difference between the flight speed and flight direction of the UAV 10 and the initial position.

なお、ここでは予定経路データを予め生成することとしているが、これは本発明の必須の要素ではなく、例えば生成した地図データと飛行しながら計算により求められる自己位置を比較しながら、側壁2a〜2dまでの距離を一定に保つように飛行することもできる。   Here, the scheduled route data is generated in advance, but this is not an essential element of the present invention. For example, while comparing the generated map data with the self-position obtained by calculation while flying, the side walls 2a to 2a. It is also possible to fly so as to keep the distance up to 2d constant.

以上説明した、送受信部11〜経路データ記憶部19は、説明の便宜上のために区分したものであり、以上で説明した機能をUAV10が全体として有している限り、その区分は問われない。なお、センサ14、カメラ15及び駆動部16を除いて、送受信部11〜経路データ記憶部19の機能は、CPU(Central Processing Unit)及びメモリ手段を備えるコンピュータ装置により実行できる。このことは、制御装置20についても同様に当てはまる。   The transmission / reception unit 11 to the route data storage unit 19 described above are divided for convenience of description, and the division is not limited as long as the UAV 10 has the functions described above as a whole. Except for the sensor 14, the camera 15, and the drive unit 16, the functions of the transmission / reception unit 11 to the path data storage unit 19 can be executed by a computer device including a CPU (Central Processing Unit) and memory means. This also applies to the control device 20.

[制御装置20の構成]
制御装置20は、図3に示すように、送受信部21と、制御部23と、入力部24と、表示部25と、地図データ記憶部27と、画像データ記憶部28と、経路データ記憶部29、とを備えている。
[Configuration of Control Device 20]
As shown in FIG. 3, the control device 20 includes a transmission / reception unit 21, a control unit 23, an input unit 24, a display unit 25, a map data storage unit 27, an image data storage unit 28, and a route data storage unit. 29.

送受信部21は、UAV10との間でデータの送受信を担う。
送受信部21がUAV10から受信する主要なデータとしては、UAV10がカメラ15を介して取得した撮像データが掲げられる。送受信部21がUAV10に向けて送信する主要なデータとしては、UAV10の飛行経路に関するデータが掲げられる。
The transmission / reception unit 21 performs data transmission / reception with the UAV 10.
The main data that the transmitting / receiving unit 21 receives from the UAV 10 includes imaging data acquired by the UAV 10 via the camera 15. The main data transmitted from the transmitting / receiving unit 21 to the UAV 10 includes data related to the flight path of the UAV 10.

制御部23は、制御装置20の全体的な動作を司る機能を有している。
制御部23は、UAV10から取得する地図データを地図データ記憶部27に表示させるとともに、地図データ記憶部27に記憶させるとともに、表示部25に表示させる。表示される地図データは、建屋1の全体を対象にできるし、建屋1の一部だけを対象にすることもできる。この選択は、作業員が入力部24からの入力により行うことができる。
The control unit 23 has a function that governs the overall operation of the control device 20.
The control unit 23 causes the map data storage unit 27 to display map data acquired from the UAV 10, stores the map data in the map data storage unit 27, and causes the display unit 25 to display the map data. The displayed map data can target the entire building 1 or only a part of the building 1. This selection can be performed by an operator through input from the input unit 24.

また、制御部23は、UAV10から取得するUAV10の予定経路データ及び実経路データを経路データ記憶部29に記憶させるとともに、表示部25に表示される地図データに重ね合わせて表示させることができる。作業員は、表示部25に表示される地図データ、予定経路データ及び実経路データを参照することにより、検査の進捗状況及びUAV10の飛行経路の妥当性を把握できる。   In addition, the control unit 23 can store the planned route data and the actual route data of the UAV 10 acquired from the UAV 10 in the route data storage unit 29 and can display the data on the map data displayed on the display unit 25 in a superimposed manner. The worker can grasp the progress of the inspection and the validity of the flight path of the UAV 10 by referring to the map data, the scheduled route data, and the actual route data displayed on the display unit 25.

さらに、制御部23は、UAV10から取得する画像データを画像データ記憶部28に記憶するとともに、表示部25に表示させることができる。作業員は、表示部25に表示される画像データを参照することにより、側壁2a〜2dに損傷が生じているか否かを判定できる。   Further, the control unit 23 can store the image data acquired from the UAV 10 in the image data storage unit 28 and display the image data on the display unit 25. The worker can determine whether or not the side walls 2a to 2d are damaged by referring to the image data displayed on the display unit 25.

[検査手順]
さて、以上の構成を備えるUAV10と制御装置20を用いて、屋内空間Aに臨む側壁2a〜2dの内壁面ISの画像データを取得して検査を行う一連の手順を、図4〜図8をも参照して説明する。
検査手順は、図6に示すように、予備検査(S100)と詳細検査(S300)の順に行われるが、詳細検査(S300)は予備検査(S100)により損傷が生じていると判定された場合(S200 Y)に行われる。以下、予備検査、詳細検査の順に説明する。
[Inspection procedure]
Now, a series of procedures for acquiring and inspecting the image data of the inner wall surface IS of the side walls 2a to 2d facing the indoor space A using the UAV 10 and the control device 20 having the above-described configuration will be described with reference to FIGS. Also described with reference to FIG.
As shown in FIG. 6, the inspection procedure is performed in the order of preliminary inspection (S100) and detailed inspection (S300). In the detailed inspection (S300), it is determined that damage has occurred in the preliminary inspection (S100). (S200 Y). Hereinafter, the preliminary inspection and the detailed inspection will be described in this order.

[予備検査]
予備検査は、図1に示すように、建屋1の扉5から挿入して離着陸ポート6を所定の位置に設置し、その上にUAV10を載せてから開始される。
はじめに、UAV10はセンサ14を動作させて建屋1の内部の地図データを取得する(図7 S101)。地図データは、図4に示すように、UAV10のセンサ14からレーザLを側壁2a〜2dに向けて出射し、側壁2a〜2dから反射されるレーザLを受信することにより行われる。地図データは、例えば側壁2a、側壁2b、側壁2c及び側壁2dの順に、レーザLの出射及び受信をすることにより側壁2a、側壁2b、側壁2c及び側壁2dごとに生成し、側壁ごとの地図データを繋ぎ合わせることで、建屋1の全体としての地図データを生成する。制御部13は、取得した地図データに基づいて、UAV10が飛行する予定経路PRに関する予定経路データを生成する。予定経路PRは、側壁2a〜2dから所定の距離だけ離れた位置を結んでいる。
[Preliminary inspection]
As shown in FIG. 1, the preliminary inspection is started after the take-off / landing port 6 is installed at a predetermined position by inserting from the door 5 of the building 1 and the UAV 10 is placed thereon.
First, the UAV 10 operates the sensor 14 to acquire map data inside the building 1 (S101 in FIG. 7). As shown in FIG. 4, the map data is obtained by emitting the laser L from the sensor 14 of the UAV 10 toward the side walls 2a to 2d and receiving the laser L reflected from the side walls 2a to 2d. The map data is generated for each of the side walls 2a, 2b, 2c, and 2d by emitting and receiving the laser L in the order of, for example, the side wall 2a, the side wall 2b, the side wall 2c, and the side wall 2d. As a result, the map data of the entire building 1 is generated. The control unit 13 generates planned route data related to the planned route PR on which the UAV 10 flies based on the acquired map data. The planned route PR is connected to a position separated from the side walls 2a to 2d by a predetermined distance.

地図データの生成及び予定経路データの生成の後に、UAV10は飛行を開始する(図7 S103)。UAV10は予定経路データに従って飛行するが、例えば図5(a)に示すように予定経路PRが設定される。なお、図5(a)は、屋内空間Aの特定の平断面における経路を示しているが、実際には複数の予定経路PRが高さ方向Zの位置をずらして設定される。
図5(a)に示す予定経路PRは、屋内空間Aを区画する側壁2a,2b,2c,2dから所定の距離だけ離れた点を結ぶ線上に設定される。予定経路PRは、始点及び終点になる初期位置P1、地点P2、地点P3、地点P4、地点P5及び初期位置P1を繋ぐ矩形状の周回路をなしており、UAV10は初期位置P1を出発し、地点P2まで側壁2aに平行に移動し、地点P2に達すると、UAV10は向きを変え、今度は、地点P3まで側壁2bに平行に移動し、地点P3に達すると、UAV10は向きを変える。以後は、同様にして、UAV10は、地点P4及び地点P5を通って初期位置P1まで飛行して、1周分の飛行を完了する。1周分の飛行を完了すると、UAV10は、例えば、それまで飛行していたときよりも高さ方向Zの位置を変えてから、次の1周分の飛行を開始する。
After generating the map data and the scheduled route data, the UAV 10 starts flying (S103 in FIG. 7). The UAV 10 flies in accordance with the planned route data, but a planned route PR is set, for example, as shown in FIG. FIG. 5A shows a route in a specific plane section of the indoor space A, but actually a plurality of planned routes PR are set by shifting the position in the height direction Z.
The planned route PR shown in FIG. 5A is set on a line connecting points separated from the side walls 2a, 2b, 2c, and 2d partitioning the indoor space A by a predetermined distance. The planned route PR has a rectangular peripheral circuit that connects the initial position P1, the point P2, the point P3, the point P4, the point P5, and the initial position P1 as the start point and the end point, and the UAV 10 departs from the initial position P1, When moving to the point P2 in parallel with the side wall 2a and reaching the point P2, the UAV 10 changes its direction, this time moving to the point P3 in parallel with the side wall 2b, and when reaching the point P3, the UAV 10 changes its direction. Thereafter, similarly, the UAV 10 flies to the initial position P1 through the point P4 and the point P5, and completes one flight. When the flight for one lap is completed, the UAV 10 starts the flight for the next lap after changing the position in the height direction Z, for example, compared to the time of flying until then.

UAV10は、飛行しながら側壁2a〜2dの内壁面ISを撮像する。撮像の手順を、図5(b)を参照して説明する。図5(b)は、側壁2a〜2dの全ての内壁面ISを展開して示しており、破線で取り囲まれる一つの矩形が一度の撮像による視野FVを示している。
UAV10は予定経路PRを飛行しながら視野FVごとに撮像し、内壁面ISの全域を撮像する(図7 S105 Y)。撮像された内壁面ISの画像は、画像データ記憶部18に記憶されるとともに、送受信部11を介して制御装置20に送信される。制御装置20に送信された画像データは、送受信部21を介して制御装置20で受信され、画像データ記憶部28に記憶される。
The UAV 10 images the inner wall surface IS of the side walls 2a to 2d while flying. The imaging procedure will be described with reference to FIG. FIG. 5 (b) shows all the inner wall surfaces IS of the side walls 2a to 2d in an expanded manner, and one rectangle surrounded by a broken line indicates the field of view FV by one imaging.
The UAV 10 captures images for each field of view FV while flying on the planned route PR, and images the entire area of the inner wall surface IS (S105 Y in FIG. 7). The captured image of the inner wall surface IS is stored in the image data storage unit 18 and transmitted to the control device 20 via the transmission / reception unit 11. The image data transmitted to the control device 20 is received by the control device 20 via the transmission / reception unit 21 and stored in the image data storage unit 28.

UAV10は、内壁面ISの全域を撮像する過程で、駆動部16をなす蓄電池の充電量が不足することがあるので、制御部13は蓄電池の充電量の残量が閾値に達するか否かを検知する(図7 S107)。制御部13は、蓄電池の残量が閾値に達していなければ(図7 S107 N)、そのまま飛行を継続して内壁面ISの撮像を継続する。   In the process of imaging the entire area of the inner wall surface IS, the UAV 10 may run out of the charge amount of the storage battery forming the drive unit 16, so the control unit 13 determines whether or not the remaining charge amount of the storage battery reaches a threshold value. Detect (S107 in FIG. 7). If the remaining amount of the storage battery has not reached the threshold value (FIG. 7, S107 N), the control unit 13 continues to fly and continues to image the inner wall surface IS.

一方、制御部13は、蓄電池の残量が閾値に達すると(図7 S107 N)、内壁面ISの撮像を中断して、UAV10を初期位置P1に帰還するように駆動部16の動作を制御する(図7 S109)。初期位置P1への帰還は、予定経路PRを逆戻りしてもよいし、初期位置P1まで最短距離で帰還することもできる。
制御部13は、内壁面ISの撮像を中断した位置を特定し、その位置を経路データ記憶部19に記憶する。この中断位置データの記憶は、例えば中断した時間と対応付けて行われる。
制御部13は、蓄電池の残量が閾値に達すると制御装置20に通知し、制御装置20はこの通知を受けると表示部25にUAV10が蓄電池の残量が不足するために初期位置P1に帰還することを表示し、作業員に対して、UAV10の蓄電池の交換の準備を促す。
On the other hand, when the remaining amount of the storage battery reaches the threshold value (S107 N in FIG. 7), the control unit 13 interrupts the imaging of the inner wall surface IS and controls the operation of the driving unit 16 so as to return the UAV 10 to the initial position P1. (FIG. 7, S109). The return to the initial position P1 may be performed by returning the scheduled route PR or returning to the initial position P1 with the shortest distance.
The control unit 13 specifies a position where the imaging of the inner wall surface IS is interrupted, and stores the position in the route data storage unit 19. The storage of the interruption position data is performed in association with the interruption time, for example.
When the remaining amount of the storage battery reaches the threshold value, the control unit 13 notifies the control device 20, and upon receiving this notification, the UAV 10 returns to the initial position P1 on the display unit 25 because the remaining amount of the storage battery is insufficient. To prompt the worker to prepare for replacement of the storage battery of the UAV 10.

作業員は、UAV10が初期位置に帰還したことを確認すると、扉5を開いてUAV10のそれまで使用していた蓄電池を、充電量が満たされた新たな蓄電池に交換する。制御部13は、新たな蓄電池の充電量が満充電を示す閾値を超えているか否かを判定することにより、蓄電池の交換がなされたか否かを判定する(図7 S111)。
制御部13は、蓄電池の交換がなされると(図7 S111 Y)、先に記憶していた中断位置を参照し、中断位置まで飛行するように、駆動部16に指示を与える(図7 S113)。中断位置までの移動は、予定経路PRに沿ってもよいし、最短距離でもよい。
When the worker confirms that the UAV 10 has returned to the initial position, the operator opens the door 5 and replaces the storage battery that has been used so far with the UAV 10 with a new storage battery that is fully charged. The control unit 13 determines whether or not the storage battery has been replaced by determining whether or not the charge amount of the new storage battery exceeds a threshold value indicating full charge (S111 in FIG. 7).
When the storage battery is replaced (S111 Y in FIG. 7), the control unit 13 refers to the previously stored interruption position and gives an instruction to the drive unit 16 to fly to the interruption position (S113 in FIG. 7). ). The movement to the interruption position may be along the planned route PR or the shortest distance.

制御部13は、自己位置を推定しながら飛行し、中断位置まで達したならば(図7 S115 Y)、予定経路PRに沿う飛行を行いながら、撮像を再開する(図7 S103)。   The controller 13 flies while estimating its own position, and when it reaches the interruption position (S115 Y in FIG. 7), it resumes imaging while performing the flight along the planned route PR (S103 in FIG. 7).

以後は、内壁面ISの全域を撮像するまで、必要に応じて蓄電池の交換(図7 S105 N)を繰り返し、内壁面ISの全域を撮像すると、UAV10は撮像を終了して初期位置P1に帰還する(図7 S117)。UAV10は、内壁面ISの全域を撮像すると、制御部13が送受信部11を介して制御装置20にその旨を通知する。制御装置20は、この通知を受けると、表示部25にUAV10が初期位置P1に帰還することを表示し、次の作業の準備を行うことを促す。   Thereafter, until the entire area of the inner wall surface IS is imaged, replacement of the storage battery (S105 N in FIG. 7) is repeated as necessary. When the entire area of the inner wall surface IS is imaged, the UAV 10 ends the imaging and returns to the initial position P1. (S117 in FIG. 7). When the UAV 10 images the entire area of the inner wall surface IS, the control unit 13 notifies the control device 20 via the transmission / reception unit 11. Upon receiving this notification, the control device 20 displays on the display unit 25 that the UAV 10 has returned to the initial position P1, and prompts it to prepare for the next operation.

制御装置20は、UAV10が初期位置P1に帰還すると、画像データ記憶部28に記憶されている撮像画像を読みだして、表示部25に撮像画像を表示する(図7 S119)。作業員は、表示される画像を参照して、内壁面ISに損傷が生じているか否かを判定する。この画像の表示は、作業員が損傷部位を目視で認識できる程度の大きさ、解像度で行われる。具体的な表示にあたっては、表示部25の一画面に複数枚の撮像画像を表示し、作業員が複数枚の画像を順番に観察することで、損傷が生じているか否かを判定する。   When the UAV 10 returns to the initial position P1, the control device 20 reads the captured image stored in the image data storage unit 28 and displays the captured image on the display unit 25 (S119 in FIG. 7). The worker refers to the displayed image and determines whether or not the inner wall surface IS is damaged. The display of this image is performed with a size and resolution that allows the worker to visually recognize the damaged site. In specific display, a plurality of captured images are displayed on one screen of the display unit 25, and an operator determines whether or not damage has occurred by sequentially observing the plurality of images.

撮像画像を表示する場合には、当該画像の位置情報を合わせて表示させることもできる。位置情報は、前述した三次元座標(x,y,z)〜(x,y,z)で特定される。
作業員は、損傷が生じているものと判定した撮像画像の位置情報を、入力部24を介して入力すると、制御部13は損傷に関する情報として、画像データ記憶部28に記憶する。作業員は、全ての撮像画像について損傷の有無の判定を行い、損傷が生じているものと判定した撮像画像の位置情報を入力する(図7 S121)。
損傷部位の特定は、表示部25をタッチパネルから構成して、作業員が損傷部位を含む撮像画像をタッチすることによって行うこともできる。
When displaying a captured image, the positional information of the image can be displayed together. The position information is specified by the aforementioned three-dimensional coordinates (x 0 , y 0 , z 0 ) to (x n , y n , z n ).
When the worker inputs the position information of the captured image determined to be damaged through the input unit 24, the control unit 13 stores the information on the image data in the image data storage unit 28. The worker determines whether or not all the captured images are damaged, and inputs position information of the captured images determined to be damaged (S121 in FIG. 7).
Identification of the damaged part can also be performed by configuring the display unit 25 from a touch panel and the operator touching a captured image including the damaged part.

損傷部位の判定は、過去に取得した画像データを比較することによって行うこともできる。例えば、位置情報が同じであるが、撮像時期の異なる画像データを表示部25に表示させることにより、経年劣化を判断できるし、損傷部位の過去の経緯を観察できる。   Determination of a damaged part can also be performed by comparing image data acquired in the past. For example, by displaying on the display unit 25 image data having the same position information but different imaging timing, it is possible to determine aging deterioration and to observe the past history of the damaged site.

以上で、予備検査は終了し、次いで損傷部位に関して、図8に示す手順で詳細検査が行われる。
詳細検査は、初期位置P1に置かれているUAV10に対して制御装置20の入力部24から指示することにより開始される。制御装置20は詳細検査の指示を受けると、制御部23が送受信部21を介してUAV10に詳細検査の指示を与える。この指示とともに、制御部23は画像データ記憶部28に記憶されている損傷部位に関する位置情報をUAV10に送信する。UAV10は送受信部11を介して詳細検査の開始指示及び損傷部位に関する位置情報を取得し、制御部13は取得した損傷部位に関する位置情報を経路データ記憶部19に記憶する。こうしてUAV10は、損傷部位を特定すする(図8 S201)。
Thus, the preliminary inspection is completed, and then the detailed inspection is performed on the damaged portion according to the procedure shown in FIG.
The detailed inspection is started by giving an instruction from the input unit 24 of the control device 20 to the UAV 10 placed at the initial position P1. When the control device 20 receives a detailed inspection instruction, the control unit 23 gives a detailed inspection instruction to the UAV 10 via the transmission / reception unit 21. Along with this instruction, the control unit 23 transmits to the UAV 10 position information regarding the damaged site stored in the image data storage unit 28. The UAV 10 acquires a detailed inspection start instruction and position information related to the damaged site via the transmission / reception unit 11, and the control unit 13 stores the acquired position information related to the damaged site in the route data storage unit 19. Thus, the UAV 10 specifies the damaged site (S201 in FIG. 8).

UAV10は、制御部13が損傷部位に関する位置情報に基づいて損傷部位まで飛行するように、駆動部16の駆動を制御する(図8 S203)。この飛行は、予定経路PRに倣ってもよいし、損傷部位まで最短距離で飛行してもよい。また、損傷部位が複数存在する場合には、初期位置P1を飛び立ったあとに、複数の損傷部位を順番に訪ねることもできるし、一つの損傷部位について画像を取得したならば初期位置P1に一度戻ってから次の損傷部位を訪ねてもよい。   The UAV 10 controls the drive of the drive unit 16 so that the control unit 13 flies to the damaged site based on the position information regarding the damaged site (S203 in FIG. 8). This flight may follow the planned route PR, or may fly at the shortest distance to the damaged site. In addition, when there are a plurality of damaged parts, it is possible to visit a plurality of damaged parts in order after jumping off the initial position P1, or once an image is acquired for one damaged part, it is once at the initial position P1. After returning, you may visit the next damaged site.

UAV10は、損傷部位に達したら、ホバリング、つまり移動せずに静止しながら損傷部位を撮像する(図8 S205)。ホバリングしながら撮像するのは、予備検査に比べて鮮明な画像を撮像するためである。鮮明な画像を撮像するためには、予備審査のときとはカメラ15の撮像用レンズなどの機器を交換することもできる。   When the UAV 10 reaches the damaged site, the UAV 10 picks up the image of the damaged site while hovering, that is, without moving (S205 in FIG. 8). The reason for capturing an image while hovering is to capture a clearer image than the preliminary inspection. In order to capture a clear image, devices such as the imaging lens of the camera 15 can be replaced with those in the preliminary examination.

UAV10は、ホバリングしながら撮像した損傷部位の画像データを即時に制御装置20に向けて送信する(図8 S205)。制御装置20は、送受信部21を介して損傷部位の画像データを取得すると、制御部23が取得した損傷部位の画像データを表示部25に表示させる。作業者は、表示部25に映し出される損傷部位の画像をリアルタイムに観察する。   The UAV 10 immediately transmits the image data of the damaged site imaged while hovering to the control device 20 (S205 in FIG. 8). When the control device 20 acquires the image data of the damaged site via the transmission / reception unit 21, the control device 20 causes the display unit 25 to display the image data of the damaged site acquired by the control unit 23. The operator observes the image of the damaged site displayed on the display unit 25 in real time.

作業者は、損傷部位の画像を観察し、損傷が生じていることを確認したならば、詳細検査の結果として当該部位に損傷が生じていることを、入力部24からの入力により特定する。制御部23は、この入力があると、当該部位に対応する位置情報と対応付けて損傷の事実を画像データ記憶部28に記憶する。制御部23は、損傷部位の特定がなされると、UAV10に当該損傷部位の周囲もホバリングしながら撮像するように送受信部21を介してUAV10に指示する(図8 S207)。   When the operator observes the image of the damaged part and confirms that the damage has occurred, the operator specifies that the part has been damaged as a result of the detailed inspection by inputting from the input unit 24. When this input is received, the control unit 23 stores the fact of damage in the image data storage unit 28 in association with the position information corresponding to the part. When the damaged part is specified, the control unit 23 instructs the UAV 10 via the transmission / reception unit 21 to image the UAV 10 while hovering around the damaged part (S207 in FIG. 8).

UAV10は、制御装置20からの指示にしたがって、当該損傷部位の周囲をホバリングにより飛行しながら撮像し、撮像した画像データを制御装置20に向けて送信する(図8 S207)。
制御装置20は、送受信部21を介して損傷部位の周囲の画像データを取得すると、制御部23は取得した周囲の画像データを表示部25に表示させる。作業者は、表示部25に映し出される周囲の画像をリアルタイムに観察し、当該周囲に損傷が生じているか否かの判定を行う。作業者は、損傷が生じていると判定すると、上記と同様に入力部24からの入力により損傷を特定する。制御部23は、この入力に基づいて、当該部位に対応する位置情報と対応付けて損傷の事実を画像データ記憶部28に記憶する。
In accordance with an instruction from the control device 20, the UAV 10 captures an image while flying around the damaged site by hovering, and transmits the captured image data to the control device 20 (S207 in FIG. 8).
When the control device 20 acquires image data around the damaged site via the transmission / reception unit 21, the control unit 23 causes the display unit 25 to display the acquired image data around the damaged site. The operator observes the surrounding image displayed on the display unit 25 in real time, and determines whether or not the surrounding is damaged. When the operator determines that damage has occurred, the operator specifies damage by input from the input unit 24 as described above. Based on this input, the control unit 23 stores the fact of damage in the image data storage unit 28 in association with the position information corresponding to the part.

以上の手順を、予備検査で損傷部位と判定された全ての部位について行うと(図8 S209 Y)、UAV10は初期位置P1に帰還し、詳細検査が終了する(図8 S211)。   When the above procedure is performed for all the parts determined as the damaged part in the preliminary inspection (S209 Y in FIG. 8), the UAV 10 returns to the initial position P1 and the detailed inspection ends (S211 in FIG. 8).

[本実施形態の効果]
以上説明したように、本実施形態の検査方法は、予備検査と詳細検査に区分して内壁面ISの損傷部分の特定を行う。つまり、予備検査により損傷部位である可能性の高い部位を絞り、この部位を対象に詳細検査を行うので、検査を効率よくかつ高い精度で行うことができる。
[Effect of this embodiment]
As described above, the inspection method of the present embodiment identifies the damaged portion of the inner wall surface IS by dividing into a preliminary inspection and a detailed inspection. In other words, since a portion that is likely to be a damaged portion is narrowed down by a preliminary inspection and a detailed inspection is performed on this portion, the inspection can be performed efficiently and with high accuracy.

次に、予備検査において、UAV10が建屋1の内部を自律飛行するので、作業者はUAV10の飛行のための操作を省くことかできる。建屋1が広域な場合には、予備検査に相当の時間を要するので、作業者がUAV10の飛行を精度よく操作するのは難しいが、本実施形態のようにUAV10が自律飛行すれば作業員の負担を軽減できる。   Next, since the UAV 10 autonomously flies inside the building 1 in the preliminary inspection, the operator can omit the operation for flying the UAV 10. When the building 1 is in a wide area, it takes a considerable amount of time for preliminary inspection, so it is difficult for the operator to operate the flight of the UAV 10 with high accuracy. However, if the UAV 10 flies autonomously as in this embodiment, The burden can be reduced.

次に、予備検査においてUAV10は、蓄電池の充電の残量を継続して検知し、残量が閾値に達すると撮像を中断して初期位置P1に戻り、その後蓄電池を交換すると中断位置まで飛行してから、撮像を再開する。したがって、建屋1の中が広域であっても、漏れなく撮像を行うことができるので、検査を高い精度で行うことができる。また、UAV10は、撮像を中断して自律移動により初期位置P1に帰還し、かつ、自律移動により中断位置まで飛行するので、この帰還に関する作業員の操作が必要ないので、作業員の負担を大幅に軽減できる。   Next, in the preliminary inspection, the UAV 10 continuously detects the remaining amount of charge of the storage battery. When the remaining amount reaches the threshold value, the UAV 10 interrupts the imaging and returns to the initial position P1, and then changes the storage battery to fly to the stop position. Then restart imaging. Therefore, even if the inside of the building 1 is a wide area, it is possible to perform imaging without omission, so that the inspection can be performed with high accuracy. In addition, since the UAV 10 interrupts the imaging and returns to the initial position P1 by autonomous movement and also flies to the interruption position by autonomous movement, there is no need for the operator's operation regarding this return, so the burden on the worker is greatly increased. Can be reduced.

次に、詳細検査において、予備検査において損傷部位と判定された部位は、UAV10がホバリングしながら撮像する、当該部位だけでなくその周囲を撮像範囲とするので、予備検査だけでは損傷部位と判定しきれない部位を、損傷しているか否かを明確に判定できる。   Next, in the detailed inspection, the part determined as the damaged part in the preliminary inspection is imaged while the hovering is performed by the UAV 10, and not only the relevant part but also the surrounding area is set as the imaging range. It is possible to clearly determine whether or not a portion that cannot be broken is damaged.

以上、本発明の好ましい実施形態を説明したが、本発明の主旨を逸脱しない限り、上記実施形態で挙げた構成を取捨選択したり、他の構成に適宜変更したりすることが可能である。   The preferred embodiments of the present invention have been described above. However, the configurations described in the above embodiments can be selected or changed to other configurations as appropriate without departing from the gist of the present invention.

その一例として、プロジェクションマッピングを利用して、撮像画像の中の任意の部位の位置を特定する手法について、図9及び図10を参照して説明する。
内壁面ISに鉛直方向Vに沿って複数のチューブが隙間なく緻密に配管されている場合、UAV10の自己位置が特定されていても、撮像データに基づいていずれのチューブが損傷しているかを特定するのは容易ではない。撮像データには、損傷の生じたチューブの周囲のチューブも含まれるが、全てが同じ形状のチューブであるため、例えば一見して側壁2aの端から何番目のチューブであるかを特定するのが難しい。基準となるチューブを定め、この基準チューブから何番目の管であるかを丹念に数えて記録することはできるが、基準チューブと損傷の生じたチューブが離れていると、基準チューブと損傷の生じたチューブは異なる撮像データに含まれるので、何番目のチューブであるかの特定は、特に屋内空間Aが広い場合には困難である。
As an example, a technique for specifying the position of an arbitrary part in a captured image using projection mapping will be described with reference to FIGS.
When a plurality of tubes are piped densely along the vertical direction V on the inner wall surface IS, even if the self position of the UAV 10 is specified, it is specified which tube is damaged based on the imaging data It is not easy to do. The imaging data includes a tube around the damaged tube, but all are tubes having the same shape. For example, it is possible to specify the number of the tube from the end of the side wall 2a at first glance. difficult. It is possible to define a reference tube and carefully count the number of tubes from this reference tube, but if the reference tube and the damaged tube are separated, the reference tube and the Since the tubes are included in different imaging data, it is difficult to specify the number of the tube, particularly when the indoor space A is large.

そこで、本実施形態は、チューブの水平方向Hの位置を特定する情報及び鉛直方向Vの位置を特定する情報を撮像される内壁面ISにプロジェクションマッピングにより投影し、投影された位置を特定する情報をチューブと合わせて撮像することを提案する。   Thus, in the present embodiment, information for specifying the position in the horizontal direction H of the tube and information for specifying the position in the vertical direction V are projected onto the imaged inner wall surface IS by projection mapping, and information for specifying the projected position It is proposed to image with the tube.

水平方向Hの位置を特定する情報及び鉛直方向Vの位置を特定する情報として、図9(a)に示すように、格子状の画像を内壁面ISに投影する。格子状の画像は、鉛直方向Vに延びる複数の線、及び、水平方向Hに延びる複数の線で構成されており、以下説明するように、鉛直方向Vに延びる複数の線が水平方向Hの位置を特定する情報をなし、水平方向Hに延びる複数の線が鉛直方向Vの位置を特定する情報をなす。   As information for specifying the position in the horizontal direction H and information for specifying the position in the vertical direction V, a grid-like image is projected onto the inner wall surface IS as shown in FIG. The lattice-like image is composed of a plurality of lines extending in the vertical direction V and a plurality of lines extending in the horizontal direction H. As described below, a plurality of lines extending in the vertical direction V are in the horizontal direction H. A plurality of lines extending in the horizontal direction H form information for specifying the position in the vertical direction V.

鉛直方向Vに延びる複数の線は、チューブが配列される間隔(ピッチ)をPとすると、n×Pのピッチで投影される。つまり、鉛直方向Vに延びる線はn本おきにチューブの上に投影され、投影される線は線種が異なっている。なお、nは2以上の整数である。
図9(a)に示す例は、3本おきに異なる種別の鉛直方向Vに延びる線が描かれている。ここでは異なる種別として、太い実線、破線、一点鎖線及び二点鎖線が選択されており、これらが3本おきに描かれている。
A plurality of lines extending in the vertical direction V are projected at a pitch of n × P, where P is an interval (pitch) at which the tubes are arranged. That is, every n lines extending in the vertical direction V are projected onto the tube, and the projected lines have different line types. Note that n is an integer of 2 or more.
In the example shown in FIG. 9A, lines extending in the vertical direction V of different types are drawn every three lines. Here, as different types, a thick solid line, a broken line, a one-dot chain line, and a two-dot chain line are selected, and these are drawn every three lines.

ここで、図9(a)に示す例は、図中の最も左側の太い実線が基準となるチューブ(基準チューブ)の上に描かれているものとすると、破線が描かれているチューブは基準チューブを含めて基準チューブから4本目であることが特定される。4本目は、破線が描かれているチューブの基準チューブからの管Noを示している。
同様に、一点鎖線が描かれているチューブは基準チューブを含めて基準チューブから7本目、つまり管番号が7であることが特定でき、二点鎖線が描かれているチューブは基準チューブを含めて基準チューブから10本目であること、つまり管Noが10であることを特定できる。また、例えば一点鎖線と二点鎖線の間の実線が描かれているチューブの管Noは、一点鎖線の管Noと二点鎖線の管Noから特定できる。
Here, in the example shown in FIG. 9A, assuming that the leftmost thick solid line in the drawing is drawn on the reference tube (reference tube), the tube in which the broken line is drawn is the reference. It is specified that the tube is the fourth tube from the reference tube including the tube. The 4th has shown tube No from the reference tube of the tube in which the broken line is drawn.
Similarly, it is possible to specify that the tube in which the one-dot chain line is drawn is the seventh tube from the reference tube including the reference tube, that is, the tube number is 7, and the tube in which the two-dot chain line is drawn includes the reference tube. It can be specified that the tube is tenth from the reference tube, that is, tube No. is 10. For example, the tube No. of the tube in which the solid line between the alternate long and short dash line is drawn can be specified from the tube No. of the alternate long and short dash line and the tube No. of the two-dot chain line.

水平方向Hに延びる複数の線は、例えば0.5mおきに投影され、投影される線は鉛直方向Vに延びる線と同様に線種が異なっている。
図9(a)に示す例は、1本おきに異なる種別の鉛直方向Vに延びる線が描かれている。ここでは異なる種別として、太い実線、破線、一点鎖線及び二点鎖線が選択されており、これらが3本おきに描かれている。そして、図中の最も下側の太い実線が基準位置、例えば0mに描かれているものとすると、破線は基準位置から1.5mの位置にあることを特定でき、一点鎖線は基準位置から2mの位置にあることを特定でき、さらに、二点鎖線は基準位置から3mの位置にあることを特定できる。
The plurality of lines extending in the horizontal direction H are projected, for example, every 0.5 m, and the projected lines are different in line type as the lines extending in the vertical direction V.
In the example shown in FIG. 9A, lines extending in the vertical direction V of different types are drawn every other line. Here, as different types, a thick solid line, a broken line, a one-dot chain line, and a two-dot chain line are selected, and these are drawn every three lines. If the lowermost solid line in the figure is drawn at the reference position, for example, 0 m, the broken line can be specified as being 1.5 m from the reference position, and the alternate long and short dash line is 2 m from the reference position. The two-dot chain line can be specified to be 3 m from the reference position.

以上説明した水平方向Hの位置及び鉛直方向Vの位置の双方を特定する情報を内壁面ISに投影しながら、UAV10で内壁面ISを撮像すれば、図9(b)に示すように、撮像された画像には水平方向Hの位置及び鉛直方向Vの双方の位置を特定する情報に加えて、星印で示す損傷の部位が重ねて映し出される。したがって、作業者はこの画像を観察すれば、損傷の部位を容易に特定できる。
撮像された内壁面ISの画像と水平方向Hの位置及び鉛直方向Vの双方の位置を特定する情報が重ねられた画像データは、画像データ記憶部18及び画像データ記憶部28に記憶される。
If the inner wall surface IS is imaged by the UAV 10 while projecting the information specifying both the position in the horizontal direction H and the position in the vertical direction V described above onto the inner wall surface IS, as shown in FIG. In addition to the information for specifying both the position in the horizontal direction H and the position in the vertical direction V, the damaged part indicated by the star mark is displayed in an overlapped manner on the image. Therefore, the operator can easily identify the damaged part by observing this image.
Image data in which the imaged image of the inner wall surface IS and information specifying both the position in the horizontal direction H and the position in the vertical direction V are superimposed are stored in the image data storage unit 18 and the image data storage unit 28.

プロジェクションマッピングによる投影は、屋内空間Aの定点にプロジェクタを置いて行われる。例えば、内壁面ISのうちで側壁2aを検査対象とする場合には、プロジェクタは側壁2aに投影するようにその向きが定められ、側壁2bを検査対象とする場合には、プロジェクタは側壁2bに投影するようにその向きが変更される。
このように、プロジェクションマッピングによる投影を行う複数の面に場合でも、側壁2a〜2dに配設されるチューブの径及びピッチが一定であれば、同じ画像データを側壁2a〜2dのいずれにも共通に用いることができる。
Projection by projection mapping is performed by placing a projector at a fixed point in the indoor space A. For example, when the side wall 2a of the inner wall surface IS is to be inspected, the orientation of the projector is determined so as to project onto the side wall 2a, and when the side wall 2b is to be inspected, the projector is placed on the side wall 2b. The orientation is changed to project.
As described above, the same image data is common to all of the side walls 2a to 2d as long as the diameter and pitch of the tubes disposed on the side walls 2a to 2d are constant even in the case of a plurality of surfaces to be projected by projection mapping. Can be used.

プロジェクションマッピングによる投影を行って予備検査を行う場合には、図10のフローチャートに示される手順に従えばよい。この手順は、位置情報をプロジェクションマッピングするステップ(図7 S102)が加わる以外は、図7に示される手順と同じである。
また、プロジェクションマッピングによる投影を伴う検査は、図11に示すように、詳細検査にも適用できる。図11のフローチャートに示される手順は、位置情報をプロジェクションマッピングするステップ(図8 S202)が加わる以外は、図8に示される手順と同じである。
When performing preliminary inspection by performing projection mapping, the procedure shown in the flowchart of FIG. 10 may be followed. This procedure is the same as the procedure shown in FIG. 7 except that a step (S102 in FIG. 7) for mapping the position information is added.
Moreover, the inspection accompanied by projection by projection mapping can be applied to a detailed inspection as shown in FIG. The procedure shown in the flowchart of FIG. 11 is the same as the procedure shown in FIG. 8 except that a step of projecting mapping position information (S202 in FIG. 8) is added.

また、本実施形態は単純な形態の屋内空間Aを例示したが、本発明は、複雑な形態を有する屋内空間Aにも適用することができる。また、建屋1は、地上に設けられたものとして説明したが、水中において周囲と区画された領域についても、本発明を適用することができる。さらに、撮像する主体としてUAVを例示したが、地上を走行するUSV(Unmanned Surface Vehicle)を用いることもできる。この場合には、高いところを撮像するために、センサ14及びカメラ15を昇降装置に取り付けることができる。また、水中に区画された領域を対象とする場合には、UUV(Unmanned Undersea Vehicle)にセンサ14及びカメラ15を搭載して撮像することができる。   Moreover, although this embodiment illustrated the indoor space A of the simple form, this invention is applicable also to the indoor space A which has a complicated form. Moreover, although the building 1 was demonstrated as what was provided on the ground, this invention is applicable also to the area | region divided with the circumference | surroundings in water. Furthermore, although UAV was illustrated as the main body for imaging, USV (Unmanned Surface Vehicle) that travels on the ground can also be used. In this case, in order to image a high place, the sensor 14 and the camera 15 can be attached to the lifting device. In addition, when an area partitioned in water is targeted, the sensor 14 and the camera 15 can be mounted on a UUV (Unmanned Undersea Vehicle) for imaging.

また、本実施形態では、一台のUAV10により検査を行う例を示したが、本発明は複数台のUAV10、その他の無人移動体を同時に用いて検査を行うことができる。例えば、鉛直方向Vの異なる複数の位置において、この数に応じた台数の移動体を投入すれば、検査を終了するまでの時間を短縮することができる。この場合、同種の移動体に限らず、異なる種類の移動体を用いることもできる。   In the present embodiment, an example in which the inspection is performed by one UAV 10 has been shown. However, the present invention can perform the inspection by simultaneously using a plurality of UAVs 10 and other unmanned moving objects. For example, if a number of moving bodies corresponding to this number are inserted at a plurality of positions in different vertical directions V, the time until the inspection is completed can be shortened. In this case, not only the same type of mobile body but also different types of mobile bodies can be used.

また、以上説明した実施形態は、建屋1の内壁面ISの静止画を撮像して作業員が目視により破損状態を検査することにしているが、本発明による検査方法の対象はこれに限定されず、作業員が立ち入ることが困難な状況で、無人移動体が作業員の代わりに様々な検査を行うことができる。   Further, in the embodiment described above, a worker takes an image of a still image of the inner wall surface IS of the building 1 and visually inspects the damaged state, but the object of the inspection method according to the present invention is limited to this. In the situation where it is difficult for a worker to enter, the unmanned mobile body can perform various inspections on behalf of the worker.

目視検査以外の検査例としては、例えば、非破壊検査、打音検査、放射線量測定、温度・湿度測定などがある。これら検査のそれぞれに適した機器が無人移動体に搭載される。例えば非破壊検査を行うには超音波センサを搭載し、打音検査を行うにはハンマー及びスピーカを搭載する。
また、本発明において、静止画または動画を撮像する場合のカメラの種別は問われず、例えば暗所を撮影するには赤外線カメラを用いることができる。
Examples of inspection other than visual inspection include nondestructive inspection, hammering inspection, radiation dose measurement, temperature / humidity measurement, and the like. Equipment suitable for each of these inspections is mounted on an unmanned mobile body. For example, an ultrasonic sensor is mounted for performing a nondestructive inspection, and a hammer and a speaker are mounted for performing a hammering inspection.
In the present invention, the type of camera for capturing a still image or a moving image is not limited. For example, an infrared camera can be used to capture a dark place.

また、以上の実施形態は、UAV10が予定経路を飛行する例を説明したが、本発明における無人移動体の移動はこれに限らず、以下の移動の形態を採用できる。
初期位置から出発した無人移動体が飛行しながら撮像対象の内壁面を見つけ出し、見つけ出した内壁面に沿って飛行する、というものである。無人移動体は、内壁面に沿って水平方向の飛行及び鉛直方向の飛行を組み合わせて飛行するが、この水平方向及び鉛直方向については、あらかじめ指示をしておく必要がある。
Moreover, although the above embodiment demonstrated the example which UAV10 flies to a planned path | route, the movement of the unmanned mobile body in this invention is not restricted to this, The form of the following movements is employable.
The unmanned moving body that departs from the initial position finds the inner wall surface to be imaged while flying, and flies along the found inner wall surface. The unmanned mobile body flies by combining the horizontal flight and the vertical flight along the inner wall surface, and it is necessary to instruct the horizontal direction and the vertical direction in advance.

また、本発明は、目標地点に関する情報をUAV10に与えておき、UAV10は目標地点の情報に基づいて飛行経路を計算し、計算した飛行経路に従って飛行する。
さらに本発明は、作業者がUAV10を遠隔操作により操縦することができる。
Further, according to the present invention, information on the target point is given to the UAV 10, and the UAV 10 calculates a flight path based on the information on the target point, and flies according to the calculated flight path.
Further, according to the present invention, an operator can operate the UAV 10 by remote control.

1 建屋
2a,2b,2c,2d 側壁
3 床
4 天井
5 扉
6 離着陸ポート
10 UAV
11 送受信部
13 制御部
14 センサ
15 カメラ
16 駆動部
17 地図データ記憶部
18 画像データ記憶部
19 経路データ記憶部
20 制御装置
21 送受信部
23 制御部
24 入力部
25 表示部
27 地図データ記憶部
28 画像データ記憶部
29 経路データ記憶部
A 屋内空間
FV 視野
IS 内壁面
PR 予定経路
1 building 2a, 2b, 2c, 2d side wall 3 floor 4 ceiling 5 door 6 takeoff and landing port 10 UAV
DESCRIPTION OF SYMBOLS 11 Transmission / reception part 13 Control part 14 Sensor 15 Camera 16 Driving part 17 Map data storage part 18 Image data storage part 19 Path | route data storage part 20 Control apparatus 21 Transmission / reception part 23 Control part 24 Input part 25 Display part 27 Map data storage part 28 Image Data storage unit 29 Route data storage unit A Indoor space FV Field of view IS Inner wall surface PR Scheduled route

Claims (9)

初期位置から出発して移動する無人移動体が備えるカメラにより、前記無人移動体が移動する領域を取り囲む内壁面の位置をずらしながら撮像して、予定される全ての撮像を終了した後に、前記初期位置まで帰還する第1ステップと、
前記初期位置まで戻った後に、撮像した画像を表示する第2ステップと、を備え、
前記無人移動体は、蓄電池から供給される電力により駆動されるものであり、
前記第1ステップにおいて、
前記蓄電池の充電残量が予め定められている残量閾値に達すると、
前記無人移動体は、撮像を中断して前記初期位置に自律移動により帰還し、充電残量が不足する前記蓄電池が新たな蓄電池に交換された後に、撮像を中断した中断位置に自律移動により戻ってから撮像を再開する、
ことを特徴とする屋内空間の検査方法。
An image of the unmanned moving body starting from the initial position is taken by the camera provided while shifting the position of the inner wall surface surrounding the area where the unmanned moving body moves, and after the completion of all scheduled imaging, the initial A first step of returning to a position;
A second step of displaying the captured image after returning to the initial position,
The unmanned mobile body is driven by power supplied from a storage battery,
In the first step,
When the remaining charge of the storage battery reaches a predetermined remaining amount threshold,
The unmanned moving body interrupts imaging and returns to the initial position by autonomous movement, and after the storage battery with insufficient charge remaining is replaced with a new storage battery, returns to the interrupted position where imaging was interrupted by autonomous movement. Then restart imaging,
An indoor space inspection method characterized by the above.
前記無人移動体は、前記初期位置に置かれてから前記内壁面についての地図データを生成するとともに、前記地図データに基づいて予定経路を生成し、
前記無人移動体は、生成された前記予定経路に従って、前記初期位置を出発し移動を続ける、
請求項1に記載の屋内空間の検査方法。
The unmanned mobile body generates map data about the inner wall surface after being placed at the initial position, and generates a planned route based on the map data,
The unmanned mobile body starts moving from the initial position according to the generated planned route, and continues to move.
The indoor space inspection method according to claim 1.
前記第1ステップにおいて、前記無人移動体が撮像した前記画像と撮像した前記無人移動体の位置情報を、前記無人移動体が対応付けて記憶し、
前記第2ステップにおいて、表示された前記画像の中で、損傷していると認められる損傷部位があると、
前記無人移動体は、前記損傷部位に移動し、前記損傷部位に対して静止しながら前記損傷部位の前記画像を撮像し、損傷していると認められる全ての前記損傷部位についての撮像を終えると、前記初期位置に帰還する第3ステップを行う、
請求項1又は請求項2に記載の屋内空間の検査方法。
In the first step, the unmanned moving body stores the image captured by the unmanned moving body and the position information of the imaged unmanned moving body in association with each other,
In the second step, if there is a damaged part that is recognized as being damaged in the displayed image,
The unmanned moving body moves to the damaged site, captures the image of the damaged site while resting with respect to the damaged site, and finishes imaging for all the damaged sites that are recognized as damaged. Performing a third step of returning to the initial position;
The method for inspecting an indoor space according to claim 1 or 2.
前記第3ステップにおいて、
前記蓄電池の充電残量が予め定められている残量閾値に達すると、
前記無人移動体は、撮像を中断して前記初期位置に帰還し、充電残量が不足する前記蓄電池が新たな蓄電池に交換された後に、次の撮像の対象となる前記損傷部位に移動してから撮像を再開する、
請求項3に記載の屋内空間の検査方法。
In the third step,
When the remaining charge of the storage battery reaches a predetermined remaining amount threshold,
The unmanned moving body interrupts imaging and returns to the initial position, and after the storage battery with insufficient charge remaining is replaced with a new storage battery, the unmanned moving body moves to the damaged site to be subjected to the next imaging. Resume imaging from
The indoor space inspection method according to claim 3.
前記内壁面を撮像する際に、
水平方向Hの位置を特定する情報及び鉛直方向Vの位置を特定する情報を撮像される前記内壁面にプロジェクションマッピングにより投影する、
請求項1〜請求項4のいずれか一項に記載の屋内空間の検査方法。
When imaging the inner wall surface,
Projecting information specifying the position in the horizontal direction H and information specifying the position in the vertical direction V onto the inner wall surface to be imaged by projection mapping;
The indoor space inspection method according to any one of claims 1 to 4.
前記無人移動体は、前記無人移動体の動作を司る制御部と、前記地図データを記憶する地図データ記憶部と、撮像された前記画像を記憶する画像データ記憶部と、前記予定経路に関するデータを記憶する経路データ記憶部と、を備え、
前記制御部は、
前記地図データに基づいて前記予定経路に関する予定経路データを生成して、前記経路データ記憶部に記憶し、かつ、
前記充電残量が前記残量閾値に達すると、前記中断位置に関する中断位置データを前記経路データ記憶部に記憶する、
請求項2に記載の屋内空間の検査方法。
The unmanned mobile unit includes a control unit that controls the operation of the unmanned mobile unit, a map data storage unit that stores the map data, an image data storage unit that stores the captured image, and data related to the planned route. A route data storage unit for storing,
The controller is
Generating planned route data related to the planned route based on the map data, storing it in the route data storage unit, and
When the remaining charge amount reaches the remaining amount threshold value, the interruption position data relating to the interruption position is stored in the route data storage unit,
The indoor space inspection method according to claim 2.
前記制御部は、
前記無人移動体が実際に移動した経路についての実経路データを、前記経路データ記憶部に記憶する、
請求項6に記載の屋内空間の検査方法。
The controller is
Storing actual route data about a route on which the unmanned mobile body has actually moved in the route data storage unit;
The indoor space inspection method according to claim 6.
前記屋内空間の外部に、前記無人移動体の動作を制御する制御装置を備え、
前記制御装置は、前記無人移動体の動作を司る制御部と、前記地図データを記憶する地図データ記憶部と、撮像された前記画像を記憶する画像データ記憶部と、前記予定経路に関するデータを記憶する経路データ記憶部と、を備え、
前記制御部は、
前記地図データに基づいて前記予定経路に関する予定経路データを生成して、前記経路データ記憶部に記憶し、かつ、
前記充電残量が前記残量閾値に達すると、前記中断位置に関する中断位置データを前記経路データ記憶部に記憶する、
請求項2に記載の屋内空間の検査方法。
A control device for controlling the operation of the unmanned mobile body outside the indoor space,
The control device stores a control unit that controls the operation of the unmanned mobile body, a map data storage unit that stores the map data, an image data storage unit that stores the captured image, and data related to the planned route. A route data storage unit for
The controller is
Generating planned route data related to the planned route based on the map data, storing it in the route data storage unit, and
When the remaining charge amount reaches the remaining amount threshold value, the interruption position data relating to the interruption position is stored in the route data storage unit,
The indoor space inspection method according to claim 2.
前記制御部は、
前記無人移動体が実際に移動した経路についての実経路データを、前記経路データ記憶部に記憶する、
請求項8に記載の屋内空間の検査方法。
The controller is
Storing actual route data about a route on which the unmanned mobile body has actually moved in the route data storage unit;
The indoor space inspection method according to claim 8.
JP2017027433A 2017-02-17 2017-02-17 Indoor space inspection method Pending JP2018133010A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017027433A JP2018133010A (en) 2017-02-17 2017-02-17 Indoor space inspection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017027433A JP2018133010A (en) 2017-02-17 2017-02-17 Indoor space inspection method

Publications (1)

Publication Number Publication Date
JP2018133010A true JP2018133010A (en) 2018-08-23

Family

ID=63249801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017027433A Pending JP2018133010A (en) 2017-02-17 2017-02-17 Indoor space inspection method

Country Status (1)

Country Link
JP (1) JP2018133010A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020070006A (en) * 2019-05-16 2020-05-07 株式会社センシンロボティクス Imaging system and imaging method
JP2020095563A (en) * 2018-12-14 2020-06-18 サイトテック株式会社 Unmanned aerial vehicle system
JP2020201850A (en) * 2019-06-12 2020-12-17 九州旅客鉄道株式会社 Control method of flying body
JP2020201849A (en) * 2019-06-12 2020-12-17 九州旅客鉄道株式会社 Control method of flying body
WO2021100686A1 (en) * 2019-11-22 2021-05-27 三菱パワー株式会社 Boiler internal inspection method
JP2021148698A (en) * 2020-03-23 2021-09-27 株式会社日立製作所 Automatic inspection device
CN113715032A (en) * 2021-05-07 2021-11-30 南京理工大学 Mobile partition wall reconnaissance robot device
US11492113B1 (en) * 2019-04-03 2022-11-08 Alarm.Com Incorporated Outdoor security camera drone system setup
JP2023113717A (en) * 2021-03-17 2023-08-16 株式会社RedDotDroneJapan flight control system
JP2024113070A (en) * 2019-04-05 2024-08-21 株式会社Liberaware Aircraft
WO2025239174A1 (en) * 2024-05-16 2025-11-20 ソニーグループ株式会社 Information processing method, program, and information processing device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095563A (en) * 2018-12-14 2020-06-18 サイトテック株式会社 Unmanned aerial vehicle system
US11492113B1 (en) * 2019-04-03 2022-11-08 Alarm.Com Incorporated Outdoor security camera drone system setup
JP2024113070A (en) * 2019-04-05 2024-08-21 株式会社Liberaware Aircraft
JP2020070006A (en) * 2019-05-16 2020-05-07 株式会社センシンロボティクス Imaging system and imaging method
JP2020201850A (en) * 2019-06-12 2020-12-17 九州旅客鉄道株式会社 Control method of flying body
JP2020201849A (en) * 2019-06-12 2020-12-17 九州旅客鉄道株式会社 Control method of flying body
JP7591859B2 (en) 2019-06-12 2024-11-29 九州旅客鉄道株式会社 Method for controlling an aircraft
JP7591858B2 (en) 2019-06-12 2024-11-29 九州旅客鉄道株式会社 Method for controlling an aircraft
WO2021100686A1 (en) * 2019-11-22 2021-05-27 三菱パワー株式会社 Boiler internal inspection method
JP2021081161A (en) * 2019-11-22 2021-05-27 三菱パワー株式会社 Boiler inside inspection method
JP7235691B2 (en) 2020-03-23 2023-03-08 株式会社日立製作所 Automatic inspection device
WO2021192357A1 (en) * 2020-03-23 2021-09-30 株式会社日立製作所 Automatic inspection device
JP2021148698A (en) * 2020-03-23 2021-09-27 株式会社日立製作所 Automatic inspection device
JP2023113717A (en) * 2021-03-17 2023-08-16 株式会社RedDotDroneJapan flight control system
JP7545758B2 (en) 2021-03-17 2024-09-05 株式会社RedDotDroneJapan Flight Control System
CN113715032A (en) * 2021-05-07 2021-11-30 南京理工大学 Mobile partition wall reconnaissance robot device
WO2025239174A1 (en) * 2024-05-16 2025-11-20 ソニーグループ株式会社 Information processing method, program, and information processing device

Similar Documents

Publication Publication Date Title
JP2018133010A (en) Indoor space inspection method
JP7078093B2 (en) Information processing equipment, information processing methods and information processing programs
JP6931504B2 (en) Flight management system for flying objects
US10317905B2 (en) Autonomous robotic technologies for industrial inspection
JP6634314B2 (en) Facility inspection system using unmanned aerial vehicles
JP6555255B2 (en) Information processing apparatus, information processing method, and computer program
JP7022559B2 (en) Unmanned aerial vehicle control method and unmanned aerial vehicle control program
US10452078B2 (en) Self-localized mobile sensor network for autonomous robotic inspection
JP6658532B2 (en) Control device, control method, and flying object device
JP6326237B2 (en) Measuring system
JP6039050B1 (en) Inspection method for structures using drone
JP2019036269A (en) Flight control method of pilotless small flying object, and inspection method of condition of internal space and condition of wall surface thereof
JP2016082441A (en) Controller, control method and computer program
JP2018156491A (en) Equipment inspection system
US12524870B2 (en) Bar arrangement inspection system and bar arrangement inspection method
JP7161298B2 (en) target device, surveying system
JP2022149716A (en) Survey system
RU2734363C1 (en) Examination of aircraft surface using unmanned aerial vehicle
JP2024008901A (en) 3D data generation system, 3D data generation method, and marker measure
JP2023070120A (en) Autonomous flight control method, autonomous flight control apparatus and autonomous flight control system
JP2024177053A (en) Information processing system and information processing method
US12197236B2 (en) System, apparatus, and method for providing augmented reality assistance to wayfinding and precision landing controls of an unmanned aerial vehicle to differently oriented inspection targets
US20240161329A1 (en) Localization systems and methods
JP2020160019A (en) How to measure the three-dimensional shape of an object
JP2023140945A (en) Inspection equipment and inspection method