[go: up one dir, main page]

JP2019191888A - Unmanned flying object, unmanned flying method and unmanned flying program - Google Patents

Unmanned flying object, unmanned flying method and unmanned flying program Download PDF

Info

Publication number
JP2019191888A
JP2019191888A JP2018083306A JP2018083306A JP2019191888A JP 2019191888 A JP2019191888 A JP 2019191888A JP 2018083306 A JP2018083306 A JP 2018083306A JP 2018083306 A JP2018083306 A JP 2018083306A JP 2019191888 A JP2019191888 A JP 2019191888A
Authority
JP
Japan
Prior art keywords
positioning
estimated
current position
drone
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018083306A
Other languages
Japanese (ja)
Inventor
智幸 伊豆
Tomoyuki Izu
智幸 伊豆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eams Robotics Co Ltd
Eams Lab Co Ltd
Original Assignee
Eams Robotics Co Ltd
Eams Lab Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eams Robotics Co Ltd, Eams Lab Co Ltd filed Critical Eams Robotics Co Ltd
Priority to JP2018083306A priority Critical patent/JP2019191888A/en
Publication of JP2019191888A publication Critical patent/JP2019191888A/en
Pending legal-status Critical Current

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide an unmanned flying object, an unmanned flying method, and an unmanned flying program that ensures flying while reducing the influence of environmental conditions and determining a current position.SOLUTION: The unmanned flying object 1 that is thrust by the rotation of a propeller includes positioning means that calculates a positioning position by using a positioning radio wave from a navigation satellite, position estimation means that calculates an estimated position by estimating a current position by plural types of position estimation methods that do not use the positioning radio wave, and positioning means that determines the current position by performing weighting at the positioning position and/or the estimated position.SELECTED DRAWING: Figure 6

Description

本発明は、無人飛行体、無人飛行方法及び無人飛行プログラムに関する。   The present invention relates to an unmanned air vehicle, an unmanned flight method, and an unmanned flight program.

従来、小型無人飛行体(「ドローン」とも呼ばれる。)は、橋梁等のインフラの点検用に利用されている。橋梁等などの対象と所定の距離を維持して所定の経路を飛行するため、ドローンの位置を測定する必要がある。ドローンの位置の測定は、GPS衛星(Global Positioning System)等の航法衛星からの測位用電波を受信して行う方法や、超音波距離センサーなどの距離センサーを使用して行う方法がある(例えば、特許文献1)。   Conventionally, small unmanned aerial vehicles (also called “drones”) are used for inspection of infrastructure such as bridges. In order to fly a predetermined route while maintaining a predetermined distance from a target such as a bridge, it is necessary to measure the position of the drone. The position of the drone can be measured by receiving a positioning radio wave from a navigation satellite such as a GPS satellite (Global Positioning System) or by using a distance sensor such as an ultrasonic distance sensor (for example, Patent Document 1).

特開2015−217785号公報Japanese Patent Laying-Open No. 2015-217785

ところで、インフラの点検などの現場において、ドローンの位置を測定することは、環境条件によっては困難な場合がある。例えば、測位に必要な数の航法衛星から測位用電波を受信できない場合があるし、超音波距離センサーの場合には、対象の表面形状によっては距離を正確に測定することは困難である。   By the way, it is sometimes difficult to measure the position of the drone in the field of infrastructure inspection or the like depending on the environmental conditions. For example, there are cases where positioning radio waves cannot be received from the number of navigation satellites necessary for positioning. In the case of an ultrasonic distance sensor, it is difficult to accurately measure the distance depending on the surface shape of the object.

本発明はかかる問題の解決を試みたものであり、環境条件の影響を低減して、現在位置を決定しつつ、飛行することができる無人飛行体、無人飛行方法及び無人飛行プログラムを提供することを目的とする。   The present invention is an attempt to solve such a problem, and provides an unmanned air vehicle, an unmanned flight method, and an unmanned flight program capable of flying while reducing the influence of environmental conditions and determining the current position. With the goal.

第一の発明は、プロペラの回転によって推力を得る無人飛行体であって、航法衛星からの測位用電波を使用して現在位置を測位して測位位置を算出する測位手段と、前記測位用電波を使用しない複数種類の位置推定方法によって現在位置を推定して推定位置を算出する位置推定手段と、前記測位位置及び前記推定位置、または、複数種類の前記位置推定方法によって推定した前記推定位置において重み付けを行って、現在位置を決定する位置決定手段と、を有する無人飛行体である。   A first invention is an unmanned air vehicle that obtains thrust by rotation of a propeller, positioning means that measures a current position by using a positioning radio wave from a navigation satellite and calculates a positioning position; and the positioning radio wave In position estimation means for calculating an estimated position by estimating a current position by a plurality of types of position estimation methods that do not use the positioning position and the estimated position, or in the estimated position estimated by a plurality of types of the position estimation methods An unmanned aerial vehicle having position determining means for performing weighting and determining a current position.

第一の発明の構成によれば、無人飛行体は、測位位置と、複数種類の位置推定方法によって現在位置を推定して得た推定位置において重み付けを行って、現在位置を決定するから、特定の位置算出(推定)方法が特定の環境条件において機能しなくても、他の位置算出(推定)方法によって得た測位位置または推定位置を使用して現在位置を決定することができる。このため、無人飛行体は、環境条件の影響を低減して、現在位置を決定しつつ、飛行することができる。   According to the configuration of the first invention, the unmanned aerial vehicle determines the current position by weighting the positioning position and the estimated position obtained by estimating the current position using a plurality of types of position estimation methods. Even if this position calculation (estimation) method does not function under a specific environmental condition, the current position can be determined using the positioning position or the estimated position obtained by another position calculation (estimation) method. For this reason, the unmanned air vehicle can fly while reducing the influence of environmental conditions and determining the current position.

第二の発明は、第一の発明の構成において、前記位置推定手段は、慣性センサーの出力に基づいて現在位置を推定して第一推定位置を算出する第一推定手段と、3次元データとカメラで撮影して取得した撮影データに基づいて現在位置を推定して第二推定位置を算出する第二推定手段と、前記3次元データとレーザースキャナーの出力に基づいて現在位置を推定して第三推定位置を算出する第三推定手段と、のうち少なくとも一つを含む、無人飛行体である。   According to a second invention, in the configuration of the first invention, the position estimation means estimates a current position based on an output of an inertial sensor and calculates a first estimated position; three-dimensional data; Second estimating means for calculating a second estimated position by estimating a current position based on photographing data obtained by photographing with a camera, and estimating a current position based on the three-dimensional data and the output of the laser scanner. An unmanned aerial vehicle including at least one of third estimation means for calculating three estimated positions.

第三の発明は、第二の発明の構成において、前記位置決定手段は、前記測位用電波を受信可能な前記航法衛星の数が所定数未満の場合には、前記測位位置を使用せず、前記推定位置に基づいて現在位置を決定するように構成されている、無人飛行体である。   According to a third invention, in the configuration of the second invention, the position determining means does not use the positioning position when the number of the navigation satellites capable of receiving the positioning radio waves is less than a predetermined number, An unmanned aerial vehicle configured to determine a current position based on the estimated position.

第四の発明は、第二の発明または第三の発明の構成において、前記位置決定手段は、前記複数種類の位置推定方法において推定した前記推定位置のいずれかにおいて、直前に推定した前記推定位置と許容範囲を超えた相違がある場合には、前記許容範囲を超えた前記推定位置を使用しないように構成されている、無人飛行体である。   According to a fourth aspect of the present invention, in the configuration of the second aspect of the invention or the third aspect of the invention, the position determining means is the estimated position estimated immediately before any of the estimated positions estimated in the plurality of types of position estimation methods. And an unmanned aerial vehicle configured not to use the estimated position exceeding the allowable range when there is a difference exceeding the allowable range.

第五の発明は、第一の発明乃至第四の発明のいずれかの構成において、前記位置決定手段は、慣性センサーの出力に基づいて、前記重み付けを行うように構成されている、無人飛行体である。   According to a fifth aspect of the present invention, in any one of the first to fourth aspects, the position determining means is configured to perform the weighting based on an output of an inertial sensor. It is.

第六の発明は、プロペラの回転によって推力を得る無人飛行体が、航法衛星からの測位用電波を使用して現在位置を測位して測位位置を算出する測位ステップと、前記測位用電波を使用しない複数種類の位置推定方法によって現在位置を推定して推定位置を算出する位置推定ステップと、前記測位位置及び前記推定位置、または、複数種類の前記位置推定方法によって推定した前記推定位置において重み付けを行って、現在位置を決定する位置決定ステップと、を実行する無人飛行方法である。   A sixth invention is a positioning step in which an unmanned air vehicle that obtains thrust by rotating a propeller measures a current position by using a positioning radio wave from a navigation satellite to calculate a positioning position, and uses the positioning radio wave. A position estimation step of estimating the current position by a plurality of types of position estimation methods and calculating an estimated position, and weighting in the positioning position and the estimated position, or the estimated position estimated by a plurality of types of position estimation methods And an unmanned flight method for performing a position determination step to determine a current position.

第七の発明は、プロペラの回転によって推力を得る無人飛行体を制御するコンピュータを、航法衛星からの測位用電波を使用して現在位置を測位して測位位置を算出する測位手段、前記測位用電波を使用しない複数種類の位置推定方法によって現在位置を推定して推定位置を算出する位置推定手段、前記測位位置及び前記推定位置、または、複数種類の前記位置推定方法によって推定した前記推定位置において重み付けを行って、現在位置を決定する位置決定手段、として機能させるための無人飛行プログラムである。   The seventh invention is a positioning means for calculating a positioning position by positioning a current position using a positioning radio wave from a navigation satellite, a computer that controls an unmanned air vehicle that obtains thrust by rotation of a propeller, the positioning In the position estimation means for estimating the current position by a plurality of types of position estimation methods that do not use radio waves and calculating the estimated position, the positioning position and the estimated position, or the estimated position estimated by a plurality of types of the position estimation methods It is an unmanned flight program for functioning as position determining means for determining the current position by performing weighting.

本発明によれば、環境条件の影響を低減して、現在位置を決定しつつ、飛行することができる。   According to the present invention, it is possible to fly while determining the current position while reducing the influence of environmental conditions.

本発明の実施形態に係る無人飛行体の作用を示す概略図である。It is the schematic which shows the effect | action of the unmanned air vehicle which concerns on embodiment of this invention. 本発明の実施形態に係る無人飛行体を示す概略図である。It is the schematic which shows the unmanned air vehicle which concerns on embodiment of this invention. 無人飛行体の機能構成を示す概略図である。It is the schematic which shows the function structure of an unmanned air vehicle. 重み付けの方法を示す概念図である。It is a conceptual diagram which shows the method of weighting. 無人飛行体の動作を示す概略図である。It is the schematic which shows operation | movement of an unmanned air vehicle. 無人飛行体の動きを示すフローチャートである。It is a flowchart which shows a motion of an unmanned air vehicle.

以下、本発明を実施するための形態(以下、実施形態)について詳細に説明する。以下の説明においては、同様の構成には同じ符号を付し、その説明を省略又は簡略する。なお、当業者が適宜実施できる構成については説明を省略し、本発明の基本的な構成についてのみ説明する。   Hereinafter, modes for carrying out the present invention (hereinafter referred to as embodiments) will be described in detail. In the following description, the same reference numerals are given to the same components, and the description thereof is omitted or simplified. Note that description of configurations that can be appropriately implemented by those skilled in the art will be omitted, and only the basic configuration of the present invention will be described.

図1に示す無人機1は、プロペラの回転によって推力を得て、所定の経路を自律飛行する。無人機1は、無人飛行体の一例である。無人機1は空中を飛行する無人飛行体である。無人機1は、無人機1を管理する基地局50(図3参照)からの指示で作業を開始し、また、基地局50において充電等を行うようになっている。   The drone 1 shown in FIG. 1 obtains thrust by the rotation of a propeller and autonomously flies along a predetermined route. The drone 1 is an example of an unmanned air vehicle. The drone 1 is an unmanned air vehicle flying in the air. The drone 1 starts work in response to an instruction from the base station 50 (see FIG. 3) that manages the drone 1, and performs charging and the like in the base station 50.

無人機1は、自律飛行しつつ、高速道路200の底面200a及び橋脚202A,202B及び202Cの点検を行う。本明細書において、高速道路200の底面200a及び橋脚202A,202B及び202Cを含む空間は飛行領域の一例である。   The drone 1 inspects the bottom surface 200a of the highway 200 and the piers 202A, 202B, and 202C while autonomously flying. In this specification, the space including the bottom surface 200a of the highway 200 and the piers 202A, 202B, and 202C is an example of a flight region.

無人機1は、航法衛星300A,300B,300C及び300Dからの測位用電波を受信して、現在位置を測位する。測位用電波を使用して測位した現在位置を測位位置Aとする。測位位置Aは測位位置の一例である。   The drone 1 receives positioning radio waves from the navigation satellites 300A, 300B, 300C, and 300D, and measures the current position. The current position measured using the positioning radio wave is defined as a positioning position A. The positioning position A is an example of a positioning position.

無人機1は、例えば、高速道路200の上方の位置P1など、航法衛星300A等との間に障害物がない場合には、測位用電波を受信することができる。しかし、例えば、無人機1と航法衛星300A等の間に高速道路200などの障害物が存在するなど、無人機1は測位用電波を受信できない位置(例えば、位置P2)に位置する場合には、無人機1は、測位用電波を受信できない。この場合、無人機1は、他の複数種類の位置推定方法によって現在位置を推定する。位置推定方法としては、例えば、慣性センサーからの出力を使用する方法、予め記憶した3次元マップとカメラで撮影して得た撮影データを使用する方法、及び、3次元マップとレーザースキャナーの出力を使用する方法がある。慣性センサーからの出力を使用して推定した現在位置を推定位置B、カメラで撮影して得た撮影データと3次元マップとを参照して推定した現在位置を推定位置C、レーザースキャナーの出力と3次元マップとを参照して現在位置を推定位置Dとする。推定位置Bは第一推定位置の一例であり、推定位置Cは第二推定位置の一例であり、推定位置Dは第三推定位置の一例である。3次元マップは3次元データの一例である。   The drone 1 can receive positioning radio waves when there is no obstacle between the navigation satellite 300A and the like, such as the position P1 above the highway 200, for example. However, when the drone 1 is located at a position where the positioning radio wave cannot be received (for example, position P2), for example, an obstacle such as the highway 200 exists between the drone 1 and the navigation satellite 300A. The drone 1 cannot receive positioning radio waves. In this case, the drone 1 estimates the current position using other types of position estimation methods. As a position estimation method, for example, a method using an output from an inertial sensor, a method using a pre-stored three-dimensional map and photographing data obtained by photographing with a camera, and a three-dimensional map and an output of a laser scanner are used. There is a method to use. The current position estimated using the output from the inertial sensor is the estimated position B, the current position estimated with reference to the captured data obtained by photographing with the camera and the three-dimensional map, the estimated position C, and the output of the laser scanner The current position is set as the estimated position D with reference to the three-dimensional map. The estimated position B is an example of a first estimated position, the estimated position C is an example of a second estimated position, and the estimated position D is an example of a third estimated position. A three-dimensional map is an example of three-dimensional data.

無人機1は、所定の経路において、底面200aや橋脚202A等と所定の距離だけ乖離した位置において、点検を行うようになっており、底面200a等との距離を維持するために、無人機1の現在位置と飛行領域の3次元マップを使用する。3次元マップは、別途生成したものを無人機1に記憶しておき、点検現場においては、無人機1の現在位置と3次元マップに基づいて、対象との距離を維持しつつ、飛行する。このとき、無人機1は、測位位置A、推定位置B〜Dにおいて、重み付けを行って、現在位置を決定する。   The drone 1 is inspected at a position separated from the bottom surface 200a, the pier 202A, and the like by a predetermined distance on a predetermined route. In order to maintain the distance from the bottom surface 200a and the like, the drone 1 Use a 3D map of the current location and flight region. The three-dimensional map is generated separately in the drone 1 and stored in the inspection site while maintaining the distance from the target based on the current position of the drone 1 and the three-dimensional map. At this time, the drone 1 weights the positioning position A and the estimated positions BD to determine the current position.

図2に示すように、無人機1は、筐体2を有する。筐体2には、無人機1の各部を制御するコンピュータ、自律飛行装置、無線通信装置、慣性センサー20(Inertial Measurement Unit)、GPS(Global Positioning System)などの航法衛星システムからの測位用電波を受信するためのアンテナ22、気圧センサー、バッテリー等が配置されている。筐体20の下面(アンテナ22が配置される側とは逆の面)には、レーザースキャナー(図示せず)が配置されている。また、筐体2には、固定装置12を介して、カメラ14が配置されている。カメラ14によって、橋梁等の点検を実施する。カメラ14は、可視光カメラ、または、近赤外線カメラであるが、切り替え可能なハイブリッドカメラであってもよい。カメラ14は、情報収集手段の一例である。固定装置12は、カメラ14による撮影画像のぶれを最小化し、かつ、カメラ14の光軸を任意の方向に制御することができる3軸の固定装置(いわゆる、ジンバル)である。   As shown in FIG. 2, the drone 1 has a housing 2. The housing 2 receives positioning radio waves from a navigation satellite system such as a computer that controls each part of the drone 1, an autonomous flight device, a wireless communication device, an inertial sensor 20 (Internal Measurement Unit), and a GPS (Global Positioning System). An antenna 22 for receiving, an atmospheric pressure sensor, a battery and the like are arranged. A laser scanner (not shown) is disposed on the lower surface of the housing 20 (the surface opposite to the side where the antenna 22 is disposed). In addition, a camera 14 is disposed in the housing 2 via a fixing device 12. The camera 14 inspects bridges and the like. The camera 14 is a visible light camera or a near-infrared camera, but may be a switchable hybrid camera. The camera 14 is an example of an information collecting unit. The fixing device 12 is a three-axis fixing device (so-called gimbal) that can minimize blurring of an image captured by the camera 14 and can control the optical axis of the camera 14 in an arbitrary direction.

筐体2には、丸棒状のアーム4が接続されている。各アーム4にはモーター6が接続されており、各モーター6にはプロペラ8が接続されている。各モーター6は、直流モーター(ブラシレスDCモーター)である。各モーター6は、筐体2内の自律飛行装置によってそれぞれ独立して制御され、無人機1を上下水平方向の移動や空中での停止(ホバリング)及び姿勢制御を自在に行うことができるようになっている。   A round bar-like arm 4 is connected to the housing 2. A motor 6 is connected to each arm 4, and a propeller 8 is connected to each motor 6. Each motor 6 is a direct current motor (brushless DC motor). Each motor 6 is independently controlled by the autonomous flight device in the housing 2 so that the drone 1 can freely move in the vertical and horizontal directions, stop in the air (hovering), and control the attitude. It has become.

アーム4には保護枠10が接続され、プロペラ8が外部の物体に直接接触することを防止している。アーム4及び保護枠10は、例えば、炭素繊維強化プラスチックで形成されており、強度を保ちつつ、軽量に構成されている。   A protective frame 10 is connected to the arm 4 to prevent the propeller 8 from coming into direct contact with an external object. The arm 4 and the protective frame 10 are made of, for example, carbon fiber reinforced plastic, and are lightweight while maintaining strength.

図3は、無人機1の機能構成を示す図である。図3に示すように、無人機1は、CPU(Central Processing Unit)100、記憶部102、無線通信部104、衛星測位部106、慣性センサー部108、レーザースキャナー部110、駆動制御部112、画像処理部114、及び、電源部120を有する。   FIG. 3 is a diagram illustrating a functional configuration of the drone 1. As shown in FIG. 3, the drone 1 includes a CPU (Central Processing Unit) 100, a storage unit 102, a wireless communication unit 104, a satellite positioning unit 106, an inertial sensor unit 108, a laser scanner unit 110, a drive control unit 112, an image. A processing unit 114 and a power supply unit 120 are included.

無人機1は、無線通信部104によって、基地局50と通信可能になっている。無人機1は、無線通信部104によって、基地局50から、発進等の指示を受信する。基地局50は、コンピュータで構成されている。   The drone 1 can communicate with the base station 50 by the wireless communication unit 104. The drone 1 receives an instruction such as starting from the base station 50 by the wireless communication unit 104. The base station 50 is configured by a computer.

無人機1は、衛星測位部106と慣性センサー部108によって、無人機1自体の位置を測定することができる。衛星測位部106は、基本的に、4つ以上の航法衛星からの測位用電波を受信して無人機1の位置を測位する。慣性センサー部108は、例えば、加速度センサー及びジャイロセンサーによって、出発点(基準位置)からの無人機1の移動を積算して、無人機1の位置を計測する。無人機1自体の位置情報は、無人機1の移動経路の決定及び自律移動のために使用するほか、画像処理部114によって撮影した画像データと座標(位置)とを紐づけするために使用する。   The drone 1 can measure the position of the drone 1 itself by the satellite positioning unit 106 and the inertial sensor unit 108. The satellite positioning unit 106 basically measures the position of the drone 1 by receiving positioning radio waves from four or more navigation satellites. The inertial sensor unit 108 measures the position of the drone 1 by accumulating the movement of the drone 1 from the starting point (reference position) using, for example, an acceleration sensor and a gyro sensor. The position information of the drone 1 itself is used for determining the movement route of the drone 1 and autonomous movement, and also for linking image data photographed by the image processing unit 114 and coordinates (position). .

無人機1は、レーザースキャナー部110によって、筐体2に配置されたレーザースキャナーからの出力を受信する。   The drone 1 receives the output from the laser scanner arranged in the housing 2 by the laser scanner unit 110.

無人機1は、駆動制御部112によって、各モーター6(図2参照)に接続されたプロペラ8(図2参照)の回転を制御し、上下水平移動や空中停止、傾きなどの姿勢を制御するようになっている。   The drone 1 controls the rotation of the propeller 8 (see FIG. 2) connected to each motor 6 (see FIG. 2) by the drive control unit 112, and controls postures such as horizontal movement, air suspension, and tilt. It is like that.

無人機1は、画像処理部114によって、カメラ14(図1参照)を作動させて外部の画像を取得することができる。   The drone 1 can acquire an external image by operating the camera 14 (see FIG. 1) by the image processing unit 114.

電源部120は、例えば、交換可能な可充電電池であり、無人機1の各部に電力を供給するようになっている。   The power supply unit 120 is a replaceable rechargeable battery, for example, and supplies power to each unit of the drone 1.

記憶部102には、出発点から目的位置まで自律移動するための移動計画を示すデータ等の自律移動に必要な各種データ及びプログラムのほか、以下のデータ及びプログラムが格納されている。   In addition to various data and programs necessary for autonomous movement, such as data indicating a movement plan for autonomous movement from the starting point to the target position, the storage unit 102 stores the following data and programs.

記憶部102には、3次元マップが格納されている。3次元マップは、図1に示す飛行領域の形状を示し、高精度・高密度な3次元点群で構成される。3次元マップは、GCP(Ground Control Point:地上基準点)を用いて、その位置情報(緯度、経度及び高度)と画素との対応付けによって地図と同じ座標系に変換されている。   The storage unit 102 stores a three-dimensional map. The three-dimensional map shows the shape of the flight region shown in FIG. 1, and is composed of a high-precision and high-density three-dimensional point group. The three-dimensional map is converted into the same coordinate system as the map by associating the position information (latitude, longitude, and altitude) with pixels using GCP (Ground Control Point).

3次元マップの生成方法は限定されないが、例えば、SfM(Structure from Motion)画像処理方法によって生成される。SfMは、画像に映った対象の3次元的形状を画像から得る方法である。SfMソフトウェアとしては、例えば、VisualSFM、Agisoft PhotoScanなどが挙げられる。あるいは、飛行領域の図面(高速道路200や橋脚202A等の図面)から3次元マップを生成してもよい。   The generation method of the three-dimensional map is not limited, but is generated by, for example, an SfM (Structure from Motion) image processing method. SfM is a method for obtaining a three-dimensional shape of an object shown in an image from the image. Examples of the SfM software include VisualSFM, Agisoft PhotoScan, and the like. Or you may produce | generate a three-dimensional map from drawings (drawings, such as the expressway 200 and the pier 202A) of a flight area.

記憶部102には、飛行制御プログラム、測位プログラム、基準位置決定プログラム、第一位置推定プログラム、第二位置推定プログラム、第三位置推定プログラム、位置決定プログラム、及び、経路調整プログラムが格納されている。CPU100と飛行制御プログラムは飛行制御手段の一例である。CPU100と測位プログラムは測位手段の一例である。CPU100と基準位置決定プログラムは基準位置決定手段の一例である。CPU100と第一位置推定プログラムは第一位置推定手段の一例である。CPU100と第二位置推定プログラムは第二位置推定手段の一例である。CPU100と第三位置推定プログラムは第三位置推定手段の一例である。CPU100と、第一位置推定プログラム・第二位置推定プログラム・第三位置推定プログラムは、位置推定手段の一例である。CPU100と位置決定プログラムは位置決定手段の一例である。CPU100と経路調整プログラムは経路調整手段の一例である。   The storage unit 102 stores a flight control program, a positioning program, a reference position determination program, a first position estimation program, a second position estimation program, a third position estimation program, a position determination program, and a route adjustment program. . The CPU 100 and the flight control program are examples of flight control means. The CPU 100 and the positioning program are examples of positioning means. The CPU 100 and the reference position determination program are examples of reference position determination means. The CPU 100 and the first position estimation program are examples of first position estimation means. The CPU 100 and the second position estimation program are examples of second position estimation means. The CPU 100 and the third position estimation program are examples of third position estimation means. The CPU 100, the first position estimation program, the second position estimation program, and the third position estimation program are examples of position estimation means. The CPU 100 and the position determination program are examples of position determination means. The CPU 100 and the route adjustment program are examples of route adjustment means.

無人機1は、飛行制御プログラムによって、無人機1の自律飛行を制御する。具体的には、無人機1は、駆動制御部112を介して各モーター6に供給する電力を調整し、予め規定された経路及び高度を飛行するようになっている。   The drone 1 controls autonomous flight of the drone 1 by a flight control program. Specifically, the drone 1 adjusts the electric power supplied to each motor 6 via the drive control unit 112, and flies in a predetermined route and altitude.

無人機1は、測位プログラムによって、無人機1の現在位置を示す測位位置Aを算出する。無人機1は、4個以上の航法衛星からの測位用電波を受信できるときには測位用電波を使用して現在位置を測位して測位位置Aを算出し、所定の重みにおいて、現在位置の決定に使用する。これに対して、無人機1は、4個以上の航法衛星からの測位用電波を受信できない場合には、測位結果が収束したとしても、測位位置Aの重み付けを0にし、測位位置Aを使用しない。4個未満の航法衛星数は、所定数未満の航法衛星の数の一例である。   The drone 1 calculates a positioning position A indicating the current position of the drone 1 by a positioning program. When the drone 1 can receive positioning radio waves from four or more navigation satellites, it uses the positioning radio waves to measure the current position to calculate the positioning position A, and determines the current position with a predetermined weight. use. On the other hand, when the drone 1 cannot receive positioning radio waves from four or more navigation satellites, the positioning position A is weighted to 0 even if the positioning result converges, and the positioning position A is used. do not do. The number of navigation satellites less than 4 is an example of the number of navigation satellites less than a predetermined number.

無人機1は、基準位置決定プログラムによって、4個以上の航法衛星300A等からの測位用電波を受信できる位置において、測位用電波を受信して無人機1の現在位置を測位し、最初の基準位置とする。   The drone 1 receives the positioning radio wave at the position where the radio waves for positioning from four or more navigation satellites 300A and the like can be received by the reference position determination program, and measures the current position of the drone 1 for the first reference. Position.

無人機1は、第一位置推定プログラムによって、慣性センサー20からの出力を使用して、現在位置を推定し、推定位置Bを算出する。無人機1は、直近に決定した現在位置を基準位置として、慣性センサー20を構成する加速度センサー及びジャイロセンサーからの出力を累積することによって、推定位置Bを算出する。無人機1は、例えば、最初の基準位置を測位位置Aとして推定位置Bを算出し、その後は、新たに決定された現在位置に更新することによって、継続的に推定位置Bを算出することができる。   The drone 1 estimates the current position and calculates the estimated position B using the output from the inertial sensor 20 by the first position estimation program. The drone 1 calculates the estimated position B by accumulating outputs from the acceleration sensor and the gyro sensor that constitute the inertial sensor 20, using the most recently determined current position as a reference position. The drone 1 can continuously calculate the estimated position B by, for example, calculating the estimated position B with the first reference position as the positioning position A and then updating to the newly determined current position. it can.

無人機1は、第二位置推定プログラムによって、撮影画像データと3次元マップに基づいて、現在位置を推定し、推定位置Cを算出する。無人機1は、カメラ14において外部を撮影して撮影画像データを取得し、その特徴を抽出し、3次元マップの特徴と対比することで、3次元マップにおける現在位置を推定する。具体的には、無人機1は、3次元マップと撮影画像データとのマッチングを行い、最も両者の特徴が一致する3次元座標を求めることにより、無人機1の現在位置を推定し、推定位置Cを算出する。   The drone 1 estimates the current position based on the captured image data and the three-dimensional map by the second position estimation program, and calculates the estimated position C. The drone 1 captures the outside with the camera 14 to acquire photographed image data, extracts the feature, and compares it with the feature of the three-dimensional map to estimate the current position in the three-dimensional map. Specifically, the drone 1 performs matching between the three-dimensional map and the captured image data, and obtains the three-dimensional coordinates where the features of the two match most, thereby estimating the current position of the drone 1 and the estimated position. C is calculated.

無人機1は、第三位置推定プログラムによって、レーザースキャナーからの出力(スキャンデータ)を使用して、現在位置を推定し、推定位置Dを算出する。無人機1は、3次元マップとスキャンデータとのスキャンマッチングを行い、最も両者の形状が一致する3次元座標を求めることにより、無人機1の現在位置を推定し、推定位置Dを算出する。   The drone 1 estimates the current position and calculates the estimated position D using the output (scan data) from the laser scanner by the third position estimation program. The drone 1 performs scan matching between the three-dimensional map and the scan data, finds the three-dimensional coordinates that most closely match the shapes, thereby estimating the current position of the drone 1 and calculates the estimated position D.

無人機1は、位置決定プログラムによって、上述の測位位置A、推定位置B〜Dにおいて重み付けを行って、現在位置を決定する。   The drone 1 weights the positioning position A and the estimated positions B to D described above by the position determination program to determine the current position.

ここで、図4(a)に示すように、測位位置A、推定位置B〜Dが、前回の決定位置からの乖離が大きく、許容範囲を超えた相違がある場合には、測位位置や推定位置が誤りである可能性が高いから、その測位位置や推定位置の重みを小さくする。例えば、0.1秒(s)ごとに位置を決定しているとすれば、前回の決定位置から0.1秒(s)後に算出した測位位置や推定位置が、前回の決定位置から2メートル(m)以上乖離している場合には、その測定位置や推定位置の重みを小さくする。   Here, as shown in FIG. 4A, when the positioning position A and the estimated positions B to D have a large deviation from the previous determined position and there is a difference exceeding the allowable range, the positioning position and the estimated position are estimated. Since there is a high possibility that the position is incorrect, the weight of the positioning position or the estimated position is reduced. For example, if the position is determined every 0.1 seconds (s), the positioning position or estimated position calculated 0.1 seconds (s) after the previous determined position is 2 meters from the previous determined position. (M) If there is a divergence, the weight of the measurement position or estimated position is reduced.

また、図4(b)に示すように、慣性センサーによって検知した移動状態との乖離が大きいほど、その測位位置や推定位置の重みを小さくする。すなわち、重み付けの評価に慣性センサーの出力を使用する。例えば、時刻t1における測位位置A1と、時刻t1から時間Δtだけ経過した時刻t2における測位位置A2を参照し、測位位置A1から測位位置A2への移動方向と、慣性センサーによって検知した移動方向との相違が大きい場合には、測位位置Aの重みを小さくする。推定位置B〜Dについても同様であり、例えば、時刻t1における推定位置C1と、時刻t1から時間Δtだけ経過した時刻t2における推定位置C2を参照し、推定位置C1から推定位置C2への移動方向と、慣性センサーによって検知した移動方向との相違が大きい場合には、推定位置Cの重みを小さくする。慣性センサーによる測定位置及び推定位置の重み付けの評価、言い換えると、他のセンサーの信頼度の評価は、移動方向に限らず、移動距離など、他の移動状態についても行う。例えば、時刻t1における推定位置D1と、時刻t1から時間Δtだけ経過した時刻t2における推定位置D2を参照し、推定位置D1から推定位置D2への移動距離と、慣性センサーによって検知した移動距離との相違が大きい場合には、推定位置Dの重みを小さくする。   Further, as shown in FIG. 4B, as the deviation from the movement state detected by the inertial sensor is larger, the weight of the positioning position or the estimated position is reduced. That is, the output of the inertial sensor is used for weighting evaluation. For example, with reference to the positioning position A1 at time t1 and the positioning position A2 at time t2 after the time Δt has elapsed from time t1, the movement direction from the positioning position A1 to the positioning position A2 and the movement direction detected by the inertial sensor When the difference is large, the weight of the positioning position A is reduced. The same applies to the estimated positions B to D. For example, referring to the estimated position C1 at time t1 and the estimated position C2 at time t2 that has elapsed by time Δt from time t1, the moving direction from the estimated position C1 to the estimated position C2 is referred to. When the difference between the movement direction detected by the inertial sensor and the movement direction is large, the weight of the estimated position C is decreased. The evaluation of the weighting of the measurement position and the estimated position by the inertial sensor, in other words, the evaluation of the reliability of other sensors is performed not only in the movement direction but also in other movement states such as a movement distance. For example, referring to the estimated position D1 at time t1 and the estimated position D2 at time t2 when time Δt has elapsed from time t1, the movement distance from the estimated position D1 to the estimated position D2 and the movement distance detected by the inertial sensor When the difference is large, the weight of the estimated position D is reduced.

測位位置Aについては、使用する航法衛星の数が少ないほど、測位精度が低いから、図4(c)に示すように、重みを小さくする。   As for the positioning position A, the smaller the number of navigation satellites used, the lower the positioning accuracy. Therefore, as shown in FIG.

推定位置Bについては、前回の位置決定時刻からの経過時間が長いほど、誤差が累積して精度が低い推定位置になるから、図4(d)に示すように、経過時間が長くなるほど、重みを小さくする。   For the estimated position B, as the elapsed time from the previous position determination time becomes longer, the error accumulates and becomes an estimated position with lower accuracy. Therefore, as shown in FIG. Make it smaller.

無人機1は、経路調整プログラムによって、決定した現在位置に基づいて、飛行経路を調整する。無人機1は、無人機1が飛行するための所定の広さWが存在するか否かを判断し、所定の広さWの空間が存在しない場合には、代替経路を算出する。   The drone 1 adjusts the flight path based on the current position determined by the path adjustment program. The drone 1 determines whether or not there is a predetermined area W for the drone 1 to fly, and calculates an alternative route if there is no space of the predetermined area W.

所定の広さWとは、無人機1が安全に飛行可能な空間的な広がりであり、例えば、1辺が2メートル(m)以上の立方体形状が格納可能な空間である。例えば、図5に示すように、無人機1は、矢印R1に示すように移動するときに、レーザースキャナーの出力によって、前方の空間が所定の広さWを有するか否かを判断する。水平方向においては2メートル以上の空間的な広がりがあると仮定し、鉛直方向の広がりについてのみ説明すると、無人機1は、鉛直方向の広がりが2メートル以上であるか否かを判断する。図5の例では、鉛直方向の広がりは、高度Lbと高度Ltによって規定される。無人機1は、Lt−Lb>2(m)であれば、所定の広さWがあると判断する。これに対して、無人機1は、Lt−Lb≦2(m)であれば、前方の空間が所定の広さWがないと判断し、3次元マップを参照し、広さWを有する代替経路を算出する。無人機1は、代替経路を飛行しつつ、例えば、カメラ14の拡大倍率を変更するなど、測定条件を調整する。   The predetermined width W is a spatial extent in which the drone 1 can safely fly, for example, a space in which a cubic shape with one side of 2 meters (m) or more can be stored. For example, as shown in FIG. 5, when the drone 1 moves as indicated by an arrow R1, it determines whether or not the front space has a predetermined width W based on the output of the laser scanner. Assuming that there is a spatial spread of 2 meters or more in the horizontal direction and only explaining the spread in the vertical direction, the drone 1 determines whether the spread in the vertical direction is 2 meters or more. In the example of FIG. 5, the spread in the vertical direction is defined by the altitude Lb and the altitude Lt. The drone 1 determines that there is a predetermined width W if Lt−Lb> 2 (m). On the other hand, if the drone 1 is Lt−Lb ≦ 2 (m), it is determined that the front space does not have the predetermined width W, and an alternative having the width W by referring to the three-dimensional map. Calculate the route. The drone 1 adjusts the measurement conditions, for example, by changing the magnification of the camera 14 while flying on the alternative route.

無人機1は、移動する前方の空間が所定の広さWを有すると判断すると、物との水平方向の距離をα、鉛直方向の距離をβに維持しつつ、前方の空間に移動する。なお、移動する前方の空間が、所定の広さWを有していても、物との水平方向の距離をα以上、鉛直方向の距離をβ以上、確保できない場合には、無人機1は、3次元マップを参照し、物との水平方向の距離をα以上、鉛直方向の距離をβ以上、確保できる代替経路を算出し、カメラ14の拡大倍率を変更するなど、測定条件を調整する。   If the drone 1 determines that the moving front space has a predetermined width W, the drone 1 moves to the front space while maintaining the horizontal distance α with the object and the vertical distance β. In addition, even if the moving front space has a predetermined width W, if the horizontal distance to the object cannot be secured by α or more and the vertical distance by β or more cannot be secured, the drone 1 is Referring to the three-dimensional map, adjust the measurement conditions, such as calculating an alternative route that can secure the horizontal distance to the object by α or more and the vertical distance by β or more, and changing the magnification of the camera 14 .

以下、無人機1の動作を、図6のフローチャートを参照して説明する。無人機1は、4個以上の航法衛星300A等から測位用電波を受信できる状態において現在位置を測位し(図6のステップST1)、基準位置を決定する(ステップST2)。続いて、無人機1は、衛星測位(ステップST3A)、慣性センサーの出力による位置推定(ステップST3B)、撮影画像データと3次元マップに基づく位置推定(ステップST3C)、及び、レーザースキャナーと3次元マップに基づく位置推定(ステップST3D)を行う。続いて、無人機1は、上述のステップST3A〜ST3Dにおいて算出した推定位置の重み付け処理を行い(ステップST4)、現在位置を決定する(ステップST5)。ステップST4における重み付け処理において、慣性センサーによる重み付け評価も実施する。無人機1は、任務終了か否かを判断し(ステップST6)、任務終了でなければ、ステップST3A〜ST3D及びステップST4〜ST6を繰り返す。   Hereinafter, the operation of the drone 1 will be described with reference to the flowchart of FIG. The drone 1 measures the current position in a state in which positioning radio waves can be received from four or more navigation satellites 300A or the like (step ST1 in FIG. 6), and determines the reference position (step ST2). Subsequently, the drone 1 includes satellite positioning (step ST3A), position estimation based on the output of the inertial sensor (step ST3B), position estimation based on captured image data and a three-dimensional map (step ST3C), and a laser scanner and three-dimensional. Position estimation based on the map (step ST3D) is performed. Subsequently, the drone 1 performs weighting processing of the estimated position calculated in the above-described steps ST3A to ST3D (step ST4), and determines the current position (step ST5). In the weighting process in step ST4, weighting evaluation by an inertial sensor is also performed. The drone 1 determines whether or not the mission is finished (step ST6). If the mission is not finished, steps ST3A to ST3D and steps ST4 to ST6 are repeated.

なお、本発明は上述の各実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   Note that the present invention is not limited to the above-described embodiments, and modifications, improvements, and the like within a scope in which the object of the present invention can be achieved are included in the present invention.

1 無人機
2 筐体
6 モーター
20 慣性センサー
22 アンテナ
1 Unmanned Aircraft 2 Housing 6 Motor 20 Inertial Sensor 22 Antenna

Claims (7)

プロペラの回転によって推力を得る無人飛行体であって、
航法衛星からの測位用電波を使用して現在位置を測位して測位位置を算出する測位手段と、
前記測位用電波を使用しない複数種類の位置推定方法によって現在位置を推定して推定位置を算出する位置推定手段と、
前記測位位置及び前記推定位置、または、複数種類の前記位置推定方法によって推定した前記推定位置において重み付けを行って、現在位置を決定する位置決定手段と、
を有する無人飛行体。
An unmanned air vehicle that obtains thrust by rotating a propeller,
A positioning means for calculating a positioning position by positioning a current position using radio waves for positioning from a navigation satellite;
Position estimation means for estimating the current position and calculating the estimated position by a plurality of types of position estimation methods that do not use the positioning radio wave;
Position determination means for performing weighting in the estimated position estimated by the positioning position and the estimated position, or a plurality of types of the position estimation methods, and determining a current position;
Unmanned aerial vehicle with.
前記位置推定手段は、
慣性センサーの出力に基づいて現在位置を推定して第一推定位置を算出する第一推定手段と、
3次元データとカメラで撮影して取得した撮影データに基づいて現在位置を推定して第二推定位置を算出する第二推定手段と、
前記3次元データとレーザースキャナーの出力に基づいて現在位置を推定して第三推定位置を算出する第三推定手段と、
のうち少なくとも一つを含む、請求項1に記載の無人飛行体。
The position estimating means includes
First estimation means for estimating a current position based on an output of an inertial sensor and calculating a first estimated position;
Second estimation means for estimating a current position based on three-dimensional data and photographing data obtained by photographing with a camera and calculating a second estimated position;
Third estimation means for estimating a current position based on the three-dimensional data and the output of the laser scanner and calculating a third estimated position;
The unmanned aerial vehicle according to claim 1, comprising at least one of:
前記位置決定手段は、前記測位用電波を受信可能な前記航法衛星の数が所定数未満の場合には、前記測位位置を使用せず、前記推定位置に基づいて現在位置を決定するように構成されている、請求項2に記載の無人飛行体。   The position determining means is configured to determine the current position based on the estimated position without using the positioning position when the number of the navigation satellites capable of receiving the positioning radio waves is less than a predetermined number. The unmanned aerial vehicle according to claim 2, wherein 前記位置決定手段は、前記複数種類の位置推定方法において推定した前記推定位置のいずれかにおいて、直前に推定した前記推定位置と許容範囲を超えた相違がある場合には、前記許容範囲を超えた前記推定位置を使用しないように構成されている、請求項2または請求項3に記載の無人飛行体。   The position determination means exceeds the allowable range when there is a difference exceeding the allowable range from the estimated position estimated immediately before in any of the estimated positions estimated in the plurality of types of position estimation methods. The unmanned aerial vehicle according to claim 2 or 3, wherein the unmanned air vehicle is configured not to use the estimated position. 前記位置決定手段は、慣性センサーの出力に基づいて、前記重み付けを行うように構成されている、
請求項1乃至請求項4のいずれかに記載の無人飛行体。
The position determining means is configured to perform the weighting based on an output of an inertial sensor.
The unmanned aerial vehicle according to any one of claims 1 to 4.
プロペラの回転によって推力を得る無人飛行体が、
航法衛星からの測位用電波を使用して現在位置を測位して測位位置を算出する測位ステップと、
前記測位用電波を使用しない複数種類の位置推定方法によって現在位置を推定して推定位置を算出する位置推定ステップと、
前記測位位置及び前記推定位置、または、複数種類の前記位置推定方法によって推定した前記推定位置において重み付けを行って、現在位置を決定する位置決定ステップと、
を実行する無人飛行方法。
An unmanned air vehicle that gains thrust by the rotation of a propeller,
A positioning step for calculating a positioning position by positioning a current position using a positioning radio wave from a navigation satellite;
A position estimation step of calculating an estimated position by estimating a current position by a plurality of types of position estimation methods that do not use the positioning radio wave; and
A position determination step of performing weighting in the estimated position estimated by the positioning position and the estimated position, or a plurality of types of the position estimation methods, and determining a current position;
Perform unmanned flight way.
プロペラの回転によって推力を得る無人飛行体を制御するコンピュータを、
航法衛星からの測位用電波を使用して現在位置を測位して測位位置を算出する測位手段、
前記測位用電波を使用しない複数種類の位置推定方法によって現在位置を推定して推定位置を算出する位置推定手段、
前記測位位置及び前記推定位置、または、複数種類の前記位置推定方法によって推定した前記推定位置において重み付けを行って、現在位置を決定する位置決定手段、
として機能させるための無人飛行プログラム。
A computer that controls an unmanned aerial vehicle that gains thrust by rotating a propeller.
Positioning means for calculating the positioning position by positioning the current position using radio waves for positioning from navigation satellites;
Position estimation means for estimating the current position and calculating an estimated position by a plurality of types of position estimation methods that do not use the positioning radio wave;
Position determining means for performing weighting in the estimated position estimated by the positioning position and the estimated position, or a plurality of types of the position estimating methods, and determining a current position;
Unmanned flight program to function as.
JP2018083306A 2018-04-24 2018-04-24 Unmanned flying object, unmanned flying method and unmanned flying program Pending JP2019191888A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018083306A JP2019191888A (en) 2018-04-24 2018-04-24 Unmanned flying object, unmanned flying method and unmanned flying program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018083306A JP2019191888A (en) 2018-04-24 2018-04-24 Unmanned flying object, unmanned flying method and unmanned flying program

Publications (1)

Publication Number Publication Date
JP2019191888A true JP2019191888A (en) 2019-10-31

Family

ID=68390430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018083306A Pending JP2019191888A (en) 2018-04-24 2018-04-24 Unmanned flying object, unmanned flying method and unmanned flying program

Country Status (1)

Country Link
JP (1) JP2019191888A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021162472A (en) * 2020-03-31 2021-10-11 西日本電信電話株式会社 Location information acquisition system, location information acquisition method, and program
JP2021162473A (en) * 2020-03-31 2021-10-11 西日本電信電話株式会社 Location information acquisition system, location information acquisition method and program
WO2023100514A1 (en) * 2021-11-30 2023-06-08 ソニーグループ株式会社 Information processing method, program, position measurement device, and position measurement system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021162472A (en) * 2020-03-31 2021-10-11 西日本電信電話株式会社 Location information acquisition system, location information acquisition method, and program
JP2021162473A (en) * 2020-03-31 2021-10-11 西日本電信電話株式会社 Location information acquisition system, location information acquisition method and program
WO2023100514A1 (en) * 2021-11-30 2023-06-08 ソニーグループ株式会社 Information processing method, program, position measurement device, and position measurement system

Similar Documents

Publication Publication Date Title
US10565732B2 (en) Sensor fusion using inertial and image sensors
EP3158293B1 (en) Sensor fusion using inertial and image sensors
EP3158417B1 (en) Sensor fusion using inertial and image sensors
García Carrillo et al. Combining stereo vision and inertial navigation system for a quad-rotor UAV
EP3158411B1 (en) Sensor fusion using inertial and image sensors
US11099030B2 (en) Attitude estimation apparatus, attitude estimation method, and observation system
JP6934116B1 (en) Control device and control method for controlling the flight of an aircraft
US20210229810A1 (en) Information processing device, flight control method, and flight control system
US20220377261A1 (en) Real-time thermal camera based odometry and navigation systems and methods
JP2017182692A (en) Autonomous Mobile Robot
JP2020091580A (en) Flight equipment control system
CN110736457A (en) An integrated navigation method based on Beidou, GPS and SINS
Goppert et al. Invariant Kalman filter application to optical flow based visual odometry for UAVs
JP2019191888A (en) Unmanned flying object, unmanned flying method and unmanned flying program
JP2019182108A (en) Unmanned flight body, unmanned flight method and unmanned flight program
WO2020062356A1 (en) Control method, control apparatus, control terminal for unmanned aerial vehicle
JP7333565B1 (en) Aircraft and method of controlling the aircraft
JP6974290B2 (en) Position estimation device, position estimation method, program, and recording medium
JP6664258B2 (en) Self-location estimation device
CN110892353A (en) Control method, control device and control terminal of unmanned aerial vehicle
JP2022161745A (en) Unmanned moving body, unmanned moving method, and unmanned moving program
JP2019039696A (en) Unmanned air vehicle and positioning method by unmanned air vehicle
CN118936449A (en) Flight navigation method, device, electronic equipment and storage medium
Holmqvist HANDHELD LIDAR ODOMETRY ESTIMATION AND MAPPING SYSTEM
WO2024232798A1 (en) A method for preparing an extrinsic calibration procedure

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20200702