[go: up one dir, main page]

JP7545290B2 - Mobile control device, ground monitoring device and system - Google Patents

Mobile control device, ground monitoring device and system Download PDF

Info

Publication number
JP7545290B2
JP7545290B2 JP2020177115A JP2020177115A JP7545290B2 JP 7545290 B2 JP7545290 B2 JP 7545290B2 JP 2020177115 A JP2020177115 A JP 2020177115A JP 2020177115 A JP2020177115 A JP 2020177115A JP 7545290 B2 JP7545290 B2 JP 7545290B2
Authority
JP
Japan
Prior art keywords
obstacle
unit
information
obstacles
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020177115A
Other languages
Japanese (ja)
Other versions
JP2022068444A (en
Inventor
健人 緒方
健二 今本
欣也 中津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020177115A priority Critical patent/JP7545290B2/en
Priority to PCT/JP2021/033053 priority patent/WO2022085325A1/en
Publication of JP2022068444A publication Critical patent/JP2022068444A/en
Application granted granted Critical
Publication of JP7545290B2 publication Critical patent/JP7545290B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64FGROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
    • B64F1/00Ground or aircraft-carrier-deck installations
    • B64F1/36Other airport installations
    • B64F1/362Installations for supplying conditioned air to parked aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/20Initiating means actuated automatically, e.g. responsive to gust detectors using radiated signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft
    • G08G5/80Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、移動体制御装置、地上監視装置及びシステムに関する。 The present invention relates to a mobile control device, a ground monitoring device and a system.

自機の周囲をセンシングしながら自動飛行するeVTOL(electric Vertical Take-Off and Landing)システムにおいて、センシングの性能が低下する環境下では安全性が低下したり、効率が低下したりすることが懸念される。 In eVTOL (electric Vertical Take-Off and Landing) systems, which fly autonomously while sensing their surroundings, there are concerns that safety and efficiency may decrease in environments where sensing performance is degraded.

eVTOLシステムの類似例として、パイロットが乗っていない飛行機とパイロットの乗っている既存の飛行機が同じ航空管制で安全に運行するためのシステムが知られている(例えば、特許文献1参照)。 A similar example of the eVTOL system is a system that allows pilotless aircraft and existing piloted aircraft to operate safely under the same air traffic control system (see, for example, Patent Document 1).

特開2020-71724号公報JP 2020-71724 A

eVTOLはコストや重量の問題があり、高性能なセンサを搭載することができない。そのため、悪天候時にはセンシング範囲が短くなることが想定される。また、周囲に複数の障害物が存在する環境では、ある障害物が死角を作り、その後ろの別の障害物を検出することができない。 Due to cost and weight issues, eVTOL cannot be equipped with high-performance sensors. As a result, the sensing range is expected to be shorter in bad weather. Also, in an environment with multiple obstacles around, one obstacle creates a blind spot, making it impossible to detect another obstacle behind it.

このような環境下では、eVTOL単体でのセンシング性能に限りがあるため、飛行速度を低下させる必要がある。しかし、バッテリー残量が限られているeVTOLは、低速飛行が続くとバッテリーが切れてしまい墜落する懸念がある。 In such an environment, the sensing performance of an eVTOL alone is limited, so the flight speed must be reduced. However, eVTOLs have limited battery power, so there is a concern that continued low-speed flight could cause the battery to run out and lead to a crash.

そこで、eVTOLが飛行する環境を地上から監視する地上監視装置を用いて周囲の障害物を検出するシステムが考えられる。地上監視装置は重量の課題はなく高性能なセンサを設置できるため、その情報をeVTOLに送信すれば、eVTOLは自動飛行が可能となる。 One possible solution is a system that uses a ground monitoring device to monitor the environment in which the eVTOL flies from the ground to detect obstacles in the vicinity. A ground monitoring device does not have weight issues and can be equipped with high-performance sensors, so if that information is transmitted to the eVTOL, the eVTOL can fly autonomously.

しかし、地上監視装置にて障害物を検出しeVTOLに送信すると通信遅れ等の遅延が生じるため、安全かつ高効率に飛行をすることは難しい。そのため、eVTOLのセンシングと地上監視装置のセンシングを適切に組み合わせる必要がある。 However, detecting obstacles using ground monitoring equipment and transmitting that information to the eVTOL will result in communication delays and other delays, making it difficult to fly safely and efficiently. For this reason, it is necessary to appropriately combine the sensing of the eVTOL and the sensing of the ground monitoring equipment.

特に、同じ障害物を地上監視装置とeVTOLが検出した場合、上記の遅延によりeVTOLのセンシング結果と地上監視装置のセンシング結果にずれが生じ、統合が難しい。 In particular, if the same obstacle is detected by a ground monitoring device and an eVTOL, the delays described above will cause a discrepancy between the sensing results of the eVTOL and the ground monitoring device, making integration difficult.

本発明の目的は、移動体で検知された障害物と地上監視装置で検知された障害物が同じ物体であるか否かを判定しないで移動体に障害物を回避させることができる移動体制御装置、地上監視装置及びシステムを提供することにある。 The object of the present invention is to provide a mobile body control device, a ground monitoring device, and a system that can allow a mobile body to avoid an obstacle without determining whether an obstacle detected by the mobile body and an obstacle detected by a ground monitoring device are the same object.

上記目的を達成するために、本発明の一例は、飛行可能な移動体に搭載される移動体制御装置であって、前記移動体の周囲の障害物を検知する第1の障害物検知部と、前記移動体の位置を取得する位置取得部と、地上監視装置が備える第2の障害物検知部によって検知された障害物の情報を示す障害物情報を受信する情報受信部と、前記第1の障害物検知部によって検知された障害物の位置、前記位置取得部によって取得された前記移動体の位置、及び前記情報受信部によって受信された障害物情報から、前記移動体の制御に用いる障害物を重複しないように決定する障害物決定部と、決定された障害物を回避するように前記移動体を制御もしくは前記移動体の操作支援を行う制御部と、を備え、前記障害物情報は、前記地上監視装置が備える前記第2の障害物検知部によって検知された障害物の位置を示す位置情報と、2つの障害物の間に視界不良領域があるかに基づき前記地上監視装置が備える前記第2の障害物検知部によって検知された障害物が分類されるグループを識別するグループIDと、を含み、前記障害物決定部は、前記地上監視装置が備える前記第2の障害物検知部によって検知された障害物のうち前記位置取得部によって取得された前記移動体の位置から閾値以下の距離の障害物を前記移動体と同定し、前記地上監視装置が備える前記第2の障害物検知部によって検知された障害物から、前記移動体と同定された障害物のグループID以外の障害物を抽出し、前記移動体が備える前記第1の障害物検知部によって検知された障害物と、前記抽出された障害物を障害物として決定する。 In order to achieve the above object, one example of the present invention is a mobile body control device mounted on a flying mobile body, the mobile body control device comprising: a first obstacle detection unit that detects obstacles around the mobile body; a position acquisition unit that acquires a position of the mobile body; an information receiving unit that receives obstacle information indicating information of an obstacle detected by a second obstacle detection unit equipped in a ground monitoring device; an obstacle determination unit that determines obstacles to be used for controlling the mobile body from the positions of the obstacles detected by the first obstacle detection unit, the position of the mobile body acquired by the position acquisition unit, and the obstacle information received by the information receiving unit, so as not to overlap; and a control unit that controls the mobile body so as to avoid the determined obstacles or provides operation support for the mobile body, and a group ID that identifies a group into which the obstacle detected by the second obstacle detection unit provided in the ground monitoring device is classified based on whether there is a poor visibility area between two obstacles, and the obstacle determination unit identifies, among the obstacles detected by the second obstacle detection unit provided in the ground monitoring device, an obstacle that is at a distance of a threshold or less from the position of the moving body acquired by the position acquisition unit as the moving body, extracts obstacles other than the group ID of the obstacle identified as the moving body from the obstacles detected by the second obstacle detection unit provided in the ground monitoring device, and determines, as obstacles, the obstacle detected by the first obstacle detection unit provided in the moving body and the extracted obstacles .

本発明によれば、移動体で検知された障害物と地上監視装置で検知された障害物が同じ物体であるか否かを判定しないで移動体に障害物を回避させることができる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 According to the present invention, a moving body can avoid an obstacle without determining whether an obstacle detected by the moving body and an obstacle detected by a ground monitoring device are the same object. Problems, configurations, and effects other than those described above will become clear from the description of the embodiments below.

実施例1によるシステムの構成図である。FIG. 1 is a configuration diagram of a system according to a first embodiment. 実施例1によるシステムが適用される想定シーンを示す図である。FIG. 1 is a diagram showing an assumed scene to which a system according to a first embodiment is applied; 実施例1による移動体制御装置を搭載した移動体(自機)が飛行体を検出する例を示す図である。1 is a diagram showing an example in which a mobile body (own aircraft) equipped with a mobile body control device according to the first embodiment detects an airborne object. FIG. 実施例1による地上監視装置が飛行体を検出する例を示す図である。1 is a diagram showing an example in which the ground monitoring device of the first embodiment detects an aircraft; 地上監視装置の検出結果をそのまま移動体へ送信した場合の課題を説明するための図である。1 is a diagram for explaining a problem that occurs when the detection results of a ground monitoring device are transmitted directly to a moving body. 実施例1の特徴を説明するための図である。FIG. 2 is a diagram for explaining features of the first embodiment. 図1に示す障害物検知部の処理を示すフローチャートである。4 is a flowchart showing a process performed by an obstacle detection unit shown in FIG. 1 . 図1に示す視界不良領域検知部の処理を示すフローチャートである。4 is a flowchart showing a process of a poor visibility area detection unit shown in FIG. 1 . 図8のS30の処理結果を示す図である。FIG. 10 is a diagram showing a processing result of S30 in FIG. 8. 図8のS35の処理結果を示す図である。FIG. 10 is a diagram showing the processing result of S35 in FIG. 8. 図8のS45の処理結果を示す図である。FIG. 10 is a diagram showing the processing result of S45 in FIG. 8. 図8のS60の処理結果を示す図である。FIG. 10 is a diagram showing a processing result of S60 in FIG. 8. 図1に示す死角障害物抽出部の処理を示すフローチャートである。4 is a flowchart showing a process of a blind spot obstacle extraction unit shown in FIG. 1 . 地上監視装置による検出例を示す図である。FIG. 13 is a diagram showing an example of detection by a ground monitoring device. 遮蔽マップを示す模式図である。FIG. 2 is a schematic diagram showing an occlusion map. 障害物をグループ化した結果を示す図である。FIG. 13 is a diagram showing a result of grouping obstacles. 図1に示す障害物決定部の処理を示すフローチャートである。4 is a flowchart showing a process of an obstacle determination unit shown in FIG. 1 . 実施例2によるシステムの構成図である。FIG. 11 is a configuration diagram of a system according to a second embodiment. 図14に示す死角障害物抽出部の処理を示すフローチャートである。15 is a flowchart showing the process of the blind spot obstacle extraction unit shown in FIG. 14 . 図14に示す障害物決定部の処理を示すフローチャートである。15 is a flowchart showing a process performed by an obstacle determining unit shown in FIG. 14 . 実施例3によるシステムの構成図である。FIG. 11 is a configuration diagram of a system according to a third embodiment. 図17に示す視界不良領域検知部の処理を示すフローチャートである。18 is a flowchart showing a process of the poor visibility area detection unit shown in FIG. 17 . 図17に示す死角障害物抽出部の処理を示すフローチャートである。18 is a flowchart showing a process of a blind spot obstacle extraction unit shown in FIG. 17 . 実施例1の変形例によるシステムの構成図である。FIG. 13 is a configuration diagram of a system according to a modified example of the first embodiment. 変形例によるシステムが適用される想定シーンを示す図である。FIG. 13 is a diagram showing an assumed scene to which a system according to a modified example is applied. 図20に示す制御部の処理を示すフローチャートである。21 is a flowchart showing a process of a control unit shown in FIG. 20 .

以下、図面を用いて、地上監視装置と移動体制御装置を含むシステムの構成及び動作について説明する。なお、各図において、同一符号は同一部分を示す。 The following describes the configuration and operation of a system including a ground monitoring device and a mobile control device with reference to the drawings. Note that the same reference numerals in each drawing indicate the same parts.

[実施例1]
図1は、実施例1によるシステムの構成図である。本実施例のシステムは、地上監視装置10と移動体制御装置200を備える。本実施例の目的は、例えば、移動体20(eVTOL等の飛行体)を制御する移動体制御装置200のセンシング性能が限定される環境下においても、安全かつ高効率な自動飛行を実現することにある。
[Example 1]
1 is a configuration diagram of a system according to embodiment 1. The system of this embodiment includes a ground monitoring device 10 and a mobile body control device 200. The purpose of this embodiment is to realize safe and highly efficient automatic flight even in an environment in which the sensing performance of the mobile body control device 200 that controls a mobile body 20 (an air vehicle such as an eVTOL) is limited, for example.

(地上監視装置)
図1に示すように、地上監視装置10は、周辺監視部101、障害物検知部102、視界不良領域検知部103、死角障害物抽出部104、障害物情報送信部105を備える。
(Ground monitoring device)
As shown in FIG. 1, the ground monitoring device 10 includes a periphery monitoring unit 101 , an obstacle detection unit 102 , a poor visibility area detection unit 103 , a blind spot obstacle extraction unit 104 , and an obstacle information transmission unit 105 .

周辺監視部101は、路上に設置され、その周囲を監視するセンサ(例えば、カメラ、LiDAR:Light Detection and Ranging等)から構成される。センサから出力される情報を示すセンサ情報sは、センサがカメラの場合は画像であり、センサがLiDARの場合は点群データである。なお、周辺監視部101は、後述する移動体20の周辺監視部201よりもセンシング性能が高い。例えばカメラであれば死角が発生しないように監視エリア内に複数台設置する、LiDARであれば波長が長い高出力が可能なものを用いる等である。 The perimeter monitoring unit 101 is configured with sensors (e.g., cameras, LiDAR (Light Detection and Ranging), etc.) that are installed on the road and monitor the surroundings. Sensor information s indicating information output from the sensor is an image if the sensor is a camera, and is point cloud data if the sensor is a LiDAR. Note that the perimeter monitoring unit 101 has higher sensing performance than the perimeter monitoring unit 201 of the mobile object 20 described below. For example, in the case of cameras, multiple cameras are installed within the monitoring area to prevent blind spots, and in the case of LiDAR, a camera capable of high output with a long wavelength is used.

障害物検知部102は、周辺監視部101から得られるセンサ情報sを処理し、所定範囲の障害物(飛行体、鳥等)を検出する。障害物検知部102には、センサ情報sが入力され、障害物検知部102は、障害物の位置(X,Y,Z)を示す位置情報p_i(i=1,2,…)を出力する。なお、本実施例では、障害物の位置(X,Y,Z)が複数個存在する場合に、障害物検知部102はそれぞれの障害物の位置情報にID=i(i=1,2,…)を付与して出力している。 The obstacle detection unit 102 processes the sensor information s obtained from the perimeter monitoring unit 101 and detects obstacles (flying objects, birds, etc.) within a predetermined range. The sensor information s is input to the obstacle detection unit 102, and the obstacle detection unit 102 outputs position information p_i (i=1, 2, ...) indicating the position (X, Y, Z) of the obstacle. In this embodiment, when there are multiple obstacle positions (X, Y, Z), the obstacle detection unit 102 assigns ID=i (i=1, 2, ...) to the position information of each obstacle and outputs it.

視界不良領域検知部103は、各種要因により視界不良となっている領域を検出する。例えば、視界不良領域検知部103はカメラ、雲高計等を用いて雲を検出するが、雨雲レーダ等の情報から雲の情報(位置、形状、範囲等の情報)を取得してもよい。視界不良領域検知部103には、センサ又は雨雲レーダ等からのセンサ情報が入力され、視界不良領域検知部103は、視界不良となる領域の位置情報p_cloudを出力する。 The poor visibility area detection unit 103 detects areas where visibility is poor due to various factors. For example, the poor visibility area detection unit 103 detects clouds using a camera, ceilometer, etc., but may also obtain cloud information (position, shape, range, etc.) from information from a raincloud radar, etc. The poor visibility area detection unit 103 receives sensor information from a sensor or raincloud radar, etc., and outputs position information p_cloud of the area where visibility is poor.

死角障害物抽出部104は、障害物の位置情報p_iと視界不良となる領域の位置情報p_cloudから、お互いに死角の位置関係にある障害物をグルーピングする。詳細は後述するが、死角障害物抽出部104は、例えば、障害物をグループ1(雲の上)、グループ2(雲の下)、グループ3(雲の中A)、グループ4(雲の中B)に分類する。死角障害物抽出部104には、障害物検知部102から障害物の位置情報p_i、視界不良領域の位置情報p_cloudが入力され、死角障害物抽出部104は、障害物の位置情報p_iと、死角の位置関係にある障害物のグループを示すグループ情報gid_i(i=1,2,…)を出力する。 The blind spot obstacle extraction unit 104 groups obstacles that are in a blind spot positional relationship with each other based on the obstacle position information p_i and the position information p_cloud of the poor visibility area. Details will be described later, but the blind spot obstacle extraction unit 104 classifies obstacles into group 1 (above clouds), group 2 (below clouds), group 3 (inside clouds A), and group 4 (inside clouds B). The blind spot obstacle extraction unit 104 receives the obstacle position information p_i and the poor visibility area position information p_cloud from the obstacle detection unit 102, and outputs the obstacle position information p_i and group information gid_i (i=1, 2, ...) that indicates the group of obstacles that are in a blind spot positional relationship.

障害物情報送信部105は、障害物の位置情報p_iとグループ情報gid_iを含む障害物情報を送信する。障害物情報送信部105には、死角障害物抽出部104から障害物の位置情報p_iと障害物のグループ情報gid_iが入力され、障害物情報送信部105は、障害物の位置情報p_iとグループ情報gid_iを含む障害物情報を出力する。 The obstacle information transmission unit 105 transmits obstacle information including the obstacle position information p_i and group information gid_i. The obstacle position information p_i and the obstacle group information gid_i are input to the obstacle information transmission unit 105 from the blind spot obstacle extraction unit 104, and the obstacle information transmission unit 105 outputs the obstacle information including the obstacle position information p_i and group information gid_i.

なお、障害物検知部102、視界不良領域検知部103、死角障害物抽出部104は、例えば、プロセッサとメモリが協働することによりソフトウェア的に実現されてもよいし、FPGA等の集積回路によりハードウェア的に実現されてもよい。障害物情報送信部105は、無線通信機器から構成される。 The obstacle detection unit 102, the poor visibility area detection unit 103, and the blind spot obstacle extraction unit 104 may be realized, for example, in software by a processor and a memory working together, or in hardware by an integrated circuit such as an FPGA. The obstacle information transmission unit 105 is composed of a wireless communication device.

(移動体制御装置)
図1に示すように、移動体制御装置200は、周辺監視部201、障害物検知部202、位置取得部203、障害物情報受信部204、障害物決定部205、制御部206を備える。移動体制御装置200は、移動体20に搭載される。
(Mobile control device)
1 , the mobile object control device 200 includes a periphery monitoring unit 201, an obstacle detection unit 202, a position acquisition unit 203, an obstacle information receiving unit 204, an obstacle determination unit 205, and a control unit 206. The mobile object control device 200 is mounted on the mobile object 20.

周辺監視部201は、移動体20に設置され、その周囲を監視するセンサ(例えば、カメラ、LiDAR等)から構成される。センサから出力される情報を示すセンサ情報sは、センサがカメラの場合は画像であり、センサがLiDARの場合は点群データである。 The periphery monitoring unit 201 is installed on the mobile body 20 and is composed of sensors (e.g., cameras, LiDAR, etc.) that monitor the surroundings. The sensor information s indicating the information output from the sensor is an image if the sensor is a camera, and is point cloud data if the sensor is a LiDAR.

障害物検知部202は、周辺監視部201から得られるセンサ情報を処理し、周囲の障害物(飛行体、鳥等)を検出する。障害物検知部202には、センサ情報(画像、点群データ等)が入力され、障害物検知部202は、障害物の位置情報p_n(n=1,2,…)を出力する。なお、本実施例では、障害物の位置が複数個存在する場合に、障害物検知部202はそれぞれの障害物の位置情報にID=n(n=1,2,…)を付与して出力している。 The obstacle detection unit 202 processes sensor information obtained from the periphery monitoring unit 201 and detects surrounding obstacles (aircraft, birds, etc.). Sensor information (images, point cloud data, etc.) is input to the obstacle detection unit 202, and the obstacle detection unit 202 outputs obstacle position information p_n (n=1, 2, ...). In this embodiment, when there are multiple obstacle positions, the obstacle detection unit 202 assigns ID=n (n=1, 2, ...) to the position information of each obstacle and outputs it.

位置取得部203は、GPS(Global Positioning System)などのGNSS(Global Navigation Satellite System)を用いて移動体20の位置を取得する。位置取得部203には、GPS信号(GNSS信号)が入力され、位置取得部203は、移動体20の位置情報p_self(緯度・経度・高度、もしくはある基準点からのX,Y,Z座標)を出力する。 The position acquisition unit 203 acquires the position of the mobile unit 20 using a global navigation satellite system (GNSS) such as a global positioning system (GPS). A GPS signal (GNSS signal) is input to the position acquisition unit 203, and the position acquisition unit 203 outputs position information p_self (latitude, longitude, altitude, or X, Y, Z coordinates from a certain reference point) of the mobile unit 20.

障害物情報受信部204は、地上監視装置10から送信される障害物情報(障害物の位置情報p_iとグループ情報gid_i)を受信する。障害物情報受信部204は、地上監視装置10によって検出された障害物の位置情報p_iおよびグループ情報gid_iを出力する。 The obstacle information receiving unit 204 receives obstacle information (obstacle position information p_i and group information gid_i) transmitted from the ground monitoring device 10. The obstacle information receiving unit 204 outputs the obstacle position information p_i and group information gid_i detected by the ground monitoring device 10.

障害物決定部205は、移動体20の位置情報p_selfと受信した障害物情報を比較し、死角となる障害物を抽出(決定)する。具体的には、障害物決定部205は、移動体位置が含まれる障害物のグループを抽出し、そのグループ以外の障害物を抽出する。 The obstacle determination unit 205 compares the position information p_self of the moving body 20 with the received obstacle information, and extracts (determines) obstacles that are in blind spots. Specifically, the obstacle determination unit 205 extracts a group of obstacles that includes the moving body position, and extracts obstacles outside of that group.

例えば、グループA:雲の上、グループB:雲の下、グループC:雲の中、の3グループで障害物情報が送られてきたときに、移動体20の位置情報p_selfを用いて、自分がどのグループに属するかを障害物決定部205は判定する。地上監視装置10から見れば自機は障害物として検知されているはずなので、障害物情報(障害物の位置情報)の中の1つは自機の位置情報である。そのため、自機の位置に最も近い障害物を見つけ、その障害物が属するグループがわかれば、自機が属するグループは特定できる。 For example, when obstacle information is sent for three groups, Group A: above the clouds, Group B: below the clouds, and Group C: in the clouds, the obstacle determination unit 205 uses the position information p_self of the moving body 20 to determine which group it belongs to. Since the own aircraft should be detected as an obstacle from the viewpoint of the ground monitoring device 10, one of the obstacle information (obstacle position information) is the position information of the own aircraft. Therefore, if the obstacle closest to the position of the own aircraft is found and the group to which that obstacle belongs is identified, the group to which the own aircraft belongs can be identified.

障害物決定部205には、障害物検知部202が検知した障害物の位置情報p_nと受信した障害物情報(障害物の位置情報p_iとグループ情報gid_i)と移動体20の位置情報p_selfが入力され、障害物決定部205は、障害物の位置情報p_nと、死角となる障害物の位置情報p_blind_k(k=1,2,…)を出力する。 The obstacle determination unit 205 receives the position information p_n of the obstacle detected by the obstacle detection unit 202, the received obstacle information (obstacle position information p_i and group information gid_i) and the position information p_self of the moving body 20, and outputs the obstacle position information p_n and the position information p_blind_k (k=1, 2, ...) of obstacles in blind spots.

制御部206は、障害物検知部202が検知した障害物の位置情報p_nと、死角の障害物の位置情報p_blind_kを用いて、障害物との衝突を回避しながら目的地に向かうための飛行経路を生成し、その制御を実現するアクチュエータへの指令値を算出する。制御部206には、障害物検知部202が検知した障害物の位置情報p_n、死角の障害物の位置情報p_blind_k、移動体の位置情報p_selfが入力され、アクチュエータへの制御指令値が出力される。 The control unit 206 uses the position information p_n of the obstacle detected by the obstacle detection unit 202 and the position information p_blind_k of the obstacle in the blind spot to generate a flight path to the destination while avoiding collision with the obstacle, and calculates a command value to the actuator that realizes the control. The control unit 206 receives the position information p_n of the obstacle detected by the obstacle detection unit 202, the position information p_blind_k of the obstacle in the blind spot, and the position information p_self of the moving body, and outputs a control command value to the actuator.

なお、障害物検知部202、位置取得部203、障害物情報受信部204、障害物決定部205、制御部206は、例えば、プロセッサとメモリが協働することによりソフトウェア的に実現されてもよいし、FPGA等の集積回路によりハードウェア的に実現されてもよい。障害物情報受信部204は、無線通信機器から構成される。 The obstacle detection unit 202, the position acquisition unit 203, the obstacle information receiving unit 204, the obstacle determination unit 205, and the control unit 206 may be realized, for example, in software by cooperation between a processor and a memory, or in hardware by an integrated circuit such as an FPGA. The obstacle information receiving unit 204 is composed of a wireless communication device.

(想定シーン)
図2は、実施例1によるシステムが適用される想定シーンを示す図である。移動体20(自機)と飛行体A(30A)は、雲40の上に位置する。飛行体B(30)は、雲の中に位置する。飛行体C(30C)と飛行体D(30D)は、雲の下に位置する。
(Assumed scene)
2 is a diagram showing an assumed scene to which the system according to the embodiment 1 is applied. A moving body 20 (own aircraft) and an aircraft A (30A) are located above clouds 40. An aircraft B (30) is located inside the clouds. An aircraft C (30C) and an aircraft D (30D) are located below the clouds.

(自機による検出例)
図3は、実施例1による移動体制御装置200を搭載した移動体20(自機)が飛行体を検出する例を示す図である。
(Example of detection by own device)
FIG. 3 is a diagram showing an example in which a moving body 20 (own machine) equipped with the moving body control device 200 according to the first embodiment detects an air vehicle.

雲40の上に位置する移動体20(自機)は、同じく雲40の上に位置する飛行体A(30A)を検出できる。なお、図3では、移動体20(自機)が検出可能な飛行体を実線で囲んでいる(以下、同じ)。 The moving body 20 (own aircraft) located above the cloud 40 can detect the flying body A (30A) also located above the cloud 40. Note that in FIG. 3, the flying bodies that the moving body 20 (own aircraft) can detect are surrounded by solid lines (same below).

しかし、移動体20(自機)は、センシング性能が低いため、雲40の中に位置する飛行体B(30)を検出できない。また、移動体20(自機)は、雲40の反対側(雲40の下)に位置する飛行体C(30C)及び飛行体D(30D)を検出できない。 However, due to poor sensing performance, the moving body 20 (own aircraft) cannot detect the flying object B (30) located inside the cloud 40. In addition, the moving body 20 (own aircraft) cannot detect the flying object C (30C) and the flying object D (30D) located on the opposite side of the cloud 40 (below the cloud 40).

(地上監視装置による検出例)
図4は、実施例1による地上監視装置10が飛行体を検出する例を示す図である。
(Example of detection by ground monitoring equipment)
FIG. 4 is a diagram showing an example in which the ground monitoring device 10 according to the first embodiment detects an aircraft.

地上監視装置10は、センシング性能が高いため、図4のすべての飛行体を検知できる。すなわち、地上監視装置10は、移動体20、飛行体A(30A)、飛行体B(30)、飛行体C(30C)及び飛行体D(30D)を検出する。なお、図4では、地上監視装置10が検出可能な飛行体を点線で囲んでいる(以下、同じ)。 The ground monitoring device 10 has high sensing performance and can detect all the flying objects in Figure 4. That is, the ground monitoring device 10 detects the moving object 20, flying object A (30A), flying object B (30), flying object C (30C), and flying object D (30D). In Figure 4, the flying objects that the ground monitoring device 10 can detect are surrounded by dotted lines (same below).

(課題)
図5は、地上監視装置10の検出結果をそのまま移動体20へ送信した場合の課題を説明するための図である。
(assignment)
FIG. 5 is a diagram for explaining a problem that occurs when the detection result of the ground monitoring device 10 is transmitted to the moving body 20 as is.

飛行体A(30A)は、移動体20と地上監視装置10の両方で検出される。しかし、通信の遅延やセンシングの誤差により、移動体20によって検出される飛行体A(30A)の位置情報と地上監視装置10によって検出される飛行体A(30A)の位置情報は異なる。 Aircraft A (30A) is detected by both the moving body 20 and the ground monitoring device 10. However, due to communication delays and sensing errors, the position information of aircraft A (30A) detected by the moving body 20 differs from the position information of aircraft A (30A) detected by the ground monitoring device 10.

そのため、移動体20は、自機によって検出された物体(飛行体A)と地上監視装置10によって検出された物体(飛行体A)が「本当に同じ物体なのか、別の物体なのか」を見極める処理を行う必要がある。 Therefore, the mobile unit 20 needs to perform a process to determine whether the object (flying unit A) detected by the mobile unit itself and the object (flying unit A) detected by the ground monitoring device 10 are "really the same object or different objects."

一方、飛行体B(30)、飛行体C(30C)及び飛行体D(30D)は、地上監視装置10のみで検出される。通信の遅延の影響はあるものの移動体20はそれらの飛行体を検出できないので、それらの位置情報を移動体20の制御に利用することは有効である。 On the other hand, flying object B (30), flying object C (30C), and flying object D (30D) are detected only by the ground monitoring device 10. Although there is an effect of communication delay, the moving object 20 cannot detect these flying objects, so it is effective to use their position information for controlling the moving object 20.

(本実施例の特徴)
図6は、実施例1の特徴を説明するための図である。
(Features of this embodiment)
FIG. 6 is a diagram for explaining features of the first embodiment.

前述したように、地上監視装置10の検出結果を移動体20へ送信する際に、通信遅延が生じる。そのため、地上監視装置10で検出した情報をすべて移動体20へ送信すると、地上監視装置10でも移動体20でも検出できている障害物の情報を移動体20が受信した場合、移動体20の側で位置ずれが生じる。 As mentioned above, communication delays occur when the detection results of the ground monitoring device 10 are transmitted to the mobile body 20. Therefore, if all information detected by the ground monitoring device 10 is transmitted to the mobile body 20, a positional shift will occur on the mobile body 20 side if the mobile body 20 receives information about an obstacle that has been detected by both the ground monitoring device 10 and the mobile body 20.

しかし、その2つの物体が同じ物体なのか、異なる物体なのかを判断することは難しい。本実施例では、地上監視装置10は、死角の関係にある障害物(物体)の位置情報にグループ情報を付与して送信し、移動体20は、自機が含まれていないグループの障害物情報を参照することにより、移動体20から見えない障害物の位置情報を取得することができる。 However, it is difficult to determine whether the two objects are the same object or different objects. In this embodiment, the ground monitoring device 10 transmits position information of obstacles (objects) in a blind spot together with group information, and the mobile unit 20 can obtain position information of obstacles that are not visible to the mobile unit 20 by referring to the obstacle information of groups that do not include the mobile unit.

(障害物検知部)
図7は、図1に示す障害物検知部102、202の処理を示すフローチャートである。
(Obstacle detection section)
FIG. 7 is a flowchart showing the process of the obstacle detection units 102 and 202 shown in FIG.

S10:点群取得
障害物検知部102、202は、それぞれ周辺監視部101、201のLiDARから点群(X,Y,Z)を取得する。
S10: Obtaining Point Cloud The obstacle detection units 102 and 202 obtain a point cloud (X, Y, Z) from the LiDAR of the perimeter monitoring units 101 and 201, respectively.

S15:3Dグリッド分割処理
障害物検知部102、202は、検出エリアを所定サイズの3Dグリッドに分割し、各グリッド内に所定数以上のLiDAR点が含まれるグリッドを物体存在グリッドとして抽出する。
S15: 3D Grid Division Processing The obstacle detection units 102, 202 divide the detection area into 3D grids of a predetermined size, and extract grids that include a predetermined number or more of LiDAR points as object presence grids.

S20:グルーピング処理
障害物検知部102、202は、抽出したグリッドに隣接する物体存在グリッドがあれば、同一物体としてグルーピングを行う。このグルーピング処理をすべての物体存在グリッドに対して実施する。
S20: Grouping Process If there is an object presence grid adjacent to the extracted grid, the obstacle detection units 102 and 202 group them as the same object. This grouping process is performed for all object presence grids.

S25:物体抽出・追跡処理
障害物検知部102、202は、グルーピングされたグリッドを物体候補とし、グリッドの重心位置を算出する。障害物検知部102、202は、今回の検出結果と、過去の物体候補の検出結果を用いて追跡処理を行い、一定回数以上連続して検出されている物体候補を物体として確定する。障害物検知部102、202は、ここで検出された物体を障害物として出力する。出力する位置は、グリッドの重心位置とする。
S25: Object extraction and tracking process The obstacle detection unit 102, 202 regards the grouped grids as object candidates and calculates the center of gravity of the grids. The obstacle detection unit 102, 202 performs tracking process using the current detection result and past detection results of object candidates, and determines object candidates that have been detected a certain number of times or more as objects. The obstacle detection unit 102, 202 outputs the object detected here as an obstacle. The output position is the center of gravity of the grid.

(視界不良領域検知部)
図8、図9A~9Dを用いて視界不良領域検知部103の処理を説明する。図8は、図1に示す視界不良領域検知部103の処理を示すフローチャートである。図9A~9Dは、図8のS30、S35、S45、S60の処理結果をそれぞれ示す図である。
(Poor visibility area detection unit)
The processing of the poor visibility area detection unit 103 will be described with reference to Fig. 8 and Figs. 9A to 9D. Fig. 8 is a flowchart showing the processing of the poor visibility area detection unit 103 shown in Fig. 1. Figs. 9A to 9D are diagrams showing the processing results of S30, S35, S45, and S60 in Fig. 8, respectively.

S30:初期化
視界不良領域検知部103は、監視エリア(検出エリア)内の3Dマップ(以下、遮蔽マップと呼ぶ)を初期化する。初期化により遮蔽マップ上の物体の位置、形状等の情報は消去される(図9A)。
S30: Initialization The poor visibility area detection unit 103 initializes a 3D map (hereinafter, referred to as an occlusion map) within the monitoring area (detection area). By the initialization, information such as the position and shape of objects on the occlusion map is erased (FIG. 9A).

S35:地形情報の配置
視界不良領域検知部103は、山や建物等の地形を示す地形情報を3D地図(データベース)から取得し、地形を遮蔽マップに配置する(図9B)。
S35: Arrangement of Topographical Information The poor visibility area detection unit 103 acquires topographical information indicating topographical features such as mountains and buildings from a 3D map (database), and arranges the topographical features on the occlusion map ( FIG. 9B ).

S40:点群情報の取得
視界不良領域検知部103は、周辺監視部101からLiDARの点群情報(点群データ)を取得する。
S40: Acquisition of Point Cloud Information The poor visibility area detection unit 103 acquires LiDAR point cloud information (point cloud data) from the periphery monitoring unit 101.

S45:点群の配置
視界不良領域検知部103は、LiDARの点群を遮蔽マップへ配置する(図9C)。
S45: Arranging Point Cloud The poor visibility area detection unit 103 arranges the LiDAR point cloud on the occlusion map ( FIG. 9C ).

S50:センサ情報の取得
視界不良領域検知部103は、地上監視装置10に接続されている雨雲レーダ、雲高計もしくはカメラ、又は気象衛星等からセンサ情報を取得する。
S50: Acquire Sensor Information The poor visibility area detection unit 103 acquires sensor information from a raincloud radar, a ceilometer or a camera connected to the ground monitoring device 10, or a meteorological satellite, etc.

S55:雲の検出
視界不良領域検知部103は、センサ情報を解析し、雲を検出する。例えば、視界不良領域検知部103は、雨雲レーダの情報を用いて雲を特定したり、カメラや衛星の画像を解析し、雲を検出したりする。雲までの高さは雲高計などで計測される。画像を用いた雲の検出には、深層学習を用いたセマンティックセグメンテーションのようなアプローチによる検出などがある。衛星画像を用いる場合は地表面との反射率の違いを用いた検出等が用いられる。
S55: Cloud detection The poor visibility area detection unit 103 analyzes sensor information and detects clouds. For example, the poor visibility area detection unit 103 identifies clouds using information from a rain cloud radar, or detects clouds by analyzing images from a camera or satellite. The height of the clouds is measured using a ceilometer or the like. Cloud detection using images includes detection using an approach such as semantic segmentation using deep learning. When satellite images are used, detection using the difference in reflectance with the ground surface is used.

S60:雲の配置
視界不良領域検知部103は、例えば、カメラ画像の検出結果と、雲高計で計測した高さ情報等から、遮蔽マップ内に雲を配置する(図9D)。
S60: Cloud Placement The poor visibility area detection unit 103 places clouds in the occlusion map based on, for example, the detection results of the camera image and height information measured by a ceilometer (FIG. 9D).

(死角障害物抽出部)
図10、11、12A、12Bを用いて死角障害物抽出部104の処理を説明する。図10は、図1に示す死角障害物抽出部104の処理を示すフローチャートである。図11は、地上監視装置10による検出例を示す図である。図12Aは、遮蔽マップを示す模式図である。図12Bは、障害物をグループ化した結果を示す図である。
(Blind spot obstacle extraction section)
The processing of the blind spot obstacle extraction unit 104 will be described with reference to Figures 10, 11, 12A, and 12B. Figure 10 is a flowchart showing the processing of the blind spot obstacle extraction unit 104 shown in Figure 1. Figure 11 is a diagram showing an example of detection by the ground monitoring device 10. Figure 12A is a schematic diagram showing an occlusion map. Figure 12B is a diagram showing the result of grouping obstacles.

S70:位置情報の取得
死角障害物抽出部104は、地上監視装置10によって検出された障害物の位置情報(X,Y,Z)を取得する。図11の例では、ID=1~5に対応する障害物が地上監視装置10によって検出されている。
S70: Obtaining Position Information The blind spot obstacle extraction unit 104 obtains position information (X, Y, Z) of obstacles detected by the ground monitoring device 10. In the example of Fig. 11, obstacles corresponding to ID=1 to 5 are detected by the ground monitoring device 10.

S75:障害物の選択
障害物が複数ある場合、死角障害物抽出部104は障害物を任意に2つ選択する。
S75: Selection of Obstacles If there are multiple obstacles, the blind spot obstacle extraction unit 104 arbitrarily selects two obstacles.

S80:遮蔽マップへ投影
死角障害物抽出部104は、S15で選択した2つの障害物の位置を遮蔽マップ内に投影(配置)する。
S80: Project onto occlusion map The blind spot obstacle extraction unit 104 projects (places) the positions of the two obstacles selected in S15 onto the occlusion map.

S85:2点間に遮蔽物あるか否か
死角障害物抽出部104は、遮蔽マップ上で2点(2つの障害物の位置)を結ぶ線を求め、線上を探索して間に遮蔽物が存在するかを確認する。図12Aでは、例えば、ID=1とID=2に対応する障害物の間に遮蔽物はなく、ID=1とID=3に対応する障害物の間には遮蔽物としての雲40がある。なお、図12Aでは、2点間に遮蔽物がない線に丸印を付し、2点間に遮蔽物がある線にX印を付している。
S85: Whether there is an obstruction between two points The blind spot obstacle extraction unit 104 obtains a line connecting two points (positions of two obstacles) on the obstruction map, and searches the line to confirm whether there is an obstruction between them. In Fig. 12A, for example, there is no obstruction between the obstacles corresponding to ID=1 and ID=2, and there is a cloud 40 as an obstruction between the obstacles corresponding to ID=1 and ID=3. In Fig. 12A, a circle is added to the line between two points where there is no obstruction, and an X is added to the line between two points where there is an obstruction.

S90:異なるグループIDの付与
2点間に遮蔽物がある場合、死角障害物抽出部104は異なるグループIDを2つの障害物に付与する。図12Bでは、例えば、ID=1とID=3に対応する障害物にそれぞれGroup=1、Group=2が付与されている。
S90: Assigning Different Group IDs When there is an obstruction between the two points, the blind spot obstacle extraction unit 104 assigns different group IDs to the two obstacles. In Fig. 12B, for example, Group=1 and Group=2 are assigned to the obstacles corresponding to ID=1 and ID=3, respectively.

S95:同じグループIDの付与
2点間に遮蔽物がない場合、死角障害物抽出部104は同じグループIDを2つの障害物に付与する。図12Bでは、例えば、ID=1とID=2に対応する障害物にGroup=1が付与されている。
S95: Assigning the same group ID If there is no obstruction between the two points, the blind spot obstacle extraction unit 104 assigns the same group ID to the two obstacles. In Fig. 12B, for example, Group=1 is assigned to the obstacles corresponding to ID=1 and ID=2.

S100:ループの終了条件
死角障害物抽出部104は、すべての障害物の組み合わせについて遮蔽物の有無を確認する。
S100: Condition for Ending Loop The blind spot obstacle extraction unit 104 checks the presence or absence of an obstruction for all combinations of obstacles.

S105:グループの作成
死角障害物抽出部104は、すべての障害物の組み合わせについて遮蔽物の有無を確認した場合、図12Bに示すようにグループを作成する。例えば、死角障害物抽出部104は、グループごとに障害物の色を変えてディスプレイへ表示したり、同じグループに含まれる障害物を囲む線を表示したりしてもよい。なお、移動体制御装置200は、S90又はS95で付与されたグループIDにより障害物のグループを識別できる。
S105: Creating a Group When the blind spot obstacle extraction unit 104 has confirmed the presence or absence of an obstruction for all combinations of obstacles, it creates a group as shown in Fig. 12B. For example, the blind spot obstacle extraction unit 104 may display the obstacles on the display in different colors for each group, or may display a line surrounding the obstacles included in the same group. The mobile object control device 200 can identify the group of obstacles by the group ID assigned in S90 or S95.

(障害物決定部)
図13は、図1に示す障害物決定部205の処理を示すフローチャートである。
(Obstacle Determining Unit)
FIG. 13 is a flowchart showing the process of the obstacle determining unit 205 shown in FIG.

S110:自機の位置情報の取得
障害物決定部205は、位置取得部203から自機位置(X,Y,Z)を示す位置情報を取得する。
S110: Acquisition of aircraft position information The obstacle determination unit 205 acquires, from the position acquisition unit 203, position information indicating the aircraft position (X, Y, Z).

S115:障害物情報の取得
障害物決定部205は、障害物情報受信部204で受信された障害物情報から障害物の位置情報(X[i], Y[i], Z[i])とグループ情報としてのグループID(Group[i])を取得する。なお、障害物の位置情報(X[i], Y[i], Z[i])は図1のp_iに相当し、グループID (Group[i])は図1のgid_iに相当する。
S115: Obtaining Obstacle Information The obstacle determination unit 205 obtains obstacle position information (X[i], Y[i], Z[i]) and a group ID (Group[i]) as group information from the obstacle information received by the obstacle information receiving unit 204. Note that the obstacle position information (X[i], Y[i], Z[i]) corresponds to p_i in Fig. 1, and the group ID (Group[i]) corresponds to gid_i in Fig. 1.

S120:自機に相当する障害物の抽出
障害物決定部205は、移動体20(自機)に最も近い位置情報に対応する障害物i_nearを抽出する。前述したように、地上監視装置10から見れば移動体20(自機)は障害物として検知されているはずだからである。
S120: Extraction of Obstacle Corresponding to Own Aircraft The obstacle determination unit 205 extracts an obstacle i_near corresponding to the position information closest to the moving object 20 (own aircraft). As described above, this is because the moving object 20 (own aircraft) should be detected as an obstacle from the viewpoint of the ground monitoring device 10.

S125:分岐条件
障害物決定部205は、移動体20(自機)と障害物i_nearの距離Lが閾値L1以下であるか否かを判定する。障害物決定部205は、距離Lが閾値L1以下の場合、S130へ処理を進め、距離Lが閾値L1を超える場合、S140へ処理を進める。
S125: Branching Condition The obstacle determination unit 205 determines whether the distance L between the moving body 20 (own machine) and the obstacle i_near is equal to or less than a threshold L1. If the distance L is equal to or less than the threshold L1, the obstacle determination unit 205 advances the process to S130, and if the distance L exceeds the threshold L1, the obstacle determination unit 205 advances the process to S140.

S130:グループIDの取得
最も近い障害物との距離Lが閾値L1以下のため、障害物i_nearは移動体20(自機)と同定できる。障害物決定部205は、障害物情報から障害物i_nearに対応するグループID(Group[i_near])を取得する。
S130: Obtaining a group ID Since the distance L to the nearest obstacle is equal to or less than the threshold L1, the obstacle i_near can be identified as the moving body 20 (own device). The obstacle determination unit 205 obtains a group ID (Group[i_near]) corresponding to the obstacle i_near from the obstacle information.

S135:自機と異なるグループIDの障害物の抽出
障害物決定部205は、グループID(Group[i_near])以外のグループIDに対応する障害物の位置情報を障害物情報から抽出する。
S135: Extraction of Obstacles with Group IDs Different from Own Vehicle's Group ID The obstacle determination unit 205 extracts, from the obstacle information, position information of obstacles corresponding to group IDs other than the group ID (Group[i_near]).

S140:すべての障害物の抽出
最も近い障害物との距離Lが閾値L1を超えるため、障害物i_nearは移動体20(自機)と同定できない。障害物決定部205は、グループIDに関わらずすべての障害物の位置情報を障害物情報から抽出する。
S140: Extraction of all obstacles Because the distance L to the nearest obstacle exceeds the threshold L1, the obstacle i_near cannot be identified as the moving body 20 (own device). The obstacle determination unit 205 extracts the position information of all obstacles from the obstacle information, regardless of the group ID.

S145:障害物の統合
障害物決定部205は、移動体20(自機)で検知された周囲の障害物情報と、S135又はS140で抽出された障害物情報を統合し、統合された障害物情報を制御部206に送信するテーブルに登録する。
S145: Integration of Obstacles The obstacle determination unit 205 integrates the surrounding obstacle information detected by the moving body 20 (host device) with the obstacle information extracted in S135 or S140, and registers the integrated obstacle information in a table to be transmitted to the control unit 206.

本実施例の特徴は、以下のようにまとめることもできる。 The features of this embodiment can be summarized as follows:

<移動体制御装置>
障害物検知部202(第1の障害物検知部)は、飛行可能な移動体20の周囲の障害物を検知する。位置取得部203は、移動体20の位置を取得する。障害物情報受信部204(情報受信部)は、地上監視装置10によって検知された障害物の情報を示す障害物情報を受信する。障害物決定部205は、障害物検知部202によって検知された障害物の位置、位置取得部203によって取得された移動体20の位置、及び障害物情報受信部204によって受信された障害物情報から、移動体20の制御に用いる障害物を重複しないように決定する。制御部206は、決定された障害物を回避するように移動体20を制御もしくは移動体20の操作支援を行う。これにより、移動体で検知された障害物と地上監視装置で検知された障害物が同じ物体であるか否かを判定しないで移動体に障害物を回避させることができる。
<Mobile object control device>
The obstacle detection unit 202 (first obstacle detection unit) detects obstacles around the flying mobile body 20. The position acquisition unit 203 acquires the position of the mobile body 20. The obstacle information receiving unit 204 (information receiving unit) receives obstacle information indicating information of the obstacle detected by the ground monitoring device 10. The obstacle determination unit 205 determines obstacles to be used for controlling the mobile body 20 from the positions of the obstacles detected by the obstacle detection unit 202, the position of the mobile body 20 acquired by the position acquisition unit 203, and the obstacle information received by the obstacle information receiving unit 204 so as not to overlap. The control unit 206 controls the mobile body 20 or assists in the operation of the mobile body 20 so as to avoid the determined obstacle. This makes it possible to cause the mobile body to avoid the obstacle without determining whether the obstacle detected by the mobile body and the obstacle detected by the ground monitoring device are the same object.

詳細には、障害物情報は、地上監視装置10によって検知された障害物の位置を示す位置情報と、視界不良領域との位置関係に基づき分類された障害物のグループを示すグループ情報を含む。障害物決定部205は、障害物検知部202(第1の障害物検知部)によって検知された障害物と、地上監視装置10によって検知され、かつ移動体20が属さないグループの障害物を障害物として決定する。これにより、移動体制御装置200の側で死角の位置にある障害物を特定できる。 In detail, the obstacle information includes position information indicating the position of the obstacle detected by the ground monitoring device 10, and group information indicating the group of obstacles classified based on their positional relationship with the poor visibility area. The obstacle determination unit 205 determines, as obstacles, obstacles detected by the obstacle detection unit 202 (first obstacle detection unit) and obstacles detected by the ground monitoring device 10 and belonging to a group to which the mobile body 20 does not belong. This allows the mobile body control device 200 to identify obstacles that are in a blind spot.

<地上監視装置>
障害物検知部102(第2の障害物検知部)は、移動体20の飛行経路を含む所定空間内の障害物又は所定空間内に侵入する障害物を検知する。視界不良領域検知部103は、視界不良領域を検知する。死角障害物抽出部104は、視界不良領域との位置関係に基づき、障害物検知部102によって検知された障害物から死角の関係にある障害物を抽出してグループに分類する。障害物情報送信部105(情報送信部)は、障害物検知部102によって検知された障害物の位置を示す位置情報と、グループを示すグループ情報を含む障害物情報を送信する。これにより、死角の関係にある障害物をグループ化することができる。
<Ground monitoring equipment>
The obstacle detection unit 102 (second obstacle detection unit) detects obstacles in a predetermined space including the flight path of the moving body 20 or obstacles entering the predetermined space. The poor visibility area detection unit 103 detects poor visibility areas. The blind spot obstacle extraction unit 104 extracts obstacles in a blind spot relationship from the obstacles detected by the obstacle detection unit 102 based on their positional relationship with the poor visibility area, and classifies them into groups. The obstacle information transmission unit 105 (information transmission unit) transmits obstacle information including position information indicating the position of the obstacle detected by the obstacle detection unit 102 and group information indicating the group. This makes it possible to group obstacles in a blind spot relationship.

本実施例によれば、移動体20で検知された障害物と地上監視装置10で検知された障害物が同じ物体であるか否かを判定しないで移動体20に障害物を回避させることができる。また、移動体20を制御する移動体制御装置200のセンシング性能が限定される環境下においても、安全かつ高効率な自動飛行を実現することができる。 According to this embodiment, the moving body 20 can avoid the obstacle without determining whether the obstacle detected by the moving body 20 and the obstacle detected by the ground monitoring device 10 are the same object. In addition, safe and highly efficient automatic flight can be realized even in an environment where the sensing performance of the moving body control device 200 that controls the moving body 20 is limited.

[実施例2]
図14は、実施例2によるシステムの構成図である。本実施例では、地上監視装置10は受信部106を備え、移動体制御装置200は送信部207を備える。以下、主として実施例1との相違点を説明する。
[Example 2]
14 is a configuration diagram of a system according to embodiment 2. In this embodiment, the ground monitoring device 10 includes a receiving unit 106, and the mobile object control device 200 includes a transmitting unit 207. The following mainly describes the differences from embodiment 1.

移動体制御装置200の送信部207は、移動体20の位置情報p_selfを地上監視装置10へ送信する。 The transmitter 207 of the mobile object control device 200 transmits the position information p_self of the mobile object 20 to the ground monitoring device 10.

地上監視装置10の受信部106は、移動体制御装置200から移動体20の位置情報p_selfを受信する。地上監視装置10の死角障害物抽出部104は、移動体20から死角となる障害物に対応する障害物情報(障害物の位置情報p_blind_k)のみを送信(出力)する。 The receiver 106 of the ground monitoring device 10 receives the position information p_self of the moving body 20 from the moving body control device 200. The blind spot obstacle extraction unit 104 of the ground monitoring device 10 transmits (outputs) only the obstacle information (obstacle position information p_blind_k) corresponding to obstacles in the blind spot of the moving body 20.

移動体制御装置200の障害物決定部205は、障害物検知部202で検知された周囲の障害物(位置情報p_nに対応する障害物)と、障害物情報受信部204で受信された障害物情報に含まれる位置情報p_blind_kに対応する障害物のすべてを、制御部206で用いる障害物とする。 The obstacle determination unit 205 of the mobile control device 200 determines all of the surrounding obstacles detected by the obstacle detection unit 202 (obstacles corresponding to the position information p_n) and the obstacles corresponding to the position information p_blind_k included in the obstacle information received by the obstacle information receiving unit 204 as obstacles to be used by the control unit 206.

(死角障害物抽出部)
図15は、図14に示す死角障害物抽出部104の処理を示すフローチャートである。
(Blind spot obstacle extraction section)
FIG. 15 is a flowchart showing the process of the blind spot obstacle extraction unit 104 shown in FIG.

S150:障害物の位置情報の取得
死角障害物抽出部104は、障害物検知部102で検知された周囲の障害物の位置情報p_iを取得する。
S150: Obtaining Position Information of Obstacles The blind spot obstacle extraction unit 104 obtains position information p_i of surrounding obstacles detected by the obstacle detection unit 102.

S155:移動体の位置情報の取得
死角障害物抽出部104は、受信部106から移動体20の位置情報p_selfを取得する。
S155: Acquisition of Position Information of Moving Object The blind spot obstacle extraction unit 104 acquires the position information p_self of the moving object 20 from the receiving unit 106.

S160:障害物の選択
死角障害物抽出部104は、障害物を任意に1つ選択する。
S160: Selection of Obstacle The blind spot obstacle extraction unit 104 arbitrarily selects one obstacle.

S165:遮蔽マップへ投影
死角障害物抽出部104は、S155で取得した位置情報p_selfに対応する移動体20の位置と、S160で選択した1つの障害物の位置を遮蔽マップ内に投影(配置)する。
S165: Project onto occlusion map The blind spot obstacle extraction unit 104 projects (places) onto the occlusion map the position of the moving body 20 corresponding to the position information p_self acquired in S155 and the position of one obstacle selected in S160.

S170:2点間に遮蔽物あるか否か
死角障害物抽出部104は、遮蔽マップ上で2点(移動体20の位置と1つの障害物の位置)を結ぶ線を求め、線上を探索して間に遮蔽物が存在するかを確認する。
S170: Is there an obstruction between the two points? The blind spot obstacle extraction unit 104 finds a line connecting two points (the position of the moving body 20 and the position of one obstacle) on the obstruction map, and searches along the line to confirm whether there is an obstruction between the two points.

S175:障害物として登録
2点間に遮蔽物がある場合、死角障害物抽出部104は、移動体20へ送信する障害物情報(障害物の位置情報p_blind_k)としてS160で選択した障害物の位置情報p_iを登録する。
S175: Register as Obstacle If there is an obstruction between the two points, the blind spot obstacle extraction unit 104 registers the obstacle position information p_i selected in S160 as obstacle information to be transmitted to the moving body 20 (obstacle position information p_blind_k).

S180:障害物の位置情報の除外
2点間に遮蔽物がない場合、死角障害物抽出部104は、移動体20へ送信する障害物情報からS160で選択した障害物の位置情報p_iを除外する。すなわち、死角障害物抽出部104は、移動体20へ送信する障害物情報(障害物の位置情報p_blind_k)としてS160で選択した障害物の位置情報p_iを登録しない。
S180: Exclusion of Obstacle Position Information If there is no obstruction between the two points, the blind spot obstacle extraction unit 104 excludes the obstacle position information p_i selected in S160 from the obstacle information to be transmitted to the moving body 20. In other words, the blind spot obstacle extraction unit 104 does not register the obstacle position information p_i selected in S160 as the obstacle information to be transmitted to the moving body 20 (obstacle position information p_blind_k).

S185:ループの終了条件
死角障害物抽出部104は、移動体20と障害物のすべての組み合わせについて遮蔽物の有無を確認する。
S185: Condition for Ending Loop The blind spot obstacle extraction unit 104 checks the presence or absence of an obstruction for all combinations of the moving body 20 and an obstacle.

(障害物決定部)
図16は、図14に示す障害物決定部205の処理を示すフローチャートである。
(Obstacle Determining Unit)
FIG. 16 is a flowchart showing the process of the obstacle determining unit 205 shown in FIG.

S190:自機の位置情報の取得
障害物決定部205は、位置取得部203から自機の位置情報p_selfを取得する。
S190: Obtaining Position Information of Own Aircraft The obstacle determination unit 205 obtains the position information p_self of the own aircraft from the position acquisition unit 203.

S195:障害物情報の取得
障害物決定部205は、障害物情報受信部204から障害物情報(障害物の位置情報p_blind_k)を取得する。
S195: Obtaining Obstacle Information The obstacle determination unit 205 obtains obstacle information (obstacle position information p_blind_k) from the obstacle information receiving unit 204.

S200:障害物の統合
障害物決定部205は、移動体20(自機)で検知した周囲の障害物情報(障害物の位置情報p_n)と、S195で取得された障害物情報(障害物の位置情報p_blind_k)を統合し、統合された障害物情報を制御部206に送信するテーブルに登録する。
S200: Integration of Obstacles The obstacle determination unit 205 integrates the surrounding obstacle information (obstacle position information p_n) detected by the moving body 20 (host device) with the obstacle information acquired in S195 (obstacle position information p_blind_k), and registers the integrated obstacle information in a table to be transmitted to the control unit 206.

本実施例の特徴は、以下のようにまとめることもできる。 The features of this embodiment can be summarized as follows:

<移動体制御装置>
送信部207は、移動体20の位置を示す位置情報を地上監視装置10に送信する。障害物情報は、地上監視装置10によって検知され、かつ移動体20の位置から死角となる障害物の位置を示す位置情報を含む。障害物決定部205は、障害物検知部202(第1の障害物検知部)によって検知された障害物と、地上監視装置10によって検知され、かつ移動体20の位置から死角となる位置の障害物を障害物として決定する。これにより、移動体制御装置200の側で死角の位置にある障害物を特定する必要がない。
<Mobile object control device>
The transmitting unit 207 transmits position information indicating the position of the moving body 20 to the ground monitoring device 10. The obstacle information includes position information indicating the positions of obstacles detected by the ground monitoring device 10 and in a blind spot from the position of the moving body 20. The obstacle determining unit 205 determines, as obstacles, obstacles detected by the obstacle detecting unit 202 (first obstacle detecting unit) and obstacles detected by the ground monitoring device 10 and in a position in a blind spot from the position of the moving body 20. This eliminates the need for the moving body control device 200 to identify obstacles in blind spots.

<地上監視装置>
受信部106は、移動体20の位置を示す位置情報を受信する。障害物検知部102(第2の障害物検知部)は、移動体20の飛行経路を含む所定空間内の障害物又は所定空間内に侵入する障害物を検知する。視界不良領域検知部103は、視界不良領域を検知する。死角障害物抽出部104は、視界不良領域との位置関係に基づき、障害物検知部102によって検知され、移動体20の位置から死角となる障害物を抽出する。障害物情報送信部105(情報送信部)は、障害物検知部102によって検知され、移動体20の位置から死角となる障害物の位置を示す位置情報を含む障害物情報を送信する。これにより、障害物情報のデータ量を小さくすることができる。
<Ground monitoring equipment>
The receiving unit 106 receives position information indicating the position of the moving body 20. The obstacle detection unit 102 (second obstacle detection unit) detects obstacles in a predetermined space including the flight path of the moving body 20 or obstacles entering the predetermined space. The poor visibility area detection unit 103 detects a poor visibility area. The blind spot obstacle extraction unit 104 extracts an obstacle detected by the obstacle detection unit 102 and in a blind spot from the position of the moving body 20 based on a positional relationship with the poor visibility area. The obstacle information transmission unit 105 (information transmission unit) transmits obstacle information including position information indicating the position of an obstacle detected by the obstacle detection unit 102 and in a blind spot from the position of the moving body 20. This makes it possible to reduce the data amount of the obstacle information.

[実施例3]
図17は、実施例3によるシステムの構成図である。以下、主として実施例2との相違点を説明する。
[Example 3]
17 is a diagram showing the configuration of a system according to the embodiment 3. The following mainly describes the differences from the embodiment 2.

移動体制御装置200の送信部207は、移動体20の位置情報p_selfと周囲の障害物の位置情報p_nを地上監視装置10へ送信する。 The transmitter 207 of the mobile object control device 200 transmits the position information p_self of the mobile object 20 and the position information p_n of surrounding obstacles to the ground monitoring device 10.

地上監視装置10の受信部106は、移動体制御装置200から移動体20の位置情報p_selfと障害物の位置情報p_nを受信する。 The receiving unit 106 of the ground monitoring device 10 receives the position information p_self of the moving body 20 and the position information p_n of the obstacle from the moving body control device 200.

地上監視装置10の視界不良領域検知部103は、視界不良を発生する状況か否かを検知する。例えば、視界不良領域検知部103は、視界不良が発生している場合、フラグflg_cloud=1とし、視界不良が発生していない場合、フラグflg_cloud=0とする。 The poor visibility area detection unit 103 of the ground monitoring device 10 detects whether or not a situation exists in which poor visibility will occur. For example, the poor visibility area detection unit 103 sets the flag flg_cloud=1 if poor visibility is occurring, and sets the flag flg_cloud=0 if poor visibility is not occurring.

地上監視装置10の死角障害物抽出部104は、視界不良が発生している場合(flg_cloud=1)、移動体20の周囲で検知された障害物ではない障害物の位置情報p_not_k(k=1,2,…)を抽出する。一方、地上監視装置10の死角障害物抽出部104は、視界不良が発生していない場合(flg_cloud=0)、障害物の位置情報を抽出(出力)しない。この場合、死角障害物抽出部104は、移動体制御装置200へ障害物の位置情報を送らないことを示す通知を出力したり、空(ヌル値)の位置情報を出力したりしてもよい。 When poor visibility occurs (flg_cloud=1), the blind spot obstacle extraction unit 104 of the ground monitoring device 10 extracts position information p_not_k (k=1, 2, ...) of obstacles that are not obstacles detected around the moving body 20. On the other hand, when poor visibility does not occur (flg_cloud=0), the blind spot obstacle extraction unit 104 of the ground monitoring device 10 does not extract (output) obstacle position information. In this case, the blind spot obstacle extraction unit 104 may output a notification indicating that the obstacle position information will not be sent to the moving body control device 200, or may output empty (null value) position information.

障害物決定部205は、障害物検知部202で検知された周囲の障害物(位置情報p_nに対応する障害物)と、障害物情報受信部204で受信された障害物情報に含まれる位置情報p_not_kに対応する障害物のすべてを、制御部206で用いる障害物とする。 The obstacle determination unit 205 determines all of the surrounding obstacles detected by the obstacle detection unit 202 (obstacles corresponding to the position information p_n) and the obstacles corresponding to the position information p_not_k included in the obstacle information received by the obstacle information receiving unit 204 as obstacles to be used by the control unit 206.

(視界不良領域検知部)
図18は、図17に示す視界不良領域検知部103の処理を示すフローチャートである。
(Poor visibility area detection unit)
FIG. 18 is a flowchart showing the process of the poor visibility area detection unit 103 shown in FIG.

S210:センサ情報の取得
視界不良領域検知部103は、地上監視装置10に接続されている雨雲レーダ、雲高計もしくはカメラ、又は気象衛星等からセンサ情報を取得する。
S210: Acquire Sensor Information The poor visibility area detection unit 103 acquires sensor information from a raincloud radar, a ceilometer or a camera connected to the ground monitoring device 10, or a meteorological satellite, etc.

S215:雲の検出
視界不良領域検知部103は、地上監視装置10に接続されている雨雲レーダ、雲高計もしくはカメラ、又は気象衛星等からセンサ情報を取得する。視界不良領域検知部103は、例えば、所定範囲(飛行経路を含む検出可能範囲)に雲があり視界不良が発生している場合、フラグflg_cloud=1とし、所定範囲に雲がなく視界不良が発生していない場合、フラグflg_cloud=0とする。
S215: Detecting clouds The poor visibility area detection unit 103 acquires sensor information from a raincloud radar, a ceilometer or a camera, or a meteorological satellite, etc., connected to the ground monitoring device 10. For example, when there are clouds in a predetermined range (detectable range including the flight path) and poor visibility occurs, the poor visibility area detection unit 103 sets the flag flg_cloud=1, and when there are no clouds in the predetermined range and poor visibility does not occur, the poor visibility area detection unit 103 sets the flag flg_cloud=0.

(死角障害物抽出部)
図19は、図17に示す死角障害物抽出部104の処理を示すフローチャートである。
(Blind spot obstacle extraction section)
FIG. 19 is a flowchart showing the process of the blind spot obstacle extraction unit 104 shown in FIG.

S220:障害物の位置情報の取得
死角障害物抽出部104は、障害物検知部102で検知された周囲の障害物の位置情報p_iを取得する。
S220: Obtaining Position Information of Obstacles The blind spot obstacle extraction unit 104 obtains position information p_i of surrounding obstacles detected by the obstacle detection unit 102.

S225:移動体の位置情報の取得
死角障害物抽出部104は、受信部106から移動体20の位置情報p_selfを取得する。
S225: Acquisition of Position Information of Moving Object The blind spot obstacle extraction unit 104 acquires the position information p_self of the moving object 20 from the receiving unit 106.

S230:移動体の周囲の障害物の位置情報の取得
死角障害物抽出部104は、受信部106から移動体20の移動体の周囲の障害物の位置情報p_nを取得する。
S230: Obtaining Position Information of Obstacles Surrounding the Moving Object The blind spot obstacle extraction unit 104 obtains position information p_n of obstacles surrounding the moving object 20 from the receiving unit 106.

S235:視界不良があるか否か
死角障害物抽出部104は、視界不良があるか否かを判定する。死角障害物抽出部104は、視界不良がある場合(flg_cloud=1)、S240へ処理を進め、視界不良がない場合(flg_cloud=0)、S245へ処理を進める。
S235: Whether or not there is poor visibility The blind spot obstacle extraction unit 104 determines whether or not there is poor visibility. If there is poor visibility (flg_cloud=1), the blind spot obstacle extraction unit 104 advances the process to S240, and if there is no poor visibility (flg_cloud=0), the blind spot obstacle extraction unit 104 advances the process to S245.

S240:障害物の一部を除去
視界不良がある場合、死角障害物抽出部104は、移動体20へ送信する障害物情報から移動体20の周囲の障害物の位置情報p_nを除去(除外)する。すなわち、死角障害物抽出部104は、移動体20へ送信する障害物情報(障害物の位置情報p_not_k)として移動体20の周囲の障害物の位置情報p_nを登録しない。
S240: Remove part of obstacle When visibility is poor, the blind spot obstacle extraction unit 104 removes (excludes) position information p_n of obstacles around the moving body 20 from the obstacle information to be transmitted to the moving body 20. In other words, the blind spot obstacle extraction unit 104 does not register position information p_n of obstacles around the moving body 20 as obstacle information to be transmitted to the moving body 20 (obstacle position information p_not_k).

S245:障害物のすべてを除去
視界不良がない場合、移動体20へ送信する障害物情報をすべて削除する。前述したように、死角障害物抽出部104は、移動体制御装置200へ障害物の位置情報p_not_kを送らないことを示す通知を出力したり、空(ヌル値)の位置情報を出力したりしてもよい。
S245: Remove all obstacles If there is no poor visibility, delete all obstacle information to be transmitted to the moving body 20. As described above, the blind spot obstacle extraction unit 104 may output a notification indicating that the obstacle position information p_not_k will not be sent to the moving body control device 200, or may output empty (null value) position information.

本実施例の特徴は、以下のようにまとめることもできる。 The features of this embodiment can be summarized as follows:

<移動体制御装置>
送信部207は、移動体20の位置を示す位置情報と、障害物検知部202(第1の障害物検知部)によって検知された障害物の位置を示す位置情報を地上監視装置10に送信する。障害物情報は、地上監視装置10によって検知され、かつ障害物検知部202によって検知されない障害物の位置を示す位置情報を含む。障害物決定部205は、障害物検知部202によって検知された障害物と、地上監視装置10によって検知され、かつ障害物検知部202によって検知されない障害物を障害物として決定する。これにより、移動体制御装置200の計算負荷が小さくなる。
<Mobile object control device>
The transmitting unit 207 transmits to the ground monitoring device 10 position information indicating the position of the moving body 20 and position information indicating the position of an obstacle detected by the obstacle detection unit 202 (first obstacle detection unit). The obstacle information includes position information indicating the position of an obstacle detected by the ground monitoring device 10 but not detected by the obstacle detection unit 202. The obstacle determining unit 205 determines, as obstacles, the obstacles detected by the obstacle detection unit 202 and the obstacles detected by the ground monitoring device 10 but not detected by the obstacle detection unit 202. This reduces the calculation load of the moving body control device 200.

詳細には、障害物情報受信部204(情報受信部)は、視界不良領域がある場合のみ、地上監視装置10によって検知され、かつ障害物検知部202によって検知されない障害物の位置を示す位置情報を含む障害物情報を受信する。これにより、移動体制御装置200の計算負荷がさらに小さくなる。 In detail, only when there is a poor visibility area, the obstacle information receiving unit 204 (information receiving unit) receives obstacle information including position information indicating the position of an obstacle that is detected by the ground monitoring device 10 and not detected by the obstacle detection unit 202. This further reduces the calculation load of the mobile object control device 200.

<地上監視装置>
受信部106は、移動体20の位置を示す位置情報と、障害物検知部202(第1の障害物検知部)によって検知された障害物の位置を示す位置情報を受信する。障害物検知部102(第2の障害物検知部)は、移動体20の飛行経路を含む所定空間内の障害物又は所定空間内に侵入する障害物を検知する。視界不良領域検知部103は、視界不良領域を検知する。障害物情報送信部105(情報送信部)は、視界不良領域により視界不良が発生している場合、地上監視装置10によって検知され、かつ障害物検知部202(第1の障害物検知部)によって検知されない障害物の位置を示す位置情報を含む障害物情報を送信する。これにより、通信データ量を低減することができる。
<Ground monitoring equipment>
The receiving unit 106 receives position information indicating the position of the moving body 20 and position information indicating the position of an obstacle detected by the obstacle detection unit 202 (first obstacle detection unit). The obstacle detection unit 102 (second obstacle detection unit) detects an obstacle in a predetermined space including the flight path of the moving body 20 or an obstacle entering the predetermined space. The poor visibility area detection unit 103 detects a poor visibility area. When poor visibility occurs due to a poor visibility area, the obstacle information transmission unit 105 (information transmission unit) transmits obstacle information including position information indicating the position of an obstacle detected by the ground monitoring device 10 and not detected by the obstacle detection unit 202 (first obstacle detection unit). This makes it possible to reduce the amount of communication data.

詳細には、視界不良領域検知部103は、視界不良領域の透明度が閾値より高い場合、視界不良が発生していると判定する。これにより、カメラの画像から視界不良の有無を判定することができる。 In detail, the poor visibility area detection unit 103 determines that poor visibility is occurring when the transparency of the poor visibility area is higher than a threshold value. This makes it possible to determine the presence or absence of poor visibility from the camera image.

[変形例]
図20は、実施例1の変形例によるシステムの構成図である。本実施例では、地上監視装置10は自己診断部107を備える。なお、本実施例では、実施例1の障害物情報送信部105と障害物情報受信部204に代えて、それぞれ情報送信部105Aと情報受信部204Aを備えるが、ハードウェアとしては実施例1と同じである。以下、主として実施例1との相違点を説明する。
[Modification]
20 is a configuration diagram of a system according to a modification of the first embodiment. In this embodiment, the ground monitoring device 10 includes a self-diagnosis unit 107. Note that in this embodiment, instead of the obstacle information transmitting unit 105 and the obstacle information receiving unit 204 of the first embodiment, an information transmitting unit 105A and an information receiving unit 204A are included, respectively, but the hardware is the same as that of the first embodiment. The following mainly describes the differences from the first embodiment.

地上監視装置10の自己診断部107は、地上監視装置10が異常か否かを判定する。例えば、周辺監視部101からセンサの異常を示す異常通知を受信した場合、周辺監視部101のセンサは正常だがセンサ全面にゴミが付着する等により障害物検知部102で全く検知できない場合、同じ物体を検知し続けている場合等に、自己診断部107は、地上監視装置10が異常であると判定する。すなわち、地上監視装置10が異常であるとは、地上監視装置10において障害物を検知するセンサ又はセンサ信号を処理するプロセッサが機能しない状態を示す。 The self-diagnosis unit 107 of the ground monitoring device 10 judges whether the ground monitoring device 10 is abnormal. For example, when an abnormality notification indicating a sensor abnormality is received from the periphery monitoring unit 101, the self-diagnosis unit 107 judges that the ground monitoring device 10 is abnormal if the sensor of the periphery monitoring unit 101 is normal but the obstacle detection unit 102 cannot detect anything at all due to dirt adhering to the entire surface of the sensor, or if the same object continues to be detected. In other words, the ground monitoring device 10 being abnormal indicates a state in which the sensor that detects obstacles or the processor that processes the sensor signal in the ground monitoring device 10 is not functioning.

(想定シーン)
図21は、変形例によるシステムが適用される想定シーンを示す図である。移動体20は、予め決められたスカイロード(所定の幅を有する平面又は曲面)を飛行している。地上監視装置10A~10Dは、それぞれスカイロードの所定範囲にある障害物を検出する。図21の例では、地上監視装置10Aは、地上監視装置10Aが異常であることを示す自己診断情報を移動体20に送信する。
(Assumed scene)
Fig. 21 is a diagram showing an assumed scene in which the system according to the modified example is applied. The moving body 20 flies on a predetermined sky road (a flat or curved surface having a predetermined width). The ground monitoring devices 10A to 10D each detect an obstacle within a predetermined range of the sky road. In the example of Fig. 21, the ground monitoring device 10A transmits self-diagnosis information indicating that the ground monitoring device 10A is abnormal to the moving body 20.

(制御部)
図22は、図20に示す制御部206の処理を示すフローチャートである。
(Control Unit)
FIG. 22 is a flowchart showing the process of the control unit 206 shown in FIG.

S250:自己診断情報の取得
制御部206は、移動体20(自機)の飛行経路上で地上監視装置10A~10Dの自己診断情報を取得する。
S250: Acquire Self-Diagnosis Information The control unit 206 acquires self-diagnosis information of the ground monitoring devices 10A to 10D on the flight path of the moving body 20 (own aircraft).

S255:分岐条件
制御部206は、自己診断情報から地上監視装置10A~10Dがすべて正常であるか否かを判定する。制御部206は、すべて正常である場合、S260へ処理を進め、いずれかが異常である場合、S265へ処理を進める。
S255: Branching Condition The control unit 206 judges whether or not all of the ground monitoring devices 10A to 10D are normal based on the self-diagnosis information. If all are normal, the control unit 206 advances the process to S260, and if any one is abnormal, the control unit 206 advances the process to S265.

S260:飛行を継続
制御部206は、予定通り目的地までの飛行を継続させるように移動体20を制御する。移動体20は、実施例1で述べた飛行を継続する。
S260: Continue Flight The control unit 206 controls the moving body 20 so as to continue the flight to the destination as scheduled. The moving body 20 continues the flight described in the first embodiment.

S265:飛行状態の変更
地上監視装置10A~10Dのいずれかが異常である場合、制御部206は、飛行を停止してホバリングに移行するように移動体20を制御する。図21の例では、地上監視装置10Cの自己診断情報から地上監視装置10Cが異常であると判定される。
S265: Change of flight state If any of the ground monitoring devices 10A to 10D is abnormal, the control unit 206 controls the moving body 20 to stop flying and transition to hovering. In the example of Fig. 21, it is determined that the ground monitoring device 10C is abnormal based on the self-diagnosis information of the ground monitoring device 10C.

S270:管制センタへ通知
制御部206は、管制センタ(不図示)へ地上監視装置10Cが異常であることを通知し、対応を決定する。飛行の目的、バッテリー残量、目的地までの残距離等によって対応は変わるが、元の経路を引き返す、最寄りのスカイポートに緊急着陸する、地上監視装置10Cの情報が不要な速度で飛行する等の対応がある。
S270: Notify control center The control unit 206 notifies the control center (not shown) that the ground monitoring device 10C is abnormal and determines how to respond. The response varies depending on the purpose of the flight, the remaining battery level, the remaining distance to the destination, etc., but possible responses include retracing the original route, making an emergency landing at the nearest skyport, flying at a speed that does not require information from the ground monitoring device 10C, etc.

本実施例の特徴は、以下のようにまとめることもできる。 The features of this embodiment can be summarized as follows:

<移動体制御装置>
情報受信部204Aは、地上監視装置10から自己診断の結果を示す自己診断情報を受信する。制御部206は、自己診断情報から、地上監視装置10が正常に障害物を検知できない状態であると判定される場合、移動体20を空中で停止又は減速させる。これにより、移動体20の飛行の安全性が向上する。
<Mobile object control device>
The information receiving unit 204A receives self-diagnosis information indicating the result of the self-diagnosis from the ground monitoring device 10. When the self-diagnosis information indicates that the ground monitoring device 10 is unable to normally detect an obstacle, the control unit 206 stops or decelerates the moving body 20 in the air. This improves the safety of the flight of the moving body 20.

<地上監視装置>
自己診断部107は、自己診断を行う。情報送信部105Aは、自己診断の結果を示す自己診断情報を送信する。これにより、地上監視装置10の信頼性が向上する。
<Ground monitoring equipment>
The self-diagnosis unit 107 performs self-diagnosis. The information transmission unit 105A transmits self-diagnosis information indicating the result of the self-diagnosis. This improves the reliability of the ground monitoring device 10.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described embodiments, but includes various modified examples. For example, the above-described embodiments have been described in detail to clearly explain the present invention, and are not necessarily limited to those having all of the configurations described. It is also possible to replace part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. It is also possible to add, delete, or replace part of the configuration of each embodiment with other configurations.

また、上記の各構成、機能等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 Furthermore, each of the above configurations, functions, etc. may be realized in hardware, for example by designing some or all of them in an integrated circuit. Furthermore, each of the above configurations, functions, etc. may be realized in software by a processor interpreting and executing a program that realizes each function. Information such as the programs, tables, and files that realize each function can be stored in a memory, a recording device such as a hard disk or SSD (Solid State Drive), or a recording medium such as an IC card, SD card, or DVD.

なお、本発明の実施例は、以下の態様であってもよい。 The present invention may take the following forms:

(1).地上監視装置10は、地上に設置され周辺を監視して外界情報を取得する周辺監視部101と、前記外界情報から所定範囲(スカイロード)内の空間内の障害物および侵入する障害物を検知し位置情報を取得する障害物検知部102と、前記障害物の位置関係や周辺の視界不良が発生する領域を検知する視界不良領域検知部103と、前記位置関係や前記視界不良により死角の関係にある障害物を抽出する死角障害物抽出部104と、前記抽出結果に基づいて障害物情報を送信する情報送信部(障害物情報送信部105)を有する。 (1) The ground monitoring device 10 has a surrounding monitoring unit 101 that is installed on the ground and monitors the surroundings to acquire external information, an obstacle detection unit 102 that detects obstacles in a space within a predetermined range (sky road) and intruding obstacles from the external information and acquires position information, a poor visibility area detection unit 103 that detects the positional relationship of the obstacles and areas where poor visibility occurs in the surroundings, a blind spot obstacle extraction unit 104 that extracts obstacles that are in a blind spot due to the positional relationship or the poor visibility, and an information transmission unit (obstacle information transmission unit 105) that transmits obstacle information based on the extraction results.

移動体制御装置200は、移動体20に設置され周辺を監視して外界情報を取得する周辺監視部201と、前記外界情報から移動体周囲の障害物を検知する障害物検知部202と、移動体の位置を取得する位置取得部203と、地上監視装置10からの障害物情報を受信する情報受信部(障害物情報受信部204)と、周囲の検知障害物、移動体の位置および受信した障害物情報に基づき、制御に用いる障害物を決定する障害物決定部205と、決定された障害物情報を用いて制御もしくは操作支援(操縦支援)を行う制御部206を有する。 The mobile body control device 200 has a surrounding monitoring unit 201 that is installed on the mobile body 20 and monitors the surroundings to acquire external world information, an obstacle detection unit 202 that detects obstacles around the mobile body from the external world information, a position acquisition unit 203 that acquires the position of the mobile body, an information receiving unit (obstacle information receiving unit 204) that receives obstacle information from the ground monitoring device 10, an obstacle determination unit 205 that determines the obstacle to be used for control based on the detected obstacles in the surroundings, the position of the mobile body, and the received obstacle information, and a control unit 206 that performs control or operation assistance (piloting assistance) using the determined obstacle information.

(2).(1)において、地上監視装置10では、視界不良領域検知部103は雲等の視界不良となる物体を検知し、死角障害物抽出部104は視界不良物との位置関係に基づき障害物を複数のグループに分類し(例えば、雲の上、雲の中、雲の下)、情報送信部(障害物情報送信部105)はグループの情報を付与して(障害物情報を)送信する。移動体制御装置200では、障害物統合部(障害物決定部205)は、自機位置および受信した障害物情報から、自機が属さないグループの障害物情報を抽出し、抽出した障害物情報と自機の障害物検知結果を障害物として決定する。 (2) In (1), in the ground monitoring device 10, the poor visibility area detection unit 103 detects objects that cause poor visibility, such as clouds, the blind spot obstacle extraction unit 104 classifies the obstacles into a number of groups based on their positional relationship with the objects that cause poor visibility (e.g., above clouds, in clouds, below clouds), and the information transmission unit (obstacle information transmission unit 105) transmits (obstacle information) with group information attached. In the mobile control device 200, the obstacle integration unit (obstacle determination unit 205) extracts obstacle information of groups to which the vehicle does not belong from the vehicle's position and the received obstacle information, and determines the extracted obstacle information and the vehicle's obstacle detection results as obstacles.

(3).(1)において、地上監視装置10は、移動体制御装置200から位置情報を受信する移動体位置情報受信部(受信部106)を有し、情報送信部(障害物情報送信部105)は、移動体位置から死角となる障害物情報のみを送信する。移動体制御装置では、障害物決定部は、周囲の検知障害物と、受信した障害物情報をすべて障害物として用いる。 (3) In (1), the ground monitoring device 10 has a mobile object position information receiving unit (receiving unit 106) that receives position information from the mobile object control device 200, and the information transmitting unit (obstacle information transmitting unit 105) transmits only obstacle information that is in a blind spot from the mobile object position. In the mobile object control device, the obstacle determining unit uses all of the detected obstacles in the surrounding area and the received obstacle information as obstacles.

(4).(1)において、地上監視装置10は、移動体制御装置200から位置情報および周囲障害物情報を受信する位置・障害物情報受信部(受信部106)を有し、情報送信部(障害物情報送信部105)は、移動体周囲で検知された障害物ではない障害物の障害物情報を送信する。移動体制御装置200は、自機周囲の障害物を検知する障害物検知部202と、自機位置と周囲障害物情報を送信する位置・障害物情報送信部(送信部207)を有する。障害物決定部205は、周囲の検知障害物と、受信した障害物情報が示す障害物をすべて障害物として用いる。 (4) In (1), the ground monitoring device 10 has a position/obstacle information receiving unit (receiving unit 106) that receives position information and surrounding obstacle information from the mobile object control device 200, and the information transmitting unit (obstacle information transmitting unit 105) transmits obstacle information of obstacles that are not obstacles detected around the mobile object. The mobile object control device 200 has an obstacle detecting unit 202 that detects obstacles around the mobile object, and a position/obstacle information transmitting unit (transmitting unit 207) that transmits the mobile object's position and surrounding obstacle information. The obstacle determining unit 205 uses all of the detected obstacles in the surroundings and obstacles indicated by the received obstacle information as obstacles.

(5).視界不良領域検知部103は、検出した雲の透明度を計測し、透明度が低い場合は視界不良であるとは判定しない。 (5) The poor visibility area detection unit 103 measures the transparency of the detected clouds, and if the transparency is low, it does not determine that visibility is poor.

(6).地上監視装置10は、監視装置内に異常が発生したか否かを診断する自己診断部107を有し、自己診断の結果、異常があると診断された場合には、情報送信部105Aにより移動体制御装置200へ通知する。移動体制御装置200は、情報受信部204Aにより地上監視装置10からの自己診断情報を受信し、制御部206は、自機が飛行する経路上の地上監視装置から異常があるという診断結果を受信した場合は、第二の飛行手段(例えば、ホバリング、速度を落とす)に切り替える。 (6) The ground monitoring device 10 has a self-diagnosis unit 107 that diagnoses whether an abnormality has occurred within the monitoring device, and if the self-diagnosis diagnoses that there is an abnormality, the information transmission unit 105A notifies the mobile control device 200. The mobile control device 200 receives self-diagnosis information from the ground monitoring device 10 via the information reception unit 204A, and if the control unit 206 receives a diagnosis result indicating that there is an abnormality from a ground monitoring device on the route the vehicle is flying, it switches to a second flight means (e.g., hovering, reducing speed).

すなわち、地上監視装置10は、地上から自律飛行体が飛行する所定エリアを監視し、障害物を検出し、センシング困難な関係にある障害物を推定し、推定結果として障害物情報を送信する。自律飛行体は、自機のセンシングにより検出した障害物と、地上監視装置10から取得したセンシング困難な障害物情報を用いて、自律飛行を行う。 That is, the ground monitoring device 10 monitors a specific area from the ground where the autonomous flying object flies, detects obstacles, estimates obstacles that are difficult to sense, and transmits obstacle information as the estimation result. The autonomous flying object performs autonomous flight using obstacles detected by its own sensing and obstacle information that is difficult to sense obtained from the ground monitoring device 10.

(1)-(6)によれば、自律飛行体は、自機に近くて衝突の可能性が高い障害物は自機のセンシング結果を用いることができ、衝突の危険は低いが将来的な衝突のリスクがあるセンシング範囲外の障害物は地上監視装置から送られてきた情報を用いて制御が可能となる。また、自機のセンシング結果と地上監視装置から送られてきた情報の統合が不要となる。 According to (1)-(6), the autonomous flying vehicle can use its own sensing results for obstacles that are close to the vehicle and have a high probability of collision, and can control obstacles outside the sensing range that have a low risk of collision but still have a risk of future collision using information sent from a ground monitoring device. In addition, there is no need to integrate the sensing results of the vehicle itself with the information sent from the ground monitoring device.

10…地上監視装置
20…移動体
30A、30B、30C、30D…飛行体
40…雲
101…周辺監視部
102…障害物検知部
103…視界不良領域検知部
104…死角障害物抽出部
105…障害物情報送信部
105A…情報送信部
106…受信部
107…自己診断部
200…移動体制御装置
201…周辺監視部
202…障害物検知部
203…位置取得部
204…障害物情報受信部
204A…情報受信部
205…障害物決定部
206…制御部
207…送信部
10...Ground monitoring device 20...Mobile bodies 30A, 30B, 30C, 30D...Aircraft body 40...Cloud 101...Periphery monitoring unit 102...Obstacle detection unit 103...Poor visibility area detection unit 104...Blind spot obstacle extraction unit 105...Obstacle information transmission unit 105A...Information transmission unit 106...Receiving unit 107...Self-diagnosis unit 200...Mobile body control device 201...Periphery monitoring unit 202...Obstacle detection unit 203...Position acquisition unit 204...Obstacle information receiving unit 204A...Information receiving unit 205...Obstacle determination unit 206...Control unit 207...Transmitting unit

Claims (5)

飛行可能な移動体に搭載される移動体制御装置であって、
前記移動体の周囲の障害物を検知する第1の障害物検知部と、
前記移動体の位置を取得する位置取得部と、
地上監視装置が備える第2の障害物検知部によって検知された障害物の情報を示す障害物情報を受信する情報受信部と、
前記第1の障害物検知部によって検知された障害物の位置、前記位置取得部によって取得された前記移動体の位置、及び前記情報受信部によって受信された障害物情報から、前記移動体の制御に用いる障害物を重複しないように決定する障害物決定部と、
決定された障害物を回避するように前記移動体を制御もしくは前記移動体の操作支援を行う制御部と、を備え
前記障害物情報は、
前記地上監視装置が備える前記第2の障害物検知部によって検知された障害物の位置を示す位置情報と、
2つの障害物の間に視界不良領域があるかに基づき前記地上監視装置が備える前記第2の障害物検知部によって検知された障害物が分類されるグループを識別するグループIDと、を含み、
前記障害物決定部は、
前記地上監視装置が備える前記第2の障害物検知部によって検知された障害物のうち前記位置取得部によって取得された前記移動体の位置から閾値以下の距離の障害物を前記移動体と同定し、
前記地上監視装置が備える前記第2の障害物検知部によって検知された障害物から、前記移動体と同定された障害物のグループID以外の障害物を抽出し、
前記移動体が備える前記第1の障害物検知部によって検知された障害物と、前記抽出された障害物を障害物として決定す
ことを特徴とする移動体制御装置。
A mobile object control device mounted on a flying mobile object,
A first obstacle detection unit that detects obstacles around the moving object;
A position acquisition unit that acquires a position of the moving object;
an information receiving unit that receives obstacle information indicating information about an obstacle detected by a second obstacle detecting unit included in the ground monitoring device;
an obstacle determination unit that determines an obstacle to be used for controlling the moving object from a position of the obstacle detected by the first obstacle detection unit, a position of the moving object acquired by the position acquisition unit, and obstacle information received by the information receiving unit, in such a manner that the obstacle is not overlapped;
a control unit that controls the moving object or assists in the operation of the moving object so as to avoid the determined obstacle ,
The obstacle information is
Position information indicating a position of an obstacle detected by the second obstacle detection unit included in the ground monitoring device; and
a group ID for identifying a group into which an obstacle detected by the second obstacle detection unit of the ground monitoring device is classified based on whether there is a poor visibility area between two obstacles;
The obstacle determination unit is
Identifying, among the obstacles detected by the second obstacle detection unit included in the ground monitoring device, an obstacle that is at a distance equal to or less than a threshold from the position of the moving body acquired by the position acquisition unit as the moving body;
extracting obstacles other than the group ID of the obstacle identified as the moving object from the obstacles detected by the second obstacle detection unit included in the ground monitoring device;
a first obstacle detection unit provided in the moving body and the extracted obstacle are determined as obstacles .
請求項に記載の移動体制御装置であって、
前記視界不良領域は、雲であり、
前記グループは、障害物が雲の上にあるグループ、障害物が雲の下にあるグループ、又は障害物が雲の中にあるグループである
ことを特徴とする移動体制御装置。
The mobile object control device according to claim 1 ,
the area of poor visibility is a cloud,
The group is a group where the obstacle is above the clouds, a group where the obstacle is below the clouds, or a group where the obstacle is inside the clouds.
A mobile object control device comprising:
請求項に記載の移動体制御装置と通信する前記地上監視装置であって、
前記移動体の飛行経路を含む所定空間内の障害物又は前記所定空間内に侵入する障害物を検知する第2の障害物検知部と、
前記視界不良領域を検知する視界不良領域検知部と、
2つの障害物の間に前記視界不良領域があるかに基づき前記第2の障害物検知部によって検知された障害物をグループに分類し、分類されたグループを識別するグループIDを障害物に付与する死角障害物抽出部と、
前記第2の障害物検知部によって検知された障害物の位置を示す位置情報と、前記グループIDとを含む前記障害物情報を送信する情報送信部と、
を備えることを特徴とする地上監視装置。
The ground monitoring device in communication with the mobile object control device according to claim 1 ,
A second obstacle detection unit that detects an obstacle in a predetermined space including a flight path of the moving object or an obstacle intruding into the predetermined space;
A poor visibility area detection unit that detects the poor visibility area;
a blind spot obstacle extraction unit that classifies the obstacles detected by the second obstacle detection unit into groups based on whether the poor visibility area exists between two obstacles , and assigns a group ID that identifies the classified group to the obstacle; and
an information transmission unit that transmits the obstacle information including position information indicating a position of an obstacle detected by the second obstacle detection unit and the group ID ;
A ground monitoring device comprising:
飛行可能な移動体に搭載される移動体制御装置と通信する地上監視装置であって、
前記移動体の位置を示す位置情報を受信する受信部と、
前記移動体の飛行経路を含む所定空間内の障害物又は前記所定空間内に侵入する障害物を検知する第2の障害物検知部と、
視界不良領域を検知する視界不良領域検知部と、
前記移動体と障害物の間に前記視界不良領域があるかに基づき、前記第2の障害物検知部によって検知された障害物から前記視界不良領域によって前記移動体の位置から死角となる障害物を抽出する死角障害物抽出部と、
前記第2の障害物検知部によって検知され、前記移動体の位置から死角となる障害物の位置を示す位置情報を含む障害物情報を送信する情報送信部と、
を備えることを特徴とする地上監視装置。
A ground monitoring device that communicates with a mobile object control device mounted on a flying mobile object ,
A receiving unit that receives location information indicating a location of the moving object;
A second obstacle detection unit that detects an obstacle in a predetermined space including a flight path of the moving object or an obstacle intruding into the predetermined space;
A poor visibility area detection unit that detects a poor visibility area;
a blind spot obstacle extraction unit that extracts, from the obstacles detected by the second obstacle detection unit, an obstacle that is in a blind spot from the position of the moving body due to the poor visibility area , based on whether the poor visibility area exists between the moving body and the obstacle;
an information transmission unit that transmits obstacle information including position information indicating a position of an obstacle that is detected by the second obstacle detection unit and is in a blind spot from the position of the moving object;
A ground monitoring device comprising:
請求項1に記載の移動体制御装置と地上監視装置を含むシステム。 A system including the mobile control device and ground monitoring device according to claim 1.
JP2020177115A 2020-10-22 2020-10-22 Mobile control device, ground monitoring device and system Active JP7545290B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020177115A JP7545290B2 (en) 2020-10-22 2020-10-22 Mobile control device, ground monitoring device and system
PCT/JP2021/033053 WO2022085325A1 (en) 2020-10-22 2021-09-08 Mobile body control device, ground surveillance device, and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020177115A JP7545290B2 (en) 2020-10-22 2020-10-22 Mobile control device, ground monitoring device and system

Publications (2)

Publication Number Publication Date
JP2022068444A JP2022068444A (en) 2022-05-10
JP7545290B2 true JP7545290B2 (en) 2024-09-04

Family

ID=81290442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020177115A Active JP7545290B2 (en) 2020-10-22 2020-10-22 Mobile control device, ground monitoring device and system

Country Status (2)

Country Link
JP (1) JP7545290B2 (en)
WO (1) WO2022085325A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117731965A (en) * 2023-12-14 2024-03-22 合肥中科离子医学技术装备有限公司 Positioning system for radiotherapy and radiotherapy apparatus

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019199857A1 (en) 2018-04-10 2019-10-17 Fortem Technologies, Inc. Radar-based discovery technologies for managing air traffic

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8543265B2 (en) * 2008-10-20 2013-09-24 Honeywell International Inc. Systems and methods for unmanned aerial vehicle navigation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019199857A1 (en) 2018-04-10 2019-10-17 Fortem Technologies, Inc. Radar-based discovery technologies for managing air traffic

Also Published As

Publication number Publication date
JP2022068444A (en) 2022-05-10
WO2022085325A1 (en) 2022-04-28

Similar Documents

Publication Publication Date Title
US11834197B2 (en) Unmanned aerial vehicle landing gear control method, apparatus, unmanned aerial vehicle, and system thereof
AU2020366769B2 (en) Sensor performance evaluation system and method, and automatic driving system
US20160252342A1 (en) System and methods of detecting an intruding object in a relative navigation system
US20180203446A1 (en) Object tracking by unsupervised learning
CN108958284B (en) Unmanned aerial vehicle obstacle avoidance system and method
CN113557173A (en) External Sensing Information Processing Device
US12307781B2 (en) Information processing device and information processing method associated with compression of point cloud data obtained by sensing the vicinity of a moving body
US20240062661A1 (en) Unmanned aerial vehicle contingency landing system
JP7545290B2 (en) Mobile control device, ground monitoring device and system
US20210039681A1 (en) Vehicle driving system
JP7256774B2 (en) System, Mobile, Program, and Method
JP7232945B1 (en) Control device, flying object, program, and control method
US12122243B2 (en) Method and system to ascertain location of drone box for stabilized landing and charging of drones
JP7157823B2 (en) Information processing equipment
EP3985471B1 (en) Systems and methods for operating a vehicle in a degraded visual environment
CN116884277A (en) Configurable low-altitude environment sensing and anti-collision system design method
CN114882717A (en) Object detection system and method based on vehicle-road cooperation
CN112306071A (en) Unmanned helicopter control system
CN115366900A (en) Vehicle fault detection method and device, vehicle and storage medium
KR102515245B1 (en) Method and apparatus for preventing loss of unmanned air vehicle
US20250044804A1 (en) Air vehicle control system, air vehicle control device, remote control device, air vehicle, air vehicle control method, and air vehicle control program
KR102850853B1 (en) Method for determining autonomous driving mode and apparatus thereof
CN118865759B (en) A low-altitude integrated air traffic management system and method thereof
US20240132092A1 (en) Device and method for notification
US20250225847A1 (en) Evacuation information generation system, evacuation information generation device, autonomous traveling device, evacuation information generation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240823

R150 Certificate of patent or registration of utility model

Ref document number: 7545290

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150