WO2020204201A1 - Aircraft - Google Patents
Aircraft Download PDFInfo
- Publication number
- WO2020204201A1 WO2020204201A1 PCT/JP2020/015437 JP2020015437W WO2020204201A1 WO 2020204201 A1 WO2020204201 A1 WO 2020204201A1 JP 2020015437 W JP2020015437 W JP 2020015437W WO 2020204201 A1 WO2020204201 A1 WO 2020204201A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- inspection
- flying object
- flight
- flight controller
- recognition unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C13/00—Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
- B64C13/02—Initiating means
- B64C13/16—Initiating means actuated automatically, e.g. responsive to gust detectors
- B64C13/18—Initiating means actuated automatically, e.g. responsive to gust detectors using automatic pilot
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
Definitions
- the present invention relates to an air vehicle.
- Patent Document 1 discloses a technique for acquiring distance measurement data based on a measured value obtained based on the reflected light of a laser beam emitted from an air vehicle and information on an irradiation direction of the laser beam.
- an inspection image for example, a still image or a moving image
- an inspection object for example, a structure
- the flying object flies straight (horizontally) with respect to the inspection object and keeps a certain distance. It is required to fly stably at a constant speed while maintaining it.
- flying an air vehicle near an object to be inspected it is difficult for even a skilled pilot to fly the air vehicle stably due to the influence of wind and the like.
- the present invention has been made in view of such a background, and an object of the present invention is to capture a stable inspection image by an air vehicle.
- the main invention of the present invention for solving the above problems is a recognition unit that recognizes a laser beam emitted from a laser irradiation device to an inspection object, a flight controller that controls flight according to the recognized laser beam, and the like. Will be provided.
- a stable inspection image can be captured by the flying object.
- the flying object according to the embodiment of the present invention has the following configuration.
- a recognition unit that recognizes the laser light emitted from the laser irradiation device to the inspection target, A flight controller that controls flight according to the recognized laser beam, Aircraft equipped with.
- the flying object according to item 1 The recognition unit recognizes the inspection route by the laser beam that the laser irradiation device irradiates the inspection object. The flight controller controls the flight so as to follow the recognized inspection route. An air vehicle characterized by that.
- [Item 3] The flying object according to item 2.
- An imaging unit that captures inspection images of the inspection object, Aircraft equipped with.
- the photographing unit stops photographing the inspection image when the recognition unit does not recognize the inspection route.
- [Item 5] The flying object according to item 4.
- the flight controller stops accepting instructions from the pilot to move the aircraft along the inspection route when the recognition unit does not recognize the inspection route. An air vehicle characterized by that.
- FIG. 1 is a diagram illustrating a flight state of the flying object 1 according to the present embodiment.
- the flying object 1 captures an inspection video (for example, a moving image) of a structure 2 which is an inspection target such as a pillar, a wall, or a ceiling.
- a laser irradiation device 3 is arranged around the structure 2 and irradiates the laser beam 4 toward a portion of the structure 2 to be inspected.
- the inspection image of the structure 2 can be stably photographed.
- the laser irradiation device 3 projects an inspection route onto the structure 2 by the laser light 4 to irradiate.
- the inspection route can be fixed to the structure 2 for irradiation.
- This inspection route includes one or more straight lines, curves, and combinations thereof.
- the laser irradiation device 3 may change the color and the number of pulses of each of the lines constituting the inspection route.
- the laser irradiation device 3 may distinguish between the color of the laser beam 4 projected in the vertical direction and the color of the laser beam 4 projected in the horizontal direction. Further, the laser irradiation device 3 may distinguish each color of the laser beam 4 projected in the vertical direction, for example.
- the flying object 1 can accurately grasp the inspection route even when the laser beam 4 irradiated to the structure 2 cannot be recognized.
- FIG. 2 is a functional block diagram of the flying object 1 according to the present embodiment.
- the flight controller 11 can have one or more processors such as a programmable processor (for example, a central processing unit (CPU)).
- a programmable processor for example, a central processing unit (CPU)
- CPU central processing unit
- the flight controller 11 has a memory 12 and can access the memory 12.
- the memory 12 stores logic, code, and / or program instructions that the flight controller 11 can execute to perform one or more steps.
- the memory 12 may include, for example, a separable medium such as an SD card or a random access memory (RAM) or an external storage device.
- a separable medium such as an SD card or a random access memory (RAM) or an external storage device.
- the photographing unit 13 is composed of, for example, a general camera or an infrared camera.
- the data acquired by the photographing unit 13 may be directly transmitted and stored in the memory 12.
- still image / moving image data taken by the photographing unit 13 is recorded in the internal memory or the external memory.
- the photographing unit 13 is installed on the flying object via the gimbal 14.
- the flight controller 11 includes a control module configured to control the state of the flying object 1.
- the control module adjusts the spatial arrangement, velocity, and / or acceleration of the flying object 1 having 6 degrees of freedom (translational motions x, y and z, and rotational motions ⁇ x, ⁇ y and ⁇ z).
- the propulsion mechanism (motor 16 and the like) of the flying object 1 is controlled via the above.
- the motor 16 rotates the propeller 17 to generate lift of the flying object 1.
- the control module can control one or more of the states of the mounting unit and the sensors.
- the flight controller 11 is a transmitter / receiver configured to transmit and / or receive data from one or more external devices (eg, transmitter / receiver (propo), terminal, display device, or other remote controller). It is possible to communicate with 18.
- the transmitter / receiver 18 can use any suitable communication means such as wired communication or wireless communication.
- the transmission / reception unit 18 uses one or more of, for example, a local area network (LAN), a wide area network (WAN), infrared rays, wireless, WiFi, a point-to-point (P2P) network, a telecommunications network, and cloud communication. can do.
- LAN local area network
- WAN wide area network
- P2P point-to-point
- the transmission / reception unit 18 uses data acquired by the sensors 19, processing results generated by the flight controller 11, predetermined control data, and user commands from a terminal or a remote controller (movement instructions and / or rotation instructions from the operator). One or more of, etc. can be sent and / or received.
- the sensors 19 in this embodiment may include an inertial sensor (acceleration sensor, gyro sensor), GPS sensor, proximity sensor (eg, rider), or vision / image sensor (eg, camera).
- inertial sensor acceleration sensor, gyro sensor
- GPS sensor GPS sensor
- proximity sensor eg, rider
- vision / image sensor eg, camera
- the recognition unit 20 can recognize the laser light 4 irradiated to the structure 2 from the laser irradiation device 3.
- the recognition unit 20 in the present embodiment may be equipped with a sensor capable of recognizing the laser beam 4, and may be, for example, a general camera.
- the recognition unit 20 can recognize the color and the number of pulses of the irradiated laser light.
- the recognition unit 20 is provided on the side surface of the flying object 1, for example, and recognizes an inspection route formed by a laser beam 4 irradiated to a structure 2 such as a pillar or a wall.
- FIG. 3 is a diagram illustrating a flow of processing for controlling the flying object 1 to fly along the inspection route projected on the structure 2. This process is started, for example, when the recognition unit 20 recognizes the inspection route.
- Step S301 The photographing unit 13 photographs an inspection image of the structure 2. That is, the photographing unit 13 photographs the inspection image when the recognition unit 20 recognizes the inspection route. Specifically, when the recognition unit 20 recognizes the inspection route, the photographing unit 13 captures the inspection route of the structure 2 or a moving image in which the periphery of the inspection route is included in the photographing range. Subsequently, the flight controller 11 receives the movement instruction from the operator and moves (flight controls) the flying object 1 along the inspection route recognized by the recognition unit 20. Then, the process proceeds to the process of step S302.
- Step S302 The flight controller 11 determines whether or not it has received an instruction from the pilot to end the inspection. Then, when the determination is affirmative, the process ends a series of processes shown in FIG. On the other hand, if the determination is negative, the process proceeds to the process of step S303.
- Step S303 The flight controller 11 determines whether or not the recognition unit 20 recognizes the inspection route projected on the structure 2. Then, when the determination is affirmative, the process proceeds to the process of step S301. On the other hand, if the determination is negative, the process proceeds to the process of step S304.
- Step S304 The photographing unit 13 stops taking an inspection image. Specifically, the photographing unit 13 stops photographing the inspection route of the structure 2 or the moving image in which the periphery of the inspection route is included in the photographing range. This makes it possible to reduce the trouble of editing the inspection video. Subsequently, the flight controller 11 stops accepting instructions from the pilot to move the flying object 1 along the inspection route. As a result, it is possible to prevent the part to be inspected from remaining in the inspection image. Then, the process proceeds to the process of step S305.
- Step S305 The flight controller 11 rotates and moves the flying object 1 in a predetermined direction at least.
- the flight controller 11 rotates and moves the flying object 1 perpendicular to the inspection route (direction of the line projected by the laser beam 4).
- the flight controller 11 recognizes that the color of the laser beam 4 recognized by the recognition unit 20 until just before is the color of the line extending in the vertical direction
- the flight controller 11 rotates the flying object 1 in the horizontal direction.
- FIG. 4 is a diagram showing an example in which the flying object 1 rotates and moves in the horizontal direction with respect to the laser beam 4 in the vertical direction. Then, the process proceeds to the process of step S306.
- Step S306 The flight controller 11 determines whether or not the recognition unit 20 recognizes the inspection route projected on the structure 2. Then, when the determination is affirmative, the process proceeds to the process of step S301. On the other hand, if the determination is negative, the process proceeds to the process of step S305.
- the flight controller 11 controls the flight body 1 so that the flight body 1 can shoot a stable inspection image along the inspection route.
- the photographing unit 13 and the recognition unit 20 have been described as separate functional units, but the photographing unit 13 and the recognition unit 20 may be configured by one device (for example, a camera).
- step S304 it has been described in step S304 that the reception of the instruction to move the flying object 1 from the operator along the inspection route is stopped, but the flight controller 11 has described the inspection route (laser light 4).
- the instruction to rotate and move the flying object 1 perpendicular to may be accepted.
- the flight controller 11 may stop shooting by the photographing unit 13 or the operator may stop shooting until the flight body 1 flies straight (horizontally). You may stop accepting instructions to move the aircraft 1 along the inspection route.
- the laser irradiation device 3 may be capable of projecting a plurality of patterns of inspection routes. As a result, the laser irradiation device 3 can project an inspection route of a pattern corresponding to the structure 2 which is an inspection target.
- the laser irradiation device 3 may project supplementary information other than the inspection route onto the structure 2 which is the inspection target.
- supplementary information for example, numerical values of distance and height, control points, and the like can be mentioned.
- FIG. 5 is a diagram showing an example in which supplementary information S is projected on the structure 2.
- a predetermined grid pattern may be irradiated to a predetermined position on the inspection target surface, and the current position may be estimated by recognizing the grid pattern as an image. That is, by acquiring the absolute position for irradiating the grid pattern, it is possible to estimate the self-position from the distance and the positional relationship from an arbitrary grid point. In this case, the position of the grid pattern on the inspection target surface is associated.
- the inspection image is a moving image
- it may be a still image
- the laser light 4 may be light that can be recognized by the recognition unit 20 and may not be photographed by the photographing unit 13 (for example, infrared rays). As a result, the laser beam 4 is not reflected in the inspection image, so that a portion to be inspected (for example, a crack in concrete) can be easily confirmed.
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Road Repair (AREA)
- Bridges Or Land Bridges (AREA)
- Lining And Supports For Tunnels (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
本発明は、飛行体に関する。 The present invention relates to an air vehicle.
従来から、飛行体からレーザー光を照射して、測距データを取得する技術が知られている。例えば、特許文献1では、飛行体から照射されるレーザー光の反射光に基づいて得られる測定値と、レーザー光の照射方向に関する情報により、測距データを取得する技術が開示されている。
Conventionally, a technique of irradiating a laser beam from an air vehicle to acquire distance measurement data has been known. For example,
ここで、飛行体によって点検対象物(例えば構造物)の点検映像(例えば静止画や動画)を撮影する場合、点検対象に対して、飛行体が真っ直ぐ(水平)に飛行し、一定の距離を保ちながら一定の速度で安定して飛行することが求められる。しかしながら、飛行体を点検対象物の近くで飛行させる場合、風が発生するなどの影響により、熟練の操縦者でも飛行体を安定して飛行させることは難しい。 Here, when an inspection image (for example, a still image or a moving image) of an inspection object (for example, a structure) is taken by the flying object, the flying object flies straight (horizontally) with respect to the inspection object and keeps a certain distance. It is required to fly stably at a constant speed while maintaining it. However, when flying an air vehicle near an object to be inspected, it is difficult for even a skilled pilot to fly the air vehicle stably due to the influence of wind and the like.
本発明はこのような背景を鑑みてなされたものであり、飛行体によって、安定した点検映像を撮影することを目的とする。 The present invention has been made in view of such a background, and an object of the present invention is to capture a stable inspection image by an air vehicle.
上記課題を解決するための本発明の主たる発明は、レーザー照射装置から点検対象物に照射されたレーザー光を認識する認識部と、前記認識されたレーザー光に応じて飛行制御するフライトコントローラと、を備えることとする。 The main invention of the present invention for solving the above problems is a recognition unit that recognizes a laser beam emitted from a laser irradiation device to an inspection object, a flight controller that controls flight according to the recognized laser beam, and the like. Will be provided.
その他本願が開示する課題やその解決方法については、発明の実施形態の欄及び図面により明らかにされる。 Other problems disclosed in the present application and solutions thereof will be clarified in the columns and drawings of the embodiments of the invention.
本発明によれば、飛行体によって、安定した点検映像を撮影することができる。 According to the present invention, a stable inspection image can be captured by the flying object.
本発明の実施形態の内容を列記して説明する。本発明の実施の形態による飛行体は、以下のような構成を備える。 The contents of the embodiments of the present invention will be listed and described. The flying object according to the embodiment of the present invention has the following configuration.
[項目1]
レーザー照射装置から点検対象物に照射されたレーザー光を認識する認識部と、
前記認識されたレーザー光に応じて飛行制御するフライトコントローラと、
を備える飛行体。
[項目2]
項目1に記載の飛行体であって、
前記認識部は、前記レーザー照射装置が前記点検対象物に照射した前記レーザー光による点検ルートを認識し、
前記フライトコントローラは、前記認識された点検ルートに沿うように飛行制御する、
ことを特徴とする飛行体。
[項目3]
項目2に記載の飛行体であって、
前記点検対象物の点検映像を撮影する撮影部と、
を備える飛行体。
[項目4]
項目3に記載の飛行体であって、
前記撮影部は、前記認識部が前記点検ルートを認識していない場合に、前記点検映像の撮影を停止する、
ことを特徴とする飛行体。
[項目5]
項目4に記載の飛行体であって、
前記フライトコントローラは、前記認識部が前記点検ルートを認識していない場合に、操縦者から前記点検ルートに沿って飛行体を移動させる指示の受け付けを停止する、
ことを特徴とする飛行体。
[Item 1]
A recognition unit that recognizes the laser light emitted from the laser irradiation device to the inspection target,
A flight controller that controls flight according to the recognized laser beam,
Aircraft equipped with.
[Item 2]
The flying object according to
The recognition unit recognizes the inspection route by the laser beam that the laser irradiation device irradiates the inspection object.
The flight controller controls the flight so as to follow the recognized inspection route.
An air vehicle characterized by that.
[Item 3]
The flying object according to
An imaging unit that captures inspection images of the inspection object,
Aircraft equipped with.
[Item 4]
The flying object according to
The photographing unit stops photographing the inspection image when the recognition unit does not recognize the inspection route.
An air vehicle characterized by that.
[Item 5]
The flying object according to
The flight controller stops accepting instructions from the pilot to move the aircraft along the inspection route when the recognition unit does not recognize the inspection route.
An air vehicle characterized by that.
以下、本発明の第1の実施形態に係る飛行体1について図面を参照しながら説明する。図1は、本実施形態に係る飛行体1による飛行状態を説明する図である。
Hereinafter, the
本実施形態では、飛行体1は、柱や壁、天井などの点検対象物である構造物2の点検映像(例えば動画)を撮影することを想定している。構造物2の周囲にはレーザー照射装置3が配置され、構造物2の点検すべき箇所に向けてレーザー光4を照射する。飛行体1は、構造物2に照射されたレーザー光4を認識し続けるように飛行制御することで、構造物2の点検映像を安定して撮影することができる。
In the present embodiment, it is assumed that the
レーザー照射装置3は、照射するレーザー光4によって、構造物2に点検ルートを投影する。ここで、レーザー照射装置3は、地面や三脚等に載置されるため、点検ルートを構造物2に固定して照射することができる。この点検ルートとしては、一又は複数の直線、曲線、これらの組み合わせが挙げられる。また、レーザー照射装置3は、この点検ルートを構成する線それぞれの色やパルス数を変更させてもよい。例えば、レーザー照射装置3は、上下方向に投影するレーザー光4の色と、水平方向に投影するレーザー光4の色を区別してもよい。また、レーザー照射装置3は、例えば上下方向に投影するレーザー光4のそれぞれの色を区別してもよい。これらにより、例えば飛行体1は、構造物2に照射されたレーザー光4を認識できなくなった場合でも、点検ルートを正確に把握することができる。
The
図2は、本実施形態に係る飛行体1の機能ブロック図である。
FIG. 2 is a functional block diagram of the
フライトコントローラ11は、プログラマブルプロセッサ(例えば、中央演算処理装置(CPU))などの1つ以上のプロセッサを有することができる。
The
フライトコントローラ11は、メモリ12を有しており、当該メモリ12にアクセス可能である。メモリ12は、1つ以上のステップを行うためにフライトコントローラ11が実行可能であるロジック、コード、および/またはプログラム命令を記憶している。
The
メモリ12は、例えば、SDカードやランダムアクセスメモリ(RAM)などの分離可能な媒体または外部の記憶装置を含んでいてもよい。
The
撮影部13は、例えば、一般的なカメラや赤外線カメラなどにより構成される。撮影部13で取得したデータは、メモリ12に直接に伝達されかつ記憶されてもよい。例えば、撮影部13で撮影した静止画・動画データが内蔵メモリ又は外部メモリに記録される。撮影部13は、飛行体にジンバル14を介して設置される。
The photographing
フライトコントローラ11は、飛行体1の状態を制御するように構成された制御モジュールを含んでいる。例えば、制御モジュールは、6自由度(並進運動x、y及びz、並びに回転運動θx、θy及びθz)を有する飛行体1の空間的配置、速度、および/または加速度を調整するために、ESC15を経由して飛行体1の推進機構(モータ16等)を制御する。モータ16によりプロペラ17が回転することで飛行体1の揚力を生じさせる。制御モジュールは、搭載部、センサ類の状態のうちの1つ以上を制御することができる。
The
フライトコントローラ11は、1つ以上の外部のデバイス(例えば、送受信機(プロポ)、端末、表示装置、または他の遠隔の制御器)からのデータを送信および/または受け取るように構成された送受信部18と通信可能である。送受信機18は、有線通信または無線通信などの任意の適当な通信手段を使用することができる。
The
送受信部18は、例えば、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信などのうちの1つ以上を利用することができる。
The transmission /
送受信部18は、センサ類19で取得したデータ、フライトコントローラ11が生成した処理結果、所定の制御データ、端末または遠隔の制御器からのユーザコマンド(操縦者からの移動指示および/または回転指示)などのうちの1つ以上を送信および/または受け取ることができる。
The transmission /
本実施形態におけるセンサ類19は、慣性センサ(加速度センサ、ジャイロセンサ)、GPSセンサ、近接センサ(例えば、ライダー)、またはビジョン/イメージセンサ(例えば、カメラ)を含み得る。 The sensors 19 in this embodiment may include an inertial sensor (acceleration sensor, gyro sensor), GPS sensor, proximity sensor (eg, rider), or vision / image sensor (eg, camera).
認識部20は、レーザー照射装置3から構造物2に照射されたレーザー光4を認識することができる。本実施形態における認識部20は、レーザー光4を認識できるセンサが搭載されていればよく、例えば、一般的なカメラであってもよい。認識部20は、照射されたレーザー光の色やパルス数を認識できるものとする。認識部20は、例えば飛行体1の側面に設けられ、柱や壁などの構造物2に照射されたレーザー光4により形成される点検ルートを認識する。
The
図3は、飛行体1が構造物2に投影された点検ルートに沿って飛行するように制御する処理の流れを説明する図である。この処理は、例えば認識部20が点検ルートを認識した場合に開始される。
FIG. 3 is a diagram illustrating a flow of processing for controlling the flying
(ステップS301)
撮影部13は、構造物2の点検映像を撮影する。すなわち、撮影部13は、認識部20が点検ルートを認識している場合に、点検映像を撮影する。具体的には、撮影部13は、認識部20が点検ルートを認識している場合に、構造物2の点検ルート又は点検ルートの周囲が撮影範囲に含まれる動画を撮影する。続いて、フライトコントローラ11は、操縦者からの移動指示を受け付けて、認識部20によって認識された点検ルートに沿うように飛行体1を移動させる(飛行制御する)。そして、処理は、ステップS302の処理に移行する。
(Step S301)
The photographing
(ステップS302)
フライトコントローラ11は、操縦者からの点検を終了する指示を受け付けたか否かを判定する。そして、当該判定が肯定判定された場合には、処理は、図3に示す一連の処理を終了する。一方、当該判定が否定判定された場合には、処理は、ステップS303の処理に移行する。
(Step S302)
The
(ステップS303)
フライトコントローラ11は、認識部20が構造物2に投影された点検ルートを認識しているか否かを判定する。そして、当該判定が肯定判定された場合には、処理は、ステップS301の処理に移行する。一方、当該判定が否定判定された場合には、処理は、ステップS304の処理に移行する。
(Step S303)
The
(ステップS304)
撮影部13は、点検映像の撮影を停止する。具体的には、撮影部13は、構造物2の点検ルート又は点検ルートの周囲が撮影範囲に含まれる動画の撮影を停止する。これにより、点検映像を編集する手間を軽減することができる。続いて、フライトコントローラ11は、操縦者からの飛行体1を点検ルートに沿って移動させる指示の受け付けを停止する。これにより、点検すべき部分が点検映像に残らないことを防止することができる。そして、処理は、ステップS305の処理に移行する。
(Step S304)
The photographing
(ステップS305)
フライトコントローラ11は、飛行体1を所定の方向に回転および移動の少なくともいずれかを行う。例えば、フライトコントローラ11は、点検ルート(レーザー光4によって投影された線の方向)と垂直に飛行体1を回転及び移動させる。具体的には、フライトコントローラ11は、直前まで認識部20が認識していたレーザー光4の色が上下方向に伸びる線の色であると認識していた場合、飛行体1を水平方向に回転させる。図4は、飛行体1が上下方向のレーザー光4に対して水平方向に回転及び移動する例を示す図である。そして、処理は、ステップS306の処理に移行する。
(Step S305)
The
(ステップS306)
フライトコントローラ11は、認識部20が構造物2に投影された点検ルートを認識しているか否かを判定する。そして、当該判定が肯定判定された場合には、処理は、ステップS301の処理に移行する。一方、当該判定が否定判定された場合には、処理は、ステップS305の処理に移行する。
(Step S306)
The
以上のようにして、フライトコントローラ11は、飛行体1が点検ルートに沿って安定した点検映像を撮影することができるように、飛行体1を制御する。
As described above, the
以上、本実施形態について説明したが、上記実施形態は本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物も含まれる。 Although the present embodiment has been described above, the above embodiment is for facilitating the understanding of the present invention, and is not for limiting and interpreting the present invention. The present invention can be modified and improved without departing from the spirit thereof, and the present invention also includes an equivalent thereof.
例えば、本実施形態では、撮影部13と認識部20とを別々の機能部として説明したが、撮影部13と認識部20は、一つの装置(例えばカメラ)によって構成されてもよい。
For example, in the present embodiment, the photographing
また、本実施形態では、上記ステップS304において、操縦者からの飛行体1を点検ルートに沿って移動させる指示の受け付けを停止することを説明したが、フライトコントローラ11は、点検ルート(レーザー光4によって投影された線の方向)と垂直に飛行体1を回転及び移動させる指示は受け付けることとしてもよい。また、フライトコントローラ11は、飛行体1が構造物2に対して真っ直ぐ(水平)に飛行していない場合、真っ直ぐ(水平)に飛行するまで、撮影部13による撮影を停止したり、操縦者からの飛行体1を点検ルートに沿って移動させる指示の受け付けを停止したりしてもよい。
Further, in the present embodiment, it has been described in step S304 that the reception of the instruction to move the flying
また、本実施形態では、レーザー照射装置3は、複数パターンの点検ルートを投影することが可能であってもよい。これにより、レーザー照射装置3は、点検対象物である構造物2に応じたパターンの点検ルートを投影することができる。
Further, in the present embodiment, the
また、本実施形態では、レーザー照射装置3は、点検ルート以外の補足情報を点検対象物である構造物2に投影してもよい。補足情報としては、例えば、距離や高さの数値、標定点などが挙げられる。図5は、構造物2に補足情報Sが投影された例を示す図である。
Further, in the present embodiment, the
また、例えば、図6に示されるように、所定の格子状のパターンを点検対象面の所定の位置に照射し、当該格子パターンを画像認識することにより現在位置を推定することとしてもよい。すなわち、格子パターンを照射する絶対位置を取得することによって、任意の格子点からの距離や位置関係から自己の位置を推定することが可能となる。この場合、格子パターンの点検対象面上における位置は関連付けられる。 Further, for example, as shown in FIG. 6, a predetermined grid pattern may be irradiated to a predetermined position on the inspection target surface, and the current position may be estimated by recognizing the grid pattern as an image. That is, by acquiring the absolute position for irradiating the grid pattern, it is possible to estimate the self-position from the distance and the positional relationship from an arbitrary grid point. In this case, the position of the grid pattern on the inspection target surface is associated.
また、本実施形態では、点検映像が動画である場合を説明したが、静止画であってもよい。 Further, in the present embodiment, the case where the inspection image is a moving image has been described, but it may be a still image.
また、本実施形態では、レーザー光4は、認識部20によって認識が可能であればよく、撮影部13では撮影が不可能な光(例えば赤外線等)であってもよい。これにより、点検映像にレーザー光4が映り込むことがないため、点検すべき部分(例えば、コンクリートのひび割れ等)を容易に確認することができる。
Further, in the present embodiment, the
1 飛行体
2 構造物
3 レーザー照射装置
4 レーザー光
11 フライトコントローラ
13 撮影部
20 認識部
1
Claims (5)
前記認識されたレーザー光に応じて飛行制御するフライトコントローラと、
を備える飛行体。 A recognition unit that recognizes the laser light emitted from the laser irradiation device to the inspection target,
A flight controller that controls flight according to the recognized laser beam,
Aircraft equipped with.
前記認識部は、前記レーザー照射装置が前記点検対象物に照射した前記レーザー光による点検ルートを認識し、
前記フライトコントローラは、前記認識された点検ルートに沿うように飛行制御する、
ことを特徴とする飛行体。 The flying object according to claim 1.
The recognition unit recognizes the inspection route by the laser beam that the laser irradiation device irradiates the inspection object.
The flight controller controls the flight so as to follow the recognized inspection route.
An air vehicle characterized by that.
前記点検対象物の点検映像を撮影する撮影部と、
を備える飛行体。 The flying object according to claim 2.
An imaging unit that captures inspection images of the inspection object,
Aircraft equipped with.
前記撮影部は、前記認識部が前記点検ルートを認識していない場合に、前記点検映像の撮影を停止する、
ことを特徴とする飛行体。 The flying object according to claim 3.
The photographing unit stops photographing the inspection image when the recognition unit does not recognize the inspection route.
An air vehicle characterized by that.
前記フライトコントローラは、前記認識部が前記点検ルートを認識していない場合に、操縦者から前記点検ルートに沿って飛行体を移動させる指示の受け付けを停止する、
ことを特徴とする飛行体。 The flying object according to claim 4.
When the recognition unit does not recognize the inspection route, the flight controller stops accepting an instruction from the pilot to move the flying object along the inspection route.
An air vehicle characterized by that.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019073124A JP7278578B2 (en) | 2019-04-05 | 2019-04-05 | flying object |
| JP2019-073124 | 2019-04-05 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2020204201A1 true WO2020204201A1 (en) | 2020-10-08 |
Family
ID=72668476
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2020/015437 Ceased WO2020204201A1 (en) | 2019-04-05 | 2020-04-05 | Aircraft |
Country Status (2)
| Country | Link |
|---|---|
| JP (3) | JP7278578B2 (en) |
| WO (1) | WO2020204201A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2022259799A1 (en) * | 2021-06-09 | 2022-12-15 | 富士フイルム株式会社 | Control device, flight vehicle system, control method, and program |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7671615B2 (en) * | 2021-04-08 | 2025-05-02 | 株式会社電通総研 | Method, program, and system for optimizing layout of autonomous moving objects |
| CN114302115B (en) * | 2022-01-06 | 2024-04-19 | 重庆紫光华山智安科技有限公司 | Video playing method, device, equipment and medium |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS5968693A (en) * | 1982-10-12 | 1984-04-18 | Hitachi Kiden Kogyo Ltd | Tracking guidance and information transmission device for moving objects using light beams |
| JPH08101714A (en) * | 1993-11-29 | 1996-04-16 | Toshihiro Tsumura | Aircraft guidance device |
| US20160253808A1 (en) * | 2015-02-26 | 2016-09-01 | Hexagon Technology Center Gmbh | Determination of object data by template-based uav control |
| JP2017144784A (en) * | 2016-02-15 | 2017-08-24 | 株式会社トプコン | Flight plan creation method and flying object guidance system |
| WO2018034295A1 (en) * | 2016-08-16 | 2018-02-22 | 本郷飛行機株式会社 | Information processing system |
Family Cites Families (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009276166A (en) * | 2008-05-14 | 2009-11-26 | Panasonic Corp | Mobile apparatus and its position recognition method |
| DE102010016208B4 (en) * | 2010-03-30 | 2022-09-22 | Vorwerk & Co. Interholding Gmbh | Procedure for locating a remote control |
| JP6509480B2 (en) | 2012-04-02 | 2019-05-08 | シャープ株式会社 | Lighting device |
| US8793046B2 (en) | 2012-06-01 | 2014-07-29 | Google Inc. | Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data |
| WO2017150433A1 (en) | 2016-03-02 | 2017-09-08 | 日本電気株式会社 | Unmanned air vehicle, unmanned air vehicle control system, flight control method, and program storage medium |
| JP2017174159A (en) | 2016-03-24 | 2017-09-28 | 日本電気株式会社 | Pilotless flight device control system, pilotless flight device controlling method, and image projector |
| JP2018133010A (en) * | 2017-02-17 | 2018-08-23 | 三菱重工業株式会社 | Indoor space inspection method |
| JP2018143463A (en) | 2017-03-03 | 2018-09-20 | 学校法人日本大学 | Projection device |
| JP7022559B2 (en) | 2017-10-17 | 2022-02-18 | 株式会社トプコン | Unmanned aerial vehicle control method and unmanned aerial vehicle control program |
| WO2020170502A1 (en) | 2019-02-19 | 2020-08-27 | 日本電気株式会社 | Robot, robot operation method, and non-transitory computer-readable medium |
-
2019
- 2019-04-05 JP JP2019073124A patent/JP7278578B2/en active Active
-
2020
- 2020-04-05 WO PCT/JP2020/015437 patent/WO2020204201A1/en not_active Ceased
-
2023
- 2023-04-28 JP JP2023074374A patent/JP7504502B2/en active Active
-
2024
- 2024-06-05 JP JP2024091112A patent/JP2024113070A/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS5968693A (en) * | 1982-10-12 | 1984-04-18 | Hitachi Kiden Kogyo Ltd | Tracking guidance and information transmission device for moving objects using light beams |
| JPH08101714A (en) * | 1993-11-29 | 1996-04-16 | Toshihiro Tsumura | Aircraft guidance device |
| US20160253808A1 (en) * | 2015-02-26 | 2016-09-01 | Hexagon Technology Center Gmbh | Determination of object data by template-based uav control |
| JP2017144784A (en) * | 2016-02-15 | 2017-08-24 | 株式会社トプコン | Flight plan creation method and flying object guidance system |
| WO2018034295A1 (en) * | 2016-08-16 | 2018-02-22 | 本郷飛行機株式会社 | Information processing system |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2022259799A1 (en) * | 2021-06-09 | 2022-12-15 | 富士フイルム株式会社 | Control device, flight vehicle system, control method, and program |
| US20240103538A1 (en) * | 2021-06-09 | 2024-03-28 | Fujifilm Corporation | Control device, flying object system, control method, and program |
| US12461541B2 (en) * | 2021-06-09 | 2025-11-04 | Fujifilm Corporation | Control device, flying object system, control method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7278578B2 (en) | 2023-05-22 |
| JP7504502B2 (en) | 2024-06-24 |
| JP2024113070A (en) | 2024-08-21 |
| JP2020169010A (en) | 2020-10-15 |
| JP2023113608A (en) | 2023-08-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7504502B2 (en) | Aircraft | |
| CN109074101B (en) | Imaging using multiple drones | |
| JP6601554B2 (en) | Unmanned aerial vehicle, unmanned aircraft control system, flight control method, and computer program | |
| JP6371988B2 (en) | Flying object | |
| JP6195450B2 (en) | Autonomous flying robot | |
| CN106444843A (en) | Unmanned aerial vehicle relative azimuth control method and device | |
| CN112327898B (en) | Well inspection navigation method and device of unmanned aerial vehicle and unmanned aerial vehicle | |
| JP2019211257A (en) | Inspection system | |
| JP2025016555A (en) | Position calculation method and information processing system | |
| JP6957304B2 (en) | Overhead line photography system and overhead line photography method | |
| JP2014142828A (en) | Autonomous mobile robot | |
| JP2021100234A (en) | Aircraft imaging method and information processing device | |
| WO2021166845A1 (en) | Information processing device, information processing method, and program | |
| WO2020042159A1 (en) | Rotation control method and apparatus for gimbal, control device, and mobile platform | |
| AU2021391392B2 (en) | Method for controlling a drone along a shaft | |
| JP2023070120A (en) | Autonomous flight control method, autonomous flight control apparatus and autonomous flight control system | |
| WO2017138049A1 (en) | Flying body and control system therefor | |
| JP7149569B2 (en) | Building measurement method | |
| JP6725171B1 (en) | Aircraft, inspection method and inspection system | |
| JP2025089391A (en) | Aircraft, inspection method and inspection system | |
| WO2021124579A1 (en) | Image capturing method of flight vehicle and information processing device | |
| JP6681101B2 (en) | Inspection system | |
| JP6775981B2 (en) | Surveillance system and object detection device | |
| JP6726043B2 (en) | Object detection sensor and monitoring system | |
| WO2022124392A1 (en) | Aircraft and aircraft control method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20784895 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 20784895 Country of ref document: EP Kind code of ref document: A1 |