JP2019061659A - 自動検出及び回避システム - Google Patents
自動検出及び回避システム Download PDFInfo
- Publication number
- JP2019061659A JP2019061659A JP2018147094A JP2018147094A JP2019061659A JP 2019061659 A JP2019061659 A JP 2019061659A JP 2018147094 A JP2018147094 A JP 2018147094A JP 2018147094 A JP2018147094 A JP 2018147094A JP 2019061659 A JP2019061659 A JP 2019061659A
- Authority
- JP
- Japan
- Prior art keywords
- objects
- image
- detection
- vehicle
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft
- G08G5/80—Anti-collision systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft
- G08G5/20—Arrangements for acquiring, generating, sharing or displaying traffic information
- G08G5/21—Arrangements for acquiring, generating, sharing or displaying traffic information located onboard the aircraft
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft
- G08G5/20—Arrangements for acquiring, generating, sharing or displaying traffic information
- G08G5/26—Transmission of traffic-related information between aircraft and ground stations
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft
- G08G5/50—Navigation or guidance aids
- G08G5/55—Navigation or guidance aids for a single aircraft
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft
- G08G5/50—Navigation or guidance aids
- G08G5/57—Navigation or guidance aids for unmanned aircraft
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Remote Sensing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Astronomy & Astrophysics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Vascular Medicine (AREA)
Abstract
【解決手段】検出及び回避システム100は、第1のカメラチャネル112において視野の第1の画像を取得するように構成された撮像ユニット102を備える。第1のカメラチャネル112は、視野内の一又は複数のオブジェクトが放射線を放出しない波長の放射線をフィルタリングする。検出及び回避システム100は、撮像ユニット102から第1の画像を受け取ってその中の一又は複数のオブジェクトを検出するように構成された処理ユニット104と、検出された一又は複数のオブジェクトに基づいて決定された衝突危険情報を、ビークルのパイロット制御システムに伝達するように構成された通知ユニット108とを更に備える。それに応じて、パイロット制御は、検出されたオブジェクトを回避するようにビークルを操作する。
【選択図】図1
Description
本発明は、無人航空機(UAV)のようなビークルのための、衝突の危険を呈している閾値オブジェクトをマスクするために閾値(第1の)画像を用いて衝突の危険のあるオブジェクトを検出する検出及び回避システムを提供する。閾値オブジェクトを検出すると、検出及び回避システムは、ビークルのオートパイロット制御システムといったパイロット制御システムに、検出されたオブジェクトに基づいて決定された衝突危険情報に従って回避操作を実施するよう通知する。
条項1. ビークルによる検出及び回避システムであって:第1のカメラチャネルにおいて視野の第1の画像を取得するように構成された撮像ユニットであって、第1のカメラチャネルは、視野内の一又は複数のオブジェクトが放射線を放出しない波長の放射線をフィルタリングする、撮像ユニット;撮像ユニットから第1の画像を受け取ってその中の一又は複数のオブジェクトを検出するように構成された処理ユニット;及び検出された一又は複数のオブジェクトに基づいて決定された衝突危険情報をビークルのパイロット制御システムに伝達するように構成された通知ユニットを備える検出及び回避システム。
条項2. 前記波長が紫外域内にあり、第1のカメラチャネルが、紫外域内にバンドパス波長域を有するフィルタの使用により放射線をフィルタリングする、条項1の検出及び回避システム。
条項3. 第1の画像を処理することが地平線検出を含む、条項1の検出及び回避システム。
条項4. 地平線検出が、地平線領域の端から延びる地上オブジェクトを含むように隣接ピクセルを加えることにより、地平線領域を拡張することを含む、条項3の検出及び回避システム。
条項5. 一又は複数のオブジェクトが、接続コンポーネントラベリング(CCL)の使用により検出される、条項1の検出及び回避システム。
条項6. 第1の画像を処理することが、一の基準により、検出された一又は複数のオブジェクトからの、衝突の危険がなさそうなオブジェクトの除外を選択することを含む、条項1の検出及び回避システム。
条項7. 検出された一又は複数のオブジェクトに基づいて衝突危険情報を決定するように構成された分析ユニットを更に備える、条項1の検出及び回避システム。
条項8. 分析ユニットが、認識時に一又は複数のオブジェクトを分類する学習機構を含む、条項7の検出及び回避システム。
条項9. 撮像ユニットが更に、前記波長の放射線をフィルタリングしない第2のカメラチャネルにおいて実質的に同じ視野の第2の画像を取得するように構成されており、処理ユニットが更に、第1の画像内において、一又は複数のオブジェクトに対応する一又は複数の第1の領域を識別し、第2の画像内において、一又は複数の第1の領域に対応する一又は複数の第2の領域を識別するように構成されており;且つ検出及び回避システムが、一又は複数の第1及び第2の領域に基づいて衝突危険情報を決定するように構成された分析ユニットを更に備える、条項1の検出及び回避システム。
条項10. 第2の画像がカラー画像である、条項9の検出及び回避システム。
条項11. 分析ユニットが、認識時にオブジェクトを分類する学習機構を含む、条項9の検出及び回避システム。
条項12. 分析ユニットが、認識時に一又は複数のオブジェクトについて領域のセグメンテーションを生成する、条項9の検出及び回避システム。
条項13. 通知ユニットが、パイロット制御システムに、検出された一又は複数のオブジェクトを回避する操作を実施することを通知する、条項1の検出及び回避システム。
条項14. ビークルが無人ビークルである、条項1の検出及び回避システム。
条項15. ビークルが無人航空機である、条項1の検出及び回避システム。
条項16. ビークルによる検出及び回避方法であって:視野内の一又は複数のオブジェクトが放射線を放出しない波長の放射線をフィルタリングする第1のカメラチャネルにおいて、視野の第1の画像を取得すること;一又は複数のオブジェクトを検出するために第1の画像を処理すること;及び検出された一又は複数のオブジェクトに基づいて決定された衝突危険情報をビークルのパイロット制御システムに伝達することを含む方法。
条項17. 前記波長が紫外域内にあり、第1のカメラチャネルが、紫外域内にバンドパス波長域を有するフィルタの使用により放射線をフィルタリングする、条項16の方法。
条項18. 第1の画像を処理することが地平線検出を含む、条項16の方法。
条項19. 地平線検出が、地平線領域の端から延びる地上オブジェクトを含むように隣接ピクセルを加えることにより、地平線領域を拡張することを含む、条項18の方法。
条項20. 一又は複数のオブジェクトが、接続コンポーネントラベリング(CCL)の使用により検出される、条項16の方法。
条項21. 第1の画像を処理することが、一の基準により、検出された一又は複数のオブジェクトからの、衝突の危険がなさそうなオブジェクトの除外を選択することを更に含む、条項16の方法。
条項22. 衝突危険情報を決定するために、検出された一又は複数のオブジェクトを分析ユニットに伝達することを更に含む、条項16の方法。
条項23. 分析ユニットが、認識時に一又は複数のオブジェクトを分類する学習機構を含む、条項22の方法。
条項24. 前記波長の放射線をフィルタリングしない第2のカメラチャネルにおいて実質的に同じ視野の第2の画像を取得すること;第1の画像内において、一又は複数のオブジェクトに対応する一又は複数の第1の領域を識別すること;第2の画像内において、一又は複数の第1の領域に対応する一又は複数の第2の領域を識別すること;及び衝突危険情報を決定するために、一又は複数の第1及び第2の領域を分析ユニットに伝達することを更に含む、条項16の方法。
条項25. 第2の画像がカラー画像であること;分析ユニットが、認識時にオブジェクトを分類する学習機構を含むこと;及び分析ユニットが、認識時に一又は複数のオブジェクトについて領域のセグメンテーションを生成することのうちの少なくとも一つに当てはまる、条項24の方法。
条項26. 検出された一又は複数のオブジェクトを回避するための操作を実施することを更に含む、条項16の方法。
条項27. ビークルが無人陸用ビークルであること;及びビークルが無人航空ビークルことのうちの少なくとも一つに当てはまる、条項16の方法。
条項28. パイロット制御システムと、第1のカメラチャネルにおいて視野の第1の画像を取得するように構成された撮像ユニットであって、第1のカメラチャネルは、視野内の一又は複数のオブジェクトが放射線を放出しない波長の放射線をフィルタリングする、撮像ユニット;撮像ユニットから第1の画像を受け取ってその中の一又は複数のオブジェクトを検出するように構成された処理ユニット;及び検出された一又は複数のオブジェクトに基づいて決定された衝突危険情報をパイロット制御システムに伝達するように構成された通知ユニットを備える検出及び回避システムとを備える航空ビークル。
条項29. 前記波長が紫外域内にあり、第1のカメラチャネルが、紫外域内にバンドパス波長域を有するフィルタの使用により放射線をフィルタリングする、条項28の航空ビークル。
条項30. 第1の画像を処理することが地平線検出を含む、条項28の航空ビークル。
条項31. 第28の画像を処理することが、一の基準により、検出された一又は複数のオブジェクトからの、衝突の危険がなさそうなオブジェクトの除外を選択することを含む、条項28の航空ビークル。
条項32. 検出及び回避システムが、検出された一又は複数のオブジェクトに基づいて衝突危険情報を決定するように構成された分析ユニットを更に備える、条項28の航空ビークル。
条項33. 撮像ユニットが更に、前記波長における放射線をフィルタリングしない第2のカメラチャネルにおいて実質的に同じ視野の第2の画像を取得するように構成されており、処理ユニットが更に、第1の画像内において、一又は複数のオブジェクトに対応する一又は複数の第1の領域を識別し、第2の画像内において、一又は複数の第1の領域に対応する一又は複数の第2の領域を識別するように構成されており;且つ検出及び回避システムが、一又は複数の第1及び第2の領域に基づいて衝突危険情報を決定するように構成された分析ユニットを更に備える、条項28の航空ビークル。
条項34. 第2の画像がカラー画像であること;分析ユニットが、認識時にオブジェクトを分類する学習機構を含むこと;分析ユニットが、認識時に一又は複数のオブジェクトについて領域のセグメンテーションを生成すること;パイロット制御システムが、検出された一又は複数のオブジェクトを回避するようにビークルを操作すること;及び航空ビークルが無人であることのうちの少なくとも一つに当てはまる、条項33の航空ビークル。
条項35. コンピュータによって実行されるよう構成された一又は複数のプログラムを有する非一過性のコンピュータ可読記憶媒体であって、一又は複数のプログラムが:視野内の一又は複数のオブジェクトが放射線を放出しない波長の放射線をフィルタンリングする第1のカメラチャネルにおいて、視野の第1の画像を取得するため;一又は複数のオブジェクトを検出するために第1の画像を処理するため;及び識別された一又は複数のオブジェクトに基づいて決定された衝突危険情報をビークルのパイロット制御システムに伝達するための命令を含む、非一過性のコンピュータ可読記憶媒体。
条項36. 前記波長が紫外域にあり、第1のカメラチャネルが、紫外域内にバンドパス波長域を有するフィルタの使用により放射線をフィルタリングする、条項35の非一過性のコンピュータ可読記憶媒体。
条項37. 命令が、衝突危険情報を決定するために、検出された一又は複数のオブジェクトを分析ユニットに伝達することを含む、条項35の非一過性のコンピュータ可読記憶媒体。
条項38. 分析ユニットが、認識時に一又は複数のオブジェクトを分類する学習機構を含む、条項37の非一過性のコンピュータ可読記憶媒体。
条項39. 命令が、前記波長の放射線をフィルタリングしない第2のカメラチャネルにおいて実質的に同じ視野の第2の画像を取得すること;第1の画像内において、一又は複数のオブジェクトに対応する一又は複数の第1の領域を識別すること;第2の画像内において、一又は複数の第1の領域に対応する一又は複数の第2の領域を識別すること;及び衝突危険情報を決定するために、一又は複数の第1及び第2の領域を分析ユニットに伝達することを更に含む、条項35の非一過性のコンピュータ可読記憶媒体。
条項40. 第2の画像がカラー画像であること;分析ユニットが、認識時にオブジェクトを分類する学習機構を含むこと;分析ユニットが、認識時に一又は複数のオブジェクトについて領域のセグメンテーションを生成すること;及びパイロット制御システムが、検出された一又は複数のオブジェクトを回避するようにビークルを操作することのうちの少なくとも一つに当てはまる、条項39の非一過性のコンピュータ可読記憶媒体。
Claims (15)
- ビークル(500)による検出及び回避システム(100)であって、
第1のカメラチャネル(112)において視野(506)の第1の画像(200)を取得するように構成された撮像ユニット(102)であって、前記第1のカメラチャネルが、前記視野内の一又は複数のオブジェクト(212、220)が放射線を放出しない波長の放射線をフィルタリングする、前記撮像ユニット(102)、
前記撮像ユニットから前記第1の画像を受け取ってその中の一又は複数のオブジェクトを検出するように構成された処理ユニット(104)、及び
検出された前記一又は複数のオブジェクト(220)に基づいて決定された衝突危険情報を前記ビークルのパイロット制御システム(150)に伝達するように構成された通知ユニット(108)
を備える、検出及び回避システム。 - 前記波長が紫外域内にあり、前記第1のカメラチャネルが、紫外域内にバンドパス波長域を有するフィルタ(112A)の使用により放射線をフィルタリングすること、
前記一又は複数のオブジェクトが、接続コンポーネントラベリング(CCL)(422)の使用により検出されること(124)、
前記第1の画像を処理することが、一の基準により、検出された前記一又は複数のオブジェクトからの、衝突の危険がなさそうなオブジェクトの除外を選択すること(126)を更に含むこと、
前記通知ユニットが、前記パイロット制御システムに、検出された前記一又は複数のオブジェクトを回避する操作を実施することを通知すること、
前記ビークルが無人ビークルであること、及び
前記ビークルが無人航空機であること
のうちの少なくとも一つに当てはまる、請求項1に記載の検出及び回避システム。 - 前記第1の画像を処理することが地平線検出(122)を含み、前記地平線検出は、地平線領域(214)の端(214A)から延びる地上オブジェクト(214B)を含むように隣接ピクセルを付加することにより、前記地平線領域を拡張することを含む、請求項1に記載の検出及び回避システム。
- 検出された前記一又は複数のオブジェクトに基づいて衝突危険情報を決定するように構成された分析ユニット(106)を更に備え、前記分析ユニットが、認識時に前記一又は複数のオブジェクトを分類する学習機構(142、144)を含む、請求項1に記載の検出及び回避システム。
- 前記撮像ユニットが更に、前記波長の放射線をフィルタリングしない第2のカメラチャネル(114)において実質的に同じ視野(506)の第2の画像(250)を取得するように構成されており、
前記処理ユニットが更に、前記第1の画像内において、前記一又は複数のオブジェクトに対応する一又は複数の第1の領域(222)を識別し、前記第2の画像内において、前記一又は複数の第1の領域に対応する一又は複数の第2の領域(252)を識別するように構成されており、
前記検出及び回避システムが、前記一又は複数の第1及び第2の領域に基づいて衝突危険情報を決定するように構成された分析ユニット(106)を更に備える、
請求項1に記載の検出及び回避システム。 - 前記第2の画像がカラー画像であること、
前記分析ユニットが認識時にオブジェクトを分類する学習機構(142、144)を含むこと、及び
前記分析ユニットが、認識時に前記一又は複数のオブジェクトについて領域のセグメンテーション(234)を生成すること
のうちの少なくとも一つに当てはまる、請求項5に記載の検出及び回避システム。 - ビークル(500)による検出及び回避の方法(400)であって、
第1のカメラチャネル(112)において視野(506)の第1の画像(200)を取得することであって、前記第1のカメラチャネルが、前記視野内の一又は複数のオブジェクト(212、220)が放射線を放出しない波長の放射線をフィルタリングする、前記第1の画像を取得すること(402)、
前記一又は複数のオブジェクトを検出するために、前記第1の画像を処理すること(404)、及び
検出された前記一又は複数のオブジェクト(202)に基づいて決定された衝突危険情報を前記ビークルのパイロット制御システム(150)に伝達すること
を含む方法。 - 前記波長が紫外域内にあり、前記第1のカメラチャネルが、紫外域内にバンドパス波長域を有するフィルタ(112A)の使用により放射線をフィルタリングすること、
前記一又は複数のオブジェクトが、接続コンポーネントラベリング(CCL)の使用により検出されること(422)、及び
前記第1の画像を処理することが、一の基準により、検出された前記一又は複数のオブジェクトからの、衝突の危険がなさそうなオブジェクトの除外を選択すること(424)を更に含むこと
のうちの少なくとも一つに当てはまる、請求項7に記載の方法。 - 前記第1の画像を処理することが地平線検出(420)を含み、前記地平線検出が、地平線領域(214)の端(214A)から延びる地上オブジェクト(214B)を含むように隣接ピクセルを付加することにより、前記地平線領域を拡張することを(426)含む、請求項7に記載の方法。
- 前記方法が、衝突危険情報を決定するために、検出された前記一又は複数のオブジェクトを分析ユニット(106)に伝達すること(406)を更に含み、前記分析ユニットが、認識時に一又は複数の前記オブジェクトを分類する学習機構を含む、請求項7に記載の方法。
- 前記波長の放射線をフィルタリングしない第2のカメラチャネル(114)において実質的に同じ視野(506)の第2の画像(250)を取得すること(412)、
前記第1の画像において、前記一又は複数のオブジェクトに対応する一又は複数の第1の領域(222)を識別すること(428)、
前記第2の画像において、前記一又は複数の第1の領域に対応する一又は複数の第2の領域(252)を識別すること(430)、及び
衝突危険情報を決定するために、前記一又は複数の第1の領域と前記一又は複数の第2の領域を分析ユニット(106)に伝達すること(432)
を更に含む、請求項7に記載の方法。 - 前記第2の画像がカラー画像であること、
前記分析ユニットが認識時にオブジェクトを分類する学習機構(142、144)を含むこと、及び
前記分析ユニットが、認識時に前記一又は複数のオブジェクトについて領域のセグメンテーション(234)を生成すること
のうちの少なくとも一つに当てはまる、請求項11に記載の方法。 - 前記方法が、検出された前記一又は複数のオブジェクトを回避する操作を実施すること(410)を更に含み、
前記ビークルが無人陸用ビークルであること、及び
前記ビークルが無人航空ビークルであること
のうちの少なくとも一つに当てはまる、請求項7に記載の方法。 - パイロット制御システム(504)と、
第1のカメラチャネル(112)において視野(506)の第1の画像(200)を取得するように構成された撮像ユニット(102)であって、前記第1のカメラチャネルが、前記視野内の一又は複数のオブジェクト(212、220)が放射線を放出しない波長の放射線をフィルタリングする、前記撮像ユニット(102)、
前記撮像ユニットから前記第1の画像を受け取ってその中の一又は複数のオブジェクトを検出するように構成された処理ユニット(104)、及び
検出された前記一又は複数のオブジェクト(220)に基づいて決定された衝突危険情報を前記パイロット制御システム(150)に伝達するように構成された通知ユニット(108)
を含む検出及び回避システム(100)と
を備える航空ビークル(500)。 - 前記波長が紫外域内にあり、前記第1のカメラチャネルが、紫外域内にバンドパス波長域を有するフィルタ(112A)の使用により放射線をフィルタリングすること、
前記第1の画像を処理することが、地平線検出(122)を含むこと、
前記第1の画像を処理することが、一の基準により、検出された前記一又は複数のオブジェクトからの、衝突の危険がなさそうなオブジェクトの除外を選択すること(126)を更に含むこと、及び
前記検出及び回避システムが、検出された前記一又は複数のオブジェクトに基づいて衝突危険情報を決定するように構成された分析ユニット(106)を更に備えること
のうちの少なくとも一つに当てはまる、請求項14に記載の航空ビークル。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US15/675,591 | 2017-08-11 | ||
| US15/675,591 US10515559B2 (en) | 2017-08-11 | 2017-08-11 | Automated detection and avoidance system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019061659A true JP2019061659A (ja) | 2019-04-18 |
| JP7236827B2 JP7236827B2 (ja) | 2023-03-10 |
Family
ID=62791641
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018147094A Active JP7236827B2 (ja) | 2017-08-11 | 2018-08-03 | 自動検出及び回避システム |
Country Status (6)
| Country | Link |
|---|---|
| US (2) | US10515559B2 (ja) |
| EP (1) | EP3444748B1 (ja) |
| JP (1) | JP7236827B2 (ja) |
| CN (1) | CN109387828B (ja) |
| AU (1) | AU2018214066B2 (ja) |
| CA (1) | CA3002083C (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2021192080A1 (ja) * | 2020-03-25 | 2021-09-30 | 日本電気株式会社 | 可視化制御装置、可視化システム、可視化制御方法およびプログラム記憶媒体 |
Families Citing this family (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10963133B2 (en) | 2014-01-07 | 2021-03-30 | Honeywell International Inc. | Enhanced awareness of obstacle proximity |
| US10431105B2 (en) * | 2014-01-07 | 2019-10-01 | Honeywell International Inc. | Enhanced awareness of obstacle proximity |
| US11136138B2 (en) | 2017-07-10 | 2021-10-05 | Autel Robotics Co., Ltd. | Aircraft control method and apparatus and aircraft |
| CN109229400A (zh) * | 2017-07-10 | 2019-01-18 | 深圳市道通智能航空技术有限公司 | 飞行器的控制方法及装置、飞行器 |
| US10399699B1 (en) * | 2017-07-10 | 2019-09-03 | Autel Robotics Co., Ltd. | Aircraft control method and apparatus and aircraft |
| US10515559B2 (en) | 2017-08-11 | 2019-12-24 | The Boeing Company | Automated detection and avoidance system |
| FR3094081B1 (fr) * | 2019-03-19 | 2021-02-26 | Safran | Procédé d’estimation passive du temps avant collision pour un aéronef ou de tout objet volant pouvant être guidé, procédé de navigation associé |
| US11260852B2 (en) * | 2019-03-26 | 2022-03-01 | GM Global Technology Operations LLC | Collision behavior recognition and avoidance |
| US10867522B1 (en) * | 2019-08-28 | 2020-12-15 | Honeywell International Inc. | Systems and methods for vehicle pushback collision notification and avoidance |
| US11541882B2 (en) * | 2019-09-24 | 2023-01-03 | Volvo Car Corporation | Low-impact collision detection |
| EP3799008A1 (en) * | 2019-09-26 | 2021-03-31 | Volocopter GmbH | Method of generating datasets for use in the training and validation of object detection systems |
| RU2755603C2 (ru) * | 2019-09-30 | 2021-09-17 | Акционерное общество "Лаборатория Касперского" | Система и способ обнаружения и противодействия беспилотным летательным аппаратам |
| EP4081982A4 (en) * | 2019-12-23 | 2023-08-16 | A^3 By Airbus, LLC | SYSTEMS AND PROCEDURES FOR EFFECTIVE DETECTION OF COLLISION HAZARDS |
| JP7259780B2 (ja) * | 2020-02-21 | 2023-04-18 | トヨタ自動車株式会社 | 運転支援システム |
| WO2022162645A1 (en) * | 2021-02-01 | 2022-08-04 | Thales Canada Inc. | Machine-learned explainable object detection system and method |
| EP4330946A1 (en) * | 2021-04-29 | 2024-03-06 | Skygrid, LLC | Unmanned aerial vehicle response to object detection |
| US11935220B1 (en) * | 2023-08-14 | 2024-03-19 | Shiv S Naimpally | Using artificial intelligence (AI) to detect debris |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007052645A (ja) * | 2005-08-18 | 2007-03-01 | Fujitsu Ltd | 路面標示認識装置及びシステム |
| JP2014116007A (ja) * | 2012-12-06 | 2014-06-26 | Toyota Motor Engineering & Manufacturing North America Inc | 物体検出パラメータ、物体認識パラメータ、又は、物体検出パラメータと物体認識パラメータの双方を調整するための方法及びロボット |
| US20150302591A1 (en) * | 2014-04-16 | 2015-10-22 | Hyundai Motor Company | System for detecting obstacle using road surface model setting and method thereof |
| JP2015533109A (ja) * | 2012-08-13 | 2015-11-19 | ザ・ボーイング・カンパニーTheBoeing Company | ビデオ画像を用いた衝突検出 |
| US20170076438A1 (en) * | 2015-08-31 | 2017-03-16 | Cape Analytics, Inc. | Systems and methods for analyzing remote sensing imagery |
Family Cites Families (27)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6252537B1 (en) * | 1980-01-21 | 2001-06-26 | Raytheon Company | Air-to-air guidance system and method of operating same |
| US6163309A (en) | 1998-01-16 | 2000-12-19 | Weinert; Charles L. | Head up display and vision system |
| JP2003015599A (ja) * | 1998-01-22 | 2003-01-17 | Matsushita Electric Ind Co Ltd | プラズマディスプレイパネルの駆動方法 |
| EP1199698B1 (en) | 1998-09-04 | 2007-08-29 | Matsushita Electric Industrial Co., Ltd. | A plasma display panel driving method and apparatus |
| EP1202214A3 (en) * | 2000-10-31 | 2005-02-23 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for object recognition |
| EP1797523A4 (en) | 2004-08-23 | 2009-07-22 | Sarnoff Corp | Method and apparatus for producing a fused image |
| FR2875913A1 (fr) * | 2004-09-29 | 2006-03-31 | Sea On Line Sa | Systeme d'alerte anti-collision installe a bord d'un vehicule marin et procede d'analyse anti-collision |
| US7876258B2 (en) * | 2006-03-13 | 2011-01-25 | The Boeing Company | Aircraft collision sense and avoidance system and method |
| EP2159779B1 (en) * | 2008-08-27 | 2013-01-16 | Saab Ab | Using image sensor and tracking filter time-to-go to avoid mid-air collisions |
| US8587770B1 (en) * | 2008-09-24 | 2013-11-19 | Jetprotect Corporation | Aircraft collision warning system |
| US7889115B2 (en) * | 2009-01-30 | 2011-02-15 | The Boeing Company | System and method for tracking and identifying aircraft and ground equipment |
| US9395264B2 (en) * | 2011-06-14 | 2016-07-19 | The Boeing Company | Blunt impact test apparatus and method |
| CN103959308B (zh) * | 2011-08-31 | 2017-09-19 | Metaio有限公司 | 以参考特征匹配图像特征的方法 |
| US9747802B2 (en) * | 2011-09-19 | 2017-08-29 | Innovative Wireless Technologies, Inc. | Collision avoidance system and method for an underground mine environment |
| US9091762B2 (en) * | 2011-10-27 | 2015-07-28 | Gulfstream Aerospace Corporation | Methods and systems for avoiding a collision between an aircraft on a ground surface and an obstacle |
| US8886372B2 (en) * | 2012-09-07 | 2014-11-11 | The Boeing Company | Flight deck touch-sensitive hardware controls |
| CN105009169B (zh) * | 2012-12-21 | 2018-03-09 | 菲力尔系统公司 | 用于抑制图像中的天空区域的系统和方法 |
| DE102013206915A1 (de) | 2013-04-17 | 2014-10-23 | Continental Teves Ag & Co. Ohg | Vorrichtung, System und Verfahren zur Identifizierung belebter Verkehrsobjekte sowie Verwendung des Systems |
| JP6660931B2 (ja) * | 2014-07-08 | 2020-03-11 | ビーエーエスエフ ソシエタス・ヨーロピアBasf Se | 少なくとも1つの物体の位置を決定するための検出器 |
| EP3399381A1 (en) * | 2014-09-05 | 2018-11-07 | SZ DJI Technology Co., Ltd. | Context-based flight mode selection |
| IL236114A (en) * | 2014-12-07 | 2016-04-21 | Yoav Grauer | Object detection enhancement of reflection-based imaging unit |
| US20160282131A1 (en) * | 2015-03-23 | 2016-09-29 | Gulfstream Aerospace Corporation | X-band avian radar detection and warning system |
| CN105371818A (zh) * | 2015-11-30 | 2016-03-02 | 湖北易瓦特科技股份有限公司 | 测距避障仪和无人机测距避障的方法 |
| US20180091797A1 (en) * | 2016-09-27 | 2018-03-29 | The Boeing Company | Apparatus and method of compensating for relative motion of at least two aircraft-mounted cameras |
| US11094208B2 (en) * | 2016-09-30 | 2021-08-17 | The Boeing Company | Stereo camera system for collision avoidance during aircraft surface operations |
| US10453351B2 (en) * | 2017-07-17 | 2019-10-22 | Aurora Flight Sciences Corporation | System and method for detecting obstacles in aerial systems |
| US10515559B2 (en) | 2017-08-11 | 2019-12-24 | The Boeing Company | Automated detection and avoidance system |
-
2017
- 2017-08-11 US US15/675,591 patent/US10515559B2/en active Active
-
2018
- 2018-04-17 CA CA3002083A patent/CA3002083C/en active Active
- 2018-05-29 CN CN201810529134.0A patent/CN109387828B/zh active Active
- 2018-06-26 EP EP18179931.3A patent/EP3444748B1/en active Active
- 2018-08-03 JP JP2018147094A patent/JP7236827B2/ja active Active
- 2018-08-09 AU AU2018214066A patent/AU2018214066B2/en active Active
-
2019
- 2019-12-19 US US16/721,690 patent/US11455898B2/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007052645A (ja) * | 2005-08-18 | 2007-03-01 | Fujitsu Ltd | 路面標示認識装置及びシステム |
| JP2015533109A (ja) * | 2012-08-13 | 2015-11-19 | ザ・ボーイング・カンパニーTheBoeing Company | ビデオ画像を用いた衝突検出 |
| JP2014116007A (ja) * | 2012-12-06 | 2014-06-26 | Toyota Motor Engineering & Manufacturing North America Inc | 物体検出パラメータ、物体認識パラメータ、又は、物体検出パラメータと物体認識パラメータの双方を調整するための方法及びロボット |
| US20150302591A1 (en) * | 2014-04-16 | 2015-10-22 | Hyundai Motor Company | System for detecting obstacle using road surface model setting and method thereof |
| US20170076438A1 (en) * | 2015-08-31 | 2017-03-16 | Cape Analytics, Inc. | Systems and methods for analyzing remote sensing imagery |
Non-Patent Citations (3)
| Title |
|---|
| ADMIN: "Object Counting using Connected Component Labelling", [ONLINE], JPN7022003036, 18 June 2017 (2017-06-18), ISSN: 0004817098 * |
| PRASAD S.HALGAONKAR: "Connected Component Analysis and Change Detection for Images", [ONLINE], JPN7022003037, 2011, ISSN: 0004817099 * |
| 環境省: "第1章 放射線の基礎知識 1.3 放射線", [ONLINE], JPN7022003035, 31 March 2013 (2013-03-31), ISSN: 0004817097 * |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2021192080A1 (ja) * | 2020-03-25 | 2021-09-30 | 日本電気株式会社 | 可視化制御装置、可視化システム、可視化制御方法およびプログラム記憶媒体 |
| JPWO2021192080A1 (ja) * | 2020-03-25 | 2021-09-30 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20190051191A1 (en) | 2019-02-14 |
| CN109387828B (zh) | 2024-02-23 |
| US20200135038A1 (en) | 2020-04-30 |
| CA3002083A1 (en) | 2019-02-11 |
| US11455898B2 (en) | 2022-09-27 |
| EP3444748A3 (en) | 2019-07-17 |
| JP7236827B2 (ja) | 2023-03-10 |
| US10515559B2 (en) | 2019-12-24 |
| EP3444748A2 (en) | 2019-02-20 |
| AU2018214066B2 (en) | 2023-08-31 |
| CA3002083C (en) | 2021-11-16 |
| AU2018214066A1 (en) | 2019-02-28 |
| EP3444748B1 (en) | 2022-08-03 |
| CN109387828A (zh) | 2019-02-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7236827B2 (ja) | 自動検出及び回避システム | |
| KR102514301B1 (ko) | 이종 센서 융합을 이용한 행동 분석 장치 | |
| US10332409B2 (en) | Midair collision threat detection and assessment using visual information | |
| Thai et al. | Detection, tracking and classification of aircraft and drones in digital towers using machine learning on motion patterns | |
| US20100305857A1 (en) | Method and System for Visual Collision Detection and Estimation | |
| ES2908944A2 (es) | Un metodo y sistema implementados por ordenador para detectar objetos pequenos en una imagen usando redes neuronales convolucionales | |
| Kouris et al. | Informed region selection for efficient uav-based object detectors: Altitude-aware vehicle detection with cycar dataset | |
| AU2020102304A4 (en) | I-Drone: INTELLIGENT DRONE TO DETECT THE HUMAN AND PROVIDE HELP | |
| EP3779925B1 (en) | Camera-based angle tracking of swarms for collision avoidance | |
| CN103745241A (zh) | 一种基于自学习算法的智能驾驶方法 | |
| Dolph et al. | Sense and avoid for small unmanned aircraft systems | |
| EP4528691A1 (en) | Airborne object detection systems for aircraft | |
| CN109359545B (zh) | 复杂低空环境下一种协同监视方法与装置 | |
| Farhadmanesh et al. | Implementing Haar cascade classifiers for automated rapid detection of light aircraft at local airports | |
| Zsedrovits et al. | Visual detection and implementation aspects of a UAV see and avoid system | |
| Geyer et al. | Prototype sense-and-avoid system for UAVs | |
| Kim | Automated decision making in road traffic monitoring by on-board unmanned aerial vehicle system | |
| KR101473921B1 (ko) | 관심 검색 윈도우 선정 알고리즘을 이용한 비젼 기반의 전방 비행 물체 검출 방법 | |
| Dolph et al. | An Improved Far-Field Small Unmanned Aerial System Optical Detection Algorithm | |
| Opromolla et al. | Experimental assessment of vision-based sensing for small UAS sense and avoid | |
| Naseri et al. | Detection of drones with YOLOv4 deep learning algorithm | |
| Zsedrovits et al. | Distant aircraft detection in sense-and-avoid on kilo-processor architectures | |
| Rajput et al. | Hazard detection on runways using image processing techniques | |
| Martin et al. | A dataset of stationary, fixed-wing aircraft on a collision course for vision-based sense and avoid | |
| Dumont et al. | AWARE: A video monitoring library applied to the air traffic control context |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210730 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221005 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230131 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230228 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7236827 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |