[go: up one dir, main page]

JP2021190040A - Learning device for underwater target detection and underwater target detector - Google Patents

Learning device for underwater target detection and underwater target detector Download PDF

Info

Publication number
JP2021190040A
JP2021190040A JP2020098166A JP2020098166A JP2021190040A JP 2021190040 A JP2021190040 A JP 2021190040A JP 2020098166 A JP2020098166 A JP 2020098166A JP 2020098166 A JP2020098166 A JP 2020098166A JP 2021190040 A JP2021190040 A JP 2021190040A
Authority
JP
Japan
Prior art keywords
learning
underwater target
observation
underwater
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020098166A
Other languages
Japanese (ja)
Other versions
JP7579068B2 (en
Inventor
健志 市毛
Kenji Ichige
僚太 下脇
Ryota Shimowaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020098166A priority Critical patent/JP7579068B2/en
Publication of JP2021190040A publication Critical patent/JP2021190040A/en
Application granted granted Critical
Publication of JP7579068B2 publication Critical patent/JP7579068B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

To provide a system that realizes highly accurate target detection using many learning models that depend on observation conditions on an underwater target detector that uses a neural network.SOLUTION: A learning model aggregate 114 in which multiple learning models for observation data of underwater targets accumulated together with observation conditions 101 thereof is created, distance calculation means 109 that calculates the distance among calculation means 101 is provided, one or more learning models supported by model selection means 108 are selected based on the distance among the conditions of the learning model aggregate 114, and an underwater target is estimated by inference means 122 based on the extracted learning model.SELECTED DRAWING: Figure 1

Description

本発明は、水中目標物を、観測データを用いて検知する技術に関する。その中でも特に、水中目標物の検知に用いる機械学習による学習を実行する技術に関する。 The present invention relates to a technique for detecting an underwater target using observation data. Among them, in particular, it relates to a technique for executing learning by machine learning used for detecting an underwater target.

なお、観測データには、音波および観測された音波を変換した画像データが含まれる。 The observation data includes sound waves and image data obtained by converting the observed sound waves.

従来、水中目標物を探知するアクティブソーナーに関する従来技術として、特許文献1がある。特許文献1では、連続したパルスを目標物に複数個送波して、その反射エコーの強度を、縦軸に距離、横軸に方位を示す画面を表示して、専門知識を有する判定者が目標物の存在を判定していた。 Conventionally, Patent Document 1 is a conventional technique relating to an active sonar for detecting an underwater target. In Patent Document 1, a judge having specialized knowledge can send a plurality of continuous pulses to a target object and display a screen showing the intensity of the reflected echo on the vertical axis and the direction on the horizontal axis. The existence of the target was judged.

ここで、アクティブソーナーを用いた水中目標物の検知において、機械学習の結果であるニューラルネットで代用することが考えられる。具体的には、反射エコーの強度を、縦軸に距離、横軸に方位を示す画面、すなわち、Bスコープ画面を入力画像として、その中に含まれる目標物のエコーを人ではなく、ニューラルネットで水中目標物の検知を代用する。水中目標物を探知するソーナー装置において、ニューラルネットを適用した従来技術として、特許文献2および3がある。 Here, in the detection of an underwater target using an active sonar, it is conceivable to substitute a neural network which is the result of machine learning. Specifically, the intensity of the reflected echo is shown as the distance on the vertical axis and the orientation on the horizontal axis, that is, the B scope screen is used as the input image, and the echo of the target contained in the screen is not a human but a neural network. Substitutes the detection of underwater targets. Patent Documents 2 and 3 are conventional techniques to which a neural network is applied in a sonar device for detecting an underwater target.

特開平8-129065号公報Japanese Unexamined Patent Publication No. 8-129065 特開2019-200175号公報Japanese Unexamined Patent Publication No. 2019-200175 特開2010-266280号公報Japanese Unexamined Patent Publication No. 2010-266280

上記の特許文献2や3に関し、水中目標物の音波を使用した検出において、観測されるソーナーデータは観測条件に大きく依存し、単一のモデルデータですべての条件のデータに対して、要求される高い検出精度を維持することが困難である。このため、個別の条件に応じた、学習モデルを複数準備し、条件により学習モデルを切り替えて運用することが考えられる。 With respect to the above Patent Documents 2 and 3, in the detection using the sound wave of the underwater target, the observed sonar data largely depends on the observation conditions, and a single model data is required for the data under all the conditions. It is difficult to maintain high detection accuracy. Therefore, it is conceivable to prepare a plurality of learning models according to individual conditions and switch the learning models according to the conditions.

上記のような人工知能(AI)による水中目標物の検知システムで、各種観測条件に対応した、より高い検出精度を発揮することは困難であった。そこで、本発明では、このような水中目標物の検知装置を提供することを目的とする。さらなる本発明の目的として、このような水中目標物の検知装置の構築方法を提供することである。 It has been difficult to achieve higher detection accuracy corresponding to various observation conditions with the above-mentioned artificial intelligence (AI) -based underwater target detection system. Therefore, it is an object of the present invention to provide such an underwater target detection device. A further object of the present invention is to provide a method for constructing such an underwater target detection device.

上記の課題を解決するために、本発明では、水中目標物を検知するための学習モデルを複数用意しておき、前記観測データの観測条件と前記複数の学習モデルの観測条件の距離に基づいて、1つ以上の学習モデルを選択するものである。 In order to solve the above problems, in the present invention, a plurality of learning models for detecting an underwater target are prepared, and based on the distance between the observation conditions of the observation data and the observation conditions of the plurality of learning models. It selects one or more learning models.

より具体的には、水中目標物を、観測データを用いて検知するための水中目標物用学習装置において、前記水中目標物の検知に用いる複数の学習データを、前記水中目標物に対する観測条件とそれぞれ対応付けて記憶する記憶部と、前記水中目標物の観測データおよび前記観測データの観測条件を受け付ける入力部と、受け付けられた前記観測条件と、前記記憶部に記憶された複数の観測条件のそれぞれの距離を計算する距離計算部と、前記距離計算部で計算された距離に基づいて、前記記憶部から学習モデルを選択するモデル選択部と、前記モデル選択部で選択された学習モデルを用いて、前記水中目標物の検知に対する学習を行う学習部とを有し、前記学習部で学習された前記学習モデルを用いて、前記入力部で受け付けられた前記水中目標物に対して検知に関する推論を行うことを可能とする水中目標物検知用学習装置である。 More specifically, in a learning device for an underwater target for detecting an underwater target using observation data, a plurality of learning data used for detecting the underwater target are used as observation conditions for the underwater target. A storage unit that stores the observation data in association with each other, an input unit that accepts the observation data of the underwater target and the observation conditions of the observation data, the received observation conditions, and a plurality of observation conditions stored in the storage unit. Using a distance calculation unit that calculates each distance, a model selection unit that selects a learning model from the storage unit based on the distance calculated by the distance calculation unit, and a learning model selected by the model selection unit. It has a learning unit that learns about the detection of the underwater target, and uses the learning model learned by the learning unit to make inferences about detection of the underwater target received by the input unit. It is a learning device for underwater target detection that makes it possible to perform.

本発明の別態様として、水中航行物あるいは船舶の航行に関する水中目標物を、観測データを用いて検知する水中目標物検知装置において、前記水中目標物の検知に用いる複数の学習データを、前記水中目標物に対する観測条件とそれぞれ対応付けて記憶する記憶部と、前記水中目標物の観測データおよび前記観測データの観測条件を受け付ける入力部と、受け付けられた前記観測条件と、前記記憶部に記憶された複数の観測条件のそれぞれの距離を計算する距離計算部と、前記距離計算部で計算された距離および前記水中航行物あるいは前記船舶が航行を予定する航行ルートに基づいて、前記記憶部から学習モデルを選択するモデル選択部と、前記モデル選択部で選択された前記学習モデルに基づいて、前記入力部で受け付けられた前記水中目標物に対して検知に関する推論を行う推論部とを有する水中目標物検知装置が含まれる。 As another aspect of the present invention, in the underwater target detection device that detects an underwater target or an underwater target related to the navigation of a ship by using observation data, a plurality of learning data used for detecting the underwater target is obtained in the underwater. A storage unit that stores the observation conditions for the target object in association with each other, an input unit that receives the observation data of the underwater target object and the observation conditions of the observation data, the received observation conditions, and the storage unit that stores the observation data. Learning from the storage unit based on the distance calculation unit that calculates the distance of each of the plurality of observation conditions, the distance calculated by the distance calculation unit, and the navigation route that the underwater navigation object or the vessel plans to navigate. An underwater target having a model selection unit that selects a model and an inference unit that makes an inference regarding detection of the underwater target object received by the input unit based on the learning model selected by the model selection unit. Includes object detectors.

本発明によれば、AIを適用した各種観測条件に対応したより高い検出精度を発揮する水中目標物の検知が可能になる。 According to the present invention, it is possible to detect an underwater target that exhibits higher detection accuracy corresponding to various observation conditions to which AI is applied.

実施例1の機能構成を示した図である。It is a figure which showed the functional structure of Example 1. FIG. 実施例1で用いられる観測データの一覧表を示した図である。It is a figure which showed the list of observation data used in Example 1. FIG. 実施例1で用いられる観測条件の例の構成内容を示した図である。It is a figure which showed the composition content of the example of the observation conditions used in Example 1. FIG. 実施例1での条件距離の換算方法の一例を示す図である。It is a figure which shows an example of the conversion method of the conditional distance in Example 1. FIG. 実施例1で用いられる条件空間マップの一つの表現形式の一例を示す図である。It is a figure which shows an example of one expression form of the conditional space map used in Example 1. FIG. 実施例1で用いられる学習モデル集合体を条件空間マップ上に記載した一例を示す図である。It is a figure which shows an example which described the learning model aggregate used in Example 1 on the conditional space map. 実施例1で用いられる学習モデル集合体の内容をある条件空間で切り取った図である。It is a figure which cut out the content of the learning model aggregate used in Example 1 in a certain conditional space. 本発明の実施例1で用いられる条件データの内容を示す図である。It is a figure which shows the content of the condition data used in Example 1 of this invention. 本発明の実施例1で用いられる条件距離の評価値の一例を示す図である。It is a figure which shows an example of the evaluation value of the conditional distance used in Example 1 of this invention. 本発明の実施例1で用いられる推論性能データを示す図である。It is a figure which shows the inference performance data used in Example 1 of this invention. 本発明の実施例1で用いられるマルチクラス学習モデルの組の一例を示す図である。It is a figure which shows an example of the set of the multi-class learning model used in Example 1 of this invention. 実施例2の機能構成を示した図である。It is a figure which showed the functional structure of Example 2. FIG. 実施例2で用いる ループプログラムの構成内容を示す図である。It is a figure which shows the structure contents of the loop program used in Example 2. 実施例1のシステム構成図である。It is a system block diagram of Example 1. FIG. 実施例1の処理概要を示すフローチャートである。It is a flowchart which shows the processing outline of Example 1. FIG. 実施例2のシステム構成図であるIt is a system block diagram of Example 2. 実施例2の処理概要を示すフローチャートである。It is a flowchart which shows the processing outline of Example 2.

以下、本発明の各実施例を説明する。各実施例では、水中航行物あるいは船舶の航行における障害物の検知や水中航行物あるいは船舶を用いた探索のために、水中目標物を検知する。水中目標物の例として、魚群、機雷、人、その他浮遊物・漂流物が含まれる。これらは、あくまでも例であり、他の物体を排除するものではない。また、各実施例において、水中目標物は、少なくともその一部が水上・海上に現れていてもよい。なお、水中航行物あるいは船舶には、水上、海上の他、水中や海中を航行する移動体が含まれる。以後の説明において、単に船舶と記載する際には、水中航行物あるいは船舶を意味するものとする。 Hereinafter, each embodiment of the present invention will be described. In each embodiment, an underwater target is detected for detecting an obstacle in the navigation of an underwater navigation object or a ship, or for searching using an underwater navigation object or a ship. Examples of underwater targets include schools of fish, mines, people, and other floating and drifting objects. These are just examples and do not exclude other objects. Further, in each embodiment, at least a part of the underwater target may appear on the water or the sea. The underwater navigation object or ship includes a moving body that navigates underwater or underwater, in addition to water and sea. In the following description, when the term "ship" is simply used, it means an underwater sailing object or a ship.

まず、本発明の実施例1を説明する。図1は、本実施例の機能構成図である。図1で、100はソーナーデータ、101はソーナーデータ100が測定ないし観測された際の観測条件、102はアノテーションデータ、103はモデルデータ、104は性能データ、105は目標位置推論結果を示す。また、106はシステムインターフェース、107はモデル読書き手段、108はモデル選択手段、109は距離計算手段、110はデータ分割手段、111は学習プロセス手段、112は前処理手段、113は推論プロセス手段を示す。また、114は学習モデル集合体、115は条件マップ、116は条件データ、117は複製されたRawデータ、118はRawデータ、119はマルチクラス学習モデル、120は推論性能データを示す。さらに、121は学習手段、122は推論手段、123は学習手段の出力多次元スコア、124は推論手段の出力多次元スコア、125はスコアの評価関数、126はスコアの評価関数、127は性能分析手段を示す。なお、Rawデータ118に対するポインタも本システムには含まれる。 First, Example 1 of the present invention will be described. FIG. 1 is a functional configuration diagram of this embodiment. In FIG. 1, 100 is sonar data, 101 is observation conditions when the sonar data 100 is measured or observed, 102 is annotation data, 103 is model data, 104 is performance data, and 105 is a target position inference result. Further, 106 is a system interface, 107 is a model reading / writing means, 108 is a model selection means, 109 is a distance calculation means, 110 is a data division means, 111 is a learning process means, 112 is a preprocessing means, and 113 is an inference process means. show. Further, 114 is a learning model set, 115 is a condition map, 116 is condition data, 117 is duplicated Raw data, 118 is Raw data, 119 is a multi-class learning model, and 120 is inference performance data. Further, 121 is a learning means, 122 is a reasoning means, 123 is an output multidimensional score of a learning means, 124 is an output multidimensional score of a reasoning means, 125 is a score evaluation function, 126 is a score evaluation function, and 127 is a performance analysis. Show the means. The system also includes pointers to Raw data 118.

本システムは、図14に示す水中目標物の検知システムに実装可能である。ここで、本システムの各機能や処理を説明する前に、図14を用いて、本実施例のシステム構成を説明する。図14において、本システムは、データセンタ等に設置される水中目標物検知用学習装置10や端末装置20、水上を航行可能な船舶30に設けられた水中目標物検知装置34から構成される。さらに、船舶30には、ソーナー送受信装置31、センサ類32、無線装置33が設けられている。 This system can be implemented in the underwater target detection system shown in FIG. Here, before explaining each function and processing of this system, the system configuration of this embodiment will be described with reference to FIG. In FIG. 14, this system is composed of an underwater target object detection learning device 10 and a terminal device 20 installed in a data center or the like, and an underwater target object detection device 34 provided on a ship 30 capable of navigating on water. Further, the ship 30 is provided with a sonar transmission / reception device 31, sensors 32, and a wireless device 33.

ここで、ソーナー送受信装置31は、検知した音波を電気信号に変換する機能を有する。そして、ソーナー送受信装置31自身もしくは他の装置が、その電気信号を画像データであるソーナーデータ100に変換する。このソーナー送受信装置31は、いわゆるアクティブソーナーが含まれる。 Here, the sonar transmission / reception device 31 has a function of converting the detected sound wave into an electric signal. Then, the sonar transmission / reception device 31 itself or another device converts the electric signal into sonar data 100 which is image data. The sonar transmission / reception device 31 includes a so-called active sonar.

また、センサ類32は、観測条件101の少なくとも一部を検知する機能を有する。例えば、海域の位置情報を測定するGPSセンサ、水深毎の水温である水中温度プロファイルを計測する水温計で実現可能である。なお、観測条件101のうち、海質などは、予め水中目標物検知装置34が記憶している地図情報を用いてもよい。 Further, the sensors 32 have a function of detecting at least a part of the observation condition 101. For example, it can be realized by a GPS sensor that measures the position information of the sea area and a water temperature gauge that measures the underwater temperature profile which is the water temperature at each water depth. Of the observation conditions 101, the map information stored in advance by the underwater target detection device 34 may be used for the sea quality and the like.

また、水中目標物検知用学習装置10と水中目標物検知装置34は、ネットワーク40を介して接続される。この際、水中目標物検知装置34は、船舶30に設置された無線装置33を介して、ネットワーク40と接続される。ネットワーク40は、インターネットのような公衆回線でもよいし、専用線でもよい。 Further, the underwater target object detection learning device 10 and the underwater target object detection device 34 are connected via the network 40. At this time, the underwater target detection device 34 is connected to the network 40 via the wireless device 33 installed on the ship 30. The network 40 may be a public line such as the Internet or a dedicated line.

このように接続されることで、水中目標物検知装置34は、水中目標物検知用学習装置10へ、水中目標物検知装置34が測定ないし特定されるソーナーデータ100や観測条件101を通知できる。さらに、水中目標物検知用学習装置10での学習結果を、水中目標物検知装置34に通知でき、当該水中目標物検知装置34で水中目標物に対する検知に関する推論が可能になる。なお、上述のソーナーデータ100、観測条件101や学習結果はデータ容量が大きくなることがある。この場合、ネットワーク40ではなく、HDDやDVDなどの記憶媒体60を介して、これらをやり取りすることが望ましい。 By being connected in this way, the underwater target detection device 34 can notify the underwater target detection learning device 10 of the sonar data 100 measured or specified by the underwater target detection device 34 and the observation condition 101. Further, the learning result of the underwater target detection learning device 10 can be notified to the underwater target detection device 34, and the underwater target detection device 34 can make an inference regarding the detection of the underwater target. The data capacity of the above-mentioned sonar data 100, observation condition 101, and learning result may be large. In this case, it is desirable to exchange these via a storage medium 60 such as an HDD or a DVD instead of the network 40.

次に、水中目標物検知用学習装置10の詳細について、説明する。水中目標物検知用学習装置10は、いわゆるコンピュータで実現でき、CPUの如き処理部11、メモリのような記憶部12、データの入出力を行うインターフェースのような入出力部13で構成される。そして、各機能は、記憶部12に展開されたプログラムに従って処理部11が演算を行うことで実現される。つまり、モデル選択部1080、距離計算部1090、データ分割部1100、学習プロセス部1110、前処理部1120、学習部1210、性能分析部1270は、プログラムとして、もしくは、プログラムに従った演算の主体として、実現される。ここで、処理部11におけるこれらの各構成要件は、図1に示した各機能ブロックと以下の対応関係にある。 Next, the details of the learning device 10 for detecting an underwater target will be described. The underwater target detection learning device 10 can be realized by a so-called computer, and is composed of a processing unit 11 such as a CPU, a storage unit 12 such as a memory, and an input / output unit 13 such as an interface for inputting / outputting data. Then, each function is realized by the processing unit 11 performing an operation according to the program expanded in the storage unit 12. That is, the model selection unit 1080, the distance calculation unit 1090, the data division unit 1100, the learning process unit 1110, the preprocessing unit 1120, the learning unit 1210, and the performance analysis unit 1270 are used as a program or as a subject of calculation according to the program. , Will be realized. Here, each of these constituent requirements in the processing unit 11 has the following correspondence with each functional block shown in FIG. 1.

モデル選択部1080は、モデル選択手段108に該当する。距離計算部1090は、距離計算手段109に該当する。データ分割部1100は、データ分割手段110に該当する。学習プロセス部1110は、学習プロセス手段111に該当する。前処理部1120は、前処理手段112に該当する。学習部1210は、学習手段121に該当する。性能分析部1270は、性能分析手段127に該当する。 The model selection unit 1080 corresponds to the model selection means 108. The distance calculation unit 1090 corresponds to the distance calculation means 109. The data dividing unit 1100 corresponds to the data dividing means 110. The learning process unit 1110 corresponds to the learning process means 111. The pretreatment unit 1120 corresponds to the pretreatment means 112. The learning unit 1210 corresponds to the learning means 121. The performance analysis unit 1270 corresponds to the performance analysis means 127.

また、水中目標物検知用学習装置10はコンピュータの中でも特に、サーバで構成されることが望ましい。この場合、水中目標物検知用学習装置10は、コンピュータとして実装される端末装置20からの入力を受け付けたり、端末装置20に処理結果を出力することになる。さらに、水中目標物検知用学習装置10は、データベース50に接続される。データベース50には、図1にも示した各種情報が記憶されている。 Further, it is desirable that the learning device 10 for detecting an underwater target is composed of a server, particularly among computers. In this case, the underwater target detection learning device 10 receives input from the terminal device 20 mounted as a computer, and outputs the processing result to the terminal device 20. Further, the underwater target detection learning device 10 is connected to the database 50. Various information shown in FIG. 1 is stored in the database 50.

また、水中目標物検知装置34もコンピュータとして実装可能である。つまり、処理部、記憶部、入出力部を有する。そして、処理部は、推論プロセス部1130および推論部1220を有する。推論プロセス部1130および推論部1220は、処理部11の構成と同様に、プログラムとして、もしくは、プログラムに従った演算の主体として、実現される。また、推論プロセス部1130は、図1の推論プロセス手段113に該当し、推論部1220は、同じく推論手段122に該当する。 Further, the underwater target detection device 34 can also be mounted as a computer. That is, it has a processing unit, a storage unit, and an input / output unit. The processing unit includes an inference process unit 1130 and an inference unit 1220. The inference process unit 1130 and the inference unit 1220 are realized as a program or as a subject of an operation according to the program, as in the configuration of the processing unit 11. Further, the inference process unit 1130 corresponds to the inference process means 113 of FIG. 1, and the inference unit 1220 also corresponds to the inference means 122.

さらに、図14の入出力部13は、図1のシステムインターフェース106やモデル読書き手段107に該当する。なお、システムインターフェース106やモデル読書き手段107の一部の機能は、水中目標物検知装置34の入出力部にも該当する。 Further, the input / output unit 13 of FIG. 14 corresponds to the system interface 106 and the model reading / writing means 107 of FIG. Some functions of the system interface 106 and the model reading / writing means 107 also correspond to the input / output unit of the underwater target detection device 34.

なお、水中目標物検知用学習装置10と水中目標物検知装置34は一体化してもよい。この場合、水中目標物検知装置34に、水中目標物検知用学習装置10の機能を実装することが望ましい。また、水中目標物検知用学習装置10と水中目標物検知装置34の機能分担は、図14に示した内容に限定されない。例えば、水中目標物検知装置34が、距離計算部1090を有してもよい。 The underwater target object detection learning device 10 and the underwater target object detection device 34 may be integrated. In this case, it is desirable to mount the function of the underwater target object detection learning device 10 on the underwater target object detection device 34. Further, the division of functions between the underwater target object detection learning device 10 and the underwater target object detection device 34 is not limited to the content shown in FIG. For example, the underwater target detection device 34 may have a distance calculation unit 1090.

次に、本実施例での処理の概要を説明する。そして、その後に、本実施例で用いられる各種情報および各情報を用いた処理の詳細を説明する。 Next, the outline of the processing in this embodiment will be described. Then, after that, various information used in this embodiment and details of processing using each information will be described.

図15は、本実施例での処理の概要を示すフローチャートである。なお、以下の説明においては、処理の主体を、図1に示す各機能ブロックとして説明する。 FIG. 15 is a flowchart showing an outline of the processing in this embodiment. In the following description, the main body of the process will be described as each functional block shown in FIG.

まず、ステップS1において、システムインターフェース106が、ソーナーデータ100、観測条件101、教師データであるアノテーションデータ102を受け付ける。 First, in step S1, the system interface 106 receives the sonar data 100, the observation condition 101, and the annotation data 102 which is the teacher data.

次に、ステップS2において、距離計算手段109が、ステップS1で入力された観測条件と、学習モデル集合体114の各観測条件との距離を計算する。このことで、距離計算手段109は、学習モデル集合体114の各観測条件に対応付けられた学習モデルまでの距離を特定することが可能になる。 Next, in step S2, the distance calculation means 109 calculates the distance between the observation conditions input in step S1 and each observation condition of the learning model aggregate 114. This makes it possible for the distance calculation means 109 to specify the distance to the learning model associated with each observation condition of the learning model aggregate 114.

次に、ステップS3において、モデル選択手段108は、学習の際と推論の際で異なる働きをする。学習の際には、学習の結果として得られる学習モデルを格納する学習モデル集合体114の内部の位置を1つ決定する。この際、観測条件を条件データ116に格納し、条件マップ115の位置を特定する。推論の際には、ステップS2で特定される各学習モデルの距離に基づいて、ステップS4の学習に用いる学習モデルを、学習モデル集合体114から選択する。 Next, in step S3, the model selection means 108 works differently in learning and inference. At the time of learning, one position inside the learning model set 114 that stores the learning model obtained as a result of learning is determined. At this time, the observation conditions are stored in the condition data 116, and the position of the condition map 115 is specified. At the time of inference, the learning model used for learning in step S4 is selected from the learning model aggregate 114 based on the distance of each learning model specified in step S2.

次に、ステップS4は、学習の際にのみ処理を実行されることが望ましく、学習プロセス手段111および学習手段121は、協働して学習処理を実行する。ステップS4は、推論の際には、本処理をスキップし、ステップS5へと移行することが望ましい。 Next, in step S4, it is desirable that the process is executed only at the time of learning, and the learning process means 111 and the learning means 121 collaborate to execute the learning process. At the time of inference, it is desirable that step S4 skips this process and proceeds to step S5.

最後に、ステップS5は、推論時の際にのみ処理を実行されることが望ましく、推論プロセス手段113と推論手段122は、ステップS3で選択された学習モデルを用いて、ソーナーデータ100に対する水中目標物の検知のための推論処理を実行する。ステップS5では、学習の際には、本処理をスキップすることが望ましい。 Finally, it is desirable that step S5 be executed only at the time of inference, and the inference process means 113 and the inference means 122 use the learning model selected in step S3 to make an underwater target for the sonar data 100. Performs inference processing for object detection. In step S5, it is desirable to skip this process during learning.

以上で、本実施例の処理の概要の説明を終了する。以下、図1を用いて、本実施例での処理の詳細を、用いる情報の説明を交えながら説明する。 This is the end of the description of the outline of the process of this embodiment. Hereinafter, the details of the processing in this embodiment will be described with reference to FIG. 1 together with the explanation of the information to be used.

ここで、図15のステップS1を実行する機能ブロックについて、説明する。この前提として、本実施例のソーナー送受信装置31の動作について説明する。なお、以下で説明する情報の格納は、図1に示すデータベース50、記憶部12、水中目標物検知装置34の記憶部などに適宜格納することを意味する。 Here, a functional block for executing step S1 in FIG. 15 will be described. As this premise, the operation of the sonar transmission / reception device 31 of this embodiment will be described. The storage of the information described below means that the information is appropriately stored in the database 50, the storage unit 12, the storage unit of the underwater target detection device 34, etc. shown in FIG.

ソーナー送受信装置31の一種であるアクティブ方式のソーナー装置では、水中目標物に対して音波を発生し、反射してくる音波の強度を応答時間に基づいて分析して、目標物の方位と距離を推定する。その観測データすなわちソーナーデータはBスコープ形式の画像データに変換し、目標物の反射波の形状により目標物の検出を行うシステムを構成する。Bスコープ形式で画像を表示する際に表示装置に投影するための表示用の解像度変換、強調処理が行われる。この変換を行う前のソーナーデータ100を特に、Rawデータと呼ぶ。AIで学習および推論を行う際には、主にRawデータを用いる。ソーナーデータの種別、およびAIの処理に応じて、解像度を変換したデータを用いてもよい。 In an active sonar device, which is a type of sonar transmitter / receiver 31, an active type sonar device generates sound waves for an underwater target, analyzes the intensity of the reflected sound waves based on the response time, and determines the direction and distance of the target. presume. The observation data, that is, sonar data, is converted into B-scope format image data, and a system is constructed in which the target is detected by the shape of the reflected wave of the target. When displaying an image in B-scope format, resolution conversion and enhancement processing for display are performed for projection on the display device. The sonar data 100 before this conversion is particularly called raw data. Raw data is mainly used when learning and inferring with AI. Data whose resolution has been converted may be used depending on the type of sonar data and the processing of AI.

ソーナーデータ100、観測条件101、およびアノテーションデータ102は本システムのシステムインターフェース106を介して入力され、学習手段121により機械学習による学習を実行する。前述のように、ソーナーデータ100は画像データ、すなわち、信号強度を値とする2次元の配列データが、時系列で入力されるデータ形式である。観測条件101は、観測を行っている海域の位置情報、目標物の深度、海質(砂、泥ほか)、水温、測定船の速力、ソーナー送受信装置31の姿勢などが含まれる。 The sonar data 100, the observation condition 101, and the annotation data 102 are input via the system interface 106 of the system, and learning by machine learning is executed by the learning means 121. As described above, the sonar data 100 is an image data, that is, a data format in which two-dimensional array data having a signal strength as a value is input in time series. The observation condition 101 includes position information of the sea area where the observation is being made, the depth of the target object, the sea quality (sand, mud, etc.), the water temperature, the speed of the measuring ship, the attitude of the sonar transmitter / receiver 31, and the like.

アノテーションデータ102は、学習を行うための教師データであり、あらかじめ設定された目標物の種類、位置、姿勢の情報である。アノテーションデータ102としては、目標物に関するGPSシステム上の緯度経度および深度の情報を2次元画像データ上の位置情報に変換したデータや、熟練した水測員がBスコープ上に表示したソーナーデータについて、フレーム毎に水中目標物の位置、姿勢を算出して結果を用いる。 The annotation data 102 is teacher data for learning, and is information on a preset type, position, and posture of a target object. The annotation data 102 includes data obtained by converting latitude / longitude and depth information on the GPS system regarding the target into position information on two-dimensional image data, and sonar data displayed on the B scope by a skilled water surveyor. The position and posture of the underwater target are calculated for each frame and the results are used.

本システムで使用する機械学習のモデルは、画像データ中の物体検出に適したモデル形式を採用する。画像中から定まった形状で任意の大きさの物体を検出するAI手法が公開されており、そのひとつを用いれば、複数の物体の位置および物体の画像範囲を推定することが可能である。この場合、複数の形状の異なる物体は、それぞれは独立したクラスとして認識される。複数のクラスに対応した学習モデルはマルチクラス対応と呼称される。 The machine learning model used in this system adopts a model format suitable for detecting objects in image data. An AI method that detects an object of any size with a fixed shape from an image has been released, and using one of them, it is possible to estimate the position of multiple objects and the image range of the object. In this case, a plurality of objects having different shapes are recognized as independent classes. A learning model that supports multiple classes is called multi-class support.

上記のほかのシステムインターフェース106の入出力として、モデルデータ103、性能データ104、目標位置推論結果105がある。モデルデータ103は、本システムが生成した学習モデル(学習済みデータ)あるいは外部システムに格納されていた学習モデルそのものを示す。性能データ104は、目標物の検出精度など本システムの保持する学習モデルの性能に関するデータであり、図示しない外部システムとの入出力がなされる。目標位置推論結果105は、本システムで学習モデルを設定し、新たなソーナーデータ100を入力して、推論を行った目標物の推論結果のデータである。 As the input / output of the other system interface 106 described above, there are model data 103, performance data 104, and target position inference result 105. The model data 103 indicates a learning model (learned data) generated by this system or a learning model itself stored in an external system. The performance data 104 is data related to the performance of the learning model held by this system, such as the detection accuracy of the target object, and is input / output to / from an external system (not shown). The target position inference result 105 is the inference result data of the target object for which a learning model is set in this system, new sonar data 100 is input, and inference is performed.

図1のシステムインターフェース106の右側に配置したブロックは、本システムの内部処理を実行する機能ブロックである。以下、その内部処理の概要について説明する。 The block arranged on the right side of the system interface 106 in FIG. 1 is a functional block that executes internal processing of this system. The outline of the internal processing will be described below.

モデル読書き手段107は、学習モデルの入出力を実行する機能ブロックであり、学習手段121が生成する学習モデルや、学習モデル集合体114に含まれる学習モデルについて、観測条件101に基づく入出力を行う。 The model reading / writing means 107 is a functional block that executes input / output of the learning model, and inputs / outputs the learning model generated by the learning means 121 and the learning model included in the learning model aggregate 114 based on the observation condition 101. conduct.

次に、図15のステップS2を実行する機能ブロックについて、説明する。距離計算手段109は、システムインターフェース106を介いて入力された観測条件101に対して、学習モデル集合体114に含まれる各観測条件との距離を計算する。このことで、距離計算手段109は、計算された距離を学習モデル集合体114に格納された各学習モデルの距離を特定することになる。ここで、距離計算手段109は、学習モデル集合体114に格納された各学習モデルについて、条件距離を計算し、その結果を条件マップ115として格納する。 Next, a functional block for executing step S2 in FIG. 15 will be described. The distance calculation means 109 calculates the distance from each observation condition included in the learning model aggregate 114 with respect to the observation condition 101 input via the system interface 106. As a result, the distance calculation means 109 specifies the distance of each learning model in which the calculated distance is stored in the learning model aggregate 114. Here, the distance calculation means 109 calculates the conditional distance for each learning model stored in the learning model aggregate 114, and stores the result as the conditional map 115.

距離計算手段109は、さらに、入力された条件データ116を格納し、必要に応じて読み出し処理する。条件距離の算出には、入力された観測条件101と処理する学習モデルの観測条件の2つの条件データが必要である。ここで、図8に、条件データ116を示す。 The distance calculation means 109 further stores the input condition data 116 and reads out the input condition data 116 as necessary. In order to calculate the conditional distance, two conditional data, the input observation condition 101 and the observation condition of the learning model to be processed, are required. Here, FIG. 8 shows the condition data 116.

次に、図15のステップS3を実行する機能ブロックについて、説明する。モデル選択手段108は、学習モデル集合体114から条件が適した1つ以上の学習モデルを選択する機能ブロックである。この条件判断には距離計算手段109が算出する2つの条件間の距離、すなわち条件距離が用いられる。この条件距離は、前述の各学習モデルの距離が含まれる。 Next, a functional block for executing step S3 in FIG. 15 will be described. The model selection means 108 is a functional block that selects one or more learning models with suitable conditions from the learning model aggregate 114. The distance between the two conditions calculated by the distance calculation means 109, that is, the conditional distance is used for this condition determination. This conditional distance includes the distance of each of the above-mentioned learning models.

評価関数125および126は多次元スコアから1つのスカラー値を算出する関数である。目標物が複数のクラスのどれかであることを検出するケースでは、この評価関数は多次元スコアの最大値を抽出する関数を用いることができる。その場合、最大値のスコアに対応するクラスが目標物のクラスとして推定されることになる。 The evaluation functions 125 and 126 are functions for calculating one scalar value from a multidimensional score. In the case of detecting that the target is one of multiple classes, this evaluation function can use a function to extract the maximum value of the multidimensional score. In that case, the class corresponding to the maximum score will be estimated as the target class.

性能分析手段127は、評価関数126により選ばれた目標物の推論結果を教師データであるアノテーションデータと比較し、その一致度合いを推論データのグループ全体にわたって評価して、推論精度を算出する機能ブロックである。 The performance analysis means 127 compares the inference result of the target object selected by the evaluation function 126 with the annotation data which is the teacher data, evaluates the degree of matching over the entire group of inference data, and calculates the inference accuracy. Is.

推論性能データ120は、上記の推論精度を示すデータであるモデル選択手段108での学習モデルの選択にあたって用いられるデータである。この推論性能データ120を、図10に示す。モデル選択手段108は、推論性能データ120の示す推論性能を考慮し、推論性能が所定の推論性能のしきい値を満たさない場合は選択する学習モデルから除外する。 The inference performance data 120 is data used for selecting a learning model by the model selection means 108, which is data indicating the above inference accuracy. The inference performance data 120 is shown in FIG. The model selection means 108 considers the inference performance indicated by the inference performance data 120, and excludes the inference performance from the learning model to be selected when the inference performance does not satisfy the predetermined inference performance threshold value.

次に、図15のステップS4について、説明する。データ分割手段110は、学習プロセス手段111と推論プロセス手段113の入力となるソーナーデータおよびアノテーションデータのデータ集合を分割する処理を実行する。時系列のソーナーデータ100を時刻ごと画像フレーム単位で、学習あるいは推論に振り分けて、それぞれのデータ集合に分割する。 Next, step S4 in FIG. 15 will be described. The data dividing means 110 executes a process of dividing a data set of sonar data and annotation data that are inputs of the learning process means 111 and the inference process means 113. The time-series sonar data 100 is distributed to learning or inference in units of image frames for each time, and is divided into each data set.

学習プロセス手段111は、上記の学習用のソーナーデータ集合について、学習手段121を動作させて、学習モデルを生成する一連の処理を制御する。生成された学習モデルは観測条件に基づいて、学習モデル集合体114に格納し、活用する。 The learning process means 111 operates the learning means 121 with respect to the sonar data set for learning to control a series of processes for generating a learning model. The generated learning model is stored in the learning model aggregate 114 based on the observation conditions and utilized.

学習手段121は、入力の観測データに対応したアノテーションデータを使用する。学習手段121は、その内部処理で、アノテーションデータ102を用いた損失関数の計算を行い、学習モデルの最適化を実行する。 The learning means 121 uses annotation data corresponding to the input observation data. The learning means 121 calculates the loss function using the annotation data 102 in its internal processing, and optimizes the learning model.

また、前処理手段112は、学習など各種処理を行う際に、扱うデータに対して前処理を実行する。前処理には、データの整形などが含まれる。 Further, the preprocessing means 112 executes preprocessing on the data to be handled when performing various processing such as learning. Preprocessing includes data shaping and the like.

次に、図15のステップS5を実行する機能ブロックについて、説明する。推論プロセス手段113は、上記の推論用のソーナーデータ集合について、推論手段122を動作させて、推論結果を算出する一連の処理を制御する。 Next, a functional block for executing step S5 in FIG. 15 will be described. The inference process means 113 operates the inference means 122 with respect to the above-mentioned sonar data set for inference to control a series of processes for calculating the inference result.

推論手段122は、目標物の候補についてのデータを出力する。具体的には、推論の設定しきい値に対応して、有限個の目標物候補の位置とその確からしさを数値化したスコアを出力する。目標物が複数ある場合は複数のクラスに対応した多次元スコアを出力する。 以上で、図1に示す機能ブロックの説明を終了し、以下、さらに、各種情報の詳細の説明を、処理内容を交えながら行う。特に、ステップS2の距離計算の詳細も、下記に示す。 The inference means 122 outputs data about the candidate of the target. Specifically, it outputs a score that quantifies the positions of a finite number of target candidates and their certainty corresponding to the inference setting threshold value. If there are multiple targets, the multidimensional score corresponding to multiple classes is output. This is the end of the description of the functional block shown in FIG. 1, and the details of various information will be further described below with the processing contents. In particular, the details of the distance calculation in step S2 are also shown below.

まず、観測条件101とソーナーデータ100の対応関係について、図2を用いて説明する。ここでは2つの種類の条件として、海域の識別情報A1〜A4と深度D1〜D4を例にとって説明する。符号201が海域の種類であり、符号202が深度の違いを区別するためのもので、それら2つの条件に対応するソーナーデータの名称(識別符号として、符号203など)を対応させて示す。図2では、すべての条件に対応するソーナーデータが観測済みで、利用可能であるように示されている。しかしながら、実際の現場ではすべての条件が取得済みとは限らず、未取得のデータ(あるいは欠損データ)もあることにも対応する(具体的には、欠損データを識別し、例外処理を実行する)。 First, the correspondence between the observation condition 101 and the sonar data 100 will be described with reference to FIG. Here, as two types of conditions, the identification information A1 to A4 of the sea area and the depths D1 to D4 will be described as an example. Reference numeral 201 is a type of sea area, and reference numeral 202 is for distinguishing the difference in depth, and the names of sonar data corresponding to these two conditions (reference numeral 203, etc.) are shown in correspondence with each other. In FIG. 2, sonar data corresponding to all conditions have been observed and are shown to be available. However, not all conditions have been acquired at the actual site, and some data (or missing data) has not been acquired (specifically, missing data is identified and exception handling is executed. ).

図3は、観測条件の一例として、海域情報、深度、目標物の種類、目標物の大きさの4種類を示した。aの海域情報は、緯度、経度、底質で構成する。bの深度は目標物の深度を用いる(ここで、depth1などは具体的なメートル単位の数値で置き換えることを想定している)。cの目標物の種類はそれらを区別するための名称あるいは識別コードを格納したデータである。dの大きさは目標物の大きさについて、センチメートルを単位とした数値で格納している。 FIG. 3 shows four types of observation conditions: sea area information, depth, type of target, and size of target. The sea area information of a is composed of latitude, longitude, and sediment. The depth of b uses the depth of the target (here, it is assumed that depth1 etc. is replaced with a concrete numerical value in meters). The type of target object in c is data storing a name or an identification code for distinguishing them. The size of d is stored as a numerical value in centimeters for the size of the target.

図2の海域の情報は、図3の観測条件のaにその詳細が対応しており、図2の深度は図3の深度のbにその詳細が対応している。 The details of the sea area information in FIG. 2 correspond to the observation condition a in FIG. 3, and the depth in FIG. 2 corresponds to the details b in the depth in FIG.

ここで、ステップS2の距離計算に関する情報およびこの距離計算の詳細について、図4、図5および図9を用いながら説明する。図4は、上記4種類の観測条件の距離への変換、すなわち、条件距離の換算方法の一例を示している。各条件はそれぞれでスカラー量(距離)に対応付けている。a,b,c,dそれぞれが海域(A)、深度(D)、目標の種類(O)、目標の大きさ(S)に対応するスカラー量X1,X2,X3、X4への変換テーブルである。各条件の種類を独立した次元とみなせば、図4に示すX1からX4それぞれを座標軸とする多次元空間を想定することができる。図4は各座標軸に沿った距離の計算方法とみなすことができる。上記の多次元空間での距離の測定方法は別途定義することが必要である。 Here, the information regarding the distance calculation in step S2 and the details of the distance calculation will be described with reference to FIGS. 4, 5 and 9. FIG. 4 shows an example of a method for converting the above four types of observation conditions into distances, that is, a method for converting conditional distances. Each condition is associated with a scalar quantity (distance). In the conversion table to scalar quantities X1, X2, X3, X4, each of a, b, c, d corresponds to the sea area (A), depth (D), target type (O), and target size (S). be. If the types of each condition are regarded as independent dimensions, a multidimensional space with each of X1 to X4 shown in FIG. 4 as a coordinate axis can be assumed. FIG. 4 can be regarded as a method of calculating the distance along each coordinate axis. It is necessary to separately define the method for measuring the distance in the above-mentioned multidimensional space.

図9は、図4の条件距離の換算方法を用いて計算した条件距離の結果、つまり、評価値を示す例である。ここに示す条件距離の数値は、海域A1、深度D1を基準とした値である。条件距離の数値範囲は0から330となっている。観測条件101で入力されるすべての条件を用いて条件距離を計算する必要は必ずしもない。学習モデルの適用に対応した条件距離の計算方法であればよい。 FIG. 9 is an example showing the result of the conditional distance calculated by using the conversion method of the conditional distance of FIG. 4, that is, the evaluation value. The numerical values of the conditional distances shown here are values based on the sea area A1 and the depth D1. The numerical range of the conditional distance is 0 to 330. It is not always necessary to calculate the conditional distance using all the conditions input in the observation condition 101. Any method may be used to calculate the conditional distance corresponding to the application of the learning model.

ここで、図9の計算に使用した条件距離の計算法の例を数1に示す。
条件距離(d1,d2)=k1 *|X1(d1)- X1(d2)|+ k2 *| X2(d1) - X2(d2) |(ただし、k1=1, k2=1)・・・(数1)
2つの観測点d1およびd2について、その条件距離(d1,d2)は、2つの条件、海域条件間の距離X1、および深度間の距離X2によってのみ依存する計算式としている。ここで、k1およびk2は各条件の種類(次元)の重みづけの係数である。
Here, an example of the calculation method of the conditional distance used in the calculation of FIG. 9 is shown in Equation 1.
Conditional distance (d1, d2) = k1 * | X1 (d1) -X1 (d2) | + k2 * | X2 (d1) --X2 (d2) | (However, k1 = 1, k2 = 1) ・ ・ ・ ( Number 1)
For the two observation points d1 and d2, the conditional distance (d1, d2) is a calculation formula that depends only on the two conditions, the distance X1 between the sea area conditions, and the distance X2 between the depths. Here, k1 and k2 are the weighting coefficients of each condition type (dimension).

上記の各条件の次元を用いた多次元空間に観測データおよびその学習結果である学習モデルを対応付けることができ、それらを条件マップと呼称する。 Observation data and a learning model that is the learning result can be associated with a multidimensional space using the dimensions of each of the above conditions, and these are called condition maps.

図5は、条件マップの一例であり、観測データを各観測点に対応付けている。各次元のスカラー量X1,X2に対応した位置にプロットしている。観測が行われていない条件があれば、その点は欠損箇所となる。 FIG. 5 is an example of a condition map, and observation data is associated with each observation point. It is plotted at the position corresponding to the scalar quantity X1 and X2 of each dimension. If there is a condition that has not been observed, that point will be a defect.

次に、ステップS3のモデル選択における選択条件について、説明する。モデル選択手段108は、予め記憶されている選択条件に従って、計算された距離に基づき学習モデルを1つ以上選択する。この選択条件には、例えば、「近傍」、「全体」がある。 Next, the selection conditions in the model selection in step S3 will be described. The model selection means 108 selects one or more learning models based on the calculated distance according to the selection conditions stored in advance. This selection condition includes, for example, "neighborhood" and "whole".

まず、近傍について、説明する。近傍を用いる場合、モデル選択手段108は、計算された距離が最も短い学習モデルを選択する。また、この場合、近傍の条件として、モデル選択手段108が、距離が短い順に複数の学習モデルを選択することとしてもよい。さらに、近傍の条件として、モデル選択手段108が、予め定めた距離以内の学習モデルを1以上選択する構成としてもよい。この際、予め定めた距離以内の学習モデルが存在しない場合、モデル選択手段108は、距離の短い順に1以上の学習モデルを選択することが望ましい。このことで、その際に観測された観測条件101にピンポイントで合致した学習モデルを選択することが可能になる。 First, the neighborhood will be described. When using a neighborhood, the model selection means 108 selects the learning model with the shortest calculated distance. Further, in this case, as a neighborhood condition, the model selection means 108 may select a plurality of learning models in ascending order of distance. Further, as a neighborhood condition, the model selection means 108 may be configured to select one or more learning models within a predetermined distance. At this time, if there is no learning model within a predetermined distance, it is desirable that the model selection means 108 selects one or more learning models in ascending order of distance. This makes it possible to select a learning model that pinpoints the observation conditions 101 observed at that time.

次に、全体について、説明する。ここでは、モデル選択手段108は、学習モデル集合体114の各学習モデルの最近傍モデルまでの距離(最近傍距離)の代表値を計算し、これを用いる。このために、モデル選択手段108は、選択される学習モデルの最近傍距離の代表値が、学習モデル集合体114の学習モデル全体と同等なるように選択を行う。ここで、同等とは、同じ値の他、予め定められた差以内であることを含む。また、代表値には、平均値、中央値などが含まれる。以上の全体を用いることで、より汎用的な学習モデルを選択することが可能になる。 Next, the whole will be described. Here, the model selection means 108 calculates a representative value of the distance (nearest neighbor distance) of each learning model of the learning model assembly 114 to the nearest model, and uses this. For this purpose, the model selection means 108 selects so that the representative value of the nearest neighbor distance of the selected learning model is equal to the entire learning model of the learning model aggregate 114. Here, "equivalent" includes the same value and within a predetermined difference. In addition, the representative value includes an average value, a median value, and the like. By using all of the above, it becomes possible to select a more general-purpose learning model.

以上のように、選択条件は、何らかの条件で、1以上つまり単数ないし複数の学習モデルを選択するための条件であればよい。 As described above, the selection condition may be any condition as long as it is a condition for selecting one or more, that is, a single or a plurality of learning models.

このため、モデル選択手段108は、複数の選択条件を組合せて用いることも可能である。例えば、モデル選択手段108は、最も距離の短い学習モデルと、代表値が同等になる複数の学習モデルを選択する。このことで、近傍と全体のバランスが取れた学習モデルの選択が可能になる。 Therefore, the model selection means 108 can also use a plurality of selection conditions in combination. For example, the model selection means 108 selects a learning model having the shortest distance and a plurality of learning models having the same representative value. This makes it possible to select a learning model that is well-balanced between the neighborhood and the whole.

さらに、上述の各選択条件においては、選択する学習モデルの数の上限を定めてもよいし、その数を一定数と定めてもよい。 Further, in each of the above-mentioned selection conditions, an upper limit of the number of learning models to be selected may be set, or the number may be set to a fixed number.

なお、図1で学習手段121から3つの出力多次元スコア123が出力されているのは、3つの学習モデルに対して学習がされていることを示す。つまり、モデル選択手段108が3つの学習モデルを選択したことを示している。また、推論手段122が、3つの多次元スコア124を出力していることも、同様に、モデル選択手段108が3つの学習モデルを選択したことを示す。 The fact that the three output multidimensional scores 123 are output from the learning means 121 in FIG. 1 indicates that learning is being performed for the three learning models. That is, it indicates that the model selection means 108 has selected three learning models. Further, the fact that the inference means 122 outputs the three multidimensional scores 124 also indicates that the model selection means 108 has selected the three learning models.

次に、ステップS4の学習処理に関する情報について説明する。 Next, information regarding the learning process in step S4 will be described.

図6は、条件マップ115上に学習モデルをプロットしたものである。つまり、学習プロセス手段111および学習手段121での学習を行った結果である。この図では、観測が行われていない条件の位置に学習モデルがプロットされている。それらは学習モデル504,505、506である。これらは、2つ以上の学習データの和集合を用いて学習を行った結果である。学習モデル504は深度D1で海域A1と海域A2の和集合を用いた結果であり、学習モデル505,506も同様である。 FIG. 6 is a plot of the learning model on the condition map 115. That is, it is the result of learning by the learning process means 111 and the learning means 121. In this figure, the learning model is plotted at the position of the condition where the observation is not performed. They are learning models 504,505,506. These are the results of training using the union of two or more training data. The learning model 504 is the result of using the union of the sea area A1 and the sea area A2 at the depth D1, and the same applies to the learning models 505 and 506.

図7は、学習モデル集合体の内容を示した図である。ここでは、2つの条件の次元について、各条件に対応する学習モデルの名称を記載している。図6の説明で示した観測データの和集合からの学習モデルについても、学習モデル集合体のデータ内容に追加している。この例のように、学習モデル集合体は運用により、データ内容を拡張する仕組みとすることができる。学習モデルの名称について、一例として、M1111は海域A1、深度D1に対応する学習モデルであり、他の例として、M12-1-1-1は海域A1とA2の和集合、深度D1の条件に対応する学習モデルである。 FIG. 7 is a diagram showing the contents of the learning model aggregate. Here, the names of the learning models corresponding to each condition are described for the dimensions of the two conditions. The learning model from the union of the observation data shown in the explanation of FIG. 6 is also added to the data contents of the learning model aggregate. As shown in this example, the learning model set can be a mechanism for expanding the data contents by operation. Regarding the name of the learning model, as an example, M1111 is a learning model corresponding to the sea area A1 and the depth D1, and as another example, M12-1-1-1 is the union of the sea areas A1 and A2, and the condition of the depth D1. The corresponding learning model.

最後に、図15のステップS5の推定処理について説明する。本実施例のシステムに新たな観測条件101とそのソーナーデータ100を入力し、生成済みの学習モデル集合体で推論を行う場合の処理を説明する。 Finally, the estimation process of step S5 in FIG. 15 will be described. A process in which a new observation condition 101 and its sonar data 100 are input to the system of this embodiment and inference is performed using the generated learning model aggregate will be described.

ソーナーデータ100、観測条件101がシステムインターフェース106に入力され、モデル選択手段108が入力された観測条件に最適な1つ以上の学習モデルを学習モデル集合体114から読み出し、マルチクラス学習モデル119に一時的に保持する。推論プロセス手段113は、入力されるソーナーデータの各フレームについて、推論手段122を動作させ、多次元スコア124を出力させ、評価関数126により推論結果を算出する。算出した推論結果は、推論プロセス手段113がシステムインターフェース106を経由して、目標位置推論結果105に出力する。 The sonar data 100 and the observation condition 101 are input to the system interface 106, and the model selection means 108 reads out one or more learning models optimal for the input observation conditions from the training model aggregate 114 and temporarily inputs them to the multiclass learning model 119. Hold on. The inference process means 113 operates the inference means 122 for each frame of the input sonar data, outputs a multidimensional score 124, and calculates the inference result by the evaluation function 126. The calculated inference result is output to the target position inference result 105 by the inference process means 113 via the system interface 106.

マルチクラス学習モデル119の構成例を、図11に示す。この例では3つの学習モデルM1,M2,M3を使用している。上記の処理で、推論手段122はこのマルチクラス学習モデルに含まれる3つの学習モデルを使用して推論を行い、各モデルに対応するスコア値を多次元スコアにまとめて出力する。評価関数126の処理は前述の最大値を算出する処理を用いる。これにより、選択された3つの学習モデルのうちの1つが目標物の候補になり、その推定位置、目標の確からしさが算出される。 An example of the configuration of the multi-class learning model 119 is shown in FIG. In this example, three learning models M1, M2, and M3 are used. In the above process, the inference means 122 makes inferences using the three learning models included in this multi-class learning model, and outputs the score values corresponding to each model as a multidimensional score. The process of the evaluation function 126 uses the above-mentioned process of calculating the maximum value. As a result, one of the three selected learning models becomes a candidate for the target, and the estimated position and the certainty of the target are calculated.

以上、実施例1によれば、ソーナーデータ100を観測条件101ごとに学習モデルを生成し、それらにより学習モデルの集合体を構築し、新たに入力されるソーナーデータについて、観測条件に対応した最適な学習モデルを1つ以上選定することができる。このため、学習モデルが観測条件101に依存する水中目標物のソーナーデータ100についても、入力される地点の観測条件に対応して、高精度に水中目標物を検出することができる。 As described above, according to the first embodiment, a learning model is generated for each observation condition 101 of the sonar data 100, a set of learning models is constructed by them, and the newly input sonar data is optimized according to the observation conditions. You can select one or more learning models. Therefore, even for the sonar data 100 of the underwater target whose learning model depends on the observation condition 101, the underwater target can be detected with high accuracy according to the observation condition of the input point.

次に、本発明の実施例2について、説明する。この実施例は、船舶30に設置された水中目標物検知装置34’がモデル選択を実行するものである。この水中目標物検知装置34’を含むシステム構成を図16に示す。水中目標物検知装置34’は、実施例1の水中目標物検知用学習装置10と同様に、ソーナー送受信装置31、センサ類32、無線装置33と接続されている。また、図16には、図示しないが実施例1と同様に、ネットワーク40や記憶媒体60を介して、水中目標物検知用学習装置10と情報のやり取りが可能である。 Next, Example 2 of the present invention will be described. In this embodiment, the underwater target detection device 34'installed on the ship 30 executes model selection. FIG. 16 shows a system configuration including the underwater target detection device 34'. The underwater target detection device 34'is connected to the sonar transmission / reception device 31, the sensors 32, and the wireless device 33, similarly to the underwater target detection learning device 10 of the first embodiment. Further, although not shown in FIG. 16, information can be exchanged with the underwater target detection learning device 10 via the network 40 and the storage medium 60, as in the first embodiment.

さらに、水中目標物検知装置34’は、水中目標物検知装置34’に情報の入出力が可能な端末装置36やデータベース35と接続する。なお、端末装置36やデータベース35は、水中目標物検知装置34’と一体化して構成してもよい。 Further, the underwater target detection device 34'is connected to a terminal device 36 or a database 35 capable of inputting / outputting information to the underwater target detection device 34'. The terminal device 36 and the database 35 may be integrated with the underwater target detection device 34'.

次に、水中目標物検知装置34’の詳細を説明する。水中目標物検知装置34’は、実施例1の水中目標物検知用学習装置10や水中目標物検知装置34と同様に、コンピュータで実現される。つまり、水中目標物検知装置34’は、処理部341、記憶部342、入出力部343を有する。このため、そして、水中目標物検知装置34’の各機能は、記憶部342に展開されたプログラムに従って処理部341が演算を行うことで実現される。 Next, the details of the underwater target detection device 34'will be described. The underwater target detection device 34'is realized by a computer in the same manner as the underwater target detection learning device 10 and the underwater target detection device 34 of the first embodiment. That is, the underwater target detection device 34'has a processing unit 341, a storage unit 342, and an input / output unit 343. Therefore, each function of the underwater target detection device 34'is realized by the processing unit 341 performing an operation according to a program developed in the storage unit 342.

ここで、水中目標物検知装置34’の各機能を実現するプログラムについて、説明する。水中目標物検知装置34’は、実施例1の水中目標物検知装置34が備える推論プロセス部1130および推論部1220の他、以下構成を有する。 Here, a program that realizes each function of the underwater target detection device 34'will be described. The underwater target detection device 34'has the following configurations in addition to the inference process unit 1130 and the inference unit 1220 included in the underwater target object detection device 34 of the first embodiment.

まず、水中目標物検知装置34’は、モデル選択部1080、距離計算部1090、データ分割部1100、前処理部1120を有している。これらは、実施例1の水中目標物検知用学習装置10でも有している。水中目標物検知装置34’は、これらに加え、ルート処理部14021を有する。なお、ルート処理部14021以外は、実施例1と同じ機能を発揮する。また、ルート処理部14021の機能については、図12および図13を用いて後述する。 First, the underwater target detection device 34'has a model selection unit 1080, a distance calculation unit 1090, a data division unit 1100, and a preprocessing unit 1120. These are also possessed by the learning device 10 for detecting an underwater target according to the first embodiment. In addition to these, the underwater target detection device 34'has a route processing unit 14021. Other than the route processing unit 14021, the same functions as in the first embodiment are exhibited. The function of the route processing unit 14021 will be described later with reference to FIGS. 12 and 13.

次に、データベース35に格納している各種情報について、説明する。データベース35は、アノテーションデータ102、性能データ104、目標位置推論結果105、学習モデル集合体114、条件マップ115、条件データ116を有する。これらは、実施例1のデータベース50で記憶する情報と同じである。これに加え、実施例2においては、データベース35は、ルートプログラム1403を記憶する。 Next, various information stored in the database 35 will be described. The database 35 has annotation data 102, performance data 104, target position inference result 105, learning model aggregate 114, condition map 115, and condition data 116. These are the same as the information stored in the database 50 of the first embodiment. In addition to this, in the second embodiment, the database 35 stores the root program 1403.

ここで、実施例2の機能構成を、図12を用いて説明する。図12の機能構成は、図16に示す水中目標物検知装置34’の機能を実現するものである。ここで、図12は、図1と比較し、以下の相違がある。ルート処理手段1402およびルートプログラム1403が追加されている。ここで、ルート処理手段1402は、図16のルート処理部14021に対応する。また、図12では、図1から学習プロセス手段111、複製データ117、Rawデータ118、推論性能データ120、学習手段121、出力多次元スコア123、スコアの評価関数125、性能分析手段127が省略されている。 Here, the functional configuration of the second embodiment will be described with reference to FIG. The functional configuration of FIG. 12 realizes the function of the underwater target detection device 34'shown in FIG. Here, FIG. 12 has the following differences as compared with FIG. 1. A route processing means 1402 and a route program 1403 have been added. Here, the route processing means 1402 corresponds to the route processing unit 14021 of FIG. Further, in FIG. 12, the learning process means 111, the duplicate data 117, the raw data 118, the inference performance data 120, the learning means 121, the output multidimensional score 123, the score evaluation function 125, and the performance analysis means 127 are omitted from FIG. ing.

次に、本実施例の処理について、図17のフローチャートを用いて説明する。上述した構成の相違により、本実施例では、図15のステップS1、S2およびS5と同じ処理を実行する。ここでは、これらのステップの説明は省略し、実施例1との相違するステップS3−1およびS3−2について説明する。 Next, the processing of this embodiment will be described with reference to the flowchart of FIG. Due to the difference in the configuration described above, in this embodiment, the same processing as in steps S1, S2 and S5 of FIG. 15 is executed. Here, the description of these steps will be omitted, and steps S3-1 and S3-2, which are different from those of the first embodiment, will be described.

また、図17において、(a)ステップS1〜S3−1が事前準備処理を示し、(b)ステップS3−2およびステップS5が航行の際の処理を示す。このため、(a)については、水中目標物検知用学習装置10が実行してもよい。 Further, in FIG. 17, (a) steps S1 to S3-1 show preparatory processing, and (b) steps S3-2 and step S5 show processing at the time of navigation. Therefore, regarding (a), the learning device 10 for detecting an underwater target may be executed.

なお、実施例1と同様に、その処理主体は、図12に示す機能ブロックを用いて説明する。 As in the case of the first embodiment, the processing subject will be described using the functional block shown in FIG.

まず、ステップS3−1では、ルート処理手段1402が、航行ルート、観測条件および学習モデルを対応づけるルートプログラム1403を作成する。このために、モデル選択手段108は、ステップS2で計算された距離に基づいて、学習モデルを抽出する。この抽出は、実施例1のステップS3におけるモデル選択と同様の処理を行う。 First, in step S3-1, the route processing means 1402 creates a route program 1403 that associates the navigation route, the observation conditions, and the learning model. To this end, the model selection means 108 extracts a learning model based on the distance calculated in step S2. This extraction performs the same processing as the model selection in step S3 of the first embodiment.

但し、ルート処理手段1402、予定される航行ルートに応じた観測条件などの入力情報とする。そして、ルート処理手段1402は、単位時間順の航行ルートごとに、各学習モデルを抽出する。 However, it is input information such as the route processing means 1402 and the observation conditions according to the planned navigation route. Then, the route processing means 1402 extracts each learning model for each navigation route in the order of unit time.

そして、ルート処理手段1402は、抽出した学習モデルとこれに対応する観測条件と、走行ルートを対応付けたルートプログラム1403を作成し、これをデータベース35に記憶する。このルートプログラム1403の一例を、図13に示す。図13では、航行ルートを示すルート(水中経路情報)と、観測条件を示す海域(A)、深度(D)、水中目標物の種別 (O)と、学習モデルを示すmodelが対応付けられている。なお、図13では、航行ルートに対して、観測条件と学習モデルがそれぞれ1つずつ対応付けられているが、複数の観測条件と学習モデルを対応付けてもよい。 Then, the route processing means 1402 creates a route program 1403 in which the extracted learning model, the observation conditions corresponding to the extracted learning model, and the travel route are associated with each other, and stores the route program 1403 in the database 35. An example of this route program 1403 is shown in FIG. In FIG. 13, the route indicating the navigation route (underwater route information), the sea area (A) and depth (D) indicating the observation conditions, the type (O) of the underwater target, and the model indicating the learning model are associated with each other. There is. In FIG. 13, one observation condition and one learning model are associated with each navigation route, but a plurality of observation conditions and a learning model may be associated with each other.

また、ルート処理手段1402は、ルートプログラム1403を、航行ルートを予定される単位時間の順に時系列でソートし、記録する。また、ルート処理手段1402は、ルートプログラム1403に航行予定時間を記録してもよい。 Further, the route processing means 1402 sorts and records the route program 1403 in chronological order in the order of the scheduled unit time of the navigation route. Further, the route processing means 1402 may record the scheduled navigation time in the route program 1403.

次に、航行の際、ステップS3−2において、モデル選択手段108は、ルートプログラム1403から、そのルートあるいは航行時間に該当する学習モデルを適宜選択する。つまり、モデル選択手段108は、時系列にソートされた順に、予定の航行ルートに応じた学習モデルを、ルートプログラム1403から選択する。 Next, at the time of navigation, in step S3-2, the model selection means 108 appropriately selects a learning model corresponding to the route or the navigation time from the route program 1403. That is, the model selection means 108 selects a learning model according to the planned navigation route from the route program 1403 in the order sorted in chronological order.

そして、航行の際に、選択された学習モデルを用いて、ステップS5での推論処理が実行される。 Then, at the time of navigation, the inference process in step S5 is executed using the selected learning model.

なお、実施例2の処理も、実施例1と同じように、水中目標物検知用学習装置10と連携してその機能を発揮してもよい。 The process of the second embodiment may also exhibit its function in cooperation with the learning device 10 for detecting an underwater target, as in the first embodiment.

実施例2によれば、あらかじめ設定された航行ルートに対応する観測条件の時系列に対応して、適宜選ばれた必要な学習モデルを保持して、航行する各地点の観測条件に対応した学習モデルを読み出して目標物を推定する。このため、本実施例では、航行ルートに即した高精度の水中目標物の検出が可能になる。 According to the second embodiment, the learning corresponding to the observation conditions of each navigating point is held by holding the necessary learning model appropriately selected according to the time series of the observation conditions corresponding to the preset navigation route. Read the model and estimate the target. Therefore, in this embodiment, it is possible to detect an underwater target object with high accuracy according to the navigation route.

以上の各実施例では、学習を伴うシステムは学習データおよび学習モデルの維持管理による運用コストを増大させないことが可能になる。 In each of the above embodiments, the system with learning can prevent the operation cost from increasing due to the maintenance of the learning data and the learning model.

また、各実施例では、船舶を対象としたが、航空機等水中目標物を検知する移動体やその手段でも適用可能である。 Further, in each embodiment, although the target is a ship, it can also be applied to a moving body or a means for detecting an underwater target such as an aircraft.

100…ソーナーデータ、101…観測条件入力、102…アノテーションデータ、105…目標位置推論結果、114…学習モデル集合体、108…モデル選択手段、109…距離計算手段、115…条件マップ、121…学習手段、122…推論手段、119…マルチクラス学習モデル 100 ... sonar data, 101 ... observation condition input, 102 ... annotation data, 105 ... target position inference result, 114 ... learning model aggregate, 108 ... model selection means, 109 ... distance calculation means, 115 ... condition map, 121 ... learning Means, 122 ... Inference means, 119 ... Multi-class learning model

Claims (11)

水中目標物を、観測データを用いて検知するための水中目標物用学習装置において、
前記水中目標物の検知に用いる複数の学習データを、前記水中目標物に対する観測条件とそれぞれ対応付けて記憶する記憶部と、
前記水中目標物の観測データおよび前記観測データの観測条件を受け付ける入力部と、
受け付けられた前記観測条件と、前記記憶部に記憶された複数の観測条件のそれぞれの距離を計算する距離計算部と、
前記距離計算部で計算された距離に基づいて、前記記憶部から学習モデルを選択するモデル選択部と、
前記モデル選択部で選択された学習モデルを用いて、前記水中目標物の検知に対する学習を行う学習部とを有し、
前記学習部で学習された前記学習モデルを用いて、前記入力部で受け付けられた前記水中目標物に対して検知に関する推論を行うことを可能とする水中目標物検知用学習装置。
In a learning device for underwater targets for detecting underwater targets using observation data
A storage unit that stores a plurality of learning data used for detecting the underwater target in association with observation conditions for the underwater target, respectively.
An input unit that accepts the observation data of the underwater target and the observation conditions of the observation data,
A distance calculation unit that calculates the distance between the accepted observation conditions and the plurality of observation conditions stored in the storage unit, and the distance calculation unit.
A model selection unit that selects a learning model from the storage unit based on the distance calculated by the distance calculation unit.
It has a learning unit that learns about the detection of the underwater target using the learning model selected by the model selection unit.
An underwater target detection learning device capable of making inferences regarding detection of the underwater target received by the input unit using the learning model learned by the learning unit.
請求項1に記載の水中目標物検知用学習装置において、
前記モデル選択部は、前記距離計算部で計算された距離が最も短い観測条件に対応付けられた学習モデルを選択する水中目標物検知用学習装置。
In the learning device for detecting an underwater target according to claim 1,
The model selection unit is a learning device for detecting an underwater target that selects a learning model associated with an observation condition having the shortest distance calculated by the distance calculation unit.
請求項1に記載の水中目標物検知用学習装置において、
前記モデル選択部は、前記距離計算部で計算された距離に基づいて、複数の学習モデルを選択する水中目標物検知用学習装置。
In the learning device for detecting an underwater target according to claim 1,
The model selection unit is a learning device for detecting an underwater target that selects a plurality of learning models based on the distance calculated by the distance calculation unit.
請求項3に記載の水中目標物検知用学習装置において、
前記モデル選択部は、
前記記憶部に記憶された複数の観測条件の距離の第1の代表値を計算し、
前記第1の代表値と同等の第2の代表値になる観測条件を複数特定し、
特定された複数の前記観測条件に対応付けられた学習モデルを選択する水中目標物検知用学習装置。
In the learning device for detecting an underwater target according to claim 3,
The model selection unit
The first representative value of the distances of the plurality of observation conditions stored in the storage unit is calculated.
A plurality of observation conditions that have a second representative value equivalent to the first representative value are specified, and a plurality of observation conditions are specified.
A learning device for detecting an underwater target that selects a learning model associated with a plurality of specified observation conditions.
請求項3または4のいずれかに記載の水中目標物検知用学習装置において、
前記モデル選択部は、さらに、前記距離計算部で計算された距離が最も短い観測条件に対応付けられた学習モデルを選択する水中目標物検知用学習装置。
In the learning device for detecting an underwater target according to any one of claims 3 or 4.
The model selection unit is a learning device for detecting an underwater target that further selects a learning model associated with the observation condition having the shortest distance calculated by the distance calculation unit.
水中航行物あるいは船舶の航行に関する水中目標物を、観測データを用いて検知する水中目標物検知装置において、
前記水中目標物の検知に用いる複数の学習データを、前記水中航行物あるいは前記水中目標物に対する観測条件とそれぞれ対応付けて記憶する記憶部と、
前記水中目標物の観測データおよび前記観測データの観測条件を受け付ける入力部と、
受け付けられた前記観測条件と、前記記憶部に記憶された複数の観測条件のそれぞれの距離を計算する距離計算部と、
前記距離計算部で計算された距離および前記船舶が航行を予定する航行ルートに基づいて、前記記憶部から学習モデルを選択するモデル選択部と、
前記モデル選択部で選択された前記学習モデルに基づいて、前記入力部で受け付けられた前記水中目標物に対して検知に関する推論を行う推論部とを有する水中目標物検知装置。
In an underwater target detection device that detects underwater targets or underwater targets related to ship navigation using observation data.
A storage unit that stores a plurality of learning data used for detecting the underwater target in association with the observation conditions for the underwater navigation object or the underwater target, respectively.
An input unit that accepts the observation data of the underwater target and the observation conditions of the observation data,
A distance calculation unit that calculates the distance between the accepted observation conditions and the plurality of observation conditions stored in the storage unit, and the distance calculation unit.
A model selection unit that selects a learning model from the storage unit based on the distance calculated by the distance calculation unit and the navigation route that the ship plans to navigate.
An underwater target detection device having an inference unit that makes inferences regarding detection of the underwater target received by the input unit based on the learning model selected by the model selection unit.
請求項6に記載の水中目標物検知装置において、
さらに、前記距離計算部で計算された距離に基づき、学習モデルを抽出し、抽出した前記学習モデルと、当該学習モデルに対応する観測条件および前記航行ルートを対応付けたルートプログラムを作成して、前記記憶部に前記ルートプログラムを記憶するルート処理手段を有し、
前記モデル選択部は、前記ルートプログラムから、前記学習モデルの選択を行う水中目標物検知装置。
In the underwater target detection device according to claim 6,
Further, a learning model is extracted based on the distance calculated by the distance calculation unit, and a route program in which the extracted learning model is associated with the observation conditions corresponding to the learning model and the navigation route is created. The storage unit has a route processing means for storing the route program.
The model selection unit is an underwater target detection device that selects the learning model from the route program.
請求項7に記載の水中目標物検知装置において、
前記ルート処理手段は、前記距離計算部で計算された距離が最も短い観測条件に対応付けられた学習モデルを抽出する水中目標物検知装置。
In the underwater target detection device according to claim 7,
The route processing means is an underwater target detection device that extracts a learning model associated with the observation condition with the shortest distance calculated by the distance calculation unit.
請求項7に記載の水中目標物検知装置において、
前記ルート処理手段は、前記距離計算部で計算された距離に基づいて、複数の学習モデルを抽出する水中目標物検知装置。
In the underwater target detection device according to claim 7,
The route processing means is an underwater target detection device that extracts a plurality of learning models based on the distance calculated by the distance calculation unit.
請求項9に記載の水中目標物検知装置において、
前記ルート処理手段は、
前記記憶部に記憶された複数の観測条件の距離の第1の代表値を計算し、
前記第1の代表値と同等の第2の代表値になる観測条件を複数特定し、
特定された複数の前記観測条件に対応付けられた学習モデルを抽出する水中目標物検知装置。
In the underwater target detection device according to claim 9,
The route processing means is
The first representative value of the distances of the plurality of observation conditions stored in the storage unit is calculated.
A plurality of observation conditions that have a second representative value equivalent to the first representative value are specified, and a plurality of observation conditions are specified.
An underwater target detection device that extracts a learning model associated with a plurality of specified observation conditions.
請求項9または10のいずれかに記載の水中目標物検知装置において、
前記ルート処理手段は、さらに、前記距離計算部で計算された距離が最も短い観測条件に対応付けられた学習モデルを抽出する水中目標物検知装置。
In the underwater target detection device according to any one of claims 9 or 10.
The route processing means is an underwater target detection device that further extracts a learning model associated with the observation condition with the shortest distance calculated by the distance calculation unit.
JP2020098166A 2020-06-05 2020-06-05 Learning device for detecting underwater targets and device for detecting underwater targets Active JP7579068B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020098166A JP7579068B2 (en) 2020-06-05 2020-06-05 Learning device for detecting underwater targets and device for detecting underwater targets

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020098166A JP7579068B2 (en) 2020-06-05 2020-06-05 Learning device for detecting underwater targets and device for detecting underwater targets

Publications (2)

Publication Number Publication Date
JP2021190040A true JP2021190040A (en) 2021-12-13
JP7579068B2 JP7579068B2 (en) 2024-11-07

Family

ID=78850069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020098166A Active JP7579068B2 (en) 2020-06-05 2020-06-05 Learning device for detecting underwater targets and device for detecting underwater targets

Country Status (1)

Country Link
JP (1) JP7579068B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024104243A (en) * 2023-01-23 2024-08-02 株式会社日立製作所 Object detection device and object detection method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019045091A1 (en) * 2017-09-04 2019-03-07 日本電気株式会社 Information processing device, counter system, counting method, and program storage medium
JP2019138152A (en) * 2018-02-06 2019-08-22 株式会社日立製作所 Machine control device
JP2019200175A (en) * 2018-05-18 2019-11-21 古野電気株式会社 Fish species estimation system, fish species estimation method, and program
US20200050202A1 (en) * 2018-08-10 2020-02-13 Buffalo Automation Group, Inc. Deep Learning and Intelligent Sensing System Integration

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019045091A1 (en) * 2017-09-04 2019-03-07 日本電気株式会社 Information processing device, counter system, counting method, and program storage medium
JP2019138152A (en) * 2018-02-06 2019-08-22 株式会社日立製作所 Machine control device
JP2019200175A (en) * 2018-05-18 2019-11-21 古野電気株式会社 Fish species estimation system, fish species estimation method, and program
US20200050202A1 (en) * 2018-08-10 2020-02-13 Buffalo Automation Group, Inc. Deep Learning and Intelligent Sensing System Integration

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024104243A (en) * 2023-01-23 2024-08-02 株式会社日立製作所 Object detection device and object detection method

Also Published As

Publication number Publication date
JP7579068B2 (en) 2024-11-07

Similar Documents

Publication Publication Date Title
CN111486845B (en) AUV multi-strategy navigation method based on submarine topography matching
US20190033447A1 (en) Systems and methods for detecting objects in underwater environments
CN111444767A (en) Pedestrian detection and tracking method based on laser radar
EP3864435A2 (en) Three-dimensional forward-looking sonar target recognition with machine learning
CN117647812B (en) Navigation radar-based ship travel route detection and early warning method and system
Rattray et al. Quantification of spatial and thematic uncertainty in the application of underwater video for benthic habitat mapping
CA3134172C (en) Improved sonar display features
CN112526490B (en) Underwater small target sonar detection system and method based on computer vision
Wawrzyniak et al. MSIS image postioning in port areas with the aid of comparative navigation methods
CN104180873A (en) Single-wave-beam depth finder water depth gross error detection and correction method and system
KR20210055982A (en) A Method of Underwater Environment Mapping System using Underwater Vehicle and Underwater Acoustic Detection Equipment
US6453256B1 (en) System and method for automatically processing and calibrating data from a current measuring device
Gaspar et al. Feature-based place recognition using forward-looking sonar
GB2623670A (en) System and method for dimensioning target objects
US12504285B2 (en) System and method for estimating drift path of marine floating body
JP7579068B2 (en) Learning device for detecting underwater targets and device for detecting underwater targets
Arief et al. Better modeling out-of-distribution regression on distributed acoustic sensor data using anchored hidden state mixup
JP2004170632A (en) 3D seafloor topographic data generator
CN119888691B (en) Transparent obstacle detection and map reconstruction method and system based on laser radar point cloud data
CN114155428A (en) Underwater sonar side-scan image small target detection method based on Yolo-v3 algorithm
CN120495861A (en) Underwater target intelligent recognition system based on multi-sensor fusion
KR20250034937A (en) Method and apparatus for generating an integrated electronic chart, and route setting method using the same
Wlodarczyk-Sielicka et al. General concept of reduction process for big data obtained by interferometric methods
JP2022076675A (en) Object detection identification model generation apparatus using machine learning and program
Islam Deep learning-based SONAR image object detection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241025

R150 Certificate of patent or registration of utility model

Ref document number: 7579068

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150