JP2021190040A - Learning device for underwater target detection and underwater target detector - Google Patents
Learning device for underwater target detection and underwater target detector Download PDFInfo
- Publication number
- JP2021190040A JP2021190040A JP2020098166A JP2020098166A JP2021190040A JP 2021190040 A JP2021190040 A JP 2021190040A JP 2020098166 A JP2020098166 A JP 2020098166A JP 2020098166 A JP2020098166 A JP 2020098166A JP 2021190040 A JP2021190040 A JP 2021190040A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- underwater target
- observation
- underwater
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
Description
本発明は、水中目標物を、観測データを用いて検知する技術に関する。その中でも特に、水中目標物の検知に用いる機械学習による学習を実行する技術に関する。 The present invention relates to a technique for detecting an underwater target using observation data. Among them, in particular, it relates to a technique for executing learning by machine learning used for detecting an underwater target.
なお、観測データには、音波および観測された音波を変換した画像データが含まれる。 The observation data includes sound waves and image data obtained by converting the observed sound waves.
従来、水中目標物を探知するアクティブソーナーに関する従来技術として、特許文献1がある。特許文献1では、連続したパルスを目標物に複数個送波して、その反射エコーの強度を、縦軸に距離、横軸に方位を示す画面を表示して、専門知識を有する判定者が目標物の存在を判定していた。
Conventionally,
ここで、アクティブソーナーを用いた水中目標物の検知において、機械学習の結果であるニューラルネットで代用することが考えられる。具体的には、反射エコーの強度を、縦軸に距離、横軸に方位を示す画面、すなわち、Bスコープ画面を入力画像として、その中に含まれる目標物のエコーを人ではなく、ニューラルネットで水中目標物の検知を代用する。水中目標物を探知するソーナー装置において、ニューラルネットを適用した従来技術として、特許文献2および3がある。
Here, in the detection of an underwater target using an active sonar, it is conceivable to substitute a neural network which is the result of machine learning. Specifically, the intensity of the reflected echo is shown as the distance on the vertical axis and the orientation on the horizontal axis, that is, the B scope screen is used as the input image, and the echo of the target contained in the screen is not a human but a neural network. Substitutes the detection of underwater targets.
上記の特許文献2や3に関し、水中目標物の音波を使用した検出において、観測されるソーナーデータは観測条件に大きく依存し、単一のモデルデータですべての条件のデータに対して、要求される高い検出精度を維持することが困難である。このため、個別の条件に応じた、学習モデルを複数準備し、条件により学習モデルを切り替えて運用することが考えられる。
With respect to the
上記のような人工知能(AI)による水中目標物の検知システムで、各種観測条件に対応した、より高い検出精度を発揮することは困難であった。そこで、本発明では、このような水中目標物の検知装置を提供することを目的とする。さらなる本発明の目的として、このような水中目標物の検知装置の構築方法を提供することである。 It has been difficult to achieve higher detection accuracy corresponding to various observation conditions with the above-mentioned artificial intelligence (AI) -based underwater target detection system. Therefore, it is an object of the present invention to provide such an underwater target detection device. A further object of the present invention is to provide a method for constructing such an underwater target detection device.
上記の課題を解決するために、本発明では、水中目標物を検知するための学習モデルを複数用意しておき、前記観測データの観測条件と前記複数の学習モデルの観測条件の距離に基づいて、1つ以上の学習モデルを選択するものである。 In order to solve the above problems, in the present invention, a plurality of learning models for detecting an underwater target are prepared, and based on the distance between the observation conditions of the observation data and the observation conditions of the plurality of learning models. It selects one or more learning models.
より具体的には、水中目標物を、観測データを用いて検知するための水中目標物用学習装置において、前記水中目標物の検知に用いる複数の学習データを、前記水中目標物に対する観測条件とそれぞれ対応付けて記憶する記憶部と、前記水中目標物の観測データおよび前記観測データの観測条件を受け付ける入力部と、受け付けられた前記観測条件と、前記記憶部に記憶された複数の観測条件のそれぞれの距離を計算する距離計算部と、前記距離計算部で計算された距離に基づいて、前記記憶部から学習モデルを選択するモデル選択部と、前記モデル選択部で選択された学習モデルを用いて、前記水中目標物の検知に対する学習を行う学習部とを有し、前記学習部で学習された前記学習モデルを用いて、前記入力部で受け付けられた前記水中目標物に対して検知に関する推論を行うことを可能とする水中目標物検知用学習装置である。 More specifically, in a learning device for an underwater target for detecting an underwater target using observation data, a plurality of learning data used for detecting the underwater target are used as observation conditions for the underwater target. A storage unit that stores the observation data in association with each other, an input unit that accepts the observation data of the underwater target and the observation conditions of the observation data, the received observation conditions, and a plurality of observation conditions stored in the storage unit. Using a distance calculation unit that calculates each distance, a model selection unit that selects a learning model from the storage unit based on the distance calculated by the distance calculation unit, and a learning model selected by the model selection unit. It has a learning unit that learns about the detection of the underwater target, and uses the learning model learned by the learning unit to make inferences about detection of the underwater target received by the input unit. It is a learning device for underwater target detection that makes it possible to perform.
本発明の別態様として、水中航行物あるいは船舶の航行に関する水中目標物を、観測データを用いて検知する水中目標物検知装置において、前記水中目標物の検知に用いる複数の学習データを、前記水中目標物に対する観測条件とそれぞれ対応付けて記憶する記憶部と、前記水中目標物の観測データおよび前記観測データの観測条件を受け付ける入力部と、受け付けられた前記観測条件と、前記記憶部に記憶された複数の観測条件のそれぞれの距離を計算する距離計算部と、前記距離計算部で計算された距離および前記水中航行物あるいは前記船舶が航行を予定する航行ルートに基づいて、前記記憶部から学習モデルを選択するモデル選択部と、前記モデル選択部で選択された前記学習モデルに基づいて、前記入力部で受け付けられた前記水中目標物に対して検知に関する推論を行う推論部とを有する水中目標物検知装置が含まれる。 As another aspect of the present invention, in the underwater target detection device that detects an underwater target or an underwater target related to the navigation of a ship by using observation data, a plurality of learning data used for detecting the underwater target is obtained in the underwater. A storage unit that stores the observation conditions for the target object in association with each other, an input unit that receives the observation data of the underwater target object and the observation conditions of the observation data, the received observation conditions, and the storage unit that stores the observation data. Learning from the storage unit based on the distance calculation unit that calculates the distance of each of the plurality of observation conditions, the distance calculated by the distance calculation unit, and the navigation route that the underwater navigation object or the vessel plans to navigate. An underwater target having a model selection unit that selects a model and an inference unit that makes an inference regarding detection of the underwater target object received by the input unit based on the learning model selected by the model selection unit. Includes object detectors.
本発明によれば、AIを適用した各種観測条件に対応したより高い検出精度を発揮する水中目標物の検知が可能になる。 According to the present invention, it is possible to detect an underwater target that exhibits higher detection accuracy corresponding to various observation conditions to which AI is applied.
以下、本発明の各実施例を説明する。各実施例では、水中航行物あるいは船舶の航行における障害物の検知や水中航行物あるいは船舶を用いた探索のために、水中目標物を検知する。水中目標物の例として、魚群、機雷、人、その他浮遊物・漂流物が含まれる。これらは、あくまでも例であり、他の物体を排除するものではない。また、各実施例において、水中目標物は、少なくともその一部が水上・海上に現れていてもよい。なお、水中航行物あるいは船舶には、水上、海上の他、水中や海中を航行する移動体が含まれる。以後の説明において、単に船舶と記載する際には、水中航行物あるいは船舶を意味するものとする。 Hereinafter, each embodiment of the present invention will be described. In each embodiment, an underwater target is detected for detecting an obstacle in the navigation of an underwater navigation object or a ship, or for searching using an underwater navigation object or a ship. Examples of underwater targets include schools of fish, mines, people, and other floating and drifting objects. These are just examples and do not exclude other objects. Further, in each embodiment, at least a part of the underwater target may appear on the water or the sea. The underwater navigation object or ship includes a moving body that navigates underwater or underwater, in addition to water and sea. In the following description, when the term "ship" is simply used, it means an underwater sailing object or a ship.
まず、本発明の実施例1を説明する。図1は、本実施例の機能構成図である。図1で、100はソーナーデータ、101はソーナーデータ100が測定ないし観測された際の観測条件、102はアノテーションデータ、103はモデルデータ、104は性能データ、105は目標位置推論結果を示す。また、106はシステムインターフェース、107はモデル読書き手段、108はモデル選択手段、109は距離計算手段、110はデータ分割手段、111は学習プロセス手段、112は前処理手段、113は推論プロセス手段を示す。また、114は学習モデル集合体、115は条件マップ、116は条件データ、117は複製されたRawデータ、118はRawデータ、119はマルチクラス学習モデル、120は推論性能データを示す。さらに、121は学習手段、122は推論手段、123は学習手段の出力多次元スコア、124は推論手段の出力多次元スコア、125はスコアの評価関数、126はスコアの評価関数、127は性能分析手段を示す。なお、Rawデータ118に対するポインタも本システムには含まれる。
First, Example 1 of the present invention will be described. FIG. 1 is a functional configuration diagram of this embodiment. In FIG. 1, 100 is sonar data, 101 is observation conditions when the
本システムは、図14に示す水中目標物の検知システムに実装可能である。ここで、本システムの各機能や処理を説明する前に、図14を用いて、本実施例のシステム構成を説明する。図14において、本システムは、データセンタ等に設置される水中目標物検知用学習装置10や端末装置20、水上を航行可能な船舶30に設けられた水中目標物検知装置34から構成される。さらに、船舶30には、ソーナー送受信装置31、センサ類32、無線装置33が設けられている。
This system can be implemented in the underwater target detection system shown in FIG. Here, before explaining each function and processing of this system, the system configuration of this embodiment will be described with reference to FIG. In FIG. 14, this system is composed of an underwater target object
ここで、ソーナー送受信装置31は、検知した音波を電気信号に変換する機能を有する。そして、ソーナー送受信装置31自身もしくは他の装置が、その電気信号を画像データであるソーナーデータ100に変換する。このソーナー送受信装置31は、いわゆるアクティブソーナーが含まれる。
Here, the sonar transmission /
また、センサ類32は、観測条件101の少なくとも一部を検知する機能を有する。例えば、海域の位置情報を測定するGPSセンサ、水深毎の水温である水中温度プロファイルを計測する水温計で実現可能である。なお、観測条件101のうち、海質などは、予め水中目標物検知装置34が記憶している地図情報を用いてもよい。
Further, the
また、水中目標物検知用学習装置10と水中目標物検知装置34は、ネットワーク40を介して接続される。この際、水中目標物検知装置34は、船舶30に設置された無線装置33を介して、ネットワーク40と接続される。ネットワーク40は、インターネットのような公衆回線でもよいし、専用線でもよい。
Further, the underwater target object
このように接続されることで、水中目標物検知装置34は、水中目標物検知用学習装置10へ、水中目標物検知装置34が測定ないし特定されるソーナーデータ100や観測条件101を通知できる。さらに、水中目標物検知用学習装置10での学習結果を、水中目標物検知装置34に通知でき、当該水中目標物検知装置34で水中目標物に対する検知に関する推論が可能になる。なお、上述のソーナーデータ100、観測条件101や学習結果はデータ容量が大きくなることがある。この場合、ネットワーク40ではなく、HDDやDVDなどの記憶媒体60を介して、これらをやり取りすることが望ましい。
By being connected in this way, the underwater
次に、水中目標物検知用学習装置10の詳細について、説明する。水中目標物検知用学習装置10は、いわゆるコンピュータで実現でき、CPUの如き処理部11、メモリのような記憶部12、データの入出力を行うインターフェースのような入出力部13で構成される。そして、各機能は、記憶部12に展開されたプログラムに従って処理部11が演算を行うことで実現される。つまり、モデル選択部1080、距離計算部1090、データ分割部1100、学習プロセス部1110、前処理部1120、学習部1210、性能分析部1270は、プログラムとして、もしくは、プログラムに従った演算の主体として、実現される。ここで、処理部11におけるこれらの各構成要件は、図1に示した各機能ブロックと以下の対応関係にある。
Next, the details of the
モデル選択部1080は、モデル選択手段108に該当する。距離計算部1090は、距離計算手段109に該当する。データ分割部1100は、データ分割手段110に該当する。学習プロセス部1110は、学習プロセス手段111に該当する。前処理部1120は、前処理手段112に該当する。学習部1210は、学習手段121に該当する。性能分析部1270は、性能分析手段127に該当する。
The
また、水中目標物検知用学習装置10はコンピュータの中でも特に、サーバで構成されることが望ましい。この場合、水中目標物検知用学習装置10は、コンピュータとして実装される端末装置20からの入力を受け付けたり、端末装置20に処理結果を出力することになる。さらに、水中目標物検知用学習装置10は、データベース50に接続される。データベース50には、図1にも示した各種情報が記憶されている。
Further, it is desirable that the
また、水中目標物検知装置34もコンピュータとして実装可能である。つまり、処理部、記憶部、入出力部を有する。そして、処理部は、推論プロセス部1130および推論部1220を有する。推論プロセス部1130および推論部1220は、処理部11の構成と同様に、プログラムとして、もしくは、プログラムに従った演算の主体として、実現される。また、推論プロセス部1130は、図1の推論プロセス手段113に該当し、推論部1220は、同じく推論手段122に該当する。
Further, the underwater
さらに、図14の入出力部13は、図1のシステムインターフェース106やモデル読書き手段107に該当する。なお、システムインターフェース106やモデル読書き手段107の一部の機能は、水中目標物検知装置34の入出力部にも該当する。
Further, the input /
なお、水中目標物検知用学習装置10と水中目標物検知装置34は一体化してもよい。この場合、水中目標物検知装置34に、水中目標物検知用学習装置10の機能を実装することが望ましい。また、水中目標物検知用学習装置10と水中目標物検知装置34の機能分担は、図14に示した内容に限定されない。例えば、水中目標物検知装置34が、距離計算部1090を有してもよい。
The underwater target object
次に、本実施例での処理の概要を説明する。そして、その後に、本実施例で用いられる各種情報および各情報を用いた処理の詳細を説明する。 Next, the outline of the processing in this embodiment will be described. Then, after that, various information used in this embodiment and details of processing using each information will be described.
図15は、本実施例での処理の概要を示すフローチャートである。なお、以下の説明においては、処理の主体を、図1に示す各機能ブロックとして説明する。 FIG. 15 is a flowchart showing an outline of the processing in this embodiment. In the following description, the main body of the process will be described as each functional block shown in FIG.
まず、ステップS1において、システムインターフェース106が、ソーナーデータ100、観測条件101、教師データであるアノテーションデータ102を受け付ける。
First, in step S1, the
次に、ステップS2において、距離計算手段109が、ステップS1で入力された観測条件と、学習モデル集合体114の各観測条件との距離を計算する。このことで、距離計算手段109は、学習モデル集合体114の各観測条件に対応付けられた学習モデルまでの距離を特定することが可能になる。
Next, in step S2, the distance calculation means 109 calculates the distance between the observation conditions input in step S1 and each observation condition of the
次に、ステップS3において、モデル選択手段108は、学習の際と推論の際で異なる働きをする。学習の際には、学習の結果として得られる学習モデルを格納する学習モデル集合体114の内部の位置を1つ決定する。この際、観測条件を条件データ116に格納し、条件マップ115の位置を特定する。推論の際には、ステップS2で特定される各学習モデルの距離に基づいて、ステップS4の学習に用いる学習モデルを、学習モデル集合体114から選択する。
Next, in step S3, the model selection means 108 works differently in learning and inference. At the time of learning, one position inside the learning model set 114 that stores the learning model obtained as a result of learning is determined. At this time, the observation conditions are stored in the
次に、ステップS4は、学習の際にのみ処理を実行されることが望ましく、学習プロセス手段111および学習手段121は、協働して学習処理を実行する。ステップS4は、推論の際には、本処理をスキップし、ステップS5へと移行することが望ましい。 Next, in step S4, it is desirable that the process is executed only at the time of learning, and the learning process means 111 and the learning means 121 collaborate to execute the learning process. At the time of inference, it is desirable that step S4 skips this process and proceeds to step S5.
最後に、ステップS5は、推論時の際にのみ処理を実行されることが望ましく、推論プロセス手段113と推論手段122は、ステップS3で選択された学習モデルを用いて、ソーナーデータ100に対する水中目標物の検知のための推論処理を実行する。ステップS5では、学習の際には、本処理をスキップすることが望ましい。
Finally, it is desirable that step S5 be executed only at the time of inference, and the inference process means 113 and the inference means 122 use the learning model selected in step S3 to make an underwater target for the
以上で、本実施例の処理の概要の説明を終了する。以下、図1を用いて、本実施例での処理の詳細を、用いる情報の説明を交えながら説明する。 This is the end of the description of the outline of the process of this embodiment. Hereinafter, the details of the processing in this embodiment will be described with reference to FIG. 1 together with the explanation of the information to be used.
ここで、図15のステップS1を実行する機能ブロックについて、説明する。この前提として、本実施例のソーナー送受信装置31の動作について説明する。なお、以下で説明する情報の格納は、図1に示すデータベース50、記憶部12、水中目標物検知装置34の記憶部などに適宜格納することを意味する。
Here, a functional block for executing step S1 in FIG. 15 will be described. As this premise, the operation of the sonar transmission /
ソーナー送受信装置31の一種であるアクティブ方式のソーナー装置では、水中目標物に対して音波を発生し、反射してくる音波の強度を応答時間に基づいて分析して、目標物の方位と距離を推定する。その観測データすなわちソーナーデータはBスコープ形式の画像データに変換し、目標物の反射波の形状により目標物の検出を行うシステムを構成する。Bスコープ形式で画像を表示する際に表示装置に投影するための表示用の解像度変換、強調処理が行われる。この変換を行う前のソーナーデータ100を特に、Rawデータと呼ぶ。AIで学習および推論を行う際には、主にRawデータを用いる。ソーナーデータの種別、およびAIの処理に応じて、解像度を変換したデータを用いてもよい。
In an active sonar device, which is a type of sonar transmitter /
ソーナーデータ100、観測条件101、およびアノテーションデータ102は本システムのシステムインターフェース106を介して入力され、学習手段121により機械学習による学習を実行する。前述のように、ソーナーデータ100は画像データ、すなわち、信号強度を値とする2次元の配列データが、時系列で入力されるデータ形式である。観測条件101は、観測を行っている海域の位置情報、目標物の深度、海質(砂、泥ほか)、水温、測定船の速力、ソーナー送受信装置31の姿勢などが含まれる。
The
アノテーションデータ102は、学習を行うための教師データであり、あらかじめ設定された目標物の種類、位置、姿勢の情報である。アノテーションデータ102としては、目標物に関するGPSシステム上の緯度経度および深度の情報を2次元画像データ上の位置情報に変換したデータや、熟練した水測員がBスコープ上に表示したソーナーデータについて、フレーム毎に水中目標物の位置、姿勢を算出して結果を用いる。
The
本システムで使用する機械学習のモデルは、画像データ中の物体検出に適したモデル形式を採用する。画像中から定まった形状で任意の大きさの物体を検出するAI手法が公開されており、そのひとつを用いれば、複数の物体の位置および物体の画像範囲を推定することが可能である。この場合、複数の形状の異なる物体は、それぞれは独立したクラスとして認識される。複数のクラスに対応した学習モデルはマルチクラス対応と呼称される。 The machine learning model used in this system adopts a model format suitable for detecting objects in image data. An AI method that detects an object of any size with a fixed shape from an image has been released, and using one of them, it is possible to estimate the position of multiple objects and the image range of the object. In this case, a plurality of objects having different shapes are recognized as independent classes. A learning model that supports multiple classes is called multi-class support.
上記のほかのシステムインターフェース106の入出力として、モデルデータ103、性能データ104、目標位置推論結果105がある。モデルデータ103は、本システムが生成した学習モデル(学習済みデータ)あるいは外部システムに格納されていた学習モデルそのものを示す。性能データ104は、目標物の検出精度など本システムの保持する学習モデルの性能に関するデータであり、図示しない外部システムとの入出力がなされる。目標位置推論結果105は、本システムで学習モデルを設定し、新たなソーナーデータ100を入力して、推論を行った目標物の推論結果のデータである。
As the input / output of the
図1のシステムインターフェース106の右側に配置したブロックは、本システムの内部処理を実行する機能ブロックである。以下、その内部処理の概要について説明する。
The block arranged on the right side of the
モデル読書き手段107は、学習モデルの入出力を実行する機能ブロックであり、学習手段121が生成する学習モデルや、学習モデル集合体114に含まれる学習モデルについて、観測条件101に基づく入出力を行う。
The model reading / writing means 107 is a functional block that executes input / output of the learning model, and inputs / outputs the learning model generated by the learning means 121 and the learning model included in the
次に、図15のステップS2を実行する機能ブロックについて、説明する。距離計算手段109は、システムインターフェース106を介いて入力された観測条件101に対して、学習モデル集合体114に含まれる各観測条件との距離を計算する。このことで、距離計算手段109は、計算された距離を学習モデル集合体114に格納された各学習モデルの距離を特定することになる。ここで、距離計算手段109は、学習モデル集合体114に格納された各学習モデルについて、条件距離を計算し、その結果を条件マップ115として格納する。
Next, a functional block for executing step S2 in FIG. 15 will be described. The distance calculation means 109 calculates the distance from each observation condition included in the
距離計算手段109は、さらに、入力された条件データ116を格納し、必要に応じて読み出し処理する。条件距離の算出には、入力された観測条件101と処理する学習モデルの観測条件の2つの条件データが必要である。ここで、図8に、条件データ116を示す。
The distance calculation means 109 further stores the
次に、図15のステップS3を実行する機能ブロックについて、説明する。モデル選択手段108は、学習モデル集合体114から条件が適した1つ以上の学習モデルを選択する機能ブロックである。この条件判断には距離計算手段109が算出する2つの条件間の距離、すなわち条件距離が用いられる。この条件距離は、前述の各学習モデルの距離が含まれる。
Next, a functional block for executing step S3 in FIG. 15 will be described. The model selection means 108 is a functional block that selects one or more learning models with suitable conditions from the
評価関数125および126は多次元スコアから1つのスカラー値を算出する関数である。目標物が複数のクラスのどれかであることを検出するケースでは、この評価関数は多次元スコアの最大値を抽出する関数を用いることができる。その場合、最大値のスコアに対応するクラスが目標物のクラスとして推定されることになる。 The evaluation functions 125 and 126 are functions for calculating one scalar value from a multidimensional score. In the case of detecting that the target is one of multiple classes, this evaluation function can use a function to extract the maximum value of the multidimensional score. In that case, the class corresponding to the maximum score will be estimated as the target class.
性能分析手段127は、評価関数126により選ばれた目標物の推論結果を教師データであるアノテーションデータと比較し、その一致度合いを推論データのグループ全体にわたって評価して、推論精度を算出する機能ブロックである。
The performance analysis means 127 compares the inference result of the target object selected by the
推論性能データ120は、上記の推論精度を示すデータであるモデル選択手段108での学習モデルの選択にあたって用いられるデータである。この推論性能データ120を、図10に示す。モデル選択手段108は、推論性能データ120の示す推論性能を考慮し、推論性能が所定の推論性能のしきい値を満たさない場合は選択する学習モデルから除外する。
The
次に、図15のステップS4について、説明する。データ分割手段110は、学習プロセス手段111と推論プロセス手段113の入力となるソーナーデータおよびアノテーションデータのデータ集合を分割する処理を実行する。時系列のソーナーデータ100を時刻ごと画像フレーム単位で、学習あるいは推論に振り分けて、それぞれのデータ集合に分割する。
Next, step S4 in FIG. 15 will be described. The data dividing means 110 executes a process of dividing a data set of sonar data and annotation data that are inputs of the learning process means 111 and the inference process means 113. The time-
学習プロセス手段111は、上記の学習用のソーナーデータ集合について、学習手段121を動作させて、学習モデルを生成する一連の処理を制御する。生成された学習モデルは観測条件に基づいて、学習モデル集合体114に格納し、活用する。
The learning process means 111 operates the learning means 121 with respect to the sonar data set for learning to control a series of processes for generating a learning model. The generated learning model is stored in the
学習手段121は、入力の観測データに対応したアノテーションデータを使用する。学習手段121は、その内部処理で、アノテーションデータ102を用いた損失関数の計算を行い、学習モデルの最適化を実行する。
The learning means 121 uses annotation data corresponding to the input observation data. The learning means 121 calculates the loss function using the
また、前処理手段112は、学習など各種処理を行う際に、扱うデータに対して前処理を実行する。前処理には、データの整形などが含まれる。 Further, the preprocessing means 112 executes preprocessing on the data to be handled when performing various processing such as learning. Preprocessing includes data shaping and the like.
次に、図15のステップS5を実行する機能ブロックについて、説明する。推論プロセス手段113は、上記の推論用のソーナーデータ集合について、推論手段122を動作させて、推論結果を算出する一連の処理を制御する。 Next, a functional block for executing step S5 in FIG. 15 will be described. The inference process means 113 operates the inference means 122 with respect to the above-mentioned sonar data set for inference to control a series of processes for calculating the inference result.
推論手段122は、目標物の候補についてのデータを出力する。具体的には、推論の設定しきい値に対応して、有限個の目標物候補の位置とその確からしさを数値化したスコアを出力する。目標物が複数ある場合は複数のクラスに対応した多次元スコアを出力する。 以上で、図1に示す機能ブロックの説明を終了し、以下、さらに、各種情報の詳細の説明を、処理内容を交えながら行う。特に、ステップS2の距離計算の詳細も、下記に示す。 The inference means 122 outputs data about the candidate of the target. Specifically, it outputs a score that quantifies the positions of a finite number of target candidates and their certainty corresponding to the inference setting threshold value. If there are multiple targets, the multidimensional score corresponding to multiple classes is output. This is the end of the description of the functional block shown in FIG. 1, and the details of various information will be further described below with the processing contents. In particular, the details of the distance calculation in step S2 are also shown below.
まず、観測条件101とソーナーデータ100の対応関係について、図2を用いて説明する。ここでは2つの種類の条件として、海域の識別情報A1〜A4と深度D1〜D4を例にとって説明する。符号201が海域の種類であり、符号202が深度の違いを区別するためのもので、それら2つの条件に対応するソーナーデータの名称(識別符号として、符号203など)を対応させて示す。図2では、すべての条件に対応するソーナーデータが観測済みで、利用可能であるように示されている。しかしながら、実際の現場ではすべての条件が取得済みとは限らず、未取得のデータ(あるいは欠損データ)もあることにも対応する(具体的には、欠損データを識別し、例外処理を実行する)。
First, the correspondence between the
図3は、観測条件の一例として、海域情報、深度、目標物の種類、目標物の大きさの4種類を示した。aの海域情報は、緯度、経度、底質で構成する。bの深度は目標物の深度を用いる(ここで、depth1などは具体的なメートル単位の数値で置き換えることを想定している)。cの目標物の種類はそれらを区別するための名称あるいは識別コードを格納したデータである。dの大きさは目標物の大きさについて、センチメートルを単位とした数値で格納している。 FIG. 3 shows four types of observation conditions: sea area information, depth, type of target, and size of target. The sea area information of a is composed of latitude, longitude, and sediment. The depth of b uses the depth of the target (here, it is assumed that depth1 etc. is replaced with a concrete numerical value in meters). The type of target object in c is data storing a name or an identification code for distinguishing them. The size of d is stored as a numerical value in centimeters for the size of the target.
図2の海域の情報は、図3の観測条件のaにその詳細が対応しており、図2の深度は図3の深度のbにその詳細が対応している。 The details of the sea area information in FIG. 2 correspond to the observation condition a in FIG. 3, and the depth in FIG. 2 corresponds to the details b in the depth in FIG.
ここで、ステップS2の距離計算に関する情報およびこの距離計算の詳細について、図4、図5および図9を用いながら説明する。図4は、上記4種類の観測条件の距離への変換、すなわち、条件距離の換算方法の一例を示している。各条件はそれぞれでスカラー量(距離)に対応付けている。a,b,c,dそれぞれが海域(A)、深度(D)、目標の種類(O)、目標の大きさ(S)に対応するスカラー量X1,X2,X3、X4への変換テーブルである。各条件の種類を独立した次元とみなせば、図4に示すX1からX4それぞれを座標軸とする多次元空間を想定することができる。図4は各座標軸に沿った距離の計算方法とみなすことができる。上記の多次元空間での距離の測定方法は別途定義することが必要である。 Here, the information regarding the distance calculation in step S2 and the details of the distance calculation will be described with reference to FIGS. 4, 5 and 9. FIG. 4 shows an example of a method for converting the above four types of observation conditions into distances, that is, a method for converting conditional distances. Each condition is associated with a scalar quantity (distance). In the conversion table to scalar quantities X1, X2, X3, X4, each of a, b, c, d corresponds to the sea area (A), depth (D), target type (O), and target size (S). be. If the types of each condition are regarded as independent dimensions, a multidimensional space with each of X1 to X4 shown in FIG. 4 as a coordinate axis can be assumed. FIG. 4 can be regarded as a method of calculating the distance along each coordinate axis. It is necessary to separately define the method for measuring the distance in the above-mentioned multidimensional space.
図9は、図4の条件距離の換算方法を用いて計算した条件距離の結果、つまり、評価値を示す例である。ここに示す条件距離の数値は、海域A1、深度D1を基準とした値である。条件距離の数値範囲は0から330となっている。観測条件101で入力されるすべての条件を用いて条件距離を計算する必要は必ずしもない。学習モデルの適用に対応した条件距離の計算方法であればよい。
FIG. 9 is an example showing the result of the conditional distance calculated by using the conversion method of the conditional distance of FIG. 4, that is, the evaluation value. The numerical values of the conditional distances shown here are values based on the sea area A1 and the depth D1. The numerical range of the conditional distance is 0 to 330. It is not always necessary to calculate the conditional distance using all the conditions input in the
ここで、図9の計算に使用した条件距離の計算法の例を数1に示す。
条件距離(d1,d2)=k1 *|X1(d1)- X1(d2)|+ k2 *| X2(d1) - X2(d2) |(ただし、k1=1, k2=1)・・・(数1)
2つの観測点d1およびd2について、その条件距離(d1,d2)は、2つの条件、海域条件間の距離X1、および深度間の距離X2によってのみ依存する計算式としている。ここで、k1およびk2は各条件の種類(次元)の重みづけの係数である。
Here, an example of the calculation method of the conditional distance used in the calculation of FIG. 9 is shown in
Conditional distance (d1, d2) = k1 * | X1 (d1) -X1 (d2) | + k2 * | X2 (d1) --X2 (d2) | (However, k1 = 1, k2 = 1) ・ ・ ・ ( Number 1)
For the two observation points d1 and d2, the conditional distance (d1, d2) is a calculation formula that depends only on the two conditions, the distance X1 between the sea area conditions, and the distance X2 between the depths. Here, k1 and k2 are the weighting coefficients of each condition type (dimension).
上記の各条件の次元を用いた多次元空間に観測データおよびその学習結果である学習モデルを対応付けることができ、それらを条件マップと呼称する。 Observation data and a learning model that is the learning result can be associated with a multidimensional space using the dimensions of each of the above conditions, and these are called condition maps.
図5は、条件マップの一例であり、観測データを各観測点に対応付けている。各次元のスカラー量X1,X2に対応した位置にプロットしている。観測が行われていない条件があれば、その点は欠損箇所となる。 FIG. 5 is an example of a condition map, and observation data is associated with each observation point. It is plotted at the position corresponding to the scalar quantity X1 and X2 of each dimension. If there is a condition that has not been observed, that point will be a defect.
次に、ステップS3のモデル選択における選択条件について、説明する。モデル選択手段108は、予め記憶されている選択条件に従って、計算された距離に基づき学習モデルを1つ以上選択する。この選択条件には、例えば、「近傍」、「全体」がある。 Next, the selection conditions in the model selection in step S3 will be described. The model selection means 108 selects one or more learning models based on the calculated distance according to the selection conditions stored in advance. This selection condition includes, for example, "neighborhood" and "whole".
まず、近傍について、説明する。近傍を用いる場合、モデル選択手段108は、計算された距離が最も短い学習モデルを選択する。また、この場合、近傍の条件として、モデル選択手段108が、距離が短い順に複数の学習モデルを選択することとしてもよい。さらに、近傍の条件として、モデル選択手段108が、予め定めた距離以内の学習モデルを1以上選択する構成としてもよい。この際、予め定めた距離以内の学習モデルが存在しない場合、モデル選択手段108は、距離の短い順に1以上の学習モデルを選択することが望ましい。このことで、その際に観測された観測条件101にピンポイントで合致した学習モデルを選択することが可能になる。
First, the neighborhood will be described. When using a neighborhood, the model selection means 108 selects the learning model with the shortest calculated distance. Further, in this case, as a neighborhood condition, the model selection means 108 may select a plurality of learning models in ascending order of distance. Further, as a neighborhood condition, the model selection means 108 may be configured to select one or more learning models within a predetermined distance. At this time, if there is no learning model within a predetermined distance, it is desirable that the model selection means 108 selects one or more learning models in ascending order of distance. This makes it possible to select a learning model that pinpoints the
次に、全体について、説明する。ここでは、モデル選択手段108は、学習モデル集合体114の各学習モデルの最近傍モデルまでの距離(最近傍距離)の代表値を計算し、これを用いる。このために、モデル選択手段108は、選択される学習モデルの最近傍距離の代表値が、学習モデル集合体114の学習モデル全体と同等なるように選択を行う。ここで、同等とは、同じ値の他、予め定められた差以内であることを含む。また、代表値には、平均値、中央値などが含まれる。以上の全体を用いることで、より汎用的な学習モデルを選択することが可能になる。
Next, the whole will be described. Here, the model selection means 108 calculates a representative value of the distance (nearest neighbor distance) of each learning model of the
以上のように、選択条件は、何らかの条件で、1以上つまり単数ないし複数の学習モデルを選択するための条件であればよい。 As described above, the selection condition may be any condition as long as it is a condition for selecting one or more, that is, a single or a plurality of learning models.
このため、モデル選択手段108は、複数の選択条件を組合せて用いることも可能である。例えば、モデル選択手段108は、最も距離の短い学習モデルと、代表値が同等になる複数の学習モデルを選択する。このことで、近傍と全体のバランスが取れた学習モデルの選択が可能になる。 Therefore, the model selection means 108 can also use a plurality of selection conditions in combination. For example, the model selection means 108 selects a learning model having the shortest distance and a plurality of learning models having the same representative value. This makes it possible to select a learning model that is well-balanced between the neighborhood and the whole.
さらに、上述の各選択条件においては、選択する学習モデルの数の上限を定めてもよいし、その数を一定数と定めてもよい。 Further, in each of the above-mentioned selection conditions, an upper limit of the number of learning models to be selected may be set, or the number may be set to a fixed number.
なお、図1で学習手段121から3つの出力多次元スコア123が出力されているのは、3つの学習モデルに対して学習がされていることを示す。つまり、モデル選択手段108が3つの学習モデルを選択したことを示している。また、推論手段122が、3つの多次元スコア124を出力していることも、同様に、モデル選択手段108が3つの学習モデルを選択したことを示す。
The fact that the three output
次に、ステップS4の学習処理に関する情報について説明する。 Next, information regarding the learning process in step S4 will be described.
図6は、条件マップ115上に学習モデルをプロットしたものである。つまり、学習プロセス手段111および学習手段121での学習を行った結果である。この図では、観測が行われていない条件の位置に学習モデルがプロットされている。それらは学習モデル504,505、506である。これらは、2つ以上の学習データの和集合を用いて学習を行った結果である。学習モデル504は深度D1で海域A1と海域A2の和集合を用いた結果であり、学習モデル505,506も同様である。
FIG. 6 is a plot of the learning model on the
図7は、学習モデル集合体の内容を示した図である。ここでは、2つの条件の次元について、各条件に対応する学習モデルの名称を記載している。図6の説明で示した観測データの和集合からの学習モデルについても、学習モデル集合体のデータ内容に追加している。この例のように、学習モデル集合体は運用により、データ内容を拡張する仕組みとすることができる。学習モデルの名称について、一例として、M1111は海域A1、深度D1に対応する学習モデルであり、他の例として、M12-1-1-1は海域A1とA2の和集合、深度D1の条件に対応する学習モデルである。 FIG. 7 is a diagram showing the contents of the learning model aggregate. Here, the names of the learning models corresponding to each condition are described for the dimensions of the two conditions. The learning model from the union of the observation data shown in the explanation of FIG. 6 is also added to the data contents of the learning model aggregate. As shown in this example, the learning model set can be a mechanism for expanding the data contents by operation. Regarding the name of the learning model, as an example, M1111 is a learning model corresponding to the sea area A1 and the depth D1, and as another example, M12-1-1-1 is the union of the sea areas A1 and A2, and the condition of the depth D1. The corresponding learning model.
最後に、図15のステップS5の推定処理について説明する。本実施例のシステムに新たな観測条件101とそのソーナーデータ100を入力し、生成済みの学習モデル集合体で推論を行う場合の処理を説明する。
Finally, the estimation process of step S5 in FIG. 15 will be described. A process in which a
ソーナーデータ100、観測条件101がシステムインターフェース106に入力され、モデル選択手段108が入力された観測条件に最適な1つ以上の学習モデルを学習モデル集合体114から読み出し、マルチクラス学習モデル119に一時的に保持する。推論プロセス手段113は、入力されるソーナーデータの各フレームについて、推論手段122を動作させ、多次元スコア124を出力させ、評価関数126により推論結果を算出する。算出した推論結果は、推論プロセス手段113がシステムインターフェース106を経由して、目標位置推論結果105に出力する。
The
マルチクラス学習モデル119の構成例を、図11に示す。この例では3つの学習モデルM1,M2,M3を使用している。上記の処理で、推論手段122はこのマルチクラス学習モデルに含まれる3つの学習モデルを使用して推論を行い、各モデルに対応するスコア値を多次元スコアにまとめて出力する。評価関数126の処理は前述の最大値を算出する処理を用いる。これにより、選択された3つの学習モデルのうちの1つが目標物の候補になり、その推定位置、目標の確からしさが算出される。
An example of the configuration of the
以上、実施例1によれば、ソーナーデータ100を観測条件101ごとに学習モデルを生成し、それらにより学習モデルの集合体を構築し、新たに入力されるソーナーデータについて、観測条件に対応した最適な学習モデルを1つ以上選定することができる。このため、学習モデルが観測条件101に依存する水中目標物のソーナーデータ100についても、入力される地点の観測条件に対応して、高精度に水中目標物を検出することができる。
As described above, according to the first embodiment, a learning model is generated for each
次に、本発明の実施例2について、説明する。この実施例は、船舶30に設置された水中目標物検知装置34’がモデル選択を実行するものである。この水中目標物検知装置34’を含むシステム構成を図16に示す。水中目標物検知装置34’は、実施例1の水中目標物検知用学習装置10と同様に、ソーナー送受信装置31、センサ類32、無線装置33と接続されている。また、図16には、図示しないが実施例1と同様に、ネットワーク40や記憶媒体60を介して、水中目標物検知用学習装置10と情報のやり取りが可能である。
Next, Example 2 of the present invention will be described. In this embodiment, the underwater target detection device 34'installed on the
さらに、水中目標物検知装置34’は、水中目標物検知装置34’に情報の入出力が可能な端末装置36やデータベース35と接続する。なお、端末装置36やデータベース35は、水中目標物検知装置34’と一体化して構成してもよい。
Further, the underwater target detection device 34'is connected to a
次に、水中目標物検知装置34’の詳細を説明する。水中目標物検知装置34’は、実施例1の水中目標物検知用学習装置10や水中目標物検知装置34と同様に、コンピュータで実現される。つまり、水中目標物検知装置34’は、処理部341、記憶部342、入出力部343を有する。このため、そして、水中目標物検知装置34’の各機能は、記憶部342に展開されたプログラムに従って処理部341が演算を行うことで実現される。
Next, the details of the underwater target detection device 34'will be described. The underwater target detection device 34'is realized by a computer in the same manner as the underwater target
ここで、水中目標物検知装置34’の各機能を実現するプログラムについて、説明する。水中目標物検知装置34’は、実施例1の水中目標物検知装置34が備える推論プロセス部1130および推論部1220の他、以下構成を有する。
Here, a program that realizes each function of the underwater target detection device 34'will be described. The underwater target detection device 34'has the following configurations in addition to the
まず、水中目標物検知装置34’は、モデル選択部1080、距離計算部1090、データ分割部1100、前処理部1120を有している。これらは、実施例1の水中目標物検知用学習装置10でも有している。水中目標物検知装置34’は、これらに加え、ルート処理部14021を有する。なお、ルート処理部14021以外は、実施例1と同じ機能を発揮する。また、ルート処理部14021の機能については、図12および図13を用いて後述する。
First, the underwater target detection device 34'has a
次に、データベース35に格納している各種情報について、説明する。データベース35は、アノテーションデータ102、性能データ104、目標位置推論結果105、学習モデル集合体114、条件マップ115、条件データ116を有する。これらは、実施例1のデータベース50で記憶する情報と同じである。これに加え、実施例2においては、データベース35は、ルートプログラム1403を記憶する。
Next, various information stored in the
ここで、実施例2の機能構成を、図12を用いて説明する。図12の機能構成は、図16に示す水中目標物検知装置34’の機能を実現するものである。ここで、図12は、図1と比較し、以下の相違がある。ルート処理手段1402およびルートプログラム1403が追加されている。ここで、ルート処理手段1402は、図16のルート処理部14021に対応する。また、図12では、図1から学習プロセス手段111、複製データ117、Rawデータ118、推論性能データ120、学習手段121、出力多次元スコア123、スコアの評価関数125、性能分析手段127が省略されている。
Here, the functional configuration of the second embodiment will be described with reference to FIG. The functional configuration of FIG. 12 realizes the function of the underwater target detection device 34'shown in FIG. Here, FIG. 12 has the following differences as compared with FIG. 1. A route processing means 1402 and a
次に、本実施例の処理について、図17のフローチャートを用いて説明する。上述した構成の相違により、本実施例では、図15のステップS1、S2およびS5と同じ処理を実行する。ここでは、これらのステップの説明は省略し、実施例1との相違するステップS3−1およびS3−2について説明する。 Next, the processing of this embodiment will be described with reference to the flowchart of FIG. Due to the difference in the configuration described above, in this embodiment, the same processing as in steps S1, S2 and S5 of FIG. 15 is executed. Here, the description of these steps will be omitted, and steps S3-1 and S3-2, which are different from those of the first embodiment, will be described.
また、図17において、(a)ステップS1〜S3−1が事前準備処理を示し、(b)ステップS3−2およびステップS5が航行の際の処理を示す。このため、(a)については、水中目標物検知用学習装置10が実行してもよい。
Further, in FIG. 17, (a) steps S1 to S3-1 show preparatory processing, and (b) steps S3-2 and step S5 show processing at the time of navigation. Therefore, regarding (a), the
なお、実施例1と同様に、その処理主体は、図12に示す機能ブロックを用いて説明する。 As in the case of the first embodiment, the processing subject will be described using the functional block shown in FIG.
まず、ステップS3−1では、ルート処理手段1402が、航行ルート、観測条件および学習モデルを対応づけるルートプログラム1403を作成する。このために、モデル選択手段108は、ステップS2で計算された距離に基づいて、学習モデルを抽出する。この抽出は、実施例1のステップS3におけるモデル選択と同様の処理を行う。
First, in step S3-1, the route processing means 1402 creates a
但し、ルート処理手段1402、予定される航行ルートに応じた観測条件などの入力情報とする。そして、ルート処理手段1402は、単位時間順の航行ルートごとに、各学習モデルを抽出する。 However, it is input information such as the route processing means 1402 and the observation conditions according to the planned navigation route. Then, the route processing means 1402 extracts each learning model for each navigation route in the order of unit time.
そして、ルート処理手段1402は、抽出した学習モデルとこれに対応する観測条件と、走行ルートを対応付けたルートプログラム1403を作成し、これをデータベース35に記憶する。このルートプログラム1403の一例を、図13に示す。図13では、航行ルートを示すルート(水中経路情報)と、観測条件を示す海域(A)、深度(D)、水中目標物の種別 (O)と、学習モデルを示すmodelが対応付けられている。なお、図13では、航行ルートに対して、観測条件と学習モデルがそれぞれ1つずつ対応付けられているが、複数の観測条件と学習モデルを対応付けてもよい。
Then, the route processing means 1402 creates a
また、ルート処理手段1402は、ルートプログラム1403を、航行ルートを予定される単位時間の順に時系列でソートし、記録する。また、ルート処理手段1402は、ルートプログラム1403に航行予定時間を記録してもよい。
Further, the route processing means 1402 sorts and records the
次に、航行の際、ステップS3−2において、モデル選択手段108は、ルートプログラム1403から、そのルートあるいは航行時間に該当する学習モデルを適宜選択する。つまり、モデル選択手段108は、時系列にソートされた順に、予定の航行ルートに応じた学習モデルを、ルートプログラム1403から選択する。
Next, at the time of navigation, in step S3-2, the model selection means 108 appropriately selects a learning model corresponding to the route or the navigation time from the
そして、航行の際に、選択された学習モデルを用いて、ステップS5での推論処理が実行される。 Then, at the time of navigation, the inference process in step S5 is executed using the selected learning model.
なお、実施例2の処理も、実施例1と同じように、水中目標物検知用学習装置10と連携してその機能を発揮してもよい。
The process of the second embodiment may also exhibit its function in cooperation with the
実施例2によれば、あらかじめ設定された航行ルートに対応する観測条件の時系列に対応して、適宜選ばれた必要な学習モデルを保持して、航行する各地点の観測条件に対応した学習モデルを読み出して目標物を推定する。このため、本実施例では、航行ルートに即した高精度の水中目標物の検出が可能になる。 According to the second embodiment, the learning corresponding to the observation conditions of each navigating point is held by holding the necessary learning model appropriately selected according to the time series of the observation conditions corresponding to the preset navigation route. Read the model and estimate the target. Therefore, in this embodiment, it is possible to detect an underwater target object with high accuracy according to the navigation route.
以上の各実施例では、学習を伴うシステムは学習データおよび学習モデルの維持管理による運用コストを増大させないことが可能になる。 In each of the above embodiments, the system with learning can prevent the operation cost from increasing due to the maintenance of the learning data and the learning model.
また、各実施例では、船舶を対象としたが、航空機等水中目標物を検知する移動体やその手段でも適用可能である。 Further, in each embodiment, although the target is a ship, it can also be applied to a moving body or a means for detecting an underwater target such as an aircraft.
100…ソーナーデータ、101…観測条件入力、102…アノテーションデータ、105…目標位置推論結果、114…学習モデル集合体、108…モデル選択手段、109…距離計算手段、115…条件マップ、121…学習手段、122…推論手段、119…マルチクラス学習モデル 100 ... sonar data, 101 ... observation condition input, 102 ... annotation data, 105 ... target position inference result, 114 ... learning model aggregate, 108 ... model selection means, 109 ... distance calculation means, 115 ... condition map, 121 ... learning Means, 122 ... Inference means, 119 ... Multi-class learning model
Claims (11)
前記水中目標物の検知に用いる複数の学習データを、前記水中目標物に対する観測条件とそれぞれ対応付けて記憶する記憶部と、
前記水中目標物の観測データおよび前記観測データの観測条件を受け付ける入力部と、
受け付けられた前記観測条件と、前記記憶部に記憶された複数の観測条件のそれぞれの距離を計算する距離計算部と、
前記距離計算部で計算された距離に基づいて、前記記憶部から学習モデルを選択するモデル選択部と、
前記モデル選択部で選択された学習モデルを用いて、前記水中目標物の検知に対する学習を行う学習部とを有し、
前記学習部で学習された前記学習モデルを用いて、前記入力部で受け付けられた前記水中目標物に対して検知に関する推論を行うことを可能とする水中目標物検知用学習装置。 In a learning device for underwater targets for detecting underwater targets using observation data
A storage unit that stores a plurality of learning data used for detecting the underwater target in association with observation conditions for the underwater target, respectively.
An input unit that accepts the observation data of the underwater target and the observation conditions of the observation data,
A distance calculation unit that calculates the distance between the accepted observation conditions and the plurality of observation conditions stored in the storage unit, and the distance calculation unit.
A model selection unit that selects a learning model from the storage unit based on the distance calculated by the distance calculation unit.
It has a learning unit that learns about the detection of the underwater target using the learning model selected by the model selection unit.
An underwater target detection learning device capable of making inferences regarding detection of the underwater target received by the input unit using the learning model learned by the learning unit.
前記モデル選択部は、前記距離計算部で計算された距離が最も短い観測条件に対応付けられた学習モデルを選択する水中目標物検知用学習装置。 In the learning device for detecting an underwater target according to claim 1,
The model selection unit is a learning device for detecting an underwater target that selects a learning model associated with an observation condition having the shortest distance calculated by the distance calculation unit.
前記モデル選択部は、前記距離計算部で計算された距離に基づいて、複数の学習モデルを選択する水中目標物検知用学習装置。 In the learning device for detecting an underwater target according to claim 1,
The model selection unit is a learning device for detecting an underwater target that selects a plurality of learning models based on the distance calculated by the distance calculation unit.
前記モデル選択部は、
前記記憶部に記憶された複数の観測条件の距離の第1の代表値を計算し、
前記第1の代表値と同等の第2の代表値になる観測条件を複数特定し、
特定された複数の前記観測条件に対応付けられた学習モデルを選択する水中目標物検知用学習装置。 In the learning device for detecting an underwater target according to claim 3,
The model selection unit
The first representative value of the distances of the plurality of observation conditions stored in the storage unit is calculated.
A plurality of observation conditions that have a second representative value equivalent to the first representative value are specified, and a plurality of observation conditions are specified.
A learning device for detecting an underwater target that selects a learning model associated with a plurality of specified observation conditions.
前記モデル選択部は、さらに、前記距離計算部で計算された距離が最も短い観測条件に対応付けられた学習モデルを選択する水中目標物検知用学習装置。 In the learning device for detecting an underwater target according to any one of claims 3 or 4.
The model selection unit is a learning device for detecting an underwater target that further selects a learning model associated with the observation condition having the shortest distance calculated by the distance calculation unit.
前記水中目標物の検知に用いる複数の学習データを、前記水中航行物あるいは前記水中目標物に対する観測条件とそれぞれ対応付けて記憶する記憶部と、
前記水中目標物の観測データおよび前記観測データの観測条件を受け付ける入力部と、
受け付けられた前記観測条件と、前記記憶部に記憶された複数の観測条件のそれぞれの距離を計算する距離計算部と、
前記距離計算部で計算された距離および前記船舶が航行を予定する航行ルートに基づいて、前記記憶部から学習モデルを選択するモデル選択部と、
前記モデル選択部で選択された前記学習モデルに基づいて、前記入力部で受け付けられた前記水中目標物に対して検知に関する推論を行う推論部とを有する水中目標物検知装置。 In an underwater target detection device that detects underwater targets or underwater targets related to ship navigation using observation data.
A storage unit that stores a plurality of learning data used for detecting the underwater target in association with the observation conditions for the underwater navigation object or the underwater target, respectively.
An input unit that accepts the observation data of the underwater target and the observation conditions of the observation data,
A distance calculation unit that calculates the distance between the accepted observation conditions and the plurality of observation conditions stored in the storage unit, and the distance calculation unit.
A model selection unit that selects a learning model from the storage unit based on the distance calculated by the distance calculation unit and the navigation route that the ship plans to navigate.
An underwater target detection device having an inference unit that makes inferences regarding detection of the underwater target received by the input unit based on the learning model selected by the model selection unit.
さらに、前記距離計算部で計算された距離に基づき、学習モデルを抽出し、抽出した前記学習モデルと、当該学習モデルに対応する観測条件および前記航行ルートを対応付けたルートプログラムを作成して、前記記憶部に前記ルートプログラムを記憶するルート処理手段を有し、
前記モデル選択部は、前記ルートプログラムから、前記学習モデルの選択を行う水中目標物検知装置。 In the underwater target detection device according to claim 6,
Further, a learning model is extracted based on the distance calculated by the distance calculation unit, and a route program in which the extracted learning model is associated with the observation conditions corresponding to the learning model and the navigation route is created. The storage unit has a route processing means for storing the route program.
The model selection unit is an underwater target detection device that selects the learning model from the route program.
前記ルート処理手段は、前記距離計算部で計算された距離が最も短い観測条件に対応付けられた学習モデルを抽出する水中目標物検知装置。 In the underwater target detection device according to claim 7,
The route processing means is an underwater target detection device that extracts a learning model associated with the observation condition with the shortest distance calculated by the distance calculation unit.
前記ルート処理手段は、前記距離計算部で計算された距離に基づいて、複数の学習モデルを抽出する水中目標物検知装置。 In the underwater target detection device according to claim 7,
The route processing means is an underwater target detection device that extracts a plurality of learning models based on the distance calculated by the distance calculation unit.
前記ルート処理手段は、
前記記憶部に記憶された複数の観測条件の距離の第1の代表値を計算し、
前記第1の代表値と同等の第2の代表値になる観測条件を複数特定し、
特定された複数の前記観測条件に対応付けられた学習モデルを抽出する水中目標物検知装置。 In the underwater target detection device according to claim 9,
The route processing means is
The first representative value of the distances of the plurality of observation conditions stored in the storage unit is calculated.
A plurality of observation conditions that have a second representative value equivalent to the first representative value are specified, and a plurality of observation conditions are specified.
An underwater target detection device that extracts a learning model associated with a plurality of specified observation conditions.
前記ルート処理手段は、さらに、前記距離計算部で計算された距離が最も短い観測条件に対応付けられた学習モデルを抽出する水中目標物検知装置。 In the underwater target detection device according to any one of claims 9 or 10.
The route processing means is an underwater target detection device that further extracts a learning model associated with the observation condition with the shortest distance calculated by the distance calculation unit.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020098166A JP7579068B2 (en) | 2020-06-05 | 2020-06-05 | Learning device for detecting underwater targets and device for detecting underwater targets |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020098166A JP7579068B2 (en) | 2020-06-05 | 2020-06-05 | Learning device for detecting underwater targets and device for detecting underwater targets |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2021190040A true JP2021190040A (en) | 2021-12-13 |
| JP7579068B2 JP7579068B2 (en) | 2024-11-07 |
Family
ID=78850069
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020098166A Active JP7579068B2 (en) | 2020-06-05 | 2020-06-05 | Learning device for detecting underwater targets and device for detecting underwater targets |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7579068B2 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2024104243A (en) * | 2023-01-23 | 2024-08-02 | 株式会社日立製作所 | Object detection device and object detection method |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019045091A1 (en) * | 2017-09-04 | 2019-03-07 | 日本電気株式会社 | Information processing device, counter system, counting method, and program storage medium |
| JP2019138152A (en) * | 2018-02-06 | 2019-08-22 | 株式会社日立製作所 | Machine control device |
| JP2019200175A (en) * | 2018-05-18 | 2019-11-21 | 古野電気株式会社 | Fish species estimation system, fish species estimation method, and program |
| US20200050202A1 (en) * | 2018-08-10 | 2020-02-13 | Buffalo Automation Group, Inc. | Deep Learning and Intelligent Sensing System Integration |
-
2020
- 2020-06-05 JP JP2020098166A patent/JP7579068B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019045091A1 (en) * | 2017-09-04 | 2019-03-07 | 日本電気株式会社 | Information processing device, counter system, counting method, and program storage medium |
| JP2019138152A (en) * | 2018-02-06 | 2019-08-22 | 株式会社日立製作所 | Machine control device |
| JP2019200175A (en) * | 2018-05-18 | 2019-11-21 | 古野電気株式会社 | Fish species estimation system, fish species estimation method, and program |
| US20200050202A1 (en) * | 2018-08-10 | 2020-02-13 | Buffalo Automation Group, Inc. | Deep Learning and Intelligent Sensing System Integration |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2024104243A (en) * | 2023-01-23 | 2024-08-02 | 株式会社日立製作所 | Object detection device and object detection method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7579068B2 (en) | 2024-11-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111486845B (en) | AUV multi-strategy navigation method based on submarine topography matching | |
| US20190033447A1 (en) | Systems and methods for detecting objects in underwater environments | |
| CN111444767A (en) | Pedestrian detection and tracking method based on laser radar | |
| EP3864435A2 (en) | Three-dimensional forward-looking sonar target recognition with machine learning | |
| CN117647812B (en) | Navigation radar-based ship travel route detection and early warning method and system | |
| Rattray et al. | Quantification of spatial and thematic uncertainty in the application of underwater video for benthic habitat mapping | |
| CA3134172C (en) | Improved sonar display features | |
| CN112526490B (en) | Underwater small target sonar detection system and method based on computer vision | |
| Wawrzyniak et al. | MSIS image postioning in port areas with the aid of comparative navigation methods | |
| CN104180873A (en) | Single-wave-beam depth finder water depth gross error detection and correction method and system | |
| KR20210055982A (en) | A Method of Underwater Environment Mapping System using Underwater Vehicle and Underwater Acoustic Detection Equipment | |
| US6453256B1 (en) | System and method for automatically processing and calibrating data from a current measuring device | |
| Gaspar et al. | Feature-based place recognition using forward-looking sonar | |
| GB2623670A (en) | System and method for dimensioning target objects | |
| US12504285B2 (en) | System and method for estimating drift path of marine floating body | |
| JP7579068B2 (en) | Learning device for detecting underwater targets and device for detecting underwater targets | |
| Arief et al. | Better modeling out-of-distribution regression on distributed acoustic sensor data using anchored hidden state mixup | |
| JP2004170632A (en) | 3D seafloor topographic data generator | |
| CN119888691B (en) | Transparent obstacle detection and map reconstruction method and system based on laser radar point cloud data | |
| CN114155428A (en) | Underwater sonar side-scan image small target detection method based on Yolo-v3 algorithm | |
| CN120495861A (en) | Underwater target intelligent recognition system based on multi-sensor fusion | |
| KR20250034937A (en) | Method and apparatus for generating an integrated electronic chart, and route setting method using the same | |
| Wlodarczyk-Sielicka et al. | General concept of reduction process for big data obtained by interferometric methods | |
| JP2022076675A (en) | Object detection identification model generation apparatus using machine learning and program | |
| Islam | Deep learning-based SONAR image object detection system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230215 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240308 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240430 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240621 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241001 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241025 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7579068 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |