[go: up one dir, main page]

JP2018194404A - Machine learning method, and surface deformation determination method - Google Patents

Machine learning method, and surface deformation determination method Download PDF

Info

Publication number
JP2018194404A
JP2018194404A JP2017097563A JP2017097563A JP2018194404A JP 2018194404 A JP2018194404 A JP 2018194404A JP 2017097563 A JP2017097563 A JP 2017097563A JP 2017097563 A JP2017097563 A JP 2017097563A JP 2018194404 A JP2018194404 A JP 2018194404A
Authority
JP
Japan
Prior art keywords
learning
machine learning
image
data
learning method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017097563A
Other languages
Japanese (ja)
Other versions
JP7102106B2 (en
Inventor
佳介 根本
Keisuke Nemoto
佳介 根本
友之 今泉
tomoyuki Imaizumi
友之 今泉
修平 彦坂
Shuhei Hikosaka
修平 彦坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pasco Corp
Original Assignee
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pasco Corp filed Critical Pasco Corp
Priority to JP2017097563A priority Critical patent/JP7102106B2/en
Publication of JP2018194404A publication Critical patent/JP2018194404A/en
Application granted granted Critical
Publication of JP7102106B2 publication Critical patent/JP7102106B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

【課題】干渉SAR画像に基づく地表変動の有無の判定の自動化を可能とする。【解決手段】成分画像生成手段221は、干渉SAR画像の各画素の位相差θからpk(θ)(1≦k≦n)を画素値とするn種類(n≧2)の成分画像を生成する。学習用データ生成手段222は、複数のサンプル領域について、n種類の成分画像と、ユーザから取得した判読結果とを組み合わせた学習用データを生成する。モデル生成手段223は、学習用データを用いて機械学習により変動判定モデルを生成する。各関数pk(θ)は、位相差の範囲に対応した幅2πradの区間Dを[α−π,α+π]として、Dで連続、かつpk(α−π)=pk(α+π)であり、さらに全kについてのpk(θ)の組で定義される座標をP(θ)と表すと、Dの両端同士以外のθ1≠θ2なる∀θ1,θ2∈Dに対してP(θ1)≠P(θ2)である。【選択図】図1PROBLEM TO BE SOLVED: To automate the determination of the presence or absence of a surface change based on an interference SAR image. SOLUTION: A component image generation means 221 generates n kinds (n ≧ 2) of component images having pk (θ) (1 ≦ k ≦ n) as a pixel value from a phase difference θ of each pixel of an interference SAR image. do. The learning data generation means 222 generates learning data by combining n kinds of component images and a reading result acquired from a user for a plurality of sample areas. The model generation means 223 generates a fluctuation determination model by machine learning using the learning data. Each function pk (θ) is continuous with D, with the interval D of the width 2πrad corresponding to the range of the phase difference as [α−π, α + π], and pk (α−π) = pk (α + π), and further. When the coordinates defined by the set of pk (θ) for all k are expressed as P (θ), P (θ1) ≠ P (θ1) ≠ P for ∀θ1, θ2 ∈ D such that θ1 ≠ θ2 other than both ends of D. θ2). [Selection diagram] Fig. 1

Description

本発明は、合成開口レーダー(Synthetic Aperture Radar:SAR)により得た2時期のSAR複素画像同士を干渉させて生成された干渉SAR画像に基づいて地表の変動を判定するシステムに用いるモデルを生成する機械学習方法、及び当該モデルを用いた地表変動判定方法に関する。   The present invention generates a model for use in a system for determining ground surface fluctuations based on interference SAR images generated by interfering two SAR complex images obtained by a synthetic aperture radar (SAR). The present invention relates to a machine learning method and a ground surface fluctuation determination method using the model.

干渉SAR解析(Interferometric SAR)は、それに用いるレーダーの波長より小さい地表の変位を測定することができ、例えば、ミリメートル単位の地表変動をモニタリングする上で有用な解析手法である。差分干渉SAR解析による解析結果は、一般的に、位相差を虹色の縞で示した干渉画像(インターフェログラム)で表され、人が当該干渉画像を目視し、例えば、地滑りなどの地表の変動を判読する。   Interferometric SAR (Interferometric SAR) can measure the displacement of the ground surface that is smaller than the wavelength of the radar used therefor, and is a useful analysis method for monitoring ground surface fluctuation in millimeters, for example. The analysis result by the differential interference SAR analysis is generally represented by an interference image (interferogram) in which the phase difference is indicated by rainbow stripes, and the person visually observes the interference image, for example, the surface of the ground such as landslide. Interpret fluctuations.

特開2004−309178号公報JP 2004-309178 A 特表2003−500658号公報Special table 2003-500658 gazette

干渉画像にて目的とする地表変動による変動縞を抽出するには判読者の熟練を要する。そのため、判読のための人的資源の確保が容易ではなく、判読に要するコスト、処理時間が大きくなる。また、目視判読では抽出基準が定性的にならざるを得ないため、判読結果にばらつきが生じ易く、品質の確保が容易ではない。そして以上の課題は、広域で地表変動をモニタリングすることを難しくしている。   In order to extract the desired variation fringes due to surface fluctuations in the interference image, it is necessary to have the skill of a reader. Therefore, it is not easy to secure human resources for interpretation, and the cost and processing time required for interpretation increase. Further, in visual interpretation, the extraction criteria must be qualitative, so that the interpretation results tend to vary, and it is not easy to ensure quality. And the above issues make it difficult to monitor surface fluctuations over a wide area.

本発明は上記問題点を解決するためになされたものであり、干渉SAR画像に基づく地表変動の有無の判定の自動化を可能とする機械学習方法、及び地表変動判定方法を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a machine learning method and a ground surface fluctuation determination method capable of automating the determination of the presence or absence of ground surface deformation based on an interference SAR image. To do.

(1)本発明に係る機械学習方法は、飛翔体に搭載された合成開口レーダーにより得た2時期のSAR画像同士を干渉処理して得た干渉SAR画像の各画素の位相差θに基づいて画素値が定義されたn種類(nは2以上の所定数である。)の成分画像を生成する成分画像生成ステップと、所定の地表の変動についてのユーザの判読結果を取得し、複数のサンプル領域について、前記n種類の成分画像と前記判読結果とを組み合わせた学習用データを生成する学習用データ生成ステップと、前記学習用データを用いて機械学習により変動判定モデルを生成するモデル生成ステップと、を有し、第k(kはn以下の任意の自然数である。)の前記成分画像は関数p(θ)のθ=θでの値を画素値とし、前記各関数p(θ)は、前記位相差の範囲に対応した幅2πラジアンの区間Dを[α−π,α+π]として、Dで連続、かつp(α−π)=p(α+π)であり、さらに全kについての前記p(θ)の組で定義される座標をP(θ)と表すと、Dの両端同士以外のθ≠θなる∀θ,θ∈Dに対してP(θ)≠P(θ)である。 (1) The machine learning method according to the present invention is based on the phase difference θ S of each pixel of an interference SAR image obtained by performing interference processing between two SAR images obtained by a synthetic aperture radar mounted on a flying object. A component image generating step for generating n types (n is a predetermined number of 2 or more) of component images having pixel values defined, and obtaining a user's interpretation result regarding a predetermined ground surface fluctuation, A learning data generation step for generating learning data combining the n types of component images and the interpretation results for the sample region, and a model generation step for generating a variation determination model by machine learning using the learning data The component image of the k-th (k is an arbitrary natural number less than or equal to n) has a pixel value as a value at θ = θ S of the function p k (θ), and each of the functions p k (Θ) is the phase difference A section D having a width of 2π radians corresponding to the range of [α−π, α + π] is continuous in D and p k (α−π) = p k (α + π), and the above p k for all k When the coordinates defined by the set of (θ) are expressed as P (θ), P (θ 1 ) ≠ P (with respect to ∀θ 1 and θ 2 ∈D where θ 1 ≠ θ 2 other than both ends of D. θ 2 ).

(2)上記(1)に記載の機械学習方法において、前記nは2であり、前記関数はsinθ及びcosθである構成とすることができる。   (2) In the machine learning method according to (1), the n may be 2, and the function may be sin θ and cos θ.

(3)上記(1)又は(2)に記載の機械学習方法において、前記変動判定モデルは畳み込みニューラルネットワークで構成することができる。   (3) In the machine learning method according to (1) or (2) above, the variation determination model can be configured by a convolutional neural network.

(4)上記(1)〜(3)に記載の機械学習方法において、前記学習用データはさらに、前記サンプル領域の地形を表す地図画像を含む構成とすることができる。   (4) In the machine learning method according to (1) to (3) above, the learning data may further include a map image representing the topography of the sample area.

(5)本発明に係る地表変動判定方法は、上記(1)〜(4)のいずれか1つに記載の機械学習方法により生成された前記変動判定モデルを用い対象領域における地表変動を判定する方法であって、前記対象領域について生成された前記干渉SAR画像から各画素における位相差θを抽出し、前記関数の値p(θ)(kは前記n以下の任意の自然数である。)を画素値とする前記n種類の成分画像を生成するステップと、前記対象領域についての前記n種類の成分画像を含む入力データを前記変動判定モデルに入力して、当該対象領域について前記変動の有無の判定結果を得るステップと、を有する。 (5) A ground surface fluctuation determination method according to the present invention determines a ground surface fluctuation in a target region using the fluctuation determination model generated by the machine learning method according to any one of (1) to (4) above. In this method, a phase difference θ T at each pixel is extracted from the interference SAR image generated for the target region, and the value p kT ) (k is an arbitrary natural number less than or equal to n. .) Is generated as a pixel value, and input data including the n types of component images for the target area is input to the fluctuation determination model, and the fluctuation for the target area is input. Obtaining a determination result of the presence or absence of.

本発明によれば、干渉SAR画像に基づく地表変動の有無の判定の自動化が可能となる。   According to the present invention, it is possible to automate the determination of the presence or absence of ground surface fluctuation based on the interference SAR image.

本発明の実施形態に係る学習システムの概略の構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a learning system according to an embodiment of the present invention. 本発明の実施形態における地表の変動判定モデルの機械学習の概略の流れを示す模式図である。It is a schematic diagram which shows the general | schematic flow of the machine learning of the ground surface fluctuation | variation determination model in embodiment of this invention. 干渉SAR画像から成分画像を生成する変換関数の他の例を示すグラフである。It is a graph which shows the other example of the conversion function which produces | generates a component image from an interference SAR image. 本発明の実施形態に係る地表変動判定システムの概略の構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a ground surface fluctuation determination system according to an embodiment of the present invention. 本発明の実施形態における地表の変動判定処理の概略の流れを示す模式図である。It is a schematic diagram which shows the general | schematic flow of the fluctuation | variation determination process of the ground surface in embodiment of this invention.

以下、本発明の実施の形態(以下実施形態という)である学習システム2、及び地表変動判定システム4について、図面に基づいて説明する。学習システム2は、干渉SAR画像により得られる位相差情報に基づいて、地表変動判定システム4に用いる変動判定モデルを本発明に係る機械学習方法により生成するシステムである。一方、地表変動判定システム4は、本発明に係る地表変動判定方法により、学習システム2で生成された変動判定モデルを用いて対象領域における地表変動を判定するシステムである。本システムにより例えば、地滑りや地盤沈下などによる地表変動を判定、検出することができる。   Hereinafter, a learning system 2 and a ground surface fluctuation determination system 4 which are embodiments of the present invention (hereinafter referred to as embodiments) will be described with reference to the drawings. The learning system 2 is a system that generates a variation determination model used for the ground surface variation determination system 4 by the machine learning method according to the present invention based on phase difference information obtained from an interference SAR image. On the other hand, the ground surface fluctuation determination system 4 is a system for determining the ground surface fluctuation in the target region using the fluctuation determination model generated by the learning system 2 by the ground surface fluctuation determination method according to the present invention. With this system, for example, surface fluctuations due to landslides or land subsidence can be determined and detected.

[学習システム]
図1は、実施形態に係る学習システム2の概略の構成を示すブロック図である。学習システム2は、学習操作部20、学習記憶部21、学習制御部22及び学習出力部23を含んで構成される。学習操作部20、学習記憶部21及び学習出力部23は学習制御部22と接続される。
[Learning system]
FIG. 1 is a block diagram illustrating a schematic configuration of a learning system 2 according to the embodiment. The learning system 2 includes a learning operation unit 20, a learning storage unit 21, a learning control unit 22, and a learning output unit 23. The learning operation unit 20, the learning storage unit 21, and the learning output unit 23 are connected to the learning control unit 22.

学習操作部20は学習制御部22への入力を行うためのユーザインターフェース装置であり、キーボード、マウス等からなる。学習操作部20はユーザにより操作され、サンプル領域についての変動有無の判読結果を学習制御部22に入力するほか、学習開始指示や生成された変動判定モデルの出力指示を学習制御部22に与える。   The learning operation unit 20 is a user interface device for inputting to the learning control unit 22 and includes a keyboard, a mouse, and the like. The learning operation unit 20 is operated by the user, and inputs the result of interpretation of whether or not the sample area has changed to the learning control unit 22 and also gives the learning control unit 22 an instruction to start learning and an instruction to output the generated variation determination model.

学習記憶部21はROM、RAM、ハードディスク等の記憶装置であり、学習制御部22で使用されるプログラムやデータを記憶する。学習記憶部21はこれらプログラム、データを学習制御部22との間で入出力する。本実施形態では学習記憶部21に記憶されるデータには、干渉SAR画像データ211、地形画像データ212、判読結果(GTデータ)213及び変動判定モデル214が含まれる。   The learning storage unit 21 is a storage device such as a ROM, a RAM, and a hard disk, and stores programs and data used by the learning control unit 22. The learning storage unit 21 inputs and outputs these programs and data to and from the learning control unit 22. In the present embodiment, the data stored in the learning storage unit 21 includes interference SAR image data 211, terrain image data 212, interpretation results (GT data) 213, and a variation determination model 214.

干渉SAR画像データ211は、飛翔体に搭載された合成開口レーダーにより得た2時期のSAR複素画像(SAR画像)同士を干渉させて生成された干渉SAR画像のデータである。   The interference SAR image data 211 is data of an interference SAR image generated by interfering two SAR complex images (SAR images) obtained by the synthetic aperture radar mounted on the flying object.

地形画像データ212は、数値標高モデル(Digital Elevation Model:DEM)や、地形図などの地形を表す二次元情報である。   The terrain image data 212 is two-dimensional information representing terrain such as a digital elevation model (DEM) and a topographic map.

判読結果213は正解データ(Ground Truth:GT)であり、例えば、ユーザが干渉SAR画像データ211を判読して生成される。   The interpretation result 213 is correct data (Ground Truth: GT), and is generated, for example, by the user interpreting the interference SAR image data 211.

干渉SAR画像データ211及び地形画像データ212は学習システム2による学習に際して予め学習記憶部21に記憶される。判読結果213は本実施形態では、学習システム2における学習用データの生成処理にて取得する構成としているが、学習システム2による学習処理に先行して取得して学習記憶部21に記憶してもよい。   The interference SAR image data 211 and the topographic image data 212 are stored in advance in the learning storage unit 21 when learning is performed by the learning system 2. In this embodiment, the interpretation result 213 is acquired by the learning data generation process in the learning system 2. However, the interpretation result 213 may be acquired prior to the learning process by the learning system 2 and stored in the learning storage unit 21. Good.

変動判定モデル214は、学習システム2により生成される学習モデルであり、学習制御部22が機械学習にて複数のサンプル領域の学習用データを順次処理するのに合わせて更新される。   The variation determination model 214 is a learning model generated by the learning system 2, and is updated in accordance with the learning control unit 22 sequentially processing learning data in a plurality of sample regions by machine learning.

学習制御部22は、例えば、CPU(Central Processing Unit)等の演算装置を用いて構成される。また、学習制御部22を構成する演算装置はCPUに代えて、MPU(Micro-Processing Unit)や、画像処理を高速に実行するGPU(Graphics Processing Unit)等を用いてもよい。例えばGPUの機能を画像処理以外の用途に転用する技術であるGPGPU(General-Purpose computing on Graphics Processing Units)を利用して、本実施形態に係る各機能を実現してもよい。具体的には学習制御部22はコンピュータであり、当該コンピュータは学習記憶部21からプログラムを読み出して実行し、後述する成分画像生成手段221、学習用データ生成手段222、モデル生成手段223として機能する。これら学習制御部22の各手段については学習制御部22の処理に沿って後述する。   The learning control unit 22 is configured using an arithmetic device such as a CPU (Central Processing Unit), for example. In addition, instead of the CPU, the arithmetic device constituting the learning control unit 22 may use an MPU (Micro-Processing Unit), a GPU (Graphics Processing Unit) that executes image processing at high speed, or the like. For example, each function according to the present embodiment may be realized by using GPGPU (General-Purpose computing on Graphics Processing Units), which is a technique for diverting the GPU function to applications other than image processing. Specifically, the learning control unit 22 is a computer, and the computer reads out and executes a program from the learning storage unit 21, and functions as a component image generation unit 221, a learning data generation unit 222, and a model generation unit 223, which will be described later. . Each means of the learning control unit 22 will be described later along the processing of the learning control unit 22.

学習出力部23は、学習により生成された変動判定モデルを学習システム2の外部へ出力するUSB端子、CDドライブ、ネットワークアダプタ等のインターフェース回路、及びそれぞれのドライバ・プログラムからなる。本実施形態では、変動判定モデルは学習出力部23を介して地表変動判定システム4へ渡される。また、学習出力部23は、ディスプレイ、プリンタなど、ユーザが学習制御部22の動作及びその結果を把握することを可能とするユーザインターフェース装置を含み得る。   The learning output unit 23 includes a USB terminal for outputting a variation determination model generated by learning to the outside of the learning system 2, an interface circuit such as a CD drive and a network adapter, and respective driver programs. In the present embodiment, the variation determination model is passed to the ground surface variation determination system 4 via the learning output unit 23. The learning output unit 23 may include a user interface device such as a display or a printer that allows the user to grasp the operation of the learning control unit 22 and the result thereof.

図2は、地表の変動判定モデルの機械学習の概略の流れを示す模式図である。2時期のSAR画像300から干渉SAR解析処理304により干渉SAR画像が生成され、干渉SAR画像データ211として学習記憶部21に記憶される。   FIG. 2 is a schematic diagram showing a general flow of machine learning of the ground surface variation determination model. An interference SAR image is generated by the interference SAR analysis processing 304 from the SAR images 300 at the two periods, and is stored in the learning storage unit 21 as interference SAR image data 211.

ここで、干渉SAR解析処理304では、干渉SAR画像から地表の変動による位相変化(変動縞)以外の影響を除去する処理を行うことができる。具体的には、干渉SAR画像には、変動縞に加え、2時期の衛星の軌道が一致しないために生じる位相変化(軌道縞および地形縞)が重畳する。そこで、干渉SARで地表変動を求める場合、軌道縞、地形縞を除去して変動縞だけを取り出す処理が行われる。例えば、地形縞はDEMからシミュレートして除去することができ、このために干渉SAR解析処理304にてDEM302を用いる。   Here, in the interference SAR analysis process 304, it is possible to perform a process of removing influences other than the phase change (fluctuation fringes) due to the fluctuation of the ground surface from the interference SAR image. Specifically, in addition to the fluctuation fringes, the interference SAR image is superimposed with phase changes (orbital fringes and terrain fringes) that occur because the orbits of the two satellites do not coincide. Therefore, when the ground surface fluctuation is obtained by the interference SAR, a process of removing only the fluctuation fringes by removing the orbital stripes and the topographic fringes is performed. For example, terrain fringes can be simulated and removed from the DEM, and for this purpose, the DEM 302 is used in the interference SAR analysis process 304.

また、大域誤差を除去フィルターなどを用いて除去するなど、干渉SAR画像からさらに誤差、ノイズを除去する処理を行ってもよい。   Further, processing for further removing errors and noise from the interference SAR image, such as removing a global error using a removal filter or the like, may be performed.

学習制御部22は成分画像生成手段221として機能し、干渉SAR画像データ211の各画素の位相差θに基づいて画素値が定義されたn種類(nは2以上の所定数である。)の成分画像を生成し、学習用データ生成手段222に渡す。本実施形態では、成分画像生成手段221は、位相差θをsinθ,cosθに変換する処理306を行い、当該変換済みの干渉画像308を成分画像とする。具体的には、画素値がsinθで定義されるsin画像と、画素値がcosθで定義されるcos画像との2種類の成分画像が生成される。 The learning control unit 22 functions as the component image generation unit 221 and has n types (n is a predetermined number of 2 or more) in which pixel values are defined based on the phase difference θ S of each pixel of the interference SAR image data 211. Are generated and passed to the learning data generation means 222. In the present embodiment, the component image generation unit 221 performs processing 306 for converting the phase difference θ S into sin θ S and cos θ S, and uses the converted interference image 308 as a component image. Specifically, a sin image pixel value is defined by sin [theta S, the two component images with cos image pixel value is defined by cos [theta] S is generated.

学習制御部22は学習用データ生成手段222として機能し、干渉SAR画像データ211が得られている領域内にて設定した複数の小領域それぞれについて学習用パッチ画像を切り出す処理310を行い、学習用データ312を生成する。   The learning control unit 22 functions as the learning data generation unit 222, and performs a process 310 for cutting out a learning patch image for each of a plurality of small regions set in the region where the interference SAR image data 211 is obtained. Data 312 is generated.

ここで、学習用パッチ画像を切り出す当該小領域をサンプル領域と称している。サンプル領域は例えば、ユーザにより設定される。ちなみに、サンプル領域の数は学習により十分な精度の変動判定モデルが得られる程度の比較的多数に設定される。また、基本的に各サンプル領域の大きさ・形状は共通とされる。   Here, the small area where the learning patch image is cut out is referred to as a sample area. The sample area is set by a user, for example. Incidentally, the number of sample regions is set to a relatively large number so that a variation determination model with sufficient accuracy can be obtained by learning. Basically, the size and shape of each sample area are the same.

学習用データ312は各サンプル領域について、n種類の成分画像である変換済み干渉画像308と、地表変動の有無についてのユーザの判読結果とを組み合わせて生成される。そのために、学習用データ生成手段222は当該判読結果を取得する処理314を行う。具体的には、ユーザ判読処理314として、例えば、干渉SAR画像データ211の領域全体を学習出力部23のディスプレイに表示させて、ユーザに変動の有無を判読させ、学習操作部20から判読結果213を取得する。当該判読処理314では、干渉SAR画像データ211のほか、地形画像データ212やその他、LiDAR(Light Detection and Ranging)などの高精度のセンサにより得られたデータや現地でのGPS(Global Positioning System)を用いた計測により得られたデータなどをユーザに判断材料のデータ316として提示することができる。これらデータは、例えば、干渉SAR画像211と地形画像データ212等とを組み合わせるなど、併用して判読処理314を行うことができる。また、LiDARやGPSなどにより干渉SARより高度な計測データが得られる場合は、当該データを単体で判読処理314に用いて判読結果213を生成することもできる。ユーザは例えば、これらデータの表示倍率の拡大・縮小等の操作をしながら、変動のある箇所をマークし判読結果(GTデータ)を生成する。生成された判読結果213は学習記憶部21に記憶される。   The learning data 312 is generated for each sample region by combining the converted interference image 308, which is n types of component images, and the user's interpretation result regarding the presence or absence of ground surface fluctuation. For this purpose, the learning data generation means 222 performs a process 314 for acquiring the interpretation result. Specifically, as the user interpretation process 314, for example, the entire area of the interference SAR image data 211 is displayed on the display of the learning output unit 23 to allow the user to interpret whether there is a change or not, and the interpretation result 213 from the learning operation unit 20. To get. In the interpretation processing 314, in addition to the interference SAR image data 211, topographic image data 212, other data obtained by a high-precision sensor such as LiDAR (Light Detection and Ranging), and local GPS (Global Positioning System) are used. Data obtained by the measurement used can be presented to the user as data 316 for determination material. These data can be subjected to the interpretation process 314 in combination, for example, by combining the interference SAR image 211 and the terrain image data 212 or the like. In addition, when measurement data higher than the interference SAR can be obtained by LiDAR or GPS, the interpretation result 213 can be generated by using the data alone for the interpretation process 314. For example, the user marks a portion with fluctuation while generating an interpretation result (GT data) while performing operations such as enlargement / reduction of the display magnification of these data. The generated interpretation result 213 is stored in the learning storage unit 21.

判読結果213が得られると、学習用データ生成手段222は、干渉SAR画像データ211に対応した領域にて得られている、n種類の成分画像である変換済み干渉画像308と判読結果213とから各サンプル領域に対応する部分のデータをそれぞれパッチ画像として切り出して学習用データ312を生成する。なお、学習用データ312には、変動の解析に有用な他の情報も組み合わせることができ、例えば、本実施形態では、地形画像データ212のパッチ画像を学習用データ312に含める。   When the interpretation result 213 is obtained, the learning data generation unit 222 uses the converted interference image 308 that is n types of component images and the interpretation result 213 obtained in the area corresponding to the interference SAR image data 211. Data for a portion corresponding to each sample area is cut out as a patch image, and learning data 312 is generated. Note that the learning data 312 can be combined with other information useful for fluctuation analysis. For example, in the present embodiment, the patch data of the topographic image data 212 is included in the learning data 312.

学習制御部22はモデル生成手段223として機能し、多数のサンプル領域について生成された学習用データ312を用いて機械学習により変動判定モデル214を生成する。具体的には、本実施形態における機械学習は、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)を用いた深層学習318で行われ、学習済みのCNNが変動判定モデル214となる。なお、CNNではサンプル領域は基本的に矩形とされる。   The learning control unit 22 functions as the model generation unit 223 and generates the variation determination model 214 by machine learning using the learning data 312 generated for a large number of sample regions. Specifically, the machine learning in the present embodiment is performed by deep learning 318 using a convolutional neural network (CNN), and the learned CNN becomes the variation determination model 214. In the CNN, the sample area is basically rectangular.

学習システム2の特徴の一つは、干渉SAR画像データ211をそのまま機械学習に用いるのではなく、干渉SAR画像データ211を成分画像に変換する前処理を行い、当該成分画像を用いて学習処理を行う点にある。   One of the features of the learning system 2 is that the interference SAR image data 211 is not used for machine learning as it is, but the preprocessing for converting the interference SAR image data 211 into a component image is performed, and the learning process is performed using the component image. There is in point to do.

ここで、干渉SAR画像データ211の各画素値における位相差θを第k(kはn以下の任意の自然数である。)の成分画像の画素値に変換する関数をp(θ)と表すと、上述の実施形態では、sin画像を第1の成分画像として、p(θ)=sinθであり、cos画像を第2の成分画像として、p(θ)=cosθである。 Here, a function for converting a phase difference θ at each pixel value of the interference SAR image data 211 into a pixel value of a k-th component image (k is an arbitrary natural number equal to or less than n) is expressed as p k (θ). In the above-described embodiment, p 1 (θ) = sin θ when the sin image is the first component image, and p 2 (θ) = cos θ where the cos image is the second component image.

位相θとθとの差が2πラジアン〔rad〕である2つの位相状態η,ηは物理的に同じであるところ、干渉SAR画像データ211を用いた学習では、θとθとが異なる値であることから位相状態ηとηとは区別して扱われてしまう。これに対し、成分画像を用いた学習では、位相差θに対応付けられる関数値の組(sinθ,cosθ)は、(sinθ,cosθ)=(sinθ,cosθ)であり、位相状態η,ηが物理的に同じであることが考慮される点で好適であり、当該学習により生成される変動判定モデルでは判定精度の向上が図られる。 Two phase states eta 1 difference is 2π radians (rad) between the phase theta 1 and theta 2, where the eta 2 are physically the same, in the learning using the interference SAR image data 211, theta 1 and theta Since 2 is a different value, the phase states η 1 and η 2 are distinguished from each other. On the other hand, in learning using component images, the set of function values (sin θ, cos θ) associated with the phase difference θ is (sin θ 1 , cos θ 1 ) = (sin θ 2 , cos θ 2 ), and the phase state It is preferable in that η 1 and η 2 are considered to be physically the same, and the determination accuracy is improved in the variation determination model generated by the learning.

このような前処理の効果が得られるn種類(上述したようにn≧2)の成分画像の関数p(θ)は基本的に以下の特徴(1)〜(3)を有する。ここで、位相差θを定義する幅2πradの範囲[α−π,α+π]を区間Dとする。例えば、θを0〜2πで定義する場合には、α=πとして、D=[0,2π]であり、θを−π〜πで定義する場合には、α=0として、D=[−π,π]となる。 The function p k (θ) of component images of n types (n ≧ 2 as described above) that can obtain the effect of such preprocessing basically has the following features (1) to (3). Here, a range [α−π, α + π] having a width 2πrad that defines the phase difference θ is defined as a section D. For example, when θ is defined by 0 to 2π, α = π and D = [0,2π], and when θ is defined by −π to π, α = 0 and D = [ −π, π].

(1)各関数p(θ)は区間Dで連続であること(関数の連続性)
(2)各関数p(θ)は区間Dの両端で同じ値となる、つまりp(α−π)=p(α+π)であること(関数の周期性)
(3)全kについてのp(θ)の組で定義される座標をP(θ)と表すと、区間Dの両端同士を除いて区間D内の異なるθの値に対してP(θ)は一致しない、つまりθ=α−πかつθ=α+πである場合を除いてθ<θなる∀θ,θ∈Dに対してP(θ)≠P(θ)であること(関数の単射性)。
(1) Each function p k (θ) is continuous in section D (continuity of function)
(2) Each function p k (θ) has the same value at both ends of the section D, that is, p k (α−π) = p k (α + π) (periodicity of the function).
(3) When the coordinate defined by the set of p k (θ) for all k is expressed as P (θ), P (θ) for different values of θ in the section D except for both ends of the section D ) do not coincide, i.e. θ 1 = α-π cutlet except where θ 2 = α + π θ 1 <θ 2 becomes ∀θ 1, P with respect to θ 2 ∈D (θ 1) ≠ P (θ 2 ) (Injectivity of the function).

なお、特徴(2)については、θが区間Dの一方端から他方端へ変化する際に、p(θ)の値が元に戻るという意味で「周期性」と述べている。よって、関数p(θ)が周期2πの周期関数であれば当該特徴を有する一方、関数p(θ)は区間Dで定義されれば足り、区間D外で定義される必要はないので、関数p(θ)は周期2πの周期関数ではない場合もある。 The feature (2) is described as “periodicity” in the sense that the value of p k (θ) returns to the original value when θ changes from one end of the section D to the other end. Therefore, if the function p k (θ) is a periodic function with a period of 2π, it has the characteristics. On the other hand, the function p k (θ) only needs to be defined in the section D, and need not be defined outside the section D. The function p k (θ) may not be a periodic function having a period of 2π.

図3は上述の特徴(1)〜(3)を有する関数p(θ)の例を示すグラフであり、当該例に示す関数p(θ)の組を用いてn種類の成分画像を定義することもできる。図3(a)に示す例はn=2の場合であり、p(θ)及びp(θ)は次式で表される。なお0<β<πである。

Figure 2018194404
FIG. 3 is a graph showing an example of the function p k (θ) having the above features (1) to (3), and n types of component images are obtained using the set of the function p k (θ) shown in the example. It can also be defined. The example shown in FIG. 3A is a case where n = 2, and p 1 (θ) and p 2 (θ) are expressed by the following equations. Note that 0 <β <π.
Figure 2018194404

図3(b)はn=3の場合の一例を示しており、p(θ)〜p(θ)は次式で表される。
(θ)=sin2θ
(θ)=sin3θ
(θ)=cosθ
FIG. 3B shows an example where n = 3, and p 1 (θ) to p 3 (θ) are expressed by the following equations.
p 1 (θ) = sin 2θ
p 2 (θ) = sin 3θ
p 3 (θ) = cos θ

なお、上述の実施形態では、学習用データはn種類の成分画像と判読結果とに加え地形画像データ212を含む例を示した。この構成は、生成される変動判定モデルの精度が向上することが期待できる。その一方、学習用データは地形画像データ212を含まない構成とすることもできる。   In the above-described embodiment, the learning data includes the topographic image data 212 in addition to the n types of component images and the interpretation results. This configuration can be expected to improve the accuracy of the generated variation determination model. On the other hand, the learning data may be configured not to include the terrain image data 212.

また、上述の実施形態では機械学習はCNNを用いる例を述べたが、他のアルゴリズムであってもよい。   In the above-described embodiment, an example in which machine learning uses CNN has been described, but another algorithm may be used.

[地表変動判定システム]
図4は、実施形態に係る地表変動判定システム4の概略の構成を示すブロック図である。地表変動判定システム4は、入力部40、記憶部41、制御部42及び出力部43を含んで構成される。入力部40、記憶部41及び出力部43は制御部42と接続される。
[Surface variation judgment system]
FIG. 4 is a block diagram illustrating a schematic configuration of the ground surface fluctuation determination system 4 according to the embodiment. The ground surface fluctuation determination system 4 includes an input unit 40, a storage unit 41, a control unit 42, and an output unit 43. The input unit 40, the storage unit 41, and the output unit 43 are connected to the control unit 42.

入力部40は制御部42への入力を行うためのユーザインターフェース装置であり、キーボード、マウス等からなる。ユーザは入力部40を操作し、例えば、変動判定を行わせるデータや対象領域を指定し制御部42に指示する。また、入力部40は変動判定モデル214を学習システム2から入力するUSB端子、CDドライブ、ネットワークアダプタ等のインターフェース回路、及びそれぞれのドライバ・プログラムを含む。   The input unit 40 is a user interface device for performing input to the control unit 42, and includes a keyboard, a mouse, and the like. The user operates the input unit 40 to specify, for example, data to be subjected to variation determination and a target area and instruct the control unit 42. The input unit 40 includes a USB terminal for inputting the variation determination model 214 from the learning system 2, an interface circuit such as a CD drive and a network adapter, and respective driver programs.

記憶部41はROM、RAM、ハードディスク等の記憶装置であり、制御部42で使用されるプログラムやデータを記憶する。記憶部41はこれらプログラム、データを制御部42との間で入出力する。本実施形態では記憶部41に記憶されるデータには、干渉SAR画像データ411、地形画像データ412及び変動判定モデル413が含まれる。   The storage unit 41 is a storage device such as a ROM, a RAM, and a hard disk, and stores programs and data used by the control unit 42. The storage unit 41 inputs and outputs these programs and data to and from the control unit 42. In the present embodiment, the data stored in the storage unit 41 includes interference SAR image data 411, terrain image data 412, and a variation determination model 413.

干渉SAR画像データ411は学習システム2で用いた干渉SAR画像データ211と同様、干渉SAR画像のデータであり、変動判定を行う対象領域を含む地表範囲のデータである。   Like the interference SAR image data 211 used in the learning system 2, the interference SAR image data 411 is data of the interference SAR image, and is data of the ground surface range including the target region for which the variation determination is performed.

地形画像データ412は学習システム2の地形画像データ212と同様、DEMや地形図などの地形を表す二次元情報であり、変動判定を行う対象領域を含む地表範囲のデータである。   Similar to the terrain image data 212 of the learning system 2, the terrain image data 412 is two-dimensional information representing the terrain such as a DEM or a topographic map, and is data of the ground surface range including the target region for which the change determination is performed.

これら干渉SAR画像データ411及び地形画像データ412は地表変動判定システム4による変動判定に際して予め記憶部41に記憶される。   The interference SAR image data 411 and the terrain image data 412 are stored in the storage unit 41 in advance when the ground surface variation determination system 4 determines the variation.

変動判定モデル413は、学習システム2により生成される学習モデルであり、学習記憶部21に記憶される変動判定モデル214を導入して用いる。   The variation determination model 413 is a learning model generated by the learning system 2, and introduces and uses the variation determination model 214 stored in the learning storage unit 21.

制御部42は、例えば、CPU等の演算装置を用いて構成される。また、制御部42を構成する演算装置はCPUに代えて、MPUやGPU等を用いてもよい。また、例えばGPGPUを利用して、本実施形態に係る各機能を実現してもよい。具体的には制御部42はコンピュータであり、当該コンピュータは記憶部41からプログラムを読み出して実行し、後述する成分画像生成手段421、判定手段422として機能する。これら制御部42の各手段については制御部42の処理に沿って後述する。   The control unit 42 is configured using an arithmetic device such as a CPU, for example. In addition, an arithmetic unit constituting the control unit 42 may use an MPU, a GPU, or the like instead of the CPU. Moreover, you may implement | achieve each function which concerns on this embodiment, for example using GPGPU. Specifically, the control unit 42 is a computer, and the computer reads out and executes a program from the storage unit 41 and functions as a component image generation unit 421 and a determination unit 422 to be described later. Each means of the control unit 42 will be described later along the processing of the control unit 42.

出力部43は、ディスプレイ、プリンタなど、ユーザが制御部42の動作及びその結果を把握することを可能とするユーザインターフェース装置である。   The output unit 43 is a user interface device such as a display or a printer that allows the user to grasp the operation of the control unit 42 and the result thereof.

図5は、地表変動判定システム4を用いた地表の変動判定処理の概略の流れを示す模式図である。2時期のSAR画像500及びDEM502から干渉SAR解析処理504により干渉SAR画像データ411を生成する処理は、基本的に学習システム2に関し図2を用いて説明した干渉SAR画像データ211を生成する処理と同じとすることができる。本実施形態では地表変動判定システム4は、このように生成された干渉SAR画像データ411を処理対象データとして与えられるものとするが、地表変動判定システム4にてSAR画像500から干渉SAR画像データ411を生成する処理を行ってもよい。   FIG. 5 is a schematic diagram showing a general flow of the ground surface fluctuation determination process using the ground surface fluctuation determination system 4. The process of generating the interference SAR image data 411 by the interference SAR analysis process 504 from the two-time SAR image 500 and the DEM 502 is basically a process of generating the interference SAR image data 211 described with reference to FIG. The same can be done. In the present embodiment, the ground surface fluctuation determination system 4 is assumed to receive the interference SAR image data 411 generated in this way as processing target data. However, the ground surface fluctuation determination system 4 uses the interference SAR image data 411 from the SAR image 500. You may perform the process which produces | generates.

制御部42は成分画像生成手段421として機能し、干渉SAR画像データ411の各画素の位相差θに基づいて画素値が定義されたn種類の成分画像を生成する。この成分画像生成手段421における処理内容は、変動判定モデル413を生成した学習制御部22の成分画像生成手段221の処理内容と共通である。つまり、成分画像生成手段421における成分画像を生成する際の位相差θに対する変換処理(関数p(θ))及び成分画像の種類の数nは、変動判定モデル413を生成した学習システム2の成分画像生成手段221と共通とされる。本実施形態では、成分画像生成手段221が位相差θをsinθ,cosθに変換する図2の処理306に対応して、成分画像生成手段421は干渉SAR画像データ411の位相差θをsinθ,cosθに変換する処理506を行い、成分画像となる変換済み干渉画像508として、画素値がsinθで定義されるsin画像と、画素値がcosθで定義されるcos画像との2種類を生成する。 The control unit 42 functions as the component image generation unit 421 and generates n types of component images in which pixel values are defined based on the phase difference θ T of each pixel of the interference SAR image data 411. The processing content in the component image generation unit 421 is the same as the processing content of the component image generation unit 221 of the learning control unit 22 that has generated the variation determination model 413. That is, the conversion process (function p k (θ)) for the phase difference θ and the number n of component image types when generating the component image in the component image generating unit 421 are the same as those of the learning system 2 that generated the variation determination model 413. This is common to the component image generation means 221. In this embodiment, component image generating means 221 sinθ phase difference theta S S, corresponding to the process 306 of FIG. 2 to be converted to cos [theta] S, component image generating means 421 phase difference theta T SAR interferometry image data 411 the sin [theta T, performs the process 506 of converting the cos [theta] T, as converted interference image 508 serving as a component image, and sin image pixel value is defined by sin [theta T, a cos image pixel value is defined by cos [theta] T These two types are generated.

成分画像生成手段421は成分画像(変換済み干渉画像508)から変動の有無を判定する対象領域の部分をパッチ画像512として切り出す処理510を行う。ここで、学習システム2での学習用データに地形画像データ212を含めた場合には、切り出し処理510にて、地形画像データ412についてのパッチ画像512も生成される。対象領域の指定に関しては、例えば、干渉SAR画像データ411が与えられた地表範囲内の特定箇所をユーザが指定することもできるし、制御部42が当該地表範囲の全体に順次、対象領域を指定する処理を行ってもよい。   The component image generation unit 421 performs a process 510 of cutting out a portion of a target region for determining whether or not there is a change from the component image (converted interference image 508) as a patch image 512. Here, when the terrain image data 212 is included in the learning data in the learning system 2, a patch image 512 for the terrain image data 412 is also generated in the clipping process 510. Regarding the designation of the target area, for example, the user can designate a specific location within the ground surface range where the interference SAR image data 411 is given, and the control unit 42 sequentially designates the target area for the entire ground surface range. You may perform the process to do.

制御部42は判定手段422として機能し、対象領域における所定の地表の変動の有無を判定する。具体的には判定手段422は対象領域のパッチ画像512を変動判定モデル413の入力データとして判定処理514を行い、その出力に基づいて判定対象とする変動である地滑りの有無を判定し、例えば、地滑り候補箇所マップ516を生成する。   The control unit 42 functions as the determination unit 422 and determines whether or not there is a change in the predetermined ground surface in the target area. Specifically, the determination unit 422 performs a determination process 514 using the patch image 512 of the target region as input data of the variation determination model 413, determines the presence / absence of landslide that is a variation to be determined based on the output, for example, A landslide candidate location map 516 is generated.

2 学習システム、4 地表変動判定システム、20 学習操作部、21 学習記憶部、22 学習制御部、23 学習出力部、40 入力部、41 記憶部、42 制御部、43 出力部、211,411 干渉SAR画像データ、212,412 地形画像データ、213 判読結果、214,413 変動判定モデル、221,421 成分画像生成手段、222 学習用データ生成手段、223 モデル生成手段、422 判定手段。   2 learning system, 4 ground surface fluctuation determination system, 20 learning operation unit, 21 learning storage unit, 22 learning control unit, 23 learning output unit, 40 input unit, 41 storage unit, 42 control unit, 43 output unit, 211, 411 interference SAR image data, 212, 412 Topographic image data, 213 Interpretation result, 214, 413 Variation determination model, 221, 421 Component image generation means, 222 Learning data generation means, 223 Model generation means, 422 determination means.

Claims (5)

飛翔体に搭載された合成開口レーダーにより得た2時期のSAR画像同士を干渉処理して得た干渉SAR画像の各画素の位相差θに基づいて画素値が定義されたn種類(nは2以上の所定数である。)の成分画像を生成する成分画像生成ステップと、
所定の地表の変動についてのユーザの判読結果を取得し、複数のサンプル領域について、前記n種類の成分画像と前記判読結果とを組み合わせた学習用データを生成する学習用データ生成ステップと、
前記学習用データを用いて機械学習により変動判定モデルを生成するモデル生成ステップと、を有し、
第k(kはn以下の任意の自然数である。)の前記成分画像は関数p(θ)のθ=θでの値を画素値とし、
前記各関数p(θ)は、前記位相差の範囲に対応した幅2πラジアンの区間Dを[α−π,α+π]として、Dで連続、かつp(α−π)=p(α+π)であり、さらに全kについての前記p(θ)の組で定義される座標をP(θ)と表すと、Dの両端同士以外のθ≠θなる∀θ,θ∈Dに対してP(θ)≠P(θ)であること、
を特徴とする機械学習方法。
N types (n is defined as a pixel value) based on a phase difference θ S of each pixel of an interference SAR image obtained by performing interference processing between two SAR images obtained by a synthetic aperture radar mounted on a flying object. A component image generation step of generating a component image of 2).
A learning data generation step of acquiring a user's interpretation result for a predetermined ground surface fluctuation, and generating learning data combining the n kinds of component images and the interpretation result for a plurality of sample regions;
A model generation step of generating a variation determination model by machine learning using the learning data,
In the k-th component image (k is an arbitrary natural number equal to or less than n), the value at θ = θ S of the function p k (θ) is a pixel value,
Each function p k (θ) is continuous in D, with a section D having a width of 2π radians corresponding to the range of the phase difference as [α−π, α + π], and p k (α−π) = p k ( α + π), and the coordinates defined by the set of p k (θ) for all k are represented as P (θ), and θ 1 ≠ θ 2 other than both ends of D ∀θ 1 , θ 2 P (θ 1 ) ≠ P (θ 2 ) for ∈D,
A machine learning method characterized by
請求項1に記載の機械学習方法において、
前記nは2であり、前記関数はsinθ及びcosθであること、を特徴とする機械学習方法。
The machine learning method according to claim 1,
The machine learning method, wherein n is 2 and the functions are sin θ and cos θ.
請求項1又は請求項2に記載の機械学習方法において、
前記変動判定モデルは畳み込みニューラルネットワークで構成されること、を特徴とする機械学習方法。
In the machine learning method according to claim 1 or 2,
The machine learning method, wherein the variation determination model is configured by a convolutional neural network.
請求項1から請求項3のいずれか1つに記載の機械学習方法において、
前記学習用データはさらに、前記サンプル領域の地形を表す地図画像を含むこと、を特徴とする機械学習方法。
The machine learning method according to any one of claims 1 to 3,
The machine learning method, wherein the learning data further includes a map image representing the topography of the sample area.
請求項1から請求項4のいずれか1つに記載の機械学習方法により生成された前記変動判定モデルを用い対象領域における地表変動を判定する方法であって、
前記対象領域について生成された前記干渉SAR画像から各画素における位相差θを抽出し、前記関数の値p(θ)(kは前記n以下の任意の自然数である。)を画素値とする前記n種類の成分画像を生成するステップと、
前記対象領域についての前記n種類の成分画像を含む入力データを前記変動判定モデルに入力して、当該対象領域について前記変動の有無の判定結果を得るステップと、
を有することを特徴とする地表変動判定方法。
A method for determining a ground surface variation in a target region using the variation determination model generated by the machine learning method according to any one of claims 1 to 4.
A phase difference θ T at each pixel is extracted from the interference SAR image generated for the target region, and the value p kT ) of the function (k is an arbitrary natural number equal to or less than n) is used as a pixel value. Generating the n types of component images,
Inputting input data including the n types of component images for the target region into the variation determination model to obtain a determination result of the presence or absence of the variation for the target region;
A method for determining ground deformation, comprising:
JP2017097563A 2017-05-16 2017-05-16 Machine learning method and surface change judgment method Active JP7102106B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017097563A JP7102106B2 (en) 2017-05-16 2017-05-16 Machine learning method and surface change judgment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017097563A JP7102106B2 (en) 2017-05-16 2017-05-16 Machine learning method and surface change judgment method

Publications (2)

Publication Number Publication Date
JP2018194404A true JP2018194404A (en) 2018-12-06
JP7102106B2 JP7102106B2 (en) 2022-07-19

Family

ID=64571311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017097563A Active JP7102106B2 (en) 2017-05-16 2017-05-16 Machine learning method and surface change judgment method

Country Status (1)

Country Link
JP (1) JP7102106B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021008729A (en) * 2019-06-28 2021-01-28 大和ハウス工業株式会社 Ground subsidence prediction system
CN112857312A (en) * 2021-03-31 2021-05-28 中铁上海设计院集团有限公司 Fusion method for measuring ground settlement by different time sequence differential interference according to settlement rate
WO2021199245A1 (en) * 2020-03-31 2021-10-07 日本電気株式会社 Analysis device, analysis method, and storage medium
WO2022018791A1 (en) 2020-07-20 2022-01-27 日本電気株式会社 Image processing device and image processing method
WO2025146736A1 (en) * 2024-01-05 2025-07-10 株式会社スペースシフト Learning model, signal processing device, flying body, and teacher data generation method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5835055A (en) * 1996-03-20 1998-11-10 Atlantis Scientific Inc. Method for iterative disk masking and automatic error repair for phase unwrapping
JP2003500658A (en) * 1999-05-25 2003-01-07 ポリテクニコ ディ ミラノ Procedures for radar measurements of urban area and landslide motion.
JP2006003302A (en) * 2004-06-21 2006-01-05 Mitsubishi Electric Corp Radar image processing device
WO2008016034A1 (en) * 2006-08-01 2008-02-07 Pasco Corporation Map information update supporting device, map information update supporting method, computer-readable recording medium
JP2009289111A (en) * 2008-05-30 2009-12-10 Mitsubishi Electric Corp Image processor
JP2010175381A (en) * 2009-01-29 2010-08-12 Mitsubishi Electric Corp Image change extraction apparatus
US20160019458A1 (en) * 2014-07-16 2016-01-21 Deep Learning Analytics, LLC Systems and methods for recognizing objects in radar imagery

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5835055A (en) * 1996-03-20 1998-11-10 Atlantis Scientific Inc. Method for iterative disk masking and automatic error repair for phase unwrapping
JP2003500658A (en) * 1999-05-25 2003-01-07 ポリテクニコ ディ ミラノ Procedures for radar measurements of urban area and landslide motion.
JP2006003302A (en) * 2004-06-21 2006-01-05 Mitsubishi Electric Corp Radar image processing device
WO2008016034A1 (en) * 2006-08-01 2008-02-07 Pasco Corporation Map information update supporting device, map information update supporting method, computer-readable recording medium
JP2009289111A (en) * 2008-05-30 2009-12-10 Mitsubishi Electric Corp Image processor
JP2010175381A (en) * 2009-01-29 2010-08-12 Mitsubishi Electric Corp Image change extraction apparatus
US20160019458A1 (en) * 2014-07-16 2016-01-21 Deep Learning Analytics, LLC Systems and methods for recognizing objects in radar imagery

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
津田 覚之: ""合成開口レーダ情報のニューラルネットワークによる構造化の提案"", 電子情報通信学会技術研究報告, vol. 115, no. 200, JPN6021017297, 20 August 2015 (2015-08-20), JP, pages 31 - 36, ISSN: 0004672020 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021008729A (en) * 2019-06-28 2021-01-28 大和ハウス工業株式会社 Ground subsidence prediction system
JP7246272B2 (en) 2019-06-28 2023-03-27 大和ハウス工業株式会社 Ground subsidence prediction system
WO2021199245A1 (en) * 2020-03-31 2021-10-07 日本電気株式会社 Analysis device, analysis method, and storage medium
JPWO2021199245A1 (en) * 2020-03-31 2021-10-07
JP7375915B2 (en) 2020-03-31 2023-11-08 日本電気株式会社 Analytical equipment, analytical methods and programs
US12360235B2 (en) 2020-03-31 2025-07-15 Nec Corporation Analysis device, analysis method, and storage medium
WO2022018791A1 (en) 2020-07-20 2022-01-27 日本電気株式会社 Image processing device and image processing method
CN112857312A (en) * 2021-03-31 2021-05-28 中铁上海设计院集团有限公司 Fusion method for measuring ground settlement by different time sequence differential interference according to settlement rate
WO2025146736A1 (en) * 2024-01-05 2025-07-10 株式会社スペースシフト Learning model, signal processing device, flying body, and teacher data generation method

Also Published As

Publication number Publication date
JP7102106B2 (en) 2022-07-19

Similar Documents

Publication Publication Date Title
JP7102106B2 (en) Machine learning method and surface change judgment method
Li et al. Digital terrain modeling: principles and methodology
Singh et al. Automated rock mass discontinuity set characterisation using amplitude and phase decomposition of point cloud data
Orengo et al. Multi‐scale relief model (MSRM): a new algorithm for the visualization of subtle topographic change of variable size in digital elevation models
US20180158202A1 (en) Omnidirectional Roughness Algorithm for Topographic Signature Analysis of Lunar Craters
Conolly Geographical information systems and landscape archaeology
Kennelly et al. Elevation models for reproducible evaluation of terrain representation
Arif et al. An investigation of image processing techniques for substrate classification based on dominant grain size using RGB images from UAV
Smith Digital mapping: Visualisation, interpretation and quantification of landforms
Wu et al. Efficient management and processing of massive insar images using an hpc-based cloud platform
Liu et al. Functional factor analysis for periodic remote sensing data
Smith et al. The Cookie Cutter: a method for obtaining a quantitative 3D description of glacial bedforms
CN114241083A (en) Lane line generation method and device, electronic equipment and storage medium
Legleiter et al. A Robot Operating System (ROS) package for mapping flow fields in rivers via Particle Image Velocimetry (PIV)
CN117331073A (en) Rapid evaluation method and system for radar detection conditions of plateau desert area
Hinz et al. AI-based boulder detection in sonar data–Bridging the gap from experimentation to application
Kennie et al. Digital terrain modelling
Kandil et al. Rapid enhanced-DEM using Google Earth Engine, machine learning, weighted and spatial interpolation techniques
Qiang et al. Novel Models for Multi-Scale Spatial and Temporal Analyses (Short Paper)
Błaszczak-Bąk et al. High performance filtering for big datasets from Airborne Laser Scanning with CUDA technology
Chen et al. Integrating topographic features and patch matching into point cloud restoration for terrain modelling
Ahmadi et al. Using cognitive information in the expert interface system for intelligent structuring and quality control of spatial data measured from photogrammetric or remotely sensed images
Budiarto et al. Unmanned aerial vehicles for assessing biomass and carbon stocks in mangrove forests: A systematic review
Delfgou et al. Uncertainty analysis of geodata derived from digital map processing
Fernandez et al. Slopes geometric model: An automatic Pre-DInSAR analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220706

R150 Certificate of patent or registration of utility model

Ref document number: 7102106

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250