[go: up one dir, main page]

JP2001143054A - Satellite image processing method - Google Patents

Satellite image processing method

Info

Publication number
JP2001143054A
JP2001143054A JP32501599A JP32501599A JP2001143054A JP 2001143054 A JP2001143054 A JP 2001143054A JP 32501599 A JP32501599 A JP 32501599A JP 32501599 A JP32501599 A JP 32501599A JP 2001143054 A JP2001143054 A JP 2001143054A
Authority
JP
Japan
Prior art keywords
area
satellite image
image
cloud
satellite
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP32501599A
Other languages
Japanese (ja)
Inventor
Isato Mori
勇人 森
Ichiro Enbutsu
伊智朗 圓佛
Kazuo Tsutsui
筒井  和雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP32501599A priority Critical patent/JP2001143054A/en
Publication of JP2001143054A publication Critical patent/JP2001143054A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】衛星画像中の覆雲部領域から雲成分を除去し、
覆雲部領域の地表面情報を復元する手法を提供する。 【解決手段】衛星画像中の覆雲部領域を覆雲部領域抽出
工程12で抽出する。そして、該画像と同一領域における
覆雲部領域のない参照用衛星画像を、位置補正工程14で
該衛星画像と重なるように位置補正する。その後、該両
画像の覆雲部領域を除いた画素のDN値(ディジタルナン
バー)の関係式を関係式作成工程17で作成し、覆雲部領
域復元工程18で参照用衛星画像中の覆雲部領域のDN値か
ら、雲の影響を除いた画像を復元する。
(57) [Summary] [Problem] To remove cloud components from a cloud cover area in a satellite image,
Provided is a method for restoring the ground surface information of the overcloud area. A cloud-covered cloud area in a satellite image is extracted in a cloud-covered cloud area extraction step. Then, in the position correcting step 14, the position of the reference satellite image having no overcloud area in the same area as the image is corrected so as to overlap the satellite image. Thereafter, a relational expression of the DN value (digital number) of the pixel excluding the cloudy area of both images is created in a relational equation creating step 17, and a cloudy cloud in the reference satellite image is created in a cloudy area area restoration step 18. Restores the image excluding the effect of clouds from the DN value of the partial area.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、光学センサを搭載
した地球観測衛星により撮影された衛星画像の処理に係
わり、特に衛星画像内の雲に覆われた領域(以下、覆雲
部領域と呼称する)から雲を除去して衛星画像撮影時の
地表面情報を復元する方式に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to the processing of a satellite image taken by an earth observation satellite equipped with an optical sensor, and more particularly to an area covered by clouds in a satellite image (hereinafter referred to as a cloud cover area). The present invention relates to a method for restoring the ground surface information at the time of satellite image capturing by removing clouds from the above.

【0002】[0002]

【従来の技術】宅地、農地、道路、河川等の地理情報を
表す地図データをデータベース化し、必要な地図データ
を適宜表示部上に画像表示したり、印刷したりして、需
要者に提供するサービスシステムが知られている。この
ようなサービスシステムでは、航空写真、衛星画像、あ
るいは地上で計測したデータ(以下、地上計測データと
呼称する)を定期的に取得して地図データを生成し、時
間の経過に伴って地図データの内容が変化した場合は、
操作者が該当する地図データをデータベースから検索し
て修正している。近年は、航空写真等をコンピュータで
パターン認識して個々の地図データの生成と複数の地図
データの内容変化の検知とを自動化し、データベースの
メンテナンス作業の省力化や地図データの修正精度の向
上を図ることも試みられている。
2. Description of the Related Art A database of map data representing geographical information such as residential land, farmland, roads, rivers, etc., is provided to consumers by displaying or printing necessary map data on a display unit as appropriate. Service systems are known. In such a service system, aerial photographs, satellite images, or data measured on the ground (hereinafter referred to as ground measurement data) are periodically acquired to generate map data, and the map data is generated as time passes. If the content of has changed,
The operator searches the database for the corresponding map data and corrects it. In recent years, computerized pattern recognition of aerial photographs, etc., and automatic generation of individual map data and detection of changes in the contents of multiple map data have been automated, saving labor in database maintenance work and improving the accuracy of map data correction. Attempts have also been made.

【0003】光学センサを搭載した地球観測衛星が雲天
時に撮影する衛星画像では、太陽光が雲に遮られて、覆
雲部領域の地表面情報を知ることができない。このよう
な衛星画像内に含まれる雲や影などのノイズを除去する
方法は、例えば特開平10−269347号のように、人工衛星
で撮影した地表面の画像、撮影時の条件情報、撮影時の
気象情報等に基づいて生成された地理画像の構成画素を
必要に応じて二値化し、、指定方向における画素連結数
が所定の連結上限値以下となる有色画素を検出し、検出
した有色画素をノイズ画素とみなして該当領域から除去
する方法や、特開平10−269354号のように、衛星画像デ
ータに基づいて生成された地理画像の構成画素を必要に
応じて二値化する。そして、地理画像内の自然物や建造
物等の高さ情報を衛星画像データから取得し、前記物体
への太陽光の照射方向、照射角度、当該物体の影の幅と
長さ、及び当該物体の影響面積を算出する。その後、算
出した影響面積を前記影の幅とその長さとの乗算値より
差し引いて地理画像上の影領域を特定するとともに、特
定した影領域の画素を削除する。また、画素分布の誤検
出を防ぐために衛星画像データに含まれる撮影時の雲量
情報を取得して地理画像濃度を予測し、予測値が所定の
基準値以下のときは当該画像の濃度を補正する方法等が
ある。
[0003] In a satellite image taken by an earth observation satellite equipped with an optical sensor at the time of cloudy sky, sunlight is blocked by clouds, and it is not possible to know the ground surface information of the overcloud area. Methods for removing noise such as clouds and shadows contained in such a satellite image are described in, for example, Japanese Patent Application Laid-Open No. H10-269347. The constituent pixels of the geographic image generated based on the weather information and the like are binarized as necessary, and the color pixels in which the number of connected pixels in the designated direction is equal to or less than a predetermined connection upper limit value are detected, and the detected color pixels are detected. Is regarded as a noise pixel and is removed from the corresponding area, or as described in JP-A-10-269354, the constituent pixels of the geographic image generated based on the satellite image data are binarized as necessary. Then, height information of a natural object or a building in the geographic image is acquired from the satellite image data, and the irradiation direction of the sunlight to the object, the irradiation angle, the width and length of the shadow of the object, and the Calculate the affected area. Then, the shadow area on the geographic image is specified by subtracting the calculated influence area from the product of the width of the shadow and its length, and the pixels of the specified shadow area are deleted. In addition, in order to prevent erroneous detection of pixel distribution, cloud information at the time of photographing included in satellite image data is obtained to predict the geographic image density, and when the predicted value is equal to or less than a predetermined reference value, the density of the image is corrected. There are methods.

【0004】[0004]

【発明が解決しようとする課題】しかし、これらの方法
では、覆雲部領域から雲は除去できても、地表面情報を
復元することは出来ない。このような課題に対して本発
明では、衛星画像から覆雲部領域の雲を除去し、覆雲部
領域の地表面情報を復元する手法を提供することにあ
る。
However, these methods cannot restore the ground surface information even if the cloud can be removed from the overcloud area. In order to solve such a problem, an object of the present invention is to provide a method of removing clouds in a cloud-covered area from a satellite image and restoring ground surface information in the cloud-covered area.

【0005】[0005]

【課題を解決するための手段】上記課題を解決する本発
明の方法は、覆雲部領域を含む衛星画像について、構成
画素に雲を判定するためのしきい値を設けて覆雲部領域
を抽出する。そして、前記画像と同一領域を撮影した覆
雲部領域を含まない参照用衛星画像を、前記衛星画像と
重なるように位置補正する。その後、前記両画像の覆雲
部領域を除いた画素のDN値(ディジタルナンバー)の関
係式を作成する。DN値とは、地球観測衛星が計測した放
射輝度を0〜255に離散化したあたいである。この関係式
により、覆雲部領域のDN値を算出して、雲の影響を除い
た画像を復元する。
According to a method of the present invention for solving the above-mentioned problems, a satellite image including a cloud-covered area is provided with a threshold value for judging a cloud in a constituent pixel to define the cloud-covered area. Extract. Then, the position of the reference satellite image that does not include the overcloud portion area obtained by photographing the same area as the image is corrected so as to overlap the satellite image. Thereafter, a relational expression of the DN value (digital number) of the pixel excluding the cloud cover region of both images is created. The DN value is obtained by discretizing the radiance measured by the earth observation satellite from 0 to 255. By using this relational expression, the DN value of the cloud cover area is calculated, and the image excluding the influence of the cloud is restored.

【0006】[0006]

【発明の実施の形態】図面を参照して本発明の実施の形
態を詳細に説明する。
Embodiments of the present invention will be described in detail with reference to the drawings.

【0007】図1は、本発明の衛星画像処理方法の一実
施形態を示す構成図である。この画像処理方法は、例え
ば、汎用のワークステーションやパーソナルコンピュー
タ等で構成する情報処理装置100がコンピュータプログ
ラム410を読み込み、該コンピュータプログラム410を実
行することにより実現される。このコンピュータプログ
ラム410は、通常は、上記情報処理装置100の内部記憶装
置あるいは外部記憶装置に組み込まれ、当該情報処理装
置100と一体になって流通するものであるが、情報処理
装置100と分離可能な本発明の記録媒体、例えばCD-ROM
(コンパクトディスク型ROM)やFD(フレキシブルディ
スク)等に格納され、あるいは情報通信ネットワーク等
によって流通し、システム構築時に上記情報処理装置10
0にインストールされて随時実行に供されるものであっ
てもよい。
FIG. 1 is a block diagram showing an embodiment of a satellite image processing method according to the present invention. This image processing method is realized, for example, by the information processing apparatus 100 including a general-purpose workstation or a personal computer reading the computer program 410 and executing the computer program 410. The computer program 410 is usually incorporated in the internal storage device or the external storage device of the information processing device 100, and is distributed integrally with the information processing device 100. However, the computer program 410 can be separated from the information processing device 100. Recording medium of the present invention, for example, a CD-ROM
(Compact disk type ROM), FD (flexible disk), or the like, or distributed through an information communication network or the like.
0 may be installed at any time and provided for execution at any time.

【0008】情報処理装置100には、CD-ROMやDVD-ROM
(ディジタルビデオディスク型ROM)等の記録媒体ある
いは、地球観測衛星10が撮影した衛星画像データ420を
保管している画像アーカイブ30から情報通信ネットワー
ク50によって衛星画像データ420を読み込む衛星画像デ
ータ入力方法300、大容量ハードディスク等から成るデ
ータベース400が接続され、また、処理結果を確認する
ための表示手段としてCRT500、必要な条件入力手段とし
てポインティングデバイス及びキーボード600が接続さ
れている。
[0008] The information processing apparatus 100 includes a CD-ROM or a DVD-ROM.
A satellite image data input method 300 for reading the satellite image data 420 by the information communication network 50 from a recording medium such as a (digital video disk type ROM) or an image archive 30 storing the satellite image data 420 captured by the earth observation satellite 10. A database 400 composed of a large-capacity hard disk or the like is connected, a CRT 500 is displayed as display means for confirming the processing result, and a pointing device and a keyboard 600 are connected as necessary condition input means.

【0009】データベース400には、上記コンピュータ
プログラム410の格納領域のほか、衛星画像データ420の
格納領域、地上計測データ430の格納領域が形成されて
いる。
In the database 400, in addition to the storage area for the computer program 410, a storage area for satellite image data 420 and a storage area for ground measurement data 430 are formed.

【0010】また、地上計測データ430とは、地上にお
いて可視域から赤外域の波長帯の範囲を計測できる分光
光度計やCCDカメラ等により宅地、農地、道路、河川等
の地覆を撮影した生データあるいは、画像処理方法200
で利用できるように加工されたデータである。
[0010] The ground measurement data 430 is a raw image obtained by photographing the ground cover of a residential land, farmland, road, river, or the like with a spectrophotometer or a CCD camera capable of measuring a wavelength range from the visible region to the infrared region on the ground. Data or image processing method 200
It is data processed so that it can be used in.

【0011】画像処理方法200におけるフローチャート
を図2に示す。本方法は、覆雲部領域抽出工程201、位
置補正工程240、覆雲部領域復元工程202の三つの工程に
より構成されている。まず、覆雲部領域抽出工程201を
説明する。
FIG. 2 shows a flowchart in the image processing method 200. The method comprises three steps: a cloud cover area extraction step 201, a position correction step 240, and a cloud cover area restoration step 202. First, the cloud cover area extraction step 201 will be described.

【0012】(覆雲部領域抽出工程)データ入出力工程
210では、衛星画像データ入力方法300から読み込んだ衛
星画像データ420が予め保存されているデータベース400
から衛星画像データ420を読み込み、これを画像処理方
法200で処理できるデータ形式に変換する。また、デー
タベース400との間において、上記衛星画像データ420、
その処理画像データや地上計測データ430の入出力等を
行う。
(Cloud cover area extraction step) Data input / output step
At 210, a database 400 in which satellite image data 420 read from the satellite image data input method 300 is stored in advance.
, And converts the satellite image data 420 into a data format that can be processed by the image processing method 200. Further, between the database 400, the satellite image data 420,
The input and output of the processed image data and the ground measurement data 430 are performed.

【0013】覆雲部領域画素抽出工程220は、データ入
出力工程210で読み込んだ、図3に一例を示す覆雲部領
域を含む衛星画像421について、各バンドのDN値にしき
い値を設定して覆雲部領域を抽出する。
In the cloud cover area pixel extraction step 220, a threshold value is set for the DN value of each band for the satellite image 421 including the cloud cover area shown in FIG. To extract the cloud cover area.

【0014】具体的なしきい値の設定方法は、まず該衛
星画像421において、可視域と赤外域のバンドの中から
3バンドを選び、それぞれに対して赤、緑、青の濃淡を
付与したカラー合成画像を作成する。操作者は、このカ
ラー合成画像を目視することにより、覆雲部領域を一部
切り出す。次に切り出した領域の各バンドのDN値をファ
イルに格納し、ファイルから各バンドのDN値の下限値を
読み取り、その値をしきい値に設定する。
A specific threshold value setting method is as follows. First, three bands are selected from the visible band and the infrared band in the satellite image 421, and a color obtained by adding red, green, and blue shading to each band is selected. Create a composite image. The operator cuts out a part of the cloud cover area by viewing the color composite image. Next, the DN value of each band of the cut region is stored in a file, the lower limit value of the DN value of each band is read from the file, and the value is set as a threshold value.

【0015】あるいは、該衛星画像を後述するクラスタ
リング及び最尤法分類により機械的に分類した画像と該
カラー合成画像とを比較して、操作者が覆雲部領域を抽
出することもできる。また、該カラー合成画像を基に該
衛星画像421から覆雲部領域を数箇所切り出し、それら
を教師データとして、該衛星画像421を教師付き分類し
て覆雲部領域を抽出することも出来る。
Alternatively, the operator can extract an overcloud area by comparing the image obtained by mechanically classifying the satellite image by clustering and maximum likelihood classification described later with the color composite image. In addition, it is also possible to cut out several cloud cover areas from the satellite image 421 based on the color composite image and use them as teacher data to supervise and classify the satellite image 421 to extract the cloud cover area.

【0016】マスク処理工程230では、該衛星画像421に
ついて、覆雲部領域画素抽出工程220において抽出した
覆雲部領域のマスクを作成し、以降の工程から除外する
ためのマスク処理を行う。これにより、衛星画像421の
カバーする領域のうち、マスク処理された覆雲部領域以
外の画素のみが以降の工程の対象となる。
In the mask processing step 230, a mask of the cloud-covered area extracted in the cloud-covered area pixel extraction step 220 is created for the satellite image 421, and mask processing for excluding the mask from the subsequent steps is performed. As a result, of the area covered by the satellite image 421, only the pixels other than the masked cloud cover area are subjected to the subsequent steps.

【0017】(位置補正工程)次に、位置補正工程240に
ついて説明する。位置補正工程240では、図3に示した
該衛星画像421と同一領域を撮影した覆雲部領域を含ま
ない参照用衛星画像422を、衛星画像421に重ね合わせ
る。ここで、必ずしも衛星画像421、422は同じ地球観測
衛星10により撮影されている必要はない。異なる地球観
測衛星10が撮影した衛星画像を使用する場合は、それぞ
れの衛星画像をリサンプリングして解像度を合わせれば
よい。同一領域に対して観測時刻の異なる衛星画像42
1、422において、操作者がCRT500画面上で形状的に特徴
のある画像部分を指定し、その位置情報からずれ量を求
めて、画像間の位置ずれを補正する。または、特開平11
−085970号に記載のように、衛星画像上の複数の特定位
置に算出位置を設定し、両画像間の相関係数を算出し、
その算出結果に基づいて各算出位置に対して位置ずれ量
の測定領域としての適否を判定し、不適と判定された算
出位置は所定量だけシフトして再設定のうえ上記処理を
繰り返し、適当と判定された前記測定領域の数が所定数
を越えたとき、各測定領域で算出した位置ずれ量に基づ
いて補正量を求め、その補正量により衛星画像間の位置
ずれを補正することも出来る。このように、衛星画像42
1、422の位置補正することにより、同一地点の画素同士
を比較できるようになる。
(Position Correction Step) Next, the position correction step 240 will be described. In the position correction step 240, the reference satellite image 422 that does not include the overcloud portion area, which is obtained by photographing the same area as the satellite image 421 illustrated in FIG. Here, the satellite images 421 and 422 do not necessarily need to be captured by the same earth observation satellite 10. When satellite images captured by different earth observation satellites 10 are used, the resolution may be adjusted by resampling each satellite image. Satellite images with different observation times for the same area 42
In steps 1 and 422, the operator specifies an image portion having a characteristic shape on the CRT 500 screen, obtains a shift amount from the position information, and corrects the position shift between the images. Or JP 11
As described in -085970, a calculation position is set at a plurality of specific positions on a satellite image, a correlation coefficient between the two images is calculated,
Based on the calculation result, it is determined whether or not each of the calculated positions is appropriate as a measurement area of the displacement amount.The calculated position determined to be inappropriate is shifted by a predetermined amount, reset, and the above process is repeated. When the number of the determined measurement regions exceeds a predetermined number, a correction amount can be obtained based on the positional deviation amount calculated in each measurement region, and the positional deviation between satellite images can be corrected based on the correction amount. Thus, the satellite image 42
By performing the position correction of 1,422, it becomes possible to compare pixels at the same point.

【0018】(覆雲部領域復元工程)土地被覆分類工程
250は、マスク処理工程230において覆雲部領域をマスク
処理した衛星画像421、及び衛星画像421に重なるように
位置補正工程230において位置補正した参照用衛星画像4
22を土地被覆分類する。尚、該衛星画像422について
は、既にデータベース400に地覆分類された画像がある
場合はその画像を使用する。
(Uncovered Cloud Area Restoration Process) Land Cover Classification Process
Reference numeral 250 denotes a satellite image 421 obtained by masking the overcloud area in the masking step 230, and a reference satellite image 4 whose position is corrected in the position correcting step 230 so as to overlap the satellite image 421.
Classify 22 as land cover. As for the satellite image 422, if there is already an image classified as ground cover in the database 400, that image is used.

【0019】図4に土地被覆分類工程250のフローチャ
ートを示す。クラスタリング工程251では、衛星画像42
1、422をクラスタリングする。クラスタリングは、
(1)分類したいカテゴリ数だけ、カテゴリ中心値の初
期値を任意に与え、(2)各画素を最も近い中心値のカ
テゴリに帰属させ、(3)各カテゴリに帰属する画素の
平均値から新たなカテゴリ中心値を求める、(4)中心
値が収束するまで、前記の(2)と(3)を繰り返す、
というステップで行う。このクラスタリングのアルゴリ
ズムは、反復最適化クラスタリング法と呼ばれ、詳細は
公知の文献(例えば、Remote Sensing Digitalimage An
alysis:an introduction/John A.Richards.−2nd Editi
on,Springer−Verlag,1900)を参照することができる。
クラスタリングの際のパラメータ、クラスタ数や画素の
サンプリング間隔等は、初期データが予め設定されてい
るが、操作者がその都度設定することも出来る。
FIG. 4 shows a flowchart of the land cover classification step 250. In the clustering step 251, the satellite image 42
Cluster 1,422. Clustering is
(1) The initial value of the category center value is arbitrarily given by the number of categories to be classified, (2) each pixel is attributed to the category of the closest central value, and (3) a new value is calculated from the average value of the pixels belonging to each category. (4) Repeat the above (2) and (3) until the central value converges,
The steps are as follows. This clustering algorithm is called an iterative optimization clustering method and is described in detail in a known document (for example, Remote Sensing Digitalimage An
alysis: an introduction / John A. Richards.−2nd Editi
on, Springer-Verlag, 1900).
The initial data is set in advance for the parameters for clustering, the number of clusters, the sampling interval of pixels, and the like, but the operator can also set them each time.

【0020】最尢法分類工程252では、前記クラスタを
基にして衛星画像421、422を最尢法分類する。最尢法分
類は、教師データやクラスタ等の母集団の統計量を用い
て分類する方法として、最もよく用いられる統計的手法
である。この方法は、それぞれの画素データが各分類ク
ラスに属する確からしさを示す尤度を求め、尤度が最大
となった分類クラスにその画素データを分類する方法で
ある。尤度Lk(x)の定義は、画素データxが観測されたと
き、それが分類クラスkから得られたものである確率の
ことである。尤度Lk(x)の計算式を数1に示す。
In the foremost classification step 252, the satellite images 421 and 422 are foremost classified based on the cluster. The worst-case classification is a statistical method that is most often used as a classification method using statistics of a population such as teacher data and clusters. In this method, a likelihood indicating the likelihood that each pixel data belongs to each classification class is obtained, and the pixel data is classified into the classification class having the highest likelihood. The likelihood L k (x) is defined as the probability that when pixel data x is observed, it is obtained from the classification class k. Equation 1 shows the calculation formula of the likelihood L k (x).

【0021】[0021]

【数1】 (Equation 1)

【0022】但し、x:画素データ(n次元の列ベクト
ル) Lk(x):画素データxが分類クラスkへ属する尤度 P(x|k):分類クラスkからxが観測される条件付き確率 P(k):分類クラスkの事前確率 最尤法により分類するためには、数1から分かるように
任意のxに対してP(x|k)を計算できる確率密度関数を
知る必要がある。一般に確率密度関数としては、多次元
正規分布を仮定し、教師データやクラスタから推定した
平均や分散・共分散により同定される。そのとき、画素
データxの分類クラスkへの尤度Lk(x)は数2のように表
される。なお、数1におけるP(k)は分類クラスkの事前
確率であり、どのクラスでも等しいと仮定しており、分
母はどのクラスについても共通の値であるためクラス間
で比較するときには無視できるので、ここでは省略して
いる。
Here, x: pixel data (n-dimensional column vector) L k (x): likelihood that pixel data x belongs to classification class k P (x | k): condition that x is observed from classification class k Probability P (k): Prior probability of classification class k In order to classify by maximum likelihood method, it is necessary to know a probability density function that can calculate P (x | k) for any x, as can be seen from Equation 1. There is. Generally, the probability density function is identified by a mean or a variance / covariance estimated from teacher data or clusters, assuming a multidimensional normal distribution. At this time, the likelihood L k (x) of the pixel data x to the classification class k is expressed as in Expression 2. Note that P (k) in Equation 1 is the prior probability of the classification class k, which is assumed to be the same for all classes. Since the denominator is a common value for all classes, it can be ignored when comparing between classes. Are omitted here.

【0023】[0023]

【数2】 (Equation 2)

【0024】但し、n:特徴空間の次元 x:画素データ(n次元の列ベクトル) Lk(x):画素データxが分類クラスkへ属する尤度 uk:分類クラスkの平均ベクトル(n次元の列ベクトル) Σk:分類クラスkの分散・共分散 detΣk:分類クラスkの分散・共分散の行列式 地上データ照合工程253では、最尢法分類した前記衛星
画像421、422の分類クラスの対象地域の地形図、土地利
用図等の地図情報がある場合は、それらの地図情報を用
いて土地被覆分類する。また、該地図情報がない場合
は、分光光度計やCCDカメラ等により計測した地上計測
データ430を用いて、前記衛星画像421、422の分類クラ
スを土地被覆分類する。以上の処理により、衛星画像42
1、422の関係式作成するために参照する画素領域(以
下、参照領域と呼称する)を決定する準備が出来る。
Where n: dimension of feature space x: pixel data (n-dimensional column vector) L k (x): likelihood that pixel data x belongs to classification class k u k : average vector of classification class k (n dimensional column vector) sigma k: covariance Detshiguma k classification class k: the variance-covariance matrix equation ground data verification step 253 the classification class k, classification of the satellite images 421 and 422 classified top尢法If there is map information such as topographic maps and land use maps for the target area of the class, land cover classification is performed using those map information. When there is no map information, the classification class of the satellite images 421 and 422 is classified into land cover using ground measurement data 430 measured by a spectrophotometer, a CCD camera, or the like. By the above processing, the satellite image 42
It is ready to determine a pixel area to be referred to (hereinafter, referred to as a reference area) to create the relational expression of 1,422.

【0025】関係式作成方法選択工程260では、該衛星
画像421内の覆雲部領域の存在場所に応じて、該衛星画
像421、422間の関係式を作成するための参照領域を変化
させる。具体的には、以下の3ケースに場合分けする。
In the relational expression creating method selecting step 260, the reference area for creating the relational expression between the satellite images 421 and 422 is changed according to the location of the overcloud portion area in the satellite image 421. Specifically, cases are divided into the following three cases.

【0026】ケース1:前記画像a内において、覆雲部
領域があるカテゴリ全体を覆っている。
Case 1: In the image a, the overcloud area covers an entire category.

【0027】ケース2:前記画像a内において、覆雲部
領域があるカテゴリ内に存在する。
Case 2: In the image a, the cloud cover area exists in a certain category.

【0028】ケース3:前記画像a内において、覆雲部
領域が複数のカテゴリにまたがっている。
Case 3: In the image a, the overcloud area extends over a plurality of categories.

【0029】具体的には、マスク処理工程230で衛星画
像421をマスク処理したのと同様に衛星画像422をマスク
処理する。次に、マスク処理前後での、衛星画像422の
各カテゴリの画素数を計算する。 マスク処理後に少な
くとも一つのカテゴリの画素数が0となり、全て覆雲部
領域に覆われている場合、ケース1と判定される。マス
ク処理後に一つのカテゴリのみ画素数が変化し、覆雲部
領域があるカテゴリ内に存在している場合、ケース2と
判定され、 複数のカテゴリの画素数が変化し、覆雲部
領域が複数のカテゴリにまたがっている場合、ケース3
と判定される。
Specifically, the satellite image 422 is masked in the same manner as the satellite image 421 is masked in the mask processing step 230. Next, the number of pixels of each category of the satellite image 422 before and after the mask processing is calculated. If the number of pixels of at least one category becomes 0 after the mask processing, and the entire area is covered with the cloud cover area, it is determined that the case is 1. If the number of pixels of only one category changes after the mask processing and the overcloud area exists in a certain category, it is determined as Case 2, and the number of pixels of multiple categories changes and the number of overcloud areas becomes multiple. Case 3
Is determined.

【0030】ケース1の具体例を図5に示す。衛星画像
423では、覆雲部領域があるカテゴリ全体、この場合は
水田を覆っている。ケース1については、衛星画像423、
参照用衛星画像424とも、覆雲部領域を除いた全画素領
域を参照領域とする。
FIG. 5 shows a specific example of Case 1. Satellite image
At 423, the cloud cover area covers the entire category, in this case, the paddy field. For Case 1, satellite image 423,
In each of the reference satellite images 424, the entire pixel region excluding the overcloud portion region is set as the reference region.

【0031】ケース2の具体例を図6に示す。衛星画像
425では、覆雲部領域が水田内にのみ存在する。このよ
うに覆雲部領域が一つのカテゴリにのみ存在する場合
は、衛星画像425、参照用衛星画像426とも、一つのカテ
ゴリの画素領域を、図6の場合では水田を参照領域とす
る。
FIG. 6 shows a specific example of Case 2. Satellite image
In 425, the overcloud area exists only in the paddy field. As described above, when the cloud cover area exists only in one category, both the satellite image 425 and the reference satellite image 426 use the pixel area of one category as the reference area in FIG.

【0032】ケース3の具体例を図7に示す。衛星画像
427では、覆雲部領域が水田、森林、市街地、畑と複数
のカテゴリにまたがっている。この場合は、衛星画像42
7、参照用衛星画像428とも、それぞれのカテゴリの画素
領域を参照領域とし、カテゴリ別に関係式を作成する。
FIG. 7 shows a specific example of Case 3. Satellite image
In 427, the overcloud area spans multiple categories, such as paddy fields, forests, urban areas, and fields. In this case, the satellite image 42
7. In each of the reference satellite images 428, a pixel region of each category is used as a reference region, and a relational expression is created for each category.

【0033】関係式作成工程270では、関係式作成方法
選択工程260において決定した衛星画像の参照領域につ
いて、関係式を作成する。
In the relational expression creating step 270, a relational expression is created for the reference region of the satellite image determined in the relational expression creating method selecting step 260.

【0034】まず、数3に示すように最小二乗法によ
り、回帰係数a,bを求め、関係式数4を作成する。
First, as shown in Expression 3, the regression coefficients a and b are obtained by the least square method, and the relational expression 4 is created.

【0035】[0035]

【数3】 (Equation 3)

【0036】但し、Z:関係式作成対象画素における残
差の二乗の総和 yi,j:衛星画像421の関係式作成対象画素のDN値 xi,j:衛星画像422の関係式作成対象画素のDN値 a,b:回帰係数
Here, Z: the sum of the squares of the residuals at the relational expression creation target pixel y i, j : DN value of the relational expression creation target pixel of the satellite image 421 x i, j : Relational expression creation target pixel of the satellite image 422 DN values of a and b: regression coefficients

【0037】[0037]

【数4】 (Equation 4)

【0038】yi,j:衛星画像421の覆雲部領域の画素のD
N値 xi,j:衛星画像422の覆雲部領域の画素のDN値 a,b:Zが最小となる回帰係数 例えば、ケース1では参照領域が覆雲部領域以外の全領
域となるので、計算が膨大になる。よって、参照領域内
の全画素ではなく、ある一定の間隔でサンプリングした
画素について数4を求めてもよい。また、ケース2、3の
ように各カテゴリについて数4を求める場合も、参照領
域を全画素ではなくある一定の間隔でサンプリングした
画素にしてもよい。
Y i, j : D of the pixel in the overcloud area of the satellite image 421
N value x i, j : DN value of the pixel in the overcloud portion of the satellite image 422 a, b: Regression coefficient that minimizes Z For example, in case 1, the reference region is the entire region other than the overcloud portion region , Calculation becomes huge. Therefore, Equation 4 may be obtained not for all pixels in the reference area but for pixels sampled at certain fixed intervals. Also, when Equation 4 is obtained for each category as in Cases 2 and 3, the reference area may be pixels sampled at certain intervals instead of all pixels.

【0039】また、同じ地球観測衛星10で撮影した衛星
画像を参照用衛星画像として使用する場合は、同じ波長
帯のデータで比較するので、数4の単回帰式を作成す
る。しかし、異なる地球観測衛星10で撮影した衛星画像
を参照用衛星画像として使用する場合や、単バンドで撮
影したパンクロマティック画像の覆雲部領域を復元する
ためにマルチスペクトルの参照用画像を使用する場合な
どは、直接同じ波長帯のデータを比較できないので、参
照用衛星画像として一番近い波長帯のデータを用いて数
4の単回帰式を作成してもよいし、複数の波長帯データ
を参照用画像に用いて数4の代わりに重回帰式を作成し
てもよい。
When a satellite image photographed by the same earth observation satellite 10 is used as a reference satellite image, comparison is made using data in the same wavelength band, so a simple regression equation of Equation 4 is created. However, when a satellite image taken by a different earth observation satellite 10 is used as a reference satellite image, or a multispectral reference image is used to restore the overcloud area of a panchromatic image taken in a single band In such cases, data in the same wavelength band cannot be directly compared.
Four simple regression equations may be created, or multiple regression equations may be created instead of Equation 4 using a plurality of wavelength band data as reference images.

【0040】ケース2、3のように、各カテゴリについて
数4を求める場合、その他のカテゴリは全てマスクして
おく。
When Equation 4 is obtained for each category as in Cases 2 and 3, all other categories are masked.

【0041】覆雲部領域画素復元工程280では、関係式
作成工程270で作成した数4に衛星画像421の覆雲部領域
に対応する参照用画像422のDN値を代入して、衛星画像4
21の覆雲部領域の地表面の情報を復元する。
In the overcloud portion area pixel restoration step 280, the DN value of the reference image 422 corresponding to the overcloud portion area of the satellite image 421 is substituted into Equation 4 created in the relational expression creation step 270, and the satellite image 4
The information of the ground surface of the 21 cloud cover area is restored.

【0042】[0042]

【発明の効果】本発明により、覆雲部領域を含む画像か
ら雲の影響を除去した覆雲部領域下の地表面の情報を復
元することができる。
According to the present invention, it is possible to restore the information on the ground surface under the overclouded area from which the influence of the cloud has been removed from the image including the overclouded area.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の衛星画像処理方法の一実施形態を示す
構成図。
FIG. 1 is a configuration diagram showing one embodiment of a satellite image processing method of the present invention.

【図2】画像処理方法を示すフローチャート。FIG. 2 is a flowchart illustrating an image processing method.

【図3】覆雲部領域を含む衛星画像及び同一領域に覆雲
部領域を含まない参照用衛星画像を示す図。
FIG. 3 is a diagram showing a satellite image including a cloud-covered area and a reference satellite image not including the cloud-covered area in the same area.

【図4】土地被覆分類工程を示すフローチャート。FIG. 4 is a flowchart showing a land cover classification step.

【図5】覆雲部領域があるカテゴリ全体を覆っている衛
星画像間の関係式作成用参照領域を設定するための説明
図。
FIG. 5 is an explanatory diagram for setting a reference region for creating a relational expression between satellite images covering the entire category in which a cloud cover region covers a certain category;

【図6】覆雲部領域があるカテゴリ内に存在する衛星画
像間の関係式作成用参照領域を設定するための説明図。
FIG. 6 is an explanatory diagram for setting a reference region for creating a relational expression between satellite images existing in a category where a cloud cover region exists;

【図7】覆雲部領域が複数のカテゴリにまたがっている
衛星画像間の関係式作成用参照領域を設定するための説
明図。
FIG. 7 is an explanatory diagram for setting a reference area for creating a relational expression between satellite images in which a cloud cover area spans a plurality of categories;

【符号の説明】[Explanation of symbols]

10…地球観測衛星、30…画像アーカイブ、50…情報通信
ネットワーク、100…情報処理装置、200…画像処理方
法、201…覆雲部領域抽出工程、240…位置補正工程、20
2…覆雲部領域復元工程、300…衛星画像データ入力方
法、400…データベース、410…コンピュータプログラ
ム、420…衛星画像データ、430…地上計測データ、500
…CRT、600…KB。
Reference numeral 10: Earth observation satellite, 30: Image archive, 50: Information and communication network, 100: Information processing device, 200: Image processing method, 201: Overcloud area extraction step, 240: Position correction step, 20
2 ... Cloud cover area restoration process, 300: Satellite image data input method, 400: Database, 410: Computer program, 420: Satellite image data, 430: Ground measurement data, 500
… CRT, 600… KB.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 筒井 和雄 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか事業所内 Fターム(参考) 5B050 BA02 BA17 EA19 FA02 FA09 5B057 AA14 BA02 BA24 CA01 CA12 CB01 CB12 CD01 CE08 CE09 DA08 DB02 DC22  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Kazuo Tsutsui 5-2-1, Omika-cho, Hitachi City, Ibaraki Prefecture F-term within the Hitachi, Ltd. Omika Works 5B050 BA02 BA17 EA19 FA02 FA09 5B057 AA14 BA02 BA24 CA01 CA12 CB01 CB12 CD01 CE08 CE09 DA08 DB02 DC22

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 衛星画像中の覆雲部領域から雲成分を除
去する画像処理方法において、該衛星画像から覆雲部領
域の画素データのみを抽出する雲抽出工程を有し、該衛
星画像と同一領域を撮影した参照用衛星画像を該衛星画
像と重なるように位置を補正する位置補正工程を有し、
前記位置補正工程で補正された参照用衛星画像と該衛星
画像を用いて、前記雲抽出工程で抽出された覆雲部領域
から雲成分を除去し、該衛星画像撮影時の地表面情報を
復元する覆雲部領域復元工程を有することを特徴とする
衛星画像の画像処理方法。
1. An image processing method for removing a cloud component from a cloud-covered area in a satellite image, comprising: a cloud extraction step of extracting only pixel data of the cloud-covered area from the satellite image. A position correction step of correcting the position so that the reference satellite image taken of the same area is overlapped with the satellite image,
Using the reference satellite image corrected in the position correction step and the satellite image, a cloud component is removed from the overcloud area extracted in the cloud extraction step, and ground surface information at the time of capturing the satellite image is restored. An image processing method for a satellite image, comprising:
【請求項2】 請求項1の画像処理方法において、覆雲
部領域復元工程が該衛星画像と該参照用衛星画像の覆雲
部領域を除いた画素データ間の関係式を作成し、その関
係式を用いて覆雲部領域の衛星画像撮影時の情報を復元
する処理を行うことを特徴とする衛星画像の画像処理方
法。
2. The image processing method according to claim 1, wherein the overcloud area restoration step creates a relational expression between the satellite image and the pixel data excluding the overcloud area of the reference satellite image. An image processing method for a satellite image, comprising performing a process of restoring information at the time of capturing a satellite image in a cloud-covered area using a formula.
【請求項3】 請求項2の画像処理方法において、覆雲
部領域復元工程が該衛星画像内の覆雲部領域の存在場所
に応じて、衛星画像間の前記関係式を作成するための参
照画素領域を変化させる処理を行うことを特徴とする衛
星画像上の画像処理方法。
3. The image processing method according to claim 2, wherein the step of restoring the cloud-covered area includes a reference for creating the relational expression between the satellite images according to the location of the cloud-covered area in the satellite image. An image processing method on a satellite image, which performs a process of changing a pixel area.
【請求項4】 請求項3の画像処理方法において、覆雲
部領域復元工程が該衛星画像の土地被覆分類工程を有
し、衛星画像間の前記関係式を作成するための参照画素
領域を分類クラス別に作成することを特徴とする衛星画
像上の画像処理方法。
4. The image processing method according to claim 3, wherein the step of restoring the cloud cover area includes a step of classifying a land cover of the satellite image, and classifying a reference pixel area for creating the relational expression between the satellite images. An image processing method on a satellite image, which is created for each class.
JP32501599A 1999-11-16 1999-11-16 Satellite image processing method Pending JP2001143054A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32501599A JP2001143054A (en) 1999-11-16 1999-11-16 Satellite image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32501599A JP2001143054A (en) 1999-11-16 1999-11-16 Satellite image processing method

Publications (1)

Publication Number Publication Date
JP2001143054A true JP2001143054A (en) 2001-05-25

Family

ID=18172197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32501599A Pending JP2001143054A (en) 1999-11-16 1999-11-16 Satellite image processing method

Country Status (1)

Country Link
JP (1) JP2001143054A (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085532A (en) * 2001-09-07 2003-03-20 Communication Research Laboratory Land use classification processing method using sar image
JP2004240547A (en) * 2003-02-04 2004-08-26 Hitachi Software Eng Co Ltd Image processing program
JP2004280591A (en) * 2003-03-17 2004-10-07 Ntt Data Corp Multispectral image processing apparatus, multispectral image processing method, and program to be executed by computer
JP2005157561A (en) * 2003-11-21 2005-06-16 Chubu Electric Power Co Inc Image correction method and image correction apparatus
JP2005310052A (en) * 2004-04-26 2005-11-04 Ntt Data Corp Illegal dumping point detection device, method, and program
JP2006085688A (en) * 2004-08-27 2006-03-30 Tokyo Institute Of Technology Image processing apparatus and image processing method
JP2008533892A (en) * 2005-03-17 2008-08-21 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー Method of object tracking in video sequence
JP2009146262A (en) * 2007-12-17 2009-07-02 Hitachi Software Eng Co Ltd Method and device for supporting selection operation of satellite image
WO2010106583A1 (en) 2009-03-18 2010-09-23 株式会社パスコ Method and device for generating ground surface image data
JP2013254373A (en) * 2012-06-07 2013-12-19 Nec Corp Image processing device, control method of image processing device and program
JP2015207066A (en) * 2014-04-18 2015-11-19 日本電気株式会社 Image restoration apparatus, image restoration method, and image restoration program
JP2015215252A (en) * 2014-05-12 2015-12-03 株式会社日立ソリューションズ Satellite image data processing device, satellite image data processing system, and method and program for processing satellite image data
JP2016063395A (en) * 2014-09-18 2016-04-25 日本電気株式会社 Image processing system, image processing method, and program for image processing system
KR101694282B1 (en) * 2015-09-17 2017-01-09 계명대학교 산학협력단 APPARATUS AND METHOD ABOUT PREDICTING CHLOROPHYLL-a FROM RIVER USING SATELLITE SENSOR DATA AND NONLINEAR RANSAC METHOD
WO2018016555A1 (en) * 2016-07-22 2018-01-25 日本電気株式会社 Image processing device, image processing method, and recording medium
WO2018021079A1 (en) * 2016-07-25 2018-02-01 日本電気株式会社 Information processing device, information processing method, and recording medium
WO2019049324A1 (en) * 2017-09-08 2019-03-14 Nec Corporation Image processing device, image processing method and storage medium
WO2019229793A1 (en) * 2018-05-28 2019-12-05 日本電気株式会社 Training data set generation device, training data set generation method and recording medium
JP2019537151A (en) * 2016-12-20 2019-12-19 日本電気株式会社 Image processing apparatus, image processing method, and image processing program
WO2020027167A1 (en) * 2018-08-02 2020-02-06 Nec Corporation System, method, and non-transitory, computer-readable medium containing instructions for image processing
US11321821B2 (en) * 2019-02-12 2022-05-03 Ordnance Survey Limited Method and system for generating composite geospatial images
JP7566229B1 (en) * 2024-04-18 2024-10-11 三菱電機株式会社 Land status assessment device, land status assessment method, and land status assessment program

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085532A (en) * 2001-09-07 2003-03-20 Communication Research Laboratory Land use classification processing method using sar image
JP2004240547A (en) * 2003-02-04 2004-08-26 Hitachi Software Eng Co Ltd Image processing program
JP2004280591A (en) * 2003-03-17 2004-10-07 Ntt Data Corp Multispectral image processing apparatus, multispectral image processing method, and program to be executed by computer
JP2005157561A (en) * 2003-11-21 2005-06-16 Chubu Electric Power Co Inc Image correction method and image correction apparatus
JP2005310052A (en) * 2004-04-26 2005-11-04 Ntt Data Corp Illegal dumping point detection device, method, and program
JP2006085688A (en) * 2004-08-27 2006-03-30 Tokyo Institute Of Technology Image processing apparatus and image processing method
JP2008533892A (en) * 2005-03-17 2008-08-21 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー Method of object tracking in video sequence
JP2009146262A (en) * 2007-12-17 2009-07-02 Hitachi Software Eng Co Ltd Method and device for supporting selection operation of satellite image
WO2010106583A1 (en) 2009-03-18 2010-09-23 株式会社パスコ Method and device for generating ground surface image data
US8184865B2 (en) 2009-03-18 2012-05-22 Pasco Corporation Method and apparatus for producing land-surface image data
JP2013254373A (en) * 2012-06-07 2013-12-19 Nec Corp Image processing device, control method of image processing device and program
JP2015207066A (en) * 2014-04-18 2015-11-19 日本電気株式会社 Image restoration apparatus, image restoration method, and image restoration program
JP2015215252A (en) * 2014-05-12 2015-12-03 株式会社日立ソリューションズ Satellite image data processing device, satellite image data processing system, and method and program for processing satellite image data
JP2016063395A (en) * 2014-09-18 2016-04-25 日本電気株式会社 Image processing system, image processing method, and program for image processing system
KR101694282B1 (en) * 2015-09-17 2017-01-09 계명대학교 산학협력단 APPARATUS AND METHOD ABOUT PREDICTING CHLOROPHYLL-a FROM RIVER USING SATELLITE SENSOR DATA AND NONLINEAR RANSAC METHOD
WO2018016555A1 (en) * 2016-07-22 2018-01-25 日本電気株式会社 Image processing device, image processing method, and recording medium
US11519781B2 (en) 2016-07-22 2022-12-06 Nec Corporation Image processing device, image processing method, and recording medium
JP7059930B2 (en) 2016-07-22 2022-04-26 日本電気株式会社 Image processing device and image processing method
JPWO2018016555A1 (en) * 2016-07-22 2019-05-30 日本電気株式会社 Image processing apparatus and image processing method
CN109564675A (en) * 2016-07-25 2019-04-02 日本电气株式会社 Information processing equipment, information processing method and recording medium
US10963991B2 (en) 2016-07-25 2021-03-30 Nec Corporation Information processing device, information processing method, and recording medium
WO2018021079A1 (en) * 2016-07-25 2018-02-01 日本電気株式会社 Information processing device, information processing method, and recording medium
JP7077945B2 (en) 2016-07-25 2022-05-31 日本電気株式会社 Information processing equipment, information processing methods, and programs
CN109564675B (en) * 2016-07-25 2023-12-19 日本电气株式会社 Information processing apparatus, information processing method, and recording medium
JPWO2018021079A1 (en) * 2016-07-25 2019-05-09 日本電気株式会社 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2019537151A (en) * 2016-12-20 2019-12-19 日本電気株式会社 Image processing apparatus, image processing method, and image processing program
US11017507B2 (en) 2016-12-20 2021-05-25 Nec Corporation Image processing device for detection and correction of cloud cover, image processing method and storage medium
JP2020532808A (en) * 2017-09-08 2020-11-12 日本電気株式会社 Image processing device, image processing method and image processing program
US11227367B2 (en) 2017-09-08 2022-01-18 Nec Corporation Image processing device, image processing method and storage medium
WO2019049324A1 (en) * 2017-09-08 2019-03-14 Nec Corporation Image processing device, image processing method and storage medium
JPWO2019229793A1 (en) * 2018-05-28 2021-05-13 日本電気株式会社 Training data set generation device, training data set generation method and training data set generation program
JP7028318B2 (en) 2018-05-28 2022-03-02 日本電気株式会社 Training data set generation device, training data set generation method and training data set generation program
WO2019229793A1 (en) * 2018-05-28 2019-12-05 日本電気株式会社 Training data set generation device, training data set generation method and recording medium
US10650498B2 (en) 2018-08-02 2020-05-12 Nec Corporation System, method, and non-transitory, computer-readable medium containing instructions for image processing
WO2020027167A1 (en) * 2018-08-02 2020-02-06 Nec Corporation System, method, and non-transitory, computer-readable medium containing instructions for image processing
US11321821B2 (en) * 2019-02-12 2022-05-03 Ordnance Survey Limited Method and system for generating composite geospatial images
JP7566229B1 (en) * 2024-04-18 2024-10-11 三菱電機株式会社 Land status assessment device, land status assessment method, and land status assessment program
WO2025220170A1 (en) * 2024-04-18 2025-10-23 三菱電機株式会社 Land status ascertaining device, land status ascertaining method, and land status ascertaining program

Similar Documents

Publication Publication Date Title
JP2001143054A (en) Satellite image processing method
Sheng et al. Quantitative dynamic flood monitoring with NOAA AVHRR
Tian et al. Building change detection based on satellite stereo imagery and digital surface models
Lu et al. Object-oriented change detection for landslide rapid mapping
Li et al. Principal component analysis of stacked multi-temporal images for the monitoring of rapid urban expansion in the Pearl River Delta
Lee et al. Fusion of lidar and imagery for reliable building extraction
US8594375B1 (en) Advanced cloud cover assessment
Gamba et al. GIS and image understanding for near-real-time earthquake damage assessment
US11804025B2 (en) Methods and systems for identifying topographic features
US20060233421A1 (en) Methods and apparatus for adaptive foreground background analysis
CN114694030B (en) Landslide detection method, device, equipment and storage medium
CN101599120A (en) A Method for Recognition of Buildings in Remote Sensing Images
Kouchi et al. Characteristics of tsunami-affected areas in moderate-resolution satellite images
Trinder et al. Aerial images and LiDAR data fusion for disaster change detection
CA2660125C (en) Geospatial modeling system for separating foliage data from building data based upon noise filtering operations and related methods
CN114792322A (en) Method for detecting cloud and cloud shadow of mountain domestic high-resolution satellite image
Manaf et al. Hybridization of SLIC and Extra Tree for Object Based Image Analysis in Extracting Shoreline from Medium Resolution Satellite Images.
CA2660343C (en) Geospatial modeling system for separating foliage data from building data based upon loose and strict tolerance noise filtering operations and related methods
Mohamed et al. Change detection techniques using optical remote sensing: a survey
CN112183434A (en) Building change detection method and device
CA2660339C (en) Geospatial modeling system for performing filtering operations based upon a sum of differences of a given and neighboring location points and related methods
Darvishzadeh Change detection for urban spatial databases using remote sensing and GIS
Gong et al. Road network extraction from high resolution airborne digital camera data
Yeh et al. Principal component analysis of stacked multi-temporal images for the monitoring of rapid urban expansion in the Pearl River Delta
Sari et al. Tree counting of tropical tree plantations using the maximum probability spectral features of high-resolution satellite images and drones