[go: up one dir, main page]

JP2012150068A - Method for predicting wet and dry condition of soil and device for the same - Google Patents

Method for predicting wet and dry condition of soil and device for the same Download PDF

Info

Publication number
JP2012150068A
JP2012150068A JP2011010429A JP2011010429A JP2012150068A JP 2012150068 A JP2012150068 A JP 2012150068A JP 2011010429 A JP2011010429 A JP 2011010429A JP 2011010429 A JP2011010429 A JP 2011010429A JP 2012150068 A JP2012150068 A JP 2012150068A
Authority
JP
Japan
Prior art keywords
wet
soil
dry
data
visible image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011010429A
Other languages
Japanese (ja)
Inventor
Katsuhisa Niwa
勝久 丹羽
Jun Yokobori
潤 横堀
Akira Yoneyama
晶 米山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZUKOSHA KK
Original Assignee
ZUKOSHA KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZUKOSHA KK filed Critical ZUKOSHA KK
Priority to JP2011010429A priority Critical patent/JP2012150068A/en
Publication of JP2012150068A publication Critical patent/JP2012150068A/en
Pending legal-status Critical Current

Links

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Investigating Or Analyzing Non-Biological Materials By The Use Of Chemical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method for predicting wet and dry condition of soil and a device for the same which are capable of excellently obtaining an image of a field without being affected by cloud and the like, and accurately creating a wet and dry condition map of the soil without requiring an analysis of a humus content of the soil.SOLUTION: A method for predicting wet and dry condition of soil comprises: taking visible images of a field immediately after a rainfall and in a dry period 42 and 44 by a helicopter 40 for aerial photographing; taking samples of soil 50 from several locations in the field and analyzing a volume moisture content 52 and vapor phase ratio 54 thereof; calculating a difference in light amount corrected color separation value data obtained by correcting light amount of color separation value data 72 for red, green and blue in the images at the locations where soil samples are taken; creating maps 76 and 78 between difference data 74 of the two images and the volume moisture content 52 as well as the vapor phase ratio 54 to obtain a regression formula; and obtaining a wet and dry condition map 82 of the entire field using the regression formula.

Description

本発明は、土壌の乾湿予測方法及びその装置に関し、具体的には、可視画像を利用した土壌の乾湿予測方法及びその装置に関する。   The present invention relates to a method and apparatus for predicting dryness and wetness of soil, and specifically relates to a method and apparatus for predicting dryness and wetness of soil using a visible image.

圃場の可視画像から、その土壌の乾湿(乾燥・湿潤)を予測することができれば、
(1)ビデオカメラやデジタルカメラなどの一般的な撮像装置を使用することができ、センサ類が安価ですむこと,
(2)可視域の光の反射データから土壌腐植含量や窒素栄養状態,あるいは土壌肥沃度などが推定できること,
から、排水の良否とともに施肥管理にも利用できるなどの利点がある。
If we can predict the wet and dry (dry / wet) of the soil from the visible image of the field,
(1) General imaging devices such as video cameras and digital cameras can be used, and sensors are inexpensive.
(2) Soil humus content, nitrogen nutrition status, or soil fertility can be estimated from visible light reflection data.
Therefore, there is an advantage that it can be used for fertilizer management as well as the quality of drainage.

これまでの研究から、土壌水分を多く含む画像、もしくは湿潤時期の画像では、土壌腐植含量と可視域の輝度値の相関は、乾燥時期に比べて低いことが知られており、土壌表面からの可視域の光の反射は、土壌腐植含量と乾湿を主に反映すると考えられる。   From previous studies, it is known that the correlation between the soil humus content and the luminance value in the visible region is lower than that in the dry season in images containing a lot of soil moisture or in the wet season. The reflection of light in the visible range is considered to reflect mainly the soil humus content and wet and dry conditions.

土壌の乾湿予測に関する先行技術としては、例えば、下記非特許文献1記載のものがある。これは、可視域の反射データを利用し、ランドサットデータにより、緑域の反射データと土壌腐植含量を説明変数とした重回帰式から、土壌体積水分率を推定できることが示されている。   As a prior art regarding dry and wet prediction of soil, for example, there is one described in Non-Patent Document 1 below. It is shown that the soil volume moisture content can be estimated from the multiple regression equation using the reflection data of the green region and the soil humus content as the explanatory variables using the reflection data of the visible region and the landsat data.

独立行政法人農業・食品産業技術総合研究機構 北海道農業研究センター 研究報告175,47-115(2002),畠中哲哉「ランドサットTMデータを用いた畑土壌生産力要因の高精度・細密評価法の開発とそれに基づく土壌管理法に関する研究」(特にP68-72)National Agricultural Research Organization for Agricultural and Food Industry Hokkaido Agricultural Research Center Research Report 175, 47-115 (2002), Tetsuya Hatanaka “Development of high-accuracy and detailed evaluation method for field soil productivity factors using Landsat TM data `` Studies on soil management based on it '' (especially P68-72)

しかしながら、上述した背景技術の手法では、以下のような不都合がある。
(1)衛星画像を利用しているため、雲の多い日や、衛星の回帰周期の関係で雲がない日であっても対象となる圃場を撮影できない恐れがある。
(2)撮影した1時期の画像に基づいて解析を行い、画像の輝度値に加えて土壌腐植含量も説明変数としているため、多重共線性の問題により、適正な土壌水分推定式が得られない可能性がある。
(3)回帰式の作成には、衛星画像撮影時の土壌水分データが必要となる。
(4)乾湿マップを作成するために、別途腐植含量マップも作成する必要がある。
However, the above-described background technique has the following disadvantages.
(1) Since the satellite image is used, there is a possibility that the target field cannot be photographed even on a cloudy day or a day without a cloud due to the satellite recurrence period.
(2) Analyzes are made based on the images taken for a certain period of time, and the soil humus content in addition to the luminance value of the images is used as an explanatory variable, so an appropriate soil moisture estimation formula cannot be obtained due to the problem of multicollinearity. there is a possibility.
(3) Soil moisture data at the time of satellite image capture is required to create a regression equation.
(4) In order to create a wet and dry map, it is also necessary to create a humus content map.

これに対し、圃場の降雨直後と乾燥時期の2時期の可視画像を用いて、その土壌からの光反射の差分を予測パラメータとして利用することができれば、土壌腐植含量の分析が不必要となり、適正に土壌の乾湿が推定できると考えられる。また、空撮用ヘリコプタに、デジタルカメラと、撮影時の光量補正を行うための光量センサを搭載して圃場の画像を撮影すれば、雲や衛星の回帰周期の影響を受けることなく、圃場を撮影することができる。   On the other hand, if the difference in the light reflection from the soil can be used as a prediction parameter using the visible images immediately after the rain of the field and the dry season, the analysis of the soil humus content will be unnecessary and appropriate. It is thought that the wetness and dryness of soil can be estimated. In addition, if a helicopter for aerial photography is equipped with a digital camera and a light intensity sensor for correcting the light intensity at the time of shooting, a field image can be taken without being affected by the return cycle of clouds and satellites. You can shoot.

本発明は、以上の点に着目したもので、雲などの影響を受けることなく良好に圃場の画像を得ることができ、土壌腐植含量の分析が不要で、土壌の乾湿マップを精度高く作成することができる土壌乾湿予測方法及びその装置を提供することを、その目的とする。   The present invention focuses on the above points, can obtain a good field image without being affected by clouds, etc., does not require analysis of soil humus content, and creates a soil wet / wet map with high accuracy. It is an object of the present invention to provide a method and apparatus for predicting soil dryness and wetness.

本発明は、空撮用ヘリコプタによって、湿潤時と乾燥時の土地の可視画像と、それぞれの可視画像の撮影時の光量と、を得るとともに、当該土地の土壌を、複数のサンプリング地点で採取して、体積水分率もしくは気相率を得、次に、前記可視画像及び前記光量を利用して、前記サンプリング地点における前記可視画像の湿潤時と乾燥時の光量補正済色分解値データを得るとともに、それらの差分データを算出し、前記サンプリング地点における前記体積水分率もしくは気相率と、前記差分データとの相関関係を求めることを特徴とする。   The present invention obtains a visible image of the land when wet and dry, and the amount of light at the time of capturing each visible image, and samples the soil of the land at a plurality of sampling points by an aerial helicopter. The volume moisture content or gas phase rate is obtained, and then the visible image and the light quantity are used to obtain light quantity corrected color separation value data when the visible image is wet and dried at the sampling point. The difference data is calculated, and the correlation between the volume moisture content or the gas phase rate at the sampling point and the difference data is obtained.

他の発明は、空撮用ヘリコプタによって、湿潤時と乾燥時の土地の可視画像と、それぞれの可視画像の撮影時の光量と、を得るとともに、当該土地の土壌を、複数のサンプリング地点で採取して、体積水分率もしくは気相率を得、次に、前記可視画像及び前記光量を利用して、前記サンプリング地点における前記可視画像の湿潤時と乾燥時の光量補正済色分解値データを得るとともに、それらの差分データを算出し、前記サンプリング地点における前記体積水分率もしくは気相率と、前記差分データとの相関関係を求め、求めた相関関係から、前記体積水分率もしくは気相率と差分データとの回帰式を求め、その回帰式を利用して、前記土地全体についての乾湿マップを作成することを特徴とする。   In another invention, a helicopter for aerial photography obtains a visible image of the land when wet and dry, and the amount of light at the time of capturing each visible image, and samples the soil of the land at a plurality of sampling points. The volumetric water content or the gas phase rate is obtained, and then the visible image and the light quantity are used to obtain the light separation corrected color separation value data when the visible image is wet and dried at the sampling point. In addition, the difference data is calculated, the correlation between the volume moisture content or the gas phase rate at the sampling point and the difference data is obtained, and the volume moisture content or the gas phase rate and the difference are obtained from the obtained correlation. A regression equation with data is obtained, and a dry / wet map for the entire land is created using the regression equation.

本発明の前記及び他の目的,特徴,利点は、以下の詳細な説明及び添付図面から明瞭になろう。   The above and other objects, features and advantages of the present invention will become apparent from the following detailed description and the accompanying drawings.

本発明によれば、空撮用ヘリコプタを利用して、湿潤時と乾燥時の2つの可視画像を撮影し、それらの差分を利用して乾湿予測を行うこととしたので、雲などの影響を受けることなく良好に土地の画像を得ることができるとともに、土壌腐植含量の分析が不要で、土壌の乾湿マップを精度高く作成することができる。   According to the present invention, the use of an aerial helicopter takes two visible images when wet and dry, and predicts dry and wet using the difference between them. An image of the land can be obtained satisfactorily without receiving it, and the analysis of the soil humus content is unnecessary, and a dry and wet map of the soil can be created with high accuracy.

本発明の実施例の装置構成を示すブロック図である。It is a block diagram which shows the apparatus structure of the Example of this invention. 本発明の実施例における乾湿予測の手順を示すフローチャートである。It is a flowchart which shows the procedure of the dry / wet prediction in the Example of this invention. 処理対象となる圃場の降雨直後の可視画像と乾燥時の可視画像の一例と、画素の色分解の様子を示す図である。It is a figure which shows the example of the visible image immediately after the rain of the agricultural field used as a process target, the example of the visible image at the time of drying, and the mode of color separation of a pixel. 輝度値の差分データと気相率との関係を示すマップの例を示す図である。It is a figure which shows the example of the map which shows the relationship between the difference data of a luminance value, and a gaseous-phase rate. 本実施例によって得た乾湿マップの一例を示す図である。It is a figure which shows an example of the dry / wet map obtained by the present Example. 地点による土壌の色の差を示す図である。It is a figure which shows the difference in the color of the soil by a point.

以下、本発明を実施するための最良の形態を、実施例に基づいて詳細に説明する。   Hereinafter, the best mode for carrying out the present invention will be described in detail based on examples.

最初に、本発明の基本的な考え方を説明する。一般的に土壌に水分が含まれると、土色が暗くなり、青,緑,赤などの可視域の光の反射量は低下する。このことから、同一土色条件で見た場合には、より暗い画像(言い換えると、青,緑,赤の反射量が低い)ほど、湿潤条件下にあると判断できる。   First, the basic concept of the present invention will be described. In general, when moisture is contained in soil, the soil color becomes dark and the reflection amount of light in the visible range such as blue, green, and red decreases. From this, when viewed under the same soil color condition, it can be determined that the darker image (in other words, the lower the reflection amount of blue, green, and red) is, the wetter condition is.

一方、元々の土壌の色には、地点によって差がある。図6には、その一例が示されている。同図(A)と(B)は、異なる地点の土壌の色を示すものであるが、両地点とも乾燥条件における様子を示すものである。両者を比較すると、(A)の土壌よりも、明らかに(B)の土壌のほうが表層土の色が黒いことが分かる。従って、単純に土色の濃淡だけで乾湿を判断すると、(B)の土壌の方が(A)の土壌よりも湿潤条件であると判定されてしまうことになる。   On the other hand, the original soil color varies depending on the location. An example is shown in FIG. FIGS. 2A and 2B show soil colors at different points, but both points show the condition under dry conditions. Comparing the two, it can be seen that the soil of (B) is clearly blacker than the soil of (A). Accordingly, if the wet and dry conditions are determined simply by the shade of the soil color, the soil of (B) is determined to be in a wet condition than the soil of (A).

このような点からすると、土壌水分を把握するためには、湿潤時の初期値(元々の土色)に対する土色の変化量,すなわち、初期値からどの程度暗くなったのか、を把握する必要がある。   From this point of view, in order to grasp the soil moisture, it is necessary to grasp the amount of change in the soil color with respect to the initial value when wet (original soil color), that is, how much it has become darker than the initial value. There is.

以上のような観点から、本発明では、乾燥時と湿潤時の光量補正済輝度値の差分を算出することにより、土壌水分を推定することとしている。すなわち、Ref(乾燥時)を元々の土色を反映する輝度値,Ref(湿潤時)を元々の土色+土壌水分を反映する輝度値としたとき、土壌水分=Ref(乾燥時)−Ref(湿潤時)となる。このような手法により、元々の土色の違いを考慮した土色の変化量を算出することができ、精度よく土壌水分が推定できる。   From the above viewpoint, in the present invention, the soil moisture is estimated by calculating the difference between the light intensity corrected luminance values when dry and when wet. That is, when Ref (when dry) is the luminance value reflecting the original soil color and Ref (when wet) is the original soil color + luminance value reflecting the soil moisture, soil moisture = Ref (when dry)-Ref (When wet). By such a method, the change amount of the soil color in consideration of the difference in the original soil color can be calculated, and the soil moisture can be estimated with high accuracy.

図1には、本発明の実施例1にかかる乾湿予測装置10のブロック図が示されている。乾湿予測装置10は、一般的なコンピュータシステムを利用して構成されており、CPU12を中心に構成されている。CPU12には、キーボードなどの入力装置14,液晶ディスプレイなどの表示装置16,プリンタなどの出力装置18,プログラムメモリ20,データメモリ30が接続されている。   FIG. 1 shows a block diagram of a dry / wet predicting apparatus 10 according to the first embodiment of the present invention. The dry / wet predicting apparatus 10 is configured using a general computer system, and is configured around a CPU 12. An input device 14 such as a keyboard, a display device 16 such as a liquid crystal display, an output device 18 such as a printer, a program memory 20 and a data memory 30 are connected to the CPU 12.

プログラムメモリ20には、乾湿予測プログラム22が格納されており、これがCPU12で実行されることで、乾湿予測の処理が行われるようになっている。その手順は、図2にフローチャートとして示されている。   A dry / wet prediction program 22 is stored in the program memory 20 and is executed by the CPU 12 so that a dry / wet prediction process is performed. The procedure is shown as a flowchart in FIG.

データメモリ30には、乾湿予測処理に必要なデータや、処理によって得られたデータが格納されるようになっている。乾湿予測処理に必要なデータとしては、
(1)空撮用ヘリコプタ40によって得られた処理対象となる圃場の降雨直後の可視画像42,その撮像時の光量データ43,乾燥時の可視画像44,その撮像時の光量データ45,
(2)圃場内の数か所でサンプリングした土壌50の分析結果である体積水分率52,及び気相率54,
(3)GPS(Global Positioning System)60から取得した前記土壌採取地点及び圃場の4角地点の位置座標データ62,
がある。
The data memory 30 stores data necessary for the wet / dry prediction process and data obtained by the process. As data necessary for the wet and dry prediction process,
(1) The visible image 42 immediately after the rain of the farm field to be processed, obtained by the aerial imaging helicopter 40, the light amount data 43 at the time of imaging, the visible image 44 at the time of drying, the light amount data 45 at the time of imaging,
(2) Volume moisture content 52 and gas phase rate 54, which are analysis results of soil 50 sampled at several locations in the field.
(3) Position coordinate data 62 of the soil sampling point and the four corner points of the field acquired from the GPS (Global Positioning System) 60,
There is.

また、乾湿予測処理によって得られるデータとしては、
(1)前記可視画像を、GIS(Geographic Information System)上で、前記GPS60による位置座標データ62を利用して幾何補正した補正画像70,
(2)該補正画像70から抽出した前記土壌採取地点の赤(R),緑(G),青(B)の各色成分の輝度値である色分解値(各色成分の輝度値)データ72,
(3)上記色分解値データ72と、光量センサから得た光量データ43,45とに基づいて補正した光量補正済色分解値73,
(4)該色分解値データ72の湿潤時と乾燥時の差を示す差分データ74,
(5)前記土壌サンプリングの分析結果としての体積水分率マップ76,
(6)前記土壌サンプリングの分析結果としての気相率マップ78,
(7)前記差分データ72,体積水分率マップ76,気相率マップ78から得た回帰式80,
(8)前記可視画像42,44及び前記回帰式80に基づいて作成した乾湿マップ82,
がある。
In addition, as data obtained by the wet and dry prediction process,
(1) A corrected image 70 obtained by geometrically correcting the visible image on the GIS (Geographic Information System) using the position coordinate data 62 by the GPS 60,
(2) Color separation value (luminance value of each color component) data 72 that is a luminance value of each color component of red (R), green (G), and blue (B) extracted from the corrected image 70,
(3) The light quantity corrected color separation value 73 corrected based on the color separation value data 72 and the light quantity data 43 and 45 obtained from the light quantity sensor.
(4) difference data 74 indicating the difference between the color separation value data 72 when wet and when dry;
(5) Volume moisture content map 76 as an analysis result of the soil sampling,
(6) Gas phase rate map 78 as an analysis result of the soil sampling,
(7) Regression equation 80 obtained from the difference data 72, the volume moisture content map 76, and the gas phase rate map 78,
(8) A wet and dry map 82 created based on the visible images 42 and 44 and the regression equation 80,
There is.

次に、図2〜図5も参照しながら、本実施例の動作を説明する。図2(A)には、本実施例における処理手順がフローチャートとして示されている。最初に、空撮用ヘリコプタ40を使用して、対象となる圃場の降雨直後(湿潤時)と乾燥時の可視画像42,44をそれぞれ撮影する。また、光量センサを用いて、降雨直後光量データ43,乾燥時光量データ45を得る。空撮用ヘリコプタ40としては、有人でもよいが、本実施例では無人のヘリコプタを使用している。   Next, the operation of this embodiment will be described with reference to FIGS. FIG. 2A shows a processing procedure in the present embodiment as a flowchart. First, using the helicopter 40 for aerial photography, the visible images 42 and 44 at the time of rain (when wet) and when dry are taken in the target field. Further, the light amount data 43 immediately after the rain and the light amount data 45 during drying are obtained using the light amount sensor. The aerial helicopter 40 may be manned, but an unmanned helicopter is used in this embodiment.

図3(A),(B)にはそれら可視画像42,44の一例が示されている。なお、図示の例は白黒であるが、実際はカラー画像である。また、降雨直後には、前記画像撮影に合わせて、圃場内の数地点で土壌50を採取し、体積水分率52,気相率54を分析する。更に、土壌採取地点と圃場の4角をGPS60を利用して測位し、位置座標データ62を得る(ステップSA)。これらのデータは、乾湿予測装置10のデータメモリ30に格納される。   FIGS. 3A and 3B show examples of the visible images 42 and 44. Although the illustrated example is black and white, it is actually a color image. Immediately after the rain, the soil 50 is sampled at several points in the field and the volumetric moisture content 52 and the gas phase rate 54 are analyzed in accordance with the image capturing. Further, the four corners of the soil sampling point and the field are measured using the GPS 60, and the position coordinate data 62 is obtained (step SA). These data are stored in the data memory 30 of the wet / dry predictor 10.

次に、乾湿予測装置10では、プログラムメモリ20に格納されている乾湿予測プログラム22がCPU12で実行され、以下の処理が行われる。まず、前記可視画像42,44を、GIS上で、前記圃場4角の位置座標データ62を基に幾何補正し、前記可視画像42,44の補正画像70を得る(ステップSB)。   Next, in the dry / wet prediction apparatus 10, the dry / wet prediction program 22 stored in the program memory 20 is executed by the CPU 12, and the following processing is performed. First, the visible images 42 and 44 are geometrically corrected on the GIS based on the position coordinate data 62 of the four corners of the field to obtain a corrected image 70 of the visible images 42 and 44 (step SB).

次に、幾何補正後の両補正画像70における青,緑,赤の各色分解値データ72と光量センサから得た光量データ43,45を使用し、光量補正済色分解値73を算出する。これにより、色分解値データ72の光量補正を行い、輝度値の正規化を行う(ステップSC)。光量補正済色分解値73の算出式の一例を示すと、次のとおりである。
Next, the light quantity corrected color separation value 73 is calculated using the blue, green, and red color separation value data 72 and the light quantity data 43 and 45 obtained from the light quantity sensor in both corrected images 70 after geometric correction. As a result, the light amount of the color separation value data 72 is corrected and the luminance value is normalized (step SC). An example of a calculation formula for the light quantity corrected color separation value 73 is as follows.

次に、幾何補正後の両画像から、土壌採取地点における青,緑,赤の光量補正済色分解値73を取り出し、表計算ソフト(例えばマイクロソフト社のエクセル)上にエクスポートする(ステップSD)。次に、表計算ソフト上で、各色の光量補正済色分解値73の差を算出し、差分データ74と、分析して得た各サンプリング点における体積水分率52や気相率54とのマップ(散布図)76,78を作成する(ステップSE)。そして、このマップ76,78上において、最も相関係数の高い回帰式を乾湿(体積水分率又は気相率)の推定式として採択し、回帰式80とする(ステップSF)。   Next, the blue, green, and red light intensity corrected color separation values 73 at the soil sampling point are taken out from both images after geometric correction, and are exported onto spreadsheet software (for example, Microsoft Excel) (step SD). Next, a difference between the light intensity corrected color separation value 73 of each color is calculated on a spreadsheet software, and the difference data 74 and a map of the volume moisture content 52 and the gas phase rate 54 at each sampling point obtained by analysis (Scatter chart) 76 and 78 are created (step SE). Then, on the maps 76 and 78, the regression equation having the highest correlation coefficient is adopted as an estimation equation for the wet and dry (volume moisture content or gas phase rate), and set as a regression equation 80 (step SF).

例えば、図3(A),(B)の可視画像についてみると、空撮のため、圃場の画像が台形になっているので、これを補正する。次に、図3(C),(D)に示すように、補正画像の各画素PW1,PW2,PW3,・・・,PD1,PD2,PD3,・・・のうち、土壌サンプリング点,例えばP1について、赤,緑,青の色分解値データ(輝度値データ)72をそれぞれ取り出す。降雨時の可視画像42の位置P1における色分解値データは、RW1,GW1,BW1である。一方、乾燥時の可視画像44の位置P1における色分解値データは、RD1,GD1,BD1である。他のサンプリング地点の画素についても同様である。次に、これらのデータに対し、光量データ43,45を使用して、光量補正済色分解値73を算出する。その後、光量補正済色分解値73は、表計算ソフト上に集積され、差分の演算が行われる。例えば、画素P1において、乾燥時の赤のデータRD1の色分解値が「150」,降雨直後の赤のデータRW1の色分解値が「70」であるとすると、差分データは150−70=80となる。緑や青についても同様である。このような演算が、各サンプリング点毎に行われる。   For example, looking at the visible images in FIGS. 3A and 3B, the image of the field is trapezoidal for aerial photography, and this is corrected. Next, as shown in FIGS. 3C and 3D, among the pixels PW1, PW2, PW3,..., PD1, PD2, PD3,. , Red, green, and blue color separation value data (luminance value data) 72 are respectively extracted. The color separation value data at the position P1 of the visible image 42 at the time of rainfall are RW1, GW1, and BW1. On the other hand, the color separation value data at the position P1 of the visible image 44 at the time of drying are RD1, GD1, and BD1. The same applies to pixels at other sampling points. Next, the light quantity corrected color separation value 73 is calculated for these data using the light quantity data 43 and 45. Thereafter, the light quantity corrected color separation value 73 is accumulated on the spreadsheet software, and the difference is calculated. For example, in the pixel P1, if the color separation value of the red data RD1 at the time of drying is “150” and the color separation value of the red data RW1 immediately after the rain is “70”, the difference data is 150−70 = 80. It becomes. The same applies to green and blue. Such calculation is performed for each sampling point.

図4には、以上のようにして得た各サンプリング点における差分データ74と、分析して得た各サンプリング点における気相率54とのマップ78の例が示されている。同図(A)〜(C)は、それぞれ、青,緑,赤の輝度値の差と気相率との関係が示されている。グラフの横軸は降雨直後(5月8日)と、乾燥時(5月19日)の輝度値の差であり、縦軸は5月8日の気相率(%)である。いずれも、A圃場とB圃場について、それぞれ示している。これらのマップから、最も相関係数の高い回帰式を気相率の推定式として採択し、回帰式80とする。例えば、図4(A)の青の場合、気相率をy,差分値をx,相関係数をrとすると、回帰式は、「y=−2.2738x+47.868,r=−0.77」となる。図4(B),(C)の緑及び赤についても、図示のとおりである。なお、図4は気相率の場合であるが、体積水分率についても同様にしてマップを作成し、回帰式80を得ることができる。   FIG. 4 shows an example of a map 78 of the difference data 74 at each sampling point obtained as described above and the gas phase rate 54 at each sampling point obtained by analysis. FIGS. 9A to 9C show the relationship between the difference in luminance values of blue, green, and red and the gas phase rate, respectively. The horizontal axis of the graph is the difference in luminance value between immediately after rain (May 8) and when dry (May 19), and the vertical axis is the gas phase rate (%) on May 8. Both are shown for the A field and the B field, respectively. From these maps, the regression equation with the highest correlation coefficient is adopted as the estimation equation for the gas phase rate, and is set as the regression equation 80. For example, in the case of blue in FIG. 4A, assuming that the gas phase rate is y, the difference value is x, and the correlation coefficient is r, the regression equation is “y = −2.2738x + 47.868, r = −0.77”. Become. The green and red colors in FIGS. 4B and 4C are also as shown. Although FIG. 4 shows the case of the gas phase rate, the regression equation 80 can be obtained by creating a map for the volume moisture content in the same manner.

次に、以上のようにして得た回帰式80を、GIS上でプログラミングし、前記2枚の可視画像42,44の補正画像70と前記回帰式80に基づく乾湿マップ(体積水分率又は気相率の絶対値の分布図)82を作成する(ステップSG)。すなわち、前記回帰式80から差分データ74と体積水分率及び気相率の絶対値の関係が決定される。一方、差分データ74は、可視画像42,44の補正画像70に含まれているすべての画素について得ることができるので、前記回帰式80を利用することで、圃場全体についての乾湿マップ82を得ることができる。   Next, the regression equation 80 obtained as described above is programmed on the GIS, and a wet-dry map (volume moisture content or gas phase) based on the corrected image 70 of the two visible images 42 and 44 and the regression equation 80 is used. A distribution chart of absolute values of rates) 82 is created (step SG). That is, the relationship between the difference data 74 and the absolute values of the volumetric water content and the gas phase rate is determined from the regression equation 80. On the other hand, since the difference data 74 can be obtained for all the pixels included in the corrected image 70 of the visible images 42 and 44, the dry / wet map 82 for the entire field is obtained by using the regression equation 80. be able to.

図5には、以上のようにして得た乾湿マップ82の一例として、最も相関の高い図4(B)の緑の場合の気相率のマップが示されている。この例では、色の濃淡が気相率に対応しており、最も色が濃い部分が1〜10%,つぎに濃い部分が11〜15%,・・という具合になっている。つまり、濃い部分は気相率が低く(多水分ないし高水分)、薄い部分は気相率が高い(低水分)。体積水分率についても同様である。   FIG. 5 shows, as an example of the dry / wet map 82 obtained as described above, a map of the gas phase rate in the case of green in FIG. In this example, the shade of the color corresponds to the gas phase rate, the darkest part is 1 to 10%, the darkest part is 11 to 15%, and so on. That is, the dense portion has a low gas phase rate (high moisture or high moisture), and the thin portion has a high gas phase rate (low moisture). The same applies to the volumetric moisture content.

このように、実施例1によれば、次のような効果がある。
(1)自由度の高い空撮用ヘリコプタを利用して圃場の撮影を行っているので、雲などの影響を受けず、降雨直後と乾燥時の双方の画像情報を得ることができる。
(2)乾湿の予測を行う回帰式を、乾燥時及び湿潤時の圃場画像の輝度値の差を説明変数として得ているため、土壌腐植含量の分析を必要とすることなく、乾湿予測を行うことができる。特に、降雨直後のデータを利用していることから、営農現場で強く求められる降雨直後の乾湿マップを高精度で作成することができる。
Thus, according to the first embodiment, there are the following effects.
(1) Since the field is photographed using a helicopter for aerial photography with a high degree of freedom, it is possible to obtain image information both immediately after raining and during drying without being affected by clouds.
(2) Since the regression equation for predicting dryness and wetness is obtained using the difference between the brightness values of the field images when dry and wet as explanatory variables, dryness and wetness prediction is performed without the need to analyze the soil humus content. be able to. In particular, since the data immediately after the rain is used, the wet and dry map immediately after the rain which is strongly demanded at the farming site can be created with high accuracy.

次に、本発明の実施例2について説明する。前記実施例では、降雨直後の体積水分率及び気相率の絶対値が必要な場合を示したが、降雨直後の体積水分率及び気相率の絶対値が不要で相対的乾湿でよい場合は、図2(B)に示すステップSP〜SRの処理を行えばよい。   Next, a second embodiment of the present invention will be described. In the above embodiment, the absolute value of the volumetric water content and the gas phase rate immediately after the rain is necessary, but the absolute value of the volumetric water content and the gas phase rate immediately after the rain is unnecessary, and relative dry and wet is acceptable. The processing of steps SP to SR shown in FIG.

まず、空撮用ヘリコプタ40を使用して、対象となる圃場の降雨直後と乾燥時の可視画像42,44をそれぞれ撮影する。また、土壌採取地点と圃場の4角をGPS60を利用して測位し、位置座標データ62を得る(ステップSP)。これらのデータは、乾湿予測装置10のデータメモリ30に格納される。なお、土壌分析に基づく体積水分率52や気相率54の分析についても、前記実施例と同様である。   First, the aerial imaging helicopter 40 is used to capture visible images 42 and 44 immediately after the rain of the target field and during drying, respectively. Further, the four corners of the soil sampling point and the field are measured using the GPS 60, and the position coordinate data 62 is obtained (step SP). These data are stored in the data memory 30 of the wet / dry predictor 10. The analysis of the volumetric moisture content 52 and the gas phase rate 54 based on the soil analysis is the same as in the above embodiment.

次に、乾湿予測装置10では、プログラムメモリ20に格納されている乾湿予測プログラム22がCPU12で実行され、以下の処理が行われる。まず、前記可視画像42,44を、GIS上で、前記圃場4角の位置座標データ62を基に幾何補正し、前記可視画像42,44の補正画像70を得る(ステップSQ)。次に、幾何補正後の両画像70における青,緑,赤の各色分解値データ72と光量センサから得た光量データ43,45を使用し、光量補正済色分解値73を算出する。これにより、色分解値データ72の光量補正を行い、輝度値の正規化を行う(ステップSR)。前記図2(A)のステップSCと同様である。   Next, in the dry / wet predicting apparatus 10, the dry / wet predicting program 22 stored in the program memory 20 is executed by the CPU 12, and the following processing is performed. First, the visible images 42 and 44 are geometrically corrected on the GIS based on the position coordinate data 62 of the four corners of the field to obtain a corrected image 70 of the visible images 42 and 44 (step SQ). Next, the light quantity corrected color separation value 73 is calculated using the blue, green, and red color separation value data 72 and the light quantity data 43 and 45 obtained from the light quantity sensor in both images 70 after geometric correction. Thereby, the light intensity correction of the color separation value data 72 is performed, and the luminance value is normalized (step SR). This is the same as step SC in FIG.

次に、幾何補正後の両画像から、土壌採取地点の赤,緑,青の色分解値データ72を取り出してその差を算出し、差分データ74と、分析して得た各サンプリング点における体積水分率52や気相率54とのマップ76,78を作成する(ステップSR)。なお、マップは、青,赤,緑のいずれの差分データ74を用いてもよい。これにより、図4に示したマップが得られる。このマップから、差分データの値と気相率との相対的な関係を知ることができる。   Next, the red, green, and blue color separation value data 72 of the soil sampling point is extracted from both images after geometric correction, and the difference is calculated. The difference data 74 and the volume at each sampling point obtained by the analysis are calculated. Maps 76 and 78 of the moisture content 52 and the gas phase rate 54 are created (step SR). The map may use any difference data 74 of blue, red, and green. Thereby, the map shown in FIG. 4 is obtained. From this map, the relative relationship between the value of the difference data and the gas phase rate can be known.

上述した実施例1では、土壌分析によって得た体積水分率52や気相率54の絶対値を利用した回帰式作成作業が必要であるが、本実施例のように相対的な乾湿を推定するだけであれば、土壌のサンプリングとその分析は不要となる。   In the above-described first embodiment, a regression equation creation work using the absolute values of the volumetric water content 52 and the gas phase ratio 54 obtained by soil analysis is required, but relative wet and dry conditions are estimated as in this embodiment. If only, soil sampling and analysis are not required.

なお、本発明は、上述した実施例に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加えることができる。例えば、以下のものも含まれる。
(1)前記実施例では、撮影画像の画素単位で処理を行う場合を説明したが、圃場を所定の広さのメッシュに分割し、メッシュ単位で処理を行うようにしてもよい。
(2)前記実施例で示した装置構成,各種数値や数式は一例であり、それらに限定されるものではない。
(3)本発明は、排水不良地の抽出に有効であるが、乾きやすい場所の把握を行うなど、局所的かんがい区域等の抽出に利用することができる。また、農地が主な適用対象であるが、裸地条件であれば、農地以外の場所に適用して乾湿予測を行うことを妨げるものではない。
In addition, this invention is not limited to the Example mentioned above, A various change can be added in the range which does not deviate from the summary of this invention. For example, the following are also included.
(1) In the above-described embodiment, the case where the processing is performed in units of pixels of the captured image has been described. However, the field may be divided into meshes of a predetermined size and the processing may be performed in units of meshes.
(2) The apparatus configuration, various numerical values and mathematical formulas shown in the above embodiments are merely examples, and the present invention is not limited to them.
(3) The present invention is effective for extracting poorly drained areas, but can be used for extracting local irrigation areas and the like, such as grasping a place where it is easy to dry. Moreover, although farmland is the main application target, if it is bare land conditions, it does not prevent applying wet / dry prediction to places other than farmland.

本発明によれば、乾燥時及び湿潤時の圃場画像の光量補正済輝度値の差を説明変数として、乾湿予測の回帰式を得ることとしたので、土壌の乾湿マップを精度よく得ることができ、排水不良地の抽出などに好適である。   According to the present invention, since the regression equation for dry / wet prediction is obtained using the difference between the light intensity corrected luminance values of the field image when dry and wet as an explanatory variable, a dry / wet map of soil can be obtained with high accuracy. It is suitable for extraction of poor drainage areas.

10:乾湿予測装置
12:CPU
14:入力装置
16:表示装置
18:出力装置
20:プログラムメモリ
22:乾湿予測プログラム
30:データメモリ
40:空撮用ヘリコプタ
42,44:可視画像
43,45:光量データ
50:土壌
52:体積水分率
54:気相率
60:GPS
62:位置座標データ
70:補正画像
72:色分解値データ
73:光量補正済色分解値
74:差分データ
76:体積水分率マップ
78:気相率マップ
80:回帰式
82:乾湿マップ
P1:位置
BD1,BW1,GD1,GW1,RD1,RW1:色分解値データ
PW1,PW2,PW3,PD1,PD2,PD3,:画素
10: Dry / wet prediction device 12: CPU
14: Input device 16: Display device 18: Output device 20: Program memory 22: Dry / wet prediction program 30: Data memory 40: Aerial helicopter 42, 44: Visible image 43, 45: Light quantity data 50: Soil 52: Volume moisture Rate 54: Gas phase rate 60: GPS
62: Position coordinate data 70: Corrected image 72: Color separation value data 73: Light amount corrected color separation value 74: Difference data 76: Volume moisture content map 78: Gas phase rate map 80: Regression equation 82: Dry / wet map P1: Position BD1, BW1, GD1, GW1, RD1, RW1: Color separation value data PW1, PW2, PW3, PD1, PD2, PD3: Pixel

Claims (4)

空撮用ヘリコプタによって、湿潤時と乾燥時の土地の可視画像と、それぞれの可視画像の撮影時の光量と、を得るステップ,
当該土地の土壌を、複数のサンプリング地点で採取して、体積水分率もしくは気相率を得るステップ,
前記可視画像及び前記光量を利用して、前記サンプリング地点における前記可視画像の湿潤時と乾燥時の光量補正済色分解値データを得るとともに、それらの差分データを算出するステップ,
前記サンプリング地点における前記体積水分率もしくは気相率と、前記差分データとの相関関係を求めるステップ,
を含むことを特徴とする土壌乾湿予測方法。
Obtaining a visible image of the land when wet and dry, and the amount of light when each visible image is captured, by an aerial helicopter;
Collecting the soil of the land at a plurality of sampling points to obtain a volume moisture content or a gas phase rate;
Using the visible image and the light amount to obtain light amount corrected color separation value data when the visible image is wet and dry at the sampling point, and calculating difference data thereof;
Obtaining a correlation between the volumetric water content or gas phase rate at the sampling point and the difference data;
A method for predicting soil wetness and dryness.
空撮用ヘリコプタによって、湿潤時と乾燥時の土地の可視画像と、それぞれの可視画像の撮影時の光量と、を得るステップ,
当該土地の土壌を、複数のサンプリング地点で採取して、体積水分率もしくは気相率を得るステップ,
前記可視画像及び前記光量を利用して、前記サンプリング地点における前記可視画像の湿潤時と乾燥時の光量補正済色分解値データを得るとともに、それらの差分データを算出するステップ,
前記サンプリング地点における前記体積水分率もしくは気相率と、前記差分データとの相関関係を求めるステップ,
求めた相関関係から、前記体積水分率もしくは気相率と差分データとの回帰式を求めるステップ,
求めた回帰式を利用して、前記土地全体についての乾湿マップを作成するステップ,
を含むことを特徴とする土壌乾湿予測方法。
Obtaining a visible image of the land when wet and dry, and the amount of light when each visible image is captured, by an aerial helicopter;
Collecting the soil of the land at a plurality of sampling points to obtain a volume moisture content or a gas phase rate;
Using the visible image and the light amount to obtain light amount corrected color separation value data when the visible image is wet and dry at the sampling point, and calculating difference data thereof;
Obtaining a correlation between the volumetric water content or gas phase rate at the sampling point and the difference data;
A step of obtaining a regression equation of the volumetric water content or gas phase rate and difference data from the obtained correlation;
Creating a wet and dry map for the entire land using the obtained regression equation;
A method for predicting soil wetness and dryness.
請求項1記載の土壌乾湿予測方法を行うための装置であって、
空撮用ヘリコプタによって得た湿潤時と乾燥時の土地の可視画像のデータと、それぞれの可視画像の撮影時の光量とを利用して、複数のサンプリング地点における前記可視画像の湿潤時と乾燥時の光量補正済色分解値データを得るとともに、それらの差分データを算出する手段,
当該土地の土壌を前記サンプリング地点で採取して得た体積水分率もしくは気相率のデータを利用して、前記差分データと体積水分率もしくは気相率との相関関係を求める手段,
を備えた乾湿予測手段を含むことを特徴とする土壌乾湿予装置。
An apparatus for performing the soil wet / dry prediction method according to claim 1,
Wet and dry of the visible image at a plurality of sampling points by using the data of the visible image of the land when wet and dry obtained by the helicopter for aerial photography and the amount of light at the time of photographing each visible image Means for obtaining the light intensity corrected color separation value data and calculating the difference data thereof,
Means for obtaining a correlation between the difference data and the volume moisture content or the gas phase rate using the data of the volume moisture content or the gas phase rate obtained by sampling the soil of the land at the sampling point;
A soil dry / wet pre-equipment comprising a dry / wet predicting means.
請求項2記載の土壌乾湿予測方法を行うための装置であって、
空撮用ヘリコプタによって得た湿潤時と乾燥時の土地の可視画像のデータと、それぞれの可視画像の撮影時の光量とを利用して、複数のサンプリング地点における前記可視画像の湿潤時と乾燥時の光量補正済色分解値データを得るとともに、それらの差分データを算出する手段,
当該土地の土壌を前記サンプリング地点で採取して得た体積水分率もしくは気相率のデータを利用して、前記差分データと体積水分率もしくは気相率との相関関係を求める手段,
求めた相関関係から、前記体積水分率もしくは気相率と差分データとの回帰式を求める手段,
求めた回帰式を利用して、前記土地全体についての乾湿マップを作成する手段,
を備えた乾湿予測手段を含むことを特徴とする土壌乾湿予装置。
An apparatus for performing the soil wet / dry prediction method according to claim 2,
Wet and dry of the visible image at a plurality of sampling points by using the data of the visible image of the land when wet and dry obtained by the helicopter for aerial photography and the amount of light at the time of photographing each visible image Means for obtaining the light intensity corrected color separation value data and calculating the difference data thereof,
Means for obtaining a correlation between the difference data and the volume moisture content or the gas phase rate using the data of the volume moisture content or the gas phase rate obtained by sampling the soil of the land at the sampling point;
Means for obtaining a regression equation between the volumetric moisture content or the gas phase rate and difference data from the obtained correlation;
Means for creating a wet and dry map for the entire land using the obtained regression equation;
A soil dry / wet pre-equipment comprising a dry / wet predicting means.
JP2011010429A 2011-01-21 2011-01-21 Method for predicting wet and dry condition of soil and device for the same Pending JP2012150068A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011010429A JP2012150068A (en) 2011-01-21 2011-01-21 Method for predicting wet and dry condition of soil and device for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011010429A JP2012150068A (en) 2011-01-21 2011-01-21 Method for predicting wet and dry condition of soil and device for the same

Publications (1)

Publication Number Publication Date
JP2012150068A true JP2012150068A (en) 2012-08-09

Family

ID=46792432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011010429A Pending JP2012150068A (en) 2011-01-21 2011-01-21 Method for predicting wet and dry condition of soil and device for the same

Country Status (1)

Country Link
JP (1) JP2012150068A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104155298A (en) * 2014-08-12 2014-11-19 哈尔滨工业大学 Light intensity compensation and image gray value based method for measuring water content of soil surface
CN106092913A (en) * 2015-05-29 2016-11-09 深圳市琨伦创业投资有限公司 A kind of corps nutrient safety detection method and system thereof
JP2018126138A (en) * 2017-02-10 2018-08-16 国立大学法人九州大学 Paddy field management system and paddy field management method
JP2018151388A (en) * 2017-03-14 2018-09-27 株式会社フジタ Trafficability estimation device and program
KR20190025079A (en) * 2017-08-28 2019-03-11 서울대학교산학협력단 Soil classification estimation method and soil moisture percentage estimation method using soil image
CN111310563A (en) * 2020-01-10 2020-06-19 中国矿业大学(北京) Method for determining wetting front of layered reconstructed soil of refuse dump based on image recognition
JP2023034522A (en) * 2021-08-31 2023-03-13 大分県 Estimation method of soil water
CN117074403A (en) * 2023-08-17 2023-11-17 宁夏大学 Automatic extraction element of soil moisture salinity information

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104155298A (en) * 2014-08-12 2014-11-19 哈尔滨工业大学 Light intensity compensation and image gray value based method for measuring water content of soil surface
CN104155298B (en) * 2014-08-12 2017-01-25 哈尔滨工业大学 Light intensity compensation and image gray value based method for measuring water content of soil surface
CN106092913A (en) * 2015-05-29 2016-11-09 深圳市琨伦创业投资有限公司 A kind of corps nutrient safety detection method and system thereof
JP2018126138A (en) * 2017-02-10 2018-08-16 国立大学法人九州大学 Paddy field management system and paddy field management method
JP2018151388A (en) * 2017-03-14 2018-09-27 株式会社フジタ Trafficability estimation device and program
JP7075787B2 (en) 2017-03-14 2022-05-26 株式会社フジタ Trafficability estimator and program
KR102082102B1 (en) * 2017-08-28 2020-02-28 서울대학교산학협력단 Soil classification estimation method and soil moisture percentage estimation method using soil image
KR20190025079A (en) * 2017-08-28 2019-03-11 서울대학교산학협력단 Soil classification estimation method and soil moisture percentage estimation method using soil image
CN111310563A (en) * 2020-01-10 2020-06-19 中国矿业大学(北京) Method for determining wetting front of layered reconstructed soil of refuse dump based on image recognition
CN111310563B (en) * 2020-01-10 2022-11-18 中国矿业大学(北京) Determination method of wetting front for layered reconstructed soil in dump site based on image recognition
JP2023034522A (en) * 2021-08-31 2023-03-13 大分県 Estimation method of soil water
JP7267542B2 (en) 2021-08-31 2023-05-02 大分県 How to estimate soil moisture
CN117074403A (en) * 2023-08-17 2023-11-17 宁夏大学 Automatic extraction element of soil moisture salinity information
CN117074403B (en) * 2023-08-17 2024-05-28 宁夏大学 A device for automatically extracting soil moisture and salt information

Similar Documents

Publication Publication Date Title
JP2012150068A (en) Method for predicting wet and dry condition of soil and device for the same
US10205896B2 (en) Automatic lens flare detection and correction for light-field images
CN110018529B (en) Rainfall measurement method, device, computer equipment and storage medium
US20230146924A1 (en) Neural network analysis of lfa test strips
US9659237B2 (en) Imaging through aerosol obscurants
US10515436B2 (en) Method of processing an image
KR20220138698A (en) Method and apparatus for rainfall computation
CN111316135B (en) System for calculating atmospheric precipitation rate in real time according to digital image of environment in which atmospheric precipitation is occurring
CN117929291A (en) Soil pH prediction method and device based on multi-source remote sensing data
CN113655003B (en) A method for estimating soil moisture during the greening period of winter wheat using drone photos
US11972562B2 (en) Method for determining plant growth curve and electronic device
Motta et al. Landslide displacement monitoring from multi-temporal terrestrial digital images: Case of the Valoria Landslide site
JP7743583B2 (en) Leaf fall detection method
JP2023061680A (en) Method and system for estimating aerosol concentration
Liu et al. Image-based recognition and processing system for monitoring water levels in an irrigation and drainage channel
US10489894B2 (en) Image processing device, image processing method, and program recording medium
EP4473424A1 (en) Weather observation system, weather observation method, trained model generation method, and program
Kumar et al. Sparse unmixing via variable splitting and augmented Lagrangian for vegetation and urban area classification using Landsat data
JP7555103B2 (en) Information processing device, information processing method, and program
TWI573099B (en) Method of regional water level measurement
CN113379591B (en) Speed determination method, speed determination device, electronic equipment and storage medium
Jiang et al. Estimating building height using scene classification and spatial geometry
TWI755250B (en) Method for determining plant growth curve, device, electronic equipment and storage medium
Hlavňa et al. Evaluating Mechanically-caused Crop Damage Using Two Simple UAV-based Assessment Techniques
Wu et al. BRDF and illumination calibration for very high resolution imaging sensors