[go: up one dir, main page]

JP2740265B2 - Image processing method for harvester steering control - Google Patents

Image processing method for harvester steering control

Info

Publication number
JP2740265B2
JP2740265B2 JP1151299A JP15129989A JP2740265B2 JP 2740265 B2 JP2740265 B2 JP 2740265B2 JP 1151299 A JP1151299 A JP 1151299A JP 15129989 A JP15129989 A JP 15129989A JP 2740265 B2 JP2740265 B2 JP 2740265B2
Authority
JP
Japan
Prior art keywords
area
image
uncut
imaging
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1151299A
Other languages
Japanese (ja)
Other versions
JPH0319606A (en
Inventor
渉 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yanmar Agricultural Equipment Co Ltd
Original Assignee
Yanmar Agricultural Equipment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yanmar Agricultural Equipment Co Ltd filed Critical Yanmar Agricultural Equipment Co Ltd
Priority to JP1151299A priority Critical patent/JP2740265B2/en
Publication of JPH0319606A publication Critical patent/JPH0319606A/en
Application granted granted Critical
Publication of JP2740265B2 publication Critical patent/JP2740265B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Guiding Agricultural Machines (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、圃場に列状に植立された稲、麦、大豆等の
当該列に沿って走行機体を走行させて刈取り脱穀する等
のいわゆる汎用コンバインまたは普通形コンバイン等の
収穫機や、圃場に植えられた野菜等の列状に沿って走行
機体を走行させて収穫する収穫機を、前記稲等の被検出
物の列に沿うように倣って走行させるために、これらの
被検出物を撮像した画像データを画像処理する方法に関
するものである。
DETAILED DESCRIPTION OF THE INVENTION [Industrial Application Field] The present invention relates to a method of cutting and threshing by running a traveling machine along a row of rice, wheat, soybean, etc., planted in a row in a field. A harvester such as a so-called general-purpose combine or a normal combine, or a harvester that harvests by running a traveling machine along a row of vegetables or the like planted in a field, along the row of the detection target such as the rice. The present invention relates to a method for performing image processing on image data obtained by capturing an image of an object to be traveled in accordance with the above.

〔従来の技術〕[Conventional technology]

圃場に植立した稲列に沿ってコンバインを前進走行さ
せ、当該稲列を複数条づつ刈取るように、当該コンバイ
ンを自動操舵走行させるに際して、未刈取地と既刈取地
との境界線を検出する技術として、例えば特開昭62−12
2507号公報では、コンバインに搭載したビデオカメラ
を、当該コンバインの進行前方向の未刈取地と既刈取地
との両範囲にわたって撮像できるように前方下向きに配
設し、ビデオカメラにて撮像した画像データを2値化処
理して前記境界線を抽出する技術を提案している。
Detects the boundary between uncut and already-cut areas when the combine is automatically steered so that the combine is moved forward along the row of rice planted in the field and the row of rice is cut in multiple rows. For example, Japanese Patent Application Laid-Open No. Sho 62-12
In the publication No. 2507, the video camera mounted on the combine is disposed downward and forward so as to be able to capture images over both the uncut area and the already-cut area in the forward direction of the combine, and the image taken by the video camera A technique for extracting the boundary line by binarizing data has been proposed.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

この先行技術において、前記ビデオカメラにて撮像さ
れた撮像画面全体に含まれた画像データすべてを2値化
処理したのち境界線を検出するという特徴抽出処理を実
行していたので、一つの撮像画面(1フレームという)
を特徴抽出処理するのに多くの時間を要し、自動操舵を
迅速且つ的確に実行できないという問題があった。
In this prior art, since a feature extraction process of performing a binarization process on all image data included in the entire imaging screen imaged by the video camera and then detecting a boundary line is performed, one imaging screen image is obtained. (Called one frame)
It takes a lot of time to perform the feature extraction process, and there is a problem that automatic steering cannot be performed quickly and accurately.

また、ある程度圃場の左右両側の広い範囲にわたって
撮像しなければ、未刈取地と既刈取地との境界線を検出
することができない。
In addition, the boundary between the uncut area and the already-cut area cannot be detected unless an image is taken over a wide range on the right and left sides of the field to some extent.

そこで、所定の視界を有するレンズ系を用いて圃場の
左右両側の広い範囲を撮像して画面に取り込むと、得ら
れた撮像画面中に例えば圃場際の畦等の余分な対象が撮
像されたり、背景部分の余分のノイズ成分が入り込むこ
とになり、画像データから2値化等の特徴抽出処理する
に際して、このような余分の対象物を判別して除外した
り、背景部分のノイズ成分を除去するための前処理も繁
雑となるという問題があった。
Therefore, when capturing a wide range on the left and right sides of the field using a lens system having a predetermined field of view and capturing it on the screen, an extra target such as a ridge in a field is captured in the obtained captured screen, An extra noise component in the background portion enters, and when performing feature extraction processing such as binarization from image data, such an extra target is discriminated and removed, or the noise component in the background portion is removed. Pre-processing is complicated.

さらに、コンバインの操舵につれてビデオカメラの撮
像方法も左右に変化するので、未刈取り地と既刈取り地
との境界線が撮像される位置も左右に変動するのである
から、前記ビデオカメラによる撮像画面のうち画像処理
すべき範囲を固定的にカットすると、前記境界線を見失
うおそれがある。
Furthermore, since the imaging method of the video camera also changes to the left and right as the combine is steered, the position at which the boundary between the uncut area and the already-cut area is also changed to the left and right. If the area to be image-processed is fixedly cut, the boundary may be lost.

そして、この境界線を検出するに際して、未刈取り地
の状態と既刈取り地の状態とを判別するための、いわゆ
る2値化処理にあたって2値化しきい値を決定する必要
があり、そのためのサンプリング領域を、予め撮像画面
のうちの未刈取り地であろうと予定される個所に位置固
定的に設定すると、前記境界線の左右変動につれて、サ
ンプリング領域が既刈取り地や前記のような余分の背景
部分に食い込むおそれがあり、そのようなサンプリング
領域から2値化しきい値を決定すると、以後の境界線の
決定を正確にできないという問題があった。
When detecting this boundary line, it is necessary to determine a binarization threshold value in so-called binarization processing for discriminating the state of the uncut area and the state of the already-cut area, and a sampling area for that purpose. Is fixedly set in advance at a location that is expected to be an uncut area in the imaging screen, as the boundary line fluctuates, the sampling area is shifted to the already-cut area or the extra background portion as described above. There is a possibility that the threshold value may be digged in, and if the binarization threshold value is determined from such a sampling region, there is a problem that the subsequent determination of the boundary line cannot be performed accurately.

本願発明はこれらの問題を解決することを目的とする
ものである。
An object of the present invention is to solve these problems.

〔課題を解決するための手段〕[Means for solving the problem]

この目的を達成するため、本発明は、コンバイン等の
収穫機に搭載した二次元撮像手段にて当該収穫機による
進行方向前方の未刈取り地と既刈取り地とにわたって適
宜時間間隔ごとまたは適宜前進距離ごとに撮像し、該撮
像手段にて得られた画像データを画像メモリに記憶した
後、2値化処理して前記未刈取り地と既刈取り地との境
界線を決定する画像処理方法において、撮像手段による
撮像画面中の2値化処理すべき領域を、前回決定した境
界線を基準にしてその左右両側に所定距離の幅に相当す
るウインドウ画像区域になるように逐次更新すると共
に、未刈取り地を判別するための2値化しきい値決定用
サンプリング領域を、前記ウインドウ画像区域のうちの
未刈取り地側において前回決定した境界線から未刈取り
地に向かって所定幅に相当する画像区域を除く範囲とな
るように逐次更新する方法を採用したものである。
In order to achieve this object, the present invention provides a two-dimensional imaging unit mounted on a harvester such as a combiner, at an appropriate time interval or at an appropriate forward distance between an uncut area and an already-cut area in the forward direction of travel by the harvester. The image processing method according to claim 1, wherein the image data obtained by the imaging unit is stored in an image memory, and then binarized to determine a boundary between the uncut area and the already-cut area. The area to be binarized in the imaged screen by the means is sequentially updated so as to become a window image area corresponding to a width of a predetermined distance on both the left and right sides with reference to the previously determined boundary line. The sampling area for binarization threshold value determination for judging is set to a predetermined width from the previously determined boundary line to the uncut area on the uncut area side of the window image area. How to successively updated so that the range excluding the image area equivalent to that which was adopted.

〔実施例〕〔Example〕

次に本発明を汎用コンバインに適用した実施例につい
て説明すると、走行作業機であるコンバイン1は走行機
体2の下面に左右一対の履帯式の走行装置3,3を備え、
走行機体2の前進方向に向かって右側前部には座席付き
の操縦部4を配設し、その後方にはエンジン(図示せ
ず)及び穀粒蓄積用のタンク5を備え、走行機体2の左
側には、円周外面にダブルピッチのスクリュー板と適宜
個数の扱歯とを植設した前後長手の扱胴6a等を内蔵した
脱穀部6と、その下方に受け網8と、シーブ等による揺
動選別装置9と、唐箕フアン10の風による風選別装置と
を備える。
Next, a description will be given of an embodiment in which the present invention is applied to a general-purpose combine. A combine 1 that is a traveling work machine includes a pair of right and left crawler-type traveling devices 3, 3 on a lower surface of a traveling machine body 2,
A steering unit 4 with a seat is disposed at a front right portion of the traveling body 2 in the forward direction of the traveling body 2, and an engine (not shown) and a tank 5 for accumulating grains are provided at the rear thereof. On the left side, a threshing unit 6 with a built-in front and rear longitudinal handling cylinder 6a and the like in which a double-pitch screw plate and an appropriate number of teeth are implanted on the outer peripheral surface, a receiving net 8 below, a sheave, etc. The apparatus includes an oscillating sorting device 9 and a wind sorting device based on the wind of Karamino Juan 10.

一方、走行機体2の前面には、前記脱穀部6の前部開
口に連通する角筒状のフイーダハウス11を昇降用抽出シ
リンダ12を介して走行機体に対して昇降自在に装着して
あり、該フイーダハウス11の内部には、左右長手の搬送
板を左右一対のチエンに適宜間隔で取付けたチエンコン
ベヤ13を配設し、このチエンコンベヤ13にて後述の刈取
部15からの刈取穀稈を前記脱穀部6に搬送するものであ
る。
On the other hand, a rectangular tubular feeder house 11 communicating with the front opening of the threshing unit 6 is mounted on the front surface of the traveling machine 2 so as to be vertically movable with respect to the traveling machine via an elevating extraction cylinder 12. Inside the feeder house 11, a chain conveyor 13 in which left and right transport plates are attached to a pair of left and right chains at appropriate intervals is disposed, and the thresh conveyor 13 is used for threshing a harvested grain culm from a cutting unit 15 described later. It is transported to the unit 6.

符号7aは、二番樋(図示せず)からの穀粒を脱穀部6
に還元するように搬送する二番還元筒、符号7bは前記タ
ンク5内の穀粒を外部に排出するための排出筒である。
The reference numeral 7a designates a grain from a second gutter (not shown) for the threshing unit 6
Reference numeral 7b denotes a discharge cylinder for discharging the grains in the tank 5 to the outside.

刈取部15は、走行機体2の全幅にわたって左右に延び
るバケット状のプラットホーム17と、該プラットホーム
17に走行機体2の全幅にわたって設けたタインバー18付
きのリール19とから成り、プラットホーム17の下面側に
は同じく左右長手のバリカン状の刈刃20を有し、プラッ
トホーム17の底板上方には、矢印方向に回転する横長の
掻き込み用のオーガ22を備えてあり、伝動部を介して前
記リール19及びオーガ22を回転駆動し、且つ刈刃20を駆
動する。
The reaping section 15 includes a bucket-shaped platform 17 extending left and right over the entire width of the traveling body 2,
17 comprises a reel 19 with a tine bar 18 provided over the entire width of the traveling body 2, and has a clipper-shaped cutting blade 20 which is also left and right on the lower surface side of the platform 17, and an arrow above the bottom plate of the platform 17. The auger 22 has a horizontally long scraping auger 22 that rotates in the direction, and drives the reel 19 and the auger 22 to rotate and drives the cutting blade 20 via a transmission unit.

なお、符号23は刈取部15の左右両端から前向きに突出
する分草体であり、また、前記リール19は、穀稈の倒伏
状態等に応じて前後移動調節及び上下揺動調節自在に構
成されている。
Reference numeral 23 denotes a weeding body projecting forward from both the left and right ends of the reaper 15, and the reel 19 is configured to be capable of adjusting the forward and backward movement and the up and down swing according to the falling state of the grain culm and the like. I have.

符号25は、第1図等に示すように、圃場Hに適宜間隔
にて縦横に植立した被検出物である稲の穀稈で、この縦
横に適宜間隔で植立した穀稈25に向かってコンバイン1
を前進させてこれらを刈取るものである。
Reference numeral 25 denotes a grain culm of rice, which is an object to be detected, which is planted vertically and horizontally at appropriate intervals in the field H, as shown in FIG. Combine 1
To move them forward and reap them.

符号24は前記操縦部4のキヤビン4a前部上端等に取付
くビデオカメラ等の撮像手段で、該撮像手段24はそのレ
ンズ系35の光軸35aが水平面に対して俯角θ(実施例で
は略20度)で前向きに取付けられている。
Reference numeral 24 denotes imaging means such as a video camera attached to the upper end of the front part of the cabin 4a of the control unit 4, and the imaging means 24 is configured such that the optical axis 35a of the lens system 35 has a depression angle θ with respect to the horizontal plane (in the embodiment, approximately (20 degrees) and installed forward.

また、第4図は、本発明の制御手段のブロック図を示
し、符号27は前記撮像手段24のアナログ入力信号をデジ
タル信号に変換するA/D変換器、符号28は画像メモリ、
符号29は画像処理プロセッサ、符号30は中央制御装置
(CPU)、符号31は読み出し専用メモリ(ROM)、符号32
は読み書き可能メモリ(RAM)、符号33はI/0ユニット、
符号34はバスを各々示す。
FIG. 4 is a block diagram of the control means of the present invention, wherein reference numeral 27 denotes an A / D converter for converting an analog input signal of the imaging means 24 into a digital signal, reference numeral 28 denotes an image memory,
29 is an image processor, 30 is a central control unit (CPU), 31 is a read-only memory (ROM), 32
Is a read / write memory (RAM), 33 is an I / 0 unit,
Reference numeral 34 indicates a bus.

なお、中央制御装置30の指令信号に従って駆動される
油圧切換弁等の電磁ソレノイドで代表される操舵アクチ
ェータにて走行機体2を左右に操舵することができる。
The traveling body 2 can be steered left and right by a steering actuator typified by an electromagnetic solenoid such as a hydraulic switching valve driven according to a command signal from the central control device 30.

前記ビデオカメラ等の撮像手段24は、レンズ系を通し
て得られた画像が結象する平面(撮像画面36)にCCD固
体撮像素子等から成る二次元撮像デバイスを配設したも
ので、カラー用、白黒用のいずれであっても良いが、コ
ンバインの稲刈取り作業での既刈取地と未刈取地との境
界線を判別するためには、RGB表色系〔赤色(R),緑
色(G),青色(B)の原色光とし、加色により白色が
得られる〕の各色成分にて圃場の特徴を抽出し、この3
色成分の信号出力のしきい値の組合せから、前記既刈取
地と未刈取地との境界線を決定する2値化処理を実行す
ることが好ましい。
The image pickup means 24 such as a video camera has a two-dimensional image pickup device such as a CCD solid-state image pickup device arranged on a plane (image pickup screen 36) on which an image obtained through a lens system is formed. For the purpose of discriminating the boundary line between the already-cut and un-cut areas in the combine harvesting operation, the RGB color system [red (R), green (G), The primary color light of blue (B) is used, and white is obtained by adding color.]
It is preferable to execute a binarization process for determining a boundary between the already-cut area and the un-cut area from a combination of threshold values of signal outputs of color components.

そして、前記境界線Koを検出するに際して、撮像手段
24により得られた撮像画面36全体を2値化処理している
と、撮像画面36中に例えば圃場際の畦等の余分な対象が
撮像されたり、中割り作業時の一側の未刈地等の余分の
ノイズ成分が入り込むことになり、画像データを2値化
等の特徴抽出処理するに際して、このような余分な対象
物を判別して除外したり、ノイズ成分を除去するための
前処理も繁雑となる。
When detecting the boundary Ko, the imaging means
If the entire imaging screen 36 obtained by 24 is subjected to the binarization processing, an extra target such as a ridge in the field is captured in the imaging screen 36, or an uncut area on one side at the time of the middle splitting operation. When performing feature extraction processing such as binarization of image data, such extra target components are discriminated and excluded, or preprocessing for removing noise components is performed. Is also complicated.

他方、コンバインを操舵制御していると、撮像画面36
中の境界線の位置も時々刻々と変化するので、撮像画面
中において2値化処理すべき領域を固定することは、そ
の境界線を見失うおそれがある。
On the other hand, when the steering of the combine is controlled, the imaging screen 36
Since the position of the middle boundary line also changes from moment to moment, fixing the region to be binarized in the imaged screen may cause the boundary line to be lost.

そこで、本発明の画像処理としては、前記記憶された
画像データのうち、被検出平面37における前記走行機体
の進行方向に沿う左右両側の適宜幅の撮像範囲に相当す
る画像データを除くようなウインドウ処理を実行するに
際して、適宜時間間隔ごと又は適宜前進距離ごとに決定
される境界線を基準にし、その最新結果である前回決定
された境界線の左右両側に所定距離の幅に相当するウイ
ンドウ画像区域になるように逐次更新するものである。
Therefore, as the image processing of the present invention, a window that excludes image data corresponding to an imaging range of an appropriate width on both the left and right sides along the traveling direction of the traveling body on the detected plane 37 among the stored image data is used. In executing the processing, a window image area corresponding to the width of a predetermined distance is provided on both the left and right sides of the previously determined boundary line, which is the latest result, based on the boundary line determined for each time interval or for each advance distance as appropriate. Is sequentially updated so that

また、通常未刈取り地Mを撮像したときの穂先部の色
彩と既刈取り地Kにおける刈取り後の排藁の色彩とが相
違するので、その相違を所定の3原色の色彩値のヒスト
グラム等の形の違いとして把握し、前記2値化処理に際
して、圃場の未刈取り地Mであると判別するための2値
化しきい値を決定するのである。そのため、前記2値化
しきい値決定用のサンプリング領域は、未刈取り地Mと
して確実に存在する個所に設定しなければならない。
Further, since the color of the spike portion when the image of the uncut area M is normally picked up and the color of the straw after cutting in the already cut area K are different, the difference is represented by a histogram of color values of three primary colors. In the binarization process, a binarization threshold for determining that the land is the uncut area M is determined. Therefore, the sampling area for determining the binarized threshold value must be set at a location where the uncut area M exists without fail.

換言すれば、当該未刈取り地Mの個所の画像データを
サンプリングするにおいて、前記境界線Koの個所に近い
未刈取り地M部分では、既刈取り地Kである可能性があ
り、得られた2値化しきい値自体が不正確になるおそれ
がある。
In other words, in sampling the image data of the uncut area M, the uncut area M near the boundary Ko may be the already-cut area K, and the obtained binary The threshold may itself be incorrect.

そこで、本発明では、前記2値化処理すべきウインド
ウ画像区域のうち、未刈取り値Mにおいて境界線Koに近
い側を除く領域をサンプリング領域とするものである。
Therefore, in the present invention, in the window image area to be binarized, an area other than the uncut value M on the side near the boundary line Ko is set as the sampling area.

以下に、穀稈の未刈取地Mにおける検査平面37を斜め
上方から撮像した場合のウインドウ処理等の画像処理の
実施例について説明する。
Hereinafter, an example of image processing such as window processing when the inspection plane 37 in the uncut area M of the grain culm is imaged from obliquely above will be described.

この場合には、撮像手段24にて得られた画像を二次元
撮像デバイスの撮像画面36に結像させたとき、撮像手段
24から遠くにある物は小さく写り、近くにある物は大き
く写る。
In this case, when the image obtained by the imaging unit 24 is formed on the imaging screen 36 of the two-dimensional imaging device,
Objects far from 24 appear small, objects near it appear large.

つまり、第2図及び第3図に示すように被検出平面37
(撮像手段24から垂直下方距離hにあるとする)におけ
る矩形状の撮像領域(Ao,Bo,Co,Do)は、第5図に示す
ように撮像画面36において、その下辺側で左右に長く、
上辺側で左右に短い台形状の像(A,B,C,D)になる。
That is, as shown in FIG. 2 and FIG.
The rectangular imaging area (Ao, Bo, Co, Do) in (at a vertical lower distance h from the imaging means 24) is longer on the imaging screen 36 on the lower side thereof on the imaging screen 36 as shown in FIG. ,
It becomes a trapezoidal image (A, B, C, D) that is short on the left and right on the upper side.

また、通常のレンズ系では、撮像画面36に結像させた
像は倒立像となるが、以下の説明では、理解を容易にす
るため正立像におきかえた状態にて説明する。
Further, in a normal lens system, an image formed on the imaging screen 36 is an inverted image. However, in the following description, an upright image will be described in order to facilitate understanding.

第9図は、本発明の画像処理のフローチャートを示
し、スタートに続くステップS1で以下のような座標変換
計算を実行する。
FIG. 9 shows a flowchart of the image processing of the present invention. In step S1 following the start, the following coordinate conversion calculation is executed.

まず、被検出平面37と撮像画面36との座標関係につい
て説明すると、第8図において、直交(X,Y,Z)座標系
における原点であるO点を撮像手段24における焦点距離
fのレンズ系35の仮想レンズ中心とし、X軸は撮像手段
24の左右方向に沿い、Y軸は撮像手段24の縦方向に沿わ
せる一方、Z軸を前記レンズ系35の光軸35aと一致させ
る。
First, the coordinate relationship between the detected plane 37 and the imaging screen 36 will be described. In FIG. 8, the origin O in the orthogonal (X, Y, Z) coordinate system is set to the lens system of the focal length f in the imaging means 24. The center of the virtual lens of 35, the X axis is the imaging means
Along the left-right direction of the image pickup device 24, the Y axis is set along the vertical direction of the imaging means 24, while the Z axis is set to coincide with the optical axis 35a of the lens system 35.

撮像手段24における二次元撮像デバイスの撮像画面36
は、被写体が明瞭に結像するために、前記O点からZ軸
に沿って焦点距離fの位置におく。従って撮像画面36は
直交(X,Y.Z)座標系におけるX−Y平面と平行な平面
となる。
Imaging screen 36 of a two-dimensional imaging device in imaging means 24
Is located at a focal length f along the Z axis from the point O in order to clearly form an image of the subject. Therefore, the imaging screen 36 is a plane parallel to the XY plane in the orthogonal (X, YZ) coordinate system.

一方、穀稈25の穂先部を含む水平面を被検出平面37と
し、この被検出平面37と前記Z軸との交角(撮像手段の
俯角に相当する)をθとする。
On the other hand, the horizontal plane including the tip of the grain culm 25 is defined as a detected plane 37, and the angle of intersection between the detected plane 37 and the Z axis (corresponding to the depression angle of the imaging means) is defined as θ.

前記被検出平面37上の被検出点Toが撮像手段24にて撮
像したとき、その結像点Tは、前記To点とO点とを結ぶ
直線Vが撮像画面36と交差する点となる。
When the detected point To on the detected plane 37 is imaged by the imaging means 24, the imaging point T is a point where a straight line V connecting the To point and the O point intersects the imaged screen.

前記直交(X,Y.Z)座標系において、T点の座標を(x
o,yo,zo)とすると、前記直線Vの方程式は、 (X−xo)/l=(Y−yo)/m=(Z−zo)/n ……(1) ここで、l,m,nは方向余弦であり、 l=xo/L,m=yo/L,n=zo/L L=(xo)+(yo)+(zo) これらの式で、被検出物からレンズ系までの距離に比
べて焦点距離fは極めて小さいので、 zo≒f(定数)として良い。
In the orthogonal (X, YZ) coordinate system, the coordinates of point T are represented by (x
o, yo, zo), the equation of the straight line V is (X-xo) / l = (Y-yo) / m = (Z-zo) / n (1) where l, m , n is the direction cosine, l = xo / L, m = yo / L, n = zo / L L = (xo) + (yo) + (zo) In these equations, from the object to be detected to the lens system Since the focal length f is extremely small as compared with the above distance, it may be set as zo ≒ f (constant).

他方、前記被検出平面37が仮想レンズ中心O点から下
方にhの位置にあり、撮像手段の俯角をθとするとき、
前記直交(X,Y.Z)座標系において被検出平面37の方程
式は、 cos θ・Y−sin θ・Z+h=0 ……(2) で表すことができる。
On the other hand, when the detected plane 37 is located at a position h below the center O of the virtual lens and the depression angle of the imaging unit is θ,
In the orthogonal (X, YZ) coordinate system, the equation of the detected plane 37 can be expressed by cos θ · Y−sin θ · Z + h = 0 (2)

前記直線Vと被検出平面37との交点であるTo点の座標
(xf,yf,zf)は、前記(1)と(2)式から、 となる。
The coordinates (xf, yf, zf) of the To point, which is the intersection of the straight line V and the plane to be detected 37, are obtained from the above equations (1) and (2). Becomes

次に被検出平面37を別の直交座標系(X″,Y″,Z″)
におけるX″−Y″平面であると考え、この座標系にお
いて、前記被検出平面37上のTo点の座標を(xf″,yf″,
zf″)とすれば、座標変換(平行移動と回転による)を
実行することにより、 となる。
Next, the detected plane 37 is connected to another rectangular coordinate system (X ″, Y ″, Z ″).
In this coordinate system, the coordinates of the To point on the detected plane 37 are (xf ″, yf ″,
zf "), the coordinate transformation (by translation and rotation) Becomes

即ち、被検出平面37上の被検出物(被写体)のTo点
〔座標(xf″,yf″)〕は撮像手段24における撮像画面3
6上で座標(xo,yo)のT点に結像される関係となるので
ある。
That is, the To point [coordinates (xf ″, yf ″)] of the detection target (subject) on the detection plane 37 is determined by the imaging screen 3 of the imaging unit 24.
The relationship is such that an image is formed on the point T of the coordinates (xo, yo) on 6.

この変換式(4)により、撮像画面36上の座標(xo,y
o)から被検出平面37上の座標(xf″,yf″)の計算(ま
たはその反対の計算)をすることができるのである。
According to this conversion formula (4), the coordinates (xo, y
From o), it is possible to calculate the coordinates (xf ″, yf ″) on the detected plane 37 (or vice versa).

なお、撮像手段24にて圃場を真上から撮像するように
した場合には、前述の座標変換は簡単になる。
Note that when the imaging unit 24 captures an image of the field from directly above, the above-described coordinate conversion is simplified.

このように、被検出平面37上の座標と撮像画面36上の
座標との1対1の関係を知ることができるから、撮像画
面36に撮像された未刈取り地Mから既刈取り地Kにわた
る範囲のうち、2値化処理すべき領域、つまりウインド
ウ画像区域Wを設定する前段階として、ステップS2では
次のような演算を実行しておく。
As described above, since a one-to-one relationship between the coordinates on the detected plane 37 and the coordinates on the imaging screen 36 can be known, the range from the uncut area M to the already-cut area K captured on the imaging screen 36 is obtained. Among them, as a step before setting the area to be binarized, that is, the window image area W, the following calculation is executed in step S2.

つまり、本発明では、第6図及び第7図の関係で示す
ように、被検出平面37上での未刈取り地Mと既刈取り地
Kとの境界線Koを基準にして未刈取り地M側に所定幅Ho
まで、及び既刈取り地K側に所定幅Ho迄の区域(第6図
のAo,Bo,Co,Do,Eo,Foで囲まれる区域)に対応する撮像
画面36上での2値化処理すべき領域(第7図のA,B,C,D,
E,Fで囲まれる区域)をウインドウ画像区域Wにする。
That is, in the present invention, as shown in the relationship between FIG. 6 and FIG. 7, the uncut land M side with respect to the boundary Ko between the uncut ground M and the already cut ground K on the detected plane 37. To a predetermined width Ho
Up to a predetermined width Ho on the side of the already cut area K (the area surrounded by Ao, Bo, Co, Do, Eo, Fo in FIG. 6). Area (A, B, C, D,
The area surrounded by E and F) is set as the window image area W.

従って、前記未刈取り地M側の境界の座標に対応する
撮像画面36上でのウインドウ画像区域の左側境界の座標
及び既刈取り地K側の境界の座標に対応する撮像画面36
上でのウインドウ画像区域Wの右側境界の座標を円滑に
演算する必要がある。
Accordingly, the coordinates of the left boundary of the window image area on the imaging screen 36 corresponding to the coordinates of the boundary on the uncut area M side and the imaging screen 36 corresponding to the coordinates of the boundary on the already-cut area K side.
It is necessary to smoothly calculate the coordinates of the right boundary of the window image area W above.

そこで、今被検出平面37上での境界線Koから左右両側
に所定幅Ho(メートル)(実施例では2.5メートル)の
検査領域を設定すると、これに対応する撮像画面36のウ
インドウ画像区域Wの左右幅はHとなるので、第6図に
示す検出平面37上での直線Ao−Bo及び直線Fo−Eoは第7
図における撮像画面36上の直線A−B及び直線F−Eに
対応していることになる。
Therefore, when an inspection area having a predetermined width Ho (meter) (2.5 meters in the present embodiment) is set on both left and right sides of the boundary line Ko on the detected plane 37, the corresponding window image area W of the imaging screen 36 is set. Since the horizontal width is H, the straight line Ao-Bo and the straight line Fo-Eo on the detection plane 37 shown in FIG.
This corresponds to the straight lines AB and FE on the imaging screen 36 in the figure.

そこで、撮像画面36上の境界線Ko′から左右両側に幅
Hだけ横にずれた位置としてのX座標(mask−w
[y])を、予め配列概念(配列とは同じ特性をもち、
定められた規則に従って並べられた要素の集まりから成
る文法単位)にて演算設定し、記憶させておく。
Therefore, the X coordinate (mask-w) as a position laterally shifted by the width H to the left and right sides from the boundary line Ko 'on the imaging screen 36.
[Y]) is previously defined as an array concept (having the same characteristics as an array,
The calculation is set and stored in a grammar unit consisting of a set of elements arranged according to a predetermined rule.

同様に、被検出平面37上での境界線Koから未刈取り地
M側に所定幅So(メートル)(実施例では1.0メート
ル)と設定し、この区域(第6図でKo線とGo−Joを結ぶ
線で囲まれた区域)を、第6図のAo,Bo,Co,Do,Eo,Foで
囲まれる区域から除いか区域を2値化しきい値決定用の
サンプリング領域とするため、これに対応して撮像画面
36上にて前記所定幅Soに対応した幅Sだけ左横にずれた
位置としてのX座標(sample−w[y])を、予め配列
概念にて演算設定し、記憶させておく。
Similarly, a predetermined width So (meter) (1.0 meter in the embodiment) is set from the boundary line Ko on the detected plane 37 to the uncut area M side, and this area (Ko line and Go-Jo in FIG. 6) is set. Is excluded from the area enclosed by Ao, Bo, Co, Do, Eo, and Fo in FIG. 6, or the area is used as a sampling area for determining a binarization threshold. Imaging screen corresponding to
An X coordinate (sample-w [y]) as a position shifted leftward by a width S corresponding to the predetermined width So on 36 is calculated and set in advance based on the array concept and stored.

次にステップS3では、前記撮像画面36上でのウインド
ウ画像区域Wにおける、 ウインドウ左境界配列(window−left[y] =edge−line[y]−mask−w[y] ウインドウ右境界配列(window−right[y]) =edge−line[y]+mask−w[y] 及びサンプリング領域におけるサンプル右境界配列(wi
ndow−sample[y]) =edge−line[y]−sample−w[y] の初期値を設定する。
Next, in step S3, a window left boundary array (window-left [y] = edge-line [y] -mask-w [y] window right boundary array (window -Right [y]) = edge-line [y] + mask-w [y] and the sample right boundary array (wi
ndow-sample [y]) = sets the initial value of edge-line [y] -sample-w [y].

ここで、エッジ配列(edge−line[y])は、撮像画
面36上での境界線Ko′のY座標に対するX座標の配列を
いう。
Here, the edge array (edge-line [y]) refers to an array of X coordinates with respect to the Y coordinate of the boundary line Ko 'on the imaging screen 36.

この場合、最初は境界線Koが決定できていないので、
これに対応する撮像画面36上の境界線Ko′もない。従っ
て、第1回目の演算では、撮像画面36における左右中心
線を仮の境界線Ko′にするか、仮のエッジ配列(edge−
line[y])を作業者が設定し、前記の初期値を設定す
る。このようにすると、一応2値化処理すべきウインド
ウ画像区域およびサンプリング領域がきまるので、これ
に基づきステップS4にて2値化処理を実行し、次いでス
テップS5にて未刈取地Mと既刈取地Kとの境界線Koを検
出する、いわゆるエッジ処理を実行するのである。
In this case, since the boundary Ko has not been determined at first,
There is no corresponding boundary line Ko 'on the imaging screen 36. Therefore, in the first calculation, the left and right center lines on the imaging screen 36 are set to the temporary boundary line Ko 'or the temporary edge array (edge-
line [y]) is set by the operator, and the initial value is set. In this way, since the window image area and the sampling area to be binarized are determined temporarily, the binarization processing is executed in step S4 based on the window image area. The so-called edge processing for detecting the boundary Ko with K is executed.

この場合、撮像画面36上での境界線Ko′を直線と仮定
し、いわゆるハフ(Hough)変換によって仮想的に境界
線Ko′を求め、ステップS6にてそのエッジ配列(edge−
line[y])を計算する。
In this case, it is assumed that the boundary Ko 'on the image capturing screen 36 is a straight line, and the boundary Ko' is virtually determined by the so-called Hough transformation, and the edge arrangement (edge-
line [y]).

前記ステップS6にて得られたエッジ配列(edge−line
[y])を元に、ステップS7にて、 ウインドウ左境界配列(window−left[y] =edge−line[y]−mask−w[y] ウインドウ右境界配列(window−right[y]) =edge−line[y]+mask−w[y] サンプル右境界配列(window−sample[y]) =edge−line[y]−sample−w[y] を更新し、この結果に基づき次回の2値化処理及びサン
プリング領域の決定を実行して境界線を決定するという
処理を繰り返すのである。
The edge array (edge-line) obtained in step S6
[Y]), in step S7, a window left border array (window-left [y] = edge-line [y] -mask-w [y] window right border array (window-right [y]) = Edge-line [y] + mask-w [y] Sample right boundary array (window-sample [y]) = edge-line [y] -sample-w [y] is updated, and the next 2 The process of performing the value conversion process and the determination of the sampling area to determine the boundary line is repeated.

〔発明の作用・効果〕[Functions and effects of the invention]

以上のように、走行機体に搭載した撮像手段にて得ら
れた画像データを撮像画面全体にわたって2値化処理す
るのに比べ、いわゆるウインドウ画像区域という、撮像
画面の一部のみ2値化処理するので、その処理時間、ひ
いては未刈取り地と既刈取り地との境界線の決定に至ま
での処理時間を短縮させることができる。
As described above, binarization processing is performed only on a part of the imaging screen, that is, a so-called window image area, as compared with binarization processing of image data obtained by imaging means mounted on the traveling body over the entire imaging screen. Therefore, it is possible to shorten the processing time, and furthermore, the processing time required to determine the boundary between the uncut area and the already-cut area.

そして、そのウインドウ画像区域を撮像画面中の位置
として固定するのではなく、前回決定した境界線を基準
にして左右に所定幅を取ってウインドウ画像区域とする
ように更新して設定するので、境界線が撮像画面の左右
いずれの方向にずれても見失うというおそれもないとい
う効果を奏する。
Then, instead of fixing the window image area as a position in the imaging screen, the window image area is updated and set so as to take a predetermined width to the left and right with respect to the previously determined boundary line as the window image area. There is an effect that there is no possibility that the line will be lost even if the line is displaced in the left or right direction of the imaging screen.

さらに、2値化処理するのに必要な2値化しきい値決
定用のサンプリング領域を、前記ウインドウ画像区域の
うち、境界線から未刈取り地側に向かって所定幅に相当
する画像区域を除いた領域とするので、換言すれば、未
刈取り地側の区域において境界線に近い側のウインドウ
画像区域を外し、境界線から遠い側の未仮取り地側のウ
インドウ画像区域をサンプリング領域とするのだから、
未刈取り地として確実に存在する個所の画像データから
2値化しきい値決定のためのデータを得ることができ、
境界線を正確に得ることができる。
Further, the sampling area for determining the binarization threshold value necessary for the binarization processing is obtained by removing an image area corresponding to a predetermined width from the boundary line toward the uncut area from the window image area. In other words, the window image area on the side near the boundary is removed from the uncut area, and the window image area on the unprovisioned area far from the boundary is used as the sampling area. ,
It is possible to obtain data for determining a binarization threshold value from image data of a location that is definitely present as an uncut area,
The boundary line can be obtained accurately.

これらの結果、農作業機の自動操舵を迅速且つ的確に
実行できる効果を奏する。
As a result, there is an effect that the automatic steering of the agricultural work machine can be executed quickly and accurately.

【図面の簡単な説明】[Brief description of the drawings]

第1図はコンバインの平面図、第2図は側面図、第3図
は撮像範囲を示す平面図、第4図は制御装置のブロック
図、第5図は第3図の撮像範囲に対するウインドウ画像
区域の説明図、第6図は実施例における撮像範囲の平面
図、第7図は第6図の撮像範囲に対するウインドウ画像
区域及びサンプリング領域の説明図、第8図は撮像手段
と被検出平面との関係を示す説明図、第9図はフローチ
ャートである。 1……コンバイン、2……走行機体、15……刈取部、24
……撮像手段、25……穀稈、29……画像処理プロセッ
サ、30……中央制御装置、36……撮像画面、37……被検
出平面。
1 is a plan view of the combine, FIG. 2 is a side view, FIG. 3 is a plan view showing an imaging range, FIG. 4 is a block diagram of a control device, and FIG. 5 is a window image for the imaging range in FIG. FIG. 6 is a plan view of an imaging range in the embodiment, FIG. 7 is an explanatory diagram of a window image area and a sampling area with respect to the imaging range of FIG. 6, and FIG. And FIG. 9 is a flowchart. 1 ... combine, 2 ... traveling body, 15 ... reaper, 24
... Imaging means 25 cereal stem 29 image processing processor 30 central control device 36 imaging screen 37 detected plane.

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】コンバイン等の収穫機に搭載した二次元撮
像手段にて当該収穫機による進行方向前方の未刈取り地
と既刈取り地とにわたって適宜時間間隔ごとまたは適宜
前進距離ごとに撮像し、該撮像手段にて得られた画像デ
ータを画像メモリに記憶した後、2値化処理して前記未
刈取り地と既刈取り地との境界線を決定する画像処理方
法において、撮像手段による撮像画面中の2値化処理す
べき領域を、前回決定した境界線を基準にしてその左右
両側に所定距離の幅に相当するウインドウ画像区域にな
るように逐次更新すると共に、未刈取り地を判別するた
めの2値化しきい値決定用サンプリング領域を、前記ウ
インドウ画像区域のうちの未刈取り地側において前回決
定した境界線から未刈取り地に向かって所定幅に相当す
る画像区域を除く範囲となるように逐次更新することを
特徴とする収穫機の操舵制御における画像処理方法。
1. A two-dimensional image pickup means mounted on a harvester such as a combiner takes an image at an appropriate time interval or an appropriate advance distance over an uncut area and an already-cut area ahead of the harvester in the traveling direction. In an image processing method for storing image data obtained by an imaging unit in an image memory and then performing a binarization process to determine a boundary between the uncut area and the already-cut area, The area to be binarized is sequentially updated so as to be a window image area corresponding to a width of a predetermined distance on both the left and right sides with reference to the previously determined boundary line. The sampling region for determining the threshold value threshold is excluded from the window image area excluding the image area corresponding to a predetermined width from the previously determined boundary line to the uncut area on the uncut area. The image processing method in the steering control of the harvester, characterized in that successively updates so that enclose.
JP1151299A 1989-06-14 1989-06-14 Image processing method for harvester steering control Expired - Fee Related JP2740265B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1151299A JP2740265B2 (en) 1989-06-14 1989-06-14 Image processing method for harvester steering control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1151299A JP2740265B2 (en) 1989-06-14 1989-06-14 Image processing method for harvester steering control

Publications (2)

Publication Number Publication Date
JPH0319606A JPH0319606A (en) 1991-01-28
JP2740265B2 true JP2740265B2 (en) 1998-04-15

Family

ID=15515649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1151299A Expired - Fee Related JP2740265B2 (en) 1989-06-14 1989-06-14 Image processing method for harvester steering control

Country Status (1)

Country Link
JP (1) JP2740265B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0684027U (en) * 1993-05-17 1994-12-02 伊東電機株式会社 Torque limiter
KR101110272B1 (en) * 2008-12-08 2012-02-15 (주)이코시스 Paving block
JP6716910B2 (en) * 2015-12-25 2020-07-01 井関農機株式会社 Autonomous traveling system for work vehicles

Also Published As

Publication number Publication date
JPH0319606A (en) 1991-01-28

Similar Documents

Publication Publication Date Title
RU2361381C2 (en) Method and automatic control system of agricultural machinery, harvester and machine for tilling
RU2747303C2 (en) System for controlling the working parameter of a harvester
EP3841859A1 (en) Harvester, surrounding conditions detection system, surrounding conditions detection program, recording medium in which surrounding conditions detection program is recorded, and surrounding conditions detection method
EP2368419B1 (en) A method of detecting a structure in a field, a method of steering an agricultural vehicle and an agricultural vehicle
CN113727597A (en) Agricultural machinery such as harvester
JP2740265B2 (en) Image processing method for harvester steering control
JP2944774B2 (en) Image processing method for automatic traveling work machine
JP2022002475A (en) Harvester
JP7423441B2 (en) harvester
CN116437801A (en) Work vehicle, crop state detection system, crop state detection method, crop state detection program, and recording medium having recorded the crop state detection program
JP2023040743A (en) harvester
JP2795454B2 (en) Boundary detection method using color information
JP7558112B2 (en) Crop collection machine
JP2024089982A (en) Harvesting vehicle
JP2944773B2 (en) Image processing method for automatic traveling work machine
JP2513374Y2 (en) Harvester automatic steering device
JP7423440B2 (en) harvester
JPH082730Y2 (en) Harvester automatic steering device
JPH02110605A (en) Image processing method for automatic steering control of automatic traveling work equipment
JPH02236681A (en) Picture processing method
JP3812029B2 (en) Depth control device for combine etc.
JP2855339B2 (en) Combine
JPH02242406A (en) Corner detection device for unworked areas in agricultural machinery
JPH02110604A (en) Binarization processing device for image information in automatic steering control of automatically operated work equipment
JP2000166357A (en) Lodging culm row detector

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees