JP2018001115A - Potato determination device and potato selector - Google Patents
Potato determination device and potato selector Download PDFInfo
- Publication number
- JP2018001115A JP2018001115A JP2016133664A JP2016133664A JP2018001115A JP 2018001115 A JP2018001115 A JP 2018001115A JP 2016133664 A JP2016133664 A JP 2016133664A JP 2016133664 A JP2016133664 A JP 2016133664A JP 2018001115 A JP2018001115 A JP 2018001115A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- potato
- acquired
- comparison
- curvature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Investigating Or Analysing Materials By Optical Means (AREA)
- Sorting Of Articles (AREA)
Abstract
Description
本発明は、芋判断装置及び芋選別装置に関するものである。 The present invention relates to a wrinkle determination device and a wrinkle sorting device.
圃場から収穫機(ハーベスター)を用いて馬鈴薯(ジャガイモ)を収穫すると、馬鈴薯以外に石や土塊などの異物も同時に収穫される。収穫された馬鈴薯を貯蔵したり、運搬するためには、収穫された馬鈴薯から異物を除去する必要がある。なお、以下では、馬鈴薯について説明するが、サツマイモ等の他の芋についても同様である。 When potatoes are harvested from the field using a harvester (harvester), foreign matter such as stones and soil blocks are also harvested in addition to potatoes. In order to store or transport the harvested potato, it is necessary to remove foreign matter from the harvested potato. In the following, potato is described, but the same applies to other potatoes such as sweet potatoes.
下記の特許文献1では、落下する物体に対して方向転換デバイスを接触させて、物体の落下軌道を変更することが可能な装置が開示されている。この装置は、物体を光学的に走査して得られた判別結果に基づいて、方向変換デバイスの位置を調整することで、物体を品質別に選別したり異物を除去したりする。
馬鈴薯を異物と区別する技術として、光学的な処理を行うことが一般的に行われているが、この場合、表面が土に覆われている状態で、馬鈴薯を異物と確実に区別することが求められている。 As a technique for distinguishing potatoes from foreign substances, optical processing is generally performed. In this case, it is possible to reliably distinguish potatoes from foreign substances while the surface is covered with soil. It has been demanded.
圃場から収穫された馬鈴薯や石は、表面が土に覆われているため、石が馬鈴薯の形状に近似している場合、全体形状、表面の色に基づいて、両者を区別することが困難である。また、馬鈴薯は、球形に近い形、一方向に長い形、中間部分がくびれた形など様々な形状を有しており、馬鈴薯は、石以外の人工物や茎などの異物と区別することが難しい場合もある。 Since potatoes and stones harvested from the field are covered with soil, it is difficult to distinguish between them based on the overall shape and surface color when the stones approximate the shape of potatoes. is there. In addition, potatoes have various shapes such as a shape close to a sphere, a shape that is long in one direction, and a shape with a narrowed middle part, and potatoes can be distinguished from foreign objects such as artifacts and stems other than stones. It can be difficult.
本発明は、このような事情に鑑みてなされたものであって、対象物が芋であるか否かの判断において判断精度を向上させることが可能な芋判断装置及び芋選別装置を提供することを目的とする。 The present invention has been made in view of such circumstances, and provides a wrinkle determination device and a wrinkle sorting device capable of improving the determination accuracy in determining whether or not an object is a wrinkle. With the goal.
上記課題を解決するために、本発明の芋判断装置及び芋選別装置は以下の手段を採用する。
すなわち、本発明に係る芋判断装置は、対象物を撮像する撮像部と、前記対象物に所定の波長の光を照射する照射部と、前記撮像部で撮像されて取得された前記対象物の画像データに基づいて、前記対象物のテクスチャに関する特徴量を抽出する特徴抽出部と、芋の画像データに関する基本特徴量が予め記録された第1記憶部と、抽出された前記特徴量と前記基本特徴量を比較する第1比較部と、前記対象物にて反射した光を受光し、受光した光に基づく前記波長の輝度情報を取得する輝度情報取得部と、芋にて反射した光に基づく前記波長の基本輝度情報が予め記録された第2記憶部と、取得された前記対象物の前記輝度情報と前記基本輝度情報を比較する第2比較部と、前記第1比較部及び前記第2比較部における比較結果に基づいて、前記対象物が芋であるか否かを判断する判断部とを備える。
In order to solve the above-mentioned problems, the bag judging device and the bag sorting device of the present invention employ the following means.
That is, the wrinkle determination device according to the present invention includes an imaging unit that captures an image of an object, an irradiation unit that irradiates the object with light having a predetermined wavelength, and an object captured and acquired by the imaging unit. Based on image data, a feature extraction unit that extracts a feature amount related to the texture of the object, a first storage unit in which a basic feature amount related to the eyelid image data is recorded in advance, the extracted feature amount and the basic feature Based on a first comparison unit that compares feature amounts, a luminance information acquisition unit that receives light reflected by the object, acquires luminance information of the wavelength based on the received light, and light reflected by the eyelid A second storage unit in which basic luminance information of the wavelength is recorded in advance; a second comparing unit that compares the acquired luminance information of the object with the basic luminance information; the first comparing unit and the second comparing unit; Based on the comparison result in the comparison unit, Serial object and a determining section for determining whether the potatoes.
上記発明において、前記照射部は、前記対象物に波長の異なる複数の光を順次照射し、前記輝度情報取得部は、前記波長ごとの前記輝度情報を取得し、前記第2記憶部は、前記波長ごとの基本輝度情報を予め記録し、前記第2比較部は、取得された前記対象物の前記輝度情報と前記基本輝度情報を前記波長ごとに比較してもよい。 In the above invention, the irradiation unit sequentially irradiates the object with a plurality of lights having different wavelengths, the luminance information acquisition unit acquires the luminance information for each wavelength, and the second storage unit Basic luminance information for each wavelength may be recorded in advance, and the second comparison unit may compare the acquired luminance information of the object and the basic luminance information for each wavelength.
上記発明において、前記特徴抽出部は、Local Binary Patternを用いて前記対象物のテクスチャに関する特徴量を抽出してもよい。 In the above invention, the feature extraction unit may extract a feature amount related to the texture of the object using a Local Binary Pattern.
上記発明において、前記輝度情報取得部は、前記輝度情報として、前記対象物の画像データにおける輝度の平均値又は分散値を算出してもよい。 In the above invention, the luminance information acquisition unit may calculate an average value or a variance value of luminance in the image data of the object as the luminance information.
上記発明において、前記撮像部で撮像されて取得された前記対象物の画像データに基づいて、前記対象物の輪郭形状を抽出し曲率情報を取得する曲率情報取得部と、芋の画像データに関する基本曲率情報が予め記録された第3記憶部と、取得された前記曲率情報と前記基本曲率情報を比較する第3比較部とを更に備えてもよく、前記判断部は、前記第1比較部、前記第2比較部及び前記第3比較部における比較結果に基づいて、前記対象物が芋であるか否かを判断してもよい。 In the above invention, a curvature information acquisition unit that extracts a contour shape of the target object and acquires curvature information based on the image data of the target object captured and acquired by the imaging unit; It may further include a third storage unit in which curvature information is recorded in advance, and a third comparison unit that compares the acquired curvature information with the basic curvature information, and the determination unit includes the first comparison unit, Based on the comparison results in the second comparison unit and the third comparison unit, it may be determined whether or not the object is a bag.
上記発明において、前記曲率情報取得部は、前記輪郭形状上の所定長さ毎の曲率を算出し、前記曲率情報として、算出された前記曲率ごとの頻度を算出してもよい。 In the above invention, the curvature information acquisition unit may calculate a curvature for each predetermined length on the contour shape, and calculate a frequency for each calculated curvature as the curvature information.
本発明に係る芋選別装置は、上述の芋判断装置と、前記芋判断装置で判断された結果に基づいて、前記対象物を選別する選別部とを備える。 A wrinkle sorting apparatus according to the present invention includes the above-described wrinkle determination apparatus and a sorting unit that sorts the object based on a result determined by the wrinkle determination apparatus.
本発明によれば、対象物が芋であるか否かの判断において判断精度を向上させることができる。 According to the present invention, it is possible to improve the determination accuracy in determining whether or not an object is a bag.
[第1実施形態]
以下、本発明の第1実施形態に係る馬鈴薯選別装置1について説明する。
本発明の第1実施形態に係る馬鈴薯選別装置1は、収穫され貯蔵された多数の馬鈴薯に混在している異物と、馬鈴薯とを選別する装置である。異物としては、石、土塊、人工物、茎、木片、貝殻などがある。馬鈴薯選別装置1は、異物や馬鈴薯の表面に土が付着したままの状態で、異物と馬鈴薯を選別できる。
[First Embodiment]
Hereinafter, the potato sorting
The potato sorting
馬鈴薯選別装置1は、搬送された馬鈴薯などの物体を自由落下させ、落下中の物体に選別板6を当てて、物体の落下軌道を変更する。馬鈴薯選別装置1は、落下中の物体が馬鈴薯である否かを光学的に判断して、判断結果に基づいて選別板6の位置を調整し、馬鈴薯の場合と異物の場合とで落下軌道を異ならせる。これにより、馬鈴薯選別装置1は、馬鈴薯と異物を異なる場所へ分配できる。
The
馬鈴薯選別装置1は、図1に示すように、搬送部2と、光学部3と、制御部4と、選別部5などからなる。なお、光学部3と制御部4によって、本発明に係る芋判断装置が構成される。
As shown in FIG. 1, the
搬送部2は、例えばある一定以上の幅を有するコンベヤーであり、物体を一端部から他端部にかけて一方向へ搬送し、他端部から物体を落下させる。搬送部2の一端部に複数の物体が連続的又は断続的に供給されると、搬送部2による搬送中に物体間の位置が均される。搬送部2は、例えば、馬鈴薯数個から10数個分程度の幅を有することから、搬送部2の他端部からは、複数個の物体がほぼ同時に落下される。
The
また、物体の落下が一定間隔を空けて行われるように、搬送部2では、搬送方向の物体の間隔が搬送部2に設けられた仕切板(図示せず。)によって調整される。仕切板は、搬送部2のベルトなどに設置され、搬送方向に移動可能である。搬送方向で隣り合う仕切板の間に、搬送方向に1個ずつ物体が収容されることで、他端部からの物体の落下が一定間隔を空けて行われる。
Further, in the
選別部5は、搬送部2の幅とほぼ同じ幅を有し、複数の選別板6が幅方向に設置される。選別部5の選別板6は、アクチュエータ7によって、物体の落下軌道に位置したり、軌道外に位置したりと、設置位置が変更可能である。選別板6が、物体の落下軌道上に位置するとき、物体を跳ねて、物体の落下軌道を変更させる。一方、選別板6が物体の落下軌道外に位置するとき、物体の落下軌道を変更させずに、そのまま下方へ物体を落下させる。これにより、選別部5は、物体を2方向へ分配できる。
The
例えば、物体が馬鈴薯であると判断されたとき、選別板6が落下軌道外に位置して、物体をそのまま落下させることができる。反対に、馬鈴薯以外の異物であると判断されたとき、選別板6が落下軌道上に位置して、異物を跳ね、跳ねた先の場所に馬鈴薯を落下させることができる。落下先では、図1に示すように、物体をコンベヤー10に載せて別の場所へ搬送してもよいし、籠などに物体を収納してもよい。
For example, when it is determined that the object is a potato, the
選別部5の選別板6は、一端近傍が回転可能に固定されて、選別板6が軸周りに回転することで、選別板6の板面が、物体の落下軌道上に位置したり、落下軌道外に位置したりする。
The
選別部5の各選別板6の幅は、馬鈴薯1個分以下である。馬鈴薯選別装置1は、搬送部2の他端部から落下した物体の位置を検出し、検出された落下位置に対応する場所に配置された選別板6が、馬鈴薯であるか否かの判断結果に基づいて移動する。複数個の物体が幅方向に同時に落下し、物体毎に判断結果が異なる場合でも、各選別板6が個別に動作を行うため、物体毎に落下軌道を異ならせることができる。制御部4の選別制御部12(図4参照)から受信する駆動信号に基づいてアクチュエータ7が駆動し、その結果、各選別板6の位置が変更される。
The width of each
選別部5は、上下方向に複数段(例えば2段以上)設けられてもよい。選別部5が上下方向に2段設置される場合、落下する物体を3方向へ分配できる。例えば、馬鈴薯であるか否かによって2方向に分配するだけでなく、馬鈴薯であると判断された場合に品質の良否で更に2方向に分配して、合計3方向に分配することができる。
The
光学部3は、例えば、ラインスキャンカメラ8と、LED照明部9などからなる。光学部3は、外部の光が入らない遮光空間に設置される。落下中の物体は、遮光空間を通過中に、LED照明部9によって光が照射されて、ラインスキャンカメラ8は、物体で反射した光のみを受光する。
The
ラインスキャンカメラ8は、落下中の物体を撮影し、撮影によって取得された画像データを制御部4へ送信する。ラインスキャンカメラ8は、互いに対向した2台が1対となって設置され、向かい合う2方向から物体を撮影する。これにより、一つの物体の全面を撮影できるため、馬鈴薯であるか否かの判断や、馬鈴薯の品質の判断を精度良く行うことができる。なお、ラインスキャンカメラ8は、必ずしも対で設置される必要はなく、ラインスキャンカメラ8を1台のみ設置して、1方向のみから物体を撮影してもよい。この場合、ラインスキャンカメラ8は、一つの物体の片面のみを撮影することになる。片面のみ撮影した場合と両面を撮影した場合の選別結果に差がない場合は、簡易な構成で本発明を実現できる。
The
LED照明部9は、落下中の物体に対し、所定の波長を有する光を照射する。ラインスキャンカメラ8は、LED照明部9が照射し、物体で反射した所定の波長の光を受光する。
The
LED照明部9は、互いに対向した2台が1対又は4台が2対となって設置され、向かい合う2方向から物体に同一波長の光を照射する。これにより、一つの物体の全面に同一波長の光を照射できる。なお、LED照明部9は、必ずしも対で設置される必要はなく、ラインスキャンカメラ8が1台のみ設置される場合、LED照明部9は、物体に対して1方向からのみ光を照射するように物体に対して片側のみに設置されてもよい。
The
1対のLED照明部9は、異なる波長の光を照射するように複数種類のLEDをそれぞれ備えてもよい。LED照明部9が、複数種類の波長の光を照射することで、馬鈴薯であるか否かの判断や、馬鈴薯の品質の判断を精度良く行うことができる。
The pair of
複数種類のLEDが設けられる場合、図2に示すタイミングチャートのように、LED照明部9は、異なる波長の光を時分割で順次照射する。LED照明部9による異なる波長の光の点灯と、ラインスキャンカメラ8の撮像素子におけるラインごとの走査は、同期している。点灯制御部23は、制御部4から受信するラインスキャンカメラ8のラインごとの走査タイミングに基づいて、LED照明部9による異なる波長の光の点灯を行う。ラインスキャンカメラ8の撮像素子は、LED照明部9の点灯に対応して、ラインごとに所定の波長の光を受光する。その結果、ラインスキャンカメラ8は、異なる波長の光を反射した物体の画像データを、複数種類の波長ごとに取得できる。
When a plurality of types of LEDs are provided, the
たとえば、LED照明部9が、それぞれ照射する波長が異なる4種類のLEDを備える場合、4種類の波長の光を反射した物体の画像データを取得できる。すなわち、4種類の波長ごとの画像データが得られる。
For example, when the
図3に示すように、複数のラインを備える撮像素子20において、上から、第1の波長の光を受光する第1のライン、第2の波長の光を受光する第2のライン、第3の波長の光を受光する第3のライン、・・・と予め割り当てておく。そして、例えば、第1の波長の光が照射されている間、第1のラインで受光した光に基づく輝度情報が取得され、次に、第2の波長の光が照射されている間、第2のラインで受光した光に基づく輝度情報が取得される。以下同様に、各波長の光ごとに輝度情報が取得される。
As shown in FIG. 3, in the
第1〜第4のラインを1段としたとき、図3に示す例では、撮像素子20は、合計10段40ラインを有する。1段目〜10段目の第1のラインが同時に輝度情報が取得され、次に、1段目〜10段目の第2のラインが同時に輝度情報が取得される。その後、1段目〜10段目の第3のライン、1段目〜10段目の第4のラインの輝度情報が取得される。
When the first to fourth lines are one stage, in the example illustrated in FIG. 3, the
また、各ライン間の撮影タイミングの間隔(ラインクロック)の分、物体が移動しているため、撮像素子20における各ラインの高さは、物体の落下速度と、ラインクロックを考慮して、決定されている。各ライン間の撮影タイミングの間隔に、物体が撮像素子20の面内方向でAmm移動する場合、1ラインの高さはAmmに決定される。これにより、異なる波長の光を受光する各ラインは、高さ方向の位置が異なるが、物体の同一位置を撮影できる。
In addition, since the object is moved by the shooting timing interval (line clock) between each line, the height of each line in the
LED照明部9から照射される光の所定の波長は、例えば、450nmから1000nmの範囲にあるいずれかの波長である。LED照明部9が照射する光の波長は、例えば、馬鈴薯と異物の反射特性の違いが大きく表れる波長が選択される。一般的に、馬鈴薯又は想定される異物が反射しやすい波長の光又は吸収しやすい波長の光が存在するため、これらを予め特定することによって、LED照明部9が照射する光の波長を選択できる。
The predetermined wavelength of light emitted from the
なお、LED照明部9は、1種類のLEDのみを備えて、単波長の光を照射する構成としてもよいし、複数種類の波長の光を照射する場合、2種類、3種類又は5種類以上の波長の光を照射してもよい。これらの場合もラインスキャンカメラ8の撮像素子は、LED照明部9の点灯に対応して、ラインごとに所定の波長の光を受光する。
In addition, the
制御部4は、図4に示すように、画像処理部11と、選別制御部12などを備える。
As shown in FIG. 4, the
画像処理部11は、図4に示すように、位置・大きさ特定部13と、テクスチャ特徴量抽出部14と、輝度情報取得部15と、記憶部16と、第1比較部17と、第2比較部18と、判断部19などを備える。
As shown in FIG. 4, the
位置・大きさ特定部13は、ラインスキャンカメラ8で取得された画像データに基づいて、落下中の物体の位置や大きさを特定する。位置・大きさ特定部13は、例えば、物体の位置及び大きさを座標で特定し、特定された結果を選別制御部12へ送る。
The position /
テクスチャ特徴量抽出部14は、ラインスキャンカメラ8で撮像されて取得された物体の画像データに基づいて、物体のテクスチャに関する特徴量を抽出する。これにより、物体のテクスチャ、すなわち、物体表面の模様に基づいて、取得された画像データが馬鈴薯であるか否かを判断することができる。馬鈴薯表皮は、特有の斑点や芽の窪み等を有し、他の物質には見られない特徴を有していることから、その特徴を利用して、馬鈴薯と異物を識別する。
The texture feature
テクスチャに関する特徴量の抽出は、例えば、Local Binary Pattern(LBP)を改良した回転不変性を有する回転不変LBPを用いて行われる。LBPでは、まず、中心画素値と周辺画素値の大小を比較し、大小を0又は1で記録する。3画素×3画素を基本単位とする場合、中心画素値と周辺画素値の大小の比較によって8つの比較結果が得られ、その8つの比較結果を並べて8ケタの2進数を取得する。そして、8ケタの2進数を10進数に変換すると、0から255までの10進数が得られる。これを取得された物体の入力画像の全ての画素に適用すると、入力画像の階調数に関わらず、LBPによって取得される画像は、256階調の画像になる。その結果、入力画像は、256階調グレースケール画像へ正規化される。 The extraction of the feature quantity related to the texture is performed using, for example, a rotation invariant LBP having rotation invariance improved from the Local Binary Pattern (LBP). In the LBP, first, the central pixel value and the peripheral pixel value are compared, and the magnitude is recorded as 0 or 1. When 3 pixels × 3 pixels are used as a basic unit, eight comparison results are obtained by comparing the central pixel value and the peripheral pixel value, and the eight comparison results are arranged to obtain an 8-digit binary number. Then, when the 8-digit binary number is converted into a decimal number, a decimal number from 0 to 255 is obtained. When this is applied to all the pixels of the input image of the acquired object, the image acquired by LBP becomes an image of 256 gradations regardless of the number of gradations of the input image. As a result, the input image is normalized to a 256 gray scale image.
LBPを用いることで、ラインスキャンカメラ8で取得された画像における輝度値の大小に関わらず、テクスチャが同一又は近似である場合、同一の特徴量又は近似した特徴量が取得可能である。また、LBPでは、3画素×3画素を基本単位として、画素間の数値の大小比較と、2進数から10進数への変換が主な計算であるため、高速処理を実現できる。
By using the LBP, the same feature amount or the approximate feature amount can be acquired when the texture is the same or approximate regardless of the magnitude of the luminance value in the image acquired by the
なお、テクスチャに関する特徴量の抽出は、画像処理において一般的に用いられる手法を適用でき、LBP以外の手法でもよい。 Note that a feature generally used in image processing can be applied to the extraction of the feature amount related to the texture, and a method other than LBP may be used.
テクスチャに関する特徴が抽出された画像データ(LBPの場合、256階調グレースケールの画像データ)に基づいて特徴量が得られると、その特徴量は、第1比較部17によって、予め記憶部16に記録された基本特徴量と比較される。基本特徴量は、例えば、画像処理のパターン学習で取得されたデータである。本実施形態の場合、複数の馬鈴薯に関する画像データに基づいて、予め基本特徴量を取得しておく。例えば、画像処理のパターン学習において、予め取得した多数の馬鈴薯の画像に対して、回転不変LBPを用いて特徴量を抽出し、抽出された特徴量に基づいて、特徴の似た馬鈴薯のデータをクラス分けし、それぞれのクラスの平均ベクトルを算出しておく。なお、予め取得する複数の馬鈴薯の画像データにおける馬鈴薯は、実際に選別が行われる馬鈴薯と同一の状態、例えば、表面に土が付着した状態である。
When a feature amount is obtained based on image data from which texture-related features are extracted (in the case of LBP, image data of 256 gray scales), the feature amount is stored in advance in the
第1比較部17は、選別時にラインスキャンカメラ8で取得された物体の画像データに基づいてテクスチャ特徴量抽出部14によって取得された特徴量と、予め記憶部16に記録された基本特徴量とを比較する。この比較は、例えば、選別時に取得された特徴量から構成される特徴ベクトルと、予め記録された基本特徴量から構成される各クラスの平均ベクトル(256次元)との間の距離の算出である。取得された特徴ベクトルと平均ベクトルとの間の距離は、ユークリッド距離による距離によって求められる。距離が短いほうが、基本特徴量に近似している、すなわち馬鈴薯に近似しているデータであると判断できる。一方、距離が所定の閾値を超えた場合、異物であると判断できる。
The
また、第1比較部17は、所定の閾値と、算出された距離とを比較する。第1比較部17は、算出された距離が所定の閾値以下であるか否かの結果を判断部19へ送る。
Further, the
本実施形態では、予め取得された馬鈴薯の画像データに基づいて、予め複数のクラスが生成されて、各クラスの平均ベクトルが求められている。そして、選別時に取得された特徴量から構成される特徴ベクトルが、それらの各平均ベクトルと比較される。本実施形態と異なり、複数のクラスを生成せず、一つの平均ベクトルのみを求める場合、馬鈴薯自体にばらつきがあることから、選別時に取得された特徴ベクトルが、この一つの平均ベクトルと比較される場合、馬鈴薯に近い特徴量を有する異物を識別することが困難である。一方、本実施形態のように、複数のクラスに対してそれぞれ平均ベクトルを求め、選別時に取得された特徴ベクトルが、複数の平均ベクトルと比較されることによって、馬鈴薯に近い特徴量を有する異物に対しても、精度良く識別することが可能となる。 In the present embodiment, a plurality of classes are generated in advance based on potato image data acquired in advance, and an average vector of each class is obtained. And the feature vector comprised from the feature-value acquired at the time of a selection is compared with each of those average vectors. Unlike this embodiment, when only one average vector is obtained without generating a plurality of classes, since the potatoes themselves vary, the feature vector acquired at the time of selection is compared with this one average vector. In this case, it is difficult to identify a foreign object having a feature amount close to that of a potato. On the other hand, as in this embodiment, an average vector is obtained for each of a plurality of classes, and a feature vector acquired at the time of selection is compared with a plurality of average vectors, so that a foreign object having a feature amount close to potato can be obtained. In contrast, it is possible to identify with high accuracy.
輝度情報取得部15は、ラインスキャンカメラ8で撮像されて取得された物体の画像データに基づいて、物体の画像データの輝度データを取得する。そして、輝度情報取得部15は、輝度データに基づいて、物体の画像データの輝度の平均値及び分散値(輝度情報)を算出し取得する。なお、画像データの輝度の頻度は、縦軸に頻度をとり横軸に輝度値をとるヒストグラムで表すことができる。
The luminance
LED照明部9が照射する複数種類の波長ごとに画像が得られることから、輝度情報取得部15は、各波長ごとの輝度データ(分光反射強度)を取得できる。そして、各波長ごとに画像データの輝度の平均値及び標準偏差を算出する。たとえば、LED照明部9が、それぞれ照射する波長が異なる4種類のLEDを備える場合、4種類の波長ごとの画像が得られ、それぞれに平均値と、平均値及び分散値に基づく標準偏差が算出され取得される。すなわち、この場合、8要素のデータが得られる。なお、8要素のデータは、各波長の画像における物体表面の輝度の平均値と標準偏差ではなく、平均値と分散値でもよい。そして、8要素からなる特徴ベクトルが構成される。
Since an image is obtained for each of a plurality of types of wavelengths irradiated by the
これにより、物体が反射する特定の波長の光を受光して撮像された画像データの輝度情報に基づいて、取得された画像データが馬鈴薯であるか否かを判断することができる。 Thereby, it is possible to determine whether or not the acquired image data is a potato, based on the luminance information of the image data captured by receiving light of a specific wavelength reflected by the object.
波長ごとの画像データに基づいてそれぞれに平均値及び標準偏差が算出されると、それらの平均値及び標準偏差は、第2比較部18によって、予め記憶部16に記録された波長ごとの基本平均値及び基本標準偏差と比較される。基本平均値又は基本標準偏差は、例えば、画像処理のパターン学習で取得されたデータである。本実施形態の場合、複数の馬鈴薯に関する画像データの輝度データに基づいて、予め基本平均値又は基本標準偏差を取得しておく。例えば、画像処理のパターン学習において、予め取得した多数の馬鈴薯の画像の輝度データに対して、平均値及び標準偏差を算出し、算出された平均値及び標準偏差に基づいて、特徴の似た馬鈴薯のデータをクラス分けし、それぞれのクラスの平均ベクトルを算出しておく。なお、予め取得する複数の馬鈴薯の画像データにおける馬鈴薯は、実際に選別が行われる馬鈴薯と同一の状態、例えば、表面に土が付着した状態である。
When the average value and the standard deviation are calculated based on the image data for each wavelength, the average value and the standard deviation are calculated by the
第2比較部18は、選別時に波長ごとの画像データに基づいて算出された平均値と、予め記憶部16に記録された基本平均値とを比較し、また、波長ごとの画像データに基づいて算出された標準偏差と、予め記憶部16に記録された基本標準偏差とを比較する。この比較は、選別時に取得された平均値と標準偏差から構成される特徴ベクトルと、予め記録された基本平均値及び基本標準偏差から構成される各クラスの平均ベクトルとの間の距離の算出である。取得された特徴ベクトルと平均ベクトルとの間の距離は、マハラノビス距離による距離によって求められる。距離が短いほうが、基本平均値及び基本標準偏差に近似している、すなわち馬鈴薯に近似しているデータであると判断できる。一方、距離が所定の閾値を超えた場合、異物であると判断できる。
The
また、第2比較部18は、所定の閾値と、算出された距離とを比較する。第2比較部18は、算出された距離が所定の閾値以下であるか否かの結果を判断部19へ送る。
Further, the
判断部19は、第1比較部17と第2比較部18における比較結果に基づいて、撮影された物体が馬鈴薯であるか否かを判断する。
The
判断部19は、第1比較部17において、算出された距離が所定の閾値よりも小さいという結果が得られ、かつ、第2比較部18において、算出された距離が所定の閾値以下であるという結果が得られた場合、ラインスキャンカメラ8で取得された物体の画像データは、馬鈴薯に関する画像データであると判断する。判断部19は、画像データが馬鈴薯に関する画像データであるか否かの判断結果を選別制御部12へ送る。
The
選別制御部12は、位置・大きさ特定部13において特定された落下している物体の位置及び大きさに基づいて、駆動させる選別板6の位置及び数を決定する。また、選別制御部12は、判断部19による馬鈴薯であるか否かの判断結果に基づいて、選別板6を物体の落下軌道上へ移動させたり、落下軌道外へ移動させたりする。すなわち、選別制御部12は、駆動させる選別板6の位置及び数を決定し、かつ、選別板6を物体の落下軌道上へ移動させたり、落下軌道外へ移動させたりする。
The sorting
次に、本実施形態に係る馬鈴薯選別装置1の動作について説明する。
図5は、本実施形態に係る馬鈴薯選別装置1の動作を示すフローチャートである。まず、搬送部2によって、馬鈴薯及び馬鈴薯以外の異物を含む物体が搬送されて、端部から物体が落下される(ステップS1)。なお、落下前に搬送部2に設けられた仕切板によって、搬送方向の物体の間隔が調整され、端部からの物体の落下が一定間隔を空けて行われる。
Next, the operation of the
FIG. 5 is a flowchart showing the operation of the
落下中に光学部3によって、所定の波長を有する光が照射されて、光が照射されているときに物体が撮像される(ステップS2)。そして、撮像結果に基づいて、物体が馬鈴薯であるか又は異物であるかが判断される(ステップS3)。
While falling, the
その後、物体が馬鈴薯であるか否かの判断結果と落下タイミングに応じて、選別部5の選別板6の位置が調整され、馬鈴薯の場合と異物の場合とで落下軌道を異ならせる(ステップS5)。このとき、落下している物体の位置及び大きさが特定され(ステップS4)、駆動させる選別板6の位置及び数も決定される。そして、落下している物体が選別板6に当たることにより、落下位置が変化する。その結果、馬鈴薯選別装置1は、馬鈴薯と異物を異なる場所へ分配できる。
Thereafter, the position of the
本実施形態において、物体が馬鈴薯であるか否かの判断は、テクスチャに関する特徴量と、反射光の波長に基づく輝度情報によって行われる。図6は、本実施形態に係る馬鈴薯選別装置1の制御部4の動作を示すフローチャートである。まず、ラインスキャンカメラ8が物体を撮像した結果、画像データが取得される(ステップS11)。
In the present embodiment, the determination as to whether or not the object is a potato is made based on the feature information regarding the texture and the luminance information based on the wavelength of the reflected light. FIG. 6 is a flowchart showing the operation of the
テクスチャに関する特徴量については、まず、ラインスキャンカメラ8で撮像されて取得された物体の画像データに基づいて、物体のテクスチャに関する特徴量が抽出される(ステップS12)。この抽出は、例えば、回転不変Local Binary Pattern(LBP)を用いて行われる。特徴量が抽出されると、その特徴量は、第1比較部17によって、予め記憶部16に記録された基本特徴量と比較される(ステップS13)。この比較は、まず、選別時に取得された特徴量から構成される特徴ベクトルと、予め記録された基本特徴量から構成される各クラスの平均ベクトル(256次元)との間の距離(例えばユークリッド距離)が算出され、次に、算出された距離が所定の閾値以下であるか否かが比較される。
Regarding the feature amount related to the texture, first, the feature amount related to the texture of the object is extracted based on the image data of the object captured and acquired by the line scan camera 8 (step S12). This extraction is performed using, for example, a rotation invariant Local Binary Pattern (LBP). When the feature amount is extracted, the feature amount is compared with the basic feature amount previously recorded in the
反射光の波長に基づく輝度情報については、まず、ラインスキャンカメラ8で撮像されて取得された物体の画像データに基づいて、物体の画像データの輝度データが取得される。そして、輝度データに基づいて、画像データの輝度の平均値及び分散値(輝度情報)が算出され取得される(ステップS14)。複数種類の波長ごとに画像が得られる場合、各波長ごとの輝度データが取得され、各波長ごとに画像データの輝度の平均値及び標準偏差が算出される。
As for the luminance information based on the wavelength of the reflected light, first, the luminance data of the image data of the object is acquired based on the image data of the object captured and acquired by the
算出された平均値及び標準偏差は、第2比較部18によって、予め記憶部16に記録された基本平均値及び基本標準偏差と比較される(ステップS15)。複数種類の波長ごとに画像が得られる場合、波長ごとの基本平均値及び基本標準偏差と比較される。この比較は、まず、選別時に取得された平均値と標準偏差から構成される特徴ベクトルと、予め記録された基本平均値及び基本標準偏差から構成される各クラスの平均ベクトルとの間の距離(例えばマハラノビス距離)が算出され、次に、算出された距離が所定の閾値以下であるか否かが比較される。
The calculated average value and standard deviation are compared with the basic average value and basic standard deviation recorded in advance in the
そして、第1比較部17と第2比較部18における比較結果に基づいて、撮影された物体が馬鈴薯であるか否かが判断される。すなわち、算出されたテクスチャに関する特徴量、輝度の平均値及び標準偏差が条件を満たすか否かが判断される(ステップS16)。
And based on the comparison result in the
テクスチャに関する特徴量に関し、第1比較部17で算出された距離が所定の閾値以下であるという結果が得られ、かつ、反射光の波長に基づく輝度情報に関し、第2比較部18で算出された距離が所定の閾値以下であるという結果が得られた場合、ラインスキャンカメラ8で取得された物体の画像データは、馬鈴薯に関する画像データであると判断される(ステップS17)。
With respect to the feature amount related to the texture, a result that the distance calculated by the
他方、第1比較部17で算出された距離が所定の閾値を超えている場合、又は、第2比較部18で算出された距離が所定の閾値を超えている場合は、ラインスキャンカメラ8で取得された物体の画像データは、馬鈴薯に関する画像データではなく、異物であると判断される(ステップS18)。
On the other hand, when the distance calculated by the
以上、本実施形態によれば、テクスチャに関する特徴量と、反射光の波長に基づく輝度情報によって、物体が馬鈴薯であるか否かの判断が行われる。テクスチャに関する特徴量だけで判断を行う場合、物体表面の模様が馬鈴薯に近似している物体(例えば、表面に土が付着した石など)が、馬鈴薯であると判断される可能性が高い。また、反射光の波長に基づく輝度情報だけで判断を行う場合、物体が反射する特定の波長の光が近似している物体が、馬鈴薯であると判断される可能性が高い。このように、いずれか一方では、馬鈴薯と異物とを区別できない場合があるが、本実施形態では、両方の条件を満たすときに馬鈴薯であると判断することによって、馬鈴薯と異物の選別精度を向上させることができる。 As described above, according to the present embodiment, whether or not an object is a potato is determined based on the texture-related feature amount and the luminance information based on the wavelength of the reflected light. When the determination is made based only on the feature amount related to the texture, there is a high possibility that an object whose pattern on the surface of the object approximates to potato (for example, a stone with soil attached to the surface) is a potato. In addition, when the determination is made based only on the luminance information based on the wavelength of the reflected light, there is a high possibility that the object that approximates the light of a specific wavelength reflected by the object is a potato. As described above, in some cases, potatoes and foreign substances may not be distinguished, but in the present embodiment, it is determined that a potato is a potato when both conditions are satisfied, thereby improving the sorting accuracy of potatoes and foreign substances. Can be made.
[第2実施形態]
以下、本発明の第2実施形態に係る馬鈴薯選別装置1について説明する。なお、以下では、第1実施形態と重複する構成要素及び作用効果については、詳細な説明を省略する。
上述した第1実施形態では、テクスチャに関する特徴量と、反射光の波長に基づく輝度情報によって、物体が馬鈴薯であるか否かの判断をする場合について説明したが、これらの二つの判断条件に追加して、別の判断条件を考慮して、物体が馬鈴薯であるか否かの判断をしてもよい。
例えば、本実施形態では、画像データにおける物体の境界の曲率を更に用いて、物体が馬鈴薯であるか否かの判断を行う。
[Second Embodiment]
Hereinafter, a
In the first embodiment described above, a case has been described in which whether or not an object is a potato is determined based on a texture-related feature amount and luminance information based on the wavelength of reflected light. However, in addition to these two determination conditions, Then, it may be determined whether or not the object is a potato in consideration of another determination condition.
For example, in this embodiment, it is determined whether the object is a potato by further using the curvature of the boundary of the object in the image data.
図7に示すように、本実施形態に係る制御部4の画像処理部11は、上述した第1実施形態に加えて、曲率情報取得部21と第3比較部22を更に備える。
As illustrated in FIG. 7, the
曲率情報取得部21は、ラインスキャンカメラ8で撮像されて取得された物体の画像データに基づいて、物体と背景の境界線、すなわち物体の輪郭形状を抽出し、輪郭形状上の所定長さ毎の曲率を算出する。物体の輪郭は、閉曲線を有し、外側に凸状の曲線部分は、正(プラス)の値となり、内側に凹んだ凹状の曲線部分は、負(マイナス)の値となり、直線に近い部分は0(ゼロ)に近い値となる。馬鈴薯の輪郭は、一般的に外側に凸状である部分が多くの割合を占め、所定長さごとの曲率は、正の値をとることが多い。また、馬鈴薯の輪郭は、輪郭に沿って曲率の変化が緩やかである。一方、石、植物の茎等の異物の輪郭は、直線で構成されていることが多く、輪郭に沿って曲率が正負に大きく変動する。なお、輪郭形状による異物識別は、馬鈴薯の表面に付着した土の影響を受けにくい。
The curvature
曲率情報取得部21は、算出された曲率について、算出された曲率の最大値を基準に正規化し、正規化された曲率ごとの頻度を累積(集計)する。そして、曲率情報取得部21は、曲率に関する頻度情報(曲率情報)を第3比較部22に送る。
The curvature
曲率に関する頻度情報が得られると、第3比較部22は、所定の閾値Tc(例えば0.07)以下の曲率の頻度が全体に対して占める割合を算出する。また、第3比較部は、所定の閾値Tc以下の曲率の頻度の全体に対する割合と、所定の閾値Tr%(例えば20%)とを比較する。所定の閾値Tc以下の曲率の頻度の全体に対する割合が、所定の閾値Tr%以下であれば、馬鈴薯である可能性が高く、所定の閾値Tc以下の曲率の頻度の全体に対する割合が、所定の閾値Tr%を超えていれば、異物である可能性が高い。
When the frequency information regarding the curvature is obtained, the
馬鈴薯は、石、植物の茎等の異物の場合と異なり、曲率が0(ゼロ)前後以下の割合が少ない。そのため、上述のように、所定の閾値Tcを0.07に設定し、所定の閾値Trを20%に設定することで、通常の馬鈴薯の場合だけでなく、馬鈴薯2個が連結して瓢箪型のように中央付近が窪んだ輪郭を有する場合にも、異物と判断されずに、馬鈴薯であると判断させることができる。 Unlike potatoes, foreign substances such as stones and plant stems, potatoes have a low curvature ratio of around 0 (zero). Therefore, as described above, by setting the predetermined threshold Tc to 0.07 and setting the predetermined threshold Tr to 20%, not only a normal potato but also two potatoes are connected to form a saddle type Even if the center has a concave outline, it is possible to determine that it is a potato without being determined as a foreign object.
判断部19は、第1比較部17と第2比較部18と第3比較部22における比較結果に基づいて、撮影された物体が馬鈴薯であるか否かを判断する。
The
判断部19は、第3比較部22において、所定の閾値Tc以下の曲率の頻度の全体に対する割合が、所定の閾値Tr%以下であるという結果が得られ、第1比較部17において、算出された距離が所定の閾値よりも小さいという結果が得られ、かつ、第2比較部18において、算出された距離が所定の閾値以下であるという結果が得られた場合、ラインスキャンカメラ8で取得された物体の画像データは、馬鈴薯に関する画像データであると判断する。判断部19は、画像データが馬鈴薯に関する画像データであるか否かの判断結果を選別制御部12へ送る。
The
次に、本実施形態に係る馬鈴薯選別装置1の動作について説明する。図8は、本実施形態に係る馬鈴薯選別装置1の制御部4の動作を示すフローチャートである。
馬鈴薯であるか否かの判断は、テクスチャに関する特徴量と、反射光の波長に基づく輝度情報に加えて、画像データにおける物体の境界の曲率が考慮されて行われる。
Next, the operation of the
The determination as to whether or not the potato is a potato is performed in consideration of the curvature of the object boundary in the image data in addition to the feature amount related to the texture and the luminance information based on the wavelength of the reflected light.
物体の境界の曲率については、まず、ラインスキャンカメラ8で撮像されて取得された物体の画像データに基づいて、物体と背景の境界線、すなわち物体の輪郭が抽出され、輪郭上の所定長さ毎の曲率が算出される。そして、算出された曲率に基づいて、曲率ごとの頻度が累積されて、曲率の頻度情報が取得される(ステップS19)。
Regarding the curvature of the boundary of the object, first, based on the image data of the object captured and acquired by the
そして、曲率に関する頻度情報が得られると、第3比較部22によって、所定の閾値Tc以下の曲率の頻度が全体に対して占める割合が算出される。そして、第3比較部22によって、所定の閾値Tc以下の曲率の頻度の全体に対する割合が、所定の閾値Tr%以下であるか否かが比較される(ステップS20)。
And if the frequency information regarding a curvature is obtained, the ratio which the frequency of the curvature below a predetermined threshold value Tc occupies with respect to the whole by the
そして、第1比較部17と第2比較部18と第3比較部22における比較結果に基づいて、撮影された物体が馬鈴薯であるか否かが判断される。すなわち、算出されたテクスチャに関する特徴量、輝度の平均値及び標準偏差、及び、曲率の頻度が条件を満たすか否かが判断される(ステップS21)。
And based on the comparison result in the
物体の境界の曲率に関し、第3比較部22において、所定の閾値Tc以下の曲率の頻度の全体に対する割合が、所定の閾値Tr%以下であるという結果が得られた場合、また、テクスチャに関する特徴量に関し、第1比較部17で算出された距離が所定の閾値以下であるという結果が得られ、かつ、反射光の波長に基づく輝度情報について、第2比較部18で算出された距離が所定の閾値以下であるという結果が得られた場合、ラインスキャンカメラ8で取得された物体の画像データは、馬鈴薯に関する画像データであると判断される(ステップS22)。
Regarding the curvature of the boundary of the object, if the
他方、第3比較部22において、所定の閾値Tc以下の曲率の頻度の全体に対する割合が、所定の閾値Tr%を超えているという結果が得られた場合、ラインスキャンカメラ8で取得された物体の画像データは、馬鈴薯に関する画像データではなく、異物であると判断される。なお、第1実施形態と同様に、第1比較部17で算出された距離が所定の閾値を超えている場合、又は、第2比較部18で算出された距離が所定の閾値を超えている場合も、異物であると判断される(ステップS23)。
On the other hand, when the
以上、本実施形態によれば、テクスチャに関する特徴量と、反射光の波長に基づく輝度情報と、画像データにおける物体の境界の曲率の3種類の条件によって、物体が馬鈴薯であるか否かの判断が行われる。テクスチャに関する特徴量、及び、反射光の波長に基づく輝度情報の2種類の条件によって、物体が馬鈴薯であるか否かの判断をする第1実施形態に比べて、本実施形態では、画像データにおける物体の境界の曲率を考慮することによって、馬鈴薯と異物の選別精度を更に向上させることができる。 As described above, according to the present embodiment, whether or not an object is a potato is determined based on three types of conditions: a texture-related feature amount, luminance information based on the wavelength of reflected light, and the curvature of an object boundary in image data. Is done. Compared to the first embodiment in which it is determined whether or not an object is a potato based on two types of conditions, that is, a feature amount related to texture and luminance information based on the wavelength of reflected light, in this embodiment, in the image data By considering the curvature of the boundary of the object, it is possible to further improve the accuracy of sorting potatoes and foreign objects.
画像データにおける物体の境界の曲率だけで判断を行う場合、物体の境界の曲率が馬鈴薯と近似している物体(例えば石など)が、馬鈴薯であると判断される可能性が高い。このように、画像データにおける物体の境界の曲率だけでは、馬鈴薯と異物とを区別できない場合があるが、本実施形態では、3種類の条件を満たすときに馬鈴薯であると判断することによって、馬鈴薯と異物の選別精度を向上させることができる。 When the determination is made based only on the curvature of the object boundary in the image data, it is highly likely that an object (for example, a stone) whose curvature of the object boundary approximates to a potato is a potato. As described above, there is a case where the potato cannot be distinguished from the foreign matter only by the curvature of the boundary of the object in the image data. And the foreign matter sorting accuracy can be improved.
なお、上述した第1、第2実施形態では、第1比較部17、第2比較部18において閾値が一つのみ設定される場合について説明したが、本発明は、この例に限定されない。例えば、第1比較部17、第2比較部18において、複数、例えば二つの異なる値の閾値を設定してもよい。選別時、第1比較部17又は第2比較部18で算出された距離が、第1比較部17と第2比較部18のいずれか一方において、低い方の閾値以下であるとき、第1比較部17と第2比較部18の他方の高い方の閾値以下であれば、馬鈴薯であると判断するようにしてもよい。これにより、馬鈴薯に関するテクスチャと分光反射強度による二つの判定において相関関係がある場合、より精度良く識別することが可能になる。
In the first and second embodiments described above, the case where only one threshold is set in the
また、上述した実施形態では、本発明に係る芋選別装置の一例として、馬鈴薯選別装置1について説明したが、本発明はこの例に限定されない。本発明に係る芋選別装置は、馬鈴薯以外のサツマイモなどの芋についても適用可能である。
Moreover, in embodiment mentioned above, although the
上述した実施形態では、搬送部2において、物体を一端部から他端部にかけて一方向へ搬送し、他端部から物体を落下させ、選別部5の選別板6が、物体の落下軌道に位置したり、軌道外に位置したりと、設置位置が変更されることによって、異物又は馬鈴薯の落下先を変更して、対象物を選別する例について説明したが、本発明はこの例に限定されない。例えば、搬送部及び選別部を構成する装置は、青果などの選別機として用いられている技術を適用できる。例えば、選別機は、水平なコンベヤー等によって、対象物を搬送し、判断結果に基づいて、コンベヤーの搬送ルートの外へ対象物を移動させる構成を有する。対象物をコンベヤーの外へ移動させる装置は、例えば、コンベヤーの一部がコンベヤーの下方へ降下して対象物を下方へ移動させる構成を有するものや、羽根状の部材が対象物を拾い上げてコンベヤーの側方へ排除する構成を有するものなどがある。
In the above-described embodiment, in the
1 :馬鈴薯選別装置
2 :搬送部
3 :光学部
4 :制御部
5 :選別部
6 :選別板
7 :アクチュエータ
8 :ラインスキャンカメラ
9 :LED照明部
10 :コンベヤー
11 :画像処理部
12 :選別制御部
13 :位置・大きさ特定部
14 :テクスチャ特徴量抽出部
15 :輝度情報取得部
16 :記憶部
17 :第1比較部
18 :第2比較部
19 :判断部
20 :撮像素子
21 :曲率情報取得部
22 :第3比較部
23 :点灯制御部
1: potato sorting device 2: transport unit 3: optical unit 4: control unit 5: sorting unit 6: sorting plate 7: actuator 8: line scan camera 9: LED illumination unit 10: conveyor 11: image processing unit 12: sorting control Unit 13: position / size specifying unit 14: texture feature amount extraction unit 15: luminance information acquisition unit 16: storage unit 17: first comparison unit 18: second comparison unit 19: determination unit 20: image sensor 21: curvature information Acquisition unit 22: third comparison unit 23: lighting control unit
Claims (7)
前記対象物に所定の波長の光を照射する照射部と、
前記撮像部で撮像されて取得された前記対象物の画像データに基づいて、前記対象物のテクスチャに関する特徴量を抽出する特徴抽出部と、
芋の画像データに関する基本特徴量が予め記録された第1記憶部と、
抽出された前記特徴量と前記基本特徴量を比較する第1比較部と、
前記対象物にて反射した光を受光し、受光した光に基づく前記波長の輝度情報を取得する輝度情報取得部と、
芋にて反射した光に基づく前記波長の基本輝度情報が予め記録された第2記憶部と、
取得された前記対象物の前記輝度情報と前記基本輝度情報を比較する第2比較部と、
前記第1比較部及び前記第2比較部における比較結果に基づいて、前記対象物が芋であるか否かを判断する判断部と、
を備える芋判断装置。 An imaging unit for imaging an object;
An irradiation unit for irradiating the object with light of a predetermined wavelength;
A feature extraction unit that extracts a feature amount related to the texture of the target object based on image data of the target object captured and acquired by the imaging unit;
A first storage unit in which basic feature values relating to the image data of the cocoon are recorded in advance;
A first comparison unit that compares the extracted feature quantity with the basic feature quantity;
A luminance information acquisition unit that receives light reflected by the object and acquires luminance information of the wavelength based on the received light;
A second storage unit in which basic luminance information of the wavelength based on the light reflected by the ridge is recorded in advance;
A second comparison unit for comparing the acquired luminance information and the basic luminance information of the object;
A determination unit that determines whether or not the object is a bag based on a comparison result in the first comparison unit and the second comparison unit;
A wrinkle determination device comprising:
前記輝度情報取得部は、前記波長ごとの前記輝度情報を取得し、
前記第2記憶部は、前記波長ごとの基本輝度情報を予め記録し、
前記第2比較部は、取得された前記対象物の前記輝度情報と前記基本輝度情報を前記波長ごとに比較する請求項1に記載の芋判断装置。 The irradiation unit sequentially irradiates the object with a plurality of lights having different wavelengths,
The luminance information acquisition unit acquires the luminance information for each wavelength,
The second storage unit records in advance basic luminance information for each wavelength,
The wrinkle determination device according to claim 1, wherein the second comparison unit compares the acquired luminance information and the basic luminance information of the object for each wavelength.
芋の画像データに関する基本曲率情報が予め記録された第3記憶部と、
取得された前記曲率情報と前記基本曲率情報を比較する第3比較部と、
を更に備え、
前記判断部は、前記第1比較部、前記第2比較部及び前記第3比較部における比較結果に基づいて、前記対象物が芋であるか否かを判断する請求項1から4のいずれか1項に記載の芋判断装置。 A curvature information acquisition unit that extracts the contour shape of the object based on the image data of the object acquired and acquired by the imaging unit, and acquires curvature information;
A third storage unit in which basic curvature information relating to the image data of the cocoon is recorded in advance;
A third comparison unit for comparing the acquired curvature information and the basic curvature information;
Further comprising
5. The device according to claim 1, wherein the determination unit determines whether or not the object is a bag based on a comparison result in the first comparison unit, the second comparison unit, and the third comparison unit. The wrinkle determination device according to item 1.
前記芋判断装置で判断された結果に基づいて、前記対象物を選別する選別部と、
を備える芋選別装置。
A wrinkle determination device according to any one of claims 1 to 6,
Based on the result determined by the wrinkle determination device, a selection unit for selecting the object;
A basket sorting apparatus comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016133664A JP6731134B2 (en) | 2016-07-05 | 2016-07-05 | Potato determination device and potato selection device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016133664A JP6731134B2 (en) | 2016-07-05 | 2016-07-05 | Potato determination device and potato selection device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018001115A true JP2018001115A (en) | 2018-01-11 |
| JP6731134B2 JP6731134B2 (en) | 2020-07-29 |
Family
ID=60946952
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016133664A Active JP6731134B2 (en) | 2016-07-05 | 2016-07-05 | Potato determination device and potato selection device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6731134B2 (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020531283A (en) * | 2017-09-01 | 2020-11-05 | トムラ・ソーティング・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング | Classification method and equipment |
| JP2021137755A (en) * | 2020-03-06 | 2021-09-16 | 学校法人立命館 | Removal device, sorting device, and conveying vehicle |
| JP2022509749A (en) * | 2018-11-07 | 2022-01-24 | グリメ ラントマシーネンファブリーク ゲー・エム・ベー・ハー ウント コー. カー・ゲー | How to control the operation of the machine that harvests root vegetables |
| JP2023515389A (en) * | 2020-02-14 | 2023-04-13 | グリメ ラントマシーネンファブリーク ゲー・エム・ベー・ハー ウント コー. カー・ゲー | Methods, associated machines, and associated computer program products for operating machines for harvesting and/or separating root crops |
| JP2023524143A (en) * | 2020-05-07 | 2023-06-08 | グリメ ラントマシーネンファブリーク ゲー・エム・ベー・ハー ウント コー. カー・ゲー | root crop harvester |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003245611A (en) * | 2002-02-22 | 2003-09-02 | Nichirei Corp | Food imaging and discharging device |
| JP2010227892A (en) * | 2009-03-30 | 2010-10-14 | Hitachi Zosen Corp | Foreign matter sorting method and foreign matter sorting equipment |
| JP2015529154A (en) * | 2012-09-07 | 2015-10-05 | トムラ ソーティング リミテッド | Method and apparatus for processing harvested root crops |
-
2016
- 2016-07-05 JP JP2016133664A patent/JP6731134B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003245611A (en) * | 2002-02-22 | 2003-09-02 | Nichirei Corp | Food imaging and discharging device |
| JP2010227892A (en) * | 2009-03-30 | 2010-10-14 | Hitachi Zosen Corp | Foreign matter sorting method and foreign matter sorting equipment |
| JP2015529154A (en) * | 2012-09-07 | 2015-10-05 | トムラ ソーティング リミテッド | Method and apparatus for processing harvested root crops |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020531283A (en) * | 2017-09-01 | 2020-11-05 | トムラ・ソーティング・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング | Classification method and equipment |
| JP2022509749A (en) * | 2018-11-07 | 2022-01-24 | グリメ ラントマシーネンファブリーク ゲー・エム・ベー・ハー ウント コー. カー・ゲー | How to control the operation of the machine that harvests root vegetables |
| US12302781B2 (en) | 2018-11-07 | 2025-05-20 | Grimme Landmaschinenfabrik Gmbh & Co. Kg | Method for controlling the operation of a machine for harvesting root crop |
| JP2023515389A (en) * | 2020-02-14 | 2023-04-13 | グリメ ラントマシーネンファブリーク ゲー・エム・ベー・ハー ウント コー. カー・ゲー | Methods, associated machines, and associated computer program products for operating machines for harvesting and/or separating root crops |
| US12433190B2 (en) | 2020-02-14 | 2025-10-07 | Grimme Landmaschinenfabrik Gmbh & Co. Kg | Method for operating a machine for harvesting and/or separating root crops, associated machine and associated computer program product |
| JP2021137755A (en) * | 2020-03-06 | 2021-09-16 | 学校法人立命館 | Removal device, sorting device, and conveying vehicle |
| JP7430868B2 (en) | 2020-03-06 | 2024-02-14 | 国立大学法人 東京大学 | Removal equipment, sorting equipment, and transportation vehicles |
| JP2023524143A (en) * | 2020-05-07 | 2023-06-08 | グリメ ラントマシーネンファブリーク ゲー・エム・ベー・ハー ウント コー. カー・ゲー | root crop harvester |
| JP7577758B2 (en) | 2020-05-07 | 2024-11-05 | グリメ ラントマシーネンファブリーク ゲー・エム・ベー・ハー ウント コー. カー・ゲー | Root vegetable harvester |
| US12507616B2 (en) | 2020-05-07 | 2025-12-30 | Grimme Landmaschinenfabrik Gmbh & Co. Kg | Root crop harvester |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6731134B2 (en) | 2020-07-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6731134B2 (en) | Potato determination device and potato selection device | |
| EP0833701B1 (en) | Defective object inspection and separation system | |
| Rehkugler et al. | Apple sorting with machine vision | |
| Noordam et al. | High-speed potato grading and quality inspection based on a color vision system | |
| Throop et al. | Quality evaluation of apples based on surface defects: development of an automated inspection system | |
| JP5898388B2 (en) | Method and apparatus for scoring and controlling food quality | |
| CN112287748B (en) | Mobile article classification system and method based on self-learning technology | |
| US6610953B1 (en) | Item defect detection apparatus and method | |
| Bennedsen et al. | Performance of a system for apple surface defect identification in near-infrared images | |
| JP6590907B2 (en) | Fruit sorting system, fruit sorting device, and fruit sorting method | |
| Zhang et al. | Date maturity and quality evaluation using color distribution analysis and back projection | |
| US10189055B2 (en) | Color based optical grading system with multi reflectance and multi-angle views | |
| Sahu et al. | Identification and classification of mango fruits using image processing | |
| KR101703542B1 (en) | Automatic sorting method of sea-squirt using feature measurement and HSV color model | |
| CN103808669B (en) | A kind of apple small holes caused by worms fast non-destructive detection method based on high light spectrum image-forming technology | |
| JP7497760B2 (en) | Method for identifying objects to be sorted, method for selecting objects, device for selecting objects, and device for identifying objects | |
| Pothula et al. | Evaluation of a new apple in-field sorting system for fruit singulation, rotation and imaging | |
| JP5455409B2 (en) | Foreign matter sorting method and foreign matter sorting equipment | |
| JP6667201B2 (en) | Sorting device | |
| KR102094314B1 (en) | Machine vision based crop selection apparatus | |
| KR20250108612A (en) | Method and system for processing a large number of bird eggs | |
| JP4171806B2 (en) | A method for determining the grade of fruits and vegetables. | |
| Yimyam | Physical Property Analysis of Sweet Potatoes Using Computer Vision | |
| JP2642107B2 (en) | Automatic grading method and device for fruits and vegetables | |
| JP2001239221A (en) | Image forming device and assorting/classifying/judging device used for assorting of agricultural product |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A625 | Written request for application examination (by other person) |
Free format text: JAPANESE INTERMEDIATE CODE: A625 Effective date: 20190425 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200210 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200407 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200501 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6731134 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |