WO2026009759A1 - Information processing device, information processing method, information processing system, program, and recording medium - Google Patents
Information processing device, information processing method, information processing system, program, and recording mediumInfo
- Publication number
- WO2026009759A1 WO2026009759A1 PCT/JP2025/022615 JP2025022615W WO2026009759A1 WO 2026009759 A1 WO2026009759 A1 WO 2026009759A1 JP 2025022615 W JP2025022615 W JP 2025022615W WO 2026009759 A1 WO2026009759 A1 WO 2026009759A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- information processing
- area
- evaluation object
- evaluation
- contour
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Abstract
Description
本発明は、対象物に関する評価作業を支援する情報処理装置、情報処理方法、情報処理システム、プログラム、及び記録媒体に関する。 The present invention relates to an information processing device, information processing method, information processing system, program, and recording medium that support evaluation work related to objects.
対象物の形状や大きさ等の外観に基づいた品質評価が従来から行われている。例えば、農作物は見栄えが良い物ほど需要が高くなる傾向があるため、農作物の等級(品位)を定める出荷規格では色、大きさ、形状、及び疵の有無等の見栄えを基準として設定され、生産された農作物は、出荷規格に応じて等級毎に仕分けられて取引されている。しかしながら、生産される農作物は、膨大な数量となるため、手作業による仕分けの負荷が大きくなることがあった。また、農作物の仕分けを大人数で行うことがあり、仕分けられた農作物の等級が安定しないことがあった。そのため、近年では、農作物を撮影した画像を用いて、農作物の等級の判定を支援する技術が提案されている。 Quality assessment has traditionally been based on the appearance of an object, such as its shape and size. For example, the more attractive the produce, the higher the demand. Therefore, shipping standards that determine the grade (quality) of produce are set based on appearance criteria such as color, size, shape, and the presence or absence of blemishes. Produced produce is then sorted into grades according to the shipping standards and traded. However, because the quantity of produce produced is enormous, manual sorting can be a heavy burden. Furthermore, sorting produce is sometimes done by a large number of people, and the grades of the sorted produce can be inconsistent. For this reason, in recent years, technology has been proposed that uses images of the produce to help determine the grade of the produce.
画像を用いた対象物の形状の検出は、対象物全体を評価する必要があるため、処理負荷が膨大となり、形状に基づく対象物の品質評価を精度よく行えるとは限らなかった。本発明は、対象物を撮影した画像を用いた外観に基づく対象物の品質評価を精度よく行うことが可能な情報処理装置を提供することを目的とする。 Detecting the shape of an object using an image requires evaluating the entire object, which imposes a huge processing load and does not always allow for accurate quality evaluation of the object based on its shape. The present invention aims to provide an information processing device that can accurately evaluate the quality of an object based on its appearance using photographed images of the object.
本発明に係る情報処理装置は、評価対象物を撮影した画像を取得する取得手段と、前記画像から、前記評価対象物の輪郭、及び前記評価対象物の輪郭に対して外接する矩形領域を検出する検出手段と、前記評価対象物の輪郭内の面積と前記矩形領域の面積との面積比を導出する指標演算手段と、導出された前記面積比に基づいて前記評価対象物の品質評価に関する判定を行い、判定結果を出力する判定手段とを有することを特徴とする。 The information processing device according to the present invention is characterized by having an acquisition means for acquiring an image of an object to be evaluated, a detection means for detecting the contour of the object to be evaluated and a rectangular area circumscribing the contour of the object to be evaluated from the image, an index calculation means for deriving the area ratio between the area within the contour of the object to the area of the rectangular area, and a determination means for making a determination regarding the quality evaluation of the object to be evaluated based on the derived area ratio and outputting the determination result.
本発明によれば、対象物を撮影した画像を用いた外観に基づく対象物の品質評価を精度よく行うことが可能となる。 The present invention makes it possible to accurately evaluate the quality of an object based on its appearance using photographed images of the object.
以下、本発明の実施形態を図面に基づいて説明する。 The following describes an embodiment of the present invention with reference to the drawings.
<第1の実施形態>
図1は、本発明の一実施形態における情報処理システムの構成例を示す図である。本実施形態における情報処理システムは、評価対象の物体(以下、「対象物」とも称す。)に関する評価作業を支援する情報処理システムであり、対象物を撮影した画像を用いて、撮影された対象物の外観に基づいて対象物の品質評価を行う。本実施形態における情報処理システムは、情報処理装置100と撮像装置110と表示装置120とを含む。情報処理装置100は、撮像装置110及び表示装置120のそれぞれと通信可能に接続されている。情報処理装置100と撮像装置110及び表示装置120は、有線接続されていてもよいし、無線接続されていてもよい。また、情報処理装置100、撮像装置110、及び表示装置120がネットワークを介して互いに通信可能に接続されていてもよい。
First Embodiment
FIG. 1 is a diagram illustrating an example of the configuration of an information processing system according to an embodiment of the present invention. The information processing system according to this embodiment is an information processing system that supports evaluation work on an object to be evaluated (hereinafter also referred to as an "object"), and uses a photographed image of the object to evaluate the quality of the object based on the appearance of the photographed object. The information processing system according to this embodiment includes an information processing device 100, an imaging device 110, and a display device 120. The information processing device 100 is communicatively connected to each of the imaging device 110 and the display device 120. The information processing device 100, the imaging device 110, and the display device 120 may be connected by wire or wirelessly. Furthermore, the information processing device 100, the imaging device 110, and the display device 120 may be communicatively connected to each other via a network.
情報処理装置100は、撮像装置110から評価対象の物体(対象物)130が撮影された画像を取得し、取得した画像を用いて対象物の品質評価を行う。情報処理装置100は、撮像装置110から取得した、対象物を撮影した画像から、対象物の外観についての特徴情報を検出し、検出した特徴情報に基づいて対象物の品質を評価する。対象物の外観についての特徴情報は、例えば、対象物の色、大きさ、及び形状等に関する情報を含む。また、対象物の外観についての特徴情報として、対象物における疵の有無や表面の状態や色艶等に関する情報をさらに含んでいてもよい。 The information processing device 100 acquires an image of the object (target) 130 to be evaluated from the imaging device 110, and performs a quality evaluation of the target using the acquired image. The information processing device 100 detects characteristic information about the target's appearance from the image of the target acquired from the imaging device 110, and evaluates the quality of the target based on the detected characteristic information. The characteristic information about the target's appearance includes, for example, information about the target's color, size, shape, etc. The characteristic information about the target's appearance may also include information about the presence or absence of defects on the target, the surface condition, color, luster, etc.
撮像装置110は、カメラ等の撮像装置であり、評価対象の物体(対象物)130を撮像する。本実施形態における情報処理システムには、任意の数の撮像装置110を配してよく、例えば、複数の撮像装置110を配して対象物130を複数の方向から撮影するようにしてもよい。なお、撮像装置110は、カメラ等の撮像機能のみを有する装置に限らず、スマートフォンやタブレット端末等のような撮像機能を有する装置であってもよい。 The imaging device 110 is an imaging device such as a camera, and captures an image of the object (target) 130 to be evaluated. The information processing system in this embodiment may be provided with any number of imaging devices 110; for example, multiple imaging devices 110 may be provided to capture images of the target 130 from multiple directions. Note that the imaging device 110 is not limited to devices with only imaging functions such as cameras, but may also be devices with imaging functions such as smartphones and tablet terminals.
表示装置120は、情報処理装置100による品質評価の結果等を表示するための表示装置である。例えば、表示装置120は、表示情報を画面表示するディスプレイや、表示情報を投影表示するプロジェクタである。また、例えば、表示装置120は、スマートグラス(ARグラス)であってもよい。また、例えば、スマートフォンやタブレット端末等を用いて、撮像装置110及び表示装置120の機能を実現し、対象物130を撮影した画像に品質評価の結果等を重畳表示するようにしてもよい。 The display device 120 is a display device for displaying the results of quality evaluation by the information processing device 100, etc. For example, the display device 120 is a display that displays display information on a screen, or a projector that projects display information. Furthermore, for example, the display device 120 may be smart glasses (AR glasses). Furthermore, for example, the functions of the imaging device 110 and the display device 120 may be realized using a smartphone, tablet terminal, etc., and the results of quality evaluation, etc. may be superimposed on an image of the object 130.
図2は、本実施形態における情報処理装置100のハードウェア構成の一例を示す図である。情報処理装置100は、CPU201、ROM202、RAM203、補助記憶装置204、出力装置205、入力装置206、及びネットワークI/F207を有する。CPU201、ROM202、RAM203、補助記憶装置204、出力装置205、入力装置206、及びネットワークI/F207は、システムバス208を介して通信可能に接続されている。 FIG. 2 is a diagram showing an example of the hardware configuration of the information processing device 100 in this embodiment. The information processing device 100 has a CPU 201, ROM 202, RAM 203, auxiliary storage device 204, output device 205, input device 206, and network I/F 207. The CPU 201, ROM 202, RAM 203, auxiliary storage device 204, output device 205, input device 206, and network I/F 207 are communicatively connected via a system bus 208.
CPU(Central Processing Unit)201は、情報処理装置100の各種動作を制御する中央演算装置である。例えば、CPU201は、情報処理装置100全体の動作を制御してもよい。ROM(Read Only Memory)202は、CPU201で実行可能な制御プログラムやブートプログラム等を記憶する。RAM(Random Access Memory)203は、CPU201の主記憶メモリであり、ワークエリア又は各種プログラムを展開するための一時記憶領域として用いられる。 CPU (Central Processing Unit) 201 is a central processing unit that controls various operations of information processing device 100. For example, CPU 201 may control the operation of the entire information processing device 100. ROM (Read Only Memory) 202 stores control programs, boot programs, etc. that can be executed by CPU 201. RAM (Random Access Memory) 203 is the main memory of CPU 201 and is used as a work area or temporary storage area for expanding various programs.
補助記憶装置204は、各種データや各種プログラム等を記憶する。補助記憶装置204は、HDD(Hard Disk Drive)や、SSD(Solid State Drive)に代表される不揮発性メモリ等のような、各種データを一時的又は持続的に記憶可能な記憶デバイスにより実現される。 The auxiliary storage device 204 stores various data, programs, etc. The auxiliary storage device 204 is realized by a storage device that can temporarily or permanently store various data, such as a non-volatile memory such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive).
出力装置205は、各種情報を出力する装置であり、ユーザに対する各種情報の提示等に利用される。例えば、出力装置205は、ディスプレイ等の表示デバイスにより実現される。出力装置205は、各種表示情報を表示させることで、ユーザに対して情報を提示してもよい。他の例として、出力装置205は、音声や電子音等の音を出力する音響出力デバイスにより実現されてもよい。この場合には、出力装置205は、音声や電子音等の音を出力することで、ユーザに対して情報を提示してもよい。また、出力装置205として適用されるデバイスは、ユーザに対して情報を提示するために利用する媒体に応じて適宜変更されてもよい。 The output device 205 is a device that outputs various types of information and is used to present various types of information to the user. For example, the output device 205 is realized by a display device such as a display. The output device 205 may present information to the user by displaying various types of display information. As another example, the output device 205 may be realized by an audio output device that outputs sounds such as voice and electronic sounds. In this case, the output device 205 may present information to the user by outputting sounds such as voice and electronic sounds. Furthermore, the device used as the output device 205 may be changed as appropriate depending on the medium used to present information to the user.
入力装置206は、ユーザからの各種指示の受け付け等に利用される。例えば、入力装置206は、マウス、キーボード、タッチパネル等の入力デバイスを含んでもよい。他の例として、入力装置206は、マイクロフォン等の集音デバイスを含み、ユーザが発話した音声を集音してもよい。この場合には、集音された音声に対して音響解析や自然言語処理等の各種解析処理が施されることで、この音声が示す内容がユーザからの指示として認識されてもよい。また、入力装置206として適用されるデバイスは、ユーザからの指示を認識する方法に応じて適宜変更されてもよい。また、入力装置206として複数種類のデバイスが適用されてもよい。 The input device 206 is used to receive various instructions from the user. For example, the input device 206 may include an input device such as a mouse, keyboard, or touch panel. As another example, the input device 206 may include a sound collection device such as a microphone, and collect the voice spoken by the user. In this case, the collected voice may be subjected to various analytical processes such as acoustic analysis and natural language processing, and the content of this voice may be recognized as an instruction from the user. Furthermore, the device used as the input device 206 may be changed as appropriate depending on the method for recognizing instructions from the user. Furthermore, multiple types of devices may be used as the input device 206.
ネットワークI/F207は、外部の装置等とのネットワークを介した通信に利用される。なお、ネットワークI/F207として適用されるデバイスは、通信経路の種別や適用される通信方式に応じて適宜変更されてもよい。 Network I/F 207 is used for communication with external devices over a network. The device used as network I/F 207 may be changed as appropriate depending on the type of communication path and the communication method used.
CPU201が、ROM202又は補助記憶装置204に記憶されたプログラムをRAM203に展開し、そのプログラムを実行することで、後述する情報処理装置の各機能及び各処理等が実現される。情報処理装置100のプログラムは、例えば、CD-ROM等の記録媒体によって情報処理装置100に提供されるか、又はネットワーク等を介してダウンロードされてもよい。記録媒体によって情報処理装置100のプログラムが提供される場合には、記録媒体が所定のドライブ装置にセットされることで、当該記録媒体に記録されたプログラムが補助記憶装置204にインストールされる。 The CPU 201 loads a program stored in ROM 202 or auxiliary storage device 204 into RAM 203 and executes the program, thereby realizing the functions and processes of the information processing device described below. The program for the information processing device 100 may be provided to the information processing device 100 by a recording medium such as a CD-ROM, or may be downloaded via a network, for example. When the program for the information processing device 100 is provided by a recording medium, the program recorded on the recording medium is installed in the auxiliary storage device 204 by inserting the recording medium into a specified drive device.
図2に示す構成はあくまで一例であり、必ずしも本実施形態における情報処理装置100のハードウェア構成を限定するものではない。具体的な一例として、出力装置205や入力装置206等のような一部の構成が含まれていなくてもよい。また、他の一例として、情報処理装置100が実現する機能に応じた構成が適宜追加されてもよい。 The configuration shown in FIG. 2 is merely an example and does not necessarily limit the hardware configuration of the information processing device 100 in this embodiment. As a specific example, some components such as the output device 205 and input device 206 may not be included. As another example, components may be added as appropriate depending on the functions realized by the information processing device 100.
図3は、本実施形態における情報処理装置100の機能構成の例を示す図である。情報処理装置100は、取得部301、評価処理部302、制御部306、入出力制御部307、及び記憶部308を有する。 FIG. 3 is a diagram showing an example of the functional configuration of the information processing device 100 in this embodiment. The information processing device 100 has an acquisition unit 301, an evaluation processing unit 302, a control unit 306, an input/output control unit 307, and a storage unit 308.
取得部301は、撮像装置110から評価対象の物体(対象物)が撮影された画像を取得する。また、取得部301は、対象物を撮影した画像の他に、LiDARなどの測距センサ等により得られる対象物に関する点群データや、重量計や糖度計等により得られる対象物に関する他の情報などを取得するようにしてもよい。例えば、対象物に関する点群データを取得することで、対象物の表面における凹凸等に関する情報を得ることが可能となる。 The acquisition unit 301 acquires an image of the object (target) to be evaluated from the imaging device 110. In addition to the image of the target, the acquisition unit 301 may also acquire point cloud data about the target obtained by a distance measurement sensor such as LiDAR, or other information about the target obtained by a weighing scale or saccharometer. For example, by acquiring point cloud data about the target, it is possible to obtain information about the unevenness of the target's surface.
評価処理部302は、取得部301により取得された画像や情報等に基づいて、対象物の品質評価を行う。評価処理部302は、例えば、取得部301により取得された、対象物を撮影した画像から対象物についての特徴情報を検出し、検出した特徴情報に基づいて対象物の品質を評価する。評価処理部302は、検出部303、指標演算部304、及び判定部305を有する。 The evaluation processing unit 302 evaluates the quality of the object based on the images and information acquired by the acquisition unit 301. For example, the evaluation processing unit 302 detects feature information about the object from the image of the object acquired by the acquisition unit 301, and evaluates the quality of the object based on the detected feature information. The evaluation processing unit 302 has a detection unit 303, an index calculation unit 304, and a determination unit 305.
検出部303は、取得部301により取得された画像や情報等から対象物についての特徴情報を検出する。検出部303は、例えば、予め機械学習して得られた学習済モデルを用いて、取得部301により取得された、対象物を撮影した画像から、対象物の色、大きさ、及び形状等の外観についての特徴情報を検出する。また、例えば、検出部303は、取得部301により取得された画像や情報等から、対象物における疵の有無や表面の状態等の情報を特徴情報として検出するようにしてもよい。 The detection unit 303 detects feature information about the object from the images, information, etc. acquired by the acquisition unit 301. For example, the detection unit 303 uses a trained model obtained in advance through machine learning to detect feature information about the appearance of the object, such as its color, size, and shape, from images of the object acquired by the acquisition unit 301. Furthermore, for example, the detection unit 303 may detect information such as the presence or absence of flaws in the object and the condition of its surface as feature information from the images, information, etc. acquired by the acquisition unit 301.
指標演算部304は、検出部303により検出された対象物についての特徴情報に基づいて、対象物の品質評価に用いる評価指標を演算する。指標演算部304は、例えば、検出部303により検出された特徴情報に基づいて、対象物の変形の度合いや曲がりの度合いを評価するための評価指標を算出する。 The index calculation unit 304 calculates an evaluation index used to evaluate the quality of the object based on the feature information about the object detected by the detection unit 303. The index calculation unit 304 calculates, for example, an evaluation index for evaluating the degree of deformation or bending of the object based on the feature information detected by the detection unit 303.
判定部305は、検出部303により検出された特徴情報や指標演算部304により得られた評価指標に基づいて、対象物の品質評価に関する判定を行い、判定結果を出力する。判定部305は、例えば、検出された特徴情報や得られた評価指標と、設定されたしきい値とを比較して、対象物の品質に関する判定を行う。例えば、判定部305は、対象物が農作物である場合に、出荷規格等における等級を判定する。 The determination unit 305 makes a determination regarding the quality evaluation of the object based on the characteristic information detected by the detection unit 303 and the evaluation index obtained by the index calculation unit 304, and outputs the determination result. The determination unit 305, for example, compares the detected characteristic information or the obtained evaluation index with a set threshold value to make a determination regarding the quality of the object. For example, if the object is an agricultural product, the determination unit 305 determines the grade in terms of shipping standards, etc.
制御部306は、情報処理装置100の各構成要素の制御を司る。入出力制御部307は、表示装置120等を介したユーザに対する各種情報の提示や、入力装置等を介したユーザからの情報の入力(例えば、指示等)の受け付けに関する各種処理を実行する。例えば、入出力制御部307は、UI(User Interface)の提示に関する処理や、UIを介した入力の受け付けに関する処理を実行してもよい。これにより、情報処理装置100は、ユーザからの指示を認識し、その指示に応じた処理の結果をユーザに提示することが可能となる。 The control unit 306 is responsible for controlling each component of the information processing device 100. The input/output control unit 307 performs various processes related to presenting various information to the user via the display device 120, etc., and accepting information input (e.g., instructions, etc.) from the user via an input device, etc. For example, the input/output control unit 307 may perform processes related to presenting a UI (User Interface) and accepting input via the UI. This enables the information processing device 100 to recognize instructions from the user and present the results of processing in accordance with those instructions to the user.
記憶部308は、情報処理装置100での処理を行う際に用いられる各種データ等を記憶する。記憶部308には、例えば、検出部303において行われる特徴情報の推論に用いられる、機械学習が行われた学習済モデルや、判定部305において行われる品質評価に用いられるしきい値等が記憶されている。 The storage unit 308 stores various data and the like used when performing processing in the information processing device 100. The storage unit 308 stores, for example, a trained model that has undergone machine learning and is used to infer feature information performed by the detection unit 303, and thresholds used for quality evaluation performed by the determination unit 305.
図4は、本実施形態における情報処理装置100の処理例を示すフローチャートである。なお、以下では、評価対象の物体(対象物)を農作物のサツマイモとして等級を判定する場合を例に、情報処理装置100の処理例を説明する。 FIG. 4 is a flowchart showing an example of processing by the information processing device 100 in this embodiment. Note that the following describes an example of processing by the information processing device 100, using as an example a case where the object (target) to be evaluated is a sweet potato, an agricultural product, and the grade is determined.
ステップS401にて、取得部301が、撮像装置110から評価対象の物体(対象物)であるサツマイモが撮影された画像を取得する。また、ステップS401において、取得部301は、対象物であるサツマイモを撮影した画像の他に、測距センサ等により得られるサツマイモ表面を示す点群データや、重量計や糖度計等により得られる他の情報などを取得するようにしてもよい。ここで、本実施形態の例では、対象物であるサツマイモの画像は、図5A及び図5Bに示すようにして撮影される。 In step S401, the acquisition unit 301 acquires an image of a sweet potato, which is the object (target) to be evaluated, from the imaging device 110. In addition to the image of the sweet potato, which is the target, in step S401, the acquisition unit 301 may also acquire point cloud data indicating the surface of the sweet potato obtained by a distance sensor or the like, or other information obtained by a weighing scale, saccharometer, or the like. In this embodiment, the image of the sweet potato, which is the target, is captured as shown in Figures 5A and 5B.
図5A及び図5Bは、対象物であるサツマイモの撮影の例を説明する図である。図5Aは、対象物であるサツマイモ501が載置される台502の上方からの状態を示している。図5Bは、図5AにおいてI-I線で示す断面を示している。図5A及び図5Bにおいて、サツマイモ501が、透明な部材で構成された台502上に載置されている。台502はV字状に形成されており、サツマイモ501を載置すると台502の下部において安定的に静止させることができる。図5A及び図5Bに示す例では、台502に載置されたサツマイモ501を撮影可能な3つの撮像装置503、504、505が配置されており、1つのサツマイモ501が異なる3つの方向から同じタイミングで撮影される。3つの撮像装置503、504、505は、対象物(サツマイモ501)の形を精度よく検出できるように、台502における断面の同一平面上に略120度ずつずらして配置されていることが好ましい。このように撮像装置503、504、505を配置することにより、対象物であるサツマイモ501の裏面や側面も含めて全体を撮影することが可能となる。また、対象物であるサツマイモ501の前面や後面を撮影可能なように、台502の前側及び後側(撮像装置503~505が配置される平面の法線方向)に撮像装置506、507をさらに配置するようにしてもよい。 Figures 5A and 5B are diagrams illustrating an example of photographing a sweet potato, which is an object of interest. Figure 5A shows a state from above of a platform 502 on which the sweet potato 501, which is an object of interest, is placed. Figure 5B shows a cross section indicated by line I-I in Figure 5A. In Figures 5A and 5B, the sweet potato 501 is placed on a platform 502 made of a transparent material. The platform 502 is formed in a V-shape, and when the sweet potato 501 is placed on it, it can be stably stationary at the bottom of the platform 502. In the example shown in Figures 5A and 5B, three imaging devices 503, 504, and 505 capable of photographing the sweet potato 501 placed on the platform 502 are arranged, and one sweet potato 501 is photographed from three different directions at the same time. The three imaging devices 503, 504, and 505 are preferably positioned on the same plane of the cross section of the table 502, offset by approximately 120 degrees, so that the shape of the target object (sweet potato 501) can be detected with high accuracy. By positioning the imaging devices 503, 504, and 505 in this manner, it is possible to capture the entire target object, sweet potato 501, including its back and sides. Furthermore, imaging devices 506 and 507 may be further positioned on the front and back sides of the table 502 (in the normal direction of the plane on which the imaging devices 503-505 are positioned) so that the front and back surfaces of the target object, sweet potato 501, can be captured.
なお、図5A及び図5Bに示した例に限らず、例えば、対象物を囲う円周状又は球状にレール等の軌道を設置し、その軌道を用いて撮像装置を移動させて撮影することで、1つの撮像装置で所望の方向から対象物を撮影できるようにしてもよい。また、一部の撮像装置を対象物の像が得られる鏡等の部材に置き換えて他の撮像装置の画角に入るよう配置することで、対象物を撮影する方向の数を減らさずに撮像装置の数を削減するようにしてもよい。また、対象物を斜面で転がしたり、ユーザが対象物を直接手に持って回転させたりして、対象物を撮影することで複数の方向からの画像を撮影するようにしてもよく、さらにどの面を撮影したかを記憶させておくようにしてもよい。 In addition to the examples shown in Figures 5A and 5B, for example, a track such as a rail may be installed in a circular or spherical shape surrounding the object, and the imaging device may be moved along the track to capture images of the object from a desired direction using a single imaging device. Furthermore, by replacing some imaging devices with components such as mirrors that capture images of the object and arranging them so that they are within the field of view of other imaging devices, the number of imaging devices may be reduced without reducing the number of directions from which the object can be captured. Images from multiple directions may also be captured by photographing the object by rolling it down a slope or by the user holding it directly in their hand and rotating it, and the side that was photographed may also be stored.
ステップS402にて、評価処理部302の検出部303が、ステップS401において取得された画像や情報等から対象物についての特徴情報を検出する。検出部303は、例えば、機械学習が行われた学習済のモデルを用いて、ステップS401において取得された、対象物であるサツマイモを撮影した画像から、撮影されたサツマイモの外観についての特徴情報を検出する。 In step S402, the detection unit 303 of the evaluation processing unit 302 detects feature information about the object from the image and information acquired in step S401. For example, the detection unit 303 uses a trained model that has undergone machine learning to detect feature information about the appearance of the sweet potato, which is the object, from the image acquired in step S401 of the sweet potato.
図6は、検出部303により検出される、サツマイモの外観の形状に関する特徴情報の例を説明する図である。検出部303は、機械学習が行われた学習済のモデルを用いて、対象物であるサツマイモを撮影した画像600から、対象物(サツマイモ)の輪郭601を検出する。また、検出部303は、検出した対象物(サツマイモ)の輪郭601に基づいて、対象物(サツマイモ)の輪郭601に対して外接する(対象物を含む)矩形領域602を導出する。以下、対象物の輪郭601に対して外接する矩形領域602を、「外接矩形」とも称す。なお、外接矩形602は、対象物(サツマイモ)の輪郭601に外接する矩形領域の内で最も面積が小さい矩形領域である。また、検出部303は、検出した対象物(サツマイモ)の輪郭601に基づいて、輪郭601の中心線603を導出する。検出部303は、例えば、外接矩形602の短辺に平行な線と輪郭601との2つの交点の中点を輪郭の中心として中心線603を導出する。このようにして、検出部303は、対象物であるサツマイモを撮影した各方向について、外観の形状に関する特徴情報として、輪郭601、外接矩形602、及び輪郭の中心線603を検出する。 Figure 6 is a diagram illustrating an example of feature information regarding the external shape of a sweet potato detected by the detection unit 303. The detection unit 303 uses a trained model that has undergone machine learning to detect the contour 601 of the object (sweet potato) from an image 600 of the object (sweet potato). The detection unit 303 also derives a rectangular area 602 that circumscribes (includes) the contour 601 of the object (sweet potato) based on the detected contour 601 of the object (sweet potato). Hereinafter, the rectangular area 602 that circumscribes the contour 601 of the object is also referred to as the "circumscribed rectangle." Note that the circumscribed rectangle 602 is the rectangular area with the smallest area circumscribing the contour 601 of the object (sweet potato). The detection unit 303 also derives a center line 603 of the contour 601 based on the detected contour 601 of the object (sweet potato). The detection unit 303 derives the center line 603, for example, by taking the midpoint of two intersections between the contour 601 and a line parallel to the short side of the circumscribing rectangle 602 as the center of the contour. In this way, the detection unit 303 detects the contour 601, the circumscribing rectangle 602, and the contour center line 603 as feature information related to the external shape for each direction in which the sweet potato, which is the target object, is photographed.
また、検出部303は、ステップS401において取得された、対象物であるサツマイモを撮影した画像から、疵、病気、しわ、及び変色等の外観に関する情報を特徴情報として検出するようにしてもよい。 The detection unit 303 may also detect information about the appearance of the target object, such as blemishes, diseases, wrinkles, and discoloration, as feature information from the image of the target object, the sweet potato, acquired in step S401.
ステップS403にて、評価処理部302の指標演算部304が、ステップS402において検出された対象物についての特徴情報に基づいて、対象物の品質評価に用いる評価指標を導出する。第1の実施形態では、指標演算部304は、例えば、対象物であるサツマイモの変形の度合いを評価するための評価指標として、ステップS402において検出された特徴情報に基づいて、対象物であるサツマイモを撮影した各方向について、対象物の輪郭と外接矩形との面積比を算出する。指標演算部304は、例えば、対象物の輪郭内のピクセル数と外接矩形内のピクセル数との比を、対象物の輪郭と外接矩形との面積比とする。図7A~図7Cを参照して、この第1の実施形態におけるステップS403において算出される評価指標について説明する。 In step S403, the index calculation unit 304 of the evaluation processing unit 302 derives an evaluation index to be used in evaluating the quality of the object based on the feature information about the object detected in step S402. In the first embodiment, the index calculation unit 304 calculates, for example, the area ratio between the outline of the object and a circumscribing rectangle for each direction in which the object (sweet potato) was photographed based on the feature information detected in step S402 as an evaluation index for evaluating the degree of deformation of the object (sweet potato). The index calculation unit 304 determines, for example, the ratio between the number of pixels within the outline of the object and the number of pixels within the circumscribing rectangle as the area ratio between the outline of the object and the circumscribing rectangle. The evaluation index calculated in step S403 in this first embodiment will be described with reference to Figures 7A to 7C.
図7A~図7Cは、第1の実施形態におけるステップS403において算出される評価指標の例を説明する図である。図7Aに示すように、対象物の輪郭内の面積701と外接矩形の面積702との差が小さく、面積比が1に近い場合、対象物の輪郭と外接矩形との形状の相違は小さく、対象物の変形の度合いは小さい。なお、図7Aにおいて、713は対象物の輪郭の中心線である。一方、図7Bに示すように、対象物の輪郭の中心線713の曲がりが大きく、対象物の変形の度合いが大きいと、対象物の輪郭内の面積711と外接矩形の面積712との差は大きくなり、面積比が1から大きく離れた値となる。また、図7Cに示すように、対象物の輪郭の中心線723の曲がりは小さいが、対象物の変形の度合いが大きい場合にも、対象物の輪郭内の面積721と外接矩形の面積722との差は大きくなり、面積比が1から大きく離れた値となる。このように対象物の輪郭と外接矩形との面積比を評価指標として算出し、面積比の1からの乖離具合を評価することで、対象物の変形の度合いを評価することができる。 7A to 7C are diagrams illustrating examples of evaluation indices calculated in step S403 in the first embodiment. As shown in FIG. 7A, when the difference between the area 701 within the object's outline and the area 702 of the circumscribing rectangle is small and the area ratio is close to 1, the difference in shape between the object's outline and the circumscribing rectangle is small, and the degree of deformation of the object is small. Note that in FIG. 7A, 713 is the center line of the object's outline. On the other hand, as shown in FIG. 7B, when the center line 713 of the object's outline is significantly curved and the degree of deformation of the object is large, the difference between the area 711 within the object's outline and the area 712 of the circumscribing rectangle becomes large, and the area ratio becomes a value significantly different from 1. Furthermore, as shown in FIG. 7C, when the center line 723 of the object's outline is slightly curved but the degree of deformation of the object is large, the difference between the area 721 within the object's outline and the area 722 of the circumscribing rectangle becomes large, and the area ratio becomes a value significantly different from 1. In this way, the area ratio between the outline of the object and the circumscribing rectangle is calculated as an evaluation index, and the degree of deviation of the area ratio from 1 can be evaluated to assess the degree of deformation of the object.
また、指標演算部304は、対象物における疵や病気に関するそれぞれの評価指標として、検出部303により検出された特徴情報に基づいて、対象物において疵や病気と推定される面積と対象物の全面積との面積比を評価指標として導出するようにしてもよい。 Furthermore, the index calculation unit 304 may derive, as an evaluation index for each flaw or disease in the object, the area ratio between the area of the object estimated to be flawed or diseased and the total area of the object based on the feature information detected by the detection unit 303.
ステップS404にて、評価処理部302の判定部305が、ステップS403において導出された評価指標及びステップS402において検出された特徴情報に基づいて、対象物であるサツマイモの等級を判定する。判定部305は、例えば、ステップS403において評価指標として導出された対象物の輪郭と外接矩形との面積比が、所定の範囲内にあるか否かを判定することで、対象物であるサツマイモの変形の度合いを評価し等級を判定する。このとき、判定部305は、対象物であるサツマイモを撮影した各方向について導出された対象物の輪郭と外接矩形との面積比の内で最悪値(面積比が1から最も離れている)に基づいて、対象物であるサツマイモの等級を判定する。 In step S404, the judgment unit 305 of the evaluation processing unit 302 judges the grade of the target sweet potato based on the evaluation index derived in step S403 and the feature information detected in step S402. The judgment unit 305 evaluates the degree of deformation of the target sweet potato and judges the grade, for example, by determining whether the area ratio between the target outline and circumscribing rectangle derived as the evaluation index in step S403 is within a predetermined range. At this time, the judgment unit 305 judges the grade of the target sweet potato based on the worst value (area ratio farthest from 1) among the area ratios between the target outline and circumscribing rectangle derived for each direction in which the target sweet potato was photographed.
また、例えば、判定部305は、ステップS403において評価指標として導出された対象物において疵や病気と推定される面積と対象物の全面積との面積比(疵や病気と推定される面積/対象物の全面積)が、設定されているしきい値を超えているか否かに応じて、対象物であるサツマイモの等級が判定されてもよい。なお、判定部305は、疵ありや病気と推定された対象物については面積比にかかわらず加工又は廃棄に相当する等級と判定するようにしてもよい。また、例えば、ステップS402において検出された、対象物におけるしわや変色に関する特徴情報に基づいて対象物であるサツマイモの等級が判定されてもよく、例えば学習済のモデルを用いて対象物であるサツマイモを撮影した画像からクラス分類して等級の判定を行うようにしてもよい。 Furthermore, for example, the determination unit 305 may determine the grade of the sweet potato object based on whether the area ratio of the area estimated to be flawed or diseased in the object, derived as the evaluation index in step S403, to the total area of the object (area estimated to be flawed or diseased / total area of the object) exceeds a set threshold. Note that the determination unit 305 may determine that an object estimated to have a flaw or disease is of a grade that corresponds to processing or disposal, regardless of the area ratio. Furthermore, for example, the grade of the sweet potato object may be determined based on feature information regarding wrinkles or discoloration on the object detected in step S402, or, for example, a trained model may be used to classify images of the sweet potato object and determine the grade.
ステップS405にて、判定部305が、ステップS404での判定結果を出力する。判定部305から出力された判定結果は、例えば入出力制御部307を介して表示装置120に表示される。図8は、判定結果の出力の例を説明する図であり、ステップS402において特徴情報として検出された対象物の輪郭801、外接矩形802、輪郭の中心線803とともに、等級、長さ、及び太さ等の判定結果に関する情報804が表示されている。例えば、判定結果の等級に応じて、表示する対象物の輪郭801の色を異ならせるようにしてもよい。なお、判定部305から出力された判定結果に基づいて、運搬ルート等を切り替え可能な図示しない仕分け装置等により、等級別に対象物であるサツマイモを仕分けするようにしてもよい。 In step S405, the determination unit 305 outputs the determination result from step S404. The determination result output from the determination unit 305 is displayed on the display device 120, for example, via the input/output control unit 307. Figure 8 is a diagram illustrating an example of the output of the determination result, and displays information 804 related to the determination result, such as grade, length, and thickness, along with the outline 801, circumscribed rectangle 802, and center line 803 of the outline of the object detected as feature information in step S402. For example, the color of the displayed outline 801 of the object may be changed depending on the grade of the determination result. Note that, based on the determination result output from the determination unit 305, the sweet potatoes, which are the objects, may be sorted by grade using a sorting device (not shown) that can switch transportation routes, etc.
ここで、リアルタイムな判定結果の確認を可能とするために、判定部305から出力された判定結果をプロジェクションマッピングを用いて表示するようにしてもよい。この場合、対象物であるサツマイモの位置に対して判定結果の表示位置がずれていると、ずれて投影表示されたサツマイモの画像が撮像装置で撮影され、この繰り返しにより複数の像がずれ重なった画像が表示されてしまうこととなる。これは、例えば、図8に示した対象物の輪郭801、外接矩形802、輪郭の中心線803、及び判定結果に関する情報804以外に黒いマスクをかけた図9に示すような画像での表示を行うことで回避することができる。なお、図8に示した対象物の輪郭801、外接矩形802、輪郭の中心線803、及び判定結果に関する情報804以外の画像全体に黒いマスク処理を行わなくとも、少なくとも外接矩形802内の領域(対象物の輪郭801、外接矩形802、及び輪郭の中心線803を除く)に黒いマスク処理を行っても同様の効果が得られる。また、いわゆるARマーカーを含む投影画像を表示して撮影し、撮影された画像でのARマーカーの位置に基づいて補正量を算出して投影画像を補正することでも複数の像が重なって表示されることを回避することができる。 Here, to enable confirmation of the judgment results in real time, the judgment results output from the judgment unit 305 may be displayed using projection mapping. In this case, if the display position of the judgment results is misaligned with the position of the sweet potato (the target object), the image of the sweet potato projected and displayed misaligned will be captured by the imaging device, and repeated capture will result in multiple images being displayed that are misaligned and overlapping. This can be avoided, for example, by displaying an image as shown in Figure 9, in which a black mask is applied to all but the object's outline 801, circumscribing rectangle 802, outline center line 803, and information about the judgment result 804 shown in Figure 8. Note that even if the entire image other than the object's outline 801, circumscribing rectangle 802, outline center line 803, and information about the judgment result 804 shown in Figure 8 is not black-masked, the same effect can be achieved by applying black masking to at least the area within the circumscribing rectangle 802 (excluding the object's outline 801, circumscribing rectangle 802, and outline center line 803). Additionally, multiple overlapping images can be avoided by displaying and capturing a projection image that includes so-called AR markers, calculating the amount of correction based on the position of the AR markers in the captured image, and correcting the projection image.
また、プロジェクションマッピングを用いて判定結果を表示する場合、図13Aに示すように、判定結果に応じて対象物の外接矩形802の表示を変更してもよい。図13Aは、判定結果の出力の例を説明する図である。なお、図13Aにおいては、対象物の外接矩形及び判定結果に関する情報を図示しているが、前述した例と同様に対象物の輪郭及び輪郭の中心線も表示してもよい。例えば、対象物が1級品であると判定された場合(図示の例における対象物1301とする)には外接矩形802の色を緑色(図において実線で示す外接矩形1311)で表示し、2級品であると判定された場合(図示の例における対象物1302とする)には外接矩形802の色を黄色(図において破線で示す外接矩形1312)で表示し、B級品であると判定された場合(図示の例における対象物1303とする)には外接矩形802の色を赤色(図において一点鎖線で示す外接矩形1313)で表示してもよい。また、ここでは判定結果に応じて外接矩形802の色を変更する形態について説明したが、これに限定されない。例えば、対象物の大きさ、長さ、及び太さ等に応じて外接矩形の色を変更してもよい。例えば、判定結果が1級品であり、かつ長さが所定の長さ以上である場合には外接矩形802の色を緑色で表示し、判定結果が1級品であり、かつ長さが所定の長さの範囲内である場合には外接矩形802の色を黄色で表示し、判定結果がB級品又は長さが所定の長さ未満である場合には外接矩形802の色を水色で表示し、判定結果がC級品である場合には外接矩形802の色をピンク色で表示するようにしてもよい。このように、判定結果、対象物の大きさ、長さ、及び太さ等や、これらの組み合わせに応じて、外接矩形802の色を変更して表示することによって、例えば、ユーザによる対象物の等級の認識を直感的に行うことができるようになり、等級毎に対象物を仕分ける作業の効率を向上させることができる。また、図13Bに示すように、対象物の外接矩形802の色を変更して表示するとともに、外接矩形802の色の凡例1321をプロジェクションマッピングによって表示してもよい。 Furthermore, when displaying the judgment results using projection mapping, the display of the circumscribing rectangle 802 of the object may be changed depending on the judgment result, as shown in FIG. 13A. FIG. 13A is a diagram illustrating an example of the output of the judgment result. Note that while FIG. 13A illustrates the circumscribing rectangle of the object and information related to the judgment result, the object's outline and the center line of the outline may also be displayed, as in the example described above. For example, if the object is judged to be a first-class product (object 1301 in the illustrated example), the circumscribing rectangle 802 may be displayed in green (circumscribing rectangle 1311 shown by a solid line in the figure); if the object is judged to be a second-class product (object 1302 in the illustrated example), the circumscribing rectangle 802 may be displayed in yellow (circumscribing rectangle 1312 shown by a dashed line in the figure); and if the object is judged to be a B-class product (object 1303 in the illustrated example), the circumscribing rectangle 802 may be displayed in red (circumscribing rectangle 1313 shown by a dashed line in the figure). Although the embodiment in which the color of the circumscribing rectangle 802 is changed according to the judgment result has been described above, the present invention is not limited to this. For example, the color of the circumscribing rectangle may be changed according to the size, length, thickness, etc. of the object. For example, if the judgment result is a first-class product and the length is equal to or greater than a predetermined length, the color of the circumscribing rectangle 802 may be displayed in green. If the judgment result is a first-class product and the length is within a predetermined length range, the color of the circumscribing rectangle 802 may be displayed in yellow. If the judgment result is a second-class product or the length is less than the predetermined length, the color of the circumscribing rectangle 802 may be displayed in light blue. If the judgment result is a third-class product, the color of the circumscribing rectangle 802 may be displayed in pink. In this way, by changing and displaying the color of the circumscribing rectangle 802 according to the judgment result, the size, length, thickness, etc. of the object, or a combination thereof, the user may be able to intuitively recognize the grade of the object, thereby improving the efficiency of sorting the objects by grade. Furthermore, as shown in FIG. 13B, the circumscribing rectangle 802 of the object may be displayed in a different color, and a legend 1321 of the color of the circumscribing rectangle 802 may be displayed using projection mapping.
なお、判定部305による判定結果が適切ではないとユーザが判断した場合に、情報処理装置100がユーザによる入力を受け付けて判定結果を変更するようにしてもよい。図10は、情報処理装置100における判定結果の変更処理の例を示すフローチャートである。以下に説明する判定結果の変更処理を行うことで、ユーザが細かいパラメータ等の調整を行うことなく結果の変更入力を行うだけで、品質(等級)評価におけるしきい値を自動調整することが可能となる。 Note that if the user determines that the judgment result by the judgment unit 305 is inappropriate, the information processing device 100 may accept input from the user and change the judgment result. Figure 10 is a flowchart showing an example of the judgment result change process in the information processing device 100. By performing the judgment result change process described below, it becomes possible for the user to automatically adjust the threshold value in the quality (grade) evaluation simply by inputting a change to the result, without having to adjust detailed parameters, etc.
ステップS1001にて、制御部306は、ユーザによる結果の変更入力があったか否かを判定する。ユーザによる結果の変更入力があったと制御部306が判定した場合(YES)、ステップS1002の処理が実行される。一方、ユーザによる結果の変更入力がないと制御部306が判定した場合(NO)、図10に示す変更処理を終了する。 In step S1001, the control unit 306 determines whether the user has input a change to the results. If the control unit 306 determines that the user has input a change to the results (YES), the process of step S1002 is executed. On the other hand, if the control unit 306 determines that the user has not input a change to the results (NO), the change process shown in FIG. 10 is terminated.
ステップS1002にて、制御部306は、ユーザによる結果の変更入力に従って、対象物に関する判定結果を変更する。
ステップS1003にて、制御部306は、ユーザによって変更された判定結果に基づいて、品質(等級)評価におけるしきい値を調整して更新し、図10に示す変更処理を終了する。
In step S1002, the control unit 306 changes the determination result regarding the object in accordance with the user's input for changing the result.
In step S1003, the control unit 306 adjusts and updates the threshold value in the quality (grade) evaluation based on the determination result changed by the user, and ends the change processing shown in FIG.
第1の実施形態によれば、情報処理装置100は、対象物を撮影した画像から検出した特徴情報に基づいて、対象物の変形の度合いを評価するための評価指標として対象物の輪郭内の面積と外接矩形の面積との面積比を導出する。そして、情報処理装置100は、評価指標として導出された対象物の輪郭内の面積と外接矩形の面積との面積比が、所定の範囲内にあるか否かを判定することで、対象物の変形の度合いを評価し、対象物の品質評価に関する判定を行う。これにより、比較的処理負荷が小さい処理によって、対象物を撮影した画像を用いた外観に基づく対象物の品質評価を精度よく行うことが可能となる。 According to the first embodiment, the information processing device 100 derives the area ratio between the area within the contour of the object and the area of the circumscribing rectangle as an evaluation index for evaluating the degree of deformation of the object, based on feature information detected from a photographed image of the object. The information processing device 100 then evaluates the degree of deformation of the object by determining whether the area ratio between the area within the contour of the object and the area of the circumscribing rectangle, derived as the evaluation index, is within a predetermined range, thereby making a determination regarding the quality evaluation of the object. This makes it possible to accurately evaluate the quality of an object based on its appearance using a photographed image of the object, using processing with a relatively low processing load.
<第2の実施形態>
第1の実施形態では、図4のステップS403において、指標演算部304は、対象物であるサツマイモの変形の度合いを評価するための評価指標を導出する。第2の実施形態では、指標演算部304は、対象物であるサツマイモの変形の度合いを評価するための評価指標に代えて、対象物であるサツマイモの曲がりを評価するための評価指標を導出する。第2の実施形態では、指標演算部304が対象物であるサツマイモの曲がりを評価するための評価指標を導出する点が異なるだけで、その他は前述した第1の実施形態と同様であるのでそれらの説明は省略し、以下では、図4のステップS403での評価指標の導出について説明する。
Second Embodiment
In the first embodiment, in step S403 of Fig. 4, the index calculation unit 304 derives an evaluation index for evaluating the degree of deformation of the sweet potato, which is the object. In the second embodiment, the index calculation unit 304 derives an evaluation index for evaluating the curvature of the sweet potato, which is the object, instead of an evaluation index for evaluating the degree of deformation of the sweet potato, which is the object. The second embodiment is the same as the first embodiment described above except that the index calculation unit 304 derives an evaluation index for evaluating the curvature of the sweet potato, which is the object. Therefore, a description of these aspects will be omitted, and the following describes the derivation of the evaluation index in step S403 of Fig. 4.
第2の実施形態において、図4のステップS403にて、指標演算部304は、対象物であるサツマイモの変形の度合いを評価するための評価指標に代えて、対象物であるサツマイモの曲がりを評価するための評価指標を、対象物であるサツマイモを撮影した各方向について導出する。図11を参照して、第2の実施形態におけるステップS403において算出される評価指標について説明する。 In the second embodiment, in step S403 of FIG. 4, the index calculation unit 304 derives an evaluation index for evaluating the curvature of the sweet potato, which is the object, for each direction in which the sweet potato, which is the object, is photographed, instead of an evaluation index for evaluating the degree of deformation of the sweet potato, which is the object. The evaluation index calculated in step S403 in the second embodiment will be described with reference to FIG. 11.
図11は、第2の実施形態におけるステップS403において算出される、対象物であるサツマイモの曲がりを評価するための評価指標の例を説明する図である。図11において、1101~1103はステップS402において検出された特徴情報であり、1101は対象物の輪郭であり、1102は外接矩形であり、1103は輪郭の中心線である。指標演算部304は、対象物であるサツマイモの曲がりを評価するための評価指標として、ステップS402において検出された特徴情報に基づいて、対象物の輪郭の中心線1103と、輪郭の中心線1103の両端(点1103A及び点1103B)を結ぶ直線1104とによって囲まれる領域の面積を算出する。対象物の曲がりが小さい場合には、対象物の輪郭の中心線1103と、その両端を結ぶ直線1104とによって囲まれる領域の面積は小さい。一方、対象物の曲がりが大きい場合には、対象物の輪郭の中心線1103と、その両端を結ぶ直線1104とによって囲まれる領域の面積は大きくなる。したがって、対象物の輪郭の中心線1103と、その両端を結ぶ直線1104とによって囲まれる領域の面積を評価指標として算出し、その大きさを評価することで、対象物の曲がりを評価することができる。 Figure 11 is a diagram illustrating an example of an evaluation index for evaluating the curvature of the sweet potato, which is the object, calculated in step S403 in the second embodiment. In Figure 11, 1101 to 1103 are feature information detected in step S402, with 1101 being the contour of the object, 1102 being the circumscribing rectangle, and 1103 being the center line of the contour. Based on the feature information detected in step S402, the index calculation unit 304 calculates, as an evaluation index for evaluating the curvature of the sweet potato, the area of the region enclosed by the center line 1103 of the object's contour and the straight line 1104 connecting both ends of the contour center line 1103 (points 1103A and 1103B). If the curvature of the object is small, the area of the region enclosed by the center line 1103 of the object's contour and the straight line 1104 connecting both ends is small. On the other hand, if the curvature of the object is large, the area of the region enclosed by the center line 1103 of the object's outline and the straight line 1104 connecting both ends of the line will be large. Therefore, the area of the region enclosed by the center line 1103 of the object's outline and the straight line 1104 connecting both ends of the line will be calculated as an evaluation index, and the curvature of the object can be evaluated by evaluating its size.
第2の実施形態では、ステップS403に続く、ステップS404では、判定部305は、評価指標として導出された対象物の輪郭の中心線1103とその両端を結ぶ直線1104とによって囲まれる領域の面積が、設定されているしきい値を超えているか否かに応じて、対象物であるサツマイモの曲がりを評価し等級を判定する。このとき、判定部305は、対象物であるサツマイモを撮影した各方向について導出された対象物の輪郭の中心線1103とその両端を結ぶ直線1104とによって囲まれる領域の面積の最大値に基づいて、対象物であるサツマイモの等級を判定する。 In the second embodiment, in step S404 following step S403, the determination unit 305 evaluates the curvature of the sweet potato object and determines its grade based on whether the area of the region enclosed by the center line 1103 of the object's outline, derived as the evaluation index, and the straight lines 1104 connecting both ends of the line, exceeds a set threshold value. At this time, the determination unit 305 determines the grade of the sweet potato object based on the maximum value of the area of the region enclosed by the center line 1103 of the object's outline, derived for each direction in which the sweet potato object was photographed, and the straight lines 1104 connecting both ends of the line.
第2の実施形態によれば、情報処理装置100は、対象物を撮影した画像から検出した特徴情報に基づいて、対象物の曲がりを評価するための評価指標として対象物の輪郭の中心線とその両端を結ぶ直線とによって囲まれる領域の面積を導出する。そして、情報処理装置100は、評価指標として導出された対象物の輪郭の中心線とその両端を結ぶ直線とによって囲まれる領域の面積が、設定されているしきい値を超えているか否かに応じて、対象物であるサツマイモの曲がりを評価し、対象物の品質評価に関する判定を行う。これにより、直接的に対象物の曲がりを評価して、対象物を撮影した画像を用いた外観に基づく対象物の品質評価を精度よく行うことが可能となる。 According to the second embodiment, the information processing device 100 derives the area of the region enclosed by the center line of the object's outline and the lines connecting both ends of the outline as an evaluation index for evaluating the curvature of the object, based on feature information detected from a photographed image of the object. The information processing device 100 then evaluates the curvature of the sweet potato object, which is the object, depending on whether the area of the region enclosed by the center line of the object's outline and the lines connecting both ends of the outline, derived as the evaluation index, exceeds a set threshold, and makes a judgment regarding the quality evaluation of the object. This makes it possible to directly evaluate the curvature of the object and accurately evaluate the quality of the object based on its appearance using a photographed image of the object.
なお、前述した説明では、対象物であるサツマイモの曲がりを評価するための評価指標として、特徴情報として検出された対象物の輪郭の中心線1103とその両端を結ぶ直線1104とによって囲まれる領域の面積を算出するようにしているが、これに限定されるものではない。例えば、指標演算部304は、対象物であるサツマイモの曲がりを評価するための評価指標として、図12Aに示すように、対象物の輪郭1201の中心線1203と、外接矩形1202を長手方向に2分割する直線1204とによって囲まれる領域の面積を算出するようにしてもよい。また、例えば、図12Bに示すように、対象物の輪郭1211に対する外接矩形1212を20~30個程度の複数の領域に分割する。そして、指標演算部304は、対象物の輪郭1211の中心線1213と外接矩形1212の長辺に平行な直線1214とのなす角1215の最大値を、対象物であるサツマイモの曲がりを評価するための評価指標として算出するようにしてもよく、この場合には局所的な曲がりを検出して評価を行うことができる。 In the above description, the area of the region enclosed by the center line 1103 of the object's contour detected as feature information and the straight line 1104 connecting both ends of the center line 1103 is calculated as the evaluation index for evaluating the curvature of the sweet potato object, but this is not limited to this. For example, the index calculation unit 304 may calculate the area of the region enclosed by the center line 1203 of the object's contour 1201 and the straight line 1204 that divides the circumscribing rectangle 1202 into two in the longitudinal direction, as shown in FIG. 12A, as the evaluation index for evaluating the curvature of the sweet potato object. Also, for example, as shown in FIG. 12B, the circumscribing rectangle 1212 for the object's contour 1211 is divided into multiple regions, approximately 20 to 30 in number. The index calculation unit 304 may then calculate the maximum value of the angle 1215 between the center line 1213 of the contour 1211 of the object and a line 1214 parallel to the long side of the circumscribing rectangle 1212 as an evaluation index for evaluating the curvature of the sweet potato object, in which case local curvature can be detected and evaluated.
なお、前述した第1の実施形態と第2の実施形態とを組み合わせてもよい。すなわち、指標演算部304が、検出部303により検出された特徴情報に基づいて、対象物の変形の度合いを評価するための評価指標と、対象物の曲がりを評価するための評価指標との両方を算出し、それらの評価指標を用いて対象物の品質評価を行うようにしてもよい。このように異なる2つの評価指標を用いて、対象物の品質評価を行うことで、品質評価において誤りが発生することを抑制することができる。 It is also possible to combine the first and second embodiments described above. That is, the index calculation unit 304 may calculate both an evaluation index for evaluating the degree of deformation of the object and an evaluation index for evaluating the curvature of the object based on the feature information detected by the detection unit 303, and use these evaluation indexes to evaluate the quality of the object. By using two different evaluation indexes in this way to evaluate the quality of the object, it is possible to reduce the occurrence of errors in the quality evaluation.
また、前述した各実施形態では、評価対象の物体(対象物)を農作物のサツマイモとして等級を判定する場合を例に説明したが、これに限定されるものではなく、他の農作物、工業製品、日用品等についての品質評価にも適用可能である。他の農作物については、例えば、ナス、キューリ、ニンジン、ゴボウなどの根菜類や野菜類の品質評価に適用することが可能である。また、例えば、他の物品としては、外観に基づく判定を行う手製品やパン等の食品に関する形状での品質評価に適用することが可能である。 Furthermore, in each of the above-described embodiments, an example has been described in which the object (target) to be evaluated is a sweet potato, an agricultural product, and the grade is determined. However, this is not limited to this, and the method can also be applied to the quality evaluation of other agricultural products, industrial products, daily necessities, etc. For other agricultural products, it can be applied to the quality evaluation of root vegetables and vegetables such as eggplant, cucumber, carrot, and burdock. Furthermore, for example, it can be applied to the quality evaluation of the shape of other items, such as handicrafts and food products such as bread, which are determined based on appearance.
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記録媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。また、そのプログラムを記録したコンピュータ読み取り可能な記録媒体及びそのプログラム等のコンピュータプログラムプロダクトも本発明の実施形態として適用することができる。記録媒体としては、例えばフレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。
<Other embodiments>
The present invention can also be realized by executing the following process. That is, software (programs) that realize the functions of the above-described embodiments are supplied to a system or device via a network or various recording media. The computer (or CPU, MPU, etc.) of the system or device then reads and executes the programs. Furthermore, computer-readable recording media on which the programs are recorded and computer program products such as the programs can also be applied as embodiments of the present invention. Examples of recording media that can be used include flexible disks, hard disks, optical disks, magneto-optical disks, CD-ROMs, magnetic tapes, non-volatile memory cards, and ROMs.
なお、前記実施形態は、何れも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that the above embodiments are merely examples of specific embodiments of the present invention, and should not be construed as limiting the technical scope of the present invention. In other words, the present invention can be implemented in various forms without departing from its technical concept or main features.
本発明によれば、対象物を撮影した画像を用いた外観に基づく対象物の品質評価を精度よく行うことができる。 The present invention makes it possible to accurately evaluate the quality of an object based on its appearance using photographed images of the object.
Claims (21)
前記画像から、前記評価対象物の輪郭、及び前記評価対象物の輪郭に対して外接する矩形領域を検出する検出手段と、
前記評価対象物の輪郭内の面積と前記矩形領域の面積との面積比を導出する指標演算手段と、
導出された前記面積比に基づいて前記評価対象物の品質評価に関する判定を行い、判定結果を出力する判定手段とを有することを特徴とする情報処理装置。 an acquisition means for acquiring an image of an object to be evaluated;
a detection means for detecting a contour of the evaluation object and a rectangular area circumscribing the contour of the evaluation object from the image;
an index calculation means for deriving an area ratio between the area within the contour of the evaluation object and the area of the rectangular region;
An information processing apparatus comprising: a determining means for determining a quality evaluation of the evaluation object based on the derived area ratio, and outputting a result of the determination.
導出された前記面積比に基づいて前記評価対象物の変形の度合いを判定し、
判定した前記評価対象物の変形の度合いに基づいて前記評価対象物の品質評価に関する判定を行うことを特徴とする請求項1に記載の情報処理装置。 The determination means
determining a degree of deformation of the evaluation object based on the derived area ratio;
The information processing apparatus according to claim 1 , wherein a quality evaluation of the evaluation object is determined based on the determined degree of deformation of the evaluation object.
前記指標演算手段は、前記評価対象物の輪郭の中心線と前記中心線の両端を結ぶ直線とによって囲まれた領域の第1の面積をさらに導出し、
前記判定手段は、導出された前記面積比、及び導出された前記第1の面積に基づいて、前記評価対象物の品質評価に関する判定を行うことを特徴とする請求項1~3の何れか1項に記載の情報処理装置。 The detection means further detects a center line of a contour of the evaluation object,
The index calculation means further derives a first area of a region surrounded by a center line of the contour of the evaluation object and a straight line connecting both ends of the center line,
The information processing device according to any one of claims 1 to 3, characterized in that the judgment means makes a judgment regarding the quality evaluation of the object to be evaluated based on the derived area ratio and the derived first area.
前記指標演算手段は、前記評価対象物の輪郭の中心線と前記矩形領域を長手方向に2分割する直線とによって囲まれた領域の第1の面積をさらに導出し、
前記判定手段は、導出された前記面積比、及び導出された前記第1の面積に基づいて、前記評価対象物の品質評価に関する判定を行うことを特徴とする請求項1~3の何れか1項に記載の情報処理装置。 The detection means further detects a center line of a contour of the evaluation object,
The index calculation means further derives a first area of a region surrounded by a center line of the contour of the evaluation object and a line that divides the rectangular region into two in a longitudinal direction,
The information processing device according to any one of claims 1 to 3, characterized in that the judgment means makes a judgment regarding the quality evaluation of the object to be evaluated based on the derived area ratio and the derived first area.
導出された前記面積比に基づいて前記評価対象物の変形の度合いを判定し、
導出された前記第1の面積に基づいて前記評価対象物の曲がりを判定し、
判定した前記評価対象物の変形の度合い及び曲がりに基づいて前記評価対象物の品質評価に関する判定を行うことを特徴とする請求項4又は5に記載の情報処理装置。 The determination means
determining a degree of deformation of the evaluation object based on the derived area ratio;
determining a bending of the evaluation object based on the derived first area;
6. The information processing apparatus according to claim 4, wherein a quality evaluation of the evaluation object is determined based on the determined degree of deformation and curvature of the evaluation object.
前記指標演算手段は、前記矩形領域を複数の領域に分割し、分割した領域毎に、前記矩形領域の長辺に平行な直線と前記評価対象物の輪郭の中心線とのなす角を導出し、
前記判定手段は、導出された前記面積比、及び導出された前記矩形領域の長辺に平行な直線と前記評価対象物の輪郭の中心線とのなす角に基づいて、前記評価対象物の品質評価に関する判定を行うことを特徴とする請求項1~3の何れか1項に記載の情報処理装置。 The detection means further detects a center line of a contour of the evaluation object,
the index calculation means divides the rectangular area into a plurality of areas, and derives, for each divided area, an angle formed between a straight line parallel to a long side of the rectangular area and a center line of a contour of the evaluation object;
An information processing device as described in any one of claims 1 to 3, characterized in that the judgment means makes a judgment regarding the quality evaluation of the object to be evaluated based on the derived area ratio and the angle between a straight line parallel to the long side of the derived rectangular area and the center line of the contour of the object to be evaluated.
前記指標演算手段は、前記複数の方向毎に前記面積比を導出することを特徴とする請求項1~8の何れか1項に記載の情報処理装置。 The acquisition means acquires images of the evaluation object taken from a plurality of directions,
9. The information processing apparatus according to claim 1, wherein the index calculation means derives the area ratio for each of the plurality of directions.
前記判定手段は、さらに、検出された前記農作物における疵、病気、しわ、及び変色の少なくとも1つについての情報に基づいて前記農作物の品質評価に関する判定を行うことを特徴とする請求項11に記載の情報処理装置。 The detection means further detects information about at least one of defects, diseases, wrinkles, and discoloration in the crop from the image;
12. The information processing apparatus according to claim 11, wherein the determining means further determines the quality of the agricultural product based on information about at least one of blemishes, diseases, wrinkles, and discoloration detected in the agricultural product.
前記評価対象物の画像を撮影する撮像手段と、
前記判定結果を表示する表示手段とを有することを特徴とする情報処理システム。 An information processing device according to any one of claims 1 to 12;
an imaging means for capturing an image of the evaluation object;
and a display unit for displaying the determination result.
評価対象物を撮影した画像を取得する取得工程と、
前記画像から、前記評価対象物の輪郭、及び前記評価対象物の輪郭に対して外接する矩形領域を検出する検出工程と、
前記評価対象物の輪郭内の面積と前記矩形領域の面積との面積比を導出する指標演算工程と、
導出された前記面積比に基づいて前記評価対象物の品質評価に関する判定を行い、判定結果を出力する判定工程とを有することを特徴とする情報処理方法。 An information processing method executed by an information processing device,
an acquisition step of acquiring an image of an object to be evaluated;
a detection step of detecting a contour of the evaluation object and a rectangular area circumscribing the contour of the evaluation object from the image;
an index calculation step of deriving an area ratio between the area within the contour of the evaluation object and the area of the rectangular region;
and a determination step of making a determination regarding the quality evaluation of the evaluation object based on the derived area ratio and outputting a determination result.
評価対象物を撮影した画像を取得する取得ステップと、
前記画像から、前記評価対象物の輪郭、及び前記評価対象物の輪郭に対して外接する矩形領域を検出する検出ステップと、
前記評価対象物の輪郭内の面積と前記矩形領域の面積との面積比を導出する指標演算ステップと、
導出された前記面積比に基づいて前記評価対象物の品質評価に関する判定を行い、判定結果を出力する判定ステップとを実行させるプログラム。 The computer of the information processing device
an acquisition step of acquiring an image of an object to be evaluated;
a detection step of detecting a contour of the evaluation object and a rectangular area circumscribing the contour of the evaluation object from the image;
an index calculation step of deriving an area ratio between an area within the contour of the evaluation object and an area of the rectangular region;
and a determination step of making a determination regarding the quality evaluation of the evaluation object based on the derived area ratio and outputting the determination result.
評価対象物を撮影した画像を取得する取得ステップと、
前記画像から、前記評価対象物の輪郭、及び前記評価対象物の輪郭に対して外接する矩形領域を検出する検出ステップと、
前記評価対象物の輪郭内の面積と前記矩形領域の面積との面積比を導出する指標演算ステップと、
導出された前記面積比に基づいて前記評価対象物の品質評価に関する判定を行い、判定結果を出力する判定ステップとを実行させるプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。 The computer of the information processing device
an acquisition step of acquiring an image of an object to be evaluated;
a detection step of detecting a contour of the evaluation object and a rectangular area circumscribing the contour of the evaluation object from the image;
an index calculation step of deriving an area ratio between an area within the contour of the evaluation object and an area of the rectangular region;
A computer-readable recording medium having a program recorded thereon that executes a judgment step of making a judgment regarding the quality evaluation of the object to be evaluated based on the derived area ratio and outputting the judgment result.
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024-108293 | 2024-07-04 | ||
| JP2024108293 | 2024-07-04 | ||
| JP2025086341A JP2026008792A (en) | 2024-07-04 | 2025-05-23 | Information processing device, information processing method, program, and information processing system |
| JP2025-086341 | 2025-05-23 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2026009759A1 true WO2026009759A1 (en) | 2026-01-08 |
Family
ID=98318444
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2025/022615 Pending WO2026009759A1 (en) | 2024-07-04 | 2025-06-24 | Information processing device, information processing method, information processing system, program, and recording medium |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2026009759A1 (en) |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS62241585A (en) * | 1986-04-10 | 1987-10-22 | 株式会社マキ製作所 | Method and device for selecting long-sized vegetables |
| JPH1183443A (en) * | 1997-09-10 | 1999-03-26 | Kubota Corp | Long vegetable thickness detector |
| JP2013048318A (en) * | 2011-08-29 | 2013-03-07 | Nintendo Co Ltd | Information processor, information processing program, information processing method, and information processing system |
| JP2017044668A (en) * | 2015-08-28 | 2017-03-02 | シスメックス株式会社 | Blood sample analysis method, blood sample analyzer, and computer program |
| WO2019151393A1 (en) * | 2018-01-31 | 2019-08-08 | 株式会社ニチレイフーズ | Food inspection system, food inspection program, food inspection method and food production method |
| WO2020203764A1 (en) * | 2019-03-29 | 2020-10-08 | 株式会社日立システムズ | Field work support system |
-
2025
- 2025-06-24 WO PCT/JP2025/022615 patent/WO2026009759A1/en active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS62241585A (en) * | 1986-04-10 | 1987-10-22 | 株式会社マキ製作所 | Method and device for selecting long-sized vegetables |
| JPH1183443A (en) * | 1997-09-10 | 1999-03-26 | Kubota Corp | Long vegetable thickness detector |
| JP2013048318A (en) * | 2011-08-29 | 2013-03-07 | Nintendo Co Ltd | Information processor, information processing program, information processing method, and information processing system |
| JP2017044668A (en) * | 2015-08-28 | 2017-03-02 | シスメックス株式会社 | Blood sample analysis method, blood sample analyzer, and computer program |
| WO2019151393A1 (en) * | 2018-01-31 | 2019-08-08 | 株式会社ニチレイフーズ | Food inspection system, food inspection program, food inspection method and food production method |
| WO2020203764A1 (en) * | 2019-03-29 | 2020-10-08 | 株式会社日立システムズ | Field work support system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| TWI709091B (en) | Image processing method and device | |
| JP4997252B2 (en) | How to identify the illumination area in an image | |
| US10964057B2 (en) | Information processing apparatus, method for controlling information processing apparatus, and storage medium | |
| US11276202B2 (en) | Moving image generation apparatus, moving image generation method, and non-transitory recording medium | |
| US8457365B2 (en) | Device, method and computer readable recording medium containing program for evaluating image | |
| CN114674826A (en) | Cloth-based visual inspection method and inspection system | |
| CN117011186A (en) | Line structured light image enhancement method suitable for reflective surface measurement | |
| JPH11151206A (en) | Eyeground image analyzing method and device therefor | |
| US20020044676A1 (en) | Method and system for automatic computed radiography (CR) image composition by white band detection and consistency rechecking | |
| US9478032B2 (en) | Image monitoring apparatus for estimating size of singleton, and method therefor | |
| JP3585331B2 (en) | Analysis method of fundus stereoscopic image | |
| CN108985325A (en) | Classification method, device, equipment and system | |
| JP2014170978A (en) | Information processing device, information processing method, and information processing program | |
| WO2026009759A1 (en) | Information processing device, information processing method, information processing system, program, and recording medium | |
| WO2026009760A1 (en) | Information processing device, information processing method, information processing system, information processing program, and recording medium | |
| JP2026008793A (en) | Information processing device, information processing method, program, and information processing system | |
| JP2026008792A (en) | Information processing device, information processing method, program, and information processing system | |
| US7899236B2 (en) | Evaluation of optical distortion in a transparency | |
| CN114170318B (en) | Image processing method, device, system, medium and electronic equipment | |
| CN114037698A (en) | A point cloud-based rigid body defect classification method, device and equipment | |
| JP7337557B2 (en) | Information processing device, system, information processing method and program | |
| CN119342207A (en) | A video cropping method and a quality evaluation method for cropped video | |
| JPH0473052A (en) | Hair diameter measurement method, measurement device, and measurement sample | |
| CN109827759A (en) | Defect detection method and detection device applied to optical module | |
| CN115205288A (en) | Industrial defect detection method and device |