[go: up one dir, main page]

JP2019158684A - Inspection system, identification system, and discriminator evaluation device - Google Patents

Inspection system, identification system, and discriminator evaluation device Download PDF

Info

Publication number
JP2019158684A
JP2019158684A JP2018047255A JP2018047255A JP2019158684A JP 2019158684 A JP2019158684 A JP 2019158684A JP 2018047255 A JP2018047255 A JP 2018047255A JP 2018047255 A JP2018047255 A JP 2018047255A JP 2019158684 A JP2019158684 A JP 2019158684A
Authority
JP
Japan
Prior art keywords
data
discriminator
evaluation
learning
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018047255A
Other languages
Japanese (ja)
Other versions
JP7056259B2 (en
Inventor
真嗣 栗田
Masashi Kurita
真嗣 栗田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2018047255A priority Critical patent/JP7056259B2/en
Priority to PCT/JP2019/010178 priority patent/WO2019176988A1/en
Publication of JP2019158684A publication Critical patent/JP2019158684A/en
Application granted granted Critical
Publication of JP7056259B2 publication Critical patent/JP7056259B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

【課題】再学習又は追加学習により識別器の識別性能が悪化してしまった場合でも、識別器を利用した判定の信頼性が損なわれてしまうのを防止する。【解決手段】本発明の一側面に係る検査システムは、評価用データセットを利用して、再学習又は追加学習前の第1識別器、及び再学習又は追加学習後の第2識別器の判定性能を評価し、その評価の結果に基づいて、第2識別器の判定性能が第1識別器と比べて悪化しているか否かを判定する。そして、検査システムは、第2識別器の判定性能が第1識別器と比べて悪化してしまった場合に、第2識別器を利用せずに、第1識別器を利用して、製品の良否を判定する。【選択図】図1PROBLEM TO BE SOLVED: To prevent the reliability of determination using a discriminator from being impaired even when the discriminating performance of the discriminator is deteriorated by re-learning or additional learning. An inspection system according to one aspect of the present invention uses an evaluation data set to determine a first classifier before re-learning or additional learning and a second classifier after re-learning or additional learning. The performance is evaluated, and based on the result of the evaluation, it is determined whether or not the determination performance of the second classifier is worse than that of the first classifier. Then, when the judgment performance of the second classifier deteriorates as compared with the first classifier, the inspection system uses the first classifier without using the second classifier to obtain the product. Judge good or bad. [Selection diagram] Fig. 1

Description

本発明は、検査システム、識別システム、及び識別器評価装置に関する。   The present invention relates to an inspection system, an identification system, and a classifier evaluation apparatus.

従来、生産ライン等の製品を製造する場面では、製造される製品を撮影装置により撮影し、得られた画像データに基づいて製品の良否を検査する技術が利用されている。例えば、特許文献1では、学習済みの第1のニューラルネットワークに基づいて画像に写る検査対象物が正常であるか異常であるかを判定し、検査対象物が異常であると判定した場合に、学習済みの第2のニューラルネットワークに基づいて当該異常の種類を分類する検査装置が提案されている。   2. Description of the Related Art Conventionally, in a scene where a product such as a production line is manufactured, a technique is used in which the manufactured product is photographed with a photographing device and the quality of the product is inspected based on the obtained image data. For example, in Patent Document 1, when it is determined whether the inspection object shown in the image is normal or abnormal based on the learned first neural network, and it is determined that the inspection object is abnormal, There has been proposed an inspection apparatus for classifying the type of abnormality based on a learned second neural network.

特開2012−026982号公報JP 2012-026982 A

本件発明者は、特許文献1のような学習済みのニューラルネットワーク等の識別器を利用して、画像データから製品の良否を判定する従来の技術には次のような問題点があることを見出した。すなわち、識別器は、事前に収集した画像データに写る製品の良否を識別するように構築されるため、新たな種類の欠陥が発生する等の未知のケースには対応することができない。そこで、未知のケースに対応するために、この未知のケースの写る追加の画像データを収集し、収集した追加の画像データにより識別器の再学習又は追加学習を実施する。これにより、更新された識別器は、追加の画像データにより学習した未知のケースに対応することができるようになる。   The present inventor has found the following problems in the conventional technique for determining the quality of a product from image data using a discriminator such as a learned neural network as in Patent Document 1. It was. In other words, the discriminator is constructed so as to discriminate the quality of the product shown in the pre-collected image data, and therefore cannot cope with an unknown case such as a new type of defect. Therefore, in order to deal with an unknown case, additional image data in which the unknown case is captured is collected, and re-learning or additional learning of the discriminator is performed using the collected additional image data. As a result, the updated discriminator can cope with an unknown case learned by the additional image data.

しかしながら、学習する画像データの件数が増えると、特殊なケースの識別を学習したこと等の影響を受けて、識別器の性能がかえって悪化する可能性がある。例えば、ニューラルネットワーク等のAI技術を識別器に利用した場合には、学習データの件数が増えると、学習データに表れる良否のケースに過剰に適合してしまう等の原因により過学習が起きてしまい、識別器の性能が悪化してしまうことがある。従来の技術では、再学習又は追加学習により識別器の性能が悪化してしまった場合に、この識別器による製品の良否判定の信頼性が損なわれてしまうという問題点があることを本件発明者は見出した。   However, when the number of image data to be learned increases, the performance of the discriminator may deteriorate due to the influence of learning of special case discrimination. For example, when AI technology such as a neural network is used for a discriminator, if the number of learning data increases, over-learning may occur due to excessive adaptation to the good / bad cases appearing in the learning data. The performance of the discriminator may deteriorate. In the conventional technology, when the performance of the discriminator deteriorates due to re-learning or additional learning, there is a problem that the reliability of product quality determination by the discriminator is impaired. Found.

なお、この問題点は、製品の良否を判定する場面に特有のものではない。画像データから被写体の何らかの状態を識別する場面、画像データ以外のデータから何らかの特徴を識別する場面等、再学習又は追加学習により識別器を更新するあらゆる場面で同様の問題点が生じ得る。すなわち、収集した追加のデータにより識別器の再学習又は追加学習を実施することで、更新された識別器は、追加のデータにより学習した未知のケースに対応することができるようになる。しかしながら、学習するデータの件数が増えると、対象のデータに表れる特徴を識別器により識別する性能が悪化してしまう可能性がある。   This problem is not unique to the scene where the quality of the product is judged. Similar problems may occur in any scene where the discriminator is updated by re-learning or additional learning, such as a scene where a certain state of a subject is identified from image data and a scene where a characteristic is identified from data other than image data. That is, the re-learning or additional learning of the classifier is performed using the collected additional data, so that the updated classifier can cope with an unknown case learned by the additional data. However, when the number of data to be learned increases, the performance of identifying the features appearing in the target data by the classifier may be deteriorated.

本発明は、一側面では、このような実情を鑑みてなされたものであり、その目的は、再学習又は追加学習により識別器の識別性能が悪化してしまった場合でも、識別器を利用した判定の信頼性が損なわれてしまうのを防止する技術を提供することである。   The present invention has been made in view of such a situation in one aspect, and the purpose thereof is to use a discriminator even when the discrimination performance of the discriminator deteriorates due to re-learning or additional learning. It is to provide a technique for preventing the determination reliability from being impaired.

本発明は、上述した課題を解決するために、以下の構成を採用する。   The present invention employs the following configuration in order to solve the above-described problems.

すなわち、本発明の一側面に係る検査システムは、製品の良否を検査する検査システムであって、前記製品の写る評価用画像データ、及び前記評価用画像データに写る前記製品の良否の判定に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得する評価データ取得部と、各件の評価用データセットについて、前記製品の良否を学習するための画像データで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用画像データを入力し、前記第1識別器から得られる出力に基づいて前記評価用画像データに写る前記製品の良否を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価する第1評価部と、各件の評価用データセットについて、前記第1学習データ及び前記製品の良否を学習するための追加の画像データで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用画像データを入力し、前記第2識別器から得られる出力に基づいて前記評価用画像データに写る前記製品の良否を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価する第2評価部と、前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定する性能判定部と、検査の対象となる前記製品の写る対象画像データを取得する対象データ取得部と、前記第2識別器の判定性能が前記第1識別器と比べて悪化していると判定した場合には、前記第1識別器を利用して前記対象画像データに写る前記製品の良否を判定し、前記第2識別器の判定性能が前記第1識別器と比べて悪化していないと判定した場合には、前記第2識別器を利用して前記対象画像データに写る前記製品の良否を判定する良否判定部と、を備える。   That is, the inspection system according to one aspect of the present invention is an inspection system that inspects the quality of a product, and is a correct answer to the evaluation image data that is reflected in the product and the quality determination of the product that is reflected in the evaluation image data. An evaluation data acquisition unit that acquires a plurality of evaluation data sets each configured by a combination of correct answer data indicating the above, and image data for learning the quality of the product for each evaluation data set The evaluation image data is input to a first discriminator constructed by machine learning using the first learning data, and the product image reflected in the evaluation image data based on an output obtained from the first discriminator. A first evaluation unit that evaluates the determination performance of the first discriminator by comparing the result of determining pass / fail with the correct answer indicated by the correct answer data, and for evaluation of each case For the data set, the evaluation image data is stored in a second discriminator constructed by machine learning using second learning data composed of the first learning data and additional image data for learning the quality of the product. The result of determining the quality of the product shown in the evaluation image data based on the output obtained from the second discriminator and the correct answer indicated by the correct data are collated. Based on the second evaluation unit for evaluating the determination performance and the result of the evaluation on the first discriminator and the second discriminator, the determination performance of the second discriminator is worse than that of the first discriminator. Compared to the first discriminator, the performance discriminating unit for determining whether or not the target discriminating performance of the second discriminator is compared with the target discriminating unit for acquiring the target image data of the product to be inspected. Getting worse If it is determined, the quality of the product shown in the target image data is determined using the first discriminator, and the determination performance of the second discriminator is deteriorated as compared with the first discriminator. A pass / fail judgment unit for judging pass / fail of the product in the target image data using the second discriminator when it is determined that the product is not present.

当該構成に係る検査システムでは、評価用画像データ及び正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを利用して、第1識別器及び第2識別器の判定性能を評価する。第1識別器は、第1学習データを利用した機械学習により構築されるのに対して、第2識別器は、第1学習データ及び追加の画像データで構成される第2学習データを利用した機械学習により構築される。つまり、第1識別器と第2識別器との間の関係では、第1識別器は、再学習又は追加学習前の識別器であり、第2識別器は、再学習又は追加学習後の識別器である。   In the inspection system according to the configuration, the determination performance of the first discriminator and the second discriminator is evaluated by using a plurality of evaluation data sets each composed of a combination of evaluation image data and correct answer data. The first discriminator is constructed by machine learning using the first learning data, whereas the second discriminator uses second learning data composed of the first learning data and additional image data. Built by machine learning. That is, in the relationship between the first classifier and the second classifier, the first classifier is a classifier before re-learning or additional learning, and the second classifier is identified after re-learning or additional learning. It is a vessel.

続いて、当該構成に係る検査システムでは、第1識別器及び第2識別器に対する評価の結果に基づいて、第2識別器の判定性能が第1識別器と比べて悪化しているか否かを判定する。すなわち、再学習又は追加学習の前後で識別器の性能が悪化していないかどうかを監視する。そして、当該構成に係る検査システムは、再学習又は追加学習の際に過学習が生じてしまう等の何らかの理由で第2識別器の判定性能が第1識別器と比べて悪化してしまった場合に、再学習又は追加学習後の第2識別器を利用せずに、再学習又は追加学習前の第1識別器を利用して、製品の良否を判定する。一方で、そのような事態が生じなかった場合には、第2識別器を利用して、製品の良否を判定する。   Subsequently, in the inspection system according to the configuration, whether or not the determination performance of the second discriminator is deteriorated as compared with the first discriminator based on the evaluation results for the first discriminator and the second discriminator. judge. That is, it is monitored whether the performance of the classifier has deteriorated before and after re-learning or additional learning. Then, in the inspection system according to the configuration, when the determination performance of the second discriminator is deteriorated compared to the first discriminator for some reason such as over-learning during re-learning or additional learning In addition, the quality of the product is determined using the first classifier before re-learning or additional learning without using the second classifier after re-learning or additional learning. On the other hand, when such a situation does not occur, the quality of the product is determined using the second discriminator.

したがって、当該構成によれば、未知のケースに対応するように識別器の再学習又は追加学習を実施可能にすると共に、再学習又は追加学習により識別器の性能が悪化したか否かを監視することができる。これによって、再学習又は追加学習により識別器の性能が悪化してしまった場合でも、再学習又は追加学習後の識別器(第2識別器)を利用しないようにすることで、識別器を利用した判定の信頼性が損なわれてしまうのを防止することができる。   Therefore, according to this configuration, it is possible to perform re-learning or additional learning of a classifier so as to correspond to an unknown case, and monitor whether the performance of the classifier has deteriorated due to re-learning or additional learning. be able to. As a result, even if the performance of the discriminator deteriorates due to re-learning or additional learning, the discriminator is used by not using the discriminator (second discriminator) after re-learning or additional learning. It is possible to prevent the reliability of the determination made from being impaired.

なお、「製品」は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。「製品」は、例えば、電子部品、自動車部品等の製造ラインで搬送される物であってよい。電子部品は、例えば、基盤、チップコンデンサ、液晶、リレーの巻線等である。自動車部品は、例えば、コンロッド、シャフト、エンジンブロック、パワーウィンドウスイッチ、パネル等である。「良否の判定」は、製品に欠陥があるか否かを単に判定することであってもよいし、製品に欠陥がある否かを判定することに加えて、その欠陥の種類を識別することを含んでもよい。欠陥は、例えば、傷、汚れ、クラック、打痕、埃、バリ、色ムラ等である。「識別器」は、例えば、ニューラルネットワーク、サポートベクタマシン、自己組織化マップ、強化学習モデル等の、機械学習により所定の推論を行う能力を獲得可能な学習モデルにより構成されてよい。また、第1識別器は、他の識別器との関係で、再学習又は追加学習後の識別器であってもよい。「再学習」は、識別器の機械学習に利用した元の学習データ(第1学習データ)を用いた機械学習を再度行うことである。また、「追加学習」は、新たな学習データを用いた機械学習により、識別器の更新を行うことである。「再学習又は追加学習」には、これらの機械学習により識別器の更新を行うことの他、元の学習データ及び新たな学習データを用いた機械学習により新たな識別器を構築することが含まれてよい。   The “product” is not particularly limited, and may be appropriately selected according to the embodiment. The “product” may be, for example, a product conveyed on a production line such as an electronic component or an automobile component. The electronic component is, for example, a substrate, a chip capacitor, a liquid crystal, a relay winding, or the like. The automobile parts are, for example, connecting rods, shafts, engine blocks, power window switches, panels, and the like. “Determining whether or not the product is good” may be simply determining whether or not the product is defective. In addition to determining whether or not the product is defective, the type of the defect is identified. May be included. The defects are, for example, scratches, dirt, cracks, dents, dust, burrs, color unevenness, and the like. The “discriminator” may be configured by a learning model that can acquire the ability to perform predetermined inference by machine learning, such as a neural network, a support vector machine, a self-organizing map, and a reinforcement learning model. The first discriminator may be a discriminator after re-learning or additional learning in relation to other discriminators. “Relearning” is to perform machine learning again using original learning data (first learning data) used for machine learning of the classifier. In addition, “additional learning” is to update the classifier by machine learning using new learning data. “Relearning or additional learning” includes updating a discriminator by using these machine learnings and constructing a new discriminator by machine learning using original learning data and new learning data. It may be.

上記一側面に係る検査システムにおいて、前記第1評価部は、前記複数件の評価用データセットに対して、前記第1識別器から得られる出力に基づいて前記評価用画像データに写る前記製品の良否を判定した結果が前記正解データの示す正解と一致している比率を算出することで、前記第1識別器の判定性能を評価してもよく、前記第2評価部は、前記複数件の評価用データセットに対して、前記第2識別器から得られる出力に基づいて前記評価用画像データに写る前記製品の良否を判定した結果が前記正解データの示す正解と一致している比率を算出することで、前記第2識別器の判定性能を評価してもよい。当該構成によれば、各識別器による判定結果と正解データとが一致している比率、すなわち、評価用データセットに対する判定の正答率により、各識別器の判定性能を適切に評価することができるようになる。これによって、再学習又は追加学習により識別器の性能が悪化してしまったか否かを適切に判定することができる。   In the inspection system according to the above aspect, the first evaluation unit may include the plurality of evaluation data sets of the product that is reflected in the evaluation image data based on an output obtained from the first discriminator. The determination performance of the first discriminator may be evaluated by calculating a ratio in which the result of determining pass / fail matches the correct answer indicated by the correct answer data, and the second evaluation unit may evaluate the plurality of cases. For the evaluation data set, the ratio of the result of determining the quality of the product shown in the evaluation image data based on the output obtained from the second discriminator agrees with the correct answer indicated by the correct answer data is calculated. Thus, the determination performance of the second discriminator may be evaluated. According to the said structure, the determination performance of each discriminator can be appropriately evaluated by the ratio with which the determination result by each discriminator and correct answer data correspond, ie, the correct answer rate of the determination with respect to the evaluation data set. It becomes like this. This makes it possible to appropriately determine whether or not the performance of the classifier has deteriorated due to re-learning or additional learning.

上記一側面に係る検査システムにおいて、前記各件の評価用データセットには、前記判定性能に寄与する度合いを示す重みが設定されていてもよい。当該構成によれば、評価用データセットに重み付けを行うことで、評価用画像データに写る製品の良否判定の重要度を設定することができる。これにより、再学習又は追加学習により構築された第2識別器が、比較的に重要度の高い評価用画像データに対する良否の判定を誤るようになっていないかどうかを監視することができる。したがって、比較的に重要度の高い評価用画像データに対する良否の判定を第2識別器が誤るようになってしまった場合に、この第2識別器を利用しないようにすることで、良否の判定の信頼性が損なわれてしまうのを防止することができる。   In the inspection system according to the above aspect, a weight indicating the degree of contribution to the determination performance may be set in each evaluation data set. According to this configuration, it is possible to set the importance level of the product quality determination shown in the evaluation image data by weighting the evaluation data set. As a result, it is possible to monitor whether or not the second discriminator constructed by re-learning or additional learning makes a mistake in determining whether the evaluation image data with relatively high importance is wrong. Therefore, when the second discriminator mistakenly determines pass / fail for evaluation image data having a relatively high importance, the pass / fail determination is made by not using the second discriminator. It is possible to prevent the reliability of the device from being impaired.

上記一側面に係る検査システムにおいて、前記複数件の評価用データセットは、前記評価用画像データに写る前記製品の良否の判定を誤ってはいけないものとして設定される禁忌データセットを含んでもよく、前記性能判定部は、前記第1識別器から得られる出力に基づいて前記禁忌データセットの前記評価用画像データに写る前記製品の良否を判定した結果が前記正解データの示す正解と一致しているのに対して、前記第2識別器から得られる出力に基づいて前記禁忌データセットの前記評価用画像データに写る前記製品の良否を判定した結果が前記正解データの示す正解と一致していない場合、前記第2識別器の判定性能が前記第1識別器と比べて悪化していると判定してもよい。当該構成によれば、評価用データセットのうちから、評価用画像データに写る製品の良否の判定を誤ってはいけない禁忌データセットを設定することができる。これにより、再学習又は追加学習により構築された第2識別器が、禁忌データセットの評価用画像データに対する良否の判定を誤るようになっていないかどうかを監視することができる。したがって、禁忌データセットの評価用画像データに対する良否の判定を第2識別器が誤るようになってしまった場合に、この第2識別器を利用しないようにすることで、良否の判定の信頼性が損なわれてしまうのを防止することができる。また、この場合、禁忌データセット以外の評価用データセットに対する良否の判定を省略してもよい。これにより、第1識別器及び第2識別器の判定性能を評価する処理の演算コストを低減することができ、演算装置の処理負荷を低減することができる。   In the inspection system according to the above aspect, the plurality of evaluation data sets may include contraindication data sets that are set so as not to erroneously determine the quality of the product in the evaluation image data, The performance determination unit determines whether the product shown in the evaluation image data in the contraindication data set is good or bad based on an output obtained from the first discriminator, and matches a correct answer indicated by the correct data. On the other hand, the result of determining the quality of the product shown in the evaluation image data of the contraindication data set based on the output obtained from the second discriminator does not match the correct answer indicated by the correct data The determination performance of the second classifier may be determined to be worse than that of the first classifier. According to this configuration, it is possible to set a contraindication data set in the evaluation data set that should not be erroneously determined as to whether the product shown in the evaluation image data is acceptable. Thereby, it is possible to monitor whether or not the second discriminator constructed by re-learning or additional learning makes a mistake in determining whether the image data for evaluation of the contraindicated data set is acceptable. Therefore, when the second discriminator mistakenly determines pass / fail for the evaluation image data of the contraindicated data set, the reliability of the pass / fail determination can be improved by not using the second discriminator. Can be prevented from being damaged. In this case, the quality determination for the evaluation data sets other than the contraindicated data sets may be omitted. Thereby, the calculation cost of the process which evaluates the determination performance of a 1st discriminator and a 2nd discriminator can be reduced, and the processing load of an arithmetic unit can be reduced.

上記一側面に係る検査システムにおいて、前記評価データ取得部は、前記製品の良否を検査する環境において、前記評価用画像データを取得してもよい。当該構成によれば、製品の良品を検査する環境において得られた評価用画像データを利用することで、各識別器の判定性能を適切に評価することができるようになる。これによって、再学習又は追加学習により識別器の性能が悪化してしまったか否かを適切に判定することができる。   In the inspection system according to the above aspect, the evaluation data acquisition unit may acquire the evaluation image data in an environment for inspecting the quality of the product. According to this configuration, it is possible to appropriately evaluate the determination performance of each discriminator by using the evaluation image data obtained in an environment for inspecting non-defective products. This makes it possible to appropriately determine whether or not the performance of the classifier has deteriorated due to re-learning or additional learning.

また、上記各形態に係る検査システムから、例えば、各識別器の判定性能を評価する部分、第1識別器又は第2識別器を利用して製品の良否を判定する部分等の一部分を抽出して他の形態に係る装置を構成してもよい。   Further, from the inspection system according to each of the above embodiments, for example, a part such as a part for evaluating the determination performance of each classifier, a part for determining the quality of the product using the first classifier or the second classifier is extracted. An apparatus according to another embodiment may be configured.

例えば、本発明の一側面に係る識別器評価装置は、製品の写る評価用画像データ、及び前記評価用画像データに写る前記製品の良否の判定に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得する評価データ取得部と、各件の評価用データセットについて、前記製品の良否を学習するための画像データで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用画像データを入力し、前記第1識別器から得られる出力に基づいて前記評価用画像データに写る前記製品の良否を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価する第1評価部と、各件の評価用データセットについて、前記第1学習データ及び前記製品の良否を学習するための追加の画像データで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用画像データを入力し、前記第2識別器から得られる出力に基づいて前記評価用画像データに写る前記製品の良否を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価する第2評価部と、前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定する性能判定部と、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定した結果を出力する出力部と、を備える。   For example, the discriminator evaluation device according to one aspect of the present invention is configured by a combination of evaluation image data showing a product and correct data indicating a correct answer to the quality determination of the product shown in the evaluation image data. By machine learning using the first learning data composed of the image data for learning the quality of the product for each evaluation data set and the evaluation data acquisition unit for acquiring a plurality of evaluation data sets The evaluation image data is input to the constructed first discriminator, and the result of determining the quality of the product in the evaluation image data based on the output obtained from the first discriminator and the correct data are shown. A first evaluation unit that evaluates the determination performance of the first discriminator by checking the correct answer, and the first learning data and the previous data set for each evaluation data set The evaluation image data is input to a second discriminator constructed by machine learning using second learning data composed of additional image data for learning product quality, and obtained from the second discriminator. A second evaluation unit that evaluates the determination performance of the second discriminator by comparing the result of determining the quality of the product that is reflected in the image data for evaluation based on the output output and the correct answer indicated by the correct data; A performance determination unit that determines whether or not the determination performance of the second classifier is worse than that of the first classifier based on the result of the evaluation on the first classifier and the second classifier And an output unit that outputs a result of determining whether or not the determination performance of the second classifier is worse than that of the first classifier.

また、上記各形態に係る検査システムは、製品の写る画像データ以外の画像データから何らかの特徴を判定する場面、画像データ以外の他のデータを含むデータから何らかの特徴を判定する場面等の、再学習又は追加学習により識別器を更新するあらゆる場面に適用可能に変更されてよい。   In addition, the inspection system according to each of the above aspects is relearned such as a scene where a characteristic is determined from image data other than image data showing a product, a scene where a characteristic is determined from data including data other than the image data, etc. Or it may change so that it can apply to every scene which updates a discriminator by additional learning.

例えば、本発明の一側面に係る識別システムは、評価用画像データ、及び前記評価用画像データに写る被写体の状態の識別に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得する評価データ取得部と、各件の評価用データセットについて、前記被写体の状態を識別する学習を行うための画像データで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用画像データを入力し、前記第1識別器から得られる出力に基づいて前記評価用画像データに写る前記被写体の状態を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価する第1評価部と、各件の評価用データセットについて、前記第1学習データ及び前記被写体の状態を識別する学習を行うための追加の画像データで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用画像データを入力し、前記第2識別器から得られる出力に基づいて前記評価用画像データに写る前記被写体の状態を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価する第2評価部と、前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定する性能判定部と、状態を識別する対象となる前記被写体の写る対象画像データを取得する対象データ取得部と、前記第2識別器の判定性能が前記第1識別器と比べて悪化していると判定した場合には、前記第1識別器を利用して前記対象画像データに写る前記被写体の状態を判定し、前記第2識別器の判定性能が前記第1識別器と比べて悪化していないと判定した場合には、前記第2識別器を利用して前記対象画像データに写る前記被写体の状態を判定する状態判定部と、を備える。   For example, the identification system according to one aspect of the present invention includes a plurality of pieces of evaluation data each composed of a combination of evaluation image data and correct data indicating correct answers for identification of the state of the subject in the evaluation image data. An evaluation data acquisition unit for acquiring a set, and each evaluation data set was constructed by machine learning using first learning data composed of image data for performing learning for identifying the state of the subject. The evaluation image data is input to the first discriminator, and the result of determining the state of the subject in the evaluation image data based on the output obtained from the first discriminator and the correct answer indicated by the correct data. A first evaluation unit that evaluates the determination performance of the first discriminator by collating, and the first learning data and the previous data set for each evaluation data set The evaluation image data is input to a second discriminator constructed by machine learning using second learning data composed of additional image data for performing learning for identifying a subject state, and the second identification is performed. A second evaluation unit that evaluates the determination performance of the second discriminator by comparing a result of determining the state of the subject in the image data for evaluation based on an output obtained from the detector with a correct answer indicated by the correct data. Based on the evaluation unit and the result of the evaluation on the first discriminator and the second discriminator, it is determined whether or not the determination performance of the second discriminator is worse than that of the first discriminator. The determination performance of the performance determination unit, the target data acquisition unit that acquires target image data in which the subject to be identified is captured, and the determination performance of the second discriminator are worse than those of the first discriminator. If judged When determining the state of the subject in the target image data using the first classifier and determining that the determination performance of the second classifier has not deteriorated compared to the first classifier And a state determination unit that determines the state of the subject in the target image data using the second discriminator.

なお、「被写体」及び識別の対象となる被写体の「状態」はそれぞれ、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。「被写体」は、例えば、対象者の顔、対象者の身体、作業対象のワーク等であってよい。また、被写体が対象者の顔である場合、識別の対象となる状態は、例えば、表情の種別、顔のパーツの状態、その顔を所有する個人等であってよい。被写体が対象者の身体である場合には、識別の対象となる状態は、例えば、身体のポーズ等であってよい。被写体が作業対象のワークである場合、識別の対象となる状態は、例えば、ワークの位置、姿勢等であってよい。   Note that the “subject” and the “state” of the subject to be identified are not particularly limited, and may be appropriately selected according to the embodiment. The “subject” may be, for example, the face of the subject, the body of the subject, the work to be worked, and the like. Further, when the subject is the face of the subject, the state to be identified may be, for example, the type of facial expression, the state of the facial parts, the individual who owns the face, and the like. When the subject is the subject's body, the state to be identified may be, for example, a body pose. When the subject is a work target work, the state to be identified may be, for example, the position and posture of the work.

また、例えば、本発明の一側面に係る識別システムは、評価用データ、及び前記評価用データに含まれる特徴の識別に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得する評価データ取得部と、各件の評価用データセットについて、前記特徴を識別する学習を行うためのデータで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用データを入力し、前記第1識別器から得られる出力に基づいて前記評価用データに含まれる前記特徴を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価する第1評価部と、各件の評価用データセットについて、前記第1学習データ及び前記特徴を識別する学習を行うための追加のデータで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用データを入力し、前記第2識別器から得られる出力に基づいて前記評価用データに含まれる前記特徴を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価する第2評価部と、前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定する性能判定部と、識別する対象となる特徴を含む対象データを取得する対象データ取得部と、前記第2識別器の判定性能が前記第1識別器と比べて悪化していると判定した場合には、前記第1識別器を利用して前記対象データに含まれる前記特徴を判定し、前記第2識別器の判定性能が前記第1識別器と比べて悪化していないと判定した場合には、前記第2識別器を利用して前記対象データに含まれる前記特徴を判定する特徴判定部と、を備える。   Further, for example, the identification system according to one aspect of the present invention includes a plurality of evaluation data sets each configured by a combination of evaluation data and correct data indicating correct answers for identification of features included in the evaluation data. And a first discriminator constructed by machine learning using first learning data composed of data for performing learning for identifying the features of each evaluation data set The evaluation data is input to the first identification device, and the result of determining the feature included in the evaluation data based on the output obtained from the first discriminator is compared with the correct answer indicated by the correct data. In order to perform learning for identifying the first learning data and the features, with respect to a first evaluation unit that evaluates the determination performance of one classifier and each evaluation data set The evaluation data is input to a second discriminator constructed by machine learning using the second learning data composed of additional data, and the evaluation data is converted into the evaluation data based on an output obtained from the second discriminator. A second evaluation unit that evaluates the determination performance of the second discriminator by collating a result of determining the included feature with a correct answer indicated by the correct data, the first discriminator, and the second discriminator Based on the result of the evaluation, the performance determination unit that determines whether or not the determination performance of the second discriminator is worse than that of the first discriminator, and target data including features to be identified If the determination performance of the target data acquisition unit and the second classifier is determined to be worse than that of the first classifier, the target data is converted to the target data using the first classifier. Determine the features included, before When it is determined that the determination performance of the second classifier is not deteriorated as compared with the first classifier, a feature determination unit that determines the feature included in the target data using the second classifier And comprising.

なお、「データ」は、識別器による解析の対象となり得るあらゆる種類のデータを含んでもよく、例えば、画像データの他、音データ(音声データ)、数値データ、テキストデータ等であってよい。「特徴」は、データから識別可能なあらゆる特徴を含んでもよい。「データ」が音データである場合、「特徴」は、例えば、特定の音(例えば、機械の異音)が含まれているか否か等であってよい。また、「データ」が、血圧、活動量等の生体データに関する数値データ又はテキストデータである場合、「特徴」は、例えば、対象者の状態等であってよい。また、「データ」が、機械の駆動量等の数値データ又はテキストデータである場合、「特徴」は、例えば、機械の状態等であってよい。   The “data” may include all kinds of data that can be analyzed by the discriminator. For example, in addition to image data, sound data (voice data), numerical data, text data, and the like may be included. A “feature” may include any feature identifiable from data. When the “data” is sound data, the “feature” may be, for example, whether or not a specific sound (for example, abnormal noise of a machine) is included. Further, when the “data” is numerical data or text data related to biological data such as blood pressure and activity amount, the “feature” may be, for example, the state of the subject. Further, when the “data” is numerical data such as a driving amount of the machine or text data, the “feature” may be, for example, the state of the machine.

上記一側面に係る識別システムにおいて、前記第1評価部は、前記複数件の評価用データセットに対して、前記第1識別器から得られる出力に基づいて前記評価用データに含まれる前記特徴を判定した結果が前記正解データの示す正解と一致している比率を算出することで、前記第1識別器の判定性能を評価してもよく、前記第2評価部は、前記複数件の評価用データセットに対して、前記第2識別器から得られる出力に基づいて前記評価用データに含まれる前記特徴を判定した結果が前記正解データの示す正解と一致している比率を算出することで、前記第2識別器の判定性能を評価してもよい。   In the identification system according to the above aspect, the first evaluation unit may include the characteristics included in the evaluation data based on an output obtained from the first identifier for the plurality of evaluation data sets. The determination performance of the first discriminator may be evaluated by calculating a ratio at which the determined result matches the correct answer indicated by the correct answer data, and the second evaluation unit is for evaluating the plurality of evaluation results. By calculating a ratio that the result of determining the feature included in the evaluation data based on the output obtained from the second discriminator matches the correct answer indicated by the correct data for the data set, The determination performance of the second discriminator may be evaluated.

上記一側面に係る識別システムにおいて、前記各件の評価用データセットには、前記判定性能に寄与する度合いを示す重みが設定されていてもよい。   In the identification system according to the above aspect, a weight indicating a degree of contribution to the determination performance may be set in each evaluation data set.

上記一側面に係る識別システムにおいて、前記複数件の評価用データセットは、前記評価用データに含まれる前記特徴の判定を誤ってはいけないものとして設定される禁忌データセットを含んでもよく、前記性能判定部は、前記第1識別器から得られる出力に基づいて前記禁忌データセットの前記評価用データに含まれる前記特徴を判定した結果が前記正解データの示す正解と一致しているのに対して、前記第2識別器から得られる出力に基づいて前記禁忌データセットの前記評価用データに含まれる前記特徴を判定した結果が前記正解データの示す正解と一致していない場合、前記第2識別器の判定性能が前記第1識別器と比べて悪化していると判定してもよい。   In the identification system according to the above aspect, the plurality of evaluation data sets may include contraindication data sets that are set so as not to erroneously determine the characteristics included in the evaluation data, and the performance The determination unit determines that the result of determining the feature included in the evaluation data of the contraindication data set based on the output obtained from the first discriminator matches the correct answer indicated by the correct answer data. If the result of determining the feature included in the evaluation data of the contraindication data set based on the output obtained from the second discriminator does not match the correct answer indicated by the correct data, the second discriminator It may be determined that the determination performance is worse than that of the first discriminator.

上記一側面に係る識別システムにおいて、前記評価データ取得部は、前記対象データに含まれる前記特徴を判定する環境において、前記評価用データを取得してもよい。   In the identification system according to the above aspect, the evaluation data acquisition unit may acquire the evaluation data in an environment for determining the feature included in the target data.

また、上記検査システムと同様に、上記各形態に係る識別システムから、例えば、各識別器の判定性能を評価する部分、第1識別器又は第2識別器を利用して判定を行う部分等の一部分を抽出して他の形態に係る装置を構成してもよい。   Further, like the inspection system, from the identification system according to each of the above embodiments, for example, a part that evaluates the determination performance of each classifier, a part that performs determination using the first classifier or the second classifier, etc. An apparatus according to another embodiment may be configured by extracting a part.

例えば、本発明の一側面に係る識別器評価装置は、評価用画像データ、及び前記評価用画像データに写る被写体の状態の識別に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得する評価データ取得部と、各件の評価用データセットについて、前記被写体の状態を識別する学習を行うための画像データで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用画像データを入力し、前記第1識別器から得られる出力に基づいて前記評価用画像データに写る前記被写体の状態を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価する第1評価部と、各件の評価用データセットについて、前記第1学習データ及び前記被写体の状態を識別する学習を行うための追加の画像データで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用画像データを入力し、前記第2識別器から得られる出力に基づいて前記評価用画像データに写る前記被写体の状態を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価する第2評価部と、前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定する性能判定部と、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定した結果を出力する出力部と、を備える。   For example, the discriminator evaluation apparatus according to one aspect of the present invention includes a plurality of evaluations each composed of a combination of evaluation image data and correct data indicating correct answers for identification of the state of the subject in the evaluation image data. Constructed by machine learning using first learning data composed of an evaluation data acquisition unit for acquiring a data set and image data for learning to identify the state of the subject for each evaluation data set The evaluation image data is input to the first discriminator and the result of determining the state of the subject in the evaluation image data based on the output obtained from the first discriminator and the correct answer indicated by the correct data And a first evaluation unit that evaluates the determination performance of the first discriminator, and for each evaluation data set, the first learning data and The evaluation image data is input to a second discriminator constructed by machine learning using second learning data composed of additional image data for performing learning for identifying the state of the recording object, and the second First, the determination performance of the second discriminator is evaluated by comparing the result of determining the state of the subject in the image data for evaluation based on the output obtained from the discriminator with the correct answer indicated by the correct data. 2 Based on the evaluation result and the evaluation results for the first discriminator and the second discriminator, it is determined whether or not the judgment performance of the second discriminator is worse than that of the first discriminator. And an output unit that outputs a result of determining whether or not the determination performance of the second discriminator is worse than that of the first discriminator.

また、例えば、本発明の一側面に係る識別器評価装置は、評価用データ、及び前記評価用データに含まれる特徴の識別に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得する評価データ取得部と、各件の評価用データセットについて、前記特徴を識別する学習を行うためのデータで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用データを入力し、前記第1識別器から得られる出力に基づいて前記評価用データに含まれる前記特徴を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価する第1評価部と、各件の評価用データセットについて、前記第1学習データ及び前記特徴を識別する学習を行うための追加のデータで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用データを入力し、前記第2識別器から得られる出力に基づいて前記評価用データに含まれる前記特徴を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価する第2評価部と、前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定する性能判定部と、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定した結果を出力する出力部と、を備える。   In addition, for example, the classifier evaluation apparatus according to one aspect of the present invention provides a plurality of evaluation data each configured by a combination of evaluation data and correct data indicating correct answers for identification of features included in the evaluation data. An evaluation data acquisition unit that acquires a data set, and a first learning machine constructed using machine learning using first learning data composed of data for performing learning for identifying the characteristics of each evaluation data set By inputting the evaluation data to the discriminator and collating the result of determining the feature included in the evaluation data based on the output obtained from the first discriminator with the correct answer indicated by the correct data, A first evaluation unit for evaluating the determination performance of the first discriminator and learning for identifying the first learning data and the features are performed for each evaluation data set. The evaluation data is input to a second discriminator constructed by machine learning using the second learning data composed of the additional data, and the evaluation data is based on the output obtained from the second discriminator. A second evaluation unit that evaluates the determination performance of the second discriminator by comparing the result of determining the feature included in the correct data with the correct answer indicated by the correct data, the first discriminator, and the second discriminator A determination unit for determining whether or not the determination performance of the second discriminator is worse than that of the first discriminator based on the result of the evaluation on the discriminator; and the determination performance of the second discriminator An output unit that outputs a result of determining whether or not the first discriminator has deteriorated.

なお、上記各形態に係る検査システム、識別システム、及び識別器評価装置それぞれの別の態様として、本発明の一側面は、以上の各構成の全部又はその一部を実現する情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記憶した、コンピュータその他装置、機械等が読み取り可能な記憶媒体であってもよい。ここで、コンピュータ等が読み取り可能な記憶媒体とは、プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。   As another aspect of each of the inspection system, the identification system, and the classifier evaluation apparatus according to each of the above aspects, one aspect of the present invention is an information processing method that realizes all or a part of each of the above-described configurations. Alternatively, it may be a program, or a storage medium that stores such a program and that can be read by a computer, other devices, machines, or the like. Here, the computer-readable storage medium is a medium that stores information such as programs by electrical, magnetic, optical, mechanical, or chemical action.

本発明の一側面に係る検査方法は、製品の良否を検査する情報処理方法であって、コンピュータが、前記製品の写る評価用画像データ、及び前記評価用画像データに写る前記製品の良否の判定に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得するステップと、各件の評価用データセットについて、前記製品の良否を学習するための画像データで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用画像データを入力し、前記第1識別器から得られる出力に基づいて前記評価用画像データに写る前記製品の良否を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価するステップと、各件の評価用データセットについて、前記第1学習データ及び前記製品の良否を学習するための追加の画像データで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用画像データを入力し、前記第2識別器から得られる出力に基づいて前記評価用画像データに写る前記製品の良否を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価するステップと、前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定するステップと、検査の対象となる前記製品の写る対象画像データを取得するステップと、前記第2識別器の判定性能が前記第1識別器と比べて悪化していると判定した場合には、前記第1識別器を利用して前記対象画像データに写る前記製品の良否を判定し、前記第2識別器の判定性能が前記第1識別器と比べて悪化していないと判定した場合には、前記第2識別器を利用して前記対象画像データに写る前記製品の良否を判定するステップと、を実行する、情報処理方法である。   An inspection method according to one aspect of the present invention is an information processing method for inspecting the quality of a product, and the computer determines evaluation image data in which the product is imaged and the quality of the product in the evaluation image data. A plurality of evaluation data sets each composed of a combination of correct answer data indicating correct answers to the above, and for each evaluation data set, the image data for learning the quality of the product The quality of the product shown in the evaluation image data based on the output obtained by inputting the evaluation image data into a first discriminator constructed by machine learning using the first learning data. By comparing the result of the determination with the correct answer indicated by the correct data, the step of evaluating the determination performance of the first discriminator, and each evaluation data set The evaluation image data is stored in a second discriminator constructed by machine learning using second learning data composed of the first learning data and additional image data for learning the quality of the product. The result of determining the quality of the product shown in the evaluation image data based on the output obtained from the second discriminator and the correct answer indicated by the correct data are collated. Whether or not the determination performance of the second classifier is worse than that of the first classifier based on the step of evaluating the judgment performance and the result of the evaluation on the first classifier and the second classifier A case where it is determined that the determination performance of the second discriminator is worse than that of the first discriminator In When the quality of the product shown in the target image data is determined using the first classifier and it is determined that the determination performance of the second classifier is not deteriorated compared to the first classifier Is a method for determining whether the product shown in the target image data is acceptable or not by using the second discriminator.

また、例えば、本発明に一側面に係る識別器評価方法は、コンピュータが、前記製品の写る評価用画像データ、及び前記評価用画像データに写る前記製品の良否の判定に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得するステップと、各件の評価用データセットについて、前記製品の良否を学習するための画像データで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用画像データを入力し、前記第1識別器から得られる出力に基づいて前記評価用画像データに写る前記製品の良否を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価するステップと、各件の評価用データセットについて、前記第1学習データ及び前記製品の良否を学習するための追加の画像データで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用画像データを入力し、前記第2識別器から得られる出力に基づいて前記評価用画像データに写る前記製品の良否を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価するステップと、前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定するステップと、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定した結果を出力するステップと、を実行する、情報処理方法である。   Further, for example, in the classifier evaluation method according to one aspect of the present invention, the computer includes the evaluation image data representing the product and the correct data indicating the correct answer to the quality determination of the product captured in the evaluation image data. A step of acquiring a plurality of evaluation data sets each constituted by a combination, and the first learning data composed of image data for learning the quality of the product is used for each evaluation data set The evaluation image data is input to the first discriminator constructed by machine learning, and the result of determining the quality of the product reflected in the evaluation image data based on the output obtained from the first discriminator and the correct answer The step of evaluating the determination performance of the first discriminator by collating the correct answer indicated by the data, and the first evaluation data set The evaluation image data is input to a second discriminator constructed by machine learning using second learning data composed of learning data and additional image data for learning the quality of the product. A step of evaluating the determination performance of the second discriminator by comparing the result of determining the quality of the product shown in the image data for evaluation based on the output obtained from the discriminator with the correct answer indicated by the correct data. And determining whether or not the determination performance of the second discriminator is worse than that of the first discriminator based on the result of the evaluation for the first discriminator and the second discriminator. And a step of outputting a result of determining whether or not the determination performance of the second discriminator is deteriorated as compared with the first discriminator.

また、例えば、本発明の一側面に係る評価プログラムは、コンピュータに、前記製品の写る評価用画像データ、及び前記評価用画像データに写る前記製品の良否の判定に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得するステップと、各件の評価用データセットについて、前記製品の良否を学習するための画像データで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用画像データを入力し、前記第1識別器から得られる出力に基づいて前記評価用画像データに写る前記製品の良否を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価するステップと、各件の評価用データセットについて、前記第1学習データ及び前記製品の良否を学習するための追加の画像データで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用画像データを入力し、前記第2識別器から得られる出力に基づいて前記評価用画像データに写る前記製品の良否を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価するステップと、前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定するステップと、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定した結果を出力するステップと、を実行させるための、プログラムである。   In addition, for example, the evaluation program according to one aspect of the present invention is based on a combination of evaluation image data representing the product and correct data indicating a correct answer to the quality determination of the product reflected in the evaluation image data. Machine learning using first learning data composed of image data for learning the quality of the product for each of the evaluation data sets, the step of acquiring a plurality of evaluation data sets each configured The evaluation image data is input to the first discriminator constructed by the above, and the result of determining the quality of the product reflected in the evaluation image data based on the output obtained from the first discriminator and the correct data The step of evaluating the determination performance of the first discriminator by collating the correct answer shown, and the first evaluation data set The evaluation image data is input to a second discriminator constructed by machine learning using second learning data composed of learning data and additional image data for learning the quality of the product. A step of evaluating the determination performance of the second discriminator by comparing the result of determining the quality of the product shown in the image data for evaluation based on the output obtained from the discriminator with the correct answer indicated by the correct data. And determining whether or not the determination performance of the second discriminator is worse than that of the first discriminator based on the result of the evaluation for the first discriminator and the second discriminator. And a step of outputting a result of determining whether or not the determination performance of the second classifier is worse than that of the first classifier.

また、例えば、本発明に一側面に係る識別方法は、コンピュータが、評価用画像データ、及び前記評価用画像データに写る被写体の状態の識別に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得するステップと、各件の評価用データセットについて、前記被写体の状態を識別する学習を行うための画像データで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用画像データを入力し、前記第1識別器から得られる出力に基づいて前記評価用画像データに写る前記被写体の状態を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価するステップと、各件の評価用データセットについて、前記第1学習データ及び前記被写体の状態を識別する学習を行うための追加の画像データで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用画像データを入力し、前記第2識別器から得られる出力に基づいて前記評価用画像データに写る前記被写体の状態を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価するステップと、前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定するステップと、状態を識別する対象となる前記被写体の写る対象画像データを取得するステップと、前記第2識別器の判定性能が前記第1識別器と比べて悪化していると判定した場合には、前記第1識別器を利用して前記対象画像データに写る前記被写体の状態を判定し、前記第2識別器の判定性能が前記第1識別器と比べて悪化していないと判定した場合には、前記第2識別器を利用して前記対象画像データに写る前記被写体の状態を判定するステップと、を実行する、情報処理方法である。   Further, for example, in the identification method according to one aspect of the present invention, the computer includes a plurality of combinations of image data for evaluation and correct data indicating correct answers for identification of the state of the subject in the image data for evaluation. And a machine learning using first learning data composed of image data for performing learning for identifying the state of the subject for each evaluation data set. The evaluation image data is input to the first discriminator and the result of determining the state of the subject in the evaluation image data based on the output obtained from the first discriminator and the correct answer indicated by the correct data And evaluating the determination performance of the first discriminator, and the first learning data for each evaluation data set. And the evaluation image data is input to a second discriminator constructed by machine learning using second learning data composed of additional image data for performing learning for identifying the state of the subject, The determination performance of the second discriminator is evaluated by comparing the result of determining the state of the subject in the image data for evaluation based on the output obtained from the two discriminators with the correct answer indicated by the correct data. Determining whether the determination performance of the second discriminator is worse than that of the first discriminator based on the results of the evaluation for the first discriminator and the second discriminator. And when it is determined that the target image data in which the subject to be identified is captured and the determination performance of the second discriminator is deteriorated compared to the first discriminator, in front When determining the state of the subject in the target image data using the first discriminator and determining that the determination performance of the second discriminator is not deteriorated compared to the first discriminator, And determining the state of the subject in the target image data using the second discriminator.

また、例えば、本発明の一側面に係る識別器評価方法は、コンピュータが、評価用画像データ、及び前記評価用画像データに写る被写体の状態の識別に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得するステップと、各件の評価用データセットについて、前記被写体の状態を識別する学習を行うための画像データで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用画像データを入力し、前記第1識別器から得られる出力に基づいて前記評価用画像データに写る前記被写体の状態を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価するステップと、各件の評価用データセットについて、前記第1学習データ及び前記被写体の状態を識別する学習を行うための追加の画像データで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用画像データを入力し、前記第2識別器から得られる出力に基づいて前記評価用画像データに写る前記被写体の状態を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価するステップと、前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定するステップと、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定した結果を出力するステップと、を実行する、情報処理方法である。   Further, for example, the classifier evaluation method according to an aspect of the present invention is configured by a combination of image data for evaluation and correct data indicating correct answers for identification of the state of the subject in the evaluation image data. A plurality of evaluation data sets, and machine learning using first learning data composed of image data for performing learning for identifying the state of the subject for each evaluation data set The evaluation image data is input to the first discriminator constructed according to the above, and the result of determining the state of the subject in the evaluation image data based on the output obtained from the first discriminator and the correct data A step of evaluating the determination performance of the first discriminator by collating with a correct answer to be shown, and for each evaluation data set, the first school The evaluation image data is input to a second discriminator constructed by machine learning using second learning data composed of data and additional image data for performing learning for identifying the state of the subject, The determination performance of the second discriminator is evaluated by checking the result of determining the state of the subject in the evaluation image data based on the output obtained from the second discriminator and the correct answer indicated by the correct data. And determining whether or not the determination performance of the second discriminator is worse than that of the first discriminator, based on the evaluation result for the first discriminator and the second discriminator. An information processing method that executes a step and a step of outputting a result of determining whether or not the determination performance of the second discriminator is worse than that of the first discriminator.

また、例えば、本発明に一側面に係る評価プログラムは、コンピュータに、評価用画像データ、及び前記評価用画像データに写る被写体の状態の識別に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得するステップと、各件の評価用データセットについて、前記被写体の状態を識別する学習を行うための画像データで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用画像データを入力し、前記第1識別器から得られる出力に基づいて前記評価用画像データに写る前記被写体の状態を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価するステップと、各件の評価用データセットについて、前記第1学習データ及び前記被写体の状態を識別する学習を行うための追加の画像データで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用画像データを入力し、前記第2識別器から得られる出力に基づいて前記評価用画像データに写る前記被写体の状態を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価するステップと、前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定するステップと、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定した結果を出力するステップと、を実行させるための、プログラムである。   Further, for example, the evaluation program according to one aspect of the present invention includes a plurality of combinations of a combination of evaluation image data and correct data indicating correct answers for identification of the state of the subject in the evaluation image data. And a machine learning using first learning data composed of image data for performing learning for identifying the state of the subject for each evaluation data set. The evaluation image data is input to the first discriminator and the result of determining the state of the subject in the evaluation image data based on the output obtained from the first discriminator and the correct answer indicated by the correct data And evaluating the determination performance of the first discriminator, and for each evaluation data set, the first school The evaluation image data is input to a second discriminator constructed by machine learning using second learning data composed of data and additional image data for performing learning for identifying the state of the subject, The determination performance of the second discriminator is evaluated by checking the result of determining the state of the subject in the evaluation image data based on the output obtained from the second discriminator and the correct answer indicated by the correct data. And determining whether or not the determination performance of the second discriminator is worse than that of the first discriminator, based on the evaluation result for the first discriminator and the second discriminator. And a step of outputting a result of determining whether or not the determination performance of the second discriminator is worse than that of the first discriminator.

また、例えば、本発明の一側面に係る識別方法は、コンピュータが、評価用データ、及び前記評価用データに含まれる特徴の識別に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得するステップと、各件の評価用データセットについて、前記特徴を識別する学習を行うためのデータで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用データを入力し、前記第1識別器から得られる出力に基づいて前記評価用データに含まれる前記特徴を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価するステップと、各件の評価用データセットについて、前記第1学習データ及び前記特徴を識別する学習を行うための追加のデータで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用データを入力し、前記第2識別器から得られる出力に基づいて前記評価用データに含まれる前記特徴を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価するステップと、前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定するステップと、識別する対象となる特徴を含む対象データを取得するステップと、前記第2識別器の判定性能が前記第1識別器と比べて悪化していると判定した場合には、前記第1識別器を利用して前記対象データに含まれる前記特徴を判定し、前記第2識別器の判定性能が前記第1識別器と比べて悪化していないと判定した場合には、前記第2識別器を利用して前記対象データに含まれる前記特徴を判定するステップと、を実行する、情報処理方法である。   Further, for example, in the identification method according to one aspect of the present invention, the computer includes a plurality of evaluations each configured by a combination of evaluation data and correct data indicating correct answers for identification of features included in the evaluation data. And a first discriminator constructed by machine learning using first learning data composed of data for performing learning for identifying the features of each evaluation data set The evaluation data is input to the first identification device, and the result of determining the feature included in the evaluation data based on the output obtained from the first discriminator is compared with the correct answer indicated by the correct data. A step of evaluating the determination performance of one classifier, and learning for identifying the first learning data and the feature were performed for each evaluation data set The evaluation data is input to a second discriminator constructed by machine learning using the second learning data composed of the additional data, and the evaluation data is based on the output obtained from the second discriminator. A step of evaluating the determination performance of the second discriminator by collating a result of determining the feature included in the correct data with a correct answer indicated by the correct data, and the step of evaluating the first discriminator and the second discriminator. A step of determining whether or not the determination performance of the second discriminator is worse than that of the first discriminator based on the result of the evaluation; and a step of acquiring target data including a feature to be discriminated If the determination performance of the second classifier is determined to be worse than that of the first classifier, the feature included in the target data is determined using the first classifier. The second identification If it is determined that the determination performance is not deteriorated compared to the first discriminator, the step of determining the feature included in the target data using the second discriminator is performed. Information processing method.

また、例えば、本発明の一側面に係る識別器評価方法は、コンピュータが、評価用データ、及び前記評価用データに含まれる特徴の識別に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得するステップと、各件の評価用データセットについて、前記特徴を識別する学習を行うためのデータで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用データを入力し、前記第1識別器から得られる出力に基づいて前記評価用データに含まれる前記特徴を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価するステップと、各件の評価用データセットについて、前記第1学習データ及び前記特徴を識別する学習を行うための追加のデータで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用データを入力し、前記第2識別器から得られる出力に基づいて前記評価用データに含まれる前記特徴を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価するステップと、前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定するステップと、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定した結果を出力するステップと、を実行する、情報処理方法である。   Further, for example, in the classifier evaluation method according to one aspect of the present invention, the computer includes a plurality of cases each constituted by a combination of evaluation data and correct data indicating correct answers for identification of features included in the evaluation data. A first learning data set constructed by machine learning using first learning data composed of data for performing learning for identifying the characteristics of each evaluation data set. By inputting the evaluation data to the discriminator and collating the result of determining the feature included in the evaluation data based on the output obtained from the first discriminator with the correct answer indicated by the correct data, The step of evaluating the determination performance of the first discriminator, and learning for identifying the first learning data and the feature for each evaluation data set The evaluation data is input to a second discriminator constructed by machine learning using the second learning data composed of additional data for the determination, and the evaluation is performed based on an output obtained from the second discriminator. A step of evaluating the determination performance of the second discriminator by collating a result of determining the feature included in the data for use with a correct answer indicated by the correct data; and the first discriminator and the second discriminator Determining whether the determination performance of the second discriminator is worse than that of the first discriminator based on the result of the evaluation of the second discriminator; and the determination performance of the second discriminator being the first And a step of outputting a result of determining whether or not it has deteriorated as compared with the discriminator.

また、例えば、本発明の一側面に係る評価プログラムは、コンピュータに、評価用データ、及び前記評価用データに含まれる特徴の識別に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得するステップと、各件の評価用データセットについて、前記特徴を識別する学習を行うためのデータで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用データを入力し、前記第1識別器から得られる出力に基づいて前記評価用データに含まれる前記特徴を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価するステップと、各件の評価用データセットについて、前記第1学習データ及び前記特徴を識別する学習を行うための追加のデータで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用データを入力し、前記第2識別器から得られる出力に基づいて前記評価用データに含まれる前記特徴を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価するステップと、前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定するステップと、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定した結果を出力するステップと、を実行させるための、プログラムである。   In addition, for example, the evaluation program according to one aspect of the present invention provides a computer with a plurality of evaluations each configured by a combination of evaluation data and correct data indicating correct answers for identification of features included in the evaluation data. And a first discriminator constructed by machine learning using first learning data composed of data for performing learning for identifying the features of each evaluation data set The evaluation data is input to the first identification device, and the result of determining the feature included in the evaluation data based on the output obtained from the first discriminator is compared with the correct answer indicated by the correct data. A step of evaluating the determination performance of one classifier, and learning for identifying the first learning data and the feature for each evaluation data set The evaluation data is input to a second discriminator constructed by machine learning using the second learning data composed of additional data for the determination, and the evaluation is performed based on an output obtained from the second discriminator. A step of evaluating the determination performance of the second discriminator by collating a result of determining the feature included in the data for use with a correct answer indicated by the correct data; and the first discriminator and the second discriminator Determining whether the determination performance of the second discriminator is worse than that of the first discriminator based on the result of the evaluation of the second discriminator; and the determination performance of the second discriminator being the first And a step of outputting a result of determining whether or not it is worse than that of the discriminator.

本発明によれば、再学習又は追加学習により識別器の識別性能が悪化してしまった場合でも、識別器を利用した判定の信頼性が損なわれてしまうのを防止する技術を提供することができる。   According to the present invention, it is possible to provide a technique for preventing the reliability of determination using a discriminator from being impaired even when the discrimination performance of the discriminator deteriorates due to re-learning or additional learning. it can.

図1は、本発明が適用される場面の一例を模式的に例示する。FIG. 1 schematically illustrates an example of a scene to which the present invention is applied. 図2は、実施の形態に係る識別器評価装置のハードウェア構成の一例を模式的に例示する。FIG. 2 schematically illustrates an example of the hardware configuration of the classifier evaluation apparatus according to the embodiment. 図3は、実施の形態に係る学習装置のハードウェア構成の一例を模式的に例示する。FIG. 3 schematically illustrates an example of a hardware configuration of the learning device according to the embodiment. 図4は、実施の形態に係る検査装置のハードウェア構成の一例を模式的に例示する。FIG. 4 schematically illustrates an example of a hardware configuration of the inspection apparatus according to the embodiment. 図5は、実施の形態に係る識別器評価装置のソフトウェア構成の一例を模式的に例示する。FIG. 5 schematically illustrates an example of the software configuration of the classifier evaluation apparatus according to the embodiment. 図6は、実施の形態に係る学習装置のソフトウェア構成の一例を模式的に例示する。FIG. 6 schematically illustrates an example of the software configuration of the learning device according to the embodiment. 図7は、実施の形態に係る検査装置のソフトウェア構成の一例を模式的に例示する。FIG. 7 schematically illustrates an example of the software configuration of the inspection apparatus according to the embodiment. 図8は、実施の形態に係る学習装置の処理手順の一例を例示する。FIG. 8 illustrates an example of a processing procedure of the learning device according to the embodiment. 図9は、実施の形態に係る識別器評価装置の処理手順の一例を例示する。FIG. 9 illustrates an example of the processing procedure of the classifier evaluation apparatus according to the embodiment. 図10は、実施の形態に係る検査装置の処理手順の一例を例示する。FIG. 10 illustrates an example of a processing procedure of the inspection apparatus according to the embodiment. 図11は、他の形態に係る識別器評価装置のソフトウェア構成の一例を模式的に例示する。FIG. 11 schematically illustrates an example of a software configuration of a discriminator evaluation apparatus according to another embodiment. 図12は、他の形態に係る識別装置のハードウェア構成の一例を模式的に例示する。FIG. 12 schematically illustrates an example of a hardware configuration of an identification device according to another embodiment. 図13は、他の形態に係る識別装置のソフトウェア構成の一例を模式的に例示する。FIG. 13 schematically illustrates an example of the software configuration of the identification device according to another embodiment. 図14は、他の形態に係る識別器評価装置のソフトウェア構成の一例を模式的に例示する。FIG. 14 schematically illustrates an example of a software configuration of a discriminator evaluation apparatus according to another embodiment. 図15は、他の形態に係る学習装置のソフトウェア構成の一例を模式的に例示する。FIG. 15 schematically illustrates an example of a software configuration of a learning device according to another embodiment. 図16は、他の形態に係る識別装置のハードウェア構成の一例を模式的に例示する。FIG. 16 schematically illustrates an example of a hardware configuration of an identification device according to another embodiment. 図17は、他の形態に係る識別装置のソフトウェア構成の一例を模式的に例示する。FIG. 17 schematically illustrates an example of the software configuration of the identification device according to another embodiment.

以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。   Hereinafter, an embodiment according to an aspect of the present invention (hereinafter, also referred to as “this embodiment”) will be described with reference to the drawings. However, this embodiment described below is only an illustration of the present invention in all respects. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention. That is, in implementing the present invention, a specific configuration according to the embodiment may be adopted as appropriate. Although data appearing in this embodiment is described in a natural language, more specifically, it is specified by a pseudo language, a command, a parameter, a machine language, or the like that can be recognized by a computer.

§1 適用例
まず、本発明の基本的な構成の一例について説明する。再学習又は追加学習により識別器を更新した場合、次のような問題が生じ得る。すなわち、収集した追加のデータにより識別器の再学習又は追加学習を実施することで、更新された識別器は、追加のデータにより学習した未知のケースに対する識別を実施することができるようになる。しかしながら、学習するデータの件数が増えると、過学習等が生じてしまうことにより、対象のデータに表れる特徴を識別器により識別する性能が悪化してしまう可能性がある。
§1 Application Example First, an example of a basic configuration of the present invention will be described. When the classifier is updated by re-learning or additional learning, the following problem may occur. That is, by performing re-learning or additional learning of the discriminator with the collected additional data, the updated discriminator can discriminate against an unknown case learned by the additional data. However, when the number of data to be learned increases, over-learning or the like may occur, which may deteriorate the performance of identifying the features appearing in the target data by the classifier.

そこで、本発明の一例では、評価用データ及び正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得する。次に、各件の評価用データセットについて、再学習又は追加学習前の第1識別器に評価用データを入力し、当該第1識別器から得られる出力に基づいて評価用データに含まれる特徴を判定した結果と正解データの示す正解とを照合することで、当該第1識別器の判定性能を評価する。また、各件の評価用データセットについて、再学習又は追加学習後の第2識別器に評価用データを入力し、当該第2識別器から得られる出力に基づいて評価用データに含まれる特徴を判定した結果と正解データの示す正解とを照合することで、当該第2識別器の判定性能を評価する。そして、第1識別器及び第2識別器に対する評価の結果に基づいて、第2識別器の判定性能が第1識別器と比べて悪化しているか否かを判定する。   Therefore, in an example of the present invention, a plurality of evaluation data sets each configured by a combination of evaluation data and correct answer data are acquired. Next, for each evaluation data set, the evaluation data is input to the first classifier before re-learning or additional learning, and the characteristics included in the evaluation data based on the output obtained from the first classifier The determination performance of the first discriminator is evaluated by collating the result of determining the correct answer indicated by the correct answer data. For each evaluation data set, the evaluation data is input to the second classifier after re-learning or additional learning, and the characteristics included in the evaluation data are based on the output obtained from the second classifier. The determination performance of the second classifier is evaluated by collating the determined result with the correct answer indicated by the correct data. And based on the result of the evaluation with respect to the 1st discriminator and the 2nd discriminator, it is judged whether the judgment performance of the 2nd discriminator has deteriorated compared with the 1st discriminator.

これにより、本発明の一例では、識別器の再学習又は追加学習を実施した場合に、過学習が生じてしまう等の何らかの理由で、構築された識別器(第2識別器)の性能が、再学習又は追加学習前と比べて悪化したか否かを監視することができる。したがって、本発明の一例では、再学習又は追加学習により識別器の性能が悪化してしまった場合でも、そのことを可視化することができるため、性能の悪化した識別器を利用しないようにすることで、判定の信頼性が損なわれてしまうのを防止することができる。   Thereby, in an example of the present invention, when re-learning or additional learning of a classifier is performed, the performance of the constructed classifier (second classifier) for some reason such as over-learning occurs. It is possible to monitor whether or not it has deteriorated compared to before re-learning or additional learning. Therefore, in the example of the present invention, even when the performance of the discriminator is deteriorated due to re-learning or additional learning, it is possible to visualize this, so that a discriminator having deteriorated performance is not used. Thus, it is possible to prevent the determination reliability from being impaired.

次に、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本発明を製品Rの外観検査に適用した場面の一例を模式的に例示する。ただし、本発明の適用範囲は、以下で例示する外観検査の例に限られる訳ではない。本発明は、再学習又は追加学習により識別器を更新するあらゆる場面に適用可能である。   Next, an example of a scene to which the present invention is applied will be described with reference to FIG. FIG. 1 schematically illustrates an example of a scene in which the present invention is applied to an appearance inspection of a product R. However, the application range of the present invention is not limited to the example of visual inspection exemplified below. The present invention can be applied to any scene where the classifier is updated by re-learning or additional learning.

図1で例示される検査システム100は、ネットワークを介して接続される識別器評価装置1、学習装置2、及び検査装置3を備えており、製品の良否を検査するように構成される。識別器評価装置1、学習装置2、及び検査装置3の間のネットワークの種類は、例えば、インターネット、無線通信網、移動通信網、電話網、専用網等から適宜選択されてよい。   An inspection system 100 illustrated in FIG. 1 includes a discriminator evaluation device 1, a learning device 2, and an inspection device 3 connected via a network, and is configured to inspect the quality of a product. The type of network between the classifier evaluation device 1, the learning device 2, and the inspection device 3 may be appropriately selected from the Internet, a wireless communication network, a mobile communication network, a telephone network, a dedicated network, and the like.

なお、図1の例では、識別器評価装置1、学習装置2、及び検査装置3は、別個のコンピュータである。しかしながら、検査システム100の構成は、このような例に限定されなくてもよい。識別器評価装置1、学習装置2、及び検査装置3のうちの少なくともいずれかのペアは一体のコンピュータであってもよい。また、識別器評価装置1、学習装置2、及び検査装置3はそれぞれ複数台のコンピュータにより構成されてもよい。   In the example of FIG. 1, the classifier evaluation device 1, the learning device 2, and the inspection device 3 are separate computers. However, the configuration of the inspection system 100 may not be limited to such an example. The pair of at least one of the classifier evaluation device 1, the learning device 2, and the inspection device 3 may be an integrated computer. Each of the classifier evaluation device 1, the learning device 2, and the inspection device 3 may be configured by a plurality of computers.

本実施形態に係る学習装置2は、検査装置3で利用する第1識別器5及び第2識別器6を構築するように構成されたコンピュータである。具体的には、学習装置2は、製品の良否を学習するための画像データ222で構成された第1学習データ221を利用した機械学習を実施することで、製品の良否を判定する能力を習得した学習済みの第1識別器5を構築する。また、学習装置2は、第1学習データ221及び製品の良否を学習するための追加の画像データ227で構成された第2学習データ226を利用した機械学習を実施することで、製品の良否を判定する能力を習得した学習済みの第2識別器6を構築する。   The learning device 2 according to the present embodiment is a computer configured to construct a first discriminator 5 and a second discriminator 6 used in the inspection device 3. Specifically, the learning device 2 acquires the ability to determine the quality of the product by performing machine learning using the first learning data 221 composed of the image data 222 for learning the quality of the product. The learned first discriminator 5 is constructed. In addition, the learning device 2 performs the machine learning using the second learning data 226 including the first learning data 221 and the additional image data 227 for learning the quality of the product, thereby determining the quality of the product. A learned second discriminator 6 that has acquired the ability to determine is constructed.

これにより、学習装置2は、検査装置3で利用する第1識別器5及び第2識別器6を構築することができる。検査装置3は、例えば、ネットワークを介して、学習装置2により構築された学習済みの第1識別器5及び第2識別器6を取得することができる。なお、第1識別器5及び第2識別器6の間の関係では、第1識別器5は、再学習又は追加学習前の識別器であり、第2識別器6は、再学習又は追加学習後の識別器である。ただし、再学習又は追加学習「前」及び「後」は、第1識別器5及び第2識別器6の間の相対的な関係を示しているに過ぎない。第1識別器5は、第2識別器6以外の他の識別器との関係では、再学習又は追加学習後の識別器であってもよい。また、第2識別器6は、第1識別器5以外の他の識別器との関係では、再学習又は追加学習前の識別器であってもよい。   Thereby, the learning device 2 can construct the first discriminator 5 and the second discriminator 6 used in the inspection device 3. The inspection device 3 can acquire the learned first discriminator 5 and second discriminator 6 constructed by the learning device 2 via a network, for example. In the relationship between the first discriminator 5 and the second discriminator 6, the first discriminator 5 is a discriminator before re-learning or additional learning, and the second discriminator 6 is re-learning or additional learning. It is a later classifier. However, the relearning or additional learning “before” and “after” merely indicate a relative relationship between the first discriminator 5 and the second discriminator 6. The first discriminator 5 may be a discriminator after relearning or additional learning in relation to other discriminators other than the second discriminator 6. Further, the second discriminator 6 may be a discriminator before re-learning or additional learning in the relationship with other discriminators other than the first discriminator 5.

一方、本実施形態に係る識別器評価装置1は、学習装置2により構築される第2識別器6の性能を監視するように構成されたコンピュータである。具体的には、識別器評価装置1は、製品の写る評価用画像データ122、及び評価用画像データ122に写る製品の良否の判定に対する正解を示す正解データ123の組み合わせによりそれぞれ構成される複数件の評価用データセット121を取得する。   On the other hand, the classifier evaluation apparatus 1 according to the present embodiment is a computer configured to monitor the performance of the second classifier 6 constructed by the learning apparatus 2. Specifically, the discriminator evaluation apparatus 1 includes a plurality of cases each composed of a combination of evaluation image data 122 showing a product and correct data 123 indicating correct answers for determination of product quality shown in the evaluation image data 122. The evaluation data set 121 is acquired.

続いて、識別器評価装置1は、各件の評価用データセット121について、評価用画像データ122を第1識別器5に入力し、第1識別器5から得られる出力に基づいて評価用画像データ122に写る製品の良否を判定した結果と正解データ123の示す正解とを照合することで、第1識別器5の判定性能を評価する。また、識別器評価装置1は、各件の評価用データセット121について、評価用画像データ122を第2識別器6に入力し、第2識別器6から得られる出力に基づいて評価用画像データ122に写る製品の良否を判定した結果と正解データ123の示す正解とを照合することで、第2識別器6の判定性能を評価する。   Subsequently, the discriminator evaluation apparatus 1 inputs the evaluation image data 122 to the first discriminator 5 for each evaluation data set 121, and evaluates the image based on the output obtained from the first discriminator 5. The determination performance of the first discriminator 5 is evaluated by comparing the result of determining the quality of the product shown in the data 122 with the correct answer indicated by the correct data 123. Further, the classifier evaluation apparatus 1 inputs the evaluation image data 122 to the second classifier 6 for each evaluation data set 121 and evaluates the image data based on the output obtained from the second classifier 6. The determination performance of the second discriminator 6 is evaluated by comparing the result of determining the quality of the product shown in 122 with the correct answer indicated by the correct data 123.

そして、識別器評価装置1は、第1識別器5及び第2識別器6に対する評価の結果に基づいて、第2識別器6の判定性能が第1識別器5と比べて悪化しているか否かを判定する。これにより、識別器評価装置1は、学習装置2により構築される第2識別器6の性能を監視することができる。識別器評価装置1は、第2識別器6の判定性能が第1識別器5と比べて悪化しているか否かを判定した結果を適宜出力する。   The discriminator evaluation apparatus 1 determines whether or not the determination performance of the second discriminator 6 is worse than that of the first discriminator 5 based on the evaluation results for the first discriminator 5 and the second discriminator 6. Determine whether. Thereby, the discriminator evaluation device 1 can monitor the performance of the second discriminator 6 constructed by the learning device 2. The discriminator evaluation apparatus 1 appropriately outputs a result of determining whether or not the determination performance of the second discriminator 6 is worse than that of the first discriminator 5.

また、本実施形態に係る検査装置3は、製品Rの良否を検査するように構成されたコンピュータである。具体的には、検査装置3は、検査の対象となる製品Rの写る対象画像データ321を取得する。本実施形態では、検査装置3は、カメラ41に接続されており、このカメラ41により製品Rを撮影することで、対象画像データ321を取得する。   The inspection device 3 according to the present embodiment is a computer configured to inspect the quality of the product R. Specifically, the inspection apparatus 3 acquires target image data 321 in which the product R to be inspected is captured. In the present embodiment, the inspection apparatus 3 is connected to the camera 41, and acquires the target image data 321 by photographing the product R with the camera 41.

そして、検査装置3は、第1識別器5又は第2識別器6を用いて、対象画像データ321に写る製品Rの良否を判定する。すなわち、第2識別器6の判定性能が第1識別器5と比べて悪化していると判定された場合には、検査装置3は、第1識別器5を利用して対象画像データ321に写る製品Rの良否を判定する。一方、第2識別器6の判定性能が第1識別器5と比べて悪化していないと判定された場合には、検査装置3は、第2識別器6を利用して対象画像データ321に写る製品Rの良否を判定する。   Then, the inspection device 3 uses the first discriminator 5 or the second discriminator 6 to determine pass / fail of the product R shown in the target image data 321. That is, when it is determined that the determination performance of the second discriminator 6 is worse than that of the first discriminator 5, the inspection device 3 uses the first discriminator 5 to display the target image data 321. The quality of the product R to be photographed is judged. On the other hand, when it is determined that the determination performance of the second discriminator 6 has not deteriorated compared to the first discriminator 5, the inspection device 3 uses the second discriminator 6 to generate the target image data 321. The quality of the product R to be photographed is judged.

以上のとおり、本実施形態では、学習装置2は、第1識別器5の機械学習に利用した第1学習データ221に新たな画像データ227を追加することで得られた第2学習データ226を利用した機械学習(再学習又は追加学習)を実施する。これによって、学習装置2は、第1識別器5では製品Rの良否を判定不能なケースに対応可能な第2識別器6を構築することができる。   As described above, in this embodiment, the learning device 2 uses the second learning data 226 obtained by adding new image data 227 to the first learning data 221 used for the machine learning of the first discriminator 5. Implement machine learning (relearning or additional learning). As a result, the learning device 2 can construct the second discriminator 6 that can handle a case in which the quality of the product R cannot be determined by the first discriminator 5.

また、本実施形態では、識別器評価装置1は、複数件の評価用データセット121を利用して、第1識別器5及び第2識別器6の判定性能を評価し、その評価結果を比較することで、第2識別器6の判定性能が第1識別器5と比べて悪化したか否かを監視することができる。これにより、再学習又は追加学習により構築された第2識別器6の性能が第1識別器5と比べて悪化してしまった場合に、性能の悪化した第2識別器6を検査装置3において利用しないようにすることができる。したがって、本実施形態によれば、製品Rの良否の判定の信頼性が損なわれてしまうのを防止することができる。   Moreover, in this embodiment, the discriminator evaluation apparatus 1 evaluates the determination performance of the first discriminator 5 and the second discriminator 6 using a plurality of evaluation data sets 121, and compares the evaluation results. By doing so, it can be monitored whether the determination performance of the 2nd discriminator 6 deteriorated compared with the 1st discriminator 5. FIG. Thereby, when the performance of the 2nd discriminator 6 constructed | assembled by re-learning or additional learning has deteriorated compared with the 1st discriminator 5, the 2nd discriminator 6 in which performance deteriorated is in the inspection apparatus 3. You can avoid using it. Therefore, according to the present embodiment, it is possible to prevent the reliability of the quality determination of the product R from being impaired.

なお、外観検査の対象となる製品Rは、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。製品Rは、例えば、電子部品、自動車部品等の製造ラインで搬送される物であってよい。電子部品は、例えば、基盤、チップコンデンサ、液晶、リレーの巻線等である。自動車部品は、例えば、コンロッド、シャフト、エンジンブロック、パワーウィンドウスイッチ、パネル等である。また、良否の判定は、製品Rに欠陥があるか否かを単に判定することであってもよいし、製品Rに欠陥がある否かを判定することに加えて、その欠陥の種類を識別することを含んでもよい。欠陥は、例えば、傷、汚れ、クラック、打痕、埃、バリ、色ムラ等である。   The product R to be subjected to the appearance inspection is not particularly limited, and may be appropriately selected according to the embodiment. The product R may be, for example, a product that is conveyed on a production line such as an electronic component or an automobile component. The electronic component is, for example, a substrate, a chip capacitor, a liquid crystal, a relay winding, or the like. The automobile parts are, for example, connecting rods, shafts, engine blocks, power window switches, panels, and the like. Further, the determination of pass / fail may be simply determining whether or not the product R has a defect, and in addition to determining whether or not the product R has a defect, the type of the defect is identified. May include. The defects are, for example, scratches, dirt, cracks, dents, dust, burrs, color unevenness, and the like.

§2 構成例
[ハードウェア構成]
<識別器評価装置>
次に、図2を用いて、本実施形態に係る識別器評価装置1のハードウェア構成の一例について説明する。図2は、本実施形態に係る識別器評価装置1のハードウェア構成の一例を模式的に例示する。
§2 Configuration example [Hardware configuration]
<Identifier evaluation device>
Next, an example of the hardware configuration of the classifier evaluation apparatus 1 according to the present embodiment will be described with reference to FIG. FIG. 2 schematically illustrates an example of a hardware configuration of the classifier evaluation apparatus 1 according to the present embodiment.

図2に示されるとおり、本実施形態に係る識別器評価装置1は、制御部11、記憶部12、通信インタフェース13、入力装置14、出力装置15、及びドライブ16が電気的に接続されたコンピュータである。なお、図2では、通信インタフェースを「通信I/F」と記載している。   As shown in FIG. 2, the classifier evaluation apparatus 1 according to the present embodiment includes a computer in which a control unit 11, a storage unit 12, a communication interface 13, an input device 14, an output device 15, and a drive 16 are electrically connected. It is. In FIG. 2, the communication interface is described as “communication I / F”.

制御部11は、ハードウェアプロセッサであるCPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、プログラム及び各種データに基づいて情報処理を実行するように構成される。記憶部12は、メモリの一例であり、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成される。本実施形態では、記憶部12は、評価プログラム81、複数件の評価用データセット121、第1学習結果データ224、第2学習結果データ229等の各種情報を記憶する。   The control unit 11 includes a CPU (Central Processing Unit) that is a hardware processor, a RAM (Random Access Memory), a ROM (Read Only Memory), and the like, and is configured to execute information processing based on programs and various data. The The storage unit 12 is an example of a memory, and includes, for example, a hard disk drive or a solid state drive. In the present embodiment, the storage unit 12 stores various types of information such as an evaluation program 81, a plurality of evaluation data sets 121, first learning result data 224, second learning result data 229, and the like.

評価プログラム81は、第1識別器5及び第2識別器6の判定性能を評価する後述の情報処理(図9)を識別器評価装置1に実行させるためのプログラムであり、当該情報処理の一連の命令を含む。複数件の評価用データセット121は、第1識別器5及び第2識別器6の判定性能を評価するのに利用される。複数件の評価用データセット121はそれぞれ、製品の写る評価用画像データ122、及び評価用画像データ122に写る製品の良否の判定に対する正解を示す正解データ123の組み合わせにより構成される。第1学習結果データ224は、学習済みの第1識別器5の設定を行うためのデータである。第2学習結果データ229は、学習済みの第2識別器6の設定を行うためのデータである。詳細は後述する。   The evaluation program 81 is a program for causing the discriminator evaluation apparatus 1 to execute information processing (FIG. 9) described later for evaluating the determination performance of the first discriminator 5 and the second discriminator 6, and a series of the information processing. Including instructions. The plurality of evaluation data sets 121 are used to evaluate the determination performance of the first discriminator 5 and the second discriminator 6. Each of the plurality of evaluation data sets 121 is composed of a combination of evaluation image data 122 showing a product and correct answer data 123 indicating correct answers for determination of quality of the product shown in the evaluation image data 122. The first learning result data 224 is data for setting the learned first discriminator 5. The second learning result data 229 is data for setting the learned second discriminator 6. Details will be described later.

通信インタフェース13は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインタフェースである。識別器評価装置1は、この通信インタフェース13を利用することで、ネットワークを介したデータ通信を他の情報処理装置(例えば、学習装置2、検査装置3)と行うことができる。   The communication interface 13 is, for example, a wired LAN (Local Area Network) module, a wireless LAN module, or the like, and is an interface for performing wired or wireless communication via a network. The classifier evaluation apparatus 1 can perform data communication via the network with other information processing apparatuses (for example, the learning apparatus 2 and the inspection apparatus 3) by using the communication interface 13.

入力装置14は、例えば、マウス、キーボード等の入力を行うための装置である。また、出力装置15は、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。オペレータは、入力装置14及び出力装置15を利用することで、識別器評価装置1を操作することができる。   The input device 14 is a device for performing input using, for example, a mouse or a keyboard. The output device 15 is a device for outputting, for example, a display or a speaker. The operator can operate the discriminator evaluation apparatus 1 by using the input device 14 and the output device 15.

ドライブ16は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体91に記憶されたプログラムを読み込むためのドライブ装置である。ドライブ16の種類は、記憶媒体91の種類に応じて適宜選択されてよい。上記評価プログラム81、複数件の評価用データセット121、第1学習結果データ224、及び第2学習結果データ229の少なくともいずれかは、この記憶媒体91に記憶されていてもよい。   The drive 16 is, for example, a CD drive, a DVD drive, or the like, and is a drive device for reading a program stored in the storage medium 91. The type of the drive 16 may be appropriately selected according to the type of the storage medium 91. At least one of the evaluation program 81, the plurality of evaluation data sets 121, the first learning result data 224, and the second learning result data 229 may be stored in the storage medium 91.

記憶媒体91は、コンピュータその他装置、機械等が、記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。識別器評価装置1は、この記憶媒体91から、上記評価プログラム81、複数件の評価用データセット121、第1学習結果データ224、及び第2学習結果データ229の少なくともいずれかを取得してもよい。   The storage medium 91 stores information such as a program by electrical, magnetic, optical, mechanical, or chemical action so that a computer or other device, machine, or the like can read the recorded program or the like. It is a medium to accumulate. The discriminator evaluation apparatus 1 may acquire at least one of the evaluation program 81, the plurality of evaluation data sets 121, the first learning result data 224, and the second learning result data 229 from the storage medium 91. Good.

ここで、図2では、記憶媒体91の一例として、CD、DVD等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体91の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。   Here, in FIG. 2, as an example of the storage medium 91, a disk-type storage medium such as a CD or a DVD is illustrated. However, the type of the storage medium 91 is not limited to the disk type and may be other than the disk type. Examples of the storage medium other than the disk type include a semiconductor memory such as a flash memory.

なお、識別器評価装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部11は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA(field-programmable gate array)、DSP(digital signal processor)等で構成されてよい。記憶部12は、制御部11に含まれるRAM及びROMにより構成されてもよい。通信インタフェース13、入力装置14、出力装置15及びドライブ16の少なくともいずれかは省略されてもよい。識別器評価装置1は、複数台のコンピュータで構成されてもよい。この場合、各コンピュータのハードウェア構成は、一致していてもよいし、一致していなくてもよい。また、識別器評価装置1は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、PC(Personal Computer)等であってもよい。   In addition, regarding the specific hardware configuration of the discriminator evaluation apparatus 1, components can be omitted, replaced, and added as appropriate according to the embodiment. For example, the control unit 11 may include a plurality of hardware processors. The hardware processor may be a microprocessor, a field-programmable gate array (FPGA), a digital signal processor (DSP), or the like. The storage unit 12 may be configured by a RAM and a ROM included in the control unit 11. At least one of the communication interface 13, the input device 14, the output device 15, and the drive 16 may be omitted. The discriminator evaluation apparatus 1 may be composed of a plurality of computers. In this case, the hardware configurations of the computers may or may not match. The classifier evaluation device 1 may be a general-purpose server device, a PC (Personal Computer), or the like, in addition to an information processing device designed exclusively for the provided service.

<学習装置>
次に、図3を用いて、本実施形態に係る学習装置2のハードウェア構成の一例について説明する。図3は、本実施形態に係る学習装置2のハードウェア構成の一例を模式的に例示する。
<Learning device>
Next, an example of the hardware configuration of the learning device 2 according to the present embodiment will be described with reference to FIG. FIG. 3 schematically illustrates an example of a hardware configuration of the learning device 2 according to the present embodiment.

図3に示されるとおり、本実施形態に係る学習装置2は、制御部21、記憶部22、通信インタフェース23、入力装置24、出力装置25、及びドライブ26が電気的に接続されたコンピュータである。なお、図3では、図2と同様に、通信インタフェースを「通信I/F」と記載している。   As illustrated in FIG. 3, the learning device 2 according to the present embodiment is a computer in which a control unit 21, a storage unit 22, a communication interface 23, an input device 24, an output device 25, and a drive 26 are electrically connected. . In FIG. 3, as in FIG. 2, the communication interface is described as “communication I / F”.

学習装置2の制御部21〜ドライブ26はそれぞれ、上記識別器評価装置1の制御部11〜ドライブ16それぞれと同様に構成されてよい。すなわち、制御部21は、ハードウェアプロセッサであるCPU、RAM、ROM等を含み、プログラム及びデータに基づいて各種情報処理を実行するように構成される。記憶部22は、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成される。記憶部22は、学習プログラム82、製品の良否を学習するための画像データ222、製品の良否を学習するための追加の画像データ227、第1学習結果データ224、第2学習結果データ229等の各種情報を記憶する。   The control unit 21 to the drive 26 of the learning device 2 may be configured similarly to the control unit 11 to the drive 16 of the classifier evaluation device 1, respectively. That is, the control unit 21 includes a CPU, RAM, ROM, and the like, which are hardware processors, and is configured to execute various types of information processing based on programs and data. The storage unit 22 is configured by, for example, a hard disk drive, a solid state drive, or the like. The storage unit 22 includes a learning program 82, image data 222 for learning product quality, additional image data 227 for learning product quality, first learning result data 224, second learning result data 229, and the like. Various types of information are stored.

学習プログラム82は、第1識別器5及び第2識別器6それぞれを構築する後述の機械学習の情報処理(図8)を学習装置2に実行させ、その結果として第1学習結果データ224及び第2学習結果データ229を生成させるためのプログラムである。学習プログラム82は、その情報処理の一連の命令を含む。画像データ222は、第1識別器5の機械学習に利用される第1学習データ221を構成する。第1学習データ221及び追加の画像データ227は、第2識別器6の機械学習に利用される第2学習データ226を構成する。詳細は後述する。   The learning program 82 causes the learning device 2 to execute later-described machine learning information processing (FIG. 8) for constructing the first discriminator 5 and the second discriminator 6, and as a result, the first learning result data 224 and the first discriminator 2 is a program for generating learning result data 229. The learning program 82 includes a series of instructions for the information processing. The image data 222 constitutes first learning data 221 used for machine learning of the first discriminator 5. The first learning data 221 and the additional image data 227 constitute second learning data 226 used for machine learning of the second discriminator 6. Details will be described later.

通信インタフェース23は、例えば、有線LANモジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインタフェースである。学習装置2は、この通信インタフェース23を利用することで、ネットワークを介したデータ通信を他の情報処理装置(例えば、識別器評価装置1、検査装置3)と行うことができる。   The communication interface 23 is, for example, a wired LAN module, a wireless LAN module, or the like, and is an interface for performing wired or wireless communication via a network. By using this communication interface 23, the learning device 2 can perform data communication via the network with other information processing devices (for example, the discriminator evaluation device 1 and the inspection device 3).

入力装置24は、例えば、マウス、キーボード等の入力を行うための装置である。また、出力装置25は、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。オペレータは、入力装置24及び出力装置25を利用することで、学習装置2を操作することができる。   The input device 24 is a device for performing input using, for example, a mouse or a keyboard. The output device 25 is a device for outputting a display, a speaker, or the like, for example. The operator can operate the learning device 2 by using the input device 24 and the output device 25.

ドライブ26は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体92に記憶されたプログラムを読み込むためのドライブ装置である。上記学習プログラム82、画像データ222、及び追加の画像データ227のうちの少なくともいずれかは、記憶媒体92に記憶されていてもよい。また、学習装置2は、記憶媒体92から、上記学習プログラム82、画像データ222、及び追加の画像データ227のうちの少なくともいずれかを取得してもよい。   The drive 26 is, for example, a CD drive, a DVD drive, or the like, and is a drive device for reading a program stored in the storage medium 92. At least one of the learning program 82, the image data 222, and the additional image data 227 may be stored in the storage medium 92. The learning device 2 may acquire at least one of the learning program 82, the image data 222, and the additional image data 227 from the storage medium 92.

なお、学習装置2の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部21は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA、DSP等で構成されてよい。記憶部22は、制御部21に含まれるRAM及びROMにより構成されてもよい。通信インタフェース23、入力装置24、出力装置25及びドライブ26の少なくともいずれかは省略されてもよい。学習装置2は、複数台のコンピュータで構成されてもよい。この場合、各コンピュータのハードウェア構成は、一致していてもよいし、一致していなくてもよい。また、学習装置2は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、汎用のPC等であってもよい。   In addition, regarding the specific hardware configuration of the learning device 2, the components can be omitted, replaced, and added as appropriate according to the embodiment. For example, the control unit 21 may include a plurality of hardware processors. The hardware processor may be configured by a microprocessor, FPGA, DSP, or the like. The storage unit 22 may be configured by a RAM and a ROM included in the control unit 21. At least one of the communication interface 23, the input device 24, the output device 25, and the drive 26 may be omitted. The learning device 2 may be composed of a plurality of computers. In this case, the hardware configurations of the computers may or may not match. Further, the learning device 2 may be a general-purpose server device, a general-purpose PC, or the like, in addition to an information processing device designed exclusively for the provided service.

<検査装置>
次に、図4を用いて、本実施形態に係る検査装置3のハードウェア構成の一例について説明する。図4は、本実施形態に係る検査装置3のハードウェア構成の一例を模式的に例示する。
<Inspection device>
Next, an example of the hardware configuration of the inspection apparatus 3 according to the present embodiment will be described with reference to FIG. FIG. 4 schematically illustrates an example of the hardware configuration of the inspection apparatus 3 according to the present embodiment.

図4に示されるとおり、本実施形態に係る検査装置3は、制御部31、記憶部32、通信インタフェース33、外部インタフェース34、入力装置35、出力装置36、及びドライブ37が電気的に接続されたコンピュータである。なお、図4では、通信インタフェース及び外部インタフェースをそれぞれ「通信I/F」及び「外部I/F」と記載している。   As shown in FIG. 4, the inspection device 3 according to this embodiment includes a control unit 31, a storage unit 32, a communication interface 33, an external interface 34, an input device 35, an output device 36, and a drive 37 that are electrically connected. Computer. In FIG. 4, the communication interface and the external interface are described as “communication I / F” and “external I / F”, respectively.

検査装置3の制御部31〜通信インタフェース33及び入力装置35〜ドライブ37はそれぞれ、上記識別器評価装置1の制御部11〜ドライブ16それぞれと同様に構成されてよい。すなわち、制御部31は、ハードウェアプロセッサであるCPU、RAM、ROM等を含み、プログラム及びデータに基づいて各種情報処理を実行するように構成される。記憶部32は、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成される。記憶部32は、検査プログラム83、第1学習結果データ224、第2学習結果データ229等の各種情報を記憶する。   The control unit 31 to the communication interface 33 and the input device 35 to the drive 37 of the inspection device 3 may be configured similarly to the control unit 11 to the drive 16 of the classifier evaluation device 1, respectively. That is, the control unit 31 includes a CPU, RAM, ROM, and the like, which are hardware processors, and is configured to execute various types of information processing based on programs and data. The storage unit 32 is configured by, for example, a hard disk drive, a solid state drive, or the like. The storage unit 32 stores various types of information such as the inspection program 83, the first learning result data 224, the second learning result data 229, and the like.

検査プログラム83は、第1識別器5又は第2識別器6を利用して、対象画像データ321に写る製品Rの良否を判定する後述の情報処理(図10)を検査装置3に実行させるためのプログラムであり、当該情報処理の一連の命令を含む。詳細は後述する。   The inspection program 83 uses the first discriminator 5 or the second discriminator 6 to cause the inspection apparatus 3 to execute information processing (FIG. 10) described later for determining the quality of the product R shown in the target image data 321. And includes a series of instructions for the information processing. Details will be described later.

通信インタフェース33は、例えば、有線LANモジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインタフェースである。検査装置3は、この通信インタフェース33を利用することで、ネットワークを介したデータ通信を他の情報処理装置(例えば、識別器評価装置1、学習装置2)と行うことができる。   The communication interface 33 is, for example, a wired LAN module, a wireless LAN module, or the like, and is an interface for performing wired or wireless communication via a network. By using this communication interface 33, the inspection device 3 can perform data communication via the network with other information processing devices (for example, the discriminator evaluation device 1 and the learning device 2).

外部インタフェース34は、例えば、USB(Universal Serial Bus)ポート、専用ポート等であり、外部装置と接続するためのインタフェースである。外部インタフェース34の種類及び数は、接続される外部装置の種類及び数に応じて適宜選択されてよい。本実施形態では、検査装置3は、外部インタフェース34を介して、カメラ41に接続される。   The external interface 34 is, for example, a USB (Universal Serial Bus) port, a dedicated port, or the like, and is an interface for connecting to an external device. The type and number of external interfaces 34 may be appropriately selected according to the type and number of external devices to be connected. In the present embodiment, the inspection apparatus 3 is connected to the camera 41 via the external interface 34.

カメラ41は、製品Rを撮影することで、対象画像データ321を取得するのに利用される。カメラ41の種類及び配置場所は、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。カメラ41には、例えば、デジタルカメラ、ビデオカメラ等の公知のカメラが利用されてよい。また、カメラ41は、製品Rが搬送される生産ラインの近傍に配置されてよい。なお、カメラ41が通信インタフェースを備える場合、検査装置3は、外部インタフェース34ではなく、通信インタフェース33を介して、カメラ41に接続されてもよい。   The camera 41 is used to acquire the target image data 321 by photographing the product R. The type and location of the camera 41 may not be particularly limited, and may be determined as appropriate according to the embodiment. For the camera 41, for example, a known camera such as a digital camera or a video camera may be used. Further, the camera 41 may be disposed in the vicinity of the production line on which the product R is conveyed. When the camera 41 includes a communication interface, the inspection apparatus 3 may be connected to the camera 41 via the communication interface 33 instead of the external interface 34.

入力装置35は、例えば、マウス、キーボード等の入力を行うための装置である。また、出力装置36は、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。オペレータは、入力装置35及び出力装置36を利用することで、検査装置3を操作することができる。   The input device 35 is a device for inputting, for example, a mouse or a keyboard. The output device 36 is a device for outputting, for example, a display or a speaker. The operator can operate the inspection device 3 by using the input device 35 and the output device 36.

ドライブ37は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体93に記憶されたプログラムを読み込むためのドライブ装置である。上記検査プログラム83、第1学習結果データ224、及び第2学習結果データ229のうちの少なくともいずれかは、記憶媒体93に記憶されていてもよい。また、検査装置3は、記憶媒体93から、上記検査プログラム83、第1学習結果データ224、及び第2学習結果データ229のうちの少なくともいずれかを取得してもよい。   The drive 37 is, for example, a CD drive, a DVD drive, or the like, and is a drive device for reading a program stored in the storage medium 93. At least one of the inspection program 83, the first learning result data 224, and the second learning result data 229 may be stored in the storage medium 93. In addition, the inspection apparatus 3 may acquire at least one of the inspection program 83, the first learning result data 224, and the second learning result data 229 from the storage medium 93.

なお、検査装置3の具体的なハードウェア構成に関して、上記識別器評価装置1及び学習装置2と同様に、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部31は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA、DSP等で構成されてよい。記憶部32は、制御部31に含まれるRAM及びROMにより構成されてもよい。通信インタフェース33、外部インタフェース34、入力装置35、出力装置36及びドライブ37の少なくともいずれかは省略されてもよい。検査装置3は、複数台のコンピュータで構成されてもよい。この場合、各コンピュータのハードウェア構成は、一致していてもよいし、一致していなくてもよい。また、検査装置3は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、汎用のデスクトップPC、ノートPC、タブレットPC、スマートフォンを含む携帯電話等が用いられてよい。   In addition, regarding the specific hardware configuration of the inspection device 3, as with the discriminator evaluation device 1 and the learning device 2, components can be omitted, replaced, and added as appropriate according to the embodiment. For example, the control unit 31 may include a plurality of hardware processors. The hardware processor may be configured by a microprocessor, FPGA, DSP, or the like. The storage unit 32 may be configured by a RAM and a ROM included in the control unit 31. At least one of the communication interface 33, the external interface 34, the input device 35, the output device 36, and the drive 37 may be omitted. The inspection device 3 may be composed of a plurality of computers. In this case, the hardware configurations of the computers may or may not match. The inspection device 3 may be a general-purpose server device, a general-purpose desktop PC, a notebook PC, a tablet PC, a mobile phone including a smartphone, or the like in addition to an information processing device designed exclusively for the provided service.

[ソフトウェア構成]
<識別器評価装置>
次に、図5を用いて、本実施形態に係る識別器評価装置1のソフトウェア構成の一例を説明する。図5は、本実施形態に係る識別器評価装置1のソフトウェア構成の一例を模式的に例示する。
Software configuration
<Identifier evaluation device>
Next, an example of the software configuration of the classifier evaluation apparatus 1 according to the present embodiment will be described with reference to FIG. FIG. 5 schematically illustrates an example of the software configuration of the classifier evaluation apparatus 1 according to the present embodiment.

識別器評価装置1の制御部11は、記憶部12に記憶された評価プログラム81をRAMに展開する。そして、制御部11は、RAMに展開された評価プログラム81をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図5に示されるとおり、本実施形態に係る識別器評価装置1は、評価データ取得部111、第1評価部112、第2評価部113、性能判定部114、及び出力部115をソフトウェアモジュールとして備えるコンピュータとして動作する。すなわち、本実施形態では、各ソフトウェアモジュールは、制御部11(CPU)により実現される。   The control unit 11 of the discriminator evaluation apparatus 1 expands the evaluation program 81 stored in the storage unit 12 in the RAM. Then, the control unit 11 interprets and executes the evaluation program 81 expanded in the RAM, and controls each component. Accordingly, as illustrated in FIG. 5, the classifier evaluation apparatus 1 according to the present embodiment includes an evaluation data acquisition unit 111, a first evaluation unit 112, a second evaluation unit 113, a performance determination unit 114, and an output unit 115. It operates as a computer provided as a software module. That is, in the present embodiment, each software module is realized by the control unit 11 (CPU).

評価データ取得部111は、製品の写る評価用画像データ122、及び評価用画像データ122に写る前記製品の良否の判定に対する正解を示す正解データ123の組み合わせによりそれぞれ構成される複数件の評価用データセット121を取得する。   The evaluation data acquisition unit 111 includes a plurality of pieces of evaluation data each composed of a combination of evaluation image data 122 showing a product and correct answer data 123 indicating correct answers for the quality determination of the product shown in the evaluation image data 122. The set 121 is acquired.

第1評価部112は、第1学習データ221を利用した機械学習により構築された第1識別器5を含んでいる。第1評価部112は、各件の評価用データセット121について、評価用画像データ122を第1識別器5に入力し、第1識別器5の演算処理を実行することで、第1識別器5から出力値を取得する。第1識別器5から得られる出力値は、入力した評価用画像データ122に写る製品の良否を判定した結果に対応する。そこで、第1評価部112は、第1識別器5から得られる出力値に基づいて評価用画像データ122に写る製品の良否を判定した結果と入力した評価用画像データ122に関連付けられた正解データ123により示される正解とを照合する。これにより、第1評価部112は、第1識別器5の判定性能を評価する。   The first evaluation unit 112 includes a first discriminator 5 constructed by machine learning using the first learning data 221. The first evaluation unit 112 inputs the evaluation image data 122 to the first discriminator 5 for each evaluation data set 121, and executes the arithmetic processing of the first discriminator 5, whereby the first discriminator The output value is acquired from 5. The output value obtained from the first discriminator 5 corresponds to the result of determining the quality of the product shown in the input evaluation image data 122. Therefore, the first evaluation unit 112 determines the quality of the product shown in the evaluation image data 122 based on the output value obtained from the first discriminator 5, and correct data associated with the input evaluation image data 122. The correct answer indicated by 123 is collated. Thereby, the first evaluation unit 112 evaluates the determination performance of the first discriminator 5.

第2評価部113は、第2学習データ226を利用した機械学習により構築された第2識別器6を含んでいる。第2評価部113は、各件の評価用データセット121について、評価用画像データ122を第2識別器6に入力し、第2識別器6の演算処理を実行することで、第2識別器6から出力値を取得する。第2識別器6から得られる出力値は、入力した評価用画像データ122に写る製品の良否を判定した結果に対応する。そこで、第2評価部113は、第2識別器6から得られる出力値に基づいて評価用画像データ122に写る製品の良否を判定した結果と入力した評価用画像データ122に関連付けられた正解データ123により示される正解とを照合する。これにより、第2評価部113は、第2識別器6の判定性能を評価する。   The second evaluation unit 113 includes a second discriminator 6 constructed by machine learning using the second learning data 226. The second evaluation unit 113 inputs the evaluation image data 122 into the second discriminator 6 for each evaluation data set 121, and executes the arithmetic processing of the second discriminator 6, whereby the second discriminator The output value is obtained from 6. The output value obtained from the second discriminator 6 corresponds to the result of determining the quality of the product shown in the input evaluation image data 122. Therefore, the second evaluation unit 113 determines the quality of the product shown in the evaluation image data 122 based on the output value obtained from the second discriminator 6, and correct data associated with the input evaluation image data 122. The correct answer indicated by 123 is collated. Thereby, the second evaluation unit 113 evaluates the determination performance of the second discriminator 6.

性能判定部114は、第1識別器5及び第2識別器6に対する判定性能の評価の結果に基づいて、第2識別器6の判定性能が第1識別器5と比べて悪化しているか否か、換言すると、第2識別器6の判定性能が第1識別器5の判定性能よりも低いか否かを判定する。そして、出力部115は、第2識別器6の判定性能が第1識別器5と比べて悪化しているか否かを判定した結果を出力する。   The performance determination unit 114 determines whether or not the determination performance of the second identifier 6 is worse than that of the first identifier 5 based on the evaluation performance evaluation results for the first identifier 5 and the second identifier 6. In other words, it is determined whether the determination performance of the second discriminator 6 is lower than the determination performance of the first discriminator 5. Then, the output unit 115 outputs a result of determining whether or not the determination performance of the second discriminator 6 is worse than that of the first discriminator 5.

(識別器)
次に、各識別器(5、6)の構成について説明する。図5に示されるとおり、第1識別器5は、ニューラルネットワークにより構成される。具体的には、第1識別器5は、いわゆる深層学習に用いられる多層構造のニューラルネットワークにより構成されており、入力層51、中間層(隠れ層)52、及び出力層53を備えている。
(Identifier)
Next, the configuration of each discriminator (5, 6) will be described. As shown in FIG. 5, the first discriminator 5 is configured by a neural network. Specifically, the first discriminator 5 is configured by a multilayer neural network used for so-called deep learning, and includes an input layer 51, an intermediate layer (hidden layer) 52, and an output layer 53.

なお、図5の例では、第1識別器5を構成するニューラルネットワークは、1層の中間層52を備えており、入力層51の出力が中間層52に入力され、中間層52の出力が出力層53に入力されている。しかしながら、中間層52の数は、1層に限られなくてもよい。第1識別器5は、2層以上の中間層52を備えてもよい。   In the example of FIG. 5, the neural network constituting the first discriminator 5 includes one intermediate layer 52, the output of the input layer 51 is input to the intermediate layer 52, and the output of the intermediate layer 52 is Input to the output layer 53. However, the number of intermediate layers 52 may not be limited to one layer. The first discriminator 5 may include two or more intermediate layers 52.

各層51〜53は、1又は複数のニューロンを備えている。例えば、入力層51のニューロンの数は、入力される画像データ(評価用画像データ122、対象画像データ321)に応じて設定されてよい。中間層52のニューロンの数は、実施の形態に応じて適宜設定されてよい。また、出力層53のニューロンの数は、良否の判定結果の出力形式に応じて設定されてよい。   Each layer 51 to 53 includes one or a plurality of neurons. For example, the number of neurons in the input layer 51 may be set according to input image data (evaluation image data 122, target image data 321). The number of neurons in the intermediate layer 52 may be set as appropriate according to the embodiment. The number of neurons in the output layer 53 may be set according to the output format of the pass / fail determination result.

隣接する層のニューロン同士は適宜結合され、各結合には重み(結合荷重)が設定されている。図5の例では、各ニューロンは、隣接する層の全てのニューロンと結合されている。しかしながら、ニューロンの結合は、このような例に限定されなくてもよく、実施の形態に応じて適宜設定されてよい。   Adjacent layers of neurons are appropriately connected to each other, and a weight (connection load) is set for each connection. In the example of FIG. 5, each neuron is connected to all neurons in adjacent layers. However, the neuron connection may not be limited to such an example, and may be appropriately set according to the embodiment.

各ニューロンには閾値が設定されており、基本的には、各入力と各重みとの積の和が閾値を超えているか否かによって各ニューロンの出力が決定される。第1評価部112は、第1識別器5の入力層51に評価用画像データ122を入力し、ニューラルネットワークの演算処理として、各層に含まれる各ニューロンの発火判定を入力側から順に行う。これにより、第1評価部112は、入力した評価用画像データ122に写る製品の良否を判定した結果に対応する出力値を出力層53から取得することができる。   A threshold is set for each neuron, and basically, the output of each neuron is determined depending on whether or not the sum of products of each input and each weight exceeds the threshold. The first evaluation unit 112 inputs the evaluation image data 122 to the input layer 51 of the first discriminator 5, and performs firing determination of each neuron included in each layer in order from the input side as a calculation process of the neural network. Thereby, the first evaluation unit 112 can acquire an output value corresponding to the result of determining the quality of the product shown in the input evaluation image data 122 from the output layer 53.

また、図5に示されるとおり、第2識別器6も、第1識別器5と同様に、ニューラルネットワークにより構成されている。第2識別器6は、第1識別器5と同様に構成されてよい。すなわち、入力層61、中間層(隠れ層)62、及び出力層63は、第1識別器5の各層51〜53と同様に構成されてよい。ただし、第2識別器6のニューラルネットワークの構造は、第1識別器5と一致していなくてもよい。例えば、第2識別器6を構成するニューラルネットワークの層の数、各層におけるニューロンの個数、及びニューロン同士の結合関係は、第1識別器5を構成するニューラルネットワークと異なっていてもよい。   Further, as shown in FIG. 5, the second discriminator 6 is also configured by a neural network, like the first discriminator 5. The second discriminator 6 may be configured similarly to the first discriminator 5. That is, the input layer 61, the intermediate layer (hidden layer) 62, and the output layer 63 may be configured similarly to the layers 51 to 53 of the first discriminator 5. However, the structure of the neural network of the second discriminator 6 may not match the first discriminator 5. For example, the number of layers of the neural network constituting the second discriminator 6, the number of neurons in each layer, and the connection relationship between the neurons may be different from those of the neural network constituting the first discriminator 5.

第2評価部113は、第2識別器6の入力層61に評価用画像データ122を入力し、ニューラルネットワークの演算処理として、各層に含まれる各ニューロンの発火判定を入力側から順に行う。これにより、第2評価部113は、入力した評価用画像データ122に写る製品Rの良否を判定した結果に対応する出力値を出力層63から取得することができる。   The second evaluation unit 113 inputs the evaluation image data 122 to the input layer 61 of the second discriminator 6 and performs firing determination of each neuron included in each layer in order from the input side as a calculation process of the neural network. Thereby, the second evaluation unit 113 can acquire an output value corresponding to the result of determining the quality of the product R shown in the input evaluation image data 122 from the output layer 63.

なお、第1識別器5(ニューラルネットワーク)の構成(例えば、各ネットワークの層数、各層におけるニューロンの個数、ニューロン同士の結合関係、各ニューロンの伝達関数)、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報は、第1学習結果データ224に含まれている。第1評価部112は、第1学習結果データ224を参照して第1識別器5の設定を行う。   The configuration of the first discriminator 5 (neural network) (for example, the number of layers in each network, the number of neurons in each layer, the connection between neurons, the transfer function of each neuron), the weight of the connection between the neurons, and Information indicating the threshold value of each neuron is included in the first learning result data 224. The first evaluation unit 112 sets the first discriminator 5 with reference to the first learning result data 224.

同様に、第2識別器6(ニューラルネットワーク)の構成(例えば、各ネットワークの層数、各層におけるニューロンの個数、ニューロン同士の結合関係、各ニューロンの伝達関数)、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報は、第2学習結果データ229に含まれている。第2評価部113は、第2学習結果データ229を参照して第2識別器6の設定を行う。   Similarly, the configuration of the second discriminator 6 (neural network) (for example, the number of layers in each network, the number of neurons in each layer, the connection relationship between neurons, the transfer function of each neuron), the weight of the connection between each neuron, Information indicating the threshold value of each neuron is included in the second learning result data 229. The second evaluation unit 113 sets the second classifier 6 with reference to the second learning result data 229.

<学習装置>
次に、図6を用いて、本実施形態に係る学習装置2のソフトウェア構成の一例について説明する。図6は、本実施形態に係る学習装置2のソフトウェア構成の一例を模式的に例示する。
<Learning device>
Next, an example of the software configuration of the learning device 2 according to the present embodiment will be described with reference to FIG. FIG. 6 schematically illustrates an example of the software configuration of the learning device 2 according to the present embodiment.

学習装置2の制御部21は、記憶部22に記憶された学習プログラム82をRAMに展開する。そして、制御部21は、RAMに展開された学習プログラム82をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図6に示されるとおり、本実施形態に係る学習装置2は、学習データ取得部211、及び学習処理部212をソフトウェアモジュールとして備えるコンピュータとして構成される。すなわち、本実施形態では、各ソフトウェアモジュールは、制御部21(CPU)により実現される。   The control unit 21 of the learning device 2 expands the learning program 82 stored in the storage unit 22 in the RAM. Then, the control unit 21 interprets and executes the learning program 82 expanded in the RAM, and controls each component. Accordingly, as illustrated in FIG. 6, the learning device 2 according to the present embodiment is configured as a computer including the learning data acquisition unit 211 and the learning processing unit 212 as software modules. That is, in this embodiment, each software module is realized by the control unit 21 (CPU).

学習データ取得部211は、製品の良否を学習するための画像データ222で構成された第1学習データ221を取得する。学習処理部212は、取得した第1学習データ221を利用した機械学習を実施することで、製品の良否を判定する能力を習得した学習済みの第1識別器5を構築する。   The learning data acquisition unit 211 acquires first learning data 221 composed of image data 222 for learning the quality of a product. The learning processing unit 212 constructs the learned first discriminator 5 that has acquired the ability to determine the quality of the product by performing machine learning using the acquired first learning data 221.

また、学習データ取得部211は、第1学習データ221及び製品の良否を学習するための追加の画像データ227で構成された第2学習データ226を取得する。学習処理部212は、取得した第2学習データ226を利用した機械学習を実施することで、製品の良否を判定する能力を習得した学習済みの第2識別器6を構築する。すなわち、第2識別器6は、第1識別器5との関係で、再学習又は追加学習後の識別器である。   The learning data acquisition unit 211 acquires second learning data 226 including the first learning data 221 and additional image data 227 for learning the quality of the product. The learning processing unit 212 constructs the learned second discriminator 6 that has acquired the ability to determine the quality of the product by performing machine learning using the acquired second learning data 226. In other words, the second classifier 6 is a classifier after re-learning or additional learning in relation to the first classifier 5.

本実施形態では、各識別器(5、6)の学習モデルは、ニューラルネットワークにより構成されている。そのため、画像データ222には、画像データ222に写る製品の良否の判定に対する正解を示す正解データ223が付与されている。追加の画像データ227には、追加の画像データ227に写る製品の良否の判定に対する正解を示す正解データ228が付与されている。すなわち、第1学習データ221は、それぞれ画像データ222及び正解データ223の組み合わせを含む複数件のデータセットにより構成される。また、第2学習データ226は、それぞれ追加の画像データ227及び正解データ228の組み合わせを含む複数件のデータセット並びに第1学習データ221により構成される。   In this embodiment, the learning model of each discriminator (5, 6) is configured by a neural network. Therefore, correct data 223 indicating the correct answer to the quality determination of the product shown in the image data 222 is assigned to the image data 222. The additional image data 227 is provided with correct answer data 228 indicating a correct answer to the quality determination of the product shown in the additional image data 227. That is, the first learning data 221 is composed of a plurality of data sets each including a combination of the image data 222 and the correct answer data 223. The second learning data 226 includes a plurality of data sets each including a combination of additional image data 227 and correct answer data 228, and first learning data 221.

学習処理部212は、第1学習データ221に含まれる各件のデータセットについて、画像データ222を入力層51に入力すると、入力した画像データ222に関連付けられた正解データ223に対応する出力値を出力層53から出力するように第1識別器5の機械学習を行う。これにより、学習処理部212は、製品の良否を判定する能力を習得した学習済みの第1識別器5を構築する。そして、学習処理部212は、学習済みの第1識別器5の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第1学習結果データ224として記憶部22に格納する。   For each data set included in the first learning data 221, the learning processing unit 212 inputs the image data 222 to the input layer 51, and outputs an output value corresponding to the correct data 223 associated with the input image data 222. Machine learning of the first discriminator 5 is performed so as to output from the output layer 53. Thereby, the learning processing unit 212 constructs the learned first discriminator 5 that has acquired the ability to judge the quality of the product. Then, the learning processing unit 212 stores information indicating the configuration of the learned first discriminator 5, the weight of the connection between the neurons, and the threshold value of each neuron as the first learning result data 224 in the storage unit 22.

また、学習処理部212は、第2学習データ226に含まれる各件のデータセットについて、画像データ(222、227)を入力層61に入力すると、入力した画像データ(222、227)に関連付けられた正解データ(223、228)に対応する出力値を出力層63から出力するように第2識別器6の機械学習を行う。これにより、学習処理部212は、製品の良否を判定する能力を習得した学習済みの第2識別器6を構築する。そして、学習処理部212は、学習済みの第2識別器6の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第2学習結果データ229として記憶部22に格納する。   Further, when the learning processing unit 212 inputs image data (222, 227) to the input layer 61 for each data set included in the second learning data 226, the learning processing unit 212 is associated with the input image data (222, 227). The machine learning of the second discriminator 6 is performed so that the output value corresponding to the correct data (223, 228) is output from the output layer 63. Thereby, the learning processing unit 212 constructs the learned second discriminator 6 that has acquired the ability to determine the quality of the product. The learning processing unit 212 stores information indicating the configuration of the learned second discriminator 6, the weight of the connection between the neurons, and the threshold value of each neuron as the second learning result data 229 in the storage unit 22.

<検査装置>
次に、図7を用いて、本実施形態に係る検査装置3のソフトウェア構成の一例について説明する。図7は、本実施形態に係る検査装置3のソフトウェア構成の一例を模式的に例示する。
<Inspection device>
Next, an example of the software configuration of the inspection apparatus 3 according to the present embodiment will be described using FIG. FIG. 7 schematically illustrates an example of the software configuration of the inspection apparatus 3 according to the present embodiment.

検査装置3の制御部31は、記憶部32に記憶された検査プログラム83をRAMに展開する。そして、制御部31は、RAMに展開された検査プログラム83をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図7に示されるとおり、本実施形態に係る検査装置3は、対象データ取得部311、良否判定部312、及び出力部313をソフトウェアモジュールとして備えるコンピュータとして構成される。すなわち、本実施形態では、各ソフトウェアモジュールは、制御部31(CPU)により実現される。   The control unit 31 of the inspection apparatus 3 expands the inspection program 83 stored in the storage unit 32 in the RAM. Then, the control unit 31 interprets and executes the inspection program 83 expanded in the RAM, and controls each component. Accordingly, as illustrated in FIG. 7, the inspection apparatus 3 according to the present embodiment is configured as a computer including the target data acquisition unit 311, the pass / fail determination unit 312, and the output unit 313 as software modules. That is, in this embodiment, each software module is realized by the control unit 31 (CPU).

対象データ取得部311は、検査の対象となる製品Rの写る対象画像データ321を取得する。本実施形態では、対象データ取得部311は、カメラ41により製品Rを撮影することで、対象画像データ321を取得する。良否判定部312は、第1識別器5又は第2識別器6を利用して、対象画像データ321に写る製品Rの良否を判定する。出力部313は、製品Rの良否を判定した結果、すなわち、外観検査の結果を出力する。   The target data acquisition unit 311 acquires target image data 321 in which the product R to be inspected is shown. In the present embodiment, the target data acquisition unit 311 acquires target image data 321 by photographing the product R with the camera 41. The quality determination unit 312 determines the quality of the product R shown in the target image data 321 by using the first discriminator 5 or the second discriminator 6. The output unit 313 outputs the result of determining the quality of the product R, that is, the result of the appearance inspection.

なお、良否判定部312は、学習済みの第1識別器5及び学習済みの第2識別器6の少なくとも一方を含んでいる。第2識別器6の判定性能が第1識別器5と比べて悪化していると判定した場合には、良否判定部312は、第1識別器5を利用して、対象画像データ321に写る製品Rの良否を判定する。具体的には、良否判定部312は、第1学習結果データ224を参照して、学習済みの第1識別器5の設定を行う。次に、良否判定部312は、取得した対象画像データ321を第1識別器5に入力して、第1識別器5の演算処理を実行することで、第1識別器5から出力値を取得する。そして、良否判定部312は、第1識別器5から取得した出力値に基づいて、対象画像データ321に写る製品Rの良否を判定する。   The pass / fail judgment unit 312 includes at least one of the learned first discriminator 5 and the learned second discriminator 6. When it is determined that the determination performance of the second discriminator 6 is worse than that of the first discriminator 5, the pass / fail determination unit 312 uses the first discriminator 5 to be reflected in the target image data 321. The quality of the product R is judged. Specifically, the quality determination unit 312 sets the learned first classifier 5 with reference to the first learning result data 224. Next, the pass / fail judgment unit 312 inputs the acquired target image data 321 to the first discriminator 5 and executes the arithmetic processing of the first discriminator 5 to obtain the output value from the first discriminator 5. To do. Then, the quality determination unit 312 determines quality of the product R shown in the target image data 321 based on the output value acquired from the first discriminator 5.

一方、第2識別器6の判定性能が第1識別器5と比べて悪化していないと判定した場合には、良否判定部312は、第2識別器6を利用して、対象画像データ321に写る製品Rの良否を判定する。具体的には、良否判定部312は、第2学習結果データ229を参照して、学習済みの第2識別器6の設定を行う。次に、良否判定部312は、取得した対象画像データ321を第2識別器6に入力して、第2識別器6の演算処理を実行することで、第2識別器6から出力値を取得する。そして、良否判定部312は、第2識別器6から取得した出力値に基づいて、対象画像データ321に写る製品Rの良否を判定する。   On the other hand, when it is determined that the determination performance of the second discriminator 6 has not deteriorated compared to the first discriminator 5, the pass / fail determination unit 312 uses the second discriminator 6 to target image data 321. The quality of the product R reflected in the product is judged. Specifically, the pass / fail judgment unit 312 sets the learned second discriminator 6 with reference to the second learning result data 229. Next, the pass / fail judgment unit 312 acquires the output value from the second discriminator 6 by inputting the acquired target image data 321 to the second discriminator 6 and executing the arithmetic processing of the second discriminator 6. To do. Then, the quality determination unit 312 determines quality of the product R shown in the target image data 321 based on the output value acquired from the second discriminator 6.

<その他>
識別器評価装置1、学習装置2、及び検査装置3の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、識別器評価装置1、学習装置2、及び検査装置3の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上のソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、識別器評価装置1、学習装置2、及び検査装置3それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
<Others>
The software modules of the discriminator evaluation device 1, the learning device 2, and the inspection device 3 will be described in detail in an operation example described later. In the present embodiment, an example is described in which each software module of the classifier evaluation device 1, the learning device 2, and the inspection device 3 is realized by a general-purpose CPU. However, some or all of the above software modules may be implemented by one or more dedicated processors. In addition, regarding the software configurations of the classifier evaluation device 1, the learning device 2, and the inspection device 3, software modules may be omitted, replaced, and added as appropriate according to the embodiment.

§3 動作例
[学習装置]
次に、図8を用いて、本実施形態に係る学習装置2の動作例について説明する。図8は、本実施形態に係る学習装置2の処理手順の一例を例示するフローチャートである。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。なお、学習装置2は、利用する学習データが異なる点を除き、同様の処理手順により、第1識別器5及び第2識別器6を構築することができる。以下では、まず、第1識別器5を構築する際の処理手順について説明する。
§3 Example of operation [Learning device]
Next, an operation example of the learning device 2 according to the present embodiment will be described with reference to FIG. FIG. 8 is a flowchart illustrating an example of a processing procedure of the learning device 2 according to this embodiment. However, the processing procedure described below is merely an example, and each processing may be changed as much as possible. Further, in the processing procedure described below, steps can be omitted, replaced, and added as appropriate according to the embodiment. The learning device 2 can construct the first discriminator 5 and the second discriminator 6 by the same processing procedure except that the learning data to be used is different. Below, the process sequence at the time of constructing the 1st discriminator 5 is demonstrated first.

(I)第1識別器の構築
(ステップS101)
ステップS101では、制御部21は、学習データ取得部211として動作し、製品の良否を学習するための画像データ222で構成された第1学習データ221を取得する。本実施形態では、第1識別器5の学習モデルがニューラルネットワークにより構成されているため、制御部21は、それぞれ画像データ222及び正解データ223の組み合わせを含む複数件のデータセットにより構成された第1学習データ221を取得する。
(I) Construction of first discriminator (Step S101)
In step S101, the control unit 21 operates as the learning data acquisition unit 211, and acquires first learning data 221 configured with image data 222 for learning the quality of the product. In this embodiment, since the learning model of the first discriminator 5 is configured by a neural network, the control unit 21 includes a first data set including a plurality of data sets each including a combination of image data 222 and correct answer data 223. 1 learning data 221 is acquired.

第1学習データ221を取得する方法は、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。例えば、カメラを用意し、検査対象となる製品Rと同種の製品であって、欠陥のある製品(不良品)及び欠陥のない製品(良品)それぞれを、用意したカメラにより様々な条件で撮影することで、良否の表れた製品の写る画像データ222を取得することができる。そして、得られた画像データ222に対して、その画像データ222に写る製品に表れた良否(正解)を示す正解データ223を組み合わせることで、学習用のデータセットを作成することができる。   The method for acquiring the first learning data 221 is not particularly limited, and may be appropriately determined according to the embodiment. For example, a camera is prepared, and a product of the same type as the product R to be inspected, and a defective product (defective product) and a product without a defect (non-defective product) are photographed under various conditions using the prepared camera. As a result, it is possible to acquire the image data 222 showing the product showing the quality. A learning data set can be created by combining the obtained image data 222 with correct answer data 223 indicating pass / fail (correct answer) appearing in the product shown in the image data 222.

正解データ223の具体的な内容は、各識別器(5、6)の出力形式に応じて適宜決定されてよい。各識別器(5、6)から得られる出力値が製品の良否そのもの又はその確率を示すように各識別器(5、6)を構成する場合、正解データ223の内容は、画像データ222に写る製品に表れている良否そのもの又はその確率を示すように適宜決定されてよい。また、各識別器(5、6)から得られる出力値が製品の良否のインデックスを示すように各識別器(5、6)を構成する場合、正解データ223の内容は、画像データ222に写る製品に表れている良否のインデックスを示すように適宜決定されてよい。このインデックスは、製品に欠陥がない(製品が良品である)こと、及び製品に存在する欠陥の種別にそれぞれ対応付けられてよい。この学習用のデータセットの作成を繰り返すことで、複数件のデータセットで構成された第1学習データ221を作成することができる。   Specific contents of the correct answer data 223 may be appropriately determined according to the output format of each discriminator (5, 6). When each discriminator (5, 6) is configured such that the output value obtained from each discriminator (5, 6) indicates the quality of the product itself or its probability, the content of the correct answer data 223 is reflected in the image data 222. It may be determined as appropriate so as to indicate the quality itself or the probability that appears in the product. Further, when each discriminator (5, 6) is configured such that the output value obtained from each discriminator (5, 6) indicates a product pass / fail index, the content of the correct answer data 223 is reflected in the image data 222. It may be determined as appropriate so as to indicate the quality index that appears on the product. This index may be associated with each of the product having no defect (the product is a non-defective product) and the type of defect present in the product. By repeating the creation of the learning data set, the first learning data 221 composed of a plurality of data sets can be created.

この第1学習データ221の作成は、学習装置2により行われてもよい。この場合、制御部21は、オペレータによる入力装置24の操作に応じて、第1学習データ221を作成してもよい。また、制御部21は、学習プログラム82の処理により、第1学習データ221を自動的に作成してもよい。この作成処理を実行することで、本ステップS101では、制御部21は、第1学習データ221を取得することができる。   The creation of the first learning data 221 may be performed by the learning device 2. In this case, the control unit 21 may create the first learning data 221 according to the operation of the input device 24 by the operator. Further, the control unit 21 may automatically create the first learning data 221 by the processing of the learning program 82. By executing this creation process, the control unit 21 can acquire the first learning data 221 in this step S101.

あるいは、第1学習データ221の作成は、学習装置2以外の他の情報処理装置により行われてもよい。他の情報処理装置では、第1学習データ221は、オペレータにより手動で作成されてもよいし、プログラムの処理により自動的に作成されてもよい。この場合、本ステップS101では、制御部21は、ネットワーク、記憶媒体92等を介して、他の情報処理装置により作成された第1学習データ221を取得してもよい。   Alternatively, the creation of the first learning data 221 may be performed by an information processing device other than the learning device 2. In another information processing apparatus, the first learning data 221 may be created manually by an operator or automatically by program processing. In this case, in step S101, the control unit 21 may acquire the first learning data 221 created by another information processing apparatus via the network, the storage medium 92, or the like.

第1学習データ221を構成するデータセットの件数は、特に限定されなくてもよく、例えば、第1識別器5の機械学習を実施可能な程度に適宜決定されてよい。これにより、第1学習データ221を取得すると、制御部21は、次のステップS102に処理を進める。   The number of data sets constituting the first learning data 221 is not particularly limited, and may be determined as appropriate to the extent that machine learning of the first discriminator 5 can be performed, for example. Thereby, if the 1st learning data 221 is acquired, control part 21 will advance processing to the following Step S102.

(ステップS102)
ステップS102では、制御部21は、学習処理部212として動作し、ステップS101で取得した第1学習データ221を利用した機械学習を実行することで、製品の良否を判定する能力を習得した学習済みの第1識別器5を構築する。本実施形態では、制御部21は、第1学習データ221を構成する各件のデータセットを用いて、画像データ222を入力層51に入力すると、正解データ223により示される正解に対応する出力値を出力層53から出力するようにニューラルネットワークの機械学習を実施する。
(Step S102)
In step S102, the control unit 21 operates as the learning processing unit 212 and has learned the ability to determine the quality of the product by executing machine learning using the first learning data 221 acquired in step S101. The first discriminator 5 is constructed. In the present embodiment, when the control unit 21 inputs the image data 222 to the input layer 51 using the data sets of the respective cases constituting the first learning data 221, an output value corresponding to the correct answer indicated by the correct answer data 223. Is output from the output layer 53 to perform machine learning of the neural network.

具体的には、まず、制御部21は、学習処理を行う対象となるニューラルネットワーク(学習前の第1識別器5)を用意する。用意するニューラルネットワークの構成、各ニューロン間の結合の重みの初期値、各ニューロンの閾値の初期値等の各パラメータは、テンプレートにより与えられてもよいし、オペレータの入力により与えられてもよい。他の識別器の再学習又は追加学習を行うことで第1識別器5を構成する場合、制御部21は、他の識別器の学習結果データに基づいて、学習前のニューラルネットワークを用意してもよい。   Specifically, first, the control unit 21 prepares a neural network (first discriminator 5 before learning) to be subjected to learning processing. Each parameter such as the configuration of the neural network to be prepared, the initial value of the connection weight between the neurons, and the initial value of the threshold value of each neuron may be given by a template or by an operator input. When the first discriminator 5 is configured by performing re-learning or additional learning of another discriminator, the control unit 21 prepares a neural network before learning based on the learning result data of the other discriminator. Also good.

次に、制御部21は、ステップS101で取得した第1学習データ221の各件のデータセットに含まれる画像データ222を入力データとして用い、正解データ223を教師データとして用いて、ニューラルネットワークの学習処理を実行する。このニューラルネットワークの学習処理には、確率的勾配降下法等が用いられてよい。   Next, the control unit 21 uses the image data 222 included in each data set of the first learning data 221 acquired in step S101 as input data, and uses the correct answer data 223 as teacher data to learn the neural network. Execute the process. A stochastic gradient descent method or the like may be used for this neural network learning process.

例えば、制御部21は、画像データ222を入力層51に入力し、入力側から順に各層51〜53に含まれる各ニューロンの発火判定を行う。これにより、制御部21は、出力層53から出力値を得る。次に、制御部21は、出力層53から得た出力値と正解データ223により示される正解に対応する値との誤差を算出する。続いて、制御部21は、誤差逆伝搬(Back propagation)法により、算出した出力値の誤差を用いて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの誤差を算出する。そして、制御部21は、算出した各誤差に基づいて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの値の更新を行う。   For example, the control unit 21 inputs the image data 222 to the input layer 51 and performs firing determination of each neuron included in each of the layers 51 to 53 in order from the input side. Thereby, the control unit 21 obtains an output value from the output layer 53. Next, the control unit 21 calculates an error between the output value obtained from the output layer 53 and the value corresponding to the correct answer indicated by the correct answer data 223. Subsequently, the control unit 21 calculates the error of the connection between the neurons and the error of the threshold value of each neuron using the error of the calculated output value by the error back propagation method. Then, the control unit 21 updates the values of the connection weights between the neurons and the threshold values of the neurons based on the calculated errors.

第1学習データ221を構成する各件のデータセットについて、画像データ222を入力層51に入力することにより出力層53から得られる出力値が、入力した画像データ222に関連付けられた正解データ223により示される正解に対応する値と一致するまで、制御部21は、この一連の処理を繰り返す。これにより、制御部21は、画像データ222を入力すると、正解データ223により示される正解に対応する出力値を出力する学習済みのニューラルネットワーク(すなわち、第1識別器5)を構築することができる。第1識別器5の学習処理が完了すると、制御部21は、次のステップS103に処理を進める。   For each data set constituting the first learning data 221, the output value obtained from the output layer 53 by inputting the image data 222 to the input layer 51 is represented by the correct data 223 associated with the input image data 222. The control unit 21 repeats this series of processing until it matches the value corresponding to the correct answer shown. Thus, when the image data 222 is input, the control unit 21 can construct a learned neural network (that is, the first discriminator 5) that outputs an output value corresponding to the correct answer indicated by the correct answer data 223. . When the learning process of the first discriminator 5 is completed, the control unit 21 proceeds to the next step S103.

(ステップS103)
ステップS103では、制御部21は、学習処理部212として動作し、機械学習により構築された第1識別器5の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第1学習結果データ224として記憶部22に格納する。これにより、制御部21は、本動作例に係る処理を終了する。
(Step S103)
In step S103, the control unit 21 operates as the learning processing unit 212, and first sets information indicating the configuration of the first discriminator 5 constructed by machine learning, the connection weight between the neurons, and the threshold value of each neuron. The learning result data 224 is stored in the storage unit 22. Thereby, the control part 21 complete | finishes the process which concerns on this operation example.

(II)第2識別器の構築
次に、第2識別器6を構築する際の処理手順について説明する。学習装置2は、利用する学習データが第1識別器5と異なる点を除き、第1識別器5と同様に第2識別器6を構築することができる。
(II) Construction of Second Discriminator Next, a processing procedure for constructing the second discriminator 6 will be described. The learning device 2 can construct the second discriminator 6 in the same manner as the first discriminator 5 except that the learning data to be used is different from the first discriminator 5.

(ステップS101)
すなわち、ステップS101では、制御部21は、学習データ取得部211として動作し、第1学習データ221及び製品の良否を学習するための追加の画像データ227で構成された第2学習データ226を取得する。本実施形態では、第2識別器6の学習モデルがニューラルネットワークにより構成されているため、制御部21は、それぞれ追加の画像データ227及び正解データ228の組み合わせを含む複数件のデータセット並びに第1学習データ221により構成された第2学習データ226を取得する。
(Step S101)
That is, in step S101, the control unit 21 operates as the learning data acquisition unit 211, and acquires the second learning data 226 including the first learning data 221 and additional image data 227 for learning the quality of the product. To do. In the present embodiment, since the learning model of the second discriminator 6 is configured by a neural network, the control unit 21 includes a plurality of data sets each including a combination of additional image data 227 and correct data 228 and the first data set. The second learning data 226 configured by the learning data 221 is acquired.

第2学習データ226の追加の画像データ227及び正解データ228は、上記第1学習データ221と同様の方法により取得されてよい。制御部21は、上記データセットの作成処理を実行することで、第2学習データ226を取得することができる。あるいは、第2学習データ226が他の情報処理装置により作成される場合、制御部21は、ネットワーク、記憶媒体92等を介して、他の情報処理装置により作成された第2学習データ226を取得することができる。第2学習データ226を取得すると、制御部21は、次のステップS102に処理を進める。   The additional image data 227 and the correct answer data 228 of the second learning data 226 may be acquired by the same method as the first learning data 221. The control unit 21 can acquire the second learning data 226 by executing the data set creation process. Alternatively, when the second learning data 226 is created by another information processing device, the control unit 21 acquires the second learning data 226 created by the other information processing device via the network, the storage medium 92, or the like. can do. When the second learning data 226 is acquired, the control unit 21 proceeds to the next step S102.

(ステップS102)
ステップS102では、制御部21は、学習処理部212として動作し、ステップS102で取得した第2学習データ226を利用した機械学習を実行することで、製品の良否を判定する能力を習得した学習済みの第2識別器6を構築する。制御部21は、第2学習データ226を構成する各件のデータセットを用いて、画像データ(222、227)を入力層61に入力すると、正解データ(223、228)に対応する出力値を出力層63から出力するようにニューラルネットワークの機械学習を実施する。
(Step S102)
In step S102, the control unit 21 operates as the learning processing unit 212 and has learned the ability to determine the quality of the product by executing machine learning using the second learning data 226 acquired in step S102. The second discriminator 6 is constructed. When the control unit 21 inputs the image data (222, 227) to the input layer 61 using each data set constituting the second learning data 226, the control unit 21 outputs an output value corresponding to the correct data (223, 228). Machine learning of the neural network is performed so as to output from the output layer 63.

このとき、用意するニューラルネットワーク(学習前の第2識別器6)の構成、各ニューロン間の結合の重みの初期値、各ニューロンの閾値の初期値等の各パラメータは、テンプレートにより与えられてもよいし、オペレータの入力により与えられてもよい。また、第1識別器5の再学習又は追加学習を行う場合、制御部21は、第1学習結果データ224に基づいて、学習前のニューラルネットワークを用意してもよい。   At this time, parameters such as the configuration of the neural network to be prepared (second discriminator 6 before learning), the initial value of the connection weight between neurons, and the initial value of the threshold value of each neuron may be given by the template. It may be given by an operator input. Further, when performing re-learning or additional learning of the first discriminator 5, the control unit 21 may prepare a neural network before learning based on the first learning result data 224.

次に、制御部21は、ステップS101で取得した第2学習データ226の各件のデータセットに含まれる画像データ(222、227)を入力データとして用い、正解データ(223、228)を教師データとして用いて、ニューラルネットワークの上記学習処理を実行する。なお、第1学習結果データ224に基づいて用意した学習前のニューラルネットワークに対して追加学習のみを行う場合、制御部21は、第1学習データ221(画像データ222及び正解データ223)の機械学習を省略してもよい。これにより、制御部21は、画像データ(222、227)を入力すると、入力した画像データ(222、227)に関連付けられた正解データ(223、228)により示される正解に対応する出力値を出力する学習済みのニューラルネットワーク(すなわち、第2識別器6)を構築することができる。第2識別器6の学習処理が完了すると、制御部21は、次のステップS103に処理を進める。   Next, the control unit 21 uses the image data (222, 227) included in each data set of the second learning data 226 acquired in step S101 as input data, and uses the correct data (223, 228) as teacher data. To execute the above learning process of the neural network. When only additional learning is performed on the pre-learning neural network prepared based on the first learning result data 224, the control unit 21 performs machine learning of the first learning data 221 (image data 222 and correct answer data 223). May be omitted. Accordingly, when the image data (222, 227) is input, the control unit 21 outputs an output value corresponding to the correct answer indicated by the correct data (223, 228) associated with the input image data (222, 227). A learned neural network (ie, the second discriminator 6) can be constructed. When the learning process of the second discriminator 6 is completed, the control unit 21 proceeds to the next step S103.

(ステップS103)
ステップS103では、制御部21は、学習処理部212として動作し、機械学習により構築された第2識別器6の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第2学習結果データ229として記憶部22に格納する。これにより、制御部21は、本動作例に係る処理を終了する。
(Step S103)
In step S103, the control unit 21 operates as the learning processing unit 212, and receives information indicating the configuration of the second discriminator 6 constructed by machine learning, the connection weight between the neurons, and the threshold value of each neuron. The learning result data 229 is stored in the storage unit 22. Thereby, the control part 21 complete | finishes the process which concerns on this operation example.

(III)その他
なお、制御部21は、上記ステップS103の処理が完了した後、作成した第1学習結果データ224及び第2学習結果データ229を識別器評価装置1及び検査装置3に転送してもよい。また、例えば、制御部21は、作成した第1学習結果データ224及び第2学習結果データ229をNAS(Network Attached Storage)等のデータサーバに保管してもよい。この場合、識別器評価装置1及び検査装置3はそれぞれ、第1学習結果データ224及び第2学習結果データ229をこのデータサーバから取得してもよい。
(III) Others The control unit 21 transfers the created first learning result data 224 and second learning result data 229 to the discriminator evaluation apparatus 1 and the inspection apparatus 3 after the process of step S103 is completed. Also good. For example, the control unit 21 may store the created first learning result data 224 and second learning result data 229 in a data server such as NAS (Network Attached Storage). In this case, the classifier evaluation device 1 and the inspection device 3 may acquire the first learning result data 224 and the second learning result data 229 from the data server, respectively.

[識別器評価装置]
次に、図9を用いて、本実施形態に係る識別器評価装置1の動作例について説明する。図9は、本実施形態に係る識別器評価装置1の処理手順の一例を例示するフローチャートである。以下で説明する処理手順は、本発明の識別器評価方法の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
[Classifier evaluation device]
Next, an operation example of the classifier evaluation apparatus 1 according to the present embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of a processing procedure of the discriminator evaluation apparatus 1 according to this embodiment. The processing procedure described below is an example of the classifier evaluation method of the present invention. However, the processing procedure described below is merely an example, and each processing may be changed as much as possible. Further, in the processing procedure described below, steps can be omitted, replaced, and added as appropriate according to the embodiment.

(ステップS201)
ステップS201では、制御部11は、評価データ取得部111として動作し、製品の写る評価用画像データ122、及び評価用画像データ122に写る前記製品の良否の判定に対する正解を示す正解データ123の組み合わせによりそれぞれ構成される複数件の評価用データセット121を取得する。
(Step S201)
In step S <b> 201, the control unit 11 operates as the evaluation data acquisition unit 111, and a combination of the evaluation image data 122 showing the product and the correct data 123 indicating the correct answer for the quality determination of the product shown in the evaluation image data 122. A plurality of evaluation data sets 121 each obtained by the above are acquired.

各件の評価用データセット121は、上記学習用のデータセットと同様に作成可能である。すなわち、カメラを用意し、検査対象となる製品Rと同種の製品であって、欠陥のある製品(不良品)及び欠陥のない製品(良品)それぞれを、用意したカメラにより様々な条件で撮影することで、良否の表れた製品の写る評価用画像データ122を取得することができる。そして、得られた評価用画像データ122に対して、その評価用画像データ122に写る製品に表れた良否(正解)を示す正解データ123を組み合わせることで、各件の評価用データセット121を作成することができる。   Each evaluation data set 121 can be created in the same manner as the learning data set. That is, a camera is prepared, and a product of the same type as the product R to be inspected, and a defective product (defective product) and a product without a defect (non-defective product) are photographed under various conditions using the prepared camera. As a result, it is possible to obtain the evaluation image data 122 in which the product showing the quality is shown. Then, by combining the obtained evaluation image data 122 with correct answer data 123 indicating pass / fail (correct answer) appearing in the product shown in the evaluation image data 122, an evaluation data set 121 for each case is created. can do.

なお、正解データ123の具体的な内容は、実施の形態に応じて適宜決定されてよい。例えば、正解データ123は、各識別器(5、6)の出力値に対応するように設定されてよい。具体的に、各識別器(5、6)から得られる出力値が製品の良否そのもの又はその確率を示す場合、正解データ123は、評価用画像データ122に写る製品に表れている良否そのもの又はその確率を示すように設定されてよい。各識別器(5、6)から得られる出力値が製品の良否のインデックスを示す場合、正解データ123は、評価用画像データ122に写る製品に表れている良否のインデックスを示すように設定されてよい。   Note that the specific content of the correct answer data 123 may be appropriately determined according to the embodiment. For example, the correct answer data 123 may be set so as to correspond to the output value of each discriminator (5, 6). Specifically, when the output value obtained from each discriminator (5, 6) indicates the quality of the product itself or the probability thereof, the correct answer data 123 is the quality of the product that appears in the product reflected in the evaluation image data 122 or It may be set to indicate the probability. When the output value obtained from each discriminator (5, 6) indicates a product quality index, the correct answer data 123 is set so as to indicate the quality index appearing on the product shown in the evaluation image data 122. Good.

また、例えば、正解データ123の内容は、各識別器(5、6)の出力値に基づいて製品の良否を判断した結果に対応するように設定されてもよい。具体的に、各識別器(5、6)から得られる出力値が製品の良否そのもの又はその確率を示す場合、正解データ123は、評価用画像データ122に写る製品に表れている良否を示すように設定されてよい。各識別器(5、6)から得られる出力値が製品の良否のインデックスを示す場合、正解データ123は、評価用画像データ122に写る製品に欠陥がないこと、又は当該製品に存在する欠陥の種別を示すように設定されてよい。   Further, for example, the content of the correct answer data 123 may be set so as to correspond to the result of determining the quality of the product based on the output value of each discriminator (5, 6). Specifically, when the output value obtained from each discriminator (5, 6) indicates the quality of the product itself or its probability, the correct answer data 123 indicates whether the product appears in the evaluation image data 122 or not. May be set. When the output value obtained from each discriminator (5, 6) indicates the quality index of the product, the correct answer data 123 indicates that the product shown in the evaluation image data 122 has no defect or the defect present in the product. It may be set to indicate the type.

制御部11は、上記データセットの作成処理と同様の処理を繰り返し実行することで、複数件の評価用データセット121を取得してもよい。あるいは、複数件の評価用データセット121が他の情報処理装置により作成される場合、制御部11は、ネットワーク、記憶媒体91等を介して、他の情報処理装置により作成された複数件の評価用データセット121を取得することができる。複数件の評価用データセット121を取得すると、制御部11は、次のステップS202に処理を進める。   The control unit 11 may acquire a plurality of evaluation data sets 121 by repeatedly executing the same process as the data set creation process. Alternatively, when a plurality of evaluation data sets 121 are created by another information processing apparatus, the control unit 11 evaluates the plurality of evaluations created by another information processing apparatus via the network, the storage medium 91, or the like. The data set 121 can be acquired. When the plurality of evaluation data sets 121 are acquired, the control unit 11 advances the processing to the next step S202.

なお、製品の良否を検査する環境における各識別器(5、6)の性能を正確に評価する観点から、各件の評価用データセット121は、製品の良否を検査する環境において取得されるのが好ましい。本実施形態では、検査装置3により製品Rの良否の検査が行われる。そのため、各件の評価用データセット121は、検査装置3を利用する環境において取得されるのが好ましい。この場合、各件の評価用データセット121のうち少なくとも評価用画像データ122は、検査装置3により取得されてもよい。例えば、検査装置3を介して評価用画像データ122を取得し、取得した評価用画像データ122に正解データ123を付与することにより、各件の評価用データセット121を作成することができる。   From the viewpoint of accurately evaluating the performance of each discriminator (5, 6) in an environment for inspecting product quality, each evaluation data set 121 is acquired in an environment for inspecting product quality. Is preferred. In the present embodiment, the inspection device 3 inspects the quality of the product R. Therefore, it is preferable that each evaluation data set 121 is acquired in an environment in which the inspection apparatus 3 is used. In this case, at least the evaluation image data 122 of each evaluation data set 121 may be acquired by the inspection apparatus 3. For example, by obtaining the evaluation image data 122 via the inspection apparatus 3 and adding the correct answer data 123 to the obtained evaluation image data 122, each evaluation data set 121 can be created.

(ステップS202)
ステップS202では、制御部11は、第1評価部112として動作し、各件の評価用データセット121について、評価用画像データ122を第1識別器5に入力し、第1識別器5の演算処理を実行することで、第1識別器5から出力値を取得する。
(Step S202)
In step S <b> 202, the control unit 11 operates as the first evaluation unit 112, inputs the evaluation image data 122 to the first classifier 5 for each evaluation data set 121, and calculates the first classifier 5. By executing the process, the output value is acquired from the first discriminator 5.

具体的には、制御部11は、第1学習結果データ224を参照して、学習済みの第1識別器5の設定を行う。続いて、制御部11は、各件の評価用データセット121の評価用画像データ122を第1識別器5の入力層51に入力し、入力側から順に各層51〜53に含まれる各ニューロンの発火判定を行う。これにより、制御部11は、入力した評価用画像データ122に写る製品の良否を判定した結果に対応する出力値を第1識別器5の出力層53から取得する。   Specifically, the control unit 11 sets the learned first classifier 5 with reference to the first learning result data 224. Subsequently, the control unit 11 inputs the evaluation image data 122 of the evaluation data set 121 of each case to the input layer 51 of the first discriminator 5, and sequentially describes each neuron included in each of the layers 51 to 53 from the input side. Ignition is performed. Thereby, the control unit 11 acquires an output value corresponding to the result of determining the quality of the product shown in the input evaluation image data 122 from the output layer 53 of the first discriminator 5.

次に、制御部11は、第1識別器5から得られる出力値に基づいて評価用画像データ122に写る製品の良否を判定した結果と入力した評価用画像データ122に関連付けられた正解データ123により示される正解とを照合する。これにより、制御部11は、第1識別器5の判定性能を評価する。   Next, the control unit 11 determines the quality of the product shown in the evaluation image data 122 based on the output value obtained from the first discriminator 5 and the correct data 123 associated with the input evaluation image data 122. The correct answer indicated by is collated. Thereby, the control unit 11 evaluates the determination performance of the first discriminator 5.

(A)判定結果と正解との照合方法
まず、第1識別器5による判定結果と正解データ123により示される正解との照合方法について説明する。判定結果と正解との照合する方法は、正解データ123の形式に応じて適宜決定されてよい。例えば、正解データ123の内容が、各識別器(5、6)の出力値に対応するように設定されている場合、制御部11は、第1識別器5から得られた出力値と正解データ123により示される正解に対応する値とが一致又は近似しているか否かを判定してもよい。第1識別器5から得られた出力値と正解に対応する値とが一致又は近似している場合、制御部11は、第1識別器5から得られる出力値に基づいて評価用画像データ122に写る製品の良否を判定した結果が正解データ123により示される正解に一致していると判定してもよい。つまり、制御部11は、対象の評価用データセット121に対する第1識別器5による製品の良否の判定は正しいと判定してもよい。一方、第1識別器5から得られた出力値と正解に対応する値とが一致及び近似していない場合、制御部11は、第1識別器5から得られる出力値に基づいて評価用画像データ122に写る製品の良否を判定した結果が正解データ123により示される正解に一致していないと判定してもよい。すなわち、制御部11は、対象の評価用データセット121に対する第1識別器5による製品の良否の判定は誤っていると判定してもよい。
(A) Collation method of determination result and correct answer First, a collation method of the determination result by the first discriminator 5 and the correct answer indicated by the correct data 123 will be described. A method for collating the determination result with the correct answer may be appropriately determined according to the format of the correct answer data 123. For example, when the content of the correct answer data 123 is set so as to correspond to the output value of each discriminator (5, 6), the control unit 11 outputs the output value and the correct answer data obtained from the first discriminator 5. It may be determined whether or not the value corresponding to the correct answer indicated by 123 matches or approximates. When the output value obtained from the first discriminator 5 and the value corresponding to the correct answer match or approximate, the controller 11 evaluates the image data 122 for evaluation based on the output value obtained from the first discriminator 5. It may be determined that the result of determining the quality of the product shown in is consistent with the correct answer indicated by the correct answer data 123. That is, the control unit 11 may determine that the product quality determination by the first discriminator 5 for the target evaluation data set 121 is correct. On the other hand, when the output value obtained from the first discriminator 5 and the value corresponding to the correct answer do not match or approximate, the control unit 11 evaluates the evaluation image based on the output value obtained from the first discriminator 5. It may be determined that the result of determining the quality of the product shown in the data 122 does not match the correct answer indicated by the correct data 123. That is, the control unit 11 may determine that the determination of the quality of the product by the first discriminator 5 with respect to the target evaluation data set 121 is incorrect.

また、例えば、正解データ123の内容が、各識別器(5、6)の出力値に基づいて製品の良否を判断した結果に対応するように設定されている場合、制御部11は、まず、第1識別器5から得られた出力値に基づいて、評価用画像データ122に写る製品の良否を判定してもよい。各識別器(5、6)から得られる出力値が製品の良否そのもの又はその確率を示す場合、制御部11は、第1識別器5から得られた出力値を閾値と比較することで、評価用画像データ122に写る製品の良否を判定することができる。また、各識別器(5、6)から得られる出力値が製品の良否のインデックスを示す場合、識別器評価装置1は、各識別器(5、6)から得られる出力値と製品の良否又は欠陥の種別とを対応付けたテーブル形式等の参照情報(不図示)を記憶部12に保持していてもよい。この場合、制御部11は、この参照情報を参照することにより、第1識別器5から得られた出力値に応じて、評価用画像データ122に写る製品の良否を判定することができる。   For example, when the content of the correct answer data 123 is set so as to correspond to the result of judging the quality of the product based on the output value of each discriminator (5, 6), the control unit 11 firstly Based on the output value obtained from the first discriminator 5, the quality of the product shown in the evaluation image data 122 may be determined. When the output value obtained from each discriminator (5, 6) indicates the quality of the product itself or its probability, the control unit 11 evaluates by comparing the output value obtained from the first discriminator 5 with a threshold value. The quality of the product shown in the image data 122 can be determined. When the output value obtained from each discriminator (5, 6) indicates an index of product quality, the discriminator evaluation apparatus 1 determines whether the output value obtained from each discriminator (5, 6) and the product pass / fail Reference information (not shown) such as a table format in which defect types are associated may be held in the storage unit 12. In this case, the control unit 11 can determine the quality of the product shown in the evaluation image data 122 according to the output value obtained from the first discriminator 5 by referring to the reference information.

そして、制御部11は、第1識別器5から得られた出力値に基づいて評価用画像データ122に写る製品の良否を判定した結果と正解データ123により示される正解とが一致しているか否かを判定してもよい。第1識別器5による判定結果と正解データ123により示される正解とが一致している場合、制御部11は、対象の評価用データセット121に対する第1識別器5による製品の良否の判定は正しいと判定してもよい。一方、第1識別器5による判定結果と正解データ123により示される正解とが一致していない場合、制御部11は、対象の評価用データセット121に対する第1識別器5による製品の良否の判定は誤っていると判定してもよい。   Then, the control unit 11 determines whether the result of determining the quality of the product shown in the evaluation image data 122 based on the output value obtained from the first discriminator 5 matches the correct answer indicated by the correct data 123. It may be determined. When the determination result by the first discriminator 5 and the correct answer indicated by the correct answer data 123 match, the control unit 11 correctly determines the quality of the product by the first discriminator 5 for the target evaluation data set 121. May be determined. On the other hand, when the determination result by the first discriminator 5 and the correct answer indicated by the correct data 123 do not match, the control unit 11 determines the quality of the product by the first discriminator 5 for the target evaluation data set 121. May be determined to be incorrect.

(B)判定性能の評価方法
次に、判定性能の評価方法について説明する。第1識別器5の判定性能は、上記判定結果と正解との照合結果に基づいて適宜評価されてよい。例えば、制御部11は、複数件の評価用データセット121に対して、第1識別器5から得られた出力値に基づいて評価用画像データ122に写る製品の良否を判定した結果が正解データ123により示される正解と一致している比率(以下、単に「正答率」とも表記する)を算出することで、第1識別器5の判定性能を評価してもよい。つまり、制御部11は、複数件の評価用データセット121に対する第1識別器5による良否の判定の正答率を、第1識別器5の判定性能の評価結果として算出してもよい。なお、この「正答率」は、第1識別器5による良否の判定が正しいと判定された評価用データセット121の数(すなわち、正答数)を評価用データセット121の総数で割った商の他、正答数そのものを含んでもよい。
(B) Evaluation method of determination performance Next, an evaluation method of determination performance will be described. The determination performance of the first discriminator 5 may be appropriately evaluated based on the comparison result between the determination result and the correct answer. For example, for the plurality of evaluation data sets 121, the control unit 11 determines whether the quality of the product shown in the evaluation image data 122 based on the output value obtained from the first discriminator 5 is correct data. The determination performance of the first discriminator 5 may be evaluated by calculating a ratio that coincides with the correct answer indicated by 123 (hereinafter also simply referred to as “correct answer rate”). That is, the control unit 11 may calculate the correct answer rate of the pass / fail determination by the first discriminator 5 for the plurality of evaluation data sets 121 as the evaluation result of the determination performance of the first discriminator 5. The “correct answer rate” is a quotient obtained by dividing the number of evaluation data sets 121 (ie, the number of correct answers) determined to be correct by the first discriminator 5 by the total number of evaluation data sets 121. In addition, the number of correct answers may be included.

また、例えば、各件の評価用データセット121には、判定性能に寄与する度合いを示す重みが設定されていてもよい。この場合、この重みに応じて、第1識別器5の判定性能を評価してもよい。一例として、制御部11は、第1識別器5による良否の判定が正しいと判定された評価用データセット121に設定された重みの合計を、各件の評価用データセット121に設定された重みの合計で割った商(以下、「重みを含む正答率」とも表記する)を、第1識別器5の判定性能の評価結果として算出してもよい。なお、この「重みを含む正答率」は、第1識別器5による良否の判定が正しいと判定された評価用データセット121に設定された重みの合計そのものを含んでもよい。   Further, for example, a weight indicating the degree of contribution to the determination performance may be set in each evaluation data set 121. In this case, the determination performance of the first discriminator 5 may be evaluated according to this weight. As an example, the control unit 11 calculates the sum of the weights set in the evaluation data set 121 determined to be correct by the first discriminator 5 as the weight set in each evaluation data set 121. The quotient (hereinafter also referred to as “correct answer rate including weight”) divided by the sum of the above may be calculated as the evaluation result of the determination performance of the first discriminator 5. Note that the “correct answer rate including weight” may include the total weight set in the evaluation data set 121 that is determined to be correct by the first discriminator 5.

また、例えば、複数件の評価用データセット121は、評価用画像データ122に写る製品の良否の判定を誤ってはいけないものとして設定される禁忌データセットを含んでもよい。この場合、制御部11は、禁忌データセットに対する第1識別器5による良否の判定が誤っているか否か、又は禁忌データセットに対する第1識別器5による良否の判定が誤っている数に基づいて、第1識別器5の判定性能を評価してもよい。具体的には、禁忌データセットに対する良否の判定を誤っているほど、制御部11は、第1識別器5の判定性能は低いと評価し、禁忌データセットに対する良否の判定を誤っていないほど、制御部11は、第1識別器5の判定性能は高いと評価してもよい。   Further, for example, the plurality of evaluation data sets 121 may include contraindication data sets that are set so that the quality of the product shown in the evaluation image data 122 should not be erroneously determined. In this case, the control unit 11 determines whether or not the quality determination by the first discriminator 5 for the contraindication data set is incorrect, or based on the number of the quality determination by the first discriminator 5 for the contraindication data set is incorrect. The determination performance of the first discriminator 5 may be evaluated. Specifically, the control unit 11 evaluates that the determination performance of the first discriminator 5 is low as the determination of pass / fail for the contraindication data set is wrong, and the determination of pass / fail for the contraindication data set is not erroneous. The control unit 11 may evaluate that the determination performance of the first discriminator 5 is high.

以上により、制御部11は、第1識別器5から得られる出力値に基づいて評価用画像データ122に写る製品の良否を判定した結果と入力した評価用画像データ122に関連付けられた正解データ123により示される正解とを照合することで、第1識別器5の判定性能を評価することができる。第1識別器5の判定性能の評価が完了すると、制御部11は、次のステップS203に処理を進める。   As described above, the control unit 11 determines the quality of the product shown in the evaluation image data 122 based on the output value obtained from the first discriminator 5 and the correct answer data 123 associated with the input evaluation image data 122. The determination performance of the first discriminator 5 can be evaluated by collating with the correct answer indicated by. When the evaluation of the determination performance of the first discriminator 5 is completed, the control unit 11 advances the processing to the next step S203.

(ステップS203)
ステップS203では、制御部11は、第2評価部113として動作し、各件の評価用データセット121について、評価用画像データ122を第2識別器6に入力し、第2識別器6の演算処理を実行することで、第2識別器6から出力値を取得する。
(Step S203)
In step S <b> 203, the control unit 11 operates as the second evaluation unit 113, inputs the evaluation image data 122 to the second classifier 6 for each evaluation data set 121, and calculates the second classifier 6. By executing the process, an output value is acquired from the second discriminator 6.

具体的には、上記ステップS202と同様に、制御部11は、第2学習結果データ229を参照して、学習済みの第2識別器6の設定を行う。続いて、制御部11は、各件の評価用データセット121の評価用画像データ122を第2識別器6の入力層61に入力し、入力側から順に各層61〜63に含まれる各ニューロンの発火判定を行う。これにより、制御部11は、入力した評価用画像データ122に写る製品の良否を判定した結果に対応する出力値を第2識別器6の出力層63から取得する。   Specifically, similarly to step S202 described above, the control unit 11 sets the learned second discriminator 6 with reference to the second learning result data 229. Subsequently, the control unit 11 inputs the evaluation image data 122 of the evaluation data set 121 of each case to the input layer 61 of the second discriminator 6, and sequentially describes each neuron included in each of the layers 61 to 63 from the input side. Ignition is performed. Thereby, the control unit 11 acquires an output value corresponding to the result of determining the quality of the product shown in the input evaluation image data 122 from the output layer 63 of the second discriminator 6.

次に、制御部11は、第2識別器6から得られる出力値に基づいて評価用画像データ122に写る製品の良否を判定した結果と入力した評価用画像データ122に関連付けられた正解データ123により示される正解とを照合する。これにより、制御部11は、第2識別器6の判定性能を評価する。   Next, the control unit 11 determines the quality of the product shown in the evaluation image data 122 based on the output value obtained from the second discriminator 6 and the correct data 123 associated with the input evaluation image data 122. The correct answer indicated by is collated. Thereby, the control unit 11 evaluates the determination performance of the second discriminator 6.

判定結果及び正解の照合方法は、上記ステップS202と同様の方法でよい。制御部11は、第2識別器6から得られた出力値と正解データ123により示される正解に対応する値とが一致又は近似しているか否かに基づいて、対象の評価用データセット121に対する第2識別器6による製品の良否の判定が正しいか否かを判定してもよい。あるいは、制御部11は、第2識別器6から得られた出力値に基づいて製品の良否を判定した結果と正解データ123により示される正解とが一致しているか否かに基づいて、対象の評価用データセット121に対する第2識別器6による製品の良否の判定が正しいか否かを判定してもよい。   The determination result and the correct answer verification method may be the same method as in step S202. Based on whether or not the output value obtained from the second discriminator 6 and the value corresponding to the correct answer indicated by the correct answer data 123 match or approximate, the control unit 11 performs the processing for the target evaluation data set 121. You may determine whether the determination of the quality of the product by the 2nd discriminator 6 is correct. Alternatively, the control unit 11 determines whether the product is good or bad based on the output value obtained from the second discriminator 6 and whether the correct answer indicated by the correct answer data 123 matches the target. You may determine whether the determination of the quality of the product by the 2nd discriminator 6 with respect to the evaluation data set 121 is correct.

また、判定性能の評価方法も、上記ステップS202と同様の方法でよい。例えば、制御部11は、複数件の評価用データセット121に対して、第2識別器6から得られた出力値に基づいて評価用画像データ122に写る製品の良否を判定した結果が正解データ123により示される正解と一致している比率(正答率)を算出することで、第2識別器6の判定性能を評価してもよい。つまり、制御部11は、複数件の評価用データセット121に対する第2識別器6による良否の判定の正答率を、第2識別器6の判定性能の評価結果として算出してもよい。   Moreover, the evaluation performance evaluation method may be the same method as in step S202. For example, the control unit 11 determines the quality of the product reflected in the evaluation image data 122 based on the output value obtained from the second discriminator 6 for a plurality of evaluation data sets 121 as correct data. The determination performance of the second discriminator 6 may be evaluated by calculating a ratio (correct answer rate) that matches the correct answer indicated by 123. That is, the control unit 11 may calculate the correct answer rate of the pass / fail determination by the second discriminator 6 for the plurality of evaluation data sets 121 as the evaluation result of the determination performance of the second discriminator 6.

また、例えば、制御部11は、各件の評価用データセット121に設定された重みに応じて、第2識別器6の判定性能を評価してもよい。一例として、制御部11は、第2識別器6による良否の判定が正しいと判定された評価用データセット121に設定された重みの合計を、各件の評価用データセット121に設定された重みの合計で割った商(重みを含む正答率)を、第2識別器6の判定性能の評価結果として算出してもよい。   For example, the control unit 11 may evaluate the determination performance of the second discriminator 6 according to the weight set in each evaluation data set 121. As an example, the control unit 11 calculates the sum of the weights set in the evaluation data set 121 that is determined to be correct by the second discriminator 6 as the weight set in each evaluation data set 121. A quotient (correct answer rate including weight) divided by the sum of the above may be calculated as an evaluation result of the determination performance of the second discriminator 6.

また、例えば、複数件の評価用データセット121は、評価用画像データ122に写る製品の良否の判定を誤ってはいけないものとして設定される禁忌データセットを含んでもよい。この場合、制御部11は、禁忌データセットに対する第2識別器6による良否の判定が誤っているか否か、又は禁忌データセットに対する第2識別器6による良否の判定が誤っている数に基づいて、第2識別器6の判定性能を評価してもよい。   Further, for example, the plurality of evaluation data sets 121 may include contraindication data sets that are set so that the quality of the product shown in the evaluation image data 122 should not be erroneously determined. In this case, the control part 11 is based on whether the judgment of the quality by the 2nd discriminator 6 with respect to a contraindication data set is incorrect, or the number of the pass / fail judgment by the 2nd discriminator 6 with respect to a contraindication data set is incorrect. The determination performance of the second discriminator 6 may be evaluated.

以上により、制御部11は、第1識別器5と同様に、第2識別器6の判定性能を評価することができる。第2識別器6の判定性能の評価が完了すると、制御部11は、次のステップS204に処理を進める。なお、本ステップS204は、必ずしもステップS203の後に実行されなくてもよい。ステップS203及びステップS204の処理を実行するタイミングは実施の形態に応じて適宜決定されてよい。   As described above, similarly to the first discriminator 5, the control unit 11 can evaluate the determination performance of the second discriminator 6. When the evaluation of the determination performance of the second discriminator 6 is completed, the control unit 11 advances the processing to the next step S204. In addition, this step S204 does not necessarily need to be performed after step S203. The timing for executing the processes of step S203 and step S204 may be appropriately determined according to the embodiment.

(ステップS204)
ステップS204では、制御部11は、ステップS202及びS203における第1識別器5及び第2識別器6に対する判定性能の評価の結果に基づいて、第2識別器6の判定性能が第1識別器5と比べて悪化しているか否か、換言すると、第2識別器6の判定性能が第1識別器5の判定性能よりも低いか否かを判定する。
(Step S204)
In step S204, the control unit 11 determines that the determination performance of the second identifier 6 is the first identifier 5 based on the evaluation performance evaluation results for the first identifier 5 and the second identifier 6 in steps S202 and S203. In other words, it is determined whether the determination performance of the second discriminator 6 is lower than the determination performance of the first discriminator 5.

第2識別器6の判定性能が第1識別器5と比べて悪化しているか否かを判定する方法は、第1識別器5及び第2識別器6の判定性能の評価方法に応じて適宜決定されてよい。判定性能の評価結果として正答率が算出されている場合、制御部11は、第1識別器5の正答率と第2識別器6の正答率とを比較する。そして、第2識別器6の正答率が第1識別器5の正答率よりも低い場合に、制御部11は、第2識別器6の判定性能が第1識別器5と比べて悪化していると判定してもよい。一方、第2識別器6の正答率が第1識別器5の正答率よりも低くはない場合、制御部11は、第2識別器6の判定性能が第1識別器5と比べて悪化していないと判定してもよい。   The method for determining whether the determination performance of the second discriminator 6 is worse than that of the first discriminator 5 is appropriately determined according to the evaluation method of the determination performance of the first discriminator 5 and the second discriminator 6. May be determined. When the correct answer rate is calculated as the evaluation performance evaluation result, the control unit 11 compares the correct answer rate of the first discriminator 5 with the correct answer rate of the second discriminator 6. And when the correct answer rate of the 2nd discriminator 6 is lower than the correct answer rate of the 1st discriminator 5, the control part 11 deteriorates the determination performance of the 2nd discriminator 6 compared with the 1st discriminator 5. It may be determined that On the other hand, when the correct answer rate of the second discriminator 6 is not lower than the correct answer rate of the first discriminator 5, the control unit 11 deteriorates the determination performance of the second discriminator 6 compared to the first discriminator 5. It may be determined that it is not.

重みを含む正答率についても同様である。すなわち、制御部11は、第1識別器5の重みを含む正答率と第2識別器6の重みを含む正答率とを比較する。そして、第2識別器6の重みを含む正答率が第1識別器5の重みを含む正答率よりも低い場合に、制御部11は、第2識別器6の判定性能が第1識別器5と比べて悪化していると判定してもよい。一方、第2識別器6の重みを含む正答率が第1識別器5の重みを含む正答率よりも低くはない場合、制御部11は、第2識別器6の判定性能が第1識別器5と比べて悪化していないと判定してもよい。   The same applies to the correct answer rate including the weight. That is, the control unit 11 compares the correct answer rate including the weight of the first discriminator 5 with the correct answer rate including the weight of the second discriminator 6. When the correct answer rate including the weight of the second discriminator 6 is lower than the correct answer rate including the weight of the first discriminator 5, the control unit 11 determines that the determination performance of the second discriminator 6 is the first discriminator 5. It may be determined that the condition is worse than On the other hand, when the correct answer rate including the weight of the second discriminator 6 is not lower than the correct answer rate including the weight of the first discriminator 5, the controller 11 determines that the determination performance of the second discriminator 6 is the first discriminator. You may determine that it has not deteriorated compared with 5.

複数件の評価用データセット121が禁忌データセットを含む場合、制御部11は、禁忌データセットに対する判定の正誤に応じて、第2識別器6の判定性能が第1識別器5と比べて悪化しているか否かを判定してもよい。例えば、第1識別器5から得られる出力値に基づいて禁忌データセットの評価用画像データ122に写る製品の良否を判定した結果が正解データ123により示される正解と一致しているのに対して、第2識別器6から得られる出力値に基づいて禁忌データセットの評価用画像データ122に写る製品の良否を判定した結果が正解データ123により示される正解と一致していない場合、制御部11は、第2識別器6の判定性能が第1識別器5と比べて悪化していると判定してもよい。すなわち、対象の禁忌データセットについて、第1識別器5では良否の判定を正しく行えるのに対して、第2識別器6では良否の判定を誤ってしまう場合に、制御部11は、第2識別器6の判定性能が第1識別器5と比べて悪化していると判定してもよい。一方、そうではない場合、制御部11は、第2識別器6の判定性能が第1識別器5と比べて悪化していないと判定してもよいし、上記その他の指標に基づいて、第2識別器6の判定性能が第1識別器5と比べて悪化しているか否かを判定してもよい。なお、このように禁忌データセットに対する良否の判定を重視して、各識別器(5、6)の判定性能を評価する場合、上記ステップS202及びS203では、禁忌データセット以外の評価用データセット121に対する各識別器(5、6)による良否の判定は省略されてもよい。これにより、ステップS202〜S204の処理の演算コストを低減することができ、制御部11(CPU)の処理負荷を低減することができる。   When the plurality of evaluation data sets 121 include contraindication data sets, the controller 11 determines that the determination performance of the second discriminator 6 is worse than that of the first discriminator 5 in accordance with correctness / incorrectness of the determination for the contraindication data set. It may be determined whether or not. For example, the result of determining the quality of the product shown in the evaluation image data 122 of the contraindication data set based on the output value obtained from the first discriminator 5 matches the correct answer indicated by the correct answer data 123. When the result of determining the quality of the product shown in the evaluation image data 122 of the contraindication data set based on the output value obtained from the second discriminator 6 does not match the correct answer indicated by the correct answer data 123, the control unit 11 May determine that the determination performance of the second discriminator 6 is worse than that of the first discriminator 5. That is, when the first discriminator 5 can correctly determine pass / fail for the contraindicated data set of the object, the second discriminator 6 erroneously makes the pass / fail determination. It may be determined that the determination performance of the device 6 is worse than that of the first discriminator 5. On the other hand, if this is not the case, the control unit 11 may determine that the determination performance of the second discriminator 6 has not deteriorated compared to the first discriminator 5, and based on the above other indicators, It may be determined whether or not the determination performance of the two classifier 6 is worse than that of the first classifier 5. When the determination performance of each discriminator (5, 6) is evaluated in this way with an emphasis on pass / fail determination for the contraindicated data set, in steps S202 and S203, the evaluation data set 121 other than the contraindicated data set 121 is used. The pass / fail judgment by each discriminator (5, 6) may be omitted. Thereby, the calculation cost of the process of step S202-S204 can be reduced, and the processing load of the control part 11 (CPU) can be reduced.

以上により、制御部11は、第2識別器6の判定性能が第1識別器5と比べて悪化しているか否かを判定することができる。当該判定が完了すると、制御部11は、次のステップS205に処理を進める。   As described above, the control unit 11 can determine whether or not the determination performance of the second discriminator 6 is worse than that of the first discriminator 5. When the determination is completed, the control unit 11 advances the processing to the next step S205.

(ステップS205)
ステップS205では、制御部11は、ステップS204により第2識別器6の判定性能が第1識別器5と比べて悪化しているか否かを判定した結果を出力する。
(Step S205)
In step S205, the control unit 11 outputs a result of determining whether or not the determination performance of the second discriminator 6 is worse than that of the first discriminator 5 in step S204.

判定した結果の出力形式は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、第2識別器6の判定性能が第1識別器5と比べて悪化しているか否かを判定した結果をそのまま出力装置15に出力してもよい。この場合、第2識別器6の判定性能が第1識別器5と比べて悪化しているときには、制御部11は、検査装置3の利用者に対して第2識別器6を利用しないことを促す警告を出力装置15から出力してもよい。   The output format of the determined result is not particularly limited and may be appropriately selected according to the embodiment. For example, the control unit 11 may output the result of determining whether or not the determination performance of the second discriminator 6 is worse than that of the first discriminator 5 to the output device 15 as it is. In this case, when the determination performance of the second discriminator 6 is worse than that of the first discriminator 5, the control unit 11 does not use the second discriminator 6 for the user of the inspection device 3. A warning to prompt may be output from the output device 15.

また、例えば、制御部11は、判定した結果に応じて所定の情報処理を実行してもよい。本実施形態に係る検査システム100が、第2識別器6(第2学習結果データ229)が学習装置2から検査装置3に配信されるように構成されている第1のケースを想定する。この第1のケースにおいて、第2識別器6の判定性能が第1識別器5と比べて悪化していると判定した場合、制御部11は、検査装置3への第2識別器6の配信を禁止する指令を本ステップS205の出力処理として学習装置2に送信してもよい。一方で、第2識別器6の判定性能が第1識別器5と比べて悪化していないと判定した場合、制御部11は、検査装置3への第2識別器6の配信を許可する指令を本ステップS205の出力処理として学習装置2に送信してもよい。あるいは、制御部11は、第2識別器6の判定性能が第1識別器5と比べて悪化しているか否かを判定した結果を学習装置2に配信して、第2識別器6を検査装置3に配信するか否かを学習装置2に判定させてもよい。これにより、判定性能の悪化した第2識別器6が検査装置3に配信されないようにし、その判定性能の悪化した第2識別器6が検査装置3において利用されるのを防止することができる。   For example, the control unit 11 may execute predetermined information processing according to the determined result. Assume a first case in which the inspection system 100 according to the present embodiment is configured such that the second discriminator 6 (second learning result data 229) is distributed from the learning device 2 to the inspection device 3. In this first case, when it is determined that the determination performance of the second discriminator 6 is worse than that of the first discriminator 5, the control unit 11 distributes the second discriminator 6 to the inspection device 3. May be transmitted to the learning device 2 as the output process of step S205. On the other hand, if it is determined that the determination performance of the second discriminator 6 has not deteriorated compared to the first discriminator 5, the control unit 11 instructs the delivery of the second discriminator 6 to the inspection device 3. May be transmitted to the learning device 2 as the output process of step S205. Alternatively, the control unit 11 distributes the result of determining whether the determination performance of the second discriminator 6 is worse than that of the first discriminator 5 to the learning device 2 and inspects the second discriminator 6. The learning device 2 may determine whether or not to distribute to the device 3. Thereby, it is possible to prevent the second discriminator 6 having a deteriorated determination performance from being distributed to the inspection device 3 and to prevent the second discriminator 6 having the deteriorated determination performance from being used in the inspection device 3.

また、本実施形態に係る検査システム100が、第2識別器6(第2学習結果データ229)を検査装置3が既に保持している第2のケースを想定する。この第2のケースにおいて、第2識別器6の判定性能が第1識別器5と比べて悪化していると判定した場合、制御部11は、第2識別器6の利用を禁止する指令を本ステップS205の出力処理として検査装置3に送信してもよい。一方で、第2識別器6の判定性能が第1識別器5と比べて悪化していないと判定した場合、制御部11は、第2識別器6の利用を許可する指令を本ステップS205の出力処理として検査装置3に送信してもよい。あるいは、制御部11は、第2識別器6の判定性能が第1識別器5と比べて悪化しているか否かを判定した結果を検査装置3に配信して、第2識別器6を利用するか否かを検査装置3に判定されてもよい。これにより、判定性能の悪化した第2識別器6が検査装置3において利用されるのを防止することができる。   Moreover, the inspection system 100 according to the present embodiment assumes a second case in which the inspection device 3 already holds the second discriminator 6 (second learning result data 229). In this second case, when it is determined that the determination performance of the second discriminator 6 is worse than that of the first discriminator 5, the control unit 11 issues a command for prohibiting the use of the second discriminator 6. You may transmit to the test | inspection apparatus 3 as an output process of this step S205. On the other hand, when it determines with the determination performance of the 2nd discriminator 6 not having deteriorated compared with the 1st discriminator 5, the control part 11 gives the instruction | indication which permits utilization of the 2nd discriminator 6 of this step S205. You may transmit to the test | inspection apparatus 3 as an output process. Alternatively, the control unit 11 distributes the result of determining whether the determination performance of the second discriminator 6 is worse than that of the first discriminator 5 to the inspection device 3 and uses the second discriminator 6. The inspection apparatus 3 may determine whether or not to do so. Thereby, it can prevent that the 2nd discriminator 6 with which the determination performance deteriorated is utilized in the test | inspection apparatus 3. FIG.

また、本実施形態に係る検査システム100が、第2識別器6(第2学習結果データ229)が、学習装置2から識別器評価装置1を介して検査装置3に配信される第3のケースを想定する。この第3のケースにおいて、第2識別器6の判定性能が第1識別器5と比べて悪化していると判定した場合、制御部11は、本ステップS205の出力処理として、学習装置2から受信した第2識別器6の検査装置3への転送を禁止し、第1識別器5を利用する指令を検査装置3に送信してもよい。一方で、第2識別器6の判定性能が第1識別器5と比べて悪化していないと判定した場合、制御部11は、本ステップS205の出力処理として、学習装置2から受信した第2識別器6を検査装置3に転送してもよい。   In the third case, the inspection system 100 according to the present embodiment distributes the second classifier 6 (second learning result data 229) from the learning device 2 to the inspection device 3 via the classifier evaluation device 1. Is assumed. In this third case, when it is determined that the determination performance of the second discriminator 6 is worse than that of the first discriminator 5, the control unit 11 performs the output process of step S205 from the learning device 2. Transfer of the received second discriminator 6 to the inspection device 3 may be prohibited, and a command to use the first discriminator 5 may be transmitted to the inspection device 3. On the other hand, when it determines with the determination performance of the 2nd discriminator 6 not having deteriorated compared with the 1st discriminator 5, the control part 11 is the 2nd received from the learning apparatus 2 as an output process of this step S205. The identifier 6 may be transferred to the inspection device 3.

以上により、判定した結果の出力が完了すると、制御部11は、本動作例に係る処理を終了する。なお、制御部11は、学習装置2において第2識別器6が構築される度に、上記ステップS201〜S205の一連の処理を実行してもよい。これにより、学習装置2において構築された第2識別器6の判定性能を継続的に監視することができる。   As described above, when the output of the determined result is completed, the control unit 11 ends the process according to this operation example. Note that the control unit 11 may execute a series of steps S201 to S205 each time the second discriminator 6 is constructed in the learning device 2. Thereby, the determination performance of the 2nd discriminator 6 constructed | assembled in the learning apparatus 2 can be continuously monitored.

[検査装置]
次に、図10を用いて、検査装置3の動作例について説明する。図10は、検査装置3の処理手順の一例を例示するフローチャートである。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
[Inspection equipment]
Next, an operation example of the inspection apparatus 3 will be described with reference to FIG. FIG. 10 is a flowchart illustrating an example of a processing procedure of the inspection apparatus 3. However, the processing procedure described below is merely an example, and each processing may be changed as much as possible. Further, in the processing procedure described below, steps can be omitted, replaced, and added as appropriate according to the embodiment.

(ステップS301)
ステップS301では、制御部31は、対象データ取得部311として動作し、検査の対象となる製品Rの写る対象画像データ321を取得する。本実施形態では、検査装置3は、外部インタフェース34を介してカメラ41に接続されている。そのため、制御部31は、カメラ41から対象画像データ321を取得する。この対象画像データ321は、動画像データであってもよいし、静止画像データであってもよい。対象画像データ321を取得すると、制御部31は、次のステップS302に処理を進める。
(Step S301)
In step S301, the control unit 31 operates as the target data acquisition unit 311 and acquires target image data 321 in which the product R to be inspected is captured. In the present embodiment, the inspection apparatus 3 is connected to the camera 41 via the external interface 34. Therefore, the control unit 31 acquires target image data 321 from the camera 41. The target image data 321 may be moving image data or still image data. When the target image data 321 is acquired, the control unit 31 advances the processing to the next step S302.

ただし、対象画像データ321を取得する経路は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、検査装置3とは異なる他の情報処理装置が、カメラ41に接続されていてもよい。この場合、制御部31は、他の情報処理装置から対象画像データ321の送信を受け付けることで、対象画像データ321を取得してもよい。   However, the path for acquiring the target image data 321 is not limited to such an example, and may be appropriately selected according to the embodiment. For example, another information processing apparatus different from the inspection apparatus 3 may be connected to the camera 41. In this case, the control unit 31 may acquire the target image data 321 by receiving transmission of the target image data 321 from another information processing apparatus.

(ステップS302)
ステップS302では、制御部31は、良否判定部312として動作し、第1識別器5又は第2識別器6を利用して、対象画像データ321に写る製品Rの良否を判定する。良否の判定に利用する識別器は、上記ステップS204における性能の評価結果に基づいて決定される。
(Step S302)
In step S <b> 302, the control unit 31 operates as the quality determination unit 312, and determines the quality of the product R reflected in the target image data 321 using the first discriminator 5 or the second discriminator 6. The discriminator used for pass / fail judgment is determined based on the performance evaluation result in step S204.

すなわち、制御部31は、第2識別器6の判定性能が第1識別器5と比べて悪化していると判定されている場合には、第1識別器5を利用して、対象画像データ321に写る製品Rの良否を判定する。具体的には、上記ステップS205の出力処理の結果、検査装置3には、第2識別器6は配信されておらず、第1識別器5のみが保持されている。あるいは、上記ステップS205の出力処理、又は識別器評価装置1にアクセスすることにより、制御部31は、製品Rの良否を判定するのに利用する識別器を第1識別器5であると特定する。次に、制御部31は、第1学習結果データ224を参照して、学習済みの第1識別器5の設定を行う。続いて、制御部31は、取得した対象画像データ321を第1識別器5に入力して、第1識別器5の演算処理を実行することで、第1識別器5から出力値を取得する。第1識別器5の演算処理は、上記ステップS202及びS203と同様に実行されてよい。   That is, when it is determined that the determination performance of the second classifier 6 is worse than that of the first classifier 5, the control unit 31 uses the first classifier 5 to perform target image data. The quality of the product R shown in 321 is determined. Specifically, as a result of the output process in step S205, the second discriminator 6 is not distributed to the inspection apparatus 3, and only the first discriminator 5 is held. Alternatively, the control unit 31 specifies that the discriminator used to determine the quality of the product R is the first discriminator 5 by accessing the output processing in step S205 or the discriminator evaluation apparatus 1. . Next, the control unit 31 sets the learned first discriminator 5 with reference to the first learning result data 224. Subsequently, the control unit 31 acquires the output value from the first discriminator 5 by inputting the acquired target image data 321 to the first discriminator 5 and executing the arithmetic processing of the first discriminator 5. . The calculation process of the first discriminator 5 may be executed in the same manner as in steps S202 and S203.

そして、制御部31は、第1識別器5から取得した出力値に基づいて、対象画像データ321に写る製品Rの良否を判定する。良否の判定は、上記ステップS202及びS203と同様に実行されてよい。すなわち、第1識別器5から得られる出力値が製品の良否そのもの又はその確率を示す場合、制御部31は、第1識別器5から得られた出力値を閾値と比較することで、対象画像データ321に写る製品Rの良否を判定することができる。また、第1識別器5から得られる出力値が製品の良否のインデックスを示す場合、検査装置3は、第1識別器5から得られる出力値と製品の良否又は欠陥の種別とを対応付けたテーブル形式等の参照情報(不図示)を記憶部32に保持していてもよい。この場合、制御部31は、この参照情報を参照することにより、第1識別器5から得られた出力値に応じて、対象画像データ321に写る製品Rの良否を判定することができる。   Then, the control unit 31 determines the quality of the product R shown in the target image data 321 based on the output value acquired from the first discriminator 5. The quality determination may be performed in the same manner as in steps S202 and S203. That is, when the output value obtained from the first discriminator 5 indicates the quality of the product itself or its probability, the control unit 31 compares the output value obtained from the first discriminator 5 with the threshold value, thereby obtaining the target image. The quality of the product R shown in the data 321 can be determined. When the output value obtained from the first discriminator 5 indicates an index of product quality, the inspection device 3 associates the output value obtained from the first discriminator 5 with the quality of the product or the type of defect. Reference information (not shown) such as a table format may be held in the storage unit 32. In this case, the control unit 31 can determine the quality of the product R shown in the target image data 321 according to the output value obtained from the first discriminator 5 by referring to the reference information.

一方で、制御部31は、第2識別器6の判定性能が第1識別器5と比べて悪化していないと判定されている場合には、第2識別器6を利用して、対象画像データ321に写る製品Rの良否を判定する。具体的には、上記ステップS205の出力処理の結果、検査装置3には、第2識別器6が配信されている。あるいは、上記ステップS205の出力処理、又は識別器評価装置1にアクセスすることにより、制御部31は、製品Rの良否を判定するのに利用する識別器を第2識別器6であると特定する。次に、制御部31は、第2学習結果データ229を参照して、学習済みの第2識別器6の演算処理を実行することで、第2識別器6から出力値を取得する。そして、制御部31は、第2識別器6から取得した出力値に基づいて、対象画像データ321に写る製品Rの良否を判定する。第2識別器6の演算処理及び良否の判定は、上記ステップS202及びS203と同様に実行されてよい。   On the other hand, when it is determined that the determination performance of the second discriminator 6 has not deteriorated compared to the first discriminator 5, the control unit 31 uses the second discriminator 6 to perform the target image. The quality of the product R shown in the data 321 is determined. Specifically, as a result of the output process in step S205, the second discriminator 6 is distributed to the inspection device 3. Alternatively, the control unit 31 specifies that the discriminator used to determine the quality of the product R is the second discriminator 6 by accessing the output process of step S205 or the discriminator evaluation apparatus 1. . Next, the control unit 31 acquires the output value from the second discriminator 6 by executing the arithmetic processing of the learned second discriminator 6 with reference to the second learning result data 229. Then, the control unit 31 determines the quality of the product R shown in the target image data 321 based on the output value acquired from the second discriminator 6. The calculation process and pass / fail determination of the second discriminator 6 may be executed in the same manner as steps S202 and S203.

以上により、制御部31は、ステップS204の評価の結果に基づいて、第1識別器5又は第2識別器6を利用して、対象画像データ321に写る製品Rの良否を判定することができる。製品Rの良否の判定が完了すると、制御部31は、次のステップS303に処理を進める。   As described above, the control unit 31 can determine the quality of the product R shown in the target image data 321 using the first discriminator 5 or the second discriminator 6 based on the result of the evaluation in step S204. . When the determination of the quality of the product R is completed, the control unit 31 advances the processing to the next step S303.

なお、利用する識別器を特定する方法は、上記の例に限定されなくてもよい。例えば、上記ステップS204の評価の結果に基づいて、検査装置3に組み込まれる学習結果データが選択されてもよい。具体的には、第2識別器6の判定性能が第1識別器5と比べて悪化していると判定されている場合には、第1学習結果データ224が検査装置3に予め組み込まれてもよい。他方、第2識別器6の判定性能が第1識別器5と比べて悪化していないと判定されている場合には、第2学習結果データ229が検査装置3に予め組み込まれてもよい。これにより、本ステップS302では、制御部31は、予め組み込まれている学習結果データを参照することで、ステップS204の評価の結果に応じた識別器を利用することができる。   Note that the method of specifying the classifier to be used may not be limited to the above example. For example, learning result data incorporated in the inspection apparatus 3 may be selected based on the result of the evaluation in step S204. Specifically, when it is determined that the determination performance of the second discriminator 6 is worse than that of the first discriminator 5, the first learning result data 224 is incorporated in the inspection apparatus 3 in advance. Also good. On the other hand, when it is determined that the determination performance of the second discriminator 6 has not deteriorated compared to the first discriminator 5, the second learning result data 229 may be incorporated in the inspection device 3 in advance. Thereby, in this step S302, the control part 31 can utilize the discriminator according to the result of evaluation of step S204 by referring to the learning result data incorporated beforehand.

(ステップS303)
ステップS303では、制御部31は、出力部313として動作し、ステップS302により製品Rの良否を判定した結果を出力する。
(Step S303)
In step S303, the control unit 31 operates as the output unit 313, and outputs the result of determining whether the product R is good or bad in step S302.

製品Rの良否を判定した結果の出力形式は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、制御部31は、製品Rの良否を判定した結果をそのまま出力装置36に出力してもよい。また、ステップS302において、製品Rに欠陥があると判定した場合、制御部31は、欠陥を発見したことを知らせるための警告を本ステップS303の出力処理として行ってもよい。また、製品の搬送を行う製造ラインに検査装置3が接続されている場合、製品Rに欠陥があると判定したときに、制御部31は、欠陥のある製品Rを欠陥のない製品とは異なる経路で搬送する指令を製造ラインに送信する処理を本ステップS303の出力処理として行ってもよい。   The output format of the result of determining the quality of the product R is not particularly limited, and may be appropriately selected according to the embodiment. For example, the control unit 31 may output the determination result of the product R to the output device 36 as it is. If it is determined in step S302 that the product R has a defect, the control unit 31 may perform a warning for notifying that a defect has been found as the output process in step S303. In addition, when the inspection apparatus 3 is connected to a production line that transports a product, when it is determined that the product R is defective, the control unit 31 determines that the defective product R is different from a product that does not have a defect. A process of transmitting a command to be transported along the route to the production line may be performed as the output process of step S303.

製品Rの良否を判定した結果の出力処理が完了すると、制御部31は、本動作例に係る処理を終了する。なお、制御部31は、製造ライン上を搬送される製品Rがカメラ41の撮影範囲に入る度に、ステップS301〜S303の一連の処理を実行してもよい。これにより、検査装置3は、製造ライン上を搬送される製品Rの外観検査を行うことができる。   When the output process as a result of determining the quality of the product R is completed, the control unit 31 ends the process according to this operation example. Note that the control unit 31 may execute a series of processes in steps S301 to S303 each time the product R conveyed on the production line enters the imaging range of the camera 41. Thereby, the inspection apparatus 3 can perform the appearance inspection of the product R conveyed on the production line.

[特徴]
以上のとおり、本実施形態に係る学習装置2は、ステップS101〜S103の一連の処理により、第1学習データ221を利用した機械学習を実行することで、第1識別器5を構築する。これに対して、学習装置2は、第1学習データ221及び追加の画像データ227により構成される第2学習データ226を利用した機械学習を実行することで、第2識別器6を構築する。この第2識別器6の構築の過程で、第1学習データ221には含まれていない未知のケースを追加の画像データ227として用意することで、学習装置2は、第1識別器5では製品Rの良否の判定が不能なケースに対して対応可能な第2識別器6を構築することができる。これにより、検査装置3では、第1識別器5では良否の判定が不能なケースについて、第2識別器6を利用することで、製品Rの良否を判定することができるようになる。
[Characteristic]
As described above, the learning device 2 according to the present embodiment constructs the first discriminator 5 by executing machine learning using the first learning data 221 through a series of processes in steps S101 to S103. On the other hand, the learning device 2 constructs the second discriminator 6 by executing machine learning using the second learning data 226 including the first learning data 221 and the additional image data 227. In the process of constructing the second discriminator 6, an unknown case that is not included in the first learning data 221 is prepared as additional image data 227, so that the learning device 2 is a product in the first discriminator 5. The second discriminator 6 that can cope with a case where it is impossible to determine whether the R is good or bad can be constructed. As a result, the inspection device 3 can determine the quality of the product R by using the second classifier 6 for cases where the first classifier 5 cannot determine the quality.

加えて、本実施形態に係る識別器評価装置1は、ステップS202〜S204の処理によって、複数件の評価用データセット121を利用して、第2識別器6の判定性能が第1識別器5と比べて悪化したか否かを監視する。これにより、再学習又は追加学習により構築された第2識別器6の性能が第1識別器5と比べて悪化してしまった場合に、性能の悪化した第2識別器6が検査装置3において利用されないようにすることができる。したがって、本実施形態によれば、製品Rの良否の判定の信頼性が損なわれてしまうのを防止することができる。   In addition, the discriminator evaluation apparatus 1 according to the present embodiment uses the plurality of evaluation data sets 121 by the processing of steps S202 to S204, and the determination performance of the second discriminator 6 is the first discriminator 5. Monitor whether or not it has deteriorated. Thereby, when the performance of the second discriminator 6 constructed by re-learning or additional learning has deteriorated compared to the first discriminator 5, the second discriminator 6 having deteriorated performance is used in the inspection apparatus 3. It can be prevented from being used. Therefore, according to the present embodiment, it is possible to prevent the reliability of the quality determination of the product R from being impaired.

§4 変形例
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
§4 Modifications Embodiments of the present invention have been described in detail above, but the above description is merely an illustration of the present invention in all respects. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention. For example, the following changes are possible. In the following, the same reference numerals are used for the same components as in the above embodiment, and the description of the same points as in the above embodiment is omitted as appropriate. The following modifications can be combined as appropriate.

<4.1>
上記実施形態では、各識別器(5、6)は、多層構造の全結合ニューラルネットワークにより構成されている。しかしながら、各識別器(5、6)の構成は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、各識別器(5、6)は、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク等により構成されてよい。
<4.1>
In the above embodiment, each discriminator (5, 6) is configured by a fully connected neural network having a multilayer structure. However, the configuration of each discriminator (5, 6) may not be limited to such an example, and may be appropriately selected according to the embodiment. For example, each discriminator (5, 6) may be configured by a convolutional neural network, a recursive neural network, or the like.

<4.2>
上記実施形態では、各識別器(5、6)の学習モデルとして、ニューラルネットワークを採用している。しかしながら、各識別器(5、6)の学習モデルは、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。各識別器(5、6)の学習モデルとして、例えば、サポートベクタマシン、自己組織化マップ、強化学習により機械学習を行う学習モデル等が採用されてよい。なお、機械学習として教師あり学習を採用しない場合には、各学習データ(221、226)において、各正解データ(223、228)は省略されてもよい。
<4.2>
In the above embodiment, a neural network is adopted as a learning model for each classifier (5, 6). However, the learning model of each discriminator (5, 6) may not be limited to such an example, and may be appropriately selected according to the embodiment. As a learning model of each discriminator (5, 6), for example, a support vector machine, a self-organizing map, a learning model that performs machine learning by reinforcement learning, or the like may be employed. When supervised learning is not adopted as machine learning, each correct answer data (223, 228) may be omitted in each learning data (221, 226).

<4.3>
上記実施形態では、各学習結果データ(224、229)は、ニューラルネットワークの構成を示す情報を含んでいる。しかしながら、各学習結果データ(224、229)の構成は、このような例に限定されなくてもよく、学習済みの各識別器(5、6)の設定に利用可能であれば、実施の形態に応じて適宜決定されてよい。例えば、利用するニューラルネットワークの構成が各装置で共通化されている場合には、各学習結果データ(224、229)は、ニューラルネットワークの構成を示す情報を含んでいなくてもよい。
<4.3>
In the above embodiment, each learning result data (224, 229) includes information indicating the configuration of the neural network. However, the configuration of each learning result data (224, 229) does not have to be limited to such an example. If the learning result data (224, 229) can be used to set each learned classifier (5, 6), the embodiment It may be determined appropriately according to For example, when the configuration of the neural network to be used is shared by each device, each learning result data (224, 229) may not include information indicating the configuration of the neural network.

<4.4>
上記実施形態では、製品Rの外観検査を行う場面に本発明を適用した例を示している。しかしながら、本発明の適用範囲は、このような外観検査の場面に限られなくてもよい。本発明は、画像データから何らかの特徴、すなわち、被写体の状態を判定する場面に広く適用可能である。
<4.4>
In the said embodiment, the example which applied this invention to the scene which performs the external appearance inspection of the product R is shown. However, the application range of the present invention does not have to be limited to such appearance inspection scenes. The present invention can be widely applied to scenes in which some characteristic, that is, the state of a subject is determined from image data.

[構成例]
図11〜図13を用いて、被写体の状態を判定する場面に本発明を適用した変形例について説明する。図11は、本変形例に係る識別器評価装置1Aのソフトウェア構成の一例を模式的に例示する。図12及び図13は、本変形例に係る識別装置3Aのハードウェア構成及びソフトウェア構成の一例を模式的に例示する。本変形例に係る識別システムは、識別器評価装置1A、上記学習装置2、及び識別装置3Aにより構成される。処理対象となるデータが、製品の写る画像データから何らかの被写体の写る画像データに置き換わる点を除き、本変形例に係る識別システムは、上記検査システム100と同様に構成されてよい。
[Configuration example]
A modification in which the present invention is applied to a scene where the state of a subject is determined will be described with reference to FIGS. FIG. 11 schematically illustrates an example of the software configuration of the discriminator evaluation apparatus 1A according to this modification. 12 and 13 schematically illustrate an example of the hardware configuration and software configuration of the identification device 3A according to the present modification. The identification system according to this modification is configured by a classifier evaluation device 1A, the learning device 2, and the identification device 3A. The identification system according to this modification may be configured in the same manner as the inspection system 100, except that the data to be processed is replaced with image data showing a subject from image data showing a product.

<識別器評価装置>
具体的に、本変形例に係る識別器評価装置1Aは、上記識別器評価装置1と同様のハードウェア構成を有する。識別器評価装置1Aの記憶部12は、第1学習結果データ224A、第2学習結果データ229A等の各種情報を記憶する。第1学習結果データ224Aは、学習済みの第1識別器5Aの設定を行うためのデータである。第2学習結果データ229Aは、学習済みの第2識別器6Aの設定を行うためのデータである。
<Identifier evaluation device>
Specifically, the discriminator evaluation device 1 </ b> A according to this modification has the same hardware configuration as that of the discriminator evaluation device 1. The storage unit 12 of the classifier evaluation apparatus 1A stores various information such as the first learning result data 224A and the second learning result data 229A. The first learning result data 224A is data for setting the learned first discriminator 5A. The second learning result data 229A is data for setting the learned second discriminator 6A.

第1識別器5Aは、被写体の状態を識別する学習を行うための画像データで構成された第1学習データを利用した機械学習により構築される。第2識別器6Aは、被写体の状態を識別する学習を行うための追加の画像データ及び第1学習データで構成された第2学習データを利用した機械学習により構築される。各識別器(5A、6A)の学習モデルは、上記実施形態と同様に、ニューラルネットワークにより構成されている。各識別器(5A、6A)の機械学習は、上記実施形態と同様に実行されてよい。   The first classifier 5A is constructed by machine learning using first learning data composed of image data for performing learning for identifying the state of the subject. The second discriminator 6A is constructed by machine learning using second image data composed of additional image data and first learning data for performing learning for identifying the state of the subject. The learning model of each discriminator (5A, 6A) is configured by a neural network as in the above embodiment. Machine learning of each discriminator (5A, 6A) may be performed in the same manner as in the above embodiment.

本変形例において、被写体、及び識別の対象となる被写体の状態はそれぞれ、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。被写体は、例えば、対象者の顔、対象者の身体、作業対象のワーク等であってもよい。また、被写体が対象者の顔である場合、識別の対象となる状態は、例えば、表情の種別、顔のパーツの状態、その顔を所有する個人等であってもよい。顔を所有する個人の識別は、顔認証を実施するために行われてよい。被写体が対象者の身体である場合には、識別の対象となる状態は、例えば、身体のポーズ等であってもよい。被写体が作業対象のワークである場合、識別の対象となる状態は、例えば、ワークの位置、姿勢等であってもよい。   In this modification, the state of the subject and the subject to be identified need not be particularly limited, and may be appropriately selected according to the embodiment. The subject may be, for example, the subject's face, the subject's body, the work target work, or the like. Further, when the subject is the face of the subject, the state to be identified may be, for example, the type of facial expression, the state of the facial parts, the individual who owns the face, and the like. Identification of the person who owns the face may be performed to perform face authentication. When the subject is the subject's body, the state to be identified may be, for example, a body pose. When the subject is a work target work, the state to be identified may be, for example, the position and posture of the work.

図11に示されるとおり、識別器評価装置1Aは、上記識別器評価装置1と同様に、評価データ取得部111、第1評価部112、第2評価部113、性能判定部114、及び出力部115をソフトウェアモジュールとして備えるコンピュータとして動作する。   As shown in FIG. 11, the discriminator evaluation device 1 </ b> A is similar to the discriminator evaluation device 1 in that the evaluation data acquisition unit 111, the first evaluation unit 112, the second evaluation unit 113, the performance determination unit 114, and the output unit It operates as a computer having 115 as a software module.

評価データ取得部111は、評価用画像データ122A、及び評価用画像データ122Aに写る被写体の状態の識別に対する正解を示す正解データ123Aの組み合わせによりそれぞれ構成される複数件の評価用データセット121Aを取得する。正解データ123Aの内容は、上記正解データ123と同様に設定されてよい。   The evaluation data acquisition unit 111 acquires a plurality of evaluation data sets 121A each configured by a combination of the evaluation image data 122A and the correct answer data 123A indicating the correct answer to the identification of the state of the subject in the evaluation image data 122A. To do. The content of the correct answer data 123 </ b> A may be set in the same manner as the correct answer data 123.

第1評価部112は、各件の評価用データセット121Aについて、第1識別器5Aに評価用画像データ122Aを入力し、第1識別器5Aから得られる出力値に基づいて評価用画像データ122Aに写る被写体の状態を判定した結果と正解データ123Aの示す正解とを照合する。これにより、第1評価部112は、第1識別器5Aの判定性能を評価する。   For each evaluation data set 121A, the first evaluation unit 112 inputs the evaluation image data 122A to the first discriminator 5A, and the evaluation image data 122A based on the output value obtained from the first discriminator 5A. The result of the determination of the state of the subject shown in FIG. 5 is collated with the correct answer indicated by the correct answer data 123A. Thereby, the 1st evaluation part 112 evaluates the determination performance of 5 A of 1st discriminators.

第2評価部113は、各件の評価用データセット121Aについて、第2識別器6Aに評価用画像データ122Aを入力し、第2識別器6Aから得られる出力値に基づいて評価用画像データ122Aに写る被写体の状態を判定した結果と正解データ123Aの示す正解とを照合する。これにより、第2評価部113は、第2識別器6Aの判定性能を評価する。   For each evaluation data set 121A, the second evaluation unit 113 inputs the evaluation image data 122A to the second discriminator 6A, and the evaluation image data 122A based on the output value obtained from the second discriminator 6A. The result of the determination of the state of the subject shown in FIG. 5 is collated with the correct answer indicated by the correct answer data 123A. Thereby, the second evaluation unit 113 evaluates the determination performance of the second discriminator 6A.

性能判定部114は、第1識別器5A及び第2識別器6Aに対する評価の結果に基づいて、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化しているか否かを判定する。出力部115は、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化しているか否かを判定した結果を出力する。   The performance determination unit 114 determines whether or not the determination performance of the second discriminator 6A is worse than that of the first discriminator 5A based on the evaluation results for the first discriminator 5A and the second discriminator 6A. To do. The output unit 115 outputs a result of determining whether the determination performance of the second discriminator 6A is worse than that of the first discriminator 5A.

<識別装置>
図12に示されるとおり、識別装置3Aは、上記検査装置3と同様のハードウェア構成を有する。識別装置3Aの記憶部32は、識別プログラム83A、第1学習結果データ224A、第2学習結果データ229A等の各種情報を記憶する。識別プログラム83Aは、上記検査装置3と同様の処理手順により、被写体の状態を判定する情報処理を識別装置3Aに実行させるためのプログラムであり、当該情報処理の一連の命令を含む。
<Identification device>
As shown in FIG. 12, the identification device 3 </ b> A has a hardware configuration similar to that of the inspection device 3. The storage unit 32 of the identification device 3A stores various types of information such as an identification program 83A, first learning result data 224A, and second learning result data 229A. The identification program 83A is a program for causing the identification device 3A to perform information processing for determining the state of the subject by the same processing procedure as the inspection device 3, and includes a series of instructions for the information processing.

識別装置3Aは、上記検査装置3と同様に、外部インタフェース34を介してカメラ41に接続されている。カメラ41は、状態を判定する対象となる被写体を撮影可能な場所に適宜配置される。例えば、被写体が対象者の顔又は身体である場合、カメラ41は、被写体となる対象者の存在し得る場所に配置されてよい。また、例えば、被写体が作業対象のワークである場合、カメラ41は、ワークの存在し得る場所に向けて配置されてよい。   The identification device 3 </ b> A is connected to the camera 41 via the external interface 34 in the same manner as the inspection device 3. The camera 41 is appropriately arranged at a place where the subject whose state is to be determined can be taken. For example, when the subject is the subject's face or body, the camera 41 may be disposed at a location where the subject who is the subject may exist. For example, when the subject is a work to be worked, the camera 41 may be arranged toward a place where the work can exist.

また、図13に示されるとおり、識別装置3Aは、制御部31により識別プログラム83Aを実行することで、対象データ取得部311、状態判定部312A、及び出力部313をソフトウェアモジュールとして備えるコンピュータとして動作する。   Further, as shown in FIG. 13, the identification device 3 </ b> A operates as a computer including the target data acquisition unit 311, the state determination unit 312 </ b> A, and the output unit 313 as software modules by executing the identification program 83 </ b> A by the control unit 31. To do.

対象データ取得部311は、状態を識別する対象となる被写体の写る対象画像データ321Aを取得する。状態判定部312Aは、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化していると判定された場合には、第1識別器5Aを利用して対象画像データ321Aに写る被写体の状態を判定する。また、状態判定部312Aは、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化していないと判定された場合には、第2識別器6Aを利用して対象画像データ321Aに写る被写体の状態を判定する。出力部313は、被写体の状態を判定した結果を出力する。   The target data acquisition unit 311 acquires target image data 321A in which a subject to be identified is captured. When it is determined that the determination performance of the second discriminator 6A is worse than that of the first discriminator 5A, the state determination unit 312A uses the first discriminator 5A to capture the target image data 321A. Determine the state of the subject. In addition, when it is determined that the determination performance of the second discriminator 6A has not deteriorated compared to the first discriminator 5A, the state determination unit 312A uses the second discriminator 6A to target image data 321A. The state of the subject appearing in is determined. The output unit 313 outputs the result of determining the state of the subject.

[動作例]
次に、本変形例に係る識別システムの動作例について説明する。本変形例に係る識別システムは、上記検査システム100とほぼ同様の処理手順で動作する。
[Operation example]
Next, an operation example of the identification system according to this modification will be described. The identification system according to the present modification operates according to a processing procedure substantially similar to that of the inspection system 100.

<学習装置>
学習装置2の制御部21は、上記ステップS101〜S103の処理により、被写体の状態を識別する学習を行うための画像データで構成された第1学習データを利用した機械学習を実行することで第1識別器5Aを構築し、構築した第1識別器5Aの構成等を示す情報を第1学習結果データ224Aとして記憶部22に格納する。同様に、学習装置2の制御部21は、上記ステップS101〜S103の処理により、第1学習データ及び被写体の状態を識別する学習を行うための追加の画像データで構成された第2学習データを利用した機械学習を実行することで第2識別器6Aを構築し、構築した第2識別器6Aの構成等を示す情報を第2学習結果データ229Aとして記憶部22に格納する。
<Learning device>
The control unit 21 of the learning device 2 executes the machine learning using the first learning data composed of the image data for performing the learning for identifying the state of the subject by the processes in steps S101 to S103. 1 discriminator 5A is constructed, and information indicating the configuration and the like of the constructed first discriminator 5A is stored in the storage unit 22 as first learning result data 224A. Similarly, the control unit 21 of the learning device 2 obtains the second learning data composed of the first learning data and additional image data for performing learning for identifying the state of the subject by the processing of steps S101 to S103. The second classifier 6A is constructed by executing the used machine learning, and information indicating the configuration and the like of the constructed second classifier 6A is stored in the storage unit 22 as the second learning result data 229A.

<識別器評価装置>
識別器評価装置1Aの制御部11は、ステップS201では、評価データ取得部111として動作し、評価用画像データ122A、及び評価用画像データ122Aに写る被写体の状態の識別に対する正解を示す正解データ123Aの組み合わせによりそれぞれ構成される複数件の評価用データセット121Aを取得する。各件の評価用データセット121Aは、上記評価用データセット121と同様の方法により作成されてよい。
<Identifier evaluation device>
In step S201, the control unit 11 of the discriminator evaluation apparatus 1A operates as the evaluation data acquisition unit 111, and correct data 123A indicating the correct answer for identifying the state of the subject in the evaluation image data 122A and the evaluation image data 122A. A plurality of evaluation data sets 121 </ b> A configured by combinations of the above are acquired. Each evaluation data set 121 </ b> A may be created by the same method as the evaluation data set 121.

ステップS202では、制御部11は、第1評価部112として動作し、第1学習結果データ224Aを参照して、学習済みの第1識別器5Aの設定を行う。続いて、制御部11は、各件の評価用データセット121Aについて、第1識別器5Aに評価用画像データ122Aを入力し、第1識別器5Aの演算処理を実行することで、第1識別器5Aから出力値を取得する。次に、制御部11は、第1識別器5Aから得られる出力値に基づいて評価用画像データ122Aに写る被写体の状態を判定した結果と正解データ123Aの示す正解とを照合する。判定結果と正解との照合は上記実施形態と同様の方法により行われてよい。これにより、制御部11は、第1識別器5Aの判定性能を評価する。   In step S202, the control unit 11 operates as the first evaluation unit 112 and sets the learned first discriminator 5A with reference to the first learning result data 224A. Subsequently, for each evaluation data set 121A, the control unit 11 inputs the evaluation image data 122A to the first discriminator 5A, and executes the arithmetic processing of the first discriminator 5A, thereby performing the first discrimination. An output value is acquired from the device 5A. Next, the control unit 11 collates the result of determining the state of the subject shown in the evaluation image data 122A with the correct answer indicated by the correct answer data 123A based on the output value obtained from the first discriminator 5A. The collation between the determination result and the correct answer may be performed by the same method as in the above embodiment. Thereby, the control part 11 evaluates the determination performance of 5 A of 1st discriminators.

判定性能の評価方法には、上記実施形態と同様の方法を採用することができる。すなわち、制御部11は、複数件の評価用データセット121Aに対して、第1識別器5Aから得られた出力値に基づいて評価用画像データ122Aに写る被写体の状態を判定した結果が正解データ123Aにより示される正解と一致している比率(正答率)を算出することで、第1識別器5Aの判定性能を評価してもよい。つまり、制御部11は、複数件の評価用データセット121Aに対する第1識別器5Aによる被写体の状態判定の正答率を、第1識別器5Aの判定性能の評価結果として算出してもよい。   A method similar to that in the above embodiment can be adopted as a method for evaluating the determination performance. That is, the control unit 11 determines that the result of determining the state of the subject in the evaluation image data 122A based on the output value obtained from the first discriminator 5A for the plurality of evaluation data sets 121A is correct data. The determination performance of the first discriminator 5A may be evaluated by calculating a ratio (correct answer rate) that matches the correct answer indicated by 123A. That is, the control unit 11 may calculate the correct answer rate of the subject state determination by the first discriminator 5A for the plurality of evaluation data sets 121A as the evaluation result of the determination performance of the first discriminator 5A.

また、各件の評価用データセット121Aには、判定性能に寄与する度合いを示す重みが設定されていてもよい。この場合、制御部11は、各件の評価用データセット121Aに設定された重みに応じて、第1識別器5Aの判定性能を評価してもよい。一例として、制御部11は、第1識別器5Aによる状態の判定が正しいと判定された評価用データセット121Aに設定された重みの合計を、各件の評価用データセット121Aに設定された重みの合計で割った商(重みを含む正答率)を、第1識別器5Aの判定性能の評価結果として算出してもよい。   In addition, a weight indicating the degree of contribution to the determination performance may be set in each evaluation data set 121A. In this case, the control unit 11 may evaluate the determination performance of the first discriminator 5A according to the weight set in each evaluation data set 121A. As an example, the control unit 11 calculates the sum of the weights set in the evaluation data set 121A that is determined to be correct by the first discriminator 5A as the weight set in each evaluation data set 121A. The quotient (correct answer rate including weight) divided by the sum of the above may be calculated as the evaluation result of the determination performance of the first discriminator 5A.

また、複数件の評価用データセット121Aは、評価用画像データ122Aに写る被写体の状態の判定を誤ってはいけないものとして設定される禁忌データセットを含んでもよい。この場合、制御部11は、禁忌データセットに対する第1識別器5Aによる被写体の状態の判定が誤っているか否か、又は禁忌データセットに対する第1識別器5Aによる被写体の状態の判定が誤っている数に基づいて、第1識別器5Aの判定性能を評価してもよい。   Further, the plurality of evaluation data sets 121A may include contraindication data sets that are set so that the determination of the state of the subject in the evaluation image data 122A should not be mistaken. In this case, the controller 11 determines whether or not the determination of the state of the subject by the first discriminator 5A for the contraindication data set is incorrect, or the determination of the state of the subject by the first discriminator 5A for the contraindication data set is incorrect. The determination performance of the first discriminator 5A may be evaluated based on the number.

ステップS203では、制御部11は、第2評価部113として動作し、第2学習結果データ229Aを参照して、学習済みの第2識別器6Aの設定を行う。続いて、制御部11は、各件の評価用データセット121Aについて、第2識別器6Aに評価用画像データ122Aを入力し、第2識別器6Aの演算処理を実行することで、第2識別器6Aから出力値を取得する。次に、制御部11は、第2識別器6Aから得られる出力値に基づいて評価用画像データ122Aに写る被写体の状態を判定した結果と正解データ123Aの示す正解とを照合する。判定結果と正解との照合は上記実施形態と同様の方法により行われてよい。これにより、制御部11は、第2識別器6Aの判定性能を評価する。   In step S203, the control unit 11 operates as the second evaluation unit 113, and sets the learned second discriminator 6A with reference to the second learning result data 229A. Subsequently, for each evaluation data set 121A, the control unit 11 inputs the evaluation image data 122A to the second discriminator 6A, and executes the arithmetic processing of the second discriminator 6A, thereby performing the second discrimination. An output value is obtained from the device 6A. Next, the control unit 11 collates the result of determining the state of the subject shown in the evaluation image data 122A with the correct answer indicated by the correct answer data 123A based on the output value obtained from the second discriminator 6A. The collation between the determination result and the correct answer may be performed by the same method as in the above embodiment. Thereby, the control unit 11 evaluates the determination performance of the second discriminator 6A.

なお、第2識別器6Aの判定性能の評価は、第1識別器5Aと同様に行われてよい。制御部11は、複数件の評価用データセット121Aに対して、第2識別器6Aから得られた出力値に基づいて評価用画像データ122Aに写る被写体の状態を判定した結果が正解データ123Aにより示される正解と一致している比率(正答率)を算出することで、第2識別器6Aの判定性能を評価してもよい。また、制御部11は、第2識別器6Aによる状態の判定が正しいと判定された評価用データセット121Aに設定された重みの合計を、各件の評価用データセット121Aに設定された重みの合計で割った商(重みを含む正答率)を、第2識別器6Aの判定性能の評価結果として算出してもよい。また、制御部11は、禁忌データセットに対する第2識別器6Aによる被写体の状態の判定が誤っているか否か、又は禁忌データセットに対する第2識別器6Aによる被写体の状態の判定が誤っている数に基づいて、第2識別器6Aの判定性能を評価してもよい。   Note that the evaluation of the determination performance of the second discriminator 6A may be performed in the same manner as the first discriminator 5A. The control unit 11 determines, based on the output value obtained from the second discriminator 6A, a plurality of evaluation data sets 121A, the result of determining the state of the subject reflected in the evaluation image data 122A based on the correct data 123A. The determination performance of the second discriminator 6A may be evaluated by calculating a ratio (correct answer rate) that matches the correct answer shown. In addition, the control unit 11 calculates the sum of the weights set in the evaluation data set 121A that is determined to be correct by the second discriminator 6A as the weight set in each evaluation data set 121A. A quotient (correct answer rate including weight) divided by the sum may be calculated as an evaluation result of the determination performance of the second discriminator 6A. Further, the control unit 11 determines whether or not the determination of the state of the subject by the second discriminator 6A for the contraindication data set is incorrect, or the number of the determination of the state of the subject by the second discriminator 6A for the contraindication data set is incorrect. Based on the above, the determination performance of the second discriminator 6A may be evaluated.

ステップS204では、制御部11は、性能判定部114として動作し、第1識別器5A及び第2識別器6Aに対する評価の結果に基づいて、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化しているか否かを判定する。第1識別器5Aの判定性能と第2識別器6の判定性能との比較は、上記実施形態と同様の方法により行われてよい。   In step S204, the control unit 11 operates as the performance determination unit 114, and the determination performance of the second discriminator 6A is determined based on the evaluation results for the first discriminator 5A and the second discriminator 6A. It is determined whether or not it is worse than that. The comparison between the determination performance of the first discriminator 5A and the determination performance of the second discriminator 6 may be performed by the same method as in the above embodiment.

すなわち、第2識別器6Aの正答率が第1識別器5Aの正答率よりも低い場合に、制御部11は、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化していると判定してもよい。一方、第2識別器6Aの正答率が第1識別器5Aの正答率よりも低くはない場合、制御部11は、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化していないと判定してもよい。   That is, when the correct answer rate of the second discriminator 6A is lower than the correct answer rate of the first discriminator 5A, the control unit 11 deteriorates the determination performance of the second discriminator 6A compared to the first discriminator 5A. It may be determined that On the other hand, when the correct answer rate of the second discriminator 6A is not lower than the correct answer rate of the first discriminator 5A, the control unit 11 makes the determination performance of the second discriminator 6A worse than that of the first discriminator 5A. It may be determined that it is not.

また、第2識別器6Aの重みを含む正答率が第1識別器5Aの重みを含む正答率よりも低い場合に、制御部11は、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化していると判定してもよい。一方、第2識別器6Aの重みを含む正答率が第1識別器5Aの重みを含む正答率よりも低くはない場合、制御部11は、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化していないと判定してもよい。   Further, when the correct answer rate including the weight of the second discriminator 6A is lower than the correct answer rate including the weight of the first discriminator 5A, the controller 11 determines that the determination performance of the second discriminator 6A is the first discriminator 5A. It may be determined that the condition is worse than On the other hand, when the correct answer rate including the weight of the second discriminator 6A is not lower than the correct answer rate including the weight of the first discriminator 5A, the controller 11 determines that the determination performance of the second discriminator 6A is the first discriminator. You may determine that it has not deteriorated compared with 5A.

また、第1識別器5Aから得られる出力値に基づいて禁忌データセットの評価用画像データ122Aに写る被写体の状態を判定した結果が正解データ123Aにより示される正解と一致しているのに対して、第2識別器6Aから得られる出力値に基づいて禁忌データセットの評価用画像データ122Aに写る被写体の状態を判定した結果が正解データ123Aにより示される正解と一致していない場合、制御部11は、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化していると判定してもよい。つまり、対象の禁忌データセットについて、第1識別器5Aでは被写体の状態を正しく判定できるのに対して、第2識別器6Aでは被写体の状態の判定を誤ってしまう場合に、制御部11は、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化していると判定してもよい。一方、そうではない場合、制御部11は、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化していないと判定してもよいし、上記その他の指標に基づいて、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化しているか否かを判定してもよい。   Further, the result of determining the state of the subject shown in the evaluation image data 122A of the contraindication data set based on the output value obtained from the first discriminator 5A matches the correct answer indicated by the correct answer data 123A. If the result of determining the state of the subject in the evaluation image data 122A of the contraindication data set based on the output value obtained from the second discriminator 6A does not match the correct answer indicated by the correct data 123A, the control unit 11 May determine that the determination performance of the second discriminator 6A is worse than that of the first discriminator 5A. That is, when the first discriminator 5A can correctly determine the state of the subject with respect to the target contraindication data set, the control unit 11 determines that the second discriminator 6A erroneously determines the state of the subject. It may be determined that the determination performance of the second discriminator 6A is worse than that of the first discriminator 5A. On the other hand, if this is not the case, the control unit 11 may determine that the determination performance of the second discriminator 6A has not deteriorated compared to the first discriminator 5A, and based on the other indicators, You may determine whether the determination performance of 2 classifier 6A is deteriorating compared with 5 A of 1st classifiers.

ステップS205では、制御部11は、出力部115として動作し、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化しているか否かを判定した結果を出力する。判定した結果の出力は、上記実施形態と同様に行われてよい。例えば、制御部11は、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化しているか否かを判定した結果をそのまま出力装置15に出力してもよい。   In step S205, the control unit 11 operates as the output unit 115, and outputs a result of determining whether or not the determination performance of the second discriminator 6A is worse than that of the first discriminator 5A. The output of the determined result may be performed in the same manner as in the above embodiment. For example, the control unit 11 may output the result of determining whether or not the determination performance of the second discriminator 6A is worse than that of the first discriminator 5A to the output device 15 as it is.

また、例えば、上記第1のケースでは、制御部11は、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化しているか否かを判定した結果に応じて、識別装置3Aへの第2識別器6Aの配信を禁止又は許可する指令を学習装置2に送信してもよい。あるいは、制御部11は、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化しているか否かを判定した結果を学習装置2に配信して、第2識別器6Aを識別装置3Aに配信するか否かを学習装置2に判定させてもよい。   In addition, for example, in the first case, the control unit 11 determines whether or not the determination performance of the second classifier 6A is worse than that of the first classifier 5A, according to the determination result 3A. A command for prohibiting or permitting distribution of the second discriminator 6A to the learning device 2 may be transmitted to the learning device 2. Alternatively, the control unit 11 distributes the result of determining whether or not the determination performance of the second discriminator 6A is worse than that of the first discriminator 5A to the learning device 2 to identify the second discriminator 6A. The learning device 2 may determine whether to distribute to the device 3A.

また、例えば、上記第2のケースでは、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化しているか否かを判定した結果に応じて、第2識別器6Aの利用を禁止又は許可する指令を識別装置3Aに送信してもよい。あるいは、制御部11は、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化しているか否かを判定した結果を識別装置3Aに配信して、第2識別器6Aを利用するか否かを識別装置3Aに判定させてもよい。   Also, for example, in the second case, the use of the second discriminator 6A is used according to the result of determining whether or not the determination performance of the second discriminator 6A is worse than that of the first discriminator 5A. A command to be prohibited or permitted may be transmitted to the identification device 3A. Alternatively, the control unit 11 distributes the result of determining whether or not the determination performance of the second discriminator 6A is worse than that of the first discriminator 5A to the discriminator 3A and uses the second discriminator 6A. Whether or not to do so may be determined by the identification device 3A.

また、例えば、上記第3のケースでは、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化していると判定した場合、制御部11は、学習装置2から受信した第2識別器6Aの識別装置3Aへの転送を禁止し、第1識別器5Aを利用する指令を識別装置3Aに送信してもよい。一方で、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化していないと判定した場合、制御部11は、学習装置2から受信した第2識別器6Aを識別装置3Aに転送してもよい。   Further, for example, in the third case, when it is determined that the determination performance of the second discriminator 6A is worse than that of the first discriminator 5A, the control unit 11 receives the second received from the learning device 2. Transfer of the discriminator 6A to the discriminator 3A may be prohibited, and a command for using the first discriminator 5A may be transmitted to the discriminator 3A. On the other hand, when it determines with the determination performance of 2nd discriminator 6A not having deteriorated compared with 1st discriminator 5A, the control part 11 makes 2nd discriminator 6A received from the learning apparatus 2 into discriminating apparatus 3A. It may be transferred.

<識別装置>
識別装置3Aの制御部31は、ステップS301では、制御部31は、対象データ取得部311として動作し、状態を識別する対象となる被写体の写る対象画像データ321Aを取得する。
<Identification device>
In step S301, the control unit 31 of the identification device 3A operates as the target data acquisition unit 311 and acquires target image data 321A in which a subject to be identified is captured.

ステップS302では、制御部31は、状態判定部312Aとして動作し、第1識別器5A又は第2識別器6Aを利用して、対象画像データ321Aに写る被写体の状態を判定する。利用する識別器は、上記ステップS204における性能の評価結果に基づいて決定される。すなわち、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化していると判定された場合には、制御部31は、第1識別器5Aを利用して対象画像データ321Aに写る被写体の状態を判定する。一方、第2識別器6Aの判定性能が第1識別器5Aと比べて悪化していないと判定された場合には、制御部31は、第2識別器6Aを利用して対象画像データ321Aに写る被写体の状態を判定する。   In step S302, the control unit 31 operates as the state determination unit 312A, and determines the state of the subject in the target image data 321A using the first discriminator 5A or the second discriminator 6A. The classifier to be used is determined based on the performance evaluation result in step S204. That is, when it is determined that the determination performance of the second classifier 6A is worse than that of the first classifier 5A, the control unit 31 uses the first classifier 5A to generate the target image data 321A. Determine the state of the subject. On the other hand, when it is determined that the determination performance of the second discriminator 6A has not deteriorated compared to the first discriminator 5A, the control unit 31 uses the second discriminator 6A to generate the target image data 321A. Determine the state of the subject.

第1識別器5Aを利用する場合、制御部31は、第1学習結果データ224Aを参照して、学習済みの第1識別器5Aの設定を行う。続いて、制御部31は、取得した対象画像データ321Aを第1識別器5Aに入力して、第1識別器5Aの演算処理を実行することで、第1識別器5Aから出力値を取得する。そして、制御部31は、第1識別器5Aから取得した出力値に基づいて、対象画像データ321Aに写る被写体の状態を判定する。被写体の状態の判定は、上記実施形態と同様に行われてよい。   When using the first discriminator 5A, the control unit 31 sets the learned first discriminator 5A with reference to the first learning result data 224A. Subsequently, the control unit 31 inputs the acquired target image data 321A to the first discriminator 5A, and executes an arithmetic process of the first discriminator 5A, thereby acquiring an output value from the first discriminator 5A. . Then, the control unit 31 determines the state of the subject shown in the target image data 321A based on the output value acquired from the first discriminator 5A. The determination of the state of the subject may be performed similarly to the above embodiment.

同様に、第2識別器6Aを利用する場合、制御部31は、第2学習結果データ229Aを参照して、学習済みの第2識別器6Aの設定を行う。続いて、制御部31は、取得した対象画像データ321Aを第2識別器6Aに入力して、第2識別器6Aの演算処理を実行することで、第2識別器6Aから出力値を取得する。そして、制御部31は、第2識別器6Aから取得した出力値に基づいて、対象画像データ321Aに写る被写体の状態を判定する。   Similarly, when the second discriminator 6A is used, the control unit 31 sets the learned second discriminator 6A with reference to the second learning result data 229A. Subsequently, the control unit 31 inputs the acquired target image data 321A to the second discriminator 6A, and executes an arithmetic process of the second discriminator 6A, thereby acquiring an output value from the second discriminator 6A. . And the control part 31 determines the state of the to-be-photographed object reflected in the object image data 321A based on the output value acquired from 6 A of 2nd discriminators.

ステップS303では、制御部31は、出力部313として動作し、被写体の状態を判定した結果を出力する。被写体の状態を判定した結果の出力形式は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、制御部31は、被写体の状態を判定した結果をそのまま出力装置36に出力してもよい。また、例えば、制御部31は、被写体の状態に応じて所定の出力処理を実行してもよい。具体例として、被写体の状態として対象者の表情を判定するケースでは、対象者の顔が笑顔ではない(第2状態である)ときに、制御部11は、対象者の関連者の携帯端末にそのことを通知する電子メールの送信をステップS303の出力処理として行ってもよい。   In step S303, the control unit 31 operates as the output unit 313 and outputs a result of determining the state of the subject. The output format of the result of determining the state of the subject is not particularly limited, and may be appropriately selected according to the embodiment. For example, the control unit 31 may output the result of determining the state of the subject to the output device 36 as it is. For example, the control unit 31 may execute a predetermined output process according to the state of the subject. As a specific example, in the case where the facial expression of the subject is determined as the state of the subject, when the subject's face is not smiling (in the second state), the control unit 11 may The transmission of the e-mail notifying this may be performed as the output process in step S303.

以上により、本変形例では、再学習又は追加学習により第2識別器6Aの識別性能が第1識別器5Aよりも悪化してしまった場合でも、被写体の状態を判定する処理の信頼性が損なわれてしまうのを防止することができる。   As described above, in this modification, even when the discrimination performance of the second discriminator 6A is worse than that of the first discriminator 5A due to re-learning or additional learning, the reliability of the process for determining the state of the subject is impaired. Can be prevented.

<4.5>
上記実施形態及び変形例では、画像データから何らかの特徴(被写体の状態)を判定する場面に本発明を提供した例を示している。しかしながら、本発明の適用可能な範囲は、このような画像データから特徴を判定する場面に限られなくてもよい。本発明は、画像データ以外のデータ又は複数種類のデータから何らかの特徴を識別する場面に広く適用可能である。
<4.5>
In the above-described embodiment and the modification, an example in which the present invention is provided in a scene in which some characteristic (the state of a subject) is determined from image data is shown. However, the applicable range of the present invention does not have to be limited to scenes where characteristics are determined from such image data. The present invention can be widely applied to scenes in which some feature is identified from data other than image data or a plurality of types of data.

図14〜図17を用いて、データに含まれる特徴を判定する場面に本発明を適用した変形例について説明する。図14は、本変形例に係る識別器評価装置1Bのソフトウェア構成の一例を模式的に例示する。図15は、本変形例に係る学習装置2Bのソフトウェア構成の一例を模式的に例示する。図16及び図17は、本変形例に係る識別装置3Bのハードウェア構成及びソフトウェア構成の一例を模式的に例示する。本変形例に係る識別システムは、識別器評価装置1B、学習装置2B、及び識別装置3Bにより構成される。処理対象となるデータが、製品の写る画像データから何らかの特徴を含む他種のデータに置き換わる点を除き、本変形例に係る識別システムは、上記検査システム100と同様に構成されてよい。   A modification in which the present invention is applied to a scene in which a feature included in data is determined will be described with reference to FIGS. FIG. 14 schematically illustrates an example of the software configuration of the classifier evaluation apparatus 1B according to the present modification. FIG. 15 schematically illustrates an example of the software configuration of the learning device 2B according to the present modification. 16 and 17 schematically illustrate an example of a hardware configuration and a software configuration of the identification device 3B according to this modification. The identification system according to this modification includes a classifier evaluation device 1B, a learning device 2B, and a classification device 3B. The identification system according to this modification may be configured in the same manner as the inspection system 100, except that the data to be processed is replaced with other types of data including some characteristics from the image data representing the product.

<識別器評価装置>
具体的に、本変形例に係る識別器評価装置1Bは、上記識別器評価装置1と同様のハードウェア構成を有する。識別器評価装置1Bの記憶部12は、第1学習結果データ224B、第2学習結果データ229B等の各種情報を記憶する。第1学習結果データ224Bは、学習済みの第1識別器5Bの設定を行うためのデータである。第2学習結果データ229Bは、学習済みの第2識別器6Bの設定を行うためのデータである。
<Identifier evaluation device>
Specifically, the discriminator evaluation device 1B according to this modification has the same hardware configuration as the discriminator evaluation device 1 described above. The storage unit 12 of the classifier evaluation apparatus 1B stores various information such as the first learning result data 224B and the second learning result data 229B. The first learning result data 224B is data for setting the learned first discriminator 5B. The second learning result data 229B is data for setting the learned second discriminator 6B.

本変形例において、処理対象となるデータは、識別器による解析の対象となり得るあらゆる種類のデータを含んでもよく、例えば、画像データの他、音データ(音声データ)、数値データ、テキストデータ等であってよい。また、対象のデータから識別される特徴は、データから識別可能なあらゆる特徴を含んでもよい。対象のデータが音データである場合、識別される特徴は、例えば、特定の音(例えば、機械の異音)が含まれているか否か等であってもよい。対象のデータが、活動量等の生体データに関する数値データ又はテキストデータである場合、識別される特徴は、例えば、対象者の状態(例えば、健康であるか否か)等であってもよい。対象のデータが、機械の駆動量等の数値データ又はテキストデータである場合、識別される特徴は、例えば、機械の状態(例えば、機械が所定の状態にあるか否か)等であってもよい。   In the present modification, the data to be processed may include all kinds of data that can be analyzed by the classifier. For example, in addition to image data, sound data (voice data), numerical data, text data, etc. It may be. The feature identified from the target data may include any feature that can be identified from the data. When the target data is sound data, the identified feature may be, for example, whether or not a specific sound (for example, mechanical noise) is included. When the target data is numerical data or text data related to biological data such as activity data, the identified feature may be, for example, the state of the subject (for example, whether or not he / she is healthy). When the target data is numerical data such as driving amount of the machine or text data, the identified feature is, for example, the state of the machine (for example, whether or not the machine is in a predetermined state) Good.

図14に示されるとおり、識別器評価装置1Bは、上記識別器評価装置1と同様に、評価データ取得部111、第1評価部112、第2評価部113、性能判定部114、及び出力部115をソフトウェアモジュールとして備えるコンピュータとして動作する。   As shown in FIG. 14, the discriminator evaluation apparatus 1B is similar to the discriminator evaluation apparatus 1 in that the evaluation data acquisition unit 111, the first evaluation unit 112, the second evaluation unit 113, the performance determination unit 114, and the output unit. It operates as a computer having 115 as a software module.

評価データ取得部111は、評価用データ122B、及び評価用データ122Bに含まれる特徴の識別に対する正解を示す正解データ123Bの組み合わせによりそれぞれ構成される複数件の評価用データセット121Bを取得する。正解データ123Bの内容は、評価用データ122B及び識別する対象となる特徴に応じて適宜設定されてよい。   The evaluation data acquisition unit 111 acquires a plurality of evaluation data sets 121B each configured by a combination of evaluation data 122B and correct data 123B indicating correct answers for identification of features included in the evaluation data 122B. The content of the correct answer data 123B may be appropriately set according to the evaluation data 122B and the features to be identified.

第1評価部112は、各件の評価用データセット121Bについて、第1識別器5Bに評価用データ122Bを入力し、第1識別器5Bから得られる出力値に基づいて評価用データ122Bに含まれる特徴を判定した結果と正解データ123Bの示す正解とを照合する。これにより、第1評価部112は、第1識別器5Bの判定性能を評価する。   The first evaluation unit 112 inputs the evaluation data 122B to the first discriminator 5B for each evaluation data set 121B, and is included in the evaluation data 122B based on the output value obtained from the first discriminator 5B. The result of determining the feature to be checked is compared with the correct answer indicated by the correct answer data 123B. Thereby, the 1st evaluation part 112 evaluates the determination performance of the 1st discriminator 5B.

第2評価部113は、各件の評価用データセット121Bについて、第2識別器6Bに評価用データ122Bを入力し、第2識別器6Bから得られる出力値に基づいて評価用データ122Bに含まれる特徴を判定した結果と正解データ123Bの示す正解とを照合する。これにより、第2評価部113は、第2識別器6Bの判定性能を評価する。   The second evaluation unit 113 inputs the evaluation data 122B to the second discriminator 6B for each evaluation data set 121B, and is included in the evaluation data 122B based on the output value obtained from the second discriminator 6B. The result of determining the feature to be checked is compared with the correct answer indicated by the correct answer data 123B. Thereby, the second evaluation unit 113 evaluates the determination performance of the second discriminator 6B.

性能判定部114は、第1識別器5B及び第2識別器6Bに対する評価の結果に基づいて、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化しているか否かを判定する。出力部115は、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化しているか否かを判定した結果を出力する。   The performance determination unit 114 determines whether or not the determination performance of the second discriminator 6B is worse than that of the first discriminator 5B based on the evaluation results for the first discriminator 5B and the second discriminator 6B. To do. The output unit 115 outputs a result of determining whether or not the determination performance of the second discriminator 6B is worse than that of the first discriminator 5B.

<学習装置>
学習装置2Bは、上記学習装置2と同様のハードウェア構成を有する。また、図15に示されるとおり、学習装置2Bは、上記学習装置2と同様に、学習データ取得部211及び学習処理部212をソフトウェアモジュールとして備えるコンピュータとして動作する。
<Learning device>
The learning device 2B has the same hardware configuration as the learning device 2 described above. As illustrated in FIG. 15, the learning device 2 </ b> B operates as a computer including the learning data acquisition unit 211 and the learning processing unit 212 as software modules, similarly to the learning device 2.

学習データ取得部211は、特徴を識別する学習を行うためのデータ222Bで構成された第1学習データ221Bを取得する。学習処理部212は、取得した第1学習データ221Bを利用した機械学習を実施することで、対象のデータに含まれる特徴を判定する能力を習得した学習済みの第1識別器5Bを構築する。   The learning data acquisition unit 211 acquires first learning data 221B composed of data 222B for performing learning for identifying features. The learning processing unit 212 performs the machine learning using the acquired first learning data 221B, thereby constructing the learned first discriminator 5B that has acquired the ability to determine the feature included in the target data.

また、学習データ取得部211は、第1学習データ221B及び特徴を識別する学習を行うための追加のデータ227Bで構成された第2学習データ226Bを取得する。学習処理部212は、取得した第2学習データ226Bを利用した機械学習を実施することで、対象のデータに含まれる特徴を判定する能力を習得した学習済みの第2識別器6Bを構築する。   The learning data acquisition unit 211 acquires the second learning data 226B configured by the first learning data 221B and additional data 227B for performing learning for identifying features. The learning processing unit 212 performs machine learning using the acquired second learning data 226B, thereby constructing the learned second discriminator 6B that has acquired the ability to determine the feature included in the target data.

なお、本変形例では、上記実施形態と同様に、各識別器(5B、6B)の学習モデルは、ニューラルネットワークにより構成されている。そのため、データ222Bには、当該データ222Bに含まれる特徴の識別に対する正解を示す正解データ223Bが付与される。同様に、追加のデータ227Bには、追加のデータ227Bに含まれる特徴の識別に対する正解を示す正解データ228Bが付与されている。   In this modification, the learning model of each discriminator (5B, 6B) is configured by a neural network, as in the above embodiment. Therefore, correct data 223B indicating the correct answer to the identification of the feature included in the data 222B is given to the data 222B. Similarly, correct data 228B indicating the correct answer to the feature identification included in the additional data 227B is given to the additional data 227B.

学習処理部212は、第1学習データ221Bに含まれる各件のデータセットについて、データ222Bを入力層51に入力すると、入力したデータ222Bに関連付けられた正解データ223Bにより示される正解に対応する出力値を出力層53から出力するように第1識別器5Bの機械学習を行う。これにより、学習処理部212は、対象のデータに含まれる特徴を判定する能力を習得した学習済みの第2識別器6を構築する。そして、学習処理部212は、学習済みの第1識別器5Bの構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第1学習結果データ224Bとして記憶部22に格納する。   When the learning processing unit 212 inputs data 222B to the input layer 51 for each data set included in the first learning data 221B, the output corresponding to the correct answer indicated by the correct data 223B associated with the input data 222B. Machine learning of the first discriminator 5B is performed so that the value is output from the output layer 53. Thereby, the learning processing unit 212 constructs the learned second discriminator 6 that has acquired the ability to determine the characteristics included in the target data. Then, the learning processing unit 212 stores information indicating the configuration of the learned first discriminator 5B, the weight of the connection between the neurons, and the threshold value of each neuron as the first learning result data 224B in the storage unit 22.

また、学習処理部212は、第2学習データ226Bに含まれる各件のデータセットについて、データ(222B、227B)を入力層61に入力すると、入力したデータ(222B、227B)に関連付けられた正解データ(223B、228B)により示される正解対応する出力値を出力層63から出力するように第2識別器6Bの機械学習を行う。これにより、学習処理部212は、対象のデータに含まれる特徴を判定する能力を習得した学習済みの第2識別器6Bを構築する。そして、学習処理部212は、学習済みの第2識別器6Bの構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第2学習結果データ229Bとして記憶部22に格納する。   Further, when the learning processing unit 212 inputs data (222B, 227B) to the input layer 61 for each data set included in the second learning data 226B, the correct answer associated with the input data (222B, 227B). Machine learning of the second discriminator 6B is performed so that an output value corresponding to the correct answer indicated by the data (223B, 228B) is output from the output layer 63. Thereby, the learning processing unit 212 constructs the learned second discriminator 6B that has acquired the ability to determine the characteristics included in the target data. Then, the learning processing unit 212 stores, in the storage unit 22, information indicating the configuration of the learned second discriminator 6B, the weight of connection between the neurons, and the threshold value of each neuron as the second learning result data 229B.

<識別装置>
図16に示されるとおり、識別装置3Bは、上記検査装置3と同様のハードウェア構成を有する。識別装置3Bの記憶部32は、識別プログラム83B、第1学習結果データ224B、第2学習結果データ229B等の各種情報を記憶する。識別プログラム83Bは、上記検査装置3と同様の処理手順により、対象のデータに含まれる特徴を判定する情報処理を識別装置3Bに実行させるためのプログラムであり、当該情報処理の一連の命令を含む。
<Identification device>
As shown in FIG. 16, the identification device 3 </ b> B has the same hardware configuration as that of the inspection device 3. The storage unit 32 of the identification device 3B stores various information such as the identification program 83B, the first learning result data 224B, and the second learning result data 229B. The identification program 83B is a program for causing the identification device 3B to execute information processing for determining the characteristics included in the target data by the same processing procedure as the inspection device 3, and includes a series of instructions for the information processing. .

なお、本変形例では、識別装置3Bは、外部インタフェース34を介して、計測装置41Bに接続されている。計測装置41Bは、対象のデータを取得可能に適宜構成される。計測装置41Bの種類は、処理対象のデータに応じて適宜決定されてよい。処理対象のデータが音データである場合、計測装置41Bは、例えば、マイクロフォン等である。処理対象のデータが生体データである場合、計測装置41Bは、例えば、活動量計、血圧計等の、生体情報を計測可能に構成された装置である。また、処理対象のデータが、機械の駆動量等の数値データ又はテキストデータである場合、計測装置41Bは、例えば、エンコーダ等の対象の物理量を測定可能に構成された装置である。計測装置41Bの配置は、実施の形態に応じて適宜決定されてよい。   In the present modification, the identification device 3B is connected to the measurement device 41B via the external interface 34. The measuring device 41B is appropriately configured so as to be able to acquire target data. The type of the measuring device 41B may be appropriately determined according to the data to be processed. When the data to be processed is sound data, the measurement device 41B is, for example, a microphone. When the data to be processed is biological data, the measurement device 41B is a device configured to be able to measure biological information, such as an activity meter and a blood pressure monitor. Further, when the data to be processed is numerical data such as a driving amount of the machine or text data, the measuring device 41B is a device configured to be able to measure a target physical quantity such as an encoder, for example. The arrangement of the measurement device 41B may be appropriately determined according to the embodiment.

また、図17に示されるとおり、識別装置3Bは、制御部31により識別プログラム83Bを実行することで、対象データ取得部311、特徴判定部312B、及び出力部313をソフトウェアモジュールとして備えるコンピュータとして動作する。   In addition, as illustrated in FIG. 17, the identification device 3B operates as a computer including the target data acquisition unit 311, the feature determination unit 312B, and the output unit 313 as software modules by executing the identification program 83B by the control unit 31. To do.

対象データ取得部311は、識別する対象となる特徴を含む対象データ321Bを取得する。特徴判定部312Bは、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化していると判定された場合には、第1識別器5Bを利用して対象データ321Bに含まれる特徴を判定する。また、特徴判定部312Bは、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化していないと判定した場合には、第2識別器6Bを利用して対象データ321Bに含まれる特徴を判定する。出力部313は、対象データ321Bに含まれる特徴を判定した結果を出力する。   The target data acquisition unit 311 acquires target data 321B including a feature to be identified. The feature determination unit 312B is included in the target data 321B using the first identifier 5B when it is determined that the determination performance of the second identifier 6B is worse than that of the first identifier 5B. Determine the characteristics. In addition, when the characteristic determination unit 312B determines that the determination performance of the second discriminator 6B has not deteriorated compared to the first discriminator 5B, the feature determination unit 312B includes the target data 321B using the second discriminator 6B. Determine the features that will be used. The output unit 313 outputs the result of determining the features included in the target data 321B.

[動作例]
次に、本変形例に係る識別システムの動作例について説明する。本変形例に係る識別システムは、上記検査システム100とほぼ同様の処理手順で動作する。
[Operation example]
Next, an operation example of the identification system according to this modification will be described. The identification system according to the present modification operates according to a processing procedure substantially similar to that of the inspection system 100.

<学習装置>
すなわち、学習装置2Bの制御部21は、上記ステップS101及びS102の処理により、特徴を識別する学習を行うためのデータ222Bで構成された第1学習データ221Bを利用した機械学習を実行することで第1識別器5Bを構築する。そして、制御部21は、ステップS103の処理により、構築した第1識別器5Bの構成等を示す情報を第1学習結果データ224Bとして記憶部22に格納する。
<Learning device>
That is, the control unit 21 of the learning device 2B performs machine learning using the first learning data 221B configured by the data 222B for performing learning for identifying the features by the processing of steps S101 and S102. The first discriminator 5B is constructed. And the control part 21 stores the information which shows the structure etc. of the constructed | assembled 1st discriminator 5B by the process of step S103 in the memory | storage part 22 as 1st learning result data 224B.

同様に、制御部21は、上記ステップS101及びS102の処理により、第1学習データ221B及び特徴を識別する学習を行うための追加のデータ227Bで構成された第2学習データ226Bを利用した機械学習を実行することで第2識別器6Bを構築する。そして、制御部21は、ステップS103の処理により、構築した第2識別器6Bの構成等を示す情報を第2学習結果データ229Bとして記憶部22に格納する。   Similarly, the control unit 21 performs machine learning using the second learning data 226B including the first learning data 221B and the additional data 227B for performing learning for identifying the features by the processing in steps S101 and S102. To construct the second discriminator 6B. And the control part 21 stores the information which shows the structure etc. of the constructed | assembled 2nd discriminator 6B by the process of step S103 in the memory | storage part 22 as 2nd learning result data 229B.

<識別器評価装置>
識別器評価装置1Bの制御部11は、ステップS201では、評価データ取得部111として動作し、評価用データ122B、及び評価用データ122Bに含まれる特徴の識別に対する正解を示す正解データ123Bの組み合わせによりそれぞれ構成される複数件の評価用データセット121Bを取得する。各件の評価用データセット121Bは、評価用画像データ122を取得するのに利用したカメラを、評価用データ122Bを取得するように構成された装置に置き換えて、上記評価用データセット121と同様の方法により作成されてよい。
<Identifier evaluation device>
In step S201, the control unit 11 of the discriminator evaluation apparatus 1B operates as the evaluation data acquisition unit 111, and is based on a combination of the evaluation data 122B and the correct data 123B indicating the correct answer to the feature identification included in the evaluation data 122B. A plurality of evaluation data sets 121B configured respectively are acquired. In each evaluation data set 121B, the camera used to acquire the evaluation image data 122 is replaced with an apparatus configured to acquire the evaluation data 122B. This method may be used.

ステップS202では、制御部11は、第1評価部112として動作し、第1学習結果データ224Bを参照して、学習済みの第1識別器5Bの設定を行う。続いて、制御部11は、各件の評価用データセット121Bについて、第1識別器5Bに評価用データ122Bを入力し、第1識別器5Bの演算処理を実行することで、第1識別器5Bから出力値を取得する。次に、制御部11は、第1識別器5Bから得られる出力値に基づいて評価用データ122Bに含まれる特徴を判定した結果と正解データ123Bの示す正解とを照合する。判定結果と正解との照合は上記実施形態と同様の方法により行われてよい。これにより、制御部11は、第1識別器5Bの判定性能を評価する。   In step S202, the control unit 11 operates as the first evaluation unit 112 and sets the learned first classifier 5B with reference to the first learning result data 224B. Subsequently, for each evaluation data set 121B, the control unit 11 inputs the evaluation data 122B to the first discriminator 5B, and executes the arithmetic processing of the first discriminator 5B, whereby the first discriminator. The output value is acquired from 5B. Next, the control unit 11 collates the result of determining the characteristics included in the evaluation data 122B with the correct answer indicated by the correct answer data 123B based on the output value obtained from the first discriminator 5B. The collation between the determination result and the correct answer may be performed by the same method as in the above embodiment. Thereby, the control part 11 evaluates the determination performance of the 1st discriminator 5B.

判定性能の評価方法には、上記実施形態と同様の方法を採用することができる。すなわち、制御部11は、複数件の評価用データセット121Bに対して、第1識別器5Bから得られた出力値に基づいて評価用データ122Bに含まれる特徴を判定した結果が正解データ123Bにより示される正解と一致している比率(正答率)を算出することで、第1識別器5Bの判定性能を評価してもよい。つまり、制御部11は、複数件の評価用データセット121Bに対する第1識別器5Bによる特徴の判定の正答率を、第1識別器5Bの判定性能の評価結果として算出してもよい。   A method similar to that in the above embodiment can be adopted as a method for evaluating the determination performance. That is, the control unit 11 determines the characteristics included in the evaluation data 122B based on the output value obtained from the first discriminator 5B with respect to the plurality of evaluation data sets 121B based on the correct data 123B. The determination performance of the first discriminator 5B may be evaluated by calculating a ratio (correct answer rate) that matches the correct answer shown. That is, the control unit 11 may calculate the correct answer rate of the feature determination by the first discriminator 5B for the plurality of evaluation data sets 121B as the evaluation result of the determination performance of the first discriminator 5B.

また、各件の評価用データセット121Bには、判定性能に寄与する度合いを示す重みが設定されていてもよい。この場合、制御部11は、各件の評価用データセット121Bに設定された重みに応じて、第1識別器5Bの判定性能を評価してもよい。一例として、制御部11は、第1識別器5Bによる特徴の判定が正しいと判定された評価用データセット121Bに設定された重みの合計を、各件の評価用データセット121Bに設定された重みの合計で割った商(重みを含む正答率)を、第1識別器5Bの判定性能の評価結果として算出してもよい。   In addition, a weight indicating the degree of contribution to the determination performance may be set in each evaluation data set 121B. In this case, the control unit 11 may evaluate the determination performance of the first discriminator 5B according to the weight set in each evaluation data set 121B. As an example, the control unit 11 calculates the sum of the weights set in the evaluation data set 121B that is determined to be correct by the first discriminator 5B as the feature determination, and the weight set in each evaluation data set 121B. The quotient (correct answer rate including weight) divided by the sum of the above may be calculated as the evaluation result of the determination performance of the first discriminator 5B.

また、複数件の評価用データセット121Bは、評価用データ122Bに含まれる特徴の判定を誤ってはいけないものとして設定される禁忌データセットを含んでもよい。この場合、制御部11は、禁忌データセットに対する第1識別器5Bによる特徴の判定が誤っているか否か、又は禁忌データセットに対する第1識別器5Bによる特徴の判定が誤っている数に基づいて、第1識別器5Bの判定性能を評価してもよい。   Further, the plurality of evaluation data sets 121B may include contraindication data sets that are set so that the determination of the characteristics included in the evaluation data 122B should not be mistaken. In this case, the control unit 11 determines whether or not the feature determination by the first discriminator 5B for the contraindication data set is incorrect or the number of the feature determination by the first discriminator 5B for the contraindication data set is incorrect. The determination performance of the first discriminator 5B may be evaluated.

ステップS203では、制御部11は、第2評価部113として動作し、第2学習結果データ229Bを参照して、学習済みの第2識別器6Bの設定を行う。続いて、制御部11は、各件の評価用データセット121Bについて、第2識別器6Bに評価用データ122Bを入力し、第2識別器6Bの演算処理を実行することで、第2識別器6Bから出力値を取得する。次に、制御部11は、第2識別器6Bから得られる出力値に基づいて評価用データ122Bに含まれる特徴を判定した結果と正解データ123Bの示す正解とを照合する。判定結果と正解との照合は上記実施形態と同様の方法により行われてよい。これにより、制御部11は、第2識別器6Bの判定性能を評価する。   In step S203, the control unit 11 operates as the second evaluation unit 113 and sets the learned second discriminator 6B with reference to the second learning result data 229B. Subsequently, for each evaluation data set 121B, the control unit 11 inputs the evaluation data 122B to the second discriminator 6B, and executes the arithmetic processing of the second discriminator 6B, whereby the second discriminator. The output value is acquired from 6B. Next, the control unit 11 collates the result of determining the feature included in the evaluation data 122B with the correct answer indicated by the correct answer data 123B based on the output value obtained from the second discriminator 6B. The collation between the determination result and the correct answer may be performed by the same method as in the above embodiment. Thereby, the control part 11 evaluates the determination performance of the 2nd discriminator 6B.

なお、第2識別器6Bの判定性能の評価は、第1識別器5Bと同様に行われてよい。制御部11は、複数件の評価用データセット121Bに対して、第2識別器6Bから得られた出力値に基づいて評価用データ122Bに含まれる特徴を判定した結果が正解データ123Bにより示される正解と一致している比率(正答率)を算出することで、第2識別器6Bの判定性能を評価してもよい。また、制御部11は、第2識別器6Bによる特徴の判定が正しいと判定された評価用データセット121Bに設定された重みの合計を、各件の評価用データセット121Bに設定された重みの合計で割った商(重みを含む正答率)を、第2識別器6Bの判定性能の評価結果として算出してもよい。また、制御部11は、禁忌データセットに対する第2識別器6Bによる特徴の判定が誤っているか否か、又は禁忌データセットに対する第2識別器6Bによる特徴の判定が誤っている数に基づいて、第2識別器6Bの判定性能を評価してもよい。   Note that the evaluation of the determination performance of the second discriminator 6B may be performed in the same manner as the first discriminator 5B. The control unit 11 indicates the result of determining the characteristics included in the evaluation data 122B based on the output value obtained from the second discriminator 6B for the plurality of evaluation data sets 121B by the correct data 123B. The determination performance of the second discriminator 6B may be evaluated by calculating a ratio (correct answer rate) that matches the correct answer. In addition, the control unit 11 calculates the sum of the weights set in the evaluation data set 121B that has been determined to be correct by the second discriminator 6B as the feature determination by the weight set in each evaluation data set 121B. The quotient (correct answer rate including weight) divided by the sum may be calculated as the evaluation result of the determination performance of the second discriminator 6B. Further, the control unit 11 determines whether or not the determination of the feature by the second discriminator 6B for the contraindication data set is incorrect, or based on the number of the determination of the feature by the second discriminator 6B for the contraindication data set is incorrect. The determination performance of the second discriminator 6B may be evaluated.

ステップS204では、制御部11は、性能判定部114として動作し、第1識別器5B及び第2識別器6Bに対する評価の結果に基づいて、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化しているか否かを判定する。第1識別器5Bの判定性能と第2識別器Bの判定性能との比較は、上記実施形態と同様の方法により行われてよい。   In step S204, the control unit 11 operates as the performance determination unit 114, and the determination performance of the second discriminator 6B is determined based on the evaluation results for the first discriminator 5B and the second discriminator 6B. It is determined whether or not it is worse than that. The comparison between the determination performance of the first discriminator 5B and the determination performance of the second discriminator B may be performed by the same method as in the above embodiment.

すなわち、第2識別器6Bの正答率が第1識別器5Bの正答率よりも低い場合に、制御部11は、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化していると判定してもよい。一方、第2識別器6Bの正答率が第1識別器5Bの正答率よりも低くはない場合、制御部11は、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化していないと判定してもよい。   That is, when the correct answer rate of the second discriminator 6B is lower than the correct answer rate of the first discriminator 5B, the control unit 11 deteriorates the determination performance of the second discriminator 6B compared to the first discriminator 5B. It may be determined that On the other hand, when the correct answer rate of the second discriminator 6B is not lower than the correct answer rate of the first discriminator 5B, the control unit 11 makes the determination performance of the second discriminator 6B worse than that of the first discriminator 5B. It may be determined that it is not.

また、第2識別器6Bの重みを含む正答率が第1識別器5Bの重みを含む正答率よりも低い場合に、制御部11は、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化していると判定してもよい。一方、第2識別器6Bの重みを含む正答率が第1識別器5Bの重みを含む正答率よりも低くはない場合、制御部11は、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化していないと判定してもよい。   Further, when the correct answer rate including the weight of the second discriminator 6B is lower than the correct answer rate including the weight of the first discriminator 5B, the controller 11 determines that the determination performance of the second discriminator 6B is the first discriminator 5B. It may be determined that the condition is worse than On the other hand, when the correct answer rate including the weight of the second discriminator 6B is not lower than the correct answer rate including the weight of the first discriminator 5B, the controller 11 determines that the determination performance of the second discriminator 6B is the first discriminator. You may determine that it has not deteriorated compared with 5B.

また、第1識別器5Bから得られる出力値に基づいて禁忌データセットの評価用データ122Bに含まれる特徴を判定した結果が正解データ123Bにより示される正解と一致しているのに対して、第2識別器6Bから得られる出力値に基づいて禁忌データセットの評価用データ122Bに含まれる特徴を判定した結果が正解データ123Bにより示される正解と一致していない場合、制御部11は、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化していると判定してもよい。つまり、対象の禁忌データセットについて、第1識別器5Bでは特徴を正しく判定できるのに対して、第2識別器6Bでは特徴の判定を誤ってしまう場合に、制御部11は、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化していると判定してもよい。一方、そうではない場合、制御部11は、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化していないと判定してもよいし、上記その他の指標に基づいて、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化しているか否かを判定してもよい。   In addition, the result of determining the characteristics included in the evaluation data 122B of the contraindication data set based on the output value obtained from the first discriminator 5B matches the correct answer indicated by the correct data 123B. If the result of determining the characteristics included in the evaluation data 122B of the contraindication data set based on the output value obtained from the two discriminator 6B does not match the correct answer indicated by the correct data 123B, the control unit 11 You may determine with the determination performance of the discrimination device 6B getting worse compared with the 1st discrimination device 5B. In other words, for the contraindicated data set of interest, when the first discriminator 5B can correctly determine the feature, but the second discriminator 6B makes a mistake in determining the feature, the control unit 11 determines the second discriminator. It may be determined that the determination performance of 6B is worse than that of the first discriminator 5B. On the other hand, if this is not the case, the control unit 11 may determine that the determination performance of the second discriminator 6B has not deteriorated compared to the first discriminator 5B, and based on the above other indicators, It may be determined whether or not the determination performance of the second discriminator 6B is worse than that of the first discriminator 5B.

ステップS205では、制御部11は、出力部115として動作し、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化しているか否かを判定した結果を出力する。判定した結果の出力は、上記実施形態と同様に行われてよい。例えば、制御部11は、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化しているか否かを判定した結果をそのまま出力装置15に出力してもよい。   In step S205, the control unit 11 operates as the output unit 115, and outputs a result of determining whether or not the determination performance of the second discriminator 6B is worse than that of the first discriminator 5B. The output of the determined result may be performed in the same manner as in the above embodiment. For example, the control unit 11 may output the result of determining whether or not the determination performance of the second discriminator 6B is worse than that of the first discriminator 5B to the output device 15 as it is.

また、例えば、上記第1のケースでは、制御部11は、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化しているか否かを判定した結果に応じて、識別装置3Bへの第2識別器6Bの配信を禁止又は許可する指令を学習装置2Bに送信してもよい。あるいは、制御部11は、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化しているか否かを判定した結果を学習装置2Bに配信して、第2識別器6Bを識別装置3Bに配信するか否かを学習装置2Bに判定させてもよい。   Further, for example, in the first case, the control unit 11 determines whether or not the determination performance of the second discriminator 6B is worse than that of the first discriminator 5B, according to the determination result. A command for prohibiting or permitting the distribution of the second discriminator 6B to may be transmitted to the learning device 2B. Alternatively, the control unit 11 distributes the result of determining whether or not the determination performance of the second discriminator 6B is worse than that of the first discriminator 5B to the learning device 2B, and discriminates the second discriminator 6B. The learning device 2B may determine whether to distribute to the device 3B.

また、例えば、上記第2のケースでは、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化しているか否かを判定した結果に応じて、第2識別器6Bの利用を禁止又は許可する指令を識別装置3Bに送信してもよい。あるいは、制御部11は、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化しているか否かを判定した結果を識別装置3Bに配信して、第2識別器6Bを利用するか否かを識別装置3Bに判定させてもよい。   Further, for example, in the second case, the use of the second discriminator 6B is used according to the result of determining whether or not the determination performance of the second discriminator 6B is deteriorated as compared with the first discriminator 5B. A command to be prohibited or permitted may be transmitted to the identification device 3B. Alternatively, the control unit 11 distributes the determination result of whether or not the determination performance of the second discriminator 6B is worse than that of the first discriminator 5B to the discriminator 3B, and uses the second discriminator 6B. Whether or not to do so may be determined by the identification device 3B.

また、例えば、上記第3のケースでは、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化していると判定した場合、制御部11は、学習装置2Bから受信した第2識別器6Bの識別装置3Bへの転送を禁止し、第1識別器5Bを利用する指令を識別装置3Bに送信してもよい。一方で、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化していないと判定した場合、制御部11は、学習装置2Bから受信した第2識別器6Bを識別装置3Bに転送してもよい。   In addition, for example, in the third case, when it is determined that the determination performance of the second discriminator 6B is worse than that of the first discriminator 5B, the control unit 11 receives the second received from the learning device 2B. Transfer of the discriminator 6B to the discriminator 3B may be prohibited, and a command for using the first discriminator 5B may be transmitted to the discriminator 3B. On the other hand, when it determines with the determination performance of the 2nd discriminator 6B not having deteriorated compared with the 1st discriminator 5B, the control part 11 uses the 2nd discriminator 6B received from the learning apparatus 2B for the discriminator 3B. It may be transferred.

<識別装置>
識別装置3Bの制御部31は、ステップS301では、制御部31は、対象データ取得部311として動作し、識別する対象となる特徴を含む対象データ321Bを取得する。本変形例では、制御部31は、外部インタフェース34を介して計測装置41Bから対象データ321Bを取得する。ただし、対象データ321Bを取得する経路は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。
<Identification device>
In step S301, the control unit 31 of the identification device 3B operates as the target data acquisition unit 311 and acquires target data 321B including features to be identified. In the present modification, the control unit 31 acquires the target data 321B from the measurement device 41B via the external interface 34. However, the route for acquiring the target data 321B may not be limited to such an example, and may be appropriately selected according to the embodiment.

ステップS302では、制御部31は、特徴判定部312Bとして動作し、第1識別器5B又は第2識別器6Bを利用して、対象データ321Bに含まれる特徴を判定する。利用する識別器は、上記ステップS204における性能の評価結果に基づいて決定される。すなわち、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化していると判定された場合には、制御部31は、第1識別器5Bを利用して対象データ321Bに含まれる特徴を判定する。一方、第2識別器6Bの判定性能が第1識別器5Bと比べて悪化していないと判定された場合には、制御部31は、第2識別器6Bを利用して対象データ321Bに含まれる特徴を判定する。   In step S302, the control unit 31 operates as the feature determination unit 312B, and determines the feature included in the target data 321B using the first discriminator 5B or the second discriminator 6B. The classifier to be used is determined based on the performance evaluation result in step S204. That is, when it is determined that the determination performance of the second discriminator 6B is worse than that of the first discriminator 5B, the control unit 31 includes the target data 321B using the first discriminator 5B. Determine the features that will be used. On the other hand, when it is determined that the determination performance of the second discriminator 6B has not deteriorated compared to the first discriminator 5B, the control unit 31 uses the second discriminator 6B to be included in the target data 321B. Determine the features that will be used.

第1識別器5Bを利用する場合、制御部31は、第1学習結果データ224Bを参照して、学習済みの第1識別器5Bの設定を行う。続いて、制御部31は、取得した対象データ321Bを第1識別器5Bに入力して、第1識別器5Bの演算処理を実行することで、第1識別器5Bから出力値を取得する。そして、制御部31は、第1識別器5Bから取得した出力値に基づいて、対象データ321Bに含まれる特徴を判定する。当該判定は、上記実施形態と同様に行われてよい。   When the first discriminator 5B is used, the control unit 31 sets the learned first discriminator 5B with reference to the first learning result data 224B. Subsequently, the control unit 31 acquires the output value from the first discriminator 5B by inputting the acquired target data 321B to the first discriminator 5B and executing the arithmetic processing of the first discriminator 5B. And the control part 31 determines the characteristic contained in the object data 321B based on the output value acquired from the 1st discriminator 5B. The determination may be performed in the same manner as in the above embodiment.

同様に、第2識別器6Bを利用する場合、制御部31は、第2学習結果データ229Bを参照して、学習済みの第2識別器6Bの設定を行う。続いて、制御部31は、取得した対象データ321Bを第2識別器6Bに入力して、第2識別器6Bの演算処理を実行することで、第2識別器6Bから出力値を取得する。そして、制御部31は、第2識別器6Bから取得した出力値に基づいて、対象データ321Bに含まれる特徴を判定する。   Similarly, when using the second discriminator 6B, the control unit 31 sets the learned second discriminator 6B with reference to the second learning result data 229B. Subsequently, the control unit 31 acquires the output value from the second discriminator 6B by inputting the acquired target data 321B to the second discriminator 6B and executing the arithmetic processing of the second discriminator 6B. And the control part 31 determines the characteristic contained in the object data 321B based on the output value acquired from the 2nd discriminator 6B.

ステップS303では、制御部31は、出力部313として動作し、対象データ321Bに含まれる特徴を判定した結果を出力する。判定した結果の出力形式は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、制御部31は、対象データ321Bに含まれる特徴を判定した結果をそのまま出力装置36から出力してもよい。また、例えば、制御部31は、判定結果に応じて所定の出力処理を実行してもよい。具体例として、対象データ321Bが音データであり、音データの特徴として機械の異音が含まれるか否かを判定するケースでは、制御部31は、対象データ321Bに機械の異音が含まれると判定したときに、その機械の管理者の携帯端末にそのことを警告する電子メールの送信を当該出力処理として行ってもよい。   In step S303, the control unit 31 operates as the output unit 313, and outputs the result of determining the features included in the target data 321B. The output format of the determined result is not particularly limited and may be appropriately selected according to the embodiment. For example, the control unit 31 may output the result of determining the feature included in the target data 321B as it is from the output device 36. Further, for example, the control unit 31 may execute a predetermined output process according to the determination result. As a specific example, in the case where the target data 321B is sound data and it is determined whether or not machine noise is included as a feature of the sound data, the control unit 31 includes machine noise in the target data 321B. When it is determined that, the output of the electronic mail that warns the portable terminal of the manager of the machine is also possible.

以上により、本変形例では、再学習又は追加学習により第2識別器6Bの識別性能が第1識別器5Bよりも悪化してしまった場合でも、対象のデータに表れる特徴を判定する処理の信頼性が損なわれてしまうのを防止することができる。   As described above, in the present modification, even when the discrimination performance of the second discriminator 6B is worse than that of the first discriminator 5B due to re-learning or additional learning, the reliability of the process for determining the feature appearing in the target data It is possible to prevent the performance from being impaired.

1…識別器評価装置、
11…制御部、12…記憶部、13…通信インタフェース、
14…入力装置、15…出力装置、16…ドライブ、
81…評価プログラム、91…記憶媒体、
111…評価データ取得部、112…第1評価部、
113…第2評価部、114…性能判定部、115…出力部、
121…評価用データセット、
122…評価用画像データ、123…正解データ、
2…学習装置、
21…制御部、22…記憶部、23…通信インタフェース、
24…入力装置、25…出力装置、26…ドライブ、
82…学習プログラム、92…記憶媒体、
211…学習データ取得部、212…学習処理部、
221…第1学習データ、
222…画像データ、223…正解データ、
224…第1学習結果データ、
226…第2学習データ、
227…追加の画像データ、228…正解データ、
229…第2学習結果データ、
3…検査装置、
31…制御部、32…記憶部、33…通信インタフェース、
34…外部インタフェース、
35…入力装置、36…出力装置、37…ドライブ、
83…検査プログラム、93…記憶媒体、
311…対象データ取得部、312…良否判定部、
313…出力部、
321…対象画像データ、
41…カメラ、
5…第1識別器、
51…入力層、52…中間層(隠れ層)、53…出力層、
6…第2識別器、
61…入力層、62…中間層(隠れ層)、63…出力層
1 ... Classifier evaluation device,
11 ... Control unit, 12 ... Storage unit, 13 ... Communication interface,
14 ... input device, 15 ... output device, 16 ... drive,
81 ... evaluation program, 91 ... storage medium,
111 ... Evaluation data acquisition unit, 112 ... First evaluation unit,
113 ... 2nd evaluation part, 114 ... Performance determination part, 115 ... Output part,
121 ... evaluation data set,
122 ... image data for evaluation, 123 ... correct data,
2 ... Learning device,
21 ... Control unit, 22 ... Storage unit, 23 ... Communication interface,
24 ... Input device, 25 ... Output device, 26 ... Drive,
82 ... Learning program, 92 ... Storage medium,
211 ... a learning data acquisition unit, 212 ... a learning processing unit,
221 ... 1st learning data,
222: Image data, 223: Correct data,
224 ... 1st learning result data,
226 ... second learning data,
227 ... additional image data, 228 ... correct data,
229 ... second learning result data,
3 ... Inspection device,
31 ... Control unit, 32 ... Storage unit, 33 ... Communication interface,
34 ... External interface,
35 ... Input device, 36 ... Output device, 37 ... Drive,
83 ... Inspection program, 93 ... Storage medium,
311 ... Target data acquisition unit, 312 ... Pass / fail judgment unit,
313: Output unit,
321 ... target image data,
41 ... Camera,
5 ... 1st discriminator,
51 ... Input layer, 52 ... Intermediate layer (hidden layer), 53 ... Output layer,
6 ... second discriminator,
61 ... Input layer, 62 ... Intermediate layer (hidden layer), 63 ... Output layer

Claims (14)

製品の良否を検査する検査システムであって、
前記製品の写る評価用画像データ、及び前記評価用画像データに写る前記製品の良否の判定に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得する評価データ取得部と、
各件の評価用データセットについて、前記製品の良否を学習するための画像データで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用画像データを入力し、前記第1識別器から得られる出力に基づいて前記評価用画像データに写る前記製品の良否を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価する第1評価部と、
各件の評価用データセットについて、前記第1学習データ及び前記製品の良否を学習するための追加の画像データで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用画像データを入力し、前記第2識別器から得られる出力に基づいて前記評価用画像データに写る前記製品の良否を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価する第2評価部と、
前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定する性能判定部と、
検査の対象となる前記製品の写る対象画像データを取得する対象データ取得部と、
前記第2識別器の判定性能が前記第1識別器と比べて悪化していると判定した場合には、前記第1識別器を利用して前記対象画像データに写る前記製品の良否を判定し、前記第2識別器の判定性能が前記第1識別器と比べて悪化していないと判定した場合には、前記第2識別器を利用して前記対象画像データに写る前記製品の良否を判定する良否判定部と、
を備える、
検査システム。
An inspection system for inspecting product quality,
Evaluation data acquisition unit for acquiring a plurality of evaluation data sets each composed of a combination of evaluation image data showing the product and correct data indicating correct answers to the quality determination of the product shown in the evaluation image data When,
For each evaluation data set, the evaluation image data is input to a first discriminator constructed by machine learning using first learning data composed of image data for learning the quality of the product. The determination performance of the first discriminator is obtained by comparing the result of determining the quality of the product shown in the image data for evaluation based on the output obtained from the first discriminator with the correct answer indicated by the correct data. A first evaluation unit for evaluating
For each evaluation data set, a second classifier constructed by machine learning using second learning data composed of the first learning data and additional image data for learning the quality of the product By inputting the evaluation image data and collating the result of determining the quality of the product shown in the evaluation image data based on the output obtained from the second discriminator with the correct answer indicated by the correct data, A second evaluation unit for evaluating the determination performance of the second classifier;
A performance determination unit that determines whether or not the determination performance of the second classifier is worse than that of the first classifier based on the result of the evaluation on the first classifier and the second classifier; ,
A target data acquisition unit that acquires target image data of the product to be inspected;
When it is determined that the determination performance of the second classifier is worse than that of the first classifier, the quality of the product reflected in the target image data is determined using the first classifier. When it is determined that the determination performance of the second classifier is not deteriorated as compared with the first classifier, the quality of the product reflected in the target image data is determined using the second classifier. A pass / fail judgment unit,
Comprising
Inspection system.
前記第1評価部は、前記複数件の評価用データセットに対して、前記第1識別器から得られる出力に基づいて前記評価用画像データに写る前記製品の良否を判定した結果が前記正解データの示す正解と一致している比率を算出することで、前記第1識別器の判定性能を評価し、
前記第2評価部は、前記複数件の評価用データセットに対して、前記第2識別器から得られる出力に基づいて前記評価用画像データに写る前記製品の良否を判定した結果が前記正解データの示す正解と一致している比率を算出することで、前記第2識別器の判定性能を評価する、
請求項1に記載の検査システム。
The first evaluation unit determines the quality of the product reflected in the evaluation image data based on an output obtained from the first discriminator for the plurality of evaluation data sets. To evaluate the determination performance of the first discriminator by calculating a ratio that matches the correct answer indicated by
The second evaluation unit determines the quality of the product reflected in the evaluation image data based on an output obtained from the second discriminator for the plurality of evaluation data sets. To evaluate the determination performance of the second discriminator by calculating a ratio that matches the correct answer indicated by
The inspection system according to claim 1.
前記各件の評価用データセットには、前記判定性能に寄与する度合いを示す重みが設定されている、
請求項1又は2に記載の検査システム。
In each of the evaluation data sets, a weight indicating a degree of contribution to the determination performance is set.
The inspection system according to claim 1 or 2.
前記複数件の評価用データセットは、前記評価用画像データに写る前記製品の良否の判定を誤ってはいけないものとして設定される禁忌データセットを含み、
前記性能判定部は、前記第1識別器から得られる出力に基づいて前記禁忌データセットの前記評価用画像データに写る前記製品の良否を判定した結果が前記正解データの示す正解と一致しているのに対して、前記第2識別器から得られる出力に基づいて前記禁忌データセットの前記評価用画像データに写る前記製品の良否を判定した結果が前記正解データの示す正解と一致していない場合、前記第2識別器の判定性能が前記第1識別器と比べて悪化していると判定する、
請求項1から3のいずれか1項に記載の検査システム。
The plurality of evaluation data sets include a contraindication data set that is set so that the product quality in the evaluation image data should not be erroneously determined,
The performance determination unit determines whether the product shown in the evaluation image data in the contraindication data set is good or bad based on an output obtained from the first discriminator, and matches a correct answer indicated by the correct data. On the other hand, the result of determining the quality of the product shown in the evaluation image data of the contraindication data set based on the output obtained from the second discriminator does not match the correct answer indicated by the correct data The determination performance of the second classifier is determined to be worse than that of the first classifier.
The inspection system according to any one of claims 1 to 3.
前記評価データ取得部は、前記製品の良否を検査する環境において、前記評価用画像データを取得する、
請求項1から4のいずれか1項に記載の検査システム。
The evaluation data acquisition unit acquires the evaluation image data in an environment for inspecting the quality of the product.
The inspection system according to any one of claims 1 to 4.
製品の写る評価用画像データ、及び前記評価用画像データに写る前記製品の良否の判定に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得する評価データ取得部と、
各件の評価用データセットについて、前記製品の良否を学習するための画像データで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用画像データを入力し、前記第1識別器から得られる出力に基づいて前記評価用画像データに写る前記製品の良否を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価する第1評価部と、
各件の評価用データセットについて、前記第1学習データ及び前記製品の良否を学習するための追加の画像データで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用画像データを入力し、前記第2識別器から得られる出力に基づいて前記評価用画像データに写る前記製品の良否を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価する第2評価部と、
前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定する性能判定部と、
前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定した結果を出力する出力部と、
を備える、
識別器評価装置。
An evaluation data acquisition unit for acquiring a plurality of evaluation data sets each composed of a combination of evaluation image data showing a product, and correct data indicating a correct answer to the quality determination of the product shown in the evaluation image data; ,
For each evaluation data set, the evaluation image data is input to a first discriminator constructed by machine learning using first learning data composed of image data for learning the quality of the product. The determination performance of the first discriminator is obtained by comparing the result of determining the quality of the product shown in the image data for evaluation based on the output obtained from the first discriminator with the correct answer indicated by the correct data. A first evaluation unit for evaluating
For each evaluation data set, a second classifier constructed by machine learning using second learning data composed of the first learning data and additional image data for learning the quality of the product By inputting the evaluation image data and collating the result of determining the quality of the product shown in the evaluation image data based on the output obtained from the second discriminator with the correct answer indicated by the correct data, A second evaluation unit for evaluating the determination performance of the second classifier;
A performance determination unit that determines whether or not the determination performance of the second classifier is worse than that of the first classifier based on the result of the evaluation on the first classifier and the second classifier; ,
An output unit for outputting a result of determining whether or not the determination performance of the second classifier is deteriorated as compared with the first classifier;
Comprising
Discriminator evaluation device.
評価用画像データ、及び前記評価用画像データに写る被写体の状態の識別に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得する評価データ取得部と、
各件の評価用データセットについて、前記被写体の状態を識別する学習を行うための画像データで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用画像データを入力し、前記第1識別器から得られる出力に基づいて前記評価用画像データに写る前記被写体の状態を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価する第1評価部と、
各件の評価用データセットについて、前記第1学習データ及び前記被写体の状態を識別する学習を行うための追加の画像データで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用画像データを入力し、前記第2識別器から得られる出力に基づいて前記評価用画像データに写る前記被写体の状態を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価する第2評価部と、
前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定する性能判定部と、
状態を識別する対象となる前記被写体の写る対象画像データを取得する対象データ取得部と、
前記第2識別器の判定性能が前記第1識別器と比べて悪化していると判定した場合には、前記第1識別器を利用して前記対象画像データに写る前記被写体の状態を判定し、前記第2識別器の判定性能が前記第1識別器と比べて悪化していないと判定した場合には、前記第2識別器を利用して前記対象画像データに写る前記被写体の状態を判定する状態判定部と、
を備える、
識別システム。
An evaluation data acquisition unit that acquires a plurality of evaluation data sets each configured by a combination of evaluation image data and correct data indicating a correct answer to identification of the state of the subject in the evaluation image data;
For each evaluation data set, the evaluation image data is stored in a first discriminator constructed by machine learning using first learning data composed of image data for performing learning for identifying the state of the subject. And comparing the result of determining the state of the subject shown in the evaluation image data with the correct answer indicated by the correct data based on the output obtained from the first discriminator. A first evaluation unit for evaluating the determination performance of
For each evaluation data set, a second constructed by machine learning using second learning data composed of the first learning data and additional image data for performing learning for identifying the state of the subject. The evaluation image data is input to the discriminator, and the result of determining the state of the subject in the evaluation image data based on the output obtained from the second discriminator is compared with the correct answer indicated by the correct data. A second evaluation unit for evaluating the determination performance of the second discriminator;
A performance determination unit that determines whether or not the determination performance of the second classifier is worse than that of the first classifier based on the result of the evaluation on the first classifier and the second classifier; ,
A target data acquisition unit that acquires target image data in which the subject to be identified is captured;
When it is determined that the determination performance of the second classifier is worse than that of the first classifier, the state of the subject in the target image data is determined using the first classifier. When it is determined that the determination performance of the second classifier is not deteriorated as compared with the first classifier, the state of the subject in the target image data is determined using the second classifier. A state determination unit to perform,
Comprising
Identification system.
評価用画像データ、及び前記評価用画像データに写る被写体の状態の識別に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得する評価データ取得部と、
各件の評価用データセットについて、前記被写体の状態を識別する学習を行うための画像データで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用画像データを入力し、前記第1識別器から得られる出力に基づいて前記評価用画像データに写る前記被写体の状態を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価する第1評価部と、
各件の評価用データセットについて、前記第1学習データ及び前記被写体の状態を識別する学習を行うための追加の画像データで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用画像データを入力し、前記第2識別器から得られる出力に基づいて前記評価用画像データに写る前記被写体の状態を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価する第2評価部と、
前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定する性能判定部と、
前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定した結果を出力する出力部と、
を備える、
識別器評価装置。
An evaluation data acquisition unit that acquires a plurality of evaluation data sets each configured by a combination of evaluation image data and correct data indicating a correct answer to identification of the state of the subject in the evaluation image data;
For each evaluation data set, the evaluation image data is stored in a first discriminator constructed by machine learning using first learning data composed of image data for performing learning for identifying the state of the subject. And comparing the result of determining the state of the subject shown in the evaluation image data with the correct answer indicated by the correct data based on the output obtained from the first discriminator. A first evaluation unit for evaluating the determination performance of
For each evaluation data set, a second constructed by machine learning using second learning data composed of the first learning data and additional image data for performing learning for identifying the state of the subject. The evaluation image data is input to the discriminator, and the result of determining the state of the subject in the evaluation image data based on the output obtained from the second discriminator is compared with the correct answer indicated by the correct data. A second evaluation unit for evaluating the determination performance of the second discriminator;
A performance determination unit that determines whether or not the determination performance of the second classifier is worse than that of the first classifier based on the result of the evaluation on the first classifier and the second classifier; ,
An output unit for outputting a result of determining whether or not the determination performance of the second classifier is deteriorated as compared with the first classifier;
Comprising
Discriminator evaluation device.
評価用データ、及び前記評価用データに含まれる特徴の識別に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得する評価データ取得部と、
各件の評価用データセットについて、前記特徴を識別する学習を行うためのデータで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用データを入力し、前記第1識別器から得られる出力に基づいて前記評価用データに含まれる前記特徴を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価する第1評価部と、
各件の評価用データセットについて、前記第1学習データ及び前記特徴を識別する学習を行うための追加のデータで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用データを入力し、前記第2識別器から得られる出力に基づいて前記評価用データに含まれる前記特徴を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価する第2評価部と、
前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定する性能判定部と、
識別する対象となる特徴を含む対象データを取得する対象データ取得部と、
前記第2識別器の判定性能が前記第1識別器と比べて悪化していると判定した場合には、前記第1識別器を利用して前記対象データに含まれる前記特徴を判定し、前記第2識別器の判定性能が前記第1識別器と比べて悪化していないと判定した場合には、前記第2識別器を利用して前記対象データに含まれる前記特徴を判定する特徴判定部と、
を備える、
識別システム。
An evaluation data acquisition unit that acquires a plurality of evaluation data sets each configured by a combination of evaluation data and correct data indicating correct answers for identification of features included in the evaluation data;
For each evaluation data set, the evaluation data is input to a first discriminator constructed by machine learning using first learning data composed of data for performing learning for identifying the features, The determination performance of the first discriminator is evaluated by checking the result of determining the feature included in the evaluation data based on the output obtained from the first discriminator and the correct answer indicated by the correct data. A first evaluation unit;
For each evaluation data set, a second discriminator constructed by machine learning using second learning data composed of additional data for performing learning for identifying the first learning data and the feature By inputting the evaluation data and collating a result of determining the feature included in the evaluation data based on an output obtained from the second discriminator with a correct answer indicated by the correct data, the second A second evaluation unit for evaluating the determination performance of the classifier;
A performance determination unit that determines whether or not the determination performance of the second classifier is worse than that of the first classifier based on the result of the evaluation on the first classifier and the second classifier; ,
A target data acquisition unit that acquires target data including features to be identified;
If it is determined that the determination performance of the second classifier is worse than that of the first classifier, the feature included in the target data is determined using the first classifier, When it is determined that the determination performance of the second classifier is not deteriorated as compared with the first classifier, a feature determination unit that determines the feature included in the target data using the second classifier When,
Comprising
Identification system.
前記第1評価部は、前記複数件の評価用データセットに対して、前記第1識別器から得られる出力に基づいて前記評価用データに含まれる前記特徴を判定した結果が前記正解データの示す正解と一致している比率を算出することで、前記第1識別器の判定性能を評価し、
前記第2評価部は、前記複数件の評価用データセットに対して、前記第2識別器から得られる出力に基づいて前記評価用データに含まれる前記特徴を判定した結果が前記正解データの示す正解と一致している比率を算出することで、前記第2識別器の判定性能を評価する、
請求項9に記載の識別システム。
The first evaluation unit indicates a result of determining the feature included in the evaluation data based on an output obtained from the first discriminator for the plurality of evaluation data sets. By calculating the ratio that matches the correct answer, the determination performance of the first discriminator is evaluated,
The second evaluation unit indicates a result of determining the feature included in the evaluation data based on an output obtained from the second discriminator with respect to the plurality of evaluation data sets. Evaluating the determination performance of the second discriminator by calculating a ratio that matches the correct answer,
The identification system according to claim 9.
前記各件の評価用データセットには、前記判定性能に寄与する度合いを示す重みが設定されている、
請求項9又は10に記載の識別システム。
In each of the evaluation data sets, a weight indicating a degree of contribution to the determination performance is set.
The identification system according to claim 9 or 10.
前記複数件の評価用データセットは、前記評価用データに含まれる前記特徴の判定を誤ってはいけないものとして設定される禁忌データセットを含み、
前記性能判定部は、前記第1識別器から得られる出力に基づいて前記禁忌データセットの前記評価用データに含まれる前記特徴を判定した結果が前記正解データの示す正解と一致しているのに対して、前記第2識別器から得られる出力に基づいて前記禁忌データセットの前記評価用データに含まれる前記特徴を判定した結果が前記正解データの示す正解と一致していない場合、前記第2識別器の判定性能が前記第1識別器と比べて悪化していると判定する、
請求項9から11のいずれか1項に記載の識別システム。
The plurality of evaluation data sets include a contraindication data set that is set as an error in determining the characteristics included in the evaluation data,
The performance determination unit determines that the feature included in the evaluation data of the contraindication data set is based on an output obtained from the first discriminator and matches a correct answer indicated by the correct data. On the other hand, if the result of determining the feature included in the evaluation data of the contraindication data set based on the output obtained from the second discriminator does not match the correct answer indicated by the correct data, the second It is determined that the determination performance of the discriminator is worse than that of the first discriminator
The identification system according to any one of claims 9 to 11.
前記評価データ取得部は、前記対象データに含まれる前記特徴を判定する環境において、前記評価用データを取得する、
請求項9から12のいずれか1項に記載の識別システム。
The evaluation data acquisition unit acquires the evaluation data in an environment for determining the feature included in the target data.
The identification system according to any one of claims 9 to 12.
評価用データ、及び前記評価用データに含まれる特徴の識別に対する正解を示す正解データの組み合わせによりそれぞれ構成される複数件の評価用データセットを取得する評価データ取得部と、
各件の評価用データセットについて、前記特徴を識別する学習を行うためのデータで構成された第1学習データを利用した機械学習により構築された第1識別器に前記評価用データを入力し、前記第1識別器から得られる出力に基づいて前記評価用データに含まれる前記特徴を判定した結果と前記正解データの示す正解とを照合することで、前記第1識別器の判定性能を評価する第1評価部と、
各件の評価用データセットについて、前記第1学習データ及び前記特徴を識別する学習を行うための追加のデータで構成された第2学習データを利用した機械学習により構築された第2識別器に前記評価用データを入力し、前記第2識別器から得られる出力に基づいて前記評価用データに含まれる前記特徴を判定した結果と前記正解データの示す正解とを照合することで、前記第2識別器の判定性能を評価する第2評価部と、
前記第1識別器及び前記第2識別器に対する前記評価の結果に基づいて、前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定する性能判定部と、
前記第2識別器の判定性能が前記第1識別器と比べて悪化しているか否かを判定した結果を出力する出力部と、
を備える、
識別器評価装置。
An evaluation data acquisition unit that acquires a plurality of evaluation data sets each configured by a combination of evaluation data and correct data indicating correct answers for identification of features included in the evaluation data;
For each evaluation data set, the evaluation data is input to a first discriminator constructed by machine learning using first learning data composed of data for performing learning for identifying the features, The determination performance of the first discriminator is evaluated by checking the result of determining the feature included in the evaluation data based on the output obtained from the first discriminator and the correct answer indicated by the correct data. A first evaluation unit;
For each evaluation data set, a second discriminator constructed by machine learning using second learning data composed of additional data for performing learning for identifying the first learning data and the feature By inputting the evaluation data and collating a result of determining the feature included in the evaluation data based on an output obtained from the second discriminator with a correct answer indicated by the correct data, the second A second evaluation unit for evaluating the determination performance of the classifier;
A performance determination unit that determines whether or not the determination performance of the second classifier is worse than that of the first classifier based on the result of the evaluation on the first classifier and the second classifier; ,
An output unit for outputting a result of determining whether or not the determination performance of the second classifier is deteriorated as compared with the first classifier;
Comprising
Discriminator evaluation device.
JP2018047255A 2018-03-14 2018-03-14 Inspection system, identification system, and classifier evaluation device Active JP7056259B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018047255A JP7056259B2 (en) 2018-03-14 2018-03-14 Inspection system, identification system, and classifier evaluation device
PCT/JP2019/010178 WO2019176988A1 (en) 2018-03-14 2019-03-13 Inspection system, identification system, and device for evaluating identification apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018047255A JP7056259B2 (en) 2018-03-14 2018-03-14 Inspection system, identification system, and classifier evaluation device

Publications (2)

Publication Number Publication Date
JP2019158684A true JP2019158684A (en) 2019-09-19
JP7056259B2 JP7056259B2 (en) 2022-04-19

Family

ID=67907914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018047255A Active JP7056259B2 (en) 2018-03-14 2018-03-14 Inspection system, identification system, and classifier evaluation device

Country Status (2)

Country Link
JP (1) JP7056259B2 (en)
WO (1) WO2019176988A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190189278A1 (en) * 2017-12-15 2019-06-20 Konica Minolta, Inc. Information processing device and information processing method
KR20210087874A (en) * 2020-01-02 2021-07-13 어플라이드 머티리얼즈 이스라엘 리미티드 Machine learning-based defect detection of a specimen
WO2021166441A1 (en) * 2020-02-21 2021-08-26 株式会社システムスクエア Inspection device and program
JP2023514466A (en) * 2019-12-20 2023-04-06 京東方科技集團股▲ふん▼有限公司 Inference computing device, model training device, and inference computing system
JP2024004458A (en) * 2022-06-28 2024-01-16 Ckd株式会社 Inspection equipment and PTP packaging machine
KR20250127335A (en) 2023-05-22 2025-08-26 야마하하쓰도키 가부시키가이샤 Anomaly estimation system and machine learning method for printed circuit boards

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005227054A (en) * 2004-02-12 2005-08-25 Jfe Steel Kk Species discrimination logic automatic design method and apparatus, and surface defect meter
WO2010050334A1 (en) * 2008-10-30 2010-05-06 コニカミノルタエムジー株式会社 Information processing device
JP2012026982A (en) * 2010-07-27 2012-02-09 Panasonic Electric Works Sunx Co Ltd Inspection device
JP2016109495A (en) * 2014-12-03 2016-06-20 タカノ株式会社 Classifier generation device, appearance inspection device, classifier generation method, and program
WO2017023416A1 (en) * 2015-07-31 2017-02-09 Northrop Grumman Systems Corporation System and method for in-situ classifier retraining for malware identification and model heterogeneity
WO2017216980A1 (en) * 2016-06-16 2017-12-21 株式会社日立製作所 Machine learning device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2321364A (en) * 1997-01-21 1998-07-22 Northern Telecom Ltd Retraining neural network
JP6061713B2 (en) * 2013-02-08 2017-01-18 本田技研工業株式会社 Inspection apparatus, inspection method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005227054A (en) * 2004-02-12 2005-08-25 Jfe Steel Kk Species discrimination logic automatic design method and apparatus, and surface defect meter
WO2010050334A1 (en) * 2008-10-30 2010-05-06 コニカミノルタエムジー株式会社 Information processing device
JP2012026982A (en) * 2010-07-27 2012-02-09 Panasonic Electric Works Sunx Co Ltd Inspection device
JP2016109495A (en) * 2014-12-03 2016-06-20 タカノ株式会社 Classifier generation device, appearance inspection device, classifier generation method, and program
WO2017023416A1 (en) * 2015-07-31 2017-02-09 Northrop Grumman Systems Corporation System and method for in-situ classifier retraining for malware identification and model heterogeneity
WO2017216980A1 (en) * 2016-06-16 2017-12-21 株式会社日立製作所 Machine learning device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11610676B2 (en) * 2017-12-15 2023-03-21 Konica Minolta, Inc. Information processing device and information processing method
US20190189278A1 (en) * 2017-12-15 2019-06-20 Konica Minolta, Inc. Information processing device and information processing method
US12236362B2 (en) 2019-12-20 2025-02-25 Boe Technology Group Co., Ltd. Inference computing apparatus, model training apparatus, inference computing system
JP7442550B2 (en) 2019-12-20 2024-03-04 京東方科技集團股▲ふん▼有限公司 Inference calculation device, model training device, and inference calculation system
JP2023514466A (en) * 2019-12-20 2023-04-06 京東方科技集團股▲ふん▼有限公司 Inference computing device, model training device, and inference computing system
KR102711218B1 (en) 2020-01-02 2024-09-30 어플라이드 머티리얼즈 이스라엘 리미티드 Machine learning-based defect detection of a specimen
KR20210087874A (en) * 2020-01-02 2021-07-13 어플라이드 머티리얼즈 이스라엘 리미티드 Machine learning-based defect detection of a specimen
JP7016179B2 (en) 2020-02-21 2022-02-04 株式会社 システムスクエア Inspection equipment and programs
JP2021131364A (en) * 2020-02-21 2021-09-09 株式会社 システムスクエア Inspection device and program
WO2021166441A1 (en) * 2020-02-21 2021-08-26 株式会社システムスクエア Inspection device and program
JP2024004458A (en) * 2022-06-28 2024-01-16 Ckd株式会社 Inspection equipment and PTP packaging machine
JP7664966B2 (en) 2022-06-28 2025-04-18 Ckd株式会社 Inspection equipment and PTP packaging machines
KR20250127335A (en) 2023-05-22 2025-08-26 야마하하쓰도키 가부시키가이샤 Anomaly estimation system and machine learning method for printed circuit boards

Also Published As

Publication number Publication date
WO2019176988A1 (en) 2019-09-19
JP7056259B2 (en) 2022-04-19

Similar Documents

Publication Publication Date Title
CN109978817B (en) Information processing device, identification system, setting method and storage medium
JP6924413B2 (en) Data generator, data generation method and data generation program
JP7056259B2 (en) Inspection system, identification system, and classifier evaluation device
US11715190B2 (en) Inspection system, image discrimination system, discrimination system, discriminator generation system, and learning data generation device
CN111758117B (en) Inspection system, identification system and learning data generation device
CN109060817B (en) Artificial intelligence review system and method
WO2019176990A1 (en) Inspection device, image discriminating device, discriminating device, inspection method, and inspection program
WO2019214309A1 (en) Model test method and device
CN111459922A (en) User identification method, device, device and storage medium
JP2016133895A (en) Information processing apparatus, information processing method, and program
JP2020060879A (en) Learning device, image generator, method for learning, and learning program
JP2021086379A (en) Information processing apparatus, information processing method, program, and method of generating learning model
JP7059889B2 (en) Learning device, image generator, learning method, and learning program
KR102232880B1 (en) Method for evaluating inspector of crowdsourcing based projects for collecting image or video for artificial intelligence training data generation
CN117372428A (en) Wafer defect detection method and device, electronic equipment and storage medium
CN116881117A (en) Test case coverage rate evaluation method, device, computer equipment and storage medium
CN111760292A (en) Detection method, device and electronic equipment for sampling data
CN113554645A (en) Industrial Anomaly Detection Method and Device Based on WGAN
JP7584073B2 (en) IMAGE JUDGMENT DEVICE, IMAGE JUDGMENT METHOD, AND PROGRAM
CN116366325A (en) A Method of Building Anomaly Detection Model Based on Terminal Security Situation Data
CN115048290A (en) Software quality evaluation method and device, storage medium and computer equipment
CN114355234A (en) Intelligent quality detection method and system for power module
JP2022088886A (en) Methods for estimating the correctness of labels in labeled inspection data, information processing equipment, and computer programs
CN111160454B (en) Quick change signal detection method and device
WO2024181307A1 (en) Information processing system and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220321

R150 Certificate of patent or registration of utility model

Ref document number: 7056259

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150