[go: up one dir, main page]

JP2023015768A - Model evaluation method and model evaluation system - Google Patents

Model evaluation method and model evaluation system Download PDF

Info

Publication number
JP2023015768A
JP2023015768A JP2021119733A JP2021119733A JP2023015768A JP 2023015768 A JP2023015768 A JP 2023015768A JP 2021119733 A JP2021119733 A JP 2021119733A JP 2021119733 A JP2021119733 A JP 2021119733A JP 2023015768 A JP2023015768 A JP 2023015768A
Authority
JP
Japan
Prior art keywords
model
data
evaluation
properties
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021119733A
Other languages
Japanese (ja)
Other versions
JP7713224B2 (en
Inventor
陸 藤元
Riku Fujimoto
明洋 庵原
Akihiro IOHARA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Datagrid Inc
Original Assignee
Datagrid Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Datagrid Inc filed Critical Datagrid Inc
Priority to JP2021119733A priority Critical patent/JP7713224B2/en
Publication of JP2023015768A publication Critical patent/JP2023015768A/en
Application granted granted Critical
Publication of JP7713224B2 publication Critical patent/JP7713224B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To improve the accuracy of model evaluation performed by a detection AI.SOLUTION: There is provided a model evaluation method for an object model outputting output data according to input data, and includes the steps of: acquiring a plurality of properties related to the input data of the object model; acquiring an evaluation index for evaluating the object model and acquiring an evaluation index related to the plurality of properties; and outputting index specification data for specifying an evaluation index corresponding to a predetermined condition based on the plurality of properties.SELECTED DRAWING: Figure 1

Description

本発明は、モデル評価方法およびモデル評価システムに関する。 The present invention relates to a model evaluation method and a model evaluation system.

「表示装置など多様な電子機器の製造工程で取得したセンサデータを機械学習モデルに適用して不良状態または欠陥を検知または予測する」ことが知られている(例えば、特許文献1参照)。
特許文献1 特開2020-126601号公報
It is known to "apply sensor data acquired in the manufacturing process of various electronic devices such as display devices to a machine learning model to detect or predict a defective state or defect" (see, for example, Patent Document 1).
Patent Document 1 Japanese Patent Application Laid-Open No. 2020-126601

検知AIのモデル評価精度を向上することが好ましい。 It is preferable to improve the model evaluation accuracy of detection AI.

本発明の第1の態様においては、入力データに応じた出力データを出力する対象モデルのモデル評価方法であって、対象モデルの入力データに関する複数のプロパティを取得する段階と、対象モデルを評価するための評価指標を取得する段階であって、複数のプロパティに関連する評価指標を取得する段階と、複数のプロパティに基づいて、予め定められた条件に該当する評価指標を特定するための指標特定データを出力する段階とを備えるモデル評価方法を提供する。 According to a first aspect of the present invention, there is provided a model evaluation method for a target model that outputs output data according to input data, comprising: obtaining a plurality of properties relating to the input data of the target model; and evaluating the target model. a step of acquiring evaluation indicators for a property, the step of acquiring evaluation indicators related to a plurality of properties; and outputting data.

指標特定データは、予め定められた条件に該当した評価指標に対応する入力データのサンプルデータを含んでよい。 The index identification data may include sample data of input data corresponding to evaluation indices that meet predetermined conditions.

指標特定データは、予め定められた条件に該当した評価指標に対応するプロパティの値の範囲を含んでよい。 The index identification data may include a property value range corresponding to the evaluation index that satisfies a predetermined condition.

モデル評価方法は、複数のプロパティの変化に応じた評価指標の分布を取得する段階を備えてよい。 The model evaluation method may comprise obtaining distributions of evaluation indices according to changes in a plurality of properties.

予め定められた条件に該当する評価指標は、評価指標の分布の極値または極値から予め定められた範囲の評価指標であってよい。 An evaluation index that satisfies a predetermined condition may be an extreme value of the evaluation index distribution or an evaluation index within a predetermined range from the extreme value.

指標特定データは、予め定められた基準を満たさない、改善すべき評価指標を特定するための情報であってよい。 The index identification data may be information for identifying evaluation indexes to be improved that do not satisfy predetermined criteria.

モデル評価方法は、複数のプロパティの任意のプロパティ毎に、評価指標を出力する段階を備えてよい。 The model evaluation method may comprise outputting an evaluation metric for each arbitrary property of the plurality of properties.

複数のプロパティは、値が連続的に変化する連続変化プロパティを含んでよい。 The plurality of properties may include continuously changing properties whose values change continuously.

連続変化プロパティは、対象モデルの入力データにおける、検知対象の位置、検知対象の形状、検知対象の色、光源位置または光源強度の少なくとも1つを示してよい。 The continuously changing property may indicate at least one of the position of the sensing target, the shape of the sensing target, the color of the sensing target, the light source position or the light source intensity in the input data of the target model.

複数のプロパティは、値が連続的に変化しない非連続変化プロパティを含んでよい。 The multiple properties may include non-continuously varying properties whose values do not vary continuously.

非連続変化プロパティは、対象モデルの入力データにおける、検知対象のテクスチャ、入力画像、カテゴリまたはクラスの少なくとも1つを示してよい。 A non-continuously varying property may indicate at least one of a texture, an input image, a category, or a class to be detected in the input data of the target model.

モデル評価方法は、予め定められた拡張モデルを用いて、非連続変化プロパティの間を補完した補完データを生成する段階を備えてよい。モデル評価方法は、補完データを用いて対象モデルに学習処理を実行させる段階を備えてよい。 The model evaluation method may comprise generating imputed data interpolated between non-continuously varying properties using a predetermined extended model. The model evaluation method may comprise subjecting the target model to a learning process using the imputed data.

モデル評価方法は、複数のプロパティから対象モデルの評価対象としない評価非対象プロパティを指定する段階を備えてよい。モデル評価方法は、複数のプロパティから評価非対象プロパティを除外した評価対象プロパティに基づいて、複数のプロパティを組みわせたに応じた評価指標を取得する段階を備えてよい。 The model evaluation method may comprise specifying non-evaluation properties that are not to be evaluated for the target model from a plurality of properties. The model evaluation method may comprise obtaining an evaluation index according to a combination of multiple properties based on the properties to be evaluated excluding the properties not to be evaluated from the multiple properties.

対象モデルは、元データと、元データから拡張した拡張データに基づいて、学習されたモデルであってよい。 The target model may be a model learned based on original data and extended data extended from the original data.

モデル評価方法は、予め定められた条件に該当する評価指標に基づいて追加拡張データを生成する段階を備えてよい。モデル評価方法は、追加拡張データに基づいて、対象モデルの学習処理を実行する段階を備えてよい。 The model evaluation method may comprise generating additional augmented data based on evaluation metrics that meet predetermined conditions. The model evaluation method may comprise performing a training process for the target model based on the additional augmented data.

本発明の第2の態様においては、コンピュータに本発明の第1の態様に記載のモデル評価方法を実行させるためのプログラムを提供する。 A second aspect of the present invention provides a program for causing a computer to execute the model evaluation method according to the first aspect of the present invention.

本発明の第3の態様においては、入力データに応じた出力データを出力する対象モデルのモデル評価システムであって、対象モデルの入力データに関する複数のプロパティを取得するプロパティ取得部と、対象モデルを評価するための評価指標であって、複数のプロパティに関連する評価指標を取得する指標取得部と、複数のプロパティに基づいて、予め定められた条件に該当する評価指標を特定するための指標特定データを出力する出力部とを備えるモデル評価システムを提供する。 In a third aspect of the present invention, there is provided a model evaluation system for a target model that outputs output data according to input data, comprising: An index acquisition unit that acquires an evaluation index that is an evaluation index for evaluation and is related to a plurality of properties; and an output for outputting data.

なお、上記の発明の概要は、本発明の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not list all the features of the invention. Subcombinations of these feature groups can also be inventions.

モデル評価システム100の構成の概要を示す。An overview of the configuration of the model evaluation system 100 is shown. モデル評価システム100を用いた評価方法の一例である。It is an example of an evaluation method using the model evaluation system 100 . モデル評価システム100を用いた評価結果Erの一例である。It is an example of an evaluation result Er using the model evaluation system 100 . モデル評価システム100を用いた評価結果Erの変形例である。It is a modified example of the evaluation result Er using the model evaluation system 100. FIG. モデル評価システム100の変形例を示す。A modification of the model evaluation system 100 is shown. モデル評価システム100を用いた評価方法の一例である。It is an example of an evaluation method using the model evaluation system 100 . 拡張データDeの生成方法の一例を示す。An example of a method for generating extended data De will be shown. 拡張データDeの生成方法の一例を示す。An example of a method for generating extended data De will be shown. 拡張データDeの生成方法の一例を示す。An example of a method for generating extended data De will be shown. 非連続変化プロパティPdを含む評価結果Erの一例を示す。An example of an evaluation result Er including a discontinuous change property Pd is shown. モデル評価システム100の変形例を示す。A modification of the model evaluation system 100 is shown. モデル評価システム100を用いた評価方法の一例である。It is an example of an evaluation method using the model evaluation system 100 . 本発明の複数の態様が全体的又は部分的に具現化されてよいコンピュータ2200の例を示す。An example computer 2200 is shown in which aspects of the present invention may be embodied in whole or in part.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Also, not all combinations of features described in the embodiments are essential for the solution of the invention.

図1は、モデル評価システム100の構成の概要を示す。モデル評価システム100は、入力部10と、指標取得部20と、出力部30とを備える。本例の入力部10は、対象モデル取得部12と、プロパティ取得部14と、元データ取得部16とを有する。モデル評価システム100は、予め定められた対象モデルMtを評価して、評価結果Erを出力する。 FIG. 1 shows an overview of the configuration of a model evaluation system 100. As shown in FIG. The model evaluation system 100 includes an input unit 10 , an index acquisition unit 20 and an output unit 30 . The input unit 10 of this example has a target model acquisition unit 12 , a property acquisition unit 14 , and an original data acquisition unit 16 . The model evaluation system 100 evaluates a predetermined target model Mt and outputs an evaluation result Er.

対象モデル取得部12は、対象モデルMtの出力データを取得する。本例の対象モデル取得部12は、学習済みの対象モデルMtを有し、出力データを取得している。対象モデル取得部12は、対象モデルMtの学習処理を実行してよい。対象モデル取得部12は、対象モデルMtを有さず、外部に設けられた対象モデルMtから出力データを取得してもよい。 The target model acquisition unit 12 acquires output data of the target model Mt. The target model acquisition unit 12 of this example has a learned target model Mt and acquires output data. The target model acquisition unit 12 may execute learning processing for the target model Mt. The target model acquisition unit 12 may acquire output data from an externally provided target model Mt without having the target model Mt.

対象モデルMtは、予め定められた入力データに応じて、検知対象を検知した検知結果を出力する。対象モデルMtは、学習処理によって生成可能な検知AIであってよい。対象モデルMtの検知モデルの種類は特に限定されない。対象モデルMtは、物体検知モデルであってよく、セグメンテーションモデルであってよく、ラベル推定モデルであってもよい。 The target model Mt outputs a detection result of detecting a detection target in accordance with predetermined input data. The target model Mt may be a detection AI that can be generated by learning processing. The type of detection model of the target model Mt is not particularly limited. The target model Mt may be an object detection model, a segmentation model, or a label estimation model.

対象モデルMtの検知モデルは、画像検知モデル、音声検知モデル、動作検知モデル、文章判定モデル、映画分析モデルまたはプラント異常検知モデルのいずれかであってよい。顔検知モデルの場合、対象モデルMtは、入力された画像から、画像内の顔を含む方形領域の座標を取得してよい。不良検知モデルの場合、対象モデルMtは、検知対象の不良箇所の位置または形状を検知してよい。 The detection model of the target model Mt may be any one of an image detection model, an audio detection model, an action detection model, a sentence judgment model, a movie analysis model, or a plant anomaly detection model. In the case of the face detection model, the target model Mt may obtain the coordinates of the rectangular area containing the face in the image from the input image. In the case of the defect detection model, the target model Mt may detect the position or shape of the defect location to be detected.

プロパティ取得部14は、対象モデルMtの入力データに関するプロパティ情報Ipを取得する。プロパティ情報Ipは、指定されたプロパティPの種類およびプロパティPの値に関する情報を含む。モデル評価システム100は、プロパティ取得部14が指定したプロパティPの出力データに基づいて、対象モデルMtを評価してよい。 The property acquisition unit 14 acquires property information Ip regarding the input data of the target model Mt. The property information Ip includes information about the specified property P type and property P value. The model evaluation system 100 may evaluate the target model Mt based on the output data of the property P designated by the property acquisition unit 14 .

プロパティ情報Ipは、複数のプロパティPから評価対象として指定された評価対象プロパティを含んでもよいし、対象モデルMtの評価対象としない評価非対象プロパティを含んでもよい。プロパティ取得部14は、評価非対象プロパティを指定することにより、計算を簡略化してコストを削減できる。プロパティ取得部14は、ユーザからの入力に応じて評価するプロパティPを指定してもよい。 The property information Ip may include an evaluation target property specified as an evaluation target from a plurality of properties P, or may include an evaluation non-target property that is not an evaluation target of the target model Mt. The property acquisition unit 14 can simplify the calculation and reduce the cost by specifying the non-evaluation target property. The property acquisition unit 14 may specify the property P to be evaluated according to input from the user.

プロパティPの種類または値を指定することにより、特定の範囲を指定して対象モデルMtを評価することができる。プロパティ情報Ipは、検知対象プロパティ、背景プロパティ、または環境プロパティなどの任意の情報を含んでよい。また、プロパティ情報Ipは、検知対象のテクスチャに関する情報を含んでよく、モード(例えば、不良の種類)に関する情報を含んでよい。 By specifying the type or value of the property P, it is possible to specify a specific range and evaluate the target model Mt. The property information Ip may include any information such as sensing target properties, background properties, or environment properties. Also, the property information Ip may include information about the texture to be detected, and may include information about the mode (for example, the type of defect).

検知対象プロパティは、検知対象の人物性、性別、人種、年齢または顔の角度のような情報を含んでよい。背景プロパティは、検知対象が存在する場所を示す情報を含んでよい。環境プロパティは、照明条件、顔領域の障害物の有無(例えば、手、腕、メガネ、マスク、髪の毛または帽子など)、顔の解像度またはノイズ印加に関する情報を含んでよい。顔の解像度は、目の間の画素数に応じて算出されてよい。 The sensed object properties may include information such as the sensed person's identity, gender, race, age or face angle. The background property may include information indicating where the sensing target is located. Environmental properties may include information about lighting conditions, presence or absence of obstructions in the face region (eg, hands, arms, glasses, masks, hair or hats, etc.), face resolution or noise application. The face resolution may be calculated according to the number of pixels between the eyes.

プロパティ取得部14は、対象モデルMtを評価するためのプロパティPを取得する。プロパティ取得部14は、取得したプロパティPから、対象モデルMtを評価するためのサンプル点を指定してよい。サンプル点の指定方法は、グリッドサーチであってよく、ガウス過程回帰であってもよい。グリッドサーチを用いる場合、プロパティ取得部14は、各プロパティPの予め定められた範囲において、指定の間隔でサンプル点を指定してよい。また、ガウス過程回帰を用いる場合、グリッドサーチと比較してサンプル点を削減することができる。これにより、より効率的に網羅性および連続性を向上することができる。また、グリッドサーチやガウス過程回帰に限らず学習済みモデルを利用したサンプル点の指定方法を用いてもよい。 The property acquisition unit 14 acquires properties P for evaluating the target model Mt. The property acquisition unit 14 may specify sample points for evaluating the target model Mt from the acquired property P. FIG. A method of specifying sample points may be grid search or Gaussian process regression. When using the grid search, the property acquisition unit 14 may specify sample points at specified intervals in a predetermined range of each property P. FIG. Also, when using Gaussian process regression, sample points can be reduced compared to grid search. This makes it possible to improve comprehensiveness and continuity more efficiently. Also, a method of specifying sample points using a trained model may be used without being limited to grid search or Gaussian process regression.

元データ取得部16は、対象モデルMtに入力するための元データDoを取得する。元データDoは、対象モデルMtの学習用に用いられてもよい。元データDoは、検知対象を含む画像であってよい。元データ取得部16は、取得した元データDoを指標取得部20に入力する。 The original data acquisition unit 16 acquires original data Do to be input to the target model Mt. The original data Do may be used for learning the target model Mt. The original data Do may be an image including the detection target. The original data acquisition unit 16 inputs the acquired original data Do to the index acquisition unit 20 .

指標取得部20は、対象モデルMtを評価するための評価指標Eiを取得する。例えば、指標取得部20は、評価指標Eiとして、検知AIの検知率、誤検知率または見逃し率を取得する。本例の指標取得部20は、複数のプロパティPに関連する評価指標Eiを取得する。指標取得部20は、プロパティ取得部14で指定されたプロパティPのサンプル点に応じた範囲で評価指標Eiを算出してよい。 The index acquisition unit 20 acquires an evaluation index Ei for evaluating the target model Mt. For example, the index acquisition unit 20 acquires the detection rate, false positive rate, or missed rate of detection AI as the evaluation index Ei. The index acquisition unit 20 in this example acquires evaluation indexes Ei related to multiple properties P. FIG. The index acquisition unit 20 may calculate the evaluation index Ei within a range corresponding to the sample points of the property P specified by the property acquisition unit 14 .

指標取得部20は、複数のプロパティPから評価対象プロパティに基づいて、複数のプロパティPに応じた評価指標Eiを取得してよい。この場合、指標取得部20は、評価非対象プロパティに応じた範囲で対象モデルMtを評価する必要がない。これにより、不要な評価指標Eiを取得する必要がなくなり、計算を簡略化することができる。 The index acquisition unit 20 may acquire the evaluation index Ei corresponding to the plurality of properties P based on the property to be evaluated from the plurality of properties P. FIG. In this case, the index acquisition unit 20 does not need to evaluate the target model Mt within a range according to the non-evaluation target property. This eliminates the need to acquire the unnecessary evaluation index Ei, and simplifies the calculation.

出力部30は、対象モデルMtの評価結果Erを出力する。評価結果Erは、指定されたプロパティPと評価指標Eiとの関係を含んでよい。出力部30は、評価結果Erを表示するためのディスプレイなどの表示部を有してよい。 The output unit 30 outputs the evaluation result Er of the target model Mt. The evaluation result Er may include the relationship between the specified property P and the evaluation index Ei. The output unit 30 may have a display unit such as a display for displaying the evaluation result Er.

本例の出力部30は、複数のプロパティPに基づいて、予め定められた条件に該当する評価指標Eiを特定するための指標特定データDiを出力する。予め定められた条件に該当する評価指標Eiとは、例えば、評価指標Eiが検知率である場合、対象モデルMtに要求される基準よりも検知率が悪い評価指標Eiであってよい。 Based on a plurality of properties P, the output unit 30 of this example outputs index identification data Di for identifying an evaluation index Ei that satisfies a predetermined condition. For example, if the evaluation index Ei is the detection rate, the evaluation index Ei that satisfies a predetermined condition may be an evaluation index Ei with a lower detection rate than the standard required for the target model Mt.

指標特定データDiは、予め定められた条件に該当した評価指標Eiに対応する入力データであってよい。一例において、指標特定データDiは、検知率の低い評価指標Eiを特定するための情報である。例えば、指標特定データDiは、対象モデルMtの入力画像データなどのサンプルデータを含む。出力部30は、サンプルデータとして、入力画像データを出力することにより、予め定められた条件に該当する指標をユーザに直感的に知らせることができる。 The index specifying data Di may be input data corresponding to the evaluation index Ei that satisfies a predetermined condition. In one example, the index identification data Di is information for identifying an evaluation index Ei with a low detection rate. For example, the index specifying data Di includes sample data such as input image data of the target model Mt. By outputting the input image data as sample data, the output unit 30 can intuitively notify the user of the index corresponding to the predetermined condition.

また、指標特定データDiは、予め定められた条件に該当した評価指標Eiに対応するプロパティPの範囲を含んでよい。指標特定データDiは、予め定められた誤検知率以上の評価指標Eiに対応するプロパティPの数値範囲であってよい。例えば、出力部30は、検知率の低いプロパティPの範囲を出力することで、対象モデルMtが苦手とする範囲を可視化することができる。なお、指標特定データDiは、検知率の高い評価指標Eiの画像サンプル、プロパティPの評価指標Eiへの寄与率等であってよい。 Moreover, the index specifying data Di may include the range of the property P corresponding to the evaluation index Ei that satisfies a predetermined condition. The index specifying data Di may be a numerical range of the property P corresponding to the evaluation index Ei equal to or higher than a predetermined false positive rate. For example, the output unit 30 can visualize the range in which the target model Mt is weak by outputting the range of the property P with a low detection rate. Note that the index specifying data Di may be an image sample of the evaluation index Ei with a high detection rate, a contribution rate of the property P to the evaluation index Ei, or the like.

図2Aは、モデル評価システム100を用いた評価方法の一例である。本例のモデル評価システム100は、人物検知モデルである対象モデルMtを評価して、評価指標EiとプロパティPの値との関係を表示している。本例の元データDoは、検知対象である人物の画像であり、対象モデルMtに入力される。本例の出力部30は、対象モデルMtの評価指標Eiに基づいて、対象モデルMtを評価するための評価結果Erを出力している。 FIG. 2A is an example of an evaluation method using the model evaluation system 100. FIG. The model evaluation system 100 of this example evaluates the target model Mt, which is a person detection model, and displays the relationship between the evaluation index Ei and the property P value. The original data Do in this example is an image of a person to be detected, and is input to the target model Mt. The output unit 30 of this example outputs the evaluation result Er for evaluating the target model Mt based on the evaluation index Ei of the target model Mt.

評価結果Erは、モデル評価システム100が対象モデルMtを評価した結果であれば表示形式は限定されない。本例の評価結果Erは、プロパティPの変化に応じた評価指標Eiの分布である。評価結果Erの縦軸は評価指標Eiを示し、横軸はプロパティPの値を示す。例えば、評価結果Erは、年齢に応じた誤検知率の分布である。本例の評価結果Erでは、評価指標Eiの改善すべき領域が破線の円でマーキングされている。 The display format of the evaluation result Er is not limited as long as it is the result of evaluation of the target model Mt by the model evaluation system 100 . The evaluation result Er in this example is the distribution of the evaluation index Ei according to the property P change. The vertical axis of the evaluation result Er indicates the evaluation index Ei, and the horizontal axis indicates the property P value. For example, the evaluation result Er is the distribution of the false positive rate according to age. In the evaluation result Er of this example, the areas where the evaluation index Ei should be improved are marked with dashed circles.

図2Bは、モデル評価システム100を用いた評価結果Erの一例である。モデル評価システム100は、評価指標Eiの分布の極値Veを用いて、予め定められた条件に該当する指標特定データDiを出力する。 FIG. 2B is an example of an evaluation result Er using the model evaluation system 100. FIG. The model evaluation system 100 uses the extreme value Ve of the distribution of the evaluation index Ei to output index specific data Di that meets a predetermined condition.

範囲Rveは、極値Veから予め定められた範囲のプロパティPの値である。例えば、範囲Rveは、評価指標Eiが極値Veの半分の値となるプロパティPの範囲である。予め定められた条件に該当する評価指標Eiは、極値Veまたは範囲Rveの評価指標Eiであってよい。本例のモデル評価システム100は、極値Veを基準として検知率の低い範囲を可視化することができる。 The range Rve is the value of the property P within a predetermined range from the extreme value Ve. For example, the range Rve is the range of the property P in which the evaluation index Ei is half the value of the extreme value Ve. The evaluation index Ei corresponding to the predetermined condition may be the evaluation index Ei of the extreme value Ve or the range Rve. The model evaluation system 100 of this example can visualize a range with a low detection rate using the extreme value Ve as a reference.

モデル評価システム100は、極値Veまたは範囲Rveに応じた指標特定データDiを出力してよい。本例のモデル評価システム100は、指標特定データDiとして、極値Veの入力画像を表示することにより、検知率の低い元データDoを可視化している。モデル評価システム100は、指標特定データDiとして入力画像をユーザに表示することで、検知率の低い元データDoを直感的に知らせることができる。 The model evaluation system 100 may output index specific data Di corresponding to the extreme value Ve or range Rve. The model evaluation system 100 of this example visualizes the original data Do with a low detection rate by displaying the input image of the extreme value Ve as the index specifying data Di. The model evaluation system 100 can intuitively inform the user of the original data Do with a low detection rate by displaying the input image as the index specifying data Di to the user.

図2Cは、モデル評価システム100を用いた評価結果Erの変形例である。モデル評価システム100は、複数のプロパティPのそれぞれと評価指標Eiとの関係を示している。 FIG. 2C is a modification of the evaluation result Er using the model evaluation system 100. FIG. The model evaluation system 100 indicates the relationship between each of the multiple properties P and the evaluation index Ei.

出力部30は、複数のプロパティPのプロパティP毎に、評価指標Eiを出力する。本例では、複数のプロパティPとして、検知対象の年齢および顔の角度が指定されている。出力部30は、指定されたプロパティPごとに独立に評価指標Eiを出力する。 The output unit 30 outputs an evaluation index Ei for each property P of multiple properties P. FIG. In this example, as a plurality of properties P, the age and face angle of the detection target are specified. The output unit 30 outputs the evaluation index Ei independently for each specified property P.

例えば、20~30歳の年代の元データDoが多く、10代と40代以上の検知率が低い場合がある。この場合、モデル評価システム100は、検知率の低い年代のデータを増やして、対象モデルMtに学習処理を実行させてよい。これにより、対象モデルMtの検知精度を改善することができる。 For example, there is a case where there is a large amount of original data Do for people aged 20 to 30, and the detection rate for people in their teens and those in their 40s or older is low. In this case, the model evaluation system 100 may increase data for age groups with a low detection rate and cause the target model Mt to perform the learning process. Thereby, the detection accuracy of the target model Mt can be improved.

本例の出力部30は、1つのプロパティPに対する評価指標Eiの分布を出力しているが、複数のプロパティPのプロパティP毎に評価指標Eiの分布を出力してもよい。出力部30は、複数のプロパティPの組み合わせに応じた評価指標Eiの分布を出力してもよい。例えば、出力部30は、複数のプロパティPを組みわせた3次元空間において、評価指標Eiの分布を表示する。また、出力部30は、指定されたプロパティPを任意の個数に分割して、分割された範囲に含まれる全データに対する指標を平均したものを、その範囲の値として表示してよい。また、出力部30は、評価指標Eiの信頼区間を表示してもよい。 The output unit 30 in this example outputs the distribution of the evaluation index Ei for one property P, but may output the distribution of the evaluation index Ei for each property P of a plurality of properties P. The output unit 30 may output the distribution of the evaluation index Ei according to the combination of multiple properties P. FIG. For example, the output unit 30 displays the distribution of the evaluation index Ei in a three-dimensional space in which multiple properties P are combined. In addition, the output unit 30 may divide the specified property P into an arbitrary number and display the average index for all data included in the divided range as the value of the range. The output unit 30 may also display the confidence interval of the evaluation index Ei.

モデル評価システム100は、評価指標Eiの悪いデータを可視化することにより、プロパティPの連続性および網羅性を向上して、対象モデルMtを効率的に学習させることができる。モデル評価システム100は、網羅性を向上することにより、多様なプロパティPに応じた評価指標Eiを検出でき、限られたデータ範囲で評価する場合よりもモデル評価の精度を向上することができる。モデル評価システム100は、プロパティPの連続性を向上することにより、離散的に評価指標Eiを取得するよりも、評価精度を向上することができる。 The model evaluation system 100 can improve the continuity and comprehensiveness of the property P by visualizing data with a poor evaluation index Ei, and can efficiently learn the target model Mt. By improving comprehensiveness, the model evaluation system 100 can detect the evaluation index Ei corresponding to various properties P, and can improve the accuracy of model evaluation compared to the case of evaluation with a limited data range. By improving the continuity of the property P, the model evaluation system 100 can improve the evaluation accuracy more than discretely acquiring the evaluation index Ei.

図3は、モデル評価システム100の変形例を示す。モデル評価システム100は、データ拡張部22および記憶部40を備える点で、図1の実施例と相違する。その他の点は、図1の実施例と同一であってよい。 FIG. 3 shows a modification of the model evaluation system 100. As shown in FIG. The model evaluation system 100 differs from the embodiment shown in FIG. 1 in that it includes a data extension section 22 and a storage section 40 . Other points may be the same as the embodiment of FIG.

データ拡張部22は、データ拡張モデルMeを有し、元データDoからデータ拡張した拡張データDeを生成する。本例のデータ拡張部22は、出力部30が出力した評価結果Erまたは評価指標Eiに基づいて元データDoを拡張する。データ拡張部22は、評価指標Eiの悪い範囲を補完するように拡張データDeを生成してよい。データ拡張部22は、生成した拡張データDeを指標取得部20に出力する。 The data extension unit 22 has a data extension model Me, and generates extended data De by extending the original data Do. The data expansion unit 22 of this example expands the original data Do based on the evaluation result Er or the evaluation index Ei output by the output unit 30 . The data extender 22 may generate the extended data De so as to complement the poor range of the evaluation index Ei. The data extension unit 22 outputs the generated extension data De to the index acquisition unit 20 .

指標取得部20は、元データDoおよび拡張データDeを用いて、対象モデルMtの学習処理を実行する。このように、元データDoを拡張して学習することにより、プロパティPと評価指標Eiとの関係が離散的になることを回避して、網羅性と連続性を改善することができる。 The index acquisition unit 20 uses the original data Do and the extended data De to perform learning processing for the target model Mt. By extending and learning the original data Do in this way, it is possible to avoid the relationship between the property P and the evaluation index Ei from becoming discrete, thereby improving comprehensiveness and continuity.

記憶部40は、入力部10が取得したプロパティPまたは元データDoなどの入力データを記憶してよい。記憶部40は、データ拡張部22が生成した拡張データDeを記憶してもよい。データ拡張部22は、記憶部40に記憶された情報を、データ拡張時に読み出してよい。 The storage unit 40 may store input data such as the property P or the original data Do acquired by the input unit 10 . The storage unit 40 may store the extension data De generated by the data extension unit 22 . The data extension unit 22 may read the information stored in the storage unit 40 when extending the data.

なお、データ拡張部22によるデータ拡張手段は特に限定されない。データ拡張部22によるデータ拡張手段は、画像変換モデルを用いたデータ拡張であっても、画像処理によるデータ拡張であってもよい。画像変換モデルによるデータ拡張では、年齢変換、顔の角度変換または照明変更等の方法を用いてデータ拡張してよい。画像処理によるデータ拡張では、リサイズによる解像度の変更、ぼかしの印加、ノイズの印加、障害物の貼り付け等の方法を用いてデータ拡張してよい。データ拡張部22は、データ拡張モデルMeによって、元データDoの人物性を拡張してもよい。人物性の拡張では、任意の人物Aと他の人物Bとの間の人物を生成してもよい。 Data extension means by the data extension unit 22 is not particularly limited. The data extension means by the data extension unit 22 may be data extension using an image transformation model or data extension by image processing. In the data enhancement by the image conversion model, data enhancement may be performed using methods such as age conversion, face angle conversion, or lighting change. In the data extension by image processing, the data may be extended using methods such as changing the resolution by resizing, applying blur, applying noise, pasting obstacles, and the like. The data extension unit 22 may extend the personality of the original data Do by using the data extension model Me. Character extension may create a person between any person A and another person B.

図4Aは、モデル評価システム100を用いた評価方法の一例である。本例のモデル評価システム100は、元データDoから拡張した拡張データDeを生成して、元データDoおよび拡張データDeで学習した対象モデルMtを評価している。評価結果Erの縦軸は、評価指標Eiの一例として誤検知率を示している。 FIG. 4A is an example of an evaluation method using the model evaluation system 100. FIG. The model evaluation system 100 of this example generates extended data De extended from the original data Do, and evaluates the target model Mt learned with the original data Do and the extended data De. The vertical axis of the evaluation result Er indicates the false positive rate as an example of the evaluation index Ei.

元データDoは、良品実画像Dogと不良品実画像Dobを含む。データ拡張モデルMeは、良品実画像Dogおよび不良品実画像Dobに応じて、拡張された不良品拡張画像Debを生成する。不良品拡張画像Debは、拡張データDeの一例である。これにより、不良品実画像Dobが少ない場合であっても、不良品拡張画像Debで不良品画像を補完して、対象モデルMtに学習させることができる。 The original data Do includes a non-defective product image Dog and a defective product image Dob. The data extension model Me generates an extended defective product extended image Deb according to the non-defective product actual image Dog and the defective product actual image Dob. The defective product extended image Deb is an example of the extended data De. As a result, even when the number of actual defective product images Dob is small, the defective product images can be complemented with the defective product extended images Deb, and the target model Mt can be learned.

対象モデルMtは、良品実画像Dog、不良品実画像Dobおよび不良品拡張画像Debを学習用データとして学習処理が実行される。評価指標Eiは、不良品拡張画像Debで学習済みの対象モデルMtを、任意の評価モデルで評価することで生成される。評価結果Erは、不良品拡張画像Debで学習された対象モデルMtの評価指標Eiと、プロパティPの値との関係を示す。 For the target model Mt, a learning process is executed using the non-defective actual image Dog, the defective actual image Dob, and the defective extended image Deb as learning data. The evaluation index Ei is generated by evaluating the target model Mt, which has been trained using the defective product extended image Deb, with an arbitrary evaluation model. The evaluation result Er indicates the relationship between the evaluation index Ei of the target model Mt learned with the defective product extended image Deb and the property P value.

データ拡張部22は、学習用の元データDoが少なく、評価指標Eiが予め定められた基準よりも悪いプロパティPのデータを拡張してよい。拡張データDeのデータ量の下限は、予め定められた基準よりも評価指標Eiが向上するように決定されてよい。拡張データDeの上限は、評価結果Erを生成するためのデータ生成コストの増大を回避するように決定されてよい。一例において、データ拡張部22は、予め生成する拡張データDeのデータ量を決定しておき、検知精度の不確実性の高いデータを優先的にデータ拡張する。 The data extension unit 22 may extend the data of the property P which has less original data Do for learning and whose evaluation index Ei is worse than a predetermined standard. The lower limit of the data amount of the extended data De may be determined such that the evaluation index Ei is improved over a predetermined standard. The upper limit of the extended data De may be determined so as to avoid an increase in data generation cost for generating the evaluation result Er. In one example, the data expansion unit 22 determines the amount of expansion data De to be generated in advance, and preferentially expands data with high uncertainty in detection accuracy.

評価結果Erの破線は、データ拡張前の評価結果Erを示す。評価結果Erの実線は、データ拡張後の評価結果Erを示す。データ拡張後の評価指標Eiでは、拡張データDeを用いることにより、全体的に誤検知率を低下している。また、データ拡張後の評価指標Eiでは、データ拡張前では評価されていなかったデータ範囲が評価されている。 A dashed line of the evaluation result Er indicates the evaluation result Er before data expansion. A solid line of the evaluation result Er indicates the evaluation result Er after data expansion. In the evaluation index Ei after data extension, the false detection rate is reduced as a whole by using the extension data De. In addition, the data range that was not evaluated before the data extension is evaluated in the evaluation index Ei after the data extension.

このように、本例のモデル評価システム100は、実画像の元データDoには含まれていない未知の画像をデータ拡張することができる。これにより、対象モデルMtの検知精度を改善して、実ライン導入までの準備期間を短縮することができる。 In this way, the model evaluation system 100 of this example can extend the data of an unknown image that is not included in the original data Do of the actual image. As a result, it is possible to improve the detection accuracy of the target model Mt and shorten the preparation period until introduction to the actual line.

図4Bは、拡張データDeの生成方法の一例を示す。本例の検知対象は、ペットボトルの蓋である。本例では、ラベル情報L1を用いてペットボトルの蓋の不良位置を指定して、不良品の拡張データDeを生成する。良品実画像Dogは、不良のないペットボトルの蓋の画像である。 FIG. 4B shows an example of a method for generating extension data De. The object to be detected in this example is the cap of a PET bottle. In this example, the label information L1 is used to designate the defective position of the lid of the PET bottle, and the extended data De of the defective product is generated. A non-defective actual image Dog is an image of a PET bottle cap that is free of defects.

ラベル情報L1は、良品実画像Dogの任意の位置にデータ適用領域R1を指定した情報を含む。ラベル情報L1は、検知対象の位置、形状またはテクスチャの少なくとも1つに関する情報を含んでもよい。ラベル情報L1は、検知対象の位置等を特定できる情報であればよく、画像データ、座標等の数値データまたはこれらの組み合わせであってよい。 The label information L1 includes information designating the data application area R1 at an arbitrary position of the non-defective product image Dog. The label information L1 may include information on at least one of the position, shape, and texture of the detection target. The label information L1 may be any information that can specify the position of the detection target, and may be image data, numerical data such as coordinates, or a combination thereof.

データ適用領域R1は、ペットボトルの蓋において、任意の位置および形状を指定する。データ拡張モデルMeは、任意の不良箇所のデータをデータ適用領域R1に適用して、不良品の拡張データDeを生成する。本例の不良は蓋の側面に生じた傷であるが、不良モードの種類はこれに限定されない。データ拡張部22は、データ適用領域R1に複数の種類の傷を適用してデータ拡張してもよい。 The data application region R1 designates an arbitrary position and shape on the cap of the PET bottle. The data extension model Me applies data of an arbitrary defective part to the data application area R1 to generate extended data De of the defective product. The defect in this example is a scratch on the side surface of the lid, but the type of defect mode is not limited to this. The data extension unit 22 may extend the data by applying multiple types of flaws to the data application region R1.

図4Cは、拡張データDeの生成方法の一例を示す。本例では、図4Bの実施例と異なる種類の不良箇所を拡張した拡張データDeを生成している。本例のデータ適用領域R1は、蓋の欠けを示している。データ適用領域R1は、蓋の下部における三角形の領域として指定されている。データ適用領域R1の形状は、他の形状であってもよく、複数設けられてもよい。データ適用領域R1の位置および大きさなどは、プロパティPを不良箇所の位置および大きさに指定して出力された評価指標Eiの分布に応じて適宜変更されてよい。 FIG. 4C shows an example of a method for generating extension data De. In this example, extended data De is generated by extending a defective portion of a type different from that in the example of FIG. 4B. The data application region R1 in this example indicates a missing lid. The data application area R1 is designated as the triangular area at the bottom of the lid. The shape of the data application region R1 may be another shape, or a plurality of shapes may be provided. The position, size, etc. of the data application region R1 may be appropriately changed according to the distribution of the evaluation index Ei output by designating the property P as the position and size of the defective portion.

図4Dは、拡張データDeの生成方法の一例を示す。本例では、不良箇所を有する蓋の画像を拡張して、不良箇所の位置を変化させている。本例のモデル評価システム100は、不良箇所の位置を変化させて、拡張データDe_1~拡張データDe_nのn個の拡張データDeを生成している。 FIG. 4D shows an example of a method for generating extension data De. In this example, the image of the lid having the defective portion is expanded to change the position of the defective portion. The model evaluation system 100 of this example changes the position of the defective portion to generate n extension data De of extension data De_1 to extension data De_n.

ここで、不良箇所の位置が画像の横軸方向のいずれの位置に属するかによっても、対象モデルMtの検知精度に分布が生じる。例えば、蓋の中央に不良箇所が位置する場合よりも、蓋の端部に不良箇所が位置する場合の方が、検知精度が悪化することがある。このような場合、モデル評価システム100は、蓋の端部にデータ適用領域R1を指定して、拡張データDeを生成することにより、対象モデルMtの検知精度を向上させることができる。 Here, the detection accuracy of the target model Mt also varies depending on which position in the horizontal axis direction of the image the defective portion belongs to. For example, the detection accuracy may be worse when the defective portion is located at the edge of the lid than when the defective portion is located at the center of the lid. In such a case, the model evaluation system 100 can improve the detection accuracy of the target model Mt by specifying the data application region R1 at the edge of the lid and generating the extended data De.

図4Eは、非連続変化プロパティPdを含む評価結果Erの一例を示す。本例の複数のプロパティPは、連続変化プロパティPcおよび非連続変化プロパティPdを含んでいる。縦軸は評価指標Eiとして誤検知率を示している。横軸は、連続変化プロパティPcの一例として不良位置の座標と、非連続変化プロパティPdの一例としてテクスチャをそれぞれ示している。 FIG. 4E shows an example of an evaluation result Er including non-continuously changing properties Pd. The plurality of properties P in this example includes continuously changing properties Pc and non-continuously changing properties Pd. The vertical axis indicates the false detection rate as the evaluation index Ei. The horizontal axis indicates the coordinates of the defect position as an example of the continuously changing property Pc, and the texture as an example of the non-continuously changing property Pd.

連続変化プロパティPcは、値が連続的に変化するプロパティPである。例えば、連続変化プロパティPcは、検知対象の位置、形状または色である。連続変化プロパティPcは、検知対象が存在する空間の光源位置または光源強度を含んでもよい。連続変化プロパティPcは、プロパティPの値を例えば0から1までの範囲に正規化して使用されてよい。連続変化プロパティPcが年齢である場合、年齢の値をそのまま用いてもよいし、年齢の値を予め定められた個数(例えば、20個)のサンプル点に分割して設定してもよい。 A continuously changing property Pc is a property P whose value changes continuously. For example, the continuously changing property Pc is the position, shape or color of the sensing target. The continuously changing property Pc may include the light source position or light source intensity in the space where the detection target exists. The continuous-varying property Pc may be used by normalizing the value of the property P to a range from 0 to 1, for example. When the continuously changing property Pc is age, the age value may be used as it is, or the age value may be set by dividing it into a predetermined number (for example, 20) of sample points.

非連続変化プロパティPdは、値が連続的に変化しないプロパティPである。テクスチャは、非連続変化プロパティPdの一例であり、不良箇所の傷またはシミのようなテクスチャを含んでよい。非連続変化プロパティPdは、対象モデルMtの入力データにおける、検知対象のテクスチャ、入力画像、カテゴリまたはクラスの少なくとも1つであってよい。 A discontinuous changing property Pd is a property P whose value does not change continuously. Texture is an example of a non-continuously varying property Pd, and may include textures such as flaws or blemishes at imperfections. The non-continuous change property Pd may be at least one of a texture to be detected, an input image, a category or a class in the input data of the target model Mt.

ここで、プロパティ取得部14は、予め定められた拡張モデルMeを用いて、非連続変化プロパティPdの間を補完した補完データを生成してよい。非連続変化プロパティPdがテクスチャの場合、テクスチャの種類に応じた個数のプロパティPの値を指定して、それぞれのプロパティPの値を補完したプロパティPの値を生成してもよい。対象モデル取得部12は、補完データを用いて対象モデルMtに学習処理を実行させてよい。 Here, the property acquisition unit 14 may use a predetermined extension model Me to generate complementary data that complements the discontinuous changing properties Pd. When the non-continuously changing property Pd is a texture, the value of the property P may be generated by specifying the values of the property P in the number corresponding to the type of texture and interpolating each property P value. The target model acquisition unit 12 may cause the target model Mt to perform learning processing using the complementary data.

例えば、モデル評価システム100は、ペットボトルの蓋に付いたシミと傷の中間のようなテクスチャを生成することで、テクスチャのように値が連続しないプロパティPであっても評価指標Eiの分布を取得することができる。したがって、モデル評価システム100は、プロパティPの値を補完することにより、非連続変化プロパティPdの連続性および網羅性を向上することができる。 For example, the model evaluation system 100 generates a texture that looks like something between a stain and a scratch on the cap of a PET bottle, so that the distribution of the evaluation index Ei can be calculated even for a property P that has discontinuous values like the texture. can be obtained. Therefore, the model evaluation system 100 can improve the continuity and comprehensiveness of the discontinuous changing property Pd by complementing the property P value.

図5Aは、モデル評価システム100の変形例を示す。本例のデータ拡張部22は、評価結果Erに基づいて生成された追加拡張データDaを生成する点で図3の実施例と相違する。その他の点は、図3の実施例と同一であってもよい。 FIG. 5A shows a variation of model evaluation system 100 . The data extension unit 22 of this example differs from the embodiment of FIG. 3 in that it generates additional extension data Da based on the evaluation result Er. Other points may be the same as the embodiment of FIG.

データ拡張部22は、予め定められた条件に該当する評価指標Eiに基づいて追加拡張データDaを生成する。データ拡張部22は、元データDoまたは拡張データDeではサンプルのデータ数が足りない部分を追加拡張データDaで補完することができる。データ拡張部22は、追加拡張データDaの生成時に記憶部40に記憶された元データDoおよび拡張データDeを取得してもよい。追加拡張データDaは、記憶部40に記憶されてよい。 The data extender 22 generates additional extended data Da based on the evaluation index Ei that satisfies a predetermined condition. The data extension unit 22 can complement the portion where the number of sample data is insufficient in the original data Do or the extension data De with the additional extension data Da. The data extension unit 22 may acquire the original data Do and the extension data De stored in the storage unit 40 when the additional extension data Da is generated. The additional extension data Da may be stored in the storage unit 40 .

追加拡張データDaのデータ量は、元データDoおよび拡張データDeのデータ量に応じて決定されてよい。追加拡張データDaのデータ量が元データDoおよび拡張データDeのデータ量よりも少ないと、追加拡張データDaの効果が十分に得られず、追加拡張データDaのデータ量が元データDoおよび拡張データDeのデータ量よりも多すぎても、対象モデルMtの検知精度が悪化する場合がある。 The data amount of the additional extension data Da may be determined according to the data amounts of the original data Do and the extension data De. If the data amount of the additional extension data Da is smaller than the data amount of the original data Do and the extension data De, the effect of the additional extension data Da cannot be sufficiently obtained, and the data amount of the additional extension data Da is less than the data amount of the original data Do and the extension data De. Even if the amount of data is larger than that of De, the detection accuracy of the target model Mt may deteriorate.

指標取得部20は、追加拡張データDaに基づいて、対象モデルMtの学習処理を実行する。これにより、評価結果Erに応じてプロパティPの網羅性および連続性を向上して、対象モデルMtの検知精度を向上することができる。 The index acquisition unit 20 executes learning processing of the target model Mt based on the additional augmented data Da. As a result, coverage and continuity of the property P can be improved according to the evaluation result Er, and detection accuracy of the target model Mt can be improved.

図5Bは、モデル評価システム100を用いた評価方法の一例である。本例のモデル評価システム100は、不良品追加拡張画像Dabを生成して、不良品追加拡張画像Dabで学習した対象モデルMtを評価している。不良品追加拡張画像Dabは、追加拡張データDaの一例である。評価結果Erの縦軸は、評価指標Eiの一例として誤検知率を示している。本例のデータ拡張部22は、評価結果Erにおいて誤検知率の大きなデータ範囲を追加で拡張している。これにより、データ拡張後の評価指標Eiでは、誤検知率の高いデータ範囲を中心に改善され、評価指標Eiの分布の偏りを補正することができる。 FIG. 5B is an example of an evaluation method using the model evaluation system 100. FIG. The model evaluation system 100 of this example generates a defective product added extended image Dab and evaluates the target model Mt learned with the defective product added extended image Dab. The defective product additional extended image Dab is an example of additional extended data Da. The vertical axis of the evaluation result Er indicates the false positive rate as an example of the evaluation index Ei. The data expansion unit 22 of this example additionally expands the data range with a large false positive rate in the evaluation result Er. As a result, the evaluation index Ei after data expansion is improved mainly in the data range with a high false positive rate, and the bias in the distribution of the evaluation index Ei can be corrected.

本例のモデル評価システム100は、評価結果Erに基づいて、追加拡張データDaを生成するので、より効率的にデータを拡張することができる。また、モデル評価システム100は、対象モデルMtの評価と、対象モデルMtの検知精度の改善の両方を一貫して実現できる。 Since the model evaluation system 100 of this example generates the additional extension data Da based on the evaluation result Er, it is possible to extend the data more efficiently. Moreover, the model evaluation system 100 can consistently realize both the evaluation of the target model Mt and the improvement of the detection accuracy of the target model Mt.

モデル評価システム100は、検知AIモデルの種類に限定されることなく、任意の対象モデルMtを評価して、改善することができる。例えば、モデル評価システム100は、自動運転向けの物体検知モデルの評価に用いられる。この場合、モデル評価システム100は、プロパティPとして、天候、物体のカテゴリ、大きさ、色、テクスチャ、角度、人物のポーズまたは服装を指定してよい。また、モデル評価システム100は、セグメンテーションモデルの評価に用いてもよい。モデル評価システム100は、特定の状況で歩行者を見逃すなどの評価結果Erを可視化することにより、事故を予め防止することができる。モデル評価システム100は、監視カメラによる人の行動検知にも用いられてもよい。 The model evaluation system 100 can evaluate and improve any target model Mt without being limited to the type of detection AI model. For example, the model evaluation system 100 is used to evaluate an object detection model for autonomous driving. In this case, model evaluation system 100 may specify, as property P, weather, category of object, size, color, texture, angle, pose or clothing of a person. The model evaluation system 100 may also be used to evaluate segmentation models. The model evaluation system 100 can prevent accidents in advance by visualizing evaluation results Er such as missing a pedestrian in a specific situation. The model evaluation system 100 may also be used for human behavior detection using surveillance cameras.

図6は、本発明の複数の態様が全体的又は部分的に具現化されてよいコンピュータ2200の例を示す。コンピュータ2200にインストールされたプログラムは、コンピュータ2200に、本発明の実施形態に係る装置に関連付けられる操作又は当該装置の1又は複数のセクションとして機能させることができ、又は当該操作又は当該1又は複数のセクションを実行させることができ、及び/又はコンピュータ2200に、本発明の実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ2200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定の操作を実行させるべく、CPU2212によって実行されてよい。 FIG. 6 illustrates an example computer 2200 in which aspects of the invention may be implemented in whole or in part. Programs installed on the computer 2200 may cause the computer 2200 to function as one or more sections of an operation or apparatus associated with an apparatus according to embodiments of the invention, or to Sections may be executed and/or computer 2200 may be caused to execute processes or steps of such processes according to embodiments of the present invention. Such programs may be executed by CPU 2212 to cause computer 2200 to perform certain operations associated with some or all of the blocks in the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ2200は、CPU2212、RAM2214、グラフィックコントローラ2216、及びディスプレイデバイス2218を含み、それらはホストコントローラ2210によって相互に接続されている。コンピュータ2200はまた、通信インタフェース2222、ハードディスクドライブ2224、DVD-ROMドライブ2226、及びICカードドライブのような入/出力ユニットを含み、それらは入/出力コントローラ2220を介してホストコントローラ2210に接続されている。コンピュータはまた、ROM2230及びキーボード2242のようなレガシの入/出力ユニットを含み、それらは入/出力チップ2240を介して入/出力コントローラ2220に接続されている。 Computer 2200 according to this embodiment includes CPU 2212 , RAM 2214 , graphics controller 2216 , and display device 2218 , which are interconnected by host controller 2210 . Computer 2200 also includes input/output units such as communication interface 2222, hard disk drive 2224, DVD-ROM drive 2226, and IC card drive, which are connected to host controller 2210 via input/output controller 2220. there is The computer also includes legacy input/output units such as ROM 2230 and keyboard 2242 , which are connected to input/output controller 2220 through input/output chip 2240 .

CPU2212は、ROM2230及びRAM2214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ2216は、RAM2214内に提供されるフレームバッファ等又はそれ自体の中にCPU2212によって生成されたイメージデータを取得し、イメージデータがディスプレイデバイス2218上に表示されるようにする。 The CPU 2212 operates according to programs stored in the ROM 2230 and RAM 2214, thereby controlling each unit. Graphics controller 2216 retrieves image data generated by CPU 2212 into itself, such as a frame buffer provided in RAM 2214 , and causes the image data to be displayed on display device 2218 .

通信インタフェース2222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブ2224は、コンピュータ2200内のCPU2212によって使用されるプログラム及びデータを格納する。DVD-ROMドライブ2226は、プログラム又はデータをDVD-ROM2201から読み取り、ハードディスクドライブ2224にRAM2214を介してプログラム又はデータを提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。 Communication interface 2222 communicates with other electronic devices over a network. Hard disk drive 2224 stores programs and data used by CPU 2212 within computer 2200 . DVD-ROM drive 2226 reads programs or data from DVD-ROM 2201 and provides programs or data to hard disk drive 2224 via RAM 2214 . The IC card drive reads programs and data from IC cards and/or writes programs and data to IC cards.

ROM2230はその中に、アクティブ化時にコンピュータ2200によって実行されるブートプログラム等、及び/又はコンピュータ2200のハードウェアに依存するプログラムを格納する。入/出力チップ2240はまた、様々な入/出力ユニットをパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入/出力コントローラ2220に接続してよい。 ROM 2230 stores therein programs that depend on the hardware of computer 2200, such as a boot program that is executed by computer 2200 upon activation. Input/output chip 2240 may also connect various input/output units to input/output controller 2220 via parallel ports, serial ports, keyboard ports, mouse ports, and the like.

プログラムが、DVD-ROM2201又はICカードのようなコンピュータ可読媒体によって提供される。プログラムは、コンピュータ可読媒体から読み取られ、コンピュータ可読媒体の例でもあるハードディスクドライブ2224、RAM2214、又はROM2230にインストールされ、CPU2212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ2200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ2200の使用に従い情報の操作又は処理を実現することによって構成されてよい。 A program is provided by a computer-readable medium such as a DVD-ROM 2201 or an IC card. The program is read from a computer-readable medium, installed in hard disk drive 2224 , RAM 2214 , or ROM 2230 , which are also examples of computer-readable medium, and executed by CPU 2212 . The information processing described within these programs is read by computer 2200 to provide coordination between the programs and the various types of hardware resources described above. An apparatus or method may be configured by implementing manipulation or processing of information in accordance with the use of computer 2200 .

例えば、通信がコンピュータ2200及び外部デバイス間で実行される場合、CPU2212は、RAM2214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース2222に対し、通信処理を命令してよい。通信インタフェース2222は、CPU2212の制御下、RAM2214、ハードディスクドライブ2224、DVD-ROM2201、又はICカードのような記録媒体内に提供される送信バッファ処理領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信された受信データを記録媒体上に提供される受信バッファ処理領域等に書き込む。 For example, when communication is performed between the computer 2200 and an external device, the CPU 2212 executes a communication program loaded in the RAM 2214 and sends communication processing to the communication interface 2222 based on the processing described in the communication program. you can command. The communication interface 2222 reads transmission data stored in a transmission buffer processing area provided in a recording medium such as the RAM 2214, the hard disk drive 2224, the DVD-ROM 2201, or an IC card under the control of the CPU 2212, and transmits the read transmission data. It sends data to the network or writes received data received from the network to a receive buffer processing area or the like provided on the recording medium.

また、CPU2212は、ハードディスクドライブ2224、DVD-ROMドライブ2226(DVD-ROM2201)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM2214に読み取られるようにし、RAM2214上のデータに対し様々なタイプの処理を実行してよい。CPU2212は次に、処理されたデータを外部記録媒体にライトバックする。 In addition, the CPU 2212 causes the RAM 2214 to read all or necessary portions of files or databases stored in external recording media such as a hard disk drive 2224, a DVD-ROM drive 2226 (DVD-ROM 2201), an IC card, etc. Various types of processing may be performed on the data in RAM 2214 . CPU 2212 then writes back the processed data to the external recording medium.

様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU2212は、RAM2214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプの操作、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM2214に対しライトバックする。また、CPU2212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU2212は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information, such as various types of programs, data, tables, and databases, may be stored on recording media and subjected to information processing. CPU 2212 performs various types of operations on data read from RAM 2214, information processing, conditional decision making, conditional branching, unconditional branching, and information retrieval, as specified throughout this disclosure and by instruction sequences of programs. Various types of processing may be performed, including /replace, etc., and the results written back to RAM 2214 . In addition, the CPU 2212 may search for information in a file in a recording medium, a database, or the like. For example, if a plurality of entries each having an attribute value of a first attribute associated with an attribute value of a second attribute are stored in the recording medium, the CPU 2212 determines that the attribute value of the first attribute is specified. search the plurality of entries for an entry that matches the condition, read the attribute value of the second attribute stored in the entry, and thereby associate it with the first attribute that satisfies the predetermined condition. an attribute value of the second attribute obtained.

上で説明したプログラム又はソフトウェアモジュールは、コンピュータ2200上又はコンピュータ2200近傍のコンピュータ可読媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバーシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ2200に提供する。 The programs or software modules described above may be stored on computer readable media on or near computer 2200 . Also, a recording medium such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer-readable medium, thereby providing the program to the computer 2200 via the network. do.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It is obvious to those skilled in the art that various modifications and improvements can be made to the above embodiments. It is clear from the description of the scope of claims that forms with such modifications or improvements can also be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as actions, procedures, steps, and stages in the devices, systems, programs, and methods shown in the claims, the specification, and the drawings is particularly "before", "before etc., and it should be noted that they can be implemented in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the specification, and the drawings, even if the description is made using "first," "next," etc. for the sake of convenience, it means that it is essential to carry out in this order. not a thing

10・・・入力部、12・・・対象モデル取得部、14・・・プロパティ取得部、16・・・元データ取得部、20・・・指標取得部、22・・・データ拡張部、30・・・出力部、40・・・記憶部、100・・・モデル評価システム、2200・・・コンピュータ、2201・・・DVD-ROM、2210・・・ホストコントローラ、2212・・・CPU、2214・・・RAM、2216・・・グラフィックコントローラ、2218・・・ディスプレイデバイス、2220・・・入/出力コントローラ、2222・・・通信インタフェース、2224・・・ハードディスクドライブ、2226・・・DVD-ROMドライブ、2230・・・ROM、2240・・・入/出力チップ、2242・・・キーボード Reference Signs List 10 Input unit 12 Target model acquisition unit 14 Property acquisition unit 16 Original data acquisition unit 20 Index acquisition unit 22 Data extension unit 30 ... output section, 40 ... storage section, 100 ... model evaluation system, 2200 ... computer, 2201 ... DVD-ROM, 2210 ... host controller, 2212 ... CPU, 2214 ... RAM 2216 graphic controller 2218 display device 2220 input/output controller 2222 communication interface 2224 hard disk drive 2226 DVD-ROM drive 2230...ROM, 2240...input/output chip, 2242...keyboard

Claims (17)

入力データに応じた出力データを出力する対象モデルのモデル評価方法であって、
対象モデルの入力データに関する複数のプロパティを取得する段階と、
前記対象モデルを評価するための評価指標を取得する段階であって、前記複数のプロパティに関連する評価指標を取得する段階と、
前記複数のプロパティに基づいて、予め定められた条件に該当する前記評価指標を特定するための指標特定データを出力する段階と
を備えるモデル評価方法。
A model evaluation method for a target model that outputs output data according to input data,
obtaining a plurality of properties about the input data of the target model;
obtaining a metric for evaluating the target model, the metric associated with the plurality of properties;
and outputting index identification data for identifying the evaluation index that satisfies a predetermined condition based on the plurality of properties.
前記指標特定データは、前記予め定められた条件に該当した前記評価指標に対応する前記入力データのサンプルデータを含む
請求項1に記載のモデル評価方法。
2. The model evaluation method according to claim 1, wherein said index specifying data includes sample data of said input data corresponding to said evaluation index corresponding to said predetermined condition.
前記指標特定データは、前記予め定められた条件に該当した前記評価指標に対応するプロパティの値の範囲を含む
請求項1または2に記載のモデル評価方法。
3. The model evaluation method according to claim 1, wherein the index specifying data includes a property value range corresponding to the evaluation index that satisfies the predetermined condition.
前記複数のプロパティの変化に応じた前記評価指標の分布を取得する段階を備える
請求項1から3のいずれか一項に記載のモデル評価方法。
The model evaluation method according to any one of claims 1 to 3, further comprising acquiring a distribution of said evaluation index according to changes in said plurality of properties.
前記予め定められた条件に該当する前記評価指標は、前記評価指標の分布の極値または前記極値から予め定められた範囲の評価指標である
請求項4に記載のモデル評価方法。
5. The model evaluation method according to claim 4, wherein said evaluation index corresponding to said predetermined condition is an extreme value of a distribution of said evaluation index or an evaluation index within a predetermined range from said extreme value.
前記指標特定データは、予め定められた基準を満たさない、改善すべき前記評価指標を特定するための情報である
請求項1から5のいずれか一項に記載のモデル評価方法。
The model evaluation method according to any one of claims 1 to 5, wherein the index identification data is information for identifying the evaluation index to be improved that does not satisfy a predetermined criterion.
前記複数のプロパティの任意のプロパティ毎に、前記評価指標を出力する段階を備える
請求項1から6のいずれか一項に記載のモデル評価方法。
The model evaluation method according to any one of claims 1 to 6, further comprising outputting the evaluation index for each arbitrary property among the plurality of properties.
前記複数のプロパティは、値が連続的に変化する連続変化プロパティを含む
請求項1から7のいずれか一項に記載のモデル評価方法。
8. The model evaluation method according to any one of claims 1 to 7, wherein the plurality of properties includes continuously changing properties whose values change continuously.
前記連続変化プロパティは、前記対象モデルの前記入力データにおける、検知対象の位置、前記検知対象の形状、前記検知対象の色、光源位置または光源強度の少なくとも1つを示す
請求項8に記載のモデル評価方法。
9. The model of claim 8, wherein the continuously changing property indicates at least one of a position of a sensing target, a shape of the sensing target, a color of the sensing target, a light source position, or a light source intensity in the input data of the target model. Evaluation method.
前記複数のプロパティは、値が連続的に変化しない非連続変化プロパティを含む
請求項1から9のいずれか一項に記載のモデル評価方法。
10. The model evaluation method according to any one of claims 1 to 9, wherein the plurality of properties include discontinuous changing properties whose values do not change continuously.
前記非連続変化プロパティは、前記対象モデルの前記入力データにおける、検知対象のテクスチャ、入力画像、カテゴリまたはクラスの少なくとも1つを示す
請求項10に記載のモデル評価方法。
11. The model evaluation method of claim 10, wherein the non-continuously changing property indicates at least one of a texture to be detected, an input image, a category or a class in the input data of the target model.
予め定められた拡張モデルを用いて、前記非連続変化プロパティの間を補完した補完データを生成する段階と、
前記補完データを用いて前記対象モデルに学習処理を実行させる段階と
を備える請求項10または11に記載のモデル評価方法。
generating interpolated data that interpolates between the non-continuously changing properties using a predetermined extension model;
The model evaluation method according to claim 10 or 11, comprising the step of causing the target model to perform learning processing using the complementary data.
前記複数のプロパティから前記対象モデルの評価対象としない評価非対象プロパティを指定する段階と、
前記複数のプロパティから前記評価非対象プロパティを除外した評価対象プロパティに基づいて、前記複数のプロパティを組みわせたに応じた評価指標を取得する段階と、
を備える請求項1から12のいずれか一項に記載のモデル評価方法。
Designating a non-evaluation target property that is not to be evaluated by the target model from the plurality of properties;
obtaining an evaluation index corresponding to a combination of the plurality of properties based on the property to be evaluated, which excludes the non-evaluation property from the plurality of properties;
The model evaluation method according to any one of claims 1 to 12, comprising:
前記対象モデルは、元データと、前記元データから拡張した拡張データに基づいて、学習されたモデルである
請求項1から13のいずれか一項に記載のモデル評価方法。
The model evaluation method according to any one of claims 1 to 13, wherein the target model is a model learned based on original data and extended data extended from the original data.
前記予め定められた条件に該当する前記評価指標に基づいて追加拡張データを生成する段階と、
前記追加拡張データに基づいて、前記対象モデルの学習処理を実行する段階と
を備える
請求項1から14のいずれか一項に記載のモデル評価方法。
generating additional augmented data based on the evaluation index corresponding to the predetermined condition;
15. The model evaluation method according to any one of claims 1 to 14, comprising: performing a learning process of the target model based on the additional augmented data.
コンピュータに請求項1から15のいずれか一項に記載のモデル評価方法を実行させるためのプログラム。 A program for causing a computer to execute the model evaluation method according to any one of claims 1 to 15. 入力データに応じた出力データを出力する対象モデルのモデル評価システムであって、
対象モデルの入力データに関する複数のプロパティを取得するプロパティ取得部と、
前記対象モデルを評価するための評価指標であって、前記複数のプロパティに関連する前記評価指標を取得する指標取得部と、
前記複数のプロパティに基づいて、予め定められた条件に該当する前記評価指標を特定するための指標特定データを出力する出力部と
を備えるモデル評価システム。
A model evaluation system for a target model that outputs output data according to input data,
a property acquisition unit that acquires multiple properties related to the input data of the target model;
an index acquisition unit that acquires the evaluation index for evaluating the target model, the evaluation index being related to the plurality of properties;
A model evaluation system comprising: an output unit that outputs index identification data for identifying the evaluation index that satisfies a predetermined condition based on the plurality of properties.
JP2021119733A 2021-07-20 2021-07-20 Model evaluation method and model evaluation system Active JP7713224B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021119733A JP7713224B2 (en) 2021-07-20 2021-07-20 Model evaluation method and model evaluation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021119733A JP7713224B2 (en) 2021-07-20 2021-07-20 Model evaluation method and model evaluation system

Publications (2)

Publication Number Publication Date
JP2023015768A true JP2023015768A (en) 2023-02-01
JP7713224B2 JP7713224B2 (en) 2025-07-25

Family

ID=85131011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021119733A Active JP7713224B2 (en) 2021-07-20 2021-07-20 Model evaluation method and model evaluation system

Country Status (1)

Country Link
JP (1) JP7713224B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116703849A (en) * 2023-05-31 2023-09-05 南京林业大学 Evaluation method of spatial index visualization prediction model based on hyperspectral imaging
CN118432283A (en) * 2024-06-26 2024-08-02 深圳市健网科技有限公司 A testing and evaluation method for distributed energy storage system
WO2025169304A1 (en) * 2024-02-06 2025-08-14 株式会社データグリッド Defective product data generation device, defective product data generation method, program, and defect generation step identification device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018181184A (en) * 2017-04-20 2018-11-15 オムロン株式会社 Evaluation apparatus, evaluation method and program thereof
JP2021093020A (en) * 2019-12-11 2021-06-17 株式会社東芝 Information processing apparatus, information processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018181184A (en) * 2017-04-20 2018-11-15 オムロン株式会社 Evaluation apparatus, evaluation method and program thereof
JP2021093020A (en) * 2019-12-11 2021-06-17 株式会社東芝 Information processing apparatus, information processing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116703849A (en) * 2023-05-31 2023-09-05 南京林业大学 Evaluation method of spatial index visualization prediction model based on hyperspectral imaging
WO2025169304A1 (en) * 2024-02-06 2025-08-14 株式会社データグリッド Defective product data generation device, defective product data generation method, program, and defect generation step identification device
CN118432283A (en) * 2024-06-26 2024-08-02 深圳市健网科技有限公司 A testing and evaluation method for distributed energy storage system

Also Published As

Publication number Publication date
JP7713224B2 (en) 2025-07-25

Similar Documents

Publication Publication Date Title
US10657652B2 (en) Image matting using deep learning
TWI746674B (en) Type prediction method, device and electronic equipment for identifying objects in images
CN105825524B (en) Method for tracking target and device
JP2018200685A (en) Forming of data set for fully supervised learning
US11755190B2 (en) Synthetic image data generation using auto-detected image parameters
KR20190063839A (en) Method and System for Machine Vision based Quality Inspection using Deep Learning in Manufacturing Process
CN113762257B (en) Identification method and device for mark in make-up brand image
EP3438892A1 (en) Information processing apparatus
JP7713224B2 (en) Model evaluation method and model evaluation system
US11403560B2 (en) Training apparatus, image recognition apparatus, training method, and program
KR102161052B1 (en) Method and appratus for segmenting an object in an image
CN112241784A (en) Train generative and discriminative models
CN111985333B (en) A behavior detection method and electronic device based on interactive enhancement of graph structure information
Li et al. A novel framework to generate synthetic video for foreground detection in highway surveillance scenarios
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
CN118154714A (en) Abnormal image generation method and device
CN117132763A (en) Power image anomaly detection method, device, computer equipment and storage medium
JP2015103188A (en) Image analysis device, image analysis method, and image analysis program
US11436781B2 (en) System and method for artificial neural-network based animation with three-dimensional rendering
CN114648792A (en) Expression recognition method and device based on multi-feature fusion
US10631050B2 (en) Determining and correlating visual context on a user device with user behavior using digital content on the user device
CN115082909B (en) Method and system for identifying lung lesions
US20250014386A1 (en) Apparatus control method, model training method and electronic apparatus
CN110163032B (en) Face detection method and device
CN118115932A (en) Image regressor training method and related methods, devices, equipment and media

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250610

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250707

R150 Certificate of patent or registration of utility model

Ref document number: 7713224

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150