[go: up one dir, main page]

JP2021111360A - Method for generating quality characteristic map - Google Patents

Method for generating quality characteristic map Download PDF

Info

Publication number
JP2021111360A
JP2021111360A JP2020192492A JP2020192492A JP2021111360A JP 2021111360 A JP2021111360 A JP 2021111360A JP 2020192492 A JP2020192492 A JP 2020192492A JP 2020192492 A JP2020192492 A JP 2020192492A JP 2021111360 A JP2021111360 A JP 2021111360A
Authority
JP
Japan
Prior art keywords
evaluation
learning
image
feature amount
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020192492A
Other languages
Japanese (ja)
Other versions
JP7547954B2 (en
Inventor
眞 小野
Makoto Ono
眞 小野
貴浩 吉岡
Takahiro Yoshioka
貴浩 吉岡
浩志 守谷
Hiroshi Moriya
浩志 守谷
智仁 槙
Tomohito Maki
智仁 槙
崇志 八木
Takashi Yagi
崇志 八木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Proterial Ltd
Original Assignee
Hitachi Metals Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Metals Ltd filed Critical Hitachi Metals Ltd
Publication of JP2021111360A publication Critical patent/JP2021111360A/en
Application granted granted Critical
Publication of JP7547954B2 publication Critical patent/JP7547954B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a method of capturing an image by an electron microscope or an optical microscope and predicting quality characteristics of a part captured in the image to generate a quality characteristic map.SOLUTION: The method for generating a quality characteristic map includes: a machine learning step of reading an image group for learning consisting of a plurality of images for learning and quality characteristics of material for learning for the images for learning in association with each other, cutting out a plurality of learning regions from the images for learning, extracting a feature quantity for learning and learning a regression model of predicting the quality characteristics of the material for learning; and a map generation step of reading an image for evaluation of one or more material for evaluation, cutting out a plurality of evaluation regions from the images for evaluation, extracting a feature quantity for evaluation, predicting quality characteristics of the material for evaluation for each evaluation region according to the regression model, and using the predicted quality characteristics of the material for evaluation to perform mapping for distribution of the quality characteristics of the material for evaluation.SELECTED DRAWING: Figure 3

Description

本発明は、磁石やセラミクスなどの材料を画像撮像装置で撮像し、その画像から品質特性マップを生成する技術に関する。 The present invention relates to a technique of imaging a material such as a magnet or ceramics with an image imaging device and generating a quality characteristic map from the image.

近年、情報科学、特にデータ科学を効果的に活用して、新材料を開発するマテリアルズインフォマティクスという技術分野が注目されている。
マテリアルズインフォマティクスでは、様々な実験条件や実験結果などのデータを関連付けてデータベースに蓄積し、統計解析、機械学習、シミュレーションなどを駆使して、新材料の開発に役立つ情報を抽出している。
特に、製作した材料を電子顕微鏡や光学顕微鏡などの画像撮像装置で撮像して得た画像や、分析装置で測定した材料の性能を表す品質特性は、有益な情報として蓄積されている。
In recent years, the technical field of materials informatics, which develops new materials by effectively utilizing information science, especially data science, has attracted attention.
In materials informatics, data such as various experimental conditions and experimental results are associated and accumulated in a database, and statistical analysis, machine learning, simulation, etc. are used to extract information useful for the development of new materials.
In particular, images obtained by imaging the manufactured material with an image imaging device such as an electron microscope or an optical microscope, and quality characteristics representing the performance of the material measured by the analyzer are accumulated as useful information.

ここで、材料を撮像して得た画像を分析して、有益な情報を得る方法として、たとえば、特許文献1に電子顕微鏡で撮像された画像の強調方法が開示されている。特許文献1の方法では、電子顕微鏡から得られるエネルギー信号や角度信号などと、組成情報や組織構造との関係に準じた、画像の変換処理を予め用意しておき、新材料の開発者が注目したい組成情報や組織構造が写った部位を強調した画像を生成できる。 Here, as a method of analyzing an image obtained by imaging a material and obtaining useful information, for example, Patent Document 1 discloses a method of enhancing an image captured by an electron microscope. In the method of Patent Document 1, an image conversion process is prepared in advance according to the relationship between the energy signal and the angle signal obtained from the electron microscope and the composition information and the tissue structure, and the developer of the new material is paying attention. It is possible to generate an image that emphasizes the part where the desired composition information and tissue structure are reflected.

また、材料を撮像して得た画像の分析に、機械学習を応用する方法として、たとえば、特許文献2にニューラルネットワークを用いて品質特性を予測する方法が開示されている。特許文献2の方法は、複数の材料を撮像して得た画像群と夫々の品質特性の対を予め多数用意し、ニューラルネットワークを学習しておくことで、学習済みのニューラルネットワークに新たに撮像して得た画像を入力することで、その材料の品質特性を予測できる。 Further, as a method of applying machine learning to the analysis of an image obtained by imaging a material, for example, Patent Document 2 discloses a method of predicting quality characteristics using a neural network. In the method of Patent Document 2, a large number of pairs of image groups obtained by imaging a plurality of materials and their respective quality characteristics are prepared in advance, and the neural network is trained to newly image the trained neural network. By inputting the obtained image, the quality characteristics of the material can be predicted.

特開2018−133174号公報Japanese Unexamined Patent Publication No. 2018-133174 特開2019−012037号公報Japanese Unexamined Patent Publication No. 2019-012037

特許文献1の方法で画像を生成するには、予め電子顕微鏡から得られるエネルギー信号や角度信号などと、組成情報や組織構造との関係に準じた画像の変換処理を実行する必要がある。更に、新材料の開発者が電子顕微鏡の原理、組成情報、組織構造などの知識を有ししていなければならない。 In order to generate an image by the method of Patent Document 1, it is necessary to execute an image conversion process according to the relationship between the energy signal and the angle signal obtained from the electron microscope in advance and the composition information and the tissue structure. In addition, the developer of the new material must have knowledge of the principles, composition information, tissue structure, etc. of the electron microscope.

また、特許文献2の方法は、ニューラルネットワークの学習のために大量な材料、それらの画像、それらの品質特性を予め測定しなければ活用できない問題もある。新材料の開発では、ニューラルネットワークの学習に必要なだけの大量な材料を準備することは難しい。 Further, the method of Patent Document 2 has a problem that it cannot be utilized unless a large amount of materials, images thereof, and quality characteristics thereof are measured in advance for learning a neural network. In the development of new materials, it is difficult to prepare as many materials as necessary for learning neural networks.

そこで本発明では、大量の材料、画像、品質特性測定がなくても、また、電子顕微鏡などの原理、組成情報、組織構造などの知識を有しなくても、材料の特性、すなわち品質特性の分布を表すマップを生成することが可能な品質特性マップの生成方法を提供する。 Therefore, in the present invention, the characteristics of the material, that is, the quality characteristics, can be obtained without having to measure a large amount of materials, images, and quality characteristics, and without having knowledge of principles such as an electron microscope, composition information, and tissue structure. Provided is a method of generating a quality characteristic map capable of generating a map representing a distribution.

本発明に係る品質特性マップの生成方法は、一つ以上の学習用材料を撮像して得られた、複数の学習用画像からなる学習用画像群と、学習用画像における学習用材料の品質特性とを対応付けて読み込み、学習用画像から複数の学習用領域を切り出して、学習用領域から学習用特徴量を抽出し、学習用特徴量から学習用材料の品質特性を予測する回帰モデルを学習する機械学習ステップと、一つ以上の評価用材料の評価用画像を読み込み、評価用画像から複数の評価用領域を切り出して、評価用領域から評価用特徴量を抽出し、評価特徴量と、回帰モデルによって、評価用領域毎に、評価用材料の品質特性を予測し、予測した評価用材料の品質特性を用いて、評価用画像内における評価用材料の品質特性の分布のマッピングを行うマップ生成ステップを有する。 The method for generating a quality characteristic map according to the present invention includes a learning image group consisting of a plurality of learning images obtained by imaging one or more learning materials, and the quality characteristics of the learning material in the learning image. To learn a regression model that predicts the quality characteristics of the learning material from the learning feature amount by extracting multiple learning areas from the learning area and extracting the learning feature amount from the learning feature amount. The machine learning step to be performed and the evaluation image of one or more evaluation materials are read, a plurality of evaluation areas are cut out from the evaluation image, the evaluation feature amount is extracted from the evaluation area, and the evaluation feature amount and the evaluation feature amount are used. A map that predicts the quality characteristics of the evaluation material for each evaluation area by the regression model and maps the distribution of the quality characteristics of the evaluation material in the evaluation image using the predicted quality characteristics of the evaluation material. It has a generation step.

また、前記学習用特徴量及び前記評価用特徴量の抽出は、学習済みの畳み込みニューラルネットワークを用いて行うことが好ましい。 Further, it is preferable to extract the learning feature amount and the evaluation feature amount using a learned convolutional neural network.

また、回帰モデルの学習は、ランダムフォレストを用いて行うことが好ましい。 Further, it is preferable to train the regression model using a random forest.

また、前記マップ生成ステップにおける前記マッピングは、等高線図であることが好ましい。 Further, it is preferable that the mapping in the map generation step is a contour map.

また、本発明に係る品質特性マップの生成方法は、一つ以上の学習用材料を撮像して得られた、複数の学習用画像からなる学習用画像群と、前記学習用画像における前記学習用材料の品質特性と、を対応付けて読み込み、前記学習用画像から複数の学習用領域を切り出して、
前記学習用領域から学習用特徴量を抽出し、前記学習用特徴量から前記学習用材料の品質特性を予測する回帰モデルを学習する機械学習ステップと、一つ以上の評価用材料の評価用画像を読み込み、前記評価用画像から複数の評価用領域を切り出して、前記評価用領域から第1の評価用特徴量を抽出し、前記第1の評価特徴量と、前記回帰モデルによって、前記評価用領域毎に、前記評価用材料の品質特性を予測する第1の予測ステップと、前記評価用領域の一部の画素の輝度の値を任意の値に置換し、第2の評価用特徴量を抽出し、前記第2の評価用特徴量と、前記回帰モデルによって、前記評価用領域毎に、前記評価用材料の品質特性を予測する第2の予測ステップと、前記第1の予測ステップと前記第2の予測ステップでそれぞれ予測した前記評価用材料の品質特性の差を前記一部の画素の輝度の値を変化させてマッピングするマップ生成ステップと、を有してもよい。
Further, the method for generating a quality characteristic map according to the present invention includes a learning image group composed of a plurality of learning images obtained by imaging one or more learning materials, and the learning image in the learning image. The quality characteristics of the material are associated with each other and read, and a plurality of learning areas are cut out from the learning image.
A machine learning step in which a learning feature amount is extracted from the learning area and a regression model for predicting the quality characteristics of the learning material is learned from the learning feature amount, and an evaluation image of one or more evaluation materials. Is read, a plurality of evaluation regions are cut out from the evaluation image, a first evaluation feature amount is extracted from the evaluation area, and the evaluation feature amount and the regression model are used for the evaluation. For each region, the first prediction step of predicting the quality characteristics of the evaluation material and the brightness value of a part of the pixels in the evaluation region are replaced with arbitrary values, and the second evaluation feature amount is used. A second prediction step of extracting and predicting the quality characteristics of the evaluation material for each evaluation region by the second evaluation feature amount and the regression model, the first prediction step, and the above. It may have a map generation step of mapping the difference in quality characteristics of the evaluation material predicted in the second prediction step by changing the value of the brightness of some of the pixels.

また、前記学習用特徴量、前記第1の評価用特徴量及び前記第2の評価用特徴量の抽出は、学習済みの畳み込みニューラルネットワークを用いて行うことが好ましい。 Further, it is preferable to extract the learning feature amount, the first evaluation feature amount, and the second evaluation feature amount by using a learned convolutional neural network.

また、前記第1の予測ステップと前記第2の予測ステップでそれぞれ予測した前記評価用材料の品質特性の差は、SHAP値であることが好ましい。 Further, the difference in quality characteristics of the evaluation material predicted in the first prediction step and the second prediction step is preferably a SHAP value.

本発明によれば、製作した材料を撮像した画像に対して、前記材料の性能、すなわち品質特性を、例えば一つしか得ることができなくても、画像内における品質特性の分布を表すマップを生成することが可能となり、それらは、新材料の開発における有益な情報として、マテリアルズインフォマティクスにおいて極めて有用となる。
また、画像などの情報が少ない材料でも品質特性マップを描くことができる。
According to the present invention, a map showing the distribution of quality characteristics in an image, even if only one quality characteristic, that is, the performance of the material, can be obtained with respect to an image of the produced material. It will be possible to generate them, which will be extremely useful in materials informatics as useful information in the development of new materials.
In addition, a quality characteristic map can be drawn even for materials with little information such as images.

電子顕微鏡の画像と生成した品質特性マップの例である。This is an example of an electron microscope image and a generated quality characteristic map. 材料リストの例である。This is an example of a material list. 回帰モデルを学習する機械学習ステップの学習手順を示すフローチャートの例である。This is an example of a flowchart showing a learning procedure of a machine learning step for learning a regression model. 学習用特徴量データの例である。This is an example of feature data for learning. 本発明おける、画像と矩形領域の関係を示す図の例である。This is an example of a diagram showing the relationship between an image and a rectangular region in the present invention. マップ生成ステップの手順を示すフローチャートの例である。This is an example of a flowchart showing the procedure of the map generation step. 予測した品質特性データの例である。This is an example of predicted quality characteristic data. モンテカルロシミュレーションによる、ボロノイ図の画像生成の手順を示すフローチャートの例である。This is an example of a flowchart showing the procedure for generating an image of a Voronoi diagram by Monte Carlo simulation. ボロノイ図が描画された画像と、それを入力として生成された品質特性マップの例である。This is an example of an image in which a Voronoi diagram is drawn and a quality characteristic map generated by using it as an input. モンテカルロシミュレーションによる、粒界構造の画像生成の手順を示すフローチャートの例である。This is an example of a flowchart showing a procedure for generating an image of a grain boundary structure by Monte Carlo simulation. 線分と打点が描画された画像と、それを入力として生成された品質特性マップの例である。This is an example of an image in which line segments and dots are drawn and a quality characteristic map generated by inputting the image. 電子顕微鏡の画像と生成した品質特性マップの例である。This is an example of an electron microscope image and a generated quality characteristic map. マップ生成ステップの手順を示すフローチャートの例である。This is an example of a flowchart showing the procedure of the map generation step. ボロノイ図が描画された画像と、それを入力して生成された品質特性マップの例である。This is an example of an image in which a Voronoi diagram is drawn and a quality characteristic map generated by inputting it.

以下、本発明の品質特性マップの生成方法について、五つの実施形態を用いて詳細に説明する。第1の実施形態では、磁石の電子顕微鏡の画像から、前記磁石の品質特性として重要な磁束密度と保磁力の分布を表す品質特性マップを生成した例を説明する。第2、第3の実施形態では、本発明の方法の確からしさを検証するために実施したシミュレーションの例を説明する。第4の実施形態では、磁石の電子顕微鏡の画像から、磁束密度と保磁力の分布を示す品質特性マップを、分解能を向上させる方法で生成した例について説明する。そして、第5の実施形態では、第4の実施形態で用いた方法の確からしさを検証するために実施したシミュレーションの例を説明する。 Hereinafter, the method for generating the quality characteristic map of the present invention will be described in detail using five embodiments. In the first embodiment, an example in which a quality characteristic map showing the distribution of the magnetic flux density and the coercive force, which are important as the quality characteristics of the magnet, is generated from the electron microscope image of the magnet will be described. In the second and third embodiments, an example of a simulation carried out for verifying the certainty of the method of the present invention will be described. In the fourth embodiment, an example in which a quality characteristic map showing the distribution of magnetic flux density and coercive force is generated from an electron microscope image of a magnet by a method of improving the resolution will be described. Then, in the fifth embodiment, an example of the simulation carried out for verifying the certainty of the method used in the fourth embodiment will be described.

(第1の実施形態)
図1は、入力する電子顕微鏡の画像と、本実施形態に基づいて生成した品質特性マップの例である。入力画像10は、磁石の材料の一部を電子顕微鏡で撮像した画像であり、磁束密度マップ11、及び保磁力マップ12は、夫々、本発明を用いて生成した磁束密度のマップと保磁力のマップである。
磁束密度マップ11や保磁力マップ12の品質特性マップは、後述のとおり、生成時に用いる矩形領域のサイズに従って、画像の端部は生成することができない。
(First Embodiment)
FIG. 1 is an example of an electron microscope image to be input and a quality characteristic map generated based on the present embodiment. The input image 10 is an image obtained by capturing a part of the material of the magnet with an electron microscope, and the magnetic flux density map 11 and the coercive force map 12 are the magnetic flux density map and the coercive force generated by using the present invention, respectively. It is a map.
As described later, the quality characteristic map of the magnetic flux density map 11 and the coercive force map 12 cannot generate the edge of the image according to the size of the rectangular region used at the time of generation.

生成した磁束密度マップ11と保磁力マップ12は、濃淡が濃い部位ほど予測した品質特性が高く、淡い部位ほど予測した品質特性が低いことを表している。
入力画像10の電子顕微鏡で撮像した画像と、磁束密度マップ11や保磁力マップ12の品質特性マップを視覚的に照らし合わせて、磁束密度が高く予測された部位は、どのような組織構造で、磁束密度が低く予測された部位は、どのような組織構造で、また、保磁力が高く予測された部位は、どのような組織構造で、保磁力が低く予測された部位は、どのような組織構造なのか、比較することができる。
The generated magnetic flux density map 11 and coercive force map 12 indicate that the darker the shaded part, the higher the predicted quality characteristic, and the lighter the shaded part, the lower the predicted quality characteristic.
By visually comparing the image captured by the electron microscope of the input image 10 with the quality characteristic map of the magnetic flux density map 11 and the coercive force map 12, what kind of tissue structure is the part where the magnetic flux density is predicted to be high? What kind of tissue structure is the part where the magnetic flux density is predicted to be low, what kind of tissue structure is the part where the coercive force is predicted to be high, and what kind of structure is the part where the coercive force is predicted to be low? It can be compared whether it is a structure.

磁石は、入力画像10の濃淡の濃い部位が塊として面積が広いほど磁束密度が高くなることが知られており、磁束密度マップ11のマップにその現象が現れている。また、入力画像10の濃淡の淡い部位が込み入っているほど保磁力が高くなることも知られており、保磁力マップ12にその現象が現れている。 It is known that the magnetic flux density of a magnet increases as the area of the input image 10 becomes agglomerates and the area becomes wider, and this phenomenon appears in the map of the magnetic flux density map 11. It is also known that the coercive force becomes higher as the shaded portion of the input image 10 becomes more complicated, and this phenomenon appears in the coercive force map 12.

なお磁束密度マップ11や保磁力マップ12の品質特性マップは、本実施形態では濃淡で図示したが、擬似カラーを用いると品質特性の大小関係がよりわかりやすくなる。 The quality characteristic maps of the magnetic flux density map 11 and the coercive force map 12 are shown in shades in the present embodiment, but the magnitude relationship of the quality characteristics becomes easier to understand when a pseudo color is used.

図2は、材料リストの例である。材料リストには、材料番号、品質特性として測定された磁束密度と保磁力、さらに電子顕微鏡の画像ファイル名が記述されており、電子顕微鏡で撮像した材料の画像と、その画像に対する品質特性の対応付けに用いられる。
縦に各材料に対するデータが記述されている。この例では、一つの材料に対して、一つの磁束密度の測定結果、一つの保磁力の測定結果、一つの画像が管理されている。
FIG. 2 is an example of a material list. The material list describes the material number, the magnetic flux density and coercive force measured as quality characteristics, and the image file name of the electron microscope. Used for attachment.
The data for each material is described vertically. In this example, one measurement result of magnetic flux density, one measurement result of coercive force, and one image are managed for one material.

本実施形態における回帰モデルを学習する機械学習ステップは、複数の学習用材料を撮像して得られた学習用画像群と、学習用画像群の夫々の学習用画像における学習用材料の品質特性とを対応付けて読み込み、読み込んだ学習用画像から複数の学習用矩形領域を切り出して、切り出した学習用矩形領域を用いて学習用特徴量を抽出し、その学習用特徴量から学習用材料の品質特性を予測する回帰モデルを学習することである。 The machine learning step for learning the regression model in the present embodiment includes the learning image group obtained by imaging a plurality of learning materials and the quality characteristics of the learning material in each learning image of the learning image group. , A plurality of learning rectangular areas are cut out from the read learning image, a learning feature amount is extracted using the cut out learning rectangular area, and the quality of the learning material is obtained from the learning feature amount. It is to learn a regression model that predicts the characteristics.

図3は、本実施形態における回帰モデルを学習する機械学習ステップの学習手順を示すフローチャートの例である。 FIG. 3 is an example of a flowchart showing a learning procedure of a machine learning step for learning a regression model in this embodiment.

段階101では、インターネット上に公開されている学習済みの畳み込みニューラルネットワーク(CNN)の特徴量抽出器を読み込む。
この特徴量抽出器は、本発明の対象である磁石やセラミクスなどの画像を解析するために学習したものではなく、動物や植物などを識別したり、自動車、歩行者などを識別したりするために学習されたものである。例えば、統計解析の分野で顕著なR言語では、深層学習用ライブラリKerasに組み込まれている関数application_vgg16を実行することで、この特徴量抽出器を読み込むことができる。
段階102では、図2に示した材料リストを読み込む。
In step 101, a learned convolutional neural network (CNN) feature extractor published on the Internet is read.
This feature extractor was not learned to analyze images of magnets, ceramics, etc., which is the object of the present invention, but to identify animals, plants, etc., and to identify automobiles, pedestrians, etc. It was learned in. For example, in the R language, which is prominent in the field of statistical analysis, this feature extractor can be read by executing the function application_vgg16 incorporated in the deep learning library Keras.
In step 102, the material list shown in FIG. 2 is read.

段階103から段階111の間は、前記材料リストの行数分、すなわち画像の枚数分、ループで繰り返す。
段階104では、電子顕微鏡で撮像した画像ファイルを読み込む。
段階105から段階110の間、段階106から段階109の間は、読み込んだ画像に対して、学習用矩形領域(以下、矩形領域と略す。)の中心のX座標とY座標を動かしながら処理する。
段階107ではX座標、Y座標に基づいて矩形領域のデータを切り出し、段階108では、 段階101で読み込んだ学習済みの畳み込みニューラルネットワークの特徴量抽出器を用いて、切り出した矩形領域に対する学習用特徴量(以下、特徴量と略す。)を抽出する。
The period from step 103 to step 111 is repeated in a loop for the number of lines in the material list, that is, for the number of images.
In step 104, the image file captured by the electron microscope is read.
From step 105 to step 110, and from step 106 to step 109, the read image is processed while moving the X and Y coordinates of the center of the learning rectangular area (hereinafter, abbreviated as rectangular area). ..
In step 107, the data of the rectangular area is cut out based on the X coordinate and the Y coordinate, and in step 108, the learning feature for the cut out rectangular area is used by using the feature amount extractor of the learned convolutional neural network read in step 101. The amount (hereinafter, abbreviated as feature amount) is extracted.

段階112では、特徴量の種類を削減する。学習済みの畳み込みニューラルネットワークの特徴量抽出器を用いて特徴量を抽出する場合、必ずしも有効な特徴量だけが抽出されるわけではない。切り出す矩形領域のサイズが、256画素×256画素×3層(RGB)の場合、32768種類の特徴量が抽出される。しかし、特徴量の種類によっては、値としてゼロしか入っていない場合も多数あるため、例えば、特徴量の値としてゼロが入っている矩形領域が、全矩形領域に対して90%以上であるような特徴量は削除する。 In step 112, the types of features are reduced. When the features are extracted using the feature extractor of the trained convolutional neural network, not only the effective features are extracted. When the size of the rectangular region to be cut out is 256 pixels × 256 pixels × 3 layers (RGB), 32768 kinds of feature quantities are extracted. However, depending on the type of feature quantity, there are many cases where only zero is contained as a value. Therefore, for example, the rectangular region containing zero as the feature quantity value is 90% or more of the total rectangular region. Features are deleted.

段階113では、磁束密度を予測するための回帰モデルを学習する。また段階114では、保磁力を予測するための回帰モデルを学習する。 In step 113, a regression model for predicting the magnetic flux density is learned. Further, in step 114, a regression model for predicting the coercive force is learned.

段階113、段階114ともに回帰モデルとして、重回帰分析、ランダムフォレスト、サポートベクターマシンなどのいずれの回帰系の機械学習方式でも適用できる。
これらの機械学習方式は、ニューラルネットワークよりも少ない材料の数でも学習できる利点がある。
重回帰分析は入力する特徴量の種類の数に制限があるため、主成分分析で事前に次元を削減するとよい。
かかる観点からは、ランダムフォレストが使いやすい。
Both steps 113 and 114 can be applied as regression models by any regression system machine learning method such as multiple regression analysis, random forest, and support vector machine.
These machine learning methods have the advantage that they can learn with a smaller number of materials than neural networks.
Since there is a limit to the number of types of features that can be input in multiple regression analysis, it is advisable to reduce the dimensions in advance by principal component analysis.
From this point of view, Random Forest is easy to use.

すなわち、画像を入力し、畳み込みニューラルネットワークを経由して、ランダムフォレストで品質特性、すなわち、ここでは磁束密度や保磁力を予測する回帰モデルを生成する。 That is, an image is input, and a regression model that predicts quality characteristics, that is, magnetic flux density and coercive force, is generated in a random forest via a convolutional neural network.

図4は、段階112の完了後の特徴量データの例である。この特徴量データは、一つの材料番号に対して、複数のX座標とY座標の対301が付いている。品質特性302は、同じ材料番号であれば、項目ごとに同じ値が付いている。特徴量303は、特徴量の種類の数だけ、列が並んでいる。 FIG. 4 is an example of feature data after the completion of step 112. This feature amount data has a plurality of pairs of X and Y coordinates for one material number. The quality characteristic 302 has the same value for each item if the material number is the same. The feature amount 303 is arranged in columns as many as the number of types of the feature amount.

学習済みの畳み込みニューラルネットワークの特徴量抽出器は、F1からF3268まで、32768種類の特徴量を抽出するが、特徴量の値としてゼロが入っている矩形領域が、全矩形領域に対して90%以上であるような特徴量を削除した結果、この例で示すように、F28、F56など数百種類の特徴量に削減される。 The trained convolutional neural network feature extractor extracts 32768 types of features from F1 to F3268, but the rectangular area containing zero as the feature value is 90% of the total rectangular area. As a result of deleting the above-mentioned feature amounts, as shown in this example, the number of feature amounts is reduced to several hundred types such as F28 and F56.

図5は、入力する画像、矩形領域、座標の関係を説明する図である。
段階104で読み込む画像に対して、横方向にX座標、縦方向にY座標をとり、左上部を原点とした画素数に応じて座標が定まる。同図のように横に2560画素、縦に1920画素の画像であれば、X座標は1から2560、Y座標は1から1920まである。
矩形領域13は、画像の一部分を切り出した画像の小片である。
FIG. 5 is a diagram for explaining the relationship between the input image, the rectangular area, and the coordinates.
With respect to the image read in step 104, the X coordinate is taken in the horizontal direction and the Y coordinate is taken in the vertical direction, and the coordinates are determined according to the number of pixels with the upper left portion as the origin. In the case of an image having 2560 pixels horizontally and 1920 pixels vertically as shown in the figure, the X coordinate is from 1 to 2560 and the Y coordinate is from 1 to 1920.
The rectangular area 13 is a small piece of an image obtained by cutting out a part of the image.

例えば、図示した矩形領域13は、中心の座標がX=2304、Y=256で、横に256画素、縦に256画素の領域である。
矩形領域13のサイズは、横に256画素、縦に256画素に限ったものではなく、画像のサイズや、画像に写り込んでいる組織のサイズなどに応じて自由に定めてよい。矩形領域13のサイズが小さいほど、生成される品質特性マップの分解能は高くなる。
しかし、矩形領域13のサイズが小さいと、品質特性の予測精度が低下し、生成された品質特性マップの信憑性が低下する。
そのため、品質特性の予測精度を確認し、妥当な矩形領域13のサイズを定めるとよい。
For example, the illustrated rectangular region 13 has central coordinates of X = 2304 and Y = 256, and is an region of 256 pixels horizontally and 256 pixels vertically.
The size of the rectangular region 13 is not limited to 256 pixels in the horizontal direction and 256 pixels in the vertical direction, and may be freely determined according to the size of the image, the size of the tissue reflected in the image, and the like. The smaller the size of the rectangular region 13, the higher the resolution of the generated quality characteristic map.
However, if the size of the rectangular region 13 is small, the prediction accuracy of the quality characteristic is lowered, and the credibility of the generated quality characteristic map is lowered.
Therefore, it is advisable to confirm the prediction accuracy of the quality characteristics and determine an appropriate size of the rectangular region 13.

本実施形態におけるマップ生成ステップは、少なくとも一つ以上の評価用材料の評価用画像を読み込み、読み込んだ評価用画像から複数の評価用矩形領域を切り出し、切り出した評価用矩形領域から評価用特徴量を抽出し、抽出した評価特徴量と回帰モデルによって、評価用矩形領域毎に、評価用材料の品質特性を予測し、予測した評価用材料の品質特性を用いて、評価用画像内における評価用材料の品質特性の分布をマッピングすることである。 In the map generation step in the present embodiment, at least one evaluation image of the evaluation material is read, a plurality of evaluation rectangular areas are cut out from the read evaluation image, and the evaluation feature amount is cut out from the cut out evaluation rectangular area. Is extracted, the quality characteristics of the evaluation material are predicted for each evaluation rectangular area by the extracted evaluation feature quantity and the regression model, and the predicted quality characteristics of the evaluation material are used for evaluation in the evaluation image. It is to map the distribution of the quality properties of the material.

図6は、本実施形態におけるマップ生成ステップの手順を示すフローチャートの例である。 FIG. 6 is an example of a flowchart showing the procedure of the map generation step in the present embodiment.

段階201では、段階101と同じ学習済みの畳み込みニューラルネットワークの特徴量抽出器を読み込む。
段階202では、段階113で学習した磁束密度を予測するための回帰モデルを読み込む。
段階203では、段階114で学習した保磁力を予測するための回帰モデルを読み込む。
段階204では、品質特性マップを生成したい材料の画像を読み込む。
ここで読み込む画像は、回帰モデルの学習に用いた学習用材料の画像の一つでもよいし、学習に用いなかった別の材料の画像でもよい。
ただし、倍率やサイズなど画像の撮像条件は、回帰モデルの学習に用いた画像と同等である必要がある。
In step 201, the same trained convolutional neural network feature extractor as in step 101 is read.
In step 202, a regression model for predicting the magnetic flux density learned in step 113 is read.
In step 203, a regression model for predicting the coercive force learned in step 114 is read.
In step 204, an image of the material for which a quality characteristic map is to be generated is loaded.
The image read here may be one of the images of the learning material used for learning the regression model, or may be an image of another material not used for learning.
However, the image imaging conditions such as magnification and size must be the same as the image used for learning the regression model.

段階205から段階212の間、段階206から段階211の間は、読み込んだ画像に対して、評価用矩形領域(以下、矩形領域と略す。)の中心のX座標とY座標を動かしながら処理する。
段階207では、X座標、Y座標に対する矩形領域を切り出す。
段階208では、矩形領域に対する評価用特徴量(以下、特徴量と略す。)を学習済みの畳み込みニューラルネットワークの特徴量抽出器を用いて抽出し、段階112で削減した特徴量の種類と同じものを削除する。
段階209では、矩形領域の磁束密度を予測する。
段階210では、矩形領域の保磁力を予測する。
From step 205 to step 212, and from step 206 to step 211, the read image is processed while moving the X and Y coordinates of the center of the evaluation rectangular area (hereinafter, abbreviated as rectangular area). ..
In step 207, a rectangular area with respect to the X coordinate and the Y coordinate is cut out.
In step 208, the evaluation feature amount (hereinafter abbreviated as feature amount) for the rectangular region is extracted using the feature amount extractor of the trained convolutional neural network, and is the same as the type of feature amount reduced in step 112. To delete.
In step 209, the magnetic flux density in the rectangular region is predicted.
In step 210, the coercive force of the rectangular region is predicted.

図7は、段階209と段階210で予測された品質特性データの例である。
X座標、Y座標の組み合わせ毎に、予測した磁束密度、予測した保磁力が列挙されている。
FIG. 7 is an example of quality characteristic data predicted in stages 209 and 210.
The predicted magnetic flux density and the predicted coercive force are listed for each combination of the X coordinate and the Y coordinate.

ループが終了したら、段階213では、X座標、Y座標、予測した磁束密度を用いて、磁束密度マップを生成する。
段階214では、X座標、Y座標、予測した保磁力を用いて、保磁力マップを生成する。この例では、回帰モデルを学習するときと同じようにX座標とY座標を動かしたが、学習ではX座標、Y座標を粗く動かし、品質特性マップを生成するときには、学習の場合よりも細かく動かしてもよい。
細かく動かした方が、より分解能の高い品質特性マップを生成することができる。
At the end of the loop, step 213 creates a magnetic flux density map using the X and Y coordinates and the predicted magnetic flux density.
In step 214, a coercive force map is generated using the X coordinate, the Y coordinate, and the predicted coercive force. In this example, the X and Y coordinates were moved in the same way as when training the regression model, but in the training, the X and Y coordinates were moved roughly, and when the quality characteristic map was generated, they were moved more finely than in the case of training. You may.
The finer the movement, the higher the resolution of the quality characteristic map can be generated.

ここで、本発明におけるマッピングとは、上述のように予測された品質特性データから、品質特性の分布を画像化したものである。さらに、マッピングは、等高線図で画像化することが好ましく、その結果が、図1で示した11の磁束密度マップや12の保磁力マップである。 Here, the mapping in the present invention is an image of the distribution of quality characteristics from the quality characteristic data predicted as described above. Further, the mapping is preferably imaged with a contour map, and the result is the magnetic flux density map of 11 and the coercive force map of 12 shown in FIG.

等高線図は、Python言語であれば、グラフ描画ライブラリのmatplotlibやseaborn、R言語であれば、基本関数のcontour、ないしはグラフ描画ライブラリのggplot2を用いれば容易に描くことができる。
ただし、それらを使うことができない場合には、例えば、品質特性データに対して、滑らかなBスプライン曲面を近似して、画像化してもよい。
さらに単純に、品質特性データのX座標、Y座標で散布図を描き、予測した磁束密度や予測した保磁力で各打点に色付けするだけでもよい。
また、マッピングは、2次元表示だけでなく、3次元表示で画像化しても良い。
The contour map can be easily drawn by using the graph drawing library matplotlib or seaborn in the Python language, the basic function contour in the R language, or ggplot2 in the graph drawing library.
However, when they cannot be used, for example, a smooth B-spline curved surface may be approximated to the quality characteristic data and imaged.
More simply, a scatter plot may be drawn with the X and Y coordinates of the quality characteristic data, and each hit point may be colored with the predicted magnetic flux density and the predicted coercive force.
Further, the mapping may be imaged not only in the two-dimensional display but also in the three-dimensional display.

(第2の実施形態)
次に、本実施形態の方法で生成する品質特性マップの確からしさを検証するために、モンテカルロシミュレーションで、磁石の組織構造と類似したボロノイ図を描いた画像を生成し、その画像を入力して品質特性マップを生成した。
(Second Embodiment)
Next, in order to verify the certainty of the quality characteristic map generated by the method of the present embodiment, an image depicting a boronoy diagram similar to the structure of the magnet is generated by Monte Carlo simulation, and the image is input. A quality characteristic map was generated.

図8は、モンテカルロシミュレーションによる、ボロノイ図の画像生成の手順を示すフローチャートである。ここでは256画素×256画素の正方形の画像を生成する例を説明する。 FIG. 8 is a flowchart showing a procedure for generating an image of a Voronoi diagram by Monte Carlo simulation. Here, an example of generating a square image of 256 pixels × 256 pixels will be described.

段階401から段階408の間は、組織の個数を変数として繰り返す。
例えば、変数Nが40のとき、一つの画像内に40個の組織を生成する。
すなわち、組織の平均の面積は、画像サイズの40分の1となる。
段階402から段階407の間は、組織の個数が等しい画像を20枚生成するために20回繰り返す。
段階403では、変数Nに基づき、N個のランダムなX,Y座標を生成する。X座標として1から256までの整数をランダムに発生させる。また、Y座標も1から256までの整数をランダムに発生させる。
段階404では、N個のランダムな座標からボロノイ図の頂点群を計算する。
段階405では計算された頂点群を線分で結びボロノイ図を描画する。
段階406でボロノイ図が描画された画像を保存する。このフローチャートの処理を実行することで、異なる組織構造の画像を100枚生成できる。
From step 401 to step 408, the number of tissues is repeated as a variable.
For example, when the variable N is 40, 40 tissues are generated in one image.
That is, the average area of the tissue is 1/40 of the image size.
Between steps 402 and 407, it is repeated 20 times to generate 20 images with the same number of tissues.
In step 403, N random X, Y coordinates are generated based on the variable N. An integer from 1 to 256 is randomly generated as the X coordinate. In addition, the Y coordinate also randomly generates an integer from 1 to 256.
In step 404, the vertices of the Voronoi diagram are calculated from N random coordinates.
In step 405, the calculated vertex groups are connected by line segments and a Voronoi diagram is drawn.
Save the image in which the Voronoi diagram was drawn in step 406. By executing the process of this flowchart, 100 images of different organizational structures can be generated.

図9は、ボロノイ図が描画された画像と、それを入力として、生成された品質特性マップの例を示す。
ボロノイ図画像421は、段階406で保存されたボロノイ図が描画された256画素×256画素の画像の例である。品質特性マップ422は、ボロノイ図画像421の画像を入力して、生成された品質特性マップである。
回帰モデルは、目的変数を組織の平均の面積として生成した。
FIG. 9 shows an image in which a Voronoi diagram is drawn and an example of a quality characteristic map generated by using the image as an input.
The Voronoi diagram image 421 is an example of a 256-pixel × 256-pixel image on which the Voronoi diagram saved in step 406 is drawn. The quality characteristic map 422 is a quality characteristic map generated by inputting the image of the Voronoi diagram image 421.
The regression model generated the objective variable as the mean area of the tissue.

この結果、画像毎に組織の平均の面積で回帰モデルを生成しても、品質特性マップ422のように、組織の面積が広い部位は、濃淡が濃く、組織の面積が小さい部位は、濃淡が淡く描かれている。
たとえば、ボロノイ図画像421の画像の右上端のように面積の広い組織があると、それに対応するように、品質特性マップ422の右上端は、濃淡が濃く描かれている。
一方、ボロノイ図画像421の画像の右下端のように面積の狭い組織が密集している部位は、それに対応するように、品質特性マップ422の右下端は、濃淡が淡く描かれている。
従って、本発明を用いて生成された品質特性マップ422は、ボロノイ図画像421の面積に関する特徴をよく表していることが分かる。
As a result, even if a regression model is generated with the average area of the tissue for each image, as in the quality characteristic map 422, the part with a large tissue area has a dark shade, and the part with a small tissue area has a shade. It is drawn lightly.
For example, if there is a structure having a large area such as the upper right corner of the Voronoi diagram image 421, the upper right corner of the quality characteristic map 422 is drawn in dark shades to correspond to it.
On the other hand, the lower right corner of the quality characteristic map 422 is lightly shaded so as to correspond to the portion where the tissues having a small area are densely formed, such as the lower right corner of the Voronoi diagram image 421.
Therefore, it can be seen that the quality characteristic map 422 generated by using the present invention well represents the characteristics regarding the area of the Voronoi diagram image 421.

(第3の実施形態)
次に、本実施形態の方法で生成する品質特性マップの確からしさを別の対象で検証するために、モンテカルロシミュレーションでセラミクスの粒界構造と類似した図を描いた画像を生成し、その画像を入力して品質特性マップを生成した。
(Third Embodiment)
Next, in order to verify the certainty of the quality characteristic map generated by the method of the present embodiment with another object, an image drawing a diagram similar to the grain boundary structure of ceramics is generated by Monte Carlo simulation, and the image is displayed. Input to generate a quality characteristic map.

セラミクスの粒界構造として、小さな打点がランダムに散りばめられたような画像が撮像される。
しかし、焼結条件によって、直線状に異常成長する粒体が発生し、それが曲げ強度を低下させる。 そこで、ランダムな打点とランダムな線分を混ぜ合わせた画像を生成して、線分の総長を予測する回帰モデルを生成して検証した。
As the grain boundary structure of ceramics, an image in which small dots are randomly scattered is captured.
However, depending on the sintering conditions, particles that grow abnormally in a straight line are generated, which reduces the bending strength. Therefore, we generated an image in which random dots and random line segments were mixed, and generated and verified a regression model that predicts the total length of the line segments.

図10は、モンテカルロシミュレーションによる、粒界構造の画像生成の手順を示すフローチャートである。ここでは256画素×256画素の正方形の画像を生成する例を説明する。 FIG. 10 is a flowchart showing a procedure for generating an image of a grain boundary structure by a Monte Carlo simulation. Here, an example of generating a square image of 256 pixels × 256 pixels will be described.

段階501から段階507の間は、生成する画像数分だけ繰り返す。
段階502では、50組のランダムなXY座標の対を生成する。すなわち座標(X1,Y1)と座標(X2,Y2)を生成し、それらを結ぶ線分を異常成長した粒体とする。ただし、あまりに長い異常成長は存在しない。
そこで、段階503でそれぞれの線分の長さを計算し、段階504では、50個の線分を整列し、短い方から10個だけを選び出して、10本の線分を描画する。
段階505では、200個のランダムな打点を描画する。
段階506では、線分と打点が描画された画像を保存する。
Between steps 501 and 507, the process is repeated for the number of images to be generated.
In step 502, 50 pairs of random XY coordinate pairs are generated. That is, the coordinates (X1, Y1) and the coordinates (X2, Y2) are generated, and the line segment connecting them is defined as an abnormally grown granular material. However, there is no overlong overgrowth.
Therefore, the length of each line segment is calculated in step 503, and in step 504, 50 line segments are arranged, only 10 are selected from the shorter one, and 10 line segments are drawn.
In step 505, 200 random dots are drawn.
In step 506, an image in which the line segment and the dot are drawn is saved.

図11は、線分と打点が描画された画像と、それを入力として、生成された品質特性マップの例を示す。
擬セラミクス粒界構造画像521は、段階506で保存された線分と打点が描画された256画素×256画素の画像の例である。
品質特性マップ522は、擬セラミクス粒界構造画像521の画像を入力して、生成された品質特性マップである。
回帰モデルは、目的変数を複数の線分の総長として生成した。
FIG. 11 shows an image in which line segments and dots are drawn and an example of a quality characteristic map generated by using the image as an input.
The pseudo-ceramic grain boundary structure image 521 is an example of a 256-pixel × 256-pixel image in which the line segments and dots saved in step 506 are drawn.
The quality characteristic map 522 is a quality characteristic map generated by inputting an image of the pseudo-ceramic grain boundary structure image 521.
The regression model generated the objective variable as the total length of multiple line segments.

この結果、複数の線分の総長として回帰モデルを生成しているにもかかわらず、長い線分が存在している部位や、複数の線分が密集している部位で、品質特性マップ522の濃淡が濃く描かれていることが確認できる。
従って、本実施形態を用いて生成された品質特性マップ522は、擬セラミクス粒界構造画像521に関する特徴をよく表していることが分かる。
As a result, although the regression model is generated as the total length of a plurality of line segments, the quality characteristic map 522 shows a part where a long line segment exists or a part where a plurality of line segments are densely packed. It can be confirmed that the shades are drawn deeply.
Therefore, it can be seen that the quality characteristic map 522 generated using the present embodiment well represents the characteristics related to the pseudoceramic grain boundary structure image 521.

(第4の実施形態)
図12は、入力する電子顕微鏡の画像と、本実施形態に基づいて生成した品質特性マップの例である。入力画像15は、磁石の材料の一部を電子顕微鏡で撮像した画像であり、磁束密度マップ16、及び保磁力マップ17は、夫々、本発明を用いて生成した磁束密度のマップと保磁力のマップである。
磁束密度マップ16や保磁力マップ17の品質特性マップは、磁束密度マップ11や保磁力マップ12よりも分解能が高く、画像の端部も生成できる点で、磁束密度マップ11や保磁力マップ12と異なる。
(Fourth Embodiment)
FIG. 12 is an example of an electron microscope image to be input and a quality characteristic map generated based on the present embodiment. The input image 15 is an image obtained by capturing a part of the material of the magnet with an electron microscope, and the magnetic flux density map 16 and the coercive force map 17 are the magnetic flux density map and the coercive force map generated by using the present invention, respectively. It is a map.
The quality characteristic maps of the magnetic flux density map 16 and the coercive force map 17 have higher resolution than the magnetic flux density map 11 and the coercive force map 12, and can also generate the edges of the image. different.

生成した磁束密度マップ16と保磁力マップ17は、濃淡が薄い部位ほど品質特性を高める作用のある組織、濃淡が濃い部位ほど品質特性を下げる作用のある組織であることを表している。
入力画像15の電子顕微鏡で撮像した画像と、磁束密度マップ16や保磁力マップ17の品質特性マップを視覚的に照らし合わせて、磁束密度を高くする作用がある部位は、どのような組織構造で、磁束密度を低くする作用がある部位は、どのような組織構造で、また、保磁力を高くする作用がある部位は、どのような組織構造で、保磁力を低くする作用がある部位は、どのような組織構造なのか、比較することができる。
The generated magnetic flux density map 16 and coercive force map 17 show that the lighter the shade, the higher the quality characteristic, and the darker the shade, the lower the quality characteristic.
What kind of tissue structure is the part that has the effect of increasing the magnetic flux density by visually comparing the image captured by the electron microscope of the input image 15 with the quality characteristic map of the magnetic flux density map 16 and the coercive force map 17. What kind of tissue structure is the part that has the effect of lowering the magnetic flux density, what kind of tissue structure is the part that has the effect of increasing the coercive force, and what kind of tissue structure is the part that has the effect of lowering the coercive force? You can compare what kind of organizational structure it is.

磁石は、入力画像15の濃淡の濃い部位、すなわち粒子部が塊として面積が広いほど磁束密度が高くなることが知られている。磁束密度マップ16は、面積が広い粒子部の端部に磁束密度を高める作用があることが現れている。特に、粒子部の左端と右端に磁束密度を高める作用があり、濃淡が淡くなっている。一方、粒子部の端部でも、上端と下端は濃淡が濃くなっていることがわかる。これは、電子顕微鏡画像15の磁化容易軸の向きが左右になっていることを現わしている。また、入力画像15の濃淡の淡い部位、すわなち、粒界部ほど保磁力が高くなることも知られている。保磁力マップ17にはその現象が現れている。これらの品質特性マップから、縦に長めの粒子部を形成できれば、磁束密度と保磁力の両方を高めることができることがわかる。 It is known that the magnetic flux density of a magnet increases as the area of the input image 15 is dark, that is, the particle portion is agglomerates and the area is large. The magnetic flux density map 16 shows that there is an action of increasing the magnetic flux density at the end of the particle portion having a large area. In particular, the left and right ends of the particle portion have the effect of increasing the magnetic flux density, and the shading is lightened. On the other hand, it can be seen that even at the end of the particle portion, the upper end and the lower end are shaded. This indicates that the orientation of the easy-to-magnetize axis of the electron microscope image 15 is left and right. It is also known that the coercive force becomes higher in the light shaded portion of the input image 15, that is, the grain boundary portion. The phenomenon appears in the coercive force map 17. From these quality characteristic maps, it can be seen that both the magnetic flux density and the coercive force can be increased if the vertically long particle portion can be formed.

なお磁束密度マップ16や保磁力マップ17の品質特性マップは、本実施形態では濃淡で図示したが、擬似カラーを用いると品質特性の大小関係がよりわかりやすくなる。例えば、品質特性を上げる作用がある部分は赤く色づけ、品質特性を下げる作業がある部分は青く色づけるとわかりやすい。 The quality characteristic maps of the magnetic flux density map 16 and the coercive force map 17 are shown in shades in the present embodiment, but the magnitude relationship of the quality characteristics becomes easier to understand when a pseudo color is used. For example, it is easy to understand if the part that has the effect of improving the quality characteristics is colored red and the part that has the work of lowering the quality characteristics is colored blue.

磁束密度マップ16や保磁力マップ17を生成する手順において、機械学習ステップは、磁束密度マップ11や保磁力マップ12を生成するために例示した図3のフローチャートと同じである。一方、マップ生成ステップは若干異なる。 In the procedure for generating the magnetic flux density map 16 and the coercive force map 17, the machine learning step is the same as the flowchart of FIG. 3 illustrated for generating the magnetic flux density map 11 and the coercive force map 12. On the other hand, the map generation steps are slightly different.

図13は、本実施形態におけるマップ生成ステップの手順を示すフローチャートの例である。
なお、以下に示される段階113や段階114については、図3のフローチャートを参照する。
段階201では、学習済みの畳み込みニューラルネットワークの特徴量抽出器を読み込む。
段階202では、段階113で学習した磁束密度を予測するための回帰モデルを読み込む。
段階203では、段階114で学習した保磁力を予測するための回帰モデルを読み込む。
段階204では、品質特性マップを生成したい材料の画像を読み込む。
ここで読み込む画像は、回帰モデルの学習に用いた学習用材料の画像の一つでもよいし、学習に用いなかった別の材料の画像でもよい。
ただし、倍率やサイズなど画像の撮像条件は、回帰モデルの学習に用いた画像と同等である必要がある。
FIG. 13 is an example of a flowchart showing the procedure of the map generation step in the present embodiment.
For the steps 113 and 114 shown below, refer to the flowchart of FIG.
In step 201, the learned convolutional neural network feature extractor is read.
In step 202, a regression model for predicting the magnetic flux density learned in step 113 is read.
In step 203, a regression model for predicting the coercive force learned in step 114 is read.
In step 204, an image of the material for which a quality characteristic map is to be generated is loaded.
The image read here may be one of the images of the learning material used for learning the regression model, or may be an image of another material not used for learning.
However, the image imaging conditions such as magnification and size must be the same as the image used for learning the regression model.

段階205から段階212の間、段階206から段階211の間は、読み込んだ画像に対して、評価用矩形領域(以下、矩形領域と略す。)の中心のX座標とY座標を動かしながら処理する。
段階207では、X座標、Y座標に対する矩形領域を切り出す。
段階208では、矩形領域に対する第1の評価用特徴量(以下、特徴量1と略す。)を学習済みの畳み込みニューラルネットワークの特徴量抽出器を用いて抽出し、段階112で削減した特徴量の種類と同じものを削除する。
From step 205 to step 212, and from step 206 to step 211, the read image is processed while moving the X and Y coordinates of the center of the evaluation rectangular area (hereinafter, abbreviated as rectangular area). ..
In step 207, a rectangular area with respect to the X coordinate and the Y coordinate is cut out.
In step 208, the first evaluation feature amount (hereinafter, abbreviated as feature amount 1) for the rectangular region is extracted using the feature amount extractor of the trained convolutional neural network, and the feature amount reduced in step 112 is extracted. Delete the same type.

また、矩形領域の一部の画素の輝度の値を任意の値に置換し、矩形領域に対する第2の評価用特徴量(以下、特徴量2と略す。)を学習済みの畳み込みニューラルネットワークの特徴量抽出器を用いて抽出し、段階112で削減した特徴量の種類と同じものを削除する。 Further, the luminance value of a part of the pixels in the rectangular region is replaced with an arbitrary value, and the second evaluation feature quantity (hereinafter, abbreviated as feature quantity 2) for the rectangular region is the feature of the trained convolutional neural network. Extract using a quantity extractor, and delete the same type of feature quantity reduced in step 112.

次に、特徴量1と、段階113や段階114で学習した回帰モデルによって、矩形領域毎に、評価用材料の品質特性を予測し(第1の予測ステップ)、同様に、特徴量2についても回帰モデルによって、矩形領域毎に、評価用材料の品質特性を予測する(第2の予測ステップ)。更に、第1の予測ステップと第2の予測ステップでそれぞれ予測した評価用材料の品質特性の差を一部の画素の輝度の値を変化させてマッピングする(マップ生成ステップ)。 Next, the quality characteristics of the evaluation material are predicted for each rectangular region by the feature quantity 1 and the regression model learned in the steps 113 and 114 (first prediction step), and similarly, the feature quantity 2 is also obtained. The quality characteristics of the evaluation material are predicted for each rectangular region by the regression model (second prediction step). Further, the difference in quality characteristics of the evaluation material predicted in the first prediction step and the second prediction step is mapped by changing the luminance value of some pixels (map generation step).

ここで、第1の予測ステップと第2の予測ステップでそれぞれ予測した評価用材料の品質特性の差は、例えば、段階113や段階114で学習した回帰モデルを用いて算出できるSHAP値に相当する値である。 Here, the difference in the quality characteristics of the evaluation materials predicted in the first prediction step and the second prediction step corresponds to, for example, the SHAP value that can be calculated using the regression model learned in steps 113 and 114. The value.

なお、SHAP値はXAI(Explainable AI)において算出される数値の一例であり、LIME(Local Interpretable Model-agnostic Explanations)などのXAIを用いて、予測ステップ1と予測ステップ2でそれぞれ予測した評価用材料の品質特性の差を算出してもよい。 The SHAP value is an example of a numerical value calculated by XAI (Explainable AI), and is an evaluation material predicted in prediction step 1 and prediction step 2 using XAI such as LIMITE (Local Interpretable Model-agnostic Explanations). The difference in quality characteristics of may be calculated.

そこで、本実施形態における段階231では、段階202で読み込んだ磁束密度を予測するための回帰モデルを用いて矩形領域の磁束密度のSHAP値の行列を算出する。SHAP値は256×256画素の矩形領域であれば、同様に256×256個のSHAP値が算出される。すなわち、画素毎にSHAP値が算出されるため、分解能の高い品質特性マップを生成できる。
段階232では、段階203で読み込んだ保磁力を予測するための回帰モデルを用いて矩形領域の保磁力のSHAP値の行列を算出する。
Therefore, in step 231 of the present embodiment, a matrix of SHAP values of the magnetic flux density in the rectangular region is calculated using the regression model for predicting the magnetic flux density read in step 202. If the SHAP value is a rectangular area of 256 × 256 pixels, 256 × 256 SHAP values are similarly calculated. That is, since the SHAP value is calculated for each pixel, a quality characteristic map with high resolution can be generated.
In step 232, a matrix of SHAP values of the coercive force in the rectangular region is calculated using the regression model for predicting the coercive force read in step 203.

ループが終了したら、段階233では、X座標、Y座標、算出したSHAP値の行列を用いて、磁束密度マップを生成する。
段階234では、X座標、Y座標、算出したSHAP値の行列を用いて、保磁力マップを生成する。
When the loop is completed, in step 233, a magnetic flux density map is generated using a matrix of X-coordinates, Y-coordinates, and the calculated SHAP value.
In step 234, a coercive force map is generated using a matrix of X-coordinates, Y-coordinates, and calculated SHAP values.

(第5の実施形態)
次に、本実施形態の方法で生成する品質特性マップの確からしさを検証するために、モンテカルロシミュレーションで、磁石の組織構造と類似したボロノイ図を描いた画像を生成し、その画像を入力して品質特性マップを生成した。モンテカルロシミュレーションによるボロノイ図の画像生成の手順は、図8と同じである。
(Fifth Embodiment)
Next, in order to verify the certainty of the quality characteristic map generated by the method of the present embodiment, an image depicting a Boronoi diagram similar to the structure of the magnet is generated by Monte Carlo simulation, and the image is input. A quality characteristic map was generated. The procedure for generating an image of a Voronoi diagram by Monte Carlo simulation is the same as that in FIG.

図14は、ボロノイ図が描画された画像と、それを入力として、第4の実施形態を用いて生成された品質特性マップの例を示す。
ボロノイ図画像431は、段階406で保存されたボロノイ図が描画された256画素×256画素の画像の例である。品質特性マップ432は、ボロノイ図画像431の画像を入力して、生成された品質特性マップである。回帰モデルは、目的変数を組織の平均の面積として生成した。
FIG. 14 shows an image in which the Voronoi diagram is drawn and an example of a quality characteristic map generated by using the image as an input and using the fourth embodiment.
The Voronoi diagram image 431 is an example of a 256-pixel × 256-pixel image on which the Voronoi diagram saved in step 406 is drawn. The quality characteristic map 432 is a quality characteristic map generated by inputting the image of the Voronoi diagram image 431. The regression model generated the objective variable as the mean area of the tissue.

この結果、画像毎に組織の平均の面積で回帰モデルを生成しても、品質特性マップ432のように、組織の面積が広い部位は、濃淡が濃く、組織の面積が小さい部位は、濃淡が淡く描かれている。特に、組織の面積が小さい部位の粒界部は、濃淡がほぼ白となった。
従って、本実施形態における品質特性マップ432は、ボロノイ図画像431の面積に関する特徴をよく表していることが分かる。
As a result, even if a regression model is generated with the average area of the tissue for each image, as in the quality characteristic map 432, the part with a large tissue area has a dark shade, and the part with a small tissue area has a shade. It is drawn lightly. In particular, the grain boundary of the portion where the area of the tissue was small was almost white in shade.
Therefore, it can be seen that the quality characteristic map 432 in the present embodiment well represents the characteristics related to the area of the Voronoi diagram image 431.

本発明は、電子顕微鏡に限らず、いかなる画像撮像装置にも適用できる。
また、本発明は、画像撮像装置の原理、組成情報、組織構造などの知識を必要としない。
さらに、実験で製作した材料を撮像した画像に対して、その性能、すなわち品質特性が一つしか得られない場合でも、画像内の品質特性の分布を表すマップを生成できる。
The present invention is not limited to an electron microscope, and can be applied to any image imaging device.
Further, the present invention does not require knowledge of the principle, composition information, tissue structure, etc. of the image capturing apparatus.
Further, it is possible to generate a map showing the distribution of quality characteristics in an image even when only one quality characteristic is obtained for the image obtained by capturing the material produced in the experiment.

その結果、生成されたマップから、性能の良い部位と悪い部位を比較することができる。たとえば、セラミクスの強度のような品質特性には、粒界構造の異常成長が最も影響することがわかっている。
しかし、粒界構造の異常成長以外にも強度に影響を与える要因が潜んでいる。
As a result, it is possible to compare the good part and the bad part from the generated map. For example, overgrowth of grain boundary structures has been found to have the greatest effect on quality characteristics such as ceramic strength.
However, there are other factors that affect the strength other than the abnormal growth of the grain boundary structure.

本発明は、そのような材料に対しても、材料を撮像して得た画像から、品質特性の分布、すなわち強度分布のマップを生成でき、強度の強い部位と弱い部位を比較することができる。その結果、新材料の開発者が想定していない現象に対して、気づきを与えることができる。 The present invention can generate a map of quality characteristic distribution, that is, intensity distribution, from an image obtained by imaging a material even for such a material, and can compare a strong portion and a weak portion. .. As a result, it is possible to give awareness to a phenomenon that the developer of the new material does not anticipate.

また、本発明は、特許文献2の方法のように、多数の材料、それらの画像、それらの品質特性を測定しておかなくても活用できる。 Further, the present invention can be utilized without measuring a large number of materials, their images, and their quality characteristics as in the method of Patent Document 2.

以上、本発明について、上記実施形態を用いて説明してきたが、本発明は上記実施形態に限定されるものではない。特許請求の範囲に含まれる技術範囲にて、内容を変更することができる。
例えば、上記実施形態では、磁石の磁束密度と保磁力という品質特性をマッピングしたが、セラミクスの熱伝導率と曲げ強度の品質特性をマッピングすることに用いることも可能である。
Although the present invention has been described above using the above-described embodiment, the present invention is not limited to the above-described embodiment. The contents can be changed within the technical scope included in the claims.
For example, in the above embodiment, the quality characteristics of the magnetic flux density and the coercive force of the magnet are mapped, but it can also be used to map the quality characteristics of the thermal conductivity and the bending strength of ceramics.

10 入力画像
11 磁束密度マップ
12 保磁力マップ
13 矩形領域
421 ボロノイ図画像
422 品質特性マップ
521 擬セラミクス粒界構造画像
522 品質特性マップ
15 入力画像
16 磁束密度マップ
17 保磁力マップ
431 ボロノイ図画像
432 品質特性マップ

10 Input image 11 Magnetic flux density map 12 Coercive force map 13 Rectangular area 421 Boronoi map image 422 Quality characteristic map 521 Pseudoceramics grain boundary structure image 522 Quality characteristic map 15 Input image 16 Magnetic flux density map 17 Coercive force map 431 Boronoi map image 432 Quality Characteristic map

Claims (7)

一つ以上の学習用材料を撮像して得られた、複数の学習用画像からなる学習用画像群と、前記学習用画像における前記学習用材料の品質特性と、を対応付けて読み込み、
前記学習用画像から複数の学習用領域を切り出して、
前記学習用領域から学習用特徴量を抽出し、前記学習用特徴量から前記学習用材料の品質特性を予測する回帰モデルを学習する機械学習ステップと、
一つ以上の評価用材料の評価用画像を読み込み、
前記評価用画像から複数の評価用領域を切り出して、
前記評価用領域から評価用特徴量を抽出し、
前記評価特徴量と、前記回帰モデルによって、前記評価用領域毎に、前記評価用材料の品質特性を予測し、
予測した前記評価用材料の品質特性を用いて、前記評価用画像内における前記評価用材料の品質特性の分布のマッピングを行うマップ生成ステップと、
を有することを特徴とする品質特性マップの生成方法。
A learning image group consisting of a plurality of learning images obtained by imaging one or more learning materials and a quality characteristic of the learning material in the learning image are read in association with each other.
A plurality of learning areas are cut out from the learning image, and a plurality of learning areas are cut out.
A machine learning step in which a learning feature amount is extracted from the learning area and a regression model for predicting the quality characteristic of the learning material is learned from the learning feature amount.
Load the evaluation image of one or more evaluation materials,
A plurality of evaluation areas are cut out from the evaluation image, and a plurality of evaluation areas are cut out.
The evaluation feature amount is extracted from the evaluation area, and the evaluation feature amount is extracted.
The quality characteristics of the evaluation material are predicted for each evaluation area by the evaluation feature amount and the regression model.
A map generation step of mapping the distribution of the quality characteristics of the evaluation material in the evaluation image using the predicted quality characteristics of the evaluation material.
A method of generating a quality characteristic map, which comprises having.
前記学習用特徴量及び前記評価用特徴量の抽出は、学習済みの畳み込みニューラルネットワークを用いて行うことを特徴とする請求項1に記載の品質特性マップの生成方法。 The method for generating a quality characteristic map according to claim 1, wherein the learning feature amount and the evaluation feature amount are extracted using a trained convolutional neural network. 前記回帰モデルの学習は、ランダムフォレストを用いて行うことを特徴とする請求項2に記載の品質特性マップの生成方法。 The method for generating a quality characteristic map according to claim 2, wherein the learning of the regression model is performed using a random forest. 前記マップ生成ステップにおける前記マッピングは、等高線図であることを特徴とする請求項1から請求項3のいずれか一項に記載の品質特性マップの生成方法。 The method for generating a quality characteristic map according to any one of claims 1 to 3, wherein the mapping in the map generation step is a contour map. 一つ以上の学習用材料を撮像して得られた、複数の学習用画像からなる学習用画像群と、前記学習用画像における前記学習用材料の品質特性と、を対応付けて読み込み、
前記学習用画像から複数の学習用領域を切り出して、
前記学習用領域から学習用特徴量を抽出し、前記学習用特徴量から前記学習用材料の品質特性を予測する回帰モデルを学習する機械学習ステップと、
一つ以上の評価用材料の評価用画像を読み込み、
前記評価用画像から複数の評価用領域を切り出して、
前記評価用領域から第1の評価用特徴量を抽出し、
前記第1の評価用特徴量と、前記回帰モデルによって、前記評価用領域毎に、前記評価用材料の品質特性を予測する第1の予測ステップと、
前記評価用領域の一部の画素の輝度の値を任意の値に置換し、第2の評価用特徴量を抽出し、前記第2の評価用特徴量と、前記回帰モデルによって、前記評価用領域毎に、前記評価用材料の品質特性を予測する第2の予測ステップと、
前記第1の予測ステップと前記第2の予測ステップでそれぞれ予測した前記評価用材料の品質特性の差を前記一部の画素の輝度の値を変化させてマッピングするマップ生成ステップと、
を有することを特徴とする品質特性マップの生成方法。
A learning image group consisting of a plurality of learning images obtained by imaging one or more learning materials and a quality characteristic of the learning material in the learning image are read in association with each other.
A plurality of learning areas are cut out from the learning image, and a plurality of learning areas are cut out.
A machine learning step in which a learning feature amount is extracted from the learning area and a regression model for predicting the quality characteristic of the learning material is learned from the learning feature amount.
Load the evaluation image of one or more evaluation materials,
A plurality of evaluation areas are cut out from the evaluation image, and a plurality of evaluation areas are cut out.
The first evaluation feature amount is extracted from the evaluation area, and the evaluation feature amount is extracted.
The first prediction step of predicting the quality characteristics of the evaluation material for each evaluation region by the first evaluation feature amount and the regression model.
The brightness value of a part of the pixels in the evaluation region is replaced with an arbitrary value, the second evaluation feature amount is extracted, and the evaluation feature amount is used with the second evaluation feature amount and the regression model. A second prediction step for predicting the quality characteristics of the evaluation material for each region,
A map generation step that maps the difference in quality characteristics of the evaluation material predicted in the first prediction step and the second prediction step by changing the brightness value of some of the pixels.
A method of generating a quality characteristic map, which comprises having.
前記学習用特徴量、前記第1の評価用特徴量及び前記第2の評価用特徴量の抽出は、学習済みの畳み込みニューラルネットワークを用いて行うことを特徴とする請求項5に記載の品質特性マップの生成方法。 The quality characteristic according to claim 5, wherein the learning feature amount, the first evaluation feature amount, and the second evaluation feature amount are extracted by using a learned convolutional neural network. How to generate a map. 前記第1の予測ステップと前記第2の予測ステップでそれぞれ予測した前記評価用材料の品質特性の差は、SHAP値であることを特徴とする請求項5又は請求項6に記載の品質特性マップの生成方法。

The quality characteristic map according to claim 5 or 6, wherein the difference in quality characteristics of the evaluation material predicted in the first prediction step and the second prediction step is a SHAP value. How to generate.

JP2020192492A 2020-01-06 2020-11-19 How to generate a quality attribute map Active JP7547954B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020000158 2020-01-06
JP2020000158 2020-01-06

Publications (2)

Publication Number Publication Date
JP2021111360A true JP2021111360A (en) 2021-08-02
JP7547954B2 JP7547954B2 (en) 2024-09-10

Family

ID=77060044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020192492A Active JP7547954B2 (en) 2020-01-06 2020-11-19 How to generate a quality attribute map

Country Status (1)

Country Link
JP (1) JP7547954B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220351504A1 (en) * 2021-04-28 2022-11-03 Hitachi Metals, Ltd. Method and apparatus for evaluating material property
JP2023127330A (en) * 2022-03-01 2023-09-13 日本発條株式会社 Material property prediction device, material property prediction method, and material property prediction program
WO2023189006A1 (en) 2022-03-30 2023-10-05 国立大学法人大阪大学 Material property value prediction method, trained model generation method, program, and device
CN118537339A (en) * 2024-07-25 2024-08-23 宁波荣新汽车零部件有限公司 Method and system for evaluating surface quality of part based on sander
WO2024186190A1 (en) * 2023-03-07 2024-09-12 삼성전자 주식회사 Electronic device for evaluating quality of image, and method of operating electronic device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016095640A (en) * 2014-11-13 2016-05-26 株式会社東芝 Density measurement device, density measurement method and program
JP2019007944A (en) * 2017-06-20 2019-01-17 株式会社神戸製鋼所 Segregation detection method and segregation detection device
JP2019012037A (en) * 2017-06-30 2019-01-24 Jfeスチール株式会社 Material characteristic estimation device and material characteristic estimation method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016095640A (en) * 2014-11-13 2016-05-26 株式会社東芝 Density measurement device, density measurement method and program
JP2019007944A (en) * 2017-06-20 2019-01-17 株式会社神戸製鋼所 Segregation detection method and segregation detection device
JP2019012037A (en) * 2017-06-30 2019-01-24 Jfeスチール株式会社 Material characteristic estimation device and material characteristic estimation method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220351504A1 (en) * 2021-04-28 2022-11-03 Hitachi Metals, Ltd. Method and apparatus for evaluating material property
JP2023127330A (en) * 2022-03-01 2023-09-13 日本発條株式会社 Material property prediction device, material property prediction method, and material property prediction program
JP7784917B2 (en) 2022-03-01 2025-12-12 日本発條株式会社 Material property prediction device, material property prediction method, and material property prediction program
WO2023189006A1 (en) 2022-03-30 2023-10-05 国立大学法人大阪大学 Material property value prediction method, trained model generation method, program, and device
JP2023147505A (en) * 2022-03-30 2023-10-13 国立大学法人大阪大学 Material property value prediction method, learned model generation method, program, and device
KR20240154077A (en) 2022-03-30 2024-10-24 오사카 유니버시티 Method for predicting material properties, method for creating a learning-completed model, program and device
WO2024186190A1 (en) * 2023-03-07 2024-09-12 삼성전자 주식회사 Electronic device for evaluating quality of image, and method of operating electronic device
CN118537339A (en) * 2024-07-25 2024-08-23 宁波荣新汽车零部件有限公司 Method and system for evaluating surface quality of part based on sander

Also Published As

Publication number Publication date
JP7547954B2 (en) 2024-09-10

Similar Documents

Publication Publication Date Title
JP2021111360A (en) Method for generating quality characteristic map
US8086041B2 (en) Pattern evaluation method, pattern matching method and computer readable medium
US20200025696A1 (en) Adaptive specimen image acquisition using an artificial neural network
CN114897781B (en) Automatic identification method of pores in permeable concrete based on improved R-UNet deep learning
JP7418639B2 (en) Particle analysis data generation method, particle analysis data generation program, and particle analysis data generation device
CN110223376B (en) A 3D Particle Reconstruction Method Based on Single Image of Stacked Particle Material
Warren et al. Grain and grain boundary segmentation using machine learning with real and generated datasets
Spagnolo et al. Virtual restoration of cracks in digitized image of paintings
Coquelin et al. Towards the use of deep generative models for the characterization in size of aggregated TiO2 nanoparticles measured by Scanning Electron Microscopy (SEM)
CN117542049B (en) Image recognition method and system based on deep learning
CN109684910A (en) A kind of method and system of network detection transmission line of electricity ground surface environment variation
CN114140551B (en) A method and system for estimating divergence and merging points on expressways based on trajectory images
Svoboda et al. Towards a realistic distribution of cells in synthetically generated 3D cell populations
DE102022130215A1 (en) Systems and methods for generating synthetic images of a training database
CN102930289B (en) Method for generating mosaic picture
CN118366006A (en) Parts recognition method and system based on improved Mask R-CNN instance segmentation network
CN115861610B (en) Sand and stone aggregate image segmentation processing method based on improvement CondInst
JP2021043828A (en) Analysis method of metal solidified crystal structure, and analyzing device of metal solidified crystal structure
Balagurunathan et al. Morphological granulometric analysis of sediment images
Kokoulin et al. Image Processing Methods in Analysis of Component Composition and Distribution of Dust Emissions for Environmental Quality Management
Snider-Simon et al. Development of statistical models for porosity from digital optical micrographs with application to metal additive manufacturing microstructure
CN116246007A (en) A Quantitative Analysis Method of Microscopic Remaining Oil Type Transformation Based on CT Technology
Marsh et al. Crack segmentation in roads using synthetic data and RGB-D data fusion
Fitzgerald et al. A Review of Computer Vision Techniques in the Detection of Metal Failures
Handley et al. Maximum‐likelihood estimation for discrete Boolean models using linear samples

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240812

R150 Certificate of patent or registration of utility model

Ref document number: 7547954

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150