JP2019012037A - Material characteristic estimation device and material characteristic estimation method - Google Patents
Material characteristic estimation device and material characteristic estimation method Download PDFInfo
- Publication number
- JP2019012037A JP2019012037A JP2017129635A JP2017129635A JP2019012037A JP 2019012037 A JP2019012037 A JP 2019012037A JP 2017129635 A JP2017129635 A JP 2017129635A JP 2017129635 A JP2017129635 A JP 2017129635A JP 2019012037 A JP2019012037 A JP 2019012037A
- Authority
- JP
- Japan
- Prior art keywords
- estimation
- image
- material property
- unit
- category
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Investigating And Analyzing Materials By Characteristic Methods (AREA)
Abstract
【課題】走査電子顕微鏡等で観測した材料の画像を用いて効率的に特性値を推定することができる材料特性推定装置及び材料特性推定方法を提供する。【解決手段】顕微鏡600により撮像された材料の画像を読み取る情報読取部211と、画像に基づきニューラルネットワークモデルにより材料の材料特性を推定する推定部212と、推定部212による推定結果を出力する出力部213と、を備え、推定結果は、推定の確信度情報を含む。【選択図】図1A material property estimation apparatus and a material property estimation method capable of efficiently estimating a property value using an image of a material observed with a scanning electron microscope or the like. An information reading unit 211 that reads an image of a material imaged by a microscope 600, an estimation unit 212 that estimates a material property of the material based on a neural network model based on the image, and an output that outputs an estimation result by the estimation unit 212 The estimation result includes the certainty information of the estimation. [Selection] Figure 1
Description
本発明は、材料特性推定装置及び材料特性推定方法に関する。 The present invention relates to a material property estimation device and a material property estimation method.
近年、自動車等に利用される薄板鋼板やラインパイプ等に利用される厚板鋼材に求められる鉄鋼製品の特性は向上してきており、また、許容される材料特性値(機械特性値)のばらつきも厳格化してきている。また特性値を改良するための鉄鋼製品開発は、より効率化を求められてきている。効率的な鉄鋼製品開発のためには、実際に鋼材をつくり試験装置によって引張強度(Tensile Strength:TS)等の特性値を試験装置によって計測する前に、モデルによって鋼材の特性値を推定・予測技術ことが重要である。例えば特許文献1では、鉄鋼プロセスにおける鋼材温度等の操業条件から、鉄鋼製品の特性値を推定する方法が提案されている。 In recent years, the characteristics of steel products required for thin steel plates used for automobiles, etc., and for thick steel plates used for line pipes, etc. have been improved, and variations in allowable material property values (mechanical property values) have also occurred. It has become stricter. Further, the development of steel products for improving characteristic values has been demanded to be more efficient. For efficient steel product development, steel materials are actually estimated and predicted using a model before actually producing steel materials and measuring properties such as Tensile Strength (TS) using a testing device. Technology is important. For example, Patent Document 1 proposes a method for estimating a characteristic value of a steel product from an operation condition such as a steel material temperature in the steel process.
上述のように操業条件から特性値を推定する方法があるものの、これまで走査電子顕微鏡等で観測した材料の画像を用いて効率的に特性値を推定することは提案されてこなかった。 Although there is a method for estimating the characteristic value from the operation condition as described above, it has not been proposed to estimate the characteristic value efficiently by using an image of a material observed with a scanning electron microscope or the like.
従って、上記のような問題点等に鑑みてなされた本発明の目的は、走査電子顕微鏡等で観測した材料の画像を用いて効率的に特性値を推定することができる材料特性推定装置及び材料特性推定方法を提供することにある。 Accordingly, an object of the present invention made in view of the above-described problems and the like is a material property estimation apparatus and material capable of efficiently estimating a property value using an image of a material observed with a scanning electron microscope or the like. It is to provide a characteristic estimation method.
上記課題を解決するために本発明の一実施形態に係る材料特性推定装置は、
顕微鏡により撮像された材料の画像の入力を受け付ける入力部と、
前記画像に基づきニューラルネットワークモデルにより前記材料の材料特性を推定する推定部と、
前記推定部による推定結果及び確信度を出力する出力部と、
を備える。
In order to solve the above problems, a material property estimation apparatus according to an embodiment of the present invention is
An input unit for receiving input of an image of a material imaged by a microscope;
An estimation unit for estimating material properties of the material by a neural network model based on the image;
An output unit that outputs an estimation result and a certainty factor by the estimation unit;
Is provided.
また、本発明の一実施形態に係る材料特性推定方法は、
顕微鏡により撮像された材料の画像を読み取るステップと、
前記画像に基づきニューラルネットワークモデルにより前記材料の材料特性を推定するステップと、
前記推定するステップによる推定結果を出力するステップと、
を含み、
前記推定結果は、推定の確信度情報を含む。
Moreover, the material property estimation method according to an embodiment of the present invention includes:
Reading an image of the material imaged by a microscope;
Estimating material properties of the material by a neural network model based on the image;
Outputting an estimation result of the estimating step;
Including
The estimation result includes certainty information of estimation.
本発明の一実施形態に係る材料特性推定装置及び材料特性推定方法によれば、走査電子顕微鏡等で観測した材料の画像を用いて効率的に特性値を推定することができる。 According to the material property estimation apparatus and the material property estimation method according to an embodiment of the present invention, it is possible to efficiently estimate a property value using an image of a material observed with a scanning electron microscope or the like.
(実施の形態)
以下、本発明の実施の形態について説明する。
(Embodiment)
Embodiments of the present invention will be described below.
(本システムの構成)
図1は本発明の一実施形態に係る材料特性推定装置200を含むシステム100の概要図である。図1に示すように、本発明の一実施形態に係るシステム100は、材料特性推定装置200と、表示装置300と、入力装置400と、記憶装置500と、顕微鏡600と、第1情報処理装置601と、材料特性計測装置700と、第2情報処理装置701とを備える。
(Configuration of this system)
FIG. 1 is a schematic diagram of a system 100 including a material property estimation apparatus 200 according to an embodiment of the present invention. As shown in FIG. 1, a system 100 according to an embodiment of the present invention includes a material property estimation device 200, a display device 300, an input device 400, a storage device 500, a microscope 600, and a first information processing device. 601, a material property measuring apparatus 700, and a second information processing apparatus 701.
材料特性推定装置200は、材料特性の推定処理を行う装置である。材料特性推定装置200は概略として、表示装置300、入力装置400、記憶装置500、第1情報処理装置601、及び第2情報処理装置701と有線により接続される。材料特性推定装置200は、これらの各装置と通信することで必要な情報の送受信を行い、材料特性を推定する。なお材料特性推定装置200と各装置とは、図1ではバスを介した有線により接続されているが接続の態様はこれに限られず、無線により接続してもよく、あるいは有線と無線を組み合わせた接続態様であってもよい。材料特性推定装置200の詳細の各構成については後述する。 The material property estimation device 200 is a device that performs a material property estimation process. The material property estimation device 200 is generally connected to the display device 300, the input device 400, the storage device 500, the first information processing device 601, and the second information processing device 701 by wire. The material property estimation device 200 performs transmission / reception of necessary information by communicating with each of these devices, and estimates material properties. In addition, although the material property estimation apparatus 200 and each apparatus are connected by the wire via the bus | bath in FIG. 1, the aspect of a connection is not restricted to this, You may connect by radio | wireless or combined wired and radio | wireless A connection mode may be used. Each detailed structure of the material property estimation apparatus 200 will be described later.
表示装置300は、例えば液晶ディスプレイ及び有機ELディスプレイ等、任意のディスプレイである。表示装置300は、入力されるデータ及び映像信号に基づく画面を表示可能である。表示装置300により、材料特性推定装置200による処理結果等を表示する。 The display device 300 is an arbitrary display such as a liquid crystal display and an organic EL display. The display device 300 can display a screen based on input data and a video signal. The display device 300 displays the processing result by the material property estimation device 200 and the like.
入力装置400は、例えばキーボード、ペンタブレット、タッチパッド、マウス等、本システムの管理者の操作を検出可能な任意の入力インターフェースである。なお入力装置400は、表示装置300と一体的に設けられたタッチパネルであってもよい。入力装置400により、材料特性推定装置200への各種処理の指示に係る操作を受け付ける。 The input device 400 is an arbitrary input interface that can detect the operation of the administrator of the system, such as a keyboard, a pen tablet, a touch pad, and a mouse. Note that the input device 400 may be a touch panel provided integrally with the display device 300. The input device 400 receives operations related to various processing instructions to the material property estimation device 200.
記憶装置500は、例えばハードディスクドライブ、半導体ドライブ、光学ディスクドライブ等であり、本システムにおいて必要な情報を記憶する装置である。 The storage device 500 is, for example, a hard disk drive, a semiconductor drive, an optical disk drive, or the like, and is a device that stores information necessary for this system.
顕微鏡600は、例えば走査電子顕微鏡、走査光学顕微鏡であり、本システムで材料特性を推定する対象の材料(以下、試験片ともいう。)のミクロ組織を撮像する装置である。試験片は例えば鋼材であり、本実施形態では試験片が鋼材である例について説明する。図2に顕微鏡600により撮像した試験片のミクロ組織の画像(以下、ミクロ組織画像といい、本発明の「画像」に対応する。)の一例を示す。ミクロ組織画像は、例えば図2に示すように、試験片表面の結晶構造を視野150μmまで拡大して撮像された2次元画像である。 The microscope 600 is, for example, a scanning electron microscope or a scanning optical microscope, and is an apparatus that images a microstructure of a material (hereinafter also referred to as a test piece) whose material characteristics are estimated by the present system. The test piece is, for example, a steel material. In this embodiment, an example in which the test piece is a steel material will be described. FIG. 2 shows an example of a microstructure image of a test piece imaged by the microscope 600 (hereinafter referred to as a microstructure image and corresponding to the “image” of the present invention). For example, as shown in FIG. 2, the microstructure image is a two-dimensional image obtained by enlarging the crystal structure of the surface of the test piece to a visual field of 150 μm.
第1情報処理装置601は、顕微鏡600により撮像されたミクロ組織画像を電子データとして保存し、また当該電子データを材料特性推定装置200に伝送するための装置である。ここで第1情報処理装置601は、ミクロ組織画像と試験片とを対応付けて保存する。例えば第1情報処理装置601は、各試験片に固有のIDと、当該試験片のミクロ組織画像とを対応付けて記憶する。 The first information processing apparatus 601 is an apparatus for storing a microstructure image captured by the microscope 600 as electronic data and transmitting the electronic data to the material property estimation apparatus 200. Here, the first information processing apparatus 601 stores the microstructure image and the test piece in association with each other. For example, the first information processing apparatus 601 stores an ID unique to each test piece and a microstructure image of the test piece in association with each other.
材料特性計測装置700は、例えば試験片の引張試験を行う引張試験装置を含み、試験片の材料特性を計測可能な装置である。材料特性計測装置700を引張試験装置とする場合、材料特性は引張強度であり、以下本実施の形態では材料特性が引張強度である例について説明する。なお材料特性は引張強度に限らず、延性、靱性、圧縮強度、せん断強度等であってもよく、他の任意の材料特性であってもよい。本実施の形態では、試験片として、60k熱延ハイテン材、5チャージ、19コイル、特性値レンジに関して引張強度が560〜700MPa、延性(EL)が29〜39%に対する112サンプルを用いた例を示す。 The material property measuring apparatus 700 includes, for example, a tensile test device that performs a tensile test of a test piece, and is a device that can measure the material property of the test piece. In the case where the material property measuring apparatus 700 is a tensile test device, the material property is tensile strength. In the present embodiment, an example in which the material property is tensile strength will be described below. The material properties are not limited to tensile strength, and may be ductility, toughness, compressive strength, shear strength, or any other material property. In this embodiment, an example in which 112 samples having a tensile strength of 560 to 700 MPa and a ductility (EL) of 29 to 39% with respect to a 60 k hot-rolled high tensile material, 5 charges, 19 coils, and a characteristic value range is used as a test piece. Show.
第2情報処理装置701は、材料特性計測装置700により計測された材料特性値を電子データとして保存し、また当該電子データを材料特性推定装置200に伝送するための装置である。ここで第2情報処理装置701は、材料特性値と試験片とを対応付けて保存する。具体的には例えば第2情報処理装置701は、試験片に固有の前記IDと、当該試験片の材料特性値とを対応付けて記憶する。 The second information processing apparatus 701 is an apparatus for storing the material characteristic value measured by the material characteristic measuring apparatus 700 as electronic data and transmitting the electronic data to the material characteristic estimating apparatus 200. Here, the second information processing apparatus 701 stores the material characteristic value and the test piece in association with each other. Specifically, for example, the second information processing apparatus 701 stores the ID unique to the test piece and the material characteristic value of the test piece in association with each other.
(材料特性推定装置の構成)
図1に示すように材料特性推定装置200は、演算処理部201と、ROM202と、RAM204とを備える。ROMは材料特性推定プログラム203を記憶している。また演算処理部201と、ROM202と、RAM204とは、バス205によりそれぞれ接続されている。また上述の表示装置300、入力装置400、記憶装置500、第1情報処理装置601、第2情報処理装置701も、バス205により接続されている。
(Configuration of material property estimation device)
As shown in FIG. 1, the material property estimation apparatus 200 includes an arithmetic processing unit 201, a ROM 202, and a RAM 204. The ROM stores a material property estimation program 203. The arithmetic processing unit 201, the ROM 202, and the RAM 204 are connected to each other by a bus 205. The display device 300, the input device 400, the storage device 500, the first information processing device 601, and the second information processing device 701 are also connected by the bus 205.
演算処理部201は、例えば汎用プロセッサ、及び特定の処理に特化した専用プロセッサ等、1つ以上のプロセッサを含む。演算処理部201は、ROM202から材料特性推定プログラム203を読み込んで、一時記憶部であるRAM204を用いて特定の機能を実現する。演算処理部201は、材料特性推定装置200全体の動作を制御する。 The arithmetic processing unit 201 includes one or more processors such as a general-purpose processor and a dedicated processor specialized for specific processing. The arithmetic processing unit 201 reads the material property estimation program 203 from the ROM 202 and realizes a specific function using the RAM 204 which is a temporary storage unit. The arithmetic processing unit 201 controls the overall operation of the material property estimation apparatus 200.
演算処理部201は機能ブロックとして、図1に示すように情報読取部206と、画像前処理部207と、離散化処理部208と、予測モデル作成部209と、出力部210と、情報読取部211と、推定部212と、出力部213とを備える。演算処理部201は、入力装置400の操作に基づき予測モデル作成処理の指示を受けた場合は、情報読取部206と、画像前処理部207と、離散化処理部208と、予測モデル作成部209と、出力部210とを機能させる。一方で演算処理部201は、入力装置400の操作に基づき推定処理の指示を受けた場合は、情報読取部211と、推定部212と、出力部213とを機能させる。 As shown in FIG. 1, the arithmetic processing unit 201 includes, as functional blocks, an information reading unit 206, an image preprocessing unit 207, a discretization processing unit 208, a prediction model creation unit 209, an output unit 210, and an information reading unit. 211, an estimation unit 212, and an output unit 213. When receiving a prediction model creation processing instruction based on an operation of the input device 400, the arithmetic processing unit 201 receives an information reading unit 206, an image preprocessing unit 207, a discretization processing unit 208, and a prediction model creation unit 209. And the output unit 210 functions. On the other hand, the arithmetic processing unit 201 causes the information reading unit 211, the estimation unit 212, and the output unit 213 to function when receiving an instruction for estimation processing based on an operation of the input device 400.
(予測モデル作成処理)
次に本システム100による材料特性の推定処理について説明する。本システムは材料特性を推定する前に、まずミクロ組織画像と材料特性とを結びつける予測モデルを作成する。図3に、予測モデル作成処理に係るフローチャートを示す。材料特性推定装置200の演算処理部201は、入力装置400の操作に基づき予測モデル作成処理の指示を受けた場合に図3に係る処理を実行する。
(Prediction model creation process)
Next, the material property estimation process by the system 100 will be described. Before estimating the material properties, the system first creates a prediction model that links the microstructure image and the material properties. FIG. 3 shows a flowchart relating to the prediction model creation process. The arithmetic processing unit 201 of the material property estimation apparatus 200 executes the process according to FIG. 3 when receiving an instruction for a prediction model creation process based on an operation of the input apparatus 400.
予測モデル作成指示を受けた場合、演算処理部201の情報読取部206は、まず第1情報処理装置601により保存された試験片のミクロ組織画像を読み込む。また情報読取部206は、読み込んだミクロ組織画像に対応する材料特性値を読み込む。具体的には情報読取部206は、試験片のIDに基づき、読み込んだミクロ組織画像に対応する情報を特定する。そして第2情報処理装置701により保存された当該試験片の材料特性値を読み込む(ステップS201)。 When receiving the prediction model creation instruction, the information reading unit 206 of the arithmetic processing unit 201 first reads the microstructure image of the test piece stored by the first information processing apparatus 601. The information reading unit 206 reads a material characteristic value corresponding to the read microstructure image. Specifically, the information reading unit 206 specifies information corresponding to the read microstructure image based on the ID of the test piece. And the material characteristic value of the said test piece preserve | saved by the 2nd information processing apparatus 701 is read (step S201).
次に画像前処理部207は、ステップS201で入力されたミクロ組織画像を、予測モデル作成処理用に加工処理する(ステップS202)。具体的には画像前処理部207はミクロ組織画像を圧縮等する。例えばステップS201で入力されたミクロ組織画像が、色深度1チャンネル8ビットカラー(256色)で、画像サイズが横1252×縦990ピクセルの画像であった場合、画像前処理部207は、幅120×高さ94ピクセルに圧縮する。また画像前処理部207は、色深度1チャンネルから3チャネル・トゥルーカラーに変更する。また画像前処理部207は、ミクロ組織画像のうち印字がされている下部18ピクセルを削除する。かかる加工処理により、ミクロ組織画像1枚当たり120[ピクセル]×76[ピクセル]×3[チャンネル]×112[サンプル]=3,064,320[バイト]のバイナリデータを作成する。 Next, the image preprocessing unit 207 processes the microstructure image input in step S201 for the prediction model creation process (step S202). Specifically, the image preprocessing unit 207 compresses the microstructure image. For example, when the microstructure image input in step S201 is an image having a color depth of 1 channel and 8-bit color (256 colors) and an image size of 1252 horizontal by 990 pixels vertical, the image preprocessing unit 207 has a width of 120. X Compress to 94 pixels in height. The image pre-processing unit 207 changes the color depth from 1 channel to 3 channel true color. The image pre-processing unit 207 also deletes the lower 18 pixels that are printed from the microstructure image. By such processing, binary data of 120 [pixels] × 76 [pixels] × 3 [channels] × 112 [samples] = 3,064,320 [bytes] is created for each microstructure image.
続いて画像前処理部207は、上記処理を施した画像をランダムに1枚選択し、変更処理を施す。具体的には画像前処理部207は、選択した画像を、確率50%で上下反転させ、確率50%で左右反転させ、明度を64段階でランダムに変更させ、コントラストをランダムに変更させる。そして変更処理された画像から横24×縦24ピクセルの小さな画像をランダムに抽出(クロップ)する。以上の処理を5万回繰り返すことで、横24×縦24ピクセルの小さな画像を5万枚作成する。この5万枚の画像を学習用データと呼ぶ。さらに画像前処理部207は、学習用データとは独立して、学習用データを作成したときと同様の処理を行うことで10008枚の画像を作成する。これを評価用データと呼ぶ。 Subsequently, the image preprocessing unit 207 selects one image subjected to the above processing at random, and performs a change process. Specifically, the image pre-processing unit 207 vertically inverts the selected image with a probability of 50%, horizontally inverts with a probability of 50%, changes the brightness randomly in 64 steps, and changes the contrast randomly. Then, a small image of 24 × 24 pixels is randomly extracted (crop) from the changed image. By repeating the above processing 50,000 times, 50,000 small images of 24 × 24 pixels are created. These 50,000 images are called learning data. Furthermore, the image pre-processing unit 207 creates 1,0008 images independently from the learning data by performing the same processing as when the learning data is created. This is called evaluation data.
続いて離散化処理部208は、ステップS201で読み取った試験片の材料特性値をカテゴリデータに離散変換する(ステップS203)。全試験片の材料特性値(ここでは引張強度)が560MPaから699MPaの範囲内の値であった場合、離散化処理部208は、材料特性値をカテゴリ0からカテゴリ10までの11個のカテゴリのいずれかに割り当てることで、データを離散変換する。具体的には、引張強度が560MPa以上570MPa未満のデータに対してカテゴリ0を割り当てる。また、引張強度が570MPa以上580MPa未満のデータに対してカテゴリ1を割り当てる。また、引張強度が580MPa以上590MPa未満のデータに対してカテゴリ2を割り当てる。また、引張強度が590MPa以上600MPa未満のデータに対してカテゴリ3を割り当てる。また、引張強度が600MPa以上610MPa未満のデータに対してカテゴリ4を割り当てる。また、引張強度が610MPa以上620MPa未満のデータに対してカテゴリ5を割り当てる。また、引張強度が620MPa以上630MPa未満のデータに対してカテゴリ6を割り当てる。また、引張強度が630MPa以上640MPa未満のデータに対してカテゴリ7を割り当てる。また、引張強度が660MPa以上670MPa未満のデータに対してカテゴリ8を割り当てる。また、引張強度が670MPa以上680MPa未満のデータに対してカテゴリ9を割り当てる。また、引張強度が680MPa以上690MPa未満のデータに対してカテゴリ10を割り当てる。このように引張強度が10MPaのレンジで1つのカテゴリを割り当てる。 Subsequently, the discretization processing unit 208 discretely converts the material property value of the test piece read in step S201 into category data (step S203). When the material property values (here, tensile strength) of all the test pieces are values within the range of 560 MPa to 699 MPa, the discretization processing unit 208 sets the material property values of 11 categories from category 0 to category 10. Data is discretely transformed by assigning to either. Specifically, category 0 is assigned to data having a tensile strength of 560 MPa or more and less than 570 MPa. Further, category 1 is assigned to data having a tensile strength of 570 MPa or more and less than 580 MPa. Further, category 2 is assigned to data having a tensile strength of 580 MPa or more and less than 590 MPa. Further, category 3 is assigned to data having a tensile strength of 590 MPa or more and less than 600 MPa. Further, category 4 is assigned to data having a tensile strength of 600 MPa or more and less than 610 MPa. Further, category 5 is assigned to data having a tensile strength of 610 MPa or more and less than 620 MPa. Further, category 6 is assigned to data having a tensile strength of 620 MPa or more and less than 630 MPa. Further, category 7 is assigned to data having a tensile strength of 630 MPa or more and less than 640 MPa. Further, category 8 is assigned to data having a tensile strength of 660 MPa or more and less than 670 MPa. Further, category 9 is assigned to data having a tensile strength of 670 MPa or more and less than 680 MPa. Further, category 10 is assigned to data having a tensile strength of 680 MPa or more and less than 690 MPa. Thus, one category is assigned in the range where the tensile strength is 10 MPa.
続いて予測モデル作成部209は、ミクロ組織画像と材料特性とを結びつけるニューラルネットワークモデルを作成する(ステップS204)。具体的には予測モデル作成部209は、ステップS202で作成した画像(学習用データ)を入力し、ステップS203で離散化処理した材料特性のカテゴリ値を出力するニューラルネットワークモデルを作成する。より具体的には予測モデル作成部209は、当該ニューラルネットワークモデルのパラメータの最適化計算を行う。最適化計算として予測モデル作成部209は、まず学習用データ(5万枚の画像データ)をそれぞれニューラルネットワークモデルに入力し、ニューラルネットワークモデルが出力するカテゴリの推定値とその画像に対応する試験片のカテゴリ値との差の二乗を足し合わせて総和を算出する。例えば、特定カテゴリの値が1でその他が0である正解値に対して、各カテゴリの出力(0〜1)値の差の二乗和を計算するものである。言い換えると、ニューラルネットワークモデルが出力するカテゴリの推定値(カテゴリ毎の0〜1の出力値)と、試験片のカテゴリ値の正解値(当該試験片の属する特定カテゴリの値が1で、特定カテゴリ以外のカテゴリの値が0)とについて、各カテゴリの値の差の二乗和を計算する。予測モデル作成部209は当該総和が最小となるように、パラメータを最適化する。 Subsequently, the prediction model creation unit 209 creates a neural network model that links the microstructure image and material characteristics (step S204). Specifically, the prediction model creation unit 209 inputs the image (learning data) created in step S202, and creates a neural network model that outputs the category values of the material characteristics discretized in step S203. More specifically, the prediction model creation unit 209 performs optimization calculation of the parameters of the neural network model. As an optimization calculation, the prediction model creation unit 209 first inputs learning data (50,000 pieces of image data) to a neural network model, and estimates of categories output from the neural network model and test pieces corresponding to the images. The sum is calculated by adding the squares of the differences from the category value. For example, the sum of squares of the difference between the output (0 to 1) values of each category is calculated with respect to correct values where the value of a specific category is 1 and the others are 0. In other words, the estimated value of the category output by the neural network model (output value of 0 to 1 for each category) and the correct value of the category value of the test piece (the value of the specific category to which the test piece belongs is 1, the specific category For the category values other than 0), the sum of squares of the difference between the values of each category is calculated. The prediction model creation unit 209 optimizes the parameters so that the sum is minimized.
図4に、本システムにおけるニューラルネットワークモデルの処理の概念図を示す。ニューラルネットワークモデルは複数のフィルタの入出力が多段に繋がれた構造を有する。図4に示すようにニューラルネットワークモデルは、まず入力画像41を入力とし、フィルタ43を介して各ピクセル44の値を決定し、第1特徴マップ45を出力する。次に第1特徴マップ45に対してフィルタ46を介して各ピクセル47の値を決定し、第2特徴マップ48を出力する。このような処理を繰り返し、結合層49を経て、最終的に材料特性値に係るカテゴリを分類器50が出力する。 FIG. 4 shows a conceptual diagram of processing of the neural network model in this system. The neural network model has a structure in which inputs and outputs of a plurality of filters are connected in multiple stages. As shown in FIG. 4, the neural network model first receives an input image 41, determines the value of each pixel 44 through a filter 43, and outputs a first feature map 45. Next, the value of each pixel 47 is determined for the first feature map 45 through the filter 46, and the second feature map 48 is output. Such processing is repeated, and the classifier 50 finally outputs the category related to the material characteristic value through the bonding layer 49.
図5に、本システムにおけるニューラルネットワークモデルの処理フロー図を示す。本実施の形態に係るニューラルネットワークモデルは、入力側から順番に、第1畳み込み層301と、第1プーリング層302と、第1局所応答正規化フィルタ303と、第2畳み込み層304と、第2局所応答正規化フィルタ305と、第2プーリング層306と、第1全結合層307と、第2全結合層308と、分類器309とを含む。 FIG. 5 shows a processing flow diagram of the neural network model in this system. The neural network model according to the present embodiment includes a first convolution layer 301, a first pooling layer 302, a first local response normalization filter 303, a second convolution layer 304, and a second convolution layer in order from the input side. It includes a local response normalization filter 305, a second pooling layer 306, a first fully coupled layer 307, a second fully coupled layer 308, and a classifier 309.
第1畳み込み層301は、横24×縦24ピクセルの画像を入力とし、畳み込み演算によって19×19ピクセルの第1特徴マップを出力する。第1特徴マップは、入力画像のどの箇所でどのような局所的な特徴があるのかを示す。畳み込み演算においては、例えば横5×縦5ピクセル、3チャンネルの60種のフィルタを用いる。 The first convolution layer 301 receives an image of horizontal 24 × vertical 24 pixels and outputs a first feature map of 19 × 19 pixels by a convolution operation. The first feature map indicates what local features are present at which locations in the input image. In the convolution calculation, for example, 60 kinds of filters of 5 × 5 pixels and 3 channels are used.
第1プーリング層302は、第1畳み込み層301が出力した第1特徴マップを入力とし、第1特徴マップの横3×縦3ピクセル内での最大値を新たな1ピクセルとする。かかる操作を1ピクセル毎にずらしながらマップ全体にわたり実施する。これにより第1プーリング層302は、第1特徴マップを平滑化した、第2特徴マップを出力する。 The first pooling layer 302 receives the first feature map output from the first convolution layer 301 as an input, and sets the maximum value within 3 × 3 pixels of the first feature map as a new pixel. Such an operation is performed over the entire map while shifting every pixel. As a result, the first pooling layer 302 outputs a second feature map obtained by smoothing the first feature map.
第1局所応答正規化フィルタ303は、第1プーリング層302が出力した第2特徴マップの値が飽和しないように第2特徴マップの同一位置における異なる第2特徴マップ間で正規化処理を行う。 The first local response normalization filter 303 performs normalization processing between different second feature maps at the same position of the second feature map so that the value of the second feature map output from the first pooling layer 302 is not saturated.
第2畳み込み層304は、正規化処理が行われた第2特徴マップを入力画像とし、畳み込み演算によって第3特徴マップを出力する。第3特徴マップは、入力画像のどの箇所でどのような局所的な特徴があるのかを示す。畳み込み演算においては、例えば横5×縦5ピクセル、3チャンネルの60種のフィルタを用いる。 The second convolution layer 304 uses the second feature map subjected to the normalization process as an input image, and outputs a third feature map through a convolution operation. The third feature map indicates what local features are present at which locations in the input image. In the convolution calculation, for example, 60 kinds of filters of 5 × 5 pixels and 3 channels are used.
第2局所応答正規化フィルタ305は、第2畳み込み層304が出力した第3特徴マップの値が飽和しないように第3特徴マップの同一位置における異なる第3特徴マップ間で正規化処理を行う。 The second local response normalization filter 305 performs normalization processing between different third feature maps at the same position of the third feature map so that the value of the third feature map output from the second convolution layer 304 is not saturated.
第2プーリング層306は、第2局所応答正規化フィルタ305により正規化処理された第3特徴マップを入力とし、第3特徴マップの3×3ピクセル内での最大値を新たな1ピクセルとする。かかる操作を1ピクセルごとにずらしながらマップ全体にわたり実施する。これにより第2プーリング層306は、第3特徴マップを平滑化した、第4特徴マップを出力する。 The second pooling layer 306 receives the third feature map normalized by the second local response normalization filter 305 as an input, and sets the maximum value within 3 × 3 pixels of the third feature map as a new pixel. . Such an operation is performed over the entire map while shifting every pixel. Accordingly, the second pooling layer 306 outputs a fourth feature map obtained by smoothing the third feature map.
第1全結合層307及び第2全結合層308は、第2プーリング層306が出力した第4特徴マップの画素を、それぞれ所定のアルゴリズムで結合する。結合した第5特徴マップを分類器309に出力する。具体的には第1全結合層307は、第2プーリング層306が出力した第4特徴マップの画素すべてを入力とし、入力された画素と別の384個のニューロンとを全結合させたニューラルネットワークであり、このニューラルネットワークから算出される384個の値を第2全結合層308に出力する。第2全結合層308は、第1全結合層307から入力された384個の入力と別の192個のニューロンとを全結合させたニューラルネットワークであり、このニューラルネットワークから算出される192個の値を分類器309に出力する。 The first fully connected layer 307 and the second fully connected layer 308 combine the pixels of the fourth feature map output from the second pooling layer 306 with a predetermined algorithm. The combined fifth feature map is output to the classifier 309. Specifically, the first fully connected layer 307 receives all the pixels of the fourth feature map output from the second pooling layer 306 as input, and is a neural network in which the input pixels and another 384 neurons are fully connected. 384 values calculated from this neural network are output to the second fully connected layer 308. The second fully connected layer 308 is a neural network in which 384 inputs inputted from the first fully connected layer 307 and another 192 neurons are fully connected, and 192 calculated from this neural network. The value is output to the classifier 309.
分類器309は、第5特徴マップから、材料特性値に係るカテゴリ(本実施の形態では11分類)を出力する。ここで分類器309は、カテゴリ毎にそれぞれ値を出力し、各出力値は、各カテゴリに属する確からしさを示す。 The classifier 309 outputs a category (11 classifications in the present embodiment) related to the material characteristic value from the fifth feature map. Here, the classifier 309 outputs a value for each category, and each output value indicates the probability of belonging to each category.
上記処理により出力された結果と、計測値に基づく試験片のカテゴリとに基づき、ニューラルネットワークモデルのパラメータを最適化すると、フィルタの重み付け等が最適化される。最適化処理を行うことで、引張強度に影響を与える粒界、相分率、粒の形状等のミクロ組織の局所的な特徴等がニューラルネットワークモデルにより抽出され得る。 When the parameters of the neural network model are optimized based on the result output by the above processing and the category of the test piece based on the measurement value, the weighting of the filter is optimized. By performing the optimization process, local features of the microstructure such as grain boundaries, phase fractions, and grain shapes that affect the tensile strength can be extracted by the neural network model.
ニューラルネットワークモデルのパラメータを最適化した後、予測モデル作成部209は、ステップS203で作成した評価用データをニューラルネットワークモデルに入力して、評価用データに対する推定結果を得る。予測モデル作成部209は、学習用データ、評価用データ、ニューラルネットワークモデルのパラメータ、学習用データに対するニューラルネットワークモデルの出力結果、及び評価用データに対するニューラルネットワークモデルの出力結果を、記憶装置500に記憶させる。 After optimizing the parameters of the neural network model, the prediction model creation unit 209 inputs the evaluation data created in step S203 to the neural network model and obtains an estimation result for the evaluation data. The prediction model creation unit 209 stores the learning data, evaluation data, neural network model parameters, the output result of the neural network model for the learning data, and the output result of the neural network model for the evaluation data in the storage device 500. Let
続いて出力部210は、ステップS204で作成したニューラルネットワークモデルによる評価用データの推定結果を表示装置300に出力する(ステップS205)。表示装置300は、例えば推定結果を表形式で出力する。 Subsequently, the output unit 210 outputs the estimation result of the evaluation data based on the neural network model created in step S204 to the display device 300 (step S205). The display device 300 outputs the estimation result in a table format, for example.
(材料特性推定処理)
材料特性推定装置200の演算処理部201は、入力装置400の操作に基づき推定処理の指示を受けた場合、材料特性の推定処理を行う。図6は、材料特性の推定処理を示すフローチャートである。
(Material property estimation process)
The arithmetic processing unit 201 of the material property estimation apparatus 200 performs material property estimation processing when receiving an instruction for estimation processing based on an operation of the input device 400. FIG. 6 is a flowchart showing a material property estimation process.
はじめに情報読取部211は、推定の対象となるミクロ組織画像を読み取る(ステップS401)。図7に推定処理の対象となるミクロ組織画像の一例を示す。推定の対象となるミクロ組織画像は、顕微鏡600により取得され第1情報処理装置601に記憶されている。情報読取部211は、かかるミクロ組織画像を第1情報処理装置601から取得する。また情報読取部211は、記憶装置500に記憶されているニューラルネットワークモデルに係る各種データを取得する。 First, the information reading unit 211 reads a microstructure image to be estimated (step S401). FIG. 7 shows an example of a microstructure image that is an object of estimation processing. The microstructure image to be estimated is acquired by the microscope 600 and stored in the first information processing apparatus 601. The information reading unit 211 acquires the microstructure image from the first information processing device 601. Further, the information reading unit 211 acquires various data related to the neural network model stored in the storage device 500.
次に推定部212は、ステップS401で読み取ったミクロ組織画像に基づき、ニューラルネットワークモデルにより当該画像に係る材料の材料特性を推定する(ステップS402)。具体的には推定部212は、当該画像に係る材料が属する材料特性値のカテゴリを推定する。 Next, the estimation unit 212 estimates the material characteristics of the material related to the image based on the microstructure image read in step S401 using a neural network model (step S402). Specifically, the estimation unit 212 estimates the material property value category to which the material related to the image belongs.
本発明の一実施形態に係るニューラルネットワークモデルでは上述したように、分類器309の出力値は、カテゴリ毎にそれぞれ出力され、各出力値は、各カテゴリに属する確からしさを示している。例えば分類器309は、カテゴリ毎に、0〜1の間の連続値を出力する。この場合、分類器309が出力した値が1に近いほど、そのカテゴリに属する可能性が高いことを示す。 In the neural network model according to the embodiment of the present invention, as described above, the output value of the classifier 309 is output for each category, and each output value indicates the probability of belonging to each category. For example, the classifier 309 outputs a continuous value between 0 and 1 for each category. In this case, the closer the value output by the classifier 309 is to 1, the higher the possibility that it belongs to that category.
分類器309はカテゴリ毎に確からしさを独立に出力するため、推定部212は、分類器309の出力をまとめて、期待値の分布として編集出力する。すなわち、推定部212は、各カテゴリの出力を合計し、その合計値で各カテゴリの出力値を割って、期待値分布としている。 Since the classifier 309 outputs the probability independently for each category, the estimation unit 212 compiles and outputs the output of the classifier 309 as an expected value distribution. That is, the estimation unit 212 sums up the outputs of each category, and divides the output value of each category by the total value to obtain an expected value distribution.
ここでは各カテゴリを横軸に、各カテゴリに入力画像データが属する期待値(確率)を縦軸にとったヒストグラムを表示している。図8に示す推定結果は、ミクロ組織画像が示す鋼材の引張強度が、カテゴリ3に属する期待値が約60%であることを示している。またその他のカテゴリに属する期待値が10%以下であることを示している。このようにして推定結果の表示に基づき、材料特定を把握することができる。 Here, a histogram is displayed with each category on the horizontal axis and the expected value (probability) to which the input image data belongs to each category on the vertical axis. The estimation result shown in FIG. 8 shows that the expected value belonging to category 3 is approximately 60% for the tensile strength of the steel material indicated by the microstructure image. It also indicates that an expected value belonging to another category is 10% or less. In this way, the material identification can be grasped based on the display of the estimation result.
推定処理の結果表示の別の一例を図9に示す。図9に示す推定結果は、ミクロ組織画像が示す鋼材の引張強度が、カテゴリ1又は2に属する期待値がそれぞれ約35%であることを示している。またカテゴリ3に属する期待値が約20%であることを示している。すなわちこの場合には、推定結果の確からしさが図8と比較すると低いことを把握することができる。 Another example of the result display of the estimation process is shown in FIG. The estimation result shown in FIG. 9 shows that the expected value belonging to category 1 or 2 is about 35% for the tensile strength of the steel material indicated by the microstructure image. It also indicates that the expected value belonging to category 3 is about 20%. That is, in this case, it can be understood that the probability of the estimation result is low compared to FIG.
図10及び図11に、1つのカテゴリに対する期待値が60%以上の評価用データのサンプル、すなわち推定の確信度が高いサンプルだけを抽出して得た推定精度の表の一例を示す。図10及び図11に示すように、期待値が60%以上であるサンプルに関してカテゴリ1から3の推定精度は100%となる。すなわち、確信度が高い場合には、推定精度が極めて高いことが確認できる。 FIGS. 10 and 11 show examples of estimation accuracy tables obtained by extracting only samples of evaluation data having an expected value for one category of 60% or more, that is, samples having high estimation certainty. As shown in FIGS. 10 and 11, the estimation accuracy of categories 1 to 3 is 100% for samples whose expected value is 60% or more. That is, when the certainty factor is high, it can be confirmed that the estimation accuracy is extremely high.
このように本実施形態によれば、顕微鏡により撮像された試験片のミクロ組織画像を読み取り、ニューラルネットワークモデルにより当該ミクロ組織画像に係る材料の材料特性を推定する。これにより走査電子顕微鏡等で観測した材料のミクロ組織画像を用いて効率的に特性値を推定することができる。また推定の確信度に基づき、どの程度推定結果が確からしいかも把握することができる。 Thus, according to this embodiment, the microstructure image of the test piece imaged with the microscope is read, and the material characteristic of the material which concerns on the said microstructure image is estimated with a neural network model. Thereby, the characteristic value can be efficiently estimated using the microstructure image of the material observed with a scanning electron microscope or the like. It is also possible to grasp how probable the estimation result is based on the certainty of estimation.
なお、本実施の形態では、学習用データ及び評価用データとして横24×縦24ピクセルの小さな画像をクロップして用いている。当該小さな画像は、約30μm四方の領域に相当する。すなわち本実施の形態では、顕微鏡で撮像した画像のうち約30μm四方の領域の情報に基づき材料特性を推定している。当該サイズは、本実施の形態において対象とした鋼材の結晶粒径が10μm程度であり、結晶粒径に依存した材料特性を推定することから定まったものである。材料特性の推定においては、着目する特性が鋼材の結晶粒径に依存する場合、あるいは微小な析出物などまで考慮する必要がある場合等、着目する対象に応じて取得画像サイズ、解像度(ピクセル数)を適宜に変更する必要がある。そこで本実施の形態では、結晶組織の必要な情報に基づき画像領域のサイズを決定し、該画像領域の情報に基づき前記材料の材料特性を推定している。画像領域のサイズと同様、画像の解像度も、結晶組織の必要な情報に基づき適宜決定する。このように本実施の形態では、材料特性の推定に必要な情報が十分に含まれ、かつ計算負荷も考慮した撮像サイズ、解像度を選定している。 In the present embodiment, a small image of 24 × 24 pixels is used as the learning data and the evaluation data by cropping. The small image corresponds to an area of about 30 μm square. In other words, in the present embodiment, the material characteristics are estimated based on information about a region about 30 μm square in the image captured by the microscope. The size is determined by estimating the material properties depending on the crystal grain size, since the crystal grain size of the steel material targeted in the present embodiment is about 10 μm. In the estimation of material properties, the acquired image size and resolution (number of pixels) depending on the subject of interest, such as when the subject property depends on the crystal grain size of the steel material, or when it is necessary to consider even fine precipitates, etc. ) Must be changed accordingly. Therefore, in the present embodiment, the size of the image region is determined based on necessary information on the crystal structure, and the material characteristics of the material are estimated based on the information on the image region. Similar to the size of the image region, the resolution of the image is appropriately determined based on necessary information on the crystal structure. As described above, in the present embodiment, the imaging size and resolution are selected so that the information necessary for estimating the material characteristics is sufficiently included and the calculation load is taken into consideration.
本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各手段、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段やステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。 Although the present invention has been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications and corrections based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention. For example, the functions included in each means, each step, etc. can be rearranged so that there is no logical contradiction, and a plurality of means, steps, etc. can be combined or divided into one. .
例えば本実施の形態に係るシステム100は、第1情報処理装置601と第2情報処理装置701とを備える例を示したが、これらの装置をまとめ、1つの情報処理装置により処理を行ってもよい。この場合、かかる情報処理装置が、顕微鏡600により撮像されたミクロ組織画像を電子データとして保存し、また当該電子データを材料特性推定装置200に伝送する。また、材料特性計測装置700により計測された材料特性値を電子データとして保存し、また当該電子データを材料特性推定装置200に伝送する。また第1情報処理装置601と第2情報処理装置701における処理を、材料特性推定装置200が行ってもよい。 For example, the system 100 according to the present embodiment has been described as an example including the first information processing device 601 and the second information processing device 701. However, these devices may be combined and processed by one information processing device. Good. In this case, the information processing apparatus saves the microstructure image captured by the microscope 600 as electronic data, and transmits the electronic data to the material property estimation apparatus 200. Further, the material property value measured by the material property measuring apparatus 700 is stored as electronic data, and the electronic data is transmitted to the material property estimating apparatus 200. Moreover, the material characteristic estimation apparatus 200 may perform the processing in the first information processing apparatus 601 and the second information processing apparatus 701.
100 システム
200 材料特性推定装置
201 演算処理部
202 ROM
203 材料特性推定プログラム
204 RAM
205 バス
206 情報読取部
207 画像前処理部
208 離散化処理部
209 予測モデル作成部
210 出力部
211 情報読取部
212 推定部
213 出力部
300 表示装置
400 入力装置
500 記憶装置
600 顕微鏡
601 第1情報処理装置
700 材料特性計測装置
701 第2情報処理装置
301 第1畳み込み層
302 第1プーリング層
303 第1局所応答正規化フィルタ
304 第2畳み込み層
305 第2局所応答正規化フィルタ
306 第2プーリング層
307 第1全結合層
308 第2全結合層
309 分類器
41 入力画像
43 フィルタ
44 各ピクセル
45 第1特徴マップ
46 フィルタ
47 ピクセル
48 第2特徴マップ
49 結合層
50 分類器(カテゴリ出力)
DESCRIPTION OF SYMBOLS 100 System 200 Material characteristic estimation apparatus 201 Arithmetic processing part 202 ROM
203 Material property estimation program 204 RAM
205 Bus 206 Information Reading Unit 207 Image Preprocessing Unit 208 Discretization Processing Unit 209 Prediction Model Creation Unit 210 Output Unit 211 Information Reading Unit 212 Estimation Unit 213 Output Unit 300 Display Device 400 Input Device 500 Storage Device 600 Microscope 601 First Information Processing Device 700 Material property measuring device 701 Second information processing device 301 First convolution layer 302 First pooling layer 303 First local response normalization filter 304 Second convolution layer 305 Second local response normalization filter 306 Second pooling layer 307 First 1 Fully connected layer 308 2nd fully connected layer 309 Classifier 41 Input image 43 Filter 44 Each pixel 45 First feature map 46 Filter 47 Pixel 48 Second feature map 49 Connected layer 50 Classifier (category output)
Claims (6)
前記画像に基づきニューラルネットワークモデルにより前記材料の材料特性を推定する推定部と、
前記推定部による推定結果を出力する出力部と、
を備え、
前記推定結果は、推定の確信度情報を含む、材料特性推定装置。 An information reading unit for reading an image of a material imaged by a microscope;
An estimation unit for estimating material properties of the material by a neural network model based on the image;
An output unit for outputting an estimation result by the estimation unit;
With
The said estimation result is a material characteristic estimation apparatus containing the reliability information of estimation.
前記画像に基づきニューラルネットワークモデルにより前記材料の材料特性を推定するステップと、
前記推定するステップによる推定結果を出力するステップと、
を含み、
前記推定結果は、推定の確信度情報を含む、材料特性推定方法。 Reading an image of the material imaged by a microscope;
Estimating material properties of the material by a neural network model based on the image;
Outputting an estimation result of the estimating step;
Including
The estimation result includes a material property estimation method including reliability information of estimation.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017129635A JP6747391B2 (en) | 2017-06-30 | 2017-06-30 | Material property estimating apparatus and material property estimating method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017129635A JP6747391B2 (en) | 2017-06-30 | 2017-06-30 | Material property estimating apparatus and material property estimating method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019012037A true JP2019012037A (en) | 2019-01-24 |
| JP6747391B2 JP6747391B2 (en) | 2020-08-26 |
Family
ID=65226886
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017129635A Active JP6747391B2 (en) | 2017-06-30 | 2017-06-30 | Material property estimating apparatus and material property estimating method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6747391B2 (en) |
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021111360A (en) * | 2020-01-06 | 2021-08-02 | 日立金属株式会社 | Method for generating quality characteristic map |
| JPWO2021153633A1 (en) * | 2020-01-29 | 2021-08-05 | ||
| JP2021127994A (en) * | 2020-02-10 | 2021-09-02 | 国立大学法人東海国立大学機構 | Crystal orientation analyzer, crystal orientation analysis method and trained model generation method |
| JP2021144402A (en) * | 2020-03-11 | 2021-09-24 | 株式会社ジェイテクト | Manufacturing method for learning model used for quality evaluation, learning system, quality evaluation system, and quality evaluation method |
| JPWO2021199937A1 (en) * | 2020-03-31 | 2021-10-07 | ||
| JP2022030357A (en) * | 2020-08-07 | 2022-02-18 | 株式会社ジェイテクト | Manufacturing method, learning system, quality evaluation system, and quality evaluation method of learning model used for quality evaluation |
| JP2022033035A (en) * | 2020-08-11 | 2022-02-25 | 山東省食品薬品検験研究院 | Intelligent identification method and system for calcium oxalate crystals based on microscopic images |
| WO2022059186A1 (en) * | 2020-09-18 | 2022-03-24 | 株式会社東芝 | Grain size estimation device, grain size estimation method, grain size estimation program, and grain size estimation system |
| JP2023007165A (en) * | 2021-07-01 | 2023-01-18 | 日本製鉄株式会社 | Characteristic estimation device of ferrous material, characteristic estimation model generation device of ferrous material, characteristic estimation method of ferrous material, characteristic estimation model generation method of ferrous material and program |
| CN116148069A (en) * | 2023-04-20 | 2023-05-23 | 河北亿泰克轴承有限公司 | Bearing tensile strength detection device and detection method |
| JP2023127326A (en) * | 2022-03-01 | 2023-09-13 | 日本発條株式会社 | Machine learning device, machine learning method and machine learning program |
| JP2023127330A (en) * | 2022-03-01 | 2023-09-13 | 日本発條株式会社 | Material property prediction device, material property prediction method, and material property prediction program |
| JP2023147505A (en) * | 2022-03-30 | 2023-10-13 | 国立大学法人大阪大学 | Material property value prediction method, learned model generation method, program, and device |
| WO2023228572A1 (en) * | 2022-05-23 | 2023-11-30 | Jfeスチール株式会社 | Structure photograph evaluation method, structure photograph evaluation device, imaging device, and program |
| JP2024178343A (en) * | 2019-11-20 | 2024-12-24 | エヌビディア コーポレーション | Multi-scale feature identification using neural networks |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7723252B2 (en) * | 2021-07-01 | 2025-08-14 | 日本製鉄株式会社 | Ductility estimation device, estimation model generation device, ductility estimation method, estimation model generation method, and program |
| JPWO2024204515A1 (en) * | 2023-03-31 | 2024-10-03 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05248839A (en) * | 1992-03-02 | 1993-09-28 | Nippon Steel Corp | Image processing apparatus for determining quantity of linear structure |
| US20030234239A1 (en) * | 2002-02-20 | 2003-12-25 | Hsu-Tung Lee | Method and system for assessing quality of spot welds |
| JP2005315703A (en) * | 2004-04-28 | 2005-11-10 | Nippon Steel Corp | Steel material prediction method |
| WO2014033928A1 (en) * | 2012-08-31 | 2014-03-06 | 東芝三菱電機産業システム株式会社 | Material organization predict device, product fabrication method, and material organization predict method |
-
2017
- 2017-06-30 JP JP2017129635A patent/JP6747391B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05248839A (en) * | 1992-03-02 | 1993-09-28 | Nippon Steel Corp | Image processing apparatus for determining quantity of linear structure |
| US20030234239A1 (en) * | 2002-02-20 | 2003-12-25 | Hsu-Tung Lee | Method and system for assessing quality of spot welds |
| JP2005315703A (en) * | 2004-04-28 | 2005-11-10 | Nippon Steel Corp | Steel material prediction method |
| WO2014033928A1 (en) * | 2012-08-31 | 2014-03-06 | 東芝三菱電機産業システム株式会社 | Material organization predict device, product fabrication method, and material organization predict method |
Non-Patent Citations (1)
| Title |
|---|
| 全 邦釘 他: "ニューラルネットワークを用いた腐食鋼板の座屈耐荷力推定", 土木学会論文集 A2(応用力学), vol. 71, no. 2, JPN6020001521, 2015, pages 39 - 47, ISSN: 0004195522 * |
Cited By (39)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2024178343A (en) * | 2019-11-20 | 2024-12-24 | エヌビディア コーポレーション | Multi-scale feature identification using neural networks |
| JP2021111360A (en) * | 2020-01-06 | 2021-08-02 | 日立金属株式会社 | Method for generating quality characteristic map |
| JP7547954B2 (en) | 2020-01-06 | 2024-09-10 | 株式会社プロテリアル | How to generate a quality attribute map |
| CN115038965A (en) * | 2020-01-29 | 2022-09-09 | 杰富意钢铁株式会社 | Method for classifying phase of metallographic structure, apparatus for classifying phase of metallographic structure, method for learning phase of metallographic structure, apparatus for learning phase of metallographic structure, method for predicting material characteristics of metal material, and apparatus for predicting material characteristics of metal material |
| JPWO2021153633A1 (en) * | 2020-01-29 | 2021-08-05 | ||
| WO2021153633A1 (en) * | 2020-01-29 | 2021-08-05 | Jfeスチール株式会社 | Metal structure phase classification method, metal structure phase classification device, metal structure phase learning method, metal structure phase learning device, material property prediction method for metal material, and material property prediction device for metal material |
| JP7147974B2 (en) | 2020-01-29 | 2022-10-05 | Jfeスチール株式会社 | METHOD OF CLASSIFICATION OF METALLOGICAL STRUCTURE PHASE, METHOD OF CLASSIFICATION OF METALLOGICAL STRUCTURE PHASE, METHOD OF MATERIAL CHARACTERISTICS PREDICTION OF METALLIC MATERIAL, AND MATERIAL CHARACTERISTICS PREDICTION DEVICE OF MATERIAL MATERIAL |
| JP2021127994A (en) * | 2020-02-10 | 2021-09-02 | 国立大学法人東海国立大学機構 | Crystal orientation analyzer, crystal orientation analysis method and trained model generation method |
| JP7353601B2 (en) | 2020-02-10 | 2023-10-02 | 国立大学法人東海国立大学機構 | Crystal orientation analysis device, crystal orientation analysis method, and trained model generation method |
| JP2021144402A (en) * | 2020-03-11 | 2021-09-24 | 株式会社ジェイテクト | Manufacturing method for learning model used for quality evaluation, learning system, quality evaluation system, and quality evaluation method |
| JP7435062B2 (en) | 2020-03-11 | 2024-02-21 | 株式会社ジェイテクト | Method for manufacturing a learning model used for quality evaluation, learning system, quality evaluation system, and quality evaluation method |
| US12106466B2 (en) | 2020-03-31 | 2024-10-01 | Jfe Steel Corporation | Photographing condition determining method for metal structure, photographing method for metal structure, phase classification method for metal structure, photographing condition determining device for metal structure, photographing device for metal structure, phase classification device for metal structure, material property estimating method for metal material, and material property estimating device for metal material |
| KR102808719B1 (en) * | 2020-03-31 | 2025-05-15 | 제이에프이 스틸 가부시키가이샤 | Method for determining photographing conditions of metal tissue, method for photographing metal tissue, method for classifying images of metal tissue, device for determining photographing conditions of metal tissue, device for photographing metal tissue, device for classifying images of metal tissue, method for predicting material properties of metal material, and device for predicting material properties of metal material |
| JP7173345B2 (en) | 2020-03-31 | 2022-11-16 | Jfeスチール株式会社 | Metal structure imaging condition determination method, metal structure imaging method, metal structure phase classification method, metal structure imaging condition determination device, metal structure imaging device, metal structure phase classification device, material property prediction method for metal materials, and Material property prediction device for metallic materials |
| KR20220156044A (en) * | 2020-03-31 | 2022-11-24 | 제이에프이 스틸 가부시키가이샤 | Metallographic imaging condition determination method, metallographic imaging method, metallographic phase classification method, metallographic imaging condition determination device, metallographic imaging device, metallographic phase classification device, material property prediction method for metal materials, and Material property prediction device for metallic materials |
| CN115398228A (en) * | 2020-03-31 | 2022-11-25 | 杰富意钢铁株式会社 | Method for determining photographing conditions of metallic structures, method for photographing metallic structures, method for phase classification of metallic structures, device for determining photographing conditions of metallic structures, device for photographing metallic structures, device for phase classification of metallic structures, method for predicting material properties of metallic materials, and Material property prediction device for metal materials |
| CN115398228B (en) * | 2020-03-31 | 2025-06-13 | 杰富意钢铁株式会社 | Method and device for determining shooting conditions of metal structure, shooting method and device, phase classification method and device, material property prediction method and device |
| WO2021199937A1 (en) * | 2020-03-31 | 2021-10-07 | Jfeスチール株式会社 | Method for determining condition for imaging of metallographic structure, method for imaging metallographic structure, method for classifying phases of metallographic structure, device for determining condition for imaging of metallographic structure, device for imaging metallographic structure, device for classifying phases of metallographic structure, method for predicting material properties of metallic material, and device for predicting material properties of metallic material |
| JPWO2021199937A1 (en) * | 2020-03-31 | 2021-10-07 | ||
| EP4131159A4 (en) * | 2020-03-31 | 2023-11-08 | JFE Steel Corporation | Method for determining condition for imaging of metallographic structure, method for imaging metallographic structure, method for classifying phases of metallographic structure, device for determining condition for imaging of metallographic structure, device for imaging metallographic structure, device for classifying phases of metallographic structure, method for predicting material properties of metallic material, and device for predicting material properties of metallic material |
| JP2022030357A (en) * | 2020-08-07 | 2022-02-18 | 株式会社ジェイテクト | Manufacturing method, learning system, quality evaluation system, and quality evaluation method of learning model used for quality evaluation |
| JP7187630B2 (en) | 2020-08-11 | 2022-12-12 | 山東省食品薬品検験研究院 | Intelligent identification method and system for calcium oxalate crystals based on microscopic images |
| JP2022033035A (en) * | 2020-08-11 | 2022-02-25 | 山東省食品薬品検験研究院 | Intelligent identification method and system for calcium oxalate crystals based on microscopic images |
| JP7297083B2 (en) | 2020-09-18 | 2023-06-23 | 株式会社東芝 | Particle size estimation device, particle size estimation method, particle size estimation program, particle size estimation system. |
| US12067703B2 (en) | 2020-09-18 | 2024-08-20 | Kabushiki Kaisha Toshiba | Grain size estimation device, grain size estimation method, grain size estimation program, and grain size estimation system |
| JPWO2022059186A1 (en) * | 2020-09-18 | 2022-03-24 | ||
| WO2022059186A1 (en) * | 2020-09-18 | 2022-03-24 | 株式会社東芝 | Grain size estimation device, grain size estimation method, grain size estimation program, and grain size estimation system |
| JP7723253B2 (en) | 2021-07-01 | 2025-08-14 | 日本製鉄株式会社 | Apparatus for estimating steel material properties, apparatus for generating a steel material property estimation model, method for estimating steel material properties, method for generating a steel material property estimation model, and program |
| JP2023007165A (en) * | 2021-07-01 | 2023-01-18 | 日本製鉄株式会社 | Characteristic estimation device of ferrous material, characteristic estimation model generation device of ferrous material, characteristic estimation method of ferrous material, characteristic estimation model generation method of ferrous material and program |
| JP2023127330A (en) * | 2022-03-01 | 2023-09-13 | 日本発條株式会社 | Material property prediction device, material property prediction method, and material property prediction program |
| JP2023127326A (en) * | 2022-03-01 | 2023-09-13 | 日本発條株式会社 | Machine learning device, machine learning method and machine learning program |
| JP7778008B2 (en) | 2022-03-01 | 2025-12-01 | 日本発條株式会社 | Machine learning device, machine learning method, and machine learning program |
| JP7784917B2 (en) | 2022-03-01 | 2025-12-12 | 日本発條株式会社 | Material property prediction device, material property prediction method, and material property prediction program |
| JP2023147505A (en) * | 2022-03-30 | 2023-10-13 | 国立大学法人大阪大学 | Material property value prediction method, learned model generation method, program, and device |
| JP2023172383A (en) * | 2022-05-23 | 2023-12-06 | Jfeスチール株式会社 | Tissue photo evaluation method, tissue photo evaluation device, photographing device and program |
| JP7677232B2 (en) | 2022-05-23 | 2025-05-15 | Jfeスチール株式会社 | Tissue photo evaluation method, tissue photo evaluation device, photographing device, and program |
| WO2023228572A1 (en) * | 2022-05-23 | 2023-11-30 | Jfeスチール株式会社 | Structure photograph evaluation method, structure photograph evaluation device, imaging device, and program |
| CN116148069B (en) * | 2023-04-20 | 2023-06-27 | 河北亿泰克轴承有限公司 | Bearing tensile strength detection device and detection method |
| CN116148069A (en) * | 2023-04-20 | 2023-05-23 | 河北亿泰克轴承有限公司 | Bearing tensile strength detection device and detection method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6747391B2 (en) | 2020-08-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6747391B2 (en) | Material property estimating apparatus and material property estimating method | |
| US10909682B2 (en) | Method and device for detecting pulmonary nodule in computed tomography image, and computer-readable storage medium | |
| CN111369550B (en) | Image registration and defect detection method, model, training method, device and equipment | |
| CN107918216B (en) | Image Mura defect assessment method, system and readable storage medium | |
| CN113421263A (en) | Part defect detection method, device, medium and computer program product | |
| CN111899237B (en) | Scale precision measuring method, apparatus, computer device and storage medium | |
| CN113284113B (en) | Glue overflow defect detection method, device, computer equipment and readable storage medium | |
| EP3852356A1 (en) | Composition processing system, composition processing device, and composition processing method | |
| JP2019132668A (en) | Elongation determination device, elongation determination method, and computer program | |
| US20250265692A1 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
| EP2485190A1 (en) | Adapting the resolution of a graphic representation of metadata | |
| JP2020087570A (en) | Fracture surface analysis device, learned model generation device, fracture surface analysis method, fracture surface analysis device program, and learned model | |
| Tang et al. | A CNN-based network with attention mechanism for autonomous crack identification on building facade | |
| CN119130912A (en) | Strip steel surface defect detection method and system based on depth map | |
| CN103514599A (en) | Image optimum segmentation dimension selecting method based on neighborhood total variation | |
| JP5731027B2 (en) | Direction determining apparatus, direction determining method, and computer-readable recording medium | |
| CN111222468A (en) | People stream detection method and system based on deep learning | |
| CN115830374A (en) | Foreign matter detection method and device for transformer substation, computer equipment and storage medium | |
| CN112329852A (en) | Classification method, apparatus and electronic device for surface cover imagery | |
| CN118887621B (en) | Transmission scene monitoring system for transmission lines | |
| CN111539286B (en) | Lining line identification method and device and readable storage medium | |
| CN113034420A (en) | Industrial product surface defect segmentation method and system based on frequency space domain characteristics | |
| JP2021165429A (en) | Sinter structure learning device, structure structure learning method and structure structure learning program, and sinter manufacturing condition changing device, manufacturing condition changing method and manufacturing condition changing program | |
| JP2019170881A (en) | Computer program, classification device, classification method, image output device, and operation method of image output device | |
| JP7305509B2 (en) | Information processing device, its control method, program, and storage medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190124 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191225 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200121 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200323 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200707 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200720 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6747391 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |