JP2020031810A - Medical image processing apparatus, medical image processing system, and medical image processing program - Google Patents
Medical image processing apparatus, medical image processing system, and medical image processing program Download PDFInfo
- Publication number
- JP2020031810A JP2020031810A JP2018160005A JP2018160005A JP2020031810A JP 2020031810 A JP2020031810 A JP 2020031810A JP 2018160005 A JP2018160005 A JP 2018160005A JP 2018160005 A JP2018160005 A JP 2018160005A JP 2020031810 A JP2020031810 A JP 2020031810A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- medical image
- region
- extracted
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Magnetic Resonance Imaging Apparatus (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
【課題】画像処理アプリケーションを用いたワークフローの効率を向上させること。【解決手段】実施形態に係る医用画像処理装置は、取得部と、記憶部と、推定部とを備える。取得部は、画像処理によって抽出された医用画像内の抽出領域と、抽出領域に対して修正者が修正を施した修正領域とを取得する。記憶部は、抽出領域と修正領域との差分と、抽出領域との関係を学習することにより得られた学習済みモデルであって、画像処理によって医用画像内から抽出される抽出領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルを記憶する。推定部は、画像処理によって医用画像内から抽出された抽出領域を学習済みモデルに入力させることで、修正後領域を推定するように制御する。【選択図】図2PROBLEM TO BE SOLVED: To improve the efficiency of a workflow using an image processing application. A medical image processing apparatus according to an embodiment includes an acquisition unit, a storage unit, and an estimation unit. The acquisition unit acquires the extraction area in the medical image extracted by the image processing and the correction area in which the correction person has corrected the extraction area. The storage unit is a trained model obtained by learning the difference between the extraction area and the correction area and the relationship with the extraction area, and is correction for the extraction area extracted from the medical image by image processing. Stores a trained model that is functionalized to estimate the modified region after it has been subjected to. The estimation unit controls to estimate the modified region by inputting the extracted region extracted from the medical image by the image processing into the trained model. [Selection diagram] Fig. 2
Description
本発明の実施形態は、医用画像処理装置、医用画像処理システム及び医用画像処理プログラムに関する。 An embodiment of the present invention relates to a medical image processing device, a medical image processing system, and a medical image processing program.
従来、医用画像に対して実施される画像処理アプリケーションに搭載された画像処理アルゴリズムは、医用画像の典型的な画像を対象として、画像処理アプリケーションの開発者、或いは、評価者などの主観や、統計的観念によって最適化されている場合がある。そのような画像処理アプリケーションにおいては、ユーザ(操作者)が画像処理アプリケーションの出力に期待することと、画像処理アプリケーションの最適化の方針が一致するとは限らない。また、最適化の際に参照される典型的な画像がユーザの用いている画像と大きく異なる場合にも、ユーザの期待と最適化の内容とが食い違ってしまう場合がある。そのため、そのような画像処理アプリケーションが臨床の場で使用されると、画像処理アルゴリズムが出力した結果がユーザの期待する出力とは異なってしまう場合がある。ユーザは画像処理アルゴリズムから出力される結果が自身の期待に沿った内容となるよう、出力される結果に対して、修正を加える場合がある。 Conventionally, an image processing algorithm installed in an image processing application performed on a medical image targets subjective images of a typical image of the medical image, a subject such as a developer or an evaluator of the image processing application, and statistics. It may be optimized by the idea. In such an image processing application, what the user (operator) expects for the output of the image processing application does not always match the policy of optimizing the image processing application. In addition, even when a typical image referred to at the time of optimization is significantly different from an image used by the user, the user's expectation may differ from the content of the optimization. Therefore, when such an image processing application is used in a clinical setting, the result output by the image processing algorithm may be different from the output expected by the user. The user may modify the output result so that the result output from the image processing algorithm is in accordance with his / her expectations.
本発明が解決しようとする課題は、画像処理アプリケーションを用いたワークフローの効率を向上させることである。 An object of the present invention is to improve the efficiency of a workflow using an image processing application.
実施形態に係る医用画像処理装置は、取得部と、記憶部と、推定部とを備える。取得部は、画像処理によって抽出された医用画像内の抽出領域と、前記抽出領域に対して修正者が修正を施した修正領域とを取得する。記憶部は、前記抽出領域と前記修正領域との差分と、前記抽出領域との関係を学習することにより得られた学習済みモデルであって、前記画像処理によって医用画像内から抽出される抽出領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルを記憶する。推定部は、前記画像処理によって医用画像内から抽出された抽出領域を前記学習済みモデルに入力させることで、修正後領域を推定するように制御する。 A medical image processing device according to an embodiment includes an acquisition unit, a storage unit, and an estimation unit. The obtaining unit obtains an extraction region in the medical image extracted by the image processing and a correction region in which the corrector has corrected the extraction region. The storage unit is a trained model obtained by learning a relationship between the difference between the extraction region and the correction region and the extraction region, and the extraction region extracted from a medical image by the image processing. And stores a learned model that is provided with a function of estimating a corrected area after correction has been performed on. The estimating unit performs control so as to estimate a corrected area by inputting an extracted area extracted from a medical image by the image processing into the learned model.
以下、図面を参照しながら、医用画像処理装置、医用画像処理システム及び医用画像処理プログラムの実施形態について詳細に説明する。なお、本願に係る医用画像処理装置、医用画像処理システム及び医用画像処理プログラムは、以下に示す実施形態によって限定されるものではない。 Hereinafter, embodiments of a medical image processing apparatus, a medical image processing system, and a medical image processing program will be described in detail with reference to the drawings. Note that the medical image processing apparatus, the medical image processing system, and the medical image processing program according to the present application are not limited to the embodiments described below.
(実施形態)
図1は、本実施形態に係る医用画像処理システム100の構成例を示す図である。図1に示すように、本実施形態に係る医用画像処理システム100は、医用画像診断装置110と、端末装置120と、医用画像処理装置130とを含む。ここで、各装置は、ネットワーク200を介して通信可能に接続されている。
(Embodiment)
FIG. 1 is a diagram illustrating a configuration example of a medical
医用画像診断装置110は、被検体を撮像して医用画像を生成する。そして、医用画像診断装置110は、生成した医用画像を端末装置120や医用画像処理装置130に送信する。例えば、医用画像診断装置110は、X線診断装置、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置等である。 The medical image diagnostic apparatus 110 images a subject and generates a medical image. Then, the medical image diagnostic apparatus 110 transmits the generated medical image to the terminal apparatus 120 and the medical image processing apparatus 130. For example, the medical image diagnostic apparatus 110 includes an X-ray diagnostic apparatus, an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, an ultrasonic diagnostic apparatus, a SPECT (Single Photon Emission Computed Tomography) apparatus, and a PET (Positron Emission). computed tomography) device.
端末装置120は、病院内に勤務する医師や検査技師に医用画像を閲覧させるための装置である。例えば、端末装置140は、病院内に勤務する医師や検査技師により操作されるパーソナルコンピュータ(PC:Personal Computer)やタブレット式PC、PDA(Personal Digital Assistant)、携帯電話等によって実現される。例えば、端末装置120は、医用画像診断装置110又は医用画像処理装置130から受信した医用画像を自装置のディスプレイに表示させるとともに、自装置の入力インターフェースを介して医用画像に対する各種操作を受け付ける。 The terminal device 120 is a device for allowing a doctor or a laboratory technician who works in a hospital to browse medical images. For example, the terminal device 140 is realized by a personal computer (PC), a tablet PC, a PDA (Personal Digital Assistant), a mobile phone, or the like operated by a doctor or a laboratory technician who works in a hospital. For example, the terminal device 120 displays a medical image received from the medical image diagnostic device 110 or the medical image processing device 130 on its own display, and receives various operations on the medical image via its own input interface.
医用画像処理装置130は、医用画像診断装置110及び端末装置120から各種の情報を取得し、取得した情報を用いて各種の情報処理を行う。例えば、医用画像処理装置130は、サーバやワークステーション、パーソナルコンピュータ、タブレット端末等のコンピュータ機器によって実現される。 The medical image processing device 130 acquires various information from the medical image diagnostic device 110 and the terminal device 120, and performs various information processing using the acquired information. For example, the medical image processing apparatus 130 is realized by a computer device such as a server, a workstation, a personal computer, and a tablet terminal.
図1に示すように、医用画像処理装置130は、通信インターフェース131と、記憶回路132と、入力インターフェース133と、ディスプレイ134と、処理回路135とを有する。
As shown in FIG. 1, the medical image processing apparatus 130 includes a communication interface 131, a storage circuit 132, an input interface 133, a
通信インターフェース131は、処理回路135に接続されており、医用画像処理装置130と各装置との間で行われる通信を制御する。具体的には、通信インターフェース131は、各装置から各種の情報を受信し、受信した情報を処理回路135に出力する。例えば、通信インターフェース131は、ネットワークカードやネットワークアダプタ、NIC(Network Interface Controller)等によって実現される。
The communication interface 131 is connected to the
記憶回路132は、処理回路135に接続されており、各種のデータを記憶する。例えば、記憶回路132は、医用画像診断装置110から受信した医用画像や、端末装置120から取得した医用画像などを記憶する。また、記憶回路132は、処理回路135が読み出して実行することで各種機能を実現するための種々のプログラムを記憶する。例えば、記憶回路132は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子や、ハードディスク、光ディスク等によって実現される。なお、記憶回路132は、記憶部の一例である。
The storage circuit 132 is connected to the
入力インターフェース133は、処理回路135に接続されており、操作者から各種の指示及び情報の入力操作を受け付ける。具体的には、入力インターフェース133は、操作者から受け付けた入力操作を電気信号へ変換して処理回路135に出力する。例えば、入力インターフェース133は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、及び音声入力回路等によって実現される。なお、本明細書において、入力インターフェース133は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インターフェース133の例に含まれる。
The input interface 133 is connected to the
ディスプレイ134は、処理回路135に接続されており、各種の情報及び画像を表示する。具体的には、ディスプレイ134は、処理回路135から送られる情報及び画像のデータを表示用の電気信号に変換して出力する。例えば、ディスプレイ134は、液晶モニタやCRT(Cathode Ray Tube)モニタ、タッチパネル等によって実現される。
The
処理回路135は、入力インターフェース133を介して操作者から受け付けた入力操作に応じて、医用画像処理装置130の動作を制御する。例えば、処理回路135は、プロセッサによって実現される。
The
以上、本実施形態に係る医用画像処理システム100の構成について説明した。例えば、本実施形態に係る医用画像処理システム100は、病院や医院等の医療機関に設置され、医療機関に入院又は通院する患者等を被検体として、医用画像診断装置110によって生成される医用画像を用いた各種の画像診断に利用される。
The configuration of the medical
ここで、医用画像を用いた画像診断では、医用画像診断装置110によって収集された医用画像に対して画像処理アプリケーションが実施され、処理後の医用画像が診断に用いられる場合がある。例えば、MRI装置によって収集されたFLAIR(Fluid-Attenuated Inversion Recovery)画像に対して脳白質の高輝度領域を抽出する画像処理アプリケーションが実施され、処理後のFLAIR画像が多発性硬化症の診断に用いられる。 Here, in the image diagnosis using the medical image, an image processing application may be applied to the medical image collected by the medical image diagnostic apparatus 110, and the processed medical image may be used for the diagnosis. For example, an image processing application for extracting a high-brightness region of brain white matter from a FLAIR (Fluid-Attenuated Inversion Recovery) image collected by an MRI apparatus is performed, and the processed FLAIR image is used for diagnosis of multiple sclerosis. Can be
しかしながら、上述したように、このような画像処理アプリケーションに搭載された画像処理アルゴリズムは、医用画像の典型的な画像を対象として、画像処理アプリケーションの開発者、或いは、評価者などの主観や、統計的観念によって最適化されている。すなわち、このような画像処理アルゴリズムは、入力された医用画像に応じて出力結果が一意に決まる。したがって、出力結果に対してユーザ(操作者)が満足しない場合、ユーザがマニュアル操作によって出力結果を修正する場合がある。また、このようなユーザは、出力結果に対して高頻度で修正を加える可能性が高く、このような修正は、診断ワークフローの妨げとなる。さらに、ユーザごとに修正の傾向が異なる場合もあり、各ユーザにとって適切な出力結果を画像アプリケーションから出力することは困難である。 However, as described above, the image processing algorithm installed in such an image processing application targets a typical image of a medical image, and subjects the image such as a subject of an image processing application developer or an evaluator, or a statistical image. Optimized by the idea. That is, in such an image processing algorithm, the output result is uniquely determined according to the input medical image. Therefore, when the user (operator) is not satisfied with the output result, the user may correct the output result by manual operation. In addition, such a user is likely to make corrections to the output result with high frequency, and such corrections hinder the diagnostic workflow. Furthermore, the tendency of correction may differ for each user, and it is difficult to output an output result appropriate for each user from the image application.
そこで、本実施形態では、医用画像処理システム100における医用画像処理装置130が、画像処理アプリケーションによる出力結果と、出力結果に対するユーザ(修正者)の修正結果との関係を学習することで、画像処理アプリケーションによる出力結果の入力に対して修正を加えられるであろう領域を反映した出力結果を出力する学習済みモデルを構築する。そして、医用画像処理装置130は、新たに取得される画像処理アプリケーションによる出力結果を学習済みモデルに入力させることで、修正後の出力結果を推定する。これにより、医用画像処理装置130は、ユーザの修正傾向に沿った出力結果を自動で取得することができ、ユーザ自身がマニュアルで修正することなく適切な出力結果を提供することができる。その結果、医用画像処理装置130は、画像処理アプリケーションを用いたワークフローの効率を向上させることを可能にする。
Therefore, in the present embodiment, the medical image processing apparatus 130 in the medical
以下、本実施形態に係る医用画像処理装置130の詳細について説明する。図1に示すように、医用画像処理装置130の処理回路135は、制御機能135a、画像処理機能135b、解析機能135c、学習機能135d、及び、推定機能135eを実行する。ここで、制御機能135aは、取得部及び表示制御部の一例である。また、画像処理機能135bは、取得部の一例である。また、学習機能135dは、学習部の一例である。また、推定機能135eは、推定部の一例である。
Hereinafter, details of the medical image processing apparatus 130 according to the present embodiment will be described. As shown in FIG. 1, the
制御機能135aは、入力インターフェース133を介して入力された各種要求に応じた処理を実行するように制御する。例えば、制御機能135aは、通信インターフェース131を介した医用画像等の送受信、記憶回路132への情報の格納、ディスプレイ134への情報(例えば、表示画像や、画像処理機能135bの処理結果、解析機能135cの解析結果、推定機能135eの推定結果など)の表示などを制御する。
The control function 135a controls so as to execute a process according to various requests input via the input interface 133. For example, the control function 135a includes transmission and reception of medical images and the like via the communication interface 131, storage of information in the storage circuit 132, information on the display 134 (for example, display images, processing results of the
例えば、制御機能135aは、医用画像診断装置110から医用画像を取得して、記憶回路132に格納する。また、例えば、制御機能135aは、医用画像診断装置110から取得した医用画像に対して処理を実行するためのGUIや、各機能による処理結果をディスプレイ134に表示させるように制御する。なお、制御機能135aによって表示される表示内容の詳細については、後述する。
For example, the control function 135a acquires a medical image from the medical image diagnostic apparatus 110 and stores the medical image in the storage circuit 132. Further, for example, the control function 135a controls the
画像処理機能135bは、医用画像診断装置110から取得した医用画像に対して所定の画像処理を実行する。具体的には、画像処理機能135bは、医用画像に含まれる所定の領域を抽出するための画像処理を実行する。例えば、画像処理機能135bは、画像処理アプリケーションに搭載された通常(学習アルゴリズムではない)の画像処理アルゴリズムにより、医用画像から所定の領域を抽出する。一例を挙げると、画像処理機能135bは、頭部を対象にして収集されたMRI画像に含まれる脳白質の高輝度領域を抽出する画像処理アプリケーションである。
The
なお、画像処理機能135bは、画像処理の内容に応じて、種々の画像処理アルゴリズムを実行し、医用画像から領域を抽出することができる。例えば、画像処理機能135bは、医用画像に含まれる腫瘍領域を抽出する画像処理アルゴリズムを実行する場合でもよい。
Note that the
解析機能135cは、画像処理機能135bによって抽出された領域と、当該領域に対して操作者が修正を加えた領域との差分領域に対して画像解析を行う。また、解析機能135cは、画像処理機能135bによって抽出された領域に対して画像解析を行う。なお、解析機能135cによる処理の詳細については、後述する。
The analysis function 135c performs image analysis on a difference area between the area extracted by the
学習機能135dは、画像処理機能135bによって抽出された領域と当該領域に対して操作者が修正を加えた領域との差分と、画像処理機能135bによって抽出された領域との関係を学習することにより、画像処理機能135bによって医用画像内から抽出される領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルを生成する。なお、学習機能135dによる処理の詳細については、後述する。
The learning function 135d learns the relationship between the difference between the area extracted by the
推定機能135eは、画像処理機能135bによって医用画像内から抽出された領域を学習済みモデルに入力させることで、修正後領域を推定するように制御する。なお、推定機能135eによる処理の詳細については、後述する。
The estimating function 135e controls to estimate the corrected area by inputting the area extracted from the medical image by the
本実施形態では、上述した処理回路135の各機能が、学習済みモデルを生成する学習時の処理と、生成された学習済みモデルを利用する運用時の処理とを行う。具体的には、制御機能135a、画像処理機能135b、解析機能135c、学習機能135dが、医用画像診断装置110によって収集された医用画像に対して画像処理アプリケーションが実施されて出力された出力結果に対してユーザが修正を施した場合、又は、操作者から学習開始の指示を受け付けた場合に、学習時の処理を行う。また、制御機能135a、画像処理機能135b、解析機能135c及び推定機能135eが、医用画像診断装置110によって収集された医用画像に対して画像処理アプリケーションが実施されて出力結果が出力された場合に、運用時の処理を行う。
In the present embodiment, each function of the above-described
図2は、本実施形態に係る医用画像処理装置130によって行われる学習時及び運用時の処理を示す図である。 FIG. 2 is a diagram illustrating processing during learning and during operation performed by the medical image processing apparatus 130 according to the present embodiment.
例えば、図2の上側に示すように、学習時には、学習機能135dが、画像処理機能135bによる領域の抽出結果と、抽出結果に対する修正の解析機能135cによる解析結果との関係を学習することによって、医用画像内から抽出された領域に基づいて、修正後の領域を出力する学習済みモデルを生成する。
For example, as shown in the upper part of FIG. 2, at the time of learning, the learning function 135d learns the relationship between the region extraction result obtained by the
かかる場合には、まず、制御機能135aが、医用画像診断装置110から医用画像を取得して、記憶回路132に格納する。画像処理機能135bは、制御機能135aによって取得された医用画像に対して画像処理アルゴリズムによる画像処理を実行することで、領域を抽出して、抽出結果を医用画像に対応付けて記憶回路132に格納する。ここで、画像処理機能135bは、例えば、操作者によって指定された画像処理アルゴリズムによる領域の抽出を行う。すなわち、画像処理機能135bは、操作者が画像診断を行う際に選択した画像処理アルゴリズムによる領域抽出を行う。
In such a case, first, the control function 135a acquires a medical image from the medical image diagnostic apparatus 110 and stores it in the storage circuit 132. The
そして、制御機能135aは、画像処理機能135bによる抽出結果をディスプレイ134に表示させる。操作者は、入力インターフェースを介して、ディスプレイ134に表示された領域の抽出結果を修正するための修正操作を実行する。具体的には、操作者は、画像処理機能135bによって抽出された領域を修正する修正操作を実行する。ここで、操作者によって修正された領域の情報は、医用画像及び画像処理機能135bによる抽出結果に対応付けて、記憶回路132に格納される。
Then, the control function 135a causes the
解析機能135cは、画像処理機能135bによって抽出された抽出領域と、操作者によって修正された修正領域との差分領域を抽出し、抽出した差分領域における画像解析を行う。具体的には、解析機能135cは、差分領域における画像特徴量を取得するための画像解析を行う。例えば、解析機能135cは、差分領域に対してテクスチャ解析を行うことで、差分領域における画像特徴量を取得する。解析機能135cは、取得した画像特徴量を、医用画像、画像処理機能135bによる抽出結果及び修正領域に対応付けて、記憶回路132に格納される。
The analysis function 135c extracts a difference area between the extraction area extracted by the
学習機能135dは、画像処理機能135bによって抽出された抽出領域と、差分領域における画像解析の結果との関係を学習することで、学習済みモデルを生成する。具体的には、学習機能135dは、記憶回路132を参照して、画像処理機能135bによって抽出された抽出領域及び差分領域における画像解析の結果を取得する。そして、学習機能135dは、取得した抽出領域及び画像解析の結果を学習用データとして機械学習エンジンに入力することによって、機械学習を行う。ここで、抽出領域に関する情報は、例えば、抽出領域の輝度情報が用いられる。
The learning function 135d generates a learned model by learning the relationship between the extraction region extracted by the
なお、機械学習エンジンは、例えば、入力された標準画像及び画像特徴量に基づいて、記憶回路142のDBを参照し、画像相関や画像特徴量の比較を行うことで、臨床に最適な撮像パラメータを決定する。例えば、機械学習エンジンは、ディープラーニング(Deep Learning)や、ニューラルネットワーク(Neural Network)、ロジスティック(Logistic)回帰分析、非線形判別分析、サポートベクターマシン(Support Vector Machine:SVM)、ランダムフォレスト(Random Forest)、ナイーブベイズ(Naive Bayes)等の各種のアルゴリズムを用いて、最適なパラメータを決定する。 The machine learning engine refers to the DB of the storage circuit 142 based on, for example, the input standard image and the image feature amount, and compares the image correlation and the image feature amount, thereby obtaining a clinically optimal imaging parameter. To determine. For example, machine learning engines include Deep Learning, Neural Network, Logistic regression analysis, nonlinear discriminant analysis, Support Vector Machine (SVM), and Random Forest. The optimal parameters are determined by using various algorithms such as Naive Bayes.
このような機械学習の結果として、学習機能135dは、画像処理機能135bによる出力結果の入力に対して修正を加えられるであろう領域を反映した出力結果を出力する学習済みモデルを生成する。そして、学習機能135dは、生成した学習済みモデルを記憶回路142に記憶させる。なお、このとき、学習機能135dは、以前に作成した学習済みモデルが既に記憶回路132に記憶されていた場合には、新しく作成した学習済みモデルで、記憶されている学習済みモデルを置き換える。
As a result of such machine learning, the learning function 135d generates a learned model that outputs an output result reflecting a region where the input of the output result by the
また、学習機能135dは、修正を施す操作者(修正者)ごとに学習済みモデルを生成して、記憶回路132にそれぞれ記憶させることもできる。例えば、画像処理機能135bによって抽出された領域に対する修正は、操作者ごとに異なる傾向を有する場合がある。そこで、学習機能135dは、操作者を一意に特定するための識別子(例えば、ユーザID)を学習済みアルゴリズムに対応付けて記憶回路132に記憶させる。そして、学習機能135dは、既に記憶されている学習済みモデルを新しく生成した学習済みモデルに置き換える場合には、画像診断を行う際に入力されるユーザIDなどに基づいて操作者を識別し、対応する学習済みモデルを特定する。
Further, the learning function 135d can also generate a learned model for each operator (corrector) who makes a correction and store the generated model in the storage circuit 132. For example, the correction to the region extracted by the
以下、図3〜図4Bを用いて、学習時の処理の一例について説明する。図3は、本実施形態に係る医用画像処理装置130の学習時の処理の一例を説明するための図である。ここで、図3においては、頭部を対象にして収集されたMRI画像に含まれる脳白質から抽出された高輝度領域に対して修正が加えられる場合について示す。 Hereinafter, an example of a process at the time of learning will be described with reference to FIGS. FIG. 3 is a diagram for explaining an example of processing at the time of learning of the medical image processing apparatus 130 according to the present embodiment. Here, FIG. 3 shows a case where correction is applied to a high-luminance area extracted from brain white matter included in an MRI image collected for the head.
例えば、画像処理機能135bは、図3の左端に示す原画像(頭部を対象にして収集されたMRI画像)を対象として画像処理アルゴリズムを適用することで、図3の左から2番目の画像に示すように、脳白質の高輝度領域を抽出する。そして、画像処理機能135bによって高輝度領域が抽出されると、制御機能135aは、抽出結果(図3の左から2番目の画像)をディスプレイ134に表示させる。
For example, the
操作者は、ディスプレイ134に表示された抽出結果を参照して、脳白質の高輝度領域の抽出結果に対して修正を加える。すなわち、操作者、図3の左から3番目の画像に示すように、画像処理機能135bによって抽出された高輝度領域を修正する。
The operator corrects the extraction result of the high-brightness region of the brain white matter with reference to the extraction result displayed on the
解析機能135cは、操作者によって修正された修正領域と、画像処理機能135bによって抽出された抽出領域との差分領域に対してテクスチャ解析を実行する。例えば、解析機能135cは、図3の左から2番目の画像に示された抽出領域と、図3の左から3番目の画像に示された修正領域との差分領域に対してテクスチャ解析を実行する。
The analysis function 135c performs a texture analysis on a difference area between the correction area corrected by the operator and the extraction area extracted by the
図4Aは、本実施形態に係る解析機能135cによる解析処理の一例を説明するための図である。ここで、図4Aにおいては、画像処理機能135bによって抽出された抽出領域に対して操作者が修正を加えることで、不要な領域が削除された修正領域を領域R1内に示す。また、図4Aにおいて下段に示す2枚の画像は、それぞれ領域R1付近を拡大した同一の画像であり、3×3のカーネルの位置が移動されたものを示す。
FIG. 4A is a diagram for describing an example of an analysis process by the analysis function 135c according to the present embodiment. Here, in FIG. 4A, a correction region in which an unnecessary region has been deleted by the operator correcting the extraction region extracted by the
例えば、解析機能135cは、画像処理機能135bによって抽出された抽出領域と、操作者によって抽出領域が修正された後の修正領域との差分領域を抽出する。すなわち、解析機能135cは、抽出領域のうち、図4Aの領域R1内に示す修正領域以外の領域を抽出する。そして、解析機能135cは、抽出した差分領域に対して、例えば、3×3の9画素のカーネルを適用させて、差分領域における各位置の画素値を算出する。一例を挙げると、解析機能135cは、図4Aに示すように、差分領域に対してカーネルの位置を変えながら、カーネルの中央の画素の位置における画素値を周囲の8画素の画素値から算出する。そして、解析機能135cは、差分領域の各位置における画素値に基づいて、種々のテクスチャパラメータをそれぞれ算出する。
For example, the analysis function 135c extracts a difference area between the extraction area extracted by the
一例を挙げると、解析機能135cは、差分領域の各位置における画素値の「Mean」、「SD」、「Skewness」、「Kurtosis」、「Energy」、「Entropy」、「dissimilarity」、「Homogeneity」、「size」などをそれぞれ算出する。すなわち、解析機能135cは、1つの差分領域について、複数のテクスチャパラメータを算出する。解析機能135cは、操作者によって修正された修正領域について、それぞれ差分領域を抽出して、各差分領域について複数のテクスチャパラメータをそれぞれ算出する。そして、解析機能135cは、算出した複数のテクスチャパラメータを差分領域に対応付けて記憶回路132に記憶させる。なお、上記したテクスチャパラメータは、あくまでも一例であり、解析機能135cは、その他種々のテクスチャパラメータを算出することができる。 To give an example, the analysis function 135c calculates the pixel values “Mean”, “SD”, “Skewness”, “Kurtosis”, “Energy”, “Entropy”, “dissimilarity”, “Homogeneity” at each position in the difference area. , “Size” and the like are calculated. That is, the analysis function 135c calculates a plurality of texture parameters for one difference area. The analysis function 135c extracts a difference region from each of the correction regions corrected by the operator, and calculates a plurality of texture parameters for each difference region. Then, the analysis function 135c causes the storage circuit 132 to store the calculated plurality of texture parameters in association with the difference area. The above-described texture parameters are merely examples, and the analysis function 135c can calculate other various texture parameters.
図3に戻って、学習機能135dは、抽出領域と差分領域のテクスチャ解析の結果とを用いて学習済みモデルを生成して、記憶回路132における学習済みモデルのデータベースに格納する。例えば、学習機能135dは、抽出領域の輝度値と、対応する差分領域における複数のテクスチャパラメータとの関係を学習することで、抽出領域の輝度値に基づいて操作者に修正傾向に対応するテクスチャパラメータを出力する学習済みモデルを生成する。 Returning to FIG. 3, the learning function 135 d generates a learned model using the result of the texture analysis of the extracted area and the difference area, and stores the generated model in the database of the learned model in the storage circuit 132. For example, the learning function 135d learns the relationship between the luminance value of the extraction area and a plurality of texture parameters in the corresponding difference area, and provides the operator with a texture parameter corresponding to the correction tendency based on the luminance value of the extraction area. Generate a trained model that outputs.
図4Bは、本実施形態に係る学習済みモデルの生成に用いられるテクスチャパラメータを模式的に示す図である。なお、図4Bでは、差分領域ごとに3つのテクスチャパラメータを算出した場合を例に示す。本実施形態に係る学習済みモデルの生成に用いられるテクスチャパラメータは、例えば、図4Bに示すように、差分領域ごとに(点ごとに)、第1のパラメータ(横方向の軸の値)、第2のパラメータ(縦方向の軸の値)、及び、第3のパラメータ(奥行方向の軸の値)の3次元の情報を有する。 FIG. 4B is a diagram schematically illustrating texture parameters used for generating a learned model according to the present embodiment. FIG. 4B shows an example in which three texture parameters are calculated for each difference area. The texture parameters used for generating the learned model according to the present embodiment include, for example, as shown in FIG. 4B, a first parameter (a value of a horizontal axis) for each difference area (for each point), It has three-dimensional information of two parameters (vertical axis values) and a third parameter (depth axis values).
学習機能135dは、多数の医用画像(脳のMRI画像)から取得された、抽出領域の輝度値の情報と、図4Bに示すようなテクスチャパラメータの情報とから学習済みモデルを生成する。なお、図4Bでは、3つのテクスチャパラメータを算出したため、差分領域ごとに3次元の情報を有しているが、例えば、上記した9つのテクスチャパラメータを算出する場合、差分領域ごとに9次元の情報を有することとなる。例えば、学習機能135dは、このように学習済みモデルを生成して、生成した学習済みモデルを記憶回路132に格納する。 The learning function 135d generates a learned model from information on the luminance value of the extraction region acquired from many medical images (MRI images of the brain) and information on the texture parameters as shown in FIG. 4B. In FIG. 4B, since three texture parameters are calculated, three-dimensional information is provided for each difference region. For example, when the above-described nine texture parameters are calculated, nine-dimensional information is provided for each difference region. Will be provided. For example, the learning function 135d generates a learned model in this way, and stores the generated learned model in the storage circuit 132.
一方、例えば、図2の下側に示すように、運用時には、制御機能135aが、医用画像診断装置110から医用画像を取得して、記憶回路132に格納する。画像処理機能135bは、制御機能135aによって取得された医用画像に対して画像処理アルゴリズムによる画像処理を実行することで、抽出領域を抽出して、医用画像に対応付けて記憶回路132に格納する。
On the other hand, for example, as shown in the lower part of FIG. 2, during operation, the control function 135a acquires a medical image from the medical image diagnostic apparatus 110 and stores it in the storage circuit 132. The
その後、推定機能135eが、抽出領域を学習済みモデルにさせることで、修正後の領域を推定する。具体的には、推定機能135eは、画像処理機能135bによって抽出された抽出領域の輝度値の情報を学習済みモデルに入力させることで、テクスチャパラメータを出力させる。そして、推定機能135eは、出力されたテクスチャパラメータに対応する領域を修正後領域として推定する。
After that, the estimation function 135e estimates the corrected area by causing the extracted area to be a learned model. Specifically, the estimation function 135e outputs the texture parameter by inputting the information on the luminance value of the extraction region extracted by the
例えば、推定機能135eは、解析機能135cが抽出領域に対して実行したテクスチャ解析の結果を参照して、抽出領域において、学習済みモデルから出力されたテクスチャパラメータに対応する領域を特定する。推定機能135eは、特定した領域を修正後領域として推定する。 For example, the estimation function 135e refers to the result of the texture analysis performed on the extraction region by the analysis function 135c, and specifies the region corresponding to the texture parameter output from the learned model in the extraction region. The estimation function 135e estimates the specified area as a corrected area.
図5は、本実施形態に係る医用画像処理装置の運用時の処理の一例を説明するための図である。ここで、図5においては、頭部を対象にして収集されたMRI画像に含まれる脳白質から抽出された高輝度領域における修正後領域を推定する場合について示す。 FIG. 5 is a diagram for explaining an example of a process at the time of operation of the medical image processing apparatus according to the present embodiment. Here, FIG. 5 shows a case where a corrected region in a high-brightness region extracted from brain white matter included in an MRI image collected for the head is estimated.
例えば、画像処理機能135bは、図5の左端に示す原画像(頭部を対象にして収集されたMRI画像)を対象として画像処理アルゴリズムを適用することで、図5の左から2番目の画像に示すように、脳白質の高輝度領域を抽出する。解析機能135cは、高輝度領域におけるテクスチャ解析を実行する。
For example, the
推定機能135eは、高輝度領域の輝度値を学習済みモデルに入力させることで、テクスチャパラメータの値を取得する。さらに、推定機能135eは、解析機能135cが高輝度領域に対して実行したテクスチャ解析の結果を参照して、高輝度領域において、学習済みモデルから出力されたテクスチャパラメータに対応する領域(修正後領域)を特定する。 The estimation function 135e acquires the value of the texture parameter by inputting the luminance value of the high luminance area into the learned model. Further, the estimation function 135e refers to the result of the texture analysis performed on the high-luminance area by the analysis function 135c, and in the high-luminance area, the area corresponding to the texture parameter output from the learned model (the corrected area). ).
制御機能135aは、推定機能135eによって推定された修正後領域を医用画像に反映させた表示画像(図5の右端の画像)をディスプレイ134に表示させる。ここで、制御機能135aは、画像処理機能135bによって抽出された抽出領域と、推定機能135eによって推定された修正後領域とを識別可能に表示させることができる。例えば、制御機能135aは、抽出領域と修正後領域とを異なる色で示すことで、識別可能に表示させることができる。
The control function 135a causes the
ここで、医用画像処理装置130では、推定機能135eによって推定された修正後領域に対してさらに修正を加え、その結果を学習済みモデルに反映させることもできる。例えば、操作者は、ディスプレイ134に表示された表示画像を参照して、修正後領域について再修正を行うか否かを判断する。そして、再修正を行う場合、操作者は、入力インターフェース133を介して、修正後領域を修正する。
Here, in the medical image processing apparatus 130, the corrected area estimated by the estimation function 135e can be further modified, and the result can be reflected in the learned model. For example, the operator refers to the display image displayed on the
解析機能135cは、操作者によって修正された修正領域と、修正後領域との差分領域に対してテクスチャ解析を実行する。そして、学習機能135dは、テクスチャ解析の結果を用いて、学習済みモデルを新たに生成して、記憶回路132に格納済みの学習済みモデルと置き換える。 The analysis function 135c performs a texture analysis on a difference area between the correction area corrected by the operator and the corrected area. Then, the learning function 135d newly generates a learned model using the result of the texture analysis, and replaces the generated model with the learned model stored in the storage circuit 132.
以上、医用画像処理装置130の処理回路135が有する各処理機能について説明した。ここで、前述したように、処理回路135がプロセッサによって実現される場合には、処理回路135が有する各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路132に記憶されている。そして、処理回路135は、記憶回路132から各プログラムを読み出して実行することで、各プログラムに対応する機能を実現する。換言すると、各プログラムを読み出した状態の処理回路135は、図1の処理回路135に示された各機能を有することとなる。なお、図1では、単一のプロセッサによって各処理機能が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、処理回路135が有する処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。また、図1に示す例では、単一の記憶回路132が各処理機能に対応するプログラムを記憶するものとして説明したが、複数の記憶回路を分散して配置して、処理回路が個別の記憶回路から対応するプログラムを読み出す構成としても構わない。
The processing functions of the
次に、医用画像処理装置130による処理の手順を説明する。図6は、本実施形態に係る医用画像処理装置130による学習時の処理の手順を示すフローチャートである。ここで、図6におけるステップS101、ステップS103は、処理回路135が記憶回路132から制御機能135aに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図6におけるステップS102は、処理回路135が記憶回路132から画像処理機能135bに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図6におけるステップS104、ステップS105は、処理回路135が記憶回路132から解析機能135cに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図6におけるステップS106、ステップS107は、処理回路135が記憶回路132から学習機能135dに対応するプログラムを呼び出して実行することにより、実現されるステップである。
Next, a procedure of processing by the medical image processing apparatus 130 will be described. FIG. 6 is a flowchart illustrating a procedure of processing at the time of learning by the medical image processing apparatus 130 according to the present embodiment. Here, steps S101 and S103 in FIG. 6 are realized by the
図6に示すように、医用画像処理装置130においては、処理回路135が、まず、画像処理が開始されたか否かを判定する(ステップS101)。ここで、画像処理が開始されると(ステップS101、肯定)、処理回路135は、指定された原画像に対して画像処理を実行して(ステップS102)、処理結果を表示する(ステップS103)。なお、画像処理が開始されるまで、処理回路135は待機状態である(ステップS101、否定)。
As shown in FIG. 6, in the medical image processing apparatus 130, the
そして、処理回路135は、処理結果に対して修正を受け付けたか否かを判定する(ステップS104)。ここで、修正を受け付けていない場合(ステップS104、否定)、処理回路135は処理を終了する。一方、修正を受け付けた場合(ステップS104、肯定)、処理回路135は、修正された領域のテクスチャ解析を実行する(ステップS105)。
Then, the
その後、処理回路135は、解析結果を用いて修正に関する学習済みモデルを作成して(ステップS106)、作成した学習済みモデルを記憶回路132に格納する(ステップS107)。
Thereafter, the
図7は、本実施形態に係る医用画像処理装置130による運用時の処理の手順を示すフローチャートである。ここで、図7におけるステップS201、ステップS204は、処理回路135が記憶回路132から制御機能135aに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図7におけるステップS202は、処理回路135が記憶回路132から画像処理機能135bに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図7におけるステップS203は、処理回路135が記憶回路132から推定機能135e及び解析機能135cに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図7におけるステップS205、ステップS206は、処理回路135が記憶回路132から解析機能135cに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図7におけるステップS207は、処理回路135が記憶回路132から学習機能135dに対応するプログラムを呼び出して実行することにより、実現されるステップである。
FIG. 7 is a flowchart illustrating a procedure of processing during operation by the medical image processing apparatus 130 according to the present embodiment. Here, steps S201 and S204 in FIG. 7 are realized by the
図7に示すように、医用画像処理装置130においては、処理回路135が、まず、画像処理が開始されたか否かを判定する(ステップS201)。ここで、画像処理が開始されると(ステップS201、肯定)、処理回路135は、指定された原画像に対して画像処理を実行する(ステップS202)。なお、画像処理が開始されるまで、処理回路135は待機状態である(ステップS201、否定)。
As shown in FIG. 7, in the medical image processing apparatus 130, the
そして、処理回路135は、画像処理の結果を学習済みモデルに入力して(ステップS203)、学習済みモデルの出力結果に基づく表示画像を表示させる(ステップS204)。その後、処理回路135は、表示画像に対して修正を受け付けたか否かを判定する(ステップS205)。
Then, the
ここで、修正を受け付けていない場合(ステップS205、否定)、処理回路135は処理を終了する。一方、修正を受け付けた場合(ステップS205、肯定)、処理回路135は、修正された領域のテクスチャ解析を実行する(ステップS206)。その後、処理回路135は、学習済みモデルを更新するステップS107)。
Here, when the correction has not been received (No at Step S205), the
上述したように、本実施形態によれば、制御機能135a及び画像処理機能135bは、画像処理によって抽出された医用画像内の抽出領域と、抽出領域に対して操作者(修正者)が修正を施した修正領域とを取得する。記憶回路132は、抽出領域と修正領域との差分と、抽出領域との関係を学習することにより得られた学習済みモデルであって、画像処理によって医用画像内から抽出される抽出領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルを記憶する。推定機能135eは、画像処理によって医用画像内から抽出された抽出領域を学習済みモデルに入力させることで、修正後領域を推定するように制御する。したがって、本実施形態に係る医用画像処理装置130は、画像処理アプリケーションによる処理結果を、修正者の修正傾向に沿って自動で修正することでき、画像処理アプリケーションを用いたワークフローの効率を向上させることを可能にする。例えば、医用画像処理装置130は、画像処理アプリケーションの最適化が、ユーザが期待する最適化とは異なるものであったとしても、画像処理アプリケーションの出力をユーザが期待する内容に自動で修正することができ、画像処理アプリケーションを用いたワークフローの効率を向上させることを可能にする。また、例えば、医用画像処理装置130は、ユーザが画像処理アプリケーションに入力した医用画像が、画像処理アプリケーションの開発時に用いられた典型的な画像とは大きくかけ離れた画像であっても、画像処理アプリケーションの出力をユーザが期待する内容に自動で修正することができ、画像処理アプリケーションを用いたワークフローの効率を向上させることを可能にする。さらに、本実施形態に係る医用画像処理装置130は、画像処理アルゴリズムによる過大検出を抑止することを可能にする。
As described above, according to the present embodiment, the control function 135a and the
また、本実施形態によれば、記憶回路132は、抽出領域と修正領域との差分領域に対する画像解析の結果と、抽出領域との関係を学習することで得られた学習済みモデルを記憶する。推定機能135eは、画像処理によって医用画像内から抽出された抽出領域の画像解析の結果を学習済みモデルに入力させることで、当該抽出領域において修正が施される領域を推定するように制御する。したがって、本実施形態に係る医用画像処理装置130は、適切な修正を容易に行うことを可能にする。 Further, according to the present embodiment, the storage circuit 132 stores a learned model obtained by learning the relationship between the result of image analysis on the difference region between the extraction region and the correction region and the extraction region. The estimation function 135e controls the estimation of the area to be corrected in the extraction area by inputting the result of the image analysis of the extraction area extracted from the medical image by the image processing into the learned model. Therefore, the medical image processing apparatus 130 according to the present embodiment can easily perform appropriate correction.
また、本実施形態によれば、画像解析は、テクスチャ解析である。したがって、本実施形態に係る医用画像処理装置130は、種々の画像特徴量を用いて学習済みモデルを生成することができ、修正者の修正傾向をより正確に反映させた修正を自動で行うことを可能にする。 Further, according to the present embodiment, the image analysis is a texture analysis. Therefore, the medical image processing apparatus 130 according to the present embodiment can generate a trained model using various image feature amounts, and automatically performs a correction that more accurately reflects the correction tendency of the corrector. Enable.
また、本実施形態によれば、記憶回路132は、画像処理によって医用画像内から抽出される抽出領域に対して修正を施した修正者ごとの学習済みモデルを記憶する。推定機能135eは、医用画像内から抽出された抽出領域を修正者ごとの学習済みモデルに対して入力させることで、修正者ごとの修正後領域を推定するように制御する。したがって、本実施形態に係る医用画像処理装置130は、修正者ごとに、修正傾向に沿った修正を自動で行うことができ、複数の修正者によって修正された場合でもワークフローの効率を向上させることを可能にする。 Further, according to the present embodiment, the storage circuit 132 stores a learned model for each corrector who has made a correction to an extraction region extracted from a medical image by image processing. The estimating function 135e performs control so as to estimate an after-correction area for each corrector by inputting an extraction area extracted from the medical image to a learned model for each corrector. Therefore, the medical image processing apparatus 130 according to the present embodiment can automatically perform the correction according to the correction tendency for each corrector, and improve the efficiency of the workflow even when the correction is performed by a plurality of correctors. Enable.
また、本実施形態によれば、学習機能135dは、学習済みモデルを生成する。したがって、本実施形態に係る医用画像処理装置130は、スタンドアローンでの処理を行うことを可能にする。 Further, according to the present embodiment, the learning function 135d generates a learned model. Therefore, the medical image processing apparatus 130 according to the present embodiment can perform stand-alone processing.
また、本実施形態によれば、制御機能135aは、医用画像において、画像処理によって抽出された医用画像内の抽出領域と、修正後領域とを識別可能に表示させるように制御する。したがって、本実施形態に係る医用画像処理装置130は、自動で行った修正後の結果とともに修正前の結果を操作者に提示することを可能にする。 Further, according to the present embodiment, the control function 135a controls the medical image so that the extracted area and the corrected area in the medical image extracted by the image processing are displayed in a distinguishable manner. Therefore, the medical image processing apparatus 130 according to the present embodiment can present the result before the correction together with the result after the correction performed automatically to the operator.
(他の実施形態)
なお、上述した実施形態は、医用画像処理装置130が有する構成又は機能の一部を変更することで、適宜に変形して実施することも可能である。そこで、以下では、上述した実施形態に係るいくつかの変形例を他の実施形態として説明する。なお、以下では、上述した実施形態と異なる点を主に説明することとし、既に説明した内容と共通する点については詳細な説明を省略する。また、以下で説明する各実施形態は、個別に実施されてもよいし、適宜に組み合わせて実施されてもよい。
(Other embodiments)
The above-described embodiment can be appropriately modified and implemented by partially changing the configuration or function of the medical image processing apparatus 130. Therefore, hereinafter, some modified examples according to the above-described embodiment will be described as other embodiments. In the following, points different from the above-described embodiment will be mainly described, and detailed description of points common to the already described contents will be omitted. Further, each embodiment described below may be implemented individually or may be implemented in combination as appropriate.
(他の実施形態−1)
例えば、上述した実施形態では、修正者ごとに修正後領域を表示する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、複数の修正者に対応する学習済みモデルを用いて、複数の修正後領域を1つの医用画像内に表示させる場合でもよい。
(Other Embodiment-1)
For example, in the above-described embodiment, the case where the post-correction area is displayed for each corrector has been described. However, the embodiment is not limited to this. For example, a case may be used in which a plurality of corrected regions are displayed in one medical image using a learned model corresponding to a plurality of correctors.
かかる場合には、例えば、推定機能135eは、画像処理機能135bによって抽出された抽出領域の情報を、複数の学習済みモデルにそれぞれ入力させて、各出力結果に基づいて、複数の修正後領域をそれぞれ推定する。制御機能135aは、推定された複数の修正後領域を1つの医用画像上で表示させる。ここで、制御機能135aは、修正者ごとの修正後領域を識別可能に表示させるように制御する。これにより、医用画像処理装置130は、複数の修正後領域の中から、最適な修正結果を操作者に選択させることを可能にする。
In such a case, for example, the estimation function 135e causes the information of the extraction region extracted by the
(他の実施形態−2)
また、例えば、上述した実施形態では、修正者ごとの学習済みモデルを生成して記憶する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、複数の修正者により修正結果を統合した学習済みモデルを生成する場合でもよい。
(Other Embodiment-2)
Further, for example, in the above-described embodiment, a case has been described in which a learned model for each corrector is generated and stored. However, the embodiment is not limited to this, and, for example, a case where a learned model in which correction results are integrated by a plurality of correctors may be generated.
かかる場合には、例えば、記憶回路132は、画像処理によって医用画像内から抽出される抽出領域に対して複数の修正者によって実施された修正結果に対応する複数の画像解析の結果を統合した結果と、抽出領域との関係を学習することで得られた学習済みモデルを記憶する。推定機能135eは、画像処理によって医用画像内から抽出された抽出領域の画像解析の結果を学習済みモデルに入力させることで、当該抽出領域において修正が施される領域を推定するように制御する。 In such a case, for example, the storage circuit 132 integrates a plurality of image analysis results corresponding to correction results performed by a plurality of correctors on an extraction region extracted from a medical image by image processing. And a learned model obtained by learning the relationship between the model and the extraction region. The estimation function 135e controls the estimation of the area to be corrected in the extraction area by inputting the result of the image analysis of the extraction area extracted from the medical image by the image processing into the learned model.
図8は、本実施形態に係る学習済みモデルの生成に用いられるテクスチャパラメータを模式的に示す図である。なお、図8では、差分領域ごとに3つのテクスチャパラメータを算出した場合を例に示す。また、図8では、2人の修正者による修正結果から得られた差分領域ごとのテクスチャパラメータをそれぞれ黒丸と黒三角で示す。本実施形態に係る学習済みモデルの生成に用いられるテクスチャパラメータは、例えば、図8に示すように、差分領域ごとに、第1のパラメータ(横方向の軸の値)、第2のパラメータ(縦方向の軸の値)、及び、第3のパラメータ(奥行方向の軸の値)の3次元の情報を有する。 FIG. 8 is a diagram schematically illustrating texture parameters used for generating a learned model according to the present embodiment. FIG. 8 shows an example in which three texture parameters are calculated for each difference area. In FIG. 8, texture parameters for each difference area obtained from the correction results by the two correctors are indicated by solid circles and solid triangles, respectively. The texture parameters used for generating the learned model according to the present embodiment are, for example, as shown in FIG. 8, a first parameter (a value of a horizontal axis) and a second parameter (a vertical axis) for each difference area. Direction value), and three-dimensional information of a third parameter (depth direction axis value).
学習機能135dは、多数の医用画像(脳のMRI画像)から取得された、2人の修正者の結果において、テクスチャパラメータの情報が類似するもののみを用いて学習済みモデルを生成する。例えば、学習機能135dは、図8における領域R2に含まれるテクスチャパラメータと、各テクスチャパラメータに対応する抽出領域とを用いて学習済みモデルを生成して、記憶回路132に格納する。これにより、本実施形態に係る医用画像処理装置130は、より精度の高い修正を自動で行うことを可能にする。 The learning function 135d generates a trained model using only the texture parameter information that is similar among the results of two correctors acquired from a large number of medical images (MRI images of the brain). For example, the learning function 135d generates a learned model using the texture parameters included in the region R2 in FIG. 8 and the extraction region corresponding to each texture parameter, and stores the generated model in the storage circuit 132. Thus, the medical image processing apparatus 130 according to the present embodiment can automatically perform a more accurate correction.
(他の実施形態−3)
また、上述した実施形態では、医用画像処理システム100が設置された病院や医院等の医療機関ごとに学習済みモデルを生成して、使用する場合の例を説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、生成した医療機関とは異なる医療機関において、生成された学習済みモデルが使用される場合でもよい。
(Other embodiment-3)
In the above-described embodiment, an example has been described in which a learned model is generated and used for each medical institution such as a hospital or clinic where the medical
かかる場合には、医用画像処理装置130は、ネットワーク200を介して他の医療機関と接続され、他の医療機関において生成された学習済みモデル(修正者ごとの学習済みモデル及び複数の修正者の修正結果を統合した学習済みモデル)を取得して、取得した学習済みモデルを用いて修正後領域を推定する。 In such a case, the medical image processing apparatus 130 is connected to another medical institution via the network 200, and the learned model (trained model for each corrector and a plurality of correctors) generated at the other medical institution. A corrected model is acquired, and a corrected area is estimated using the acquired learned model.
また、上述した実施形態では、医用画像処理システム100が設置された病院や医院等の医療機関ごとに学習済みモデルを生成する場合の例を説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、複数の医療機関や、複数の国の学習用データを集約した総合的な学習済みモデルが生成されてもよい。
In the above-described embodiment, an example has been described in which a learned model is generated for each medical institution such as a hospital or a clinic in which the medical
(他の実施形態−4)
また、上述した実施形態では、医用画像処理装置130が、病院や医院等の医療機関に設置される場合の例を説明したが、実施形態はこれに限られない。例えば、医用画像処理装置130は、医療機関とは別の場所に設置され、ネットワーク200を介して、1つ又は複数の医療機関に設置された医用画像診断装置110と通信可能に接続されていてもよい。
(Other Embodiment-4)
Further, in the above-described embodiment, an example in which the medical image processing apparatus 130 is installed in a medical institution such as a hospital or a clinic has been described, but the embodiment is not limited to this. For example, the medical image processing apparatus 130 is installed at a location different from the medical institution, and is communicably connected to the medical image diagnostic apparatuses 110 installed at one or more medical institutions via the network 200. Is also good.
この場合には、例えば、医用画像処理装置130が、ネットワーク200を介して、各医用機関に設置された医用画像診断装置110から医用画像を収集して、学習済みモデルを生成又は更新する。そして、医用画像処理装置130は、ネットワーク200を介して、各医用機関に設置された端末装置120から領域抽出の画像処理要求を受信し、当該要求を送信した端末装置120に対して、推定した修正後領域を送信する。 In this case, for example, the medical image processing apparatus 130 collects medical images from the medical image diagnostic apparatuses 110 installed in each medical institution via the network 200, and generates or updates a learned model. Then, the medical image processing apparatus 130 receives an image processing request for area extraction from the terminal apparatus 120 installed in each medical institution via the network 200, and estimates the image processing request to the terminal apparatus 120 that transmitted the request. Send the modified area.
この場合に、例えば、医用画像処理システム100は、端末装置120をクライアントとし、医用画像処理装置130をサーバとしたクライアントサーバシステムとして実現される。より具体的には、例えば、医用画像処理システム100は、インターネット等を介して、端末装置120と医用画像処理装置130とを接続したクラウドシステムとして実現される。
In this case, for example, the medical
(他の実施形態−5)
また、上述した実施形態では、医用画像処理装置130が、学習時の処理及び運用時の処理の両方を行う場合の例を説明したが、実施形態はこれに限られない。例えば、医用画像処理装置130が有する機能のうち、学習済みモデルを生成する機能が、医療機関とは別の場所に設置されてネットワーク200を介して接続された他の装置(以下、モデル生成装置と呼ぶ)に実装されていてもよい。
(Other Embodiment-5)
Further, in the above-described embodiment, an example in which the medical image processing apparatus 130 performs both the processing at the time of learning and the processing at the time of operation has been described, but the embodiment is not limited to this. For example, among the functions of the medical image processing apparatus 130, a function of generating a learned model is provided by another apparatus (hereinafter referred to as a model generation apparatus) that is installed at a location different from the medical institution and is connected via the network 200. ).
この場合には、例えば、モデル生成装置が、定期的に、ネットワーク200を介して、各医用機関に設置された医用画像診断装置110から医用画像を収集して、学習済みモデルを生成又は更新する。そして、医用画像処理装置130が、モデル生成装置から最新の学習済みモデルを取得して、推定処理を実行する。 In this case, for example, the model generation apparatus periodically collects medical images from the medical image diagnostic apparatuses 110 installed in each medical institution via the network 200, and generates or updates a learned model. . Then, the medical image processing apparatus 130 acquires the latest learned model from the model generation apparatus and executes the estimation processing.
この場合に、例えば、医用画像処理システム100は、医用画像処理装置130をクライアントとし、モデル生成装置をサーバとしたクライアントサーバシステムとして実現される。より具体的には、例えば、医用画像処理システム100は、インターネット等を介して、モデル生成装置と医用画像処理装置130とを接続したクラウドシステムとして実現される。この場合に、例えば、医用画像処理システム100は、クライアントである医用画像処理装置130には必要最小限の処理を実行させ、サーバであるモデル生成装置に大部分の処理を実行させるシンクライアント(Thin Client)の形態で実現される。
In this case, for example, the medical
(他の実施形態−6)
また、上述した各実施形態では、本明細書における表示制御部、取得部、学習部、及び推定部を、それぞれ、処理回路145の制御機能135a、制御機能135a及び画像処理機能135b、学習機能135d、及び推定機能135eによって実現する場合の例を説明したが、実施形態はこれに限られない。例えば、本明細書における表示制御部、取得部、学習部、及び推定部は、実施形態で述べた制御機能135a、制御機能135a及び画像処理機能135b、学習機能135d、及び推定機能135eによって実現する他にも、ハードウェアのみ、又は、ハードウェアとソフトウェアとの混合によって同機能を実現するものであっても構わない。
(Other Embodiment-6)
Further, in each of the above-described embodiments, the display control unit, the acquisition unit, the learning unit, and the estimation unit in this specification correspond to the control function 135a, the control function 135a, the
なお、上述した説明で用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは、記憶回路132に保存されたプログラムを読み出して実行することで、機能を実現する。なお、記憶回路132にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合は、プロセッサは回路内に組み込まれたプログラムを読み出して実行することで機能を実現する。また、本実施形態のプロセッサは、単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて一つのプロセッサとして構成され、その機能を実現するようにしてもよい。 The term “processor” used in the above description may be, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), or a programmable logic device. (For example, a circuit such as a Simple Programmable Logic Device (SPLD), a Complex Programmable Logic Device (CPLD), and a Field Programmable Gate Array (FPGA)). The processor realizes a function by reading and executing the program stored in the storage circuit 132. Instead of storing the program in the storage circuit 132, the program may be directly incorporated in the circuit of the processor. In this case, the processor realizes a function by reading and executing a program incorporated in the circuit. Further, the processor according to the present embodiment is not limited to being configured as a single circuit, but may be configured as a single processor by combining a plurality of independent circuits to realize its function.
ここで、プロセッサによって実行されるプログラム(医用画像処理プログラム)は、ROM(Read Only Memory)や記憶回路等に予め組み込まれて提供される。なお、このプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD(Compact Disk)−ROM、FD(Flexible Disk)、CD−R(Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶媒体に記録されて提供されてもよい。また、このプログラムは、インターネット等のネットワークに接続されたコンピュータ上に保存され、ネットワーク経由でダウンロードされることにより提供又は配布されてもよい。例えば、このプログラムは、上述した各機能部を含むモジュールで構成される。実際のハードウェアとしては、CPUが、ROM等の記憶媒体からプログラムを読み出して実行することにより、各モジュールが主記憶装置上にロードされて、主記憶装置上に生成される。 Here, the program (medical image processing program) executed by the processor is provided by being incorporated in a ROM (Read Only Memory) or a storage circuit in advance. This program is a file in a format that can be installed or executed in these devices, such as a CD (Compact Disk) -ROM, an FD (Flexible Disk), a CD-R (Recordable), and a DVD (Digital Versatile Disk). May be provided by being recorded on a computer-readable storage medium. The program may be stored on a computer connected to a network such as the Internet, and provided or distributed by being downloaded via the network. For example, this program is configured by modules including the above-described functional units. As actual hardware, the CPU reads a program from a storage medium such as a ROM and executes the program, whereby each module is loaded on the main storage device and generated on the main storage device.
以上説明した少なくとも1つの実施形態によれば、画像処理アプリケーションを用いたワークフローの効率を向上させることができる。 According to at least one embodiment described above, the efficiency of a workflow using an image processing application can be improved.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the present invention have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in other various forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and their equivalents.
100 医用画像処理システム
130 医用画像処理装置
132 記憶回路
135 処理回路
135a 制御機能
135b 画像処理機能
135c 解析機能
135d 学習機能
135e 推定機能
REFERENCE SIGNS
Claims (9)
前記抽出領域と前記修正領域との差分と、前記抽出領域との関係を学習することにより得られた学習済みモデルであって、前記画像処理によって医用画像内から抽出される抽出領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルを記憶する記憶部と、
前記画像処理によって医用画像内から抽出された抽出領域を前記学習済みモデルに入力させることで、修正後領域を推定するように制御する推定部と、
を備える、医用画像処理装置。 An extraction unit for acquiring an extraction region in the medical image extracted by the image processing, and a correction region in which a corrector has corrected the extraction region;
A learned model obtained by learning the relationship between the difference between the extracted region and the modified region and the extracted region, wherein the extracted region is modified from the medical image by the image processing. A storage unit that stores a learned model that is functioned to estimate the corrected area after performing
By inputting the extracted region extracted from within the medical image by the image processing to the learned model, an estimating unit that controls to estimate the corrected region,
A medical image processing apparatus comprising:
前記推定部は、前記画像処理によって医用画像内から抽出された抽出領域の画像解析の結果を前記学習済みモデルに入力させることで、当該抽出領域において修正が施される領域を推定するように制御する、請求項1に記載の医用画像処理装置。 The storage unit stores a result of image analysis on a difference region between the extraction region and the correction region, and a learned model obtained by learning a relationship between the extraction region and
The estimating unit is configured to input a result of image analysis of an extraction region extracted from within a medical image by the image processing to the learned model, thereby performing control to estimate a region to be corrected in the extraction region. The medical image processing apparatus according to claim 1, wherein:
前記推定部は、医用画像内から抽出された抽出領域を前記修正者ごとの学習済みモデルに対して入力させることで、前記修正者ごとの修正後領域を推定するように制御する、請求項1又は2に記載の医用画像処理装置。 The storage unit stores a learned model for each corrector that has made a correction to an extraction region extracted from within a medical image by the image processing,
The said estimation part controls so that the after-correction area | region for each said corrector may be estimated by inputting the extraction area | region extracted from the inside of the medical image with respect to the learned model for every said corrector. Or the medical image processing apparatus according to 2.
前記推定部は、前記画像処理によって医用画像内から抽出された抽出領域の画像解析の結果を前記学習済みモデルに入力させることで、当該抽出領域において修正が施される領域を推定するように制御する、請求項2に記載の医用画像処理装置。 The storage unit integrates a plurality of image analysis results corresponding to correction results performed by a plurality of correctors on an extraction region extracted from within a medical image by the image processing, and the extraction region Memorized the learned model obtained by learning the relationship of
The estimating unit is configured to input a result of image analysis of an extraction region extracted from within a medical image by the image processing to the learned model, thereby performing control to estimate a region to be corrected in the extraction region. The medical image processing apparatus according to claim 2, which performs the processing.
前記抽出領域と前記修正領域との差分と、前記抽出領域との関係を学習することにより得られた学習済みモデルであって、前記画像処理によって医用画像内から抽出される抽出領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルを記憶する記憶部と、
前記画像処理によって医用画像内から抽出された抽出領域を前記学習済みモデルに入力させることで、修正後領域を推定するように制御する推定部と、
を備える、医用画像処理システム。 An extraction unit for acquiring an extraction region in the medical image extracted by the image processing, and a correction region in which a corrector has corrected the extraction region;
A learned model obtained by learning the relationship between the difference between the extracted region and the modified region and the extracted region, wherein the extracted region is modified from the medical image by the image processing. A storage unit that stores a learned model that is functioned to estimate the corrected area after performing
By inputting the extracted region extracted from within the medical image by the image processing to the learned model, an estimating unit that controls to estimate the corrected region,
A medical image processing system comprising:
前記抽出領域と前記修正領域との差分と、前記抽出領域との関係を学習することにより得られた学習済みモデルであって、前記画像処理によって医用画像内から抽出される抽出領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルに対して、前記画像処理によって医用画像内から抽出された抽出領域を入力させることで、修正後領域を推定するように制御する推定機能と、
をコンピュータに実現させるための医用画像処理プログラム。 An acquisition function of acquiring an extraction area in the medical image extracted by the image processing, and a correction area in which a corrector has corrected the extraction area;
A learned model obtained by learning the relationship between the difference between the extracted region and the modified region and the extracted region, wherein the extracted region is modified from the medical image by the image processing. The modified region is estimated by inputting the extracted region extracted from the medical image by the image processing to the learned model that is provided with a function of estimating the modified region after performing the correction. Estimating function to control
Medical image processing program for causing a computer to realize.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018160005A JP7086790B2 (en) | 2018-08-29 | 2018-08-29 | Medical image processing equipment, medical image processing system and medical image processing program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018160005A JP7086790B2 (en) | 2018-08-29 | 2018-08-29 | Medical image processing equipment, medical image processing system and medical image processing program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2020031810A true JP2020031810A (en) | 2020-03-05 |
| JP7086790B2 JP7086790B2 (en) | 2022-06-20 |
Family
ID=69666077
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018160005A Active JP7086790B2 (en) | 2018-08-29 | 2018-08-29 | Medical image processing equipment, medical image processing system and medical image processing program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7086790B2 (en) |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004048587A (en) * | 2002-07-15 | 2004-02-12 | Mitsubishi Space Software Kk | Computer-aided diagnosis method and apparatus |
| JP2005269214A (en) * | 2004-03-18 | 2005-09-29 | Mitsubishi Space Software Kk | Image diagnosis support apparatus, image diagnosis support method, image diagnosis support program, and computer-readable recording medium recording the image diagnosis support program |
| JP2008173167A (en) * | 2007-01-16 | 2008-07-31 | Ziosoft Inc | Area correction method |
| JP2008289916A (en) * | 2000-06-30 | 2008-12-04 | Hitachi Medical Corp | Image diagnosis supporting device |
| JP2016007270A (en) * | 2014-06-23 | 2016-01-18 | 東芝メディカルシステムズ株式会社 | Medical image processor |
| US20160110632A1 (en) * | 2014-10-20 | 2016-04-21 | Siemens Aktiengesellschaft | Voxel-level machine learning with or without cloud-based support in medical imaging |
| JP6200618B1 (en) * | 2017-05-18 | 2017-09-20 | Psp株式会社 | Medical image diagnosis support system and apparatus, and program |
| JP2018516703A (en) * | 2015-06-12 | 2018-06-28 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | System and method for identifying cancer tissue |
-
2018
- 2018-08-29 JP JP2018160005A patent/JP7086790B2/en active Active
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008289916A (en) * | 2000-06-30 | 2008-12-04 | Hitachi Medical Corp | Image diagnosis supporting device |
| JP2004048587A (en) * | 2002-07-15 | 2004-02-12 | Mitsubishi Space Software Kk | Computer-aided diagnosis method and apparatus |
| JP2005269214A (en) * | 2004-03-18 | 2005-09-29 | Mitsubishi Space Software Kk | Image diagnosis support apparatus, image diagnosis support method, image diagnosis support program, and computer-readable recording medium recording the image diagnosis support program |
| JP2008173167A (en) * | 2007-01-16 | 2008-07-31 | Ziosoft Inc | Area correction method |
| JP2016007270A (en) * | 2014-06-23 | 2016-01-18 | 東芝メディカルシステムズ株式会社 | Medical image processor |
| US20160110632A1 (en) * | 2014-10-20 | 2016-04-21 | Siemens Aktiengesellschaft | Voxel-level machine learning with or without cloud-based support in medical imaging |
| JP2018516703A (en) * | 2015-06-12 | 2018-06-28 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | System and method for identifying cancer tissue |
| JP6200618B1 (en) * | 2017-05-18 | 2017-09-20 | Psp株式会社 | Medical image diagnosis support system and apparatus, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7086790B2 (en) | 2022-06-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5355638B2 (en) | Image processing apparatus and method, and program | |
| US8949171B2 (en) | Medical diagnostic supporting apparatus | |
| US11900594B2 (en) | Methods and systems for displaying a region of interest of a medical image | |
| JP7187244B2 (en) | Medical image processing device, medical image processing system and medical image processing program | |
| US11200978B2 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
| US9865059B2 (en) | Medical image processing method and apparatus for determining plane of interest | |
| JP7210175B2 (en) | Medical information processing device, medical information processing system and medical information processing program | |
| JP2022180466A (en) | Diagnosis support device, learning device, diagnosis support method, learning method and program | |
| US11488297B2 (en) | Medical information processing apparatus and medical information processing system | |
| KR20220160015A (en) | Real-time detection and shading correction of hyperspectral retinal images | |
| JP2014018251A (en) | Ophthalmological photographing apparatus and ophthalmological photographing program | |
| JP2022068043A (en) | Medical image processing device and medical image processing system | |
| JP2017012444A (en) | Image processing device, image processing method and image processing program | |
| JP7350595B2 (en) | Image processing device, medical image diagnostic device, and image processing program | |
| CN111580715A (en) | Preference view generation on a structure level based on user preferences | |
| JP7086790B2 (en) | Medical image processing equipment, medical image processing system and medical image processing program | |
| JP6146249B2 (en) | Image display device and image display method | |
| US12274579B2 (en) | Radiation imaging system and storage medium | |
| US20220028134A1 (en) | Image processing apparatus, image processing method, and storage medium | |
| JP7433901B2 (en) | Learning device and learning method | |
| JP6358244B2 (en) | MEDICAL IMAGE PROCESSING DEVICE, MEDICAL IMAGE PROCESSING DEVICE CONTROL METHOD, AND PROGRAM | |
| JP2021104193A (en) | Image processing device, program and method | |
| JP2023092327A (en) | Information processing device and program | |
| JP2006026396A (en) | Image processing apparatus and method, control program, and storage medium | |
| US20250349011A1 (en) | Image generation apparatus, image generation method, training method, and non-transitory computer-readable storage medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210526 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220323 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220510 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220608 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7086790 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |