[go: up one dir, main page]

JP2020031810A - Medical image processing apparatus, medical image processing system, and medical image processing program - Google Patents

Medical image processing apparatus, medical image processing system, and medical image processing program Download PDF

Info

Publication number
JP2020031810A
JP2020031810A JP2018160005A JP2018160005A JP2020031810A JP 2020031810 A JP2020031810 A JP 2020031810A JP 2018160005 A JP2018160005 A JP 2018160005A JP 2018160005 A JP2018160005 A JP 2018160005A JP 2020031810 A JP2020031810 A JP 2020031810A
Authority
JP
Japan
Prior art keywords
image processing
medical image
region
extracted
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018160005A
Other languages
Japanese (ja)
Other versions
JP7086790B2 (en
Inventor
匠真 五十嵐
Takuma Igarashi
匠真 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2018160005A priority Critical patent/JP7086790B2/en
Publication of JP2020031810A publication Critical patent/JP2020031810A/en
Application granted granted Critical
Publication of JP7086790B2 publication Critical patent/JP7086790B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】画像処理アプリケーションを用いたワークフローの効率を向上させること。【解決手段】実施形態に係る医用画像処理装置は、取得部と、記憶部と、推定部とを備える。取得部は、画像処理によって抽出された医用画像内の抽出領域と、抽出領域に対して修正者が修正を施した修正領域とを取得する。記憶部は、抽出領域と修正領域との差分と、抽出領域との関係を学習することにより得られた学習済みモデルであって、画像処理によって医用画像内から抽出される抽出領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルを記憶する。推定部は、画像処理によって医用画像内から抽出された抽出領域を学習済みモデルに入力させることで、修正後領域を推定するように制御する。【選択図】図2PROBLEM TO BE SOLVED: To improve the efficiency of a workflow using an image processing application. A medical image processing apparatus according to an embodiment includes an acquisition unit, a storage unit, and an estimation unit. The acquisition unit acquires the extraction area in the medical image extracted by the image processing and the correction area in which the correction person has corrected the extraction area. The storage unit is a trained model obtained by learning the difference between the extraction area and the correction area and the relationship with the extraction area, and is correction for the extraction area extracted from the medical image by image processing. Stores a trained model that is functionalized to estimate the modified region after it has been subjected to. The estimation unit controls to estimate the modified region by inputting the extracted region extracted from the medical image by the image processing into the trained model. [Selection diagram] Fig. 2

Description

本発明の実施形態は、医用画像処理装置、医用画像処理システム及び医用画像処理プログラムに関する。   An embodiment of the present invention relates to a medical image processing device, a medical image processing system, and a medical image processing program.

従来、医用画像に対して実施される画像処理アプリケーションに搭載された画像処理アルゴリズムは、医用画像の典型的な画像を対象として、画像処理アプリケーションの開発者、或いは、評価者などの主観や、統計的観念によって最適化されている場合がある。そのような画像処理アプリケーションにおいては、ユーザ(操作者)が画像処理アプリケーションの出力に期待することと、画像処理アプリケーションの最適化の方針が一致するとは限らない。また、最適化の際に参照される典型的な画像がユーザの用いている画像と大きく異なる場合にも、ユーザの期待と最適化の内容とが食い違ってしまう場合がある。そのため、そのような画像処理アプリケーションが臨床の場で使用されると、画像処理アルゴリズムが出力した結果がユーザの期待する出力とは異なってしまう場合がある。ユーザは画像処理アルゴリズムから出力される結果が自身の期待に沿った内容となるよう、出力される結果に対して、修正を加える場合がある。   Conventionally, an image processing algorithm installed in an image processing application performed on a medical image targets subjective images of a typical image of the medical image, a subject such as a developer or an evaluator of the image processing application, and statistics. It may be optimized by the idea. In such an image processing application, what the user (operator) expects for the output of the image processing application does not always match the policy of optimizing the image processing application. In addition, even when a typical image referred to at the time of optimization is significantly different from an image used by the user, the user's expectation may differ from the content of the optimization. Therefore, when such an image processing application is used in a clinical setting, the result output by the image processing algorithm may be different from the output expected by the user. The user may modify the output result so that the result output from the image processing algorithm is in accordance with his / her expectations.

特開2014−30556号公報JP 2014-30556 A 特開2014−212820号公報JP 2014-212820 A

本発明が解決しようとする課題は、画像処理アプリケーションを用いたワークフローの効率を向上させることである。   An object of the present invention is to improve the efficiency of a workflow using an image processing application.

実施形態に係る医用画像処理装置は、取得部と、記憶部と、推定部とを備える。取得部は、画像処理によって抽出された医用画像内の抽出領域と、前記抽出領域に対して修正者が修正を施した修正領域とを取得する。記憶部は、前記抽出領域と前記修正領域との差分と、前記抽出領域との関係を学習することにより得られた学習済みモデルであって、前記画像処理によって医用画像内から抽出される抽出領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルを記憶する。推定部は、前記画像処理によって医用画像内から抽出された抽出領域を前記学習済みモデルに入力させることで、修正後領域を推定するように制御する。   A medical image processing device according to an embodiment includes an acquisition unit, a storage unit, and an estimation unit. The obtaining unit obtains an extraction region in the medical image extracted by the image processing and a correction region in which the corrector has corrected the extraction region. The storage unit is a trained model obtained by learning a relationship between the difference between the extraction region and the correction region and the extraction region, and the extraction region extracted from a medical image by the image processing. And stores a learned model that is provided with a function of estimating a corrected area after correction has been performed on. The estimating unit performs control so as to estimate a corrected area by inputting an extracted area extracted from a medical image by the image processing into the learned model.

図1は、本実施形態に係る医用画像報処理システムの構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a configuration of a medical image report processing system according to the present embodiment. 図2は、本実施形態に係る医用画像処理装置によって行われる学習時及び運用時の処理を示す図である。FIG. 2 is a diagram illustrating processing during learning and during operation performed by the medical image processing apparatus according to the present embodiment. 図3は、本実施形態に係る医用画像処理装置の学習時の処理の一例を説明するための図である。FIG. 3 is a diagram for explaining an example of processing at the time of learning of the medical image processing apparatus according to the present embodiment. 図4Aは、本実施形態に係る解析機能による解析処理の一例を説明するための図である。FIG. 4A is a diagram for describing an example of the analysis processing by the analysis function according to the present embodiment. 図4Bは、本実施形態に係る学習済みモデルの生成に用いられるテクスチャパラメータを模式的に示す図である。FIG. 4B is a diagram schematically illustrating texture parameters used for generating a learned model according to the present embodiment. 図5は、本実施形態に係る医用画像処理装置の運用時の処理の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of a process at the time of operation of the medical image processing apparatus according to the present embodiment. 図6は、本実施形態に係る医用画像処理装置による学習時の処理の手順を示すフローチャートである。FIG. 6 is a flowchart illustrating a procedure of a learning process performed by the medical image processing apparatus according to the present embodiment. 図7は、本実施形態に係る医用画像処理装置による運用時の処理の手順を示すフローチャートである。FIG. 7 is a flowchart illustrating a procedure of processing during operation by the medical image processing apparatus according to the present embodiment. 図8は、本実施形態に係る学習済みモデルの生成に用いられるテクスチャパラメータを模式的に示す図である。FIG. 8 is a diagram schematically illustrating texture parameters used for generating a learned model according to the present embodiment.

以下、図面を参照しながら、医用画像処理装置、医用画像処理システム及び医用画像処理プログラムの実施形態について詳細に説明する。なお、本願に係る医用画像処理装置、医用画像処理システム及び医用画像処理プログラムは、以下に示す実施形態によって限定されるものではない。   Hereinafter, embodiments of a medical image processing apparatus, a medical image processing system, and a medical image processing program will be described in detail with reference to the drawings. Note that the medical image processing apparatus, the medical image processing system, and the medical image processing program according to the present application are not limited to the embodiments described below.

(実施形態)
図1は、本実施形態に係る医用画像処理システム100の構成例を示す図である。図1に示すように、本実施形態に係る医用画像処理システム100は、医用画像診断装置110と、端末装置120と、医用画像処理装置130とを含む。ここで、各装置は、ネットワーク200を介して通信可能に接続されている。
(Embodiment)
FIG. 1 is a diagram illustrating a configuration example of a medical image processing system 100 according to the present embodiment. As shown in FIG. 1, the medical image processing system 100 according to the present embodiment includes a medical image diagnostic device 110, a terminal device 120, and a medical image processing device 130. Here, each device is communicably connected via the network 200.

医用画像診断装置110は、被検体を撮像して医用画像を生成する。そして、医用画像診断装置110は、生成した医用画像を端末装置120や医用画像処理装置130に送信する。例えば、医用画像診断装置110は、X線診断装置、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置等である。   The medical image diagnostic apparatus 110 images a subject and generates a medical image. Then, the medical image diagnostic apparatus 110 transmits the generated medical image to the terminal apparatus 120 and the medical image processing apparatus 130. For example, the medical image diagnostic apparatus 110 includes an X-ray diagnostic apparatus, an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, an ultrasonic diagnostic apparatus, a SPECT (Single Photon Emission Computed Tomography) apparatus, and a PET (Positron Emission). computed tomography) device.

端末装置120は、病院内に勤務する医師や検査技師に医用画像を閲覧させるための装置である。例えば、端末装置140は、病院内に勤務する医師や検査技師により操作されるパーソナルコンピュータ(PC:Personal Computer)やタブレット式PC、PDA(Personal Digital Assistant)、携帯電話等によって実現される。例えば、端末装置120は、医用画像診断装置110又は医用画像処理装置130から受信した医用画像を自装置のディスプレイに表示させるとともに、自装置の入力インターフェースを介して医用画像に対する各種操作を受け付ける。   The terminal device 120 is a device for allowing a doctor or a laboratory technician who works in a hospital to browse medical images. For example, the terminal device 140 is realized by a personal computer (PC), a tablet PC, a PDA (Personal Digital Assistant), a mobile phone, or the like operated by a doctor or a laboratory technician who works in a hospital. For example, the terminal device 120 displays a medical image received from the medical image diagnostic device 110 or the medical image processing device 130 on its own display, and receives various operations on the medical image via its own input interface.

医用画像処理装置130は、医用画像診断装置110及び端末装置120から各種の情報を取得し、取得した情報を用いて各種の情報処理を行う。例えば、医用画像処理装置130は、サーバやワークステーション、パーソナルコンピュータ、タブレット端末等のコンピュータ機器によって実現される。   The medical image processing device 130 acquires various information from the medical image diagnostic device 110 and the terminal device 120, and performs various information processing using the acquired information. For example, the medical image processing apparatus 130 is realized by a computer device such as a server, a workstation, a personal computer, and a tablet terminal.

図1に示すように、医用画像処理装置130は、通信インターフェース131と、記憶回路132と、入力インターフェース133と、ディスプレイ134と、処理回路135とを有する。   As shown in FIG. 1, the medical image processing apparatus 130 includes a communication interface 131, a storage circuit 132, an input interface 133, a display 134, and a processing circuit 135.

通信インターフェース131は、処理回路135に接続されており、医用画像処理装置130と各装置との間で行われる通信を制御する。具体的には、通信インターフェース131は、各装置から各種の情報を受信し、受信した情報を処理回路135に出力する。例えば、通信インターフェース131は、ネットワークカードやネットワークアダプタ、NIC(Network Interface Controller)等によって実現される。   The communication interface 131 is connected to the processing circuit 135 and controls communication performed between the medical image processing apparatus 130 and each apparatus. Specifically, the communication interface 131 receives various information from each device, and outputs the received information to the processing circuit 135. For example, the communication interface 131 is realized by a network card, a network adapter, a NIC (Network Interface Controller), or the like.

記憶回路132は、処理回路135に接続されており、各種のデータを記憶する。例えば、記憶回路132は、医用画像診断装置110から受信した医用画像や、端末装置120から取得した医用画像などを記憶する。また、記憶回路132は、処理回路135が読み出して実行することで各種機能を実現するための種々のプログラムを記憶する。例えば、記憶回路132は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子や、ハードディスク、光ディスク等によって実現される。なお、記憶回路132は、記憶部の一例である。   The storage circuit 132 is connected to the processing circuit 135 and stores various data. For example, the storage circuit 132 stores a medical image received from the medical image diagnostic apparatus 110, a medical image acquired from the terminal device 120, and the like. The storage circuit 132 stores various programs for realizing various functions by being read and executed by the processing circuit 135. For example, the storage circuit 132 is realized by a semiconductor memory element such as a random access memory (RAM) or a flash memory, a hard disk, an optical disk, or the like. Note that the storage circuit 132 is an example of a storage unit.

入力インターフェース133は、処理回路135に接続されており、操作者から各種の指示及び情報の入力操作を受け付ける。具体的には、入力インターフェース133は、操作者から受け付けた入力操作を電気信号へ変換して処理回路135に出力する。例えば、入力インターフェース133は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、及び音声入力回路等によって実現される。なお、本明細書において、入力インターフェース133は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インターフェース133の例に含まれる。   The input interface 133 is connected to the processing circuit 135, and receives various instructions and information input operations from the operator. Specifically, the input interface 133 converts the input operation received from the operator into an electric signal and outputs the electric signal to the processing circuit 135. For example, the input interface 133 includes a track ball, a switch button, a mouse, a keyboard, a touch pad for performing an input operation by touching an operation surface, a touch screen in which a display screen and a touch pad are integrated, and a non-display using an optical sensor. This is realized by a contact input circuit, a voice input circuit, and the like. In the present specification, the input interface 133 is not limited to one having physical operation components such as a mouse and a keyboard. For example, an example of the input interface 133 includes an electric signal processing circuit that receives an electric signal corresponding to an input operation from an external input device provided separately from the device and outputs the electric signal to a control circuit.

ディスプレイ134は、処理回路135に接続されており、各種の情報及び画像を表示する。具体的には、ディスプレイ134は、処理回路135から送られる情報及び画像のデータを表示用の電気信号に変換して出力する。例えば、ディスプレイ134は、液晶モニタやCRT(Cathode Ray Tube)モニタ、タッチパネル等によって実現される。   The display 134 is connected to the processing circuit 135 and displays various information and images. Specifically, the display 134 converts the information and the image data sent from the processing circuit 135 into electric signals for display and outputs them. For example, the display 134 is realized by a liquid crystal monitor, a CRT (Cathode Ray Tube) monitor, a touch panel, or the like.

処理回路135は、入力インターフェース133を介して操作者から受け付けた入力操作に応じて、医用画像処理装置130の動作を制御する。例えば、処理回路135は、プロセッサによって実現される。   The processing circuit 135 controls the operation of the medical image processing apparatus 130 according to an input operation received from the operator via the input interface 133. For example, the processing circuit 135 is realized by a processor.

以上、本実施形態に係る医用画像処理システム100の構成について説明した。例えば、本実施形態に係る医用画像処理システム100は、病院や医院等の医療機関に設置され、医療機関に入院又は通院する患者等を被検体として、医用画像診断装置110によって生成される医用画像を用いた各種の画像診断に利用される。   The configuration of the medical image processing system 100 according to the present embodiment has been described above. For example, the medical image processing system 100 according to the present embodiment is installed in a medical institution such as a hospital or a clinic, and a medical image generated by the medical image diagnostic apparatus 110 with a patient or the like who is admitted or visited a medical institution as a subject. It is used for various types of image diagnosis using.

ここで、医用画像を用いた画像診断では、医用画像診断装置110によって収集された医用画像に対して画像処理アプリケーションが実施され、処理後の医用画像が診断に用いられる場合がある。例えば、MRI装置によって収集されたFLAIR(Fluid-Attenuated Inversion Recovery)画像に対して脳白質の高輝度領域を抽出する画像処理アプリケーションが実施され、処理後のFLAIR画像が多発性硬化症の診断に用いられる。   Here, in the image diagnosis using the medical image, an image processing application may be applied to the medical image collected by the medical image diagnostic apparatus 110, and the processed medical image may be used for the diagnosis. For example, an image processing application for extracting a high-brightness region of brain white matter from a FLAIR (Fluid-Attenuated Inversion Recovery) image collected by an MRI apparatus is performed, and the processed FLAIR image is used for diagnosis of multiple sclerosis. Can be

しかしながら、上述したように、このような画像処理アプリケーションに搭載された画像処理アルゴリズムは、医用画像の典型的な画像を対象として、画像処理アプリケーションの開発者、或いは、評価者などの主観や、統計的観念によって最適化されている。すなわち、このような画像処理アルゴリズムは、入力された医用画像に応じて出力結果が一意に決まる。したがって、出力結果に対してユーザ(操作者)が満足しない場合、ユーザがマニュアル操作によって出力結果を修正する場合がある。また、このようなユーザは、出力結果に対して高頻度で修正を加える可能性が高く、このような修正は、診断ワークフローの妨げとなる。さらに、ユーザごとに修正の傾向が異なる場合もあり、各ユーザにとって適切な出力結果を画像アプリケーションから出力することは困難である。   However, as described above, the image processing algorithm installed in such an image processing application targets a typical image of a medical image, and subjects the image such as a subject of an image processing application developer or an evaluator, or a statistical image. Optimized by the idea. That is, in such an image processing algorithm, the output result is uniquely determined according to the input medical image. Therefore, when the user (operator) is not satisfied with the output result, the user may correct the output result by manual operation. In addition, such a user is likely to make corrections to the output result with high frequency, and such corrections hinder the diagnostic workflow. Furthermore, the tendency of correction may differ for each user, and it is difficult to output an output result appropriate for each user from the image application.

そこで、本実施形態では、医用画像処理システム100における医用画像処理装置130が、画像処理アプリケーションによる出力結果と、出力結果に対するユーザ(修正者)の修正結果との関係を学習することで、画像処理アプリケーションによる出力結果の入力に対して修正を加えられるであろう領域を反映した出力結果を出力する学習済みモデルを構築する。そして、医用画像処理装置130は、新たに取得される画像処理アプリケーションによる出力結果を学習済みモデルに入力させることで、修正後の出力結果を推定する。これにより、医用画像処理装置130は、ユーザの修正傾向に沿った出力結果を自動で取得することができ、ユーザ自身がマニュアルで修正することなく適切な出力結果を提供することができる。その結果、医用画像処理装置130は、画像処理アプリケーションを用いたワークフローの効率を向上させることを可能にする。   Therefore, in the present embodiment, the medical image processing apparatus 130 in the medical image processing system 100 learns the relationship between the output result of the image processing application and the correction result of the user (corrector) for the output result, thereby performing image processing. Build a trained model that outputs an output result that reflects the area where the input of the output result by the application will be modified. Then, the medical image processing apparatus 130 estimates the corrected output result by inputting the output result of the newly acquired image processing application to the learned model. Thereby, the medical image processing apparatus 130 can automatically obtain an output result according to the correction tendency of the user, and can provide an appropriate output result without manual correction by the user himself. As a result, the medical image processing apparatus 130 can improve the efficiency of the workflow using the image processing application.

以下、本実施形態に係る医用画像処理装置130の詳細について説明する。図1に示すように、医用画像処理装置130の処理回路135は、制御機能135a、画像処理機能135b、解析機能135c、学習機能135d、及び、推定機能135eを実行する。ここで、制御機能135aは、取得部及び表示制御部の一例である。また、画像処理機能135bは、取得部の一例である。また、学習機能135dは、学習部の一例である。また、推定機能135eは、推定部の一例である。   Hereinafter, details of the medical image processing apparatus 130 according to the present embodiment will be described. As shown in FIG. 1, the processing circuit 135 of the medical image processing apparatus 130 executes a control function 135a, an image processing function 135b, an analysis function 135c, a learning function 135d, and an estimation function 135e. Here, the control function 135a is an example of an acquisition unit and a display control unit. The image processing function 135b is an example of an obtaining unit. The learning function 135d is an example of a learning unit. The estimating function 135e is an example of an estimating unit.

制御機能135aは、入力インターフェース133を介して入力された各種要求に応じた処理を実行するように制御する。例えば、制御機能135aは、通信インターフェース131を介した医用画像等の送受信、記憶回路132への情報の格納、ディスプレイ134への情報(例えば、表示画像や、画像処理機能135bの処理結果、解析機能135cの解析結果、推定機能135eの推定結果など)の表示などを制御する。   The control function 135a controls so as to execute a process according to various requests input via the input interface 133. For example, the control function 135a includes transmission and reception of medical images and the like via the communication interface 131, storage of information in the storage circuit 132, information on the display 134 (for example, display images, processing results of the image processing function 135b, analysis functions The display of the analysis result of 135c, the estimation result of the estimation function 135e, and the like are controlled.

例えば、制御機能135aは、医用画像診断装置110から医用画像を取得して、記憶回路132に格納する。また、例えば、制御機能135aは、医用画像診断装置110から取得した医用画像に対して処理を実行するためのGUIや、各機能による処理結果をディスプレイ134に表示させるように制御する。なお、制御機能135aによって表示される表示内容の詳細については、後述する。   For example, the control function 135a acquires a medical image from the medical image diagnostic apparatus 110 and stores the medical image in the storage circuit 132. Further, for example, the control function 135a controls the display 134 to display a GUI for executing a process on a medical image acquired from the medical image diagnostic apparatus 110 and a processing result by each function. The details of the display content displayed by the control function 135a will be described later.

画像処理機能135bは、医用画像診断装置110から取得した医用画像に対して所定の画像処理を実行する。具体的には、画像処理機能135bは、医用画像に含まれる所定の領域を抽出するための画像処理を実行する。例えば、画像処理機能135bは、画像処理アプリケーションに搭載された通常(学習アルゴリズムではない)の画像処理アルゴリズムにより、医用画像から所定の領域を抽出する。一例を挙げると、画像処理機能135bは、頭部を対象にして収集されたMRI画像に含まれる脳白質の高輝度領域を抽出する画像処理アプリケーションである。   The image processing function 135b executes predetermined image processing on a medical image acquired from the medical image diagnostic apparatus 110. Specifically, the image processing function 135b executes image processing for extracting a predetermined area included in the medical image. For example, the image processing function 135b extracts a predetermined area from a medical image using a normal (not a learning algorithm) image processing algorithm installed in the image processing application. As an example, the image processing function 135b is an image processing application that extracts a high-brightness region of brain white matter included in an MRI image collected for the head.

なお、画像処理機能135bは、画像処理の内容に応じて、種々の画像処理アルゴリズムを実行し、医用画像から領域を抽出することができる。例えば、画像処理機能135bは、医用画像に含まれる腫瘍領域を抽出する画像処理アルゴリズムを実行する場合でもよい。   Note that the image processing function 135b can execute various image processing algorithms according to the content of the image processing, and extract an area from the medical image. For example, the image processing function 135b may execute an image processing algorithm for extracting a tumor region included in a medical image.

解析機能135cは、画像処理機能135bによって抽出された領域と、当該領域に対して操作者が修正を加えた領域との差分領域に対して画像解析を行う。また、解析機能135cは、画像処理機能135bによって抽出された領域に対して画像解析を行う。なお、解析機能135cによる処理の詳細については、後述する。   The analysis function 135c performs image analysis on a difference area between the area extracted by the image processing function 135b and the area where the operator has modified the area. The analysis function 135c performs image analysis on the region extracted by the image processing function 135b. The details of the processing by the analysis function 135c will be described later.

学習機能135dは、画像処理機能135bによって抽出された領域と当該領域に対して操作者が修正を加えた領域との差分と、画像処理機能135bによって抽出された領域との関係を学習することにより、画像処理機能135bによって医用画像内から抽出される領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルを生成する。なお、学習機能135dによる処理の詳細については、後述する。   The learning function 135d learns the relationship between the difference between the area extracted by the image processing function 135b and the area where the operator has modified the area and the area extracted by the image processing function 135b. Then, a learned model which is provided with a function of estimating a corrected area after correcting the area extracted from the medical image by the image processing function 135b is generated. The details of the process by the learning function 135d will be described later.

推定機能135eは、画像処理機能135bによって医用画像内から抽出された領域を学習済みモデルに入力させることで、修正後領域を推定するように制御する。なお、推定機能135eによる処理の詳細については、後述する。   The estimating function 135e controls to estimate the corrected area by inputting the area extracted from the medical image by the image processing function 135b into the learned model. The details of the processing by the estimation function 135e will be described later.

本実施形態では、上述した処理回路135の各機能が、学習済みモデルを生成する学習時の処理と、生成された学習済みモデルを利用する運用時の処理とを行う。具体的には、制御機能135a、画像処理機能135b、解析機能135c、学習機能135dが、医用画像診断装置110によって収集された医用画像に対して画像処理アプリケーションが実施されて出力された出力結果に対してユーザが修正を施した場合、又は、操作者から学習開始の指示を受け付けた場合に、学習時の処理を行う。また、制御機能135a、画像処理機能135b、解析機能135c及び推定機能135eが、医用画像診断装置110によって収集された医用画像に対して画像処理アプリケーションが実施されて出力結果が出力された場合に、運用時の処理を行う。   In the present embodiment, each function of the above-described processing circuit 135 performs a process at the time of learning for generating a learned model and a process at the time of operation using the generated learned model. More specifically, the control function 135a, the image processing function 135b, the analysis function 135c, and the learning function 135d perform the image processing application on the medical image collected by the medical image diagnostic apparatus 110 and output the result. On the other hand, when the user makes a correction, or when an instruction to start learning is received from the operator, processing at the time of learning is performed. When the control function 135a, the image processing function 135b, the analysis function 135c, and the estimation function 135e execute an image processing application on a medical image collected by the medical image diagnostic apparatus 110 and output an output result, Perform the operation process.

図2は、本実施形態に係る医用画像処理装置130によって行われる学習時及び運用時の処理を示す図である。   FIG. 2 is a diagram illustrating processing during learning and during operation performed by the medical image processing apparatus 130 according to the present embodiment.

例えば、図2の上側に示すように、学習時には、学習機能135dが、画像処理機能135bによる領域の抽出結果と、抽出結果に対する修正の解析機能135cによる解析結果との関係を学習することによって、医用画像内から抽出された領域に基づいて、修正後の領域を出力する学習済みモデルを生成する。   For example, as shown in the upper part of FIG. 2, at the time of learning, the learning function 135d learns the relationship between the region extraction result obtained by the image processing function 135b and the analysis result obtained by correcting the extraction result by the analysis function 135c. Based on the region extracted from the medical image, a learned model that outputs the corrected region is generated.

かかる場合には、まず、制御機能135aが、医用画像診断装置110から医用画像を取得して、記憶回路132に格納する。画像処理機能135bは、制御機能135aによって取得された医用画像に対して画像処理アルゴリズムによる画像処理を実行することで、領域を抽出して、抽出結果を医用画像に対応付けて記憶回路132に格納する。ここで、画像処理機能135bは、例えば、操作者によって指定された画像処理アルゴリズムによる領域の抽出を行う。すなわち、画像処理機能135bは、操作者が画像診断を行う際に選択した画像処理アルゴリズムによる領域抽出を行う。   In such a case, first, the control function 135a acquires a medical image from the medical image diagnostic apparatus 110 and stores it in the storage circuit 132. The image processing function 135b extracts an area by executing image processing by an image processing algorithm on the medical image acquired by the control function 135a, and stores the extracted result in the storage circuit 132 in association with the medical image. I do. Here, the image processing function 135b extracts an area by an image processing algorithm specified by an operator, for example. That is, the image processing function 135b performs the area extraction by the image processing algorithm selected when the operator performs the image diagnosis.

そして、制御機能135aは、画像処理機能135bによる抽出結果をディスプレイ134に表示させる。操作者は、入力インターフェースを介して、ディスプレイ134に表示された領域の抽出結果を修正するための修正操作を実行する。具体的には、操作者は、画像処理機能135bによって抽出された領域を修正する修正操作を実行する。ここで、操作者によって修正された領域の情報は、医用画像及び画像処理機能135bによる抽出結果に対応付けて、記憶回路132に格納される。   Then, the control function 135a causes the display 134 to display the extraction result obtained by the image processing function 135b. The operator executes a correction operation for correcting the extraction result of the area displayed on the display 134 via the input interface. Specifically, the operator performs a correction operation for correcting the region extracted by the image processing function 135b. Here, the information on the area corrected by the operator is stored in the storage circuit 132 in association with the medical image and the extraction result by the image processing function 135b.

解析機能135cは、画像処理機能135bによって抽出された抽出領域と、操作者によって修正された修正領域との差分領域を抽出し、抽出した差分領域における画像解析を行う。具体的には、解析機能135cは、差分領域における画像特徴量を取得するための画像解析を行う。例えば、解析機能135cは、差分領域に対してテクスチャ解析を行うことで、差分領域における画像特徴量を取得する。解析機能135cは、取得した画像特徴量を、医用画像、画像処理機能135bによる抽出結果及び修正領域に対応付けて、記憶回路132に格納される。   The analysis function 135c extracts a difference area between the extraction area extracted by the image processing function 135b and the correction area corrected by the operator, and performs image analysis on the extracted difference area. Specifically, the analysis function 135c performs an image analysis for acquiring an image feature amount in the difference area. For example, the analysis function 135c acquires the image feature amount in the difference area by performing texture analysis on the difference area. The analysis function 135c stores the acquired image feature amount in the storage circuit 132 in association with the medical image, the extraction result by the image processing function 135b, and the correction area.

学習機能135dは、画像処理機能135bによって抽出された抽出領域と、差分領域における画像解析の結果との関係を学習することで、学習済みモデルを生成する。具体的には、学習機能135dは、記憶回路132を参照して、画像処理機能135bによって抽出された抽出領域及び差分領域における画像解析の結果を取得する。そして、学習機能135dは、取得した抽出領域及び画像解析の結果を学習用データとして機械学習エンジンに入力することによって、機械学習を行う。ここで、抽出領域に関する情報は、例えば、抽出領域の輝度情報が用いられる。   The learning function 135d generates a learned model by learning the relationship between the extraction region extracted by the image processing function 135b and the result of the image analysis in the difference region. Specifically, the learning function 135d refers to the storage circuit 132, and acquires the result of the image analysis in the extraction area and the difference area extracted by the image processing function 135b. Then, the learning function 135d performs machine learning by inputting the obtained extraction region and the result of the image analysis to the machine learning engine as learning data. Here, as information on the extraction region, for example, luminance information of the extraction region is used.

なお、機械学習エンジンは、例えば、入力された標準画像及び画像特徴量に基づいて、記憶回路142のDBを参照し、画像相関や画像特徴量の比較を行うことで、臨床に最適な撮像パラメータを決定する。例えば、機械学習エンジンは、ディープラーニング(Deep Learning)や、ニューラルネットワーク(Neural Network)、ロジスティック(Logistic)回帰分析、非線形判別分析、サポートベクターマシン(Support Vector Machine:SVM)、ランダムフォレスト(Random Forest)、ナイーブベイズ(Naive Bayes)等の各種のアルゴリズムを用いて、最適なパラメータを決定する。   The machine learning engine refers to the DB of the storage circuit 142 based on, for example, the input standard image and the image feature amount, and compares the image correlation and the image feature amount, thereby obtaining a clinically optimal imaging parameter. To determine. For example, machine learning engines include Deep Learning, Neural Network, Logistic regression analysis, nonlinear discriminant analysis, Support Vector Machine (SVM), and Random Forest. The optimal parameters are determined by using various algorithms such as Naive Bayes.

このような機械学習の結果として、学習機能135dは、画像処理機能135bによる出力結果の入力に対して修正を加えられるであろう領域を反映した出力結果を出力する学習済みモデルを生成する。そして、学習機能135dは、生成した学習済みモデルを記憶回路142に記憶させる。なお、このとき、学習機能135dは、以前に作成した学習済みモデルが既に記憶回路132に記憶されていた場合には、新しく作成した学習済みモデルで、記憶されている学習済みモデルを置き換える。   As a result of such machine learning, the learning function 135d generates a learned model that outputs an output result reflecting a region where the input of the output result by the image processing function 135b will be corrected. Then, the learning function 135d stores the generated learned model in the storage circuit 142. At this time, if the previously created learned model has already been stored in the storage circuit 132, the learning function 135d replaces the stored learned model with the newly created learned model.

また、学習機能135dは、修正を施す操作者(修正者)ごとに学習済みモデルを生成して、記憶回路132にそれぞれ記憶させることもできる。例えば、画像処理機能135bによって抽出された領域に対する修正は、操作者ごとに異なる傾向を有する場合がある。そこで、学習機能135dは、操作者を一意に特定するための識別子(例えば、ユーザID)を学習済みアルゴリズムに対応付けて記憶回路132に記憶させる。そして、学習機能135dは、既に記憶されている学習済みモデルを新しく生成した学習済みモデルに置き換える場合には、画像診断を行う際に入力されるユーザIDなどに基づいて操作者を識別し、対応する学習済みモデルを特定する。   Further, the learning function 135d can also generate a learned model for each operator (corrector) who makes a correction and store the generated model in the storage circuit 132. For example, the correction to the region extracted by the image processing function 135b may have a different tendency for each operator. Therefore, the learning function 135d causes the storage circuit 132 to store an identifier (for example, a user ID) for uniquely specifying the operator in association with the learned algorithm. When replacing the already-stored learned model with a newly generated learned model, the learning function 135d identifies the operator based on a user ID or the like input when performing image diagnosis, and responds. Identify the trained model to be trained.

以下、図3〜図4Bを用いて、学習時の処理の一例について説明する。図3は、本実施形態に係る医用画像処理装置130の学習時の処理の一例を説明するための図である。ここで、図3においては、頭部を対象にして収集されたMRI画像に含まれる脳白質から抽出された高輝度領域に対して修正が加えられる場合について示す。   Hereinafter, an example of a process at the time of learning will be described with reference to FIGS. FIG. 3 is a diagram for explaining an example of processing at the time of learning of the medical image processing apparatus 130 according to the present embodiment. Here, FIG. 3 shows a case where correction is applied to a high-luminance area extracted from brain white matter included in an MRI image collected for the head.

例えば、画像処理機能135bは、図3の左端に示す原画像(頭部を対象にして収集されたMRI画像)を対象として画像処理アルゴリズムを適用することで、図3の左から2番目の画像に示すように、脳白質の高輝度領域を抽出する。そして、画像処理機能135bによって高輝度領域が抽出されると、制御機能135aは、抽出結果(図3の左から2番目の画像)をディスプレイ134に表示させる。   For example, the image processing function 135b applies the image processing algorithm to the original image (MRI image collected for the head) shown on the left end of FIG. 3 to obtain the second image from the left of FIG. As shown in (1), a high brightness region of the brain white matter is extracted. When the high-brightness area is extracted by the image processing function 135b, the control function 135a displays the extraction result (the second image from the left in FIG. 3) on the display 134.

操作者は、ディスプレイ134に表示された抽出結果を参照して、脳白質の高輝度領域の抽出結果に対して修正を加える。すなわち、操作者、図3の左から3番目の画像に示すように、画像処理機能135bによって抽出された高輝度領域を修正する。   The operator corrects the extraction result of the high-brightness region of the brain white matter with reference to the extraction result displayed on the display 134. That is, as shown in the third image from the left in FIG. 3, the operator corrects the high luminance area extracted by the image processing function 135b.

解析機能135cは、操作者によって修正された修正領域と、画像処理機能135bによって抽出された抽出領域との差分領域に対してテクスチャ解析を実行する。例えば、解析機能135cは、図3の左から2番目の画像に示された抽出領域と、図3の左から3番目の画像に示された修正領域との差分領域に対してテクスチャ解析を実行する。   The analysis function 135c performs a texture analysis on a difference area between the correction area corrected by the operator and the extraction area extracted by the image processing function 135b. For example, the analysis function 135c performs a texture analysis on a difference area between the extraction area shown in the second image from the left in FIG. 3 and the correction area shown in the third image from the left in FIG. I do.

図4Aは、本実施形態に係る解析機能135cによる解析処理の一例を説明するための図である。ここで、図4Aにおいては、画像処理機能135bによって抽出された抽出領域に対して操作者が修正を加えることで、不要な領域が削除された修正領域を領域R1内に示す。また、図4Aにおいて下段に示す2枚の画像は、それぞれ領域R1付近を拡大した同一の画像であり、3×3のカーネルの位置が移動されたものを示す。   FIG. 4A is a diagram for describing an example of an analysis process by the analysis function 135c according to the present embodiment. Here, in FIG. 4A, a correction region in which an unnecessary region has been deleted by the operator correcting the extraction region extracted by the image processing function 135b is shown in the region R1. Further, the two images shown in the lower part of FIG. 4A are the same images in which the vicinity of the region R1 is enlarged, respectively, and show the 3 × 3 kernel position shifted.

例えば、解析機能135cは、画像処理機能135bによって抽出された抽出領域と、操作者によって抽出領域が修正された後の修正領域との差分領域を抽出する。すなわち、解析機能135cは、抽出領域のうち、図4Aの領域R1内に示す修正領域以外の領域を抽出する。そして、解析機能135cは、抽出した差分領域に対して、例えば、3×3の9画素のカーネルを適用させて、差分領域における各位置の画素値を算出する。一例を挙げると、解析機能135cは、図4Aに示すように、差分領域に対してカーネルの位置を変えながら、カーネルの中央の画素の位置における画素値を周囲の8画素の画素値から算出する。そして、解析機能135cは、差分領域の各位置における画素値に基づいて、種々のテクスチャパラメータをそれぞれ算出する。   For example, the analysis function 135c extracts a difference area between the extraction area extracted by the image processing function 135b and a correction area after the extraction area has been corrected by the operator. That is, the analysis function 135c extracts an area other than the correction area shown in the area R1 in FIG. 4A from the extraction area. Then, the analysis function 135c calculates a pixel value at each position in the difference area by applying, for example, a 3 × 3 9-pixel kernel to the extracted difference area. As an example, as shown in FIG. 4A, the analysis function 135c calculates the pixel value at the central pixel position of the kernel from the peripheral eight pixel values while changing the kernel position with respect to the difference region. . Then, the analysis function 135c calculates various texture parameters based on the pixel values at each position in the difference area.

一例を挙げると、解析機能135cは、差分領域の各位置における画素値の「Mean」、「SD」、「Skewness」、「Kurtosis」、「Energy」、「Entropy」、「dissimilarity」、「Homogeneity」、「size」などをそれぞれ算出する。すなわち、解析機能135cは、1つの差分領域について、複数のテクスチャパラメータを算出する。解析機能135cは、操作者によって修正された修正領域について、それぞれ差分領域を抽出して、各差分領域について複数のテクスチャパラメータをそれぞれ算出する。そして、解析機能135cは、算出した複数のテクスチャパラメータを差分領域に対応付けて記憶回路132に記憶させる。なお、上記したテクスチャパラメータは、あくまでも一例であり、解析機能135cは、その他種々のテクスチャパラメータを算出することができる。   To give an example, the analysis function 135c calculates the pixel values “Mean”, “SD”, “Skewness”, “Kurtosis”, “Energy”, “Entropy”, “dissimilarity”, “Homogeneity” at each position in the difference area. , “Size” and the like are calculated. That is, the analysis function 135c calculates a plurality of texture parameters for one difference area. The analysis function 135c extracts a difference region from each of the correction regions corrected by the operator, and calculates a plurality of texture parameters for each difference region. Then, the analysis function 135c causes the storage circuit 132 to store the calculated plurality of texture parameters in association with the difference area. The above-described texture parameters are merely examples, and the analysis function 135c can calculate other various texture parameters.

図3に戻って、学習機能135dは、抽出領域と差分領域のテクスチャ解析の結果とを用いて学習済みモデルを生成して、記憶回路132における学習済みモデルのデータベースに格納する。例えば、学習機能135dは、抽出領域の輝度値と、対応する差分領域における複数のテクスチャパラメータとの関係を学習することで、抽出領域の輝度値に基づいて操作者に修正傾向に対応するテクスチャパラメータを出力する学習済みモデルを生成する。   Returning to FIG. 3, the learning function 135 d generates a learned model using the result of the texture analysis of the extracted area and the difference area, and stores the generated model in the database of the learned model in the storage circuit 132. For example, the learning function 135d learns the relationship between the luminance value of the extraction area and a plurality of texture parameters in the corresponding difference area, and provides the operator with a texture parameter corresponding to the correction tendency based on the luminance value of the extraction area. Generate a trained model that outputs.

図4Bは、本実施形態に係る学習済みモデルの生成に用いられるテクスチャパラメータを模式的に示す図である。なお、図4Bでは、差分領域ごとに3つのテクスチャパラメータを算出した場合を例に示す。本実施形態に係る学習済みモデルの生成に用いられるテクスチャパラメータは、例えば、図4Bに示すように、差分領域ごとに(点ごとに)、第1のパラメータ(横方向の軸の値)、第2のパラメータ(縦方向の軸の値)、及び、第3のパラメータ(奥行方向の軸の値)の3次元の情報を有する。   FIG. 4B is a diagram schematically illustrating texture parameters used for generating a learned model according to the present embodiment. FIG. 4B shows an example in which three texture parameters are calculated for each difference area. The texture parameters used for generating the learned model according to the present embodiment include, for example, as shown in FIG. 4B, a first parameter (a value of a horizontal axis) for each difference area (for each point), It has three-dimensional information of two parameters (vertical axis values) and a third parameter (depth axis values).

学習機能135dは、多数の医用画像(脳のMRI画像)から取得された、抽出領域の輝度値の情報と、図4Bに示すようなテクスチャパラメータの情報とから学習済みモデルを生成する。なお、図4Bでは、3つのテクスチャパラメータを算出したため、差分領域ごとに3次元の情報を有しているが、例えば、上記した9つのテクスチャパラメータを算出する場合、差分領域ごとに9次元の情報を有することとなる。例えば、学習機能135dは、このように学習済みモデルを生成して、生成した学習済みモデルを記憶回路132に格納する。   The learning function 135d generates a learned model from information on the luminance value of the extraction region acquired from many medical images (MRI images of the brain) and information on the texture parameters as shown in FIG. 4B. In FIG. 4B, since three texture parameters are calculated, three-dimensional information is provided for each difference region. For example, when the above-described nine texture parameters are calculated, nine-dimensional information is provided for each difference region. Will be provided. For example, the learning function 135d generates a learned model in this way, and stores the generated learned model in the storage circuit 132.

一方、例えば、図2の下側に示すように、運用時には、制御機能135aが、医用画像診断装置110から医用画像を取得して、記憶回路132に格納する。画像処理機能135bは、制御機能135aによって取得された医用画像に対して画像処理アルゴリズムによる画像処理を実行することで、抽出領域を抽出して、医用画像に対応付けて記憶回路132に格納する。   On the other hand, for example, as shown in the lower part of FIG. 2, during operation, the control function 135a acquires a medical image from the medical image diagnostic apparatus 110 and stores it in the storage circuit 132. The image processing function 135b extracts an extraction region by executing image processing by an image processing algorithm on the medical image acquired by the control function 135a, and stores the extracted region in the storage circuit 132 in association with the medical image.

その後、推定機能135eが、抽出領域を学習済みモデルにさせることで、修正後の領域を推定する。具体的には、推定機能135eは、画像処理機能135bによって抽出された抽出領域の輝度値の情報を学習済みモデルに入力させることで、テクスチャパラメータを出力させる。そして、推定機能135eは、出力されたテクスチャパラメータに対応する領域を修正後領域として推定する。   After that, the estimation function 135e estimates the corrected area by causing the extracted area to be a learned model. Specifically, the estimation function 135e outputs the texture parameter by inputting the information on the luminance value of the extraction region extracted by the image processing function 135b to the learned model. Then, the estimation function 135e estimates a region corresponding to the output texture parameter as a corrected region.

例えば、推定機能135eは、解析機能135cが抽出領域に対して実行したテクスチャ解析の結果を参照して、抽出領域において、学習済みモデルから出力されたテクスチャパラメータに対応する領域を特定する。推定機能135eは、特定した領域を修正後領域として推定する。   For example, the estimation function 135e refers to the result of the texture analysis performed on the extraction region by the analysis function 135c, and specifies the region corresponding to the texture parameter output from the learned model in the extraction region. The estimation function 135e estimates the specified area as a corrected area.

図5は、本実施形態に係る医用画像処理装置の運用時の処理の一例を説明するための図である。ここで、図5においては、頭部を対象にして収集されたMRI画像に含まれる脳白質から抽出された高輝度領域における修正後領域を推定する場合について示す。   FIG. 5 is a diagram for explaining an example of a process at the time of operation of the medical image processing apparatus according to the present embodiment. Here, FIG. 5 shows a case where a corrected region in a high-brightness region extracted from brain white matter included in an MRI image collected for the head is estimated.

例えば、画像処理機能135bは、図5の左端に示す原画像(頭部を対象にして収集されたMRI画像)を対象として画像処理アルゴリズムを適用することで、図5の左から2番目の画像に示すように、脳白質の高輝度領域を抽出する。解析機能135cは、高輝度領域におけるテクスチャ解析を実行する。   For example, the image processing function 135b applies the image processing algorithm to the original image (MRI image collected for the head) shown on the left end of FIG. 5 to obtain the second image from the left in FIG. As shown in (1), a high brightness region of the brain white matter is extracted. The analysis function 135c performs a texture analysis in the high luminance area.

推定機能135eは、高輝度領域の輝度値を学習済みモデルに入力させることで、テクスチャパラメータの値を取得する。さらに、推定機能135eは、解析機能135cが高輝度領域に対して実行したテクスチャ解析の結果を参照して、高輝度領域において、学習済みモデルから出力されたテクスチャパラメータに対応する領域(修正後領域)を特定する。   The estimation function 135e acquires the value of the texture parameter by inputting the luminance value of the high luminance area into the learned model. Further, the estimation function 135e refers to the result of the texture analysis performed on the high-luminance area by the analysis function 135c, and in the high-luminance area, the area corresponding to the texture parameter output from the learned model (the corrected area). ).

制御機能135aは、推定機能135eによって推定された修正後領域を医用画像に反映させた表示画像(図5の右端の画像)をディスプレイ134に表示させる。ここで、制御機能135aは、画像処理機能135bによって抽出された抽出領域と、推定機能135eによって推定された修正後領域とを識別可能に表示させることができる。例えば、制御機能135aは、抽出領域と修正後領域とを異なる色で示すことで、識別可能に表示させることができる。   The control function 135a causes the display 134 to display a display image (the image on the right end in FIG. 5) in which the corrected area estimated by the estimation function 135e is reflected on the medical image. Here, the control function 135a can display the extraction area extracted by the image processing function 135b and the corrected area estimated by the estimation function 135e in a distinguishable manner. For example, the control function 135a can display the extracted area and the corrected area in different colors so as to be identifiable.

ここで、医用画像処理装置130では、推定機能135eによって推定された修正後領域に対してさらに修正を加え、その結果を学習済みモデルに反映させることもできる。例えば、操作者は、ディスプレイ134に表示された表示画像を参照して、修正後領域について再修正を行うか否かを判断する。そして、再修正を行う場合、操作者は、入力インターフェース133を介して、修正後領域を修正する。   Here, in the medical image processing apparatus 130, the corrected area estimated by the estimation function 135e can be further modified, and the result can be reflected in the learned model. For example, the operator refers to the display image displayed on the display 134 and determines whether or not to re-correct the corrected area. Then, when performing the re-correction, the operator corrects the post-correction area via the input interface 133.

解析機能135cは、操作者によって修正された修正領域と、修正後領域との差分領域に対してテクスチャ解析を実行する。そして、学習機能135dは、テクスチャ解析の結果を用いて、学習済みモデルを新たに生成して、記憶回路132に格納済みの学習済みモデルと置き換える。   The analysis function 135c performs a texture analysis on a difference area between the correction area corrected by the operator and the corrected area. Then, the learning function 135d newly generates a learned model using the result of the texture analysis, and replaces the generated model with the learned model stored in the storage circuit 132.

以上、医用画像処理装置130の処理回路135が有する各処理機能について説明した。ここで、前述したように、処理回路135がプロセッサによって実現される場合には、処理回路135が有する各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路132に記憶されている。そして、処理回路135は、記憶回路132から各プログラムを読み出して実行することで、各プログラムに対応する機能を実現する。換言すると、各プログラムを読み出した状態の処理回路135は、図1の処理回路135に示された各機能を有することとなる。なお、図1では、単一のプロセッサによって各処理機能が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、処理回路135が有する処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。また、図1に示す例では、単一の記憶回路132が各処理機能に対応するプログラムを記憶するものとして説明したが、複数の記憶回路を分散して配置して、処理回路が個別の記憶回路から対応するプログラムを読み出す構成としても構わない。   The processing functions of the processing circuit 135 of the medical image processing apparatus 130 have been described above. Here, as described above, when the processing circuit 135 is realized by a processor, each processing function of the processing circuit 135 is stored in the storage circuit 132 in the form of a program executable by a computer. Then, the processing circuit 135 reads out each program from the storage circuit 132 and executes it to realize a function corresponding to each program. In other words, the processing circuit 135 in a state where each program is read has each function shown in the processing circuit 135 in FIG. Although FIG. 1 illustrates that each processing function is realized by a single processor, a plurality of independent processors are combined to form a processing circuit, and each processor executes a program to realize a function. It does not matter. Further, the processing functions of the processing circuit 135 may be implemented by being appropriately distributed or integrated in a single or a plurality of processing circuits. Further, in the example shown in FIG. 1, a single storage circuit 132 has been described as storing a program corresponding to each processing function. However, a plurality of storage circuits are arranged in a distributed manner, and the processing circuits are individually stored. A configuration in which a corresponding program is read from a circuit may be employed.

次に、医用画像処理装置130による処理の手順を説明する。図6は、本実施形態に係る医用画像処理装置130による学習時の処理の手順を示すフローチャートである。ここで、図6におけるステップS101、ステップS103は、処理回路135が記憶回路132から制御機能135aに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図6におけるステップS102は、処理回路135が記憶回路132から画像処理機能135bに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図6におけるステップS104、ステップS105は、処理回路135が記憶回路132から解析機能135cに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図6におけるステップS106、ステップS107は、処理回路135が記憶回路132から学習機能135dに対応するプログラムを呼び出して実行することにより、実現されるステップである。   Next, a procedure of processing by the medical image processing apparatus 130 will be described. FIG. 6 is a flowchart illustrating a procedure of processing at the time of learning by the medical image processing apparatus 130 according to the present embodiment. Here, steps S101 and S103 in FIG. 6 are realized by the processing circuit 135 calling and executing a program corresponding to the control function 135a from the storage circuit 132. Step S102 in FIG. 6 is a step realized by the processing circuit 135 calling and executing a program corresponding to the image processing function 135b from the storage circuit 132. Steps S104 and S105 in FIG. 6 are realized by the processing circuit 135 calling and executing a program corresponding to the analysis function 135c from the storage circuit 132. Steps S106 and S107 in FIG. 6 are realized by the processing circuit 135 calling and executing a program corresponding to the learning function 135d from the storage circuit 132.

図6に示すように、医用画像処理装置130においては、処理回路135が、まず、画像処理が開始されたか否かを判定する(ステップS101)。ここで、画像処理が開始されると(ステップS101、肯定)、処理回路135は、指定された原画像に対して画像処理を実行して(ステップS102)、処理結果を表示する(ステップS103)。なお、画像処理が開始されるまで、処理回路135は待機状態である(ステップS101、否定)。   As shown in FIG. 6, in the medical image processing apparatus 130, the processing circuit 135 first determines whether image processing has been started (step S101). Here, when the image processing is started (Yes at Step S101), the processing circuit 135 executes the image processing on the designated original image (Step S102), and displays the processing result (Step S103). . Note that the processing circuit 135 is in a standby state until the image processing is started (No at Step S101).

そして、処理回路135は、処理結果に対して修正を受け付けたか否かを判定する(ステップS104)。ここで、修正を受け付けていない場合(ステップS104、否定)、処理回路135は処理を終了する。一方、修正を受け付けた場合(ステップS104、肯定)、処理回路135は、修正された領域のテクスチャ解析を実行する(ステップS105)。   Then, the processing circuit 135 determines whether a correction has been received for the processing result (step S104). Here, when the correction has not been received (No at Step S104), the processing circuit 135 ends the processing. On the other hand, when the correction has been received (Yes at Step S104), the processing circuit 135 performs the texture analysis of the corrected area (Step S105).

その後、処理回路135は、解析結果を用いて修正に関する学習済みモデルを作成して(ステップS106)、作成した学習済みモデルを記憶回路132に格納する(ステップS107)。   Thereafter, the processing circuit 135 creates a learned model for correction using the analysis result (step S106), and stores the created learned model in the storage circuit 132 (step S107).

図7は、本実施形態に係る医用画像処理装置130による運用時の処理の手順を示すフローチャートである。ここで、図7におけるステップS201、ステップS204は、処理回路135が記憶回路132から制御機能135aに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図7におけるステップS202は、処理回路135が記憶回路132から画像処理機能135bに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図7におけるステップS203は、処理回路135が記憶回路132から推定機能135e及び解析機能135cに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図7におけるステップS205、ステップS206は、処理回路135が記憶回路132から解析機能135cに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図7におけるステップS207は、処理回路135が記憶回路132から学習機能135dに対応するプログラムを呼び出して実行することにより、実現されるステップである。   FIG. 7 is a flowchart illustrating a procedure of processing during operation by the medical image processing apparatus 130 according to the present embodiment. Here, steps S201 and S204 in FIG. 7 are realized by the processing circuit 135 calling and executing a program corresponding to the control function 135a from the storage circuit 132. Step S202 in FIG. 7 is realized by the processing circuit 135 calling and executing a program corresponding to the image processing function 135b from the storage circuit 132. Step S203 in FIG. 7 is a step realized by the processing circuit 135 calling and executing a program corresponding to the estimation function 135e and the analysis function 135c from the storage circuit 132. Steps S205 and S206 in FIG. 7 are realized by the processing circuit 135 calling and executing a program corresponding to the analysis function 135c from the storage circuit 132. Step S207 in FIG. 7 is a step realized by the processing circuit 135 calling and executing a program corresponding to the learning function 135d from the storage circuit 132.

図7に示すように、医用画像処理装置130においては、処理回路135が、まず、画像処理が開始されたか否かを判定する(ステップS201)。ここで、画像処理が開始されると(ステップS201、肯定)、処理回路135は、指定された原画像に対して画像処理を実行する(ステップS202)。なお、画像処理が開始されるまで、処理回路135は待機状態である(ステップS201、否定)。   As shown in FIG. 7, in the medical image processing apparatus 130, the processing circuit 135 first determines whether image processing has been started (step S201). Here, when the image processing is started (Yes at Step S201), the processing circuit 135 executes the image processing on the designated original image (Step S202). Note that the processing circuit 135 is in a standby state until the image processing is started (No at Step S201).

そして、処理回路135は、画像処理の結果を学習済みモデルに入力して(ステップS203)、学習済みモデルの出力結果に基づく表示画像を表示させる(ステップS204)。その後、処理回路135は、表示画像に対して修正を受け付けたか否かを判定する(ステップS205)。   Then, the processing circuit 135 inputs the result of the image processing to the learned model (step S203), and displays a display image based on the output result of the learned model (step S204). Thereafter, the processing circuit 135 determines whether a correction has been received for the display image (step S205).

ここで、修正を受け付けていない場合(ステップS205、否定)、処理回路135は処理を終了する。一方、修正を受け付けた場合(ステップS205、肯定)、処理回路135は、修正された領域のテクスチャ解析を実行する(ステップS206)。その後、処理回路135は、学習済みモデルを更新するステップS107)。   Here, when the correction has not been received (No at Step S205), the processing circuit 135 ends the processing. On the other hand, when the correction has been received (Yes at Step S205), the processing circuit 135 executes the texture analysis of the corrected area (Step S206). Thereafter, the processing circuit 135 updates the learned model (step S107).

上述したように、本実施形態によれば、制御機能135a及び画像処理機能135bは、画像処理によって抽出された医用画像内の抽出領域と、抽出領域に対して操作者(修正者)が修正を施した修正領域とを取得する。記憶回路132は、抽出領域と修正領域との差分と、抽出領域との関係を学習することにより得られた学習済みモデルであって、画像処理によって医用画像内から抽出される抽出領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルを記憶する。推定機能135eは、画像処理によって医用画像内から抽出された抽出領域を学習済みモデルに入力させることで、修正後領域を推定するように制御する。したがって、本実施形態に係る医用画像処理装置130は、画像処理アプリケーションによる処理結果を、修正者の修正傾向に沿って自動で修正することでき、画像処理アプリケーションを用いたワークフローの効率を向上させることを可能にする。例えば、医用画像処理装置130は、画像処理アプリケーションの最適化が、ユーザが期待する最適化とは異なるものであったとしても、画像処理アプリケーションの出力をユーザが期待する内容に自動で修正することができ、画像処理アプリケーションを用いたワークフローの効率を向上させることを可能にする。また、例えば、医用画像処理装置130は、ユーザが画像処理アプリケーションに入力した医用画像が、画像処理アプリケーションの開発時に用いられた典型的な画像とは大きくかけ離れた画像であっても、画像処理アプリケーションの出力をユーザが期待する内容に自動で修正することができ、画像処理アプリケーションを用いたワークフローの効率を向上させることを可能にする。さらに、本実施形態に係る医用画像処理装置130は、画像処理アルゴリズムによる過大検出を抑止することを可能にする。   As described above, according to the present embodiment, the control function 135a and the image processing function 135b allow the operator (corrector) to correct the extraction region in the medical image extracted by the image processing and the extraction region. Acquire the corrected area that has been applied. The storage circuit 132 is a learned model obtained by learning the relationship between the difference between the extraction region and the correction region and the extraction region, and stores a learned model extracted from a medical image by image processing. A learned model that is provided with a function of estimating the corrected area after the correction is stored. The estimating function 135e controls to estimate the corrected area by inputting the extracted area extracted from the medical image by the image processing into the learned model. Therefore, the medical image processing apparatus 130 according to the present embodiment can automatically correct the processing result of the image processing application according to the correction tendency of the corrector, and improve the efficiency of the workflow using the image processing application. Enable. For example, the medical image processing apparatus 130 may automatically correct the output of the image processing application to the content expected by the user even if the optimization of the image processing application is different from the optimization expected by the user. And improve the efficiency of the workflow using the image processing application. Further, for example, the medical image processing apparatus 130 may perform image processing even if the medical image input by the user to the image processing application is an image that is significantly different from a typical image used when developing the image processing application. Can be automatically corrected to the content expected by the user, and the efficiency of the workflow using the image processing application can be improved. Further, the medical image processing apparatus 130 according to the present embodiment makes it possible to suppress excessive detection by an image processing algorithm.

また、本実施形態によれば、記憶回路132は、抽出領域と修正領域との差分領域に対する画像解析の結果と、抽出領域との関係を学習することで得られた学習済みモデルを記憶する。推定機能135eは、画像処理によって医用画像内から抽出された抽出領域の画像解析の結果を学習済みモデルに入力させることで、当該抽出領域において修正が施される領域を推定するように制御する。したがって、本実施形態に係る医用画像処理装置130は、適切な修正を容易に行うことを可能にする。   Further, according to the present embodiment, the storage circuit 132 stores a learned model obtained by learning the relationship between the result of image analysis on the difference region between the extraction region and the correction region and the extraction region. The estimation function 135e controls the estimation of the area to be corrected in the extraction area by inputting the result of the image analysis of the extraction area extracted from the medical image by the image processing into the learned model. Therefore, the medical image processing apparatus 130 according to the present embodiment can easily perform appropriate correction.

また、本実施形態によれば、画像解析は、テクスチャ解析である。したがって、本実施形態に係る医用画像処理装置130は、種々の画像特徴量を用いて学習済みモデルを生成することができ、修正者の修正傾向をより正確に反映させた修正を自動で行うことを可能にする。   Further, according to the present embodiment, the image analysis is a texture analysis. Therefore, the medical image processing apparatus 130 according to the present embodiment can generate a trained model using various image feature amounts, and automatically performs a correction that more accurately reflects the correction tendency of the corrector. Enable.

また、本実施形態によれば、記憶回路132は、画像処理によって医用画像内から抽出される抽出領域に対して修正を施した修正者ごとの学習済みモデルを記憶する。推定機能135eは、医用画像内から抽出された抽出領域を修正者ごとの学習済みモデルに対して入力させることで、修正者ごとの修正後領域を推定するように制御する。したがって、本実施形態に係る医用画像処理装置130は、修正者ごとに、修正傾向に沿った修正を自動で行うことができ、複数の修正者によって修正された場合でもワークフローの効率を向上させることを可能にする。   Further, according to the present embodiment, the storage circuit 132 stores a learned model for each corrector who has made a correction to an extraction region extracted from a medical image by image processing. The estimating function 135e performs control so as to estimate an after-correction area for each corrector by inputting an extraction area extracted from the medical image to a learned model for each corrector. Therefore, the medical image processing apparatus 130 according to the present embodiment can automatically perform the correction according to the correction tendency for each corrector, and improve the efficiency of the workflow even when the correction is performed by a plurality of correctors. Enable.

また、本実施形態によれば、学習機能135dは、学習済みモデルを生成する。したがって、本実施形態に係る医用画像処理装置130は、スタンドアローンでの処理を行うことを可能にする。   Further, according to the present embodiment, the learning function 135d generates a learned model. Therefore, the medical image processing apparatus 130 according to the present embodiment can perform stand-alone processing.

また、本実施形態によれば、制御機能135aは、医用画像において、画像処理によって抽出された医用画像内の抽出領域と、修正後領域とを識別可能に表示させるように制御する。したがって、本実施形態に係る医用画像処理装置130は、自動で行った修正後の結果とともに修正前の結果を操作者に提示することを可能にする。   Further, according to the present embodiment, the control function 135a controls the medical image so that the extracted area and the corrected area in the medical image extracted by the image processing are displayed in a distinguishable manner. Therefore, the medical image processing apparatus 130 according to the present embodiment can present the result before the correction together with the result after the correction performed automatically to the operator.

(他の実施形態)
なお、上述した実施形態は、医用画像処理装置130が有する構成又は機能の一部を変更することで、適宜に変形して実施することも可能である。そこで、以下では、上述した実施形態に係るいくつかの変形例を他の実施形態として説明する。なお、以下では、上述した実施形態と異なる点を主に説明することとし、既に説明した内容と共通する点については詳細な説明を省略する。また、以下で説明する各実施形態は、個別に実施されてもよいし、適宜に組み合わせて実施されてもよい。
(Other embodiments)
The above-described embodiment can be appropriately modified and implemented by partially changing the configuration or function of the medical image processing apparatus 130. Therefore, hereinafter, some modified examples according to the above-described embodiment will be described as other embodiments. In the following, points different from the above-described embodiment will be mainly described, and detailed description of points common to the already described contents will be omitted. Further, each embodiment described below may be implemented individually or may be implemented in combination as appropriate.

(他の実施形態−1)
例えば、上述した実施形態では、修正者ごとに修正後領域を表示する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、複数の修正者に対応する学習済みモデルを用いて、複数の修正後領域を1つの医用画像内に表示させる場合でもよい。
(Other Embodiment-1)
For example, in the above-described embodiment, the case where the post-correction area is displayed for each corrector has been described. However, the embodiment is not limited to this. For example, a case may be used in which a plurality of corrected regions are displayed in one medical image using a learned model corresponding to a plurality of correctors.

かかる場合には、例えば、推定機能135eは、画像処理機能135bによって抽出された抽出領域の情報を、複数の学習済みモデルにそれぞれ入力させて、各出力結果に基づいて、複数の修正後領域をそれぞれ推定する。制御機能135aは、推定された複数の修正後領域を1つの医用画像上で表示させる。ここで、制御機能135aは、修正者ごとの修正後領域を識別可能に表示させるように制御する。これにより、医用画像処理装置130は、複数の修正後領域の中から、最適な修正結果を操作者に選択させることを可能にする。   In such a case, for example, the estimation function 135e causes the information of the extraction region extracted by the image processing function 135b to be input to each of the plurality of learned models, and to generate the plurality of corrected regions based on the output results. Estimate each. The control function 135a displays the estimated plurality of post-correction areas on one medical image. Here, the control function 135a controls so that the post-correction area for each corrector is identifiably displayed. Accordingly, the medical image processing apparatus 130 allows the operator to select an optimum correction result from the plurality of post-correction areas.

(他の実施形態−2)
また、例えば、上述した実施形態では、修正者ごとの学習済みモデルを生成して記憶する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、複数の修正者により修正結果を統合した学習済みモデルを生成する場合でもよい。
(Other Embodiment-2)
Further, for example, in the above-described embodiment, a case has been described in which a learned model for each corrector is generated and stored. However, the embodiment is not limited to this, and, for example, a case where a learned model in which correction results are integrated by a plurality of correctors may be generated.

かかる場合には、例えば、記憶回路132は、画像処理によって医用画像内から抽出される抽出領域に対して複数の修正者によって実施された修正結果に対応する複数の画像解析の結果を統合した結果と、抽出領域との関係を学習することで得られた学習済みモデルを記憶する。推定機能135eは、画像処理によって医用画像内から抽出された抽出領域の画像解析の結果を学習済みモデルに入力させることで、当該抽出領域において修正が施される領域を推定するように制御する。   In such a case, for example, the storage circuit 132 integrates a plurality of image analysis results corresponding to correction results performed by a plurality of correctors on an extraction region extracted from a medical image by image processing. And a learned model obtained by learning the relationship between the model and the extraction region. The estimation function 135e controls the estimation of the area to be corrected in the extraction area by inputting the result of the image analysis of the extraction area extracted from the medical image by the image processing into the learned model.

図8は、本実施形態に係る学習済みモデルの生成に用いられるテクスチャパラメータを模式的に示す図である。なお、図8では、差分領域ごとに3つのテクスチャパラメータを算出した場合を例に示す。また、図8では、2人の修正者による修正結果から得られた差分領域ごとのテクスチャパラメータをそれぞれ黒丸と黒三角で示す。本実施形態に係る学習済みモデルの生成に用いられるテクスチャパラメータは、例えば、図8に示すように、差分領域ごとに、第1のパラメータ(横方向の軸の値)、第2のパラメータ(縦方向の軸の値)、及び、第3のパラメータ(奥行方向の軸の値)の3次元の情報を有する。   FIG. 8 is a diagram schematically illustrating texture parameters used for generating a learned model according to the present embodiment. FIG. 8 shows an example in which three texture parameters are calculated for each difference area. In FIG. 8, texture parameters for each difference area obtained from the correction results by the two correctors are indicated by solid circles and solid triangles, respectively. The texture parameters used for generating the learned model according to the present embodiment are, for example, as shown in FIG. 8, a first parameter (a value of a horizontal axis) and a second parameter (a vertical axis) for each difference area. Direction value), and three-dimensional information of a third parameter (depth direction axis value).

学習機能135dは、多数の医用画像(脳のMRI画像)から取得された、2人の修正者の結果において、テクスチャパラメータの情報が類似するもののみを用いて学習済みモデルを生成する。例えば、学習機能135dは、図8における領域R2に含まれるテクスチャパラメータと、各テクスチャパラメータに対応する抽出領域とを用いて学習済みモデルを生成して、記憶回路132に格納する。これにより、本実施形態に係る医用画像処理装置130は、より精度の高い修正を自動で行うことを可能にする。   The learning function 135d generates a trained model using only the texture parameter information that is similar among the results of two correctors acquired from a large number of medical images (MRI images of the brain). For example, the learning function 135d generates a learned model using the texture parameters included in the region R2 in FIG. 8 and the extraction region corresponding to each texture parameter, and stores the generated model in the storage circuit 132. Thus, the medical image processing apparatus 130 according to the present embodiment can automatically perform a more accurate correction.

(他の実施形態−3)
また、上述した実施形態では、医用画像処理システム100が設置された病院や医院等の医療機関ごとに学習済みモデルを生成して、使用する場合の例を説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、生成した医療機関とは異なる医療機関において、生成された学習済みモデルが使用される場合でもよい。
(Other embodiment-3)
In the above-described embodiment, an example has been described in which a learned model is generated and used for each medical institution such as a hospital or clinic where the medical image processing system 100 is installed. However, the embodiment is not limited to this. For example, a case where the generated learned model is used in a medical institution different from the generated medical institution may be used.

かかる場合には、医用画像処理装置130は、ネットワーク200を介して他の医療機関と接続され、他の医療機関において生成された学習済みモデル(修正者ごとの学習済みモデル及び複数の修正者の修正結果を統合した学習済みモデル)を取得して、取得した学習済みモデルを用いて修正後領域を推定する。   In such a case, the medical image processing apparatus 130 is connected to another medical institution via the network 200, and the learned model (trained model for each corrector and a plurality of correctors) generated at the other medical institution. A corrected model is acquired, and a corrected area is estimated using the acquired learned model.

また、上述した実施形態では、医用画像処理システム100が設置された病院や医院等の医療機関ごとに学習済みモデルを生成する場合の例を説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、複数の医療機関や、複数の国の学習用データを集約した総合的な学習済みモデルが生成されてもよい。   In the above-described embodiment, an example has been described in which a learned model is generated for each medical institution such as a hospital or a clinic in which the medical image processing system 100 is installed. However, the embodiment is not limited to this. For example, a comprehensive trained model in which learning data of a plurality of medical institutions and a plurality of countries are aggregated may be generated.

(他の実施形態−4)
また、上述した実施形態では、医用画像処理装置130が、病院や医院等の医療機関に設置される場合の例を説明したが、実施形態はこれに限られない。例えば、医用画像処理装置130は、医療機関とは別の場所に設置され、ネットワーク200を介して、1つ又は複数の医療機関に設置された医用画像診断装置110と通信可能に接続されていてもよい。
(Other Embodiment-4)
Further, in the above-described embodiment, an example in which the medical image processing apparatus 130 is installed in a medical institution such as a hospital or a clinic has been described, but the embodiment is not limited to this. For example, the medical image processing apparatus 130 is installed at a location different from the medical institution, and is communicably connected to the medical image diagnostic apparatuses 110 installed at one or more medical institutions via the network 200. Is also good.

この場合には、例えば、医用画像処理装置130が、ネットワーク200を介して、各医用機関に設置された医用画像診断装置110から医用画像を収集して、学習済みモデルを生成又は更新する。そして、医用画像処理装置130は、ネットワーク200を介して、各医用機関に設置された端末装置120から領域抽出の画像処理要求を受信し、当該要求を送信した端末装置120に対して、推定した修正後領域を送信する。   In this case, for example, the medical image processing apparatus 130 collects medical images from the medical image diagnostic apparatuses 110 installed in each medical institution via the network 200, and generates or updates a learned model. Then, the medical image processing apparatus 130 receives an image processing request for area extraction from the terminal apparatus 120 installed in each medical institution via the network 200, and estimates the image processing request to the terminal apparatus 120 that transmitted the request. Send the modified area.

この場合に、例えば、医用画像処理システム100は、端末装置120をクライアントとし、医用画像処理装置130をサーバとしたクライアントサーバシステムとして実現される。より具体的には、例えば、医用画像処理システム100は、インターネット等を介して、端末装置120と医用画像処理装置130とを接続したクラウドシステムとして実現される。   In this case, for example, the medical image processing system 100 is realized as a client-server system in which the terminal device 120 is a client and the medical image processing device 130 is a server. More specifically, for example, the medical image processing system 100 is realized as a cloud system in which the terminal device 120 and the medical image processing device 130 are connected via the Internet or the like.

(他の実施形態−5)
また、上述した実施形態では、医用画像処理装置130が、学習時の処理及び運用時の処理の両方を行う場合の例を説明したが、実施形態はこれに限られない。例えば、医用画像処理装置130が有する機能のうち、学習済みモデルを生成する機能が、医療機関とは別の場所に設置されてネットワーク200を介して接続された他の装置(以下、モデル生成装置と呼ぶ)に実装されていてもよい。
(Other Embodiment-5)
Further, in the above-described embodiment, an example in which the medical image processing apparatus 130 performs both the processing at the time of learning and the processing at the time of operation has been described, but the embodiment is not limited to this. For example, among the functions of the medical image processing apparatus 130, a function of generating a learned model is provided by another apparatus (hereinafter referred to as a model generation apparatus) that is installed at a location different from the medical institution and is connected via the network 200. ).

この場合には、例えば、モデル生成装置が、定期的に、ネットワーク200を介して、各医用機関に設置された医用画像診断装置110から医用画像を収集して、学習済みモデルを生成又は更新する。そして、医用画像処理装置130が、モデル生成装置から最新の学習済みモデルを取得して、推定処理を実行する。   In this case, for example, the model generation apparatus periodically collects medical images from the medical image diagnostic apparatuses 110 installed in each medical institution via the network 200, and generates or updates a learned model. . Then, the medical image processing apparatus 130 acquires the latest learned model from the model generation apparatus and executes the estimation processing.

この場合に、例えば、医用画像処理システム100は、医用画像処理装置130をクライアントとし、モデル生成装置をサーバとしたクライアントサーバシステムとして実現される。より具体的には、例えば、医用画像処理システム100は、インターネット等を介して、モデル生成装置と医用画像処理装置130とを接続したクラウドシステムとして実現される。この場合に、例えば、医用画像処理システム100は、クライアントである医用画像処理装置130には必要最小限の処理を実行させ、サーバであるモデル生成装置に大部分の処理を実行させるシンクライアント(Thin Client)の形態で実現される。   In this case, for example, the medical image processing system 100 is realized as a client-server system in which the medical image processing apparatus 130 is a client and the model generation apparatus is a server. More specifically, for example, the medical image processing system 100 is realized as a cloud system in which the model generation device and the medical image processing device 130 are connected via the Internet or the like. In this case, for example, the medical image processing system 100 causes the medical image processing apparatus 130, which is a client, to execute the minimum necessary processing, and causes the model generation apparatus, which is a server, to execute most of the processing. Client).

(他の実施形態−6)
また、上述した各実施形態では、本明細書における表示制御部、取得部、学習部、及び推定部を、それぞれ、処理回路145の制御機能135a、制御機能135a及び画像処理機能135b、学習機能135d、及び推定機能135eによって実現する場合の例を説明したが、実施形態はこれに限られない。例えば、本明細書における表示制御部、取得部、学習部、及び推定部は、実施形態で述べた制御機能135a、制御機能135a及び画像処理機能135b、学習機能135d、及び推定機能135eによって実現する他にも、ハードウェアのみ、又は、ハードウェアとソフトウェアとの混合によって同機能を実現するものであっても構わない。
(Other Embodiment-6)
Further, in each of the above-described embodiments, the display control unit, the acquisition unit, the learning unit, and the estimation unit in this specification correspond to the control function 135a, the control function 135a, the image processing function 135b, and the learning function 135d of the processing circuit 145, respectively. , And an example of the case of realization by the estimation function 135e, but the embodiment is not limited thereto. For example, the display control unit, the acquisition unit, the learning unit, and the estimation unit in this specification are realized by the control function 135a, the control function 135a, the image processing function 135b, the learning function 135d, and the estimation function 135e described in the embodiment. In addition, the same function may be realized only by hardware or a mixture of hardware and software.

なお、上述した説明で用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは、記憶回路132に保存されたプログラムを読み出して実行することで、機能を実現する。なお、記憶回路132にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合は、プロセッサは回路内に組み込まれたプログラムを読み出して実行することで機能を実現する。また、本実施形態のプロセッサは、単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて一つのプロセッサとして構成され、その機能を実現するようにしてもよい。   The term “processor” used in the above description may be, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), or a programmable logic device. (For example, a circuit such as a Simple Programmable Logic Device (SPLD), a Complex Programmable Logic Device (CPLD), and a Field Programmable Gate Array (FPGA)). The processor realizes a function by reading and executing the program stored in the storage circuit 132. Instead of storing the program in the storage circuit 132, the program may be directly incorporated in the circuit of the processor. In this case, the processor realizes a function by reading and executing a program incorporated in the circuit. Further, the processor according to the present embodiment is not limited to being configured as a single circuit, but may be configured as a single processor by combining a plurality of independent circuits to realize its function.

ここで、プロセッサによって実行されるプログラム(医用画像処理プログラム)は、ROM(Read Only Memory)や記憶回路等に予め組み込まれて提供される。なお、このプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD(Compact Disk)−ROM、FD(Flexible Disk)、CD−R(Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶媒体に記録されて提供されてもよい。また、このプログラムは、インターネット等のネットワークに接続されたコンピュータ上に保存され、ネットワーク経由でダウンロードされることにより提供又は配布されてもよい。例えば、このプログラムは、上述した各機能部を含むモジュールで構成される。実際のハードウェアとしては、CPUが、ROM等の記憶媒体からプログラムを読み出して実行することにより、各モジュールが主記憶装置上にロードされて、主記憶装置上に生成される。   Here, the program (medical image processing program) executed by the processor is provided by being incorporated in a ROM (Read Only Memory) or a storage circuit in advance. This program is a file in a format that can be installed or executed in these devices, such as a CD (Compact Disk) -ROM, an FD (Flexible Disk), a CD-R (Recordable), and a DVD (Digital Versatile Disk). May be provided by being recorded on a computer-readable storage medium. The program may be stored on a computer connected to a network such as the Internet, and provided or distributed by being downloaded via the network. For example, this program is configured by modules including the above-described functional units. As actual hardware, the CPU reads a program from a storage medium such as a ROM and executes the program, whereby each module is loaded on the main storage device and generated on the main storage device.

以上説明した少なくとも1つの実施形態によれば、画像処理アプリケーションを用いたワークフローの効率を向上させることができる。   According to at least one embodiment described above, the efficiency of a workflow using an image processing application can be improved.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in other various forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and their equivalents.

100 医用画像処理システム
130 医用画像処理装置
132 記憶回路
135 処理回路
135a 制御機能
135b 画像処理機能
135c 解析機能
135d 学習機能
135e 推定機能
REFERENCE SIGNS LIST 100 medical image processing system 130 medical image processing device 132 storage circuit 135 processing circuit 135 a control function 135 b image processing function 135 c analysis function 135 d learning function 135 e estimation function

Claims (9)

画像処理によって抽出された医用画像内の抽出領域と、前記抽出領域に対して修正者が修正を施した修正領域とを取得する取得部と、
前記抽出領域と前記修正領域との差分と、前記抽出領域との関係を学習することにより得られた学習済みモデルであって、前記画像処理によって医用画像内から抽出される抽出領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルを記憶する記憶部と、
前記画像処理によって医用画像内から抽出された抽出領域を前記学習済みモデルに入力させることで、修正後領域を推定するように制御する推定部と、
を備える、医用画像処理装置。
An extraction unit for acquiring an extraction region in the medical image extracted by the image processing, and a correction region in which a corrector has corrected the extraction region;
A learned model obtained by learning the relationship between the difference between the extracted region and the modified region and the extracted region, wherein the extracted region is modified from the medical image by the image processing. A storage unit that stores a learned model that is functioned to estimate the corrected area after performing
By inputting the extracted region extracted from within the medical image by the image processing to the learned model, an estimating unit that controls to estimate the corrected region,
A medical image processing apparatus comprising:
前記記憶部は、前記抽出領域と前記修正領域との差分領域に対する画像解析の結果と、前記抽出領域との関係を学習することで得られた学習済みモデルを記憶し、
前記推定部は、前記画像処理によって医用画像内から抽出された抽出領域の画像解析の結果を前記学習済みモデルに入力させることで、当該抽出領域において修正が施される領域を推定するように制御する、請求項1に記載の医用画像処理装置。
The storage unit stores a result of image analysis on a difference region between the extraction region and the correction region, and a learned model obtained by learning a relationship between the extraction region and
The estimating unit is configured to input a result of image analysis of an extraction region extracted from within a medical image by the image processing to the learned model, thereby performing control to estimate a region to be corrected in the extraction region. The medical image processing apparatus according to claim 1, wherein:
前記記憶部は、前記画像処理によって医用画像内から抽出される抽出領域に対して修正を施した修正者ごとの学習済みモデルを記憶し、
前記推定部は、医用画像内から抽出された抽出領域を前記修正者ごとの学習済みモデルに対して入力させることで、前記修正者ごとの修正後領域を推定するように制御する、請求項1又は2に記載の医用画像処理装置。
The storage unit stores a learned model for each corrector that has made a correction to an extraction region extracted from within a medical image by the image processing,
The said estimation part controls so that the after-correction area | region for each said corrector may be estimated by inputting the extraction area | region extracted from the inside of the medical image with respect to the learned model for every said corrector. Or the medical image processing apparatus according to 2.
前記記憶部は、前記画像処理によって医用画像内から抽出される抽出領域に対して複数の修正者によって実施された修正結果に対応する複数の画像解析の結果を統合した結果と、前記抽出領域との関係を学習することで得られた学習済みモデルを記憶し、
前記推定部は、前記画像処理によって医用画像内から抽出された抽出領域の画像解析の結果を前記学習済みモデルに入力させることで、当該抽出領域において修正が施される領域を推定するように制御する、請求項2に記載の医用画像処理装置。
The storage unit integrates a plurality of image analysis results corresponding to correction results performed by a plurality of correctors on an extraction region extracted from within a medical image by the image processing, and the extraction region Memorized the learned model obtained by learning the relationship of
The estimating unit is configured to input a result of image analysis of an extraction region extracted from within a medical image by the image processing to the learned model, thereby performing control to estimate a region to be corrected in the extraction region. The medical image processing apparatus according to claim 2, which performs the processing.
前記学習済みモデルを生成する学習部を更に備える、請求項1〜4のいずれか1つに記載の医用画像処理装置。   The medical image processing apparatus according to claim 1, further comprising a learning unit configured to generate the learned model. 前記医用画像において、前記画像処理によって抽出された医用画像内の抽出領域と、前記修正後領域とを識別可能に表示させるように制御する表示制御部をさらに備える、請求項1〜5のいずれか1つに記載の医用画像処理装置。   The medical image according to any one of claims 1 to 5, further comprising: a display control unit configured to control to display an extraction area in the medical image extracted by the image processing and the corrected area in a distinguishable manner. The medical image processing device according to one of the above. 前記医用画像において、前記修正者ごとの修正後領域を識別可能に表示させるように制御する表示制御部をさらに備える、請求項3に記載の医用画像処理装置。   The medical image processing apparatus according to claim 3, further comprising a display control unit that controls the medical image so that the corrected area for each of the correctors is identifiably displayed. 画像処理によって抽出された医用画像内の抽出領域と、前記抽出領域に対して修正者が修正を施した修正領域とを取得する取得部と、
前記抽出領域と前記修正領域との差分と、前記抽出領域との関係を学習することにより得られた学習済みモデルであって、前記画像処理によって医用画像内から抽出される抽出領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルを記憶する記憶部と、
前記画像処理によって医用画像内から抽出された抽出領域を前記学習済みモデルに入力させることで、修正後領域を推定するように制御する推定部と、
を備える、医用画像処理システム。
An extraction unit for acquiring an extraction region in the medical image extracted by the image processing, and a correction region in which a corrector has corrected the extraction region;
A learned model obtained by learning the relationship between the difference between the extracted region and the modified region and the extracted region, wherein the extracted region is modified from the medical image by the image processing. A storage unit that stores a learned model that is functioned to estimate the corrected area after performing
By inputting the extracted region extracted from within the medical image by the image processing to the learned model, an estimating unit that controls to estimate the corrected region,
A medical image processing system comprising:
画像処理によって抽出された医用画像内の抽出領域と、前記抽出領域に対して修正者が修正を施した修正領域とを取得する取得機能と、
前記抽出領域と前記修正領域との差分と、前記抽出領域との関係を学習することにより得られた学習済みモデルであって、前記画像処理によって医用画像内から抽出される抽出領域に対して修正を施した後の修正後領域を推定するように機能付けられた学習済みモデルに対して、前記画像処理によって医用画像内から抽出された抽出領域を入力させることで、修正後領域を推定するように制御する推定機能と、
をコンピュータに実現させるための医用画像処理プログラム。
An acquisition function of acquiring an extraction area in the medical image extracted by the image processing, and a correction area in which a corrector has corrected the extraction area;
A learned model obtained by learning the relationship between the difference between the extracted region and the modified region and the extracted region, wherein the extracted region is modified from the medical image by the image processing. The modified region is estimated by inputting the extracted region extracted from the medical image by the image processing to the learned model that is provided with a function of estimating the modified region after performing the correction. Estimating function to control
Medical image processing program for causing a computer to realize.
JP2018160005A 2018-08-29 2018-08-29 Medical image processing equipment, medical image processing system and medical image processing program Active JP7086790B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018160005A JP7086790B2 (en) 2018-08-29 2018-08-29 Medical image processing equipment, medical image processing system and medical image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018160005A JP7086790B2 (en) 2018-08-29 2018-08-29 Medical image processing equipment, medical image processing system and medical image processing program

Publications (2)

Publication Number Publication Date
JP2020031810A true JP2020031810A (en) 2020-03-05
JP7086790B2 JP7086790B2 (en) 2022-06-20

Family

ID=69666077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018160005A Active JP7086790B2 (en) 2018-08-29 2018-08-29 Medical image processing equipment, medical image processing system and medical image processing program

Country Status (1)

Country Link
JP (1) JP7086790B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048587A (en) * 2002-07-15 2004-02-12 Mitsubishi Space Software Kk Computer-aided diagnosis method and apparatus
JP2005269214A (en) * 2004-03-18 2005-09-29 Mitsubishi Space Software Kk Image diagnosis support apparatus, image diagnosis support method, image diagnosis support program, and computer-readable recording medium recording the image diagnosis support program
JP2008173167A (en) * 2007-01-16 2008-07-31 Ziosoft Inc Area correction method
JP2008289916A (en) * 2000-06-30 2008-12-04 Hitachi Medical Corp Image diagnosis supporting device
JP2016007270A (en) * 2014-06-23 2016-01-18 東芝メディカルシステムズ株式会社 Medical image processor
US20160110632A1 (en) * 2014-10-20 2016-04-21 Siemens Aktiengesellschaft Voxel-level machine learning with or without cloud-based support in medical imaging
JP6200618B1 (en) * 2017-05-18 2017-09-20 Psp株式会社 Medical image diagnosis support system and apparatus, and program
JP2018516703A (en) * 2015-06-12 2018-06-28 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System and method for identifying cancer tissue

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008289916A (en) * 2000-06-30 2008-12-04 Hitachi Medical Corp Image diagnosis supporting device
JP2004048587A (en) * 2002-07-15 2004-02-12 Mitsubishi Space Software Kk Computer-aided diagnosis method and apparatus
JP2005269214A (en) * 2004-03-18 2005-09-29 Mitsubishi Space Software Kk Image diagnosis support apparatus, image diagnosis support method, image diagnosis support program, and computer-readable recording medium recording the image diagnosis support program
JP2008173167A (en) * 2007-01-16 2008-07-31 Ziosoft Inc Area correction method
JP2016007270A (en) * 2014-06-23 2016-01-18 東芝メディカルシステムズ株式会社 Medical image processor
US20160110632A1 (en) * 2014-10-20 2016-04-21 Siemens Aktiengesellschaft Voxel-level machine learning with or without cloud-based support in medical imaging
JP2018516703A (en) * 2015-06-12 2018-06-28 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System and method for identifying cancer tissue
JP6200618B1 (en) * 2017-05-18 2017-09-20 Psp株式会社 Medical image diagnosis support system and apparatus, and program

Also Published As

Publication number Publication date
JP7086790B2 (en) 2022-06-20

Similar Documents

Publication Publication Date Title
JP5355638B2 (en) Image processing apparatus and method, and program
US8949171B2 (en) Medical diagnostic supporting apparatus
US11900594B2 (en) Methods and systems for displaying a region of interest of a medical image
JP7187244B2 (en) Medical image processing device, medical image processing system and medical image processing program
US11200978B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
US9865059B2 (en) Medical image processing method and apparatus for determining plane of interest
JP7210175B2 (en) Medical information processing device, medical information processing system and medical information processing program
JP2022180466A (en) Diagnosis support device, learning device, diagnosis support method, learning method and program
US11488297B2 (en) Medical information processing apparatus and medical information processing system
KR20220160015A (en) Real-time detection and shading correction of hyperspectral retinal images
JP2014018251A (en) Ophthalmological photographing apparatus and ophthalmological photographing program
JP2022068043A (en) Medical image processing device and medical image processing system
JP2017012444A (en) Image processing device, image processing method and image processing program
JP7350595B2 (en) Image processing device, medical image diagnostic device, and image processing program
CN111580715A (en) Preference view generation on a structure level based on user preferences
JP7086790B2 (en) Medical image processing equipment, medical image processing system and medical image processing program
JP6146249B2 (en) Image display device and image display method
US12274579B2 (en) Radiation imaging system and storage medium
US20220028134A1 (en) Image processing apparatus, image processing method, and storage medium
JP7433901B2 (en) Learning device and learning method
JP6358244B2 (en) MEDICAL IMAGE PROCESSING DEVICE, MEDICAL IMAGE PROCESSING DEVICE CONTROL METHOD, AND PROGRAM
JP2021104193A (en) Image processing device, program and method
JP2023092327A (en) Information processing device and program
JP2006026396A (en) Image processing apparatus and method, control program, and storage medium
US20250349011A1 (en) Image generation apparatus, image generation method, training method, and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220608

R150 Certificate of patent or registration of utility model

Ref document number: 7086790

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150