JP2018000374A - Image processor and program - Google Patents
Image processor and program Download PDFInfo
- Publication number
- JP2018000374A JP2018000374A JP2016129031A JP2016129031A JP2018000374A JP 2018000374 A JP2018000374 A JP 2018000374A JP 2016129031 A JP2016129031 A JP 2016129031A JP 2016129031 A JP2016129031 A JP 2016129031A JP 2018000374 A JP2018000374 A JP 2018000374A
- Authority
- JP
- Japan
- Prior art keywords
- image
- disease
- processing apparatus
- images
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
【課題】読影者に関わらず読影精度を向上させることが可能な技術を提供する。【解決手段】画像処理装置は、3D画像I1、I2、およびI3の位置合せを行う位置合せ手段を有している。また、画像処理装置は、位置合せが行われた3D画像IM1、IM2、およびIM3ごとに、撮影部位IP内の部分Qに対応するボクセル値を求め、3D画像IM1、IM2、およびIM3ごとに求められた部分Qに対応するボクセル値S1、S2、およびS3に基づいて、撮影部位の疾患の種類を特定する特定手段を有している。【選択図】図5PROBLEM TO BE SOLVED: To provide a technique capable of improving image interpretation accuracy regardless of an image reader. An image processing apparatus has an alignment means for aligning 3D images I1, I2, and I3. Further, the image processing device obtains the voxel value corresponding to the part Q in the imaging site IP for each of the aligned 3D images IM1, IM2, and IM3, and obtains each of the 3D images IM1, IM2, and IM3. It has a specific means for identifying the type of disease at the imaging site based on the voxel values S1, S2, and S3 corresponding to the portion Q. [Selection diagram] Fig. 5
Description
本発明は、画像を処理する画像処理装置、およびこの画像処理装置に適用されるプログラムに関する。 The present invention relates to an image processing apparatus for processing an image and a program applied to the image processing apparatus.
CT/MR検査において高速撮像が可能になったことにより、多時相のダイナミックスキャン(dynamic scan)による検査が普及している(例えば、特許文献1参照)。 Due to the fact that high-speed imaging is possible in CT / MR inspection, inspection using multi-phase dynamic scan has become widespread (for example, see Patent Document 1).
多時相のダイナミックスキャンを実行することにより疾患の鑑別診断が可能になるという臨床上の利点がある。しかし、時相間の濃染の変化がわかりにくい場合もあり、読影者によっては異なる診断を行う可能性があるという問題がある。 There is a clinical advantage that differential diagnosis of a disease becomes possible by executing a multi-phase dynamic scan. However, there are cases in which the change in dark staining between time phases is difficult to understand, and there is a problem in that different diagnoses may make different diagnoses.
このような事情により、読影者に関わらず読影精度を向上させることが可能な技術が望まれている。 Under such circumstances, a technique capable of improving the interpretation accuracy regardless of the interpreter is desired.
本発明の第1の観点は、異なる時相において得られた撮影部位の複数の画像を処理する画像処理装置であって、
前記画像ごとに、前記撮影部位内の第1の部分に対応するボクセル値を求め、前記画像ごとに求められた前記第1の部分に対応するボクセル値に基づいて、前記撮影部位の前記第1の部分における疾患の種類を特定する特定手段を有する画像処理装置である。
A first aspect of the present invention is an image processing apparatus that processes a plurality of images of imaging regions obtained in different time phases,
For each image, a voxel value corresponding to a first portion in the imaging region is obtained, and the first of the imaging region is determined based on the voxel value corresponding to the first portion obtained for each image. It is an image processing apparatus which has the specific means which specifies the kind of the disease in this part.
本発明の第2の観点は、異なる時相において得られた撮影部位の複数の画像を処理する画像処理装置であって、
前記画像ごとに、前記撮影部位内の第1の部分に対応するピクセル値を求め、前記画像ごとに求められた前記第1の部分に対応するピクセル値に基づいて、前記撮影部位の前記第1の部分における疾患の種類を特定する特定手段を有する画像処理装置である。
A second aspect of the present invention is an image processing apparatus that processes a plurality of images of imaging regions obtained in different time phases,
For each image, a pixel value corresponding to a first portion in the imaging region is determined, and the first value of the imaging region is determined based on the pixel value corresponding to the first portion determined for each image. It is an image processing apparatus which has the specific means which specifies the kind of the disease in this part.
本発明の第3の観点は、異なる時相において得られた撮影部位の複数の画像を処理する画像処理装置に適用されるプログラムであって、
前記画像ごとに、前記撮影部位内の第1の部分に対応するボクセル値を求め、前記画像ごとに求められた前記第1の部分に対応するボクセル値に基づいて、前記撮影部位の前記第1の部分における疾患の種類を特定する特定処理をコンピュータに実行させるためのプログラムである。
A third aspect of the present invention is a program applied to an image processing apparatus that processes a plurality of images of imaging regions obtained in different time phases,
For each image, a voxel value corresponding to a first portion in the imaging region is obtained, and the first of the imaging region is determined based on the voxel value corresponding to the first portion obtained for each image. It is a program for making a computer perform the specific process which specifies the kind of disease in this part.
本発明の第4の観点は、異なる時相において得られた撮影部位の複数の画像を処理する画像処理装置に適用されるプログラムであって、
前記画像ごとに、前記撮影部位内の第1の部分に対応するピクセル値を求め、前記画像ごとに求められた前記第1の部分に対応するピクセル値に基づいて、前記撮影部位の前記第1の部分における疾患の種類を特定する特定処理をコンピュータに実行させるためのプログラムである。
A fourth aspect of the present invention is a program applied to an image processing apparatus that processes a plurality of images of imaging regions obtained at different time phases,
For each image, a pixel value corresponding to a first portion in the imaging region is determined, and the first value of the imaging region is determined based on the pixel value corresponding to the first portion determined for each image. It is a program for making a computer perform the specific process which specifies the kind of disease in this part.
異なる時相における複数の画像の各々に対して、撮影部位内の第1の部分に対応するボクセル値又はピクセル値を求め、画像ごとに求められた前記第1の部分に対応するボクセル値又はピクセル値に基づいて、前記撮影部位の前記第1の部分における疾患の種類を特定している。したがって、読影者に関わらず読影精度を向上させることが可能となる。 For each of a plurality of images in different time phases, a voxel value or pixel value corresponding to the first portion in the imaging region is obtained, and the voxel value or pixel corresponding to the first portion obtained for each image is obtained. Based on the value, the type of disease in the first portion of the imaging region is specified. Therefore, it is possible to improve the interpretation accuracy regardless of the interpreter.
以下、発明を実施するための形態について説明するが、本発明は、以下の形態に限定されることはない。 Hereinafter, although the form for inventing is demonstrated, this invention is not limited to the following forms.
(1)第1の形態
図1は、第1の形態に係る画像処理装置1のハードウェア(hardware)的な構成を概略的に示す図である。画像処理装置1は、例えば、コンピュータにより構成することができる。画像処理装置1は記憶部Mに接続されている。画像処理装置1は、コンピュータ読取り可能な記憶部Mに記憶されているプログラムを読み込んで各処理を実行することができる。記憶部Mには、コンピュータCは、ネットワーク(network)Nからプログラムをダウンロード(download)して実行することもできる。
(1) First Embodiment FIG. 1 is a diagram schematically showing a hardware configuration of an image processing apparatus 1 according to a first embodiment. The image processing apparatus 1 can be configured by a computer, for example. The image processing apparatus 1 is connected to the storage unit M. The image processing apparatus 1 can read a program stored in a computer-readable storage unit M and execute each process. In the storage unit M, the computer C can also download and execute a program from a network N.
図2は、画像処理装置1の機能ブロック(block)図を示す図である。図示の如く、画像処理装置1は、機能ブロックとして、前処理手段2と、位置合せ手段3と、ROI設定手段4と、特定手段5とを有する。本例では、コンピュータに所定のプログラムを実行させることにより、当該コンピュータをこれら各部として機能させる。 FIG. 2 is a functional block diagram of the image processing apparatus 1. As shown in the figure, the image processing apparatus 1 includes a preprocessing unit 2, an alignment unit 3, an ROI setting unit 4, and a specifying unit 5 as functional blocks. In this example, by causing a computer to execute a predetermined program, the computer is caused to function as these units.
前処理手段2は、画像処理装置1に読み込まれた画像に対して前処理を行う。前処理としては、平滑化処理などを行うことができる。
位置合せ手段3は、画像処理装置1に読み込まれた複数の画像の位置合せを行う。
ROI設定手段4は、関心領域(ROI)を設定する。ROI設定手段4は、ユーザ(例えば、読影医)により入力された情報に基づいてROIを設定することができる。また、ROI設定手段4は、ユーザによる入力情報を用いずに、セグメンテーション法などを用いてROIを設定することもできる。
特定手段5は、異なる時相における複数の画像に基づいて、撮影部位の疾患の種類を特定する。疾患の種類の特定方法については後で詳述する。
以下に、画像処理装置1を用いて疾患の鑑別診断を行う例について説明する。
The preprocessing unit 2 performs preprocessing on the image read into the image processing apparatus 1. As preprocessing, smoothing processing or the like can be performed.
The alignment unit 3 aligns a plurality of images read by the image processing apparatus 1.
The ROI setting unit 4 sets a region of interest (ROI). The ROI setting unit 4 can set an ROI based on information input by a user (for example, an interpreting doctor). Further, the ROI setting unit 4 can set the ROI using a segmentation method or the like without using input information by the user.
The specifying unit 5 specifies the type of disease at the imaging site based on a plurality of images at different time phases. A method for identifying the type of disease will be described in detail later.
Below, the example which performs the differential diagnosis of a disease using the image processing apparatus 1 is demonstrated.
図3は、第1の形態における診断方法を実行するためのフローを示す図である。
ステップST1では、画像処理装置1に、処理対象の複数の画像が入力される。本形態では、処理対象の複数の画像として、被検者を造影撮像することにより得られた異なる時相における複数の画像が入力されるとする。複数の画像は、例えば、ネットワークNを介して、画像処理装置1に入力される。図4に、画像処理装置1に入力された複数の画像を概略的に示す。図4では、画像処理装置1に、3D画像I1、I2、およびI3が入力された例が示されているが、3D画像の代わりに、2D画像でもよい。3D画像I1、I2、およびI3は、被検者の肝臓を含む撮影部位IPを造影撮影することにより得られた画像である。3D画像I1、I2、およびI3は、それぞれ、第1の時相P1、第2の時相P2、および第3の時相P3における3D画像を表している。ここでは、3D画像IM1、IM2、およびIM3は、グレースケールの画像であるとする。3D画像I1、I2、およびI3を入力した後、ステップST2に進む。
FIG. 3 is a diagram illustrating a flow for executing the diagnosis method according to the first embodiment.
In step ST1, a plurality of images to be processed are input to the image processing apparatus 1. In this embodiment, it is assumed that a plurality of images in different time phases obtained by contrast imaging of a subject are input as a plurality of images to be processed. A plurality of images are input to the image processing apparatus 1 via the network N, for example. FIG. 4 schematically shows a plurality of images input to the image processing apparatus 1. FIG. 4 shows an example in which 3D images I1, I2, and I3 are input to the image processing apparatus 1, but a 2D image may be used instead of the 3D image. The 3D images I1, I2, and I3 are images obtained by contrast imaging of the imaging region IP including the liver of the subject. The 3D images I1, I2, and I3 represent 3D images in the first time phase P1, the second time phase P2, and the third time phase P3, respectively. Here, it is assumed that the 3D images IM1, IM2, and IM3 are grayscale images. After inputting the 3D images I1, I2, and I3, the process proceeds to step ST2.
ステップST2では、前処理手段2(図2参照)が3D画像I1、I2、およびI3に対して前処理を行う。図5は、3D画像I1、I2、およびI3を前処理することにより得られた画像を概略的に示す図である。図5では、前処理された後の3D画像が、符号「IM1」、「IM2」、および「IM3」で示されている。3D画像IM1、IM2、およびIM3に示されたボクセルQ1、Q2、およびQ3は、撮影部位IP内の部分Qに対応する点を表している。前処理としては、例えば、以下の3つの処理のうちの一つ以上の処理を実行することができる。 In step ST2, the preprocessing means 2 (see FIG. 2) performs preprocessing on the 3D images I1, I2, and I3. FIG. 5 is a diagram schematically showing images obtained by preprocessing the 3D images I1, I2, and I3. In FIG. 5, the 3D image after the pre-processing is indicated by reference signs “IM1”, “IM2”, and “IM3”. Voxels Q1, Q2, and Q3 shown in the 3D images IM1, IM2, and IM3 represent points corresponding to the portion Q in the imaging region IP. As the preprocessing, for example, one or more of the following three processes can be executed.
−平滑化処理
−ヒストグラムの平滑化によるコントラスト強調の処理
−異なる時相間において、ダイナミックレンジ(最小値から最大値までの範囲)を同一にするための処理
-Smoothing processing-Contrast enhancement processing by smoothing the histogram-Processing for making the dynamic range (range from the minimum value to the maximum value) the same between different time phases
図6は、3D画像IM1、IM2、およびIM3に現れる造影パターンの説明図である。
図6には、肝臓の疾患の造影パターンとして、疾患Xの造影パターン、疾患Yの造影パターン、および疾患Zの造影パターンが概略的に示されている。
FIG. 6 is an explanatory diagram of contrast patterns appearing in the 3D images IM1, IM2, and IM3.
FIG. 6 schematically shows the contrast pattern of the disease X, the contrast pattern of the disease Y, and the contrast pattern of the disease Z as the contrast pattern of the liver disease.
図6(a)は、肝臓に疾患Xがみられる場合の造影パターンの説明図である。
図6(a)では、説明の便宜上、肝臓を横切る断面CSの画像D1、D2、およびD3が概略的に示されている。
疾患Xの場合、第1の時相P1の断面画像D1において腫瘍全体が強く強調され、第2の時相P2の断面画像D2において腫瘍全体が中程度に強調され、第3の時相P3の断面画像D3では腫瘍全体が肝実質よりも低輝度値を持っている。
FIG. 6A is an explanatory diagram of a contrast pattern when disease X is found in the liver.
FIG. 6A schematically shows images D1, D2, and D3 of a cross section CS across the liver for convenience of explanation.
In the case of the disease X, the whole tumor is strongly emphasized in the cross-sectional image D1 of the first time phase P1, the whole tumor is moderately emphasized in the cross-sectional image D2 of the second time phase P2, and the third time phase P3 In the cross-sectional image D3, the entire tumor has a lower luminance value than the liver parenchyma.
図6の(b)は、肝臓に疾患Yがみられる場合の造影パターンの説明図である。
図6(b)でも、図6(a)と同様に、肝臓を横切る断面CSの画像D1、D2、およびD3が概略的に示されている。
疾患Yの場合、第1の時相P1の断面画像D1において、腫瘍は、肝実質よりも低輝度値を持ち、かつ辺縁部から中心部にむかうほど、より低輝度値となる。更に、第2の時相P2の断面画像D2において腫瘍辺縁部はわずかに肝実質よりも高輝度値を持ち、かつ辺縁部から中心部にむかうにしたがって低輝度値となる。第3の時相P3の断面画像D3では腫瘍は肝実質よりも低輝度値を持ち、かつ辺縁部から中心部に向かうにしたがって、より低輝度値となる。
FIG. 6B is an explanatory diagram of a contrast pattern when a disease Y is observed in the liver.
FIG. 6B also schematically shows images D1, D2, and D3 of the cross section CS across the liver, as in FIG. 6A.
In the case of the disease Y, in the cross-sectional image D1 of the first time phase P1, the tumor has a lower luminance value than the liver parenchyma, and becomes a lower luminance value as it goes from the edge to the center. Further, in the cross-sectional image D2 of the second time phase P2, the tumor margin has a slightly higher luminance value than the liver parenchyma, and becomes a lower luminance value from the margin toward the center. In the cross-sectional image D3 of the third time phase P3, the tumor has a lower luminance value than the liver parenchyma, and becomes a lower luminance value as it goes from the edge to the center.
図6の(c)は、肝臓に疾患Zがみられる場合の造影パターンの説明図である。
図6(c)でも、図6(a)および(b)と同様に、肝臓を横切る断面CSの画像D1、D2、およびD3が概略的に示されている。
疾患Zの場合、第1の時相P1の断面画像D1において腫瘍は肝実質よりも高輝度値を持ち、かつ中心部から辺縁部にむかうほどより高輝度値となる。更に、第2の時相P2の断面画像D2では、腫瘍全体が中程度に強調される。第3の時相P3の断面画像D3では腫瘍全体が肝実質よりも低輝度値を持つ。
FIG. 6C is an explanatory diagram of a contrast pattern when a disease Z is observed in the liver.
FIG. 6C also schematically shows images D1, D2, and D3 of the cross section CS across the liver, as in FIGS. 6A and 6B.
In the case of the disease Z, in the cross-sectional image D1 of the first time phase P1, the tumor has a higher luminance value than the liver parenchyma, and becomes a higher luminance value as it goes from the center to the edge. Furthermore, in the cross-sectional image D2 of the second time phase P2, the entire tumor is emphasized moderately. In the cross-sectional image D3 of the third time phase P3, the entire tumor has a lower luminance value than the liver parenchyma.
このように、一般的に、肝腫瘍における造影パターンは、疾患の種類に応じて異なる。本願発明者は、この点に着目し、被検体の造影パターンがどの疾患の造影パターンに当てはまるのかを特定することができれば、疾患の種類を特定できることを見出した。以下、疾患の造影パターンの特定方法について具体的に説明する。
ステップST2において前処理を行った後、ステップST3に進む。
Thus, in general, the contrast pattern in a liver tumor differs depending on the type of disease. The inventor of the present application pays attention to this point, and has found that the type of disease can be specified if the contrast pattern of the subject can be specified to which contrast pattern. Hereinafter, a method for identifying a contrast pattern of a disease will be specifically described.
After pre-processing in step ST2, the process proceeds to step ST3.
ステップST3では、位置合せ手段3(図2参照)が、前処理が実行された3D画像の位置合せを行う。 In step ST3, the alignment means 3 (see FIG. 2) aligns the 3D image on which preprocessing has been executed.
スキャン中は被検体の撮影部位は動かないことが理想であるが、実際には、撮影部位が全く動かないようにすることはできない。そこで、時相間における3D画像の位置ずれをできるだけ小さくするために、ステップST3において、前処理が実行された3D画像の位置合せを行う。位置合せのアルゴリズムとしては、相互情報量、標準勾配場、相互相関係数、ポイントセット法などの公知のアルゴリズムを用いることができる。位置合せを行った後、ステップST4に進む。 Ideally, the imaging region of the subject does not move during the scan, but in practice, the imaging region cannot be prevented from moving at all. Therefore, in order to minimize the positional deviation of the 3D image between the time phases, the alignment of the 3D image on which preprocessing has been performed is performed in step ST3. As an alignment algorithm, known algorithms such as a mutual information amount, a standard gradient field, a cross-correlation coefficient, and a point set method can be used. After alignment, the process proceeds to step ST4.
ステップST4では、読影者が、ROIを設定するか否かを判定する。読影の対象が3D画像全体の場合には、ROIは不要である。この場合、ステップST6に進む。一方、読影の対象が、画像中の特定の部位(例えば、所定の臓器、あるいは、所定の臓器内の特定の部位)である場合、ROIを設定した方が、病変の観察がしやすい画像になる。そこで、読影の対象が、画像の中の特定の部位の場合、ROIを設定するために、ステップST5に進む。 In step ST4, the radiogram interpreter determines whether to set an ROI. When the interpretation target is the entire 3D image, the ROI is not necessary. In this case, the process proceeds to step ST6. On the other hand, when the target of interpretation is a specific part in the image (for example, a predetermined organ or a specific part in the predetermined organ), it is easier to observe the lesion when the ROI is set. Become. Therefore, when the interpretation target is a specific part in the image, the process proceeds to step ST5 in order to set the ROI.
以下では、先ず、ROIを設定しないと判定された場合について説明する。したがって、ステップST6に進む。 Below, the case where it determines with not setting ROI first is demonstrated. Accordingly, the process proceeds to step ST6.
ステップST6では、特定手段5(図2参照)が、疾患の種類を特定する。第1の形態では、複数の疾患の各々と画像のボクセル値との対応関係を表すテーブルを用いて、疾患の種類を特定するための処理が行われる。このテーブルは、鑑別診断を行う前に予め用意されている。以下に、テーブルについて説明する。 In step ST6, the specifying means 5 (see FIG. 2) specifies the type of disease. In the first embodiment, processing for specifying the type of disease is performed using a table representing the correspondence between each of the plurality of diseases and the voxel values of the image. This table is prepared in advance before performing differential diagnosis. The table will be described below.
図7はテーブルの説明図である。
テーブルは、2つのカラム1および2を有している。
FIG. 7 is an explanatory diagram of a table.
The table has two columns 1 and 2.
カラム1はn種類の疾患を表している。第1の形態では、説明の便宜上、n=3、即ち、疾患の種類として、3つの疾患X、Y、およびZが示されている。 Column 1 represents n types of diseases. In the first embodiment, for convenience of explanation, n = 3, that is, three diseases X, Y, and Z are shown as disease types.
カラム2は、時相ごとに、各疾患に対応する画像のボクセル値の範囲を示している。以下、各疾患とボクセル値の範囲との関係について説明する。 Column 2 shows the range of voxel values of the image corresponding to each disease for each time phase. Hereinafter, the relationship between each disease and the range of voxel values will be described.
(1)疾患Xとボクセル値の範囲との関係について
先ず、時相P1における疾患Xとボクセル値の範囲との関係について考える。時相P1における3D画像のボクセル値を「S1」で表すと、時相P1に対して、疾患Xに対応するボクセル値S1の範囲X1は、以下のように表される。
範囲X1:SX11≦S1≦SX12
ここで、SX11:疾患Xの恐れがあると考えられる場合の
時相P1におけるボクセル値の下限値
SX12:疾患Xの恐れがあると考えられる場合の
時相P1におけるボクセル値の上限値
(1) Relationship between Disease X and Voxel Value Range First, the relationship between the disease X and the voxel value range in the time phase P1 is considered. When the voxel value of the 3D image in the time phase P1 is expressed by “S1”, the range X1 of the voxel value S1 corresponding to the disease X is expressed as follows with respect to the time phase P1.
Range X1: SX 11 ≦ S1 ≦ SX 12
Here, SX 11 : When it is considered that there is a risk of disease X
Lower limit of voxel value in time phase P1
SX 12: when is considered that there is a risk of disease X
Upper limit of voxel value in time phase P1
次に、時相P2における疾患Xとボクセル値の範囲との関係について考える。時相P2における3D画像のボクセル値を「S2」で表すと、時相P2に対して、疾患Xに対応するボクセル値S2の範囲X2は、以下のように表される。
範囲X2:SX21≦S2≦SX22
ここで、SX21:疾患Xの恐れがあると考えられる場合の
時相P2におけるボクセル値の下限値
SX22:疾患Xの恐れがあると考えられる場合の
時相P2におけるボクセル値の上限値
Next, consider the relationship between the disease X and the range of voxel values in the time phase P2. When the voxel value of the 3D image in the time phase P2 is expressed by “S2”, the range X2 of the voxel value S2 corresponding to the disease X is expressed as follows with respect to the time phase P2.
Range X2: SX 21 ≦ S2 ≦ SX 22
Where SX 21 : when there is a risk of disease X
Lower limit of voxel value in time phase P2
SX 22 : When there is a possibility of disease X
Upper limit of voxel value in time phase P2
次に、時相P3における疾患Xとボクセル値の範囲との関係について考える。時相P3における3D画像のボクセル値を「S3」で表すと、時相P3に対して、疾患Xに対応するボクセル値S3の範囲X3は、以下のように表される。
範囲X3:SX31≦S3≦SX32
ここで、SX31:疾患Xの恐れがあると考えられる場合の
時相P3におけるボクセル値の下限値
SX32:疾患Xの恐れがあると考えられる場合の
時相P3におけるボクセル値の上限値
Next, consider the relationship between the disease X and the range of voxel values in the time phase P3. When the voxel value of the 3D image in the time phase P3 is expressed by “S3”, the range X3 of the voxel value S3 corresponding to the disease X is expressed as follows with respect to the time phase P3.
Range X3: SX 31 ≦ S3 ≦ SX 32
Here, SX 31 : When it is considered that there is a risk of disease X
Lower limit of voxel value in time phase P3
SX 32 : When there is a risk of disease X
Upper limit of voxel value in time phase P3
例えば、3D画像IM1、IM2、およびIM3の、撮影部位IP内の部分Qに対応するボクセルQ1、Q2、およびQ3に着目し(図5参照)、ボクセルQ1、Q2、およびQ3におけるボクセル値S1、S2、およびS3について考える。ボクセルQ1、Q2、およびQ3におけるボクセル値S1、S2、およびS3が、それぞれ、上記の範囲X1、X2、およびX3に含まれている場合、撮影部位IP内の部分Qは、疾患Xが生じている恐れが高いと判定される。一方、ボクセル値S1、S2、およびS3のうちの一つでも、疾患Xに対応するボクセル値の範囲から外れている場合、疾患Xの恐れは低いと判定される。 For example, paying attention to the voxels Q1, Q2, and Q3 corresponding to the portion Q in the imaging region IP of the 3D images IM1, IM2, and IM3 (see FIG. 5), the voxel values S1 in the voxels Q1, Q2, and Q3, Consider S2 and S3. When the voxel values S1, S2, and S3 in the voxels Q1, Q2, and Q3 are included in the ranges X1, X2, and X3, respectively, the portion Q in the imaging region IP is caused by the disease X It is determined that there is a high risk of being. On the other hand, if any one of the voxel values S1, S2, and S3 is out of the range of voxel values corresponding to the disease X, it is determined that the risk of the disease X is low.
(2)疾患Yとボクセル値の範囲との関係について
疾患Yの場合、時相P1に対するボクセル値S1の範囲Y1、時相P2に対するボクセル値S2の範囲Y2、および時相P3に対するボクセル値S3の範囲Y3は、以下のように表される。
範囲Y1:SY11≦S1≦SY12
範囲Y2:SY21≦S2≦SY22
範囲Y3:SY31≦S3≦SY32
(2) Relationship between Disease Y and Voxel Value Range In the case of disease Y, the range Y1 of the voxel value S1 for the time phase P1, the range Y2 of the voxel value S2 for the time phase P2, and the voxel value S3 for the time phase P3. The range Y3 is expressed as follows.
Range Y1: SY 11 ≦ S1 ≦ SY 12
Range Y2: SY 21 ≦ S2 ≦ SY 22
Range Y3: SY 31 ≦ S3 ≦ SY 32
ボクセルQ1、Q2、およびQ3におけるボクセル値S1、S2、およびS3が、それぞれ、上記の範囲Y1、Y2、およびY3に含まれている場合、撮影部位IP内の部分Qは、疾患Yが生じている恐れが高いと判定される。一方、ボクセル値S1、S2、およびS3のうちの一つでも、疾患Yに対応するボクセル値の範囲から外れている場合、疾患Yの恐れは低いと判定される。 When the voxel values S1, S2, and S3 in the voxels Q1, Q2, and Q3 are included in the ranges Y1, Y2, and Y3, respectively, the portion Q in the imaging region IP has a disease Y. It is determined that there is a high risk of being. On the other hand, if any one of the voxel values S1, S2, and S3 is out of the range of the voxel values corresponding to the disease Y, it is determined that the risk of the disease Y is low.
(3)疾患Zとボクセル値の範囲との関係について
疾患Zの場合、時相P1に対するボクセル値S1の範囲Z1、時相P2に対するボクセル値S2の範囲Z2、および時相P3に対するボクセル値S3の範囲Z3は、以下のように表される。
範囲Z1:SZ11≦S1≦SZ12
範囲Z2:SZ21≦S2≦SZ22
範囲Z3:SZ31≦S3≦SZ32
(3) Regarding the relationship between the disease Z and the range of voxel values In the case of disease Z, the range Z1 of the voxel value S1 for the time phase P1, the range Z2 of the voxel value S2 for the time phase P2, and the voxel value S3 for the time phase P3. The range Z3 is expressed as follows.
Range Z1: SZ 11 ≦ S1 ≦ SZ 12
Range Z2: SZ 21 ≦ S2 ≦ SZ 22
Range Z3: SZ 31 ≦ S3 ≦ SZ 32
ボクセルQ1、Q2、およびQ3におけるボクセル値S1、S2、およびS3が、それぞれ、上記の範囲Z1、Z2、およびZ3に含まれている場合、撮影部位IP内の部分Qは、疾患Zが生じている恐れが高いと判定される。一方、ボクセル値S1、S2、およびS3のうちの一つでも、疾患Zに対応するボクセル値の範囲から外れている場合、疾患Zの恐れは低いと判定される。 When the voxel values S1, S2, and S3 in the voxels Q1, Q2, and Q3 are included in the ranges Z1, Z2, and Z3, respectively, the portion Q in the imaging region IP is caused by the disease Z. It is determined that there is a high risk of being. On the other hand, if any one of the voxel values S1, S2, and S3 is out of the range of the voxel values corresponding to the disease Z, the risk of the disease Z is determined to be low.
したがって、撮影部位IP内の部分Qに対応するボクセル値(S1,S2,S3)が、疾患X、Y、およびZのうちのどの疾患のボクセル値に該当するかを判定することにより、撮影部位IP内の部分Qに生じている疾患の種類を特定することができる。尚、上記の説明では、撮影部位IP内の部分Qについて説明したが、ステップST6では、撮影部位IP内の各部分について、ボクセル値(S1,S2,S3)が、疾患X、Y、およびZのうちのどの疾患のボクセル値に該当するかを判定する。したがって、撮影部位IP内に疾患X、Y、およびZが生じているか否かを判定することができる。
この判定を行った後、ステップST7に進む。
Therefore, by determining which of the diseases X, Y, and Z the voxel value (S1, S2, S3) corresponding to the portion Q in the imaging region IP corresponds to the imaging region The type of disease occurring in the part Q in the IP can be specified. In the above description, the portion Q in the imaging region IP has been described. However, in step ST6, the voxel values (S1, S2, S3) of the respective regions in the imaging region IP are the diseases X, Y, and Z. It is determined which of these diseases corresponds to the voxel value. Therefore, it is possible to determine whether or not diseases X, Y, and Z have occurred in the imaging region IP.
After making this determination, the process proceeds to step ST7.
ステップST7では、表示装置に、ステップST6の判定結果を反映した診断支援画像が表示される。図8に、診断支援画像DS1、DS2、およびDS3を概略的に示す。診断支援画像DS1、DS2、およびDS3は、それぞれ、時相P1、P2、およびP3において、肝臓を横切る断面画像を表している。各診断支援画像には、疾患が生じている部分(疾患部)r0と、疾患名(図8では、「疾患X」)が示されている。したがって、読影者は、診断支援画像を参照することにより、被検体の疾患の種類を認識することができる。 In step ST7, a diagnosis support image reflecting the determination result in step ST6 is displayed on the display device. FIG. 8 schematically shows the diagnosis support images DS1, DS2, and DS3. Diagnosis support images DS1, DS2, and DS3 represent cross-sectional images across the liver in time phases P1, P2, and P3, respectively. Each diagnosis support image shows a diseased part (disease part) r0 and a disease name ("disease X" in FIG. 8). Therefore, the radiogram interpreter can recognize the type of disease of the subject by referring to the diagnosis support image.
尚、上記の説明では、ステップST4(図3参照)においてROIを設定しないと判定された例について説明されている。次に、ステップST4において、ROIを設定すると判定された例について説明する。 In the above description, an example is described in which it is determined in step ST4 (see FIG. 3) that ROI is not set. Next, an example in which it is determined in step ST4 that ROI is set will be described.
ステップST4においてROIを設定すると判定された場合、ステップST5に進む。 When it is determined in step ST4 that the ROI is set, the process proceeds to step ST5.
ステップST5では、ROIが設定される。ROIを設定する場合、ユーザは、例えば、描画ツールを用いてROIを設定するための情報を入力する。ROI設定手段4(図2参照)は、入力された情報に基づいて、ROIの範囲を設定する。尚、描画ツールを用いずに、ROI設定手段4が、例えば、領域拡張法やレベルセット法、エッジ検出に基づく手法などのセグメンテーション(segmentation)手法を用いることにより、ROIを設定してもよい。また、各時相の画像の各々に閾値を設定して、該当するボクセル群をROIとしてもよい。閾値には、CT画像のように臓器ごとに一般的なCT値がわかっている場合はその既知の値を設定してもよく、あるいはヒストグラム解析から閾値を設定してもよい。ROIは、各時相に対して1個ずつ設定してもよく、全時相に対して共通のROIを使用してもよい。臓器や病変の種類によって最適なセグメンテーション手法は異なるため、検査対象に応じて適宜使い分けできるようなシステムである事が望ましい。例えば臓器や病変の種類、撮像シーケンスに応じて、ROIの作成に使用するセグメンテーション手法を個別に設定しておけばよい。ROIを設定した後、ステップST6に進む。 In step ST5, ROI is set. When setting the ROI, the user inputs information for setting the ROI using, for example, a drawing tool. The ROI setting unit 4 (see FIG. 2) sets the ROI range based on the input information. Instead of using the drawing tool, the ROI setting unit 4 may set the ROI by using a segmentation method such as a region expansion method, a level set method, or a method based on edge detection. Further, a threshold value may be set for each time phase image, and the corresponding voxel group may be set as the ROI. As a threshold, when a general CT value is known for each organ as in a CT image, the known value may be set, or a threshold may be set from histogram analysis. One ROI may be set for each time phase, or a common ROI may be used for all time phases. Since the optimal segmentation method varies depending on the type of organ or lesion, it is desirable that the system be appropriately used depending on the examination target. For example, the segmentation technique used to create the ROI may be individually set according to the type of organ, lesion, and imaging sequence. After setting the ROI, the process proceeds to step ST6.
ステップST6では、特定手段5は、ステップST5で設定されたROIの範囲内で疾患の種類を特定するための処理を行う。疾患の種類を特定した後、ステップST7に進み、診断支援画像が表示され、フローが終了する。 In step ST6, the specifying unit 5 performs a process for specifying the type of disease within the ROI range set in step ST5. After specifying the type of disease, the process proceeds to step ST7, a diagnosis support image is displayed, and the flow ends.
第1の形態では、テーブル(図7参照)に基づいて、時相ごとに、画像のボクセル値が、各疾患に対応したボクセル値の範囲に含まれているか否かを判定することにより、疾患の種類を特定している。したがって、読影者の経験や勘に頼らずに疾患を特定することができるので、診断の客観性や再現性を向上させることができ、読影精度を格段に向上させることができる。また、第1の形態では、診断支援画像が表示される(図8参照)。診断支援画像には、疾患部(病変)r0が示されているので、読影者は、撮影部位における疾患の位置を視覚的に容易に認識することができる。 In the first embodiment, based on the table (see FIG. 7), for each time phase, it is determined whether or not the voxel value of the image is included in the range of voxel values corresponding to each disease. Specific types. Therefore, since it is possible to identify a disease without depending on the experience and intuition of the interpreter, the objectivity and reproducibility of diagnosis can be improved, and the interpretation accuracy can be greatly improved. In the first mode, a diagnosis support image is displayed (see FIG. 8). Since the diseased part (lesion) r0 is shown in the diagnosis support image, the image interpreter can easily visually recognize the position of the disease in the imaging region.
(2)第2の形態
図9は、第2の形態の画像処理装置1における機能ブロック図である。
第2の形態では、画像処理装置1は、前処理手段2〜特定手段5を有している。前処理手段2〜特定手段5のうち、前処理手段2、位置合せ手段3、およびROI設定手段4は、第1の形態と同じであるので、説明は省略し、割当手段41および特定手段5について説明する。
(2) Second Embodiment FIG. 9 is a functional block diagram of the image processing apparatus 1 according to the second embodiment.
In the second embodiment, the image processing apparatus 1 includes preprocessing means 2 to specifying means 5. Of the preprocessing means 2 to the specifying means 5, the preprocessing means 2, the alignment means 3, and the ROI setting means 4 are the same as those in the first embodiment, so that the description thereof is omitted, and the assigning means 41 and the specifying means 5 are omitted. Will be described.
割当手段41は、第1の時相P1における画像にR階調を割り当て、第2の時相P
2における画像にG階調を割り当て、第3の時相P3における画像にB階調を割り当てる。
The assigning means 41 assigns R gradation to the image in the first time phase P1, and assigns the second time phase P.
G gradation is assigned to the image in 2, and B gradation is assigned to the image in the third time phase P3.
特定手段5は、割当手段41によりRGBの階調が割り当てられた後の画像に基づいて、疾患の種類を特定する。疾患の種類の特定方法については後で詳述する。 The specifying unit 5 specifies the type of the disease based on the image after the RGB gradation is assigned by the assigning unit 41. A method for identifying the type of disease will be described in detail later.
図10は、第2の形態において実行されるフローを示す図である。
ステップST1〜ST4は、第1の形態と同じであるので詳しい説明は省略する。ステップST4では、ROIを設定するか否かが判定される。ROIを設定しない場合は、ステップST51に進む。一方、ROIを設定する場合は、ステップST5に進み、ROIが設定される。ROIの設定方法は、第1の形態と同様に、ユーザが任意に設定してもよく、自動的に設定してもよい。ROIを設定した後、ステップST51に進む。
FIG. 10 is a diagram illustrating a flow executed in the second mode.
Steps ST1 to ST4 are the same as those in the first embodiment, and a detailed description thereof will be omitted. In step ST4, it is determined whether or not an ROI is set. If the ROI is not set, the process proceeds to step ST51. On the other hand, when setting ROI, it progresses to step ST5 and ROI is set. As in the first embodiment, the ROI setting method may be set arbitrarily by the user or automatically. After setting the ROI, the process proceeds to step ST51.
ステップST51では、割当手段41(図9参照)が、各時相の画像に対して、赤,緑,青(R,G,B)のいずれかの表示色を割り当てる。通例として、CTやMRなどの医用画像は8−16ビット程度の白黒階調(グレースケール)で表示するが、第2の形態では白黒階調にR,G,Bのいずれかの階調を割り当てる。例えば第1の時相P1の3D画像IM1にR階調を、第2の時相P2の3D画像IM2にG階調を、第3の時相P3の3D画像IM3にB階調を割り当てる。図11は、3D画像IM1、IM2、およびIM3に、それぞれ、R階調、G階調、およびB階調を割り当てることにより得られた画像を概略的に示す図である。図11では、各階調が割り当てられた後の3D画像が、符号「IMR」、「IMG」、および「IMB」で示されている。3D赤画像IMR、3D緑画像IMG、および3D青画像IMBに示されたボクセルQ1、Q2、およびQ3は、撮影部位IP内の部分Qに対応する点を表している。
RGBの階調を割り当てた後、ステップST6に進む。
In step ST51, the assigning means 41 (see FIG. 9) assigns a display color of red, green, or blue (R, G, B) to each time phase image. Usually, medical images such as CT and MR are displayed in black and white gradation (gray scale) of about 8-16 bits. In the second embodiment, any gradation of R, G, or B is used for the black and white gradation. assign. For example, the R gradation is assigned to the 3D image IM1 in the first time phase P1, the G gradation is assigned to the 3D image IM2 in the second time phase P2, and the B gradation is assigned to the 3D image IM3 in the third time phase P3. FIG. 11 is a diagram schematically showing images obtained by assigning R gradation, G gradation, and B gradation to the 3D images IM1, IM2, and IM3, respectively. In FIG. 11, the 3D image after each gradation is assigned is indicated by symbols “IMR”, “IMG”, and “IMB”. Voxels Q1, Q2, and Q3 shown in the 3D red image IMR, the 3D green image IMG, and the 3D blue image IMB represent points corresponding to the portion Q in the imaging region IP.
After assigning RGB gradations, the process proceeds to step ST6.
ステップST6では、特定手段5(図9参照)が、疾患の種類を特定する。第2の形態では、複数の疾患の各々と画像のボクセル値との対応関係を表すテーブル(図12参照)を用いて、疾患の種類を特定するための処理が行われる。このテーブルは、鑑別診断を行う前に予め用意されている。以下に、第2の形態で使用されるテーブルについて説明する。 In step ST6, the specifying means 5 (see FIG. 9) specifies the type of disease. In the second embodiment, a process for specifying the type of disease is performed using a table (see FIG. 12) representing the correspondence between each of a plurality of diseases and the voxel value of the image. This table is prepared in advance before performing differential diagnosis. The table used in the second form will be described below.
図12はテーブルの説明図である。
テーブルはカラム1および2を有している。
FIG. 12 is an explanatory diagram of a table.
The table has columns 1 and 2.
カラム1はn種類の疾患を表している。第2の形態でも、第1の形態と同様に、n=3、即ち、疾患の種類として、3つの疾患X、Y、およびZが示されている。
カラム2には、時相ごとに、各疾患に対応したボクセル値の範囲を示している。以下、各疾患とボクセル値の範囲との関係について説明する。
Column 1 represents n types of diseases. Also in the second form, similarly to the first form, n = 3, that is, three kinds of diseases X, Y, and Z are shown as types of diseases.
Column 2 shows the range of voxel values corresponding to each disease for each time phase. Hereinafter, the relationship between each disease and the range of voxel values will be described.
(1)疾患Xとボクセル値の範囲との関係について
先ず、時相P1における疾患Xとボクセル値の範囲との関係について考える。時相P1における3D赤画像のボクセル値を「S1」で表すと、時相P1に対して、疾患Xに対応するボクセル値S1の範囲X1は、以下のように表される。
範囲X1(R階調):SXR1≦S1≦SXR2
ここで、SXR1:疾患Xの恐れがあると考えられる場合の
時相P1におけるボクセル値の下限値
SXR2:疾患Xの恐れがあると考えられる場合の
時相P1におけるボクセル値の上限値
(1) Relationship between Disease X and Voxel Value Range First, the relationship between the disease X and the voxel value range in the time phase P1 is considered. When the voxel value of the 3D red image in the time phase P1 is expressed by “S1”, the range X1 of the voxel value S1 corresponding to the disease X is expressed as follows with respect to the time phase P1.
Range X1 (R gradation): SX R1 ≦ S1 ≦ SX R2
Where SX R1 : if there is a risk of disease X
Lower limit of voxel value in time phase P1
SX R2 : When there is a risk of disease X
Upper limit of voxel value in time phase P1
次に、時相P2における疾患Xとボクセル値の範囲との関係について考える。時相P2における3D緑画像のボクセル値を「S2」で表すと、時相P2に対して、疾患Xに対応するボクセル値S2の範囲X2は、以下のように表される。
範囲X2(G階調):SXG1≦S2≦SXG2
ここで、SXG1:疾患Xの恐れがあると考えられる場合の
時相P2におけるボクセル値の下限値
SXG2:疾患Xの恐れがあると考えられる場合の
時相P2におけるボクセル値の上限値
Next, consider the relationship between the disease X and the range of voxel values in the time phase P2. When the voxel value of the 3D green image in the time phase P2 is represented by “S2”, the range X2 of the voxel value S2 corresponding to the disease X is expressed as follows with respect to the time phase P2.
Range X2 (G gradation): SX G1 ≦ S2 ≦ SX G2
Where SX G1 : When there is a risk of disease X
Lower limit of voxel value in time phase P2
SX G2 : When there is a risk of disease X
Upper limit of voxel value in time phase P2
次に、時相P3における疾患Xとボクセル値の範囲との関係について考える。時相P3における3D青画像のボクセル値を「S3」で表すと、時相P3に対して、疾患Xに対応するボクセル値S3の範囲X3は、以下のように表される。
範囲X3(B階調):SXB1≦S3≦SXB2
ここで、SXB1:疾患Xの恐れがあると考えられる場合の
時相P3におけるボクセル値の下限値
SXB2:疾患Xの恐れがあると考えられる場合の
時相P3におけるボクセル値の上限値
Next, consider the relationship between the disease X and the range of voxel values in the time phase P3. When the voxel value of the 3D blue image in the time phase P3 is expressed by “S3”, the range X3 of the voxel value S3 corresponding to the disease X is expressed as follows with respect to the time phase P3.
Range X3 (B gradation): SX B1 ≦ S3 ≦ SX B2
Here, SX B1 : When it is considered that there is a risk of disease X
Lower limit of voxel value in time phase P3
SX B2 : When there is a possibility of disease X
Upper limit of voxel value in time phase P3
例えば、3D赤画像IMR、3D緑画像IMG、および3D青画像IMBの、撮影部位IP内の部分Qに対応するボクセルQ1、Q2、およびQ3に着目し(図11参照)、ボクセルQ1、Q2、およびQ3におけるボクセル値S1、S2、およびS3について考える。ボクセルQ1、Q2、およびQ3におけるボクセル値S1、S2、およびS3が、それぞれ、上記の範囲X1、X2、およびX3に含まれている場合、撮影部位IP内の部分Qは、疾患Xが生じている恐れが高いと判定される。一方、ボクセル値S1、S2、およびS3のうちの一つでも、疾患Xに対応するボクセル値の範囲から外れている場合、疾患Xの恐れは低いと判定される。 For example, paying attention to the voxels Q1, Q2, and Q3 corresponding to the portion Q in the imaging region IP of the 3D red image IMR, 3D green image IMG, and 3D blue image IMB (see FIG. 11), the voxels Q1, Q2, Consider the voxel values S1, S2, and S3 at Q3 and Q3. When the voxel values S1, S2, and S3 in the voxels Q1, Q2, and Q3 are included in the ranges X1, X2, and X3, respectively, the portion Q in the imaging region IP is caused by the disease X It is determined that there is a high risk of being. On the other hand, if any one of the voxel values S1, S2, and S3 is out of the range of voxel values corresponding to the disease X, it is determined that the risk of the disease X is low.
(2)疾患Yとボクセル値の範囲との関係について
疾患Yの場合、時相P1に対するボクセル値S1の範囲Y1、時相P2に対するボクセル値S2の範囲Y2、および時相P3に対するボクセル値S3の範囲Y3は、以下のように表される。
範囲Y1(R階調):SYR1≦S1≦SYR2
範囲Y2(G階調):SYG1≦S2≦SYG2
範囲Y3(B階調):SYB1≦S3≦SYB2
(2) Relationship between Disease Y and Voxel Value Range In the case of disease Y, the range Y1 of the voxel value S1 for the time phase P1, the range Y2 of the voxel value S2 for the time phase P2, and the voxel value S3 for the time phase P3. The range Y3 is expressed as follows.
Range Y1 (R gradation): SY R1 ≦ S1 ≦ SY R2
Range Y2 (G gradation): SY G1 ≦ S2 ≦ SY G2
Range Y3 (B gradation): SY B1 ≤ S3 ≤ SY B2
ボクセルQ1、Q2、およびQ3におけるボクセル値S1、S2、およびS3が、それぞれ、上記の範囲Y1、Y2、およびY3に含まれている場合、撮影部位IP内の部分Qは、疾患Yが生じている恐れが高いと判定される。一方、ボクセル値S1、S2、およびS3のうちの一つでも、疾患Yに対応するボクセル値の範囲から外れている場合、疾患Yの恐れは低いと判定される。 When the voxel values S1, S2, and S3 in the voxels Q1, Q2, and Q3 are included in the ranges Y1, Y2, and Y3, respectively, the portion Q in the imaging region IP has a disease Y. It is determined that there is a high risk of being. On the other hand, if any one of the voxel values S1, S2, and S3 is out of the range of the voxel values corresponding to the disease Y, it is determined that the risk of the disease Y is low.
(3)疾患Zとボクセル値の範囲との関係について
疾患Zの場合、時相P1に対するボクセル値S1の範囲Z1、時相P2に対するボクセル値S2の範囲Z2、および時相P3に対するボクセル値S3の範囲Z3は、以下のように表される。
範囲Z1(R階調):SZR1≦S1≦SZR2
範囲Z2(G階調):SZG1≦S2≦SZG2
範囲Z3(B階調):SZB1≦S3≦SZB2
(3) Regarding the relationship between the disease Z and the range of voxel values In the case of disease Z, the range Z1 of the voxel value S1 for the time phase P1, the range Z2 of the voxel value S2 for the time phase P2, and the voxel value S3 for the time phase P3. The range Z3 is expressed as follows.
Range Z1 (R gradation): SZ R1 ≦ S1 ≦ SZ R2
Range Z2 (G gradation): SZ G1 ≦ S2 ≦ SZ G2
Range Z3 (B gradation): SZ B1 ≦ S3 ≦ SZ B2
ボクセルQ1、Q2、およびQ3におけるボクセル値S1、S2、およびS3が、それぞれ、上記の範囲Z1、Z2、およびZ3に含まれている場合、撮影部位IP内の部分Qは、疾患Zが生じている恐れが高いと判定される。一方、ボクセル値S1、S2、およびS3のうちの一つでも、疾患Zに対応するボクセル値の範囲から外れている場合、疾患Zの恐れは低いと判定される。 When the voxel values S1, S2, and S3 in the voxels Q1, Q2, and Q3 are included in the ranges Z1, Z2, and Z3, respectively, the portion Q in the imaging region IP is caused by the disease Z. It is determined that there is a high risk of being. On the other hand, if any one of the voxel values S1, S2, and S3 is out of the range of the voxel values corresponding to the disease Z, the risk of the disease Z is determined to be low.
したがって、撮影部位IP内の部分Qに対応するボクセル値(S1,S2,S3)が、疾患X、Y、およびZのうちのどの疾患のボクセル値に該当するかを判定することにより、撮影部位IP内の部分Qに生じている疾患の種類を特定することができる。尚、上記の説明では、撮影部位IP内の部分Qについて説明したが、ステップST6では、撮影部位IP内の各部分について、ボクセル値(S1,S2,S3)が、疾患X、Y、およびZのうちのどの疾患のボクセル値に該当するかを判定する。したがって、撮影部位IP内に疾患X、Y、およびZが生じているか否かを判定することができる。尚、ステップST5でROIが設定されている場合は、ROIの範囲内のみで、ボクセル値(S1,S2,S3)が、疾患X、Y、およびZのうちのどの疾患のボクセル値に該当するかが判定される。この判定を行った後、ステップST7に進む。 Therefore, by determining which of the diseases X, Y, and Z the voxel value (S1, S2, S3) corresponding to the portion Q in the imaging region IP corresponds to the imaging region The type of disease occurring in the part Q in the IP can be specified. In the above description, the portion Q in the imaging region IP has been described. However, in step ST6, the voxel values (S1, S2, S3) of the respective regions in the imaging region IP are the diseases X, Y, and Z. It is determined which of these diseases corresponds to the voxel value. Therefore, it is possible to determine whether or not diseases X, Y, and Z have occurred in the imaging region IP. If the ROI is set in step ST5, the voxel value (S1, S2, S3) corresponds to the voxel value of any of the diseases X, Y, and Z within the ROI range. Is determined. After making this determination, the process proceeds to step ST7.
ステップST7では、ステップST6の判定結果を反映した診断支援画像DS1、DS2、およびDS3(図8参照)が出力される。第2の形態では、診断支援画像DS1、DS2、およびDS3は、それぞれ、R階調、G階調、およびB階調が割り当てられた画像として表示される。診断支援画像が表示されたら、フローが終了する。 In step ST7, diagnosis support images DS1, DS2, and DS3 (see FIG. 8) reflecting the determination result of step ST6 are output. In the second form, the diagnosis support images DS1, DS2, and DS3 are displayed as images to which R gradation, G gradation, and B gradation are assigned, respectively. When the diagnosis support image is displayed, the flow ends.
第2の形態では、テーブル(図12参照)に基づいて、時相ごとに、画像のボクセル値が、各疾患に対応したボクセル値の範囲に含まれているか否かを判定することにより、疾患の種類を特定している。したがって、第2の形態でも、第1の形態と同様に、読影者の経験や勘に頼らずに疾患を特定することができるので、診断の客観性や再現性を向上させることができ、読影精度を格段に向上させることができる。また、第2の形態では、診断支援画像DS1、DS2、およびDS3は、異なる色が割り当てられている。したがって、読影者は、診断支援画像を比較することにより、3つの時相のうちのどの時相で撮影部位内のどの部分が造影剤で染まったのかを、確認することができる。 In the second embodiment, based on the table (see FIG. 12), for each time phase, it is determined whether or not the voxel value of the image is included in the range of voxel values corresponding to each disease. Specific types. Therefore, in the second embodiment, as in the first embodiment, the disease can be identified without depending on the experience and intuition of the image interpreter, so that the objectivity and reproducibility of diagnosis can be improved, and the image interpretation can be improved. The accuracy can be greatly improved. In the second mode, the diagnosis support images DS1, DS2, and DS3 are assigned different colors. Therefore, the radiogram interpreter can confirm which part of the three time phases is stained with the contrast agent at which time phase among the three time phases by comparing the diagnosis support images.
また、第2の形態では、3D画像IM1、IM2、およびIM3の白黒階調(グレースケール)にRGBの各階調を割り当て(ステップST51)、テーブル(図12参照)を用いて疾患の種類を特定している(ステップST6)。一般に、グレースケール画像上でのボクセル値のダイナミックレンジは、医用装置や撮影条件によってばらつきがあるので、グレースケール画像のボクセル値に基づいて疾患の種類を特定する場合、医用装置や撮影条件ごとにテーブル(図7参照)を用意する必要がある。これに対して、第2の形態では、上記のように、RGBの各階調が割り当てられているので、ボクセル値を標準化することができる。したがって、第2の形態では、疾患の種類を特定するために用いるテーブルの個数が少なくて済むという利点がある。更に、ボクセル値が標準化されているので、診断精度や再現性の向上も期待できる。 In the second mode, RGB gradations are assigned to the monochrome gradations (grayscale) of the 3D images IM1, IM2, and IM3 (step ST51), and the type of disease is specified using a table (see FIG. 12). (Step ST6). In general, the dynamic range of voxel values on a grayscale image varies depending on the medical device and imaging conditions, so when identifying the type of disease based on the voxel value of a grayscale image, It is necessary to prepare a table (see FIG. 7). On the other hand, in the second embodiment, as described above, RGB gradations are assigned, so that voxel values can be standardized. Therefore, the second embodiment has an advantage that the number of tables used for specifying the type of disease can be reduced. Furthermore, since the voxel values are standardized, improvement in diagnostic accuracy and reproducibility can be expected.
(3)第3の形態
図13は、第3の形態の画像処理装置1における機能ブロック図である。
第3の形態では、画像処理装置1は、前処理手段2〜決定手段53を有している。前処理手段2〜決定手段53のうち、前処理手段2、位置合せ手段3、ROI設定手段4、割当手段41、および特定手段5は、第2の形態と同じであるので、説明は省略し、不透明度設定手段51、合成手段52、および決定手段53について説明する。
(3) Third Embodiment FIG. 13 is a functional block diagram of the image processing apparatus 1 according to the third embodiment.
In the third embodiment, the image processing apparatus 1 has preprocessing means 2 to determination means 53. Of the preprocessing means 2 to the determination means 53, the preprocessing means 2, the alignment means 3, the ROI setting means 4, the assigning means 41, and the specifying means 5 are the same as those in the second embodiment, and thus description thereof is omitted. The opacity setting means 51, the synthesis means 52, and the determination means 53 will be described.
不透明度設定手段51は、R,G,Bのいずれかの階調で表示される各時相の画像に対して不透明度(transparency)を設定する。合成手段52は、R,G,Bの階調で表示される各時相の画像を合成し、合成画像を生成する。決定手段53は、合成画像および診断支援画像を生成するために使用される背景画像を決定する。 The opacity setting means 51 sets opacity for each time-phase image displayed in one of R, G, and B gradations. The synthesizing unit 52 synthesizes the images of the respective time phases displayed with R, G, and B gradations to generate a synthesized image. The determination unit 53 determines a background image used for generating the composite image and the diagnosis support image.
尚、各手段51、52、および53のより詳細な機能については、画像処理装置1における処理の流れを説明する際に併せて述べる。 Note that more detailed functions of the units 51, 52, and 53 will be described together with the description of the processing flow in the image processing apparatus 1.
図14は、第3の形態において実行されるフローを示す図である。
ステップST1〜ST4は、第1の形態と同じであるので詳しい説明は省略する。ステップST4では、ROIを設定するか否かが判定される。ROIを設定しない場合は、ステップST51に進む。一方、ROIを設定する場合は、ステップST5に進む。ここでは、先ず、ROIを設定しない場合について説明する。したがって、ステップST51に進む。
FIG. 14 is a diagram illustrating a flow executed in the third mode.
Steps ST1 to ST4 are the same as those in the first embodiment, and a detailed description thereof will be omitted. In step ST4, it is determined whether or not an ROI is set. If the ROI is not set, the process proceeds to step ST51. On the other hand, when setting ROI, it progresses to step ST5. Here, first, the case where the ROI is not set will be described. Accordingly, the process proceeds to step ST51.
ステップST51では、割当手段41(図13参照)が、各時相の画像に対して、赤,緑,青(R,G,B)のいずれかの表示色を割り当てる。表示色の割当方法は、第2の形態と同様である。したがって、図11に示すように、3D赤画像IMR、3D緑画像IMG、および3D青画像IMBが生成される。RGBの階調を割り当てた後、ステップST6に進む。 In step ST51, the assigning means 41 (see FIG. 13) assigns a display color of red, green, or blue (R, G, B) to each time phase image. The display color assignment method is the same as in the second embodiment. Therefore, as shown in FIG. 11, a 3D red image IMR, a 3D green image IMG, and a 3D blue image IMB are generated. After assigning RGB gradations, the process proceeds to step ST6.
ステップST6では、特定手段5(図13参照)が疾患の種類を特定する。疾患の種類の特定方法は、第2の形態と同様であるので、説明は省略する。疾患を特定した後、ステップST61に進む。 In step ST6, the specifying means 5 (see FIG. 13) specifies the type of disease. Since the method for identifying the type of disease is the same as in the second embodiment, description thereof is omitted. After identifying the disease, the process proceeds to step ST61.
ステップST61では、不透明度設定手段51(図13参照)が、R,G,Bのいずれかの階調で表示される各時相の画像に対して不透明度を設定する(重みを設定する)。不透明度は、R,G,Bで表示される各時相の画像に対して1/3ずつ均等に設定してもよく、所定の時相における不透明度を他の時相における不透明度よりも高い値に設定してもよい。例えば第2の時相の画像において病変が特徴的に描出されている場合には、第2の時相の画像に対する不透明度を高く設定することができる。 In step ST61, the opacity setting means 51 (see FIG. 13) sets opacity (sets a weight) for each time phase image displayed in one of R, G, and B gradations. . The opacity may be set equal to 1/3 of each time phase image displayed in R, G, B, and the opacity in a predetermined time phase may be set to be higher than the opacity in other time phases. A high value may be set. For example, when a lesion is characteristically depicted in the second time phase image, the opacity of the second time phase image can be set high.
尚、各時相の画像において、コントラストノイズ比(CNR)や信号ノイズ比(SNR)が一定であるとは限らない。このような場合、CNRやSNRに応じて不透明度を変更することが望ましい。例えば、以下の式に基づいて、CNRと不透明度の積算値が各時相で一定値になるように設定することで、実質的に均等な重みが設定される。
CNR1xT1=CNR2xT2=CNR3xT3
T1+T2+T3=1
ここで、CNRk:k番目の時相のコントラストノイズ比
Tk:k番目の時相の不透明度
In each time phase image, the contrast noise ratio (CNR) and the signal noise ratio (SNR) are not always constant. In such a case, it is desirable to change the opacity according to the CNR or SNR. For example, a substantially equal weight is set by setting the integrated value of CNR and opacity to be a constant value at each time phase based on the following equation.
CNR 1 xT 1 = CNR 2 xT 2 = CNR 3 xT 3
T 1 + T 2 + T 3 = 1
Where CNR k : contrast noise ratio of the kth time phase
T k : opacity of the kth time phase
不透明度を設定した後、ステップST62に進む。 After setting the opacity, the process proceeds to step ST62.
ステップST62では、合成手段52(図13参照)が、3D赤画像IMR(第1の時相P1)、3D緑画像IMG(第2の時相P2)、および3D青画像IMB(第3の時相P3)を合成し、合成画像を作成する。合成画像におけるRGB値は次式で決定される。
RF=T1xV1
GF=T2xV2
BF=T3xV3
ここで、RF,GF,BF:合成画像におけるRGB成分
Vk:k番目の時相の画像のボクセル値
In step ST62, the combining unit 52 (see FIG. 13) performs the 3D red image IMR (first time phase P1), the 3D green image IMG (second time phase P2), and the 3D blue image IMB (third time). Phase P3) is synthesized to create a composite image. The RGB value in the composite image is determined by the following equation.
R F = T 1 xV 1
G F = T 2 xV 2
B F = T 3 xV 3
Here, R F , G F , B F : RGB components in the composite image
Vk: voxel value of the image of the kth time phase
図15に、合成画像DFを概略的に示す。合成画像DFを作成した後、ステップST7に進む。 FIG. 15 schematically shows the composite image DF. After creating the composite image DF, the process proceeds to step ST7.
ステップST7では、表示装置に、合成画像DFと診断支援画像DSが表示される。図16に、表示装置に表示された合成画像DFと診断支援画像DSを概略的に示す。診断支援画像DSは、合成画像DFに「疾患X」の文字を重ねることにより得られた画像を表している。合成画像DFと診断支援画像DSが表示されたら、フローが終了する。 In step ST7, the composite image DF and the diagnosis support image DS are displayed on the display device. FIG. 16 schematically shows the composite image DF and the diagnosis support image DS displayed on the display device. The diagnosis support image DS represents an image obtained by superimposing characters “Disease X” on the composite image DF. When the composite image DF and the diagnosis support image DS are displayed, the flow ends.
第3の形態では、第2の形態と同様に、テーブル(図12参照)に基づいて、時相ごとに、画像のボクセル値が、各疾患に対応したボクセル値の範囲に含まれているか否かを判定することにより、疾患の種類を特定している。したがって、読影者の経験や勘に頼らずに疾患を特定することができるので、診断の客観性や再現性を向上させることができ、読影精度を格段に向上させることができる。また、第3の形態では、合成画像DFおよび診断支援画像DSは、RGB画像として表示される。したがって、読影者は、3つの時相それぞれの画像を比較しなくても読影ができるので、読影に必要な時間を短縮することができ、読影効率を向上させることが可能となる。 In the third mode, as in the second mode, based on the table (see FIG. 12), whether the voxel value of the image is included in the range of voxel values corresponding to each disease for each time phase. By determining whether or not, the type of disease is specified. Therefore, since it is possible to identify a disease without depending on the experience and intuition of the interpreter, the objectivity and reproducibility of diagnosis can be improved, and the interpretation accuracy can be greatly improved. In the third embodiment, the composite image DF and the diagnosis support image DS are displayed as RGB images. Therefore, the radiogram interpreter can interpret images without comparing the images of the three time phases, so that the time required for image interpretation can be shortened and the image interpretation efficiency can be improved.
尚、上記の例では、ステップST4(図14参照)においてROIを設定しないと決定された場合について説明されている。次に、ステップST4においてROIを設定すると決定された場合について説明する。 In the above example, the case where it is determined not to set the ROI in step ST4 (see FIG. 14) is described. Next, the case where it is determined to set the ROI in step ST4 will be described.
ステップST4において、ROIを設定すると決定された場合、ステップST5に進む。ステップST5では、ROI設定手段4(図13参照)がROIを設定する。ROIは、描画ツールを用いて設定してもよいし、描画ツールを用いずに、セグメンテーション手法などを用いて設定してもよい。ROIを設定した後、ステップST50に進む。 If it is determined in step ST4 that ROI is set, the process proceeds to step ST5. In step ST5, the ROI setting means 4 (see FIG. 13) sets the ROI. The ROI may be set using a drawing tool, or may be set using a segmentation technique or the like without using a drawing tool. After setting the ROI, the process proceeds to step ST50.
ステップST50では、決定手段53(図13参照)が、後述する合成画像DFおよび診断支援画像DS(図17参照)を生成するときに使用される背景画像DBを決定する。決定手段53は、例えば、ステップST1で読み出された3D画像のうちのいずれかの時相の3D画像や、全時相の加算平均画像など任意の演算画像を、背景画像DBとして決定することができる。背景画像DBを決定した後、ステップST51に進む。ステップST51では、RGBが割り当てられ(図11参照)、RGBを割り当てた後、ステップST6に進む。ステップST6では、特定手段5は、ステップST5で設定されたROIの範囲内のみで、疾患の種類を特定するための処理を行う。疾患の種類を特定した後、ステップST61で不透明度を設定し、ステップST62に進む。ステップST62では、合成手段52が、ステップST50で決定された背景画像を用いて合成画像を作成する。合成画像を作成した後、ステップST7に進む。ステップST7では、合成画像DFおよび診断支援画像DSが表示される。図17に、合成画像DFおよび診断支援画像DSの一例を示す。合成画像DFは、ステップST50で選択された背景画像DBに、疾患部r0の画像部分を重ねることにより生成される画像である。また、診断支援画像DSは、合成画像DFに、疾患名(疾患X)を付加することにより生成された画像である。合成画像DFおよび診断支援画像DSでは、背景画像DBに疾患部r0が重ねられているので、読影者は、疾患が現れている領域と疾患が現れていない領域とを視覚的に容易に区別することができる。 In step ST50, the determination means 53 (refer FIG. 13) determines background image DB used when producing | generating the synthetic | combination image DF and the diagnostic assistance image DS (refer FIG. 17) mentioned later. The determination unit 53 determines, for example, an arbitrary calculation image such as any one of the 3D images read out in step ST1 or an addition average image of all time phases as the background image DB. Can do. After determining the background image DB, the process proceeds to step ST51. In step ST51, RGB is assigned (see FIG. 11). After assigning RGB, the process proceeds to step ST6. In step ST6, the specifying unit 5 performs processing for specifying the type of disease only within the ROI range set in step ST5. After specifying the type of disease, opacity is set in step ST61, and the process proceeds to step ST62. In step ST62, the synthesis unit 52 creates a synthesized image using the background image determined in step ST50. After creating the composite image, the process proceeds to step ST7. In step ST7, the composite image DF and the diagnosis support image DS are displayed. FIG. 17 shows an example of the composite image DF and the diagnosis support image DS. The composite image DF is an image generated by superimposing the image part of the diseased part r0 on the background image DB selected in step ST50. The diagnosis support image DS is an image generated by adding a disease name (disease X) to the composite image DF. In the composite image DF and the diagnosis support image DS, since the diseased part r0 is superimposed on the background image DB, the image interpreter easily visually distinguishes the region where the disease appears from the region where the disease does not appear. be able to.
尚、第3の形態では不透明度Tkが設定されているが、不透明度Tkの値は、読影者によって手動で変更できるようにすることが望ましい。不透明度Tkの値を変更できるようにすることによって、合成画像DFおよび診断支援画像DSのRGBの明るさを、色ごとに個別に変更することができる。したがって、読影者は、不透明度Tkの値を調整することにより、合成画像DFおよび診断支援画像DSの明るさを、疾患を視覚的に認識するのに適した明るさに調整することが可能となる。 Although the opacity Tk is set in the third embodiment, it is desirable that the value of the opacity Tk can be manually changed by a radiographer. By making it possible to change the value of the opacity Tk, the RGB brightness of the composite image DF and the diagnosis support image DS can be individually changed for each color. Therefore, the radiogram interpreter can adjust the brightness of the composite image DF and the diagnosis support image DS to a brightness suitable for visually recognizing a disease by adjusting the value of the opacity Tk. Become.
第1〜第3の形態では、3時相の画像に基づいて疾患を特定する例について説明されている。しかし、本発明は、3時相の画像に限定されることはなく、m(≧2)時相の画像に基づいて疾患を特定する場合に適用することができる。 In the first to third embodiments, examples in which a disease is specified based on an image of three time phases are described. However, the present invention is not limited to images of three time phases, and can be applied to a case where a disease is specified based on images of m (≧ 2) time phases.
第1〜第3の形態では、造影撮影により得られた複数の画像に基づいて疾患を特定する例について説明されている。しかし、本発明では、疾患を特定するために使用される画像は、異なる時相において得られた画像であればよく、造影撮影により得られた画像に限定されることは無い。 In the first to third embodiments, examples of specifying a disease based on a plurality of images obtained by contrast imaging are described. However, in the present invention, an image used for specifying a disease may be an image obtained in a different time phase, and is not limited to an image obtained by contrast imaging.
尚、第1〜第3の形態の画像処理装置1に、第1の形態で使用されているテーブルの情報を更新するための更新手段を備えてもよい。テーブルの情報を更新することにより、疾患の種類を、より高い精度で特定することが可能となる。テーブルの情報の更新は、ユーザが手動で行ってもよく、機械学習の手法を用いて自動的に行ってもよい。 Note that the image processing apparatus 1 according to the first to third embodiments may be provided with an updating unit for updating the information in the table used in the first embodiment. By updating the information in the table, it is possible to specify the type of disease with higher accuracy. The table information may be updated manually by the user or automatically using a machine learning method.
また、第1〜第3の形態では、3D画像に基づいて鑑別診断を行う方法について説明されている。しかし、3D画像の代わりに2D画像に基づいて鑑別診断を行ってもよい。2D画像を用いる場合には、各時相の2D画像のピクセル値に基づいて、疾患の種類を特定することができる。尚、2D画像を用いる場合には、各疾患とピクセル値の範囲との対応関係を表すテーブルを用いることにより、撮影部位の疾患の種類を特定することができる。 Moreover, the 1st-3rd form demonstrates the method of performing a differential diagnosis based on 3D image. However, differential diagnosis may be performed based on 2D images instead of 3D images. When a 2D image is used, the type of disease can be specified based on the pixel value of the 2D image at each time phase. In the case of using a 2D image, it is possible to specify the type of the disease at the imaging site by using a table representing the correspondence between each disease and the range of pixel values.
1 画像処理装置
2 前処理手段
3 位置合せ手段
4 ROI設定手段
5 特定手段
41 割当手段
51 不透明度設定手段
52 合成手段
53 決定手段
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Preprocessing means 3 Positioning means 4 ROI setting means 5 Specification means 41 Assignment means 51 Opacity setting means 52 Composition means 53 Determination means
Claims (13)
前記画像ごとに、前記撮影部位内の第1の部分に対応するボクセル値を求め、前記画像ごとに求められた前記第1の部分に対応するボクセル値に基づいて、前記撮影部位の前記第1の部分における疾患の種類を特定する特定手段を有する画像処理装置。 An image processing apparatus that processes a plurality of images of imaging regions obtained at different time phases,
For each image, a voxel value corresponding to a first portion in the imaging region is obtained, and the first of the imaging region is determined based on the voxel value corresponding to the first portion obtained for each image. An image processing apparatus having a specifying means for specifying the type of disease in the portion.
前記時相ごとに複数の疾患の各々とボクセル値との対応関係を表すテーブルを用いて、前記画像ごとに求められた前記第1の部分に対応するボクセル値が、前記複数の疾患のうちのどの疾患のボクセル値に該当するかを判定し、この判定結果に基づいて、前記撮影部位の前記第1の部分における疾患の種類を特定する、請求項1に記載の画像処理装置。 The specifying means is:
Using a table representing a correspondence relationship between each of a plurality of diseases and a voxel value for each time phase, a voxel value corresponding to the first portion obtained for each image is calculated from among the plurality of diseases. The image processing apparatus according to claim 1, wherein a disease voxel value is determined and a disease type in the first portion of the imaging region is specified based on the determination result.
前記特定手段は、
前記画像ごとに、前記関心領域内の第1の部分に対応するボクセル値を求め、前記画像ごとに求められた前記第1の部分に対応するボクセル値に基づいて、前記関心領域内の前記第1の部分における疾患の種類を特定する、請求項1又は2に記載の画像処理装置。 Setting means for setting the region of interest of the imaging region;
The specifying means is:
For each image, a voxel value corresponding to a first portion in the region of interest is determined, and based on the voxel value corresponding to the first portion determined for each image, the first in the region of interest. The image processing apparatus according to claim 1, wherein a type of a disease in one portion is specified.
前記画像ごとに、前記撮影部位内の第1の部分に対応するピクセル値を求め、前記画像ごとに求められた前記第1の部分に対応するピクセル値に基づいて、前記撮影部位の前記第1の部分における疾患の種類を特定する特定手段を有する画像処理装置。 An image processing apparatus that processes a plurality of images of imaging regions obtained at different time phases,
For each image, a pixel value corresponding to a first portion in the imaging region is determined, and the first value of the imaging region is determined based on the pixel value corresponding to the first portion determined for each image. An image processing apparatus having a specifying means for specifying the type of disease in the portion.
前記時相ごとに複数の疾患の各々とピクセル値との対応関係を表すテーブルを用いて、前記画像ごとに求められた前記第1の部分に対応するピクセル値が、前記複数の疾患のうちのどの疾患のピクセル値に該当するかを判定し、この判定結果に基づいて、前記撮影部位の前記第1の部分における疾患の種類を特定する、請求項4に記載の画像処理装置。 The specifying means is:
A pixel value corresponding to the first portion determined for each image is obtained from the plurality of diseases by using a table representing a correspondence relationship between each of the plurality of diseases and the pixel value for each time phase. The image processing apparatus according to claim 4, wherein a disease value corresponding to a pixel value is determined, and a disease type in the first portion of the imaging region is specified based on the determination result.
前記特定手段は、
前記画像ごとに、前記関心領域内の第1の部分に対応するピクセル値を求め、前記画像ごとに求められた前記第1の部分に対応するピクセル値に基づいて、前記関心領域の第1の部分における疾患の種類を特定する、請求項4又は5に記載の画像処理装置。 Setting means for setting the region of interest of the imaging region;
The specifying means is:
For each image, a pixel value corresponding to a first portion in the region of interest is determined, and a first value of the region of interest is determined based on the pixel value corresponding to the first portion determined for each image. The image processing apparatus according to claim 4, wherein the type of disease in the part is specified.
前記特定手段は、
位置合せされた前記複数の画像に基づいて、前記撮影部位の前記第1の部分における疾患の種類を特定する、請求項1〜9のうちのいずれか一項に記載の画像処理装置。 Alignment means for aligning the plurality of images;
The specifying means is:
The image processing apparatus according to claim 1, wherein a type of a disease in the first portion of the imaging region is specified based on the plurality of images that have been aligned.
前記画像ごとに、前記撮影部位内の第1の部分に対応するボクセル値を求め、前記画像ごとに求められた前記第1の部分に対応するボクセル値に基づいて、前記撮影部位の前記第1の部分における疾患の種類を特定する特定処理、
をコンピュータに実行させるためのプログラム。 A program applied to an image processing apparatus that processes a plurality of images of imaging regions obtained in different time phases,
For each image, a voxel value corresponding to a first portion in the imaging region is obtained, and the first of the imaging region is determined based on the voxel value corresponding to the first portion obtained for each image. Specific processing to identify the type of disease in the part of
A program that causes a computer to execute.
前記画像ごとに、前記撮影部位内の第1の部分に対応するピクセル値を求め、前記画像ごとに求められた前記第1の部分に対応するピクセル値に基づいて、前記撮影部位の前記第1の部分における疾患の種類を特定する特定処理、
をコンピュータに実行させるためのプログラム。
A program applied to an image processing apparatus that processes a plurality of images of imaging regions obtained in different time phases,
For each image, a pixel value corresponding to a first portion in the imaging region is determined, and the first value of the imaging region is determined based on the pixel value corresponding to the first portion determined for each image. Specific processing to identify the type of disease in the part of
A program that causes a computer to execute.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016129031A JP2018000374A (en) | 2016-06-29 | 2016-06-29 | Image processor and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016129031A JP2018000374A (en) | 2016-06-29 | 2016-06-29 | Image processor and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018000374A true JP2018000374A (en) | 2018-01-11 |
Family
ID=60945119
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016129031A Pending JP2018000374A (en) | 2016-06-29 | 2016-06-29 | Image processor and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018000374A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023106227A (en) * | 2022-01-20 | 2023-08-01 | 京セラ株式会社 | Depth information processing device, depth distribution estimation method, depth distribution detection system, and trained model generation method |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004222864A (en) * | 2003-01-21 | 2004-08-12 | Mitsubishi Research Institute Inc | Diagnosis support system, diagnosis support method, and diagnosis support program |
| JP2008531082A (en) * | 2005-02-23 | 2008-08-14 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Ultrasound diagnostic imaging system and method for detecting liver damage |
| JP2010005263A (en) * | 2008-06-30 | 2010-01-14 | Toshiba Corp | Image processing device, ultrasonic diagnosing apparatus, and image processing program |
| JP2010119831A (en) * | 2008-10-24 | 2010-06-03 | Toshiba Corp | Image display apparatus, image display method, and magnetic resonance imaging apparatus |
| US20150310638A1 (en) * | 2014-04-23 | 2015-10-29 | Ge Medical Systems Global Technology Company, Llc. | System and method of medical imaging |
-
2016
- 2016-06-29 JP JP2016129031A patent/JP2018000374A/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004222864A (en) * | 2003-01-21 | 2004-08-12 | Mitsubishi Research Institute Inc | Diagnosis support system, diagnosis support method, and diagnosis support program |
| JP2008531082A (en) * | 2005-02-23 | 2008-08-14 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Ultrasound diagnostic imaging system and method for detecting liver damage |
| JP2010005263A (en) * | 2008-06-30 | 2010-01-14 | Toshiba Corp | Image processing device, ultrasonic diagnosing apparatus, and image processing program |
| JP2010119831A (en) * | 2008-10-24 | 2010-06-03 | Toshiba Corp | Image display apparatus, image display method, and magnetic resonance imaging apparatus |
| US20150310638A1 (en) * | 2014-04-23 | 2015-10-29 | Ge Medical Systems Global Technology Company, Llc. | System and method of medical imaging |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023106227A (en) * | 2022-01-20 | 2023-08-01 | 京セラ株式会社 | Depth information processing device, depth distribution estimation method, depth distribution detection system, and trained model generation method |
| JP7727563B2 (en) | 2022-01-20 | 2025-08-21 | 京セラ株式会社 | Depth information processing device, depth distribution estimation method, depth distribution detection system, and trained model generation method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6636678B2 (en) | Learning to annotate objects in images | |
| TWI766303B (en) | Measurement system, method for generating learning model used in image measurement of semiconductor including specific structure, and storage useful for computer to generate learning used in image measurement of semiconductor including specific structure The recording medium of the model processing program | |
| JP5371949B2 (en) | Medical image display device, medical image photographing device, and medical image display method | |
| JP3838954B2 (en) | Medical video processing system and processing method | |
| CN104644202B (en) | Medical image data processing apparatus, medical image data processing method and medical image data processing routine | |
| US20150287188A1 (en) | Organ-specific image display | |
| CN104240271B (en) | Medical image-processing apparatus | |
| US10140715B2 (en) | Method and system for computing digital tomosynthesis images | |
| US20180108169A1 (en) | Image rendering apparatus and method | |
| JP6886887B2 (en) | Error calculator and its program | |
| CN102024270A (en) | Interactive changing of the depiction of an object displayed using volume rendering | |
| JP2013103023A (en) | Image diagnostic support device and image diagnostic support method | |
| WO2019220825A1 (en) | Chest x-ray image tone scale conversion method, image tone scale conversion program, image tone scale conversion device, server device, and conversion method | |
| JP2017189460A (en) | Medical image processor, medical image processing method and medical image processing program | |
| JP2015128545A (en) | Visualization device, visualization program, and visualization method | |
| JP2016202319A (en) | Medical image processing device, medical image processing method, and medical image processing program | |
| JP6564075B2 (en) | Selection of transfer function for displaying medical images | |
| JP2018000374A (en) | Image processor and program | |
| WO2009122724A1 (en) | Image processing device and method, and program | |
| CA2674104A1 (en) | Method and graphical user interface for modifying depth maps | |
| US11348289B2 (en) | Medical image display device and medical image display system for superimposing analyzed images | |
| US9451934B2 (en) | Method, apparatus, and ultrasonic machine for generating a fused ultrasonic image | |
| JP2014000182A (en) | Medical image generating device and program | |
| Massey | Creating AustinMan: an electromagnetic voxel model of the visible human | |
| JP2007190208A (en) | Comparative diagnostic reading support system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190530 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190620 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200304 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200317 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201020 |