JPH0896125A - Medical image display device - Google Patents
Medical image display deviceInfo
- Publication number
- JPH0896125A JPH0896125A JP25953994A JP25953994A JPH0896125A JP H0896125 A JPH0896125 A JP H0896125A JP 25953994 A JP25953994 A JP 25953994A JP 25953994 A JP25953994 A JP 25953994A JP H0896125 A JPH0896125 A JP H0896125A
- Authority
- JP
- Japan
- Prior art keywords
- density
- image
- value
- pixels
- window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Image Input (AREA)
- Image Processing (AREA)
- Controls And Circuits For Display Device (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
(57)【要約】
【目的】 バックグランド部の影響を軽減したウィンド
ウ・ウィドゥスとウィンドウ・レベルを求め、医師の診
断対象部位のコントラスト調整を適正に行う。
【構成】 画素取り出し部2は画像診断機器1で撮像さ
れた画像から任意に抽出した複数個の画素の各濃度値を
所定のしきい値と比較してしきい値以上または以下の濃
度値を持つ画素を取り出し、濃度ヒストグラム作成部3
は取り出された画素について濃度ヒストグラムを作成す
る。学習部6は多種多様の画像について上述のように作
成された濃度ヒストグラムに基づきニューラルネットワ
ーク4の荷重を学習して決定し、ニューラルネットワー
ク4は学習の結果決定された荷重を用い、撮像された画
像について上述のように作成された濃度ヒストグラムデ
ータを荷重和計算し、ウィンドウ・ウィドゥスとウィン
ドウ・レベルとを出力する。
(57) [Summary] [Purpose] Obtain the window window and window level that reduce the influence of the background, and appropriately adjust the contrast of the part to be diagnosed by the doctor. A pixel extraction unit 2 compares each density value of a plurality of pixels arbitrarily extracted from an image captured by an image diagnostic device 1 with a predetermined threshold value and determines a density value above or below the threshold value. Take out the pixels it has and create the density histogram creation unit 3
Creates a density histogram for the extracted pixels. The learning unit 6 learns and determines the weight of the neural network 4 based on the density histogram created as described above with respect to various types of images, and the neural network 4 uses the weight determined as a result of the learning to capture the imaged image. With respect to the density histogram data created as described above, the weighted sum is calculated, and the window width and the window level are output.
Description
【0001】[0001]
【産業上の利用分野】この発明は、X線CT装置や磁気
共鳴断層撮像装置(MRI装置)などの画像診断機器を
用いて撮像された被検体の画像を表示する医療用画像表
示装置に係り、特には、表示される画像のコントラスト
を調整するための技術に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a medical image display apparatus for displaying an image of a subject imaged by using an image diagnostic apparatus such as an X-ray CT apparatus or a magnetic resonance tomography apparatus (MRI apparatus). In particular, it relates to a technique for adjusting the contrast of a displayed image.
【0002】[0002]
【従来の技術】従来のこの種の医療用画像表示装置とし
て、例えば、本願出願人が特開平5-61973 号公報におい
て提案したもの等がある。この従来装置は、画像診断機
器で撮像された画像の濃度ヒストグラムを作成する手段
と、作成された濃度ヒストグラムのデータを荷重和計算
してウィンドウ・ウィドゥス(以下、WWと略す)とウ
ィンドウ・レベル(以下、WLと略す)とを出力するニ
ューラルネットワークと、ニューラルネットワークの荷
重を多種多様の画像の濃度ヒストグラムに基いて学習し
決定する学習手段とを備えている。2. Description of the Related Art As a conventional medical image display device of this type, there is, for example, one proposed by the applicant of the present application in Japanese Patent Laid-Open No. 5-61973. This conventional apparatus is a means for creating a density histogram of an image picked up by an image diagnostic device, a weighted sum calculation of the created density histogram data, and a window window (hereinafter abbreviated as WW) and a window level (abbreviated as WW). Hereinafter, a neural network for outputting (hereinafter, abbreviated as WL) and a learning unit for learning and determining the weight of the neural network based on density histograms of various images.
【0003】ここで、WWとWLとを図17を参照して
説明する。図17は画像診断機器で撮像された被検体の
画像の濃度ヒストグラムを例示している。周知のとお
り、濃度ヒストグラムは画像の各画素の濃度値を取り出
し、その濃度値をカウントして作成される。このような
濃度ヒストグラムで表される画像を表示する装置として
CRTディスプレイを用いた場合、CRTディスプレイ
の表示階調値は一般に 256階調であるから、濃度ヒスト
グラムの横軸である濃度値の幅は最小値から最大値にか
けて 256分割される。上記のWWはこの濃度値の幅を任
意に設定するためのパラメータで、WLはWWの中心値
のことを示している。Now, WW and WL will be described with reference to FIG. FIG. 17 exemplifies a density histogram of the image of the subject imaged by the image diagnostic apparatus. As is well known, a density histogram is created by extracting the density value of each pixel of an image and counting the density value. When a CRT display is used as a device for displaying an image represented by such a density histogram, since the display gradation value of the CRT display is generally 256 gradations, the width of the density value on the horizontal axis of the density histogram is It is divided into 256 from the minimum value to the maximum value. The above WW is a parameter for arbitrarily setting the width of this density value, and WL indicates the central value of WW.
【0004】コントラスト調整は、診断したい部位(例
えば、病巣部位)と、その周囲の部位との明暗差を明確
にする方向で行われる。いま、図17に示した濃度ヒス
トグラムのAの領域の明暗差を明確にしたいとする。上
述のように、濃度ヒストグラムの濃度値は全体で 256分
割されているが、この領域Aの部分の濃度値を 256分割
すれば領域A内の濃度差は顕著になり明暗差は明確にな
る。すなわち、WWをその領域Aに設定し、WLをその
中心値に設定すればよい。The contrast adjustment is performed in the direction of clarifying the difference in brightness between the site to be diagnosed (for example, a lesion site) and the surrounding site. Now, it is assumed that the difference in brightness between areas A in the density histogram shown in FIG. 17 is to be made clear. As described above, the density value of the density histogram is divided into 256 as a whole. However, if the density value of the area A is divided into 256, the density difference in the area A becomes remarkable and the light-dark difference becomes clear. That is, WW may be set to the area A, and WL may be set to the center value.
【0005】上述した従来装置では、まず、学習手段
が、多種多様な画像の濃度ヒストグラムに基づき学習し
てニューラルネットワークの荷重を予め決定しておく。
そして、本番処理では、決定された荷重を用い、ニュー
ラルネットワークが、作成された画像の濃度ヒストグラ
ムデータを荷重和計算してWWとWLとを求めて出力し
ている。これにより、多種多様な画像に対してそれぞれ
適切なWWとWLとを得るように構成している。In the above-mentioned conventional apparatus, first, the learning means preliminarily determines the weight of the neural network by learning based on the density histograms of various images.
Then, in the production process, the neural network uses the determined weight and calculates the weight sum of the density histogram data of the created image to obtain WW and WL and outputs them. With this, it is configured to obtain appropriate WW and WL for various images.
【0006】[0006]
【発明が解決しようとする課題】しかしながら、このよ
うな構成を有する従来例の場合には、次のような問題が
ある。すなわち、従来装置のヒストグラム作成手段は、
多種多様な画像から複数個(例えば、4096個)の画
素(以下、サンプリング画素という)を任意に抽出し、
それらサンプリング画素の濃度値について濃度ヒストグ
ラムを作成し、学習手段による荷重の決定や、ニューラ
ルネットワークでのWW、WLの算出を行っている。し
かしながら、従来装置では、撮像条件や撮像部位を違え
て撮像された画像の濃度ヒストグラムを作成するので、
このサンプリング画素には、医師が診断する際に観察す
る部位(例えば、病巣部位)と無関係なバックグランド
部(何も写っていない領域)を構成する画素が含まれる
ことが避けられない。このようなサンプリング画素につ
いて作成された濃度ヒストグラムに基づき、ニューラル
ネットワークの荷重を決定し、その荷重によってニュー
ラルネットワークでWW、WLを求めると、WW、WL
にバックグランド部を構成する画素の濃度値が加味され
る。その結果、従来装置による画像のコントラスト調整
では、医師が診断する部位のコントラストが適正に調整
されない。However, the conventional example having such a structure has the following problems. That is, the histogram creating means of the conventional device is
A plurality of (for example, 4096) pixels (hereinafter referred to as sampling pixels) are arbitrarily extracted from various images,
A density histogram is created for the density values of these sampling pixels, the learning means determines the weight, and the neural network calculates WW and WL. However, in the conventional device, since the density histogram of the image captured by changing the image capturing condition or the image capturing site is created,
It is unavoidable that the sampling pixels include pixels forming a background portion (a region where nothing is imaged) unrelated to a site (for example, a lesion site) observed by a doctor during diagnosis. Based on the density histogram created for such sampling pixels, the weight of the neural network is determined, and WW and WL are calculated by the neural network based on the weight.
Is added with the density value of the pixels forming the background portion. As a result, the contrast adjustment of the image by the conventional device does not properly adjust the contrast of the part diagnosed by the doctor.
【0007】従来装置では、上記サンプリング画素は、
例えば、画像に複数の縦線と横線とを碁盤目状に仮想的
に引いたときの各縦線と各横線との交点に当たる画素を
選択する等、画像の全体からまんべんなく選択するよう
に抽出している。このような抽出方法では、各画像から
抽出するサンプリング画素に含まれるバックグランド部
を構成する画素の割合をある程度低くできる可能性はあ
るが、各画像から抽出するサンプリング画素にバックグ
ランド部を構成する画素がまんべんまく含まれ易くな
る。In the conventional device, the sampling pixel is
For example, selecting a pixel that corresponds to the intersection of each vertical line and each horizontal line when a plurality of vertical lines and horizontal lines are virtually drawn in a grid pattern on the image is extracted so that the entire image is selected evenly. ing. With such an extraction method, there is a possibility that the ratio of the pixels forming the background part included in the sampling pixels extracted from each image can be lowered to some extent, but the background part is formed on the sampling pixels extracted from each image. Pixels are likely to be included evenly.
【0008】そこで、例えば、脳の断層画像等では、診
断対象部位を含む組織部が画像の真ん中付近に写し出さ
れるので、サンプリング画素を画像の真ん中付近から抽
出すると、脳などの画像から抽出するサンプリング画素
に含まれるバックグランド部を構成する画素の割合をき
わめて低くできるが、例えば、両膝の画像などでは、逆
に画像の真ん中付近にバックグランド部が写し出される
ので、このような画像から抽出するサンプリング画素に
含まれるバックグランド部を構成する画素の割合は高く
なる。Therefore, for example, in a tomographic image of the brain, etc., the tissue portion including the diagnosis target portion is projected in the vicinity of the center of the image. Therefore, when sampling pixels are extracted from the vicinity of the center of the image, sampling is performed from the image of the brain or the like. Although the ratio of the pixels forming the background portion included in the pixels can be made extremely low, for example, in the case of images of both knees, the background portion is projected in the vicinity of the center of the image, so it is extracted from such an image. The ratio of the pixels forming the background portion included in the sampling pixels is high.
【0009】また、従来装置で扱う画像は、撮像条件や
撮像部位を違えた多種多様な画像であるので、これら撮
像条件や撮像部位によって、各画像のどこがバックグラ
ンド部であるかを自動的に認識し、各画像からバックグ
ランド部を構成する画素を外した画素の抽出を自動的に
行うことは困難である。Further, since the images handled by the conventional apparatus are various images with different image pickup conditions and image pickup parts, it is automatically determined which part of each image is the background portion according to these image pickup conditions and image pickup parts. It is difficult to recognize and automatically extract the pixels excluding the pixels forming the background portion from each image.
【0010】従って、従来装置の構成では、求められる
WW、WLからバックグランド部の影響を排除するのは
困難であり、医師の診断対象部位のコントラスト調整を
適正に行うことは難しい。Therefore, with the configuration of the conventional device, it is difficult to eliminate the influence of the background portion from the required WW and WL, and it is difficult to properly adjust the contrast of the diagnosis target portion of the doctor.
【0011】この発明は、このような事情に鑑みてなさ
れたものであって、バックグランド部の影響を軽減した
ウィンドウ・ウィドゥスとウィンドウ・レベルを求め、
医師の診断対象部位のコントラスト調整を適正に行うこ
とができる医療用画像表示装置を提供することを目的と
する。The present invention has been made in view of the above circumstances, and seeks a window window and window level in which the influence of the background portion is reduced,
An object of the present invention is to provide a medical image display device capable of appropriately adjusting the contrast of a diagnosis target site of a doctor.
【0012】[0012]
【課題を解決するための手段】この発明は、このような
目的を達成するために、次のような構成をとる。すなわ
ち、この発明は、画像診断機器で撮像された画像のコン
トラスト調整用の2つのパラメータ、すなわち、前記画
像を表示する際の濃度値の幅を任意に設定するためのウ
ィンドウ・ウィドゥスと、前記ウィンドウ・ウィドゥス
の中心値を設定するためのウィンドウ・レベルとを、表
示画像に対して設定する医療用画像表示装置であって、
(a)前記画像診断機器で撮像された画像から任意に抽
出した複数個の画素の各濃度値、または、前記画像を区
分した各区分の濃度値を、所定のしきい値と比較して、
前記しきい値以上または以下の濃度値を持つ画素、また
は、区分を取り出す画素/区分取り出し手段と、(b)
前記画素/区分取り出し手段で取り出した画素、また
は、区分について、前記画像の濃度ヒストグラムを作成
する濃度ヒストグラム作成手段と、(c)前記作成され
た濃度ヒストグラムのデータを荷重和計算して前記ウィ
ンドウ・ウィドゥスとウィンドウ・レベルとを出力する
ニューラルネットワークと、(d)前記ニューラルネッ
トワークの荷重を多種多様の画像の濃度ヒストグラムに
基づいて学習し決定する学習手段とを備えたものであ
る。The present invention has the following constitution in order to achieve such an object. That is, the present invention provides two parameters for adjusting the contrast of an image captured by an image diagnostic apparatus, that is, a window window for arbitrarily setting the width of the density value when the image is displayed, and the window. A medical image display device for setting a window level for setting the central value of Widus and a display image,
(A) Each density value of a plurality of pixels arbitrarily extracted from the image captured by the image diagnostic apparatus, or the density value of each section obtained by dividing the image is compared with a predetermined threshold value,
Pixels / section extracting means for extracting pixels or sections having density values above or below the threshold value, and (b)
Density histogram creating means for creating a density histogram of the image with respect to the pixels or sections extracted by the pixel / section extracting means; and (c) a weighted sum calculation of the created density histogram data A neural network for outputting the window and the window level, and (d) learning means for learning and determining the weight of the neural network based on the density histograms of various images.
【0013】[0013]
【作用】この発明の作用は次のとおりである。画素/区
分取り出し手段は、画像診断機器で撮像された画像から
任意に抽出した複数個の画素の各濃度値、または、画像
を区分した各区分の濃度値を、所定のしきい値と比較し
て、しきい値以上または以下の濃度値を持つ画素、また
は、区分を取り出す。この取り出された画素、または、
区分について、濃度ヒストグラム作成手段は、画像の濃
度ヒストグラムを作成する。そして、学習手段は、多種
多様の画像について、上述したように作成された濃度ヒ
ストグラムに基づいてニューラルネットワークの荷重を
学習して決定し、ニューラルネットワークは学習の結果
決定された荷重を用いて、撮像された画像について、上
述したように作成された濃度ヒストグラムデータを荷重
和計算し、ウィンドウ・ウィドゥスとウィンドウ・レベ
ルとを出力する。The operation of the present invention is as follows. The pixel / section extracting means compares each density value of a plurality of pixels arbitrarily extracted from the image picked up by the image diagnostic apparatus, or the density value of each section into which the image is divided, with a predetermined threshold value. Then, pixels or sections having density values above or below the threshold value are extracted. This extracted pixel, or
For the classification, the density histogram creating means creates a density histogram of the image. Then, the learning means learns and determines the weight of the neural network based on the density histogram created as described above for various types of images, and the neural network uses the weight determined as a result of the learning to capture an image. The density histogram data created as described above is weighted and summed for the created image, and the window width and the window level are output.
【0014】ここで、しきい値を適切に決めてやること
により、画素/区分取り出し手段では、診断に無関係な
バックグランド部を構成する画素、または、区分を排除
でき、濃度ヒストグラム作成手段では、診断対象部位を
含む組織部を構成する画素、または、区分について濃度
ヒストグラムを作成することができる。Here, by appropriately determining the threshold value, the pixel / section extracting means can eliminate the pixels or the sections constituting the background portion unrelated to the diagnosis, and the density histogram creating means, A density histogram can be created for pixels or sections that constitute a tissue part including a diagnosis target site.
【0015】[0015]
【実施例】以下、図面を参照してこの発明の一実施例を
説明する。図1は、この発明の第1実施例に係る医療用
画像表示装置の概略構成を示すブロック図である。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. 1 is a block diagram showing a schematic configuration of a medical image display apparatus according to a first embodiment of the present invention.
【0016】この実施例装置は、X線CT装置やMRI
装置などの画像診断機器1で撮像された被検体の画像か
ら任意に抽出した複数個の画素の各濃度値を、所定のし
きい値と比較して、しきい値以上または以下の濃度値を
持つ画素を取り出す画素取り出し部2と、画素取り出し
部2で取り出された画素について濃度ヒストグラムを求
める濃度ヒストグラム作成部3と、作成された濃度ヒス
トグラムのデータを荷重和計算してWW,WLの値を求
めるニューラルコンピュータ4(以下では、これをニュ
ーラルネットワーク4と称する)と、乱数発生器5と、
ニューラルネットワーク4の荷重を学習により決定する
学習部6と、規格化処理部9と、ニューラルネットワー
ク5からの出力を逆規格化する逆規格化処理部10と、
ニューラルネットワーク4で求められ、逆規格化処理部
10で逆規格化されたWW,WLの値を用いて画像のコ
ントラスト調整を行うコントラスト設定部7と、画像を
表示するCRTディスプレイ8などで構成されている。The apparatus of this embodiment is an X-ray CT apparatus and an MRI.
Each density value of a plurality of pixels arbitrarily extracted from the image of the subject imaged by the image diagnostic device 1 such as a device is compared with a predetermined threshold value, and the density value above or below the threshold value is determined. A pixel extraction unit 2 that extracts the pixels that it has, a density histogram creation unit 3 that obtains a density histogram for the pixels extracted by the pixel extraction unit 2, a weighted sum calculation of the created density histogram data, and the values of WW and WL are calculated. A desired neural computer 4 (hereinafter referred to as a neural network 4), a random number generator 5,
A learning unit 6 that determines the weight of the neural network 4 by learning, a normalization processing unit 9, and a denormalization processing unit 10 that denormalizes the output from the neural network 5.
Consists of a contrast setting unit 7 for adjusting the contrast of the image using the values of WW and WL obtained by the neural network 4 and denormalized by the denormalization processing unit 10, and a CRT display 8 for displaying the image. ing.
【0017】この発明の要部である、画素/区分取り出
し手段に相当する画素取り出し部2は、まず、画像診断
機器1で撮像された被検体の画像から複数個(例えば、
4096個)の画素を任意に抽出する。抽出方法に特に
制限はないが、ここでは、例えば、画像に複数の縦線と
横線とを碁盤目状に仮想的に引いたときの各縦線と各横
線との交点に当たる画素を選択し、画像の全体からまん
べんなく画素を選択するように抽出する。First, a plurality of pixel extraction units 2 corresponding to the pixel / section extraction unit, which is a main part of the present invention, are extracted from the image of the subject imaged by the image diagnostic apparatus 1 (for example,
(4096 pixels) are arbitrarily extracted. There is no particular limitation on the extraction method, but here, for example, a plurality of vertical lines and horizontal lines are selected on the image to select the pixels corresponding to the intersections of each vertical line and each horizontal line when virtually drawn in a grid pattern, Extract so that pixels are evenly selected from the entire image.
【0018】次に、抽出した各画素につき、それぞれの
濃度値を、所定のしきい値と比較して、しきい値以上ま
たは以下の濃度値を持つ画素を取り出す。ここで、通常
の画像では、診断対象になる部位(病巣部位等)を構成
する画素の濃度値は、診断に無関係なバックグランド部
を構成する画素の濃度値よりも大きいので、このバック
グランド部を構成する画素の濃度値を排除し得る下限値
を決め、この下限値をしきい値として、しきい値以上の
濃度値を持つ画素のみを取り出す。Next, with respect to each of the extracted pixels, each density value is compared with a predetermined threshold value, and pixels having a density value above or below the threshold value are extracted. Here, in a normal image, the density value of the pixels forming the part to be diagnosed (lesion site, etc.) is larger than the density value of the pixels forming the background part irrelevant to the diagnosis. The lower limit value that can eliminate the density value of the pixels constituting the above is determined, and with this lower limit value as the threshold value, only the pixels having the density value equal to or higher than the threshold value are extracted.
【0019】この場合、例えば、図2に示すように、抽
出した4096個の画素の最大濃度値と最小濃度値を探
し、この最大濃度値MAXと最小濃度値MINとの濃度
幅を100%とし、それに対して最小濃度値MINから
n%(例えば、n=10程度)に相当する濃度値SL
を、しきい値として決める。そして、抽出した4096
個の画素のうち、このしきい値(SL)未満の濃度値を
持つ画素を排除し、それ以外の画素のみを取り出す。な
お、上記nは、バックグランド部を構成する画素を有効
に排除することができる値を、例えば、実験的に求めて
おけばよいが、上記したように、n=10程度とするこ
とで、バックグランド部を構成する画素はおおよそ排除
することができ、後述するように、ニューラルネットワ
ーク4で求めるWW、WLに対するバックグランド部の
影響を軽減することができる。In this case, for example, as shown in FIG. 2, the maximum density value and the minimum density value of the extracted 4096 pixels are searched for, and the density width between the maximum density value MAX and the minimum density value MIN is set to 100%. , The density value SL corresponding to n% (for example, n = 10) from the minimum density value MIN.
Is determined as the threshold value. And extracted 4096
Pixels having a density value less than the threshold value (SL) are excluded from the individual pixels, and only the other pixels are extracted. It should be noted that the above-mentioned n may be obtained by, for example, experimentally obtaining a value capable of effectively excluding the pixels forming the background portion. However, as described above, by setting n = 10, Pixels forming the background portion can be almost eliminated, and as will be described later, the influence of the background portion on WW and WL obtained by the neural network 4 can be reduced.
【0020】ところで、撮像条件によっては、診断対象
になる部位を構成する画素の濃度値とバックグランド部
を構成する画素の濃度値との大小が、逆になる場合があ
る。この場合には、このバックグランド部を構成する画
素の濃度値を排除し得る上限値を決め、この上限値をし
きい値として、しきい値以下の濃度値を持つ画素のみを
取り出す。By the way, depending on the imaging conditions, there are cases where the density values of the pixels forming the part to be diagnosed and the density values of the pixels forming the background part are opposite. In this case, an upper limit value that can eliminate the density value of the pixels forming the background portion is determined, and with this upper limit value as a threshold value, only pixels having a density value below the threshold value are extracted.
【0021】この場合、上述の場合と逆に、抽出した4
096個の画素の最大濃度値と最小濃度値との濃度幅を
100%とし、それに対して最大濃度値MAXからm%
(例えば、m=10程度)に相当する濃度値を、しきい
値として決め、抽出した4096個の画素のうち、この
しきい値を越える濃度値を持つ画素を排除し、それ以外
の画素のみを取り出す。なお、上記mも、バックグラン
ド部を構成する画素を有効に排除することができる値
を、例えば、実験的に求めておけばよい。In this case, contrary to the above case, the extracted 4
The density width between the maximum density value and the minimum density value of 096 pixels is set to 100%, and the maximum density value MAX to m%
A density value corresponding to (for example, m = 10) is determined as a threshold value, and among the extracted 4096 pixels, pixels having a density value exceeding this threshold value are excluded, and only other pixels are excluded. Take out. It should be noted that for the above-mentioned m as well, a value that can effectively exclude the pixels forming the background portion may be obtained experimentally, for example.
【0022】なお、例えば、X線CT装置で得られる画
像では、濃度値に相当するCT値に基づき、バックグラ
ンド部を排除することになるが、この場合、バックグラ
ンド部のCT値は予め判っているので、バックグランド
部のCT値を排除できるCT値を上記しきい値として決
めればよい。For example, in the image obtained by the X-ray CT apparatus, the background portion is excluded based on the CT value corresponding to the density value. In this case, the CT value of the background portion is known in advance. Therefore, the CT value that can eliminate the CT value in the background portion may be determined as the threshold value.
【0023】次に、濃度ヒストグラム作成手段に相当す
る濃度ヒストグラム作成部3では、画素取り出し部2で
取り出された画素、すなわち、バックグランド部を構成
する画素を含まない、診断対象の部位を含む組織部等を
構成する画素を受け取り、これら画素について、同じ濃
度値を持つ画素をカウントし、例えば図17に示したよ
うな濃度ヒストグラムを作成する。Next, in the density histogram creating section 3 corresponding to the density histogram creating means, the tissue extracted from the pixel extracting section 2, that is, the tissue including the site to be diagnosed, which does not include the pixels forming the background section, is included. Pixels forming a copy are received, pixels having the same density value are counted, and a density histogram as shown in FIG. 17, for example, is created.
【0024】そして、濃度ヒストグラムの濃度値の最小
値から最大値までの幅を、例えば30分割する。これは後
述するニューラルネットワーク4の入力層Aのニューロ
ンNAn(図5参照)の個数に対応させるためで、各分
割領域毎にカウント数の平均を計算したものを分割領域
のカウント数とする。Then, the width from the minimum value to the maximum value of the density value of the density histogram is divided into, for example, 30. This is to correspond to the number of neurons NAn (see FIG. 5) of the input layer A of the neural network 4 described later, and the average of the count numbers for each divided region is calculated as the counted number of divided regions.
【0025】次に、濃度ヒストグラム作成部3は、作成
した濃度ヒストグラムをニューラルネットワーク4で学
習しやすいように規格化する。学習の目的は、あらゆる
パターンの濃度ヒストグラムに対しても一律に最適なW
W,WLとを設定することができるニューラルネットワ
ークを作ることにある。あらゆるパターンの濃度ヒスト
グラムを学習させることから、濃度ヒストグラムの濃度
値の最大値や最小値、カウント数の最大値や最小値を規
定してパターンのみの学習をさせる。濃度ヒストグラム
の規格化はそのための処理である。例えば、次のように
する。Next, the density histogram creating section 3 normalizes the created density histogram so that it can be easily learned by the neural network 4. The purpose of learning is to uniformly optimize the W
It is to create a neural network that can set W and WL. Since the density histograms of all the patterns are learned, only the patterns are learned by defining the maximum and minimum values of the density values of the density histogram and the maximum and minimum values of the count number. The normalization of the density histogram is a process for that. For example:
【0026】図3(a) に示したような、濃度ヒストグラ
ムの縦軸の最大カウント数Y1が「1」となるように各
カウント数を変換する。こうして規格化されたのが同図
(b)に示すような濃度ヒストグラムである。図4(a) に
示した濃度ヒストグラムに対して上記のような規格化を
行うと、同図(b) に示したようになる。Each count number is converted so that the maximum count number Y1 on the vertical axis of the density histogram as shown in FIG. 3 (a) becomes "1". This figure is standardized in this way.
It is a density histogram as shown in (b). When the density histogram shown in FIG. 4 (a) is standardized as described above, it becomes as shown in FIG. 4 (b).
【0027】そして、まず、多種多様な画像について上
述のようにして作成された濃度ヒストグラム(濃度値幅
を30分割し、規格化した結果)に基づき、学習部6を用
いて、後述するニューラルネットワーク4のシナプス結
合の重みを決定し、次に、実際の画像について上述のよ
うにして作成された濃度ヒストグラム(濃度値幅を30分
割し、規格化した結果)に基づき、先に学習されたシナ
プス結合の重みをニューラルネットワーク4に設定して
実際の画像のコントスト調整を行う。First, based on the density histogram (the result of dividing the density value width into 30 and standardizing it) created as described above for various types of images, the learning section 6 is used to use a neural network 4 which will be described later. The weight of the synaptic connection of is determined, and then based on the density histogram (the result of dividing the density value width into 30 and standardizing) created as described above for the actual image, The weight is set in the neural network 4 to adjust the actual image contrast.
【0028】ニューラルネットワーク4は、図5の概念
的なモデルに示すように、複数個のニューロンN(神経
細胞と同じような荷重和処理を行う電子部品)を層状に
備え、各ニューロンNをシナプス結合Cと呼ばれる結合
手でネットワーク結合して構成される。この例では、入
力層A,中間層B,出力層Cの3層モデルとし、入力層
Aには30個のニューロンNA1〜NAnを備え、中間層
Bには20個のニューロンNB1〜NBmを備え、出力層
Cには2個のニューロンNC1,NC2を備えて構成し
ている。この層数およびニューロンの数は特定されず、
任意の数を設定すればよい。出力層Cのニューロンの数
を2個としているのは、これらのニューロンNC1,N
C2の出力値がWW,WLに相当するからである。な
お、このニューラルネットワーク4はハードウエアで構
成してもよいし、ソフトウエアで実現してもよい。As shown in the conceptual model of FIG. 5, the neural network 4 is provided with a plurality of neurons N (electronic components that perform the weighted sum processing similar to nerve cells) in layers, and each neuron N is a synapse. It is configured by network connection with a bond called bond C. In this example, a three-layer model of an input layer A, an intermediate layer B, and an output layer C is used. The input layer A includes 30 neurons NA1 to NAn, and the intermediate layer B includes 20 neurons NB1 to NBm. The output layer C is provided with two neurons NC1 and NC2. The number of layers and the number of neurons are not specified,
Any number may be set. The reason why the number of neurons in the output layer C is two is that these neurons NC1 and N
This is because the output value of C2 corresponds to WW and WL. The neural network 4 may be configured by hardware or software.
【0029】次に、学習部6を用いてニューラルネット
ワーク4のシナプス結合Cの重みを決定する処理を図
6、図7のフローチャートを参照しながら説明する。こ
れらフローチャートには1回の学習処理の流れを示して
いる。Next, the process of determining the weight of the synaptic connection C of the neural network 4 using the learning unit 6 will be described with reference to the flowcharts of FIGS. 6 and 7. These flowcharts show the flow of one learning process.
【0030】まず、図6のステップS1で、図1に示し
た乱数発生器5からニューラルネットワーク3に向けて
乱数を発生させ、その乱数値を各ニューロンNを結合し
ているシナプス結合Cの重みとする。ここで設定した重
みを初期値として、以下の学習処理を実行し最終的な重
みを決定していく。なお、説明の簡単化のため図8に示
すように、各層ともにi番目のニューロンに注目する。
ただし、A層のニューロンNAiのiは1〜nまで変化
し、B層のニューロンNBiのiは1〜mまで変化し、
C層のニューロンNCiのiは1,2と変化する。First, in step S1 of FIG. 6, a random number is generated from the random number generator 5 shown in FIG. 1 toward the neural network 3, and the random number value is weighted for the synaptic connection C connecting each neuron N. And With the weights set here as initial values, the following learning process is executed to determine the final weights. For simplification of description, attention is paid to the i-th neuron in each layer as shown in FIG.
Here, i of the neuron NAi in the A layer changes from 1 to n, i of the neuron NBi in the B layer changes from 1 to m,
The i of the C layer neuron NCi changes to 1, 2.
【0031】乱数発生器5で設定された入力層Aのニュ
ーロンNAiと中間層BのニューロンNBiとを結合す
るシナプス結合の重みをWiiで表し、中間層Bのニュ
ーロンNBiと出力層CのニューロンNCiとを結合す
るシナプス結合の重みをWjiで表す。The weight of the synaptic connection connecting the neuron NAi of the input layer A and the neuron NBi of the intermediate layer B set by the random number generator 5 is represented by Wii, and the neuron NBi of the intermediate layer B and the neuron NCi of the output layer C are represented. The weight of the synaptic connection that connects and is represented by Wji.
【0032】図1の濃度ヒストグラム生成部3で規格化
された、ある画像の濃度ヒストグラムの各ヒストグラム
データ(カウント数)を入力層AのニューロンNAiに
入力する。このヒストグラムデータの値をXAiとし、
これをニューロンNAiのニューロン値とする(ステッ
プS2)。Each histogram data (count number) of the density histogram of a certain image, which is standardized by the density histogram generation unit 3 of FIG. 1, is input to the neuron NAi of the input layer A. The value of this histogram data is XAi,
This is set as the neuron value of the neuron NAi (step S2).
【0033】ステップS3で、中間層Bの各ニューロン
NBiのニューロン値XBiを次の計算式(1),(2) で算
出する。 XBi’=Σ(XAi×Wii)・・・・(1) この(1) 式の右辺のΣはiを1〜nまで変化させたとき
の総和を求めるもので、入力層AのニューロンNAiと
シナプス結合の重みWiとの荷重和をまず算出する。 XBi=f(XBi')=1/(1+Exp(XBi’)) ・・・・(2) 次に、この(2) 式を用いて、(1) 式で算出された荷重和
をシグモイド関数f(X) に代入してニューロンNBiの
ニューロン値XBiを算出する。シグモイド関数はf
(X)=1/(1+Exp(X))で表される。In step S3, the neuron value XBi of each neuron NBi of the intermediate layer B is calculated by the following formulas (1) and (2). XBi ′ = Σ (XAi × Wii) (1) Σ on the right side of the equation (1) is for obtaining the total sum when i is changed from 1 to n. First, the weight sum with the weight Wi of the synaptic connection is calculated. XBi = f (XBi ′) = 1 / (1 + Exp (XBi ′)) (2) Next, using this equation (2), the sum of weights calculated by equation (1) is converted into a sigmoid function f. Substituting into (X), the neuron value XBi of the neuron NBi is calculated. The sigmoid function is f
It is represented by (X) = 1 / (1 + Exp (X)).
【0034】ステップS4では、ステップS3と同様に
して、出力層Cの各ニューロンNCiのニューロン値X
Ciを算出する。すなわち、(1),(2) 式と同様な(3),
(4) 式を用いてニューロン値NCiを算出する。 XCi’=Σ(XBi×Wji)・・・・(3) XCi=f(XCi')=1/(1+Exp(XCi’)) ・・・・(4) In step S4, as in step S3, the neuron value X of each neuron NCi in the output layer C is calculated.
Calculate Ci. That is, (3), which is similar to Eqs. (1) and (2),
The neuron value NCi is calculated using the equation (4). XCi ′ = Σ (XBi × Wji) (3) XCi = f (XCi ′) = 1 / (1 + Exp (XCi ′)) (4)
【0035】算出されたこれらの各ニューロン値、XA
i,XBi,XCiを図示しないメモリにストアする
(ステップS5)。Each of these calculated neuron values, XA
i, XBi, and XCi are stored in a memory (not shown) (step S5).
【0036】ニューラルネットワーク4では、以上のよ
うにして、入力層Aから伝搬され出力層Cに現れたニュ
ーロン値NCi(i=1,2)はそれぞれWW,WLに
相当するが、いま、伝搬されるときのシナプス結合の重
みWii,Wjiは乱数で設定した値であるため、ここ
で出力されたニューロン値XCiが最適なWW,WLに
相当するものではない。以下の処理では専門家の判断に
よるWW,WLに基づく学習を行ってシナプス結合の重
みを決定する。この学習方法は一般的に用いられている
バックプロバケーション法(逆伝搬法)による。In the neural network 4, the neuron values NCi (i = 1, 2) propagated from the input layer A and appearing in the output layer C as described above correspond to WW and WL, respectively. Since the weights Wii and Wji of the synaptic connection at the time of turning are values set by random numbers, the neuron value XCi output here does not correspond to the optimum WW and WL. In the following process, the weight of synaptic connection is determined by learning based on WW and WL determined by an expert. This learning method is based on a generally used back vacation method (back propagation method).
【0037】ステップS6では、ステップS2で入力し
た濃度ヒストグラムで表される画像を幾人かの専門家
(医者や術者など)にコントラスト調整してもらい、そ
のときの各人が設定したWW,WLの平均値ww,wl
を求める。これを、規格化処理部9が次式に基づきX
1,X2で規格化する。なぜなら、ニューロン値のとり
得る値は、0〜1であるからである。 NWW=ww/(2(X2−X1)) NWL=(wl−X1)/(X2−X1) 上記の記号X1,X2は図3(a)に示した濃度値の最
小値と最大値のことである。NWWを求める式の右辺で
X2−X1に2を掛けている理由はwwがX2−X1よ
りも大きい場合にも、NWWが0〜1の値になるように
するためである。得られたNWWとNWLを出力層Cの
ニューロンNCiに入力する。In step S6, the contrast of the image represented by the density histogram input in step S2 is adjusted by some experts (doctors, operators, etc.), and the WW set by each person at that time is set. Average value of WL ww, wl
Ask for. The standardization processing unit 9 calculates X based on the following equation.
1 and X2 are standardized. This is because the value that the neuron value can take is 0 to 1. NWW = ww / (2 (X2-X1)) NWL = (wl-X1) / (X2-X1) The symbols X1 and X2 are the minimum and maximum density values shown in FIG. 3 (a). Is. The reason why X2-X1 is multiplied by 2 on the right side of the equation for calculating NWW is that NWW takes a value of 0 to 1 even when ww is larger than X2-X1. The obtained NWW and NWL are input to the neuron NCi of the output layer C.
【0038】ステップS7で、出力層CのニューロンN
Ciの値XCiとNWW,NWLとの差を算出して、ニ
ューロンNCiの誤差Eciを求めて学習信号DCiを算
出する。Eci=NCi−NWW(NWL)。出力層Cの
ニューロンNCiの場合は、ここで算出された誤差Eci
がそのまま学習信号DCiになる(DCi=Eci)At step S7, the neuron N of the output layer C is
The learning signal DCi is calculated by calculating the difference Eci of the neuron NCi by calculating the difference between the value XCi of Ci and NWW, NWL. Eci = NCi-NWW (NWL). In the case of the neuron NCi of the output layer C, the error Eci calculated here is calculated.
Becomes the learning signal DCi as it is (DCi = Eci)
【0039】ステップS8で、中間層Bの各ニューロン
NBiが負うべき誤差Ebiを求めて学習信号DBiを算
出する。誤差Ebiは次の(5) 式を用いて算出する。 Ebi=Σ(Wji×DCi)・・・・(5) この(5) 式は、図9に示すように、中間層Bのニューロ
ンNBiと、出力層CのニューロンNCi(i=1,
2)とをつなぐシナプス結合の重みWj1,Wj2と、
出力層CのニューロンNCiの学習信号DCiとの荷重
和を求める式である。これがニューロンNBiの負うべ
き誤差Ebiになる。In step S8, the learning signal DBi is calculated by obtaining the error Ebi that each neuron NBi of the intermediate layer B should bear. The error Ebi is calculated using the following equation (5). Ebi = Σ (Wji × DCi) (5) As shown in FIG. 9, the equation (5) is applied to the neuron NBi of the intermediate layer B and the neuron NCi of the output layer C (i = 1, 1,
2) and weights Wj1 and Wj2 of the synaptic connection connecting
This is an equation for calculating the weighted sum with the learning signal DCi of the neuron NCi of the output layer C. This becomes the error Ebi that the neuron NBi should bear.
【0040】次に、以下の(6) 式を用いてニューロンN
Biの学習信号DBiを算出する。 DBi=Ebi×f'(XBi') ・・・・(6) この(6) 式のf'(XBi') は、前記のシグモイド関数の微
分式f'(X') に、前記ステップS3で求めたニューロン
NBiの荷重和XBi’=Σ(XAi×Wii)を代入
し、これにステップS8で求めた誤差Ebiを乗算する式
である。これで中間層Bの各ニューロンNBiの学習信
号DBiが算出される。Next, the neuron N is calculated using the following equation (6).
A learning signal DBi for Bi is calculated. DBi = Ebi × f ′ (XBi ′) (6) f ′ (XBi ′) in the expression (6) is obtained by adding the differential expression f ′ (X ′) of the sigmoid function in the step S3. The equation is obtained by substituting the obtained weight sum XBi '= Σ (XAi × Wii) of the neuron NBi and multiplying the obtained result by the error Ebi obtained in step S8. Thus, the learning signal DBi of each neuron NBi of the intermediate layer B is calculated.
【0041】ステップS9では、同様にして入力層Aの
各ニューロンNAiが負うべき誤差Eaiを求めて学習信
号DAiを算出する。すなわち、(5),(6) 式と同様な次
の(7),(8) 式を用いる。 Eai=Σ(Wji×DBi)・・・・(7) DAi=Eai×f'(XAi)・・・・(8)In step S9, the learning signal DAi is calculated by similarly obtaining the error Eai to be borne by each neuron NAi of the input layer A. That is, the following equations (7) and (8) similar to the equations (5) and (6) are used. Eai = Σ (Wji × DBi) (7) DAi = Eai × f ′ (XAi) (8)
【0042】図10を参照する。入力層Aのニューロン
NAiが負うべき誤差Eaiは、ニューロンNAiと中間
層BのニューロンNBi(i=1〜m)とをつなぐシナ
プス結合の重みWii(2文字目のi=1〜m)と、ス
テップS8で算出したニューロンNBiの学習信号DB
i(i=1〜m)との荷重和で得られる。そして、学習
信号DAiは得られた誤差Eaiに、シグモイド関数の微
分f'(XAi)、ただし、XAi は、ニューロンNAiに入力
されたヒストグラムデータ(カウント数)の値を乗算し
て得られる。Referring to FIG. The error Eai to be borne by the neuron NAi of the input layer A is the weight Wii (i = 1 to m of the second letter) of the synaptic connection connecting the neuron NAi and the neuron NBi (i = 1 to m) of the intermediate layer B, Learning signal DB of neuron NBi calculated in step S8
It is obtained by the sum of loads with i (i = 1 to m). The learning signal DAi is obtained by multiplying the obtained error Eai by the derivative of the sigmoid function f ′ (XAi), where XAi is multiplied by the value of the histogram data (count number) input to the neuron NAi.
【0043】ステップS10では、上記算出した学習信号
とニューロン値とを用いてシナプス結合Cの重みWi
i,Wjiを変更する。重みの変更には次の(9),(10)式
を用いる。 ΔWii(n+1)=α(DBi×XAi)+β(ΔWii(n))・・・・(9) この(9) 式において、符号nは変更回数を示し、αは任
意に設定される学習定数,βは任意に設定される安定化
定数を示す。ΔWii(n+1)は今回の重み修正量を示
し、ΔWii(n) は前回の重み修正量を示している。い
ま、1回目の学習であるから前回変更した重みの値はな
く、ΔWii(n) は零である。すなわち、入力層Aのニ
ューロンNAiと中間層BのニューロンNBiとをつな
ぐ重みWiiは、α(DBi×XAi)で算出される値
により変更される。In step S10, the weight Wi of the synaptic connection C is calculated using the above-calculated learning signal and neuron value.
Change i and Wji. The following equations (9) and (10) are used to change the weights. ΔWii (n + 1) = α (DBi × XAi) + β (ΔWii (n)) (9) In the expression (9), the symbol n indicates the number of changes, α is a learning constant set arbitrarily, β indicates an arbitrarily set stabilization constant. ΔWii (n + 1) indicates the current weight correction amount, and ΔWii (n) indicates the previous weight correction amount. Now, since it is the first learning, there is no weight value changed last time, and ΔWii (n) is zero. That is, the weight Wii connecting the neuron NAi of the input layer A and the neuron NBi of the intermediate layer B is changed by the value calculated by α (DBi × XAi).
【0044】 ΔWji(n+1)=α(DCi×XBi)+β(ΔWji(n))・・・・(10) この(10)式も同様で、中間層BのニューロンNBiと出
力層CのニューロンNCiとをつなぐシナプス結合の重
みWjiは、α(DCi×XBi)で算出される値によ
り変更される。ΔWji (n + 1) = α (DCi × XBi) + β (ΔWji (n)) (10) This equation (10) is also the same, and the neuron NCi of the intermediate layer B and the neuron NCi of the output layer C are the same. The weight Wji of the synaptic connection connecting and is changed by the value calculated by α (DCi × XBi).
【0045】以上のようにして、各層のニューロン同士
を結合するシナプス結合の重みを1回変更することで1
回の学習が終了する。2回目の学習では、上記の処理に
よって得られた重み修正量が(9),(10)式のΔWii(n),
ΔWji(n) に代入されて計算される。これを多数回繰
り返す過程で、誤差Eciの値を監視し、すべての学習画
像について誤差が十分小さくなれば学習が終了する。As described above, the weight of the synaptic connection connecting the neurons of each layer is changed once to obtain 1
Learning is completed. In the second learning, the weight correction amount obtained by the above processing is ΔWii (n), (9), (10)
It is calculated by substituting for ΔWji (n). In the process of repeating this many times, the value of the error Eci is monitored, and if all the learning images have sufficiently small errors, learning ends.
【0046】前述したように、この学習の目的は、あら
ゆるパターンの濃度ヒストグラムに対しても一律に最適
なWW,WLを設定することにある。したがって、複数
枚の異なった濃度ヒストグラムで表される画像を用意
し、これらの画像を多数回にわたって学習させ、最終的
なシナプス結合の重みWii,Wjiを決定する。この
とき、異なる画像の入力順序を夫々変えて学習させるの
が望ましい。例えば、10枚の画像を次々に入力してそれ
ぞれ1回の学習を終えると、2回目の学習の際には10枚
の画像の並びを変えて入力する。これは、ニューラルネ
ットワーク4が画像の並びを学習し、それに合わせてシ
ナプス結合の重みを決定してしまうからである。As described above, the purpose of this learning is to uniformly set the optimum WW and WL for the density histograms of all patterns. Therefore, a plurality of images represented by different density histograms are prepared, these images are learned many times, and final weights Wii and Wji of synaptic connection are determined. At this time, it is desirable to learn by changing the input order of different images. For example, when 10 images are input one after another and one learning is completed, the arrangement of 10 images is changed and input at the time of the second learning. This is because the neural network 4 learns the sequence of images and determines the synaptic connection weights accordingly.
【0047】実際に、学習されたニューラルネットワー
ク4を用いて画像のコントラスト調整を行う場合には、
濃度値が異なる画像がランダムに入力される場合も想定
しなけらればならない。そのためにも、画像の並びを変
えて学習させるのが好ましい。When the contrast adjustment of the image is actually performed using the learned neural network 4,
It must be assumed that images having different density values are input at random. For this purpose, it is preferable to perform learning by changing the arrangement of images.
【0048】さて、学習処理が終り、ニューラルネット
ワーク3のシナプス結合の重みWii,Wjiが決定さ
れると、そのニューラルネットワーク3を用いて実際の
画像のコントラスト調整を行う。まず、表示画像のデー
タを図1に示した濃度ヒストグラム作成部3に入力して
規格化された濃度ヒストグラムを作成し、これをニュー
ラルネットワーク4に入力する。When the learning process is completed and the weights Wii, Wji of the synapse connection of the neural network 3 are determined, the contrast adjustment of the actual image is performed using the neural network 3. First, the display image data is input to the density histogram creation unit 3 shown in FIG. 1 to create a standardized density histogram, and this is input to the neural network 4.
【0049】ニューラルネットワーク4は、図6に示し
たフローチャートのステップS2からステップS4まで
の処理を実行し、出力層CのニューロンNC1,2の
値、XC1,XC2を求める。このニューロン値XC
1,XC2がNWW,NWLの値となる。The neural network 4 executes the processing from step S2 to step S4 of the flow chart shown in FIG. 6 to obtain the values XC1 and XC2 of the neurons NC1 and NC2 of the output layer C. This neuron value XC
1, XC2 are the values of NWW and NWL.
【0050】しかし、ここで求められたNWW,NWL
は規格された濃度ヒストグラムに対するWW,WLであ
る。実際にCRTディスプレイ8に表示される画像はこ
のような濃度ヒストグラムの規格化が行われていないの
で、前記求めたNWW,NWLをそれに対応できるよう
に、逆規格化処理部10が、次の(11),(12) 式を用いて
変換する。 WW’=2NWW(X2−X1)・・・・(11) WL’=NWL(X2−X1)+X1・・・・(12)However, the NWW and NWL obtained here are
Are WW and WL for the standard density histogram. Since the image actually displayed on the CRT display 8 is not standardized in such a density histogram, the denormalization processing unit 10 performs the following (in order to correspond the obtained NWW and NWL to it): Convert using Eqs. 11) and 12). WW '= 2NWW (X2-X1) ... (11) WL' = NWL (X2-X1) + X1 ... (12)
【0051】上式の符号X1,X2は図3の(a) に示し
た濃度値の最小値と、最大値のことである。得られた値
WW’,WL’が実際の画像に対するウィンドウ・ウィ
ドゥスとウィンドウ・レベルである。The symbols X1 and X2 in the above equation represent the minimum and maximum density values shown in FIG. The obtained values WW ', WL' are the window width and window level for the actual image.
【0052】得られたWW’,WL’は、図1に示した
コントラスト設定部7に送られる。コントラスト設定部
7は入力画像に対してそのWW’,WL’を設定してC
RTディスプレイ8に出力表示する。The obtained WW 'and WL' are sent to the contrast setting section 7 shown in FIG. The contrast setting unit 7 sets the WW 'and WL' of the input image and sets C
The output is displayed on the RT display 8.
【0053】なお、この実施例の場合、抽出した409
6個の画素からバックグランド部を構成する画素を排除
するので、各画像ごとに、濃度ヒストグラムを作成する
際の画素数が異なることになるが、濃度ヒストグラム作
成部3で濃度ヒストグラムを規格化するので、特に問題
はない。In the case of this embodiment, the extracted 409
Since the pixels forming the background portion are excluded from the six pixels, the number of pixels when creating the density histogram differs for each image, but the density histogram creation unit 3 normalizes the density histogram. So there is no particular problem.
【0054】上述のような構成の装置によれば、バック
グランド部を構成する画素を排除した、診断対象部位を
含む組織部を構成する画素のみについて濃度ヒストグラ
ムを作成し、多種多様な画像について上述したように作
成された濃度ヒストグラムに基づき、ニューラルネット
ワーク4の荷重を学習して決定するので、決定された荷
重にはバックグランド部が加味されない。そして、本番
処理では、上記したようにバックグランド部が加味され
ていない荷重を用いて、撮像された画像から上述したよ
うに作成した濃度ヒストグラムに基づき、ウィンドウ・
ウィドゥスとウィンドウ・レベル(WW’とWL’)と
を出力するので、得られたウィンドウ・ウィドゥスとウ
ィンドウ・レベルは、バックグランド部の影響が軽減さ
たものであり、このウィンドウ・ウィドゥスとウィンド
ウ・レベルでコントラスト調整し、CRTディスプレイ
8に表示された画像は、診断対象部位のコントラストが
適正に調整されたものとなる。According to the apparatus having the above-described structure, the density histogram is created only for the pixels forming the tissue portion including the diagnosis target region, excluding the pixels forming the background portion, and the density histogram is formed for various images. Since the weight of the neural network 4 is learned and determined based on the density histogram created as described above, the background portion is not added to the determined weight. Then, in the production process, using the load in which the background portion is not added as described above, based on the density histogram created as described above from the captured image, the window
Since the window and window level (WW 'and WL') are output, the obtained window window and window level are those in which the influence of the background portion is reduced. The contrast is adjusted according to the level, and the image displayed on the CRT display 8 is one in which the contrast of the diagnosis target portion is properly adjusted.
【0055】次に、この発明の第2実施例装置の構成を
図11を参照して説明する。図11は、第2実施例装置
の概略構成を示すブロック図である。この第2実施例装
置では、上記第1実施例装置の画素取り出し部2に代え
て、区分取り出し部11を設け、濃度ヒストグラム作成
部3では、後述するように区分取り出し部11で取り出
された画像の区分について濃度ヒストグラムを作成する
などの処理を行う。Next, the configuration of the second embodiment device of the present invention will be described with reference to FIG. FIG. 11 is a block diagram showing a schematic configuration of the second embodiment device. In the second embodiment apparatus, a section extracting section 11 is provided in place of the pixel extracting section 2 of the first embodiment apparatus, and in the density histogram creating section 3, the image extracted by the section extracting section 11 is described later. For example, the density histogram is created for each of the categories.
【0056】この実施例では、区分取り出し部11がこ
の発明の画素/区分取り出し手段に相当し、この区分取
り出し部11では、次のような処理を行う。In this embodiment, the segment extraction unit 11 corresponds to the pixel / segment extraction unit of the present invention, and the segment extraction unit 11 performs the following processing.
【0057】まず、図12に示すように、診断撮像機器
1で撮像された画像Gを、複数個(図では、64×64
=4096個)の区分PAに区分する。例えば、画像G
が、512画素×512画素で構成されていれば、各区
分PAは64画素((512÷64)×(512÷6
4))で構成される。First, as shown in FIG. 12, a plurality of images G (64 × 64 in the figure) taken by the diagnostic imaging device 1 are taken.
= 4096). For example, image G
Is 512 pixels × 512 pixels, each section PA has 64 pixels ((512 ÷ 64) × (512 ÷ 6)
4)).
【0058】次に、各区分PAごとに、区分PAを構成
する画素の濃度値の平均値を求め、この平均値を、各区
分PAの濃度値とする。ここで、各区分PAは、上記第
1実施例装置において抽出された複数個(4096個)
の画素に対応し、各区分PAの濃度値(区分PAを構成
する画素の濃度値の平均値)は、上記第1実施例装置に
おいて抽出された複数個(4096個)の画素の濃度値
に対応する。Next, for each section PA, the average value of the density values of the pixels forming the section PA is obtained, and this average value is used as the density value of each section PA. Here, each section PA is a plurality (4096) extracted in the apparatus of the first embodiment.
The density value of each section PA (the average value of the density values of the pixels forming the section PA) corresponds to the density values of a plurality of (4096) pixels extracted by the apparatus of the first embodiment. Correspond.
【0059】そして、これら各区分PAについて、それ
ぞれの濃度値を、所定のしきい値と比較して、そのしき
い値以上または以下の区分PA取り出す。これにより、
バックグランド部を構成する区分PAを排除する。な
お、上記しきい値は、上記第1実施例と同様の方法で決
めればよい。Then, with respect to each of these sections PA, each density value is compared with a predetermined threshold value, and the section PA above or below the threshold value is taken out. This allows
The section PA forming the background portion is excluded. The threshold value may be determined by the same method as in the first embodiment.
【0060】次に、濃度ヒストグラム作成部3は、上述
のようにして取り出された区分PAについて、1区分P
Aを1画素として濃度ヒストグラムを作成し、濃度幅を
例えば30分割し、規格化して出力する。Next, the density histogram creating section 3 makes one partition P for the partition PA extracted as described above.
A density histogram is created with A as one pixel, and the density width is divided into, for example, 30 and standardized and output.
【0061】以後は、上述した第1実施例装置と同様で
あるので、重複する説明は省略する。このように構成し
ても、上記第1実施例と同様に、バックグランド部の影
響が軽減されたWWとWLが求められ、診断対象部位の
コントラストが適正に調整された画像をCRTディスプ
レイ8に表示することができ、また、この第2実施例に
よれば、それに加えて、以下のような効果を得ることも
できる。すなわち、この第2実施例では、画像を区分し
て、区分PA単位で画素の濃度値の平均値をとって、区
分PAの濃度値とするので、画像にノイズがあっても、
そのノイズが除去される。従って、この第2実施例で
は、ノイズの影響をも排除した濃度ヒストグラムを作成
することができ、その結果、ノイズの影響が排除された
より適正なWWとWLを求めることができる。Since the subsequent steps are the same as those of the apparatus of the first embodiment described above, the duplicated description will be omitted. Even with this configuration, as in the first embodiment, WW and WL in which the influence of the background portion is reduced are required, and an image in which the contrast of the diagnosis target site is properly adjusted is displayed on the CRT display 8. In addition to the above, according to the second embodiment, the following effects can be obtained. That is, in the second embodiment, the image is segmented, and the average value of the pixel density values in the segment PA unit is taken as the density value of the segment PA, so even if there is noise in the image,
The noise is removed. Therefore, in the second embodiment, it is possible to create a density histogram in which the influence of noise is eliminated, and as a result, it is possible to obtain more appropriate WW and WL in which the influence of noise is eliminated.
【0062】なお、上述した第2実施例では、各区分P
Aの濃度値を、区分PAを構成する画素の濃度値の平均
値としたが、例えば、区分PAを構成する画素の濃度値
を大きい順にソートしたときの、中間になる画素の濃度
値を、その区分PAの濃度値としてもよい。In the second embodiment described above, each section P
Although the density value of A is the average value of the density values of the pixels forming the section PA, for example, when the density values of the pixels forming the section PA are sorted in descending order, The density value of the section PA may be used.
【0063】次に、この発明の第3実施例について説明
する。この第3実施例装置の基本的な構成は、上記第2
実施例装置(図11参照)と同様であるが、この第3実
施例の区分取り出し部11では、各区分PAの濃度値を
それぞれ所定のしきい値と比較した後、次に説明する8
点近傍膨張処理と、4点近傍縮小処理を施した結果残っ
た区分PAを濃度ヒストグラム作成部3に与えるように
構成している。Next, a third embodiment of the present invention will be described. The basic configuration of the device of the third embodiment is the same as that of the second embodiment.
This is the same as the apparatus of the embodiment (see FIG. 11), but in the division extracting unit 11 of the third embodiment, the density value of each division PA is compared with a predetermined threshold value, and then described below.
The section PA remaining as a result of the point neighborhood expansion processing and the four point neighborhood reduction processing is given to the density histogram creation unit 3.
【0064】具体的には、まず、図13に示すように、
各区分PA(PA1 〜PA4096)を画像G上での配列と
同じにして、第1のメモリM1に展開し、各区分PA1
〜PA4096の濃度値をそれぞれ所定のしきい値と比較し
た結果、排除されるべき区分PAとなった区分PAの第
1のメモリ上の濃度値を例えば「0」として記憶し、そ
れ以外の区分PA(しきい値との比較の結果取り出され
た区分PA)の第1のメモリ上の濃度値をそのままにし
て記憶する。Specifically, first, as shown in FIG.
Each section PA (PA 1 to PA 4096 ) is made the same as the arrangement on the image G, and is expanded in the first memory M1 to obtain each section PA 1
As a result of comparing the density value of each of PA 4096 with a predetermined threshold value, the density value on the first memory of the section PA which is the section PA to be excluded is stored as, for example, “0”, and the other values are stored. The density value on the first memory of the section PA (section PA extracted as a result of comparison with the threshold value) is stored as it is.
【0065】次に、第1のメモリから、1区分PAi を
順次注目区分とし、注目区分PAiとその周りの8区分
PAi-65、PAi-64、PAi-63、PAi-1 、PAi+1 、
PAi+63、PAi+64、PAi+65とを取り出し、周りの8
区分の内、1区分でも濃度値が「0」以外の区分が存在
すれば、その注目区分PAi の濃度値を、しきい値と比
較する前の、その注目区分PAi を構成する核が祖の濃
度値の平均値に置き換えて、「0」以外の区分が存在し
なければ、その注目画素PAi の濃度値をそのまま、第
1のメモリM1の注目画素PAi と同じ第2のメモリM
2上の場所に記憶する。この処理を、iを1〜4096
について行う。これにより、第2のメモリM2には、8
点近傍膨張処理後の区分PAが、画像G上での配列と同
じにして記憶される。なお、図14(a)に示すよう
に、画像Gのコーナーの区分を注目区分PAi としたと
きは、その近傍の斜線で示す3区分について上述と同様
の処理をし、図14(b)に示すように、画像Gの辺の
区分を注目区分PAi としたときは、その近傍の斜線で
示す5区分について上述と同様の処理をする。Next, from the first memory, one section PA i is sequentially set as a target section, and the target section PA i and eight surrounding sections PA i-65 , PA i-64 , PA i-63 , PA i- 1 , PA i + 1 ,
Take out PA i + 63 , PA i + 64 , and PA i + 65 ,
Among segments, if there is division density value other than "0" in a section, the density value of the target segment PA i, prior to comparison with a threshold, nuclear constituting the target segment PA i If there is no classification other than "0" by replacing the average value of the original density values, the density value of the target pixel PA i is unchanged and the second memory same as the target pixel PA i of the first memory M1 is used. M
2 Store in the place above. This processing is performed by setting i to 1 to 4096
Do about. As a result, the second memory M2 has 8
The section PA after the point vicinity expansion processing is stored in the same manner as the array on the image G. As shown in FIG. 14A, when the section of the corner of the image G is set as the target section PA i , the same processing as described above is performed for the three sections indicated by diagonal lines in the vicinity thereof, and FIG. As shown in FIG. 5, when the side section of the image G is the target section PA i , the same processing as described above is performed for the five sections indicated by the shaded areas in the vicinity.
【0066】次に、図15に示すように、第2のメモリ
M2に記憶された8点近傍膨張処理後の各区分PA1 〜
PA4096から、1区分PAi を順次注目区分とし、注目
区分PAi とその周りの4区分PAi-64、PAi-1 、P
Ai+1 、PAi+64とを取り出し、周りの4区分の内、1
区分でも濃度値が「0」の区分が存在すれば、その注目
区分PAi の濃度値を「0」に置き換え、「0」の区分
が存在しなければ、その注目区分PAi の濃度値をその
まま、第2のメモリM1の注目画素PAi と同じ第3の
メモリM3上の場所に記憶する。この処理を、iを1〜
4096について行う。これにより、第3のメモリM2
には、4点近傍縮小処理後の区分PAが、画像G上での
配列と同じにして記憶される。なお、図16(a)に示
すように、画像Gのコーナーの区分を注目区分PAi と
したときは、その近傍の斜線で示す2区分について上述
と同様の処理をし、図16(b)に示すように、画像G
の辺の区分を注目区分PAi としたときは、その近傍の
斜線で示す3区分について上述と同様の処理をする。Next, as shown in FIG. 15, each of the sections PA 1 to PA 1 after the 8-point neighborhood expansion processing stored in the second memory M2 is processed.
From PA 4096 , one segment PA i is sequentially set as a segment of interest, and the segment of interest PA i and its four segments PA i-64 , PA i-1 , P
Take out A i + 1 and PA i + 64 , and select 1 out of 4 surrounding sections.
If there is a segment of the density value is also "0" in the division, replacing the density value of the attention category PA i to "0", if there is no classification of "0", the density value of the attention category PA i As it is, it is stored in the same location on the third memory M3 as the pixel of interest PA i of the second memory M1. This process, i is 1 to
4096. Thereby, the third memory M2
In, the section PA after the 4-point neighborhood reduction processing is stored in the same manner as the array on the image G. Note that, as shown in FIG. 16A, when the section of the corner of the image G is set as the target section PA i , the same processing as described above is performed for the two sections indicated by diagonal lines in the vicinity thereof, and FIG. As shown in image G
When the section of the side of is the target section PA i , the same processing as described above is performed for the three sections shown by the diagonal lines in the vicinity thereof.
【0067】そして、第3のメモリM3に記憶された区
分PA1 〜PA4096のうち、「0」以外の区分を取り出
し、濃度ヒストグラム作成部3に与える。以後の処理
は、上記第2実施例装置と同様である。Then, out of the sections PA 1 to PA 4096 stored in the third memory M3, the sections other than "0" are taken out and given to the density histogram creating section 3. Subsequent processing is the same as that of the apparatus of the second embodiment.
【0068】このように、8点近傍膨張処理と4点近傍
縮小処理とを行うことにより、診断対象部位を含む組織
部の輪郭を滑らかに画像処理でき、また、組織部内に島
のように形成される、本来組織部と認識されるべきバッ
クグランド部を組織部として認識することができ、画像
に忠実な濃度ヒストグラムを作成することができる。As described above, by performing the 8-point neighborhood expansion processing and the 4-point neighborhood reduction processing, the contour of the tissue portion including the diagnosis target portion can be smoothly image-processed and formed like islands in the tissue portion. The background portion that should be recognized as the tissue portion can be recognized as the tissue portion, and the density histogram faithful to the image can be created.
【0069】[0069]
【発明の効果】以上の説明から明らかなように、この発
明によれば、学習手段やニューラルネットワークで用い
られる濃度ヒストグラムは、診断対象部位を含む組織部
を構成する画素、または、区分について作成されたもの
であるので、学習手段で決定されるニューラルネットワ
ークの荷重は、バックグランド部の影響が排除さたもの
であり、従って、ニューラルネットワークでは、診断対
象部位のコントラスト調整を適正に行うことができるウ
ィンドウ・ウィドゥスとウィンドウ・レベルとを求める
ことができる。As is apparent from the above description, according to the present invention, the density histogram used in the learning means and the neural network is created for the pixels or the sections constituting the tissue portion including the diagnosis target portion. Since the weight of the neural network determined by the learning means excludes the influence of the background portion, the neural network can appropriately adjust the contrast of the diagnosis target portion. The window width and window level can be determined.
【0070】また、この発明によれば、画像から任意に
抽出した画素や、区分から不要な画素や、区分を排除し
てから、濃度ヒストグラムを作成するので、実質的に、
従来装置よりも広範囲にわたった撮像部位で撮像された
画像や、撮像条件をおおきく違えて撮像された画像をも
対象とすることができる。Further, according to the present invention, since the density histogram is created after the pixels arbitrarily extracted from the image and the unnecessary pixels and the sections are excluded from the sections, substantially,
It is also possible to target an image captured by an imaging region that covers a wider range than that of the conventional device, or an image captured by widely varying the imaging conditions.
【図1】この発明の第1実施例に係る医療用画像表示装
置の概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a medical image display apparatus according to a first embodiment of the present invention.
【図2】しきい値を説明するための図である。FIG. 2 is a diagram for explaining a threshold value.
【図3】濃度ヒストグラムの規格化処理を説明する図で
ある。FIG. 3 is a diagram illustrating a density histogram normalization process.
【図4】同じく濃度ヒストグラムの規格化処理を説明す
る図である。FIG. 4 is a diagram for explaining a density histogram standardization process.
【図5】ニューラルネットワークの構成を概念的にモデ
ル化した図である。FIG. 5 is a diagram conceptually modeling the configuration of a neural network.
【図6】1回の学習処理の流れを示したフローチャート
である。FIG. 6 is a flowchart showing the flow of one learning process.
【図7】図6に続くフローチャートである。FIG. 7 is a flowchart following FIG.
【図8】ニューラルネットワークの構成の一部を概念的
にモデル化した図である。FIG. 8 is a diagram conceptually modeling a part of the configuration of the neural network.
【図9】バックプロバケーション法による学習の様子を
示したニューラルネットワークのモデル図である。FIG. 9 is a model diagram of a neural network showing a state of learning by the back-propagation method.
【図10】同じく、バックプロバケーション法による学
習の様子を示したニューラルネットワークのモデル図で
ある。FIG. 10 is a model diagram of a neural network similarly showing a state of learning by the back propulsion method.
【図11】第2、第3実施例装置の概略構成を示すブロ
ック図である。FIG. 11 is a block diagram showing a schematic configuration of second and third embodiment devices.
【図12】画像を区分した状態を示す図である。FIG. 12 is a diagram showing a state in which an image is divided.
【図13】8点近傍膨張処理を説明するための図であ
る。FIG. 13 is a diagram for explaining an 8-point vicinity expansion process.
【図14】8点近傍膨張処理を説明するための図であ
る。FIG. 14 is a diagram for explaining an 8-point vicinity expansion process.
【図15】4点近傍縮小処理を説明するための図であ
る。FIG. 15 is a diagram for explaining a 4-point neighborhood reduction process.
【図16】4点近傍縮小処理を説明するための図であ
る。FIG. 16 is a diagram for explaining a 4-point neighborhood reduction process.
【図17】従来技術において、画像のコントラスト調整
のパラメータであるウィンドウ・ウィドゥスとウィンド
ウ・レベルとを説明する濃度ヒストグラムである。FIG. 17 is a density histogram for explaining a window width and a window level which are parameters for image contrast adjustment in the conventional art.
1 … 画像診断機器 2 … 画素取り出し部 3 … 濃度ヒストグラム作成部 4 … ニューラルネットワーク 5 … 乱数発生器 6 … 学習部 11 … 区分取り出し部 PA … 区分 1 ... Image diagnostic device 2 ... Pixel extraction part 3 ... Density histogram creation part 4 ... Neural network 5 ... Random number generator 6 ... Learning part 11 ... Classification extraction part PA ... Classification
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06F 19/00 G06T 1/00 G09G 5/10 B 9377−5H G06F 15/64 400 L ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification number Internal reference number FI Technical display location G06F 19/00 G06T 1/00 G09G 5/10 B 9377-5H G06F 15/64 400 400 L
Claims (1)
ラスト調整用の2つのパラメータ、すなわち、前記画像
を表示する際の濃度値の幅を任意に設定するためのウィ
ンドウ・ウィドゥスと、前記ウィンドウ・ウィドゥスの
中心値を設定するためのウィンドウ・レベルとを、表示
画像に対して設定する医療用画像表示装置であって、
(a)前記画像診断機器で撮像された画像から任意に抽
出した複数個の画素の各濃度値、または、前記画像を区
分した各区分の濃度値を、所定のしきい値と比較して、
前記しきい値以上または以下の濃度値を持つ画素、また
は、区分を取り出す画素/区分取り出し手段と、(b)
前記画素/区分取り出し手段で取り出した画素、また
は、区分について、前記画像の濃度ヒストグラムを作成
する濃度ヒストグラム作成手段と、(c)前記作成され
た濃度ヒストグラムのデータを荷重和計算して前記ウィ
ンドウ・ウィドゥスとウィンドウ・レベルとを出力する
ニューラルネットワークと、(d)前記ニューラルネッ
トワークの荷重を多種多様の画像の濃度ヒストグラムに
基づいて学習し決定する学習手段とを備えたことを特徴
とする医療用画像表示装置。1. A window parameter for arbitrarily setting two parameters for contrast adjustment of an image captured by an image diagnostic device, that is, a window width for setting a width of a density value when the image is displayed, and the window A medical image display device for setting a window level for setting a central value of Widus and a display image,
(A) Each density value of a plurality of pixels arbitrarily extracted from the image captured by the image diagnostic apparatus, or the density value of each section obtained by dividing the image is compared with a predetermined threshold value,
Pixels / section extracting means for extracting pixels or sections having density values above or below the threshold value, and (b)
Density histogram creating means for creating a density histogram of the image with respect to the pixels or sections extracted by the pixel / section extracting means; and (c) a weighted sum calculation of the created density histogram data A medical image, comprising: a neural network that outputs a window and a window level; and (d) a learning unit that learns and determines the weight of the neural network based on density histograms of various images. Display device.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP25953994A JPH0896125A (en) | 1994-09-29 | 1994-09-29 | Medical image display device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP25953994A JPH0896125A (en) | 1994-09-29 | 1994-09-29 | Medical image display device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH0896125A true JPH0896125A (en) | 1996-04-12 |
Family
ID=17335520
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP25953994A Pending JPH0896125A (en) | 1994-09-29 | 1994-09-29 | Medical image display device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH0896125A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006340992A (en) * | 2005-06-10 | 2006-12-21 | Hitachi Medical Corp | Image processing program, device, and method |
| WO2011033890A1 (en) * | 2009-09-17 | 2011-03-24 | シャープ株式会社 | Diagnosis processing device, diagnosis processing system, diagnosis processing method, diagnosis processing program and computer-readable recording medium, and classification processing device |
| CN110223261A (en) * | 2019-05-20 | 2019-09-10 | 上海联影医疗科技有限公司 | Medical image processing method and system, storage medium and computer equipment |
| WO2021049478A1 (en) | 2019-09-10 | 2021-03-18 | 富士フイルム株式会社 | Image inspection device, console, and radiation imaging system |
| JP2024014561A (en) * | 2022-07-22 | 2024-02-01 | 東芝デジタルソリューションズ株式会社 | Biomarker estimation device and biomarker estimation method |
| WO2024095434A1 (en) * | 2022-11-04 | 2024-05-10 | 富士通株式会社 | Image processing program, image processing method, detection program, detection method, and information processing device |
-
1994
- 1994-09-29 JP JP25953994A patent/JPH0896125A/en active Pending
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006340992A (en) * | 2005-06-10 | 2006-12-21 | Hitachi Medical Corp | Image processing program, device, and method |
| WO2011033890A1 (en) * | 2009-09-17 | 2011-03-24 | シャープ株式会社 | Diagnosis processing device, diagnosis processing system, diagnosis processing method, diagnosis processing program and computer-readable recording medium, and classification processing device |
| US20120183187A1 (en) * | 2009-09-17 | 2012-07-19 | Sharp Kabushiki Kaisha | Diagnosis processing device, diagnosis processing system, diagnosis processing method, diagnosis processing program and computer-readable recording medium, and classification processing device |
| US8798345B2 (en) | 2009-09-17 | 2014-08-05 | Sharp Kabushiki Kaisha | Diagnosis processing device, diagnosis processing system, diagnosis processing method, diagnosis processing program and computer-readable recording medium, and classification processing device |
| CN110223261A (en) * | 2019-05-20 | 2019-09-10 | 上海联影医疗科技有限公司 | Medical image processing method and system, storage medium and computer equipment |
| CN110223261B (en) * | 2019-05-20 | 2022-03-01 | 上海联影医疗科技股份有限公司 | Medical image processing method and system, storage medium and computer equipment |
| WO2021049478A1 (en) | 2019-09-10 | 2021-03-18 | 富士フイルム株式会社 | Image inspection device, console, and radiation imaging system |
| US12482094B2 (en) | 2019-09-10 | 2025-11-25 | Fujifilm Corporation | Image inspection device, console, and radiographic system |
| JP2024014561A (en) * | 2022-07-22 | 2024-02-01 | 東芝デジタルソリューションズ株式会社 | Biomarker estimation device and biomarker estimation method |
| WO2024095434A1 (en) * | 2022-11-04 | 2024-05-10 | 富士通株式会社 | Image processing program, image processing method, detection program, detection method, and information processing device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Narayan et al. | FuzzyNet: medical image classification based on GLCM texture feature | |
| CN109272048B (en) | A pattern recognition method based on deep convolutional neural network | |
| Koss et al. | Abdominal organ segmentation using texture transforms and a hopfield neural network | |
| EP4141788A1 (en) | Fully automated assessment of coronary vulnerable plaque in coronary ct images using radiomic features | |
| JPH04332548A (en) | Neural network using method for aiding differential diagnosis | |
| Heitmann et al. | Automatic detection of ground glass opacities on lung HRCT using multiple neural networks | |
| CN109871869B (en) | Pulmonary nodule classification method and device | |
| Elalfi et al. | Artificial neural networks in medical images for diagnosis heart valve diseases | |
| CN113673710A (en) | Computer-implemented method and system for training an evaluation algorithm | |
| CN111524109A (en) | Head medical image scoring method and device, electronic equipment and storage medium | |
| JPH0896125A (en) | Medical image display device | |
| JP2616520B2 (en) | Medical image display device | |
| CN114648536A (en) | Method and device for extracting vascular wall | |
| Nastenko et al. | Liver pathological states identification in diffuse diseases with self-organization models based on ultrasound images texture features | |
| US12334225B2 (en) | Subpopulation based patient risk prediction using graph attention networks | |
| JPH09179977A (en) | Automatic medical image tone processor | |
| Princy et al. | Detection & Classification of Tuberculosis HIV-Positive Patients using Deep Learning | |
| CN120544852A (en) | Early lung cancer screening method based on transfer learning | |
| CN113850796A (en) | Lung disease identification method and device, medium and electronic equipment based on CT data | |
| EP4345742B1 (en) | Computer-implemented method for providing a positioning score regarding a positioning of an examining region in an x-ray image | |
| CN117994212A (en) | A CT image segmentation method and system | |
| CN118608849A (en) | A method for constructing a CT image classification model based on a bidirectional combination of GNN and CNN | |
| CN110264535A (en) | A Reconstruction Method for Removing Cone Beam Artifacts in CT | |
| Sargunan et al. | Discrete neighborhood difference pattern-based feature extraction and hybrid deep learning model for melanoma skin cancer detection | |
| CN114612391A (en) | Calculation method and system for leg length difference after total hip joint operation based on deep learning |