JP2001212118A - Radiation image processing method and apparatus - Google Patents
Radiation image processing method and apparatusInfo
- Publication number
- JP2001212118A JP2001212118A JP2000026324A JP2000026324A JP2001212118A JP 2001212118 A JP2001212118 A JP 2001212118A JP 2000026324 A JP2000026324 A JP 2000026324A JP 2000026324 A JP2000026324 A JP 2000026324A JP 2001212118 A JP2001212118 A JP 2001212118A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- region
- interest
- image
- radiation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000005855 radiation Effects 0.000 title claims abstract description 112
- 238000003672 processing method Methods 0.000 title claims description 24
- 238000003745 diagnosis Methods 0.000 claims abstract description 24
- 238000000034 method Methods 0.000 claims description 54
- 239000013598 vector Substances 0.000 claims description 31
- 238000007906 compression Methods 0.000 claims description 23
- 230000006835 compression Effects 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 3
- 210000000988 bone and bone Anatomy 0.000 abstract description 25
- 238000010586 diagram Methods 0.000 description 15
- 238000003384 imaging method Methods 0.000 description 11
- 238000006243 chemical reaction Methods 0.000 description 9
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 238000009499 grossing Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000008602 contraction Effects 0.000 description 3
- 230000004069 differentiation Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000002310 elbow joint Anatomy 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013213 extrapolation Methods 0.000 description 2
- 229920000742 Cotton Polymers 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000000137 annealing Methods 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000037182 bone density Effects 0.000 description 1
- 210000003557 bones of lower extremity Anatomy 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 210000001370 mediastinum Anatomy 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000007740 vapor deposition Methods 0.000 description 1
- 210000002268 wool Anatomy 0.000 description 1
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は放射線画像を処理す
る放射線画像処理方法および放射線画像処理装置に関
し、さらに詳しくは、放射線画像の最適処理が可能な放
射線画像処理方法および放射線画像処理装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a radiation image processing method and a radiation image processing apparatus for processing a radiation image, and more particularly, to a radiation image processing method and a radiation image processing apparatus capable of optimally processing a radiation image.
【0002】[0002]
【従来の技術】近年、放射線画像を直接デジタル画像と
して撮影できる装置が開発されている。たとえば、被写
体に照射された放射線量を検出し、その検出量に対応し
て形成される放射線画像を電気信号として得る装置とし
ては、輝尽性蛍光体を用いたディテクタを用いる方法が
特開昭55-12429号公報、特開昭63-189853号公報など、
多数開示されている。2. Description of the Related Art In recent years, devices capable of directly taking a radiation image as a digital image have been developed. For example, as a device that detects the amount of radiation applied to a subject and obtains a radiation image formed in accordance with the detected amount as an electric signal, a method using a detector using a stimulable phosphor is disclosed in Japanese Unexamined Patent Application Publication No. 2005-110,026. 55-12429 gazette, JP-A-63-189853 gazette,
Many have been disclosed.
【0003】このような装置では、シ−ト状の基板に輝
尽性蛍光体を塗布、あるいは蒸着等によって固着したデ
ィテクタに、いったん被写体を透過した放射線を照射し
て輝尽性蛍光体に放射線を吸収させる。In such an apparatus, a stimulable phosphor is applied to a sheet-like substrate, or is fixed by vapor deposition or the like. To absorb.
【0004】その後、この輝尽性蛍光体を光または熱エ
ネルギ−で励起することにより、この輝尽性蛍光体が上
記吸収によって蓄積している放射線エネルギ−を蛍光と
して放射させ、この蛍光を光電変換して画像信号を得る
ようにしている。Thereafter, the stimulable phosphor is excited by light or heat energy to emit the radiation energy accumulated by the stimulable phosphor as a result of the above-mentioned absorption, and the fluorescence is converted to a photoelectric energy. Conversion is performed to obtain an image signal.
【0005】一方、照射された放射線の強度に応じた電
荷を光導電層に生成し、生成された電荷を二次元的に配
列された複数のコンデンサに蓄積し、それら蓄積された
電荷を取り出すことにより得られる放射線画像検出装置
が提案されている。On the other hand, an electric charge corresponding to the intensity of the irradiated radiation is generated in the photoconductive layer, the generated electric charge is accumulated in a plurality of two-dimensionally arranged capacitors, and the accumulated electric charge is taken out. Has been proposed.
【0006】このような放射線画像検出装置では、フラ
ットパネルディテクタ(FPD)と呼ばれるものを使用
している。この種のFPDは、特開平9−90048号
公報に記載されているように、蛍光をフォトダイオード
で検知したり、CCDやC−MOSセンサで検出するこ
とができる。また、特開平6−342098号公報にも
同様なFPDが記載されている。[0006] Such a radiation image detecting apparatus uses what is called a flat panel detector (FPD). As described in Japanese Patent Application Laid-Open No. 9-90048, this type of FPD can detect fluorescence with a photodiode or a CCD or C-MOS sensor. A similar FPD is described in Japanese Patent Application Laid-Open No. 6-342098.
【0007】これらの装置では、放射線画像を診断に適
した階調で表現するために、医師が注目する部分(関心
領域)について見やすくなるよう、前記のような装置で
得られた画像を自動的に階調変換することが望ましい。[0007] In these devices, in order to express a radiographic image in a gradation suitable for diagnosis, an image obtained by the above device is automatically converted so that a doctor can easily see a portion (region of interest) of interest. It is desirable to perform gradation conversion.
【0008】このようなものとして、画像のヒストグラ
ム解析に基づいて階調処理条件を決定する技術が、持公
平6−44796号公報、持公平5−69347公報に記載されてい
る。また、周波数強調処理の強調係数が信号値に依存し
て定まる技術が、特公昭62−62373、特公昭62−62376号
公報に記載されている。さらに、ダイナミックレンジ圧
縮処理の補正係数が信号値に依存して定まる技術が、特
許登録266318号の公報に記載されている。[0008] As such, techniques for determining gradation processing conditions based on histogram analysis of an image are described in Japanese Patent Publication No. 6-44796 and Japanese Patent Publication No. 5-69347. Further, a technique in which the enhancement coefficient of the frequency enhancement processing is determined depending on the signal value is described in JP-B-62-62373 and JP-B-62-62376. Further, a technique in which a correction coefficient of the dynamic range compression processing is determined depending on a signal value is described in Japanese Patent Application No. 266318.
【0009】[0009]
【発明が解決しようとする課題】一般に、人体の放射線
画像内には、主たる診断対象である人体構造と、従たる
診断対象である人体構造が含まれる。In general, a radiation image of a human body includes a human body structure as a main diagnostic object and a human body structure as a secondary diagnostic object.
【0010】ここで、 ・四肢骨画像:骨部(主)・軟部(従), ・胸部画像 :肺野(主)・縦隔(従), となっている。Here, limb bone image: bone part (main) / soft part (secondary), chest image: lung field (main) / mediastinum (secondary).
【0011】また、放射線画像の信号値とその頻度分布
であるヒストグラムが同一形状であっても、各人体構造
の信号分布は異なる場合がある。たとえば、図13
(a)のようなヒストグラムであるとしても、患者によ
っては、図13(b)の場合と図13(c)の場合とが
考えられる。Further, even if the signal value of the radiation image and the histogram which is the frequency distribution thereof have the same shape, the signal distribution of each human body structure may be different. For example, FIG.
Even if the histogram is as shown in (a), depending on the patient, the case of FIG. 13 (b) and the case of FIG. 13 (c) can be considered.
【0012】このような場合に同一の階調処理を施す
と、 患者Aの骨部が適正濃度ならば、患者Bの骨部は高濃
度領域に片寄る, 患者Bの骨部が適正濃度ならば、患者Aの骨部は低濃
度領域に片寄る, といった現象が発生する。In such a case, if the same gradation processing is performed, if the bone of the patient A has the proper density, the bone of the patient B will be shifted to the high density region. If the bone of the patient B has the proper density, And the bone of the patient A is shifted to the low concentration region.
【0013】ここで、図13に対応した図14を用いて
説明する。上記の場合に、同一の周波数強調処理または
ダイナミックレンジ圧縮処理(信号値に依存して処理の
程度が異なる)を適用すると、階調処理の場合には図1
4(d)と(e)のようになり、周波数強調処理の場合
には図14(f)と(g)のようになり、ダイナミック
レンジ圧縮処理の場合には図14(h)と(i)のよう
になる。A description will now be given with reference to FIG. 14 corresponding to FIG. In the above case, if the same frequency emphasis processing or dynamic range compression processing (the degree of processing differs depending on the signal value) is applied, in the case of gradation processing, FIG.
14 (d) and (e), and in the case of the frequency emphasis processing, as shown in FIGS. 14 (f) and (g), and in the case of the dynamic range compression processing, FIGS. 14 (h) and (i). )become that way.
【0014】この結果、 患者Aの骨部と患者Bの骨部とで、周波数強調または
ダイナミックレンジ圧縮の程度が異なる, 患者Aの軟部と患者Bの軟郡とで、周波数強調または
ダイナミックレンジ圧縮の程度が異なる, といった現象が発生する。As a result, the degree of frequency emphasis or dynamic range compression differs between the bone of patient A and the bone of patient B. Frequency emphasis or dynamic range compression is performed between the soft part of patient A and the soft group of patient B. The phenomena such as different degrees occur.
【0015】以上のように従来の画像処理では、同一部
位であっても患者の体形や骨の太さ,骨密度,臓器の大
きさ等によって、診断対象である人体構造の部分の仕上
がりにばらつきが生じる問題があった。As described above, in the conventional image processing, even in the same region, the finish of the part of the human body structure to be diagnosed varies depending on the patient's body shape, bone thickness, bone density, organ size, and the like. There was a problem that occurred.
【0016】一方、上記の患者の特徴に応じて複数の異
なる画像処理パラメータセットを用意する構成にする
と、構成が複雑になるだけでなく、オペレータの作業量
が増えるといった問題が新たに生じることになる。On the other hand, if a configuration is prepared in which a plurality of different image processing parameter sets are prepared according to the characteristics of the patient, not only the configuration becomes complicated, but also the problem that the amount of work of the operator increases is newly generated. Become.
【0017】本発明は以上のような課題に鑑みてなされ
たものであって、被写体に含まれる骨部と軟部との割合
に関わらず、自動的に最適な画像処理条件を求め、煩雑
な操作無しに診断に最適な画像を自動的に得ることが可
能な放射線画像処理方法および放射線画像処理装置を実
現することを目的とする。SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and automatically determines an optimal image processing condition regardless of the ratio of a bone portion and a soft portion included in a subject. It is an object of the present invention to realize a radiation image processing method and a radiation image processing apparatus capable of automatically obtaining an optimal image for diagnosis without the need.
【0018】[0018]
【課題を解決するための手段】すなわち、前記した課題
を解決する本発明は、以下の通りである。That is, the present invention for solving the above-mentioned problems is as follows.
【0019】(1)請求項1記載の発明は、被写体を透
過した放射線量に対応して形成された放射線画像の画像
データを解析することにより、主たる診断対象である被
写体構造に相当する第1の関心領域と、従たる診断対象
である被写体構造に相当する第2の関心領域とを含む複
数の関心領域を決定し、前記決定された各関心領域毎に
該関心領域に含まれる画像データに基づいて画像処理条
件因子を生成し、前記生成された複数の画像処理条件因
子に基づいて画像処理条件を決定し、前記決定された画
像処理条件を用いて前記放射線画像に画像処理を施す、
を有することを特徴とする放射線画像処理方法である。(1) According to the first aspect of the present invention, by analyzing image data of a radiation image formed corresponding to a radiation dose transmitted through a subject, a first structure corresponding to a subject structure which is a main diagnostic object is analyzed. A plurality of regions of interest including a region of interest and a second region of interest corresponding to a subject structure to be diagnosed are determined, and the image data included in the region of interest is determined for each of the determined regions of interest. Generating an image processing condition factor based on the determined plurality of image processing condition factors, determining an image processing condition based on the generated plurality of image processing condition factors, and performing image processing on the radiation image using the determined image processing condition,
And a radiation image processing method.
【0020】請求項11記載の発明は、被写体を透過し
た放射線量に対応して形成された放射線画像の画像デー
タを解析することにより、主たる診断対象である被写体
構造に相当する第1の関心領域と、従たる診断対象であ
る被写体構造に相当する第2の関心領域とを含む複数の
関心領域を決定する関心領域決定手段と、前記関心領域
決定手段により決定された各関心領域毎に該関心領域に
含まれる画像データに基づいて画像処理条件因子を生成
する画像処理条件因子生成手段と、前記画像処理条件因
子生成手段により生成された複数の画像処理条件因子に
基づいて画像処理条件を決定する画像処理条件決定手段
と、前記画像処理条件決定手段により決定された画像処
理条件を用いて前記放射線画像に画像処理を施す画像処
理手段と、を有することを特徴とする放射線画像処理装
置である。According to an eleventh aspect of the present invention, a first region of interest corresponding to a subject structure to be diagnosed is analyzed by analyzing image data of a radiation image formed corresponding to a radiation dose transmitted through the subject. A plurality of regions of interest including a second region of interest corresponding to a subject structure to be diagnosed, and a region of interest determined for each region of interest determined by the region of interest determination unit. Image processing condition factor generating means for generating an image processing condition factor based on the image data included in the region; and determining the image processing condition based on the plurality of image processing condition factors generated by the image processing condition factor generating means. Image processing condition determining means; and image processing means for performing image processing on the radiation image using the image processing conditions determined by the image processing condition determining means. It is a radiation image processing apparatus according to claim.
【0021】これらの発明では、放射線画像の画像デー
タを解析し複数の関心領域を決定し、各関心領域毎に画
像処理条件因子を生成し、これら複数の画像処理条件因
子に基づいて画像処理条件を決定して画像処理を施すよ
うにしている。According to these inventions, a plurality of regions of interest are determined by analyzing image data of a radiation image, an image processing condition factor is generated for each region of interest, and an image processing condition is determined based on the plurality of image processing condition factors. Is determined and image processing is performed.
【0022】この結果、複数の関心領域毎に画像処理条
件を決定しているので、被写体に含まれる骨部と軟部と
の割合に関わらず、自動的に最適な画像処理条件を求
め、煩雑な操作無しに診断に最適な画像を自動的に得る
ことが可能になる。As a result, since the image processing conditions are determined for each of the plurality of regions of interest, the optimum image processing conditions are automatically determined regardless of the ratio of the bones and the soft parts included in the subject, and the complicated processing is performed. It becomes possible to automatically obtain an optimal image for diagnosis without any operation.
【0023】(2)請求項2記載の発明は、前記関心領
域の決定が、画像内に複数の小領域を設定し、各小領域
毎に該小領域内の画像データに基づいてしきい値を決定
し、当該小領域内の画素の信号値を前記しきい値と比較
することにより、目的とする関心領域内の画素であるか
否かを判定し、前記判定された結果を総合することによ
り関心領域を決定する、ことを特徴とする請求項1記載
の放射線画像処理方法である。(2) The invention according to claim 2 is that, in the determination of the region of interest, a plurality of small regions are set in an image, and a threshold value is set for each small region based on image data in the small region. Is determined, and by comparing the signal value of the pixel in the small area with the threshold value, it is determined whether or not the pixel is in the target area of interest, and the determined results are integrated. 2. The radiographic image processing method according to claim 1, wherein a region of interest is determined by:
【0024】また、請求項12記載の発明は、前記関心
領域決定手段が、画像内に複数の小領域を設定し、各小
領域毎に該小領域内の画像データに基づいてしきい値を
決定するしきい値決定手段と、当該小領域内の画素の信
号値を前記しきい値と比較することにより、目的とする
関心領域内の画素であるか否かを判定する判定手段と、
を有し、前記判定手段により判定された結果を総合する
ことにより関心領域を決定する、ことを特徴とする請求
項11記載の放射線画像処理装置である。According to a twelfth aspect of the present invention, the region-of-interest determination means sets a plurality of small regions in an image, and sets a threshold value for each small region based on image data in the small region. Threshold value determining means for determining, by comparing the signal value of the pixel in the small area with the threshold value, determining means to determine whether the pixel is in the target region of interest,
12. The radiation image processing apparatus according to claim 11, wherein a region of interest is determined by integrating results determined by the determination unit.
【0025】これらの発明では、画像内に複数の小領域
を設定し、各小領域毎に該小領域内の画像データに基づ
いてしきい値を決定し、当該小領域内の画素の信号値を
前記しきい値と比較することにより、目的とする関心領
域内の画素であるか否かを判定し、前記判定された結果
を総合することにより複数の関心領域を決定し、各関心
領域毎に画像処理条件因子を生成し、これら複数の画像
処理条件因子に基づいて画像処理条件を決定して画像処
理を施すようにしている。In these inventions, a plurality of small areas are set in an image, a threshold value is determined for each small area based on image data in the small area, and a signal value of a pixel in the small area is determined. Is compared with the threshold value to determine whether or not the pixel is within the target region of interest, and a plurality of regions of interest are determined by integrating the determined results. The image processing condition factors are generated, and the image processing conditions are determined based on the plurality of image processing condition factors to perform the image processing.
【0026】この結果、複数の関心領域を正確に決定し
て画像処理条件を決定しているので、被写体に含まれる
骨部と軟部との割合に関わらず、自動的に最適な画像処
理条件を求め、煩雑な操作無しに診断に最適な画像を自
動的に得ることが可能になる。As a result, since the image processing conditions are determined by accurately determining a plurality of regions of interest, the optimum image processing conditions are automatically determined irrespective of the ratio between the bones and the soft parts included in the subject. This makes it possible to automatically obtain an optimum image for diagnosis without any complicated operation.
【0027】(3)請求項3記載の発明は、前記関心領
域の決定が、画像を複数の走査線を用いて走査し、各走
査線上の任意の画素について近傍画素間の信号変化によ
る特性値を計算し、前記計算された特性値を用いて、前
記走査線上の画素が、目的とする関心領域の輪郭線上の
点か否かを判定し、前記判定された結果を総合すること
により前記関心領域の輪郭線を決定し、前記輪郭線によ
り囲まれた領域を前記関心領域とする、ことを特徴とす
る請求項1記載の放射線画像処理方法である。(3) The invention according to claim 3, wherein the determination of the region of interest is performed by scanning an image using a plurality of scanning lines, and for any pixel on each scanning line, a characteristic value due to a signal change between neighboring pixels. Is calculated, using the calculated characteristic value to determine whether or not a pixel on the scanning line is a point on the contour of the target region of interest, and integrating the determined result to determine the interest 2. The radiation image processing method according to claim 1, wherein a contour of the region is determined, and a region surrounded by the contour is set as the region of interest.
【0028】また、請求項13記載の発明は、前記関心
領域決定手段が、画像を複数の走査線を用いて走査し、
各走査線上の任意の画素について近傍画素間の信号変化
による特性値を計算する特性値計算手段と、前記特性値
計算手段により計算された特性値を用いて、前記走査線
上の画素が、目的とする関心領域の輪郭線上の点か否か
を判定する判定手段と、を備え、前記判定手段により判
定された結果を総合することにより前記関心領域の輪郭
線を決定し、前記輪郭線により囲まれた領域を前記関心
領域とする、ことを特徴とする請求項11記載の放射線
画像処理装置である。According to a thirteenth aspect of the present invention, the region of interest determining means scans the image using a plurality of scanning lines,
A characteristic value calculation unit that calculates a characteristic value due to a signal change between neighboring pixels for an arbitrary pixel on each scanning line, and using the characteristic value calculated by the characteristic value calculation unit, a pixel on the scanning line is used for the purpose. A determination unit that determines whether or not the point is on the contour of the region of interest to be determined.The contour of the region of interest is determined by integrating the results determined by the determination unit, and is surrounded by the contour. 12. The radiation image processing apparatus according to claim 11, wherein a region that has been set is the region of interest.
【0029】これらの発明では、走査線上の画素が目的
とする関心領域の輪郭線上の点か否かを判定し、判定さ
れた結果を総合することにより前記関心領域の輪郭線を
決定して複数の関心領域を決定し、各関心領域毎に画像
処理条件因子を生成し、これら複数の画像処理条件因子
に基づいて画像処理条件を決定して画像処理を施すよう
にしている。In these inventions, it is determined whether or not a pixel on the scanning line is a point on the contour of the target region of interest, and the determined result is integrated to determine the contour of the region of interest. Are determined, image processing condition factors are generated for each region of interest, and image processing conditions are determined based on the plurality of image processing condition factors to perform image processing.
【0030】この結果、関心領域の判別が正確になるた
め、複数の関心領域毎の画像処理条件も正確になり、自
動的に最適な画像処理条件を求め、煩雑な操作無しに診
断に最適な画像を自動的に得ることが可能になる。As a result, since the determination of the region of interest is accurate, the image processing conditions for each of the plurality of regions of interest are also accurate, and the optimal image processing conditions are automatically obtained, and the optimal image processing conditions are obtained without complicated operations. Images can be obtained automatically.
【0031】(4)請求項4記載の発明は、前記関心領
域の決定が、画像内に複数の小領域を設定し、各小領域
毎に該小領域内の画像データに基づいて抽出した特徴を
ベクトル要素として有する特徴ベクトルを生成し、前記
生成された特徴ベクトルの集合を統計的に分類すること
により、複数のクラスタを生成し、前記複数の小領域に
ついて、各小領域の特徴ベクトルが前記複数のクラスタ
のうちのいずれに属するかに基づいて関心領域を決定す
る、ことを特徴とする請求項1記載の放射線画像処理方
法である。(4) The invention according to claim 4, wherein the region of interest is determined by setting a plurality of small regions in an image and extracting each small region based on image data in the small region. Is generated as a vector element, a plurality of clusters are generated by statistically classifying a set of the generated feature vectors, and for the plurality of small regions, the feature vector of each small region is The radiation image processing method according to claim 1, wherein the region of interest is determined based on which of the plurality of clusters the region belongs.
【0032】また、請求項14記載の発明は、前記関心
領域決定手段が、画像内に複数の小領域を設定し、各小
領域毎に該小領域内の画像データに基づいて抽出した特
徴をベクトル要素として有する特徴ベクトルを生成する
特徴ベクトル生成手段と、前記特徴ベクトル生成手段に
より生成された特徴ベクトルの集合を統計的に分類する
ことにより、複数のクラスタを生成するクラスタ生成手
段と、を備え、前記複数の小領域について、各小領域の
特徴ベクトルが前記複数のクラスタのうちのいずれに属
するかに基づいて関心領域を決定する、ことを特徴とす
る請求項11記載の放射線画像処理装置である。According to a fourteenth aspect of the present invention, the region-of-interest determination means sets a plurality of small regions in an image and extracts each small region based on image data in the small region. Feature vector generating means for generating a feature vector having a vector element, and cluster generating means for generating a plurality of clusters by statistically classifying a set of feature vectors generated by the feature vector generating means. 12. The radiation image processing apparatus according to claim 11, wherein, for the plurality of small regions, a region of interest is determined based on which of the plurality of clusters the feature vector of each small region belongs to. is there.
【0033】これらの発明では、小領域毎の特徴ベクト
ルを分類して複数の関心領域を決定し、各関心領域毎に
画像処理条件因子を生成し、これら複数の画像処理条件
因子に基づいて画像処理条件を決定して画像処理を施す
ようにしている。In these inventions, a plurality of regions of interest are determined by classifying feature vectors for each small region, an image processing condition factor is generated for each region of interest, and an image processing condition factor is determined based on the plurality of image processing condition factors. Processing conditions are determined and image processing is performed.
【0034】この結果、関心領域の判別が正確になるた
め、複数の関心領域毎の画像処理条件も正確になり、自
動的に最適な画像処理条件を求め、煩雑な操作無しに診
断に最適な画像を自動的に得ることが可能になる。As a result, since the determination of the region of interest is accurate, the image processing conditions for each of the plurality of regions of interest are also accurate, and the optimum image processing conditions are automatically determined, and the optimum image processing conditions are obtained without complicated operations. Images can be obtained automatically.
【0035】(5)請求項5記載の発明は、前記画像処
理条件因子の生成が、各関心領域毎に該関心領域に含ま
れる画像データに基づいて代表的な信号範囲を抽出し、
予め与えられた画像処理パラメータに基づいて、前記代
表的な信号範囲に対応する画像処理条件因子を生成す
る、ことを特徴とする請求項1記載の放射線画像処理方
法である。(5) The invention according to claim 5, wherein the image processing condition factor is generated by extracting a representative signal range for each region of interest based on image data included in the region of interest.
2. The radiation image processing method according to claim 1, wherein an image processing condition factor corresponding to the representative signal range is generated based on a predetermined image processing parameter.
【0036】また、請求項15記載の発明は、前記画像
処理条件因子生成手段が、各関心領域毎に該関心領域に
含まれる画像データに基づいて代表的な信号範囲を抽出
する代表信号範囲抽出手段を有し、予め与えられた画像
処理パラメータに基づいて、前記代表的な信号範囲に対
応する画像処理条件因子を生成する、ことを特徴とする
請求項11記載の放射線画像処理装置である。According to a fifteenth aspect of the present invention, the image processing condition factor generating means extracts a representative signal range for each region of interest based on image data included in the region of interest. The radiation image processing apparatus according to claim 11, further comprising means for generating an image processing condition factor corresponding to the representative signal range based on image processing parameters given in advance.
【0037】これらの発明では、関心領域に含まれる代
表的な信号範囲から画像処理条件因子を求め、これら複
数の画像処理条件因子に基づいて画像処理条件を決定し
て画像処理を施すようにしている。In these inventions, an image processing condition factor is determined from a representative signal range included in a region of interest, and an image processing condition is determined based on the plurality of image processing condition factors to perform image processing. I have.
【0038】この結果、画像処理条件因子の作成が正確
になるため、複数の関心領域毎の画像処理条件も正確に
なり、自動的に最適な画像処理条件を求め、煩雑な操作
無しに診断に最適な画像を自動的に得ることが可能にな
る。As a result, since the creation of the image processing condition factors is accurate, the image processing conditions for each of a plurality of regions of interest are also accurate, and the optimum image processing conditions are automatically obtained, and the diagnosis can be performed without complicated operations. An optimal image can be obtained automatically.
【0039】(6)請求項6記載の発明は、前記画像処
理が階調処理である、ことを特徴とする請求項1乃至請
求項5のいずれかに記載の放射線画像処理方法である。(6) The radiation image processing method according to any one of claims 1 to 5, wherein the image processing is gradation processing.
【0040】また、請求項16記載の発明は、前記画像
処理が階調処理である、ことを特徴とする請求項11乃
至請求項15のいずれかに記載の放射線画像処理装置で
ある。The invention according to claim 16 is the radiation image processing apparatus according to any one of claims 11 to 15, wherein the image processing is gradation processing.
【0041】これらの発明では、画像処理が階調処理で
あるので、煩雑な操作無しに診断に最適な階調処理を施
した画像を自動的に得ることが可能になる。In these inventions, since the image processing is gradation processing, it is possible to automatically obtain an image subjected to gradation processing optimal for diagnosis without complicated operations.
【0042】(7)請求項7記載の発明は、前記画像処
理が周波数強調処理である、ことを特徴とする請求項1
乃至請求項5のいずれかに記載の放射線画像処理方法で
ある。(7) The invention according to claim 7 is characterized in that the image processing is frequency emphasis processing.
A radiation image processing method according to any one of claims 1 to 5.
【0043】また、請求項17記載の発明は、前記画像
処理が周波数強調処理である、ことを特徴とする請求項
11乃至請求項15のいずれかに記載の放射線画像処理
装置である。According to a seventeenth aspect of the present invention, there is provided the radiation image processing apparatus according to any one of the eleventh to fifteenth aspects, wherein the image processing is a frequency enhancement processing.
【0044】これらの発明では、画像処理が周波数強調
処理であるので、煩雑な操作無しに診断に最適な周波数
強調処理を施した画像を自動的に得ることが可能にな
る。In these inventions, since the image processing is the frequency emphasis processing, it is possible to automatically obtain an image subjected to the frequency emphasis processing optimal for diagnosis without complicated operation.
【0045】(8)請求項8記載の発明は、前記画像処
理がダイナミックレンジ圧縮処理である、ことを特徴と
する請求項1乃至請求項5のいずれかに記載の放射線画
像処理方法である。(8) The radiation image processing method according to any one of claims 1 to 5, wherein the image processing is a dynamic range compression processing.
【0046】また、請求項18記載の発明は、前記画像
処理がダイナミックレンジ圧縮処理である、ことを特徴
とする請求項11乃至請求項15のいずれかに記載の放
射線画像処理装置である。The invention according to claim 18 is the radiation image processing apparatus according to any one of claims 11 to 15, wherein the image processing is a dynamic range compression processing.
【0047】これらの発明では、画像処理がダイナミッ
クレンジ圧縮処理であるので、煩雑な操作無しに診断に
最適なダイナミックレンジ圧縮処理を施した画像を自動
的に得ることが可能になる。In these inventions, since the image processing is the dynamic range compression processing, it is possible to automatically obtain an image that has been subjected to the dynamic range compression processing optimal for diagnosis without complicated operations.
【0048】(9)請求項9記載の発明は、前記放射線
画像または前記画像処理を施された処理画像を表示し、
前記放射線画像もしくは処理画像の表示と共に、前記関
心領域に関する情報、または前記画像処理条件因子に関
する情報、または前記画像処理条件に関する情報を表示
する、ことを特徴とする請求項1乃至請求項8のいずれ
かに記載の放射線画像処理方法である。(9) The invention according to claim 9 displays the radiographic image or the processed image subjected to the image processing,
9. The display according to claim 1, further comprising displaying information on the region of interest, information on the image processing condition factor, or information on the image processing condition, together with the display of the radiation image or the processed image. Or a radiation image processing method described in
【0049】また、請求項19記載の発明は、前記放射
線画像または前記画像処理を施された処理画像を表示す
る画像表示手段を有し、該画像表示手段に、放射線画像
もしくは処理画像と共に、前記関心領域に関する情報、
または前記画像処理条件因子に関する情報、または前記
画像処理条件に関する情報を表示する、ことを特徴とす
る請求項11乃至請求項18のいずれかに記載の放射線
画像処理装置である。Further, the invention according to claim 19 has an image display means for displaying the radiation image or the processed image subjected to the image processing, and the image display means displays the radiation image or the processed image together with the radiation image or the processed image. Information about the area of interest,
19. The radiographic image processing apparatus according to claim 11, wherein information related to the image processing condition factor or information related to the image processing condition is displayed.
【0050】これらの発明では、画像の表示と共に、関
心領域に関する情報、前記画像処理条件因子に関する情
報、または前記画像処理条件に関する情報を表示するよ
うにしている。In these inventions, information on the region of interest, information on the image processing condition factor, or information on the image processing condition is displayed together with the display of the image.
【0051】この結果、画像処理に重要な影響を及ぼす
関心領域や画像処理条件因子や画像処理条件を表示する
ことで、正確で最適な画像処理を施した画像を得ると共
に、読影医に対して診断に役立つ情報を提供することに
寄与できる。As a result, by displaying a region of interest, an image processing condition factor, and an image processing condition that have an important effect on the image processing, it is possible to obtain an image that has been subjected to accurate and optimal image processing, and to provide an image interpretation doctor with the information. It can contribute to providing information useful for diagnosis.
【0052】(10)請求項10記載の発明は、画像処
理の修正に関する情報が入力されており、前記画像処理
条件の決定が、前記入力された情報に従って修正された
画像処理条件を決定し、前記修正された画像処理条件を
用いて前記放射線画像に画像処理を施す、ことを特徴と
する請求項1乃至請求項9のいずれかに記載の放射線画
像処理方法である。(10) According to a tenth aspect of the present invention, information relating to correction of image processing is input, and the determination of the image processing condition determines the image processing condition corrected according to the input information. The radiation image processing method according to any one of claims 1 to 9, wherein image processing is performed on the radiation image using the corrected image processing conditions.
【0053】また、請求項20記載の発明は、画像処理
の修正に関する情報を入力する修正情報入力手段とを有
し、前記画像処理条件決定手段が、前記修正情報入力手
段により入力された情報に従って修正された画像処理条
件を決定し、前記画像処理手段が、修正された画像処理
条件を用いて前記放射線画像に画像処理を施す、ことを
特徴とする請求項11乃至請求項19のいずれかに記載
の放射線画像処理装置である。Further, the invention according to claim 20 has correction information input means for inputting information relating to correction of image processing, wherein the image processing condition determining means determines the image processing condition according to the information input by the correction information input means. 20. The image processing apparatus according to claim 11, wherein a corrected image processing condition is determined, and the image processing unit performs image processing on the radiation image using the corrected image processing condition. It is a radiation image processing apparatus described in the above.
【0054】これらの発明では、オペレータの入力によ
り修正された画像処理条件で画像処理を施すようにして
いる。この結果、正確で最適な画像処理を施した画像を
得ると共に、診断目的や読影医の好みに合わせて調整さ
れた処理画像を提供することに寄与できる。In these inventions, the image processing is performed under the image processing conditions corrected by the input of the operator. As a result, it is possible to obtain an image on which accurate and optimal image processing has been performed, and to contribute to providing a processed image adjusted in accordance with the purpose of diagnosis and the preference of the radiologist.
【0055】[0055]
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態例を詳細に説明する。Embodiments of the present invention will be described below in detail with reference to the drawings.
【0056】以下、放射線画像処理装置の構成を大まか
なブロックに従って説明する。なお、本実施の形態例の
放射線画像処理装置の各手段は、ハードウェアやファー
ムウェア、またはソフトウェアで構成することが可能で
ある。このため、各手段の処理手順に沿った機能ブロッ
ク図を示す。Hereinafter, the configuration of the radiation image processing apparatus will be described in accordance with rough blocks. Note that each unit of the radiation image processing apparatus according to the present embodiment can be configured by hardware, firmware, or software. For this reason, a functional block diagram according to the processing procedure of each means is shown.
【0057】[A]放射線画像入力手段:図1に示すよ
うに、放射線画像入力手段10により、照射された放射
線量の対数に比例した信号値を有する画像が生成され
る。[A] Radiation image input means: As shown in FIG. 1, the radiation image input means 10 generates an image having a signal value proportional to the logarithm of the irradiated radiation dose.
【0058】この放射線画像入力手段10としては、前
述したFPDやCCDなどのセンサ類を使用したもの
や、輝尽性蛍光体プレートを読み取って放射線画像を生
成する既知の装置を使用することができる。なお、いず
れの場合も放射線の照射量の対数に比例した信号値が得
られ、かつ照射量が多いほど、信号値が高くなる。As the radiation image input means 10, a device using sensors such as the above-mentioned FPD and CCD, or a known device for reading a stimulable phosphor plate to generate a radiation image can be used. . In each case, a signal value proportional to the logarithm of the radiation dose is obtained, and the larger the dose, the higher the signal value.
【0059】なお、図示していないが、これ以降の各部
の処理に必要な時間を短縮するため、縮小画像生成手段
により、元の放射線画像からサンプリングをして画素数
を縮小させた間引き放射線画像を作成し、後述する関心
領域の抽出を行ってもよい。Although not shown, in order to reduce the time required for the subsequent processing of each part, the reduced image generating means samples the original radiation image and reduces the number of pixels by sampling the reduced radiation image. May be created, and a region of interest to be described later may be extracted.
【0060】[B]関心領域決定手段:関心領域決定手
段20では、放射線画像入力手段10より送信されてき
た放射線画像を解析する。[B] Region of Interest Determination Unit: The region of interest determination unit 20 analyzes the radiation image transmitted from the radiation image input unit 10.
【0061】これにより、主たる診断対象である被写体
構造に相当する第1の関心領域と、従たる診断対象であ
る被写体構造に相当する第2の関心領域とを含む複数の
関心領域を決定する。As a result, a plurality of regions of interest including the first region of interest corresponding to the structure of the subject to be diagnosed and the second region of interest corresponding to the structure of the subject to be diagnosed are determined.
【0062】関心領域の例としては、たとえば撮影部位
が下腿骨である場合(図3(a)の原画像参照)に、 ・主たる診断対象:骨部→関心領域1(図3(b)の斜
線部分を参照) ・主たる診断対象:軟部→関心領域2(図3(c)の斜
線部分を参照) というように関心領域を決定すればよい。As an example of the region of interest, for example, when the imaging region is the lower leg bone (refer to the original image in FIG. 3A), a main diagnosis target: a bone part → the region of interest 1 (FIG. 3B) The main diagnostic object: soft part → region of interest 2 (see the hatched portion in FIG. 3C) may determine the region of interest.
【0063】なお、この関心領域決定手段20は、図2
(a)〜(c)に示すように、以下の〜の3つの態
様が考えられる。The region-of-interest determination means 20 is provided in FIG.
As shown in (a) to (c), the following three aspects are considered.
【0064】局所的しきい値法:画像内に複数の小領
域を設定し、各小領域毎に該小領域内の画像データに基
づいてしきい値を決定するしきい値決定手段32と、当
該小領域内の画素の信号値を前記しきい値と比較するこ
とにより、目的とする関心領域内の画素であるか否かを
判定する判定手段33と、を有し(図2(a)参照)、
判定手段33により判定された結果を総合することによ
り関心領域を決定する。A local threshold value method: threshold value determining means 32 for setting a plurality of small regions in an image and determining a threshold value for each small region based on image data in the small region; A determination unit 33 that determines whether or not the pixel is in the target region of interest by comparing the signal value of the pixel in the small region with the threshold value (FIG. 2A). reference),
The region of interest is determined by summing the results determined by the determination means 33.
【0065】たとえば、図4のように撮影部位=肘関節
である場合を考える。まず、図4(a)〜図4(c)の
ようにして、被写体領域(=軟部+骨部)を抽出する。
ここで、被写体が撮影されている領域は、直接放射線が
照射されている領域と比較して照射線量が少ないため、
相対的に信号値が低くなる。そこで周囲よりも信号値が
低くなる領域を被写体領域として抽出する(図4
(c))。For example, let us consider a case where the imaging part is an elbow joint as shown in FIG. First, as shown in FIGS. 4A to 4C, a subject area (= soft part + bone part) is extracted.
Here, the area where the subject is imaged has a smaller irradiation dose compared to the area where direct radiation is irradiated,
The signal value becomes relatively low. Therefore, an area where the signal value is lower than the surrounding area is extracted as a subject area (FIG. 4).
(C)).
【0066】すなわち、以下の手順により実行する。 ・図4(a)に示すように、放射線画像を複数の小領域
に分割する。そして、各小領域内毎に、該小領域に含ま
れる画素信号値の平均信号値を第1しきい値Th1とし
てそれぞれ求める。 ・各小領域毎に、第1しきい値Th1より信号値の低い
画素を被写体領域として検出する(図4(b)参照)。 ・以上の各小領域で得られた被写体領域に関し、全部の
被写体領域の平均信号値を求め、第2しきい値Th2と
する。 ・画像全体で、第2しきい値Th2よりも信号値の低い
画素を被写体領域として検出する(図4(c)参照)。 ・そして、以上のように抽出された被写体領域の内側の
みを用いて、上記と同様の手法を繰り返す(図4
(d))。繰り返しにより、骨部領域が抽出される(図
4(e))。 ・このようにして求めた骨部領域を関心領域1とし、
(c)で求めた被写体領域から関心領域1を除外した領
域を関心領域2とする。That is, it is executed according to the following procedure. As shown in FIG. 4A, the radiation image is divided into a plurality of small areas. Then, for each small area, an average signal value of the pixel signal values included in the small area is obtained as the first threshold Th1. For each small area, a pixel having a signal value lower than the first threshold value Th1 is detected as a subject area (see FIG. 4B). With respect to the subject area obtained in each of the above-described small areas, an average signal value of all the subject areas is obtained, and is set as a second threshold value Th2. In the entire image, a pixel having a signal value lower than the second threshold value Th2 is detected as a subject area (see FIG. 4C). Then, a method similar to the above is repeated using only the inside of the subject area extracted as described above (FIG. 4).
(D)). By the repetition, a bone region is extracted (FIG. 4E). -The bone region obtained in this manner is defined as a region of interest 1,
A region obtained by excluding the region of interest 1 from the subject region obtained in (c) is defined as a region of interest 2.
【0067】上記では各小領域に対してTh1およびT
h2の2種類のしきい値を用いて2段階のしきい値処理
を行う例を示したが、1種類のしきい値を用いた1段階
のしきい値処理、または3種類以上のしきい値を用いた
多段階のしきい値処理でもよい。上記では放射線画像を
互いに重ならない複数の小領域に分割する例を示した
が、互いに重なり合う小領域を設定してもよい。また、
上記の図4(a)〜(c)のステップと図4(d)〜
(e)のステップとで、小領域の分割のしかたは相互に
異なってもよい。上記のような局所的しきい値法を行っ
て決定した関心領域を、一般に知られている境界追跡法
や膨張収縮処理等を用いて修正してもよい。また、決定
された関心領域の面積や形状、信号分布等を検査するこ
とにより、決定された関心領域の正誤判定を行い、誤り
と判定された場合には小領域の分割方法やしきい値の値
を変更して再度処理を行うようにしてもよい。In the above description, Th1 and T
An example has been described in which two-stage threshold processing is performed using two types of thresholds h2, but one-stage threshold processing using one type of threshold, or three or more types of thresholds are performed. Multi-level threshold processing using values may be used. Although an example in which the radiation image is divided into a plurality of small regions that do not overlap each other has been described above, small regions that overlap each other may be set. Also,
4 (a) to 4 (c) and FIGS.
In the step (e), the way of dividing the small area may be different from each other. The region of interest determined by performing the local threshold method as described above may be corrected using a generally known boundary tracking method, expansion / contraction processing, or the like. In addition, by inspecting the area and shape of the determined region of interest, the signal distribution, etc., it is determined whether or not the determined region of interest is correct. The value may be changed and the process may be performed again.
【0068】輪郭抽出法:画像を複数の走査線を用い
て走査し、各走査線上の任意の画素について近傍画素間
の信号変化による特性値を計算する特性値計算手段34
と、前記特性値計算手段34により計算された特性値を
用いて、前記走査線上の画素が、目的とする関心領域の
輪郭線上の点か否かを判定する判定手段35と、を備え
(図2(b)参照)、判定手段35により判定された結
果を総合することにより前記関心領域の輪郭線を決定
し、前記輪郭線により囲まれた領域を前記関心領域とす
る。Contour extraction method: A characteristic value calculating means 34 for scanning an image using a plurality of scanning lines and calculating a characteristic value of an arbitrary pixel on each scanning line due to a signal change between neighboring pixels.
And determining means 35 for determining whether or not a pixel on the scanning line is a point on a contour of a target region of interest using the characteristic value calculated by the characteristic value calculating means 34 (FIG. 2 (b)), the outline of the region of interest is determined by integrating the results determined by the determination means 35, and the region surrounded by the outline is defined as the region of interest.
【0069】たとえば、図5のように撮影部位=肘関節
である場合を考える。 ・図5(a)に示すように、放射線画像または縮小放射
線画像について、水平および垂直方向に走査する。この
図5(a)において、水平方向破線および垂直方向の一
点鎖線が走査の結果(走査線)の様子を模式的に示して
いる。 ・水平方向の走査線の場合、放射線画像の左端から順
に、任意の画素について、右側の近傍画素との微分値S
1を求める。S1が正の値の第1しきい値Th1よりも
大きければ、被写体領域の境界点BLとして検出する。 ・また、S1がTh1よりも小さい場合、被写体領域の
境界点ではないとして、1画素または複数画素右側に隣
接した画素へ移動し、同様の手順を行う。 ・以上の処理を繰り返し、BLが見つかるか、所定の条
件を満たすまで繰り返す。ここで、所定の条件とは、例
えば、走査距離で決定し、走査距離が走査線の長さの3/
4を超えると、BLが見つからなくても走査を終了すると
いった条件である。このように終了した場合BLは走査
線上の左端に設定する。 ・次に、画像の右端から順に、上記と逆方向へ水平方向
の走査を行う。今度は任意の画素について、その左側に
存在する近傍画素との微分値S2を求め、S2が前記第
1しきい値Th1の逆符号の第2しきい値Th2よりも
小さければ、被写体境界点BRとして検出する。 ・以上のBLと同様にBRが見つかるか、所定の条件を満
たすまで繰り返す。BRが見つからない場合、走査線上
の右端にBRを設定する。 ・もし、BRの方が、BLよりも左側に存在する場合、B
LとBRを入れ替える。 ・垂直方向の走査線についても、以上と同様の手順で、
被写体上端の境界点Bt,下端の境界点Bbを求める。 ・隣接する走査線上にあるBR,BLをそれぞれ連結し、
できた線分に挟まれた領域を被写体領域として抽出す
る。また同様にBt,Bbをそれぞれ連結し、できた線分
に挟まれた領域を被写体領域として抽出する(図5
(b)参照) ・以上の処理により得られた境界点を結んで得られた領
域の内部について、さらに同じ処理を繰り返して境界点
を求める。一本の走査線上で行う一回の探索において、
検出する境界点の数は2であるが、最終的に、一本の走
査線上の境界点は4個となる。なお、以上の処理で、そ
れぞれの探索において検出する2個の境界点の検出条件
(しきい値および探索範囲)は、互いに異なる条件とし
てもよい。 ・内側の境界点同士を連結してできた領域を関心領域1
とし、外側の境界点同士を連結してできた領域から関心
領域1を除外した領域を関心領域2とする。For example, let us consider a case where the imaging part is an elbow joint as shown in FIG. As shown in FIG. 5A, the radiographic image or the reduced radiographic image is scanned in the horizontal and vertical directions. In FIG. 5A, a broken line in the horizontal direction and a dashed line in the vertical direction schematically show the result of scanning (scanning line). In the case of a horizontal scanning line, a derivative value S of an arbitrary pixel with respect to the right neighboring pixel is sequentially determined from the left end of the radiation image.
Find 1 If S1 is larger than a positive first threshold value Th1, it is detected as a boundary point BL of the subject area. When S1 is smaller than Th1, it is determined that the pixel is not a boundary point of the subject area, and the pixel is moved to a pixel adjacent to one or more pixels to the right, and the same procedure is performed. The above processing is repeated until BL is found or a predetermined condition is satisfied. Here, the predetermined condition is determined, for example, by the scanning distance, and the scanning distance is 3/3 of the length of the scanning line.
If it exceeds 4, the condition is that scanning is terminated even if BL is not found. When the processing is completed as described above, BL is set at the left end on the scanning line. Next, horizontal scanning is performed in the reverse direction to the above in order from the right end of the image. This time, a derivative value S2 of an arbitrary pixel with respect to a neighboring pixel existing on the left side thereof is obtained. If S2 is smaller than a second threshold value Th2 having a sign opposite to the first threshold value Th1, the subject boundary point BR Detected as・ Repeat until BR is found or a predetermined condition is satisfied in the same manner as the above BL. If BR is not found, BR is set at the right end on the scanning line.・ If BR is on the left side of BL, B
Swap L and BR.・ For vertical scanning lines, follow the same procedure as above.
A boundary point Bt at the upper end of the subject and a boundary point Bb at the lower end are obtained. .BR and BL on adjacent scanning lines are respectively connected,
A region sandwiched between the formed line segments is extracted as a subject region. Similarly, Bt and Bb are connected to each other, and a region sandwiched between the formed line segments is extracted as a subject region (FIG. 5).
(Refer to (b).) The same processing is repeated for the inside of the area obtained by connecting the boundary points obtained by the above processing to obtain the boundary points. In one search performed on one scan line,
The number of boundary points to be detected is two, but finally four boundary points on one scanning line. In the above processing, the detection conditions (threshold and search range) of the two boundary points detected in each search may be different from each other. A region of interest formed by connecting the inner boundary points to the region of interest 1
The region obtained by excluding the region of interest 1 from the region formed by connecting the outer boundary points is defined as the region of interest 2.
【0070】上記のような輪郭抽出法を行って決定した
関心領域を、輪郭のスムージング処理や膨張収縮処理等
を用いて修正してもよい。また、決定された関心領域の
面積や形状、信号分布等を検査することにより、決定さ
れた関心領域の正誤判定を行い、誤りと判定された場合
には走査線の位置やしきい値の値を変更して再度処理を
行うようにしてもよい。The region of interest determined by performing the above-described contour extraction method may be corrected using a contour smoothing process, an expansion / contraction process, or the like. In addition, by inspecting the area and shape of the determined region of interest, the signal distribution, and the like, the determined region of interest is determined to be correct or incorrect, and if determined to be incorrect, the position of the scanning line or the value of the threshold value is determined. May be changed and the process may be performed again.
【0071】階層的クラスタリング法:画像内に複数
の小領域を設定し、各小領域毎に該小領域内の画像デー
タに基づいて抽出した特徴をベクトル要素として有する
特徴ベクトルを生成する特徴ベクトル生成手段36と、
前記特徴ベクトル生成手段36により生成された特徴ベ
クトルの集合を統計的に分類することにより、複数のク
ラスタを生成するクラスタ生成手段37と、を備え(図
2(c)参照)、前記複数の小領域について、各小領域
の特徴ベクトルが前記複数のクラスタのうちのいずれに
属するかに基づいて関心領域を決定する。Hierarchical clustering method: A feature vector generation for setting a plurality of small areas in an image and generating a feature vector having, as a vector element, a feature extracted for each small area based on image data in the small area. Means 36;
A cluster generation unit 37 that generates a plurality of clusters by statistically classifying a set of feature vectors generated by the feature vector generation unit 36 (see FIG. 2C). For the region, the region of interest is determined based on which of the plurality of clusters the feature vector of each small region belongs to.
【0072】この階層化クラスタリングの手法について
は、Medical Imaging Technology Vol.15,No.4,PP.51
7,1997とMedical Imaging Technology Vol.16,No.4,P
P.455,1998とに記載されている。This hierarchical clustering method is described in Medical Imaging Technology Vol. 15, No. 4, PP.
7,1997 and Medical Imaging Technology Vol.16, No.4, P
P. 455, 1998.
【0073】具体的には以下の手順で階層的クラスタリ
ング法を実行する。 ・図6(a)に示すように、画像内にn画素×n画素の
小領域Aj を設定する。そして、小領域Aj を1画素ず
つずらしながら画像全体にわたって設定し、J個の小領
域Aj (j=0,1,…,j-1)を得る。 ・小領域Aj に含まれる画素の画素値をVj pqと表す。
ここで、p=0,1,…,n-1、q=0,1,…,n-1である(図6
(b)参照)。 ・以下のように、画素値をベクトル要素としてもつ(n
×n)次元のパターンベクトルPj を作成する。 Pj =(Vj 00,Vj 10,Vj 20,…,Vj n-1 0,Vj 01,
Vj 11,…,Vj n-1 1,…,Vj n-1 n-1) ・全てのパターンベクトルPj (j=0,1,…,j-1)を
(n×N)次元空間に配置し、統計的手法を用いて複数
のクラスタに分離する。なお、クラスタ生成手法として
は、アニーリング手法、K−means手法などを用いること
が可能である。 ・骨部,軟部,それ以外の画像領域は互いにテクスチヤ
が異なるため、異なるクラスタに属する。そのため、こ
れらを、それぞれ関心領域1、関心領域2、それ以外の
領域、に分離する。Specifically, the hierarchical clustering method is executed according to the following procedure. As shown in FIG. 6A, a small area Aj of n pixels × n pixels is set in the image. Then, the small area Aj is set over the entire image while being shifted by one pixel, and J small areas Aj (j = 0, 1,..., J-1) are obtained. -The pixel value of the pixel included in the small area Aj is represented as Vj pq.
Here, p = 0, 1,..., N−1 and q = 0, 1,.
(B)). Has a pixel value as a vector element as follows (n
Xn) Create a dimensional pattern vector Pj. Pj = (Vj 00, Vj 10, Vj 20,..., Vj n-1 0, Vj 01,
Vj 11,..., Vj n-1 1,..., Vj n-1 n-1) All pattern vectors Pj (j = 0, 1,..., J-1) are arranged in an (n × N) -dimensional space. Then, it is separated into a plurality of clusters using a statistical method. Note that an annealing method, a K-means method, or the like can be used as a cluster generation method. The bones, soft parts, and other image areas have different textures and belong to different clusters. Therefore, these are separated into regions of interest 1, regions of interest 2, and other regions.
【0074】上記では原画像の画素値をベクトル要素と
する例を示したが、原画像に対し周波数処理等の画像処
理を施した結果の画素値をベクトル要素としてもよい。
上記のような階層的クラスクリング法を行って決定した
関心領域を、一般に知られている境界追跡法や膨張収縮
処理等を用いて修正してもよい。また、決定された関心
領域の面積や形状・信号分布等を検査することにより、
決定された関心領域の正誤判定を行い、誤りと判定され
た場合には小領域サイズやクラスタ生成手法を変更して
再度処理を行うようにしてもよい。In the above, an example in which the pixel value of the original image is used as a vector element has been described. However, the pixel value obtained by performing image processing such as frequency processing on the original image may be used as the vector element.
The region of interest determined by performing the above-described hierarchical clascling method may be corrected using a generally known boundary tracking method, expansion / contraction processing, or the like. Also, by inspecting the area, shape, signal distribution, etc. of the determined region of interest,
Correctness / incorrectness of the determined region of interest may be determined, and if an error is determined, the process may be performed again by changing the small region size or the cluster generation method.
【0075】以上、〜の3通りの関心領域決定の手
法を示したが、関心領域決定に際して、上記方法〜
のうちの複数の手法を併用してもよい。The above three methods of determining a region of interest have been described above.
May be used in combination.
【0076】また、上記方法に併用して、例えば縦方向
と横方向のプロファイル情報を用いて所望の人体構造に
対応する関心領域を設定する方法(特開平3−218578号
公報参照)や、しきい値処理とラベリングを組み合わせ
た手法により所望の人体構造に対応する関心領域を設定
する方法(持開平5−7578号公報参照)を用いてもよ
い。 なお、以下に述べるように、関心領域決定の前
に、照射野認識処理を行い、認識された照射野内に関心
領域を定めることが好ましい。A method of setting a region of interest corresponding to a desired human body structure using, for example, profile information in the vertical and horizontal directions (see Japanese Patent Application Laid-Open No. 3-218578). A method of setting a region of interest corresponding to a desired human body structure by a method combining threshold processing and labeling (see Japanese Unexamined Patent Publication No. 5-7578) may be used. In addition, as described below, it is preferable to perform an irradiation field recognition process before determining the region of interest, and determine the region of interest in the recognized irradiation field.
【0077】放射線画像の撮影に際しては、例えば診断
に必要とされない部分に放射線が照射されないようにす
るため、あるいは診断に必要とされない部分に放射線が
照射されて、この部分で散乱された放射線が診断に必要
とされる部分に入射されて分解能が低下することを防止
するため、被写体の一部や放射線発生器に鉛板等の放射
線非透過物質を設置して、被写体に対する放射線の照射
野を制限する照射野絞りが行われる。この照射野絞りが
行われた場合、照射野内領域と照射野外領域の画像デー
タを用いてレベルの変換処理やその後の階調処理を行う
ものとすると、照射野外領域の画像データによって、照
射野内の診断に必要とされる部分の画像処理が適正に行
われなくなってしまう。このため、照射野内領域と照射
野外領域を判別する照射野認識が行われる。In taking a radiographic image, for example, a portion not required for diagnosis is not irradiated with radiation, or a portion not required for diagnosis is irradiated with radiation. To prevent the resolution from deteriorating due to being incident on the required area, a non-transmissive substance such as a lead plate is installed on a part of the subject or the radiation generator to limit the irradiation field of the subject to radiation. Irradiation field aperture is performed. When this irradiation field aperture is performed, it is assumed that level conversion processing and subsequent gradation processing are performed using image data of the irradiation field inside area and the irradiation field outside area. Image processing of a part required for diagnosis cannot be performed properly. Therefore, irradiation field recognition for discriminating the irradiation field inside area and the irradiation field outside area is performed.
【0078】この照射野認識としては、例えば特開昭63
−259538号公報で示される方法が用いられて、撮像面上
の所定の位置から撮像面の端部側に向かう線分上の画像
データを用いて例えば微分処理が行われる。この微分処
理によって得られた微分信号は、照射野エッジ部で信号
レベルが大きくなるため、微分信号の信号レベルを判別
して1つの照射野エッジ候補点が求められる。この照射
野エッジ候補点を求める処理を、撮像面上の所定の位置
を中心として放射状に行うことにより複数の照射野エッ
ジ候補点が求められる。このようにして得られた複数の
照射野エッジ候補点を直線あるいは曲線で結ぶことによ
り照射野エッジ部が求められる。As the irradiation field recognition, see, for example,
For example, a differentiation process is performed using image data on a line segment from a predetermined position on an imaging surface toward an end of the imaging surface using a method disclosed in Japanese Patent Application No. 259538. Since the signal level of the differentiated signal obtained by this differentiation processing becomes large at the irradiation field edge portion, the signal level of the differentiation signal is determined to obtain one irradiation field edge candidate point. A plurality of irradiation field edge candidate points are obtained by performing the process of obtaining the irradiation field edge candidate points radially around a predetermined position on the imaging surface. By connecting a plurality of irradiation field edge candidate points obtained in this way with a straight line or a curve, an irradiation field edge portion is obtained.
【0079】また、特開平5−7579号公報で示される方
法を用いることもできる。この方法では、撮像面を複数
の小領域に分割したとき、照射野絞りによって放射線の
照射が遮られた照射野外の小領域では、略一様に放射線
の放射線量が小さくなり画像データの分散値が小さくな
る。また、照射野内の小領域では、被写体によって放射
線量が変調されることから照射野外に比べて分散値が高
くなる。さらに、照射野エッジ部を含む小領域では最も
放射線量が小さい部分と被写体によって変調された放射
線量の部分が混在することから分散値は最も高くなる。
このことから、分散値によって照射野エッジ部を含む小
領域が判別される。Further, a method described in Japanese Patent Application Laid-Open No. 5-7579 can be used. According to this method, when the imaging surface is divided into a plurality of small regions, in a small region outside the irradiation field where the irradiation of the radiation is blocked by the irradiation field diaphragm, the radiation dose of the radiation becomes substantially uniform, and the variance of the image data is reduced. Becomes smaller. Also, in a small area inside the irradiation field, the radiation amount is modulated by the subject, so that the variance value is higher than in the outside of the irradiation field. Further, in a small region including the irradiation field edge portion, the portion having the smallest radiation dose and the portion of the radiation dose modulated by the subject are mixed, so that the variance value is the highest.
From this, the small area including the irradiation field edge is determined based on the variance value.
【0080】また、特開平7−181609号公報で示される
方法を用いることもできる。この方法では、画像データ
を所定の回転中心に関して回転移動させて、平行状態検
出手段によって照射野の境界線が画像上に設定された直
交座標の座標軸と平行となるまで回転を行うものとし、
平行状態が検出されると、直線方程式算出手段によって
回転角度と回転中心から境界線までの距離によって回転
前の境界の直線方程式が算出される。その後、複数の境
界線に囲まれる領域を直線方程式から決定することで、
照射野の領域を判別することができる。また照射野エッ
ジ部が曲線である場合には、境界点抽出手段で画像デー
タに基づき例えば1つの境界点を抽出し、この境界点の
周辺の境界候補点群から次の境界点を抽出する。以下同
様に、境界点の周辺の境界候補点群から境界点を順次抽
出することにより、照射野エッジ部が曲線であっても判
別することができる。Further, the method disclosed in JP-A-7-181609 can be used. In this method, the image data is rotated and moved about a predetermined rotation center, and the rotation is performed until the boundary of the irradiation field is parallel to the coordinate axes of the rectangular coordinates set on the image by the parallel state detection unit,
When the parallel state is detected, the straight line equation of the boundary before rotation is calculated by the straight line equation calculating means based on the rotation angle and the distance from the rotation center to the boundary line. Then, by determining the area surrounded by multiple boundaries from the linear equation,
The area of the irradiation field can be determined. If the irradiation field edge is a curve, the boundary point extracting means extracts, for example, one boundary point based on the image data, and extracts the next boundary point from a group of boundary candidate points around the boundary point. Similarly, by sequentially extracting the boundary points from the boundary candidate point group around the boundary point, it is possible to determine even if the irradiation field edge portion is a curve.
【0081】また、以上の処理において、画素数を縮小
させた間引き画像を用いて処理することが、処理速度を
向上させられる点で好ましい。In the above processing, it is preferable to perform processing using a thinned-out image with a reduced number of pixels in that the processing speed can be improved.
【0082】以上のようにして、決定された複数の関心
領域のデータは画像処理条件因子生成手段30に送られ
る。The data of the determined plurality of regions of interest are sent to the image processing condition factor generating means 30 as described above.
【0083】[C]画像処理条件因子生成手段:画像処
理条件因子生成手段30では、前述した関心領域決定手
段20により決定された各関心領域毎に、該関心領域に
含まれる画像データに基づいて画像処理条件因子を生成
する。[C] Image processing condition factor generating means: In the image processing condition factor generating means 30, for each region of interest determined by the above-described region of interest determining means 20, based on the image data included in the region of interest. Generate an image processing condition factor.
【0084】(c-1)関心領域からの代表的な信号範囲の
抽出:上述した処理により複数の関心領域を決定してい
るが、ここでは、関心領域i(i=1,2,…)に含まれる
画素の信号値を統計的に解析し、代表的な信号範囲(S
iL〜SiH)を決定する。(C-1) Extraction of a representative signal range from a region of interest: A plurality of regions of interest are determined by the above-described processing. Here, a region of interest i (i = 1, 2,...) Are statistically analyzed and the representative signal range (S
iL to SiH).
【0085】ここで、SiLは関心領域iの略最小信号値
を意味しており、SiHは関心領域iの略最大信号値を意
味している。Here, SiL means a substantially minimum signal value of the region of interest i, and SiH means a substantially maximum signal value of the region of interest i.
【0086】また、関心領域i内の累積ヒストグラムが
所定値となる信号値であってもよい。たとえば、SiL:
20%、SiH:80%などである。Further, the signal value at which the cumulative histogram in the region of interest i becomes a predetermined value may be used. For example, SiL:
20% and SiH: 80%.
【0087】また、Si=SiL=SiH(代表信号範囲の
かわりに代表信号値)であってもよい。たとえば、Si
は関心領域iの平均信号値、関心領域iの中間値、関心
領域i内の累積ヒストグラムが所定値となる信号値であ
る。Also, Si = SiL = SiH (representative signal value instead of representative signal range) may be satisfied. For example, Si
Is a signal value at which the average signal value of the region of interest i, the median value of the region of interest i, and the cumulative histogram within the region of interest i become predetermined values.
【0088】(c-2)代表的な信号範囲に対応する画像処
理条件因子の生成:上記で求めた代表的な信号範囲また
は信号値と、予め与えられたパラメータとを用いて、画
像処理条件因子を生成する。(C-2) Generation of image processing condition factors corresponding to representative signal ranges: The image processing condition factors are determined using the representative signal ranges or signal values obtained above and parameters given in advance. Generate factors.
【0089】予め与えられるパラメータの例としては以
下のようなものがある。 ・[階調処理]図7(a)のようなヒストグラムについ
て、それぞれの関心領域に応じた2つの因子(図7
(b))を求める。すなわち、入力信号範囲S1L〜S1H
に対応する出力信号範囲をS1L’〜S1H’として、入力
信号範囲S2L〜S2Hに対応する出力信号範囲をS2L’〜
S2H’とするような2つの因子を求める。 ・[階調処理]入力信号値SiLに対応する出力信号値を
SiL’とし、入力信号範囲SiL〜SiHの平均コントラス
トをαiとする ・[階調処理]入力信号値Siに対応する出力信号値を
Si’とし、入力信号値Siにおけるコントラストをαi
とする。 ・[周波数処理]図8(a)のようなヒストグラムを、
図8(b)のように、それぞれ、入力信号範囲S1L〜S
1Hに対応する強調係数β1、入力信号範囲S2L〜S2Hに
対応する強調係数β2を定める。 ・[周波数処理]入力信号値SiLに対応する強調係数を
βiLとし、入力信号値SiHに対応する強調係数をβiHと
する。 ・[周波数処理]入力信号値Siに対応する強調係数を
βiとする。 ・[ダイナミックレンジ圧縮処理]入力信号範囲SiL〜
SiHに対応する補正係数をβiとする。 ・[ダイナミックレンジ圧縮処理]入力信号値SiLに対
応する補正係数をβiLとし、入力信号値SiHに対応する
補正係数をβiHとする。The following are examples of the parameters given in advance. [Tone processing] For the histogram shown in FIG. 7A, two factors (FIG. 7
(B)) is obtained. That is, the input signal range S1L to S1H
Is defined as S1L 'to S1H', and the output signal range corresponding to the input signal range S2L to S2H is defined as S2L 'to S1L'.
Two factors such as S2H 'are obtained. [Gray scale processing] The output signal value corresponding to the input signal value SiL is SiL ', and the average contrast of the input signal range SiL to SiH is αi. [Gray scale processing] The output signal value corresponding to the input signal value Si. Is Si ′, and the contrast at the input signal value Si is αi
And [Frequency processing] A histogram as shown in FIG.
As shown in FIG. 8B, the input signal ranges S1L to S1
An emphasis coefficient β1 corresponding to 1H and an emphasis coefficient β2 corresponding to the input signal range S2L to S2H are determined. [Frequency processing] The enhancement coefficient corresponding to the input signal value SiL is set to βiL, and the enhancement coefficient corresponding to the input signal value SiH is set to βiH. [Frequency processing] The enhancement coefficient corresponding to the input signal value Si is set to βi.・ [Dynamic range compression processing] Input signal range SiL ~
Let βi be the correction coefficient corresponding to SiH. [Dynamic range compression processing] The correction coefficient corresponding to the input signal value SiL is set to βiL, and the correction coefficient corresponding to the input signal value SiH is set to βiH.
【0090】ここで、周波数強調処理およびダイナミッ
クレンジ圧縮処理について、具体的に説明する。Here, the frequency emphasis processing and the dynamic range compression processing will be specifically described.
【0091】周波数強調処理では、例えば、以下の式に
示す非鮮鋭マスク処理によって鮮鋭度を制御するため
に、関数Fが特公昭62−62373号公報や特公昭62−62376
号公報号で示される方法によって定められる。In the frequency emphasizing process, for example, in order to control the sharpness by a non-sharp mask process represented by the following equation, the function F is changed to a function disclosed in Japanese Patent Publication No. 62-62373 or Japanese Patent Publication No. 62-62376
It is determined by the method shown in the publication.
【0092】Sout=Sorg+F(Sorg−Sus) なお、Soutは処理後の画像データ、Sorgは周波数強調
処理前の画像データ、Susは周波数強調処理前の画像デ
ータを平均化処理等によって求められた非鮮鋭データで
ある。Sout = Sorg + F (Sorg-Sus) where Sout is the processed image data, Sorg is the image data before the frequency enhancement process, and Sus is the image data obtained by averaging the image data before the frequency enhancement process. It is sharp data.
【0093】この周波数強調処理では、例えばF(Sor
g−Sus)がβ×(Sorg−Sus)とされて、β(強調係
数)が、図9に示すように基準値S1〜S2間でほぼ線
形に変化される。また図10の実線で示すように、低輝
度を強調する場合には基準値S1〜値「A」までのβが
最大とされて、値「B」〜基準値S2まで最小とされ
る。また値「A」〜値「B」までは、βがほぼ線形に変
化される。高輝度を強調する場合には破線で示すよう
に、基準値S1〜値「A」までのβが最小とされて、値
「B」〜基準値S2まで最大とされる。また値「A」〜
値「B」までは、βがほぼ線形に変化される。なお、図
示せずも中輝度を強調する場合には値「A」〜値「B」
のβが最大とされる。このように周波数強調処理では、
関数Fによって任意の輝度部分の鮮鋭度を制御すること
ができる。In this frequency emphasis processing, for example, F (Sor
g−Sus) is set to β × (Sorg−Sus), and β (emphasis coefficient) is changed almost linearly between the reference values S1 and S2 as shown in FIG. Further, as shown by the solid line in FIG. 10, when low luminance is emphasized, β from the reference value S1 to the value “A” is maximized, and is minimized from the value “B” to the reference value S2. From the value “A” to the value “B”, β changes almost linearly. When emphasizing high brightness, as shown by the broken line, β from the reference value S1 to the value “A” is minimized, and β from the value “B” to the reference value S2 is maximized. Also, the value "A" ~
Up to the value “B”, β changes almost linearly. Although not shown, the value “A” to the value “B” are used when emphasizing the middle luminance.
Is maximized. Thus, in the frequency emphasis processing,
The sharpness of an arbitrary luminance portion can be controlled by the function F.
【0094】ここで、基準値S1、S2および値A,B
は、一般的には画像毎に信号分布の解析結果に基づいて
求められる。また、周波数強調処理の方法は、上記非鮮
鋭マスク処理に限られるものではなく、特開平9−44645
号公報で示される多重解像度法などの手法を用いてもよ
い。Here, reference values S1, S2 and values A, B
Is generally obtained based on the analysis result of the signal distribution for each image. Further, the method of the frequency emphasis processing is not limited to the above-described unsharp mask processing, and is disclosed in Japanese Patent Application Laid-Open No. 9-44645.
For example, a technique such as a multi-resolution method disclosed in Japanese Unexamined Patent Publication (Kokai) No. H10-208 may be used.
【0095】ダイナミックレンジ圧縮処理では、以下の
式に示す圧縮処理によって見やすい濃度範囲に収める制
御を行うため、関数Gが特許公報266318号公報で示され
る方法によって定められる。In the dynamic range compression processing, a function G is determined by the method disclosed in Japanese Patent Publication No. 266318 in order to perform control so that the density is within a legible range by the compression processing represented by the following equation.
【0096】Stb=Sorg+G(Sus) なお、Stbは処理後の画像データ、Sorgはダイナミッ
クレンジ圧縮処理前の画像データ、Susはダイナミック
レンジ圧縮処理前の画像データを平均化処理等によって
求められた非鮮鋭データである。Stb = Sorg + G (Sus) where Stb is the processed image data, Sorg is the image data before the dynamic range compression process, and Sus is the image data before the dynamic range compression process. It is sharp data.
【0097】ここで、G(Sus)が図11に示すよう
に、非鮮鋭データSusがレベル「La」よりも小さくな
るとG(Sus)が増加するような特性を有する場合に
は、低濃度領域の溝度が高いものとされて、図11
(A)に示す画像データSorgは図11(C)に示すよ
うに低濃度側のダイナミックレンジが圧縮された画像デ
ータStbとされる。また、G(Sus)が図11(D)に
示すように、非鮮鋭データSusがレベル「Lb」よりも
小さくなるとG(Sus)が減少するような特性を有する
場合には、高濃度領域の濃度が高いものとされて、図1
1(B)に示す画像データSorgは図11(E)に示す
ように高濃度側のダイナミックレンジが圧縮される。こ
こで、レベル「La」,「Lb」は、一般的には画像毎に
信号分布の解析結果に基づいて求められる。Here, as shown in FIG. 11, when the non-sharp data Sus has such a characteristic that G (Sus) increases when the level of the non-sharp data Sus becomes smaller than the level “La”, as shown in FIG. Is considered to have a high groove degree, and FIG.
The image data Sorg shown in FIG. 11A is image data Stb in which the dynamic range on the low density side is compressed as shown in FIG. Further, as shown in FIG. 11D, when the non-sharp data Sus has such a characteristic that the G (Sus) decreases as the level of the non-sharp data Sus becomes smaller than the level “Lb”, as shown in FIG. It is assumed that the concentration is high, and FIG.
The image data Sorg shown in FIG. 1B has a high-density side dynamic range compressed as shown in FIG. Here, the levels “La” and “Lb” are generally obtained based on the analysis result of the signal distribution for each image.
【0098】なお、以上の処理で、予め与えられるパラ
メータは、撮影部位・指定体位・撮影条件・撮影方法等
の撮影情報に基づいて決定される構成としてもよい。ま
た、これらの情報が放射線画像入力手段10において画
像に付帯する管理情報として入力されている場合には、
この管理情報を利用することができる。In the above processing, the parameters given in advance may be determined on the basis of imaging information such as an imaging part, a designated body position, imaging conditions, and an imaging method. When these pieces of information are input in the radiation image input unit 10 as management information accompanying the image,
This management information can be used.
【0099】[D]画像処理条件の決定:画像処理条件
決定手段40は、画像処理条件因子生成手段30により
生成された複数の画像処理条件因子に基づいて画像処理
条件を決定する。また、生成された複数の画像処理条件
因子または最終的な画像処理条件を、修正情報入力手段
50から入力された情報に基づいて修正することも可能
である。[D] Determination of image processing conditions: The image processing condition determining means 40 determines image processing conditions based on a plurality of image processing condition factors generated by the image processing condition factor generating means 30. Further, it is also possible to correct the plurality of generated image processing condition factors or final image processing conditions based on the information input from the correction information input means 50.
【0100】なお、具体的には、以下に説明するよう
に、上記の画像処理条件因子を総合して、最終的な画像
処理条件を決定する。[0100] More specifically, as described below, the final image processing conditions are determined by integrating the above image processing condition factors.
【0101】[階調処理] ・上記で得られた部分的な階調変換曲線(線分)を連結
して、階調変換曲線を作成する。 ・線分を連結した折れ線を作成して、平均化等によるス
ムージング処理を施す。 ・線分上にとびとびの代表点をとり、代表点同士を滑ら
かに連結する。[Gradation Processing] A gradation conversion curve is created by connecting the partial gradation conversion curves (line segments) obtained above. -Create a polygonal line connecting the line segments and perform smoothing processing by averaging or the like.・ Take discrete representative points on the line segment and connect the representative points smoothly.
【0102】たとえば、スプライン補間等の補間処理、
多次元曲綿への近似、シグモイド関数への近似、フィル
ムの階調特性をモデル化した関数への近似(持公昭60−
42964号公報参照、特開平11−88688号公報参照)を行
う。 ・階調変換曲線は、入力信号値の全信号範囲にわたって
連続な関数であり、その微分関数も連続であることが好
ましい。 ・階調変換曲線は、入力信号値の全信号範囲にわたって
微分関数の符号が一定であることが好ましい。 ・上記で得られた綿分に含まれない信号範囲(最小信号
値付近・最大信号値付近)の暗調変換曲線は、外挿によ
り定めてもよいし、予め定めた最小出力信号値および最
大出力信号値に基づいて定めてもよい。For example, interpolation processing such as spline interpolation,
Approximation to multidimensional curved wool, approximation to sigmoid function, approximation to function modeling film gradation characteristics
No. 42964, JP-A-11-88688). The gradation conversion curve is a continuous function over the entire signal range of the input signal value, and its differential function is preferably continuous. It is preferable that the sign of the differential function of the gradation conversion curve is constant over the entire signal range of the input signal value. The tone conversion curve in the signal range (near the minimum signal value / near the maximum signal value) that is not included in the cotton obtained above may be determined by extrapolation, or the predetermined minimum output signal value and maximum It may be determined based on the output signal value.
【0103】図7に示した処理条件因子の場合は、2本
の線分を連結した折れ線を作成する。そして、最小信号
値に対する出力を予め与えた信号値に固定し、最小信号
値〜S1Lの区間を直線で結び、そして、最大信号値に対
する出力を予め与えた信号値に固定し、S1L〜最大信号
値の区間を直線で結ぶ(図7(b))。その後、スムー
ジング処理を行う(図7(c))。In the case of the processing condition factors shown in FIG. 7, a polygonal line connecting two line segments is created. Then, the output for the minimum signal value is fixed to a predetermined signal value, the section from the minimum signal value to S1L is connected by a straight line, and the output for the maximum signal value is fixed to the predetermined signal value, and the S1L to maximum signal value is fixed. The sections of the value are connected by a straight line (FIG. 7B). After that, a smoothing process is performed (FIG. 7C).
【0104】[周波数処理] ・上記で得られた部分的な強調関数(線分)βを連結し
て、強調関数を作成する。 ・強調関数は、入力信号値の全信号範囲にわたって連続
な関数であることが好ましい。 ・強調関数は、入力信号値の全信号範囲にわたって徹分
関数の符号が一定であることが好ましい。 ・上記で得られた線分に含まれない信号範囲(最小信号
値付近・最大信号値付近)の強調関数は、外挿により定
めてもよいし、予め定めた最小強調係数および最大強調
係数に基づいて定めてもよい。[Frequency Processing] The partial enhancement function (line segment) β obtained above is connected to create an enhancement function. -The enhancement function is preferably a continuous function over the entire signal range of the input signal value. -The sign of the emphasis function is preferably constant over the entire signal range of the input signal value. The enhancement function of the signal range (around the minimum signal value / near the maximum signal value) not included in the line segment obtained above may be determined by extrapolation, or may be determined by a predetermined minimum enhancement coefficient and maximum enhancement coefficient. It may be determined based on this.
【0105】図8に示した強調係数の場合は、2本の線
分に基づき、次のような単調増加関数を定める。すなわ
ち、S1L〜(S1H+S2L)/2の区間ではβ1、(S1H
+S2L)/2〜S2Hの区間ではβ2であるステップ関数
を作成した後に、不連続部分には疑似輪郭防止のため、
あらかじめ定めた傾きの傾斜をつけるようにする。さら
に、最小信号値〜S1LとS2H〜最大信号値を外挿する。
なお、さらにスムージング処理を行って曲線としてもよ
い。In the case of the enhancement coefficient shown in FIG. 8, the following monotone increasing function is determined based on two line segments. That is, in the section from S1L to (S1H + S2L) / 2, β1, (S1H
+ S2L) / 2 In the section from 2 to S2H, after creating a step function of β2, in order to prevent false contour,
Attach a predetermined slope. Further, the minimum signal value ~ S1L and S2H ~ maximum signal value are extrapolated.
Note that a curve may be obtained by performing a smoothing process.
【0106】[ダイナミックレンジ圧縮処理] ・上記で得られた部分的な補正関数(線分)を連結し
て、補正関数を作成する ・連結方法は上述した周波数処理の場合と同様に行う。[Dynamic Range Compression Processing] A partial correction function (line segment) obtained above is connected to create a correction function. The connection method is the same as in the above-described frequency processing.
【0107】[E]画像処理:以上の画像処理条件決定
手段40で決定された画像処理条件は、画像処理手段6
0に送られる。画像処理手段60では放射線画像入力手
段10から送られてきた原画像である放射線画像と、こ
の画像処理条件とを用いて画像処理を行い、最終的な出
力画像を得る。この画像処理手段60では、階調処理、
周波数強調処理、ダイナミックレンジ圧縮処理、および
それらを組み合わせたものが実施される。[E] Image Processing: The image processing conditions determined by the image processing condition determining means 40 are
Sent to 0. The image processing means 60 performs image processing using the radiation image as the original image sent from the radiation image input means 10 and the image processing conditions to obtain a final output image. In this image processing means 60, gradation processing,
Frequency emphasis processing, dynamic range compression processing, and a combination thereof are performed.
【0108】[F]その他の実施の形態例:放射線画像
または画像処理を施された処理画像を表示する画像表示
手段70において、放射線画像もしくは処理画像の表示
と共に、関心領域に関する情報、または前記画像処理条
件因子に関する情報、または前記画像処理条件に関する
情報を表示することが可能である。[F] Other Embodiments: In the image display means 70 for displaying a radiographic image or a processed image subjected to image processing, the radiographic image or the processed image is displayed together with information on the region of interest or the image. It is possible to display information on processing condition factors or information on the image processing conditions.
【0109】このような表示を行った結果、画像処理に
重要な影響を及ぼす関心領域や画像処理条件因子や画像
処理条件を表示することで、正確で最適な画像処理を施
した画像を得ると共に、読影医に対して診断に役立つ情
報を提供することに寄与できる。As a result of such display, a region of interest, an image processing condition factor, and an image processing condition that have an important effect on image processing are displayed, so that an image subjected to accurate and optimal image processing can be obtained. This can contribute to providing information useful for diagnosis to the radiologist.
【0110】また、前記のような画像表示手段70と修
正情報入力手段50とを組み合わせることにより、操作
者が処理画像を観察しながらインタラクティブに画像処
理条件を修正することが可能である。具体的には、CR
Tモニタや液晶モニタなどの画像表示手段と、タッチス
クリーンやトラックパッド、マウスなどのポインティン
グデバイスを用いた修正情報入力手段を有し、関心領
域、画像処理条件因子、または最終的な画像処理条件を
操作者が修正すると、修正された画像処理条件に基づく
処埋画像を画像表示手段にそのつど表示する。Further, by combining the image display means 70 and the correction information input means 50 as described above, the operator can interactively correct the image processing conditions while observing the processed image. Specifically, CR
It has image display means such as a T monitor or a liquid crystal monitor, and correction information input means using a pointing device such as a touch screen, a track pad, or a mouse, and displays a region of interest, an image processing condition factor, or final image processing conditions. When the operator corrects the image, the processed image based on the corrected image processing condition is displayed on the image display means.
【0111】[0111]
【実施例】以上のようにして、被写体を透過した放射線
量に対応して形成された放射線画像の画像データを解析
することにより、主たる診断対象である被写体構造に相
当する第1の関心領域と、従たる診断対象である被写体
構造に相当する第2の関心領域とを含む複数の関心領域
を決定し、前記決定された各関心領域毎に該関心領域に
含まれる画像データに基づいて画像処理条件因子を生成
し、前記生成された複数の画像処理条件因子に基づいて
画像処理条件を決定し、前記決定された画像処理条件を
用いて前記放射線画像に画像処理を施す場合の具体的処
理例を図12に示す。As described above, by analyzing the image data of the radiation image formed corresponding to the amount of radiation transmitted through the subject, the first region of interest corresponding to the subject structure, which is the main diagnostic object, is determined. Determining a plurality of regions of interest including a second region of interest corresponding to a subject structure to be diagnosed, and performing image processing based on image data included in the region of interest for each of the determined regions of interest. A specific processing example in which a condition factor is generated, an image processing condition is determined based on the generated plurality of image processing condition factors, and image processing is performed on the radiation image using the determined image processing condition. Is shown in FIG.
【0112】ここでは、図12(a)のようヒストグラ
ムが同一形状である場合に、各人体構造の信号分布は異
なっていて、図12(b)の場合と図12(c)の場合
とを想定する。Here, when the histograms have the same shape as in FIG. 12A, the signal distribution of each human body structure is different, and the case of FIG. 12B and the case of FIG. Suppose.
【0113】このような場合に、複数の関心領域から画
像処理条件因子を生成し、その画像処理条件因子に基づ
いて画像処理条件を定めると、階調処理の場合には図1
2(d)と(e)のようになり、周波数強調処理の場合
には図12(f)と(g)のようになり、ダイナミック
レンジ圧縮処理の場合には図12(h)と(i)のよう
になる。In such a case, an image processing condition factor is generated from a plurality of regions of interest, and an image processing condition is determined based on the image processing condition factor.
2 (d) and (e), and in the case of frequency emphasis processing, as shown in FIGS. 12 (f) and (g), and in the case of dynamic range compression processing, FIGS. 12 (h) and (i). )become that way.
【0114】ここでは、図12(e),(g),(h)
における実線の特性が患者Bの画像処理条件因子に基づ
いた画像処理条件を示しており、点線の特性が従来の画
像処理条件である。Here, FIGS. 12 (e), (g), (h)
Indicate the image processing condition based on the image processing condition factor of the patient B, and the characteristic of the dotted line is the conventional image processing condition.
【0115】ここでは、階調処理の一例として、骨部領
域の最小出力信号値および軟部領域の最大出力信号値を
それぞれ所定の値とし、かつ、骨部領域の平均コントラ
ストおよび軟部領域の平均コントラストをそれぞれ所定
の値とするような階調変換曲線の例を示している。Here, as an example of the gradation processing, the minimum output signal value of the bone region and the maximum output signal value of the soft region are respectively set to predetermined values, and the average contrast of the bone region and the average contrast of the soft region are set. Are shown as examples of gradation conversion curves, each of which has a predetermined value.
【0116】また、周波数強調処理の一例として、骨部
領域に対応する強調係数および軟部領域に対応する強調
係数をそれぞれ所定の値とし、それらの間を所定の傾き
の直線で連結した単調増加の強調関数の例を示す。As an example of the frequency emphasis processing, the emphasis coefficient corresponding to the bone region and the emphasis coefficient corresponding to the soft region are each set to a predetermined value, and a monotonically increasing line is connected between them by a straight line having a predetermined inclination. Here is an example of an enhancement function.
【0117】そして、ダイナミックレンジ圧縮処理の一
例として、骨部領域に対応する補正量を0とし、軟部領
域に対応する補正係数を所定の正の値とした単調減少の
補正関数の例を示す。As an example of the dynamic range compression processing, an example of a monotonically decreasing correction function in which the correction amount corresponding to the bone region is set to 0, and the correction coefficient corresponding to the soft region is a predetermined positive value.
【0118】このように、それぞれで異なる処理を施す
ことが可能になり、それぞれの患者で骨部と軟部とにつ
いて、適性な階調,濃度,ダイナミックレンジに処理す
ることが可能になる。すなわち、被写体に含まれる骨部
と軟部との割合に関わらず、自動的に最適な画像処理条
件を求め、煩雑な操作無しに診断に最適な画像を自動的
に得ることが可能になった。As described above, it is possible to perform different processing for each of the patients, and it is possible to process the bones and the soft parts to appropriate gradation, density, and dynamic range for each patient. That is, it is possible to automatically obtain the optimal image processing conditions regardless of the ratio of the bone part and the soft part included in the subject, and to automatically obtain the optimal image for diagnosis without complicated operation.
【0119】[0119]
【発明の効果】以上、詳細に説明したように、本発明に
よれば、被写体に含まれる骨部と軟部との割合に関わら
ず、自動的に最適な画像処理条件を求め、煩雑な操作無
しに診断に最適な画像を自動的に得ることが可能になっ
た。As described above in detail, according to the present invention, the optimum image processing conditions are automatically determined regardless of the ratio of the bones and the soft parts included in the subject, and no complicated operation is required. It has become possible to automatically obtain the optimal image for diagnosis.
【図1】本発明の実施の形態例の放射線画像処理装置の
構成を示す機能ブロック図である。FIG. 1 is a functional block diagram illustrating a configuration of a radiation image processing apparatus according to an embodiment of the present invention.
【図2】本発明の実施の形態例の放射線画像処理装置の
主要部の構成を示す機能ブロック図である。FIG. 2 is a functional block diagram illustrating a configuration of a main part of the radiation image processing apparatus according to the exemplary embodiment of the present invention.
【図3】本発明の実施の形態例における関心領域決定の
様子を示す説明図である。FIG. 3 is an explanatory diagram showing how a region of interest is determined in the embodiment of the present invention.
【図4】本発明の実施の形態例における関心領域決定の
様子を示す説明図である。FIG. 4 is an explanatory diagram showing how a region of interest is determined in the embodiment of the present invention.
【図5】本発明の実施の形態例における関心領域決定の
様子を示す説明図である。FIG. 5 is an explanatory diagram showing how a region of interest is determined in the embodiment of the present invention.
【図6】本発明の実施の形態例における関心領域決定の
様子を示す説明図である。FIG. 6 is an explanatory diagram showing how a region of interest is determined in the embodiment of the present invention.
【図7】本発明の実施の形態例における画像処理条件因
子と画像処理条件とを示す説明図である。FIG. 7 is an explanatory diagram showing image processing condition factors and image processing conditions in the embodiment of the present invention.
【図8】本発明の実施の形態例における画像処理条件因
子と画像処理条件とを示す説明図である。FIG. 8 is an explanatory diagram showing image processing condition factors and image processing conditions in the embodiment of the present invention.
【図9】本発明の実施の形態例における強調係数と画像
データとを示す説明図である。FIG. 9 is an explanatory diagram showing an enhancement coefficient and image data according to the embodiment of the present invention.
【図10】本発明の実施の形態例における強調係数と画
像データとを示す説明図である。FIG. 10 is an explanatory diagram showing an enhancement coefficient and image data according to the embodiment of the present invention.
【図11】本発明の実施の形態例におけるダイナミック
レンジ圧縮を示す説明図である。FIG. 11 is an explanatory diagram showing dynamic range compression in the embodiment of the present invention.
【図12】本発明の実施例における画像処理条件の具体
例を示す説明図である。FIG. 12 is an explanatory diagram showing a specific example of an image processing condition in the embodiment of the present invention.
【図13】ヒストグラムの一例を示す特性図である。FIG. 13 is a characteristic diagram illustrating an example of a histogram.
【図14】ヒストグラムの一例を示す特性図である。FIG. 14 is a characteristic diagram illustrating an example of a histogram.
10 放射線画像入力手段 20 関心領域決定手段 30 画像処理条件因子生成手段 40 画像処理条件決定手段 50 修正情報入力手段 60 画像処理手段 70 画像表示手段 DESCRIPTION OF SYMBOLS 10 Radiation image input means 20 Region of interest determination means 30 Image processing condition factor generation means 40 Image processing condition determination means 50 Correction information input means 60 Image processing means 70 Image display means
Claims (20)
成された放射線画像の画像データを解析することによ
り、主たる診断対象である被写体構造に相当する第1の
関心領域と、従たる診断対象である被写体構造に相当す
る第2の関心領域とを含む複数の関心領域を決定し、 前記決定された各関心領域毎に該関心領域に含まれる画
像データに基づいて画像処理条件因子を生成し、 前記生成された複数の画像処理条件因子に基づいて画像
処理条件を決定し、 前記決定された画像処理条件を用いて前記放射線画像に
画像処理を施す、ことを特徴とする放射線画像処理方
法。1. A first region of interest corresponding to a subject structure, which is a main diagnosis target, by analyzing image data of a radiation image formed corresponding to a radiation dose transmitted through a subject, and a secondary diagnosis target And determining a plurality of regions of interest including a second region of interest corresponding to the subject structure, and generating an image processing condition factor for each of the determined regions of interest based on the image data included in the region of interest. An image processing method comprising: determining image processing conditions based on the plurality of generated image processing condition factors; and performing image processing on the radiation image using the determined image processing conditions.
内の画像データに基づいてしきい値を決定し、 当該小領域内の画素の信号値を前記しきい値と比較する
ことにより、目的とする関心領域内の画素であるか否か
を判定し、 前記判定された結果を総合することにより関心領域を決
定する、 ことを特徴とする請求項1記載の放射線画像処理方法。2. The method according to claim 1, wherein the determination of the region of interest includes setting a plurality of small regions in the image, determining a threshold value for each small region based on image data in the small region, By comparing the signal value of the pixel with the threshold value, it is determined whether or not the pixel is within the target region of interest, and the region of interest is determined by integrating the determined results. The radiation image processing method according to claim 1, wherein:
の画素について近傍画素間の信号変化による特性値を計
算し、 前記計算された特性値を用いて、前記走査線上の画素
が、目的とする関心領域の輪郭線上の点か否かを判定
し、 前記判定された結果を総合することにより前記関心領域
の輪郭線を決定し、前記輪郭線により囲まれた領域を前
記関心領域とする、 ことを特徴とする請求項1記載の放射線画像処理方法。3. The determination of the region of interest includes: scanning an image using a plurality of scanning lines; calculating a characteristic value due to a signal change between neighboring pixels for an arbitrary pixel on each scanning line; Using the value, determine whether the pixel on the scanning line is a point on the contour of the target region of interest, determine the contour of the region of interest by integrating the determined results, The radiation image processing method according to claim 1, wherein an area surrounded by an outline is set as the region of interest.
内の画像データに基づいて抽出した特徴をベクトル要素
として有する特徴ベクトルを生成し、 前記生成された特徴ベクトルの集合を統計的に分類する
ことにより、複数のクラスタを生成し、 前記複数の小領域について、各小領域の特徴ベクトルが
前記複数のクラスタのうちのいずれに属するかに基づい
て関心領域を決定する、 ことを特徴とする請求項1記載の放射線画像処理方法。4. A method for determining a region of interest, comprising: setting a plurality of small regions in an image; and generating a feature vector having, as a vector element, a feature extracted for each small region based on image data in the small region. A plurality of clusters are generated by statistically classifying the generated set of feature vectors; and for the plurality of small regions, a feature vector of each small region belongs to any of the plurality of clusters. The radiation image processing method according to claim 1, wherein a region of interest is determined based on the distance.
いて代表的な信号範囲を抽出し、 予め与えられた画像処理パラメータに基づいて、前記代
表的な信号範囲に対応する画像処理条件因子を生成す
る、 ことを特徴とする請求項1記載の放射線画像処理方法。5. The method of claim 1, further comprising: extracting a representative signal range for each region of interest based on image data included in the region of interest; and generating a signal range based on image processing parameters given in advance. The radiation image processing method according to claim 1, wherein an image processing condition factor corresponding to the representative signal range is generated.
特徴とする請求項1乃至請求項5のいずれかに記載の放
射線画像処理方法。6. The radiation image processing method according to claim 1, wherein said image processing is gradation processing.
ことを特徴とする請求項1乃至請求項5のいずれかに記
載の放射線画像処理方法。7. The image processing is frequency enhancement processing.
The radiation image processing method according to claim 1, wherein:
処理である、ことを特徴とする請求項1乃至請求項5の
いずれかに記載の放射線画像処理方法。8. The radiation image processing method according to claim 1, wherein the image processing is a dynamic range compression processing.
された処理画像を表示し、 前記放射線画像もしくは処理画像の表示と共に、前記関
心領域に関する情報、または前記画像処理条件因子に関
する情報、または前記画像処理条件に関する情報を表示
する、ことを特徴とする請求項1乃至請求項8のいずれ
かに記載の放射線画像処理方法。9. Displaying the radiation image or the processed image on which the image processing has been performed, and displaying the radiation image or the processed image together with the information on the region of interest or the information on the image processing condition factor, or the image 9. The radiation image processing method according to claim 1, wherein information on a processing condition is displayed.
れており、 前記画像処理条件の決定が、前記入力された情報に従っ
て修正された画像処理条件を決定し、 前記修正された画像処理条件を用いて前記放射線画像に
画像処理を施す、ことを特徴とする請求項1乃至請求項
9のいずれかに記載の放射線画像処理方法。10. Information about correction of image processing is input, wherein the determination of the image processing condition determines an image processing condition corrected according to the input information, and using the corrected image processing condition. 10. The radiation image processing method according to claim 1, wherein image processing is performed on the radiation image.
形成された放射線画像の画像データを解析することによ
り、主たる診断対象である被写体構造に相当する第1の
関心領域と、従たる診断対象である被写体構造に相当す
る第2の関心領域とを含む複数の関心領域を決定する関
心領域決定手段と、 前記関心領域決定手段により決定された各関心領域毎に
該関心領域に含まれる画像データに基づいて画像処理条
件因子を生成する画像処理条件因子生成手段と、 前記画像処理条件因子生成手段により生成された複数の
画像処理条件因子に基づいて画像処理条件を決定する画
像処理条件決定手段と、 前記画像処理条件決定手段により決定された画像処理条
件を用いて前記放射線画像に画像処理を施す画像処理手
段と、 を有することを特徴とする放射線画像処理装置。11. A first region of interest corresponding to a subject structure, which is a main diagnosis target, by analyzing image data of a radiation image formed corresponding to a radiation dose transmitted through a subject, and a secondary diagnosis target Region of interest determining means for determining a plurality of regions of interest including a second region of interest corresponding to a subject structure, and image data included in the region of interest for each region of interest determined by the region of interest determination means Image processing condition factor generating means for generating an image processing condition factor based on the image processing condition factor determining means for determining an image processing condition based on a plurality of image processing condition factors generated by the image processing condition factor generating means; Image processing means for performing image processing on the radiographic image using the image processing conditions determined by the image processing condition determining means. Ray image processing apparatus.
内の画像データに基づいてしきい値を決定するしきい値
決定手段と、当該小領域内の画素の信号値を前記しきい
値と比較することにより、目的とする関心領域内の画素
であるか否かを判定する判定手段と、を有し、 前記判定手段により判定された結果を総合することによ
り関心領域を決定する、 ことを特徴とする請求項11記載の放射線画像処理装
置。12. A threshold determining means for setting a plurality of small areas in an image, and for each small area, determining a threshold based on image data in the small area. Determining means for comparing the signal value of the pixel in the small area with the threshold value to determine whether the pixel is in the target area of interest. The radiation image processing apparatus according to claim 11, wherein a region of interest is determined by integrating the results obtained.
の画素について近傍画素間の信号変化による特性値を計
算する特性値計算手段と、 前記特性値計算手段により計算された特性値を用いて、
前記走査線上の画素が、目的とする関心領域の輪郭線上
の点か否かを判定する判定手段と、を備え、 前記判定手段により判定された結果を総合することによ
り前記関心領域の輪郭線を決定し、前記輪郭線により囲
まれた領域を前記関心領域とする、 ことを特徴とする請求項11記載の放射線画像処理装
置。13. A characteristic value calculating unit configured to scan an image using a plurality of scanning lines and calculate a characteristic value of an arbitrary pixel on each scanning line due to a signal change between neighboring pixels, Using the characteristic value calculated by the characteristic value calculation means,
A determination unit that determines whether a pixel on the scanning line is a point on the contour of the target region of interest, and determining the contour of the region of interest by integrating the results determined by the determination unit. The radiation image processing apparatus according to claim 11, wherein the determined area is defined as a region surrounded by the contour line.
内の画像データに基づいて抽出した特徴をベクトル要素
として有する特徴ベクトルを生成する特徴ベクトル生成
手段と、 前記特徴ベクトル生成手段により生成された特徴ベクト
ルの集合を統計的に分類することにより、複数のクラス
タを生成するクラスタ生成手段と、を備え、 前記複数の小領域について、各小領域の特徴ベクトルが
前記複数のクラスタのうちのいずれに属するかに基づい
て関心領域を決定する、 ことを特徴とする請求項11記載の放射線画像処理装
置。14. The region-of-interest determining means sets a plurality of small regions in an image and generates a feature vector having, as a vector element, a feature extracted for each small region based on image data in the small region. Feature vector generation means, and cluster generation means for generating a plurality of clusters by statistically classifying a set of feature vectors generated by the feature vector generation means, and for the plurality of small areas, The radiation image processing apparatus according to claim 11, wherein a region of interest is determined based on which of the plurality of clusters the feature vector of each small region belongs to.
いて代表的な信号範囲を抽出する代表信号範囲抽出手段
を有し、 予め与えられた画像処理パラメータに基づいて、前記代
表的な信号範囲に対応する画像処理条件因子を生成す
る、 ことを特徴とする請求項11記載の放射線画像処理装
置。15. The image processing condition factor generating means includes a representative signal range extracting means for extracting a representative signal range for each region of interest based on image data included in the region of interest. The radiation image processing apparatus according to claim 11, wherein an image processing condition factor corresponding to the representative signal range is generated based on the image processing parameters.
を特徴とする請求項11乃至請求項15のいずれかに記
載の放射線画像処理装置。16. The radiation image processing apparatus according to claim 11, wherein the image processing is a gradation processing.
る、ことを特徴とする請求項11乃至請求項15のいず
れかに記載の放射線画像処理装置。17. The radiation image processing apparatus according to claim 11, wherein the image processing is frequency enhancement processing.
縮処理である、ことを特徴とする請求項11乃至請求項
15のいずれかに記載の放射線画像処理装置。18. The radiation image processing apparatus according to claim 11, wherein the image processing is a dynamic range compression processing.
施された処理画像を表示する画像表示手段を有し、 該画像表示手段に、放射線画像もしくは処理画像と共
に、前記関心領域に関する情報、または前記画像処理条
件因子に関する情報、または前記画像処理条件に関する
情報を表示する、ことを特徴とする請求項11乃至請求
項18のいずれかに記載の放射線画像処理装置。19. An image display means for displaying the radiation image or the processed image subjected to the image processing, wherein the image display means displays information on the region of interest or the image together with the radiation image or the processed image. 19. The radiation image processing apparatus according to claim 11, wherein information related to a processing condition factor or information related to the image processing condition is displayed.
る修正情報入力手段とを有し、 前記画像処理条件決定手段が、前記修正情報入力手段に
より入力された情報に従って修正された画像処理条件を
決定し、 前記画像処理手段が、修正された画像処理条件を用いて
前記放射線画像に画像処理を施す、ことを特徴とする請
求項11乃至請求項19のいずれかに記載の放射線画像
処理装置。20. A correction information input unit for inputting information relating to correction of image processing, wherein the image processing condition determination unit determines an image processing condition corrected according to the information input by the correction information input unit. 20. The radiographic image processing apparatus according to claim 11, wherein the image processing unit performs image processing on the radiographic image using the corrected image processing conditions.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000026324A JP2001212118A (en) | 2000-02-03 | 2000-02-03 | Radiation image processing method and apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000026324A JP2001212118A (en) | 2000-02-03 | 2000-02-03 | Radiation image processing method and apparatus |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2001212118A true JP2001212118A (en) | 2001-08-07 |
Family
ID=18552072
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000026324A Pending JP2001212118A (en) | 2000-02-03 | 2000-02-03 | Radiation image processing method and apparatus |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2001212118A (en) |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003052639A (en) * | 2001-08-21 | 2003-02-25 | Canon Inc | Ophthalmic imaging equipment |
| JP2004093510A (en) * | 2002-09-03 | 2004-03-25 | Horiba Ltd | Analysis result display method, x-ray analyzer, and computer program |
| JP2005109790A (en) * | 2003-09-30 | 2005-04-21 | Konica Minolta Medical & Graphic Inc | Medical image processing apparatus |
| JP2005270577A (en) * | 2004-03-26 | 2005-10-06 | Konica Minolta Medical & Graphic Inc | Image processing device and image processing method |
| JP2007531121A (en) * | 2004-03-24 | 2007-11-01 | セルニウム コーポレイション | Improved video analysis by using segmented gain per area |
| WO2015011904A1 (en) * | 2013-07-23 | 2015-01-29 | 富士フイルム株式会社 | Radiation-image processing device and method |
| WO2015174206A1 (en) * | 2014-05-16 | 2015-11-19 | 株式会社 日立メディコ | Image diagnostic device and gradation information setting method |
| JP2017131427A (en) * | 2016-01-28 | 2017-08-03 | 株式会社日立製作所 | X-ray image diagnostic apparatus and bone density measuring method |
| JP2020044445A (en) * | 2019-12-27 | 2020-03-26 | コニカミノルタ株式会社 | Dynamic analysis system, program and dynamic analyzer |
| US11151715B2 (en) | 2017-05-25 | 2021-10-19 | Konica Minolta, Inc. | Dynamic analysis system |
| JP2022021298A (en) * | 2020-07-21 | 2022-02-02 | 株式会社島津製作所 | X ray machine and image processing method |
-
2000
- 2000-02-03 JP JP2000026324A patent/JP2001212118A/en active Pending
Cited By (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003052639A (en) * | 2001-08-21 | 2003-02-25 | Canon Inc | Ophthalmic imaging equipment |
| JP2004093510A (en) * | 2002-09-03 | 2004-03-25 | Horiba Ltd | Analysis result display method, x-ray analyzer, and computer program |
| JP2005109790A (en) * | 2003-09-30 | 2005-04-21 | Konica Minolta Medical & Graphic Inc | Medical image processing apparatus |
| JP2007531121A (en) * | 2004-03-24 | 2007-11-01 | セルニウム コーポレイション | Improved video analysis by using segmented gain per area |
| JP2005270577A (en) * | 2004-03-26 | 2005-10-06 | Konica Minolta Medical & Graphic Inc | Image processing device and image processing method |
| WO2015011904A1 (en) * | 2013-07-23 | 2015-01-29 | 富士フイルム株式会社 | Radiation-image processing device and method |
| JP2015019996A (en) * | 2013-07-23 | 2015-02-02 | 富士フイルム株式会社 | Radiation image processing apparatus and method |
| US10089728B2 (en) | 2013-07-23 | 2018-10-02 | Fujifilm Corporation | Radiation-image processing device and method |
| CN106255462A (en) * | 2014-05-16 | 2016-12-21 | 株式会社日立制作所 | Image diagnosing system and half-tone information establishing method |
| JPWO2015174206A1 (en) * | 2014-05-16 | 2017-04-20 | 株式会社日立製作所 | Image diagnostic apparatus and gradation information setting method |
| WO2015174206A1 (en) * | 2014-05-16 | 2015-11-19 | 株式会社 日立メディコ | Image diagnostic device and gradation information setting method |
| JP2017131427A (en) * | 2016-01-28 | 2017-08-03 | 株式会社日立製作所 | X-ray image diagnostic apparatus and bone density measuring method |
| US11151715B2 (en) | 2017-05-25 | 2021-10-19 | Konica Minolta, Inc. | Dynamic analysis system |
| JP2020044445A (en) * | 2019-12-27 | 2020-03-26 | コニカミノルタ株式会社 | Dynamic analysis system, program and dynamic analyzer |
| JP2022021298A (en) * | 2020-07-21 | 2022-02-02 | 株式会社島津製作所 | X ray machine and image processing method |
| JP7472845B2 (en) | 2020-07-21 | 2024-04-23 | 株式会社島津製作所 | X-ray imaging device and image processing method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8724865B2 (en) | Method, computer software, and system for tracking, stabilizing, and reporting motion between vertebrae | |
| CN111047572B (en) | Automatic spine positioning method in medical image based on Mask RCNN | |
| US20030086596A1 (en) | Method, computer software, and system for tracking, stabilizing, and reporting motion between vertebrae | |
| US20070294639A1 (en) | Touchless Manipulation of Images for Regional Enhancement | |
| JP5231007B2 (en) | Automatic segmentation method and apparatus | |
| JP2000342558A (en) | Image positioning processor and inter-picture arithmetic processor | |
| WO2008088531A2 (en) | Roi-based rendering for diagnostic image consistency | |
| JP2001299733A (en) | Pci radiation beam image processing apparatus, pci radiation beam image detecting and processing apparatus, pci radiation beam image outputting apparatus and pci radiation beam image diagnosis supporting apparatus | |
| JP2001212118A (en) | Radiation image processing method and apparatus | |
| CN117745704A (en) | Vertebral region segmentation system for osteoporosis recognition | |
| US20050069186A1 (en) | Medical image processing apparatus | |
| WO2022033598A1 (en) | Breast x-ray radiography acquisition method and apparatus, and computer device and storage medium | |
| US6608915B2 (en) | Image processing method and apparatus | |
| US7403645B2 (en) | Medical image processing apparatus | |
| US8577101B2 (en) | Change assessment method | |
| JP2002085392A (en) | Radiographic image processing method and apparatus | |
| CN1269082C (en) | Greyscale transform process | |
| JP2001076141A (en) | Image recognizing method and image processor | |
| US7203348B1 (en) | Method and apparatus for correction of mammograms for non-uniform breast thickness | |
| JP4980552B2 (en) | Image processing method, image processing apparatus, and image processing program | |
| US8199995B2 (en) | Sensitometric response mapping for radiological images | |
| US20090208087A1 (en) | Radiographic image correction method, apparatus and recording-medium stored therein program | |
| JP4438305B2 (en) | Medical image processing device | |
| US20050161617A1 (en) | Image processing method, apparatus, and program | |
| JP3731400B2 (en) | Image processing method and image processing apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040415 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050624 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050719 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050920 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051129 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060411 |