[go: up one dir, main page]

JP2005198798A - Radiation image processing apparatus and processing method - Google Patents

Radiation image processing apparatus and processing method Download PDF

Info

Publication number
JP2005198798A
JP2005198798A JP2004007551A JP2004007551A JP2005198798A JP 2005198798 A JP2005198798 A JP 2005198798A JP 2004007551 A JP2004007551 A JP 2004007551A JP 2004007551 A JP2004007551 A JP 2004007551A JP 2005198798 A JP2005198798 A JP 2005198798A
Authority
JP
Japan
Prior art keywords
imaging
image
region
interest
ray
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004007551A
Other languages
Japanese (ja)
Inventor
Osamu Tsujii
修 辻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004007551A priority Critical patent/JP2005198798A/en
Publication of JP2005198798A publication Critical patent/JP2005198798A/en
Pending legal-status Critical Current

Links

Landscapes

  • Nuclear Medicine (AREA)
  • Measurement Of Radiation (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

【課題】画像診断支援処理の結果を基に、更なる撮影に対する撮影方法を決定し診断精度を向上する。
【解決手段】撮影処理は撮影開始信号により開始し(S201)、患者情報の入力と撮影部位の入力を行うと、撮影画像サイズ、撮影場所、撮影距離、X線絞り開口、X線管電圧、管電流、X線照射時間などの撮影条件を設定する(S202)。この撮影条件により撮影が開始され(S203)、撮影された画像は予め設定された処理が行われて表示される。この画像を第1の画像とし、診断支援のための解析処理が行われる(S204)。
診断支援の結果として、病気と疑わしい関心領域が出力されれば(S205)、関心領域の詳細撮影のための撮影条件が決定され(S206)、絞り手段、臥位テーブルの状態が変更される。この変更された条件で撮影が行われ(S207)、第2の画像が生成され撮影が終了する(S208)。関心領域が出力されない場合には(S205)、そこで撮影が終了する(S209)。
【選択図】図2
An imaging method for further imaging is determined based on a result of an image diagnosis support process to improve diagnostic accuracy.
Imaging processing is started by an imaging start signal (S201). When patient information and an imaging region are input, an imaging image size, an imaging location, an imaging distance, an X-ray aperture, an X-ray tube voltage, Imaging conditions such as tube current and X-ray irradiation time are set (S202). Shooting is started under this shooting condition (S203), and the shot image is displayed after being subjected to preset processing. This image is set as the first image, and analysis processing for diagnosis support is performed (S204).
If a region of interest suspected of being ill is output as a result of diagnosis support (S205), the imaging conditions for detailed imaging of the region of interest are determined (S206), and the states of the aperture means and the prone table are changed. Shooting is performed under the changed conditions (S207), a second image is generated, and shooting ends (S208). If the region of interest is not output (S205), the photographing ends there (S209).
[Selection] Figure 2

Description

本発明は、医療画像撮影において撮影された画像を解析する画像診断支援手段を有する放射線画像処理装置及び処理方法に関するものである。   The present invention relates to a radiographic image processing apparatus and a processing method having an image diagnosis support means for analyzing an image captured in medical image capturing.

或る種の蛍光体にX線、α線、β線、γ線、電子線、紫外線等の放射線を照射すると、この放射線エネルギの一部が蛍光体中に蓄積され、蛍光体に可視光等の励起光を照射すると、蓄積されたエネルギに応じて蛍光体が輝尽発光を示すことが知られており、このような性質を示す蛍光体は蓄積性蛍光体(輝尽性蛍光体)と呼ばれている。   When a certain type of phosphor is irradiated with radiation such as X-rays, α-rays, β-rays, γ-rays, electron beams, ultraviolet rays, etc., a part of this radiation energy is accumulated in the phosphor, and visible light etc. It is known that phosphors exhibit stimulated luminescence according to the stored energy when they are irradiated with excitation light, and phosphors exhibiting such properties are stimulable phosphors (stimulable phosphors) and being called.

この蓄積性蛍光体を利用して、人体等の被写体の放射線画像情報を一旦蓄積性蛍光体のシートに記録し、この蓄積性蛍光体シートをレーザー光等の励起光で走査して輝尽発光光を生じさせ、得られた輝尽発光光を光電的に読み取って画像信号を得て、この画像信号に基づいて写真感光材料等の記録材料、CRT等の表示装置に、被写体の放射線画像を可視像として出力させる放射線画像情報記録再生システムが本出願人により既に提案されている。   Using this stimulable phosphor, radiation image information of a subject such as a human body is once recorded on the sheet of the stimulable phosphor, and this stimulable phosphor sheet is scanned with excitation light such as a laser beam to emit light. Light is generated, and the obtained stimulated emission light is photoelectrically read to obtain an image signal. Based on the image signal, a radiographic image of the subject is displayed on a recording material such as a photographic photosensitive material or a display device such as a CRT. A radiation image information recording / reproducing system for outputting a visible image has already been proposed by the present applicant.

また近年においては、半導体センサを使用して同様にX線画像を撮影する装置が開発されている。これらのシステムは、従来の銀塩写真を用いる放射線写真システムと比較して、極めて広い放射線露出域に渡って画像を記録し得るという実用的な利点を有している。即ち、例えば特許文献1に記載されているように、極めて広いダイナミックレンジのX線を光電変換手段により読み取って電気信号に変換し、この電気信号を用いて写真感光材料等の記録材料、CRT等の表示装置に放射線画像を可視像として出力し、放射線露光量の変動に影響されない放射線画像を得ることができる。   In recent years, apparatuses for taking X-ray images in the same manner using semiconductor sensors have been developed. These systems have the practical advantage of being able to record images over a very wide radiation exposure range compared to conventional radiographic systems using silver salt photography. That is, for example, as described in Patent Document 1, X-rays with a very wide dynamic range are read by a photoelectric conversion means and converted into an electric signal, and a recording material such as a photographic photosensitive material, a CRT, or the like using this electric signal. The radiation image can be output as a visible image to the display device, and a radiation image that is not affected by variations in radiation exposure can be obtained.

ところで近年では、このような半導体センサで取得した画像に対して、コンピュータによるCAD(診断支援技術)の開発が進められている。従来の関連技術には、例えば特許文献2のように再構成した断層画像からCADにより異常陰影を抽出し、対応するスライス範囲を詳細なスライスピッチで再構成するシステムが知られている。   By the way, in recent years, development of CAD (diagnosis support technology) by a computer has been advanced for an image acquired by such a semiconductor sensor. As a conventional related art, for example, a system is known in which abnormal shadows are extracted by CAD from a reconstructed tomographic image as in Patent Document 2 and a corresponding slice range is reconstructed with a detailed slice pitch.

また、例えば特許文献3のように、再構成した断層画像からCADにより読影注意個所を抽出し、スライス位置像にスライス位置マーカを表示する読影支援手段がある。加えて、現在画像と過去画像とのスライス位置とを整合させる診断支援システムが知られている。更に、関連する先行技術文献としては、更に特許文献4がある。   Further, for example, as disclosed in Patent Document 3, there is an interpretation support means for extracting an interpretation attention location from a reconstructed tomographic image by CAD and displaying a slice position marker on a slice position image. In addition, a diagnosis support system that aligns the slice positions of the current image and the past image is known. Furthermore, there is Patent Document 4 as related prior art documents.

特開平9−321267号公報Japanese Patent Laid-Open No. 9-32267 特開平8−166995号公報Japanese Patent Application Laid-Open No. 8-16695 特開2001−87228号公報JP 2001-87228 A 特開2001−137230号公報JP 2001-137230 A

臨床での医療画像の撮影においては、最初から精細な画像が撮影されることはない。マンモグラムの例をあげると、日本のマンモグラム検診などでは両方の乳房に対してそれぞれ1枚のライフサイズMLOビューの撮影が行われる。   In clinical imaging of medical images, fine images are not captured from the beginning. As an example of a mammogram, in Japan mammogram screening, one life size MLO view is taken for both breasts.

しかし、検診を受診する女性の0.1%程度にしか乳癌の兆候が発見されないので、最初から両方の乳房に対してCCビューとMLOビューの2枚を撮影することはない。撮影されたMLOビューの画像に対して、医師の診断で乳癌の疑いのある患者に対してリコールが行われて再撮影が行われる。この時点での撮影は、CCビューとMLOビューの両方の撮影であったり、関心領域の拡大撮影であったりする。   However, since only about 0.1% of women who undergo medical examinations have signs of breast cancer, CC and MLO views are not taken for both breasts from the beginning. The captured MLO view image is recalled for a patient who is suspected of having breast cancer based on a doctor's diagnosis, and is re-photographed. Shooting at this point may be both CC view and MLO view shooting, or enlarged shooting of the region of interest.

このプロセスの問題は、(1)リコールまでに日数を要し、進行の早い癌に対しては治療が遅れる、(2)患者が再度医療機関に足を運ぶ必要があり患者の時間的負担が大きい、などがある。   The problems with this process are: (1) it takes days to recall and treatment is delayed for fast-growing cancer, (2) the patient needs to revisit the medical institution and the patient's time burden There is big.

同様の問題は、一般のX線撮影、CT撮影、MRI撮影に対しても同様に発生する。つまり、最初は被曝線量が少なくて済むように、撮影時間が短いように撮影条件が設定されており、これら相対的に粗い精度の画像に対して初期診断が行われ、疑わしい領域つまり関心領域が存在すれば、高精度の画像が撮影される。   The same problem occurs in general X-ray imaging, CT imaging, and MRI imaging. In other words, at first, the imaging conditions are set so that the imaging time is short so that the exposure dose can be reduced, and initial diagnosis is performed for these relatively coarse images, and the suspicious area, that is, the area of interest If present, a highly accurate image is taken.

粗い画像を最初に撮影して、関心領域を高精度に撮影することは、理にかなったことであるが、粗い画像の診断が撮影後に直ちに行われず、患者が撮影室を離れて帰宅してしまうので、高精度の再撮影が必要と診断がされた場合に、前述したように再撮影までの時間がかかる、患者の再来が面倒となる、などの問題点がある。   It is reasonable to take a coarse image first and to capture the region of interest with high accuracy, but the diagnosis of the coarse image is not performed immediately after the image, and the patient leaves the room and returns home. Therefore, when it is diagnosed that high-accuracy re-imaging is necessary, there are problems that it takes time until re-imaging as described above, and that it is troublesome for the patient to come again.

本発明の目的は、上述の問題点を解消し、撮影された画像に対して診断支援が直ちに行われ再撮影を可能とする放射線画像処理装置及び処理方法を提供することにある。   An object of the present invention is to provide a radiographic image processing apparatus and a processing method that solve the above-described problems and that can immediately perform diagnostic support for a captured image and perform re-imaging.

上記目的を達成するための本発明に係る放射線画像処理装置は、放射線画像から関心領域の位置と範囲に関する情報を解析する解析手段と、該解析手段で解析された情報に基づいて撮影条件を決定する条件決定手段とを有することを特徴とする。   In order to achieve the above object, a radiological image processing apparatus according to the present invention includes an analysis unit that analyzes information on the position and range of a region of interest from a radiographic image, and determines imaging conditions based on the information analyzed by the analysis unit. And a condition determining means.

また本発明に係る放射線画像処理方法は、放射線画像から関心領域の位置と範囲に関する情報を解析する解析工程と、該解析工程で解析された情報に基づいて撮影条件を決定する条件決定工程とを有することを特徴とする。   The radiological image processing method according to the present invention includes an analysis step of analyzing information on the position and range of a region of interest from a radiographic image, and a condition determination step of determining imaging conditions based on the information analyzed in the analysis step. It is characterized by having.

本発明に係る放射線画像処理装置及び処理方法によれば、精密な追加撮影の必要があるか否かを即座に判断して、しかも必要な撮影条件の設定が自動的に行うことが可能にある。   According to the radiographic image processing apparatus and processing method of the present invention, it is possible to immediately determine whether or not precise additional imaging is necessary, and to automatically set the necessary imaging conditions. .

例えば、胸部画像や乳房画像の集団検診において、医師の診断により疑わしいと判断されても、詳細の撮影が撮影されるまでは、患者が再度病院に行く必要があるが、即座に詳細撮影が可能になる。また、従来のCT装置などにおいては、詳細な撮影が必要であるか否かは、技師が判断する場合もあるが、見落とし或いは病気でないものを誤診する心配があるが、再撮影の必要性を決めることが可能であり、しかも撮影条件が自動的に決定される。   For example, in a mass examination of chest images and breast images, even if it is determined to be suspicious by a doctor's diagnosis, it is necessary for the patient to go to the hospital again until detailed imaging is taken. become. In addition, in conventional CT devices and the like, an engineer may judge whether or not detailed imaging is necessary, but there is a risk of oversight or misdiagnosis of non-illness, but there is a need for re-imaging. It is possible to decide, and the photographing conditions are automatically decided.

以下に、本発明を図示の実施例に基づいて詳細に説明する。
図1は実施例によるX線撮影装置を示し、X線撮影装置1はCADの機能を有するX線の撮影装置であり、臥位テーブル2上の被写体Pの上方にはX線発生手段3が配置され、X線ビームが絞り手段4を介して被写体Pに向けて照射するようにされている。また、臥位テーブル2の下方に、二次元検出器5が配置されている。
Hereinafter, the present invention will be described in detail based on illustrated embodiments.
FIG. 1 shows an X-ray imaging apparatus according to an embodiment. The X-ray imaging apparatus 1 is an X-ray imaging apparatus having a CAD function, and an X-ray generation means 3 is located above a subject P on a prone table 2. The X-ray beam is irradiated toward the subject P via the aperture means 4. In addition, a two-dimensional detector 5 is disposed below the lying table 2.

X線発生手段3、二次元検出器5には、CPUバス6を介して各種手段が接続されている。即ち、CPUバス6には、CPUから成る制御手段7、画像処理手段8、画像表示手段9、メインメモリ10、コンピュータメモリ等から成る撮影された画像を保存する画像保存手段11、撮影された画像を形態病理学的に解析する解析診断手段12、X線条件などの撮影パラメータを変更保存する撮影方法変更手段13、操作者入力手段14が接続されている。なお、制御手段7、画像処理手段8、画像表示手段9、画像保存手段11、解析診断手段12、撮影方法変更手段13はコンピュータにより構成されている。更に、CPUバス6を介して絞り変更モータ15、テーブル位置変更モータ16が接続され、それぞれ絞り手段4、臥位テーブル2を駆動するようにされている。   Various means are connected to the X-ray generation means 3 and the two-dimensional detector 5 through a CPU bus 6. That is, the CPU bus 6 has an image storage means 11 for storing a photographed image comprising a control means 7, an image processing means 8, an image display means 9, a main memory 10, a computer memory, and the like. An analysis / diagnostic means 12 for analyzing the morphological pathology, an imaging method changing means 13 for changing and storing imaging parameters such as X-ray conditions, and an operator input means 14 are connected. The control means 7, the image processing means 8, the image display means 9, the image storage means 11, the analysis diagnosis means 12, and the imaging method change means 13 are constituted by a computer. Further, an aperture change motor 15 and a table position change motor 16 are connected via the CPU bus 6 to drive the aperture means 4 and the position table 2 respectively.

制御手段7は操作者入力手段14からの操作に従って装置全体の動作制御等を行う。先ず制御手段7の制御によって、X線発生手段3は被写体Pに対してX線ビームを放射し、X線ビームは被写体P中を減衰しながら透過して二次元検出器5に到達し、二次元検出器5により画像として出力される。このとき、絞り手段4はX線発生手段3から放射されるX線ビームの形状を変更することができ、臥位テーブル2はX線ビームと被写体Pの位置関係を相対的に変更する。   The control means 7 controls the operation of the entire apparatus according to the operation from the operator input means 14. First, under the control of the control means 7, the X-ray generation means 3 emits an X-ray beam to the subject P. The X-ray beam passes through the subject P while being attenuated and reaches the two-dimensional detector 5. It is output as an image by the dimension detector 5. At this time, the aperture means 4 can change the shape of the X-ray beam emitted from the X-ray generation means 3, and the supine table 2 relatively changes the positional relationship between the X-ray beam and the subject P.

具体的には、撮影方法変更手段13からの制御を基に、絞り変更モータ15の駆動により絞り手段4が変更され、テーブル位置変更モータ16の駆動により臥位テーブル2が変更される。二次元検出器5を介して画像処理手段8により収集された画像は、所定の補正処理や階調変換処理等の画像処理がなされて画像表示手段9に表示される。   Specifically, based on the control from the imaging method changing unit 13, the diaphragm unit 4 is changed by driving the aperture changing motor 15, and the position table 2 is changed by driving the table position changing motor 16. The image collected by the image processing means 8 via the two-dimensional detector 5 is subjected to image processing such as predetermined correction processing and gradation conversion processing and displayed on the image display means 9.

図2はX線撮影装置1の動作を示すフローチャート図である。上述のようなX線撮影装置1において、先ずメインメモリ10には制御手段7での処理に必要な各種のデータなどが記憶されていると共に、制御手段7の作業用としてのワークメモリを含んでいる。なお、このフローチャート図に従ったプログラムコードは、メインメモリ10又は図示しないROMに格納されCPUバス6により読み出され実行される。   FIG. 2 is a flowchart showing the operation of the X-ray imaging apparatus 1. In the X-ray imaging apparatus 1 as described above, first, the main memory 10 stores various data necessary for processing by the control means 7 and also includes a work memory for working the control means 7. Yes. The program code according to this flowchart is stored in the main memory 10 or a ROM (not shown), and is read out and executed by the CPU bus 6.

撮影対象として、例えば被写体PのX線胸部正面画像を例にすると、撮影処理は操作者入力手段14から入力された撮影開始信号により開始する(S201)。操作者入力手段14から患者名、性別、年齢など患者情報の入力と撮影部位の入力を行うと、撮影方法変更手段13では図示しないテーブルを参照して、撮影画像サイズ、撮影場所、撮影距離、X線絞り開口、X線管電圧、管電流、X線照射時間などの撮影条件を決定し保存する(S202)。   For example, when an X-ray chest front image of the subject P is taken as an example of the imaging target, the imaging process is started by an imaging start signal input from the operator input means 14 (S201). When patient information such as a patient name, sex, and age is input from the operator input unit 14 and an imaging region is input, the imaging method changing unit 13 refers to a table (not shown), and the imaging image size, imaging location, imaging distance, Imaging conditions such as the X-ray aperture, X-ray tube voltage, tube current, and X-ray irradiation time are determined and stored (S202).

次に、撮影方法変更手段13で決定され保存された撮影条件は制御手段7に呼び込まれ、制御手段7は呼び込んだ撮影条件に従い、操作者入力手段14からのX線照射開始信号により撮影が開始される(S203)。二次元検出器5で撮影された画像は画像処理手段8に入力され、予め設定された処理が行われて画像表示手段9に表示される。この最初の撮影によって得られた画像を第1の画像とし、この第1の画像は同時に解析診断手段12に入力され、診断支援のための解析処理が行われる(S204)。   Next, the imaging conditions determined and stored by the imaging method changing means 13 are called into the control means 7, and the control means 7 performs imaging according to the X-ray irradiation start signal from the operator input means 14 according to the called imaging conditions. The process is started (S203). An image photographed by the two-dimensional detector 5 is input to the image processing means 8, subjected to preset processing, and displayed on the image display means 9. The image obtained by the first photographing is set as a first image, and the first image is simultaneously input to the analysis / diagnostic means 12 to perform analysis processing for diagnosis support (S204).

患者が撮影室を離れる前に再撮影が必要か否か決定され、再撮影が必要と判定された場合には、再撮影の撮影条件が装置に設定されると共に、撮影技師(オペレータ)に再撮影必要の通知が行われる。   If it is determined whether or not re-imaging is required before the patient leaves the imaging room, and it is determined that re-imaging is necessary, the imaging conditions for re-imaging are set in the apparatus and the radiographer (operator) is re-established. Notification that shooting is necessary is performed.

再撮影に関しては、自動撮影も勿論可能であるが、X線を使用する機器に関しては、X線照射のスタートは撮影技師に限られる場合があるので、再撮影の通知のみ行う。   As for re-imaging, of course, automatic imaging is possible. However, for devices using X-rays, since the start of X-ray irradiation may be limited to the imaging technician, only notification of re-imaging is performed.

解析診断手段12による診断支援の結果として、病気と疑わしい部分である関心領域が出力されれば(S205)、その関心領域が撮影方法変更手段13に転送されて、詳細撮影のための撮影条件が決定され、撮影条件が撮影方法変更手段13に書き込まれる(S206)。書き込まれた撮影条件により絞り手段4及び臥位テーブル2の状態が変更される。操作者入力手段14からのX線照射開始操作により、この変更された条件で撮影が行われ(S207)、第2の画像が生成され撮影が終了する(S208)。関心領域が出力されない場合には(S205)、そこで撮影が終了される(S209)。   If a region of interest that is a suspicious part of the disease is output as a result of the diagnosis support by the analysis diagnostic unit 12 (S205), the region of interest is transferred to the imaging method changing unit 13, and the imaging conditions for detailed imaging are set. The shooting conditions are determined and written in the shooting method changing means 13 (S206). The states of the aperture means 4 and the position table 2 are changed according to the written photographing condition. By the X-ray irradiation start operation from the operator input means 14, imaging is performed under the changed conditions (S207), a second image is generated, and imaging is terminated (S208). If the region of interest is not output (S205), shooting is terminated (S209).

解析診断手段12は診断支援の目的、撮影対象に応じて異なる手段を有し、各手段での処理を使い分けるものである。例えば、撮影対象が胸部画像の場合には、図3に示す陰影抽出手段21と、後述するテクスチャ疾患抽出手段との処理とを使い分ける。陰影抽出手段21は胸部画像中の石灰化、腫溜状の癌、或いはマンモグラム画像中の腫溜(MASS)の検出に使用され、テクスチャ疾患抽出手段は胸部画像中に発見される間質性肺炎などの領域抽出の処理に使用される。   The analysis / diagnostic means 12 has different means depending on the purpose of diagnosis support and the object to be imaged, and uses the processing in each means properly. For example, when the subject to be imaged is a chest image, the shadow extraction means 21 shown in FIG. 3 and the processing of the texture disease extraction means described later are used properly. The shadow extraction means 21 is used to detect calcification in a chest image, a tumor in the form of a tumor, or a tumor (MASS) in a mammogram image, and the texture disease extraction means 21 is an interstitial pneumonia found in the chest image. It is used for area extraction processing.

図3は陰影抽出処理を実行するためのブロック回路構成図であり、特定周波数帯の画像を算出し円形の陰影候補を抽出する陰影抽出手段21は、入力画像に対するハイパスフィルタ手段21aとローパスフィルタ手段21bを有し、これらの出力は特徴量を計算する病理特徴量抽出手段22、抽出された陰影の陽性、陰性を判定する判定手段23を介して、陽性の陰影候補を囲む一定領域の矩形を定める陽性領域決定手段24に接続されている。   FIG. 3 is a block circuit configuration diagram for executing the shadow extraction processing. The shadow extraction means 21 for calculating a specific frequency band image and extracting circular shadow candidates is a high-pass filter means 21a and a low-pass filter means for the input image. 21b, and these outputs are obtained as a rectangle of a certain region surrounding a positive shadow candidate through a pathological feature amount extraction unit 22 that calculates a feature amount and a determination unit 23 that determines whether the extracted shadow is positive or negative. It is connected to the positive region determining means 24 to be determined.

図4はこの陰影抽出処理のフローチャート図である。先ず、第1の画像は陰影抽出手段21に入力される(S401)、この入力画像からハイパスフィルタ手段21aとローパスフィルタ手段21bにより、それぞれ高周波画像と低周波画像が作成される(S402)。ここで、この2画像の差分画像により陰影候補画像が作成される。   FIG. 4 is a flowchart of this shadow extraction process. First, the first image is input to the shadow extraction unit 21 (S401), and a high-frequency image and a low-frequency image are created from the input image by the high-pass filter unit 21a and the low-pass filter unit 21b, respectively (S402). Here, a shadow candidate image is created from the difference image of the two images.

図5(a)、(b)はそれぞれハイパスフィルタ手段21aとローパスフィルタ手段21bの特性図を示している。また、図5(c)はハイパスフィルタ手段21aとローパスフィルタ手段21bにより得られた高周波画像と低周波画像の差分であり、或る大きさの円形パターンを検出するマッチドフィルタの特性図を示している。円形パターンは特定の周波数帯を有するものであり、ハイパスフィルタ手段21aとローパスフィルタ手段21bの特性を調整することにより、抽出する円形パターンのサイズを調整することが可能である。   FIGS. 5A and 5B show characteristic diagrams of the high-pass filter unit 21a and the low-pass filter unit 21b, respectively. FIG. 5C shows a characteristic diagram of a matched filter that detects a circular pattern of a certain size, which is a difference between a high-frequency image and a low-frequency image obtained by the high-pass filter unit 21a and the low-pass filter unit 21b. Yes. The circular pattern has a specific frequency band, and the size of the circular pattern to be extracted can be adjusted by adjusting the characteristics of the high-pass filter unit 21a and the low-pass filter unit 21b.

一般的に考えて、胸部正面画像の場合であれば、画像中から直径5mm以下の腫瘤を選別して抽出することは極めて困難である。その理由は画像中には同等サイズの信号が数多く含まれて、その多くは病気の信号ではないからである。そこで、本実施例では直径10mmの円形パターンに対応するマッチドフィルタを用いる。   In general, in the case of a chest front image, it is extremely difficult to select and extract a tumor having a diameter of 5 mm or less from the image. The reason is that the image contains many signals of the same size, and many of them are not sick signals. Therefore, in this embodiment, a matched filter corresponding to a circular pattern having a diameter of 10 mm is used.

しかし、マッチドフィルタで抽出を試みる円形パターンの直径を1種類に限定するものではなく、8mm、12mm、16mmなど複数種類のフィルタを順次に適用して、それぞれのフィルタが抽出した陰影候補を以後のプロセスに流すことが可能である。   However, the diameter of the circular pattern to be extracted by the matched filter is not limited to one type, but a plurality of types of filters such as 8 mm, 12 mm, and 16 mm are sequentially applied, and the shadow candidates extracted by the respective filters are subsequently used. It is possible to flow through the process.

陰影抽出手段21で抽出された単数又は複数の陰影候補に対して、病理特徴量抽出手段22で特徴量が計算される(S403)。ここで計算される特徴量は、面積、円形度、閾値感度である。ただし、本実施例において3種類の特徴量が用いられているが、3種類に限定されるものではない。   The feature quantity is calculated by the pathological feature quantity extraction means 22 for one or a plurality of shadow candidates extracted by the shadow extraction means 21 (S403). The feature quantities calculated here are area, circularity, and threshold sensitivity. However, although three types of feature quantities are used in the present embodiment, it is not limited to three types.

なお、面積Sと円形度Cを計算する際には、陰影候補の領域とそれ以外の領域を2値化して区別する。2値化の閾値は、例えばマッチドフィルタ出力画像のヒストグラムの上位10%の値とする。
面積S=陰影候補に含まれる画素数・1画素の面積
When calculating the area S and the circularity C, the shadow candidate region and the other region are binarized and distinguished. The binarization threshold value is, for example, the upper 10% value of the histogram of the matched filter output image.
Area S = number of pixels included in shadow candidate / area of one pixel

円形度C=A/S、ここで、Aは実効直径Dの円を陰影候補の重心に配置したときに、その円と陰影候補がオーバーラップする、つまり重なる面積を表す。   Circularity C = A / S, where A represents an area where the circle and the shadow candidate overlap, that is, overlap when the circle having the effective diameter D is arranged at the center of gravity of the shadow candidate.

閾値感度=|2・S(10)−S(5)−S(15)|は、閾値を変化させた場合の陰影面積変化であり、ここで、S(5)、S(10)、S(15)は、閾値を5%、10%、15%と変化させたときの面積、||は絶対値を表している。   Threshold sensitivity = | 2 · S (10) −S (5) −S (15) | is a change in the shaded area when the threshold is changed. Here, S (5), S (10), S (15) represents the area when the threshold is changed to 5%, 10%, and 15%, and || represents the absolute value.

次に、病理特徴量抽出手段22で計算された特徴量に基づいて、各陰影候補に対して陽性か疑陽性であるかの判定を判定手段23で判定するためにニューラルネットに入力する(S404)。疑陽性とは病理的には正常であるが、円形パターンを有するため抽出された陰影のことである。判定手段23はニューラルネットワークにより構成されており、ニューラルネットワークは学習フェーズと利用フェーズを有するので、両フェーズに分けて説明する。ただし、判定手段23は一定の規則に従い病理判定を行えれば、どのような手段を用いてもよく、例えば支援の目的によっては線形で分離が可能な場合には、線形分離を使用してもよい。   Next, on the basis of the feature amount calculated by the pathological feature amount extraction unit 22, a determination as to whether each shadow candidate is positive or false positive is input to the neural network for determination by the determination unit 23 (S404). ). A false positive is a shadow extracted because it is pathologically normal but has a circular pattern. The determination means 23 is constituted by a neural network, and the neural network has a learning phase and a use phase, and therefore will be described separately for both phases. However, the determination means 23 may use any means as long as pathological determination can be performed according to a certain rule. For example, when separation is possible depending on the purpose of support, linear separation may be used. Good.

学習フェーズは陽性か疑陽性かの結果が分かっている陰影に対して、ニューラルネットワークに結果を提示しながら、病理特徴量抽出手段22で計算された特徴量を入力して、ニューラルネットワークの内部係数を学習させるものである。ニューラルネットワークは様々なものが開発されており、例を挙げると非特許文献1のランメルハートが開発したフィードフォワード型の誤差逆伝播ニューラルネットワーク、非特許文献2のRadial Basis Functionニューラルネットワーク(簡単にRBF−NN)が挙げられる。   For a shadow whose positive or false positive result is known in the learning phase, while inputting the feature quantity calculated by the pathological feature quantity extraction means 22 while presenting the result to the neural network, the internal coefficient of the neural network is inputted. To learn. Various neural networks have been developed. For example, a feedforward type error back propagation neural network developed by Rammel Heart of Non-Patent Document 1 and a Radial Basis Function neural network of Non-Patent Document 2 (simply RBF-NN).

D.E. Rumelhart and J.L.McCelland, Parallel Distributed Processing: Explorations in the Microstructure of Cognition, Vol. 1: Foundation. Cambridge: The MIT Press, 1986.D.E. Rumelhart and J.L. McCelland, Parallel Distributed Processing: Explorations in the Microstructure of Cognition, Vol. 1: Foundation. Cambridge: The MIT Press, 1986. C. Bishop, "Improving the Generalization Properties of Radial Basis Function Neural Networks," Neural Comp., vol. 3, pp. 579-588, 1991.C. Bishop, "Improving the Generalization Properties of Radial Basis Function Neural Networks," Neural Comp., Vol. 3, pp. 579-588, 1991.

本実施例においては、図6に示すような3入力のRBF−NNを使用する。構造的にはフィードフォワード型を採用して、入力層、中間層1層、出力層の3層構造である。入力層には、病理特徴量抽出手段22で抽出した特徴量の数に相当する入力Nodeを配置する。ただし、便宜的に入力NODE数は3、中間ニューロンは4、出力NODE数は1としている。中間層に配置するRBFニューロンは、非線型要素としてガウス分布を持つような出力特性を備えている。RBFニューロンの数は学習のケース数と問題の複雑さに依存するが、計算時間を妥当に設定するためには100程度が適当である。ニューラルネットワークの出力数は1であり、陽性であれば1、陰性であればゼロが出力される。   In this embodiment, a 3-input RBF-NN as shown in FIG. 6 is used. In terms of structure, a feedforward type is adopted, which has a three-layer structure of an input layer, an intermediate layer, and an output layer. In the input layer, input nodes corresponding to the number of feature amounts extracted by the pathological feature amount extraction unit 22 are arranged. However, for convenience, the number of input NODEs is 3, the number of intermediate neurons is 4, and the number of output NODEs is 1. The RBF neurons arranged in the intermediate layer have an output characteristic that has a Gaussian distribution as a non-linear element. The number of RBF neurons depends on the number of learning cases and the complexity of the problem, but about 100 is appropriate for setting the calculation time appropriately. The number of outputs of the neural network is 1. If it is positive, 1 is output, and if it is negative, 0 is output.

本実施例において、ニューラルネットワークは診断支援の目的毎に用意されるが、ソフトウェアで構成されるので、実際は診断支援毎の係数を保存しておいて、使用の際には診断支援毎の係数をセットする。   In this embodiment, the neural network is prepared for each purpose of diagnosis support. However, since it is configured by software, the coefficient for each diagnosis support is actually stored, and the coefficient for each diagnosis support is used in use. set.

利用フェーズは学習フェーズで学習した内部係数をニューラルネットワークに設定した後に、二次元検出器5で撮影された画像から病理特徴量抽出手段22で計算した特徴量を、このニューラルネットワークに入力して、ニューラルネットワークの出力を得る。例えば、陽性出力が1、陰性出力が0として学習されている場合に、ニューラルネットワークの出力が0.5以上の場合は陽性、0.5以下であれば陰性の判定とする(S405)。   In the use phase, after setting the internal coefficient learned in the learning phase in the neural network, the feature amount calculated by the pathological feature amount extraction means 22 from the image taken by the two-dimensional detector 5 is input to this neural network, Get the output of the neural network. For example, when the positive output is learned as 1 and the negative output is 0, the determination is positive if the output of the neural network is 0.5 or more, and negative if it is 0.5 or less (S405).

陽性と判定された複数の円形パターン(陰影)が近接する場合には1つの陽性領域とし、この陽性領域を矩形化する(S406)。ただし、陽性領域の指定を矩形状に限定する必要はないが、一般的にX線照射の絞りには矩形が使用されることが多いため、本実施例では矩形とした。仮に、X線照射の絞りが円形であれば、円形としたほうが望ましい。   When a plurality of circular patterns (shadows) determined to be positive are close to each other, a single positive area is formed, and the positive area is rectangularized (S406). However, although it is not necessary to limit the designation of the positive region to a rectangular shape, in general, a rectangular shape is often used for the aperture for X-ray irradiation. If the aperture for X-ray irradiation is circular, it is desirable to make it circular.

第1の画像から抽出された陰影候補が複数ある場合には、矩形領域を1個所に限定できない場合がある。この場合には、後述の詳細画像の撮影枚数が複数枚になることもある(S407)。   When there are a plurality of shadow candidates extracted from the first image, the rectangular area may not be limited to one place. In this case, the number of detailed images to be described later may be plural (S407).

図7は入力された胸部正面画像であり、図8はこの画像に対して陰影抽出手段を適用した結果を示している。図9は図8の4個の陰影候補それぞれに対して病理特徴量を抽出して、特徴量を基にニューラルネットワークによる判定手段23で判定した結果である。ここでは、右肺の矩形の陰影パターンが陰性として排除されている。この陽性陰影パターンに対して、図10は陽性領域決定手段24により陽性領域が決定された結果である。全ての陽性陰影を含むように陽性領域が設定され、しかも左肺の陰影に関しては1つに統合されて陽性領域が設定されている。   FIG. 7 shows the input chest front image, and FIG. 8 shows the result of applying the shadow extraction means to this image. FIG. 9 shows the result of extracting pathological feature amounts for each of the four shadow candidates in FIG. 8 and determining them by the determination means 23 using a neural network based on the feature amounts. Here, the rectangular shadow pattern of the right lung is excluded as negative. FIG. 10 shows the result of determining the positive area by the positive area determining means 24 for this positive shadow pattern. The positive region is set so as to include all positive shadows, and the positive region is set by integrating the shadows of the left lung into one.

図11は前述したテクスチャ疾患診断支援処理を実行するためのブロック回路構成図である。テクスチャ疾患抽出手段31はセグメンテーション手段32と領域分割手段33とから成り、更にセグメンテーション手段32はセグメント特徴量抽出手段32aと判別手段(ニューラルネットワーク手段)32bから成っている。テクスチャ疾患抽出手段31の出力は、図3と同様に病理特徴量抽出手段22、判定手段23を経て陽性領域決定手段24に接続されている。   FIG. 11 is a block circuit configuration diagram for executing the texture disease diagnosis support process described above. The texture disease extraction means 31 includes a segmentation means 32 and a region division means 33, and the segmentation means 32 further includes a segment feature quantity extraction means 32a and a discrimination means (neural network means) 32b. The output of the texture disease extraction means 31 is connected to the positive region determination means 24 via the pathological feature quantity extraction means 22 and the determination means 23 as in FIG.

ここで、胸部正面画像に対する間質性肺疾患を例にとって説明すると、第1の画像に対してテクスチャ疾患抽出手段31は、テクスチャ疾患を有する領域の候補を関心領域(ROI)として抽出する。先ず、第1の画像はセグメンテーション手段32に入力されて肺野領域がセグメンテーションされる。間質性肺疾患は局所的な領域で判断される疾患であるので、肺野の局所領域を定義するために肺野領域が抽出される。   Here, exemplifying an interstitial lung disease with respect to the chest front image, the texture disease extraction unit 31 extracts a region candidate having a texture disease as a region of interest (ROI) for the first image. First, the first image is input to the segmentation means 32 and the lung field region is segmented. Since interstitial lung disease is a disease determined in a local region, the lung region is extracted to define the local region of the lung field.

セグメンテーション手段32はニューラルネットワークにより構成されており、上述のように学習フェーズと利用フェーズを有する。なお、以下のフェーズでは画素単位のセグメンテーションを行っているが、例えば非特許文献3に示される画像中から輪郭を追跡する手法によりセグメンテーションを行うことも可能である。   The segmentation means 32 is constituted by a neural network, and has a learning phase and a use phase as described above. In the following phases, segmentation is performed in units of pixels. However, segmentation can also be performed by a method of tracking an outline from an image shown in Non-Patent Document 3, for example.

O.Tsujii, M. T. Freedman, and S. K. Mun, "Lung contour detection in chest radiographs using 1-D convolution neural networks," Electronic Imaging, 8(1), pp. 46-53, January 1999O. Tsujii, M. T. Freedman, and S. K. Mun, "Lung contour detection in chest radiographs using 1-D convolution neural networks," Electronic Imaging, 8 (1), pp. 46-53, January 1999

第1の画像の各画素に対して、セグメント特徴量抽出手段32aは特徴量を計算する。計算される特徴量は、例えば非特許文献4に開示される画素値をベースに計算されるもの、テクスチャをベースに計算されるもの、解剖学的構造からの相対アドレスで計算するものなどがある。これらの特徴量は画像のテクスチャの特性を示すものである。なお、特徴量はこれらに限られるものではなく、画像のテクスチャの特徴を示すものであればよい。ここでは図12に示すように、第1の画像を、碁盤目状の矩形ROIに分割し、各ROI毎に特徴量が計算される。   For each pixel of the first image, the segment feature quantity extraction unit 32a calculates a feature quantity. The calculated feature amount includes, for example, a calculation based on a pixel value disclosed in Non-Patent Document 4, a calculation based on a texture, and a calculation based on a relative address from an anatomical structure. . These feature amounts indicate the texture characteristics of the image. Note that the feature amount is not limited to these, and any feature amount may be used as long as it indicates the texture feature of the image. Here, as shown in FIG. 12, the first image is divided into a grid-like rectangular ROI, and a feature amount is calculated for each ROI.

O. Tsujii, M. T. Freedman, and S. K. Mun, "Automated Segmentation of Anatomic Regions in Chest Radiographs using Adaptive-Sized Hybrid Neural Network, " Med. Phys., 25(6), pp. 998-1007, June 1998.M. F. McNitt-Gray, H. K. Huang and J. W. Sayre, "Feature Selection in the Pattern Classification Problem of Digital Chest Radiograph Segmentation, " IEEE Trans. Med. Imag. 14, 537-547 (1995)O. Tsujii, MT Freedman, and SK Mun, "Automated Segmentation of Anatomic Regions in Chest Radiographs using Adaptive-Sized Hybrid Neural Network," Med. Phys., 25 (6), pp. 998-1007, June 1998.MF McNitt -Gray, HK Huang and JW Sayre, "Feature Selection in the Pattern Classification Problem of Digital Chest Radiograph Segmentation," IEEE Trans. Med.Imag. 14, 537-547 (1995)

ニューラルネットワークは前述したように様々なものが開発されている。本実施例においては、RBF−NNを使用する。構造的にはフィードフォワード型を採用し、図6に示すように入力層、中間層1層、出力層の3層構造である。   Various neural networks have been developed as described above. In this embodiment, RBF-NN is used. In terms of structure, a feed-forward type is adopted, and a three-layer structure of an input layer, an intermediate layer, and an output layer as shown in FIG.

入力層には、セグメント特徴量抽出手段32aで抽出した特徴量の数に相当する入力Nodeを配置する。中間層に配置するRBFニューロンは、非線型要素としてガウス分布を持つような出力特性を具備する。RBFニューロンの数は学習のケース数と問題の複雑さに依存するが、計算時間を妥当に設定するためには5000程度が適当である。ニューラルネットワークの出力数は、各部位に対するセグメント数に相当する。   In the input layer, input Nodes corresponding to the number of feature amounts extracted by the segment feature amount extraction unit 32a are arranged. The RBF neurons arranged in the intermediate layer have output characteristics that have a Gaussian distribution as a non-linear element. The number of RBF neurons depends on the number of learning cases and the complexity of the problem, but about 5000 is appropriate for setting the calculation time appropriately. The number of outputs of the neural network corresponds to the number of segments for each part.

例えば、図7に示すような胸部正面の画像であれば、図13に示すように2つの解剖学的セグメントS1、S2があるので、2つの出力NODEが用意される。本実施例において、ニューラルネットワークは撮影部位毎つまり対象画像毎に用意されるが、ニューラルネットワークはソフトウェアで構成されるので、実際は部位毎の係数を保存しておいて、使用の際には部位毎の係数をセットする。   For example, in the case of an image of the front of the chest as shown in FIG. 7, since there are two anatomical segments S1 and S2 as shown in FIG. 13, two output NODEs are prepared. In this embodiment, the neural network is prepared for each imaging region, that is, for each target image. However, since the neural network is configured by software, the coefficients for each region are actually stored and used for each region. Set the coefficient of.

学習フェーズにおいては、各画素に対する特徴量と共に、セグメンテーション結果である回答例が判別手段32bに提示される。図13は入力画像に対する教師出力画像の例を示し、胸部正面画像に対応するセグメント分類に対応するように、教師画像では出力値1と2を持つように教師画像が作られる。ただし、セグメントの対象とならない領域は、それ以外の数、例えばゼロがセットされる。教師画像の手段は、画像中の領域を指定できるグラフィックソフトで行うことができるが、市販の画像処理ソフトなどを使用することも可能である。ニューラルネットワークの学習は、RBF−NNの場合は出力エラーを最小にする最小2乗法で行えば解析的に求めることができ、内部係数の計算は短時間で行える。   In the learning phase, an answer example as a segmentation result is presented to the determination unit 32b together with the feature amount for each pixel. FIG. 13 shows an example of a teacher output image with respect to an input image. The teacher image is created so that the teacher image has output values 1 and 2 so as to correspond to the segment classification corresponding to the chest front image. However, the number of areas other than the segment, for example, zero is set. The teacher image means can be implemented by graphic software that can designate an area in the image, but commercially available image processing software can also be used. In the case of RBF-NN, the learning of the neural network can be obtained analytically by performing the least square method that minimizes the output error, and the calculation of the internal coefficient can be performed in a short time.

利用フェーズに関する画像中の各画素に対する特徴量の抽出は、学習フェーズと同様に行われる。ニューラルネットワークに対する内部係数は、対象の撮影部位に対する係数が利用前にロードされる。各画素に対する特徴量がニューラルネットワークに提示されて、ネットワークは出力NODEに出力値を出力する。胸部正面画像の場合では、出力NODEは2つであり、それらの出力NODEで最もYESに近い出力をしたNODEに対応するセグメントに入力画素は分類される。図14はこのようにして画像中の全ての画素に対する分類が完了したセグメント画像S3、S4を示している。   Extraction of feature amounts for each pixel in the image relating to the use phase is performed in the same manner as in the learning phase. As the internal coefficient for the neural network, the coefficient for the target imaging region is loaded before use. The feature quantity for each pixel is presented to the neural network, and the network outputs an output value to the output NODE. In the case of the chest front image, there are two output NODEs, and the input pixels are classified into segments corresponding to the NODEs that output the closest to YES among these output NODEs. FIG. 14 shows segment images S3 and S4 in which the classification for all the pixels in the image is completed in this way.

一般的に、判別手段32bが出力したセグメント画像にはノイズが含まれており、例えば肺野の領域から分離して小さい面積の肺野領域が発生する場合がある。このようなノイズ的な小領域は、後処理過程で除去されるが、この技術に関しては前述の非特許文献3に記載されている。   In general, the segment image output from the discriminating means 32b contains noise, and for example, a lung field region having a small area may be generated by separating from the lung field region. Such a small noise area is removed in the post-processing process, but this technique is described in Non-Patent Document 3 described above.

図15は判別手段32bのセグメンテーション出力画像例を示す。このセグメンテーション出力画像に対して領域分割手段33が適用される。領域分割とは、テクスチャ疾患パラメータを計算するための局所的な領域を定義することである。具体的には、図12に示すように対象となるセグメンテーション出力画像のこの場合の肺野である対象領域は、一定値以下の面積になるように矩形状に分割することである。このようにして定義された概略矩形の関心領域を、テクスチャ疾患候補ROIと呼ぶ。   FIG. 15 shows an example of a segmentation output image of the discrimination means 32b. Region segmentation means 33 is applied to this segmentation output image. Region segmentation is to define a local region for calculating texture disease parameters. Specifically, as shown in FIG. 12, the target region which is the lung field in this case of the target segmentation output image is to be divided into rectangles so as to have an area of a certain value or less. The roughly rectangular region of interest defined in this way is called a texture disease candidate ROI.

テクスチャ疾患抽出手段31により出力された複数のテクスチャ疾患候補ROIに対して、それぞれ病理特徴量抽出手段22により病理特徴量が計算されて、その特徴量を基に陽性か陰性かの判断が行われる。特徴量計算以降の過程は、図3に示した陰影診断支援処理と同様であるので省略する。ただし、特徴量計算は診断支援処理の目的に応じて計算される。テクスチャ疾患診断支援に使用される特徴量に関しては、次の非特許文献5、6を参照できる。   For each of the plurality of texture disease candidate ROIs output by the texture disease extraction unit 31, pathological feature amounts are calculated by the pathological feature amount extraction unit 22, and determination is made based on the feature amounts as positive or negative. . The process after the feature amount calculation is the same as the shadow diagnosis support process shown in FIG. However, the feature amount calculation is calculated according to the purpose of the diagnosis support process. The following non-patent documents 5 and 6 can be referred to for the feature values used for texture disease diagnosis support.

桂川茂彦他:間質性疾患のコンピュータ診断支援の可能性、日本医学放射線学会誌、50:753−766、1990.Shigehiko Katsurakawa et al .: Possibility of computer diagnosis support for interstitial diseases, Journal of Japanese Society of Medical Radiology, 50: 753-766, 1990. 佐々木康夫他:じん肺標準写真のテクスチャ解析による定量評価、日本医学放射線学会、52:1385−1393、1992.Yasuo Sasaki et al .: Quantitative evaluation by texture analysis of pneumoconiosis standard photographs, Japanese Society of Medical Radiology, 52: 1385-1393, 1992.

解析診断手段12により関心領域が出力され、この出力は撮影方法変更手段13に入力され、第2の画像の撮影条件決定に使用される。撮影方法変更手段13は操作者入力手段14に表示する。X線装置の場合には、撮影のスタートは撮影者に限定されるが、CTやMRIの場合には、自動的に条件設定や臥位テーブル2の移動が行われて、自動に撮影が開始されることも可能である。   The region of interest is output by the analysis / diagnosis unit 12, and this output is input to the imaging method changing unit 13 and used for determining the imaging condition of the second image. The photographing method changing means 13 is displayed on the operator input means 14. In the case of an X-ray apparatus, the start of imaging is limited to the photographer, but in the case of CT or MRI, the condition setting and the position table 2 are automatically moved, and the imaging starts automatically. It is also possible.

図16(a)、(b)は被写体Pの一般的な臥位胸部撮影の撮影位置を示している。(a)は頭の方向から見た状態、(b)は側方から見た状態を示している。X線発生手段3によるX線撮影の条件としては、管電圧120KV、管電流200mA、撮影時間は10m秒程度、撮影距離はX線焦点から患者まで約1.8m、撮影サイズは43cm・43cmである。照射時間に関しては、図示しないX線露光用モニタを使用すると自動的に決定される。   FIGS. 16A and 16B show the photographing positions of general supine chest photographing of the subject P. FIG. (A) shows the state seen from the direction of the head, and (b) shows the state seen from the side. The conditions of X-ray imaging by the X-ray generation means 3 are tube voltage 120 KV, tube current 200 mA, imaging time is about 10 msec, imaging distance is about 1.8 m from the X-ray focal point to the patient, and the imaging size is 43 cm / 43 cm. is there. The irradiation time is automatically determined when an X-ray exposure monitor (not shown) is used.

この状態で被写体Pの第1の胸部画像が撮影されて、画像が解析診断手段12によって診断支援されて図16(c)に示すような関心領域Qが出力された場合に、被写体Pは第1の胸部画像が撮影された状態で臥位テーブル2の上に横になっているので、(c)に矩形で示した関心領域Qが拡大撮影されるように、臥位テーブル2のX、Y方向の移動と、臥位テーブル2の昇降が行われて適当な拡大率が設定される。   In this state, when the first chest image of the subject P is photographed, and the region of interest Q as shown in FIG. Since the chest image of 1 is lying on the lying position table 2, X of the lying position table 2 so that the region of interest Q indicated by a rectangle in FIG. The movement in the Y direction and the elevation table 2 are moved up and down to set an appropriate enlargement ratio.

第2の画像を撮影するために、臥位テーブル2の移動が完了した状態を図16(d)、(e)に示している。(d)、(e)はそれぞれ(a)、(b)の状態に相当し、左肺の下部が拡大されるように臥位テーブル2の位置は移動している。   FIGS. 16D and 16E show a state in which the position table 2 has been moved in order to capture the second image. (D) and (e) correspond to the states (a) and (b), respectively, and the position of the supine table 2 is moved so that the lower part of the left lung is enlarged.

ここで注意することは、図16(c)で検出された関心領域Qを厳密に拡大する必要はないが、X線ビームの絞り手段4、撮影サイズが変更されて必要な部分だけにX線ビームが照射されていることである。この場合に、二次元検出器5までの撮影距離は変更されていないので、X線発生手段5の管電圧、管電流はそのまま維持されている。また、X線露光用モニタの内部構造を厳密に図示してはいないが、撮影領域に対応して複数のセグメントから構成されるX線受光部のどれを使用してX線を遮断するかも、自動的に適当なものが使用される。   Note that it is not necessary to strictly enlarge the region of interest Q detected in FIG. 16 (c), but the X-ray beam stop means 4 and the X-rays are only applied to the necessary portions when the imaging size is changed. The beam is being irradiated. In this case, since the imaging distance to the two-dimensional detector 5 is not changed, the tube voltage and tube current of the X-ray generation means 5 are maintained as they are. In addition, although the internal structure of the X-ray exposure monitor is not strictly illustrated, which of the X-ray light receiving parts formed of a plurality of segments corresponding to the imaging region may be used to block the X-rays. An appropriate one is automatically used.

また、第1の画像を撮影する際に、X線ビームが遮断するまでの撮影時間がX線制御装置より取得可能であるので、その照射時間を撮影制御部に設定することで、X線露光用モニタを使用せずに照射時間指定で撮影することも可能である。   Further, since the imaging time until the X-ray beam is interrupted can be acquired from the X-ray control device when the first image is captured, X-ray exposure can be performed by setting the irradiation time in the imaging control unit. It is also possible to take a picture by specifying the irradiation time without using a monitor for the camera.

図17は撮影方法変更手段13の内部で計算される臥位テーブル2の移動量の計算プロセスの説明図である。X線ビームの焦点と二次元検出器5の関係は固定とすれば、第1の画像の中心から関心領域Qの中心までの距離が、被写体Pの体軸方向のY量、横軸方法のX量で計算される。具体的には、距離を画素数で計算して画素サイズを乗算することによって求めることが可能である。   FIG. 17 is an explanatory diagram of a process for calculating the movement amount of the position table 2 calculated inside the photographing method changing means 13. If the relationship between the focal point of the X-ray beam and the two-dimensional detector 5 is fixed, the distance from the center of the first image to the center of the region of interest Q is the amount of Y in the body axis direction of the subject P, and the horizontal axis method. Calculated with X quantity. Specifically, it can be obtained by calculating the distance by the number of pixels and multiplying by the pixel size.

臥位テーブル2の昇降は拡大撮影の場合は通常2倍に拡大されるので、2倍の幾何学距離が得られるように、X線ビームの焦点と二次元検出器5の間で臥位テーブル2の位置が決定される。そして、画像の拡大を考慮して絞り手段4のサイズが計算される。勿論、拡大サイズは2倍に限定されるものではなく、その他の倍数が病気の種類によってテーブルを参照して決定されてもよい。例えば、癌では拡大率を2倍にし、間質性肺炎では症状を更に詳細に観察するために3倍に設定することが考えられる。   Ascending / descending of the saddle position table 2 is usually doubled in the case of magnified photographing, so that the lateral position table is placed between the focal point of the X-ray beam and the two-dimensional detector 5 so as to obtain a double geometric distance. The position of 2 is determined. Then, the size of the aperture means 4 is calculated in consideration of image enlargement. Of course, the enlargement size is not limited to twice, and other multiples may be determined by referring to the table according to the type of disease. For example, it is conceivable that the enlargement rate is doubled for cancer and is set to triple for interstitial pneumonia in order to observe the symptoms in more detail.

撮影方法変更手段13による撮影画像サイズ、撮影場所、撮影距離、X線絞り開口の変更例を説明したが、X線発生手段3のX線管電圧、管電流、X線照射時間などの撮影条件を変更してもよい。一般に、例えば110KVに管電圧を低くすると、軟部組織を観察するのに好適であり、軟部組織としての病例としては間質性肺炎などが考えられる。石灰化が疑われる場合においては、例えば管電圧を140KVに高めて撮影することで、他の臓器のコントラストを低下させることが可能になる。   Although an example of changing the captured image size, imaging location, imaging distance, and X-ray aperture opening by the imaging method changing unit 13 has been described, imaging conditions such as the X-ray tube voltage, tube current, and X-ray irradiation time of the X-ray generating unit 3 May be changed. In general, when the tube voltage is lowered to, for example, 110 KV, it is suitable for observing soft tissue, and an example of a disease as soft tissue is interstitial pneumonia. When calcification is suspected, the contrast of other organs can be reduced by, for example, imaging with the tube voltage increased to 140 KV.

管電流の変更要因としては、一般に間質性肺炎などの軟部組織を観察する場合には、SN比を良くする必要があるので、管電流を増加させて撮影することが考えられる。X線照射時間は撮影中の体動や心臓などの臓器の動きに関連して決定され、例えば陽性が疑われる領域が心臓に近い場合においては、精細に観察するためには、心臓の動き効果を低減するために、通常2.5m秒に対して半分の1.25m秒の高速の撮影時間が好適である。ただし、撮影時間を半分にして、同一の線量を得ようとすると倍の管電流で撮影することが必要になる。   As a factor for changing the tube current, in general, when a soft tissue such as interstitial pneumonia is observed, it is necessary to improve the SN ratio. The X-ray irradiation time is determined in relation to the movement of the body during imaging and the movement of an organ such as the heart. For example, in the case where the region suspected of being positive is close to the heart, In order to reduce this, a high-speed shooting time of 1.25 msec, which is half of the normal 2.5 msec, is preferable. However, if the imaging time is halved to obtain the same dose, it is necessary to perform imaging with double tube current.

上述の説明ではX線胸部撮影装置を例にしたが、X線乳房画像に関しても同様に診断支援結果を使用した拡大撮影を行うことが可能である。また、以上の例では第1の画像、第2の画像共に静止画像であったが、第1の静止画像での診断支援結果を基に、関心領域の動画像を第2の画像として撮影することも可能であるし、その逆に第1の動画像を診断支援した結果を基に、関心領域の詳細画像を第2の画像として撮影することも可能である。   In the above description, the X-ray chest imaging apparatus is taken as an example, but the X-ray breast image can be similarly subjected to enlarged imaging using the diagnosis support result. Further, in the above example, both the first image and the second image are still images, but based on the diagnosis support result in the first still image, a moving image of the region of interest is captured as the second image. It is also possible to capture the detailed image of the region of interest as the second image based on the result of the diagnosis support for the first moving image.

図18はCTの場合を例とした説明図である。(a)は第1の画像が撮影される場所と撮影条件を表している。撮影は肺から腹部にかけての広い領域に対して行われる。そのために、スライス厚は10mmと厚く、撮影間隔も10mmと粗い撮影が行われる。これら複数の第1の画像に対して診断支援手段が適用されて、その結果、(b)に示すようにスライス番号3と4のところに腫瘍らしきものが検出されている。   FIG. 18 is an explanatory diagram taking the case of CT as an example. (A) represents the place where the first image is shot and the shooting conditions. Imaging is performed on a wide area from the lungs to the abdomen. For this reason, the photographing is performed with a large slice thickness of 10 mm and a coarse photographing interval of 10 mm. Diagnosis support means is applied to the plurality of first images, and as a result, as shown in (b), what appears to be a tumor is detected at slice numbers 3 and 4.

この状態では、悪性、良性の判断、進行度が判断し難いので、スライス厚を5mm、スライスピッチを5mmに設定して第2の画像が撮影される。この場合の撮影条件の変更内容としては、図18(c)に示すように第1の画像の3と4の位置を中心に撮影するように、臥位テーブル2の移動が行われて、更にスライス厚の変更、スライスピッチの変更が行われ、スライス厚の変更に伴って管電流の増加などの変更が行われる。スライス厚の変更は、X線管球の前面に設置されたスリットの間隔を変更することによって実現される。この例ではCTの場合であるが、この技術はMRIにも同様に適用することが可能である。   In this state, since it is difficult to judge malignancy and benignity and the degree of progression, the second image is taken with the slice thickness set to 5 mm and the slice pitch set to 5 mm. In this case, the change in the photographing condition is that the position table 2 is moved so that photographing is performed around the positions 3 and 4 of the first image as shown in FIG. The slice thickness is changed and the slice pitch is changed, and a change such as an increase in tube current is performed in accordance with the change of the slice thickness. The change of the slice thickness is realized by changing the interval between the slits installed on the front surface of the X-ray tube. In this example, CT is used, but this technique can be applied to MRI as well.

上述の実施例では、第1の画像と第2の画像の撮影装置が同じであるが、同じである必要はなく、X線画像の診断支援結果を使用して、CTスキャナで精細に撮影する際の臥位テーブルの場所やスライス厚、X線条件などの撮影条件を決定して、その撮影条件をCTに設定することも可能である。   In the above-described embodiment, the imaging devices for the first image and the second image are the same. However, the imaging devices need not be the same, and the X-ray image diagnosis support result is used, and the CT scanner performs fine imaging. It is also possible to determine imaging conditions such as the position of the prone position table, slice thickness, and X-ray conditions, and set the imaging conditions to CT.

また、このようなことは解析手段と撮影方法、撮影条件の変更は、医療の分野以外においても応用が可能である。つまり、自然画像或いは解析画像の撮影において、自動的に撮影された画像を解析して、重要な関心領域をより詳細に撮影することが必要な場合がある。   In addition, the analysis means, the imaging method, and the change of the imaging conditions can also be applied outside the medical field. That is, in capturing a natural image or an analysis image, it may be necessary to analyze an automatically captured image and capture an important region of interest in more detail.

更に、本発明は上述の実施例を実現するための装置及び方法のみに限定されるものではなく、装置内のCPUやMPUのコンピュータに、実施例を実現するためのソフトウェアのプログラムコードを供給し、このプログラムコードに従って上記システム或いは装置のコンピュータが各種デバイスを動作させることにより、上述の実施例を実現する場合も本発明の範疇に含まれる。   Further, the present invention is not limited to only the apparatus and method for realizing the above-described embodiment, and the program code of software for realizing the embodiment is supplied to the CPU or MPU computer in the apparatus. The case where the above-described embodiment is realized by causing the computer of the system or apparatus to operate various devices according to the program code is also included in the scope of the present invention.

また、この場合にソフトウェアのプログラムコード自体が実施例の機能を実現することになり、そのプログラムコード自体、及びそのプログラムコードをコンピュータに供給するための手段、具体的にはプログラムコードを格納した記憶媒体は本発明の範疇に含まれる。   In this case, the program code of the software itself realizes the functions of the embodiment, and the program code itself and means for supplying the program code to the computer, specifically, a memory storing the program code The medium is included in the scope of the present invention.

このようなプログラムコードを格納する記憶媒体としては、例えばフロッピディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。   As a storage medium for storing such a program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

またコンピュータが、供給されたプログラムコードのみに従って各種デバイスを制御することにより、実施例の機能が実現される場合だけではなく、プログラムコードがコンピュータ上で稼働しているOS(オペレーティングシステム)、或いは他のアプリケーションソフト等と共働して実施例を実行する場合にも、このようなプログラムコードは本発明の範疇に含まれる。   In addition to the case where the functions of the embodiments are realized by the computer controlling various devices according to only the supplied program code, an OS (operating system) in which the program code is running on the computer, or other Such a program code is also included in the scope of the present invention when the embodiment is executed in cooperation with the application software.

更に、この供給されたプログラムコードが、コンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納された後に、そのプログラムコードの指示に基づいてその機能拡張ボードや機能格納ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって実施例が実現される場合も本発明の範疇に含まれる。   Further, after the supplied program code is stored in the memory of the function expansion board of the computer or the function expansion unit connected to the computer, the program code is stored in the function expansion board or function storage unit based on the instruction of the program code. A case where the CPU or the like provided performs part or all of the actual processing and the embodiment is realized by the processing is also included in the scope of the present invention.

実施例のX線撮影装置の構成図である。It is a block diagram of the X-ray imaging apparatus of an Example. 動作のフローチャート図である。It is a flowchart figure of operation | movement. 陰影抽出処理のブロック回路構成図である。It is a block circuit block diagram of a shadow extraction process. 陰影抽出のフローチャート図である。It is a flowchart figure of shadow extraction. ローパス、ハイパスフィルタ及び両フィルタの差分の特性図である。It is a characteristic view of the difference of a low pass, a high pass filter, and both filters. 判別手段の説明図である。It is explanatory drawing of a discrimination means. 胸部正面画像の説明図である。It is explanatory drawing of a chest front image. 陰影候補画像の説明図である。It is explanatory drawing of a shadow candidate image. 判定手段出力の説明図である。It is explanatory drawing of a determination means output. 陽性領域の説明図である。It is explanatory drawing of a positive area | region. テクスチャ疾患診断支援処理のブロック回路構成図である。It is a block circuit block diagram of a texture disease diagnosis assistance process. テクスチャ特徴量抽出において画像と矩形ROIに分割する説明図である。It is explanatory drawing divided | segmented into an image and a rectangular ROI in texture feature-value extraction. 肺野のセグメンテーション結果の説明図である。It is explanatory drawing of the segmentation result of a lung field. 肺野のセグメンテーション結果の説明図である。It is explanatory drawing of the segmentation result of a lung field. セグメンテーション出力の説明図である。It is explanatory drawing of a segmentation output. 撮影方法変更の説明図である。It is explanatory drawing of imaging | photography method change. 撮影方法変更の計算プロセスの説明図である。It is explanatory drawing of the calculation process of imaging | photography method change. 第1の画像を基に第2の画像を撮影する場合の説明図である。It is explanatory drawing in the case of imaging | photography a 2nd image based on a 1st image.

符号の説明Explanation of symbols

1 X線撮影装置
2 臥位テーブル
3 X線発生手段
4 絞り手段
5 二次元検出器
7 制御手段
8 画像処理手段
9 画像表示手段
10 メインメモリ
12 解析診断手段
13 撮影方法変更手段
14 操作者入力手段
21 陰影抽出手段
21a ハイパスフィルタ手段
21b ローパスフィルタ手段
22 病理特徴量抽出手段
23 判定手段
24 陽性領域決定手段
31 テクスチャ疾患抽出手段
32 セグメンテーション手段
32a セグメント特徴量抽出手段
32b 判別手段
33 領域分割手段
Q 関心領域
DESCRIPTION OF SYMBOLS 1 X-ray imaging apparatus 2 Position table 3 X-ray generation means 4 Aperture means 5 Two-dimensional detector 7 Control means 8 Image processing means 9 Image display means 10 Main memory 12 Analysis diagnostic means 13 Imaging method change means 14 Operator input means 21 shadow extraction means 21a high-pass filter means 21b low-pass filter means 22 pathological feature quantity extraction means 23 determination means 24 positive area determination means 31 texture disease extraction means 32 segmentation means 32a segment feature quantity extraction means 32b discrimination means 33 area division means Q region of interest

Claims (9)

放射線画像から関心領域の位置と範囲に関する情報を解析する解析手段と、該解析手段で解析された情報に基づいて撮影条件を決定する条件決定手段とを有することを特徴とする放射線画像処理装置。   A radiographic image processing apparatus comprising: an analyzing unit that analyzes information on a position and a range of a region of interest from a radiographic image; and a condition determining unit that determines an imaging condition based on the information analyzed by the analyzing unit. 前記条件決定手段は、放射線発生手段の位置、被写体を積載するためのテーブルの位置、照射絞りの範囲、センサの位置の少なくとも1つを決定することを特徴とする請求項1に記載の放射線画像処理装置。   2. The radiographic image according to claim 1, wherein the condition determining unit determines at least one of a position of a radiation generating unit, a position of a table on which a subject is loaded, a range of an irradiation aperture, and a position of a sensor. Processing equipment. 前記条件決定手段は、前記解析手段で算出された関心領域のみにX線が照射されるように放射線発生手段の位置、被写体を積載するためのテーブルの位置、照射絞りの範囲、センサの位置の少なくとも1つを決定することを特徴とする請求項1に記載の放射線画像処理装置。   The condition determining means includes a position of a radiation generating means, a position of a table for loading a subject, a range of an irradiation aperture, and a sensor position so that only the region of interest calculated by the analyzing means is irradiated with X-rays. The radiographic image processing apparatus according to claim 1, wherein at least one is determined. 前記条件決定手段は、前記解析手段で算出された関心領域が拡大撮影されるように、放射線発生手段の位置、被写体を積載するためのテーブルの位置、照射絞りの範囲、センサの位置の少なくとも1つを算出することを特徴とする請求項1に記載の放射線画像処理装置。   The condition determining means includes at least one of the position of the radiation generating means, the position of the table for loading the subject, the range of the irradiation aperture, and the position of the sensor so that the region of interest calculated by the analyzing means is magnified. The radiation image processing apparatus according to claim 1, wherein one is calculated. 前記条件決定手段は、前記解析手段で算出された関心領域が動画撮影されるように、放射線発生手段の位置、被写体を積載するためのテーブルの位置、照射絞りの範囲、センサの位置、センサの駆動方法の少なくとも1つを決定することを特徴とする請求項1に記載の放射線画像処理装置。   The condition determining means includes a position of a radiation generating means, a position of a table for loading a subject, a range of an irradiation aperture, a position of a sensor, a position of a sensor, so that the region of interest calculated by the analyzing means is photographed. The radiographic image processing apparatus according to claim 1, wherein at least one of the driving methods is determined. 前記放射線画像はCT又はMRの再構成画像であり、前記条件決定手段は前記解析手段で算出された関心領域の位置と範囲に基づいて、撮影範囲及び/又は撮影ピッチを決定することを特徴とする請求項1に記載の放射線画像処理装置。   The radiographic image is a CT or MR reconstructed image, and the condition determining means determines an imaging range and / or imaging pitch based on the position and range of the region of interest calculated by the analyzing means. The radiographic image processing apparatus according to claim 1. 放射線画像から関心領域の位置と範囲に関する情報を解析する解析工程と、該解析工程で解析された情報に基づいて撮影条件を決定する条件決定工程とを有することを特徴とする放射線画像処理方法。   A radiographic image processing method comprising: an analysis step of analyzing information on a position and a range of a region of interest from a radiographic image; and a condition determination step of determining an imaging condition based on the information analyzed in the analysis step. 請求項7の放射線画像処理方法をコンピュータで実行するためのプログラム。   A program for executing the radiation image processing method of claim 7 on a computer. 請求項7の放射線画像処理方法をコンピュータで実行するためのプログラムを記録した記憶媒体。   A storage medium storing a program for executing the radiation image processing method according to claim 7 on a computer.
JP2004007551A 2004-01-15 2004-01-15 Radiation image processing apparatus and processing method Pending JP2005198798A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004007551A JP2005198798A (en) 2004-01-15 2004-01-15 Radiation image processing apparatus and processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004007551A JP2005198798A (en) 2004-01-15 2004-01-15 Radiation image processing apparatus and processing method

Publications (1)

Publication Number Publication Date
JP2005198798A true JP2005198798A (en) 2005-07-28

Family

ID=34821148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004007551A Pending JP2005198798A (en) 2004-01-15 2004-01-15 Radiation image processing apparatus and processing method

Country Status (1)

Country Link
JP (1) JP2005198798A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007037906A (en) * 2005-08-05 2007-02-15 Konica Minolta Medical & Graphic Inc Abnormal shadow candidate detecting system
WO2009028333A1 (en) * 2007-08-28 2009-03-05 Konica Minolta Medical & Graphic, Inc. Radiation image capturing system
JP2009050549A (en) * 2007-08-28 2009-03-12 Toshiba Corp Mammography apparatus, image processing apparatus, and image processing program
JP2009056109A (en) * 2007-08-31 2009-03-19 Toshiba Corp Medical image processing apparatus and medical image processing system
JP2012045148A (en) * 2010-08-26 2012-03-08 Fujifilm Corp Radiographic image capturing apparatus and radiographic image capturing method
JP2012192159A (en) * 2011-03-02 2012-10-11 Toshiba Corp Magnetic resonance imaging apparatus
WO2013115389A1 (en) * 2012-02-01 2013-08-08 株式会社東芝 Medical image diagnostic device
JP2016041204A (en) * 2014-08-18 2016-03-31 株式会社東芝 Medical inspection system and x-ray diagnostic apparatus
JP2017063839A (en) * 2015-09-28 2017-04-06 東芝メディカルシステムズ株式会社 X-ray diagnostic apparatus
WO2019112050A1 (en) * 2017-12-08 2019-06-13 国立研究開発法人量子科学技術研究開発機構 Imaging device, imaging method, imaging program and storage medium
JP2020044162A (en) * 2018-09-20 2020-03-26 キヤノンメディカルシステムズ株式会社 Medical information processing device and medical information processing system
JP2020048685A (en) * 2018-09-25 2020-04-02 キヤノンメディカルシステムズ株式会社 Breast cancer diagnosis support apparatus, breast cancer diagnosis support system, and breast cancer diagnosis support method
JP2021506434A (en) * 2017-12-20 2021-02-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Systems and methods for evaluating lung images
EP3925538A1 (en) * 2020-06-15 2021-12-22 Koninklijke Philips N.V. X-ray imaging system
US12171612B2 (en) 2019-11-08 2024-12-24 Canon Medical Systems Corporation Imaging assisting apparatus and storage medium storing therein imaging assisting computer program

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007037906A (en) * 2005-08-05 2007-02-15 Konica Minolta Medical & Graphic Inc Abnormal shadow candidate detecting system
WO2009028333A1 (en) * 2007-08-28 2009-03-05 Konica Minolta Medical & Graphic, Inc. Radiation image capturing system
JP2009050549A (en) * 2007-08-28 2009-03-12 Toshiba Corp Mammography apparatus, image processing apparatus, and image processing program
JP2009056109A (en) * 2007-08-31 2009-03-19 Toshiba Corp Medical image processing apparatus and medical image processing system
JP2012045148A (en) * 2010-08-26 2012-03-08 Fujifilm Corp Radiographic image capturing apparatus and radiographic image capturing method
CN102379709A (en) * 2010-08-26 2012-03-21 富士胶片株式会社 Radioactive-ray image shooting device and radioactive-ray image shooting method
JP2012192159A (en) * 2011-03-02 2012-10-11 Toshiba Corp Magnetic resonance imaging apparatus
US9980690B2 (en) 2012-02-01 2018-05-29 Toshiba Medical Systems Corporation Medical diagnostic imaging apparatus
JP2013176551A (en) * 2012-02-01 2013-09-09 Toshiba Corp Medical image diagnostic apparatus
US20140341350A1 (en) * 2012-02-01 2014-11-20 Kabushiki Kaisha Toshiba Medical diagnostic imaging apparatus
WO2013115389A1 (en) * 2012-02-01 2013-08-08 株式会社東芝 Medical image diagnostic device
JP2016041204A (en) * 2014-08-18 2016-03-31 株式会社東芝 Medical inspection system and x-ray diagnostic apparatus
JP2017063839A (en) * 2015-09-28 2017-04-06 東芝メディカルシステムズ株式会社 X-ray diagnostic apparatus
JPWO2019112050A1 (en) * 2017-12-08 2020-11-26 国立研究開発法人量子科学技術研究開発機構 Image imaging device, image imaging method, image imaging program, and storage medium
WO2019112050A1 (en) * 2017-12-08 2019-06-13 国立研究開発法人量子科学技術研究開発機構 Imaging device, imaging method, imaging program and storage medium
JP7157420B2 (en) 2017-12-08 2022-10-20 国立研究開発法人量子科学技術研究開発機構 Image capturing device, image capturing method, image capturing program, and storage medium
US11657500B2 (en) 2017-12-20 2023-05-23 Koninklijke Philips N.V. System and method for assessing a pulmonary image
JP2021506434A (en) * 2017-12-20 2021-02-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Systems and methods for evaluating lung images
JP7346418B2 (en) 2017-12-20 2023-09-19 コーニンクレッカ フィリップス エヌ ヴェ System and method for evaluating lung images
JP7134805B2 (en) 2018-09-20 2022-09-12 キヤノンメディカルシステムズ株式会社 Medical information processing device and medical information processing system
JP2020044162A (en) * 2018-09-20 2020-03-26 キヤノンメディカルシステムズ株式会社 Medical information processing device and medical information processing system
JP2020048685A (en) * 2018-09-25 2020-04-02 キヤノンメディカルシステムズ株式会社 Breast cancer diagnosis support apparatus, breast cancer diagnosis support system, and breast cancer diagnosis support method
JP7223539B2 (en) 2018-09-25 2023-02-16 キヤノンメディカルシステムズ株式会社 Breast cancer diagnosis support device, breast cancer diagnosis support system, and breast cancer diagnosis support method
US12171612B2 (en) 2019-11-08 2024-12-24 Canon Medical Systems Corporation Imaging assisting apparatus and storage medium storing therein imaging assisting computer program
EP3925538A1 (en) * 2020-06-15 2021-12-22 Koninklijke Philips N.V. X-ray imaging system
WO2021254860A3 (en) * 2020-06-15 2022-02-24 Koninklijke Philips N.V. X-ray imaging system
US12295775B2 (en) 2020-06-15 2025-05-13 Koninklijke Philips N.V. X-ray imaging system

Similar Documents

Publication Publication Date Title
KR101666943B1 (en) The method and apparatus otaining a image related to region of interest of a target object
CN105074728B (en) Chest fluoroscopic image and corresponding rib and spine 3D image data registration
JP4216496B2 (en) Index calculation method, apparatus and program code for blood flow dynamics of capillaries in brain tissue
JP5643304B2 (en) Computer-aided lung nodule detection system and method and chest image segmentation system and method in chest tomosynthesis imaging
JP2000342558A (en) Image positioning processor and inter-picture arithmetic processor
JP4363833B2 (en) Method and apparatus for calculating an index relating to local hemodynamics
JP3569566B2 (en) Image processing device
JP2005198798A (en) Radiation image processing apparatus and processing method
JP2004174232A (en) Computer aided diagnosis of image set
JP2004105728A (en) Computer aided acquisition of medical image
EP2875781A1 (en) Apparatus and method for processing a medical image of a body lumen
JP2005199057A (en) Method and apparatus for registration of lung image data
US9351695B2 (en) Hybrid dual energy imaging and bone suppression processing
CN107518911A (en) Medical diagnostic imaging apparatus and medical image-processing apparatus
JPH06269444A (en) Method for generating three-dimensional radiograph
US20050259891A1 (en) Apparatus, method, and program for producing subtraction images
KR101909125B1 (en) Method for computer-aided diagnosis and computer-aided diagnosis apparatus thereof
JP2005028037A (en) Medical image processing device and medical image processing method
CN117916778A (en) Discovery-specific training of machine learning models using image inpainting
KR102136107B1 (en) Apparatus and method for alignment of bone suppressed chest x-ray image
JP2005058526A (en) Method and device for photographing tomographic image
JP2002125961A (en) Diagnostic imaging supporting unit
JP2020168200A (en) Medical image processing device
JP2019111006A (en) Dynamic image processing method, and dynamic image processing apparatus
JP2002008006A (en) Method and device for determining image processing condition