JP7628031B2 - 推定装置、方法およびプログラム - Google Patents
推定装置、方法およびプログラム Download PDFInfo
- Publication number
- JP7628031B2 JP7628031B2 JP2021039486A JP2021039486A JP7628031B2 JP 7628031 B2 JP7628031 B2 JP 7628031B2 JP 2021039486 A JP2021039486 A JP 2021039486A JP 2021039486 A JP2021039486 A JP 2021039486A JP 7628031 B2 JP7628031 B2 JP 7628031B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- radiation
- emphasized
- bone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/42—Arrangements for detecting radiation specially adapted for radiation diagnosis
- A61B6/4208—Arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector
- A61B6/4241—Arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector using energy resolving detectors, e.g. photon counting
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/48—Diagnostic techniques
- A61B6/482—Diagnostic techniques involving multiple energy imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/48—Diagnostic techniques
- A61B6/483—Diagnostic techniques involving scattered radiation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/505—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5205—Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5258—Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
- A61B6/5282—Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to scatter
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/54—Control of apparatus or devices for radiation diagnosis
- A61B6/542—Control of apparatus or devices for radiation diagnosis involving control of exposure
- A61B6/544—Control of apparatus or devices for radiation diagnosis involving control of exposure dependent on patient size
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/58—Testing, adjusting or calibrating thereof
- A61B6/588—Setting distance between source unit and detector unit
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/58—Testing, adjusting or calibrating thereof
- A61B6/589—Setting distance between source unit and patient
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20028—Bilateral filtering
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Animal Behavior & Ethology (AREA)
- Optics & Photonics (AREA)
- High Energy & Nuclear Physics (AREA)
- Heart & Thoracic Surgery (AREA)
- Theoretical Computer Science (AREA)
- Surgery (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Dentistry (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Quality & Reliability (AREA)
- Toxicology (AREA)
- Physiology (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
Description
プロセッサは、
複数の組成を含む被写体を単純撮影することにより取得した単純2次元画像から被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークとして機能し、
学習済みニューラルネットワークは、エネルギー分布が異なる放射線により被写体を撮影することにより取得された2つの放射線画像と、2つの放射線画像から導出された被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて学習されてなる。
学習用強調画像は、
2つの放射線画像のうちの少なくとも一方の放射線画像を用いて被写体の骨部および軟部を認識し、
骨部および軟部の認識結果と2つの放射線画像とを用いて骨部および軟部についての減弱係数を導出し、
減弱係数を用いてエネルギーサブトラクション処理を行うことにより導出されるものであってもよい。
学習用強調画像は、
骨部画像に含まれる骨部の画素値および軟部画像に含まれる軟部の画素値に基づいて重み付け減算に用いる新たな重み係数を導出し、
2つの放射線画像に対して新たな重み係数を用いて重み付け減算を行うことにより新たな骨部画像および新たな軟部画像を導出し、
新たな骨部画像に基づくさらに新たな重み係数の導出、新たな軟部画像に基づくさらに新たな重み係数の導出、並びにさらに新たな重み係数に基づくさらに新たな骨部画像およびさらに新たな軟部画像の導出を繰り返すことにより導出されるものであってもよい。
学習用強調画像は、
軟部についての異なるエネルギー分布毎の減弱係数、軟部の厚さ、骨部についての異なるエネルギー分布毎の減弱係数、および骨部の厚さを初期値から変更しつつ、異なるエネルギー分布毎に、軟部の減弱係数×軟部の厚さ+骨部の減弱係数×骨部の厚さの値と、放射線画像の各画素値との相違を導出し、
相違が最小となるまたは相違が予め定められたしきい値未満となる、異なるエネルギー分布毎の軟部の減弱係数および骨部の減弱係数を導出し、
軟部の減弱係数および骨部の減弱係数に基づいて導出された重み係数を用いてエネルギーサブトラクション処理を行うことにより導出されるものであってもよい。
被写体の軟部に含まれる複数の組成の組成割合を導出し、
組成割合に応じて2つの放射線画像の画素毎に異なるエネルギー分布毎の減弱係数を導出し、
導出された減弱係数に基づいて導出された重み係数を用いてエネルギーサブトラクション処理を行うことにより導出されるものであってもよい。
2つの放射線画像のそれぞれについての画素毎に、被写体の体厚をそれぞれ第1の体厚および第2の体厚として導出し、
第1の体厚および第2の体厚に基づいて、放射線画像の画素毎に導出されるものであってもよい。
複数の組成のそれぞれについての異なるエネルギー分布毎の減弱係数に基づいて、第1の体厚および第2の体厚を導出し、
組成の厚さおよび組成毎の減弱係数を変更しつつ、第1の体厚および第2の体厚を導出し、第1の体厚と第2の体厚との相違が予め定められたしきい値以下となる組成の厚さに基づいて導出されるものであってもよい。
被写体に照射された放射線のうち被写体により散乱された散乱線成分を2つの放射線画像から除去する散乱線除去処理を行い、散乱線成分が除去された2つの放射線画像に対するエネルギーサブトラクション処理により導出されるものであってもよい。
撮影条件、体厚分布および物体の放射線特性を用いて、2つの放射線画像のそれぞれに含まれる放射線の一次線分布および散乱線分布を導出し、
2つの放射線画像のそれぞれについての一次線分布および散乱線分布の和と、2つの放射線画像の各位置における画素値との誤差を導出し、誤差が予め定められたしきい値未満となるように体厚分布を更新し、更新した体厚分布に基づく放射線特性の導出、並びに2つの放射線画像のそれぞれに含まれる一次線分布および散乱線分布の導出を繰り返し、
誤差が予め定められたしきい値未満となったときの散乱線分布を2つの放射線画像のそれぞれから減算することにより行われるものであってもよい。
第1の一次線分布および散乱線分布、並びに被写体と放射線画像を検出する放射線検出器との間に介在する物体の放射線特性とを用いて、物体を透過した放射線の第2の一次線分布および散乱線分布を導出し、
第2の一次線分布および散乱線分布を用いて、被写体および物体を透過後の放射線画像を導出することにより行われるものであってもよい。
領域検出画像と散乱線の広がりに関する散乱線広がり情報とに基づいて、散乱線成分に関する散乱線画像を導出し、
2つの放射線画像から散乱線画像を減算することにより行われるものであってもよい。
2つの放射線画像のうちS/Nが高い第1の放射線画像に対する第1の粒状抑制処理の処理内容を導出し、
第1の粒状抑制処理の処理内容に基づいて、S/Nが低い第2の放射線画像に対する第2の粒状抑制処理の処理内容を導出し、
第1の粒状抑制処理の処理内容に基づいて第1の放射線画像に対して粒状抑制処理を行い、
第2の粒状抑制処理の処理内容に基づいて第2の放射線画像に対して粒状抑制処理を行い、
粒状抑制処理が行われた2つの放射線画像を用いて導出されるものであってもよい。
第1の放射線画像および第2の放射線画像の少なくとも一方に基づいて導出された被写体の物理量マップに基づいて導出されるものであってもよい。
学習済みニューラルネットワークは、エネルギー分布が異なる放射線により被写体を撮影することにより取得された2つの放射線画像と、2つの放射線画像から導出された被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて学習されてなる。
Gb(x,y)=α・G2(x,y)-G1(x,y) (1)
Gs(x、y)=G1(x、y)-β×G2(x、y) (2)
G2=μhs×ts+μhb×tb (4)
tb={μls×G2-μhs×G1}/{μls×μhb-μlb×μhs}(6)
EH=G2-{μhs×ts+μhb×tb} (8)
E0=EL2+EH2 (9)
G2=μhf×tf+μhm×tm (11)
t2=G2/μhm (13)
μhs=(1-R)×μhm+R×μhf (15)
I0(x,y)=mAs×F(kV,mmAl)/SID2 (16-1)
I0(x,y)=mAs×F(kV(,mmAl))/SID2 (16-2)
I1=I0×exp{-μ(T0)×T0}×{1+STPR(T0)} (17)
E1=|I1-I0×exp{-μ(T0)×T0}×{1+STPR(T0)}| (18-1)
Is0=Ip0×STPR(kV(,mmAl),T)*PSF(kV(,mmAl),T) (20)
Is1=Is0×Ts(kV(,mmAl),T) (22)
Iw1=Ip1+Is1 (23)
E2=(1/N)×Σ|log{I1/Iw1}| (24-1)
Is1=Is0×Ts(kV(,mmAl),T)*PSFair(kV(,mmAl),tair) (22-1)
f2(f1(X))=g2(g1(X)+h1(X))+h2(g1(X)+h1(X)) (26)
f2(f1(X))=g2g1(X)+g2h1(X)+h2g1(X)+h2h1(X) (27)
rm(x,y)={μf-Δ(x,y)/T(x,y)}/(μf-μm) (28)
Gm(x,y)=rm(x,y)×Gs(x,y) (29)
Gf(x,y)=(1-rm(x,y))×Gs(x,y) (30)
3 放射線源
4 撮影台
4A 天板
4B 取付部
5、6 放射線検出器
7 放射線エネルギー変換フィルタ
8 散乱線除去グリッド
9 画像保存システム
10 推定装置
11、51 CPU
12 推定処理プログラム
12B 学習プログラム
13、53 ストレージ
14、54 ディスプレイ
15、55 入力デバイス
16、56 メモリ
17、57 ネットワークI/F
18、58 バス
21 画像取得部
22 情報取得部
23 推定部
23A 学習済みニューラルネットワーク
24 学習部
25 表示制御部
30 ニューラルネットワーク
31 入力層
32 中間層
33 出力層
35 畳み込み層
36 プーリング層
37 全結合層
40、40A 教師データ
41 学習用データ
42、42A 正解データ
47 出力データ
48 パラメータ
50,50A、50B、50C、50D、50E、50G 情報導出装置
52 情報導出プログラム
61 画像取得部
62、62A、62B 散乱線除去部
63 サブトラクション部
65 構造物認識部
66 重み係数導出部
67 初期重み係数設定部
68 重み係数導出部
70 表示画面
71 第1の画像表示領域
72 第2の画像表示領域
81 初期値導出部
82 減弱係数導出部
83 重み係数導出部
84 組成割合導出部
85 減弱係数設定部
86 処理内容導出部
87 粒状抑制処理部
88 マップ導出部
91 撮影条件取得部
92 体厚導出部
93 特性取得部
94 線分布導出部
95 演算部
97 第1導出部
98 第2導出部
99 画像生成部
101 ファントム
102 鉛板
103 空気層
110 筋肉画像導出部
111 脂肪画像導出部
120 PSF
121 一次線成分の分布
122 散乱線成分の分布
150 領域検出部
151 散乱線画像導出部
152 画素値算出部
153 画素値置換部
154 境界位置調整部
155 演算部
160 被写体領域
161 直接放射線領域
162 特定ライン
A1~A3 局所領域
BP 境界位置
D1~D4 散乱体
F11、F12、F21、F22、F31、F32 バイラテラルフィルタ
G0 単純放射線画像
G1,G2 放射線画像
Gb 骨部画像
Gf 脂肪画像
Gm 筋肉画像
Gs 軟部画像
H 被写体
K1~K3 放射線画像
LUT1~LUT9 テーブル
P11、P12、P21、P22、P31、P32 注目領域
Ra 放射線
Claims (24)
- 少なくとも1つのプロセッサを備え、
前記プロセッサは、
複数の組成を含む被写体を単純撮影することにより取得した単純2次元画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークとして機能し、
前記学習済みニューラルネットワークは、エネルギー分布が異なる放射線により被写体を撮影することにより取得された2つの放射線画像と、前記2つの放射線画像から導出された前記被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて、前記2つの放射線画像をニューラルネットワークに入力することにより前記ニューラルネットワークから強調画像を出力させ、前記ニューラルネットワークから出力された強調画像と前記学習用強調画像との差分が小さくなるように前記ニューラルネットワークを学習することにより構築されてなる、推定装置。 - 前記学習用強調画像は前記2つの放射線画像を重み付け減算するエネルギーサブトラクション処理により導出される請求項1に記載の推定装置。
- 少なくとも1つのプロセッサを備え、
前記プロセッサは、
複数の組成を含む被写体を単純撮影することにより取得した単純2次元画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークとして機能し、
前記学習済みニューラルネットワークは、エネルギー分布が異なる放射線により被写体を撮影することにより取得された2つの放射線画像と、前記2つの放射線画像を重み付け減算するエネルギーサブトラクション処理により導出された前記被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて学習されてなり、
前記強調画像は、前記被写体の骨部を強調した骨部画像および前記被写体の軟部を強調した軟部画像の少なくとも一方であり、
前記学習用強調画像は、
前記2つの放射線画像のうちの少なくとも一方の放射線画像を用いて前記被写体の前記骨部および前記軟部を認識し、
前記骨部および前記軟部の認識結果と前記2つの放射線画像とを用いて前記骨部および前記軟部についての減弱係数を導出し、
前記減弱係数を用いて前記エネルギーサブトラクション処理を行うことにより導出される、推定装置。 - 少なくとも1つのプロセッサを備え、
前記プロセッサは、
複数の組成を含む被写体を単純撮影することにより取得した単純2次元画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークとして機能し、
前記学習済みニューラルネットワークは、エネルギー分布が異なる放射線により被写体を撮影することにより取得された2つの放射線画像と、前記2つの放射線画像を重み付け減算するエネルギーサブトラクション処理により導出された前記被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて学習されてなり、
前記強調画像は、前記被写体の骨部を強調した骨部画像および前記被写体の軟部を強調した軟部画像であり、
前記学習用強調画像は、
前記骨部画像に含まれる前記骨部の画素値および前記軟部画像に含まれる前記軟部の画素値に基づいて前記重み付け減算に用いる新たな重み係数を導出し、
前記2つの放射線画像に対して前記新たな重み係数を用いて前記重み付け減算を行うことにより新たな骨部画像および新たな軟部画像を導出し、
前記新たな骨部画像に基づくさらに新たな重み係数の導出、前記新たな軟部画像に基づくさらに新たな重み係数の導出、並びにさらに新たな重み係数に基づくさらに新たな骨部画像およびさらに新たな軟部画像の導出を繰り返すことにより導出される、推定装置。 - 少なくとも1つのプロセッサを備え、
前記プロセッサは、
複数の組成を含む被写体を単純撮影することにより取得した単純2次元画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークとして機能し、
前記学習済みニューラルネットワークは、エネルギー分布が異なる放射線により被写体を撮影することにより取得された2つの放射線画像と、前記2つの放射線画像を重み付け減算するエネルギーサブトラクション処理により導出された前記被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて学習されてなり、
前記強調画像は、前記被写体の骨部を強調した骨部画像および前記被写体の軟部を強調した軟部画像であり、
前記学習用強調画像は、
前記軟部についての異なるエネルギー分布毎の減弱係数、前記軟部の厚さ、前記骨部についての異なるエネルギー分布毎の減弱係数、および前記骨部の厚さを初期値から変更しつつ、異なるエネルギー分布毎に、前記軟部の減弱係数×前記軟部の厚さ+前記骨部の減弱係数×前記骨部の厚さの値と、前記放射線画像の各画素値との相違を導出し、
前記相違が最小となるまたは前記相違が予め定められたしきい値未満となる、前記異なるエネルギー分布毎の前記軟部の減弱係数および前記骨部の減弱係数を導出し、
前記軟部の減弱係数および前記骨部の減弱係数に基づいて導出された重み係数を用いて前記エネルギーサブトラクション処理を行うことにより導出される、推定装置。 - 少なくとも1つのプロセッサを備え、
前記プロセッサは、
複数の組成を含む被写体を単純撮影することにより取得した単純2次元画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークとして機能し、
前記学習済みニューラルネットワークは、エネルギー分布が異なる放射線により被写体を撮影することにより取得された2つの放射線画像と、前記2つの放射線画像を重み付け減算するエネルギーサブトラクション処理により導出された前記被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて学習されてなり、
前記学習用強調画像は、
前記被写体の軟部に含まれる複数の組成の組成割合を導出し、
前記組成割合に応じて前記2つの放射線画像の画素毎に異なるエネルギー分布毎の減弱係数を導出し、
導出された減弱係数に基づいて導出された重み係数を用いて前記エネルギーサブトラクション処理を行うことにより導出される、推定装置。 - 前記組成割合は、
前記2つの放射線画像のそれぞれについての画素毎に、前記被写体の体厚をそれぞれ第1の体厚および第2の体厚として導出し、
前記第1の体厚および前記第2の体厚に基づいて、前記放射線画像の画素毎に導出される請求項6に記載の推定装置。 - 前記組成割合は、
前記複数の組成のそれぞれについての前記異なるエネルギー分布毎の減弱係数に基づいて、前記第1の体厚および前記第2の体厚を導出し、
前記組成の厚さおよび前記組成毎の減弱係数を変更しつつ、前記第1の体厚および前記第2の体厚を導出し、前記第1の体厚と前記第2の体厚との相違が予め定められたしきい値以下となる前記組成の厚さに基づいて導出される請求項7に記載の推定装置。 - 前記学習用強調画像は、
前記被写体に照射された放射線のうち前記被写体により散乱された散乱線成分を前記2つの放射線画像から除去する散乱線除去処理を行い、前記散乱線成分が除去された前記2つの放射線画像に対する前記エネルギーサブトラクション処理により導出される請求項2から8のいずれか1項に記載の推定装置。 - 前記散乱線除去処理は、前記被写体と前記放射線画像を検出する放射線検出器との間に介在する物体の前記被写体の体厚分布に応じた放射線特性を取得し、
撮影条件、前記体厚分布および前記物体の放射線特性を用いて、前記2つの放射線画像のそれぞれに含まれる放射線の一次線分布および散乱線分布を導出し、
前記2つの放射線画像のそれぞれについての前記一次線分布および前記散乱線分布の和と、前記2つの放射線画像の各位置における画素値との誤差を導出し、前記誤差が予め定められたしきい値未満となるように前記体厚分布を更新し、更新した体厚分布に基づく前記放射線特性の導出、並びに前記2つの放射線画像のそれぞれに含まれる前記一次線分布および前記散乱線分布の導出を繰り返し、
前記誤差が予め定められたしきい値未満となったときの前記散乱線分布を前記2つの放射線画像のそれぞれから減算することにより行われる請求項9に記載の推定装置。 - 前記散乱線除去処理は、前記2つの放射線画像を用いて前記被写体を透過した前記放射線の第1の一次線分布および散乱線分布を導出し、
前記第1の一次線分布および前記散乱線分布、並びに前記被写体と前記放射線画像を検出する放射線検出器との間に介在する物体の放射線特性とを用いて、前記物体を透過した前記放射線の第2の一次線分布および散乱線分布を導出し、
前記第2の一次線分布および散乱線分布を用いて、前記被写体および前記物体を透過後の放射線画像を導出することにより行われる請求項9に記載の推定装置。 - 前記散乱線除去処理は、前記2つの放射線画像において、前記放射線が前記被写体を透過して放射線検出部に到達した被写体領域と、前記放射線が前記被写体を透過せずに前記放射線検出部に直接的に到達した直接放射線領域とを検出することにより領域検出画像を導出し、
前記領域検出画像と散乱線の広がりに関する散乱線広がり情報とに基づいて、散乱線成分に関する散乱線画像を導出し、
前記2つの放射線画像から前記散乱線画像を減算することにより行われる請求項9に記載の推定装置。 - 前記学習用強調画像は、
前記2つの放射線画像のうちS/Nが高い第1の放射線画像に対する第1の粒状抑制処理の処理内容を導出し、
前記第1の粒状抑制処理の処理内容に基づいて、S/Nが低い第2の放射線画像に対する第2の粒状抑制処理の処理内容を導出し、
前記第1の粒状抑制処理の処理内容に基づいて前記第1の放射線画像に対して粒状抑制処理を行い、
前記第2の粒状抑制処理の処理内容に基づいて前記第2の放射線画像に対して粒状抑制処理を行い、
前記粒状抑制処理が行われた前記2つの放射線画像を用いて導出される請求項2から12のいずれか1項に記載の推定装置。 - 前記第1の粒状抑制処理の処理内容は、
前記第1の放射線画像および前記第2の放射線画像の少なくとも一方に基づいて導出された前記被写体の物理量マップに基づいて導出される請求項13に記載の推定装置。 - 複数の組成を含む被写体を単純撮影することにより取得した単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークを用いて、前記単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する推定方法であって、
前記学習済みニューラルネットワークは、エネルギー分布が異なる放射線により被写体を撮影することにより取得された2つの放射線画像と、前記2つの放射線画像から導出された前記被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて、前記2つの放射線画像をニューラルネットワークに入力することにより前記ニューラルネットワークから強調画像を出力させ、前記ニューラルネットワークから出力された強調画像と前記学習用強調画像との差分が小さくなるように前記ニューラルネットワークを学習することにより構築されてなる、推定方法。 - 複数の組成を含む被写体を単純撮影することにより取得した単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークを用いて、前記単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する推定方法であって、
前記学習済みニューラルネットワークは、エネルギー分布が異なる放射線により被写体を撮影することにより取得された2つの放射線画像と、前記2つの放射線画像を重み付け減算するエネルギーサブトラクション処理により導出された前記被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて学習されてなり、
前記強調画像は、前記被写体の骨部を強調した骨部画像および前記被写体の軟部を強調した軟部画像の少なくとも一方であり、
前記学習用強調画像は、
前記2つの放射線画像のうちの少なくとも一方の放射線画像を用いて前記被写体の前記骨部および前記軟部を認識し、
前記骨部および前記軟部の認識結果と前記2つの放射線画像とを用いて前記骨部および前記軟部についての減弱係数を導出し、
前記減弱係数を用いて前記エネルギーサブトラクション処理を行うことにより導出される、推定方法。 - 複数の組成を含む被写体を単純撮影することにより取得した単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークを用いて、前記単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する推定方法であって、
前記学習済みニューラルネットワークは、エネルギー分布が異なる放射線により被写体を撮影することにより取得された2つの放射線画像と、前記2つの放射線画像を重み付け減算するエネルギーサブトラクション処理により導出された前記被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて学習されてなり、
前記強調画像は、前記被写体の骨部を強調した骨部画像および前記被写体の軟部を強調した軟部画像であり、
前記学習用強調画像は、
前記骨部画像に含まれる前記骨部の画素値および前記軟部画像に含まれる前記軟部の画素値に基づいて前記重み付け減算に用いる新たな重み係数を導出し、
前記2つの放射線画像に対して前記新たな重み係数を用いて前記重み付け減算を行うことにより新たな骨部画像および新たな軟部画像を導出し、
前記新たな骨部画像に基づくさらに新たな重み係数の導出、前記新たな軟部画像に基づくさらに新たな重み係数の導出、並びにさらに新たな重み係数に基づくさらに新たな骨部画像およびさらに新たな軟部画像の導出を繰り返すことにより導出される、推定方法。 - 複数の組成を含む被写体を単純撮影することにより取得した単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークを用いて、前記単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する推定方法であって、
前記学習済みニューラルネットワークは、エネルギー分布が異なる放射線により被写体を撮影することにより取得された2つの放射線画像と、前記2つの放射線画像を重み付け減算するエネルギーサブトラクション処理により導出された前記被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて学習されてなり、
前記強調画像は、前記被写体の骨部を強調した骨部画像および前記被写体の軟部を強調した軟部画像であり、
前記学習用強調画像は、
前記軟部についての異なるエネルギー分布毎の減弱係数、前記軟部の厚さ、前記骨部についての異なるエネルギー分布毎の減弱係数、および前記骨部の厚さを初期値から変更しつつ、異なるエネルギー分布毎に、前記軟部の減弱係数×前記軟部の厚さ+前記骨部の減弱係数×前記骨部の厚さの値と、前記放射線画像の各画素値との相違を導出し、
前記相違が最小となるまたは前記相違が予め定められたしきい値未満となる、前記異なるエネルギー分布毎の前記軟部の減弱係数および前記骨部の減弱係数を導出し、
前記軟部の減弱係数および前記骨部の減弱係数に基づいて導出された重み係数を用いて前記エネルギーサブトラクション処理を行うことにより導出される、推定方法。 - 複数の組成を含む被写体を単純撮影することにより取得した単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークを用いて、前記単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する推定方法であって、
前記学習済みニューラルネットワークは、エネルギー分布が異なる放射線により被写体を撮影することにより取得された2つの放射線画像と、前記2つの放射線画像を重み付け減算するエネルギーサブトラクション処理により導出された前記被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて学習されてなり、
前記学習用強調画像は、
前記被写体の軟部に含まれる複数の組成の組成割合を導出し、
前記組成割合に応じて前記2つの放射線画像の画素毎に異なるエネルギー分布毎の減弱係数を導出し、
導出された減弱係数に基づいて導出された重み係数を用いて前記エネルギーサブトラクション処理を行うことにより導出される、推定方法。 - 複数の組成を含む被写体を単純撮影することにより取得した単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークを用いて、前記単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する手順をコンピュータに実行させる推定プログラムであって、
前記学習済みニューラルネットワークは、エネルギー分布が異なる放射線により被写体を撮影することにより取得された2つの放射線画像と、前記2つの放射線画像から導出された前記被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて、前記2つの放射線画像をニューラルネットワークに入力することにより前記ニューラルネットワークから強調画像を出力させ、前記ニューラルネットワークから出力された強調画像と前記学習用強調画像との差分が小さくなるように前記ニューラルネットワークを学習することにより構築学習されてなる、推定プログラム。 - 複数の組成を含む被写体を単純撮影することにより取得した単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークを用いて、前記単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する手順をコンピュータに実行させる推定プログラムであって、
前記学習済みニューラルネットワークは、エネルギー分布が異なる放射線により被写体を撮影することにより取得された2つの放射線画像と、前記2つの放射線画像を重み付け減算するエネルギーサブトラクション処理により導出された前記被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて学習されてなり、
前記強調画像は、前記被写体の骨部を強調した骨部画像および前記被写体の軟部を強調した軟部画像の少なくとも一方であり、
前記学習用強調画像は、
前記2つの放射線画像のうちの少なくとも一方の放射線画像を用いて前記被写体の前記骨部および前記軟部を認識し、
前記骨部および前記軟部の認識結果と前記2つの放射線画像とを用いて前記骨部および前記軟部についての減弱係数を導出し、
前記減弱係数を用いて前記エネルギーサブトラクション処理を行うことにより導出される、推定プログラム。 - 複数の組成を含む被写体を単純撮影することにより取得した単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークを用いて、前記単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する手順をコンピュータに実行させる推定プログラムであって、
前記学習済みニューラルネットワークは、エネルギー分布が異なる放射線により被写体を撮影することにより取得された2つの放射線画像と、前記2つの放射線画像を重み付け減算するエネルギーサブトラクション処理により導出された前記被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて学習されてなり、
前記強調画像は、前記被写体の骨部を強調した骨部画像および前記被写体の軟部を強調した軟部画像であり、
前記学習用強調画像は、
前記骨部画像に含まれる前記骨部の画素値および前記軟部画像に含まれる前記軟部の画素値に基づいて前記重み付け減算に用いる新たな重み係数を導出し、
前記2つの放射線画像に対して前記新たな重み係数を用いて前記重み付け減算を行うことにより新たな骨部画像および新たな軟部画像を導出し、
前記新たな骨部画像に基づくさらに新たな重み係数の導出、前記新たな軟部画像に基づくさらに新たな重み係数の導出、並びにさらに新たな重み係数に基づくさらに新たな骨部画像およびさらに新たな軟部画像の導出を繰り返すことにより導出される、推定プログラム。 - 複数の組成を含む被写体を単純撮影することにより取得した単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークを用いて、前記単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する手順をコンピュータに実行させる推定プログラムであって、
前記学習済みニューラルネットワークは、エネルギー分布が異なる放射線により被写体を撮影することにより取得された2つの放射線画像と、前記2つの放射線画像を重み付け減算するエネルギーサブトラクション処理により導出された前記被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて学習されてなり、
前記強調画像は、前記被写体の骨部を強調した骨部画像および前記被写体の軟部を強調した軟部画像であり、
前記学習用強調画像は、
前記軟部についての異なるエネルギー分布毎の減弱係数、前記軟部の厚さ、前記骨部についての異なるエネルギー分布毎の減弱係数、および前記骨部の厚さを初期値から変更しつつ、異なるエネルギー分布毎に、前記軟部の減弱係数×前記軟部の厚さ+前記骨部の減弱係数×前記骨部の厚さの値と、前記放射線画像の各画素値との相違を導出し、
前記相違が最小となるまたは前記相違が予め定められたしきい値未満となる、前記異なるエネルギー分布毎の前記軟部の減弱係数および前記骨部の減弱係数を導出し、
前記軟部の減弱係数および前記骨部の減弱係数に基づいて導出された重み係数を用いて前記エネルギーサブトラクション処理を行うことにより導出される、推定プログラム。 - 複数の組成を含む被写体を単純撮影することにより取得した単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する学習済みニューラルネットワークを用いて、前記単純放射線画像から前記被写体の特定の組成を強調した少なくとも1つの強調画像の推定結果を導出する手順をコンピュータに実行させる推定プログラムであって、
前記学習済みニューラルネットワークは、エネルギー分布が異なる放射線により被写体を撮影することにより取得された2つの放射線画像と、前記2つの放射線画像を重み付け減算するエネルギーサブトラクション処理により導出された前記被写体の特定の組成を強調した学習用強調画像とを教師データとして用いて学習されてなり、
前記学習用強調画像は、
前記被写体の軟部に含まれる複数の組成の組成割合を導出し、
前記組成割合に応じて前記2つの放射線画像の画素毎に異なるエネルギー分布毎の減弱係数を導出し、
導出された減弱係数に基づいて導出された重み係数を用いて前記エネルギーサブトラクション処理を行うことにより導出される、推定プログラム。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021039486A JP7628031B2 (ja) | 2021-03-11 | 2021-03-11 | 推定装置、方法およびプログラム |
| US17/591,615 US12138092B2 (en) | 2021-03-11 | 2022-02-03 | Estimation device, estimation method, and estimation program |
| CN202210228069.4A CN115131277A (zh) | 2021-03-11 | 2022-03-07 | 推定装置、方法及计算机可读存储介质 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021039486A JP7628031B2 (ja) | 2021-03-11 | 2021-03-11 | 推定装置、方法およびプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022139212A JP2022139212A (ja) | 2022-09-26 |
| JP7628031B2 true JP7628031B2 (ja) | 2025-02-07 |
Family
ID=83195371
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021039486A Active JP7628031B2 (ja) | 2021-03-11 | 2021-03-11 | 推定装置、方法およびプログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US12138092B2 (ja) |
| JP (1) | JP7628031B2 (ja) |
| CN (1) | CN115131277A (ja) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP4099265B1 (en) * | 2021-06-01 | 2025-03-05 | Siemens Healthineers AG | Determining characteristics of muscle structures using artificial neural network |
| CN117911306A (zh) * | 2022-10-09 | 2024-04-19 | 上海西门子医疗器械有限公司 | 确定曝光参数的方法、装置、存储介质及程序产品 |
| JP2025139126A (ja) * | 2024-03-12 | 2025-09-26 | 富士フイルム株式会社 | 放射線画像処理装置、方法およびプログラム |
Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008125691A (ja) | 2006-11-20 | 2008-06-05 | Fujifilm Corp | 放射線画像演算方法および装置並びにプログラム |
| JP2010005006A (ja) | 2008-06-25 | 2010-01-14 | Fujifilm Corp | エネルギーサブトラクション処理装置、方法、およびプログラム、並びに、放射線画像診断システム |
| JP2011152280A (ja) | 2010-01-27 | 2011-08-11 | Canon Inc | 放射線撮影装置、その制御方法及びプログラム |
| US20160015347A1 (en) | 2014-07-21 | 2016-01-21 | Zebra Medical Vision Ltd. | Systems and methods for emulating dexa scores based on ct images |
| JP2016067586A (ja) | 2014-09-30 | 2016-05-09 | 富士フイルム株式会社 | 放射線画像撮影装置および放射線画像撮影装置の作動方法 |
| WO2019208037A1 (ja) | 2018-04-24 | 2019-10-31 | 株式会社島津製作所 | 画像解析方法、セグメンテーション方法、骨密度測定方法、学習モデル作成方法および画像作成装置 |
| JP2020035097A (ja) | 2018-08-28 | 2020-03-05 | 株式会社モルフォ | 画像識別装置、画像識別方法及び画像識別プログラム |
| WO2020054738A1 (ja) | 2018-09-10 | 2020-03-19 | 京セラ株式会社 | 推定装置、推定システム及び推定プログラム |
| JP2020119429A (ja) | 2019-01-28 | 2020-08-06 | キヤノンメディカルシステムズ株式会社 | 医用画像処理装置、医用画像処理方法、およびプログラム |
| WO2020175319A1 (ja) | 2019-02-28 | 2020-09-03 | 富士フイルム株式会社 | 放射線画像処理装置及びプログラム |
| CN112150442A (zh) | 2020-09-25 | 2020-12-29 | 帝工(杭州)科技产业有限公司 | 基于深度卷积神经网络及多实例学习的新冠诊断系统 |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7545965B2 (en) | 2003-11-10 | 2009-06-09 | The University Of Chicago | Image modification and detection using massive training artificial neural networks (MTANN) |
| US9808216B2 (en) * | 2014-06-20 | 2017-11-07 | Marquette University | Material decomposition of multi-spectral x-ray projections using neural networks |
| US11234641B2 (en) | 2017-03-16 | 2022-02-01 | Fujifilm Corporation | Body fat percentage measurement device, method and program |
| JP6704374B2 (ja) | 2017-03-16 | 2020-06-03 | 富士フイルム株式会社 | 体脂肪率測定装置、方法およびプログラム |
-
2021
- 2021-03-11 JP JP2021039486A patent/JP7628031B2/ja active Active
-
2022
- 2022-02-03 US US17/591,615 patent/US12138092B2/en active Active
- 2022-03-07 CN CN202210228069.4A patent/CN115131277A/zh active Pending
Patent Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008125691A (ja) | 2006-11-20 | 2008-06-05 | Fujifilm Corp | 放射線画像演算方法および装置並びにプログラム |
| JP2010005006A (ja) | 2008-06-25 | 2010-01-14 | Fujifilm Corp | エネルギーサブトラクション処理装置、方法、およびプログラム、並びに、放射線画像診断システム |
| JP2011152280A (ja) | 2010-01-27 | 2011-08-11 | Canon Inc | 放射線撮影装置、その制御方法及びプログラム |
| US20160015347A1 (en) | 2014-07-21 | 2016-01-21 | Zebra Medical Vision Ltd. | Systems and methods for emulating dexa scores based on ct images |
| JP2016067586A (ja) | 2014-09-30 | 2016-05-09 | 富士フイルム株式会社 | 放射線画像撮影装置および放射線画像撮影装置の作動方法 |
| WO2019208037A1 (ja) | 2018-04-24 | 2019-10-31 | 株式会社島津製作所 | 画像解析方法、セグメンテーション方法、骨密度測定方法、学習モデル作成方法および画像作成装置 |
| JP2020035097A (ja) | 2018-08-28 | 2020-03-05 | 株式会社モルフォ | 画像識別装置、画像識別方法及び画像識別プログラム |
| WO2020054738A1 (ja) | 2018-09-10 | 2020-03-19 | 京セラ株式会社 | 推定装置、推定システム及び推定プログラム |
| JP2020119429A (ja) | 2019-01-28 | 2020-08-06 | キヤノンメディカルシステムズ株式会社 | 医用画像処理装置、医用画像処理方法、およびプログラム |
| WO2020175319A1 (ja) | 2019-02-28 | 2020-09-03 | 富士フイルム株式会社 | 放射線画像処理装置及びプログラム |
| CN112150442A (zh) | 2020-09-25 | 2020-12-29 | 帝工(杭州)科技产业有限公司 | 基于深度卷积神经网络及多实例学习的新冠诊断系统 |
Also Published As
| Publication number | Publication date |
|---|---|
| US12138092B2 (en) | 2024-11-12 |
| US20220287664A1 (en) | 2022-09-15 |
| JP2022139212A (ja) | 2022-09-26 |
| CN115131277A (zh) | 2022-09-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7746507B2 (ja) | 推定装置、方法およびプログラム | |
| JP7628031B2 (ja) | 推定装置、方法およびプログラム | |
| US12097062B2 (en) | Estimation device, estimation method, and estimation program | |
| JP7686430B2 (ja) | 推定装置、方法およびプログラム | |
| JP7607496B2 (ja) | 学習装置、方法およびプログラム、並びに放射線画像処理装置、方法およびプログラム | |
| JP2023047911A (ja) | 画像処理装置、方法およびプログラム | |
| JP7812972B2 (ja) | 放射線画像処理装置、方法およびプログラム | |
| JP6301439B2 (ja) | 放射線画像解析装置および方法並びにプログラム | |
| WO2023054287A1 (ja) | 骨疾患予測装置、方法およびプログラム、学習装置、方法およびプログラム並びに学習済みニューラルネットワーク | |
| JP2024040945A (ja) | 画像処理装置、方法およびプログラム | |
| JP7758830B2 (ja) | 推定装置、方法およびプログラム | |
| JP2024000885A (ja) | 放射線画像処理装置、方法およびプログラム | |
| JP7254963B2 (ja) | 放射線画像処理装置、方法およびプログラム | |
| JP2025045867A (ja) | 画像処理装置、方法およびプログラム | |
| JP7284816B2 (ja) | 放射線画像処理装置及び放射線画像処理方法 | |
| JP7458750B2 (ja) | 画像処理装置、放射線撮影装置、画像処理方法及びプログラム | |
| JP2024010991A (ja) | 放射線画像処理装置、方法およびプログラム | |
| JP2023047910A (ja) | 脂肪量導出装置、方法およびプログラム | |
| US12533098B2 (en) | Radiation image processing device, radiation image processing method, and radiation image processing program | |
| JP7581089B2 (ja) | 散乱線モデル導出装置、方法およびプログラム、並びに放射線画像処理装置、方法およびプログラム | |
| CN117717360A (zh) | 放射线图像处理装置、其工作方法及计算机可读介质 | |
| WO2024090050A1 (ja) | 画像処理装置、方法およびプログラム、並びに学習装置、方法およびプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231207 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240619 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240625 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240809 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240924 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250107 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250128 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7628031 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |