[go: up one dir, main page]

JP7418171B2 - 画像処理装置、放射線撮影システム、画像処理方法及びプログラム - Google Patents

画像処理装置、放射線撮影システム、画像処理方法及びプログラム Download PDF

Info

Publication number
JP7418171B2
JP7418171B2 JP2019158928A JP2019158928A JP7418171B2 JP 7418171 B2 JP7418171 B2 JP 7418171B2 JP 2019158928 A JP2019158928 A JP 2019158928A JP 2019158928 A JP2019158928 A JP 2019158928A JP 7418171 B2 JP7418171 B2 JP 7418171B2
Authority
JP
Japan
Prior art keywords
image
processing
inference
region
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019158928A
Other languages
English (en)
Other versions
JP2021036970A (ja
Inventor
剛 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019158928A priority Critical patent/JP7418171B2/ja
Priority to PCT/JP2020/030949 priority patent/WO2021039454A1/ja
Publication of JP2021036970A publication Critical patent/JP2021036970A/ja
Priority to US17/675,097 priority patent/US12343188B2/en
Application granted granted Critical
Publication of JP7418171B2 publication Critical patent/JP7418171B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/469Arrangements for interfacing with the operator or the patient characterised by special input means for selecting a region of interest [ROI]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/468Arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Optics & Photonics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置、放射線撮影システム、画像処理方法及びプログラムに関し、特に、放射線撮影画像において、所望の領域を抽出する領域抽出処理を高速かつ精度よく行うための画像処理技術に関するものである。
近年、医療現場において放射線撮影装置が広く普及しており、放射線画像をデジタル信号として取得し、診断用に適した画像とする診断用画像処理を行ったあと、表示装置に表示して診断に利用することが行われている。
ここで、放射線撮影装置における診断用画像処理では、放射線画像内の所望の領域を抽出し、領域抽出の結果を処理に利用することが行われる。その一例として、放射線画像において、放射線が照射されている領域(以後、「照射野領域」と呼称する)の抽出が挙げられる。放射線撮影装置では、関心領域以外への放射線被ばくの低減や、散乱線によるコントラスト低下の防止等のために、絞りを用いて、照射野領域を制限することが一般的である。放射線が遮蔽された領域に影響を受けず、診断関心領域に好適な診断用画像処理を施すためには、画像中の照射野領域を正しく抽出した結果を利用することが必要となる。
照射野領域の抽出に例示されるような、所望の領域を抽出する技術については、これまで各種の提案が行われている。例えば、特許文献1では、画像データをニューラルネットワークに入力して、照射野領域を抽出し、結果として出力する技術が提案されている。
特開平04-261649号公報
放射線撮影装置では、診断のスループットを向上するために、迅速に好適な診断用画像処理を施した画像を表示することが重要となる。そのため、領域抽出処理は、その結果を後段の診断用画像処理で用いられることから、短時間で精度の高い処理を行う必要がある。
しかしながら、特許文献1のようなニューラルネットワークを用いて領域抽出する技術では、計算量の多さが問題となる。特に近年、その精度の高さから様々な分野に応用されている畳み込みニューラルネットワーク(以降、「CNN」と呼称する)は、多くの畳み込み演算を必要とするため計算量が多く、処理に要する時間が長いことが課題の一つとなり得る。CNNに入力する画像の解像度を小さくすれば処理時間は改善するものの、精度に問題が出る場合があり、処理速度と、高い精度の両立が難しいという課題がある。
本発明は、上記の課題を鑑みてなされたものであり、領域抽出処理を高速かつ高精度に実施できる画像処理技術の提供を目的とする。
本発明の一態様に係る画像処理装置は、放射線撮影画像に基づいて取得された入力画像から領域を抽出する領域抽出処理を行う領域抽出手段を有する画像処理装置であって、前記領域抽出手段は、
前記入力画像に対して縮小処理を行い、縮小画像を生成する縮小手段と、
前記縮小画像を入力として、前記縮小画像における前記領域を推論した推論画像を出力する推論処理を行う推論手段と、
前記推論画像に拡大処理を行い、拡大画像を生成する拡大手段と、
前記拡大画像における前記領域の輪郭を整形し整形された前記輪郭を用いて前記領域を前記拡大画像から抽出する後処理を行う後処理手段と、を備える。
本発明の他の態様に係る画像処理方法は、放射線撮影画像に基づいて取得された入力画像から領域を抽出する領域抽出処理を行う領域抽出手段を有する画像処理装置における画像処理方法であって、
前記入力画像に対して縮小処理を行い、縮小画像を生成する縮小工程と、
前記縮小画像を入力として、前記縮小画像における前記領域を推論した推論画像を出力する推論処理を行う推論工程と、
前記推論画像に拡大処理を行い、拡大画像を生成する拡大工程と、
前記拡大画像における前記領域の輪郭を整形し整形された前記輪郭を用いて前記領域を前記拡大画像から抽出する後処理を行う後処理工程と、を有する。
本発明によれば、領域抽出処理を高速かつ高精度に実施できる画像処理技術を提供することができる。
(a)は、実施形態1に係る放射線撮影装置の基本的な構成の例を示すブロック図、(b)は、画像処理装置の基本的な構成の例を示すブロック図、(c)は、領域抽出部の基本的な構成の例を示すブロック図。 放射線撮影装置の処理の流れを示したフローチャート。 (a)は、領域抽出部の処理の流れを示したフローチャート、(b)は、領域抽出処理の概念を模式的に示した図。 (a)は、後処理の流れを示したフローチャート、(b)は、後処理の中間画像の例を示した模式図、(c)は、画像を極座標空間に変換した例を示した図。 実施形態2の放射線撮影装置の基本的な構成の例を示すブロック図。
(実施形態1)
以下、添付図面を参照して、本発明の実施形態1について説明する。まず、図1を用いて、本発明の放射線撮影システムの構成例について説明する。放射線撮影システムは、放射線撮影装置と画像処理装置とを有する。図1(a)は、実施形態1に係る放射線撮影装置の基本的な構成の例を示すブロック図である。図1(b)は、画像処理装置の基本的な構成の例を示すブロック図である。また、図1(c)は、領域抽出部の基本的な構成の例を示すブロック図である。
放射線撮影装置100は、放射線を発生させる放射線発生装置101と、被写体102を配置する寝台103と、放射線を検出し、被写体102を通過した放射線に応じた画像データを出力する放射線検出装置104と、放射線発生装置101の放射線発生タイミングと放射線発生条件を制御する制御装置105と、各種デジタルデータを収集するデータ収集装置106と、ユーザーの指示に従って画像処理や機器全体の制御を行う情報処理装置107とを備える。
情報処理装置107は、画像処理装置108と、CPU110と、メモリ111と、操作パネル112と、記憶装置113と、表示装置114を備えており、これらはCPUバス109を介して電気的に接続されている。
メモリ111には、CPU110での処理に必要な各種のデータなどが記憶されるとともに、メモリ111はCPU110の作業用ワークメモリを含む。また、CPU110は、メモリ111を用いて、操作パネル112に入力されるユーザーの指示に従い、装置全体の動作制御などを行うように構成されている。
本発明の実施形態1において放射線とは、一般的に用いられるX線に限らず、放射性崩壊によって放出される粒子(光子を含む)の作るビームであるα線、β線、及びγ線などの他、同程度以上のエネルギーを有するビーム(例えば、粒子線や宇宙線など)も含まれる。
放射線撮影装置100は、操作パネル112を介したユーザーの指示に従って、被写体102の撮影シーケンスを開始する。放射線発生装置101から所定の条件の放射線が発生し、被写体102を通過した放射線が放射線検出装置104に照射される。ここで、制御装置105は、電圧、電流、及び照射時間などの放射線発生条件に基づいて放射線発生装置101を制御し、所定の条件で放射線発生装置101から放射線を発生させる。
放射線検出装置104は、被写体102を通過した放射線を検出し、検出した放射線を電気信号に変換し、放射線に応じた画像データとして出力する。放射線検出装置104から出力された画像データは、データ収集装置106によりデジタルの画像データとして収集される。データ収集装置106は放射線検出装置104から収集した画像データを情報処理装置107に転送する。情報処理装置107において、画像データはCPU110の制御によりCPUバス109を介してメモリ111に転送される。
画像処理装置108は、メモリ111に格納された画像データに対して各種画像処理を適用することにより、診断に適した画像を作成し、結果を記憶装置113へ保存し、または表示装置114へ表示する。
図1(b)に示すように、画像処理装置108は、機能構成として、第一の前処理部120、領域抽出部121、第一の診断用画像処理部122、第二の前処理部123、第二の診断用画像処理部124を有する。また、図1(c)に示すように、領域抽出部121は、機能構成として、縮小部125、CNN推論部126、拡大部127、後処理部128を有する。
次に、図2を用いて、放射線撮影装置100の処理について説明する。図2は、放射線撮影装置100の処理の流れを示したフローチャートである。
放射線撮影装置100において、放射線検出装置104は、例えば最大で2688画素×2688画素からなる高精細な画像を生成可能である。しかしながら、最大解像度での処理は、画像のサイズが大きいことから、データ収集装置106への転送時間と、画像処理装置108での処理時間が長くなり、表示装置114への表示に時間がかかる場合がある。
上記の現象を避け、表示装置114への表示を高速化し、ユーザーによる診断のスループットを向上するために、ステップS201~S206の工程に従って、まず最大解像度より低い第一解像度で処理を行い、第一の画像の表示を行う。そして、ステップS207~S211の工程に従って、第一解像度よりも高解像度の第二解像度で処理を行い、第二の画像の表示を行う。
CPU110は表示装置114の表示制御を行い、表示装置114は、第一の診断用画像処理(第一の画像処理)が適用された第一の画像および第二の診断用画像処理(第二の画像処理)が適用された第二の画像を表示可能である。表示装置114は、第一の診断用画像処理部122により第一の画像が生成されると第一の画像を表示し、第二の診断用画像処理部124により第二の画像が生成されると、第一の画像の表示を切り替えて第二の画像を表示する。以下、具体的な処理の流れを説明する。
ステップS201において、放射線検出装置104は第一解像度の画像を生成し、データ収集装置106に送信する。ここで、第一解像度とは、放射線検出装置104の最大解像度(第二解像度)より低いものとし、放射線検出装置104は、例えば画像幅と画像高さを1/4または、1/8程度に間引いた画像を生成する。間引きの方法としては、例えば4画素×4画素、または8画素×8画素の単位で斜め方向に並んだ画素のみを使用する方法や、複数画素を平均化して間引きするなどの方法を取ることが可能である。
ステップS202において、データ収集装置106は、放射線検出装置104から送信された第一解像度の画像のデジタルデータを受信し、情報処理装置107のメモリ111へと転送する。なお、データ収集装置106による第一解像度の画像の受信が完了した後、放射線検出装置104の処理は、ステップS207に移行し、放射線検出装置104はデータ収集装置106に対して第二解像度の画像の送信を開始する。ステップS207の処理はステップS203~S206の処理と並列に行われ、第二の画像表示までの時間を短縮することができる。
ステップS203において、画像処理装置108の第一の前処理部120は情報処理装置107のメモリ111から転送された第一解像度の画像に対し、第一の前処理を行い、第一の前処理画像を生成する。
第一の前処理部120は、第一の前処理として、例えば、放射線検出装置104の暗電流や固定パターンノイズを補正するダーク補正や、放射線検出装置104の画素間の感度を補正するためのゲイン補正、放射線検出装置104において、異常値を出力する欠損画素を周囲の画素で補完する欠損補正、撮影時に使用したグリッドの縞を除去するグリッド縞低減や、画像信号の対数変換処理などを行うことが可能である。
ステップS204において、領域抽出部121は、第一の前処理画像に対して、領域抽出処理を行う。領域抽出部121に入力される入力画像は、放射線撮影装置100を用いて撮影された画像から取得された画像(第一解像度の画像)であり、領域抽出部121は、放射線撮影装置100により放射線が照射された照射野領域を、所望の領域として抽出する。領域抽出部121は、領域抽出処理として、照射野領域の抽出の他に、被写体102における特定の臓器の抽出や、放射線検出装置104に放射線が直接照射されている直接線領域の抽出など、任意の所望領域を対象とすることが可能である。領域抽出処理の詳細については後述する。
ステップS205において、第一の診断用画像処理部122は、領域抽出処理された画像に対して、第一の診断用画像処理を行い、第一の診断用画像を生成する。第一の診断用画像処理部122は、第一解像度の画像を入力画像とした領域抽出部121の領域抽出結果(S204)を用いて、第一解像度の画像に対して第一の診断用画像処理(第一の画像処理)を行う。第一の診断用画像処理部122は、第一の診断用画像処理として、例えば階調処理や強調処理、ノイズ低減処理、散乱線低減処理などを行い、診断に適した画像を生成する。第一の診断用画像処理においては、ステップS204で求めた領域抽出の結果を利用可能になっている。
領域抽出結果の利用方法としては、照射野領域の抽出結果を階調処理に利用する例が挙げられる。この場合、適切な階調を行うための画像の解析において、解析範囲を照射野領域に限定して行うことで最適な階調処理を実現できる。
または、被写体102における特定の臓器の抽出結果を利用し、所望の臓器を特異的に強調するか、所望の臓器を適切な階調で表示できるようにしてもよいし、直接線領域の抽出結果を、散乱線低減処理における散乱線推定に用いることも可能である。
ステップS206において、表示装置114に第一の画像が表示される。第一の画像は、ステップS205で求めた第一の診断用画像である。第一の画像を低解像度で迅速に表示することにより、ユーザーは画像を迅速に把握することが可能となる。第一の画像表示は、ステップS211における第二の画像表示まで行うことが可能である。
ステップS207において、放射線検出装置104は第二解像度の画像を生成し、データ収集装置106に送信する。ここで、第二解像度とは、例えば、放射線検出装置104の最大解像度とし、放射線検出装置104は、ステップS201において送信した第一解像度の画像よりも高い解像度の画像をデータ収集装置106に送信する。
ステップS208において、データ収集装置106は、放射線検出装置104から送信された第二解像度の画像を受信し、情報処理装置107のメモリ111へと転送する。
ステップS209において、画像処理装置108の第二の前処理部123は情報処理装置107のメモリ111から転送された第二解像度の画像に対し、第二の前処理を行い、第二の前処理画像を生成する。
ステップS210において、第二の診断用画像処理部124は、第二の前処理画像に対して、第二の診断用画像処理を行い、第二の診断用画像を生成する。第二の診断用画像処理部124は、領域抽出部121の領域抽出結果(S204)を用いて、第一解像度よりも高解像度の第二解像度の画像に対して第二の診断用画像処理(第二の画像処理)を行う。第二の診断用画像処理部124は、第二の診断用画像処理として、第一の診断用画像処理とは異なる処理を行うことが可能であるが、第一の診断画像と第二の診断画像が大きく異なると、ユーザーの違和感につながることがあるため、第二の診断用画像処理は、第一の診断用画像処理と略同等の階調処理や強調処理を適用し、第一の診断用画像と第二の診断用画像で、解像度が異なる以外は略同等の画質を持つようにすると好適である。ステップS204の領域抽出処理の結果は、第二の診断用画像処理において、解像度を変換したうえで使用することが可能である。
ステップS211において、表示装置114に第二の画像が表示される。第二の画像は、ステップS210で求めた第二の診断用画像である。本ステップで、表示装置114に表示されていた第一の診断用画像は、第二の診断用画像に切り替わる。第二の診断用画像は第一の診断用画像に比べて高精細な画像であるため、ユーザーは画像の詳細を把握することが可能となる。
以上は、第二解像度を放射線検出装置104の最大解像度とした例を示したが、本発明はこの構成に限定されるものではなく、例えば、第二解像度を表示装置114が表示できる画素数に対応した解像度としてもよい。これにより、第二の画像表示において必要十分な表示解像度を確保しつつ、ステップS201~S211までの処理時間をさらに短縮することが可能となる。その場合は、放射線検出装置104の最大解像度の画像を処理するための第三の前処理部と第三の診断画像処理部をさらに備え、ステップS207~S211と同じ要領で処理を行うようにすればよい。
次に、図3を用いて、領域抽出部121における領域抽出処理の詳細な処理について説明する。図3(a)は、領域抽出部121の処理の流れを示したフローチャートである。図3(b)は、領域抽出処理の概念を模式的に示した図である。以下、領域抽出処理として、放射線撮影された画像中の照射野領域を抽出する処理の例を説明する。
ステップS301において、領域抽出部121に第一の前処理画像301(入力画像)が入力された後、領域抽出部121の縮小部125は第一の前処理画像301に対して縮小処理を行い、縮小画像302を生成する。縮小画像302の画像サイズは、CNN推論部126が有する畳み込みニューラルネットワーク(CNN)303に適したものとする。画像の縮小に伴う補間処理方法について制限はないが、例えば、バイリニア補間法やバイキュービック補間法、Lanczos補間法などを使用することが可能であり、CNN303の学習に用いた画像を作成するときに使用したものと同じ補間処理方法を使用してもよい。
ステップS302において、CNN推論部126は縮小画像を入力として、縮小画像における領域を推論した推論画像を出力する推論処理(CNN推論処理)を行う。CNN推論部126は、縮小画像302を入力とし、抽出対象の照射野領域を任意の値でラベリングしたラベリング画像を、推論画像304として出力するCNN303により構成される。CNN推論部126は、縮小画像302を入力とし、ラベリング画像を出力としたデータの組を用いた学習に基づいて推論処理を行う。
ここで、CNN推論部126の入出力について、縮小画像302のサイズが小さいほど処理速度を高めることができるため、第一の前処理画像301のサイズ以下の入力サイズに設定するのが望ましい。ただし、縮小画像302のサイズが小さすぎる場合は、領域抽出処理の精度が下がってしまう傾向がある。推論画像304についても同様の傾向があり、出力の形式を単純にするほど処理速度が向上するが、精度が低下する傾向にある。
以上のことから、縮小画像302のサイズは、放射線撮影装置100が必要とする処理速度と、目的の領域抽出において必要な精度、および後述するS303~S304による領域抽出の精度改善効果を考慮したうえで決定するのが望ましい。照射野領域の抽出においては、例えば、放射線検出装置104の最大解像度が2688画素×2688画素、第一解像度を最大解像度の1/8(336画素×336画素)とした場合に、縮小部125は、縮小画像302の画像サイズを最大解像度の1/16(168画素×168画素)あるいは、1/24(112画素×112画素)程度に設定することができる。また、縮小部125は、縮小画像302に対して、例えば平均を0、分散を1にするなど、任意の正規化処理を加えることも可能である。
推論画像304の画像サイズは、CNN303の入力画像(縮小画像302)の画像サイズと同等にするのが望ましいが、放射線撮影装置100が必要とする処理速度と、目的の領域抽出において必要な精度、および後述するS303~S304による領域抽出の精度改善効果を考慮したうえで、CNN推論部126は、推論画像304の画像サイズを、縮小画像302の画像サイズの1/2~1/4に設定することも可能である。ここで、CNN303から出力される推論画像304は、例えば抽出対象の照射野領域305を「1」、それ以外の領域306を「0」にラベリングしたラベリング画像である。CNN303は、推論画像304の画素毎に照射野領域である確率を0~1で算出し、0.5程度の任意の閾値で閾値処理を行うことでラベリング画像を生成することが可能である。
ここで、CNN303を用いた領域抽出処理は、処理速度の問題からCNN303における処理時の画像の解像度を高くすることが難しいことや、縮小画像302がCNN303の学習データと異なる特徴を持つ場合に、一部誤った認識結果を出力する可能性があることなどが原因で、推論画像304の精度が十分なものとはならず、そのまま領域抽出部121の結果として使用することが適切でない場合が生じ得る。
例えば、照射野領域においては、放射線絞りは一般的には直線的な構造をしていることから、照射野領域は矩形であるという特徴を有する。しかしながら、CNN303による推論画像304は、必ずしも矩形の照射野領域が抽出されるわけではなく、境界が直線とならないケースや、照射野領域305中に僅かに誤検出領域が含まれるケースが起こり得る。そこで、以下のステップS303~S304において、抽出対象の特徴をもとにして推論画像304を整形する処理を行う。
ステップS303において、拡大部127は推論画像304に拡大処理を行い、拡大画像307を生成する。これにより、ステップS304の後処理を高解像度で行うことができ、最終的な結果の精度を向上することができる。拡大部127は、縮小画像302の解像度に比べて高解像度になるように拡大画像307を生成する。拡大部127は、例えば、第一の前処理画像301(領域抽出部121の入力画像)の画像サイズと、少なくとも同じ画像サイズに拡大画像307を生成することが可能であり、ステップS304の後処理の種類によっては、第一の前処理画像301以上の画像サイズに拡大画像307を拡大することも可能である。すなわち、拡大部127は、第一の前処理画像301(領域抽出部121の入力画像)の画像サイズと同じ画像サイズ、または、入力画像の画像サイズに比べて大きい画像サイズに拡大画像307を生成することが可能である。
拡大部127は、拡大処理として、例えばバイリニア補間法やバイキュービック補間法、Lanczos補間法など画素値の補間処理を行うことが可能である。また、拡大部127は、拡大処理を行った後にフィルタ(例えば、2次元フィルタ)による処理を行うことも可能である。あるいは、拡大部127は、拡大処理時に第一の前処理画像301における領域の情報を利用して拡大処理を行うことも可能である。拡大部127は、拡大処理時に用いる第一の前処理画像301の情報として、例えば照射野領域305に相当する部分の画素値、またはエッジ強度を用いることが可能である。
ステップS304において、後処理部128は、抽出対象となる領域の有する形状の特徴に基づいて、拡大画像307から領域を抽出する後処理を行い、後処理画像308を出力する。
照射野領域の抽出の例では、後処理部128は、照射野領域が矩形の形状を持つという特徴を利用した処理を行う。後処理部128は、入力画像の照射野領域の境界に相当する直線を拡大画像307から抽出することにより、領域の輪郭を整形する。後処理部128は、拡大画像307から、照射野領域305と、それ以外の領域306とが作る境界のエッジを検出し、矩形の照射野領域を構成する直線309を求める。直線309を取得する処理の詳細については後述する。これにより、矩形に整形された照射野領域310を取得することが可能となる。
ステップS304の出力は、例えば、後処理画像308のような照射野領域を1、それ以外の領域を0でラベリングしたラベリング画像の形式を示したが、それに制限されるものではなく、例えば矩形に整形された照射野領域310の頂点座標や、直線309を示す式の形式で出力するようにしてもよい。
以上のステップS301~S304の処理によって、領域抽出処理を高速かつ高精度に行うことが可能となる。
次に、図4を用いて、後処理部128の詳細な処理内容の例として、照射野領域を抽出する際に照射野領域を矩形に整形する処理内容について説明する。なお、放射線絞りの形状特性(コリメータの形状)は、矩形に限定されず、例えば、円形や楕円であってもよい。
図4(a)は、後処理の流れを示したフローチャート、図4(b)は、後処理の中間画像の例を示した模式図、図4(c)は、画像を極座標空間に変換した例を示した図である。
ステップS401において、後処理部128は拡大画像307からエッジ情報を抽出する。エッジ情報の抽出方法は制限しないが、一例として、sobelフィルタなどの微分フィルタを適用することでエッジを抽出することが可能である。以上の処理により、照射野領域の輪郭を含むエッジ412を含んだ画像411を得ることができる。
ステップS402において、後処理部128は画像411に対してHough変換を適用する。ここでは、直交座標系で(x、y)と表される画像411上の点を、[数1]式を用いて角度θと距離ρの極座標空間に変換する。
Figure 0007418171000001
ここで、θは(x、y)を通る直線に対し、原点から垂線を下ろしたときに垂線とx軸とがなす角度であり、ρは(x、y)を通る直線に対し、原点から垂線を下ろしたときの垂線の長さである。例えば、-90°<θ≦90°の範囲で変換を行うと、図4(c)のように極座標空間上の分布が得られる。ここで、極座標空間上で局所最大値をとるθ、ρの組は、直交座標系の画像で直線が存在する可能性が高い。この特徴を利用することで、Hough変換の適用によって直線的な構造を持つ照射野領域の輪郭を抽出しやすくなる効果が得られる。
なお、拡大画像307の画像サイズが小さい場合は、直交座標系で(x、y)と表される画像411上の点の数を十分に確保できず、直線の抽出が適切に行われなくなる場合があるため、拡大部127によって、直線の抽出を行うに十分な画像サイズを確保する必要がある。
ステップS403において、後処理部128は、画像411から、最も長い直線413を抽出する。本ステップにおいて、後処理部128は極座標空間全体を検索し、極座標空間の最大値を取るθ、ρの組417が作る直線を抽出する。
ステップS404において、後処理部128は、直線413に対して平行な直線414を抽出する。放射線絞りの形状特性(コリメータの形状)を考慮すると、照射野領域の矩形における1辺に平行な方向にもう1辺が存在することが考えられる。その前提に基づき、極座標空間上で、直線413に相当するθ、ρの組417を基準として、θが一定範囲内にある領域421から局所最大値を探索する。θは例えば、θ=-90°に対して5°乃至15°程度の値、またはθ=90°に対して-(5°乃至15°)程度の任意の値を設定することが可能である。これにより、局所最大値におけるθ、ρの組418と、それに対応する直線414を抽出することが可能となる。
ステップS405において、後処理部128は、直線413に対して交差する線として、垂直な直線415を抽出する。放射線絞りの形状特性(コリメータの形状)を考慮すると、照射野領域の矩形における1辺に垂直な方向にもう1辺が存在することが考えられる。その前提に基づき、極座標空間上で、後処理部128は、直線413に相当するθ、ρの組417を基準として、θが極座標空間上の一定範囲内にある領域422から局所最大値となるθ、ρの組を探索する。探索範囲として、基準となる組417のθ(=-90°)に対して+90°の位相差を有するθ=0°から前後15°程度の任意の値を設定することが可能である。これにより、後処理部128は、θ、ρの組417を通る波形431とθ、ρの組418を通る波形432とが交差する点としてθ、ρの組419と、それに対応する直線415を抽出することが可能となる。
ステップS406において、後処理部128は、直線415に対して平行な直線416を抽出する。ステップS404と同様に、後処理部128は、直線415に平行な方向の辺を探索し、極座標空間上の領域423から局所最大値となるθ、ρの組420と、それに対応する直線416を抽出する。
探索範囲として、θ、ρの組419が抽出された領域422に比べて領域423を狭い範囲に設定することができる。後処理部128は、θ、ρの組417を通る波形433とθ、ρの組418を通る波形434とが交差するθ、ρの組420と、それに対応する直線416を領域423から抽出する。なお、ステップS403~S406において直線が見つからない場合は、直線がないものとして各ステップの処理をスキップすることが可能である。
ステップS407において、後処理部128は、ステップS403~S406で抽出した直線413~416が、照射野領域の輪郭として妥当であるかについての妥当性の確認を行う。例えば、後処理部128は、抽出した直線の長さが一定値より長いかを判定することが可能である。後処理部128は、輪郭候補として抽出した直線のうち一定長さを超える直線に基づいて、照射野領域の輪郭を整形する。また、妥当性の確認に関して、後処理部128は、放射線撮影における被写体の撮影部位など、撮影画像の特徴に合わせた判別処理を行うことが可能である。
後処理部128は、本ステップで妥当性が確認されなかった直線については除外し、必要に応じて再探索を行い、残った直線群を最終的な輪郭として出力する。以上のステップS401~S407の処理によって、後処理部128は、照射野領域を適切に整形することができ、候補領域抽出の精度を高めることが可能となる。
以上説明したように実施形態1によれば、領域抽出処理を高速かつ高精度に実施できる画像処理技術を提供することができる。
(実施形態2)
次に、図5を用いて、実施形態2の放射線撮影装置について説明する。図5は、実施形態2の放射線撮影装置100の基本的な構成の例を示すブロック図である。実施形態2では、実施形態1と同等の構成に加え、情報処理装置107に学習装置501が含まれるところで相違する。
実施形態1では、放射線撮影装置100は、CNN推論部126においてCNNの推論処理を行い、畳み込みニューラルネットワーク(CNN)303の学習は、事前に行っておく構成を取っていた。実施形態2では、放射線撮影装置100は、ユーザーの使用環境で取得した画像と、例えば照射野領域のラベリング画像など、所望の抽出領域を示すデータの組との組が記憶装置113に蓄積されるように構成されている。情報処理装置107内のCPUバス109に学習装置501を電気的に接続することで、学習装置501は追加の学習を放射線撮影装置100の情報処理装置107内で実施することができる。学習装置501は、ユーザーの使用環境において取得した画像と、所望の抽出領域を示すデータとの組を教師データとしてCNN推論部126の学習を行う。
畳み込みニューラルネットワーク(CNN)303の学習は、例えばユーザーの使用環境に導入する以前に学習を行い、事前に学習済みCNN303のパラメータ群を得ておくことが望ましいが、ユーザーの使用環境に導入した後に、使用状況に合わせてCNN303のパラメータ群を更新できる構成とすることも可能である。その場合は、ユーザーの使用環境において取得した画像(放射線撮影画像)と、所望の抽出領域(照射野領域)を示すデータ(ラベリング画像のデータ)との組を教師データとして記憶装置113に保存すればよい。
学習装置501は、記憶装置113に保存されたデータの組を新たな教師データとし、教師データを用いた追加の学習に基づいて、CNN推論部126の学習済みCNN303のパラメータ群を更新することが可能である。
CNN推論部126は、ユーザーの使用環境で取得された画像(放射線撮影画像)と、所望の抽出領域(照射野領域)を示すデータ(ラベリング画像のデータ)との組を教師データとして、新たに追加された学習の結果と、事前に行われた学習の結果とに基づいて推論処理を行う。なお、CNN303の学習は計算コストが高いため、学習装置501の構成として、GPUなどの並列演算性能の高い演算ユニットを用いることも可能である。
追加の学習を行うタイミングは、例えば、記憶装置113に新たな教師データであるデータの組が一定数以上蓄積された場合や、領域抽出の結果(照射野認識結果)をユーザーによって修正されたデータの組が一定数以上蓄積された場合など、学習装置501は、追加の学習を実行するタイミングを選択することが可能である。また、追加の学習を行う際のCNN推論部126のパラメータ群の初期値としては、追加で学習を行う前に使用していた学習済みCNN303のパラメータ群を設定し、転移学習を行うことも可能である。
ここで、記憶装置113と学習装置501は、情報処理装置107上に搭載する構成に限らず、ネットワークを介して接続されたクラウドサーバー上に記憶装置113と学習装置501を設けてもよい。その場合は、複数の放射線撮影装置100によって得られたデータの組をクラウドサーバー上に収集・保存し、学習装置501はクラウドサーバー上に収集・保存されたデータの組を用いて追加の学習を行うことも可能である。
以上説明したように、実施形態2によれば、実施形態1の効果に加えて、ユーザーの使用環境に合わせて適した領域抽出処理を行うことができ、所望の領域の抽出精度をさらに高めることができる画像処理技術を提供することができる。
以上、本発明の実施形態について説明したが、本発明はこれらの実施形態に限定されないことはいうまでもなく、その要旨の範囲内で種々の変形及び変更が可能である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:放射線撮影装置、101:放射線発生装置、102:被写体、
103:寝台、104:検出装置、105:制御装置、
106:データ収集装置、107:情報処理装置、108:画像処理装置、
109:CPUバス、110:CPU、111:メモリ、
112:操作パネル、113:記憶装置、114:表示装置

Claims (19)

  1. 放射線撮影画像に基づいて取得された入力画像から領域を抽出する領域抽出処理を行う領域抽出手段を有する画像処理装置であって、前記領域抽出手段は、
    前記入力画像に対して縮小処理を行い、縮小画像を生成する縮小手段と、
    前記縮小画像を入力として、前記縮小画像における前記領域を推論した推論画像を出力する推論処理を行う推論手段と、
    前記推論画像に拡大処理を行い、拡大画像を生成する拡大手段と、
    前記拡大画像における前記領域の輪郭を整形し整形された前記輪郭を用いて前記領域を前記拡大画像から抽出する後処理を行う後処理手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記推論手段は、
    前記縮小画像を入力とし、抽出対象の前記領域を任意の値でラベリングしたラベリング画像を、前記推論画像として出力するニューラルネットワークにより構成されることを特徴とする請求項1に記載の画像処理装置。
  3. 放射線撮影画像に基づいて取得された入力画像から領域を抽出する領域抽出処理を行う領域抽出手段を有する画像処理装置であって、前記領域抽出手段は、
    前記入力画像に対して縮小処理を行い、縮小画像を生成する縮小手段と、
    前記縮小画像を入力として、前記縮小画像における前記領域を任意の値でラベリングしたラベリング画像である推論画像を出力する推論処理を行うニューラルネットワークにより構成される推論手段と、
    前記推論画像に拡大処理を行い、拡大画像を生成する拡大手段と、
    前記領域の有する形状の特徴に基づいて、前記拡大画像から前記領域を抽出する後処理を行う後処理手段と、
    を備えることを特徴とする画像処理装置。
  4. 前記推論手段は、前記縮小画像を入力とし、前記ラベリング画像を出力としたデータの組を用いた学習に基づいて前記推論処理を行うことを特徴とする請求項2または3に記載の画像処理装置。
  5. 前記推論手段は、ユーザーの使用環境で取得された画像と、前記ラベリング画像のデータとの組を教師データとして、新たに追加された学習の結果と、事前に行われた学習の結果とに基づいて前記推論処理を行うことを特徴とする請求項2乃至4のいずれか1項に記載の画像処理装置。
  6. ユーザーの使用環境において取得した画像と、前記領域を示すデータとの組を教師データとして前記推論手段の学習を行う学習手段を更に備え、
    前記学習手段は、前記教師データを用いた追加の学習に基づいて、前記推論手段の前記ニューラルネットワークのパラメータを更新することを特徴とする請求項2乃至のいずれか1項に記載の画像処理装置。
  7. 前記拡大手段は、前記縮小画像の解像度に比べて高解像度になるように前記拡大画像を生成することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  8. 前記拡大手段は、前記入力画像の画像サイズと同じ画像サイズ、または、前記入力画像の画像サイズに比べて大きい画像サイズ拡大画像を生成することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  9. 第一解像度の画像を前記入力画像とした前記領域抽出手段の領域抽出結果を用いて、前記第一解像度の画像に対して第一の画像処理を行う第一の画像処理手段と、
    前記領域抽出手段の領域抽出結果を用いて、前記第一解像度よりも高解像度の第二解像度の画像に対して第二の画像処理を行う第二の画像処理手段と、を更に備えることを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  10. 前記第一の画像処理が適用された第一の画像および前記第二の画像処理が適用された第二の画像を表示可能な表示手段の表示を制御する表示制御手段を更に備え、
    前記表示制御手段は、
    前記第一の画像処理手段により前記第一の画像が生成されると前記第一の画像を表示するように前記表示手段を制御し、
    前記第二の画像処理手段により前記第二の画像が生成されると、前記第一の画像の表示を切り替えて前記第二の画像を表示するように前記表示手段を制御する
    ことを特徴とする請求項に記載の画像処理装置。
  11. 前記入力画像は、放射線撮影装置を用いて撮影された画像から取得された画像であり、
    前記領域抽出手段は、前記放射線撮影装置により放射線が照射された照射野領域を、前記領域として抽出することを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 前記後処理手段は、前記入力画像の照射野領域の境界に相当する直線を前記拡大画像から抽出することにより、前記領域の輪郭を整形することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記後処理手段は、輪郭候補として抽出した直線のうち一定長さを超える直線に基づいて、前記領域の輪郭を整形することを特徴とする請求項12に記載の画像処理装置。
  14. 放射線撮影画像に基づいて取得された入力画像から照射野領域を抽出する領域抽出処理を行う領域抽出手段を有する画像処理装置であって、前記領域抽出手段は、
    前記入力画像に対して縮小処理を行い、縮小画像を生成する縮小手段と、
    前記縮小画像を入力として、前記縮小画像における前記照射野領域を推論した推論画像を出力する推論処理を行う推論手段と、
    前記推論画像に拡大処理を行い、拡大画像を生成する拡大手段と、
    前記照射野領域の有する形状の特徴に基づいて、前記照射野領域の境界に相当する直線を前記拡大画像から抽出することにより、前記照射野領域の輪郭を整形し、整形された前記輪郭を用いて前記拡大画像から前記照射野領域を抽出する後処理を行う後処理手段と、
    を備えることを特徴とする画像処理装置。
  15. 請求項1乃至14のいずれか1項に記載の画像処理装置と、
    前記放射線撮影画像を取得する放射線撮影装置と、
    を備えることを特徴とする放射線撮影システム。
  16. 放射線撮影画像に基づいて取得された入力画像から領域を抽出する領域抽出処理を行う領域抽出手段を有する画像処理装置における画像処理方法であって、
    前記入力画像に対して縮小処理を行い、縮小画像を生成する縮小工程と、
    前記縮小画像を入力として、前記縮小画像における前記領域を推論した推論画像を出力する推論処理を行う推論工程と、
    前記推論画像に拡大処理を行い、拡大画像を生成する拡大工程と、
    前記拡大画像における前記領域の輪郭を整形し整形された前記輪郭を用いて前記領域を前記拡大画像から抽出する後処理を行う後処理工程と、
    を有することを特徴とする画像処理方法。
  17. 放射線撮影画像に基づいて取得された入力画像から領域を抽出する領域抽出処理を行う領域抽出手段を有する画像処理装置における画像処理方法であって、
    前記入力画像に対して縮小処理を行い、縮小画像を生成する縮小工程と、
    前記縮小画像を入力として、前記縮小画像における前記領域を任意の値でラベリングしたラベリング画像である推論画像を出力する推論処理を行うニューラルネットワークにより構成される推論工程と、
    前記推論画像に拡大処理を行い、拡大画像を生成する拡大工程と、
    前記領域の有する形状の特徴に基づいて、前記拡大画像から前記領域を抽出する後処理を行う後処理工程と、
    を有することを特徴とする画像処理方法。
  18. 放射線撮影画像に基づいて取得された入力画像から照射野領域を抽出する領域抽出処理を行う領域抽出手段を有する画像処理装置における画像処理方法であって、
    前記入力画像に対して縮小処理を行い、縮小画像を生成する縮小工程と、
    前記縮小画像を入力として、前記縮小画像における前記照射野領域を推論した推論画像を出力する推論処理を行う推論工程と、
    前記推論画像に拡大処理を行い、拡大画像を生成する拡大工程と、
    前記照射野領域の有する形状の特徴に基づいて、前記照射野領域の境界に相当する直線を前記拡大画像から抽出することにより、前記照射野領域の輪郭を整形し、整形された前記輪郭を用いて前記拡大画像から前記照射野領域を抽出する後処理を行う後処理工程と、
    を有することを特徴とする画像処理方法。
  19. コンピュータに、請求項1乃至1のいずれか1項に記載の画像処理方法の各工程を実行させるプログラム。
JP2019158928A 2019-08-30 2019-08-30 画像処理装置、放射線撮影システム、画像処理方法及びプログラム Active JP7418171B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019158928A JP7418171B2 (ja) 2019-08-30 2019-08-30 画像処理装置、放射線撮影システム、画像処理方法及びプログラム
PCT/JP2020/030949 WO2021039454A1 (ja) 2019-08-30 2020-08-17 画像処理装置、放射線撮影システム、画像処理方法及びプログラム
US17/675,097 US12343188B2 (en) 2019-08-30 2022-02-18 Image processing apparatus, radiation imaging system, image processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019158928A JP7418171B2 (ja) 2019-08-30 2019-08-30 画像処理装置、放射線撮影システム、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2021036970A JP2021036970A (ja) 2021-03-11
JP7418171B2 true JP7418171B2 (ja) 2024-01-19

Family

ID=74684738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019158928A Active JP7418171B2 (ja) 2019-08-30 2019-08-30 画像処理装置、放射線撮影システム、画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US12343188B2 (ja)
JP (1) JP7418171B2 (ja)
WO (1) WO2021039454A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6872214B1 (ja) * 2020-08-20 2021-05-19 株式会社医療情報技術研究所 分類システム
CN115943420A (zh) 2020-08-26 2023-04-07 佳能株式会社 图像处理装置、图像处理方法、训练装置、训练方法、以及程序
CN113299073B (zh) 2021-04-28 2023-05-23 北京百度网讯科技有限公司 识别车辆违章停车的方法、装置、设备和存储介质
JP7707241B2 (ja) * 2023-07-26 2025-07-14 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009219140A (ja) 2004-12-01 2009-09-24 Univ Of Tokushima カラー画像の露出評価方法
JP2018114140A (ja) 2017-01-19 2018-07-26 株式会社日立製作所 X線撮影装置
US20180374209A1 (en) 2017-06-27 2018-12-27 General Electric Company Material segmentation in image volumes
JP2020036773A (ja) 2018-09-05 2020-03-12 コニカミノルタ株式会社 画像処理装置、画像処理方法及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04261649A (ja) * 1990-08-20 1992-09-17 Fuji Photo Film Co Ltd 放射線画像解析方法および装置
JP2973016B2 (ja) * 1990-06-28 1999-11-08 コニカ株式会社 デジタル放射線画像の画像認識装置
JP5390645B2 (ja) * 2012-02-06 2014-01-15 日立アロカメディカル株式会社 超音波診断装置
JP6214226B2 (ja) 2013-06-06 2017-10-18 キヤノン株式会社 画像処理装置、断層撮影装置、画像処理方法およびプログラム
US9767533B2 (en) * 2015-02-16 2017-09-19 Adobe Systems Incorporated Image resolution enhancement based on data from related images
JP6491545B2 (ja) 2015-06-12 2019-03-27 キヤノン株式会社 画像処理装置、放射線撮影装置、画像処理方法、プログラム、および記憶媒体
JP6570330B2 (ja) 2015-06-12 2019-09-04 キヤノン株式会社 画像処理装置、放射線撮影装置、画像処理方法、プログラム、および記憶媒体
WO2018001099A1 (zh) * 2016-06-30 2018-01-04 上海联影医疗科技有限公司 一种血管提取方法与系统
JP7032623B2 (ja) * 2017-10-31 2022-03-09 株式会社デンソー 推論装置、推論方法及びプログラム
JP7134017B2 (ja) 2018-08-14 2022-09-09 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
EP3975117A4 (en) * 2020-07-30 2022-11-16 Infervision Medical Technology Co., Ltd. Image segmentation method and apparatus, and training method and apparatus for image segmentation model

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009219140A (ja) 2004-12-01 2009-09-24 Univ Of Tokushima カラー画像の露出評価方法
JP2018114140A (ja) 2017-01-19 2018-07-26 株式会社日立製作所 X線撮影装置
US20180374209A1 (en) 2017-06-27 2018-12-27 General Electric Company Material segmentation in image volumes
JP2020036773A (ja) 2018-09-05 2020-03-12 コニカミノルタ株式会社 画像処理装置、画像処理方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHAO, Liang et al.,Automatic Collimation Detection in Digital Radiographs with the Directed Hough Transform and Learning-Based Edge Detection,International Workshop on Patch-based Techniques in Medical Imaging,2016年01月08日,pp.71-78

Also Published As

Publication number Publication date
WO2021039454A1 (ja) 2021-03-04
JP2021036970A (ja) 2021-03-11
US12343188B2 (en) 2025-07-01
US20220175331A1 (en) 2022-06-09

Similar Documents

Publication Publication Date Title
JP7134017B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US12494042B2 (en) Image processing method, image processing system, and non-transitory computer readable medium
JP7418171B2 (ja) 画像処理装置、放射線撮影システム、画像処理方法及びプログラム
JP2011255033A (ja) 放射線画像領域抽出装置、放射線画像領域抽出プログラムおよび放射線撮影装置
JP6492553B2 (ja) 画像処理装置及びプログラム
CN111242926A (zh) 病灶检测方法、装置及电子设备
JP5839710B2 (ja) 解析点設定装置および方法、並びに体動検出装置および方法
WO2021039211A1 (ja) 機械学習装置、機械学習方法及びプログラム
CN105374023B (zh) 一种分割目标区域方法,及其图像重建方法和装置
JP4416823B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2015173923A (ja) 画像処理装置、画像処理方法およびプログラム
JP6789620B2 (ja) 画像処理装置及びその制御方法、コンピュータプログラム
CN117437463A (zh) 基于图像处理的医学影像数据处理方法及处理平台
JP7523628B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7277536B2 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2014136641A1 (ja) 体動表示装置および体動表示方法
JP4532868B2 (ja) 放射線画像処理装置
JP5784408B2 (ja) 医用画像処理装置及び医用画像処理方法
JP2017000675A (ja) 医用画像処理装置及びx線撮像装置
CN112401913B (zh) 医用图像处理装置以及医用图像处理方法
JP4522054B2 (ja) 診断支援装置及び方法
JP2006181149A (ja) 放射線画像処理装置、放射線画像処理方法、プログラム及びコンピュータ可読媒体
WO2024122340A1 (ja) 画像処理装置、画像処理装置の作動方法、およびプログラム
JP2000271107A (ja) 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体
JP2006263224A (ja) 放射線画像処理装置、放射線画像処理方法、プログラム及びコンピュータ可読媒体。

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240109

R151 Written notification of patent or utility model registration

Ref document number: 7418171

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151