JP7556715B2 - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP7556715B2 JP7556715B2 JP2020126579A JP2020126579A JP7556715B2 JP 7556715 B2 JP7556715 B2 JP 7556715B2 JP 2020126579 A JP2020126579 A JP 2020126579A JP 2020126579 A JP2020126579 A JP 2020126579A JP 7556715 B2 JP7556715 B2 JP 7556715B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel values
- region
- information processing
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
Description
本発明は、情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.
医療現場では、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、PET(Positron Emission Tomography)装置などの医用画像撮影装置により、患者が撮像されている。そして撮像された医用画像を詳細に観察することで、患者の体内における様々な種類の臓器の解剖学的構造やその機能情報を得て、その情報を診断や治療に活用している。 In the medical field, patients are photographed using medical imaging devices such as X-ray CT (Computed Tomography) devices, MRI (Magnetic Resonance Imaging) devices, and PET (Positron Emission Tomography) devices. By observing the medical images in detail, the anatomical structure and functional information of various types of organs in the patient's body can be obtained, and this information can be used for diagnosis and treatment.
人体を構成する様々な種類の臓器の中には、周囲の組織に対して相対的に動く臓器がある。例えば、肺は呼吸運動によって動くし、心臓は血液を体内に循環させるために動く。そして、同じ臓器であってもその構造や病変の有無等により、臓器内または表面上の位置(以下、臓器内位置と称する)によって、周囲の組織に対する相対的な動き(移動の方向や移動の量)が異なることが知られている。ここで、医用画像から、対象とする臓器の臓器内位置による移動の方向や移動の量(以下、移動情報と称する)の違いを可視化(すなわち移動の方向や量の分布を可視化)したいというユーザ(医師等)の要望がある。異常な動きを有する臓器内位置を認識し、疾患や病変の発見に役立てるためである。例えば、肺の表面の各位置における肺の呼吸運動による移動情報を可視化することで、肺の表面における胸膜との癒着位置を医用画像から特定したいという要望がある。 Among the various types of organs that make up the human body, there are some that move relative to the surrounding tissues. For example, the lungs move due to respiratory movement, and the heart moves to circulate blood throughout the body. It is known that even the same organ moves relative to the surrounding tissues (direction and amount of movement) differently depending on the position inside or on the surface of the organ (hereinafter referred to as intra-organ position) due to the structure, presence or absence of lesions, etc. Here, there is a demand from users (doctors, etc.) to visualize the difference in the direction and amount of movement (hereinafter referred to as movement information) of the target organ depending on the intra-organ position (i.e., visualize the distribution of the direction and amount of movement) from medical images. This is to recognize intra-organ positions that have abnormal movement, and to help discover diseases and lesions. For example, there is a demand to identify the adhesion position between the pleura on the surface of the lung from medical images by visualizing the movement information due to the respiratory movement of the lung at each position on the surface of the lung.
特許文献1では、肺を撮像した時系列の3次元画像(ボリュームデータ)に対して画像間の位置合わせを行い、肺の表面における胸膜の癒着と関連の深い、呼吸運動による表面位置の滑り量を算出する技術が開示されている。
動きのある臓器を異なるタイミングで撮影した医用画像においては、画像ごとに臓器の濃度値(画素値)が変動する可能性がある。臓器の状態によって組織内に含まれる空気や血液の量が変化したり、時間的な経過によって造影条件(例えば、造影剤の有無や造影剤の血中濃度の違いなど)が変化したりするからである。そのような濃度値の変動(相違)は、画像間の位置合わせ(すなわち画素同士の対応付け)の失敗や精度低下の原因となり得るため、問題である。特に、画素の濃度値の類似度に基づいて画像間の画素の対応付けを行うアルゴリズムの場合は、その問題が顕著となる。 In medical images of moving organs taken at different times, the density values (pixel values) of the organs can vary from image to image. This is because the amount of air and blood contained in the tissue changes depending on the state of the organ, and contrast conditions (for example, the presence or absence of contrast agent and differences in the blood concentration of contrast agent) change over time. Such fluctuations (differences) in density values are problematic because they can cause failure or reduced accuracy in registering images (i.e. matching pixels together). This problem is particularly pronounced in the case of algorithms that match pixels between images based on the similarity of pixel density values.
本発明は、上記実情に鑑みなされたものであって、動きのある対象物を撮影した画像間で画素の対応付けを高精度に行うための技術を提供することを目的とする。 The present invention has been made in consideration of the above-mentioned circumstances, and aims to provide a technology for performing pixel matching with high accuracy between images of a moving object.
本開示は、動きのある対象物を異なるタイミングで撮影した第1の画像および第2の画像を取得する画像取得部と、前記第1の画像と前記第2の画像との位置合わせ処理を行う画像処理部と、を有し、前記画像処理部は、前記第1の画像における前記対象物の領域の画素値の統計量と前記第2の画像における前記対象物の領域の画素値の統計量との差が小さくなるように、推定された画素の空気の含有比率に基づいて、前記第1の画像および前記第2の画像のうち、少なくとも一方の画像の画素値を変換する変換処理を実行し、前記変換処理によって変換された画素値に基づいて、前記第1の画像と前記第2の画像の間での前記対象物の領域内の画素の対応関係を取得する第1の位置合わせ処理を実行することを特徴とする情報処理装置を含む。
The present disclosure includes an information processing device having an image acquisition unit that acquires a first image and a second image captured at different times of a moving object, and an image processing unit that performs an alignment process between the first image and the second image, wherein the image processing unit performs a conversion process to convert pixel values of at least one of the first image and the second image based on an estimated air content ratio of pixels so that a difference between statistics of pixel values of the object region in the first image and statistics of pixel values of the object region in the second image is reduced, and performs a first alignment process to acquire a correspondence relationship of pixels within the object region between the first image and the second image based on the pixel values converted by the conversion process.
本開示は、動きのある対象物を異なるタイミングで撮影した第1の画像および第2の画像を取得するステップと、前記第1の画像と前記第2の画像との位置合わせ処理を行うステップと、を有し、前記位置合わせ処理において、前記第1の画像における前記対象物の領域の画素値の統計量と前記第2の画像における前記対象物の領域の画素値の統計量との差が小さくなるように、推定された画素の空気の含有比率に基づいて、前記第1の画像および前記第2の画像のうち、少なくとも一方の画像の画素値を変換する変換処理を実行し、前記変換処理によって変換された画素値に基づいて、前記第1の画像と前記第2の画像の間での前記対象物の領域内の画素の対応関係を取得する第1の位置合わせ処理を実行することを特徴とする情報処理方法を含む。 The present disclosure includes an information processing method comprising the steps of acquiring a first image and a second image captured at different times of a moving object, and performing a registration process between the first image and the second image, wherein in the registration process, a conversion process is performed to convert pixel values of at least one of the first image and the second image based on an estimated pixel air content ratio so that a difference between statistics of pixel values of the object region in the first image and statistics of pixel values of the object region in the second image is reduced, and a first registration process is performed to acquire a correspondence relationship of pixels within the object region between the first image and the second image based on the pixel values converted by the conversion process.
本開示は、上記情報処理方法の各ステップをコンピュータに実行させるためのプログラムを含む。 The present disclosure includes a program for causing a computer to execute each step of the above information processing method.
本発明によれば、動きのある対象物を撮影した画像間で画素の対応付けを高精度に行うことができる。 The present invention makes it possible to perform highly accurate pixel matching between images of moving objects.
以下、添付図面に従って本明細書に開示の情報処理装置の好ましい実施形態について詳説する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、本明細書に開示の情報処理装置の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。また、本明細書の開示は下記実施形態に限定されるものではなく、本明細書の開示の趣旨に基づき種々の変形が可能であり、それらを本明細書の開示の範囲から除外するものではない。即ち、後述する実施例及びその変形例を組み合わせた構成も全て本明細書に開示の実施形態に含まれるものである。 Below, a preferred embodiment of the information processing device disclosed in this specification will be described in detail with reference to the attached drawings. However, the components described in this embodiment are merely examples, and the technical scope of the information processing device disclosed in this specification is determined by the scope of the claims, and is not limited to the individual embodiments described below. Furthermore, the disclosure of this specification is not limited to the embodiments described below, and various modifications are possible based on the spirit of the disclosure of this specification, and these are not excluded from the scope of the disclosure of this specification. In other words, configurations that combine the examples and their modifications described below are all included in the embodiments disclosed in this specification.
本明細書では、「画像」の語を「2次元画像」と「3次元画像(ボリュームデータとも呼ばれる)」の両方を包含する概念として用いる。また、撮影時刻が異なる複数の画像で構成された時系列データ(複数の2次元画像の組または複数の3次元画像の組)を「画像」と呼ぶ場合もある。また、「画素」の語を、2次元画像を構成する最小要素と、3次元画像を構成する最小要素(ボクセルとも呼ばれる)の両方を包含する概念として用いる。 In this specification, the term "image" is used as a concept that encompasses both "two-dimensional image" and "three-dimensional image (also called volume data)." Time-series data consisting of multiple images captured at different times (a set of multiple two-dimensional images or a set of multiple three-dimensional images) may also be called an "image." Additionally, the term "pixel" is used as a concept that encompasses both the smallest element that constitutes a two-dimensional image and the smallest element that constitutes a three-dimensional image (also called a voxel).
[第一実施形態]
本発明の第一実施形態に係る情報処理システムは、医療機関における医師や技師などのユーザに対して、検査対象である被検体の胸膜の癒着状態の把握、診断を支援する機能を提供する。具体的には、肺の移動情報として、被検体の肺の運動に関する特徴量の一種である胸膜の滑り状態を容易に視認できる観察画像を生成する機能を提供する。より具体的には、呼吸により運動する被検体の肺を撮影した時系列の3DCTデータ(4DCTデー
タ、4次元CT画像)から、該被検体の肺の胸膜部分(肺輪郭部分)の動きを計測し、該部分の滑り状態を滑り量マップとして視覚化する。なお、「滑り」とは、動きのある対象物(肺など)とその周囲領域との相対的な移動であり、「滑り量マップ」は、対象物の領域と周囲領域の間(境界)の滑り量の分布を表す情報である。
[First embodiment]
The information processing system according to the first embodiment of the present invention provides a function to assist users such as doctors and engineers in medical institutions in grasping and diagnosing the adhesion state of the pleura of a subject to be examined. Specifically, the system provides a function to generate an observation image that can easily visually recognize the sliding state of the pleura, which is a type of feature value related to the movement of the subject's lungs, as lung movement information. More specifically, the system measures the movement of the pleural part (lung contour part) of the subject's lungs from time-series 3DCT data (4DCT data, 4-dimensional CT images) of the subject's lungs moving due to breathing, and visualizes the sliding state of the part as a slippage map. Note that "slip" refers to the relative movement between a moving object (such as a lung) and its surrounding area, and the "slippage map" is information that represents the distribution of the amount of slippage between the object area and the surrounding area (boundary).
ところで、肺のように動きのある対象物を異なるタイミングで撮影して得た時系列データにおいては、対象物の濃度値(輝度値、画素値)が画像間で変動し得る。例えば、肺の場合であれば、被検体の呼吸状態(主に換気量)に依存して、肺野内の濃度値に違いがでる。濃度値の違いは画像間の位置合わせ処理の失敗や精度低下を招く可能性があるため、本実施形態では、画像間の対象物の濃度値の違いを補正したうえで位置合わせ処理を行う。具体的には、2つの画像の間での対象物領域の画素値の統計量の差が小さくなるように、一方または両方の画像の画素値を変換(補正)し、変換された画素値に基づいて2つの画像の間での対象物領域内の画素の対応関係を取得する、という処理を行う。これにより、動きのある対象物を撮影した画像間で画素の対応付けを高精度に行うことができる。 In time series data obtained by photographing a moving object such as the lungs at different times, the density value (brightness value, pixel value) of the object may vary between images. For example, in the case of the lungs, the density value in the lung field differs depending on the breathing state (mainly the ventilation volume) of the subject. Since the difference in density value may lead to failure or reduced accuracy of the registration process between images, in this embodiment, the difference in the density value of the object between images is corrected before the registration process is performed. Specifically, the pixel values of one or both images are converted (corrected) so that the statistical difference in the pixel values of the object area between the two images is reduced, and the correspondence of pixels in the object area between the two images is obtained based on the converted pixel values. This allows for highly accurate pixel correspondence between images of moving objects.
図1は、本発明の一実施の形態に係わる情報処理システムの全体構成を示す図である。情報処理システムは、情報処理装置10、検査画像データベース30、検査画像撮影装置40を含み、これらの装置は、通信手段を介して互いに通信可能に接続されている。本実施形態においては、通信手段はLAN(Local Area Network)50で構成されるが、WAN(Wide Area Network)であってもよい。また、通信手段の接続方法は有線接続であってもよいし、無線接続であってもよい。
Figure 1 is a diagram showing the overall configuration of an information processing system according to one embodiment of the present invention. The information processing system includes an information processing device 10, an
検査画像データベース30は、複数の患者に関する複数の検査画像とその付帯情報を保持する。検査画像とは、例えばCTやMRI等の画像診断装置で撮影した医用画像であり、2次元画像や3次元画像、または3次元画像の動画像である4次元画像などが対象となりうる。また、各画像はモノクロームやカラーなどの様々な様態の画像が対象となりうる。本実施形態における検査画像データベース30は、被検体の肺を撮影した4DCTデータを保持する。検査画像データベース30は、検査画像の付帯情報として、患者名(患者ID)や検査日情報(検査画像を撮影した日付)、検査画像の撮影モダリティ名などを保持する。また、各々の検査画像およびその付帯情報には、他との識別を可能にするために、固有の番号(検査画像ID)が付され、それに基づいて情報処理装置10による情報の読み出しが行える。
The
情報処理装置10は、検査画像データベース30が保持する情報を、LAN50を介して取得する。検査画像取得部100は、検査画像撮影装置40が撮影し、検査画像データベース30が保持している被検体の検査画像を取得する。領域抽出部110は、検査画像取得部100が取得する検査画像を解析し、被検体の肺領域を抽出する。平均濃度値算出部120は、検査画像取得部100が取得する検査画像と、領域抽出部110が抽出する被検体の肺領域に基づいて、被検体の肺領域における検査画像の濃度値(画素値)の統計量として平均値を算出する。濃度値補正部130は、平均濃度値算出部120が算出する被検体の肺領域の濃度値の平均値に基づいて、検査画像取得部100が取得する検査画像の濃度値を補正した補正画像を算出する。変位場算出部140は、検査画像取得部100が取得する検査画像および、濃度値補正部130が算出する補正画像に基づいて、被検体の呼吸による変位場を算出する。マップ生成部150は、領域抽出部110が算出する被検体の肺領域および変位場算出部140が算出する被検体の変位場に基づいて、被検体の呼吸による肺輪郭の滑り量のマップを生成する。表示制御部160は、マップ生成部150が算出する滑り量マップを表示装置60に表示するための制御を行う。本実施形態では、検査画像取得部100によって、対象物の画像を取得する画像取得部が構成されている。また、領域抽出部110、平均濃度値算出部120、濃度値補正部130、変位場算出部140、マップ生成部150によって、画像の位置合わせ処理等を行う画像処理部が構
成されている。
The information processing device 10 acquires information held by the
情報処理装置10は、プロセッサ(CPU、GPUなど)、メモリ(RAM、ROMなど)、ストレージ(HDD、SSDなど)、通信IF、入出力IFなどを備えるコンピュータにより構成することができる。その場合、図1に示される各部の機能は、ストレージに格納されたプログラムをプロセッサが読み込み、実行することによって、実現される。なお、図1に示す情報処理システムの構成はあくまで一例である。例えば、情報処理装置10が不図示の記憶部を有し、検査画像データベース30の機能を具備しても良い。また、情報処理装置10は、汎用のコンピュータ(パーソナルコンピュータ、サーバコンピュータなど)で構成してもよいし、専用のコンピュータで構成してもよい。また、CT装置やMRI装置などのイメージングシステムが具備するコンピュータ(コンソールとも呼ばれる)に必要な機能を実装することによって、図1の情報処理システムを実現してもよい。
The information processing device 10 can be configured by a computer including a processor (CPU, GPU, etc.), memory (RAM, ROM, etc.), storage (HDD, SSD, etc.), communication IF, input/output IF, etc. In this case, the functions of each part shown in FIG. 1 are realized by the processor reading and executing a program stored in the storage. Note that the configuration of the information processing system shown in FIG. 1 is merely an example. For example, the information processing device 10 may have a storage unit (not shown) and may have the function of the
次に図2を用いて、本実施形態における情報処理装置10による全体の処理手順を詳細に説明する。また、以下では、例として、検査画像として時系列の3DCTデータ(4DCTデータ、4次元CT画像)を用いる場合を例として説明するが、本発明の実施はこれに限定されるものではない。動きのある対象物を異なるタイミングで撮影することにより得られた複数の画像であればよい。例えば、異なる呼吸時相で被検体の肺を撮影した複数の3次元画像(ボリュームデータ)であれば、一回の検査で撮像した時系列画像(動画像)でなくてもよい。また、CT画像ではなく、MRI画像であってもよいし、超音波画像であってもよい。 Next, the overall processing procedure by the information processing device 10 in this embodiment will be described in detail with reference to FIG. 2. In addition, the following will be described as an example in which time-series 3DCT data (4DCT data, 4-dimensional CT images) are used as the examination images, but the implementation of the present invention is not limited to this. It is sufficient that there are multiple images obtained by photographing a moving object at different times. For example, as long as there are multiple 3D images (volume data) of the subject's lungs photographed at different respiratory phases, they do not have to be time-series images (moving images) photographed in a single examination. In addition, instead of CT images, MRI images or ultrasound images may be used.
(ステップS1000):4DCTデータの取得
ステップS1000において、検査画像取得部100は、検査画像データベース30から被検体の肺を撮影した4DCTデータを取得する。本実施形態における4DCTデータとは、時系列の3次元ボリュームデータであり、被検体の呼吸による動態を撮影したデータである。より具体的には被検体の吸気位(例えば最大吸気位)と呼気位(例えば最大呼気位)を含む2時相以上の複数の3DCTデータで構成される4DCTデータを取得する。本実施形態では具体例として、3時相の3DCTデータを取得する場合を例として説明する。ここでは各時相の3DCTデータをI_t(1≦t≦3)と表す。また、本実施形態の説明では、各3DCTデータをI_t(x,y,z)と画像内の位置を引数とし、当該位置の画素値を返す関数としても表記する。また、本実施形態では、吸気位の3DCTデータがI_1、呼気位の3DCTデータがI_3、その中間の時相の3DCTデータがI_2である場合を例として説明する。
(Step S1000): Acquisition of 4DCT Data In step S1000, the examination
図3A~図3Cは、本実施形態において検査画像取得部100が取得する3時相の3DCTデータを概念的に示す図である。図3Aの画像200は3DCTデータI_1のコロナル断面の画像であり、対象部位である肺野202の輪郭204が描出されている。図3Bの画像210は3DCTデータI_2のコロナル断面の画像、図3Cの画像220は3DCTデータI_3のコロナル断面の画像である。各画像の肺野202、212、222は、夫々の画像を撮影した時点での被検体の呼吸状態の違いにより画像の濃度値が異なる。なお図3A~図3Cは、白に近いほど高い濃度値を示すものとする。すなわち、吸気位の3DCTデータI_1の肺野202に比べて、呼気位の3DCTデータI_3の肺野222は濃度値が高くなっている。またその間の呼吸状態である3DCTデータI_2の肺野212は、肺野202と肺野222の濃度値の間の値となっている。
Figures 3A to 3C are diagrams conceptually showing three-phase 3DCT data acquired by the examination
なお、本実施形態では、上述のように吸気位と呼気位の2時相を含む3時相の3DCTデータを使用する場合を例として説明するが、本発明の実施はこれに限らない。被検体の呼吸による肺野の運動が捉えられるのであれば、他の呼吸状態の時相の3DCTデータを
使用しても良い。ここで、呼吸周期よりも十分に早い周期で撮影を行い、得られた複数の画像の中から所望の呼吸時相の画像を処理対象画像として抽出してもよい。また、ユーザによる操作を受け付け、それにより処理対象画像を選択してもよい。あるいは、患者の呼吸と同期させて、所望の呼吸時相のタイミングで撮影を行ってもよい。またMRIや超音波画像などの他のモダリティで撮影した時系列画像を取得する場合も、本発明の一実施形態となりうる。
In this embodiment, the case where three-phase 3DCT data including two phases of inspiration and expiration is used as described above will be described as an example, but the present invention is not limited to this. As long as the movement of the lung field due to the subject's breathing can be captured, 3DCT data of other respiratory phases may be used. Here, imaging may be performed at a cycle sufficiently faster than the respiratory cycle, and an image of a desired respiratory phase may be extracted as a processing target image from among the multiple images obtained. In addition, an operation by a user may be accepted, and an image to be processed may be selected accordingly. Alternatively, imaging may be performed at the timing of a desired respiratory phase in synchronization with the patient's breathing. In addition, a case where time-series images captured by other modalities such as MRI or ultrasound images are obtained may also be an embodiment of the present invention.
(ステップS1010):肺野領域抽出
ステップS1010において領域抽出部110は、ステップS1000で取得した複数の3DCTデータの夫々について、肺野領域を抽出する処理を実行する。3DCTデータから肺野の領域を抽出する処理は公知の画像処理手法を用いて実現できる。例えば、画素値に任意の閾値処理を施す手法でもよいし、グラフカット法をはじめとする既知のセグメンテーション手法を用いてもよい。また、Deep Learningなどのニューラルネットワークを利用したセグメンテーション(セマンティック・セグメンテーション)手法を用いてもよい。また、不図示の図形描画ソフトを用いて、ユーザが手動で肺の領域を抽出してもよいし、公知の画像処理手法で抽出した肺の領域をユーザが手動で修正した領域でもよい。本実施形態では、画素値に任意の閾値処理を施す手法を用いて、ステップS1000で取得した全ての時相の3DCTデータについて肺野領域を抽出する。具体的には、画素値が所定の閾値範囲内にあるか否かで3DCTデータ内の全画素を二値化した後、孤立点除去や平滑化などの後処理を行い、肺野領域を抽出する。そして、各時相の肺野領域の抽出結果を、マスク画像M_t(1≦t≦3)として算出する。マスク画像M_tは、3DCTデータのI_t(1≦t≦3)の夫々に関する肺野領域を表す情報であり、3DCTデータの対応する位置が肺野である場合には画素値が1、それ以外の場合には画素値が0となるデータである。なお、本実施形態の説明では、マスク画像M_tをM_t(x,y,z)と画像内の画素位置を引数とし、当該位置の画素値、すなわち当該位置が肺野の領域であるか否かの値を返す関数としても表記する。本実施形態では、M_tは3DCTデータI_tと同程度に離散化されたボリュームデータとして保持する。
(Step S1010): Extraction of Lung Field Area In step S1010, the
なお、上記の説明では、3DCTデータの肺野領域の抽出結果としてマスク画像を算出する場合を例として説明したが、本発明の実施はこれに限らない。例えば、肺野内の画素の集合を算出しても良いし、それらを囲む輪郭位置の座標値を算出するようにしても良い。 In the above explanation, a mask image is calculated as an extraction result of the lung field area from the 3DCT data, but the present invention is not limited to this. For example, a set of pixels in the lung field may be calculated, or the coordinate values of the contour position surrounding them may be calculated.
(ステップS1020):平均濃度値算出
ステップS1020において平均濃度値算出部120は、ステップS1000で取得した複数の3DCTデータの夫々について、ステップS1010で抽出した肺野内の領域における平均濃度値を算出する処理を実行する。具体的には、式(1)に示す演算を複数の3DCTデータの夫々について実行する。式(1)において、Ωは、3DCTデータの画像全体(全画素)を表す。C_ave_tは、3DCTデータI_tの平均濃度値である。
以上の処理では、各時相の3DCTデータの肺野内の画素の統計量として、平均濃度値を算出する場合を例として説明したが、統計量は平均濃度値に限らず、肺野内の画素群の画素値から取得ないし計算される代表値であれば何を用いてもよい。例えば、各時相の3DCTデータの肺野内の画素の最頻値や中央値や最大値や最小値などを算出するようにし
ても良い。また、これらの値を肺野内の領域だけから算出する場合に限らず、各時相の3DCTデータ全体の平均濃度値を算出するようにしても良い。逆に、肺野内の全画素の統計量ではなく、一部の画素の統計量を算出してもよい。
In the above process, the average density value is calculated as the statistical quantity of the pixels in the lung field of the 3DCT data of each time phase, but the statistical quantity is not limited to the average density value, and any representative value obtained or calculated from the pixel values of the pixel group in the lung field may be used. For example, the mode, median, maximum value, minimum value, etc. of the pixels in the lung field of the 3DCT data of each time phase may be calculated. Moreover, these values are not limited to being calculated only from the area in the lung field, and the average density value of the entire 3DCT data of each time phase may be calculated. Conversely, the statistical quantity of some pixels may be calculated instead of the statistical quantity of all pixels in the lung field.
(ステップS1030):濃度値補正
ステップS1030において濃度値補正部130は、ステップS1000で取得した複数の3DCTデータの夫々について、ステップS1020で取得した各3DCTデータにおける肺野内の平均濃度値に基づいて濃度値を補正(変換)する処理を実行する。より具体的には、全ての3DCTデータの肺野内の平均濃度値が、基準とする時相(例えば、吸気位)の3DCTデータの肺野内の平均濃度値と同一となるように、各時相の3DCTデータ全体の濃度値に対して式(2)に示す補正処理を行う。式(2)において、C_ave_1は基準時相(例えば、吸気位)の平均濃度値であり、C_ave_tは補正前の3DCTデータI_tの平均濃度値であり、I’_tは補正後の3DCTデータである。
式(2)の処理によって、I_t(第1の画像)における肺野領域(第1対象物領域)とI_1(第2の画像)における肺野領域(第2対象物領域)との間の画素値の統計量の差が小さくなるように、I_tの画素値が変換される。この変換された画像I’_tが、画像間の肺野領域の画素の位置合わせ(画素の対応関係の取得)に利用される。 By processing equation (2), the pixel values of I_t are transformed so that the difference in the statistics of pixel values between the lung field region (first object region) in I_t (first image) and the lung field region (second object region) in I_1 (second image) is reduced. This transformed image I'_t is used to align the pixels of the lung field regions between the images (obtain the pixel correspondence).
なお、基準とした時相(吸気位)の3DCTデータは式(2)の処理は行わずにI’_1=I_1とすることができる。また、上記では、各時相の3DCTデータ全体の濃度値を補正する場合を例として説明したが、本発明の実施はこれに限らない。例えば、前記各時相の3DCTデータの肺野内の画素だけを上記同様の方法で補正するようにしても良い。また、基準とする時相は吸気位でなくてもよい。 The 3DCT data of the reference time phase (inspiration position) can be set to I'_1 = I_1 without performing the processing of equation (2). In addition, the above describes an example in which the density value of the entire 3DCT data of each time phase is corrected, but the present invention is not limited to this. For example, only the pixels within the lung field of the 3DCT data of each time phase may be corrected using a method similar to that described above. In addition, the reference time phase does not have to be the inspiration position.
上記の説明では、基準とする時相を設けて、各時相の3DCTデータの肺野内の平均濃度値が、基準とする時相の3DCTデータの肺野内の平均濃度値と同一となるように補正を行う場合を例として説明したが、本発明の実施はこれに限らない。例えば、基準とする時相を設けず、各時相の3DCTデータの肺野内の平均濃度値があらかじめ設定した所定の基準濃度値Crefに揃うように、全ての時相の3DCTデータを補正しても良い。その場合、式(2)のC_ave_1には、基準濃度値Crefを代入すればよい。 In the above explanation, a reference time phase is set and correction is performed so that the average density value in the lung field of the 3DCT data of each time phase is the same as the average density value in the lung field of the 3DCT data of the reference time phase, but the implementation of the present invention is not limited to this. For example, without setting a reference time phase, the 3DCT data of all time phases may be corrected so that the average density value in the lung field of the 3DCT data of each time phase is aligned with a predetermined reference density value Cref that has been set in advance. In that case, the reference density value Cref can be substituted for C_ave_1 in formula (2).
(ステップS1040):肺野内の画像間位置合わせ
ステップS1040において、変位場算出部140は、濃度値補正後の複数の3DCTデータI’_t(1≦t≦3)に基づいて、吸気位の3DCTデータI_1と呼気位の3DCTデータI_3との間の肺野内の位置合わせ処理を実行する。本実施形態ではI’_1とI’_2の間の位置合わせとI’_2とI’_3の間の位置合わせを夫々実行し、それらの結果を統合することで、I’_1とI’_3の間の位置合わせ結果を得る。このように、吸気位の画像と呼気位の画像の間の位置合わせを直接計算するのではなく、中間の状態(時相)の画像を用いて間接的に計算することは、位置合わせの精度向上に有利である。すなわち、吸気位と呼気位の間では肺の移動量(位置の違い)が大きいため、画素同士の対応関係を把握することが困難であったり、対応画素の探索に失敗する可能性が高まる。その点、中間状態の画像を間に挟むことにより、移動量(位置の違い)が比較的小さい画像同士の位置合わせ処理になるため、位置合わせの容易化並びに精度向上を図ることができる。なお、中間状態の画像の数を増やすほど位置合わせは容易になるが、逆に処理時間の増大を招くため、精度と処理時間のバランスを考慮して、中間状態の画像の数を決定するとよい。
(Step S1040): Image Registration in the Lung Field In step S1040, the displacement
位置合わせ処理の結果として、変位場算出部140は、変位場D_inner(x,y,z)を取得する。複数の変位場を統合する方法は公知のいずれの方法を用いても良い。D_inner(x,y,z)は、吸気位の3DCTデータI_1における肺野内の任意の三次元位置(x,y,z)を、それに対応する呼気位の3DCTデータI_3における三次元位置(x’,y’,z’)に変換するための変位量を算出する関数である。すなわち、変位場D_inner(x,y,z)は、2つの画像の間での対象物領域(肺野領域)内の画素の対応関係を表すものである。
As a result of the alignment process, the displacement
なお、上記のI’_1とI’_2との間の位置合わせ、およびI’_2とI’_3との間の位置合わせは、公知のいずれの画像間位置合わせ方法を用いて実行しても良い。2つの画像の間の位置合わせ方法には、例えば、画素値(濃度値)の類似度に基づいて画素の対応付けを行う方法、エッジやテクスチャに基づいて領域の対応付けを行う方法など、様々な方法がある。本実施形態では、画素値(濃度値)の類似度に基づいて画素の対応付けを行う方法を採用する。高速な処理が可能だからである。例えば、第1の画像と第2の画像の位置合わせを行う場合であれば、第1の画像の肺野領域に変形を加え、第2の画像と変形後の第1の画像の間の画素値(濃度値)の類似度を評価する、という処理を繰り返し、最も類似度が高くなる最適解を見つければよい。この方法において、3次元領域の変形は例えばFFD(Free Form Deformation)を用いて表現することができ、画素値(濃度値)の類似度はSSD(Sum of Square Difference)などで評価すればよい。 The above-mentioned alignment between I'_1 and I'_2 and alignment between I'_2 and I'_3 may be performed using any known inter-image alignment method. There are various methods for aligning two images, such as a method of matching pixels based on the similarity of pixel values (density values) and a method of matching areas based on edges and textures. In this embodiment, a method of matching pixels based on the similarity of pixel values (density values) is adopted. This is because high-speed processing is possible. For example, when aligning the first image and the second image, a process of adding deformation to the lung field area of the first image and evaluating the similarity of the pixel values (density values) between the second image and the first image after deformation is repeated to find the optimal solution with the highest similarity. In this method, the deformation of the three-dimensional region can be expressed, for example, using FFD (Free Form Deformation), and the similarity of pixel values (density values) can be evaluated using SSD (Sum of Square Difference) or the like.
なお、この位置合わせを行う際には、描出される肺野内の画像特徴を強調する画像処理を各画像に施し、その結果を用いて位置合わせするのが望ましい。例えば、肺野に含まれる空気や実質組織の濃度値の違い、すなわち肺野内の画像特徴を強調されるようにウィンドウ変換を行うようにしても良い。ウィンドウ変換とは、元画像のレンジの一部分のみを抽出し所定の濃度分解能に変換する処理である。抽出する範囲(ウィンドウと呼ばれる)の中心(ウィンドウレベル)と広さ(ウィンドウ幅)を変えることで、元画像中の所望の画像特徴を強調することができる。医用画像のように幅広いレンジの画像(例えば10~16ビットの画像)から表示用の画像(例えば8ビットの画像)を生成する場面などに利用される。 When performing this alignment, it is desirable to perform image processing on each image to emphasize the image features within the depicted lung field, and then use the results to perform alignment. For example, window conversion may be performed to emphasize the differences in density values of the air and parenchymal tissue contained in the lung field, i.e., the image features within the lung field. Window conversion is a process in which only a portion of the range of the original image is extracted and converted to a specified density resolution. By changing the center (window level) and size (window width) of the extracted range (called the window), it is possible to emphasize the desired image features in the original image. It is used in situations such as generating a display image (e.g., an 8-bit image) from a wide-range image (e.g., a 10- to 16-bit image) such as a medical image.
例えば、空気を-1000、水を0とする一般的なCTデータの場合、ウィンドウ中心の濃度値を-700、ウィンドウ幅を1000などに設定することで肺野内の画像特徴を強調することができる。本実施形態では、このようなウィンドウ変換を行うことで肺野内の画像特徴を強調した画像を生成し、その画像に対して位置合わせ処理を行う。これにより、肺野内の位置合わせの精度向上を図ることができる。 For example, in the case of general CT data where air is -1000 and water is 0, the image features within the lung field can be emphasized by setting the density value at the center of the window to -700 and the window width to 1000. In this embodiment, by performing such window conversion, an image in which the image features within the lung field are emphasized is generated, and alignment processing is performed on this image. This makes it possible to improve the accuracy of alignment within the lung field.
なお、前記のウィンドウ変換の設定は、予め所定の設定を情報処理装置10が保持するようにしても良いし、ユーザによる操作によって設定が行えるようにしても良い。また、ステップS1000で取得した3DCTデータや、検査画像データベース30が保持する付帯情報に基づいて設定するようにしても良い。
The window conversion settings may be stored in advance in the information processing device 10, or may be set by a user operation. Also, the settings may be based on the 3DCT data acquired in step S1000 or the associated information stored in the
なお、上記の説明では、ステップS1030で各3DCTデータの濃度値の補正処理を行い、ステップS1040でウィンドウ変換を行う場合を例として説明したが、これらの処理を統合した処理をステップS1040で実行するようにしても良い。すなわち、ステップS1030の処理を省略し、ステップS1040で実行するウィンドウ変換のウィンドウ中心を、各3DCTデータの夫々に関して変更して設定するようにできる。具体的には、C_ave_t(1≦t≦3)に基づき、各3DCTデータの肺野内の濃度値が同一となるようにウィンドウ中心を設定するようにできる。 In the above description, the density value correction process for each 3DCT data is performed in step S1030, and the window conversion is performed in step S1040. However, these processes may be combined and executed in step S1040. That is, the process in step S1030 may be omitted, and the window center of the window conversion executed in step S1040 may be changed and set for each 3DCT data. Specifically, the window center may be set based on C_ave_t (1≦t≦3) so that the density values in the lung field of each 3DCT data are the same.
(ステップS1050):肺野外の画像間位置合わせ
ステップS1050において、変位場算出部140は、ステップS1000で取得した複数の3DCTデータI_t(1≦t≦3)に基づいて、吸気位の3DCTデータI_1と呼気位の3DCTデータI_3との間の肺野外の位置合わせ処理を実行する。肺野外とは、肺野(対象物領域)の周囲の領域である。本実施形態では、I_1とI_2の間の位置合わせとI_2とI_3の間の位置合わせを夫々実行し、それらの結果を統合することで、I_1とI_3の間の位置合わせ結果を得る。具体的な処理方法はステップS1040で説明した方法と同様であるため、ここでは詳細な説明は省略する。なお、肺野外の画素は呼吸による濃度値の変化が小さいため、画素値を変換する前の3DCTデータを用いるとよい。
(Step S1050): Inter-image registration of lung field In step S1050, the displacement
以上の処理により、変位場算出部140は、変位場D_outer(x,y,z)を取得する。D_outer(x,y,z)は、吸気位の3DCTデータI_1における被検体の肺野外の任意の三次元位置(x,y,z)を、それに対応する呼気位の3DCTデータI_3における三次元位置(x’,y’,z’)に変換する変位量を算出する関数である。すなわち、変位場D_outer(x,y,z)は、2つの画像の間での周囲領域内の画素の対応関係を表すものである。
Through the above processing, the displacement
なお、上記のI_1とI_2との間の位置合わせ、およびI_2とI_3との間の位置合わせは公知のいずれの画像間位置合わせ方法を用いて実行しても良い。肺野領域の位置合わせ処理で例示したものと同じ方法を用いてもよい。なお、この位置合わせを行う際に、各画像に描出される肺野外の画像特徴を強調する画像処理を施し、その結果を用いて位置合わせするのが望ましい。例えば、肺野周辺の組織の濃度値の違い、すなわち肺野外の画像特徴が強調されるようにウィンドウ変換を行うようにしても良い。ウィンドウ中心の濃度値を0、ウィンドウ幅を400などに設定することで肺野外の軟部組織の画像特徴を強調することができる。これ以外にもウィンドウ中心の濃度値を200、ウィンドウ幅を2000などに設定することで肺野外の骨の画像特徴を強調することができる。本実施形態では、上記に例示したウィンドウ変換を行うことで肺野外の画像特徴を強調した画像を生成し、その画像に対して位置合わせ処理を行う。 The above-mentioned alignment between I_1 and I_2 and alignment between I_2 and I_3 may be performed using any known inter-image alignment method. The same method as exemplified in the lung field alignment process may be used. When performing this alignment, it is desirable to perform image processing to emphasize the image features outside the lung field depicted in each image, and use the results to perform alignment. For example, window conversion may be performed so that the difference in density value of the tissue around the lung field, that is, the image features outside the lung field, are emphasized. By setting the density value of the window center to 0 and the window width to 400, etc., the image features of the soft tissue outside the lung field can be emphasized. In addition, by setting the density value of the window center to 200 and the window width to 2000, etc., the image features of the bones outside the lung field can be emphasized. In this embodiment, an image in which the image features outside the lung field are emphasized is generated by performing the window conversion exemplified above, and the alignment process is performed on the image.
なお、前記のウィンドウ変換の設定は予め所定の設定を情報処理装置10が保持するようにしても良いし、ユーザによる操作によって設定が行えるようにしても良い。また、ステップS1000で取得した3DCTデータや、検査画像データベース30が保持する付帯情報に基づいて設定するようにしても良い。
The window conversion settings may be stored in advance in the information processing device 10, or may be set by a user operation. Also, the settings may be based on the 3DCT data acquired in step S1000 or the associated information stored in the
なお、以上の説明では、3DCTデータI_t(1≦t≦3)に基づき、肺野外の画像特徴を強調した画像を生成して、変位場D_outer(x,y,z)を算出する場合を例として説明したが、本発明の実施はこれに限らない。例えば、ステップS1040と同様に濃度値変換後の3DCTデータI’_t(1≦t≦3)に基づき、肺野外の画像特徴を強調した画像を生成して、変位場D_outer(x,y,z)を算出するようにしても良い。 In the above description, an example has been described in which an image in which image features outside the lung field are emphasized is generated based on the 3DCT data I_t (1≦t≦3) and the displacement field D_outer(x,y,z) is calculated, but the present invention is not limited to this. For example, an image in which image features outside the lung field are emphasized may be generated based on the 3DCT data I'_t (1≦t≦3) after density value conversion, as in step S1040, and the displacement field D_outer(x,y,z) may be calculated.
(ステップS1060):滑り量マップの算出
ステップS1060において、マップ生成部150は、被検体の肺表面(肺輪郭)上での呼吸による滑り量のマップを生成する処理を実行する。この処理は、ステップS1010で算出した吸気位の肺野マスク画像M_1、ステップS1040で算出した変位場D_inner(x,y,z)、および、ステップS1050で算出した変位場D_outer(x,y,z)に基づいて実行する。より具体的には、特許文献1に記載の方法により実施することができる。すなわち、肺野マスク画像M_1の輪郭部分におけるD_out
er(x,y,z)とD_inner(x,y,z)の二つの変位場の違いを算出し、それを3次元のマップである滑り量マップS(x,y,z)として生成する。本実施形態では、滑り量マップS(x,y,z)は吸気位の3DCTデータの画像座標系での位置を引数として、当該位置における滑り量を返す関数である。より具体的には3DCTデータと同程度に離散化されたボリュームデータとして保持する。マップ生成部150は、必要に応じて、生成した滑り量マップS(x,y,z)を、不図示の記憶部、あるいは、検査画像データベース30に、被検体の検査画像と対応付けて保存する処理を行う。
(Step S1060): Calculation of Slippage Map In step S1060, the
The difference between the two displacement fields, er(x, y, z) and D_inner(x, y, z), is calculated, and the difference is generated as a three-dimensional map, a slippage map S(x, y, z). In this embodiment, the slippage map S(x, y, z) is a function that returns the amount of slippage at a position in the image coordinate system of the 3DCT data at the inspiration position as an argument. More specifically, it is held as volume data discretized to the same extent as the 3DCT data. The
(ステップS1070):滑り量マップの表示
ステップS1070において、表示制御部160は、ステップS1060で算出した滑り量マップS(x,y,z)を表示装置60に表示させるための制御を行う。具体的には滑り量マップを観察するための画像(観察画像)を生成し、その画像を表示装置60に表示させるように制御を行う。観察画像は、例えば、被検体の3次元の肺野輪郭形状上に、滑り量マップをグレースケールやカラーマップなどで階調変換したサーフェースレンダリング画像として生成するようにできる。なお、上述の方法は本発明の一例に過ぎず、如何なる方法で滑り量マップを表示しても、または表示自体を行わなくても、本発明の一実施形態となりうる。
(Step S1070): Display of slippage map In step S1070, the
以上に説明した方法により、本実施形態おける情報処理装置10の処理が実行される。これによれば、呼吸状態の異なる3DCTデータ間の位置合わせを高い精度で実行できるため、被検体の胸膜の癒着状態の把握、診断の支援に有効な滑り量マップをユーザに提供できる。 The information processing device 10 in this embodiment performs processing using the method described above. This allows for highly accurate alignment of 3DCT data representing different respiratory states, making it possible to provide the user with a slippage map that is effective in understanding the adhesion state of the subject's pleura and assisting in diagnosis.
(変形例1-1):体積変化による濃度値補正をさらに加えた変形例
第一実施形態のステップS1040の説明では、画素値変換後の画像I’_tを用いて肺野内の位置合わせを実行する具体的な一例について説明したが、本発明の実施はこれに限らない。例えば、第一実施形態で説明したS1040の処理を実行した後に、その処理結果である変位場D_inner(x,y,z)をさらに修正する処理を実行するようにできる。例えば、前記処理により算出した変位場D_inner(x,y,z)に基づいて、肺野内の局所的な体積変化を算出し、それに基づいて肺野内の各位置の画素値をさらに補正する。具体的には局所的に体積が膨張する部分の濃度値を低くし、逆に局所的に体積が収縮する部分の濃度値を高くするようにできる。そして、その補正した画像に基づいて、さらに位置合わせ処理を実行することで変位場D_inner(x,y,z)を修正するようにしても良い。また、この処理により修正された変位場に基づいて、さらに上記同様の処理を繰り返して変位場を修正するようにしても良い。これによれば、第一実施形態で説明した肺野内の位置合わせに加え、さらに被検体の肺野領域の局所的な体積変化を推定し、それに基づいた濃度値補正を行うことができるため、より高精度な位置合わせが行える効果がある。
(Modification 1-1): Modification further adding density value correction due to volume change In the explanation of step S1040 of the first embodiment, a specific example of performing alignment in the lung field using the image I'_t after pixel value conversion was explained, but the implementation of the present invention is not limited to this. For example, after executing the process of S1040 described in the first embodiment, a process of further correcting the displacement field D_inner (x, y, z) which is the processing result can be executed. For example, based on the displacement field D_inner (x, y, z) calculated by the above process, a local volume change in the lung field is calculated, and based on the calculated local volume change, the pixel value of each position in the lung field is further corrected. Specifically, the density value of the part where the volume expands locally can be lowered, and conversely, the density value of the part where the volume contracts locally can be increased. Then, based on the corrected image, a further alignment process may be executed to correct the displacement field D_inner (x, y, z). Also, based on the displacement field corrected by this process, the displacement field may be corrected by repeating the above-mentioned process. According to this, in addition to the alignment within the lung field described in the first embodiment, it is possible to estimate local volume changes in the lung field region of the subject and perform concentration value correction based on that, thereby achieving higher accuracy of alignment.
(変形例1-2):画素値補正方法のバリエーション
本発明の第一実施形態では、ステップS1020で複数の3DCTデータの夫々の肺野の平均濃度値を算出し、ステップS1030では、その差異を吸収するように、各画像の濃度値をシフトさせる補正を行う場合を例として説明した。しかし、本発明の実施はこれに限らない。例えば、ステップS1020では、各3DCTデータについて、肺野の平均濃度値C_ave_tに加えて濃度値の分散C_div_tも算出するようにできる。この場合、ステップS1030では全ての3DCTデータの肺野の平均濃度値と濃度値の分散が、吸気位のそれらと同一になるように、濃度値を線形変換(シフトおよびスケーリング)により補正する処理を実行するようにしても良い。なお、平均値と分散値を所望の値に一致させるための線形変換は公知の方法により実施できる。以上の方法によれば、各時相の3DCTデータについて、平均濃度値だけでなく、濃度値の分散についても吸気位の
3DCTデータと一致させることができるため、より吸気位の3DCTデータに近似した画像に補正することができる。これにより、肺野内の位置合わせをより正確に実行できる効果がある。
(Modification 1-2): Variation of pixel value correction method In the first embodiment of the present invention, the average density value of each lung field of a plurality of 3DCT data is calculated in step S1020, and in step S1030, correction is performed to shift the density value of each image so as to absorb the difference. However, the present invention is not limited to this. For example, in step S1020, in addition to the average density value C_ave_t of the lung field, the variance C_div_t of the density value can also be calculated for each 3DCT data. In this case, in step S1030, a process of correcting the density value by linear transformation (shifting and scaling) may be performed so that the average density value and the variance of the density value of the lung field of all the 3DCT data become the same as those at the inspiration position. The linear transformation for matching the average value and the variance value to the desired value can be performed by a known method. According to the above method, not only the average density value but also the variance of density values of the 3DCT data at each time phase can be made to match with the 3DCT data at the inspiration position, so that the image can be corrected to be more similar to the 3DCT data at the inspiration position, which has the effect of enabling more accurate alignment within the lung field.
また濃度値の補正の方法は上記の方法に限らない。例えば、各3DCTデータについて、肺野内の平均濃度値を吸気位の3DCTデータの肺野内の平均濃度値と一致させつつ、空気領域を表す濃度値(一般的なCTデータの場合は-1000)を変化させないように、濃度値を線形変換するようにしても良い。 The method of correcting the density values is not limited to the above method. For example, for each 3DCT data, the density values may be linearly converted so that the average density value in the lung field matches the average density value in the lung field of the 3DCT data at the inspiration position, while keeping the density value representing the air region (-1000 for general CT data) unchanged.
本発明の実施は、上記のように補正対象の領域に対して一様な線形変換によって濃度値の補正を行う場合に限らない。例えば、肺野内の各画素の濃度値に基づいて当該画素の空気・組織実質の混合比率を推定し、空気の含有比率に応じて濃度値の補正の大きさを変えるようにしても良い。これにより、実際の被検体の肺における呼吸に伴う局所的な換気量の変化を反映した補正が行える効果がある。 The implementation of the present invention is not limited to the above-described case where density values are corrected by a uniform linear transformation of the region to be corrected. For example, the mixture ratio of air and tissue parenchyma of each pixel in the lung field may be estimated based on the density value of that pixel, and the magnitude of the correction of the density value may be changed according to the air content ratio. This has the effect of making a correction that reflects the local change in ventilation volume associated with breathing in the lungs of an actual subject.
また、上記の方法以外にも、ステップS1010で算出した各3DCTデータの肺野領域の体積の違いに基づいて濃度値の補正を行うようにしても良い。例えば、吸気位の3DCTデータにおける肺野の体積と、補正対象とする3DCTデータの肺野の体積との差異が大きいほど、濃度値の補正量を大きくするようにできる。この方法によれば、呼吸による被検体の肺野の空気の排出によって体積が減少するに従い、肺野内での実質組織の含有比率が高くなるという現象を反映した、より高精度な濃度値の補正が行える効果がある。また濃度値の補正方法は上記の方法に限らない。例えば、肺野をさらに複数の部分領域に分割し、分割した部分領域毎に異なる補正を行うようにしても良い。例えば、肺を構成する複数の肺葉の夫々を部分領域として分割し、それぞれの肺葉毎に濃度値の平均を算出し、その平均値に基づいて統合肺野の濃度値を補正するようにしても良い。あるいは、左右の肺の夫々を部分領域として分割して前記同様の補正を行うようにしても良い。これによれば、肺葉毎や左右肺毎の換気量の違いを考慮した精度の高い補正が行える効果がある。 In addition to the above method, the density value may be corrected based on the difference in the volume of the lung field area of each 3DCT data calculated in step S1010. For example, the larger the difference between the volume of the lung field in the 3DCT data in the inhalation position and the volume of the lung field in the 3DCT data to be corrected, the larger the correction amount of the density value. According to this method, it is possible to perform a more accurate correction of the density value, which reflects the phenomenon that the content ratio of parenchymal tissue in the lung field increases as the volume decreases due to the discharge of air from the lung field of the subject by breathing. The method of correcting the density value is not limited to the above method. For example, the lung field may be further divided into multiple partial regions, and different corrections may be performed for each divided partial region. For example, each of the multiple lung lobes constituting the lung may be divided as a partial region, the average of the density value for each lobe may be calculated, and the density value of the integrated lung field may be corrected based on the average value. Alternatively, the left and right lungs may be divided as partial regions and the same correction as above may be performed. This has the effect of allowing for highly accurate correction that takes into account differences in ventilation volume between lung lobes and between the left and right lungs.
(変形例1-3):2時相の場合、または4時相以上の場合
本発明の第一実施形態では、ステップS1000で3時相の3DCTデータを取得する場合を例として説明したが、本発明の実施はこれに限らない。例えば、ステップS1000では吸気位と呼気位の2時相の3DCTデータだけを取得するようにしても良い。この場合、ステップS1030の処理では、吸気位と呼気位の3DCTデータの濃度値を補正する。そして、ステップS1040では、それらの画像間の位置合わせにより、吸気位と呼気位の間の肺野内の変位場を算出する。また、ステップS1050では、ステップ1000で取得した2時相の3DCTデータ間の位置合わせにより肺野外の変位場を算出する。以上に説明した方法により2時相の3DCTデータを入力とした場合の処理が実施される。
(Modification 1-3): In the case of two time phases or in the case of four or more time phases In the first embodiment of the present invention, the case where 3DCT data of three time phases is acquired in step S1000 has been described as an example, but the present invention is not limited to this. For example, in step S1000, only 3DCT data of two time phases, that is, the inspiration position and the expiration position, may be acquired. In this case, in the process of step S1030, the density value of the 3DCT data of the inspiration position and the expiration position is corrected. Then, in step S1040, the displacement field in the lung field between the inspiration position and the expiration position is calculated by aligning the images. In addition, in step S1050, the displacement field outside the lung field is calculated by aligning the 3DCT data of the two time phases acquired in step 1000. The process when the 3DCT data of two time phases is input is performed by the method described above.
また、本発明の実施は上記の方法に限らず、ステップS1000で4時相以上の3DCTデータを取得するようにしても良い。この場合でも第一実施形態と同様の処理で被検体の滑り量マップを算出することができる。 The implementation of the present invention is not limited to the above method, and 3DCT data of four or more time phases may be acquired in step S1000. Even in this case, the slippage map of the subject can be calculated using the same process as in the first embodiment.
[第二実施形態]
本発明の第二実施形態について説明する。第一実施形態では、濃度値を補正した画像を生成し、その画像を用いて肺野内の位置合わせ処理を実行する場合を例として説明した。しかし、本発明の実施はこれに限らない。第二実施形態では、濃度値を補正した画像を生成するのではなく、肺野内の位置合わせ処理の中で画素単位での濃度値補正を行う場合を例として説明する。
[Second embodiment]
A second embodiment of the present invention will be described. In the first embodiment, an image with corrected density values is generated, and the image is used to perform intrapulmonary alignment processing. However, the present invention is not limited to this. In the second embodiment, an image with corrected density values is not generated, but rather, pixel-by-pixel density value correction is performed during intrapulmonary alignment processing.
本発明の第二実施形態に係る情報処理システムの全体構成は第一実施形態の情報処理システムの全体構成の説明として示した図1と同様である。ここでは詳細な説明は省略する。 The overall configuration of the information processing system according to the second embodiment of the present invention is the same as that shown in FIG. 1, which illustrates the overall configuration of the information processing system according to the first embodiment. A detailed description will be omitted here.
図4を用いて、本実施形態における情報処理装置10による全体の処理手順を詳細に説明する。 The overall processing procedure of the information processing device 10 in this embodiment will be described in detail using Figure 4.
(ステップS2000)から(ステップS2020)
ステップS2000からステップS2020は、第一実施形態のステップS1000からステップS1020と同様の処理を行う。ここでは詳細な説明は省略する。
(Step S2000) to (Step S2020)
Steps S2000 to S2020 are similar to steps S1000 to S1020 in the first embodiment, and detailed description thereof will be omitted here.
(ステップS2040)
ステップS2040において、変位場算出部140は、ステップS2000で取得した複数の3DCTデータI_t(1≦t≦3)に基づいて、吸気位の3DCTデータI_1と呼気位の3DCTデータI_3との間の肺野内の位置合わせ処理を実行する。本実施形態ではI_1とI_2の間の位置合わせとI_2とI_3の間の位置合わせを夫々実行し、それらの結果を統合することで、I_1とI_3の間の位置合わせ結果を得る。上記の処理結果として変位場算出部140は、変位場D_inner(x,y,z)を取得する。複数の変位場を統合する方法は公知のいずれの方法を用いても良い。ここで、D_inner(x,y,z)は、吸気位の3DCTデータI_1における被検体の肺野内の任意の三次元位置(x,y,z)を、それに対応する呼気位の3DCTデータI_3における三次元位置(x’,y’,z’)に変換する座標変換関数である。
(Step S2040)
In step S2040, the displacement
本実施形態では上記のI_1とI_2との間の位置合わせ、およびI_2とI_3との間の位置合わせ処理をFFD(Free Form Deformation)法を用いて行う場合を例として説明する。ただし、本発明の実施はこれに限らず、例えばLDDMM(large deformation diffeomorphic metric
mapping)法など他の変形位置合わせ手法を用いても良い。
In this embodiment, the above-mentioned alignment between I_1 and I_2 and the alignment between I_2 and I_3 are performed using the FFD (Free Form Deformation) method. However, the present invention is not limited to this, and may be performed using, for example, the LDDMM (large deformation diffeomorphic metric) method.
Alternatively, other deformation registration methods such as a 3D image mapping method may be used.
本処理について、図5の処理フローに沿って詳しく説明する。なお、以下の説明ではI_1とI_2の間の位置合わせ結果として変位場D_inner12(x,y,z)を算出する例について説明する。なお、ステップS2040が実行するI_2とI_3との間の位置合わせ処理も、以下に詳述する処理と同様にして実行できる。 This process will be described in detail with reference to the process flow in FIG. 5. In the following description, an example will be described in which the displacement field D_inner12(x, y, z) is calculated as the alignment result between I_1 and I_2. The alignment process between I_2 and I_3 performed in step S2040 can also be performed in the same manner as the process described in detail below.
(ステップS20400):初期化
ステップS20400において、変位場算出部140は、変位場D_inner12(x,y,z)を初期化する処理を実行する。具体的にはFFDの全ての制御点の制御量をゼロベクトルに初期化する。なお、本実施例では、FFDの制御点の数をN個とし、それぞれの制御点に3次元の制御量パラメータを設定する場合を例として説明する。すなわち、全体で3N個の制御量パラメータにより変位場を表現する場合を例として説明する。本実施形態では制御量パラメータをVと表記する。ここで、VはFFDの制御量を格納する3N次元のベクトル形式のデータである。また本ステップにおいて変位場算出部140は、I_1とI_2の間の画像類似度を算出する処理を実行する。画像類似度の算出方法は公知のいずれの方法を用いても良いが、本実施形態では一例として式(3)に示すSSD(Sum of Square Difference)により画像類似度E_orgを算出するものとする。
式(3)において、「+C_ave_1-C_ave_2」の部分が、3DCTデータI_1とI_2の間の濃度値を揃えるための濃度値補正項である。このように本実施形態の位置合わせ処理では、画像間の類似度を算出する計算の中で、画素ごとの濃度値補正を同時に行う。なお、Wは、画像のウィンドウ変換の関数である。本実施形態では、肺野内の画像特徴を強調して画像類似度を算出するために、肺野に含まれる空気や実質組織の濃度値の違い、すなわち肺野内の画像特徴を強調されるウィンドウ変換を行う。一例としてウィンドウ中心の濃度値を-700、ウィンドウ幅を1000とした場合の変換を行う。 In formula (3), the "+C_ave_1-C_ave_2" portion is a density value correction term for aligning density values between the 3DCT data I_1 and I_2. Thus, in the registration process of this embodiment, density value correction for each pixel is performed simultaneously in the calculation for calculating the similarity between images. Note that W is a function of the window transformation of the image. In this embodiment, in order to calculate the image similarity by emphasizing the image features within the lung field, a window transformation is performed that emphasizes the difference in density values of the air and parenchymal tissue contained in the lung field, that is, the image features within the lung field. As an example, a transformation is performed with the density value at the window center set to -700 and the window width set to 1000.
以下ステップS20401からステップS20405までの処理を繰り返して実行する。 The process from step S20401 to step S20405 is then repeated.
(ステップS20401):制御点インデックスiの初期化
ステップS20401において変位場算出部140は、ステップS20403からステップS20404までの処理の対象とする制御点のインデックス値iを1に初期化する。
(Step S20401): Initialization of Control Point Index i In step S20401, the displacement
(ステップS20403):制御量変動後の類似度の算出
ステップS20403において変位場算出部140はインデックスiの制御点の制御量を微小に変動させた場合の変位場を算出する。そして算出した変位場に基づいてI_1とI_2との間の画像類似度を算出する。
(Step S20403): Calculation of Similarity After Control Amount Change In step S20403, the displacement
具体的には、まず、制御量パラメータVのi番目の次元の要素値を微小に変動させた変動後の制御量パラメータV’_iを生成する。ここでは、δだけパラメータ値を増加させる変動を与える。 Specifically, first, a controlled variable parameter V'_i is generated after minute fluctuations in the element value of the i-th dimension of the controlled variable parameter V. Here, a fluctuation is applied that increases the parameter value by δ.
次に変位場算出部140は、前記変動を与えた制御量パラメータV’_iに基づいて変位場D_inner12_i(x,y,z)を算出する。この処理はFFD法を用いた公知の方法と同様であるため、詳細な説明は省略する。
Next, the displacement
さらに変位場算出部140は、前述の方法で算出した変位場D_inner12_i(x,y,z)に基づいて3DCTデータI_2を変形させた場合のI_1との間の類似度を算出する。具体的には、式(4)の処理により画像類似度E_iを算出する。
なお、dx_iは、D_inner12_i(x,y,z)のx軸方向の変位量を表す。同様にdy_iはy軸方向の変位量、dz_iはz軸方向の変位量を表す。濃度値補正項およびウィンドウ変換の効果については、式(3)で述べたものと同様である。 Note that dx_i represents the amount of displacement of D_inner12_i(x, y, z) in the x-axis direction. Similarly, dy_i represents the amount of displacement in the y-axis direction, and dz_i represents the amount of displacement in the z-axis direction. The effects of the density value correction term and window conversion are the same as those described in equation (3).
以上の処理により、i番目の制御量パラメータを変動させた場合の画像類似度E_iが算出される。 By the above process, the image similarity E_i is calculated when the i-th control parameter is varied.
(ステップS20404):インデックスのインクリメント
ステップS20404において変位場算出部140は、制御量パラメータのインデックス値iをインクリメントする処理を実行する。
(Step S20404): Incrementing Index In step S20404, the displacement
(ステップS20405):判定(i>3N)
ステップS20405において変位場算出部140は、制御量パラメータのインデックス値iが制御量パラメータの総数3Nを超えたか否かを判定する。もし超えた場合には処理をステップS20406に進め、そうでない場合には処理をステップS20403に戻す。
(Step S20405): Judgment (i>3N)
In step S20405, the displacement
以上に説明したステップS20403からステップS20405までの処理により、制御量パラメータVの全ての次元の要素値を変動させた場合の画像類似度E_i(1≦i≦3N)が求められる。 By performing the processes from step S20403 to step S20405 described above, the image similarity E_i (1≦i≦3N) is calculated when the element values of all dimensions of the control variable parameter V are varied.
(ステップS20406):変位場の更新
ステップS20406において変位場算出部140は、画像類似度E_orgおよびE_i(1≦i≦3N)に基づいて変位場D_inner12(x,y,z)を更新する処理を実行する。具体的には、画像類似度E_orgおよびE_i(1≦i≦3N)に基づいて制御量パラメータVを更新し、それに基づいて変位場D_inner12(x,y,z)を更新する処理を実行する。
(Step S20406): Updating the Displacement Field In step S20406, the displacement
画像類似度E_orgおよびE_i(1≦i≦3N)に基づく制御量パラメータVの更新は、例えば最急降下法により行うことができる。すなわち、制御量パラメータVを構成する3N個の各要素の値の変動に対する画像類似度の変動量E_i-E_orgを求め、その大きさに比例して制御量パラメータVの各要素の値を補正する。そして、補正後の制御量パラメータVに基づいてD_inner12(x,y,z)を更新する。 The control amount parameter V can be updated based on the image similarities E_org and E_i (1≦i≦3N) using, for example, the steepest descent method. That is, the amount of change E_i-E_org in image similarity relative to the change in the value of each of the 3N elements that make up the control amount parameter V is calculated, and the value of each element of the control amount parameter V is corrected in proportion to the amount of change. Then, D_inner12(x, y, z) is updated based on the corrected control amount parameter V.
(ステップS20407):変位場更新後の類似度算出
ステップS20407において変位場算出部140は、ステップS20406で修正された変位場D_inner12(x,y,z)に基づいて、I_1とI_2との間の画像類似度を算出し、E_orgを更新する処理を実行する。画像類似度の算出方法は式(3)に示す計算方法と同様であり、詳細な説明は省略する。
(Step S20407): Calculation of Similarity After Displacement Field Update In step S20407, the displacement
(ステップS20408):収束判定
ステップS20408において変位場算出部140は、ステップS20407で算出した類似度に基づいて、ステップS2040の処理を終了するか否かの判定を行う。具体的には、画像類似度E_orgが所定の閾値よりも大きい場合にはステップS2040の処理を終了し、そうでない場合には処理をステップS20401に戻す。
(Step S20408): Convergence determination In step S20408, the displacement
以上に説明したステップS20400からステップS20408の処理により、ステップS2040の処理が実行される。 The processing of step S2040 is executed through the processing of steps S20400 to S20408 described above.
次に情報処理装置10はステップS2050からステップS2070の処理として、第一実施形態のステップS1050からステップS1070と同様の処理を実行する。詳細な説明は省略する。 Next, the information processing device 10 executes steps S2050 to S2070, which are the same as steps S1050 to S1070 in the first embodiment. A detailed description will be omitted.
以上の処理により、本発明の第二実施形態における処理が実行される。この方法によれば、第一実施形態と比べて濃度値補正後の画像I’_tを生成して不図示のメモリに保持する必要がないため、より効率的に位置合わせ処理を実施できる効果がある。 The above process executes the process in the second embodiment of the present invention. This method, unlike the first embodiment, has the advantage that it is possible to perform the alignment process more efficiently because it is not necessary to generate the image I'_t after density value correction and store it in a memory (not shown).
(変形例2-1)
本実施形態の説明では、ステップS20400において画像類似度E_orgの算出方法の一例として、式(3)に示すように、I_1の画素値と濃度値補正後のI_2の画素値とを同一のウィンドウ変換関数Wで変換する場合を例として説明した。しかし、本発明の実施はこれに限らない。例えば、式(5)に示すようにI_1の画素値とI_2の画素値とを、異なるウィンドウ変換関数を用いて変換するようにしても良い。例えば、I_1用のウィンドウ変換関数W_1のウィンドウ中心をC_ave_1とし、I_2用のウィンドウ変換関数W_2のウィンドウ中心をC_ave_2に夫々設定しても良い。また、W_1のウィンドウ幅をI_1の肺野内部の濃度値の分散に基づいて設定し、W_2のウィンドウ幅をI_2の肺野内部の濃度値の分散に基づいて設定するようにしても良い。
In the description of this embodiment, as an example of a method for calculating the image similarity E_org in step S20400, the pixel value of I_1 and the pixel value of I_2 after density value correction are converted by the same window conversion function W as shown in formula (3). However, the implementation of the present invention is not limited to this. For example, as shown in formula (5), the pixel value of I_1 and the pixel value of I_2 may be converted by using different window conversion functions. For example, the window center of the window conversion function W_1 for I_1 may be set to C_ave_1, and the window center of the window conversion function W_2 for I_2 may be set to C_ave_2. In addition, the window width of W_1 may be set based on the variance of the density value inside the lung field of I_1, and the window width of W_2 may be set based on the variance of the density value inside the lung field of I_2.
また、ステップS20403において画像類似度E_iの算出方法の一例として式(4)に示す計算を行う場合を例として説明したが、式(5)と同様に、ウィンドウ変換関数W_1およびW_2を用いる式(6)の計算によりE_iを算出してもよい。
以上に説明した方法によれば、I_1およびI_2の夫々に肺野の内部の濃度値の分布の違いに応じたウィンドウ変換が行われるため、ステップS2040の処理として、より精度の高い位置合わせが行える効果がある。 According to the method described above, window conversion is performed on I_1 and I_2 according to the difference in the distribution of density values inside the lung field, so that the processing in step S2040 has the effect of enabling more accurate alignment.
[第三実施形態]
本発明の第三実施形態について説明する。本実施形態は、肺の移動情報として、被検体の肺の滑り量マップを生成する第一実施形態とは異なり、肺の移動情報として、被検体の肺の動き量マップを生成する。
[Third embodiment]
A third embodiment of the present invention will be described. Unlike the first embodiment in which a sliding amount map of the subject's lungs is generated as lung movement information, this embodiment generates a motion amount map of the subject's lungs as lung movement information.
本実施形態に係る情報処理システムの全体構成は第一実施形態の情報処理システムの全体構成の説明として示した図1と同様である。ここでは詳細な説明は省略する。 The overall configuration of the information processing system according to this embodiment is the same as that shown in FIG. 1, which explains the overall configuration of the information processing system according to the first embodiment. A detailed explanation will be omitted here.
図6を用いて、本実施形態における情報処理装置10による全体の処理手順を詳細に説明する。 The overall processing procedure by the information processing device 10 in this embodiment will be described in detail using Figure 6.
(ステップS3000)から(ステップS3040)
ステップS3000からステップS3040において情報処理装置10は、第一実施形態の情報処理装置が実行するステップS1000からステップS1040と同様の処理を実行する。ここでは詳細な説明は省略する。
(Step S3000) to (Step S3040)
In steps S3000 to S3040, the information processing device 10 executes the same processes as those in steps S1000 to S1040 executed by the information processing device of the first embodiment, and detailed description thereof will be omitted here.
(ステップS3060)
ステップS3060において、マップ生成部150は、被検体の肺表面(肺輪郭)上での呼吸による動き量のマップを生成する処理を実行する。この処理は、ステップS3010で算出した吸気位の肺野マスク画像M_1、ステップS3040で算出した変位場D_inner(x,y,z)に基づいて実行する。より具体的には、肺野マスク画像M_1の輪郭部分における変位場D_inner(x,y,z)の変位量を算出し、それを3次元のマップである動き量マップS(x,y,z)として生成する。本実施形態では、動き量マップS(x,y,z)は吸気位の3DCTデータの画像座標系での位置を引数として、当該位置における動き量を返す関数である。より具体的には、3DCTデータと同程度に離散化されたボリュームデータとして保持する。この動き量マップS(x,y,z)は、2つの時相(状態)の間での肺の動き量の分布を表すものである。マップ生成部150は、必要に応じて、生成した動き量マップS(x,y,z)を、不図示の記憶部、あるいは、検査画像データベース30に、被検体の検査画像と対応付けて保存する処理を行う。
(Step S3060)
In step S3060, the
(ステップS3070)
ステップS3070において表示制御部160は、ステップS3060で算出した動き量マップS(x,y,z)を表示装置60に表示させるための制御を行う。具体的な制御方法は、第一実施形態のステップS1070で説明した滑り量マップの表示制御と同様にして行うことができる。詳細な説明は省略する。
(Step S3070)
In step S3070, the
以上に説明した方法により、本実施形態の情報処理装置10の処理が実行される。これによれば、呼吸状態の異なる3DCTデータ間の位置合わせを高い精度で実行できるため、被検体の胸膜の癒着状態の把握、診断の支援に有効な動き量マップをユーザに提供できる。 The information processing device 10 of this embodiment performs processing using the method described above. This allows for highly accurate alignment of 3DCT data representing different respiratory states, making it possible to provide the user with a motion map that is effective in understanding the state of pleural adhesions in the subject and in assisting in diagnosis.
(変形例3-1)
本実施形態の説明では、ステップS3060において動き量マップを生成する場合を例として説明したが、本発明の実施はこれに限らない。例えば、ステップS3060の処理として肺の換気量マップを算出するようにしても良い。この場合、ステップS3040で算出した肺野内の変位場D_inner(x,y,z)に基づいて肺野内の各位置での体積の変化量の大小を可視化するようにしても良い。例えば、吸気位から呼気位への変位を表す変位場D_inner(x,y,z)を算出する本実施では、正常な肺機能を有する被検体であれば、肺野内における変位量は体積が大きく収縮する変位となる。これに対し、局所的な体積の収縮が小さい場合などには、当該箇所の肺の換気機能の障害が疑われる。本発明の実施の一例としては、そのような個所の存在をユーザが視認できるように、肺野内の変位場から局所的な体積の変化の状態を可視化する画像を生成してもよい。
(Variation 3-1)
In the description of this embodiment, the case where a motion amount map is generated in step S3060 has been described as an example, but the implementation of the present invention is not limited to this. For example, a ventilation amount map of the lungs may be calculated as the process of step S3060. In this case, the magnitude of the volume change amount at each position in the lung field may be visualized based on the displacement field D_inner (x, y, z) in the lung field calculated in step S3040. For example, in this embodiment in which the displacement field D_inner (x, y, z) representing the displacement from the inspiration position to the expiration position is calculated, if the subject has normal lung function, the displacement amount in the lung field is a displacement in which the volume contracts greatly. On the other hand, if the contraction of the local volume is small, etc., a disturbance in the ventilation function of the lung at that location is suspected. As an example of the implementation of the present invention, an image that visualizes the state of the local volume change from the displacement field in the lung field may be generated so that the user can visually recognize the presence of such a location.
また、異なる呼吸時相で撮像した肺の3次元画像間の位置合わせを行ういずれの目的に対しても、ステップS3000からステップS3040までの処理を実施することができる。これによると、呼吸時相の違いによる肺野内の濃度値の変化に起因する位置合わせの誤差を軽減した、正確な位置合わせを行うことができる。 In addition, the processes from step S3000 to step S3040 can be performed for any purpose of aligning three-dimensional images of the lungs captured at different respiratory phases. This allows accurate alignment to be performed with reduced alignment errors caused by changes in density values in the lung field due to differences in respiratory phases.
[その他の実施形態]
上述した実施形態は本発明の一例にすぎず、本発明の構成および範囲は上述した実施形態に限定されるものではない。複数の実施形態の処理を組み合せてもよいし、複数の変形例の処理を組み合わせてもよい。
[Other embodiments]
The above-described embodiment is merely an example of the present invention, and the configuration and scope of the present invention are not limited to the above-described embodiment. The processes of multiple embodiments may be combined, or the processes of multiple modified examples may be combined.
上述した実施形態では、肺野の画像の位置合わせに本発明を適用した場合の処理例を説明したが、本発明の適用対象は肺野の画像に限られず、動きがあり且つ画像の濃度値が変動し得る対象物であれば、本発明の位置合わせ処理を好ましく適用できる。例えば、造影条件の異なる心臓の画像の位置合わせに本発明を適用することができる。具体的には、造
影をした状態(造影剤を導入した状態)の心臓を撮影した画像と、同部位を非造影で(造影剤を導入しない状態で)撮影した画像との間の位置合わせに関して、本発明を適用してもよい。また、造影剤の血中濃度が所定値より高い状態の心臓を撮影した画像と、造影剤の血中濃度が所定値より低い状態の心臓を撮影した画像との位置合わせに関して、本発明を適用してもよい。また、肺や心臓以外の臓器の画像に対して本発明を適用してもよい。
In the above embodiment, a processing example in which the present invention is applied to the alignment of lung field images has been described, but the application of the present invention is not limited to lung field images, and the alignment process of the present invention can be preferably applied to any object that moves and whose image density value can change. For example, the present invention can be applied to the alignment of heart images with different contrast conditions. Specifically, the present invention may be applied to the alignment between an image of the heart photographed in a contrast-enhanced state (a state in which a contrast agent is introduced) and an image of the same part photographed without contrast (a state in which a contrast agent is not introduced). The present invention may also be applied to the alignment between an image of the heart photographed in a state in which the blood concentration of the contrast agent is higher than a predetermined value and an image of the heart photographed in a state in which the blood concentration of the contrast agent is lower than a predetermined value. The present invention may also be applied to images of organs other than the lungs and the heart.
また、開示の技術は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インターフェイス機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、1つの機器からなる装置に適用しても良い。 The disclosed technology can be embodied, for example, as a system, device, method, program, or recording medium (storage medium). Specifically, it may be applied to a system consisting of multiple devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or it may be applied to an apparatus consisting of a single device.
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。 Needless to say, the object of the present invention can be achieved by the following: A recording medium (or storage medium) on which is recorded software program code (computer program) that realizes the functions of the above-mentioned embodiments is supplied to a system or device. The storage medium is, of course, a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or device reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-mentioned embodiments, and the recording medium on which the program code is recorded constitutes the present invention.
10:情報処理装置
100:検査画像取得部
110:領域抽出部
120:平均濃度値算出部
130:濃度値補正部
140:変位場算出部
150:マップ生成部
10: Information processing device 100: Inspection image acquisition unit 110: Region extraction unit 120: Average density value calculation unit 130: Density value correction unit 140: Displacement field calculation unit 150: Map generation unit
Claims (17)
前記第1の画像と前記第2の画像との位置合わせ処理を行う画像処理部と、を有し、
前記画像処理部は、
前記第1の画像における前記対象物の領域の画素値の統計量と前記第2の画像における前記対象物の領域の画素値の統計量との差が小さくなるように、推定された画素の空気の含有比率に基づいて、前記第1の画像および前記第2の画像のうち、少なくとも一方の画像の画素値を変換する変換処理を実行し、
前記変換処理によって変換された画素値に基づいて、前記第1の画像と前記第2の画像の間での前記対象物の領域内の画素の対応関係を取得する第1の位置合わせ処理を実行することを特徴とする情報処理装置。 an image acquisition unit that acquires a first image and a second image captured at different times of a moving object;
an image processing unit that performs a registration process between the first image and the second image,
The image processing unit includes:
performing a conversion process for converting pixel values of at least one of the first image and the second image based on the estimated air content ratio of the pixel so that a difference between statistics of pixel values of the region of the object in the first image and statistics of pixel values of the region of the object in the second image becomes small;
An information processing device characterized by performing a first alignment process to obtain a correspondence between pixels within the object area between the first image and the second image based on pixel values converted by the conversion process.
前記対象物の周囲の領域である周囲領域について、前記第1の画像と前記第2の画像の間での前記周囲領域内の画素の対応関係を取得する第2の位置合わせ処理を実行し、
前記対象物の領域内の画素の対応関係と前記周囲領域内の画素の対応関係とに基づいて、前記対象物の領域と前記周囲領域の間の滑り量の分布を取得することを特徴とする請求項1に記載の情報処理装置。 The image processing unit further includes:
performing a second registration process for acquiring a correspondence relationship between pixels in a surrounding region between the first image and the second image, the surrounding region being a region around the object;
The information processing device according to claim 1 , further comprising: acquiring a distribution of the amount of slippage between the object region and the surrounding region based on a corresponding relationship between pixels in the object region and a corresponding relationship between pixels in the surrounding region.
前記第1の画像と前記第2の画像の間での前記対象物の領域内の画素の対応関係に基づいて、前記第1の画像の状態と前記第2の画像の状態の間での前記対象物の動き量の分
布を取得することを特徴とする請求項1~3のうちいずれか1項に記載の情報処理装置。 The image processing unit further includes:
An information processing device as described in any one of claims 1 to 3, characterized in that a distribution of the amount of movement of the object between the state of the first image and the state of the second image is obtained based on the correspondence of pixels within the area of the object between the first image and the second image.
前記第1の画像における前記対象物の領域の画素値の統計量と前記第2の画像における前記対象物の領域の画素値の統計量との差が小さくなるように、前記第1の画像および前記第2の画像のうち、少なくとも一方の画像の画素値を変換し、さらに、
変換後の前記第1の画像および/または前記第2の画像に対し、所定のウィンドウを用いたウィンドウ変換を行うことを特徴とする請求項5に記載の情報処理装置。 The image processing unit includes:
converting pixel values of at least one of the first image and the second image so that a difference between a statistical amount of pixel values of the region of the object in the first image and a statistical amount of pixel values of the region of the object in the second image becomes small; and
6. The information processing apparatus according to claim 5, further comprising: a window conversion step for converting the first image and/or the second image into a window image using a predetermined window.
前記第1の画像における前記対象物の領域の画素値の統計量に基づいて設定した第1のウィンドウを用いて、前記第1の画像に対するウィンドウ変換を行うと共に、
前記第2の画像における前記対象物の領域の画素値の統計量に基づいて設定した第2のウィンドウを用いて、前記第2の画像に対するウィンドウ変換を行うことを特徴とする請求項5に記載の情報処理装置。 The image processing unit includes:
performing a window transformation on the first image using a first window set based on statistics of pixel values of the region of the object in the first image;
6. The information processing apparatus according to claim 5, further comprising: a window conversion unit that converts the second image into a second window that is set based on statistics of pixel values of the region of the object in the second image.
前記画像処理部は、
前記中間状態の画像、前記第1の画像、および前記第2の画像の間での前記対象物の領域の画素値の統計量の差が小さくなるように、前記中間状態の画像、前記第1の画像、および前記第2の画像のうち少なくとも2つの画像の画素値を変換し、
変換された画素値に基づいて、前記第1の画像と前記中間状態の画像の間での前記対象物の領域内の画素の対応関係である第1の対応関係と、前記中間状態の画像と前記第2の画像の間での前記対象物の領域内の画素の対応関係である第2の対応関係とを取得し、
前記第1の対応関係と前記第2の対応関係を統合することにより、前記第1の画像と前記第2の画像の間での前記対象物の領域内の画素の対応関係を示す前記第1の位置合わせ処理の結果を生成することを特徴とする請求項1~7のうちいずれか1項に記載の情報処理装置。 the image acquisition unit acquires an intermediate image captured in a state between the first image and the second image,
The image processing unit includes:
converting pixel values of at least two images among the intermediate state image, the first image, and the second image so that a difference in statistics of pixel values of the region of the object among the intermediate state image, the first image, and the second image is reduced;
obtaining a first correspondence relationship, which is a correspondence relationship of pixels in the region of the object between the first image and the intermediate state image, and a second correspondence relationship, which is a correspondence relationship of pixels in the region of the object between the intermediate state image and the second image, based on the converted pixel values;
The information processing device according to any one of claims 1 to 7, characterized in that the result of the first alignment process indicating the correspondence of pixels within the area of the object between the first image and the second image is generated by integrating the first correspondence and the second correspondence.
前記第1の画像と前記第2の画像の間での前記対象物の領域内の画素の対応関係を示す前記第1の位置合わせ処理の結果を取得した後、
前記対応関係に基づいて、前記第1の画像と前記第2の画像の間での前記対象物の体積変化を算出し、
前記対象物の体積変化に基づいて、前記第1の画像および/または前記第2の画像の変換後の画素値を補正し、
補正された画素値に基づいて、前記第1の画像と前記第2の画像の間での前記対象物の領域内の画素の対応関係を修正することを特徴とする請求項1~8のうちいずれか1項に記載の情報処理装置。 The image processing unit includes:
After obtaining a result of the first registration process indicating a correspondence relationship of pixels within a region of the object between the first image and the second image,
calculating a volume change of the object between the first image and the second image based on the correspondence relationship;
correcting transformed pixel values of the first image and/or the second image based on a volume change of the object;
The information processing device according to any one of claims 1 to 8, characterized in that the correspondence between pixels within the area of the object between the first image and the second image is corrected based on the corrected pixel values.
前記第1の画像と前記第2の画像との位置合わせ処理を行うステップと、を有し、
前記位置合わせ処理において、
前記第1の画像における前記対象物の領域の画素値の統計量と前記第2の画像における前記対象物の領域の画素値の統計量との差が小さくなるように、推定された画素の空気の含有比率に基づいて、前記第1の画像および前記第2の画像のうち、少なくとも一方の画像の画素値を変換する変換処理を実行し、
前記変換処理によって変換された画素値に基づいて、前記第1の画像と前記第2の画像の間での前記対象物の領域内の画素の対応関係を取得する第1の位置合わせ処理を実行することを特徴とする情報処理方法。 acquiring a first image and a second image of a moving object captured at different times;
performing a registration process between the first image and the second image;
In the alignment process,
performing a conversion process for converting pixel values of at least one of the first image and the second image based on the estimated air content ratio of the pixel so that a difference between statistics of pixel values of the region of the object in the first image and statistics of pixel values of the region of the object in the second image becomes small;
An information processing method, comprising: executing a first alignment process to obtain a correspondence between pixels within the object area between the first image and the second image based on pixel values converted by the conversion process.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020126579A JP7556715B2 (en) | 2020-07-27 | 2020-07-27 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020126579A JP7556715B2 (en) | 2020-07-27 | 2020-07-27 | Information processing device, information processing method, and program |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2022023564A JP2022023564A (en) | 2022-02-08 |
| JP2022023564A5 JP2022023564A5 (en) | 2023-08-01 |
| JP7556715B2 true JP7556715B2 (en) | 2024-09-26 |
Family
ID=80226259
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020126579A Active JP7556715B2 (en) | 2020-07-27 | 2020-07-27 | Information processing device, information processing method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7556715B2 (en) |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005028121A (en) | 2003-06-17 | 2005-02-03 | Iyo Gazo Kenkyusho:Kk | Method of measuring ventilation distribution by respiratory ct image |
| JP2006223739A (en) | 2005-02-21 | 2006-08-31 | Hitachi Medical Corp | Difference image generating device |
| JP2013176550A (en) | 2012-02-02 | 2013-09-09 | Toshiba Corp | Medical image processor, x-ray ct scanner and medical image processing method |
| JP2016067832A (en) | 2014-10-01 | 2016-05-09 | キヤノン株式会社 | Medical image processor, and medical image processing method |
| JP2016189946A (en) | 2015-03-31 | 2016-11-10 | 富士フイルム株式会社 | Medical image alignment apparatus and method, and program |
| JP2017189338A (en) | 2016-04-13 | 2017-10-19 | 富士フイルム株式会社 | Image alignment apparatus and method, and program |
| JP2017189337A (en) | 2016-04-13 | 2017-10-19 | 富士フイルム株式会社 | Image positioning apparatus and method, and program |
| JP2017196410A (en) | 2016-04-26 | 2017-11-02 | 東芝メディカルシステムズ株式会社 | Medical image processing apparatus and medical image diagnostic apparatus |
| JP2019136444A (en) | 2018-02-15 | 2019-08-22 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
-
2020
- 2020-07-27 JP JP2020126579A patent/JP7556715B2/en active Active
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005028121A (en) | 2003-06-17 | 2005-02-03 | Iyo Gazo Kenkyusho:Kk | Method of measuring ventilation distribution by respiratory ct image |
| JP2006223739A (en) | 2005-02-21 | 2006-08-31 | Hitachi Medical Corp | Difference image generating device |
| JP2013176550A (en) | 2012-02-02 | 2013-09-09 | Toshiba Corp | Medical image processor, x-ray ct scanner and medical image processing method |
| JP2016067832A (en) | 2014-10-01 | 2016-05-09 | キヤノン株式会社 | Medical image processor, and medical image processing method |
| JP2016189946A (en) | 2015-03-31 | 2016-11-10 | 富士フイルム株式会社 | Medical image alignment apparatus and method, and program |
| JP2017189338A (en) | 2016-04-13 | 2017-10-19 | 富士フイルム株式会社 | Image alignment apparatus and method, and program |
| JP2017189337A (en) | 2016-04-13 | 2017-10-19 | 富士フイルム株式会社 | Image positioning apparatus and method, and program |
| JP2017196410A (en) | 2016-04-26 | 2017-11-02 | 東芝メディカルシステムズ株式会社 | Medical image processing apparatus and medical image diagnostic apparatus |
| JP2019136444A (en) | 2018-02-15 | 2019-08-22 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2022023564A (en) | 2022-02-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9962086B2 (en) | Medical image data processing apparatus and method for determining the presence of an abnormality | |
| US9117287B2 (en) | Image analysis apparatus, method, and program | |
| JP4787171B2 (en) | Elastic image alignment | |
| JP4560643B2 (en) | Ventilation distribution measurement method using respiratory CT images | |
| JP6532206B2 (en) | Medical image processing apparatus, medical image processing method | |
| CN102802534B (en) | Medical image conversion device, method, and program | |
| WO2020235461A1 (en) | Abnormality detection method, abnormality detection program, abnormality detection device, server device, and information processing method | |
| JP7409624B2 (en) | Information processing device, information processing method, and program | |
| JP2020182524A (en) | Image processing device, image processing method and program | |
| JP7536653B2 (en) | Image processing device, image processing method, and program | |
| CN114298986B (en) | Chest bone three-dimensional construction method and system based on multi-view disordered X-ray film | |
| JP6273940B2 (en) | Image analysis apparatus, image photographing system, and image analysis program | |
| CN114037803B (en) | Medical image three-dimensional reconstruction method and system | |
| JP7551419B2 (en) | Information processing device, information processing method, and program | |
| CN101479769A (en) | Model-based determination of the contraction status of a periodically contracting object | |
| JP7556715B2 (en) | Information processing device, information processing method, and program | |
| JP2007526033A (en) | Apparatus and method for registering an image of a structured object | |
| JP7643875B2 (en) | Information processing device, information processing method, and program | |
| CN117476238B (en) | Computational fluid dynamics simulation analysis method and system for evaluating myocardial ischemia | |
| JP7776455B2 (en) | Learning device, learning method, trained model, and program | |
| JP7500360B2 (en) | Information processing device, information processing method, and program | |
| JP6501569B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM | |
| KR100333678B1 (en) | Method for obtaining subtraction by rib segmentation in chest images | |
| CN106446572A (en) | Lung respiratory movement acquisition method based on boundary meta-model and local region correction | |
| JP6748762B2 (en) | Medical image processing apparatus and medical image processing method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230724 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230724 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240126 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240305 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240415 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240604 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240801 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240820 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240912 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7556715 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |