[go: up one dir, main page]

JP2000342558A - Image positioning processor and inter-picture arithmetic processor - Google Patents

Image positioning processor and inter-picture arithmetic processor

Info

Publication number
JP2000342558A
JP2000342558A JP11157821A JP15782199A JP2000342558A JP 2000342558 A JP2000342558 A JP 2000342558A JP 11157821 A JP11157821 A JP 11157821A JP 15782199 A JP15782199 A JP 15782199A JP 2000342558 A JP2000342558 A JP 2000342558A
Authority
JP
Japan
Prior art keywords
image
images
alignment
partial
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11157821A
Other languages
Japanese (ja)
Other versions
JP2000342558A5 (en
Inventor
Akiko Yanagida
亜紀子 柳田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP11157821A priority Critical patent/JP2000342558A/en
Publication of JP2000342558A publication Critical patent/JP2000342558A/en
Publication of JP2000342558A5 publication Critical patent/JP2000342558A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To efficiently, stably and automatically process a precise positioning though there is relatively large positional deviation between the radiation images of a human body. SOLUTION: This positioning processor 1 processes the positioning between plural images including a common subject. The processor 1 has a partial area setting means 2 for setting plural partial areas in at least one image among the plural images, a partial similarity deciding means 3 for deciding similarity to a corresponding area in another image by each set partial area, a whole area similarity deciding means 4 for deciding whole area similarity by weight- adding decided partial area similarity through the use of weighting coefficient set to each partial area, an image converting condition deciding means 6 for deciding an image converting condition for positioning one image to the other image based on decided whole area similarity, and an image converting means 7 for positioning an image by converting the images based on the decided converting condition.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、画像の位置合わ
せ処理装置及び画像間演算処理装置に関し、特に、複数
の画像間における被写体の相対的な位置ずれを精度良く
かつ効率良く合わせる技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image alignment processing apparatus and an inter-image arithmetic processing apparatus, and more particularly to a technique for accurately and efficiently adjusting a relative displacement of a subject between a plurality of images.

【0002】[0002]

【従来の技術】例えば、X線画像のような放射線画像
は、病気診断用等に多く用いられており、このX線画像
を得るために、被写体を透過したX線を蛍光体層(蛍光
スクリーン)に照射し、これにより可視光を生じさせて
この可視光を通常の写真と同様に銀塩を使用したフィル
ムに照射して現像した、所謂、放射線写真が従来から多
く利用されている。
2. Description of the Related Art For example, radiographic images such as X-ray images are widely used for diagnosing diseases and the like. In order to obtain such X-ray images, X-rays transmitted through a subject are applied to a phosphor layer (fluorescent screen). ), Thereby producing visible light, and irradiating the visible light to a film using a silver salt in the same manner as in a normal photograph and developing the film.

【0003】しかし、近年、銀塩を塗布したフィルムを
使用しないで、蛍光体層から直接画像を取り出す方法が
工夫されるようになってきている。この方法としては、
被写体を透過した放射線を蛍光体に吸収せしめ、しかる
後、この蛍光体を例えば光又は熱エネルギーで励起する
ことによりこの蛍光体が上記吸収により蓄積している放
照射エネルギーを蛍光として放射せしめ、この蛍光を光
電変換し、更にA/D変換してディジタル画像信号を得
る方法がある(米国特許3,859,527号、特開昭
55−12144号公報等参照)。
However, in recent years, a method has been devised for directly taking out an image from a phosphor layer without using a film coated with a silver salt. This includes:
The radiation that has passed through the subject is absorbed by the phosphor, and then the phosphor is excited by, for example, light or heat energy to emit the radiation energy that the phosphor has accumulated due to the absorption as fluorescence. There is a method in which fluorescence is photoelectrically converted and A / D converted to obtain a digital image signal (see U.S. Pat. No. 3,859,527, JP-A-55-12144).

【0004】このようにして得られた放射線画像信号
は、そのままの状態で、或いは画像処理を施されて銀塩
フィルム、CRT等に出力されて可視化される。また、
放射線画像を記録した銀塩フィルムに、レーザ・蛍光灯
等の光源からの光を照射して、銀塩フィルムの透過光を
得て、かかる透過光を光電変換して放射線画像信号を得
る方法もある。
The thus obtained radiation image signal is output as it is or after being subjected to image processing to a silver halide film, a CRT or the like, and is visualized. Also,
A method of irradiating a silver halide film on which a radiation image is recorded with light from a light source such as a laser or a fluorescent lamp to obtain transmitted light of the silver halide film, and photoelectrically converting the transmitted light to obtain a radiation image signal. is there.

【0005】一方、従来から、共通の被写体部分を含む
複数の画像間で、テンプレートマッチング法に基づい
て、被写体の相対的な位置ずれを合わせる位置合わせ処
理が公知となっている。即ち、検出しようとする対象を
表すテンプレートt(x,y)を画像f(x,y)中の
点(i,j)にその中心が重なるようにし、t(x,
y)とそれと重なる画像の部分パターンとの類似度を測
り、その値を点(i,j)に対象が存在する確からしさ
とする方法である。対象物の位置を求めるには、この操
作を画像のすべての点に対して施し、類似度が最大とな
る位置を求めたり、類似度がある閥値を超える位置を探
したりするものがある(コンピュータ画像処理入門 日
本工業技術センター編 平成3年4月1日第1版第9刷
第149頁参照)。
[0005] On the other hand, conventionally, there has been known a positioning process for adjusting a relative positional shift of a subject between a plurality of images including a common subject portion based on a template matching method. That is, the center of the template t (x, y) representing the target to be detected is overlapped with the point (i, j) in the image f (x, y), and t (x, y) is set.
This is a method of measuring the similarity between y) and the partial pattern of the image that overlaps with y), and using the value as a probability that the target exists at the point (i, j). In order to determine the position of the object, there is a method in which this operation is performed on all points of the image to find a position where the similarity is maximum, or to search for a position where the similarity exceeds a certain threshold value ( Introduction to Computer Image Processing, edited by Japan Industrial Technology Center, April 1, 1991, 1st edition, 9th printing, page 149).

【0006】ここで、共通の被写体部分を含む2枚の画
像を用い、一方の画像から切り出した部分画像をテンプ
レートt、他方の画像を画像fと見なして上記処理を行
うことにより、2枚の画像間の位置合わせを行うことが
できる。
Here, two images including a common subject portion are used, a partial image cut out from one image is regarded as a template t, and the other image is regarded as an image f, and the above-described processing is performed. Registration between images can be performed.

【0007】[0007]

【発明が解決しようとする課題】ところで、2枚の画像
の位置合わせ手法としてのテンプレートマッチング法
は、画像全体に対して小さいテンプレートを用いた場合
には、人体のX線画像のような複雑な画像の全体を精度
良く位置合わせすることが困難である。
By the way, the template matching method as a method of aligning two images uses a complicated template such as an X-ray image of a human body when a small template is used for the entire image. It is difficult to accurately position the entire image.

【0008】また、例えば異なる時期に撮影された同一
患者の2枚の胸部画像間では、診断の対象となる病理的
変化以外にも、種々の変化が含まれ、一般に胸部X線画
像の胸郭外の領域には、肩当て具やlD情報ラベルなど
人体以外の物体の写り込みがあり、また被検者の腕の姿
勢も一定しないため画像情報の再現性はきわめて低い
が、画像全体に対して大きいテンプレートを用いると、
それらの再現性の低い領域がテンプレートに含まれ、位
置合わせ誤差が大きくなるという問題もあった。
For example, between two chest images of the same patient taken at different times, various changes are included in addition to the pathological changes to be diagnosed. In the area, there is a reflection of an object other than the human body such as a shoulder rest and an ID information label, and the reproducibility of image information is extremely low because the posture of the subject's arm is not constant. With a large template,
There is also a problem that such low reproducibility regions are included in the template and the positioning error increases.

【0009】この発明は前記問題点に鑑みなされたもの
であり、人体の放射線画像の間で相対的に大きな位置ず
れがあっても、精度良く位置合わせする処理を、効率的
かつ安定的に自動処理できるようにする画像の位置合わ
せ処理装置及び画像間処理装置を提供することを目的と
する。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and performs an efficient and stable automatic alignment process even if there is a relatively large displacement between radiation images of a human body. It is an object of the present invention to provide an image registration processing device and an image-to-image processing device that enable processing.

【0010】[0010]

【課題を解決するための手段】前記課題を解決するため
に、この発明は、以下のように構成した。
Means for Solving the Problems In order to solve the above problems, the present invention is configured as follows.

【0011】請求項1に記載の発明は、『共通の被写体
を含む複数の画像間で位置合わせ処理を行う画像の位置
合わせ処理装置であって、前記複数の画像のうち少なく
とも一つの画像内に複数の部分領域を設定する部分領域
設定手段と、設定された部分領域毎に、他の画像内の対
応する領域との間の類似度を決定する部分領域類似度決
定手段と、決定された部分領域類似度を、各部分領域に
対して設定された重み係数を用いて重み付け加算するこ
とにより、全体領域類似度を決定する全体領域類似度決
定手段と、決定された全体領域類似度に基づいて、一方
の画像を他の画像に位置合わせするための画像変換条件
を決定する画像変換条件決定手段と、決定された画像変
換条件に基づいて画像変換を行うことにより、画像の位
置合わせを行う画像変換手段を有することを特徴とする
画像の位置合わせ処理装置。』である。
According to a first aspect of the present invention, there is provided an image alignment processing apparatus for performing an alignment process between a plurality of images including a common subject, wherein at least one of the plurality of images includes A partial area setting means for setting a plurality of partial areas; a partial area similarity determining means for determining a similarity between corresponding areas in other images for each of the set partial areas; The area similarity is weighted and added using a weighting factor set for each partial area, so that the entire area similarity determining means for determining the overall area similarity is determined based on the determined overall area similarity. Image conversion condition determining means for determining an image conversion condition for aligning one image with another image, and performing image conversion based on the determined image conversion condition, thereby performing image alignment. Positioning processing apparatus for an image, characterized in that it comprises a conversion means. ].

【0012】この請求項1に記載の発明によれば、複数
の画像のうち少なくとも一つの画像内に複数の部分領域
を設定し、この設定された部分領域毎に、他の画像内の
対応する領域との間の類似度を決定し、決定された部分
領域類似度を、各部分領域に対して設定された重み係数
を用いて重み付け加算することにより、全体領域類似度
を決定し、決定された全体領域類似度に基づいて、一方
の画像を他の画像に位置合わせするための画像変換条件
を決定し、決定された画像変換条件に基づいて画像変換
を行うことにより、人体の放射線画像の間で相対的に位
置ずれがあっても、精度良く位置合わせする処理を、効
率的かつ安定的に自動処理できる。
According to the first aspect of the present invention, a plurality of partial areas are set in at least one of the plurality of images, and each of the set partial areas corresponds to a corresponding one in another image. The overall area similarity is determined by determining the similarity between the area and the determined partial area similarity by weighting and adding using the weighting factor set for each partial area. Based on the overall area similarity determined, an image conversion condition for aligning one image with another image is determined, and image conversion is performed based on the determined image conversion condition, thereby obtaining a radiation image of a human body. Even if there is a relative misalignment between them, the process of positioning with high accuracy can be performed efficiently and stably automatically.

【0013】請求項2に記載の発明は、『前記共通の被
写体が人体の一部であり、前記複数の画像のうち少なく
とも一つの画像から人体の解剖学的構造を抽出する解剖
学的構造抽出手段を有し、前記部分領域設定手段は、前
記解剖学的構造抽出手段における抽出結果に基づいて前
記複数の部分領域を設定することを特徴とする請求項1
に記載の画像の位置合わせ処理装置。』である。
According to a second aspect of the present invention, there is provided a method for extracting an anatomical structure, wherein the common subject is a part of a human body and an anatomical structure of the human body is extracted from at least one of the plurality of images. 2. The apparatus according to claim 1, wherein said partial area setting means sets said plurality of partial areas based on an extraction result of said anatomical structure extracting means.
An image alignment processing apparatus according to claim 1. ].

【0014】この請求項2に記載の発明によれば、共通
の被写体が人体の一部であり、複数の画像のうち少なく
とも一つの画像から人体の解剖学的構造を抽出し、抽出
結果に基づいて複数の部分領域を設定することにより、
人体の放射線画像の間で相対的に位置ずれがあっても、
精度良く位置合わせする処理を、効率的かつ安定的に自
動処理できる。
According to the second aspect of the present invention, the common subject is a part of the human body, and the anatomical structure of the human body is extracted from at least one of a plurality of images, and the extraction is performed based on the extraction result. By setting multiple partial areas
Even if there is a relative displacement between radiation images of the human body,
It is possible to efficiently and stably automatically perform the process of positioning with high accuracy.

【0015】請求項3に記載の発明は、『前記複数の画
像のうち少なくとも一つの画像内に注目位置を指定する
注目位置指定手段を有し、指定された注目位置に基づい
て前記複数の部分領域を設定することを特徴とする請求
項1または請求項2に記載の画像の位置合わせ処理装
置。』である。
According to a third aspect of the present invention, there is provided an image processing apparatus, comprising: an attention position designating means for designating an attention position in at least one of the plurality of images; 3. The apparatus according to claim 1, wherein an area is set. ].

【0016】この請求項3に記載の発明によれば、複数
の画像のうち少なくとも一つの画像内に注目位置を指定
し、指定された注目位置に基づいて複数の部分領域を設
定するから、注目位置に着目することでよりずれを精度
良く位置合わせすることができる。
According to the third aspect of the present invention, the attention position is designated in at least one of the plurality of images, and the plurality of partial regions are set based on the designated attention position. By focusing on the position, it is possible to more accurately align the displacement.

【0017】請求項4に記載の発明は、『前記複数の画
像のうち少なくとも一つの画像内に注目位置を指定する
注目位置指定手段を有し、前記複数の部分領域のうち、
指定された注目位置を含む部分領域に対応する重み係数
が、他の部分領域に対応する重み係数よりも大きくなる
ように前記重み係数を設定することを特徴とする請求項
1乃至請求項3のいずれか1項に記載の画像の位置合わ
せ処理装置。』である。
According to a fourth aspect of the present invention, there is provided an image processing apparatus, comprising: an attention position designation means for designating an attention position in at least one of the plurality of images;
4. The weighting factor according to claim 1, wherein the weighting factor is set such that a weighting factor corresponding to a partial area including the designated target position is larger than a weighting factor corresponding to another partial area. An image alignment processing apparatus according to any one of the preceding claims. ].

【0018】この請求項4に記載の発明によれば、複数
の画像のうち少なくとも一つの画像内に注目位置を指定
し、複数の部分領域のうち、指定された注目位置を含む
部分領域に対応する重み係数が、他の部分領域に対応す
る重み係数よりも大きくなるように重み係数を設定する
ことで、注目位置に着目して位置ずれをより精度良く位
置合わせすることができる。
According to the fourth aspect of the present invention, a position of interest is designated in at least one of the plurality of images, and a plurality of partial regions correspond to a partial region including the designated position of interest. By setting the weighting factor such that the weighting factor to be performed is larger than the weighting factor corresponding to the other partial area, it is possible to focus on the target position and more accurately perform the positional displacement.

【0019】請求項5に記載の発明は、『前記画像変換
手段は、前記決定された画像変換条件に基づいて画像変
換を行うことにより、画像の位置合わせを行う粗位置合
わせの後に、精位置合わせの2段階の画像の位置合わせ
を行なうことを特徴とする請求項1乃至請求項4のいず
れか1項に記載の画像の位置合わせ処理装置。』であ
る。
According to a fifth aspect of the present invention, there is provided an image processing apparatus, comprising: "the image conversion means performs image conversion based on the determined image conversion condition, thereby performing fine position adjustment after coarse alignment for image alignment. The image alignment processing apparatus according to claim 1, wherein image alignment is performed in two stages of alignment. ].

【0020】この請求項5に記載の発明によれば、粗位
置合わせの後に、精位置合わせの2段階の画像の位置合
わせを行なうことで、比較的短い処理時間で位置合わせ
精度を向上することができる。
According to the fifth aspect of the present invention, the accuracy of the alignment is improved in a relatively short processing time by performing the two-stage image alignment of the fine alignment after the coarse alignment. Can be.

【0021】請求項6に記載の発明は、『請求項1乃至
請求項5のいずれか1項に記載の画像の位置合わせ処理
装置で位置合わせが行われた複数の画像を同時に表示す
る画像表示手段を有することを特徴とする画像の位置合
わせ処理装置。』である。
According to a sixth aspect of the present invention, there is provided an image display apparatus for simultaneously displaying a plurality of images that have been aligned by the image alignment processing apparatus according to any one of the first to fifth aspects. An image alignment processing apparatus comprising: ].

【0022】この請求項6に記載の発明によれば、画像
の位置合わせ処理装置で位置合わせが行われた複数の画
像を同時に表示するから、位置ずれのない画像により比
較読影に基づく診断を容易にかつ正確で、しかも迅速に
行うことができる。
According to the sixth aspect of the present invention, since a plurality of images that have been aligned by the image alignment processing device are displayed at the same time, diagnosis based on comparative image interpretation can be easily performed using images without positional deviation. Accurate and fast.

【0023】請求項7に記載の発明は、『請求項1乃至
請求項5のいずれか1項に記載の画像の位置合わせ処理
装置で位置合わせが行われた複数の画像間で演算を行う
画像間演算手段を有することを特徴とする画像間演算処
理装置。』である。
According to a seventh aspect of the present invention, there is provided an image processing apparatus for performing an operation between a plurality of images that have been aligned by the image alignment processing apparatus according to any one of the first to fifth aspects. An inter-image calculation processing device comprising an inter-calculation means. ].

【0024】この請求項7に記載の発明によれば、画像
の位置合わせ処理装置で位置合わせが行われた複数の画
像間で演算を行うから、演算負担を軽減しつつ、細かな
位置合わせの精度が確保される。
According to the seventh aspect of the present invention, since calculation is performed between a plurality of images that have been aligned by the image alignment processing apparatus, fine alignment can be performed while reducing the calculation load. Accuracy is ensured.

【0025】請求項8に記載の発明は、『請求項1乃至
請求項5のいずれか1項に記載の画像の位置合わせ処理
装置で位置合わせが行われた複数の画像間で演算を行う
画像間演算手段と、位置合わせが行われた複数の画像ま
たは画像間演算により生成された演算処理画像を表示す
る画像表示手段を有することを特徴とする画像間演算処
理装置。』である。
According to an eighth aspect of the present invention, there is provided an image processing apparatus for performing an operation between a plurality of images that have been aligned by the image alignment processing apparatus according to any one of the first to fifth aspects. An inter-image calculation processing device comprising: inter-calculation means; and image display means for displaying a plurality of images having undergone alignment or an operation-processed image generated by inter-image calculation. ].

【0026】この請求項8に記載の発明によれば、位置
合わせが行われた複数の画像または画像間演算により生
成された演算処理画像を表示するから、位置ずれのない
画像により比較読影や画像間演算結果に基づく診断を容
易にかつ正確で、しかも迅速に行うことができる。
According to the eighth aspect of the present invention, since a plurality of aligned images or an operation-processed image generated by an inter-image operation is displayed, a comparative image interpretation and an image can be obtained by using an image having no positional deviation. Diagnosis based on the inter-operation result can be performed easily, accurately, and quickly.

【0027】[0027]

【発明の実施の形態】以下、この発明の画像の位置合わ
せ処理装置及び画像間演算処理装置の実施の形態を図面
に基づいて説明するが、この実施の形態に限定されるも
のではない。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing an embodiment of an image registration processing apparatus and an inter-image calculation processing apparatus according to the present invention; however, the present invention is not limited to this embodiment.

【0028】図1は画像の位置合わせ処理装置の概略構
成図である。この画像の位置合わせ処理装置1は、共通
の被写体を含む複数の画像間で位置合わせ処理を行う画
像の位置合わせを行なう画像間演算処理装置でもある。
この画像の位置合わせ処理装置1には、部分領域設定手
段2、部分領域類似度決定手段3、全体領域類似度決定
手段4、重み係数記憶手段5、画像変換条件決定手段
6、画像変換手段7、画像記憶手段8、画像表示制御手
段9及び画像表示手段10が備えられている。
FIG. 1 is a schematic configuration diagram of an image registration processing apparatus. The image alignment processing apparatus 1 is also an image-to-image arithmetic processing apparatus that performs image alignment for performing alignment processing between a plurality of images including a common subject.
The image registration processing apparatus 1 includes a partial area setting means 2, a partial area similarity determining means 3, an entire area similarity determining means 4, a weighting coefficient storage means 5, an image conversion condition determining means 6, and an image converting means 7. , An image storage means 8, an image display control means 9 and an image display means 10.

【0029】部分領域設定手段2では、複数の画像のう
ち少なくとも一つの画像内、この実施の形態では画像デ
ータ1から得られる画像内に複数の部分領域を設定す
る。部分領域類似度決定手段3では、設定された部分領
域毎に、他の画像内、この実施の形態では画像データ2
から得られる画像内の対応する領域との間の類似度を決
定し、全体領域類似度決定手段4では、決定された部分
領域類似度を、各部分領域に対して設定された重み係数
を用いて重み付け加算することにより、全体領域類似度
を決定する。重み係数は重み係数記憶手段5に予め記憶
されている。画像変換条件決定手段6では、決定された
全体領域類似度に基づいて、一方の画像を他の画像に位
置合わせするための画像変換条件を決定し、画像変換手
段7では決定された画像変換条件に基づいて画像変換を
行うことにより、画像の位置合わせを行う。
The partial area setting means 2 sets a plurality of partial areas in at least one of the plurality of images, in this embodiment, an image obtained from the image data 1. In the partial area similarity determination means 3, the image data 2 in another image, in this embodiment,
And the overall area similarity determining means 4 uses the determined partial area similarity by using a weighting factor set for each partial area. Then, the overall area similarity is determined by performing weighted addition. The weight coefficient is stored in the weight coefficient storage means 5 in advance. The image conversion condition determining means 6 determines an image conversion condition for aligning one image with another image based on the determined overall area similarity, and the image conversion means 7 determines the determined image conversion condition. The position of the image is adjusted by performing the image conversion based on.

【0030】また、この実施の形態では、画像変換手段
7が決定された画像変換条件に基づいて画像変換を行う
ことにより、画像の位置合わせを行う粗位置合わせの後
に、精位置合わせの2段階の画像の位置合わせを行なう
ことができ、比較的短い処理時間で位置合わせ精度を向
上することができる。
Further, in this embodiment, the image conversion means 7 performs image conversion based on the determined image conversion conditions, so that after the coarse alignment for aligning the image, the fine alignment is performed in two stages. Can be performed, and the positioning accuracy can be improved in a relatively short processing time.

【0031】画像記憶手段8には、画像データ2から得
られる画像と決定された画像変換条件に基づいて画像変
換を行うことにより位置合わせされた画像とが記憶さ
れ、画像表示制御手段9による制御に基づいて画像表示
手段10に表示される。
The image storage unit 8 stores an image obtained from the image data 2 and an image aligned by performing image conversion based on the determined image conversion condition. Is displayed on the image display means 10 on the basis of.

【0032】このように複数の画像のうち少なくとも一
つの画像内に複数の部分領域を設定し、この設定された
部分領域毎に、他の画像内の対応する領域との間の類似
度を決定し、決定された部分領域類似度を、各部分領域
に対して設定された重み係数を用いて重み付け加算する
ことにより、全体領域類似度を決定し、決定された全体
領域類似度に基づいて、一方の画像を他の画像に位置合
わせするための画像変換条件を決定し、決定された画像
変換条件に基づいて画像変換を行うことにより、人体の
放射線画像の間で相対的に位置ずれがあっても、かかる
位置ずれを精度良く位置合わせする処理を、効率的かつ
安定的に自動処理できる。
As described above, a plurality of partial areas are set in at least one of the plurality of images, and the degree of similarity between each of the set partial areas and a corresponding area in another image is determined. Then, the determined partial area similarity is weighted and added using a weighting factor set for each partial area to determine the overall area similarity, and based on the determined overall area similarity, By determining image conversion conditions for aligning one image with another image and performing image conversion based on the determined image conversion conditions, there is a relative displacement between radiographic images of a human body. However, it is possible to automatically and stably automatically perform the process of accurately positioning such a position shift.

【0033】ここで、画像データ1及び画像データ2の
入力は、例えば放射線画像の撮影が通常X線フィルムを
用いて行われる。これらのX線写真をこの実施の形態の
画像の位置合わせ処理装置に入力するためには、レーザ
ディジタイザを用いている。これは、フィルム上をレー
ザビームで走査し、透過した光量を測定し、その値をア
ナログディジタル変換することにより、ディジタル画像
データとして入力するものである。
Here, the input of the image data 1 and the image data 2 is performed, for example, by taking a radiographic image usually using an X-ray film. A laser digitizer is used to input these X-ray photographs to the image registration processing apparatus of this embodiment. In this method, a film is scanned with a laser beam, the amount of transmitted light is measured, and the value is converted from analog to digital to be input as digital image data.

【0034】画像の入力には、CCDなどの光センサを
用いる装置を使用することも可能である。またフィルム
を読み取るのではなく、特開昭55−12429号公報
に記載されているような、蓄積性蛍光体を用いたディジ
タル画像を直接出力することのできる撮影装置を接続す
ることも可能である。この場合にはフィルムが不要にな
り、コストダウンを図ることができる。
For inputting an image, a device using an optical sensor such as a CCD can be used. Instead of reading a film, it is also possible to connect a photographing device capable of directly outputting a digital image using a stimulable phosphor as described in JP-A-55-12429. . In this case, a film is not required, and cost can be reduced.

【0035】また、2次元的に配列された複数の検出素
子によりX線画像を撮像して電気信号として出力するフ
ラットパネルディテクタ(FPD)から得たX線画像を
入力することもできる。例えば、特開平6−34209
8号公報に記載されているように、照射されたX線の強
度に応じた電荷を生成する光導電層と、生成された電荷
を2次元的に配列された複数のコンデンサに蓄積する方
式が用いられる。また、特開平9−90048号公報に
記載されているように、X線を増感紙等の蛍光体層に吸
収させて蛍光を発生させ、その蛍光の強度を画素毎に設
けたフォトダイオード等の光検出器で検知する方式も用
いられる。蛍光の検知手段としては他にCCDやC−M
OSセンサを用いる方法もある。また、X線の照射によ
り可視光を発するX線シンチレータと、レンズアレイ及
び各々のレンズに対応するエリアセンサとを組み合わせ
た構成も用いられる。
Further, an X-ray image obtained from a flat panel detector (FPD) that captures an X-ray image with a plurality of two-dimensionally arranged detection elements and outputs the image as an electric signal can be input. For example, JP-A-6-34209
As described in Japanese Patent Application Publication No. 8 (1996) -1994, there is a method in which a photoconductive layer that generates electric charges according to the intensity of irradiated X-rays and a method that accumulates the generated electric charges in a plurality of two-dimensionally arranged capacitors. Used. Further, as described in JP-A-9-90048, a photodiode or the like in which X-rays are absorbed by a phosphor layer such as an intensifying screen to generate fluorescence and the intensity of the fluorescence is provided for each pixel. A method of detecting with a photodetector is also used. Other means for detecting fluorescence include CCD and CM.
There is also a method using an OS sensor. Further, a configuration in which an X-ray scintillator that emits visible light by X-ray irradiation, a lens array, and an area sensor corresponding to each lens is also used.

【0036】この画像の位置合わせ処理装置は、例え
ば、異なる時期に撮影された同一患者の2枚の胸部X線
画像(時系列胸部画像)間の位置合わせに使用すること
により、撮影条件の変動や被写体の体形の影響を受けに
くい高精度の位置合わせ処理を実現することができる。
以下において、2枚の胸部X線画像(過去画像及び現在
画像)を対象として、診断上最も重要な肺野に相当する
画像部分に重点をおくと同時に、病理と関係のない背景
部分や呼吸・心拍等に基づく変化を生じやすい画像部分
は重みを小さくするような重み付きテンプレートマッチ
ング法を用いた、この発明に基づく画像の位置合わせ処
理を説明する。
The image registration processing apparatus is used, for example, for registration between two chest X-ray images (time-sequential chest images) of the same patient photographed at different times, so that the fluctuation of the photographing conditions can be improved. And a highly accurate alignment process that is not easily affected by the body shape of the subject.
In the following, for two chest X-ray images (past and present images), the image portion corresponding to the most important lung field for diagnosis is emphasized, and at the same time, the background portion and the respiration / An image registration process based on the present invention using a weighted template matching method that reduces the weight of an image portion that is likely to change based on a heartbeat or the like will be described.

【0037】例えば、同一患者の時系列胸部画像間にみ
られる変化は、診断の対象となる病理的変化以外にも、
種々の変化が含まれている。一般に胸部X線画像の胸郭
外の領域には、肩当て具やID情報ラベル等人体以外の
物体の写り込みがあり、また被検者の腕の姿勢も一定し
ないため、画像情報の再現性はきわめて低い。胸郭内に
注目すると、被検者の吸気状態による横隔膜高さの変化
及び心拍位相による心臓の幅の変化は頻繁に起こりう
る。また、被検者の腕の上げ方による鎖骨角度の変化も
観察される場合がある。
For example, the change between the time-series chest images of the same patient is not limited to the pathological change to be diagnosed.
Various changes are included. Generally, in the area outside the rib cage of the chest X-ray image, objects other than the human body, such as shoulder pads and ID information labels, are reflected, and the posture of the subject's arm is not constant. Very low. Looking inside the thorax, changes in the diaphragm height due to the inspiratory state of the subject and changes in the width of the heart due to the heartbeat phase can frequently occur. In addition, a change in the collarbone angle due to how the arm of the subject is raised may be observed.

【0038】以上の知見から、下記(i)〜(iv)の
観点に基づいて、図5に示すように胸部画像を部分領域
1〜A5に分割する。
Based on the above findings, the chest image is divided into partial areas A 1 to A 5 as shown in FIG. 5 based on the following points (i) to (iv).

【0039】(i)病理的変化以外にはほとんど変化がな
い領域:中肺部(部分領域A1) (ii)部分的に変化がありうる領域:上肺部(部分領域A
2)、下肺辺縁部(部分領域A3) (iii)多くの場合で変化がある領域:下肺縦隔付近(部
分領域A4) (iv)ほとんど再現性のない領域:胸郭外(部分領域
5) 部分領域の定め方は、肺野輪郭線Rを左・右・上方向に
所定幅拡げた曲線R’、及び肺野輪郭線の下端を結ぶ直
線Bを描き、R’とBに囲まれる閉曲線の外側を部分領
域A5とする。ここで肺野輪郭線Rは、後述する解剖学
的構造の抽出手段を用いて自動的に決定するか、または
ユーザが手動で指定してもよい。
(I) Region with little change other than pathological change: middle lung (partial region A 1 ) (ii) Region with partial change: upper lung (partial region A
2 ), lower lung margin (partial area A 3 ) (iii) Changeable area in most cases: near lower lung mediastinum (partial area A 4 ) (iv) Area with almost no reproducibility: extrathoracic ( Partial region A 5 ) The method of defining the partial region is as follows: draw a curve R ′ obtained by expanding the lung field contour R by a predetermined width in the left, right, and upward directions, and draw a straight line B connecting the lower ends of the lung field contours. an outer closed curve surrounded by B and the partial area a 5. Here, the lung field contour line R may be automatically determined using an anatomical structure extraction unit described later, or may be manually specified by a user.

【0040】R’の上端ラインTとBとの間を上から1
/5及び2/3のところで水平方向に分割し、R’に囲
まれる最も上の部分領域をA2、その下の部分領域をA
1とする。さらにA1の下の部分を、R’に左右から挟
まれる区間の左から1/4及び3/4のカラムで3分割
し、中央の部分領域をA4、その両側の部分領域をA3
する。
The distance between the upper end line T and B of R 'is 1 from the top.
/ 5 and 2/3 in the horizontal direction, the uppermost partial area surrounded by R ′ is A 2 , and the lower partial area is A 2
Let it be 1. Further, the lower part of A 1 is divided into three by 1 / and / columns from the left of the section sandwiched by R ′ from left and right, the central partial area is A 4 , and the partial areas on both sides are A 3 And

【0041】次に、位置合わせへの寄与率が大きい方か
ら上記分類(i)、(ii)、(iii)、(iv)の順に小さくなるよ
うな重み付けを施した重み付きテンプレートマッチング
法により、画像の位置合わせを行う。
Next, a weighted template matching method is used in which weighting is performed such that the contribution rate to the position adjustment becomes smaller in the order of the above classifications (i), (ii), (iii), and (iv). Align the images.

【0042】過去画像をテンプレートとし、現在画像を
参照画像として、テンプレートの平行移動及び回転によ
るテンプレートマッチングを行う。ここで、マッチング
の良否の指標となる類似度Sを、式1により定義する。
Using the past image as a template and the current image as a reference image, template matching is performed by translation and rotation of the template. Here, the similarity S, which is an index of the quality of the matching, is defined by Expression 1.

【0043】[0043]

【式1】 (Equation 1)

【0044】ここで、Ciはテンプレート内の部分領域
i(i=1,2,...,N)とそれに対応する参照
画像内の領域Biとの間の規格化相互相関値を表す。Wi
は領域Aiに割り当てられた重み係数であり、wi(i=
l,2,・・・,N)の総和は1.0である。この実施
の形態では領域の分割数Nを5とし、重み係数wiはそ
れぞれw1=0.445、w2=0.222、w3=0.
222、w4=0.111,w5=0とした。規格化相互
相関値は、Ai中のj番目の画素の画素値をAi(j),
それに対応するBi中のj番目の画素の画素値をB
i(j)と表した場合に、式2で示される。
Here, C i is a normalized cross-correlation value between the partial area A i (i = 1, 2,..., N) in the template and the corresponding area B i in the reference image. Represent. Wi
Is a weighting factor assigned to the region A i , w i (i =
1, 2,..., N) is 1.0. In this embodiment, the division number N of the area is set to 5, and the weighting factors w i are respectively w 1 = 0.445, w 2 = 0.222, w 3 = 0.
222, w 4 = 0.111, w 5 = 0. Normalized cross-correlation value, a pixel value of the j-th pixel in A i A i (j),
B pixel value of the j-th pixel in B i the corresponding
When expressed as i (j), it is expressed by Expression 2.

【0045】[0045]

【式2】 (Equation 2)

【0046】このように、各領域内の画素値の平均値m
Ai、mBi及び標準偏差σAi,σBIを用いて規格化した相
互相関値を用いることにより、2枚のX線画像間での露
光条件の差に起因する平均濃度や階調の違いに影響を受
けることなくマッチングを行うことができる。
As described above, the average value m of the pixel values in each area is
By using cross-correlation values normalized using Ai , m Bi and standard deviations σ Ai , σ BI , differences in average density and gradation caused by differences in exposure conditions between two X-ray images can be reduced. Matching can be performed without being affected.

【0047】前記Sが最大値をとる場合のテンプレート
の平行移動量及び回転量に基づき、過去画像全体の平行
移動及び回転を行ない、画像の位置合わせを行なう。
Based on the amount of translation and rotation of the template when S takes the maximum value, the entire past image is translated and rotated to align the images.

【0048】また、部分領域類似度は、前記した規格化
相互相関値に限らない。例えば、通常の相互相関値、あ
るいは、フーリエ変換の位相項の相関値(Medica
lImaging Technology,Vol.
7,pp175−176,1989)を部分領域類似度
としてもよい。
The partial area similarity is not limited to the above-described normalized cross-correlation value. For example, a normal cross-correlation value or a correlation value (Medica) of a phase term of a Fourier transform
Il Imaging Technology, Vol.
7, pp175-176, 1989) may be used as the partial area similarity.

【0049】また、この実施の形態では、画像変換が平
行移動及び回転で行なわれるが、これに限らず、画像変
換は、回転、拡大・縮小、平行移動の組み合わせからな
る線型変換を用いてもよい。変換前のx,y座標を
(x,y)、変換後のx,y座標を(x’,y’)、係
数をaij、bijとすると、2次元画像の線型変換は、式
3として表される。
In this embodiment, the image conversion is performed by translation and rotation. However, the invention is not limited to this, and the image conversion may be performed by using a linear conversion composed of a combination of rotation, enlargement / reduction, and translation. Good. Assuming that the x and y coordinates before the conversion are (x, y), the x and y coordinates after the conversion are (x ′, y ′), and the coefficients are a ij and b ij , the linear conversion of the two-dimensional image is expressed by Equation 3 It is expressed as

【0050】[0050]

【式3】 (Equation 3)

【0051】ここで式3における係数aij、bijを決定
するには、以下に示す方法を用いる。aij、bijの値を
所定の範囲で少しづつ変化させながら、その都度、式3
に基づいて過去画像に画像変換を施し、その変換画像を
テンプレートとし現在画像を参照画像として、前述の類
似度Sを計算する。Sが最大値をとる場合の係数aij
ijの組み合わせを、位置合わせのための画像変換条件
として確定する。
Here, the following methods are used to determine the coefficients a ij and b ij in the equation (3). While changing the values of a ij and b ij little by little within a predetermined range,
, The past image is subjected to image conversion, and the similarity S is calculated using the converted image as a template and the current image as a reference image. The coefficient a ij when S takes the maximum value,
The combination of b ij is determined as an image conversion condition for positioning.

【0052】また、ここで、前記画像変換においては、
非線型変換を用いてもよい。即ち、非線型変換では、画
像を歪ませることが可能であるから、人体の複雑な位置
ずれを精度良く位置合わせすることが可能である。2次
元画像の非線型変換は、例えば変換前の座標を(x,
y)、変換後の座標を(x’,y’)とすると、以下の
式4に示される2次元多項式変換で表される。
Here, in the image conversion,
Non-linear conversion may be used. That is, in the non-linear conversion, it is possible to distort an image, and thus it is possible to accurately position a complicated displacement of a human body. In the non-linear conversion of a two-dimensional image, for example, the coordinates before the conversion are (x,
y), assuming that the coordinates after the conversion are (x ′, y ′), the coordinates are expressed by a two-dimensional polynomial conversion represented by the following Expression 4.

【0053】[0053]

【式4】 (Equation 4)

【0054】ここで、多項式の次数nとしては、2以上
6以下が好ましい。式4における係数aij、bijは、線
型変換の場合と同様に決定される このように複数の画像のうち少なくとも一つの画像内に
複数の部分領域を設定し、この設定された部分領域毎
に、他の画像内の対応する領域との間の類似度を決定
し、決定された部分領域類似度を、各部分領域に対して
設定された重み係数を用いて重み付け加算することによ
り、全体領域類似度を決定し、決定された全体領域類似
度に基づいて、一方の画像を他の画像に位置合わせする
ための画像変換条件を決定し、決定された画像変換条件
に基づいて画像変換を行うことにより、胸部画像におい
て、画像間で相対的に位置ずれがあっても、診断上重要
な肺野の構造を精度良く位置合わせする処理を、効率的
かつ安定的に自動処理できる。
Here, the degree n of the polynomial is preferably 2 or more and 6 or less. The coefficients a ij and b ij in Equation 4 are determined in the same manner as in the case of the linear conversion. As described above, a plurality of partial areas are set in at least one of the plurality of images, and each of the set partial areas is set. In addition, the similarity between the corresponding region in another image is determined, and the determined partial region similarity is weighted and added using a weighting factor set for each partial region, so that the overall Determine the area similarity, determine an image conversion condition for aligning one image with the other image based on the determined overall area similarity, and perform image conversion based on the determined image conversion condition. By doing so, even if there is a relative displacement between the images in the chest image, it is possible to automatically and stably automatically perform the process of accurately positioning the structure of the lung field important for diagnosis.

【0055】また、この実施の形態では、前記した決定
された画像変換条件に基づいて画像変換を行うことによ
り、画像の位置合わせを行う粗位置合わせの後に、精位
置合わせの2段階の画像の位置合わせを行なう。
Further, in this embodiment, by performing image conversion based on the determined image conversion conditions described above, after coarse positioning for performing image positioning, two-step image positioning for fine positioning is performed. Perform alignment.

【0056】次に、粗位置合わせの後で行われる精位置
合わせ処理について説明する。精位置合わせ処理におい
ては、画像全体の大まかな位置合わせを行う粗位置合わ
せ処理を施した画像データに基づき、画像間における共
通の被写体部分の構造を相対的により精細に合わせるよ
うに、画像変換を行うか、或いは、画像変換を表す式、
係数等を決定する。
Next, the fine positioning process performed after the rough positioning will be described. In the fine registration process, the image conversion is performed so that the structure of the common subject portion between the images is relatively finely adjusted based on the image data that has been subjected to the coarse registration process for performing rough positioning of the entire image. Expression to perform or image transformation
Determine the coefficients and the like.

【0057】ここで、粗位置合わせと精位置合わせから
なる2段階の画像の位置合わせを行う場合には、粗位置
合わせの段階では平均化間引き処理等により画素数を低
減した縮小画像を用いることが、計算量が少なく処理速
度が速いので好ましい。また、粗位置合わせの段階で用
いる画像は、平均化フィルタやメジアンフィルタ、ガウ
シアンフィルタ等を用いて平滑化処理した画像であって
もよい。これは、粗位置合わせにおいては画像の大局的
な特徴すなわち低空間周波数成分のみを用いて合わせら
れればよく、縮小画像や平滑化画像で十分な精度が得ら
れるからである。
Here, in the case of performing two-stage image alignment including coarse alignment and fine alignment, a reduced image in which the number of pixels is reduced by averaging thinning processing or the like is used in the coarse alignment stage. However, it is preferable because the amount of calculation is small and the processing speed is high. Further, the image used in the coarse registration stage may be an image that has been smoothed using an averaging filter, a median filter, a Gaussian filter, or the like. This is because it is only necessary to use the global features of the image, that is, only the low spatial frequency components, in the coarse alignment, and sufficient accuracy can be obtained with a reduced image or a smoothed image.

【0058】また、粗位置合わせにおける画像変換とし
ては線形変換、または平行移動と回転の組み合わせによ
る変換を用いることが好ましい。これは、粗位置合わせ
においては画像内の大きな構造物を大まかに合わせられ
ればよく、これらの画像変換を用いることにより、計算
量を低減し処理速度を向上できるからである。一方、精
位置合わせにおける画像変換としては、非線形変換を用
いることが好ましい。すなわち、非線形変換では、画像
を歪ませることが可能であるから、粗位置合わせで完全
に合わせられなかった局所的なずれを補正し、人体の複
雑な位置ずれを精度良く位置合わせすることが可能であ
る。
It is preferable to use linear conversion or conversion by a combination of translation and rotation as the image conversion in the coarse positioning. This is because it is only necessary to roughly match a large structure in an image in the coarse registration, and by using these image conversions, the amount of calculation can be reduced and the processing speed can be improved. On the other hand, it is preferable to use a non-linear conversion as the image conversion in the fine registration. In other words, the nonlinear transformation can distort the image, so it is possible to correct local misalignment that was not completely adjusted by coarse alignment, and accurately align complex misalignment of the human body. It is.

【0059】2次元画像の非線型変換は、例えば変換前
の座標を(x,y)、変換後の座標を(x’,y’)と
すると、前記式4に示される2次元多項式変換で表され
る。ここで、多項式の次数nとしては、4以上10以下
が好ましい。また、胸部のように略左右対称な人体部分
では、人体構造の位置ずれも略対称であることから、多
項式の次数nが偶数である偶関数を用いることが好まし
い。
In the non-linear conversion of a two-dimensional image, for example, if the coordinates before the conversion are (x, y) and the coordinates after the conversion are (x ′, y ′), the two-dimensional polynomial conversion shown in the above equation (4) is used. expressed. Here, the degree n of the polynomial is preferably 4 or more and 10 or less. Further, in a substantially symmetrical human body part such as a chest, since the positional shift of the human body structure is also substantially symmetric, it is preferable to use an even function in which the order n of the polynomial is an even number.

【0060】また、非線型変換における係数(式4にお
けるaij、bij)の決定においては、複数の点において
それそれローカルマッチングの手法を用いて求めた複数
の移動量を総合することにより定めると良い。ローカル
マッチングとは、一方の画像内に微小な関心領域を選択
し、この関心領域内の構造に基づいて、他方の画像内の
対応する位置の近傍で最も良く構造が一致する領域を探
索し、探索結果に基づいて、関心領域の中心点に対応す
る移動量を求めるものである。
In determining the coefficients (a ij , b ij in Equation 4) in the non-linear conversion, the coefficients are determined by integrating a plurality of movement amounts obtained by using a local matching method at a plurality of points. And good. With local matching, a small region of interest is selected in one image, and based on the structure in this region of interest, a region where the structure best matches near the corresponding position in the other image is searched, The movement amount corresponding to the center point of the region of interest is obtained based on the search result.

【0061】画像変換条件が前記式4の2次元多項式で
表される場合、非線形変換における係数の決定の具体的
な方法として、多数の関心領域のローカルマッチングに
より求めた(x’,y’)を標本値として、最小二乗法
等を用いた近似を行うことにより係数aij、bijを定め
る。近似はx方向とy方向とで独立に行ってもよいし、
2次元平面内の距離を用いて行ってもよい。
When the image conversion condition is represented by the two-dimensional polynomial of the above equation 4, as a specific method of determining the coefficients in the non-linear conversion, a number of regions of interest are obtained by local matching (x ', y'). Is used as a sample value, coefficients a ij and b ij are determined by approximation using the least square method or the like. The approximation may be performed independently in the x and y directions,
This may be performed using a distance in a two-dimensional plane.

【0062】別の方法として、ローカルマッチングによ
り求めた(x’,y’)を標本値として、公知の直線補
間やスプライン補間等の補間処理により標本間を埋める
ことにより、全ての座標位置に対する(x’,y’)の
値を決定する。このような2種類の方法を併用し、2つ
の結果を総合して最終的な画像変換条件を定めてもよ
い。
As another method, (x ′, y ′) obtained by local matching is used as a sample value, and the space between samples is filled by interpolation processing such as linear interpolation or spline interpolation which is known in the art. x ′, y ′). These two types of methods may be used together to determine the final image conversion condition by combining the two results.

【0063】また、ローカルマッチングに基づく精位置
合わせ処理を2回以上繰り返して実行することにより、
より精細な位置合わせを行う構成としても良い。この場
合、ローカルマッチング用の関心領域の大きさや設定位
置、画像変換式の次数や係数決定方法などは、2回以上
の精位置合わせ処理において常に同一としてもよいし、
1回毎に異なるものを用いてもよい。
By repeatedly executing the fine positioning process based on the local matching two or more times,
A configuration for performing finer alignment may be employed. In this case, the size and setting position of the region of interest for local matching, the order of the image conversion formula, the coefficient determination method, and the like may be always the same in two or more fine alignment processes,
A different one may be used each time.

【0064】ローカルマッチングに基づく精位置合わせ
処理の具体例として、胸部放射線画像においては、肺野
領域の輪郭を抽出し、現在画像と過去画像それぞれにつ
いて画像の肺野領域全体にわたって多数の点をマトリッ
クス的に配置する。次いで、それぞれの点を中心とし
て、一定の大きさの関心領域を設定する。このとき、一
方の画像における関心領域の大きさを、他方の画像の関
心領域の大きさに比べて大きく設定し、小さい方の関心
領域をテンプレート、大きい方の関心領域をサーチ領域
と呼ぶ。関心領域の形状としては、正方形やそれ以外の
矩形、円形、十字形などを用いることができる。
As a specific example of the fine positioning process based on the local matching, in the chest radiographic image, the contour of the lung field region is extracted, and a large number of points are matrixed over the entire lung field region of each of the current image and the past image. Place Next, a region of interest having a certain size is set around each point. At this time, the size of the region of interest in one image is set to be larger than the size of the region of interest in the other image, and the smaller region of interest is called a template and the larger region of interest is called a search region. As the shape of the region of interest, a square or another rectangle, a circle, a cross, or the like can be used.

【0065】そして、図6に示すように、対応する位置
にあるテンプレートとサーチ領域とのペアを用いて、サ
ーチ領域に含まれる、テンプレートTと同形の副領域を
少しずつ移動しながら、その中でテンプレートTと最も
良く類似した副領域T’を探索する。副領域T’が探索
されると、中心座標(x’,y’)に基づいてテンプレ
ートTの中心座標(x,y)に対する移動量Δx及びΔ
yを、x’=x+Δy、y’=y+Δyなる関係に基づ
いて計算する。ここで、ある副領域がテンプレートとど
の程度類似しているか(類似度)を評価する手段として
は公知の、SSDA法、相互相関法、フーリエ変換位相
相関法等を使用することができる。
Then, as shown in FIG. 6, by using a pair of the template and the search area at the corresponding position, the sub-area included in the search area and having the same shape as the template T is gradually moved. Search for a sub-region T ′ most similar to the template T. When the sub-region T ′ is searched, the moving amounts Δx and Δ with respect to the center coordinates (x, y) of the template T based on the center coordinates (x ′, y ′).
y is calculated based on the relations x ′ = x + Δy and y ′ = y + Δy. Here, as means for evaluating how similar a certain sub-region is to the template (similarity), a known SSDA method, a cross-correlation method, a Fourier transform phase correlation method, or the like can be used.

【0066】複数のテンプレートについて決定された移
動量Δx及びΔyの分布に基づいて、式4に示すような
n次の多項式で表される画像変換式が決定され、かかる
変換式に基づいて一方の画像の変換を行うことにより、
画像の位置合わせを実行する。
Based on the distributions of the movement amounts Δx and Δy determined for the plurality of templates, an image conversion expression represented by an n-th order polynomial as shown in Expression 4 is determined, and one of the image conversion expressions is determined based on the conversion expression. By performing image conversion,
Perform image alignment.

【0067】移動量Δx及びΔyの分布から式4のn次
多項式の係数を決定する際には、ローカルマッチングを
行った全てのテンプレートの中心点に対する移動量の値
を使用しても良いが、下記に示すようにマッチングの比
較的劣るテンプレートから得られた値を除外することが
好ましい。
When determining the coefficients of the n-th order polynomial in Equation 4 from the distributions of the movement amounts Δx and Δy, the value of the movement amount with respect to the center point of all the templates subjected to local matching may be used. It is preferable to exclude values obtained from relatively poorly matching templates, as shown below.

【0068】例えば2枚の時系列画像において、一方の
画像のみの一部にペースメーカー等の医療器具による特
異な陰影が存在する場合、この特異な陰影を含むテンプ
レートにおいては、他方の画像にそれに相当する陰影が
どこにも存在しないため、得られた移動量は信頼性の低
い値となり、かつ、そのときの類似度は低くなる。この
ような値が多項式近似または補間処理のためのデータに
混在していると、近傍のデータに悪影響を与え、結果と
して位置合わせ精度が低下する。そこで、このようなマ
ッチングの悪い移動量を認識して、多項式近似または補
間処理の計算から除外するようにすることが好ましい。
For example, in the case of two time-series images, when a unique shadow due to a medical device such as a pacemaker is present in a part of only one of the images, a template including the unique shadow corresponds to the other image in the other image. Since no shading exists anywhere, the obtained movement amount has a low reliability value, and the similarity at that time is low. If such values are mixed in data for polynomial approximation or interpolation processing, it will adversely affect nearby data, and as a result, positioning accuracy will be reduced. Therefore, it is preferable that such a moving amount having poor matching is recognized and excluded from the calculation of the polynomial approximation or the interpolation processing.

【0069】マッチングの劣る移動量を認識するには、
例えば移動量の得られたときの類似度が所定の闘値より
も小さいものを選べば良い。或いは、隣接するテンプレ
ートから得られた移動量と比較して、その値が特異に大
きいか又は小さいものを選んでも良い。また、移動量の
多項式近似の計算への寄与度を0以上1以下の値で表さ
れる重み係数として定義し、類似度に応じて重み付けを
行っても良い。例えば類似度として相互相関値を使用し
た場合、相互相関値が大きくなるに従って重み係数が大
きくなるように予め定めておくことが好ましい。相互相
関値と重み係数との関係の例を図7に示す。
In order to recognize a moving amount having poor matching,
For example, it is only necessary to select one having a similarity smaller than a predetermined threshold value when the movement amount is obtained. Alternatively, a value whose value is uniquely larger or smaller than the amount of movement obtained from an adjacent template may be selected. Further, the contribution of the movement amount to the calculation of the polynomial approximation may be defined as a weight coefficient represented by a value of 0 or more and 1 or less, and weighting may be performed according to the similarity. For example, when a cross-correlation value is used as the degree of similarity, it is preferable that the weighting coefficient be determined in advance so that the cross-correlation value increases. FIG. 7 shows an example of the relationship between the cross-correlation value and the weight coefficient.

【0070】また、マッチングの劣る移動量を認識する
ための別の方法として、移動量Δx及びΔyをベクトル
要素として有する2次元平面内の移動ベクトル(Δx,
Δy)を全てのテンプレート中心点に対して定義し、ベ
クトルの長さまたは方向に基づいて認識してもよい。例
えば、隣接するテンプレートから得られた移動ベクトル
と比較して、その長さまたは方向が大きく異なっている
ものを選んでもよい。また、画像の全体または一部分に
含まれる複数のテンプレート中心点に対する移動ベクト
ルの方向(角度)を統計的に解析することにより、平均
の角度からある程度以上かけ離れた角度をもつものを選
んでもよい。
As another method for recognizing a moving amount having poor matching, a moving vector (.DELTA.x, .DELTA.x) in a two-dimensional plane having moving amounts .DELTA.x and .DELTA.y as vector elements.
Δy) may be defined for all template center points and recognized based on vector length or direction. For example, a moving vector whose length or direction is significantly different from that of a moving vector obtained from an adjacent template may be selected. Alternatively, by statistically analyzing the directions (angles) of the movement vectors with respect to a plurality of template center points included in the whole or a part of the image, an image having an angle that is at least a certain distance from the average angle may be selected.

【0071】ところで、ローカルマッチングにおけるテ
ンプレートの大きさをあまり小さくすると、位置合わせ
の精度が悪化することになる一方、テンプレートの大き
さをあまり大きくすると、演算時間が長引くことになっ
てしまうので、位置合わせ精度と演算時間との兼ね合い
でテンプレートの大きさを決定することが望まれ、例え
ば実効画素サイズが0.7mmの場合には、テンプレー
トの領域の一辺の大きさは、5〜50mmが好ましく1
5〜40mmとすることがより好ましい。同様に、サー
チ領域の大きさをあまり小さくすると、位置合わせ精度
が低下する一方、サーチ領域の大きさをあまり大きくす
ると、演算時間が増大する上に経時的な変化部分までも
位置合わせしてしまう可能性があるので、テンプレート
の大きさに対して、10〜40mm程度だけ大きなサイ
ズとすることが好ましい。また、隣合うテンプレートの
中心点間の距離をあまり小さくすると、テンプレートの
総数が大きくなるので演算時間が増大する一方、中心点
間の距離をあまり大きくすると位置合わせ精度が低下す
るので、距離は、5〜50mmとすることが好ましい。
なお、隣合うテンプレート同士は、重なり合っても良
い。また、粗位置合わせ処理において、位置合わせが平
行移動と回転との組み合わせで行われる場合には、精位
置合わせ処理におけるローカルマッチングでは、サーチ
領域内での副領域の平行移動のみによる探索を行わせる
ことが好ましい。かかる構成とすれば、画像全体の回転
ずれを1段階の処理で補正できることになり、処理速度
を早めることができる。
By the way, when the size of the template in the local matching is too small, the accuracy of the positioning is deteriorated. On the other hand, when the size of the template is too large, the calculation time is prolonged. It is desirable to determine the size of the template in consideration of the alignment accuracy and the calculation time. For example, when the effective pixel size is 0.7 mm, the size of one side of the template region is preferably 5 to 50 mm, and 1
More preferably, it is 5 to 40 mm. Similarly, if the size of the search region is too small, the positioning accuracy will decrease, while if the size of the search region is too large, the calculation time will increase and even the portion that changes over time will be aligned. Because of the possibility, it is preferable to set the size larger by about 10 to 40 mm than the size of the template. Further, if the distance between the center points of adjacent templates is too small, the total number of templates increases, so that the calculation time increases.On the other hand, if the distance between the center points is too large, the alignment accuracy decreases. It is preferable to set it to 5 to 50 mm.
Note that adjacent templates may overlap with each other. In addition, when the positioning is performed by a combination of translation and rotation in the coarse positioning process, the local matching in the fine positioning process causes the search to be performed only by the parallel movement of the sub-region in the search region. Is preferred. With such a configuration, the rotational displacement of the entire image can be corrected by one-stage processing, and the processing speed can be increased.

【0072】このように、この発明のローカルマッチン
グ処理では、粗位置合わせにおいて画像全体の大まかな
位置合わせが済んでいるため、精位置合わせ処理におい
ては局所的なわずかな歪みを補正するのみでよく、サー
チ領域の大きさをある程度の範囲に限定し、かつ平行移
動のみによる探索を行うことで、2段階の位置合わせ処
埋を行うにも関わらず比較的短い処埋時間で極めて精度
の高い位置合わせが可能である。
As described above, in the local matching processing of the present invention, rough alignment of the entire image has been completed in the coarse alignment. Therefore, in the fine alignment processing, only a small local distortion needs to be corrected. By limiting the size of the search area to a certain range and performing a search only by parallel movement, a highly accurate position can be obtained in a relatively short processing time despite the two-step alignment processing. Matching is possible.

【0073】図2は画像の位置合わせ処理装置の概略構
成図である。この実施の形態の画像の位置合わせ処理装
置1は、図1の画像の位置合わせ処理装置と同じ構成
は、同じ符号を付して説明を省略するが、この実施の形
態では、共通の被写体が人体の一部であり、複数の画像
のうち少なくとも一つの画像から人体の解剖学的構造を
抽出する解剖学的構造抽出手段20を有し、部分領域設
定手段12は、解剖学的構造抽出手段20における抽出
結果に基づいて複数の部分領域を設定する。
FIG. 2 is a schematic configuration diagram of an image registration processing apparatus. In the image registration processing apparatus 1 of this embodiment, the same components as those of the image registration processing apparatus of FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted. An anatomical structure extracting means for extracting an anatomical structure of the human body from at least one of a plurality of images, the partial region setting means 12 being a part of a human body; A plurality of partial areas are set based on the extraction result in 20.

【0074】このように共通の被写体が人体の一部であ
り、複数の画像のうち少なくとも一つの画像から人体の
解剖学的構造を抽出し、抽出結果に基づいて複数の部分
領域を設定することにより、人体の放射線画像の間で相
対的に位置ずれがあっても、精度良く位置合わせする処
理を、効率的かつ安定的に自動処理できる。
As described above, the common subject is a part of the human body, the anatomical structure of the human body is extracted from at least one of a plurality of images, and a plurality of partial regions are set based on the extraction result. Thereby, even if there is a relative displacement between the radiation images of the human body, it is possible to automatically and stably automatically perform the process of positioning with high accuracy.

【0075】ここで、解剖学的構造の抽出(解剖学的構
造抽出手段)について説明する。人体を透過した放射線
の透過量に対応して形成される放射線画像の場合、人体
の解剖学的構造に対応して信号レベルが局所的に変化す
るため、画像信号の解析によって解剖学的構造を抽出す
ることができる。
Here, the extraction of the anatomical structure (anatomical structure extracting means) will be described. In the case of a radiographic image formed according to the amount of radiation transmitted through the human body, the signal level locally changes in accordance with the anatomical structure of the human body. Can be extracted.

【0076】例えば、図8に示す乳房放射線画像におい
ては、スキンラインL1の検出が行なわれ、スキンライ
ンL1の点のうち最も画像右端に近い点として認識され
る乳頭位置P1の検出を行ない、乳頭を中心とした同心
円に基づき部分領域A1、A2、A3を設定する。この乳
房画像からのスキンライン検出手法は、引用文献医用画
像情報学会雑誌,Vol.14,pp.104−11
3,19972の記載が参照される。
For example, in the breast radiation image shown in FIG. 8, the skin line L1 is detected, and the nipple position P1, which is recognized as the point closest to the right end of the skin line L1, is detected. The partial areas A 1 , A 2 , and A 3 are set based on concentric circles centered at. The technique of detecting skin lines from breast images is described in the cited reference, Journal of Medical Image Information Society, Vol. 14, pp. 104-11
3, 19972.

【0077】また、胸部放射線画像における肺野部の輸
郭抽出は、例えば特開昭63−240832号公報に開
示される方法を用いて行える。具体的には、画像データ
の1つの行又は列についてのみ注目し、その1次元の画
像データ列の中で前後のデータとの関係が予め定めた特
定のパターンとなる点を、その行或いは列における輪郭
点とし、必要な範囲の行或いは列について前記輪郭点を
求めてそれらの点を結んだ線を肺野の輪郭とするもので
あり、特定のパターンとしては極小となる点、傾きが最
大となる点、傾きが最小となる点等を用いる。
Further, the extraction of the translocation of the lung field in the chest radiographic image can be performed using, for example, a method disclosed in Japanese Patent Application Laid-Open No. 63-240832. Specifically, attention is paid only to one row or column of the image data, and a point in the one-dimensional image data sequence where the relationship with the data before and after the specific pattern is a predetermined pattern is defined as the row or column. And the line connecting these points is determined as the contour of the lung field, and the specific pattern has a minimum point and a maximum slope. , The point at which the inclination is minimum, and the like.

【0078】また、胸部放射線画像において肺野を含む
矩形領域を抽出する方法としては、例えば特開平3−2
18578号公報に開示されるような方法がある。具体
的には、画像の縦方向についてプロジェクション値(画
像データの一方向の累積値)を求める。そして、プロジ
ェクション値が最小値となる点を正中線とし、この正中
線から外側に向けて移動しながらプロジェクション値と
所定の闘値とを比較して、プロジェクション値が最初に
闘値以下になった左右それぞれの点を、肺野の左端及び
右端として決定する。同様に画像の横方向についてもプ
ロジェクション値を求めて、肺野の上端及び下端を決定
する。
As a method of extracting a rectangular area including a lung field in a chest radiographic image, see, for example,
There is a method disclosed in Japanese Patent No. 18578. Specifically, a projection value (a cumulative value in one direction of image data) is obtained in the vertical direction of the image. The point at which the projection value becomes the minimum value is defined as the median line, and the projection value and the predetermined threshold value are compared while moving outward from the median line. The left and right points are determined as the left and right ends of the lung field. Similarly, a projection value is determined for the horizontal direction of the image, and the upper and lower ends of the lung field are determined.

【0079】また、胸部放射線画像において肺野輪郭や
肋骨位置を抽出する方法としては、特開平2−2501
80号公報に開示されるようなものがある。このもの
は、縦横のプロファイル情報に基づいて肺野輪郭や肋骨
位置を抽出するものであり、特に肋骨の抽出において
は、背景部分の影響を多項式近似により排除する構成と
なっている。
As a method for extracting a lung field contour and a rib position in a chest radiographic image, Japanese Patent Laid-Open No. 2-2501 is disclosed.
No. 80 is disclosed. In this method, lung field contours and rib positions are extracted based on vertical and horizontal profile information. In particular, in the extraction of ribs, the influence of the background is eliminated by polynomial approximation.

【0080】一方、腹部の放射線画像において、解剖学
的構造として腰椎,腸骨,骨盤などの骨部を抽出する方
法としては、特開平4−341246号公報に開示され
る方法がある。例えば、腹部放射線画像において腸骨部
を抽出するには、画像の横方向における信号変化を示す
プロファイルを作成し、かかるプロファイルにおいて極
小値をとる部位の個数・位置に基づいて、腸骨部を囲む
上下2つの線分を求めて、腸骨部領域を抽出する。ま
た、骨部と骨以外の部分との境界信号値をヒストグラム
等から求めて、かかる境界信号を闘値として画像信号の
2値化を行うことで、腰椎,腸骨,骨盤などの骨部領域
とそれ以外の領域とに区分して骨部領域を抽出すること
が可能である。
On the other hand, a method disclosed in Japanese Patent Application Laid-Open No. 4-341246 is a method for extracting bones such as lumbar vertebrae, iliac bones, and pelvis as anatomical structures from a radiation image of the abdomen. For example, in order to extract the iliac part in an abdominal radiation image, a profile indicating a signal change in the lateral direction of the image is created, and the iliac part is surrounded based on the number and position of the parts having the minimum value in the profile. The upper and lower line segments are obtained, and the iliac region is extracted. Also, a boundary signal value between the bone and the part other than the bone is obtained from a histogram or the like, and the boundary signal is used as a threshold value to binarize the image signal. It is possible to extract the bone region by dividing the region into the region and the other region.

【0081】図3は画像の位置合わせ処理装置の概略構
成図である。この実施の形態の画像の位置合わせ処理装
置1は、図1の画像の位置合わせ処理装置と同じ構成
は、同じ符号を付して説明を省略するが、この実施の形
態では、複数の画像のうち少なくとも一つの画像内に注
目位置を指定する注目位置指定手段30を有し、指定さ
れた注目位置に基づいて複数の部分領域を設定する。ま
た、複数の部分領域のうち、指定された注目位置を含む
部分領域に対応する重み係数が、他の部分領域に対応す
る重み係数よりも大きくなるように重み係数を設定す
る。
FIG. 3 is a schematic configuration diagram of an image registration processing apparatus. In the image registration processing device 1 of this embodiment, the same components as those of the image registration processing device of FIG. At least one attention position designation means 30 for designating a notice position in at least one image is provided, and a plurality of partial areas are set based on the designated notice position. In addition, a weighting factor is set such that a weighting factor corresponding to a partial region including a designated target position among a plurality of partial regions is larger than a weighting factor corresponding to another partial region.

【0082】この実施の形態の注目位置の指定は、図9
に示すように、画像表示手段10に表示された画像を観
察しながら、ユーザがマウス等のポインティングデバイ
スを用いて注目位置P2を指定し、この注目位置P2を
中心に、部分領域A1、A2、A3を決定し、重み係数を
1>W2>W3となるように定める。重み係数は、例え
ばW1=0.7、W2=0.3、W3=0に設定される。
In this embodiment, the target position is designated by referring to FIG.
As shown in (1), while observing the image displayed on the image display means 10, the user specifies a target position P2 using a pointing device such as a mouse, and the partial regions A 1 , A around the target position P2. 2, the a 3 determines, determine the weighting factors such that W 1> W 2> W 3 . The weight coefficients are set to, for example, W 1 = 0.7, W 2 = 0.3, and W 3 = 0.

【0083】このように複数の画像のうち少なくとも一
つの画像内に注目位置を指定し、指定された注目位置に
基づいて複数の部分領域を設定するから、注目位置の位
置ずれを精度良く位置合わせする処理を、効率的かつ安
定的に自動処理できる。
As described above, the target position is specified in at least one of the plurality of images, and the plurality of partial regions are set based on the specified target position. Automatically and efficiently.

【0084】また、指定された注目位置を含む部分領域
に対応する重み係数が、他の部分領域に対応する重み係
数よりも大きくなるように重み係数を設定することで、
注目位置の位置ずれを精度良く位置合わせする処理を、
効率的かつ安定的に自動処理できる。
By setting the weighting factor so that the weighting factor corresponding to the partial region including the designated target position is larger than the weighting factor corresponding to the other partial region,
The process of accurately aligning the position of the target position
Automatic processing can be performed efficiently and stably.

【0085】図1乃至図4の実施の形態の画像の位置合
わせ処理装置で位置合わせが行われた複数の画像を同時
に表示する画像表示手段10を有し、図10に示すよう
に表示される。
An image display means 10 for simultaneously displaying a plurality of images which have been aligned by the image alignment processing apparatus of the embodiment shown in FIGS. 1 to 4 is displayed as shown in FIG. .

【0086】画像表示制御手段9においては、予め指定
された表示フォーマットに従って画像を表示すべく、画
像表示手段10に出力する画像データの加工を行う。前
記画像データの加工には、画像を指定された表示サイズ
に適合させるための拡大/縮小処理や、画像の階調を表
示装置の輝度特性に適合させるためのウィンドウ処理な
どの階調変換も含まれる。
The image display control means 9 processes the image data to be output to the image display means 10 in order to display an image in accordance with a display format designated in advance. The processing of the image data includes gradation conversion such as enlargement / reduction processing for adjusting the image to a specified display size and window processing for adjusting the gradation of the image to the luminance characteristics of the display device. It is.

【0087】画像表示手段としては、CRT、液晶ディ
スプレイ、プラズマディスプレイなどの公知の画像表示
手段を用いることができ、中でも医療画像専用の高精細
高輝度のCRTまたは液晶ディスプレイが最も好まし
く、さらに表示画素数が約1000×1000以上であ
る高精細ディスプレイが好ましい。
As the image display means, known image display means such as a CRT, a liquid crystal display, and a plasma display can be used. Among them, a high-definition and high-brightness CRT or a liquid crystal display dedicated to medical images is most preferable. High definition displays having a number of about 1000 × 1000 or more are preferred.

【0088】図10(a)は異なる時期に撮影された同
―患者の胸部X線画像を並べて表示し、図10(b)は
異なる時期に撮影された同一患者の同一方向の乳房X線
画像を並べて表示し、図10(c)は同一検査で撮影さ
れた同一患者の左と右の乳房X線画像を並べて表示した
例を示す。この図10(c)の場合は、右と左の画像で
乳頭方向が逆を向いているので、いずれかの画像を左右
反転し、この発明の位置合わせを行ない、左右反転を元
に戻すという手順で行う。
FIG. 10A shows the chest X-ray images of the same patient taken at different times side by side, and FIG. 10B shows the breast X-ray images of the same patient taken at different times in the same direction. 10C shows an example in which left and right breast X-ray images of the same patient photographed by the same examination are displayed side by side. In the case of FIG. 10 (c), the right and left images have opposite nipple directions. Therefore, one of the images is flipped left and right, the alignment of the present invention is performed, and the flipping is reversed. Perform the procedure.

【0089】このように画像の位置合わせ処理装置で位
置合わせが行われた複数の画像を同時に表示するから、
読影医師が同一患者の過去の画像と現在の画像を対比し
ながら読影する場合(比較読影)や、同一患者の左右乳
房を対比しながら読影を行う場合に、対応する画像部分
同士の比較検討を容易にかつ正確で、しかも迅速に行う
ことができる。これにより、例えば表示された2画像の
うちの一方の画像のみに存在する病変陰影Xを、より精
度良く検出することが可能になる。また、例えば過去画
像と現在画像の間で病状が進行したり改善された病変陰
影の診断を、より正確に行うことが可能になる。
Since a plurality of images that have been aligned by the image alignment processing apparatus are displayed at the same time,
When the interpreting doctor interprets the past image and the current image of the same patient while comparing them (comparative image reading), or when performing the image interpretation while comparing the left and right breasts of the same patient, it is necessary to compare the corresponding image parts. It can be done easily, accurately and quickly. This makes it possible to more accurately detect, for example, the lesion shadow X existing only in one of the two displayed images. In addition, for example, it becomes possible to more accurately diagnose a lesion shadow in which a disease state has progressed between a past image and a current image or in which a pathological condition has been improved.

【0090】また、図4の実施の形態の画像の位置合わ
せ処理装置は、位置合わせが行われた複数の画像間で演
算を行う画像間演算手段40を有し、画像の位置合わせ
処理装置で位置合わせが行われた複数の画像間で演算を
行う。
The image registration processing apparatus of the embodiment shown in FIG. 4 has an inter-image calculation means 40 for performing an arithmetic operation between a plurality of aligned images. An operation is performed between a plurality of aligned images.

【0091】画像間演算手段40に示される画像間演算
(差分処理)に演算情報として与えられ、時系列画像間
において同一の解剖学的構造に対応する画像部分を位置
合わせして差分処理が行われ、経時変化のない正常構造
部分を打ち消して経時変化部分を選択的に強調した差分
画像(時系列処理画像)が生成される。
[0091] The image processing is given to the inter-image calculation (difference processing) shown by the inter-image calculation means 40, and image processing corresponding to the same anatomical structure is aligned between the time-series images to perform the difference processing. Thus, a difference image (time-series processed image) is generated in which the normal structure portion that does not change over time is canceled out and the portion that changes over time is selectively emphasized.

【0092】なお、粗位置合わせと精位置合わせからな
る2段階の画像の位置合わせを行う場合には、粗位置合
わせ処理によって得た位置合わせ情報に基づいて少なく
とも一方の時系列画像を画像変換し、かかる画像変換が
施された時系列画像間で精位置合わせ処理を実行させて
も良いし、粗位置合わせ処理によって位置合わせ情報を
得た後、画像データの画像変換を行った変換画像を生成
せずに、粗位置合わせ情報と原画像データとに基づいて
精位置合わせ処理が実行されるようにしても良い。同様
に、精位置合わせ処理によって得た位置合わせ情報に基
づいて少なくとも一方の時系列画像を画像変換し、かか
る画像変換が施された時系列画像に基づいて画像間演算
(差分処理)を行わせても良いし、画像データの画像変
換を行った変換画像を生成せずに、精位置合わせ情報と
原画像データとに基づいて画像間演算を行わせるように
しても良い。
When performing two-step image alignment consisting of coarse alignment and fine alignment, at least one of the time-series images is image-converted based on the alignment information obtained by the coarse alignment processing. It is also possible to execute a fine alignment process between the time-series images subjected to the image conversion, or to generate a converted image obtained by performing the image conversion of the image data after obtaining the alignment information by the coarse alignment process. Instead, the fine positioning process may be executed based on the rough positioning information and the original image data. Similarly, at least one of the time-series images is image-converted based on the alignment information obtained by the fine alignment processing, and an inter-image calculation (difference processing) is performed based on the time-series image subjected to the image conversion. Alternatively, an inter-image operation may be performed based on the fine alignment information and the original image data without generating a converted image obtained by performing image conversion of the image data.

【0093】例えば、変形前の過去画像及び変形後の過
去画像の座標(x,y)における画素値を、それぞれS
p(x,y)及びSpw(x,y)と表すと、Spw(x,
y)は式5により定められる.
For example, the pixel values at the coordinates (x, y) of the past image before deformation and the past image after deformation are respectively represented by S
p (x, y) and S pw (x, y) and expressed, S pw (x,
y) is determined by Equation 5.

【0094】[0094]

【式5】 (Equation 5)

【0095】ここでΔx及びΔyは、座標(x、y)に
対する移動量を表す。ここで、(x+Δx)または(y
+Δy)が非整数の場合には、最近傍4画素の画素値を
用いた直線補間により仮想的な画素値を決定する。最後
に、変形後の過去画像と現在画像との間で、対応する画
素の画素値間の差分をとることにより、差分画像を得
る。
Here, Δx and Δy represent the amounts of movement with respect to the coordinates (x, y). Here, (x + Δx) or (y
When + Δy) is a non-integer, a virtual pixel value is determined by linear interpolation using the pixel values of the four nearest pixels. Finally, a difference image is obtained by calculating the difference between the pixel values of the corresponding pixels between the past image after deformation and the current image.

【0096】この発明において、位置合わせ処理を行う
前に、画像全体の濃度・階調を標準的な濃度・階調特性
に合わせる濃度・階調補正処理を行わせるようにしても
よい。具体的には、米国特許5224177号に開示さ
れるような濃度・階調補正処理を用いることができる。
また、画像を複数の小領域に分割し、対応する小領域内
の画素値の統計値が等しくなるように一方の画像の画素
値を補正する方法を用してもよい。前記統計量として
は、平均値、分散値等が用いられる。また、位置合わせ
処理を行う前に、特定の空間周波数成分を強調または減
弱する周波数強調処埋を行わせるようにしてもよい。こ
れにより、前記強調された周波数成分または減弱されな
かった周波数成分を含む構造に着目した位置合わせ処理
を行うことができる。また、位置合わせ処理を行う前
に、エッジ強調を用いて肋骨あるいは肺紋理など特定の
構造物を強調する画像処理を行わせるようにしてもよい
(日本放射線技術学会雑誌55巻1号、pp.б0―б
8・1999)。
In the present invention, a density / tone correction process for adjusting the density / tone of the entire image to a standard density / tone characteristic may be performed before the position adjustment process. Specifically, a density / tone correction process as disclosed in US Pat. No. 5,224,177 can be used.
Alternatively, a method may be used in which an image is divided into a plurality of small areas and the pixel values of one image are corrected so that the statistical values of the pixel values in the corresponding small areas are equal. As the statistics, an average value, a variance value, or the like is used. Further, before performing the positioning process, a frequency emphasizing process for emphasizing or attenuating a specific spatial frequency component may be performed. This makes it possible to perform the alignment processing focusing on the structure including the emphasized frequency component or the frequency component that has not been attenuated. In addition, before performing the alignment processing, image processing may be performed to emphasize a specific structure such as a rib or a lung print using edge enhancement (Japanese Society of Radiological Technology, Vol. б0-б
8. 1999).

【0097】また、この発明における画像間演算により
生成された演算処理画像に対して、濃度・階調を変更す
る階調処理や、特定の空間周波数成分を強調または減弱
する周波数強調処理を施してもよい。また、画像間演算
により生成された演算処理画像内で、例えば胸部画像に
おける胸郭外の画像部分のように、読影診断に必要とさ
れない画像部分をマスキングまたはトリミングする処理
を施してもよい。
Further, the arithmetic processing image generated by the inter-image operation according to the present invention is subjected to gradation processing for changing the density and gradation and frequency emphasis processing for emphasizing or attenuating a specific spatial frequency component. Is also good. In addition, a process of masking or trimming an image part that is not required for image interpretation diagnosis, such as an image part outside the rib cage in a chest image, in an arithmetic processing image generated by an inter-image operation may be performed.

【0098】なお、前記実施例では、異なる時期に撮影
された同一患者の放射線画像間における差分処理を行う
画像間演算の例を示したが、これに限定するものではな
く、例えば造影剤注入により特定構造物が強調された放
射線画像から、造影剤が注入されていない放射線画像を
減算することによって前記特定構造物を抽出する画像間
演算処理や、同一の被写体に対して異なるエネルギー分
布を有する放射線を照射し、あるいは被写体透過後の放
射線をエネルギー分布を変えて二つの放射線検出手段に
照射して、その後この二つの放射線画像の画像信号間で
適当な重み付けをしたうえで減算処埋を行って特定構造
物を抽出するエネルギーサブトラクション処理に応用し
てもよい。
In the above-described embodiment, the example of the inter-image calculation for performing the difference processing between the radiation images of the same patient photographed at different times has been described. However, the present invention is not limited to this. From the radiation image in which the specific structure is emphasized, an image-to-image calculation process for extracting the specific structure by subtracting a radiation image in which a contrast agent is not injected, or radiation having a different energy distribution with respect to the same subject Or irradiating the radiation after passing through the subject to the two radiation detecting means while changing the energy distribution, and then performing a subtraction process after appropriately weighting the image signals of the two radiation images. You may apply to the energy subtraction process which extracts a specific structure.

【0099】画像表示手段10では、位置合わせが行わ
れた複数の画像または画像間演算により生成された演算
処理画像を表示する。この表示は、図11に示すように
異なる時期に撮影された同一患者の胸部X線画像C1,
C2と、それらの差分画像C3を並べて表示する。
The image display means 10 displays a plurality of aligned images or an arithmetically processed image generated by an inter-image operation. This display shows chest X-ray images C1 and C1 of the same patient taken at different times as shown in FIG.
C2 and their difference images C3 are displayed side by side.

【0100】この差分画像C3では、位置合わせが行わ
れたC1とC2の間で差分を計算しているため、C1と
C2間で変化のない骨や血管等の胸部の正常構造部分が
打ち消されるとともに新たに発生した病変陰影Xが強調
されるので、読影医師が病変陰影をより精度良く検出す
ることが可能になる。また、例えばC1とC2の間で病
状が進行したり改善された病変陰影の診断を、より正確
に行うことが可能になり、変化量の定量的診断の助けと
なる。
In the difference image C3, since the difference is calculated between the aligned C1 and C2, the normal structure part of the chest such as bones and blood vessels which does not change between C1 and C2 is canceled. At the same time, the newly generated lesion shadow X is emphasized, so that the interpreting doctor can detect the lesion shadow more accurately. In addition, for example, it is possible to more accurately diagnose a lesion shadow in which a disease state progresses or is improved between C1 and C2, and this helps a quantitative diagnosis of a change amount.

【0101】なお、図10及び図11においては、同一
表示画面上に複数の画像を同時に表示する例を示した
が、複数の表示画面から成る画像表示手段を有する構成
としてもよい。例えば表示画面1と表示画面2の二つの
表示画面を有する画像表示手段であって、図11におけ
るC1とC2が表示画面1に並べて表示され、C3が表
示画面2に表示されるような構成であってもよい。
Although FIGS. 10 and 11 show an example in which a plurality of images are simultaneously displayed on the same display screen, a configuration having image display means including a plurality of display screens may be employed. For example, the image display means has two display screens, a display screen 1 and a display screen 2, and has a configuration in which C 1 and C 2 in FIG. 11 are displayed side by side on the display screen 1 and C 3 is displayed on the display screen 2. There may be.

【0102】一般に、画像の画素数と表示画面における
表示可能な領域の画素数とが一致しない場合には画像の
拡大/縮小処理が行われるが、表示される画像のうち、
位置合わせ処理の適用される複数の画像の全てについ
て、画像に含まれる被写体の大きさが実質的に等しくな
るように(実物大の人体に対する拡大/縮小率が画像間
で同一になるように)拡大/縮小率を決定することが好
ましい。一方、図11における差分画像のように画像間
演算により生成された演算処理画像は、位置合わせ処理
の適用される複数の画像と同一の大きさで表示される必
要はなく、例えば差分画像のみが2枚の原画像より小さ
くなるように拡大/縮小率を決定する構成としてもよ
い。これは、差分画像のような演算処理画像は読影診断
の参考にする目的で表示されるものであって、最終的な
診断は原画像の観察に基づいて行われるためである。
Generally, when the number of pixels of an image does not match the number of pixels of a displayable area on a display screen, the image is enlarged / reduced.
For all of the plurality of images to which the registration processing is applied, the size of the subject included in the images is substantially equal (so that the enlargement / reduction ratio for a full-sized human body is the same between the images). It is preferable to determine the enlargement / reduction ratio. On the other hand, the operation-processed image generated by the inter-image operation like the difference image in FIG. 11 does not need to be displayed in the same size as a plurality of images to which the alignment processing is applied. The enlargement / reduction ratio may be determined so as to be smaller than two original images. This is because an arithmetically processed image such as a difference image is displayed for the purpose of diagnostic interpretation diagnosis, and the final diagnosis is performed based on observation of the original image.

【0103】画像表示手段10の表示画面には、画像と
共に患者情報、検査情報、所見情報等を表示する構成と
してもよい。画像表示手段10の他に、画像のハードコ
ピー出力を行う外部機器を接続することにより、本発明
における位置合わせが行われた複数の画像または画像間
演算により生成された演算処理画像のハードコピーを得
られる構成としてもよい。例えば、出力インタフェース
を介して、画像データがレーザーイメージャとよばれる
走査型レーザ露光装置に出力される。この走査型レーザ
露光装置では、画像データに基づいてレーザビーム強度
を変調し、従来のハロゲン化銀写真感光材料や熱現像ハ
ロゲン化銀写真感光材に露光した後、適切な現像処理を
行うことによって画像のハードコピーが得られるもので
ある。また、インクジェットプリンタやサーマルプリン
タ等により画像のハードコピーを得る構成としてもよ
い。画像のハードコピーには、画像と共に患者情報、検
査情報、所見情報等を出力する構成とすることが好まし
い。
The display screen of the image display means 10 may be configured to display patient information, examination information, finding information, etc. together with the image. By connecting an external device that outputs a hard copy of an image in addition to the image display unit 10, a hard copy of a plurality of images that have been aligned according to the present invention or an arithmetically processed image generated by an inter-image operation can be obtained. It is good also as a structure obtained. For example, image data is output to a scanning laser exposure device called a laser imager via an output interface. This scanning laser exposure apparatus modulates the laser beam intensity based on image data, exposes it to a conventional silver halide photographic material or a thermally developed silver halide photographic material, and then performs an appropriate development process. A hard copy of the image is obtained. Further, a configuration in which a hard copy of an image is obtained by an inkjet printer, a thermal printer, or the like may be adopted. The hard copy of the image is preferably configured to output patient information, examination information, finding information, and the like together with the image.

【0104】[0104]

【発明の効果】前記したように、請求項1に記載の発明
では、決定された全体領域類似度に基づいて、一方の画
像を他の画像に位置合わせするための画像変換条件を決
定し、決定された画像変換条件に基づいて画像変換を行
うことにより、人体の放射線画像の間で相対的に位置ず
れがあっても、精度良く位置合わせする処理を、効率的
かつ安定的に自動処理できる。
As described above, according to the first aspect of the present invention, an image conversion condition for aligning one image with another image is determined based on the determined overall area similarity. By performing image conversion based on the determined image conversion conditions, even if there is a relative displacement between radiation images of a human body, the process of accurately positioning can be automatically and stably automatically performed. .

【0105】請求項2に記載の発明では、共通の被写体
が人体の一部であり、複数の画像のうち少なくとも一つ
の画像から人体の解剖学的構造を抽出し、抽出結果に基
づいて複数の部分領域を設定することにより、人体の放
射線画像の間で相対的に位置ずれがあっても、精度良く
位置合わせする処理を、効率的かつ安定的に自動処理で
きる。
According to the second aspect of the present invention, the common subject is a part of the human body, the anatomical structure of the human body is extracted from at least one of the plurality of images, and the plurality of anatomical structures are extracted based on the extraction result. By setting the partial area, even if there is a relative displacement between the radiation images of the human body, it is possible to automatically and stably automatically perform the process of performing the alignment with high accuracy.

【0106】請求項3に記載の発明では、複数の画像の
うち少なくとも一つの画像内に注目位置を指定し、指定
された注目位置に基づいて複数の部分領域を設定するか
ら、注目位置に着目することでよりずれを精度良く位置
合わせすることができる。
According to the third aspect of the present invention, the attention position is designated in at least one of the plurality of images, and the plurality of partial regions are set based on the designated attention position. By doing so, the misalignment can be more accurately aligned.

【0107】請求項4に記載の発明では、複数の画像の
うち少なくとも一つの画像内に注目位置を指定し、複数
の部分領域のうち、指定された注目位置を含む部分領域
に対応する重み係数が、他の部分領域に対応する重み係
数よりも大きくなるように重み係数を設定することで、
注目位置に着目して位置ずれをより精度良く位置合わせ
することができる。
According to the fourth aspect of the present invention, a position of interest is specified in at least one of a plurality of images, and a weighting factor corresponding to a partial region including the specified position of interest among the plurality of partial regions is specified. Is set to be larger than the weight coefficients corresponding to the other partial regions,
By focusing on the target position, the positional deviation can be adjusted more accurately.

【0108】請求項5に記載の発明では、粗位置合わせ
の後に、精位置合わせの2段階の画像の位置合わせを行
なうことで、比較的短い処理時間で位置合わせ精度を向
上することができる。
According to the fifth aspect of the present invention, the accuracy of the alignment can be improved in a relatively short processing time by performing the two-stage image alignment of the fine alignment after the coarse alignment.

【0109】請求項6に記載の発明では、画像の位置合
わせ処理装置で位置合わせが行われた複数の画像を同時
に表示するから、位置ずれのない画像により比較読影に
基づく診断を容易にかつ正確で、しかも迅速に行うこと
ができる。
According to the sixth aspect of the present invention, since a plurality of images that have been aligned by the image alignment processing device are displayed at the same time, diagnosis based on comparative image reading can be easily and accurately performed using images without positional deviation. And can be performed quickly.

【0110】請求項7に記載の発明では、画像の位置合
わせ処理装置で位置合わせが行われた複数の画像間で演
算を行うから、演算負担を軽減しつつ、細かな位置合わ
せの精度が確保される。
According to the seventh aspect of the present invention, since calculation is performed between a plurality of images that have been aligned by the image alignment processing device, the accuracy of fine alignment is ensured while reducing the calculation load. Is done.

【0111】請求項8に記載の発明では、位置合わせが
行われた複数の画像または画像間演算により生成された
演算処理画像を表示するから、位置ずれのない画像によ
り比較読影や画像間演算結果に基づく診断を容易にかつ
正確で、しかも迅速に行うことができる。
According to the eighth aspect of the present invention, since a plurality of aligned images or an operation-processed image generated by an inter-image operation is displayed, the results of comparative image interpretation and inter-image operation can be obtained using images without positional deviation. Diagnosis can be performed easily, accurately, and quickly.

【図面の簡単な説明】[Brief description of the drawings]

【図1】画像の位置合わせ処理装置の概略構成図であ
る。
FIG. 1 is a schematic configuration diagram of an image registration processing device.

【図2】画像の位置合わせ処理装置の他の実施の形態の
概略構成図である。
FIG. 2 is a schematic configuration diagram of another embodiment of an image registration processing apparatus.

【図3】画像の位置合わせ処理装置の他の実施の形態の
概略構成図である。
FIG. 3 is a schematic configuration diagram of another embodiment of an image registration processing apparatus.

【図4】画像の位置合わせ処理装置の他の実施の形態の
概略構成図である。
FIG. 4 is a schematic configuration diagram of another embodiment of an image registration processing apparatus.

【図5】重み付きテンプレートマッチング法を説明する
図である。
FIG. 5 is a diagram illustrating a weighted template matching method.

【図6】ローカルマッチングで用いるテンプレート及び
サーチ領域の様子を示す図である。
FIG. 6 is a diagram illustrating a template and a search area used in local matching.

【図7】相互相関値と重み係数との関係を示す線図であ
る。
FIG. 7 is a diagram showing a relationship between a cross-correlation value and a weight coefficient.

【図8】乳房放射線画像のスキンラインの検出と部分領
域の設定を説明する図である。
FIG. 8 is a diagram illustrating detection of a skin line of a breast radiation image and setting of a partial region.

【図9】部分領域の設定を説明する図である。FIG. 9 is a diagram illustrating setting of a partial area.

【図10】異なる時期に撮影された同―患者の胸部X線
画像を並べて表示する図である。
FIG. 10 is a diagram in which chest X-ray images of the same patient taken at different times are displayed side by side.

【図11】異なる時期に撮影された同一患者の胸部X線
画像と、それらの差分画像を並べて表示する図である。
FIG. 11 is a diagram in which chest X-ray images of the same patient taken at different times and their difference images are displayed side by side.

【符号の説明】[Explanation of symbols]

1 画像の位置合わせ処理装置 2 部分領域設定手段 3 部分領域類似度決定手段 4 全体領域類似度決定手段 5 重み係数記憶手段 6 画像変換条件決定手段 7 画像変換手段 8 画像記憶手段 9 画像表示制御手段 10 画像表示手段 20 解剖学的構造抽出手段 30 注目位置指定手段 40 画像間演算手段 DESCRIPTION OF SYMBOLS 1 Image registration processing apparatus 2 Partial area setting means 3 Partial area similarity determining means 4 Whole area similarity determining means 5 Weight coefficient storing means 6 Image conversion condition determining means 7 Image converting means 8 Image storing means 9 Image display controlling means DESCRIPTION OF SYMBOLS 10 Image display means 20 Anatomical structure extraction means 30 Attention position designation means 40 Inter-image calculation means

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】共通の被写体を含む複数の画像間で位置合
わせ処理を行う画像の位置合わせ処理装置であって、 前記複数の画像のうち少なくとも一つの画像内に複数の
部分領域を設定する部分領域設定手段と、 設定された部分領域毎に、他の画像内の対応する領域と
の間の類似度を決定する部分領域類似度決定手段と、 決定された部分領域類似度を、各部分領域に対して設定
された重み係数を用いて重み付け加算することにより、
全体領域類似度を決定する全体領域類似度決定手段と、 決定された全体領域類似度に基づいて、一方の画像を他
の画像に位置合わせするための画像変換条件を決定する
画像変換条件決定手段と、 決定された画像変換条件に基づいて画像変換を行うこと
により、画像の位置合わせを行う画像変換手段を有する
ことを特徴とする画像の位置合わせ処理装置。
An image alignment processing apparatus for performing an alignment process between a plurality of images including a common subject, wherein a plurality of partial regions are set in at least one of the plurality of images. Area setting means, for each set partial area, a partial area similarity determining means for determining the similarity between the corresponding area in another image, and the determined partial area similarity, By weighting and adding using the weighting factor set for
Whole area similarity determining means for determining whole area similarity, and image conversion condition determining means for determining image conversion conditions for aligning one image with another image based on the determined whole area similarity And an image conversion unit that performs image conversion based on the determined image conversion condition to perform image alignment.
【請求項2】前記共通の被写体が人体の一部であり、 前記複数の画像のうち少なくとも一つの画像から人体の
解剖学的構造を抽出する解剖学的構造抽出手段を有し、 前記部分領域設定手段は、前記解剖学的構造抽出手段に
おける抽出結果に基づいて前記複数の部分領域を設定す
ることを特徴とする請求項1に記載の画像の位置合わせ
処理装置。
2. The anatomical structure extracting means for extracting an anatomical structure of a human body from at least one of the plurality of images, wherein the common subject is a part of a human body, The apparatus according to claim 1, wherein the setting unit sets the plurality of partial regions based on an extraction result obtained by the anatomical structure extracting unit.
【請求項3】前記複数の画像のうち少なくとも一つの画
像内に注目位置を指定する注目位置指定手段を有し、 指定された注目位置に基づいて前記複数の部分領域を設
定することを特徴とする請求項1または請求項2に記載
の画像の位置合わせ処理装置。
3. An apparatus according to claim 2, further comprising an attention position specifying means for specifying an attention position in at least one of the plurality of images, wherein the plurality of partial areas are set based on the designated attention position. The image alignment processing apparatus according to claim 1 or 2, wherein:
【請求項4】前記複数の画像のうち少なくとも一つの画
像内に注目位置を指定する注目位置指定手段を有し、 前記複数の部分領域のうち、指定された注目位置を含む
部分領域に対応する重み係数が、他の部分領域に対応す
る重み係数よりも大きくなるように前記重み係数を設定
することを特徴とする請求項1乃至請求項3のいずれか
1項に記載の画像の位置合わせ処理装置。
4. An attention position designation means for designating an attention position in at least one image of the plurality of images, wherein the attention position designation means corresponds to a partial area including the designated attention position among the plurality of partial areas. 4. The image alignment process according to claim 1, wherein the weighting factor is set such that the weighting factor is larger than a weighting factor corresponding to another partial area. 5. apparatus.
【請求項5】前記画像変換手段は、前記決定された画像
変換条件に基づいて画像変換を行うことにより、画像の
位置合わせを行う粗位置合わせの後に、精位置合わせの
2段階の画像の位置合わせを行なうことを特徴とする請
求項1乃至請求項4のいずれか1項に記載の画像の位置
合わせ処理装置。
5. The image conversion device according to claim 1, wherein the image conversion is performed based on the determined image conversion conditions, so that the image position is adjusted in two stages of fine alignment after coarse alignment for image alignment. The image registration processing apparatus according to claim 1, wherein registration is performed.
【請求項6】請求項1乃至請求項5のいずれか1項に記
載の画像の位置合わせ処理装置で位置合わせが行われた
複数の画像を同時に表示する画像表示手段を有すること
を特徴とする画像の位置合わせ処理装置。
6. An image display device for simultaneously displaying a plurality of images that have been aligned by the image alignment processing apparatus according to any one of claims 1 to 5. Image alignment processing device.
【請求項7】請求項1乃至請求項5のいずれか1項に記
載の画像の位置合わせ処理装置で位置合わせが行われた
複数の画像間で演算を行う画像間演算手段を有すること
を特徴とする画像間演算処理装置。
7. An inter-image calculation means for performing an operation between a plurality of images that have been aligned by the image alignment processing apparatus according to any one of claims 1 to 5. Image processing device.
【請求項8】請求項1乃至請求項5のいずれか1項に記
載の画像の位置合わせ処理装置で位置合わせが行われた
複数の画像間で演算を行う画像間演算手段と、 位置合わせが行われた複数の画像または画像間演算によ
り生成された演算処理画像を表示する画像表示手段を有
することを特徴とする画像間演算処理装置。
8. An inter-image calculating means for performing an arithmetic operation between a plurality of images which have been aligned by the image alignment processing apparatus according to any one of claims 1 to 5, An inter-image arithmetic processing apparatus, comprising: an image display unit that displays a plurality of performed images or an operation-processed image generated by an inter-image operation.
JP11157821A 1999-06-04 1999-06-04 Image positioning processor and inter-picture arithmetic processor Pending JP2000342558A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11157821A JP2000342558A (en) 1999-06-04 1999-06-04 Image positioning processor and inter-picture arithmetic processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11157821A JP2000342558A (en) 1999-06-04 1999-06-04 Image positioning processor and inter-picture arithmetic processor

Publications (2)

Publication Number Publication Date
JP2000342558A true JP2000342558A (en) 2000-12-12
JP2000342558A5 JP2000342558A5 (en) 2005-06-16

Family

ID=15658052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11157821A Pending JP2000342558A (en) 1999-06-04 1999-06-04 Image positioning processor and inter-picture arithmetic processor

Country Status (1)

Country Link
JP (1) JP2000342558A (en)

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003033341A (en) * 2001-07-23 2003-02-04 Shimadzu Corp X-ray fluoroscope
JP2005020719A (en) * 2003-06-06 2005-01-20 Fuji Photo Film Co Ltd Diagnostic image reading supporting method and apparatus, and program
JP2005261846A (en) * 2004-03-22 2005-09-29 Konica Minolta Medical & Graphic Inc Medical image processing apparatus and medical image processing method
JP2005312007A (en) * 2004-03-23 2005-11-04 Fuji Photo Film Co Ltd Method, apparatus and program for obtaining difference image
JP2005305113A (en) * 2004-03-23 2005-11-04 Fuji Photo Film Co Ltd Radiographic equipment and its program
JP2005354201A (en) * 2004-06-08 2005-12-22 Canon Inc Image processing apparatus and image processing method
WO2005120352A1 (en) * 2004-06-08 2005-12-22 Canon Kabushiki Kaisha Image processing device and method which use two images
JP2006055419A (en) * 2004-08-20 2006-03-02 Konica Minolta Medical & Graphic Inc Mammogram generating system
JP2006204618A (en) * 2005-01-28 2006-08-10 Canon Inc Image processing apparatus and method, and program
JP2006301077A (en) * 2005-04-18 2006-11-02 Fuji Photo Film Co Ltd Image forming apparatus
JP2006346459A (en) * 2005-06-14 2006-12-28 General Electric Co <Ge> Method and apparatus for correcting real-time movement of ultrasonic spatial complex imaging
JP2007082907A (en) * 2005-09-26 2007-04-05 Canon Inc Image photographing apparatus and image photographing method
JP2008000499A (en) * 2006-06-26 2008-01-10 Toshiba Corp X-ray CT apparatus, X-ray CT apparatus control method, and X-ray CT apparatus control program
JP2008258486A (en) * 2007-04-06 2008-10-23 Sharp Corp Distribution analysis method and apparatus, abnormal equipment estimation method and apparatus, program for causing computer to execute distribution analysis method or abnormal equipment estimation method, and computer-readable recording medium recording the program
JP2009045131A (en) * 2007-08-15 2009-03-05 Fujifilm Corp Medical information processing system, medical information processing method, and program
JP2009512528A (en) * 2005-10-25 2009-03-26 ブラッコ イメージング ソチエタ ペル アチオニ Method and system for automatic processing and evaluation of diagnostic images
JP2009261541A (en) * 2008-04-24 2009-11-12 Hitachi Medical Corp Image processor
JP2009273638A (en) * 2008-05-14 2009-11-26 Fujifilm Corp Energy subtraction method and apparatus
US7697744B2 (en) 2001-03-06 2010-04-13 Kabushiki Kaisha Toshiba X-ray diagnostic apparatus and image processor
EP2395476A2 (en) 2010-06-11 2011-12-14 FUJIFILM Corporation Method, apparatus, and program for aligning images
JP2011254959A (en) * 2010-06-08 2011-12-22 Canon Inc Image processor, image processing method, and program
WO2012063939A1 (en) * 2010-11-12 2012-05-18 株式会社東芝 Diagnostic imaging device
US8189896B2 (en) 2008-02-21 2012-05-29 Fujifilm Corporation Alignment apparatus for aligning radiation images by evaluating an amount of positional shift, and recording medium storing a program for aligning radiation images
JP2012128638A (en) * 2010-12-15 2012-07-05 Canon Inc Image processing device, alignment method and program
WO2013018575A1 (en) * 2011-08-03 2013-02-07 株式会社日立メディコ Image diagnostic device and image correction method
JP2013146585A (en) * 2006-12-19 2013-08-01 Fujifilm Corp Method and apparatus for processing image
JP2014228940A (en) * 2013-05-20 2014-12-08 コニカミノルタ株式会社 Image processing method, image processing apparatus, and image processing program
JPWO2013035150A1 (en) * 2011-09-05 2015-03-23 株式会社モルフォ Face authentication system, face authentication method, and face authentication program
JP2015080679A (en) * 2013-10-24 2015-04-27 キヤノン株式会社 Image processing system, image processing method, and program
US9042609B2 (en) 2011-09-05 2015-05-26 Morpho, Inc. Face authentication system, face authentication method, and face authentication program
JP2016514535A (en) * 2013-03-29 2016-05-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Image registration
JP2016517559A (en) * 2013-03-14 2016-06-16 ベンタナ メディカル システムズ, インコーポレイテッド Hall slide image registration and inter-image annotation device, system, and method
JP2016147046A (en) * 2015-02-12 2016-08-18 東芝メディカルシステムズ株式会社 Medical image processing device, medical image processing method, medical image processing system, and medical image processing program
US20170325772A1 (en) * 2016-05-11 2017-11-16 Toshiba Medical Systems Corporation Medical image processing apparatus, medical image diagnostic apparatus, and image processing method
US9846939B2 (en) 2015-02-05 2017-12-19 Fujitsu Limited Image display apparatus and image display method
US10503868B2 (en) 2013-10-01 2019-12-10 Ventana Medical Systems, Inc. Line-based image registration and cross-image annotation devices, systems and methods
WO2020044840A1 (en) * 2018-08-31 2020-03-05 富士フイルム株式会社 Region dividing device, method and program, similarity determination device, method and program, and feature amount derivation device, method and program
JP2020119588A (en) * 2012-09-06 2020-08-06 ソニー株式会社 Information processing system, display control system, and program
JP2021062127A (en) * 2019-10-16 2021-04-22 国立大学法人大阪大学 Capillary vessel evaluation method and apparatus therefor
US11062443B2 (en) 2018-08-31 2021-07-13 Fujifilm Corporation Similarity determination apparatus, similarity determination method, and program
DE112019005888T5 (en) 2018-11-27 2021-09-30 Fujifilm Corporation SIMILARITY DETERMINATION DEVICE, SIMILARITY DETERMINATION METHOD, AND SIMILARITY DETERMINATION PROGRAM
DE112019005902T5 (en) 2018-11-27 2021-09-30 Fujifilm Corporation SIMILARITY DETERMINATION DEVICE, SIMILARITY DETERMINATION METHOD, AND SIMILARITY DETERMINATION PROGRAM
JP2022190231A (en) * 2021-06-14 2022-12-26 コニカミノルタ株式会社 Image processing device and program
US11854190B2 (en) 2018-08-31 2023-12-26 Fujifilm Corporation Similarity determination apparatus, similarity determination method, and similarity determination program
US11893735B2 (en) 2018-08-31 2024-02-06 Fujifilm Corporation Similarity determination apparatus, similarity determination method, and similarity determination program
JP2025500595A (en) * 2022-04-11 2025-01-09 ディアールテック コーポレーション X-ray imaging device and X-ray imaging method using the same

Cited By (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7697744B2 (en) 2001-03-06 2010-04-13 Kabushiki Kaisha Toshiba X-ray diagnostic apparatus and image processor
JP2003033341A (en) * 2001-07-23 2003-02-04 Shimadzu Corp X-ray fluoroscope
JP2005020719A (en) * 2003-06-06 2005-01-20 Fuji Photo Film Co Ltd Diagnostic image reading supporting method and apparatus, and program
JP2005261846A (en) * 2004-03-22 2005-09-29 Konica Minolta Medical & Graphic Inc Medical image processing apparatus and medical image processing method
JP2005312007A (en) * 2004-03-23 2005-11-04 Fuji Photo Film Co Ltd Method, apparatus and program for obtaining difference image
JP2005305113A (en) * 2004-03-23 2005-11-04 Fuji Photo Film Co Ltd Radiographic equipment and its program
JP2005354201A (en) * 2004-06-08 2005-12-22 Canon Inc Image processing apparatus and image processing method
WO2005120352A1 (en) * 2004-06-08 2005-12-22 Canon Kabushiki Kaisha Image processing device and method which use two images
US8111947B2 (en) 2004-06-08 2012-02-07 Canon Kabushiki Kaisha Image processing apparatus and method which match two images based on a shift vector
JP2006055419A (en) * 2004-08-20 2006-03-02 Konica Minolta Medical & Graphic Inc Mammogram generating system
JP2006204618A (en) * 2005-01-28 2006-08-10 Canon Inc Image processing apparatus and method, and program
JP2006301077A (en) * 2005-04-18 2006-11-02 Fuji Photo Film Co Ltd Image forming apparatus
JP2006346459A (en) * 2005-06-14 2006-12-28 General Electric Co <Ge> Method and apparatus for correcting real-time movement of ultrasonic spatial complex imaging
JP2007082907A (en) * 2005-09-26 2007-04-05 Canon Inc Image photographing apparatus and image photographing method
JP2009512528A (en) * 2005-10-25 2009-03-26 ブラッコ イメージング ソチエタ ペル アチオニ Method and system for automatic processing and evaluation of diagnostic images
JP2008000499A (en) * 2006-06-26 2008-01-10 Toshiba Corp X-ray CT apparatus, X-ray CT apparatus control method, and X-ray CT apparatus control program
JP2013146585A (en) * 2006-12-19 2013-08-01 Fujifilm Corp Method and apparatus for processing image
JP2008258486A (en) * 2007-04-06 2008-10-23 Sharp Corp Distribution analysis method and apparatus, abnormal equipment estimation method and apparatus, program for causing computer to execute distribution analysis method or abnormal equipment estimation method, and computer-readable recording medium recording the program
JP2009045131A (en) * 2007-08-15 2009-03-05 Fujifilm Corp Medical information processing system, medical information processing method, and program
US8189896B2 (en) 2008-02-21 2012-05-29 Fujifilm Corporation Alignment apparatus for aligning radiation images by evaluating an amount of positional shift, and recording medium storing a program for aligning radiation images
JP2009261541A (en) * 2008-04-24 2009-11-12 Hitachi Medical Corp Image processor
JP2009273638A (en) * 2008-05-14 2009-11-26 Fujifilm Corp Energy subtraction method and apparatus
US8983164B2 (en) 2010-06-08 2015-03-17 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
JP2011254959A (en) * 2010-06-08 2011-12-22 Canon Inc Image processor, image processing method, and program
EP2395476A2 (en) 2010-06-11 2011-12-14 FUJIFILM Corporation Method, apparatus, and program for aligning images
US8842936B2 (en) 2010-06-11 2014-09-23 Fujifilm Corporation Method, apparatus, and program for aligning images
US8903146B2 (en) 2010-11-12 2014-12-02 Kabushiki Kaisha Toshiba Image diagnosis apparatus
CN102630151A (en) * 2010-11-12 2012-08-08 株式会社东芝 Image diagnostic device
JP2012115658A (en) * 2010-11-12 2012-06-21 Toshiba Corp Diagnostic imaging apparatus
CN102630151B (en) * 2010-11-12 2016-05-18 株式会社东芝 Image diagnostic device
WO2012063939A1 (en) * 2010-11-12 2012-05-18 株式会社東芝 Diagnostic imaging device
JP2012128638A (en) * 2010-12-15 2012-07-05 Canon Inc Image processing device, alignment method and program
WO2013018575A1 (en) * 2011-08-03 2013-02-07 株式会社日立メディコ Image diagnostic device and image correction method
US9165363B2 (en) 2011-08-03 2015-10-20 Hitachi Medical Corporation Image diagnostic device and image correction method
US9042609B2 (en) 2011-09-05 2015-05-26 Morpho, Inc. Face authentication system, face authentication method, and face authentication program
JPWO2013035150A1 (en) * 2011-09-05 2015-03-23 株式会社モルフォ Face authentication system, face authentication method, and face authentication program
JP7079283B2 (en) 2012-09-06 2022-06-01 ソニーグループ株式会社 Information processing systems, display control systems, and programs
US11817202B2 (en) 2012-09-06 2023-11-14 Japanese Foundation For Cancer Research Information processing apparatus, information processing method, and program
JP2020119588A (en) * 2012-09-06 2020-08-06 ソニー株式会社 Information processing system, display control system, and program
JP2016517559A (en) * 2013-03-14 2016-06-16 ベンタナ メディカル システムズ, インコーポレイテッド Hall slide image registration and inter-image annotation device, system, and method
JP2019072517A (en) * 2013-03-29 2019-05-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Image registration
JP2016514535A (en) * 2013-03-29 2016-05-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Image registration
JP2014228940A (en) * 2013-05-20 2014-12-08 コニカミノルタ株式会社 Image processing method, image processing apparatus, and image processing program
US10503868B2 (en) 2013-10-01 2019-12-10 Ventana Medical Systems, Inc. Line-based image registration and cross-image annotation devices, systems and methods
US12211169B2 (en) 2013-10-01 2025-01-28 Ventana Medical Systems, Inc. Line-based image registration and cross-image annotation devices, systems and methods
US10977766B2 (en) 2013-10-01 2021-04-13 Ventana Medical Systems, Inc. Line-based image registration and cross-image annotation devices, systems and methods
US11823347B2 (en) 2013-10-01 2023-11-21 Ventana Medical Systems, Inc. Line-based image registration and cross-image annotation devices, systems and methods
JP2015080679A (en) * 2013-10-24 2015-04-27 キヤノン株式会社 Image processing system, image processing method, and program
US9846939B2 (en) 2015-02-05 2017-12-19 Fujitsu Limited Image display apparatus and image display method
JP2016147046A (en) * 2015-02-12 2016-08-18 東芝メディカルシステムズ株式会社 Medical image processing device, medical image processing method, medical image processing system, and medical image processing program
US20170325772A1 (en) * 2016-05-11 2017-11-16 Toshiba Medical Systems Corporation Medical image processing apparatus, medical image diagnostic apparatus, and image processing method
US10085708B2 (en) * 2016-05-11 2018-10-02 Toshiba Medical Systems Corporation Medical image processing apparatus, medical image diagnostic apparatus, and image processing method
US11893735B2 (en) 2018-08-31 2024-02-06 Fujifilm Corporation Similarity determination apparatus, similarity determination method, and similarity determination program
WO2020044840A1 (en) * 2018-08-31 2020-03-05 富士フイルム株式会社 Region dividing device, method and program, similarity determination device, method and program, and feature amount derivation device, method and program
US11062443B2 (en) 2018-08-31 2021-07-13 Fujifilm Corporation Similarity determination apparatus, similarity determination method, and program
US11854190B2 (en) 2018-08-31 2023-12-26 Fujifilm Corporation Similarity determination apparatus, similarity determination method, and similarity determination program
US12039717B2 (en) 2018-08-31 2024-07-16 Fujifilm Corporation Region dividing device, method, and program, similarity determining apparatus, method, and program, and feature quantity deriving apparatus, method, and program
US12541967B2 (en) 2018-11-27 2026-02-03 Fujifilm Corporation Similarity determination apparatus, similarity determination method, and similarity determination program
US11756292B2 (en) 2018-11-27 2023-09-12 Fujifilm Corporation Similarity determination apparatus, similarity determination method, and similarity determination program
DE112019005888T5 (en) 2018-11-27 2021-09-30 Fujifilm Corporation SIMILARITY DETERMINATION DEVICE, SIMILARITY DETERMINATION METHOD, AND SIMILARITY DETERMINATION PROGRAM
DE112019005902T5 (en) 2018-11-27 2021-09-30 Fujifilm Corporation SIMILARITY DETERMINATION DEVICE, SIMILARITY DETERMINATION METHOD, AND SIMILARITY DETERMINATION PROGRAM
US11989880B2 (en) 2018-11-27 2024-05-21 Fujifilm Corporation Similarity determination apparatus, similarity determination method, and similarity determination program
US12299888B2 (en) 2018-11-27 2025-05-13 Fujifilm Corporation Similarity determination apparatus, similarity determination method, and similarity determination program
JP2021062127A (en) * 2019-10-16 2021-04-22 国立大学法人大阪大学 Capillary vessel evaluation method and apparatus therefor
JP7683339B2 (en) 2021-06-14 2025-05-27 コニカミノルタ株式会社 Image processing device and program
JP2022190231A (en) * 2021-06-14 2022-12-26 コニカミノルタ株式会社 Image processing device and program
JP2025500595A (en) * 2022-04-11 2025-01-09 ディアールテック コーポレーション X-ray imaging device and X-ray imaging method using the same
JP7804772B2 (en) 2022-04-11 2026-01-22 ディアールテック コーポレーション X-ray imaging device and X-ray imaging method using the same

Similar Documents

Publication Publication Date Title
JP2000342558A (en) Image positioning processor and inter-picture arithmetic processor
US7155048B2 (en) PCI radiation image processing apparatus, PCI radiation image detecting apparatus, PCI radiation image outputting apparatus, and PCI image diagnosis supporting apparatus
US8724865B2 (en) Method, computer software, and system for tracking, stabilizing, and reporting motion between vertebrae
US20030097076A1 (en) Method and apparatus for calculating index concerning local blood flow circulations
JP3569566B2 (en) Image processing device
JPH0737074A (en) Method and apparatus for detecting changes over time between consecutive chest images
JP5016518B2 (en) Alignment apparatus and program thereof
JPH08103439A (en) Alignment processor for image and inter-image processor
JP2002162705A (en) Phase contrast radiation image processor
CN113129343A (en) Method and system for anatomical structure/view classification in X-ray imaging
JP3888046B2 (en) Radiation image processing method and radiation image processing apparatus
JPH06269444A (en) Method for generating three-dimensional radiograph
JP2002085392A (en) Radiographic image processing method and apparatus
JP2005198798A (en) Radiation image processing apparatus and processing method
JPH08110939A (en) Picture aligning processor and inter-picture arithmetic processing unit
US20050069184A1 (en) Medical image processing apparatus
US20110211743A1 (en) Change Assessment Method
JP4737724B2 (en) Radiation image processing device
JP3931792B2 (en) Time-series processed image display device and display method
JP2002094772A (en) Radiographic image processing method and radiographic image processor
JP2001212118A (en) Radiation image processing method and apparatus
JP2001120524A (en) Radiation image processing apparatus
JP6146449B2 (en) Medical image processing apparatus and program
JP6291809B2 (en) Medical image processing device
US20050161617A1 (en) Image processing method, apparatus, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071126

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080317