[go: up one dir, main page]

JPH11290303A - Image determining method, image determining apparatus, and storage medium - Google Patents

Image determining method, image determining apparatus, and storage medium

Info

Publication number
JPH11290303A
JPH11290303A JP10094966A JP9496698A JPH11290303A JP H11290303 A JPH11290303 A JP H11290303A JP 10094966 A JP10094966 A JP 10094966A JP 9496698 A JP9496698 A JP 9496698A JP H11290303 A JPH11290303 A JP H11290303A
Authority
JP
Japan
Prior art keywords
density value
image
obtaining
coordinates
discriminating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10094966A
Other languages
Japanese (ja)
Inventor
Hiroyuki Arahata
弘之 新畠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP10094966A priority Critical patent/JPH11290303A/en
Priority to US09/152,873 priority patent/US6594380B2/en
Publication of JPH11290303A publication Critical patent/JPH11290303A/en
Pending legal-status Critical Current

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

(57)【要約】 【課題】 撮影画像から被写体の撮影体位を正確に、且
つ効率的に判別する画像判別装置を提供する。 【解決手段】 プロファイル作成手段113は、第1の
部位(胸部の肺部等)の最高濃度値を横切るプロファイ
ルを作成する。凹凸部取得手段114は、プロファイル
作成手段113で作成されたプロファイルから、その凹
部及び凸部を得る。特徴取得手段115は、凹部(胸部
の縦隔部等に対応する部分)及び凸部(胸部の肺部等に
対応する部分)の特徴となる濃度値及びその座標を取得
する。判別手段123は、特徴取得手段115で取得さ
れた濃度値及びその座標から、撮影体位を判別する。
(57) [Problem] To provide an image discriminating apparatus for accurately and efficiently discriminating a photographing position of a subject from a photographed image. SOLUTION: Profile creation means 113 creates a profile that crosses the highest density value of a first part (such as a lung part of the chest). The concave / convex portion acquiring means 114 acquires the concave and convex portions from the profile created by the profile creating means 113. The characteristic acquiring means 115 acquires the density values and the coordinates of the characteristic values of the concave portion (portion corresponding to the mediastinal portion of the chest) and the convex portion (portion corresponding to the lung of the chest). The determining unit 123 determines the photographing position from the density value acquired by the feature acquiring unit 115 and its coordinates.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像から抽出され
た特徴量を用いて、その画像のカテゴリを自動的に判別
する画像判別方法及び画像判別装置に関し、特に、放射
線胸部画像等において、肺領域のプロファイルの形状的
特徴から肺正面や肺側面等の撮影体位を判別する画像判
別方法及び画像判別装置に関するものである。また、本
発明は、上記画像判別方法を実施するための処理ステッ
プをコンピュータが読出可能に格納した記憶媒体に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image discriminating method and an image discriminating apparatus for automatically discriminating a category of an image by using a feature amount extracted from the image. The present invention relates to an image discriminating method and an image discriminating apparatus for discriminating a photographing position such as a lung front or a lung side from a shape characteristic of a region profile. The present invention also relates to a storage medium in which processing steps for performing the above-described image determination method are stored in a computer-readable manner.

【0002】[0002]

【従来の技術】近年では、ディジタル技術の進歩によ
り、例えば、放射線胸部画像をディジタル化し、そのデ
ィジタル画像に画像処理を行って、CRT等に表示す
る、或いは、プリント出力することが行われている。
2. Description of the Related Art In recent years, with the advance of digital technology, for example, a radiation chest image has been digitized, and the digital image is subjected to image processing and displayed on a CRT or the like, or printed out. .

【0003】ところで、放射線胸部の撮影では、撮影目
的に応じて撮影体位が異なるのが一般的である。例え
ば、目的に応じて、肺正面からの撮影や肺側面からの撮
影等、撮影体位が異なる。また、撮影体位毎に、その画
像の濃度分布も異なり、注目領域の濃度分布の幅も異な
る。このため、表示出力やプリント出力等のための画像
処理も、各撮影体位毎に異なる処理を行うのが通常であ
る。したがって、画像処理を行う際には、撮影体位に適
した処理を行うために、撮影体位を装置(画像処理装
置)に入力することが必要となる。しかしながら、画像
処理を行う度に撮影体位を逐一入力する作業は、大変な
労力を要し、また、入力ミスが生じやすい。
[0005] In radiographic imaging of the chest, it is general that the imaging position is different depending on the purpose of imaging. For example, depending on the purpose, the photographing position varies, such as photographing from the front of the lung or photographing from the side of the lung. Further, the density distribution of the image differs for each photographing position, and the width of the density distribution of the attention area also differs. For this reason, image processing for display output, print output, and the like is generally performed differently for each photographing position. Therefore, when performing image processing, it is necessary to input a photographing position to an apparatus (image processing apparatus) in order to perform processing suitable for the photographing position. However, the operation of inputting the photographing position one by one every time image processing is performed requires a great deal of labor, and input errors are likely to occur.

【0004】そこで、この問題を解決するために、画像
の特徴量を用いて、撮影体位を自動的に判別する自動判
別方法がある。この自動判別方法は、特公平6−775
0号等に記載されているように、画像の累積ヒストグラ
ムを作成し、この累積ヒストグラムの略中央部分の変化
率の値に基づいて、画像のカテゴリを判別する方法であ
る。
In order to solve this problem, there is an automatic discrimination method for automatically discriminating the photographing position using the feature amount of an image. This automatic discrimination method is disclosed in Japanese Patent Publication No. 6-775.
As described in No. 0 or the like, a method is used in which a cumulative histogram of an image is created, and the category of the image is determined based on the value of the rate of change at a substantially central portion of the cumulative histogram.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上述し
た特公平6−7750号等に記載の従来の自動判別方法
では、画像のカテゴリを判別するためのパラメータが予
め固定されており、一定条件下で撮影した画像でない
と、その画像のカテゴリの判別ができなかった。また、
この方法では、累積ヒストグラムの略中央部分の変化率
の値に基づいて、画像のカテゴリを判別するため、濃度
値の最大値と最少値間の幅が変化した場合、判別精度が
低下する、という問題があった。さらに、この方法で
は、撮影条件等を変更する場合、画像のカテゴリを判別
するためのパラメータも変更する必要があり、この変更
は熟練した技術が必要であった。したがって、容易にパ
ラメータを変更できない、という問題があった。
However, in the conventional automatic discrimination method described in Japanese Patent Publication No. Hei 6-7750, a parameter for discriminating the category of an image is fixed in advance, and under a certain condition. Unless the image was taken, the category of the image could not be determined. Also,
According to this method, since the category of the image is determined based on the value of the change rate of the substantially central portion of the cumulative histogram, if the width between the maximum value and the minimum value of the density value changes, the determination accuracy decreases. There was a problem. Furthermore, in this method, when changing photographing conditions and the like, it is necessary to change parameters for determining the category of an image, and this change requires a skilled technique. Therefore, there is a problem that parameters cannot be easily changed.

【0006】そこで、本発明は、上記の欠点を除去する
ために成されたもので、撮影画像から被写体の撮影体位
を正確に、且つ効率的に判別することができる画像判別
方法、及び該画像判別方法を実施するための処理ステッ
プをコンピュータが読出可能に格納した記憶媒体を提供
することを目的とする。また、本発明は、撮影画像から
被写体の撮影体位を正確に、且つ効率的に判別する画像
判別装置を提供することを目的とする。
SUMMARY OF THE INVENTION Accordingly, the present invention has been made to eliminate the above-mentioned drawbacks, and an image discriminating method capable of accurately and efficiently discriminating a photographing position of a subject from a photographed image, and an image discriminating method. It is an object of the present invention to provide a storage medium in which processing steps for performing a determination method are stored in a computer readable manner. Another object of the present invention is to provide an image discriminating apparatus for accurately and efficiently discriminating a photographing position of a subject from a photographed image.

【0007】[0007]

【課題を解決するための手段】斯かる目的下において、
第1の発明は、少なくとも第1の部位と第2の部位を有
する被写体の撮影画像から、該被写体の撮影体位を判別
する処理ステップを含む画像判別方法であって、該処理
ステップは、上記第1の部位に対応する撮影画像領域の
第1の濃度値と、上記第2の部位に対応する撮影画像領
域の第2の濃度値とを比較する比較ステップと、上記比
較ステップの比較結果から上記撮影体位を判別する判別
ステップとを含むことを特徴とする。
For such a purpose,
A first invention is an image discriminating method including a processing step of discriminating a photographing position of a subject from a photographed image of the subject having at least a first part and a second part. A comparing step of comparing the first density value of the photographed image area corresponding to the first part with the second density value of the photographed image area corresponding to the second part; And determining a photographing position.

【0008】第2の発明は、上記第1の発明において、
上記処理ステップは、上記第1の部位に対応する撮影画
像領域の最高濃度値を上記第1の濃度値として取得し、
上記第2の部位に対応する撮影画像領域の最低濃度値を
上記第2の濃度値として取得する濃度値取得ステップを
含み、上記比較ステップは、上記濃度値取得ステップで
得られた各濃度値を比較するステップを含むことを特徴
とする。
[0008] In a second aspect based on the first aspect,
The processing step acquires a maximum density value of a captured image area corresponding to the first part as the first density value,
A density value acquiring step of acquiring a minimum density value of a photographed image area corresponding to the second region as the second density value, wherein the comparing step includes the steps of: acquiring the density values obtained in the density value acquiring step; The method includes the step of comparing.

【0009】第3の発明は、少なくとも第1の部位と第
2の部位を有する被写体の撮影画像から、該被写体の撮
影体位を判別する処理ステップを含む画像判別方法であ
って、該処理ステップは、上記第1の部位に対応する撮
影画像領域内の特徴となる第1の座標と、上記第2の部
位に対応する撮影画像領域内の特徴となる第2の座標と
の距離とを比較する比較ステップと、上記比較ステップ
の比較結果から上記撮影体位を判別する判別ステップと
を含むことを特徴とする。
A third invention is an image discriminating method including a process step of discriminating a photographing position of a subject from a photographed image of the subject having at least a first portion and a second portion. Comparing the distance between the first coordinate serving as a feature in the captured image area corresponding to the first part and the second coordinate serving as a feature in the captured image area corresponding to the second part. A comparison step; and a determination step of determining the photographing position from the comparison result of the comparison step.

【0010】第4の発明は、上記第3の発明において、
上記処理ステップは、上記第1の部位に対応する撮影画
像領域の中点の座標を上記第1の座標として取得し、上
記第2の部位に対応する撮影画像領域の中点の座標を上
記第2の座標として取得する座標取得ステップを含み、
上記比較ステップは、上記座標取得ステップで得られた
各座標により得られた距離を比較するステップを含むこ
とを特徴とする。
In a fourth aspect based on the third aspect,
The processing step acquires the coordinates of the midpoint of the photographed image area corresponding to the first part as the first coordinates, and calculates the coordinates of the midpoint of the photographed image area corresponding to the second part as the first coordinate. A coordinate acquisition step of acquiring the coordinates as 2 coordinates,
The comparing step includes a step of comparing distances obtained by the respective coordinates obtained in the coordinate obtaining step.

【0011】第5の発明は、少なくとも第1の部位と第
2の部位を有する被写体の撮影画像から、該被写体の撮
影体位を判別する処理ステップを含む画像判別方法であ
って、該処理ステップは、上記第1の部位に対応する撮
影画像領域の最高濃度値を得る濃度値取得ステップと、
上記撮像画像において、上記濃度値取得ステップで得ら
れた最高濃度値の座標を通過する画像濃度値のプロファ
イルを作成するプロファイル作成ステップと、上記プロ
ファイル作成ステップで作成されたプロファイルから凹
部及び凸部を得る凹凸部取得ステップと、上記凹凸部取
得ステップで得られた凹部及び凸部から各部の特徴とな
る濃度値及びその座標を得る特徴取得ステップと、上記
特徴取得ステップで得られた各部の濃度値及び座標から
撮影体位を判別する判別ステップとを含むことを特徴と
する。
A fifth invention is an image discriminating method including a process step of discriminating a photographing position of a subject from a photographed image of the subject having at least a first portion and a second portion. A density value obtaining step of obtaining a maximum density value of a captured image area corresponding to the first region;
In the captured image, a profile creation step for creating a profile of an image density value passing through the coordinates of the highest density value obtained in the density value acquisition step, and a concave portion and a convex portion from the profile created in the profile creation step An uneven part obtaining step to obtain; a density obtaining step of obtaining a characteristic value and coordinates of each part from the concave part and the convex part obtained in the uneven part obtaining step; and a density value of each part obtained in the above characteristic obtaining step. And a determining step of determining the photographing position from the coordinates.

【0012】第6の発明は、上記第5の発明において、
上記処理ステップは、上記撮影画像からす抜け領域及び
該す抜け領域に接する領域を所定幅内で削除するす抜け
削除ステップを含み、上記濃度値取得ステップは、上記
す抜け削除ステップで処理された撮影画像に対して、上
記最高濃度値を得る処理を行うステップを含むことを特
徴とする。
According to a sixth aspect of the present invention, in the fifth aspect,
The processing step includes a pass-through deletion step of deleting a pass-through area and an area adjacent to the pass-through area from the captured image within a predetermined width, and the density value obtaining step is performed in the pass-through deletion step. A step of performing a process of obtaining the maximum density value on a captured image.

【0013】第7の発明は、上記第5の発明において、
上記特徴取得ステップは、上記凸部の最高濃度値を得
て、上記凹部の最低濃度値を得るステップを含み、上記
判別ステップは、上記特徴取得ステップで得られた上記
凸部の最高濃度値と、上記凹部の最低濃度値とを比較す
る第1の比較ステップと、該第1の比較ステップの比較
結果により撮影体位を判別する第1の判別ステップとを
含むことを特徴とする。
[0013] In a seventh aspect based on the fifth aspect,
The feature obtaining step includes a step of obtaining a highest density value of the convex portion and a step of obtaining a lowest density value of the concave portion, and the determining step includes determining a highest density value of the convex portion obtained in the feature obtaining step. A first comparison step of comparing the lowest density value of the concave portion with the first density step, and a first determination step of determining a photographing body position based on a comparison result of the first comparison step.

【0014】第8の発明は、上記第5の発明において、
上記特徴取得ステップは、上記凸部の最高濃度値の座標
を得て、上記凹部の最低濃度値の座標を得るステップを
含み、上記判別ステップは、上記特徴取得ステップで得
られた上記凸部の最高濃度値の座標と、上記凹部の最低
濃度値の座標とを比較する第2の比較ステップと、該第
2の比較ステップの比較結果により撮影体位を判別する
第2の判別ステップとを含むことを特徴とする。
According to an eighth aspect based on the fifth aspect,
The feature acquiring step includes a step of obtaining coordinates of a highest density value of the convex portion, and a process of obtaining coordinates of a lowest density value of the concave portion, and the determining step includes calculating the coordinates of the convex portion obtained in the feature obtaining step. A second comparing step of comparing the coordinates of the highest density value with the coordinates of the lowest density value of the concave portion; and a second determining step of determining a photographing position based on a result of the comparison in the second comparing step. It is characterized by.

【0015】第9の発明は、上記第5の発明において、
上記判別ステップは、上記凹凸部取得ステップで凹部が
得られたか否かに基づいて撮影体位を判別する第3の判
別ステップを含むことを特徴とする。
According to a ninth aspect, in the fifth aspect,
The determining step includes a third determining step of determining a photographing position based on whether or not a concave portion is obtained in the uneven portion acquiring step.

【0016】第10の発明は、上記第1、3、及び5の
何れかの発明において、処理対象となる上記撮影画像
は、平滑化された画像であることを特徴とする。
According to a tenth aspect, in any one of the first, third, and fifth aspects, the photographed image to be processed is a smoothed image.

【0017】第11の発明は、上記第1、3、及び5の
何れかの発明において、上記撮影画像は、放射線胸部画
像であり、上記第1の部位は、肺部であり、上記第2の
部位は、縦隔部であることを特徴とする。
In an eleventh aspect based on any one of the first, third and fifth aspects, the photographed image is a radiation chest image, the first part is a lung, and the second part is a lung part. Is characterized by being a mediastinum.

【0018】第12の発明は、少なくとも第1の部位と
第2の部位を有する被写体の撮影画像から、該被写体の
撮影体位を判別する画像判別装置であって、上記第1の
部位に対応する撮影画像領域の第1の濃度値と、上記第
2の部位に対応する撮影画像領域の第2の濃度値とを比
較する比較手段と、上記比較手段の比較結果から上記撮
影体位を判別する判別手段とを備えることを特徴とす
る。
A twelfth invention is an image discriminating apparatus for discriminating a photographing position of a subject from a photographed image of the subject having at least a first portion and a second portion, and corresponds to the first portion. Comparing means for comparing the first density value of the photographic image area with the second density value of the photographic image area corresponding to the second portion; and determining the photographic position from the comparison result of the comparing means. Means.

【0019】第13の発明は、上記第12の発明におい
て、上記第1の部位に対応する撮影画像領域の最高濃度
値を上記第1の濃度値として取得し、上記第2の部位に
対応する撮影画像領域の最低濃度値を上記第2の濃度値
として取得する濃度値取得手段を更に備え、上記比較手
段は、上記濃度値取得手段で得られた各濃度値を比較す
ることを特徴とする。
In a thirteenth aspect based on the twelfth aspect, a maximum density value of a photographed image area corresponding to the first part is obtained as the first density value, and the maximum density value corresponding to the second part is obtained. The image processing apparatus further includes a density value obtaining unit that obtains the lowest density value of the captured image area as the second density value, wherein the comparing unit compares the respective density values obtained by the density value obtaining unit. .

【0020】第14の発明は、少なくとも第1の部位と
第2の部位を有する被写体の撮影画像から、該被写体の
撮影体位を判別する画像判別装置であって、上記第1の
部位に対応する撮影画像領域内の特徴となる第1の座標
と、上記第2の部位に対応する撮影画像領域内の特徴と
なる第2の座標との距離とを比較する比較手段と、上記
比較手段の比較結果から上記撮影体位を判別する判別手
段とを備えることを特徴とする。
A fourteenth invention is an image discriminating apparatus for discriminating a photographing position of a subject from a photographed image of the subject having at least a first part and a second part, and corresponds to the first part. Comparison means for comparing the distance between the first coordinate serving as a feature in the captured image area and the second coordinate serving as a feature in the captured image area corresponding to the second part, and a comparison between the comparison means Determining means for determining the photographing position from the result.

【0021】第15の発明は、上記第14の発明におい
て、上記第1の部位に対応する撮影画像領域の中点の座
標を上記第1の座標として取得し、上記第2の部位に対
応する撮影画像領域の中点の座標を上記第2の座標とし
て取得する座標取得手段を更に備え、上記比較手段は、
上記座標取得手段で得られた各座標により得られた距離
を比較することを特徴とする。
In a fifteenth aspect based on the fourteenth aspect, the coordinates of the midpoint of the photographed image area corresponding to the first part are obtained as the first coordinates, and the coordinates corresponding to the second part are obtained. The image processing apparatus further includes a coordinate acquiring unit that acquires coordinates of a middle point of the captured image area as the second coordinates, wherein the comparing unit includes:
The distance obtained by each coordinate obtained by the coordinate obtaining means is compared.

【0022】第16の発明は、少なくとも第1の部位と
第2の部位を有する被写体の撮影画像から、該被写体の
撮影体位を判別する画像判別装置であって、上記第1の
部位に対応する撮影画像領域の最高濃度値を得る濃度値
取得手段と、上記撮像画像において、上記濃度値取得手
段で得られた最高濃度値の座標を通過する画像濃度値の
プロファイルを作成するプロファイル作成手段と、上記
プロファイル作成手段で作成されたプロファイルから凹
部及び凸部を得る凹凸部取得手段と、上記凹凸部取得手
段で得られた凹部及び凸部から各部の特徴となる濃度値
及びその座標を得る特徴取得手段と、上記特徴取得手段
で得られた各部の濃度値及び座標から撮影体位を判別す
る判別手段とを備えることを特徴とする。
A sixteenth invention is an image discriminating apparatus for discriminating a photographing position of a subject from a photographed image of the subject having at least a first part and a second part, and corresponds to the first part. Density value obtaining means for obtaining a maximum density value of a captured image area; and profile creation means for creating a profile of an image density value passing through coordinates of the maximum density value obtained by the density value obtaining means in the captured image; A concave / convex portion acquiring unit that obtains concave portions and convex portions from the profile created by the profile creating unit, and a feature acquisition that obtains a density value and a coordinate of a characteristic value of each portion from the concave and convex portions obtained by the concave / convex portion acquiring unit. Means for determining the photographing position from the density values and the coordinates of each part obtained by the feature acquiring means.

【0023】第17の発明は、上記第16の発明におい
て、上記撮影画像からす抜け領域及び該す抜け領域に接
する領域を所定幅内で削除するす抜け削除手段を更に備
え、上記濃度値取得手段は、上記す抜け削除手段で処理
された撮影画像に対して、上記最高濃度値を得る処理を
行うことを特徴とする。
In a seventeenth aspect based on the sixteenth aspect, the image processing apparatus further comprises a pass-through deletion means for deleting a pass-through region and a region in contact with the pass-through region from the photographed image within a predetermined width. The means performs processing for obtaining the maximum density value on the photographed image processed by the pass-through deletion means.

【0024】第18の発明は、上記第16の発明におい
て、上記特徴取得手段は、上記凸部の最高濃度値を取得
し、上記凹部の最低濃度値を取得し、上記判別手段は、
上記特徴取得手段で得られた上記凸部の最高濃度値と、
上記凹部の最低濃度値とを比較する第1の比較手段と、
該第1の比較手段の比較結果により撮影体位を判別する
第1の判別手段とを含むことを特徴とする。
In an eighteenth aspect based on the sixteenth aspect, the feature acquiring means acquires a maximum density value of the convex portion, a minimum density value of the concave portion, and the discriminating means comprises
The highest density value of the convex portion obtained by the feature obtaining means,
First comparing means for comparing with the lowest concentration value of the concave portion,
A first determining unit that determines a photographing position based on a comparison result of the first comparing unit.

【0025】第19の発明は、上記第16の発明におい
て、上記特徴取得手段は、上記凸部の最高濃度値の座標
を得ると共に、上記凹部の最低濃度値の座標を得て、上
記判別手段は、上記特徴取得手段で得られた上記凸部の
最高濃度値の座標と、上記凹部の最低濃度値の座標とを
比較する第2の比較手段と、該第2の比較手段の比較結
果により撮影体位を判別する第2の判別手段とを含むこ
とを特徴とする。
In a nineteenth aspect based on the sixteenth aspect, the feature acquiring means obtains the coordinates of the highest density value of the projection and the coordinates of the lowest density value of the recess, and A second comparing means for comparing the coordinates of the highest density value of the convex portion obtained by the feature acquiring means with the coordinates of the lowest density value of the concave portion, and a comparison result of the second comparing means. A second determination unit that determines a photographing position.

【0026】第20の発明は、上記第16の発明におい
て、上記判別手段は、上記凹凸部取得手段で凹部が得ら
れたか否かに基づいて撮影体位を判別する第3の判別手
段を含むことを特徴とする。
In a twentieth aspect based on the sixteenth aspect, the discriminating means includes a third discriminating means for discriminating a photographing position based on whether or not a concave portion is obtained by the uneven portion acquiring means. It is characterized by.

【0027】第21の発明は、上記第12、14、及び
16の何れかの発明において、処理対象となる上記撮影
画像は、平滑化された画像であることを特徴とする。
According to a twenty-first aspect, in any one of the twelfth, fourteenth, and sixteenth aspects, the photographed image to be processed is a smoothed image.

【0028】第22の発明は、上記第12、14、及び
16の何れかの発明において、上記撮影画像は、放射線
胸部画像であり、上記第1の部位は、肺部であり、上記
第2の部位は、縦隔部であることを特徴とする。
According to a twenty-second invention, in any one of the twelfth, fourteenth, and sixteenth inventions, the photographed image is a radiation chest image, the first part is a lung, and the second part is a lung part. Is characterized by being a mediastinum.

【0029】第23の発明は、少なくとも第1の部位と
第2の部位を有する被写体の撮影画像から、該被写体の
撮影体位を判別する処理ステップをコンピュータが読出
可能に格納した記憶媒体であって、上記処理ステップ
は、請求項1〜11の何れかに記載の画像判別方法の処
理ステップを含むことを特徴とする。
A twenty-third aspect of the present invention is a storage medium storing a computer readable processing step of determining a photographing position of a subject from a photographed image of the subject having at least a first part and a second part. The processing step includes a processing step of the image determining method according to any one of claims 1 to 11.

【0030】[0030]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0031】(第1の実施の形態)本発明は、例えば、
図1に示すような画像判別装置100に適用される。
(First Embodiment) The present invention provides, for example,
It is applied to an image discriminating apparatus 100 as shown in FIG.

【0032】この画像判別装置100は、上記図1に示
すように、特徴量抽出部110と、特徴量抽出部110
の出力が供給される画像判別部120と、特徴量抽出部
110及び画像判別部120を各々制御する制御部13
0と、制御部130からアクセスされるプグラムメモリ
140とを備えている。
As shown in FIG. 1, the image discriminating apparatus 100 includes a feature amount extracting unit 110 and a feature amount extracting unit 110.
The image discriminating unit 120 to which the output of the image is supplied, and the control unit 13 that controls each of the feature amount extracting unit 110 and the image discriminating unit 120
0 and a program memory 140 accessed by the control unit 130.

【0033】プログラムメモリ140には、例えば、図
2に示すようなフローチャートに従った処理プログラム
を含む各種の処理プログラムが予め格納されており、こ
れらの処理プログラムが制御部130により読み出され
実行されることで、特徴量抽出部110及び画像判別部
120の後述する動作制御が行われる。
Various processing programs including, for example, processing programs in accordance with the flowchart shown in FIG. 2 are stored in the program memory 140 in advance, and these processing programs are read out and executed by the control unit 130. Thus, operation control of the feature amount extraction unit 110 and the image determination unit 120, which will be described later, is performed.

【0034】特徴量抽出部110は、例えば、図3に示
すように、入力された画像データ(ここでは、図4に示
すような放射線胸部画像データf(x,y)とする)か
らす抜け領域(上記図4の斜線部分)、及びす抜け領域
と一定幅で接する体領域を削除するす抜け削除回路11
1と、す抜け削除回路111にて削除されなかった領域
から濃度値の最高値とその座標を算出する最高値算出回
路112と、最高値算出回路112で算出された濃度値
の最高値の座標を通るプロファイルを作成するプロファ
イル作成回路113と、プロファイル作成回路113で
作成されたプロファイルから凹凸部領域を算出する凹凸
部算出回路114と、凹凸部算出回路114で算出され
た凹凸部領域からその濃度値の最低値及び最低値とその
座標を算出する最低値算出回路115とを備えている。
For example, as shown in FIG. 3, the feature quantity extraction unit 110 passes through the input image data (here, the radiation chest image data f (x, y) as shown in FIG. 4). A pass-through deletion circuit 11 for deleting a region (a shaded portion in FIG. 4) and a body region in contact with the pass-through region at a fixed width.
1, a maximum value calculation circuit 112 for calculating the maximum density value and its coordinates from the area not deleted by the pass-through deletion circuit 111, and a coordinate of the maximum density value calculated by the maximum value calculation circuit 112 Creating circuit 113 for creating a profile passing through, an unevenness calculating circuit 114 for calculating an unevenness area from the profile created by the profile creating circuit 113, and a density of the unevenness calculated from the unevenness area calculated by the unevenness calculating circuit 114. It has a minimum value and a minimum value and a minimum value calculation circuit 115 for calculating its coordinates.

【0035】また、画像判別部120は、凹凸部算出回
路114で算出された凹凸部領域から撮影体位を判別す
る第3の判定回路121と、濃度値算出回路115で算
出された濃度値の最高値及び最低値から撮影体位を判別
する第1の判定回路123と、濃度値算出回路115で
算出された濃度値の最高値及び最低値の座標から撮影体
位を判別する第2の判定回路122とを備えている。
The image discriminating section 120 determines a photographing position from the uneven portion area calculated by the uneven portion calculating circuit 114, and the highest density value calculated by the density value calculating circuit 115. A first determination circuit 123 that determines the photographing position from the values and the minimum value, a second determination circuit 122 that determines the photographing position from the coordinates of the highest value and the lowest value of the density value calculated by the density value calculation circuit 115, It has.

【0036】上述のような画像判別装置100は、プロ
グラムメモリ140に格納された上記図2の処理プログ
ラムが制御部130により読み出され実行されること
で、以下のように動作する。
The image discriminating apparatus 100 as described above operates as follows by reading and executing the processing program of FIG. 2 stored in the program memory 140 by the control unit 130.

【0037】先ず、す抜け削除回路111は、入力され
た画像データf(x,y)において、照射領域内のす抜
け領域と、す抜け領域と一定幅で接する体領域とを、例
えば、”0”画素で置き換える(ステップS201)。
具体的には、入力された画像データf(x,y)に対し
て、
First, the pass-through deletion circuit 111 determines, in the input image data f (x, y), a pass-through region in the irradiation region and a body region which is in contact with the pass-through region with a certain width, for example, Replace with a 0 "pixel (step S201).
Specifically, for the input image data f (x, y),

【0038】[0038]

【数1】 (Equation 1)

【0039】なる式(1)で示される画像の変換を行
う。この式(1)において、”f1(x,y)”は、画
像データf(x,y)から、す抜け領域と、該す抜け領
域と一定幅で接する体領域とを削除した後の画像データ
を示す。また、”sgn(x,y)”は、実験等により
定められた定数Th1、及び体領域を削除する幅を決定
する定数d1,d2を持って、
The conversion of the image represented by the following equation (1) is performed. In this equation (1), “f1 (x, y)” is an image obtained by deleting a through region and a body region in contact with the through region with a certain width from the image data f (x, y). Show data. “Sgn (x, y)” has constants Th1 determined by experiments and the like and constants d1 and d2 that determine the width of deleting the body region.

【0040】[0040]

【数2】 (Equation 2)

【0041】なる式(2)で示される。Is represented by the following equation (2).

【0042】次に、最高値算出回路112は、す抜け削
除回路111で得られた画像データf1(x,y)にお
いて、濃度値の最高値maxとその座標を算出する(ス
テップS202)。
Next, the maximum value calculating circuit 112 calculates the maximum value max of the density value and its coordinates in the image data f1 (x, y) obtained by the through deletion circuit 111 (step S202).

【0043】次に、プロファイル作成回路113は、最
高値算出回路112で算出された濃度値の最高値max
の座標を通り、例えば、体側に垂直方向のプロファイル
を作成する(ステップS203)。尚、ここでは、上記
図4に示すように、最高値maxを通る横軸a方向のプ
ロファイルを作成するものとする。このプロファイル作
成回路113により、例えば、図5(a)〜(f)に示
すようなプロファイルが作成されることになる。この図
5において、(a)は、撮影体位が肺正面状態の標準的
なプロファイルであり、(b)〜(e)は、センサ面に
胸部を向け、該センサ面に対して左体側を接したまま右
体側を浮かし、センサ面と体部の向きを15°、30
°、45°、60°というように徐々に変えた場合の各
撮影体位でのプロファイルを示したものである。また、
(f)は、撮影体位が肺側面状態の標準的なプロファイ
ルを示したものである。
Next, the profile creation circuit 113 calculates the maximum value max of the density value calculated by the maximum value calculation circuit 112.
, A vertical profile is created on the body side (step S203). Here, as shown in FIG. 4, it is assumed that a profile in the horizontal axis a direction passing through the maximum value max is created. The profile creation circuit 113 creates a profile as shown in FIGS. 5A to 5F, for example. In FIG. 5, (a) is a standard profile in which the imaging position is in front of the lung, and (b) to (e), the chest is directed to the sensor surface and the left body side is in contact with the sensor surface. Lift the right body side with the sensor face and body direction at 15 °, 30 °.
It shows the profile at each photographing position when the angle is gradually changed to, for example, °, 45 °, and 60 °. Also,
(F) shows a standard profile in which the photographing position is the state of the lung side surface.

【0044】次に、凹凸部算出回路114は、プロファ
イル作成回路113で作成されたプロファイルから凹凸
部領域を算出する(ステップS204)。具体的には、
Next, the uneven portion calculating circuit 114 calculates an uneven portion region from the profile created by the profile creating circuit 113 (step S204). In particular,

【0045】[0045]

【数3】 (Equation 3)

【0046】なる式(3)で示されるx領域を算出す
る。この式(3)において、”y1”は、最高値算出回
路112で算出された濃度値の最高値のy軸上の座標位
置を示し、”d”は、実験等により定められた定数を示
す。そして、凹凸部算出回路114は、上記式(3)に
より算出したx領域を凹部領域とし、他の領域を凸部領
域とする。
The x region represented by the following equation (3) is calculated. In this equation (3), “y1” indicates the coordinate position on the y-axis of the highest value of the density value calculated by the highest value calculation circuit 112, and “d” indicates a constant determined by an experiment or the like. . Then, the concavo-convex portion calculation circuit 114 sets the x region calculated by the above equation (3) as a concave region and the other region as a convex region.

【0047】次に、第3の判定回路121は、凹凸部算
出回路114で凹部領域が算出されたか否かを判別する
(ステップS205)。ステップS205で”凹部領域
なし”と判別された場合、第3の判定回路121は、撮
影体位が側面であると判定する(ステップS206)。
これは、上記図5(f)に示すように、撮影体位が側面
である場合は、凹部領域が存在しないためである。この
判定後、本処理終了となる。
Next, the third determination circuit 121 determines whether or not the concave / convex portion has been calculated by the concave / convex portion calculation circuit 114 (step S205). When it is determined that “there is no concave area” in step S205, the third determination circuit 121 determines that the imaging position is the side surface (step S206).
This is because, as shown in FIG. 5 (f), when the photographing position is the side surface, the concave region does not exist. After this determination, the process ends.

【0048】一方、ステップS205で”凹部領域あ
り”と判別された場合、濃度値算出回路115は、凹凸
部算出回路114で算出された凹凸部領域により、左の
凸部領域の最高値a1 と、該最高値a1 の座標と、凹部
領域の最低値bと、該最低値bの座標と、右の凸部領域
の最高値a2 と、該最高値a2 の座標とを算出する(ス
テップS207)。
On the other hand, if it is determined in step S 205 that “there is a concave area”, the density value calculation circuit 115 calculates the maximum value a 1 of the left convex area based on the uneven area calculated by the uneven area calculation circuit 114. When, calculates the coordinates outermost high a 1, and the lowest value b of the recess region, and the coordinates of the minimum value b, the maximum value a 2 of the right convex region, and the coordinates outermost high a 2 (Step S207).

【0049】そして、第1の判定回路123は、濃度値
算出回路115で算出された左の凸部領域の最高値a1
と、凹部領域の最低値bとを比較し、撮影体位を判定す
る(ステップS208)。具体的には、
The first judgment circuit 123 calculates the maximum value a 1 of the left convex area calculated by the density value calculation circuit 115.
Is compared with the lowest value b of the recessed area, and the photographing position is determined (step S208). In particular,

【0050】[0050]

【数4】 (Equation 4)

【0051】なる式(4)で得られる値Hから判定す
る。ここでは、例えば、上記値Hと、撮影体位との対応
表であるテーブルを予め設けておき、そのテーブルか
ら、実際に得られた値Hに対応する撮影体位を求めて決
定する。
The determination is made from the value H obtained by the following equation (4). Here, for example, a table which is a correspondence table between the value H and the photographing position is provided in advance, and the photographing position corresponding to the actually obtained value H is obtained and determined from the table.

【0052】また、第2の判定回路123は、濃度値算
出回路115で算出された左の凸部領域の最高値a1
座標と、凹部領域の最低値bの座標との間の距離d
1 と、右の凸部領域の最高値a2 の座標と、凹部領域の
最低値bの座標との間の距離d2とを比較し、胸部の左
右側面の何れが管球(放射線発射口)に近いかを判別す
る(ステップS209)。具体的には、「d1 <d2
なる関係であれば、右側面が距離的に管球に近い撮影体
位であると判定し、「d1 >d2 」なる関係であれば、
左側面が距離的に管球に近い撮影体位であると判定す
る。この判定後、本処理終了となる。
The second determination circuit 123 calculates a distance d between the coordinates of the maximum value a 1 of the left convex area calculated by the density value calculation circuit 115 and the coordinates of the minimum value b of the concave area.
1, and the coordinate maximum value a 2 of the right convex region, compares the distance d 2 between the coordinates of the minimum value b of the recess region, either the tube of the left and right sides of the chest (radiation emitting port ) Is determined (step S209). Specifically, “d 1 <d 2
If it is a relationship, it is determined that the right side is a photographing position close to the tube in terms of distance, and if it is a relationship of “d 1 > d 2 ”,
It is determined that the left side surface is in the photographing position close to the tube in terms of distance. After this determination, the process ends.

【0053】上述のように、本実施の形態では、す抜け
領域と、す抜け領域に接する一定幅の体内領域を削除す
るように構成したことにより、体内領域の最大濃度値
を、短時間で精度よく安定して抽出することができる。
また、体内領域の濃度値の最大値maxを通るプロファ
イルの形状から、撮影体位を判定するように構成したこ
とにより、撮影条件の変化等の影響を受けることなく、
短時間で精度良く、撮影体位を判定することができる。
さらに、胸部左の凸部領域の最高値a1 の座標と、凹部
領域の最低値bの座標との間の距離d1 と、胸部右の凸
部領域の最高値a2 の座標と、凹部領域の最低値bの座
標との間の距離d2 とを比較するように構成したことに
より、精度良く、撮影体位が右向きであるか左向きであ
るかを判定することができる。
As described above, in this embodiment, the through region and the in-vivo region having a fixed width in contact with the through region are deleted, so that the maximum density value of the in-vivo region can be reduced in a short time. Extraction can be performed stably with high accuracy.
In addition, since the imaging position is determined from the shape of the profile passing through the maximum value max of the density value of the in-vivo region, the imaging position is not affected by changes in imaging conditions and the like.
The photographing position can be determined accurately in a short time.
Further, the distance d 1 between the coordinates of the highest value a 1 of the left chest region and the coordinates of the lowest value b of the concave region, the coordinates of the highest value a 2 of the right convex region of the chest, and the concave portion with the arrangements so as to compare the distance d 2 between the lowest value b of the coordinate areas, accurately capturing posture can determine whether a left or a right.

【0054】(第2の実施の形態)(Second Embodiment)

【0055】本実施の形態では、上述した第1の実施の
形態における画像判別装置100(上記図1)の画像判
別部120の構成を、例えば、図6に示すような構成と
する。すなわち、本実施の形態では、第2の判定回路1
22の出力を、第1の判定回路123に供給する構成
が、第1の実施の形態と異なる。
In the present embodiment, the configuration of the image discriminating section 120 of the image discriminating apparatus 100 (FIG. 1) in the first embodiment is, for example, as shown in FIG. That is, in the present embodiment, the second determination circuit 1
The configuration for supplying the output of the second 22 to the first determination circuit 123 is different from that of the first embodiment.

【0056】尚、ここでは、第1の実施の形態と異なる
構成についてのみ、具体的に説明する。
Here, only the configuration different from that of the first embodiment will be specifically described.

【0057】まず、第2の判定回路122は、上述した
ように、濃度値算出回路115で算出された左の凸部領
域の最高値a1 の座標と、凹部領域の最低値bの座標と
の間の距離d1 と、右の凸部領域の最高値a2 の座標
と、凹部領域の最低値bの座標との間の距離d2 との関
係が、「d1 <d2 」であるか「d1 >d2 」であるか
により、胸部の左右側面の何れが管球(放射線発射口)
に近いかを判別する。そこで、第2の判定回路122
は、この判別結果を第1の判定回路123に供給する。
First, as described above, the second determination circuit 122 calculates the coordinates of the maximum value a 1 of the left convex area calculated by the density value calculation circuit 115 and the coordinates of the minimum value b of the concave area. the distance d 1 between the maximum value a 2 of the coordinates of the right convex region, the relationship between the distance d 2 between the coordinates of the minimum value b of the recess region, the "d 1 <d 2" Which one of the right and left sides of the chest is a tube (radiation emission port), depending on whether or not “d 1 > d 2
Is determined to be close to Therefore, the second determination circuit 122
Supplies this determination result to the first determination circuit 123.

【0058】第1の判定回路123は、第2の判定回路
122からの判別結果により、距離d1 と距離d2 の関
係が「d1 <d2 」である場合には、上述したようにし
て、上記式(4)を採用して撮影体位を判定する。一
方、それ以外の関係である場合、
When the relationship between the distance d 1 and the distance d 2 satisfies “d 1 <d 2 ” according to the result of the determination from the second determination circuit 122, the first determination circuit 123 Then, the photographing position is determined by using the above equation (4). On the other hand, if it is any other relationship,

【0059】[0059]

【数5】 (Equation 5)

【0060】なる式(5)を採用して撮影体位を判定す
る。すなわち、濃度値算出回路115で算出された右の
凸部領域の最高値a2 と、凹部領域の最低値bとを比較
し、撮影体位を判定する。
The photographing position is determined by using the following equation (5). That is, the photographing position is determined by comparing the highest value a 2 of the right convex region calculated by the density value calculating circuit 115 with the lowest value b of the concave region.

【0061】上述のように、本実施の形態では、「d1
<d2 」である場合(右側面が距離的に管球に近い撮影
体位である場合)には、左の凸部領域の最高値a1 を用
いた式(4)を採用して判定を行い、それ以外である場
合(左側面が距離的に管球に近い撮影体位である場合)
には、右の凸部領域の最高値a2 を用いた式(5)を採
用して判定を行う、というように、管球に遠い方の最高
値よりも変動の少ない管球に近い方の肺領域の凸部領域
の最高値を判定式に用いるように構成したことにより、
より安定した撮影体位の判定を行うことができる。
As described above, in the present embodiment, “d 1
In the case of <d 2 ”(when the right side is a photographing position close to the tube in terms of distance), the determination is made by using the equation (4) using the maximum value a 1 of the left convex region. Yes, otherwise (when the left side is in a shooting position close to the tube in terms of distance)
, The determination is performed employing Equation (5) using the maximum value a 2 of the right convex region, and so on, closer to the small tube fluctuation than the highest value farther to the tube By using the highest value of the convex region of the lung region in the judgment formula,
More stable determination of the photographing position can be performed.

【0062】(第3の実施の形態)(Third Embodiment)

【0063】本実施の形態では、上記図3に示した最高
値算出回路112において、す抜け領域と、該す抜け領
域と一定幅で接する領域とを削除した画像から、濃度値
の最高値とその座標を算出する処理を実施するために、
例えば、図7に示すようなフローチャートに従った処理
プログラムを採用する。この図7の処理プログラムは、
プログラムメモリ140に予め格納されており、制御部
130により読み出され実行されることで、最高値算出
回路112は、次のように動作する。
In this embodiment, the maximum value calculation circuit 112 shown in FIG. 3 calculates the maximum density value from the image in which the through area and the area in contact with the through area at a constant width are deleted. In order to perform the process of calculating the coordinates,
For example, a processing program according to a flowchart as shown in FIG. 7 is employed. The processing program of FIG.
The maximum value calculation circuit 112, which is stored in the program memory 140 in advance and read and executed by the control unit 130, operates as follows.

【0064】先ず、す抜け削除回路111により得られ
た画像(す抜け領域、及びす抜け領域と一定幅で接する
領域を削除した画像)の累計ヒストグラムを作成する
(ステップS301)。
First, a cumulative histogram of an image obtained by the pass-through deletion circuit 111 (an image obtained by deleting a pass-through area and an area in contact with the pass-through area with a certain width) is created (step S301).

【0065】次に、ステップS301で作成した累計ヒ
ストグラム上において、実験等により定められた定数T
h3以上の画素を抽出する(ステップS302)。
Next, on the cumulative histogram created in step S301, a constant T determined by an experiment or the like is set.
The pixel of h3 or more is extracted (step S302).

【0066】次に、ステップS302で抽出した画素の
重心を算出し(ステップS303)、その重心の座標を
通るプロファイルを平滑化する(ステップS304)。
ここでの平滑化には、例えば、濃度平均、一定領域内の
中間値、グレイスケールモルフォロジ等を用いる。
Next, the center of gravity of the pixel extracted in step S302 is calculated (step S303), and a profile passing through the coordinates of the center of gravity is smoothed (step S304).
For the smoothing here, for example, a density average, an intermediate value in a certain area, a gray scale morphology and the like are used.

【0067】そして、ステップS304で平滑化したプ
ロファイル上の最高濃度値及びその座標を、後段のプロ
ファイル作成回路113に対して出力する最高濃度値の
座標、及び最高濃度値とする(ステップS305)。
The highest density value and its coordinates on the profile smoothed in step S304 are set as the coordinates of the highest density value and the highest density value to be output to the subsequent profile creation circuit 113 (step S305).

【0068】上述のように、本実施の形態では、累計ヒ
ストグラムを用い、一定濃度値(Th3)以上の重心
を、プロファイル作成回路113で用いる最高濃度値の
座標及び最高濃度値とするように構成したことにより、
ノイズを除去することができ、安定した特徴量を得るこ
とができる。また、算出した重心を通るプロファイルを
平滑化し、再度最高濃度値の座標及び最高濃度値とする
ように構成したことにより、ノイズの影響を受けること
なく、安定して精度良く特徴量を算出することができ
る。
As described above, in the present embodiment, the cumulative histogram is used, and the center of gravity having a certain density value (Th3) or more is set as the coordinates of the highest density value and the highest density value used in the profile creation circuit 113. By doing,
Noise can be removed, and a stable feature amount can be obtained. In addition, since the profile passing through the calculated center of gravity is smoothed and configured to be the coordinates of the highest density value and the highest density value again, the feature amount can be stably and accurately calculated without being affected by noise. Can be.

【0069】尚、本発明の目的は、上述した第1〜第3
の実施の形態のホスト及び端末の機能を実現するソフト
ウェアのプログラムコードを記憶した記憶媒体を、シス
テム或いは装置に供給し、そのシステム或いは装置のコ
ンピュータ(又はCPUやMPU)が記憶媒体に格納さ
れたプログラムコードを読みだして実行することによっ
ても、達成されることは言うまでもない。この場合、記
憶媒体から読み出されたプログラムコード自体が前述し
た上述した第1〜第3の実施の形態の機能を実現するこ
ととなり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することとなる。
It should be noted that the object of the present invention is to
A storage medium storing software program codes for realizing the functions of the host and the terminal according to the embodiment is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus is stored in the storage medium. It goes without saying that this can also be achieved by reading and executing the program code. In this case, the program code itself read from the storage medium realizes the functions of the above-described first to third embodiments, and the storage medium storing the program code constitutes the present invention. Becomes

【0070】プログラムコードを供給するための記憶媒
体としては、ROM、フロッピーディスク、ハードディ
スク、光ディスク、光磁気ディスク、CD−ROM、C
D−R、磁気テープ、不揮発性のメモリカード等を用い
ることができる。
As storage media for supplying the program code, ROM, floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, C
DR, a magnetic tape, a nonvolatile memory card, or the like can be used.

【0071】また、コンピュータが読みだしたプログラ
ムコードを実行することにより、上述した第1〜第3の
実施の形態の機能が実現されるだけでなく、そのプログ
ラムコードの指示に基づき、コンピュータ上で稼動して
いるOS等が実際の処理の一部又は全部を行い、その処
理によって上述した第1〜第3の実施の形態の機能が実
現される場合も含まれることは言うまでもない。
By executing the program code read by the computer, not only the functions of the above-described first to third embodiments are realized, but also the computer executes the program code based on the instructions of the program code. It is needless to say that the operating OS or the like performs a part or all of the actual processing, and the processing realizes the functions of the above-described first to third embodiments.

【0072】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された拡張機能ボー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書き込まれた後、そのプログラムコードの指
示に基づき、その機能拡張ボードや機能拡張ユニットに
備わるCPUなどが実際の処理の一部又は全部を行い、
その処理によって上述した第1〜第3の実施の形態の機
能が実現される場合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written in a memory provided in an extended function board inserted into the computer or a function extension unit connected to the computer, based on the instructions of the program code, The CPU provided in the function expansion board or function expansion unit performs part or all of the actual processing,
It goes without saying that the processing may realize the functions of the above-described first to third embodiments.

【0073】[0073]

【発明の効果】以上説明したように、第1及び第12の
各発明では、撮影画像において、第1の部位(胸部の肺
部等)の第1の濃度値と、第2の部位(胸部の縦隔部
等)の第2の濃度値とを比較し、その比較結果から被写
体の撮影体位を判別するように構成した。これにより、
処理時間の短縮して効率良く、且つ精度よく撮影体位を
判別することができる。また、第1の濃度値として第1
の部位の最高濃度値を用い、第2の濃度値として第2の
部位の最低濃度値を用いるように構成すれば、より安定
した濃度値の特徴量を得ることができるため、判別精度
を向上させることができる。また、平滑化した撮影画像
を処理対象画像として用いるように構成すれば、ノイズ
の影響を受けることなく、安定した撮影体位の判別を行
うことができる。
As described above, in each of the first and twelfth aspects of the present invention, the first density value of the first part (the lung part of the chest, etc.) and the second part (the chest part) And the second density value of the mediastinum and the like, and the photographing position of the subject is determined from the comparison result. This allows
The processing time can be shortened, and the photographing position can be determined efficiently and accurately. In addition, the first density value is the first density value.
If the maximum density value of the part is used and the minimum density value of the second part is used as the second density value, a more stable feature value of the density value can be obtained, so that the discrimination accuracy is improved. Can be done. Further, if the smoothed photographed image is configured to be used as the processing target image, the photographing posture can be stably determined without being affected by noise.

【0074】第3及び第14の各発明では、撮影画像に
おいて、第1の部位の特徴となる第1の座標と、第2の
部位の特徴となる第1の座標との間の距離により、被写
体の撮影体位を判別するように構成した。これにより、
撮影体位の向きを判別することができる。例えば、胸部
画像において、第1の部位を左右の肺部とし、第2の部
位を縦隔部として、左肺部の特徴となる座標と、縦隔部
の特徴となる座標との間の距離と、右肺部の特徴となる
座標と、縦隔部の特徴となる座標との間の距離とを比較
し、その比較結果により撮影体位を判別することで、安
定して左右の撮影体位を判別することができる。また、
第1の座標として第1の部位の中点の座標を用い、第2
の座標として第2の部位の中点を用いるように構成すれ
ば、判定に用いる距離情報をより正確に安定して得るこ
とができるため、さらに精度良く撮影体位の向きを判別
することができる。また、平滑化した撮影画像を処理対
象画像として用いるように構成すれば、ノイズの影響を
受けることなく、安定した撮影体位の判別を行うことが
できる。
In each of the third and fourteenth aspects of the present invention, the distance between the first coordinate, which is the characteristic of the first part, and the first coordinate, which is the characteristic of the second part, in the captured image, The photographing position of the subject is determined. This allows
The direction of the photographing position can be determined. For example, in the chest image, the first region is defined as the left and right lung regions, and the second region is defined as the mediastinum, and the distance between the coordinates characteristic of the left lung region and the coordinates characteristic of the mediastinal region. By comparing the distance between the characteristic coordinates of the right lung and the characteristic coordinates of the mediastinum, and determining the photographing position based on the comparison result, the left and right photographing positions can be stably determined. Can be determined. Also,
Using the coordinates of the midpoint of the first part as the first coordinates,
If the middle point of the second part is used as the coordinates of, the distance information used for the determination can be obtained more accurately and stably, so that the direction of the photographing body position can be determined with higher accuracy. Further, if the smoothed photographed image is configured to be used as the processing target image, the photographing posture can be stably determined without being affected by noise.

【0075】第5及び第16の各発明では、第1の部位
(胸部の肺部等)の最高濃度値を横切るプロファイルを
作成して、そのプロファイルから、凹部(胸部の縦隔部
等に対応する部分)及び凸部(胸部の肺部等に対応する
部分)の特徴となる濃度値及びその座標を取得し、その
結果により、撮影体位を判別するように構成した。これ
により、凹部及び凸部の特徴となる濃度値及びその座標
を容易に得ることができるため、処理時間の短縮して効
率良く、且つ精度よく撮影体位を判別することができ
る。また、凸部の最高濃度値と、凹部の最低濃度値とを
比較し、その比較結果により撮影体位を判別するように
構成すれば、より精度よく撮影体位を判別することがで
きる。また、凸部の最高濃度値の座標と、凹部の最低濃
度値の座標との間の距離により、撮影体位を判別するよ
うに構成すれば、撮影体位の向きを判別することができ
る。例えば、胸部画像において、第1の部位を左右の肺
部とし、第2の部位を縦隔部として、左凸部(左肺部)
の最高濃度値の座標と、凹部(縦隔部)の最低濃度値の
座標との間の距離と、右凸部(右肺部)最高濃度値の座
標と、凹部(縦隔部)の最低濃度値の座標との間の距離
とを比較し、その比較結果により撮影体位を判別するこ
とで、安定して左右の撮影体位を判別することができ
る。また、凹部が得られたか否かによって撮影体位を判
別するように構成すれば、例えば、胸部画像において、
凹部が得られなかった場合、撮影体位が側面向き(90
°向き)であると判別して処理を終了させることで、処
理時間を短縮して効率的に撮影体位を判別することがで
き、凹部が得られなかった場合にも、安定した撮影体位
の判別を行うことができる。また、撮影画像からす抜け
領域及び該す抜け領域に接する領域を所定幅内で削除し
て、その画像を処理対象画像として用いるように構成す
れば、凹部及び凸部の特徴量としての濃度値を安定して
抽出することができる。例えば、胸部画像では、最高濃
度値は肺部からしか得られないため、より安定して濃度
値を特徴量として抽出することができる。また、平滑化
した撮影画像を処理対象画像として用いるように構成す
れば、ノイズの影響を受けることなく、安定した撮影体
位の判別を行うことができる。
In each of the fifth and sixteenth inventions, a profile that crosses the highest density value of the first part (the lung part of the chest, etc.) is created, and the profile corresponds to the concave part (the mediastinum part of the chest, etc.). And the coordinates of the density values, which are the characteristics of the convex portions (portions corresponding to the lungs of the chest, etc.), are obtained, and the photographing position is determined based on the results. This makes it possible to easily obtain the density values and the coordinates thereof, which are the characteristics of the concave portions and the convex portions, so that the processing time can be reduced and the photographing position can be determined efficiently and accurately. In addition, if the maximum density value of the convex portion is compared with the minimum density value of the concave portion, and the comparison result is used to determine the photographing position, the photographing position can be determined more accurately. If the configuration is such that the photographing position is determined based on the distance between the coordinates of the highest density value of the convex portion and the coordinates of the lowest density value of the concave portion, the direction of the photographing position can be determined. For example, in the chest image, the first part is the left and right lung parts, the second part is the mediastinum part, and the left convex part (left lung part)
, The distance between the coordinates of the highest density value of the concave portion (mediastinum portion), the coordinates of the highest density value of the right convex portion (right lung portion), and the coordinates of the highest density value of the concave portion (mediastinum portion). By comparing the distance with the coordinates of the density value and determining the photographing position based on the comparison result, the left and right photographing positions can be determined stably. Further, if the configuration is such that the photographing position is determined based on whether or not the concave portion is obtained, for example, in a chest image,
When the concave portion is not obtained, the photographing position is directed sideways (90
° orientation) and terminate the process, the processing time can be shortened and the photographing position can be determined efficiently. Even if a concave portion is not obtained, the stable photographing position can be determined. It can be performed. In addition, if a configuration is adopted in which a through region and a region in contact with the through region from a captured image are deleted within a predetermined width and the image is used as a processing target image, a density value as a feature amount of the concave portion and the convex portion is obtained. Can be stably extracted. For example, in a chest image, since the highest density value can be obtained only from the lung, the density value can be more stably extracted as a feature value. Further, if the smoothed photographed image is configured to be used as the processing target image, the photographing posture can be stably determined without being affected by noise.

【0076】第23の発明によれば、撮影画像から被写
体の撮影体位を正確に、且つ効率的に判別する装置やシ
ステムを提供することができる。
According to the twenty-third aspect, it is possible to provide an apparatus and a system for accurately and efficiently determining the photographing position of a subject from a photographed image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の実施の形態において、本発明を適用した
画像判別装置の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an image discriminating apparatus to which the present invention is applied in a first embodiment.

【図2】上記画像判別装置で実行される処理プログラム
を説明するためのフローチャートである。
FIG. 2 is a flowchart for explaining a processing program executed by the image discriminating apparatus.

【図3】上記画像判別装置の特徴量抽出部及び画像判別
部の詳細な構成を示すブロック図である。
FIG. 3 is a block diagram illustrating a detailed configuration of a feature amount extraction unit and an image determination unit of the image determination device.

【図4】上記画像判別装置に入力される画像データの一
例を説明するための図である。
FIG. 4 is a diagram illustrating an example of image data input to the image discriminating apparatus.

【図5】肺領域のプロファイルの一例を説明するための
図である。
FIG. 5 is a diagram illustrating an example of a profile of a lung region.

【図6】第2の実施の形態において、上記画像判別部の
構成を示すブロック図である。
FIG. 6 is a block diagram illustrating a configuration of the image determination unit according to the second embodiment.

【図7】第3の実施の形態において、上記特徴量抽出部
の最高値算出回路で実行される処理プログラムを説明す
るためのフローチャートである。
FIG. 7 is a flowchart illustrating a processing program executed by a maximum value calculation circuit of the feature amount extraction unit in the third embodiment.

【符号の説明】[Explanation of symbols]

110 特徴量抽出部 111 す抜け削除回路 112 最高値算出回路 113 プロファイル作成回路 114 凹凸部算出回路 115 濃度値算出回路 120 画像判別部 121 第3の判定回路 122 第2の判定回路 123 第1の判定回路 Reference Signs List 110 feature amount extraction unit 111 slip-through deletion circuit 112 maximum value calculation circuit 113 profile creation circuit 114 unevenness calculation circuit 115 density value calculation circuit 120 image determination unit 121 third determination circuit 122 second determination circuit 123 first determination circuit

Claims (23)

【特許請求の範囲】[Claims] 【請求項1】 少なくとも第1の部位と第2の部位を有
する被写体の撮影画像から、該被写体の撮影体位を判別
する処理ステップを含む画像判別方法であって、該処理
ステップは、 上記第1の部位に対応する撮影画像領域の第1の濃度値
と、上記第2の部位に対応する撮影画像領域の第2の濃
度値とを比較する比較ステップと、 上記比較ステップの比較結果から上記撮影体位を判別す
る判別ステップとを含むことを特徴とする画像判別方
法。
1. An image discriminating method including a processing step of determining a photographing position of a subject from a photographed image of the subject having at least a first part and a second part, wherein the processing step includes the first step. A comparing step of comparing a first density value of a photographed image area corresponding to the part with a second density value of a photographed image area corresponding to the second part; A determination step of determining a body position.
【請求項2】 上記処理ステップは、上記第1の部位に
対応する撮影画像領域の最高濃度値を上記第1の濃度値
として取得し、上記第2の部位に対応する撮影画像領域
の最低濃度値を上記第2の濃度値として取得する濃度値
取得ステップを含み、 上記比較ステップは、上記濃度値取得ステップで得られ
た各濃度値を比較するステップを含むことを特徴とする
請求項1記載の画像判別方法。
2. The processing step comprising: obtaining a highest density value of a photographed image area corresponding to the first part as the first density value, and obtaining a lowest density value of a photographed image area corresponding to the second part. 2. A density value acquiring step of acquiring a value as the second density value, wherein the comparing step includes a step of comparing each density value obtained in the density value acquiring step. Image discrimination method.
【請求項3】 少なくとも第1の部位と第2の部位を有
する被写体の撮影画像から、該被写体の撮影体位を判別
する処理ステップを含む画像判別方法であって、該処理
ステップは、 上記第1の部位に対応する撮影画像領域内の特徴となる
第1の座標と、上記第2の部位に対応する撮影画像領域
内の特徴となる第2の座標との距離とを比較する比較ス
テップと、 上記比較ステップの比較結果から上記撮影体位を判別す
る判別ステップとを含むことを特徴とする画像判別方
法。
3. An image discriminating method including a processing step of determining a photographing position of a subject from a photographed image of the subject having at least a first part and a second part, wherein the processing step includes the first step. A comparison step of comparing a distance between the first coordinate serving as a feature in the captured image area corresponding to the part and the second coordinate serving as a feature in the captured image area corresponding to the second part; A determining step of determining the photographing position from the comparison result of the comparing step.
【請求項4】 上記処理ステップは、上記第1の部位に
対応する撮影画像領域の中点の座標を上記第1の座標と
して取得し、上記第2の部位に対応する撮影画像領域の
中点の座標を上記第2の座標として取得する座標取得ス
テップを含み、 上記比較ステップは、上記座標取得ステップで得られた
各座標により得られた距離を比較するステップを含むこ
とを特徴とする請求項3記載の画像判別方法。
4. The processing step comprises: obtaining coordinates of a middle point of the photographed image area corresponding to the first part as the first coordinates, and obtaining a middle point of the photographed image area corresponding to the second part. A coordinate acquisition step of acquiring the coordinates of the first coordinate as the second coordinate, and the comparing step includes a step of comparing distances obtained by the respective coordinates obtained in the coordinate acquisition step. 3. The image discriminating method according to 3.
【請求項5】 少なくとも第1の部位と第2の部位を有
する被写体の撮影画像から、該被写体の撮影体位を判別
する処理ステップを含む画像判別方法であって、該処理
ステップは、 上記第1の部位に対応する撮影画像領域の最高濃度値を
得る濃度値取得ステップと、 上記撮像画像において、上記濃度値取得ステップで得ら
れた最高濃度値の座標を通過する画像濃度値のプロファ
イルを作成するプロファイル作成ステップと、 上記プロファイル作成ステップで作成されたプロファイ
ルから凹部及び凸部を得る凹凸部取得ステップと、 上記凹凸部取得ステップで得られた凹部及び凸部から各
部の特徴となる濃度値及びその座標を得る特徴取得ステ
ップと、 上記特徴取得ステップで得られた各部の濃度値及び座標
から撮影体位を判別する判別ステップとを含むことを特
徴とする画像判別方法。
5. An image discriminating method including a processing step of determining a photographing position of a subject from a photographed image of the subject having at least a first part and a second part, wherein the processing step includes the first step. A density value obtaining step of obtaining the highest density value of the photographed image area corresponding to the part, and a profile of an image density value passing through the coordinates of the highest density value obtained in the density value obtaining step in the captured image. A profile creation step, a concavo-convex portion acquiring step of obtaining concave portions and convex portions from the profile created in the profile creating step, and a density value and a characteristic value of each portion from the concave portion and convex portion obtained in the irregular portion acquiring step. A feature obtaining step of obtaining coordinates, and a determining step of determining a photographing position from the density values and the coordinates of the respective parts obtained in the feature obtaining step. Image discrimination method characterized by comprising the flop.
【請求項6】 上記処理ステップは、上記撮影画像から
す抜け領域及び該す抜け領域に接する領域を所定幅内で
削除するす抜け削除ステップを含み、 上記濃度値取得ステップは、上記す抜け削除ステップで
処理された撮影画像に対して、上記最高濃度値を得る処
理を行うステップを含むことを特徴とする請求項5記載
の画像判別方法。
6. The processing step includes a pass-through deletion step of deleting, within a predetermined width, a pass-through area and an area adjacent to the pass-through area from the captured image, and the density value acquiring step includes: 6. The image discriminating method according to claim 5, further comprising a step of performing a process of obtaining the maximum density value on the photographed image processed in the step.
【請求項7】 上記特徴取得ステップは、上記凸部の最
高濃度値を得て、上記凹部の最低濃度値を得るステップ
を含み、 上記判別ステップは、上記特徴取得ステップで得られた
上記凸部の最高濃度値と、上記凹部の最低濃度値とを比
較する第1の比較ステップと、該第1の比較ステップの
比較結果により撮影体位を判別する第1の判別ステップ
とを含むことを特徴とする請求項5記載の画像判別方
法。
7. The feature obtaining step includes a step of obtaining a highest density value of the convex portion and obtaining a lowest density value of the concave portion, and the determining step includes the step of obtaining the convex portion obtained in the feature obtaining step. A first comparing step of comparing the highest density value of the concave portion with the lowest density value of the concave portion, and a first determining step of determining a photographing position based on a comparison result of the first comparing step. 6. The image discriminating method according to claim 5, wherein
【請求項8】 上記特徴取得ステップは、上記凸部の最
高濃度値の座標を得て、上記凹部の最低濃度値の座標を
得るステップを含み、 上記判別ステップは、上記特徴取得ステップで得られた
上記凸部の最高濃度値の座標と、上記凹部の最低濃度値
の座標とを比較する第2の比較ステップと、該第2の比
較ステップの比較結果により撮影体位を判別する第2の
判別ステップとを含むことを特徴とする請求項5記載の
画像判別方法。
8. The feature obtaining step includes a step of obtaining coordinates of a highest density value of the convex portion and obtaining a coordinate of a lowest density value of the concave portion, and the determining step is obtained in the feature obtaining step. A second comparing step of comparing the coordinates of the highest density value of the convex portion with the coordinates of the lowest density value of the concave portion, and a second discrimination for discriminating the photographing position based on the comparison result of the second comparing step. 6. The method according to claim 5, further comprising the steps of:
【請求項9】 上記判別ステップは、上記凹凸部取得ス
テップで凹部が得られたか否かに基づいて撮影体位を判
別する第3の判別ステップを含むことを特徴とする請求
項5記載の画像判別方法。
9. The image discriminating method according to claim 5, wherein said discriminating step includes a third discriminating step of discriminating a photographing position based on whether or not a concave portion is obtained in said uneven portion acquiring step. Method.
【請求項10】 処理対象となる上記撮影画像は、平滑
化された画像であることを特徴とする請求項1、3、及
び5の何れかに記載の画像判別方法。
10. The method according to claim 1, wherein the photographed image to be processed is a smoothed image.
【請求項11】 上記撮影画像は、放射線胸部画像であ
り、 上記第1の部位は、肺部であり、 上記第2の部位は、縦隔部であることを特徴とする請求
項1、3、及び5の何れかに記載の画像判別方法。
11. The imaging device according to claim 1, wherein the photographed image is a radiation chest image, the first part is a lung, and the second part is a mediastinum. , And 5.
【請求項12】 少なくとも第1の部位と第2の部位を
有する被写体の撮影画像から、該被写体の撮影体位を判
別する画像判別装置であって、 上記第1の部位に対応する撮影画像領域の第1の濃度値
と、上記第2の部位に対応する撮影画像領域の第2の濃
度値とを比較する比較手段と、 上記比較手段の比較結果から上記撮影体位を判別する判
別手段とを備えることを特徴とする画像判別装置。
12. An image discriminating apparatus for discriminating a photographing position of a subject from a photographed image of the subject having at least a first part and a second part, wherein the photographing position of the photographed image area corresponding to the first part is determined. Comparing means for comparing a first density value with a second density value of a photographed image area corresponding to the second part, and determining means for determining the photographing position from the comparison result of the comparing means An image discriminating apparatus characterized in that:
【請求項13】 上記第1の部位に対応する撮影画像領
域の最高濃度値を上記第1の濃度値として取得し、上記
第2の部位に対応する撮影画像領域の最低濃度値を上記
第2の濃度値として取得する濃度値取得手段を更に備
え、 上記比較手段は、上記濃度値取得手段で得られた各濃度
値を比較することを特徴とする請求項12記載の画像判
別装置。
13. A maximum density value of a captured image area corresponding to the first part is obtained as the first density value, and a minimum density value of a captured image area corresponding to the second part is determined as the second density value. 13. The image discriminating apparatus according to claim 12, further comprising a density value obtaining unit that obtains the density values of the image data, wherein the comparing unit compares the respective density values obtained by the density value obtaining unit.
【請求項14】 少なくとも第1の部位と第2の部位を
有する被写体の撮影画像から、該被写体の撮影体位を判
別する画像判別装置であって、 上記第1の部位に対応する撮影画像領域内の特徴となる
第1の座標と、上記第2の部位に対応する撮影画像領域
内の特徴となる第2の座標との距離とを比較する比較手
段と、 上記比較手段の比較結果から上記撮影体位を判別する判
別手段とを備えることを特徴とする画像判別装置。
14. An image discriminating apparatus for discriminating a photographing position of a subject from a photographed image of the subject having at least a first part and a second part, wherein the photographing position is within a photographed image area corresponding to the first part. Comparing means for comparing the distance between the first coordinate, which is the characteristic of the above, and the second coordinate, which is the characteristic in the captured image area corresponding to the second part; An image discriminating apparatus, comprising: discriminating means for discriminating a body position.
【請求項15】 上記第1の部位に対応する撮影画像領
域の中点の座標を上記第1の座標として取得し、上記第
2の部位に対応する撮影画像領域の中点の座標を上記第
2の座標として取得する座標取得手段を更に備え、 上記比較手段は、上記座標取得手段で得られた各座標に
より得られた距離を比較することを特徴とする請求項1
4記載の画像判別装置。
15. The coordinates of the midpoint of the photographed image area corresponding to the first part are acquired as the first coordinates, and the coordinates of the midpoint of the photographed image area corresponding to the second part are obtained as the first coordinate. 2. The apparatus according to claim 1, further comprising coordinate acquisition means for acquiring the coordinates as a second coordinate, wherein the comparison means compares the distances obtained by the respective coordinates obtained by the coordinate acquisition means.
4. The image discriminating apparatus according to 4.
【請求項16】 少なくとも第1の部位と第2の部位を
有する被写体の撮影画像から、該被写体の撮影体位を判
別する画像判別装置であって、 上記第1の部位に対応する撮影画像領域の最高濃度値を
得る濃度値取得手段と、 上記撮像画像において、上記濃度値取得手段で得られた
最高濃度値の座標を通過する画像濃度値のプロファイル
を作成するプロファイル作成手段と、 上記プロファイル作成手段で作成されたプロファイルか
ら凹部及び凸部を得る凹凸部取得手段と、 上記凹凸部取得手段で得られた凹部及び凸部から各部の
特徴となる濃度値及びその座標を得る特徴取得手段と、 上記特徴取得手段で得られた各部の濃度値及び座標から
撮影体位を判別する判別手段とを備えることを特徴とす
る画像判別装置。
16. An image discriminating apparatus for discriminating a photographing position of a subject from a photographed image of the subject having at least a first part and a second part, wherein the photographing position of the photographed image area corresponding to the first part is determined. Density value acquiring means for obtaining a maximum density value; profile creating means for creating a profile of an image density value passing through the coordinates of the maximum density value obtained by the density value acquiring means in the captured image; A concave and convex portion obtaining means for obtaining a concave portion and a convex portion from the profile created in the above; a characteristic obtaining portion for obtaining a density value and a coordinate of a characteristic of each portion from the concave and convex portions obtained by the concave and convex portion obtaining device; An image discriminating apparatus comprising: a discriminating unit that discriminates a photographing position from the density value and coordinates of each unit obtained by the feature acquiring unit.
【請求項17】 上記撮影画像からす抜け領域及び該す
抜け領域に接する領域を所定幅内で削除するす抜け削除
手段を更に備え、 上記濃度値取得手段は、上記す抜け削除手段で処理され
た撮影画像に対して、上記最高濃度値を得る処理を行う
ことを特徴とする請求項16記載の画像判別装置。
17. A pass-through deletion unit for deleting a pass-through area and an area adjacent to the pass-through area from the photographed image within a predetermined width, wherein the density value acquisition unit is processed by the pass-through deletion unit. 17. The image discriminating apparatus according to claim 16, wherein the processing for obtaining the maximum density value is performed on the taken image.
【請求項18】 上記特徴取得手段は、上記凸部の最高
濃度値を取得し、上記凹部の最低濃度値を取得し、 上記判別手段は、上記特徴取得手段で得られた上記凸部
の最高濃度値と、上記凹部の最低濃度値とを比較する第
1の比較手段と、該第1の比較手段の比較結果により撮
影体位を判別する第1の判別手段とを含むことを特徴と
する請求項16記載の画像判別装置。
18. The feature acquiring unit acquires a maximum density value of the convex portion, acquires a minimum density value of the concave portion, and the determining unit acquires a maximum density value of the convex portion obtained by the feature acquiring unit. A first comparing means for comparing a density value with a minimum density value of the concave portion, and a first determining means for determining a photographing position based on a comparison result of the first comparing means. Item 17. The image discriminating apparatus according to Item 16.
【請求項19】 上記特徴取得手段は、上記凸部の最高
濃度値の座標を得ると共に、上記凹部の最低濃度値の座
標を得て、 上記判別手段は、上記特徴取得手段で得られた上記凸部
の最高濃度値の座標と、上記凹部の最低濃度値の座標と
を比較する第2の比較手段と、該第2の比較手段の比較
結果により撮影体位を判別する第2の判別手段とを含む
ことを特徴とする請求項16記載の画像判別装置。
19. The feature acquiring means obtains the coordinates of the highest density value of the convex portion and the coordinates of the lowest density value of the concave portion, and the determining means obtains the coordinates of the lowest density value obtained by the feature obtaining means. Second comparing means for comparing the coordinates of the highest density value of the convex portion with the coordinates of the lowest density value of the concave portion, and second determining means for determining the photographing position based on the comparison result of the second comparing means. 17. The image discriminating apparatus according to claim 16, comprising:
【請求項20】 上記判別手段は、上記凹凸部取得手段
で凹部が得られたか否かに基づいて撮影体位を判別する
第3の判別手段を含むことを特徴とする請求項16記載
の画像判別装置。
20. The image discriminating apparatus according to claim 16, wherein said discriminating means includes a third discriminating means for discriminating a photographing position based on whether or not a concave portion is obtained by said uneven portion acquiring means. apparatus.
【請求項21】 処理対象となる上記撮影画像は、平滑
化された画像であることを特徴とする請求項12、1
4、及び16の何れかに記載の画像判別装置。
21. The photographed image to be processed is a smoothed image.
The image discriminating apparatus according to any one of Items 4 and 16.
【請求項22】 上記撮影画像は、放射線胸部画像であ
り、 上記第1の部位は、肺部であり、 上記第2の部位は、縦隔部であることを特徴とする請求
項12、14、及び16の何れかに記載の画像判別装
置。
22. The radiographic apparatus according to claim 12, wherein the radiographic image is a radiological chest image, the first site is a lung, and the second site is a mediastinum. , And 16.
【請求項23】 少なくとも第1の部位と第2の部位を
有する被写体の撮影画像から、該被写体の撮影体位を判
別する処理ステップをコンピュータが読出可能に格納し
た記憶媒体であって、 上記処理ステップは、請求項1〜11の何れかに記載の
画像判別方法の処理ステップを含むことを特徴とする記
憶媒体。
23. A storage medium storing a computer-readable processing step of determining a photographing position of a subject from a photographed image of the subject having at least a first part and a second part. A storage medium comprising a processing step of the image determination method according to claim 1.
JP10094966A 1997-09-22 1998-04-07 Image determining method, image determining apparatus, and storage medium Pending JPH11290303A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP10094966A JPH11290303A (en) 1998-04-07 1998-04-07 Image determining method, image determining apparatus, and storage medium
US09/152,873 US6594380B2 (en) 1997-09-22 1998-09-14 Image discrimination apparatus and image discrimination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10094966A JPH11290303A (en) 1998-04-07 1998-04-07 Image determining method, image determining apparatus, and storage medium

Publications (1)

Publication Number Publication Date
JPH11290303A true JPH11290303A (en) 1999-10-26

Family

ID=14124671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10094966A Pending JPH11290303A (en) 1997-09-22 1998-04-07 Image determining method, image determining apparatus, and storage medium

Country Status (1)

Country Link
JP (1) JPH11290303A (en)

Similar Documents

Publication Publication Date Title
JP4830650B2 (en) Tracking device
JP6564018B2 (en) Radiation image lung segmentation technology and bone attenuation technology
US8331619B2 (en) Image processing apparatus and image processing method
KR101272448B1 (en) Apparatus and method for detecting region of interest, and the recording media storing the program performing the said method
CN108229475B (en) Vehicle tracking method, system, computer device and readable storage medium
CN1892702B (en) Tracking apparatus
US20090116731A1 (en) Method and system for detection of concha and intertragal notch point in 3D undetailed ear impressions
CN100366224C (en) Image processing apparatus and control method therefor
CN115564728A (en) Image corner detection method, device, equipment and application
CN111027474A (en) Face area acquisition method and device, terminal equipment and storage medium
JP3501634B2 (en) Feature extraction method, feature extraction device, image discrimination method, image discrimination device, and storage medium
JP3631095B2 (en) Irradiation field area extraction device, radiation imaging apparatus, radiation image system, irradiation field area extraction method, and computer-readable storage medium
EP3843038B1 (en) Image processing method and system
US6594380B2 (en) Image discrimination apparatus and image discrimination method
JP2006113832A (en) Stereo image processing apparatus and program
CN112017148B (en) Method and device for extracting single-segment skeleton contour
JPH11290303A (en) Image determining method, image determining apparatus, and storage medium
JP2001094829A (en) Image processing apparatus, image processing system, image processing method, and storage medium
JP2000163562A (en) Feature amount extraction device, method, and computer-readable storage medium
JP2000271108A (en) Image processing apparatus, image processing system, subject posture determination method, and storage medium
JP2000060832A (en) Image determination method, image determination device, image processing device, and storage medium
JP2002024822A (en) Image processing device, image processing system, image processing method, and recording medium
JP4280324B2 (en) Image discrimination method, image discrimination device, and storage medium
CN112258534A (en) Method for positioning and segmenting small brain earthworm parts in ultrasonic image
JPH11296675A (en) Image determining method, image determining apparatus, and storage medium