[go: up one dir, main page]

JPH0496879A - Picture processor - Google Patents

Picture processor

Info

Publication number
JPH0496879A
JPH0496879A JP2213785A JP21378590A JPH0496879A JP H0496879 A JPH0496879 A JP H0496879A JP 2213785 A JP2213785 A JP 2213785A JP 21378590 A JP21378590 A JP 21378590A JP H0496879 A JPH0496879 A JP H0496879A
Authority
JP
Japan
Prior art keywords
data
line
sight
image
perspective
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2213785A
Other languages
Japanese (ja)
Inventor
Michitaka Sugawara
通孝 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2213785A priority Critical patent/JPH0496879A/en
Publication of JPH0496879A publication Critical patent/JPH0496879A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

PURPOSE:To emphasize only the concerning site of a perspective transformation picture, and to enable a clear display which is easy to observe by operating a density gradation conversion of various density value data, emphasizing prescribed various density band data, and then operating a perspective transformation. CONSTITUTION:A continuous tomographic image by an X-ray CT device or the like is written in a picture memory 33 of a 3D processing part 3. Then, when a line of sight direction is set, the continuous tomographic picture is extracted through an interpolating part 34 by an interpolation factor corresponding to address integral and decimal parts converted into line of sight coordinates from a line of sight generating part 31, and voxcel data are prepared. The Hans field number of the voxcel data is applied to a designated wind function by a gradation converting part 35 so that the voxcel data whose various density value of the concerning site is large can be prepared, and supplied to a perspective transforming part 36. Then, the perspective transformation picture in the line of sight direction is prepared. Thus, the picture data of the concerning site is always displayed certainly and clearly.

Description

【発明の詳細な説明】 [発明の目的コ (産業上の利用分野) 本発明は、X線CT装置やMHI装置等で得られた三次
元画像データの濃淡値データに対して濃淡値階調変換を
行ない、視線方向から見た透視画像を作成して表示する
画像処理装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Objective of the Invention (Industrial Application Field) The present invention provides a method for determining grayscale value gradation for grayscale value data of three-dimensional image data obtained with an X-ray CT device, an MHI device, etc. The present invention relates to an image processing device that performs conversion to create and display a perspective image viewed from the viewing direction.

(従来の技術) 近年、医用画像診断装置の開発か進む中でX線CT装置
やMRI装置等を用いて被写体の連続断層像を撮影し、
この連続断層像に基ついて被写体の任意の視線方向から
の透視変換画像を?11ようという試みかなされている
(Prior Art) In recent years, with the progress in the development of medical image diagnostic equipment, continuous tomographic images of subjects are taken using X-ray CT equipment, MRI equipment, etc.
Based on this continuous tomographic image, can you create a perspective-transformed image from any viewing direction of the subject? 11 Attempts have been made to do so.

従来よりこのような透視変換画像を生成する場合には、
被写体の連続断層像を等■1隔て撮影し、これを3次元
座標上に書き込む。そして、この3次元座標に、任意の
方向(透視変換画像を得たい方向)から視線を通過させ
、被写体を通過した後の視線を視線面上にマツピングし
ている。
Conventionally, when generating such a perspective transformation image,
Continuous tomographic images of the subject are taken at equal intervals of one inch, and these are written on three-dimensional coordinates. Then, the line of sight is passed through these three-dimensional coordinates from an arbitrary direction (the direction in which a perspective-transformed image is desired), and the line of sight after passing through the subject is mapped onto the line-of-sight plane.

(発明か解決しようとする課題) このような従来装置にあっては、マツピングデータの濃
淡値は被写体のハンスフィールドナンハ(CT値)によ
って決定する。このため、例えば、ハンスフィールトナ
ンハの大きいfI部を通過する場合にはマツピンクデー
タの濃淡値か大きくナリ、また、ハンスフィールトナン
パの小さい軟部組織を通過する場合には濃淡値が小さく
なる。
(Problem to be Solved by the Invention) In such a conventional apparatus, the gradation value of the mapping data is determined by the Hounsfield Nankha (CT value) of the subject. Therefore, for example, when passing through an fI section with a large Hansfield Nanpa, the shading value of the pine pink data will be large, and when passing through soft tissue with a small Hansfield Nanpa, the shading value will be small. .

このため、濃淡値の大きな領域に囲まれた濃淡値の小さ
な被写体の特定部位のみを強調して表示させることは困
難である。例えば肺等のハンスフィールドナンパの小さ
い部位は周囲のデータに埋もれてしまうことかあり、関
心のある部位を鮮明に表示することかできないという欠
点があった。
For this reason, it is difficult to emphasize and display only a specific part of the subject with a small gradation value surrounded by an area with a large gradation value. For example, small parts of the Hounsfield pick-up, such as the lungs, may be buried in surrounding data, and the drawback is that the parts of interest cannot be clearly displayed.

この発明はこのような従来の課題を解決するためになさ
れたもので、その目的とするところは、透視変換画像を
作成する過程で特定濃淡値の部位のみを強調して表示す
ることのできる画像処理装置を提供することにある。
This invention was made in order to solve such conventional problems, and its purpose is to create an image that can emphasize and display only parts of a specific gray value in the process of creating a perspective transformation image. The purpose of this invention is to provide a processing device.

[発明の構成] (課題を解決するための手段) 上記目的を達成するため、本発明は、被検体の三次元画
像データに基づいて、任意の視線方向からの透視画像を
合成して画像表示する画像処理装置において、前記濃淡
値データに濃度階調変換を施し、所定の濃淡値帯域のデ
ータを強調した後、透視変換すること、が特徴である。
[Structure of the Invention] (Means for Solving the Problems) In order to achieve the above object, the present invention combines fluoroscopic images from any viewing direction based on three-dimensional image data of a subject and displays the image. The image processing apparatus is characterized in that the gradation value data is subjected to density gradation conversion, data in a predetermined gradation value band is emphasized, and then perspective conversion is performed.

(作用) 上述の如く構成すれば、断層撮影装置で撮影された連続
断層像の濃淡値データが、所定の濃淡値帯域のみ強調し
得るウィンド関数によって濃淡値階調変換される。従っ
て、関心のある対象物の濃淡値帯域を強調するようにウ
ィンド関数を設定すれば、この部分の濃淡値のみが強調
された三次元画像データか生成される。
(Function) With the above-described configuration, the grayscale value data of continuous tomographic images taken by the tomography apparatus is subjected to grayscale value gradation conversion using a wind function that can emphasize only a predetermined grayscale value band. Therefore, if a window function is set to emphasize the gray value band of the object of interest, three-dimensional image data in which only the gray value of this part is emphasized is generated.

そして、この三次元画像データを任意の方向から透視変
換することによって、視線方向の透視変換画像か得られ
る。この透視変換画像は濃淡値帯域を設定した関心部位
のみか強調され、鮮明に表示されるので操作者はこの画
像データを観察しやすくなる。
Then, by perspective-transforming this three-dimensional image data from an arbitrary direction, a perspective-transformed image in the line-of-sight direction can be obtained. In this perspective-converted image, only the region of interest for which the gradation value band has been set is emphasized and displayed clearly, making it easier for the operator to observe the image data.

(実施例) 以下、本発明の一実施例を図面に基づいて説明する。第
2図は本発明が適用された画像処理装置の概略的な構成
を示すブロック図である。
(Example) Hereinafter, an example of the present invention will be described based on the drawings. FIG. 2 is a block diagram showing a schematic configuration of an image processing apparatus to which the present invention is applied.

図示のように、この画像処理装置は、X1jlCT装置
やMRI装置等、被写体の連続断層像を撮影し得る断層
像撮影装置1と、この撮影装置1て撮影された画像デー
タを一担取込んて3D処理部3に出力するインターフェ
ース2と、与えられた連続断層像を3次元座標上に書込
み、任意の視線方向からの透視変換画像を生成する3D
処理部3と、この3D処理部3て生成された透視変換画
像を濃淡値階調変換、及びウィンド変換した後画像表示
する2D処理部4に大別されている。
As shown in the figure, this image processing device includes a tomographic imaging device 1, such as an X1jlCT device or an MRI device, which can take continuous tomographic images of a subject, and image data taken by this imaging device 1. An interface 2 that outputs to the 3D processing unit 3, and a 3D device that writes the given continuous tomographic images on three-dimensional coordinates and generates a perspective-transformed image from any viewing direction.
It is roughly divided into a processing section 3 and a 2D processing section 4 that subjects the perspective-converted image generated by the 3D processing section 3 to gradation value gradation conversion and window conversion, and then displays the image.

また、3D処理部3.及び2D処理部4に各設定値を設
定するために操作部5か設けられている。
In addition, the 3D processing section 3. An operation section 5 is also provided for setting each setting value in the 2D processing section 4.

第1図は本発明の主要部である3D処理部3の構成を示
すブロック図である。図示のように、3D処理部3は、
視線発生部31と、ウィンド関数発生部32と、画像メ
モリ33と、補間部34と、階調変換部35と、透視変
換部36から構成されている。
FIG. 1 is a block diagram showing the configuration of a 3D processing section 3, which is the main part of the present invention. As shown in the figure, the 3D processing section 3
It is composed of a line of sight generation section 31, a window function generation section 32, an image memory 33, an interpolation section 34, a tone conversion section 35, and a perspective conversion section 36.

画像メモリ33は、インタフェース2を介して得られた
被写体の連続断層画像を格納する。
The image memory 33 stores continuous tomographic images of the subject obtained via the interface 2.

視線発生部31は、第2図に示す操作部5て視線方向(
透視変換画像を得たい方向)が設定されると、透視座標
軸上での座標値のx、y、z値をそれぞれ、0から51
1まて1ずつ変化させ、それらにχ・1し視線角で座標
変換を行い、被写体座標上でのアドレスを得る。このと
き、視線発生部3]か画像メモリ33へ与えるメモリ・
アドレスは、x、y、zを視線角で座標変換したx、y
、zの整数部を使用する。(x、yを被写体座標のピク
セル間隔に合わせ、Zをスライス間隔に合わせることに
より、x、y、z、の整数部をメモリアドレスに対応さ
せる事か出来る)。
The line-of-sight generation unit 31 uses the operation unit 5 shown in FIG.
When the direction in which you want to obtain a perspective transformed image is set, the x, y, and z values of the coordinates on the perspective coordinate axes are set from 0 to 51, respectively.
1 and then change it by 1, multiply them by χ·1, perform coordinate transformation using the line of sight angle, and obtain an address on the subject coordinates. At this time, the memory and information provided to the image memory 33 by the line of sight generation unit 3
The address is x, y, which is the coordinate transformation of x, y, z using the line of sight angle.
, use the integer part of z. (By matching x, y to the pixel interval of the subject coordinates and matching Z to the slice interval, the integer parts of x, y, z can be made to correspond to memory addresses.)

また、視線発生部31か補間部34へ与える補間係数は
、x、y、z、のそれぞれの小数点以下の値を使用する
(これらの小数点以下の値をピクセル間の距離比として
補間係数として使用する)。
Furthermore, the interpolation coefficients given to the line-of-sight generation unit 31 or the interpolation unit 34 are the values below the decimal point of x, y, and z. (These values below the decimal point are used as the interpolation coefficients as the distance ratio between pixels. do).

更に、視線発生部31ては被写体座標を討算するための
元になる視線座標のx、yの値を、階調変換部35かデ
ータを2Dメモリ42に書き込むためのメモリアドレス
に使用する。
Furthermore, the line-of-sight generation unit 31 uses the x and y values of the line-of-sight coordinates, which are the basis for calculating the subject coordinates, as memory addresses for the gradation conversion unit 35 to write data into the 2D memory 42 .

補間部34は、画像メモリ33に格納されている各断層
画像データを抽出し、この画像データを視線発生部31
からlyえられた補間データで補間し、ボクセルデータ
を生成するものである。このとき、視線座標上の1点の
データを計算するために、被写体座標上の8近傍の濃淡
値データを使用する。
The interpolation unit 34 extracts each tomographic image data stored in the image memory 33 and transfers this image data to the line of sight generation unit 31.
Interpolation is performed using the interpolated data obtained from the data to generate voxel data. At this time, in order to calculate data for one point on the line-of-sight coordinates, eight neighboring gradation value data on the subject coordinates are used.

ウィンドウ関数発生部32は、第2図に示す操作部5て
設定された3次元ウィンドウ値に基づいて、ハンスフィ
ールドナンパと濃淡値との関係を示す関数を生成し、こ
れを階調変換部35に供給している。
The window function generation section 32 generates a function indicating the relationship between the Hounsfield pick-up and the gray value based on the three-dimensional window value set by the operation section 5 shown in FIG. is supplied to.

階調変換部35は、補間部34て生成されたボクセルデ
ータの濃淡値データをウィンドウ関数発生部32から与
えられた関数にあてはめて濃淡値を変換するものである
The gradation conversion section 35 converts the gradation value by applying the gradation value data of the voxel data generated by the interpolation section 34 to a function given from the window function generation section 32.

透視変換部36は、階調変換部35て濃淡値が変換され
た画像データに、設定された方向から視線を通過させ、
初期化1加算、書込みをピクセル数分たけ繰り返して、
視線面上に濃淡値データをマツピングする。そして、こ
のマツピングデータに基づいて、視線方向からの被写体
の透視変換画像を生成している。
The perspective conversion unit 36 causes the line of sight to pass through the image data whose gradation values have been converted by the gradation conversion unit 35 from a set direction,
Initialize 1 addition, repeat writing for the number of pixels,
Mapping the gray value data on the viewing plane. Based on this mapping data, a perspective-transformed image of the subject from the line-of-sight direction is generated.

第3図は2D処理部4の詳細な構成を示すブロック図で
ある。同図に示す2D処理部4は、従来のものと同様で
あり、3D処理部3から供給された視線方向からの透視
変換画像データを格納する2Dメモリ42と、第2図に
示す操作部5で設定された2Dウインド値に基ついてウ
ィンド関数を生成して出力するウィンド関数発生部4]
と、このウィンド関数に基づいて2Dメモリ42に格納
された透視変換画像の濃淡値を変換する階調変換部43
と、濃淡値が変換された後の断層画像ブタを一担格納す
る画像表示用メモリ44と、これを表示するモニタ45
から構成されている。
FIG. 3 is a block diagram showing the detailed configuration of the 2D processing section 4. As shown in FIG. The 2D processing section 4 shown in FIG. 2 is similar to the conventional one, and includes a 2D memory 42 that stores perspective-converted image data from the viewing direction supplied from the 3D processing section 3, and an operation section 5 shown in FIG. Wind function generation unit 4 that generates and outputs a wind function based on the 2D window value set in]
and a gradation converter 43 that converts the grayscale values of the perspective-converted image stored in the 2D memory 42 based on this window function.
, an image display memory 44 that stores the tomographic image after the grayscale values have been converted, and a monitor 45 that displays this.
It consists of

次に、本実施例の作用について説明する。Next, the operation of this embodiment will be explained.

X線CT装置やMRI装置等の断層像撮影装置1で例え
ば被検体頭部の連続断層像か撮影されると、この連続断
層像はインタフェース2を介して3D処理部3に供給さ
れ、第1図に示す画像ンモリ33に書込まれる。そして
、操作者が第2図に示す操作部5から断層画像を得よう
とする視線方向を設定すると、第1図に示す視線発生部
31ては、視線座標軸上の座標値をx、y、zをそれぞ
れ、例えば、0から51]まて1づつ変化させ、各座標
値に対して被写体座標(x、y、z)との間で座標変換
を行なう。
When a tomographic imaging device 1 such as an X-ray CT device or an MRI device captures continuous tomographic images of the subject's head, the continuous tomographic images are supplied to the 3D processing unit 3 via the interface 2 and The image is written to the image memory 33 shown in the figure. When the operator sets the line of sight direction to obtain a tomographic image from the operation unit 5 shown in FIG. 2, the line of sight generation unit 31 shown in FIG. For example, z is changed by 1 from 0 to 51], and coordinate transformation is performed between each coordinate value and the subject coordinates (x, y, z).

このとき、各視線座標(X、Y、Z)に対応する被写体
座標(x、y、z)の座標値z、y、zは必ずしも整数
値とはならず小数値を含むので、小数値を除去し、整数
値のみの被写体座標(Xy、z)と視線座標(X、Y、
Z)とを対応させている。そして、小数値は補間係数と
して補間部34に供給する。
At this time, the coordinate values z, y, z of the subject coordinates (x, y, z) corresponding to each line-of-sight coordinate (X, Y, Z) are not necessarily integer values and include decimal values. object coordinates (Xy, z) and line-of-sight coordinates (X, Y,
Z). The decimal value is then supplied to the interpolation unit 34 as an interpolation coefficient.

こうして、画像メモリ33に書込まれた断層画像データ
のメモリアドレスか被写体座標(x、  y2)から視
線座標(X、Y、Z)に変換される。
In this way, the memory address of the tomographic image data written in the image memory 33 is converted from the subject coordinates (x, y2) to the line-of-sight coordinates (X, Y, Z).

そして、補間部34ては画像メモリ33に書込まれた連
続断層画像を抽出して、視線発生部31から与えられた
補間係数を基に補間処理を施し、ボクセルデータを生成
する。
Then, the interpolation section 34 extracts the continuous tomographic images written in the image memory 33, performs interpolation processing based on the interpolation coefficient given from the line-of-sight generation section 31, and generates voxel data.

いま、撮影された頭部の画像データから頭部にてきた腫
瘍等の病変部を強調して観察したい場合には、操作者は
第2図に示す操作者5において、腫瘍のハンスフィール
ドナンハ「40」の近傍の濃淡値を大きくさせるべく設
定する。これによって、第1図に示すウィンド関数発生
部32ては、例えば第4図に示すようなウィンド関数を
生成し、これを階調変換部35に供給する。
Now, if you want to emphasize and observe a lesion such as a tumor that has come to the head from the photographed image data of the head, the operator 5 shown in FIG. 40'' is set to increase the gradation value in the vicinity. As a result, the window function generation section 32 shown in FIG. 1 generates a wind function as shown in FIG. 4, for example, and supplies this to the gradation conversion section 35.

そして、階調変換部35ては補間部34て補間処理か施
された後のボクセルデータのハンスフィルドナンハを、
このウィンド関数にあてはめて、4淡値を階調変換する
。これによって、関心部位である腫瘍の濃淡値か大きく
なったボクセルデータか生成され、透視変換部36に供
給される。
Then, the gradation conversion unit 35 converts the Hansfield Nancha of the voxel data after the interpolation process has been performed by the interpolation unit 34 to
By applying this window function, the gradation of the four tone values is converted. As a result, voxel data with increased density values of the tumor, which is the site of interest, is generated and supplied to the perspective conversion unit 36.

その後、透視変換部36では、視線発生部31から与え
られる視線」−を透視し、第5図に示すように、Z座標
(Z −0)の点て透視データを初期化し、(Z−0〜
511)の点てデータを書込み(Z−511)の点てデ
ータを加算して視線面上にマツピングする。そして、こ
のような透視変換を各ビクセル毎に実施し、その結果得
られたマツピングデータから視線方向の透視変換画像を
生成する。
Thereafter, the perspective transformation unit 36 looks through the line of sight given from the line of sight generation unit 31, initializes the perspective data by pointing at the Z coordinate (Z -0), and converts it to (Z - 0), as shown in FIG. ~
511) is written and the pointing data of (Z-511) is added and mapped onto the viewing plane. Then, such perspective transformation is performed for each pixel, and a perspective transformation image in the line-of-sight direction is generated from the mapping data obtained as a result.

こうして得られた透視変換画像は、予め関心部位である
腫瘍の濃淡値が大きくなっているので濃淡値の大きな骨
等に囲まれた腫瘍部分が強調された画像となる。そして
、この透視変換画像は2D処理部4に供給され、2Dメ
モリ42に一担格納される。その後、この画像データは
階調変換部43に読出され、ウィンド関数発生部41か
ら与えられるウィンド関数によって濃淡値階調変換、及
びウィンド変換が施される。
In the perspective transformation image obtained in this way, since the shading value of the tumor, which is the site of interest, has been increased in advance, the image becomes an image in which the tumor portion surrounded by bones and the like having large shading values is emphasized. This perspective-transformed image is then supplied to the 2D processing section 4 and stored in the 2D memory 42. Thereafter, this image data is read out to the gradation conversion section 43, and is subjected to gradation value gradation conversion and window conversion using the window function provided from the window function generation section 41.

そして、画像用メモリ44に一担書込まれた後、読出さ
れてモニタ45に画像表示されるのである。
After being written into the image memory 44, it is read out and displayed as an image on the monitor 45.

このようにして、本実施例では、特定のハンスフィール
ドナンパに対応する対象物の濃淡値を大きくするように
ウィンド関数が生成され、このウィンド関数に応じて画
像データの濃淡値階調変換か実施される。従って、透視
変換画像において頭部にてきた腫瘍等の関心部位のみを
強調して表示することができるようになり、操作者は表
示された透視変換画像を観察しやすくなる。
In this way, in this embodiment, a wind function is generated to increase the gray scale value of the object corresponding to a specific Hounsfield pick-up, and the gray scale value gradation conversion of the image data is performed according to this wind function. be done. Therefore, it becomes possible to highlight and display only the region of interest, such as a tumor that has come to the head, in the perspective-transformed image, making it easier for the operator to observe the displayed perspective-transformed image.

なお、本発明は被検体の三次元画像データを扱うもので
あればよく、上述の実施例で記載した撮影装置、撮影方
法に限定されるものではない。
Note that the present invention only needs to handle three-dimensional image data of a subject, and is not limited to the imaging apparatus and imaging method described in the above-described embodiments.

[発明の効果] 以上説明したように、本発明では、関心のある対象物の
濃淡値帯域のデータを強調した後、視線方向からの透視
変換画像を生成している。従って、関心部位の画像デー
タか回りのデータに埋もれることはなく、常に鮮明に画
像表示されるようになる。
[Effects of the Invention] As described above, in the present invention, after emphasizing the data of the grayscale value band of the object of interest, a perspective transformed image from the line-of-sight direction is generated. Therefore, the image data of the region of interest will not be buried in surrounding data, and the image will always be displayed clearly.

その結果、操作者か画像を観察しやすくなり、画像診断
の精度が著しく向上するという効果が得られる。
As a result, it becomes easier for the operator to observe the image, and the accuracy of image diagnosis is significantly improved.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例の主要部である3D処理部の
内部構成を示すブロック図、第2図は本発明の一実施例
の構成を概略的に示すブロック図第3図は2D処理部の
内部構成を詳細に示すブロック図、第4図はウィンド関
数の例を示す説明図第5図は透視変換を模式的に示す説
明図である。 1・断層像撮影装置 3・・3D処理部4・・・2D処
理部 31・・視線発生部 33・・・3Dメモリ 35・・階調変換部 操作部 ウィンド関数発生部 ・・補間部 ・・透視変換部
FIG. 1 is a block diagram showing the internal configuration of a 3D processing unit which is the main part of an embodiment of the present invention, FIG. 2 is a block diagram schematically showing the configuration of an embodiment of the present invention, and FIG. 3 is a 2D FIG. 4 is an explanatory diagram showing an example of a wind function; FIG. 5 is an explanatory diagram schematically showing perspective transformation. 1. Tomographic imaging device 3.. 3D processing section 4.. 2D processing section 31.. Line of sight generation section 33... 3D memory 35.. Gradation conversion section operation section Wind function generation section.. Interpolation section... Perspective conversion section

Claims (1)

【特許請求の範囲】 被検体の三次元画像データに基づいて、任意の視線方向
からの透視画像を合成して画像表示する画像処理装置に
おいて、 前記濃淡値データに濃度階調変換を施し、所定の濃淡値
帯域のデータを強調した後、透視変換すること を特徴とする画像処理装置。
[Scope of Claims] An image processing device that synthesizes and displays perspective images from arbitrary line-of-sight directions based on three-dimensional image data of a subject, comprising: An image processing device characterized in that data in a grayscale value band is emphasized and then subjected to perspective transformation.
JP2213785A 1990-08-14 1990-08-14 Picture processor Pending JPH0496879A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2213785A JPH0496879A (en) 1990-08-14 1990-08-14 Picture processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2213785A JPH0496879A (en) 1990-08-14 1990-08-14 Picture processor

Publications (1)

Publication Number Publication Date
JPH0496879A true JPH0496879A (en) 1992-03-30

Family

ID=16645008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2213785A Pending JPH0496879A (en) 1990-08-14 1990-08-14 Picture processor

Country Status (1)

Country Link
JP (1) JPH0496879A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006020800A (en) * 2004-07-07 2006-01-26 Toshiba Corp Ultrasonic diagnostic apparatus and image processing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006020800A (en) * 2004-07-07 2006-01-26 Toshiba Corp Ultrasonic diagnostic apparatus and image processing apparatus

Similar Documents

Publication Publication Date Title
Nelson et al. Visualization of 3D ultrasound data
CN101336844B (en) Medical image processing apparatus and medical image diagnosis apparatus
JP4709177B2 (en) Three-dimensional image processing apparatus and method, and program
JP2981506B2 (en) Imaging method and apparatus
US7127091B2 (en) Method and apparatus for visualizing a limited part of a 3D medical image-point-related data set, through basing a rendered image on an intermediate region between first and second clipping planes, and including spectroscopic viewing of such region
JP4421016B2 (en) Medical image processing device
CN101243472B (en) Systems and methods for selectively fusing 2D x-ray images and 3D ultrasound images
JP3896188B2 (en) Image processing device for radiation therapy planning
RU2009118382A (en) VISUALIZATION OF THREE-DIMENSIONAL IMAGES IN COMBINATION WITH TWO-DIMENSIONAL PROJECTION IMAGES
WO2001058359A1 (en) Ultrasonic imager
JP2013505778A (en) Computer-readable medium, system, and method for medical image analysis using motion information
CN106898027B (en) Method and apparatus for mapping three-dimensional images to two-dimensional images
CN111369675B (en) Method and device for three-dimensional visual model reconstruction based on visceral pleura projection of pulmonary nodules
EP3654292A1 (en) Three-dimensional ultrasound image display method
CN103593869B (en) A kind of scanning device and method for displaying image thereof
JP4018679B2 (en) Rendering processing method, rendering processing program, and rendering processing apparatus
JPH05120451A (en) Medical diagnostic picture processor
JP2001061834A (en) Three-dimensional image display device
CN1722981B (en) Real-time guiding auxiliary system for radiographic imaging
US20040131149A1 (en) Method and apparatus for visualizing a 3D data set
JP2007159643A (en) Image processing apparatus and method
Seipel et al. Oral implant treatment planning in a virtual reality environment
JP4996128B2 (en) Medical image processing apparatus and medical image processing method
US7116808B2 (en) Method for producing an image sequence from volume datasets
JP7180123B2 (en) Medical image processing apparatus, medical image processing method, program, and data creation method