JP2002306480A - Image processing apparatus and method - Google Patents
Image processing apparatus and methodInfo
- Publication number
- JP2002306480A JP2002306480A JP2001114326A JP2001114326A JP2002306480A JP 2002306480 A JP2002306480 A JP 2002306480A JP 2001114326 A JP2001114326 A JP 2001114326A JP 2001114326 A JP2001114326 A JP 2001114326A JP 2002306480 A JP2002306480 A JP 2002306480A
- Authority
- JP
- Japan
- Prior art keywords
- data
- dimensional
- image
- minimum
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Generation (AREA)
- Image Analysis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Processing (AREA)
Abstract
(57)【要約】
【課題】 医用画像等の膨大な容量のボクセルデータに
対して、データ中から対象としている臓器とその周囲の
画像データのみを抽出して新たに容量が小さなデータを
作成することで、その後の画像処理や画像保存の効率を
高めることが可能な画像処理装置を提供する。
【解決手段】 臓器が撮影された入力データ中の臓器の
対象領域の輪郭線を認識し、輪郭線をもとに臓器の3次
元的形状を算出し、その後、この臓器を内包する最小の
多面体を最小のデータとして抽出し、その臓器の名称や
生体内での位置を示すラベルと共にその最小のデータを
保存する。
(57) [Summary] [Problem] For voxel data having a large volume such as a medical image, only a target organ and its surrounding image data are extracted from the data to newly create small volume data. Thus, an image processing apparatus capable of improving the efficiency of subsequent image processing and image storage is provided. SOLUTION: An outline of a target region of an organ in input data obtained by photographing an organ is recognized, a three-dimensional shape of the organ is calculated based on the outline, and then the smallest polyhedron including the organ is recognized. Is extracted as the minimum data, and the minimum data is stored together with the name of the organ and a label indicating the position in the living body.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、ボクセルデータ等
を扱う医用画像処理技術における画像処理装置及びその
方法に関する。[0001] 1. Field of the Invention [0002] The present invention relates to an image processing apparatus and method in medical image processing technology for handling voxel data and the like.
【0002】[0002]
【従来の技術】従来の医用画像データは生体の2次元断
面像がほとんどであったが、今後は撮像技術の発展によ
り3次元データを取得することが可能となる。2. Description of the Related Art Conventionally, most medical image data is a two-dimensional cross-sectional image of a living body. However, three-dimensional data can be acquired in the future with the development of imaging technology.
【0003】その際、従来のような2次元データをその
まま結合した3次元ボクセルデータで表現する場合は、
データサイズが膨大なものとなりデータ処理やデータ転
送にも時間がかかってしまう。また、データ保存に大容
量の記録媒体が必要となることが想定される。[0003] At this time, when two-dimensional data is conventionally expressed as three-dimensional voxel data directly combined,
The data size becomes enormous, and it takes time for data processing and data transfer. It is also assumed that a large-capacity recording medium is required for data storage.
【0004】ここで、3次元ボクセルデータによる表現
とは、物体を、同じ大きさの小さな立方体の組み合わせ
による固まりとして表現することをいう。この小さな立
方体をボクセルと呼ぶ。表面が滑らかでない物体を表現
するのに優れており、積み木のようにボクセルを積み重
ねていくことで、任意の形状を作成できる。一方、ボク
セルデータによる表現は、データ量が膨大になるため、
積極的には利用されていない。例えば、200×200×200
のボクセル領域を表すのにあ、800万個のボクセルが
必要となる。1ボクセルを1バイトで表したとしても、
8MBのメモリーを要する。このため、主な用途として
は、医療分野におけるCT(コンピュータ断層撮影)ス
キャナの計測データの映像化など、限定された分野でし
か利用されていない。[0004] Here, the expression using three-dimensional voxel data means that an object is expressed as a mass of a combination of small cubes of the same size. This small cube is called a voxel. It is excellent for expressing objects whose surface is not smooth, and any shape can be created by stacking voxels like blocks. On the other hand, the representation by voxel data requires a huge amount of data,
Not actively used. For example, 200 × 200 × 200
Requires 8 million voxels to represent the voxel region of Even if one voxel is represented by one byte,
Requires 8MB of memory. For this reason, it is mainly used in limited fields such as imaging of measurement data of a CT (Computed Tomography) scanner in the medical field.
【0005】[0005]
【発明が解決しようとする課題】上述のように、従来の
ような2次元データをそのまま結合した3次元ボクセル
データを扱う場合には、データサイズが膨大なものとな
り、処理や保存に膨大な手間がかかる。As described above, when handling three-dimensional voxel data in which conventional two-dimensional data is directly combined, the data size becomes enormous, and enormous processing and storage time is required. It takes.
【0006】ところが、医用画像では、画像取得手段に
よっては撮影範囲が限られているためにボクセルデータ
内での対象臓器以外のデータ領域は不必要なデータであ
る場合が多い。However, in a medical image, the data area other than the target organ in the voxel data is often unnecessary because the imaging range is limited depending on the image acquisition means.
【0007】例えば、超音波エコー等で得られる図7
(a)の直方体のようなボクセルデータに対しては、超
音波プローブの特性のために図7(b)のように撮影範
囲は錐形になっている。For example, FIG. 7 obtained by an ultrasonic echo or the like
For the voxel data like a rectangular parallelepiped in (a), the imaging range is conical as shown in FIG. 7 (b) due to the characteristics of the ultrasonic probe.
【0008】また、図7(d)のように対象としている
臓器の領域は撮影範囲内の一部であることが多いため
に、図7(c)のようなその他の部分は不要なデータ領
域であることが多い。In addition, since the region of the target organ is often a part of the photographing range as shown in FIG. 7D, other parts as shown in FIG. 7C are unnecessary data regions. Often it is.
【0009】従って、ボクセルデータ中から図7(e)
のように対象としている臓器を含むデータだけを抽出で
きれば、データ量を削減でき、その後のデータ処理も容
易になることが予想される。[0009] Therefore, from the voxel data, FIG.
If only the data including the target organ can be extracted as in the above, it is expected that the amount of data can be reduced and the subsequent data processing can be facilitated.
【0010】そこで本発明では、対象としている臓器と
その周囲の画像データのみを抽出して元のデータよりも
容量の小さい新たなデータを作成することで、データ量
を削減して、その後のデータ処理も容易にできる画像処
理装置、及び、その方法を提供する。Therefore, in the present invention, the amount of data is reduced by extracting only the target organ and the surrounding image data and creating new data having a smaller capacity than the original data. Provided are an image processing apparatus that can easily perform processing and a method thereof.
【0011】[0011]
【課題を解決するための手段】請求項1の発明は、生体
器官等の対象物を撮像した2次元画像、または、3次元
画像から前記対象物の3次元形状を算出する3次元形状
算出手段と、前記対象物の3次元形状のデータから前記
対象物を内包する最小の3次元データを算出する最小デ
ータ算出手段と、前記算出された前記対象物の最小の3
次元データを記憶、または、出力するデータ記憶出力手
段と、を有することを特徴とする画像処理装置である。According to a first aspect of the present invention, there is provided a three-dimensional shape calculating means for calculating a three-dimensional shape of an object from a two-dimensional image of the object such as a living organ or a three-dimensional image. And minimum data calculating means for calculating minimum three-dimensional data including the object from the data of the three-dimensional shape of the object, and a minimum three-dimensional data of the calculated object.
And a data storage and output means for storing or outputting the dimensional data.
【0012】請求項2の発明は、前記最小データ算出手
段は、前記対象物を含むような最小の大きさの多面体内
部の画素値の集合を算出して、その集合を最小の3次元
データとすることを特徴とする請求項1記載の画像処理
装置である。According to a second aspect of the present invention, the minimum data calculating means calculates a set of pixel values inside a polyhedron having a minimum size including the object, and defines the set as minimum three-dimensional data. The image processing apparatus according to claim 1, wherein:
【0013】請求項3の発明は、前記3次元形状算出手
段は、前記対象物を撮像した3次元ボクセルデータから
2次元画像を生成する2次元画像生成手段と、前記生成
した2次元画像に撮像された前記対象物の輪郭を抽出す
る輪郭抽出手段と、前記抽出された輪郭線から前記対象
物の3次元形状を再構成する再構成手段と、を有するこ
とを特徴とする請求項1または2記載の画像処理装置で
ある。According to a third aspect of the present invention, the three-dimensional shape calculating means includes a two-dimensional image generating means for generating a two-dimensional image from three-dimensional voxel data obtained by imaging the object; 3. An apparatus according to claim 1, further comprising: a contour extracting unit configured to extract a contour of the target object, and a reconstructing unit configured to reconstruct a three-dimensional shape of the target object from the extracted contour line. An image processing apparatus as described in the above.
【0014】請求項4の発明は、前記データ記憶出力手
段は、前記対象物の生体内での位置を識別するラベルと
共に、前記対象物の最小の3次元データを記憶すること
を特徴とする請求項1から3記載の画像処理装置であ
る。According to a fourth aspect of the present invention, the data storage and output means stores minimum three-dimensional data of the object together with a label for identifying the position of the object in a living body. Item 4 is an image processing device according to any one of Items 1 to 3.
【0015】請求項5の発明は、生体内における対象物
の位置を示すラベルを、前記対象物の3次元データと共
に取得するデータ取得手段と、前記取得したラベル及び
前記対象物の3次元データに従って、前記対象物を前記
生体の所定の位置に表示する表示手段と、を有すること
を特徴とする画像処理装置である。According to a fifth aspect of the present invention, there is provided a data acquisition means for acquiring a label indicating a position of an object in a living body together with the three-dimensional data of the object, according to the acquired label and the three-dimensional data of the object. Display means for displaying the object at a predetermined position on the living body.
【0016】請求項6の発明は、生体器官等の対象物を
撮像した2次元画像、または、3次元画像から前記対象
物の3次元形状を算出する3次元形状算出ステップと、
前記対象物の3次元形状のデータから前記対象物を内包
する最小の3次元データを算出する最小データ算出ステ
ップと、前記算出された前記対象物の最小の3次元デー
タを記憶、または、出力するデータ記憶出力ステップ
と、を有することを特徴とする画像処理方法である。The invention according to claim 6 is a three-dimensional shape calculating step of calculating a three-dimensional shape of the object from a two-dimensional image obtained by capturing an object such as a living organ or a three-dimensional image;
A minimum data calculation step of calculating minimum three-dimensional data including the object from the data of the three-dimensional shape of the object; and storing or outputting the calculated minimum three-dimensional data of the object. And a data storage output step.
【0017】請求項7の発明は、生体器官等の対象物を
撮像した2次元画像、または、3次元画像から前記対象
物の3次元形状を算出する3次元形状算出機能と、前記
対象物の3次元形状のデータから前記対象物を内包する
最小の3次元データを算出する最小データ算出機能と、
前記算出された前記対象物の最小の3次元データを記
憶、または、出力するデータ記憶出力機能と、をコンピ
ュータによって実現することを特徴とする画像処理方法
のプログラムである。According to a seventh aspect of the present invention, there is provided a three-dimensional shape calculating function for calculating a three-dimensional shape of the object from a two-dimensional image or a three-dimensional image obtained by capturing an object such as a living organ. A minimum data calculation function for calculating minimum three-dimensional data including the object from the three-dimensional shape data;
A program for an image processing method, wherein a computer implements a data storage and output function of storing or outputting the calculated minimum three-dimensional data of the object.
【0018】本発明では、3次元データを取得した際
に、データ中の対象となる臓器を内包する領域データだ
けを抽出して新たなデータとして保存することで、デー
タ量を削減することができ、さらに抽出したデータは臓
器毎に分類可能なデータとなるので、その後のデータ処
理も容易にできる。According to the present invention, when three-dimensional data is obtained, only the region data including the target organ in the data is extracted and stored as new data, so that the data amount can be reduced. Further, since the extracted data is data that can be classified for each organ, subsequent data processing can be easily performed.
【0019】[0019]
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。特に超音波画像の例について述べ
る。Embodiments of the present invention will be described below with reference to the drawings. In particular, an example of an ultrasonic image will be described.
【0020】(1)画像処理装置10の構成 図1は、本発明の一実施形態に係る画像処理装置10の
構成を示すブロック図である。(1) Configuration of Image Processing Apparatus 10 FIG. 1 is a block diagram showing a configuration of an image processing apparatus 10 according to one embodiment of the present invention.
【0021】画像処理装置10は、各種の医用画像診断
装置(MRI,CT,超音波診断装置等)で取得した画
像データを処理・表示するもので、図1のように画像デ
ータ格納部1と、格納してある画像データを処理する画
像処理部2と、処理した画像をモニターに表示する画像
表示部3と、ユーザからの入力を受けつける入力部4と
から構成されている。The image processing apparatus 10 processes and displays image data obtained by various medical image diagnostic apparatuses (MRI, CT, ultrasonic diagnostic apparatus, etc.). As shown in FIG. An image processing unit 2 that processes stored image data, an image display unit 3 that displays a processed image on a monitor, and an input unit 4 that receives input from a user.
【0022】画像データ格納部1は、MRI,CT,超
音波診断装置等の医用画像診断装置で取得した画像、あ
るいは他の画像撮影装置で取得した画像を記憶するもの
である。The image data storage unit 1 stores an image obtained by a medical image diagnostic apparatus such as an MRI, CT, ultrasonic diagnostic apparatus, or an image obtained by another image photographing apparatus.
【0023】画像処理部2は、画像データ格納部1から
出力される画像データを入力として、ボクセルデータか
ら断面図を作成したり、対象物の輪郭線を算出したり、
算出結果をもとに新たなデータを作成したりするコンピ
ュータの演算装置から成り、下記で説明する処理の各機
能はプログラムによって実行される。The image processing unit 2 receives the image data output from the image data storage unit 1 as an input, creates a cross-sectional view from voxel data, calculates a contour of an object,
It is composed of an arithmetic unit of a computer that creates new data based on the calculation result, and each function of the processing described below is executed by a program.
【0024】画像表示部3は、画像処理部2で演算した
結果を画像として提示するもので、例えばテレビモニタ
から成る。The image display unit 3 presents the result calculated by the image processing unit 2 as an image, and is composed of, for example, a television monitor.
【0025】入力部4は、画像表示部3で表示された対
象物の画像に対してユーザが何か指示を与えたりする際
に用いるもので、例えばキーボードやマウスから成る。The input unit 4 is used when the user gives an instruction to the image of the target object displayed on the image display unit 3, and includes, for example, a keyboard and a mouse.
【0026】(2)対象物のデータ抽出を行う処理 次に、入力されたボクセルデータから対象物のデータ抽
出処理を行う流れについて説明する。(2) Processing for Extracting Data of Object Next, a flow of performing data extraction processing of an object from input voxel data will be described.
【0027】(2−1)自動抽出 図2は、入力データから自動的に対象物のデータ抽出を
行う処理の流れを示すフローチャートである。(2-1) Automatic Extraction FIG. 2 is a flowchart showing the flow of processing for automatically extracting data of an object from input data.
【0028】対象データとして、例えば超音波診断装置
を用いて心臓を含む胸部のボクセルデータを取得する。As the target data, voxel data of the chest including the heart is acquired using, for example, an ultrasonic diagnostic apparatus.
【0029】画像データ格納部1はそのボクセルデータ
を格納し、画像処理部2は格納されたデータから対象と
している臓器を含む領域データ、例えば心臓領域だけの
データを抽出する。The image data storage unit 1 stores the voxel data, and the image processing unit 2 extracts region data including the target organ, for example, data of only the heart region, from the stored data.
【0030】そして、その抽出結果のボクセルデータを
もとに画像処理部2では対象としている臓器を含む領域
データを抽出する。Then, based on the extracted voxel data, the image processing unit 2 extracts region data including the target organ.
【0031】なお、画像処理部2での抽出処理が終わっ
た後、画像表示部3ではモニター上に立体像、あるいは
断面像として心臓を表示する。After the extraction processing in the image processing unit 2 is completed, the image display unit 3 displays the heart as a three-dimensional image or a cross-sectional image on a monitor.
【0032】また、画像処理部2では抽出したデータを
新たなデータとして画像データ格納部1に保存すること
ができる。The image processing unit 2 can store the extracted data as new data in the image data storage unit 1.
【0033】(2−2)ユーザが対象物を指定した場合
のデータ抽出を行う処理 図3は、入力データに対してユーザが対象物を指定した
場合のデータ抽出を行う処理の流れを示すフローチャー
トである。(2-2) Processing for Extracting Data When User Designates Target Object FIG. 3 is a flowchart showing the flow of processing for extracting data when the user designates a target object for input data. It is.
【0034】この場合には画像データ格納部1はボクセ
ルデータを格納した後、画像表示部3のモニター上に入
力データを立体像、あるいは断面像として表示する。In this case, after storing the voxel data, the image data storage unit 1 displays the input data on the monitor of the image display unit 3 as a three-dimensional image or a sectional image.
【0035】表示画像に対してユーザがマウス等の入力
部4によって対象としている臓器の指定、さらに必要で
あれば探索範囲の指定を行う。The user designates a target organ by using the input unit 4 such as a mouse or the like, and further designates a search range if necessary.
【0036】そして、その入力結果のボクセルデータを
もとに画像処理部2では対象としている臓器を含む領域
データを抽出する。Then, based on the input result voxel data, the image processing unit 2 extracts region data including the target organ.
【0037】なお、抽出結果を画像表示部3のモニター
上に立体像、あるいは断面像として表示し、画像処理部
2では抽出したデータを新たなデータとして画像データ
格納部1に保存することができる。The extracted result is displayed on the monitor of the image display unit 3 as a three-dimensional image or a sectional image, and the image processing unit 2 can store the extracted data as new data in the image data storage unit 1. .
【0038】(3)画像処理部2での領域抽出処理 次に、上記のように抽出、または、入力されたボクセル
データに基づいて画像処理部2では、領域抽出処理を行
う。以下、その流れを説明する。ここで、「領域抽出処
理」とは、ボクセルデータ中から対象としている臓器の
輪郭線を算出し、前記算出された輪郭線から3次元的な
形状を再構成するというものである。(3) Region Extraction Process in Image Processing Unit 2 Next, the image processing unit 2 performs a region extraction process based on the voxel data extracted or input as described above. Hereinafter, the flow will be described. Here, the “region extraction processing” is to calculate the contour of the target organ from the voxel data and reconstruct a three-dimensional shape from the calculated contour.
【0039】(3−1)概 略 ここで、3次元的な形状再構成の流れを説明する。図4
が3次元的な形状を再構成する流れを説明する図であ
る。(3-1) Outline Here, the flow of three-dimensional shape reconstruction will be described. FIG.
Is a diagram for explaining the flow of reconstructing a three-dimensional shape.
【0040】例えば、図4(a)のような直方体のボク
セルデータの再構成のために、2つの方法がある。For example, there are two methods for reconstructing the rectangular parallelepiped voxel data as shown in FIG.
【0041】第1の方法は、図4(b)のようにある面
に平行な複数のスライスを考え、それぞれのスライスで
2次元の断面像を作成し、それらの2次元画像に対して
輪郭線抽出を行う方法である。The first method is to consider a plurality of slices parallel to a certain plane as shown in FIG. 4B, create a two-dimensional cross-sectional image with each slice, and apply contours to these two-dimensional images. This is a method for performing line extraction.
【0042】第2の方法は、図4(c)のようにある軸
を中心とした放射線状のスライスを考え、それぞれのス
ライスで2次元の断面像を作成し、それらの2次元画像
に対して輪郭線抽出を行う方法である。The second method considers radial slices centered on a certain axis as shown in FIG. 4C, creates a two-dimensional cross-sectional image with each slice, and applies these two-dimensional images to the slice images. This is a method of extracting a contour line.
【0043】第1の方法(図4(b))のようなスライ
スを考える場合は、図4(d)のように輪郭線を抽出
し、図4(f)のように輪郭線をスライスの位置に配置
して3次元的な形状を復元する。When considering a slice as in the first method (FIG. 4B), an outline is extracted as shown in FIG. 4D, and the outline is extracted as shown in FIG. 4F. The three-dimensional shape is restored by arranging at the position.
【0044】第2の方法(図4(c))のようなスライ
スを考える場合にも、図4(c)のように輪郭線を抽出
し、図4(f)のように輪郭線をスライスの位置に配置
して3次元的な形状を復元する。Even when considering a slice as in the second method (FIG. 4 (c)), an outline is extracted as shown in FIG. 4 (c), and the outline is sliced as shown in FIG. 4 (f). To restore the three-dimensional shape.
【0045】なお、スライスとスライスの間の輪郭線に
ついては、隣接しているスライスの輪郭線を補間しても
よい。As for a contour between slices, a contour of an adjacent slice may be interpolated.
【0046】3次元的な形状の再構成の詳細については
後述する。The details of the three-dimensional shape reconstruction will be described later.
【0047】(3−2)各スライスの断面像に対する輪
郭線の抽出 各スライスの断面像に対する輪郭線の抽出の例を挙げ
る。(3-2) Extraction of Contour Line from Cross-sectional Image of Each Slice An example of extraction of a contour line from a cross-sectional image of each slice will be described.
【0048】輪郭線抽出については、動的輪郭線を用い
る方法や、リージョン・グローイングを用いる方法など
がある。As for contour extraction, there are a method using an active contour, a method using region growing, and the like.
【0049】例えば、動的輪郭線を用いる場合には、図
5(a)のように画像上に複数の制御点を配置し、画素
の輝度勾配の大きい画素を領域のエッジとして、各制御
点がエッジ上に到達するように探索を進める。For example, when the active contour is used, a plurality of control points are arranged on the image as shown in FIG. The search proceeds such that reaches the edge.
【0050】制御点は図5(b)のように1、2、3…
と順番付けられており、制御点を順番に結んだものを対
象の輪郭線として得る。The control points are 1, 2, 3,... As shown in FIG.
And the control points are connected in order to obtain the target contour.
【0051】エッジの探索では、制御点の近傍で輝度勾
配の大きい点を見つけた場合に制御点をその点に移動さ
せる。In the search for an edge, when a point having a large luminance gradient is found near the control point, the control point is moved to that point.
【0052】制御点を移動させた後、例えば「制御点を
結んだ輪郭線がねじれることなく、かつ滑らかさを保つ
ような位置に移動させる」という制約を与え、制御点の
位置を修正することもある。After the control point is moved, for example, a constraint that "the contour connecting the control point is moved to a position where the contour line is not twisted and the smoothness is maintained" is given, and the position of the control point is corrected. There is also.
【0053】探索はすべての制御点についての移動変化
量の絶対値和があらかじめ定められたしきい値よりも小
さくなった場合に終了する。The search ends when the sum of the absolute values of the movement change amounts for all the control points becomes smaller than a predetermined threshold value.
【0054】ボクセルデータ中に占める対象の存在領域
が大きい場合には、図6のように自動的に初期探索点を
断面像中央に配置して探索を開始する。If the area of the object occupying the voxel data is large, the search is automatically started by arranging the initial search point at the center of the sectional image as shown in FIG.
【0055】また、ボクセルデータ中に占める対象の存
在領域が小さい場合やボクセルのある部分に偏っている
場合、ボクセルデータ中に対象とみなし得る臓器が複数
ある場合等には、ユーザが初期探索点や探索範囲を指定
してもよい。In addition, when the region where the object occupies in the voxel data is small, when the region is biased toward a certain portion of the voxel, or when there is a plurality of organs that can be considered as the object in the voxel data, the user can select the initial search point. Or a search range may be specified.
【0056】ユーザが初期制御点を指定する場合は、図
8(a)のようにボクセルデータをある断面で切断した
断面像を画像表示装置3に表示し、その断面像に対して
ユーザが入力部4の装置を用いて図8(b)のように初
期制御点や探索範囲を指定する。When the user designates an initial control point, a cross-sectional image obtained by cutting the voxel data at a certain cross-section is displayed on the image display device 3 as shown in FIG. 8A, and the user inputs the cross-sectional image. An initial control point and a search range are designated using the device of the unit 4 as shown in FIG.
【0057】自動的に初期輪郭線を設定するときは断面
像中央の点を中心とする小さな円形の初期輪郭線を生成
して輪郭線の探索を行う。When automatically setting an initial contour, a small circular initial contour centered on a point at the center of the cross-sectional image is generated to search for the contour.
【0058】また、ユーザが画像中の対象臓器内の一点
を指定した場合には、指定された点を中心とする小さな
円形の初期輪郭線を生成して、輪郭線の探索を行う。When the user designates one point in the target organ in the image, a small circular initial contour centered on the designated point is generated, and the contour is searched.
【0059】そして、各制御点が輝度勾配の大きい点、
すなわちエッジ上に到達するように探索を繰り返してい
く。探索は現在表示している断面像の隣接断面について
も順次行い、最終的にボクセルデータ全体に対して行
う。Then, each control point has a large luminance gradient,
That is, the search is repeated so as to reach the edge. The search is also performed sequentially on the adjacent sections of the currently displayed section image, and finally is performed on the entire voxel data.
【0060】(3−3)3次元形状の再構成 輪郭線探索を終えた後は、断面像のスライス方向をもと
に輪郭線の統合を行い、対象臓器の3次元形状を再構成
する。(3-3) Reconstruction of Three-Dimensional Shape After the contour search is completed, the contours are integrated based on the slice direction of the cross-sectional image to reconstruct the three-dimensional shape of the target organ.
【0061】例えば、第2の方法である図4(e)のよ
うに放射線状にスライス像を作成した場合の再構成の様
子を図9に示す。なお、以下の表記で「_」は添字を意
味し、例えば、「x_i」は、「xi」の意味である。For example, FIG. 9 shows a state of reconstruction when a slice image is radially formed as shown in FIG. 4E, which is the second method. It should be noted that, "_" in the following notation refers to the subscript, for example, "x_i" is the meaning of "x i".
【0062】ボクセルデータのある断面を基準として、
i番目のスライスにおけるj番目の制御点の断面図での
最終的な位置をP(i,j)=(x_i,y_j)とす
ると、ボクセルデータ内での3次元位置Q(i,j)=
(xx_ij,yy_ij,zz_ij)は arg=(スライスの方向角) xx_ij=cos(arg)*(x_ij−widt
h_i/2)+width_i/2 yy_ij=y_ij zz_ij=sin(arg)*(x_ij−widt
h_i/2)+width_i/2 となる。With reference to a section having voxel data,
Assuming that the final position in the sectional view of the j-th control point in the i-th slice is P (i, j) = (x_i, y_j), the three-dimensional position Q (i, j) = in the voxel data
(Xx_ij, yy_ij, zz_ij) is arg = (direction angle of slice) xx_ij = cos (arg) * (x_ij-widt
h_i / 2) + width_i / 2 yy_ij = y_ij zz_ij = sin (arg) * (x_ij-widt
h_i / 2) + width_i / 2.
【0063】ここで、width_iはi番目のスライ
スの断面図の幅とする。Here, width_i is the width of the sectional view of the i-th slice.
【0064】これをすべての制御点について計算するこ
とで、ボクセルデータ内の対象としている臓器の3次元
的な位置と形状が算出される。By calculating this for all the control points, the three-dimensional position and shape of the target organ in the voxel data are calculated.
【0065】画像表示部3では、抽出された輪郭線形状
と断面像を表示したり、再構成された3次元形状をワイ
ヤーフレーム・モデルやサーフェースレタリング・モデ
ルで表示したりすることもできる。これによりユーザは
表示結果を見て、対象としている臓器の状態を観察する
ことができる。The image display section 3 can display the extracted contour shape and cross-sectional image, and can display the reconstructed three-dimensional shape using a wire frame model or a surface lettering model. Thus, the user can observe the display result and observe the state of the target organ.
【0066】第1の方法である図4(d)のように平行
にスライス像を作成した場合の再構成も同様に行える。The first method, that is, reconstruction in the case of creating slice images in parallel as shown in FIG.
【0067】(3−4)その他 上記処理では、3次元ボクセルデータをスライスして2
次元画像を形成し、その後、臓器の輪郭線を抽出して、
再び3次元形状を再構成したが、これに代えて、3次元
ボクセルデータから臓器の輪郭線を直接抽出してもよ
い。(3-4) Others In the above processing, the three-dimensional voxel data is sliced into 2
Form a two-dimensional image, then extract the contours of the organs,
Although the three-dimensional shape is reconstructed again, the outline of the organ may be directly extracted from the three-dimensional voxel data instead.
【0068】(4)臓器を含む領域データのみの抽出 3次元形状の再構成を終えたら、ボクセルデータ中の対
象としている臓器を含む領域データのみを抽出し新たな
データとして保存する。(4) Extraction of only region data including organs After the reconstruction of the three-dimensional shape, only the region data including the target organ in the voxel data is extracted and stored as new data.
【0069】ここで「臓器を含む領域データ」とは、対
象としている臓器部分を含むような最小の大きさの多面
体内部の画素値の集合を指す。Here, the “region data including an organ” refers to a set of pixel values inside a polyhedron having the minimum size including the target organ portion.
【0070】図10で対象の3次元形状が決定された場
合の対象を含む多面体の例を示す。図では対象の存在領
域と新たな3次元データの関係を表している。FIG. 10 shows an example of a polyhedron including an object when the three-dimensional shape of the object is determined. The figure shows the relationship between the target existing area and the new three-dimensional data.
【0071】例えば、縦old_hei、横old_w
id、奥行きold_depなる直方体のボクセルデー
タに対して、対象としている臓器を含む多面体を直方体
として抽出する場合について説明する(図10の左側の
図を参照)。For example, vertical old_hei, horizontal old_w
A case will be described in which a polyhedron including a target organ is extracted as a rectangular parallelepiped from rectangular parallelepiped voxel data having id and depth old_dep (see the diagram on the left side of FIG. 10).
【0072】対象領域の輪郭線上の制御点N個が産出さ
れた場合に、対象領域を内包する縦new_hei、横
new_wid、奥行きnew_depの直方体の大き
さは、 new_wid=Max(x_ij)−Min(x_i
j) new_hei=Max(y_ij)−Min(y_i
j) new_dep=Max(z_ij)−Min(z_i
j) ここで、Max(x_ij)は制御点の横の長さx_i
jのうち最も長いもの、Min(x_ij)は制御点の
横の長さx_ijのうち最も短いもの、とする。When N control points on the contour line of the target area are generated, the size of the rectangular parallelepiped of vertical new_hei, horizontal new_wid, and depth new_dep including the target area is new_wid = Max (x_ij) −Min (x_i)
j) new_hei = Max (y_ij) −Min (y_i)
j) new_dep = Max (z_ij) −Min (z_i
j) Here, Max (x_ij) is the horizontal length x_i of the control point.
j is the longest, and Min (x_ij) is the shortest of the horizontal lengths x_ij of the control points.
【0073】このようにして元のボクセルデータから縦
new_hei、横new_wid、奥行きnew_d
epの直方体領域のデータのみを抽出し、新しいボクセ
ルデータとして画像データ格納部1に保存することがで
きる。In this way, from the original voxel data, vertical new_hei, horizontal new_wid, depth new_d
Only the data of the rectangular parallelepiped region of ep can be extracted and stored in the image data storage unit 1 as new voxel data.
【0074】保存の際には、抽出した対象臓器が元のボ
クセルデータのどの位置に存在していたかを示すラベ
ル、及び、抽出した対象臓器の名称等を識別できるラベ
ルと共に画像データを保存する。At the time of storage, the image data is stored together with a label indicating the position of the extracted target organ in the original voxel data and a label capable of identifying the name of the extracted target organ.
【0075】ここで、抽出されたデータは記録媒体に保
存する他、通信手段を用いて他地点にあるサーバー等に
データを送信してもよい。Here, in addition to storing the extracted data in a recording medium, the data may be transmitted to a server or the like at another location using a communication means.
【0076】(5)ラベル付けされたデータ処理を行う
画像処理装置の例 上記のようなラベル付けされたデータ処理を行う画像処
理装置の例を説明する。(5) Example of Image Processing Apparatus that Performs Labeled Data Processing An example of an image processing apparatus that performs labeled data processing as described above will be described.
【0077】画像処理装置は画像データと共に、抽出し
た対象臓器が元のボクセルデータのどの位置に存在して
いたかを示すラベル、及び抽出した対象臓器の名称等を
識別できるラベルを読み込み、ラベルの情報に従って生
体内での対象臓器の位置をモニタに表示する。複数の臓
器データがある場合にはそれらの位置関係を表示するこ
ともできる。The image processing apparatus reads a label indicating where the extracted target organ was located in the original voxel data and a label capable of identifying the name of the extracted target organ together with the image data, and reads the label information. , The position of the target organ in the living body is displayed on the monitor. When there are a plurality of organ data, their positional relationship can be displayed.
【0078】また、画像処理装置は、対象臓器の名称を
示すラベルを用いてデータ処理をしたり、また、複数の
データの中から所望のデータを検索したりすることもで
きる。The image processing apparatus can perform data processing using a label indicating the name of the target organ, or can search for desired data from a plurality of data.
【0079】以上のごとく、本発明では3次元ボクセル
データを取得した際に、ボクセルデータ中の対象となる
臓器を含む領域データのみを抽出し保存することで、デ
ータ量を削減し、またその後のデータ処理を容易にする
ことができる。As described above, according to the present invention, when three-dimensional voxel data is obtained, only the area data including the target organ in the voxel data is extracted and stored, so that the data amount can be reduced. Data processing can be facilitated.
【0080】[0080]
【発明の効果】本発明では、医用画像等の入力ボクセル
データ内で対象としている臓器の領域を自動的に認識し
たり、あるいはユーザの指定した所望の領域を抽出した
りすることで、もとのボクセルデータから必要なデータ
のみを獲得できる。According to the present invention, a region of a target organ is automatically recognized in input voxel data such as a medical image or a desired region designated by a user is extracted. Only necessary data can be obtained from the voxel data.
【0081】したがって、今後膨大な容量のデータを扱
うことが予想される3次元データ処理に関して、必要な
部分のデータのみを抽出できるので処理能力の向上を図
ることができ、また、データ保存の効率向上させること
もできる。Therefore, in the three-dimensional data processing which is expected to handle a huge amount of data in the future, only the necessary data can be extracted, so that the processing capacity can be improved and the efficiency of data storage can be improved. It can also be improved.
【0082】さらに、新しく生成されたデータはもとの
データよりも容量が小さく、対象としている臓器の種別
毎に分類可能であるため、その後の画像管理が行い易
い。Further, the newly generated data has a smaller capacity than the original data and can be classified according to the type of the target organ, so that subsequent image management is easy.
【図1】本発明の一実施形態に係る画像処理装置の構成
を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention.
【図2】画像処理の流れを示すフローチャートである。FIG. 2 is a flowchart illustrating a flow of image processing.
【図3】画像処理の流れを示すフローチャートである。FIG. 3 is a flowchart illustrating a flow of image processing.
【図4】3次元形状再構成の例を説明する図である。FIG. 4 is a diagram illustrating an example of three-dimensional shape reconstruction.
【図5】画像上に制御点を配置した例である。FIG. 5 is an example in which control points are arranged on an image.
【図6】初期制御点の例である。FIG. 6 is an example of an initial control point.
【図7】ボクセルデータ中の対象領域が占める範囲を説
明する図である。FIG. 7 is a diagram illustrating a range occupied by a target area in voxel data.
【図8】ユーザが指定する初期制御点の例である。FIG. 8 is an example of an initial control point designated by a user.
【図9】断面図の輪郭線から3次元形状を再構成するこ
とを説明する図である。FIG. 9 is a diagram for describing reconstruction of a three-dimensional shape from a contour line of a cross-sectional view.
【図10】対象臓器を含む多角形を説明する図である。FIG. 10 is a diagram illustrating a polygon including a target organ.
1 画像データ格納部 2 画像処理部 3 画像表示部 4 入力部 1 image data storage unit 2 image processing unit 3 image display unit 4 input unit
フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/60 250 G06T 7/60 250B 15/00 200 15/00 200 Fターム(参考) 4C301 BB13 EE20 JC13 KK16 KK26 KK30 LL14 5B057 AA07 AA09 BA05 BA07 BA24 CA13 CA16 CB13 CB16 CC03 CD14 CE09 CH08 CH18 DA08 DB03 DC14 DC16 5B080 AA17 BA02 5L096 AA09 BA06 BA13 CA01 CA24 EA28 EA35 EA37 FA06 FA46 FA69 Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (reference) G06T 7/60 250 G06T 7/60 250B 15/00 200 15/00 200 F term (reference) 4C301 BB13 EE20 JC13 KK16 KK26 KK30 LL14 5B057 AA07 AA09 BA05 BA07 BA24 CA13 CA16 CB13 CB16 CC03 CD14 CE09 CH08 CH18 DA08 DB03 DC14 DC16 5B080 AA17 BA02 5L096 AA09 BA06 BA13 CA01 CA24 EA28 EA35 EA37 FA06 FA46 FA69
Claims (7)
像、または、3次元画像から前記対象物の3次元形状を
算出する3次元形状算出手段と、 前記対象物の3次元形状のデータから前記対象物を内包
する最小の3次元データを算出する最小データ算出手段
と、 前記算出された前記対象物の最小の3次元データを記
憶、または、出力するデータ記憶出力手段と、 を有することを特徴とする画像処理装置。1. A three-dimensional shape calculating means for calculating a three-dimensional shape of an object from a two-dimensional image or a three-dimensional image of an object such as a living organ, and data of the three-dimensional shape of the object. A minimum data calculation unit that calculates minimum three-dimensional data including the object from the following; and a data storage output unit that stores or outputs the calculated minimum three-dimensional data of the object. An image processing apparatus characterized by the above-mentioned.
素値の集合を算出して、その集合を最小の3次元データ
とすることを特徴とする請求項1記載の画像処理装置。2. The method according to claim 1, wherein said minimum data calculating means calculates a set of pixel values inside a polyhedron having a minimum size including said object and sets the set as minimum three-dimensional data. The image processing device according to claim 1.
画像を生成する2次元画像生成手段と、 前記生成した2次元画像に撮像された前記対象物の輪郭
を抽出する輪郭抽出手段と、 前記抽出された輪郭線から前記対象物の3次元形状を再
構成する再構成手段と、 を有することを特徴とする請求項1または2記載の画像
処理装置。3. The two-dimensional image generating means for generating a two-dimensional image from three-dimensional voxel data obtained by capturing the object, the three-dimensional shape calculating means; and the object captured by the generated two-dimensional image The image processing apparatus according to claim 1, further comprising: a contour extracting unit configured to extract a contour of the object; and a reconstructing unit configured to reconstruct a three-dimensional shape of the object from the extracted contour line. .
前記対象物の最小の3次元データを記憶することを特徴
とする請求項1から3記載の画像処理装置。4. The data storage and output means includes a label for identifying a position of the object in a living body,
4. The image processing apparatus according to claim 1, wherein the minimum three-dimensional data of the object is stored.
を、前記対象物の3次元データと共に取得するデータ取
得手段と、 前記取得したラベル及び前記対象物の3次元データに従
って、前記対象物を前記生体の所定の位置に表示する表
示手段と、 を有することを特徴とする画像処理装置。5. A data acquisition means for acquiring a label indicating a position of an object in a living body together with three-dimensional data of the object, and the object according to the acquired label and three-dimensional data of the object. An image processing apparatus comprising: a display unit configured to display a predetermined position on the living body.
像、または、3次元画像から前記対象物の3次元形状を
算出する3次元形状算出ステップと、 前記対象物の3次元形状のデータから前記対象物を内包
する最小の3次元データを算出する最小データ算出ステ
ップと、 前記算出された前記対象物の最小の3次元データを記
憶、または、出力するデータ記憶出力ステップと、 を有することを特徴とする画像処理方法。6. A three-dimensional shape calculating step of calculating a three-dimensional shape of the object from a two-dimensional image or a three-dimensional image obtained by capturing an object such as a living organ, and data of the three-dimensional shape of the object. A minimum data calculation step of calculating minimum three-dimensional data including the object from the following; and a data storage output step of storing or outputting the calculated minimum three-dimensional data of the object. An image processing method characterized by the following.
像、または、3次元画像から前記対象物の3次元形状を
算出する3次元形状算出機能と、 前記対象物の3次元形状のデータから前記対象物を内包
する最小の3次元データを算出する最小データ算出機能
と、 前記算出された前記対象物の最小の3次元データを記
憶、または、出力するデータ記憶出力機能と、 をコンピュータによって実現することを特徴とする画像
処理方法のプログラム。7. A three-dimensional shape calculation function for calculating a three-dimensional shape of the target object from a two-dimensional image or a three-dimensional image of a target object such as a living organ, and data of the three-dimensional shape of the target object A minimum data calculation function for calculating minimum three-dimensional data including the object from the above, and a data storage output function for storing or outputting the calculated minimum three-dimensional data of the object, by a computer. A program for an image processing method which is realized.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001114326A JP3692050B2 (en) | 2001-04-12 | 2001-04-12 | Image processing apparatus and method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001114326A JP3692050B2 (en) | 2001-04-12 | 2001-04-12 | Image processing apparatus and method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2002306480A true JP2002306480A (en) | 2002-10-22 |
| JP3692050B2 JP3692050B2 (en) | 2005-09-07 |
Family
ID=18965414
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001114326A Expired - Fee Related JP3692050B2 (en) | 2001-04-12 | 2001-04-12 | Image processing apparatus and method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3692050B2 (en) |
Cited By (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003190102A (en) * | 2001-12-28 | 2003-07-08 | Ziosoft Inc | Medical image processing system and program |
| JP2005278991A (en) * | 2004-03-30 | 2005-10-13 | National Institute Of Advanced Industrial & Technology | Remote image interpretation service system |
| JP2006000301A (en) * | 2004-06-16 | 2006-01-05 | National Institute Of Advanced Industrial & Technology | Image processing apparatus and operation support system using the same |
| JP2006061697A (en) * | 2004-08-27 | 2006-03-09 | General Electric Co <Ge> | Method and system for 3D segmentation of ultrasound images |
| WO2006115567A1 (en) * | 2005-04-25 | 2006-11-02 | Siemens Medical Solutions Usa, Inc. | Three-dimensional cardiac border delineation in medical imaging |
| JP2006305357A (en) * | 2005-04-26 | 2006-11-09 | Biosense Webster Inc | Superposition of ultrasonic data and pre-acquired image |
| US7223240B2 (en) | 2002-11-14 | 2007-05-29 | Aloka Co., Ltd. | Ultrasonic diagnostic apparatus |
| JP2007289556A (en) * | 2006-04-27 | 2007-11-08 | Matsushita Electric Ind Co Ltd | Ultrasonic diagnostic equipment |
| JP2009530008A (en) * | 2006-03-20 | 2009-08-27 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Ultrasound diagnosis by quantifying myocardial performance |
| JP2010115372A (en) * | 2008-11-13 | 2010-05-27 | Toshiba Corp | Three-dimensional ultrasonograph |
| US7755618B2 (en) | 2005-03-31 | 2010-07-13 | Sony Corporation | Image processing apparatus and image processing method |
| JP2019535336A (en) * | 2016-09-05 | 2019-12-12 | レイサーチ ラボラトリーズ,エービー | Image processing system and method for interactive contour rendering of 3D medical data |
| JP2020008519A (en) * | 2018-07-12 | 2020-01-16 | 古野電気株式会社 | Underwater detection device and underwater detection method |
| JP2020508127A (en) * | 2017-02-20 | 2020-03-19 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Determination of follicle number and size |
| JP2020086803A (en) * | 2018-11-22 | 2020-06-04 | 大日本印刷株式会社 | Rendering apparatus, rendering method, and program |
| CN115965566A (en) * | 2021-10-09 | 2023-04-14 | 佳能医疗系统株式会社 | Three-dimensional contour drawing device and three-dimensional contour drawing method |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102655299B1 (en) * | 2016-11-15 | 2024-04-08 | 삼성메디슨 주식회사 | Ultrasound probe and manufacturing method for the same |
-
2001
- 2001-04-12 JP JP2001114326A patent/JP3692050B2/en not_active Expired - Fee Related
Cited By (23)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003190102A (en) * | 2001-12-28 | 2003-07-08 | Ziosoft Inc | Medical image processing system and program |
| US7223240B2 (en) | 2002-11-14 | 2007-05-29 | Aloka Co., Ltd. | Ultrasonic diagnostic apparatus |
| EP1419737B1 (en) * | 2002-11-14 | 2007-07-11 | Aloka Co. Ltd. | Ultrasonic diagnostic apparatus |
| JP2005278991A (en) * | 2004-03-30 | 2005-10-13 | National Institute Of Advanced Industrial & Technology | Remote image interpretation service system |
| JP2006000301A (en) * | 2004-06-16 | 2006-01-05 | National Institute Of Advanced Industrial & Technology | Image processing apparatus and operation support system using the same |
| JP2006061697A (en) * | 2004-08-27 | 2006-03-09 | General Electric Co <Ge> | Method and system for 3D segmentation of ultrasound images |
| US7755618B2 (en) | 2005-03-31 | 2010-07-13 | Sony Corporation | Image processing apparatus and image processing method |
| WO2006115567A1 (en) * | 2005-04-25 | 2006-11-02 | Siemens Medical Solutions Usa, Inc. | Three-dimensional cardiac border delineation in medical imaging |
| US10143398B2 (en) | 2005-04-26 | 2018-12-04 | Biosense Webster, Inc. | Registration of ultrasound data with pre-acquired image |
| JP2006305357A (en) * | 2005-04-26 | 2006-11-09 | Biosense Webster Inc | Superposition of ultrasonic data and pre-acquired image |
| JP2009530008A (en) * | 2006-03-20 | 2009-08-27 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Ultrasound diagnosis by quantifying myocardial performance |
| JP2007289556A (en) * | 2006-04-27 | 2007-11-08 | Matsushita Electric Ind Co Ltd | Ultrasonic diagnostic equipment |
| JP2010115372A (en) * | 2008-11-13 | 2010-05-27 | Toshiba Corp | Three-dimensional ultrasonograph |
| JP2019535336A (en) * | 2016-09-05 | 2019-12-12 | レイサーチ ラボラトリーズ,エービー | Image processing system and method for interactive contour rendering of 3D medical data |
| JP2020508127A (en) * | 2017-02-20 | 2020-03-19 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Determination of follicle number and size |
| JP7044796B2 (en) | 2017-02-20 | 2022-03-30 | コーニンクレッカ フィリップス エヌ ヴェ | Determining the number and size of follicles |
| JP7044796B6 (en) | 2017-02-20 | 2022-05-31 | コーニンクレッカ フィリップス エヌ ヴェ | Determining the number and size of follicles |
| JP2020008519A (en) * | 2018-07-12 | 2020-01-16 | 古野電気株式会社 | Underwater detection device and underwater detection method |
| JP7051625B2 (en) | 2018-07-12 | 2022-04-11 | 古野電気株式会社 | Underwater detector and underwater detection method |
| JP2020086803A (en) * | 2018-11-22 | 2020-06-04 | 大日本印刷株式会社 | Rendering apparatus, rendering method, and program |
| JP7205189B2 (en) | 2018-11-22 | 2023-01-17 | 大日本印刷株式会社 | Rendering device, rendering method, and program |
| CN115965566A (en) * | 2021-10-09 | 2023-04-14 | 佳能医疗系统株式会社 | Three-dimensional contour drawing device and three-dimensional contour drawing method |
| JP2023057013A (en) * | 2021-10-09 | 2023-04-20 | キヤノンメディカルシステムズ株式会社 | Medical image processing apparatus and medical image processing method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP3692050B2 (en) | 2005-09-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8532359B2 (en) | Biodata model preparation method and apparatus, data structure of biodata model and data storage device of biodata model, and load dispersion method and apparatus of 3D data model | |
| CN101796544B (en) | Visualization method and system of voxel data | |
| US9697639B2 (en) | Three-dimensional model data generation device, method and program | |
| JP2002306480A (en) | Image processing apparatus and method | |
| US8849016B2 (en) | Panoramic image generation from CBCT dental images | |
| US9025858B2 (en) | Method and apparatus for automatically generating optimal 2-dimensional medical image from 3-dimensional medical image | |
| CA2386050C (en) | Method and system for storing a selected view of a three dimensional image | |
| JP4545169B2 (en) | Image display method, apparatus and program | |
| EP2220621B1 (en) | Volume rendering apparatus and method | |
| US10319119B2 (en) | Methods and systems for accelerated reading of a 3D medical volume | |
| JP4018303B2 (en) | Medical image processing device | |
| JP3712234B2 (en) | Region of interest extraction method and image processing server | |
| JP2002535786A (en) | Interactive sculpting for volume investigation and feature extraction | |
| CN107067398A (en) | Complementing method and device for lacking blood vessel in 3 D medical model | |
| JP2010162340A (en) | Image processing apparatus, image processing method, and image processing program | |
| Tran et al. | A research on 3D model construction from 2D DICOM | |
| KR20200101772A (en) | Apparatus and method for displaying consecutive nodule images automatically based on machine learning | |
| JP4337987B2 (en) | Information processing apparatus and program | |
| WO2021030995A1 (en) | Inferior vena cava image analysis method and product based on vrds ai | |
| JP5403431B2 (en) | Tomographic image processing method and apparatus | |
| Tran et al. | An improved method for building a 3D model from 2D DICOM | |
| JP3977237B2 (en) | Volume rendering image processing program, image processing terminal, and image processing server | |
| JPWO2005111944A1 (en) | Data display method, data display device, data display program, and computer-readable recording medium recording the same | |
| JP2007144056A (en) | Modeling device, region extracting device, modeling method and program | |
| Al-Ani et al. | 3D visualization based on surface estimation techniques |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050315 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050516 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050607 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050617 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090624 Year of fee payment: 4 |
|
| LAPS | Cancellation because of no payment of annual fees |